KR102596897B1 - Method of motion vector and feature vector based fake face detection and apparatus for the same - Google Patents

Method of motion vector and feature vector based fake face detection and apparatus for the same Download PDF

Info

Publication number
KR102596897B1
KR102596897B1 KR1020220142359A KR20220142359A KR102596897B1 KR 102596897 B1 KR102596897 B1 KR 102596897B1 KR 1020220142359 A KR1020220142359 A KR 1020220142359A KR 20220142359 A KR20220142359 A KR 20220142359A KR 102596897 B1 KR102596897 B1 KR 102596897B1
Authority
KR
South Korea
Prior art keywords
face
fake
fake face
motion vector
real
Prior art date
Application number
KR1020220142359A
Other languages
Korean (ko)
Other versions
KR20220150868A (en
Inventor
문일현
김종성
권재철
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR1020220142359A priority Critical patent/KR102596897B1/en
Publication of KR20220150868A publication Critical patent/KR20220150868A/en
Application granted granted Critical
Publication of KR102596897B1 publication Critical patent/KR102596897B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/95Pattern authentication; Markers therefor; Forgery detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/469Contour-based spatial representations, e.g. vector-coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole

Abstract

본 발명은 위조 얼굴 검출에 관한 것이다. 본 발명의 일 양상에 따르면 위조 얼굴을 검출하는 방법은, 이미지 획득 장치로부터 획득된 영상에 대한 모션 벡터를 추출하는 단계; 상기 획득된 영상에 대한 특징 벡터를 추출하는 단계; 및 상기 모션 벡터에 기반한 위조 얼굴 분류를 수행하고, 상기 특징 벡터에 기반한 위조 얼굴 분류를 수행하여, 위조 얼굴 여부를 판정하는 단계를 포함할 수 있다. The present invention relates to fake face detection. According to one aspect of the present invention, a method for detecting a fake face includes extracting a motion vector for an image acquired from an image acquisition device; extracting feature vectors for the acquired image; And it may include performing fake face classification based on the motion vector and performing fake face classification based on the feature vector to determine whether the face is fake.

Description

모션벡터 및 특징벡터 기반 위조 얼굴 검출 방법 및 장치{METHOD OF MOTION VECTOR AND FEATURE VECTOR BASED FAKE FACE DETECTION AND APPARATUS FOR THE SAME}Motion vector and feature vector based fake face detection method and device {METHOD OF MOTION VECTOR AND FEATURE VECTOR BASED FAKE FACE DETECTION AND APPARATUS FOR THE SAME}

본 발명은 위조 얼굴 검출에 관한 것으로, 보다 구체적으로는 모션벡터 및 특징벡터에 기반하여 위조 얼굴을 검출하는 방법, 장치, 소프트웨어, 이러한 소프트웨어가 저장된 기록 매체에 대한 것이다.The present invention relates to detecting fake faces, and more specifically, to a method, device, and software for detecting fake faces based on motion vectors and feature vectors, and a recording medium storing such software.

신원 확인, 출입 관리 등의 다양한 목적으로 얼굴 인식 기술에 대한 수요가 증가하고 있다. 정확한 얼굴 인식을 위해서, 카메라를 통해서 획득된 이미지가 위조 얼굴인지를 검출하는 것이 요구된다. 예를 들어, 카메라를 통해서 획득된 이미지가 실제 얼굴을 촬영한 것인지, 아니면 위조된 피사체를 촬영한 것인지(예를 들어, 얼굴 사진을 촬영한 것인지, 얼굴 영상이 재생되는 디스플레이를 촬영한 것인지)를 판별하는 기술이 요구된다. Demand for facial recognition technology is increasing for various purposes such as identity verification and access control. For accurate face recognition, it is required to detect whether an image acquired through a camera is a fake face. For example, whether an image acquired through a camera is a photograph of a real face or a fake subject (e.g., a photograph of a face or a display on which a face image is played) Discrimination technology is required.

종래의 위조 얼굴 검출 기술은 적외선 카메라 또는 열적외선 카메라 등의 장비를 이용하여 실제 사람의 얼굴의 열이 감지되는지 여부에 따라 위조 여부를 판별할 수 있다. 그러나, 이를 위해서는 고가의 적외선 카메라가 별도로 구비되기 때문에 일반적인 카메라에 적용하기 어렵다. Conventional counterfeit face detection technology uses equipment such as an infrared camera or thermal infrared camera to determine whether the face is counterfeit based on whether the heat of the actual person's face is detected. However, since an expensive infrared camera is separately provided for this, it is difficult to apply it to a general camera.

한편, 일반적으로 사용되는 RGB 카메라를 이용한 위조 얼굴 검출 기술에 따르면, 눈이나 입 주변의 제한적인 움직임을 검출하거나, 배경과 얼굴 객체의 움직임을 검출하여, 검출된 결과에 가중치를 적용하여 수치화하고, 이를 이용하여 위조 여부를 판별할 수 있다. 그러나, 단순히 눈이나 입의 움직임을 이용하는 기술에서는, 고해상도 컬러 프린터를 이용하여 눈이나 입과 같은 특정 부위가 정밀하게 인쇄된 사진을 이용하거나 실제 눈이나 입의 움직임에 따라 모델링하는 방식이 적용된다면, 위조 여부를 판별하지 못할 수도 있다. 또한, 얼굴 인식 장치가 설치된 환경과 동일 또는 유사한 배경에서 촬영된 고해상도 이미지를 재생(replay)하는 경우 종래의 얼굴 인식 시스템에서는 위조 여부를 판별하지 못할 수도 있다. 이와 같이, 종래의 위조 얼굴 판별 기술은 눈이나 입 등의 얼굴의 특징(feature)에 대한 데이터에 기반하기 때문에, 사람마다 실제 얼굴과 위조 얼굴의 특징의 차이점을 반영하지 못하여, 위조 얼굴 판별의 정확도가 낮은 문제가 있다. Meanwhile, according to the commonly used fake face detection technology using RGB cameras, limited movement around the eyes or mouth is detected, or movement of the background and facial objects is detected, weights are applied to the detected results and quantified, Using this, you can determine whether it is counterfeit or not. However, in technology that simply uses the movements of the eyes or mouth, if a photo with specific parts such as the eyes or mouth is precisely printed using a high-resolution color printer, or modeling according to the actual movements of the eyes or mouth is applied, It may not be possible to determine whether it is counterfeit or not. Additionally, when replaying a high-resolution image taken in the same or similar background as the environment in which the facial recognition device is installed, a conventional facial recognition system may not be able to determine whether it is forgery. As such, since the conventional fake face identification technology is based on data about facial features such as eyes and mouth, it cannot reflect the differences between the features of the real face and the fake face for each person, so the accuracy of fake face identification is low. There is a problem with low

본 발명은 모션 벡터와 특징 벡터를 결합하여 위조 얼굴의 검출 확률을 획기적으로 높이는 방법 및 장치를 제공하는 것을 기술적 과제로 한다. The technical task of the present invention is to provide a method and device that dramatically increases the probability of detecting a fake face by combining motion vectors and feature vectors.

본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the description below. You will be able to.

본 발명의 일 양상에 따르면 위조 얼굴을 검출하는 방법은, 이미지 획득 장치로부터 획득된 영상에 대한 모션 벡터를 추출하는 단계; 상기 획득된 영상에 대한 특징 벡터를 추출하는 단계; 및 상기 모션 벡터에 기반한 위조 얼굴 분류를 수행하고, 상기 특징 벡터에 기반한 위조 얼굴 분류를 수행하여, 위조 얼굴 여부를 판정하는 단계를 포함할 수 있다. According to one aspect of the present invention, a method for detecting a fake face includes extracting a motion vector for an image acquired from an image acquisition device; extracting feature vectors for the acquired image; And it may include performing fake face classification based on the motion vector and performing fake face classification based on the feature vector to determine whether the face is fake.

본 발명의 다른 양상에 따르면 위조 얼굴을 검출하는 장치는, 이미지 획득 장치로부터 획득된 영상에 대한 모션 벡터를 추출하는 모션 벡터 추출부; 상기 획득된 영상에 대한 특징 벡터를 추출하는 특징 벡터 추출부; 상기 모션 벡터에 기반한 위조 얼굴 분류기; 및 상기 특징 벡터에 기반한 위조 얼굴 분류기를 포함할 수 있다. 상기 모션 벡터에 기반한 위조 얼굴 분류기의 분류 결과 및 상기 특징 벡터에 기반한 위조 얼굴 분류기의 분류 결과에 기초하여 위조 얼굴 여부가 판정될 수 있다. According to another aspect of the present invention, an apparatus for detecting a fake face includes: a motion vector extractor for extracting a motion vector for an image acquired from an image acquisition device; a feature vector extraction unit that extracts feature vectors for the acquired image; a fake face classifier based on the motion vector; and a fake face classifier based on the feature vector. A fake face may be determined based on the classification result of the fake face classifier based on the motion vector and the classification result of the fake face classifier based on the feature vector.

본 발명의 또 다른 양상에 따르면 위조 얼굴 검출 장치에 의해 실행가능한 명령들을 가지는 소프트웨어가 저장된 컴퓨터-판독가능한 매체가 제공될 수 있다. 상기 실행가능한 명령들은, 상기 위조 얼굴 검출 장치로 하여금, 이미지 획득 장치로부터 획득된 영상에 대한 모션 벡터를 추출하고, 상기 획득된 영상에 대한 특징 벡터를 추출하고, 상기 모션 벡터에 기반한 위조 얼굴 분류를 수행하고, 상기 특징 벡터에 기반한 위조 얼굴 분류를 수행하여, 위조 얼굴 여부를 판정하도록 할 수 있다.According to another aspect of the present invention, a computer-readable medium storing software having instructions executable by a counterfeit face detection device may be provided. The executable instructions cause the fake face detection device to extract a motion vector for an image acquired from an image acquisition device, extract a feature vector for the acquired image, and classify a fake face based on the motion vector. It is possible to perform fake face classification based on the feature vector and determine whether it is a fake face.

본 발명의 다양한 양상들에 있어서, 상기 모션 벡터에 기반한 위조 얼굴 분류, 또는 상기 특징 벡터에 기반한 위조 얼굴 분류 중의 하나 이상에서 위조 얼굴이라고 분류되는 경우, 최종적으로 위조 얼굴이라고 판정될 수 있다. In various aspects of the present invention, if a face is classified as a fake in one or more of the fake face classification based on the motion vector or the fake face classification based on the feature vector, it may be finally determined to be a fake face.

본 발명의 다양한 양상들에 있어서, 상기 모션 벡터에 기반한 위조 얼굴 분류, 및 상기 특징 벡터에 기반한 위조 얼굴 분류 모두에서 실제 얼굴이라고 분류되는 경우, 개인별 위조 얼굴 분류가 추가적으로 수행될 수 있다. In various aspects of the present invention, if a fake face is classified as a real face in both the motion vector-based fake face classification and the feature vector-based fake face classification, individual fake face classification may be additionally performed.

본 발명의 다양한 양상들에 있어서, 상기 개인별 위조 얼굴 분류는, 개인별 실제 얼굴 데이터, 개인별 실제 위조 얼굴 데이터, 또는 변환된 개인별 위조 얼굴 데이터 중의 하나 이상을 이용하여 학습된 분류기에 의해서 수행될 수 있다. In various aspects of the present invention, the individual fake face classification may be performed by a classifier learned using one or more of individual real face data, individual real fake face data, or converted individual fake face data.

본 발명의 다양한 양상들에 있어서, 상기 개인별 실제 위조 얼굴 데이터는, 개인별 실제 얼굴을 촬영한 사진 또는 동영상을 촬영한 결과물일 수 있다. In various aspects of the present invention, the real fake face data for each individual may be the result of taking a photo or video of the real face for each individual.

본 발명의 다양한 양상들에 있어서, 상기 변환된 위조 얼굴 데이터는, 상기 실제 위조 얼굴 데이터에 변환 행렬이 적용됨으로써 획득되며, 상기 변환 행렬은 적응적으로 업데이트될 수 있다.In various aspects of the present invention, the transformed fake face data is obtained by applying a transformation matrix to the real fake face data, and the transformation matrix can be adaptively updated.

본 발명의 다양한 양상들에 있어서, 상기 획득된 영상으로부터 얼굴 랜드마크를 검출하는 단계를 더 포함하고, 상기 특징 벡터는 검출된 얼굴 랜드마크에 대한 기하학적인 특징을 표현하는 기술자(descriptor) 정보일 수 있다. In various aspects of the present invention, the method further includes detecting a facial landmark from the acquired image, wherein the feature vector may be descriptor information expressing geometric features for the detected facial landmark. there is.

본 발명의 다양한 양상들에 있어서, 상기 획득된 영상으로부터 얼굴 랜드마크를 검출하는 단계를 더 포함하고, 상기 모션 벡터는 검출된 얼굴 랜드마크의 움직임의 크기 및 방향을 나타내는 정보일 수 있다. In various aspects of the present invention, the method further includes detecting a facial landmark from the acquired image, and the motion vector may be information indicating the magnitude and direction of movement of the detected facial landmark.

본 발명의 다양한 양상들에 있어서, 상기 모션 벡터에 기반한 위조 얼굴 분류는, 실제 얼굴에 대한 모션 벡터 특징 모델과, 위조 얼굴에 대한 모션 벡터 특징모델에 기반하여, 상기 획득된 영상의 위조 여부를 판정하는 단계를 포함할 수 있다. In various aspects of the present invention, the motion vector-based fake face classification determines whether the acquired image is fake based on a motion vector feature model for a real face and a motion vector feature model for a fake face. It may include steps.

본 발명의 다양한 양상들에 있어서, 상기 위조 얼굴에 대한 모션 벡터 특징 모델은, 사진을 이용한 위조 얼굴에 대한 모션 벡터 특징 모델과, 동영상을 이용한 위조 얼굴에 대한 모션 벡터 특징 모델을 포함할 수 있다. In various aspects of the present invention, the motion vector feature model for the fake face may include a motion vector feature model for the fake face using a photo and a motion vector feature model for the fake face using a video.

본 발명의 다양한 양상들에 있어서, 상기 모션 벡터에 기반한 위조 얼굴 분류는, 제 1 영역, 제 2 영역 및 제 3 영역의 각각에 대해서, 상기 획득된 영상의 연속하는 두 프레임 간에 관측되는 움직임 패턴을 계산하는 단계를 포함하고, 상기 제 3 영역은 상기 제 2 영역을 포함하고, 상기 제 2 영역은 상기 제 1 영역을 포함할 수 있다. In various aspects of the present invention, the fake face classification based on the motion vector includes, for each of the first region, the second region, and the third region, a motion pattern observed between two consecutive frames of the acquired image. A calculating step may be included, wherein the third area may include the second area, and the second area may include the first area.

본 발명의 다양한 양상들에 있어서, 상기 모션 벡터는, 상기 제 1, 제 2 및 제 3 영역의 각각에서 평균 벡터를 계산하고, 상기 제 1, 제 2 및 제 3 영역의 평균 벡터들을 결합함으로써 결정될 수 있다. In various aspects of the invention, the motion vector may be determined by calculating an average vector in each of the first, second and third regions and combining the average vectors of the first, second and third regions. You can.

본 발명의 다양한 양상들에 있어서, 상기 제 1 영역은 얼굴 영역이고, 상기 제 2 영역은 헤드 영역이고, 상기 제 3 영역은 배경 영역일 수 있다. In various aspects of the present invention, the first area may be a face area, the second area may be a head area, and the third area may be a background area.

본 발명의 다양한 양상들에 있어서, 상기 특징 벡터에 기반한 위조 얼굴 분류는, 하나 이상의 실제 얼굴 데이터, 하나 이상의 실제 위조 얼굴 데이터, 또는 하나 이상의 변환된 위조 얼굴 데이터 중의 하나 이상을 이용하여 학습된 분류기에 의해서 수행될 수 있다. In various aspects of the present invention, the fake face classification based on the feature vector includes a classifier learned using one or more of one or more real face data, one or more real fake face data, or one or more converted fake face data. It can be performed by

본 발명의 다양한 양상들에 있어서, 상기 하나 이상의 실제 위조 얼굴 데이터의 각각은, 상기 하나 이상의 실제 얼굴을 촬영한 사진 또는 동영상을 촬영한 결과물의 각각에 대응할 수 있다.In various aspects of the present invention, each of the one or more real fake face data may correspond to each of a result of taking a photo or video of the one or more real faces.

본 발명의 다양한 양상들에 있어서, 상기 하나 이상의 변환된 위조 얼굴 데이터의 각각은, 상기 하나 이상의 실제 위조 얼굴 데이터의 각각에 변환 행렬이 적용됨으로써 획득되며, 상기 변환 행렬은 적응적으로 업데이트될 수 있다.In various aspects of the present invention, each of the one or more transformed fake face data is obtained by applying a transformation matrix to each of the one or more real fake face data, and the transformation matrix can be adaptively updated. .

본 발명에 대하여 위에서 간략하게 요약된 특징들은 후술하는 본 발명의 상세한 설명의 예시적인 양상일 뿐이며, 본 발명의 범위를 제한하는 것은 아니다.The features briefly summarized above with respect to the present invention are merely exemplary aspects of the detailed description of the present invention that follows, and do not limit the scope of the present invention.

본 발명에 모션 벡터와 특징 벡터를 결합하여 위조 얼굴의 검출 확률을 획기적으로 높이는 방법 및 장치가 제공될 수 있다. The present invention can provide a method and device that dramatically increases the detection probability of a fake face by combining a motion vector and a feature vector.

본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects that can be obtained from the present invention are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description below. will be.

본 명세서에 첨부되는 도면은 본 발명에 대한 이해를 제공하기 위한 것으로서 본 발명의 다양한 실시형태들을 나타내고 명세서의 기재와 함께 본 발명의 원리를 설명하기 위한 것이다.
도 1은 얼굴 특징점에 기반한 위조 얼굴 검출 방법을 설명하기 위한 흐름도이다.
도 2는 얼굴 특징점과 배경의 변화를 이용한 위조 얼굴 검출을 설명하기 위한 블록도이다.
도 3은 본 발명에 따른 위조 얼굴 검출 장치의 구성과 동작을 설명하기 위한 도면이다.
도 4는 본 발명에 따른 모션 벡터 추출 영역을 설명하기 위한 도면이다.
도 5는 본 발명에 따른 모션 벡터를 추출하는 장치의 구성 및 동작을 설명하기 위한 도면이다.
도 6 내지 도 8은 본 발명에 따라서 획득된 모션 벡터의 예시들을 설명하기 위한 도면이다.
도 9는 본 발명에 따른 모션 벡터 위조 얼굴 분류기의 구성 및 동작을 설명하기 위한 도면이다.
도 10은 본 발명에 따른 모션 벡터 위조 얼굴 분류기를 이용하여 위조 얼굴을 판별하는 방법을 설명하기 위한 도면이다.
도 11은 본 발명에 따른 일반적인 위조 얼굴 분류기 및 개인별 위조 얼굴 분류기의 구성 및 동작을 설명하기 위한 도면이다.
도 12는 본 발명에 따른 위조 얼굴 특징점 데이터 생성부에서 이용가능한 변환 행렬에 대해서 설명하기 위한 도면이다.
도 13은 일반적인 위조 얼굴 분류기의 생성을 설명하기 위한 도면이다.
도 14는 개인별 위조 얼굴 분류기의 생성을 설명하기 위한 도면이다.
The drawings attached to this specification are intended to provide an understanding of the present invention, show various embodiments of the present invention, and together with the description of the specification, explain the principles of the present invention.
1 is a flowchart illustrating a method for detecting a fake face based on facial feature points.
Figure 2 is a block diagram to explain fake face detection using changes in facial features and background.
Figure 3 is a diagram for explaining the configuration and operation of a fake face detection device according to the present invention.
Figure 4 is a diagram for explaining a motion vector extraction area according to the present invention.
Figure 5 is a diagram for explaining the configuration and operation of a device for extracting a motion vector according to the present invention.
6 to 8 are diagrams for explaining examples of motion vectors obtained according to the present invention.
Figure 9 is a diagram for explaining the configuration and operation of the motion vector forged face classifier according to the present invention.
Figure 10 is a diagram for explaining a method of identifying a fake face using a motion vector fake face classifier according to the present invention.
Figure 11 is a diagram for explaining the configuration and operation of a general fake face classifier and an individual fake face classifier according to the present invention.
Figure 12 is a diagram for explaining the transformation matrix available in the fake facial feature point data generator according to the present invention.
Figure 13 is a diagram to explain the creation of a general fake face classifier.
Figure 14 is a diagram to explain the creation of an individual fake face classifier.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고, 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Below, with reference to the attached drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily implement the present invention. However, the present invention may be implemented in many different forms and is not limited to the embodiments described herein. In order to clearly explain the present invention in the drawings, parts that are not related to the description are omitted, and similar parts are given similar reference numerals throughout the specification.

도 1은 얼굴 특징점에 기반한 위조 얼굴 검출 방법을 설명하기 위한 흐름도이다. 1 is a flowchart illustrating a method for detecting a fake face based on facial feature points.

단계 S110에서 카메라 등을 이용하여 촬영된 영상을 획득할 수 있다. 단계 S120에서 획득된 영상에서 얼굴 객체(예를 들어, 눈)을 검출할 수 있다. 단계 S130에서 변화량을 비교할 수 있도록 얼굴 영상 정규화를 수행할 수 있다. 단계 S140에서 변화량 측정의 주요 대상이 되는 특징점에 해당하는 영역(예를 들어, 눈 영역)을 이진화하여 저장할 수 있다. 단계 S150에서는 상기 단계 S110 내지 S140이 N회 반복되는지를 판정하고, 그렇지 않은 경우 단계 S110부터 다시 수행되고, N회 반복된 영상을 획득한 경우 단계 S160이 수행될 수 있다.In step S110, an image captured using a camera or the like can be obtained. A facial object (eg, eyes) may be detected from the image acquired in step S120. In step S130, facial image normalization can be performed so that the amount of change can be compared. In step S140, the area (for example, eye area) corresponding to the feature point that is the main target of change measurement may be binarized and stored. In step S150, it is determined whether steps S110 to S140 are repeated N times. If not, the process is performed again from step S110. If an image repeated N times is obtained, step S160 may be performed.

단계 S160에서는 N 개의 정규화된 얼굴 영상과 각각의 얼굴 영상으로부터 추출된 특징점 영역(예를 들어, 눈 영역)의 이진화된 데이터를 기반으로 N 개의 얼굴 영상에서 특징점 영역의 변화량을 계산할 수 있다. 만약, 사진 등의 위조 얼굴에서는 눈 깜박임 등이 발생하지 않을 것이므로, 실제 얼굴 영상에 비하여 특징점 영역의 변화량이 매우 적을 수 있고, 이에 기반하여 위조 얼굴 여부를 판별할 수 있다.In step S160, the amount of change in the feature point areas in the N face images can be calculated based on the N normalized face images and the binarized data of the feature point regions (for example, eye regions) extracted from each face image. If eye blinking does not occur in a fake face such as a photo, the amount of change in the feature point area may be very small compared to an actual face image, and based on this, it can be determined whether the face is fake.

도 2는 얼굴 특징점과 배경의 변화를 이용한 위조 얼굴 검출을 설명하기 위한 블록도이다. Figure 2 is a block diagram to explain fake face detection using changes in facial features and background.

영상 획득 블록(210)는 카메라를 통해 촬영된 영상을 획득하고, 획득된 영상을 얼굴 추출 블록(220) 및 배경 학습 블록(230)에 입력할 수 있다.The image acquisition block 210 may acquire an image captured through a camera, and input the acquired image into the face extraction block 220 and the background learning block 230.

얼굴 추출 블록(220)은 획득된 영상으로부터 얼굴 객체를 추출하여 얼굴 영상을 움직임 정보 비교 블록(260) 및 배경간 비교 블록(270)에 전달할 수 있다. The face extraction block 220 may extract a face object from the acquired image and transmit the face image to the motion information comparison block 260 and the background-to-background comparison block 270.

배경 학습 블록(230)은 영상 획득 블록(210)으로부터 획득된 다수의 영상 중에서 현재 배경을 분석하여 모델링하는 배경 학습을 통해 다수개의 모델을 생성하고, 이 중에서 상대적으로 높은 가중치를 가지는 모델의 배경을 학습 배경(또는 기준 배경)으로 선택하여 저장 블록(250)에 저장할 수 있다. 즉, 배경 학습 블록(230)은 가장 높은 확률을 가지는 배경 모델을 지속적인 학습을 통해 업데이트할 수 있다. The background learning block 230 generates a plurality of models through background learning that analyzes and models the current background among the plurality of images acquired from the image acquisition block 210, and selects the background of the model with a relatively high weight among them. It can be selected as a learning background (or reference background) and stored in the storage block 250. That is, the background learning block 230 can update the background model with the highest probability through continuous learning.

깜박임 검출 블록(240)은 얼굴 추출 블록(220)에서 추출된 얼굴 특징점 영역(예를 들어, 눈 영역)의 변화량을 통해 눈 깜빡임 여부 등을 검출할 수 있다. 예를 들어, 깜박임 검출 블록(240)에서는 도 1과 같은 방법이 수행될 수 있다. 깜박임 검출 블록(240)의 검출 결과는 위조 판별 블록(280)으로 전달될 수 있다.The blink detection block 240 may detect whether or not an eye blinks through the amount of change in the facial feature point area (eg, eye area) extracted from the face extraction block 220. For example, in the blink detection block 240, the method shown in FIG. 1 may be performed. The detection result of the blink detection block 240 may be transmitted to the forgery detection block 280.

움직임 정보 비교 블록(260)에서는 얼굴 영역의 모션 벡터 성분과 현재 배경 내의 모션 벡터 성분을 추출하여 비교할 수 있다. 얼굴 객체의 모션 벡터와 배경 영역의 벡터에 기반하여 결정된 움직임을 나타내는 수치가 위조 판별 블록(280)으로 전달될 수 있다.In the motion information comparison block 260, the motion vector component of the face area and the motion vector component of the current background can be extracted and compared. A value representing the movement determined based on the motion vector of the face object and the vector of the background area may be transmitted to the counterfeit determination block 280.

배경간 비교 블록(270)은 얼굴 추출 블록(220)으로부터 전달 받은 현재 영상에서의 배경과 저장 블록(250)에 저장된 학습 배경을 비교하여 유사도를 결정할 수 있고, 그 결과가 위조 판별 블록(280)으로 전달될 수 있다.The background comparison block 270 can determine the similarity by comparing the background in the current image received from the face extraction block 220 with the learning background stored in the storage block 250, and the result is the forgery determination block 280. can be passed on.

위조 판별 블록(280)에서는 획득된 영상의 얼굴 오브젝트의 눈 깜박임이 있는지, 획득된 영상의 배경이 실제 배경 모델과 유사한지, 획득된 영상의 배경의 움직임이 비정상적인지 등에 기반하여 위조 여부를 판별할 수 있다. The forgery determination block 280 determines forgery based on whether there is a blink of the face object in the acquired image, whether the background of the acquired image is similar to the actual background model, and whether the movement of the background of the acquired image is abnormal. You can.

도 3은 본 발명에 따른 위조 얼굴 검출 장치의 구성과 동작을 설명하기 위한 도면이다.Figure 3 is a diagram for explaining the configuration and operation of a fake face detection device according to the present invention.

영상 획득 블록(301)은 이미지 획득 장치(예를 들어, 카메라) 등에 의해 촬영된 영상을 획득할 수 있고, 이를 얼굴 랜드마크(Landmark) 검출부(302)에 전달할 수 있다. The image acquisition block 301 may acquire an image captured by an image acquisition device (eg, a camera) and transmit it to the facial landmark detection unit 302.

얼굴 랜드마크 검출부(302)는 얼굴의 주요 특징 포인트(예를 들어, 눈썹, 눈, 코, 입 등)를 검출할 수 있다. 예를 들어, 한쪽 눈썹을 2개의 특징부로 구분하여 검출하고, 좌우 눈썹 총 4개의 특징부를 검출할 수 있다. 한쪽 눈을 4개의 특징부로 구분하여 검출하고, 좌우 눈 총 8개의 특징부를 검출할 수 있다. 코는 양쪽의 2 부분을 구분하여 검출할 수 있다. 입술은 위쪽 좌우 2 부분, 아래쪽 좌우 2 부분, 총 4 개의 특징부를 검출할 수 있다. 이는 단지 예시일 뿐이며, 얼굴에서 18 개의 특징점을 추출하는 것으로 본 발명의 범위가 제한되지는 않는다. The facial landmark detection unit 302 can detect main feature points of the face (eg, eyebrows, eyes, nose, mouth, etc.). For example, one eyebrow can be detected by dividing it into two features, and a total of four features of the left and right eyebrows can be detected. One eye can be detected by dividing it into 4 features, and a total of 8 features can be detected for the left and right eyes. The nose can be detected by distinguishing two parts on both sides. A total of 4 features can be detected for the lips: 2 upper left and right parts, and 2 lower left and right parts. This is just an example, and the scope of the present invention is not limited to extracting 18 feature points from the face.

얼굴 특징점 추출부(303)는 얼굴 랜드마크(예를 들어, 눈썹, 눈, 코, 입의 18개 위치)에 대한 특징을 추출하여 이를 표현하는 파라미터(예를 들어, MsLBP(Multi-scale Local Binary Pattern))를 생성할 수 있다. 이는 단지 예시에 불과하고, MsLBP 이외의 다른 기술자(descriptor)가 사용될 수도 있다. 다만, 얼굴 특징점 추출을 위해서 국부적인 영역의 빛 변화에 강인하면서 기하학적인 특징을 잘 표현하는 기술자를 사용하는 것이 효과적이다. 이는, 실제 얼굴을 촬영한 이미지와, 사진이나 비디오를 촬영한 위조 얼굴 이미지를 비교하면, 평면적인 데이터를 촬영한 위조 얼굴 이미지에서는 에지(edge) 정보와 같은 기하학적인 정보가 사라지므로 위조 얼굴 검출에 보다 유리하기 때문이다.The facial feature point extraction unit 303 extracts features for facial landmarks (e.g., 18 positions of eyebrows, eyes, nose, and mouth) and sets parameters representing them (e.g., Multi-scale Local Binary (MsLBP) Pattern) can be created. This is just an example, and other descriptors other than MsLBP may be used. However, to extract facial features, it is effective to use a descriptor that is robust against light changes in local areas and expresses geometric features well. This means that when comparing an image of a real face with a fake face image taken from a photo or video, geometric information such as edge information disappears in the fake face image of flat data, making it difficult to detect fake faces. Because it is more advantageous.

모션 벡터 추출부(304)는 동영상(또는 복수개의 프레임으로 구성된 시퀀스)에서 각각의 프레임의 모션 벡터를 추출하고, 모션 벡터의 크기(magnitude) 및 방향(angle)을 계산할 수 있다 (여기서, 모션 벡터의 크기는 벡터의 길이를 의미하고, 모션 벡터의 방향은 0˚ 내지 360˚ 사이의 기울기 값을 의미한다). 특히, 얼굴 영역, 헤드 영역, 배경 영역의 각각에 대해서 모션 벡터를 추출할 수 있다. 모션 벡터 추출부(304)의 동작에 대한 구체적인 설명은 도 4 내지 도 8을 참조하여 후술한다. The motion vector extractor 304 can extract the motion vector of each frame from a video (or a sequence consisting of a plurality of frames) and calculate the magnitude and direction (angle) of the motion vector (here, the motion vector The size of means the length of the vector, and the direction of the motion vector means the slope value between 0˚ and 360˚). In particular, motion vectors can be extracted for each of the face area, head area, and background area. A detailed description of the operation of the motion vector extractor 304 will be described later with reference to FIGS. 4 to 8.

모션 벡터 위조 얼굴 분류기(306)는 모션 벡터에 기반하여 임의의 얼굴 영상이 위조 얼굴에 해당하는지 여부를 판정할 수 있다. 모션 벡터 위조 얼굴 분류기(306)의 동작에 대한 구체적인 설명은 도 9 및 도 10을 참조하여 후술한다. The motion vector fake face classifier 306 can determine whether any face image corresponds to a fake face based on the motion vector. A detailed description of the operation of the motion vector fake face classifier 306 will be described later with reference to FIGS. 9 and 10.

일반적인 위조 얼굴 분류기(305)는 후술하는 개인별 위조 얼굴 분류기(308)와 구분된다. 일반적인 위조 얼굴 분류기(305)는 얼굴 특징점(또는 특징 벡터)에 기반하여 위조 얼굴 여부를 판정하며, 얼굴 특징점 추출부(303)로부터 입력되는 얼굴 영상의 특징점(또는 특징 벡터)을, 미리 학습을 통해서 마련된 기준과 비교하여, 임의의 얼굴 영상이 위조 얼굴에 해당하는지 여부를 판정할 수 있다. 일반적인 위조 얼굴 분류기(305)의 동작에 대한 구체적인 설명은 도 11 내지 도 14를 참조하여 후술한다. The general fake face classifier 305 is distinguished from the individual fake face classifier 308, which will be described later. The general fake face classifier 305 determines whether a face is fake based on facial feature points (or feature vectors), and learns the feature points (or feature vectors) of the face image input from the facial feature point extractor 303 in advance. By comparing with the prepared standard, it can be determined whether a random face image corresponds to a fake face. A detailed description of the operation of the general fake face classifier 305 will be described later with reference to FIGS. 11 to 14.

일반적인 위조 얼굴 분류기(305) 또는 모션 벡터 위조 얼굴 분류기(306) 중의 적어도 하나에서 위조 얼굴이라고 분류되면, 최종적으로 위조 얼굴이라고 판정할 수 있다. 만약, 일반적인 위조 얼굴 분류기(305) 또는 모션 벡터 위조 얼굴 분류기(306) 모두에서 위조 얼굴이 아니라고 분류되면, 얼굴 인식 수행부(307), 개인별 위조 얼굴 분류기(308)를 통해서 추가적인 위조 여부 검출이 수행될 수 있다.If the face is classified as a fake face by at least one of the general fake face classifier 305 or the motion vector fake face classifier 306, it may be finally determined to be a fake face. If the face is classified as not a fake in both the general fake face classifier 305 and the motion vector fake face classifier 306, additional forgery detection is performed through the face recognition performance unit 307 and the individual fake face classifier 308. It can be.

얼굴 인식 수행부(307)는 획득된 영상의 얼굴에 해당하는 사람이 누구인지를 결정할 수 있다. 예를 들어, 해당 얼굴 영상의 특징부에 기초하여 그 얼굴에 매칭되는 사람의 신원 또는 식별정보(즉, ID 정보)를 추출할 수 있다. 얼굴 인식 결과는 개인별 위조 얼굴 분류기(308)로 전달될 수 있다. The face recognition unit 307 may determine who the person corresponding to the face in the acquired image is. For example, the identity or identification information (i.e., ID information) of a person matching the face can be extracted based on the features of the face image. The face recognition result may be transmitted to the individual counterfeit face classifier 308.

개인별 위조 얼굴 분류기(308)는 식별된 신원에 해당하는 얼굴에 대해서 데이터베이스에 미리 저장되어 있는 기준이 되는 얼굴 특징점과, 획득된 영상의 얼굴 특징점을 비교하여 위조 여부를 판정할 수 있다. 개인별 위조 얼굴 분류기(308)의 동작에 대한 구체적인 설명은 도 11 내지 도 14를 참조하여 후술한다. The individual counterfeit face classifier 308 can determine whether the face corresponding to the identified identity is counterfeit by comparing standard facial feature points pre-stored in the database with the facial feature points of the acquired image. A detailed description of the operation of the individual fake face classifier 308 will be described later with reference to FIGS. 11 to 14.

도 3에 대해서 설명한 구성요소들의 하나 이상은, 별도의 프로세서로서 구현될 수도 있지만, 하나의 프로세서의 소프트웨어 또는 펌웨어 형태의 기능 모듈로서 구현될 수도 있다. One or more of the components described with respect to FIG. 3 may be implemented as a separate processor, but may also be implemented as a functional module in the form of software or firmware of one processor.

도 4는 본 발명에 따른 모션 벡터 추출 영역을 설명하기 위한 도면이다.Figure 4 is a diagram for explaining a motion vector extraction area according to the present invention.

획득된 영상에 대해서 모션 벡터를 추출하기 위해, 얼굴 영역, 헤드 영역(또는 머리와 어깨(head and shoulder) 영역), 배경 영역(또는 카메라 프레임 바깥 영역)으로 나눌 수 있다. 실제 얼굴을 촬영한 영상이라면 사람 몸의 움직임에 따라서 얼굴 영역과 헤드 영역에서 움직임이 있지만, 배경에는 이러한 움직임이 거의 발생하지 않는다. 또한, 얼굴 영역에서는 눈 깜빡임, 말하기, 표정 변화 등에 따라서 미세한 움직임이 많이 발생하지만, 상대적으로 헤드 영역에서는 이러한 미세한 움직임이 덜 발생한다. In order to extract motion vectors from the acquired image, it can be divided into face area, head area (or head and shoulders area), and background area (or area outside the camera frame). In a video of an actual face, there is movement in the face area and head area depending on the movement of the human body, but such movement rarely occurs in the background. In addition, many fine movements occur in the face area due to eye blinking, speech, facial expression changes, etc., but relatively less such fine movements occur in the head area.

본 발명에서는 설명의 편의를 위해서 얼굴 영역, 헤드 영역, 배경 영역이라는 용어를 사용하지만, 본 발명의 범위가 그 용어의 사전적 의미로 제한되지는 않는다. 즉, 본 발명은 획득된 얼굴 영상을 제 1, 제 2 및 제 3 영역으로 구분하고, 제 3 영역은 제 2 영역을 포함하고, 제 2 영역은 제 1 영역을 포함하는 방식으로 구분하는 예시를 포함한다. In the present invention, the terms face area, head area, and background area are used for convenience of explanation, but the scope of the present invention is not limited to the dictionary meaning of the terms. That is, the present invention provides an example of dividing the acquired facial image into first, second and third areas, the third area includes the second area, and the second area includes the first area. Includes.

도 5는 본 발명에 따른 모션 벡터를 추출하는 장치의 구성 및 동작을 설명하기 위한 도면이다.Figure 5 is a diagram for explaining the configuration and operation of a device for extracting a motion vector according to the present invention.

영상 획득 블록(501)은 도 3의 영상 획득 블록(301)에 대응할 수 있다. The image acquisition block 501 may correspond to the image acquisition block 301 of FIG. 3 .

연속된 두 프레임 추출부(502)는 영상 획득 블록(501)에 의해 연속된 프레임들이 입력되면 그 중에서 연속된 두 프레임을 추출한다. 연속된 두 프레임 추출부(502)는 얼굴 랜드마크 검출(도 3의 302)에서 얼굴 객체가 검출된 후에 입력된 영상에 대해서 연속된 두 프레임을 추출할 수도 있다.When consecutive frames are input by the image acquisition block 501, the two consecutive frame extractor 502 extracts two consecutive frames from them. The two consecutive frames extractor 502 may extract two consecutive frames from an image input after a face object is detected in facial landmark detection (302 in FIG. 3).

고밀도 광학 플로우(Dense Optical Flow) 계산부(503)는 추출된 두 프레임간의 고밀도 광학 플로우(즉, 오브젝트, 표면, 에지에 대해서 관측되는 움직임의 패턴)을 계산할 수 있다. The high-density optical flow calculation unit 503 can calculate the high-density optical flow (i.e., the pattern of movement observed for an object, surface, or edge) between two extracted frames.

히스토그램 생성부(504)에서는 도 4의 예시와 같이 얼굴 영역, 헤드 영역, 배경 영역으로 분할된 3 개의 영역을 더 세부적으로 분할할 수 있다. 예를 들어, 얼굴 영역은 N1 개의 서브 블록으로 구분하고, 헤드 영역은 N2 개의 서브 블록으로 분할하고, 배경 영역은 N3 개의 서브 블록으로 분할할 수 있다. 구분된 영역(예를 들어, 얼굴 영역, 헤드 영역, 배경 영역)의 각각에서 평균 벡터를 계산하고, 해당 영역 내의 평균 벡터에 대한 크기(magnitude) 및 방향(angle)을 계산할 수 있다. 그 결과를 이용하여 구분된 영역의 각각에 대한 히스토그램(즉, 1차원 히스토그램 벡터)을 생성할 수 있다.The histogram generator 504 can divide the three areas divided into a face area, a head area, and a background area in more detail, as shown in the example of FIG. 4 . For example, the face area can be divided into N1 sub-blocks, the head area can be divided into N2 sub-blocks, and the background area can be divided into N3 sub-blocks. The average vector can be calculated in each of the divided areas (e.g., face area, head area, background area), and the magnitude and direction (angle) of the average vector within the area can be calculated. Using the result, a histogram (i.e., a one-dimensional histogram vector) can be created for each divided area.

벡터 결합부(505)는 구분된 영역(예를 들어, 얼굴 영역, 헤드 영역, 배경 영역)의 각각에서 도출된 1차원 히스토그램 벡터를 결합하여, 하나의 모션 벡터(또는 모션 특징 벡터)를 생성할 수 있다. The vector combining unit 505 combines one-dimensional histogram vectors derived from each of the divided areas (e.g., face area, head area, background area) to generate one motion vector (or motion feature vector). You can.

도 5에 대해서 설명한 구성요소들의 하나 이상은, 별도의 프로세서로서 구현될 수도 있지만, 하나의 프로세서의 소프트웨어 또는 펌웨어 형태의 기능 모듈로서 구현될 수도 있다. One or more of the components described with respect to FIG. 5 may be implemented as a separate processor, but may also be implemented as a functional module in the form of software or firmware of one processor.

도 6 내지 도 8은 본 발명에 따라서 획득된 모션 벡터의 예시들을 설명하기 위한 도면이다.6 to 8 are diagrams for explaining examples of motion vectors obtained according to the present invention.

도 6의 상단 2개의 도면은 실제 얼굴을 촬영한 영상에서 획득된 모션 벡터(초록색으로 표시된 벡터)의 예시를 나타내고, 및 하단 도면은 그에 해당하는 히스토그램을 나타낸다. The upper two drawings of FIG. 6 show examples of motion vectors (vectors indicated in green) obtained from images of actual faces, and the lower drawings show the corresponding histograms.

도 7의 상단 2개의 도면은 사진(예를 들어, 스마트폰으로 촬영한 얼굴 사진)을 촬영한 영상에서 획득된 모션 벡터(초록색으로 표시된 벡터)의 예시를 나타내고, 및 하단 도면은 그에 해당하는 히스토그램을 나타낸다. The top two drawings of FIG. 7 show examples of motion vectors (vectors marked in green) obtained from images taken from photographs (e.g., facial photos taken with a smartphone), and the lower drawings show the corresponding histograms. represents.

도 8의 상단 2개의 도면은 동영상(예를 들어, 스마트폰으로 촬영한 얼굴 동영상)을 촬영한 영상에서 획득된 모션 벡터(초록색으로 표시된 벡터)의 예시를 나타내고, 및 하단 도면은 그에 해당하는 히스토그램을 나타낸다. The top two drawings of FIG. 8 show examples of motion vectors (vectors marked in green) obtained from images captured in a video (e.g., a face video taken with a smartphone), and the lower drawings show the corresponding histogram. represents.

예를 들어, 모션 벡터 하나의 방향이 70˚이고 그 크기가 20이면 아래의 표 1에서 해당 요소의 카운트를 1만큼 더할 수 있다. 나머지 모션 벡터들에 대해서 그 방향과 크기에 따른 카운트를 반복할 수 있다. 특정 방향에 대한 벡터 크기의 합은, 해당 방향에서 제 1 크기를 가지는 벡터의 개수에 제 1 크기값을 곱하고, 제 2 크기를 가지는 벡터의 개수에 제 2 크기값을 곱하고, ... 이들을 모두 합산함으로써 도출할 수 있다. For example, if the direction of one motion vector is 70° and its size is 20, the count of the corresponding element in Table 1 below can be added by 1. For the remaining motion vectors, counting according to their direction and size can be repeated. The sum of the vector magnitudes for a specific direction is the number of vectors with the first magnitude in that direction multiplied by the first magnitude value, the number of vectors with the second magnitude multiplied by the second magnitude value, and all of these. It can be derived by summing.

방향 direction
크기size
00 70˚70˚ 360˚360˚
2020 00 1One 00 MAXMAX 00 00 00

이에 따라 계산된 특정 방향의 벡터 크기의 합이 상대적으로 큰 값이 나올 수 있으므로, 히스토그램 그래프로 표현할 때는 최소값과 최대값을 정해서 스케일링을 적용함으로써, 다른 영상의 모션 벡터와 용이하게 비교할 수 있다. 즉, 서로 다른 영상의 모션 벡터를 히스토그램 그래프를 비교할 때, 그래프의 크기를 비교하는 것이 아니라, 벡터 방향에 대한 크기의 분포를 보고 유사도를 판정하므로, 벡터의 크기의 상대적인 대소관계는 필요하지 않기 때문이다.Accordingly, the calculated sum of vector sizes in a specific direction may result in a relatively large value, so when expressing it as a histogram graph, it can be easily compared with motion vectors of other images by applying scaling by determining the minimum and maximum values. In other words, when comparing motion vectors of different images with histogram graphs, the size of the graph is not compared, but the similarity is determined by looking at the size distribution in the vector direction, so the relative size relationship between the vector sizes is not necessary. am.

도 6의 예시의 히스토그램 그래프로부터 실제 얼굴의 경우에 좌우(또는 수평) 방향의 모션 벡터 성분이 상대적으로 많이 발생함을 알 수 있고, 도 7의 예시의 히스토그램 그래프로부터 위조얼굴(사진)의 경우에는 사람이 사진을 들고 있어서 흔들리기 때문에 움직임이 없는 상황이 발생하는 빈도가 낮고 상하좌우(또는 수직 및 수평)의 모든 방향을 가지는 모션 벡터 성분이 많이 발생함을 알 수 있다. 도 8의 예시의 히스토그램 그래프로부터 위조얼굴(동영상)의 경우에는 사람이 휴대가능한 동영상 디스플레이 크기의 제약으로 인해 모션 벡터의 크기가 다른 경우에 비하여 상대적으로 작게 나타나고, 그래프의 형태 자체는 실제 얼굴과 비슷한 패턴을 보일 수도 있지만, 벡터의 크기가 더 작거나 상대적으로 어느 한 방향으로 왜곡된 패턴을 보임을 알 수 있다. 도 6 내지 도 8의 히스토그램의 그래프는 많은 실험을 통해 얻은 평균치를 표현하는 예시일 뿐이며, 본 발명의 범위를 제한하는 것은 아니다.From the histogram graph of the example of FIG. 6, it can be seen that in the case of a real face, relatively many motion vector components in the left and right (or horizontal) directions occur, and from the histogram graph of the example of FIG. 7, in the case of a fake face (photo) It can be seen that the frequency of situations in which there is no movement due to the person holding the photo and causing it to shake is low, and many motion vector components in all directions (up, down, left and right (or vertical and horizontal)) occur. From the example histogram graph in FIG. 8, in the case of a fake face (video), the size of the motion vector appears relatively small compared to other cases due to restrictions on the size of the video display that can be carried by people, and the shape of the graph itself is similar to that of a real face. A pattern may be visible, but the size of the vector is smaller or the pattern is relatively distorted in one direction. The histogram graphs in FIGS. 6 to 8 are only examples representing average values obtained through many experiments and do not limit the scope of the present invention.

이와 같이, 실제 얼굴, 위조 얼굴(사진), 위조 얼굴(동영상)에서 얻은 모션벡터를 기반의 크기와 방향에 대한 히스토그램을 표현한 그래프에서 알 수 있는 바와 같이, 실제 얼굴에서 획득된 모션 벡터는 사진이나 동영상으로부터 획득된 모션 벡터와 큰 차이를 보인다. 즉, 실제 얼굴과 사진 또는 동영상의 모션 벡터의 정규화된 히스토그램의 특징은 현저한 차이를 가지므로, 이에 기반하여 위조 얼굴 여부를 판정할 수 있다.As can be seen from the graph expressing the histogram of the size and direction based on the motion vectors obtained from the real face, fake face (photo), and fake face (video), the motion vector obtained from the real face is either a photo or a video. It shows a significant difference from the motion vector obtained from the video. In other words, since there is a significant difference between the characteristics of the normalized histogram of the motion vector of the real face and the photo or video, it is possible to determine whether the face is fake based on this.

도 9는 본 발명에 따른 모션 벡터 위조 얼굴 분류기의 구성 및 동작을 설명하기 위한 도면이다.Figure 9 is a diagram for explaining the configuration and operation of the motion vector forged face classifier according to the present invention.

본 발명에 따른 모션 벡터 위조 얼굴 분류기(도 3의 306)는 전술한 바와 같이 모션 벡터의 특징(예를 들어, 히스토그램 상의 분포 특징) 자체에 기초하여 위조 얼굴 여부를 판정할 수도 있지만, 이에 추가적으로 훈련 이미지를 이용한 위조 얼굴 여부 판정도 지원한다.As described above, the motion vector fake face classifier (306 in FIG. 3) according to the present invention may determine whether a face is fake based on the features of the motion vector itself (e.g., distribution features on the histogram), but requires additional training. It also supports detection of fake faces using images.

예를 들어, 실제얼굴, 위조얼굴(사진), 위조얼굴(동영상)의 세가지 분류의 각각에 대해서 다양하게 훈련시킨 모션 벡터의 특징(예를 들어, 히스토그램 상의 분포 특징)을 이용하여 실제로 검출하는 상황에서, 세가지 분류 중의 어떤 것에 근접하는지를 판정함으로써 위조 얼굴 검출 성능을 높일 수 있다. For example, a situation in which each of the three categories of real faces, fake faces (photos), and fake faces (videos) is actually detected using variously trained motion vector features (e.g., distribution features on the histogram). In this case, fake face detection performance can be improved by determining which of the three categories it is closest to.

도 9의 예시에서 훈련 이미지 생성부(901)에서는 모델링 분류 각각에 대한 데이터를 수집 또는 저장할 수 있다. 예를 들어, 실제얼굴의 모델(즉, 실제얼굴에 대한 비교 기준 모션 벡터)을 생성하기 위해서는 실제얼굴이 가지는 다양한 특징을 파악하기 위한 훈련이미지가 요구된다. 이러한 훈련이미지 데이터는 사전에 미리 제공될 수도 있고, 본 발명의 위조 얼굴 검출 결과에 따라 실제 얼굴로 판정된 영상 데이터가 훈련이미지로서 피드백 방식으로 제공될 수도 있다. 위조얼굴(사진)에 대한 모델(즉, 사진을 이용한 위조 얼굴에 대한 비교 기준 모션 벡터)을 생성하기 위해서는 사진을 이용한 위조 얼굴이 가지는 다양한 특징을 파악하기 위한 훈련이미지가 요구된다. 이러한 훈련이미지 데이터는 사전에 미리 제공될 수도 있고, 본 발명의 위조 얼굴 검출 결과에 따라 사진을 이용한 위조 얼굴로 판정된 영상 데이터가 훈련이미지로서 피드백 방식으로 제공될 수도 있다. 위조얼굴(동영상)에 대한 모델(즉, 동영상을 이용한 위조 얼굴에 대한 비교 기준 모션 벡터)을 생성하기 위해서는 동영상을 이용한 위조 얼굴이 가지는 다양한 특징을 파악하기 위한 훈련이미지가 요구된다. 이러한 훈련이미지 데이터는 사전에 미리 제공될 수도 있고, 본 발명의 위조 얼굴 검출 결과에 따라 동영상을 이용한 위조 얼굴로 판정된 영상 데이터가 훈련이미지로서 피드백 방식으로 제공될 수도 있다. In the example of FIG. 9 , the training image generator 901 may collect or store data for each modeling classification. For example, in order to create a model of a real face (i.e., a reference motion vector for comparison with a real face), training images are required to identify various characteristics of the real face. Such training image data may be provided in advance, or image data determined to be a real face according to the fake face detection results of the present invention may be provided as a training image in a feedback manner. In order to create a model for a fake face (photo) (i.e., a motion vector based on comparison for a fake face using a photo), a training image is required to identify various characteristics of a fake face using a photo. Such training image data may be provided in advance, or image data determined to be a fake face using a photo according to the fake face detection result of the present invention may be provided as a training image in a feedback manner. In order to create a model for a fake face (video) (i.e., a motion vector based on comparison for a fake face using a video), a training image is required to identify various characteristics of a fake face using a video. Such training image data may be provided in advance, or image data determined to be a fake face using a video according to the fake face detection results of the present invention may be provided as a training image in a feedback manner.

모션 벡터 추출부(902)에서는 모델링 분류(예를 들어, 실제얼굴, 위조얼굴(사진), 위조얼굴(동영상)의 세가지 분류) 각각에 대한 모션 벡터를 추출할 수 있으며, 이를 위해서 도 5와 같은 방식이 사용될 수도 있다.The motion vector extraction unit 902 can extract motion vectors for each modeling classification (e.g., three classifications of real face, fake face (photo), and fake face (video)), and for this purpose, a motion vector as shown in Figure 5 method may also be used.

모델 생성부(903)에서는 추출된 모션 벡터에 기초한 통계적인 모델링 방법을 사용하여, 모델링 분류(예를 들어, 실제얼굴, 위조얼굴(사진), 위조얼굴(동영상)의 세가지 분류) 각각에 대한 모델을 생성할 수 있다. The model generator 903 uses a statistical modeling method based on the extracted motion vector to create a model for each modeling classification (e.g., three classifications: real face, fake face (photo), fake face (video)). can be created.

도 9에 대해서 설명한 구성요소들의 하나 이상은, 별도의 프로세서로서 구현될 수도 있지만, 하나의 프로세서의 소프트웨어 또는 펌웨어 형태의 기능 모듈로서 구현될 수도 있다. One or more of the components described with respect to FIG. 9 may be implemented as a separate processor, but may also be implemented as a functional module in the form of software or firmware of one processor.

도 10은 본 발명에 따른 모션 벡터 위조 얼굴 분류기를 이용하여 위조 얼굴을 판별하는 방법을 설명하기 위한 도면이다.Figure 10 is a diagram for explaining a method of identifying a fake face using a motion vector fake face classifier according to the present invention.

영상 획득부(301)을 통해 획득된 입력 이미지(1001)에 대해서 모션 벡터 추출(1002)이 수행될 수 있고, 이에 대해 전술한 도 5와 같은 방법이 적용될 수 있다. 추출된 모션 벡터는 기생성된 모델(예를 들어, 도 9의 예시에서와 같이 모델링 분류(예를 들어, 실제얼굴, 위조얼굴(사진), 위조얼굴(동영상)의 세가지 분류) 각각에 대해서 생성된 모델)과 비교(1003)될 수 있다. 즉, 추출된 모션 벡터는 실제얼굴에 대한 모델과 비교되고, 위조얼굴(사진)에 대한 모델과 비교되고, 위조얼굴(동영상)에 대한 모델과 비교될 수 있다. 비교(1003) 결과 여러 가지 모델링 분류 중에서 가장 높은 유사도를 가지는 모델이 결정될 수 있다. 만약 입력된 영상에 대해서 추출된 모션 벡터가 실제 얼굴 모델과 가장 유사하다면 위조 얼굴이 아닌 것으로 판정될 수 있고, 그렇지 않은 경우(예를 들어, 위조얼굴(사진) 또는 위조얼굴(동영상)의 모델과 가장 유사하다면) 위조 얼굴인 것으로 판정될 수 있다. Motion vector extraction 1002 may be performed on the input image 1001 acquired through the image acquisition unit 301, and the method shown in FIG. 5 described above may be applied to this. The extracted motion vector is generated for each of the parasitic models (e.g., three classifications of modeling classification (e.g., real face, fake face (photo)), and fake face (video)) as in the example of Figure 9). model) can be compared (1003). That is, the extracted motion vector can be compared with a model for a real face, compared with a model for a fake face (photo), and compared with a model for a fake face (video). As a result of comparison (1003), a model with the highest similarity among several modeling classifications can be determined. If the motion vector extracted for the input image is most similar to the actual face model, it can be determined not to be a fake face, and if not (for example, a model of a fake face (photo) or fake face (video) (if it is most similar), it can be determined to be a fake face.

도 11은 본 발명에 따른 일반적인 위조 얼굴 분류기 및 개인별 위조 얼굴 분류기의 구성 및 동작을 설명하기 위한 도면이다.Figure 11 is a diagram for explaining the configuration and operation of a general fake face classifier and an individual fake face classifier according to the present invention.

도 11의 영상 획득 블록(1101), 얼굴 랜드마크 검출부(1102) 및 얼굴 특징점 추출부(1103)은 도 3의 예시에서 영상 획득 블록(301), 얼굴 랜드마크 검출부(302) 및 얼굴 특징점 추출부(303)에 대응할 수 있다. 즉, 이미지 획득 장치(예를 들어, 카메라)를 이용하여 영상을 획득하고, 얼굴의 특징점(예를 들어, 눈썹, 눈, 코, 입술에 대한 18개의 얼굴 랜드마크)을 검출하고, 검출된 특징점 위치에서 MsLBP를 이용하여 특징 벡터를 추출할 수 있다. The image acquisition block 1101, facial landmark detection unit 1102, and facial feature point extraction unit 1103 in FIG. 11 are the image acquisition block 301, facial landmark detection unit 302, and facial feature point extraction unit in the example of FIG. 3. (303) can be responded to. That is, an image is acquired using an image acquisition device (e.g., a camera), facial feature points (e.g., 18 facial landmarks for eyebrows, eyes, nose, and lips) are detected, and the detected feature points are A feature vector can be extracted from the location using MsLBP.

위조 얼굴 특징점 데이터 생성부(1104)는 추출된 얼굴 특징 데이터를, 변환 행렬(예를 들어, 전달 함수(Transfer Function) 또는 적응 함수(Adaptation Function))을 이용하여 위조 얼굴 특징 데이터(또는 위조 얼굴 특징 벡터)로 변환시킬 수 있다. 변환 행렬에 대한 예시를 도 12를 참조하여 설명한다.The fake facial feature point data generator 1104 uses the extracted facial feature data as fake facial feature data (or fake facial features) using a transformation matrix (e.g., transfer function or adaptation function). vector). An example of a transformation matrix will be described with reference to FIG. 12.

도 12는 본 발명에 따른 위조 얼굴 특징점 데이터 생성부에서 이용가능한 변환 행렬에 대해서 설명하기 위한 도면이다.Figure 12 is a diagram for explaining the transformation matrix available in the fake facial feature point data generator according to the present invention.

실제 얼굴 데이터의 집합(G1, G2, ..., GN)에 대한 주요 구성요소 분석(Principal Component Analysis, PCA)을 통해 실제얼굴 데이터의 기저(Gbasis)를 결정할 수 있다. 한편, 위조얼굴 데이터의 집합(F1, F2, ..., FM)에 대한 PCA를 통해 위조얼굴 데이터의 기저(Fbasis)를 결정할 수 있다. 이들에 기반하여 변환행렬(X)를 계산할 수 있다. 즉, Gbasis에 대해서 특정 변환 행렬 X가 적용된 결과를 Fbasis라고 하면, 변환 행렬 X는 아래의 수학식 1과 같이 획득될 수 있다. The basis (G basis ) of real face data can be determined through principal component analysis (PCA) on a set of real face data (G 1 , G 2 , ..., G N ). Meanwhile, the basis (F basis ) of the fake face data can be determined through PCA on the set of fake face data (F 1 , F 2 , ..., F M ). Based on these, the transformation matrix (X) can be calculated. In other words , if the result of applying a specific transformation matrix

다시 도 11을 참조하면, 실제 위조얼굴 생성부(1105)를 이용하여, 실제 사람의 얼굴을 촬영한 결과물(즉, 사진 또는 동영상)을 이미지 획득 장치(예를 들어, 카메라)로 다시 촬영하여 위조 얼굴의 샘플에 해당하는 위조 얼굴 이미지를 생성할 수 있다. 위조 얼굴 생성부(1105)를 이용하여, 위조 얼굴 이미지는 하나 또는 복수개가 생성될 수 있다. 실제 위조얼굴 생성부(1105)가 적용되는 경우에는 개인적인 위조 얼굴 분류기는 물론 일반적인 위조 얼굴 분류기에서도 유용한 위조 얼굴 데이터로서 활용될 수 있으므로 위조 검출 성능을 높일 수 있다. 특히, 실제 위조얼굴 생성부(1105)의 적용은, 개인별 위조 얼굴 분류기를 위한 개인 식별 이미지의 생성 및 등록시에 함께 적용될 수 있다. 그러나, 개인 식별 이미지를 사전에 등록하는 것이 적절하지 않은 경우에는, 실제 위조얼굴 생성부(1105)는 전술한 변환 함수를 이용하여 실제 얼굴 데이터(즉, 실제 얼굴 특징 벡터)로부터 위조 얼굴 데이터(즉, 위조 얼굴 특징 벡터)를 생성하고 이를 이용할 수도 있다. Referring again to FIG. 11, using the real fake face generator 1105, the result of photographing a real person's face (i.e., a photo or video) is re-photographed with an image acquisition device (e.g., a camera) to create a forgery. A fake face image corresponding to a face sample can be created. Using the fake face generator 1105, one or more fake face images can be generated. When the actual fake face generator 1105 is applied, it can be used as useful fake face data not only in a personal fake face classifier but also in a general fake face classifier, thereby improving the performance of fake face detection. In particular, the application of the actual fake face generator 1105 can be applied together when generating and registering a personal identification image for an individual fake face classifier. However, in cases where it is not appropriate to register a personal identification image in advance, the real fake face generator 1105 uses the above-described conversion function to transform real face data (i.e. real facial feature vector) into fake face data (i.e. , fake facial feature vectors) can also be created and used.

일반적인 위조 얼굴 분류기 생성부(1106)에서는 일반적인 위조 얼굴 분류기를 학습 또는 업데이트시킴으로써 일반적인 위조 얼굴 분류기의 성능을 높일 수 있다. The general fake face classifier generator 1106 can improve the performance of the general fake face classifier by learning or updating the general fake face classifier.

개인별 위조 얼굴 분류기 생성부(1107)에서는 개인별 위조 얼굴 분류기를 학습 또는 업데이트시킴으로써 개인별 위조 얼굴 분류기의 성능을 높일 수 있다. The personal fake face classifier generator 1107 can improve the performance of the personal fake face classifier by learning or updating the personal fake face classifier.

일반적인 위조 얼굴 분류기 생성부(1106) 및 개인별 위조 얼굴 분류기 생성부(1107)에 대한 예시를 도 13 및 도 14를 참조하여 각각 설명한다. Examples of the general fake face classifier generator 1106 and the individual fake face classifier generator 1107 will be described with reference to FIGS. 13 and 14, respectively.

도 13은 일반적인 위조 얼굴 분류기의 생성을 설명하기 위한 도면이다.Figure 13 is a diagram to explain the creation of a general fake face classifier.

일반적인 위조 얼굴 분류기는 다양한 훈련 데이터를 이용하여 일반적인 위조 얼굴 특징 벡터에 대한 비교 기준을 정하고, 그에 따라서 일반적인 위조 얼굴 여부를 판정할 수 있다. 이러한 일반적인 위조 얼굴 분류기를 훈련 또는 업데이트시키기 위해서, 기존에 확보된 훈련 데이터 이외의 새로운 데이터(예를 들어, 새롭게 등록한 사람(들)의 실제 얼굴에 대한 데이터와, 실제 위조 얼굴(즉, 실제 얼굴을 촬영한 결과물(즉, 사진 또는 동영상)을 이미지 획득 장치(예를 들어, 카메라)로 다시 촬영한 결과물)에 대한 데이터, 또는 실제 얼굴로부터 변환 행렬을 이용하여 변환된 위조 얼굴에 대한 데이터)를 추가로 입력할 수 있다. 이에 따라, 기존 등록자의 실제 얼굴 집합에 대한 특징 벡터와, 기존 등록자의 위조 얼굴 집합(이는 실제 위조 얼굴 또는 변환된 위조 얼굴의 하나 이상을 포함하는 집합)으로부터 일반적인 위조 얼굴 여부에 대한 판정 기준을 학습하고 이진 분류기를 업데이트할 수 있다.A general fake face classifier can use various training data to set a comparison standard for general fake face feature vectors and determine whether it is a general fake face accordingly. In order to train or update this general fake face classifier, new data other than the previously obtained training data (e.g., data on the real face of the newly registered person(s), real fake face (i.e. real face) Add data about the captured result (i.e., a photo or video) re-photographed by an image acquisition device (e.g., a camera), or data about a fake face converted from a real face using a transformation matrix) It can be entered as . Accordingly, a judgment criterion for whether a general fake face is learned is learned from the feature vector for the real face set of the existing registrant and the fake face set of the existing registrant (which is a set containing one or more real fake faces or converted fake faces). and update the binary classifier.

도 14는 개인별 위조 얼굴 분류기의 생성을 설명하기 위한 도면이다. Figure 14 is a diagram to explain the creation of an individual fake face classifier.

개인별 위조 얼굴 분류기는 얼굴 인식을 통해서 개인이 식별된 경우, 보다 정확한 위조 검출 결과를 위해서, 개인별 실제 얼굴 및 위조 얼굴에 대한 데이터를 학습 및 업데이트할 수 있다. 개인별 위조 얼굴 분류기는 식별된 개인(예를 들어, 등록자)의 실제 얼굴에 대한 데이터, 실제 위조 얼굴(즉, 실제 얼굴을 촬영한 결과물(즉, 사진 또는 동영상)을 이미지 획득 장치(예를 들어, 카메라)로 다시 촬영한 결과물)에 대한 데이터, 또는 실제 얼굴로부터 변환 행렬을 이용하여 변환된 위조 얼굴에 대한 데이터)에 기초하여, 해당하는 개인에 대한 위조 얼굴 여부에 대한 판정 기준을 학습하고 이진 분류기를 업데이트할 수 있다.When an individual is identified through face recognition, the individual counterfeit face classifier can learn and update data on each individual's real face and counterfeit face for more accurate counterfeit detection results. The individual fake face classifier combines data about the real face of an identified individual (e.g., the registrant), the real fake face (i.e., the result of taking a picture of the real face (i.e., a photo or video)) using an image acquisition device (e.g., Based on the data (re-photographed result with a camera) or data (data about the fake face converted from the real face using a transformation matrix), a decision criterion for whether the corresponding individual is a fake face is learned and a binary classifier is used. can be updated.

도 11 내지 도 14에 대해서 설명한 구성요소들의 하나 이상은, 별도의 프로세서로서 구현될 수도 있지만, 하나의 프로세서의 소프트웨어 또는 펌웨어 형태의 기능 모듈로서 구현될 수도 있다. One or more of the components described with reference to FIGS. 11 to 14 may be implemented as a separate processor, but may also be implemented as a functional module in the form of software or firmware of one processor.

전술한 바와 같이, 모션 벡터(예를 들어, 고밀도 광학 플로우) 및 특징 벡터(예를 들어, MsLBP) 모두를 기반으로 동작하는 위조 얼굴 분류기는, 종래의 위조얼굴 검출 방식에 비하여 보다 정확하고 확률 높은 위조 얼굴 검출 결과를 제공할 수 있다. 또한, 위조 얼굴 분류기 생성(또는 학습, 업데이트)에 필요한 위조 얼굴 데이터를 실제 위조 얼굴로부터 획득하거나, 훈련된 변환 행렬을 이용하여 재생산할 수 있으므로, 위조 얼굴 분류기 생성에 필요한 데이터를 용이하게 제공함으로써 위조 얼굴 분류기의 성능을 보다 더 높일 수 있다. As described above, a counterfeit face classifier that operates based on both motion vectors (e.g., high-density optical flow) and feature vectors (e.g., MsLBP) is more accurate and has a higher probability than conventional counterfeit face detection methods. It can provide fake face detection results. In addition, the fake face data needed to create (or learn, update) a fake face classifier can be obtained from an actual fake face or reproduced using a trained transformation matrix, so it is easy to provide the data needed to create a fake face classifier. The performance of the face classifier can be further improved.

또한, 단순히 얼굴 영역에서만 추출된 모션 벡터만이 아니라, 얼굴 영역, 헤드 영역, 배경 영역에서 추출하는 모션 벡터를 결합하여 사용함으로써, 실제 사람의 행동으로부터 유발되는 모션 벡터의 특징과 사진을 들고 흔들거나 동영상을 사용하는 경우에 유발되는 모션 벡터의 특징을 학습시킨 분류기를 사용하여 보다 정확하게 위조 얼굴을 감지할 수 있다.In addition, by using a combination of motion vectors extracted from the face area, head area, and background area, rather than simply the motion vector extracted only from the face area, the features of the motion vector derived from the behavior of a real person Fake faces can be detected more accurately using a classifier that learns the characteristics of motion vectors triggered when using videos.

나아가, 실제 얼굴에서 획득되는 특징 벡터와 사진 또는 동영상을 촬영한 경우에 획득되는 특징 벡터의 차이점에 주목하여, 서포트 벡터 머신을 이용하여 이러한 특징 벡터의 차이를 미리 학습하여 위조 얼굴 분류기를 생성할 수 있다. 위조 얼굴 분류기는 일반적인 위조 얼굴의 특징에 기반하여 학습하는 방식과, 개인별 위조 얼굴의 특징에 기반하여 학습하는 방식을 병행함으로써, 일반적인 위조 얼굴 특징이 드러나지 않더라도 개인별 위조 얼굴 특징에 기반하여 위조 얼굴 검출 확률을 높일 수 있다. 이 경우, 개인별 위조 얼굴 분류기의 생성을 위해 개인 정보를 등록할 때에 개인의 실제 얼굴과 함께 개인의 실제 위조 얼굴을 입력하거나, 개인의 실제 얼굴로부터 변환 행렬에 의해 생성된 위조 얼굴을 이용할 수도 있다. Furthermore, by paying attention to the differences between feature vectors obtained from real faces and feature vectors obtained when taking photos or videos, a fake face classifier can be created by learning the differences between these feature vectors in advance using a support vector machine. there is. The fake face classifier combines a method of learning based on the characteristics of a general fake face and a method of learning based on the characteristics of an individual fake face, so even if the general fake face features are not revealed, the probability of detecting a fake face based on the individual fake face features is high. can increase. In this case, when registering personal information to create an individual fake face classifier, the individual's real fake face can be input along with the individual's real face, or a fake face generated by a transformation matrix from the individual's real face can be used.

이와 같이, 본 발명에 따르면 적외선 카메라나 열적외선 카메라 같은 고가의 별도의 장비가 없이도 일반적으로 사용되는 RGB 카메라의 영상만으로도 위조 얼굴을 정확하게 검출할 수 있다. 특히, 눈 깜박임이나 입술의 움직임을 기반으로 위조 얼굴을 검출하는 종래 방식은, 고화질의 사진이나 동영상의 특정 부위에 움직임을 부가함으로써 무력화시킬 수 있지만, 본 발명에 따르면 모션 벡터와 특징 벡터를 동시에 고려하고, 또한 특징 벡터 기반 위조 얼굴 검출은 일반적인 특징과 개인별 특징을 모두 고려함으로써, 보다 높은 확률로 위조 얼굴을 검출할 수 있다. As such, according to the present invention, a counterfeit face can be accurately detected using images from a commonly used RGB camera without the need for expensive separate equipment such as an infrared camera or a thermal infrared camera. In particular, the conventional method of detecting a fake face based on eye blinks or lip movements can be neutralized by adding movement to a specific part of a high-quality photo or video, but according to the present invention, motion vectors and feature vectors are considered simultaneously. Additionally, feature vector-based fake face detection can detect fake faces with a higher probability by considering both general features and individual features.

전술한 본 발명의 다양한 실시 예에서 설명한 사항들은 독립적으로 적용되거나 또는 2 이상의 실시 예가 동시에 적용될 수도 있다. Matters described in the various embodiments of the present invention described above may be applied independently, or two or more embodiments may be applied simultaneously.

전술한 본 발명의 다양한 실시 예에서 설명하는 예시적인 방법은 설명의 간명함을 위해서 동작의 시리즈로 표현되어 있지만, 이는 단계가 수행되는 순서를 제한하기 위한 것은 아니며, 필요한 경우에는 각각의 단계가 동시에 또는 상이한 순서로 수행될 수도 있다. 또한, 본 발명에서 제안하는 방법을 구현하기 위해서 예시하는 모든 단계가 반드시 필요한 것은 아니다.The exemplary methods described in the various embodiments of the present invention described above are expressed as a series of operations for simplicity of description, but this is not intended to limit the order in which steps are performed, and if necessary, each step may be performed simultaneously or It may be performed in a different order. Additionally, not all of the exemplified steps are necessarily necessary to implement the method proposed in the present invention.

본 발명의 범위는 본 발명에서 제안하는 방안에 따른 동작을 처리 또는 구현하는 장치를 포함한다. The scope of the present invention includes devices that process or implement operations according to the method proposed in the present invention.

본 발명의 범위는 본 발명에서 제안하는 방안에 따른 동작이 장치 또는 컴퓨터 상에서 실행되도록 하는 소프트웨어(또는, 운영체제, 애플리케이션, 펌웨어(firmware), 프로그램 등), 및 이러한 소프트웨어 등이 저장되어 장치 또는 컴퓨터 상에서 실행 가능한 매체(medium)를 포함한다.The scope of the present invention is software (or operating system, application, firmware, program, etc.) that allows the operation according to the method proposed in the present invention to be executed on a device or computer, and such software is stored and stored on the device or computer. Includes executable medium.

301 영상 획득 블록 302 얼굴 랜드마크 검출부
303 얼굴 특징점 검출부 304 모션 벡터 추출부
305 일반적인 위조 얼굴 분류기 306 모션 벡터 위조 얼굴 분류기
307 얼굴 인식 수행부 308 개인별 위조 얼굴 분류기
301 Image acquisition block 302 Face landmark detection unit
303 Facial feature point detection unit 304 Motion vector extraction unit
305 Generic fake face classifier 306 Motion vector fake face classifier
307 Face recognition performance unit 308 Individual fake face classifier

Claims (14)

위조 얼굴을 검출하는 방법에 있어서,
이미지 획득 장치로부터 획득된 영상에 대한 얼굴 랜드마크를 검출하는 단계;
상기 획득된 영상에 대한 모션 벡터를 추출하는 단계, 여기서 상기 모션 벡터는 상기 검출된 얼굴 랜드마크의 움직임의 크기 및 방향을 포함하는 정보임;
상기 획득된 영상에 대한 특징 벡터를 추출하는 단계, 여기서 상기 특징 벡터는 상기 검출된 얼굴 랜드마크에 대한 기하학적인 특징을 표현하는 기술자(descriptor)를 포함하는 정보임; 및
상기 모션 벡터에 기반한 위조 얼굴 분류를 수행하고, 상기 특징 벡터에 기반한 일반 위조 얼굴 분류를 수행하여, 위조 얼굴 여부를 판정하는 단계를 포함하되,
상기 모션 벡터에 기반한 위조 얼굴 분류, 또는 상기 특징 벡터에 기반한 일반 위조 얼굴 분류 중의 하나 이상에서 위조 얼굴이라고 분류되는 경우, 최종적으로 위조 얼굴이라고 판정하고,
상기 모션 벡터에 기반한 위조 얼굴 분류 및 상기 특징 벡터에 기반한 일반 위조 얼굴 분류 모두에서 실제 얼굴이라고 분류되는 경우 개인별 위조 얼굴 분류를 추가적으로 수행하는, 위조 얼굴 검출 방법.
In a method for detecting a fake face,
Detecting facial landmarks on an image acquired from an image acquisition device;
extracting a motion vector for the acquired image, where the motion vector is information including the magnitude and direction of movement of the detected facial landmark;
extracting a feature vector for the acquired image, where the feature vector is information including a descriptor expressing geometric features for the detected facial landmark; and
Performing fake face classification based on the motion vector and performing general fake face classification based on the feature vector to determine whether the face is fake,
If the face is classified as a fake face in one or more of the fake face classification based on the motion vector or the general fake face classification based on the feature vector, it is finally determined that it is a fake face,
A fake face detection method that additionally performs individual fake face classification when a face is classified as a real face in both the fake face classification based on the motion vector and the general fake face classification based on the feature vector.
제 1 항에 있어서,
상기 개인별 위조 얼굴 분류는, 개인별 실제 얼굴 데이터, 개인별 실제 위조 얼굴 데이터, 또는 변환된 개인별 위조 얼굴 데이터 중의 하나 이상을 이용하여 학습된 분류기에 의해서 수행되는, 위조 얼굴 검출 방법.
According to claim 1,
The fake face classification for each individual is performed by a classifier learned using one or more of real face data for each individual, real fake face data for each individual, or converted fake face data for each individual.
제 2 항에 있어서,
상기 개인별 실제 위조 얼굴 데이터는, 개인별 실제 얼굴을 촬영한 사진 또는 동영상을 촬영한 결과물인, 위조 얼굴 검출 방법.
According to claim 2,
The actual fake face data for each individual is a fake face detection method that is the result of taking a photo or video of each individual's real face.
제 2 항에 있어서,
상기 변환된 위조 얼굴 데이터는, 상기 실제 위조 얼굴 데이터에 변환 행렬이 적용됨으로써 획득되며,
상기 변환 행렬은 적응적으로 업데이트되는, 위조 얼굴 검출 방법.
According to claim 2,
The converted fake face data is obtained by applying a transformation matrix to the real fake face data,
The method of detecting a fake face, wherein the transformation matrix is adaptively updated.
제 1 항에 있어서,
상기 모션 벡터에 기반한 위조 얼굴 분류는,
실제 얼굴에 대한 모션 벡터 특징 모델과, 위조 얼굴에 대한 모션 벡터 특징모델에 기반하여, 상기 획득된 영상의 위조 여부를 판정하는 단계를 포함하는, 위조 얼굴 검출 방법.
According to claim 1,
The fake face classification based on the motion vector is,
A method for detecting a fake face, comprising determining whether the acquired image is fake based on a motion vector feature model for a real face and a motion vector feature model for a fake face.
제 5 항에 있어서,
상기 위조 얼굴에 대한 모션 벡터 특징 모델은,
사진을 이용한 위조 얼굴에 대한 모션 벡터 특징 모델과,
동영상을 이용한 위조 얼굴에 대한 모션 벡터 특징 모델을 포함하는, 위조 얼굴 검출 방법.
According to claim 5,
The motion vector feature model for the fake face is,
A motion vector feature model for fake faces using photos,
A fake face detection method including a motion vector feature model for a fake face using a video.
제 1 항에 있어서,
상기 모션 벡터에 기반한 위조 얼굴 분류는,
제 1 영역, 제 2 영역 및 제 3 영역의 각각에 대해서, 상기 획득된 영상의 연속하는 두 프레임 간에 관측되는 움직임 패턴을 계산하는 단계를 더 포함하고,
상기 제 3 영역은 상기 제 2 영역을 포함하고, 상기 제 2 영역은 상기 제 1 영역을 포함하는, 위조 얼굴 검출 방법.
According to claim 1,
The fake face classification based on the motion vector is,
For each of the first region, second region, and third region, it further includes calculating a motion pattern observed between two consecutive frames of the acquired image,
The third area includes the second area, and the second area includes the first area.
제 7 항에 있어서,
상기 모션 벡터는,
상기 제 1, 제 2 및 제 3 영역의 각각에서 평균 벡터를 계산하고,
상기 제 1, 제 2 및 제 3 영역의 평균 벡터들을 결합함으로써 결정되는, 위조 얼굴 검출 방법.
According to claim 7,
The motion vector is,
Calculating an average vector in each of the first, second and third regions,
A method for detecting a fake face, determined by combining average vectors of the first, second and third regions.
제 7 항에 있어서,
상기 제 1 영역은 얼굴 영역이고, 상기 제 2 영역은 헤드 영역이고, 상기 제 3 영역은 배경 영역인, 위조 얼굴 검출 방법.
According to claim 7,
The first area is a face area, the second area is a head area, and the third area is a background area.
제 1 항에 있어서,
상기 특징 벡터에 기반한 일반 위조 얼굴 분류는,
하나 이상의 실제 얼굴 데이터, 하나 이상의 실제 위조 얼굴 데이터, 또는 하나 이상의 변환된 위조 얼굴 데이터 중의 하나 이상을 이용하여 학습된 분류기에 의해서 수행되는, 위조 얼굴 검출 방법.
According to claim 1,
General fake face classification based on the feature vector is,
A method for detecting fake faces, performed by a classifier trained using one or more of one or more real face data, one or more real fake face data, or one or more converted fake face data.
제 10 항에 있어서,
상기 하나 이상의 실제 위조 얼굴 데이터의 각각은, 상기 하나 이상의 실제 얼굴을 촬영한 사진 또는 동영상을 촬영한 결과물의 각각에 대응하는, 위조 얼굴 검출 방법.
According to claim 10,
A method of detecting a fake face, wherein each of the one or more real fake face data corresponds to a result of taking a photo or video of the one or more real faces.
제 11 항에 있어서,
상기 하나 이상의 변환된 위조 얼굴 데이터의 각각은, 상기 하나 이상의 실제 위조 얼굴 데이터의 각각에 변환 행렬이 적용됨으로써 획득되며,
상기 변환 행렬은 적응적으로 업데이트되는, 위조 얼굴 검출 방법.
According to claim 11,
Each of the one or more transformed fake face data is obtained by applying a transformation matrix to each of the one or more real fake face data,
The method of detecting a fake face, wherein the transformation matrix is adaptively updated.
위조 얼굴을 검출하는 장치에 있어서,
이미지 획득 장치로부터 획득된 영상에 대한 얼굴 랜드마크를 검출하는 얼굴 랜드마크 검출부;
상기 획득된 영상에 대한 모션 벡터를 추출하는 모션 벡터 추출부, 여기서 상기 모션 벡터는 상기 검출된 얼굴 랜드마크의 움직임의 크기 및 방향을 포함하는 정보임;
상기 획득된 영상에 대한 특징 벡터를 추출하는 특징 벡터 추출부, 여기서 상기 특징 벡터는 상기 검출된 얼굴 랜드마크에 대한 기하학적인 특징을 표현하는 기술자(descriptor)를 포함하는 정보임;
상기 모션 벡터에 기반한 위조 얼굴 분류기; 및
상기 특징 벡터에 기반한 일반 위조 얼굴 분류기를 포함하고,
상기 모션 벡터에 기반한 위조 얼굴 분류기의 분류 결과 및 상기 특징 벡터에 기반한 위조 얼굴 분류기의 분류 결과에 기초하여 위조 얼굴 여부가 판정되되,
상기 모션 벡터에 기반한 위조 얼굴 분류, 또는 상기 특징 벡터에 기반한 일반 위조 얼굴 분류 중의 하나 이상에서 위조 얼굴이라고 분류되는 경우, 최종적으로 위조 얼굴이라고 판정하고,
상기 모션 벡터에 기반한 위조 얼굴 분류 및 상기 특징 벡터에 기반한 일반 위조 얼굴 분류 모두에서 실제 얼굴이라고 분류되는 경우 개인별 위조 얼굴 분류를 추가적으로 수행하는, 위조 얼굴 검출 장치.
In a device for detecting a fake face,
A facial landmark detection unit that detects facial landmarks in an image acquired from an image acquisition device;
a motion vector extraction unit that extracts a motion vector for the acquired image, where the motion vector is information including the magnitude and direction of movement of the detected facial landmark;
a feature vector extraction unit for extracting a feature vector for the acquired image, where the feature vector is information including a descriptor representing a geometric feature for the detected facial landmark;
a fake face classifier based on the motion vector; and
Including a general counterfeit face classifier based on the feature vector,
A fake face is determined based on the classification result of the fake face classifier based on the motion vector and the classification result of the fake face classifier based on the feature vector,
If the face is classified as a fake face in one or more of the fake face classification based on the motion vector or the general fake face classification based on the feature vector, it is finally determined that it is a fake face,
A fake face detection device that additionally performs individual fake face classification when a face is classified as a real face in both the fake face classification based on the motion vector and the general fake face classification based on the feature vector.
위조 얼굴 검출 장치에 의해 실행가능한 명령들을 가지는 소프트웨어가 저장된 컴퓨터-판독가능한 매체에 있어서,
상기 실행가능한 명령들은, 상기 위조 얼굴 검출 장치로 하여금, 획득된 영상에 대한 얼굴 랜드마크를 검출하고, 상기 검출된 얼굴 랜드마크의 움직임의 크기 및 방향을 포함하는 모션 벡터를 추출하고, 상기 검출된 얼굴 랜드마크에 대한 기하학적인 특징을 표현하는 기술자(descriptor)를 포함하는 특징 벡터를 추출한 후,
상기 모션 벡터에 기반한 위조 얼굴 분류를 수행하고, 상기 특징 벡터에 기반한 일반 위조 얼굴 분류를 수행하여, 위조 얼굴 여부를 판정하되,
상기 모션 벡터에 기반한 위조 얼굴 분류, 또는 상기 특징 벡터에 기반한 일반 위조 얼굴 분류 중의 하나 이상에서 위조 얼굴이라고 분류되는 경우, 최종적으로 위조 얼굴이라고 판정하고,
상기 모션 벡터에 기반한 위조 얼굴 분류 및 상기 특징 벡터에 기반한 일반 위조 얼굴 분류 모두에서 실제 얼굴이라고 분류되는 경우 개인별 위조 얼굴 분류를 추가적으로 수행하는, 컴퓨터-판독가능한 매체.
A computer-readable medium storing software having instructions executable by a counterfeit face detection device, comprising:
The executable instructions cause the counterfeit face detection device to detect a facial landmark for an acquired image, extract a motion vector including the magnitude and direction of movement of the detected facial landmark, and After extracting a feature vector containing a descriptor expressing the geometric features of the facial landmark,
Perform fake face classification based on the motion vector and perform general fake face classification based on the feature vector to determine whether or not the face is fake,
If the face is classified as a fake face in one or more of the fake face classification based on the motion vector or the general fake face classification based on the feature vector, it is finally determined that it is a fake face,
A computer-readable medium that additionally performs individual fake face classification if it is classified as a real face in both the fake face classification based on the motion vector and the general fake face classification based on the feature vector.
KR1020220142359A 2015-07-08 2022-10-31 Method of motion vector and feature vector based fake face detection and apparatus for the same KR102596897B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220142359A KR102596897B1 (en) 2015-07-08 2022-10-31 Method of motion vector and feature vector based fake face detection and apparatus for the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020150096863A KR102462818B1 (en) 2015-07-08 2015-07-08 Method of motion vector and feature vector based fake face detection and apparatus for the same
KR1020220142359A KR102596897B1 (en) 2015-07-08 2022-10-31 Method of motion vector and feature vector based fake face detection and apparatus for the same

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020150096863A Division KR102462818B1 (en) 2015-07-08 2015-07-08 Method of motion vector and feature vector based fake face detection and apparatus for the same

Publications (2)

Publication Number Publication Date
KR20220150868A KR20220150868A (en) 2022-11-11
KR102596897B1 true KR102596897B1 (en) 2023-10-31

Family

ID=57992241

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020150096863A KR102462818B1 (en) 2015-07-08 2015-07-08 Method of motion vector and feature vector based fake face detection and apparatus for the same
KR1020220142359A KR102596897B1 (en) 2015-07-08 2022-10-31 Method of motion vector and feature vector based fake face detection and apparatus for the same

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020150096863A KR102462818B1 (en) 2015-07-08 2015-07-08 Method of motion vector and feature vector based fake face detection and apparatus for the same

Country Status (1)

Country Link
KR (2) KR102462818B1 (en)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101781361B1 (en) * 2017-01-25 2017-09-26 대한민국 A Method Identifying A Personnel By Comparing Face Area
KR101877816B1 (en) * 2017-02-20 2018-07-12 주식회사 에스원 Composite Photograph and Video Fake Face Judgement Method by Using Single Visible Camera and System thereof
KR102387571B1 (en) 2017-03-27 2022-04-18 삼성전자주식회사 Liveness test method and apparatus for
KR102085427B1 (en) * 2018-05-23 2020-03-05 한국과학기술원 Method and apparatus for removal of personal identification using generative model
KR102178952B1 (en) * 2018-11-28 2020-11-13 이노뎁 주식회사 method of providing object classification for compressed video by use of syntax-based MRPN-CNN
CN111783505A (en) * 2019-05-10 2020-10-16 北京京东尚科信息技术有限公司 Method and device for identifying forged faces and computer-readable storage medium
KR102463353B1 (en) 2020-05-21 2022-11-07 경일대학교산학협력단 Apparatus and method for detecting fake faces
CN111783608B (en) * 2020-06-24 2024-03-19 南京烽火星空通信发展有限公司 Face-changing video detection method
CN112052728B (en) * 2020-07-30 2024-04-02 广州市标准化研究院 Portable portrait identification anti-deception device and control method thereof
CN112069891B (en) * 2020-08-03 2023-08-18 武汉大学 Deep fake face identification method based on illumination characteristics
KR102386918B1 (en) * 2020-10-26 2022-04-14 주식회사 에이직랜드 Device and method for authenticating mobile user based on Artificial Intelligence
KR102428916B1 (en) * 2020-11-20 2022-08-03 오로라월드 주식회사 Method And Apparatus for Classifying Emotion Based on Multi-Modal
KR102612941B1 (en) * 2020-12-24 2023-12-12 주식회사 유인원테크 System of verifying digital synthesis/counterfeit face
CN112784790B (en) * 2021-01-29 2022-05-10 厦门大学 Generalization false face detection method based on meta-learning
CN112949464B (en) * 2021-02-26 2021-12-14 中国科学院自动化研究所 Face changing counterfeiting detection method, system and equipment based on three-dimensional shape of human face
CN115273186A (en) * 2022-07-18 2022-11-01 中国人民警察大学 Depth-forged face video detection method and system based on image feature fusion
CN116071089B (en) * 2023-02-10 2023-12-05 成都新希望金融信息有限公司 Fraud identification method and device, electronic equipment and storage medium

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100473600B1 (en) * 2002-12-04 2005-03-10 삼성전자주식회사 Apparatus and method for distinguishing photograph in face recognition system
KR101159164B1 (en) * 2010-02-04 2012-06-22 목포대학교산학협력단 Fake video detecting apparatus and method
KR101443139B1 (en) * 2011-09-30 2014-09-19 아이포콤 주식회사 Single image-based fake face detection

Also Published As

Publication number Publication date
KR20220150868A (en) 2022-11-11
KR102462818B1 (en) 2022-11-04
KR20170006355A (en) 2017-01-18

Similar Documents

Publication Publication Date Title
KR102596897B1 (en) Method of motion vector and feature vector based fake face detection and apparatus for the same
JP5629803B2 (en) Image processing apparatus, imaging apparatus, and image processing method
KR102147052B1 (en) Emotional recognition system and method based on face images
CN105335722B (en) Detection system and method based on depth image information
JP4743823B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP5010905B2 (en) Face recognition device
KR102290392B1 (en) Method and apparatus for registering face, method and apparatus for recognizing face
JP6664163B2 (en) Image identification method, image identification device, and program
US8027521B1 (en) Method and system for robust human gender recognition using facial feature localization
CN105740780B (en) Method and device for detecting living human face
WO2019061658A1 (en) Method and device for positioning eyeglass, and storage medium
CN109858375B (en) Living body face detection method, terminal and computer readable storage medium
MX2014002827A (en) Person recognition apparatus and person recognition method.
US9633284B2 (en) Image processing apparatus and image processing method of identifying object in image
Kose et al. Mask spoofing in face recognition and countermeasures
Li et al. Face spoofing detection with image quality regression
WO2020195732A1 (en) Image processing device, image processing method, and recording medium in which program is stored
KR20170015639A (en) Personal Identification System And Method By Face Recognition In Digital Image
KR101558547B1 (en) Age Cognition Method that is powerful to change of Face Pose and System thereof
JP4507679B2 (en) Image recognition apparatus, image extraction apparatus, image extraction method, and program
JP2015197708A (en) Object identification device, object identification method, and program
JP2013218605A (en) Image recognition device, image recognition method, and program
KR102198360B1 (en) Eye tracking system and method based on face images
CN107742112A (en) A kind of face method for anti-counterfeit and device based on image
Sun et al. Dual camera based feature for face spoofing detection

Legal Events

Date Code Title Description
A107 Divisional application of patent
E701 Decision to grant or registration of patent right
GRNT Written decision to grant