KR20220150868A - Method of motion vector and feature vector based fake face detection and apparatus for the same - Google Patents

Method of motion vector and feature vector based fake face detection and apparatus for the same Download PDF

Info

Publication number
KR20220150868A
KR20220150868A KR1020220142359A KR20220142359A KR20220150868A KR 20220150868 A KR20220150868 A KR 20220150868A KR 1020220142359 A KR1020220142359 A KR 1020220142359A KR 20220142359 A KR20220142359 A KR 20220142359A KR 20220150868 A KR20220150868 A KR 20220150868A
Authority
KR
South Korea
Prior art keywords
face
fake
fake face
motion vector
real
Prior art date
Application number
KR1020220142359A
Other languages
Korean (ko)
Other versions
KR102596897B1 (en
Inventor
문일현
김종성
권재철
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR1020220142359A priority Critical patent/KR102596897B1/en
Publication of KR20220150868A publication Critical patent/KR20220150868A/en
Application granted granted Critical
Publication of KR102596897B1 publication Critical patent/KR102596897B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/95Pattern authentication; Markers therefor; Forgery detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/469Contour-based spatial representations, e.g. vector-coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole

Abstract

The present invention relates to fake face detection. According to one aspect of the present invention, a method for detecting a fake face includes the steps of: extracting a motion vector for an image obtained from an image acquisition device; extracting a feature vector for the obtained image; and performing fake face classification based on the motion vector and fake face classification based on the feature vector to determine whether the fake face is a fake face.

Description

모션벡터 및 특징벡터 기반 위조 얼굴 검출 방법 및 장치{METHOD OF MOTION VECTOR AND FEATURE VECTOR BASED FAKE FACE DETECTION AND APPARATUS FOR THE SAME}Method and apparatus for detecting fake face based on motion vector and feature vector

본 발명은 위조 얼굴 검출에 관한 것으로, 보다 구체적으로는 모션벡터 및 특징벡터에 기반하여 위조 얼굴을 검출하는 방법, 장치, 소프트웨어, 이러한 소프트웨어가 저장된 기록 매체에 대한 것이다.The present invention relates to detecting a fake face, and more particularly, to a method, apparatus, and software for detecting a fake face based on a motion vector and a feature vector, and a recording medium storing such software.

신원 확인, 출입 관리 등의 다양한 목적으로 얼굴 인식 기술에 대한 수요가 증가하고 있다. 정확한 얼굴 인식을 위해서, 카메라를 통해서 획득된 이미지가 위조 얼굴인지를 검출하는 것이 요구된다. 예를 들어, 카메라를 통해서 획득된 이미지가 실제 얼굴을 촬영한 것인지, 아니면 위조된 피사체를 촬영한 것인지(예를 들어, 얼굴 사진을 촬영한 것인지, 얼굴 영상이 재생되는 디스플레이를 촬영한 것인지)를 판별하는 기술이 요구된다. Demand for face recognition technology is increasing for various purposes such as identification and access control. For accurate face recognition, it is required to detect whether an image acquired through a camera is a fake face. For example, whether the image acquired through the camera is a real face or a fake subject (for example, whether a face photo is taken or a display on which a face image is played) is determined. Discrimination skills are required.

종래의 위조 얼굴 검출 기술은 적외선 카메라 또는 열적외선 카메라 등의 장비를 이용하여 실제 사람의 얼굴의 열이 감지되는지 여부에 따라 위조 여부를 판별할 수 있다. 그러나, 이를 위해서는 고가의 적외선 카메라가 별도로 구비되기 때문에 일반적인 카메라에 적용하기 어렵다. Conventional counterfeit face detection technology may determine whether or not a fake face is faked based on whether heat of a real person's face is detected using equipment such as an infrared camera or a thermal infrared camera. However, since an expensive infrared camera is separately provided for this purpose, it is difficult to apply it to a general camera.

한편, 일반적으로 사용되는 RGB 카메라를 이용한 위조 얼굴 검출 기술에 따르면, 눈이나 입 주변의 제한적인 움직임을 검출하거나, 배경과 얼굴 객체의 움직임을 검출하여, 검출된 결과에 가중치를 적용하여 수치화하고, 이를 이용하여 위조 여부를 판별할 수 있다. 그러나, 단순히 눈이나 입의 움직임을 이용하는 기술에서는, 고해상도 컬러 프린터를 이용하여 눈이나 입과 같은 특정 부위가 정밀하게 인쇄된 사진을 이용하거나 실제 눈이나 입의 움직임에 따라 모델링하는 방식이 적용된다면, 위조 여부를 판별하지 못할 수도 있다. 또한, 얼굴 인식 장치가 설치된 환경과 동일 또는 유사한 배경에서 촬영된 고해상도 이미지를 재생(replay)하는 경우 종래의 얼굴 인식 시스템에서는 위조 여부를 판별하지 못할 수도 있다. 이와 같이, 종래의 위조 얼굴 판별 기술은 눈이나 입 등의 얼굴의 특징(feature)에 대한 데이터에 기반하기 때문에, 사람마다 실제 얼굴과 위조 얼굴의 특징의 차이점을 반영하지 못하여, 위조 얼굴 판별의 정확도가 낮은 문제가 있다. On the other hand, according to the fake face detection technology using a commonly used RGB camera, limited motion around the eyes or mouth is detected, or motion of the background and face object is detected, and a weight is applied to the detected result to digitize it, This can be used to detect forgery. However, in the technology that simply uses the movement of the eyes or mouth, if a high-resolution color printer is used to precisely print a specific part such as the eye or mouth, or if a method of modeling according to the movement of the actual eye or mouth is applied, It may not be possible to determine whether it is counterfeit. In addition, when replaying a high-resolution image taken in the same or similar background as the environment in which the face recognition device is installed, the conventional face recognition system may not be able to determine whether it is forged or not. In this way, since the conventional fake face discrimination technology is based on data on facial features such as eyes and mouth, it cannot reflect the difference between the characteristics of the real face and the fake face for each person, and thus the accuracy of fake face discrimination There is a problem with low

본 발명은 모션 벡터와 특징 벡터를 결합하여 위조 얼굴의 검출 확률을 획기적으로 높이는 방법 및 장치를 제공하는 것을 기술적 과제로 한다. A technical problem of the present invention is to provide a method and apparatus for remarkably increasing the probability of detecting a fake face by combining a motion vector and a feature vector.

본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the description below. You will be able to.

본 발명의 일 양상에 따르면 위조 얼굴을 검출하는 방법은, 이미지 획득 장치로부터 획득된 영상에 대한 모션 벡터를 추출하는 단계; 상기 획득된 영상에 대한 특징 벡터를 추출하는 단계; 및 상기 모션 벡터에 기반한 위조 얼굴 분류를 수행하고, 상기 특징 벡터에 기반한 위조 얼굴 분류를 수행하여, 위조 얼굴 여부를 판정하는 단계를 포함할 수 있다. According to one aspect of the present invention, a method for detecting a fake face includes extracting a motion vector for an image obtained from an image acquisition device; extracting a feature vector for the obtained image; and performing fake face classification based on the motion vector and fake face classification based on the feature vector to determine whether or not the fake face is a fake face.

본 발명의 다른 양상에 따르면 위조 얼굴을 검출하는 장치는, 이미지 획득 장치로부터 획득된 영상에 대한 모션 벡터를 추출하는 모션 벡터 추출부; 상기 획득된 영상에 대한 특징 벡터를 추출하는 특징 벡터 추출부; 상기 모션 벡터에 기반한 위조 얼굴 분류기; 및 상기 특징 벡터에 기반한 위조 얼굴 분류기를 포함할 수 있다. 상기 모션 벡터에 기반한 위조 얼굴 분류기의 분류 결과 및 상기 특징 벡터에 기반한 위조 얼굴 분류기의 분류 결과에 기초하여 위조 얼굴 여부가 판정될 수 있다. According to another aspect of the present invention, an apparatus for detecting a fake face includes a motion vector extractor extracting a motion vector for an image obtained from an image acquisition apparatus; a feature vector extractor extracting a feature vector for the obtained image; a fake face classifier based on the motion vector; and a fake face classifier based on the feature vector. Whether or not a fake face is determined may be determined based on a classification result of the fake face classifier based on the motion vector and a classification result of the fake face classifier based on the feature vector.

본 발명의 또 다른 양상에 따르면 위조 얼굴 검출 장치에 의해 실행가능한 명령들을 가지는 소프트웨어가 저장된 컴퓨터-판독가능한 매체가 제공될 수 있다. 상기 실행가능한 명령들은, 상기 위조 얼굴 검출 장치로 하여금, 이미지 획득 장치로부터 획득된 영상에 대한 모션 벡터를 추출하고, 상기 획득된 영상에 대한 특징 벡터를 추출하고, 상기 모션 벡터에 기반한 위조 얼굴 분류를 수행하고, 상기 특징 벡터에 기반한 위조 얼굴 분류를 수행하여, 위조 얼굴 여부를 판정하도록 할 수 있다.According to another aspect of the present invention, a computer-readable medium storing software having instructions executable by a fake face detection device may be provided. The executable instructions may cause the fake face detection device to extract a motion vector for an image obtained from an image acquisition device, extract a feature vector for the obtained image, and classify a fake face based on the motion vector. and, by performing fake face classification based on the feature vector, it is possible to determine whether or not the face is fake.

본 발명의 다양한 양상들에 있어서, 상기 모션 벡터에 기반한 위조 얼굴 분류, 또는 상기 특징 벡터에 기반한 위조 얼굴 분류 중의 하나 이상에서 위조 얼굴이라고 분류되는 경우, 최종적으로 위조 얼굴이라고 판정될 수 있다. In various aspects of the present invention, when the fake face is classified as a fake face in one or more of the motion vector-based fake face classification and the feature vector-based fake face classification, it may be finally determined to be a fake face.

본 발명의 다양한 양상들에 있어서, 상기 모션 벡터에 기반한 위조 얼굴 분류, 및 상기 특징 벡터에 기반한 위조 얼굴 분류 모두에서 실제 얼굴이라고 분류되는 경우, 개인별 위조 얼굴 분류가 추가적으로 수행될 수 있다. In various aspects of the present invention, when the fake face is classified as a real face in both the fake face classification based on the motion vector and the fake face classification based on the feature vector, individual fake face classification may be additionally performed.

본 발명의 다양한 양상들에 있어서, 상기 개인별 위조 얼굴 분류는, 개인별 실제 얼굴 데이터, 개인별 실제 위조 얼굴 데이터, 또는 변환된 개인별 위조 얼굴 데이터 중의 하나 이상을 이용하여 학습된 분류기에 의해서 수행될 수 있다. In various aspects of the present invention, the fake face classification for each individual may be performed by a classifier trained using one or more of real face data for each individual, real fake face data for each individual, or converted fake face data for each individual.

본 발명의 다양한 양상들에 있어서, 상기 개인별 실제 위조 얼굴 데이터는, 개인별 실제 얼굴을 촬영한 사진 또는 동영상을 촬영한 결과물일 수 있다. In various aspects of the present invention, the real fake face data for each individual may be a result of taking a photo or video of each individual's real face.

본 발명의 다양한 양상들에 있어서, 상기 변환된 위조 얼굴 데이터는, 상기 실제 위조 얼굴 데이터에 변환 행렬이 적용됨으로써 획득되며, 상기 변환 행렬은 적응적으로 업데이트될 수 있다.In various aspects of the present invention, the transformed fake face data is obtained by applying a transformation matrix to the real fake face data, and the transformation matrix may be adaptively updated.

본 발명의 다양한 양상들에 있어서, 상기 획득된 영상으로부터 얼굴 랜드마크를 검출하는 단계를 더 포함하고, 상기 특징 벡터는 검출된 얼굴 랜드마크에 대한 기하학적인 특징을 표현하는 기술자(descriptor) 정보일 수 있다. In various aspects of the present invention, the step of detecting a facial landmark from the acquired image may be further included, and the feature vector may be descriptor information representing a geometric feature of the detected facial landmark. have.

본 발명의 다양한 양상들에 있어서, 상기 획득된 영상으로부터 얼굴 랜드마크를 검출하는 단계를 더 포함하고, 상기 모션 벡터는 검출된 얼굴 랜드마크의 움직임의 크기 및 방향을 나타내는 정보일 수 있다. In various aspects of the present invention, the method may further include detecting a facial landmark from the acquired image, and the motion vector may be information indicating the size and direction of motion of the detected facial landmark.

본 발명의 다양한 양상들에 있어서, 상기 모션 벡터에 기반한 위조 얼굴 분류는, 실제 얼굴에 대한 모션 벡터 특징 모델과, 위조 얼굴에 대한 모션 벡터 특징모델에 기반하여, 상기 획득된 영상의 위조 여부를 판정하는 단계를 포함할 수 있다. In various aspects of the present invention, the fake face classification based on the motion vector determines whether the obtained image is fake based on a motion vector feature model for a real face and a motion vector feature model for the fake face. steps may be included.

본 발명의 다양한 양상들에 있어서, 상기 위조 얼굴에 대한 모션 벡터 특징 모델은, 사진을 이용한 위조 얼굴에 대한 모션 벡터 특징 모델과, 동영상을 이용한 위조 얼굴에 대한 모션 벡터 특징 모델을 포함할 수 있다. In various aspects of the present invention, the motion vector feature model for the fake face may include a motion vector feature model for the fake face using a photo and a motion vector feature model for the fake face using a video.

본 발명의 다양한 양상들에 있어서, 상기 모션 벡터에 기반한 위조 얼굴 분류는, 제 1 영역, 제 2 영역 및 제 3 영역의 각각에 대해서, 상기 획득된 영상의 연속하는 두 프레임 간에 관측되는 움직임 패턴을 계산하는 단계를 포함하고, 상기 제 3 영역은 상기 제 2 영역을 포함하고, 상기 제 2 영역은 상기 제 1 영역을 포함할 수 있다. In various aspects of the present invention, the fake face classification based on the motion vector is based on a motion pattern observed between two consecutive frames of the obtained image for each of the first area, the second area, and the third area. The method may include calculating, wherein the third area includes the second area, and the second area includes the first area.

본 발명의 다양한 양상들에 있어서, 상기 모션 벡터는, 상기 제 1, 제 2 및 제 3 영역의 각각에서 평균 벡터를 계산하고, 상기 제 1, 제 2 및 제 3 영역의 평균 벡터들을 결합함으로써 결정될 수 있다. In various aspects of the present invention, the motion vector may be determined by calculating an average vector in each of the first, second and third regions, and combining the average vectors of the first, second and third regions. can

본 발명의 다양한 양상들에 있어서, 상기 제 1 영역은 얼굴 영역이고, 상기 제 2 영역은 헤드 영역이고, 상기 제 3 영역은 배경 영역일 수 있다. In various aspects of the present invention, the first region may be a face region, the second region may be a head region, and the third region may be a background region.

본 발명의 다양한 양상들에 있어서, 상기 특징 벡터에 기반한 위조 얼굴 분류는, 하나 이상의 실제 얼굴 데이터, 하나 이상의 실제 위조 얼굴 데이터, 또는 하나 이상의 변환된 위조 얼굴 데이터 중의 하나 이상을 이용하여 학습된 분류기에 의해서 수행될 수 있다. In various aspects of the present invention, the fake face classification based on the feature vector is performed on a classifier learned using one or more of one or more real face data, one or more real fake face data, or one or more converted fake face data. can be performed by

본 발명의 다양한 양상들에 있어서, 상기 하나 이상의 실제 위조 얼굴 데이터의 각각은, 상기 하나 이상의 실제 얼굴을 촬영한 사진 또는 동영상을 촬영한 결과물의 각각에 대응할 수 있다.In various aspects of the present invention, each of the one or more real fake face data may correspond to each of a result of photographing a photo or video of the one or more real faces.

본 발명의 다양한 양상들에 있어서, 상기 하나 이상의 변환된 위조 얼굴 데이터의 각각은, 상기 하나 이상의 실제 위조 얼굴 데이터의 각각에 변환 행렬이 적용됨으로써 획득되며, 상기 변환 행렬은 적응적으로 업데이트될 수 있다.In various aspects of the present invention, each of the one or more transformed fake face data is obtained by applying a transformation matrix to each of the one or more real fake face data, and the transformation matrix may be adaptively updated. .

본 발명에 대하여 위에서 간략하게 요약된 특징들은 후술하는 본 발명의 상세한 설명의 예시적인 양상일 뿐이며, 본 발명의 범위를 제한하는 것은 아니다.The features briefly summarized above with respect to the present invention are only exemplary aspects of the detailed description of the present invention that follows, and do not limit the scope of the present invention.

본 발명에 모션 벡터와 특징 벡터를 결합하여 위조 얼굴의 검출 확률을 획기적으로 높이는 방법 및 장치가 제공될 수 있다. According to the present invention, a method and apparatus for remarkably increasing the probability of detecting a fake face by combining a motion vector and a feature vector may be provided.

본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtainable in the present invention are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description below. will be.

본 명세서에 첨부되는 도면은 본 발명에 대한 이해를 제공하기 위한 것으로서 본 발명의 다양한 실시형태들을 나타내고 명세서의 기재와 함께 본 발명의 원리를 설명하기 위한 것이다.
도 1은 얼굴 특징점에 기반한 위조 얼굴 검출 방법을 설명하기 위한 흐름도이다.
도 2는 얼굴 특징점과 배경의 변화를 이용한 위조 얼굴 검출을 설명하기 위한 블록도이다.
도 3은 본 발명에 따른 위조 얼굴 검출 장치의 구성과 동작을 설명하기 위한 도면이다.
도 4는 본 발명에 따른 모션 벡터 추출 영역을 설명하기 위한 도면이다.
도 5는 본 발명에 따른 모션 벡터를 추출하는 장치의 구성 및 동작을 설명하기 위한 도면이다.
도 6 내지 도 8은 본 발명에 따라서 획득된 모션 벡터의 예시들을 설명하기 위한 도면이다.
도 9는 본 발명에 따른 모션 벡터 위조 얼굴 분류기의 구성 및 동작을 설명하기 위한 도면이다.
도 10은 본 발명에 따른 모션 벡터 위조 얼굴 분류기를 이용하여 위조 얼굴을 판별하는 방법을 설명하기 위한 도면이다.
도 11은 본 발명에 따른 일반적인 위조 얼굴 분류기 및 개인별 위조 얼굴 분류기의 구성 및 동작을 설명하기 위한 도면이다.
도 12는 본 발명에 따른 위조 얼굴 특징점 데이터 생성부에서 이용가능한 변환 행렬에 대해서 설명하기 위한 도면이다.
도 13은 일반적인 위조 얼굴 분류기의 생성을 설명하기 위한 도면이다.
도 14는 개인별 위조 얼굴 분류기의 생성을 설명하기 위한 도면이다.
The drawings accompanying this specification are intended to provide an understanding of the present invention, show various embodiments of the present invention, and explain the principles of the present invention together with the description of the specification.
1 is a flowchart illustrating a fake face detection method based on facial feature points.
2 is a block diagram for explaining fake face detection using changes in facial feature points and background.
3 is a diagram for explaining the configuration and operation of the fake face detection device according to the present invention.
4 is a diagram for explaining a motion vector extraction area according to the present invention.
5 is a diagram for explaining the configuration and operation of an apparatus for extracting a motion vector according to the present invention.
6 to 8 are diagrams for explaining examples of motion vectors obtained according to the present invention.
9 is a diagram for explaining the configuration and operation of a motion vector fake face classifier according to the present invention.
10 is a diagram for explaining a method of discriminating a fake face using a motion vector fake face classifier according to the present invention.
11 is a diagram for explaining the configuration and operation of a general fake face classifier and an individual fake face classifier according to the present invention.
12 is a diagram for explaining a transformation matrix usable in the fake facial feature point data generation unit according to the present invention.
13 is a diagram for explaining the generation of a general fake face classifier.
14 is a diagram for explaining creation of a fake face classifier for each individual.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고, 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, with reference to the accompanying drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily carry out the present invention. However, the present invention may be embodied in many different forms and is not limited to the embodiments described herein. And, in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

도 1은 얼굴 특징점에 기반한 위조 얼굴 검출 방법을 설명하기 위한 흐름도이다. 1 is a flowchart illustrating a fake face detection method based on facial feature points.

단계 S110에서 카메라 등을 이용하여 촬영된 영상을 획득할 수 있다. 단계 S120에서 획득된 영상에서 얼굴 객체(예를 들어, 눈)을 검출할 수 있다. 단계 S130에서 변화량을 비교할 수 있도록 얼굴 영상 정규화를 수행할 수 있다. 단계 S140에서 변화량 측정의 주요 대상이 되는 특징점에 해당하는 영역(예를 들어, 눈 영역)을 이진화하여 저장할 수 있다. 단계 S150에서는 상기 단계 S110 내지 S140이 N회 반복되는지를 판정하고, 그렇지 않은 경우 단계 S110부터 다시 수행되고, N회 반복된 영상을 획득한 경우 단계 S160이 수행될 수 있다.In step S110, a photographed image may be acquired using a camera or the like. A facial object (eg, an eye) may be detected from the image acquired in step S120. In step S130, face image normalization may be performed to compare the amount of change. In step S140, a region (eg, an eye region) corresponding to a feature point, which is a main target of variation measurement, may be binarized and stored. In step S150, it is determined whether steps S110 to S140 are repeated N times, and if not, the steps are performed again from step S110. When an image repeated N times is obtained, step S160 may be performed.

단계 S160에서는 N 개의 정규화된 얼굴 영상과 각각의 얼굴 영상으로부터 추출된 특징점 영역(예를 들어, 눈 영역)의 이진화된 데이터를 기반으로 N 개의 얼굴 영상에서 특징점 영역의 변화량을 계산할 수 있다. 만약, 사진 등의 위조 얼굴에서는 눈 깜박임 등이 발생하지 않을 것이므로, 실제 얼굴 영상에 비하여 특징점 영역의 변화량이 매우 적을 수 있고, 이에 기반하여 위조 얼굴 여부를 판별할 수 있다.In step S160, the amount of change in feature point areas in the N face images may be calculated based on the N normalized face images and the binarized data of feature point areas (eg, eye areas) extracted from the respective face images. If eye blinking does not occur in a fake face such as a photo, the amount of change in the feature point area may be very small compared to the real face image, and based on this, it is possible to determine whether the face is fake.

도 2는 얼굴 특징점과 배경의 변화를 이용한 위조 얼굴 검출을 설명하기 위한 블록도이다. 2 is a block diagram for explaining fake face detection using changes in facial feature points and background.

영상 획득 블록(210)는 카메라를 통해 촬영된 영상을 획득하고, 획득된 영상을 얼굴 추출 블록(220) 및 배경 학습 블록(230)에 입력할 수 있다.The image acquisition block 210 may obtain an image captured by a camera and input the obtained image to the face extraction block 220 and the background learning block 230 .

얼굴 추출 블록(220)은 획득된 영상으로부터 얼굴 객체를 추출하여 얼굴 영상을 움직임 정보 비교 블록(260) 및 배경간 비교 블록(270)에 전달할 수 있다. The face extraction block 220 may extract a face object from the acquired image and transmit the face image to the motion information comparison block 260 and the background comparison block 270 .

배경 학습 블록(230)은 영상 획득 블록(210)으로부터 획득된 다수의 영상 중에서 현재 배경을 분석하여 모델링하는 배경 학습을 통해 다수개의 모델을 생성하고, 이 중에서 상대적으로 높은 가중치를 가지는 모델의 배경을 학습 배경(또는 기준 배경)으로 선택하여 저장 블록(250)에 저장할 수 있다. 즉, 배경 학습 블록(230)은 가장 높은 확률을 가지는 배경 모델을 지속적인 학습을 통해 업데이트할 수 있다. The background learning block 230 generates a plurality of models through background learning that analyzes and models the current background among a plurality of images acquired from the image acquisition block 210, and among them, the background of the model having a relatively high weight It can be selected as a learning background (or reference background) and stored in the storage block 250. That is, the background learning block 230 may update the background model having the highest probability through continuous learning.

깜박임 검출 블록(240)은 얼굴 추출 블록(220)에서 추출된 얼굴 특징점 영역(예를 들어, 눈 영역)의 변화량을 통해 눈 깜빡임 여부 등을 검출할 수 있다. 예를 들어, 깜박임 검출 블록(240)에서는 도 1과 같은 방법이 수행될 수 있다. 깜박임 검출 블록(240)의 검출 결과는 위조 판별 블록(280)으로 전달될 수 있다.The blink detection block 240 may detect whether the eyes blink or not through the amount of change in the facial feature point region (eg, eye region) extracted by the face extraction block 220 . For example, the method of FIG. 1 may be performed in the blink detection block 240 . The detection result of the blink detection block 240 may be transmitted to the counterfeit determination block 280 .

움직임 정보 비교 블록(260)에서는 얼굴 영역의 모션 벡터 성분과 현재 배경 내의 모션 벡터 성분을 추출하여 비교할 수 있다. 얼굴 객체의 모션 벡터와 배경 영역의 벡터에 기반하여 결정된 움직임을 나타내는 수치가 위조 판별 블록(280)으로 전달될 수 있다.In the motion information comparison block 260, a motion vector component of the face area and a motion vector component of the current background may be extracted and compared. A numerical value representing a motion determined based on the motion vector of the face object and the vector of the background area may be transmitted to the fake determination block 280 .

배경간 비교 블록(270)은 얼굴 추출 블록(220)으로부터 전달 받은 현재 영상에서의 배경과 저장 블록(250)에 저장된 학습 배경을 비교하여 유사도를 결정할 수 있고, 그 결과가 위조 판별 블록(280)으로 전달될 수 있다.The comparison block 270 between backgrounds compares the background of the current image received from the face extraction block 220 with the learning background stored in the storage block 250 to determine the similarity, and the result is fake determination block 280 can be forwarded to

위조 판별 블록(280)에서는 획득된 영상의 얼굴 오브젝트의 눈 깜박임이 있는지, 획득된 영상의 배경이 실제 배경 모델과 유사한지, 획득된 영상의 배경의 움직임이 비정상적인지 등에 기반하여 위조 여부를 판별할 수 있다. In the forgery determination block 280, it is determined whether or not the forgery is faked based on whether there is blinking of the eyes of the face object in the acquired image, whether the background of the acquired image is similar to the actual background model, whether the motion of the background of the acquired image is abnormal, and the like. can

도 3은 본 발명에 따른 위조 얼굴 검출 장치의 구성과 동작을 설명하기 위한 도면이다.3 is a diagram for explaining the configuration and operation of the fake face detection device according to the present invention.

영상 획득 블록(301)은 이미지 획득 장치(예를 들어, 카메라) 등에 의해 촬영된 영상을 획득할 수 있고, 이를 얼굴 랜드마크(Landmark) 검출부(302)에 전달할 수 있다. The image acquisition block 301 may obtain an image captured by an image acquisition device (eg, a camera) and may transmit the image to the facial landmark detection unit 302 .

얼굴 랜드마크 검출부(302)는 얼굴의 주요 특징 포인트(예를 들어, 눈썹, 눈, 코, 입 등)를 검출할 수 있다. 예를 들어, 한쪽 눈썹을 2개의 특징부로 구분하여 검출하고, 좌우 눈썹 총 4개의 특징부를 검출할 수 있다. 한쪽 눈을 4개의 특징부로 구분하여 검출하고, 좌우 눈 총 8개의 특징부를 검출할 수 있다. 코는 양쪽의 2 부분을 구분하여 검출할 수 있다. 입술은 위쪽 좌우 2 부분, 아래쪽 좌우 2 부분, 총 4 개의 특징부를 검출할 수 있다. 이는 단지 예시일 뿐이며, 얼굴에서 18 개의 특징점을 추출하는 것으로 본 발명의 범위가 제한되지는 않는다. The facial landmark detection unit 302 may detect major facial feature points (eg, eyebrows, eyes, nose, mouth, etc.). For example, one eyebrow may be divided into two feature parts and detected, and a total of four feature parts of the left and right eyebrows may be detected. One eye can be divided into 4 features and detected, and a total of 8 features can be detected for the left and right eyes. The nose can be detected by dividing the two parts on both sides. Lips can detect a total of 4 features, 2 upper left and right parts and 2 lower left and right parts. This is just an example, and the scope of the present invention is not limited to extracting 18 feature points from the face.

얼굴 특징점 추출부(303)는 얼굴 랜드마크(예를 들어, 눈썹, 눈, 코, 입의 18개 위치)에 대한 특징을 추출하여 이를 표현하는 파라미터(예를 들어, MsLBP(Multi-scale Local Binary Pattern))를 생성할 수 있다. 이는 단지 예시에 불과하고, MsLBP 이외의 다른 기술자(descriptor)가 사용될 수도 있다. 다만, 얼굴 특징점 추출을 위해서 국부적인 영역의 빛 변화에 강인하면서 기하학적인 특징을 잘 표현하는 기술자를 사용하는 것이 효과적이다. 이는, 실제 얼굴을 촬영한 이미지와, 사진이나 비디오를 촬영한 위조 얼굴 이미지를 비교하면, 평면적인 데이터를 촬영한 위조 얼굴 이미지에서는 에지(edge) 정보와 같은 기하학적인 정보가 사라지므로 위조 얼굴 검출에 보다 유리하기 때문이다.The facial feature point extraction unit 303 extracts features for facial landmarks (eg, 18 positions of eyebrows, eyes, nose, and mouth) and expresses them (eg, MsLBP (Multi-scale Local Binary Pattern)) can be created. This is just an example, and other descriptors other than MsLBP may be used. However, it is effective to use a descriptor that is robust to light changes in a local area and expresses geometric features well for facial feature point extraction. This is because when an image of a real face is compared with a fake face image of a photo or video, geometric information such as edge information disappears in the fake face image of flat data, so it is difficult to detect fake faces. because it is more advantageous.

모션 벡터 추출부(304)는 동영상(또는 복수개의 프레임으로 구성된 시퀀스)에서 각각의 프레임의 모션 벡터를 추출하고, 모션 벡터의 크기(magnitude) 및 방향(angle)을 계산할 수 있다 (여기서, 모션 벡터의 크기는 벡터의 길이를 의미하고, 모션 벡터의 방향은 0˚ 내지 360˚ 사이의 기울기 값을 의미한다). 특히, 얼굴 영역, 헤드 영역, 배경 영역의 각각에 대해서 모션 벡터를 추출할 수 있다. 모션 벡터 추출부(304)의 동작에 대한 구체적인 설명은 도 4 내지 도 8을 참조하여 후술한다. The motion vector extractor 304 may extract a motion vector of each frame from a video (or a sequence composed of a plurality of frames) and calculate the magnitude and angle of the motion vector (here, the motion vector The magnitude of means the length of the vector, and the direction of the motion vector means the gradient value between 0˚ and 360˚). In particular, motion vectors can be extracted for each of the face area, head area, and background area. A detailed description of the operation of the motion vector extractor 304 will be described later with reference to FIGS. 4 to 8 .

모션 벡터 위조 얼굴 분류기(306)는 모션 벡터에 기반하여 임의의 얼굴 영상이 위조 얼굴에 해당하는지 여부를 판정할 수 있다. 모션 벡터 위조 얼굴 분류기(306)의 동작에 대한 구체적인 설명은 도 9 및 도 10을 참조하여 후술한다. The motion vector fake face classifier 306 may determine whether an arbitrary face image corresponds to a fake face based on the motion vector. A detailed description of the operation of the motion vector fake face classifier 306 will be described later with reference to FIGS. 9 and 10 .

일반적인 위조 얼굴 분류기(305)는 후술하는 개인별 위조 얼굴 분류기(308)와 구분된다. 일반적인 위조 얼굴 분류기(305)는 얼굴 특징점(또는 특징 벡터)에 기반하여 위조 얼굴 여부를 판정하며, 얼굴 특징점 추출부(303)로부터 입력되는 얼굴 영상의 특징점(또는 특징 벡터)을, 미리 학습을 통해서 마련된 기준과 비교하여, 임의의 얼굴 영상이 위조 얼굴에 해당하는지 여부를 판정할 수 있다. 일반적인 위조 얼굴 분류기(305)의 동작에 대한 구체적인 설명은 도 11 내지 도 14를 참조하여 후술한다. The general fake face classifier 305 is distinguished from the individual fake face classifier 308 described later. A general fake face classifier 305 determines whether or not a face is fake based on facial feature points (or feature vectors), and the feature points (or feature vectors) of the face image input from the facial feature point extractor 303 are learned in advance. Comparing with a prepared criterion, it may be determined whether an arbitrary face image corresponds to a fake face. A detailed description of the operation of the general fake face classifier 305 will be described later with reference to FIGS. 11 to 14 .

일반적인 위조 얼굴 분류기(305) 또는 모션 벡터 위조 얼굴 분류기(306) 중의 적어도 하나에서 위조 얼굴이라고 분류되면, 최종적으로 위조 얼굴이라고 판정할 수 있다. 만약, 일반적인 위조 얼굴 분류기(305) 또는 모션 벡터 위조 얼굴 분류기(306) 모두에서 위조 얼굴이 아니라고 분류되면, 얼굴 인식 수행부(307), 개인별 위조 얼굴 분류기(308)를 통해서 추가적인 위조 여부 검출이 수행될 수 있다.If at least one of the general fake face classifier 305 and the motion vector fake face classifier 306 classifies the face as a fake face, it may be finally determined that the face is a fake face. If both of the general fake face classifier 305 and the motion vector fake face classifier 306 classify that the face is not a fake face, additional fake face detection is performed through the face recognition unit 307 and the individual fake face classifier 308. It can be.

얼굴 인식 수행부(307)는 획득된 영상의 얼굴에 해당하는 사람이 누구인지를 결정할 수 있다. 예를 들어, 해당 얼굴 영상의 특징부에 기초하여 그 얼굴에 매칭되는 사람의 신원 또는 식별정보(즉, ID 정보)를 추출할 수 있다. 얼굴 인식 결과는 개인별 위조 얼굴 분류기(308)로 전달될 수 있다. The face recognition performer 307 may determine who the person corresponding to the face of the acquired image is. For example, identity or identification information (ie, ID information) of a person matched with the face may be extracted based on the feature of the corresponding face image. The face recognition result may be delivered to the fake face classifier 308 for each individual.

개인별 위조 얼굴 분류기(308)는 식별된 신원에 해당하는 얼굴에 대해서 데이터베이스에 미리 저장되어 있는 기준이 되는 얼굴 특징점과, 획득된 영상의 얼굴 특징점을 비교하여 위조 여부를 판정할 수 있다. 개인별 위조 얼굴 분류기(308)의 동작에 대한 구체적인 설명은 도 11 내지 도 14를 참조하여 후술한다. The fake face classifier 308 for each individual compares facial feature points of the face corresponding to the identified identity with standard facial feature points stored in the database in advance and facial feature points of the obtained image to determine whether the face is faked. A detailed description of the operation of the fake face classifier 308 for each individual will be described later with reference to FIGS. 11 to 14 .

도 3에 대해서 설명한 구성요소들의 하나 이상은, 별도의 프로세서로서 구현될 수도 있지만, 하나의 프로세서의 소프트웨어 또는 펌웨어 형태의 기능 모듈로서 구현될 수도 있다. One or more of the components described with respect to FIG. 3 may be implemented as a separate processor or may be implemented as a function module in the form of software or firmware of one processor.

도 4는 본 발명에 따른 모션 벡터 추출 영역을 설명하기 위한 도면이다.4 is a diagram for explaining a motion vector extraction area according to the present invention.

획득된 영상에 대해서 모션 벡터를 추출하기 위해, 얼굴 영역, 헤드 영역(또는 머리와 어깨(head and shoulder) 영역), 배경 영역(또는 카메라 프레임 바깥 영역)으로 나눌 수 있다. 실제 얼굴을 촬영한 영상이라면 사람 몸의 움직임에 따라서 얼굴 영역과 헤드 영역에서 움직임이 있지만, 배경에는 이러한 움직임이 거의 발생하지 않는다. 또한, 얼굴 영역에서는 눈 깜빡임, 말하기, 표정 변화 등에 따라서 미세한 움직임이 많이 발생하지만, 상대적으로 헤드 영역에서는 이러한 미세한 움직임이 덜 발생한다. In order to extract a motion vector for an acquired image, it can be divided into a face area, a head area (or a head and shoulder area), and a background area (or an area outside the camera frame). In the case of an image of a real face, there is movement in the face area and the head area according to the motion of the human body, but such motion hardly occurs in the background. In addition, in the face area, a lot of minute movements occur according to eye blinking, speaking, facial expression change, etc., but relatively little such minute movements occur in the head area.

본 발명에서는 설명의 편의를 위해서 얼굴 영역, 헤드 영역, 배경 영역이라는 용어를 사용하지만, 본 발명의 범위가 그 용어의 사전적 의미로 제한되지는 않는다. 즉, 본 발명은 획득된 얼굴 영상을 제 1, 제 2 및 제 3 영역으로 구분하고, 제 3 영역은 제 2 영역을 포함하고, 제 2 영역은 제 1 영역을 포함하는 방식으로 구분하는 예시를 포함한다. In the present invention, the terms face region, head region, and background region are used for convenience of explanation, but the scope of the present invention is not limited to the dictionary meaning of the terms. That is, the present invention provides an example of dividing the obtained face image into first, second, and third areas, the third area including the second area, and the second area including the first area. include

도 5는 본 발명에 따른 모션 벡터를 추출하는 장치의 구성 및 동작을 설명하기 위한 도면이다.5 is a diagram for explaining the configuration and operation of an apparatus for extracting a motion vector according to the present invention.

영상 획득 블록(501)은 도 3의 영상 획득 블록(301)에 대응할 수 있다. The image acquisition block 501 may correspond to the image acquisition block 301 of FIG. 3 .

연속된 두 프레임 추출부(502)는 영상 획득 블록(501)에 의해 연속된 프레임들이 입력되면 그 중에서 연속된 두 프레임을 추출한다. 연속된 두 프레임 추출부(502)는 얼굴 랜드마크 검출(도 3의 302)에서 얼굴 객체가 검출된 후에 입력된 영상에 대해서 연속된 두 프레임을 추출할 수도 있다.The two consecutive frame extractor 502 extracts two consecutive frames from among the consecutive frames input by the image acquisition block 501 . The two consecutive frame extractor 502 may extract two consecutive frames of an input image after a facial object is detected in facial landmark detection (302 in FIG. 3 ).

고밀도 광학 플로우(Dense Optical Flow) 계산부(503)는 추출된 두 프레임간의 고밀도 광학 플로우(즉, 오브젝트, 표면, 에지에 대해서 관측되는 움직임의 패턴)을 계산할 수 있다. The dense optical flow calculation unit 503 may calculate a dense optical flow between the two extracted frames (ie, a movement pattern observed for an object, surface, or edge).

히스토그램 생성부(504)에서는 도 4의 예시와 같이 얼굴 영역, 헤드 영역, 배경 영역으로 분할된 3 개의 영역을 더 세부적으로 분할할 수 있다. 예를 들어, 얼굴 영역은 N1 개의 서브 블록으로 구분하고, 헤드 영역은 N2 개의 서브 블록으로 분할하고, 배경 영역은 N3 개의 서브 블록으로 분할할 수 있다. 구분된 영역(예를 들어, 얼굴 영역, 헤드 영역, 배경 영역)의 각각에서 평균 벡터를 계산하고, 해당 영역 내의 평균 벡터에 대한 크기(magnitude) 및 방향(angle)을 계산할 수 있다. 그 결과를 이용하여 구분된 영역의 각각에 대한 히스토그램(즉, 1차원 히스토그램 벡터)을 생성할 수 있다.The histogram generating unit 504 may further subdivide the three regions divided into a face region, a head region, and a background region as shown in the example of FIG. 4 . For example, the face region may be divided into N1 sub-blocks, the head region may be divided into N2 sub-blocks, and the background region may be divided into N3 sub-blocks. An average vector may be calculated in each of the divided regions (eg, a face region, a head region, and a background region), and a magnitude and an angle of the average vector in the corresponding region may be calculated. Using the result, a histogram (ie, a one-dimensional histogram vector) for each of the divided regions may be generated.

벡터 결합부(505)는 구분된 영역(예를 들어, 얼굴 영역, 헤드 영역, 배경 영역)의 각각에서 도출된 1차원 히스토그램 벡터를 결합하여, 하나의 모션 벡터(또는 모션 특징 벡터)를 생성할 수 있다. The vector combiner 505 generates one motion vector (or motion feature vector) by combining 1-dimensional histogram vectors derived from each of the divided regions (eg, the face region, the head region, and the background region). can

도 5에 대해서 설명한 구성요소들의 하나 이상은, 별도의 프로세서로서 구현될 수도 있지만, 하나의 프로세서의 소프트웨어 또는 펌웨어 형태의 기능 모듈로서 구현될 수도 있다. One or more of the components described with respect to FIG. 5 may be implemented as a separate processor or may be implemented as a function module in the form of software or firmware of one processor.

도 6 내지 도 8은 본 발명에 따라서 획득된 모션 벡터의 예시들을 설명하기 위한 도면이다.6 to 8 are diagrams for explaining examples of motion vectors obtained according to the present invention.

도 6의 상단 2개의 도면은 실제 얼굴을 촬영한 영상에서 획득된 모션 벡터(초록색으로 표시된 벡터)의 예시를 나타내고, 및 하단 도면은 그에 해당하는 히스토그램을 나타낸다. The upper two figures in FIG. 6 show examples of motion vectors (vectors marked in green) obtained from an image of a real face, and the lower figure shows a corresponding histogram.

도 7의 상단 2개의 도면은 사진(예를 들어, 스마트폰으로 촬영한 얼굴 사진)을 촬영한 영상에서 획득된 모션 벡터(초록색으로 표시된 벡터)의 예시를 나타내고, 및 하단 도면은 그에 해당하는 히스토그램을 나타낸다. The upper two diagrams in FIG. 7 show examples of motion vectors (vectors marked in green) obtained from an image in which a photo (eg, a face photo taken with a smartphone) is taken, and the lower diagram is a corresponding histogram. indicates

도 8의 상단 2개의 도면은 동영상(예를 들어, 스마트폰으로 촬영한 얼굴 동영상)을 촬영한 영상에서 획득된 모션 벡터(초록색으로 표시된 벡터)의 예시를 나타내고, 및 하단 도면은 그에 해당하는 히스토그램을 나타낸다. The upper two figures in FIG. 8 show examples of motion vectors (vectors marked in green) obtained from an image taken of a video (eg, a face video taken with a smartphone), and the lower figure shows a corresponding histogram. indicates

예를 들어, 모션 벡터 하나의 방향이 70˚이고 그 크기가 20이면 아래의 표 1에서 해당 요소의 카운트를 1만큼 더할 수 있다. 나머지 모션 벡터들에 대해서 그 방향과 크기에 따른 카운트를 반복할 수 있다. 특정 방향에 대한 벡터 크기의 합은, 해당 방향에서 제 1 크기를 가지는 벡터의 개수에 제 1 크기값을 곱하고, 제 2 크기를 가지는 벡터의 개수에 제 2 크기값을 곱하고, ... 이들을 모두 합산함으로써 도출할 수 있다. For example, if the direction of one motion vector is 70 degrees and its magnitude is 20, the count of the corresponding element in Table 1 below can be added by 1. For the remaining motion vectors, the count according to the direction and magnitude may be repeated. The sum of vector magnitudes in a specific direction is obtained by multiplying the first magnitude value by the number of vectors having the first magnitude in the corresponding direction, by multiplying the second magnitude value by the number of vectors having the second magnitude, and ... all of these It can be derived by summing.

방향 direction
크기size
00 70˚70˚ 360˚360˚
2020 00 1One 00 MAXMAX 00 00 00

이에 따라 계산된 특정 방향의 벡터 크기의 합이 상대적으로 큰 값이 나올 수 있으므로, 히스토그램 그래프로 표현할 때는 최소값과 최대값을 정해서 스케일링을 적용함으로써, 다른 영상의 모션 벡터와 용이하게 비교할 수 있다. 즉, 서로 다른 영상의 모션 벡터를 히스토그램 그래프를 비교할 때, 그래프의 크기를 비교하는 것이 아니라, 벡터 방향에 대한 크기의 분포를 보고 유사도를 판정하므로, 벡터의 크기의 상대적인 대소관계는 필요하지 않기 때문이다.Accordingly, since the sum of the magnitudes of vectors in a specific direction may be relatively large, it can be easily compared with the motion vectors of other images by determining the minimum and maximum values and applying scaling when expressed as a histogram graph. That is, when comparing histogram graphs of motion vectors of different images, the degree of similarity is determined by looking at the size distribution in the direction of the vector rather than comparing the size of the graph, so a relative size relationship of vector sizes is not necessary. to be.

도 6의 예시의 히스토그램 그래프로부터 실제 얼굴의 경우에 좌우(또는 수평) 방향의 모션 벡터 성분이 상대적으로 많이 발생함을 알 수 있고, 도 7의 예시의 히스토그램 그래프로부터 위조얼굴(사진)의 경우에는 사람이 사진을 들고 있어서 흔들리기 때문에 움직임이 없는 상황이 발생하는 빈도가 낮고 상하좌우(또는 수직 및 수평)의 모든 방향을 가지는 모션 벡터 성분이 많이 발생함을 알 수 있다. 도 8의 예시의 히스토그램 그래프로부터 위조얼굴(동영상)의 경우에는 사람이 휴대가능한 동영상 디스플레이 크기의 제약으로 인해 모션 벡터의 크기가 다른 경우에 비하여 상대적으로 작게 나타나고, 그래프의 형태 자체는 실제 얼굴과 비슷한 패턴을 보일 수도 있지만, 벡터의 크기가 더 작거나 상대적으로 어느 한 방향으로 왜곡된 패턴을 보임을 알 수 있다. 도 6 내지 도 8의 히스토그램의 그래프는 많은 실험을 통해 얻은 평균치를 표현하는 예시일 뿐이며, 본 발명의 범위를 제한하는 것은 아니다.From the histogram graph of the example of FIG. 6, it can be seen that in the case of a real face, a relatively large number of motion vector components in the left and right (or horizontal) directions occur, and from the histogram graph of the example of FIG. 7, in the case of a fake face (photo), It can be seen that since the person holding the picture shakes, the occurrence of a motionless situation is low, and motion vector components having all directions (or vertical and horizontal) are frequently generated. In the case of the fake face (video) from the histogram graph of the example of FIG. 8, the size of the motion vector is relatively small compared to other cases due to the limitation of the size of the video display that can be carried by a person, and the shape of the graph itself is similar to that of the real face. It may show a pattern, but it can be seen that the size of the vector is smaller or the pattern is relatively distorted in one direction. The graphs of the histograms of FIGS. 6 to 8 are only examples expressing average values obtained through many experiments, and do not limit the scope of the present invention.

이와 같이, 실제 얼굴, 위조 얼굴(사진), 위조 얼굴(동영상)에서 얻은 모션벡터를 기반의 크기와 방향에 대한 히스토그램을 표현한 그래프에서 알 수 있는 바와 같이, 실제 얼굴에서 획득된 모션 벡터는 사진이나 동영상으로부터 획득된 모션 벡터와 큰 차이를 보인다. 즉, 실제 얼굴과 사진 또는 동영상의 모션 벡터의 정규화된 히스토그램의 특징은 현저한 차이를 가지므로, 이에 기반하여 위조 얼굴 여부를 판정할 수 있다.In this way, as can be seen from the graph expressing the histogram of the size and direction based on the motion vectors obtained from the real face, fake face (photo), and fake face (video), the motion vector obtained from the real face is It shows a big difference from the motion vector obtained from the video. That is, since the feature of the normalized histogram of the real face and the motion vector of the photo or video has a significant difference, it is possible to determine whether the face is fake based on this.

도 9는 본 발명에 따른 모션 벡터 위조 얼굴 분류기의 구성 및 동작을 설명하기 위한 도면이다.9 is a diagram for explaining the configuration and operation of a motion vector fake face classifier according to the present invention.

본 발명에 따른 모션 벡터 위조 얼굴 분류기(도 3의 306)는 전술한 바와 같이 모션 벡터의 특징(예를 들어, 히스토그램 상의 분포 특징) 자체에 기초하여 위조 얼굴 여부를 판정할 수도 있지만, 이에 추가적으로 훈련 이미지를 이용한 위조 얼굴 여부 판정도 지원한다.As described above, the motion vector fake face classifier (306 in FIG. 3) according to the present invention can determine whether or not it is a fake face based on the feature of the motion vector (eg, distribution feature on the histogram) itself, but additionally trained. It also supports determining whether or not a face is fake using an image.

예를 들어, 실제얼굴, 위조얼굴(사진), 위조얼굴(동영상)의 세가지 분류의 각각에 대해서 다양하게 훈련시킨 모션 벡터의 특징(예를 들어, 히스토그램 상의 분포 특징)을 이용하여 실제로 검출하는 상황에서, 세가지 분류 중의 어떤 것에 근접하는지를 판정함으로써 위조 얼굴 검출 성능을 높일 수 있다. For example, a situation in which each of the three categories of real face, fake face (photo), and fake face (video) is actually detected using features of motion vectors trained in various ways (eg, distribution features on a histogram). In , fake face detection performance can be improved by determining which one of the three categories is close to.

도 9의 예시에서 훈련 이미지 생성부(901)에서는 모델링 분류 각각에 대한 데이터를 수집 또는 저장할 수 있다. 예를 들어, 실제얼굴의 모델(즉, 실제얼굴에 대한 비교 기준 모션 벡터)을 생성하기 위해서는 실제얼굴이 가지는 다양한 특징을 파악하기 위한 훈련이미지가 요구된다. 이러한 훈련이미지 데이터는 사전에 미리 제공될 수도 있고, 본 발명의 위조 얼굴 검출 결과에 따라 실제 얼굴로 판정된 영상 데이터가 훈련이미지로서 피드백 방식으로 제공될 수도 있다. 위조얼굴(사진)에 대한 모델(즉, 사진을 이용한 위조 얼굴에 대한 비교 기준 모션 벡터)을 생성하기 위해서는 사진을 이용한 위조 얼굴이 가지는 다양한 특징을 파악하기 위한 훈련이미지가 요구된다. 이러한 훈련이미지 데이터는 사전에 미리 제공될 수도 있고, 본 발명의 위조 얼굴 검출 결과에 따라 사진을 이용한 위조 얼굴로 판정된 영상 데이터가 훈련이미지로서 피드백 방식으로 제공될 수도 있다. 위조얼굴(동영상)에 대한 모델(즉, 동영상을 이용한 위조 얼굴에 대한 비교 기준 모션 벡터)을 생성하기 위해서는 동영상을 이용한 위조 얼굴이 가지는 다양한 특징을 파악하기 위한 훈련이미지가 요구된다. 이러한 훈련이미지 데이터는 사전에 미리 제공될 수도 있고, 본 발명의 위조 얼굴 검출 결과에 따라 동영상을 이용한 위조 얼굴로 판정된 영상 데이터가 훈련이미지로서 피드백 방식으로 제공될 수도 있다. In the example of FIG. 9 , the training image generating unit 901 may collect or store data for each modeling classification. For example, in order to generate a model of a real face (ie, a reference motion vector for comparison with respect to the real face), a training image for recognizing various characteristics of the real face is required. Such training image data may be provided in advance, or image data determined as a real face according to the fake face detection result of the present invention may be provided as a training image in a feedback method. In order to generate a model for a fake face (photo) (that is, a reference motion vector for comparison of a fake face using a photo), a training image for identifying various characteristics of a fake face using a photo is required. Such training image data may be provided in advance, or image data determined as a fake face using a photo according to a result of detecting a fake face according to the present invention may be provided as a training image in a feedback method. In order to create a model for a fake face (video) (that is, a reference motion vector for comparison with respect to a fake face using a video), a training image for identifying various characteristics of a fake face using a video is required. Such training image data may be provided in advance, or image data determined as a fake face using a video according to the fake face detection result of the present invention may be provided as a training image in a feedback method.

모션 벡터 추출부(902)에서는 모델링 분류(예를 들어, 실제얼굴, 위조얼굴(사진), 위조얼굴(동영상)의 세가지 분류) 각각에 대한 모션 벡터를 추출할 수 있으며, 이를 위해서 도 5와 같은 방식이 사용될 수도 있다.The motion vector extractor 902 can extract motion vectors for each of the modeling classifications (for example, three classifications of real face, fake face (photo), and fake face (video)), as shown in FIG. method may be used.

모델 생성부(903)에서는 추출된 모션 벡터에 기초한 통계적인 모델링 방법을 사용하여, 모델링 분류(예를 들어, 실제얼굴, 위조얼굴(사진), 위조얼굴(동영상)의 세가지 분류) 각각에 대한 모델을 생성할 수 있다. The model generation unit 903 uses a statistical modeling method based on the extracted motion vector, and models for each of the modeling classifications (for example, three classifications of real face, fake face (photo), and fake face (video)). can create

도 9에 대해서 설명한 구성요소들의 하나 이상은, 별도의 프로세서로서 구현될 수도 있지만, 하나의 프로세서의 소프트웨어 또는 펌웨어 형태의 기능 모듈로서 구현될 수도 있다. One or more of the components described with respect to FIG. 9 may be implemented as a separate processor or may be implemented as a function module in the form of software or firmware of one processor.

도 10은 본 발명에 따른 모션 벡터 위조 얼굴 분류기를 이용하여 위조 얼굴을 판별하는 방법을 설명하기 위한 도면이다.10 is a diagram for explaining a method of discriminating a fake face using a motion vector fake face classifier according to the present invention.

영상 획득부(301)을 통해 획득된 입력 이미지(1001)에 대해서 모션 벡터 추출(1002)이 수행될 수 있고, 이에 대해 전술한 도 5와 같은 방법이 적용될 수 있다. 추출된 모션 벡터는 기생성된 모델(예를 들어, 도 9의 예시에서와 같이 모델링 분류(예를 들어, 실제얼굴, 위조얼굴(사진), 위조얼굴(동영상)의 세가지 분류) 각각에 대해서 생성된 모델)과 비교(1003)될 수 있다. 즉, 추출된 모션 벡터는 실제얼굴에 대한 모델과 비교되고, 위조얼굴(사진)에 대한 모델과 비교되고, 위조얼굴(동영상)에 대한 모델과 비교될 수 있다. 비교(1003) 결과 여러 가지 모델링 분류 중에서 가장 높은 유사도를 가지는 모델이 결정될 수 있다. 만약 입력된 영상에 대해서 추출된 모션 벡터가 실제 얼굴 모델과 가장 유사하다면 위조 얼굴이 아닌 것으로 판정될 수 있고, 그렇지 않은 경우(예를 들어, 위조얼굴(사진) 또는 위조얼굴(동영상)의 모델과 가장 유사하다면) 위조 얼굴인 것으로 판정될 수 있다. Motion vector extraction 1002 may be performed on the input image 1001 acquired through the image acquisition unit 301, and the method described in FIG. 5 may be applied to this. The extracted motion vectors are generated for each of the pre-generated models (eg, modeling classifications (eg, real face, fake face (photo), and fake face (video) three classifications) as shown in the example of FIG. 9). model) and can be compared (1003). That is, the extracted motion vector may be compared with a model for a real face, a model for a fake face (photo), and a model for a fake face (video). As a result of comparison 1003, a model having the highest similarity among various modeling classifications may be determined. If the motion vector extracted for the input image is most similar to the real face model, it can be determined that it is not a fake face, otherwise (for example, fake face (photo) or fake face (video) model and most similar) may be determined to be a fake face.

도 11은 본 발명에 따른 일반적인 위조 얼굴 분류기 및 개인별 위조 얼굴 분류기의 구성 및 동작을 설명하기 위한 도면이다.11 is a diagram for explaining the configuration and operation of a general fake face classifier and an individual fake face classifier according to the present invention.

도 11의 영상 획득 블록(1101), 얼굴 랜드마크 검출부(1102) 및 얼굴 특징점 추출부(1103)은 도 3의 예시에서 영상 획득 블록(301), 얼굴 랜드마크 검출부(302) 및 얼굴 특징점 추출부(303)에 대응할 수 있다. 즉, 이미지 획득 장치(예를 들어, 카메라)를 이용하여 영상을 획득하고, 얼굴의 특징점(예를 들어, 눈썹, 눈, 코, 입술에 대한 18개의 얼굴 랜드마크)을 검출하고, 검출된 특징점 위치에서 MsLBP를 이용하여 특징 벡터를 추출할 수 있다. The image acquisition block 1101, the facial landmark detection unit 1102, and the facial feature point extraction unit 1103 of FIG. 11 are the image acquisition block 301, the facial landmark detection unit 302, and the facial feature point extraction unit in the example of FIG. (303). That is, an image is obtained using an image acquisition device (eg, a camera), facial feature points (eg, 18 facial landmarks for eyebrows, eyes, nose, and lips) are detected, and the detected feature points are detected. A feature vector can be extracted using MsLBP at the location.

위조 얼굴 특징점 데이터 생성부(1104)는 추출된 얼굴 특징 데이터를, 변환 행렬(예를 들어, 전달 함수(Transfer Function) 또는 적응 함수(Adaptation Function))을 이용하여 위조 얼굴 특징 데이터(또는 위조 얼굴 특징 벡터)로 변환시킬 수 있다. 변환 행렬에 대한 예시를 도 12를 참조하여 설명한다.The fake facial feature point data generation unit 1104 converts the extracted facial feature data into fake facial feature data (or fake facial feature) by using a transformation matrix (eg, a transfer function or an adaptation function). vector) can be converted. An example of a transformation matrix will be described with reference to FIG. 12 .

도 12는 본 발명에 따른 위조 얼굴 특징점 데이터 생성부에서 이용가능한 변환 행렬에 대해서 설명하기 위한 도면이다.12 is a diagram for explaining a transformation matrix usable in the fake facial feature point data generation unit according to the present invention.

실제 얼굴 데이터의 집합(G1, G2, ..., GN)에 대한 주요 구성요소 분석(Principal Component Analysis, PCA)을 통해 실제얼굴 데이터의 기저(Gbasis)를 결정할 수 있다. 한편, 위조얼굴 데이터의 집합(F1, F2, ..., FM)에 대한 PCA를 통해 위조얼굴 데이터의 기저(Fbasis)를 결정할 수 있다. 이들에 기반하여 변환행렬(X)를 계산할 수 있다. 즉, Gbasis에 대해서 특정 변환 행렬 X가 적용된 결과를 Fbasis라고 하면, 변환 행렬 X는 아래의 수학식 1과 같이 획득될 수 있다. A basis (G basis ) of the real face data may be determined through principal component analysis (PCA) on a set of real face data (G 1 , G 2 , ..., G N ). Meanwhile, a basis (F basis ) of fake face data may be determined through PCA for a set of fake face data (F 1 , F 2 , ..., F M ). Based on these, a conversion matrix (X) can be calculated. That is, if the result of applying a specific transformation matrix X to G basis is called F basis , transformation matrix X can be obtained as in Equation 1 below.

Figure pat00001
Figure pat00001

다시 도 11을 참조하면, 실제 위조얼굴 생성부(1105)를 이용하여, 실제 사람의 얼굴을 촬영한 결과물(즉, 사진 또는 동영상)을 이미지 획득 장치(예를 들어, 카메라)로 다시 촬영하여 위조 얼굴의 샘플에 해당하는 위조 얼굴 이미지를 생성할 수 있다. 위조 얼굴 생성부(1105)를 이용하여, 위조 얼굴 이미지는 하나 또는 복수개가 생성될 수 있다. 실제 위조얼굴 생성부(1105)가 적용되는 경우에는 개인적인 위조 얼굴 분류기는 물론 일반적인 위조 얼굴 분류기에서도 유용한 위조 얼굴 데이터로서 활용될 수 있으므로 위조 검출 성능을 높일 수 있다. 특히, 실제 위조얼굴 생성부(1105)의 적용은, 개인별 위조 얼굴 분류기를 위한 개인 식별 이미지의 생성 및 등록시에 함께 적용될 수 있다. 그러나, 개인 식별 이미지를 사전에 등록하는 것이 적절하지 않은 경우에는, 실제 위조얼굴 생성부(1105)는 전술한 변환 함수를 이용하여 실제 얼굴 데이터(즉, 실제 얼굴 특징 벡터)로부터 위조 얼굴 데이터(즉, 위조 얼굴 특징 벡터)를 생성하고 이를 이용할 수도 있다. Referring back to FIG. 11, by using the real fake face generation unit 1105, a result of photographing a real person's face (ie, a photo or video) is taken again by an image acquisition device (eg, a camera) to counterfeit it. A fake face image corresponding to a face sample may be generated. One or a plurality of fake face images may be generated using the fake face generation unit 1105 . When the real fake face generation unit 1105 is applied, since it can be used as useful fake face data not only in personal fake face classifiers but also in general fake face classifiers, fake face detection performance can be improved. In particular, the application of the real fake face generation unit 1105 can be applied at the time of generating and registering a personal identification image for a fake face classifier for each individual. However, if it is not appropriate to register a personal identification image in advance, the real fake face generation unit 1105 uses the above-described conversion function to convert fake face data (ie, real face feature vectors) to fake face data (ie, real face feature vectors). , fake facial feature vectors) and use them.

일반적인 위조 얼굴 분류기 생성부(1106)에서는 일반적인 위조 얼굴 분류기를 학습 또는 업데이트시킴으로써 일반적인 위조 얼굴 분류기의 성능을 높일 수 있다. The general fake face classifier generation unit 1106 can improve the performance of the general fake face classifier by learning or updating the general fake face classifier.

개인별 위조 얼굴 분류기 생성부(1107)에서는 개인별 위조 얼굴 분류기를 학습 또는 업데이트시킴으로써 개인별 위조 얼굴 분류기의 성능을 높일 수 있다. In the individual fake face classifier generation unit 1107, performance of the individual fake face classifier may be improved by learning or updating the individual fake face classifier.

일반적인 위조 얼굴 분류기 생성부(1106) 및 개인별 위조 얼굴 분류기 생성부(1107)에 대한 예시를 도 13 및 도 14를 참조하여 각각 설명한다. Examples of a general fake face classifier generator 1106 and an individual fake face classifier generator 1107 will be described with reference to FIGS. 13 and 14, respectively.

도 13은 일반적인 위조 얼굴 분류기의 생성을 설명하기 위한 도면이다.13 is a diagram for explaining the creation of a general fake face classifier.

일반적인 위조 얼굴 분류기는 다양한 훈련 데이터를 이용하여 일반적인 위조 얼굴 특징 벡터에 대한 비교 기준을 정하고, 그에 따라서 일반적인 위조 얼굴 여부를 판정할 수 있다. 이러한 일반적인 위조 얼굴 분류기를 훈련 또는 업데이트시키기 위해서, 기존에 확보된 훈련 데이터 이외의 새로운 데이터(예를 들어, 새롭게 등록한 사람(들)의 실제 얼굴에 대한 데이터와, 실제 위조 얼굴(즉, 실제 얼굴을 촬영한 결과물(즉, 사진 또는 동영상)을 이미지 획득 장치(예를 들어, 카메라)로 다시 촬영한 결과물)에 대한 데이터, 또는 실제 얼굴로부터 변환 행렬을 이용하여 변환된 위조 얼굴에 대한 데이터)를 추가로 입력할 수 있다. 이에 따라, 기존 등록자의 실제 얼굴 집합에 대한 특징 벡터와, 기존 등록자의 위조 얼굴 집합(이는 실제 위조 얼굴 또는 변환된 위조 얼굴의 하나 이상을 포함하는 집합)으로부터 일반적인 위조 얼굴 여부에 대한 판정 기준을 학습하고 이진 분류기를 업데이트할 수 있다.A general fake face classifier may determine a comparison criterion for a general fake face feature vector using various training data, and determine whether or not a generic face is a fake face. In order to train or update such a general fake face classifier, new data other than the previously obtained training data (eg, data on the real face of the newly registered person(s) and real fake face (i.e., real face) Add data about the result of taking a picture (ie, a picture or video) and re-photographing it with an image acquisition device (eg, a camera), or data about a fake face transformed from a real face using a transformation matrix) can be entered as Accordingly, a criterion for determining general fake faces is learned from the feature vector of the real face set of the existing registrant and the fake face set of the existing registrant (which includes at least one of the real fake face or the transformed fake face). and update the binary classifier.

도 14는 개인별 위조 얼굴 분류기의 생성을 설명하기 위한 도면이다. 14 is a diagram for explaining creation of a fake face classifier for each individual.

개인별 위조 얼굴 분류기는 얼굴 인식을 통해서 개인이 식별된 경우, 보다 정확한 위조 검출 결과를 위해서, 개인별 실제 얼굴 및 위조 얼굴에 대한 데이터를 학습 및 업데이트할 수 있다. 개인별 위조 얼굴 분류기는 식별된 개인(예를 들어, 등록자)의 실제 얼굴에 대한 데이터, 실제 위조 얼굴(즉, 실제 얼굴을 촬영한 결과물(즉, 사진 또는 동영상)을 이미지 획득 장치(예를 들어, 카메라)로 다시 촬영한 결과물)에 대한 데이터, 또는 실제 얼굴로부터 변환 행렬을 이용하여 변환된 위조 얼굴에 대한 데이터)에 기초하여, 해당하는 개인에 대한 위조 얼굴 여부에 대한 판정 기준을 학습하고 이진 분류기를 업데이트할 수 있다.When an individual is identified through face recognition, the fake face classifier for each individual can learn and update data on each individual's real face and fake face to obtain a more accurate fake face detection result. The fake face classifier for each individual identifies data on the real face of the individual (eg, registrant), the actual fake face (ie, the result of photographing the real face (ie, a photo or video)) to an image acquisition device (eg, camera), or data on a fake face transformed from a real face using a transformation matrix), it learns a criterion for determining whether or not a fake face for the corresponding individual is trained and uses a binary classifier can be updated.

도 11 내지 도 14에 대해서 설명한 구성요소들의 하나 이상은, 별도의 프로세서로서 구현될 수도 있지만, 하나의 프로세서의 소프트웨어 또는 펌웨어 형태의 기능 모듈로서 구현될 수도 있다. One or more of the components described with reference to FIGS. 11 to 14 may be implemented as a separate processor or as a function module in the form of software or firmware of one processor.

전술한 바와 같이, 모션 벡터(예를 들어, 고밀도 광학 플로우) 및 특징 벡터(예를 들어, MsLBP) 모두를 기반으로 동작하는 위조 얼굴 분류기는, 종래의 위조얼굴 검출 방식에 비하여 보다 정확하고 확률 높은 위조 얼굴 검출 결과를 제공할 수 있다. 또한, 위조 얼굴 분류기 생성(또는 학습, 업데이트)에 필요한 위조 얼굴 데이터를 실제 위조 얼굴로부터 획득하거나, 훈련된 변환 행렬을 이용하여 재생산할 수 있으므로, 위조 얼굴 분류기 생성에 필요한 데이터를 용이하게 제공함으로써 위조 얼굴 분류기의 성능을 보다 더 높일 수 있다. As described above, a fake face classifier that operates based on both a motion vector (eg, high-density optical flow) and a feature vector (eg, MsLBP) is more accurate and has a higher probability than conventional fake face detection methods. A fake face detection result can be provided. In addition, since the fake face data necessary for generating (or learning or updating) the fake face classifier can be obtained from a real fake face or reproduced using a trained transformation matrix, the data necessary for generating the fake face classifier can be easily provided to counteract fake face data. The performance of the face classifier can be further improved.

또한, 단순히 얼굴 영역에서만 추출된 모션 벡터만이 아니라, 얼굴 영역, 헤드 영역, 배경 영역에서 추출하는 모션 벡터를 결합하여 사용함으로써, 실제 사람의 행동으로부터 유발되는 모션 벡터의 특징과 사진을 들고 흔들거나 동영상을 사용하는 경우에 유발되는 모션 벡터의 특징을 학습시킨 분류기를 사용하여 보다 정확하게 위조 얼굴을 감지할 수 있다.In addition, by using a combination of motion vectors extracted from the face area, head area, and background area, as well as motion vectors extracted only from the face area, the characteristics of motion vectors derived from real human behavior and holding and shaking photos A fake face can be detected more accurately by using a classifier that learns the characteristics of a motion vector that is induced when a video is used.

나아가, 실제 얼굴에서 획득되는 특징 벡터와 사진 또는 동영상을 촬영한 경우에 획득되는 특징 벡터의 차이점에 주목하여, 서포트 벡터 머신을 이용하여 이러한 특징 벡터의 차이를 미리 학습하여 위조 얼굴 분류기를 생성할 수 있다. 위조 얼굴 분류기는 일반적인 위조 얼굴의 특징에 기반하여 학습하는 방식과, 개인별 위조 얼굴의 특징에 기반하여 학습하는 방식을 병행함으로써, 일반적인 위조 얼굴 특징이 드러나지 않더라도 개인별 위조 얼굴 특징에 기반하여 위조 얼굴 검출 확률을 높일 수 있다. 이 경우, 개인별 위조 얼굴 분류기의 생성을 위해 개인 정보를 등록할 때에 개인의 실제 얼굴과 함께 개인의 실제 위조 얼굴을 입력하거나, 개인의 실제 얼굴로부터 변환 행렬에 의해 생성된 위조 얼굴을 이용할 수도 있다. Furthermore, paying attention to the difference between the feature vector obtained from a real face and the feature vector obtained when a photo or video is taken, a fake face classifier can be generated by learning the difference between these feature vectors in advance using a support vector machine. have. The fake face classifier learns based on general fake face features and individual fake face features in parallel, so even if general fake face features are not revealed, fake face detection probability based on individual fake face features can increase In this case, when registering personal information to create a fake face classifier for each individual, the real fake face of the individual may be input together with the real face of the individual, or the fake face generated by the transformation matrix from the real face of the individual may be used.

이와 같이, 본 발명에 따르면 적외선 카메라나 열적외선 카메라 같은 고가의 별도의 장비가 없이도 일반적으로 사용되는 RGB 카메라의 영상만으로도 위조 얼굴을 정확하게 검출할 수 있다. 특히, 눈 깜박임이나 입술의 움직임을 기반으로 위조 얼굴을 검출하는 종래 방식은, 고화질의 사진이나 동영상의 특정 부위에 움직임을 부가함으로써 무력화시킬 수 있지만, 본 발명에 따르면 모션 벡터와 특징 벡터를 동시에 고려하고, 또한 특징 벡터 기반 위조 얼굴 검출은 일반적인 특징과 개인별 특징을 모두 고려함으로써, 보다 높은 확률로 위조 얼굴을 검출할 수 있다. As described above, according to the present invention, a fake face can be accurately detected only with an image of a generally used RGB camera without expensive separate equipment such as an infrared camera or a thermal infrared camera. In particular, the conventional method of detecting a fake face based on eye blinking or lip movement can be neutralized by adding motion to a specific part of a high-quality photo or video. However, according to the present invention, motion vectors and feature vectors are simultaneously considered. In addition, feature vector-based fake face detection can detect a fake face with a higher probability by considering both general features and individual features.

전술한 본 발명의 다양한 실시 예에서 설명한 사항들은 독립적으로 적용되거나 또는 2 이상의 실시 예가 동시에 적용될 수도 있다. Matters described in various embodiments of the present invention described above may be applied independently or two or more embodiments may be simultaneously applied.

전술한 본 발명의 다양한 실시 예에서 설명하는 예시적인 방법은 설명의 간명함을 위해서 동작의 시리즈로 표현되어 있지만, 이는 단계가 수행되는 순서를 제한하기 위한 것은 아니며, 필요한 경우에는 각각의 단계가 동시에 또는 상이한 순서로 수행될 수도 있다. 또한, 본 발명에서 제안하는 방법을 구현하기 위해서 예시하는 모든 단계가 반드시 필요한 것은 아니다.Exemplary methods described in various embodiments of the present invention described above are expressed as a series of operations for simplicity of explanation, but this is not intended to limit the order in which steps are performed, and if necessary, each step is performed simultaneously or They may be performed in a different order. In addition, not all steps illustrated in order to implement the method proposed in the present invention are necessarily required.

본 발명의 범위는 본 발명에서 제안하는 방안에 따른 동작을 처리 또는 구현하는 장치를 포함한다. The scope of the present invention includes a device that processes or implements an operation according to the method proposed in the present invention.

본 발명의 범위는 본 발명에서 제안하는 방안에 따른 동작이 장치 또는 컴퓨터 상에서 실행되도록 하는 소프트웨어(또는, 운영체제, 애플리케이션, 펌웨어(firmware), 프로그램 등), 및 이러한 소프트웨어 등이 저장되어 장치 또는 컴퓨터 상에서 실행 가능한 매체(medium)를 포함한다.The scope of the present invention is software (or operating system, application, firmware, program, etc.) that allows the operation according to the method proposed in the present invention to be executed on a device or computer, and such software is stored on a device or computer. Includes executable medium.

301 영상 획득 블록 302 얼굴 랜드마크 검출부
303 얼굴 특징점 검출부 304 모션 벡터 추출부
305 일반적인 위조 얼굴 분류기 306 모션 벡터 위조 얼굴 분류기
307 얼굴 인식 수행부 308 개인별 위조 얼굴 분류기
301 image acquisition block 302 facial landmark detection unit
303 Facial feature point detection unit 304 Motion vector extraction unit
305 generic fake face classifier 306 motion vector fake face classifier
307 Face recognition unit 308 Individual counterfeit face classifier

Claims (14)

위조 얼굴을 검출하는 방법에 있어서,
이미지 획득 장치로부터 획득된 영상에 대한 얼굴 랜드마크를 검출하는 단계;
상기 획득된 영상에 대한 모션 벡터를 추출하는 단계, 여기서 상기 모션 벡터는 상기 검출된 얼굴 랜드마크의 움직임의 크기 및 방향을 포함하는 정보임;
상기 획득된 영상에 대한 특징 벡터를 추출하는 단계, 여기서 상기 특징 벡터는 상기 검출된 얼굴 랜드마크에 대한 기하학적인 특징을 표현하는 기술자(descriptor)를 포함하는 정보임; 및
상기 모션 벡터에 기반한 위조 얼굴 분류를 수행하고, 상기 특징 벡터에 기반한 일반 위조 얼굴 분류를 수행하여, 위조 얼굴 여부를 판정하는 단계를 포함하되,
상기 모션 벡터에 기반한 위조 얼굴 분류, 또는 상기 특징 벡터에 기반한 일반 위조 얼굴 분류 중의 하나 이상에서 위조 얼굴이라고 분류되는 경우, 최종적으로 위조 얼굴이라고 판정하고,
상기 모션 벡터에 기반한 위조 얼굴 분류 및 상기 특징 벡터에 기반한 일반 위조 얼굴 분류 모두에서 실제 얼굴이라고 분류되는 경우 개인별 위조 얼굴 분류를 추가적으로 수행하는, 위조 얼굴 검출 방법.
A method for detecting a fake face,
Detecting facial landmarks for an image obtained from an image acquisition device;
extracting a motion vector for the obtained image, wherein the motion vector is information including magnitude and direction of motion of the detected face landmark;
extracting a feature vector for the obtained image, wherein the feature vector is information including a descriptor representing a geometric feature of the detected face landmark; and
Performing fake face classification based on the motion vector and general fake face classification based on the feature vector to determine whether or not a fake face is present,
When the fake face is classified as a fake face in at least one of the fake face classification based on the motion vector and the general fake face classification based on the feature vector, finally determining that the face is a fake face;
The fake face detection method of claim 1 , further performing fake face classification for each individual when the fake face is classified as a real face in both the fake face classification based on the motion vector and the general fake face classification based on the feature vector.
제 1 항에 있어서,
상기 개인별 위조 얼굴 분류는, 개인별 실제 얼굴 데이터, 개인별 실제 위조 얼굴 데이터, 또는 변환된 개인별 위조 얼굴 데이터 중의 하나 이상을 이용하여 학습된 분류기에 의해서 수행되는, 위조 얼굴 검출 방법.
According to claim 1,
Wherein the fake face classification for each individual is performed by a classifier learned using at least one of the real face data for each individual, the real fake face data for each individual, and the converted fake face data for each individual.
제 2 항에 있어서,
상기 개인별 실제 위조 얼굴 데이터는, 개인별 실제 얼굴을 촬영한 사진 또는 동영상을 촬영한 결과물인, 위조 얼굴 검출 방법.
According to claim 2,
The fake face detection method of claim 1 , wherein the real fake face data for each individual is a result of taking a photo or video of a real face of each individual.
제 2 항에 있어서,
상기 변환된 위조 얼굴 데이터는, 상기 실제 위조 얼굴 데이터에 변환 행렬이 적용됨으로써 획득되며,
상기 변환 행렬은 적응적으로 업데이트되는, 위조 얼굴 검출 방법.
According to claim 2,
The transformed fake face data is obtained by applying a transformation matrix to the real fake face data,
Wherein the transformation matrix is adaptively updated.
제 1 항에 있어서,
상기 모션 벡터에 기반한 위조 얼굴 분류는,
실제 얼굴에 대한 모션 벡터 특징 모델과, 위조 얼굴에 대한 모션 벡터 특징모델에 기반하여, 상기 획득된 영상의 위조 여부를 판정하는 단계를 포함하는, 위조 얼굴 검출 방법.
According to claim 1,
Fake face classification based on the motion vector,
and determining whether the obtained image is fake based on a motion vector feature model of a real face and a motion vector feature model of a fake face.
제 5 항에 있어서,
상기 위조 얼굴에 대한 모션 벡터 특징 모델은,
사진을 이용한 위조 얼굴에 대한 모션 벡터 특징 모델과,
동영상을 이용한 위조 얼굴에 대한 모션 벡터 특징 모델을 포함하는, 위조 얼굴 검출 방법.
According to claim 5,
The motion vector feature model for the fake face is
A motion vector feature model for a fake face using a photo;
A fake face detection method comprising a motion vector feature model for a fake face using video.
제 1 항에 있어서,
상기 모션 벡터에 기반한 위조 얼굴 분류는,
제 1 영역, 제 2 영역 및 제 3 영역의 각각에 대해서, 상기 획득된 영상의 연속하는 두 프레임 간에 관측되는 움직임 패턴을 계산하는 단계를 더 포함하고,
상기 제 3 영역은 상기 제 2 영역을 포함하고, 상기 제 2 영역은 상기 제 1 영역을 포함하는, 위조 얼굴 검출 방법.
According to claim 1,
Fake face classification based on the motion vector,
Calculating a movement pattern observed between two consecutive frames of the obtained image for each of the first region, the second region, and the third region;
The fake face detection method of claim 1 , wherein the third area includes the second area, and the second area includes the first area.
제 7 항에 있어서,
상기 모션 벡터는,
상기 제 1, 제 2 및 제 3 영역의 각각에서 평균 벡터를 계산하고,
상기 제 1, 제 2 및 제 3 영역의 평균 벡터들을 결합함으로써 결정되는, 위조 얼굴 검출 방법.
According to claim 7,
The motion vector is
Calculate an average vector in each of the first, second and third regions;
The fake face detection method is determined by combining the mean vectors of the first, second and third regions.
제 7 항에 있어서,
상기 제 1 영역은 얼굴 영역이고, 상기 제 2 영역은 헤드 영역이고, 상기 제 3 영역은 배경 영역인, 위조 얼굴 검출 방법.
According to claim 7,
wherein the first area is a face area, the second area is a head area, and the third area is a background area.
제 1 항에 있어서,
상기 특징 벡터에 기반한 일반 위조 얼굴 분류는,
하나 이상의 실제 얼굴 데이터, 하나 이상의 실제 위조 얼굴 데이터, 또는 하나 이상의 변환된 위조 얼굴 데이터 중의 하나 이상을 이용하여 학습된 분류기에 의해서 수행되는, 위조 얼굴 검출 방법.
According to claim 1,
General fake face classification based on the feature vector,
A fake face detection method, performed by a classifier trained using one or more of one or more real face data, one or more real fake face data, or one or more converted fake face data.
제 10 항에 있어서,
상기 하나 이상의 실제 위조 얼굴 데이터의 각각은, 상기 하나 이상의 실제 얼굴을 촬영한 사진 또는 동영상을 촬영한 결과물의 각각에 대응하는, 위조 얼굴 검출 방법.
According to claim 10,
Each of the one or more real fake face data corresponds to each of a result of photographing a photo or video of the one or more real faces.
제 11 항에 있어서,
상기 하나 이상의 변환된 위조 얼굴 데이터의 각각은, 상기 하나 이상의 실제 위조 얼굴 데이터의 각각에 변환 행렬이 적용됨으로써 획득되며,
상기 변환 행렬은 적응적으로 업데이트되는, 위조 얼굴 검출 방법.
According to claim 11,
Each of the one or more transformed fake face data is obtained by applying a transformation matrix to each of the one or more real fake face data,
Wherein the transformation matrix is adaptively updated.
위조 얼굴을 검출하는 장치에 있어서,
이미지 획득 장치로부터 획득된 영상에 대한 얼굴 랜드마크를 검출하는 얼굴 랜드마크 검출부;
상기 획득된 영상에 대한 모션 벡터를 추출하는 모션 벡터 추출부, 여기서 상기 모션 벡터는 상기 검출된 얼굴 랜드마크의 움직임의 크기 및 방향을 포함하는 정보임;
상기 획득된 영상에 대한 특징 벡터를 추출하는 특징 벡터 추출부, 여기서 상기 특징 벡터는 상기 검출된 얼굴 랜드마크에 대한 기하학적인 특징을 표현하는 기술자(descriptor)를 포함하는 정보임;
상기 모션 벡터에 기반한 위조 얼굴 분류기; 및
상기 특징 벡터에 기반한 일반 위조 얼굴 분류기를 포함하고,
상기 모션 벡터에 기반한 위조 얼굴 분류기의 분류 결과 및 상기 특징 벡터에 기반한 위조 얼굴 분류기의 분류 결과에 기초하여 위조 얼굴 여부가 판정되되,
상기 모션 벡터에 기반한 위조 얼굴 분류, 또는 상기 특징 벡터에 기반한 일반 위조 얼굴 분류 중의 하나 이상에서 위조 얼굴이라고 분류되는 경우, 최종적으로 위조 얼굴이라고 판정하고,
상기 모션 벡터에 기반한 위조 얼굴 분류 및 상기 특징 벡터에 기반한 일반 위조 얼굴 분류 모두에서 실제 얼굴이라고 분류되는 경우 개인별 위조 얼굴 분류를 추가적으로 수행하는, 위조 얼굴 검출 장치.
In the device for detecting a fake face,
a facial landmark detection unit for detecting facial landmarks for an image obtained from an image acquisition device;
a motion vector extractor extracting a motion vector of the acquired image, wherein the motion vector is information including magnitude and direction of motion of the detected face landmark;
a feature vector extraction unit extracting a feature vector of the obtained image, wherein the feature vector is information including a descriptor representing a geometric feature of the detected face landmark;
a fake face classifier based on the motion vector; and
A generic fake face classifier based on the feature vector;
Based on the classification result of the fake face classifier based on the motion vector and the classification result of the fake face classifier based on the feature vector, it is determined whether or not the face is fake.
When the fake face is classified as a fake face in at least one of the fake face classification based on the motion vector and the general fake face classification based on the feature vector, finally determining that the face is a fake face;
The fake face detection device further performs fake face classification for each individual when classified as a real face in both fake face classification based on the motion vector and general fake face classification based on the feature vector.
위조 얼굴 검출 장치에 의해 실행가능한 명령들을 가지는 소프트웨어가 저장된 컴퓨터-판독가능한 매체에 있어서,
상기 실행가능한 명령들은, 상기 위조 얼굴 검출 장치로 하여금, 획득된 영상에 대한 얼굴 랜드마크를 검출하고, 상기 검출된 얼굴 랜드마크의 움직임의 크기 및 방향을 포함하는 모션 벡터를 추출하고, 상기 검출된 얼굴 랜드마크에 대한 기하학적인 특징을 표현하는 기술자(descriptor)를 포함하는 특징 벡터를 추출한 후,
상기 모션 벡터에 기반한 위조 얼굴 분류를 수행하고, 상기 특징 벡터에 기반한 일반 위조 얼굴 분류를 수행하여, 위조 얼굴 여부를 판정하되,
상기 모션 벡터에 기반한 위조 얼굴 분류, 또는 상기 특징 벡터에 기반한 일반 위조 얼굴 분류 중의 하나 이상에서 위조 얼굴이라고 분류되는 경우, 최종적으로 위조 얼굴이라고 판정하고,
상기 모션 벡터에 기반한 위조 얼굴 분류 및 상기 특징 벡터에 기반한 일반 위조 얼굴 분류 모두에서 실제 얼굴이라고 분류되는 경우 개인별 위조 얼굴 분류를 추가적으로 수행하는, 컴퓨터-판독가능한 매체.
A computer-readable medium storing software having instructions executable by a fake face detection device,
The executable instructions may cause the fake face detection device to detect a face landmark of an acquired image, extract a motion vector including a magnitude and direction of a movement of the detected face landmark, and extract the detected face landmark. After extracting a feature vector including a descriptor representing a geometric feature of a face landmark,
Performing fake face classification based on the motion vector and general fake face classification based on the feature vector to determine whether or not a fake face is present,
When the fake face is classified as a fake face in at least one of the fake face classification based on the motion vector and the general fake face classification based on the feature vector, finally determining that the face is a fake face;
and additionally performing fake face classification for each individual when classified as a real face in both fake face classification based on the motion vector and normal fake face classification based on the feature vector.
KR1020220142359A 2015-07-08 2022-10-31 Method of motion vector and feature vector based fake face detection and apparatus for the same KR102596897B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220142359A KR102596897B1 (en) 2015-07-08 2022-10-31 Method of motion vector and feature vector based fake face detection and apparatus for the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020150096863A KR102462818B1 (en) 2015-07-08 2015-07-08 Method of motion vector and feature vector based fake face detection and apparatus for the same
KR1020220142359A KR102596897B1 (en) 2015-07-08 2022-10-31 Method of motion vector and feature vector based fake face detection and apparatus for the same

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020150096863A Division KR102462818B1 (en) 2015-07-08 2015-07-08 Method of motion vector and feature vector based fake face detection and apparatus for the same

Publications (2)

Publication Number Publication Date
KR20220150868A true KR20220150868A (en) 2022-11-11
KR102596897B1 KR102596897B1 (en) 2023-10-31

Family

ID=57992241

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020150096863A KR102462818B1 (en) 2015-07-08 2015-07-08 Method of motion vector and feature vector based fake face detection and apparatus for the same
KR1020220142359A KR102596897B1 (en) 2015-07-08 2022-10-31 Method of motion vector and feature vector based fake face detection and apparatus for the same

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020150096863A KR102462818B1 (en) 2015-07-08 2015-07-08 Method of motion vector and feature vector based fake face detection and apparatus for the same

Country Status (1)

Country Link
KR (2) KR102462818B1 (en)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101781361B1 (en) * 2017-01-25 2017-09-26 대한민국 A Method Identifying A Personnel By Comparing Face Area
KR101877816B1 (en) * 2017-02-20 2018-07-12 주식회사 에스원 Composite Photograph and Video Fake Face Judgement Method by Using Single Visible Camera and System thereof
KR102387571B1 (en) 2017-03-27 2022-04-18 삼성전자주식회사 Liveness test method and apparatus for
KR102085427B1 (en) * 2018-05-23 2020-03-05 한국과학기술원 Method and apparatus for removal of personal identification using generative model
KR102178952B1 (en) * 2018-11-28 2020-11-13 이노뎁 주식회사 method of providing object classification for compressed video by use of syntax-based MRPN-CNN
CN111783505A (en) * 2019-05-10 2020-10-16 北京京东尚科信息技术有限公司 Method and device for identifying forged faces and computer-readable storage medium
KR102463353B1 (en) 2020-05-21 2022-11-07 경일대학교산학협력단 Apparatus and method for detecting fake faces
CN111783608B (en) * 2020-06-24 2024-03-19 南京烽火星空通信发展有限公司 Face-changing video detection method
CN112052728B (en) * 2020-07-30 2024-04-02 广州市标准化研究院 Portable portrait identification anti-deception device and control method thereof
CN112069891B (en) * 2020-08-03 2023-08-18 武汉大学 Deep fake face identification method based on illumination characteristics
KR102386918B1 (en) * 2020-10-26 2022-04-14 주식회사 에이직랜드 Device and method for authenticating mobile user based on Artificial Intelligence
KR102428916B1 (en) * 2020-11-20 2022-08-03 오로라월드 주식회사 Method And Apparatus for Classifying Emotion Based on Multi-Modal
KR102612941B1 (en) * 2020-12-24 2023-12-12 주식회사 유인원테크 System of verifying digital synthesis/counterfeit face
CN112784790B (en) * 2021-01-29 2022-05-10 厦门大学 Generalization false face detection method based on meta-learning
CN112949464B (en) * 2021-02-26 2021-12-14 中国科学院自动化研究所 Face changing counterfeiting detection method, system and equipment based on three-dimensional shape of human face
CN115063870B (en) * 2022-07-08 2024-04-30 广东警官学院(广东省公安司法管理干部学院) Fake video portrait detection method based on facial action unit
CN115273186A (en) * 2022-07-18 2022-11-01 中国人民警察大学 Depth-forged face video detection method and system based on image feature fusion
CN116071089B (en) * 2023-02-10 2023-12-05 成都新希望金融信息有限公司 Fraud identification method and device, electronic equipment and storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040048753A (en) * 2002-12-04 2004-06-10 삼성전자주식회사 Apparatus and method for distinguishing photograph in face recognition system
KR20110090731A (en) * 2010-02-04 2011-08-10 한국전자통신연구원 Fake video detecting apparatus and method
KR20130035849A (en) * 2011-09-30 2013-04-09 아이포콤 주식회사 Single image-based fake face detection

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040048753A (en) * 2002-12-04 2004-06-10 삼성전자주식회사 Apparatus and method for distinguishing photograph in face recognition system
KR20110090731A (en) * 2010-02-04 2011-08-10 한국전자통신연구원 Fake video detecting apparatus and method
KR20130035849A (en) * 2011-09-30 2013-04-09 아이포콤 주식회사 Single image-based fake face detection

Also Published As

Publication number Publication date
KR102596897B1 (en) 2023-10-31
KR102462818B1 (en) 2022-11-04
KR20170006355A (en) 2017-01-18

Similar Documents

Publication Publication Date Title
KR102596897B1 (en) Method of motion vector and feature vector based fake face detection and apparatus for the same
Liu et al. Learning deep models for face anti-spoofing: Binary or auxiliary supervision
JP5629803B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP4743823B2 (en) Image processing apparatus, imaging apparatus, and image processing method
KR102147052B1 (en) Emotional recognition system and method based on face images
US8027521B1 (en) Method and system for robust human gender recognition using facial feature localization
JP5010905B2 (en) Face recognition device
CN105740780B (en) Method and device for detecting living human face
JP4951995B2 (en) Face matching device
JP2017033469A (en) Image identification method, image identification device and program
US20230360434A1 (en) Facial authentication device, facial authentication method, and program recording medium
JP2006293644A (en) Information processing device and information processing method
MX2012010602A (en) Face recognizing apparatus, and face recognizing method.
JP6351243B2 (en) Image processing apparatus and image processing method
WO2020195732A1 (en) Image processing device, image processing method, and recording medium in which program is stored
Kose et al. Mask spoofing in face recognition and countermeasures
JP5787686B2 (en) Face recognition device and face recognition method
JP4507679B2 (en) Image recognition apparatus, image extraction apparatus, image extraction method, and program
Shrivastava et al. Conceptual model for proficient automated attendance system based on face recognition and gender classification using Haar-Cascade, LBPH algorithm along with LDA model
JP2015197708A (en) Object identification device, object identification method, and program
KR20150089370A (en) Age Cognition Method that is powerful to change of Face Pose and System thereof
Wasnik et al. Presentation attack detection for smartphone based fingerphoto recognition using second order local structures
CN113436735A (en) Body weight index prediction method, device and storage medium based on face structure measurement
Sun et al. Dual camera based feature for face spoofing detection
Sharma et al. Study and implementation of face detection algorithm using Matlab

Legal Events

Date Code Title Description
A107 Divisional application of patent
E701 Decision to grant or registration of patent right
GRNT Written decision to grant