KR102463353B1 - Apparatus and method for detecting fake faces - Google Patents

Apparatus and method for detecting fake faces Download PDF

Info

Publication number
KR102463353B1
KR102463353B1 KR1020200060832A KR20200060832A KR102463353B1 KR 102463353 B1 KR102463353 B1 KR 102463353B1 KR 1020200060832 A KR1020200060832 A KR 1020200060832A KR 20200060832 A KR20200060832 A KR 20200060832A KR 102463353 B1 KR102463353 B1 KR 102463353B1
Authority
KR
South Korea
Prior art keywords
face
feature point
area
image
forged
Prior art date
Application number
KR1020200060832A
Other languages
Korean (ko)
Other versions
KR20210144064A (en
Inventor
정기현
Original Assignee
경일대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경일대학교산학협력단 filed Critical 경일대학교산학협력단
Priority to KR1020200060832A priority Critical patent/KR102463353B1/en
Publication of KR20210144064A publication Critical patent/KR20210144064A/en
Application granted granted Critical
Publication of KR102463353B1 publication Critical patent/KR102463353B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/262Analysis of motion using transform domain methods, e.g. Fourier domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/469Contour-based spatial representations, e.g. vector-coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Abstract

본 발명은 이미지나 동영상에 포함된 조작된 얼굴의 위조, 변조 여부를 검출, 판별하는 장치 및 방법을 제공한다. 상기 검출 장치는 이미지를 획득하는 획득부; 상기 이미지에서 얼굴을 나타내는 제1 영역과 얼굴이 아닌 제2 영역을 분리하는 분리부; 상기 제1 영역의 제1 특징점을 추출하고, 상기 제2 영역의 제2 특징점을 추출하는 추출부; 상기 제1 특징점 및 상기 제2 특징점의 비교를 통해 상기 얼굴의 위조 여부를 판별하는 판별부;를 포함할 수 있다.The present invention provides an apparatus and method for detecting and determining whether a manipulated face included in an image or video is forged or tampered with. The detection device may include: an acquisition unit configured to acquire an image; a separation unit separating a first area representing a face and a second area not representing a face in the image; an extractor configured to extract a first feature point of the first region and extract a second feature point of the second region; and a determining unit configured to determine whether the face is forged by comparing the first feature point and the second feature point.

Description

페이크 얼굴 검출 장치 및 검출 방법{APPARATUS AND METHOD FOR DETECTING FAKE FACES}Fake face detection device and method

본 발명은 이미지나 동영상에 포함된 얼굴의 위조/변조/fake 여부를 검출, 판별하는 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for detecting and determining whether a face included in an image or video is forged/falsified/fake.

디지털 이미지나 동영상과 같은 데이터에서 조작/위조된 얼굴을 사용한 개인 프라이버시 침해 행위가 지속적으로 증가하고 있다.Invasion of personal privacy using manipulated/forged faces in data such as digital images or videos is continuously increasing.

개인 정보 보호법 등의 정책을 통해 개인 프라이버시 침해 행위를 차단하는 시스템이 구축될 필요가 있다.It is necessary to establish a system to block personal privacy violations through policies such as the Personal Information Protection Act.

해당 시스템의 구축을 위해서는 디지털 이미지 또는 동영상 등의 멀티미디어 데이터에서 조작되거나 위조된 얼굴이 사용되었는지 판단할 수 있는 수단이 마련되어야 한다.In order to build the system, a means for determining whether a manipulated or forged face is used in multimedia data such as digital images or moving pictures should be provided.

한국공개특허공보 제10-2017-0006355호에는 모션벡터와 특징 벡터에 기반해 위조 얼굴을 분류하고 판정하는 기술이 나타나 있다.Korean Patent Application Laid-Open No. 10-2017-0006355 discloses a technique for classifying and judging fake faces based on motion vectors and feature vectors.

한국공개특허공보 제10-2017-0006355호Korean Patent Publication No. 10-2017-0006355

본 발명은 실시간을 포함하는 각종 이미지, 동영상 등 멀티미디어 데이터에서 조작되거나 위조된 얼굴을 탐지하는 검출 장치 및 검출 방법을 제공하기 위한 것이다.An object of the present invention is to provide a detection device and a detection method for detecting a manipulated or forged face in multimedia data such as various images and moving pictures including real-time.

본 발명의 검출 장치는 이미지를 획득하는 획득부; 상기 이미지에서 얼굴을 나타내는 제1 영역과 얼굴이 아닌 제2 영역을 분리하는 분리부; 상기 제1 영역의 제1 특징점을 추출하고, 상기 제2 영역의 제2 특징점을 추출하는 추출부; 상기 제1 특징점 및 상기 제2 특징점의 비교를 통해 상기 얼굴의 위조 여부를 판별하는 판별부;를 포함할 수 있다.The detection apparatus of the present invention includes: an acquisition unit for acquiring an image; a separation unit separating a first area representing a face and a second area not representing a face in the image; an extractor configured to extract a first feature point of the first region and extract a second feature point of the second region; and a determining unit configured to determine whether the face is forged by comparing the first feature point and the second feature point.

본 발명의 검출 방법은 이미지를 획득하는 단계; 상기 이미지에서 얼굴을 나타내는 제1 영역과 얼굴이 아닌 제2 영역을 분리하는 단계; 상기 제1 영역의 제1 특징점을 추출하고, 상기 제2 영역의 제2 특징점을 추출하는 단계; 상기 제1 특징점 및 상기 제2 특징점의 비교를 통해 상기 얼굴의 위조 여부를 판별하는 단계;를 포함할 수 있다.The detection method of the present invention comprises the steps of acquiring an image; separating a first area representing a face and a second area not representing the face in the image; extracting a first feature point of the first region and extracting a second feature point of the second region; and determining whether the face is forged by comparing the first feature point and the second feature point.

조작되거나 위조된 얼굴을 이용한 가짜 데이터로 인한 피해가 속출하고 있다. 포털 회사와 정부가 대책을 마련하고 있듯이, 가짜 콘텐츠에 대한 대비책이 필요하다.Damage due to fake data using forged or forged faces is increasing. Just as portal companies and the government are preparing countermeasures, countermeasures against fake content are necessary.

본 발명의 검출 장치 및 검출 방법은 이미지에서 얼굴 영역과 비얼굴 영역을 분리하고, 각 영역에서 추출된 특징점의 비교를 통해 얼굴을 위조 여부를 판별할 수 있다.The detection apparatus and detection method of the present invention may separate a face region and a non-face region in an image, and determine whether a face is forged by comparing feature points extracted from each region.

도 1은 본 발명의 검출 장치를 나타낸 개략도이다.
도 2는 본 발명의 검출 장치의 동작을 나타낸 개략도이다.
도 3은 본 발명의 검출 방법을 나타낸 흐름도이다.
도 4는 본 발명의 실시예에 따른, 컴퓨팅 장치를 나타내는 도면이다.
1 is a schematic diagram showing a detection device of the present invention.
2 is a schematic diagram showing the operation of the detection device of the present invention.
3 is a flowchart illustrating a detection method of the present invention.
4 is a diagram illustrating a computing device according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art to which the present invention pertains can easily implement them. However, the present invention may be embodied in several different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

본 명세서에서, 동일한 구성요소에 대해서 중복된 설명은 생략한다.In this specification, duplicate descriptions of the same components will be omitted.

또한 본 명세서에서, 어떤 구성요소가 다른 구성요소에 '연결되어' 있다거나 '접속되어' 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에 본 명세서에서, 어떤 구성요소가 다른 구성요소에 '직접 연결되어' 있다거나 '직접 접속되어' 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.Also, in this specification, when a component is referred to as 'connected' or 'connected' to another component, it may be directly connected or connected to the other component, but other components in the middle It should be understood that there may be On the other hand, in the present specification, when it is mentioned that a certain element is 'directly connected' or 'directly connected' to another element, it should be understood that the other element does not exist in the middle.

또한, 본 명세서에서 사용되는 용어는 단지 특정한 실시예를 설명하기 위해 사용되는 것으로써, 본 발명을 한정하려는 의도로 사용되는 것이 아니다.In addition, the terms used herein are used only to describe specific embodiments, and are not intended to limit the present invention.

또한 본 명세서에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. Also in this specification, the singular expression may include the plural expression unless the context clearly dictates otherwise.

또한 본 명세서에서, '포함하다' 또는 '가지다' 등의 용어는 명세서에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품, 또는 이들을 조합한 것이 존재함을 지정하려는 것일 뿐, 하나 또는 그 이상의 다른 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 할 것이다.Also, in this specification, terms such as 'include' or 'have' are only intended to designate that the features, numbers, steps, operations, components, parts, or combinations thereof described in the specification exist, and one or more It should be understood that the existence or addition of other features, numbers, steps, acts, components, parts, or combinations thereof, is not precluded in advance.

또한 본 명세서에서, '및/또는' 이라는 용어는 복수의 기재된 항목들의 조합 또는 복수의 기재된 항목들 중의 어느 항목을 포함한다. 본 명세서에서, 'A 또는 B'는, 'A', 'B', 또는 'A와 B 모두'를 포함할 수 있다.Also in this specification, the term 'and/or' includes a combination of a plurality of listed items or any of a plurality of listed items. In this specification, 'A or B' may include 'A', 'B', or 'both A and B'.

또한 본 명세서에서, 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략될 것이다.Also, in this specification, detailed descriptions of well-known functions and configurations that may obscure the gist of the present invention will be omitted.

도 1은 본 발명의 검출 장치를 나타낸 개략도이다. 도 2는 본 발명의 검출 장치의 동작을 나타낸 개략도이다.1 is a schematic diagram showing a detection device of the present invention. 2 is a schematic diagram showing the operation of the detection device of the present invention.

도 1에 도시된 검출 장치는 획득부(110), 분리부(130), 추출부(150), 판별부(170)를 포함할 수 있다.The detection apparatus shown in FIG. 1 may include an acquiring unit 110 , a separating unit 130 , an extracting unit 150 , and a determining unit 170 .

획득부(110)는 이미지 i를 획득할 수 있다. 이미지 i는 디지털 데이터로서, 디스플레이 등의 표시 수단을 통해 시각적인 정지 화상으로 표시되거나, 동영상으로 표시될 수 있다.The acquisition unit 110 may acquire image i. The image i is digital data and may be displayed as a visual still image through a display means such as a display or displayed as a moving picture.

분리부(130)는 이미지 i에서 얼굴을 나타내는 제1 영역 ①과 얼굴이 아닌 제2 영역 ②를 분리할 수 있다. 본 발명의 검출 장치는 얼굴이 포함된 이미지에서 해당 얼굴의 진위 여부를 판독, 판별, 검출할 수 있다. 이때, 분리부(130)는 각종 이미지 처리 기술 또는 머신 러닝 기법을 이용하여 이미지에 포함된 얼굴 영역을 분리할 수 있다. 분리부(130)에 의해 분리된 얼굴 영역이 제1 영역에 해당될 수 있다. 제1 이미지에서 제1 영역을 분리하고 남은 나머지 영역이 제2 영역에 해당될 수 있다.The separator 130 may separate a first region ① representing a face in the image i and a second region ② that is not a face. The detection apparatus of the present invention may read, determine, and detect whether a face is authentic or not in an image including a face. In this case, the separator 130 may separate the face region included in the image by using various image processing techniques or machine learning techniques. The face region separated by the separator 130 may correspond to the first region. The remaining area after separating the first area from the first image may correspond to the second area.

획득부(110)는 동영상이 입력되면, 동영상에서 프레임을 추출할 수 있다. 일 예로, 특정 동영상의 초당프레임이 30프레임이면, 획득부(110)는 해당 동영상으로부터 1초당 30장의 정지 화상을 추출할 수 있다. 분리부(130)는 추출된 프레임(정지 화상)을 대상으로 제1 영역 ①과 제2 영역 ②를 분리시킬 수 있다.When a video is input, the acquisition unit 110 may extract a frame from the video. For example, if the frames per second of a specific video are 30 frames, the acquisition unit 110 may extract 30 still images per second from the video. The separating unit 130 may separate the first region ① and the second region ② from the extracted frame (still image).

추출부(150)는 제1 영역 ①에서 제1 영역의 특징점을 추출할 수 있다. 이때, 추출부(150)에 의해 추출된 제1 영역의 특징점이 제1 특징점 d1에 해당될 수 있다.The extraction unit 150 may extract a feature point of the first area from the first area ①. In this case, the feature point of the first region extracted by the extraction unit 150 may correspond to the first feature point d1.

추출부(150)는 제2 영역 ②에서 제2 영역의 특징점을 추출할 수 있다. 이때, 추출부(150)에 의해 추출된 제2 영역의 특징점이 제2 특징점 d2에 해당될 수 있다.The extraction unit 150 may extract a feature point of the second region from the second region ②. In this case, the feature point of the second region extracted by the extraction unit 150 may correspond to the second feature point d2.

추출부(150)는 머신 러닝 또는 딥러닝을 이용해 제1 특징점 d1 및 제2 특징점 d2를 추출할 수 있다.The extractor 150 may extract the first feature point d1 and the second feature point d2 using machine learning or deep learning.

판별부(170)는 제1 특징점 d1 및 제2 특징점 d2의 비교를 통해 얼굴의 위조 여부를 판별할 수 있다.The determining unit 170 may determine whether the face is forged by comparing the first feature point d1 and the second feature point d2.

판별부(170)에는 제1 영역 ①의 위조 여부를 분석하는 제1 분석부(171), 제2 영역 ②의 위조 여부를 분석하는 제2 분석부(172)가 마련될 수 있다.The determination unit 170 may be provided with a first analysis unit 171 that analyzes whether the first region ① is forged or not, and a second analysis unit 172 that analyzes whether the second region ② is forged.

판별부(170)는 제1 특징점 d1과 제2 특징점 d2의 비교 결과, 제1 분석부(171)의 분석 결과, 제2 분석부(172)의 분석 결과 중 어느 하나의 무결성이 흠결된 것으로 판단되면 이미지를 위조로 판별할 수 있다.The determination unit 170 determines that the integrity of any one of the comparison result of the first characteristic point d1 and the second characteristic point d2, the analysis result of the first analysis unit 171, and the analysis result of the second analysis unit 172 is defective. The image can then be identified as a forgery.

제1 분석부(171)는 제1 영역 ①에 포함된 컬러 또는 흑백의 얼굴 영상을 획득할 수 있다.The first analyzer 171 may acquire a color or black-and-white face image included in the first area ①.

제1 분석부(171)는 얼굴 영상의 각 화소를 밝기값에 대해 퓨리에 변환하여 주파수 도메인으로 변환할 수 있다.The first analyzer 171 may Fourier transform each pixel of the face image with respect to a brightness value to convert it into a frequency domain.

제1 분석부(171)는 퓨리에 변환된 결과값의 절대값을 로그-스케일로 나타낸 후 저주파 성분이 중심에 오도록 위치 변환할 수 있다.The first analyzer 171 may represent the absolute value of the Fourier-transformed result value on a log-scale, and then convert the position so that the low-frequency component is centered.

제1 분석부(171)는 위치 변환된 결과값을 다수의 동심원으로 구획하고, 각 동심원의 평균 에너지값을 산출하여 제1 1차원 특징 벡터를 생성할 수 있다.The first analyzer 171 may divide the position-transformed result value into a plurality of concentric circles, calculate an average energy value of each concentric circle, and generate a first one-dimensional feature vector.

제1 분석부(171)는 사용자 얼굴 영상으로부터 로컬바이너리패턴 코드를 계산할 수 있다.The first analyzer 171 may calculate a local binary pattern code from the user's face image.

제1 분석부(171)는 계산된 로컬바이너리패턴 코드를 히스토그램화할 수 있다.The first analyzer 171 may histogram the calculated local binary pattern code.

제1 분석부(171)는 히스토그램의 합이 1이 되도록 정규화하여 제2 1차원 특징 벡터를 생성할 수 있다.The first analyzer 171 may generate the second one-dimensional feature vector by normalizing the histogram to be equal to one.

제1 분석부(171)는 서포트벡터머신을 이용하여 제1 1차원 특징 벡터를 위조 얼굴 영상으로부터 생성된 제1 기준 위조 얼굴 특징 벡터와 비교함으로써, 얼굴 영상이 위조된 얼굴인지의 여부를 1차 판정할 수 있다.The first analysis unit 171 compares the first one-dimensional feature vector with the first reference forged facial feature vector generated from the forged face image using the support vector machine, thereby first determining whether the face image is a forged face. can be judged.

제1 분석부(171)는 서포트벡터머신을 이용하여 제2 1차원 특징 벡터를 위조 얼굴 영상으로부터 생성된 제2 기준 위조 얼굴 특징 벡터와 비교함으로써, 얼굴 영상이 위조된 얼굴인지의 여부를 2차 판정할 수 있다.The first analysis unit 171 compares the second one-dimensional feature vector with a second reference forged facial feature vector generated from the forged face image using the support vector machine to determine whether the face image is a forged face or not. can be judged.

제1 분석부(171)는 1차 판정의 결과 및 2차 판정의 결과를 조합하여 얼굴 영상이 위조된 얼굴인지의 여부를 최종으로 판정할 수 있다.The first analysis unit 171 may finally determine whether the face image is a forged face by combining the result of the first determination and the result of the second determination.

제1 분석부(171)는 하나 이상의 위조 얼굴 영상을 준비하는 단계, 위조 얼굴 영상들로부터 각각의 제1 1차원 특징 벡터를 생성하는 단계, 제1 1차원 특징 벡터들을 서포트벡터머신에서 제1 기준 위조얼굴 특징 벡터로서 학습하는 단계를 통해 제1 기준 위조 얼굴 특징 벡터를 생성할 수 있다.The first analysis unit 171 prepares one or more fake face images, generates each first one-dimensional feature vector from the fake face images, and uses the first one-dimensional feature vectors as a first reference in the support vector machine. The first reference fake facial feature vector may be generated through the step of learning as the fake facial feature vector.

본 발명의 검출 장치는 일반 컬러 카메라 혹은 흑백 카메라에서 획득된 1장 이상의 얼굴 영상을 사용하여 위조 얼굴 여부를 판단할 수 있다.The detection apparatus of the present invention may determine whether a forged face is made by using one or more face images acquired from a general color camera or a black and white camera.

내용은 크게 세 가지 방법으로 구성되어 있다.The content is mainly composed of three methods.

첫째, 위조 얼굴은 실제 얼굴에 비해서 자세함과 입체감이 저하되어 나타난다는 특성을 사용하여, 획득된 얼굴 영상의 전체 주파수 대역 성분의 차이로써 위조 얼굴을 검출하는 방법이다.First, a fake face is a method of detecting a fake face as a difference in the entire frequency band component of the acquired face image using the characteristic that the detail and three-dimensional effect are lowered compared to the real face.

둘째, 위조 얼굴은 실제 얼굴과 재질 측면에서 다른 특성을 보이기 때문에, 영상에 나타나는 질감(texture)에서 차이를 보인다는 특성을 사용하여 영상 질감 분석에 용이한 로컬바이너리패턴(local binary pattern)의 차이를 사용하여 위조 얼굴을 검출하는 방법이다.Second, since the fake face shows different characteristics from the real face in terms of material, the difference in the local binary pattern, which is easy to analyze the image texture How to detect fake faces using

셋째, 앞서 언급한 주파수 성분과 로컬바이너리패턴을 사용한 특징 추출 방법을 특징 수준, 스코어 수준, 혹은 결정 수준 방식으로 조합하여 위조 얼굴을 검출하는 방법이다.Third, a method for detecting fake faces by combining the aforementioned feature extraction method using frequency components and local binary patterns in a feature level, score level, or decision level method.

더욱 상세하게 설명한다.It will be described in more detail.

첫 번째는, 주파수 전대역의 파워스펙트럼을 사용한 방법이다. 이를 위하여 먼저 입력된 얼굴 영상을 퓨리에 변환하여 주파수 도메인으로 변경한다.The first is a method using the power spectrum of the entire frequency band. To this end, first, the input face image is Fourier-transformed and changed to the frequency domain.

퓨리에 변환의 일례로서 다음의 수학식1이 이용될 수 있다.As an example of the Fourier transform, the following Equation 1 may be used.

Figure 112020051263384-pat00001
Figure 112020051263384-pat00001

여기서 f(x,y)는 크기가 H×W인 영상의 (x,y) 좌표에서의 밝기값이며, u,v는 주파수 변수이다.Here, f(x,y) is the brightness value at (x,y) coordinates of an image of size H×W, and u,v are frequency variables.

F는 f가 퓨리에 변환된 결과로서, 주파수가 0인 성분이 중심부에 오도록 이동된 것이다.F is the result of the Fourier transform of f, and the component with frequency 0 is shifted to come to the center.

그 후에 저주파 값을 퓨리에 변환된 결과의 중심에 위치시키도록 변환한 후, 퓨리에 변환된 결과의 중심을 기준으로, 정해진 개수의 동심원을 그리고, 각 동심원들 사이의 평균 에너지값을 계산한다. 마지막으로 이렇게 계산된 평균 에너지값을 1차원 벡터로 표현하여 최소-최대 정규화(min-max normalization) 과정을 거치게 된다. 이와 같은 과정들을 거치게 되면 특징벡터가 추출되게 된다.After that, the low-frequency value is transformed to be located at the center of the Fourier-transformed result, and a predetermined number of concentric circles are drawn based on the center of the Fourier-transformed result, and the average energy value between each concentric circle is calculated. Finally, the calculated average energy value is expressed as a one-dimensional vector and subjected to a min-max normalization process. Through these processes, a feature vector is extracted.

이러한 파워스펙트럼 기반 특징벡터는 얼굴 영상 전체에서 추출될 수도 있지만, 임의로 얼굴 영상을 분할하고, 분할된 각 얼굴 영상 조각들에서 각각 특징 벡터를 추출하여 하나로 합칠 수도 있다. 이러한 특징벡터들을 실제 얼굴 영상들과 위조 얼굴 영상들에서 추출하여 서포트벡터머신(support vector machine) 등의 분류기로 학습함으로써 위조 얼굴 검출기를 생성할 수 있게 된다.Such a power spectrum-based feature vector may be extracted from the entire face image, but may also be arbitrarily segmented into a face image, and feature vectors may be extracted from each segmented face image fragment and merged into one. By extracting these feature vectors from real face images and fake face images and learning them with a classifier such as a support vector machine, it is possible to generate a fake face detector.

두 번째는, 로컬바이너리패턴(local binary pattern)을 사용한 방법이다. 이를 위하여, 먼저 입력된 얼굴 영상으로부터 로컬바이너리패턴의 코드를 계산한 후, 이 코드들을 히스토그램(histogram)화하고, 히스토그램의 합이 1이 되도록 정규화함으로써, 특징벡터를 얻을 수 있게 된다. 이러한 로컬바이너리패턴 기반 특징벡터는, 얼굴 영상 전체에서 추출될 수도 있지만, 임의로 분할된 얼굴 영상 조각들에서 각각 추출되어 하나로 합쳐질 수도 있다. 이러한 특징벡터들을 실제 얼굴 영상들과 위조 얼굴 영상들에서 추출하여 서포트벡터머신(support vector machine) 등의 분류기로 학습함으로써 위조 얼굴 검출기를 생성할 수 있게 된다.The second is a method using the local binary pattern. To this end, a feature vector can be obtained by first calculating the codes of the local binary pattern from the input face image, then making a histogram of these codes and normalizing the histograms so that the sum of the histograms becomes 1. Such a local binary pattern-based feature vector may be extracted from the entire face image, or may be extracted from arbitrarily divided face image fragments and combined into one. By extracting these feature vectors from real face images and fake face images and learning them with a classifier such as a support vector machine, it is possible to generate a fake face detector.

세 번째는, 앞서 설명한 파워스펙트럼 기반 방법과 로컬바이너리패턴 기반 방법을 조합하는 방법이다. 위의 두 방법은 다음과 같이 세 가지 접근법으로 조합될 수 있다. 첫째, 파워스펙트럼 기반으로 추출된 특징벡터와 로컬바이너리패터 기반으로 추출된 특징벡터를 특징벡터 수준에서 조합하여 서포트벡터머신 등의 분류기를 사용하여 학습함으로써 위조 얼굴 검출에 사용할 수 있다. 둘째, 파워스펙트럼 기반으로 추출된 특징벡터를 서포트벡터머신 등의 분류기에 통과시켜 얻어진 스코어(score)와 로컬바이너리패턴 기반으로 추출된 특징벡터를 서포트벡터머신 등의 분류기에 통과시켜 얻어진 스코어를 스코어 수준에서 조합하고, 다시 서포트벡터머신 등의 분류기를 통해 학습함으로써 위조 얼굴 검출에 사용할 수 있다. 셋째, 파워스펙트럼 기반으로 추출된 특징벡터를 서포트벡터머신 등의 분류기에 통과시켜 얻어진 판단결과(decision)와 로컬바이너리패턴 기반으로 추출된 특징벡터를 서포트벡터머신 등의 분류기에 통과시켜 얻어진 판단 결과를 판단 결과 수준에서 조합하여 위조 얼굴 검출에 사용할 수 있다.The third is a method of combining the power spectrum-based method and the local binary pattern-based method described above. The above two methods can be combined into three approaches as follows. First, the feature vector extracted based on the power spectrum and the feature vector extracted based on the local binary repeater are combined at the feature vector level and learned using a classifier such as a support vector machine, so that it can be used for fake face detection. Second, the score obtained by passing the feature vector extracted based on the power spectrum through a classifier such as a support vector machine, and the score obtained by passing the feature vector extracted based on the local binary pattern through a classifier such as a support vector machine, etc. It can be used for fake face detection by combining it in , and learning it through a classifier such as a support vector machine. Third, the decision result obtained by passing the feature vector extracted based on the power spectrum through a classifier such as a support vector machine, and the decision result obtained by passing the feature vector extracted based on the local binary pattern through a classifier such as a support vector machine. It can be combined at the judgment result level and used for fake face detection.

정리하면, 컬러 혹은 흑백 카메라에서 촬영된 얼굴 영상을 주파수 도메인으로 변환하고 저주파 성분이 중심에 오도록 위치 변환을 시켜준 후, 이를 다수의 동심원으로 나누어 각 동심원 사이의 평균 에너지값으로 1차원 특징벡터를 생성하고, 이를 서포트벡터머신 등을 사용하여 학습함으로써 위조 얼굴 검출기를 생성한다. 이러한 파워스펙트럼 기반 특징벡터는 얼굴 영상 전체에서 추출될 수도 있고, 임의로 분할된 얼굴 영상의 조각들에서 각각 추출되어 하나로 합쳐질 수도 있다.In summary, a face image taken by a color or black-and-white camera is converted into the frequency domain and the position is transformed so that the low-frequency component is at the center. A fake face detector is created by creating it and learning it using a support vector machine or the like. Such a power spectrum-based feature vector may be extracted from the entire face image, or may be extracted from arbitrarily divided pieces of the face image and combined into one.

또한, 컬러 혹은 흑백 카메라에서 촬영된 얼굴 영상에서 로컬바이너리패턴 코드를 계산한 후 이를 히스토그램화함으로써 1차원 특징벡터를 생성하고, 이를 서포트벡터머신 등을 사용하여 학습함으로써 위조 얼굴 검출기를 생성한다. 이러한 로컬바이너리패턴 기반 특징벡터는 얼굴 영상 전체에서 추출될 수도 있고, 임의로 분할된 얼굴 영상의 조각들에서 각각 추출되어 하나로 합쳐질 수도 있다. 마지막으로, 파워스펙트럼 기반 위조 가면 검출 방법과 로컬바이너리패턴 기반 위조 가면 검출 방법은 다음과 같이 세 가지 수준에서 조합되어 위조 얼굴을 검출하는데 사용될 수 있다. 첫째, 파워스펙트럼 기반으로 추출된 특징벡터와 로컬바이너리패터 기반으로 추출된 특징벡터를 특징벡터 수준에서 조합하여 서포트벡터머신 등의 분류기를 사용하여 학습함으로써 위조 얼굴 검출기를 만들 수 있다. 둘째, 파워스펙트럼 기반으로 추출된 특징벡터를 서포트벡터머신 등의 분류기에 통과시켜 얻어진 스코어와 로컬바이너리패턴 기반으로 추출된 특징벡터를 서포트벡터머신 등의 분류기에 통과시켜 얻어진 스코어를 스코어 수준에서 조합하여 사용할 수 있다. 셋째, 파워스펙트럼 기반으로 추출된 특징벡터를 서포트벡터머신 등의 분류기에 통과시켜 얻어진 판단결과와 로컬바이너리패턴 기반으로 추출된 특징벡터를 서포트벡터머신 등의 분류기에 통과시켜 얻어진 판단결과를 판단결과 수준에서 조합하여 위조 얼굴 여부를 판단하는데 사용할 수 있다.In addition, a one-dimensional feature vector is generated by calculating a local binary pattern code from a face image captured by a color or black-and-white camera and then histogramd, and a fake face detector is created by learning it using a support vector machine or the like. Such a local binary pattern-based feature vector may be extracted from the entire face image, or may be extracted from arbitrarily divided pieces of the face image and combined into one. Finally, the power spectrum-based fake mask detection method and the local binary pattern-based fake mask detection method can be combined at three levels to detect fake faces. First, a fake face detector can be made by combining the feature vector extracted based on the power spectrum and the feature vector extracted based on the local binary repeater at the feature vector level and learning using a classifier such as a support vector machine. Second, the score obtained by passing the feature vector extracted based on the power spectrum through a classifier such as a support vector machine and the score obtained by passing the feature vector extracted based on the local binary pattern through a classifier such as a support vector machine are combined at the score level. Can be used. Third, the judgment result obtained by passing the feature vector extracted based on the power spectrum through a classifier such as a support vector machine, and the judgment result obtained by passing the feature vector extracted based on the local binary pattern through a classifier such as a support vector machine, etc. It can be used to determine whether or not a fake face is combined in

판별부(170)는 제1 영역 ①과 제2 영역 ②의 경계선에 배치되는 다각형 또는 폐곡선 형상의 윈도우를 생성할 수 있다.The determining unit 170 may generate a polygonal or closed-curve window disposed on the boundary line between the first area ① and the second area ②.

윈도우에는 제1 영역 ①의 가장자리 일부와 제2 영역 ②의 가장자리 일부가 모두 포함될 수 있다.The window may include both a portion of an edge of the first area ① and a portion of an edge of the second area ②.

판별부(170)는 경계선을 기준으로 윈도우 내 일측에 존재하는 제1 특징점과 윈도우 내 타측에 존재하는 제2 특징점을 비교할 수 있다.The determining unit 170 may compare the first feature point existing on one side of the window with the second feature point existing on the other side of the window based on the boundary line.

판별부(170)는 경계선을 따라 윈도우를 움직이며, 윈도우가 움직일 때마다 윈도우 내에 존재하는 제1 특징점과 제2 특징점을 비교할 수 있다.The determining unit 170 moves the window along the boundary line, and whenever the window moves, the first feature point and the second feature point existing in the window may be compared.

판별부(170)는 비교 결과를 이용해서 제1 영역 ①과 제2 영역 ② 간의 무결성을 판별할 수 있다.The determination unit 170 may determine the integrity between the first area ① and the second area ② using the comparison result.

위조 여부의 정확도를 더욱 개선하기 위해, 제2 영역이 복수 영역으로 분할될 수 있다.In order to further improve the accuracy of forgery or not, the second area may be divided into a plurality of areas.

일 예로, 분리부(130)는 제2 영역 ②를 인체에서 얼굴을 제외한 몸 영역 t1과 나머지 주변 영역 t2로 구분할 수 있다.For example, the separation unit 130 may divide the second region ② into a body region t1 excluding the face from the human body and a remaining peripheral region t2.

추출부(150)는 몸 영역 t1에서 몸 특징점을 추출할 수 있다. 추출부(150)는 주변 영역 t2에서 주변 특징점을 추출할 수 있다.The extractor 150 may extract body feature points from the body region t1. The extractor 150 may extract peripheral feature points from the peripheral area t2.

판별부(170)는 제1 특징점과 몸 특징점을 비교할 수 있다. 판별부(170)는 제1 특징점과 주변 특징점을 비교할 수 있다. 판별부(170)는 몸 특징점과 주변 특징점을 비교할 수 있다.The determining unit 170 may compare the first feature point with the body feature point. The determining unit 170 may compare the first feature point with the surrounding feature point. The determining unit 170 may compare the body feature point with the surrounding feature point.

판별부(170)는 제1 특징점과 몸 특징점 간의 비교 결과, 제1 특징점과 주변 특징점 간의 비교 결과, 몸 특징점과 주변 특징점 간의 비교 결과 중 어느 하나에서라도 흠결이 발생되면, 이미지 i에 포함된 얼굴을 위조로 판별할 수 있다.If a defect occurs in any one of the comparison result between the first feature point and the body feature point, the comparison result between the first feature point and the surrounding feature point, and the comparison result between the body feature point and the peripheral feature point, the face included in the image i is can be identified as counterfeit.

본 실시예에 따르면, 배경에 대한 위조된 몸의 합성, 몸에 대한 위조된 얼굴의 합성, 배경에 대한 위조된 얼굴의 합성 등이 종합적으로 판별될 수 있다. 또한, 이미지 i에 대한 각종 위조 여부가 정확하게 판별될 수 있다.According to the present embodiment, the synthesis of a forged body against the background, the synthesis of a forged face against the body, and the synthesis of a forged face against the background can be comprehensively determined. In addition, various types of forgery of the image i can be accurately determined.

도 3은 본 발명의 검출 방법을 나타낸 흐름도이다.3 is a flowchart illustrating a detection method of the present invention.

도 3의 검출 방법은 도 1에 도시된 검출 장치에 의해 수행될 수 있다.The detection method of FIG. 3 may be performed by the detection apparatus illustrated in FIG. 1 .

본 발명의 검출 방법은 먼저 이미지 i를 획득할 수 있다(S 510). 획득부(110)에 의해 수행되는 동작으로 획득부(110)는 이미지 i를 생성하는 카메라를 포함하거나, 외부 카메라와 유무선 통신하는 통신부를 포함할 수 있다.The detection method of the present invention may first acquire an image i (S510). As an operation performed by the acquiring unit 110 , the acquiring unit 110 may include a camera that generates image i, or may include a communication unit that communicates with an external camera in wired or wireless communication.

다음으로, 이미지 i에서 얼굴을 나타내는 제1 영역 ①과 얼굴이 아닌 제2 영역 ②를 분리할 수 있다(S 520). 분리부(130)에 의해 수행되는 동작으로, 분리부(130)는 딥 러닝, 머신 러닝, 이미지 분석 기법 등을 통해 소위 얼굴 외곽선을 따라 모따기를 수행할 수 있다.Next, in the image i, the first region ① representing the face and the second region ② not representing the face may be separated ( S520 ). As an operation performed by the separating unit 130 , the separating unit 130 may perform chamfering along the so-called face outline through deep learning, machine learning, image analysis, and the like.

제1 영역 ①의 제1 특징점 d1을 추출하고, 제2 영역 ②의 제2 특징점 d2를 추출할 수 있다(S 530). 추출부(150)에 의해 수행되는 동작이다. 추출부(150)는 제2 영역 ②가 몸 영역 t1과 주변 영역 t2로 세분화되는 경우, 몸 영역 t1에 대한 몸 특징점 d21, 주변 영역 t2에 대한 주변 특징점 d22를 추출할 수 있다.A first feature point d1 of the first region ① may be extracted, and a second feature point d2 of the second region ② may be extracted ( S530 ). This is an operation performed by the extraction unit 150 . When the second region ② is subdivided into a body region t1 and a peripheral region t2, the extractor 150 may extract a body feature point d21 for the body region t1 and a peripheral feature point d22 for the peripheral region t2.

제1 특징점 d1 및 제2 특징점 d2의 비교를 통해 얼굴의 위조 여부를 판별할 수 있다(S 540). 판별부(170)에 의해 수행되는 동작이다.By comparing the first feature point d1 and the second feature point d2, it may be determined whether the face is forged (S540). This is an operation performed by the determining unit 170 .

도 4는 본 발명의 실시예에 따른, 컴퓨팅 장치를 나타내는 도면이다. 도 4의 컴퓨팅 장치(TN100)는 본 명세서에서 기술된 장치(예, 검출 장치 등) 일 수 있다. 4 is a diagram illustrating a computing device according to an embodiment of the present invention. The computing device TN100 of FIG. 4 may be a device (eg, a detection device, etc.) described herein.

도 4의 실시예에서, 컴퓨팅 장치(TN100)는 적어도 하나의 프로세서(TN110), 송수신 장치(TN120), 및 메모리(TN130)를 포함할 수 있다. 또한, 컴퓨팅 장치(TN100)는 저장 장치(TN140), 입력 인터페이스 장치(TN150), 출력 인터페이스 장치(TN160) 등을 더 포함할 수 있다. 컴퓨팅 장치(TN100)에 포함된 구성 요소들은 버스(bus)(TN170)에 의해 연결되어 서로 통신을 수행할 수 있다.In the embodiment of FIG. 4 , the computing device TN100 may include at least one processor TN110 , a transceiver device TN120 , and a memory TN130 . Also, the computing device TN100 may further include a storage device TN140 , an input interface device TN150 , an output interface device TN160 , and the like. Components included in the computing device TN100 may be connected by a bus TN170 to communicate with each other.

프로세서(TN110)는 메모리(TN130) 및 저장 장치(TN140) 중에서 적어도 하나에 저장된 프로그램 명령(program command)을 실행할 수 있다. 프로세서(TN110)는 중앙 처리 장치(CPU: central processing unit), 그래픽 처리 장치(GPU: graphics processing unit), 또는 본 발명의 실시예에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다. 프로세서(TN110)는 본 발명의 실시예와 관련하여 기술된 절차, 기능, 및 방법 등을 구현하도록 구성될 수 있다. 프로세서(TN110)는 컴퓨팅 장치(TN100)의 각 구성 요소를 제어할 수 있다.The processor TN110 may execute a program command stored in at least one of the memory TN130 and the storage device TN140. The processor TN110 may mean a central processing unit (CPU), a graphics processing unit (GPU), or a dedicated processor on which methods according to an embodiment of the present invention are performed. The processor TN110 may be configured to implement procedures, functions, and methods described in connection with an embodiment of the present invention. The processor TN110 may control each component of the computing device TN100 .

메모리(TN130) 및 저장 장치(TN140) 각각은 프로세서(TN110)의 동작과 관련된 다양한 정보를 저장할 수 있다. 메모리(TN130) 및 저장 장치(TN140) 각각은 휘발성 저장 매체 및 비휘발성 저장 매체 중에서 적어도 하나로 구성될 수 있다. 예를 들어, 메모리(TN130)는 읽기 전용 메모리(ROM: read only memory) 및 랜덤 액세스 메모리(RAM: random access memory) 중에서 적어도 하나로 구성될 수 있다. Each of the memory TN130 and the storage device TN140 may store various information related to the operation of the processor TN110 . Each of the memory TN130 and the storage device TN140 may be configured as at least one of a volatile storage medium and a nonvolatile storage medium. For example, the memory TN130 may include at least one of a read only memory (ROM) and a random access memory (RAM).

송수신 장치(TN120)는 유선 신호 또는 무선 신호를 송신 또는 수신할 수 있다. 송수신 장치(TN120)는 네트워크에 연결되어 통신을 수행할 수 있다.The transceiver TN120 may transmit or receive a wired signal or a wireless signal. The transceiver TN120 may be connected to a network to perform communication.

한편, 본 발명의 실시예는 지금까지 설명한 장치 및/또는 방법을 통해서만 구현되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하는 프로그램 또는 그 프로그램이 기록된 기록 매체를 통해 구현될 수도 있으며, 이러한 구현은 상술한 실시예의 기재로부터 본 발명이 속하는 기술 분야의 통상의 기술자라면 쉽게 구현할 수 있는 것이다. On the other hand, the embodiment of the present invention is not implemented only through the apparatus and/or method described so far, and a program for realizing a function corresponding to the configuration of the embodiment of the present invention or a recording medium in which the program is recorded may be implemented. And, such an implementation can be easily implemented by those skilled in the art from the description of the above-described embodiments.

이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 통상의 기술자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements by those skilled in the art using the basic concept of the present invention as defined in the following claims are also present. It belongs to the scope of the invention.

110...획득부 130...분리부
150...추출부 170...판별부
171...제1 분석부 172...제2 분석부
110...acquisition unit 130...separation unit
150...extraction unit 170...discrimination unit
171...First analysis unit 172...Second analysis unit

Claims (9)

이미지를 획득하는 획득부;
상기 이미지에서 얼굴을 나타내는 제1 영역과 얼굴이 아닌 제2 영역을 분리하는 분리부;
상기 제1 영역의 제1 특징점을 추출하고, 상기 제2 영역의 제2 특징점을 추출하는 추출부;
상기 제1 특징점 및 상기 제2 특징점의 비교를 통해 상기 얼굴의 위조 여부를 판별하는 판별부;를 포함하고,
상기 판별부는 상기 제1 영역과 상기 제2 영역의 경계선에 배치되는 다각형 또는 폐곡선 형상의 윈도우를 생성하고,
상기 윈도우에는 상기 제1 영역의 가장자리 일부와 상기 제2 영역의 가장자리 일부가 모두 포함되며,
상기 판별부는 상기 경계선을 기준으로 상기 윈도우 내 일측에 존재하는 제1 특징점과 상기 윈도우 내 타측에 존재하는 제2 특징점을 비교하고,
상기 판별부는 상기 경계선을 따라 상기 윈도우를 움직이며, 상기 윈도우가 움직일 때마다 상기 윈도우 내에 존재하는 상기 제1 특징점과 상기 제2 특징점을 비교하고,
상기 판별부는 상기 비교 결과를 이용해 상기 제1 영역과 상기 제2 영역 간의 무결성을 판별하며,
상기 판별부는 상기 무결성이 흠결된 것으로 판단되면 상기 이미지를 위조로 판별하는 검출 장치.
an acquisition unit for acquiring an image;
a separating unit separating a first area representing a face and a second area not representing a face in the image;
an extractor configured to extract a first feature point of the first region and extract a second feature point of the second region;
a determining unit that determines whether the face is forged by comparing the first feature point and the second feature point;
The determining unit generates a polygonal or closed curve-shaped window disposed on a boundary line between the first area and the second area,
The window includes both a portion of an edge of the first area and a portion of an edge of the second area,
The determining unit compares a first feature point existing on one side of the window with a second feature point existing on the other side of the window based on the boundary line,
The determining unit moves the window along the boundary line, and each time the window moves, the first feature point and the second feature point existing in the window are compared,
The determination unit determines the integrity between the first area and the second area using the comparison result,
If the determination unit determines that the integrity is defective, the detection device determines that the image is a forgery.
제1항에 있어서,
상기 획득부는 동영상이 입력되면, 상기 동영상에서 프레임을 추출하고,
상기 분리부는 상기 프레임을 대상으로 상기 제1 영역과 상기 제2 영역을 분리시키는 검출 장치.
According to claim 1,
When the video is input, the acquisition unit extracts a frame from the video,
The separator separates the first region and the second region from the frame.
제1항에 있어서,
상기 추출부는 머신 러닝 또는 딥러닝을 이용해 상기 제1 특징점 및 상기 제2 특징점을 추출하는 검출 장치.
According to claim 1,
The extraction unit is a detection device for extracting the first feature point and the second feature point using machine learning or deep learning.
삭제delete 제1항에 있어서,
상기 제1 영역의 위조 여부를 분석하는 제1 분석부, 상기 제2 영역의 위조 여부를 분석하는 제2 분석부가 마련되고,
상기 판별부는 상기 제1 특징점과 상기 제2 특징점의 비교 결과, 상기 제1 분석부의 분석 결과, 상기 제2 분석부의 분석 결과 중 어느 하나의 무결성이 흠결된 것으로 판단되면 상기 이미지를 위조로 판별하며,
상기 제1 분석부는,
상기 제1 영역에 포함된 컬러 또는 흑백의 얼굴 영상을 획득하고,
상기 얼굴 영상의 각 화소를 밝기값에 대해 퓨리에 변환하여 주파수 도메인으로 변환하며,
상기 퓨리에 변환된 결과값의 절대값을 로그-스케일로 나타낸 후 저주파 성분이 중심에 오도록 위치 변환하고,
위치 변환된 상기 결과값을 다수의 동심원으로 구획하고, 각 동심원의 평균 에너지값을 산출하여 제1 1차원 특징 벡터를 생성하며,
상기 얼굴 영상으로부터 로컬바이너리패턴 코드를 계산하고,
상기 계산된 로컬바이너리패턴 코드를 히스토그램화하며,
상기 히스토그램의 합이 1이 되도록 정규화하여 제2 1차원 특징 벡터를 생성하고,
서포트벡터머신을 이용하여 상기 산출된 제1 1차원 특징 벡터를 위조 얼굴 영상으로부터 생성된 제1 기준 위조 얼굴 특징 벡터와 비교함으로써, 상기 얼굴 영상이 위조된 얼굴인지의 여부를 1차 판정하며,
서포트벡터머신을 이용하여 상기 산출된 제2 1차원 특징 벡터를 위조 얼굴 영상으로부터 생성된 제2 기준 위조 얼굴 특징 벡터와 비교함으로써, 상기 얼굴 영상이 위조된 얼굴인지의 여부를 2차 판정하고,
상기 1차 판정의 결과 및 상기 2차 판정의 결과를 조합하여 상기 얼굴 영상이 위조된 얼굴인지의 여부를 최종으로 판정하는 검출 장치.
According to claim 1,
A first analysis unit for analyzing whether the first area is forged or not, and a second analysis unit for analyzing whether the second area is forgery are provided;
The determination unit determines that the image is a forgery if it is determined that the integrity of any one of the comparison result of the first characteristic point and the second characteristic point, the analysis result of the first analysis unit, and the analysis result of the second analysis unit is defective,
The first analysis unit,
Obtaining a color or black-and-white face image included in the first area,
Fourier transforms each pixel of the face image with respect to the brightness value and transforms it into the frequency domain,
After representing the absolute value of the Fourier-transformed result value in log-scale, the position is transformed so that the low-frequency component is at the center,
The position-transformed result value is divided into a plurality of concentric circles, and an average energy value of each concentric circle is calculated to generate a first one-dimensional feature vector,
Calculate a local binary pattern code from the face image,
Histogram the calculated local binary pattern code,
A second one-dimensional feature vector is generated by normalizing the sum of the histogram to be 1,
First determining whether the face image is a forged face by comparing the calculated first one-dimensional feature vector with a first reference fake facial feature vector generated from a forged face image using a support vector machine,
By comparing the calculated second one-dimensional feature vector with a second reference fake facial feature vector generated from a forged face image using a support vector machine, secondary determination is made as to whether the face image is a forged face,
A detection device for finally determining whether the face image is a forged face by combining a result of the first determination and a result of the second determination.
제5항에 있어서,
상기 제1 분석부는 하나 이상의 위조 얼굴 영상을 준비하는 단계, 상기 위조 얼굴 영상들로부터 각각의 상기 제1 1차원 특징 벡터를 생성하는 단계, 상기 생성된 제1 1차원 특징 벡터들을 상기 서포트벡터머신에서 상기 제1 기준 위조얼굴 특징 벡터로서 학습하는 단계를 통해 상기 제1 기준 위조 얼굴 특징 벡터를 생성하는 검출 장치.
6. The method of claim 5,
The first analysis unit prepares one or more fake face images, generates each of the first one-dimensional feature vectors from the fake face images, and uses the generated first one-dimensional feature vectors in the support vector machine. A detection apparatus for generating the first reference forged facial feature vector through the step of learning as the first reference forged facial feature vector.
삭제delete 삭제delete 검출 장치에 의해 수행되는 검출 방법에 있어서,
이미지를 획득하는 단계;
상기 이미지에서 얼굴을 나타내는 제1 영역과 얼굴이 아닌 제2 영역을 분리하는 단계;
상기 제1 영역의 제1 특징점을 추출하고, 상기 제2 영역의 제2 특징점을 추출하는 단계;
상기 제1 특징점 및 상기 제2 특징점의 비교를 통해 상기 얼굴의 위조 여부를 판별하는 단계;를 포함하고,
상기 얼굴의 위조 여부를 판별하는 단계는,
상기 제1 영역과 상기 제2 영역의 경계선에 배치되는 다각형 또는 폐곡선 형상의 윈도우를 생성하고,
상기 윈도우에는 상기 제1 영역의 가장자리 일부와 상기 제2 영역의 가장자리 일부가 모두 포함되며,
상기 경계선을 기준으로 상기 윈도우 내 일측에 존재하는 제1 특징점과 상기 윈도우 내 타측에 존재하는 제2 특징점을 비교하고,
상기 경계선을 따라 상기 윈도우를 움직이며, 상기 윈도우가 움직일 때마다 상기 윈도우 내에 존재하는 상기 제1 특징점과 상기 제2 특징점을 비교하고,
상기 비교 결과를 이용해 상기 제1 영역과 상기 제2 영역 간의 무결성을 판별하며,
상기 무결성이 흠결된 것으로 판단되면 상기 이미지를 위조로 판별하는 검출 방법.
A detection method performed by a detection device, comprising:
acquiring an image;
separating a first area representing a face and a second area not representing the face in the image;
extracting a first feature point of the first region and extracting a second feature point of the second region;
determining whether the face is forged by comparing the first feature point and the second feature point;
The step of determining whether the face is forged,
generating a polygonal or closed curve-shaped window disposed on a boundary line between the first region and the second region;
The window includes both a portion of an edge of the first area and a portion of an edge of the second area,
Comparing the first feature point existing on one side of the window with the second feature point existing on the other side of the window based on the boundary line,
moving the window along the boundary line, and comparing the first feature point and the second feature point existing in the window whenever the window moves,
Determining the integrity between the first region and the second region using the comparison result,
A detection method for determining that the image is a forgery when it is determined that the integrity is defective.
KR1020200060832A 2020-05-21 2020-05-21 Apparatus and method for detecting fake faces KR102463353B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200060832A KR102463353B1 (en) 2020-05-21 2020-05-21 Apparatus and method for detecting fake faces

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200060832A KR102463353B1 (en) 2020-05-21 2020-05-21 Apparatus and method for detecting fake faces

Publications (2)

Publication Number Publication Date
KR20210144064A KR20210144064A (en) 2021-11-30
KR102463353B1 true KR102463353B1 (en) 2022-11-07

Family

ID=78722286

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200060832A KR102463353B1 (en) 2020-05-21 2020-05-21 Apparatus and method for detecting fake faces

Country Status (1)

Country Link
KR (1) KR102463353B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115063870B (en) * 2022-07-08 2024-04-30 广东警官学院(广东省公安司法管理干部学院) Fake video portrait detection method based on facial action unit

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100473600B1 (en) * 2002-12-04 2005-03-10 삼성전자주식회사 Apparatus and method for distinguishing photograph in face recognition system
KR101159164B1 (en) * 2010-02-04 2012-06-22 목포대학교산학협력단 Fake video detecting apparatus and method
KR101443139B1 (en) * 2011-09-30 2014-09-19 아이포콤 주식회사 Single image-based fake face detection
KR102462818B1 (en) 2015-07-08 2022-11-04 주식회사 케이티 Method of motion vector and feature vector based fake face detection and apparatus for the same

Also Published As

Publication number Publication date
KR20210144064A (en) 2021-11-30

Similar Documents

Publication Publication Date Title
Scherhag et al. Detection of face morphing attacks based on PRNU analysis
Scherhag et al. Towards detection of morphed face images in electronic travel documents
US6661907B2 (en) Face detection in digital images
Gómez-Moreno et al. Goal evaluation of segmentation algorithms for traffic sign recognition
Ghimire et al. A robust face detection method based on skin color and edges
EP1693782B1 (en) Method for facial features detection
KR101781358B1 (en) Personal Identification System And Method By Face Recognition In Digital Image
KR101443139B1 (en) Single image-based fake face detection
CN106610969A (en) Multimodal information-based video content auditing system and method
JP2006146626A (en) Pattern recognition method and device
CN109190456B (en) Multi-feature fusion overlook pedestrian detection method based on aggregated channel features and gray level co-occurrence matrix
KR100664956B1 (en) Method and apparatus for eye detection
KR102463353B1 (en) Apparatus and method for detecting fake faces
Arafah et al. Face recognition system using Viola Jones, histograms of oriented gradients and multi-class support vector machine
KR101408344B1 (en) Apparatus for detecting face
JP2011170890A (en) Face detecting method, face detection device, and program
Lin et al. Face detection based on skin color segmentation and SVM classification
CN113610071B (en) Face living body detection method and device, electronic equipment and storage medium
Kumar et al. A review of image features extraction techniques and their applications in image forensic
KR20200042197A (en) Apparatus and method of matching faces using a deep learning
WO2022162760A1 (en) Determination method, determination program, and information processing device
Carvajal-González et al. Feature selection by relevance analysis for abandoned object classification
Rameshkumar et al. Automated number plate recognition system for vehicle monitoring using open CV and optical character recognition
Choudhary et al. Image Forgery Detection System using VGG16 UNET Model
Sandhu et al. Analyzing the image processing methods in order to do face detection

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant