KR102612941B1 - System of verifying digital synthesis/counterfeit face - Google Patents

System of verifying digital synthesis/counterfeit face Download PDF

Info

Publication number
KR102612941B1
KR102612941B1 KR1020200182915A KR20200182915A KR102612941B1 KR 102612941 B1 KR102612941 B1 KR 102612941B1 KR 1020200182915 A KR1020200182915 A KR 1020200182915A KR 20200182915 A KR20200182915 A KR 20200182915A KR 102612941 B1 KR102612941 B1 KR 102612941B1
Authority
KR
South Korea
Prior art keywords
classifier
module
facial image
facial
image
Prior art date
Application number
KR1020200182915A
Other languages
Korean (ko)
Other versions
KR20220091821A (en
Inventor
정여빈
Original Assignee
주식회사 유인원테크
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 유인원테크 filed Critical 주식회사 유인원테크
Priority to KR1020200182915A priority Critical patent/KR102612941B1/en
Publication of KR20220091821A publication Critical patent/KR20220091821A/en
Application granted granted Critical
Publication of KR102612941B1 publication Critical patent/KR102612941B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

디지털 합성/위조 안면 검증 시스템이 개시된다. 사용자의 안면 이미지를 등록하는 안면 이미지 등록 모듈; 상기 안면 이미지 저장 모듈에 미리 저장된 안면 이미지를 이용하여 사용자를 인식하기 위한 분류기를 미리 생성하는 분류기 생성 모듈; 상기 분류기 생성 모듈에 의해 미리 생성된 분류기가 사용자 별로 미리 저장되는 사용자별 분류기 저장 모듈을 구성한다. 상술한 디지털 합성/위조 안면 검증 시스템에 의하면, 안면 인식에 네트워크 임베딩 알고리즘을 적용하여 실제 안면 이미지와 디지털 합성/위조 안면 이미지를 정확하게 구별해내도록 구성됨으로써, 합성/위조에 의한 스푸핑(spoofing)을 방지하고 보안을 강화할 수 있는 효과가 있다. 특히, 안면 이미지의 학습을 위해 가우시안 노이즈, 가우시안 블러, 압축 등을 가하여 학습 이미지를 생성하도록 구성됨으로써, 실제 이미지와 합성/위조 이미지의 구별에 대한 정확도를 더욱 높일 수 있는 효과가 있다. 아울러, 안면의 눈, 코, 입 등의 특정 부위를 가린 특정 부위 블라인드 이미지를 이용하여 학습을 하도록 구성됨으로써, 안면의 특정 패턴에 의해 학습이 과적합되는 것을 방지하고 안면 이미지의 인식 오류를 줄이고 합성/위조 이미지를 더욱 정확하게 구별에 낼 수 있는 효과가 있다.A digital synthetic/fake face verification system is disclosed. A facial image registration module that registers the user's facial image; a classifier generation module that pre-generates a classifier for recognizing a user using a facial image pre-stored in the facial image storage module; The classifier pre-generated by the classifier creation module constitutes a user-specific classifier storage module in which the classifier is pre-stored for each user. According to the above-described digital synthetic/fake face verification system, it is configured to accurately distinguish between real facial images and digital synthetic/fake facial images by applying a network embedding algorithm to facial recognition, thereby preventing spoofing by synthesis/falsification. It has the effect of strengthening security. In particular, it is configured to generate learning images by applying Gaussian noise, Gaussian blur, compression, etc. to learn facial images, which has the effect of further increasing the accuracy of distinguishing between real images and synthetic/fake images. In addition, it is configured to learn using blind images of specific parts of the face that cover specific parts of the face, such as the eyes, nose, and mouth, to prevent overfitting of learning due to specific patterns of the face, reduce recognition errors in facial images, and synthesize /It has the effect of being able to more accurately distinguish counterfeit images.

Description

디지털 합성 안면 및 디지털 위조 안면 검증 시스템{SYSTEM OF VERIFYING DIGITAL SYNTHESIS/COUNTERFEIT FACE}Digital synthetic face and digital counterfeit face verification system {SYSTEM OF VERIFYING DIGITAL SYNTHESIS/COUNTERFEIT FACE}

본 발명은 디지털 안면 인식 시스템에 관한 것으로서, 구체적으로는 디지털 합성/위조 안면 검증 시스템에 관한 것이며, 좀 더 구체적으로는 네트워크 임베딩(network embeddings) 기술을 이용하여 실제 안면(real face)과 합성/위조 안면(fake face)을 구별하여 검증하는 시스템에 관한 것이다.The present invention relates to a digital facial recognition system, and specifically to a digital synthesis/falsification face verification system, and more specifically to a real face and synthesis/falsification using network embeddings technology. It is about a system that distinguishes and verifies faces (fake faces).

안면 이미지 인식 기술은 출입 장치, 노트북, 스마트 폰 등의 다양한 장치에 이용되고 있다.Facial image recognition technology is used in various devices such as access devices, laptops, and smart phones.

이러한 기술의 이용이 확대됨에 따라 합성/위조 안면의 사용에 의한 스푸핑(spoofing)도 늘어나고 있는 추세이다.As the use of these technologies expands, spoofing through the use of synthetic/fake faces is also increasing.

디지털 합성/위조 안면 이미지가 더욱 정교해지고 이를 정확하게 감별해낼 수 있는 수단의 필요성이 점점 커지고 있는 실정이다.Digital synthetic/fake facial images are becoming more sophisticated, and the need for means to accurately identify them is increasing.

도 1에서는 실제 이미지(original image)와 디지털 합성/위조 이미지를 나타내며, 안면 일부 위조 또는 상관/하관의 합성 등을 하여 이미지를 만들 수 있음을 나타낸다.Figure 1 shows an actual image (original image) and a digital composite/fake image, and shows that an image can be created by forging a part of the face or compositing the superior/inferior features.

하지만, 아직까지 디지털 합성/위조 안면을 정확하게 구별해 낼 수 있는 수단이 부재하여 스푸핑(spoofing)에 대한 위험성이 더욱 높아지고 있다.However, as there is still no means to accurately distinguish digitally synthesized/fake faces, the risk of spoofing is increasing.

공개특허공보 10-2004-0037180Public Patent Publication 10-2004-0037180 공개특허공보 10-2018-0135898Public Patent Publication 10-2018-0135898

본 발명의 목적은 디지털 합성/위조 안면 검증 시스템을 제공하는 데 있다.The purpose of the present invention is to provide a digital synthetic/falsified face verification system.

상술한 본 발명의 목적에 따른 디지털 합성/위조 안면 검증 시스템은, 사용자의 안면 이미지를 등록하는 안면 이미지 등록 모듈; 상기 안면 이미지 저장 모듈에 미리 저장된 안면 이미지를 이용하여 사용자를 인식하기 위한 분류기를 미리 생성하는 분류기 생성 모듈; 상기 분류기 생성 모듈에 의해 미리 생성된 분류기가 사용자 별로 미리 저장되는 사용자별 분류기 저장 모듈을 포함하도록 구성될 수 있다.The digital synthetic/falsified face verification system according to the object of the present invention described above includes a facial image registration module for registering a user's facial image; a classifier generation module that pre-generates a classifier for recognizing a user using a facial image pre-stored in the facial image storage module; The classifier pre-generated by the classifier creation module may be configured to include a user-specific classifier storage module that is pre-stored for each user.

여기서, 상기 사용자별 분류기 저장 모듈에 저장된 분류기를 이용하여 상기 안면 이미지 수신 모듈에서 수신된 안면 이미지의 사용자를 확인하는 안면 인식 모듈을 더 포함하도록 구성될 수 있다.Here, it may be configured to further include a facial recognition module that verifies the user of the facial image received from the facial image receiving module using the classifier stored in the user-specific classifier storage module.

그리고 상기 안면 인식 모듈에서 확인된 사용자 또는 해당 인식 결과를 출력하는 안면 인식 결과 출력 모듈을 더 포함하도록 구성될 수 있다.And it may be configured to further include a facial recognition result output module that outputs the user identified in the facial recognition module or the corresponding recognition result.

상술한 디지털 합성/위조 안면 검증 시스템에 의하면, 안면 인식에 네트워크 임베딩 알고리즘을 적용하여 실제 안면 이미지와 디지털 합성/위조 안면 이미지를 정확하게 구별해내도록 구성됨으로써, 합성/위조에 의한 스푸핑(spoofing)을 방지하고 보안을 강화할 수 있는 효과가 있다.According to the above-described digital synthetic/fake face verification system, it is configured to accurately distinguish between real facial images and digital synthetic/fake facial images by applying a network embedding algorithm to facial recognition, thereby preventing spoofing by synthesis/falsification. It has the effect of strengthening security.

특히, 안면 이미지의 학습을 위해 가우시안 노이즈, 가우시안 블러, 압축 등을 가하여 학습 이미지를 생성하도록 구성됨으로써, 실제 이미지와 합성/위조 이미지의 구별에 대한 정확도를 더욱 높일 수 있는 효과가 있다.In particular, it is configured to generate learning images by applying Gaussian noise, Gaussian blur, compression, etc. to learn facial images, which has the effect of further increasing the accuracy of distinguishing between real images and synthetic/fake images.

아울러, 안면의 눈, 코, 입 등의 특정 부위를 가린 특정 부위 블라인드 이미지를 이용하여 학습을 하도록 구성됨으로써, 안면의 특정 패턴에 의해 학습이 과적합되는 것을 방지하고 안면 이미지의 인식 오류를 줄이고 합성/위조 이미지를 더욱 정확하게 구별에 낼 수 있는 효과가 있다.In addition, it is configured to learn using blind images of specific parts of the face that cover specific parts of the face, such as the eyes, nose, and mouth, to prevent overfitting of learning due to specific patterns of the face, reduce recognition errors in facial images, and synthesize /It has the effect of being able to more accurately distinguish counterfeit images.

도 1은 디지털 합성/위조 안면 이미지의 예시도이다.
도 2는 본 발명의 일 실시예에 따른 디지털 합성/위조 안면 검증 시스템의 블록 구성도이다.
도 3은 본 발명의 일 실시예에 따른 디지털 합성/위조 안면 검증의 모식도이다.
도 4는 네트워크 임베딩 기술을 나타내는 그래프이다.
도 5는 본 발명의 일 실시예에 따른 네트워크 임베딩 알고리즘을 이용한 디지털 합성/위조 안면의 검증 결과를 나타내는 그래프이다.
도 6은 본 발명의 일 실시예에 따른 네트워크 임베딩 알고리즘을 이용한 디지털 합성/위조 안면 알고리즘을 나타내는 모식도이다.
도 7은 본 발명의 실시예에 따른 학습 이미지의 예시도이다.
도 8은 본 발명의 실시예에 따른 압축 이미지의 예시도이다.
도 9는 본 발명의 실시예에 따른 안면 랜드마크 이미지의 예시도이다.
도 10은 본 발명의 실시예에 따른 특정 부위 블라인트 안면 이미지의 예시도이다.
1 is an exemplary diagram of a digitally synthesized/falsified facial image.
Figure 2 is a block diagram of a digital composite/fake face verification system according to an embodiment of the present invention.
Figure 3 is a schematic diagram of digital synthesis/fake face verification according to an embodiment of the present invention.
Figure 4 is a graph showing network embedding technology.
Figure 5 is a graph showing the verification results of a digitally synthesized/fake face using a network embedding algorithm according to an embodiment of the present invention.
Figure 6 is a schematic diagram showing a digital synthesis/falsification face algorithm using a network embedding algorithm according to an embodiment of the present invention.
Figure 7 is an example diagram of a learning image according to an embodiment of the present invention.
Figure 8 is an example diagram of a compressed image according to an embodiment of the present invention.
Figure 9 is an example diagram of a facial landmark image according to an embodiment of the present invention.
Figure 10 is an example of a specific region blind facial image according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 발명을 실시하기 위한 구체적인 내용에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.Since the present invention can make various changes and have various embodiments, specific embodiments will be illustrated in the drawings and detailed descriptions will be given for carrying out the invention. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all changes, equivalents, and substitutes included in the spirit and technical scope of the present invention. While describing each drawing, similar reference numerals are used for similar components.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, and B may be used to describe various components, but the components should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, a first component may be named a second component, and similarly, the second component may also be named a first component without departing from the scope of the present invention. The term and/or includes any of a plurality of related stated items or a combination of a plurality of related stated items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is said to be "connected" or "connected" to another component, it is understood that it may be directly connected to or connected to the other component, but that other components may exist in between. It should be. On the other hand, when it is mentioned that a component is “directly connected” or “directly connected” to another component, it should be understood that there are no other components in between.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in this application are only used to describe specific embodiments and are not intended to limit the invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, terms such as “comprise” or “have” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that this does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person of ordinary skill in the technical field to which the present invention pertains. Terms defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and unless explicitly defined in the present application, should not be interpreted in an ideal or excessively formal sense. No.

이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the attached drawings.

도 2는 본 발명의 일 실시예에 따른 디지털 합성/위조 안면 검증 시스템의 블록 구성도이다. 그리고 도 3은 본 발명의 일 실시예에 따른 디지털 합성/위조 안면 검증의 모식도이고, 도 4는 네트워크 임베딩 기술을 나타내는 그래프이고, 도 5는 본 발명의 일 실시예에 따른 네트워크 임베딩 알고리즘을 이용한 디지털 합성/위조 안면의 검증 결과를 나타내는 그래프이고, 도 6은 본 발명의 일 실시예에 따른 네트워크 임베딩 알고리즘을 이용한 디지털 합성/위조 안면 알고리즘을 나타내는 모식도이고, 도 7은 본 발명의 실시예에 따른 학습 이미지의 예시도이고, 도 8은 본 발명의 실시예에 따른 압축 이미지의 예시도이고, 도 9는 본 발명의 실시예에 따른 안면 랜드마크 이미지의 예시도이고, 도 10은 본 발명의 실시예에 따른 특정 부위 블라인트 안면 이미지의 예시도이다.Figure 2 is a block diagram of a digital composite/fake face verification system according to an embodiment of the present invention. And Figure 3 is a schematic diagram of digital synthesis/falsification face verification according to an embodiment of the present invention, Figure 4 is a graph showing network embedding technology, and Figure 5 is a digital synthesis using a network embedding algorithm according to an embodiment of the present invention. It is a graph showing the verification results of a synthetic/fake face, Figure 6 is a schematic diagram showing a digital synthesis/fake face algorithm using a network embedding algorithm according to an embodiment of the present invention, and Figure 7 is a learning according to an embodiment of the present invention. Figure 8 is an example of an image according to an embodiment of the present invention, Figure 9 is an example of a compressed image according to an embodiment of the present invention, Figure 9 is an example of a facial landmark image according to an embodiment of the present invention, and Figure 10 is an example of a compressed image according to an embodiment of the present invention. This is an example of a specific area blind facial image according to .

도 2를 참조하면, 본 발명의 일 실시예에 따른 디지털 합성/위조 안면 검증 시스템(100)은 사용자 등록 모듈(101), 사용자 정보 저장 모듈(102), 안면 이미지 등록 모듈(103), 안면 이미지 저장 모듈(104), 분류기(discriminator) 생성 모듈(105), 사용자별 분류기 저장 모듈(106), 학습 이미지 추가 모듈(107), 블라인드(blind) 안면 이미지 추가 모듈(108), 학습 이미지 데이터베이스(109), 분류기 학습/추가 모듈(110), 안면 이미지 수신 모듈(111), 안면 인식 모듈(112), 안면 인식 결과 출력 모듈(113)을 포함하도록 구성될 수 있다.Referring to FIG. 2, the digital composite/fake face verification system 100 according to an embodiment of the present invention includes a user registration module 101, a user information storage module 102, a facial image registration module 103, and a facial image. Storage module 104, classifier generation module 105, user-specific classifier storage module 106, learning image addition module 107, blind facial image addition module 108, learning image database 109 ), a classifier learning/addition module 110, a facial image reception module 111, a facial recognition module 112, and a facial recognition result output module 113.

그리고 도 3에서는 본 발명은 기본적으로 1) 안면 감지, 2) CNN 알고리즘을 이용한 특징 벡터 검출과 네트워크 임베딩(network embeddings)을 이용한 저차원 매핑, 3) 분류기 생성, 4) 실제 이미지와 디지털 합성/위조 이미지의 구별 출력이라는 순서로 구성됨을 나타낸다.And in Figure 3, the present invention basically includes 1) face detection, 2) feature vector detection using CNN algorithm and low-dimensional mapping using network embeddings, 3) classifier generation, and 4) real image and digital synthesis/forgery. It indicates that the images are organized in the order of distinct output.

이하, 도 2의 세부적인 구성에 대하여 설명한다.Hereinafter, the detailed configuration of FIG. 2 will be described.

사용자 등록 모듈(101)은 사용자 정보를 입력받아 등록하도록 구성될 수 있다. 사용자 정보는 사용자의 이름, ID, 사원 번호 등을 포함할 수 있다.The user registration module 101 may be configured to receive and register user information. User information may include the user's name, ID, employee number, etc.

사용자 정보 저장 모듈(102)은 사용자 등록 모듈(101)에 의해 등록되는 사용자 정보가 저장되도록 구성될 수 있다.The user information storage module 102 may be configured to store user information registered by the user registration module 101.

안면 이미지 등록 모듈(103)은 사용자의 안면 이미지를 등록하도록 구성될 수 있다. 안면 이미지 등록 모듈(103)은 사용자 정보 저장 모듈(102)에 저장된 사용자 정보에 대응하여 안면 이미지를 등록하도록 구성될 수 있다.The facial image registration module 103 may be configured to register a user's facial image. The facial image registration module 103 may be configured to register a facial image in response to user information stored in the user information storage module 102.

안면 이미지 저장 모듈(104)은 안면 이미지 등록 모듈(103)에서 등록된 안면 이미지가 사용자 정보 저장 모듈(102)에 저장된 사용자 정보 별로 미리 저장되도록 구성될 수 있다.The facial image storage module 104 may be configured to pre-store the facial images registered in the facial image registration module 103 for each user information stored in the user information storage module 102.

분류기 생성 모듈(105)은 안면 이미지 저장 모듈(104)에 미리 저장된 안면 이미지를 이용하여 사용자를 인식하기 위한 분류기를 미리 생성하도록 구성될 수 있다.The classifier creation module 105 may be configured to pre-generate a classifier for recognizing a user using a facial image pre-stored in the facial image storage module 104.

여기서, 분류기는 로그인을 위해 안면 이미지 수신 모듈(111)에 의해 수신되는 안면 이미지와 안면 이미지 저장 모듈(104)에 미리 저장된 안면 이미지를 대비하여 사용자를 인식하도록 구성될 수 있다.Here, the classifier may be configured to recognize the user by comparing the facial image received by the facial image receiving module 111 for login with the facial image previously stored in the facial image storage module 104.

분류기 생성 모듈(105)은 제1 CNN 특징점 추출부(105a), 제1 네트워크 임베딩 저차원 매핑부(105b), 분류기 생성부(105c)를 포함하도록 구성될 수 있다.The classifier generation module 105 may be configured to include a first CNN feature point extraction unit 105a, a first network embedding low-dimensional mapping unit 105b, and a classifier generation unit 105c.

이하, 세부적인 구성에 대하여 설명한다.Hereinafter, the detailed configuration will be described.

제1 CNN 특징점 추출부(105a)는 안면 이미지 저장 모듈(104)에 저장된 안면 이미지 상의 특징점들을 추출하고, 추출된 특징점들을 기반으로 안면을 정렬하도록 구성될 수 있다. 그리고 그 정렬된 안면에서 CNN 알고리즘을 이용하여 512개의 특징 벡터를 추출하도록 구성될 수 있다.The first CNN feature point extraction unit 105a may be configured to extract feature points on the facial image stored in the facial image storage module 104 and align the face based on the extracted feature points. And it can be configured to extract 512 feature vectors from the sorted faces using a CNN algorithm.

제1 네트워크 임베딩 저차원 매핑부(105b)는 제1 CNN 특징점 추출부(105a)에서 추출된 특징 벡터를 네트워크 임베딩(network embeddings) 알고리즘을 이용하여 저차원 공간으로 매핑하도록 구성될 수 있다.The first network embedding low-dimensional mapping unit 105b may be configured to map the feature vector extracted from the first CNN feature point extraction unit 105a into a low-dimensional space using a network embeddings algorithm.

도 4는 네트워크 임베딩에 의해 사람, 얼굴, 책 종류 등의 다양한 여러 종류의 데이터를 분류하는 데 이용된다. 그러나 본 발명에서는 도 5와 같이 실제 이미지와 디지털 합성/위조 이미지를 구별해내는 데 이용하도록 구성될 수 있다.Figure 4 is used to classify various types of data such as people, faces, and book types by network embedding. However, in the present invention, as shown in FIG. 5, it can be configured to be used to distinguish between a real image and a digitally synthesized/falsified image.

도 5를 보면, CNN 알고리즘에 의해 이미지의 특징이 수치화된 특징 벡터를 저차원 공간으로 맵핑하는 경우, 도 5와 같이 실제 안면 이미지와 디지털 합성/위조 안면 이미지가 서로 분리되어 나타나며, 이를 통해 디지털 합성/위조 안면 이미지를 감별해 낼 수 있다.Referring to Figure 5, when the feature vector in which the image features are quantified by the CNN algorithm is mapped into a low-dimensional space, the actual facial image and the digitally synthesized/fake facial image appear separately as shown in Figure 5, and through this, the digital synthesis is performed. /Can detect fake facial images.

도 6에서는 네트워크 임베딩 알고리즘을 나타내는데, 네트워크 임베딩을 이용한 학습 과정은 궁극적으로 Triplet Loss가 anchor와 positive 간의 거리가 최소화되도록 학습하도록 구성될 수 있다. 여기서, Triplet Loss는 으로 정의될 수 있으며, positive와의 거리는 보다 가깝게하고 negative와의 거리는 보다 멀게되게끔 학습하는 데 있다. Positive는 실제 이미지라고 볼 수 있고, negative는 디지털 합성/위조 이미지라고 볼 수 있다. 기존에는 Triplet Loss가 음수인 경우에는 0으로 처리하여 weights(가중치)를 학습시키지 않도록 구성될 수 있다. 그러나, 본 발명에서는 도 6의 우측에서 보듯이 Loss가 음수일 경우 positive 간의 거리와 를 이용하여 학습 속도를 개선하고 Local minima를 방지하도록 구성될 수 있다.Figure 6 shows the network embedding algorithm, and the learning process using network embedding can ultimately be configured to learn the Triplet Loss so that the distance between the anchor and the positive is minimized. Here, Triplet Loss is It can be defined as, and the goal is to learn so that the distance from positive becomes closer and the distance from negative becomes farther. Positive can be seen as a real image, and negative can be seen as a digitally synthesized/fake image. Previously, if Triplet Loss was a negative number, it could be configured to treat it as 0 and not learn weights. However, in the present invention, as shown on the right side of FIG. 6, when Loss is negative, the distance between positives and It can be configured to improve learning speed and prevent local minima by using .

기본 분류기 생성부(105c)는 제1 네트워크 임베딩 저차원 매핑부(105b)에서 저차원 공간으로 매핑된 특징 벡터로 구성되는 기본 분류기를 생성하도록 구성될 수 있다.The basic classifier generator 105c may be configured to generate a basic classifier composed of feature vectors mapped to a low-dimensional space in the first network embedding low-dimensional mapping unit 105b.

사용자별 분류기 저장 모듈(106)은 분류기 생성 모듈(105)에 의해 미리 생성된 분류기가 사용자 별로 미리 저장되도록 구성될 수 있다.The user-specific classifier storage module 106 may be configured to pre-store the classifier pre-generated by the classifier creation module 105 for each user.

학습 이미지 추가 모듈(107)은 안면 이미지 등록 모듈(103)에 의해 등록된 안면 이미지를 이용하여 학습 이미지를 추가하도록 구성될 수 있다.The learning image adding module 107 may be configured to add a learning image using the facial image registered by the facial image registration module 103.

학습 이미지 추가 모듈(107)은 가우시안 노이즈 추가부(107a), 가우시안 블러 추가부(107b), 가우시안 노이즈/블러 추가부(107c), 이미지 압축부(107d)를 포함하도록 구성될 수 있다.The training image addition module 107 may be configured to include a Gaussian noise addition unit 107a, a Gaussian blur addition unit 107b, a Gaussian noise/blur addition unit 107c, and an image compression unit 107d.

이하, 세부적인 구성에 대하여 설명한다.Hereinafter, the detailed configuration will be described.

가우시안 노이즈 추가부(107a)는 안면 이미지 등록 모듈(103)에서 등록되는 안면 이미지에 대해 가우시안 노이즈를 추가하여 학습 이미지를 생성하고 추가하도록 구성될 수 있다.The Gaussian noise adding unit 107a may be configured to generate and add a learning image by adding Gaussian noise to the facial image registered in the facial image registration module 103.

가우시안 블러 추가부(107b)는 안면 이미지 등록 모듈(103)에서 등록되는 안면 이미지에 대해 가우시안 블러를 추가하여 학습 이미지를 생성하고 추가하도록 구성될 수 있다.The Gaussian blur adding unit 107b may be configured to generate and add a learning image by adding Gaussian blur to the facial image registered in the facial image registration module 103.

가우시안 노이즈/블러 추가부(107c)는 안면 이미지 등록 모듈(103)에서 등록되는 안면 이미지에 대해 가우시안 노이즈 및 가우시안 블러를 추가하여 학습 이미지를 생성하고 추가하도록 구성될 수 있다.The Gaussian noise/blur adding unit 107c may be configured to generate and add a learning image by adding Gaussian noise and Gaussian blur to the facial image registered in the facial image registration module 103.

이미지 압축부(107d)는 안면 이미지 등록 모듈(103)에서 등록되는 안면 이미지를 압축 처리하여 학습 이미지를 생성하고 추가하도록 구성될 수 있다.The image compression unit 107d may be configured to compress and process the facial image registered in the facial image registration module 103 to generate and add a learning image.

도 7은 가우시안 노이즈 및 가우시안 블러를 가한 학습 이미지를 예시하고 있고, 도 8은 압축을 가한 학습 이미지를 예시하고 있다. 이를 통해 디지털 합성/위조 이미지의 구별에 대한 정확도를 높일 수 있다.Figure 7 illustrates a training image with Gaussian noise and Gaussian blur applied, and Figure 8 illustrates a training image with compression. Through this, the accuracy of distinguishing between digitally synthesized/forged images can be increased.

블라인드 안면 이미지 추가 모듈(108)은 안면 이미지 등록 모듈(103)에 의해 등록된 안면 이미지를 이용하여 블라인지 안면 이미지를 추가하도록 구성될 수 있다.The blind facial image addition module 108 may be configured to add a blind facial image using the facial image registered by the facial image registration module 103.

블라인드 안면 이미지 추가 모듈(108)은 랜드마크 검출부(108a), 특정 블라인드 안면 이미지 생성부(108b)를 포함하도록 구성될 수 있다.The blind facial image addition module 108 may be configured to include a landmark detection unit 108a and a specific blind facial image generating unit 108b.

이하, 세부적인 구성에 대하여 설명한다.Hereinafter, the detailed configuration will be described.

랜드마크 검출부(108a)는 학습 이미지 데이터베이스(109)에 저장된 학습 이미지 및 블라인드 안면 이미지에서 안면의 주요 부위에 대한 68개의 랜드마크를 검출하도록 구성될 수 있다.The landmark detection unit 108a may be configured to detect 68 landmarks for key parts of the face from the learning image and blind face image stored in the learning image database 109.

특정 부위 블라인드 안면 이미지 생성부(108b)는 랜드마크 검출부(108a)에서 검출된 랜드마크를 기반으로 해당 안면의 소정 부위를 가린 블라인드 안면 이미지를 생성하도록 구성될 수 있다.The specific area blind facial image generating unit 108b may be configured to generate a blind facial image covering a predetermined area of the face based on the landmark detected by the landmark detection unit 108a.

도 9는 안면 랜드마크 이미지를 나타내고 도 10은 특정 부위 블라인드 안면 이미지를 예시하고 있다. 이를 통해 학습 과정에서 안면의 특정 부위 패턴에 의해 학습이 과적합되는 것을 방지하고, 디지털 합성/위조 이미지의 구별에 대한 정확도를 높일 수 있다.Figure 9 shows a facial landmark image and Figure 10 illustrates a specific region blind facial image. Through this, it is possible to prevent overfitting of learning by patterns of specific parts of the face during the learning process and increase the accuracy of distinguishing between digitally synthesized/falsified images.

학습 이미지 데이터베이스(109)는 학습 이미지 추가 모듈(107)에 의해 추가된 학습 이미지 및 블라인드 안면 이미지 추가 모듈(108)에 의해 추가된 블라인드 안면 이미지가 저장되도록 구성될 수 있다.The learning image database 109 may be configured to store the learning images added by the learning image adding module 107 and the blind facial images added by the blind facial image adding module 108.

분류기 학습/추가 모듈(110)은 학습 이미지 데이터베이스(109)에 저장된 학습 이미지 및 블라인드 안면 이미지를 이용하여 학습하여 각 사용자의 분류기를 추가하고 사용자별 분류기 저장 모듈(106)에 추가 저장하도록 구성될 수 있다.The classifier learning/adding module 110 can be configured to learn using the learning image and blind face image stored in the learning image database 109, add a classifier for each user, and additionally store it in the user-specific classifier storage module 106. there is.

분류기 학습/추가 모듈(110)은 제2 CNN 특징점 추출부(110a), 제2 네트워크 임베딩 저차원 매핑부(110b), 합성/위조 분류기 추가부(110c)를 포함하도록 구성될 수 있다.The classifier learning/addition module 110 may be configured to include a second CNN feature point extraction unit 110a, a second network embedding low-dimensional mapping unit 110b, and a synthesis/falsification classifier addition unit 110c.

이하, 세부적인 구성에 대하여 설명한다.Hereinafter, the detailed configuration will be described.

제2 CNN 특징점 추출부(110a)는 학습 이미지 데이터베이스(109)에 학습 이미지 또는 블라인드 안면 이미지 상의 특징점들을 추출하고, 추출된 특징점들을 기반으로 안면을 정렬하고, 정렬된 안면에서 CNN 알고리즘을 이용하여 512개의 특징 벡터를 추출하도록 구성될 수 있다.The second CNN feature point extraction unit 110a extracts feature points on the learning image or blind face image from the learning image database 109, sorts the face based on the extracted feature points, and uses the CNN algorithm on the aligned face 512. It can be configured to extract feature vectors.

제2 네트워크 임베딩 저차원 매핑부(110b)는 제2 CNN 특징점 추출부(110a)에서 추출된 특징 벡터를 네트워크 임베딩(network embeddings) 알고리즘을 이용하여 저차원 공간으로 매핑하도록 구성될 수 있다.The second network embedding low-dimensional mapping unit 110b may be configured to map the feature vector extracted from the second CNN feature point extraction unit 110a into a low-dimensional space using a network embeddings algorithm.

합성/위조 분류기 추가부(110c)는 제2 네트워크 임베딩 저차원 매핑부(110b)에서 저차원 공간으로 매핑된 특징 벡터로 구성되는 합성/위조 분류기를 사용자 별로 추가하도록 구성될 수 있다.The synthesis/forgery classifier adding unit 110c may be configured to add a synthesis/forgery classifier for each user consisting of feature vectors mapped to a low-dimensional space in the second network embedding low-dimensional mapping unit 110b.

안면 이미지 수신 모듈(111)은 사용자 확인을 위한 안면 이미지를 수신하도록 구성될 수 있다.The facial image receiving module 111 may be configured to receive a facial image for user verification.

안면 인식 모듈(112)은 사용자별 분류기 저장 모듈(106)에 저장된 분류기를 이용하여 안면 이미지 수신 모듈(111)에서 수신된 안면 이미지의 사용자를 확인하도록 구성될 수 있다.The facial recognition module 112 may be configured to identify the user of the facial image received from the facial image receiving module 111 using the classifier stored in the user-specific classifier storage module 106.

안면 인식 모듈(112)은 기본 분류기 활용 안면 인식부(112a), 합성/위조 분류기 활용 안면 인식부(112b)를 포함하도록 구성될 수 있다.The face recognition module 112 may be configured to include a face recognition unit 112a using a basic classifier and a face recognition unit 112b using a synthesis/forgery classifier.

이하, 세부적인 구성에 대하여 설명한다.Hereinafter, the detailed configuration will be described.

1차적으로는 기본 분류기 활용 안면 인식부(112a)가 기본 분류기 생성부(105c)에서 생성된 기본 분류기를 활용하여 안면 이미지 수신 모듈(111)에서 수신된 안면 이미지를 인식하도록 구성될 수 있다.First, the facial recognition unit 112a utilizing a basic classifier may be configured to recognize the facial image received from the facial image receiving module 111 using the basic classifier generated by the basic classifier generating unit 105c.

2차적으로는 합성/위조 분류기 활용 안면 인식부(112b)가 합성/위조 분류기 추가부(110c)에서 추가된 합성/위조 분류기를 활용하여 안면 이미지 수신 모듈(111)에서 수신된 안면 이미지의 합성/위조를 구별하여 인식하도록 구성될 수 있다.Secondly, the facial recognition unit 112b utilizing the synthesis/forgery classifier uses the synthesis/forgery classifier added in the synthesis/forgery classifier addition unit 110c to synthesize/forge the facial image received from the facial image reception module 111. It can be configured to distinguish and recognize counterfeiting.

안면 인식 결과 출력 모듈(113)은 안면 인식 모듈(112)에서 확인된 사용자 또는 해당 인식 결과를 출력하도록 구성될 수 있다.The facial recognition result output module 113 may be configured to output the user identified in the facial recognition module 112 or the corresponding recognition result.

이상 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the description has been made with reference to the above examples, those skilled in the art can understand that various modifications and changes can be made to the present invention without departing from the spirit and scope of the present invention as set forth in the claims below. There will be.

101: 사용자 등록 모듈
102: 사용자 정보 저장 모듈
103: 안면 이미지 등록 모듈
104: 안면 이미지 저장 모듈
105: 분류기 생성 모듈
105a: 제1 CNN 특징점 추출부
105b: 제1 네트워크 임베딩 저차원 매핑부
105c: 기본 분류기 생성부
106: 사용자별 분류기 저장 모듈
107: 학습 이미지 추가 모듈
107a: 가우시안 노이즈 추가부
107b: 가우시안 블러 추가부
107c: 가우시안 노이즈/블러 추가부
107d: 이미지 압축부
108: 블라인드 안면 이미지 추가 모듈
108a: 랜드마크 검출부
108b: 특정 부위 블라인드 안면 이미지 생성부
109: 학습 이미지 데이터베이스
110: 분류기 학습/추가 모듈
110a: CNN 특징점 추출부
110b: 네트워크 임베딩 저차원 매핑부
110c: 합성/위조 분류기 추가부
111: 안면 이미지 수신 모듈
112: 안면 인식 모듈
112a: 기본 분류기 활용 안면 인식부
112b: 합성/위조 분류기 활용 안면 인식부
113: 안면 인식 결과 출력 모듈
101: User registration module
102: User information storage module
103: Facial image registration module
104: Facial image storage module
105: Classifier creation module
105a: First CNN feature point extraction unit
105b: First network embedding low-dimensional mapping unit
105c: Basic classifier creation unit
106: User-specific sorter storage module
107: Learning image addition module
107a: Gaussian noise addition
107b: Gaussian blur addition
107c: Gaussian noise/blur addition
107d: image compression unit
108: Blind facial image addition module
108a: Landmark detection unit
108b: Specific area blind facial image generation unit
109: Learning image database
110: Classifier training/addition module
110a: CNN feature point extraction unit
110b: Network embedding low-dimensional mapping unit
110c: Synthetic/forgery classifier addition unit
111: Facial image reception module
112: Facial recognition module
112a: Face recognition unit using basic classifier
112b: Face recognition unit utilizing synthesis/forgery classifier
113: Facial recognition result output module

Claims (3)

사용자 정보를 입력받아 등록하는 사용자 등록 모듈;
상기 사용자 등록 모듈에 의해 등록되는 사용자 정보가 저장되는 사용자 정보 저장 모듈;
사용자의 안면 이미지를 등록하는 안면 이미지 등록 모듈;
상기 안면 이미지 등록 모듈에서 등록된 안면 이미지가 상기 사용자 정보 저장 모듈에 저장된 사용자 정보 별로 미리 저장되는 안면 이미지 저장 모듈;
상기 안면 이미지 저장 모듈에 미리 저장된 안면 이미지를 이용하여 사용자를 인식하기 위한 분류기를 미리 생성하는 분류기 생성 모듈;
상기 분류기 생성 모듈에 의해 미리 생성된 분류기가 사용자 별로 미리 저장되는 사용자별 분류기 저장 모듈;
상기 안면 이미지 등록 모듈에 의해 등록된 안면 이미지를 이용하여 학습 이미지를 추가하는 학습 이미지 추가 모듈;
상기 안면 이미지 등록 모듈에 의해 등록된 안면 이미지를 이용하여 다수의 블라인드 안면 이미지를 추가하는 블라인드 안면 이미지 추가 모듈;
상기 학습 이미지 추가 모듈에 의해 추가된 학습 이미지 및 상기 블라인드 안면 이미지 추가 모듈에 의해 추가된 블라인드 안면 이미지가 저장되는 학습 이미지 데이터베이스;
상기 학습 이미지 데이터베이스에 저장된 학습 이미지 및 다수의 블라인드 안면 이미지를 이용하여 학습하여 각 사용자의 분류기를 추가하고 상기 사용자별 분류기 저장 모듈에 추가 저장하는 분류기 학습 및 추가 모듈;
사용자 확인을 위한 안면 이미지를 수신하는 안면 이미지 수신 모듈;
상기 사용자별 분류기 저장 모듈에 저장된 분류기를 이용하여 상기 안면 이미지 수신 모듈에서 수신된 안면 이미지의 사용자를 확인하는 안면 인식 모듈;
상기 안면 인식 모듈에서 확인된 사용자 또는 해당 인식 결과를 출력하는 안면 인식 결과 출력 모듈을 포함하고,
상기 분류기 생성 모듈은,
상기 안면 이미지 저장 모듈에 저장된 안면 이미지 상의 특징점들을 추출하고, 추출된 특징점들을 기반으로 안면을 정렬하고, 정렬된 안면에서 CNN 알고리즘을 이용하여 512개의 특징 벡터를 추출하는 제1 CNN 특징점 추출부;
상기 제1 CNN 특징점 추출부에서 추출된 특징 벡터를 네트워크 임베딩(network embeddings) 알고리즘을 이용하여 저차원 공간으로 매핑하는 제1 네트워크 임베딩 저차원 매핑부;
상기 제1 네트워크 임베딩 저차원 매핑부에서 저차원 공간으로 매핑된 특징 벡터로 구성되는 기본 분류기를 생성하는 기본 분류기 생성부를 포함하도록 구성되고,
상기 학습 이미지 추가 모듈은,
상기 안면 이미지 등록 모듈에서 등록되는 안면 이미지에 대해 가우시안 노이즈를 추가하여 학습 이미지를 생성하고 추가하는 가우시안 노이즈 추가부;
상기 안면 이미지 등록 모듈에서 등록되는 안면 이미지에 대해 가우시안 블러를 추가하여 학습 이미지를 생성하고 추가하는 가우시안 블러 추가부;
상기 안면 이미지 등록 모듈에서 등록되는 안면 이미지에 대해 가우시안 노이즈 및 가우시안 블러를 추가하여 학습 이미지를 생성하고 추가하는 가우시안 노이즈 및 블러 추가부;
상기 안면 이미지 등록 모듈에서 등록되는 안면 이미지를 압축 처리하여 학습 이미지를 생성하고 추가하는 이미지 압축부를 포함하도록 구성되고,
상기 블라인드 안면 이미지 추가 모듈은,
상기 학습 이미지 데이터베이스에 저장된 학습 이미지 및 블라인드 안면 이미지에서 안면의 주요 부위에 대한 68개의 랜드마크를 검출하는 랜드마크 검출부;
상기 랜드마크 검출부에서 검출된 랜드마크를 기반으로 해당 안면의 소정 부위를 가린 블라인드 안면 이미지를 생성하는 특정 부위 블라인드 안면 이미지 생성부를 포함하도록 구성되고,
상기 분류기 학습 및 추가 모듈은,
상기 학습 이미지 데이터베이스에 학습 이미지 또는 블라인드 안면 이미지 상의 특징점들을 추출하고, 추출된 특징점들을 기반으로 안면을 정렬하고, 정렬된 안면에서 CNN 알고리즘을 이용하여 512개의 특징 벡터를 추출하는 제2 CNN 특징점 추출부;
상기 제2 CNN 특징점 추출부에서 추출된 특징 벡터를 네트워크 임베딩(network embeddings) 알고리즘을 이용하여 저차원 공간으로 매핑하는 제2 네트워크 임베딩 저차원 매핑부;
상기 제2 네트워크 임베딩 저차원 매핑부에서 저차원 공간으로 매핑된 특징 벡터로 구성되는 합성 및 위조 분류기를 사용자 별로 추가하는 합성 및 위조 분류기 추가부를 포함하도록 구성되고,
상기 안면 인식 모듈은,
상기 기본 분류기 생성부에서 생성된 기본 분류기를 활용하여 상기 안면 이미지 수신 모듈에서 수신된 안면 이미지를 인식하는 기본 분류기 활용 안면 인식부;
상기 합성 및 위조 분류기 추가부에서 추가된 합성 및 위조 분류기를 활용하여 상기 안면 이미지 수신 모듈에서 수신된 안면 이미지의 합성 및 위조를 구별하여 인식하는 합성 및 위조 분류기 활용 안면 인식부를 포함하도록 구성되고,
상기 제1 네트워크 임베딩 저차원 매핑부 및 상기 제2 네트워크 임베딩 저차원 매핑부는,
상기 네트워크 임베딩 알고리즘을 이용하여 트릿플릿 로스를 산출하고, 트릿플릿 로스가 음수로 산출되는 경우, 음수로 산출된 트릿플릿 로스를 0으로 처리하지 않고 상기 산출된 트릿플릿 로스에 소정의 값을 더하여 재산출하도록 구성되는 것을 특징으로 하는 디지털 합성 안면 및 디지털 위조 안면 검증 시스템.
A user registration module that receives and registers user information;
a user information storage module that stores user information registered by the user registration module;
A facial image registration module that registers the user's facial image;
a facial image storage module in which facial images registered in the facial image registration module are pre-stored for each user information stored in the user information storage module;
a classifier generation module that pre-generates a classifier for recognizing a user using a facial image pre-stored in the facial image storage module;
a user-specific classifier storage module in which the classifier pre-generated by the classifier creation module is stored in advance for each user;
a learning image addition module that adds a learning image using the facial image registered by the facial image registration module;
a blind facial image addition module that adds a plurality of blind facial images using the facial image registered by the facial image registration module;
a learning image database storing learning images added by the learning image adding module and blind face images added by the blind face image adding module;
a classifier learning and addition module that learns using the learning images and a plurality of blind face images stored in the learning image database, adds a classifier for each user, and additionally stores the classifier in the user-specific classifier storage module;
A facial image receiving module that receives a facial image for user identification;
a facial recognition module that identifies the user of the facial image received from the facial image receiving module using a classifier stored in the user-specific classifier storage module;
It includes a facial recognition result output module that outputs the user identified in the facial recognition module or the corresponding recognition result,
The classifier creation module is,
A first CNN feature point extraction unit that extracts feature points on the facial image stored in the facial image storage module, sorts faces based on the extracted feature points, and extracts 512 feature vectors from the aligned faces using a CNN algorithm;
a first network embedding low-dimensional mapping unit that maps the feature vectors extracted from the first CNN feature point extraction unit into a low-dimensional space using a network embeddings algorithm;
It is configured to include a basic classifier generator that generates a basic classifier composed of feature vectors mapped to a low-dimensional space in the first network embedding low-dimensional mapping unit,
The learning image addition module is,
a Gaussian noise adding unit that generates and adds a learning image by adding Gaussian noise to the facial image registered in the facial image registration module;
A Gaussian blur addition unit that generates and adds a learning image by adding Gaussian blur to the facial image registered in the facial image registration module;
a Gaussian noise and blur adding unit that generates and adds a learning image by adding Gaussian noise and Gaussian blur to the facial image registered in the facial image registration module;
It is configured to include an image compression unit that generates and adds a learning image by compressing and processing the facial image registered in the facial image registration module,
The blind facial image addition module,
a landmark detection unit that detects 68 landmarks for key parts of the face from the learning images and blind face images stored in the learning image database;
It is configured to include a specific area blind facial image generating unit that generates a blind facial image covering a predetermined area of the face based on the landmark detected by the landmark detection unit,
The classifier learning and addition module is,
A second CNN feature point extraction unit that extracts feature points on the learning image or blind face image from the learning image database, sorts faces based on the extracted feature points, and extracts 512 feature vectors from the aligned faces using a CNN algorithm. ;
a second network embedding low-dimensional mapping unit that maps the feature vectors extracted from the second CNN feature point extraction unit into a low-dimensional space using a network embeddings algorithm;
It is configured to include a synthesis and forgery classifier addition unit for adding a synthesis and forgery classifier for each user, consisting of feature vectors mapped to a low-dimensional space in the second network embedding low-dimensional mapping unit,
The facial recognition module is,
A facial recognition unit utilizing a basic classifier that recognizes the facial image received from the facial image receiving module using the basic classifier generated by the basic classifier generating unit;
It is configured to include a face recognition unit utilizing a synthesis and forgery classifier that distinguishes and recognizes synthesis and forgery of the facial image received from the facial image receiving module using the synthesis and forgery classifier added in the synthesis and forgery classifier addition unit,
The first network embedding low-dimensional mapping unit and the second network embedding low-dimensional mapping unit,
When the triplet loss is calculated using the network embedding algorithm, and the triplet loss is calculated as a negative number, the triplet loss calculated as a negative number is not treated as 0, but a predetermined value is added to the calculated triplet loss and recalculated. A digital synthetic face and digital fake face verification system, characterized in that it is configured to calculate.
삭제delete 삭제delete
KR1020200182915A 2020-12-24 2020-12-24 System of verifying digital synthesis/counterfeit face KR102612941B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200182915A KR102612941B1 (en) 2020-12-24 2020-12-24 System of verifying digital synthesis/counterfeit face

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200182915A KR102612941B1 (en) 2020-12-24 2020-12-24 System of verifying digital synthesis/counterfeit face

Publications (2)

Publication Number Publication Date
KR20220091821A KR20220091821A (en) 2022-07-01
KR102612941B1 true KR102612941B1 (en) 2023-12-12

Family

ID=82396899

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200182915A KR102612941B1 (en) 2020-12-24 2020-12-24 System of verifying digital synthesis/counterfeit face

Country Status (1)

Country Link
KR (1) KR102612941B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102078249B1 (en) * 2019-06-18 2020-02-17 주식회사 페이스테그 Method for face authentication, apparatus for face authentication and computer program for the same

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7308133B2 (en) 2001-09-28 2007-12-11 Koninklijke Philips Elecyronics N.V. System and method of face recognition using proportions of learned model
KR102462818B1 (en) * 2015-07-08 2022-11-04 주식회사 케이티 Method of motion vector and feature vector based fake face detection and apparatus for the same
DE112017001311T5 (en) 2016-03-17 2018-11-29 Avigilon Corporation System and method for training an object classifier by machine learning

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102078249B1 (en) * 2019-06-18 2020-02-17 주식회사 페이스테그 Method for face authentication, apparatus for face authentication and computer program for the same

Also Published As

Publication number Publication date
KR20220091821A (en) 2022-07-01

Similar Documents

Publication Publication Date Title
US6782120B2 (en) Method and system for generating a key record
Pss et al. RFID and pose invariant face verification based automated classroom attendance system
CN107844748A (en) Auth method, device, storage medium and computer equipment
US10403076B2 (en) Method for securing and verifying a document
US8655026B2 (en) Robust biometric feature extraction with and without reference point
Malathi An integrated approach of physical biometric authentication system
Kant et al. A watermarking based approach for protection of templates in multimodal biometric system
CN113646806A (en) Image processing apparatus, image processing method, and recording medium storing program
Zhang et al. Android-based multimodal biometric identification system using feature level fusion
KR102612941B1 (en) System of verifying digital synthesis/counterfeit face
KR102215535B1 (en) Partial face image based identity authentication method using neural network and system for the method
Hassan et al. Fusion of face and fingerprint for robust personal verification system
Singh et al. BioPay: a secure payment gateway through biometrics
Toygar et al. On the use of ear and profile faces for distinguishing identical twins and nontwins
Fooprateepsiri et al. A fast and accurate face authentication method using hamming-trace transform combination
Devi et al. A multimodal biometric system using partition based dwt and rank level fusion
Kartik et al. Noise robust multimodal biometric person authentication system using face, speech and signature features
Sinduja et al. Sheltered iris attestation by means of visual cryptography (sia-vc)
Harris et al. An Improved Signature Forgery Detection using Modified CNN in Siamese Network
Ferrer et al. Off-line signature verification using local patterns
Singh et al. Face and Palm Identification by the Sum-Rule and Fuzzy Fusion
Sharanabasappa et al. A Unique Document Security Technique using Face Biometric Template
Kiran et al. Offline signature verification using neural network
Tamgale et al. Application of deep convolutional neural network to prevent ATM fraud by facial disguise identification
Sharma Offline signature verification using surf feature extraction and neural networks approach

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant