KR20210049570A - Apparatus and method for detecting forgery or alteration of the face - Google Patents
Apparatus and method for detecting forgery or alteration of the face Download PDFInfo
- Publication number
- KR20210049570A KR20210049570A KR1020190134026A KR20190134026A KR20210049570A KR 20210049570 A KR20210049570 A KR 20210049570A KR 1020190134026 A KR1020190134026 A KR 1020190134026A KR 20190134026 A KR20190134026 A KR 20190134026A KR 20210049570 A KR20210049570 A KR 20210049570A
- Authority
- KR
- South Korea
- Prior art keywords
- feature
- image
- face
- difference
- neural network
- Prior art date
Links
Images
Classifications
-
- G06K9/00288—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G06K9/00268—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G06N3/0454—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
- Image Processing (AREA)
Abstract
Description
본원은 얼굴 위변조 검출 장치 및 방법에 관한 것이다. 특히, 본원은 듀얼 카메라를 이용한 얼굴 위변조 검출 장치 및 방법에 관한 것이다.The present application relates to a face forgery detection apparatus and method. In particular, the present application relates to a face forgery detection apparatus and method using a dual camera.
최근 지능형 범죄가 늘면서 첨단 보안 기술에 대한 요구가 점점 늘어가고 있다. 각 사람에 내재하는 고유한 생체 특성을 이용하여 사람을 판별하는 생체인식 기술은 사용자 편의성 이라는 측면에서 그 중요성이 점차로 증가하고 있다.With the recent increase in intelligent crime, the demand for advanced security technology is increasing. Biometric recognition technology that identifies a person using unique biometric characteristics inherent in each person is gradually increasing in importance in terms of user convenience.
그 중에서도 얼굴인식은 특정 센서에 접촉하지 않고 자연스럽게 얼굴을 기반으로 사람을 인식하기 때문에 가장 매력적인 기술 중 하나이다. 얼굴 인식은 얼굴 검출, 자세 추정, 조명 처리, 얼굴 특징 추출 기술의 발전과 함께 그 성능이 향상되면서 점차적으로 그 사용이 확대되고 있다.Among them, face recognition is one of the most attractive technologies because it naturally recognizes people based on their faces without contacting a specific sensor. Face recognition is gradually expanding its use as its performance improves with the development of face detection, posture estimation, lighting processing, and facial feature extraction technologies.
이러한 얼굴 인식 기술은 2차원 영상을 기반으로 하는 인식 기술과 3차원 형상을 기반으로 하는 기술로 분류된다. 3차원 형상을 기반으로 하는 인식 기술은 많은 연산량을 필요로 하기 때문에 2차원 영상을 기반으로 하는 얼굴 인식 시스템이 현재 널리 사용되고 있다.Such face recognition technology is classified into a recognition technology based on a 2D image and a technology based on a 3D shape. Since a recognition technology based on a 3D shape requires a large amount of computation, a face recognition system based on a 2D image is currently widely used.
한편, 2차원 영상을 기반으로 하는 얼굴 인식 시스템은 등록된 대상의 얼굴 사진을 이용한 위장 공격에 취약한 단점이 있다. 이러한 문제점을 해결하기 위한 위조 검출(liveness detection)에 대한 연구가 꾸준히 연구되고 있다.Meanwhile, a face recognition system based on a 2D image has a disadvantage that is vulnerable to a camouflage attack using a face photograph of a registered target. In order to solve this problem, studies on liveness detection are constantly being studied.
종래기술 중 하나는 푸리에 스펙트럼을 분석하여 위조 얼굴을 검출하는 방법이다. 이는 실질 얼굴로부터 캡처한 영상은 사진으로부터 캡처한 영상에 비하여 많은 고주파 성분을 포함하고 있다는 점을 이용하였다. 하지만, 이러한 방법은 두 영상에서의 고주파 성분의 차이가 외부환경의 변화가 가져오는 영상에서의 고주파 성분의 차이보다 뚜렷하지 않기 때문에 성능이 안정적이지 못하다는 문제점이 있다.One of the prior art is a method of detecting a fake face by analyzing a Fourier spectrum. This takes advantage of the fact that the image captured from the real face contains more high-frequency components than the image captured from the photograph. However, this method has a problem in that the performance is not stable because the difference between the high frequency components in the two images is less pronounced than the difference between the high frequency components in the image caused by changes in the external environment.
또한, 기존 연구들은 대부분 한 대의 카메라로부터 획득한 영상을 이용해 실제 얼굴과 위변조된 얼굴을 판별하며, 특히, 얼굴 영상의 화질, 질감(Texture) 패턴 등의 특징을 이용하여 실제 얼굴과 위변조된 얼굴의 미묘한 차이를 검출하는 연구가 활발히 진행되어 왔다.In addition, most of the existing studies identify real faces and forged faces using images acquired from a single camera. In particular, using features such as the quality of the face image and texture pattern, the actual faces and forged faces are identified. Research to detect subtle differences has been actively conducted.
최근에는 영상 인식 분야에서 심층신경망의 성공에 힘입어 이를 위변조 여부 검출에 적용하는 시도가 늘고 있으나, 현재까지 공지된 종래의 위변조 검출 기술들은, 종이로 출력된 마스크의 변형이나 고해상도 화면(이미지)을 이용한 위변조 공격에 여전히 취약하다는 단점이 있다.In recent years, thanks to the success of the deep neural network in the field of image recognition, attempts to apply it to the detection of forgery or alteration are increasing, but the conventional forgery detection techniques known to date include deformation of a mask output on paper or a high-resolution screen (image). The disadvantage is that it is still vulnerable to the forgery and alteration attacks used.
본원의 배경이 되는 기술은 한국등록특허공보 제10-1064945호에 개시되어 있다.The technology behind the present application is disclosed in Korean Patent Publication No. 10-1064945.
본원은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 종이로 출력된 마스크의 변형이나 고해상도 화면(이미지)을 이용한 위변조 공격에도 강인한 위변조 검출 성능을 갖는 얼굴 위변조 검출 장치 및 방법을 제공하려는 것을 목적으로 한다.The present application is to solve the problems of the prior art described above, the purpose of which is to provide a face forgery detection apparatus and method having a robust forgery detection performance against a forgery attack using a mask output on paper or a high-resolution screen (image). do.
다만, 본원의 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.However, the technical problem to be achieved by the embodiment of the present application is not limited to the technical problems as described above, and other technical problems may exist.
상기한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본원의 일 실시예에 따른 얼굴 위변조 검출 방법은, (a) 듀얼 카메라를 통해 대상체의 얼굴 부위에 대한 촬영 영상을 획득하는 단계; (b) 상기 촬영 영상을 이용하여 상기 촬영 영상 내 얼굴 영역과 관련된 압축 특징을 추출하는 단계; (c) 상기 촬영 영상을 이용하여 잠재 특징 차이(Difference of Latent Features)를 추출하는 단계; 및 (d) 상기 압축 특징과 상기 잠재 특징 차이를 이용하여 상기 촬영 영상 내 상기 얼굴 영역에 대한 위변조 여부를 검출하는 단계를 포함할 수 있다.As a technical means for achieving the above technical problem, a method for detecting forgery and alteration of a face according to an embodiment of the present application includes: (a) obtaining a photographed image of a face portion of an object through a dual camera; (b) extracting a compression feature related to a face region in the captured image by using the captured image; (c) extracting a difference of latent features using the captured image; And (d) detecting whether the face region in the photographed image has been forged or altered by using the difference between the compressed feature and the latent feature.
또한, 상기 (a) 단계에서 상기 촬영 영상은 제1 시점 영상 및 제2 시점 영상을 포함하고, 상기 (b) 단계는, 상기 제1 시점 영상과 제2 시점 영상을 제1 신경망의 입력으로 제공하여, 상기 제1 신경망으로부터 상기 제1 시점 영상에 대응하는 제1 시점 압축 특징과 상기 제2 시점 영상에 대응하는 제2 시점 압축 특징을 포함하는 상기 압축 특징을 추출할 수 있다.In addition, the captured image in step (a) includes a first viewpoint image and a second viewpoint image, and in step (b), the first viewpoint image and the second viewpoint image are provided as inputs of the first neural network. Thus, the compression feature including a first view compression feature corresponding to the first view image and a second view compression feature corresponding to the second view image may be extracted from the first neural network.
또한, 상기 (c) 단계는, 상기 제1 시점 영상과 상기 제2 시점 영상을 이용하여 상기 제1 시점 영상과 상기 제2 시점 영상 간의 잠재 특징 차이를 추출할 수 있다.In addition, in step (c), a potential feature difference between the first viewpoint image and the second viewpoint image may be extracted by using the first viewpoint image and the second viewpoint image.
또한, 상기 (c) 단계에서 상기 잠재 특징 차이는, 상기 제1 시점 영상의 특징과 상기 제2 시점 영상의 특징이 상기 제1 신경망 내에서 압축되는 과정에서 발생하는 제1 시점 영상의 특징과 상기 제2 시점 영상의 특징 간의 차이인 차이 특징을 제2 신경망에 통과시킴으로써 획득될 수 있다.In addition, in the step (c), the difference in the latent feature is the feature of the first view image and the feature of the first view image generated when the feature of the first view image and the feature of the second view image are compressed in the first neural network. It can be obtained by passing a difference feature, which is a difference between features of the second view image, through the second neural network.
또한, 상기 (d) 단계는, 상기 제1 시점 압축 특징, 상기 제2 시점 압축 특징 및 상기 잠재 특징 차이를 이용하여 상기 촬영 영상에 대한 점수를 산출하고, 상기 산출된 점수를 기반으로 상기 촬영 영상 내 상기 얼굴 영역에 대한 위변조 여부를 검출할 수 있다.In addition, in the step (d), a score for the captured image is calculated by using the first view compression feature, the second view compression feature, and the latent feature difference, and the captured image is based on the calculated score. It is possible to detect whether or not the face area is forged or altered.
또한, 상기 (d) 단계는, 상기 제1 시점 압축 특징, 상기 제2 시점 압축 특징 및 상기 잠재 특징 차이를 결합하여 통합 결합 특징을 생성하고, 상기 생성된 통합 결합 특징을 이용하여 산출된 통합 결합 특징 관련 점수를 기반으로 상기 위변조 여부를 검출할 수 있다.In addition, in the step (d), the first view compression feature, the second view compression feature, and the latent feature difference are combined to generate an integrated combination feature, and the integrated combination calculated using the generated integrated combination feature. The forgery or alteration may be detected based on the feature-related score.
또한, 상기 (d) 단계는, 상기 제1 시점 압축 특징과 상기 제2 시점 압축 특징을 결합한 결합 특징을 이용하여 결합 특징 관련 제1 점수를 산출하고, 상기 잠재 특징 차이를 이용하여 잠재 특징 차이 관련 제2 점수를 산출하며, 상기 제1 점수와 상기 제2 점수를 합산한 합산 점수를 기반으로 상기 위변조 여부를 검출할 수 있다.In addition, in the step (d), a first score related to a combined feature is calculated using a combined feature obtained by combining the first view compression feature and the second view compression feature, and the potential feature difference is related using the latent feature difference. A second score may be calculated, and the forgery or alteration may be detected based on a sum score obtained by adding the first score and the second score.
또한, 상기 (d) 단계에서 상기 합산 점수는, 상기 제1 점수와 상기 제2 점수를 평균한 점수일 수 있다.In addition, the summed score in step (d) may be a score obtained by an average of the first score and the second score.
한편, 본원의 일 실시예에 따른 얼굴 위변조 검출 장치는, 듀얼 카메라를 통해 대상체의 얼굴 부위에 대한 촬영 영상을 획득하는 획득부; 상기 촬영 영상을 이용하여 상기 촬영 영상 내 얼굴 영역과 관련된 압축 특징을 추출하는 제1 추출부; 상기 촬영 영상을 이용하여 잠재 특징 차이(Difference of Latent Features)를 추출하는 제2 추출부; 및 상기 압축 특징과 상기 잠재 특징 차이를 이용하여 상기 촬영 영상 내 상기 얼굴 영역에 대한 위변조 여부를 검출하는 검출부를 포함할 수 있다.Meanwhile, an apparatus for detecting face forgery and alteration according to an exemplary embodiment of the present disclosure includes: an acquisition unit for obtaining a photographed image of a face portion of an object through a dual camera; A first extracting unit for extracting a compression feature related to a face region in the captured image by using the captured image; A second extraction unit for extracting a difference of latent features using the captured image; And a detection unit that detects whether or not the face region in the photographed image is forged or altered by using the difference between the compressed feature and the latent feature.
또한, 상기 촬영 영상은 제1 시점 영상 및 제2 시점 영상을 포함하고, 상기 제1 추출부는, 상기 제1 시점 영상과 제2 시점 영상을 제1 신경망의 입력으로 제공하여, 상기 제1 신경망으로부터 상기 제1 시점 영상에 대응하는 제1 시점 압축 특징과 상기 제2 시점 영상에 대응하는 제2 시점 압축 특징을 포함하는 상기 압축 특징을 추출할 수 있다.In addition, the captured image includes a first viewpoint image and a second viewpoint image, and the first extraction unit provides the first viewpoint image and the second viewpoint image as inputs of the first neural network, and The compression feature including a first view compression feature corresponding to the first view image and a second view compression feature corresponding to the second view image may be extracted.
또한, 상기 제2 추출부는, 상기 제1 시점 영상과 상기 제2 시점 영상을 이용하여 상기 제1 시점 영상과 상기 제2 시점 영상 간의 잠재 특징 차이를 추출할 수 있다.In addition, the second extraction unit may extract a potential feature difference between the first viewpoint image and the second viewpoint image by using the first viewpoint image and the second viewpoint image.
또한, 상기 잠재 특징 차이는, 상기 제1 시점 영상의 특징과 상기 제2 시점 영상의 특징이 상기 제1 신경망 내에서 압축되는 과정에서 발생하는 제1 시점 영상의 특징과 상기 제2 시점 영상의 특징 간의 차이인 차이 특징을 제2 신경망에 통과시킴으로써 획득될 수 있다.In addition, the latent feature difference is a feature of a first view image and a feature of the second view image occurring in a process in which the feature of the first view image and the feature of the second view image are compressed in the first neural network. It can be obtained by passing the difference feature, which is the difference between the two, through the second neural network.
또한, 상기 검출부는, 상기 제1 시점 특징, 상기 제2 시점 특징 및 상기 잠재 특징 차이를 이용하여 상기 촬영 영상에 대한 점수를 산출하고, 상기 산출된 점수를 기반으로 상기 촬영 영상 내 상기 얼굴 영역에 대한 위변조 여부를 검출할 수 있다.In addition, the detection unit calculates a score for the captured image by using the first viewpoint feature, the second viewpoint feature, and the latent feature difference, and based on the calculated score, the face region in the photographed image is It is possible to detect whether or not forgery or alteration has occurred.
또한, 상기 검출부는, 상기 제1 시점 압축 특징, 상기 제2 시점 압축 특징 및 상기 잠재 특징 차이를 결합하여 통합 결합 특징을 생성하고, 상기 생성된 통합 결합 특징을 이용하여 산출된 통합 결합 특징 관련 점수를 기반으로 상기 위변조 여부를 검출할 수 있다.In addition, the detection unit generates an integrated combination feature by combining the first view compression feature, the second view compression feature, and the latent feature difference, and an integrated combination feature related score calculated using the generated integrated combination feature. It is possible to detect whether the forgery or alteration is based on.
또한, 상기 검출부는, 상기 제1 시점 압축 특징과 상기 제2 시점 압축 특징을 결합한 결합 특징을 이용하여 결합 특징 관련 제1 점수를 산출하고, 상기 잠재 특징 차이를 이용하여 잠재 특징 차이 관련 제2 점수를 산출하며, 상기 제1 점수와 상기 제2 점수를 합산한 합산 점수를 기반으로 상기 위변조 여부를 검출할 수 있다.In addition, the detection unit calculates a first score related to a combined feature by using a combined feature obtained by combining the first view compression feature and the second view compression feature, and uses the latent feature difference to calculate a second score related to the potential feature difference. Is calculated, and the forgery or alteration may be detected based on a sum score obtained by adding the first score and the second score.
또한, 상기 합산 점수는, 상기 제1 점수와 상기 제2 점수를 평균한 점수일 수 있다.In addition, the summed score may be a score obtained by an average of the first score and the second score.
상술한 과제 해결 수단은 단지 예시적인 것으로서, 본원을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 추가적인 실시예가 존재할 수 있다.The above-described problem solving means are merely exemplary and should not be construed as limiting the present application. In addition to the above-described exemplary embodiments, additional embodiments may exist in the drawings and detailed description of the invention.
전술한 본원의 과제 해결 수단에 의하면, 듀얼 카메라를 통해 획득된 제1 시점 영상과 제2 시점 영상을 이용하는 얼굴 위변조 검출 장치를 제공함으로써, 종이로 출력된 마스크의 변형이나 고해상도 화면(이미지)을 이용한 위변조 공격에도 강인한 특성을 보이는, 고성능의 얼굴 위변조 검출을 수행할 수 있다.According to the above-described problem solving means of the present application, by providing a face forgery detection device using a first viewpoint image and a second viewpoint image acquired through a dual camera, deformation of a mask output on paper or a high-resolution screen (image) is used. It can perform high-performance face forgery detection, which shows robust characteristics even in forgery attacks.
전술한 본원의 과제 해결 수단에 의하면, 제1 시점 영상과 제2 시점 영상 간의 차이인 잠재 특징 차이를 이용하는 얼굴 위변조 검출 장치를 제공함으로써, 3차원 구조에 의한 차이점을 내재적으로 학습하는 것이 가능하고, 이를 통해 얼굴 위변조 여부를 효과적으로 검출할 수 있다.According to the above-described problem solving means of the present application, by providing a face forgery detection apparatus using a latent feature difference that is a difference between a first viewpoint image and a second viewpoint image, it is possible to implicitly learn the difference due to a three-dimensional structure, Through this, it is possible to effectively detect whether the face has been forged or altered.
다만, 본원에서 얻을 수 있는 효과는 상기된 바와 같은 효과들로 한정되지 않으며, 또 다른 효과들이 존재할 수 있다.However, the effect obtainable in the present application is not limited to the above-described effects, and other effects may exist.
도 1은 본원의 일 실시예에 따른 얼굴 위변조 검출 장치의 개략적인 구성을 나타낸 도면이다.
도 2는 본원의 일 실시예에 따른 얼굴 위변조 검출 장치에 포함된 제1 신경망과 제2 신경망을 개략적으로 나타낸 도면이다.
도 3은 본원의 일 실시예에 따른 얼굴 위변조 검출 장치의 검출부가 위변조 여부를 검출하는 제1 방식을 설명하기 위한 도면이다.
도 4는 본원의 일 실시예에 따른 얼굴 위변조 검출 장치의 검출부가 위변조 여부를 검출하는 제2 방식을 설명하기 위한 도면이다.
도 5는 본원의 일 실시예에 따른 얼굴 위변조 검출 장치에서 촬영 영상 내 얼굴 영역을 식별하는 경우를 설명하기 위한 도면이다.
도 6은 본원의 일 실시예에 따른 얼굴 위변조 검출 장치의 성능 평가 결과를 나타낸 도면이다.
도 7은 본원의 일 실시예에 따른 얼굴 위변조 검출 방법의 동작 흐름도이다.1 is a view showing a schematic configuration of a face forgery detection apparatus according to an embodiment of the present application.
FIG. 2 is a diagram schematically illustrating a first neural network and a second neural network included in a face forgery detection apparatus according to an embodiment of the present application.
3 is a diagram for explaining a first method in which a detection unit of a face forgery detection apparatus according to an exemplary embodiment of the present disclosure detects whether there is forgery or alteration.
4 is a diagram for explaining a second method in which a detection unit of a face forgery detection apparatus according to an exemplary embodiment of the present disclosure detects whether or not forgery has been altered.
FIG. 5 is a diagram for describing a case of identifying a face region in a captured image by a face forgery detection apparatus according to an exemplary embodiment of the present disclosure.
6 is a diagram showing a performance evaluation result of a face forgery detection apparatus according to an embodiment of the present application.
7 is a flowchart illustrating an operation of a method for detecting forgery and alteration of a face according to an exemplary embodiment of the present application.
아래에서는 첨부한 도면을 참조하여 본원이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본원의 실시예를 상세히 설명한다. 그러나 본원은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본원을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present application will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art may easily implement the present application. However, the present application may be implemented in various different forms and is not limited to the embodiments described herein. In addition, in the drawings, parts irrelevant to the description are omitted in order to clearly describe the present application, and similar reference numerals are attached to similar parts throughout the specification.
본원 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결" 또는 "간접적으로 연결"되어 있는 경우도 포함한다. Throughout the present specification, when a part is said to be "connected" with another part, it is not only the case that it is "directly connected", but also "electrically connected" or "indirectly connected" with another element interposed therebetween. "Including the case.
본원 명세서 전체에서, 어떤 부재가 다른 부재 "상에", "상부에", "상단에", "하에", "하부에", "하단에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.Throughout the present specification, when a member is positioned "on", "upper", "upper", "under", "lower", and "lower" of another member, this means that a member is located on another member. This includes not only the case where they are in contact but also the case where another member exists between the two members.
본원 명세서 전체에서, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.In the entire specification of the present application, when a certain part "includes" a certain component, it means that other components may be further included rather than excluding other components unless specifically stated to the contrary.
도 1은 본원의 일 실시예에 따른 얼굴 위변조 검출 장치(100)의 개략적인 구성을 나타낸 도면이다. 도 2는 본원의 일 실시예에 따른 얼굴 위변조 검출 장치(100)에 포함된 제1 신경망(20)과 제2 신경망(30)을 개략적으로 나타낸 도면이다. 도 3은 본원의 일 실시예에 따른 얼굴 위변조 검출 장치(100)의 검출부(140)가 위변조 여부를 검출하는 제1 방식을 설명하기 위한 도면이다. 도 4는 본원의 일 실시예에 따른 얼굴 위변조 검출 장치(100)의 검출부(140)가 위변조 여부를 검출하는 제2 방식을 설명하기 위한 도면이다. 도 5는 본원의 일 실시예에 따른 얼굴 위변조 검출 장치(100)에서 촬영 영상(10) 내 얼굴 영역을 식별하는 경우를 설명하기 위한 도면이다.1 is a view showing a schematic configuration of a face
이하에서는 본원의 일 실시예에 따른 얼굴 위변조 검출 장치(100)를 설명의 편의상 본 장치(100)라 하기로 한다. Hereinafter, the face
도 1 내지 도 5를 참조하면, 본 장치(100)는 획득부(110), 제1 추출부(120), 제2 추출부(130) 및 검출부(140)를 포함할 수 있다. 본 장치(100)는 입력된 영상에 포함된 대상체(사람)의 얼굴이 실제 얼굴인지 혹은 거짓 얼굴(위변조된 가짜 얼굴)인지를 검출할 수 있는 얼굴 위변조 여부를 검출하는 장치일 수 있다.1 to 5, the
획득부(110)는 듀얼 카메라(1)를 통해 대상체의 얼굴 부위에 대한 촬영 영상(10)을 획득할 수 있다. 촬영 영상(10)은 제1 시점 영상(11) 및 제2 시점 영상(12)을 포함할 수 있다. 획득부(110)가 획득하는 영상은, 듀얼 카메라(1)를 이용해 획득된 영상임에 따라, 2개의 영상(11, 12)이 포함될 수 있다.The
듀얼 카메라(1)는 스테레오 카메라 등으로 달리 표현될 수 있다. 듀얼 카메라(1)는 듀얼 카메라(1) 하면과 수평이 되는 수평방향에 대하여, 소정의 간격(미리 설정된 간격)을 두고 이격되어 배치되는 2개의 센서를 포함할 수 있다. 여기서, 센서는 이미지 센서라 달리 표현될 수 있다. 2개의 센서 간의 거리는 제조된 듀얼 카메라(1)의 기종 마다 차이가 있을 수 있다. 예시적으로, 2개의 센서 간의 거리는 12cm 일 수 있으나, 이에만 한정되는 것은 아니고, 그 수치는 다양하게 적용될 수 있다.The
제1 시점 영상(11)은 2개의 센서 중 어느 하나의 센서를 통해 획득(촬영)된 영상일 수 있다. 제2 시점 영상(12)은 2개의 센서 중 다른 어느 하나의 센서(즉, 제1 시점 영상을 획득하는 센서를 제외한 나머지 센서)를 이용하여 획득(촬영)된 영상일 수 있다.The
일예로, 제1 시점 영상(11)은 좌측(Left) 영상이고, 제2 시점 영상(12)은 우측(Rigth) 영상일 수 있으나, 이에 한정되는 것은 아니다. 다른 일예로, 제1 시점 영상(11)이 우측 영상이고, 제2 시점 영상(12)이 좌측 영상일 수 있다.As an example, the
이하에서는 제1 시점 영상(11)이 좌측 영상이고, 제2 시점 영상(12)이 우측 영상인 것으로 예시하기로 한다. 이에 따르면, 듀얼 카메라(1) 내 2개의 센서 중 어느 하나의 센서는 좌측 센서이고, 다른 어느 하나의 센서는 우측 센서일 수 있다.Hereinafter, the
제1 추출부(120)는 획득부(110)에서 획득된 촬영 영상(10)을 이용하여 촬영 영상(10) 내 얼굴 영역과 관련된 압축 특징(40)을 추출할 수 있다. 이때, 압축 특징(40)은 촬영 영상(10)에 대하여 전처리가 이루어진 전처리된 촬영 영상(10)과 관련된 압축 특징일 수 있다.The first extracting
압축 특징(40)은 제1 시점 영상(11)과 관련된 압축 특징인 제1 시점 압축 특징(41) 및 제2 시점 영상(12)과 관련된 압축 특징인 제2 시점 압축 특징(42)을 포함할 수 있다. 이때, 제1 시점 압축 특징(41)은 제1 시점 영상(11)에 대하여 전처리가 이루어진 전처리된 제1 시점 영상(11')과 관련된 압축 특징일 수 있다. 또한, 제2 시점 압축 특징(42)은 제2 시점 영상(12)에 대하여 전처리가 이루어진 전처리된 제2 시점 영상(12')과 관련된 압축 특징일 수 있다. 전처리 관련 설명은 도 5를 참조하여 보다 쉽게 이해될 수 있다.The
도 5를 참조하면, 획득부(110)는 듀얼 카메라(1)를 통해 제1 시점 영상(11)과 제2 시점 영상(12)을 포함하는 촬영 영상(10)을 획득할 수 있다. 이후, 제1 추출부(120)는 획득부(110)로부터 촬영 영상(10)(11, 12)을 전달받을 수 있는데, 이때, 제1 추출부(120)가 획득부(110)로부터 전달받는 촬영 영상(10)(11, 12)은 전처리가 이루어진 전처리된 촬영 영상(10')(11', 12')일 수 있다. 이를 위해, 도면에 도시하지는 않았으나, 본 장치(100)는 전처리부(미도시)를 포함할 수 있다.Referring to FIG. 5, the
전처리부(미도시)는 듀얼 카메라(1)를 통해 획득된 촬영 영상(10)(11, 12) 내 대상체의 얼굴 부위에 대하여 전처리를 수행할 수 있다. 특히, 전처리부(미도시)는 제1 시점 영상(11) 내 대상체의 얼굴 부위(s1)에 대하여 전처리를 수행할 수 있다. 또한, 전처리부(미도시)는 제2 시점 영상(12) 내 대상체의 얼굴 부위(s2)에 대하여 전처리를 수행할 수 있다.The preprocessor (not shown) may perform preprocessing on the face of the object in the captured images 10 (11, 12) acquired through the
전처리부(미도시)는 듀얼 카메라(1)로부터 획득된 촬영 영상(10)(11, 12) 내에서, 대상체의 얼굴이 포함된 얼굴 영역(s1, s2)을 식별하고, 식별된 얼굴 영역(s1 ,s2)의 크기를 정규화하는 전처리를 수행할 수 있다.The preprocessor (not shown) identifies the face regions s1 and s2 including the face of the object within the captured images 10 (11, 12) acquired from the
촬영 영상(10)에 대한 전처리를 통해, 식별된 얼굴 영역만 포함되는 전처리된 촬영 영상(10')이 획득될 수 있다. 제1 시점 영상(11)에 대한 전처리를 통해, 식별된 얼굴 영역(s1)만 포함되는 전처리된 제1 시점 영상(11')이 획득될 수 있다. 제2 시점 영상(12)에 대한 전처리를 통해, 식별된 얼굴 영역(s2)만 포함되는 전처리된 제2 시점 영상(12')이 획득될 수 있다.Through the pre-processing of the captured
이때, 정규화는 예시적으로 128 × 128 픽셀 크기로 재조정되는 정규화가 이루어 질 수 있다. 다만 이에만 한정되는 것은 아니고, 그 수치는 다양하게 적용될 수 있다. 달리 표현해, 정규화하는 전처리가 이루어진 전처리된 제1 시점 영상(11')과 전처리된 제2 시점 영상(12')의 크기는 일예로 128 × 128의 픽셀 크기를 가질 수 있다.In this case, the normalization may be, for example, normalization that is readjusted to a size of 128 × 128 pixels. However, it is not limited to this, and the number can be applied in various ways. In other words, the size of the preprocessed
전처리된 제1 시점 영상(11')과 전처리된 제2 시점 영상(12')은 제1 추출부(120)로 전달될 수 있다.The preprocessed
제1 추출부(120)는 제1 시점 영상(11)과 제2 시점 영상(12)을 제1 신경망(20)의 입력으로 제공하여, 제1 신경망(20)으로부터 제1 시점 영상(11)에 대응하는 제1 시점 압축 특징(41)과 제2 시점 영상(12)에 대응하는 제2 시점 압축 특징(41)을 포함하는 압축 특징(40)을 추출할 수 있다. 이러한 제1 시점 압축 특징(41) 및 제2 시점 압축 특징(42)은 제1 신경망(20)의 출력(출력 값, 출력 결과물)일 수 있다.The
특히나, 제1 추출부(120)는 획득부(110)로부터 전처리된 촬영 영상(10')으로서 전처리된 제1 시점 영상(11')과 전처리된 제2 시점 영상(12')을 전달받을 수 있다. 이후, 제1 추출부(120)는 전처리된 제1 시점 영상(11')과 전처리된 제2 시점 영상(12')을 제1 신경망(20)의 입력으로 제공할 수 있다. 달리 표현해, 제1 신경망(20)에 입력되는 영상은 전처리된 촬영 영상(10'), 즉 전처리된 제1 시점 영상(11')과 전처리된 제2 시점 영상(12')일 수 있다.In particular, the
이에 따르면, 제1 추출부(120)는 제1 신경망(20)으로부터 전처리된 제1 시점 영상(11')에 대응하는 제1 시점 압축 특징(41)과 전처리된 제2 시점 영상(12')에 대응하는 제2 시점 압축 특징(41)을 포함하는 압축 특징(40)을 추출할 수 있다.Accordingly, the
제1 신경망(20)은 딥러닝 모델, 인공지능(AI) 알고리즘 모델, 기계학습(머신러닝) 모델, 신경망 모델(인공 신경망 모델), 심층신경망(Deep Neural Network) 모델, 뉴로 퍼지 모델 등을 의미할 수 있다. 제1 신경망(20)은 예시적으로 컨볼루션 신경망(Convolution Neural Network, CNN, 합성곱 신경망)일 수 있다. 다만, 이에만 한정되는 것은 아니고, 제1 신경망(20)은 종래에 공지되었거나 향후 개발되는 다양한 신경망이 적용될 수 있다.The first
제1 신경망(20)은 제1 서브 신경망(21) 및 제2 서브 신경망(22)을 포함할 수 있다. 제1 서브 신경망(21)은 제1 레이어들(21a, 21b, 21c, …, 21x)을 포함하고, 제2 서브 신경망(22)은 제2 레이어들(22a, 22b, 22c, …, 22x)을 포함할 수 있다.The first
제1 레이어들(21a, 21b, 21c, …, 21x) 각각 및 제2 레이어들(22a, 22b, 22c, …, 22x) 각각은 합성곱 레이어(합성곱 계층, CONV)을 의미할 수 있다.Each of the
전처리된 제1 시점 영상(11')이 제1 신경망(20)에 입력된 경우, 전처리된 제1 시점 영상(11')의 특징(특징들)은 제1 신경망(20) 내 제1 레이어들(21a, 21b, 21c, …, 21x)을 통과함에 따라 점차 압축(즉, 점차 특징들이 압축)될 수 있으며, 이에 따라 제1 시점 압축 특징(41)이 제1 신경망(20)으로부터 출력될 수 있다.When the preprocessed
구체적으로, 제1 레이어들(21a, 21b, 21c, …, 21x) 중 제1 레이어(21a)는 전처리된 제1 시점 영상(11')을 입력으로 하여, 전처리된 제1 시점 영상(11')의 특징이 제1 레이어(21a)에 의해 한번(1회) 압축된 1차 제1 압축된 특징(11a)을 출력할 수 있다. 즉, 제1 레이어(21a)에 의해 1차 특징 압축 과정이 이루어짐에 따라, 1차 제1 압축된 특징(11a)이 출력될 수 있다. Specifically, among the
또한, 제1 레이어(21a) 다음에 위치하는 제2 레이어(21b)는 1차 제1 압축된 특징(11a)을 입력으로 하여, 전처리된 제1 시점 영상(11')의 특징이 제1 레이어(21a)와 제2 레이어(21b)에 의해 두번(2회) 압축된 2차 제1 압축된 특징(11b)을 출력할 수 있다. 즉, 제2 레이어(21b)에 의해 2차 특징 압축 과정이 이루어짐에 따라, 2차 제1 압축된 특징(11b)이 출력될 수 있다.In addition, the
이처럼, 전처리된 제1 시점 영상(11') 내지 그에 관한 특징은 제1 신경망(20) 내 제1 레이어들(21a, 21b, 21c, …, 21x)을 통과함에 따라(거침에 따라) 특징 압축 과정이 이루어져 점차 압축될 수 있으며, 이를 통해 제1 시점 압축 특징(41)이 출력될 수 있다. 제1 시점 압축 특징(41)은 전처리된 제1 시점 영상(11')이 제1 신경망(20) 중 특히 제1 레이어들(21a, 21b, 21c, …, 21x)을 통과함으로써 생성된 출력 결과물로서, 전처리된 제1 시점 영상(11')에 관한 압축 특징(압축된 특징)을 의미할 수 있다.As described above, the preprocessed
전처리된 제2 시점 영상(12')이 제1 신경망(20)에 입력된 경우, 전처리된 제2 시점 영상(12')의 특징(특징들)은 제2 신경망(30) 내 제2 레이어들(22a, 22b, 22c, …, 22x)을 통과함에 따라 점차 압축(즉, 점차 특징들이 압축)될 수 있으며, 이에 따라 제2 시점 압축 특징(42)이 제2 신경망(30)으로부터 출력될 수 있다.When the preprocessed second view image 12' is input to the first
구체적으로, 제2 레이어들(22a, 22b, 22c, …, 22x) 중 제1 레이어(22a)는 전처리된 제2 시점 영상(12')을 입력으로 하여, 전처리된 제2 시점 영상(12')의 특징이 제1 레이어(22a)에 의해 한번(1회) 압축된 1차 제2 압축된 특징(12a)을 출력할 수 있다. 즉, 제1 레이어(22a)에 의해 1차 특징 압축 과정이 이루어짐에 따라, 1차 제2 압축된 특징(12a)이 출력될 수 있다. Specifically, among the
또한, 제1 레이어(22a) 다음에 위치하는 제2 레이어(22b)는 1차 제2 압축된 특징(12a)을 입력으로 하여, 전처리된 제2 시점 영상(12')의 특징이 제1 레이어(22a)와 제2 레이어(22b)에 의해 두번(2회) 압축된 2차 제2 압축된 특징(12b)을 출력할 수 있다. 즉, 제2 레이어(22b)에 의해 2차 특징 압축 과정이 이루어짐에 따라, 2차 제2 압축된 특징(12b)이 출력될 수 있다.In addition, the
이처럼, 전처리된 제2 시점 영상(12') 내지 그에 관한 특징은 제1 신경망(20) 내 제2 레이어들(22a, 22b, 22c, …, 22x)을 통과함에 따라(거침에 따라) 특징 압축 과정이 이루어져 점차 압축될 수 있으며, 이를 통해 제2 시점 압축 특징(42)이 출력될 수 있다. 제2 시점 압축 특징(42)은 전처리된 제2 시점 영상(12')이 제1 신경망(20) 중 특히 제2 레이어들(22a, 22b, 22c, …, 22x)을 통과함으로써 생성된 출력 결과물로서, 전처리된 제2 시점 영상(12')에 관한 압축 특징(압축된 특징)을 의미할 수 있다.As described above, the preprocessed
다시 말해, 전처리부(미도시)는 획득부(110)가 듀얼 카메라(1)로부터 획득한 제1 시점 영상(11)과 제2 시점 영상(12) 각각에 대하여, 얼굴 영역을 식별하고 식별된 얼굴 영역의 크기를 정규화하는 전처리를 수행할 수 있다. 이후, 전처리부(미도시)는 전처리된 제1 시점 영상(11')과 전처리된 제2 시점 영상(12')을 제1 추출부(120)로 전달할 수 있다. 이후, 제1 추출부(120)는 전처리된 두 영상(11', 12') 각각으로부터 특징을 추출하기 위해, 전처리된 제1 시점 영상(11')의 경우 제1 신경망(20) 내 제1 서브 신경망(21)의 입력으로 제공하고, 전처리된 제2 시점 영상(12')의 경우 제1 신경망(20) 내 제2 서브 신경망(22)의 입력으로 제공할 수 있다. 이를 통해, 제1 추출부(120)는 제1 신경망(20)으로부터(제1 신경망의 출력을 통해) 전처리된 제1 시점 영상(11')에 대응하는 제1 시점 압축 특징(41) 및 전처리된 제2 시점 영상(12')에 대응하는 제2 시점 압축 특징(42)을 추출할 수 있다.In other words, the preprocessor (not shown) identifies the face region for each of the
제2 추출부(130)는 촬영 영상(10)을 이용하여 잠재 특징 차이(Difference of Latent Features)(50)를 추출할 수 있다.The
제2 추출부(130)는 제1 시점 영상(11)과 제2 시점 영상(12)을 이용하여 제1 시점 영상(11)과 제2 시점 영상(12) 간의 잠재 특징 차이(50)를 추출할 수 있다. 여기서, 잠재 특징 차이(50)의 산출시 고려되는 제1 시점 영상(11)과 제2 시점 영상(12)은 각각 전처리된 제1 시점 영상(11') 및 제2 시점 영상(12')일 수 있다. 달리 말해, 제2 추출부(130)는 전처리된 제1 시점 영상(11')과 전처리된 제2 시점 영상(12')을 이용하여 전처리된 제1 시점 영상(11')과 전처리된 제2 시점 영상(12') 간의 잠재 특징 차이(50)를 추출할 수 있다.The
잠재 특징 차이(50)는, 제1 시점 영상(11)의 특징과 제2 시점 영상(12)의 특징이 제1 신경망(20) 내에서 압축되는 과정(특징 압축 과정)에서 발생하는 제1 시점 영상(11)의 특징과 제2 시점 영상(12)의 특징 간의 차이인 차이 특징을 제2 신경망(30)에 통과시킴으로써 획득되는 것일 수 있다. 특히, 잠재 특징 차이(50)는, 전처리된 제1 시점 영상(11')의 특징과 전처리된 제2 시점 영상(12')의 특징이 제1 신경망(20) 내에서 압축되는 과정(특징 압축 과정)에서 발생하는 전처리된 제1 시점 영상(11')의 특징과 전처리된 제2 시점 영상(12')의 특징 간의 차이인 차이 특징을 제2 신경망(30)에 통과시킴으로써 획득되는 것일 수 있다. The
제2 추출부(130)는 잠재 특징 차이(50)를 추출하기 위해, 제1 신경망(20) 내 제1 서브 신경망(21)을 통해 출력되는 각 레이어별 압축된 특징들과 제1 신경망(20) 내 제2 서브 신경망(22)을 통해 출력되는 각 레이어별 압축된 특징들 간의 차이를 차이 특징으로서 각 레이어별로 산출할 수 있다. 이후, 제2 추출부(130)는 각 레이어별로 산출된 차이 특징을(차이 특징들을) 제2 신경망(30)으로 제공하고, 제2 신경망(30)의 출력으로부터 잠재 특징 차이(50)를 획득할 수 있다. 구체적인 설명은 다음과 같다. In order to extract the
앞서 말한 바와 같이, 전처리된 제1 시점 영상(11')이 제1 신경망(20) 내 제1 서브 신경망(21)의 제1 레이어들(21a, 21b, 21c, …, 21x)을 통과함에 따라, 전처리된 제1 시점 영상(11')의 특징은 점차 압축될 수 있다. 마찬가지로, 전처리된 제2 시점 영상(12')이 제1 신경망(20) 내 제2 서브 신경망(22)의 제2 레이어들(22a, 22b, 22c, …, 22x)을 통과함에 따라, 전처리된 제2 시점 영상(12')의 특징은 점차 압축될 수 있다.As mentioned above, as the preprocessed first view image 11' passes through the
이때, 제2 추출부(130)는 잠재 특징 차이(50)의 추출을 위해, 제1 서브 신경망(21) 내 제1 레이어(21a)의 출력인 1차 제1 압축된 특징(11a)과 제2 서브 신경망(22) 내 제1 레이어(22a)의 출력인 1차 제2 압축된 특징(12a) 간의 차이는 제1 차이 특징(13a)으로 산출할 수 있다. 또한, 제2 추출부(130)는 제1 서브 신경망(21) 내 제2 레이어(21b)의 출력인 2차 제1 압축된 특징(11b)과 제2 서브 신경망(22) 내 제2 레이어(22b)의 출력인 2차 제2 압축된 특징(12b) 간의 차이를 제2 차이 특징(13b)으로 산출할 수 있다. 이처럼, 제2 추출부(130)는 제1 서브 신경망(21) 내 레이어들 각각의 출력인 압축된 특징들(11a, 11b, …)과 제2 서브 신경망(22) 내 레이어들 각각의 출력인 압축된 특징들(12a, 12b, …) 간의 차이를, 차이 특징(13a, 13b, …)으로서 산출할 수 있다.In this case, the
제2 신경망(30)은 제1 서브 신경망(21) 내 레이어들의 수 혹은 제2 서브 신경망(22) 내 레이어들의 수에 대응하는 수의 레이어들(31a, 31b, 31c, …, 31x)을 포함할 수 있다. 이때, 산출된 제1 차이 특징(13a)은 제2 신경망(30) 내 제1 레이어(31a)로 제공될 수 있다. 또한, 산출된 제2 차이 특징(13b)은 제2 신경망(30) 내 제2 레이어(31b)로 제공될 수 있다.The second
제2 신경망(30)은 제1 신경망(20)과 마찬가지로 일예로 컨볼루션 신경망(CNN) 신경망 일 수 있으나, 이에 한정되는 것은 아니다.Like the first
제2 추출부(130)는 산출된 차이 특징(13a, 13b, …)을 제2 신경망(30)으로 제공할 수 있으며, 차이 특징(13a, 13b, …)을 제2 신경망(30)에 통과시킴으로써 잠재 특징 차이(50)를 산출할 수 있다.The
검출부(140)는 제1 추출부(120)에서 추출된 압축 특징(40)과 제2 추출부(130)에서 추출된 잠재 특징 차이(50)를 이용하여 촬영 영상(10) 내 식별된 대상체의 얼굴 영역(s1, s2)에 대한 위변조 여부를 검출할 수 있다.The
검출부(140)는 제1 추출부(120)에서 추출된 제1 시점 압축 특징(41), 제2 시점 압축 특징(42), 제2 추출부(130)에서 추출된 잠재 특징 차이(50)를 이용하여 촬영 영상(10)에 대한 점수를 산출할 수 있다. 이후, 검출부(140)는 산출된 점수를 기반으로 촬영 영상(10) 내 대상체의 얼굴 영역에 대한 위변조 여부를 검출할 수 있다.The
특히, 검출부(140)는 각 특징(41, 42, 50)을 이용하여 전처리된 촬영 영상(10') 내 얼굴 영역에 대한 위변조 가능성(혹은 실제 얼굴일 가능성)에 관한 점수를 산출할 수 있다. 검출부(140)는 산출된 점수에 기반하여 촬영 영상(10) 내 얼굴 영역(s1, s2)에 대한 위변조 여부를 검출할 수 있다.In particular, the
이때, 위변조 여부 검출을 위한 점수 산출 방식은 일예로 두가지 방법이 있을 수 있으며, 그 중 제1 방식은 도 3을 참조하고 제2 방식은 도 4를 참조하여 보다 쉽게 이해될 수 있다.In this case, there may be two methods of calculating a score for detecting whether or not forgery or alteration exists. Among them, the first method may be more easily understood with reference to FIG. 3 and the second method with reference to FIG. 4.
도 3을 참조하면, 검출부(140)에 의한 제1 점수 산출 방식(제1 방식)은 다음과 같다. 검출부(140)는 제1 시점 압축 특징(41), 제2 시점 압축 특징(42) 및 잠재 특징 차이(50)를 결합하여 통합 결합 특징(43)을 생성할 수 있다. 이후 검출부(140)는 생성된 통합 결합 특징(43)을 이용하여 산출된 통합 결합 특징 관련 점수(43s)를 기반으로 촬영 영상(10)(특히, 촬영 영상 내 얼굴 영역)에 대한 위변조 여부를 검출할 수 있다.Referring to FIG. 3, a method of calculating a first score by the detection unit 140 (a first method) is as follows. The
검출부(140)는 통합 결합 특징(43)을 제3 서브 신경망(61)의 입력으로 제공하고, 제3 서브 신경망(61)의 출력으로부터 통합 결합 특징 관련 점수(43s)를 산출할 수 있다.The
여기서, 통합 결합 특징 관련 점수(43s)의 산출시 이용되는 제3 서브 신경망(61)은 일예로 3개의 합성곱 레이어(conv)와 3개의 풀리 커넥티드 레이어(fully connected, FC, 완전 연결 계층)로 이루어진 신경망일 수 있다. 다만, 이에만 한정되는 것은 아니고, 제3 서브 신경망(61) 내 합성곱 레이어의 수와 풀리 커넥티드 레이어의 수는 다양하게 적용될 수 있다.Here, the third
또한, 통합 결합 특징(43)의 생성시 이용되는 잠재 특징 차이(50)는 제4 서브 신경망(62)을 통과함으로써 특징 압축이 이루어진 압축된 잠재 특징 차이(50')일 수 있다.In addition, the
제1 신경망(20)으로부터 출력된 압축 특징(40)(41, 42)과 제2 신경망(30)으로부터 출력된 잠재 특징 차이(50)는 서로 간에 차원이 다를 수 있다. 따라서, 두 신경망(20, 30)의 출력인 특징들 간의 차원을 서로 맞추기 위해, 검출부(140)는 제2 신경망(30)으로부터 출력되는 잠재 특징 차이(50)를 제4 서브 신경망(62)의 입력으로 제공할 수 있다. 이를 통해, 잠재 특징 차이(50)는 제4 서브 신경망(62)에 의하여 특징이 압축될 수 있으며, 제4 서브 신경망(62)으로부터 압축된 잠재 특징 차이(50')가 추출될 수 있다.The compressed features 40 (41, 42) output from the first
이때, 압축된 잠재 특징 차이(50')를 추출하기 위해 이용되는 제4 서브 신경망(62)은 일예로 3개의 합성곱 레이어(conv)로 이루어질 수 있으나, 이에 한정되는 것은 아니고, 해당 신경망을 이루는 레이어의 유형 및 수는 다양하게 적용될 수 있다.In this case, the fourth sub
검출부(140)는 차원이 동일해진 압축 특징(40)(41, 42)과 압축된 잠재 특징 차이(50)를 결합한 통합 결합 특징(43)을 이용하여 위변조 여부를 검출할 수 있다.The
검출부(140)는 산출된 통합 결합 특징 관련 점수(43s)가 미리 설정된 점수 이상인 경우, 촬영 영상(10) 내 얼굴 영역(s1, s2)이 위변조가 이루어지지 않을 것으로 판단할 수 있다. 즉, 검출부(140)는 통합 결합 특징 관련 점수(43s)가 미리 설정된 점수 이상인 경우, 촬영 영상(10) 내 얼굴 영역(s1, s2)이 위변조가 이루어지지 않은 대상체의 실제 얼굴(Real face)인 것으로 판단할 수 있다. 이러한 경우, 검출부(140)는 위변조 여부 결과(141)로서 실제 얼굴임을 출력할 수 있다.When the calculated integrated combined feature related
반면, 검출부(140)는 산출된 통합 결합 특징 관련 점수(43s)가 미리 설정된 점수 미만인 경우, 촬영 영상(10) 내 얼굴 영역(s1, s2)이 위변조가 이루어진 것으로 판단할 수 있다. 즉, 검출부(140)는 통합 결합 특징 관련 점수(43s)가 미리 설정된 점수 미만인 경우, 촬영 영상(10) 내 얼굴 영역(s1, s2)이 위변조가 이루어진 대상체의 거짓 얼굴(Fake face, 가짜 얼굴)인 것으로 판단할 수 있다. 이러한 경우, 검출부(140)는 위변조 여부 결과(141)로서 거짓 얼굴임을 출력할 수 있다.On the other hand, when the calculated integrated combined feature related
도 4를 참조하면, 검출부(140)에 의한 제2 점수 산출 방식(제2 방식)은 다음과 같다. 검출부(140)는 제1 시점 압축 특징(41)과 제2 시점 압축 특징(42)을 결합한 결합 특징(44)을 이용하여 결합 특징 관련 제1 점수(44s)를 산출할 수 있다. 또한, 검출부(140)는 잠재 특징 차이(50)를 이용하여 잠재 특징 차이 관련 제2 점수(50s)를 산출할 수 있다. 이후, 검출부(140)는 산출된 제1 점수(44s)와 산출된 제2 점수(50s)를 합산한 합산 점수(55s)를 기반으로, 촬영 영상(10)(특히, 촬영 영상 내 얼굴 영역)에 대한 위변조 여부를 검출할 수 있다.Referring to FIG. 4, a second score calculation method (second method) by the
이때, 합산 점수(55s)는 제1 점수(44s)와 제2 점수(50s)를 평균한 점수일 수 있다. 즉, 검출부(140)는 제1 점수(44s)와 제2 점수(50s)를 평균한 평균 점수(55s)를 기반으로 위변조 여부를 검출할 수 있다.In this case, the
검출부(140)는 결합 특징(44)을 제3 서브 신경망(61')의 입력으로 제공하고, 제3 서브 신경망(61')의 출력으로부터 결합 특징 관련 제1 점수(44s)를 산출할 수 있다.The
여기서, 제1 점수(44s)의 산출시 이용되는 제3 서브 신경망(61')은 일예로 2개의 합성곱 레이어(conv)와 3개의 풀리 커넥티드 레이어(fully connected, FC, 완전 연결 계층)로 이루어진 신경망일 수 있다. 다만, 이에만 한정되는 것은 아니고, 제3 서브 신경망(61') 내 합성곱 레이어의 수와 풀리 커넥티드 레이어의 수는 다양하게 적용될 수 있다.Here, the third sub-neural network 61' used when calculating the
또한, 검출부(140)는 잠재 특징 차이(50)를 제4 서브 신경망(62')의 입력으로 제공하고, 제4 서브 신경망(62')의 출력으로부터 잠재 특징 차이 관련 제2 점수(50s)를 산출할 수 있다.In addition, the
여기서, 2 점수(50s)의 산출시 이용되는 제4 서브 신경망(62')은 일예로 4개의 합성곱 레이어(conv)와 3개의 풀리 커넥티드 레이어(fully connected, FC, 완전 연결 계층)로 이루어진 신경망일 수 있다. 다만, 이에만 한정되는 것은 아니고, 제4 서브 신경망(62') 내 합성곱 레이어의 수와 풀리 커넥티드 레이어의 수는 다양하게 적용될 수 있다.Here, the fourth sub neural network 62' used when calculating 2 scores (50s) is composed of 4 convolutional layers (conv) and 3 fully connected layers (fully connected, FC, fully connected layers), for example. It could be a neural network. However, the present invention is not limited thereto, and the number of convolutional layers and the number of fully connected layers in the fourth sub
이에 따르면, 잠재 특징 차이(50)가 제4 서브 신경망(62')의 입력으로 제공됨에 따라, 제4 서브 신경망(62')을 통하여 잠재 특징 차이(50)의 특징을 압축하는 특징 압축 및 압축된 특징을 기초로 한 제2 점수(50s)의 산출이 이루어질 수 있다. 검출부(140)는 제4 서브 신경망(62')을 이용해 잠재 특징 차이 관련 제2 점수(50s)를 산출할 수 있다.Accordingly, as the
이후, 검출부(140)는 산출된 제1 점수(44s)와 제2 점수(50s)를 합산하여 평균한 점수(55s)를 기반으로, 위변조 여부를 검출할 수 있다.Thereafter, the
검출부(140)는 합산 점수(혹은 평균 점수)(55s)가 미리 설정된 점수 이상인 경우, 촬영 영상(10) 내 얼굴 영역(s1, s2)이 위변조가 이루어지지 않을 것으로 판단할 수 있다. 즉, 검출부(140)는 합산 점수(55s)가 미리 설정된 점수 이상인 경우, 촬영 영상(10) 내 얼굴 영역(s1, s2)이 위변조가 이루어지지 않은 대상체의 실제 얼굴(Real face)인 것으로 판단할 수 있다. 이러한 경우, 검출부(140)는 위변조 여부 결과(141)로서 실제 얼굴임을 출력할 수 있다.When the sum score (or average score) 55s is equal to or greater than a preset score, the
반면, 검출부(140)는 합산 점수(55s)가 미리 설정된 점수 미만인 경우, 촬영 영상(10) 내 얼굴 영역(s1, s2)이 위변조가 이루어진 것으로 판단할 수 있다. 즉, 검출부(140)는 합산 점수(55s)가 미리 설정된 점수 미만인 경우, 촬영 영상(10) 내 얼굴 영역(s1, s2)이 위변조가 이루어진 대상체의 거짓 얼굴(Fake face, 가짜 얼굴)인 것으로 판단할 수 있다. 이러한 경우, 검출부(140)는 위변조 여부 결과(141)로서 거짓 얼굴임을 출력할 수 있다On the other hand, when the
이때, 위변조 여부 결과(141)가 실제 얼굴이라는 것은, 듀얼 카메라(1)를 통해 획득된 촬영 영상(10)이 일예로 도 5의 (a)에 도시된 바와 같이 실제 대상체(사람)의 얼굴을 촬영함으로써 획득된 영상임에 따라, 획득된 촬영 영상(10) 내 식별된 얼굴 영역(s1, s2)이 실제 대상체(사람)의 얼굴에 해당하는 것임을 의미할 수 있다.In this case, the fact that the forgery or
이에 반해, 위변조 여부 결과(141)가 거짓 얼굴이라는 것은, 듀얼 카메라(1)를 통해 획득된 촬영 영상(10)이 일예로 도 5의 (b)에 도시된 바와 같이 종이에 인쇄된 대상체(사람)의 얼굴을 촬영함으로써 획득된 영상임에 따라, 획득된 촬영 영상(10) 내 식별된 얼굴 영역(s1, s2)이 실제 대상체(사람)의 얼굴이 아닌 위변조(위조 혹은 변조)된 거짓 얼굴(가짜 얼굴)에 해당하는 것임을 의미할 수 있다.On the other hand, the fact that the forgery or
다른 일예로, 위변조 여부 결과(141)가 거짓 얼굴이라는 것은, 듀얼 카메라(1)를 통해 획득된 촬영 영상(10)이 일예로 도 5의 (c)에 도시된 바와 같이 휴대 단말의 화면 상에 표시된 대상체(사람)의 얼굴을 촬영함으로써 획득된 영상임에 따라, 획득된 촬영 영상(10) 내 식별된 얼굴 영역(s1, s2)이 실제 대상체(사람)의 얼굴이 아닌 위변조(위조 혹은 변조)된 거짓 얼굴(가짜 얼굴)에 해당하는 것임을 의미할 수 있다.As another example, the fact that the forgery or
여기서, 휴대 단말은 예시적으로 스마트폰, 태블릿 PC 등일 수 있으나, 이에만 한정되는 것은 아니고, 대상체의 얼굴 이미지 혹은 얼굴 형상(일예로, 레이저빔을 이용해 제공되는 얼굴 형상)의 표시(제공)가 가능한 다양한 단말이 적용될 수 있다. Here, the mobile terminal may be a smartphone, a tablet PC, etc. as an example, but is not limited thereto, and a display (providing) of a face image or a face shape (for example, a face shape provided using a laser beam) of the object Various possible terminals can be applied.
이에 따르면, 검출부(140)는 획득된 촬영 영상(10)이 종이로 출력된 대상체의 얼굴을 촬영한 영상이거나, 고해상도의 화면 상에 출력되는 대상체의 얼굴을 촬영한 영상이거나, 혹은 실리콘 등으로 특수 제작된 대상체의 얼굴 모형을 촬영한 영상 등인 경우, 해당 촬영 영상(10)에 포함되어 있는 대상체의 얼굴이 실제 얼굴이 아닌 거짓 얼굴인 것으로 검출할 수 있다.즉, 검출부(140)는 위변조 여부 결과(141)를 거짓 얼굴인 것으로 출력할 수 있다.According to this, the
도 5의 (a)에서와 같이, 듀얼 카메라(1)를 통해 획득된 촬영 영상(10)이 실제 얼굴을 촬영한 촬영 영상(10)인 경우, 전처리된 제1 시점 영상(11') 내 대상체의 시선(시선방향)과 전처리된 제2 시점 영상(12') 내 대상체의 시선(시선방향) 간에는 차이가 있을 수 있다.As shown in (a) of FIG. 5, when the captured
반면, 도 5의 (b)나 (c)와 같이, 듀얼 카메라(1)를 통해 획득된 촬영 영상(10)이 거짓 얼굴을 촬영한 촬영 영상인 경우, 전처리된 제1 시점 영상 내 대상체의 시선(시선방향)과 전처리된 제2 시점 영상 내 대상체의 시선(시선방향) 간에는 차이가 없을 수 있다.On the other hand, as shown in (b) or (c) of FIG. 5, when the captured
달리 말해, 듀얼 카메라(1)를 통해 획득된 촬영 영상(10)이 실제 얼굴을 촬영한 촬영 영상(10)인 경우에는, 잠재적 차이가 존재하여 잠재 특징 차이가 있는 것으로 나타나는 반면, 듀얼 카메라(1)를 통해 획득된 촬영 영상(10)이 거짓 얼굴을 촬영한 촬영 영상인 경우에는, 잠재적 차이가 거의 존재하지 않아 잠재 특징 차이가 없는 것으로 나타날 수 있다.In other words, when the photographed
이를 고려해, 본 장치(100)는 듀얼 카메라(1)를 이용해 획득된 제1 시점 영상(11, 좌측 영상)과 제2 시점 영상(12, 우측 영상), 즉 좌/우 영상(11, 12)을 이용하여, 획득된 영상(10)이 실제 대상체(사람)의 얼굴인 것인지, 혹은 위변조된 대상체(사람)의 거짓 얼굴인 것인지 여부를 검출할 수 있다.In consideration of this, the
본원에서 고려되는 제1 신경망(20)은 복수의 대상체의 얼굴 부위를 듀얼 카메라(1)를 이용해 촬영함으로써 획득된 복수 개의 촬영 영상(복수의 학습 촬영 영상)을 입력으로 하고, 복수 개의 촬영 영상 각각과 매칭되는 위변조 여부 결과(즉, 실제 얼굴인지 혹은 가짜 얼굴인지에 대한 결과 값)을 출력으로 하도록 기 학습된 신경망일 수 있다.The first
마찬가지로, 본원에서 고려되는 제2 신경망(20)은 복수의 대상체의 얼굴 부위를 듀얼 카메라(1)를 이용해 촬영함으로써 획득된 복수 개의 촬영 영상(복수의 학습 촬영 영상) 각각의 잠재 특징 차이를 입력으로 하고, 복수 개의 촬영 영상 각각의 잠재 특징 차이와 매칭되는 위변조 여부 결과(즉, 실제 얼굴인지 혹은 가짜 얼굴인지에 대한 결과 값)을 출력으로 하도록 기 학습된 신경망일 수 있다.Likewise, the second
본원은 실제 얼굴을 촬영한 영상인 경우에 대상체의 시선(시선방향)이 각 영상(11, 12)에서 차이가 발생함에 착안하여, 듀얼 카메라(1)로부터 획득된 각 영상(11, 12)을 기 학습된 신경망을 이용함으로써 위변조 여부를 검출할 수 있다.In the case of an image photographing an actual face, the present application focuses on the fact that the object's gaze (direction of gaze) differs in each
본원은 보다 많은 수의 대상체(대상자, 사람)를 기반으로, 위변조 여부 검출을 위한 대용량 데이터베이스를 구축할 수 있으며, 이를 기초로 위변조 여부를 검출할 수 있다. 본원은 본 장치(100)로 하여금, 좌/우 영상(11, 12)의 잠재적 차이(즉, 잠재 특징 차이)를 심층신경망(30) 구조를 기반으로 학습하는 방식의 얼굴 위변조 여부 검출 기술에 대하여 제안한다.The present application may build a large-capacity database for detecting forgery or alteration based on a larger number of objects (subjects, people), and detect forgery or alteration based on this. The present application allows the
본 장치(100)는 심층신경망의 학습을 통해, 좌/우 영상(11, 12)의 차이 정도를 잠재 공간을 이용하여 학습함으로써 검출 성능을 효과적으로 향상시킬 수 있다. 달리 표현해, 본 장치(100)는 복수의 대상자의 촬영 영상을 기반으로 추출된 복수 개의 잠재 특징 차이(50)에 대하여 학습이 이루어진 제2 신경망을 이용함으로써, 듀얼 카메라(1)로부터 실시간 획득되는 촬영 영상(10)에 대한 위변조 여부를 효과적으로 검출할 수 있다.The
여기서, 잠재 공간은 전처리된 제1 시점 영상(11')의 특징과 전처리된 제2 시점 영상(12')의 특징에 대한 압축이 이루어지는 공간, 즉 특징 압축 과정이 이루어지는 공간을 의미할 수 있다. 잠재 특징 차이(50)는 이러한 잠재 공간 상에서의 전처리된 제1 시점 영상(11') 관련 압축된 특징들과 전처리된 제2 시점 영상(12') 관련 압축된 특징들 간의 차이를 의미할 수 있다. Here, the latent space may mean a space in which features of the preprocessed
본 장치(100)는 듀얼 카메라(1)로부터 획득된 좌/우 얼굴 영상(11, 12)에 대하여, 전처리부(미도시)를 통해 얼굴 영역을 식별(검출)하고, 식별된 얼굴 영역에 대한 이미지 크기를 정규화하는 전처리를 수행할 수 있다. 이후, 본 장치(100)는 전처리된 촬영 영상(10)으로부터 특징을 추출하기 위해, 각 영상(11 12)을 별도의 심층신경망, 즉, 제1 신경망(20) 내 제1 서브 신경망(21)과 제2 서브 신경망(22) 각각에 입력으로 제공할 수 있다.The
또한, 본 장치(100)에서는 좌우 영상(11, 12)의 잠재 특징 차이를 효과적으로 예측하기 위해, 종래에 사용하는 손실 함수 기반의 방식이 아닌, 별도의 차이 정보 압축 신경망으로서 제2 신경망(30)을 구성(마련)하였다. In addition, in order to effectively predict the difference in potential features of the left and
본 장치(100)는 제1 신경망(20)를 통해 추출된 압축 정보인 압축 특징(40)과 제2 신경망(20)을 통해 추출된 잠재적 차이 정보인 잠재 특징 차이(50)를 결합하기 위해 2가지 방식(상술한 제1 방식과 제2 방식)의 심층신경망 구조를 이용할 수 있다. In order to combine the
이때, 제1 방식의 심층신경망 구조는, 각각의 압축된 정보(즉, 압축 특징과 잠재 특징 차이)를 단순 결합(Concatenation)하여 학습하는 방식의 구조로서, 이는 도 3과 같은 구조를 의미할 수 있다. 즉, 도 3은 본 장치(100)에서 검출부(140)가 점수 산출시 이용하는 제1 방식의 심층신경망 구조를 의미할 수 있다. 이러한 제1 방식은 Early Fusion 방식이라 달리 표현될 수 있다.At this time, the deep neural network structure of the first method is a structure of a method of learning by simply concatenating each compressed information (ie, a difference between a compressed feature and a latent feature), which may mean a structure as shown in FIG. 3. have. That is, FIG. 3 may refer to a structure of a deep neural network of the first method used by the
이때, 제1 방식의 경우, 본 장치(100)는 결합된 정보(즉, 통합 결합 특징)에 관한 점수를 산출하기 위해, 추가적으로 합성곱 레이어와 풀리 커넥티드 레이어(완전 연결 계층)을 포함하는 제3 서브 신경망(61)을 마련할 수 있다. 이러한 제3 서브 신경망(61)을 이용해 본 장치(100)는 획득된 촬영 영상(10)에 대하여, 실제 얼굴과 위변조된 얼굴인 거짓 얼굴에 대한 점수(Score)를 산출할 수 있다. 산출된 점수를 기반으로 위변조 여부 결과(141)가 도출될 수 있다.In this case, in the case of the first method, the
한편, 제2 방식의 심층신경망 구조는, 좌/우 영상(11, 12)으로부터 각각 압축된 정보만을 이용(즉, 제1 시점 압축 특징과 제2 시점 압축 특징만을 이용)하여 위변조 여부를 학습하는 신경망(이는, 제1 신경망과 제3 서브 신경망을 포함하는 신경망을 의미할 수 있음)과 잠재적 차이 특징(잠재 특징 차이)을 학습하는 신경망(이는, 제2 신경망과 제4 서브 신경망을 포함하는 신경망을 의미할 수 있음)을 별도로 구성하여 각 신경망의 최종 점수(즉, 제1 점수와 제2 점수)의 평균을 사용하는 방식의 구조로서, 이는 도 4와 같은 구조를 의미할 수 있다. 즉, 도 4는 본 장치(100)에서 검출부(140)가 점수 산출시 이용하는 제2 방식의 심층신경망 구조를 의미할 수 있다. 이러한 제2 방식은 Late Fusion 방식이라 달리 표현될 수 있다.On the other hand, the deep neural network structure of the second method uses only compressed information from the left/
이때, 제2 방식의 경우, 본 장치(100)는 제1 신경망(20)과 제3 서브 신경망(61')을 이용하여 제1 점수(44s)를 산출하고, 제2 신경망(30)과 제4 서브 신경망(62')을 이용하여 제2 점수(50s)를 산출할 수 있다. 이후, 본 장치(100)는 산출된 두 점수(44s, 50s)를 평균한 평균 점수를 기반으로, 획득된 촬영 영상(10)에 대하여, 실제 얼굴과 위변조된 얼굴인 거짓 얼굴에 대한 점수(Score)를 산출할 수 있다. 산출된 점수를 기반으로 위변조 여부 결과(141)가 도출될 수 있다.In this case, in the case of the second method, the
본원의 일 실험 예에 따르면, 본원은 본 장치(100)의 성능을 검증하기 위해, 자체적으로 제작한 50명 규모의 데이터베이스를 이용하여 위변조 여부 검출을 수행하였다. 제작된 데이터베이스에는 남자 29명과 여자 21명의 촬영 영상 및 그에 관한 위변조 여부 결과에 포함되어 있을 수 있다. According to an experimental example of the present application, in order to verify the performance of the
본원의 일 실험에서 듀얼 카메라(1)(혹은 스테레오 카메라)는 모델 oCamS-1CGN-U)가 이용되고, 이를 통해 획득된 촬영 영상(10)의 해상도는 1280 × 960 픽셀일 수 있다. 본원의 일 실험에서는 종래에 공지된 이미지 분석 알고리즘(얼굴 식별 알고리즘)을 이용하여 듀얼 카메라(1)를 통해 획득된 촬영 영상(10) 내 얼굴 영역을 식별(검출)하고, 식별된 얼굴 영역을 128 × 128의 픽셀 크기로 정규화하는 전처리를 수행하여, 전처리된 촬영 영상을 제1 신경망(20)의 입력으로 사용하였다. 도 5는 듀얼 카메라(1)로부터 획득된 촬영 영상(10)으로부터 얼굴 영역을 검출화는 과정을 보여주고 있다.In one experiment of the present application, the model oCamS-1CGN-U) is used as the dual camera 1 (or stereo camera), and the resolution of the captured
도 6은 본원의 일 실시예에 따른 얼굴 위변조 검출 장치(100)의 성능 평가 결과를 나타낸 도면이다.6 is a diagram showing a performance evaluation result of the face
도 6에서 Proposed method는 본원에서 제안하는 방법, 즉 본 장치(100)에 의한 위변조 검출 기술을 의미한다. 또한, 도 6에서 본 장치(100)의 성능 평가 시 대비되는 종래의 위변조 검출 기술[1]로는 예시적으로 종래 공지된 문헌 [X. Sun, L. Huagn, and C. Liu, "Dual Camera Based Feature For Face Spoofing Detection," in Proc. Chinese Conference Pattern Recognition., Chengdu, China, Nov. 2016, pp. 332 344.]가 고려되었다.In FIG. 6, the Proposed method refers to a method proposed in the present application, that is, a forgery detection technology by the
또한, 도 6에서 22-fold는 22명의 대상자를 기반으로 이루어진 실험임을 의미하고, 50-forld는 50명의 대상자를 기반으로 이루어진 실험임을 의미할 수 있다. 또한, 도 6에서 early fusion은 본 장치(100)의 제1 방식을 기반으로 한 실험임을 의미하고, late fusion은 본 장치(100)의 제2 방식을 기반으로 한 실험임을 의미할 수 있다. 또한, EER(Equal Error Rate)은 동일 오류율을 의미하는 것으로서, 값이 작을수록 성능이 더 좋음을 의미할 수 있다.In addition, in FIG. 6, 22-fold may mean an experiment based on 22 subjects, and 50-forld may mean an experiment based on 50 subjects. In addition, in FIG. 6, early fusion may mean an experiment based on the first method of the
본원의 일 실험에서는 본 장치(100)의 성능 평가를 위해 일예로 Intel Xeon CPU E5-1650 와 NVIDIA TITAN Xp GPU가 사용되었다.In one experiment of the present application, as an example, Intel Xeon CPU E5-1650 and NVIDIA TITAN Xp GPU were used to evaluate the performance of the
도 6을 참조하면, 본원의 일 실험(Experiment) 결과, 본원에서 제안하는 기술의 성능(즉, 본 장치에 의한 위변조 여부 검출 결과의 성능)은 종래의 위변조 검출 기술 대비 더 많은 실험 대상자에(대상체)에 대하여 우수한 성능을 보이고 있음을 확인할 수 있다. Referring to FIG. 6, as a result of an experiment of the present application, the performance of the technology proposed by the present application (that is, the performance of the detection result of forgery or alteration by the device) is compared to the conventional forgery detection technology. ), it can be seen that it shows excellent performance.
또한, 본원의 일 실험 결과에 의하면, 본 장치(100)의 경우, 점수 결합 방식인 제2 방식(late fusion)을 이용한 위변조 검출 성능이 0.652%인 바, 단순 특징 결합 방식인 제1 방식(early fusion) 대비 성능이 더 우수함을 확인할 수 있다.In addition, according to the experimental results of the present application, in the case of the
상술한 본원의 일 실험에 따른 성능 평가 결과에 따르면, 본 장치(100)에서 제안하는 기술이 얼굴 위변조 여부 검출에 효과적으로 적용될 수 있음을 확인할 수 있다. 즉, 본원에서 제안하는 방식(잠재 특징 차이를 별도로 학습하여 위변조 검출에 이용하는 방식)이, 종래의 기술 대비 얼굴 위변조 여부 검출시 보다 효과적임을 확인할 수 있다.According to the performance evaluation result according to the above-described experiment of the present application, it can be confirmed that the technique proposed by the
본 장치(100)는 좌우 영상(11, 12) 기반으로 고성능 얼굴 위변조 여부를 검출할 수 있다. 또한, 본 장치(100)는 3차언 구조에 의한 차이점을 내재적으로 학습하는 것이 가능하다.The
본 장치(100)는 듀얼 카메라(1)로부터 획득된 좌우 영상(11, 12) 및 그 차이(즉, 잠재 특징 차이)을 이용하여 얼굴 위변조 여부를 검출할 수 있다.The
이러한 본원에서 제안하는 기술은 다양한 임베디드 시스템(예시적으로, 스마트폰, 키오스크 등) 환경에서 얼굴 영상을 이용한 보안 강화 적용 분야에 효과적으로 적용, 활용될 수 있다.The technology proposed in the present application can be effectively applied and utilized in the field of application of security enhancement using face images in various embedded systems (eg, smartphones, kiosks, etc.).
이하에서는 상기에 자세히 설명된 내용을 기반으로, 본원의 동작 흐름을 간단히 살펴보기로 한다.Hereinafter, based on the details described above, the operation flow of the present application will be briefly described.
도 7은 본원의 일 실시예에 따른 얼굴 위변조 검출 방법의 동작 흐름도이다.7 is a flowchart illustrating an operation of a method for detecting forgery and alteration of a face according to an embodiment of the present application.
도 7에 도시된 얼굴 위변조 검출 방법은 앞서 설명된 본 장치(100)에 의하여 수행될 수 있다. 따라서, 이하 생략된 내용이라고 하더라도 본 장치(100)에 대하여 설명된 내용은 얼굴 위변조 검출 방법에 대한 설명에도 동일하게 적용될 수 있다.The method for detecting face forgery and alteration illustrated in FIG. 7 may be performed by the
도 7을 참조하면, 단계S11에서 획득부(110)는, 듀얼 카메라를 통해 대상체의 얼굴 부위에 대한 촬영 영상을 획득할 수 있다.Referring to FIG. 7, in step S11, the
이때, 촬영 영상은 제1 시점 영상 및 제2 시점 영상을 포함할 수 있다.In this case, the captured image may include a first viewpoint image and a second viewpoint image.
다음으로, 단계S12에서 제1 추출부(120)는, 단계S11에서 획득된 촬영 영상을 이용하여 촬영 영상 내 얼굴 영역과 관련된 압축 특징을 추출할 수 있다.Next, in step S12, the first extracting
이때, 단계S12에서 제1 추출부(120)는, 획득부(110)로부터 전처리된 촬영 영상을 전달받을 수 있으며, 전처리된 촬영 영상을 이용하여 압축 특징을 추출할 수 있다. 따라서, 후술하는 설명에서 압축 특징 및 잠재 특징 차이의 추출시 고려되는 제1 시점 영상과 제2 시점 영상은 각각 전처리된 제1 시점 영상과 전처리된 제2 시점 영상일 수 있다.In this case, in step S12, the
단계S12에서 제1 추출부(120)는, 제1 시점 영상(특히, 전처리된 제1 시점 영상)과 제2 시점 영상(특히, 전처리된 제2 시점 영상)을 제1 신경망의 입력으로 제공하여, 제1 신경망으로부터 제1 시점 영상(전처리된 제1 시점 영상)에 대응하는 제1 시점 압축 특징과 제2 시점 영상(전처리된 제2 시점 영상)에 대응하는 제2 시점 압축 특징을 포함하는 압축 특징을 추출할 수 있다.In step S12, the
다음으로, 단계S13에서 제2 추출부(130)는, 단계S11에서 획득된 촬영 영상을 이용하여 잠재 특징 차이(Difference of Latent Features)를 추출할 수 있다.Next, in step S13, the
이때, 단계S13에서 제2 추출부(130)는, 제1 시점 영상과 제2 시점 영상을 이용하여 제1 시점 영상과 제2 시점 영상 간의 잠재 특징 차이를 추출할 수 있다. 특히, 제2 추출부(130)는, 전처리된 제1 시점 영상과 전처리된 제2 시점 영상 간의 잠재 특징 차이를 추출할 수 있다.In this case, in step S13, the
여기서, 잠재 특징 차이는, 제1 시점 영상의 특징과 제2 시점 영상의 특징이 제1 신경망 내에서 압축되는 과정(특징 압축 과정)에서 발생하는 제1 시점 영상의 특징과 제2 시점 영상의 특징 간의 차이인 차이 특징을 제2 신경망에 통과시킴으로써 획득되는 것일 수 있다.Here, the latent feature difference is the feature of the first view image and the feature of the second view image occurring in a process in which the feature of the first view image and the feature of the second view image are compressed in the first neural network (feature compression process). It may be obtained by passing a difference feature, which is a difference between, through the second neural network.
다음으로, 단계S14에서 검출부(140)는, 단계S12에서 추출된 압축 특징과 단계S13에서 추출된 잠재 특징 차이를 이용하여 촬영 영상 내 상기 얼굴 영역에 대한 위변조 여부를 검출할 수 있다.Next, in step S14, the
또한, 단계S14에서 검출부(140)는, 제1 시점 압축 특징, 제2 시점 압축 특징 및 잠재 특징 차이를 이용하여 촬영 영상에 대한 점수를 산출하고, 산출된 점수를 기반으로 촬영 영상 내 식별된 얼굴 영역에 대한 위변조 여부를 검출할 수 있다.In addition, in step S14, the
또한, 단계S14에서 검출부(140)는, 제1 시점 압축 특징, 제2 시점 압축 특징 및 잠재 특징 차이를 결합하여 통합 결합 특징을 생성하고, 생성된 통합 결합 특징을 이용하여 산출된 통합 결합 특징 관련 점수를 기반으로 위변조 여부를 검출할 수 있다.In addition, in step S14, the
또한, 단계S14에서 검출부(140)는, 제1 시점 압축 특징과 제2 시점 압축 특징을 결합한 결합 특징을 이용하여 결합 특징 관련 제1 점수를 산출하고, 잠재 특징 차이를 이용하여 잠재 특징 차이 관련 제2 점수를 산출하며, 제1 점수와 상기 제2 점수를 합산한 합산 점수를 기반으로 위변조 여부를 검출할 수 있다.In addition, in step S14, the
여기서, 합산 점수는, 제1 점수와 제2 점수를 평균한 점수일 수 있다.Here, the sum score may be a score obtained by an average of the first score and the second score.
상술한 설명에서, 단계 S11 내지 S14는 본원의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.In the above description, steps S11 to S14 may be further divided into additional steps or may be combined into fewer steps, depending on the embodiment of the present application. In addition, some steps may be omitted as necessary, or the order between steps may be changed.
본원의 일 실시 예에 따른 얼굴 위변조 검출 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method for detecting forgery and alteration of a face according to an exemplary embodiment of the present disclosure may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the present invention, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operation of the present invention, and vice versa.
또한, 전술한 얼굴 위변조 검출 방법은 기록 매체에 저장되는 컴퓨터에 의해 실행되는 컴퓨터 프로그램 또는 애플리케이션의 형태로도 구현될 수 있다.In addition, the above-described face forgery detection method may be implemented in the form of a computer program or application executed by a computer stored in a recording medium.
전술한 본원의 설명은 예시를 위한 것이며, 본원이 속하는 기술분야의 통상의 지식을 가진 자는 본원의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The foregoing description of the present application is for illustrative purposes only, and those of ordinary skill in the art to which the present application pertains will be able to understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present application. Therefore, it should be understood that the embodiments described above are illustrative and non-limiting in all respects. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as being distributed may also be implemented in a combined form.
본원의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본원의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present application is indicated by the claims to be described later rather than the detailed description, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present application.
100: 얼굴 위변조 검출 장치
110: 획득부
120: 제1 추출부
130: 제2 추출부
140: 검출부100: face forgery detection device
110: acquisition unit
120: first extraction unit
130: second extraction unit
140: detection unit
Claims (14)
(a) 듀얼 카메라를 통해 대상체의 얼굴 부위에 대한 촬영 영상을 획득하는 단계;
(b) 상기 촬영 영상을 이용하여 상기 촬영 영상 내 얼굴 영역과 관련된 압축 특징을 추출하는 단계;
(c) 상기 촬영 영상을 이용하여 잠재 특징 차이(Difference of Latent Features)를 추출하는 단계; 및
(d) 상기 압축 특징과 상기 잠재 특징 차이를 이용하여 상기 촬영 영상 내 상기 얼굴 영역에 대한 위변조 여부를 검출하는 단계,
를 포함하는 얼굴 위변조 검출 방법.As a face forgery detection method,
(a) obtaining a photographed image of the face of the object through a dual camera;
(b) extracting a compression feature related to a face region in the captured image by using the captured image;
(c) extracting a difference of latent features using the captured image; And
(d) detecting whether the face region in the photographed image has been forged or altered using the difference between the compressed feature and the latent feature,
Face forgery detection method comprising a.
상기 (a) 단계에서 상기 촬영 영상은 제1 시점 영상 및 제2 시점 영상을 포함하고,
상기 (b) 단계는,
상기 제1 시점 영상과 제2 시점 영상을 제1 신경망의 입력으로 제공하여, 상기 제1 신경망으로부터 상기 제1 시점 영상에 대응하는 제1 시점 압축 특징과 상기 제2 시점 영상에 대응하는 제2 시점 압축 특징을 포함하는 상기 압축 특징을 추출하는 것인, 얼굴 위변조 검출 방법.The method of claim 1,
In the step (a), the captured image includes a first viewpoint image and a second viewpoint image,
The step (b),
A first viewpoint compression feature corresponding to the first viewpoint image and a second viewpoint corresponding to the second viewpoint image from the first neural network by providing the first viewpoint image and the second viewpoint image as inputs of a first neural network To extract the compression feature including the compression feature, facial forgery detection method.
상기 (c) 단계는,
상기 제1 시점 영상과 상기 제2 시점 영상을 이용하여 상기 제1 시점 영상과 상기 제2 시점 영상 간의 잠재 특징 차이를 추출하는 것인, 얼굴 위변조 검출 방법.The method of claim 2,
The step (c),
And extracting a potential feature difference between the first viewpoint image and the second viewpoint image by using the first viewpoint image and the second viewpoint image.
상기 (c) 단계에서 상기 잠재 특징 차이는,
상기 제1 시점 영상의 특징과 상기 제2 시점 영상의 특징이 상기 제1 신경망 내에서 압축되는 과정에서 발생하는 제1 시점 영상의 특징과 상기 제2 시점 영상의 특징 간의 차이인 차이 특징을 제2 신경망에 통과시킴으로써 획득되는 것인, 얼굴 위변조 검출 방법.The method of claim 3,
The latent feature difference in step (c) is,
The difference feature, which is the difference between the feature of the first view image and the feature of the second view image, generated when the feature of the first view image and the feature of the second view image is compressed in the first neural network is a second difference feature. To be obtained by passing through a neural network, face forgery detection method.
상기 (d) 단계는,
상기 제1 시점 압축 특징, 상기 제2 시점 압축 특징 및 상기 잠재 특징 차이를 이용하여 상기 촬영 영상에 대한 점수를 산출하고, 상기 산출된 점수를 기반으로 상기 촬영 영상 내 상기 얼굴 영역에 대한 위변조 여부를 검출하는 것인, 얼굴 위변조 검출 방법.The method of claim 2,
The step (d),
A score for the captured image is calculated using the first view compression feature, the second view compression feature, and the latent feature difference, and whether or not the face region in the captured image is forged or altered based on the calculated score. To detect, face forgery detection method.
상기 (d) 단계는,
상기 제1 시점 압축 특징, 상기 제2 시점 압축 특징 및 상기 잠재 특징 차이를 결합하여 통합 결합 특징을 생성하고, 상기 생성된 통합 결합 특징을 이용하여 산출된 통합 결합 특징 관련 점수를 기반으로 상기 위변조 여부를 검출하는 것인, 얼굴 위변조 검출 방법.The method of claim 5,
The step (d),
Whether the first view compression feature, the second view compression feature, and the latent feature difference are combined to generate an integrated combination feature, and whether the forgery or alteration is based on a score related to the integrated combination feature calculated using the generated integrated combination feature. To detect, face forgery detection method.
상기 (d) 단계는,
상기 제1 시점 압축 특징과 상기 제2 시점 압축 특징을 결합한 결합 특징을 이용하여 결합 특징 관련 제1 점수를 산출하고,
상기 잠재 특징 차이를 이용하여 잠재 특징 차이 관련 제2 점수를 산출하며,
상기 제1 점수와 상기 제2 점수를 합산한 합산 점수를 기반으로 상기 위변조 여부를 검출하는 것인, 얼굴 위변조 검출 방법.The method of claim 5,
The step (d),
A first score related to a combined feature is calculated using a combined feature obtained by combining the first view compression feature and the second view compression feature,
A second score related to the latent feature difference is calculated using the latent feature difference,
The method of detecting forgery or alteration of the face based on a sum score obtained by adding the first score and the second score.
상기 (d) 단계에서 상기 합산 점수는, 상기 제1 점수와 상기 제2 점수를 평균한 점수인 것인, 얼굴 위변조 검출 방법.The method of claim 7,
In the step (d), the summed score is a score obtained by averaging the first score and the second score.
듀얼 카메라를 통해 대상체의 얼굴 부위에 대한 촬영 영상을 획득하는 획득부;
상기 촬영 영상을 이용하여 상기 촬영 영상 내 얼굴 영역과 관련된 압축 특징을 추출하는 제1 추출부;
상기 촬영 영상을 이용하여 잠재 특징 차이(Difference of Latent Features)를 추출하는 제2 추출부; 및
상기 압축 특징과 상기 잠재 특징 차이를 이용하여 상기 촬영 영상 내 상기 얼굴 영역에 대한 위변조 여부를 검출하는 검출부,
를 포함하는 얼굴 위변조 검출 장치.As a face forgery detection device,
An acquisition unit that acquires a photographed image of a face portion of the object through the dual camera;
A first extracting unit for extracting a compression feature related to a face region in the captured image using the captured image;
A second extraction unit for extracting a difference of latent features using the captured image; And
A detection unit that detects whether the face region in the photographed image has been forged or altered using the difference between the compression feature and the latent feature,
Face forgery detection device comprising a.
상기 촬영 영상은 제1 시점 영상 및 제2 시점 영상을 포함하고,
상기 제1 추출부는,
상기 제1 시점 영상과 제2 시점 영상을 제1 신경망의 입력으로 제공하여, 상기 제1 신경망으로부터 상기 제1 시점 영상에 대응하는 제1 시점 압축 특징과 상기 제2 시점 영상에 대응하는 제2 시점 압축 특징을 포함하는 상기 압축 특징을 추출하는 것인, 얼굴 위변조 검출 장치.The method of claim 9,
The captured image includes a first viewpoint image and a second viewpoint image,
The first extraction unit,
A first viewpoint compression feature corresponding to the first viewpoint image and a second viewpoint corresponding to the second viewpoint image from the first neural network by providing the first viewpoint image and the second viewpoint image as inputs of a first neural network To extract the compression feature including the compression feature, facial forgery detection device.
상기 제2 추출부는,
상기 제1 시점 영상과 상기 제2 시점 영상을 이용하여 상기 제1 시점 영상과 상기 제2 시점 영상 간의 잠재 특징 차이를 추출하는 것인, 얼굴 위변조 검출 장치.The method of claim 10,
The second extraction unit,
And extracting a potential feature difference between the first viewpoint image and the second viewpoint image by using the first viewpoint image and the second viewpoint image.
상기 잠재 특징 차이는,
상기 제1 시점 영상의 특징과 상기 제2 시점 영상의 특징이 상기 제1 신경망 내에서 압축되는 과정에서 발생하는 제1 시점 영상의 특징과 상기 제2 시점 영상의 특징 간의 차이인 차이 특징을 제2 신경망에 통과시킴으로써 획득되는 것인, 얼굴 위변조 검출 장치.The method of claim 11,
The latent feature difference is,
The difference feature, which is the difference between the feature of the first view image and the feature of the second view image, generated when the feature of the first view image and the feature of the second view image is compressed in the first neural network is a second difference feature. It is obtained by passing through a neural network, facial forgery detection device.
상기 검출부는,
상기 제1 시점 특징, 상기 제2 시점 특징 및 상기 잠재 특징 차이를 이용하여 상기 촬영 영상에 대한 점수를 산출하고, 상기 산출된 점수를 기반으로 상기 촬영 영상 내 상기 얼굴 영역에 대한 위변조 여부를 검출하는 것인, 얼굴 위변조 검출 장치.The method of claim 10,
The detection unit,
Calculating a score for the captured image using the first viewpoint feature, the second viewpoint feature, and the latent feature difference, and detecting whether the face region in the photographed image has been forged or altered based on the calculated score. That, face forgery detection device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190134026A KR102275803B1 (en) | 2019-10-25 | 2019-10-25 | Apparatus and method for detecting forgery or alteration of the face |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190134026A KR102275803B1 (en) | 2019-10-25 | 2019-10-25 | Apparatus and method for detecting forgery or alteration of the face |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210049570A true KR20210049570A (en) | 2021-05-06 |
KR102275803B1 KR102275803B1 (en) | 2021-07-09 |
Family
ID=75915855
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190134026A KR102275803B1 (en) | 2019-10-25 | 2019-10-25 | Apparatus and method for detecting forgery or alteration of the face |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102275803B1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114092864A (en) * | 2022-01-19 | 2022-02-25 | 湖南信达通信息技术有限公司 | Fake video identification method and device, electronic equipment and computer storage medium |
KR20220159104A (en) | 2021-05-25 | 2022-12-02 | 삼성에스디에스 주식회사 | Apparatus for Deep fake image discrimination and learning method thereof |
WO2023096032A1 (en) * | 2021-11-24 | 2023-06-01 | (주)씨유박스 | Non-contact ppg-based face image forgery determination method and analysis device |
KR20240001729A (en) | 2022-06-23 | 2024-01-04 | 주식회사 이엔터 | Method for detecting deepfake images |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20090093214A (en) * | 2008-02-28 | 2009-09-02 | 홍익대학교 산학협력단 | Robust Glasses Detection using Variable Mask and Anisotropic Smoothing |
KR20130133676A (en) * | 2012-05-29 | 2013-12-09 | 주식회사 코아로직 | Method and apparatus for user authentication using face recognition througth camera |
KR20180109664A (en) * | 2017-03-27 | 2018-10-08 | 삼성전자주식회사 | Liveness test method and apparatus |
-
2019
- 2019-10-25 KR KR1020190134026A patent/KR102275803B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20090093214A (en) * | 2008-02-28 | 2009-09-02 | 홍익대학교 산학협력단 | Robust Glasses Detection using Variable Mask and Anisotropic Smoothing |
KR20130133676A (en) * | 2012-05-29 | 2013-12-09 | 주식회사 코아로직 | Method and apparatus for user authentication using face recognition througth camera |
KR20180109664A (en) * | 2017-03-27 | 2018-10-08 | 삼성전자주식회사 | Liveness test method and apparatus |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220159104A (en) | 2021-05-25 | 2022-12-02 | 삼성에스디에스 주식회사 | Apparatus for Deep fake image discrimination and learning method thereof |
WO2023096032A1 (en) * | 2021-11-24 | 2023-06-01 | (주)씨유박스 | Non-contact ppg-based face image forgery determination method and analysis device |
CN114092864A (en) * | 2022-01-19 | 2022-02-25 | 湖南信达通信息技术有限公司 | Fake video identification method and device, electronic equipment and computer storage medium |
CN114092864B (en) * | 2022-01-19 | 2022-04-12 | 湖南信达通信息技术有限公司 | Fake video identification method and device, electronic equipment and computer storage medium |
KR20240001729A (en) | 2022-06-23 | 2024-01-04 | 주식회사 이엔터 | Method for detecting deepfake images |
Also Published As
Publication number | Publication date |
---|---|
KR102275803B1 (en) | 2021-07-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12014571B2 (en) | Method and apparatus with liveness verification | |
US10726260B2 (en) | Feature extraction and matching for biometric authentication | |
US20200410215A1 (en) | Liveness test method and apparatus | |
US20230274577A1 (en) | Device and method with image matching | |
WO2020207189A1 (en) | Method and device for identity authentication, storage medium, and computer device | |
KR102275803B1 (en) | Apparatus and method for detecting forgery or alteration of the face | |
Yang et al. | Comparative competitive coding for personal identification by using finger vein and finger dorsal texture fusion | |
US11625954B2 (en) | Method and apparatus with liveness testing | |
CN112052831B (en) | Method, device and computer storage medium for face detection | |
US11227149B2 (en) | Method and apparatus with liveness detection and object recognition | |
US10395112B2 (en) | Device and method of recognizing iris | |
KR20210062381A (en) | Liveness test method and liveness test apparatus, biometrics authentication method and biometrics authentication apparatus | |
KR20130035849A (en) | Single image-based fake face detection | |
WO2020065954A1 (en) | Authentication device, authentication method, and storage medium | |
Sharma et al. | An efficient partial occluded face recognition system | |
Mohamed et al. | Automated face recogntion system: Multi-input databases | |
KR20160042646A (en) | Method of Recognizing Faces | |
US20220027649A1 (en) | Method and apparatus with liveness detection | |
Lin et al. | Liveness detection using texture and 3d structure analysis | |
KR102579610B1 (en) | Apparatus for Detecting ATM Abnormal Behavior and Driving Method Thereof | |
RU2798179C1 (en) | Method, terminal and system for biometric identification | |
TWI634486B (en) | Identity authentication apparatus, identity authentication method, and computer-readable storage medium thereof | |
Dixit et al. | SIFRS: Spoof Invariant Facial Recognition System (A Helping Hand for Visual Impaired People) | |
CN117593629A (en) | Brush palm recognition method, device, equipment and storage medium | |
Shah et al. | Biometric authentication based on detection and recognition of multiple faces in image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |