KR20200051903A - Fake fingerprint detection method and system - Google Patents

Fake fingerprint detection method and system Download PDF

Info

Publication number
KR20200051903A
KR20200051903A KR1020180134626A KR20180134626A KR20200051903A KR 20200051903 A KR20200051903 A KR 20200051903A KR 1020180134626 A KR1020180134626 A KR 1020180134626A KR 20180134626 A KR20180134626 A KR 20180134626A KR 20200051903 A KR20200051903 A KR 20200051903A
Authority
KR
South Korea
Prior art keywords
fingerprint
forgery
detecting
biometric information
feature extraction
Prior art date
Application number
KR1020180134626A
Other languages
Korean (ko)
Inventor
김학일
Original Assignee
주식회사 비젼인
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 비젼인 filed Critical 주식회사 비젼인
Priority to KR1020180134626A priority Critical patent/KR20200051903A/en
Publication of KR20200051903A publication Critical patent/KR20200051903A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1382Detecting the live character of the finger, i.e. distinguishing from a fake or cadaver finger
    • G06K9/00107
    • G06K9/00067
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Abstract

The present invention relates to a method and a system for fingerprint recognition capable of fake fingerprint detection and, more specifically, to a method and a system for fingerprint recognition capable of fake fingerprint detection which allows a system to learn the difference between a biometric fingerprint and a fake fingerprint by using deep learning in fake fingerprint detection, divide and read a fake fingerprint when reading the fingerprint by learned results, add up divided reading results to determine a fake status, and use a gram matrix to increase detection accuracy. The system comprises: a sensor module to acquire bioinformation of a user; a feature extraction unit to perform quality measurement and data preprocessing of the bioinformation, extract features, and determine a fake status; a database unit to store a bioinformation template for authentication; and a matching unit to generate a matching score of the template and the acquired bioinformation and perform authentication. The feature extraction unit divides the acquired bioinformation into a plurality of patches, then extracts the features, and determines the fake status.

Description

위조지문 검출 가능한 지문인식 방법 및 시스템{FAKE FINGERPRINT DETECTION METHOD AND SYSTEM}Fingerprint recognition method and system capable of detecting forged fingerprints {FAKE FINGERPRINT DETECTION METHOD AND SYSTEM}

본 발명은 위조지문 검출 가능한 지문인식 방법 및 시스템에 관한 것으로서, 더욱 상세하게는 위조지문 검출에서 딥러닝을 이용해 생체 지문과 위조 지문의 차이를 시스템이 학습하고, 학습된 결과를 통해서 위조 지문을 판독할 때, 분할 판독하고 분할 판독 결과를 합산하여 위조 여부를 판단하고, 그램 행렬(Gram Matrix)을 이용해 검출의 정확도를 높이는 위조지문 검출 가능한 지문인식 방법 및 시스템에 관한 것이다.The present invention relates to a fingerprint recognition method and system capable of detecting a forged fingerprint, and more specifically, a system learns a difference between a biometric fingerprint and a forged fingerprint using deep learning in detecting a forged fingerprint, and reads the forged fingerprint through the learned result. It relates to a fingerprint recognition method and system capable of detecting a forgery fingerprint that improves the accuracy of detection by using a Gram matrix to determine whether or not to falsify by dividing the read and summing the results of the divided read.

최근 모바일 기기에서의 생체인증 시스템의 증가와 위조지문을 이용한 출입기록 조작 사례로 인해 위조지문 검출에 대한 논의가 다시금 활발해지고 있다. 기존의 위조지문 검출 방법들은 소프트웨어 기반 방법과 하드웨어 기반 방법으로 나뉠 수 있다. 하드웨어 기반 방법은 생체여부 확인을 위한 추가적인 센서가 필요하다는 단점이 존재하며 소프트웨어 기반 방법은 추가적인 센서가 필요하지 않지만 위조여부를 판별하는 성능이 하드웨어 방법에 비해 좋지 못한 단점이 존재한다.Recently, due to the increase in the biometric authentication system on mobile devices and the case of manipulation of access records using forged fingerprints, discussions on the detection of forged fingerprints have been revitalized. Existing counterfeit fingerprint detection methods can be divided into software-based methods and hardware-based methods. The hardware-based method has a disadvantage in that an additional sensor is required to check whether the body is biometric, and the software-based method does not require an additional sensor, but has a disadvantage in that the performance of determining whether the counterfeit is counterfeit is poor compared to the hardware method.

최근 영상처리 분야에서 폭넓게 사용되고 있는 컨볼루션 뉴럴 네트워크(CNN)는 영상의 분류 및 검출분야에서 가장 좋은 성능을 보이고 있는 추세이며 많은 산업 분야에서 널리 응용되고 있다. 컨볼루션 뉴럴 네트워크 방법의 높은 분류성능을 위조지문 검출에 적용할 수 있다면 소프트웨어 기반 위조지문 검출의 상대적으로 낮은 인식성능을 상쇄할 수 있는 여지가 존재하게 될 것이다.Recently, the convolutional neural network (CNN), which is widely used in the field of image processing, is showing the best performance in the field of image classification and detection, and is widely used in many industries. If the high classification performance of the convolutional neural network method can be applied to the detection of counterfeit fingerprints, there will be a room to offset the relatively low recognition performance of the software-based counterfeit fingerprint detection.

그러나 일반적으로 컨볼루션 뉴럴 네트워크의 학습에는 많은 양의 지문 영상들이 필요하며 학습되는 파라미터(parameter)의 수도 많아 메모리 용량이 작고 연산성능이 낮은 임베디드 시스템에 적용하기 위한 최적화 과정이 필요하다. 학습을 위한 위조지문을 생성하는 과정에는 많은 시간이 소요되며 많은 수의 파라미터는 더 많은 메모리와 처리시간을 필요로 하게 된다. 또한 기존의 컨볼루션 뉴럴네트워크 기술은 위조지문과 데이터 분포특성이 현저히 다른 일반적 영상의 분류 및 검출을 위해 설계되어 있기 때문에 위조지문 검출에 적합한 네트워크의 설계가 필요하다.However, in general, the learning of the convolutional neural network requires a large amount of fingerprint images and the number of parameters to be learned requires an optimization process to be applied to an embedded system having a small memory capacity and low computational performance. The process of creating a fake fingerprint for learning takes a lot of time, and a large number of parameters require more memory and processing time. In addition, since the existing convolutional neural network technology is designed for classification and detection of general images with significantly different data distribution characteristics from forgery fingerprints, it is necessary to design a network suitable for forgery fingerprint detection.

따라서, 본 발명의 목적은 소프트웨어 기반 위조지문 검출을 위한 컨볼루션 뉴럴네트워크의 최적 설계 방법에 관한 것으로, 임베디드 시스템에 컨볼루션 뉴럴네트워크의 높은 분류성능을 제공할 수 있도록 하는 위조지문 검출 가능한 지문인식 방법 및 시스템을 제공하는데 있다.Accordingly, an object of the present invention relates to an optimal design method of a convolutional neural network for detecting software-based forgery fingerprints, and a fingerprint recognition method capable of detecting forgery fingerprints to provide a high classification performance of a convolutional neural network to an embedded system. And systems.

본 발명에 따르면, 기존의 위조 지문 검출 방법보다 정확도 높게 위조 지문검출을 수행할 수 있다. According to the present invention, it is possible to perform forged fingerprint detection with higher accuracy than the existing forged fingerprint detection method.

또한, 기존의 위조 지문 검출 방법보다 연산해야 하는 변수의 수를 줄이면서도 정확도를 유지할 수 있는 위조 지문 검출 기술을 제공할 수 있다. In addition, it is possible to provide a forgery fingerprint detection technology capable of maintaining accuracy while reducing the number of variables to be calculated than the existing forgery fingerprint detection method.

한편, 본 발명의 효과는 이상에서 언급한 효과들로 제한되지 않으며, 이하에서 설명할 내용으로부터 통상의 기술자에게 자명한 범위 내에서 다양한 효과들이 포함될 수 있다.Meanwhile, the effects of the present invention are not limited to the above-mentioned effects, and various effects may be included within a range obvious to those skilled in the art from the following description.

도 1은 본 발명의 일 실시 예에 따른 위조 지문 검출 시스템의 일 예시이다.
도 2는 본 발명의 일 실시 예에 따른 위조지문 검출에 CNNs을 적용하는 방법을 도시한 것이다.
도 3은 그램행렬을 이용한 이미지 변환의 예시이다.
도 4는 본 발명의 일 실시 예에 따른 그램행렬의 생성 과정을 도시한 것이다.
도 5는 그램-K 모듈을 이용하여 K×K의 그램행렬을 생성하는 과정을 도시한 것이다.
도 6은 본 발명의 일 실시 예에 따른 Gram행렬을 이용한 CNNs 구조를 도시한 것이다.
도 7은 본 발명의 일 실시 예에 따른 Gram행렬 기반 CNNs 모델의 구조를 도시한 것이다.
도 8은 본 발명의 일 실시 예에 따른 End-to-end Gram모델에 사용된 하이퍼 파라미터를 표시한 것이다.
도 9는 Gram모듈을 적용한 방법과 기존의 방법의 성능을 비교한 것이다.
도 10은 Gram-128 모델의 검출 성능을 비교한 것이다.
도 11은 Gram-128 모델의 DET 곡선을 도시한 것이다.
도 12는 Gram-128의 DET곡선의 검출오류율 [0%, 20%] 구간을 도시한 것이다.
도 13은 본 발명의 일 실시 예에 따른 패치기반 위조지문 검출 방법을 도시한 것이다.
도 14는 본 발명의 일 실시 예에 따른 최적 문턱값을 적용한 패치기반 완전연결 네트워크의 전체구조를 도시한 것이다.
도 15는 각 데이터별 획득된 패치의 수를 도시한 것이다.
도 16은 본 발명의 일 실시 예에 따른 Fire모듈을 이용한 제안하는 패치기반 CNNs 모델 구조를 도시한 것이다.
도 17은 본 발명의 일 실시 예에 따른 패치기반 CNNs 구조를 도시한 것이다.
도 18은 기존 방법과 본 발명의 일 실시 예에 따른 방법을 비교한 것이다.
도 19는 LivDet2015 CrossMatch 데이터의 문턱값에 따른 Ferrfake와 Ferrlive의 값의 변화를 도시한 것이다.
도 20은 본 발명의 일 실시 예에 따른 패치기반 네트워크의 학습에 사용된 하이퍼 파라미터를 표시한 것이다.
도 21은 32×32 패치기반 위조지문 검출 성능을 비교한 것이다.
도 22는 32×32 패치기반 위조지문 검출 성능을 비교한 그래프이다.
도 23은 48×48 패치기반 위조지문 검출 성능을 비교한 것이다.
도 24는 48×48 패치기반 위조지문 검출 성능을 비교한 그래프이다.
도 25는 64×64 패치기반 위조지문 검출 성능을 비교한 것이다.
도 26은 64×64 패치기반 위조지문 검출 성능을 비교한 그래프이다.
도 27은 패치크기에 따른 성능을 비교한 것이다.
도 28은 패치크기에 따른 성능을 비교한 그래프이다.
도 29는 투표방식과 최적 문턱값 적용 결과를 비교한 것이다.
도 30은 최적문턱값 방법과 투표방법의 성능을 비교한 것이다.
도 31은 데이터 증강을 적용한 모델과의 성능을 비교한 것이다.
도 32는 데이터 증강을 적용했을 때의 성능을 비교한 것이다.
도 33은 본 발명의 일 실시 예에 따른 방법의 DET 곡선을 도시한 것이다.
도 34는 변형된 SqueezeNet의 처리속도를 비교(단위: ms)한 것이다.
도 35는 SqueezeNet과 본 발명의 일 실시 예에 따른 변형된 SqueezeNet의 처리속도를 비교한 것이다.
도 36은 본 발명의 일 실시 예에 따른 CNNs 구조의 격자방법과 완전컨볼루션 방법의 속도를 비교한 것이다.
도 37은 본 발명의 일 실시 예에 따른 완전컨볼루션을 이용한 위조지문의 특징을 부분적으로 관찰한 결과이다.
도 38은 동일한 위조지문이 모두 생체지문으로 분류된 경우의 예시이다.
도 39는 본 발명의 일 실시 예에 따른 방법들의 일반화 성능평가 결과를 도시한 것이다.
도 40은 본 발명의 일 실시 예에 따른 위조 지문 검출 방법의 흐름도이다.
1 is an example of a forged fingerprint detection system according to an embodiment of the present invention.
2 shows a method of applying CNNs to forgery fingerprint detection according to an embodiment of the present invention.
3 is an example of image transformation using a gram matrix.
4 illustrates a process of generating a gram matrix according to an embodiment of the present invention.
5 illustrates a process of generating a K × K gram matrix using the Gram-K module.
6 shows a CNNs structure using a Gram matrix according to an embodiment of the present invention.
7 illustrates the structure of a Gram matrix-based CNNs model according to an embodiment of the present invention.
8 shows hyper-parameters used in the end-to-end gram model according to an embodiment of the present invention.
9 is a comparison of the performance of the method applied to the Gram module and the existing method.
10 is a comparison of the detection performance of the Gram-128 model.
11 shows the DET curve of the Gram-128 model.
12 is a graph showing the detection error rate [0%, 20%] section of the DET curve of Gram-128.
13 illustrates a patch-based counterfeit fingerprint detection method according to an embodiment of the present invention.
14 illustrates the overall structure of a patch-based fully connected network to which an optimum threshold value is applied according to an embodiment of the present invention.
15 shows the number of patches obtained for each data.
16 is a diagram illustrating a proposed patch-based CNNs model structure using a Fire module according to an embodiment of the present invention.
17 shows a patch-based CNNs structure according to an embodiment of the present invention.
18 is a comparison of an existing method and a method according to an embodiment of the present invention.
FIG. 19 shows changes in the values of Ferrfake and Ferrlive according to threshold values of LivDet2015 CrossMatch data.
20 illustrates hyperparameters used for learning a patch-based network according to an embodiment of the present invention.
21 is a 32 × 32 patch-based counterfeit fingerprint detection performance comparison.
22 is a graph comparing 32 × 32 patch-based counterfeit fingerprint detection performance.
23 is a 48 × 48 patch-based counterfeit fingerprint detection performance comparison.
24 is a graph comparing 48 × 48 patch-based counterfeit fingerprint detection performance.
25 is a 64 × 64 patch-based counterfeit fingerprint detection performance comparison.
26 is a graph comparing 64 × 64 patch-based counterfeit fingerprint detection performance.
27 compares performance according to patch sizes.
28 is a graph comparing performance according to patch sizes.
Fig. 29 compares the results of applying the voting method and the optimal threshold.
30 compares the performance of the optimal threshold method and the voting method.
31 compares performance with a model to which data enhancement is applied.
32 is a comparison of performance when data augmentation is applied.
33 shows a DET curve of a method according to an embodiment of the present invention.
Fig. 34 compares the processing speed of the modified SqueezeNet (unit: ms).
35 compares the processing speed of SqueezeNet and a modified SqueezeNet according to an embodiment of the present invention.
36 is a comparison of the lattice method of the CNNs structure and the speed of a complete convolution method according to an embodiment of the present invention.
37 is a result of partially observing the characteristics of a forgery fingerprint using full convolution according to an embodiment of the present invention.
38 is an example of a case in which all of the same counterfeit fingerprints are classified as biological fingerprints.
39 illustrates the results of generalization performance evaluation of methods according to an embodiment of the present invention.
40 is a flowchart of a method for detecting a forged fingerprint according to an embodiment of the present invention.

이하, 첨부된 도면들을 참조하여 본 발명에 따른 '비정렬 격자 볼륨 렌더링 방법 및 장치'를 상세하게 설명한다. 설명하는 실시 예들은 본 발명의 기술 사상을 당업자가 용이하게 이해할 수 있도록 제공되는 것으로 이에 의해 본 발명이 한정되지 않는다. 또한, 첨부된 도면에 표현된 사항들은 본 발명의 실시 예들을 쉽게 설명하기 위해 도식화된 도면으로 실제로 구현되는 형태와 상이할 수 있다.Hereinafter, the 'alignment grid volume rendering method and apparatus' according to the present invention will be described in detail with reference to the accompanying drawings. The described embodiments are provided so that those skilled in the art can easily understand the technical idea of the present invention, and the present invention is not limited thereby. In addition, matters expressed in the accompanying drawings may be different from those actually implemented in schematic drawings to easily describe embodiments of the present invention.

한편, 이하에서 표현되는 각 구성부는 본 발명을 구현하기 위한 예일 뿐이다. 따라서, 본 발명의 다른 구현에서는 본 발명의 사상 및 범위를 벗어나지 않는 범위에서 다른 구성부가 사용될 수 있다. On the other hand, each component represented below is only an example for implementing the present invention. Accordingly, other components may be used in other implementations of the present invention without departing from the spirit and scope of the present invention.

또한, 각 구성부는 순전히 하드웨어 또는 소프트웨어의 구성만으로 구현될 수도 있지만, 동일 기능을 수행하는 다양한 하드웨어 및 소프트웨어 구성들의 조합으로 구현될 수도 있다. 또한, 하나의 하드웨어 또는 소프트웨어에 의해 둘 이상의 구성부들이 함께 구현될 수도 있다. In addition, each component may be implemented solely in the configuration of hardware or software, but may also be implemented in a combination of various hardware and software components that perform the same function. Also, two or more components may be implemented together by one hardware or software.

또한, 어떤 구성요소들을 '포함'한다는 표현은, '개방형'의 표현으로서 해당 구성요소들이 존재하는 것을 단순히 지칭할 뿐이며, 추가적인 구성요소들을 배제하는 것으로 이해되어서는 안 된다. In addition, the expression 'includes' certain components, as an expression of 'open', simply refers to the existence of the components, and should not be understood as excluding additional components.

도 1은 본 발명의 일 실시 예에 따른 위조 지문 검출 시스템의 일 예시이다.1 is an example of a forged fingerprint detection system according to an embodiment of the present invention.

도 1을 참조하면 본 발명의 일 실시 예에 따른 위조 지문 검출 시스템은 지문 인식 시스템에 포함될 수 있다. Referring to FIG. 1, a forgery fingerprint detection system according to an embodiment of the present invention may be included in a fingerprint recognition system.

본 발명의 일 실시 예에 따른 위조 지문 검출 시스템은 센서모듈(110), 특징추출부(120), 매칭부(130) 및 데이터베이스부(140)를 포함할 수 있다.The forgery fingerprint detection system according to an embodiment of the present invention may include a sensor module 110, a feature extraction unit 120, a matching unit 130, and a database unit 140.

상기 센서모듈(110)은 각 개인의 생체정보를 획득할 수 있다. 상기 센서모듈(110)은 사용자의 지문을 생체정보로 인식하고 획득할 수 있다. 상기 생체정보는 지문, 목소리, 홍채, DNA, 얼굴형 등을 포함할 수 있다.The sensor module 110 may acquire biometric information of each individual. The sensor module 110 may recognize and obtain a user's fingerprint as biometric information. The biometric information may include fingerprints, voices, irises, DNA, face types, and the like.

상기 특징추출부(120)는 상기 생체 정보의 품질을 측정하고 데이터 전처리, 특징추출 및 위조여부 판단을 수행할 수 있다. 상기 특징추출부(120)에서 상기 패치의 크기는 32X32, 48X48, 64X64 픽셀 중 어느 하나의 크기를 가질 수 있다.The feature extraction unit 120 may measure the quality of the bio-information and perform data preprocessing, feature extraction, and determination of forgery. In the feature extraction unit 120, the size of the patch may have one of 32X32, 48X48, and 64X64 pixels.

바람직하게는, 상기 특징 추출부(120)는 상기 패치의 크기가 48X48 픽셀의 크기를 가질 수 있다.Preferably, the feature extraction unit 120 may have a size of the patch 48X48 pixels.

상기 특징 추출부(120)는 복수의 상기 패치를 개별적으로 위조 여부를 판단할 수 있다.The feature extraction unit 120 may determine whether to counterfeit the plurality of patches individually.

상기 특징 추출부(120)는 복수의 상기 패치의 위조 여부 판단 결과를 종합해 생체정보 전체의 위조정보 또는 생체정보 여부를 판단할 수 있다.The feature extracting unit 120 may determine whether the entire biometric information is counterfeit or biometric information by synthesizing the result of determining whether the plurality of patches are forged.

상기 특징 추출부(120)는 학습에 의해 결정된 문턱값을 기준으로 위조 여부를 판단할 수 있다. The feature extracting unit 120 may determine whether to falsify based on a threshold value determined by learning.

상기 특징 추출부(120)는 획득한 상기 생체정보에서 그램행렬을 추출하여, 위조 여부 판단에 이용할 수 있다.The feature extraction unit 120 may extract a gram matrix from the obtained biometric information and use it to determine whether or not it is forged.

상기 특징 추출부(120)는 상기 그램행렬의 크기가 128x128 일 수 있다. The feature extraction unit 120 may have a size of the gram matrix of 128x128.

상기 매칭부(130)는 상기 데이터베이스부(140)에 저장된 템플릿(template)과 상기 특징 추출부(120)에서 획득된 생체 특징의 매칭점수를 생성할 수 있다. 상기 매칭부(130)는 상기 생체 정보의 매칭 점수에 따라 인증 여부를 판단할 수 있다. 상기 매칭부(130)는 상기 생체정보의 매칭점수에 따라 상기 사용자를 인증하는 작업을 수행할 수 있다.The matching unit 130 may generate a template stored in the database unit 140 and a matching score of biometric features obtained by the feature extraction unit 120. The matching unit 130 may determine whether to authenticate according to the matching score of the biometric information. The matching unit 130 may perform the operation of authenticating the user according to the matching score of the biometric information.

상기 데이터베이스부(140)는 생체 등록과정을 거쳐 생체 데이터들을 템플릿으로 저장할 수 있다. 상기 데이터베이스부(140)는 상기 특징 추출부(120)에서 학습한 결과를 저장할 수 있다. 상기 데이터베이스부(140)는 인증을 위한 데이터 및 위조여부 판단을 위한 데이터를 저장할 수 있다.The database unit 140 may store biometric data as a template through a biometric registration process. The database unit 140 may store the results learned by the feature extraction unit 120. The database unit 140 may store data for authentication and data for falsification.

도 2는 본 발명의 일 실시 예에 따른 위조지문 검출에 CNNs을 적용하는 방법을 도시한 것이다.2 shows a method of applying CNNs to forgery fingerprint detection according to an embodiment of the present invention.

위조지문연구에서 Local Binary Pattern(LBP) 혹은 게보필터(Gabor filter)를 이용하여 텍스쳐 정보를 추출한 후 분류기를 학습시킨 모델들이 좋은 성능을 나타낸 경우가 많다. 본 발명의 일 실시 예에 따른 매칭부(130)는 지문의 입력 크기에 무관하게 동작할 수 있으며 약 1.2MB 크기의 파라미터를 갖는 Gram 행렬을 이용한 end-to-end CNN 모델을 이용할 수 있다. 본 발명의 일 실시 예에 따른 매칭부(130)는 CNN 모델의 총 파라미터 수는 308,554개로 파라미터 하나를 4byte로 할 경우 약 1.2MB의 크기가 될 수 있다. 본 발명의 일 실시 예에 따른 특징 추출부(120)는 위조지문 검출에 적합한 특징을 검출하고 상기 매칭부(130)는 입력되는 지문의 크기에 무관한 네트워크를 구성하기위해 Gram 모듈을 도입할 수 있다. 상기 매칭부(130)에서 사용하는 CNN 모델은 전처리 과정없이 지문영상을 원형 그대로 입력으로 받은 후 최종적으로 위조와 생체를 구분할 수 있다. 본 발명의 일 실시 예에 따른 위조지문 검출 가능한 지문인식 시스템은 위조지문의 평균 검출오류가 2.61%를 보여 적은 수의 파라미터로도 높은 성능을 갖는 end-to-end CNN 모델을 구축할 수 있다.In counterfeit fingerprint studies, the models that trained the classifier after extracting texture information using a local binary pattern (LBP) or a Gabor filter often showed good performance. The matching unit 130 according to an embodiment of the present invention may operate regardless of the input size of the fingerprint and may use an end-to-end CNN model using a Gram matrix having a parameter size of about 1.2 MB. The matching unit 130 according to an embodiment of the present invention has a total number of parameters of the CNN model of 308,554, and when one parameter is 4 bytes, the size may be about 1.2 MB. The feature extraction unit 120 according to an embodiment of the present invention detects a feature suitable for forgery fingerprint detection, and the matching unit 130 can introduce a Gram module to configure a network independent of the size of the input fingerprint. have. The CNN model used by the matching unit 130 may receive a fingerprint image as an input without a pre-processing process, and finally distinguish between a forgery and a living body. In the fingerprint recognition system capable of detecting a forged fingerprint according to an embodiment of the present invention, since the average detection error of the forged fingerprint is 2.61%, an end-to-end CNN model having high performance with a small number of parameters can be constructed.

위조지문 검출 시 CNNs을 이용한 경우 대부분의 시스템은 도 2의 (a)와 (b)와 같은 형태로 동작한다. 도 2의 (a)의 경우 지문을 패치로 나눠서 처리하는 방법이다. 도 2 (a)는 지문을 16×16 혹은 32×32의 크기의 작은 패치들로 나눈 후 CNNs에 적용하고 결과를 후처리 하여 최종 위조여부를 판별하는 방법이다. 도 2의 (b)의 경우 일반적인 분류에서 적용하는 방법을 그대로 지문에 적용한 연구이다. 지문을 네트워크의 입력크기에 맞게 잘라내거나 확대/축소를 적용 한 후 CNNs을 적용하는데 이를 위해 영상 세그멘테이션과 같은 방법이 적용될 수 있다. 도 2의 (a) 의 경우는 CNNs을 적용하기 전에 지문을 패치로 자르는 전처리 및 패치 결과를 종합하기 위한 후처리 과정이 필요하며 (b)의 경우는 영상 축소로 인한 정보의 손실이 발생할 여지가 존재하며 마찬가지로 세그멘테이션과 같은 전처리 과정을 필요로 한다. 본 발명의 일 실시 예에 따른 위조지문 검출 가능한 지문인식 시스템은 Gram행렬을 이용한 CNNs모델은 end-to-end인 도 2의 (c)와 같은 형태로 동작하며 현재까지 제시한 CNNs기반 방법 중 가장 작은 수의 파라미터를 사용한다.In the case where CNNs are used to detect counterfeit fingerprints, most systems operate in the form of (a) and (b) of FIG. 2. In the case of (a) of FIG. 2, the fingerprint is divided into patches and processed. Figure 2 (a) is a method of determining whether a final forgery is obtained by dividing a fingerprint into small patches of 16 × 16 or 32 × 32 and applying it to CNNs and post-processing the result. In the case of (b) of FIG. 2, the method applied in the general classification is applied to the fingerprint as it is. CNNs are applied after the fingerprint is cut to fit the network's input size or applied to enlarge / reduce. To this end, a method such as image segmentation may be applied. In the case of (a) of FIG. 2, pre-processing of cutting fingerprints into patches before applying CNNs and a post-processing process for synthesizing patch results are required. In the case of (b), there is no room for information loss due to image reduction. It exists and likewise requires a pretreatment process such as segmentation. In the fingerprint recognition system capable of detecting a forgery fingerprint according to an embodiment of the present invention, the CNNs model using the Gram matrix operates in the form of (c) of FIG. 2 which is end-to-end and is the most of the CNNs-based methods presented so far. Use a small number of parameters.

도 3은 그램행렬을 이용한 이미지 변환의 예시이다.3 is an example of image transformation using a gram matrix.

도 3을 참조하면, 본 발명의 일 실시 예에 따른 위조지문 검출 가능한 지문인식 시스템은 Gram행렬을 사용하는데 이를 활용하기 위해서는 스타일 전달(style transfer)을 이해할 필요가 있다. 스타일 전달 방법은 CNNs을 이용하여 예술가들의 그림 스타일을 추출한 후 이를 일반적 사진에 적용하여 도 3과 같은 예술가들 고유의 스타일이 적용된 그림으로 바꿔주는 방법으로 많은 이들의 관심을 받아왔다. 이 방법의 핵심은 입력된 사진의 내용정보는 유지하면서 스타일만을 바꿔주는 것이다. 예술가들의 그림으로부터 스타일을 추출하기 위해 도입하는 것이 Gram행렬로 이는 CNNs 텐서의 채널별 상관(correlation)계수을 계산하여 행렬형태로 만드는 것이다. 예술가들 그림으로부터 획득한 Gram행렬과 변환을 원하는 영상의 Gram행렬의 차이를 손실함수로 만들고 파라미터 업데이트를 진행하는 대신 입력된 영상의 픽셀을 업데이트 한다. 동시에 원본 입력의 내용 정보는 유지하면서 앞서 설명한 입력영상의 반복적 업데이트를 진행하게 되면 도 3과 같은 효과를 얻을 수 있게 된다.Referring to FIG. 3, a fingerprint recognition system capable of detecting a forgery fingerprint according to an embodiment of the present invention uses a Gram matrix, and in order to utilize this, it is necessary to understand style transfer. The style delivery method has attracted many people's attention by extracting the artist's painting style using CNNs and applying it to a general picture to replace the artist's own style as shown in FIG. 3. The essence of this method is to change only the style while maintaining the content information of the input photo. Introduced to extract styles from artists' paintings is the Gram matrix, which calculates the correlation coefficient of each channel of the CNNs tensor to form a matrix. The difference between the Gram matrix obtained from the artist's picture and the Gram matrix of the image to be transformed is made as a loss function, and instead of updating the parameters, the pixels of the input image are updated. At the same time, if the iterative update of the input image described above is performed while maintaining the content information of the original input, the effect shown in FIG. 3 can be obtained.

본 발명의 일 실시 예에 따른 위조 지문 검출 시스템은 스타일 전달 아이디어에 착안하여 Gram행렬을 지문에서 추출한 후 이를 이용하여 위조지문 분류에 적용한다. 즉 스타일 전달 방법에서 정의한 스타일을 영상의 텍스쳐라고 가정하고 이를 추출 하기위해 Gram행렬을 적용하는 것이다.The forgery fingerprint detection system according to an embodiment of the present invention focuses on a style transfer idea, extracts a Gram matrix from a fingerprint, and then applies it to the forgery fingerprint classification. That is, it is assumed that the style defined in the style delivery method is the texture of the image, and the Gram matrix is applied to extract it.

스타일 전달을 위해 사용하는 Gram 모듈을 텍스쳐 네트워크로 정의하고 이를 활용한 예는 앞서 설명한 Gram행렬을 이용한 네트워크를 텍스쳐 네트워크로 정의하고 이를 GAN(Generative Adversarial Networks) 과 연결하여 더 높은 수준의 예술적 사진을 만들어내는데 사용한 것이 있다. 다른 예는 CNNs을 통해 회전에 불변한 특징들을 얻기 위해 네트워크 내부에서 텐서를 회전 시킨 후 이를 다시 자신들이 설계한 풀링 네트워크와 조합한 CNNs 모델을 제시하였다. 이는 텍스쳐 정보를 취득하기 보다는 회전에 강인한 물체인식을 적용하기 위함이다. 본 발명의 일 실시 예에 따른 위조 지문 검출 시스템은 예술적 사진을 만들기 위해 Gram행렬을 이용하는 생성모델이 아닌 분류모델로 이용한다. 또한 본 발명의 일 실시 예에 따른 위조 지문 검출 시스템은 파라미터의 수를 SqueezeNet의 2배 이상으로 줄이는 형태로 네크워크를 설계하였고, 네트워크 내부에서 텐서의 크기를 동일하게 만드는 Gram모듈을 도입하여 입력영상 크기에 무관하게 동작되며 모든 설계 제약 조건을 만족 시킨다.The Gram module used for style delivery is defined as a texture network, and an example using it is defined as a network using the Gram matrix described above as a texture network and connected with GAN (Generative Adversarial Networks) to create higher-level artistic photos. There is something I used to pay. Another example suggested a CNNs model that rotated a tensor inside a network to obtain the rotation-invariant features through CNNs, and then combined it with their own designed pooling network. This is to apply object recognition robust to rotation rather than to acquire texture information. The forgery fingerprint detection system according to an embodiment of the present invention is used as a classification model rather than a generation model using a Gram matrix to make an artistic photograph. In addition, the forgery fingerprint detection system according to an embodiment of the present invention designed a network in a form of reducing the number of parameters to twice or more than SqueezeNet, and introduced a Gram module that makes the size of the tensor the same in the network, to input the image size. It operates regardless of design conditions and satisfies all design constraints.

도 4는 본 발명의 일 실시 예에 따른 그램행렬의 생성 과정을 도시한 것이다.4 illustrates a process of generating a gram matrix according to an embodiment of the present invention.

도 4를 참조하면, Gram행렬은 높이, 넓이, 채널의 크기가 H× W× C인 3차원 텐서가 존재할 경우 이를 2차원 (H W) × 행렬로 만든 후, 각 행 성분의 상관행렬을 만들 수 있다. 상기 Gram 행렬을 만드는 과정을 일반화 하기 위해 도 4의 중간단계인 (H W) × 의 2차원 행렬 변환결과를 이라고 가정하면 여기서 은 일반화를 위해 삽입한 뉴럴네트워크의 번째 레이어를 의미할 수 있다. 을 행렬의 번째 행벡터로 가정할 때 레이어의 2차원 Gram행렬의 각 요소 ,j는 수학식 1과 같은 내적연산을 통해 계산될 수 있다.Referring to FIG. 4, if a three-dimensional tensor having a height, width, and channel size of H × W × C exists in the Gram matrix, it can be made into a two-dimensional (HW) × matrix, and then a correlation matrix of each row component can be created. have. In order to generalize the process of creating the Gram matrix, assuming that the 2D matrix transformation result of (HW) × which is an intermediate step in FIG. 4 is,, this may mean the second layer of the neural network inserted for generalization. Assuming that is the first row vector of the matrix, each element of the 2-dimensional Gram matrix of the layer , j, can be calculated through the dot product as shown in Equation 1.

[수학식 1][Equation 1]

Figure pat00001
Figure pat00001

Gram행렬 은 대칭행렬이며 이는 예술적 그림들의 스타일을 추출하는데 활용된다. 스타일 특징은 Gram연산을 통해 위치에 종속되지 않는 전체적 텍스쳐로 해석될 수 있으며 이 특징은 위조지문 검출에도 사용될 수 있다.The Gram matrix is a symmetric matrix, which is used to extract the style of artistic paintings. The style feature can be interpreted as an overall texture independent of position through the Gram operation, and this feature can also be used to detect counterfeit fingerprints.

도 5는 그램-K 모듈을 이용하여 K×K의 그램행렬을 생성하는 과정을 도시한 것이고, 도 6은 본 발명의 일 실시 예에 따른 Gram행렬을 이용한 CNNs 구조를 도시한 것이다.5 shows a process of generating a K × K gram matrix using the Gram-K module, and FIG. 6 illustrates a CNNs structure using a Gram matrix according to an embodiment of the present invention.

도 5 및 도 6을 참조하면, Gram행렬을 CNNs에 포함시키기 위해서 Gram모듈을 정의한다. Gram모듈은 1×1 컨볼루션 레이어, tanh 비선형 활성화 함수, Gram레이어를 포함할 수 있다. Gram모듈은 1×1 컨볼루션 필터의 수를 조절하여 원하는 크기의 Gram행렬을 만들어 주는 역할을 하게 된다. 본 발명의 일 실시 예에 따르면, 1×1 필터의 수가 K인 Gram모듈을 Gram-K로 정의할 수 있다. 도 5는 Gram-K의 결과로 K×K의 Gram행렬을 얻는 예시를 보여준다. Gram-K를 이용해 어떤 크기의 입력도 허용하는 CNNs의 구성을 가능하게 한다. 본 발명의 일 실시 예에 따른 위조지문 검출 가능한 지문인식 시스템은 적은 수의 파라미터를 갖는 CNNs을 설계하기 위하여 Fire모듈을 함께 적용하며 도 6과 같은 구조를 포함할 수 있다. 첫번째 Fire모듈인 fire2-128은 Expand 레이어 필터 수가 128개이다. SR(Squeeze Ratio)를 0.125로 설정했기에 Squeeze 레이어의 1×1필터의 수는 표기한 128보다 8배 적은 16개를 포함할 수 있다. 또한 Expand레이어의 1×1필터 수와 3×3필터 수의 비율인 PCT는 0.5로 하여 동일한 수를 갖게 하였다. 이는 원형 SqueezeNet에서 적용하는 기본 SR과 PCT 값이며 도 6의 모든 Fire모듈에 동일한 SR과 PCT를 적용할 수 있다. 도 6의 첫번째 레이어인 conv1-96 / 2은 이동 크기 2를 갖는 96개의 7× 7필터를 사용하였다. 마지막 컨볼루션 레이어인 conv7-2는 2개의 1×1 필터이다. 도 6에 존재하는 maxpool / 2는 3×3 크기의 필터이동 2를 갖는 맥스풀링을 의미하며 avgpooling은 전역평균풀링을 의미한다. Gram-128은 Gram모듈이며 출력되는 텐서의 크기는 128×128×1 일 수 있다.5 and 6, a Gram module is defined to include a Gram matrix in CNNs. The Gram module may include a 1 × 1 convolution layer, a tanh nonlinear activation function, and a Gram layer. The Gram module controls the number of 1 × 1 convolution filters to create a Gram matrix of the desired size. According to an embodiment of the present invention, a Gram module in which the number of 1 × 1 filters is K may be defined as Gram-K. 5 shows an example of obtaining a K × K Gram matrix as a result of Gram-K. Using Gram-K, you can configure CNNs that accept any size input. The fingerprint recognition system capable of detecting a forgery fingerprint according to an embodiment of the present invention applies a Fire module together to design CNNs having a small number of parameters and may include a structure as shown in FIG. 6. The first Fire module, fire2-128, has 128 Expand layer filters. Since the SR (Squeeze Ratio) is set to 0.125, the number of 1 × 1 filters in the Squeeze layer may include 16, 8 times less than the indicated 128. In addition, PCT, which is the ratio of the number of 1x1 filters and 3x3 filters in the Expand layer, was set to 0.5 to have the same number. This is the basic SR and PCT values applied in the original SqueezeNet, and the same SR and PCT can be applied to all Fire modules in FIG. 6. In the first layer of FIG. 6, conv1-96 / 2, 96 7 × 7 filters having a moving size of 2 were used. The last convolution layer, conv7-2, is two 1x1 filters. The maxpool / 2 present in FIG. 6 refers to maxpooling having a filter movement 2 of 3 × 3 size, and avgpooling means global average pooling. Gram-128 is a Gram module and the size of the output tensor can be 128 × 128 × 1.

도 7은 본 발명의 일 실시 예에 따른 Gram행렬 기반 CNNs 모델의 구조를 도시한 것이다.7 illustrates the structure of a Gram matrix-based CNNs model according to an embodiment of the present invention.

도 7을 참조하면, 각각의 Gram-128 모듈로부터 획득된 3개의 Gram행렬들은 채널방향으로 쌓여 128× 128× 3형태가 되고 이는 다시 Fire모듈의 입력이 된다. 본 발명의 일 실시 예에 따른 위조지문 검출 가능한 지문인식 시스템은 Gram모듈의 적용으로 세그멘테이션과 같은 과정 없이 어떤 크기의 입력도 처리할 수 있으며 end-to-end 방식으로 동작할 수 있다. 네트워크의 파라미터 총 수는 308,554로 SqueezeNet의 파라미터 수인 738,594보다 두배 이상 적다. 도 7에서 입력되는 지문영상의 크기가 K×K일 경우 Gram행렬을 이용한 CNNs 모델의 구조를 상세하게 표현하였다.Referring to FIG. 7, three Gram matrices obtained from each Gram-128 module are stacked in the channel direction to form a 128 × 128 × 3 form, which in turn becomes the input of the Fire module. The fingerprint recognition system capable of detecting a forgery fingerprint according to an embodiment of the present invention can process input of any size without a process such as segmentation by applying a Gram module and operate in an end-to-end manner. The total number of parameters in the network is 308,554, which is more than twice the number of parameters in SqueezeNet, 738,594. When the size of the fingerprint image input in FIG. 7 is K × K, the structure of the CNNs model using the Gram matrix is expressed in detail.

도 7을 통해 다양한 크기의 입력영상(직사각형 형태의 입력도 가능하다)도 Gram모듈을 통과하게 되면 128×128×1의 크기로 변형됨을 확인 할 수 있다. 도 7의 concatenation 부분은 Gram모듈의 결과 3개를 연결하는 부분이며 그 크기가 128×128×3인 것을 확인할 수 있다.7, it can be seen that input images of various sizes (rectangular input is also possible) are transformed to a size of 128 × 128 × 1 when passing through the Gram module. The concatenation part of FIG. 7 is a part connecting three results of the Gram module, and it can be seen that the size is 128 × 128 × 3.

도 8는 본 발명의 일 실시 예에 따른 end-to-end Gram모델에 사용된 하이퍼 파라미터를 표시한 것이다.8 shows hyper-parameters used in the end-to-end Gram model according to an embodiment of the present invention.

도 8을 참조하면, 본 발명의 일 실시 예에 따른 위조지문 검출 가능한 지문인식 시스템은 NVIDA GTX 1080를 활용할 수 있다. 학습에 적용된 파라미터는 학습율을 0.0005로 배치크기는 8, 세대(epoch) 수는 80으로 하였다. 최적화 방법은 Adamax를 적용하였고 학습용 LivDet 데이터 중 10%는 검증에 사용하였다. 검증용 데이터는 최대한 다른 사람의 지문을 사용하였고 데이터 분포를 동일하게 맞췄다. 또한 학습 시 배치 단위로 임의의 거울 대칭이 적용되며 각 세대마다 검증데이터의 손실값을 확인하여 4세대 동안 손실값이 줄어들지 않으면 학습율을 2배씩 줄였다. 실험에 사용된 하이퍼 파라미터를 도 8에 정리하였다.Referring to FIG. 8, a fingerprint recognition system capable of detecting forged fingerprints according to an embodiment of the present invention may utilize NVIDA GTX 1080. The parameter applied to learning was 0.0005, the batch size was 8, and the number of generations (epoch) was 80. Adamax was applied as the optimization method, and 10% of the learning LivDet data was used for verification. For verification data, fingerprints from other people were used as much as possible, and the data distribution was matched identically. In addition, when learning, random mirror symmetry is applied in batch units, and the loss value of verification data is checked for each generation, and if the loss value does not decrease during 4 generations, the learning rate is doubled. 8 shows the hyperparameters used in the experiment.

도 9는 Gram모듈을 적용한 방법과 기존의 방법의 성능을 비교한 것이고, 도 10은 Gram-128 모델의 검출 성능을 비교한 것이다.FIG. 9 compares the performance of the method to which the Gram module is applied and the existing method, and FIG. 10 compares the detection performance of the Gram-128 model.

도 9 및 도 10을 참조하면, 제안하는 Gram행렬을 이용한 모델의 위조지문 검출성능을 평가하기 위해 도 9에 위조지문 검출의 (Average Classification Error)ACE 결과를 나타내었다. 기존 기술의 평균 성능이 3.52%인 것에 반해 본 발명의 일 실시 예에 따른 위조지문 검출 가능한 지문인식 시스템의 평균 ACE는 2.61%을 나타내었다. 데이터 증강은 이전과 마찬가지로 거울대칭에 추가적인 상하대칭을 임의로 적용한 결과인데 ACE의 평균값만을 보면 적용하지 않은 것보다 조금 나쁜 성능을 나타낸다. 위조지문을 판별하는데 걸리는 처리시간은 입력되는 영상의 크기에 비례하여 나타나며 평균 21ms를 보여 세그멘테이션 기반 방법의 SqueezeNet 보다도 빠르게 처리 됨을 입증하였다. 그림 도 10에 도 9의 결과를 그래프로 표현하였다. 본 발명의 일 실시 예에 따른 위조 지문 검출 시스템의 Gram모듈을 이용한 CNNs 모델은 SqueezeNet 보다 작은 파라미터 수를 가지고 더 좋은 검출결과를 보였다. 한 장의 지문영상을 처리하는데 소요되는 평균시간도 세그멘테이션을 적용한 SqueezeNet 방법보다 약 2배 이상 빠르게 나타났으며 만약 세그멘테이션에 소요되는 시간을 함께 측정하였다면 더 큰 비율로 속도향상 결과가 나타나게 됨을 확인 할 수 있다.9 and 10, in order to evaluate forgery fingerprint detection performance of the model using the proposed Gram matrix, the (Average Classification Error) ACE result of the forgery fingerprint detection is shown in FIG. 9. While the average performance of the existing technology is 3.52%, the average ACE of the fingerprint recognition system capable of detecting forgery fingerprints according to an embodiment of the present invention was 2.61%. Data augmentation is the result of randomly applying additional up and down symmetry to the mirror symmetry as before. Looking at the average value of the ACE, it shows slightly worse performance than the one not applied. The processing time required to determine the forgery fingerprint appears in proportion to the size of the input image and shows an average of 21 ms, which proves that it is processed faster than SqueezeNet of the segmentation-based method. Fig. 10 shows the results of Fig. 9 graphically. The CNNs model using the Gram module of the forgery fingerprint detection system according to an embodiment of the present invention showed better detection results with a smaller number of parameters than SqueezeNet. It can be seen that the average time required to process a single fingerprint image was about twice as fast as the SqueezeNet method with segmentation applied, and if the time required for segmentation was measured together, the speed improvement result would appear at a larger rate. .

도 11는 Gram-128 모델의 DET 곡선을 도시한 것이고 도 12는 Gram-128의 DET곡선의 검출오류의 [0%, 20%] 구간을 도시한 것이다.FIG. 11 shows the DET curve of the Gram-128 model, and FIG. 12 shows the [0%, 20%] section of the detection error of the DET curve of the Gram-128.

도 11을 참조하면, 도 9의 Gram-128 모델의 DET(Detection Error Tradeoff) 곡선을 그려보면 도 11와 같은 결과를 얻을 수 있다. Italdata센서의 경우 Ferrlive가 좀 처럼 줄어 들지 않음을 확인 할 수 있다. 실제로 도 9의 2011 Italdata센서의 ACE 값은 Ferrlive가 10%이고 Ferrfake의 값이 0%로 계산된 값이다. 도 12는 변화의 추세를 좀 더 잘 확인 할 수 있도록 오류의 범위를 [0%, 20%]로 확대하여 표현하였다.Referring to FIG. 11, if a DET (Detection Error Tradeoff) curve of the Gram-128 model of FIG. 9 is drawn, the same result as in FIG. 11 can be obtained. In the case of the Italdata sensor, it can be confirmed that Ferrlive hardly decreases. In fact, the ACE value of the 2011 Italdata sensor of FIG. 9 is a value calculated by Ferrlive being 10% and Ferrfake being 0%. 12, the error range is enlarged and expressed as [0%, 20%] so that the trend of the change can be better identified.

도 13은 본 발명의 일 실시 예에 따른 패치기반 위조지문 검출 방법을 도시한 것이다.13 illustrates a patch-based counterfeit fingerprint detection method according to an embodiment of the present invention.

도 13을 참조하면, 본 발명의 일 실시 예에 따른 위조지문 검출 가능한 지문인식 시스템은 지문영상의 패치를 이용하여 지문의 위조여부를 판단하는 CNNs 모델을 포함할 수 있다. 지문영상 전체가 아니라 패치를 사용하게 될 경우 지문영상의 크기가 아닌 패치의 크기에 따른 네트워크를 구축할 수 있게 되어 입력영상의 크기에 무관한 네트워크를 구축할 수 있다. 패치를 사용하게 될 경우 일반적으로 다음과 같은 몇 가지 이점이 존재한다.Referring to FIG. 13, a fingerprint recognition system capable of detecting a forgery fingerprint according to an embodiment of the present invention may include a CNNs model for determining whether a fingerprint is forged by using a patch of a fingerprint image. When a patch is used instead of the entire fingerprint image, a network according to the patch size, not the size of the fingerprint image, can be constructed, thereby establishing a network independent of the size of the input image. There are generally several advantages to using a patch:

1) 지문의 크기에 무관한 네트워크를 구축할 수 있다.1) A network independent of the size of a fingerprint can be built.

지문의 크기에 상관없이 패치의 크기에 따른 네트워크를 구축할 수 있어 다양한 크기의 지문영상을 처리할 수 있다. Regardless of the size of the fingerprint, it is possible to build a network according to the size of the patch, so it can process fingerprint images of various sizes.

2) 학습 데이터의 크기를 늘릴 수 있다.2) The size of the training data can be increased.

지문을 여러 장의 패치로 나눠서 학습하기 때문에 학습에 사용되는 데이터의 수를 늘릴 수 있다. Since the fingerprint is divided into several patches for learning, the number of data used for learning can be increased.

3) 위조지문의 지역적 특징을 판별 할 수 있다.3) Local characteristics of counterfeit fingerprints can be identified.

지문 전체를 이용하지 않고 지역적 패치를 기준으로 위조지문을 판단하기 때문에 전체지문을 사용했을 때 발생할 수 있는 오류를 줄일 수 있다. Since the forgery fingerprint is determined based on the local patch without using the entire fingerprint, errors that may occur when using the entire fingerprint can be reduced.

4) CNNs에 적용되는 풀링의 수를 줄여 정보의 손실을 막을 수 있다.4) By reducing the number of pooling applied to CNNs, information loss can be prevented.

네트워크의 입력으로 들어오는 패치의 크기는 작기 때문에 풀링을 더 적게 수행할 수 있으며 이를 통해 정보의 손실을 줄일 수 있다. Since the size of the patch coming into the network input is small, it is possible to perform less pooling, thereby reducing information loss.

5) 시각화를 통해 위조지문의 특성을 파악하는데 용이하다.5) It is easy to understand the characteristics of counterfeit fingerprints through visualization.

패치를 통해 지문의 어느 부분이 위조 혹은 생체지문으로 판단되었는지 눈으로 확인할 수 있는 분석도구를 제공한다. It provides an analysis tool that can visually check which part of the fingerprint is judged to be a forgery or a biometric fingerprint through the patch.

6) 모바일 지문센서와 같은 곳에서도 적용 가능하게 된다.6) It can be applied in places such as mobile fingerprint sensors.

모바일 지문센서는 기존의 광학식 지문입력센서에 비해 면적이 매우 작기 때문에 작은 크기의 지문 영역에 대한 영상을 획득한다.  Since the mobile fingerprint sensor has a very small area compared to the conventional optical fingerprint input sensor, it acquires an image of a small fingerprint area.

대부분의 위조지문 분류가 생체지문과 위조지문의 2가지 부류(label)로 분류기를 구성하는 반면에 본 발명의 일 실시 예에 따른 위조지문 검출 가능한 지문인식 시스템은 생체, 위조, 배경의 3가지 부류로 분류한다. 이를 통해 지문의 전처리 과정으로 가장 많이 사용되는 세그멘테이션 과정을 CNNs으로 통합할 수 있게 되어 더 빠른 속도로 위조지문 탐지가 가능해진다. 위조지문을 판별 할 때 배경 부류는 무시하고 생체와 위조로 분류된 결과를 종합하여 위조여부를 판단하게 된다. 이 절차는 도 13과 같다. 본 발명의 일 실시 예에 따른 위조지문 검출 가능한 지문인식 시스템에서 사용되는 패치의 크기는 32×32, 48×48, 64×64일 수 있다. 이를 통해 패치 크기에 따른 위조지문 검출성능의 변화를 확인할 수 있다. 본 발명의 일 실시 예에 따른 위조지문 검출 가능한 지문인식 시스템의 특징 추출부(120)에서 사용하는 패치기반 방법은 기존 패치를 사용한 CNNs 기반 위조지문 검출 방법들과 다음과 같은 차별성을 갖는다.While most of the forgery fingerprint classification constitutes a classifier of two types of biometric fingerprints and forgery fingerprints, the fingerprint recognition system capable of detecting forgery fingerprints according to an embodiment of the present invention includes three types of biometrics, forgeries, and backgrounds. Classify as. Through this, it is possible to integrate the most frequently used segmentation process into CNNs as a pre-processing process for fingerprints, thereby allowing forgery detection at a faster rate. When determining the forgery fingerprint, the background class is ignored, and the results classified as the living body and the forgery are synthesized to determine whether the forgery is counterfeit. This procedure is shown in FIG. 13. The size of the patch used in the fingerprint recognition system capable of detecting forgery fingerprints according to an embodiment of the present invention may be 32 × 32, 48 × 48, or 64 × 64. Through this, it is possible to confirm a change in the performance of detecting a forgery fingerprint according to the patch size. The patch-based method used in the feature extraction unit 120 of the fingerprint recognition system capable of detecting a forgery fingerprint according to an embodiment of the present invention has the following differentiation from the CNNs-based forgery fingerprint detection methods using the existing patch.

지문을 단순히 위조와 생체의 2부류가 아닌 생체, 위조, 배경으로 구분하여 세그멘테이션과 같은 전처리 과정을 CNNs에 통합하였다. Fingerprints are not simply two categories of forgery and living body, but are divided into living body, forgery, and background to integrate preprocessing processes such as segmentation into CNNs.

하나의 패치크기만을 이용한 기존 방법들과 달리 학습에 사용하는 패치의 크기를 32×32, 48×48, 64×64로 실험하여 네트워크에 적합한 패치 크기를 결정하였다. Unlike existing methods using only one patch size, the size of the patch used for learning was experimented with 32 × 32, 48 × 48, and 64 × 64 to determine the appropriate patch size for the network.

지문을 패치 단위로 잘라낸 후 각 패치에 CNNs을 적용하는 기존의 방법보다 완전 컨볼루션 방식으로 처리하는 것이 더 좋은 결과를 보일 수 있음을 보였다. After cutting the fingerprints in units of patches, it was shown that it is possible to perform better in a completely convolutional way than the conventional method of applying CNNs to each patch.

최종 위조여부 결정 시 투표를 통해서 최종 위조여부를 결정하는 기존의 방법보다 학습 데이터로부터 최적 문턱치 값을 결정하고 이를 이용하여 최종 위조여부를 결정하는 방법이 더 나은 성능을 보임을 보였다. When determining the final forgery, it was shown that the method of determining the optimal threshold value from the learning data and using it to determine the final forgery showed better performance than the existing method of determining the final forgery through voting.

파라미터의 수에 제약을 둔 설계로 적은 수의 파라미터를 갖으면서 높은 성능을 유지하는 CNNs 모델을 포함할 수 있다. A design with a limited number of parameters can include a CNNs model that maintains high performance with a small number of parameters.

완전 컨볼루션 방식으로 처리된 결과를 이용하면 위조지문의 지역적 특징을 시각화 할 수 있음을 보였다. It has been shown that the local characteristics of counterfeit fingerprints can be visualized using the results processed in a completely convolutional manner.

실험결과 제안하는 방법은 536,143개의 파라미터(약 2.0MB)를 가지고 LivDet 위조지문 데이터에서 평균 1.35%의 검출 오류를 보여 적은 파라미터를 가진 높은 성능의 완전 컨볼루션 방법이 위조지문 검출에 적용 가능함을 보였다. 또한 본 발명의 일 실시 예에 따른 위조지문 검출 가능한 지문인식 시스템은 입력되는 지문의 크기에 영향을 받지 않는 패치를 사용하고 네트워크 내부에 완전 연결 레이어가 존재하지 않기 때문에 어떤 크기의 위조지문도 처리할 수 있다. 또한 처리되는 결과가 위조, 생체, 배경으로 분류되기 때문에 세그멘테이션과 같은 전처리가 필요 없는 장점을 가지고 있다.As a result of the experiment, the proposed method showed an average detection error of 1.35% in LivDet counterfeit fingerprint data with 536,143 parameters (approximately 2.0 MB), indicating that a high-performance full-convolution method with few parameters is applicable to counterfeit fingerprint detection. In addition, the fingerprint recognition system capable of detecting a forgery fingerprint according to an embodiment of the present invention uses a patch that is not affected by the size of the input fingerprint and processes a forgery fingerprint of any size because there is no complete connection layer inside the network. Can be. In addition, since the processed results are classified into counterfeit, biological, and background, there is an advantage that no pre-processing such as segmentation is necessary.

도 14는 본 발명의 일 실시 예에 따른 최적 문턱값을 적용한 패치기반 완전연결 네트워크의 전체구조를 도시한 것이다.14 illustrates the overall structure of a patch-based fully connected network to which an optimum threshold value is applied according to an embodiment of the present invention.

도 14를 참조하면, 본 발명의 일 실시 예에 따른 위조지문 검출 가능한 지문인식 시스템의 특징 추출부(120)의 전체 구조는 도 14와 같을 수 있다. 상기 특징 추출부(120)는 첫번째로 CNNs을 학습하기 위해서 세그멘테이션을 적용한 후 그 영역을 기준으로 생체, 위조, 배경의 패치들을 추출한다. 상기 추출된 패치들은 CNNs의 학습에 사용되며 학습이 완료된 CNNs은 완전 컨볼루션 구조로 최적 문턱값을 찾는데 사용될 수 있다. 완전 컨볼루션 네트워크의 결과에서 배경으로 분류된 결과를 제거한 후 패치 결과를 종합하여 위조와 생체를 구분할 수 있는 최적 문턱치 값을 찾아낼 수 있다. 테스트 과정에서는 학습된 네트워크를 적용한 후 그 결과를 최적 문턱치 값과 비교하여 최종적으로 위조여부를 판단한다. 이후 각 과정을 자세히 설명한다.14, the entire structure of the feature extraction unit 120 of the fingerprint recognition system capable of detecting a forgery fingerprint according to an embodiment of the present invention may be as shown in FIG. 14. The feature extraction unit 120 first applies segmentation to learn CNNs, and then extracts bio, counterfeit, and background patches based on the region. The extracted patches are used for learning CNNs, and the completed learning CNNs can be used to find an optimal threshold with a complete convolution structure. After removing the results classified as the background from the results of the full convolution network, the patch results can be synthesized to find the optimal threshold value for distinguishing the forgery and the living body. In the test process, after applying the trained network, the result is compared with the optimal threshold value to determine whether or not it is forged. Each process is explained in detail later.

상기 특징 추출부(120)에서는 LivDet 데이터로부터 획득된 패치는 배경 부류를 가지고 있어야 하지만 LivDet에는 배경데이터가 존재하지 않는다. 따라서 획득된 패치에 직접 배경부류를 만들어 줘야 한다. 각각의 패치들을 직접 눈으로 확인하여 배경부류를 부여하지 않고, 세그멘테이션 방법을 활용하여 자동으로 배경이 분류될 수 있게 하였다. 학습용 패치를 획득하는 방법은 지문영상을 세그멘테이션 한 후 겹침을 허용하지 않는 격자(grid)형태로 패치로 나눈다. 나눠진 패치의 각 부분에서 세그멘테이션 된 영역이 특정비율 이하로 나타난다면 이 패치는 배경 부류로 분류해 둔다. 예를 들어 32×32 패치는 총 3232=1024개의 픽셀 개수를 갖는데 이 중 지문으로 세그멘테이션 된 픽셀이 800개일 경우 이 800/1024=0.78이 되고 이 값이 0.4 보다 작으면 배경부류로 분류해 주는 것이다. 세그멘테이션 되는 영역의 비율을 판단하는 값을 R로 하였을 때 32×32 패치의 경우 R의 값을 0.4로 정하였다. 패치의 크기에 따라서 이 R값을 다르게 정하였는데 48×48의 경우 R×1/2, 64×64의 경우 R×1/3의 값을 사용하였다. 이는 패치가 커질수록 배경 부류에 더 많은 지문이 포함되기 때문에 적응적으로 R값에 변화를 준 것이다.In the feature extraction unit 120, a patch obtained from LivDet data should have a background class, but background data does not exist in LivDet. Therefore, it is necessary to create a background class directly on the acquired patch. Each patch was checked by eye, and the background class was not assigned, and the segmentation method was used to automatically classify the background. The method of acquiring the learning patch is divided into a patch in a grid form that does not allow overlapping after segmenting the fingerprint image. If the segmented areas in each part of the divided patch appear below a certain percentage, the patch is classified as a background class. For example, the 32 × 32 patch has a total number of 3232 = 1024 pixels, of which 800/1024 = 0.78 when there are 800 pixels segmented by fingerprint, and if this value is less than 0.4, it is classified as a background class. . When the value for determining the ratio of the segmented region was R, the value of R was set to 0.4 for the 32 × 32 patch. The R value was set differently according to the size of the patch. For 48 × 48, R × 1/2 and 64 × 64 were used for R × 1/3. This is because the larger the patch, the more fingerprints are included in the background class, so the adaptively changes the R value.

도 15는 각 데이터별 획득된 패치의 수를 도시한 것이다.15 shows the number of patches obtained for each data.

도 15를 참조하면, 일반적으로 지문을 패치로 나누었을 경우 배경의 부류의 수는 매우 적은 편이다. 따라서 배경패치는 데이터 증강을 통해 그 수를 다른 패치들과 비슷한 수로 맞춰 주었다. 각 크기에 따라 획득된 패치의 수는 도 15와 같다. 도 15의 Background 열의 앞의 숫자는 획득된 배경 배치의 수이고 뒷 부분의 숫자는 데이터 증강을 통해 획득된 총 패치의 수이다. 패치의 수가 커질수록 획득되는 배경의 수가 매우 부족함을 알 수 있다. 배경부류의 수를 늘리기 위해 사용한 데이터 증강 방법은 임의의 회전, 크기, 이동 변환이다.Referring to FIG. 15, in general, when a fingerprint is divided into patches, the number of classes in the background is very small. Therefore, the background patch was set to a similar number to other patches through data augmentation. The number of patches obtained according to each size is shown in FIG. 15. The number in the front of the Background column in FIG. 15 is the number of background batches acquired and the number in the rear part is the total number of patches obtained through data enhancement. It can be seen that as the number of patches increases, the number of backgrounds acquired is very insufficient. The data augmentation method used to increase the number of background classes is random rotation, size, and translation.

도 16은 본 발명의 일 실시 예에 따른 Fire모듈을 이용한 제안하는 패치기반 CNNs 모델 구조를 도시한 것이고, 도 17은 본 발명의 일 실시 예에 따른 패치기반 CNNs 구조를 도시한 것이다.FIG. 16 shows a proposed patch-based CNNs model structure using a Fire module according to an embodiment of the present invention, and FIG. 17 shows a patch-based CNNs structure according to an embodiment of the present invention.

도 16 및 도 17을 참조하면, 상기 특징 추출부(120)에서 CNNs 모델은 패치를 처리하기 적합하도록 SqueezeNet에서 사용하는 fire모듈을 적용할 수 있으며 이는 도 16과 같다. SqueezeNet은 입력의 크기가 224×224 크기인 영상을 처리하도록 설계되었기 때문에 네트워크의 시작과 동시에 이동간격이 2인 컨볼루션과 맥스풀링을 바로 적용하여 55× 55 크기로 빠르게 줄인다. 패치 방법을 적용할 경우 크기가 작기 때문에 빠르게 크기를 줄일 필요가 없다. 따라서 제안하는 구조는 패치 크기가 32×32인 경우 도 17과 같은 SqueezeNet의 변형된 구조를 취할 수 있다.16 and 17, in the feature extraction unit 120, the CNNs model can apply a fire module used in SqueezeNet to be suitable for processing a patch, as shown in FIG. Since SqueezeNet is designed to process images with input size of 224 × 224, it is rapidly reduced to 55 × 55 by applying convolution and max spooling with a movement interval of 2 immediately upon the start of the network. When applying the patch method, the size is small, so there is no need to quickly reduce the size. Therefore, the proposed structure can take the modified structure of SqueezeNet as shown in FIG. 17 when the patch size is 32 × 32.

기존 SqueezeNet의 첫번재 컨볼루션이 이동 2값의 7×7 컨볼루션이였던 반면 상기 특징 추출부(120)에서의 구조는 3 × 3의 이동 1인 컨볼루션을 수행한다. 이는 입력의 크기가 작기 때문에 7×7과 같은 큰 필터를 적용할 필요가 없으며 파라미터의 수를 줄일 수 있기 때문이다.While the first convolution of the existing SqueezeNet was a 7 × 7 convolution of a moving 2 value, the structure in the feature extraction unit 120 performs a convolution of 3 × 3 moving 1. This is because the size of the input is small, so there is no need to apply a large filter such as 7 × 7, and the number of parameters can be reduced.

상기 특징 추출부(120)에서는 또한 fire2 모듈까지 정보의 손실을 줄이기 위해 풀링을 수행하지 않으며 기존의 SqueezeNet이 총 5번의 풀링을 수행하는 반면, 제안하는 SqueezeNet의 변형은 총 3번의 풀링만을 수행하게 된다. 네트워크에 사용되는 활성화 함수로는 Leaky ReLU를 적용하였고 활성화 함수를 적용하기 전에 배치 정규화를 수행할 수 있다. 상기 특징 추출부(120)에서 변형된 SqueezeNet의 총 파라미터의 수는 536,143으로 738,594의 SqueezeNet보다 적다.The feature extraction unit 120 also does not perform pooling to reduce the loss of information to the fire2 module, and the existing SqueezeNet performs a total of 5 poolings, whereas the proposed SqueezeNet transformation performs only a total of 3 poolings. . Leaky ReLU is applied as the activation function used in the network, and batch normalization can be performed before applying the activation function. The total number of parameters of the SqueezeNet modified in the feature extraction unit 120 is 536,143, which is less than the SqueezeNet of 738,594.

도 18는 기존 방법과 본 발명의 일 실시 예에 따른 방법을 비교한 것이다.18 is a comparison of an existing method and a method according to an embodiment of the present invention.

도 18 (a) 및 (b)를 참조하면, 기존의 패치를 이용하는 방법은 입력되는 영상을 격자형태로 만든 후 패치들을 추출한다. 이렇게 처리하는 방식을 편의를 위해 격자방법이라고 하겠다. 격자방법은 패치들 각각의 위조여부를 판단 한 후 투표 방식으로 최종 위조여부를 결정하며 이 방법은 도 18의 (a)와 같다. 이와달리 상기 특징 추출부(120)에서는 패치들을 이용하여 CNNs을 학습하는 방법은 동일하지만 테스트에서는 패치들의 추출없이 완전 컨볼루션 형태로 처리하며 이는 도 18의 (b)와 같다. 상기 특징 추출부(120)에서 처리 방법인 도 18 (b)의 방법으로 처리된 결과는 위조, 생체, 배경의 3차원 텐서이며 배경으로 분류된 결과를 제외하고 생체와 위조의 확률을 이용하여 지문 전체의 생체확률을 결정할 수 있다.18 (a) and (b), a method of using an existing patch extracts patches after making an input image into a grid. This method of processing will be referred to as a grid method for convenience. The lattice method determines whether each of the patches is forged, and then determines whether or not the final forgery is done by a voting method, and this method is as shown in FIG. Unlike this, in the feature extraction unit 120, the method of learning CNNs using the patches is the same, but in the test, it is processed in a completely convolutional form without extracting the patches, as shown in FIG. 18 (b). The result processed by the method of FIG. 18 (b), which is a processing method in the feature extraction unit 120, is a forgery, a living body, a 3D tensor of a background, and fingerprints using the probability of living body and forgery, except for the result classified as the background. The overall bio-probability can be determined.

상기 특징 추출부(120)에서 결정된 생체의 확률은 학습데이터로부터 얻어진 최적 문턱치 값과 비교하여 최종 지문의 생체 여부를 판별하게 된다. 격자방식이 아닌 완전 컨볼루션 방법으로 지문을 처리할 경우 더 많은 수의 위조여부 평가를 수행할 수 있게 된다. 패치를 분류하는 CNNs의 성능이 좋다면 더 많은 패치를 처리할 수록 더 많은 네트워크 앙상블(ensemble)효과가 발생하여 더 좋은 결과를 도출 할 수 있다. 또한 부류에 배경이 포함되어 있기 때문에 세그멘테이션 없이 전체 지문의 처리가 가능해진다.The probability of the living body determined by the feature extraction unit 120 is compared with the optimal threshold value obtained from the learning data to determine whether the final fingerprint is living body. When the fingerprint is processed by the full convolution method rather than the lattice method, a larger number of forgery evaluations can be performed. If the performance of CNNs for classifying patches is good, the more patches are processed, the more network ensemble effects are generated, and the better results can be obtained. In addition, since the background is included in the class, the entire fingerprint can be processed without segmentation.

상기 특징 추출부(120)는 단순히 위조와 생체로 분류된 패치의 수를 세어 많은쪽으로 분류하는 대신 배경으로 분류된 패치는 무시하고 각 패치의 위조와 생체 여부의 확률을 정규화 한 뒤 이 확률을 종합하는 방법을 취한다. 상기 특징 추출부(120)는 최적 문턱값을 결정하는 방법은 다음과 같은 방법으로 이뤄질 수 있다. 완전 컨볼루션 방법을 이용하여 얻어진 3차원 텐서 중 배경의 확률이 가장 높은 부분은 제거한다. 배경을 제외한 나머지 결과들은 다시 위조와 생체의 확률만을 이용하여 정규화 된다. 이는 배경을 제외한 지문의 지역적 위치에서의 생체여부의 확률과 같다. 이렇게 획득된 각 위치에서의 생체확률 평균이 최종 지문의 생체여부 점수가 된다. 이 과정을 하기 알고리즘에 설명하였다.The feature extraction unit 120 simply counts the number of forged and bio-categorized patches and classifies them into many, instead of ignoring patches classified in the background and normalizing the probability of forgery and bio-failure of each patch, and then synthesizing these probabilities. How to do. The method for determining the optimum threshold value of the feature extraction unit 120 may be performed as follows. Among the three-dimensional tensors obtained by using the full convolution method, the part with the highest probability of background is removed. The rest of the results, except for the background, are normalized again using only forgery and bio-probability. This is equal to the probability of bioavailability at the local location of the fingerprint, excluding the background. The average bio-probability at each location thus obtained is the bio-score of the final fingerprint. This process was described in the following algorithm.

Figure pat00002
Figure pat00002

상기 특징 추출부(120)에서 최적 문턱값을 결정하는 방법은 학습 데이터에서 최소 Average Classification Error (ACE)값으로 정한다. 학습 데이터 전체에 대하여 상기 알고리즘을 수행한 후 완전 컨볼루션 방법을 이용하여 생체 확률들을 계산한다. 상기 알고리즘을 통해 계산된 점수를 로 하였을 때 최적 문터치 값을 획득하는 과정은 아래의 수학식들을 통해서 계산된다.The method for determining the optimum threshold value in the feature extraction unit 120 is determined as the minimum average classification error (ACE) value in the training data. After performing the above algorithm on the entire training data, bio-probabilities are calculated using a complete convolution method. The process of acquiring the optimal door touch value when the score calculated through the algorithm is set to is calculated through the following equations.

[수학식 2][Equation 2]

Figure pat00003
Figure pat00003

[수학식 3][Equation 3]

Figure pat00004
Figure pat00004

[수학식 4][Equation 4]

Figure pat00005
Figure pat00005

수학식 2는 상기 알고리즘을 통해 계산된 Livescore 를 s로 할 경우 위조지문임에도 불구하고 문턱치 값 t를 넘어서 생체지문으로 분류된 경우의 비율을 의미한다. 수학식 3은 그 반대의 경우로 생체지문임에도 위조로 분류된 비율을 의미한다. 수학식 4는 Ferrfake와 Ferrlive 의 평균을 최소로 결정할 수 있는 를 찾는 것을 의미한다. 이렇게 결정된 t*은 위조지문의 성능을 테스트 할 때 적용하게 된다. Ferrfake와 Ferrlive는 각각 위조지문의 오류율과 생체지문의 오류율을 의미한다. Equation 2 means a ratio in the case where the Livescore calculated through the algorithm is s, but is classified as a bio-fingerprint beyond the threshold value t despite being a fake fingerprint. Equation 3, on the contrary, refers to a ratio classified as forgery even though it is a biological fingerprint. Equation (4) means that we find that we can determine the average of Ferrfake and Ferrlive to a minimum. The determined t * is applied when testing the performance of counterfeit fingerprints. Ferrfake and Ferrlive refer to the error rate of forgery fingerprints and the error rate of biological fingerprints, respectively.

도 19은 LivDet2015 CrossMatch 데이터의 문턱값에 따른 Ferrfake와 Ferrlive의 값의 변화를 도시한 것이다.19 shows changes in the values of Ferrfake and Ferrlive according to threshold values of LivDet2015 CrossMatch data.

도 19는 LivDet2015 CrossMatch 데이터의 문턱값에 따른 Ferrfake와 Ferrlive의 값의 변화에 대한 예시이다.19 is an example of a change in values of Ferrfake and Ferrlive according to threshold values of LivDet2015 CrossMatch data.

도 20는 본 발명의 일 실시 예에 따른 패치기반 네트워크의 학습에 사용된 하이퍼 파라미터를 표시한 것이다.20 illustrates hyperparameters used for learning a patch-based network according to an embodiment of the present invention.

도 20을 참조하면, 본 발명의 일 실시 예에 따른 위조지문 검출 가능한 지문인식 시스템은 GPU는 NVIDA GTX 1080 을 이용하였고 학습에 적용된 파라미터는 학습율을 0.0005로 배치크기는 64, 세대 수는 60으로 할 수 있다. 최적화 방법은 Adamax를 적용하였고 학습용 LivDet 데이터 중 10%는 검증에 사용하였다. 각 세대마다 검증데이터의 손실값을 확인하여 4세대 동안 손실값이 줄어들지 않으면 학습율을 2배씩 줄였다. 본 발명의 일 실시 예에 따른 위조지문 검출 가능한 지문인식 시스템에 사용된 하이퍼 파라미터는 배치크기와 세대 수를 제외하면 이전 실험과 동일하며 학습용 데이터는 배치 단위로 임의의 거울 대칭이 적용된다. 실험에 사용된 하이퍼 파라미터를 도 20에 정리하였다.Referring to FIG. 20, in the fingerprint recognition system capable of detecting a forgery fingerprint according to an embodiment of the present invention, the GPU used NVIDA GTX 1080, and the parameters applied to learning were set to a learning rate of 0.0005, a batch size of 64, and a generation number of 60. Can be. Adamax was applied as the optimization method, and 10% of the learning LivDet data was used for verification. By verifying the loss value of verification data for each generation, if the loss value does not decrease during 4 generations, the learning rate is doubled. The hyperparameters used in the fingerprint recognition system capable of detecting a forgery fingerprint according to an embodiment of the present invention are the same as the previous experiment except for the batch size and the number of generations, and the learning data is randomly mirrored in batch units. The hyperparameters used in the experiment are summarized in FIG. 20.

테스트를 겹침을 허용하지 않는 격자방식으로 패치를 나눠서 처리했을때와 완전컨볼루션 방법으로 적용했을 때의 두가지 방법을 수행하였다. 완전 컨볼루션 방법과 격자 방법 모두 똑같은 파라미터를 사용한다. 두 가지 방법 모두 패치의 크기 변화에 따른 성능검증을 위해 32×32, 48×48, 64×64의 패치크기에 대해 모두 실험하였다. 제안하는 패치기반 네트워크의 성능 평가를 위해 SqueezeNet을 이용해서 패치기반 방법을 적용했을 때의 결과를 함께 제시하였다.Two methods were performed: when the patch was divided into a grid method that does not allow overlapping, and when the patch was applied as a full convolution method. Both the full convolution method and the lattice method use the same parameters. Both methods were tested for 32 × 32, 48 × 48, and 64 × 64 patch sizes to verify performance by changing patch sizes. For the performance evaluation of the proposed patch-based network, the results of applying the patch-based method using SqueezeNet are presented together.

도 21은 32×32 패치기반 위조지문 검출 성능을 비교한 것이고, 도 22는 32×32 패치기반 위조지문 검출 성능을 비교한 그래프이다.21 is a 32 × 32 patch-based counterfeit fingerprint detection performance comparison, and FIG. 22 is a graph comparing the 32 × 32 patch-based counterfeit fingerprint detection performance.

32×32 패치의 경우 도 21과 같은 위조지문 검출의 ACE값을 얻을 수 있었으며 이를 도 22에 그래프로 표현하였다. 도 21에서 제안하는 방법은 SqueezeNet의 fire 모듈을 이용하기 때문에 Modified SqueezeNet으로 표현하였다. 도 22의 범례 중 Squeeze-Grid와 Squeeze-FCC는 각각 SqueezeNet을 적용했을 때의 격자방법과 완전컨볼루션 방법의 결과를 의미한다. 또한 M-Squeeze-Grid와 M-Squeeze-FCC는 본 발명의 상기 특징 추출부(120)에서 사용하는 CNNs 구조를 격자식 방법과 완전컨볼루션 방법으로 테스트를 수행했을 때의 결과를 의미한다. 도 21의 결과를 보면 본 발명의 네트워크가 일반적인 SqueezeNet을 적용했을 때 보다 더 좋은 성능을 나타냄을 확인할 수 있다. SqueezeNet의 경우 격자방식이 완전컨볼루션 방식보다 더 좋은 성능을 보였다In the case of the 32 × 32 patch, an ACE value of forgery fingerprint detection as shown in FIG. 21 was obtained, and this was graphically represented in FIG. 22. The method proposed in FIG. 21 is expressed as Modified SqueezeNet because the fire module of SqueezeNet is used. In the legend of FIG. 22, Squeeze-Grid and Squeeze-FCC mean the results of the grid method and the full convolution method when SqueezeNet is applied, respectively. In addition, M-Squeeze-Grid and M-Squeeze-FCC refer to the results when the CNNs structure used in the feature extraction unit 120 of the present invention is tested by a grid method and a full convolution method. 21, it can be seen that the network of the present invention exhibits better performance than when the general SqueezeNet is applied. In the case of SqueezeNet, the grid method performed better than the full convolution method.

이는 SqueezeNet의 경우 급격하게 크기를 줄인 후 학습을 진행하기 때문에 각 패치의 분류결과가 좋지 못하고 학습과는 다른 형태의 완전컨볼루션 구조로 테스트를 수행하기 때문에 더 많은 오류가 발생했다고 사료된다. 도 21의 본 발명의 일 실시 예에 따른 위조지문 검출 가능한 지문인식 시스템이 사용하는 Modified SqueezeNet의 경우 완전 컨볼루션 레이어를 이용하여 수행했을때 더 좋은 성능을 보였다. 성능이 좋은 상태에서 더 많은 패치의 결과를 얻을 수 있기 때문으로 추정 할 수 있다.It is considered that in the case of SqueezeNet, the classification result of each patch is not good because the learning is progressed after the size has been drastically reduced, and more errors have occurred because the test is performed with a completely convolutional structure different from the learning. In the case of the Modified SqueezeNet used by the fingerprint recognition system capable of detecting a forgery fingerprint according to an embodiment of the present invention of FIG. 21, it showed better performance when performed using a full convolution layer. It can be estimated that the result of more patches can be obtained in a good performance state.

도 23은 48×48 패치기반 위조지문 검출 성능을 비교한 것이고, 도 24은 48×48 패치기반 위조지문 검출 성능을 비교한 그래프이다. 23 is a 48 × 48 patch-based counterfeit fingerprint detection performance comparison, Figure 24 is a 48 × 48 patch-based counterfeit fingerprint detection performance comparison.

도 25는 64×64 패치기반 위조지문 검출 성능을 비교한 것이고, 도 26은 64×64 패치기반 위조지문 검출 성능을 비교한 그래프이다.25 is a 64 × 64 patch-based counterfeit fingerprint detection performance comparison, and FIG. 26 is a graph comparing the 64 × 64 patch-based counterfeit fingerprint detection performance.

48×48 패치의 경우 32×32와 비슷한 경향을 보이지만 평균적으로 32×32에 비해 성능이향상되었음을 도 23과 도 24를 통해서 확인 할 수 있다. 64×64 패치 테스트결과는 도 25와 도 26에 나타내었다.In the case of the 48 × 48 patch, the trend is similar to that of 32 × 32, but it can be confirmed through FIGS. 23 and 24 that the performance has been improved on average compared to 32 × 32. The 64 × 64 patch test results are shown in FIGS. 25 and 26.

도 27은 패치크기에 따른 성능을 비교한 것이고, 도 28는 패치크기에 따른 성능을 비교한 그래프이다.FIG. 27 compares performance according to patch size, and FIG. 28 is a graph comparing performance according to patch size.

실험에 사용된 데이터의 수가 많기 때문에 평균적으로 패치 크기에 따른 성능을 비교해보면 도 27과 같고 이를 그래프로 표현하면 도 28과 같다. 전체적으로 SqueezeNet을 원형 그대로 사용하는 것보다 제안하는 구조로 변형하는 것이 더 좋은 성능을 나타냄을 확인할 수 있다. 또한 본 발명의 일 실시 예에 따른 위조지문 검출 가능한 지문인식 시스템이 사용하는 모델 중 가장 좋은 성능을 보이는 것은 CNNs 구조를 완전 컨볼루션 형태로 적용했을때이며 패치의 크기는 48×48일때 가장 좋은 성능을 보임을 확인할 수 있다Since the number of data used in the experiment is large, the performance according to the patch size on average is shown in FIG. 27, and the graph is shown in FIG. 28. Overall, it can be seen that it is better to transform SqueezeNet to the proposed structure than to use SqueezeNet as it is. In addition, among the models used by the fingerprint recognition system capable of detecting a forgery fingerprint according to an embodiment of the present invention, the best performance is obtained when the CNNs structure is applied in a completely convolutional form and the patch size is 48 × 48. I can confirm it

도 29은 투표방식과 최적 문턱값 적용 결과를 비교한 것이고, 도 30는 최적문턱값 방법과 투표방법의 성능을 비교한 것이다.FIG. 29 compares the results of applying the voting method and the optimal threshold value, and FIG. 30 compares the performance of the optimal threshold method and the voting method.

도 29 및 도 30을 참조하면, 본 발명의 일 실시 예에 따른 위조지문 검출 가능한 지문인식 시스템은 패치들의 최적 문턱 값을 학습용 데이터로부터 결정한다. 본 실시 예에서 는 최적 문턱값을 결정하고 이를 적용했을때의 결과와 단순히 분류된 패치들의 결과의 수를 세어서 더 많은쪽으로 분류하는 투표 방식(voting method)과 성능비교를 수행하며 그 결과를 도 29에 정리하였다.29 and 30, the fingerprint recognition system capable of detecting a forgery fingerprint according to an embodiment of the present invention determines an optimal threshold value of patches from learning data. In this embodiment, the optimal threshold value is determined and the result when applying it and the number of results of the classified patches are simply counted, and the voting method and performance comparison are performed to classify the results in more ways, and the results are compared. It is summarized in 29.

결과를 살펴보면 평균적으로 대부분의 경우에서 완전 컨볼루션을 사용하며 단순한 투표방식이 아닌 데이터별 최적 문턱값을 결정하고 이를 적용하는 것이 성능향상에 도움이 된다는 것을 확인할 수 있다. 도 30에 최적 문턱값 방법과 투표방법의 평균 ACE를 그래프로 표현하였다. 최적 문턱값을 적용하였을 경우 단순한 투표 방법은 패치 크기가 커질수록 성능이 저하되는 경향을 보이며, 최적 문턱값을 적용한 경우 48×48 크기로 학습된 모델에서 가장 좋은 성능을 보이는 것을 확인할 수 있다.Looking at the results, it can be seen that, on average, in most cases, full convolution is used, and it is helpful to improve performance by determining and applying an optimal threshold value for each data rather than a simple voting method. In FIG. 30, the average ACE of the optimal threshold method and the voting method is represented graphically. When the optimal threshold value is applied, it can be seen that the simple voting method tends to decrease in performance as the patch size increases, and when the optimal threshold value is applied, it can be seen that it shows the best performance in the model trained at 48 × 48 size.

도 31는 데이터 증강을 적용한 모델과의 성능을 비교한 것이고, 도 32은 데이터 증강을 적용했을 때의 성능을 비교한 것이다.FIG. 31 compares performance with a model to which data augmentation is applied, and FIG. 32 compares performance when data augmentation is applied.

도 31 및 도 32를 참조하면, 본 발명의 일 실시 예에 따른 위조지문 검출 가능한 지문인식 시스템이 학습 시 데이터 증강을 적용한 경우의 성능을 도 31에 나타내었다. 적용된 데이터 증강 방법은 임의의 거울 대칭에 추가로 상하 대칭을 적용한 방법이다. 도 31의 FCN은 데이터 증강을 적용하지 않은 제안하는 모델이고 Aug-FCN은 데이터 증강을 적용한 모델이다. 가장 좋은 성능을 보인 48×48 크기의 패치로 학습한 후 완전 컨볼루션 방법을 적용한 것을 제외하면 평균적으로 상하 대칭을 통한 데이터 증강이 성능향상에 큰 도움을 주지 못함을 확인할 수 있다. 도 32는 도 31의 결과를 누적 그래프를 통하여 종합적으로 표현한 것이다. 지문과 같이 제어 가능한 환경에서 취득되는 영상은 데이터 증강이 큰 효과를 발휘하기 어려움을 알 수 있다.Referring to FIGS. 31 and 32, the performance when data augmentation is applied to a fingerprint recognition system capable of detecting a forgery fingerprint according to an embodiment of the present invention is illustrated in FIG. 31. The applied data augmentation method is a method of applying vertical symmetry in addition to arbitrary mirror symmetry. The FCN in FIG. 31 is a proposed model without data augmentation, and Aug-FCN is a model with data augmentation. After learning the 48 × 48 patch that showed the best performance and applying the full convolution method, it can be seen that data augmentation through vertical symmetry on average does not greatly help performance improvement. FIG. 32 comprehensively expresses the results of FIG. 31 through a cumulative graph. It can be seen that images acquired in a controllable environment such as fingerprints have difficulty in exerting a large effect on data augmentation.

도 33은 본 발명의 일 실시 예에 따른 방법의 DET 곡선을 도시한 것이다.33 shows a DET curve of a method according to an embodiment of the present invention.

도 33을 참조하면, 본 발명의 일 실시 예에 따른 위조지문 검출 가능한 지문인식 시스템의 실시 예 중 가장 좋은 성능을 보인 도 31의 48×48 패치를 데이터 증강을 통해 학습한 모델의 DET(Detection Error Trandeoff) 곡선을 그려보면 도 33와 같은 결과를 얻을 수 있다.Referring to FIG. 33, among the embodiments of the fingerprint recognition system capable of detecting forgery fingerprints according to an embodiment of the present invention, the DET (Detection Error) of the model that learned the 48 × 48 patch of FIG. 31 through data augmentation Trandeoff) curve, you can get the result shown in Figure 33.

도 34은 변형된 SqueezeNet의 처리속도를 비교(단위: ms)한 것이다.Fig. 34 compares the processing speed of the modified SqueezeNet (unit: ms).

도 34를 참조하면, 격자방식은 지문의 겹침을 허용하지 않고 잘라 낸 뒤 패치들을 배치로 묶어서 연산하게 된다. 완전 컨볼루션은 일반적인 컨볼루션 형태로 연산되며 최종 결과는 2차원 형태로 나타난다. 본 발명의 일 실시 예에 따른 위조지문 검출 가능한 지문인식 시스템의 특징 추출부(120)는 원형의 SqueezeNet에 비해 훨씬 많은 연산을 수행하기 때문에 다소 느린 처리속도를 보이는데 이를 도 34에 나타내었다.Referring to FIG. 34, the grid method is performed by cutting the patches without allowing the overlapping of fingerprints and grouping the patches in batches. Full convolution is calculated in the form of a general convolution, and the final result appears in a two-dimensional form. The feature extraction unit 120 of the fingerprint recognition system capable of detecting a forgery fingerprint according to an embodiment of the present invention shows a somewhat slower processing speed than the circular SqueezeNet, which is shown in FIG. 34.

상기 특징 추출부(120)에서 최적 문턱값을 적용한 완전 컨볼루션을 방법은 도 34에서 FCN으로 나타내었으며 평균 약124ms의 속도로 지문 한장을 처리 할 수 있다. LivDet 데이터에서 실험했을 때 지문영상의 크기가 가장 작은 경우 약 37ms의 속도로 처리되며 가장 큰 경우 약 397ms의 속도로 처리된다. SqueezeNet은 레이어의 시작 시 입력텐서의 크기를 빠르게 줄이기 때문에 제안하는 모델 구조보다 빠르게 처리할 수 있다.The complete convolution method using the optimal threshold value in the feature extraction unit 120 is represented by FCN in FIG. 34 and can process one fingerprint at an average rate of about 124 ms. When experimenting with LivDet data, the fingerprint image is processed at a rate of about 37ms when it is the smallest, and at the rate of about 397ms when it is the largest. SqueezeNet quickly reduces the size of the input tensor at the beginning of the layer, so it can be processed faster than the proposed model structure.

도 35는 SqueezeNet과 본 발명의 일 실시 예에 따른 변형된 SqueezeNet의 처리속도를 비교한 것이고, 도 36은 본 발명의 일 실시 예에 따른 CNNs 구조의 격자방법과 완전컨볼루션 방법의 속도를 비교한 것이다.FIG. 35 compares the processing speed of SqueezeNet and the modified SqueezeNet according to an embodiment of the present invention, and FIG. 36 compares the speed of the lattice method and the complete convolution method of the CNNs structure according to an embodiment of the present invention. will be.

도 35 및 도 36을 참조하면, 완전컨볼루션을 적용한 경우는 패치의 크기와 상관없이 컨볼루션 연산이 수행되기 때문에 학습에 사용된 패치의 크기가 변해도 처리속도는 동일하다. 격자방식으로 처리되는 경우는 패치의 크기가 커지면 지문으로부터 획득되는 패치의 수가 작아지기 때문에 더 빠른 처리속도를 얻을 수 있게 된다. 원본 SqueezeNet과 제안하는 네트워크의 평균 처리 속도를 패치 크기별로 비교한 결과는 도 35와 같다. 도 35의 M-Squeeze-Grid는 제안하는 방법을 격자 구조로 적용한 것이고 M-Squeeze-Conv.는 제안하는 방법을 완전컨볼루션 형태로 적용한 것이다. 평균 처리속도는 64 × 64를 제외하고 격자 방식보다 빠르기 때문에 분류 성능과 시간면에서 완전컨볼루션 방식으로 처리하는게 더 유리하다는 것을 알 수 있다. 기존의 위조지문 알고리즘과 달리 제안하는 방법은 배경을 부류로 포함하여 세그멘테이션과 같은 과정이 필요없기 때문에 본 발명의 일 실시 예에 따른 위조지문 검출 가능한 지문인식 시스템의 처리속도는 실제로 더 빠르게 처리될 것이다. 본 발명의 일 실시 예에 따른 위조지문 검출 가능한 지문인식 시스템에서 구조를 격자방식과 완전컨볼루션 방법을 적용했을 때의 처리 속도를 데이터별 누적 그래프로 나타내어 도 36에 표현하였다.35 and 36, when full convolution is applied, since the convolution operation is performed regardless of the size of the patch, the processing speed is the same even if the size of the patch used for learning changes. In the case of processing in a lattice method, the larger the size of the patch, the smaller the number of patches obtained from the fingerprint, so that a faster processing speed can be obtained. The result of comparing the average processing speed of the original SqueezeNet and the proposed network for each patch size is shown in FIG. 35. The M-Squeeze-Grid of FIG. 35 applies the proposed method as a grid structure, and the M-Squeeze-Conv. Applies the proposed method in a complete convolution form. Since the average processing speed is faster than the lattice method except 64 × 64, it can be seen that it is more advantageous to process in a full convolution method in terms of classification performance and time. Unlike the existing forgery fingerprint algorithm, the proposed method does not require a process such as segmentation by including the background as a class, so the processing speed of the fingerprint recognition system capable of detecting a forgery fingerprint according to an embodiment of the present invention will be actually processed faster. . In the fingerprint recognition system capable of detecting a forgery fingerprint according to an embodiment of the present invention, the processing speed when the lattice method and the complete convolution method are applied is represented as a cumulative graph for each data, and is represented in FIG. 36.

도 37은 본 발명의 일 실시 예에 따른 완전컨볼루션을 이용한 위조지문의 특징을 부분적으로 관찰한 결과이다.37 is a result of partially observing the characteristics of a forgery fingerprint using full convolution according to an embodiment of the present invention.

도 37을 참조하면, 본 발명의 일 실시 예에 따른 위조지문 검출 가능한 지문인식 시스템이 학습된 파라미터를 완전컨볼루션 방법으로 테스트 할 경우 각 지문의 특정 위치에서의 검출결과를 확인할 수 있게 된다. 도 37은 완전컨볼루션 방식의 적용 결과를 보여준다. 도 37의 두개의 지문은 시각화의 예시로 초록색은 위조의 확률, 붉은색은 생체지문의 확률, 파란색은 배경의 확률을 의미하며 이들이 각각 RGB 채널에 확률로서 기록되어 있다. 지문을 단순히 위조와 생체로 구분하는 것이 아니라 위조, 생체, 배경의 세가지로 분류하기 때문에 도 37과 같은 결과를 얻을 수 있는 것이다. 시각화는 완전 컨볼루션 방법을 통과하여 줄어든 크기의 결과를 선형보간을 통해 원본 영상 크기로 확대한 것이다. 따라서 도 37의 상단 지문인 크기가 384× 352인 LivDet2011의 Sagem센서의 지문은 번져서 나타난다. 도 37의 하단 지문은 LivDet2011의 Italdata 센서에서 획득한 지문으로 원본크기는 480× 640이다. 도 37의 검은 줄은 격자방식의 처리 방식과 비교해 볼 수 있게하기 위해 나타낸 것이며 48×48 크기를 나타낸 것 이다.Referring to FIG. 37, when a fingerprint recognition system capable of detecting a forgery fingerprint according to an embodiment of the present invention tests a learned parameter by a complete convolution method, it is possible to confirm a detection result at a specific location of each fingerprint. 37 shows the results of application of the full convolution method. The two fingerprints in FIG. 37 are examples of visualization. Green indicates the probability of forgery, red indicates the probability of bio-fingerprint, and blue indicates the probability of the background, and these are respectively recorded as probability in the RGB channel. Since the fingerprint is not simply classified into a forgery and a living body, but classified into a forgery, a living body, and a background, a result as shown in FIG. 37 can be obtained. Visualization is an enlargement of the result of the reduced size through the complete convolution method to the original image size through linear interpolation. Therefore, the fingerprint of the Sagem sensor of LivDet2011 having a size of 384 × 352, which is the upper fingerprint of FIG. 37, appears smeared. The lower fingerprint in FIG. 37 is a fingerprint obtained from the Italdata sensor of LivDet2011, and the original size is 480 × 640. The black line in FIG. 37 is shown for comparison with the grid type processing method, and shows a size of 48 × 48.

일반적으로 사람이 지문을 보고 위조여부를 판단할 경우 지문 외곽의 부자연 스러움과 뭉개져 보이는 검고 흰 덩어리들이 나타날 경우 위조라고 판단하는 경향이 있다. 도 37은 사람이 경험적으로 느낄 수 있는 이러한 분석이 완전 컨볼루션을 통한 시각화를 이용하여 어느 정도 가능함을 보여준다. 도 37의 상단의 지문의 경우 지문이 비교적 선명하게 나타난 곳에서는 붉은색인 생체로 반응하였고 지문 상단의 흐릿한 부분과 외곽주의에서 위조로 판단되었다고 볼 수 있다. 또한 배경 부분을 유심히 살펴보면 많은 잔존 지문들이 센서에 남아 있기 때문에 배경의 확률이 높지 않아 배경 부분이 파란색이 아니라 회색으로 표현된 부분이 많음을 확인할 수 있다. 도 37의 하단의 지문도 마찬가지로 지문의 검은 번짐 부분과 외곽 부분에서 주로 위조로 판명하고 있음을 확인할 수 있다. 또한 비교적 깨끗한 배경을 가지고 있기 때문에 배경부분은 완전히 파란색으로 표현되었음을 확인할 수 있다.In general, when a person judges whether to falsify by looking at a fingerprint, there is a tendency to judge that it is a forgery when black and white lumps appear to be crushed and unnaturalness on the outside of the fingerprint. FIG. 37 shows that this analysis, which can be experienced by a person, is somewhat possible using visualization through full convolution. In the case of the fingerprint on the upper part of FIG. 37, it can be seen that the fingerprint reacted as a living body with a red color in the place where the fingerprint appeared relatively clearly, and it was judged as a forgery in the blurry part and the outline of the upper part of the fingerprint. Also, if you look closely at the background part, it can be confirmed that the background part is not blue because there are many remaining fingerprints remaining in the sensor, so there are many gray parts. It can be seen that the fingerprint at the bottom of FIG. 37 is also found to be mainly forged in the black smear and outer portions of the fingerprint. Also, because it has a relatively clean background, it can be confirmed that the background part is completely blue.

도 38는 동일한 위조지문이 모두 생체지문으로 분류된 경우의 예시이다.38 is an example of the case in which all of the same counterfeit fingerprints are classified as biometric fingerprints.

도 38을 참조하면, 데이터들의 오류 결과를 살펴보면 결과가 일정치 않음을 알 수 있다. 각 데이터들의 검출 오류의 평균을 통해 네트워크의 성능을 어느 정도 평가해 볼 수 있지만 실제 적용 시 그 결과의 일관성을 찾아 내기가 쉽지 않다. 이는 지문 데이터들이 고유한 손가락으로 만들어진 것이 아니라 같은 사람이 손가락으로 여러 개의 위조지문을 만들어 파라미터가 조금만 변경되도 큰 검출 오류를 나타내기 때문이다. 도 38은 LivDet 2011의 Italdata에서 위조지문임에도 불구하고 생체지문으로 오인한 경우의 예시이다. 실제로 도 38에 존재하는 지문들은 모두 같은 손가락의 지문이다. 도 38에서 알 수 있듯이 만약 학습과정에서 파라미터와 문턱값이 미세하게 변경되어 비슷한 확률을 갖는 오류들이 제대로 분류될 경우 도 38과 같은 지문의 경우 모두 정확히 분류될 경우가 발생할 것이며 검출율을 불연속적으로 높이는데 기인하게 되는 것이다.Referring to FIG. 38, when looking at the error result of the data, it can be seen that the result is not constant. Although it is possible to evaluate the performance of the network to a certain extent by averaging the detection errors of each data, it is not easy to find the consistency of the results when applied in practice. This is because the fingerprint data is not made with a unique finger, but the same person creates multiple forgeries with the finger, indicating a large detection error even if the parameter is slightly changed. FIG. 38 is an example of a case in which a false fingerprint is mistaken as a bio fingerprint in Italdata of LivDet 2011. In fact, all the fingerprints present in FIG. 38 are fingerprints of the same finger. As can be seen in FIG. 38, if errors with similar probability are properly classified due to minute changes in parameters and thresholds during the learning process, fingerprints such as FIG. 38 may all be accurately classified, and the detection rate may be discontinuous. It is caused by raising.

현재까지의 실험은 위조지문의 학습과 테스트에 모두 동일한 종류의 물질로 생성된 위조지문만을 사용하였다. 그러나 일반적으로 위조지문 검출 가능한 지문인식 시스템에서는 학습에 사용되지 않은 물질로 만들어진 위조지문의 공격이 발생할 수 있다. In the experiments to date, only counterfeit fingerprints made of the same kind of material were used for both learning and testing of counterfeit fingerprints. However, in general, in a fingerprint recognition system capable of detecting a forgery fingerprint, an attack of a forgery fingerprint made of a material not used for learning may occur.

LivDet2015는 테스트 데이터에 학습에 사용되지 않은 물질들로 구성된 위조지문을 포함하고 있다. 따라서 제안하는 CNNs 모델들이 얼마나 높은 수준의 일반화 성능을 갖는지 테스트 해볼 수 있다.LivDet2015 includes counterfeit fingerprints consisting of substances not used for learning in the test data. Therefore, we can test how high the generalization performance of the proposed CNNs models is.

도 39은 본 발명의 일 실시 예에 따른 방법들의 일반화 성능평가 결과를 도시한 것이다.39 shows a result of generalization performance evaluation of methods according to an embodiment of the present invention.

도 39를 참조하면, 본 발명의 일 실시 예에 따른 위조지문 검출 가능한 지문인식 시스템이 사용하는 모델들의 일반화 가능성을 살펴보기 위하여 LivDet2015의 학습에 사용되지 않은 데이터들을 테스트 해보았다. 그 결과는 도 38과 같다. 성능의 객관화를 위하여 LivDet2015 대회에 참가한 단체들의 결과를 함께 표시하였다. 도 39의 첫번째 행은 LivDet2015의 센서를 의미하고 음영으로 표현된 열은 대회에 참여한 단체나 개인의 이름이다.Referring to FIG. 39, data not used in the learning of LivDet2015 was tested in order to examine the generalization possibility of models used by a fingerprint recognition system capable of detecting a forgery fingerprint according to an embodiment of the present invention. The results are shown in FIG. 38. For the objectification of performance, the results of the organizations participating in the LivDet2015 competition are also displayed. The first row of FIG. 39 means the sensor of LivDet2015, and the shaded column is the name of the group or individual participating in the competition.

일반화 성능을 측정하기 위한 실험은 패치기반 방법 뿐만 아니라 세그멘테이션기반 영역 기반 방법과 Gram 행렬 기반 방법을 함께 테스트 하였다. 제안하는 세그멘테이션 기반 SqueezeNet은 도 39에서 Are-SQZ로, Gram행렬 기반 모델은 Gram, 패치기반 모델은 PatchmSQZ 표현 한 후 대회의 결과들과 비교해 보았다. 본 발명의 일 실시 예에 따른 위조지문 검출 가능한 지문인식 시스템은 앞서 실험에서 가장 성능이 좋았던 모델을 사용한 것이고 이를 도 39에서 굵은 글씨로 표현하였다. 결과를 살펴보면 제안하는 방법 모두 높은 정확도로 학습에 사용되지 않은 위조지문을 잘 분류할 수 있음을 확인할 수 있다.In order to measure generalization performance, not only the patch-based method, but also the segmentation-based region-based method and the Gram matrix-based method were tested together. The proposed segmentation-based SqueezeNet is shown in Are-SQZ in FIG. 39, the Gram matrix-based model is Gram, and the patch-based model is PatchmSQZ. The fingerprint recognition system capable of detecting a forgery fingerprint according to an embodiment of the present invention uses a model having the best performance in the previous experiment, and it is expressed in bold in FIG. 39. Looking at the results, we can see that all of the proposed methods can classify counterfeit fingerprints that are not used for learning with high accuracy.

본 발명의 일 실시 예에 따른 위조지문 검출 가능한 지문인식 시스템에서는 CNNs 의 높은 분류성능을 소프트웨어 기반 위조지문 검출에 적용하는 시스템을 제시한다. 일반적으로 CNNs을 위조지문 검출에 적용한 연구는 단순히 일반적인 물체 분류에 사용되는 CNNs 모델을 적용하지만, 지문 영상의 경우 일반 영상과 획득되는 과정 및 영상의 특성이 다르기 때문에 이에 적합한 네트워크를 구축할 필요성이 있다. 또한 모바일 단말기의 인증시스템에 적용되기 위해서는 CNNs의 파라미터 수가 작아야 하며 범용적으로 사용되기 위해서는 입력영상의 크기에 무관하게 동작할 수 있는 네트워크를 구성할 수 있어야 한다. 이를 만족시키는 네트워크를 구축하기 위해서 본 발명의 일 실시 예에 따른 위조지문 검출 가능한 지문인식 시스템에서는 영역기반 위조지문 검출과 패치기반 위조지문 검출 방법의 2가지 접근으로 CNNs 모델을 구성하였다.In the fingerprint recognition system capable of detecting forgery fingerprints according to an embodiment of the present invention, a system for applying high classification performance of CNNs to software-based forgery fingerprint detection is proposed. In general, the study of applying CNNs to forgery fingerprint detection simply applies the CNNs model used for general object classification, but in the case of fingerprint images, there is a need to construct a network suitable for this because the characteristics of the acquired image and the process and images are different. . In addition, in order to be applied to the authentication system of a mobile terminal, the number of parameters of CNNs must be small, and in order to be used universally, a network capable of operating regardless of the size of the input image must be constructed. In order to build a network that satisfies this, in the fingerprint recognition system capable of detecting forged fingerprints according to an embodiment of the present invention, a CNNs model was constructed with two approaches: a region-based forgery fingerprint detection and a patch-based forgery fingerprint detection method.

첫번째 영역기반 위조지문 검출의 경우 세그멘테이션을 활용하는 방법과 Gram행렬을 이용하는 두 가지 방법이 있다. 세그멘테이션을 활용하는 방법은 세그멘테이션 된 지문영역에서 영상의 축소없이 고정된 크기의 224×224 영역 6개를 추출 한 후 SqueezeNet과 Separable SqueezeNet을 적용하여 분류된 결과의 평균을 위조지문 검출 결과로 산출하였고, 그 결과 각각 2.96%와 3.82%의 평균오류를 보여 적은 수의 파라미터로 기존의 State-Of-The-Art의 결과에 상응하는 좋은 성능을 보임을 입증 할 수 있었다. Gram모듈을 이용하는 방법에서는 어떤 크기의 입력영상도 처리 가능한 End-to-End 구조의 CNNs 모델을 제시한다. Gram모듈은 1×1 컨볼루션, tanh 활성화 함수, Gram 레이어로 구성되며 입력을 원하는 크기의 Gram 행렬 형태로 변환 시킬 수 있다. Gram 모듈과 fire모듈을 조합하여 실시한 결과 2.61%의 평균오류를 갖는 End-to-End 의 최적화된 CNNs 모델이 설계 가능함을 입증하였다.In the case of the first domain-based forgery detection, there are two methods: segmentation and Gram matrix. The method of using segmentation extracted six fixed-sized 224 × 224 areas from the segmented fingerprint area without image reduction, and then applied SqueezeNet and Separable SqueezeNet to calculate the average of the classified results as the forgery fingerprint detection result. As a result, it showed an average error of 2.96% and 3.82%, respectively, and it was able to prove that it showed good performance corresponding to the result of the existing State-Of-The-Art with a small number of parameters. In the method using the Gram module, we present an end-to-end CNNs model capable of processing input images of any size. The Gram module is composed of 1x1 convolution, tanh activation function, and Gram layer, and can convert the input into a Gram matrix of the desired size. As a result of combining the Gram module and the fire module, it was proved that an optimized CNNs model of End-to-End with an average error of 2.61% was designable.

두번째 패치기반 위조지문 검출에서는 지문영상을 32×32, 48×48, 64×64 크기의 패치로 나눈 후 패치에 적합한 변형된 SqueezeNet을 적용하였고 각 패치 크기에 따른 위조지문 검출 결과를 제시하였다. 패치를 처리하기 위한 SqueezeNet 구조의 풀링 단계를 5개에서 3개로 줄이고 컨볼루션 필터의 크기를 줄여 파라미터의 수를 줄임과 동시에 정보의 손실이 더 적은 모델을 제시한다. 생성된 모델은 완전 컨볼루션 형태로 동작하여 2차원의 추정결과를 나타내며 성능을 높이기 위해 최적 문턱값을 학습 데이터로부터 설정하였다. 실험결과 데이터 증강을 이용한 48×48 크기의 패치를 학습하여 최적 문턱치 값을 찾아낸 후 완전 컨볼루션 형태로 위조지문을 분류할 경우 1.35%의 평균오류를 보여 제안하는 방법 중 가장 성능이 좋은 네트워크를 구축할 수 있었다.In the second patch-based forgery fingerprint detection, the fingerprint image was divided into 32 × 32, 48 × 48, and 64 × 64 sized patches, and modified SqueezeNet suitable for the patch was applied, and the results of the forgery fingerprint detection according to each patch size were presented. We propose a model with less information loss while reducing the number of parameters by reducing the pooling stage of the SqueezeNet structure for processing patches from 5 to 3 and reducing the size of the convolution filter. The generated model operates in a completely convolutional form, shows a two-dimensional estimation result, and sets an optimal threshold from training data to improve performance. As a result of experiments, we found the optimal threshold value by learning the 48 × 48 patch using data augmentation, and then classified the forgery fingerprint in the form of full convolution. Could.

본 발명의 일 실시 예에 따른 위조지문 검출 가능한 지문인식 시스템에서 제시한 설계 제약 조건인 입력지문 영상의 크기를 변화 시키지 않고, 다양한 크기의 지문도 처리 가능하며 파라미터의 수가 SqueezeNet이하인 설계 조건을 만족 시킨다. 향후 실험결과 분석을 통해 각 물질별 위조지문의 특성을 시각화 해볼 것이며 모바일 기기에서의 동작을 테스트 해야 한다. 또한 데이터 증강이 큰 성능향상으로 이어지지 않는 것을 확인했기 때문에 Generative Adversarial Networks모델을 적용하여 위조지문의 검출의 성능을 보다 향상 시킬 수 있을 수 있다.It is possible to process fingerprints of various sizes without changing the size of the input fingerprint image, which is a design constraint proposed by the fingerprint recognition system capable of detecting forgery fingerprints according to an embodiment of the present invention, and satisfies the design condition that the number of parameters is less than SqueezeNet. . In the future, we will visualize the characteristics of counterfeit fingerprints for each material through analysis of experimental results and test the operation on mobile devices. In addition, since it was confirmed that data augmentation does not lead to a large performance improvement, it is possible to improve the performance of detecting forgery fingerprints by applying the Generative Adversarial Networks model.

도 40는 본 발명의 일 실시 예에 따른 위조지문 검출 가능한 지문인식 방법의 흐름도이다.40 is a flowchart of a fingerprint recognition method capable of detecting forged fingerprints according to an embodiment of the present invention.

도 40을 참조하면, 본 발명의 일 실시 예에 따른 위조지문 검출 가능한 지문인식 방법은 사용자의 생체정보를 획득하는 단계(S4010)를 포함할 수 있다.Referring to FIG. 40, a fingerprint recognition method capable of detecting a forgery fingerprint according to an embodiment of the present invention may include obtaining a user's biometric information (S4010).

S4010 단계에서, 상기 센서모듈(110)은 각 개인의 생체정보를 획득할 수 있다. 상기 센서모듈(110)은 사용자의 지문을 생체정보를 인식하고 획득할 수 있다. 상기 생체정보는 지문, 목소리, 홍채, DNA, 얼굴형 등을 포함할 수 있다.In step S4010, the sensor module 110 may acquire biometric information of each individual. The sensor module 110 may recognize and obtain biometric information of the user's fingerprint. The biometric information may include fingerprints, voices, irises, DNA, face types, and the like.

본 발명의 일 실시 예에 따른 위조지문 검출 가능한 지문인식 방법은 상기 생체정보의 품질 측정 및 데이터 전처리를 수행하고, 특징을 추출하고 위조 여부를 판단하는 단계(S4020)를 포함할 수 있다.The fingerprint recognition method capable of detecting a forgery fingerprint according to an embodiment of the present invention may include the step of performing quality measurement and data pre-processing of the biometric information, extracting features, and determining whether to falsify (S4020).

S4020 단계에서, 상기 특징추출부(120)는 상기 생체 정보의 품질을 측정하고 데이터 전처리, 특징추출 및 위조여부 판단을 수행할 수 있다. 상기 특징추출부(120)에서 상기 패치의 크기는 32X32, 48X48, 64X64 픽셀 중 어느 하나의 크기를 가질 수 있다. 바람직하게는, 상기 특징 추출부(120)는 상기 패치의 크기가 48X48 픽셀의 크기를 가질 수 있다.In step S4020, the feature extraction unit 120 may measure the quality of the bio-information and perform data pre-processing, feature extraction and forgery determination. In the feature extraction unit 120, the size of the patch may have one of 32X32, 48X48, and 64X64 pixels. Preferably, the feature extraction unit 120 may have a size of the patch 48X48 pixels.

S4020 단계에서, 상기 특징 추출부(120)는 복수의 상기 패치를 개별적으로 위조 여부를 판단할 수 있다. 상기 특징 추출부(120)는 복수의 상기 패치의 위조 여부 판단 결과를 종합해 생체정보 전체의 위조정보 또는 생체정보 여부를 판단할 수 있다. 상기 특징 추출부(120)는 학습에 의해 결정된 문턱값을 기준으로 위조 여부를 판단할 수 있다. 상기 특징 추출부(120)는 획득한 상기 생체정보에서 그램행렬을 추출하여, 위조 여부 판단에 이용할 수 있다. 상기 특징 추출부(120)는 상기 그램행렬의 크기가 128x128 일 수 있다. In step S4020, the feature extraction unit 120 may determine whether to counterfeit the plurality of patches individually. The feature extracting unit 120 may determine whether the entire biometric information is counterfeit or biometric information by synthesizing the result of determining whether the plurality of patches are forged. The feature extracting unit 120 may determine whether to falsify based on a threshold value determined by learning. The feature extraction unit 120 may extract a gram matrix from the obtained biometric information and use it to determine whether or not it is forged. The feature extraction unit 120 may have a size of the gram matrix of 128x128.

본 발명의 일 실시 예에 따른 위조지문 검출 가능한 지문인식 방법은 기 저장된 템플릿과 획득된 생체정보의 매칭점수를 생성하고 인증을 수행하는 단계(S4030)를 포함할 수 있다.The fingerprint recognition method capable of detecting a forgery fingerprint according to an embodiment of the present invention may include generating a matching score of a pre-stored template and the obtained biometric information and performing authentication (S4030).

S4030 단계에서, 상기 매칭부(130)는 상기 데이터베이스부(140)에 저장된 템플릿(template)과 상기 특징 추출부(120)에서 획득된 생체 특징의 매칭점수를 생성할 수 있다. 상기 매칭부(130)는 상기 생체 정보의 매칭 점수에 따라 인증 여부를 판단할 수 있다. 상기 매칭부(130)는 상기 생체정보의 매칭점수에 따라 상기 사용자를 인증하는 작업을 수행할 수 있다.In step S4030, the matching unit 130 may generate a template stored in the database unit 140 and a matching score of the biometric features acquired by the feature extraction unit 120. The matching unit 130 may determine whether to authenticate according to the matching score of the biometric information. The matching unit 130 may perform the operation of authenticating the user according to the matching score of the biometric information.

본 발명의 일 실시 예에 따른 위조지문 검출 가능한 지문인식 방법은 인증을 위한 생체 정보를 이용해 템플릿을 저장하는 단계(S4040)를 포함할 수 있다.The fingerprint recognition method capable of detecting a forgery fingerprint according to an embodiment of the present invention may include storing a template using biometric information for authentication (S4040).

S4040 단계에서, 상기 데이터베이스부(140)는 생체 등록과정을 거쳐 생체 데이터들을 템플릿으로 저장할 수 있다. 상기 데이터베이스부(140)는 상기 특징 추출부(120)에서 학습한 결과를 저장할 수 있다. 상기 데이터베이스부(140)는 인증을 위한 데이터 및 위조여부 판단을 위한 데이터를 저장할 수 있다.In step S4040, the database unit 140 may store biometric data as a template through a biometric registration process. The database unit 140 may store the results learned by the feature extraction unit 120. The database unit 140 may store data for authentication and data for falsification.

이제까지 본 발명에 대하여 그 바람직한 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통 상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far, the present invention has been focused on the preferred embodiments. Those skilled in the art to which the present invention pertains will appreciate that the present invention may be implemented in a modified form without departing from the essential characteristics of the present invention. Therefore, the disclosed embodiments should be considered in terms of explanation, not limitation. The scope of the present invention is shown in the claims rather than the foregoing description, and all differences within the equivalent range should be interpreted as being included in the present invention.

Claims (13)

사용자의 생체정보를 획득하는 센서모듈;
상기 생체정보의 품질 측정 및 데이터 전처리를 수행하고, 특징을 추출하고 위조 여부를 판단하는 특징 추출부;
인증을 위한 생체 정보 템플릿을 저장하는 데이터베이스부; 및
상기 템플릿과 획득된 생체정보의 매칭점수를 생성하고 인증을 수행하는 매칭부;를 포함하고,
상기 특징 추출부는 획득한 상기 생체정보를 복수의 패치로 분할한 뒤 특징 추출 및 위조여부를 판단하는 것을 특징으로 하는 위조지문 검출 가능한 지문인식 시스템.
A sensor module for acquiring user biometric information;
A feature extraction unit that performs quality measurement and data pre-processing of the biometric information, extracts features, and determines whether to falsify;
A database unit storing a biometric information template for authentication; And
It includes; a matching unit for generating a matching score of the template and the obtained biometric information and performing authentication;
The feature extracting unit is a fingerprint recognition system capable of detecting a forgery fingerprint, characterized in that after dividing the obtained biometric information into a plurality of patches, it is determined whether to extract the feature and forgery.
제1항에 있어서,
상기 특징 추출부는,
상기 패치의 크기는 32X32, 48X48, 64X64 픽셀 중 어느 하나의 크기를 가지는 것을 특징으로 하는 위조지문 검출 가능한 지문인식 시스템.
According to claim 1,
The feature extraction unit,
The size of the patch has a size of any one of 32X32, 48X48, 64X64 pixels Fingerprint identification system capable of detecting a forgery fingerprint.
제2항에 있어서,
상기 특징 추출부는,
상기 패치의 크기가 48X48 픽셀의 크기를 가지는 것을 특징으로 하는 위조지문 검출 가능한 지문인식 시스템.
According to claim 2,
The feature extraction unit,
A fingerprint recognition system capable of detecting a forgery fingerprint, wherein the patch has a size of 48X48 pixels.
제1항에 있어서,
상기 특징 추출부는,
복수의 상기 패치를 개별적으로 위조 여부를 판단하는 위조지문 검출 가능한 지문인식 시스템.
According to claim 1,
The feature extraction unit,
A fingerprint recognition system capable of detecting a forgery fingerprint that individually determines whether to falsify a plurality of the patches.
제4항에 있어서,
상기 특징 추출부는,
복수의 상기 패치의 위조 여부 판단 결과를 종합해 생체정보 전체의 위조정보 또는 생체정보 여부를 판단하는 위조지문 검출 가능한 지문인식 시스템.
The method of claim 4,
The feature extraction unit,
A fingerprint recognition system capable of detecting a forgery fingerprint by determining whether the whole of the biometric information is counterfeit or biometric information by synthesizing the result of determining whether or not the plurality of patches are forged.
제5항에 있어서,
상기 특징 추출부는,
학습에 의해 결정된 문턱값을 기준으로 위조 여부를 판단하는 위조지문 검출 가능한 지문인식 시스템.
The method of claim 5,
The feature extraction unit,
A fingerprint recognition system capable of detecting a forgery fingerprint based on a threshold determined by learning to determine whether or not it has been forged.
제1항에 있어서,
상기 특징 추출부는,
획득한 상기 생체정보에서 그램행렬을 추출하여, 위조 여부 판단에 이용하는 것을 특징으로 하는 위조지문 검출 가능한 지문인식 시스템.
According to claim 1,
The feature extraction unit,
A fingerprint recognition system capable of detecting a forgery fingerprint, characterized in that a gram matrix is extracted from the obtained biometric information and used to determine whether or not it has been forged.
제7항에 있어서,
상기 특징 추출부는,
상기 그램행렬의 크기가 128x128 인 것을 특징으로 하는 위조지문 검출 가능한 지문인식 시스템.
The method of claim 7,
The feature extraction unit,
A fingerprint recognition system capable of detecting a forgery fingerprint, wherein the size of the gram matrix is 128x128.
사용자의 생체정보를 획득하는 (a)단계;
상기 생체정보의 품질 측정 및 데이터 전처리를 수행하고, 특징을 추출하고 위조 여부를 판단하는 (b)단계;
기 저장된 템플릿과 획득된 생체정보의 매칭점수를 생성하고 인증을 수행하는 (c)단계; 및
인증을 위한 생체 정보를 이용해 템플릿을 저장하는 (d)단계;를 포함하고,
상기 (b)단계는 획득한 상기 생체정보를 복수의 패치로 분할한 뒤 특징 추출 및 위조여부를 판단하는 것을 특징으로 하는 위조지문 검출 가능한 지문인식 방법.
Step (a) of obtaining the user's biometric information;
Step (b) of performing the quality measurement and data pre-processing of the bio-information, extracting features, and determining whether to falsify;
(C) generating a matching score of the pre-stored template and the obtained biometric information and performing authentication; And
Including (d) step of storing the template using biometric information for authentication;
In step (b), the obtained biometric information is divided into a plurality of patches, and then feature extraction and forgery determination are performed.
제9항에 있어서,
상기 (b)단계는,
복수의 상기 패치를 개별적으로 위조 여부를 판단하는 위조지문 검출 가능한 지문인식 방법.
The method of claim 9,
Step (b) is,
A fingerprint recognition method capable of detecting a forgery fingerprint that individually determines whether to falsify a plurality of the patches.
제10항에 있어서,
상기 (b)단계는,
복수의 상기 패치의 위조 여부 판단 결과를 종합해 생체정보 전체의 위조정보 또는 생체정보 여부를 판단하는 위조지문 검출 가능한 지문인식 방법.
The method of claim 10,
Step (b) is,
A fingerprint recognition method capable of detecting a forgery fingerprint by deciding whether to falsify information or biometric information of the entire biometric information by synthesizing the results of determining whether or not the plurality of the patches are forged.
제9항에 있어서,
상기 (b)단계는,
획득한 상기 생체정보에서 그램행렬을 추출하여, 위조 여부 판단에 이용하는 것을 특징으로 하는 위조지문 검출 가능한 지문인식 방법.
The method of claim 9,
Step (b) is,
A fingerprint recognition method capable of detecting a forgery fingerprint, characterized by extracting a gram matrix from the obtained biometric information and using it to determine whether or not it is forged.
제12항에 있어서,
상기 (b)단계는,
상기 그램행렬의 크기가 128x128 인 것을 특징으로 하는 위조지문 검출 가능한 지문인식 방법.
The method of claim 12,
Step (b) is,
A fingerprint recognition method capable of detecting forged fingerprints, wherein the size of the gram matrix is 128x128.
KR1020180134626A 2018-11-05 2018-11-05 Fake fingerprint detection method and system KR20200051903A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180134626A KR20200051903A (en) 2018-11-05 2018-11-05 Fake fingerprint detection method and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180134626A KR20200051903A (en) 2018-11-05 2018-11-05 Fake fingerprint detection method and system

Publications (1)

Publication Number Publication Date
KR20200051903A true KR20200051903A (en) 2020-05-14

Family

ID=70737144

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180134626A KR20200051903A (en) 2018-11-05 2018-11-05 Fake fingerprint detection method and system

Country Status (1)

Country Link
KR (1) KR20200051903A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023101200A1 (en) * 2021-12-02 2023-06-08 (주)위닝아이 Contactless fingerprint authentication method including fake fingerprint identification function using ai

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023101200A1 (en) * 2021-12-02 2023-06-08 (주)위닝아이 Contactless fingerprint authentication method including fake fingerprint identification function using ai

Similar Documents

Publication Publication Date Title
CN107766786B (en) Activity test method and activity test computing device
CN108073889B (en) Iris region extraction method and device
Silva et al. An approach to iris contact lens detection based on deep image representations
AU2018292176B2 (en) Detection of manipulated images
Dua et al. Biometric iris recognition using radial basis function neural network
EP3333768A1 (en) Method and apparatus for detecting target
Hildebrandt et al. Benchmarking face morphing forgery detection: Application of stirtrace for impact simulation of different processing steps
CN112163511B (en) Method for identifying authenticity of image
CN112801057B (en) Image processing method, image processing device, computer equipment and storage medium
Kumar et al. Live detection of face using machine learning with multi-feature method
EP3642756B1 (en) Detecting artificial facial images using facial landmarks
CN111222380B (en) Living body detection method and device and recognition model training method thereof
Tapia et al. Single morphing attack detection using feature selection and visualization based on mutual information
KR20200051903A (en) Fake fingerprint detection method and system
Scherhag Face Morphing and Morphing Attack Detection
CN114746864A (en) Method and apparatus for verifying authenticity of a product
Patel et al. Investigate age invariant face recognition using PCA, LBP, Walsh Hadamard transform with neural network
Abraham Digital image forgery detection approaches: A review and analysis
CN115705748A (en) Facial feature recognition system
Nandre et al. Comparative Analysis of Transfer Learning CNN for Face Recognition
N Abdullah et al. Iris recognition using wavelet transform and artificial neural networks
Sarmah et al. Biometric authentication-person identification using iris recognition
Una et al. Classification technique for face-spoof detection in artificial neural networks using concepts of machine learning
KR20110067480A (en) Sensor actuator node and method for conditions meeting using thereof
KR102131243B1 (en) Plant Area Extraction System and Method Based on Deep Running and Connectivity Graphs

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right