WO2018194187A1 - 신경망 학습기법을 이용한 위조지문 판별장치 및 그 방법 - Google Patents

신경망 학습기법을 이용한 위조지문 판별장치 및 그 방법 Download PDF

Info

Publication number
WO2018194187A1
WO2018194187A1 PCT/KR2017/004092 KR2017004092W WO2018194187A1 WO 2018194187 A1 WO2018194187 A1 WO 2018194187A1 KR 2017004092 W KR2017004092 W KR 2017004092W WO 2018194187 A1 WO2018194187 A1 WO 2018194187A1
Authority
WO
WIPO (PCT)
Prior art keywords
fingerprint
feature value
neural network
biofingerprint
feature
Prior art date
Application number
PCT/KR2017/004092
Other languages
English (en)
French (fr)
Inventor
백영현
신요식
Original Assignee
주식회사 유니온커뮤니티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 유니온커뮤니티 filed Critical 주식회사 유니온커뮤니티
Priority to PCT/KR2017/004092 priority Critical patent/WO2018194187A1/ko
Publication of WO2018194187A1 publication Critical patent/WO2018194187A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features

Definitions

  • the present invention provides a method of comparing a feature value extracted from a color fingerprint obtained optically using a white light source with a biofingerprint-feature value set by a neural network learning method, and forging whether the fingerprint is a fake fingerprint.
  • a fingerprint discrimination apparatus and a method thereof are provided.
  • Normal personal authentication is mainly used in areas where security is important, such as access control, e-commerce, financial transactions, security of personal computers (PCs), and office payment systems. The most important thing is to effectively distinguish fingerprints (hereinafter referred to as 'false fingerprints').
  • One method of making a fake fingerprint is to contact a fingerprint reader with a liquid or a liquid such as water or oil on a paper or film on which the fingerprint image is printed.
  • a typical fingerprint recognition device recognizes such fake fingerprints and performs false authentication.
  • a neural network is an algorithm modeled using the human brain structure to enable computer learning.
  • the smallest unit of human nerves is the neuron, and the basic unit of a neural network is a processing element (PE), just as a substance called a synapse is involved in the connections between neurons and neurons.
  • PE processing element
  • An object of the present invention is to determine whether a fingerprint is a fake fingerprint by comparing a feature value extracted from an optically obtained color fingerprint using a white light source with a biofingerprint-feature value set by a neural network learning technique.
  • the present invention provides a forgery fingerprint discrimination apparatus and method thereof.
  • a fingerprint fingerprint identification method is obtained by optically using a photorefractor, but the fingerprint contact the contact surface of the optical refraction by using a white light as the light for fingerprint image acquisition.
  • the biofingerprint-feature value range may include setting a reference value that is a reference of the biofingerprint-feature value, extracting the plurality of feature values from the biometric fingerprint image, and extracting the plurality of feature values. Changing the error to be added to the reference value and repeating the step of changing the error with respect to a plurality of biometric fingerprint images, which are obtained, by applying the obtained errors to the reference value to determine the biofingerprint-feature value range. It is preferable to set through the steps.
  • the rate of change of the RGB distribution and the thickness of the ridges may be used as the biofingerprint-feature value.
  • a forgery fingerprint discrimination apparatus comprising: a fingerprint sensor unit optically obtaining a color fingerprint image by using white light; and a biofingerprint-feature value range set as a result of learning by neural network learning method.
  • the learning fingerprint storage unit for storing, a feature value extractor for extracting a plurality of feature values for distinguishing a biometric fingerprint and a fake fingerprint from the obtained color fingerprint image, and the feature value extracted from the feature value extractor
  • a bio judgment unit for determining the fingerprint as a bio fingerprint when it falls within a feature value range.
  • the apparatus for judging fingerprints obtains a color fingerprint image optically, and determines whether the fingerprint image is a biometric fingerprint or a fake fingerprint.
  • Forgery fingerprint discrimination apparatus of the present invention can recognize the difference between the biometric fingerprint and the fake fingerprint that was not found when using a general light source of a single wavelength, it is possible to determine whether or not the fake fingerprint by a simple method.
  • the biofingerprint-feature value which is a criterion of determination, is set as a result of learning the difference between the biometric and the fake fingerprint extracted from the color fingerprint image using neural network learning, and thus, the fingerprint image used for learning.
  • FIG. 1 is a block diagram of a fake fingerprint discrimination apparatus of the present invention
  • FIG. 2 is a diagram showing an example of a color fingerprint image obtained from a bio fingerprint and a fake fingerprint
  • FIG. 3 is a block diagram of a neural network learning system for discriminating forged fingerprints according to the present invention.
  • the counterfeit fingerprint determining apparatus 100 of the present invention includes a fingerprint sensor unit 110, a learning data storage unit 130, a feature value extracting unit 150, and a biological determination unit 170.
  • the fingerprint sensor unit 110 includes an optical refractor 111, a white light source 113, a lens 115, and an image sensor 117, and the fingerprint contact surface of the optical refractor 111 by an optical fingerprint authentication method ( A fingerprint image of the fingerprint in contact with 111a) is obtained.
  • An optical fingerprint authentication method A fingerprint image of the fingerprint in contact with 111a
  • Any method of generating an optical fingerprint image may be applied, including a scattering method or an absorption method known as a method of optically obtaining a fingerprint.
  • the photorefractor 111 is usually a triangular or trapezoidal prism in the shape of its cross-section, but can replace a prism of a broad concept of the optical refractor.
  • the optical refractor 111 has a fingerprint contact surface 111a through which fingerprints are contacted, an emission surface 111b through which light (fingerprint image) reflected or scattered from the fingerprint contact surface 111a is emitted, and an internal white light source 113.
  • the incident surface 111c to which light emitted from is incident is provided.
  • the white light source 113 used as the light for obtaining a fingerprint image is a light source having all wavelengths of red, green, and blue, compared with a light source having one wavelength in general.
  • the image sensor 117 should be a color image sensor capable of obtaining a color fingerprint image.
  • the basic fingerprint image acquisition process of the fingerprint sensor 110 is as follows.
  • the light irradiated from the white light source 113 passes through the incident surface 111c, the fingerprint contact surface 111a, and the exit surface 111b of the optical refractor 111. It is imaged on the lens 115 and input to the image sensor 117.
  • the scattered fingerprint sensor unit 110 as shown in FIG. 1, the light emitted from the white light source 113 is incident on the fingerprint contact surface 111a at an angle smaller than the critical angle for perpendicular or total reflection.
  • the light emitted from the white light source 113 passes or scatters along the valleys and ridges of the fingerprint in contact with the fingerprint contact surface 111a to form a color fingerprint image.
  • the image sensor 117 outputs a digital fingerprint image signal, which is an electrical signal corresponding to the incident fingerprint image, to obtain a color image of the fingerprint in contact with the fingerprint contact surface 111a. Therefore, the fingerprint image generated by the fingerprint sensor 110 becomes a color fingerprint image.
  • the learning data storage unit 130 stores a plurality of 'bioprint-feature values'.
  • the plurality of 'bioprint-feature values' are set through neural network learning, which will be described later.
  • the feature value extractor 150 extracts a plurality of feature values to be compared with a plurality of 'bioprint-feature values' from the fingerprint image acquired by the fingerprint sensor 110.
  • the feature value extraction method of the feature value extraction unit 150 will be described again below.
  • the biological determination unit 170 finally determines whether the fingerprint image acquired by the fingerprint sensor unit 110 is a bio fingerprint or a fake fingerprint by using the plurality of feature values extracted by the feature value extractor 150. If the feature value extracted by the feature value extractor 150 corresponds to the biofingerprint-feature value stored in the learning data storage unit 130, the biopsy unit 170 determines the bioprinter and does not correspond to the biofingerprint-feature value. If not, the acquired fingerprint image is determined as a fake fingerprint.
  • the biodetermination unit 170 may determine whether or not a fake fingerprint by comparing a plurality of 'biological fingerprint-feature values' for bio fingerprint determination, but at least one feature value selected from a plurality of 'biological fingerprint-feature values' You can also determine whether or not the forgery fingerprint by comparing the.
  • the difference between these methods may vary depending on, for example, the biofingerprint discrimination level (Level, or intensity). For example, if the discrimination level is very high, the fingerprint is discriminated only if all of the plurality of feature values are satisfied.
  • the discrimination level does not need to be high if necessary, (1) a plurality of 'bioprints-
  • the discrimination level can be lowered by a method such as a condition that at least one of the feature values' satisfies, or (2) a condition that any one of the plurality is satisfied.
  • Color fingerprint images can find different characteristics in bio and fake fingerprints.
  • the forgery fingerprint is printed or shaped fingerprint image on a material such as silicon, rubber, transparent film, paper, gelatin, woodworking bond.
  • the conventional fingerprint sensor using a monochromatic light does not properly distinguish such a fake fingerprint from a biometric fingerprint, and thus has a method for providing a separate biometric configuration or using another light source.
  • FIG. 2 is an example of an image of a fake fingerprint obtained using a color light source
  • (a), (b) and (c) of FIG. 2 are color fingerprint images obtained from a bioprint
  • (a1) is made of rubber.
  • Color fingerprint image obtained from a forgery fingerprint, a forgery fingerprint for (a), (b1) is a color fingerprint image obtained from a forgery fingerprint made of silicone, a forgery fingerprint for (b), and (c1) made of gelatin
  • It is a color fingerprint image obtained from a fake fingerprint, which is a fake fingerprint for (c).
  • FIG. 2 there is a difference between the biometric fingerprint in the RGB distribution change rate and the ridge clumping characteristic according to pressure.
  • the RGB distribution refers to a distribution of brightness values at each wavelength of red (R), green (G), and blue (B).
  • red red
  • G green
  • B blue
  • black can be displayed as (0, 0, 0)
  • White can be represented as (255, 255, 255)
  • pure red can be represented as (255, 0, 0).
  • the average RGB distribution of the color fingerprint image obtained from the biometric fingerprint is (r, g, b)
  • the average RGB distribution of the color fingerprint image obtained from the fake fingerprint differs from (r1, g1, b1). The difference is enough to distinguish between bio and fake fingerprints.
  • RGB distribution is different is that the shape of reflecting or absorbing a specific wavelength varies depending on the material of the fake fingerprint. Films and papers tend to produce lower RBG brightness values than bioprints, while silicon tends to produce higher brightness values.
  • the RGB distribution extracted from the color fingerprint image becomes a feature value that can distinguish the biometric fingerprint from the fake fingerprint. If we extract the RGB distribution from a plurality of biometric fingerprint images (eg, tens of thousands) and learn by neural network learning according to the so-called 'map learning technique', we can check the normal RGB distribution of the bioprint, which is related to the RBG distribution. It is a biofingerprint-feature.
  • the thickness (or width) of the ridges of the bioprint is on average 7-8 pixels.
  • the bioprints have a reason for their manufacturing process, the material itself, or the fingerprint recognition process. It tends to exhibit nonlinear distortion characteristics that are distinct from ridges of the fingerprint. Nonlinear distortion forms are sharp, thick or thin fingerprint ridges. Therefore, it is possible to determine whether the forgery fingerprint by the method of detecting the thickness of the ridge.
  • the thickness of the ridge is slightly different for each fingerprint, so if the thickness of the ridge is extracted from a plurality of biometric fingerprint images and learned by neural network learning method, the normal ridge thickness of the biological fingerprint is obtained. And it becomes the biofingerprint-feature value for the ridge thickness.
  • the present invention sets feature values that quantify features such as RGB distribution or ridge agglomeration, and learns the difference between these feature values in biometric and fake fingerprints through neural network learning method to set 'bioprint-feature values'. .
  • the biofingerprint has different characteristics such as the shape of the fingerprint, the shape / thickness of the ridge, the distribution of the color, and the like, and therefore, the biofingerprint-feature value cannot be specified as a single value and has a certain range.
  • a certain range eg, ridge thickness
  • the biofingerprint-feature value e.g., the thickness of the ridge
  • a plurality of bio-fingerprint-feature values may be set according to a neural network learning technique.
  • a single layer perceptron model is used to learn a large amount of biofingerprint images according to supervised learning techniques, and the weights between PEs are designed to change according to the learning to separate linearly separable patterns.
  • the supervised learning method is a method of identifying and learning that the fingerprint image used for learning is a fingerprint image of a living body.
  • the system 300 for neural network learning includes a fingerprint image database 310, a feature value extractor 330, and a learner 350.
  • the feature value extractor 330 has the same configuration as the feature value extractor 150 of FIG. 1.
  • the fingerprint image database 310 stores a plurality of bio color fingerprint images obtained from the bio fingerprint. The more fingerprint images stored in the fingerprint image database 310, the higher the effect of learning and the success rate of biometric fingerprint determination.
  • the learner 350 sets a reference value for each characteristic.
  • the reference value of the thickness of the ridges is set to 7 pixels
  • the initial reference value of the RGB distribution chart is set to the average value of the RGB distributions of the sampled representative fingerprint images.
  • the learner 350 extracts a feature value (RGB distribution, ridge thickness) for each of the biometric fingerprint images previously stored in the fingerprint image database 310 by the feature value extractor 330.
  • the process of obtaining weights is repeated for a plurality of biometric fingerprint images stored in the fingerprint image database 310, and the process of changing the errors (weights) is repeated.
  • the error is applied to the reference value to determine the biofingerprint-feature value range that is a reference for the forgery fingerprint judgment.
  • the reference value is set to 7 pixels and the initial value of the weight is set to ⁇ 1, and the learning is repeated. If the weight is changed to -2 or +2 in the learning process, the biofingerprint-feature for the ridge thickness is 6-8 pixels.
  • the biopsy unit 170 of the forgery fingerprint discrimination apparatus 100 has a sharp average thickness of the ridge extracted from the fingerprint image that is the object of the forgery fingerprint determination, which is abruptly 6 pixels or less, unlike the result of learning through a large number of biometric fingerprint images. If it is extracted more than a pixel, it is judged that the possibility of counterfeiting is large.
  • the neural network learning method In the neural network learning method, the larger the number of biometric fingerprint images already held, the closer the result of learning becomes to the real object, and the distinction between the biometric fingerprint and the fake fingerprint becomes accurate. In addition, it is a method of increasing accuracy that considers a plurality of feature values rather than one feature value.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Collating Specific Patterns (AREA)

Abstract

신경망 학습기법을 이용한 위조지문 판별장치 및 그 방법이 개시된다. 본 발명의 위조지문 판별장치는 백색 광원을 이용하여 광학식으로 획득한 컬러 지문으로부터 추출한 특징값을, 신경망 학습기법에 의해 설정한 생체지문-특징값과 비교하는 방법으로 해당 지문이 위조지문인지 여부를 판별할 수 있다. 생체지문-특징값은 신경망 학습법에 의해 설정한 것으로서 학습 데이터가 많아질수록 위조지문 판별의 정확성이 높아진다.

Description

신경망 학습기법을 이용한 위조지문 판별장치 및 그 방법
본 발명은 백색 광원을 이용하여 광학식으로 획득한 컬러 지문으로부터 추출한 특징값을, 신경망 학습기법에 의해 설정한 생체지문-특징값과 비교하는 방법으로 해당 지문이 위조지문인지 여부를 판별할 수 있는 위조지문 판별장치 및 그 방법에 관한 것이다.
정보기기를 이용한 개인 인증에 불변성과 유일성이 뛰어난 사용자 생체 정보를 이용하는 것은 이미 일반화되었으며, 그 중에서도 지문인식은 구조는 매우 간단한데 그 성능은 매우 뛰어난 편이기 때문에 다른 수단에 비해 가장 주목되고 일반화된 인증수단이 되고 있다.
통상의 개인인증은, 출입제어, 전자상거래, 금융거래, 개인용 컴퓨터(PC)의 보안 및 사무적 결재체계 등과 같이 보안이 중요하게 요구되는 분야에 주로 사용되는 바, 인간의 지문이 아닌 인위적으로 제작된 지문(이하 '위조지문'이라 함)을 효과적으로 구분하는 것이 무엇보다 중요하다.
위조지문을 만드는 방법 중 하나는, 지문 이미지가 인쇄된 종이나 필름(Film)에 물이나 기름과 같은 투명한 액체를 묻히거나 적셔서 지문인식장치에 접촉시키는 방법이다. 통상의 지문인식장치는 이러한 위조지문을 그대로 인식하여 허위인증을 수행하게 된다.
위조지문을 판별하기 위하여, 출원인은 특허 제874688호와 제1179559호를 발명한 바 있다.
한편, 신경망(Neural Network)이란, 인간의 뇌 구조를 이용하여 모델링된 알고리즘으로 컴퓨터의 학습을 가능하게 한다. 인간의 신경들을 구성하는 최소 단위는 뉴런(Neuron)이고, 뉴런과 뉴런 사이의 연결을 시냅스(Synapse)라는 물질이 관여하는 것처럼, 신경망의 기본 단위는 PE(Processing Element)가 된다. 이와 같은 신경망 이론을 위조지문 판단에 적용할 수 있다.
본 발명의 목적은 백색 광원을 이용하여 광학식으로 획득한 컬러 지문으로부터 추출한 특징값을, 신경망 학습기법에 의해 설정한 생체지문-특징값과 비교하는 방법으로 해당 지문이 위조지문인지 여부를 판별할 수 있는 위조지문 판별장치 및 그 방법을 제공함에 있다.
상기 목적을 달성하기 위한 본 발명에 따른 위조지문 판별방법은, 광굴절기를 이용한 광학식으로 지문 이미지를 획득하되, 지문 이미지 획득용 광으로 백색 광을 이용하여 상기 광굴절기의 지문접촉면에 접촉한 지문의 이미지를 획득하는 단계와, 상기 획득한 지문 이미지에서 생체지문과 위조지문을 구분하기 위한 복수 개의 특징값을 추출하는 단계와, 신경망 학습법에 따라 학습된 생체지문-특징값 범위에 상기 추출된 특징값이 속하는 경우에 상기 지문을 생체지문으로 판단하는 단계를 포함한다.
실시 예에 따라, 상기 생체지문-특징값 범위는, 상기 생체지문-특징값의 기준이 되는 기준값을 설정하는 단계와, 기보유한 생체 지문 이미지에 대하여 상기 복수 개의 특징값을 각각 추출하여 신경망 학습법에 따라 상기 기준값에 부가할 오차를 변경하는 단계와, 상기 오차를 변경하는 단계를 복수 개의 기보유한 생체 지문 이미지에 대하여 반복 수행하여 획득한 오차들을 상기 기준값에 적용하여 상기 생체지문-특징값 범위를 확정하는 단계를 통해 설정한 것이 바람직하다.
여기서, 상기 생체지문-특징값으로 RGB 분포 변화율과 융선의 두께를 사용할 수 있다.
또 다른 실시 예에 따른 본 발명의 위조지문 판별장치는, 백색 광을 이용하여 광학식으로 컬러 지문 이미지를 획득하는 지문센서부와, 신경망 학습법에 따라 학습된 결과로 설정한 생체지문-특징값 범위를 저장하는 학습데이터 저장부와, 상기 획득한 컬러 지문 이미지에서 생체지문과 위조지문을 구분하기 위한 복수 개의 특징값을 추출하는 특징값추출부와, 상기 특징값추출부에서 추출한 특징값이 상기 생체지문-특징값 범위에 속하는 경우에 상기 지문을 생체지문으로 판단하는 생체판단부를 포함할 수 있다.
본 발명에 따른 위조지문 판별장치는 광학식으로 컬러 지문 이미지를 획득하며, 해당 지문 이미지가 생체 지문인지 위조지문인지 판단할 수 있다. 본 발명의 위조지문 판별장치는 단일 파장의 일반 광원을 사용할 때 발견하지 못한 생체지문과 위조지문의 차이를 인식할 수 있게 되어, 간단한 방법으로 위조지문 여부를 판단할 수 있다.
본 발명의 판별방법에서 판단기준이 되는 생체지문-특징값은 컬러 지문 영상에서 추출할 수 있는 생체와 위조지문 사이의 차이를 신경망 학습법을 이용하여 학습한 결과로 설정되므로, 학습에 사용되는 지문 이미지의 수가 충분히 많으면 많을수록 생체지문 판단 성공율을 높일 수 있다.
도 1은 본 발명의 위조지문 판별장치의 블록도,
도 2는 생체지문과 위조지문으로부터 획득한 컬러 지문 이미지의 예를 도시한 도면, 그리고
도 3은 본 발명에 따른 위조지문 판별을 위한 신경망 학습시스템의 블록도이다.
이하 도면을 참조하여 본 발명을 더욱 상세히 설명한다.
도 1을 참조하면, 본 발명의 위조지문 판별장치(100)는 지문센서부(110), 학습데이터저장부(130), 특징값추출부(150) 및 생체판단부(170)를 포함한다.
지문센서부(110)는 광굴절기(111), 백색광원(113), 렌즈(115) 및 이미지센서(117)를 포함하며, 광학식 지문인증방법에 의해 광굴절기(111)의 지문접촉면(111a)에 접촉한 지문의 지문 이미지를 획득한다. 지문을 광학식으로 획득하는 방법으로 알려진 산란식이나 흡수식을 포함하여 어떠한 방식의 광학식 지문이미지 생성방식이라도 적용할 수 있다.
광굴절기(111)는 통상 그 단면의 형상이 삼각형 또는 사다리꼴의 프리즘을 사용하지만, 프리즘을 대신하여 넓은 개념의 광굴절기를 사용할 수 있다. 광굴절기(111)는 지문이 접촉되는 지문접촉면(111a)과, 지문접촉면(111a)에서 반사 또는 산란된 광(지문영상)이 출사되는 출사면(111b)과, 내부의 백색광원(113)에서 출사된 광이 입사되는 입사면(111c)을 구비한다.
지문 이미지 획득용 광으로 사용되는 백색광원(113)은 적색(Red), 녹색(Green), 청색(Blue)의 파장을 모두 가진 광원으로서, 종래에 일반적으로 하나의 파장의 광원을 사용한 것과 대비된다. 이에 따라, 이미지센서(117)는 컬러 지문 이미지를 획득할 수 있는 컬러 이미지 센서이어야 한다.
먼저, 지문센서부(110)의 기본적인 지문 이미지 획득 과정을 살피면 다음과 같다. 사용자가 지문접촉면(111a)에 지문을 접촉시키면, 백색광원(113)에서 조사된 광이 광굴절기(111)의 입사면(111c), 지문접촉면(111a) 및 출사면(111b)을 거치면서 렌즈(115)에 결상되어 이미지센서(117)로 입력된다. 도 1과 같은 산란식 지문센서부(110)에서, 백색광원(113)에서 출사된 광은 직각 또는 전반사를 위한 임계각보다 작은 각도로 지문접촉면(111a)에 입사된다. 백색광원(113)에서 출사된 광은 지문접촉면(111a)에 접촉된 지문의 골과 융선에 따라 통과되거나 산란되어 컬러 지문영상을 형성한다. 이미지센서(117)는 입사되는 지문영상에 대응하는 전기적 신호인 디지털 지문영상 신호를 출력함으로써 지문접촉면(111a)에 접촉된 지문의 컬러 이미지를 획득한다. 따라서 지문센서부(110)가 생성하는 지문 이미지는 컬러 지문 이미지가 된다.
학습데이터저장부(130)에는 복수 개의 '생체지문-특징값'이 저장된다. 복수 개의 '생체지문-특징값'은 신경망 학습을 통해 설정되며, 이에 대하여는 아래에서 다시 설명한다.
특징값추출부(150)는 지문센서부(110)가 획득한 지문 이미지로부터 복수 개의 '생체지문-특징값'과 비교할 복수 개의 특징값을 추출한다. 특징값추출부(150)의 특서값 추출 방법은 아래에서 다시 설명한다.
생체판단부(170)는 특징값추출부(150)가 추출한 복수 개의 특징값을 이용하여 지문센서부(110)가 획득한 지문 이미지가 생체지문인지 위조지문인지 최종 판단한다. 생체판단부(170)는 특징값추출부(150)가 추출한 특징값이 학습데이터저장부(130)에 저장된 생체지문-특징값에 해당하면 생체지문으로 판단하고, 생체지문-특징값에 해당하지 않으면 획득한 지문 이미지를 위조지문으로 판단한다.
생체판단부(170)는 생체지문 판단을 위하여 복수 개의 '생체지문-특징값' 모두를 비교하여 위조지문 여부를 판단할 수도 있지만, 복수 개의 '생체지문-특징값' 중 선택된 적어도 하나의 특징값을 비교하여 위조지문 여부를 판단할 수도 있다. 이러한 방법의 차이는 예를 들어 생체지문 판별 레벨(Level, 또는 강도)에 따라 달라질 수 있다. 예컨대, 판별 레벨이 매우 높은 경우에는 복수 개의 특징값을 모두 만족하는 경우에만 해당 지문을 생체지문으로 판별하는 것이고, 필요에 따라 판별 레벨이 높을 필요가 없는 경우에는 (1) 복수 개의 '생체지문-특징값' 중 기설정된 적어도 하나가 만족하는 조건이나 (2) 복수 개 중에서 어느 하나라도 만족하는 조건 등의 방법으로 판별 레벨을 낮출 수 있다.
<백색 광원에서의 위조지문과 생체지문의 차이와 신경망 학습>
컬러 지문 이미지는 생체지문과 위조지문에서 서로 다른 특성을 발견할 수 있다. 여기서, 위조지문은 실리콘, 고무, 투명필름, 종이, 젤라틴, 목공용 본드 등의 소재에 지문 이미지를 인쇄하거나 형상화한 것이다. 종래의 단색 광을 사용하는 지문센서는 이러한 위조지문을 생체지문과 제대로 구분하지 못하므로, 별도의 생체 인식용 구성을 구비하거나 다른 광원을 더 사용하는 방법을 사용한다.
그러나 백색광원(113)을 사용하는 본 발명의 지문센서부(110)가 위조지문으로부터 획득한 컬러 지문이미지에서는 생체 지문과 다른 특성들이 발견된다. 이러한 차이(즉 특성)는 백색 광 내의 다양한 파장으로부터 생긴다.
도 2는 컬러광원을 이용하여 획득한 위조지문의 이미지의 예로서, 도 2의 (a), (b), (c)는 생체지문에서 획득한 컬러 지문 이미지이고, (a1)은 고무로 만든 위조지문으로부터 획득한 컬러 지문 이미지로서 (a)에 대한 위조지문이고, (b1)은 실리콘으로 만든 위조지문으로부터 획득한 컬러 지문 이미지로서 (b)에 대한 위조지문이고, (c1)은 젤라틴으로 만든 위조지문으로부터 획득한 컬러 지문 이미지로서 (c)에 대한 위조지문이다. 도 2를 참조하면, 압력에 따른 RGB 분포 변화율이나 융선 뭉게짐 특성 등에서 생체 지문과 차이가 있다.
(1) 압력에 따른 RGB 분포 변화율
여기서, RGB 분포는 적색(R), 녹색(G) 및 청색(B) 각 파장에서의 밝기 값의 분포를 의미한다. 예를 들어, 각 R,G,B 각 색상의 밝기를 0에서 255의 계조로 (R, G, B)의 형식으로 표시할 때, 검정색은 (0, 0, 0)으로 표시할 수 있고, 백색은 (255, 255, 255), 순수 적색은 (255, 0, 0)으로 표시할 수 있다.
생체 지문으로부터 획득한 컬러 지문 이미지의 평균 RGB 분포를 (r, g, b)라고 할 때, 위조지문으로부터 획득한 컬러 지문 이미지의 평균 RGB 분포는 (r1, g1, b1)로 차이를 보이며, 그 차이는 생체지문과 위조지문을 구분할 정도가 된다. 이때, r≠r1, g≠g1, b≠b1.
RGB 분포가 다른 이유는 위조지문의 재질에 따라 특정 파장을 반사하거나 흡수하는 형태가 달라지기 때문이다. 필름이나 종이의 경우에는 전체적으로 생체지문보다 낮은 RBG 밝기 값이 나오고, 실리콘의 경우에는 더 높은 밝기 값이 나오는 경향이 있다.
따라서, 컬러 지문 이미지로부터 추출한 RGB 분포도가 생체 지문과 위조지문을 구분할 수 있는 특징값이 된다. 복수(예컨대, 수만 장)의 생체 컬러 지문 이미지로부터 RGB 분포도를 추출하여 소위 '지도학습기법'에 따른 신경망 학습법에 의해 학습한다면, 생체지문의 통상적인 RGB 분포를 확인할 수 있으며, 그것이 RBG 분포에 관한 생체지문-특징값이 된다.
(2) 지문 융선의 비선형 왜곡 특징
생체지문의 융선의 두께(또는 폭)는 평균적으로 7~8 픽셀의 두께를 가지는데, 위조지문의 경우에는 그 제작과정상의 이유, 재료 자체의 이유, 또는 지문을 인식시키는 과정에서의 이유로, 생체지문의 융선과 구분되는 비선형 왜곡 특징을 나타내는 경향이 있다. 비선형 왜곡 형태란 지문 융선이 급격히 두꺼워지거나 얇아지는 것이다. 따라서 융선의 두께를 검출하는 방법으로 위조지문 여부를 판단할 수 있다.
다만, 생체 지문이라 하더라도, 지문마다 융선의 두께가 조금씩 다르므로, 복수(예컨대, 수만 장)의 생체 컬러 지문 이미지로부터 융선의 두께를 추출하여 신경망 학습법에 의해 학습한다면, 생체지문의 통상적인 융선 두께를 확인할 수 있으며, 그것이 융선 두께에 관한 생체지문-특징값이 된다.
본 발명은 RGB 분포나 융선 뭉게짐과 같은 특성들을 수치화한 특징값을 설정하고, 생체지문과 위조지문에서 이들 특징값들의 차이를 신경망 학습법을 통해 학습하여, '생체지문-특징값'을 설정한다. 앞서 설명한 것처럼 생체지문이라 하더라도 그 지문의 형태, 융선의 형태/굵기, 색상의 분포 등의 특징들이 모두 다르기 때문에, 생체지문-특징값은 하나의 값으로 특정될 수 없고 일정한 범위를 가질 수밖에 없다.
따라서, 생체지문-특징값(예, 융선의 두께)에 대한 일정한 범위를 설정하고 검사대상이 되는 지문 이미지로부터 추출한 특징값(예, 융선의 두께)가 그 범위에 속하면 해당 지문을 생체지문으로 판단하는 것이다.
<신경망 학습법에 의한 생체지문-특징값의 설정>
본 발명의 지문센서부(110)를 이용하여 신경망 학습기법에 따라 복수 개의 생체지문-특징값을 설정할 수 있다. 단층 퍼셉트론 모델을 이용하여 지도학습 기법에 따라 대량의 생체지문 이미지를 학습시키고, 선형 분리 가능한 패턴을 분리할 수 있게 PE간의 가중치(Weight)는 학습에 따라 바뀌게 설계한다. 여기서, 지도학습기법은 학습에 사용되는 지문 이미지가 생체의 지문 이미지임을 이미 확인하고 학습시키는 방법이다.
도 3을 참조하면, 신경망 학습을 위한 시스템(300)은 지문 이미지 데이터베이스(310)와, 특징값추출부(330)와, 학습부(350)를 포함한다. 특징값추출부(330)는 도 1의 특징값추출부(150)와 동일한 구성이다.
지문 이미지 데이터베이스(310)에는 생체지문으로부터 획득한 복수 개의 생체 컬러 지문 이미지가 저장되어 있다. 지문 이미지 데이터베이스(310)에 저장된 지문 이미지가 많을수록 학습의 효과와 생체지문 판단 성공율이 높아진다.
학습부(350)는 각 특성별 기준값을 설정한다. 예를 들어, 융선의 두께의 기준값은 7 픽셀로 설정하고, RGB 분포도의 초기 기준값은 샘플링된 대표 지문 이미지들의 RGB 분포의 평균값으로 설정한다.
학습부(350)는 특징값추출부(330)로 하여금 지문 이미지 데이터베이스(310)에 기저장된 생체 지문 이미지 각각에 대하여 특징값(RGB 분포도, 융선의 두께)을 추출하여 각 생체 지문 이미지마다 오차(가중치)를 구하는 과정을 지문 이미지 데이터베이스(310)에 저장된 복수 개의 생체 지문 이미지에 대하여 반복하면서, 오차들(가중치)을 변경하는 과정(학습과정)을 반복한다. 학습부(350)는 최종적으로 학습이 완료되면, 기준값에 오차(가중치)를 적용하여 위조지문 판단의 기준이 되는 생체지문-특징값 범위를 확정한다.
융선의 두께를 예로 들어 설명하면, 기준값을 7 픽셀, 가중치의 초기값을 ±1로 설정하고 학습을 반복한다. 가중치가 학습과정에서 -2, +2로 변경되었다면, 융선의 두께에 대한 생체지문-특징값은 6~8 픽셀이 된다. 위조지문 판별장치(100)의 생체판단부(170)는 위조지문 여부 판단 대상이 되는 지문 이미지로부터 추출한 융선의 평균 두께가 대량의 생체 지문 이미지를 통해 학습한 결과와 다르게 급격하게 6 픽셀 이하 또는 8 픽셀이상으로 추출되면 위조 가능성이 큰 것으로 판단하는 것이다.
신경망 학습법은 기보유한 생체 지문 이미지의 개수가 많을수록 학습의 결과가 실물에 가까워지고, 생체지문과 위조지문의 구분이 정확해진다. 또한, 하나의 특징값 보다는 복수 개의 특징값을 복합적으로 고려하는 것이 정확성을 높이는 방법이다.
이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안 될 것이다.

Claims (6)

  1. 광굴절기를 이용한 광학식으로 지문 이미지를 획득하되, 지문 이미지 획득용 광으로 백색 광을 이용하여 상기 광굴절기의 지문접촉면에 접촉한 지문의 이미지를 획득하는 단계;
    상기 획득한 지문 이미지에서 생체지문과 위조지문을 구분하기 위한 복수 개의 특징값을 추출하는 단계; 및
    신경망 학습법에 따라 학습된 생체지문-특징값 범위에 상기 추출된 특징값이 속하는 경우에 상기 지문을 생체지문으로 판단하는 단계를 포함하는 것을 특징으로 하는 위조지문 판별방법.
  2. 제1항에 있어서,
    상기 생체지문-특징값 범위는,
    상기 생체지문-특징값의 기준이 되는 기준값을 설정하는 단계;
    기보유한 생체 지문 이미지에 대하여 상기 복수 개의 특징값을 각각 추출하여 신경망 학습법에 따라 상기 기준값에 부가할 오차를 변경하는 단계; 및
    상기 오차를 변경하는 단계를 복수 개의 기보유한 생체 지문 이미지에 대하여 반복 수행하여 획득한 오차들을 상기 기준값에 적용하여 상기 생체지문-특징값 범위를 확정하는 단계를 통해 설정한 것임을 특징으로 하는 위조지문 판별방법.
  3. 제1항에 있어서,
    상기 생체지문-특징값은 RGB 분포 변화율과 융선의 두께인 것을 특징으로 하는 위조지문 판별방법.
  4. 광굴절기를 이용하되 지문 이미지 획득용 광으로 백색 광을 이용하여 광학식으로 상기 광굴절기의 지문접촉면에 접촉한 지문에 대한 컬러 지문 이미지를 획득하는 지문센서부;
    신경망 학습법에 따라 학습된 결과로 설정한 생체지문-특징값 범위를 저장하는 학습데이터 저장부;
    상기 획득한 컬러 지문 이미지에서 생체지문과 위조지문을 구분하기 위한 복수 개의 특징값을 추출하는 특징값추출부; 및
    상기 특징값추출부에서 추출한 특징값이 상기 생체지문-특징값 범위에 속하는 경우에 상기 지문을 생체지문으로 판단하는 생체판단부를 포함하는 것을 특징으로 하는 위조지문 판별장치.
  5. 제4항에 있어서,
    상기 학습데이터 저장부에 저장된 생체지문-특징값 범위는 신경망 학습을 위한 시스템에 의해 설정되며,
    상기 신경망 학습을 위한 시스템은,
    복수 개의 기보유한 생체 지문 이미지가 저장되어 있는 지문이미지 데이터베이스;
    상기 지문이미지 데이터베이스에 저장된 복수 개의 생체 지문 이미지에 대하여 상기 복수 개의 특징값을 각각 추출하는 특징값추출부; 및
    상기 생체지문-특징값의 기준이 되는 기준값을 설정하고, 상기 특징값추출부가 추출한 특징값을 기초로 신경망 학습법에 따라 상기 기준값에 부가할 오차를 변경하는 과정을 반복 수행하여 획득한 오차들을 상기 기준값에 적용하여 상기 생체지문-특징값 범위를 확정하는 학습부를 포함하는 것을 특징으로 하는 위조지문 판별장치.
  6. 제4항에 있어서,
    상기 생체지문-특징값은 RGB 분포 변화율과 융선의 두께인 것을 특징으로 하는 위조지문 판별장치.
PCT/KR2017/004092 2017-04-17 2017-04-17 신경망 학습기법을 이용한 위조지문 판별장치 및 그 방법 WO2018194187A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2017/004092 WO2018194187A1 (ko) 2017-04-17 2017-04-17 신경망 학습기법을 이용한 위조지문 판별장치 및 그 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2017/004092 WO2018194187A1 (ko) 2017-04-17 2017-04-17 신경망 학습기법을 이용한 위조지문 판별장치 및 그 방법

Publications (1)

Publication Number Publication Date
WO2018194187A1 true WO2018194187A1 (ko) 2018-10-25

Family

ID=63855869

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/004092 WO2018194187A1 (ko) 2017-04-17 2017-04-17 신경망 학습기법을 이용한 위조지문 판별장치 및 그 방법

Country Status (1)

Country Link
WO (1) WO2018194187A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110705481A (zh) * 2019-10-08 2020-01-17 Oppo广东移动通信有限公司 一种光学指纹防伪方法、装置及计算机可读存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100706000B1 (ko) * 2005-11-14 2007-04-12 고려대학교 산학협력단 장문인증방법 및 그 장치
KR20100123812A (ko) * 2010-11-12 2010-11-25 주식회사 유니온커뮤니티 생체지문 판단장치 및 그 판단방법
KR20110069998A (ko) * 2009-12-18 2011-06-24 주식회사 유니온커뮤니티 모조지문을 판별할 수 있는 지문인식장치 및 그 판단방법
US8666127B1 (en) * 2010-08-06 2014-03-04 Secugen Corporation Method and apparatus for fake fingerprint detection
US20150078633A1 (en) * 2013-09-17 2015-03-19 Gingy Technology Inc. Method for determining fingerprint authenticity and device for the same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100706000B1 (ko) * 2005-11-14 2007-04-12 고려대학교 산학협력단 장문인증방법 및 그 장치
KR20110069998A (ko) * 2009-12-18 2011-06-24 주식회사 유니온커뮤니티 모조지문을 판별할 수 있는 지문인식장치 및 그 판단방법
US8666127B1 (en) * 2010-08-06 2014-03-04 Secugen Corporation Method and apparatus for fake fingerprint detection
KR20100123812A (ko) * 2010-11-12 2010-11-25 주식회사 유니온커뮤니티 생체지문 판단장치 및 그 판단방법
US20150078633A1 (en) * 2013-09-17 2015-03-19 Gingy Technology Inc. Method for determining fingerprint authenticity and device for the same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110705481A (zh) * 2019-10-08 2020-01-17 Oppo广东移动通信有限公司 一种光学指纹防伪方法、装置及计算机可读存储介质

Similar Documents

Publication Publication Date Title
KR101080643B1 (ko) 생체지문 판단장치 및 그 판단방법
KR100447023B1 (ko) 분류신경망을이용한생물측정인식시스템
KR101797953B1 (ko) 신경망 학습기법을 이용한 위조지문 판별장치 및 그 방법
CN106682473A (zh) 一种用户身份信息的识别方法及其装置
CN113312965B (zh) 一种人脸未知欺骗攻击活体检测方法及系统
CN113221655B (zh) 基于特征空间约束的人脸欺骗检测方法
WO2017183867A1 (ko) 생체의 심장 박동에 따른 지문 이미지의 미세한 밝기 변화에 기초하여 위조지문을 판별할 수 있는 위조지문 판별 장치 및 그 방법
Jiang et al. Multilevel fusing paired visible light and near-infrared spectral images for face anti-spoofing
CN114724258A (zh) 活体检测方法、装置、存储介质及计算机设备
WO2018194187A1 (ko) 신경망 학습기법을 이용한 위조지문 판별장치 및 그 방법
Yuan et al. Fingerprint liveness detection using an improved CNN with the spatial pyramid pooling structure
Apoloni et al. Philippine currency counterfeit detector using image processing
Tee et al. Facial recognition using enhanced facial features k-nearest neighbor (k-NN) for attendance system
Darshni et al. Artificial neural network based character recognition using SciLab
Jena et al. Malaria parasites detection using deep neural network
Gebremeskel et al. Developing a Model for Detection of Ethiopian Fake Banknote Using Deep Learning
Naim et al. Classification of thumbprint using artificial neural network (ANN)
Teng et al. Using comprehensive machine‐learning models to classify complex morphological characters
Forero Banknotes classification system through image processing and pattern recognition for people with visual impairment
Thomas et al. Banknote Object Detection for the Visually Impaired using a CNN
KR102105669B1 (ko) 모바일 단말의 바이오 인식 성능 및 위조방어력 분석 시스템 및 그 방법
Babikir et al. Malaria Detection Using Machine Learning
KR20020038199A (ko) 홍채 인식 시스템에서의 모조 홍채 판별방법
WO2019078405A1 (ko) 지문인식장치를 위한 위조방어력 분석 시스템 및 그 평가방법
Rahman et al. Retinal identification

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17906455

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17906455

Country of ref document: EP

Kind code of ref document: A1