KR101991028B1 - Device and method for finger-vein recognition - Google Patents

Device and method for finger-vein recognition Download PDF

Info

Publication number
KR101991028B1
KR101991028B1 KR1020170099023A KR20170099023A KR101991028B1 KR 101991028 B1 KR101991028 B1 KR 101991028B1 KR 1020170099023 A KR1020170099023 A KR 1020170099023A KR 20170099023 A KR20170099023 A KR 20170099023A KR 101991028 B1 KR101991028 B1 KR 101991028B1
Authority
KR
South Korea
Prior art keywords
layer
feature
finger vein
convolution layer
pixel
Prior art date
Application number
KR1020170099023A
Other languages
Korean (ko)
Other versions
KR20190014912A (en
Inventor
박강령
홍형길
뉴엔치엔잣
Original Assignee
동국대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동국대학교 산학협력단 filed Critical 동국대학교 산학협력단
Priority to KR1020170099023A priority Critical patent/KR101991028B1/en
Publication of KR20190014912A publication Critical patent/KR20190014912A/en
Application granted granted Critical
Publication of KR101991028B1 publication Critical patent/KR101991028B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Evolutionary Computation (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Fuzzy Systems (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Collating Specific Patterns (AREA)

Abstract

본 발명은 지정맥 인식 장치 및 방법에 관한 것으로, 더욱 상세하게는 컨볼루셔널 뉴럴네트워크를 기반으로 적외선 환경에서 촬영된 지정맥 영상의 위조 여부를 판단하여 지정맥 인식을 수행하는 장치 및 방법에 관한 것이다. 본 발명은 입력된 지정맥 영상을 딥러닝 기반 컨볼루셔널 뉴럴네트워크 및 서포트 벡터 머신을 통해 위조 여부를 판단함으로써 보다 정확하게 지정맥 인식을 수행할 수 있다.The present invention relates to an apparatus and method for finger vein recognition, and more particularly, to an apparatus and method for performing finger vein recognition by determining whether a finger vein image is photographed in an infrared environment based on a convolutional neural network. will be. The present invention can perform finger vein recognition more accurately by determining whether the input finger vein image is forged through a deep learning based convolutional neural network and a support vector machine.

Description

지정맥 인식 장치 및 방법{DEVICE AND METHOD FOR FINGER-VEIN RECOGNITION}DEVICE AND METHOD FOR FINGER-VEIN RECOGNITION}

본 발명은 지정맥 인식 장치 및 방법에 관한 것으로, 더욱 상세하게는 딥러닝 기반 컨볼루셔널 뉴럴네트워크(Convolutional Neural Network) 및 서포트 벡터 머신(Support Vector Machine)을 기반으로 지정맥 영상의 위조 여부를 판단하여 지정맥 인식을 수행하는 장치 및 방법에 관한 것이다.The present invention relates to a finger vein recognition device and method, and more particularly, to determine whether the forgery of the finger vein image based on deep learning based convolutional neural network and Support Vector Machine (Support Vector Machine) An apparatus and method for performing finger vein recognition.

지정맥 인식은 근적외선 센서를 통해 손가락 내부의 정맥 패턴과 헤모글로빈 패턴을 읽어 생체 인식에 활용하는 기술이다. 지정맥 인식은 지문과 달리 손가락 표면의 이물질, 습기, 건조함 등의 외부환경에 영향을 받지 않고, 1억명 중 한명도 중복 가능성이 없어 위조나 변조가 어려운 만큼 탁월한 보안성을 지닌다. 하지만 위조나 변조가 불가능하므로 개인의 지정맥 정보가 유출된 경우에는 더 이상 그 요소를 이용할 수 없게 되는 문제점이 있다. 이에, 지정맥의 위조나 변조를 판별하는 기술의 필요성이 증가하는 추세이다.Finger vein recognition is a technology that reads vein patterns and hemoglobin patterns inside a finger using near-infrared sensors for biometrics. Unlike finger prints, finger vein recognition is not affected by the external environment such as foreign matter, moisture and dryness on the surface of the finger. However, because the forgery or tampering is impossible, there is a problem that the element is no longer available when the personal finger vein information leaked. Thus, the need for a technique for discriminating forgery or modulation of the finger vein is increasing.

본 발명의 배경기술은 대한민국 등록특허공보 제 10-1354881호(2014.02.05공고)에 개시되어 있다.Background art of the present invention is disclosed in Republic of Korea Patent Publication No. 10-1354881 (2014.02.05).

본 발명은 입력된 지정맥 영상을 딥러닝 기반 컨볼루셔널 뉴럴네트워크 및 서포트 벡터 머신을 통해 위조 여부를 판단하여 지정맥 인식을 수행하는 지정맥 인식 장치 및 방법을 제공하는 것이다. The present invention provides a finger vein recognition device and method for performing finger vein recognition by judging whether the input finger vein image through a deep learning based convolutional neural network and a support vector machine.

본 발명의 일 측면에 따르면, 지정맥 인식 장치가 제공된다.According to an aspect of the present invention, a finger vein recognition device is provided.

본 발명의 일 실시 예에 따른 지정맥 인식 장치는 손가락 내부의 정맥 패턴을 촬영하여 생성된 지정맥 영상을 입력받는 입력부, 입력된 지정맥 영상에서 관심 영역을 설정하여 미리 지정한 크기로 정규화하고, 정규화된 지정맥 영상에 제로 평균 정규화(zero-mean normalization)를 적용하여 픽셀 밝기를 보정하는 전처리부, 기 학습한 컨볼루셔널 뉴럴네트워크(Convolutional Neural Network; 이하 CNN) 모델을 이용하여 지정맥 영상의 특징을 추출하고, 추출한 특징이 실제 특징인지 위조된 특징인지 판별하는 위조 판단부 및 추출한 특징이 실제 특징으로 판단된 경우에 지정맥 인식을 수행하는 지정맥 인식부를 포함할 수 있다.In the finger vein recognition device according to an embodiment of the present invention, the input unit receives a finger vein image generated by photographing a vein pattern inside a finger, sets a region of interest in the input finger vein image, and normalizes it to a predetermined size. Characterization of finger vein image using preprocessing unit that corrects pixel brightness by applying zero-mean normalization to the selected finger vein image, and previously learned convolutional neural network (CNN) model And a forgery determination unit for determining whether the extracted feature is a real feature or a forged feature, and a finger vein recognition unit for performing finger vein recognition when the extracted feature is determined to be an actual feature.

본 발명의 다른 일 측면에 따르면, 지정맥 인식 방법 및 이를 실행하는 컴퓨터 프로그램이 제공된다.According to another aspect of the present invention, a finger vein recognition method and a computer program for executing the same are provided.

본 발명의 일 실시 예에 따른 지정맥 인식 방법 및 이를 실행하는 컴퓨터 프로그램은 손가락 내부의 정맥 패턴을 촬영하여 생성된 지정맥 영상을 입력받는 단계, 입력된 지정맥 영상에서 관심 영역을 설정하고, 설정한 관심 영역의 크기 및 픽셀 밝기를 정규화하여 전처리하는 단계, 기 학습한 CNN 모델을 이용하여 지정맥 영상의 특징을 추출하는 단계, 추출한 지정맥 영상의 특징에서 주성분 분석(Principal Component Analysis)을 통해 최적 특징을 선택하는 단계, 선택한 최적 특징을 서포트 벡터 머신(Support Vector Machine)을 통해 학습하여 실제 특징 클래스 또는 위조된 특징 클래스로 분류하는 단계, 최적 특징이 위조된 특징 클래스로 분류된 경우에 경보 신호를 출력하는 단계 및 최적 특징이 실제 특징 클래스로 분류된 경우에 지정맥 인식을 수행하는 단계를 포함할 수 있다.Finger vein recognition method according to an embodiment of the present invention and a computer program for executing the step of receiving a finger vein image generated by photographing the vein pattern inside the finger, and set the region of interest in the input finger vein image, Preprocessing by normalizing the size and pixel brightness of a region of interest, extracting features of the finger vein image using the previously learned CNN model, and optimizing them through principal component analysis Selecting a feature, learning the selected best feature through a support vector machine and classifying it into a real feature class or a forged feature class; and when an optimal feature is classified as a forged feature class, Outputting and performing finger vein recognition when the optimal feature is classified as a real feature class. It can hamhal.

본 발명은 입력된 정맥 영상을 딥러닝 기반 컨볼루셔널 뉴럴네트워크 및 서포트 벡터 머신을 통해 위조 여부를 판단하여 보다 정확하게 지정맥 인식을 수행할 수 있다.The present invention can perform finger vein recognition more accurately by determining whether the input vein image is forged through a deep learning based convolutional neural network and a support vector machine.

도 1 내지 도 5는 본 발명의 일 실시 예에 따른 지정맥 인식 장치를 설명하기 위한 도면들이다.
도 6 내지 도 7은 본 발명의 일 실시 예에 따른 CNN(Convolutional Neural Network) 모델을 지정맥 영상의 특징 추출 용도로 사용하여 위조 여부를 판별하는 지정맥 인식 방법을 설명하기 위한 도면들이다.
도 8은 본 발명의 일 실시 예에 따른 CNN 모델을 지정맥 영상의 특징 추출 및 위조 판단을 위한 용도로 사용하는 지정맥 인식 방법을 설명하기 위한 도면이다.
도 9 내지 도 13은 본 발명의 일 실시 예에 따른 학습된 CNN 모델의 성능 평가 결과를 위해 구축한 데이터베이스를 설명하기 위한 도면들이다.
도 14 내지 도 16은 본 발명의 일 실시 예에 따른 지정맥 인식 방법과 기존에 연구된 지정맥 인식 방법의 인식 성능 오류율를 비교한 도면들이다.
1 to 5 are diagrams for explaining a finger vein recognition device according to an embodiment of the present invention.
6 to 7 are diagrams for explaining a finger vein recognition method for determining whether a forgery using a convolutional neural network (CNN) model for feature extraction of finger vein images according to an embodiment of the present invention.
8 is a diagram illustrating a finger vein recognition method using the CNN model according to an embodiment of the present invention for the purpose of feature extraction and forgery determination of finger vein images.
9 to 13 are diagrams for explaining a database constructed for the performance evaluation result of the trained CNN model according to an embodiment of the present invention.
14 to 16 are diagrams comparing the recognition performance error rates of the finger vein recognition method and the previously studied finger vein recognition method according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 이를 상세한 설명을 통해 상세히 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서 및 청구항에서 사용되는 단수 표현은, 달리 언급하지 않는 한 일반적으로 "하나 이상"을 의미하는 것으로 해석되어야 한다.As the inventive concept allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description. However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all changes, equivalents, and substitutes included in the spirit and scope of the present invention. In describing the present invention, when it is determined that the detailed description of the related known technology may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted. Also, the singular forms used in the specification and claims are to be interpreted as generally meaning "one or more", unless stated otherwise.

이하, 본 발명의 바람직한 실시 예를 첨부도면을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대해 중복되는 설명은 생략하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings, and in the following description with reference to the accompanying drawings, the same or corresponding components will be given the same reference numerals and redundant description thereof will be omitted. Shall be.

도 1 내지 도 6은 본 발명의 일 실시 예에 따른 지정맥 인식 장치를 설명하기 위한 도면들이다.1 to 6 are views for explaining a finger vein recognition device according to an embodiment of the present invention.

도 1을 참조하면, 지정맥 인식 장치(100)는 촬영부(110), 입력부(120), 전처리부(130), 위조 판단부(140) 및 지정맥 인식부(150)를 포함한다.Referring to FIG. 1, the finger vein recognition device 100 includes a photographing unit 110, an input unit 120, a preprocessor 130, a forgery determination unit 140, and a finger vein recognition unit 150.

촬영부(110)는 근적외선 카메라(Near Infrared camera)를 통해 손가락 내부의 정맥 패턴을 촬영하여 지정맥 영상을 생성한다.The photographing unit 110 generates a finger vein image by photographing a vein pattern inside a finger through a near infrared camera.

입력부(120)는 촬영부(110)에서 촬영한 지정맥 영상을 입력 받는다.The input unit 120 receives the finger vein image photographed by the photographing unit 110.

전처리부(130)는 입력된 지정맥 영상에서 관심 영역을 설정하고, 설정한 관심 영역의 크기 및 픽셀 밝기를 정규화한다. 예를 들면, 전처리부(130)는 실제 지정맥 영상 또는 실제 지정맥 영상을 위조한 영상을 입력받아 배경영역을 제거하고, 관심 영역을 설정하여 미리 지정한 픽셀 크기로 정규화할 수 있다. 또한, 전처리부(130)는 크기가 정규화된 지정맥 영상에 제로 평균 정규화(zero-mean normalization)를 적용하여 영상의 픽셀 밝기를 보정할 수 있다. 예를 들면, 전처리부(130)는 0~255 사이의 픽셀 밝기를 -127~127 또는 -1~1사이의 범위가 되도록 보정할 수 있다.The preprocessor 130 sets a region of interest in the input finger vein image and normalizes the size and pixel brightness of the region of interest. For example, the preprocessor 130 may receive an input of an actual finger vein image or an image of a fake finger vein image, remove a background region, set a region of interest, and normalize it to a predetermined pixel size. In addition, the preprocessor 130 may correct the pixel brightness of the image by applying zero-mean normalization to the normalized finger vein image. For example, the preprocessor 130 may correct the pixel brightness between 0 and 255 to be within a range between -127 and 127 or between -1 and 1.

위조 판단부(140)는 정규화된 지정맥 영상에서 기 학습한 컨볼루셔널 뉴럴네트워크(Convolutional Neural Network; 이하 CNN) 모델을 이용하여 특징을 추출하고, 추출한 특징이 실제 정맥 특징인지 위조된 정맥 특징인지 판별한다. The forgery determination unit 140 extracts a feature using a convolutional neural network (CNN) model previously learned from the normalized finger vein image, and whether the extracted feature is a real vein feature or a forged vein feature. Determine.

도 2를 참조하면, CNN 구조는 일반적으로 두 가지 중요한 부분인 컨볼루션 레이어들(Convolution Layers)과 완전 연결 레이어들(Fully-connected Layers)로 구성된다. 각 컨볼루션 레이어는 입력된 영상의 특징을 조작하고 추출하여 이미지 특징 벡터 X={X_1,X_2,...,X_n}를 추출할 수 있다. 추출된 이미지 특징 벡터는 완전 연결 레이어에 입력되어 입력 이미지를 미리 정의된 범주로 분류된다. 본 발명의 일 실시 예에 따른 지정맥 인식 장치(100)는 상술한 CNN 구조를 변경하여 설계한 제1 CNN 모델 또는 제2 CNN 모델에 의해 지정맥 영상의 위조 여부를 판별할 수 있다. 여기서, 제1 CNN 모델은 Alex 네트워크를 기반으로 설계할 수 있고, 제2 CNN 모델은 VGG(Visual Geometry Group) 네트워크 기반으로 설계할 수 있다. Referring to FIG. 2, the CNN structure is generally composed of two important parts, convolutional layers and fully-connected layers. Each convolutional layer may extract and extract image feature vectors X = {X_1, X_2, ..., X_n} by manipulating and extracting features of the input image. The extracted image feature vectors are input to the fully connected layer to classify the input images into predefined categories. Finger vein recognition device 100 according to an embodiment of the present invention can determine whether the forgery of the finger vein image by the first CNN model or the second CNN model designed by changing the above-described CNN structure. Here, the first CNN model may be designed based on the Alex network, and the second CNN model may be designed based on the Visual Geometry Group (VGG) network.

도 3을 참조하면, 제1 CNN 모델은 (1)입력 레이어(Input Layer), (2)5개의 컨볼루션 레이어(Convolution Layer) 집합, (3)2개의 완전 연결 레이어(Fully Connected Layer) 집합 및 (4)출력 레이어(Output Layer)를 포함한다. Referring to FIG. 3, the first CNN model includes (1) an input layer, (2) a set of five convolution layers, (3) a set of two fully connected layers, and (4) It includes an output layer.

(1) 입력 레이어는 미리 설정한 스케일의 지정맥 영상을 입력받는다. 이때, 지정맥 영상의 크기는 87×151×3 픽셀 크기일 수 있다.(1) The input layer receives a finger vein image of a preset scale. In this case, the size of the finger vein image may be 87 × 151 × 3 pixels.

(2) 5개의 컨볼루션 레이어 집합은 입력받은 지정맥 영상에 복수의 필터 마스크를 적용하여 컨볼루션 연산을 통해 이미지의 특징을 추출한다. 5개의 컨볼루션 레이어 집합 각각은 교정 선형 유닛((Rectified Linear Unit); 이하 ReLU)레이어와 함께하고, 정규화(Normalization) 레이어 및 맥스 풀링(Max Pooling) 레이어를 포함할 수 있다.(2) Five sets of convolutional layers extract a feature of an image through a convolution operation by applying a plurality of filter masks to an input finger vein image. Each of the five convolutional layer sets is in conjunction with a rectified linear unit (hereinafter referred to as ReLU) layer and may include a normalization layer and a max pooling layer.

5개의 컨볼루션 레이어 집합에서 제1 컨볼루션 레이어는 87×151×3 픽셀의 이미지가 입력되며, 11×11×3 크기의 96개의 필터를 이용하여 2 픽셀 간격으로 컨볼루션화될 수 있다. 이 경우 필터당 가중치 크기는 11×11×3=363이고, 제1 컨볼루션 레이어에서 전체 파라미터의 수는(121+1)×363 = 44286이며, 여기서, 1은 바이어스(bias)를 나타낸다. 제1 컨볼루션 레이어에서 특징 맵의 크기는 39×71×96이고, 39 및 71은 출력 높이 및 너비이다. 출력 높이(또는 너비)는 입력 높이(또는 너비) - 필터 높이(또는 너비) + 2 × 패딩)/스트라이드 +1 의 식을 이용하여 산출될 수 있다. 출력들은 ReLU 레이어 및 정규화 레이어를 거친다. 여기서, ReLU 레이어는 0을 기준으로 입력된 값이 0보다 작을 경우는 모두 0으로 설정하는 임계 연산을 수행한다. 이에, ReLU 레이어는 연산을 단순화하여 심층 네트워크의 학습 속도를 증가시키는데 도움이 된다. 정규화 레이어의 출력맵은 제1 맥스 풀링 레이어에 의해 3×3 크기의 1개의 필터를 이용하여 2 픽셀 간격으로 처리된 후 다운샘플링된다. 제1 맥스 풀링 레이어에서의 출력은 출력 높이(또는 너비)= 입력 높이(또는 너비)- 필터 높이(또는 너비) + 2 × 패딩)/스트라이드 + 1 등식에 의해 39(=((87 - 11 + 2 × 0)/ 2 + 1))×71(=((151 - 11 + 2 × 0) / 2 + 1))× 96로 계산된다. 이후, 제2 컨볼루션 레이어에서 5×5×96 크기의 128개의 필터를 이용하여 1 픽셀 간격으로 2 패딩씩 컨볼루션화하고, ReLU 레이어 및 정규화 레이어를 거쳐 3×3 크기의 필터를 가지는 제2 맥스 풀링 레이어를 적용하여 2 픽셀 간격으로 특징 맵의 크기를 축소한다. 제3 컨볼루션 레이어 및 제4 컨볼루션 레이어는 3×3×128 크기의 필터 192개를 이용하여 1 픽셀 간격으로 1 패딩씩 컨볼루션화하고, ReLU 레이어를 적용한다. 다음 제5 컨볼루션 레이어가 1 픽셀 간격으로 1 패딩씩 3×3×256 크기의 필터를 128개 적용하고, ReLU 레이어 및 정규화 레이어를 거쳐 3×3 크기의 필터를 가지는 제3 맥스 풀링 레이어를 2 픽셀 간격으로 적용하여 4×8×128 픽셀 크기의 출력맵을 출력한다.In the set of five convolution layers, an image of 87 × 151 × 3 pixels is input to the first convolution layer, and can be convolved at intervals of 2 pixels using 96 filters of 11 × 11 × 3 sizes. In this case, the weight size per filter is 11 × 11 × 3 = 363, and the total number of parameters in the first convolutional layer is (121 + 1) × 363 = 44286, where 1 represents a bias. The size of the feature map in the first convolutional layer is 39 × 71 × 96 and 39 and 71 are the output height and width. The output height (or width) can be calculated using the formula: input height (or width)-filter height (or width) + 2 x padding) / stride +1. The outputs go through the ReLU layer and the normalization layer. Here, the ReLU layer performs a threshold operation that sets all of the values when the value input based on 0 is less than zero. Thus, the ReLU layer helps to speed up the learning of deep networks by simplifying computation. The output map of the normalization layer is processed by the first max pooling layer at intervals of 2 pixels using one filter having a size of 3 × 3 and then downsampled. The output from the first max pooling layer is 39 (= ((87-11 +) by the output height (or width) = input height (or width)-filter height (or width) + 2 × padding) / stride + 1 equation. 2 × 0) / 2 × 1)) × 71 (= ((151−11 + 2 × 0) / 2 + 1)) × 96. Subsequently, the second convolution layer is convolved by 2 paddings at 1 pixel intervals using 128 filters having a size of 5 × 5 × 96, and a second filter having a 3 × 3 filter is passed through a ReLU layer and a normalization layer. Apply the Max pooling layer to reduce the size of the feature map every two pixels. The third convolution layer and the fourth convolution layer are convolved by one padding at intervals of one pixel by using 192 filters having a size of 3 × 3 × 128 and apply a ReLU layer. Next, the fifth convolutional layer applies 128 3 × 3 × 256 filters, each padded at 1 pixel intervals, and a third max pooling layer having 3 × 3 filters through the ReLU layer and the normalization layer. The output map of 4x8x128 pixels is output by applying the pixel interval.

(3) 2개의 완전 연결 레이어(Fully Connected Layer)은 컨볼루션 레이어의 연산 결과를 1차원 행렬이 되도록 복수의 노드로 연결하여 특징을 축소한다. 제1 완전 연결 레이어 집합들에는 완전 연결 레이어 및 ReLU 레이어를 포함할 수 있고, 제2 완전 연결 레이어 집합은 완전 연결 레이어, ReLU 레이어 및 드롭아웃(Drop out) 레이어가 삽입될 수 있다. 이 때, 제1 완전 연결 레이어는 768 및 2048 노드들을 입력 및 출력으로 각각 가질 수 있고, 드롭아웃 레이어가 적용되어 무작위로 미리 설정된 확률에 기초하여 각각의 숨겨진 노드의 출력을 0으로 설정할 수 있다. 여기서, 미리 설정된 확률은 0.50일 수 있다. 제1 완전 연결 레이어는 드롭아웃 적용 후 ReLU 레이어를 적용할 수 있다. 제2 완전 연결 레이어는 2048 및 1024 노드들을 입력 및 출력으로 각각 가질 수 있다. 여기서 제2 완전 연결 레이어는 ReLU 레이어를 적용 후 드롭아웃 레이어를 적용할 수 있다.(3) Two Fully Connected Layers reduce the feature by connecting the result of the convolution layer to a plurality of nodes to form a one-dimensional matrix. The first fully connected layer sets may include a fully connected layer and a ReLU layer, and the second fully connected layer set may include a fully connected layer, a ReLU layer, and a drop out layer. In this case, the first fully connected layer may have 768 and 2048 nodes as inputs and outputs, respectively, and a dropout layer may be applied to set the output of each hidden node to 0 based on a randomly preset probability. Here, the preset probability may be 0.50. The first fully connected layer may apply a ReLU layer after applying the dropout. The second fully connected layer may have 2048 and 1024 nodes as input and output, respectively. The second fully connected layer may apply a dropout layer after applying a ReLU layer.

(4) 출력 레이어는 제2 완전 연결 레이어에서 출력된 특징을 소프트맥스(Softmax) 레이어를 통해 두 개의 클래스로 분류한다. 예를 들면 두 개의 클래스 각각은 실제 특징 클래스 및 위조된 특징 클래스일 수 있다.(4) The output layer classifies the features output from the second fully connected layer into two classes through the Softmax layer. For example, each of the two classes may be an actual feature class and a fake feature class.

도 4를 참조하면, 제2 CNN 모델은 (1)입력 레이어(Input Layer), (2)13개의 컨볼루션 레이어(Convolution Layer) 집합, (3)2개의 완전 연결 레이어(Fully Connected Layer) 집합 및 (4)출력 레이어(Output Layer)을 포함한다. Referring to FIG. 4, the second CNN model includes (1) an input layer, (2) a set of 13 convolution layers, (3) a set of two fully connected layers, and (4) It includes an output layer.

(1) 입력 레이어는 미리 지정된 지정맥 영상을 입력받는다. 이때, 지정맥 영상의 크기는 128×256×3 픽셀 크기일 수 있다.(1) The input layer receives a predetermined finger vein image. In this case, the size of the finger vein image may be 128 × 256 × 3 pixels.

(2) 13개의 컨볼루션 레이어 집합은 입력받은 지정맥 영상에 복수의 필터 마스크를 적용하여 컨볼루션 연산을 통해 이미지의 특징을 추출한다. 13개의 컨볼루션 레이어 각각은 교정 선형 유닛((Rectified Linear Unit); 이하 ReLU)레이어 및 맥스 풀링(Max Pooling) 레이어를 포함할 수 있다.(2) 13 convolutional layer sets extract a feature of an image through a convolution operation by applying a plurality of filter masks to the input finger vein image. Each of the thirteen convolution layers may include a rectified linear unit (hereinafter referred to as ReLU) layer and a max pooling layer.

13개의 컨볼루션 레이어 집합에서 제1-1 컨볼루션 레이어는 128×256×3 픽셀의 이미지가 입력되며, 3×3×3 크기의 32개의 필터를 이용하여 1 픽셀 간격으로 1 패딩씩 컨볼루션화될 수 있다. 이 경우 필터당 가중치 크기는 3×3×3=27이고, 제1 컨볼루션 레이어에서 전체 파라미터의 수는(9+1)×27 = 270이며, 여기서, 1은 바이어스(bias)를 나타낸다. 제1-1 컨볼루션 레이어에서 특징 맵의 크기는 128×256×32이고, 128 및 256은 출력 높이 및 너비이다. 출력 높이(또는 너비)는 입력 높이(또는 너비) - 필터 높이(또는 너비) + 2 × 패딩)/스트라이드 + 1 의 식을 이용하여 산출될 수 있다. 출력들은 ReLU 레이어를 거쳐 0을 기준으로 입력된 값이 0보다 작을 경우는 모두 0으로 설정하는 임계 연산을 수행한다. 이에, ReLU 레이어는 연산을 단순화하여 심층 네트워크의 학습 속도를 증가시키는데 도움이 된다. ReLU 레이어의 출력맵은 제1-2 컨볼루션 레이어에서 3×3×32 크기의 32개의 필터를 이용하여 1 픽셀 간격으로 1 패딩씩 컨볼루션화하고, ReLU 레이어를 거친다. ReLU 레이어의 출력맵은 제1 맥스 풀링 레이어에 의해 2×2 크기의 1개의 필터를 이용하여 2 픽셀 간격으로 처리된 후 다운샘플링된다. 제1 맥스 풀링 레이어에서의 출력은 출력 높이(또는 너비)= 입력 높이(또는 너비)- 필터 높이(또는 너비) + 2 × 패딩)/스트라이드 +1 등식에 의해 64(=((128 - 2 + 2 × 0)/ 2 + 1))×128(= ((256 - 2 + 2 × 0) / 2 + 1))×32로 계산된다. 제2-1 컨볼루션 레이어는 64×128×64 픽셀의 이미지가 입력되며, 3×3×32 크기의 64개의 필터를 이용하여 1 픽셀 간격으로 1 패딩씩 컨볼루션화된다. 제2-1 컨볼루션 레이어의 출력은 ReLU 레이어 거쳐 제2-2 컨볼루션 레이어에 입력된다. 제2-2 컨볼루션 레이어는 3×3×64 크기의 64개의 필터를 이용하여 1 픽셀 간격으로 1 패딩씩 컨볼루션화된다. 제2-2 컨볼루션 레이어의 출력은 제2 맥스 풀링 레이어에 의해 2×2 크기의 1개의 필터를 이용하여 2 픽셀 간격으로 처리된 후 다운샘플링된다. 제3-1 컨볼루션 레이어는 32×64×128 픽셀의 이미지가 입력되며, 3×3×64 크기의 128개의 필터를 이용하여 1 픽셀 간격으로 1패딩씩 컨볼루션화된다. 제3-1 컨볼루션 레이어의 출력은 ReLU 레이어 거쳐 제3-2 컨볼루션 레이어에 입력된다. 제3-2 컨볼루션 레이어는 3×3×128 크기의 128개의 필터를 이용하여 1 픽셀 간격으로 1 패딩씩 컨볼루션화된다. 제3-2 컨볼루션 레이어의 출력은 ReLU 레이어 거쳐 제3-3 컨볼루션 레이어에 입력된다. 제3-3 컨볼루션 레이어는 3×3×128 크기의 128개의 필터를 이용하여 1 픽셀 간격으로 1 패딩씩 컨볼루션화된다. 제3-3 컨볼루션 레이어의 출력은 제3 맥스 풀링 레이어에 의해 2×2 크기의 1개의 필터를 이용하여 2 픽셀 간격으로 처리된 후 다운샘플링된다.In a set of 13 convolution layers, an image of 128 × 256 × 3 pixels is input to a 1-1 convolution layer, and convolutional by 1 padding at 1 pixel intervals using 32 filters of 3 × 3 × 3 size Can be. In this case, the weight size per filter is 3 × 3 × 3 = 27, and the total number of parameters in the first convolutional layer is (9 + 1) × 27 = 270, where 1 represents a bias. The size of the feature map in the 1-1 convolution layer is 128 × 256 × 32, and 128 and 256 are output height and width. The output height (or width) can be calculated using the formula: input height (or width)-filter height (or width) + 2 x padding) / stride + 1. The outputs perform a critical operation that sets all values to 0 when the value input based on 0 is smaller than 0 through the ReLU layer. Thus, the ReLU layer helps to speed up the learning of deep networks by simplifying computation. The output map of the ReLU layer is convolved by 1 padding at 1 pixel intervals using 32 filters of size 3 × 3 × 32 in the 1-2 convolution layer, and passes through the ReLU layer. The output map of the ReLU layer is processed by the first max pooling layer at 2 pixel intervals using one filter having a size of 2 × 2 and then downsampled. The output from the first max pooling layer is 64 (= ((128-2 +) by the output height (or width) = input height (or width) -filter height (or width) + 2 × padding) / stride +1 equation. 2 x 0) / 2 + 1)) x 128 (= ((256-2 + 2 x 0) / 2 + 1)) x 32. An image of 64 × 128 × 64 pixels is input to the 2-1 convolution layer, and convolutionalized by 1 padding at 1 pixel intervals using 64 filters of 3 × 3 × 32 size. The output of the 2-1 convolutional layer is input to the 2-2 convolutional layer via the ReLU layer. The 2-2 convolution layer is convolved by 1 padding at 1 pixel intervals using 64 filters having a size of 3 × 3 × 64. The output of the 2-2 convolutional layer is processed at 2 pixel intervals by one filter of 2x2 size by the second max pooling layer and then downsampled. An image of 32 × 64 × 128 pixels is input to the 3-1 convolution layer, and convolutional by 1 padding is performed at intervals of 1 pixel by using 128 filters having a 3 × 3 × 64 size. The output of the 3-1 convolution layer is input to the 3-2 convolution layer via the ReLU layer. The 3-2 convolution layer is convolved by 1 padding at 1 pixel intervals using 128 filters having a size of 3 × 3 × 128. The output of the 3-2 convolution layer is input to the 3-3 convolution layer via the ReLU layer. The 3-3 convolution layer is convolved by 1 padding at 1 pixel intervals using 128 filters having a size of 3 × 3 × 128. The output of the 3-3 convolutional layer is processed by the third max pooling layer at 2 pixel intervals using one filter of 2 × 2 size and then downsampled.

제4-1 컨볼루션 레이어는 16×32×128 픽셀의 이미지가 입력되며, 3×3×128 크기의 256개의 필터를 이용하여 1 픽셀 간격으로 1패딩씩 컨볼루션화된다. 제4-1 컨볼루션 레이어의 출력은 ReLU 레이어 거쳐 제4-2 컨볼루션 레이어에 입력된다. 제4-2 컨볼루션 레이어는 3×3×256 크기의 256개의 필터를 이용하여 1 픽셀 간격으로 1 패딩씩 컨볼루션화된다. 제4-2 컨볼루션 레이어의 출력은 ReLU 레이어 거쳐 제4-3 컨볼루션 레이어에 입력된다. 제4-3 컨볼루션 레이어는 3×3×256 크기의 256개의 필터를 이용하여 1 픽셀 간격으로 1 패딩씩 컨볼루션화된다. 제4-3 컨볼루션 레이어의 출력은 제4 맥스 풀링 레이어에 의해 2×2 크기의 1개의 필터를 이용하여 2 픽셀 간격으로 처리된 후 다운샘플링된다. 제5-1 컨볼루션 레이어는 8×16×256 픽셀의 이미지가 입력되며, 3×3×256 크기의 256개의 필터를 이용하여 1 픽셀 간격으로 1 패딩씩 컨볼루션화된다. 제5-1 컨볼루션 레이어의 출력은 ReLU 레이어 거쳐 제5-2 컨볼루션 레이어에 입력된다. 제5-2 컨볼루션 레이어는 3×3×256 크기의 256개의 필터를 이용하여 1 픽셀 간격으로 1 패딩씩 컨볼루션화된다. 제5-2 컨볼루션 레이어의 출력은 ReLU 레이어 거쳐 제5-3 컨볼루션 레이어에 입력된다. 제5-3 컨볼루션 레이어는 3×3×256 크기의 256개의 필터를 이용하여 1 픽셀 간격으로 1 패딩씩 컨볼루션화된다. 제5-3 컨볼루션 레이어의 출력은 제5 맥스 풀링 레이어에 의해 2×2 크기의 1개의 필터를 이용하여 2 픽셀 간격으로 처리된 후 다운샘플링된다.An image of 16 × 32 × 128 pixels is input to the 4-1 convolution layer, and convolutionalized by one padding at intervals of one pixel using 256 filters having a size of 3 × 3 × 128. The output of the 4-1 convolutional layer is input to the 4-2 convolutional layer via the ReLU layer. The 4-2 convolution layer is convolved by one padding at intervals of one pixel using 256 filters having a size of 3 × 3 × 256. The output of the 4-2 convolution layer is input to the 4-3 convolution layer via the ReLU layer. The 4-3 convolution layer is convolved by one padding at intervals of one pixel using 256 filters having a size of 3 × 3 × 256. The output of the 4-3 convolutional layer is processed down to 2 pixel intervals by one filter of 2x2 size by the fourth max pooling layer and then downsampled. An image of 8 × 16 × 256 pixels is input to the 5-1 convolution layer, and is convolved by 1 padding at intervals of 1 pixel using 256 filters having a size of 3 × 3 × 256. The output of the 5-1 convolutional layer is input to the 5-2 convolutional layer via the ReLU layer. The 5-2 convolution layer is convolved by 1 padding at intervals of 1 pixel using 256 filters having a size of 3 × 3 × 256. The output of the 5-2 convolution layer is input to the 5-3 convolution layer via the ReLU layer. The 5-3 convolution layer is convolved by 1 padding at 1 pixel intervals using 256 filters having a size of 3 × 3 × 256. The output of the fifth-3 convolutional layer is processed by two pixel intervals by one filter of 2x2 size by the fifth max pulling layer and then downsampled.

(3) 2개의 완전 연결 레이어(Fully Connected Layer)은 컨볼루션 레이어의 연산 결과를 1차원 행렬이 되도록 복수의 노드로 연결하여 특징을 축소한다. 제1 완전 연결 레이어 및 제2 완전 연결 레이어는 ReLU 레이어를 적용 후 드롭아웃 레이어를 적용할 수 있다. 이 때, 제1 완전 연결 레이어는 768 및 2048 노드들을 입력 및 출력으로 각각 가질 수 있고, 드롭아웃 레이어가 적용되어 무작위로 미리 설정된 확률에 기초하여 각각의 숨겨진 노드의 출력을 0으로 설정할 수 있다. 여기서, 미리 설정된 확률은 0.50일 수 있다. 제2 완전 연결 레이어는 2048 및 1024 노드들을 입력 및 출력으로 각각 가질 수 있고, 드롭아웃 레이어가 적용되어 무작위로 미리 설정된 확률에 기초하여 각각의 숨겨진 노드의 출력을 0으로 설정할 수 있다. 여기서, 미리 설정된 확률은 0.50일 수 있다.(3) Two Fully Connected Layers reduce the feature by connecting the result of the convolution layer to a plurality of nodes so as to form a one-dimensional matrix. The first fully connected layer and the second fully connected layer may apply a dropout layer after applying a ReLU layer. In this case, the first fully connected layer may have 768 and 2048 nodes as inputs and outputs, respectively, and a dropout layer may be applied to set the output of each hidden node to 0 based on a randomly preset probability. Here, the preset probability may be 0.50. The second fully connected layer may have 2048 and 1024 nodes as input and output, respectively, and a dropout layer may be applied to set the output of each hidden node to zero based on a randomly preset probability. Here, the preset probability may be 0.50.

(4) 출력 레이어는 제2 완전 연결 레이어에서 출력된 특징을 소프트맥스(Softmax) 레이어를 통해 두 개의 클래스로 분류한다. 예를 들면 두 개의 클래스 각각은 실제 특징 클래스 및 위조된 특징 클래스일 수 있다. (4) The output layer classifies the features output from the second fully connected layer into two classes through the Softmax layer. For example, each of the two classes may be an actual feature class and a fake feature class.

도 5를 참조하면, 본 발명의 일 실시 예에 따른 위조 판단부(140)는 특징 추출부(141), 특징 선택부(142) 및 특징 분류부(143)를 포함할 수 있다.Referring to FIG. 5, the forgery determination unit 140 according to an embodiment of the present invention may include a feature extractor 141, a feature selector 142, and a feature classifier 143.

특징 추출부(141)는 기 학습한 CNN 모델을 이용하여 지정맥 영상의 특징을 추출한다. 예를 들면, 특징 추출부(141)는 상술한 CNN 모델의 입력 레이어(Input Layer) 및 컨볼루션 레이어(Convolution Layer)을 통해 입력된 지정맥 영상의 특징을 추출할 수 있다. 본 발명의 일 실시 예에 따른 지정맥 인식 장치(100)는 LBP, BSIF, windowed DMD(dynamic mode decomposition), 피라미드 분해, 푸리에 기술자, 웨이블릿 디스크립터와 같은 기존의 특징 추출 방법과는 달리 훈련 과정에 의해 생성된 CNN 모델을 통해 특징을 추출함으로써, 지정맥 영상의 위조 여부를 판단하기에 적합한 특징을 추출하는 것이 가능하다.The feature extractor 141 extracts features of the finger vein image using the previously trained CNN model. For example, the feature extractor 141 may extract a feature of the finger vein image input through the input layer and the convolution layer of the above-described CNN model. The finger vein recognition device 100 according to an embodiment of the present invention is different from conventional feature extraction methods such as LBP, BSIF, windowed dynamic mode decomposition (DMD), pyramid decomposition, Fourier descriptor, wavelet descriptor, etc. By extracting the feature through the generated CNN model, it is possible to extract a feature suitable for determining whether the finger vein image is forged.

특징 선택부(142)는 추출한 지정맥 영상의 특징에서 주성분 분석(Principal Component Analysis; 이하 PCA)을 통해 최적 특징을 선택한다. CNN 모델을 통해 추출한 지정맥 영상의 특징들은 매우 높은 차원(약 4,000개 이상의 구성 요소)를 갖는다. 이에, 특징 선택부(142)는 지정맥 특징의 차원을 축소함으로써 최적 특징을 선택할 수 있다.The feature selector 142 selects an optimal feature through Principal Component Analysis (PCA) on the extracted feature of the finger vein image. The features of the finger vein images extracted from the CNN model have a very high dimension (about 4,000 components). Accordingly, the feature selector 142 may select the optimal feature by reducing the dimension of the finger vein feature.

특징 분류부(143)는 선택한 최적 특징을 서포트 벡터 머신(Support Vector Machine; 이하 SVM)을 통해 학습하여 실제 특징 클래스 또는 위조된 특징 클래스로 분류한다. 특징 분류부(143)는 식(2) 내지 식(4)과 같이 세가지 종류의 SVM 커널 함수를 식(1)에 적용하여 특징을 분류한다. 여기서 식(2)는 선형 커널(Linear kernel), 식(3)은 방사형 기본함수(RBF kernel), 식(4)는 다항식 커널(Polynomial kernel)을 나타낸다. The feature classifier 143 learns the selected optimal feature through a support vector machine (SVM) and classifies the selected feature into an actual feature class or a fake feature class. The feature classifier 143 classifies features by applying three kinds of SVM kernel functions to equation (1), as shown in equations (2) to (4). Equation (2) represents a linear kernel, Equation (3) represents a radial basic function (RBF kernel), and Equation (4) represents a polynomial kernel.

Figure 112017075451857-pat00001
Figure 112017075451857-pat00001

지정맥 인식부(150)는 추출한 특징이 실제 정맥 특징으로 판단된 경우에 지정맥 인식을 수행한다. The finger vein recognition unit 150 performs finger vein recognition when the extracted feature is determined to be an actual vein feature.

도 6 내지 도 7은 본 발명의 일 실시 예에 따른 CNN(Convolutional Neural Network) 모델을 지정맥 영상의 특징 추출 용도로 사용하여 위조 여부를 판별하는 지정맥 인식 방법을 설명하기 위한 도면들이다.6 to 7 are diagrams for explaining a finger vein recognition method for determining whether a forgery using a convolutional neural network (CNN) model for feature extraction of finger vein images according to an embodiment of the present invention.

도 6을 참조하면, 단계 S710에서 지정맥 인식 장치(100)는 손가락 내부의 정맥 패턴을 촬영하여 생성된 지정맥 영상을 입력받는다.Referring to FIG. 6, in operation S710, the finger vein recognition device 100 receives a finger vein image generated by photographing a vein pattern inside a finger.

단계 S720에서 지정맥 인식 장치(100)는 입력된 지정맥 영상에서 관심 영역을 설정하고, 설정한 관심 영역의 크기 및 픽셀 밝기를 정규화하여 전처리한다.In operation S720, the finger vein recognition apparatus 100 sets a region of interest in the input finger vein image and normalizes the size and pixel brightness of the set region of interest.

도 7을 참조하면, 지정맥 인식 장치(100)는 (a)실제 지정맥 영상 또는 (b)실제 지정맥 영상을 위조한 영상을 입력받아 배경영역을 제거하고, 관심 영역을 설정하여 미리 지정한 픽셀 크기로 (c) 또는 (d)와 같이 정규화할 수 있다. 또한, 지정맥 인식 장치(100)는 크기가 정규화된 지정맥 영상에 제로 평균 정규화를 적용하여 영상의 픽셀 밝기를 정규화할 수 있다. 예를 들면, 지정맥 인식 장치(100)는 0~255 사이의 픽셀 밝기를 -127~127 또는 -1~1사이의 범위가 되도록 정규화할 수 있다.Referring to FIG. 7, the finger vein recognition device 100 receives an image of (a) a real finger vein image or (b) an image of a fake finger vein image, removes a background region, and sets a region of interest to pre-specify the pixel. Can be normalized to size (c) or (d). In addition, the finger vein recognition apparatus 100 may normalize pixel brightness of an image by applying zero mean normalization to a normalized finger vein image having a size. For example, the finger vein recognition device 100 may normalize the pixel brightness between 0 and 255 to be within a range between -127 and 127 or between -1 and 1.

단계 S730에서 지정맥 인식 장치(100)는 기 학습한 CNN 모델을 이용하여 지정맥 영상의 특징을 추출한다. 여기서 CNN 모델은 앞서 도 4 및 도 5에서 설명한 바와 같다.In operation S730, the finger vein recognition device 100 extracts features of the finger vein image using the previously trained CNN model. The CNN model is the same as described above with reference to FIGS. 4 and 5.

단계 S740에서 지정맥 인식 장치(100)는 추출한 지정맥 영상의 특징에서 주성분 분석을 통해 최적 특징을 선택한다. 예를 들면, 지정맥 인식 장치(100)는 지정맥 특징의 차원을 축소함으로써 최적 특징을 선택할 수 있다.In operation S740, the finger vein recognition device 100 selects an optimal feature from a feature of the extracted finger vein image through principal component analysis. For example, the finger vein recognition device 100 may select an optimal feature by reducing the dimension of the finger vein feature.

단계 S750에서 지정맥 인식 장치(100)는 선택한 최적 특징을 서포트 벡터 머신(Support Vector Machine)을 통해 학습하여 실제 특징 클래스 또는 위조된 특징클래스로 분류한다. 이때, 지정맥 인식 장치(100)는 선형 커널(Linear kernel), 방사형 기본함수(RBF kernel) 및 다항식 커널(Polynomial kernel) 중 적어도 하나를 사용하여 최적 특징을 실제 특징 클래스 또는 위조된 특징 클래스로 분류할 수 있다.In step S750, the finger vein recognition apparatus 100 learns the selected optimal feature through a support vector machine and classifies it into an actual feature class or a fake feature class. At this time, the finger vein recognition device 100 classifies an optimal feature into an actual feature or a fake feature class using at least one of a linear kernel, a radial basic function, and a polynomial kernel. can do.

단계 S760에서 지정맥 인식 장치(100)는 최적 특징이 위조된 특징 클래스로 분류된 경우에 입력된 지정맥 영상이 위조되었음을 알려준다.In operation S760, the finger vein recognition device 100 informs that the input finger vein image is forged when the optimal feature is classified as a forged feature class.

단계 S770에서 지정맥 인식 장치(100)는 최적 특징이 실제 지정맥 영상 클래스로 분류된 경우에 지정맥 인식을 수행한다.In operation S770, the finger vein recognition device 100 performs finger vein recognition when the optimal feature is classified into an actual finger vein image class.

도 8은 본 발명의 일 실시 예에 따른 CNN(Convolutional Neural Network) 모델을 지정맥 영상의 특징 추출 및 위조 판단하는 용도로 사용하는 지정맥 인식 방법을 설명하기 위한 도면이다.8 is a diagram illustrating a finger vein recognition method using a convolutional neural network (CNN) model according to an embodiment of the present invention for the purpose of feature extraction and forgery determination of finger vein images.

도 8을 참조하면, 단계 S810에서 지정맥 인식 장치(100)는 손가락 내부의 정맥 패턴을 촬영하여 생성된 지정맥 영상을 입력받는다.Referring to FIG. 8, in operation S810, the finger vein recognition device 100 receives a finger vein image generated by photographing a vein pattern inside a finger.

단계 S820에서 지정맥 인식 장치(100)는 입력된 지정맥 영상에서 관심 영역을 설정하고, 설정한 관심 영역의 크기 및 픽셀 밝기를 정규화하여 전처리한다.In operation S820, the finger vein recognition device 100 sets a region of interest in the input finger vein image, and normalizes the size and pixel brightness of the set region of interest to preprocess.

단계 S830에서 지정맥 인식 장치(100)는 기 학습한 CNN 모델을 이용하여 지정맥 영상의 위조 여부를 판별한다. 여기서 CNN 모델은 앞서 도 4 및 도 5에서 설명한 바와 같다.In operation S830, the finger vein recognition apparatus 100 determines whether the finger vein image is forged using the previously trained CNN model. The CNN model is the same as described above with reference to FIGS. 4 and 5.

단계 S840에서 지정맥 인식 장치(100)는 입력된 지정맥 영상이 위조 지정맥 으로 분류될 경우에 경보 신호를 출력한다.In operation S840, the finger vein recognition device 100 outputs an alarm signal when the input finger vein image is classified as a fake finger vein.

단계 S850에서 지정맥 인식 장치(100)는 입력된 지정맥 영상이 실제 지정맥 으로 분류될 경우에 지정맥 인식을 수행한다. In operation S850, the finger vein recognition device 100 performs finger vein recognition when the input finger vein image is classified as an actual finger vein.

도 9 내지 도 13은 본 발명의 일 실시 예에 따른 지정맥 인식 장치의 성능 평가를 위해 구축한 데이터베이스를 설명하기 위한 도면들이다.9 to 13 are views for explaining a database constructed for performance evaluation of the finger vein recognition device according to an embodiment of the present invention.

본 발명은 학습 및 검증을 위해 세 가지 데이터베이스를 사용하였다. 도 9를 참조하면, 첫 번째 데이터베이스는 자체적으로 구축한 ISPR DB로, 실제 지정맥(Real Access)을 촬영하여 생성한 총3,300장(33명×10손가락×10회)의 지정맥 영상 데이터 셋과 실제 지정맥 영상을 위조(Presentation Attack Access)하여 생성한 총7,560장의 위조 영상(Printer Resolution) 데이터 셋으로 구성된다. 도 10을 참조하면, 위조 영상 데이터베이스는 실제 지정맥 영상을 인쇄 용지의 재질(Material)을 달리하여 A4 용지, MAT 용지, OHP 필름에 출력한 경우와, 인쇄 해상도(Printer Resolution)를 달리하여 300dpi, 1200dpi, 2400dpi로 출력한 경우에 따라 하위 데이터베이스를 구축하였다.The present invention used three databases for learning and verification. Referring to FIG. 9, the first database is an ISPR DB built by itself, and a total of 3,300 pieces (33 people 10 fingers x 10 times) of finger vein image data set generated by photographing real finger vein (Real Access) and It consists of a total of 7,560 printer resolution data sets created by forging a real finger vein image. Referring to FIG. 10, the fake image database is a case in which the actual finger vein image is output on A4 paper, MAT paper, or OHP film by changing the material (Material) of the printing paper, and 300dpi by different printing resolution (Printer Resolution). Sub-databases were constructed based on the output of 1200dpi and 2400dpi.

도 11을 참조하면, ISPR DB의 학습 데이터 셋(Train set)은 원본 지정맥 영상에서 인위적으로 픽셀 이동 및 잘라내기 방법을 사용하여 데이터 수를 확장하였다. 최종적으로 본 발명은 112,260장의 학습 데이터 셋과 56,160장의 검증 데이터 셋(Test set)을 이용하여 학습 및 검증을 수행하였다.Referring to FIG. 11, the training set of the ISPR DB expanded the number of data using an artificial pixel shift and cropping method in the original finger vein image. Finally, the present invention performed learning and verification using 112,260 learning data sets and 56,160 verification data sets.

도 12의 (a)를 참조하면, 두 번째 데이터베이스는 공개된 Idiap Full-DB를 사용하였고, 세 번째 데이터베이스는 Idiap Full-DB의 지정맥 영상에서 일부 잘라내어 생성한 영상으로 Idiap Cropped-DB를 구성하였다. Referring to (a) of FIG. 12, the second database uses an open Idiap Full-DB, and the third database is an image generated by partially cutting out of the finger vein image of the Idiap Full-DB to configure the Idiap Cropped-DB. .

도 12의 (b)를 참조하면, Idiap Full-DB 및 Idiap Cropped-DB의 학습 데이터 셋은 원본 지정맥 영상에서 인위적으로 픽셀 이동 및 잘라내기 방법을 사용하여 데이터 수를 확장하였다. 최종적으로 본 발명은 14,640장의 학습 데이터 셋과 400장의 검증 데이터 셋을 이용하여 추가적으로 학습 및 검증을 수행하였다.Referring to FIG. 12 (b), the training data sets of Idiap Full-DB and Idiap Cropped-DB have been expanded by using a pixel shifting and cropping method in the original finger vein image. Finally, the present invention performed additional learning and verification by using 14,640 learning data sets and 400 validation data sets.

도 13을 참조하면, Idiap Full-DB에서 실제 지정맥 영상은 (a)와 같고, 이를 정규화한 영상은 (b)와 같다. Idiap Full-DB에서 실제 지정맥 영상을 위조한 지정맥 영상은 (c)와 같고, 이를 정규화한 영상은 (d)와 같다. Referring to FIG. 13, the actual finger vein image in Idiap Full-DB is as shown in (a), and the normalized image is as shown in (b). In Idiap Full-DB, the finger vein image that forged the actual finger vein image is shown in (c), and the normalized image is shown in (d).

성능 평가 방법은 국제 표준화기구(ISO) 및 국제 전기 기술 위원회(IEC-30107)에서 제안된 표준 방법을 참조하여 하기 식(5) 내지 식(7)과 같이 APCER(attack presentation classification error rate), BPCER(bona fide presentation classification error rate) 및 NPCER(normal presentation classification error rate)을 사용하였다. 식(5) 및 식(6)에서 N PA N BF 는 각각 위조 데이터로 분류된 개수 및 실제 데이터로 분류된 개수를 의미하며, RES i는 i번째 영상이 위조 데이터로 분류되면 1의 값을 취하고, 실제 데이터로 분류되면 0의 값을 취한다. 식(7)에서 ACER은 APCER과 BPCER의 평균이다.Performance evaluation methods refer to standard methods proposed by the International Organization for Standardization (ISO) and the International Electrotechnical Commission (IEC-30107), such as attack presentation classification error rate (APCER), BPCER as shown in Equations (5) to (7) below. (bona fide presentation classification error rate) and NPCER (normal presentation classification error rate) were used. In Eq. (5) and Eq. (6), N PA and N BF mean the number classified as counterfeit data and the number classified as actual data, respectively. RES i is a value of 1 when the i th image is classified as counterfeit data Take a value of zero if classified as actual data. In equation (7), ACER is the average of APCER and BPCER.

Figure 112017075451857-pat00002
Figure 112017075451857-pat00002

도 14 내지 도 16은 본 발명의 일 실시 예에 따른 지정맥 인식 방법과 기존에 연구된 지정맥 인식 방법의 인식 성능 오류율를 비교한 도면들이다.14 to 16 are diagrams comparing the recognition performance error rates of the finger vein recognition method and the previously studied finger vein recognition method according to an embodiment of the present invention.

비교 결과, 도 6에서 상술한 본 발명의 지정맥 인식 방법의 ACER은 모든 실험 결과에서 기존에 연구된 지정맥 인식 방법의 ACER 보다 낮은 값을 보이므로 위조 데이터 검출 성능이 우수함을 확인할 수 있다. As a result of comparison, the ACER of the finger vein recognition method of the present invention described above in Figure 6 shows lower value than the ACER of the finger vein recognition method previously studied in all the experimental results, it can be confirmed that the forgery data detection performance is excellent.

본 발명의 실시 예에 따른 지정맥 인식 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Finger vein recognition method according to an embodiment of the present invention is implemented in the form of program instructions that can be executed by various computer means may be recorded on a computer readable medium. Computer-readable media may include, alone or in combination with the program instructions, data files, data structures, and the like. The program instructions recorded on the computer readable medium may be those specially designed and constructed for the present invention, or may be known and available to those skilled in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks. Hardware devices specially configured to store and execute program instructions such as magneto-optical media and ROM, RAM, flash memory and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

이제까지 본 발명에 대하여 그 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far, the present invention has been described with reference to the embodiments. Those skilled in the art will appreciate that the present invention can be implemented in a modified form without departing from the essential features of the present invention. Therefore, the disclosed embodiments should be considered in descriptive sense only and not for purposes of limitation. The scope of the present invention is shown in the claims rather than the foregoing description, and all differences within the scope will be construed as being included in the present invention.

100: 지정맥 인식 장치
110: 촬영부
120: 입력부
130: 전처리부
140: 위조 판단부
150: 지정맥 인식부
100: finger vein recognition device
110: the photographing unit
120: input unit
130: preprocessing unit
140: forgery judgment unit
150: finger vein recognition unit

Claims (16)

지정맥 인식 장치에 있어서,
손가락 내부의 정맥 패턴을 촬영하여 생성된 지정맥 영상을 입력받는 입력부;
입력된 지정맥 영상에서 관심 영역을 설정하여 미리 지정한 크기로 정규화하고, 정규화된 지정맥 영상에 제로 평균 정규화(zero-mean normalization)를 적용하여 픽셀 밝기를 보정하는 전처리부;
기 학습한 컨볼루셔널 뉴럴네트워크(Convolutional Neural Network; 이하 CNN) 모델을 이용하여 지정맥 영상의 특징을 추출하고, 추출한 특징이 위조되지 않은 특징인지 위조된 특징인지 판별하는 위조 판단부; 및
추출한 특징이 위조되지 않은 특징으로 판단된 경우에 지정맥 인식을 수행하는 지정맥 인식부를 포함하며,
상기 위조 판단부는,
5개의 컨볼루션 레이어 집합 및 2개의 완전 연결 레이어 집합으로 구성된 제1 CNN 모델 또는 13개의 컨볼루션 레이어 집합 및 2개의 완전 연결 레이어 집합으로 구성된 제2 CNN 모델 중 적어도 하나를 이용하여 입력된 지정맥 영상의 위조 여부를 판단하되,
상기 제1 CNN 모델 및 제2 CNN 모델은 지정맥 영상의 특징을 위조되지 않은 특징 클래스 또는 위조된 특징 클래스로 분류하는 출력 레이어를 더 포함하는 지정맥 인식 장치.
In the finger vein recognition device,
An input unit for receiving a finger vein image generated by photographing a vein pattern inside the finger;
A preprocessor configured to set a region of interest in the input finger vein image and normalize to a predetermined size, and to correct pixel brightness by applying zero-mean normalization to the normalized finger vein image;
A forgery determination unit that extracts features of the finger vein image using a previously learned convolutional neural network (CNN) model and determines whether the extracted features are non-forged or forged features; And
If the extracted feature is determined to be a non-forgery feature includes a finger vein recognition unit that performs finger vein recognition,
The forgery determination unit,
Finger vein image input using at least one of a first CNN model consisting of five sets of convolutional layers and two fully connected layer sets, or a second CNN model consisting of 13 sets of convolutional layers and two fully connected layer sets To determine whether or not
The first CNN model and the second CNN model further comprises an output layer for classifying features of the finger vein image as a non-forged feature class or a forged feature class.
제1항에 있어서,
상기 위조 판단부는
기 학습한 CNN 모델을 이용하여 지정맥 영상의 특징을 추출하는 특징 추출부;
추출한 지정맥 영상의 특징에서 주성분 분석(Principal Component Analysis)을 통해 제1 특징을 선택하는 특징 선택부; 및
선택한 제1 특징을 서포트 벡터 머신(Support Vector Machine)을 통해 학습하여 위조되지 않은 특징 클래스 또는 위조된 특징 클래스로 분류하는 특징 분류부를 포함하는 지정맥 인식 장치.
The method of claim 1,
The forgery determination unit
Feature extraction unit for extracting features of the finger vein image using the previously learned CNN model;
A feature selector which selects a first feature from a feature of the extracted finger vein image through Principal Component Analysis; And
A finger vein recognition device including a feature classifier that learns the selected first feature through a support vector machine and classifies it into a non-forged feature class or a forged feature class.
삭제delete 제1항에 있어서,
상기 5개의 컨볼루션 레이어 집합은
87×151×3 픽셀의 이미지가 입력되며, 11×11×3 크기의 96개의 필터를 이용하여 2 픽셀 간격으로 컨볼루션화하는 제1 컨볼루션 레이어, 교정 선형 유닛(Rectified Linear Unit) 레이어, 정규화(Normalization) 레이어 및 3×3 크기의 필터를 1개를 2 픽셀 간격으로 적용하여 19×35×96 픽셀의 특징맵을 출력하는 제1 맥스 풀링 레이어로 구성된 제1 컨볼루션 레이어 집합;
상기 제1 컨볼루션 레이어 집합에서 출력된 19×35×96 픽셀의 특징맵에 5×5×96 크기의 128개의 필터를 1 픽셀 간격으로 2패딩씩 컨볼루션화하는 제2 컨볼루션 레이어, 교정 선형 유닛 레이어, 정규화 레이어 및 3×3 크기의 필터를 1개를 2 픽셀 간격으로 적용하여 9×17×128 픽셀의 특징맵을 출력하는 제2 맥스 풀링 레이어로 구성된 제2 컨볼루션 레이어 집합;
상기 제2 컨볼루션 레이어 집합에서 출력된 9×17×128 픽셀의 특징맵에 3×3×128 크기의 필터 192개를 이용하여 1 픽셀 간격으로 2 패딩씩 컨볼루션화하는 제3 컨볼루션 레이어 및 교정 선형 유닛 레이어로 구성된 제3 컨볼루션 레이어 집합;
상기 제3 컨볼루션 레이어 집합에서 출력된 9×17×192 픽셀의 특징맵에 3×3×256 크기의 필터 192개를 이용하여 1 픽셀 간격으로 1 패딩씩 컨볼루션화하는 제4 컨볼루션 레이어 및 교정 선형 유닛 레이어로 구성된 제4 컨볼루션 레이어 집합; 및
상기 제4 컨볼루션 레이어 집합에서 출력된 9×17×192 픽셀의 특징맵에 3×3×256 크기의 128개의 필터를 1 픽셀 간격으로 1 패딩씩 컨볼루션화하는 제5 컨볼루션 레이어, 교정 선형 유닛 레이어, 정규화 레이어 및 3×3 크기의 필터를 1개를 2 픽셀 간격으로 적용하여 4×8×128 픽셀의 특징맵을 출력하는 제3 맥스 풀링 레이어로 구성된 5 컨볼루션 레이어 집합;을 포함하는 지정맥 인식 장치.
The method of claim 1,
The five convolution layer sets
An image of 87 × 151 × 3 pixels is input, and a first convolution layer, a rectified linear unit layer, and normalization, which are convolved at intervals of 2 pixels using 96 filters of 11 × 11 × 3 size. A first convolution layer set including a (Normalization) layer and a first max pooling layer configured to output a feature map of 19 × 35 × 96 pixels by applying one 3 × 3 size filter at 2 pixel intervals;
A second convolution layer and a calibration linear that convolves 128 filters having a size of 5 × 5 × 96 by 2 padding at intervals of 1 pixel to a feature map of 19 × 35 × 96 pixels output from the first convolution layer set A second convolution layer set including a second max pooling layer configured to output a feature map of 9 × 17 × 128 pixels by applying a unit layer, a normalization layer, and one 3 × 3 filter at 2 pixel intervals;
A third convolutional layer for convolving 2 paddings at 1 pixel intervals using 192 filters having a 3 × 3 × 128 size to a feature map of 9 × 17 × 128 pixels output from the second convolution layer set; A third convolutional layer set composed of calibration linear unit layers;
A fourth convolution layer for convolving the padding by 1 pixel interval by 1 pixel interval using 192 filters having a size of 3 × 3 × 256 to a feature map of 9 × 17 × 192 pixels output from the third convolution layer set; A fourth convolutional layer set composed of calibration linear unit layers; And
A fifth convolutional layer for correcting a 9 × 17 × 192 pixel feature map output from the fourth convolution layer set by condensing 128 filters having a size of 3 × 3 × 256 by 1 padding at intervals of one pixel A convolution layer set comprising a third max pooling layer configured to output a feature map of 4 × 8 × 128 pixels by applying a unit layer, a normalization layer, and one 3 × 3 filter at 2 pixel intervals; Finger vein recognition device.
제1항에 있어서,
상기 2개의 완전 연결 레이어 집합은
768 및 2048 노드들을 각각 입력 및 출력으로 하는 제1 완전 연결 레이어 및
2048 및 1024 노드들을 각각 입력 및 출력으로 하는 제2 완전 연결 레이어를 포함하되,
상기 제1 완전 연결 레이어 및 제2 완전 연결 레이어는
드롭아웃 레이어가 적용되어 0.50 확률에 기초하여 각각의 숨겨진 노드의 출력을 0으로 설정하는 지정맥 인식 장치.
The method of claim 1,
The two sets of fully connected layers
A first fully connected layer with 768 and 2048 nodes as inputs and outputs, respectively;
A second fully connected layer with 2048 and 1024 nodes as input and output, respectively,
The first fully connected layer and the second fully connected layer
A vein recognition device that applies a dropout layer to set the output of each hidden node to zero based on a 0.50 probability.
제1항에 있어서,
상기 13개의 컨볼루션 레이어 집합은
128×256×3 픽셀의 이미지가 입력되며, 3×3×3 크기의 32개의 필터를 이용하여 1 픽셀 간격으로 1 패딩씩 컨볼루션화하는 제1-1 컨볼루션 레이어, 교정 선형 유닛(Rectified Linear Unit) 레이어로 구성된 제1 컨볼루션 레이어 집합;
상기 제1 컨볼루션 레이어 집합에서 출력된 128×256×32 픽셀의 특징맵에 3×3×32 크기의 32개의 필터를 1 픽셀 간격으로 1 패딩씩 컨볼루션화하는 제1-2 컨볼루션 레이어, 교정 선형 유닛 레이어 및 2×2 크기의 필터를 1개를 2 픽셀 간격으로 적용하여 64×128×32 픽셀의 특징맵을 출력하는 제1 맥스 풀링 레이어로 구성된 제2 컨볼루션 레이어 집합;
상기 제2 컨볼루션 레이어 집합에서 출력된 64×128×64 픽셀의 특징맵에 3×3×32 크기의 64개의 필터를 이용하여 1 픽셀 간격으로 1 패딩씩 컨볼루션화하는 제2-1 컨볼루션 레이어, 교정 선형 유닛(Rectified Linear Unit) 레이어로 구성된 제3 컨볼루션 레이어 집합; 및
상기 제3 컨볼루션 레이어 집합에서 출력된 64×128×64 픽셀의 특징맵에 3×3×64 크기의 64개의 필터를 1 픽셀 간격으로 1 패딩씩 컨볼루션화하는 제2-2 컨볼루션 레이어, 교정 선형 유닛 레이어 및 2×2 크기의 필터를 1개를 2 픽셀 간격으로 적용하여 32×64×64 픽셀의 특징맵을 출력하는 제2 맥스 풀링 레이어로 구성된 제4 컨볼루션 레이어 집합을 포함하는 지정맥 인식 장치.
The method of claim 1,
The 13 convolution layer sets
Rectified Linear Unit (1-1) Convolutional Layer (128-256 × 3 pixels), 1-1 convolutional layer convoluted by 1 pixel interval using 32 filters of 3 × 3 × 3 size Unit) a first convolution layer set composed of layers;
A 1-2 convolution layer for convoluting 32 filters having a 3 × 3 × 32 size by 1 padding on a feature map of 128 × 256 × 32 pixels output from the first convolution layer set by 1 pixel intervals, A second convolution layer set consisting of a first max pulling layer for outputting a feature map of 64 × 128 × 32 pixels by applying a calibration linear unit layer and one 2 × 2 filter at 2 pixel intervals;
2-1 convolution by convolving 1 padding by 1 pixel interval using 64 filters of 3 × 3 × 32 size to a feature map of 64 × 128 × 64 pixels output from the second convolution layer set A third convolution layer set consisting of a layer, a rectified linear unit layer; And
A second-2 convolution layer for convoluting 64 filters having a 3 × 3 × 64 size by 1 padding on a feature map of 64 × 128 × 64 pixels output from the third convolution layer set by 1 pixel intervals, A designation containing a fourth set of convolutional layers consisting of a calibration linear unit layer and a second max pooling layer that outputs a feature map of 32 × 64 × 64 pixels by applying one 2 × 2 filter at 2-pixel intervals. Mac recognition device.
제1항에 있어서,
상기 13개의 컨볼루션 레이어 집합은
제4 컨볼루션 레이어 집합에서 출력된 32×64×64 픽셀의 특징맵에 3×3×64 크기의 필터 128개를 이용하여 1 픽셀 간격으로 1 패딩씩 컨볼루션화하는 제3-1 컨볼루션 레이어 및 교정 선형 유닛 레이어로 구성된 제5 컨볼루션 레이어 집합;
상기 제5 컨볼루션 레이어에서 출력된 32×64×128 픽셀의 특징맵에 3×3×128 크기의 필터 128개를 이용하여 1 픽셀 간격으로 1 패딩씩 컨볼루션화하는 제3-2 컨볼루션 레이어 및 교정 선형 유닛 레이어로 구성된 제6 컨볼루션 레이어 집합; 및
상기 제6 컨볼루션 레이어 집합에서 출력된 32×64×128 픽셀의 특징맵에 3×3×128 크기의 128개의 필터를 1 픽셀 간격으로 1 패딩씩 컨볼루션화하는 제3-3 컨볼루션 레이어, 교정 선형 유닛 레이어 및 2×2 크기의 필터를 1개를 2 픽셀 간격으로 적용하여 16×32×128 픽셀의 특징맵을 출력하는 제3 맥스 풀링 레이어로 구성된 제7 컨볼루션 레이어 집합을 더 포함하는 지정맥 인식 장치.
The method of claim 1,
The 13 convolution layer sets
A 3-1 convolution layer convolving 1 padding every 1 pixel interval using 128 3 × 3 × 64 sized filters on a feature map of 32 × 64 × 64 pixels output from the fourth convolution layer set And a fifth convolutional layer set composed of correction linear unit layers;
A 3-2 convolution layer which convolves one padding by one pixel interval using 128 3 × 128 × 128 filters on a feature map of 32 × 64 × 128 pixels output from the fifth convolution layer And a sixth convolutional layer set composed of correction linear unit layers; And
A third-3 convolution layer that convolves 128 filters having a size of 3 × 3 × 128 by one padding at intervals of one pixel on a feature map of 32 × 64 × 128 pixels output from the sixth convolution layer set; And a seventh convolution layer set consisting of a third max pooling layer that outputs a feature map of 16 × 32 × 128 pixels by applying a calibration linear unit layer and one 2 × 2 filter at 2 pixel intervals. Finger vein recognition device.
제1항에 있어서,
상기 13개의 컨볼루션 레이어 집합은
제7 컨볼루션 레이어에서 출력된 16×32×128 픽셀의 특징맵에 3×3×128 크기의 필터 256개를 이용하여 1 픽셀 간격으로 1 패딩씩 컨볼루션화하는 제4-1 컨볼루션 레이어 및 교정 선형 유닛 레이어로 구성된 제8 컨볼루션 레이어 집합;
상기 제8 컨볼루션 레이어에서 출력된 16×32×256 픽셀의 특징맵에 3×3×256 크기의 필터 256개를 이용하여 1 픽셀 간격으로 1 패딩씩 컨볼루션화하는 제4-2 컨볼루션 레이어 및 교정 선형 유닛 레이어로 구성된 제9 컨볼루션 레이어 집합; 및
상기 제9 컨볼루션 레이어 집합에서 출력된 16×32×256 픽셀의 특징맵에 3×3×256 크기의 256개의 필터를 1 픽셀 간격으로 1 패딩씩 컨볼루션화하는 제4-3 컨볼루션 레이어, 교정 선형 유닛 레이어 및 2×2 크기의 필터를 1개를 2 픽셀 간격으로 적용하여 8×16×256 픽셀의 특징맵을 출력하는 제4 맥스 풀링 레이어로 구성된 제10 컨볼루션 레이어 집합을 더 포함하는 지정맥 인식 장치.
The method of claim 1,
The 13 convolution layer sets
A 4-1 convolution layer convolving 1 padding every 1 pixel interval using 256 filters having a size of 3 × 3 × 128 to a feature map of 16 × 32 × 128 pixels output from the seventh convolution layer; and An eighth convolutional layer set composed of calibration linear unit layers;
A 4-2 convolution layer convolving 1 padding every 1 pixel interval using 256 filters having a size of 3 × 3 × 256 to a feature map of the 16 × 32 × 256 pixel output from the eighth convolution layer And a ninth convolution layer set composed of a calibration linear unit layer; And
A 4-3 convolution layer for convoluting 256 filters having a size of 3 × 3 × 256 by 1 padding on a feature map of 16 × 32 × 256 pixels output from the ninth convolution layer set by 1 pixel intervals, And a tenth convolution layer set consisting of a fourth max pooling layer for applying a calibration linear unit layer and one 2 × 2 filter at 2 pixel intervals to output a feature map of 8 × 16 × 256 pixels. Finger vein recognition device.
제1항에 있어서,
상기 13개의 컨볼루션 레이어 집합은
제10 컨볼루션 레이어에서 출력된 8×16×256 픽셀의 특징맵에 3×3×256 크기의 필터 256개를 이용하여 1 픽셀 간격으로 1 패딩씩 컨볼루션화하는 제5-1 컨볼루션 레이어 및 교정 선형 유닛 레이어로 구성된 제11 컨볼루션 레이어 집합;
상기 제11 컨볼루션 레이어에서 출력된 8×16×256 픽셀의 특징맵에 3×3×256 크기의 필터 256개를 이용하여 1 픽셀 간격으로 1 패딩씩 컨볼루션화하는 제5-2 컨볼루션 레이어 및 교정 선형 유닛 레이어로 구성된 제12 컨볼루션 레이어 집합; 및
상기 제12 컨볼루션 레이어 집합에서 출력된 8×16×256 픽셀의 특징맵에 3×3×256 크기의 256개의 필터를 1 픽셀 간격으로 1 패딩씩 컨볼루션화하는 제5-3 컨볼루션 레이어, 교정 선형 유닛 레이어 및 2×2 크기의 필터를 1개를 2 픽셀 간격으로 적용하여 4×8×256 픽셀의 특징맵을 출력하는 제5 맥스 풀링 레이어로 구성된 제13 컨볼루션 레이어 집합을 더 포함하는 지정맥 인식 장치.
The method of claim 1,
The 13 convolution layer sets
A 5-1 convolutional layer for convoluting 1 padding every 1 pixel interval using 256 filters having a size of 3 × 3 × 256 to a feature map of 8 × 16 × 256 pixels output from the 10th convolution layer; An eleventh convolution layer set consisting of a calibration linear unit layer;
A 5-2 convolution layer which convolutionizes the feature map of the 8 × 16 × 256 pixel output from the eleventh convolution layer by 1 padding at intervals of 1 pixel by using 256 filters having a size of 3 × 3 × 256 And a twelfth convolution layer set composed of a calibration linear unit layer; And
A fifth-3 convolution layer for convoluting 256 filters having a size of 3 × 3 × 256 by 1 padding on a feature map of the 8 × 16 × 256 pixel output from the twelfth convolution layer set by 1 pixel intervals, And a thirteenth convolution layer set comprising a fifth max pooling layer for outputting a feature map of 4 × 8 × 256 pixels by applying a calibration linear unit layer and one 2 × 2 filter at 2 pixel intervals. Finger vein recognition device.
지정맥 인식 장치가 지정맥을 인식하는 방법에 있어서,
손가락 내부의 정맥 패턴을 촬영하여 생성된 지정맥 영상을 입력받는 단계;
입력된 지정맥 영상에서 관심 영역을 설정하고, 설정한 관심 영역의 크기 및 픽셀 밝기를 정규화하여 전처리하는 단계;
기 학습한 컨볼루셔널 뉴럴네트워크(Convolutional Neural Network; 이하 CNN) 모델을 이용하여 지정맥 영상의 특징을 추출하는 단계;
추출한 지정맥 영상의 특징에서 주성분 분석(Principal Component Analysis)을 통해 제1 특징을 선택하는 단계;
선택한 제1 특징을 서포트 벡터 머신(Support Vector Machine)을 통해 학습하여 위조되지 않은 특징 클래스 또는 위조된 특징 클래스로 분류하는 단계;
제1 특징이 위조된 특징 클래스로 분류된 경우에 경보 신호를 출력하는 단계; 및
제1 특징이 위조되지 않은 특징 클래스로 분류된 경우에 지정맥 인식을 수행하는 단계를 포함하며,
상기 위조되지 않은 특징 클래스 또는 위조된 특징 클래스로 분류하는 단계는,
위조되지 않은 특징 클래스 또는 위조된 특징 클래스로 분류하는 출력 레이어가,
5개의 컨볼루션 레이어 집합 및 2개의 완전 연결 레이어 집합으로 구성된 제1 CNN 모델 또는 13개의 컨볼루션 레이어 집합 및 2개의 완전 연결 레이어 집합으로 구성된 제2 CNN 모델 중 적어도 하나를 이용하여 입력된 지정맥 영상의 위조 여부를 판단하는 단계를 더 포함하는 지정맥 인식 방법.
In the finger vein recognition device recognizes the finger vein,
Receiving a finger vein image generated by photographing a vein pattern inside the finger;
Setting a region of interest in the input finger vein image and normalizing the size and pixel brightness of the region of interest;
Extracting features of the finger vein image using a previously learned convolutional neural network (CNN) model;
Selecting a first feature from a feature of the extracted finger vein image through Principal Component Analysis;
Learning the selected first feature through a support vector machine and classifying the selected first feature into a non-forged feature class or a forged feature class;
Outputting an alarm signal when the first feature is classified as a forged feature class; And
Performing finger vein recognition when the first feature is classified as a feature class that is not forged,
Classifying into the non-forged feature class or the forged feature class,
An output layer that categorizes as a non-forged feature class or a forged feature class.
Finger vein image input using at least one of a first CNN model consisting of five sets of convolutional layers and two fully connected layer sets, or a second CNN model consisting of 13 sets of convolutional layers and two fully connected layer sets Finger vein recognition method further comprising the step of determining whether the forgery.
지정맥 인식 장치가 지정맥을 인식하는 방법에 있어서,
손가락 내부의 정맥 패턴을 촬영하여 생성된 지정맥 영상을 입력받는 단계;
입력된 지정맥 영상에서 관심 영역을 설정하고, 설정한 관심 영역의 크기 및 픽셀 밝기를 정규화하여 전처리하는 단계;
기 학습한 CNN 모델을 기반으로 지정맥 영상의 특징을 추출하고, 추출한 특징을 위조되지 않은 특징 클래스 또는 위조된 특징 클래스로 분류하는 단계;
제1 특징이 위조된 특징 클래스로 분류된 경우에 경보 신호를 출력하는 단계; 및
제1 특징이 위조되지 않은 특징 클래스로 분류된 경우에 지정맥 인식을 수행하는 단계를 포함하며,
상기 위조되지 않은 특징 클래스 또는 위조된 특징 클래스로 분류하는 단계는,
위조되지 않은 특징 클래스 또는 위조된 특징 클래스로 분류하는 출력 레이어가,
5개의 컨볼루션 레이어 집합 및 2개의 완전 연결 레이어 집합으로 구성된 제1 CNN 모델 또는 13개의 컨볼루션 레이어 집합 및 2개의 완전 연결 레이어 집합으로 구성된 제2 CNN 모델 중 적어도 하나를 이용하여 입력된 지정맥 영상의 위조 여부를 판단하는 단계를 더 포함하는 지정맥 인식 방법.
In the finger vein recognition device recognizes the finger vein,
Receiving a finger vein image generated by photographing a vein pattern inside the finger;
Setting a region of interest in the input finger vein image and normalizing the size and pixel brightness of the region of interest;
Extracting features of the finger vein image based on the previously learned CNN model, and classifying the extracted features into non-forged feature classes or forged feature classes;
Outputting an alarm signal when the first feature is classified as a forged feature class; And
Performing finger vein recognition when the first feature is classified as a feature class that is not forged,
Classifying into the non-forged feature class or the forged feature class,
An output layer that categorizes as a non-forged feature class or a forged feature class.
Finger vein image input using at least one of a first CNN model consisting of five sets of convolutional layers and two fully connected layer sets, or a second CNN model consisting of 13 sets of convolutional layers and two fully connected layer sets Finger vein recognition method further comprising the step of determining whether the forgery.
삭제delete 제10항 및 제11항 중 어느 한 항에 있어서,
상기 입력된 지정맥 영상에서 관심 영역을 설정하고, 설정한 관심 영역의 크기 및 픽셀 밝기를 정규화하여 전처리하는 단계는,
관심 영역을 설정하여 미리 지정한 크기로 정규화하고, 크기가 정규화된 지정맥 영상에 제로 평균 정규화(zero-mean normalization)를 적용하여 0~255 사이의 픽셀 밝기를 -127~127 또는 -1~1사이의 범위가 되도록 보정하는 지정맥 인식 방법.
The method according to any one of claims 10 and 11,
The step of setting a region of interest in the input finger vein image, normalizing the size and pixel brightness of the set region of interest, pre-processing,
Set the region of interest to normalize to a predetermined size and apply zero-mean normalization to the normalized finger vein image to reduce the pixel brightness between 0 and 255 to between -127 and 127 or between -1 and 1. Finger vein recognition method that corrects to be in the range of.
제10항에 있어서,
상기 선택한 제1 특징을 서포트 벡터 머신(Support Vector Machine)을 통해 학습하여 위조되지 않은 특징 클래스 또는 위조된 특징 클래스로 분류하는 단계는,
선형 커널(Linear kernel), 방사형 기본함수(RBF kernel) 및 다항식 커널(Polynomial kernel) 중 적어도 하나를 사용하여 상기 제1 특징을 위조되지 않은 특징 클래스 또는 위조된 특징 클래스로 분류하는 지정맥 인식 방법.
The method of claim 10,
Learning the selected first feature through a support vector machine and classifying the selected first feature into a non-forged feature class or a forged feature class,
A finger vein recognition method for classifying the first feature into a non-forged feature class or a forged feature class using at least one of a linear kernel, a radial basic function, and a polynomial kernel.
제10항, 제11항 및 제14항 중 어느 하나의 지정맥 인식 방법을 실행하고 컴퓨터가 판독 가능한 기록매체에 기록된 컴퓨터 프로그램.
A computer program which executes the finger vein recognition method of any one of claims 10, 11 and 14 and is recorded on a computer-readable recording medium.
제13항의 지정맥 인식 방법을 실행하고 컴퓨터가 판독 가능한 기록매체에 기록된 컴퓨터 프로그램.A computer program that executes the finger vein recognition method of claim 13 and is recorded on a computer-readable recording medium.
KR1020170099023A 2017-08-04 2017-08-04 Device and method for finger-vein recognition KR101991028B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170099023A KR101991028B1 (en) 2017-08-04 2017-08-04 Device and method for finger-vein recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170099023A KR101991028B1 (en) 2017-08-04 2017-08-04 Device and method for finger-vein recognition

Publications (2)

Publication Number Publication Date
KR20190014912A KR20190014912A (en) 2019-02-13
KR101991028B1 true KR101991028B1 (en) 2019-10-01

Family

ID=65366617

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170099023A KR101991028B1 (en) 2017-08-04 2017-08-04 Device and method for finger-vein recognition

Country Status (1)

Country Link
KR (1) KR101991028B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102278410B1 (en) * 2020-11-17 2021-07-19 주식회사 클레스앤피 High-performance deep learning finger vein authentication system and metod that can simultaneously measure personal health status

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102174083B1 (en) * 2019-02-26 2020-11-05 동국대학교 산학협력단 Apparatus and method for biometrics using finger vein feature based on deep learing
KR102318194B1 (en) * 2019-05-08 2021-10-28 서울대학교산학협력단 Device for predicting optic neuropathy and method for providing prediction result to optic neuropathy using fundus image
CN110717372A (en) * 2019-08-13 2020-01-21 平安科技(深圳)有限公司 Identity verification method and device based on finger vein recognition
KR102286229B1 (en) * 2020-02-19 2021-08-06 한국기술교육대학교 산학협력단 A feature vector-based fight event recognition method
CN111611856B (en) * 2020-04-20 2023-05-05 杭州电子科技大学 Weighted neighbor binary pattern recognition method based on top-k partitioning
CN112434574B (en) * 2020-11-11 2024-04-09 西安理工大学 Knuckle pattern recognition method under unrestricted state
KR102293547B1 (en) * 2021-03-08 2021-08-26 주식회사 에스아이에이 Method and apparatus for detecting change
KR102629393B1 (en) * 2021-08-18 2024-01-25 국립창원대학교 산학협력단 Parallel subsampling structured cnn based finger-vein recognition method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004536367A (en) * 2001-01-23 2004-12-02 バイオウルフ テクノロジーズ エルエルスィー Computer-based image analysis
JP2017520864A (en) * 2014-04-09 2017-07-27 エントルピー インコーポレーテッドEntrupy Inc. Authenticating objects using machine learning from microscopic differences

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090065026A (en) * 2007-12-17 2009-06-22 상명대학교 산학협력단 Method for personal identification using finger-veins

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004536367A (en) * 2001-01-23 2004-12-02 バイオウルフ テクノロジーズ エルエルスィー Computer-based image analysis
JP2017520864A (en) * 2014-04-09 2017-07-27 エントルピー インコーポレーテッドEntrupy Inc. Authenticating objects using machine learning from microscopic differences

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102278410B1 (en) * 2020-11-17 2021-07-19 주식회사 클레스앤피 High-performance deep learning finger vein authentication system and metod that can simultaneously measure personal health status

Also Published As

Publication number Publication date
KR20190014912A (en) 2019-02-13

Similar Documents

Publication Publication Date Title
KR101991028B1 (en) Device and method for finger-vein recognition
CN110348319B (en) Face anti-counterfeiting method based on face depth information and edge image fusion
CN109670446B (en) Abnormal behavior detection method based on linear dynamic system and deep network
US8582806B2 (en) Device, method, and computer-readable storage medium for compositing images
KR101862639B1 (en) Device and method for iris recognition using convolutional neural network
Chen et al. A multi-task convolutional neural network for joint iris detection and presentation attack detection
US7929734B2 (en) Method and apparatus for detecting eyes in face region
KR100846500B1 (en) Method and apparatus for recognizing face using extended Gabor wavelet features
EP2905722B1 (en) Method and apparatus for detecting salient region of image
Ramesh et al. Off-line signature verification using genetically optimized weighted features
Huang et al. Robust face detection using Gabor filter features
KR101877981B1 (en) System for recognizing disguised face using gabor feature and svm classifier and method thereof
US20100086176A1 (en) Learning Apparatus and Method, Recognition Apparatus and Method, Program, and Recording Medium
JP2020525947A (en) Manipulated image detection
US8457363B2 (en) Apparatus and method for detecting eyes
US9245198B2 (en) Object recognition by comparison of patterns against map of image
CN109543760A (en) Confrontation sample testing method based on image filters algorithm
Kashevnik et al. Seat belt fastness detection based on image analysis from vehicle in-abin camera
US9489593B2 (en) Information processing apparatus and training method
Nishiyama et al. Facial deblur inference to improve recognition of blurred faces
WO2018050123A1 (en) Method and device for detecting iris image
Nguyen et al. Automatic latent fingerprint segmentation
KR101877683B1 (en) Face Recognition Apparatus and Method Using Learning
KR20180074556A (en) Face detection method and apparatus thereof
Velliangira et al. A novel forgery detection in image frames of the videos using enhanced convolutional neural network in face images

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant