KR102138652B1 - Apparatus and method for biometrics using finger vein feature and finger shape based on deep learning - Google Patents

Apparatus and method for biometrics using finger vein feature and finger shape based on deep learning Download PDF

Info

Publication number
KR102138652B1
KR102138652B1 KR1020180064759A KR20180064759A KR102138652B1 KR 102138652 B1 KR102138652 B1 KR 102138652B1 KR 1020180064759 A KR1020180064759 A KR 1020180064759A KR 20180064759 A KR20180064759 A KR 20180064759A KR 102138652 B1 KR102138652 B1 KR 102138652B1
Authority
KR
South Korea
Prior art keywords
image
interest
score
generating
finger
Prior art date
Application number
KR1020180064759A
Other languages
Korean (ko)
Other versions
KR20200000001A (en
Inventor
박강령
김완
Original Assignee
동국대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동국대학교 산학협력단 filed Critical 동국대학교 산학협력단
Priority to KR1020180064759A priority Critical patent/KR102138652B1/en
Publication of KR20200000001A publication Critical patent/KR20200000001A/en
Application granted granted Critical
Publication of KR102138652B1 publication Critical patent/KR102138652B1/en

Links

Images

Classifications

    • G06K9/00885
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns
    • G06K2009/00932

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Vascular Medicine (AREA)
  • Collating Specific Patterns (AREA)

Abstract

본 발명은 생체 인식 기술에 관한 것으로, 보다 상세하게는 딥 러닝 기반의 지정맥 특징과 손가락 형태를 통한 생체 인식 기술에 관한 것이다. 본 발명의 일 실시 예에 따르면, 조명 변화, 위치 변화, 음영, 정렬 불일치, 손가락 압력 등의 요인에 강인한 생체 인식을 수행할 수 있다.The present invention relates to a biometric technology, and more particularly, to a deep learning-based finger vein feature and a biometric technology through finger shape. According to an embodiment of the present invention, robust biometric recognition may be performed on factors such as lighting change, position change, shading, misalignment, and finger pressure.

Description

딥 러닝 기반의 지정맥 특징과 손가락 형태를 이용하는 생체 인식 장치 및 방법{APPARATUS AND METHOD FOR BIOMETRICS USING FINGER VEIN FEATURE AND FINGER SHAPE BASED ON DEEP LEARNING}Deep learning-based finger vein feature and biometric device and method using finger shape{APPARATUS AND METHOD FOR BIOMETRICS USING FINGER VEIN FEATURE AND FINGER SHAPE BASED ON DEEP LEARNING}

본 발명은 생체 인식 기술에 관한 것으로, 보다 상세하게는 딥 러닝 기반의 지정맥 특징과 손가락 형태를 통한 생체 인식 기술에 관한 것이다. The present invention relates to a biometric technology, and more particularly, to a deep learning-based finger vein feature and a biometric technology through finger shape.

생체 인식은 지문, 홍채, 정맥 등을 이용한 인식 방법으로 사용자를 효과적으로 구별할 수 있는 고유한 행동학적 또는 생물학적 요소를 고려하여 정량적인 방식에 따라 데이터의 특징을 분석하여 사용자를 확인하는 방법이다. 생체 인식은 시스템 보안, 금융전자결제, 출입 통제 등을 포함한 많은 응용 분야에서 사용된다. 최근에는 스마트폰의 대중화에 따라 PC 환경 이외의 분야에서도 생체 인증 기술이 대두되고 있다. 기존의 생체 인식 기술 중에서도 다양한 장점을 가진 손가락 기반 인식의 기술이 존재한다. 예를 들어, 생체 인식 기술 중 혈관 내 패턴 특징을 통한 지정맥 인식 방법, 피부의 주름진 미세한 질감을 인식하는 방법, 기하학적 특징에 기반한 손가락 형태 인식 방법 등이 존재한다. 그러나 기존의 단일 인식을 사용하는 방법은 조명 변화, 위치 변화, 음영, 정렬 불일치, 손가락 압력 등에 의해 품질이 변화하고 다양한 이유에 의해서 패턴을 추출하는 것이 어렵고 이에 따라 인식 성능이 감소된 부분이 존재한다. 또한, 최근 하드웨어 및 알고리즘의 발전으로 컨볼루션 신경망(CNN) 기반 알고리즘으로 생체 인식 기술을 개선하려는 시도가 있었으나, 현존하는 CNN 기반의 연구는 기대할 만한 성능을 보여주지 못하였다. Biometric recognition is a method of identifying a user by analyzing characteristics of data in a quantitative manner in consideration of unique behavioral or biological factors that can effectively distinguish a user using a fingerprint, iris, or vein recognition method. Biometrics are used in many applications, including system security, financial electronic payments, and access control. Recently, with the popularization of smart phones, biometric authentication technology is emerging in fields other than the PC environment. Among the existing biometric recognition technologies, finger-based recognition technology having various advantages exists. For example, among the biometric techniques, there are a finger vein recognition method through a pattern feature in a blood vessel, a method for recognizing wrinkled fine texture of skin, and a finger shape recognition method based on geometric features. However, in the conventional method using a single recognition, it is difficult to extract patterns for various reasons due to changes in quality due to lighting change, position change, shading, misalignment, finger pressure, etc., and thus, recognition performance is reduced. . In addition, recent advances in hardware and algorithms have attempted to improve biometrics technology with a convolutional neural network (CNN)-based algorithm, but existing CNN-based studies have not shown the expected performance.

본 발명의 배경기술은 대한민국 공개특허 제2017-0017588호에 개시되어 있다.Background art of the present invention is disclosed in Republic of Korea Patent Publication No. 2017-0017588.

본 발명의 해결하고자 하는 과제는 지정맥 특징과 손가락 형태를 이용한 딥 러닝 기반의 생체 인식 장치 및 방법을 제공하는 것이다.The problem to be solved by the present invention is to provide a deep learning based biometric recognition apparatus and method using finger vein features and finger shape.

본 발명의 일 측면에 따르면, 딥 러닝 기반의 지정맥 특징과 손가락 형태를 이용하는 생체 인식 장치가 제공된다.According to an aspect of the present invention, a biometric recognition device using deep learning-based vein characteristics and finger shape is provided.

본 발명의 일 실시 예에 따른 딥 러닝 기반의 지정맥 특징과 손가락 형태를 이용하는 생체 인식 장치는 입력 영상에 대해 전처리를 수행하여 전처리 영상을 생성하는 전처리부, 상기 전처리 영상으로부터 관심 영상을 생성하는 관심 영상 추출부, 상기 관심 영상에 대한 스펙트로그램 이미지를 생성하고, 상기 스펙트로그램 이미지를 컨볼루션 신경망에 적용하여 형태 점수를 산출하는 형태 점수 산출부, 상기 관심 영상에 대한 차 영상을 생성하고, 상기 차 영상을 컨볼루션 신경망에 적용하여 지정맥 점수를 산출하는 지정맥 점수 산출부 및 상기 형태 점수 및 상기 지정맥 점수를 융합하여 최종 점수를 산출하고, 상기 최종 점수에 따라 생체 인식 정보를 생성하는 인식부를 포함할 수 있다.The biometric recognition device using deep learning-based finger vein features and finger shape according to an embodiment of the present invention is a pre-processing unit that performs pre-processing on an input image to generate a pre-processed image, and an interest to generate an image of interest from the pre-processed image Image extraction unit, generating a spectrogram image for the image of interest, applying the spectrogram image to a convolutional neural network, a shape score calculation unit for calculating a shape score, generating a difference image for the image of interest, and generating the difference A vein score calculating unit that applies an image to a convolutional neural network to calculate a vein score, and a recognition unit that fuses the shape score and the vein score to calculate a final score and generates biometric information according to the final score It can contain.

상기 형태 점수 산출부는, 상기 관심 영상에 대해 단시간 푸리에 변환(Short time Fourier Transform, STFT)을 적용하여 상기 스펙트로그램 이미지를 산출할 수 있다.The shape score calculating unit may calculate the spectrogram image by applying a short time Fourier transform (STFT) to the image of interest.

상기 지정맥 점수 산출부는, 상기 관심 영상과 동일 클래스 및 다른 클래스의 영상 간의 픽셀값 차이를 포함하는 상기 차 영상을 생성할 수 있다.The finger vein score calculating unit may generate the difference image including a difference in pixel values between the image of interest and an image of the same class and another class.

상기 컨볼루션 신경망은 15개의 컨벌루션 레이어, 4개의 숏컷 레이어 및 1개의 완전 연결 레이어를 포함하되, 각 상기 컨벌루션 레이어에서 이용된 커널 사이즈는 1×1, 3×3 및 7×7 중 어느 하나이고, 패딩 수는 0 또는 1이고, 스트라이드 수는 1 또는 2일 수 있다.The convolutional neural network includes 15 convolutional layers, 4 shortcut layers, and 1 fully connected layer, wherein the kernel size used in each convolutional layer is one of 1×1, 3×3 and 7×7, The number of padding may be 0 or 1, and the number of strides may be 1 or 2.

상기 숏컷 레이어는 56×56×256, 28×28×512, 14×14×1024 및 7×7×2048 중 어느 하나의 사이즈에 해당하는 특징맵을 포함할 수 있다.The short cut layer may include a feature map corresponding to any one of 56×56×256, 28×28×512, 14×14×1024 and 7×7×2048.

상기 전처리부는, 상기 입력 영상에 대해 이진화를 적용하고, 이진화된 상기 입력 영상의 열화된 부분을 복원하여 손가락 영역을 검출하고, 상기 입력 영상 중 상기 손가락 영역에 해당하는 영상을 포함하는 상기 전처리 영상을 생성할 수 있다.The pre-processing unit applies binarization to the input image, detects a finger region by restoring a deteriorated portion of the binarized input image, and detects the pre-processed image including an image corresponding to the finger region among the input images. Can be created.

상기 관심 영상 추출부는, 상기 전처리 영상으로부터 관심 영역(ROI: Region of Interest)를 추출하고, 상기 관심 영역에서 경계면의 각도를 측정하고, 상기 경계면의 각도에 따라 전처리 영상을 회전 변환하고, 관심 영역과 배경을 포함하는 상기 관심 영상을 생성할 수 있다.The interest image extracting unit extracts a region of interest (ROI) from the pre-processed image, measures the angle of the boundary surface in the region of interest, rotates the pre-processed image according to the angle of the boundary surface, and rotates the region of interest. The video of interest including a background may be generated.

본 발명의 다른 측면에 따르면, 딥 러닝 기반의 지정맥 특징과 손가락 형태를 이용하는 생체 인식 방법 및 이를 실행하는 컴퓨터 프로그램이 기록된 기록매체가 제공된다.According to another aspect of the present invention, there is provided a deep learning-based finger vein feature and a biometric recognition method using a finger shape and a recording medium on which a computer program executing the same is recorded.

본 발명의 일 실시 예에 따른 딥 러닝 기반의 지정맥 특징과 손가락 형태를 이용하는 생체 인식 방법 및 이를 실행하는 컴퓨터 프로그램이 기록된 기록매체는 입력 영상에 대해 전처리를 수행하여 전처리 영상을 생성하는 단계, 상기 전처리 영상으로부터 관심 영상을 생성하는 단계, 상기 관심 영상에 대한 스펙트로그램 이미지를 생성하고, 상기 스펙트로그램 이미지를 컨볼루션 신경망에 적용하여 형태 점수를 산출하는 단계, 상기 관심 영상에 대한 차 영상을 생성하고, 상기 차 영상을 컨볼루션 신경망에 적용하여 지정맥 점수를 산출하는 단계; 및 상기 형태 점수 및 상기 지정맥 점수를 융합하여 최종 점수를 산출하고, 상기 최종 점수에 따라 생체 인식 정보를 생성하는 단계를 포함할 수 있다. Generating a pre-processed image by performing pre-processing on an input image in a biometric recognition method using a deep learning-based vein feature and a finger shape according to an embodiment of the present invention and a computer program executing the biometric recognition method, Generating an image of interest from the pre-processed image, generating a spectrogram image for the image of interest, applying the spectrogram image to a convolutional neural network to calculate a shape score, and generating a difference image for the image of interest And calculating a finger vein score by applying the difference image to a convolutional neural network; And fusion of the shape score and the finger vein score to calculate a final score, and generating biometric information according to the final score.

본 발명의 일 실시 예에 따르면, 조명 변화, 위치 변화, 음영, 정렬 불일치, 손가락 압력 등의 요인에 강인한 생체 인식을 수행할 수 있다.According to an embodiment of the present invention, robust biometric recognition may be performed on factors such as lighting change, position change, shading, misalignment, and finger pressure.

도 1은 본 발명의 일 실시 예에 따른 생체 인식 장치를 예시한 도면.
도 2는 본 발명의 일 실시 예에 따른 생체 인식 장치에 적용된 전처리 과정을 설명하기 위한 도면.
도 3은 본 발명의 일 실시 예에 따른 생체 인식 장치가 관심 영상을 생성하는 과정을 설명하기 위한 도면.
도 4는 본 발명의 일 실시 예에 따른 생체 인식 장치가 이용하는 단시간 푸리에 변환을 설명하기 위한 도면.
도 5는 본 발명의 일 실시 예에 따른 생체 인식 장치가 이용하는 컨볼루션 신경망의 구조를 개략적으로 예시한 도면.
도 6은 본 발명의 일 실시 예에 따른 생체 인식 장치가 이용하는 컨볼루션 신경망의 구체적인 구조를 예시한 도면.
도 7은 본 발명의 일 실시 예에 따른 생체 인식 장치가 생체 인식을 수행하는 과정을 예시한 순서도.
도 8은 본 발명의 일 실시 예에 따른 생체 인식 장치의 테스트 영상에 대한 테스트 결과를 예시한 도면.
1 is a diagram illustrating a biometric device according to an embodiment of the present invention.
2 is a view for explaining a pre-processing process applied to a biometric device according to an embodiment of the present invention.
3 is a view for explaining a process of generating an image of interest by the biometric device according to an embodiment of the present invention.
4 is a view for explaining a short-time Fourier transform used by the biometric device according to an embodiment of the present invention.
5 is a diagram schematically illustrating the structure of a convolutional neural network used by a biometric recognition device according to an embodiment of the present invention.
6 is a diagram illustrating a specific structure of a convolutional neural network used by a biometric device according to an embodiment of the present invention.
7 is a flowchart illustrating a process in which the biometric device performs biometric recognition according to an embodiment of the present invention.
8 is a diagram illustrating test results of a test image of a biometric device according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 이를 상세한 설명을 통해 상세히 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서 및 청구항에서 사용되는 단수 표현은, 달리 언급하지 않는 한 일반적으로 "하나 이상"을 의미하는 것으로 해석되어야 한다.The present invention can be applied to various changes and can have various embodiments, and specific embodiments will be illustrated in the drawings and described in detail through detailed description. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention. In describing the present invention, when it is determined that a detailed description of related known technologies may unnecessarily obscure the subject matter of the present invention, the detailed description will be omitted. In addition, the singular expressions used in the specification and claims should be construed to mean “one or more” in general unless stated otherwise.

이하, 본 발명의 바람직한 실시 예를 첨부도면을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings, and in the description with reference to the accompanying drawings, identical or corresponding components are assigned the same reference numbers, and redundant description thereof will be omitted. Shall be

도 1은 본 발명의 일 실시 예에 따른 생체 인식 장치를 예시한 도면이고, 도 2는 본 발명의 일 실시 예에 따른 생체 인식 장치에 적용된 전처리 과정을 설명하기 위한 도면이고, 도 3은 본 발명의 일 실시 예에 따른 생체 인식 장치가 관심 영상을 생성하는 과정을 설명하기 위한 도면이고, 도 4는 본 발명의 일 실시 예에 따른 생체 인식 장치가 이용하는 단시간 푸리에 변환을 설명하기 위한 도면이다.1 is a view illustrating a biometric device according to an embodiment of the present invention, Figure 2 is a view for explaining a pre-processing process applied to the biometric device according to an embodiment of the present invention, Figure 3 is the present invention FIG. 4 is a diagram for explaining a process in which a biometric device according to an embodiment generates an image of interest, and FIG. 4 is a view for explaining a short-time Fourier transform used by the biometric device according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시 예에 따른 생체 인식 장치는 입력부(110), 전처리부(120), 관심 영역 추출부(130), 형태 점수 산출부(140), 지정맥 점수 산출부(150) 및 인식부(160)를 포함한다.Referring to FIG. 1, the biometric device according to an embodiment of the present invention includes an input unit 110, a pre-processing unit 120, a region of interest extraction unit 130, a shape score calculation unit 140, and a finger vein score calculation unit It includes 150 and the recognition unit 160.

입력부(110)는 네트워크 또는 미리 지정된 입력 단자를 통해 영상을 입력받는다. 이하, 입력부(110)가 입력 받은 영상을 입력 영상이라 지칭하도록 한다. 입력부(110)는 입력 영상을 전처리부(120)로 전송한다.The input unit 110 receives an image through a network or a predetermined input terminal. Hereinafter, an image received by the input unit 110 will be referred to as an input image. The input unit 110 transmits the input image to the pre-processing unit 120.

전처리부(120)는 입력 영상에 대해 전처리 프로세스를 수행하여 전처리 영상을 생성한다. 예를 들어, 전처리부(120)는 입력 영상(예를 들어, 도 2의 200)에 대해 이진화 처리를 수행하고, 이진화된 입력 영상(예를 들어, 도 2의 210)에 대해 convex hull 알고리즘을 적용하여 홀 등의 열화된 부분을 복원하여 손가락 영역(예를 들어, 도 2의 220)을 검출하고, 입력 영상 중 손가락 영역에 해당하는 영상을 포함하는 전처리 영상을 생성한다. 전처리부(120)는 전처리 영상을 관심 영역 추출부(130)로 전송한다.The pre-processing unit 120 generates a pre-processed image by performing a pre-processing process on the input image. For example, the pre-processing unit 120 performs binarization processing on the input image (eg, 200 in FIG. 2 ), and performs a convex hull algorithm on the binarized input image (eg, 210 in FIG. 2 ). By applying it, a deteriorated portion such as a hole is restored to detect a finger region (eg, 220 in FIG. 2 ), and a pre-processed image including an image corresponding to the finger region of the input image is generated. The pre-processing unit 120 transmits the pre-processed image to the region of interest extraction unit 130.

관심 영역 추출부(130)는 전처리 영상으로부터 관심 영역(ROI: Region of Interest)를 추출하고, 관심 영역을 포함하는 관심 영상을 생성한다. 예를 들어, 관심 영역 추출부(130)는 4x20 mask를 사용하여 지정맥의 상측 경계면 및 하측 경계면을 검출하여 굵기정보와 지정맥 특징이 포함된 관심 영역을 추출할 수 있다. 관심 영역 추출부(130)는 도 3의 300과 같은 입력 영상에 대해 이진화를 수행하여 310과 같은 영상을 획득하였다고 가정하는 경우, 지정된 ROI에서 경계면의 각도를 측정하고, 320과 같이 경계면의 각도에 따라 전처리 영상을 회전 변환하고, 330과 같이 관심 영역과 배경을 포함하는 관심 영상을 생성할 수 있다. 관심 영역 추출부(130)는 관심 영상을 형태 점수 산출부(140) 및 지정맥 점수 산출부(150)로 전송한다.The region of interest extractor 130 extracts a region of interest (ROI) from the pre-processed image, and generates an image of interest including the region of interest. For example, the region-of-interest extractor 130 may detect an upper boundary surface and a lower boundary surface of a vein using a 4x20 mask to extract a region of interest including thickness information and a vein feature. When it is assumed that the region of interest extracting unit 130 obtains an image such as 310 by performing binarization on an input image such as 300 in FIG. 3, the angle of the interface is measured at a designated ROI, and the angle of the interface is determined as 320. Accordingly, the pre-processed image may be rotationally transformed, and an interest image including a region of interest and a background may be generated as shown in 330. The region of interest extraction unit 130 transmits the image of interest to the shape score calculation unit 140 and the finger vein score calculation unit 150.

형태 점수 산출부(140)는 도 4의 400과 같이 관심 영상에 대해 지정맥 영역 두께의 수직 높이를 측정하여 지정된 너비만큼 이진 푸리에 변환(Discrete Fourier transform, DFT)를 수행하는 단시간 푸리에 변환(Short time Fourier Transform, STFT)를 통해 420과 같이 관심 영상을 주파수 영역으로 표현하는 스펙트로그램 이미지(spectogram image)를 생성한다. 예를 들어, 형태 점수 산출부(140)는 도 4의 410 및 수학식 1과 같은 단시간 푸리에 변환을 이용할 수 있다.The shape score calculating unit 140 measures the vertical height of the thickness of the vein region with respect to the image of interest as shown in 400 of FIG. 4, and performs a short-time Fourier transform (DFT) by performing a binary Fourier transform (DFT) by a specified width. Through Fourier Transform (STFT), a spectogram image that expresses an image of interest in the frequency domain, such as 420, is generated. For example, the shape score calculating unit 140 may use a short-time Fourier transform such as 410 of FIG. 4 and Equation (1).

[수학식 1][Equation 1]

Figure 112018055241123-pat00001
Figure 112018055241123-pat00001

여기서, n는 지정맥 수평 위치, w는 주파수 축, f(m)는 분석할 신호, W(m)는 픽셀 길이 R에 따른 윈도우(window)이다. Here, n is a horizontal position of a vein, w is a frequency axis, f(m) is a signal to be analyzed, and W(m) is a window according to a pixel length R.

형태 점수 산출부(140)는 컨볼루션 신경망(Convolutional Neural Network)을 이용하여 스펙트로그램 이미지에 대한 특징값을 산출한다. 형태 점수 산출부(140)는 산출된 특징값과 같은 클래스에 해당하는 스펙트로그램 이미지에 해당하는 특징값 간의 유클리디안 거리(Euclidean distance)와 산출된 특징값과 다른 클래스에 해당하는 스펙트로그램 이미지에 해당하는 특징값 간의 유클리디안 거리에 따라 형태 점수를 산출한다. 이 때, 형태 점수 산출부(140)는 각 클래스별 스펙트로그램 이미지를 학습한 컨볼루션 신경망을 이용할 수 있다. 형태 점수 산출부(140)는 형태 점수를 인식부(160)로 전송한다.The shape score calculator 140 calculates feature values for the spectrogram image using a convolutional neural network. The shape score calculating unit 140 is used to calculate the Euclidean distance between the feature values corresponding to the spectrogram image corresponding to the same class as the calculated feature values and the spectrogram images corresponding to classes different from the calculated feature values. The shape score is calculated according to the Euclidean distance between the corresponding feature values. In this case, the shape score calculating unit 140 may use a convolutional neural network that has learned the spectrogram image for each class. The shape score calculation unit 140 transmits the shape score to the recognition unit 160.

지정맥 점수 산출부(150)는 관심 영상으로부터 지정맥에 해당하는 영역(이하, 지정맥 영역이라 지칭)을 추출하고, 해당 영역을 포함하는 영상의 크기를 지정된 크기가 되도록 변환을 수행한다. 지정맥 점수 산출부(150)는 동일 클래스의 영상에 포함된 지정맥 영역과 관심 영상의 지정맥 영역의 픽셀값의 차이를 나타내는 차 영상과, 다른 클래스의 영상에 포함된 지정맥 영역과 관심 영상의 지정맥 영역의 픽셀값의 차이를 나타내는 차 영상을 생성한다. 지정맥 점수 산출부(150)는 컨볼루션 신경망을 이용하여 차 영상에 대한 지정맥 점수를 산출한다. 이 때, 지정맥 점수 산출부(150)는 각 동일 클래스 간의 차 영상과 상이한 클래스 간의 차 영상을 학습한 컨볼루션 신경망을 이용할 수 있다. 지정맥 점수 산출부(150)는 지정맥 점수를 인식부(160)로 전송한다.The finger vein score calculator 150 extracts a region corresponding to a finger vein (hereinafter referred to as a finger vein region) from the video of interest, and converts the size of the image including the region to a specified size. The vein score calculating unit 150 includes a difference image representing a difference between a pixel value of a vein region included in an image of the same class and a vein region of an image of interest, and a vein region and an interest image included in another class of images. Generates a difference image representing the difference in pixel values in the vein region. The finger vein score calculator 150 calculates a finger vein score for a difference image using a convolutional neural network. In this case, the finger vein score calculating unit 150 may use a convolutional neural network in which a difference image between each same class and a difference image between different classes are learned. The finger vein score calculator 150 transmits the finger vein score to the recognition unit 160.

인식부(160)는 미리 지정된 방식(예를 들어, Weighted sum, weighted product, perception, bayesian 등)을 통해 형태 점수와 지정맥 점수를 융합하여 최종 점수를 산출한다. 이 때, weighted sum은 각 단일방식에 가중치를 부여하여 합한 score를 쓰는 방식이며, weighted product는 각 단일방식의 가중치 곱을 score로 쓰는 방식이다. Bayesian(

Figure 112018055241123-pat00002
은 수학식 2에 따라서 계산되고 Perceptron
Figure 112018055241123-pat00003
은 수학식 3에 따라서 계산되는 방식이다. The recognition unit 160 calculates the final score by fusing the shape score and the finger vein score through a predetermined method (eg, weighted sum, weighted product, perception, bayesian, etc.). In this case, the weighted sum is a method in which a sum is obtained by assigning weights to each single method, and a weighted product is a method in which the weight product of each single method is used as a score. Bayesian(
Figure 112018055241123-pat00002
Is calculated according to Equation 2 and Perceptron
Figure 112018055241123-pat00003
Is a method calculated according to equation (3).

[수학식 2][Equation 2]

Figure 112018055241123-pat00004
Figure 112018055241123-pat00004

[수학식 3][Equation 3]

Figure 112018055241123-pat00005
Figure 112018055241123-pat00005

이 때, s1은 형태 점수이고, s2는 지정맥 점수이고, w0, w1 및 w2는 미리 지정된 가중치이다.At this time, s1 is a shape score, s2 is a finger vein score, and w0, w1 and w2 are predetermined weights.

이 때, 인식부(160)는 여러 융합 방식을 통해 최종 점수를 각각 산출하고, 가장 오류율이 낮은 융합 방식을 통한 최종 점수를 선정할 수 있다.At this time, the recognition unit 160 may calculate each final score through various fusion methods, and select the final score through the fusion method having the lowest error rate.

인식부(160)는 최종 점수가 미리 지정된 임계값 이하인 경우, 해당 입력 영상의 사용자를 정당한 사용자로 인식함을 나타내는 생체 인식 정보를 생성한다. 반대로 인식부(160)는 최종 점수가 미리 지정된 임계값을 초과하는 경우, 해당 입력 영상의 사용자를 부적격한 사용자로 인식하는 생체 인식 정보를 생성한다.The recognition unit 160 generates biometric information indicating that the user of the corresponding input image is recognized as a legitimate user when the final score is equal to or less than a predetermined threshold. Conversely, when the final score exceeds a predetermined threshold, the recognition unit 160 generates biometric recognition information that recognizes a user of the corresponding input image as an inappropriate user.

도 5는 본 발명의 일 실시 예에 따른 생체 인식 장치가 이용하는 컨볼루션 신경망의 구조를 개략적으로 예시한 도면이고, 도 6은 본 발명의 일 실시 예에 따른 생체 인식 장치가 이용하는 컨볼루션 신경망의 구체적인 구조를 예시한 도면이다.5 is a diagram schematically illustrating the structure of a convolutional neural network used by a biometric device according to an embodiment of the present invention, and FIG. 6 is a detailed view of a convolutional neural network used by a biometric device according to an embodiment of the present invention It is a diagram illustrating the structure.

본 발명의 일 실시 예에 따른 생체 인식 장치가 이용하는 컨볼루션 신경망은 Group1~3의 구조를 도 5와 같이 포함할 수 있다.The convolutional neural network used by the biometric device according to an embodiment of the present invention may include the structures of Groups 1 to 3 as shown in FIG. 5.

구체적으로 도 6과 같이 컨볼루션 신경망은 15개의 컨벌루션 레이어, 4개의 숏컷 레이어, 1개의 완전 연결 레이어를 포함할 수 있다. Specifically, as shown in FIG. 6, the convolutional neural network may include 15 convolutional layers, 4 shortcut layers, and 1 fully connected layer.

224x224 픽셀로 리사이즈된 영상에 기반하여 출력되는 feature map size는 다음의 수학식 4와 같이 계산된다. The feature map size output based on the resized image to 224x224 pixels is calculated as in Equation 4 below.

[수학식 4][Equation 4]

Feature map size = ((Input size - size of kernel + size of padding *2)/number of stride) +1Feature map size = ((Input size-size of kernel + size of padding *2)/number of stride) +1

각 컨벌루션 레이어에서는 구조의 최적화를 위해 배치 정규화(batch normalization), Rectified linear unit(ReLU) 를 거친다. 배치 정규화는 데이터 간의 연관성이 적은 mini-batch 단위로 feature의 mean 및 covariance를 구하고 정규화를 거치는 과정이다. Each convolutional layer undergoes batch normalization and Rectified linear unit (ReLU) to optimize the structure. Batch normalization is a process of finding the mean and covariance of features in a mini-batch unit with little correlation between data and going through normalization.

첫 번째 컨벌루션 레이어에서는 3x3 max pooling을 통해 3x3 윈도우 영역 내에서 가장 큰 값을 사용하는 서브샘플링(subsampling) 역할을 수행한다. Group2, Group4, Group 6 및 Group8 은 bottleneck 구조를 사용한다. Group2, Group4, Group 6 및 Group8의 첫번 째 1x1 사이즈의 컨벌루션 레이어에서는 필터 사이즈를 축소하고, 3x3 사이즈의 컨벌루션 레이어에서 특징을 추출하였다. 숏컷(shortcut)과의 connection을 위해 다음 컨벌루션 레이어에서 다시 1x1 사이즈의 윈도우를 사용하여 숏컷의 필터와 동일하도록 하였다. 이로 인해 단일 3x3 사이즈의 컨벌루션 과정 보다 학습할 파라미터가 감소되어 처리할 연산량이 적어진다. 또한, Group3, Group6, Group9 에서 숏컷 구조를 사용하였다. 숏컷 구조는 학습된 필터와 이전의 레이어들을 학습하지 않고 스킵한 필터를 연결(connect)한다. 컨벌루션 신경망은 모든 그룹의 레이어 이후, 윈도우 내에서 평균값을 처리하는 average pooling를 거쳐 fully connected layer를 통해 label에 따른 클래스를 인식한다. 따라서 컨벌루션 신경망이 깊어지면 발생하는 degradation problem 을 해결하고 학습을 최적화할 수 있다.In the first convolutional layer, 3x3 max pooling performs subsampling using the largest value in the 3x3 window area. Group2, Group4, Group 6 and Group8 use a bottleneck structure. In the first 1x1 size convolution layer of Group2, Group4, Group 6, and Group8, the filter size is reduced, and features are extracted from the 3x3 size convolution layer. For connection with the shortcut, the next convolutional layer was again used with a window of size 1x1 to make it the same as the filter of the shortcut. Due to this, the parameters to be learned are reduced and the amount of computation to be processed is less than a single 3x3 size convolution process. In addition, a short cut structure was used in Group3, Group6, and Group9. The shortcut structure connects the learned filter and the skipped filter without learning the previous layers. The convolutional neural network recognizes a class according to a label through a fully connected layer after average grouping that processes an average value in a window after all groups of layers. Therefore, the degradation problem that occurs when the convolutional neural network deepens can be solved and learning can be optimized.

즉, CNN의 예를 들면, Group 1은 64개의 필터를 이용한 컨볼루션 레이어를 통해 112×112×64의 특징 맵을 생성한다. Group 1의 컨벌루션 레이어에서 이용된 스트라이드 수는 2이고, 패딩 수는 3일 수 있다.That is, as an example of CNN, Group 1 generates a feature map of 112×112×64 through a convolution layer using 64 filters. The number of strides used in the convolutional layer of Group 1 may be 2, and the number of padding may be 3.

또한, CNN의 예를 들면, Group 2는 64 또는 256개의 필터를 이용한 컨볼루션 레이어를 통해 56×56×64 또는 56×56×256의 특징 맵을 생성한다. Group 2의 컨벌루션 레이어에서 이용된 스트라이드 수는 1이고, 패딩 수는 0 또는 1일 수 있다.Also, as an example of CNN, Group 2 generates a feature map of 56×56×64 or 56×56×256 through a convolution layer using 64 or 256 filters. The number of strides used in the convolutional layer of Group 2 may be 1, and the number of padding may be 0 or 1.

또한, CNN의 예를 들면, Group 3은 숏컷 레이어를 통해 56×56×256의 특징 맵을 생성한다.In addition, for example of CNN, Group 3 generates a feature map of 56×56×256 through a shortcut layer.

또한, CNN의 예를 들면, Group 4는 128 또는 512개의 필터를 이용한 컨볼루션 레이어를 통해 28×28×128 또는 28×28×512의 특징 맵을 생성한다. Group 4의 컨벌루션 레이어에서 이용된 스트라이드 수는 1 또는 2이고, 패딩 수는 0 또는 1일 수 있다.Further, as an example of CNN, Group 4 generates a feature map of 28×28×128 or 28×28×512 through a convolution layer using 128 or 512 filters. The number of strides used in the convolution layer of Group 4 may be 1 or 2, and the number of padding may be 0 or 1.

또한, CNN의 예를 들면, Group 5는 숏컷 레이어를 통해 28×28×512의 특징 맵을 생성한다.Also, as an example of CNN, Group 5 generates a feature map of 28×28×512 through a shortcut layer.

또한, CNN의 예를 들면, Group 6은 256 또는 1024개의 필터를 이용한 컨볼루션 레이어를 통해 14×14×256 또는 14×14×1024의 특징 맵을 생성한다. Group 6의 컨벌루션 레이어에서 이용된 스트라이드 수는 1 또는 2이고, 패딩 수는 0 또는 1일 수 있다.Further, as an example of CNN, Group 6 generates a feature map of 14×14×256 or 14×14×1024 through a convolution layer using 256 or 1024 filters. The number of strides used in the convolutional layer of Group 6 may be 1 or 2, and the number of padding may be 0 or 1.

또한, CNN의 예를 들면, Group 7은 숏컷 레이어를 통해 14×14×1024의 특징 맵을 생성한다.Also, as an example of CNN, Group 7 generates a feature map of 14×14×1024 through a shortcut layer.

또한, CNN의 예를 들면, Group 8은 512 또는 2048개의 필터를 이용한 컨볼루션 레이어를 통해 7×7×512 또는 7×7×2048의 특징 맵을 생성한다. Group 6의 컨벌루션 레이어에서 이용된 스트라이드 수는 1 또는 2이고, 패딩 수는 0 또는 1일 수 있다.Further, as an example of CNN, Group 8 generates a feature map of 7×7×512 or 7×7×2048 through a convolution layer using 512 or 2048 filters. The number of strides used in the convolutional layer of Group 6 may be 1 or 2, and the number of padding may be 0 or 1.

도 6의 2/1*는 1번째 연산에서의 값은 1이고 그 이후의 연산에서는 2를 의미한다, **는 앞에 있는 숫자는 첫번째 group(2,3,4,5,6,7,8,9)에 해당하는 반복 횟수이고, 뒤에 있는 숫자는 두번째 group(2-1, 3-1, 4-1, 5-1, 6-1, 7-1, 8-1, 9-1)에 해당하는 반복 횟수 이다. ***는 resnet101단에서의 반복 횟수이다. 표시가 없는 나머지 반복 횟수는 50단과 동일하다. 2/1* in FIG. 6 means that the value in the first operation is 1, and in the subsequent operations, 2 means, ** is the first group (2,3,4,5,6,7,8) ,9) is the number of repetitions, followed by the number in the second group (2-1, 3-1, 4-1, 5-1, 6-1, 7-1, 8-1, 9-1) This is the number of repetitions. *** is the number of repetitions in resnet101. The remaining number of repetitions without a mark is equal to 50 steps.

도 7은 본 발명의 일 실시 예에 따른 생체 인식 장치가 생체 인식을 수행하는 과정을 예시한 순서도이다. 이하 설명하는 각 단계는 생체 인식 장치를 구성하는 각 기능부를 통해 수행되는 과정이나, 발명의 간결하고 명확한 설명을 위해 각 단계의 주체를 생체 인식 장치로 통칭하도록 한다.7 is a flowchart illustrating a process in which the biometric device performs biometric recognition according to an embodiment of the present invention. Each step described below is a process performed through each functional unit constituting the biometric device, or the subject of each step is collectively referred to as a biometric device for concise and clear description of the invention.

단계 S710에서 생체 인식 장치는 입력 영상을 입력 받는다.In step S710, the biometric device receives an input image.

단계 S720에서 생체 인식 장치는 입력 영상에 대해 전처리를 수행한다. 예를 들어, 생체 인식 장치는 입력 영상에 대해 이진화 처리를 수행하고, 이진화된 입력 영상에 대해 convex hull 알고리즘을 적용하여 홀 등의 열화된 부분을 복원하여 손가락 영역을 검출하고, 입력 영상 중 손가락 영역에 해당하는 영상을 포함하는 전처리 영상을 생성할 수 있다.In step S720, the biometric device preprocesses the input image. For example, the biometric device performs binarization processing on an input image, restores a deteriorated portion such as a hole by applying a convex hull algorithm to the binarized input image, detects a finger region, and finger region of the input image A pre-processed image including an image corresponding to may be generated.

단계 S730에서 생체 인식 장치는 생체 인식 장치는 전처리 영상으로부터 관심 영역(ROI: Region of Interest)를 추출하고, 관심 영역을 포함하는 관심 영상을 생성한다. 생체 인식 장치는 지정된 ROI에서 경계면의 각도를 측정하고, 경계면의 각도에 따라 전처리 영상을 회전 변환하고, 관심 영역과 배경을 포함하는 관심 영상을 생성할 수 있다.In step S730, the biometric device extracts a region of interest (ROI) from the pre-processed image and generates an image of interest including the region of interest. The biometric device may measure the angle of the interface at a designated ROI, rotate transform the pre-processed image according to the angle of the interface, and generate an image of interest including a region of interest and a background.

단계 S740에서 생체 인식 장치는 관심 영상에 대해 단시간 푸리에 변환(Short time Fourier Transform, STFT)을 적용하여 스펙트로그램 이미지를 산출한다.In step S740, the biometric device calculates a spectrogram image by applying a short time Fourier transform (STFT) to the image of interest.

단계 S750에서 생체 인식 장치는 컨볼루션 신경망을 통해 스펙트로그램 이미지에 따른 손가락의 형태에 대한 특징값을 산출한다.In step S750, the biometric device calculates a feature value for the shape of the finger according to the spectrogram image through the convolutional neural network.

단계 S760에서 생체 인식 장치는 특징값에 따른 형태 점수를 산출한다. 예를 들어, 생체 인식 장치는 산출된 특징값과 같은 클래스에 해당하는 스펙트로그램 이미지에 해당하는 특징값 간의 유클리디안 거리(Euclidean distance)와 산출된 특징값과 다른 클래스에 해당하는 스펙트로그램 이미지에 해당하는 특징값 간의 유클리디안 거리에 따라 형태 점수를 산출할 수 있다.In step S760, the biometric device calculates a shape score according to the feature value. For example, the biometric device may use the Euclidean distance between the feature values corresponding to the spectrogram image corresponding to the same class as the calculated feature values, and the spectrogram images corresponding to classes different from the calculated feature values. The shape score can be calculated according to the Euclidean distance between the corresponding feature values.

단계 S770에서 생체 인식 장치는 관심 영상의 크기를 미리 지정된 크기로 조정한다.예를 들어, 생체 인식 장치는 관심 영상으로부터 지정맥 영역을 추출하고, 지정맥 영역을 포함하는 영상의 크기를 지정된 크기가 되도록 변환을 수행한다. In step S770, the biometric device adjusts the size of the image of interest to a predetermined size. For example, the biometric device extracts a vein region from the image of interest and a size of an image including the vein region is specified. Convert as much as possible.

단계 S780에서 생체 인식 장치는 동일 클래스의 영상에 포함된 지정맥 영역과 관심 영상의 지정맥 영역의 픽셀값의 차이를 나타내는 차 영상과, 다른 클래스의 영상에 포함된 지정맥 영역과 관심 영상의 지정맥 영역의 픽셀값의 차이를 나타내는 차 영상을 생성한다.In step S780, the biometric recognition device designates a difference image indicating a difference between a pixel value of a vein region included in an image of the same class and a vein region of the image of interest, and designation of a vein region and an image of interest included in another class of images. A difference image representing differences in pixel values in the Mac area is generated.

단계 S790에서 생체 인식 장치는 컨볼루션 신경망을 통해 차 영상에 따른 지정맥 점수를 산출한다.In step S790, the biometric device calculates the finger vein score according to the difference image through the convolutional neural network.

단계 S792에서 생체 인식 장치는 미리 지정된 방식(예를 들어, Weighted sum, weighted product, perception, bayesian 등)을 통해 형태 점수와 지정맥 점수를 융합하여 최종 점수를 산출한다. In step S792, the biometric device calculates the final score by fusing the shape score and the finger vein score through a predetermined method (eg, weighted sum, weighted product, perception, bayesian, etc.).

단계 S794에서 생체 인식 장치는 최종 점수에 따른 생체 인식 정보를 생성한다. 예를 들어, 생체 인식 장치는 최종 점수가 미리 지정된 임계값 이하인 경우, 해당 입력 영상의 사용자를 정당한 사용자로 인식함을 나타내는 생체 인식 정보를 생성하고, 최종 점수가 미리 지정된 임계값을 초과하는 경우, 해당 입력 영상의 사용자를 부적격한 사용자로 인식하는 생체 인식 정보를 생성할 수 있다.In step S794, the biometric device generates biometric information according to the final score. For example, the biometric device generates biometric information indicating that the user of the input image is recognized as a legitimate user when the final score is less than or equal to a predetermined threshold, and when the final score exceeds the predetermined threshold, Biometric information may be generated to recognize a user of the corresponding input image as an inappropriate user.

도 8은 본 발명의 일 실시 예에 따른 생체 인식 장치의 테스트 영상에 대한 테스트 결과를 예시한 도면이다.8 is a diagram illustrating a test result for a test image of the biometric device according to an embodiment of the present invention.

도 8을 참조하면, 생체 인식에서 오류율을 측정하기 위한 수단으로 False Acceptance Ratio(FAR) 와 False Rejection Rate(FRR)가 존재한다. FAR은 서로 다른 클래스를 인식됨(authentic)으로 판단할 경우 발생하며 FRR은 서로 같은 클래스를 인식 되지 않음(imposter)로 판단할 경우 발생하는 오류 수치이다. FAR 곡선과 FRR 곡선을 같이 나타낸 것을 ROC curve라고 하며 sensitivity에 따른 오류율을 보여주는 그래프이다. 일반적으로 sensitivity가 증가하면 FRR은 증가하고 FAR은 감소하며 반대로 sensitivity가 감소하면 FRR은 감소하고 FAR은 증가한다. 그래프 곡선에 따라 FAR과 FRR이 만나는 지점을 Equal Error Rate(EER)이라고 하며 성능의 지표가 된다.Referring to FIG. 8, there are False Acceptance Ratio (FAR) and False Rejection Rate (FRR) as means for measuring the error rate in biometric recognition. FAR occurs when different classes are judged to be authentic, and FRR is an error number generated when the same classes are judged not to be recognized (imposter). The FAR and FRR curves together are called ROC curves and are graphs showing the error rate according to sensitivity. In general, as sensitivity increases, FRR increases and FAR decreases. Conversely, when sensitivity decreases, FRR decreases and FAR increases. The point where FAR meets FRR according to the graph curve is called Equal Error Rate (EER) and is an indicator of performance.

두 개의 데이터베이스(SDUMLA-HMT, PolyU)에 대해서 EER을 산출한 결과, perception 방식이 가장 오류율이 낮은 것을 보여 준다.As a result of calculating EER for two databases (SDUMLA-HMT, PolyU), the perception method shows the lowest error rate.

본 발명의 실시 예에 따른 생체 인식 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 또한 상술한 매체는 프로그램 명령, 데이터 구조 등을 지정하는 신호를 전송하는 반송파를 포함하는 광 또는 금속선, 도파관 등의 전송 매체일 수도 있다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The biometric recognition method according to an embodiment of the present invention may be implemented in a form of program instructions that can be executed through various computer means and may be recorded in a computer-readable medium. Computer-readable media may include program instructions, data files, data structures, or the like alone or in combination. The program instructions recorded on the computer-readable medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the computer software field. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs, DVDs, and magnetic media such as floptical disks. Includes hardware devices specifically configured to store and execute program instructions such as magneto-optical media and ROM, RAM, flash memory, and the like. In addition, the above-described medium may be a transmission medium such as an optical or metal line, a waveguide including a carrier wave that transmits a signal specifying a program command, a data structure, or the like. Examples of program instructions include high-level language code that can be executed by a computer using an interpreter, etc., as well as machine language codes produced by a compiler. The hardware device described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

이제까지 본 발명에 대하여 그 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far, the present invention has been focused on the embodiments. Those skilled in the art to which the present invention pertains will understand that the present invention can be implemented in a modified form without departing from the essential characteristics of the present invention. Therefore, the disclosed embodiments should be considered in terms of explanation, not limitation. The scope of the present invention is shown in the claims rather than the foregoing description, and all differences within the equivalent range should be interpreted as being included in the present invention.

Claims (15)

딥 러닝 기반의 지정맥 특징과 손가락 형태를 이용하는 생체 인식 장치에 있어서,
입력 영상에 대해 전처리를 수행하여 전처리 영상을 생성하는 전처리부;
상기 전처리 영상으로부터 관심 영상을 생성하는 관심 영상 추출부;
상기 관심 영상에 대한 스펙트로그램 이미지를 생성하고, 상기 스펙트로그램 이미지를 컨볼루션 신경망에 적용하여 형태 점수를 산출하는 형태 점수 산출부;
상기 관심 영상에 대한 차 영상을 생성하고, 상기 차 영상을 컨볼루션 신경망에 적용하여 지정맥 점수를 산출하는 지정맥 점수 산출부; 및
상기 형태 점수 및 상기 지정맥 점수를 융합하여 최종 점수를 산출하고, 상기 최종 점수에 따라 생체 인식 정보를 생성하는 인식부를 포함하되,
상기 전처리부는,
상기 입력 영상에 대해 이진화를 적용하고, 이진화된 상기 입력 영상의 열화된 부분을 복원하여 손가락 영역을 검출하고, 상기 입력 영상 중 상기 손가락 영역에 해당하는 영상을 포함하는 상기 전처리 영상을 생성하고,
상기 이진화된 상기 입력 영상에 대해 컨벡스 헐(convex hull) 알고리즘을 적용하여 열화된 부분을 복원하고,
상기 형태 점수 산출부는,
상기 관심 영상에 대해 단시간 푸리에 변환(Short time Fourier Transform, STFT)을 적용하여 상기 스펙트로그램 이미지를 산출하는 것을 특징으로 하되,
상기 스펙트로그램 이미지의 특징값을 산출하여 동일 클래스 및 다른 클래스에 해당하는 스펙트로그램 이미지의 특징값 간의 거리를 이용하고,
상기 인식부는,
상기 최종 점수를 가장 오류율이 낮은 융합 방식을 통해 선정하는 생체 인식 장치.
In the biometric recognition device using finger type and finger vein features based on deep learning,
A pre-processing unit to generate a pre-processed image by performing pre-processing on the input image;
An interest image extraction unit generating an interest image from the pre-processed image;
A shape score calculation unit generating a spectrogram image for the image of interest and applying the spectrogram image to a convolutional neural network to calculate a shape score;
A vein score calculator configured to generate a difference image for the image of interest and apply the difference image to a convolutional neural network to calculate a vein score; And
Including the recognition unit for generating a final score by fusing the shape score and the finger vein score, and generates biometric information according to the final score,
The pre-processing unit,
Applying binarization to the input image, restoring a deteriorated portion of the binarized input image to detect a finger region, and generating the pre-processed image including an image corresponding to the finger region among the input images,
The deteriorated portion is restored by applying a convex hull algorithm to the binarized input image,
The form score calculation unit,
Characterized in that the spectrogram image is calculated by applying a short time Fourier transform (STFT) to the image of interest,
Calculate the feature values of the spectrogram image to use the distance between the feature values of the spectrogram image corresponding to the same class and different classes,
The recognition unit,
A biometric device that selects the final score through a fusion method having the lowest error rate.
제1항에 있어서,
상기 형태 점수 산출부는,
유클리디안 거리에 따라 형태 점수를 산출하는 생체 인식 장치.
According to claim 1,
The form score calculation unit,
A biometric device that calculates a shape score according to the Euclidean distance.
제1항에 있어서,
상기 지정맥 점수 산출부는,
상기 관심 영상과 동일 클래스 및 다른 클래스의 영상 간의 픽셀값 차이를 포함하는 상기 차 영상을 생성하는 것을 특징으로 하는 생체 인식 장치.
According to claim 1,
The finger vein score calculation unit,
And generating the difference image including a pixel value difference between the image of interest and the image of the same class and another class.
제1항에 있어서,
상기 컨볼루션 신경망은
15개의 컨벌루션 레이어, 4개의 숏컷 레이어 및 1개의 완전 연결 레이어를 포함하되,
각 상기 컨벌루션 레이어에서 이용된 커널 사이즈는 1×1, 3×3 및 7×7 중 어느 하나이고, 패딩 수는 0 또는 1이고, 스트라이드 수는 1 또는 2인 것을 특징으로 하는 생체 인식 장치.
According to claim 1,
The convolutional neural network
Includes 15 convolutional layers, 4 shortcut layers and 1 fully connected layer,
The kernel size used in each of the convolutional layers is one of 1×1, 3×3 and 7×7, the number of paddings is 0 or 1, and the number of strides is 1 or 2.
제4항에 있어서,
상기 숏컷 레이어는 56×56×256, 28×28×512, 14×14×1024 및 7×7×2048 중 어느 하나의 사이즈에 해당하는 특징맵을 포함하는 것을 특징으로 하는 생체 인식 장치.
According to claim 4,
The shortcut layer includes a feature map corresponding to any one size of 56×56×256, 28×28×512, 14×14×1024 and 7×7×2048.
삭제delete 제1항에 있어서,
상기 관심 영상 추출부는,
상기 전처리 영상으로부터 관심 영역(ROI: Region of Interest)를 추출하고,
상기 관심 영역에서 경계면의 각도를 측정하고,
상기 경계면의 각도에 따라 전처리 영상을 회전 변환하고,
관심 영역과 배경을 포함하는 상기 관심 영상을 생성하는 것을 특징으로 하는 생체 인식 장치.
According to claim 1,
The video extraction unit of interest,
Region of Interest (ROI) is extracted from the pre-processed image,
Measure the angle of the interface in the region of interest,
The pre-processed image is rotated and transformed according to the angle of the boundary surface,
A biometric device characterized by generating the image of interest including a region of interest and a background.
생체 인식 장치가 딥 러닝 기반의 지정맥 특징과 손가락 형태를 이용하는 생체 인식을 수행하는 방법에 있어서,
입력 영상에 대해 전처리를 수행하여 전처리 영상을 생성하는 단계;
상기 전처리 영상으로부터 관심 영상을 생성하는 단계;
상기 관심 영상에 대한 스펙트로그램 이미지를 생성하고, 상기 스펙트로그램 이미지를 컨볼루션 신경망에 적용하여 형태 점수를 산출하는 단계;
상기 관심 영상에 대한 차 영상을 생성하고, 상기 차 영상을 컨볼루션 신경망에 적용하여 지정맥 점수를 산출하는 단계; 및
상기 형태 점수 및 상기 지정맥 점수를 융합하여 최종 점수를 산출하고, 상기 최종 점수에 따라 생체 인식 정보를 생성하는 단계를 포함하되,
상기 관심 영상에 대한 스펙트로그램 이미지를 생성하고, 상기 스펙트로그램 이미지를 컨볼루션 신경망에 적용하여 형태 점수를 산출하는 단계는,
상기 관심 영상에 대해 단시간 푸리에 변환(Short time Fourier Transform, STFT)을 적용하여 상기 스펙트로그램 이미지를 산출하는 단계를 포함하되,
상기 스펙트로그램 이미지의 특징값을 산출하여 동일 클래스 및 다른 클래스에 해당하는 스펙트로그램 이미지의 특징값 간의 거리를 이용하고,
상기 입력 영상에 대해 전처리를 수행하여 전처리 영상을 생성하는 단계는,
상기 입력 영상에 대해 이진화를 적용하고, 이진화된 상기 입력 영상의 열화된 부분을 복원하여 손가락 영역을 검출하고, 상기 입력 영상 중 상기 손가락 영역에 해당하는 영상을 포함하는 상기 전처리 영상을 생성하는 단계인 것을 특징으로 하되,
상기 이진화된 상기 입력 영상에 대해 컨벡스 헐(convex hull) 알고리즘을 적용하여 열화된 부분을 복원하고,
상기 최종 점수는 가장 오류율이 낮은 융합 방식을 통해 선정하는 생체 인식 방법.
In the biometric device is a method of performing biometric recognition using deep learning based finger vein features and finger shape,
Generating a pre-processed image by performing pre-processing on the input image;
Generating an image of interest from the preprocessed image;
Generating a spectrogram image of the image of interest and applying the spectrogram image to a convolutional neural network to calculate a shape score;
Generating a difference image for the image of interest and applying the difference image to a convolutional neural network to calculate a vein score; And
Comprising the step of fusion of the shape score and the finger vein score to calculate a final score, and generating biometric information according to the final score,
Generating a spectrogram image for the image of interest, and applying the spectrogram image to a convolutional neural network to calculate a shape score,
Comprising the step of calculating the spectrogram image by applying a short time Fourier Transform (STFT) to the image of interest,
Calculate the feature values of the spectrogram image to use the distance between the feature values of the spectrogram image corresponding to the same class and different classes,
Step of generating a pre-processed image by performing pre-processing on the input image,
Applying binarization to the input image, restoring a deteriorated portion of the binarized input image, detecting a finger region, and generating the pre-processed image including an image corresponding to the finger region among the input images Characterized as,
The deteriorated portion is restored by applying a convex hull algorithm to the binarized input image,
The final score is a biometric recognition method selected through a fusion method having the lowest error rate.
삭제delete 제8항에 있어서,
상기 관심 영상에 대한 차 영상을 생성하고, 상기 차 영상을 컨볼루션 신경망에 적용하여 지정맥 점수를 산출하는 단계는,
상기 관심 영상과 동일 클래스 및 다른 클래스의 영상 간의 픽셀값 차이를 포함하는 상기 차 영상을 생성하는 단계를 포함하는 것을 특징으로 하는 생체 인식 방법.
The method of claim 8,
The step of generating a difference image for the image of interest and applying the difference image to a convolutional neural network to calculate a vein score,
And generating the difference image including a pixel value difference between the image of interest and the image of the same class and another class.
제8항에 있어서,
상기 컨볼루션 신경망은
15개의 컨벌루션 레이어, 4개의 숏컷 레이어 및 1개의 완전 연결 레이어를 포함하되,
각 상기 컨벌루션 레이어에서 이용된 커널 사이즈는 1×1, 3×3 및 7×7 중 어느 하나이고, 패딩 수는 0 또는 1이고, 스트라이드 수는 1 또는 2인 것을 특징으로 하는 생체 인식 방법.
The method of claim 8,
The convolutional neural network
Includes 15 convolutional layers, 4 shortcut layers and 1 fully connected layer,
The kernel size used in each of the convolutional layers is one of 1×1, 3×3 and 7×7, the number of paddings is 0 or 1, and the number of strides is 1 or 2.
제11항에 있어서,
상기 숏컷 레이어는 56×56×256, 28×28×512, 14×14×1024 및 7×7×2048 중 어느 하나의 사이즈에 해당하는 특징맵을 포함하는 것을 특징으로 하는 생체 인식 방법.
The method of claim 11,
The shortcut layer includes a feature map corresponding to any one of 56×56×256, 28×28×512, 14×14×1024 and 7×7×2048.
삭제delete 제8항에 있어서,
상기 전처리 영상으로부터 관심 영상을 생성하는 단계는,
상기 전처리 영상으로부터 관심 영역(ROI: Region of Interest)를 추출하는 단계;
상기 관심 영역에서 경계면의 각도를 측정하는 단계;
상기 경계면의 각도에 따라 전처리 영상을 회전 변환하는 단계; 및
관심 영역과 배경을 포함하는 상기 관심 영상을 생성하는 단계를 포함하는 것을 특징으로 하는 생체 인식 방법.
The method of claim 8,
Generating an image of interest from the pre-processed image,
Extracting a region of interest (ROI) from the pre-processed image;
Measuring an angle of the boundary surface in the region of interest;
Rotating transforming the pre-processed image according to the angle of the boundary surface; And
And generating the image of interest including a region of interest and a background.
제8항, 제10항 내지 제12항 및 제14항 중 어느 하나의 생체 인식 방법을 실행하는 컴퓨터 프로그램을 기록한 컴퓨터가 판독 가능한 기록매체.

A computer-readable recording medium recording a computer program that executes the biometric recognition method according to any one of claims 8, 10 to 12, and 14.

KR1020180064759A 2018-06-05 2018-06-05 Apparatus and method for biometrics using finger vein feature and finger shape based on deep learning KR102138652B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180064759A KR102138652B1 (en) 2018-06-05 2018-06-05 Apparatus and method for biometrics using finger vein feature and finger shape based on deep learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180064759A KR102138652B1 (en) 2018-06-05 2018-06-05 Apparatus and method for biometrics using finger vein feature and finger shape based on deep learning

Publications (2)

Publication Number Publication Date
KR20200000001A KR20200000001A (en) 2020-01-02
KR102138652B1 true KR102138652B1 (en) 2020-07-29

Family

ID=69155007

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180064759A KR102138652B1 (en) 2018-06-05 2018-06-05 Apparatus and method for biometrics using finger vein feature and finger shape based on deep learning

Country Status (1)

Country Link
KR (1) KR102138652B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220068730A (en) * 2020-11-19 2022-05-26 한국항공대학교산학협력단 Human-Detecting Radar System for Indoor Security Applications and Human-Detecting method using the same

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111753656B (en) * 2020-05-18 2024-04-26 深圳大学 Feature extraction method, device, equipment and computer readable storage medium
CN112036316B (en) * 2020-08-31 2023-12-15 中国科学院半导体研究所 Finger vein recognition method, device, electronic equipment and readable storage medium
TWD218109S (en) * 2021-01-29 2022-04-11 晶碩光學股份有限公司 contact lenses

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008129679A (en) * 2006-11-17 2008-06-05 Toshinori Tokuda Fingerprint discrimination model construction method, fingerprint discrimination method, identification method, fingerprint discrimination device and identification device
KR100940902B1 (en) * 2009-05-14 2010-02-08 동국대학교 산학협력단 The biometrics using finger geometry information
JP2016532945A (en) * 2013-09-16 2016-10-20 アイベリファイ インコーポレイテッド Feature extraction and matching and template update for biometric authentication

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008129679A (en) * 2006-11-17 2008-06-05 Toshinori Tokuda Fingerprint discrimination model construction method, fingerprint discrimination method, identification method, fingerprint discrimination device and identification device
KR100940902B1 (en) * 2009-05-14 2010-02-08 동국대학교 산학협력단 The biometrics using finger geometry information
JP2016532945A (en) * 2013-09-16 2016-10-20 アイベリファイ インコーポレイテッド Feature extraction and matching and template update for biometric authentication

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220068730A (en) * 2020-11-19 2022-05-26 한국항공대학교산학협력단 Human-Detecting Radar System for Indoor Security Applications and Human-Detecting method using the same
KR102524373B1 (en) 2020-11-19 2023-04-21 한국항공대학교산학협력단 Human-Detecting Radar System for Indoor Security Applications and Human-Detecting method using the same

Also Published As

Publication number Publication date
KR20200000001A (en) 2020-01-02

Similar Documents

Publication Publication Date Title
US10789465B2 (en) Feature extraction and matching for biometric authentication
KR102138652B1 (en) Apparatus and method for biometrics using finger vein feature and finger shape based on deep learning
Gottschlich Curved-region-based ridge frequency estimation and curved Gabor filters for fingerprint image enhancement
EP2495698B1 (en) Biometric information processing device, biometric information processing method, and computer program for biometric information processing
KR101967007B1 (en) Method of searching for parameterized contours for comparing irises
KR102174083B1 (en) Apparatus and method for biometrics using finger vein feature based on deep learing
Liu et al. An improved 3-step contactless fingerprint image enhancement approach for minutiae detection
Gawande et al. Improving iris recognition accuracy by score based fusion method
Raja et al. Prognostic evaluation of multimodal biometric traits recognition based human face, finger print and iris images using ensembled SVM classifier
Mehmood et al. Palmprint enhancement network (PEN) for robust identification
KR20170003361A (en) Method and apparatus for recognizing finger print
Ghafoor et al. Robust palmprint identification using efficient enhancement and two‐stage matching technique
Gautam et al. A Novel ES-RwCNN Based Finger Vein Recognition System with Effective L12 DTP Descriptor and AWM-WOA Selection.
KR102151427B1 (en) Apparatus and method for detection presentation attack for iris recognition system
Vibert et al. Fingerprint class recognition for securing EMV transaction
Tirado-Martin et al. Image processing techniques for improving vascular hand biometrics
Wang et al. Information fusion in personal biometric authentication based on the iris pattern
Karymian et al. Detection of reflection in Iris images using back propagation
Sunilkumar et al. Development of iris recognition model using transform domain approaches with Hamming distance classifier

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant