KR20190014912A - 지정맥 인식 장치 및 방법 - Google Patents

지정맥 인식 장치 및 방법 Download PDF

Info

Publication number
KR20190014912A
KR20190014912A KR1020170099023A KR20170099023A KR20190014912A KR 20190014912 A KR20190014912 A KR 20190014912A KR 1020170099023 A KR1020170099023 A KR 1020170099023A KR 20170099023 A KR20170099023 A KR 20170099023A KR 20190014912 A KR20190014912 A KR 20190014912A
Authority
KR
South Korea
Prior art keywords
feature
layer
finger vein
convolution layer
pixels
Prior art date
Application number
KR1020170099023A
Other languages
English (en)
Other versions
KR101991028B1 (ko
Inventor
박강령
홍형길
뉴엔치엔잣
Original Assignee
동국대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동국대학교 산학협력단 filed Critical 동국대학교 산학협력단
Priority to KR1020170099023A priority Critical patent/KR101991028B1/ko
Publication of KR20190014912A publication Critical patent/KR20190014912A/ko
Application granted granted Critical
Publication of KR101991028B1 publication Critical patent/KR101991028B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Physiology (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Evolutionary Computation (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Fuzzy Systems (AREA)
  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

본 발명은 지정맥 인식 장치 및 방법에 관한 것으로, 더욱 상세하게는 컨볼루셔널 뉴럴네트워크를 기반으로 적외선 환경에서 촬영된 지정맥 영상의 위조 여부를 판단하여 지정맥 인식을 수행하는 장치 및 방법에 관한 것이다. 본 발명은 입력된 지정맥 영상을 딥러닝 기반 컨볼루셔널 뉴럴네트워크 및 서포트 벡터 머신을 통해 위조 여부를 판단함으로써 보다 정확하게 지정맥 인식을 수행할 수 있다.

Description

지정맥 인식 장치 및 방법{DEVICE AND METHOD FOR FINGER-VEIN RECOGNITION}
본 발명은 지정맥 인식 장치 및 방법에 관한 것으로, 더욱 상세하게는 딥러닝 기반 컨볼루셔널 뉴럴네트워크(Convolutional Neural Network) 및 서포트 벡터 머신(Support Vector Machine)을 기반으로 지정맥 영상의 위조 여부를 판단하여 지정맥 인식을 수행하는 장치 및 방법에 관한 것이다.
지정맥 인식은 근적외선 센서를 통해 손가락 내부의 정맥 패턴과 헤모글로빈 패턴을 읽어 생체 인식에 활용하는 기술이다. 지정맥 인식은 지문과 달리 손가락 표면의 이물질, 습기, 건조함 등의 외부환경에 영향을 받지 않고, 1억명 중 한명도 중복 가능성이 없어 위조나 변조가 어려운 만큼 탁월한 보안성을 지닌다. 하지만 위조나 변조가 불가능하므로 개인의 지정맥 정보가 유출된 경우에는 더 이상 그 요소를 이용할 수 없게 되는 문제점이 있다. 이에, 지정맥의 위조나 변조를 판별하는 기술의 필요성이 증가하는 추세이다.
본 발명의 배경기술은 대한민국 등록특허공보 제 10-1354881호(2014.02.05공고)에 개시되어 있다.
본 발명은 입력된 지정맥 영상을 딥러닝 기반 컨볼루셔널 뉴럴네트워크 및 서포트 벡터 머신을 통해 위조 여부를 판단하여 지정맥 인식을 수행하는 지정맥 인식 장치 및 방법을 제공하는 것이다.
본 발명의 일 측면에 따르면, 지정맥 인식 장치가 제공된다.
본 발명의 일 실시 예에 따른 지정맥 인식 장치는 손가락 내부의 정맥 패턴을 촬영하여 생성된 지정맥 영상을 입력받는 입력부, 입력된 지정맥 영상에서 관심 영역을 설정하여 미리 지정한 크기로 정규화하고, 정규화된 지정맥 영상에 제로 평균 정규화(zero-mean normalization)를 적용하여 픽셀 밝기를 보정하는 전처리부, 기 학습한 컨볼루셔널 뉴럴네트워크(Convolutional Neural Network; 이하 CNN) 모델을 이용하여 지정맥 영상의 특징을 추출하고, 추출한 특징이 실제 특징인지 위조된 특징인지 판별하는 위조 판단부 및 추출한 특징이 실제 특징으로 판단된 경우에 지정맥 인식을 수행하는 지정맥 인식부를 포함할 수 있다.
본 발명의 다른 일 측면에 따르면, 지정맥 인식 방법 및 이를 실행하는 컴퓨터 프로그램이 제공된다.
본 발명의 일 실시 예에 따른 지정맥 인식 방법 및 이를 실행하는 컴퓨터 프로그램은 손가락 내부의 정맥 패턴을 촬영하여 생성된 지정맥 영상을 입력받는 단계, 입력된 지정맥 영상에서 관심 영역을 설정하고, 설정한 관심 영역의 크기 및 픽셀 밝기를 정규화하여 전처리하는 단계, 기 학습한 CNN 모델을 이용하여 지정맥 영상의 특징을 추출하는 단계, 추출한 지정맥 영상의 특징에서 주성분 분석(Principal Component Analysis)을 통해 최적 특징을 선택하는 단계, 선택한 최적 특징을 서포트 벡터 머신(Support Vector Machine)을 통해 학습하여 실제 특징 클래스 또는 위조된 특징 클래스로 분류하는 단계, 최적 특징이 위조된 특징 클래스로 분류된 경우에 경보 신호를 출력하는 단계 및 최적 특징이 실제 특징 클래스로 분류된 경우에 지정맥 인식을 수행하는 단계를 포함할 수 있다.
본 발명은 입력된 정맥 영상을 딥러닝 기반 컨볼루셔널 뉴럴네트워크 및 서포트 벡터 머신을 통해 위조 여부를 판단하여 보다 정확하게 지정맥 인식을 수행할 수 있다.
도 1 내지 도 5는 본 발명의 일 실시 예에 따른 지정맥 인식 장치를 설명하기 위한 도면들이다.
도 6 내지 도 7은 본 발명의 일 실시 예에 따른 CNN(Convolutional Neural Network) 모델을 지정맥 영상의 특징 추출 용도로 사용하여 위조 여부를 판별하는 지정맥 인식 방법을 설명하기 위한 도면들이다.
도 8은 본 발명의 일 실시 예에 따른 CNN 모델을 지정맥 영상의 특징 추출 및 위조 판단을 위한 용도로 사용하는 지정맥 인식 방법을 설명하기 위한 도면이다.
도 9 내지 도 13은 본 발명의 일 실시 예에 따른 학습된 CNN 모델의 성능 평가 결과를 위해 구축한 데이터베이스를 설명하기 위한 도면들이다.
도 14 내지 도 16은 본 발명의 일 실시 예에 따른 지정맥 인식 방법과 기존에 연구된 지정맥 인식 방법의 인식 성능 오류율를 비교한 도면들이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 이를 상세한 설명을 통해 상세히 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서 및 청구항에서 사용되는 단수 표현은, 달리 언급하지 않는 한 일반적으로 "하나 이상"을 의미하는 것으로 해석되어야 한다.
이하, 본 발명의 바람직한 실시 예를 첨부도면을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대해 중복되는 설명은 생략하기로 한다.
도 1 내지 도 6은 본 발명의 일 실시 예에 따른 지정맥 인식 장치를 설명하기 위한 도면들이다.
도 1을 참조하면, 지정맥 인식 장치(100)는 촬영부(110), 입력부(120), 전처리부(130), 위조 판단부(140) 및 지정맥 인식부(150)를 포함한다.
촬영부(110)는 근적외선 카메라(Near Infrared camera)를 통해 손가락 내부의 정맥 패턴을 촬영하여 지정맥 영상을 생성한다.
입력부(120)는 촬영부(110)에서 촬영한 지정맥 영상을 입력 받는다.
전처리부(130)는 입력된 지정맥 영상에서 관심 영역을 설정하고, 설정한 관심 영역의 크기 및 픽셀 밝기를 정규화한다. 예를 들면, 전처리부(130)는 실제 지정맥 영상 또는 실제 지정맥 영상을 위조한 영상을 입력받아 배경영역을 제거하고, 관심 영역을 설정하여 미리 지정한 픽셀 크기로 정규화할 수 있다. 또한, 전처리부(130)는 크기가 정규화된 지정맥 영상에 제로 평균 정규화(zero-mean normalization)를 적용하여 영상의 픽셀 밝기를 보정할 수 있다. 예를 들면, 전처리부(130)는 0~255 사이의 픽셀 밝기를 -127~127 또는 -1~1사이의 범위가 되도록 보정할 수 있다.
위조 판단부(140)는 정규화된 지정맥 영상에서 기 학습한 컨볼루셔널 뉴럴네트워크(Convolutional Neural Network; 이하 CNN) 모델을 이용하여 특징을 추출하고, 추출한 특징이 실제 정맥 특징인지 위조된 정맥 특징인지 판별한다.
도 2를 참조하면, CNN 구조는 일반적으로 두 가지 중요한 부분인 컨볼루션 레이어들(Convolution Layers)과 완전 연결 레이어들(Fully-connected Layers)로 구성된다. 각 컨볼루션 레이어는 입력된 영상의 특징을 조작하고 추출하여 이미지 특징 벡터 X={X_1,X_2,...,X_n}를 추출할 수 있다. 추출된 이미지 특징 벡터는 완전 연결 레이어에 입력되어 입력 이미지를 미리 정의된 범주로 분류된다. 본 발명의 일 실시 예에 따른 지정맥 인식 장치(100)는 상술한 CNN 구조를 변경하여 설계한 제1 CNN 모델 또는 제2 CNN 모델에 의해 지정맥 영상의 위조 여부를 판별할 수 있다. 여기서, 제1 CNN 모델은 Alex 네트워크를 기반으로 설계할 수 있고, 제2 CNN 모델은 VGG(Visual Geometry Group) 네트워크 기반으로 설계할 수 있다.
도 3을 참조하면, 제1 CNN 모델은 (1)입력 레이어(Input Layer), (2)5개의 컨볼루션 레이어(Convolution Layer) 집합, (3)2개의 완전 연결 레이어(Fully Connected Layer) 집합 및 (4)출력 레이어(Output Layer)를 포함한다.
(1) 입력 레이어는 미리 설정한 스케일의 지정맥 영상을 입력받는다. 이때, 지정맥 영상의 크기는 87×151×3 픽셀 크기일 수 있다.
(2) 5개의 컨볼루션 레이어 집합은 입력받은 지정맥 영상에 복수의 필터 마스크를 적용하여 컨볼루션 연산을 통해 이미지의 특징을 추출한다. 5개의 컨볼루션 레이어 집합 각각은 교정 선형 유닛((Rectified Linear Unit); 이하 ReLU)레이어와 함께하고, 정규화(Normalization) 레이어 및 맥스 풀링(Max Pooling) 레이어를 포함할 수 있다.
5개의 컨볼루션 레이어 집합에서 제1 컨볼루션 레이어는 87×151×3 픽셀의 이미지가 입력되며, 11×11×3 크기의 96개의 필터를 이용하여 2 픽셀 간격으로 컨볼루션화될 수 있다. 이 경우 필터당 가중치 크기는 11×11×3=363이고, 제1 컨볼루션 레이어에서 전체 파라미터의 수는(121+1)×363 = 44286이며, 여기서, 1은 바이어스(bias)를 나타낸다. 제1 컨볼루션 레이어에서 특징 맵의 크기는 39×71×96이고, 39 및 71은 출력 높이 및 너비이다. 출력 높이(또는 너비)는 입력 높이(또는 너비) - 필터 높이(또는 너비) + 2 × 패딩)/스트라이드 +1 의 식을 이용하여 산출될 수 있다. 출력들은 ReLU 레이어 및 정규화 레이어를 거친다. 여기서, ReLU 레이어는 0을 기준으로 입력된 값이 0보다 작을 경우는 모두 0으로 설정하는 임계 연산을 수행한다. 이에, ReLU 레이어는 연산을 단순화하여 심층 네트워크의 학습 속도를 증가시키는데 도움이 된다. 정규화 레이어의 출력맵은 제1 맥스 풀링 레이어에 의해 3×3 크기의 1개의 필터를 이용하여 2 픽셀 간격으로 처리된 후 다운샘플링된다. 제1 맥스 풀링 레이어에서의 출력은 출력 높이(또는 너비)= 입력 높이(또는 너비)- 필터 높이(또는 너비) + 2 × 패딩)/스트라이드 + 1 등식에 의해 39(=((87 - 11 + 2 × 0)/ 2 + 1))×71(=((151 - 11 + 2 × 0) / 2 + 1))× 96로 계산된다. 이후, 제2 컨볼루션 레이어에서 5×5×96 크기의 128개의 필터를 이용하여 1 픽셀 간격으로 2 패딩씩 컨볼루션화하고, ReLU 레이어 및 정규화 레이어를 거쳐 3×3 크기의 필터를 가지는 제2 맥스 풀링 레이어를 적용하여 2 픽셀 간격으로 특징 맵의 크기를 축소한다. 제3 컨볼루션 레이어 및 제4 컨볼루션 레이어는 3×3×128 크기의 필터 192개를 이용하여 1 픽셀 간격으로 1 패딩씩 컨볼루션화하고, ReLU 레이어를 적용한다. 다음 제5 컨볼루션 레이어가 1 픽셀 간격으로 1 패딩씩 3×3×256 크기의 필터를 128개 적용하고, ReLU 레이어 및 정규화 레이어를 거쳐 3×3 크기의 필터를 가지는 제3 맥스 풀링 레이어를 2 픽셀 간격으로 적용하여 4×8×128 픽셀 크기의 출력맵을 출력한다.
(3) 2개의 완전 연결 레이어(Fully Connected Layer)은 컨볼루션 레이어의 연산 결과를 1차원 행렬이 되도록 복수의 노드로 연결하여 특징을 축소한다. 제1 완전 연결 레이어 집합들에는 완전 연결 레이어 및 ReLU 레이어를 포함할 수 있고, 제2 완전 연결 레이어 집합은 완전 연결 레이어, ReLU 레이어 및 드롭아웃(Drop out) 레이어가 삽입될 수 있다. 이 때, 제1 완전 연결 레이어는 768 및 2048 노드들을 입력 및 출력으로 각각 가질 수 있고, 드롭아웃 레이어가 적용되어 무작위로 미리 설정된 확률에 기초하여 각각의 숨겨진 노드의 출력을 0으로 설정할 수 있다. 여기서, 미리 설정된 확률은 0.50일 수 있다. 제1 완전 연결 레이어는 드롭아웃 적용 후 ReLU 레이어를 적용할 수 있다. 제2 완전 연결 레이어는 2048 및 1024 노드들을 입력 및 출력으로 각각 가질 수 있다. 여기서 제2 완전 연결 레이어는 ReLU 레이어를 적용 후 드롭아웃 레이어를 적용할 수 있다.
(4) 출력 레이어는 제2 완전 연결 레이어에서 출력된 특징을 소프트맥스(Softmax) 레이어를 통해 두 개의 클래스로 분류한다. 예를 들면 두 개의 클래스 각각은 실제 특징 클래스 및 위조된 특징 클래스일 수 있다.
도 4를 참조하면, 제2 CNN 모델은 (1)입력 레이어(Input Layer), (2)13개의 컨볼루션 레이어(Convolution Layer) 집합, (3)2개의 완전 연결 레이어(Fully Connected Layer) 집합 및 (4)출력 레이어(Output Layer)을 포함한다.
(1) 입력 레이어는 미리 지정된 지정맥 영상을 입력받는다. 이때, 지정맥 영상의 크기는 128×256×3 픽셀 크기일 수 있다.
(2) 13개의 컨볼루션 레이어 집합은 입력받은 지정맥 영상에 복수의 필터 마스크를 적용하여 컨볼루션 연산을 통해 이미지의 특징을 추출한다. 13개의 컨볼루션 레이어 각각은 교정 선형 유닛((Rectified Linear Unit); 이하 ReLU)레이어 및 맥스 풀링(Max Pooling) 레이어를 포함할 수 있다.
13개의 컨볼루션 레이어 집합에서 제1-1 컨볼루션 레이어는 128×256×3 픽셀의 이미지가 입력되며, 3×3×3 크기의 32개의 필터를 이용하여 1 픽셀 간격으로 1 패딩씩 컨볼루션화될 수 있다. 이 경우 필터당 가중치 크기는 3×3×3=27이고, 제1 컨볼루션 레이어에서 전체 파라미터의 수는(9+1)×27 = 270이며, 여기서, 1은 바이어스(bias)를 나타낸다. 제1-1 컨볼루션 레이어에서 특징 맵의 크기는 128×256×32이고, 128 및 256은 출력 높이 및 너비이다. 출력 높이(또는 너비)는 입력 높이(또는 너비) - 필터 높이(또는 너비) + 2 × 패딩)/스트라이드 + 1 의 식을 이용하여 산출될 수 있다. 출력들은 ReLU 레이어를 거쳐 0을 기준으로 입력된 값이 0보다 작을 경우는 모두 0으로 설정하는 임계 연산을 수행한다. 이에, ReLU 레이어는 연산을 단순화하여 심층 네트워크의 학습 속도를 증가시키는데 도움이 된다. ReLU 레이어의 출력맵은 제1-2 컨볼루션 레이어에서 3×3×32 크기의 32개의 필터를 이용하여 1 픽셀 간격으로 1 패딩씩 컨볼루션화하고, ReLU 레이어를 거친다. ReLU 레이어의 출력맵은 제1 맥스 풀링 레이어에 의해 2×2 크기의 1개의 필터를 이용하여 2 픽셀 간격으로 처리된 후 다운샘플링된다. 제1 맥스 풀링 레이어에서의 출력은 출력 높이(또는 너비)= 입력 높이(또는 너비)- 필터 높이(또는 너비) + 2 × 패딩)/스트라이드 +1 등식에 의해 64(=((128 - 2 + 2 × 0)/ 2 + 1))×128(= ((256 - 2 + 2 × 0) / 2 + 1))×32로 계산된다. 제2-1 컨볼루션 레이어는 64×128×64 픽셀의 이미지가 입력되며, 3×3×32 크기의 64개의 필터를 이용하여 1 픽셀 간격으로 1 패딩씩 컨볼루션화된다. 제2-1 컨볼루션 레이어의 출력은 ReLU 레이어 거쳐 제2-2 컨볼루션 레이어에 입력된다. 제2-2 컨볼루션 레이어는 3×3×64 크기의 64개의 필터를 이용하여 1 픽셀 간격으로 1 패딩씩 컨볼루션화된다. 제2-2 컨볼루션 레이어의 출력은 제2 맥스 풀링 레이어에 의해 2×2 크기의 1개의 필터를 이용하여 2 픽셀 간격으로 처리된 후 다운샘플링된다. 제3-1 컨볼루션 레이어는 32×64×128 픽셀의 이미지가 입력되며, 3×3×64 크기의 128개의 필터를 이용하여 1 픽셀 간격으로 1패딩씩 컨볼루션화된다. 제3-1 컨볼루션 레이어의 출력은 ReLU 레이어 거쳐 제3-2 컨볼루션 레이어에 입력된다. 제3-2 컨볼루션 레이어는 3×3×128 크기의 128개의 필터를 이용하여 1 픽셀 간격으로 1 패딩씩 컨볼루션화된다. 제3-2 컨볼루션 레이어의 출력은 ReLU 레이어 거쳐 제3-3 컨볼루션 레이어에 입력된다. 제3-3 컨볼루션 레이어는 3×3×128 크기의 128개의 필터를 이용하여 1 픽셀 간격으로 1 패딩씩 컨볼루션화된다. 제3-3 컨볼루션 레이어의 출력은 제3 맥스 풀링 레이어에 의해 2×2 크기의 1개의 필터를 이용하여 2 픽셀 간격으로 처리된 후 다운샘플링된다.
제4-1 컨볼루션 레이어는 16×32×128 픽셀의 이미지가 입력되며, 3×3×128 크기의 256개의 필터를 이용하여 1 픽셀 간격으로 1패딩씩 컨볼루션화된다. 제4-1 컨볼루션 레이어의 출력은 ReLU 레이어 거쳐 제4-2 컨볼루션 레이어에 입력된다. 제4-2 컨볼루션 레이어는 3×3×256 크기의 256개의 필터를 이용하여 1 픽셀 간격으로 1 패딩씩 컨볼루션화된다. 제4-2 컨볼루션 레이어의 출력은 ReLU 레이어 거쳐 제4-3 컨볼루션 레이어에 입력된다. 제4-3 컨볼루션 레이어는 3×3×256 크기의 256개의 필터를 이용하여 1 픽셀 간격으로 1 패딩씩 컨볼루션화된다. 제4-3 컨볼루션 레이어의 출력은 제4 맥스 풀링 레이어에 의해 2×2 크기의 1개의 필터를 이용하여 2 픽셀 간격으로 처리된 후 다운샘플링된다. 제5-1 컨볼루션 레이어는 8×16×256 픽셀의 이미지가 입력되며, 3×3×256 크기의 256개의 필터를 이용하여 1 픽셀 간격으로 1 패딩씩 컨볼루션화된다. 제5-1 컨볼루션 레이어의 출력은 ReLU 레이어 거쳐 제5-2 컨볼루션 레이어에 입력된다. 제5-2 컨볼루션 레이어는 3×3×256 크기의 256개의 필터를 이용하여 1 픽셀 간격으로 1 패딩씩 컨볼루션화된다. 제5-2 컨볼루션 레이어의 출력은 ReLU 레이어 거쳐 제5-3 컨볼루션 레이어에 입력된다. 제5-3 컨볼루션 레이어는 3×3×256 크기의 256개의 필터를 이용하여 1 픽셀 간격으로 1 패딩씩 컨볼루션화된다. 제5-3 컨볼루션 레이어의 출력은 제5 맥스 풀링 레이어에 의해 2×2 크기의 1개의 필터를 이용하여 2 픽셀 간격으로 처리된 후 다운샘플링된다.
(3) 2개의 완전 연결 레이어(Fully Connected Layer)은 컨볼루션 레이어의 연산 결과를 1차원 행렬이 되도록 복수의 노드로 연결하여 특징을 축소한다. 제1 완전 연결 레이어 및 제2 완전 연결 레이어는 ReLU 레이어를 적용 후 드롭아웃 레이어를 적용할 수 있다. 이 때, 제1 완전 연결 레이어는 768 및 2048 노드들을 입력 및 출력으로 각각 가질 수 있고, 드롭아웃 레이어가 적용되어 무작위로 미리 설정된 확률에 기초하여 각각의 숨겨진 노드의 출력을 0으로 설정할 수 있다. 여기서, 미리 설정된 확률은 0.50일 수 있다. 제2 완전 연결 레이어는 2048 및 1024 노드들을 입력 및 출력으로 각각 가질 수 있고, 드롭아웃 레이어가 적용되어 무작위로 미리 설정된 확률에 기초하여 각각의 숨겨진 노드의 출력을 0으로 설정할 수 있다. 여기서, 미리 설정된 확률은 0.50일 수 있다.
(4) 출력 레이어는 제2 완전 연결 레이어에서 출력된 특징을 소프트맥스(Softmax) 레이어를 통해 두 개의 클래스로 분류한다. 예를 들면 두 개의 클래스 각각은 실제 특징 클래스 및 위조된 특징 클래스일 수 있다.
도 5를 참조하면, 본 발명의 일 실시 예에 따른 위조 판단부(140)는 특징 추출부(141), 특징 선택부(142) 및 특징 분류부(143)를 포함할 수 있다.
특징 추출부(141)는 기 학습한 CNN 모델을 이용하여 지정맥 영상의 특징을 추출한다. 예를 들면, 특징 추출부(141)는 상술한 CNN 모델의 입력 레이어(Input Layer) 및 컨볼루션 레이어(Convolution Layer)을 통해 입력된 지정맥 영상의 특징을 추출할 수 있다. 본 발명의 일 실시 예에 따른 지정맥 인식 장치(100)는 LBP, BSIF, windowed DMD(dynamic mode decomposition), 피라미드 분해, 푸리에 기술자, 웨이블릿 디스크립터와 같은 기존의 특징 추출 방법과는 달리 훈련 과정에 의해 생성된 CNN 모델을 통해 특징을 추출함으로써, 지정맥 영상의 위조 여부를 판단하기에 적합한 특징을 추출하는 것이 가능하다.
특징 선택부(142)는 추출한 지정맥 영상의 특징에서 주성분 분석(Principal Component Analysis; 이하 PCA)을 통해 최적 특징을 선택한다. CNN 모델을 통해 추출한 지정맥 영상의 특징들은 매우 높은 차원(약 4,000개 이상의 구성 요소)를 갖는다. 이에, 특징 선택부(142)는 지정맥 특징의 차원을 축소함으로써 최적 특징을 선택할 수 있다.
특징 분류부(143)는 선택한 최적 특징을 서포트 벡터 머신(Support Vector Machine; 이하 SVM)을 통해 학습하여 실제 특징 클래스 또는 위조된 특징 클래스로 분류한다. 특징 분류부(143)는 식(2) 내지 식(4)과 같이 세가지 종류의 SVM 커널 함수를 식(1)에 적용하여 특징을 분류한다. 여기서 식(2)는 선형 커널(Linear kernel), 식(3)은 방사형 기본함수(RBF kernel), 식(4)는 다항식 커널(Polynomial kernel)을 나타낸다.
Figure pat00001
지정맥 인식부(150)는 추출한 특징이 실제 정맥 특징으로 판단된 경우에 지정맥 인식을 수행한다.
도 6 내지 도 7은 본 발명의 일 실시 예에 따른 CNN(Convolutional Neural Network) 모델을 지정맥 영상의 특징 추출 용도로 사용하여 위조 여부를 판별하는 지정맥 인식 방법을 설명하기 위한 도면들이다.
도 6을 참조하면, 단계 S710에서 지정맥 인식 장치(100)는 손가락 내부의 정맥 패턴을 촬영하여 생성된 지정맥 영상을 입력받는다.
단계 S720에서 지정맥 인식 장치(100)는 입력된 지정맥 영상에서 관심 영역을 설정하고, 설정한 관심 영역의 크기 및 픽셀 밝기를 정규화하여 전처리한다.
도 7을 참조하면, 지정맥 인식 장치(100)는 (a)실제 지정맥 영상 또는 (b)실제 지정맥 영상을 위조한 영상을 입력받아 배경영역을 제거하고, 관심 영역을 설정하여 미리 지정한 픽셀 크기로 (c) 또는 (d)와 같이 정규화할 수 있다. 또한, 지정맥 인식 장치(100)는 크기가 정규화된 지정맥 영상에 제로 평균 정규화를 적용하여 영상의 픽셀 밝기를 정규화할 수 있다. 예를 들면, 지정맥 인식 장치(100)는 0~255 사이의 픽셀 밝기를 -127~127 또는 -1~1사이의 범위가 되도록 정규화할 수 있다.
단계 S730에서 지정맥 인식 장치(100)는 기 학습한 CNN 모델을 이용하여 지정맥 영상의 특징을 추출한다. 여기서 CNN 모델은 앞서 도 4 및 도 5에서 설명한 바와 같다.
단계 S740에서 지정맥 인식 장치(100)는 추출한 지정맥 영상의 특징에서 주성분 분석을 통해 최적 특징을 선택한다. 예를 들면, 지정맥 인식 장치(100)는 지정맥 특징의 차원을 축소함으로써 최적 특징을 선택할 수 있다.
단계 S750에서 지정맥 인식 장치(100)는 선택한 최적 특징을 서포트 벡터 머신(Support Vector Machine)을 통해 학습하여 실제 특징 클래스 또는 위조된 특징클래스로 분류한다. 이때, 지정맥 인식 장치(100)는 선형 커널(Linear kernel), 방사형 기본함수(RBF kernel) 및 다항식 커널(Polynomial kernel) 중 적어도 하나를 사용하여 최적 특징을 실제 특징 클래스 또는 위조된 특징 클래스로 분류할 수 있다.
단계 S760에서 지정맥 인식 장치(100)는 최적 특징이 위조된 특징 클래스로 분류된 경우에 입력된 지정맥 영상이 위조되었음을 알려준다.
단계 S770에서 지정맥 인식 장치(100)는 최적 특징이 실제 지정맥 영상 클래스로 분류된 경우에 지정맥 인식을 수행한다.
도 8은 본 발명의 일 실시 예에 따른 CNN(Convolutional Neural Network) 모델을 지정맥 영상의 특징 추출 및 위조 판단하는 용도로 사용하는 지정맥 인식 방법을 설명하기 위한 도면이다.
도 8을 참조하면, 단계 S810에서 지정맥 인식 장치(100)는 손가락 내부의 정맥 패턴을 촬영하여 생성된 지정맥 영상을 입력받는다.
단계 S820에서 지정맥 인식 장치(100)는 입력된 지정맥 영상에서 관심 영역을 설정하고, 설정한 관심 영역의 크기 및 픽셀 밝기를 정규화하여 전처리한다.
단계 S830에서 지정맥 인식 장치(100)는 기 학습한 CNN 모델을 이용하여 지정맥 영상의 위조 여부를 판별한다. 여기서 CNN 모델은 앞서 도 4 및 도 5에서 설명한 바와 같다.
단계 S840에서 지정맥 인식 장치(100)는 입력된 지정맥 영상이 위조 지정맥 으로 분류될 경우에 경보 신호를 출력한다.
단계 S850에서 지정맥 인식 장치(100)는 입력된 지정맥 영상이 실제 지정맥 으로 분류될 경우에 지정맥 인식을 수행한다.
도 9 내지 도 13은 본 발명의 일 실시 예에 따른 지정맥 인식 장치의 성능 평가를 위해 구축한 데이터베이스를 설명하기 위한 도면들이다.
본 발명은 학습 및 검증을 위해 세 가지 데이터베이스를 사용하였다. 도 9를 참조하면, 첫 번째 데이터베이스는 자체적으로 구축한 ISPR DB로, 실제 지정맥(Real Access)을 촬영하여 생성한 총3,300장(33명×10손가락×10회)의 지정맥 영상 데이터 셋과 실제 지정맥 영상을 위조(Presentation Attack Access)하여 생성한 총7,560장의 위조 영상(Printer Resolution) 데이터 셋으로 구성된다. 도 10을 참조하면, 위조 영상 데이터베이스는 실제 지정맥 영상을 인쇄 용지의 재질(Material)을 달리하여 A4 용지, MAT 용지, OHP 필름에 출력한 경우와, 인쇄 해상도(Printer Resolution)를 달리하여 300dpi, 1200dpi, 2400dpi로 출력한 경우에 따라 하위 데이터베이스를 구축하였다.
도 11을 참조하면, ISPR DB의 학습 데이터 셋(Train set)은 원본 지정맥 영상에서 인위적으로 픽셀 이동 및 잘라내기 방법을 사용하여 데이터 수를 확장하였다. 최종적으로 본 발명은 112,260장의 학습 데이터 셋과 56,160장의 검증 데이터 셋(Test set)을 이용하여 학습 및 검증을 수행하였다.
도 12의 (a)를 참조하면, 두 번째 데이터베이스는 공개된 Idiap Full-DB를 사용하였고, 세 번째 데이터베이스는 Idiap Full-DB의 지정맥 영상에서 일부 잘라내어 생성한 영상으로 Idiap Cropped-DB를 구성하였다.
도 12의 (b)를 참조하면, Idiap Full-DB 및 Idiap Cropped-DB의 학습 데이터 셋은 원본 지정맥 영상에서 인위적으로 픽셀 이동 및 잘라내기 방법을 사용하여 데이터 수를 확장하였다. 최종적으로 본 발명은 14,640장의 학습 데이터 셋과 400장의 검증 데이터 셋을 이용하여 추가적으로 학습 및 검증을 수행하였다.
도 13을 참조하면, Idiap Full-DB에서 실제 지정맥 영상은 (a)와 같고, 이를 정규화한 영상은 (b)와 같다. Idiap Full-DB에서 실제 지정맥 영상을 위조한 지정맥 영상은 (c)와 같고, 이를 정규화한 영상은 (d)와 같다.
성능 평가 방법은 국제 표준화기구(ISO) 및 국제 전기 기술 위원회(IEC-30107)에서 제안된 표준 방법을 참조하여 하기 식(5) 내지 식(7)과 같이 APCER(attack presentation classification error rate), BPCER(bona fide presentation classification error rate) 및 NPCER(normal presentation classification error rate)을 사용하였다. 식(5) 및 식(6)에서 N PA N BF 는 각각 위조 데이터로 분류된 개수 및 실제 데이터로 분류된 개수를 의미하며, RES i는 i번째 영상이 위조 데이터로 분류되면 1의 값을 취하고, 실제 데이터로 분류되면 0의 값을 취한다. 식(7)에서 ACER은 APCER과 BPCER의 평균이다.
Figure pat00002
도 14 내지 도 16은 본 발명의 일 실시 예에 따른 지정맥 인식 방법과 기존에 연구된 지정맥 인식 방법의 인식 성능 오류율를 비교한 도면들이다.
비교 결과, 도 6에서 상술한 본 발명의 지정맥 인식 방법의 ACER은 모든 실험 결과에서 기존에 연구된 지정맥 인식 방법의 ACER 보다 낮은 값을 보이므로 위조 데이터 검출 성능이 우수함을 확인할 수 있다.
본 발명의 실시 예에 따른 지정맥 인식 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 또한, 상술한 매체는 프로그램 명령, 데이터 구조 등을 지정하는 신호를 전송하는 반송파를 포함하는 광 또는 금속선, 도파관 등의 전송 매체일 수도 있다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이제까지 본 발명에 대하여 그 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
100: 지정맥 인식 장치
110: 촬영부
120: 입력부
130: 전처리부
140: 위조 판단부
150: 지정맥 인식부

Claims (15)

  1. 지정맥 인식 장치에 있어서,
    손가락 내부의 정맥 패턴을 촬영하여 생성된 지정맥 영상을 입력받는 입력부;
    입력된 지정맥 영상에서 관심 영역을 설정하여 미리 지정한 크기로 정규화하고, 정규화된 지정맥 영상에 제로 평균 정규화(zero-mean normalization)를 적용하여 픽셀 밝기를 보정하는 전처리부;
    기 학습한 컨볼루셔널 뉴럴네트워크(Convolutional Neural Network; 이하 CNN) 모델을 이용하여 지정맥 영상의 특징을 추출하고, 추출한 특징이 실제 특징인지 위조된 특징인지 판별하는 위조 판단부; 및
    추출한 특징이 실제 특징으로 판단된 경우에 지정맥 인식을 수행하는 지정맥 인식부를 포함하는 지정맥 인식 장치.
  2. 제1항에 있어서,
    상기 위조 판단부는
    기 학습한 CNN 모델을 이용하여 지정맥 영상의 특징을 추출하는 특징 추출부;
    추출한 지정맥 영상의 특징에서 주성분 분석(Principal Component Analysis)을 통해 최적 특징을 선택하는 특징 선택부; 및
    선택한 최적 특징을 서포트 벡터 머신(Support Vector Machine)을 통해 학습하여 실제 특징 클래스 또는 위조된 특징 클래스로 분류하는 특징 분류부를 포함하는 지정맥 인식 장치.
  3. 제1항에 있어서,
    상기 위조 판단부는
    5개의 컨볼루션 레이어 집합 및 2개의 완전 연결 레이어 집합으로 구성된 제1 CNN 모델 또는 13개의 컨볼루션 레이어 집합 및 2개의 완전 연결 레이어 집합으로 구성된 제2 CNN 모델 중 적어도 하나를 이용하여 입력된 지정맥 영상의 위조 여부를 판단하되,
    상기 제1 CNN 모델 및 제2 CNN 모델은 지정맥 영상의 특징을 실제 특징 클래스 또는 위조된 특징 클래스로 분류하는 출력 레이어를 더 포함하는 지정맥 인식 장치.
  4. 제3항에 있어서,
    상기 5개의 컨볼루션 레이어 집합은
    87×151×3 픽셀의 이미지가 입력되며, 11×11×3 크기의 96개의 필터를 이용하여 2 픽셀 간격으로 컨볼루션화하는 제1 컨볼루션 레이어, 교정 선형 유닛(Rectified Linear Unit) 레이어, 정규화(Normalization) 레이어 및 3×3 크기의 필터를 1개를 2 픽셀 간격으로 적용하여 19×35×96 픽셀의 특징맵을 출력하는 제1 맥스 풀링 레이어로 구성된 제1 컨볼루션 레이어 집합;
    상기 제1 컨볼루션 레이어 집합에서 출력된 19×35×96 픽셀의 특징맵에 5×5×96 크기의 128개의 필터를 1 픽셀 간격으로 2패딩씩 컨볼루션화하는 제2 컨볼루션 레이어, 교정 선형 유닛 레이어, 정규화 레이어 및 3×3 크기의 필터를 1개를 2 픽셀 간격으로 적용하여 9×17×128 픽셀의 특징맵을 출력하는 제2 맥스 풀링 레이어로 구성된 제2 컨볼루션 레이어 집합;
    상기 제2 컨볼루션 레이어 집합에서 출력된 9×17×128 픽셀의 특징맵에 3×3×128 크기의 필터 192개를 이용하여 1 픽셀 간격으로 2 패딩씩 컨볼루션화하는 제3 컨볼루션 레이어 및 교정 선형 유닛 레이어로 구성된 제3 컨볼루션 레이어 집합;
    상기 제3 컨볼루션 레이어 집합에서 출력된 9×17×192 픽셀의 특징맵에 3×3×256 크기의 필터 192개를 이용하여 1 픽셀 간격으로 1 패딩씩 컨볼루션화하는 제4 컨볼루션 레이어 및 교정 선형 유닛 레이어로 구성된 제4 컨볼루션 레이어 집합; 및
    상기 제4 컨볼루션 레이어 집합에서 출력된 9×17×192 픽셀의 특징맵에 3×3×256 크기의 128개의 필터를 1 픽셀 간격으로 1 패딩씩 컨볼루션화하는 제5 컨볼루션 레이어, 교정 선형 유닛 레이어, 정규화 레이어 및 3×3 크기의 필터를 1개를 2 픽셀 간격으로 적용하여 4×8×128 픽셀의 특징맵을 출력하는 제3 맥스 풀링 레이어로 구성된 5 컨볼루션 레이어 집합;을 포함하는 지정맥 인식 장치.
  5. 제3항에 있어서,
    상기 2개의 완전 연결 레이어 집합은
    768 및 2048 노드들을 각각 입력 및 출력으로 하는 제1 완전 연결 레이어 및
    2048 및 1024 노드들을 각각 입력 및 출력으로 하는 제2 완전 연결 레이어를 포함하되,
    상기 제1 완전 연결 레이어 및 제2 완전 연결 레이어는
    드롭아웃 레이어가 적용되어 0.50 확률에 기초하여 각각의 숨겨진 노드의 출력을 0으로 설정하는 지정맥 인식 장치.
  6. 제3항에 있어서,
    상기 13개의 컨볼루션 레이어 집합은
    128×256×3 픽셀의 이미지가 입력되며, 3×3×3 크기의 32개의 필터를 이용하여 1 픽셀 간격으로 1 패딩씩 컨볼루션화하는 제1-1 컨볼루션 레이어, 교정 선형 유닛(Rectified Linear Unit) 레이어로 구성된 제1 컨볼루션 레이어 집합;
    상기 제1 컨볼루션 레이어 집합에서 출력된 128×256×32 픽셀의 특징맵에 3×3×32 크기의 32개의 필터를 1 픽셀 간격으로 1 패딩씩 컨볼루션화하는 제1-2 컨볼루션 레이어, 교정 선형 유닛 레이어 및 2×2 크기의 필터를 1개를 2 픽셀 간격으로 적용하여 64×128×32 픽셀의 특징맵을 출력하는 제1 맥스 풀링 레이어로 구성된 제2 컨볼루션 레이어 집합;
    상기 제2 컨볼루션 레이어 집합에서 출력된 64×128×64 픽셀의 특징맵에 3×3×32 크기의 64개의 필터를 이용하여 1 픽셀 간격으로 1 패딩씩 컨볼루션화하는 제2-1 컨볼루션 레이어, 교정 선형 유닛(Rectified Linear Unit) 레이어로 구성된 제3 컨볼루션 레이어 집합; 및
    상기 제3 컨볼루션 레이어 집합에서 출력된 64×128×64 픽셀의 특징맵에 3×3×64 크기의 64개의 필터를 1 픽셀 간격으로 1 패딩씩 컨볼루션화하는 제2-2 컨볼루션 레이어, 교정 선형 유닛 레이어 및 2×2 크기의 필터를 1개를 2 픽셀 간격으로 적용하여 32×64×64 픽셀의 특징맵을 출력하는 제2 맥스 풀링 레이어로 구성된 제4 컨볼루션 레이어 집합을 포함하는 지정맥 인식 장치.
  7. 제3항에 있어서,
    상기 13개의 컨볼루션 레이어 집합은
    제4 컨볼루션 레이어 집합에서 출력된 32×64×64 픽셀의 특징맵에 3×3×64 크기의 필터 128개를 이용하여 1 픽셀 간격으로 1 패딩씩 컨볼루션화하는 제3-1 컨볼루션 레이어 및 교정 선형 유닛 레이어로 구성된 제5 컨볼루션 레이어 집합;
    상기 제5 컨볼루션 레이어에서 출력된 32×64×128 픽셀의 특징맵에 3×3×128 크기의 필터 128개를 이용하여 1 픽셀 간격으로 1 패딩씩 컨볼루션화하는 제3-2 컨볼루션 레이어 및 교정 선형 유닛 레이어로 구성된 제6 컨볼루션 레이어 집합; 및
    상기 제6 컨볼루션 레이어 집합에서 출력된 32×64×128 픽셀의 특징맵에 3×3×128 크기의 128개의 필터를 1 픽셀 간격으로 1 패딩씩 컨볼루션화하는 제3-3 컨볼루션 레이어, 교정 선형 유닛 레이어 및 2×2 크기의 필터를 1개를 2 픽셀 간격으로 적용하여 16×32×128 픽셀의 특징맵을 출력하는 제3 맥스 풀링 레이어로 구성된 제7 컨볼루션 레이어 집합을 더 포함하는 지정맥 인식 장치.
  8. 제3항에 있어서,
    상기 13개의 컨볼루션 레이어 집합은
    제7 컨볼루션 레이어에서 출력된 16×32×128 픽셀의 특징맵에 3×3×128 크기의 필터 256개를 이용하여 1 픽셀 간격으로 1 패딩씩 컨볼루션화하는 제4-1 컨볼루션 레이어 및 교정 선형 유닛 레이어로 구성된 제8 컨볼루션 레이어 집합;
    상기 제8 컨볼루션 레이어에서 출력된 16×32×256 픽셀의 특징맵에 3×3×256 크기의 필터 256개를 이용하여 1 픽셀 간격으로 1 패딩씩 컨볼루션화하는 제4-2 컨볼루션 레이어 및 교정 선형 유닛 레이어로 구성된 제9 컨볼루션 레이어 집합; 및
    상기 제9 컨볼루션 레이어 집합에서 출력된 16×32×256 픽셀의 특징맵에 3×3×256 크기의 256개의 필터를 1 픽셀 간격으로 1 패딩씩 컨볼루션화하는 제4-3 컨볼루션 레이어, 교정 선형 유닛 레이어 및 2×2 크기의 필터를 1개를 2 픽셀 간격으로 적용하여 8×16×256 픽셀의 특징맵을 출력하는 제4 맥스 풀링 레이어로 구성된 제10 컨볼루션 레이어 집합을 더 포함하는 지정맥 인식 장치.
  9. 제3항에 있어서,
    상기 13개의 컨볼루션 레이어 집합은
    제10 컨볼루션 레이어에서 출력된 8×16×256 픽셀의 특징맵에 3×3×256 크기의 필터 256개를 이용하여 1 픽셀 간격으로 1 패딩씩 컨볼루션화하는 제5-1 컨볼루션 레이어 및 교정 선형 유닛 레이어로 구성된 제11 컨볼루션 레이어 집합;
    상기 제11 컨볼루션 레이어에서 출력된 8×16×256 픽셀의 특징맵에 3×3×256 크기의 필터 256개를 이용하여 1 픽셀 간격으로 1 패딩씩 컨볼루션화하는 제5-2 컨볼루션 레이어 및 교정 선형 유닛 레이어로 구성된 제12 컨볼루션 레이어 집합; 및
    상기 제12 컨볼루션 레이어 집합에서 출력된 8×16×256 픽셀의 특징맵에 3×3×256 크기의 256개의 필터를 1 픽셀 간격으로 1 패딩씩 컨볼루션화하는 제5-3 컨볼루션 레이어, 교정 선형 유닛 레이어 및 2×2 크기의 필터를 1개를 2 픽셀 간격으로 적용하여 4×8×256 픽셀의 특징맵을 출력하는 제5 맥스 풀링 레이어로 구성된 제13 컨볼루션 레이어 집합을 더 포함하는 지정맥 인식 장치.
  10. 지정맥 인식 장치가 지정맥을 인식하는 방법에 있어서,
    손가락 내부의 정맥 패턴을 촬영하여 생성된 지정맥 영상을 입력받는 단계;
    입력된 지정맥 영상에서 관심 영역을 설정하고, 설정한 관심 영역의 크기 및 픽셀 밝기를 정규화하여 전처리하는 단계;
    기 학습한 컨볼수셔널 뉴럴네트워크(Convolutional Neural Network; 이하 CNN) 모델을 이용하여 지정맥 영상의 특징을 추출하는 단계;
    추출한 지정맥 영상의 특징에서 주성분 분석(Principal Component Analysis)을 통해 최적 특징을 선택하는 단계;
    선택한 최적 특징을 서포트 벡터 머신(Support Vector Machine)을 통해 학습하여 실제 특징 클래스 또는 위조된 특징 클래스로 분류하는 단계;
    최적 특징이 위조된 특징 클래스로 분류된 경우에 경보 신호를 출력하는 단계; 및
    최적 특징이 실제 특징 클래스로 분류된 경우에 지정맥 인식을 수행하는 단계를 포함하는 지정맥 인식 방법.
  11. 지정맥 인식 장치가 지정맥을 인식하는 방법에 있어서,
    손가락 내부의 정맥 패턴을 촬영하여 생성된 지정맥 영상을 입력받는 단계;
    입력된 지정맥 영상에서 관심 영역을 설정하고, 설정한 관심 영역의 크기 및 픽셀 밝기를 정규화하여 전처리하는 단계;
    기 학습한 CNN 모델을 기반으로 지정맥 영상의 특징을 추출하고, 추출한 특징을 실제 특징 클래스 또는 위조된 특징 클래스로 분류하는 단계;
    최적 특징이 위조된 특징 클래스로 분류된 경우에 경보 신호를 출력하는 단계; 및
    최적 특징이 실제 특징 클래스로 분류된 경우에 지정맥 인식을 수행하는 단계를 포함하는 지정맥 인식 방법.
  12. 상기 제10항 및 제11항에 있어서,
    상기 기 학습한 CNN 모델을 기반으로 지정맥 영상의 특징을 추출하고, 추출한 특징을 실제 특징 클래스 또는 위조된 특징 클래스로 분류하는 단계는
    5개의 컨볼루션 레이어 집합 및 2개의 완전 연결 레이어 집합으로 구성된 제1 CNN 모델 또는 13개의 컨볼루션 레이어 집합 및 2개의 완전 연결 레이어 집합으로 구성된 제2 CNN 모델 중 적어도 하나를 이용하여 입력된 지정맥 영상의 위조 여부를 판단하되,
    상기 제1 CNN 모델 및 제2 CNN 모델은 지정맥 영상의 특징을 실제 특징 클래스 또는 위조된 특징 클래스로 분류하는 출력 레이어를 더 포함하는 지정맥 인식 방법.
  13. 제10항 및 제11항에 있어서,
    상기 입력된 지정맥 영상에서 관심 영역을 설정하고, 설정한 관심 영역의 크기 및 픽셀 밝기를 정규화하여 전처리하는 단계는
    관심 영역을 설정하여 미리 지정한 크기로 정규화하고, 크기가 정규화된 지정맥 영상에 제로 평균 정규화(zero-mean normalization)를 적용하여 0~255 사이의 픽셀 밝기를 -127~127 또는 -1~1사이의 범위가 되도록 보정하는 지정맥 인식 방법.
  14. 제10항에 있어서,
    상기 선택한 최적 특징을 서포트 벡터 머신(Support Vector Machine)을 통해 학습하여 실제 특징 클래스 또는 위조된 특징 클래스로 분류하는 단계는
    선형 커널(Linear kernel), 방사형 기본함수(RBF kernel) 및 다항식 커널(Polynomial kernel) 중 적어도 하나를 사용하여 상기 최적 특징을 실제 특징 클래스 또는 위조된 특징 클래스로 분류하는 지정맥 인식 방법.
  15. 제10항 내지 제14항 중 어느 하나의 지정맥 인식 방법을 실행하고 컴퓨터가 판독 가능한 기록매체에 기록된 컴퓨터 프로그램.
KR1020170099023A 2017-08-04 2017-08-04 지정맥 인식 장치 및 방법 KR101991028B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170099023A KR101991028B1 (ko) 2017-08-04 2017-08-04 지정맥 인식 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170099023A KR101991028B1 (ko) 2017-08-04 2017-08-04 지정맥 인식 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20190014912A true KR20190014912A (ko) 2019-02-13
KR101991028B1 KR101991028B1 (ko) 2019-10-01

Family

ID=65366617

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170099023A KR101991028B1 (ko) 2017-08-04 2017-08-04 지정맥 인식 장치 및 방법

Country Status (1)

Country Link
KR (1) KR101991028B1 (ko)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111611856A (zh) * 2020-04-20 2020-09-01 杭州电子科技大学 一种基于top-k分块的加权近邻二值模式识别方法
KR20200106236A (ko) * 2019-02-26 2020-09-14 동국대학교 산학협력단 딥 러닝 기반의 지정맥을 이용한 생체 인식 장치 및 방법
WO2020226455A1 (ko) * 2019-05-08 2020-11-12 서울대학교산학협력단 안저 이미지를 이용한 시신경병증 예측 장치 및 시신경병증 예측 결과 제공 방법
WO2021027364A1 (zh) * 2019-08-13 2021-02-18 平安科技(深圳)有限公司 基于指静脉识别的身份验证方法和装置
CN112434574A (zh) * 2020-11-11 2021-03-02 西安理工大学 一种非受限状态下的指节纹识别方法
KR102286229B1 (ko) * 2020-02-19 2021-08-06 한국기술교육대학교 산학협력단 특징벡터 기반 싸움 이벤트 인식 방법
KR102293547B1 (ko) * 2021-03-08 2021-08-26 주식회사 에스아이에이 변화 탐지 방법 및 장치
KR20230026735A (ko) * 2021-08-18 2023-02-27 창원대학교 산학협력단 병렬 서브샘플링 구조를 가지는 cnn 기반 지정맥 인식 기법

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102278410B1 (ko) * 2020-11-17 2021-07-19 주식회사 클레스앤피 개인 건강 상태 동시 측정이 가능한 고성능 딥러닝 지정맥 인증 시스템 및 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004536367A (ja) * 2001-01-23 2004-12-02 バイオウルフ テクノロジーズ エルエルスィー コンピュータ利用画像分析
KR20090065026A (ko) * 2007-12-17 2009-06-22 상명대학교 산학협력단 지정맥을 이용한 생체 인식 방법
JP2017520864A (ja) * 2014-04-09 2017-07-27 エントルピー インコーポレーテッドEntrupy Inc. 微視的差異からの機械学習を使用する物体の真贋鑑定

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004536367A (ja) * 2001-01-23 2004-12-02 バイオウルフ テクノロジーズ エルエルスィー コンピュータ利用画像分析
KR20090065026A (ko) * 2007-12-17 2009-06-22 상명대학교 산학협력단 지정맥을 이용한 생체 인식 방법
JP2017520864A (ja) * 2014-04-09 2017-07-27 エントルピー インコーポレーテッドEntrupy Inc. 微視的差異からの機械学習を使用する物体の真贋鑑定

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200106236A (ko) * 2019-02-26 2020-09-14 동국대학교 산학협력단 딥 러닝 기반의 지정맥을 이용한 생체 인식 장치 및 방법
WO2020226455A1 (ko) * 2019-05-08 2020-11-12 서울대학교산학협력단 안저 이미지를 이용한 시신경병증 예측 장치 및 시신경병증 예측 결과 제공 방법
KR20200129440A (ko) * 2019-05-08 2020-11-18 서울대학교산학협력단 안저 이미지를 이용한 시신경병증 예측 장치 및 시신경병증 예측 결과 제공 방법
WO2021027364A1 (zh) * 2019-08-13 2021-02-18 平安科技(深圳)有限公司 基于指静脉识别的身份验证方法和装置
KR102286229B1 (ko) * 2020-02-19 2021-08-06 한국기술교육대학교 산학협력단 특징벡터 기반 싸움 이벤트 인식 방법
CN111611856A (zh) * 2020-04-20 2020-09-01 杭州电子科技大学 一种基于top-k分块的加权近邻二值模式识别方法
CN111611856B (zh) * 2020-04-20 2023-05-05 杭州电子科技大学 一种基于top-k分块的加权近邻二值模式识别方法
CN112434574A (zh) * 2020-11-11 2021-03-02 西安理工大学 一种非受限状态下的指节纹识别方法
CN112434574B (zh) * 2020-11-11 2024-04-09 西安理工大学 一种非受限状态下的指节纹识别方法
KR102293547B1 (ko) * 2021-03-08 2021-08-26 주식회사 에스아이에이 변화 탐지 방법 및 장치
KR20230026735A (ko) * 2021-08-18 2023-02-27 창원대학교 산학협력단 병렬 서브샘플링 구조를 가지는 cnn 기반 지정맥 인식 기법

Also Published As

Publication number Publication date
KR101991028B1 (ko) 2019-10-01

Similar Documents

Publication Publication Date Title
KR20190014912A (ko) 지정맥 인식 장치 및 방법
KR101862639B1 (ko) 나선 신경망 기법을 이용한 홍채 인식 장치 및 방법
Dua et al. Biometric iris recognition using radial basis function neural network
KR100846500B1 (ko) 확장된 가보 웨이브렛 특징 들을 이용한 얼굴 인식 방법 및장치
CN106934359B (zh) 基于高阶张量子空间学习的多视角步态识别方法及系统
US20080118113A1 (en) Method and apparatus for detecting eyes in face region
CN112580480B (zh) 一种高光谱遥感影像分类方法及装置
Agarwal et al. Enhanced binary hexagonal extrema pattern (EBH X EP) descriptor for iris liveness detection
KR102138652B1 (ko) 딥 러닝 기반의 지정맥 특징과 손가락 형태를 이용하는 생체 인식 장치 및 방법
KR101877683B1 (ko) 학습을 이용한 얼굴 인식 장치 및 방법
Serafim et al. A method based on convolutional neural networks for fingerprint segmentation
KR102174083B1 (ko) 딥 러닝 기반의 지정맥을 이용한 생체 인식 장치 및 방법
Kaur et al. A novel biometric system based on hybrid fusion speech, signature and tongue
Isaac et al. Image forgery detection using region–based Rotation Invariant Co-occurrences among adjacent LBPs
Mirzaei et al. Offline signature recognition using modular neural networks with fuzzy response integration
CN112861743A (zh) 一种掌静脉图像防伪方法、装置和设备
Alharbi et al. Spoofing Face Detection Using Novel Edge-Net Autoencoder for Security.
Solomon Face anti-spoofing and deep learning based unsupervised image recognition systems
Mohammed et al. Conceptual analysis of Iris Recognition Systems
CN116982093A (zh) 呈现攻击检测
Babalola et al. Dorsal hand vein biometrics with a novel deep learning approach for person identification
Devakumar et al. An intelligent approach for anti-spoofing in a multimodal biometric system
KR102151427B1 (ko) 홍채 인식 시스템을 위한 위조 공격 탐지 장치 및 방법
Liashenko et al. Investigation of the influence of image quality on the work of biometric authentication methods
CN117351579B (zh) 基于多源信息融合的虹膜活体检测方法及装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant