KR20220146996A - 지문 인식 장치 및 스마트 카드 - Google Patents

지문 인식 장치 및 스마트 카드 Download PDF

Info

Publication number
KR20220146996A
KR20220146996A KR1020210085496A KR20210085496A KR20220146996A KR 20220146996 A KR20220146996 A KR 20220146996A KR 1020210085496 A KR1020210085496 A KR 1020210085496A KR 20210085496 A KR20210085496 A KR 20210085496A KR 20220146996 A KR20220146996 A KR 20220146996A
Authority
KR
South Korea
Prior art keywords
fingerprint
input
input fingerprint
coordinates
image
Prior art date
Application number
KR1020210085496A
Other languages
English (en)
Inventor
이한솔
김덕수
배광혁
성열민
송문규
송성욱
이준서
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US17/569,059 priority Critical patent/US20220343672A1/en
Priority to CN202210443222.5A priority patent/CN115249369A/zh
Publication of KR20220146996A publication Critical patent/KR20220146996A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1382Detecting the live character of the finger, i.e. distinguishing from a fake or cadaver finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Collating Specific Patterns (AREA)

Abstract

지문 인식 장치가 제공된다. 지문 인식 장치는, 입력된 지문을 포함하는 지문 영상을 획득하는 영상 획득부, 지문 영상을 전처리하여 전처리 영상을 생성하는 전처리부, 전처리 영상으로부터 입력된 지문의 특징점(minutiae)의 좌표와, 입력된 지문의 방향점(orientation point)의 좌표를 추출하는 특성 추출부 및 입력된 지문의 특징점의 좌표 또는 입력된 지문의 방향점의 좌표를 포함하는 관심 영역을 입력 받아 학습을 수행하여 입력된 지문의 위조 여부를 판별하는 위조 판별부를 포함한다.

Description

지문 인식 장치 및 스마트 카드{Fingerprint Recognition device and smart card}
본 발명은 지문 인식 장치 및 스마트 카드에 관한 것이다.
생체 인식 기술(biometrics) 중 하나인 지문 인식 기술은 편리성, 보안성, 경제성 등의 장점으로 인해 널리 이용되고 있다. 지문 인식에서는 일반적으로, 센서를 통하여 사용자의 지문 영상을 획득하고, 획득된 지문 영상과 미리 등록된 지문 영상을 비교하여 사용자를 인증한다. 이 때, 정교하게 조작된 위조(fake) 지문 패턴이 센서에 입력되는 경우, 지문 인식 장치는 위조 지문 패턴을 구별하지 못하고 해당 위조 지문 패턴을 생체 지문으로 인식할 우려가 있다. 예를 들어, 지문이 새겨진, 고무, 실리콘, 젤라틴, 에폭시, 라텍스 등의 물질이 센서에 접촉되는 경우, 해당 물질에 새겨진 지문이 인간의 지문으로 인식될 우려가 있다. 지문 인식 기술의 보안성 측면에서 인간의 지문이 아닌 인위적으로 제작된 위조 지문을 구분하는 것은 중요하다.
본 발명이 해결하고자 하는 기술적 과제는 학습 능력이 향상된 지문 인식 장치를 제공하는 것이다.
본 발명이 해결하고자 하는 다른 기술적 과제는 학습 능력이 향상된 스마트 카드를 제공하는 것이다.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 기술적 과제를 달성하기 위한 본 발명의 몇몇 실시예에 따른 지문 인식 장치는, 입력된 지문을 포함하는 지문 영상을 획득하는 영상 획득부, 지문 영상을 전처리하여 전처리 영상을 생성하는 전처리부, 전처리 영상으로부터 입력된 지문의 특징점(minutiae)의 좌표와, 입력된 지문의 방향점(orientation point)의 좌표를 추출하는 특성 추출부 및 입력된 지문의 특징점의 좌표 또는 입력된 지문의 방향점의 좌표를 포함하는 관심 영역을 입력 받아 학습을 수행하여 입력된 지문의 위조 여부를 판별하는 위조 판별부를 포함한다.
상기 기술적 과제를 달성하기 위한 본 발명의 다른 몇몇 실시예에 따른 지문 인식 장치는, 입력된 지문을 포함하는 지문 영상을 획득하는 영상 획득부, 지문 영상을 전처리하여 전처리 영상을 생성하는 전처리부, 전처리 영상으로부터 입력된 지문의 벡터 정보를 포함하는 입력된 지문의 방향점을 추출하는 특성 추출부, 입력된 지문의 방향점에 기초하여, 입력된 지문과 기등록된 지문을 비교하여 입력된 지문과 기등록된 지문의 일치 여부를 확인하는 정합부 및 입력된 지문의 방향점을 포함하는 관심 영역을 입력받아 학습을 수행하여 입력된 지문의 위조 여부를 판별하는 위조 판별부를 포함한다.
상기 기술적 과제를 달성하기 위한 본 발명의 몇몇 실시예에 따른 스마트 카드는, 입력된 지문을 포함하는 지문 영상을 획득하는 지문 센서 및 입력된 지문을 검증하는 시스템 칩을 포함하되, 시스템 칩은, 획득된 지문 영상을 전처리하여 전처리 영상을 생성하고, 전처리 영상으로부터 입력된 지문의 특징점과 방향점의 좌표를 추출하고, 전처리 영상으로부터 특징점의 좌표 또는 방향점의 좌표를 포함하는 관심 영역을 추출하고, 관심 영역을 입력으로 학습을 수행하여 입력된 지문의 위조 여부를 판별한다.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
도 1은 몇몇 실시예에 따른 지문 인식 장치를 설명하기 위한 개념도이다.
도 2는 도 1의 정합부를 설명하기 위한 도면이다.
도 3은 몇몇 실시예에 따른 지문 인식 장치의 동작을 설명하기 위한 순서도이다.
도 4는 몇몇 실시예에 따른 지문 인식 장치의 특징점 및 방향점 추출 동작을 설명하기 위한 지문 영상을 나타내는 도면이다.
도 5는 몇몇 실시예에 따른 지문 인식 장치의 관심 영역 추출 동작을 설명하기 위한 지문 영상을 나타내는 도면이다.
도 6은 도 1의 위조 판별부의 예시적인 학습 동작을 설명하기 위한 도면이다.
도 7은 다른 몇몇 실시예에 따른 지문 인식 장치를 설명하기 위한 개념도이다.
도 8은 도 6의 정합부를 설명하기 위한 도면이다.
도 9는 몇몇 실시예들에 따른 지문 인식 장치를 포함하는 스마트카드 결제 시스템을 나타낸 도면이다.
도 10은 몇몇 실시예들에 따른 지문 인식 장치를 포함하는 생체인증 기반 스마트카드를 나타낸 도면이다.
도 11은 몇몇 실시예들에 따른 생체인증 통합 칩을 나타낸 것이다.
이하, 첨부된 도면을 참조하여 본 발명의 기술적 사상에 따른 실시예들에 대해 설명한다.
도 1은 몇몇 실시예에 따른 지문 인식 장치를 설명하기 위한 개념도이다. 도 2는 도 1의 정합부를 설명하기 위한 도면이다.
도 1 및 도 2를 참조하면, 몇몇 실시예에 따른 지문 인식 장치(1)는 영상 획득부(100), 전처리부(200), 정합부(300), 관심 영역 추출부(400) 및 위조 판별부(500)를 포함할 수 있다.
영상 획득부(100)는 사용자의 지문을 인식하여 지문 영상을 입력 받고 전처리부(200)에 제공할 수 있다. 일 실시예에 따르면, 영상 획득부(100)는 지문 센서로서, 사용자의 지문을 센싱하여 로우 이미지(Raw Image)로 획득할 수 있다. 영상 획득부(100)는 실시예에 따라 정전식 지문 센서, 광학식 지문 센서 또는 초음파 지문 센서를 포함할 수 있다. 다만 실시예는 이에 제한되지 않는다.
전처리부(200)는 영상 획득부(100)에서 획득한 지문 영상을 전처리할 수 있다. 전처리부(200)는 영상 획득부(100)로부터 수신한 지문 영상을 재구성하여 전처리 영상을 생성할 수 있다. 전처리부(200)는 생성한 전처리 영상을 정합부(300)에 제공할 수 있다.
정합부(300)는 전처리부(200)로부터 수신한 전처리 영상을 이용하여, 영상 획득부(100)를 통해 새롭게 입력된 지문이 등록된 사용자의 지문과 일치하는지 여부를 비교하여 판단할 수 있다. 구체적으로 정합부(300)는 입력된 지문 영상과 등록된 지문 영상의 지문 패턴이 동일한지 판단할 수 있다. 즉, 정합부(300)는 입력된 지문이 기존에 등록된 사용자의 지문과 일치하는지 검증할 수 있다.
정합부(300)는 특성 추출 모듈(310), 메모리(320), 등록 모듈(330) 및 검증 모듈(340)을 포함할 수 있다.
특성 추출 모듈(310)은 입력된 지문의 특징점(minutiae) 또는 방향점(orientation point)을 추출할 수 있다. 구체적으로, 특성 추출 모듈(310)은 추출 알고리즘을 이용하여 전처리 영상에서 특징점과 방향점의 좌표를 추출할 수 있다. 특징점과 방향점을 추출하는 추출 알고리즘은 실시예에 따라서 다양하게 변형되어 실시될 수 있다. 특성 추출 모듈(310)은 입력된 지문에서 추출된 특징점과 방향점에 관한 정보를 메모리(320)와 관심 영역 추출부(400)에 제공할 수 있다.
메모리(320)는 지문에 관한 정보를 저장할 수 있다. 메모리(320)는 특성 추출 모듈(310)이 추출한 지문의 특징점과 방향점에 관한 정보를 저장할 수 있다. 구체적으로, 메모리(320)는 사용자의 지문이 등록된 경우, 등록된 지문의 특징점과 방향점에 관한 정보를 저장할 수 있다. 일 실시예에서, 메모리(320)는 특성 추출 모듈(310)이 지문 영상에서 추출한 지문의 특징점과 방향점의 좌표로 이루어진 지문 패턴 영상을 저장할 수 있다. 메모리(320)에 저장되는 지문에 관한 정보의 종류 및 형태는 실시예에 따라 달라질 수 있다.
등록 모듈(330)은 지문 인식 장치(1)의 사용자의 지문을 등록할 수 있다. 등록 모듈(330)은 지문 등록 동작을 통해 새로운 지문 영상을 등록하거나 등록된 지문 영상을 업데이트할 수 있다.
검증 모듈(340)은 영상 획득부(100)를 통해 새롭게 입력된 지문을 등록된 지문과 비교하여 입력된 지문이 사용자의 지문과 일치하는지 판단한다. 구체적으로, 검증 모듈(340)은 메모리(320)에 저장된 사용자의 등록 지문의 특징점 및 방향점과 특성 추출 모듈(310)에서 추출된 입력 지문의 특징점 및 방향점을 비교할 수 있다. 예를 들어, 검증 모듈(340)은 메모리(320)에 저장된 등록된 지문의 특징점과 방향점의 좌표로 이루어진 지문 패턴 영상을 이용하여, 등록된 지문과 입력된 지문 각각의 특징점과 방향점의 위치 관계, 각도 등을 비교하여 지문의 일치 여부를 판단할 수 있다.
검증 모듈(340)은 등록된 지문 영상과 입력된 지문 영상의 유사도를 임계값을 기준으로 판단할 수 있다. 따라서 등록된 지문 영상과 입력된 지문 영상의 유사도가 특정 임계값보다 높으면 입력된 지문을 사용자의 지문과 일치하는 것으로 판단할 수 있다. 등록된 지문 영상과 입력된 지문 영상의 유사도가 특정 임계값보다 낮으면 입력된 지문을 타인의 지문으로 판단할 수 있다. 검증 모듈(340)의 판단 기준이 되는 임계값은 실시예에 따라 변형될 수 있다.
몇몇 실시예에서, 검증 모듈(340)은 위조 판별부(500)와 독립적으로 동작할 수 있다. 즉, 위조 판별부(500)가 입력된 지문의 위조 여부를 판별하는 것과 무관하게 검증 모듈(340)은 입력된 지문이 등록된 지문과 일치하는지 여부를 판단할 수 있다.
관심 영역 추출부(400)는 특성 추출 모듈(310)에서 추출한 특징점과 방향점의 좌표 각각을 중심으로 하는 관심 영역을 추출하여 위조 판별부(500)에 제공할 수 있다. 즉, 관심 영역 추출부(400)가 추출한 관심 영역이 위조 판별부(500)가 수행하는 학습 신경망의 입력이 될 수 있다.
위조 판별부(500)는 관심 영역 추출부(400)로부터 수신한 관심 영역을 학습 기반 신경망에 입력하여, 입력된 지문의 위조 여부를 판단할 수 있다. 위조 판별부(500)는 입력된 지문이 실제로 사람의 지문인지, 지문이 새겨진 고무, 실리콘 등의 물질인지 판단하여 결과로 출력할 수 있다. 일 실시예에서, 위조 판별부(500)는 학습 기반의 컨볼루션 신경망을 수행하여 지문의 위조 여부를 판단할 수 있다. 위조 판별부(500)가 수행하는 학습 기반 신경망은 컨볼루션 신경망에 한정되지 않는다.
위조 판별부(500)는 검증 모듈(340)과 독립적으로 동작할 수 있다. 검증 모듈(340)이 입력된 지문을 사용자의 지문으로 판단하더라도, 위조 판별부(500)는 입력된 지문이 사람의 지문인지, 사람의 것이 아닌 다른 물질로 위조된 지문인지 판단할 수 있다.
도 3은 몇몇 실시예에 따른 지문 인식 장치의 동작을 설명하기 위한 순서도이다. 도 4는 몇몇 실시예에 따른 지문 인식 장치의 특징점 및 방향점 추출 동작을 설명하기 위한 지문 영상을 나타내는 도면이다. 도 5는 몇몇 실시예에 따른 지문 인식 장치의 관심 영역 추출 동작을 설명하기 위한 지문 영상을 나타내는 도면이다. 도 6는 도 1의 위조 판별부의 예시적인 학습 동작을 설명하기 위한 도면이다.
도 1 및 도 3을 참조하면, 지문 영상을 획득한다(S100). 예를 들어, 지문 인식 장치(1)는 영상 획득부(100)를 통해 입력된 지문의 영상을 획득할 수 있다.
예를 들어, 영상 획득부(100)가 광학식 지문 센서인 경우, 영상 획득부(100)는 사용자의 손가락에 의해 반사된 빛에 기반하여 지문에 대한 데이터를 지문 영상으로 생성할 수 있다.
다른 예를 들어, 영상 획득부(100)가 정전식 지문 센서인 경우, 영상 획득부(100)는 지문의 융선과 골의 높이 차이에 따라 달라지는 정전 용량의 차이를 감지하고, 상기 감지에 기반하여 지문 정보에 대한 값을 지문 영상으로 생성할 수 있다.
또다른 예를 들어, 영상 획득부(100)가 초음파 지문 센서인 경우, 영상 획득부(100)는 초음파가 지문의 융선과 골에 반사되어 돌아오는 시간에 기반하여 사용자의 지문에 대한 정보를 지문 영상으로 생성할 수 있다.
다음, 지문 영상을 전처리 한다(S200). 예를 들어, 지문 인식 장치(1)는 영상 획득부(100)를 통해 획득한 지문 영상을 전처리 할 수 있다. 구체적으로, 전처리부(200)는 영상 획득부(100)로부터 수신한 로우 이미지(raw image)의 지문 영상을 후보정하여 전처리 할 수 있다.
예를 들어, 전처리부(200)는 영상 획득부(100)를 통해 획득한 지문 영상이 습기 또는 빛의 노출량 등 여러가지 원인에 의해 잡음을 가지는 경우, 이를 제거할 수 있다. 즉, 지문 영상으로부터 지문의 특징점 및 방향점을 정확하게 추출할 수 있도록, 전처리부(200)는 입력된 지문 영상의 열화된 부분을 복원하여 전처리 영상을 생성할 수 있다.
도 1 내지 도 4를 참조하면, 다음으로, 지문의 특징점 및 방향점을 추출한다(S300). 예를 들어, 지문 인식 장치(1)는 전처리부(200)를 통해 생성된 전처리 영상으로부터 입력된 지문의 특징점(311)과 방향점(312)을 추출한다. 구체적으로, 정합부(300)의 특성 추출 모듈(310)이 내재된 추출 알고리즘을 이용하여 전처리 영상에서 특징점(311)과 방향점(312)의 좌표를 추출할 수 있다. 특성 추출 모듈(310)이 이용하는 추출 알고리즘은 실시예에 따라 변경될 수 있다.
특성 추출 모듈(310)은 특징점과 방향점의 좌표뿐만 아니라, 특징점 간의 거리 정보, 방향점 간의 거리 정보, 특징점과 방향점 간의 거리 정보, 특징점 또는 방향점 간의 각도 정보 등을 추출할 수 있다.
특징점(311)은 지문의 융선(ridge), 골(valley), 분기점(bifurcation), 끝점(ending), 코어(core), 크로스오버(crossover), 아일랜드(island), 델타(delta), 포어(pore) 등을 포함할 수 있다.
방향점(312)은 특징점과 일치하지 않는 점으로서, 지문의 방향이 분명하게 나타나는 점을 포함할 수 있다. 일 실시예에서, 방향점은 지문 융선의 방향이 임계치 이상으로 변경되는 지점일 수 있다. 예를 들어, 융선의 접선을 기준으로 할 때, 특성 추출 모듈(310)은 융선의 한 지점을 기준으로 접선의 기울기가 임계치 이상으로 변하는 점을 방향점으로 추출할 수 있다. 다르게 표현하자면, 특성 추출 모듈(310)은 한 지점을 기준으로 융선의 접선끼리 이루는 각도가 특정 임계 각도 이하가 되는 지점을 방향점으로 추출할 수 있다. 지문 융선의 방향의 변경 정도의 기준이 되는 임계치는 실시예에 따라 변경될 수 있다.
방향점(312)은 해당 방향점의 접선의 벡터 정보를 포함할 수 있다. 또는 방향점(312)은 해당 방향점의 접선과 직교하는 선의 벡터 정보를 포함할 수 있다. 방향점(312)이 포함하는 정보는 실시예에 따라 다르게 설정될 수 있다.
도 1, 도 3 및 도 5를 참조하면, 다음으로, 관심 영역을 추출한다(S400). 예를 들어, 지문 인식 장치(1)는 특성 추출 모듈(310)을 통해 추출된 입력된 지문의 특징점(311)과 방향점(312)을 포함하는 관심 영역(ROI_311, ROI_312)을 추출한다. 구체적으로 지문 인식 장치(1)의 관심 영역 추출부(400)는 특징점(311)과 방향점(312)의 좌표를 중심으로 하는 일정한 크기의 패치 또는 블록을 추출하여 관심 영역을 생성할 수 있다. 일 실시예에서 관심 영역의 크기는 24X24 픽셀일 수 있다. 하지만, 관심 영역의 크기는 이에 제한되지 않고, 실시예에 따라 다양하게 변형될 수 있다.
특징점(311)과 방향점(312)을 포함하는 관심 영역(ROI_311, ROI_312)은 특징점(311) 및 방향점(312)과 주변의 지문 영상을 포함할 수 있다. 특징점(311)을 포함하는 관심 영역(ROI_311)과 방향점(312)을 포함하는 관심 영역(ROI_312)은 도 5에 도시된 것과 같이 일부 겹칠 수도 있다.
도 1, 도 3 및 도 6을 참조하면, 다음으로, 지문의 위조 여부를 판단한다(S500). 예를 들어, 지문 인식 장치(1)는 관심 영역 추출부(400)에서 추출된 관심 영역(ROI_311, ROI_312)을 이용하여 입력된 지문의 위조 여부를 판단할 수 있다. 구체적으로 지문 인식 장치(1)의 위조 판별부(500)는 관심 영역(ROI_311, ROI_312)을 입력으로 하는 신경망 학습을 수행하여 위조 지문인지 여부를 판단할 수 있다.
일 실시예에서, 위조 판별부(500)는 컨볼루션 신경망(convolution neural network, CNN)을 통해 학습하여 위조 지문 여부를 판별할 수 있다. 컨볼루션 신경망이 포함하는 레이어의 종류와 수는 실시예에 따라 다양하게 변형될 수 있다. 예를 들어, 위조 판별부(500)가 포함하는 컨볼루션 신경망은 복수개의 컨볼루션 레이어와 복수 개의 풀링(pooling) 레이어 등을 포함할 수 있다. 다른 예를 들어, 위조 판별부(500)가 포함하는 컨볼루션 신경망은 복수개의 컨볼루션 레이어와 단일 풀링 레이어를 포함할 수 있다.
학습 기반 신경망의 경우 입력되는 데이터 셋이 많을수록 학습 능력이 향상될 수 있다. 예를 들어, 특징점(311)의 수가 적은 경우 신경망을 통한 학습이 충분히 이뤄지지 않으므로 지문 인식 성능이 떨어질 수 있다. 이에 따라, 특징점(311)의 좌표와 일치하지 않는 방향점(312)이 추가적으로 추출되면 신경망에 입력되는 데이터 셋이 증가하므로 지문 인식 성능이 보완될 수 있다. 즉, 지문 인식 장치(1)의 학습 능력이 향상될 수 있다.
도 7은 다른 몇몇 실시예에 따른 지문 인식 장치를 설명하기 위한 개념도이다. 도 8은 도 6의 정합부를 설명하기 위한 도면이다
도 7 및 도 8을 참조하면, 몇몇 실시예에 따른 지문 인식 장치(2)는 영상 획득부(100), 전처리부(200), 정합부(300), 관심 영역 추출부(400), 위조 판별부(500) 및 특성 추출 모듈(600)을 포함할 수 있다. 지문 인식 장치(2)에서, 특성 추출 모듈(600)은 앞서 설명한 실시예와 달리 정합부(300)에 포함되지 않는다. 즉, 특성 추출 모듈(600)이 정합부(300)와 분리된 독립적인 구성을 갖는다.
영상 획득부(100)는 사용자의 지문을 인식하여 지문 영상을 입력 받고 전처리부(200)에 제공할 수 있다. 일 실시예에 따르면, 영상 획득부(100)는 지문 센서로서, 사용자의 지문을 센싱하여 로우 이미지(Raw Image)로 획득할 수 있다.
전처리부(200)는 영상 획득부(100)에서 획득한 지문 영상을 전처리할 수 있다. 전처리부(200)는 영상 획득부(100)에서 획득한 지문 영상을 재구성하여 전처리 영상을 생성할 수 있다. 전처리부(200)는 생성한 전처리 영상을 특성 추출 모듈(600)에 제공할 수 있다.
특성 추출 모듈(600)은 내부 고유의 추출 알고리즘을 이용하여 전처리부(200)로부터 수신한 전처리 영상에 포함된 지문의 특징점(minutiae) 및 방향점(orientation point)을 추출할 수 있다. 구체적으로 특성 추출 모듈(600)은 전처리 영상에서 특징점과 방향점의 좌표를 추출할 수 있다. 특성 추출 모듈(600)이 특징점과 방향점을 추출하는 내부 추출 알고리즘은 실시예에 따라서 다양하게 변형될 수 있다.
특성 추출 모듈(600)은 추출한 특징점과 방향점에 관한 정보를 정합부(300)와 관심 영역 추출부(400)에 제공할 수 있다.
정합부(300)는 특성 추출 모듈(600)로부터 수신한 특징점과 방향점에 관한 정보를 이용하여, 입력된 지문이 등록된 사용자의 지문과 일치하는지 여부를 비교하여 판단할 수 있다. 구체적으로 정합부(300)는 입력된 지문의 특징점과 방향점이 등록된 지문의 특징점 및 방향점과 동일한지 판단할 수 있다. 즉, 정합부(300)는 입력된 지문이 기존에 등록된 사용자의 지문과 일치하는지 검증할 수 있다.
정합부(300)는 등록 모듈(310), 검증 모듈(320) 및 메모리(330)를 포함할 수 있다.
등록 모듈(310)은 지문 인식 장치(2)의 사용자의 지문을 등록할 수 있다. 등록 모듈(310)은 지문 인식 장치(2)의 지문 등록 동작을 통해 새로운 지문 영상을 등록하거나 등록된 지문 영상을 업데이트할 수 있다.
검증 모듈(320)은 영상 획득부(100)를 통해 새롭게 입력된 지문을 등록된 지문과 비교하여 입력된 지문이 사용자의 지문과 일치하는지 판단한다. 구체적으로, 검증 모듈(320)은 메모리(330)에 저장된 사용자의 지문의 특징점 및 방향점과, 특성 추출 모듈(600)로부터 수신한 입력된 지문의 특징점 및 방향점을 비교할 수 있다. 예를 들어, 검증 모듈(320)은 메모리(330)에 저장된 등록된 지문의 특징점과 방향점의 좌표로 이루어진 지문 패턴 영상을 이용하여, 등록된 지문과 입력된 지문 각각의 특징점과 방향점의 위치 관계, 각도 등을 비교하여 지문의 일치 여부를 판단할 수 있다.
메모리(330)는 특성 추출 모듈(600)로부터 수신한 사용자의 등록 지문의 특징점 및 방향점에 관한 정보를 저장할 수 있다. 일 실시예에서, 메모리(330)는 특성 추출 모듈(600)이 지문 영상에서 추출한 지문의 특징점과 방향점의 좌표로 이루어진 지문 패턴 영상을 저장할 수 있다. 메모리(330)에 저장되는 지문에 관한 정보의 종류 및 형태는 실시예에 따라 달라질 수 있다.
관심 영역 추출부(400)는 특성 추출 모듈(600)에서 추출한 특징점과 방향점의 좌표 각각을 중심으로 하는 관심 영역을 추출하여 위조 판별부(500)에 제공할 수 있다. 즉, 관심 영역 추출부(400)가 추출한 관심 영역이 위조 판별부(500)가 수행하는 학습 신경망의 입력이 될 수 있다.
위조 판별부(500)는 관심 영역 추출부(400)로부터 수신한 관심 영역을 학습 기반 신경망에 입력하여, 입력된 지문의 위조 여부를 판단할 수 있다. 위조 판별부(500)는 입력된 지문이 실제로 사람의 지문인지, 지문이 새겨진 고무, 실리콘 등의 물질인지 판단하여 결과로 출력할 수 있다. 일 실시예에서, 위조 판별부(500)는 학습 기반의 컨볼루션 신경망을 수행하여 지문의 위조 여부를 판단할 수 있다. 위조 판별부(500)가 수행하는 학습 기반 신경망은 컨볼루션 신경망에 한정되지 않는다.
도 9는 몇몇 실시예들에 따른 지문 인식 장치를 포함하는 스마트카드 결제 시스템을 나타낸 도면이다.
도 9를 참고하면, 결제 시스템(10)은 몇몇 실시예에 따라 지문 인식 기반 스마트카드(1000), 결제 단말기(2000) 및 결제 서버(3000)를 포함할 수 있다.
스마트카드(1000)는 다양한 기능이 들어있는 반도체 칩이 신용카드 모양의 플라스틱 카드에 삽입된 형태를 말한다. 몇몇 실시예에 따라 스마트카드(1000)는 스마트카드(1000) 내 통합 칩과 결제 단말기(2000)가 접촉했을 때 작동하는 접촉식 방식으로 구현될 수도 있고, 또는 통합 칩과 가까운 거리에서 데이터를 주고받을 수 있는 비 접촉식 방식으로도 구현될 수 있다.
지문 인식 기반 스마트카드(1000)는 몇몇 실시예에 따라 온/오프라인의 결제 단말기(2000)로부터 입금정보를 포함하는 결제 요청 정보가 출력되면, 지문 인식 기반 스마트카드(1000)는 결제 요청 정보에 상응하는 결제 수단 정보를 출력한다.
지문 인식 기반 스마트카드(1000)는 지문 인식 장치(1)를 포함할 수 있다. 지문 인식 기반 스마트카드(1000)가 포함하는 위조 판별부(500)에 내재되는 학습 기반 신경망은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 예를 들어, 지문 인식 기반 스마트카드(1000)는 학습 기반 신경망을 하드웨어 가속 장치에 포함할 수 있다.
결제 단말기(2000)는 몇몇 실시예에 따라 온/오프라인 상에서 판매하는 상품의 종류, 수량, 가격 등에 대한 입금정보를 저장하고, 각 상품에 대한 판매 정보를 관리하기 위한 수단으로, 일 실시예에 따라 오프라인의 경우 매장의 판매 POS(Point Of Sales) 단말일 수도 있다. 다른 실시예에 따라 결제 단말기(2000)는 온라인의 경우 온라인 쇼핑몰 시스템일 수도 있고, 또다른 실시예에 따라 결제 단말기(2000)는 스마트 카드에 액세스하여 결제 관련 정보를 읽을 수 있고, 결제 서버와 통신이 가능한 단말장치일 수도 있다.
결제 단말기(2000)는 오프라인 판매 매장에 설치되고 리더(Reader) 등을 이용하여 판매 상품 각각에 부착된 바코드 등으로부터 상품정보를 독출할 수 있는 수단일 수 있다. 상품 정보는 몇몇 실시예에 따라 상품의 종류, 상품 코드, 판매가격 등에 대한 정보를 포함할 수 있다.
결제 단말기(2000)는 판매 관련 정보를 결제 서버(3000)로 전송할 수 있다. 몇몇 실시예에 따라 판매 관련 정보는 판매가격정보, 결제 단말기(2000)의 아이디, 결제 단말기(2000)가 상품의 판매가격정보를 독출한 시간, 결제 단말기(2000)가 처리하고자 하는 작업의 종류, 결제 단말기(2000)의 관리 서버 등에 대한 도메인 정보, 결제 단말기(2000) 보유자의 입금계좌정보 중 적어도 하나를 포함할 수 있다.
또한 결제 단말기(2000)는 스마트카드(1000)로부터 리드된 결제 정보를 결제 서버(3000)로 전송할 수 있다. 결제 정보는 스마트카드(1000)에 등록된 사용자의 결제등급정보 및 결제수단정보를 포함한다.
몇몇 실시예에 따라 결제수단정보는 결제계좌정보 또는 결제카드정보를 포함할 수 있다. 몇몇 실시예에 따라 결제계좌정보는 사용자의 은행계좌와 관련된 정보로, 은행계좌번호, 계좌비밀번호, 보안 관련 인증번호 중 적어도 하나를 포함할 수 있다. 몇몇 실시예에 따라 결제카드정보는 비용을 결제할 카드사, 카드번호, 카드비밀번호 중 적어도 하나의 정보를 포함할 수 있다.
또한, 결제 단말기(2000)는 스마트카드(1000)로부터 리드된 결제정보 중 생체인증정보에 기초하여, 리드된 스마트카드(1000)의 등록된 사용자인지 확인하고, 등록된 사용자인 경우 해당 사용자의 사용자 인덱스에 상응하는 결제등급정보를 결제 서버(3000)로 전송할 수 있다.
결제 서버(3000)는 결제 단말기(2000)로부터 수신된 판매 관련 정보 및 결제 정보에 기초하여 결제 승인 여부를 판단하고, 승인 판단 결과를 결제 단말기(2000)로 전송한다.
결제 서버(3000)는 몇몇 실시예에 따라 결제 정보에 기초하여, 수신된 결제수단정보, 결제등급정보에 기초하여 판매관련 정보에 따른 금액의 결제승인여부를 판단한다.
예를 들어 결제 정보가 결제계좌정보인 경우, 결제 서버(3000)는 사용자의 금융계좌가 개설된 금융기관(은행 등)의 결제서버일 수 있다. 예를 들어, 결제 정보가 결제카드정보인 경우, 결제 서버(3000)는 사용자의 결제카드를 개설한 금융기관의 결제서버일 수 있다.
본 명세서에서 정상 사용자는 결제 서버(3000)에 저장된 등록 사용자로서, 결제 요청된 금액 이상의 금액을 결제계좌에 보유한 사용자 또는 결제 요청된 금액이 사용 가능 한도 범위 내에 있는 결제카드를 보유한 사용자를 의미할 수 있다.
결제 서버(3000)는 정상 사용자라고 판단한 경우, 판매관련정보로부터 판매가격정보, 결제 단말기(2000)의 아이디를 확인하고, 결제 정보와 비교하여, 결제를 승인할 것인지 판단할 수 있다. 정상 사용자라고 판단하는 경우는, 지문 인식 장치의 정합부가 입력된 지문이 등록된 사용자의 지문과 일치한다는 출력을 하고, 위조 판별부가 입력된 지문이 인위적으로 제작된 위조 지문이 아닌 인간의 지문이라는 출력을 한 경우를 포함할 수 있다.
도 10은 몇몇 실시예들에 따른 생체인증 기반 스마트카드를 나타낸 도면이고, 도 11은 몇몇 실시예들에 따른 생체인증 통합 칩을 나타낸 것이다.
도 10 및 도 11을 참고하면, 생체인증 기반 스마트카드(1000)는 안테나(1500) 및 통합칩(1100)을 포함할 수 있다. 통합칩(1100)은 하나의 칩에 지문 인식 모듈(1200), 인증 처리 모듈(1300) 및 보안 모듈(1400)을 포함할 수 있다.
지문 인식 모듈(1200)은 스마트카드(1000)의 보안성을 강화하기 위한 수단일 수 있다. 지문 인식 모듈(1200)는 스마트카드(1000)의 실소유자(즉, 사전에 등록된 자)의 지문 정보와 카드 사용자의 지문 정보가 일치하는지 판단하고, 판단 결과 지문이 일치하면 카드의 실소유자임을 인증함으로써, 스마트카드(1000)에 내장된 보안 모듈(1400)의 록(Lock)을 소정 시간동안 해지할 수 있다. 지문 인식 모듈(1200)은 소정 시간 후 록(Lock)의 해지를 자동 오프하여 스마트카드(1000)의 불법 사용을 사전에 방지할 수 있다.
몇몇 실시예에 따른 지문 인식 모듈(1200)은 지문 등을 센싱하는 센서로서, 정전 방식, 압전 방식 등으로 지문을 센싱하는 센서일 수 있다. 지문 인식 모듈(1200)은 손가락을 긁어서 지문을 센싱하는 스와이프 방식(Swipe)일 수도 있고, 손가락을 일정시간동안 접촉하여 지문을 센싱하는 에어리어 방식(Area)일 수도 있다.
몇몇 실시예에 따른 보안 모듈(1400)은 스마트카드(1000)의 카드식별정보를 기록하고 저장하는 집적회로일 수 있다. 보안 모듈(1400)은 기록된 카드식별정보를 접촉식 또는 비접촉식 방식을 이용하여 결제 단말(2000)로 전송하여 전자 결제를 수행한다.
몇몇 실시예에 따른 보안 모듈(1400)은 카드식별정보를 임시 기록하고, 기록된 카드식별정보를 수정 또는 삭제할 수 있다. 보안 모듈(1400)은 복수 개의 결제수단정보 중 하나의 결제수단정보에 대한 카드식별정보를 기록한다. 여기서, 카드식별정보는 결제수단정보에 대응하는 정보로서, 카드번호 정보, 카드 유효일자 정보, 카드보안 정보 등 전자 결제에 필요한 정보를 포함한다.
보안 요구 사양을 충족하기 위해 보안 모듈(1400) 내의 모든 내부 구성요소들 및 보안 모듈(1400)에서 처리되는 데이터는 랜덤 키(Random key)에 기반하여 암호화(Encryption) 될 수 있다. 예를 들어 보안 모듈(1400)은 카드 실소유자(사전에 등록된 자)의 지문 정보를 암호화하여 저장하고, 외부 노출을 방지할 수 있다.
이후, 보안 모듈(1400)은 스마트카드(1000) 사용으로 지문 인식 모듈(1200)에서 추출된 지문 정보에 대해 검증이 필요할 때, 인증 처리 모듈(1300)로부터 등록 지문 정보를 수신하여 매칭 결과에 따라 스마트카드(1000)의 사용 승인 여부를 결정할 수 있다.
몇몇 실시예에 따른 인증 처리 모듈(1300)은 지문 인식 모듈(1200)로부터 수신된 지문의 로우 이미지(Raw Image)를 프로세싱하여 지문 템플릿으로 생성할 수 있다. 로우 이미지는 지문의 특징점, 즉, 지문 영상에서 발견되는 융선의 종단(ridge end)이나 분기점(bifurcation) 등의 세밀한 특징점인 미뉴샤(minutiae)를 포함할 수 있다. 인증 처리 모듈(1300)은 미뉴샤의 검출을 통해 해당 지문 이미지의 템플릿 정보, 즉, 검증을 위한 지문 정보를 획득할 수 있게 된다.
지문 인식 모듈(1200) 인증 정보 처리 모듈(1300) 및 보안 모듈(1400)은 하나의 통합칩으로 구현될 수 있다.
이상 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였으나, 본 발명은 상기 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 제조될 수 있으며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.
100: 영상 획득부 200: 전처리부
300: 정합부 400: 관심 영역 추출부
500: 위조 판별부 600: 특성 추출 모듈
1000: 스마트카드

Claims (20)

  1. 입력된 지문을 포함하는 지문 영상을 획득하는 영상 획득부;
    상기 지문 영상을 전처리하여 전처리 영상을 생성하는 전처리부;
    상기 전처리 영상으로부터 상기 입력된 지문의 특징점(minutiae)의 좌표와, 상기 입력된 지문의 방향점(orientation point)의 좌표를 추출하는 특성 추출부; 및
    상기 입력된 지문의 특징점의 좌표 또는 상기 입력된 지문의 방향점의 좌표를 포함하는 관심 영역을 입력 받아 학습을 수행하여 상기 입력된 지문의 위조 여부를 판별하는 위조 판별부를 포함하는, 지문 인식 장치.
  2. 제1 항에 있어서,
    상기 입력된 지문의 방향점은,
    상기 입력된 지문의 융선의 방향이 임계치 이상으로 바뀌는 점을 포함하는, 지문 인식 장치.
  3. 제1 항에 있어서,
    상기 전처리 영상으로부터 상기 관심 영역을 추출하여 상기 위조 판별부로 입력시키는 관심 영역 추출부를 더 포함하는, 지문 인식 장치.
  4. 제1 항에 있어서,
    상기 관심 영역은,
    상기 전처리 영상에서 상기 입력된 지문의 특징점의 좌표와 상기 입력된 지문의 방향점의 좌표 각각을 중심으로 하는 일정한 크기의 패치를 포함하는, 지문 인식 장치.
  5. 제1 항에 있어서,
    상기 위조 판별부는,
    상기 관심 영역을 입력으로 하는 컨볼루션 신경망(convolution neural network)을 통해 상기 학습을 수행하는, 지문 인식 장치.
  6. 제1 항에 있어서,
    상기 특징점과 상기 방향점에 기초하여, 상기 입력된 지문과 기등록된 지문을 비교하여 상기 입력된 지문과 상기 기등록된 지문의 일치 여부를 확인하는 정합부를 더 포함하는, 지문 인식 장치.
  7. 제6 항에 있어서,
    상기 특성 추출부는 상기 정합부에 내재되는, 지문 인식 장치.
  8. 제6 항에 있어서,
    상기 정합부와 상기 특성 추출부는 별개의 구성으로 배치되고,
    상기 정합부는, 상기 입력된 지문의 특징점과 상기 입력된 지문의 방향점을 상기 특성 추출부로부터 입력 받는, 지문 인식 장치.
  9. 제1 항에 있어서,
    상기 입력된 지문의 특징점의 좌표와 상기 입력된 지문의 방향점의 좌표는 다른, 지문 인식 장치.
  10. 제1 항에 있어서,
    상기 입력된 지문의 방향점의 좌표는, 상기 입력된 지문의 방향점의 벡터 정보를 포함하는, 지문 인식 장치.
  11. 입력된 지문을 포함하는 지문 영상을 획득하는 영상 획득부;
    상기 지문 영상을 전처리하여 전처리 영상을 생성하는 전처리부;
    상기 전처리 영상으로부터 상기 입력된 지문의 벡터 정보를 포함하는 상기 입력된 지문의 방향점을 추출하는 특성 추출부;
    상기 입력된 지문의 방향점에 기초하여, 상기 입력된 지문과 기등록된 지문을 비교하여 상기 입력된 지문과 상기 기등록된 지문의 일치 여부를 확인하는 정합부; 및
    상기 입력된 지문의 방향점을 포함하는 관심 영역을 입력받아 학습을 수행하여 상기 입력된 지문의 위조 여부를 판별하는 위조 판별부를 포함하는, 지문 인식 장치.
  12. 제11 항에 있어서,
    상기 특성 추출부는,
    상기 전처리 영상으로부터 상기 입력된 지문의 방향점과 다른 상기 입력된 지문의 특징점을 더 추출하는, 지문 인식 장치.
  13. 제11 항에 있어서,
    상기 전처리 영상으로부터 상기 관심 영역을 추출하여 상기 위조 판별부로 입력시키는 관심 영역 추출부를 더 포함하는, 지문 인식 장치.
  14. 제11 항에 있어서,
    상기 위조 판별부는,
    상기 관심 영역을 입력으로 하는 컨볼루션 신경망을 통해 상기 학습을 수행하는, 지문 인식 장치.
  15. 제11 항에 있어서,
    상기 관심 영역은,
    상기 전처리 영상에서 상기 입력된 지문의 특징점과 상기 입력된 지문의 방향점 각각을 중심으로 하는 일정한 크기의 패치를 포함하는, 지문 인식 장치.
  16. 입력된 지문을 포함하는 지문 영상을 획득하는 지문 센서; 및
    상기 입력된 지문을 검증하는 시스템 칩을 포함하되,
    상기 시스템 칩은,
    상기 획득된 지문 영상을 전처리하여 전처리 영상을 생성하고,
    상기 전처리 영상으로부터 상기 입력된 지문의 특징점과 방향점의 좌표를 추출하고,
    상기 전처리 영상으로부터 상기 특징점의 좌표 또는 상기 방향점의 좌표를 포함하는 관심 영역을 추출하고,
    상기 관심 영역을 입력으로 학습을 수행하여 상기 입력된 지문의 위조 여부를 판별하는 스마트 카드.
  17. 제16 항에 있어서,
    상기 입력된 지문의 방향점의 좌표는, 상기 입력된 지문의 벡터 정보를 포함하는, 스마트 카드.
  18. 제16 항에 있어서,
    상기 입력된 지문의 특징점의 좌표와 상기 입력된 지문의 방향점의 좌표는 다른, 스마트 카드.
  19. 제16 항에 있어서,
    상기 시스템 칩은,
    상기 특징점의 좌표와 상기 방향점의 좌표에 기초하여, 상기 입력된 지문과 기등록된 지문을 비교하여 상기 입력된 지문과 상기 기등록된 지문의 일치 여부를 확인하는, 스마트 카드.
  20. 제16 항에 있어서,
    상기 관심 영역은,
    상기 전처리 영상에서 상기 특징점의 좌표와 상기 방향점의 좌표 각각을 중심으로 하는 일정한 크기의 패치를 포함하는, 스마트 카드.
KR1020210085496A 2021-04-26 2021-06-30 지문 인식 장치 및 스마트 카드 KR20220146996A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/569,059 US20220343672A1 (en) 2021-04-26 2022-01-05 Fingerprint recognition device and smart card
CN202210443222.5A CN115249369A (zh) 2021-04-26 2022-04-25 指纹识别装置和智能卡

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210053577 2021-04-26
KR20210053577 2021-04-26

Publications (1)

Publication Number Publication Date
KR20220146996A true KR20220146996A (ko) 2022-11-02

Family

ID=84043266

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210085496A KR20220146996A (ko) 2021-04-26 2021-06-30 지문 인식 장치 및 스마트 카드

Country Status (1)

Country Link
KR (1) KR20220146996A (ko)

Similar Documents

Publication Publication Date Title
US7162058B2 (en) Authentication system by fingerprint
JP4804759B2 (ja) 生体認証機能を持つicカードの更新方法及びicカード更新装置
US20020163421A1 (en) Personal fingerprint authentication method of bank card and credit card
Parkavi et al. Multimodal biometrics for user authentication
JP4299894B2 (ja) 携帯電子装置及び生体情報を用いた個人認証方法
Muley et al. Prospective solution to bank card system using fingerprint
KR101853270B1 (ko) 지문인식방법을 채용한 휴대용 보안인증기의 보안 인증방법
Hooda ATM security
Singh et al. BioPay: a secure payment gateway through biometrics
KR100397382B1 (ko) 지문인식 스마트 카드 시스템
Leghari et al. Feature-level fusion of fingerprint and online signature for multimodal biometrics
KR20220084058A (ko) 장치 외 생체인식 등록
JP4104621B2 (ja) 生体認証システム
Sanchez-Reillo et al. Fingerprint verification using smart cards for access control systems
KR20220146996A (ko) 지문 인식 장치 및 스마트 카드
US20220343672A1 (en) Fingerprint recognition device and smart card
JP4586055B2 (ja) 生体認証システム
Pravinthraja et al. Multimodal biometrics for improving automatic teller machine security
KR101853266B1 (ko) 지문인식방법을 채용한 휴대용 보안인증기
KR20040028210A (ko) 얼굴인식을 통한 대상자 식별 장치 및 그 방법
Noor A new algorithm for minutiae extraction and matching in fingerprint
KR102138659B1 (ko) 지문인식 스마트 신용카드 및 결제 시스템
Cucinotta et al. Hybrid fingerprint matching on programmable smart cards
Manju Fingerprint Recognition and its Advanced
Poornima et al. An Efficient Framework for Fingerprint Based Cash Machine

Legal Events

Date Code Title Description
A201 Request for examination