KR100467392B1 - 손가락 마디 지문을 이용한 개인 식별 방법 및 그 장치 - Google Patents

손가락 마디 지문을 이용한 개인 식별 방법 및 그 장치 Download PDF

Info

Publication number
KR100467392B1
KR100467392B1 KR10-2001-0031173A KR20010031173A KR100467392B1 KR 100467392 B1 KR100467392 B1 KR 100467392B1 KR 20010031173 A KR20010031173 A KR 20010031173A KR 100467392 B1 KR100467392 B1 KR 100467392B1
Authority
KR
South Korea
Prior art keywords
finger
fingerprint
data
distance
finger node
Prior art date
Application number
KR10-2001-0031173A
Other languages
English (en)
Other versions
KR20020092522A (ko
Inventor
최환수
임상균
주일용
Original Assignee
주식회사 테크스피어
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 테크스피어 filed Critical 주식회사 테크스피어
Priority to KR10-2001-0031173A priority Critical patent/KR100467392B1/ko
Publication of KR20020092522A publication Critical patent/KR20020092522A/ko
Application granted granted Critical
Publication of KR100467392B1 publication Critical patent/KR100467392B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Collating Specific Patterns (AREA)

Abstract

본 발명은 손가락 마디 지문을 이용한 개인 식별 방법에 관한 것이다. 이러한 개인 식별 방법은 a) 입력 변환된 손가락 마디의 화상 데이터로부터 관심 영역 데이터를 추출하는 단계; b) 상기 추출된 관심 영역 데이터를 저대역 필터링하는 단계; c) 상기 저대역 필터링된 데이터로부터 손가락 경계 영역을 추출하는 단계; d) 상기 저대역 필터링된 데이터로부터 손가락 마디 지문을 추출하는 단계; e) 상기 추출된 손가락 마디 지문에 상기 추출된 손가락 경계 영역을 적용하여 손가락 마디 지문을 군집화하는 단계; f) 상기 군집화된 손가락 마디 지문과 미리 등록되어 있는 손가락 마디 지문 군집을 독립적으로 정합시키는 단계; 및 g) 상기 정합 결과에 따라 특정 인물임을 인식하는 단계를 포함한다. 본 발명에 따르면, 영상 취득이 간편하고 사용자 편리성에서 우수한 효과가 있다. 또한, 손가락 마디 지문의 군집화를 통한 각 군집의 독립적인 정합으로 마디 지문을 이용한 생체 인식의 실용화 가능성이 향상된다.

Description

손가락 마디 지문을 이용한 개인 식별 방법 및 그 장치 {METHOD FOR IDENTIFING BIOMETRIC PERSON USING A FINGER CREASE PATTERN AND APPARATUS THEREOF}
본 발명은 손가락 마디 지문을 이용하여 개인을 식별하는 방법 및 그 장치에 관한 것으로서, 더욱 상세하게 말하자면 손가락 마디 지문 군집화 기법을 사용하여 개인을 식별하는 방법 및 그 장치에 관한 것이다.
최근 개인을 식별하는 방법으로 생체 인식의 중요성이 점차 확대되고 있다.
생체 인식이란 개인의 독특한 신체 특징 또는 행동 특징을 이용하여 개인 식별을 수행하는 것을 말한다.
이러한 개인의 독특한 특징으로는 손가락 지문, 손의 형상, 눈의 홍채, 얼굴, 손등의 정맥 패턴, 음성 패턴 등으로 다양하며, 각각의 특징마다 사용자 편의성, 친밀도, 인식 성능 등의 차이가 있다.
한편, 상기한 특징들을 사용하여 개인을 식별하는 시스템들이 개발되어 사용되고 있으나, 대부분의 시스템들의 경우 그 인식율이 떨어지거나 또는 상기한 특징에 따른 해당 영상을 안정적으로 취득하여 개인을 안정적으로 식별할 수 있을 정도로 아직 개발되지 않아 실용화가 어렵다는 문제점이 있다.
따라서, 본 발명의 목적은 상기한 종래의 문제점을 해결하기 위한 것으로, 개인의 손가락 마디 지문을 이용하여 개인 식별을 안정적으로 수행하는 개인 식별 방법 및 그 장치를 제공하는 데 있다.
도 1은 본 발명의 실시예에 따른 손가락 마디 지문을 이용한 개인 식별 장치의 블록도이다.
도 2는 본 발명의 실시예에 따른 손가락 마디 지문을 이용한 개인 식별 방법의 순서도이다.
도 3은 도 2의 개인 식별 방법 중 손가락 경계 영역 추출 단계의 상세 순서도이다.
도 4는 도 2의 개인 식별 방법 중 손가락 마디 지문 추출 단계의 상세 순서도이다.
도 5는 도 2의 개인 식별 방법 중 손가락 마디 지문의 군집화 단계의 상세 순서도이다.
도 6은 도 2의 개인 식별 방법 중 입력 영상과 등록 영상 군집의 정합 단계의 상세 순서도이다.
도 7은 도 1의 개인 식별 장치에서 CCD 카메라에 의해 촬영된 정지 화상을 도시한 도면이다.
도 8은 도 7의 정지 화상에서 추출된 관심 영역 영상을 도시한 도면이다.
도 9는 도 8의 관심 영역 영상으로부터 이치화된 세로 경계 영역 영상을 도시한 도면이다.
도 10은 도 9의 영상을 허프(Hough) 변환시킨 영상을 도시한 도면이다.
도 11은 도 10의 영상에 대해 손가락 경계 영역을 정의한 영상을 도시한 도면이다.
도 12는 도 8의 영상을 언샤프(unsharp) 마스킹 필터링한 후 이치화한 마디 지문 영상을 도시한 도면이다.
도 13은 도 12의 영상으로부터 레이블링 과정을 통하여 잡영을 제거하고 마디 지문 부분만 추출된 영상을 도시한 도면이다.
도 14는 도 13의 영상에 마디 지문 중심점을 표시한 도면이다.
도 15는 도 14에 표시된 마디 지문 중심점들 사이의 간격을 표시한 도면이다.
도 16은 도 15에 도시된 마디 지문들을 군집화한 도면이다.
도 17은 도 16에 도시된 군집들의 중심점을 표시한 도면이다.
도 18은 도 17에 표시된 군집들의 중심점들 사이의 간격을 표시한 도면이다.
도 19는 도 1의 개인 식별 장치 중 데이터 메모리에 저장되어 있는 등록 영상의 마디 지문 군집의 외접 사각형과 그 외접 사각형의 중심점이 표시된 도면이다.
도 20은 도 19의 영상에 대응되는 입력 영상의 마디 지문 군집을 나타낸 도면이다.
도 21은 도 19의 영상과 도 20의 영상을 이동시키면서 정합시키는 것을 도시한 도면이다.
도 22는 본 발명의 실시예에 따른 EER(Equal Error Rate) 그래프를 도시한 도면이다.
* 도면의 주요부분에 대한 부호의 설명
10 : 키 입력부 20 : 데이터 메모리 30 : CCD 카메라
40 : 프레임 그래버 50 : 화상 메모리 60 : 마이크로 프로세서
상기한 목적을 달성하기 위한 수단으로서 본 발명은 입력되는 손가락 마디 지문 영상에 손가락의 세로 경계 영역 강화와 마디 지문을 강화하는 전처리 후 각 손가락의 마디 지문들을 군집화하여 등록하고, 개인 식별을 받고자 하는 사용자의 손가락 마디 지문 영상에 대해서도 상기와 동일한 처리 후 생성된 손가락 마디 지문 군집에 대해 상기 등록된 군집과 독립적으로 정합하여 개인 식별을 수행하는 것을 특징으로 한다.
상기 특징에 따라 본 발명은 a) 입력 변환된 손가락 마디의 화상 데이터로부터 관심 영역 데이터를 추출하는 단계; b) 상기 추출된 관심 영역 데이터를 저대역 필터링하는 단계; c) 상기 저대역 필터링된 데이터로부터 손가락 경계 영역을 추출하는 단계; d) 상기 저대역 필터링된 데이터로부터 손가락 마디 지문을 추출하는 단계; e) 상기 추출된 손가락 마디 지문에 상기 추출된 손가락 경계 영역을 적용하여 손가락 마디 지문을 군집화하는 단계; f) 상기 군집화된 손가락 마디 지문과 미리 등록되어 있는 손가락 마디 지문 군집을 독립적으로 정합시키는 단계; 및 g) 상기 정합 결과에 따라 특정 인물임을 인식하는 단계를 포함한다.
상기 c) 손가락 경계 영역 추출 단계는 상기 저대역 필터링된 데이터에 대해 손가락의 세로 경계 부분을 강화하는 단계; 상기 세로 경계 강화된 데이터를 이치화하는 단계; 및 상기 이치화된 데이터에 대해 손가락 경계를 정의하는 단계를 포함한다.
여기서 상기 저대역 필터링된 데이터에 대해 세로 경계를 강화하는 마스크를 사용하여 손가락의 세로 경계 부분을 강화하는 것을 특징으로 한다.
상기 이치화는 계조 수준 히스토그램(gray level histogram)으로부터 계조 수준의 확률적 분포에 따른 이치화 값을 자동적으로 선택하여 주는 알고리즘에 의해 수행되는 것을 특징으로 한다.
상기 이치화된 데이터는 허프(Hough) 변환된 후, 일정 길이 이상의 직선 성분이 선택되고, 상기 선택된 직선 성분 중 기준 성분을 결정하여 손가락의 경계 영역을 정의하는 것을 특징으로 한다.
상기 d) 손가락 마디 지문 추출 단계는 상기 저대역 필터링된 데이터에 대해 언샤프 마스킹 필터(unsharp masking filter)를 이용하여 필터링하는 단계; 상기 필터링된 데이터를 이치화하는 단계; 및 상기 이치화된 데이터에 대해 레이블링을 수행하는 단계를 포함한다.
상기 레이블링 단계에서 일정 크기 이하를 가지는 레이블과 세로 성분으로일정한 높이를 가지는 레이블이 손가락 마디 지문이 아닌 잡영으로 판단되어 제거되는 것을 특징으로 한다.
상기 e) 손가락 마디 지문 군집화 단계는 상기 추출된 손가락 마디 지문 레이블을 군집화 기준 거리에 기초하여 군집화하는 단계; 및 상기 단계에서 군집화된 각 손가락 마디 지문 군집을 병합 기준 거리에 기초하여 병합하는 단계를 포함한다.
여기서 상기 군집화 단계는 상기 손가락 마디 지문 레이블 각각에 대해 외접 사각형을 구하는 단계; 상기 구해진 각 외접 사각형의 중심점을 산출하는 단계; 상기 외접 사각형의 중심점 사이의 거리를 산출하는 단계; 및 상기 산출된 외접 사각형의 중심점 사이의 거리가 상기 군집화 기준 거리보다 작은 손가락 마디 지문 레이블들을 하나의 군집으로 묶는 단계를 포함한다.
또한 상기 병합 단계는 상기 단계에서 묶여진 각 군집에 대해 외접 사각형을 구하는 단계; 상기 구해진 각 외접 사각형의 중심점을 산출하는 단계; 상기 외접 사각형의 중심점 사이의 거리를 산출하는 단계; 상기 외접 사각형의 중심점 사이의 거리가 상기 병합 기준 거리보다 작은 경우 병합 후보로 판정하는 단계; 및 상기 병합 후보 군집의 외접 사각형의 각 꼭지점들 사이의 최소 거리가 상기 병합 기준 거리의 1/2 이하인 경우 상기 병합 후보 군집을 병합하는 단계를 포함한다.
또한 상기 f) 정합 단계는 상기 미리 등록되어 있는 각 손가락 마디 지문 군집의 외접 사각형을 구하는 단계; 상기 구해진 외접 사각형의 중심점을 산출하는 단계; 상기 산출된 중심점을 기준으로 일정 범위 내에 중심점이 위치하는 상기 입력된 손가락 마디 지문의 각 군집을 구하는 단계; 상기 구해진 입력된 손가락 마디 지문 군집의 중심점과 상기 등록된 손가락 마디 지문 군집의 중심점을 일치시키는 단계; 및 상기 군집들을 이동시키면서 정합시키는 단계를 포함한다.
상기 정합 단계에서 각 군집의 정합이 가중치를 적용한 원형정합인 것을 특징으로 한다.
여기서 상기 가중치는 각 군집의 외접 사각형 내에서 등록 군집의 마디 지문 영역 및 바탕 영역, 입력 군집의 마디 지문 영역 및 바탕 영역에 대해 구해진 정합 계수들에 각각 1/4씩 부여되는 것을 특징으로 한다.
또한 상기 특징에 따라 본 발명은 사용자의 키 입력을 위한 키 입력부; 개인의 손가락 마디 지문 데이터 및 개인 고유 식별 번호가 미리 저장되어 있는 데이터 메모리; 개인 식별을 받고자 하는 사용자의 손가락을 촬영하여 해당 영상을 출력하는 카메라; 상기 카메라로부터 출력되는 손가락 영상으로부터 정지 화상 데이터를 추출하는 프레임 그래버; 상기 프레임 그래버에 의해 추출된 정지 화상 데이터가 저장되는 화상 메모리; 상기 화상 메모리에 저장되는 정지 화상 데이터에 대해 손가락 경계 영역 추출, 손가락 마디 지문 추출, 손가락 마디 지문 군집화 등 여러 가지의 처리를 수행하고, 그 결과 생성되는 데이터와 상기 데이터 메모리에 저장된 데이터를 독립적으로 정합시켜 상기 사용자의 특정 인물임을 식별하는 마이크로 프로세서; 및 외부 장치와 상기 마이크로 프로세서 사이의 데이터 및 제어 통신을 위한 인터페이스부를 포함한다.
이하, 본 발명의 실시예에 대해 첨부된 도면을 참조하여 상세히 설명한다.
도 1은 본 발명의 실시예에 따른 손가락 마디 지문을 이용한 개인 식별 장치의 블록도이다.
도 1에 도시되어 있듯이, 본 발명의 실시예에 따른 손가락 마디 지문을 이용한 개인 식별 장치는 키 입력부(10), 데이터 메모리(20), CCD 카메라(30), 프레임 그래버(40), 화상 메모리(50), 마이크로 프로세서(60), 및 인터페이스부(70)를 포함한다.
키 입력부(10)는 개인 식별을 받고자 하는 사용자가 자신의 개인 고유 식별 번호를 입력하는 수단이다.
데이터 메모리(20)에는 개인의 손가락 마디 지문 데이터 및 개인 고유 식별 번호가 미리 저장되어 있으며, 이 데이터는 후에 키 입력부(10)를 통해 입력되는 데이터 및 CCD 카메라(30)에 의해 촬영되어 화상 메모리(50)에 저장되는 데이터에 대한 마이크로 프로세서(60)의 처리를 거쳐 얻어지는 데이터와 비교되며, 이러한 비교를 통해 개인 식별이 이루어진다.
CCD 카메라(30)는 개인 식별을 받고자 하는 사용자의 손가락을 촬영하여 해당 영상을 출력한다. 이 때, 사용자의 손가락 중에서도 특히 손가락 마디 지문이 요구되므로, 손가락 마디 부분이 촬영될 수 있도록 위치되어야 한다.
프레임 그래버(40)는 CCD 카메라(30)에 의해 촬영된 사용자의 손가락 영상으로부터 정지 화상 데이터를 추출하여 화상 메모리(50)에 저장한다. 이 때, CCD 카메라(30)로부터 출력되는 영상으로부터 안정적인 순간의 정지 화상 데이터를 추출하는 것이 바람직하다.
화상 메모리(50)에는 프레임 그래버(40)로부터 출력되는 정지 화상 데이터가 저장되며, 마이크로 프로세서(60)에 의해 처리되는 중간 처리 데이터도 또한 저장될 수 있다.
마이크로 프로세서(60)는 프레임 그래버(40)로부터 출력되어 화상 메모리(50)에 저장되는 데이터에 대한 여러 가지의 처리를 수행하고, 그 결과 생성되는 데이터와 데이터 메모리(20)에 저장된 데이터를 비교하여 사용자를 식별한다.
마이크로 프로세서(60)에 의해 수행되는 여러 가지의 처리로는 CCD 카메라(30)에 의해 촬영된 영상에 대한 세로 경계 영역 강화 처리 및 마디 지문 강화 처리를 수행하여 손가락의 마디 지문들을 추출하는 처리, 상기 추출된 손가락의 마디 지문들에 대한 군집화 처리 등이 있다.
마이크로 프로세서(60)에 의한 사용자의 식별 결과 사용자의 손가락 마디 지문이 데이터 메모리(20)에 미리 저장되어 있는 손가락 마디 지문 데이터 중 어느 하나와 일치하는 경우 마이크로 프로세서(60)는 인터페이스부(70)를 통해 외부 장치를 제어하는 신호, 예를 들어 문의 개폐 신호 등을 출력한다.
도 2 내지 도 6은 본 발명의 실시예에 따른 손가락 마디 지문을 이용한 개인 식별 방법의 순서도로서, 이하에서는 상기 개인 식별 장치의 동작을 상기 도 2 내지 도 6의 순서도를 참조하여 상세히 설명한다.
먼저, 개인 식별을 받고자 하는 사용자가 키 입력부(10)를 통해 자신의 개인 고유 식별 번호를 입력한 후, CCD 카메라(30)가 자신의 손 부위, 특히 손가락 마디 지문 부위를 정확하게 촬영할 수 있도록 자신의 손을 위치시킨다(S10).
키 입력부(10)는 사용자에 의해 입력되는 개인 고유 식별 번호를 마이크로 프로세서(60)로 전달하고, 마이크로 프로세서(60)는 전달되는 개인 고유 식별 번호가 데이터 메모리(20) 내에 존재하는 지의 여부를 판단하며(S20), 입력된 개인 고유 식별 번호가 데이터 메모리(20) 내에 존재하지 않으면, 즉 사용자가 특정인으로 식별되지 않는 경우에는 상기 개인 고유 식별 번호 재입력 단계(S10)로 복귀하고, 만약 입력된 개인 고유 식별 번호가 데이터 메모리(20) 내에 존재하면 마이크로 프로세서(60)는 다음과 같은 과정에 따라 사용자의 손가락 마디 영상을 입력받는다(S30).
마이크로 프로세서(60)의 제어에 따라 CCD 카메라(30)는 사용자의 손가락 영상을 촬영하여 대응되는 영상 신호를 출력하고, 이 영상 신호는 프레임 그래버(40)에 의해 첨부한 도 7과 같은 안정된 순간의 한 프레임의 정지 화상 데이터로 변환되어 화상 메모리(50)에 임시 저장된다.
CCD 카메라(30)에 의해 촬영되는 영상은 여러 가지 환경에서 얻어질 수 있다. 예를 들어 황색 LED 조명을 이용하여 촬영한 후 640 × 480 크기의 8비트 계조 영상을 얻을 수 있다.
마이크로 프로세서(60)는 화상 메모리(50)에 저장된 정지 화상 데이터를 유지하면서 손가락 마디 지문 부분이 포함된 관심 영역(ROI:Region Of Interest)을 첨부한 도 8과 같이 추출한 다음(S40) 이 영역에서 마디 지문을 추출하기 위한 전처리 과정을 다음과 같이 수행한다. 여기에서 관심 영역의 크기는 345 × 245로 특정하여 사용하고 있으나, 본 발명의 기술적 범위는 여기에 한정되지 않고, 정지화상 데이터의 크기인 640 × 480 내에서 임의로 정해질 수 있다.
도 8에 도시된 관심 영역은 손바닥의 울긋불긋함과, 불균일한 조명, 손가락의 굴곡 등으로 마디 지문과 손가락 부분 및 잡영이 서로 엇비슷한 계조 수준에서 혼재하게 된다.
따라서 관심 영역의 노이즈 성분을 줄이기 위하여 마이크로 프로세서(60)는 아래의 [식 1]과 같은 11×11 Gaussian 마스크를 사용하는 저대역 필터링을 적용하여 잡영이 제거된 영상 f1(x,y)를 얻는다(S50).
[식 1] 11×11 Gaussian 마스크
상기와 같이 노이즈가 제거된 f1(x,y) 영상에서 손가락 마디 지문을 추출하기 위해서는 크게 두가지 과정이 필요하다.
첫째로는 각각의 마디 지문 군집화 과정에서 한 손가락의 마디 지문이 다른 손가락의 마디 지문과 하나의 군집으로 묶이는 것을 방지하기 위해 각 손가락의 경계 영역을 추출하는 과정(S60)이 필요하며, 둘째로는 군집화를 실행하기 위한 각 손가락의 마디 지문을 추출하는 과정(S70)이 필요하다.
먼저 손가락의 경계 영역을 추출하는 과정(S60)에 대해 설명한다.
마이크로 프로세서(60)는 상기 단계(S50)에서 추출된 f1(x,y) 영상에 아래의 [식 2]와 같은 세로 경계 부분을 강화하는 마스크를 적용하여 손가락의 세로 경계 부분이 강화된 영상 f2(x,y)을 얻은 후(S62), 이 영상에 이치화를 행하여 손가락 사이의 경계 영역을 추출한다(S64).
[식 2] 세로 경계 강화 마스크
이치화 알고리즘은 N. Otsu의 "A threshold selection method from gray-level histograms"(IEEE SMC-9, No. 1, pp. 62-66, January 1997)에서 제안된 계조 수준 히스토그램(gray level histogram)으로부터 계조 수준의 확률적 분포에 따른 이치화 값을 자동적으로 선택하여 주는 알고리즘을 사용하며, f2(x,y) 영상을 배경과 손가락의 세로 경계 부분으로 이치화시킨 영상 f3(x,y)이 첨부된 도 9와 같이 얻어진다.
다음, 상기와 같이 이치화된 세로 경계 영상인 f3(x,y)을 이용하여 손가락 경계 영역을 정의하여야 하는데, 도 9에 도시된 바와 같이 f3(x,y)는 잡영에 의한 영향으로 일반적인 경계 추적 기반 알고리즘을 적용할 경우 연결되지 않은 경계선등에 의해 손가락 경계선 정의에 실패하는 확률이 상당히 높다는 것이 관찰되었다.
따라서, 본 발명의 실시예에서는 정확한 경계선에 대한 정의보다는 인접한 손가락 사이의 경계선을 안정적으로 추출하고자 허프 변환을 사용하여 손가락의 경계를 정의한다. 즉, 마이크로 프로세서(60)는 주어진 손가락의 세로 경계 영역에 대하여 허프 변환을 실행한 다음(S66), f3(x,y) 영상에서 일정 길이 이상의 직선 성분으로 추정되는 직선들을 선택하고, 이들 직선을 이용하여 손가락의 경계를 정의한다(S68).
첨부한 도 10은 도 9의 f3(x,y) 영상에 대해 허프 변환을 수행하여 얻어지는 직선 성분을 도시한 도면으로, 직선 성분이 여러개로 두드러져 보이므로, 손가락의 경계를 구분하기 위해서는 손가락의 세로 성분을 나타내는 직선들 중에서 손가락의 경계 영역을 설정할 하나의 기준 직선을 결정해야 한다. 이러한 기준 직선을 결정하는 방법은 여러 가지가 있을 수 있으나, 본 실시예에서는 직선 성분들 중에서 가장 중앙에 있는 직선을 선택하여 첨부한 도 11에 도시되어 있는 바와 같이 해당 손가락들의 경계를 나타내는 직선으로 정의하여 사용하지만, 본 발명의 기술적 범위는 여기에만 한정되는 것은 아니다.
다음 군집화를 실행하기 위해 각 손가락의 마디 지문을 추출하는 과정(S70)에 대해 설명한다.
먼저 마이크로 프로세서(60)는 상기 단계(S50)에서 얻어진 f1(x,y) 영상에 대해 아래의 [식 3]과 같은 3×11 언샤프(unsharp) 마스킹 필터를 사용하여 필터링처리를 수행한다(S72).
이러한 3×11 언샤프(unsharp) 마스킹 필터는 손가락 각각의 영역에 적용하지는 않고 상기 단계(S50)에서 잡영 처리 과정을 마친 영상 f1(x,y)에 직접 적용한다. 이 필터는 일종의 하이 부스트(high boost) 저대역 필터로서 가로 방향의 윤곽선 성분이 강한 마디 지문을 강조하며, 또한 불균일한 조명에서 유발되는 영상 왜곡을 평활화해주는 효과까지 가지고 있다.
[식 3] 언샤프(unsharp) 마스킹 필터
다음 마이크로 프로세서(60)는 이와 같이 마디 지문이 강화된 f'3(x,y) 영상에 대하여 이치화를 적용하고(S74), 8-접속도(connectivity)에 의해 연결된 요소들에 각각의 레이블 번호를 부여하는 레이블링 과정을 실행한다. 이 때, 일정 크기 이하를 가지는 레이블들과 세로 성분으로 일정한 높이를 가지는 레이블들은 손가락 마디 지문이 아닌 잡영으로 판단하여 제거된다.
첨부한 도 12는 이치화된 마디 지문 영상을 도시한 도면이고, 도 13은 레이블링 과정을 통하여 잡영이 제거되고 마디 지문 부분만 추출된 영상을 도시한 도면이다.
다음, 마이크로 프로세서(60)는 허프 변환을 이용하여 정의된 각 손가락의 경계 영역을 레이블링 과정을 통하여 손가락 마디 지문이 추출된 영상에 적용하여손가락 마디 지문의 군집화를 실행한다(S80).
이하 이러한 군집화 과정(S80)에 대해 상세하게 설명한다.
먼저, 마이크로 프로세서(60)는 레이블링 과정을 통하여 손가락 마디 지문이 추출된 영상, 즉 도 13에 도시된 영상에서 각 마디 지문 레이블의 외접 사각형을 구하고(S802) 외접 사각형의 중심점(l_c)을 찾는다(S804). 첨부한 도 14를 참조하면 마디 지문의 외접 사각형이 표시되고, 그 사각형의 중심점(l_c) 또한 표시되어 있다.
다음, 마이크로 프로세서(60)는 상기 단계(S804)에서 구해진 외접 사각형의 중심점(l_c)들 사이의 거리(l_d)를 산출하며(S806), 이러한 거리는 첨부한 도 15에 잘 도시되어 있다.
한편, 군집화를 하기 위한 기준 거리를 L_Distance로 하는 경우, 이 기준 거리는 다음 [식 4]에 표시된 바와 같이 외접 사각형의 중심점들 사이의 거리(l_d)의 평균값을 상수 k로 나눈 값으로 산출된다(S808).
L_Distance =
[식 4] 군집화 기준 거리
여기서, 상수 k는 실험적으로 2.5 정도에서 가장 좋은 성능을 보인다.
계속해서, 마이크로 프로세서(60)는 외접 사각형들 사이의 거리(l_d)가 상기 정해진 기준 거리(L_Distance)보다 작은 마디 지문 레이블들을 하나의 군집으로 묶는다(S810). 이 때, 손가락 마디 지문이 허프 변환에 의해 나뉘어진 동일 영역 내에 위치하지 않으면 하나의 군집으로 묶지 않는다. 이와 같이 군집화된 결과가 첨부한 도 16에 도시되어 있다.
다음, 마이크로 프로세서(60)는 상기 단계(S810)에서 묶여진 군집들의 중심점(c_c)을 산출한 후(S812), 각 중심점(c_c)들 사이의 거리(c_d)를 산출한다(S814). 이와 같이 산출된 중심점(c_c)이 첨부된 도 17 표시되어 있다.
한편, 마이크로 프로세서(60)는 각 군집의 병합 여부를 판단하기 위한 기준 거리를 C_Distance라 하고, 각 군집들의 평균 거리를 2로 나눈 값에 가중치(τ)를 더한 값으로 결정한다(S816). 이 산출식은 아래의 [식 5]에 표시되어 있으며, 첨부된 도 18에는 이 기준 거리가 표시되어 있다.
C_Distance =+ τ
[식 5] 군집 병합 기준 거리
여기서, 상수 τ는 각 군집 사이의 거리 편차를 감안하기 위한 값으로, 실험적으로 10 정도에서 가장 좋은 성능을 보인다.
다음, 마이크로 프로세서(60)는 상기 단계(S810)에서 구해진 군집들이 상기 단계(S816)에서 산출된 기준 거리 이내에 위치하고 있으면 하나의 마디 지문 그룹이 이들 군집으로 나뉘어진 그룹 후보로 놓고 이들 후보 군집의 병합 여부를 판정한다(S818). 여기서 손가락 마디 지문의 군집은 상기 기준 거리 내에 보통 하나또는 둘 정도가 위치하기 때문에 병합의 경우 2개의 군집이 후보 군집에 해당되고 이들 2개의 군집의 병합 여부가 판정된다.
상기 단계(S818)에서 후보 군집이 정해지면, 마이크로 프로세서(60)는 후보 군집의 해당 마디 지문들의 외접 사각형의 각 꼭지점들 사이의 최소 거리가 상기 산출된 기준 거리의 1/2, 즉 C_Distance/2 이하이면 하나의 군집으로 판단하여 후보 군집을 하나의 군집으로 병합한다(S820).
상기와 같이 CCD 카메라(30)에 의해 촬영된 정지 화상으로부터 사용자의 손가락 마디 지문 영상이 추출되면, 마이크로 프로세서(60)는 데이터 메모리(20) 내에 저장된 데이터의 마디 지문과의 유사도를 판정하기 위해 손가락 마디 지문 각각의 군집에 대하여 독립적인 정합을 실행한다(S90). 특히 데이터 메모리(20) 내에 저장된 영상과 CCD 카메라(30)에 의해 촬영된 영상 2개의 동일한 관심 영역 내에 포함된 마디 지문의 개수가 다를 수가 있다. 이 경우 같은 위치의 마디 지문 군집으로 판단되는 군집들만 부분적으로 정합해야 하는 경우도 발생할 수 있다.
설명의 편의상 CCD 카메라(30)에 의해 촬영되어 최종적으로 상기 단계(S820)에 의해 생성된 영상을 입력 영상으로 하고, 데이터 메모리(20)에 저장된 영상을 등록 영상으로 구분한다.
먼저, 마이크로 프로세서(60)는 등록 영상의 각 마디 지문 군집의 외접 사각형을 구하고(S910), 구해진 외접 사각형의 중심점(c)을 찾는다(S920). 이와 같이 구해진 외접 사각형과 그 중심점이 첨부한 도 19에 표시되어 있다.
다음 외접 사각형의 중심점(c)을 기준으로 첨부한 도 20에 도시된 바와 같은입력 영상에서 일정 범위 내에 위치하고 있는 마디 지문 군집들의 외접 사각형의 중심점(c')과 일치시킨 후(S930), 상하좌우로 마디 지문 군집을 이동시키면서 정합을 시키면서 유사도가 가장 좋은 값을 취한다(S940). 첨부한 도 21에는 등록 영상과 입력 영상의 이동 정합이 도시되어 있다.
이와 같은 방식으로 각각의 손가락 마디 지문 군집을 특징 벡터로 하여 독립적으로 정합을 시키게 되면 영상 입력 시 특정 손가락이 제외되거나, 균일하지 못한 조명과 사용자의 미숙함에 의해 발생할 수 있는 특정 부위의 마디 지문 소실에 의한 오차에도 나머지 손가락의 마디 지문 군집의 정합에 의해 상당히 신뢰할 수 있는 정합 결과를 얻을 수 있다.
한편, 상기 단계(S940)에서 수행되는 각 마디 지문 군집의 정합은 가중치가 적용된 원형 정합이 이용된다.
정합의 가중치라는 것은 각 군집의 외접 사각형 내에서 등록 영상의 마디 지문 영역, 등록 영상의 바탕 영역, 입력 영상에서의 마디 지문 영역, 입력 영상의 바탕 영역에 대해 구해진 정합 계수들에 각각 1/4씩 가중치를 둠을 의미한다. 이것은 마디 지문과 바탕 영역에 같은 가중치를 둠으로써 마디 지문 영역과 바탕 영역의 면적의 불균형에서 오는 바이어스(bias)를 방지하기 위함이다.
상기한 바와 같은 정합 계수를 구하기 위한 식은 아래의 [식 6]과 같다.
[식 6] 정합 계수 산출식
여기서 s 및 t는 최대 정합치를 구하기 위해 입력 영상을 이동시키기 위한
변수이며, f(x,y)는 이치화된 입력 영상이고,는 f(x,y)의 보수(complement)이며, w(x,y)는 이치화된 등록 영상을 나타낸다. 그리고 최종 정합 계수는 s와 t를 일정값까지 변화시키면서 계산된 계수값의 최대값이다. 즉, 정합 계수는 다음의 [식 7]에 의해 구해진다.
[식 7] 최종 정합 계수 산출식
다음, 마이크로 프로세서(60)는 상기 단계(S940)에서 입력 영상과 정합 결과가 기준값 이상인 등록 영상이 있는 경우(S100), 손가락 마디 지문을 입력한 사용자를 개인 고유 식별 번호에 의해 지정된 특정 인물로 인식하고, 인터페이스부(70)를 통해 제어 신호를 출력하여 외부 장치, 예를 들어 문 등을 개폐 제어한다(S110). 만약 상기 단계(S940)에서 입력 영상과 정합 결과 기준값 이상인 등록 영상이 없으면 마이크로 프로세서(60)는 손가락 마디 지문을 입력한 사용자가 등록된 특정 인물이 아닌 것으로 판단하여 문의 개폐 등을 수행하지 않는다(S120).
[실시예]
상기한 바와 같은 손가락 마디 지문을 이용한 개인 식별 장치의 성능을 평가하기 위해 사용한 실험 환경은 범용 CCD 카메라를 사용하여 BT-848 PCI 오버레이 보드를 사용하여 영상을 입력하였으며, 손가락 마디 지문을 이용한 개인 식별 방법의 알고리즘 구현은 C++을 이용하여 펜티엄 PC에서 이루어졌다.
실험용 시료는 무작위로 취득한 129명의 손가락 영상을 사용하였다. 입력 영상은 한 사람당 3번씩 입력을 받아서 이들을 토대로 손가락 마디 지문 군집을 각각 독립적으로 정합하고, 오인식률(FAR) 및 오거절률(FRR)을 계산하였다. 즉 각 개인당 입력한 3개의 영상 중 1개를 등록 영상으로 선정한 다음, 본인의 나머지 영상과 비교하여 오거절률을 계산하고, 다른 사람의 영상과 비교하여 오인식률을 계산하였다.
다음의 [표 1]은 인식 기준 임계치를 0.50부터 0.63까지 변화시켰을 때 발생하는 오인식률과 오거절률을 보여준다. [표 1]에서 FA 및 FR은 각각 오인식 회수 및 오거절 회수이다.
[표 1] 오인식률 및 오거절률 실험 결과
또한, 생체 인식 시스템의 성능 지수로 자주 사용되는 척도인 FAR과 FRR이 같아지는 인자 설정시의 에러율(Equal Error Rate:ERR)을 살펴보면 임계치 0.5670 근처에서 FAR = FRR ≒ 0.6%로 나타난다. 첨부한 도 22에 EER 그래프가 도시되어 있다.
비록, 본 발명이 가장 실제적이며 바람직한 실시예를 참조하여 설명되었지만, 본 발명은 상기 개시된 실시예에 한정되지 않으며, 후술되는 특허청구범위 내에 속하는 다양한 변형 및 등가물들도 포함한다.
본 발명에 따르면, 영상 취득이 간편하고 사용자 편리성에서 우수한 효과가있다. 또한, 손가락 마디 지문의 군집화를 통한 각 군집의 독립적인 정합으로 마디 지문을 이용한 생체 인식의 실용화 가능성이 향상된다.

Claims (14)

  1. a) 입력 변환된 손가락 마디의 화상 데이터로부터 관심 영역 데이터를 추출하는 단계;
    b) 상기 추출된 관심 영역 데이터를 저대역 필터링하는 단계;
    c) 상기 저대역 필터링된 데이터로부터 손가락 경계 영역을 추출하는 단계;
    d) 상기 저대역 필터링된 데이터로부터 손가락 마디 지문을 추출하는 단계;
    e) 상기 추출된 손가락 마디 지문에 상기 추출된 손가락 경계 영역을 적용하여 손가락 마디 지문을 군집화하는 단계;
    f) 상기 군집화된 손가락 마디 지문과 미리 등록되어 있는 손가락 마디 지문 군집을 독립적으로 정합시키는 단계; 및
    g) 상기 정합 결과에 따라 특정 인물임을 인식하는 단계
    를 포함하는 손가락 마디 지문을 이용한 개인 식별 방법.
  2. 제1항에 있어서,
    상기 c) 손가락 경계 영역 추출 단계가
    상기 저대역 필터링된 데이터에 대해 손가락의 세로 경계 부분을 강화하는 단계;
    상기 세로 경계 강화된 데이터를 이치화하는 단계; 및
    상기 이치화된 데이터에 대해 손가락 경계를 정의하는 단계
    를 포함하는 손가락 마디 지문을 이용한 개인 식별 방법.
  3. 제2항에 있어서,
    상기 저대역 필터링된 데이터에 대해 세로 경계를 강화하는 마스크를 사용하여 손가락의 세로 경계 부분을 강화하는 것을 특징으로 하는 손가락 마디 지문을 이용한 개인 식별 방법.
  4. 제2항에 있어서,
    상기 이치화가 계조 수준 히스토그램(gray level histogram)으로부터 계조 수준의 확률적 분포에 따른 이치화 값을 자동적으로 선택하여 주는 알고리즘에 의해 수행되는 것을 특징으로 하는 손가락 마디 지문을 이용한 개인 식별 방법.
  5. 제2항에 있어서,
    상기 이치화된 데이터를 허프(Hough) 변환한 후, 일정 길이 이상의 직선 성분을 선택하고, 상기 선택된 직선 성분 중 기준 성분을 결정하여 손가락의 경계 영역을 정의하는 것을 특징으로 하는 손가락 마디 지문을 이용한 개인 식별 방법.
  6. 제1항에 있어서,
    상기 d) 단계가
    d-1) 상기 저대역 필터링된 데이터에 대해 언샤프 마스킹 필터를 이용하여 필터링하는 단계;
    d-2) 상기 필터링된 데이터를 이치화하는 단계; 및
    d-3) 상기 이치화된 데이터에 대해 레이블링을 수행하는 단계
    를 포함하는 손가락 마디 지문을 이용한 개인 식별 방법.
  7. 제6항에 있어서,
    상기 d-3) 단계에서 일정 크기 이하를 가지는 레이블과 세로 성분으로 일정한 높이를 가지는 레이블이 손가락 마디 지문이 아닌 잡영으로 판단되어 제거되는 것을 특징으로 하는 손가락 마디 지문을 이용한 개인 식별 방법.
  8. 제6항에 있어서,
    상기 e) 단계가
    e-1) 상기 추출된 손가락 마디 지문 레이블을 군집화 기준 거리에 기초하여 군집화하는 단계; 및
    e-2) 상기 e-1) 단계에서 각 군집화된 손가락 마디 지문 군집을 병합 기준 거리―여기서 병합 기준 거리는 상기 각 손가락 마디 지문 군집의 병합 여부를 판단하기 위한 기준 거리임―에 기초하여 병합하는 단계
    를 포함하는 손가락 마디 지문을 이용한 개인 식별 방법.
  9. 제8항에 있어서,
    상기 e-1) 단계가
    e-1a) 상기 손가락 마디 지문 레이블 각각에 대해 외접 사각형을 구하는 단계;
    e-1b) 상기 e-1a) 단계에서 구해진 외접 사각형의 중심점을 산출하는 단계;
    e-1c) 상기 외접 사각형의 중심점 사이의 거리를 산출하는 단계; 및
    e-1d) 상기 산출된 외접 사각형의 중심점 사이의 거리가 상기 군집화 기준 거리보다 작은 손가락 마디 지문 레이블들을 하나의 군집으로 묶는 단계
    를 포함하는 손가락 마디 지문을 이용한 개인 식별 방법.
  10. 제9항에 있어서,
    상기 군집화 기준 거리가 아래의 관계식
    L_Distance =
    여기서 L_Distance는 군집화 기준 거리,
    k는 상수임
    을 따르는 손가락 마디 지문을 이용한 개인 식별 방법.
  11. 제9항에 있어서,
    상기 e-2) 단계가
    e-2a) 상기 e-1d) 단계에서 묶여진 각 군집에 대해 외접 사각형을 구하는 단계;
    e-2b) 상기 e-2a) 단계에서 구해진 외접 사각형의 중심점을 산출하는 단계;
    e-2c) 상기 외접 사각형의 중심점 사이의 거리를 산출하는 단계;
    e-2d) 상기 외접 사각형의 중심점 사이의 거리가 상기 병합 기준 거리보다 작은 경우 병합 후보로 판정하는 단계; 및
    e-2e) 상기 병합 후보 군집의 외접 사각형의 각 꼭지점들 사이의 최소 거리가 상기 병합 기준 거리의 1/2 이하인 경우 상기 병합 후보 군집을 병합하는 단계
    를 포함하는 손가락 마디 지문을 이용한 개인 식별 방법.
  12. 제11항에 있어서,
    상기 병합 기준 거리가 아래의 관계식
    C_Distance =+ τ
    여기서 C_Distance는 병합 기준 거리,
    τ는 각 군집 사이의 거리 편차 관련 값으로 상수임
    을 따르는 손가락 마디 지문을 이용한 개인 식별 방법.
  13. 제1항에 있어서,
    상기 f) 단계가
    f-1) 상기 미리 등록되어 있는 각 손가락 마디 지문 군집의 외접 사각형을 구하는 단계;
    f-2) 상기 f-1) 단계에서 구해진 외접 사각형의 중심점을 산출하는 단계;
    f-3) 상기 f-2) 단계에서 산출된 중심점을 기준으로 일정 범위 내에 중심점이 위치하는 상기 손가락 마디 지문의 각 군집을 구하는 단계;
    f-4) 상기 f-3) 단계에서 구해진 손가락 마디 지문 군집의 중심점과 상기 등록된 손가락 마디 지문 군집의 중심점을 일치시키는 단계; 및
    f-5) 상기 군집들을 이동시키면서 정합시키는 단계
    를 포함하는 손가락 마디 지문을 이용한 개인 식별 방법.
  14. 사용자의 키 입력을 위한 키 입력부;
    개인의 손가락 마디 지문 데이터 및 개인 고유 식별 번호가 미리 저장되어 있는 데이터 메모리;
    개인 식별을 받고자 하는 사용자의 손가락을 촬영하여 해당 영상을 출력하는 카메라;
    상기 카메라로부터 출력되는 손가락 영상으로부터 정지 화상 데이터를 추출하는 프레임 그래버;
    상기 프레임 그래버에 의해 추출된 정지 화상 데이터가 저장되는 화상 메모리;
    상기 화상 메모리에 저장되는 정지 화상 데이터에 대해 손가락 경계 영역 추출, 손가락 마디 지문 추출 및 손가락 마디 지문 군집화를 포함하는 처리를 수행하고, 그 결과 생성되는 데이터와 상기 데이터 메모리에 저장된 데이터를 독립적으로 정합시켜 상기 사용자의 특정 인물임을 식별하는 마이크로 프로세서; 및
    외부 장치와 상기 마이크로 프로세서 사이의 데이터 및 제어 통신을 위한 인터페이스부
    를 포함하는 손가락 마디 지문을 이용한 개인 식별 장치.
KR10-2001-0031173A 2001-06-04 2001-06-04 손가락 마디 지문을 이용한 개인 식별 방법 및 그 장치 KR100467392B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR10-2001-0031173A KR100467392B1 (ko) 2001-06-04 2001-06-04 손가락 마디 지문을 이용한 개인 식별 방법 및 그 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2001-0031173A KR100467392B1 (ko) 2001-06-04 2001-06-04 손가락 마디 지문을 이용한 개인 식별 방법 및 그 장치

Publications (2)

Publication Number Publication Date
KR20020092522A KR20020092522A (ko) 2002-12-12
KR100467392B1 true KR100467392B1 (ko) 2005-01-24

Family

ID=27707769

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2001-0031173A KR100467392B1 (ko) 2001-06-04 2001-06-04 손가락 마디 지문을 이용한 개인 식별 방법 및 그 장치

Country Status (1)

Country Link
KR (1) KR100467392B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100958962B1 (ko) 2007-12-31 2010-05-20 주식회사 포스코아이씨티 지문 분류 처리 장치 및 방법

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014109682B4 (de) 2014-07-10 2016-04-28 Bundesdruckerei Gmbh Mobiles Terminal zum Erfassen biometrischer Daten
US10909347B2 (en) * 2017-03-14 2021-02-02 Samsung Electronics Co., Ltd. Method and apparatus with fingerprint verification
CN112232155B (zh) * 2020-09-30 2021-12-17 墨奇科技(北京)有限公司 非接触指纹识别的方法、装置、终端及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR970062954A (ko) * 1996-02-12 1997-09-12 서정욱 지문 인식 처리 장치 및 지문 이진 화상 추출 방법
JPH09265528A (ja) * 1996-03-28 1997-10-07 Fujitsu Denso Ltd 指紋登録方法
JPH09311938A (ja) * 1996-05-22 1997-12-02 Chuo Spring Co Ltd 指紋照合装置
JPH10334237A (ja) * 1997-06-04 1998-12-18 Mitsubishi Electric Corp 指紋照合装置
US6018586A (en) * 1995-04-12 2000-01-25 Nec Corporation Apparatus for extracting skin pattern features and a skin pattern image processor using subregion filtering

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6018586A (en) * 1995-04-12 2000-01-25 Nec Corporation Apparatus for extracting skin pattern features and a skin pattern image processor using subregion filtering
KR970062954A (ko) * 1996-02-12 1997-09-12 서정욱 지문 인식 처리 장치 및 지문 이진 화상 추출 방법
JPH09265528A (ja) * 1996-03-28 1997-10-07 Fujitsu Denso Ltd 指紋登録方法
JPH09311938A (ja) * 1996-05-22 1997-12-02 Chuo Spring Co Ltd 指紋照合装置
JPH10334237A (ja) * 1997-06-04 1998-12-18 Mitsubishi Electric Corp 指紋照合装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100958962B1 (ko) 2007-12-31 2010-05-20 주식회사 포스코아이씨티 지문 분류 처리 장치 및 방법

Also Published As

Publication number Publication date
KR20020092522A (ko) 2002-12-12

Similar Documents

Publication Publication Date Title
US7869626B2 (en) Iris recognition method and apparatus thereof
KR100480781B1 (ko) 치아영상으로부터 치아영역 추출방법 및 치아영상을이용한 신원확인방법 및 장치
US7583823B2 (en) Method for localizing irises in images using gradients and textures
US7460693B2 (en) Method and apparatus for the automatic detection of facial features
JP4755202B2 (ja) 顔特徴の検出方法
US7327860B2 (en) Conjunctival scans for personal identification
US20070160266A1 (en) Method for extracting features of irises in images using difference of sum filters
US20070160308A1 (en) Difference of sum filters for texture classification
WO2010129074A1 (en) System and method for identifying a person with reference to a sclera image
JP4351982B2 (ja) 個人認証方法、装置及びプログラム
WO2006023046A1 (en) Single image based multi-biometric system and method
Zhou et al. Multimodal eye recognition
KR20030066512A (ko) 노이즈에 강인한 저용량 홍채인식 시스템
KR100467392B1 (ko) 손가락 마디 지문을 이용한 개인 식별 방법 및 그 장치
Chowdhury et al. Fuzzy rule based approach for face and facial feature extraction in biometric authentication
Sisodia et al. A conglomerate technique for finger print recognition using phone camera captured images
KR101767051B1 (ko) 퍼지 추론 기반 지정맥 영상 추출 방법 및 그 장치
Mohammed et al. Conceptual analysis of Iris Recognition Systems
Morales-Montiel et al. Hand Vein Infrared Image Segmentation for Biometric Recognition.
KR102277122B1 (ko) 인공지능 기반 지정맥을 이용한 인증 방법
KR102028049B1 (ko) 동물 귀 정맥을 이용한 동물의 인증 방법
Choudhari et al. Advance & Integrated technique for Eye gaze and Sclera detection
Demirel et al. Iris recognition system using combined colour statistics
Niyaz et al. Wrist vein recognition by ordinary camera using phase-based correspondence matching
Reyana et al. Use of Artificial Intelligence for Palm Vein Detection-based Personal Identification

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130108

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20140110

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20150112

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20160111

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20161227

Year of fee payment: 13

FPAY Annual fee payment

Payment date: 20181224

Year of fee payment: 15

FPAY Annual fee payment

Payment date: 20200108

Year of fee payment: 16