KR20070026972A - 휴대용 개인단말장치를 이용한 지문인식 시스템 및지문특징 추출장치 및 방법 - Google Patents

휴대용 개인단말장치를 이용한 지문인식 시스템 및지문특징 추출장치 및 방법 Download PDF

Info

Publication number
KR20070026972A
KR20070026972A KR1020050079269A KR20050079269A KR20070026972A KR 20070026972 A KR20070026972 A KR 20070026972A KR 1020050079269 A KR1020050079269 A KR 1020050079269A KR 20050079269 A KR20050079269 A KR 20050079269A KR 20070026972 A KR20070026972 A KR 20070026972A
Authority
KR
South Korea
Prior art keywords
fingerprint
image
region
area
gradient
Prior art date
Application number
KR1020050079269A
Other languages
English (en)
Other versions
KR100891324B1 (ko
Inventor
김성재
김재희
이상훈
이철한
Original Assignee
삼성전자주식회사
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사, 연세대학교 산학협력단 filed Critical 삼성전자주식회사
Priority to KR1020050079269A priority Critical patent/KR100891324B1/ko
Priority to US11/472,371 priority patent/US7970185B2/en
Publication of KR20070026972A publication Critical patent/KR20070026972A/ko
Application granted granted Critical
Publication of KR100891324B1 publication Critical patent/KR100891324B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/34Smoothing or thinning of the pattern; Morphological operations; Skeletonisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)

Abstract

휴대용 개인단말장치의 카메라를 이용하여 촬영된 지문영상에서 지문영역과 융선방향을 추출하는 지문특징 추출장치 및 방법, 그리고 휴대용 개인단말장치의 카메라를 이용한 지문인식 시스템이 개시된다. 본 발명의 실시예에 따른 지문특징 추출방법은, 카메라를 이용하여 촬영되는 영상에 설정되는 가드영역 내에서 제 1 지문영상을 획득하는 단계, 상기 제 1 지문영상의 색정보를 이용하여 색분포를 예측함으로써 지문영역을 추출하는 단계, 상기 지문영역을 복수의 블록들로 나누고 각각의 블록에 대해 구한 그래디언트와 초기방향을 이용하여 이상치를 제거함으로써 상기 각각의 블록에서 융선방향을 추출하는 단계, 및 상기 추출된 지문영역 및 융선방향을 이용하여 제 2 지문영상을 획득하고 상기 제 2 지문영상을 이진화하고 세선화하여 지문특징을 추출하는 단계를 구비한다. 본 발명의 실시예에 따른 지문특징 추출장치 및 방법은 휴대용 개인단말장치의 카메라를 통해 획득되는 지문영상에 대해 배경, 촬영 시기 및 장소에 관계없이 지문영역과 융선방향을 추출할 수 있는 장점이 있다.
지문영상, 지문영역, 융선방향, 이상치

Description

휴대용 개인단말장치를 이용한 지문인식 시스템 및 지문특징 추출장치 및 방법{Fingerprint recognition system using mobile phone camera and apparatus and method for estimating fingerprint characteristics}
본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 간단한 설명이 제공된다.
도 1은 종래의 융선방향 추출방법에서 융선의 흐름과 이에 대한 그래디언트를 나타내는 도면이다.
도 2는 종래의 융선방향 추출방법에 이용되는 최소자승 알고리즘이 이상치에 의해 영향을 받는 현상을 나타내는 도면이다.
도 3은 종래의 접촉식 지문센서를 이용하여 획득된 지문영상과 휴대용 개인단말장치의 카메라를 이용하여 획득된 지문영상을 나타내는 도면이다.
도 4는 본 발명의 실시예에 따른 지문인식 시스템의 구성도이다.
도 5는 본 발명의 실시예에 따른 지문특징 추출방법에 대한 흐름도이다.
도 6은 휴대용 개인단말장치의 카메라로 촬영되는 영상에 설정된 가드영역의 모습을 나타내는 도면이다.
도 7은 도 5에서 제 1 지문영상을 획득하는 단계에 대한 흐름도이다.
도 8은 도 5에서 지문영역을 추출하는 단계에 대한 흐름도이다.
도 9는 도 5에서 융선방향을 추출하는 단계에 대한 흐름도이다.
본 발명은 지문인식 시스템에 관한 것으로서, 특히 휴대용 개인단말장치의 카메라를 통해 획득된 지문영상에서 지문영역과 융선방향을 추출하는 지문특징 추출장치 및 방법, 그리고 휴대용 개인단말장치의 카메라를 통해 획득된 지문영상을 저장된 지문영상과 비교하여 지문인식을 수행하는 지문인식 시스템에 관한 것이다.
지문은 개인의 고유한 특성으로서, 그 형태가 개인마다 다르고 태어날 때의 모습 그대로 평생동안 변하지 않기 때문에, 개인을 식별할 수 있는 중요한 수단 중 하나이다. 최근 무인경비시스템, 금융거래시스템 등과 같은 본인인증이 필요한 시스템에서는 지문 인식 기술을 이용하여 본인인증을 수행하는 방법이 많이 이용되고 있다.
지문인식 시스템은 사용자로부터 획득된 지문영상을 저장하며, 지문획득장치로부터 획득된 지문영상을 저장된 지문영상과 비교함으로써 지문인식을 수행한다. 획득된 지문영상을 저장하거나 비교할 때, 지문인식 시스템은 획득된 지문영상에서 지문특징을 추출하여 저장하거나 비교한다.
일반적으로 지문영상에서 지문특징을 추출하는 과정은 획득된 지문영상에서 지문영역을 추출하고 융선방향 및 주파수를 추출하여 지문영상의 품질을 향상시킨 후, 향상된 품질의 지문영상을 이진화하고 세선화하는 과정을 포함한다.
지문영역을 추출하는 과정은 획득된 지문영상에서 지문영역과 배경영역을 분리하는 과정이다. 한편, 지문의 방향정보는 융선방향을 추출하여 얻을 수 있다. 융선방향은 특이점(중심점, 삼각주) 탐색 과정, 융선 향상 과정(Enhancement), 분류(Classification) 과정 등을 포함하는 전반적인 지문인식 알고리즘에서 기반 정보로 사용되는 중요한 정보다. 융선방향을 추출하는 방법으로는 지문영상의 그래디언트를 이용하는 방법이 보편적으로 사용된다.
이하 도 1을 참조하여 영상의 그래디언트를 이용하여 융선방향을 추출하는 방법에 대해 설명한다.
먼저 지문영역을 겹쳐지지 않는 복수개의 블록들로 나눈다. 지문영역에서의 하나의 블록이 도 1의 (a)에 도시되어 있다. 그 후 각각의 블록에서의 그래디언트(gradient)를 구한다. 그래디언트(Gx, Gy)는 일반적으로 알려진 소벨 연산(Sobel operator)을 이용하여 구할 수 있다. 이 때, 융선방향은 그래디언트(Gx, Gy)를 이용하여 아래의 [수학식 1] 내지 [수학식 6]에 따라 구할 수 있다.
[수학식 1]
Figure 112005047844792-PAT00001
[수학식 2]
Figure 112005047844792-PAT00002
[수학식 3]
Figure 112005047844792-PAT00003
[수학식 4]
Figure 112005047844792-PAT00004
[수학식 5]
Figure 112005047844792-PAT00005
[수학식 6]
Figure 112005047844792-PAT00006
여기서, (
Figure 112005047844792-PAT00007
,
Figure 112005047844792-PAT00008
)는 지문영역에서 (x, y)방향으로 (i, j)번째 픽셀의 좌표이고, 각각의 블록의 가로 및 세로의 픽셀 폭은 2w이고,
Figure 112005047844792-PAT00009
는 좌표(
Figure 112005047844792-PAT00010
,
Figure 112005047844792-PAT00011
)의 픽셀을 중심픽셀로 하는 블록에서의 융선방향이다. 도 1의 (b)의 직선은 도 1의 (a)의 블록에서의 융선방향을 나타낸다.
상술한 방법은 최소자승(Least Square: LS) 알고리즘을 이용하여 그래디언트 필드에서 최대방향을 블록에서의 융선방향으로 결정하는 방법이다. 그러나, 이러한 방법은 지문에 있는 상처, 잡음 등의 이상치(outlier)에 민감한 단점이 있다.
도 2는 이상치에 의해 최소자승 알고리즘을 이용한 방법이 영향을 받는 현상 을 나타낸다. 도 2에 도시된 바와 같이, 융선방향은 이상치들의 영향 때문에 진정한 융선방향(
Figure 112005047844792-PAT00012
)이 아닌 잘못된 융선방향(
Figure 112005047844792-PAT00013
)으로 결정될 수 있다.
한편, 최근에는 핸드폰, PDA 등의 휴대용 개인단말장치에는 카메라가 장착되는 것이 일반적인 추세이며, 이미지 센서 및 이미지 프로세싱 기술의 발달에 따라 휴대용 개인단말장치에 장착되는 카메라의 성능 또한 일반 디지털 카메라의 성능과 거의 차이가 나지 않는다. 이러한 추세를 고려하여, 휴대용 개인단말장치에 장착된 카메라를 이용하여 획득된 지문영상을 통해 지문인식을 할 필요가 있다.
그러나, 휴대용 개인단말장치에 장착된 카메라를 이용하여 획득된 지문영상은 종래의 접촉식 지문센서와 같은 지문획득장치를 이용하여 획득된 지문영상에 비해 지문영상과 지문융선의 방향을 추출하는데 어려움이 있다.
도 3은 종래의 접촉식 지문 센서를 이용하여 획득된 지문영상과 휴대용 개인단말장치에 장착된 카메라를 이용하여 획득된 지문영상을 나타낸다.
도 3에 도시된 바와 같이, 종래의 접촉식 지문센서를 이용하여 획득된 영상(도 3의 (a) 및 (b))은 센서에 손가락이 접촉되지 않아 발생하는 배경부분이 센서의 종류에 따라 일률적으로 나타나며, 따라서 영상의 평균밝기(Mean)나 변화도(Variance)를 이용하여 비교적 쉽게 지문영역과 배경영역의 분리가 가능하다.
그러나, 도 3의 (c)에 도시된 바와 같이, 휴대용 개인단말장치의 카메라를 이용하여 획득된 지문영상의 배경부분은 매우 다양하고 변화가 심하므로, 종래의 지문영역 추출방법으로는 지문영역이 추출될 수 없는 문제점이 있다.
또한, 휴대용 개인단말장치의 카메라를 이용하여 획득된 지문영상의 융선과 골의 조도차는 종래의 접촉식 지문센서를 이용하는 경우에서보다 낮으므로, 카메라의 노이즈나 상처에 의해 더 많은 영향을 받는 문제점이 있다.
본 발명이 이루고자 하는 기술적 과제는 휴대용 개인단말장치의 카메라를 통해 획득된 지문영상에서 지문영역과 융선방향을 추출할 수 있는 지문특징 추출방법을 제공하는 데 있다.
본 발명이 이루고자 하는 다른 기술적 과제는 휴대용 개인단말장치의 카메라를 통해 획득된 지문영상에서 지문영역과 융선방향을 추출할 수 있는 지문특징 추출장치를 제공하는데 있다.
본 발명이 이루고자하는 또다른 기술적 과제는 휴대용 개인단말장치의 카메라를 통해 획득된 지문영상을 저장된 지문영상과 비교함으로써 지문인식을 할 수 있는 지문인식 시스템을 제공하는데 있다.
상기 기술적 과제를 달성하기 위한 본 발명의 실시예에 따른 지문특징 추출방법은, 휴대용 개인단말장치의 카메라를 이용하여 지문특징을 추출하는 방법에 있어서, 상기 카메라를 이용하여 촬영되는 영상에 설정되는 가드영역 내에서 제 1 지문영상을 획득하는 단계, 상기 제 1 지문영상의 색정보를 이용하여 색분포를 예측함으로써 지문영역을 추출하는 단계, 상기 지문영역을 복수의 블록들로 나누고 각각의 블록에 대해 구한 그래디언트와 초기방향을 이용하여 이상치를 제거함으로써 상기 각각의 블록에서 융선방향을 추출하는 단계, 및 상기 추출된 지문영역 및 융 선방향을 이용하여 제 2 지문영상을 획득하고 상기 제 2 지문영상을 이진화하고 세선화하여 지문특징을 추출하는 단계를 구비한다.
상기 제 1 지문영상을 획득하는 단계는 상기 가드영역을 설정하는 단계, 상기 가드영역에서 손가락의 영상을 촬영하는 단계, 상기 가드영역에서 촬영된 영상이 손가락영역인지 배경영역인지 판단하는 단계, 및 상기 손가락영역으로 판단하는 경우 상기 가드영역에서 촬영된 영상을 상기 제 1 지문영상으로서 획득하는 단계를 구비한다.
상기 손가락영역인지 배경영역인지 판단하는 단계는 상기 가드영역에서 촬영된 영상의 주파수를 측정하는 단계, 및 상기 측정된 주파수가 소정의 주파수 임계값보다 크면 손가락영역으로 판단하고, 작으면 배경영역으로 판단하는 단계를 구비한다.
상기 주파수는 이산 웨이블렛 변환(discrete Wavelet transform) 또는 테넨그라드(Tenengrad) 방법을 이용하여 측정될 수 있다.
상기 지문특징 추출방법은 상기 배경영역으로 판단하는 경우 상기 손가락의 영상을 촬영하는 단계로 진행하는 단계를 더 구비할 수 있다.
상기 지문영역을 추출하는 단계는 상기 제 1 지문영상의 각 픽셀의 색정보를 추출하는 단계, 상기 색정보를 정규화된 색좌표로 변환하는 단계, 상기 정규화된 색좌표를 이용하여 상기 제 1 지문영상의 평균벡터와 공분산행렬을 계산하는 단계, 상기 제 1 지문영상이 획득된 영역에 이웃하는 픽셀들 중 지문영역인지 배경영역인지 미결정된 픽셀들을 목표픽셀로 설정하는 단계, 상기 목표픽셀의 색정보를 추출 하여 정규화된 색좌표로 변환하는 단계, 상기 목표픽셀의 정규화된 색좌표 및 상기 평균벡터와 공분산행렬을 이용하여 상기 제 1 지문영상과 상기 목표픽셀 사이의 유사성을 나타내는 거리를 계산하는 단계, 및 상기 거리와 소정의 거리 임계값을 비교하여 지문영역을 확장하는 단계를 구비한다.
상기 정규화된 색좌표(
Figure 112005047844792-PAT00014
,
Figure 112005047844792-PAT00015
,
Figure 112005047844792-PAT00016
)는 다음 수학식,
Figure 112005047844792-PAT00017
에 의해 구해지며, 여기서 (
Figure 112005047844792-PAT00018
,
Figure 112005047844792-PAT00019
,
Figure 112005047844792-PAT00020
)는 (i, j)번째 픽셀에서의 색정보이다.
상기 평균벡터와 공분산행렬은 상기 정규화된 색좌표 중 2개의 요소에 의해 구해질 수 있다.
상기 평균벡터(m)와 공분산행렬(Σ)은 다음 수학식,
Figure 112005047844792-PAT00021
에 의해 구해지며, 여기서 N은 지문영역의 모든 픽셀들의 수이고,
Figure 112005047844792-PAT00022
,
Figure 112005047844792-PAT00023
,
Figure 112005047844792-PAT00024
,
Figure 112005047844792-PAT00025
는 각각 정규화된 색좌표 중
Figure 112005047844792-PAT00026
Figure 112005047844792-PAT00027
,
Figure 112005047844792-PAT00028
Figure 112005047844792-PAT00029
,
Figure 112005047844792-PAT00030
Figure 112005047844792-PAT00031
, 그리고
Figure 112005047844792-PAT00032
Figure 112005047844792-PAT00033
에 대한 공분산이다.
상기 지문영역을 확장하는 단계는 상기 거리가 상기 거리 임계값보다 작으면 상기 목표픽셀을 지문영역으로 결정하는 단계, 및 상기 거리가 상기 거리 임계값보 다 크면 상기 목표픽셀을 배경영역으로 설정하는 단계를 구비한다.
상기 거리(D(i))는 수학식,
Figure 112005047844792-PAT00034
로 표현되는 마할라노비스 거리이며, 여기서 x(i)는 상기 목표픽셀의 정규화된 색좌표이다.
상기 융선방향을 추출하는 단계는 상기 지문영역을 복수의 블록들로 나누고 각각의 블록에서의 그래디언트를 구하는 단계, 상기 그래디언트를 이용하여 상기 각각의 블록의 초기방향을 측정하는 단계, 상기 그래디언트를 백색화하여 그래디언트의 유클리디언 놈(Norm)을 구하고, 상기 유클리디언 놈에 응답하여 이상치에 해당하는 그래디언트를 제거하는 단계, 상기 제거된 그래디언트를 반영하여 상기 각각의 블록의 방향을 재측정하는 단계, 상기 재측정된 방향과 이전에 측정된 방향의 차이가 소정의 방향 임계값보다 크면 제거된 그래디언트의 에너지 합에 대한 제거되지 않은 그래디언트의 에너지 합의 비를 계산하고, 크지 않으면 상기 백색화하여 제거하는 단계로 진행하는 단계, 및 상기 에너지 합의 비가 소정의 에너지 임계값보다 작으면 측정범위를 증가시켜 상기 단계들을 반복하고, 작지 않으면 상기 재측정된 방향을 융선방향으로 결정하는 단계를 구비한다.
상기 제거하는 단계는 상기 제거되는 그래디언트의 에너지의 합과 상기 제거되지 않은 그래디언트의 에너지의 합을 저장하는 단계를 더 구비할 수 있다.
상기 다른 기술적 과제를 달성하기 위한 본 발명의 실시예에 따른 지문특징 추출장치는 휴대용 개인단말장치의 카메라를 이용하여 지문특징을 추출하는 장치로서, 지문영상 획득부, 지문영역 추출부, 융선방향 추출부, 및 지문특징 추출부를 구비한다. 지문영상 획득부는 상기 카메라를 이용하여 촬영되는 영상에 설정되는 가드영역 내에서 제 1 지문영상을 획득한다. 지문영역 추출부는 상기 제 1 지문영상의 색정보를 이용하여 색분포를 예측함으로써 지문영역을 추출하다. 융선방향 추출부는 상기 지문영역을 복수의 블록들로 나누고 각각의 블록에 대해 구한 그래디언트와 초기방향을 이용하여 이상치를 제거함으로써 상기 각각의 블록에서 융선방향을 추출한다. 지문특징 추출부는 상기 추출된 지문영역 및 융선방향을 이용하여 제 2 지문영상을 획득하고 상기 제 2 지문영상을 이진화하고 세선화하여 지문특징을 추출한다.
상기 또다른 기술적 과제를 달성하기 위한 본 발명의 실시예에 따른 지문인식 시스템은, 휴대용 개인단말장치의 카메라를 이용하여 지문을 인식하는 시스템으로서, 지문특징 추출장치, 저장부, 및 비교 및 검출부를 구비한다. 지문특징 추출장치는 상기 카메라를 이용하여 촬영된 지문의 특징을 추출한다. 저장부는 지문의 특징을 저장한다. 비교 및 검출부는 상기 지문의 특징과 상기 저장된 지문의 특징을 비교하여 지문인식을 수행한다. 상기 지문특징 추출장치는 지문영상 획득부, 지문영역 추출부, 융선방향 추출부, 및 지문특징 추출부를 구비한다. 지문영상 획득부는 상기 카메라를 이용하여 촬영되는 영상에 설정되는 가드영역 내에서 제 1 지문영상을 획득한다. 지문영역 추출부는 상기 제 1 지문영상의 색정보를 이용하여 색분포를 예측함으로써 지문영역을 추출하다. 융선방향 추출부는 상기 지문영역을 복수의 블록들로 나누고 각각의 블록에 대해 구한 그래디언트와 초기방향을 이용하여 이상치를 제거함으로써 상기 각각의 블록에서 융선방향을 추출한다. 지문특징 추출부는 상기 추출된 지문영역 및 융선방향을 이용하여 제 2 지문영상을 획득하고 상기 제 2 지문영상을 이진화하고 세선화하여 지문특징을 추출한다.
본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 충분히 이해하기 위해서는 본 발명의 바람직한 실시예를 예시하는 첨부 도면 및 도면에 기재된 내용을 참조하여야 한다.
이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시예를 설명함으로써, 본 발명을 상세히 설명한다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다.
휴대용 개인단말장치의 카메라를 이용하여 지문영상 만을 추출하기 위해서, 본 발명의 지문인식 시스템에서는 가드영역을 설정하여 사용자가 가드영역에 손가락영역만을 입력하도록 하는 방식을 이용한다. 또한, 입력된 손가락영역의 색정보를 이용하여 지문영역을 추출하는 방식을 이용한다.
도 4는 본 발명의 실시예에 따른 지문인식 시스템의 구성도이다.
지문인식 시스템(400)은 휴대용 개인단말장치의 카메라(410)를 이용하여 지문을 인식하는 시스템으로, 지문특징 추출장치(490), 지문특징 저장부(460), 및 비교 및 검출부(470)를 구비한다. 지문특징 추출장치(490)는 카메라(410)를 이용하여 촬영된 지문영상에서 지문특징을 추출한다. 지문특징 저장부(460)는 추출된 지문특징을 저장한다. 비교 및 검출부(470)는 추출된 지문특징과 저장된 지문특징을 비교 하여 지문인식을 수행한다.
지문특징 추출장치(490)는 지문영상 획득부(420), 지문영역 추출부(430), 융선방향 추출부(440), 및 지문특징 추출부(450)를 구비한다. 지문영상 획득부(420)는 카메라(410)를 이용하여 촬영되는 영상에 설정되는 가드영역 내에서 제 1 지문영상을 획득한다. 지문영역 추출부(430)는 획득된 지문영상의 색정보를 이용하여 색분포를 예측함으로써 지문영역을 추출한다. 융선방향 추출부(440)는 지문영역을 복수의 블록들로 나누고 각각의 블록에 대해 구한 그래디언트와 초기방향을 이용하여 이상치를 제거함으로써 각각의 블록에서 융선방향을 추출한다. 지문특징 추출부(450)는 추출된 지문영역 및 융선방향을 이용하여 향상된 제 2 지문영상을 획득하고 제 2 지문영상을 이진화하고 세선화하여 지문특징을 추출한다.
도 5는 본 발명의 실시예에 따른 지문특징 추출방법에 대한 흐름도이다. 본 발명의 실시예에 따른 지문특징 추출방법은 제 1 지문영상을 획득하는 단계(S510), 제 1 지문영상에서 지문영역을 추출하는 단계(S520), 추출된 지문영역을 이용하여 융선방향을 추출하는 단계(S530), 추출된 지문영역 및 융선방향을 이용하여 향상된 제 2 지문영상을 획득하여 지문특징을 추출하는 단계(S540 및 S550)에 따라 수행된다.
이하에서는 도 4 내지 도 9를 참조하여 본 발명의 실시예에 따른 지문특징 추출방법 및 지문영역 추출장치(490)에 대해 상세히 설명한다.
먼저, 지문영상 획득부(420)는 카메라(410)를 이용하여 촬영되는 영상에 설정되는 가드영역 내에서 제 1 지문영상을 획득한다. 본 발명의 실시예에서는 특정 영역(즉, 가드영역)에 항상 손가락영역만을 입력하도록 사용자를 유도하기 위해서 카메라로 촬영되는 영상에 일정한 가드영역을 설정한다.
도 6은 휴대용 개인단말장치의 카메라로 촬영되는 영상에 설정된 가드영역의 모습을 나타내는 도면이다. 도 6의 (a)와 같이 카메라로 촬영되는 영상에 사각형 모양의 가드영역이 설정되면, 사용자는 가드영역에 손가락영역이 입력되도록 손가락을 위치시키게 된다. 즉, 도 6의 (b)와 같이 사용자의 도움을 유도하여 가드영역 내에서는 손가락영역만이 촬영될 수 있도록 할 수 있다.
상술한 바와 같이, 본 발명의 실시예에서는 손가락영역 촬영 시 사용자의 도움을 유도함으로써 보다 안정적이고 빠르게 지문영상을 획득할 수 있는 장점이 있다.
지문영상 획득부(420)는 카메라(410)를 이용하여 촬영되는 영상에 설정되는 가드영역 내에서 제 1 지문영상을 획득한다(S510). 이하 도 7을 참조하여 지문영상 획득부(420)에서 제 1 지문영상을 획득하는 단계(S510)에 대해 상세히 설명한다.
도 7은 도 5에서 제 1 지문영상을 획득하는 단계에 대한 흐름도이다.
먼저, 가드영역 설정부(423)는 사용자가 가드영역에 손가락을 위치시키도록 유도하기 위해서 가드영역을 설정한다(S710). 사용자가 손가락을 가드영역에 위치시키게 되면 카메라로 손가락영상을 촬영한다(S720). 영상 획득부(S421)는 촬영된 영상을 수신하여, 가드영역에서 촬영된 영상이 손가락영역인지 배경영역인지 판단한다.
본 발명의 실시예에서 영상 획득부(421)는 가드영역에서 촬영된 영상의 주파 수를 측정하고 측정된 주파수와 소정의 주파수 임계값을 비교하여 손가락영역인지 또는 배경영역인지 결정한다(S730). 즉, 영상 획득부(421)는 측정된 주파수가 소정의 주파수 임계값보다 크면 손가락영역으로 판단하고, 작으면 배경영역으로 판단한다.
한편, 본 발명의 실시예에서 영상획득부(421)는 이산 웨이블렛 변환(discrete Wavelet transform) 또는 테넨그라드(Tenengrad) 방법을 이용하여 주파수를 측정한다. 또한, 소정의 주파수 임계값은 카메라의 종류, 배경, 조명 등에 의해 실험적으로 결정되는 값이다.
한편, 영상 획득부(421)는 가드영역에서 촬영된 영상이 손가락영역으로 판단되면 가드영역에서 촬영된 영상을 상기 제 1 지문영상으로서 획득한다(S740). 그러나, 가드영역에서 촬영된 영상이 배경영역으로 판단되면 영상 획득부(421)는 손가락 영상을 재촬영하여 상술한 단계들(S710 내지 S730)을 반복한다.
제 1 지문영상이 획득되면, 지문영역 추출부(430)는 제 1 지문영상의 색정보를 이용하여 색분포를 예측함으로써 지문영역을 추출한다(S520). 이하 도 8을 참조하여 지문영역 추출부(430)에서 지문영역을 추출하는 단계에 대해 상세히 설명한다.
도 8은 도 6에서 지문영역을 추출하는 단계에 대한 흐름도이다.
사람의 손가락 색은 개인별로, 주위환경 등에 따라 변할 수 있다. 그러나, 카메라를 이용하여 촬영되는 손가락영역의 색은 비슷하다. 본 발명의 실시예에서는 이러한 특성을 이용하여 지문영역을 추출한다. 즉, 손가락영역의 색정보를 이용하 여 입력된 손가락 전체의 색분포를 예측하고, 예측된 색 분포를 이용하여 지문영역으로 판정되는 범위를 확장시킴으로써 지문영역을 추출한다.
색정보 연산부(431)는 제 1 지문영상의 각 픽셀의 색정보(
Figure 112005047844792-PAT00035
,
Figure 112005047844792-PAT00036
,
Figure 112005047844792-PAT00037
)를 추출하여(S810) 정규화된 색좌표(
Figure 112005047844792-PAT00038
,
Figure 112005047844792-PAT00039
,
Figure 112005047844792-PAT00040
)로 변환한다(S820).
여기서 (
Figure 112005047844792-PAT00041
,
Figure 112005047844792-PAT00042
,
Figure 112005047844792-PAT00043
)는 (x, y) 방향으로 (i, j)번째 픽셀에서의 색정보로서, 본 발명의 실시예에서 색정보는 적색(
Figure 112005047844792-PAT00044
), 녹색(
Figure 112005047844792-PAT00045
), 그리고 청색(
Figure 112005047844792-PAT00046
)의 세가지 요소로 구성되나, 마젠다(
Figure 112005047844792-PAT00047
), 시안(
Figure 112005047844792-PAT00048
), 엘로우(
Figure 112005047844792-PAT00049
)의 3가지 요소로 구성될 수도 있다. 또한, 정규화된 색좌표(
Figure 112005047844792-PAT00050
,
Figure 112005047844792-PAT00051
,
Figure 112005047844792-PAT00052
)는 다음 [수학식 7]에 의해 구해진다.
[수학식 7]
Figure 112005047844792-PAT00053
또한, 색정보 연산부(431)는 정규화된 색좌표(
Figure 112005047844792-PAT00054
,
Figure 112005047844792-PAT00055
,
Figure 112005047844792-PAT00056
)를 이용하여 제 1 지문영상의 평균벡터(m)와 공분산행렬()을 계산한다(S830). 평균벡터(m)와 공분산행렬()은 정규화된 색좌표 중 2개의 요소(
Figure 112005047844792-PAT00057
Figure 112005047844792-PAT00058
,
Figure 112005047844792-PAT00059
Figure 112005047844792-PAT00060
, 또는
Figure 112005047844792-PAT00061
Figure 112005047844792-PAT00062
)에 의해 계산될 수 있으며, 본 발명의 실시예에서는 (
Figure 112005047844792-PAT00063
,
Figure 112005047844792-PAT00064
) 2개의 요소를 이용하여 다음 [수학식 8]에 따라 계산된다.
[수학식 8]
Figure 112005047844792-PAT00065
여기서 N은 제 1 지문영상(즉, 가드영역 내)의 모든 픽셀들의 수이고,
Figure 112005047844792-PAT00066
,
Figure 112005047844792-PAT00067
,
Figure 112005047844792-PAT00068
,
Figure 112005047844792-PAT00069
는 각각 정규화된 색좌표 중
Figure 112005047844792-PAT00070
Figure 112005047844792-PAT00071
,
Figure 112005047844792-PAT00072
Figure 112005047844792-PAT00073
,
Figure 112005047844792-PAT00074
Figure 112005047844792-PAT00075
, 그리고
Figure 112005047844792-PAT00076
Figure 112005047844792-PAT00077
에 대한 공분산이다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구나 평균벡터(m)와 (
Figure 112005047844792-PAT00078
,
Figure 112005047844792-PAT00079
) 2개의 요소를 이용하여 공분산(
Figure 112005047844792-PAT00080
,
Figure 112005047844792-PAT00081
,
Figure 112005047844792-PAT00082
,
Figure 112005047844792-PAT00083
)를 구할 수 있을 것이다.
목표픽셀 설정부(433)는 제 1 지문영상이 획득된 영역(즉 가드영역)에 이웃하는 픽셀들 중 지문영역인지 배경영역인지 미결정된 픽셀들을 목표픽셀로 설정하고(S840) 목표픽셀의 색정보를 추출하여 정규화된 색좌표(x(i))로 변환한다(S850).
거리 연산부(435)는 목표픽셀의 정규화된 색좌표(x(i)) 및 평균벡터(m)와 공분산행렬()을 이용하여 제 1 지문영상과 상기 목표픽셀 사이의 유사성을 나타내는 거리(D(i))를 계산한다(S860). 본 발명의 실시예에서 유사성을 나타내는 거리(D(i))는 마할라노비스 거리이며, 다음 [수학식 9]를 이용하여 구할 수 있다.
[수학식 9]
Figure 112005047844792-PAT00084
지문영역 확장부(437)는 거리(D(i))와 소정의 거리 임계값을 비교하여 지문영역을 확장한다(S870). 여기서 거리 임계값은 카메라의 종류, 배경, 조명 등에 따 라 실험적으로 결정되는 값이다. 지문영역 확장부의 동작을 좀 더 상세히 설명하면 다음과 같다.
먼저 지문영역 확장부(437)는 거리(D(i))와 거리 임계값을 비교하고(S871), 거리(D(i))가 거리 임계값보다 작으면 목표픽셀을 지문영역으로 결정함으로써 지문영역을 확장한다(S873). 그러나, 거리(D(i))가 거리 임계값보다 크면 지문영역 확장부(437)는 목표픽셀을 배경영역으로 결정한다(S875).
목표픽셀이 지문영역인지 배경영역인지 결정되면, 지문영역 확장부(437)는 모든 목포픽셀에 대해 지문영역 또는 배경영역이 결정되었는지 판단하여(S877) 결정되지 않은 목표픽셀에 대해 상술한 단계들(S840 내지 S877)을 반복한다.
상술한 바와 같이, 본 발명의 실시예에서는 제 1 지문영상 외에 가드영역 주변에 까지 지문영역을 확장함으로써 보다 안정적으로 지문영역이 추출될 수 있다.
융선방향 추출부(440)는 추출된 지문영역을 복수의 블록들로 나누고 각각의 블록에 대해 구한 그래디언트와 초기방향을 이용하여 이상치를 제거함으로써 상기 각각의 블록에서 융선방향을 추출한다(S530). 이하 도 8을 참조하여 융선방향 추출부(440)에서 융선방향을 추출하는 단계에 대해 상세히 설명한다.
도 9는 도 6에서 융선방향을 추출하는 단계에 대한 흐름도이다.
본 발명의 실시예에서 융선방향을 추출하는 방법은 각각의 블록에서의 구한 초기방향을 이용하여 이상치를 제거하고 다시 방향을 구하는 반복적인 방법을 이용한다.
초기방향 측정부(441)는 추출된 지문영역을 복수의 블록들로 나누어(S910) 각각의 블록에서의 그래디언트를 구하고(S920), 그래디언트를 이용하여 각각의 블록의 초기방향을 측정한다(S930). 본 발명의 실시예에서 각각의 블록에서의 그래디언트는 종래기술에서 설명한 소벨(Sobel) 연산에 의해 구해질 수 있으며, 각각의 블록의 초기방향 또한 최소자승 알고리즘에 따라 구해질 수 있다.
한편, 이상치 제거부(443)는 그래디언트를 백색화하여 그래디언트의 유클리디언 놈(Norm)을 구하고 유클리디언 놈에 응답하여 이상치에 해당하는 그래디언트를 제거한다(S940, S950).
본 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 그래디언트를 이용하여 그래디언트를 백색화할 수 있으며, 또한 백색화된 그래디언트를 이용하여 그래디언트의 유클리디언 놈을 구할 수 있다. 또한, 본 발명의 실시예에서 이상치 제거부(443)는 유클리디언 놈이 2보다 크면 이상치로 판단한다.
또한, 이상치로 판단되는 경우 이상치 제거부(443)는 이상치에 해당하는 그래디언트를 제거한 후, 제거되는 그래디언트의 에너지의 합과 제거되지 않은 그래디언트의 에너지의 합을 저장한다(S950).
방향 재측정부(445)는 제거된 그래디언트를 반영하여 각각의 블록의 방향을 재측정한다(S960). 본 발명의 실시예에서 방향 재측정부(445) 또한 종래의 최소자승 알고리즘을 이용하여 방향을 재측정한다.
에너지 계산부(447)는 재측정된 방향과 이전에 측정된 방향의 차이를 계산하여 소정의 방향 임계값과 비교한다(S970). 여기서 방향 임계값은 카메라의 종류, 배경, 조명 등에 실험적으로 결정되는 값이다.
에너지 계산부(447)는 방향의 차이가 방향 임계값보다 크면 이상치가 제거된 각각의 블록들에 대해 상술한 단계(S940 내지 S960)를 반복한다. 그러나 방향의 차이가 방향 임계값보다 크지 않으면, 에너지 계산부(447)는 제거된 그래디언트의 에너지 합에 대한 제거되지 않은 그래디언트의 에너지 합의 비를 계산한다.
융선방향 결정부(449)는 에너지 합의 비와 소정의 에너지 임계값을 비교하여(S980), 에너지 합의 비가 소정의 에너지 임계값보다 작으면 측정범위를 증가시켜(S995) 상술한 단계들(S910 내지 S970)이 반복되도록 한다. 그러나 에너지 합의 비가 소정의 에너지 임계값보다 작지 않으면, 융선방향 결정부(449)는 재측정된 방향을 융선방향으로 결정한다(S990). 여기서 소정의 에너지 임계값은 카메라의 종류, 배경, 조명 등에 따라 실험적으로 결정되는 값이다.
상술한 바와 같이, 본 발명의 실시예에서는 반복적인 방법으로 이상치를 제거함으로써 휴대용 개인단말장치의 카메라와 같이 잡음이 심하거나 지문에 상처가 있는 경우에도 효과적으로 융선방향이 추출될 수 있다.
한편, 지문특징 추출부(450)는 추출된 지문영역 및 융선방향을 이용하여 향상된 제 2 지문영상을 획득하고(S540) 제 2 지문영상을 이진화하고 세선화하여 지문특징을 추출한다(S550).
이상에서와 같이 도면과 명세서에서 최적 실시예가 개시되었다. 여기서 특정한 용어들이 사용되었으나, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미한정이나 특허청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로 본 기술분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.
상술한 바와 같이 본 발명에 따른 지문인식 시스템은 휴대용 개인단말장치의 카메라를 통해 획득된 지문영상을 이용하여 지문인식을 할 수 있는 할 수 있는 장점이 있다.
또한, 본 발명의 실시예에 따른 지문특징 추출장치 및 방법은 휴대용 개인단말장치의 카메라를 통해 획득되는 지문영상에 대해 배경, 촬영 시기 및 장소에 관계없이 지문영역과 융선방향을 추출할 수 있는 장점이 있다.

Claims (25)

  1. 휴대용 개인단말장치의 카메라를 이용하여 지문특징을 추출하는 방법에 있어서,
    상기 카메라를 이용하여 촬영되는 영상에 설정되는 가드영역 내에서 제 1 지문영상을 획득하는 단계;
    상기 제 1 지문영상의 색정보를 이용하여 색분포를 예측함으로써 지문영역을 추출하는 단계;
    상기 지문영역을 복수의 블록들로 나누고 각각의 블록에 대해 구한 그래디언트와 초기방향을 이용하여 이상치를 제거함으로써 상기 각각의 블록에서 융선방향을 추출하는 단계; 및
    상기 추출된 지문영역 및 융선방향을 이용하여 제 2 지문영상을 획득하고 상기 제 2 지문영상을 이진화하고 세선화하여 지문특징을 추출하는 단계를 구비하는 것을 특징으로 하는 지문특징 추출방법.
  2. 제 1 항에 있어서, 상기 제 1 지문영상을 획득하는 단계는,
    상기 가드영역을 설정하는 단계;
    상기 가드영역에서 손가락의 영상을 촬영하는 단계;
    상기 가드영역에서 촬영된 영상이 손가락영역인지 배경영역인지 판단하는 단계; 및
    상기 손가락영역으로 판단하는 경우 상기 가드영역에서 촬영된 영상을 상기 제 1 지문영상으로서 획득하는 단계를 구비하는 것을 특징으로 하는 지문특징 추출방법.
  3. 제 2 항에 있어서, 상기 손가락영역인지 배경영역인지 판단하는 단계는,
    상기 가드영역에서 촬영된 영상의 주파수를 측정하는 단계; 및
    상기 측정된 주파수가 소정의 주파수 임계값보다 크면 손가락영역으로 판단하고, 작으면 배경영역으로 판단하는 단계를 구비하는 것을 특징으로 하는 지문특징 추출방법.
  4. 제 3 항에 있어서, 상기 주파수는 이산 웨이블렛 변환(discrete Wavelet transform) 또는 테넨그라드(Tenengrad) 방법을 이용하여 측정되는 것을 특징으로 하는 지문특징 추출방법.
  5. 제 2 항에 있어서,
    상기 배경영역으로 판단하는 경우 상기 손가락의 영상을 촬영하는 단계로 진행하는 단계를 더 구비하는 것을 특징으로 하는 지문특징 추출방법.
  6. 제 1 항에 있어서, 상기 지문영역을 추출하는 단계는,
    상기 제 1 지문영상의 각 픽셀의 색정보를 추출하는 단계;
    상기 색정보를 정규화된 색좌표로 변환하는 단계;
    상기 정규화된 색좌표를 이용하여 상기 제 1 지문영상의 평균벡터와 공분산행렬을 계산하는 단계;
    상기 제 1 지문영상이 획득된 영역에 이웃하는 픽셀들 중 지문영역인지 배경영역인지 미결정된 픽셀들을 목표픽셀로 설정하는 단계;
    상기 목표픽셀의 색정보를 추출하여 정규화된 색좌표로 변환하는 단계;
    상기 목표픽셀의 정규화된 색좌표 및 상기 평균벡터와 공분산행렬을 이용하여 상기 제 1 지문영상과 상기 목표픽셀 사이의 유사성을 나타내는 거리를 계산하는 단계; 및
    상기 거리와 소정의 거리 임계값을 비교하여 지문영역을 확장하는 단계를 구비하는 것을 특징으로 하는 지문특징 추출방법.
  7. 제 6 항에 있어서,
    상기 정규화된 색좌표(
    Figure 112005047844792-PAT00085
    ,
    Figure 112005047844792-PAT00086
    ,
    Figure 112005047844792-PAT00087
    )는 다음 수학식,
    Figure 112005047844792-PAT00088
    에 의해 구해지며,
    여기서 (
    Figure 112005047844792-PAT00089
    ,
    Figure 112005047844792-PAT00090
    ,
    Figure 112005047844792-PAT00091
    )는 (i, j)번째 픽셀에서의 색정보인 것을 특징으로 하는 지문특징 추출방법.
  8. 제 6 항에 있어서,
    상기 평균벡터와 공분산행렬은 상기 정규화된 색좌표 중 2개의 요소에 의해 구해질 수 있는 것을 특징으로 하는 지문특징 추출방법.
  9. 제 8 항에 있어서,
    상기 평균벡터(m)와 공분산행렬(Σ)은 다음 수학식,
    Figure 112005047844792-PAT00092
    에 의해 구해지며,
    여기서 N은 지문영역의 모든 픽셀들의 수이고,
    Figure 112005047844792-PAT00093
    ,
    Figure 112005047844792-PAT00094
    ,
    Figure 112005047844792-PAT00095
    ,
    Figure 112005047844792-PAT00096
    는 각각 정규화된 색좌표 중
    Figure 112005047844792-PAT00097
    Figure 112005047844792-PAT00098
    ,
    Figure 112005047844792-PAT00099
    Figure 112005047844792-PAT00100
    ,
    Figure 112005047844792-PAT00101
    Figure 112005047844792-PAT00102
    , 그리고
    Figure 112005047844792-PAT00103
    Figure 112005047844792-PAT00104
    에 대한 공분산인 것을 특징으로 하는 지문특징 추출방법
  10. 제 6 항에 있어서, 상기 지문영역을 확장하는 단계는,
    상기 거리가 상기 거리 임계값보다 작으면 상기 목표픽셀을 지문영역으로 결정하는 단계; 및
    상기 거리가 상기 거리 임계값보다 크면 상기 목표픽셀을 배경영역으로 설정하는 단계를 구비하는 것을 특징으로 하는 지문특징 추출방법.
  11. 제 6 항에 있어서,
    상기 거리(D(i))는 수학식,
    Figure 112005047844792-PAT00105
    로 표현되는 마할라노비스 거리이며,
    여기서 x(i)는 상기 목표픽셀의 정규화된 색좌표인 것을 특징으로 하는 지문특징 추출방법.
  12. 제 1 항에 있어서, 융선방향을 추출하는 단계는,
    상기 지문영역을 복수의 블록들로 나누고 각각의 블록에서의 그래디언트를 구하는 단계;
    상기 그래디언트를 이용하여 상기 각각의 블록의 초기방향을 측정하는 단계;
    상기 그래디언트를 백색화하여 그래디언트의 유클리디언 놈(Norm)을 구하고, 상기 유클리디언 놈에 응답하여 이상치에 해당하는 그래디언트를 제거하는 단계;
    상기 제거된 그래디언트를 반영하여 상기 각각의 블록의 방향을 재측정하는 단계;
    상기 재측정된 방향과 이전에 측정된 방향의 차이가 소정의 방향 임계값보다 크면 제거된 그래디언트의 에너지 합에 대한 제거되지 않은 그래디언트의 에너지 합의 비를 계산하고, 크지 않으면 상기 백색화하여 제거하는 단계로 진행하는 단 계; 및
    상기 에너지 합의 비가 소정의 에너지 임계값보다 작으면 측정범위를 증가시켜 상기 단계들을 반복하고, 작지 않으면 상기 재측정된 방향을 융선방향으로 결정하는 단계를 구비하는 것을 특징으로 하는 지문특징 추출방법.
  13. 제 12 항에 있어서, 상기 제거하는 단계는,
    상기 제거되는 그래디언트의 에너지의 합과 상기 제거되지 않은 그래디언트의 에너지의 합을 저장하는 단계를 더 구비하는 것을 특징으로 하는 지문특징 추출방법.
  14. 휴대용 개인단말장치의 카메라를 이용하여 지문특징을 추출하는 장치에 있어서,
    상기 카메라를 이용하여 촬영되는 영상에 설정되는 가드영역 내에서 제 1 지문영상을 획득하는 지문영상 획득부;
    상기 제 1 지문영상의 색정보를 이용하여 색분포를 예측함으로써 지문영역을 추출하는 지문영역 추출부;
    상기 지문영역을 복수의 블록들로 나누고 각각의 블록에 대해 구한 그래디언트와 초기방향을 이용하여 이상치를 제거함으로써 상기 각각의 블록에서 융선방향을 추출하는 융선방향 추출부; 및
    상기 추출된 지문영역 및 융선방향을 이용하여 제 2 지문영상을 획득하고 상 기 제 2 지문영상을 이진화하고 세선화하여 지문특징을 추출하는 지문특징 추출부를 구비하는 것을 특징으로 하는 지문특징 추출장치.
  15. 제 14 항에 있어서, 상기 지문영상 획득부는,
    손가락의 영상이 촬영되도록 상기 가드영역을 설정하는 가드영역 설정부; 및
    상기 가드영역에서 촬영된 영상이 손가락영역인지 배경영역인지 판단하여 상기 제 1 지문영상을 획득하는 영상 획득부를 구비하는 것을 특징으로 하는 지문특징 추출장치.
  16. 제 15 항에 있어서,
    영상 획득부는 상기 가드영역에서 촬영된 영상의 주파수를 측정하여 상기 측정된 주파수가 소정의 주파수 임계값보다 크면 손가락영역으로 판단하고, 작으면 배경영역으로 판단하는 것을 특징으로 하는 지문특징 추출장치.
  17. 제 16 항에 있어서, 상기 주파수는 이산 웨이블렛 변환(discrete Wavelet transform) 또는 테넨그라드(Tenengrad) 방법을 이용하여 측정되는 것을 특징으로 하는 지문특징 추출장치.
  18. 제 14 항에 있어서, 상기 지문영역 추출부는,
    상기 제 1 지문영상의 각 픽셀의 색정보를 추출하여 정규화된 색좌표로 변환 하고, 상기 정규화된 색좌표를 이용하여 상기 제 1 지문영상의 평균벡터와 공분산행렬을 계산하는 색정보 연산부;
    상기 제 1 지문영상이 획득된 영역에 이웃하는 픽셀들 중 지문영역인지 배경영역인지 미결정된 픽셀들을 목표픽셀로 설정하고 목표픽셀의 색정보를 추출하여 정규화된 색좌표로 변환하는 목표픽셀 설정부;
    상기 목표픽셀의 정규화된 색좌표 및 상기 평균벡터와 공분산행렬을 이용하여 상기 제 1 지문영상과 상기 목표픽셀 사이의 유사성을 나타내는 거리를 계산하는 거리 연산부; 및
    상기 거리와 소정의 거리 임계값을 비교하여 지문영역을 확장하는 지문영역 확장부를 구비하는 것을 특징으로 하는 지문특징 추출장치.
  19. 제 18 항에 있어서,
    상기 정규화된 색좌표(
    Figure 112005047844792-PAT00106
    ,
    Figure 112005047844792-PAT00107
    ,
    Figure 112005047844792-PAT00108
    )는 다음 수학식,
    Figure 112005047844792-PAT00109
    에 의해 구해지며,
    여기서 (,
    Figure 112005047844792-PAT00111
    ,
    Figure 112005047844792-PAT00112
    )는 (i, j)번째 픽셀에서의 색정보인 것을 특징으로 하는 지문특징 추출장치.
  20. 제 18 항에 있어서,
    상기 평균벡터와 공분산행렬은 상기 정규화된 색좌표 중 2개의 요소에 의해 구해질 수 있는 것을 특징으로 하는 지문특징 추출장치.
  21. 제 18 항에 있어서,
    상기 평균벡터(m)와 공분산행렬(∑)은 다음 수학식,
    Figure 112005047844792-PAT00113
    에 의해 구해지며,
    여기서 N은 지문영역의 모든 픽셀들의 수이고,
    Figure 112005047844792-PAT00114
    ,
    Figure 112005047844792-PAT00115
    ,
    Figure 112005047844792-PAT00116
    ,
    Figure 112005047844792-PAT00117
    는 각각 정규화된 색좌표 중
    Figure 112005047844792-PAT00118
    Figure 112005047844792-PAT00119
    ,
    Figure 112005047844792-PAT00120
    Figure 112005047844792-PAT00121
    ,
    Figure 112005047844792-PAT00122
    Figure 112005047844792-PAT00123
    , 그리고
    Figure 112005047844792-PAT00124
    Figure 112005047844792-PAT00125
    에 대한 공분산인 것을 특징으로 하는 지문특징 추출방법
  22. 제 18 항에 있어서, 상기 지문영역 확장부는,
    상기 거리가 상기 거리 임계값보다 작으면 상기 목표픽셀을 지문영역으로 설정함으로써 상기 지문영역을 확장하며, 상기 거리가 상기 거리 임계값보다 크면 상기 목표픽셀을 배경영역으로 설정하는 것을 특징으로 하는 지문특징 추출장치.
  23. 제 18 항에 있어서,
    상기 거리(D(i))는 수학식,
    Figure 112005047844792-PAT00126
    로 표현되는 마할라노비스 거리이며,
    여기서 x(i)는 상기 목표픽셀의 정규화된 색좌표인 것을 특징으로 하는 지문특징 추출장치.
  24. 제 14 항에 있어서, 융선방향 추출부는,
    상기 지문영역을 복수의 블록들로 나누어 각각의 블록에서의 그래디언트를 구하고, 상기 그래디언트를 이용하여 상기 각각의 블록의 초기방향을 측정하는 초기방향 측정부;
    상기 그래디언트를 백색화하여 그래디언트의 유클리디언 놈(Norm)을 구하고, 상기 유클리디언 놈에 응답하여 이상치에 해당하는 그래디언트를 제거하며, 상기 제거되는 그래디언트의 에너지의 합과 상기 제거되지 않은 그래디언트의 에너지의 합을 저장하는 이상치 제거부;
    상기 제거된 그래디언트를 반영하여 상기 각각의 블록의 방향을 재측정하는 방향 재측정부;
    상기 재측정된 방향과 이전에 측정된 방향의 차이가 소정의 방향 임계값보다 크면 제거된 그래디언트의 에너지 합에 대한 제거되지 않은 그래디언트의 에너지 합의 비를 계산하는 에너지 계산부; 및
    상기 에너지 합의 비가 소정의 에너지 임계값보다 작지 않으면 상기 재측정된 방향을 융선방향으로 결정하는 융선방향 결정부를 구비하는 것을 특징으로 하는 지문특징 추출장치.
  25. 휴대용 개인단말장치의 카메라를 이용하여 지문을 인식하는 시스템에 있어서,
    상기 카메라를 이용하여 촬영된 지문의 특징을 추출하는 지문특징 추출장치;
    상기 지문의 특징을 저장하는 지문특징 저장부; 및
    상기 지문의 특징과 상기 저장된 지문의 특징을 비교하여 지문인식을 수행하는 비교 및 검출부를 구비하며,
    상기 지문특징 추출장치는,
    상기 카메라를 이용하여 촬영되는 영상에 설정되는 가드영역 내에서 제 1 지문영상을 획득하는 지문영상 획득부;
    상기 제 1 지문영상의 색정보를 이용하여 색분포를 예측함으로써 지문영역을 추출하는 지문영역 추출부;
    상기 지문영역을 복수의 블록들로 나누고 각각의 블록에 대해 구한 그래디언트와 초기방향을 이용하여 이상치를 제거함으로써 상기 각각의 블록에서 융선방향을 추출하는 융선방향 추출부; 및
    상기 추출된 지문영역 및 융선방향을 이용하여 제 2 지문영상을 획득하고 상기 제 2 지문영상을 이진화하고 세선화하여 지문특징을 추출하는 지문특징 추출부 를 구비하는 것을 특징으로 하는 지문인식 시스템.
KR1020050079269A 2005-08-29 2005-08-29 휴대용 개인단말장치를 이용한 지문인식 시스템 및지문특징 추출장치 및 방법 KR100891324B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020050079269A KR100891324B1 (ko) 2005-08-29 2005-08-29 휴대용 개인단말장치를 이용한 지문인식 시스템 및지문특징 추출장치 및 방법
US11/472,371 US7970185B2 (en) 2005-08-29 2006-06-22 Apparatus and methods for capturing a fingerprint

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050079269A KR100891324B1 (ko) 2005-08-29 2005-08-29 휴대용 개인단말장치를 이용한 지문인식 시스템 및지문특징 추출장치 및 방법

Publications (2)

Publication Number Publication Date
KR20070026972A true KR20070026972A (ko) 2007-03-09
KR100891324B1 KR100891324B1 (ko) 2009-03-31

Family

ID=37804133

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050079269A KR100891324B1 (ko) 2005-08-29 2005-08-29 휴대용 개인단말장치를 이용한 지문인식 시스템 및지문특징 추출장치 및 방법

Country Status (2)

Country Link
US (1) US7970185B2 (ko)
KR (1) KR100891324B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101021134B1 (ko) * 2009-08-18 2011-03-14 성균관대학교산학협력단 지문의 방향 특징을 추출하는 장치 및 방법

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10239342A1 (de) * 2002-08-28 2004-03-11 Philips Intellectual Property & Standards Gmbh Verfahren zur Bewertung der Qualität von Hautabdruckbildern
JP4996904B2 (ja) * 2006-10-04 2012-08-08 株式会社日立製作所 生体認証システム、登録端末、認証端末、及び認証サーバ
US9773245B1 (en) * 2011-12-05 2017-09-26 Amazon Technologies, Inc. Acquiring items using gestures on a touchscreen
CN102708364B (zh) * 2012-05-31 2014-08-20 西安电子科技大学 基于分级分类器的指纹图像分类方法
US9342725B2 (en) 2012-06-29 2016-05-17 Apple Inc. Image manipulation utilizing edge detection and stitching for fingerprint recognition
US9092652B2 (en) * 2012-06-29 2015-07-28 Apple Inc. Zero reference based ridge flow map
US9035895B2 (en) 2012-07-13 2015-05-19 Apple Inc. Redundant sensing element sampling
US9218544B2 (en) 2013-02-01 2015-12-22 Apple Inc. Intelligent matcher based on situational or spatial orientation
US9436863B2 (en) 2013-09-09 2016-09-06 Apple Inc. Reconstructing a biometric image
KR101627914B1 (ko) 2014-06-03 2016-06-07 이도훈 순차 지문 입력을 이용하는 pos 시스템 및 그 구동 방법
US9424458B1 (en) * 2015-02-06 2016-08-23 Hoyos Labs Ip Ltd. Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
CN104680148B (zh) * 2015-03-09 2017-09-15 南京信息工程大学 一种基于改进的偏微分模型的指纹方向场计算方法
KR102204307B1 (ko) 2015-06-11 2021-01-18 삼성전자주식회사 생체 정보를 포함하는 영상의 전 처리 방법
US10261804B2 (en) 2015-09-11 2019-04-16 Qualcomm Incorporated Gradual power wake-up mechanism
CN106227437B (zh) * 2016-07-22 2018-01-19 广东欧珀移动通信有限公司 一种指纹解锁方法及终端
WO2019009788A1 (en) * 2017-07-07 2019-01-10 Fingerprint Cards Ab DIGITAL IMPRESSION DETECTION SYSTEM METHOD FOR USER AUTHENTICATION BASED ON DIGITAL FINGERPRINT DATA
KR102466676B1 (ko) * 2017-08-16 2022-11-14 삼성전자주식회사 생체 센서의 성능 평가 방법, 생체 영상을 이용한 인증 방법 및 인증 방법을 적용한 전자 기기
CN107506742A (zh) * 2017-09-05 2017-12-22 哈尔滨理工大学 基于条纹模式的指纹方向特征获取方法
KR20200004701A (ko) 2018-07-04 2020-01-14 삼성전자주식회사 지문 인식 방법 및 디바이스
CN109117792B (zh) * 2018-08-14 2021-03-23 Oppo广东移动通信有限公司 电子设备
CN116563570B (zh) * 2023-07-07 2023-10-20 深圳佳弟子科技有限公司 一种颜色识别方法、装置、电子设备及存储介质

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60123970A (ja) 1983-12-07 1985-07-02 Nec Corp 画像読取装置
JP3057590B2 (ja) 1992-08-06 2000-06-26 中央発條株式会社 個人識別装置
DE69626208T2 (de) * 1996-12-20 2003-11-13 Hitachi Europ Ltd Verfahren und System zur Erkennung von Handgesten
JP2002196836A (ja) 2000-12-25 2002-07-12 Io Network:Kk 指紋読取り装置を配備した電子機器装置並びにこの装置を利用した指紋読取り、照合方法及びこの装置に配備する指紋読取り装置
JP2003030629A (ja) 2001-07-12 2003-01-31 Dds:Kk 指紋入力装置、指紋入力方法及び指紋入力プログラム
KR100432491B1 (ko) 2001-08-31 2004-05-22 (주)니트 젠 융선방향 모델을 이용한 지문 특징데이터 추출방법
JP2003248830A (ja) 2002-02-22 2003-09-05 Ntt Electornics Corp 指紋画像解析装置及び入力装置
US7085420B2 (en) * 2002-06-28 2006-08-01 Microsoft Corporation Text detection in continuous tone image segments
JP2004126782A (ja) 2002-09-30 2004-04-22 Casio Comput Co Ltd 指紋照合方法、指紋照合装置、および指紋読み取り装置
US20040130546A1 (en) * 2003-01-06 2004-07-08 Porikli Fatih M. Region growing with adaptive thresholds and distance function parameters
US7599530B2 (en) * 2003-10-01 2009-10-06 Authentec, Inc. Methods for matching ridge orientation characteristic maps and associated finger biometric sensor

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101021134B1 (ko) * 2009-08-18 2011-03-14 성균관대학교산학협력단 지문의 방향 특징을 추출하는 장치 및 방법

Also Published As

Publication number Publication date
US20070047783A1 (en) 2007-03-01
KR100891324B1 (ko) 2009-03-31
US7970185B2 (en) 2011-06-28

Similar Documents

Publication Publication Date Title
KR100891324B1 (ko) 휴대용 개인단말장치를 이용한 지문인식 시스템 및지문특징 추출장치 및 방법
JP5107045B2 (ja) 目に関して取得される画像中の虹彩を表す画素を特定する方法
CN105893920B (zh) 一种人脸活体检测方法和装置
US10423848B2 (en) Method, system, and computer-readable recording medium for long-distance person identification
JP6494253B2 (ja) 物体検出装置、物体検出方法、画像認識装置及びコンピュータプログラム
US9262614B2 (en) Image processing device, image processing method, and storage medium storing image processing program
Raghavendra et al. Scaling-robust fingerprint verification with smartphone camera in real-life scenarios
KR20190001066A (ko) 얼굴 인증 방법 및 장치
KR100559471B1 (ko) 대칭축을 이용한 얼굴 검출 시스템 및 방법
KR101632912B1 (ko) 지문 인식을 이용한 사용자 인증 방법
JP2009523265A (ja) 画像中の虹彩の特徴を抽出する方法
JP2007188504A (ja) 画像中の画素強度をフィルタリングする方法
Tiwari et al. A touch-less fingerphoto recognition system for mobile hand-held devices
KR100473600B1 (ko) 얼굴 인식 시스템에서의 사진 판별 장치 및 방법
Johnson et al. Fingerprint pore characteristics for liveness detection
KR101455666B1 (ko) 인증 장치 및 그 인증 방법
KR20180090072A (ko) 홍채 인식 장치 및 방법
KR101717729B1 (ko) 영상에서의 휴먼 인지 장치 및 방법
Li et al. Quality assessment for fingerprints collected by smartphone cameras
CN113168694B (zh) 人检测装置以及人检测方法
KR101601187B1 (ko) 손금 기반 사용자 인식 정보를 이용한 기기 컨트롤 장치 및 그 방법
JP2010020594A (ja) 瞳画像認識装置
KR102225623B1 (ko) 키포인트 기술자 매칭 및 다수결 기법 기반 얼굴 인식 시스템 및 방법
CN111104857A (zh) 一种基于步态能量图的身份识别方法及系统
Verlekar et al. Walking direction identification using perceptual hashing

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130228

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20140228

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20150302

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20170228

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20180228

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20190228

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20200228

Year of fee payment: 12