KR20180086087A - 지문 정보 처리 방법 - Google Patents

지문 정보 처리 방법 Download PDF

Info

Publication number
KR20180086087A
KR20180086087A KR1020170010058A KR20170010058A KR20180086087A KR 20180086087 A KR20180086087 A KR 20180086087A KR 1020170010058 A KR1020170010058 A KR 1020170010058A KR 20170010058 A KR20170010058 A KR 20170010058A KR 20180086087 A KR20180086087 A KR 20180086087A
Authority
KR
South Korea
Prior art keywords
image
input image
area
matching
fingerprint
Prior art date
Application number
KR1020170010058A
Other languages
English (en)
Inventor
배근태
손성훈
이웅희
이호재
황도하
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020170010058A priority Critical patent/KR20180086087A/ko
Priority to US15/717,067 priority patent/US10509943B2/en
Publication of KR20180086087A publication Critical patent/KR20180086087A/ko

Links

Images

Classifications

    • G06K9/00067
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5838Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • G06K9/00087
    • G06K9/64
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/431Frequency domain transformation; Autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1335Combining adjacent partial images (e.g. slices) to create a composite input or reference pattern; Tracking a sweeping finger movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • G06V40/1376Matching features related to ridge properties or fingerprint texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/50Maintenance of biometric data or enrolment thereof

Abstract

본 발명의 일 실시예에 따른 지문 정보 처리 방법은, 사용자 지문의 적어도 일부에 대응하는 입력 이미지를 복수의 제1 영역들로 분할하는 단계, 미리 저장된 등록 이미지를 복수의 제2 영역들로 분할하는 단계, 상기 복수의 제1 영역들과 상기 복수의 제2 영역들을 비교하여 상기 복수의 제1 영역들에서 제1 매칭 영역을 선택하고, 상기 복수의 제2 영역들에서 제2 매칭 영역을 선택하는 단계, 및 상기 제1 매칭 영역과 상기 제2 매칭 영역을 비교하여 상기 등록 이미지와 상기 입력 이미지를 정합하는 단계를 포함한다.

Description

지문 정보 처리 방법{METHOD FOR PROCESSING FINGERPRINT INFORMATION}
본 발명은 지문 정보 처리 방법에 관한 것이다.
모바일 기기를 포함하여 다양한 IT 기기들을 활용하는 분야가 점차 확대되면서, IT 기기의 보안을 강화하기 위한 다양한 기술이 제안되고 있다. 기존의 비밀번호와 패턴 입력 외에, 최근에는 개인의 고유한 생체 정보를 이용하는 보안 기술이 다양한 IT 기기에 탑재되는 추세이다. 생체 정보를 이용하는 보안 기술들 가운데 지문을 감지하는 기술은, 관리성, 보안성, 경제성 등의 다양한 장점을 갖고 있어 그 적용 분야를 점점 넓혀가고 있다.
본 발명의 기술적 사상이 이루고자 하는 기술적 과제 중 하나는, 지문 인식 성능을 개선할 수 있는 지문 정보 처리 방법을 제공하고자 하는 데에 있다.
본 발명의 일 실시예에 따른 지문 정보 처리 방법은, 사용자 지문의 적어도 일부에 대응하는 입력 이미지를 복수의 제1 영역들로 분할하는 단계, 미리 저장된 등록 이미지를 복수의 제2 영역들로 분할하는 단계, 상기 복수의 제1 영역들과 상기 복수의 제2 영역들을 비교하여 상기 복수의 제1 영역들에서 제1 매칭 영역을 선택하고, 상기 복수의 제2 영역들에서 제2 매칭 영역을 선택하는 단계, 및 상기 제1 매칭 영역과 상기 제2 매칭 영역을 비교하여 상기 등록 이미지와 상기 입력 이미지를 정합하는 단계를 포함한다.
본 발명의 일 실시예에 따른 지문 정보 처리 방법은, 사용자 지문의 적어도 일부에 대응하는 입력 이미지와, 미리 저장된 등록 이미지를 복수의 서브 영역들로 분할하는 단계, 상기 등록 이미지와 상기 입력 이미지 각각의 상기 서브 영역들에서 특징점을 포함하는 제1 서브 영역 및 상기 제1 서브 영역에 인접한 제2 서브 영역을 찾는 단계, 및 상기 등록 이미지와 상기 입력 이미지가 겹치는 오버랩 영역에 포함되는 상기 제1 서브 영역과 상기 제2 서브 영역 각각에 소정의 가중치를 부여하여 상기 사용자 지문에 대한 인증 여부를 판단하는 단계를 포함한다.
본 발명의 일 실시예에 따른 지문 정보 처리 방법은, 사용자 지문의 적어도 일부에 대응하는 입력 이미지를 수신하는 단계, 상기 입력 이미지를 미리 저장된 템플릿과 비교하여 상기 입력 이미지와 상기 템플릿의 정합 여부를 판단하는 단계, 및 상기 입력 이미지와 상기 템플릿이 정합되면, 상기 입력 이미지를 이용하여 상기 템플릿을 갱신하는 단계를 포함한다.
본 발명의 일 실시예에 따른 지문 정보 처리 방법은, 사용자 지문의 적어도 일부에 대응하는 입력 이미지를 수신하는 단계, 복수의 템플릿들과 상기 입력 이미지를 비교하여, 상기 복수의 템플릿들 중에서 상기 입력 이미지와 정합되는 인증 템플릿을 찾는 단계, 및 상기 인증 템플릿이 존재하면, 상기 사용자 지문의 인증을 허락하고 상기 입력 이미지를 이용하여 상기 인증 템플릿을 갱신하는 단계를 포함한다.
본 발명의 다양한 실시예에 따르면, 입력 이미지와 등록 이미지 각각을 복수의 영역들로 분할하고, 복수의 영역들을 서로 비교하여 입력 이미지와 등록 이미지를 정합함으로써 지문 인식의 정확도를 높일 수 있다. 또한, 인증에 성공한 입력 이미지를 이용하여, 등록 이미지를 갖는 템플릿을 갱신함으로써, 정확한 지문 정보를 누적시켜 지문 인식의 성능을 개선할 수 있다.
본 발명의 다양하면서도 유익한 장점과 효과는 상술한 내용에 한정되지 않으며, 본 발명의 구체적인 실시형태를 설명하는 과정에서 보다 쉽게 이해될 수 있을 것이다.
도 1은 본 발명의 일 실시예에 따른 전자 기기를 나타낸 도면이다.
도 2는 본 발명의 일 실시예에 따른 지문 정보 처리 방법에서 인식할 수 있는 지문을 설명하기 위해 제공되는 도면이다.
도 3 및 도 4는 본 발명의 일 실시예에 따른 지문 정보 처리 방법을 간단하게 나타낸 도면이다.
도 5는 본 발명의 일 실시예에 따른 지문 정보 처리 방법을 설명하기 위해 제공되는 흐름도이다.
도 6은 본 발명의 일 실시예에 따른 이미지 정합 방법을 간단하게 나타낸 도면이다.
도 7은 본 발명의 일 실시예에 따른 로그-폴라 변환을 설명하기 위해 제공되는 도면이다.
도 8은 본 발명의 일 실시예에 따른 지문 정보 처리 방법을 설명하기 위해 제공되는 도면이다.
도 9는 본 발명의 일 실시예에 따른 지문 정보 처리 방법을 설명하기 위해 제공되는 흐름도이다.
도 10 및 도 11은 본 발명의 일 실시예에 따른 지문 정보 처리 방법을 설명하기 위해 제공되는 도면이다.
도 12는 본 발명의 일 실시예에 따른 사용자 인증 방법을 설명하기 위해 제공되는 도면이다.
도 13, 도 14a 내지 도 14d는 본 발명의 일 실시예에 따른 지문 정보 처리 방법을 설명하기 위해 제공되는 도면이다.
도 15 및 도 16은 본 발명의 일 실시예에 따른 사용자 인증 방법을 설명하기 위해 제공되는 도면이다.
도 17 및 도 18은 본 발명의 일 실시예에 따른 지문 정보 처리 방법을 설명하기 위해 제공되는 도면이다.
도 19는 본 발명의 일 실시예에 따른 등록 이미지 처리 방법을 설명하기 위해 제공되는 도면이다.
도 20 및 도 21은 본 발명의 일 실시예에 따른 등록 이미지 처리 방법을 설명하기 위해 제공되는 흐름도이다.
도 22a 내지 도 22c은 본 발명의 일 실시예에 따른 등록 이미지 처리 방법을 설명하기 위해 제공되는 도면이다.
도 23은 본 발명의 일 실시예에 따른 전자 기기를 나타낸 블록도이다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시 형태들을 다음과 같이 설명한다.
도 1은 본 발명의 일 실시예에 따른 전자 기기를 나타낸 도면이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 전자 기기(1)는 모바일 기기일 수 있으며, 일 실시예에서 스마트 폰 또는 태블릿 PC 등일 수 있다. 전자 기기(1)는 디스플레이(2), 하우징(3), 카메라부(4), 키입력부(5) 및 지문 센서(6)를 포함할 수 있다. 도 1에 도시한 실시예에서는 지문 센서(6)가 디스플레이(2)의 하단에 위치한 물리 버튼과 일체로 구현될 수 있다. 다만, 다른 실시예에서는 지문 센서(6)가 도 1에 도시한 것과 다른 위치에 마련되거나, 디스플레이(2)와 일체로 제공될 수도 있다.
스마트 폰, 태블릿 PC 등의 전자 기기에서 금융 및 결제 서비스 등을 제공하는 애플리케이션이 널리 보급되고, 전자 기기에서 실행되는 애플리케이션 자체가 특정 물건이나 서비스의 구매 기능을 제공하면서 보안 성능 강화에 대한 요구가 높아지는 추세이다. 지문 센서(6)는 제한된 폼팩터 내에 작은 사이즈로 쉽게 구현될 수 있으며, 개개인이 같은 지문을 갖고 있을 확률이 극히 낮아 다양한 전자 기기에 널리 적용되고 있다.
다만, 지문 센서(6)의 지문 인식 성능이 나쁠 경우, 전자 기기(1)가 정당한 권리가 없는 사용자가 지문 센서(6)의 오인식으로 인해 전자 기기(1)의 접근 권한을 획득할 수도 있다. 따라서, 본 발명의 다양한 실시예들에서는 지문 센서(6)의 지문 인식 성능을 개선하여 정당한 권리가 없는 사용자의 전자 기기(1)에 대한 접근을 방지하고, 정당한 사용자의 편의성을 개선할 수 있는 지문 정보 처리 방법을 제안하고자 한다.
지문 센서(6)는 다양한 방식으로 사용자 지문의 이미지를 획득하는 센싱부와, 상기 센싱부에서 획득한 이미지를 처리하는 이미지 처리부를 포함할 수 있다. 본 발명의 다양한 실시예들에서 제안하는 지문 정보 처리 방법은 상기 이미지 처리부에서 실행될 수 있다. 상기 이미지 처리부는, 지문 센서(6)에 연결되는 별도의 프로세서이거나, 또는 전자 기기(1)의 동작을 제어하는 애플리케이션 프로세서일 수도 있다.
도 2는 본 발명의 일 실시예에 따른 지문 정보 처리 방법에서 인식할 수 있는 지문을 설명하기 위해 제공되는 도면이다.
도 2를 참조하면, 지문(10)이 지문 센서에 의해 인식되며, 일 실시예에서 지문 센서는 지문(10)보다 작은 면적을 가질 수 있다. 특히 모바일 기기의 경우, 제한된 공간 내에 지문(10)의 전체를 인식할 수 있을 만한 감지 영역을 갖는 지문 센서를 구비하기가 어려울 수 있으며, 따라서 지문 센서의 감지 영역이 지문(10)보다 작은 면적을 가질 수 있다.
지문 센서의 감지 영역이 지문(10)보다 작은 면적을 갖는 경우, 지문 센서에서 생성되는 지문 이미지(11-17)는 지문(10)의 일부 영역만을 커버할 수 있다. 사용자로부터 지문 이미지(11-17)를 입력받아 등록 이미지로 저장하는 등록(enrollment) 단계에서는, 복수 개의 지문 이미지(11-17)를 입력받아 저장할 수 있다. 이때, 복수 개의 지문 이미지(11-17) 각각이 커버하는 지문(10)의 영역들은 서로 중첩될 수도 있다. 등록 이미지는 템플릿(template)으로 관리될 수 있으며, 하나의 템플릿은 지문 이미지(11-17) 중 적어도 하나를 포함할 수 있다. 하나의 템플릿은 지문 이미지(11-17) 중 두 개 이상을 포함할 수 있으며, 일 실시예에서, 서로 중첩되는 영역을 갖는 제4 내지 제6 지문 이미지(14-16)가 하나의 템플릿에 포함되어 관리될 수 있다.
지문(10)을 입력한 사용자를 인식하는 인증(verification) 단계에서는, 지문 이미지(11-17)를 입력받아 등록 이미지 또는 템플릿과 비교할 수 있다. 이때, 사용자가 입력한 지문(10)의 위치와 각도 등에 따라, 정당한 사용자가 정당하지 않은 사용자로 잘못 인식되거나, 또는 반대로 정당하지 않은 사용자가 정당한 사용자로 인식될 수도 있다. 따라서, 지문 인식 성능을 개선하기 위해, 입력 이미지와 등록 이미지를 정합하기 위한 다양한 방법이 제공될 수 있다.
도 3 및 도 4는 본 발명의 일 실시예에 따른 지문 정보 처리 방법을 간단하게 나타낸 도면이다. 도 3 및 도 4를 참조하여 설명하고자 하는 실시예들은, 지문 센서로부터 입력 이미지를 수신하여 미리 저장되어 있는 등록 이미지들과 비교함으로써 사용자를 인식하는 인증 단계에 해당할 수 있다.
우선 도 3을 참조하면, 전자 기기(20)의 지문 센서(21)에 사용자가 지문을 접촉할 수 있다. 지문 센서(21)는 소정의 감지 영역을 가지며, 상기 감지 영역에 접촉한 지문의 일부 영역으로부터 입력 이미지(30)를 생성할 수 있다. 일 실시예에서, 입력 이미지(30)는 지문의 전체가 아닌 일부 영역만을 커버할 수 있다. 전자 기기(20)는 전자 기기(20)의 메모리(40)에 저장된 복수의 등록 이미지들(41-43)과 입력 이미지(30)를 비교하여 지문 센서(21)에 접촉한 지문의 인증 여부를 판단할 수 있다.
사용자가 지문 센서(21)에 지문을 접촉하는 방향 및 영역에 따라서 지문 센서(21)가 생성하는 입력 이미지(30)가 결정될 수 있다. 전자 기기(20)는 입력 이미지(30)를 등록 이미지들(41-43) 각각과 비교하여, 등록 이미지들(41-43) 중에서 입력 이미지(30)와 높은 연관성을 갖는 적어도 일부를 선택할 수 있다. 입력 이미지(30)와 등록 이미지들(41-43) 각각의 연관성 판단을 위해, 푸리에 변환, 로그-폴라 변환 등의 이미지 처리 방법이 이용될 수 있다.
도 4를 참조하면, 입력 이미지(50)와 높은 연관성을 갖는 등록 이미지(60)를 선택하고, 연관성 분석 결과에 따라 등록 이미지(60)를 소정 각도만큼 회전시켜 회전 등록 이미지(70)를 생성할 수 있다. 입력 이미지(50)와 회전 등록 이미지(70)가 중첩되는지 여부를 확인하고, 입력 이미지(50)와 회전 등록 이미지(70)가 중첩되어 형성된 오버랩 영역의 면적과, 오버랩 영역 내에서 계산되는 매칭 점수 등을 계산하여 입력 이미지(50)를 생성한 지문의 인증 여부를 결정할 수 있다. 일 실시예에서, 상기 매칭 점수는 정규화 상관 관계(Normalized Crossed Correlation, NCC) 점수일 수 있다.
도 4에 도시한 실시예에서, 입력 이미지(50)의 전체 영역과, 등록 이미지(60)의 전체 영역을 비교하여 등록 이미지(60)의 회전에 필요한 각도를 포함하는 보정값을 산출할 수 있다. 상기 보정값은 입력 이미지(50)와 등록 이미지(60) 각각의 전체 영역에 푸리에 변환 및 로그-폴라 변환 등의 이미지 처리 과정을 적용한 후, 위상 상관 관계를 분석함으로써 얻어질 수 있다. 이때, 서로 높은 연관성을 갖는 상기 오버랩 영역을 제외한 나머지 영역들은, 입력 이미지(50)와 등록 이미지(60)의 위상 상관 관계 분석에서 잡음 성분으로 작용할 수 있다. 따라서, 위상 상관 관계 분석의 정확도가 저하될 수 있으며, 이는 입력 이미지(50)를 생성한 지문의 인식 성능 저하로 이어질 수 있다.
본 발명의 다양한 실시예에서는, 입력 이미지(50)와 등록 이미지(60) 각각을 복수의 영역들로 분할하고, 복수의 영역들 각각을 이미지 처리한 후 위상 상관 관계 분석을 수행할 수 있다. 따라서, 위상 상관 관계 분석에서, 상기 오버랩 영역을 제외한 나머지 영역들이 잡음 성분으로서 미치는 영향을 최소화할 수 있으며, 지문 인식 성능을 개선할 수 있다.
도 5는 본 발명의 일 실시예에 따른 지문 정보 처리 방법을 설명하기 위해 제공되는 흐름도이다. 일 실시예에서, 도 5를 참조하여 설명하는 지문 정보 처리 방법은, 지문 센서를 구비한 전자 기기의 프로세서에서 실행될 수 있다.
도 5를 참조하면, 본 발명의 일 실시예에 따른 지문 정보 처리 방법은, 사용자 지문의 적어도 일부에 대응하는 입력 이미지를 프로세서가 수신하는 것으로 시작할 수 있다(S1001). S1001 단계는 지문 센서의 감지 영역에 접촉한 사용자 지문의 적어도 일부 영역으로부터 입력 이미지를 생성하는 단계를 포함할 수 있다. 일 실시예에서, 입력 이미지는 사용자 지문의 전체 영역의 일부만을 포함할 수 있다.
프로세서는 입력 이미지를 복수의 제1 영역들로 분할하며, 전자 기기에 미리 저장되어 있던 등록 이미지를 복수의 제2 영역들로 분할할 수 있다(S1002). 등록 이미지가 복수 개인 경우, 프로세서는 복수의 등록 이미지들 각각을 복수의 제2 영역들로 분할할 수 있다. 복수의 제1 영역들은 서로 같은 면적을 가질 수 있으며, 복수의 제2 영역들 역시 서로 같은 면적을 가질 수 있다. 일 실시예에서, 제1 영역과 제2 영역도 같은 면적을 가질 수 있다.
입력 이미지를 제1 영역들로 분할하는 과정에서, 제1 영역들 중 적어도 일부는 서로 중첩되는 영역을 가질 수 있다. 유사하게, 등록 이미지를 제2 영역들로 분할하는 과정에서, 제2 영역들 중 적어도 일부는 서로 중첩될 수 있다.
영역 분할이 완료되면, 프로세서는 제1 영역들과 제2 영역들을 서로 비교할 수 있다(S1003). S1003 단계에서는 제1 영역들 각각은 모든 제2 영역들과 비교할 수 있다. 일 실시예에서 입력 이미지가 4개의 제1 영역들로 분할되고, 2개의 등록 이미지들 각각이 3개의 제2 영역들로 분할되는 경우, 하나의 제1 영역을 6개의 제2 영역들과 비교할 수 있다. 즉, 제1 영역들과 제2 영역들의 영상 비교 과정이 총 24번에 걸쳐서 수행될 수 있다.
제1 영역들과 제2 영역들을 비교한 후, 프로세서는 제1 영역들 중에서 제1 매칭 영역을 선택하고, 제2 영역들 중에서 제2 매칭 영역을 선택할 수 있다(S1004). 제1 매칭 영역과 제2 매칭 영역은, S1003 단계의 비교 과정에서 가장 높은 연관성을 갖는 것으로 판단된 제1 영역 및 제2 영역일 수 있다.
프로세서는 제1 매칭 영역과 제2 매칭 영역을 서로 비교하여 입력 이미지와 등록 이미지를 정합할 수 있다(S1005). S1005 단계의 이미지 정합을 위해, 프로세서는 등록 이미지와 입력 이미지 중 적어도 하나에 회전 변환 및 이동 변환을 적용할 수 있다. 일 실시예로, 프로세서는 제2 매칭 영역을 갖는 등록 이미지를 회전 및 이동시켜 등록 이미지와 입력 이미지의 적어도 일부 영역을 서로 중첩시킴으로써, 입력 이미지와 등록 이미지를 정합할 수 있다.
프로세서는 정합된 입력 이미지와 등록 이미지를 이용하여 입력 이미지를 생성한 사용자 지문의 인증 여부를 판단할 수 있다(S1006). S1005 단계에서 등록 이미지와 입력 이미지를 정합함으로써, 등록 이미지와 입력 이미지는 서로 중첩되는 오버랩 영역을 형성할 수 있다. 프로세서는 상기 오버랩 영역의 면적과, 상기 오버랩 영역에서 산출되는 매칭 점수 중 적어도 하나에 기초하여 입력 이미지를 생성한 사용자 지문의 인증 여부를 결정할 수 있다.
도 6은 본 발명의 일 실시예에 따른 이미지 정합 방법을 간단하게 나타낸 도면이다. 일 실시예에서, 도 6를 참조하여 설명하는 이미지 정합 방법은, 지문 센서를 구비한 전자 기기의 프로세서에서 실행될 수 있으며, 주파수 기반의 정합 방법을 포함할 수 있다.
도 6을 참조하면, 입력 이미지(80)가 복수의 제1 영역들(81)로 분할될 수 있으며, 등록 이미지(82)는 복수의 제2 영역들(83)로 분할될 수 있다. 입력 이미지(80)와 등록 이미지(82) 각각은 사용자 지문의 적어도 일부 영역에 대응할 수 있으며, 등록 이미지(82)는 입력 이미지(80)가 생성되기 전에 미리 저장되어 있는 이미지일 수 있다. 일 실시예에서 등록 이미지(82)는 복수 개일 수 있으며, 이 경우 프로세서는 각각의 등록 이미지(82)를 복수의 제2 영역들(83)로 분할할 수 있다.
영역 분할이 완료되면, 프로세서는 제1 영역들(81)을 이미지 처리(91)할 수 있다. 이미지 처리(91)는 푸리에 변환, 및 로그-폴라 변환 등의 연산 과정을 포함할 수 있다. 일 실시예에서, 제1 영역들(81) 각각에 푸리에 변환을 적용함으로써 제1 영역들(81)의 각각의 크기 성분을 계산하고, 로그-폴라 변환 및 푸리에 변환을 다시 적용함으로써 제1 영역들(81)의 위상 성분을 산출할 수 있다. 제2 영역들(83)에 대한 이미지 처리(92) 역시 제1 영역들(81)에 대한 이미지 처리(91)와 유사한 단계들을 포함할 수 있다.
제1 영역들(81) 및 제2 영역들(83)에 대한 이미지 처리(91, 92)가 완료되면, 프로세서는 제1 영역들(81)의 위상 성분과 제2 영역들(83)의 위상 성분을 이용하여 위상 상관 관계(93)를 도출할 수 있다. 위상 상관 관계(93)는 각도로 정의되는 위상 변화에 따른 제1 영역들(81)과 제2 영역들(83) 사이의 연관도로 표시될 수 있다.
프로세서는 위상 상관 관계(93)에서 피크값이 나타나는 각도를 등록 이미지의 회전 변환에 필요한 제1 보정값으로 정의할 수 있다. 일 실시예로, 위상 상관 관계(93)의 피크값이 72°인 경우, 프로세서는 제1 보정값을 72°로 정의하고 등록 이미지(82)를 72°만큼 회전시켜 회전 변환(94)을 수행할 수 있다.
등록 이미지(82)의 회전 변환이 완료되면, 프로세서는 회전한 등록 이미지를 이미지 처리(96)할 수 있다. 도 6에 도시한 실시예에서는 입력 이미지(80) 역시 이미지 처리(95)되는 것으로 도시되었으나, 이와 달리 영역 분할 후 실행되는 첫번째 이미지 처리(91)의 결과를 가져와서 이용할 수도 있다. 이미지 처리(95, 96) 단계가 완료되면, 프로세서는 입력 이미지(80)와 회전한 등록 이미지의 위상 상관 관계(97)를 분석할 수 있다.
상기 위상 상관 관계(97)에 의해, 프로세서는 회전한 등록 이미지의 이동 변환에 필요한 제2 보정값을 계산할 수 있다. 프로세서는 제2 보정값에 기초하여 회전한 등록 이미지를 이동시킴으로써 입력 이미지(80)와 등록 이미지(82)의 적어도 일부 영역을 중첩시키고 오버랩 영역을 도출할 수 있다. 입력 이미지(80)와 등록 이미지(82) 사이에서 상기 오버랩 영역이 도출됨으로써 이미지 정합 과정이 완료될 수 있다.
도 7은 본 발명의 일 실시예에 따른 로그-폴라 변환을 설명하기 위해 제공되는 도면이다.
도 7에 도시한 실시예에 따른 로그-폴라 변환은 앞서 도 6을 참조하여 설명한 이미지 정합 방법의 이미지 처리(91, 92, 95, 96) 단계 중 적어도 하나에 채용될 수 있다. 도 7을 참조하면 직교 좌표계에서 중심점(1100)을 기준으로 동심원들이 설정되며, 동심원들은 반지름, 각도, 반지름과 각도의 조합 등에 따라 복수의 영역들로 분할될 수 있다. 로그-폴라 변환은 직교 좌표계 상에 정의된 상기 복수의 영역들을 극 좌표계 상의 영역들에 맵핑하기 위한 방법일 수 있다.
극 좌표계를 참조하면, 직교 좌표계의 중심점(1100)은 극 좌표계의 좌표 (0, 0°)으로 맵핑될 수 있다. 또한, 직교 좌표계의 제1 내지 제4 영역들(1110, 1120, 1130, 1140)은, 극 좌표계의 제1 내지 제4 영역들(1115, 1125, 1135, 1145)들로 각각 맵핑될 수 있다.
도 8은 본 발명의 일 실시예에 따른 지문 정보 처리 방법을 설명하기 위해 제공되는 도면이다. 일 실시예에서, 도 8을 참조하여 설명하는 지문 정보 처리 방법은, 지문 센서를 구비한 전자 기기의 프로세서에서 실행될 수 있다.
도 8을 참조하면, 프로세서는 입력 이미지(100)와 원본 등록 이미지(110)를 비교하여 입력 이미지를 생성한 사용자 지문의 인증 여부를 판단할 수 있다. 입력 이미지(100)는 복수의 제1 영역들(101-103)로 분할될 수 있으며, 원본 등록 이미지(110)는 복수의 제2 영역들(111-113)로 분할될 수 있다. 도 8에 도시한 실시예에서, 제1 영역들(101-103)은 서로 중첩될 수 있으며, 서로 같은 면적을 가질 수 있다. 유사하게, 제2 영역들(111-113)은 서로 중첩될 수 있으며, 서로 같은 면적을 가질 수 있다. 또한, 일 실시예에서, 제1 영역들(101-103)과 제2 영역들(111-113)은 서로 같은 면적을 가질 수도 있다.
프로세서는 푸리에 변환(Fourier Transform)을 이용하여 제1 영역들(101-103) 및 제2 영역들(111-113) 각각에 포함된 시간 도메인의 정보들을 주파수 도메인의 정보들(104-106, 114-116)로 변환할 수 있다. 푸리에 변환에 의해 생성된 주파수 도메인의 정보들(104-106, 114-116)은 (x, y) 좌표로 정보를 표현하는 직교 좌표계에 기반할 수 있다. 제1 영역들(101-103)에 포함된 시간 도메인의 정보는 주파수 도메인의 제1 정보들(104-106)로 변환되며, 제2 영역들(111-113)에 포함된 시간 도메인의 정보는 주파수 도메인의 제2 정보들(114-116)로 변환될 수 있다.
다음으로 프로세서는 제1 정보들(104-106)과 제2 정보들(114-116)을 비교하여 서로 연관성이 가장 높은 정보들을 매칭 정보로서 하나씩 선택할 수 있다. 도 8에 도시한 실시예를 참조하면, 제1 정보들(104-106) 중에서 제1 매칭 정보(105)가 선택되고, 제2 정보들(114-116) 중에서 제2 매칭 정보(116)가 선택될 수 있다. 제1 매칭 정보(105)는 입력 이미지(100)의 제1 매칭 영역(102)에 대응할 수 있으며, 제2 매칭 정보(116)는 원본 등록 이미지(110)의 제2 매칭 영역(113)에 대응할 수 있다.
프로세서는 제1 및 제2 매칭 정보(105, 116) 각각에 로그-폴라 변환을 적용하여 제1 및 제2 매칭 극좌표 정보(107, 117)를 생성할 수 있다. 프로세서는 푸리에 변환을 이용하여 제1 및 제2 매칭 극좌표 정보(107, 117) 각각으로부터 제1 매칭 위상 정보(108) 및 제2 매칭 위상 정보(118)를 생성할 수 있다.
이후 프로세서는, 제1 및 제2 매칭 위상 정보(108, 118)를 이용하여 위상 상관 관계를 수행함으로써, 도 8에 도시한 실시예와 같은 그래프를 얻을 수 있다. 도 8에 도시한 그래프를 참조하면, 48°의 각도(θ)에서 피크값이 검출되며, 이는 원본 등록 이미지(110)를 48°만큼 회전할 경우 원본 등록 이미지(110)와 입력 이미지(100)의 매칭 확률이 가장 높음을 의미하는 것일 수 있다. 프로세서는 피크값이 검출된 각도(θ)를 제1 보정값으로 선택할 수 있다.
도 8에 도시한 실시예를 참조하면, 프로세서는 제1 보정값을 이용하여 원본 등록 이미지(110)를 회전 변환함으로써, 회전 등록 이미지(120)를 생성할 수 있다. 원본 등록 이미지(110)의 회전 변환시 기준점은 실시예에 따라 서로 다르게 선택될 수 있으며, 도 8에 도시한 실시예는 원본 등록 이미지(110)의 중심점을 기준으로 회전 변환을 수행한 경우에 해당할 수 있다.
프로세서는 입력 이미지(100)와, 회전 등록 이미지(120)에 다시 한 번 푸리에 변환을 적용하여 입력 위상 정보(109) 및 등록 위상 정보(129)를 각각 생성할 수 있다. 입력 위상 정보(109)와 등록 위상 정보(129)에 포함된 정보들은, (x, y) 좌표로 정보를 표현하는 직교 좌표계에 기반할 수 있다. 따라서, 프로세서는 입력 위상 정보(109)와 등록 위상 정보(129)를 서로 비교함으로써, 회전 등록 이미지(120)의 이동 변환에 필요한 제2 보정값을 생성할 수 있다. 프로세서는 제2 보정값을 이용하여 회전 등록 이미지(120)를 이동 변환함으로써, 이미지 정합을 위한 기준 등록 이미지(130)를 생성할 수 있다.
도 8을 참조하면, 기준 등록 이미지(130)와 입력 이미지(100)는 적어도 일부 영역에서 서로 중첩되며, 기준 등록 이미지(130)와 입력 이미지(100)가 서로 중첩되는 영역은 오버랩 영역(140)으로 정의될 수 있다. 오버랩 영역(140)의 면적이 클수록, 또는 오버랩 영역(140)에서 기준 등록 이미지(130)와 입력 이미지(100)가 유사할수록 입력 이미지(100)와 원본 등록 이미지(110)가 유사한 것으로 판단할 수 있다. 즉, 프로세서는, 오버랩 영역(140)의 면적과, 오버랩 영역(140)에서 계산되는 매칭 점수 중 적어도 하나에 기초하여 입력 이미지(100)의 인증 여부를 판단할 수 있다. 일 실시예에서, 상기 매칭 점수는, 정규화 상관 관계(NCC)를 수행함으로써 계산될 수 있다.
도 9는 본 발명의 일 실시예에 따른 지문 정보 처리 방법을 설명하기 위해 제공되는 흐름도이다. 일 실시예에서, 도 8을 참조하여 설명하는 지문 정보 처리 방법은, 지문 센서를 구비한 전자 기기의 프로세서에서 실행될 수 있다.
도 9를 참조하면, 본 발명의 일 실시예에 따른 지문 정보 처리 방법은, 사용자 지문의 적어도 일부에 대응하는 입력 이미지를 수신하는 것으로 시작될 수 있다(S1010). 입력 이미지를 수신하면, 프로세서는 입력 이미지를 복수의 제1 영역들로, 등록 이미지를 복수의 제2 영역들로 분할하고(S1011), 제1 영역들과 제2 영역들을 서로 비교할 수 있다(S1012). 이때, 제1 영역들과 제2 영역들을 서로 비교하기에 앞서, 연산량을 줄이기 위해 제1 영역들과 제2 영역들에 포함된 시간 도메인의 정보들을 주파수 도메인의 정보들로 변환할 수 있다.
프로세서는 제1 영역들과 제2 영역들의 비교 결과에 기초하여 제1 영역들 중에서 제1 매칭 영역을, 제2 영역들 중에서 제2 매칭 영역을 각각 선택할 수 있다(S1013). 제1 매칭 영역과 제2 매칭 영역은, 제1 영역들과 제2 영역들 각각에서 서로 매칭될 확률이 가장 높은 것으로 판단된 영역들일 수 있다. 프로세서는 제1 매칭 영역과 제2 매칭 영역을 이용하여 회전 변환에 필요한 제1 보정값을 생성할 수 있다(S1014).
제1 보정값은 제1 매칭 영역과 제2 매칭 영역의 위상 상관 관계를 분석하여 얻을 수 있으며, 제1 보정값에 따라 제2 매칭 영역이 회전 변환될 수 있다(S1015). 프로세서는 제1 보정값을 이용하여 등록 이미지 전체를 회전 변환하며, 그에 따라 제2 매칭 영역이 함께 회전 변환될 수 있다.
프로세서는 회전한 등록 이미지에서 제2 매칭 영역을 제1 매칭 영역과 비교하여 제2 보정값을 생성할 수 있다(S1016). 제2 보정값은 회전한 등록 이미지를 이동 변환하여 입력 이미지와 정합하기 위해 필요한 값일 수 있다. 일 실시예에서, 제2 보정값은, 제1 보정값을 이용하여 등록 이미지를 회전 변환하는 S1015 단계에서 회전 변환의 기준점 좌표에 따라 다르게 결정될 수 있다.
제2 보정값이 결정되면, 프로세서는 제2 보정값에 따라 등록 이미지를 이동 변환하여 등록 이미지와 입력 이미지를 정합하고(S1017), 그로부터 사용자 지문의 인증 여부를 판단할 수 있다(S1018). 인증 여부는, 정합된 등록 이미지와 입력 이미지가 중첩되어 형성되는 오버랩 영역의 면적과, 오버랩 영역에서 산출되는 매칭 점수 등에 의해 결정될 수 있다.
도 10 및 도 11은 본 발명의 일 실시예에 따른 지문 정보 처리 방법을 설명하기 위해 제공되는 도면이다. 일 실시예에서, 도 10 및 도 11을 참조하여 설명하는 지문 정보 처리 방법은, 지문 센서를 구비한 전자 기기의 프로세서에서 실행될 수 있다.
도 10을 참조하면, 프로세서는 입력 이미지(200)를 복수의 제1 영역들(201-203)로 분할할 수 있으며, 원본 등록 이미지(210)를 복수의 제2 영역들(211-213)로 분할할 수 있다. 일 실시예에서, 제1 영역들(201-203)과 제2 영역들(211-213)은 서로 같은 면적을 가질 수도 있다. 도 10에 도시한 실시예에서 하나의 입력 이미지(200)에 포함되는 제1 영역들(201-203)의 개수와, 하나의 원본 등록 이미지(210)에 포함되는 제2 영역들(211-213)의 개수는 서로 같은 것을 가정하였으나, 이와 달리 제1 영역들(201-203)의 개수는 제2 영역들(211-213)의 개수와 서로 다를 수도 있다.
프로세서는 푸리에 변환(Fourier Transform)을 이용하여 제1 영역들(201-203) 및 제2 영역들(211-213) 각각에 포함된 시간 도메인의 정보들을 주파수 도메인의 정보들(204-206, 214-216)로 변환할 수 있다. 프로세서는 주파수 도메인에서 제1 정보들(204-206)과 제2 정보들(214-216)을 비교하여 서로 연관성이 가장 높은 정보들을 매칭 정보로서 하나씩 선택할 수 있다. 도 10에 도시한 실시예를 참조하면, 제1 정보들(204-206) 중에서 제1 매칭 정보(205)가 선택되고, 제2 정보들(214-216) 중에서 제2 매칭 정보(216)가 선택될 수 있다. 제1 매칭 정보(205)는 입력 이미지(200)의 제1 매칭 영역(202)에 대응할 수 있으며, 제2 매칭 정보(216)는 원본 등록 이미지(210)의 제2 매칭 영역(213)에 대응할 수 있다.
프로세서는 제1 및 제2 매칭 정보(205, 216) 각각에 로그-폴라 변환을 적용하여 제1 및 제2 매칭 극좌표 정보(207, 217)를 생성하고, 푸리에 변환을 이용하여 제1 및 제2 매칭 극좌표 정보(207, 217) 각각으로부터 제1 매칭 위상 정보(208) 및 제2 매칭 위상 정보(218)를 생성할 수 있다. 이후 프로세서는, 제1 및 제2 매칭 위상 정보(208, 218) 사이의 위상 상관 관계를 산출함으로써, 원본 등록 이미지(210)의 회전 변환에 필요한 제1 보정값을 계산할 수 있다.
도 10에 도시한 위상 상관 관계의 그래프를 참조하면, 48°의 각도(θ)에서 피크값이 검출되며, 이는 원본 등록 이미지(210)를 48°만큼 회전할 경우 원본 등록 이미지(210)와 입력 이미지(200)의 매칭 확률이 가장 높음을 의미할 수 있다. 프로세서는 피크값이 검출된 각도(θ)를 제1 보정값으로 선택할 수 있다.
도 10에 도시한 실시예를 참조하면, 프로세서는 제1 보정값을 이용하여 원본 등록 이미지(210)를 회전 변환함으로써, 회전 등록 이미지(220)를 생성할 수 있다. 원본 등록 이미지(210)의 회전 변환시 기준점은 실시예에 따라 서로 다르게 선택될 수 있다. 프로세서는 입력 이미지(200)와, 회전 등록 이미지(220)에 다시 한 번 푸리에 변환을 적용하여 입력 위상 정보(209) 및 등록 위상 정보(229)를 각각 생성할 수 있다.
회전 등록 이미지(220)의 제2 매칭 영역(223)은 원본 등록 이미지(210)의 제2 매칭 영역(213)에 대응할 수 있다. 도 10에 도시한 실시예에서 프로세서는, 제2 매칭 영역(223)을 포함하는 변환 대상 영역(224)을 회전 등록 이미지(220)에서 설정하고, 변환 대상 영역(224)과 제1 매칭 영역(202) 각각에 푸리에 변환을 적용할 수 있다. 따라서, 도 8에 도시한 실시예와 같이 입력 이미지(100)와 회전 등록 이미지(120) 전체에 푸리에 변환을 적용하는 경우보다 연산량을 줄일 수 있다. 도 10에 도시한 실시예에서, 입력 이미지(200)와 회전 등록 이미지(220)는 각각 128 x 128 해상도의 이미지일 수 있으며, 제1 매칭 영역(202)과 변환 대상 영역(224)은 각가 64 x 64 해상도를 가질 수 있다. 따라서, 제1 매칭 영역(202)과 변환 대상 영역(224)에만 푸리에 변환을 적용함으로써 연산량을 크게 줄일 수 있다.
프로세서는 푸리에 변환을 통해 생성된 입력 위상 정보(209)와 등록 위상 정보(229)를 비교함으로써, 이동 변환에 필요한 제2 보정값을 계산할 수 있다. 제2 보정값에 의해 회전 등록 이미지(220)를 이동시켜 기준 등록 이미지(230)를 생성할 수 있으며, 기준 등록 이미지(230)는 입력 이미지(200)와 중첩되어 오버랩 영역(240)을 제공할 수 있다. 프로세서는 오버랩 영역(240)의 면적 및 오버랩 영역(240)에서 계산되는 매칭 점수 중 적어도 하나에 기초하여 입력 이미지(200)의 인증 여부를 판단할 수 있다.
한편, 제1 보정값을 이용하여 원본 등록 이미지를 회전 변환할 때의 기준점을 어디로 설정하느냐에 따라서, 제2 보정값이 서로 다르게 결정될 수 있다. 도 11을 참조하면, 원본 등록 이미지(300)에서 제2 매칭 영역(301)이 선택되며, 이를 입력 이미지의 제1 매칭 영역과 비교하여 제1 보정값이 계산될 수 있다. 제1 보정값을 이용하여 원본 등록 이미지(300)를 회전할 때, 원본 등록 이미지(300)의 중심을 기준으로 회전하는 경우와, 제2 매칭 영역(301)의 중심을 기준으로 회전하는 경우 각각에서 제2 보정값이 다르게 산출될 수 있다.
도 11을 참조하면, 원본 등록 이미지(300)의 중심을 기준으로 회전 변환을 수행하는 경우, 제2 매칭 영역(311) 및 변환 대상 영역(312)이 회전 등록 이미지(310)의 우측 하단에 배치될 수 있다. 이 경우 계산되는 제2 보정값은 (tx1, ty1)일 수 있다. 한편, 제2 매칭 영역(301)의 중심을 기준으로 회전 변환을 수행하는 경우, 제2 매칭 영역(321) 및 변환 대상 영역(322)은 회전 등록 이미지(320)의 우측 상단에 배치될 수 있다. 이 경우 계산되는 제2 보정값은 (tx2, ty2)이며, 이는 앞선 케이스의 (tx1, ty1)와는 다른 값일 수 있다.
도 12는 본 발명의 일 실시예에 따른 사용자 인증 방법을 설명하기 위해 제공되는 도면이다. 일 실시예에서, 도 12를 참조하여 설명하는 사용자 인증 방법은, 지문 센서를 구비한 전자 기기의 프로세서에서 실행될 수 있다.
도 12에 도시한 실시예에서, 입력 이미지(400)는 복수의 등록 이미지들과 비교될 수 있다. 등록 이미지들의 개수는 실시예에 따라 달라질 수 있으며, 프로세서는 입력 이미지(400)를 등록 이미지들과 비교하여 등록 이미지들 각각과 입력 이미지(400) 사이의 매칭 확률을 계산할 수 있다. 매칭 확률은, 입력 이미지(400)를 분할하여 생성한 제1 영역들과, 등록 이미지들 각각을 분할하여 생성한 제2 영역들 사이의 위상 상관 관계로부터 계산될 수 있다. 일 실시예에서, 프로세서는 상기 제1 영역들과 상기 제2 영역들 사이의 위상 상관 관계들에서 나타나는 피크값을 소정의 임계값과 비교하고, 상기 임계값보다 큰 피크값을 갖는 위상 상관 관계가 나타난 등록 이미지들만을 후보 그룹으로 선택할 수 있다.
후보 그룹 선택은 회전 변환에 필요한 제1 보정값을 획득하기 위한 위상 상관 관계에서 도출될 수 있다. 도 6에 도시한 실시예에서 제3 등록 이미지(410)를 참조하면, 제3 등록 이미지(410)는 3개의 제2 영역들(411, 412, 413)로 구분되며, 제2 영역들(411, 412, 413) 각각과 입력 이미지(400)의 제1 영역(401) 사이에서 위상 상관 관계를 얻을 수 있다. 위상 상관 관계 분석 결과, 두번째 제2 영역(412)과 입력 이미지(400)의 제1 영역(401) 사이의 위상 상관 관계가 갖는 피크값이 0.81로 가장 크게 나타나면, 제3 등록 이미지(410)의 매칭 확률은 0.81로 결정될 수 있다. 즉, 등록 이미지들 각각의 매칭 확률은, 등록 이미지들 각각을 분할하여 얻은 제2 영역들을 입력 이미지의 제1 영역들과 비교하여 얻은 위상 상관 관계에서 획득할 수 있는 가장 큰 피크값으로 정의될 수 있다.
프로세서는 입력 이미지(400)를 상기 후보 그룹에 포함된 후보 등록 이미지들(410, 420, 430) 각각과 정합하여 사용자 지문의 인증 여부를 결정할 수 있다. 이때, 입력 이미지(400)와 후보 등록 이미지들(410, 420, 430)을 정합하는 연산량을 최소화하기 위해, 프로세서는 상기 매칭 확률 순서대로 후보 등록 이미지들(410, 420, 430)을 정렬할 수 있다. 도 12를 참조하면, 가장 높은 매칭 확률을 갖는 제3 등록 이미지(410)를 시작으로, 제6 및 제1 등록 이미지(420, 430)가 차례대로 입력 이미지(410)와 정합될 수 있다.
제3 등록 이미지(410)와 입력 이미지(400)의 정합은, 제3 등록 이미지(410)를 회전 및 이동시켜 제3 기준 등록 이미지(415)로 변환함으로써 수행될 수 있다. 한편 프로세서는, 제3 기준 등록 이미지(415)와 입력 이미지(400)가 중첩되는 오버랩 영역(405)의 면적 및 오버랩 영역(405)에서의 매칭 점수를 계산함으로써 수행될 수 있다. 오버랩 영역(405)의 면적 및 오버랩 영역(405)에서의 매칭 점수가 인증 기준을 통과하지 못하면, 프로세서는 제6 등록 이미지(420)와 입력 이미지(400)를 정합한 후, 입력 이미지(400)의 인증 여부를 판단할 수 있다. 상기와 같은 방식으로 후보 그룹에 포함되는 모든 후보 등록 이미지들(410, 420, 430)에 대해 입력 이미지(400)가 인증되지 않으면, 프로세서는 최종적으로 인증 거부 판단을 내릴 수 있다. 반면, 후보 그룹에 포함되는 후보 등록 이미지들(410, 420, 430) 중 어느 하나에 대해서라도 입력 이미지(400)가 인증되면, 프로세서는 후순위에 있는 다른 등록 이미지들에 대한 인증 결과와 무관하게, 입력 이미지(400)의 인증 허용 판단을 내릴 수 있다.
도 13, 도 14a 내지 도 14d는 본 발명의 일 실시예에 따른 지문 정보 처리 방법을 설명하기 위해 제공되는 도면이다. 일 실시예에서, 도 13, 도 14a 내지 도 14d를 참조하여 설명하는 지문 정보 처리 방법은, 지문 센서를 구비한 전자 기기의 프로세서에서 실행될 수 있다.
도 13을 참조하면, 입력 이미지 또는 등록 이미지가 될 수 있는 지문 이미지(500)가 복수의 서브 영역들로 구분될 수 있다. 상기 서브 영역들은 제1 서브 영역(501), 제2 서브 영역(502) 및 제3 서브 영역(503)을 포함할 수 있다. 제1 서브 영역(501)은 사람의 지문에서 나타나는 특이점(minutiae)을 그 내부에 포함하는 영역일 수 있으며, 제2 서브 영역(502)은 제1 서브 영역(501)에 인접한 영역일 수 있다. 제3 서브 영역(503)은 제1 및 제2 서브 영역(501, 502)을 제외한 나머지 영역으로 정의될 수 있다.
도 13에 도시한 실시예에서와 같이 지문 이미지(500)를 복수의 서브 영역들로 구분하고, 제1 내지 제3 서브 영역들(501-503) 각각에 서로 다른 가중치를 부여하여 사용자 지문 인증에 이용할 수 있다. 이 경우, 정당한 권한이 없는 사용자의 지문으로부터 생성된 입력 이미지가 등록 이미지와 우연히 중첩되어 발생할 수 있는 보안 문제를 해결할 수 있다.
도 14a 내지 도 14d는 지문에서 다양하게 나타날 수 있는 특징점 분포를 도시한 예시도이다. 우선 도 14a를 참조하면, 특징점을 갖는 고유 영역(601a)이 지문 이미지(600a)에 총 3개 포함될 수 있다. 다만, 특징점을 갖는 고유 영역(601a)의 면적은 일반 영역(602a)보다 작은 면적을 가질 수 있다. 고유 영역(601a)에는 일반 영역(602a)보다 높은 가중치가 부여될 수 있다. 일 실시예로, 고유 영역(601a)을 제외한 일반 영역(602a)과 일치하는 영역을 갖는 사용자 지문이 입력되는 경우에도, 고유 영역(601a)에서 공통된 특징점이 검출되지 않으면 사용자 인증이 거부될 수 있다.
도 14b 내지 도 14d에도 도 14a를 참조하여 설명한 실시예와 유사한 사용자 인증 방법이 적용될 수 있다. 도 14b를 참조하면, 2개의 고유 영역(601b)이 지문 이미지(600b)내에 존재하며, 일반 영역(602b)은 2개의 고유 영역(601b)보다 매우 큰 면적을 가질 수 있다. 일반 영역(602b)과 일치하는 사용자 지문이 입력되는 경우, 기존의 사용자 인증 방법에 따르면 오버랩 영역이 충분히 확보되고 오버랩 영역에서의 정규화 상관 관계 역시 높게 계산되므로 사용자 인증이 허용될 수 있다. 그러나, 본 발명의 실시예에서는 2개의 고유 영역(601b)에 가중치를 부여함으로써, 일반 영역(602b)만이 일치하는 경우에 사용자 인증이 거부될 수 있다.
도 14c에 도시한 실시예에서도 3개의 특징점(601c)에 가중치가 부여되며, 일반 영역(602c)이 일치하는 것만으로는 사용자 인증이 허용되지 않을 수 있다. 도 14d에 도시한 지문 이미지(600d)에는 특징점을 갖는 고유 영역이 존재하지 않을 수 있다. 따라서, 도 14d에 도시한 지문 이미지(600d)가 입력되는 경우에는 사용자 인증이 허용되지 않을 수 있다.
도 15 및 도 16은 본 발명의 일 실시예에 따른 사용자 인증 방법을 설명하기 위해 제공되는 도면이다. 일 실시예에서, 도 15 및 도 16을 참조하여 설명하는 사용자 인증 방법은, 지문 센서를 구비한 전자 기기의 프로세서에서 실행될 수 있다.
우선 도 15를 참조하면, 이미지 정합을 위해 회전 변환 및 이동 변환이 완료된 기준 등록 이미지(710)와 입력 이미지(700)가 도시되어 있다. 입력 이미지(700)와 기준 등록 이미지(710) 각각은 복수의 서브 영역들로 분할될 수 있으며, 복수의 서브 영역들에는 특징점 보유 여부에 따른 가중치가 부여될 수 있다. 일 실시예에서, 입력 이미지(700)에 포함되는 제1 서브 영역(701)과, 기준 등록 이미지(710)에 포함되는 제1 서브 영역(711) 각각에는 가중치가 부여될 수 있다. 반면, 입력 이미지(700)에 포함되는 제2 서브 영역(702)과, 기준 등록 이미지(710)에 포함되는 제2 서브 영역(712) 각각에는 가중치가 부여되지 않을 수 있다.
기준 등록 이미지(710)와 입력 이미지(700)는 정합되어 오버랩 영역(720)을 형성할 수 있다. 프로세서는 오버랩 영역(720)의 면적 및 오버랩 영역(720)에서 산출되는 매칭 점수 중 적어도 하나에 기초하여 입력 이미지(700)의 인증 여부를 결정할 수 있다. 도 15에 도시한 실시예에서, 프로세서는 오버랩 영역(720) 내에 위치하는 제1 서브 영역(721)에 가중치를 부여하고, 제2 서브 영역(722)에는 가중치를 부여하지 않을 수 있다. 따라서, 오버랩 영역(720)이 더 많은 특징점을 가질수록, 입력 이미지(700)의 매칭 점수가 증가하여 인증 성공 확률이 높아질 수 있다.
다음으로 도 16을 참조하면, 이미지 정합을 위해 회전 변환 및 이동 변환이 완료된 기준 등록 이미지(740)와 입력 이미지(730)가 도시되어 있다. 입력 이미지(730)와 기준 등록 이미지(740) 각각은 복수의 서브 영역들(732, 742)로 분할될 수 있으며, 복수의 서브 영역들에는 특징점 보유 여부에 따른 가중치가 부여될 수 있다. 도 16에 도시한 실시예에서, 입력 이미지(730)와 기준 등록 이미지(740)가 정합되어 형성된 오버랩 영역(750)의 서브 영역들(752) 각각에는 특징점이 존재하지 않을 수 있다. 따라서, 도 16에 도시한 실시예에서는 오버랩 영역(750)에서의 매칭 점수가 낮게 나올 수 밖에 없으며, 입력 이미지(730)의 사용자 인증이 거부될 수 있다.
오버랩 영역(750)의 면적과, 오버랩 영역(750) 내에서의 매칭 점수만을 이용하여 입력 이미지(730)의 인증 여부를 결정할 경우, 입력 이미지(730)에 대한 인증이 허용될 수도 있다. 그러나, 본 발명의 일 실시예에서는, 오버랩 영역(750)에서의 매칭 점수를 계산하는 과정에서, 특징점을 보유한 서브 영역에 가중치를 부여할 수 있다. 따라서, 오버랩 영역(750)에 특징점이 전혀 포함되지 않은 도 16의 실시예에서 입력 이미지(730)에 대한 인증을 거부할 수 있으며, 보안 성능을 향상시킬 수 있다.
도 17 및 도 18은 본 발명의 일 실시예에 따른 지문 정보 처리 방법을 설명하기 위해 제공되는 도면이다. 일 실시예에서, 도 17 및 도 18을 참조하여 설명하는 지문 정보 처리 방법은, 지문 센서를 구비한 전자 기기의 프로세서에서 실행될 수 있다.
먼저 도 17을 참조하면, 프로세서는 입력 이미지(800)와 등록 이미지(810)를 비교하여 입력 이미지를 생성한 사용자 지문의 인증 여부를 판단할 수 있다. 이때, 입력 이미지(800)와 등록 이미지(810)는 모두 지문의 형상을 그대로 영상화한 정보를 포함하지 않으며, 지문에 존재하는 특징점 정보만을 포함할 수 있다. 입력 이미지(800)와 등록 이미지(810) 모두 영상화한 정보를 저장하지 않음으로써, 보안 성능을 좀 더 강화할 수 있다. 또한, 입력 이미지(800)와 등록 이미지(810)는 모두 특징점 정보만을 포함하므로, 위상 상관 관계 분석에서 발생할 수 있는 노이즈 성분의 영향을 줄일 수 있어 입력 이미지(800)와 등록 이미지(810)를 복수의 영역으로 분할하는 과정을 생략할 수도 있다.
입력 이미지(800)와 등록 이미지(810)의 정합 및 인증 과정은 앞서 설명한 다른 실시예들과 유사할 수 있다. 입력 이미지(800)와 등록 이미지(810)에 푸리에 변환을 적용하여 주파수 도메인의 정보들(805, 815)을 생성하고, 상기 정보들(805, 815)에 로그-폴라 변환을 적용하여 극좌표 정보들(806, 816)을 생성할 수 있다. 이후, 극좌표 정보들(806, 816)에 푸리에 변환을 적용하여 위상 정보들(807, 817)을 생성하고, 위상 정보들(807, 817) 사이의 위상 상관 관계를 분석함으로써 회전 변환에 필요한 제1 보정값을 계산할 수 있다. 도 17에 도시한 실시예에 제1 보정값은 37°일 수 있다.
제1 보정값에 기초하여 등록 이미지(810)를 회전시켜 회전 등록 이미지(820)를 생성하고, 입력 이미지(800)와 회전 등록 이미지(820) 각각에 푸리에 변환을 적용하여 입력 위상 정보(809) 및 등록 위상 정보(821)를 생성할 수 있다. 프로세서는, 입력 위상 정보(809)와 등록 위상 정보(821)를 비교하여 회전 등록 이미지(820)의 이동 변환에 필요한 제2 보정값을 계산하고, 제2 보정값에 따라 회전 등록 이미지(820)를 이동시켜 기준 등록 이미지(830)를 생성할 수 있다.
기준 등록 이미지(830)는 입력 이미지(800)와 정합되어 오버랩 영역(840)을 형성할 수 있다. 등록 이미지(810)와 마찬가지로, 기준 등록 이미지(830) 역시 특징점만을 포함하며, 도 17에 도시한 실시예에서는 오버랩 영역(840)에서 입력 이미지(800)의 특징점(801)과, 기준 등록 이미지(830)의 제2 특징점(832)이 일치할 수 있다. 따라서, 오버랩 영역(840) 내에서의 매칭 점수가 인증 가능할 정도로 충분히 높게 계산될 수 있으며, 입력 이미지(800)에 대한 인증이 성공할 수 있다.
다음으로 도 18을 참조하면, 입력 이미지(900)와 원본 등록 이미지(910) 각각이 특징점을 갖는 고유 영역(901, 911)을 가질 수 있다. 또한, 지문 센서나 사용자의 지문 표피 등에 존재하는 이물질로 인해, 지문이 제대로 이미지화 되지 않은 오류 영역(902, 912)이 존재할 수 있다. 이하, 설명의 편의를 위하여, 입력 이미지(900)는 정당한 사용자의 지문인 것을 가정한다.
입력 이미지(900)와 원본 등록 이미지(910)를 정합하기 위한 과정은, 도 17의 실시예와 유사할 수 있다. 입력 이미지(900)와 원본 등록 이미지(910)에 푸리에 변환을 적용하여 주파수 도메인의 정보들(903, 913)을 생성하고, 상기 정보들(903, 913)에 로그-폴라 변환을 적용하여 극좌표 정보들(904, 914)을 생성할 수 있다. 이후, 극좌표 정보들(904, 914)에 푸리에 변환을 적용하여 위상 정보들(905, 915)을 생성하고, 위상 정보들(905, 915) 사이의 위상 상관 관계를 분석함으로써 회전 변환에 필요한 제1 보정값을 계산할 수 있다. 도 18에 도시한 실시예에 제1 보정값은 37°일 수 있다.
제1 보정값에 기초하여 원본 등록 이미지(910)를 회전시켜 회전 등록 이미지(920)를 생성하고, 입력 이미지(900)와 회전 등록 이미지(920) 각각에 푸리에 변환을 적용하여 입력 위상 정보(906) 및 등록 위상 정보(926)를 생성할 수 있다. 프로세서는, 입력 위상 정보(906)와 등록 위상 정보(926)를 비교하여 회전 등록 이미지(920)의 이동 변환에 필요한 제2 보정값을 계산하고, 제2 보정값에 따라 회전 등록 이미지(920)를 이동시켜 기준 등록 이미지(930)를 생성할 수 있다.
기준 등록 이미지(930)와 입력 이미지(900)는 적어도 일부 영역에서 서로 중첩되어 오버랩 영역(940)을 형성할 수 있다. 이때, 오버랩 영역(940) 내에 다수의 오류 영역이 존재하므로, 오류 영역으로 인해 매칭 점수가 낮게 계산되어 입력 이미지(900)에 대한 인증이 실패할 수 있다. 상기와 같은 문제를 방지하기 위해, 도 18에 도시한 실시예에서는, 오버랩 영역(940) 내에서 특징점을 갖는 고유 영역(941)에 가중치를 부여할 수 있다. 따라서, 오버랩 영역(940) 내의 오류 영역의 존재에도 불구하고, 고유 영역(941)에 부여된 가중치로 인해 입력 이미지(900)의 인증이 허용될 수 있으며, 지문 인식의 성능을 개선할 수 있다.
도 19는 본 발명의 일 실시예에 따른 등록 이미지 처리 방법을 설명하기 위해 제공되는 도면이다. 일 실시예에서, 도 19를 참조하여 설명하는 지문 정보 처리 방법은, 지문 센서를 구비한 전자 기기의 프로세서에서 실행될 수 있다.
도 19를 참조하면, 사용자 지문에서 획득한 입력 이미지(1201)는, 메모리(1210)에 저장된 복수의 등록 이미지들(1211-1213)과 비교될 수 있다. 도 19에 도시한 실시예에서는, 제3 등록 이미지(1213)와 입력 이미지(1201)가 높은 유사성을 가질 수 있으며, 프로세서는 제3 등록 이미지(1213)를 회전 및/또는 이동시켜 기준 등록 이미지(1220)를 생성할 수 있다. 기준 등록 이미지(1220)는 입력 이미지(1201)와 정합 가능한 이미지일 수 있다. 프로세서는 기준 등록 이미지(1220)와 입력 이미지(1201)가 중첩되어 형성되는 오버랩 영역(1230)의 면적과, 오버랩 영역(1230)에서 산출되는 매칭 점수 중 적어도 하나에 기초하여 입력 이미지(1201)의 인증 여부를 판단할 수 있다.
입력 이미지(1201)와 제3 등록 이미지(1213)를 비교하여 입력 이미지(1201)의 인증이 성공하면, 프로세서는 입력 이미지(1201)와 제3 등록 이미지(1213)의 유사성을 판단하여 입력 이미지(1201)와 제3 등록 이미지(1213)를 병합한 템플릿(template) 생성 여부를 결정할 수 있다. 템플릿은 적어도 하나의 지문 이미지를 가질 수 있으며, 지문 센서를 통해 입력된 이미지와 비교되어 사용자 지문의 인증 여부를 판단하기 위한 기준 데이터일 수 있다. 즉, 본 발명의 일 실시예에서는, 특정 조건이 만족되는 경우에, 사용자 인증에 성공한 입력 이미지(1201)를 기존에 저장되어 있던 등록 이미지들(1211-1213) 중 적어도 하나와 병합하여 하나의 템플릿으로 관리할 수 있다.
도 19에 도시한 실시예에서 입력 이미지(1201)와 제3 등록 이미지(1213)를 비교하여 사용자 지문의 인증이 성공한 경우, 프로세서는 입력 이미지(1201)와 제3 등록 이미지(1213)를 하나의 템플릿으로 병합 및 관리할지 여부를 판단할 수 있다. 이때, 사용자 지문의 인증 기준이 되는 입력 이미지(1201)와 제3 등록 이미지(1213) 사이의 유사성보다, 입력 이미지(1201)와 제3 등록 이미지(1213)를 하나의 템플릿으로 병합할 때 기준이 되는 유사성이 더 높은 값을 가질 수 있다.
도 20 및 도 21은 본 발명의 일 실시예에 따른 등록 이미지 처리 방법을 설명하기 위해 제공되는 흐름도이다. 일 실시예에서, 도 20 및 도 21을 참조하여 설명하는 등록 이미지 처리 방법은, 지문 센서를 구비한 전자 기기의 프로세서에서 실행될 수 있다.
우선 도 20을 참조하면, 본 발명의 일 실시예에 따른 등록 이미지 처리 방법은 사용자 지문 등록 단계에서, 사용자 지문의 적어도 일부에 대응하는 부분 지문 이미지를 수신하는 것으로 시작될 수 있다(S1020). 부분 지문 이미지는 지문 센서에 접촉한 사용자 지문의 일부 영역으로부터 획득될 수 있으며, 사용자 등록을 위한 것일 수 있다. 프로세서는 S1020 단계에서 획득한 부분 지문 이미지가 최초로 입력된 이미지인지 여부를 판단할 수 있다(S1021). 즉, S1020 단계에서 획득한 부분 지문 이미지 이전에 수신하여 미리 저장된 다른 지문 이미지가 없을 경우, S1020 단계에서 획득한 부분 지문 이미지를 최초로 입력된 이미지로 결정할 수 있다.
S1021 단계의 판단 결과, 부분 지문 이미지가 최초로 입력된 이미지인 것으로 판단되면, 프로세서는 새로운 템플릿을 생성하고(S1024), 생성한 새로운 템플릿에 부분 지문 이미지를 저장할 수 있다(S1025). 템플릿에 저장된 부분 지문 이미지는, 이후 사용자 인증 과정에서 등록 이미지로 이용될 수 있다.
S1021 단계의 판단 결과, 부분 지문 이미지가 최초로 입력된 이미지가 아닌 것으로 판단되면, 프로세서는 부분 지문 이미지를 기존에 획득하여 미리 저장해 놓은 템플릿들과 비교할 수 있다(S1022). S1022 단계의 비교는, 부분 지문 이미지와, 템플릿에 저장된 등록 이미지들을 비교하는 것으로 수행될 수 있다. 일 실시예에서 프로세서는, 부분 지문 이미지와, 복수의 템플릿들 각각에 포함되는 등록 이미지를 서로 비교하여 부분 지문 이미지와 정합 가능한 유사 템플릿이 존재하는지 여부를 판단할 수 있다(S1023).
S1023 단계의 판단 결과, 부분 지문 이미지와 정합 가능한 유사 템플릿이 존재하지 않으면, 프로세서는 새로운 템플릿을 생성하고(S1024), 생성한 새로운 템플릿에 부분 지문 이미지를 저장할 수 있다(S1025). 반면, S1023 단계의 판단 결과 부분 지문 이미지와 정합 가능한 유사 템플릿이 존재하면, 프로세서는 유사 템플릿에 부분 지문 이미지를 저장하여 유사 템플릿을 갱신할 수 있다(S1026). 예를 들어, S1023 단계에서 검색한 유사 템플릿이 기존에 2개의 등록 이미지들을 갖고 있는 경우, 부분 지문 이미지가 S1026 단계에서 추가되어 상기 유사 템플릿이 총 3개의 등록 이미지들을 가질 수 있다.
템플릿 갱신이 완료되면, 프로세서는 템플릿들 각각을 다른 템플릿들과 비교할 수 있다(S1027). 예를 들어, 제1 내지 제3 템플릿이 존재하는 경우, 제1 및 제2 템플릿이 서로 비교되고, 제2 및 제3 템플릿이 서로 비교되며, 제3 및 제1 템플릿이 서로 비교될 수 있다. S1027 단계의 비교는 이미지 비교 과정을 포함할 수 있으며, 프로세서는 각 템플릿들이 제공하는 이미지의 유사성을 판단하여 병합 가능한 템플릿들이 존재하는지 여부를 판단할 수 있다(S1028).
S1028 단계에서 병합 가능한 템플릿이 존재하는 경우, 프로세서는 병합 가능한 템플릿들을 합쳐서 하나의 템플릿으로 관리할 수 있다(S1029). 예를 들어 제1 및 제3 템플릿이 서로 높은 유사성을 가져서 제4 템플릿으로 병합된 경우, 프로세서는 제1 템플릿의 인증 성공 횟수와 제3 템플릿의 인증 성공 횟수를 더하여, 제4 템플릿의 인증 성공 횟수를 계산할 수 있다. 템플릿 병합이 완료된 후, 프로세서는 템플릿들 각각을 인증 성공 횟수에 따라 정렬하여 관리할 수 있다(S1030). S1028 단계에서 병합 가능한 템플릿이 존재하지 않으면, 프로세서는 템플릿 병합 과정 없이 템플릿들 각각을 인증 성공 횟수에 따라 정렬하여 관리할 수 있다(S1030).
즉, 도 20을 참조하여 설명한 본 발명의 일 실시예에서는, 사용자 등록을 위한 부분 지문 이미지를 수신할 경우, 이를 이미 등록된 템플릿들과 비교하여 높은 유사성을 갖는 유사 템플릿이 존재하는지 판단할 수 있다. 부분 지문 이미지와 높은 유사성을 갖는 유사 템플릿이 존재하면, 부분 지문 이미지를 유사 템플릿에 병합하여 저장하는 한편, 유사 템플릿을 비롯한 모든 템플릿들을 서로 비교하여 템플릿들 중 적어도 일부의 병합 가능성을 판단할 수 있다.
다음으로 도 21을 참조하면, 본 발명의 일 실시예에 따른 등록 이미지 처리 방법은 사용자 지문의 적어도 일부에 대응하는 입력 이미지를 수신하는 것으로 시작될 수 있다(S1040). 입력 이미지는 지문 센서에 접촉한 사용자 지문의 일부 영역으로부터 획득될 수 있으며, 사용자 인증을 위한 것일 수 있다. 프로세서는 S1040 단계에서 획득한 입력 이미지를 이미 저장된 등록 이미지를 갖는 템플릿들과 비교할 수 있다(S1041). S1041 단계는 입력 이미지와, 템플릿이 갖는 등록 이미지를 이미지 정합시켜 비교하는 것으로 수행될 수 있다.
입력 이미지와 템플릿 간의 이미지 정합 및 비교가 완료되면, 프로세서는 입력 이미지와 정합 가능한 인증 템플릿이 템플릿들 중에서 존재하는지 여부를 판단할 수 있다(S1042). 인증 템플릿이 존재하지 않으면, 프로세서는 입력 이미지가 정당한 사용자로부터 생성되지 않았다고 판단하고, 사용자 인증을 거부할 수 있다(S1043). 반면, 인증 템플릿이 존재하는 경우, 프로세서는 사용자 인증을 허락(S1044)하여 전자 기기의 잠금 모드를 해제하거나, 결제 서비스에서 결제 절차를 진행하는 등의 동작을 수행할 수 있다.
사용자 인증을 허락한 후 프로세서는, 인증 템플릿에 입력 이미지를 추가함으로써 인증 템플릿을 갱신할 수 있다(S1045). 프로세서는, 입력 이미지와 인증 템플릿의 유사성이 매우 높은 경우에만 인증 템플릿에 입력 이미지를 추가하여 S1045 단계의 갱신 작업을 진행할 수 있다. 인증 템플릿 갱신에 필요한 입력 이미지와 인증 템플릿의 유사성은, 사용자 인증 허락에 필요한 입력 이미지와 인증 템플릿의 유사성보다 더 타이트한 기준을 가질 수 있다.
템플릿 갱신이 완료되면, 프로세서는 템플릿들끼리 이미지 비교를 수행할 수 있다(S1046). S1046 단계의 이미지 비교 결과 서로 유사성을 갖는 템플릿들이 존재하는지 여부로부터, 프로세서는 병합 가능한 템플릿이 존재하는지를 판단할 수 있다(S1047). 병합 가능한 템플릿이 존재하면, 프로세서는 병합 가능한 템플릿들을 하나의 템플릿으로 합치고(S1048), 템플릿들을 정렬하여 관리할 수 있다(S1049). 템플릿들은, 사용자 인증에 성공한 인증 성공 횟수, 템플릿들 각각이 갖는 등록 이미지들의 개수, 템플릿들 각각에 포함되는 등록 이미지들의 총 면적 등에 따라 정렬될 수 있다. 한편 S1047 단계의 판단 결과 병합 가능한 템플릿이 존재하지 않으면, 프로세서는 템플릿 병합 과정을 생략하고 템플릿들을 정렬하여 관리할 수 있다(S1049).
본 발명의 일 실시예에 따르면, 지문 센서로부터 획득한 입력 이미지와, 복수의 템플릿들 중 어느 하나인 인증 템플릿 간의 유사성이 인정되면, 사용자 인증을 허락하는 한편, 상기 입력 이미지를 상기 인증 템플릿에 추가하여 상기 인증 템플릿을 갱신할 수 있다. 즉, 정당한 사용자가 입력한 것으로 판정된 입력 이미지를, 해당 입력 이미지와 유사성이 인정된 템플릿에 추가하여 해당 템플릿을 지속적으로 갱신함으로써, 다양한 입력 조건 및 환경에 따른 지문 인증의 정확도를 높일 수 있다.
도 22a 내지 도 22c은 본 발명의 일 실시예에 따른 등록 이미지 처리 방법을 설명하기 위해 제공되는 도면이다. 일 실시예에서, 도 22a 내지 도 22b를 참조하여 설명하는 등록 이미지 처리 방법은, 지문 센서를 구비한 전자 기기의 프로세서에서 실행될 수 있다.
우선 도 22a에 도시한 실시예를 참조하면, 템플릿(2000)에는 복수의 등록 이미지들이 포함될 수 있다. 프로세서는 템플릿(2000)은 입력 이미지(2010)와 비교하여 사용자 인증 여부를 판단할 수 있다. 도 22a에 도시한 실시예를 참조하면, 입력 이미지(2010)가 템플릿(2000)에 포함된 등록 이미지들과 오버랩 영역을 형성하며, 상기 오버랩 영역의 면적, 및 입력 이미지(2010)와 등록 이미지들 사이의 매칭 점수에 의해 입력 이미지(2010)에 기초한 사용자 인증이 성공할 수 있다. 또한, 입력 이미지(2010)를 템플릿(2000)에 병합하여 새로운 템플릿(2100)으로 갱신할 수 있다.
다음으로 도 22b에 도시한 실시예를 참조하면, 템플릿(2000)에 포함된 등록 이미지들과, 입력 이미지(2020) 사이에 형성되는 오버랩 영역의 면적이 매우 작을 수 있다. 따라서, 입력 이미지(2020)에 기초한 사용자 인증이 거부될 수 있으며, 이 경우 템플릿(2000)이 입력 이미지(2020)에 의해 갱신되지 않을 수 있다.
도 22c에 도시한 실시예를 참조하면, 템플릿(2000)에 포함된 등록 이미지들과 입력 이미지(2030) 사이에 오버랩 영역이 형성되며, 따라서 입력 이미지(2030)에 기초한 사용자 인증이 성공할 수 있다. 다만, 도 22a에 비교한 경우와 비교하면, 도 22c에 도시한 실시예에서 형성되는 오버랩 영역의 면적이 상대적으로 더 작을 수 있다. 입력 이미지(2030)를 이용한 템플릿(2000) 갱신 단계에서는, 사용자 인증 단계에서보다 더 타이트한 기준이 적용될 수 있다.
따라서, 도 22c에 도시한 실시예에서는, 입력 이미지(2030)에 기초한 사용자 인증은 성공한 반면, 입력 이미지(2030)를 이용한 템플릿(2000) 갱신은 거부될 수 있다. 즉, 사용자 인증 단계와 템플릿 갱신 단계에서 적용되는 기준을 서로 다르게 설정하여 템플릿 갱신 단계에 좀 더 타이트한 기준을 적용함으로써, 템플릿에 부적절한 지문 이미지가 추가되어 템플릿이 오염되고 템플릿의 신뢰성이 저하되는 것을 방지할 수 있다.
도 23은 본 발명의 일 실시예에 따른 전자 기기를 나타낸 블록도이다.
도 23을 참조하면, 본 발명의 일 실시예에 따른 지문 센서(3010)는 컴퓨터 장치(3000)에 적용될 수 있다. 도 23에 도시한 실시예에 따른 컴퓨터 장치(3000)는 지문 센서(3010) 외에 입출력 장치(3020), 메모리(3030), 프로세서(3040), 및 포트(3050) 등을 포함할 수 있다. 이외에 컴퓨터 장치(3000)는 유무선 통신 장치, 전원 장치 등을 더 포함할 수 있다. 도 23에 도시된 구성 요소 가운데, 포트(3050)는 컴퓨터 장치(3000)가 비디오 카드, 사운드 카드, 메모리 카드, USB 장치 등과 통신하기 위해 제공되는 장치일 수 있다. 컴퓨터 장치(3000)는 일반적인 데스크톱 컴퓨터나 랩톱 컴퓨터 외에 스마트폰, 태블릿 PC, 스마트 웨어러블 기기 등을 모두 포괄하는 개념일 수 있다.
프로세서(3040)는 특정 연산이나 명령어 및 태스크 등을 수행할 수 있다. 프로세서(3040)는 중앙 처리 장치(CPU) 또는 마이크로프로세서 유닛(MCU)일 수 있으며, 버스(3060)를 통해 메모리 장치(3030), 입출력 장치(3020), 지문 센서(3010) 및 포트(3050)에 연결된 다른 장치들과 통신할 수 있다.
메모리(3030)는 컴퓨터 장치(3000)의 동작에 필요한 데이터, 또는 멀티미디어 데이터 등을 저장하는 저장 매체일 수 있다. 메모리(3030)는 랜덤 액세스 메모리(RAM)와 같은 휘발성 메모리나, 또는 플래시 메모리 등과 같은 비휘발성 메모리를 포함할 수 있다. 또한 메모리(3030)는 저장장치로서 솔리드 스테이트 드라이브(SSD), 하드 디스크 드라이브(HDD), 및 광학 드라이브(ODD) 중 적어도 하나를 포함할 수도 있다. 메모리(3030)는 지문 센서(3010)를 통해 입력되는 입력 이미지와 비교되는 등록 이미지가 저장될 수도 있다. 입출력 장치(3020)는 사용자에게 제공되는 키보드, 마우스, 터치스크린 등과 같은 입력 장치 및 디스플레이, 오디오 출력부 등과 같은 출력 장치를 포함할 수 있다.
지문 센서(3010)는 버스(3060) 또는 다른 통신 수단에 의해 프로세서(3040)와 연결될 수 있다. 프로세서(3040)는 지문 센서(3010)를 통해 수신한 입력 이미지를, 메모리(3030)에 저장된 등록 이미지와 비교하여 사용자 인증을 수행할 수 있다. 프로세서(3040)가 수행하는 사용자 인증 과정은, 앞서 도 1 내지 도 22를 참조하여 설명한 본 발명의 다양한 실시예에 따를 수 있다.
본 발명은 상술한 실시형태 및 첨부된 도면에 의해 한정되는 것이 아니며 첨부된 청구범위에 의해 한정하고자 한다. 따라서, 청구범위에 기재된 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 당 기술분야의 통상의 지식을 가진 자에 의해 다양한 형태의 치환, 변형 및 변경이 가능할 것이며, 이 또한 본 발명의 범위에 속한다고 할 것이다.
100, 200, 400, 700, 730, 800, 900, 1201, 2010, 2020, 2030: 입력 이미지
110, 210, 300, 910: 원본 등록 이미지
120, 220, 310, 320, 820, 920: 회전 등록 이미지

Claims (20)

  1. 사용자 지문의 적어도 일부에 대응하는 입력 이미지를 복수의 제1 영역들로 분할하는 단계;
    미리 저장된 등록 이미지를 복수의 제2 영역들로 분할하는 단계;
    상기 복수의 제1 영역들과 상기 복수의 제2 영역들을 비교하여 상기 복수의 제1 영역들에서 제1 매칭 영역을 선택하고, 상기 복수의 제2 영역들에서 제2 매칭 영역을 선택하는 단계; 및
    상기 제1 매칭 영역과 상기 제2 매칭 영역을 비교하여 상기 등록 이미지와 상기 입력 이미지를 정합하는 단계; 를 포함하는 지문 정보 처리 방법.
  2. 제1항에 있어서,
    상기 복수의 제1 영역들 각각과 상기 복수의 제2 영역들 각각의 유사성을 대응하는 매칭 확률을 계산하는 단계; 및
    상기 매칭 확률이 가장 높은 상기 제1 영역과 상기 제2 영역을 상기 제1 매칭 영역 및 상기 제2 매칭 영역으로 선택하는 단계; 를 포함하는 지문 정보 처리 방법.
  3. 제2항에 있어서,
    상기 복수의 제1 영역들 각각과 상기 복수의 제2 영역들 각각 사이의 위상 상관 관계를 산출하여 상기 매칭 확률을 계산하는 지문 정보 처리 방법.
  4. 제3항에 있어서,
    상기 위상 상관 관계의 피크값을 검출하여 상기 등록 이미지의 회전 변환에 필요한 보정값을 생성하는 지문 정보 처리 방법.
  5. 제1항에 있어서,
    상기 정합하는 단계는,
    상기 제1 매칭 영역과 상기 제2 매칭 영역을 비교하여 생성한 제1 보정값에 기초하여 상기 등록 이미지를 회전하는 단계; 및
    상기 입력 이미지와, 회전한 상기 등록 이미지를 비교하여 생성한 제2 보정값에 기초하여 회전한 상기 등록 이미지를 이동시켜 상기 입력 이미지와 정합하는 단계; 를 포함하는 지문 정보 처리 방법.
  6. 제5항에 있어서,
    상기 제1 매칭 영역과, 상기 제1 보정값에 기초하여 회전한 상기 제2 매칭 영역을 비교하여 상기 제2 보정값을 생성하는 지문 정보 처리 방법.
  7. 제1항에 있어서,
    상기 등록 이미지와 상기 입력 이미지가 정합되어 형성된 오버랩 영역에서, 상기 등록 이미지와 상기 입력 이미지의 유사성을 나타내는 매칭 점수를 계산하는 단계; 및
    상기 오버랩 영역의 면적을 계산하는 단계; 및
    상기 매칭 점수와 상기 오버랩 영역의 면적 중 적어도 하나를 고려하여 상기 사용자 지문의 인증 여부를 결정하는 단계; 를 포함하는 지문 정보 처리 방법.
  8. 제7항에 있어서,
    상기 입력 이미지와 상기 등록 이미지 각각을 복수의 서브 영역들로 분할하는 단계;
    상기 입력 이미지와 상기 등록 이미지 각각에서 특징점을 찾는 단계;
    상기 오버랩 영역에서 상기 특징점을 포함하는 제1 서브 영역 및 상기 제1 서브 영역에 인접한 제2 서브 영역 각각에 소정의 가중치를 부여하여 상기 입력 이미지와 상기 등록 이미지의 정규화 상관 관계를 산출하는 지문 정보 처리 방법.
  9. 사용자 지문의 적어도 일부에 대응하는 입력 이미지와, 미리 저장된 등록 이미지를 복수의 서브 영역들로 분할하는 단계;
    상기 등록 이미지와 상기 입력 이미지 각각의 상기 서브 영역들에서 특징점을 포함하는 제1 서브 영역 및 상기 제1 서브 영역에 인접한 제2 서브 영역을 찾는 단계; 및
    상기 등록 이미지와 상기 입력 이미지가 겹치는 오버랩 영역에 포함되는 상기 제1 서브 영역과 상기 제2 서브 영역 각각에 소정의 가중치를 부여하여 상기 사용자 지문에 대한 인증 여부를 판단하는 단계; 를 포함하는 지문 정보 처리 방법.
  10. 제9항에 있어서,
    상기 제1 서브 영역에 부여되는 가중치는 상기 제2 서브 영역에 부여되는 가중치보다 큰 지문 정보 처리 방법.
  11. 제9항에 있어서,
    상기 제1 서브 영역과 상기 제2 서브 영역 각각에 상기 가중치를 부여하여 상기 오버랩 영역에서 상기 등록 이미지와 상기 입력 이미지의 유사성을 나타내는 매칭 점수를 계산하는 단계;
    상기 오버랩 영역의 면적을 계산하는 단계; 및
    상기 매칭 점수와 상기 오버랩 영역의 면적 중 적어도 하나에 기초하여 상기 사용자 지문의 인증 여부를 결정하는 단계; 를 판단하는 지문 정보 처리 방법.
  12. 제11항에 있어서,
    상기 오버랩 영역에서 상기 등록 이미지와 상기 입력 이미지의 정규화 상관 관계를 산출할 때 상기 가중치를 적용하여 상기 매칭 점수를 계산하는 지문 정보 처리 방법.
  13. 제9항에 있어서,
    상기 등록 이미지는, 미리 입력된 지문 이미지 원본에 포함되는 특징점 정보만을 포함하는 지문 정보 처리 방법.
  14. 제9항에 있어서,
    상기 입력 이미지를 복수의 제1 영역들로 분할하고, 상기 등록 이미지를 복수의 제2 영역들로 분할하는 단계; 및
    상기 복수의 제1 영역들과 상기 복수의 제2 영역들을 서로 비교하여 상기 오버랩 영역이 형성되도록 상기 입력 이미지와 상기 등록 이미지를 정합하는 단계; 를 포함하는 지문 정보 처리 방법.
  15. 사용자 지문의 적어도 일부에 대응하는 입력 이미지를 수신하는 단계;
    복수의 템플릿들과 상기 입력 이미지를 비교하여, 상기 복수의 템플릿들 중에서 상기 입력 이미지와 정합되는 인증 템플릿을 찾는 단계; 및
    상기 인증 템플릿이 존재하면, 상기 사용자 지문의 인증을 허락하고 상기 입력 이미지를 이용하여 상기 인증 템플릿을 갱신하는 단계; 를 포함하는 지문 정보 처리 방법.
  16. 제15항에 있어서,
    상기 인증 템플릿이 존재하면, 상기 사용자 지문을 인증하고, 상기 인증 템플릿의 인증 성공 횟수를 카운트하는 지문 정보 처리 방법.
  17. 제15항에 있어서,
    상기 입력 이미지를 이용하여 상기 인증 템플릿을 갱신한 후, 갱신한 상기 인증 템플릿과 정합되는 다른 유사 템플릿을 상기 복수의 템플릿들 중에서 찾는 단계; 및
    상기 유사 템플릿이 존재하면, 갱신한 상기 템플릿과 상기 유사 템플릿을 병합하는 단계; 를 포함하는 지문 정보 처리 방법.
  18. 제17항에 있어서,
    갱신한 상기 템플릿과 상기 유사 템플릿이 병합되어 생성된 새로운 템플릿의 인증 성공 횟수는, 갱신한 상기 템플릿의 인증 횟수와 상기 유사 템플릿의 인증 성공 횟수의 합과 동일한 지문 정보 처리 방법.
  19. 제18항에 있어서,
    상기 인증 템플릿을 갱신하는 단계는,
    상기 인증 템플릿이 갖는 등록 이미지와 상기 입력 이미지가 겹치는 오버랩 영역의 면적, 및 상기 오버랩 영역에서 계산되는 상기 등록 이미지와 상기 입력 이미지의 정규화 상관 관계 중 적어도 하나에 기초하여 상기 인증 템플릿을 갱신하는 지문 정보 처리 방법.
  20. 제19항에 있어서,
    상기 인증 템플릿은 복수의 등록 이미지들을 가지며, 상기 오버랩 영역은 상기 복수의 등록 이미지들과 상기 입력 이미지가 모두 겹치는 영역에 대응하는 지문 정보 처리 방법.

KR1020170010058A 2017-01-20 2017-01-20 지문 정보 처리 방법 KR20180086087A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020170010058A KR20180086087A (ko) 2017-01-20 2017-01-20 지문 정보 처리 방법
US15/717,067 US10509943B2 (en) 2017-01-20 2017-09-27 Method of processing fingerprint information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170010058A KR20180086087A (ko) 2017-01-20 2017-01-20 지문 정보 처리 방법

Publications (1)

Publication Number Publication Date
KR20180086087A true KR20180086087A (ko) 2018-07-30

Family

ID=62906812

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170010058A KR20180086087A (ko) 2017-01-20 2017-01-20 지문 정보 처리 방법

Country Status (2)

Country Link
US (1) US10509943B2 (ko)
KR (1) KR20180086087A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11275918B2 (en) 2019-01-03 2022-03-15 Samsung Electronics Co., Ltd. Fingerprint verification method and apparatus

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8600120B2 (en) 2008-01-03 2013-12-03 Apple Inc. Personal computing device control using face detection and recognition
US9002322B2 (en) 2011-09-29 2015-04-07 Apple Inc. Authentication with secondary approver
US8913801B2 (en) 2012-06-29 2014-12-16 Apple Inc. Enrollment using synthetic fingerprint image and fingerprint sensing systems
US10372962B2 (en) * 2012-06-29 2019-08-06 Apple Inc. Zero fingerprint enrollment system for an electronic device
US9898642B2 (en) * 2013-09-09 2018-02-20 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
US10043185B2 (en) 2014-05-29 2018-08-07 Apple Inc. User interface for payments
KR102301599B1 (ko) 2017-09-09 2021-09-10 애플 인크. 생체측정 인증의 구현
CN107580142B (zh) * 2017-09-22 2020-11-27 北京小米移动软件有限公司 一种执行处理的方法和装置
US11170085B2 (en) 2018-06-03 2021-11-09 Apple Inc. Implementation of biometric authentication
US11216541B2 (en) * 2018-09-07 2022-01-04 Qualcomm Incorporated User adaptation for biometric authentication
US11100349B2 (en) 2018-09-28 2021-08-24 Apple Inc. Audio assisted enrollment
US20210035109A1 (en) * 2019-07-31 2021-02-04 Mastercard International Incorporated Methods and systems for enrollment and use of biometric payment card
EP3792819A1 (en) * 2019-09-10 2021-03-17 Thales Dis France SA Method for determining a match between a candidate fingerprint and a reference fingerprint
CN113918908A (zh) 2020-07-07 2022-01-11 三星电子株式会社 用于指纹验证的方法和设备

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001344213A (ja) * 2000-05-31 2001-12-14 Hitachi Ltd 生体認証システム
US7127106B1 (en) * 2001-10-29 2006-10-24 George Mason Intellectual Properties, Inc. Fingerprinting and recognition of data
KR100489430B1 (ko) 2002-05-04 2005-05-12 에버미디어 주식회사 위치이동, 회전에 무관한 지문인식 방법 및 지문인식 장치및 그 방법을 실행시키기 위한 프로그램을 기록한기록매체
JP2004240931A (ja) 2003-02-05 2004-08-26 Sony Corp 画像照合装置、画像照合方法、およびプログラム
AU2003903511A0 (en) 2003-07-08 2003-07-24 Canon Kabushiki Kaisha Image registration method improvement
US8090218B2 (en) * 2004-03-31 2012-01-03 Canon Kabushiki Kaisha Imaging system performance measurement
RU2361272C2 (ru) 2005-01-31 2009-07-10 Присайз Биометрикс Аб Способ и устройство для улучшенного сличения отпечатков пальцев
KR100825773B1 (ko) 2005-08-23 2008-04-28 삼성전자주식회사 방향 추정 방법 및 장치
US20080279416A1 (en) * 2007-05-11 2008-11-13 Motorola, Inc. Print matching method and system using phase correlation
US8155452B2 (en) 2008-10-08 2012-04-10 Harris Corporation Image registration using rotation tolerant correlation method
US20100232659A1 (en) 2009-03-12 2010-09-16 Harris Corporation Method for fingerprint template synthesis and fingerprint mosaicing using a point matching algorithm
US20110044513A1 (en) 2009-08-19 2011-02-24 Harris Corporation Method for n-wise registration and mosaicing of partial prints
KR101054312B1 (ko) 2009-08-28 2011-08-08 연세대학교 산학협력단 다시점 지문영상의 결합방법
KR20110114191A (ko) 2010-04-13 2011-10-19 (주)아와시스템 특징점 구조 기반의 지문 매칭 방법
EP2495687B1 (en) 2011-03-02 2018-12-05 Precise Biometrics AB Method of matching, biometric matching apparatus, and computer program
CN104156707B (zh) 2014-08-14 2017-09-22 深圳市汇顶科技股份有限公司 指纹识别方法及其指纹识别装置
US9400914B2 (en) 2014-10-24 2016-07-26 Egis Technology Inc. Method and electronic device for generating fingerprint enrollment data
SE1451336A1 (en) 2014-11-07 2016-05-08 Fingerprint Cards Ab Enrolling templates for biometric authentication
US9613428B2 (en) 2014-11-07 2017-04-04 Fingerprint Cards Ab Fingerprint authentication using stitch and cut
US10089349B2 (en) 2014-11-21 2018-10-02 Egis Technology Inc. Method and electronic device for updating the registered fingerprint datasets of fingerprint recognition
KR102202690B1 (ko) 2015-01-08 2021-01-13 삼성전자주식회사 지문 인식 방법, 장치 및 시스템
US9996728B2 (en) 2015-01-23 2018-06-12 Samsung Electronics Co., Ltd. System and method for partial fingerprint enrollment and matching using small size fingerprint sensors
US10339178B2 (en) * 2015-06-30 2019-07-02 Samsung Electronics Co., Ltd. Fingerprint recognition method and apparatus
US10261804B2 (en) * 2015-09-11 2019-04-16 Qualcomm Incorporated Gradual power wake-up mechanism
CN107025419B (zh) * 2016-01-29 2020-11-10 北京小米移动软件有限公司 指纹模板录入方法及装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11275918B2 (en) 2019-01-03 2022-03-15 Samsung Electronics Co., Ltd. Fingerprint verification method and apparatus

Also Published As

Publication number Publication date
US20180211093A1 (en) 2018-07-26
US10509943B2 (en) 2019-12-17

Similar Documents

Publication Publication Date Title
KR20180086087A (ko) 지문 정보 처리 방법
KR102387568B1 (ko) 지문 인식 기반 인증 방법 및 장치
JP6565230B2 (ja) ユーザ認証方法、システム、及びプログラム
RU2533654C2 (ru) Повышение биометрической защищенности системы
US9036876B2 (en) Method and system for authenticating biometric data
US6941001B1 (en) To a combined fingerprint acquisition and control device
US8550339B1 (en) Utilization of digit sequences for biometric authentication
TWI664552B (zh) 與配備有相機之裝置連接之用於生物特徵量測鑑認之系統及方法
KR101556599B1 (ko) 패턴 입력 장치 및 방법과 이를 이용한 기록 매체
CN1977293A (zh) 个人手势签名
US8260060B2 (en) Comparison method, comparison system, computer, and program
Wazir et al. Doodle-based authentication technique using augmented reality
KR20180086086A (ko) 지문 정보 처리 방법
CN114600173A (zh) 用于认证的指纹捕获并匹配
Ghiyamipour Secure graphical password based on cued click points using fuzzy logic
US20190012074A1 (en) System and method for authenticating with user specified grid and capturing and comparing the pattern start and end including repeats
Kumar et al. A graphical password based authentication based system for mobile devices
KR102389562B1 (ko) 지문 정보 처리 방법
TWI698823B (zh) 於簽章時驗證使用者身分之系統及方法
CN113918908A (zh) 用于指纹验证的方法和设备
de Oliveira et al. A security API for multimodal multi-biometric continuous authentication
Kaur et al. Biometric-based key handling using speeded up robust features
KR101988365B1 (ko) 얼굴 인식 시스템 및 그 방법
JP5922071B2 (ja) システムのバイオメトリックセキュリティの向上
KR100919486B1 (ko) 부분 기하학적 해싱을 이용한 은닉된 지문 데이터의 정렬방법, 부분 기하학적 해싱을 이용한 지문 데이터 인증방법, 부분 기하학적 해싱을 이용한 은닉된 지문 데이터의정렬 장치 및 부분 기하학적 해싱을 이용한 지문 데이터인증 시스템