KR20170003361A - 지문 인식 방법 및 장치 - Google Patents

지문 인식 방법 및 장치 Download PDF

Info

Publication number
KR20170003361A
KR20170003361A KR1020150168926A KR20150168926A KR20170003361A KR 20170003361 A KR20170003361 A KR 20170003361A KR 1020150168926 A KR1020150168926 A KR 1020150168926A KR 20150168926 A KR20150168926 A KR 20150168926A KR 20170003361 A KR20170003361 A KR 20170003361A
Authority
KR
South Korea
Prior art keywords
image
fingerprint
registered
input
variant
Prior art date
Application number
KR1020150168926A
Other languages
English (en)
Other versions
KR102558736B1 (ko
Inventor
김남준
서성주
김원준
이현정
최창규
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US15/099,994 priority Critical patent/US10339178B2/en
Priority to CN201610390514.1A priority patent/CN106326830A/zh
Publication of KR20170003361A publication Critical patent/KR20170003361A/ko
Application granted granted Critical
Publication of KR102558736B1 publication Critical patent/KR102558736B1/ko

Links

Images

Classifications

    • G06K9/00067
    • G06K9/00087
    • G06K9/00114

Abstract

지문 인식 장치 및 방법에 관한 기술이 제공된다. 지문 인식 장치는 등록 지문을 변형한 형태의 이미지 및 등록 지문의 특성 정보를 포함하는 데이터베이스를 이용하여, 센서를 통해 입력되는 지문을 인식할 수 있다.

Description

지문 인식 방법 및 장치{METHOD AND APPARATUS FOR RECOGNIZING FINGER PRINT}
이하, 지문 인식 방법 및 장치에 관한 기술이 제공된다.
최근 스마트 폰 등 다양한 모바일 기기나 웨어러블 기기의 발전으로 보안 인증에 대한 중요성이 증대되고 있다. 생체 인식에 의한 인증 기술은 지문, 홍채, 목소리, 얼굴, 혈관 등을 이용하여 사용자를 인증한다. 인증에 사용되는 생체 특성들은 사람마다 다르고, 소지의 불편함이 없을 뿐 아니라, 도용이나 모조의 위험성이 적고, 일생 동안 잘 변하지 않는다는 장점이 있기 때문이다.
특히, 지문 인식 기법은 편리성, 보안성, 경제성 등 여러 가지 이유로 현재 가장 많이 상용화되어 있다. 예를 들어, 지문 인식 기법은 사용자 기기에 대한 보안을 강화하고, 모바일 결제 등 각종 응용 서비스를 용이하게 제공할 수 있다.
최근 휴대용 디바이스들이 소형화되면서, 해당 디바이스들에 포함된 지문 센싱 영역의 크기도 작아질 수 밖에 없다. 지문의 일부만을 센싱하는 지문 센서를 이용하여 지문 등록 및 지문 인식을 하는 기술이 요구된다.
일 실시예에 따르면 지문 인식 방법은, 등록될 지문에 대응하는 지문 이미지(fingerprint image)를 변형(modify)하여 등록 변형 이미지(enrollment modified image)를 생성하는 단계; 지문 이미지로부터 등록 특성 정보(enrollment property information)를 추출하는 단계; 및 등록 변형 이미지 및 등록 특성 정보를 저장하는 단계를 포함할 수 있다.
등록 변형 이미지를 생성하는 단계는, 공간 영역 및 주파수 영역 중 적어도 하나에서 지문 이미지를 변형하여 등록 변형 이미지를 생성하는 단계를 포함할 수 있다.
등록 특성 정보를 추출하는 단계는, 주파수 도메인 변환 기법에 기초하여, 지문 이미지로부터 등록 위상 정보를 추출하는 단계를 포함하고, 저장하는 단계는, 등록 변형 이미지와 맵핑하여 등록 위상 정보를 저장하는 단계를 포함할 수 있다.
지문 인식 방법은, 입력 지문 이미지를 수신하는 단계; 입력 지문 이미지에 나타나는 쿼리 지문(query fingerprint)으로부터 특성 정보를 추출하는 단계; 입력 지문 이미지를 변형하여 입력 변형 이미지를 생성하는 단계; 추출된 특성 정보 및 등록 특성 정보에 기초하여, 입력 변형 이미지 및 등록 변형 이미지를 정합하는 단계; 및 정합 결과에 기초하여, 쿼리 지문을 인식하는 단계를 더 포함할 수 있다.
인식하는 단계는, 입력 변형 이미지 및 등록 변형 이미지가 중첩된 영역에서, 입력 변형 이미지가 등록 변형 이미지에 매칭되는 정도를 나타내는 스코어를 계산하는 단계를 더 포함할 수 있다.
스코어를 계산하는 단계는, 입력 변형 이미지 및 등록 변형 이미지 사이의 유사도, 입력 지문 이미지와 연관된 정보, 및 입력 변형 이미지 및 등록 변형 이미지와 관련된 히스토그램 정보 중 적어도 하나에 기초하여 스코어를 계산하는 단계를 포함할 수 있다.
스코어를 계산하는 단계는, 중첩된 영역을 서브영역(sub region)으로 분할하고, 분할된 서브영역마다 입력 변형 이미지가 등록 변형 이미지와 관련된 히스토그램 정보를 계산하는 단계; 및 히스토그램 정보에 기초하여 스코어를 계산하는 단계를 포함할 수 있다.
정합하는 단계는, 특성 정보 및 등록 특성 정보에 기초하여, 입력 변형 이미지 및 등록 변형 이미지 사이의 이동 정보, 회전 정보, 및 스케일 정보 중 적어도 하나를 결정하는 단계를 포함할 수 있다.
특성 정보를 추출하는 단계는, 주파수 도메인 변환 기법에 기초하여, 쿼리 지문으로부터 위상 정보를 추출하는 단계를 포함하고, 이미지를 정합하는 단계는, 위상 정보 및 등록 지문과 연관된 기 저장된 등록 위상 정보 간의 위상 상관 관계(POC, Phase of Correlation)를 이용하여, 입력 변형 이미지 및 등록 변형 이미지를 정합하는 단계를 포함할 수 있다.
일 실시예에 따르면 지문 인식 장치는, 등록될 지문에 대응하는 지문 이미지를 수신하는 센서; 지문 이미지를 변형하여 등록 변형 이미지를 생성하고, 지문 이미지로부터 등록 특성 정보를 추출하는 프로세서; 및 등록 변형 이미지 및 등록 특성 정보를 저장하는 메모리를 포함할 수 있다.
프로세서는, 공간 영역 및 주파수 영역 중 적어도 하나에서 지문 이미지를 변형하여 등록 변형 이미지를 생성할 수 있다.
프로세서는, 주파수 도메인 변환 기법에 기초하여, 지문 이미지로부터 등록 위상 정보를 추출하고, 메모리는, 등록 변형 이미지와 맵핑하여 등록 위상 정보를 저장할 수 있다.
센서는, 입력 지문 이미지를 수신하고, 프로세서는, 입력 지문 이미지에 나타나는 쿼리 지문으로부터 특성 정보를 추출하고, 추출된 특성 정보 및 등록 특성 정보에 기초하여, 입력 변형 이미지 및 등록 변형 이미지를 정합하며, 정합 결과에 기초하여, 쿼리 지문을 인식할 수 있다.
프로세서는, 입력 변형 이미지 및 등록 변형 이미지가 중첩된 영역에서, 입력 변형 이미지가 등록 변형 이미지에 매칭되는 정도를 나타내는 스코어를 계산할 수 있다.
프로세서는, 입력 변형 이미지 및 등록 변형 이미지 사이의 중첩된 영역에 대한 유사도를 계산할 수 있다.
프로세서는, 입력 변형 이미지 및 등록 변형 이미지 사이의 유사도, 입력 지문 이미지와 연관된 정보, 및 입력 변형 이미지 및 등록 변형 이미지와 관련된 히스토그램 정보 중 적어도 하나에 기초하여 스코어를 계산할 수 있다.
프로세서는, 중첩된 영역을 서브영역(sub region)으로 분할하고, 분할된 서브영역마다 입력 변형 이미지가 등록 변형 이미지와 관련된 히스토그램 정보를 계산하고, 히스토그램 정보에 기초하여 스코어를 계산할 수 있다.
프로세서는, 특성 정보 및 등록 특성 정보에 기초하여, 입력 변형 이미지 및 등록 변형 이미지 사이의 이동 정보, 회전 정보, 및 스케일 정보 중 적어도 하나를 결정할 수 있다.
프로세서는, 주파수 도메인 변환 기법에 기초하여, 쿼리 지문으로부터 위상 정보를 추출하고, 위상 정보 및 등록 지문과 연관된 기 저장된 등록 위상 정보 간의 위상 상관 관계를 이용하여, 입력 변형 이미지 및 등록 변형 이미지를 정합할 수 있다.
도 1 및 도 2는 일 실시예에 따른 지문 이미지의 예시를 설명하는 도면이다.
도 3은 일 실시예에 따른 지문 인식 기술에서 저장되는 데이터를 설명하는 도면이다.
도 4a, 도 4b 및 도 5는 일 실시예에 따른 지문 인식 방법을 도시한 흐름도이다.
도 6은 일 실시예에 따라 입력 지문 이미지로부터 추출되는 특성 정보 및 입력 변형 이미지를 도시한 도면이다.
도 7은 일 실시예에 따른 이미지의 정합 과정을 도시한 흐름도이다.
도 8은 일 실시예에 따른 입력 변형 이미지 및 등록 변형 이미지의 정합 과정의 예시를 도시한 도면이다.
도 9는 일 실시예에 따른 지문 인식을 위한 스코어를 계산하는 방법을 도시한 흐름도이다.
도 10 및 도 11은 일 실시예에 따라 입력 변형 이미지 및 등록 변형 이미지가 매칭된 결과를 시각화한 도면이다.
도 12는 일 실시예에 따라 중첩된 영역을 분할하여 스코어를 계산하는 과정을 도시한 도면이다.
도 13은 일 실시예에 따른 지문 인식 장치의 구성을 도시한 블럭도이다.
본 명세서에서 개시되어 있는 본 발명의 개념에 따른 실시예들에 대해서 특정한 구조적 또는 기능적 설명들은 단지 본 발명의 개념에 따른 실시예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시예들은 다양한 형태로 실시될 수 있으며 본 명세서에 설명된 실시예들에 한정되지 않는다.
본 발명의 개념에 따른 실시예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시예들을 도면에 예시하고 본 명세서에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시예들을 특정한 개시형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만, 예를 들어 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.
본 명세서에서 사용한 용어는 단지 특정한 실시예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
하기에서 설명될 실시예들은 사용자의 지문을 인식(recognize)하는 데 사용될 수 있다. 이하, 사용자의 지문을 인식하는 동작은 사용자의 지문을 인식함으로써 그 사용자를 인증(verify)하거나 식별(identify)하는 동작을 포함할 수 있다. 사용자를 인증하는 동작은 그 사용자가 기 등록된 사용자인지 여부를 판단하는 동작을 포함할 수 있다. 이 경우, 사용자를 인증하는 동작의 결과는 참 또는 거짓으로 출력될 수 있다. 사용자를 식별하는 동작은 그 사용자가 기 등록된 복수의 사용자들 중 어느 사용자에 해당하는지를 판단하는 동작을 포함할 수 있다. 이 경우, 사용자를 식별하는 동작의 결과는 어느 하나의 기 등록된 사용자의 아이디로 출력될 수 있다. 만약 그 사용자가 기 등록된 복수의 사용자들 중 어느 사용자에도 해당하지 않는 경우, 그 사용자가 식별되지 않음을 알리는 신호가 출력될 수도 있다.
실시예들은 퍼스널 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 스마트 폰, 텔레비전, 스마트 가전 기기, 지능형 자동차, 키오스크, 웨어러블 장치 등 다양한 형태의 제품으로 구현될 수 있다. 예를 들어, 실시예들은 스마트 폰, 모바일 기기, 스마트 홈 시스템 등에서 사용자를 인증하는데 적용될 수 있다. 실시예들은 사용자 인증을 통한 결제 서비스에 적용될 수 있다. 또한, 실시예들은 사용자를 인증하여 자동으로 시동을 거는 지능형 자동차 시스템 등에도 적용될 수 있다. 이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
도 1 및 도 2는 일 실시예에 따른 지문 이미지의 예시를 설명하는 도면이다.
도 1을 참조하면, 일 실시예에 따른 지문 센서(도면 미 표시)는 사용자의 지문(100)을 센싱한다. 지문 센서는 센싱 영역을 통하여 지문(100)을 센싱할 수 있다. 이 때, 지문 센서의 센싱 영역의 크기는 지문(100)의 크기보다 작을 수 있다. 예를 들어, 지문 센서의 센싱 영역은 지문(100)의 크기보다 작은 직사각형 모양을 가질 수 있다. 이 경우, 지문 센서는 센싱 영역을 통하여 지문(100)의 일부를 센싱할 수 있다.
지문 센서는 센싱된 지문을 캡쳐(capture) 함으로써 지문 이미지를 생성할 수 있다. 지문 센서의 센싱 영역의 크기가 지문(100)의 크기보다 작은 경우, 지문 센서에 의하여 생성되는 지문 이미지는 지문(100)의 일부를 포함하는 부분 이미지(partial image)에 해당할 수 있다. 지문 센서가 캡쳐한 이미지는 원본 이미지라고 나타낼 수 있다.
지문 이미지는 사용자의 지문(100)을 등록하거나 인식하는데 이용될 수 있다. 일 실시예에 따르면, 지문 이미지는 지문 센서에 의해 캡쳐된 원본 이미지가 변형된 이미지의 형태로써 사용자의 지문(100)을 등록하거나 인식하는데 이용될 수 있다. 이하, 설명의 편의를 위하여 원본 이미지가 변형된 이미지를 변형 이미지(modified image)라고 지칭한다. 예를 들어, 변형 이미지는 원본 이미지가 공간 영역에서 변형된 이미지, 주파수 영역에서 변형된 이미지 및 공간 영역과 주파수 영역에서 변형된 이미지 등을 나타낼 수 있다.
예를 들어, 등록(enrollment) 단계에서 지문 이미지가 변형된 변형 이미지가 등록될 수 있다. 등록된 변형 이미지는 미리 구비된 저장소에 저장될 수 있다. 지문 센서의 센싱 영역의 크기가 지문(100)의 크기보다 작은 경우, 사용자의 지문(100)의 부분 이미지들에 대응하는 복수의 변형 이미지들이 등록될 수 있다. 예를 들어, 복수의 부분 이미지들(110 내지 170)의 각각이 변형 이미지로 변형되어 등록될 수 있다. 부분 이미지들(110 내지 170)의 각각에 대응하는 변형 이미지는 각각 지문(100)의 일부를 커버하고, 부분 이미지들(110 내지 170)의 각각에 대응하는 변형 이미지가 모여 지문(100)을 전체적으로 커버할 수 있다. 이 때, 부분 이미지들(110 내지 170)은 서로 겹칠 수 있다. 이하, 설명의 편의를 위하여 등록 단계에서 기 등록된 변형 이미지를 등록 변형 이미지라고 지칭한다.
또한, 인식(recognition) 단계에서 지문이 인식될 수 있다. 예를 들어, 인식 단계에서 입력된 지문에 해당하는 원본 이미지가 변형된 이미지가 등록 변형 이미지와 비교될 수 있다. 이하, 설명의 편의를 위하여 인식 단계에서 입력된 지문에 해당하는 원본 이미지를 입력 지문 이미지라고 지칭하고, 입력 지문 이미지가 변형된 이미지를 입력 변형 이미지라고 지칭한다. 입력 변형 이미지와 등록 변형 이미지가 일치하는지 여부에 따라, 사용자 인증(verification) 결과 또는 사용자 식별(identification) 결과가 도출될 수 있다. 지문 센서의 센싱 영역의 크기가 지문(100)의 크기보다 작은 경우, 입력 변형 이미지는 사용자의 지문(100)의 부분에 대응할 수 있다. 아래에서 상세히 설명하겠으나, 실시예들은 입력 변형 이미지와 등록 변형 이미지들을 비교함으로써 지문을 인식하는 기법을 제공할 수 있다.
도 1에서 지문 센서의 센싱 영역은 직사각형의 모양을 가지는 것으로 설명되었으나, 지문 센서의 센싱 영역의 크기 및 모양은 다양하게 변형될 수 있다. 예를 들어, 도 2를 참조하면, 지문 센서의 센싱 영역은 원형일 수 있다. 이 경우에도, 등록 단계에서, 하나의 지문(200)에 대응하여 복수의 부분 이미지들(210 내지 295)의 각각에 대응하는 변형 이미지가 등록될 수 있다. 또한, 인식 단계에서, 지문(200)의 일부에 해당하는 입력 변형 이미지가 복수의 부분 이미지들(210 내지 295)의 각각에 대응하는 등록 변형 이미지와 비교될 수 있다.
경우에 따라서, 등록 단계에서 이용되는 지문 센서와 인식 단계에서 이용되는 지문 센서는 서로 다를 수 있다. 예를 들어, 등록 단계에서는 도 1에 도시된 직사각형 모양의 센싱 영역을 갖는 지문 센서가 이용되고, 인식 단계에서는 도 2에 도시된 원형 모양의 센싱 영역을 갖는 지문 센서가 이용될 수 있다.
도 3은 일 실시예에 따른 지문 인식 기술에서 저장되는 데이터를 설명하는 도면이다.
도 3을 참조하면, 일 실시예에 따른 지문 인식 장치(300)는 지문 센서(310)를 포함한다. 지문 센서(310)의 센싱 영역의 크기는 사용자의 지문의 크기보다 작을 수 있다. 지문 인식 장치(300)는 지문 센서(310)를 통하여 원본 이미지(315)를 획득할 수 있다.
일 실시예에 따르면, 지문 인식 장치(300)는 지문을 등록하기 위하여, 등록될 지문에 대응하는 지문 이미지(예를 들어, 원본 이미지(315))를 변형하여 등록 변형 이미지(321)를 생성할 수 있다. 또한, 지문 인식 장치(300)는 지문 이미지로부터 등록될 지문에 대응하는 특성 정보를 추출할 수 있다. 지문 인식 장치(300)는 등록 변형 이미지(321) 및 등록될 지문에 대응하는 특성 정보를 저장할 수 있다.
예를 들어, 지문 인식 장치(300)는 지문을 등록(enroll)하기 위하여, 원본 이미지(315)를 변형한 등록 변형 이미지(321)를 이미지 데이터베이스(320)에 기록할 수 있고, 원본 이미지(315)로부터 추출된 제1 특성 정보(331)를 특성 데이터베이스(330)에 기록할 수 있다. 이미지 데이터베이스(320) 및 특성 데이터베이스(330)는 지문 인식 장치(300)에 포함된 메모리(도면 미 표시)에 저장되거나, 지문 인식 장치(300)와 유선, 무선, 또는 네트워크 등으로 연결 가능한 서버 등의 외부 장치(도면 미 표시)에 저장될 수 있다. 특성 데이터베이스(330)가 기 저장된 특성 정보를 포함함으로써, 입력 변형 이미지 및 등록 변형 이미지 간의 정합에 소요되는 시간이 감소될 수 있다. 또한, 지문 인식 장치(300)는 제1 특성 정보(331)를 원본 이미지로부터 추출함으로써, 입력 변형 이미지로부터 추출하는 경우에 비해 손실되는 정보가 적을 수 있다.
특성 정보는 쿼리 지문의 특성을 나타내는 정보로서, 예를 들어, 쿼리 지문에 대응하는 이미지 및 등록 지문에 대응하는 이미지 간의 이동 정보(translation information), 회전 정보(rotation information), 및 스케일 정보(scale information) 중 적어도 하나를 결정하기 위해 이용되는 정보를 나타낼 수 있다. 등록 지문은 기 등록된 지문을 나타낼 수 있다. 특성 정보는 하기 도 6에서 상세히 설명한다.
여기서, 이미지 데이터베이스(320)는 보안을 위해 원본 이미지를 포함하지 않을 수 있다. 예를 들어, 이미지 데이터베이스(320)는 원본이 아닌 등록 변형 이미지를 포함하므로, 지문 인식 장치(300)는 해킹 등에 의해 이미지 데이터베이스(320)가 유출되더라도 사용자의 원본 생체 정보(예를 들어, 원본 지문 등)의 유출을 방지할 수 있다. 또한, 특성 데이터베이스(330)는 입력 변형 이미지 및 등록 변형 이미지 간의 정합을 위해 등록 변형 이미지와 연관된 등록 특성 정보를 포함하므로, 지문 인식 장치(300)가 등록 변형 이미지에 대한 특성 정보의 추출을 스킵(skip)할 수 있고, 지문 인식 장치(300)의 지문 인식의 속도가 향상될 수 있다. 일 실시예에 따르면 이미지 데이터베이스(320)의 등록 변형 이미지의 각각은 특성 데이터베이스(330)에서 그에 대응하는 등록 특성 정보와 맵핑되어 저장될 수 있다. 예를 들어, 도 3에 도시된 바와 같이 제1 등록 변형 이미지(321)는 제1 특성 정보(331)와 맵핑될 수 있다.
또한, 지문 인식 장치(300)는 지문을 인식하기 위하여, 미리 구비된 이미지 데이터베이스(320)로부터 등록 변형 이미지들(321 내지 323)을 획득하고, 특성 데이터베이스(330)로부터 기 저장된 특성 정보들(331 내지 333)을 획득할 수 있다. 지문 인식 장치(300)는 입력 지문 이미지와 등록 변형 이미지들(321 내지 323)을 비교함으로써, 사용자의 지문을 인식할 수 있다. 이하, 설명의 편의를 위하여 기 저장된 특성 정보는 등록 특성 정보라고 지칭한다.
다만, 본 명세서에서는 이미지 데이터베이스(320)가 등록 변형 이미지를 포함하고 있는 것으로 기재하였는데, 이로 한정하는 것은 아니고, 설계에 따라 변형되지 않은 원본 이미지를 포함할 수도 있다. 이 경우, 지문 인식 장치(300)는 변형되지 않은 입력 지문 이미지를 등록된 원본 이미지와 비교할 수도 있다.
도 4a, 도 4b 및 도 5는 일 실시예에 따른 지문 인식 방법을 도시한 흐름도이다.
도 4a는 지문 인식 방법을 개괄적으로 도시한 흐름도이다.
우선 단계(410)에서 지문 인식 장치의 프로세서는 입력 지문 이미지에 나타나는 쿼리 지문으로부터 특성 정보를 추출할 수 있다. 쿼리 지문은 인식의 대상이 되는 지문으로서, 지문의 적어도 일부가 캡쳐된 입력 지문 이미지에 나타나는 지문을 나타낼 수 있다.
그리고 단계(420)에서 지문 인식 장치의 프로세서는 추출된 특성 정보 및 등록 지문과 연관된 기 저장된 등록 특성 정보에 기초하여, 쿼리 지문에 대응하는 이미지 및 등록 지문에 대응하는 이미지를 정합할 수 있다. 프로세서는 상술한 도 3의 특성 데이터베이스(330)로부터 등록 특성 정보를 획득할 수 있다. 예를 들어, 쿼리 지문에 대응하는 이미지는 입력 변형 이미지일 수 있고, 등록 지문에 대응하는 이미지는 등록 변형 이미지일 수 있다.
이어서 단계(430)에서 지문 인식 장치의 프로세서는 정합 결과에 기초하여 쿼리 지문을 인식할 수 있다. 예를 들어, 프로세서는 쿼리 지문에 대응하는 이미지 및 등록 지문에 대응하는 이미지를 정합한 결과에서, 두 이미지가 중첩된 영역에서 두 이미지가 유사한 정도를 나타내는 유사도를 계산하고, 해당 유사도에 기초하여 쿼리 지문을 인식할 수 있다. 여기서, 프로세서는 쿼리 지문이 등록 지문들 중 어느 지문에 대응하는지를 식별하거나, 쿼리 지문이 기 등록된 지문인지 여부를 인증할 수 있다.
본 명세서에서 유사도는 입력 변형 이미지 및 등록 변형 이미지가 정합 결과에 따라 중첩된 영역에서, 입력 변형 이미지가 임의의 등록 변형 이미지에 대해 유사한 정도를 나타낼 수 있다.
도 4b는 지문 인식 방법을 수행하기 위한 지문을 등록하는 과정을 도시한 흐름도이다.
우선, 단계(440)에서는 지문 인식 장치의 프로세서가 등록될 지문에 대응하는 지문 이미지(fingerprint image)를 변형(modify)하여 등록 변형 이미지(enrollment modified image)를 생성할 수 있다. 예를 들어, 프로세서는 공간 영역 및 주파수 영역 중 적어도 하나에서 지문 이미지를 변형하여 등록 변형 이미지를 생성할 수 있다.
그리고 단계(450)에서는 지문 인식 장치의 프로세서가 지문 이미지로부터 등록 특성 정보(enrollment property information)를 추출할 수 있다. 예를 들어, 프로세서는 주파수 도메인 변환 기법에 기초하여, 지문 이미지로부터 등록 위상 정보를 추출할 수 있다. 주파수 도메인 변환 기법은 예를 들어, 빠른 푸리에 변환(FFT, Fast Fourier Transform)이 있을 수 있다.
이어서 단계(460)에서는 지문 인식 장치의 메모리가 등록 변형 이미지 및 등록 특성 정보를 저장할 수 있다. 메모리는 등록 변형 이미지 및 등록 특성 정보 사이를 맵핑하여, 등록 변형 이미지 및 등록 특성 정보를 저장할 수 있다. 예를 들어, 메모리는 등록 특성 정보(예를 들어, 등록 위상 정보)를 등록 변형 이미지와 맵핑하여 저장함으로써, 지문을 등록할 수 있다.
일 실시예에 따르면, 상술한 단계(460)에서 기 저장된 등록 변형 이미지 및 기 저장된 등록 특성 정보는 도 4a에서 프로세서가 지문을 인식하는데 사용될 수 있다.
도 5는 지문 인식 방법을 보다 상세하게 설명하는 흐름도이다.
단계(410)는 도 4a에서 상술하였으므로 설명을 생략한다. 도 4a의 단계들(420, 430)은 각각 단계들(520, 530)에서 구체적으로 설명한다.
우선, 단계(501)에서 지문 인식 장치의 센서는 지문의 적어도 일부에 대응하는 입력 지문 이미지를 수신할 수 있다. 또한, 센서는 지문의 적어도 일부를 캡쳐하여 입력 지문 이미지를 생성할 수 있다.
이어서 단계(510)에서는 지문 인식 장치의 프로세서가 입력 지문 이미지를 입력 변형 이미지로 변형할 수 있다. 프로세서는 입력 지문 이미지를 입력 변형 이미지(쿼리 지문에 대응함)로 변형할 수 있다. 입력 변형 이미지는 입력 지문 이미지가 변형된 이미지로서, 예를 들어, LBP(local binary pattern) 타입, HOG(histogram of oriented gradients) 타입, Haar feature 타입, MCT(Modified Census Transform) 타입, N비트로 양자화된(N-bit quantized) 타입(여기서, N은 1이상의 정수), 및 기하학적으로 변형(warping)된 타입으로 변형된 이미지 등일 수 있다. 다만, 입력 변형 이미지의 타입을 이로 한정하는 것은 아니다.
그리고 단계(520)에서는 지문 인식 장치의 프로세서가 추출된 특성 정보 및 등록 특성 정보에 기초하여, 입력 변형 이미지 및 등록 변형 이미지를 정합할 수 있다. 프로세서는 특성 데이터베이스(330)로부터 등록 특성 정보를 획득할 수 있고, 이미지 데이터베이스(320)로부터 등록 변형 이미지를 획득할 수 있다. 지문 인식 장치의 메모리는 등록 특성 정보 및 등록 변형 이미지를 서로 맵핑하여 저장할 수 있다.
예를 들어, 프로세서는 추출된 특성 정보 및 등록 특성 정보를 이용하여 정합을 수행할 수 있다. 일 실시예에 따른 지문 인식 장치는 변형되기 이전의 입력 지문 이미지로부터 추출된 특성 정보와, 변형되기 이전의 지문 이미지로부터 추출되어 저장된 등록 특성 정보를 이용하여, 정합을 수행할 수 있다. 지문 인식 장치가 변형되기 이전의 원본 이미지로부터 추출된 특성 정보를 이용함으로써, 변형된 후의 이미지의 특성 정보를 이용하는 것보다 정확하게 두 이미지를 정확하게 정합할 수 있다.
또한, 프로세서는 입력 변형 이미지 및 등록 변형 이미지를 이용하여 유사도를 계산할 수 있다. 입력 변형 이미지 및 등록 변형 이미지 간의 유사도의 계산을 위하여, 입력 변형 이미지의 타입 및 등록 변형 이미지의 타입은 서로 동일할 수 있다. 예를 들어, 등록 변형 이미지의 타입이 N비트로 양자화된 타입의 이미지인 경우, 프로세서는 입력 지문 이미지를 N비트로 양자화된 타입을 가지는 입력 변형 이미지로 변형하여, 해당 입력 변형 이미지를 등록 변형 이미지와 정합할 수 있다.
이어서 단계(530)에서 프로세서는 입력 변형 이미지 및 등록 변형 이미지에 기초하여 쿼리 지문을 인식할 수 있다. 일 실시예에 따르면, 프로세서는 입력 변형 이미지 및 등록 변형 이미지를 비교하여 쿼리 지문을 인식할 수 있다. 예를 들어, 프로세서는 입력 변형 이미지 및 등록 변형 이미지를 정합한 결과에 따라 두 이미지가 중첩된 영역 내에서, 입력 변형 이미지 및 등록 변형 이미지를 비교할 수 있다.
예를 들어, 프로세서는 입력 변형 이미지 및 등록 변형 이미지 사이의 중첩된 영역에 대한 유사도를 계산할 수 있다. 프로세서는 하기 수학식 1과 같이 입력 변형 이미지 및 등록 변형 이미지 간의 유사도를 계산할 수 있다. 하기 수학식 1은 정규화된 상호 상관(NCC, Normalized Cross Correlation)을 나타낼 수 있다.
Figure pat00001
상술한 수학식 1에서 x', y' 는 입력 변형 이미지 및 등록 변형 이미지가 정합을 통해 중첩된 영역의 좌표를 나타낼 수 있다. E(x',y')는 등록 변형 이미지의 중첩된 영역의 x', y' 좌표에서의 픽셀 값, I(x',y')는 입력 변형 이미지의 중첩된 영역의 x', y' 좌표에서의 픽셀 값을 나타낼 수 있다. R은 입력 변형 이미지 및 등록 변형 이미지 사이에서 중첩된 해당 픽셀들의 정규화된 상호 상관 값을 나타낼 수 있다. 입력 변형 이미지 및 등록 변형 이미지의 픽셀들이 유사할수록 R은 큰 값을 나타낼 수 있다. 다만, 유사도 계산을 상술한 수학식 1로 한정하는 것은 아니고, 유사한 정도를 나타내는 여러 방식이 사용될 수 있다. 예를 들어, 다른 방식은 하기 도 9에서 상세히 설명한다.
도 6은 일 실시예에 따라 입력 지문 이미지로부터 추출되는 특성 정보 및 입력 변형 이미지를 도시한 도면이다.
지문 인식 장치는 입력 지문 이미지(610)로부터 특성 정보(630)를 추출할 수 있다. 특성 정보(630)는 입력 지문 이미지(610)의 특성을 나타내는 정보로서, 예를 들어, SIFT(Scale-invariant feature transform) 정보, 미누샤(minutiae) 정보, 및 주파수 도메인 변환 기법에 기초하여 쿼리 지문으로부터 추출되는 위상 정보 등을 포함할 수 있고, 이로 한정하는 것은 아니다. 위상 정보는 주파수 영역으로 변환된 입력 지문 이미지(610)의 위상에 관한 정보를 나타낼 수 있다. 기 등록된 위상 정보는 등록 위상 정보라고 나타낼 수 있다.
또한, 지문 인식 장치는 입력 지문 이미지(610)를 입력 변형 이미지(620)로 변형할 수 있다. 입력 변형 이미지(620)는 입력 지문 이미지(610)와 다른 타입의 이미지로서, 예를 들어, LBP 타입, HOG 타입, Haar feature 타입, MCT 타입, 및 N비트로 양자화된 타입의 이미지일 수 있으나, 이로 한정하는 것은 아니다.
도 7은 일 실시예에 따른 이미지의 정합 과정을 도시한 흐름도이다. 도 8은 일 실시예에 따른 입력 변형 이미지 및 등록 변형 이미지의 정합 과정의 예시를 도시한 도면이다.
도 4a의 단계(420)의 정합 과정은 도 7의 단계들(710, 720)을 통해 설명한다.
일 실시예에 따르면 영상 정합은 서로 다른 영상을 변형하여 하나의 좌표계에 나타내는 처리 기법이다. 영상 정합을 통해 서로 다른 측정 방식을 통해 얻은 영상들이 어떻게 대응되는지를 알 수 있다. 영상 정합은 공간 영역 방식과 주파수 영역 방식으로 구분될 수 있다.
공간 영역 방식은 영상의 공간 속에서 영상의 픽셀 세기의 패턴이나 특징을 맞추는 방식이다. 두 영상들에 포함된 특징점 쌍의 갯수가 해당 영상 변형에 필요한 최소 갯수보다 많은 경우, 예를 들어, RANSAC과 같은 알려진 방식에 의해 두 영상 간의 영상 변형이 찾아질 수 있다.
주파수 영역 방식은 두 영상 간의 변형에 필요한 매개 변수를 주파수 영역에서 직접 찾아내는 방식이다. 이때 찾아낼 수 있는 변형에 필요한 매개 변수는 예를 들어, 영상의 이동, 회전 각도, 크기 변화 등이다. 푸리에 공간에서 두 영상의 위상 간 상호 상관 계수를 계산해 제3의 이미지를 생성하면, 제3의 이미지에서 최대값이 나타나는 부분이 두 이미지 간의 상대적인 이동 벡터가 될 수 있다. 이하, 본 명세서에서는 주파수 영역 방식을 기준으로 설명하지만, 이로 한정하는 것은 아니다.
우선, 단계(710)에서 지문 인식 장치의 프로세서는 특성 정보(630) 및 등록 특성 정보(예를 들어, 도 8의 제n 특성 정보(333))에 기초하여, 쿼리 지문에 대응하는 이미지 및 등록 지문에 대응하는 이미지 사이의 이동 정보, 회전 정보, 및 스케일 정보 중 적어도 하나를 결정할 수 있다. 이하, 쿼리 지문에 대응하는 이미지는 입력 변형 이미지(620), 등록 지문에 대응하는 이미지는 등록 변형 이미지(323)를 예로 들어 설명한다. 일 실시예에 따르면, 프로세서는 주파수 기반 정합 기법에 기초하여 입력 변형 이미지(620)와 등록 변형 이미지(323) 사이의 이동 정보, 회전 정보, 스케일 정보, 또는 이들의 다양한 조합을 결정할 수 있다. 주파수 기반 정합 기법은 주파수 영역에서 정합을 수행하는 기법일 수 있다.
입력 변형 이미지(620)와 특정 등록 변형 이미지(323) 사이의 이동 정보는 x축 이동 파라미터인 Tx와 y축 이동 파라미터인 Ty를 포함할 수 있다. 또한, 입력 변형 이미지(620)와 특정 등록 변형 이미지(323) 사이의 회전 정보는 회전 파라미터인 R을 포함할 수 있고, 스케일 정보는 스케일 파라미터인 S를 포함할 수 있다. 이하, Tx 및 Ty는 이동량이라고 지칭되고, R은 회전 각도라고 지칭될 수 있다. 지문 인식 장치는 주파수 영역에서 입력 변형 이미지(620)와 특정 등록 변형 이미지(323)를 비교함으로써, 회전 각도 및 이동량을 계산할 수 있다. 예를 들어, 도 8에서 지문 인식 장치는 특성 정보(630) 및 제n 특성 정보(333)를 이용하여, 입력 변형 이미지(620) 및 등록 변형 이미지(323) 간의 이동 정보, 회전 정보, 및 스케일 정보 등을 결정할 수 있다.
또한, 지문 인식 장치는 특성 정보(630)에 포함된 위상 정보 및 등록 특성 정보(도 8에서는 제n 특성 정보(333))에 포함된 등록 위상 정보 간의 위상 상관 관계(POC, Phase of Correlation)를 결정할 수 있다. 지문 인식 장치는 상술한 위상 상관 관계를 이용하여 입력 변형 이미지(620)와 등록 변형 이미지(323) 사이의 이동 정보, 회전 정보, 스케일 정보, 또는 이들의 다양한 조합을 결정할 수 있다.
그리고 단계(720)에서 지문 인식 장치의 프로세서는 이동 정보, 회전 정보, 및 스케일 정보 중 적어도 하나에 기초하여 정합할 수 있다. 지문 인식 장치는 입력 변형 이미지(620)와 등록 변형 이미지(323)을 비교하기 위하여, 입력 변형 이미지(620)와 등록 변형 이미지(323)를 정합할 수 있다. 예를 들어, 지문 인식 장치는 입력 변형 이미지(620)와 등록 변형 이미지(323)에 공통적으로 포함된 영역이 겹쳐지도록, 입력 변형 이미지(620)를 스케일(scale), 회전(rotation), 및/또는 이동(translation) 시킬 수 있다. 다른 예를 들어, 지문 인식 장치는 등록 변형 이미지(323)를 스케일, 회전, 및/또는 이동시킬 수도 있다. 다만, 입력 변형 이미지(620)와 등록 변형 이미지(323)가 모두 부분 이미지에 해당하므로, 서로 겹치는 영역의 크기가 입력 변형 이미지(620) 및 등록 변형 이미지(323) 각각의 크기에 비하여 상당히 작을 수 있다.
예를 들어, 지문 인식 장치는 정합 결과 도출된 이동 정보에 기초하여 입력 변형 이미지(620)를 이동시킬 수 있다. 지문 인식 장치는 정합 결과 도출된 회전 정보에 기초하여 입력 변형 이미지(620)를 회전 시킬 수 있다. 지문 인식 장치는 정합 결과 도출된 스케일 정보에 기초하여 입력 변형 이미지(620)를 확대 또는 축소 시킬 수 있다. 이동 정보, 회전 정보, 및 스케일 정보는 입력 변형 이미지(620)와 특정 등록 변형 이미지(323) 사이에서 상대적이므로, 지문 인식 장치는 입력 변형 이미지(620)를 이동, 회전, 또는 스케일 하는 대신 등록 변형 이미지(323)를 이동, 회전, 또는 스케일 할 수도 있다. 도 8에서는 지문 인식 장치가 등록 변형 이미지(323)에 대하여 입력 변형 이미지(620)를 이동 및 회전 시킨 결과를 도시한다.
일 실시예에 따른 지문 인식 장치는 정확도를 높이기 위하여, 변형된 이미지가 아닌 원본 이미지로부터 특성 정보를 추출할 수 있다. 또한, 지문 인식 장치는 등록 특성 정보를 미리 저장하고 있으므로, 등록 특성 정보를 추출하는 과정이 스킵되어 보다 빠르게 정합을 수행할 수 있다.
이후, 지문 인식 장치는 이동, 회전, 스케일로 인하여 입력 변형 이미지(620)와 특정 등록 변형 이미지(323)가 중첩되면, 중첩된 영역에서 정합 스코어를 계산할 수 있다. 예를 들어, 지문 인식 장치는 영상 밝기 값 기반의 정규화 상관 기법(normalized correlation)에 기초하여 정합 스코어를 계산할 수 있다. 실시예들은 입력 지문 이미지가 임의의 각도로 입력되더라도 정확하게 지문을 인식할 수 있다. 스코어 계산은 하기 도 9에서 상세히 설명한다.
도 9는 일 실시예에 따른 지문 인식을 위한 스코어를 계산하는 방법을 도시한 흐름도이다.
지문 인식 장치는 도 4a의 단계(430)에서 지문을 인식하기 위하여, 쿼리 지문에 대응하는 이미지 및 등록 지문에 대응하는 이미지가 중첩된 영역에서, 쿼리 지문에 대응하는 이미지가 등록 지문에 대응하는 이미지에 매칭되는 정도를 나타내는 스코어를 계산할 수 있다. 도 4a의 단계(430)에서 지문 인식을 위한 스코어 계산은 도 9의 단계들(910 내지 940)을 통해 설명한다.
우선, 단계(910)에서 지문 인식 장치의 프로세서는 입력 지문 이미지가 변형된 입력 변형 이미지 및 등록 지문에 대응하는 등록 변형 이미지 사이의 중첩된 영역에 대한 유사도를 계산할 수 있다.
예를 들어, 입력 변형 이미지 및 등록 변형 이미지는 1 비트로 양자화된 타입의 이미지(예를 들어, 이진화된 이미지)인 경우, 아래와 같은 방식으로 유사도가 계산될 수 있다. 지문 인식 장치는 상술한 단계(510)에서 완전 비트(full bit)의 입력 지문 이미지를 1 비트의 입력 변형 이미지로 변환할 수 있다. 지문 인식 장치는 이진화된 입력 변형 이미지 및 등록 변형 이미지 간의 중첩된 영역에 대한 유사도를 하기 수학식 2에 따라 계산할 수 있다.
Figure pat00002
상술한 수학식 2에서 Mbin은 입력 변형 이미지 및 등록 변형 이미지 간의 유사도를 나타낼 수 있다. Ebin(x,y)은 중첩된 영역의 x, y좌표의 등록 변형 이미지의 이진화 값(binary value), Qbin(x,y)는 중첩된 영역의 x, y좌표의 입력 변형 이미지의 이진화 값을 나타낼 수 있다. '&'는 비트와이즈(bitwise) AND 연산자를 나타낼 수 있다. Marea는 입력 변형 이미지 및 등록 변형 이미지가 정합된 결과에서 두 이미지가 중첩된 영역의 픽셀의 개수를 나타낼 수 있다. (x,y)는 중첩된 영역 내에서의 좌표를 나타낼 수 있다. 입력 변형 이미지 및 등록 변형 이미지가 유사할 수록, Mbin의 값이 크게 나타날 수 있다.
그리고 단계(920)에서 지문 인식 장치의 프로세서는 입력 지문 이미지와 연관된 정보를 결정할 수 있다. 예를 들어, 프로세서는 입력 지문 이미지, 즉 원본 이미지의 정보를 이용할 수 있고, 이를 통해 정확도가 개선될 수 있다. 지문 인식 장치는 입력 지문 이미지와 연관된 정보를 하기 수학식 3에 따라 결정할 수 있다.
Figure pat00003
상술한 수학식 3에서 norm(qSumE1)은 입력 변형 이미지 및 등록 변형 이미지가 중첩된 영역에서 '1'의 값을 가지는 입력 변형 이미지(예를 들어, 이진화된 이미지)의 픽셀에 대응하는 입력 지문 이미지(예를 들어, 변형되기 전의 이미지)의 픽셀의 값들을 모두 합산한 것을 정규화(Normalize)한 값을 나타낼 수 있다. norm(qSumE0)은 중첩된 영역에서 '0'의 값을 가지는 입력 변형 이미지의 픽셀에 대응하는 입력 지문 이미지의 픽셀의 값들을 모두 합산한 것을 정규화한 값을 나타낼 수 있다. norm(qSumE1)의 값이 클 수록, 원본 입력 지문 이미지의 최대값에 가까운 픽셀 값이 이진화된 이미지의 1로 변환된 것이므로 정보의 손실이 적고, norm(qSumE0)의 값이 작을 수록, 원본 입력 지문 이미지의 최소값에 가까운 픽셀 값이 이진화된 이미지의 0으로 변환된 것이므로 정보의 손실이 적을 수 있다. 따라서, MRatio값이 클수록 손실된 정보가 적은 것이므로, 입력 변형 이미지 및 등록 변형 이미지 간에 계산된 유사도가 보다 정확한 것으로 고려될 수 있다.
예를 들어, 입력 지문 이미지가 8 비트 이미지이고, 입력 변형 이미지가 1 비트의 이진화 이미지인 경우, 이미지 정보가 1/8로 감소되어, 입력 변형 이미지에 대한 인식도가 저하될 수 있는 바, 이를 보완하기 위하여 지문 인식 장치는 입력 지문 이미지와 연관된 정보를 결정하여 지문 인식에 활용할 수 있다.
이어서 단계(930)에서 지문 인식 장치의 프로세서는 입력 변형 이미지 및 등록 변형 이미지와 관련된 히스토그램 정보를 결정할 수 있다. 예를 들어, 프로세서는 중첩된 영역을 서브영역(sub region)으로 분할하고, 분할된 서브영역마다 쿼리 지문에 대응하는 이미지 및 등록 지문에 대응하는 이미지와 관련된 히스토그램 정보를 계산할 수 있다. 분할된 서브영역에 대한 히스토그램 정보의 계산은 하기 도 12에서 상세히 설명한다.
일 실시예에 따르면, 프로세서는 서브영역에 포함되는 입력 변형 이미지의 픽셀 및 등록 변형 이미지의 픽셀 간의 차이가 정규화된 값을 계산할 수 있다. 프로세서는 모든 서브영역의 정규화된 픽셀 차이 값 중 최대 값 및 최소값의 차이(이하, Hmax -min)를 히스토그램 정보로서 계산할 수 있다. 또한, 프로세서는 각 서브영역의 정규화된 픽셀 차이 값의 분포를 표현한 값(이하, Hdistr)을 히스토그램 정보로서 계산할 수도 있다. 다만, 히스토그램 정보를 이로 한정하는 것은 아니다.
그리고 단계(940)에서 지문 인식 장치의 프로세서는 유사도, 입력 지문 이미지와 연관된 정보 및 히스토그램 정보에 기초하여 스코어를 계산할 수 있다. 프로세서는 예를 들어, 하기 수학식 4와 같이 스코어를 계산할 수 있다.
Figure pat00004
상술한 수학식 4에서, Mbin은 상술한 수학식 2에 의해 계산될 수 있고, MRatio은 상술한 수학식 3에 의해 계산될 수 있다. Hmax -min 및 Hdistr는 상술한 단계(930)에서 결정되는 히스토그램 정보의 일종을 나타낼 수 있다. Mscore는 최종적으로 결정된 스코어로서, 입력 변형 이미지 및 등록 변형 이미지가 정합되는 정도를 나타낼 수 있고, 확률로서 표현될 수 있다. 스코어 Mscore의 값이 클 수록 입력 변형 이미지 및 등록 변형 이미지는 동일한 것일 확률이 클 수 있다. 예를 들어, 프로세서는 입력 변형 이미지 및 특정 등록 변형 이미지 간에 계산된 스코어 Mscore의 값이 임계값을 초과하면, 입력 변형 이미지에 대응하는 입력 지문이 특정 등록 변형 이미지에 대응하는 특정 등록 지문과 동일한 것으로 인식할 수 있다.
도 10 및 도 11은 일 실시예에 따라 입력 변형 이미지 및 등록 변형 이미지가 매칭된 결과를 시각화한 도면이다.
도 10에서 등록 변형 이미지(1020)에 대해 입력 변형 이미지(1010)가 정합될 수 있다. 등록 변형 이미지(1020) 및 입력 변형 이미지(1010)가 중첩된 영역(1090)에서 두 이미지의 각각에 나타나는 지문이 매칭되는 선은 굵은 선으로 도시될 수 있다. 도 10은 등록 변형 이미지(1020) 및 입력 변형 이미지(1010)가 잘 매칭되는 경우로서 중첩되는 영역(1090) 내의 지문이 모두 굵은 선으로 나타나는 바, 두 이미지는 서로 동일한 지문에 관한 것일 수 있다.
도 11에서는 등록 변형 이미지(1120)에 대해 입력 변형 이미지(1110)가 정합될 수 있다. 도 10과 유사하게 등록 변형 이미지(1120) 및 입력 변형 이미지(1110)가 중첩된 영역(1190)에서 두 이미지의 각각에 나타나는 지문이 매칭되는 선은 굵은 선으로 도시될 수 있다. 다만, 도 11은 도 10과 달리 일부 영역(1130)에서 지문이 매칭되지 않을 수 있다. 일부 영역(1130)을 제외한 나머지 영역에서는 지문이 대부분 매칭되므로, 상술한 도 9의 단계(910)에서 유사도가 비교적 높게 계산될 수 있다. 지문 인식 장치는 중첩된 영역 중 일부 영역(1130)에서 지문이 매칭되지 않는 경우를 고려하기 위하여, 하기 도 12와 같이 중첩된 영역을 서브영역으로 분할하여 히스토그램 정보를 결정할 수 있다.
도 12는 일 실시예에 따라 중첩된 영역을 분할하여 스코어를 계산하는 과정을 도시한 도면이다.
일 실시예에 따른 프로세서는 중첩된 영역(1190)을 서브영역으로 분할하고, 분할된 서브영역 내에서 입력 변형 이미지(1110) 및 등록 변형 이미지(1120)에 기초하여 히스토그램 정보를 결정할 수 있다. 프로세서는 서브영역 단위로 히스토그램 정보를 고려함으로써, 중첩된 영역(1190)에서 단순 패턴의 지문이 나타나는 경우에도 지문의 인식도를 개선할 수 있다.
예를 들어, 프로세서는 도 12에 도시된 바와 같이, 입력 변형 이미지(1110) 및 등록 변형 이미지(1120) 간의 중첩된 영역(1190)을 격자 형태(1240)의 서브영역들로 분할할 수 있다. 프로세서는 각 서브 영역에 대해 입력 변형 이미지(1110) 및 등록 변형 이미지(1120) 간의 픽셀의 차를 계산할 수 있다. 이후 프로세서는 각 서브영역들의 픽셀의 차이 값들을 히스토그램화하여 히스토그램 정보를 상술한 도 9의 단계(930)과 같이 결정할 수 있다.
도 12는 도 11에서 상술한 바와 같이 중첩된 두 이미지들간의 유사도는 높지만 다른 지문인 경우이다. 도 12에 도시된 일부 서브블럭들(1241, 1242)에서는 지문이 잘 매칭되지 않으므로, 해당 서브블럭들(1241, 1242)에서는 입력 변형 이미지(1110) 및 등록 변형 이미지(1120) 간의 픽셀 차이가 크게 계산될 수 있다. 프로세서는 입력 변형 이미지(1110) 및 등록 변형 이미지(1120)의 서브블럭들에서의 픽셀 차를 각 서브블럭의 픽셀 개수로 나눠서 정규화할 수 있고, 각 서브블럭들의 정규화된 픽셀 차이 값 중 가장 큰 값과 작은 값의 차(Hmax -min)를 계산할 수 있다. 프로세서는 Hmax -min의 값이 히스토그램 임계값보다 크면 상술한 도 9의 단계(910)에서 계산된 유사도가 높더라도 입력 변형 이미지(1110) 및 등록 변형 이미지(1120)가 서로 다른 지문에 관한 이미지인 것으로 판단할 수 있다. 또한, 프로세서는 각 서브블럭들의 정규화된 픽셀 차이 값을 히스토그램화 하여 분포값을 획득할 수 있고, 입력 변형 이미지(1110) 및 등록 변형 이미지(1120)의 인식도를 개선하는데 이용할 수 있다.
도 13은 일 실시예에 따른 지문 인식 장치의 구성을 도시한 블럭도이다.
지문 인식 장치는 센서(1320), 프로세서(1310) 및 메모리(1330)를 포함한다. 센서(1320), 프로세서(1310), 및 메모리(1330)는 버스(1340)를 통하여 서로 통신할 수 있다.
센서(1320)는 도 3에 도시된 지문 센서(310)일 수 있다. 센서(1320)는 잘 알려진 방식(예를 들어, 광학 이미지를 전기 신호로 변환하는 방식 등)으로 지문 영상을 캡쳐할 수 있다. 영상은 프로세서(1310)로 출력된다.
프로세서(1310)는 도 1 내지 도 12를 통하여 전술한 적어도 하나의 장치들을 포함하거나, 도 1 내지 도 12를 통하여 전술한 적어도 하나의 방법을 수행할 수 있다. 또한, 프로세서(910)는 도 3의 지문 인식 장치(300)에 포함될 수 있다.
메모리(1330)는 센서(1320)에 의하여 캡쳐된 후 변형되어 등록된 등록 변형 이미지들 및 등록 변형 이미지들에 대응하는 등록 특성 정보들을 저장할 수 있다. 또한, 메모리(1330)는 센서(1320)에 의하여 캡쳐된 후 변형된 입력 변형 이미지, 프로세서(1310)에 의하여 처리된 정합 결과, 및/또는 프로세서(1310)에 의하여 계산된 유사도, 및 스코어 등을 저장할 수 있다. 메모리(1330)는 휘발성 메모리 또는 비휘발성 메모리일 수 있다.
또한, 메모리(1330)는 도 3에 도시된 이미지 데이터베이스(320) 및 특성 데이터베이스(330)를 저장할 수 있다. 메모리(1330)가 특성 데이터베이스(330)를 저장함으로써 프로세서(1310)에 의한 이미지 간의 정합이 빠르게 수행될 수 있다. 또한, 메모리(1330)는 이미지 데이터베이스(320)로서 원본 이미지가 변형된 등록 변형 이미지들을 저장함으로써 이미지 데이터베이스(320)의 크기를 줄일 수 있다.
프로세서(1310)는 프로그램을 실행하고, 지문 인식 장치를 제어할 수 있다. 프로세서(1310)에 의하여 실행되는 프로그램 코드는 메모리(1330)에 저장될 수 있다. 지문 인식 장치는 입출력 장치(도면 미 표시)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 데이터를 교환할 수 있다.
지문 인식 장치는 이동 전화, 스마트 폰, PDA, 태블릿 컴퓨터, 랩톱 컴퓨터 등 모바일 장치, 퍼스널 컴퓨터, 태블릿 컴퓨터, 넷북 등 컴퓨팅 장치, 또는 텔레비전, 스마트 텔레비전, 게이트 제어를 위한 보안 장치 등 전자 제품 등 다양한 전자 장치들을 포함할 수 있다.
이상에서 사용자의 지문의 일부를 이용하여 사용자를 인식하는 경우를 설명하였으나, 실시예들은 사용자의 생체 데이터의 일부를 이용하여 사용자를 인식하는 경우로 확장될 수 있다. 여기서, 생체 데이터는 사용자의 지문에 관한 정보, 정맥(blood vessel)에 관한 정보, 홍채(iris)에 관한 정보 등을 포함할 수 있다. 이 경우, 프로세서(1310)는 센서(1320)로부터 사용자의 생체 데이터의 일부에 해당하는 입력 데이터를 수신하고, 입력 데이터를 변형 이미지로 변형하며, 변형 이미지들과 기 등록된 생체 데이터의 부분 데이터들에 해당하는 등록 변형 데이터들을 비교하며, 비교 결과에 기초하여 사용자를 인식할 수 있다.
일 예로, 센서(1320)는 사용자의 정맥 패턴을 인식하는 센서를 포함할 수 있다. 센서(1320)는 사용자의 손등의 피부로부터 정맥 패턴을 추출할 수 있다. 센서(1320)는 적외선 조명과 필터를 사용하여 피부에 대한 혈관의 밝기 대비를 최대화한 뒤, 정맥 패턴을 포함하는 이미지를 획득할 수 있다. 이 때, 센서(1320)는 정맥 패턴을 변형한 변형 이미지를 획득할 수 있다. 이 경우, 프로세서(1310)는 정맥 패턴 중 일부에 해당하는 변형 이미지와 기 등록된 정맥 패턴의 변형 이미지들을 비교함으로써, 사용자를 인식할 수 있다.
다른 예로, 센서(1320)는 사용자의 홍채 패턴을 인식하는 센서를 포함할 수 있다. 센서(1320)는 사용자의 동공과 공막(눈의 백색 영역) 사이의 홍채 패턴을 스캔 또는 캡쳐할 수 있다. 이 때, 센서(1320)는 홍채 패턴을 변형한 변형 이미지를 획득할 수 있다. 이 경우, 프로세서(1310)는 홍채 패턴 중 일부에 해당하는 변형 이미지와 기 등록된 홍채 패턴의 변형 이미지들을 비교함으로써, 사용자를 인식할 수 있다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (20)

  1. 지문 인식 방법에 있어서,
    등록될 지문에 대응하는 지문 이미지(fingerprint image)를 변형(modify)하여 등록 변형 이미지(enrollment modified image)를 생성하는 단계;
    상기 지문 이미지로부터 등록 특성 정보(enrollment property information)를 추출하는 단계; 및
    상기 등록 변형 이미지 및 상기 등록 특성 정보 사이를 맵핑하여, 상기 등록 변형 이미지 및 상기 등록 특성 정보를 저장하는 단계
    를 포함하는 지문 인식 방법.
  2. 제1항에 있어서,
    상기 등록 변형 이미지를 생성하는 단계는,
    공간 영역 및 주파수 영역 중 적어도 하나에서 상기 지문 이미지를 변형하여 상기 등록 변형 이미지를 생성하는 단계
    를 포함하는 지문 인식 방법.
  3. 제1항에 있어서,
    상기 등록 특성 정보를 추출하는 단계는,
    주파수 도메인 변환 기법에 기초하여, 상기 지문 이미지로부터 등록 위상 정보를 추출하는 단계
    를 포함하는 지문 인식 방법.
  4. 제1항에 있어서,
    입력 지문 이미지를 수신하는 단계;
    상기 입력 지문 이미지에 나타나는 쿼리 지문(query fingerprint)으로부터 특성 정보를 추출하는 단계;
    상기 입력 지문 이미지를 변형하여 입력 변형 이미지를 생성하는 단계;
    상기 추출된 특성 정보 및 상기 등록 특성 정보에 기초하여, 상기 입력 변형 이미지 및 상기 등록 변형 이미지를 정합하는 단계; 및
    상기 정합 결과에 기초하여, 상기 쿼리 지문을 인식하는 단계
    를 더 포함하는 지문 인식 방법.
  5. 제4항에 있어서,
    상기 인식하는 단계는,
    상기 입력 변형 이미지 및 상기 등록 변형 이미지가 중첩된 영역에서, 상기 입력 변형 이미지가 상기 등록 변형 이미지에 매칭되는 정도를 나타내는 스코어를 계산하는 단계
    를 더 포함하는 지문 인식 방법.
  6. 제5항에 있어서,
    상기 스코어를 계산하는 단계는,
    상기 입력 변형 이미지 및 상기 등록 변형 이미지 사이의 유사도, 상기 입력 지문 이미지와 연관된 정보, 및 상기 입력 변형 이미지 및 상기 등록 변형 이미지와 관련된 히스토그램 정보 중 적어도 하나에 기초하여 상기 스코어를 계산하는 단계
    를 포함하는 지문 인식 방법.
  7. 제5항에 있어서,
    상기 스코어를 계산하는 단계는,
    상기 중첩된 영역을 서브영역(sub region)으로 분할하고, 상기 분할된 서브영역마다 상기 입력 변형 이미지가 상기 등록 변형 이미지와 관련된 히스토그램 정보를 계산하는 단계; 및
    상기 히스토그램 정보에 기초하여 상기 스코어를 계산하는 단계
    를 포함하는 지문 인식 방법.
  8. 제4항에 있어서,
    상기 정합하는 단계는,
    상기 특성 정보 및 상기 등록 특성 정보에 기초하여, 상기 입력 변형 이미지 및 상기 등록 변형 이미지 사이의 이동 정보, 회전 정보, 및 스케일 정보 중 적어도 하나를 결정하는 단계
    를 포함하는 지문 인식 방법.
  9. 제4항에 있어서,
    상기 특성 정보를 추출하는 단계는,
    주파수 도메인 변환 기법에 기초하여, 상기 쿼리 지문으로부터 위상 정보를 추출하는 단계
    를 포함하고,
    상기 이미지를 정합하는 단계는,
    상기 위상 정보 및 상기 등록 지문과 연관된 기 저장된 등록 위상 정보 간의 위상 상관 관계(POC, Phase of Correlation)를 이용하여, 상기 입력 변형 이미지 및 상기 등록 변형 이미지를 정합하는 단계
    를 포함하는 지문 인식 기반 방법.
  10. 하드웨어와 결합되어 제1항의 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램.
  11. 지문 인식 장치에 있어서,
    등록될 지문에 대응하는 지문 이미지를 수신하는 센서;
    상기 지문 이미지를 변형하여 등록 변형 이미지를 생성하고, 상기 지문 이미지로부터 등록 특성 정보를 추출하는 프로세서; 및
    상기 등록 변형 이미지 및 상기 등록 특성 정보 사이를 맵핑하여, 상기 등록 변형 이미지 및 상기 등록 특성 정보를 저장하는 메모리
    를 포함하는 지문 인식 장치.
  12. 제11항에 있어서,
    상기 프로세서는,
    공간 영역 및 주파수 영역 중 적어도 하나에서 상기 지문 이미지를 변형하여 상기 등록 변형 이미지를 생성하는,
    지문 인식 장치.
  13. 제11항에 있어서,
    상기 프로세서는,
    주파수 도메인 변환 기법에 기초하여, 상기 지문 이미지로부터 등록 위상 정보를 추출하는,
    지문 인식 장치.
  14. 제11항에 있어서,
    상기 센서는,
    입력 지문 이미지를 수신하고,
    상기 프로세서는,
    상기 입력 지문 이미지에 나타나는 쿼리 지문으로부터 특성 정보를 추출하고, 상기 추출된 특성 정보 및 상기 등록 특성 정보에 기초하여, 상기 입력 변형 이미지 및 상기 등록 변형 이미지를 정합하며, 상기 정합 결과에 기초하여, 상기 쿼리 지문을 인식하는,
    지문 인식 장치.
  15. 제14항에 있어서,
    상기 프로세서는,
    상기 입력 변형 이미지 및 상기 등록 변형 이미지가 중첩된 영역에서, 상기 입력 변형 이미지가 상기 등록 변형 이미지에 매칭되는 정도를 나타내는 스코어를 계산하는,
    지문 인식 장치.
  16. 제15항에 있어서,
    상기 프로세서는,
    상기 입력 변형 이미지 및 상기 등록 변형 이미지 사이의 중첩된 영역에 대한 유사도를 계산하는,
    지문 인식 장치.
  17. 제15항에 있어서,
    상기 프로세서는,
    상기 입력 변형 이미지 및 상기 등록 변형 이미지 사이의 유사도, 상기 입력 지문 이미지와 연관된 정보, 및 상기 입력 변형 이미지 및 상기 등록 변형 이미지와 관련된 히스토그램 정보 중 적어도 하나에 기초하여 상기 스코어를 계산하는,
    지문 인식 장치.
  18. 제15항에 있어서,
    상기 프로세서는,
    상기 중첩된 영역을 서브영역(sub region)으로 분할하고, 상기 분할된 서브영역마다 상기 입력 변형 이미지가 상기 등록 변형 이미지와 관련된 히스토그램 정보를 계산하고, 상기 히스토그램 정보에 기초하여 상기 스코어를 계산하는,
    지문 인식 장치.
  19. 제14항에 있어서,
    상기 프로세서는,
    상기 특성 정보 및 상기 등록 특성 정보에 기초하여, 상기 입력 변형 이미지 및 상기 등록 변형 이미지 사이의 이동 정보, 회전 정보, 및 스케일 정보 중 적어도 하나를 결정하는,
    지문 인식 장치.
  20. 제14항에 있어서,
    상기 프로세서는,
    주파수 도메인 변환 기법에 기초하여, 상기 쿼리 지문으로부터 위상 정보를 추출하고, 상기 위상 정보 및 상기 등록 지문과 연관된 기 저장된 등록 위상 정보 간의 위상 상관 관계를 이용하여, 상기 입력 변형 이미지 및 상기 등록 변형 이미지를 정합하는,
    지문 인식 기반 장치.
KR1020150168926A 2015-06-30 2015-11-30 지문 인식 방법 및 장치 KR102558736B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US15/099,994 US10339178B2 (en) 2015-06-30 2016-04-15 Fingerprint recognition method and apparatus
CN201610390514.1A CN106326830A (zh) 2015-06-30 2016-06-03 指纹识别方法和设备

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20150093370 2015-06-30
KR1020150093370 2015-06-30
KR20150094821 2015-07-02
KR1020150094821 2015-07-02

Publications (2)

Publication Number Publication Date
KR20170003361A true KR20170003361A (ko) 2017-01-09
KR102558736B1 KR102558736B1 (ko) 2023-07-25

Family

ID=57811373

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150168926A KR102558736B1 (ko) 2015-06-30 2015-11-30 지문 인식 방법 및 장치

Country Status (1)

Country Link
KR (1) KR102558736B1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10896313B2 (en) 2018-07-04 2021-01-19 Samsung Electronics Co., Ltd. Methods and devices for recognizing fingerprint
US10909347B2 (en) 2017-03-14 2021-02-02 Samsung Electronics Co., Ltd. Method and apparatus with fingerprint verification
KR20210037893A (ko) * 2019-09-30 2021-04-07 인천대학교 산학협력단 비전 센서에 기반한 차량 내비게이션 방법
US11275918B2 (en) 2019-01-03 2022-03-15 Samsung Electronics Co., Ltd. Fingerprint verification method and apparatus

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040016005A (ko) * 2002-08-14 2004-02-21 (주)엘젠 이동통신단말기에서 지문인식 시스템 및 방법
US6836554B1 (en) * 2000-06-16 2004-12-28 International Business Machines Corporation System and method for distorting a biometric for transactions with enhanced security and privacy
JP4961214B2 (ja) * 2006-03-29 2012-06-27 株式会社日立情報制御ソリューションズ 生体認証方法およびシステム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6836554B1 (en) * 2000-06-16 2004-12-28 International Business Machines Corporation System and method for distorting a biometric for transactions with enhanced security and privacy
KR20040016005A (ko) * 2002-08-14 2004-02-21 (주)엘젠 이동통신단말기에서 지문인식 시스템 및 방법
JP4961214B2 (ja) * 2006-03-29 2012-06-27 株式会社日立情報制御ソリューションズ 生体認証方法およびシステム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10909347B2 (en) 2017-03-14 2021-02-02 Samsung Electronics Co., Ltd. Method and apparatus with fingerprint verification
US11625946B2 (en) 2017-03-14 2023-04-11 Samsung Electronics Co., Ltd. Method and apparatus with fingerprint verification
US10896313B2 (en) 2018-07-04 2021-01-19 Samsung Electronics Co., Ltd. Methods and devices for recognizing fingerprint
US11275918B2 (en) 2019-01-03 2022-03-15 Samsung Electronics Co., Ltd. Fingerprint verification method and apparatus
KR20210037893A (ko) * 2019-09-30 2021-04-07 인천대학교 산학협력단 비전 센서에 기반한 차량 내비게이션 방법

Also Published As

Publication number Publication date
KR102558736B1 (ko) 2023-07-25

Similar Documents

Publication Publication Date Title
KR102170725B1 (ko) 지문 등록 방법 및 장치
US10339178B2 (en) Fingerprint recognition method and apparatus
KR102455633B1 (ko) 라이브니스 검사 방법 및 장치
KR102434562B1 (ko) 위조 지문 검출 방법 및 장치, 지문 인식 방법 및 장치
JP6650946B2 (ja) モバイル・デバイスを用いてキャプチャしたイメージを使用する指紋ベースのユーザ認証を実行するためのシステムおよび方法
US9922237B2 (en) Face authentication system
CN106056037B (zh) 用于识别指纹的方法和设备
KR102415509B1 (ko) 얼굴 인증 방법 및 장치
US9613428B2 (en) Fingerprint authentication using stitch and cut
JP6837288B2 (ja) 指紋認証方法及び装置
US9208375B2 (en) Face recognition mechanism
KR102459852B1 (ko) 지문 인식을 위한 후보 지문 이미지를 선정하는 장치 및 방법
KR20180060840A (ko) 압력에 기초한 지문 인식 방법 및 장치
KR101997479B1 (ko) 사용자 인증을 위한 생체 영역을 검출하는 방법 및 장치
KR20180098443A (ko) 지문 인식 장치 및 지문 인식 방법
KR102313981B1 (ko) 지문 인증 방법 및 장치
KR102369412B1 (ko) 홍채 인식 장치 및 방법
KR102205495B1 (ko) 지문 인식 방법 및 장치
KR102558736B1 (ko) 지문 인식 방법 및 장치
KR102204307B1 (ko) 생체 정보를 포함하는 영상의 전 처리 방법
KR102387569B1 (ko) 지문 인증 방법 및 장치
US20210034895A1 (en) Matcher based anti-spoof system
JP6075084B2 (ja) 画像変換装置、画像変換方法、生体認証装置及び生体認証方法ならびに画像変換用コンピュータプログラム
KR102577588B1 (ko) 지문 인증 방법 및 장치
KR102447100B1 (ko) 지문 인증 방법 및 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant