KR20200070878A - 지문 영상 전처리 방법 및 장치 - Google Patents

지문 영상 전처리 방법 및 장치 Download PDF

Info

Publication number
KR20200070878A
KR20200070878A KR1020180158508A KR20180158508A KR20200070878A KR 20200070878 A KR20200070878 A KR 20200070878A KR 1020180158508 A KR1020180158508 A KR 1020180158508A KR 20180158508 A KR20180158508 A KR 20180158508A KR 20200070878 A KR20200070878 A KR 20200070878A
Authority
KR
South Korea
Prior art keywords
fingerprint image
image
converted
pixel
input
Prior art date
Application number
KR1020180158508A
Other languages
English (en)
Inventor
이희진
허진구
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020180158508A priority Critical patent/KR20200070878A/ko
Priority to US16/671,629 priority patent/US11244143B2/en
Publication of KR20200070878A publication Critical patent/KR20200070878A/ko
Priority to US17/581,476 priority patent/US11636705B2/en

Links

Images

Classifications

    • G06K9/00067
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1335Combining adjacent partial images (e.g. slices) to create a composite input or reference pattern; Tracking a sweeping finger movement
    • G06K9/00087
    • G06K9/6202
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/478Contour-based spectral representations or scale-space representations, e.g. by Fourier analysis, wavelet analysis or curvature scale-space [CSS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • G06V40/1376Matching features related to ridge properties or fingerprint texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Collating Specific Patterns (AREA)
  • Image Input (AREA)

Abstract

지문 영상 전처리 방법이 개시된다. 지문 영상 전처리 방법은, 입력 지문 영상을 수신하는 단계, 상기 입력 지문 영상에 단시간 푸리에 변환(Short-time Fourier Transform, STFT)을 수행하여 변환된 지문 영상을 획득하는 단계, 상기 입력 지문 영상과 상기 변환된 지문 영상을 비교하는 단계 및 상기 비교 결과를 기초로 상기 입력 지문 영상과 상기 변환된 지문 영상을 결합하여 결합 영상을 생성하는 단계를 포함한다.

Description

지문 영상 전처리 방법 및 장치{METHOD AND APPARATUS FOR PREPROCESSING FINGERPRINT IMAGE}
지문 인증 기술에 관한 것이며, 지문 인증 과정에서 지문 영상을 전처리하여 화질을 개선하는 기술에 관한 것이다.
생체 인식에 의한 인증 기술은 지문, 홍채, 목소리, 얼굴, 혈관 등을 이용하여 사용자를 인증한다. 인증에 사용되는 생체 특성들은 사람마다 다르고, 소지의 불편함이 없을 뿐 아니라, 도용이나 모조의 위험성이 적다는 장점이 있다. 특히, 지문 인증은 편리성, 보안성, 경제성 등으로 인하여 현재 사용자 인증 기술로 널리 이용되고 있다. 지문 인증에서는 사용자 인증을 요청하는 사용자의 지문 영상과 미리 등록된 지문 영상을 비교하고, 그 비교 결과에 기초하여 인증 성공 여부를 결정한다.
지문 인증은 생체 인증에서 가장 많이 활용되는 방식으로 좋은 인증 성능 확보에 대한 필요성이 꾸준히 증가하고 있다. 지문 영상의 화질 저하는 지문 상태(건조 지문, 습한 지문), 지문 센서의 제약 등 다양한 원인으로 발생할 수 있고, 이는 지문 인증 성능 저하의 주 요인이 되기 때문에 좋은 인증 성능을 확보하기 위해서는 지문 화질 개선이 기본적으로 병행되어야 한다.
일 실시예에 따른 지문 영상 전처리 방법은 입력 지문 영상을 수신하는 단계, 상기 입력 지문 영상에 단시간 푸리에 변환(Short-time Fourier Transform, STFT)을 수행하여 변환된 지문 영상을 획득하는 단계, 상기 입력 지문 영상과 상기 변환된 지문 영상을 비교하는 단계 및 상기 비교 결과를 기초로 상기 입력 지문 영상과 상기 변환된 지문 영상을 결합하여 결합 영상을 생성하는 단계를 포함한다.
상기 결합 영상을 생성하는 단계는, 상기 입력 지문 영상과 상기 변환된 지문 영상의 위상과 크기를 각각 분리하는 단계, 상기 비교 결과를 기초로, 상기 결합 영상의 영역별로 상기 입력 지문 영상의 위상 및 크기와 상기 변환된 지문 영상의 크기를 결합한 결과를 반영하거나 상기 변환된 지문 영상을 반영하는 단계를 포함할 수 있다.
상기 비교하는 단계는, 상기 입력 지문 영상의 감도와 상기 변환된 지문 영상의 감도를 영역별로 비교할 수 있다.
상기 비교하는 단계는, 상기 입력 지문 영상과 상기 변환된 지문 영상 각각에 마스크를 설정하는 단계 및 상기 마스크에 대응되는 상기 입력 지문 영상 내의 영역과 상기 마스크에 대응되는 상기 변환된 지문 영상 내의 영역에 포함된 픽셀들 각각을 비교하는 단계를 포함할 수 있다.
상기 픽셀들 각각을 비교하는 단계는, 상기 입력 지문 영상 내의 영역에 포함된 픽셀의 픽셀값과 상기 변환된 지문 영상 내의 영역에 포함된 픽셀의 픽셀값을 비교할 수 있다.
상기 픽셀들 각각을 비교하는 단계는, 상기 입력 지문 영상 내의 영역에 포함된 제1 픽셀의 픽셀값이 상기 변환된 지문 영상 내의 영역에 포함된 상기 제1 픽셀의 위치에 대응하는 제2 픽셀의 픽셀값 보다 큰 경우, 상기 결합 영상의 상기 제1 픽셀에 대응되는 위치에 제1 식별자를 할당하고, 상기 입력 지문 영상 내의 영역에 포함된 상기 제1 픽셀의 픽셀값이 상기 변환된 지문 영상 내의 영역에 포함된 상기 제2 픽셀의 픽셀값 보다 작은 경우, 상기 결합 영상의 상기 제1 픽셀에 대응되는 위치에 제2 식별자를 할당할 수 있다.
상기 결합 영상을 생성하는 단계는, 상기 입력 지문 영상이 상기 변환된 지문 영상보다 감도가 큰 경우, 상기 입력 지문 영상과 상기 변환된 지문 영상을 결합하여 상기 결합 영상에 반영할 수 있다.
상기 결합 영상을 생성하는 단계는, 상기 입력 지문 영상 내의 영역에 포함된 제1 픽셀의 픽셀값이 상기 변환된 지문 영상 내의 영역에 포함된 상기 제1 픽셀의 위치에 대응하는 제2 픽셀의 픽셀값 보다 큰 경우, 상기 입력 지문 영상과 상기 변환된 지문 영상을 결합한 결과를 상기 결합 영상의 상기 제1 픽셀의 위치에 할당할 수 있다.
상기 결합 영상을 생성하는 단계는, 상기 제1 식별자에 대응하여 상기 입력 지문 영상과 상기 변환된 지문 영상을 결합한 결과를 상기 결합 영상의 상기 제1 픽셀에 대응되는 위치에 할당하고, 상기 제2 식별자에 대응하여 상기 변환된 지문 영상을 결합한 결과를 상기 결합 영상의 상기 제1 픽셀에 대응되는 위치에 할당할 수 있다.
일 실시예에 따른 컴퓨터 판독 가능한 저장매체는 상기 방법을 실행하기 위한 인스트럭션들을 저장할 수 있다.
일 실시예에 따른 지문 영상 전처리 장치는 적어도 하나의 프로세서 및 상기 프로세서를 동작시키는 인스트럭션(instruction)을 저장하는 메모리를 포함하고,
상기 프로세서는, 입력 지문 영상을 수신하고, 상기 입력 지문 영상에 단시간 푸리에 변환을 수행하여 변환된 지문 영상을 획득하고, 상기 입력 지문 영상과 상기 변환된 지문 영상을 비교하고, 상기 비교 결과를 기초로 상기 입력 지문 영상과 상기 변환된 지문 영상을 결합하여 결합 영상을 생성한다.
상기 프로세서는, 상기 입력 지문 영상과 상기 변환된 지문 영상의 위상과 크기를 각각 분리하고, 상기 비교 결과를 기초로, 상기 결합 영상의 영역별로 상기 입력 지문 영상의 위상 및 크기와 상기 변환된 지문 영상의 크기를 결합한 결과를 반영하거나 상기 변환된 지문 영상을 반영할 수 있다.
상기 프로세서는, 상기 입력 지문 영상 내의 영역에 포함된 제1 픽셀의 픽셀값이 상기 변환된 지문 영상 내의 영역에 포함된 상기 제1 픽셀의 위치에 대응하는 제2 픽셀의 픽셀값 보다 큰 경우, 상기 결합 영상의 상기 제1 픽셀에 대응되는 위치에 제1 식별자를 할당하고, 상기 입력 지문 영상 내의 영역에 포함된 상기 제1 픽셀의 픽셀값이 상기 변환된 지문 영상 내의 영역에 포함된 상기 제2 픽셀의 픽셀값 보다 작은 경우, 상기 결합 영상의 상기 제1 픽셀에 대응되는 위치에 제2 식별자를 할당할 수 있다.
상기 프로세서는, 상기 제1 식별자에 대응하여 상기 입력 지문 영상과 상기 변환된 지문 영상을 결합한 결과를 상기 결합 영상의 상기 제1 픽셀에 대응되는 위치에 할당하고, 상기 제2 식별자에 대응하여 상기 변환된 지문 영상을 결합한 결과를 상기 결합 영상의 상기 제1 픽셀에 대응되는 위치에 할당할 수 있다.
도 1은 일 실시예에 따른 지문 영상 전처리 장치에 의해 지문이 인식되는 상황을 도시한 도면이다.
도 2는 입력 지문 영상과 STFT 방식에 의해 입력 지문 영상을 변환한 영상을 도시한 도면이다.
도 3은 일 실시예에 따른 지문 영상 전처리 방법을 도시한 순서도이다.
도 4는 일 실시예에 따른 지문 영상 전처리 방법의 전체적인 동작을 도시한 흐름도이다.
도 5는 일 실시예에 따른 지문 영상 전처리 방법에 의해 입력 지문 영상으로부터 결합 영상이 생성되는 예시이다.
도 6은 다양한 센서로부터 입력된 지문 영상들로부터 결합 영상을 획득하는 예시이다.
도 7은 일 실시예에 따른 지문 영상 전처리 장치의 구성을 도시한 도면이다.
실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설명된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
한편, 어떤 실시예가 달리 구현 가능한 경우에 특정 블록 내에 명기된 기능 또는 동작이 순서도와 다르게 수행될 수 있다. 예를 들어, 연속하는 두 블록들이 실제로는 실질적으로 동시에 수행될 수도 있고, 관련된 기능 또는 동작에 따라서는 해당 블록들의 순서가 뒤바뀌어 수행될 수도 있다.
이하, 실시예들을 첨부된 도면들을 참조하여 상세하게 설명한다. 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고, 이에 대한 중복되는 설명은 생략하기로 한다.
도 1은 일 실시예에 따른 지문 영상 전처리 장치에 의해 지문이 인식되는 상황을 도시한 도면이다.
일 실시예에 따르면, 지문 영상 전처리 장치(100)는 사용자(101)의 입력 지문 영상(105)을 전처리하여 변환된 지문 영상(107)을 획득하고, 입력 지문 영상(105)과 변환된 지문 영상(107)을 비교할 수 있다. 지문 영상 전처리 장치(100)는 영역 별로 입력 지문 영상(105)과 변환된 지문 영상(107) 중 감도가 더 높은 영상을 선택함으로써 입력 지문 영상(105)과 변환된 지문 영상(107)을 결합하고, 결합 영상(109)을 생성할 수 있다. 이후, 결합 영상(109)은 지문 인증을 위한 특징점 추출에 사용될 수 있다.
지문 인증은 지문을 이용하여 인증(verification)을 시도한 사용자(101)가 유효한(valid) 사용자(101)인지 여부를 판단하는 인증 방법으로, 사용자(101) 로그인, 결제 서비스 또는 출입 통제 등에서 유효한 사용자(101)를 인증하는데 이용될 수 있다. 도 1을 참조하면, 지문 인증을 수행하는 장치인 지문 인증 장치는 지문 영상 전처리 장치(100)를 포함하며, 컴퓨팅 장치에 포함되어 동작할 수 있다. 컴퓨팅 장치는 예를 들어, 스마트폰, 웨어러블 기기(wearable device), 태블릿 컴퓨터, 넷북, 랩탑, 데스크탑, PDA(personal digital assistant), 셋탑 박스, 가전 기기, 생체 도어락, 보안 장치 또는 차량 시동 장치일 수 있다.
지문은 아래 그림과 같이 크게 융선(ridge)과 골(valley)으로 구성되어 있는데, 융선이란 땀구멍이 돌기되어 튀어나온 부분을 의미하며, 골이란 융선과 융선 사이의 상대적으로 오목한 부분을 의미한다. 융선이 끊어지는 점을 단점(ending point) 이라고 지칭되고 갈라지는 점은 분기점(bifurcation point) 이라고 지칭된다. 융선의 구성 요소들로는 아래 그림과 같이 융선의 시작과 끝(beginning and ends of ridges), 분기점(bifurcation) 외에도 중심점(core), 삼각주(delta) 등이 있으며, 중심점은 융선 회전의 끝 부분을 말하고, 삼각주는 융선의 흐름이 세 방향으로부터 모아져 하나가 되는 점을 의미한다. 이들 요소들은, 점의 형태, 단점의 형태(dot), 분기된 형태(Right ending), 고립된 형태(Island), 연결된 형태(Bridge), 짧은 융선(short ridge) 등으로 복합적인 성격을 가지고 있으며 이러한 특징들은 특징점(minutiae) 이라고 지칭된다.
컴퓨팅 장치는 지문 센서(103)를 통해 센싱된 입력 지문 영상(105)의 지문 패턴을 분석하여 컴퓨팅 장치에 액세스하려고 시도하는 사용자(101)가 유효한 사용자(101)인지 여부를 결정할 수 있다. 예를 들어, 사용자(101)가 컴퓨팅 장치의 잠금 상태를 해제시키기 위해 지문을 입력하는 경우, 컴퓨팅 장치는 지문 센서(103)를 통해 획득된 입력 지문 영상(105)을 데이터베이스에 저장된 등록 지문 영상들 중 하나 이상과 비교하고, 그 비교 결과에 기초하여 컴퓨팅 장치의 잠금 상태를 해제할지 여부를 결정할 수 있다. 데이터베이스에는 하나 이상의 손가락에 대한 등록 지문 영상이 저장될 수 있다.
유효한 사용자(101)는 자신의 지문 정보를 컴퓨팅 장치에 미리 등록할 수 있고, 컴퓨팅 장치는 사용자(101)가 등록한 지문 정보를 데이터베이스 또는 클라우드 저장매체(cloud storage)에 저장할 수 있다. 일 실시예에서, 등록된 지문 정보는 등록 지문 영상의 형태로 저장될 수 있다. 지문 등록 과정에서 사용자(101)는 여러 등록 지문 영상들을 등록할 수 있다.
컴퓨팅 장치는 입력 지문 영상으로부터 특징점을 추출하기 전에, 보다 효과적인 특징점 추출을 위하여 입력 지문 영상을 전처리할 수 있다. 컴퓨팅 장치는 전처리에 의해 변환된 지문 영상으로부터 특징점을 추출할 수 있다. 이후, 컴퓨팅 장치는 해당 등록 지문 영상들의 특징점과 지문 센서를 통해 획득된 입력 지문 영상의 특징점을 서로 비교한다.
전처리로 변환된 지문 영상들에는 지문의 식별을 위한 특징점이 충분히 포함되지 않을 수 있다. 특징점이 충분하지 않은 변환된 지문 영상과 등록 지문 영상을 일대일로 비교하여 지문 인증이 수행되는 경우, 오인식(false acceptance)과 같은 바람직하지 않은 결과가 발생할 수 있다. 예를 들어, 전처리를 통해 변환된 지문 영상이 입력 지문 영상에 포함된 특징점을 잘 반영하지 못하는 경우, 단순한 지문 패턴으로 인하여 입력 지문 영상과 등록 지문 영상 간의 유사도가 높게 결정되어 오인식이 발생할 가능성이 높다.
지문 인증에 있어 오인식은 지문 인증의 정확도 내지 인식률에 부정적인 영향을 미치기 때문에, 오인식을 방지하는 것이 바람직하다. 이하에서 설명될 실시예들은 오인식을 방지하기 위해 지문 영상의 특징점을 추출하기 위한 보다 효과적인 전처리 방식을 제시한다.
일 실시예에 따르면, 지문 영상 전처리 장치(100)는 입력 지문 영상(105)과 변환된 지문 영상(107)을 함께 사용함으로써 전처리에 의해 강조되는 특성을 살리되 원본의 특성 또한 결합 영상(109)에 반영할 수 있다. 이를 통해 지문 영상 전처리 장치(100)는 보다 풍부한 특징점을 포함하는 영상을 도출할 수 있고, 지문 인증은 보다 정확해질 수 있다.
지문 영상 전처리 장치(100)는 주파수 영역의 크기(magnitude)와 위상(phase) 특성과 함께 단시간 푸리에 변환(Short Time Fourier Transform, STFT)을 이용하여 입력 지문 영상(105)을 전처리할 수 있다. 지문 영상 전처리 장치(100)는 단시간 푸리에 변환으로 변환된 지문 영상의 특성과 주파수 영역의 크기 및 위상 특성을 결합하여 보다 효과적인 전처리 영상을 획득할 수 있다. 지문 영상 전처리 장치(100)는 단시간 푸리에 변환에 의해 주 패턴이 강조된 지문 영상과 주파수 영역의 크기 및 위상 분석을 통해 획득한 보조 패턴이 강조된 지문 영상을 결합할 수 있다. 결합 영상(109)에는 주패턴과 보조 패턴이 모두 반영될 수 있다. 여기서, 주 패턴은 융선과 골에 의해 형성되는 지문의 전체적인 형상을 의미하며, 보조 패턴은 주 패턴을 제외한 지문의 다른 모든 패턴을 의미한다. 예를 들어, 보조 패턴은 융선의 테두리와 선을 포함할 수 있다. 보조 패턴은 잔 패턴 또는 작은 패턴(small pattern)이라고 지칭될 수 있다.
단시간 푸리에 변환에 의해 변환된 지문 영상에서 지문의 융선과 골은 선명해지는 대신 지문의 다른 특성들은 흐려지거나 생략될 수 있다. 예를 들어, 지문의 보조 패턴은 흐려지거나 생략될 수 있다. 지문 영상 전처리 장치(100)는 윤선과 골 자체를 나타내는 주 패턴을 단시간 푸리에 변환에 의해 변환된 지문 영상(107)에서 취하고 융선의 보조 패턴은 원래의 입력 지문 영상(105)으로부터 취할 수 있다. 이를 위해, 지문 영상 전처리 장치(100)는 입력 지문 영상(105) 및 단시간 푸리에 변환에 의해 변환된 지문 영상(107)의 주파수 크기와 위상 성분을 분리할 수 있다.
지문 영상 전처리 장치(100)는 푸리에 변환(Fourier transform)과 같은 주파수 변환을 이용하여 입력 지문 영상(105) 및 변환된 지문 영상(107)의 크기와 위상을 분리할 수 있다. 2차원 푸리에 변환 및 주파수 영역에서의 크기와 위상의 특성은 다음과 같다. 푸리에 변환이란 영상을 주파수 관점에서 분석하는 방법으로, 영상이 어떤 주파수 성분들로 구성되어 있는지를 나타낼 수 있다. 2차원의 영상 f(x, y)을 주파수 영역으로 푸리에 변환하는 식은 수학식 1과 같다.
Figure pat00001
여기서 F(u, v)는 수학식 2와 같이 복소수로 표현되며, 주파수 영역에서의 크기와 위상은 수학식 3과 같이 표현된다.
Figure pat00002
Figure pat00003
푸리에 변환을 통해 변환된 영상에서, 위상은 기본 파형들을 이동(shift) 시키는 역할을 하며 위상 일치(phase congruency)의 원칙에 따라 테두리(edge)와 선(line) 등에서 같은 값을 가지는 경향이 있다. 테두리나 선 등에서 위상 값이 같다는 것은 해당 위치에서 다양한 주파수의 파형들이 많이 겹칠 수 있음을 의미한다. 주파수 영역에서 위상은 테두리나 선과 밀접한 관련이 있다. 주파수 영역에서 크기는 해당 주파수에서의 신호 세기를 의미한다. 영상에서 주파수의 크기는 테두리나 선을 제외한 영상의 전반적인 특성에 영향을 미친다. 주파수 영역에서 크기 성분들을 변화시킬 경우 영상의 텍스쳐와 같은 전반적인 특성들이 변화될 수 있다.
지문 영상 전처리 장치(100)는 분리된 위상과 크기를 결합하여 결합 영상(109)을 생성할 수 있다. 지문 영상 전처리 장치(100)는 뚜렷한 텍스쳐 특성을 변환된 지문 영상(107)으로부터 가져오고, 테두리와 선과 같은 보조 패턴을 입력 지문 영상(105)으로부터 가져올 수 있다. 지문 영상 전처리 장치(100)는 변환된 지문 영상(107)을 기본 영상으로 가져오되, 변환된 지문 영상(107)에 부족한 특성이 있는 경우에 입력 지문 영상(105)을 사용하여 결합 영상(109)을 생성할 수 있다.
단시간 푸리에 변환에 의해 변환된 지문 영상(107)이 사용될 경우 주 패턴은 잘 반영될 수 있지만 보조 패턴은 생략될 수 있다. 지문 영상 전처리 장치(100)는 변환된 지문 영상(107)과 입력 지문 영상(105)을 비교하여 보조 패턴이 생략된 영역에 대해 입력 지문 영상(105)을 반영할 수 있다. 예를 들어, 지문 영상 전처리 장치(100)는 수학식 4를 통해 변환된 지문 영상(107)을 이용할지 또는 입력 지문 영상(105)을 이용할지를 결정할 수 있다.
Figure pat00004
지문 영상 전처리 장치(100)는 m*n 행렬의 마스크 Mmag를 설정할 수 있다. 마스크는 영상의 영역을 특정하기 위한 수단을 지칭할 수 있다. Amag는 m*n 행렬의 입력 지문 영상(105)의 크기 성분을 나타내고, Bmag는 m*n 행렬의 변환된 지문 영상(107)의 크기 성분을 나타낸다. 지문 영상 전처리 장치(100)는 입력 지문 영상(105)에 대해 마스크를 적용하여, 마스크 내의 각 픽셀의 값 ai,j를 획득할 수 있다. 지문 영상 전처리 장치(100)는 변환된 지문 영상(107)에 대해 마스크를 적용하여, 마스크 내의 각 픽셀의 값 bi,j를 획득할 수 있다.
지문 영상 전처리 장치(100)는 ai,j와 bi,j를 비교할 수 있다. 지문 영상 전처리 장치(100)는 ai,j가 bi,j보다 큰 경우에 입력 지문 영상(105)이 가지고 있는 보조 패턴을 변환된 지문 영상(107)이 가지고 있지 않다고 판단할 수 있다. 지문 영상 전처리 장치(100)는 ai,j와 bi,j에 대응되는 위치(i, j)의 마스크 값 mi,j에 1을 할당할 수 있다. 다만, 여기서, 할당되는 값 1은 식별을 위한 것으로서 다른 값이 할당될 수도 있다.
지문 영상 전처리 장치(100)는 ai,j가 bi,j보다 작은 경우에 입력 지문 영상(105)이 가지고 있는 보조 패턴을 변환된 지문 영상(107)이 가지고 있다고 판단할 수 있다. 지문 영상 전처리 장치(100)는 ai,j와 bi,j에 대응되는 위치(i, j)의 마스크 값 mi,j에 0을 할당할 수 있다. 다만, 여기서, 할당되는 값 0은 식별을 위한 것으로서 다른 값이 할당될 수도 있다.
지문 영상 전처리 장치(100)는 (i, j) 위치의 픽셀에 대응하는 mi,j이 0인 경우, 변환된 지문 영상(107)의 값을 선택할 수 있다. 지문 영상 전처리 장치(100)는 (i, j) 위치의 픽셀에 대응하는 mi,j이 1인 경우, 변환된 지문 영상(107)과 입력 지문 영상(105)의 성분을 결합하고, 결합된 결과를 할당할 수 있다. 예를 들어, 지문 영상 전처리 장치(100)는 수학식 5를 이용하여 변환된 지문 영상(107)과 입력 지문 영상(105)의 성분을 결합할 수 있다.
Figure pat00005
수학식 5에서, Aphase는 원본 영상인 입력 지문 영상(105)의 위상 성분을 의미하며, B'mag는 입력 지문 영상(105)과 변환된 지문 영상(107)의 크기 성분을 결합한 크기 성분을 의미한다.
지문 영상 전처리 장치(100)는 역 푸리에 변환을 이용하여 최종 영상을 획득할 수 있다. 예를 들어, 지문 영상 전처리 장치(100)는 수학식 6을 이용하여 최종 영상을 획득할 수 있다.
Figure pat00006
최종 영상은 단시간 푸리에 변환의 뚜렷한 특성을 유지하면서도 보조 패턴이 반영되므로, 단시간 푸리에 변환에 의해 변환된 지문 영상(107) 자체보다 더 자연스러운 지문 영상일 수 있다.
도 2는 입력 지문 영상과 STFT 방식에 의해 입력 지문 영상을 변환한 영상을 도시한 도면이다.
지문 영상의 화질 개선을 위한 다양한 방법이 존재한다. 그 중 가장 많이 활용되는 방식은 공간 영역(spatial domain) 또는 주파수 영역(frequency domain)에서 부분 지문 융선(local ridge)의 주파수(frequency) 및 방향(orientation)을 예측하고 이를 기반으로 상황별 필터(contextual filter)를 적용시키는 방식이다. 예를 들어, 단시간 푸리에 변환을 통해 주파수 영역에서 부분 지문 융선의 주파수 및 방향을 예측하고 이를 기반으로 상황별 필터를 적용시켜 지문 영상의 화질을 개선하는 방식이 적용될 수 있다.
입력 지문 영상(201)은 센서에 의해 형성되는 원본 영상일 수 있다. 입력 지문 영상(201)에는 융선과 골에 의해 형성되는 주 패턴과 융선의 테두리와 선을 포함하는 보조 패턴이 포함될 수 있다. 특히, 입력 지문 영상(201)에는 점선으로 특정된 영역에 표시된 단절된 부분이 포함될 수 있다. 융선은 정현파 이외의 성분이 포함되므로 입력 지문 영상(205)은 복잡한 특성을 나타낼 수 있다.
단시간 푸리에 변환에 의해 변환된 지문 영상(203)에는 융선과 골에 의해 형성되는 주 패턴이 강조될 수 있다. 대신, 변환된 지문 영상(203)에서 보조 패턴은 생략되거나 흐려질 수 있다. 특히, 변환된 지문 영상(203)에는 점선으로 특정된 영역에 표시된 단절된 부분이 포함될 수 있다. 단시간 푸리에 변환은 융선이 하나의 특정 정현파에 대응될 수 있다는 가정하에 주파수 및 방향을 예측하기 때문에, 변환된 지문 영상(207)에서 융선의 주 패턴은 강조되지만, 입력 지문 영상(205)에 나타나는 보조 패턴은 생략될 수 있다.
도 3은 일 실시예에 따른 지문 영상 전처리 방법을 도시한 순서도이다.
일 실시예에 따르면, 단계(301)에서, 지문 영상 전처리 장치는 입력 지문 영상을 수신한다. 지문 영상 전처리 장치는 센서로부터 원본에 해당하는 입력 지문 영상을 수신할 수 있다. 입력 지문 영상에는 지문의 주 패턴의 특성과 보조 패턴의 특성이 모두 포함될 수 있다.
단계(303)에서, 지문 영상 전처리 장치는 입력 지문 영상에 단시간 푸리에 변환을 수행하여 변환된 지문 영상을 획득한다. 변환된 지문 영상은 입력 지문 영상에 비해 주 패턴이 선명할 수 있다. 변환된 지문 영상은 입력 지문 영상에 포함된 보조 패턴이 생략될 수 있다.
단계(305)에서, 지문 영상 전처리 장치는 입력 지문 영상과 변환된 지문 영상을 비교한다. 지문 영상 전처리 장치는 입력 지문 영상의 감도와 변환된 지문 영상의 감도를 영역별로 비교할 수 있다. 여기서, 감도는 원본 영상에 포함된 특성을 얼마나 잘 반영하고 있는지를 의미할 수 있다. 예를 들어, 보조 패턴이 나타나는 경우는 보조 패턴이 생략되는 경우보다 감도가 더 높다고 판단될 수 있다.
지문 영상 전처리 장치는 입력 지문 영상과 변환된 지문 영상 각각에 마스크를 설정할 수 있다. 지문 영상 전처리 장치는 마스크에 대응되는 입력 지문 영상 내의 영역과 마스크에 대응되는 변환된 지문 영상 내의 영역에 포함된 픽셀들 각각을 비교할 수 있다. 지문 영상 전처리 장치는 입력 지문 영상 내의 영역에 포함된 픽셀의 픽셀값과 변환된 지문 영상 내의 영역에 포함된 픽셀의 픽셀값을 비교할 수 있다.
지문 영상 전처리 장치는 입력 지문 영상 내의 영역에 포함된 제1 픽셀의 픽셀값이 변환된 지문 영상 내의 영역에 포함된 제1 픽셀의 위치에 대응하는 제2 픽셀의 픽셀값 보다 큰 경우, 결합 영상의 제1 픽셀에 대응되는 위치에 제1 식별자를 할당할 수 있다. 여기서, 제1 식별자는 "1"일 수 있다.
지문 영상 전처리 장치는 입력 지문 영상 내의 영역에 포함된 제1 픽셀의 픽셀값이 변환된 지문 영상 내의 영역에 포함된 제2 픽셀의 픽셀값 보다 작은 경우, 결합 영상의 제1 픽셀에 대응되는 위치에 제2 식별자를 할당할 수 있다. 여기서, 제1 식별자는 "0"일 수 있다.
단계(307)에서, 지문 영상 전처리 장치는 비교 결과를 기초로 입력 지문 영상과 변환된 지문 영상을 결합하여 결합 영상을 생성한다. 이를 위하여, 먼저 지문 영상 전처리 장치는 입력 지문 영상과 변환된 지문 영상의 위상과 크기를 각각 분리할 수 있다. 지문 영상 전처리 장치는 푸리에 변환을 이용하여 입력 지문 영상과 변환된 지문 영상의 위상과 크기를 각각 분리할 수 있다.
지문 영상 전처리 장치는 비교 결과를 기초로 결합 영상의 영역별로 입력 지문 영상의 위상 및 크기와 변환된 지문 영상의 크기를 결합한 결과를 반영하거나 변환된 지문 영상을 반영할 수 있다. 입력 지문 영상이 변환된 지문 영상보다 감도가 큰 경우, 지문 영상 전처리 장치는 입력 지문 영상과 변환된 지문 영상을 결합하여 결합 영상에 반영할 수 있다.
입력 지문 영상 내의 영역에 포함된 제1 픽셀의 픽셀값이 변환된 지문 영상 내의 영역에 포함된 제1 픽셀의 위치에 대응하는 제2 픽셀의 픽셀값 보다 큰 경우, 지문 영상 전처리 장치는 입력 지문 영상과 변환된 지문 영상을 결합한 결과를 결합 영상의 제1 픽셀의 위치에 할당할 수 있다.
지문 영상 전처리 장치는 제1 식별자에 대응하여 입력 지문 영상과 변환된 지문 영상을 결합한 결과를 결합 영상의 제1 픽셀에 대응되는 위치에 할당할 수 있다. 지문 영상 전처리 장치는 제2 식별자에 대응하여 변환된 지문 영상을 결합한 결과를 결합 영상의 제1 픽셀에 대응되는 위치에 할당할 수 있다.
도 4는 일 실시예에 따른 지문 영상 전처리 방법의 전체적인 동작을 도시한 흐름도이다.
단계(401)에서, 지문 영상 전처리 장치는 입력 지문 영상에 단시간 푸리에 변환을 적용하여 변횐된 지문 영상을 획득할 수 있다.
단계(402)에서, 지문 영상 전처리 장치는 입력 지문 영상과 변환된 지문 영상 각각으로부터 주파수 위상 성분과 주파수 크기 성분을 분리할 수 있다. 예를 들어, 지문 영상 전처리 장치는 푸리에 변환을 적용하여 입력 지문 영상과 변환된 지문 영상 각각으로부터 주파수 위상 성분과 주파수 크기 성분을 분리할 수 있다.
지문 영상 전처리 장치는 입력 지문 영상과 변환된 지문 영상을 비교하여 결합 영상에 반영할 성분을 선택할 수 있다. 지문 영상 전처리 장치는 결합 영상의 영역별로 변환된 지문 영상을 기본으로 선택하되, 입력 지문 영상에 포함된 특성이 변환된 지문 영상에 포함되지 않을 경우에는 입력 지문 영상의 성분을 결합 영상의 해당 영역에 반영할 수 있다.
입력 지문 영상에 포함된 특성이 변환된 지문 영상에 포함되지 않을 경우 단계(403)과 단계(404)가 수행될 수 있다. 단계(403)에서, 지문 영상 전처리 장치는 입력 지문 영상의 주파수 크기 성분과 변환된 지문 영상의 주파수 크기 성분을 결합할 수 있다. 단계(404)에서, 지문 영상 전처리 장치는 입력 지문 영상의 주파수 위상 성분과 결합된 주파수 크기 성분을 이용하여 주파수 크기 성분 및 주파수 위상 성분을 결합할 수 있다.
이러한 과정이 입력 지문 영상의 모든 영역에 대해 각각 수행됨으로써 결합 영상이 획득될 수 있다. 최종 영상은 단시간 푸리에 변환의 뚜렷한 특성을 유지하면서도 보조 패턴이 반영되므로, 단시간 푸리에 변환에 의해 변환된 지문 영상 자체보다 더 자연스러운 지문 영상일 수 있다.
도 5는 일 실시예에 따른 지문 영상 전처리 방법에 의해 입력 지문 영상으로부터 결합 영상이 생성되는 예시이다.
입력 지문 영상(511)은 센서에 의해 형성되는 원본 영상일 수 있다. 입력 지문 영상(511)에는 융선과 골에 의해 형성되는 주 패턴과 융선의 테두리와 선을 포함하는 보조 패턴이 포함될 수 있다. 예를 들어, 입력 지문 영상(511)에는 보조 패턴으로서 융선이 단절된 부분이 포함될 수 있다.
단시간 푸리에 변환에 의해 변환된 지문 영상(514)에는 융선과 골에 의해 형성되는 주 패턴이 입력 지문 영상(511)보다 강조될 수 있다. 대신, 변환된 지문 영상(514)에서 보조 패턴은 생략되거나 흐려질 수 있다. 예를 들어, 변환된 지문 영상(514)에는 입력 지문 영상(511)에 포함된 융선이 단절된 부분이 생략될 수 있다. 이처럼, 변환된 지문 영상(504)에서 융선의 주 패턴은 강조되지만, 입력 지문 영상(511)에 나타나는 보조 패턴은 생략될 수 있다.
지문 영상 전처리 장치는 입력 지문 영상(511)의 감도와 변환된 지문 영상(514)의 감도를 영역별로 비교할 수 있다. 예를 들어, 융선이 단절된 부분에 해당하는 영역에서, 지문 영상 전처리 장치는 변환된 지문 영상(514)에 입력 지문 영상(511)의 융선이 단절된 보조 패턴이 없다고 판단할 수 있다. 지문 영상 전처리 장치는 해당 영역에서 입력 지문 영상(501)의 보조 패턴을 변환된 지문 영상(514)에 반영할 수 있다.
이를 위해, 지문 영상 전처리 장치 입력 지문 영상(511)과 변환된 지문 영상(514)의 크기와 위상을 분리할 수 있다. 지문 영상 전처리 장치는 푸리에 변환을 이용하여 입력 지문 영상(511)의 크기(512)와 위상(513)을 분리하고, 변환된 지문 영상(514)의 크기(515)와 위상(516)을 분리할 수 있다.
다음으로, 단계(517)에서, 지문 영상 전처리 장치는 입력 지문 영상(511)의 크기(512) 및 위상(513)과 변환된 지문 영상(504)의 크기(515)를 이용하여 주파수 성분을 합성할 수 있다. 지문 영상 전처리 장치는 입력 지문 영상(511)의 크기(512)와 변환된 지문 영상(514)의 크기(515)를 결합하여 크기 성분을 생성하고, 입력 지문 영상(511)의 위상(513)을 위상 성분으로 이용할 수 있다. 지문 영상 전처리 장치는 결합된 크기 성분과 위상 성분을 이용하여 결합 영상(518)의 주파수 성분을 획득할 수 있다. 이러한 과정을 모든 영역에 대해 수행함으로써 지문 영상 전처리 장치는 결합 영상(518)을 획득할 수 있다.
도 6은 다양한 센서로부터 입력된 지문 영상들로부터 결합 영상을 획득하는 예시이다.
지문 영상 전처리 장치는 다양한 센서로부터 수신한 원본의 입력 지문 영상을 단시간 푸리에 변환에 의해 변환하고 지문 영상 전처리 장치에 의해 결합한 결합 영상을 획득할 수 있다. 도 6의 각 영상에서 빨간 원은 보조 패턴이 각 영상에 얼마나 잘 표현되는지를 비교하기 위한 표시이며, 각 영상에서 노란 원은 원본 영상에 비해 얼마나 자연스러운지를 비교하기 위한 표시이다.
초음파 센서로부터 획득한 입력 지문 영상(611)으로부터 변환된 지문 영상(613)은 입력 지문 영상(611)에 나타난 보조 패턴을 반영하지 못한다. 예를 들어, 융선이 단절된 부분이 변환된 지문 영상(613)에는 잘 나타나지 않는다. 이에 반해, 지문 영상 전처리 장치에 의해 획득된 결합 영상(615)에는 입력 지문 영상(611)에 나타난 보조 패턴이 잘 반영되어 있다.
초음파 센서로부터 획득한 입력 지문 영상(621)으로부터 변환된 지문 영상(623)은 선명한 융선을 나타내며 입력 지문 영상(621)에 나타난 보조 패턴이 잘 반영되어 있지 않아 자연스럽지 못하다. 이에 반해, 지문 영상 전처리 장치에 의해 획득된 결합 영상(625)에는 입력 지문 영상(621)에 나타난 보조 패턴이 잘 반영되어 있어 보다 자연스러운 결과를 나타낸다.
정전 센서로부터 획득한 입력 지문 영상(631)으로부터 변환된 지문 영상(633)은 입력 지문 영상(631)에 나타난 보조 패턴을 반영하지 못한다. 예를 들어, 융선을 단절하는 흰색 잔 패턴이 변환된 지문 영상(633)에는 잘 나타나지 않는다. 이에 반해, 지문 영상 전처리 장치에 의해 획득된 결합 영상(635)에는 입력 지문 영상(631)에 나타난 보조 패턴이 잘 반영되어 있다.
정전 센서로부터 획득한 입력 지문 영상(641)으로부터 변환된 지문 영상(643)은 선명한 융선 및 중심점을 나타내며 입력 지문 영상(641)에 나타난 보조 패턴이 잘 반영되어 있지 않아 자연스럽지 못하다. 이에 반해, 지문 영상 전처리 장치에 의해 획득된 결합 영상(645)에는 입력 지문 영상(641)에 나타난 보조 패턴이 잘 반영되어 있어 보다 자연스러운 결과를 나타낸다.
광학 센서로부터 획득한 입력 지문 영상(651)으로부터 변환된 지문 영상(653)은 입력 지문 영상(651)에 나타난 보조 패턴을 반영하지 못한다. 예를 들어, 융선이 단절된 부분의 길이는 변환된 지문 영상(653)에서 더 짧게 표시된다. 이에 반해, 지문 영상 전처리 장치에 의해 획득된 결합 영상(655)에는 입력 지문 영상(651)에 나타난 보조 패턴이 잘 반영되어 있다.
도 7은 일 실시예에 따른 지문 영상 전처리 장치의 구성을 도시한 도면이다.
일 실시예에 따른 지문 영상 전처리 장치(100)는 적어도 하나의 프로세서(701) 및 프로세서(701)를 동작시키는 인스트럭션(instruction)을 저장하는 메모리(703)를 포함한다. 지문 영상 전처리 장치는 I/O 인터페이스(705)를 더 포함할 수 있다.
프로세서(701)는 입력 지문 영상을 수신한다. 프로세서(701)는 입력 지문 영상에 단시간 푸리에 변환을 수행하여 변환된 지문 영상을 획득한다. 프로세서(701)는 입력 지문 영상과 변환된 지문 영상을 비교한다. 프로세서(701)는 비교 결과를 기초로 입력 지문 영상과 변환된 지문 영상을 결합하여 결합 영상을 생성한다.
프로세서(701)는 입력 지문 영상과 변환된 지문 영상의 위상과 크기를 각각 분리할 수 있다. 프로세서(701)는 비교 결과를 기초로 결합 영상의 영역별로 입력 지문 영상의 위상 및 크기와 변환된 지문 영상의 크기를 결합한 결과를 반영하거나 변환된 지문 영상을 반영할 수 있다.
프로세서(701)는, 입력 지문 영상 내의 영역에 포함된 제1 픽셀의 픽셀값이 변환된 지문 영상 내의 영역에 포함된 제1 픽셀의 위치에 대응하는 제2 픽셀의 픽셀값 보다 큰 경우, 결합 영상의 제1 픽셀에 대응되는 위치에 제1 식별자를 할당할 수 있다. 프로세서(701)는 입력 지문 영상 내의 영역에 포함된 제1 픽셀의 픽셀값이 변환된 지문 영상 내의 영역에 포함된 제2 픽셀의 픽셀값 보다 작은 경우, 결합 영상의 제1 픽셀에 대응되는 위치에 제2 식별자를 할당할 수 있다.
프로세서(701)는 제1 식별자에 대응하여 입력 지문 영상과 변환된 지문 영상을 결합한 결과를 결합 영상의 제1 픽셀에 대응되는 위치에 할당하고, 제2 식별자에 대응하여 변환된 지문 영상을 결합한 결과를 결합 영상의 제1 픽셀에 대응되는 위치에 할당할 수 있다.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.

Claims (14)

  1. 입력 지문 영상을 수신하는 단계;
    상기 입력 지문 영상에 단시간 푸리에 변환(Short-time Fourier Transform, STFT)을 수행하여 변환된 지문 영상을 획득하는 단계;
    상기 입력 지문 영상과 상기 변환된 지문 영상을 비교하는 단계; 및
    상기 비교 결과를 기초로 상기 입력 지문 영상과 상기 변환된 지문 영상을 결합하여 결합 영상을 생성하는 단계
    를 포함하는, 지문 영상 전처리 방법.
  2. 제1항에 있어서,
    상기 결합 영상을 생성하는 단계는,
    상기 입력 지문 영상과 상기 변환된 지문 영상의 위상과 크기를 각각 분리하는 단계;
    상기 비교 결과를 기초로, 상기 결합 영상의 영역별로 상기 입력 지문 영상의 위상 및 크기와 상기 변환된 지문 영상의 크기를 결합한 결과를 반영하거나 상기 변환된 지문 영상을 반영하는 단계
    를 포함하는, 지문 영상 전처리 방법.
  3. 제1항에 있어서,
    상기 비교하는 단계는,
    상기 입력 지문 영상의 감도와 상기 변환된 지문 영상의 감도를 영역별로 비교하는,
    지문 영상 전처리 방법.
  4. 제3항에 있어서,
    상기 비교하는 단계는,
    상기 입력 지문 영상과 상기 변환된 지문 영상 각각에 마스크를 설정하는 단계; 및
    상기 마스크에 대응되는 상기 입력 지문 영상 내의 영역과 상기 마스크에 대응되는 상기 변환된 지문 영상 내의 영역에 포함된 픽셀들 각각을 비교하는 단계
    를 포함하는, 지문 영상 전처리 방법.
  5. 제4항에 있어서,
    상기 픽셀들 각각을 비교하는 단계는,
    상기 입력 지문 영상 내의 영역에 포함된 픽셀의 픽셀값과 상기 변환된 지문 영상 내의 영역에 포함된 픽셀의 픽셀값을 비교하는,
    지문 영상 전처리 방법.
  6. 제5항에 있어서,
    상기 픽셀들 각각을 비교하는 단계는,
    상기 입력 지문 영상 내의 영역에 포함된 제1 픽셀의 픽셀값이 상기 변환된 지문 영상 내의 영역에 포함된 상기 제1 픽셀의 위치에 대응하는 제2 픽셀의 픽셀값 보다 큰 경우, 상기 결합 영상의 상기 제1 픽셀에 대응되는 위치에 제1 식별자를 할당하고,
    상기 입력 지문 영상 내의 영역에 포함된 상기 제1 픽셀의 픽셀값이 상기 변환된 지문 영상 내의 영역에 포함된 상기 제2 픽셀의 픽셀값 보다 작은 경우, 상기 결합 영상의 상기 제1 픽셀에 대응되는 위치에 제2 식별자를 할당하는,
    지문 영상 전처리 방법.
  7. 제3항에 있어서,
    상기 결합 영상을 생성하는 단계는,
    상기 입력 지문 영상이 상기 변환된 지문 영상보다 감도가 큰 경우, 상기 입력 지문 영상과 상기 변환된 지문 영상을 결합하여 상기 결합 영상에 반영하는, 지문 영상 전처리 방법.
  8. 제4항에 있어서,
    상기 결합 영상을 생성하는 단계는,
    상기 입력 지문 영상 내의 영역에 포함된 제1 픽셀의 픽셀값이 상기 변환된 지문 영상 내의 영역에 포함된 상기 제1 픽셀의 위치에 대응하는 제2 픽셀의 픽셀값 보다 큰 경우, 상기 입력 지문 영상과 상기 변환된 지문 영상을 결합한 결과를 상기 결합 영상의 상기 제1 픽셀의 위치에 할당하는, 지문 영상 전처리 방법.
  9. 제6항에 있어서,
    상기 결합 영상을 생성하는 단계는,
    상기 제1 식별자에 대응하여 상기 입력 지문 영상과 상기 변환된 지문 영상을 결합한 결과를 상기 결합 영상의 상기 제1 픽셀에 대응되는 위치에 할당하고,
    상기 제2 식별자에 대응하여 상기 변환된 지문 영상을 결합한 결과를 상기 결합 영상의 상기 제1 픽셀에 대응되는 위치에 할당하는,
    지문 영상 전처리 방법.
  10. 제1항 내지 제9항 중 어느 하나의 항의 방법을 실행하기 위한 인스트럭션들을 저장하는 컴퓨터 판독 가능한 저장매체.
  11. 적어도 하나의 프로세서;및
    상기 프로세서를 동작시키는 인스트럭션(instruction)을 저장하는 메모리를 포함하고,
    상기 프로세서는,
    입력 지문 영상을 수신하고,
    상기 입력 지문 영상에 단시간 푸리에 변환을 수행하여 변환된 지문 영상을 획득하고,
    상기 입력 지문 영상과 상기 변환된 지문 영상을 비교하고,
    상기 비교 결과를 기초로 상기 입력 지문 영상과 상기 변환된 지문 영상을 결합하여 결합 영상을 생성하는,
    지문 영상 전처리 장치.
  12. 제11항에 있어서,
    상기 프로세서는,
    상기 입력 지문 영상과 상기 변환된 지문 영상의 위상과 크기를 각각 분리하고,
    상기 비교 결과를 기초로, 상기 결합 영상의 영역별로 상기 입력 지문 영상의 위상 및 크기와 상기 변환된 지문 영상의 크기를 결합한 결과를 반영하거나 상기 변환된 지문 영상을 반영하는,
    지문 영상 전처리 장치.
  13. 제11항에 있어서,
    상기 프로세서는,
    상기 입력 지문 영상 내의 영역에 포함된 제1 픽셀의 픽셀값이 상기 변환된 지문 영상 내의 영역에 포함된 상기 제1 픽셀의 위치에 대응하는 제2 픽셀의 픽셀값 보다 큰 경우, 상기 결합 영상의 상기 제1 픽셀에 대응되는 위치에 제1 식별자를 할당하고,
    상기 입력 지문 영상 내의 영역에 포함된 상기 제1 픽셀의 픽셀값이 상기 변환된 지문 영상 내의 영역에 포함된 상기 제2 픽셀의 픽셀값 보다 작은 경우, 상기 결합 영상의 상기 제1 픽셀에 대응되는 위치에 제2 식별자를 할당하는,
    지문 영상 전처리 장치.
  14. 제13항에 있어서,
    상기 프로세서는,
    상기 제1 식별자에 대응하여 상기 입력 지문 영상과 상기 변환된 지문 영상을 결합한 결과를 상기 결합 영상의 상기 제1 픽셀에 대응되는 위치에 할당하고,
    상기 제2 식별자에 대응하여 상기 변환된 지문 영상을 결합한 결과를 상기 결합 영상의 상기 제1 픽셀에 대응되는 위치에 할당하는,
    지문 영상 전처리 장치.



















KR1020180158508A 2018-12-10 2018-12-10 지문 영상 전처리 방법 및 장치 KR20200070878A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020180158508A KR20200070878A (ko) 2018-12-10 2018-12-10 지문 영상 전처리 방법 및 장치
US16/671,629 US11244143B2 (en) 2018-12-10 2019-11-01 Method and apparatus for preprocessing fingerprint image
US17/581,476 US11636705B2 (en) 2018-12-10 2022-01-21 Method and apparatus for preprocessing fingerprint image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180158508A KR20200070878A (ko) 2018-12-10 2018-12-10 지문 영상 전처리 방법 및 장치

Publications (1)

Publication Number Publication Date
KR20200070878A true KR20200070878A (ko) 2020-06-18

Family

ID=70971068

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180158508A KR20200070878A (ko) 2018-12-10 2018-12-10 지문 영상 전처리 방법 및 장치

Country Status (2)

Country Link
US (2) US11244143B2 (ko)
KR (1) KR20200070878A (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111033521A (zh) * 2017-05-16 2020-04-17 雅腾帝卡(私人)有限公司 用于文化制品的分析的数字数据细节处理
CN108537179B (zh) * 2018-04-12 2021-01-26 京东方科技集团股份有限公司 指纹识别单元、指纹识别方法和指纹识别装置
CN111488761B (zh) * 2019-01-25 2024-04-26 北京小米移动软件有限公司 指纹识别方法、装置、电子设备和计算机可读存储介质
CN111695382B (zh) 2019-03-14 2024-02-13 北京小米移动软件有限公司 指纹采集区域确定方法和指纹采集区域确定装置
US11790690B1 (en) * 2022-11-21 2023-10-17 Novatek Microelectronics Corp. Fingerprint recognition device, fingerprint recognition method and method of generating moire pattern image

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0741368B1 (en) 1995-05-02 2003-07-02 Yamatake Corporation Pattern collation apparatus and method
US6353689B1 (en) 1997-11-11 2002-03-05 Sony Corporation Apparatus for and method of processing image and information recording medium
US6466686B2 (en) * 1998-01-07 2002-10-15 International Business Machines Corporation System and method for transforming fingerprints to improve recognition
US6400836B2 (en) * 1998-05-15 2002-06-04 International Business Machines Corporation Combined fingerprint acquisition and control device
US6373970B1 (en) 1998-12-29 2002-04-16 General Electric Company Image registration using fourier phase matching
US6839471B1 (en) 1999-04-08 2005-01-04 Vogt Iv Robert Extended discrete fourier transform and parametric image algorithms
US7203347B2 (en) * 2001-06-27 2007-04-10 Activcard Ireland Limited Method and system for extracting an area of interest from within a swipe image of a biological surface
KR100397916B1 (ko) 2001-07-16 2003-09-19 (주)니트 젠 지문 등록 및 인증방법
TW544882B (en) * 2001-12-31 2003-08-01 Megic Corp Chip package structure and process thereof
JP4169185B2 (ja) * 2002-02-25 2008-10-22 富士通株式会社 画像連結方法、プログラム及び装置
JP4262471B2 (ja) * 2002-11-12 2009-05-13 富士通株式会社 生体特徴データ取得装置
US7545963B2 (en) * 2003-04-04 2009-06-09 Lumidigm, Inc. Texture-biometrics sensor
US7668350B2 (en) * 2003-04-04 2010-02-23 Lumidigm, Inc. Comparative texture analysis of tissue for biometric spoof detection
US7394911B2 (en) * 2003-07-08 2008-07-01 Sonian Roskilde A/S Control panel with activation zone
US8691575B2 (en) * 2003-09-30 2014-04-08 Weyerhaeuser Nr Company General method of classifying plant embryos using a generalized Lorenz-Bayes classifier
US7327859B1 (en) * 2007-02-14 2008-02-05 Lam Ko Chau Methods and systems for automated fingerprint recognition
KR100858681B1 (ko) 2007-02-15 2008-09-17 연세대학교 산학협력단 지문 영상 생성을 위한 영상 필터 조합 생성 방법
US20090175539A1 (en) 2008-01-09 2009-07-09 Authorizer Technologies, Inc. Method and system for swipe sensor image alignment using fourier phase analysis
US8538096B2 (en) * 2008-01-09 2013-09-17 International Business Machines Corporation Methods and apparatus for generation of cancelable fingerprint template
US8249314B2 (en) * 2008-06-16 2012-08-21 International Business Machines Corporation Anonymous and revocable fingerprint recognition
US8411913B2 (en) * 2008-06-17 2013-04-02 The Hong Kong Polytechnic University Partial fingerprint recognition
KR100993951B1 (ko) 2008-07-18 2010-11-11 (주)니트젠앤컴퍼니 지문인식기의 영상품질 향상장치
KR101180854B1 (ko) 2011-07-19 2012-09-07 주식회사 유니온커뮤니티 회전 지문 영상 획득장치 및 그 방법
EP2851869A4 (en) 2012-05-18 2016-03-30 Nec Solution Innovators Ltd FINGERPRINT IMAGE SYNTHESIS SYSTEM, FINGERPRINT IMAGE SYNTHESIS PROCESS AND PROGRAM THEREFOR
US9690972B1 (en) * 2015-01-08 2017-06-27 Lam Ko Chau Method and apparatus for fingerprint encoding, identification and authentication
FR3041423B1 (fr) 2015-09-22 2019-10-04 Idemia Identity And Security Procede d'extraction de caracteristiques morphologiques d'un echantillon de materiel biologique
FR3048540B1 (fr) 2016-03-04 2019-09-13 Idemia Identity And Security Procede d'amelioration d'images applicable aux images d'empreintes digitales
KR102459852B1 (ko) 2017-02-08 2022-10-27 삼성전자주식회사 지문 인식을 위한 후보 지문 이미지를 선정하는 장치 및 방법

Also Published As

Publication number Publication date
US20200184171A1 (en) 2020-06-11
US11636705B2 (en) 2023-04-25
US11244143B2 (en) 2022-02-08
US20220148330A1 (en) 2022-05-12

Similar Documents

Publication Publication Date Title
KR20200070878A (ko) 지문 영상 전처리 방법 및 장치
KR102455633B1 (ko) 라이브니스 검사 방법 및 장치
KR102170725B1 (ko) 지문 등록 방법 및 장치
US9922237B2 (en) Face authentication system
KR102434562B1 (ko) 위조 지문 검출 방법 및 장치, 지문 인식 방법 및 장치
KR102313981B1 (ko) 지문 인증 방법 및 장치
KR101997479B1 (ko) 사용자 인증을 위한 생체 영역을 검출하는 방법 및 장치
US20160110587A1 (en) Method and apparatus for facial recognition
EP3361413B1 (en) Method and apparatus of selecting candidate fingerprint image for fingerprint recognition
KR20210062381A (ko) 라이브니스 검사 방법 및 장치, 생체 인증 방법 및 장치
KR20170003348A (ko) 사용자 인증을 위한 등록 데이터베이스의 갱신 방법 및 장치
KR102205495B1 (ko) 지문 인식 방법 및 장치
US20220189212A1 (en) Authentication device, authentication method, and recording medium
US20080235762A1 (en) Pressure Map Based Fingerprint Authentication Method and System
KR102387569B1 (ko) 지문 인증 방법 및 장치
KR20170003361A (ko) 지문 인식 방법 및 장치
KR20180086649A (ko) 홍채를 위한 합성 코드를 이용한 인증 방법 및 인증 장치
Aguilar et al. Fingerprint recognition
JP2014142881A (ja) 画像変換装置、画像変換方法、生体認証装置及び生体認証方法ならびに画像変換用コンピュータプログラム
Tariq et al. Massively parallel palmprint identification system using GPU
KR102447100B1 (ko) 지문 인증 방법 및 장치
KR101995025B1 (ko) 지문인식센서 및 터치스크린에 남은 지문을 이용한 지문 이미지 복원 방법 및 장치
Das Face recognition in reduced Eigen-plane
George et al. Palmprint recognition using ridge features
Kamaraju et al. DSP based embedded fingerprint recognition system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal