KR101460964B1 - 지문 영상 취득 장치 및 방법 - Google Patents

지문 영상 취득 장치 및 방법 Download PDF

Info

Publication number
KR101460964B1
KR101460964B1 KR1020130054564A KR20130054564A KR101460964B1 KR 101460964 B1 KR101460964 B1 KR 101460964B1 KR 1020130054564 A KR1020130054564 A KR 1020130054564A KR 20130054564 A KR20130054564 A KR 20130054564A KR 101460964 B1 KR101460964 B1 KR 101460964B1
Authority
KR
South Korea
Prior art keywords
fingerprint
fingerprint image
image
blob
frame
Prior art date
Application number
KR1020130054564A
Other languages
English (en)
Inventor
문지현
송봉섭
이재원
Original Assignee
주식회사 슈프리마
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 슈프리마 filed Critical 주식회사 슈프리마
Priority to KR1020130054564A priority Critical patent/KR101460964B1/ko
Application granted granted Critical
Publication of KR101460964B1 publication Critical patent/KR101460964B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1335Combining adjacent partial images (e.g. slices) to create a composite input or reference pattern; Tracking a sweeping finger movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Input (AREA)
  • Collating Specific Patterns (AREA)

Abstract

지문 영상 취득 장치는 프레임별 지문 영상을 수신하면, 프레임별 지문 영상 중 하나의 지문 영상을 유효 지문 영상을 결정하고, 프레임별 지문 영상 중 마지막 프레임의 최종 지문 영상의 지문 영역과 유효 지문 영상의 지문 영역을 이용하여 최종 지문 영역을 확정한 후 최종 지문 영상에서 최종 지문 영역을 제외한 나머지 영역의 영상을 제거한다.

Description

지문 영상 취득 장치 및 방법{APPARATUS AND METHOD FOR CAPTURING FINGERPRINT IMAGE}
본 발명은 지문 영상 취득 장치 및 방법에 관한 것으로, 특히 지문 취득 시 발생하는 헤일로(halo)를 제거하는 기술에 관한 것이다.
지문 취득 장치는 사용자가 손가락을 지문 취득 장치의 지문 입력부에 올려 놓으면 손가락의 지문 영상을 획득하는 장치이다.
일반적으로 지문 취득 시 손가락과 지문 취득 장치의 지문 입력부 표면의 온도 및 습도 차이로 인하여 취득된 지문 영상 주위가 뿌옇게 되는 헤일로 효과(Halo effect)가 발생된다. 이러한 헤일로는 주로 손이 습하거나 주변과 습도 차가 있을 경우에 많이 발생하며, 추운 지역에서 지문 취득 장치를 사용할 경우에 헤일로의 발생 가능성이 높아진다. 또한 잔여 지문(latent)이 있는 상태에서 헤일로가 발생하면 헤일로 내 잔여 지문이 부각된다.
일반적으로 지문 취득 장치는 최종적으로 취득된 영상에서 지문 이외의 영역을 제거하는 후처리 방식으로 헤일로를 제거한다. 이러한 후처리 방법은 지문 영역을 정확히 구분할 수 없는 경우에, 후처리 후에도 헤일로가 남거나 헤일로 내 잔여 지문이 지문으로 오인식되어 지워지지 않는 현상이 발생한다.
본 발명이 해결하고자 하는 기술적 과제는 지문 영상 주변에 발생하는 헤일로를 정확하게 제거할 수 있는 지문 영상 취득 장치 및 방법을 제공하는 것이다.
본 발명의 한 실시 예에 따르면, 지문의 영상을 취득하는 장치가 제공된다. 지문 영상 취득 장치는 영상 입력부, 영상 전처리부, 그리고 영상 후처리부를 포함한다. 상기 영상 입력부는 사용자의 지문을 다중 프레임으로 촬영하고, 촬영된 다중 프레임의 지문을 프레임별 지문 영상으로 변환한다. 상기 영상 전처리부는 상기 프레임별 지문 영상으로부터 유효 지문 영상을 결정한다. 그리고 상기 영상 후처리부는 상기 프레임별 지문 영상 중 마지막 프레임의 최종 지문 영상과 상기 유효 지문 영상을 이용하여 지문 영역을 확정하고, 상기 최종 지문 영상에서 상기 지문 영역을 제외한 나머지 영역의 영상을 제거한다.
상기 영상 전처리부는 상기 프레임별 지문 영상 중 설정된 손가락의 개수만큼 지문 영역으로 인식되는 최초의 지문 영상을 상기 유효 지문 영상으로 결정할 수 있다.
상기 영상 전처리부는 각 프레임의 지문 영상을 블랍으로 구분하고, 구분된 블랍을 각 손가락에 해당하는 블랍군으로 구분하며, 상기 블랍군의 개수가 상기 설정된 손가락의 개수와 일치하면 해당 지문 영상을 상기 유효 지문 영상으로 결정할 수 있다.
상기 블랍은 상기 지문 영상에서 설정된 조건을 만족하는 영역일 수 있다.
상기 설정된 조건은 콘스라스트 조건, 픽셀 편차 조건, 주파수 맵(frequency map) 조건 및 방향성 맵(directional map) 조건 중 적어도 하나를 포함할 수 있다.
상기 영상 후처리부는 상기 최종 지문 영상을 블랍으로 구분하고, 상기 최종 지문 영상으로부터 구분된 블랍과 상기 유효 지문 영상으로부터 구분된 블랍을 이용하여 상기 지문 영역을 확정할 수 있다.
상기 영상 후처리부는 상기 최종 지문 영상으로부터 구분된 블랍 중 상기 블랍군에 추가할 블랍을 결정하고, 상기 추가할 블랍을 상기 블랍군에 추가하여 상기 블랍군을 갱신하며, 상기 갱신한 블랍군의 블랍을 토대로 상기 최종 지문 영상의 블랍으로부터 상기 지문 영역을 확정할 수 있다.
상기 영상 후처리부는 상기 최종 지문 영상의 블랍 중 상기 갱신한 블랍의 영역을 포함하는 블랍을 상기 최종 지문 영상으로 결정할 수 있다.
본 발명의 다른 한 실시 예에 따르면, 지문 영상 취득 장치가 지문을 취득하는 방법이 제공된다. 지문 영상 취득 방법은 사용자의 지문을 다중 프레임으로 촬영하는 단계, 촬영된 다중 프레임의 지문을 프레임별 지문 영상으로 변환하는 단계, 상기 프레임별 지문 영상 중 하나의 지문 영상을 유효 지문 영상으로 결정하는 단계, 상기 프레임별 지문 영상 중 마지막 프레임의 최종 지문 영상으로부터 지문 영역을 추출하는 단계, 상기 유효 지문 영상의 지문 영역과 상기 최종 지문 영상의 지문 영역을 이용하여 최종 지문 영역을 확정하는 단계, 그리고 상기 최종 지문 영상에서 상기 최종 지문 영역을 제외한 나머지 영역의 영상을 제거하는 단계를 포함한다.
상기 결정하는 단계는 각 프레임의 지문 영상을 블랍으로 구분하는 단계, 구분된 블랍을 각 손가락에 해당하는 블랍군으로 구분하는 단계, 그리고 상기 블랍군의 개수가 설정된 손가락의 개수와 일치하는지 판단하는 단계를 포함하고, 상기 블랍군의 개수가 상기 설정된 손가락의 개수와 일치하는 프레임의 지문 영상이 상기 유효 지문 영상으로 결정될 수 있다.
상기 블랍으로 구분하는 단계는 상기 지문 영상에서 설정된 조건을 만족하는 영역을 상기 블랍으로 결정하는 단계를 포함할 수 있다.
상기 추출하는 단계는 상기 최종 지문 영상을 블랍으로 구분하는 단계를 포함하며, 상기 확정하는 단계는 상기 최종 지문 영상으로부터 구분된 블랍과 상기 유효 지문 영상으로부터 구분된 블랍을 이용하여 상기 최종 지문 영역을 결정하는 단계를 포함할 수 있다.
상기 최종 지문 영역을 결정하는 단계는 상기 최종 지문 영상의 블랍을 토대로 상기 블랍군의 블랍을 갱신하는 단계, 그리고 상기 최종 지문 영상의 블랍 중에서 상기 갱신한 블랍의 영역을 포함하는 블랍을 상기 최종 지문 영역으로 결정하는 단계를 포함할 수 있다.
본 발명의 실시 예에 의하면, 지문 영상에서 지문 영역을 정확하게 구분함으로써, 헤일로를 정확하게 제거할 있으며 또한 헤일로 내 잔여 지문(latent)이 지문으로 오인식되는 현상을 방지할 수 있다.
도 1은 본 발명의 실시 예에 따른 지문 영상 취득 장치를 나타낸 도면이다.
도 2는 헤일로가 발생한 지문 영상의 일 예를 나타낸 도면이다.
도 3은 본 발명의 실시 예에 따른 지문 영상 취득 방법을 나타낸 흐름도이다.
도 4는 본 발명의 실시 예에 따른 유효 지문 영상을 결정하는 방법을 나타낸 흐름도이다.
도 5는 본 발명의 실시 예에 따른 블랍과 블랍군을 나타낸 일 예이다.
도 6은 본 발명의 실시 예에 따른 프레임별 지문 영상의 일 예를 나타낸 도면이다.
도 7은 본 발명의 실시 예에 따른 최종 지문 영상으로부터 구분된 블랍의 일 예를 나타낸 도면이다.
도 8은 본 발명의 실시 예에 따른 최종 지문 영역을 나타낸 일 예이다.
도 9는 본 발명의 다른 실시 예에 따른 지문 영상 취득 장치의 개략적인 도면이다.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 및 청구범위 전체에서, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.
이제 본 발명의 실시 예에 따른 지문 영상 취득 장치 및 방법에 대하여 도면을 참고로 하여 상세하게 설명한다.
도 1은 본 발명의 실시 예에 따른 지문 영상 취득 장치를 나타낸 도면이다.
도 1을 참고하면, 지문 영상 취득 장치(100)는 지문 입력부(110), 영상 전처리부(120), 영상 저장부(130), 영상 후처리부(140) 및 지문 취득부(150)를 포함한다.
지문 입력부(110)는 사용자의 지문을 다중 프레임(multi-frame)으로 촬영하고, 촬영된 프레임별 지문을 프레임별 지문 영상으로 변환하며 프레임별 지문 영상을 영상 처리부(120)로 전달한다.
손가락의 지문은 지문 영상 취득 장치(100)의 지문 입력부(110)에 손가락이 닿는 부분을 시작으로 점차 지문 영역이 확대되면서 최종 지문 영역이 확정된다. 따라서 지문 입력부(110)는 손가락이 지문 입력부(110)에 닿는 순간의 지문부터 최종 지문 영역이 확정될 때까지 사용자의 지문을 촬영하여 지문을 프레임별 지문 영상으로 변환하여 영상 전처리부(120)로 전달한다.
영상 전처리부(120)는 지문 입력부(110)로부터 입력되는 프레임별 지문 영상을 영상 저장부(130)로 저장한다. 영상 전처리부(120)는 입력되는 프레임별 지문 영상을 이용하여 영상 변화를 분석하고, 영상 변화로부터 유효 지문 영상을 판별하며, 유효 지문 영상의 정보를 영상 저장부(130)에 저장한다. 유효 지문 영상은 프레임별 지문 영상 중에 헤일로가 발생하기 이전의 지문 영상이며 손가락 지문으로 인식되는 최초의 의미 있는(effective) 지문 영상을 나타낸다.
영상 후처리부(140)는 영상 저장부(130)에 저장된 유효 지문 영상의 정보를 이용하여 최종 지문 영상에서 최종 지문 영역을 확정한다. 영상 후처리부(140)는 최종 지문 영상에서 확정된 최종 지문 영역을 제외하고 나머지 헤일로나 잔여 지문과 같은 영상 영역을 제거하고, 헤일로나 잔여 지문이 제거된 지문 영역의 영상을 지문 취득부(150)로 전달한다.
지문 취득부(150)는 지문 영역의 영상의 출력한다.
이와 같이, 본 발명의 실시 예에 따른 지문 영상 취득 장치(100)는 다중 프레임의 지문 영상으로부터 추출된 정보를 이용하여 최종 지문 영상의 헤일로를 제거한다. 특히 지문 영상 취득 장치(100)는 다중 프레임들로부터 추출된 정보를 이용하여 헤일로가 발생되기 전의 유효 지문 영상을 결정하고, 유효 지문 영상과 최종 지문 영상을 이용하여 지문 영역을 정확하게 구분함으로써, 헤일로 내 잔여 지문이 지문으로 오인식되는 현상을 방지할 수 있다.
도 2는 헤일로가 발생한 지문 영상의 일 예를 나타낸 도면이다.
도 2에 도시한 바와 같이, 헤일로는 손과 지문이 입력되는 지문 영상 취득 장치(100)의 지문 입력부(110) 사이의 온도 및 습도 차이에 의해 발생한다.
손가락의 지문은 손가락이 지문 입력부(110)에 닿는 부분을 시작으로 점차 지문 영역이 확대되면서 최종 지문 영역이 확정되고, 최종 지문 영역이 확정되기 전에 지문 영역은 포화된 크기로 안정화된다. 따라서 지문 영역만을 정확하게 구분할 수 있다면 최종 지문 영상에서 지문 영역 이외의 부분을 쉽게 제거할 수 있다.
그런데 종래와 같이 최종 지문 영상을 후처리하는 방식은 헤일로 내 잔여 지문이 지문으로 인식될 수 있다.
헤일로는 손가락이 지문 입력부(110)에 닿는 순간 발생하는 것이 아니라, 손가락과 지문 입력부(110) 사이의 온도 차가 먼저 일어난 다음 손가락 주변의 습기가 지문 입력부(110)에 맺히는 순서에 의해 눈에 보인다. 이러한 헤일로의 발생 특성을 이용하면, 연속되는 프레임의 지문 영상으로부터 헤일로가 발생하지 않는 지문 영역의 영상을 획득할 수 있다. 따라서, 본 발명의 실시 예에 따른 지문 영상 취득 장치(100)는 헤일로의 발생 특성을 이용하여 연속되는 프레임의 지문 영상으로부터 헤일로가 발생하지 않은 유효 지문 영상을 획득하고, 이렇게 획득된 유효 지문 영상을 이용하여 지문 영역을 정확하게 구분한다.
도 3은 본 발명의 실시 예에 따른 지문 영상 취득 방법을 나타낸 흐름도이고, 도 4는 본 발명의 실시 예에 따른 유효 지문 영상을 결정하는 방법을 나타낸 흐름도이다.
도 3을 참고하면, 사용자가 지문 입력부(110) 위에 손을 올려 놓으면, 지문 입력부(110)는 사용자의 지문을 다중 프레임으로 촬영하고, 촬영된 다중 프레임의 지문을 프레임별 지문 영상으로 변환하고(S310), 프레임별 지문 영상을 영상 전처리부(120)로 전달한다.
영상 전처리부(120)는 지문 입력부(110)로부터 전달되는 프레임별 지문 영상을 영상 저장부(130)에 저장한다.
또한 영상 전처리부(120)는 프레임별 지문 영상을 분석하여 유효 지문 영상을 결정하고(S320~S330), 유효 지문 영상의 정보를 저장한다(S340).
구체적으로, 도 4를 참고하면, 영상 전처리부(120)는 픽셀 값이 감지되는 프레임의 지문 영상부터 지문 영역과 지문 영역의 방향을 분석한다.
도 5는 본 발명의 실시 예에 따른 블랍(blob)과 블랍군을 나타낸 일 예이다.
도 5를 보면, 영상 전처리부(120)는 픽셀 값이 감지되는 N 번째 프레임의 지문 영상부터 지문 영역에 해당하는 복수의 블랍(B1~B8)을 구분하고(S410), 복수의 블랍(B1~B8)의 방향을 추출한다(S420). 블랍(B1~B8)의 방향은 블랍(B1~B8)의 장축의 방향을 나타낸다.
블랍은 배경보다 어둡거나 밝은 부분으로 정의되는데, 본 발명의 실시 예에서는 배경보다 어두운 것으로 정의된다. 영상 전처리부(120)는 지문 영상으로부터 다양한 방법에 의해 블랍을 구분할 수 있다. 영상 전처리부(120)는 지문 영상으로부터 콘트라스트, 픽셀 편차, 주파수 맵(frequency map) 및 방향성 맵(directional map) 등의 측정 인자를 이용하여 해당 영역이 블랍인지를 구별할 수 있다. 예를 들면, 영상 전처리부(120)는 입력되는 지문 영상에서 설정 값 이상의 픽셀들로 이루어진 영역의 콘트라스트가 임계 값 이상이고, 해당 영역이 일정한 주파수 패턴을 가지며 그 크기가 임계 크기 이상인 경우에 해당 영역을 하나의 블랍으로 구분할 수 있다. 이외에도 블랍을 구분하는 다양한 방법이 있으며, 블랍을 구분하는 방법의 일 예가 한국등록특허 제1,211,920호 및 미국등록특허 제8,103,055호에 기재되어 있다.
영상 전처리부(120)는 블랍(B1~B8)의 방향을 토대로 블랍(B1~B8)을 블랍군(G1~G4)으로 구분하고(S430), 블랍군(G1~G4)의 방향(D1~D4)을 추출한다. 블랍군은 하나 이상의 블랍을 포함한다. 지문 영상에서 같은 방향을 가진 하나 이상의 블랍들이 하나의 손가락을 구성한다. 이때 설정된 오차 범위 내의 방향은 같은 방향인 것으로 판단될 수 있으며, 각 블랍군(G1~G4)이 각 손가락을 나타낸다.
예를 들면, 영상 전처리부(120)는 블랍(B1~B8)의 방향을 토대로 블랍(B1, B2)을 블랍군(G1)으로, 블랍(B3, B4)을 블랍군(G2)으로, 블랍(B5, B6)을 블랍군(G3)으로, 블랍(B7, B8)을 블랍군(G4)으로 구분할 수 있다.
영상 전처리부(120)는 블랍군(G1~G4)이 설정된 손가락의 개수만큼 존재하는지 확인한다(S440). 손가락의 개수는 사용자에 의해 설정될 수 있다.
영상 전처리부(120)는 블랍군(G1~G4)이 설정된 손가락의 개수만큼 존재하면, 해당 N번째 프레임의 지문 영상을 유효 지문 영상으로 결정하고(S450), 유효 지문 영상의 정보를 저장한다(S460). 유효 지문 영상의 정보는 블랍군의 정보를 포함하며, 블랍군의 정보는 각 블랍의 크기, 각 블랍의 방향, 블랍의 개수, 블랍군의 전체 방향 정보 등을 포함할 수 있다.
한편, 영상 전처리부(120)는 N 번째 프레임의 지문 영상의 블랍군(G1~G4)이 손가락의 개수만큼 존재하지 않으면, 다음 프레임인 (N+1) 프레임의 지문 영상에 대하여 블랍(B1~B8)을 구분하는 단계부터 시작하며, 이러한 동작은 유효 지문 영상이 결정될 때까지 반복된다.
도 6은 본 발명의 실시 예에 따른 프레임별 지문 영상의 일 예를 나타낸 도면이다.
영상 전처리부(120)는 지문 입력부(110)로부터 도 6에 도시한 바와 같이 프레임별 지문 영상을 전달 받으면, 각 프레임별 지문 영상에 대하여 블랍을 구분하고, 블랍군을 구분하여 유효 지문 영상인지 판단한다.
도 6을 보면, 헤일로는 25번째 프레임에 도달할 때까지 발생하지 않다가 그 이후에 발생하는 것을 알 수 있다.
영상 전처리부(120)는 콘트라스트, 픽셀 편차, 주파수 맵 및 방향성 맵 등의 측정 값을 통해서 헤일로가 발생하기 전 프레임 #12의 지문 영상을 유효 지문 영상으로 결정할 수 있다.
다시 도 3을 보면, 영상 전처리부(120)에서 유효 지문 영상이 획득하고 나서 최종 지문 영상이 획득되고 나면(S350), 영상 후처리부(140)는 최종 지문 영상으로부터 블랍을 구분하고(S360), 블랍의 방향을 추출한다.
영상 후처리부(140)는 최종 지문 영상으로부터 구분된 블랍과 블랍의 방향을 토대로 영상 저장부(130)에 저장된 유효 지문 영상의 블랍군의 정보에 새로 추가할 블랍이 있는지 확인하고, 추가할 블랍이 있다면 추가할 블랍을 해당 블랍군에 추가하여 블랍군을 갱신한다(S370).
영상 후처리부(140)는 최종 지문 영상을 이용하여 갱신된 블랍군(G1~G4)의 정보를 토대로 하여 최종 지문 영상으로부터 최종 지문 영역을 결정하고(S380), 최종 지문 영상으로부터 최종 지문 영역을 제외한 나머지 영역의 영상을 제거한다(S390). 영상 후처리부(140)는 최종 지문 영역은 최종 지문 영상으로부터 구분된 블랍 중 갱신된 블랍군(G1~G4)에 속한 블랍을 포함하는 블랍을 최종 지문 영역으로 결정될 수 있다.
도 7은 본 발명의 실시 예에 따른 최종 지문 영상으로부터 구분된 블랍의 일 예를 나타낸 도면이고, 도 8은 본 발명의 실시 예에 따른 최종 지문 영역을 나타낸 일 예이다.
예를 들어, 최종 지문 영상이 도 6에 도시된 프레임 #112의 지문 영상이라고 가정한다. 도 7을 보면, 영상 후처리부(140)는 프레임 #112의 최종 지문 영상으로부터 블랍(B1'~B10')을 구분하고(S360), 블랍(B1'~B10')의 방향을 추출한다.
최종 지문 영상으로부터 구분된 블랍(B1'~B10')을 보면, 블랍(B1'~B8')은 프레임 #12의 유효 지문 영상으로부터 구분된 블랍(B1~B8)에서 확장된 블랍이며, 블랍(B9', B10')은 프레임 #12의 유효 지문 영상으로부터 구분된 블랍(B1~B8)에 없던 블랍인 것을 알 수 있다. 즉, 확장된 블랍(B1'~B8') 각각은 해당하는 블랍(B1~B8)에 연속되면서 해당 블랍(B1~B8)을 포함하는 영역이다. 이때 헤일로 내 잔여 지문은 블랍(B1~B8)에 연속되지 않는 영역이므로, 헤일로의 잔여 지문이 포함되지 않은 영역이 확장된 블랍(B1'~B8')으로 구분될 수 있다.
영상 후처리부(140)는 블랍(B1'~B10')과 블랍(B1'~B10')의 방향을 토대로 영상 저장부(130)에 저장된 유효 지문 영상의 블랍군(G1~G4)에 새로 추가할 블랍이 있는지 확인한다. 이때 블랍(B9', B10')이 블랍군(G2, G3)에 없던 블랍이며, 블랍(B9', B10')의 방향을 토대로 볼 때 블랍군(G2, G3)으로 구분되므로, 영상 후처리부(140)는 블랍(B9', B10')을 블랍군(G1~G4)에 새로 추가할 블랍으로 결정하고, 추가할 블랍(B9', B10')을 해당 블랍군(G2, G3)에 추가함으로써, 블랍군(G1~G4)을 갱신한다.
영상 후처리부(140)는 최종 지문 영상으로부터 갱신된 블랍군(G1~G4)의 정보를 토대로 하여 최종 지문 영상의 블랍(B1'~B10') 중 갱신된 블랍군(G1~G4)의 블랍(B1~B8, B9', B10')을 포함하는 블랍(B1'~B10')을 최종 지문 영역을 결정하고, 최종 지문 영상으로부터 최종 지문 영역을 제외한 나머지 영역의 영상을 제거한다.
도 8에서는 실제 지문 영역에 해당하는 블랍(B1'~B10')만을 도시하였지만, 최종 지문 영상으로부터 블랍을 구분하면, 최종 지문 영상에 발생한 헤일로 내 잔여 지문이 블랍으로 구분될 수도 있다. 이때 갱신된 블랍군의 블랍 정보를 이용하여 최종 지문 영역을 결정하면, 최종 지문 영상에 발생한 헤일로 내 잔여 지문에 해당하는 블랍은 최종 지문 영역으로 결정되지 않게 된다. 그러면, 최종 지문 영상에 발생한 헤일로 내 잔여 지문에 해당하는 블랍은 제거되고, 도 8과 같은 최종 지문 영역만 남겨진 지문 영상이 획득될 수 있다.
이와 같이 본 발명의 실시 예에 따른 지문 영상 획득 장치(100)는 헤일로가 발생하기 전의 유효 지문 영상의 정보를 저장하고, 최종 지문 영상이 획득되고 나면 유효 지문 영상의 정보를 이용하여 최종 지문 영상에서 최종 지문 영역을 확정함으로써, 헤일로 내 잔여 지문이 지문으로 인식되는 현상을 방지할 수 있다.
이상에서 설명한 본 발명의 실시 예에 따른 지문 영상 취득 장치 및 방법 중 적어도 일부 기능은 하드웨어로 구현되거나 하드웨어에 결합된 소프트웨어로 구현될 수 있다. 아래에서는 지문 영상 취득 장치 및 방법이 컴퓨터 시스템에 결합된 실시 예에 대해서 도 9를 참고로 하여 상세하게 설명한다.
도 9는 본 발명의 다른 실시 예에 따른 지문 영상 취득 장치의 개략적인 도면으로, 도 1 내지 도 8을 참고하여 설명한 지문 입력부(110), 영상 전처리부(120), 영상 저장부(130), 영상 후처리부(140) 및 지문 취득부(150)의 기능 중 적어도 일부를 수행하는 데 사용할 수 있는 시스템을 나타낸다.
도 9를 참고하면, 지문 영상 취득 장치(900)는 프로세서(910), 메모리(920), 적어도 저장 장치(930), 입출력(input/output, I/O) 인터페이스(940) 및 네트워크 인터페이스(950)를 포함한다.
프로세서(910)는 중앙 처리 유닛(central processing unit, CPU)이나 기타 칩셋, 마이크로프로세서 등으로 구현될 수 있으며, 메모리(920)는 동적 랜덤 액세스 메모리(dynamic random access memory, DRAM), 램버스 DRAM(rambus DRAM, RDRAM), 동기식 DRAM(synchronous DRAM, SDRAM), 정적 RAM(static RAM, SRAM) 등의 RAM과 같은 매체로 구현될 수 있다. 저장 장치(930)는 하드 디스크 (hard disk), CD-ROM(compact disk read only memory), CD-RW(CD rewritable), DVD-ROM(digital video disk ROM), DVD-RAM, DVD-RW 디스크, 블루레이(blu-ray) 디스크 등의 광학 디스크, 플래시 메모리, 다양한 형태의 RAM과 같은 영구 또는 휘발성 저장 장치로 구현될 수 있다. 또한 I/O 인터페이스(940)는 프로세서(910) 및/또는 메모리(920)가 저장 장치(930)에 접근할 수 있도록 하며, 네트워크 인터페이스(950)는 프로세서(910) 및/또는 메모리(920)가 네트워크에 접근할 수 있도록 한다.
이 경우, 프로세서(910)는 지문 입력부(110), 영상 전처리부(120), 영상 후처리부(140) 및 지문 취득부(150)의 기능의 적어도 일부 기능을 구현하기 위한 프로그램 명령을 메모리(920)에 로드하고 영상 저장부(130)의 기능을 저장 장치(930)에 위치시켜, 도 1 내지 도 8을 참고로 하여 설명한 동작이 수행되도록 제어할 수 있다. 그리고 프로그램 명령은 저장 장치(930)에 저장되어 있을 수 있으며, 또는 네트워크로 연결되어 있는 다른 시스템에 저장되어 있을 수 있다.
도 9에 도시한 프로세서(910), 메모리(920), 저장 장치(930), I/O 인터페이스(940) 및 네트워크 인터페이스(950)는 하나의 컴퓨터에 구현될 수도 있으며 또는 복수의 컴퓨터에 분산되어 구현될 수도 있다.
본 발명의 실시 예는 이상에서 설명한 장치 및/또는 방법을 통해서만 구현되는 것은 아니며, 본 발명의 실시 예의 구성에 대응하는 기능을 실현하는 프로그램 또는 그 프로그램이 기록된 기록 매체를 통해 구현될 수도 있으며, 이러한 구현은 앞서 설명한 실시 예의 기재로부터 본 발명이 속하는 기술 분야의 전문가라면 쉽게 구현할 수 있는 것이다.
이상에서 본 발명의 실시 예에 대하여 상세하게 설명하였지만 본 발명의 권리 범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리 범위에 속하는 것이다.

Claims (16)

  1. 지문의 영상을 취득하는 장치로서,
    사용자의 지문을 다중 프레임으로 촬영하고, 촬영된 다중 프레임의 지문을 프레임별 지문 영상으로 변환하는 영상 입력부,
    상기 프레임별 지문 영상의 지문 영역과 방향성 정보를 추출하고, 상기 프레임별 지문 영상의 지문 영역과 방향성 정보로부터 유효 지문 영상을 결정하는 영상 전처리부, 그리고
    상기 프레임별 지문 영상 중 마지막 프레임의 최종 지문 영상과 상기 유효 지문 영상을 이용하여 지문 영역을 확정하고, 상기 최종 지문 영상에서 상기 지문 영역을 제외한 나머지 영역의 영상을 제거하는 영상 후처리부
    를 포함하며,
    상기 영상 전처리부는 상기 프레임별 지문 영상 중 설정된 손가락의 개수만큼 지문 영역으로 인식되는 최초의 지문 영상을 상기 유효 지문 영상으로 결정하는 지문 영상 취득 장치.
  2. 삭제
  3. 제1항에서,
    상기 영상 전처리부는 각 프레임의 지문 영상을 블랍으로 구분하고, 구분된 블랍을 각 손가락에 해당하는 블랍군으로 구분하며, 상기 블랍군의 개수가 상기 설정된 손가락의 개수와 일치하면 해당 지문 영상을 상기 유효 지문 영상으로 결정하는 지문 영상 취득 장치.
  4. 제3항에서,
    상기 블랍은 상기 지문 영상에서 설정된 조건을 만족하는 영역인 지문 영상 취득 장치.
  5. 제4항에서,
    상기 설정된 조건은 콘스라스트 조건, 픽셀 편차 조건, 주파수 맵(frequency map) 조건 및 방향성 맵(directional map) 조건 중 적어도 하나를 포함하는 지문 영상 취득 장치.
  6. 제3항에서,
    상기 영상 후처리부는 상기 최종 지문 영상을 블랍으로 구분하고, 상기 최종 지문 영상으로부터 구분된 블랍과 상기 유효 지문 영상으로부터 구분된 블랍을 이용하여 상기 지문 영역을 확정하는 지문 영상 취득 장치.
  7. 제6항에서,
    상기 영상 후처리부는 상기 최종 지문 영상으로부터 구분된 블랍 중 상기 블랍군에 추가할 블랍을 결정하고, 상기 추가할 블랍을 상기 블랍군에 추가하여 상기 블랍군을 갱신하며, 상기 갱신한 블랍군의 블랍을 토대로 상기 최종 지문 영상의 블랍으로부터 상기 지문 영역을 확정하는 지문 영상 취득 장치.
  8. 제7항에서,
    상기 영상 후처리부는 상기 최종 지문 영상의 블랍 중 상기 갱신한 블랍의 영역을 포함하는 블랍을 상기 최종 지문 영상으로 결정하는 지문 영상 취득 장치.
  9. 지문 영상 취득 장치가 지문을 취득하는 방법으로서,
    사용자의 지문을 다중 프레임으로 촬영하는 단계,
    촬영된 다중 프레임의 지문을 프레임별 지문 영상으로 변환하는 단계,
    상기 프레임별 지문 영상 중 설정된 손가락의 개수만큼 지문 영역으로 인식되는 최초의 지문 영상을 유효 지문 영상으로 결정하는 단계,
    상기 프레임별 지문 영상 중 마지막 프레임의 최종 지문 영상으로부터 지문 영역을 추출하는 단계,
    상기 유효 지문 영상의 지문 영역과 상기 최종 지문 영상의 지문 영역을 이용하여 최종 지문 영역을 확정하는 단계, 그리고
    상기 최종 지문 영상에서 상기 최종 지문 영역을 제외한 나머지 영역의 영상을 제거하는 단계
    를 포함하는 지문 영상 취득 방법.
  10. 제9항에서,
    상기 결정하는 단계는
    각 프레임의 지문 영상을 블랍으로 구분하는 단계,
    구분된 블랍을 각 손가락에 해당하는 블랍군으로 구분하는 단계, 그리고
    상기 블랍군의 개수가 상기 설정된 손가락의 개수와 일치하는지 판단하는 단계를 포함하고,
    상기 블랍군의 개수가 상기 설정된 손가락의 개수와 일치하는 프레임의 지문 영상이 상기 유효 지문 영상으로 결정되는 지문 영상 취득 방법.
  11. 제10항에서,
    상기 블랍으로 구분하는 단계는 상기 지문 영상에서 설정된 조건을 만족하는 영역을 상기 블랍으로 결정하는 단계를 포함하는 지문 영상 취득 방법.
  12. 제11항에서,
    상기 설정된 조건은 콘스라스트 조건, 픽셀 편차 조건, 주파수 맵(frequency map) 조건 및 방향성 맵(directional map) 조건 중 적어도 하나를 포함하는 지문 영상 취득 방법.
  13. 제10항에서,
    상기 블랍으로 결정하는 단계는 픽셀 값이 존재하는 프레임의 지문 영상부터 상기 유효 지문 영상이 결정될 때까지 순차적으로 상기 블랍을 구분하는 단계, 상기 블랍군을 구분하는 단계 및 상기 판단하는 단계를 반복하는 단계를 더 포함하는 지문 영상 취득 방법.
  14. 제10항에서,
    상기 추출하는 단계는 상기 최종 지문 영상을 블랍으로 구분하는 단계를 포함하며,
    상기 확정하는 단계는 상기 최종 지문 영상으로부터 구분된 블랍과 상기 유효 지문 영상으로부터 구분된 블랍을 이용하여 상기 최종 지문 영역을 결정하는 단계를 포함하는 지문 영상 취득 방법.
  15. 제14항에서,
    상기 최종 지문 영역을 결정하는 단계는
    상기 최종 지문 영상의 블랍을 토대로 상기 블랍군의 블랍을 갱신하는 단계, 그리고
    상기 최종 지문 영상의 블랍 중에서 상기 갱신한 블랍의 영역을 포함하는 블랍을 상기 최종 지문 영역으로 결정하는 단계를 포함하는 지문 영상 취득 방법.
  16. 제15항에서,
    상기 갱신하는 단계는
    상기 최종 지문 영상으로부터 구분된 블랍의 방향을 토대로 상기 최종 지문 영상으로부터 구분된 블랍 중 상기 블랍군에 추가할 블랍을 결정하는 단계, 그리고
    상기 추가할 블랍을 상기 블랍군에 추가하는 단계를 포함하는 지문 영상 취득 방법.
KR1020130054564A 2013-05-14 2013-05-14 지문 영상 취득 장치 및 방법 KR101460964B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130054564A KR101460964B1 (ko) 2013-05-14 2013-05-14 지문 영상 취득 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130054564A KR101460964B1 (ko) 2013-05-14 2013-05-14 지문 영상 취득 장치 및 방법

Publications (1)

Publication Number Publication Date
KR101460964B1 true KR101460964B1 (ko) 2014-11-12

Family

ID=52287802

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130054564A KR101460964B1 (ko) 2013-05-14 2013-05-14 지문 영상 취득 장치 및 방법

Country Status (1)

Country Link
KR (1) KR101460964B1 (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101676000B1 (ko) * 2015-06-18 2016-11-14 주식회사 유니온커뮤니티 은행, 통신사 또는 보험사와 개인 사이에서 생성된 디지털 문서 내의 지문 감지 및 보안처리 방법
US10049258B2 (en) 2015-06-11 2018-08-14 Samsung Electronics Co., Ltd. Method of preprocessing image including biological information
US10248835B2 (en) 2016-01-05 2019-04-02 Samsung Electronics Co., Ltd. Methods and apparatuses for authentication using biometric information
CN109583420A (zh) * 2018-12-14 2019-04-05 京东方科技集团股份有限公司 指纹识别装置的驱动方法及设备
WO2021125422A1 (ko) * 2019-12-19 2021-06-24 서울대학교산학협력단 지문 추출 장치 및 방법
US11321564B2 (en) 2019-01-30 2022-05-03 Samsung Electronics Co., Ltd. Method and apparatus for processing image, and service robot

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101211920B1 (ko) * 2011-09-26 2012-12-13 주식회사 슈프리마 지문인식장치 및 지문인식장치의 실시간 헤일로 제거방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101211920B1 (ko) * 2011-09-26 2012-12-13 주식회사 슈프리마 지문인식장치 및 지문인식장치의 실시간 헤일로 제거방법

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10049258B2 (en) 2015-06-11 2018-08-14 Samsung Electronics Co., Ltd. Method of preprocessing image including biological information
US10963668B2 (en) 2015-06-11 2021-03-30 Samsung Electronics Co., Ltd. Method of preprocessing image including biological information
KR101676000B1 (ko) * 2015-06-18 2016-11-14 주식회사 유니온커뮤니티 은행, 통신사 또는 보험사와 개인 사이에서 생성된 디지털 문서 내의 지문 감지 및 보안처리 방법
US10248835B2 (en) 2016-01-05 2019-04-02 Samsung Electronics Co., Ltd. Methods and apparatuses for authentication using biometric information
CN109583420A (zh) * 2018-12-14 2019-04-05 京东方科技集团股份有限公司 指纹识别装置的驱动方法及设备
US11288485B2 (en) 2018-12-14 2022-03-29 Boe Technology Group Co., Ltd. Driving method and an apparatus for a fingerprint recognition device
US11321564B2 (en) 2019-01-30 2022-05-03 Samsung Electronics Co., Ltd. Method and apparatus for processing image, and service robot
WO2021125422A1 (ko) * 2019-12-19 2021-06-24 서울대학교산학협력단 지문 추출 장치 및 방법
US11816922B2 (en) 2019-12-19 2023-11-14 Seoul National University R&Db Foundation Fingerprint extraction apparatus and method

Similar Documents

Publication Publication Date Title
KR101460964B1 (ko) 지문 영상 취득 장치 및 방법
CN106254933B (zh) 字幕提取方法及装置
EP3189469B1 (en) A method for selecting frames from video sequences based on incremental improvement
KR102233175B1 (ko) 특징배우 결정 및 특징배우 출연확률 기반 영상 식별 방법 및 장치
US20160379088A1 (en) Apparatus and method for creating an image recognizing program having high positional recognition accuracy
CN112738640B (zh) 一种视频流的字幕的确定方法、装置及可读存储介质
KR20160033800A (ko) 카운팅 방법 및 카운팅 장치
CN105095853A (zh) 图像处理装置及图像处理方法
JP2016505185A (ja) エッジ選択機能を有するイメージプロセッサ
CN112508910A (zh) 用于多分类缺陷检测的缺陷提取方法及装置
KR101421952B1 (ko) 얼굴 인식 장치 및 방법
KR101833943B1 (ko) 동영상의 주요 장면을 추출 및 탐색하는 방법 및 시스템
JP6172332B2 (ja) 情報処理方法及び情報処理装置
KR101982258B1 (ko) 오브젝트 검출 방법 및 오브젝트 검출 장치
JP5984880B2 (ja) 画像処理装置
US20210044864A1 (en) Method and apparatus for identifying video content based on biometric features of characters
JP4685711B2 (ja) 画像処理方法及び装置及びプログラム
CN109447000B (zh) 活体检测方法、污渍检测方法、电子设备及记录介质
WO2017113735A1 (zh) 一种视频格式区分方法及系统
CN108154521B (zh) 一种基于目标块融合的运动目标检测方法
KR102435957B1 (ko) 다양한 샘플을 이용하여 개선한 확률기반 사물검출기
US20200387715A1 (en) Information processing apparatus, method for information processing, and storage medium
CN109389089B (zh) 基于人工智能算法的多人行为识别方法及装置
JP5843618B2 (ja) 画像処理装置、その制御方法、及びプログラム
JP7452628B2 (ja) 判定装置、方法及びプログラム

Legal Events

Date Code Title Description
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20171025

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20181031

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190924

Year of fee payment: 6