KR20140037777A - 지문 스캐너를 기반으로 하여 신뢰할만한 높은 품질로 지문을 촬상하기 위한 방법 및 장치 - Google Patents

지문 스캐너를 기반으로 하여 신뢰할만한 높은 품질로 지문을 촬상하기 위한 방법 및 장치 Download PDF

Info

Publication number
KR20140037777A
KR20140037777A KR1020130111692A KR20130111692A KR20140037777A KR 20140037777 A KR20140037777 A KR 20140037777A KR 1020130111692 A KR1020130111692 A KR 1020130111692A KR 20130111692 A KR20130111692 A KR 20130111692A KR 20140037777 A KR20140037777 A KR 20140037777A
Authority
KR
South Korea
Prior art keywords
finger
fingerprint
imaging
imaging surface
image
Prior art date
Application number
KR1020130111692A
Other languages
English (en)
Other versions
KR102072773B1 (ko
Inventor
울퍼 로베르토
바우어마이스터 안드레아스
Original Assignee
크로스 매치 테크놀로지스 게엠베하
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 크로스 매치 테크놀로지스 게엠베하 filed Critical 크로스 매치 테크놀로지스 게엠베하
Publication of KR20140037777A publication Critical patent/KR20140037777A/ko
Application granted granted Critical
Publication of KR102072773B1 publication Critical patent/KR102072773B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/993Evaluation of the quality of the acquired pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/60Static or dynamic means for assisting the user to position a body part for biometric acquisition
    • G06V40/67Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Human Computer Interaction (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Image Input (AREA)
  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

본 발명은 지문 스캐너(5)를 기반으로 한 지문(13)의 촬상을 신뢰할만한 높은 품질로 하기 위한 방법 및 장치에 관한 것이다.
본 발명의 과제는 충분히 높은 품질로 지문(13)의 촬상을 위한 새로운 가능성을 찾는 것으로, 이때 촬상 공정에 대한 이해 가능한 피드백이 실시간으로 이루어져, 사용자는 능동적 안내 없이도 손가락 올려놓기에 있어 필요한 보정을 수행할 수 있으며, 본 발명에 따르면, 촬상 유닛(1) 이후에 영상 처리 유닛(2)이 배치되고, 촬상 유닛(1)에는 2차원 표시 유닛(4)이 부속하고, 2차원 표시 유닛은 영상 처리 유닛(2)에서 분석된 지문(13)의 결과에 따라, 애니메이션으로 된 다수의 손가락 위치 영상으로 이루어진 라이브러리를 포함한 영상 메모리로부터, 촬상면(11)위에 놓인 손가락의 포지티브한 실시간 표현물을, 간단한 사용자 가이드를 위해 표시한다.

Description

지문 스캐너를 기반으로 하여 신뢰할만한 높은 품질로 지문을 촬상하기 위한 방법 및 장치{METHOD AND APPARTUS FOR RECORDING FINGERPRINT HAVING HIGHLY RELIABLE QUALITY BASED ON FINGERPRINT SCANNER}
본 발명은 지문 스캐너를 기반으로 하여 신뢰할만한 높은 품질로 지문을 촬상하기 위한 방법 및 장치에 관한 것으로, 특히 숙련된 조작 요원이 없는 민간 환경에서 지문 스캐너를 기반으로 하여 신뢰할만한 높은 품질로 지문을 촬상하기 위한 방법 및 장치에 관한 것이다.
과거에 지문은 전통적으로 검찰, 경찰 공무원 및 형 집행 공무원과 같은 국가 집행 기관에서 범죄 용의자의 등록-, 신원확인- 및 증거 목적으로 사용되었다. 근래 들어 민간 응용 분야로는 국경 관리 및 유권자 신원확인을 들 수 있다. 범죄의 경우에 여전히 지문의 촬상은 교육을 잘 받고 경험이 있는 보안 공무원을 동반하여 수행되는 반면, 민간 분야에서는 대부분 지문의 촬상 및 평가 시 전문가가 출석해 있지 않다. 민간적 목적으로 지문은 대사관, 영사관 및 촬상 장치의 조작자와 지문을 촬상해야 할 사람간의 물리적 접촉을 허용하지 않는 공항의 특정 구역과 같이 고도 보안 구역에서 촬상되는 경우가 자주 있다. 그러므로 촬상 장비의 조작 요원이 직접 그 자리에 있지 않은 상태에서 지문을 촬상할 때는 안내가 필요하다.
이러한 의미에서의 손가락 촬상 공정을 간단하게 하고 이후의 지문 품질 평가를 객관화하고, 즉 주관적인 시각적 평가를 하지 않기 위해, 피드백 부재가 장착된 지문 스캐너가 증가 추세에 있다. 이러한 피드백 부재에 대한 예시로서, (예컨대 호출기(pager), 스피커를 통한) 음향적 신호 출력, 픽토그램과 같은 시각적 표시물, 단색이나 다색의 LED 또는 위치 관련 디스플레이가 있다. 이와 같이 장착된 지문 스캐너 또는 손 스캐너에 대한 예시로서, Guardian(제조사: Cross Match Technologies), RealScan G10(Suprema), CS 500e(Cogent) 또는 Morpho Top (Morpho)와 같은 장비가 있다. 그러나 이러한 모든 장비는, 지문을 제공해야 할 사람이 장치 조작자에 의해 안내를 받거나 이미 지문 스캐너 경험이 있어서 손가락을 놓는 방식 및 방법이 이미 정확하고 개별적 지문의 질적인 결과만이 표시되며 경우에 따라서 개선을 필요로 하는 것을 전제로 한다. 따라서 다색의 LED 표시화면은 지문의 영상 품질이 충분히 양호한가의 여부를 재현해줄 수는 있으나, 이러한 LED 표시화면은 지문의 충분한 품질을 얻기 위해 어떤 조건을 변경해야 하는가에 대해서는 전혀 도움을 줄 수 없다. 또한 어디서 어떻게 어떤 손가락을 장치의 촬상면에 놓아야 할지에 대해서도 알려줄 수 없다. 지문 품질을 보여주기 위한 피드백 부재는 예컨대 US 7277562 B2에 개시되고, 이때 표시 부재는 제어 소프트 웨어의 평가 유닛에 의해 작동된다. 그 외에 사용자의 특정한 응용의 경우에 사용자의 행위가 분석되고 결과가 표시되더라도, 이러한 표시 부재는 사용자에게 간단히 이해할 수 있는 안내를 제공하기에는 충분하지 않다.
2007년에 미국 국립표준 기술 연구소(National Institute of Standards and Technology; 미국 상무성 소속 기관)에서 실시한 사용자 가이드 연구는, 지문 촬상 공정 시 깜박이는 LED는 도움이 되지 않고 더욱이 일부 경우엔 사용자를 혼란스럽게 하며 촬상 공정의 지연을 야기한다는 것을 증명하였다(Theofanos 외, NISTIR 7403, 2007). 또한, 비디오 애니메이션은 특히 숙련되지 않은 사용자에게 사용자 가이드를 위해 가장 적합할 수 있는 것으로 분석되었다. 그러나 보안상의 이유 및 공간적 제한으로 인하여, 이러한 비디오 설명을 표시할 수 있을 모니터는 손가락 촬상 지점에 설치될 수 없는 경우가 자주 있다. 한편 설명 비디오가 표시될 수 있다고 하더라도, 사용자는 손가락을 정확하게 놓기 위해 지문 스캐너에 집중함과 동시에 비디오 정보를 위해 모니터에도 집중해야 할 것이다. 그러나 이러한 비디오 설명은 실제 촬상 공정과 직접 연결되지 않는 경우가 많으며, 대부분은 지문 촬상의 충족도에 대해 사용자에게 실시간 피드백을 주지 않은 채 반복 실행된다.
오늘날 지문 스캐너 또는 손 스캐너에서의 로컬 디스플레이는 사용자가 손가락 촬상 공정에 대한 안내를 얻도록 하는데 도움이 된다. 그러나 이러한 디스플레이는 스캔이 된 지문을 규정에 따라 감지하기 위한 운영자에게만 회신을 하고, 지문이 촬성되는 사람에게는 회신을 하지 않는다. 이러한 로컬 디스플레이를 포함하는 손 스캐너에 대한 예시로서 예컨대 L SCAN 500P(제조사: Cross Match Technologies), RealScan F (Suprema), MultiScan 1000 (Green Bit) 또는 LS 1100 (Secure Outcome)이 있다. 이러한 로컬 디스플레이의 피드백 정보는 지문의 라이브 영상(live-images)으로, 이는 지문이 촬상되었을 때 실시간으로 표시된다. 그러나 이러한 피드백 정보는 질적으로 불충분한 지문을 어떻게 개선할 수 있는가에 대하여 사용자에게 알려주지 않는다. 또한 숙련되지 않은 사용자는 결코, 평가 가능한 지문을 위해 손가락을 어떻게 놓아야 하는지와 표시된 지문이 언제 양호하거나 완벽한가에 대하여 알 수가 없다. 경험이 있는 지문 전문가만이 이를 판단할 수 있다. 촬상된 지문의 라이브 영상은 제어용으로 지문 스캐너와 결합되어 있는 컴퓨터의 스크린에 표시될 수 있긴 하다. 그러나 이러한 스크린은 지문이 촬상된 사람에게는 대부분 보이지 않거나 보인다고 하더라도 숙련되지 않은 사용자에게 지문의 위치와 품질에 대해서 이해 가능한 회신을 제공하지 않는다.
소추(prosecution)를 위해 역할하지 않는 응용분야, 즉 일반적으로 공무원 또는 조작자가 물리적으로 지문 촬상을 실시하거나 설명하지 않는 분야에서 현재의 지문 촬상 공정에서는 숙련되지 않은 사람에게 지문을 촬상하는 것을 허용할 3개의 본질적인 정보가 부족하다:
a) 손가락의 정확한 포지셔닝,
b) 지문 촬상 중에 손가락을 가만히 둘 필요성 및
c) 촬상면위에 손가락을 대고 누를 때의 정확한 압력.
포지셔닝:
촬상면 위에서 손가락의 올바른 위치는 최종적인 지문 영상에서 모든 지문이 완전히 보일 수 있도록 보장하기 위해 중요하다. 지문은 잘려 있거나 또는 서로 겹치지 않도록 해야 한다. 많은 경우에 손가락(i)을 서로 너무 붙여서 위치시키거나, (ii) 촬상면의 가장자리를 벗어나 뻗거나 (iii) 촬상면의 중앙에 놓지 않아서, 지문이 온전히 촬상되지 않는다. 오늘날의 지문 스캐너는 이와 같은 잘못된 손가락 포지셔닝에 대해 회신을 주지 않고, 소프트웨어에 의해 발생하는 표시된 지문영상과 화살표의 중첩은 분명하지 않거나 지문 촬상 공정에 대한 최소의 지식 이상을 요구한다. 이러한 이해는 민간 응용분야에서 지문이 촬상될 사람에게는 전제되어 있지 않다.
손가락을 가만히 두기:
소위 지문 스캐너를 포함한 장치에 의해 지문을 촬상하기 위해 필요한 시간은 지난 수년간 빠른 이미지 센서에 의해 현저히 줄어들었으나, 여전히 4개의 손가락을 한번에 촬상하기 전에는 1 내지 3초의 시간이 걸린다. 이 시간 동안 손가락을 움직이는 것은 허용되지 않는데, 그렇지 않으면 지문의 세부특징(minutiae)이 위조된다. 한편 현재 사용자가 이러한 오류 원인을 충분히 인식하게 하는 수단은 지문 스캐너에 제공되어 있지 않다.
손가락의 올바른 가압력:
지문을 연구하고 비교하고 검사하기 위한 중요한 전제 중 하나는 충분한 명암대비(contrast)이다. 지문의 명암대비는 피부 체질(습성/건성, 연약/뻣뻣함, 어린/노화) 및 촬상면 위에 손가락을 누를 때의 압력에 따라 다르다. 숙달된 집행 공무원이라고 하더라도, 소위 라이브스캐너(FBI- 또는 NIST-기준)를 이용하여 촬상되고 컴퓨터 스크린위에 표시된 지문 영상의 영상 품질을 시각적 감정에 의해 평가하기가 쉽지 않다. 그러므로 대부분의 경우에 지문 촬상 이후의 단계에서 소프트웨어 알고리즘에 의해 영상 품질이 분석된다. 이러한 알고리즘을 위한 예는 영상 품질을 평가하기 위해 미국 국립표준 기술 연구소(NIST)에서 개발한 NFIQ(NIST Fingerprint Image Quality)이다. NFIQ 알고리즘은 자동화된 지문 비교 시스템(AFIS-Automated Fingerprint Identification System)에서 다른 지문과 충분히 양호하게 비교 가능한가의 확률에 의거하여 지문을 판단한다. 이때 5개의 단계 구분되는데, NFIQ 단계 1은 가장 불량한 영상 품질을 나타내며 단계 5는 가장 양호한 영상 품질을 나타낸다. 민간 분야에서의 조작자 및 특히 지문을 촬상해야 할 사람에게는, 영상 품질을 평가하기 위한 라이브스캐너 지문의 시각적 평가가 완전히 불가능하다.
정부 당국의 신원확인 관리 시스템(경찰서, 비자, 신분확인, 유권자 등록 등)에서 사용되고 가급적 숙련된 사람에 의해 조작되는 소위 "라이브스캐너" (또는 영문으로 "live scan devices")에 있어서, 감지해야 할 손가락 종류(검지, 중지, 약지, 소지, 엄지), 그 수(손가락 1개, 2개의 손가락 모두, 4개의 손가락 모두), 각인 방식(평평하게, 굴려서), 감지 포맷(예컨대 41 x 39 mm, 80 x 75 mm), 영상 해상도(500 ppi 또는 1000 ppi) 및 이러한 영상의 품질 파라미터(SNR, 선형성, 기하학적 왜곡, 계조 균일도, MTF)와 관련하여 존재하는 매우 다양한 요건은 매우 높게 설정되고, 공식적인 허용 절차(미국:FBI, 독일:BSI, 인도: STQC, 일본: NPA)의 규정에 맞는가를 증명해야 한다. 그러나 이러한 시스템에서조차도, 민간 응용분야(예컨대 관광교통, 비자 발급 등)를 위한 기타 상업화의 흐름에서 본 발명을 적용하는 것이 필요하며, 그 외에도 어떤 지문이 충분히 양호한 품질로서 허용되는가라는 평가가 더욱 객관화된다. 기본적으로, 지문의 충분히 높은 품질은, 수백만의 등록물을 가진 데이터베이스에서 자동화 방법으로 매우 높은 확률로 실제로 해당하는 사람만이 산출될 때 존재한다. 이러한 "뛰어난 품질"에 대하여, FBI 및 NIST와 같은 기관에 의해 기술적인 파라미터가 추론되었으며, 이는 오늘날 고품질 지문-판독 장치를 위한 허용 전제조건이다. 그럼에도불구하고, 하나의 지문을 연결된 데이터베이스(수 개의 등록물을 포함, 그리고 미인증된 장비의 사용 시)로부터 실제로 한 사람에게 귀속하는 것은, 지문 촬상의 충분히 높은 품질에 대한 기준이며, 앞의 파라미터를 적어도 하나의 간이 검정으로 검사하여 지문의 세부특징이 완전히 그리고 가급적 위조 없이 감지되도록 지문이 촬상되었는가를 역추론을 통해 도출하는 검사를 위한 기준이다.
질적으로 고품질의 지문 영상을 반복적으로 감지하기 위한 지문 촬상 개선 처리 방법은 예컨대 특허 US 7319565 B2, US 5416573 A에 기술되어 있다. 촬상 공정 동안 및 그 이전에 명암대비를 적절하게 조절하기 위한 가장 간단한 방법은 가압력의 변경이다. 다른 한편으로, 대부분의 경우에 명암대비 문제는 바로, 손가락을 너무 강하게 또는 너무 약하게 눌러서 발생한다. 너무 심한 압력은 매우 어두운 영상을 야기하고, 지문에서 피부의 융기부와 함몰부의 분리가 더 이상 가능하지 않다. 반면 압력이 너무 약하면 영상 명암대비가 낮고, 피부 주름의 융기부를 확인할 수 없거나 부분적으로만 확인할 수 있다. 간단한 압력 센서를 사용하더라도 이 문제가 만족스럽게 해결되지 않는데, 왜냐하면 - 앞에 언급한 바와 같이 - 명암대비는 피부 체질에 매우 의존하기 때문이다.
그래서 본 발명의 기초가 되는 과제는, 지문 스캐너를 기반으로 하여 지문의 촬상을 충분히 높은 품질로 할 수 있는 신규한 방법을 제공하는 것으로, 이때 촬상 공정에 대한 이해 가능한 피드백 정보가 실시간으로 발생하여, 사용자는 숙련된 조작자(운영자)의 능동적 안내 및 지원이 지정되지 않은 상황에서 경우에 따라 필요한 보정을 할 수 있다.
본 발명에 따르면 상기 과제는 지문 스캐너를 기반으로 하여 충분히 높은 품질로 지문을 촬상하기 위한 방법에 의하여 해결되되, 상기 방법은 이하의 단계를 포함한다:
- 촬상면위에 놓인 손가락의 지문을 촬상하는 단계,
- 센서 이미지의 관련 객체의 수와 상태를 분석하는 단계,
- 지문의 위치, 수, 방식에 있어서 현재 위치와 현재 수를 기준-기본값과 비교하는 단계;
- 상기 촬상면위에 놓인 손가락의 다양한 상태 및 기준 기본값을 위해 다수의 애니메이션 영상들로 이루어진 라이브러리를 포함하는 영상 메모리에 접근하는 단계, 그리고
- 객체 분석에 상응하여 손가락을 잘못 올려놓은 것을 포지티브(positive)한 손가락 이미지로서 나타내는 영상 또는 영상 시리즈를 선택하는 단계 그리고
- 촬상면의 직접적 근방에 위치하는 표시 유닛 위에 포지티브하게 변환된 손가락 이미지를 2차원 영상으로 표시하는 단계.
유리하게는, 센서 이미지의 관련된 객체로서 지문의 수와 상태를 분석하기 위해 각각 손가락의 첫번째 마디(phalanx)의 지문을 어두운 픽셀 영역으로서 찾고, 범위를 한정하는 직사각형들을 갖추어, 기준 기본값과의 비교를 실행한다. 상기 직사각형들에서 중심을 가진 위치, 면과 정렬은 산출된다.
목적에 따라, 영상 메모리의 라이브러리로부터, 해당 손가락 모습을 보완하기 위한 기준 기본값의 지문의 예상 개수와의 산출된 오차가 선택된다. 이때, 부재한 손가락은 바람직하게는 기준 기본값에 의해 보완되고, 오차가 있는 패턴 형상이 표시되며, 이때 상기 오차가 있는 패턴 형상은 목적에 따라 서로 다른 경계선 종류, 음영(hatching), 채움색(fill color) 또는 채움 패턴으로부터 선택된다.
방법의 유리한 실시예에서, 촬상면의 가장 자리를 초과하는 이유로 지문에서 부재한 부분들은 나머지 손가락의 진행을 인식하여 반대 방향으로 지향된 화살표에 의해 표시되고, 이를 통해 사용자에게는 위치 보정이 요구된다. 또한, 부가적으로, 객체로서 인식된 지문의 길이 대 폭의 비율에서 기준 기본값과의 오차가 산출될 수 있고, 이를 통해 손가락의 경사진 상태가 인식 및 표시된다.
방법의 다른 바람직한 실시예에서, 촬상면의 가장자리를 초과하는 이유로 발생하는 지문의 부재한 부분은 방법의 또 다른 바람직한 실시예에서 나머지 손가락 진행을 인식하여 보완되고, 기준 기본값에 상응하여 손가락 윤곽을 확대하여 복제하는(copying) 손가락 윤곽선에 의해 보정 명령이 표시된다.
방법의 다른 형성예에서, 촬상면에 충분한 압력을 가하지 않아 발생하는 지문의 부족한 크기 또는 부족한 명암대비는, 바람직하게는 계조 히스토그램, 표준 편차의 분석 및 이후의 임계값 평가에 의해 산출된다. 이때 촬상면에 충분한 압력을 가하지 않아 발생하는, 기준 기본값에 비해 지문에 있어서 부족한 크기 또는 부족한 명암대비가 산출되고, 확대된 손가락 윤곽선으로서 표시될 수 있으며, 이때 각각의 지문을 둘러싸는 패턴화된 영역은 적용된 압력에 의존하여, 손가락을 둘러싸는 지문 아우라(aura)로서 표시되고, 지문 아우라는 손가락 윤곽선의 도달 시 촬상면에서 최적의 가압력을 신호화한다.
촬상면위에 경사지게 올려놓아 발생하는 지문의 잘못된 정렬은, 목적에 따라, 범위 한정 직사각형의 측면 비율을 분석하고, 그리고 촬상면의 가장자리와의 간격을 분석함으로써 산출되며, 회전하는 화살표로 보여진다.
대안적인 실시예에서, 촬상면위에 경사지게 올려놓아 발생하는 지문의 잘못된 정렬은 범위 한정 직사각형의 측면 비율을 분석하고 그리고 촬상면의 가장자리와의 간격을 분석하여 산출되며, 기준 기본값에 상응하여 손가락 윤곽을 확대하여 복제한 손가락 윤곽선에 의해 보정 명령이 표시된다. 방법의 바람직한 실시예에서, 부가적으로, 손가락 마디의 명암대비는 기준 기본값에 비해 계조 히스토그램, 표준 편차의 분석 및 그 이후의 임계값 평가에 의해 산출되며, 확대된 손가락 윤곽선으로서 표시되고, 이때 각각의 지문을 둘러싸는 패턴화된 영역은 적용된 압력에 의존하여, 손가락을 둘러싸는 지문 아우라로서 표시되고, 지문 아우라는 손가락 윤곽선 내에서 촬상면위의 최적의 가압력을 신호화한다. 손가락 마디의 명암대비 산출 시, 결과는 양측에서 대칭인 선형의 무단위(unitless) 눈금의 형태를 가진 유사한 압력 표시화면으로서 표시장치 위에 나타날 수 있고, 이때 촬상면위에 너무 높은 가압력은 눈금을 따라 위로 가는 화살표 움직임에 의해 신호화되고, 너무 낮은 가압력은 아래로 가는 화살표 움직임에 의해 신호화된다.
방법의 다른 유리한 보완예에서, 부가적으로 손가락의 정지 상태는, 소정의 시간 간격에 걸쳐 촬상면의 가장자리와의 간격 비율을 분석하여 모니터링되는데, 산출된 지문의 중심점 위치가 3개를 초과한 연속 영상들에서 일정하지 않을 때 손가락의 이중 화면으로 표시되면서 그러하다. 소정의 시간 간격에 걸쳐 촬상면의 가장자리로부터 간격의 비율을 분석하여 손가락의 정지 상태를 부가적으로 모니터링하는 것에 있어 대안적인 형성예에서, 산출된 지문의 중심 위치가 3개를 초과한 연속 영상을 위해서는 일정하지 않은 경우에, 손 표시 외에 동심적 원호들의 개수로 표시된다.
손가락의 정지 상태를 모니터링 할 때, 바람직하게는, 산출된 지문의 중심 위치가, 750 ms내에서 15 픽셀을 초과한 만큼 이동하는 변화만이 움직임으로서 표시된다.
또한, 본 발명의 과제는, 지문 스캐너를 기반으로 하여 충분히 높은 품질로 지문을 촬상하기 위해 고해상 지문을 위한 촬상 유닛 및 단순한 품질 기준의 분석을 위해 상기 유닛 이후에 배치된 영상 처리 유닛이 제공되어 질적으로 고품질의 지문만이 데이터베이스에 전달되도록 하는 장치에 있어서, 애니메이션으로 된 다수의 손가락 위치 영상들로 구성된 라이브러리를 포함하는 영상 메모리가 제공되고, 그리고 상기 촬상 유닛에 2차원 표시 유닛이 부속하며, 2차원 표시 유닛은 영상 메모리로부터의 손가락 위치 애니메이션 영상들을 상기 영상 처리 유닛에서 분석된 지문의 결과에 따라 표시하도록 형성되고, 이때 상기 애니메이션으로 된 손가락 위치 영상들을 표시하기 위한 표시 유닛은 촬상 유닛의 촬상면위에 실제로 올려놓은 손가락을 포지티브하게 실시간으로 나타내어 단순한 사용자 가이드를 위해 제공됨으로써 해결된다.
본 발명의 기본적인 사상은, 올려놓은 손가락에 대한 정보가 영상 처리 유닛에 의해 처리되고, 상기 올려놓은 손가락에 대해 신속하고 누구나 이해할 수 있는 회신이 수행되며 잘못 올려놓은 것에 대한 보정이 수행될 수 있는 것이다. 그러므로 바람직한 방식으로는, 경험이 없는 사용자가 지문의 품질 평가를 할 수 없는 경우의 지문은 표시되지 않으며, 간략한 분석은 직접적으로 지문 스캐너에서 수행되고, 영상 메모리에 저장된 라이브러리로부터 전형적인 위치 오류 상황에 대한 영상들이 애니메이션화되어, 바람직하게는 비디오 시퀀스로서 표시된다.
본 발명은 지문을 촬상할 수 있고 지문을 위치, 수, 움직임 및 명암대비에 따라 평가할 수 있다. 이러한 평가를, 지문 촬상 공정의 상태에 대하여 숙련되지 않은 사용자가 이해할 수 있는 피드백 회신 및 경우에 따른 보정 요구를 포함하는 정보로 변환하는 것은 표시유닛(디스플레이)을 통해 시각적인 영상 표현물로 제공된다.
본 발명에 의하면, 지문 촬상 공정에 대한 이해 가능한 피드백이 실시간으로 이루어져, 사용자는 능동적 안내 없이도 손가락 올려놓기에 있어 필요한 보정을 수행할 수 있어, 충분히 높은 품질로 지문을 촬상할 수 있다.
본 발명은 이하 실시예들에 의거하여 더욱 상세히 설명된다.
도 1은 촬상 유닛, 영상 처리 유닛, 영상 메모리, 표시 유닛 및 데이터 베이스 사이의 상호작용을 포함하는 본 발명에 따른 방법의 원칙적 흐름도를 도시한다;
도 2는 촬상 유닛, 영상 처리 유닛, 영상 메모리와 표시 유닛 사이의 상호 작용을 위한 일 예시를 도시한다;
도 3은 촬상 유닛 위에 올려놓은 손가락의 수를 산출하기 위한 원리 및 원하는 손가락 수를 올려놓게 하기 위해 가능한 그래픽적 사용자 명령을 도시한다;
도 4는 촬상 유닛의 경계선을 넘어 뻗은 손가락을 인식하기 위한 원리 및 원하는 올려놓기 위치로 손가락을 정렬시키기 위해 가능한 그래픽적 사용자 명령을 도시한다;
도 5는 촬상 유닛의 경계선을 넘어 이동한 손가락의 인식을 위한 원리 및 손가락을 원하는 올려놓기 위치로 이동시키기 위해 가능한 그래픽적 사용자 명령을 도시한다;
도 6은 촬상 유닛 위에 올려놓은 손가락이 회전된 것을 인식하기 위한 원리 및 원하는 올려놓기 위치로 손가락을 돌리기 위해 가능한 그래픽적 사용자 명령을 도시한다;
도 7은 촬상 유닛 위에서 두 엄지가 놓인 위치를 인식하기 위한 원리 및 원하는 올려놓기 위치에 도달하기 위해 가능한 그래픽적 사용자 명령을 도시한다;
도 8은 촬상 유닛 위에 올려놓은 손가락의 최적의 올려놓기 압력을 인식하기 위한 원리 및 최적의 접촉 압력을 설정하기 위해 가능한 그래픽적 사용자 명령을 도시한다;
도 9는 촬상 유닛 위에 올려놓은 손가락이 가만히 있지 않음을 인식하기 위한 원리 및 손가락을 가만히 내려놓게 하기 위해 가능한 그래픽적 사용자 명령을 도시한다;
도 10은 촬상 유닛 위에 잘못 올려놓은 왼손을 인식하기 위한 원리 및 손을 바꾸기 위해 가능한 그래픽적 사용자 명령을 도시한다.
도 1에 따른 장치는 이하의 구성 요소들로 구성된다: 촬상 유닛(1), 영상 처리 유닛(2), 영상 메모리(3) 및 표시 유닛(4). 지문(13)의 촬상 기법에 따라 촬상 유닛(1)의 형성 방식은 상이하게 구현될 수 있고, 본 명세서에 설명된 발명은 촬상 기법을 한정하는 것이 아님은 명백하다. 영상 처리 유닛(2)은 촬상 유닛(1) 내에 통합되거나 별개의 유닛 내에 부속할 수 있다. 표시 유닛(4)은 바람직하게는 촬상 유닛(1)과 직접적으로 결합되어 있어서, 가급적 위치 근접적으로 촬상과 피드백 회신 사이의 연결이 구현되도록 한다. 그러나 표시부는 촬상 유닛(1)으로부터 분리되어 있을 수도 있다. 바람직하게는, 앞에 언급한 모든 구성 요소들은 지문 스캐너(5) 내에 통합되어 있다. 본 발명에 따른 방법은 촬상된 지문(13)의 간단 분석 및 그 결과에 대한 피드백이 숙련되지 않은 사용자를 위해 맞추어져 있어서, 실질적으로 지문 촬상 공정을 질적으로 개선하고 시간적으로도 간결하게 하기 위한 것이나, 물론 본질적인 목적은 질적으로 고품질의 지문(13)을 중앙 데이터 베이스(6)에 입력하는 것이다. 이러한 상황은 도 1 및 도 2에서, 바람직하게는 외부의 데이터베이스(6)으로의 연결을 통해 원리적으로 도시되어 있으며, 이를 위해 필요한 이후의 처리 단계는 본 명세서에서 더 정확하게 언급되지 않으며 그외에 공지되지 않는다.
지문 촬상 공정에 대한 회신의 표현은 정적으로뿐만 아니라 동적으로도 수행될 수 있다. 동적인 표현에서는 일 파라미터의 표현을 위해 임의적으로 다수의 단계가 적용될 수 있다. 예컨대 최적의 압력(도 8 참조)에 도달할 때까지 손가락(12)의 적용할 압력의 표현은 점진적으로 10개의 단계를 통해 수행될 수 있거나 고작 2개의 단계를 통해 수행될 수 있다.
이하, 본 발명에 따른 방법/장치를 이용하여 4개의 손가락(12)을 촬상하기 위한 원리적 방식이 설명된다. 도 3에서 사용자는 표시 유닛(4)을 통해, 오른손의 4개의 손가락(12)을 촬상면(11)위에 위치시킬 것을 요구받는다. 사용자는 그의 4개의 손가락(12)을 올려놓고, 이는 표시 유닛(4)상의 회신을 통하여 확인된다. 영상 처리 유닛(2)은 "요구된 손가락의 수"라는 파라미터를 검사한다. 올려놓은 손가락 수와 요구된 손가락 수가 일치하면, 판단이 진행된다. 불일치하면, 부재한 손가락(12)에 대하여 사용자에게 표시 유닛(4)을 통해 표시된다. 이후의 단계에서, 영상 처리 유닛(2)에 의해, 손가락(12)의 위치가 올바른가에 대해 검사된다(도 4, 도 5 및 도 6). 올바르지 않은 경우, 사용자에게는 상기 잘못된 위치가 표시된다. 올려놓은 손가락(12)의 위치가 올바르다면, 계속하여, 손가락(12)이 촬상 유닛(1) 위에 가만히 놓여 있는가가 영상 처리 유닛(2)에 의해 검사된다(도 9). 손가락(12)이 움직이면, 이점이 사용자에게 표시 유닛(4)을 통해 표시된다. 이후의 단계에서, 올려놓은 손가락(12)의 명암대비가 영상 처리 유닛(2)에 의해 검사된다(도 8). 충분한 명암 대비 및 이로 인하여 지문(13)의 허용 가능한 품질이 제공된다면, 촬상 유닛(1)에 의해 지문(13)이 촬상되고, 사용자에게는 촬상이 성공적으로 종료되었음이 표시되며, 중앙집중식 저장을 위한 데이터베이스(6)에 전달된다. 대안적으로, 지문(13)은 데이터베이스(6)에 이미 저장된 지문과의 비교 과정에서 비교될 수 있다. 올려놓은 손가락(12)의 명암대비가 너무 낮으면, 사용자에게는, 충분한 명암대비를 얻기 위해 올려놓은 손가락(12)에 더 많은 압력이 적용되어야 함이 표시된다. 올려놓은 손가락(12)의 명암대비가 너무 높으면, 사용자에게는 표시 유닛(4)을 통해, 촬상면(11)위에서 손가락(12)의 압력을 줄이는 것이 신호화된다. 지문이 촬상면(11)에 닿으면, 촬상 유닛(1)을 통해 지문(13)이 감지된다. 촬상 유닛(1)은 예컨대 광학적 시스템으로 구성되고, 광학적 시스템은 촬상면(11), 광학계를 포함한 카메라(미도시, 그리고 영상 센서(출력상만 표시됨))로 구성된다. 영상 처리 유닛(2)을 통해, 위치, 수, 명암대비 및 움직임과 관련하여 지문(13)에 대한 판단이 이루어진다. 이러한 판단의 결과는 실시간으로 표시 유닛(4)을 통해 사용자에게 이해가능한 방식으로 고지된다. 바람직하게는, 상기 회신은 그래픽적 요소를 통해 이루어진다. 이로써, 언어 및 교육과 상관없이 누구나 이해할 수 있게, 성공적 처리 또는 성공하지 못한 처리에 대한 회신이 보장된다. 영상 메모리(3)에는 소정의 영상(손가락(12)의 전형적인 올려놓기 오류의 견본)이 저장되고, 이는 회신에 따라 영상 처리 유닛(2)으로부터 표시 유닛(4)으로 표시된다. 이때 영상 메모리(3)는 도 1에 도시된 바와 같은 지문 스캐너(5) 내에 뿐만 아니라 연결된 외부의 컴퓨터 내에도 통합될 수 있다. 설명을 위한 합목적성의 이유로 - 일반적인 것을 한정하지 않고 -, 영상 메모리(3)가 지문 스캐너(5)에 통합되는 것이 가정된다. 저장된 영상은 원하는 목표값을 충족 또는 미충족한 모든 가능한 상태를 포함한다. 예컨대 영상 메모리에서 영상은 손가락(12)의 정확한 수, 정확하게 적용된 압력 또는 정확한 위치에 대하여 저장된다. 마찬가지로 영상 메모리(3)에는 예컨대 부족한 압력, 잘못된 위치 또는 부재한 손가락(12)에 대하여 저장된다. 본 발명의 견지에서, 영상의 수와 실시방식이 설명된 경우로 한정되지 않고, 하나의 영상에서 단일의 손가락, 복수 개의 손가락이 저장되고 그리고 평평한 손가락의 영상이나 굴린 손가락의 영상이 저장될 수 있음은 자명하다. 또한 본 발명의 견지에서 개별 손가락 이미지로부터 동적으로 복수 개의 손가락 이미지가 생성될 수 있음은 자명하다.
도 1은 장치의 구성요소들 사이의 원칙적 상호작용을 도시한다. 손가락(12)은 촬상 유닛(1)의 촬상면(11) 위에 위치한다. 올려놓은 객체(object)는 촬상 유닛(1)의 센서에 의해 감지되고, 이러한 정보가 영상 처리 유닛(2)에 전달된다. 영상 처리 유닛(2)은 획득된 정보를 분석하고, 사전에 확정된 파라미터(예컨대, 계조, 크기, 위치)와 현재 올려놓은 손가락(12)을 통해 생성된 파라미터를 비교한다. 분석의 결과는 확정된 파라미터의 요구된 목표값과 현재의 파라미터 사이의 일치 또는 오차로 나타날 수 있다. 충족 또는 오차라는 결과에 따라, 영상 처리 유닛(2)을 통해 해당 영상은 영상 메모리(3)로부터 목표 상태의 충족 또는 오차에 대하여 표시 유닛(4)을 통해 표시된다. 도 2는 이러한 흐름을 예시적으로 도시하되, 갖다대야 할 손가락(12)을 올바르지 않은 위치에 올려놓은 경우에 대하여 도시한다. 오른손의 4개의 손가락(12)이 올려져야 하는 것으로 가정한다. 4개의 손가락(12)은 촬상 유닛(1) 위에 위치한다. 그러나 4개의 손가락(12) 중 2개의 손가락은 촬상면(11)의 경계선을 넘어 위치한다. 센서 주사(sensor scanning)로 올바르게 위치된 2개의 손가락 및 잘못 위치된 2개의 손가락(12)이 감지된다. 이러한 정보는 영상 처리 유닛(2)에 의해 평가되고, 여기서 목표 상태의 미충족이 존재하므로, 해당 영상은 촬상면(11)을 벗어나 뻗은 손가락(12)에 대하여 표시된다.
실시예들:
1. 파라미터: 요구된 손가락의 수
도 3a에는, 촬상면(11) 위에(세부그림 3.1, 3.3, 3.6의 좌측 단) 올려놓은 손가락(12)의 감지 및 지문 스캐너(5)의 센서 이미지(세부그림 3.4, 3.7의 중앙 단)의 분석을 기반으로 하여 어떻게 사용자에게 (양식화되거나, 컴퓨터를 통해 그려지거나 또는 사진과학과 유사한) 손의 적합한 표현을 통하여 표시 유닛(4)에 의해, 오른손의 4개의 손가락(12)을 올려놓을 것(도 3.2)이 요구되는가에 대하여 도시되어 있다. 4개의 손가락(12)을 올려놓을 것에 대한 요구를 표시하는 것은 표시 유닛(4) 위에 4개의 반투명 손가락(손가락 모형(finger phantom)(43), 여기서 오른손)의 표현을 통해 이루어진다. 이 시점에서는 촬상 유닛(1)의 촬상면(11)위에 아직 손가락(12)이 위치하지 않는다(도 3.1).
사용자가 손가락(12)을 모두 올려놓지 않은 것으로 가정한다. 도 3.3에서, 요구된 4개의 손가락(12) 대신 3개의 손가락만 올려져 있다. 3개의 손가락(12)은 객체로서 영상 처리 유닛(2)에 의해 상기 올려놓은 객체의 크기와 계조의 분석을 통해 인식된다(예컨대 US 7277562 B2에 설명된 바와 같음). 이때 센서가 전달하는 각각의 영상에 대하여 자동적으로 개별 지문(13)의 세분화(segmentation) 전에 명암대비가 산출되고, 상기 명암대비를 위해 간단하게 센서 주사의 전체 영상과의 표준 편차가 결정되고, 임계값(예컨대 10)과 비교된다. 임계값이 초과되면(22), 지문(13)의 세분화가 시작되고, 이는 올려놓은 손가락(12)의 수를 결정하기 위해 필요하다. 이를 위해, 픽셀 그룹(구름)으로 나란히 인접한 어두운 픽셀들이 모이고, 범위를 한정하는 직사각형(14)을 갖추며, 직사각형은 각각 상기 구름의 적어도 하나의 가장자리 픽셀과 교차하거나 이와 만난다. 그림 3.4는 촬상 유닛(1)의 센서 주사에 의해 감지된 3개의 지문(13)을 양식화되어 표현된 분석 단계로 도시하고, 이러한 분석 단계는 영상 처리 유닛(2)에서 실행된다. 이때 각각의 손가락(12)은 객체(이는 가장 윗부분의 손가락 마디로서 정의됨 그리고 디지털 영상에서 그러한 것으로서 검색됨)로서 계조 최소값 및/또는 최소면(2D-크기)을 달성해야 한다. 이를 위해, 객체의 둘레에서 범위를 한정하는 직사각형(14)(영문. boundingbox)이 결정되고, 이는 가장 멀리 외부에 위치한 픽셀들을 통하여 촬상면(11)의 측변들과 평행하게 연장된다. 부가적으로 객체의 배향이 결정되는데, 관성 주요축이 (객체 픽셀 구름을 통해) 산정되고, 상기 관성 주요축을 따라 센서 이미지의 수직 방향에서의 객체의 치수가 픽셀의 개수로서 결정되며, 길이로서 산정되면서 그러하다. 관성 축이 허용공차보다 작은 기울기를 가지는 경우(예컨대 3°) Y-치수가 산출된다. 그렇지 않은 경우에, 제대로 된 Y-치수를 산출하기 위해서는, 객체(픽셀 구름)는 촬상면(11)의 측변들쪽으로 이에 평행하게 "도로 돌려져서" 산정되고, 상기 범위 한정 직사각형(14)은 수정되어야 한다. 유사한 단계는 수직의 X-치수를 위해서도 실행될 수 있어서, 이로부터 X-치수가 산정되고 이렇게 산출된 객체 치수의 값은 최소 각인을 위한 길이-폭-임계값(예컨대 15 mm/8 mm)과 비교된다. 길이와 폭-임계값이 초과되면, 지문(13)은 그러한 것으로서 허용되고, "양호한 형상"으로서 선언되며, 그렇지 않은 경우에 "불량한 형상"으로서 배척된다.
매번 손가락(12)을 올려놓으면, 실제로 측정된 계조 및/또는 면은 소정의 계조/면과 비교된다. 이러한 최소량의 달성 또는 초과는, 손가락(12)이 그러한 것으로서 인식되어 계수되고(수) 그리고 이제까지 표시 유닛(4) 위에 투명하게 표현된 손가락(12)을 유색으로 표현되도록 한다. 손가락(12)을 올려놓지 않은 상태에서, 사전 정의된 최소수의 계조 및/또는 사전 정의된 면적은 달성되지 않는다. 예상된 객체의 불충분한 계조 및/또는 불충분한 면에 대한 정보는, 부재한 손가락(12)에 대한 정보로서 영상 처리 유닛(2)에 의해 표시 유닛(4)에 전달된다. 양식화된 장비 표면(41) 및 양식화된 촬상면(42)을 디스플레이에 표시하는 표시 유닛(4)은 상기 정보를 해석하고, 상기 부재한 손가락(12)을 제1 표현물에서 부재한 손가락(441)을 가진 손으로서 나타낸다(그림 3.5).
도 3b에서, 그림 3.9 내지 3.13은 부재한 4번째 손가락(12)에 대한 대안적 표현을 도시한다. 이때 표시 유닛(4) 위에서 부재한 손가락(12)은 다른 색으로, 다른 색상의 손가락(442)을 가진 손으로서 또는 파선으로 표시된 손가락(443)을 가진 손으로서 표현된다. 이때 그림 3.9는 다른 색상의 손가락(442)을 가진 손의 경우에 상기 부재한 4번째 손가락(12)을 다만 흐리게 표현하고(회색으로 채워짐) 그리고 그림 3.10에서 상기의 부재한 4번째 손가락(12)은 윤곽으로만(파선으로 표시된 손가락(443)을 가진 손) 표현되어 있다. 도 3b의 그림 3.11 및 3.12는 부재한 4번째 손가락(12)을 올려놓을 것을 사용자에게 요구하기 위해, 부재하거나 (나머지 손가락(12) 옆에 동일한 색상 또는 다른 색상으로) 표현된 손가락(12)을 화살표(47)로 암시하는 대안적 표현물을 도시한다. 그림 3.13에 따른 다른 형성방식에서, 부재한 손가락(12)은 교번적으로 (표현 및 미표현되어) 표시될 수 있다. 다른 변형예에서, 상기 요구를 강화하기 위해, 부재한 손가락(12)은 깜박이면서 파선으로 가장자리가 표시된 것으로서 표현되거나, 또는 존재하는 손가락(12)과 다른 색상으로 표현되거나, 또는 그림 3.11이나 3.12에서 화살표(47)가 깜박이는 (교번적으로 표시된) 화살표(47)로서 화면(4)위에 삽입될 수 있다.
원하는 파라미터(앞에 설명된 예시들에서: 올려놓은 손가락(12)의 올바른 수)의 충족 또는 미충족에 대한 그림은 손가락(12)의 모든 올려놓기 상황을 위해 사전 정의되어 있고, 영상 메모리(3)에 저장되어 있다. 이때 각각의 올려놓기 상황을 위해 적어도 하나의 별도의 영상(올바른 손가락 올려놓기)이 저장되어 있다. 또한, 양손의 손가락(12)에 있어서 고려할 수 있는 모든 오류 포지셔닝에 대한 영상들이 저장되어 있고, 잘못된 올려놓기에서 올바른 올려놓기로의 움직임에 대한 비디오의 표현을 원하는 경우 손가락 올려놓기 보정을 위한 비디오 애니메이션을 표현하기 위한 부가적인 중간 영상들이 더 저장되어 있다. 사용자가 촬상 유닛(1)의 촬상면(11)위에 상기 부재한 4번째 손가락(12)을 올려놓고(도 3a, 그림 3.6) 이 손가락이 센서 주사에 의해 이제까지 이미 검출된 3개의 손가락(12)에 대해 부가적으로 제4 포지션에서 감지되자마자(그림 3.7), 계조 및/또는 객체 크기는 다시 모든 4개의 손가락(12)을 위해 최소의 임계값과 비교되고, 이러한 임계값의 달성 또는 초과 시, 상기 4번째 손가락(12)은 마찬가지로 (동일한 색상의) 손가락으로서 양식화된 촬상면(42) 위에 표현된다(그림 3.8). 모든 4개의 손가락이 유색으로 현존하는 것으로서 표현되자마자, "요구된 손가락 수"라는 파라미터는 충족된 것으로서 간주되고, 영상 처리 장치(2)에 의해 영상 메모리(3)로부터 상기 올려놓은 손가락(12)의 올바른 수에 대한 영상이 표시 유닛(4)에 전달된다. 마찬가지로, 부가적으로 텍스트 기반 정보를 통해 부재한 손가락(12)이 암시될 수 있다.
2. 파라미터: 손가락의 올바른 위치
영상 처리 유닛(2)은 올려놓은 손가락(12)에 대하여 다만 촬상면(11)의 가장자리에 대하여 상기 손가락의 위치에 상응하여 소정의 객체(손가락의 첫번째 마디)를 분석한다. 이를 위해 상기 검출된 객체의 계조와 면적이 결정된다. 모든 객체는 촬상면(11)의 계조와 크기를 분석함으로써 발견된다는 점을 출발점으로 한다. 이렇게 발견된 객체가 촬상면(11)의 수평 및 수직 가장자리에 대하여 사전 정의된 최소 간격을 두어 위치하기 않거나 심지어 상기 최소 간격을 벗어나면, 이러한 정보는 영상 처리 유닛(2)으로부터 이미 제1 예시에서 설명된 방식과 유사하게(인식된 올려놓기 상황을 위해 영상 메모리(3)에 저장된 영상들의 편입) 표시 유닛(4)을 통해 사용자에게 전달된다.
도 4a에서 사용자는 4개의 손가락(12)을 촬상면(11)위에서 올바르지 않은 위치에 놓았다(그림 4.3). 이때 사용자는 손가락(12)을 너무 넓게 뻗었고, 4개의 손가락(12) 중 2개의 손가락은 촬상면(11)의 가장자리를 벗어나 있으며, 이는 센서 주사(도 4a의 중앙 단)에서 예상된 4개의 지문(13) 중 2개의 지문이 불충분한 최소량의 크기를 가진 것으로서(첫번째 손가락마디의 각인면) 감지되도록 한다(그림 4.4). 이로부터 표시 상은 그림 4.5에 따른 뻗은 손가락(444)을 가진 손의 형태로 생성되며, 이러한 상은 사용자에게, 위치를 그에 상응하여 보정할 것을 요구한다. 이를 위해 그림 4.5에 따르면 표시 유닛(4)위에는 손가락(12)의 원하는 올바른 위치가 윤곽 이미지(투명한 손 모형(43))로 표현되고, 손가락 표현물의 실제로 잘못된 위치(손 복제상(44))에 중첩되며, 영상 처리 유닛(2)에서 산출된 지문(12)에 귀속된 상기 윤곽 이미지는 영상 메모리(3)로부터 (예컨대 완전한 유색의 손가락 이미지로서) 선택된다. 잘못 올려놓은 손가락과 올바르게 올려놓은 손가락(12)의 중첩에 대한 표현은 대안적으로 상이한 색상을 이용하여 (예컨대 오류 색상 표현) 또는 투명도- 및 색상 표현을 통해 수행될 수 있다. 도 4b에 따른 실시예에서, 사용자는 반복된 영상 시퀀스(그림 4.9 또는 4.10)에 의해, 그의 손가락(12)을 이에 상응하여 약간만 뻗도록 고무됨으로써, 수직 가장자리와의 최소 간격이 달성된다. 이때 시퀀스를 형성하는 개별 상들의 수는 임의적인 개수일 수 있다. 이는 도 4b에 따른 예시에서 3개의 상들로 선택되나, (미도시된) 최소 변형예에서 손 복제상(44)의 2개의 상들(처음과 끝 또는 잘못된 위치와 올바른 위치)만을 포함할 수 있다.
사용자가 4개의 손가락(12)의 위치를 보정하자마자(그림 4.6), 영상 처리 유닛(2)에 의해 다시 상기 올려놓은 지문(13)의 계조와 크기가 분석되고, 촬상면(11)의 가장자리와의 간격이 결정되며(그림 4.7), 표시 유닛(4) 위의 표현물에 의해 손가락(12)의 올바른 포지셔닝이 확인된다(그림 4.8). 손가락(12)의 올바른 포지셔닝은 원하는 위치와 수행된 위치가 정확하게 중첩되는 것으로 표현될 수 있고, 올바른 위치의 달성 시 색 변화에 의해 표현되거나, 부가적인 그래픽 요소(녹색점 또는 작은 고리 부호) 또는 텍스트 요소(예컨대 "OK")에 의해 표현될 수 있다. 물론, 도 4a, 그림 4.5 또는 도 4b, 그림 4.9에 도시된 위치 보정을 위한 회신은 중첩 없이도, 즉 오므린 손가락을 포함한 영상 시퀀스의 표현만을 통해서도 본 발명에 따른 평가 및 표시와 등가의 형태를 구현한다는 점은 자명하다.
손가락(12)의 포지셔닝 보정 요구에 대한 다른 대안예는 그림 4.10이 보여준다. 이때 사용자는 뻗은 손가락(444)을 포함하여 도시된 손 외에 2개의 수평 화살표(47)를 통해, 그의 손가락(12)을 오므릴 것을 요구받음으로써, 촬상면(11)의 가장자리와의 최소 간격이 달성된다. 두 화살표(47)가 동시에, 교번적으로 또는 깜박이면서 표현될 수 있는 것도 물론 본 발명에 속한다. 또한, 화살표(47)의 표현은, 촬상면(11)의 가장자리와의 최소 간격이 점점 더 올바르게 되면서 화살표(47)의 길이가 줄어들어, 손가락 포지셔닝을 위한 올바른 처리법에 대하여 직관적인 회신이 수행되도록 구현될 수 있다.
도 5a는 오른손의 4개의 올려놓은 손가락(12)을 도시하고, 상기 손가락은 높이(즉 촬상의 수직 치수)에 있어서 올바르게 위치되어 있지 않다(그림 5.3). 이 경우, 손가락(12)은 촬상면(11)의 상부 경계선을 넘어서 있다. 센서 주사에 의해, 전체적으로 4개의 객체(손가락(12), 이 중 첫번째의 손가락마디만이 그 크기와 관련하여 평가됨)가 감지되고, 이때 상기 감지된 객체의 크기가 최소 크기를 위한 기준값과 비교되면서 3개의 객체만이 완전하게 올려놓은 것으로서 인식된다(그림 5.4).
그림 5.5는 그림 5.3의 손가락(12)의 포지셔닝에 대하여 보정 요구를 나타낸다. 이때 영상 시리즈에서 사용자는, 그의 손가락(12)을 최적의 위치에 상응하여 촬상면(11) 위에 정렬할 것에 대해 고무된다. 이를 위해 도 5b의 그림 5.9에 도시된 영상 시리즈가 사용될 수 있다. 표시된 단계(영상 시퀀스)의 수는 임의적일 수 있으나, 어떠한 경우든 적어도 2개의 영상 표현물(잘못된 손가락 포지셔닝과 올바른 손가락 포지셔닝)을 포함해야 한다. 마찬가지로, 중첩 없이, 오로지 손가락(12)의 원하는 포지셔닝만을 표시하여 사용자에게 그의 손가락(12)을 표시 유닛(4)위의 표시화면에 상응하여 올려놓을 것을 신호화하는 표현물도 가능하다.
도 5b에서는 위치 보정 요구에 대한 대안적 표현이 도시되어 있다. 그림 5.10에서 사용자는 올바른 손가락 위치를 위한 손 모형(43) 및 올바른 포지셔닝으로의 이동 방향을 위한 화살표(47)의 표현물을 통해 요구받는다. 그림 5.11은 대안적으로, 손 복제(44)와 올바르게 포지셔닝된 손 모형(43)의 중첩 없이 화살표(47)만으로 위치 보정을 표현한다. 여기서도, 본 발명의 견지에서는, 화살표(47)는 동적으로 위치 보정과 함께 변경되고 경우에 따라 깜박이거나 그 색상이 변경될 수 있다.
손가락(12)의 올바르지 않은 포지셔닝에 대한 다른 예는 도 6a에 도시되어 있다. 이때 손가락(12)은 촬상면(11)의 가장자리와 충분한 간격을 두었으나 촬상면(11)의 측변들과 수직 또는 수평 정렬을 이루고 있지 않다(그림 6.3). 그림 6.4에서는 부속한 센서 주사가, 그림 6.6에서는 손가락 위치의 초기 보정 이후에 수반된 평가가 도시되어 있다. 잘못된 위치는 영상 처리 유닛(2)에서, 인식된 객체(첫번째 손가락마디)의 크기(면)에 대해, 이미 앞에서 언급한 범위 한정 직사각형(14)을 이용하여 결정되고, 이후 객체의 측면 비율이 산정되고, 그리고 사전 정의된 길이 대 폭의 비율에 미도달하는 경우 상기 올려놓은 객체(그림 6.9)가 더 정확하게 검사된다. 이를 위해, 크기 비율은 이미 앞에서 객체의 인식을 위한 크기 산정에서와 동일한 방식으로 산출되고, 산정된 관성축의 기울기가 확정되되, 그 기울기가 더 높은 기울기 임계값(예컨대 ≥10°)에 도달하거나 이를 초과하는 것으로 확정되면, 사용자는 손가락(12)의 위치 보정을 요구받는다. 그림 6.5 와 6.7에 따른 바람직한 변형예에서, 상기 보정 요구는, 영상 메모리(3)로부터 생성되며 회전에 따른 위치 변경(446)을 포함하는 손과 손 모형(43)을 포함한 손가락 윤곽선(45)이 중첩됨으로써 수행될 수 있다. 도 6b에서, 그림 6.11에 따르면, 손가락(손가락 모형(43))의 손가락 윤곽선(45)으로서 표시된 최종 위치가 촬상면(11)의 측변들에 대해 평행하게 도달할 때까지 손이 회전하도록 하기 위해, 표시 유닛(4)위에 반복되어 표현되며 적어도 3개의 영상들로 이루어진 영상 시리즈를 이용하는 위치 보정 요구 방법이 도시되어 있다.
그림 6.12는 그림 6.11의 위치 보정에 대한 대안적 표시를 나타낸다. 이때 굽은 화살표(47)를 삽입하여 손의 회전이 요구된다. 원하는 말단 위치에 손이 근접할수록, 화살표 길이가 줄어들면서 표현될 수 있다.
도 7a에서 올바르게 위치하지 않은 2개의 손가락(12)에 대한 다른 예가 도시되어 있으며, 이 경우 양손의 엄지(15)가 도시되어 있다. 촬상면(11)이 비어있을 때, 사용자는 우선, 나란히 위치한 2개의 엄지 표현물을 포함하는 엄지 모형(48)을 도시하는 표시 유닛(4)을 통해 두 엄지(15)를 올려놓을 것에 대해 고무된다. 이 경우 엄지(15)는 올려놓을 때 촬상면(11)의 가장자리와 충분한 최소 간격을 두고 있지 않다(그림 7.3). 이러한 손가락의 올려놓기 상황을 위해, 허용된 촬상면(111)은 제공된 전체 촬상면(11)이 아니라, 사전 정의된 일부분에 한정되어 있다. 예컨대 여기서 2개의 손가락을 위해 FBI-IQS-표준에서 언급된 촬상 포맷 1.6 inch x 1.5 inch가 선택된다.
그림 7.4는 이에 상응하는 센서 주사를 도시하고, 여기서 엄지의 지문(16)은 허용된 촬상면(111)의 밖에서 발견되었다. 이 경우에도 - 앞의 예시에서와 같이 영상 처리 유닛(2)에서 객체의 계조와 크기의 분석에 의해 (전체) 촬상면(11) 위에서 상기 객체의 현재 위치가 결정되고, 이러한 값은 허용된 촬상면(111)의 사전 정의된 촬상 포맷과 비교되고, 이에 상응하여 결과가 표시 유닛(4)을 통해 사용자에게 통지된다(그림 7.5). 허용된 촬상면(111)의 밖에서 엄지(15)를 올려놓음을 결정하는 것은 - 그림 7.4에서 도시된 바와 같이 - 한정된 센서 판독(ROI-판독으로서 공지됨)에 의해 또는 차후에 상기 허용된 촬상면(111)의 포맷으로의 상쇄에 의해 산출되며, 이로써 잘려나간 엄지 지문(16)의 면이 너무 작게 나타나고, 이러한 면은 소정의 임계값을 충족하지 않는다. 결과적으로 사용자는, 그림 7.5 및 7.6에서 어긋나있는 엄지 표현물(481)과 부가적으로 2개의 별개의 손가락 윤곽선(45)이 표시되는 바에 따라 보정을 요구받는다. 사용자가 상기 허용된 촬상면(111)안으로 엄지(15)를 옮기면(그림 7.7), 센서 표현물에서 완전한 엄지 지문(17)이 검출된다(그림 7.8). 그림 7.9는 사용자에게 올바른 엄지 표현물(482)을 보여준다.
사용자가 다른 2개의 손가락(12)을 올려놓지 않았음을 명확하게 하기 위해, 엄지면을 위한 경험적 임계값과의 비교가 수행되거나, 이전에 촬상된 손가락(12)의 면적(예컨대 검지 또는 중지)과의 비교가 수행되거나, 이미 저장된 지문(13)과의 직접적 비교가 수행될 수 있다.
엄지 위치의 보정을 위한 요구는 그림 7.5, 7.6, 7.9에서 영상 시리즈로 표현되어 있으며, 이는 그림 7.3 내지 그림 7.7에서 사용자가 촬상면(11)위에 엄지(15)를 올려놓을 때 엄지(15)가 올바로 포지셔닝될 때까지 표시 유닛(4) 위에서 보게 되는 바와 같다. 그러나 이러한 영상들은 엄지 위치의 변경 없이도 그림 7.4에 따른 센서 주사의 결과에서와 동일하게 영상 메모리(3)로부터 애니메이션화될 수 있다. 센서 주사에 의해 올바르게 식별된 두 엄지(15)의 위치는 그림 7.8에 도시되어 있다. 대안적으로, 사용자는 도 7b에서 화살표(47)의 정적 또는 동적인 표현을 통해 위치 보정을 요구받는다(중첩을 포함한 그림 7.10, 중첩을 미포함한 그림 7.11).
3. 파라미터: 손가락의 올바른 압력
이미 앞에서 언급한 바와 없이, 촬상해야 할 손가락(12)에 가해지는 압력은 질적으로 충분한 지문(13)을 위한 최적의 명암대비를 생성하기 위한 효과적 방법이다. 한편, 충분한 명암대비는 지문(13)의 범위를 한정하는 직사각형(14)의 형태를 가진 마스크의 생성 및 그 이후에 지문과 데이터베이스(6)로부터의 지문의 비교를 위한 세부특징 발견을 위한 전제조건이다.
즉, 올려놓은 손가락(12)의 명암대비를 실시간으로 산출하고 이로부터 사용자에게, 올려놓을 때의 압력에 있어 적용해야 할 보정을 쉽게 이해시킬 수 있는 표시 화면을 생성하는 회신을 지문 스캐너(5)의 사용자에게 제공하는 것이 매우 중요하다. 이러한 회신은, 경험이 없는 사용자에게, 앞에 설명한 명암 대비 최적화를 위한 관련 사항에 대해 사용자가 알고 있을 필요 없이, 손가락(12)에 가한 압력을 어떻게 변경하여 지문(13)을 고 품질로 촬상할 수 있는지를 곧바로 이해시키는 것이 필요하다.
도 8a에서는, 사용자가 촬상면(11) 위에 4개의 손가락(12)을 위치시켰음을 가정한다(그림 8.1). - 그림 8.2의 센서 주사가 보여주는 바와 같이 - 적용된 압력이 충분하지 않았다는 점을 출발점으로 한다. 영상 처리 유닛(2)은 먼저 수행된 4개의 객체(첫번째 손가락마디)의 세분화를 기반으로 하여 지문(13)의 명암대비를 분석한다. 이를 위해, 객체의 각 픽셀은 히스토그램으로 촬상되고, 이러한 히스토그램으로부터 어두운 픽셀 비율(예컨대 밝은 픽셀의 평균적 세기에 비해 40% 보다 큰 세기 약화를 가진 어두운 픽셀) 및 표준 편차가 결정될 수 있다. 어두운 픽셀과 사전 결정된 임계값의 비교 그리고, 표준 편차가 사전 정의된 값의 범위에 있는가의 여부에 대한 표준 편차 비교를 통해, 4개의 인식된 객체 각각(첫번째 손가락 마디의 지문)을 위해 명암대비는 "너무 밝음", "양호함" 또는 "너무 어두움"으로 평가된다. 이러한 결과는 표시 유닛(4)을 통해 사용자에게 표시된다.
바람직한 방식으로, 올바른 손 표현물(46)의 손가락 둘레에서 확대된 손가락 윤곽선(45)으로서 이상적인 압력이 표시되고, 상기 올바른 손 표현물은 손가락 형태에 맞춰진(즉 유사하게 확대된) 형태를 가진다. 그림 8.3에는, 너무 낮은 압력이 적용되었음이 도시되어 있다. 이러한 모습은 너무 낮은 명암대비(18)(그림 8.2)를 가진 검출된 지문(13)으로부터 생성되는데, 센서 주사로부터 추론된 손 표현물(46)을 빙 둘러 손가락 아우라(451)(또는 손가락 그림자)의 방식으로 일 영역이 표시되고, 상기 손가락 아우라는 이 경우에 확대된 손가락 윤곽선(45)의 포위된 면보다 작게 모사되며, 상기 확대된 손가락 윤곽선의 포위된 면은 최적의 명암대비를 특징으로 한다. 이를 통해, 손가락 윤곽선(45)의 포위된 면을 충족하는 올바른 명암대비를 달성하려면 더 강한 압력이 적용되어야 함이 신호화된다. 이때 표시 유닛(4)은, 채움색(또는 채움 패턴)이 상기 확대된 손가락 윤곽선(45)에 도달할 때(그림 8.11) 최적의 압력이 달성된다는 점을 전달할 수 있다. 이러한 최종 결과를 달성하기 위해, 연속적으로 어두운 픽셀과 (세기의 사전 정의된 계조의) 표준 편차라는 파라미터는 영상 처리 유닛(2)에 의해 분석되고, 결과는 압력을 표시하는 특정한 균등물로서 표시 유닛(4) 위에 표현된다. 압력 등가적 표현으로, 손 표현물(46)의 손가락 주변에서 유색의 영역으로 표현되고, 상기 영역은 손가락(12)으로 촬상면(11)에 가해진 압력이 강할수록 손 표현물(36) 주변으로 더 넓게 표현된다. 손가락(12)을 너무 납은 압력으로 올려놓으면, 표시된 유색의 (또는 패턴화된) 영역은 최적의 압력을 위한 소정의 손가락 윤곽선(45)보다 더 작다(그림 8.3).
그림 8.5는 모든 손가락(12)에 너무 강한 압력이 가해진 경우를 도시한다. 센서에 의해 검출된 객체는 다시 히스토그램으로 어두운 픽셀과 표준 편차의 임계값에 대해 검사되고, 이때 결과는 그림 8.4에서 너무 높은 명암대비(19)(압력)을 가진 지문으로서 표시되어 있다. 이 경우 채움색(또는 채움 패턴)은 표시된 손 표현물(46) 둘레에서 확대된 손가락 윤곽선(45)을 벗어날 때까지 연장되고, 이로써 너무 큰 손가락 아우라(452)가 표현되며(그림 8.5), 사용자에게는 손가락(12)에 압력을 덜 주라고 신호화된다.
개별 손가락(12)의 지문(13)의 평가는 별개로 수행되므로, 개별 손가락(12)의 압력의 표시도 가능하고, 이해할 수 있게 표현 가능하다(그림 8.6 내지 8.9 참조). 그림 8.6에서 검지에서 너무 높은 명암대비(압력)가 산출된다. 그래서 그림 8.7에서 검지 주변에서는 최적의 압력을 위한 손가락 윤곽선(45)이 이미 초과되는 대신, 나머지 손가락(12)에는 올바른 압력이 적용된다. 그림 8.7의 표시에 상응하여, 검지를 통해 촬상면(11)에 가하는 압력은 감소되어야 한다. 이와 달리 그림 8.8에서 약지에서 너무 낮은 명암대비(압력)가 산출된다. 그래서 그림 8.9에서 약지 둘레에는 최적 압력의 손가락 윤곽선(45)이 달성되지 않는 반면에, 나머지 손가락(12)에서는 올바른 명암대비를 가진 지문(20)이 확정되어 정확한 압력이 존재하고 보정되어야 할 필요가 없다. 따라서 - 그림 8.9의 표시화면에 따라 - , 센서 주사에서 이상적인 압력(및 이로 인하여 명암대비)(그림 8.10)과 그림 8.11에 따른 "양호한"-표시를 얻기 위해, 약지에만 더 강한 압력이 적용되어야 한다.
그림 8.11은 최적 압력(또는 명암대비)이 달성되는 경우에 표시 유닛(4)에 나타난 모습을 도시하며, 이 경우에는 그림 8.10에 도시된 센서 주사에서 올바른 명암대비(압력)을 가진 지문(20)이 선행한다. 이때 손가락 둘레의 전체 영역은 확대된 손가락 윤곽선(45)에 이를 때까지 채움색(여기서는 점 패턴으로서 도시됨)으로 채워지고, 이로써 최적의 지문 아우라(453)가 표시된다.
개별 손가락의 압력의 표현은 도 8b에 도시되어 있다. 그림 8.12에서 오른손의 검지를 통해 너무 약한 압력이 적용된다. 그림 8.16에서는 대조적인 경우를 도시하는데, 오른손의 검지에 너무 강한 압력이 적용된다. 본 발명의 견지에서, 너무 강하거나 너무 약한 압력에 대한 표현물이 동적으로 손가락(12)의 압력 변화를 포함하여 표현되는 것은 자명하다. 그림 8.12 내지 8.16은 너무 약한 압력(그림 8.12, 8.13)부터 올바른 압력(그림 8.14) 및 너무 강한 압력(그림 8.15, 8.16)을 표현하는 시퀀스의 예시 영상들을 도시한다.
도 8c에서 그림 8.17은 촬상면(11)위에 손가락(12)의 압력을 증대시키기 위해 지문 스캐너(5)의 사용자를 위해 애니메이션으로서 대안적인 표현을 하는 것을 도시하며, 이때 너무 낮은 압력은 양식화된 아날로그 표시화면의 형태로 낮은 압력 표시(471)를 포함한 압력계(manometer)로서 그래픽적으로 제시된다. 반면 그림 8.18은 높은 압력 표시(472)를 포함한 압력계로 표현하여 압력의 감소를 요구한다. 연속적인 압력 증대(-감소) 시, 압력계 지표는 증가하면서 (감소하면서) 나타난다.
그림 8.19는 현존하거나 적용할 압력을 위한 다른 대안적 모습이다. 이 경우, 손가락(12)에는 정확한 압력이 적용되었다. 표시화면은, 손가락(12)을 대고 눌러 달성된 압력 레벨을, 무단위 눈금(473) 외에 수직으로 이동 가능한 화살표(47)를 이용하여 표시한다.
4. 파라미터: 손가락의 움직임
올려놓은 손가락의 개별 영상을 위한 평균적 영상 촬상 시간은 약 200 ms 내지 300 ms이다. 손가락(12)의 명암대비, 수 및 위치와 관련하여 지문의 충분히 양호한 품질을 영상 처리 유닛(2)을 통해 판단하기 위해 약 1초 내지 2초가 요구된다; 즉 약 5 내지 10개의 개별 영상들이 평가된다. 이 시간 동안, 손가락(12)은 촬상면(11) 위에서 움직이지 않는 것이 필요하다. 촬상면(11) 위에서 올려놓은 손가락(12)이 움직인 것이 도 9a에 도시된다. 그림 9.1에서, 4개의 손가락(12)이 촬상면(11)위에 위치하나 움직인 것이 가정된다. 따라서 손가락(12)의 연속적 위치 변화가 존재한다. 위치 변화는 영상 처리 유닛(2)에 의해 계조 평가를 통해 분석되고, 회신으로서 표시 유닛(4)에 전달된다. 이때 감지된 지문(13)의 위치 상태는 소정의 시간 간격동안 제1 위치와 비교된다. 확정된 수의 비교할 위치 상태들 내에서 위치가 변경되지 않으면, 손가락(12)은 움직이지 않은 것으로 간주한다. 그림 9.2, 9.3, 9.5 및 9.7은 예컨대 손가락(12)의 움직임이 있는 것으로 간주할 때 이러한 비교를 나타낸다. 이를 위해, 감지된 객체의 제1 위치 상태는 그림 9.2에 산출되어 있다. 감지된 객체의 그림 9.3은 (그림 9.2의) 제1 위치 상태와 비교된다. 이때 위치 상태의 이동이 확정된다(그림 9.3에서 제1 위치 상태는 더 희미한 음영으로 표시됨). 손가락(12)의 제3 위치 상태는 그림 9.5에 도시되어 있다. 제3 위치 상태는 그림 9.3의 제2 위치 상태와 비교된다. 이때 다시 위치 상태의 이동이 확정되고, 그림 9.7에 도시된 제4 위치 상태가 감지된다. 제4 위치 상태는 그림 9.5의 제3 위치 상태와 비교되고, 이때 위치 상태의 변경이 더 이상 확정되지 않는다. 이제 올려놓은 손가락(12)의 위치 상태가 더 이상 변경되지 않고(손가락(12)은 더 이상 움직이지 않음) 이는 이하에서 그림 9.5와 그림 9.7의 위치 상태를 일정하게 유지시킨다는 점을 출발점으로 한다. 차례로 수반되는 3개의 센서 주사로부터 더 이상 변경되지 않는 이러한 위치 상태는 손가락(12)의 안정적인 상태로 평가된다.
그림 9.4와 9.6은 손가락(12)의 움직임에 대한 회신을 예시적으로 나타낸다. 이때 손가락의 테두리는 움직임 시뮬레이션(447)으로 2개의 손 표현물이 중첩된 것으로 도시된다. 이러한 중첩은 복수 개의 단계에서 수행될 수 있다. 이러한 중첩된 모습을 통해 사용자에게는 올려놓은 손가락(12)의 비선명함 및 손가락(12)의 움직임을 기호화한다. 이러한 중첩은 도 9b에서 (위에) 도시된 바와 같이, 다양한 투명도 단계에 의해 또는 다양한 색상 또는 다양한 색 분류에 의해 수행되고, 수평(그림 9.10)뿐만 아니라 수직(그림 9.12)으로도 양 방향에서 수행될 수 있다. 손가락(12)의 상태가 소정의 시간 주기 동안 변경되지 않으면, 그림 9.10 또는 9.12에 도시된 손가락(12)의 중첩은 종료되고, 올바르게 올려놓은 손가락(12)이 나타난다(그림 9.11). 그림 9.13 내지 9.15는 애니메이션으로 된 손 표현물(46)의 둘레에서 진동 표시를 위해 동심적 원호(474)의 개수가 달라짐에 따라 움직인 손가락(12)에 대한 정보를 대안적으로 회신하는 것을 보여준다. 이러한 동심적 원호(474)는 손가락(12)의 위치 변화의 정도에 상응하여 동적으로 변경될 수 있다. 이때 움직임이 클수록 더 많은 동심적 원호(474)가 표시된다. 상기 예시에서, 올려놓은 손가락(12)(그림 9.1)이 우선 제 위치에서 심하게 변경되고(그림 9.13) 위치 변화가 줄어들어(그림 9.14, 9.15) 손가락(12)의 안정된 상태에 이를 때까지 줄어들며, 안정된 상태에서는 영상 처리 유닛(2)에 의해 어떠한 위치 변화도 더 이상 분석되지 않는(그림 9.11) 것으로 가정된다.
5. 파라미터: 올바른 손
지문 촬상 공정의 가급적 원활한 진행을 위한 전제는 무엇보다도, 사용자가 올바른 손을 올려놓는 것이다. 자주 발생하는 문제는 오른손과 왼손을 바꾸는 것으로, 특히 한 손의 4개의 손가락을 동시에 올려놓을 때 그러하다. 오른손과 왼손을 구분하고 사용자에게 쉽게 이해 가능하게 손을 바꿀 것을 요구할 수 있는 해결 방법에 대해 숙고된다. 도 10a에서 예시적으로, 사용자는 오른손의 4개의 손가락(12)을 올려놓을 것을 요구받았으나(그림 10.2), 왼손(잘못된 손(448))을 올려놓은 것(그림 10.3)을 출발점으로 한다. 4개의 손가락은 센서 주사 시 촬상 유닛(1)에서 감지되고(그림 10.4) 영상 처리 유닛(2)에서 지문(13)의 상호 각도 분석(그림 10.5)을 통해 잘못된 손(448)이 올려졌음이 확정되고, 이후 표시 유닛(4)에 회신이 전달된다(그림 10.6). 이때 분석의 기초가 되는 사실은, 인간의 손의 손가락(12)이 항상 상호 전형적인 비율을 가진다는 것이다(예컨대 Buryanov A., Kotiuk V., Proportions of Hand Segments, Int. J. Morphol., 28(3): 755-758, 2010 참조). 이로부터 출발하여, 전체 손의 평균 각도에 대하여 가장 멀리 좌측에 놓인 지문(13)이 나머지 지문에 대해 가지는 사전 정의된 각도 비율(21)이 결정되고, 촬상 유닛(1)의 센서 주사를 통해 상기 올려놓은 손가락(12)으로부터 결정된 각도 비율(21)과 함께 산정된다(그림 10.5). 올려놓은 손가락(12)으로부터 얻어지는 각도 비율(21)이 사전 정의된 각도 비율과 일치하지 않으면, 잘못된 손(448)이 올려졌고 따라서 잘못된 손(448)의 해당 견본이 영상 메모리(3)로부터 호출되었으며, 표시 유닛(4)에서 표시되어야 하는 것으로 간주한다. 도 10b에는 도 10a의 그림 10.6에 대한 대안적인 화면이 도시되며, 이 화면은 사용자에게 잘못된 손(448)이 올려졌음을 신호화한다. 원하는 상태는 손가락 윤곽선(45)으로 표현되고, 잘못 올려놓은 손(448)은 이에 대한 중첩으로 표현된다. 그림 10.10에서는, 사용자에게 올바른 손(449)을 올려놓을 것을 신호화하는 애니메이션이 도시되어 있다. 이때 영상 시퀀스에서 잘못 올려놓은 손(448)이 손가락 윤곽선(45)으로부터 움직여 나오고, 올바른 손 표현물(46)이 손가락 윤곽선(45) 안으로 움직여 들어가며, 손가락 윤곽선(45) 내에 올바른 손 표현물(46)이 위치할 때까지 움직여 들어간다. 이는, 요구된 손과 올려놓은 손 사이의 각도 비율(21)의 일치가 영상 처리 유닛(2)을 통해 분석될 때까지의 시간동안 일어난다. 올바른 손(449)을 성공적으로 올려놓고(도 10a의 그림 10.7) 이에 상응하는 센서 주사(그림 10.8)가 있으면, 사용자에게는 표시 유닛(4)을 통해, 예컨대 그림 10.9에 도시된 바와 같은 모습이 통지된다. 이 경우 올려놓은 손은 손가락 윤곽선(45) 내에 위치한다. 손가락 윤곽선(45) 대신, 요구된 손의 표현물은 다른 색상 또는 투명한 올바른 손(449)으로 나타내질 수 있고, 요구된 손의 표현물과 실제 손 표현물(46)의 올려놓은 손가락(12)의 중첩이 이루어져야 한다(그림 10.11 또는 10.12).
앞에서 판단된 파라미터 및 사용자에게 표시된 정보의 순서는 임의적으로 조합될 수 있고, 상세한 설명에서 선택된 표시물의 순서와 방식은 본 발명을 한정하지 않는다. 본 발명의 견지에서의 지문(13)은 개별 손가락을 포함하거나 복수 개의 손가락(12)의 그 어떤 조합도 포함한다. 다른 견지에서 본 발명은 평면적인 지문뿐만이 아니라 굴려 찍은 지문도 포함한다. 지문(13)의 높은 영상 품질에 대한 평가의 핵심은 사용자가 촬상면(11)위를 손가락(12)으로 누르는 압력에 따른다. 그러나 마찬가지로 본 발명의 기본적 교시를 벗어나지 않는 한, 다른 파라미터도 바람직하거나, 개별적 파라미터는 영상 처리 유닛(2)의 판단 및/또는 표시 유닛(4)에의 표현물로부터 생략될 수 있다.
1 촬상 유닛
11 촬상면
111 허용된 촬상면(엄지를 위해)
12 손가락
13 지문
14 범위를 한정하는 직사각형
15 엄지
16 잘린 엄지 지문
17 (완전한) 엄지 지문
18 너무 낮은 명암대비(압력)를 포함한 지문
19 너무 높은 명암대비(압력)를 포함한 지문
20 올바른 명암대비(압력)를 포함한 지문
21 각도 비율(왼손/오른손을 위함)
2 영상 처리 유닛
3 영상 메모리
4 표시 유닛
41 양식화된 장비 표면
42 양식화된 촬상면
43 손 모형
44 손 복제상(견본)
441 부재한 손가락을 포함한 손
442 다른 색의 손가락을 포함한 손
443 파선으로 표시된 손가락을 포함한 손
444 뻗은 손가락을 포함한 손
445 범위를 벗어난 손가락을 포함한 손
446 회전에 따른 위치변경을 포함하는 손
447 움직임 시뮬레이션을 포함한 손
448 잘못된 손
449 (위치 변경된) 올바른 손
45 (확대된) 손가락 윤곽선
451 너무 약한 손가락 아우라(너무 낮은 명암대비)
452 너무 강한 손가락 아우라(너무 높은 명암대비)
453 최적의 손가락 아우라(올바른 명암대비)
46 정확한 손 표현물
47 화살표
471 낮은 압력 표시를 포함한 압력계
472 높은 압력 표시를 포함한 압력계
473 무단위 눈금
474 진동 표시를 위한 동심적 원호
48 엄지 모형
481 위치가 어긋난 엄지 모습
482 정확한 엄지 모습
5 지문 스캐너
6 데이터베이스

Claims (18)

  1. 지문 스캐너(5)를 기반으로 하여 충분히 높은 품질로 지문(13)을 촬상하기 위한 방법에 있어서,
    - 촬상면(11) 위에 올려놓은 손가락의 지문(13)을 촬상하는 단계,
    - 센서 이미지의 관련된 객체의 수와 상태를 분석하는 단계,
    - 상기 지문(13)의 위치, 수 및 종류를 위한 기준-기본값과 현재-위치와 현재-수를 비교하는 단계;
    - 상기 촬상면(11)위에 올려놓은 손가락(12)의 다양한 상태들 및 기준-기본값을 위한 다수의 애니메이션 영상들로 구성된 라이브러리를 포함하는 영상 메모리(3)에 접근하는 단계, 그리고
    - 오류가 있는 손가락 올려놓기를 상기 객체 분석에 상응하여 포지티브(positive)한 손가락 이미지로서 표현하는 영상들 또는 영상 시리즈를 선택하는 단계 그리고
    - 상기 촬상면(11)의 직접적 근방에 위치하는 표시 유닛(4) 위에 2차원 영상의 형태로 상기 포지티브하게 변환된 손가락 이미지를 표시하는 단계를 포함하는 것을 특징으로 하는 방법.
  2. 청구항 1에 있어서,
    상기 지문(13)의 수와 상태를 분석하기 위해 상기 센서 이미지의 관련된 객체로서 각각 첫번째 손가락마디의 지문을 어두운 픽셀 영역으로서 검색하고, 중심점을 포함한 상태, 면 및 정렬이 산출된 범위 한정 직사각형(14)을 갖추어 상기 기준-기본값과의 비교를 수행하는 것을 특징으로 하는 방법.
  3. 청구항 2에 있어서,
    상기 영상 메모리(3)의 라이브러리로부터, 해당 손가락 표현물을 보완하기 위해 상기 기준-기본값의 손가락마디의 수에 대해 상기 산출된 오차가 선택되는 것을 특징으로 하는 방법.
  4. 청구항 3에 있어서,
    부재한 손가락은 상기 기준-기본값에 의해 보완되고, 오차가 있는 패턴 형상으로 표시되는 것을 특징으로 하는 방법.
  5. 청구항 4에 있어서,
    상기 오차가 있는 패턴 형상은 상이한 경계선 방식, 음영, 채움색 또는 채움 패턴으로부터 선택되는 것을 특징으로 하는 방법.
  6. 청구항 1에 있어서,
    상기 촬상면(11)의 가장자리를 초과하여 발생하는 지문의 부재한 부분은 나머지 손가락 진행을 인식하여 반대쪽으로 향해진 화살표(47)를 통해 표시되는 것을 특징으로 하는 방법.
  7. 청구항 1에 있어서,
    객체로서 인식된 지문(13)이 상기 기준-기본값에 비해 길이 대 폭의 비율에서 부가적인 오차가 산출되고, 이를 통해 손가락(12)이 경사져 있는 상태가 인식 및 표시되는 것을 특징으로 하는 방법.
  8. 청구항 7에 있어서,
    상기 촬상면(11)의 가장자리를 초과하여 발생하는 지문(13)의 부재한 부분은 나머지 손가락 진행을 인식하여 보완되고, 손가락 윤곽을 확대하여 복제한 손가락 윤곽선(45)을 통해 상기 기준-기본값에 상응하여 보정 명령이 표시되는 것을 특징으로 하는 방법.
  9. 청구항 7에 있어서,
    상기 촬상면(11)위에 가해진 압력이 불충분하여 발생하는 지문(13)의 부족한 크기 또는 부족한 명암대비는 계조 히스토그램, 표준 편차의 분석 및 이후의 임계 평가에 의해 산출되는 것을 특징으로 하는 방법.
  10. 청구항 9에 있어서,
    상기 촬상면(11)위에 가해진 압력이 불충분하여 발생하는 지문(13)의 부족한 크기 또는 부족한 명암대비는 상기 기준-기본값에 비해 산출되고 확대된 손가락 윤곽선(45)으로서 표시되며, 이때 각각의 지문을 둘러싸는 패턴화된 영역은 적용된 압력에 따라 상기 손가락(12)을 둘러싸는 지문 아우라(451, 452, 453)로서 표시되고, 상기 지문 아우라는 상기 손가락 윤곽선(45)의 도달 시 상기 촬상면(11) 위에서의 최적의 가압력을 신호화하는 것을 특징으로 하는 방법.
  11. 청구항 7에 있어서,
    상기 촬상면(11) 위에 경사지게 올려놓음으로써 발생하는 지문(13)의 잘못된 정렬은 범위 한정 직사각형(14)의 측면 비율 및 상기 촬상면(11)의 가장자리와의 간격을 분석하여 산출되고, 회전하는 화살표(47)로 보여지는 것을 특징으로 하는 방법.
  12. 청구항 7에 있어서,
    상기 촬상면(11)위에 경사지게 올려놓음으로써 발생하는 지문(13)의 잘못된 정렬은 상기 범위 한정 직사각형(14)의 측면 비율 및 상기 촬상면(11)의 가장자리와의 간격을 분석하여 산출되고, 상기 기준-기본값에 상응하여 상기 손가락 윤곽을 확대하여 복제한 손가락 윤곽선(45)을 통해 보정 명령이 표시되는 것을 특징으로 하는 방법.
  13. 청구항 1에 있어서,
    부가적으로 상기 지문(13)의 명암대비는 상기 기준-기본값에 비해 계조 히스토그램, 표준 편차의 분석 및 그 이후의 임계 평가에 의해 산출되고, 확대된 손가락 윤곽선(45)으로서 표시되며, 이때 각각의 지문(13)을 둘러싸는 패턴화된 영역은 적용된 압력에 따라 상기 손가락(12)을 둘러싸는 지문 아우라(451, 452, 453)으로서 표시되고, 상기 지문 아우라는 상기 손가락 윤곽선(45) 내에서 상기 촬상면(11) 위에서의 최적의 가압력을 신호화하는 것을 특징으로 하는 방법.
  14. 청구항 1에 있어서,
    부가적으로 상기 지문(13)의 명암대비는 상기 기준-기본값에 비해 계조 히스토그램, 표준 편차의 분석 및 그 이후의 임계 평가에 의해 산출되고, 유사한 압력 표시물로서 양측에서 대칭인 선형의 무단위 눈금(473)의 형태로 표시부 위에 나타나며, 이때 상기 촬상면(11) 위의 가압력이 너무 높으면 상기 눈금(473)을 따라 화살표가 위로 움직이는 것으로 신호화되고, 가압력이 너무 낮으면 화살표가 아래로 움직이는 것으로 신호화되는 것을 특징으로 하는 방법.
  15. 청구항 1에 있어서,
    부가적으로 상기 손가락(12)의 정지 상태는 소정의 시간 간격에 걸쳐 상기 촬상면(11)의 가장자리로부터 간격 비율을 분석하여 모니터링되되, 산출된 지문(13) 중심점 상태가 3개를 초과한 연속 영상을 위해 일정하지 않으면 손의 이중표시물로 표시되면서 모니터링되는 것을 특징으로 하는 방법.
  16. 청구항 1에 있어서,
    부가적으로 상기 손가락(12)의 정지 상태는 소정의 시간 간격에 걸쳐 상기 촬상면(11)의 가장자리로부터의 간격 비율을 분석하여 모니터링되되, 산출된 지문(13)의 중심점 상태가 3개를 초과한 연속 영상을 위해 일정하지 않으면 손 표시 외에 동심적 원호(474)의 개수로 표시되는 것을 특징으로 하는 방법.
  17. 청구항 15 또는 청구항 16에 있어서,
    상기 산출된 지문(13)의 중심점 상태가 750 ms 내에서 15 픽셀을 초과하는 만큼 이동하면 움직임으로서 표시되는 것을 특징으로 하는 방법.
  18. 지문 스캐너(5)를 기반으로 하여 충분히 높은 품질로 지문(13)을 촬상하기 위해, 고해상 지문(13)을 위한 촬상 유닛(1) 및 그 이후에 배치되며 간단한 품질 기준의 분석을 위한 영상 처리 유닛(2)이 제공되어, 질적으로 고품질의 지문(13)만을 데이터베이스(6)에 전달하기 위한 장치에 있어서,
    - 애니메이션으로 된 다수의 손가락 위치 영상들로 구성된 라이브러리를 포함하는 영상 메모리(3)가 제공되고,
    - 상기 촬상 유닛(1)에는 2차원 표시 유닛(4)이 부속하고, 상기 2차원 표시 유닛은 상기 영상 처리 유닛(2)에서 분석된 지문(13)의 결과에 따라 상기 영상 메모리(3)로부터의 상기 애니메이션으로 된 손가락 위치 영상들을 표시하기 위해 형성되고,
    - 이때 상기 애니메이션으로 된 손가락 위치 영상들을 표시하기 위한 상기 표시 유닛(4)은 상기 촬상 유닛(1)의 촬상면(11) 위에 실제로 올려놓은 손가락(12)의 포지티브한 실시간 표현물을 통해 간단한 사용자 가이드를 위해 제공되는 것을 특징으로 하는 장치.
KR1020130111692A 2012-09-19 2013-09-17 지문 스캐너를 기반으로 하여 신뢰할만한 높은 품질로 지문을 촬상하기 위한 방법 및 장치 KR102072773B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102012108838.1A DE102012108838A1 (de) 2012-09-19 2012-09-19 Verfahren und Vorrichtung zur Aufnahme von Fingerabdrücken auf Basis von Fingerabdruckscannern in zuverlässig hoher Qualität
DE102012108838.1 2012-09-19

Publications (2)

Publication Number Publication Date
KR20140037777A true KR20140037777A (ko) 2014-03-27
KR102072773B1 KR102072773B1 (ko) 2020-03-02

Family

ID=49212669

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130111692A KR102072773B1 (ko) 2012-09-19 2013-09-17 지문 스캐너를 기반으로 하여 신뢰할만한 높은 품질로 지문을 촬상하기 위한 방법 및 장치

Country Status (6)

Country Link
US (1) US9202100B2 (ko)
EP (1) EP2711869A3 (ko)
JP (1) JP5841983B2 (ko)
KR (1) KR102072773B1 (ko)
CA (2) CA2835396C (ko)
DE (1) DE102012108838A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170097638A (ko) * 2014-12-19 2017-08-28 핑거프린트 카드즈 에이비 주의 중심점을 기반으로 한 가이드식 지문등록
KR20170134356A (ko) * 2015-02-06 2017-12-06 베리디움 아이피 리미티드 모바일 장치를 사용하여 촬영된 이미지를 이용한 지문-기반 사용자 인증 수행 시스템 및 방법
WO2020213007A1 (en) * 2019-04-15 2020-10-22 Rajat Inderkumar Grover Emotion detection system and method

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9582127B2 (en) * 2014-04-04 2017-02-28 Synaptics Incorporated Large feature biometrics using capacitive touchscreens
US9582705B2 (en) * 2014-08-31 2017-02-28 Qualcomm Incorporated Layered filtering for biometric sensors
US9195879B1 (en) * 2014-08-31 2015-11-24 Qualcomm Incorporated Air/object determination for biometric sensors
US9665763B2 (en) * 2014-08-31 2017-05-30 Qualcomm Incorporated Finger/non-finger determination for biometric sensors
KR102338864B1 (ko) 2015-02-12 2021-12-13 삼성전자주식회사 전자 장치 및 전자 장치에서의 지문 등록 방법
US9774453B2 (en) * 2015-04-01 2017-09-26 Northrop Grumman Systems Corporation System and method for providing an automated biometric enrollment workflow
KR101985658B1 (ko) * 2015-08-10 2019-06-04 주식회사 슈프리마 지문 데이터 획득 방법 및 그 장치
DE102015115381A1 (de) 2015-09-11 2017-03-16 JENETRIC GmbH Vorrichtung und Verfahren zur optischen Aufnahme von Abdrücken von durchbluteten Hautbereichen
DE102015116026A1 (de) * 2015-09-22 2017-03-23 JENETRIC GmbH Vorrichtung und Verfahren zur direkten optischen Bildaufnahme von Dokumenten und / oder lebenden Hautbereichen ohne abbildende optische Elemente
US20170091521A1 (en) * 2015-09-30 2017-03-30 Synaptics Incorporated Secure visual feedback for fingerprint sensing
KR102365412B1 (ko) 2015-10-13 2022-02-21 삼성전자주식회사 전자 장치 및 전자 장치에서의 지문 인증을 위한 방법
US11854308B1 (en) 2016-02-17 2023-12-26 Ultrahaptics IP Two Limited Hand initialization for machine learning based gesture recognition
US11841920B1 (en) 2016-02-17 2023-12-12 Ultrahaptics IP Two Limited Machine learning based gesture recognition
US11714880B1 (en) * 2016-02-17 2023-08-01 Ultrahaptics IP Two Limited Hand pose estimation for machine learning based gesture recognition
KR102468191B1 (ko) * 2016-04-27 2022-11-18 삼성전자주식회사 지문 인증 방법 및 이를 수행하는 전자 장치
US10133857B2 (en) * 2016-05-18 2018-11-20 Bank Of America Corporation Phalangeal authentication device
DE102016114188A1 (de) * 2016-08-01 2018-02-01 JENETRIC GmbH Vorrichtung und Verfahren zur Direktaufnahme von Abdrücken abgerollter Finger
KR102564267B1 (ko) * 2016-12-01 2023-08-07 삼성전자주식회사 전자 장치 및 그 동작 방법
KR20180091597A (ko) * 2017-02-07 2018-08-16 삼성전자주식회사 초음파 신호를 이용하여 지문 정보를 획득하는 전자 장치
US10783346B2 (en) * 2017-12-11 2020-09-22 Invensense, Inc. Enhancing quality of a fingerprint image
CN108171177A (zh) * 2017-12-29 2018-06-15 昆山国显光电有限公司 一种指纹操作提示方法及显示面板、显示装置
CN111699490B (zh) 2018-02-16 2023-11-24 指纹卡安娜卡敦知识产权有限公司 用于电子装置的认证方法
US10102415B1 (en) 2018-03-29 2018-10-16 Secugen Corporation Method and apparatus for simultaneous multiple fingerprint enrollment
WO2020032851A1 (en) 2018-08-09 2020-02-13 Fingerprint Cards Ab Method of multi-finger enrollment for a user
US10990260B2 (en) 2018-08-23 2021-04-27 Motorola Mobility Llc Electronic device control in response to finger rotation upon fingerprint sensor and corresponding methods
EP4004807A1 (en) * 2019-07-23 2022-06-01 Touch Biometrix Limited Method to authenticate a user in an electronic device comprising a fingerprint sensor
CN110414440B (zh) * 2019-07-30 2022-02-25 中国工商银行股份有限公司 一种指纹采集识别方法及装置
US20230306783A1 (en) 2020-08-24 2023-09-28 Nec Corporation Information processing device, system, information processing method, and recording medium
US11645865B2 (en) * 2021-03-04 2023-05-09 Qualcomm Incorporated Randomized multi-fingerprint authentication
JP2023027650A (ja) * 2021-08-17 2023-03-02 富士フイルムビジネスイノベーション株式会社 遠隔支援システム、端末装置、遠隔装置、誘導画像表示プログラム、及び遠隔支援プログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010002632A1 (en) * 1999-12-01 2001-06-07 Reitter & Schefenacker Gmbh & Co. Kg Holder for a loudspeaker to be mounted in a motor vehicle and method for its manufacture
US20120076369A1 (en) * 2010-09-24 2012-03-29 Gil Abramovich System and method for contactless multi-fingerprint collection
KR20130084413A (ko) * 2012-01-17 2013-07-25 엘지이노텍 주식회사 지문 인식 장치 및 방법

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5416573A (en) 1993-09-10 1995-05-16 Indentix Incorporated Apparatus for producing fingerprint images which are substantially free of artifacts attributable to moisture on the finger being imaged
US5828773A (en) 1996-01-26 1998-10-27 Harris Corporation Fingerprint sensing method with finger position indication
JPH10320550A (ja) 1997-05-14 1998-12-04 Sony Corp 照合装置
JP3825222B2 (ja) * 2000-03-24 2006-09-27 松下電器産業株式会社 本人認証装置および本人認証システムならびに電子決済システム
JP4164732B2 (ja) * 2001-03-07 2008-10-15 ソニー株式会社 指紋照合システム、指紋照合装置、指紋照合方法、およびバイオメトリクス照合装置
EP1371011A1 (de) * 2001-03-21 2003-12-17 Siemens Aktiengesellschaft Verfahren zur benutzerführung eines biometrischen systems mit fingerabdruckeingabe
EP1390196A4 (en) 2001-04-26 2005-12-28 Cross Match Technologies Inc SILICONE RUBBER SURFACES FOR PRISMS WITH TOTAL INTERNAL REFLECTION (TIR) OF BIOMETRIC PRINTING
JP4022090B2 (ja) * 2002-03-27 2007-12-12 富士通株式会社 指の動きの検出方法および検出装置
JP4306177B2 (ja) * 2002-04-04 2009-07-29 三菱電機株式会社 指紋照合装置、及び指紋照合方法
JP2003337937A (ja) 2002-05-20 2003-11-28 Sharp Corp 指紋センサ付き端末装置
JP2004086866A (ja) * 2002-06-25 2004-03-18 Chuo Spring Co Ltd 指紋照合方法及び指紋画像の登録方法
US7277562B2 (en) 2003-08-01 2007-10-02 Cross Match Technologies, Inc. Biometric imaging capture system and method
JP4419493B2 (ja) 2003-09-22 2010-02-24 カシオ計算機株式会社 指紋読取装置、同装置に用いられる指紋読み取り状況表示方法及びプログラム
JP2006072555A (ja) 2004-08-31 2006-03-16 Secom Co Ltd 生体情報画像補正装置
DE102006005617B4 (de) * 2006-02-06 2023-10-12 Bundesdruckerei Gmbh Verfahren zur Bewertung der Qualität eines Bildes, Verfahren zur Herstellung eines Dokuments, Computerprogrammprodukt und elektronisches Gerät
WO2007123557A1 (en) * 2006-04-26 2007-11-01 Aware, Inc. Fingerprint preview quality and segmentation
JP5034359B2 (ja) * 2006-08-07 2012-09-26 富士通株式会社 画像認証装置、画像認証方法、画像認証プログラム、記録媒体及び電子機器
JP4842780B2 (ja) 2006-11-28 2011-12-21 株式会社日立ソリューションズ 個人情報認証装置および個人情報認証方法
JP2009098935A (ja) 2007-10-17 2009-05-07 Hitachi Ltd 指静脈認証装置及びこれを用いた情報処理装置
JP5353172B2 (ja) * 2008-10-02 2013-11-27 富士通株式会社 認証方法、認証プログラムおよび情報処理装置
KR101092303B1 (ko) * 2009-05-26 2011-12-13 주식회사 유니온커뮤니티 지문인식장치 및 그 지문 데이터 획득방법
US9013613B2 (en) * 2010-09-21 2015-04-21 Sony Corporation Sensor-equipped display apparatus and electronic apparatus
JP5679767B2 (ja) * 2010-10-28 2015-03-04 ラピスセミコンダクタ株式会社 指紋認証装置及び指紋認証用プログラム
US20120127179A1 (en) * 2010-11-19 2012-05-24 Nokia Corporation Method, apparatus and computer program product for user interface
JP5747642B2 (ja) * 2011-05-06 2015-07-15 富士通株式会社 生体認証装置、生体認証システム、生体認証サーバ、生体認証クライアント及び生体認証装置制御方法
JP5831018B2 (ja) * 2011-07-29 2015-12-09 富士通株式会社 生体認証装置及び生体認証装置における利用者の手の位置の調整方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010002632A1 (en) * 1999-12-01 2001-06-07 Reitter & Schefenacker Gmbh & Co. Kg Holder for a loudspeaker to be mounted in a motor vehicle and method for its manufacture
US20120076369A1 (en) * 2010-09-24 2012-03-29 Gil Abramovich System and method for contactless multi-fingerprint collection
KR20130084413A (ko) * 2012-01-17 2013-07-25 엘지이노텍 주식회사 지문 인식 장치 및 방법

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170097638A (ko) * 2014-12-19 2017-08-28 핑거프린트 카드즈 에이비 주의 중심점을 기반으로 한 가이드식 지문등록
KR20170134356A (ko) * 2015-02-06 2017-12-06 베리디움 아이피 리미티드 모바일 장치를 사용하여 촬영된 이미지를 이용한 지문-기반 사용자 인증 수행 시스템 및 방법
WO2020213007A1 (en) * 2019-04-15 2020-10-22 Rajat Inderkumar Grover Emotion detection system and method

Also Published As

Publication number Publication date
JP2014063493A (ja) 2014-04-10
US9202100B2 (en) 2015-12-01
CA2826716A1 (en) 2014-03-19
EP2711869A3 (de) 2015-08-19
JP5841983B2 (ja) 2016-01-13
EP2711869A2 (de) 2014-03-26
KR102072773B1 (ko) 2020-03-02
DE102012108838A1 (de) 2014-05-28
CA2835396A1 (en) 2014-03-19
US20140079300A1 (en) 2014-03-20
CA2835396C (en) 2018-05-01

Similar Documents

Publication Publication Date Title
KR102072773B1 (ko) 지문 스캐너를 기반으로 하여 신뢰할만한 높은 품질로 지문을 촬상하기 위한 방법 및 장치
CN107077608B (zh) 图像生物特征识别中的面部活体检测
CN102402680B (zh) 人机交互系统中手部、指示点定位方法和手势确定方法
JP6809226B2 (ja) 生体検知装置、生体検知方法、および、生体検知プログラム
KR20120019410A (ko) 제스처 기반 바이오메트릭 시스템의 방법 및 장치
JP2020507836A (ja) 重複撮像を予測した手術アイテムの追跡
CN111325769B (zh) 一种目标对象检测方法及装置
JP3143819B2 (ja) まぶたの開度検出装置
JP2006099614A (ja) 生体判別装置および生体判別方法
JPH11244261A (ja) アイリス認識方法及び装置、データ変換方法及び装置
KR20190108218A (ko) 디지털 영상 이미지를 이용한 위급상황 분석장치 및 방법
US9977889B2 (en) Device for checking the authenticity of a fingerprint
JP2005135271A (ja) 顔照合装置および通行制御装置
JP2007156768A (ja) 個人認証装置,個人認証情報登録装置,個人認証方法,個人認証情報登録方法,およびコンピュータプログラム
JP2009080706A (ja) 個人認証装置
WO2020105578A1 (ja) 撮像装置および撮像方法
JP3487494B2 (ja) メニュー選択方法及び装置
WO2006025129A1 (ja) 個人認証装置
KR102262930B1 (ko) 상대 좌표 추출 장치 및 방법
WO2021124395A1 (ja) 判定システム、判定方法、コンピュータプログラム、及び認証システム
JP4852454B2 (ja) 目傾き検出装置及びプログラム
JP6339259B1 (ja) 画像処理システム及びマーカー
JP2003256815A (ja) 指紋画像のキャプチャー方法及び指紋画像入力装置並びにプログラム
JP2007025935A (ja) 画像検出装置
WO2015181580A1 (en) Automated review of forms through augmented reality

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant