KR20070107655A - 3d 지문 인식을 위한 비접촉 광학 수단 및 방법 - Google Patents

3d 지문 인식을 위한 비접촉 광학 수단 및 방법 Download PDF

Info

Publication number
KR20070107655A
KR20070107655A KR1020077005630A KR20077005630A KR20070107655A KR 20070107655 A KR20070107655 A KR 20070107655A KR 1020077005630 A KR1020077005630 A KR 1020077005630A KR 20077005630 A KR20077005630 A KR 20077005630A KR 20070107655 A KR20070107655 A KR 20070107655A
Authority
KR
South Korea
Prior art keywords
images
image
fingerprints
blurring
optical
Prior art date
Application number
KR1020077005630A
Other languages
English (en)
Inventor
어셰 페레즈
라미 코헨
Original Assignee
클래시프아이 엘티디.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 클래시프아이 엘티디. filed Critical 클래시프아이 엘티디.
Publication of KR20070107655A publication Critical patent/KR20070107655A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/88Image or video recognition using optical means, e.g. reference filters, holographic masks, frequency domain filters or spatial domain filters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1312Sensors therefor direct reading, e.g. contactless acquisition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Image Input (AREA)
  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

본 발명은 비접촉 광학 수단에 의해 3D 지문들을 인식하는 방법을 개시한다. 신규한 본 발명의 방법은 특히, 특징점(minutia), 분기점들(forks), 종결점들(endings) 또는 이들의 임의의 조합을 포함하는 그룹에서 선택되는 3D 광학 영상들이 제공되도록, 지문들을 캡쳐하기 위한 광학 비접촉 수단을 획득하는 단계; 다수의 지문들을 획득하는 단계 - 상기 지문들의 영상 해상도는 카메라와 검사되는 손가락 사이의 거리에 의존하지 않음 -; 초점-이탈(mis-focal) 및 흐릿함(blurring) 복구(restoring)에 의해 획득된 영상들을 보정하는 단계; 다양한 시계들과 각도들 하에서 등록 위상(enrolment phase)의 다수의 영상들, 바람직하게는 6 내지 9 영상들을 획득하는 단계; 및 부가적인 광학 센서가 요구되지 않도록, 더 높은 해상도와 메모리 소모를 결부시키지 않는 단계를 포함한다.

Description

3D 지문 인식을 위한 비접촉 광학 수단 및 방법{NON-CONTACT OPTICAL MEANS AND METHOD FOR 3D FINGERPRINT RECOGNITION}
본 발명은 일반적으로 3D 지문 인식을 위한 비접촉 광학 수단 및 방법에 관한 것이다.
지문의 패턴과 형상은 각각의 개인마다 다르고, 신체가 성장하고 시간이 흐름에 따라 변하지 않는다. 지문의 분류는 일반적으로 아치형, 고리형 또는 나선형과 같은 일정한 특성에 기초한다. 가장 분명한 특성들로는 특징점들(minutiae), 분기점들(forks), 또는 리지에서 발견되는 종결점들(endings) 및 리지(ridge) 흐름의 전체적인 형상들이 있다.
다양한 패턴들이 지문을 인식하기 위한 방법들을 제시한다. 따라서, Mueller의 미국 특허 제2004/234111호는 참조 데이터가 휴대용 데이터 캐리어(carrier)에 저장되는 지문을 테스트하기 위한 방법을 개시한다.
지문들은 변경 불가능한 물리적인 특성에 의존하기 때문에 매우 정확한 식별자이나, 그들의 고유성을 인식하기 위해서는 전문 입력 장치가 요구된다. 이러한 장치들은 표준 전자 통신 및 컴퓨터 사용 장비와 항상 양립하지는 않는다. 또한, 이러한 장치들과 관련된 비용은 대량-시장 허용(mass-market acceptance)에 대한 제한을 만들어낸다.
따라서, 비접촉 광학 수단을 사용하여 3D 지문 인식의 비용 효율적인 방법에 대한 강한 요구가 존재해왔으나, 이것은 지금까지는 상업적으로 이용 불가능했다.
따라서, 본 발명의 목적은 3D 지문 인식을 위한 비접촉 광학적 수단 및 방법을 제공하는 것이다. 상기 방법은 비제한적 방식으로 다음의 단계들을 포함한다: 특징점들, 분기점들, 종결점들 또는 임의의 그로 인한 조합물을 포함하는 그룹으로부터 선택된 지문 특성들의 3D 광학 영상들이 제공되도록 지문을 캡쳐하기 위한 광학적 비접촉 수단을 획득하는 단계; 상기 지문 영상의 영상 해상도가 카메라와 상기 검사된 손가락 사이의 거리에 독립적인 복수의 지문 영상들을 획득하는 단계; 초점-이탈(mis-focal)과 흐릿함 복구(blurring restoring)에 의하여 획득된 영상들을 보정하는 단계; 복수의 영상들, 바람직하게는 6 내지 9개의 영상들을 등록 단계에서 다양한 관점과 각도에서 획득하는 단계; 상기 영상들의 필드 농도의 품질과 각 픽셀 당 강도를 시스템적으로 개선하는 단계; 및 부가적인 광학 센서가 요구되지 않도록 메모리 소모와 높은 해상도를 결부시키지 않는 단계.
본 발명의 범위 내에서, 적어도 하나의 CMOS 카메라를 사용하는 방법이 제공된다; 상기 방법은 다음을 포함하는 소프트웨어 기반 패키지에 의해 개선된다: 인접 필드 광 및 대조비를 이용하여 영상를 캡쳐하는 단계; 초점-이탈과 흐릿함 복구를 제공하는 단계; 고정된 각도와 거리 불변성을 유지시킴으로써 상기 영상들을 복구시키는 단계; 및 상기 영상들의 수학적 모델의 교차-저장(cross-storing)과 등록 단계를 획득하는 단계.
본 발명의 범위 내에서, 복수의 영역에서 초기 영상를 분할하는 단계 및 DCT 또는 푸리에(Fourier) 변환을 수행하는 단계; 지문 외부 윤곽을 추출하는 단계; 주파수 영역에서 적어도 하나의 국부적 막대 그래프를 실행시킴으로써 국부적 흐릿함 저하를 평가하는 단계; 유사-비 공간적 단계의 초점이 흐려진 집중 영상로부터 발생하는 흐릿함을 증가시키는 단계; 상이한 영역들에서 착란원(COC: circlo of confusion)의 초점이 흐려진 정도에 대한 관련성과 상기 흐릿함의 효과를 평가하는 단계; 초점 구간에 인접한 영상를 광선 추적하여 광학 정밀도 차이(OPD: optical precision difference)에 기초한 품질 기준을 생성하는 단계; 점 확산 함수(PSF: point spread function) 및 손가락의 토폴로지 형상과 상호 관련된 COC의 국부적인 상대적 위치를 모델화하는 단계; 및 획득된 3D 영상를 바람직하게는 개별 디컨벌루션(deconvolution)을 사용하여 복구하는 단계에 의해 지문 영역의 적어도 일부분의 주파수 맵핑(mapping)을 획득하는 방법이 제공되며, 이것은 역 필터링 및/또는 통계학적 필터링 수단을 수반할 수 있다.
또한, 본 발명의 범위 내에서, 뉴턴의 컴팩트 바디(Newtonian compact body)의 바이오-탄성(bioelastic) 모델; 광역 볼록렌즈 보상(global convex recovering) 모델; 및 매칭 수단에 의한 입체적 재건을 적용하는 방법이 제공된다.
또한, 본 발명의 범위 내에서, 각각의 엘리먼트가 가우시안-가중 거리(Gaussian-weighted distance)인 피쳐들의 두 개의 세트들의 근접 매트릭스(proximity matrix)를 형성하는 단계; 및 서로 관련된 근접 G 매트릭스의 단독 값 분해를 수행하는 단계를 포함하는 방법이 제공된다.
본 발명의 또 다른 목적은 인식의 순간에 캡쳐된 손가락 영상와 이전에 캡쳐된 영상을 구별하는 방법을 제공하는 것으로서, 상기 방법은 주변 빛 상태에 따라 영상들의 반사도를 비교하는 단계; 등록 동안, 각각의 컬러 채널에 있는 그림들을 캡쳐하여 선택된 영역들을 맵핑하는 단계; 각각의 채널에 대한 작은 영역상에 국부적 막대 그래프를 실행시키는 단계; 상이한 컬러 채널들과 카메라 장치의 민감성에 따라 각각의 지문에 대한 외부 조명 변형(external lightning modification)을 사용하여 응답 프로파일을 설정하는 단계; 후보자의 수용 또는 거절을 획득하여 실제 지문의 스펙트럼 응답을 의심가는 것과 비교하는 단계를 포함한다.
본 발명의 범위 내에서, 광선 추적 수단을 획득하는 단계; OPD에 기초한 종료 기준을 생성하는 단계; 감지기 구조에 대한 픽셀 OTF를 획득하는 단계; 샘플링된 OTF들 및 PSF들을 산출하는 단계; 샘플링된 PSF 세트에 기초한 선택된 처리 알고리즘에 대한 디지털 필터 계수를 산출하는 단계; 레이트(rate) 연산자를 산출하는 단계; 디지털 파라미터들을 처리하는 단계; 레이트 메리트(merit) 피연산자를 광학 피연산자와 비교하는 단계; 및 광학 표면들을 변경하는 단계를 포함하는 방법이 제공된다.
또한, 본 발명의 범위 내에서, 파선-추적 특성들과 영상의 픽셀 중복도들을 개선하는 방법이 제공되며, 상기 방법은 그 중에서도 특히, 중복도 디컨벌루션을 복구 및 흐릿함 왜곡을 모델링하기에 알맞은 수치적(numerical) 비구면 렌즈를 결정하는 단계를 포함한다.
본 발명의 범위 내에서, 다음을 포함하는 지문 식별 시스템이 제공된다: 근거리 조명으로 영상를 캡쳐하기 위한 수단; 초점-이탈과 흐릿함 복구를 위한 수단; 획득된 영상의 맵핑 및 투영을 위한 수단; 및 등록 단계를 획득하고 상기 영상의 수학적 모델의 교차-저장을 획득하기 위한 수단.
본 발명을 이해하고 실제로 실시할 수 있는 방법을 이해하기 위해, 바람직한 실시예가 첨부된 도면을 참조로 제한되지 않는 예시만으로 기술될 것이다.
도 1은 본 발명의 하나의 간략화된 실시예에 따른 휴대폰 구성의 개념적 설명을 개념적으로 나타낸다.
도 2는 본 발명의 다른 실시예에 따른 PC 구성의 설명을 개념적으로 나타낸다.
도 3은 본 발명의 다른 실시예에 따른 흐름도의 설명을 개념적으로 나타낸다.
도 4는 본 발명의 다른 실시예에 따른 식별 단계를 개념적으로 나타낸다.
이하의 상세한 설명은 통상의 당업자가 본 발명을 사용할 수 있도록 하기 위해, 본 발명의 모든 부분에 따라 제공되고, 본 발명을 실시하는 발명자에 의해 예시되는 최상의 모드들을 기술한다. 그러나, 본 발명의 일반적인 원리들은 비접촉 광학 수단에 의해 3D 지문들을 인식하는 방법을 제공하기 위해 구체적으로 규정되기 때문에, 다양한 변형들은 통상의 당업자에게 명백할 것이다.
본 발명의 방법은 비-독점 방식으로 다수의 단계들을 포함한다:
제 1 단계는 "영상 획득" 또는 영상 캡쳐이다. 프로세스의 일부에서, 사용자는 카메라 장치 근처에 그의 손가락을 둔다. 손가락의 영상은 캡쳐되고 영상의 분석이 수행될 수 있다.
영상을 획득하는 이러한 방법은 손가락의 영상이 임의의 물리적 접촉 없이 캡쳐되기 때문에 종래의 지문 장치들과 상이하다. 대안적 기술들에서, 손가락은 스캐너로도 지칭되는, 투명 유리 기판 또는 임의의 감응성(sensitive) 표면과 물리적으로 접촉된다.
이러한 기술을 이용함으로써, 선택된 영상들은 조명(lighting), 대조비(contrast), 흐릿한 선명도(blurring definition)와 같은 기본 요구조건들을 충족시켜야 한다. 중심점이 관찰되는 영상들만이 선택될 수 있다.
본 발명의 기술은 손가락의 곡률이 고려되어야 하는 3D 바디 및 카메라 컴포넌트로서, 손가락의 임의의 영역들간에 존재하는 거리와 무관하게, 광범위한 지문 영상들을 획득할 수 있도록 한다.
렌즈의 초점 길이, 환경적 광 조건들과 같은 손가락의 광학 제약들 및 위치-이탈(mis-poistion)을 고려하면, 본 발명의 기술은 초점-이탈 및 흐릿함 저하를 갖는 영상들을 보정할 수 있다.
제 2 단계는 탈-포커싱으로부터 발생하는 흐릿함 저하를 나타내는 단거리들에서 캡쳐된 영상의 재구성에 제공된다. 또한, 면적당 픽셀 수와 같은 광 정밀도를 조절하기 위한 영상의 스케일링이 수행된다.
영상 재구성을 위한 구체적인 프로시저는 이후에 상세화된다.
지문 인식을 위한 가장 중요한 단계들 중 하나는 수학적 모델의 추출로서, 원시 특징점(raw minutia)을 결정하는 손가락의 골격화된(skeletonized) 배선도이다. 양호한 재현가능한 수학적 모델을 획득하기 위해, 손가락의 자유도들(degrees of freedom)의 수를 가능한 제한해야 하고, 자유도의 수는 통상 6으로 가정된다.
자연적으로 대부분의 자유도들을 고정시키고 병진 운동 및 회전 운동만이 유지되는 접촉 기술들과 대조적으로, 본 발명의 기술은 하드 토폴로지 수차(aberration)가 나타나는 훨씬 더 복잡한 영상들을 고려한다. 예시되는 것처럼, 실제로 있는 것보더 더 가깝게 보이는 뾰족한 기울기를 가진 영역들의 리지들은 다시 스케일링되어야 한다.
결과적으로, 본래의 3D 영상들에 대해 비접촉 영상들은 각도 불변성과 거리 확장성(scalability)을 유지하지 못하고; 이러한 상황은 수학적 모델의 임의의 재현성을 복잡하게 할 수 있다.
이러한 레벨에서, 본 발명의 기술은 각도 및 거리 불변성을 유지하는 투영된 3D 영상들을 복구시킨다. 이러한 새로운 영상들은 종래의 접촉 스캐너들에 의해 사용되는 것들과 동등하다.
이러한 종류의 토폴로지 투영들을 허용하는 일련의 프로시저들과 알고리즘들이 제안된다. 상이한 알고리즘들이 이후에 상세화된다.
캡쳐 단계는 손가락 인식의 상이한 단계들에서 발생한다: 등록, 검증 및 식별.
위상의 검증 또는 식별 동안 영상의 매칭을 개선하기 위해, 주어진 손가락의 지문 인식이 수행되는 서브-데이터베이스를 구비해야 한다. 일반적으로, 등록 위상 동안, 동일한 지문의 3개의 상이한 영상들이 수학적 모델의 복구에 의해 처리되고 이들을 함께 결합시키기 위해 상관 가중치가 형성된다. 여기서, 비접촉 영상들의 경우, 등록 위상은 상이한 시계들과 각도들에서, 몇가지 영상들, 전형적으로 6-9개의 영상들로 구성된다. 그 다음, 교차-결합 유사(similitude) 알고리즘이 영상의 입체(stero-scopic) 시계를 복구하기 위해 처리된다.
추가적으로, 토폴로지 3D 재구성 영상을 이용하여, 상이한 영상들이 손가락 형상에서 돌출될 것이다. 이 방식으로 획득되는 영상들의 전체 서브-데이터베이스, 및 이들의 수학적 모델 템플릿들은 추가적인 인식을 위해 사용될 것이다.
검증 프로시저, "1:1 기술"만을 요구하는 애플리케이션들에 대해, 등록 위상은 비접촉 리더에서 사용되는 것과 유사한 품질의 접촉 리더의 사용에 의해 캡쳐되는 지문의 적어도 하나의 실제 2D 영상을 포함한다. 이러한 방식으로, 필드들의 농도, 스캐너 해상도, 각도 공차 및 밸리들(valleys)에 대한 리지들의 국부적 주기와 같은 기본적인 파라미터들을 2차원적으로 복구시킨다.
본 발명의 다른 실시예에 따라, 이러한 기술은 손가락 끝 꼭지(fingertip papillary) 라인들의 최적 추출을 위한 국부적 대조비, 조명, 채도와 같은 카메라 센서 파라미터들을 국부적으로 보정한다.
지문은 손가락 끝에서 볼 수 있는 것처럼 루프들, 아크들, 및 소용돌이들에 대한 베이스를 형성하는 특징점들, 리지들 및 밸리들과 같은 토폴로지 세부사항들 로 구성된다.
본 발명은 본 발명의 일 실시예에 따른 특징점의 캡쳐 및 리지들의 습득 방법을 개시한다. 본 방법은 지문 구조의 푸리에 변환 또는 원격장 회절 표현(far-field diffraction representation) 에 특히 유용하다.
특히 절차는 하기의 단계들을 포함한다.
1. 이미지에서 손가락(Finger)의 제한치를 추출
일련의 이미지 프로세싱 필터들이 손가락 형태(finger form)를 추출하도록 적용된다:
a. RGB 채널 알고리즘
b. 적색 히스토그램
c. 그레이-스케일 선별
d. 백색 잡음 필터 및 낮은 대역(low band)
e. 마스크 조명
f. ROI 알고리즘
g. 국부적 주기성
2. 이미지 승인 또는 거절
3. 중심점 결정을 위한 알고리즘
4. 중심점 부근의 작은 반경에서 이미지 추출. 이 단계는 일련의 이미지 프로세스로 구성된다.
5. 멀티-영역 및 국부적 모멘텀 알고리즘
6. 에징 추출
7. 로컬 푸리에 블록 분석
본 발명의 또 다른 실시예에 따라, 온-플라이(on-fly) 이미지 분석에서 주요한 조건들 중 하나는 이미지의 상이한 영역에서 발생하는 흐릿함 수차(blurring aberration)를 가능한 최소화시키기 위해 정확히-포커싱된(well-focused) 이미지를 포착하는 신뢰도이다.
이러한 목적을 달성하기 위해, 입력 이미지의 품질을 추정하는 일련의 과정들이 제안되었고, 필요한 경우 이미지의 탈-포커싱(defocusing)으로부터 야기되는 일반적 보정(generic correction)을 제공함으로써 품질이 증가된다.
본 발명은 픽셀 당 명암도 및 이미지의 초점 심도의 품질을 체계적으로 개선하는 제너릭 과정을 제공하는 방법을 개시한다.
이를 달성하기 위해, 실공간(real space) 및 주파수 푸리에 표현 모두에서 표시를 이용하는 이미지 탈-포커싱의 온-플라이 추정이 제공된다. 이러한 경감(degradation)을 추정하기 위한 주요한 요점은 점퍼짐함수(point spread function; PSF)를 바르게 이해하는 것이다.
작은 간격에서 COMS 또는 CCD 카메라 센서에 의해 포착된 임의의 이미지에 대해, 초점 거리의 스케일은 민감하며 이는 손가락의 토폴로지에서 강한 로컬(local) 차로 인한 것이다 : 이미지에서 일부 영역들은 단지 탈-포커싱되며 국부적인 흐릿함을 나타낸다.
토폴로지적으로(topologically), 이미지는 몇 개의 층을 이룬 섬들로 구성되 며, 여기서 이미지 품질은 상이하다. 지문이 정확히 포커싱된 이미지에 대해, 이미지에서 로컬 텍스쳐는 전반적으로 균일하며, 선택적으로 연속적인 리지들 및 국부적으로 지형이 불균일한 굴곡이 있고 이들의 주파수 프로파일은 바람직하게 한정된다.
반대로, 탈-포커싱 영역들에 대해서, 흐릿함은 저대역 필터 및 균일한 확산형 텍스쳐 영역을 생성한다.
이미지에서 임의의 서브-영역이 공간 주파수의 전체 패널 및 정확히 한정된 텍스쳐로 고립되자 마자, 전체 관심 영역(ROI)이 교정될 수 있다. 심지어, ROI의 상당부가 흐려지더라도, 로컬 위상 탈-포커싱의 기본 가정은 교정을 가능케 한다.
이를 달성하기 위해, 이미지 탈-포커싱의 온-플라이 처리는 실공간 및 주파수 푸리에 표현 모두의 지시를 이용하여 제공된다. 이러한 경감을 추정하는데 있어 주요한 요점은 PSF의 강건성(robust) 제너릭 모델을 한정하는 것이다.
방법론의 주요한 단계들은 하기에 설명된다:
1. 파장, 영상의 시야각, 로컬 대조비의 범위와 같이, 특정한 동작 조건들하에서 주어진 광학적 표면 처리.
2. 몇개 영역들에서 개시 영상의 분할 및 각각의 영역들의 주파수 맵핑을 얻기 위해 DCT 또는 푸리에 변환 수행. JPEG 이미지의 파라미터들은 국부적 파라미터들을 추출하고 국부적 입도측정(granulometry)을 위해 사용된다.
3. 손가락 형상 추출 및 형상화. 주파수 영역에서 로컬 히스토그램이 국부적 흐릿함 경감을 추정하기 위해 수행된다.
4. 비-의사(quasi-non) 공간 위상 탈-포커싱된 명암도 이미지로부터 흐릿함 발생. 상이한 영역들에서, 흐릿함의 영향 및 탈-포커싱 착란원(COC)의 정도와의 관련도가 추정된다.
5. OPD(Optical Precision Difference)에 기초하여 품질 기준 및 초점 길이 부근에서 동작 파선-추적 알고리즘 생성. PSF 및 손가락의 토폴로지 형상과 상관되는 COC의 상대적 로컬 위치가 모델링된다.
6. 이산 디컨벌루션(discrete deconvolution)을 이용하여, 최종 3D 이미지 복구가 수행될 수 있다. 이러한 단계는 역 필터링 및/또는 통계적 필터링 알고리즘을 수반한다.
보다 하드한(harder) 탈-포커싱된 영상들을 위해, 파선-추적 특성들과 픽셀 반복도들의 처리를 고려하여 몇가지 개선점들이 제안된다.
탈-포커싱된 영상들은 약간의 위상 국부적 흐릿함을 생성한다. 예를 들어, 특징점, 리지들 및 밸리들(valleys)과 같은 로컬 피쳐를 추출하기 위해 요구되는 정확성성은 통상적으로 하부 통합된 픽셀 센서들로 수행된다.
예를 들어, 메가 픽셀 이상의 대용량의 통합된 픽셀 매트릭스들을 갖춘 현재 및 미래의 저가의 CMOS 또는 CCD 카메라를 사용하여, 디컨벌루션에 기초한 복구 알고리즘이 선택적으로 개선될 수 있다. 본 발명자들은 예상되는 PSF은 오버 샘플링 알고리즘을 이용하여 정화된다는 것을 청구한다.
국부적 파선-추적 알고리즘을 사용하여, 각각의 픽셀 상에 수집되는 광 세기는 PSF 및 OTF(Optical Transfer Function)에 대한 보다 나은 정보가 취해진다.
본원인은 각 픽셀의 질량을 세밀화하고 적절한 PSF를 얻기 위하여 이와 같은 국부 정보의 여분을 이용할 것을 제안한다.
탈-포커싱된(de-focused) 영상은, 비구면 광학체의 수치 필터(numeric filter)에 의한 광선 추적 알고리즘과 오버 샘플링된(over sampled) 정보를 이용하여 개선될 수 있다.
PSF와 COC의 모델은 매우 다양한 지문의 최초 영상에 대하여 계속해서 잘 정의된다. 양호하게 포커싱된 영상에 대하여, 지문 정보는 일반적으로 100K 픽셀 이하를 요한다. 기본적으로, 메가 픽셀 센서에 대하여, 이러한 부가적인 정보는 국부 광선 추적을 모델화하고 블러링(blurring)에 이르는 수차와 PSF를 추정하는 데 이용될 수 있다.
이러한 수차는 블러링 왜곡을 모델화하는 수치 비구면 렌즈의 결정에 이를 수 있다. 디컨벌루션(deconvolution) 복구를 이용하여, 양호하게 포커싱된 영상이 복구될 수 있다.
절차는 다음과 같이 언급될 수 있다:
1. 구체화된 작동 조건들하에서, 가령 파장의 범위, 영상의 관찰의 필드, 또는 국부적인 대조비 하에서 주어진 광학 표면으로 시작한다.
2. 파선 추적 알고리즘을 작동시킨 후 광학적 정밀도 차이들(OPDs)에 기초하여 방출 기준을 생성한다.
3. OTPs를 계산한다.
4. 검출기 기하구조에 관련된 픽셀 OTF를 포함시킨다.
5. 샘플링된 OTFs 및 PSFs를 계산한다.
6. 샘플링된 PSFs 세트에 기초하여, 선택된 처리 알고리즘에 대한 디지털 필터 계수를 계산한다.
7. 에일리어싱에 기인하여 필드 각을 가지며, 그레이 스케일을 갖는 샘플링된 PSFs 및 MTF의 변경을 포커스를 통해 최소화하는 것에 기초하는 속도 연산자를 형성한다.
8. 처리의 양, 처리와 관련된 영상 노이즈와 같은 처리 매개변수들을 디지털화한다.
9. 속도 메리트 피연산자를 전통적인 광학 피연산자, 가령 자이델(Seidel)의 수차, RMS 오차와 결합하여 최적화 루틴에 이르게 하고, 광학 표면을 수정한다.
본 발명의 다른 실시예에 따라서, 각도 및 거리 불변을 유지하고 토폴로지(topological) 왜곡에 견고하게 유지하는 의사-2D 이미지들을 생성하게 되는 알고리즘의 절차를 형성한다. 다음의 방법이 본질적으로 제안된다:
1. 손가락의 바이오-탄성 모델-강체.
강체 모델이 손가락의 3D 배향을 결정하기 위해 사용된다.
2. 관찰 평면으로의 3D 투영 알고리즘.
a. 원근 투영 행렬이 형성되고 핑거 프린트 영상을 결정하기 위해 사용된다.
b. 영상은 탄성막 모델로부터 입력된 변위 필드를 이용하여 수정된다.
c. 투영은 볼록한 3D 프리 매개변수 핑거 모델에 대해 이루어지며, 최 적화 알고리즘이 제약없는 비선형 심플렉스(Simplex) 모델을 이용하여 이루어진다.
3. 두 개의 입체 사진의 관찰의 알고리즘을 매칭시킴으로써 손가락의 추출을 형성한다.
두 연속적인 지문의 영상들 사이에 발생하는 작은 변위를 이용하여 제3의 위상 크기를 복원한다.
사람이 자신의 손가락을 광학 디바이스상에 계속하여 위치시킬 때, 일련의 캡쳐들이 캡쳐될 것이다. 손가락의 조정, 중심점 위치지정, 올바른 거리(right distance)에서의 인-포커스 사전 처리(pre-processing) 동안 시스템은 두 개 이상의 영상을 연속적으로 캡쳐한다. 이러한 절차에 의해 위상적인 정보를 얻을 수 있고 영상의 3D 메싱(meshing)을 정밀하게 결정할 수 있다. 손가락 볼록 형상을 이용하여, 입체적인 영상이 리지(ridge) 사이의 올바른 거리를 회복하기 위하여 매핑된다.
두 영상들의 제한된 특징이 저장되었던 근접 행렬(proximity matrix)의 단일값 분해(Singular value decomposition)에 기초한 알고리즘 절차의 사용이 제안된다.
i 및 j를, 일대일로 대응하는 m 특징 및 n 특징을 각각 포함하는 두 개의 영상이라고 하자.
알고리즘은 다음의 세 개의 스테이지로 구성된다:
1. 각 요소가 가우시안 가중된 거리인 두 세트의 특징의 근접 행렬 G를 형성한다.
2. 상관된 근접 G 행렬의 단일값 분해를 수행한다. 여기서 직교 행렬와 대각선 행렬은 내림차순으로 그 대각선 요소를 따라 양의 단일값을 포함한다. m<n에 대하여, 첫 번째 m 칼럼만이 중요도를 가진다.
3. 이 새로운 행렬은 근접 행렬과 동일한 모양을 가지며 양호한 쌍은 "증폭"시키며 불량한 쌍은 "감쇄"시키는 종류의 흥미로운 특성을 가지고 있다.
본 발명의 또 다른 실시예에 따르면, 방법은 인식의 순간에 캡쳐된 손가락 영상과 다른 경우에 캡쳐된 손가락 영상을 구분한다.
생물측정학 인식에 있어서의 고유한 문제들 중 하나는 현재 영상이 손가락인가 디지털 영상인가이다. 영상의 반사율을 주위로부터의 올바른 조건의 함수로써 비교함으로써 우리는 그 영상이 실제로 손가락이고 위조가 아니라는 것을 확인할 수 있다.
등록중에 손가락의 반사율이 수집될 것이며 손가락의 스펙트럼 프로파일이 저장될 것이다. 라텍스 복구 또는 어떤 인공적인 재료 중 어느 하나를 갖는 위조 지문이 특정 스펙트럼 서명에 의해 검출될 수 있음을 이용하여, 우리는 그 지문이 의심스러운지 여부를 판별할 수 있다. 이를 얻기 위하여, 다음의 방법론이 제안된다:
1. 등록중에, 캡쳐된 사진은 각 컬러 채널을 따라 그리고 선택된 영역상에서 분석된다. 각 채널에 대한 국부 히스토그램이 소영역에서 수행된다.
2. 외부 조명 수정, 가령 플래시, 카메라 내부 파라미터의 변경, 감마 인자, 및 화이트 밸런스를 이용하여, 각각의 지문에 대한 응답 프로파일이 서로 다른 컬 러 채널과 카메라 장치의 감도에 따라 설정된다.
3. 실제 지문과 의심스러운 지문들의 스펙트럼 응답을 비교하면, 영상이나 라텍스 인벨로프 중 어느 하나는 후보의 거절의 승인에 이르게 될 것이다.
본 발명의 또 다른 실시예에 따라, 지문의 수학적 모델을 생성하기 위해 다른 내재된 문제는 제한된 CPU 및 메모리 자원들을 갖는 환경에서 JPG 압축으로 처리하는 것이다. 전형적인 방법은 JPG에서 TIFF, BMP 또는 인식을 위해 사용될 수 있는 임의의 다른 포맷으로 영상을 변환하는 것이다. 그러나, 영상 해상도가 증가함에 따라, 이러한 프로시저는 더욱 메모리 소모적이 된다. 본 방법은 더 높은 해상도와 메모리 소모를 결부시키지 않는 자원-효율적인 프로시저를 제안한다.
박화(thinning) 알고리즘의 마지막 단계는 지문의 이진 골격화된(skeletonized) 영상의 획득을 허용하는 것이다. 저성능 CPU 요구조건들과 호환될 수 있는 보다 컴팩트한 이진 영상을 얻기 위해, 서브-영역들의 로컬 상태를 고려하여, 더 작은 토폴로지 엔터티들 면에서 전체 2진 영상을 저장하는 것이 제안된다. 벡터화된 리지들의 토폴로지 스트레칭과 관련된 이전 단계로부터, 선택된 리지들의 파라미터화의 장점을 고려하면, 지문의 전체 맵핑이 달성될 수 있다. 이러한 프로시저는 매칭 단계를 위해 저장되는 로컬 세그먼트들, 세부사항들(minutia), 리지들 및 로컬 주기의 계층 형성을 허용한다.
도 1을 참조하면, 다음과 같은 것들을 포함하는 휴대폰 구성의 개념적 설명을 나타낸다:
1. 휴대폰 카메라 - 인터넷 및/또는 휴대폰 네트워크들 상에서 음성 및 데이 터를 통신할 수 있는 이동 장치의 부분이거나 이동 장치에 대한 액세서리인 카메라.
2. 영상 처리 알고리즘들 - 휴대폰 이동 장치의 표준 부품으로서 전달되는 소프트웨어 알고리즘들. 이러한 컴포넌트는 전형적으로 글로벌 방식으로 영상들을 처리하고, 예를 들어 전체적으로 영상에 대해 관련되는 변화들을 수행한다. 이러한 알고리즘들은 전형적으로 휴대폰 카메라 또는 이동 장치에 제공된다.
3. 영상 개선 알고리즘들 - 이 부분은 디지털 카메라에 의해 캡쳐된 영상들을 개선한다. 이러한 향상은 국부적이고, 예를 들어 영상의 특정 영역들에 관련된다.
4. 영상 보정 알고리즘들 - 이 부분은 지문 인식의 필요성을 위해 영상을 보정한다. 이러한 보정들은 표준 인식 알고리즘들에 의해 사용될 수 있는 방식으로 이루어진다.
5. 제 3 자 인식 알고리즘 - 오프-더-쉘브(off-the-shelve) 지문 인식 알고리즘.
6. 데이터베이스 - 데이터베이스는 이동 장치 또는 원격 위치에 위치된다. 데이터베이스는 이전에 등록된 사람들에 관한 지문 정보를 포함한다.
도 2를 참조하면, 다음과 같은 것들을 포함하는 PC 구성의 개념적 설명을 나타낸다:
1. 디지털 카메라 - PC에 접속된 카메라.
2. 영상 처리 알고리즘들 - 디지털 카메라 제품 패키지의 표준 부품으로서 전달되고 및/또는 인터넷 상에서 나중에 다운로딩되는 소프트웨어 알고리즘들. 이러한 컴포넌트는 글로벌 방식으로 영상들을 처리하고, 예를 들어 전체적으로 영상에 관련된 변화들을 수행한다.
3. 영상 개선 알고리즘들 - 이 부분은 디지털 카메라에 의해 캡쳐되는 영상들을 개선한다. 이러한 개선은 국부적이고, 예를 들어 영상의 특정 영역들에 관련된다.
4. 영상 보정 알고리즘들 - 이 부분은 지문 인식의 필요성을 위해 영상을 보정한다. 보정들은 표준 인식 알고리즘들에 의해 사용될 수 있는 방식으로 이루어진다.
5. 제 3 자 인식 알고리즘 - 오프-더-쉘브 지문 인식 알고리즘.
6. 데이터베이스 - 데이터베이스는 PC 또는 원격 위치에 위치된다. 데이터베이스는 이전에 등록된 사람에 관련된 지문 정보를 포함한다.
도 3을 참조하면, 지문 인식 프로세스들이 전형적으로 다음과 같은 2개의 단계들로 구성되는 흐름도의 개념적 설명을 나타낸다:
1. 등록 - 새로운 엔터티가 데이터베이스에 부가되는 개시 시간. 후속 프로시저는 1회 이상 수행된다.
2. 스케일링
도 4에 기술되는 것처럼, 식별 또는 인증에서, 사람이 데이터베이스에 접근하고 그 손가락을 사용하여 인증된다. 식별은 전형적으로 많은 사람들 중 한 명으로서 규정되는 사람이 손가락만을 제공하는 상황을 지칭하는 반면에, 인증은 전형 적으로 한 사람 대 한 사람으로서 규정되는 사람이 그 손가락 및 이름을 제공하는 상황을 지칭한다.

Claims (9)

  1. 비접촉 광학 수단에 의해 3D 지문들을 인식하는 방법으로서,
    a. 특징점(minutia), 분기점들(forks), 종결점들(endings) 또는 이들의 임의의 조합을 포함하는 그룹에서 선택되는 3D 광학 영상들이 제공되도록, 지문들을 캡쳐하기 위한 광학 비접촉 수단을 획득하는 단계;
    b. 다수의 지문들을 획득하는 단계 - 상기 지문들의 영상 해상도는 카메라와 검사되는 손가락 사이의 거리에 의존하지 않음 -;
    c. 초점-이탈(mis-focal) 및 흐릿함(blurring) 복구(restoring)에 의해 획득된 영상들을 보정하는 단계;
    d. 다양한 시계들과 각도들 하에서 등록 위상(enrolment phase)의 다수의 영상들, 바람직하게는 6 내지 9개의 영상들을 획득하는 단계;
    e. 상기 영상들의 필드 농도(depth)의 품질 및 픽셀당 명암도(intensity)를 시스템적으로 개선하는 단계; 및
    f. 부가적인 광학 센서가 요구되지 않도록, 더 높은 해상도와 메모리 소모를 결부시키지 않는 단계
    를 포함하는 3D 지문들의 인식 방법.
  2. 제 1 항에 있어서,
    상기 방법은 적어도 하나의 CMOS 카메라를 사용하고, 상기 방법은,
    a. 근접 필드 조명 및 대조비(contrast)를 통해 영상을 캡쳐하는 단계;
    b. 초점-이탈 및 흐릿함 복구를 제공하는 단계;
    c. 고정된 각도 및 거리 불변성(invariance)을 유지함으로써 상기 영상들을 복구하는 단계; 및
    d. 등록 위상(enrolment phase)을 획득하고 상기 영상들의 수학적 모델을 교차-저장하는 단계를 포함하는 소프트웨어 기반 패키지에 의해 개선되는 것을 특징으로 하는 3D 지문들의 인식 방법.
  3. 제 2 항에 있어서,
    a. 다수의 영역들에서 개시 영상을 분할(segmenting)하고 DCT 또는 푸리에 변환을 수행함으로써, 지문 영역들의 적어도 일부분의 주파수 맵핑(frequency mapping)을 달성하는 단계;
    b. 손가락 외부 윤곽선(contour)을 추출하는 단계;
    c. 주파수 영역에서 적어도 하나의 국부적인 히스토그램을 수행함으로써 국부적인 흐릿함 저하를 평가하는 단계;
    d. 비-의사(quasi-non) 공간 위상의 탈-포커싱된 명암도 영상으로부터 발생하는 흐릿함을 증가시키는 단계;
    e. 상이한 영역들에서 착란원(Circle Of Confusion: COC)을 탈-포커싱하는 각도와 관련하여 상기 흐릿함의 효과를 추정하는 단계;
    f. 초점 길이에 인접하여 상기 영상을 파선-추적(ray-tracing)하고 광 정밀 도 차이(Optical Precision Difference: OPD)를 기반으로 품질 기준을 생성하는 단계;
    g. 점 퍼짐 함수(PSF) 및 상기 손가락의 토폴로지 형상과 상관된 COC의 국부적 상대 위치들을 모델링하는 단계; 및
    h. 이산 디컨벌루션(deconvolution)을 이용하여 상기 획득된 3D 영상을 복구하는 단계 - 이는 역 필터링 및/또는 통계적 필터링 수단을 포함할 수 있음 -
    를 더 포함하는 것을 특징으로 하는 3D 지문들의 인식 방법.
  4. 제 2 항에 있어서,
    a. 뉴턴의 컴팩트 바디의 바이오-탄성 모델을 적용하는 단계;
    b. 광역 볼록렌즈(convex) 보상 모델을 적용하는 단계; 및
    c. 매칭 수단에 의해 스테레오그래픽 재구성을 적용하는 단계를 포함하는 것을 특징으로 하는 3D 지문들의 인식 방법.
  5. 제 3 항에 있어서,
    a. 각 엘리먼트가 가우시안-가중 거리인 2개 세트들의 특징들의 근접 매트릭스를 형성하는 단계; 및
    b. 상기 상관된 근접 G 매트릭스의 단일값 분해를 수행하는 단계를 포함하는 것을 특징으로 하는 3D 지문들의 인식 방법.
  6. 인식 순간에 캡쳐된 손가락 영상, 및 이전 순간에 캡쳐된 영상을 구별하는 방법으로서,
    a. 등록 동안, 각각의 칼러 채널에 있는 사진들을 캡쳐하고 선택된 영역들을 맵핑하는 단계;
    b. 각각의 채널에 대해 작은 영역 상에 국부적인 히스토그램을 수행하는 단계;
    c. 상이한 칼러 채널들과 카메라 장치의 감도에 따라, 각각의 지문에 대한 외부 광 변형들을 이용하여 응답 프로파일을 설정하는 단계;
    d. 후보의 허용 또는 거절을 획득하고, 실제 지문의 스펙트럼 응답을 의심스러운 지문들과 비교하는 단계
    를 포함하고, 주변 광 조건들의 함수로서 영상들의 반사율을 비교하는 단계를 더 포함하는, 영상 구별 방법.
  7. 제 6 항에 있어서,
    a. 파선 추적 수단을 획득하는 단계;
    b. OPD를 기초로 출구(exit) 기준을 생성하는 단계;
    c. 검출기 기하학적 구조(geometry)에 관련된 픽셀 OTF를 획득하는 단계;
    d. 샘플링된 OTFs 및 PSFs을 계산하는 단계;
    e. 샘플링된 PSF 세트를 기초로 선택된 처리 알고리즘에 대해 디지털 필터 계수들을 계산하는 단계;
    f. 레이트(rate) 연산자들을 계산하는 단계;
    g. 디지털 파라미터들을 처리하는 단계;
    h. 레이트 메리트(merit) 피연산자들을 광학 피연산자들과 결합하는 단계; 및
    i. 광학 표면들을 변형하는 단계를 특히 포함하는 것을 특징으로 하는 영상 구별 방법.
  8. 파선 추적 특성들과 영상들의 픽셀 중복도들(redundancies)을 개선하기 위한 방법으로서,
    a. 반복성 디컨벌루션 복구하는 단계; 및
    b. 흐릿함 왜곡들을 모델링하도록 적응되는 수치적 비구면 렌즈를 결정하는 단계를 특히 포함하는 파선 추적 특성들과 영상들의 픽셀 중복도들 개선 방법.
  9. 지문들의 인식을 위한 시스템으로서,
    a. 근접 필드 조명을 통해 영상들을 캡쳐하기 위한 수단;
    b. 초점-이탈 및 흐릿함 복구를 위한 수단;
    c. 획득된 영상들의 맵핑 및 투영을 위한 수단; 및
    d. 등록 위상을 획득하고 상기 영상들의 수학적 모델의 교차-저장을 달성하는 단계
    를 포함하는 지문 인식 시스템.
KR1020077005630A 2004-08-09 2005-08-09 3d 지문 인식을 위한 비접촉 광학 수단 및 방법 KR20070107655A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US59955704P 2004-08-09 2004-08-09
US60/599,557 2004-08-09

Publications (1)

Publication Number Publication Date
KR20070107655A true KR20070107655A (ko) 2007-11-07

Family

ID=35839656

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020077005630A KR20070107655A (ko) 2004-08-09 2005-08-09 3d 지문 인식을 위한 비접촉 광학 수단 및 방법

Country Status (7)

Country Link
US (1) US20080101664A1 (ko)
EP (1) EP1779064A4 (ko)
JP (1) JP2008517352A (ko)
KR (1) KR20070107655A (ko)
CN (1) CN101432593A (ko)
CA (1) CA2576528A1 (ko)
WO (1) WO2006016359A2 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130040121A (ko) * 2011-10-13 2013-04-23 제너럴 일렉트릭 캄파니 Dfd 이미징 시스템 및 방법
KR20170097638A (ko) * 2014-12-19 2017-08-28 핑거프린트 카드즈 에이비 주의 중심점을 기반으로 한 가이드식 지문등록

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120118964A1 (en) * 2008-10-22 2012-05-17 Timothy Paul James Kindberg Altering an imaging parameter to read a symbol
US8406487B2 (en) * 2009-09-16 2013-03-26 General Electric Company Method and system for contactless fingerprint detection and verification
US8325993B2 (en) * 2009-12-23 2012-12-04 Lockheed Martin Corporation Standoff and mobile fingerprint collection
US9295415B2 (en) * 2010-03-04 2016-03-29 Nec Corporation Foreign object determination device, foreign object determination method and foreign object determination program
KR101633397B1 (ko) * 2010-03-12 2016-06-27 삼성전자주식회사 영상 복원 장치, 영상 복원 방법 및 영상 복원 시스템
US8600123B2 (en) 2010-09-24 2013-12-03 General Electric Company System and method for contactless multi-fingerprint collection
US8971588B2 (en) * 2011-03-30 2015-03-03 General Electric Company Apparatus and method for contactless high resolution handprint capture
US8965069B2 (en) * 2011-09-30 2015-02-24 University Of Louisville Research Foundation, Inc. Three dimensional minutiae extraction in three dimensional scans
US8953854B2 (en) 2012-08-08 2015-02-10 The Hong Kong Polytechnic University Contactless 3D biometric feature identification system and method thereof
US9864184B2 (en) 2012-10-30 2018-01-09 California Institute Of Technology Embedded pupil function recovery for fourier ptychographic imaging devices
CN108761752A (zh) 2012-10-30 2018-11-06 加州理工学院 傅立叶重叠关联成像系统、设备和方法
US9497379B2 (en) 2013-08-22 2016-11-15 California Institute Of Technology Variable-illumination fourier ptychographic imaging devices, systems, and methods
US10652444B2 (en) 2012-10-30 2020-05-12 California Institute Of Technology Multiplexed Fourier ptychography imaging systems and methods
US9251396B2 (en) 2013-01-29 2016-02-02 Diamond Fortress Technologies, Inc. Touchless fingerprinting acquisition and processing application for mobile devices
KR101428364B1 (ko) 2013-02-18 2014-08-18 한양대학교 산학협력단 특이값 분해를 이용한 입체 영상 처리 방법 및 그 장치
US9426455B2 (en) 2013-07-31 2016-08-23 California Institute Of Technology Aperture scanning fourier ptychographic imaging
CN104751103A (zh) * 2013-12-26 2015-07-01 齐发光电股份有限公司 手指指纹读取系统及指纹读取方法
US9773151B2 (en) 2014-02-06 2017-09-26 University Of Massachusetts System and methods for contactless biometrics-based identification
US11468557B2 (en) * 2014-03-13 2022-10-11 California Institute Of Technology Free orientation fourier camera
US10162161B2 (en) 2014-05-13 2018-12-25 California Institute Of Technology Ptychography imaging systems and methods with convex relaxation
US9734165B2 (en) * 2014-08-02 2017-08-15 The Hong Kong Polytechnic University Method and device for contactless biometrics identification
FR3024791B1 (fr) * 2014-08-06 2017-11-10 Morpho Procede de determination, dans une image, d’au moins une zone succeptible de representer au moins un doigt d’un individu
US9734381B2 (en) 2014-12-17 2017-08-15 Northrop Grumman Systems Corporation System and method for extracting two-dimensional fingerprints from high resolution three-dimensional surface data obtained from contactless, stand-off sensors
AU2015369663A1 (en) 2014-12-22 2017-05-11 California Institute Of Technology Epi-illumination fourier ptychographic imaging for thick samples
WO2016118761A1 (en) 2015-01-21 2016-07-28 California Institute Of Technology Fourier ptychographic tomography
AU2016211635A1 (en) 2015-01-26 2017-06-29 California Institute Of Technology Multi-well fourier ptychographic and fluorescence imaging
US10684458B2 (en) 2015-03-13 2020-06-16 California Institute Of Technology Correcting for aberrations in incoherent imaging systems using fourier ptychographic techniques
US9993149B2 (en) 2015-03-25 2018-06-12 California Institute Of Technology Fourier ptychographic retinal imaging methods and systems
WO2016187591A1 (en) 2015-05-21 2016-11-24 California Institute Of Technology Laser-based fourier ptychographic imaging systems and methods
US10291899B2 (en) * 2015-11-30 2019-05-14 Canon Kabushiki Kaisha Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium for generating restored image
US11092795B2 (en) 2016-06-10 2021-08-17 California Institute Of Technology Systems and methods for coded-aperture-based correction of aberration obtained from Fourier ptychography
US10568507B2 (en) 2016-06-10 2020-02-25 California Institute Of Technology Pupil ptychography methods and systems
US11450140B2 (en) 2016-08-12 2022-09-20 3M Innovative Properties Company Independently processing plurality of regions of interest
WO2018031900A1 (en) * 2016-08-12 2018-02-15 3M Innovative Properties Company Independently processing plurality of regions of interest
US10552662B2 (en) * 2016-12-30 2020-02-04 Beyond Time Investments Limited Optical identification method
JP7056052B2 (ja) * 2017-09-22 2022-04-19 富士通株式会社 画像処理プログラム、画像処理方法、及び画像処理装置
US10754140B2 (en) 2017-11-03 2020-08-25 California Institute Of Technology Parallel imaging acquisition and restoration methods and systems
KR102491855B1 (ko) 2017-12-11 2023-01-26 삼성전자주식회사 3d 지문센서 소자 및 이를 포함하는 전자 장치
US10546870B2 (en) 2018-01-18 2020-01-28 Sandisk Technologies Llc Three-dimensional memory device containing offset column stairs and method of making the same
CN108388835A (zh) * 2018-01-24 2018-08-10 杭州电子科技大学 一种非接触式指纹图像采集装置
US10804284B2 (en) 2018-04-11 2020-10-13 Sandisk Technologies Llc Three-dimensional memory device containing bidirectional taper staircases and methods of making the same
CN110008892A (zh) * 2019-03-29 2019-07-12 北京海鑫科金高科技股份有限公司 一种基于四连指指纹图像采集的指纹核验方法及装置
US11139237B2 (en) 2019-08-22 2021-10-05 Sandisk Technologies Llc Three-dimensional memory device containing horizontal and vertical word line interconnections and methods of forming the same
US11114459B2 (en) 2019-11-06 2021-09-07 Sandisk Technologies Llc Three-dimensional memory device containing width-modulated connection strips and methods of forming the same
US11133252B2 (en) 2020-02-05 2021-09-28 Sandisk Technologies Llc Three-dimensional memory device containing horizontal and vertical word line interconnections and methods of forming the same
KR102396516B1 (ko) * 2021-04-23 2022-05-12 고려대학교 산학협력단 훼손된 지문 복원 방법, 이를 수행하기 위한 기록 매체 및 장치

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3424955A1 (de) * 1984-07-06 1986-01-16 Siemens Ag Anordnung zum erfassen von fingerpapillaren
JP2763830B2 (ja) * 1991-03-06 1998-06-11 シャープ株式会社 指紋入力装置
US6498861B1 (en) * 1996-12-04 2002-12-24 Activcard Ireland Limited Biometric security encryption system
US6075876A (en) * 1997-05-07 2000-06-13 Draganoff; Georgi Hristoff Sliding yardsticks fingerprint enrollment and verification system and method
JP2000040146A (ja) * 1998-07-23 2000-02-08 Hitachi Ltd 画像処理方法、画像処理装置および指掌紋画像入力装置
US6289113B1 (en) * 1998-11-25 2001-09-11 Iridian Technologies, Inc. Handheld iris imaging apparatus and method
JP2000215308A (ja) * 1999-01-27 2000-08-04 Toshiba Corp 生体情報認証装置およびその方法
WO2000070558A1 (fr) * 1999-05-18 2000-11-23 Sanyo Electric Co., Ltd. Procede et dispositif de traitement d'image dynamique et support
JP2002092616A (ja) * 2000-09-20 2002-03-29 Hitachi Ltd 個人認証装置
KR100374708B1 (ko) * 2001-03-06 2003-03-04 에버미디어 주식회사 회전영상의 보정에 의한 비접촉식 홍채인식방법
DE10123561A1 (de) * 2001-05-15 2001-10-18 Thales Comm Gmbh Verfahren zur Personenidentifikation mittels dreidimensionaler Fingerkuppenanalyse
DE10126369A1 (de) * 2001-05-30 2002-12-05 Giesecke & Devrient Gmbh Verfahren zum Prüfen eines Fingerabdrucks
DE10153808B4 (de) * 2001-11-05 2010-04-15 Tst Biometrics Holding Ag Verfahren zur berührungslosen, optischen Erzeugung von abgerollten Fingerabdrücken sowie Vorrichtung zur Durchführung des Verfahrens
US7221805B1 (en) * 2001-12-21 2007-05-22 Cognex Technology And Investment Corporation Method for generating a focused image of an object

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130040121A (ko) * 2011-10-13 2013-04-23 제너럴 일렉트릭 캄파니 Dfd 이미징 시스템 및 방법
KR20170097638A (ko) * 2014-12-19 2017-08-28 핑거프린트 카드즈 에이비 주의 중심점을 기반으로 한 가이드식 지문등록

Also Published As

Publication number Publication date
WO2006016359A3 (en) 2009-05-07
EP1779064A4 (en) 2009-11-04
US20080101664A1 (en) 2008-05-01
CA2576528A1 (en) 2006-02-16
EP1779064A2 (en) 2007-05-02
WO2006016359A2 (en) 2006-02-16
CN101432593A (zh) 2009-05-13
JP2008517352A (ja) 2008-05-22

Similar Documents

Publication Publication Date Title
KR20070107655A (ko) 3d 지문 인식을 위한 비접촉 광학 수단 및 방법
US8538095B2 (en) Method and apparatus for processing biometric images
JP5293950B2 (ja) 個人認証装置及び電子機器
Rowe et al. A multispectral whole-hand biometric authentication system
JP4719809B2 (ja) 人物識別方法および撮影装置
US10922512B2 (en) Contactless fingerprint recognition method using smartphone
Engelsma et al. Raspireader: Open source fingerprint reader
Raghavendra et al. Exploring the usefulness of light field cameras for biometrics: An empirical study on face and iris recognition
US9495590B1 (en) Extended depth-of-field biometric system
CN104680128B (zh) 一种基于四维分析的生物特征识别方法和系统
CN112232155B (zh) 非接触指纹识别的方法、装置、终端及存储介质
CN112232163B (zh) 指纹采集方法及装置、指纹比对方法及装置、设备
JP2009528586A (ja) 回転補正する虹彩比較
CN112016525A (zh) 非接触式指纹采集方法和装置
Piuri et al. Fingerprint biometrics via low-cost sensors and webcams
CN112232159B (zh) 指纹识别的方法、装置、终端及存储介质
US20230196842A1 (en) Spoof-Resistant Facial Recognition Through Illumination and Imaging Engineering
WO2022068931A1 (zh) 非接触指纹识别方法、装置、终端及存储介质
CN112232157B (zh) 指纹区域检测方法、装置、设备、存储介质
CN112232152B (zh) 非接触式指纹识别方法、装置、终端和存储介质
Rokita et al. Cell phones personal authentication systems using multimodal biometrics
CN212569821U (zh) 非接触式指纹采集装置
Kumar et al. A novel model of fingerprint authentication system using Matlab
TW202022692A (zh) 編碼遮罩生物特徵重建與分析方法、儲存介質及神經網路與編碼遮罩式螢幕下生物特徵辨識結構、系統及方法
PETERSEN CHAPTER FOURTEEN 3D FINGERPRINTS: A SURVEY WEI ZHOU, 1 JIANKUN HU, 1,* SONG WANG, 2

Legal Events

Date Code Title Description
N231 Notification of change of applicant
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid