KR102001678B1 - Dfd 이미징 시스템 및 방법 - Google Patents

Dfd 이미징 시스템 및 방법 Download PDF

Info

Publication number
KR102001678B1
KR102001678B1 KR1020120088526A KR20120088526A KR102001678B1 KR 102001678 B1 KR102001678 B1 KR 102001678B1 KR 1020120088526 A KR1020120088526 A KR 1020120088526A KR 20120088526 A KR20120088526 A KR 20120088526A KR 102001678 B1 KR102001678 B1 KR 102001678B1
Authority
KR
South Korea
Prior art keywords
lens
image
imaging system
function
computer
Prior art date
Application number
KR1020120088526A
Other languages
English (en)
Other versions
KR20130040121A (ko
Inventor
파나 모하매드 메디 데인쉬
케빈 조지 하딩
길 아브라모비치
다니엘 커티스 그레이
Original Assignee
제너럴 일렉트릭 캄파니
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 제너럴 일렉트릭 캄파니 filed Critical 제너럴 일렉트릭 캄파니
Publication of KR20130040121A publication Critical patent/KR20130040121A/ko
Application granted granted Critical
Publication of KR102001678B1 publication Critical patent/KR102001678B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0075Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. increasing, the depth of field or depth of focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/12Acquisition of 3D measurements of objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1312Sensors therefor direct reading, e.g. contactless acquisition

Abstract

이미징 시스템은 물체로부터 생성되어 렌즈를 통과하는 광자들로부터 생성되는 이미지 면(image plane)을 축 방향으로 시프트시키도록 구성되는 위치조절 가능한 장치와, 상기 물체로부터 생성되어서 상기 렌즈를 통과하는 광자들을 수용하는 위치에 배치된 검출기 면(detector plane)과, 컴퓨터를 포함한다. 상기 컴퓨터는 상기 렌즈를 수학적 함수로서 특성화하고, 상기 검출기 면에 대해 상이한 축 방향 위치들에서 각 기초 이미지의 이미지 면을 사용하여서 상기 물체의 2 개 이상의 기초 이미지들을 획득하며, 상기 렌즈에 대한 특성화 결과 및 상기 획득된 2 개 이상의 기초 이미지에 기초하여서 상기 렌즈로부터 상기 물체의 초점 거리를 결정하고, 상기 결정된 거리에 기초하여서 상기 물체의 깊이 맵(depth map)을 생성하도록 프로그래밍된다.

Description

DFD 이미징 시스템 및 방법{SYSTEM AND METHOD FOR DEPTH FROM DEFOCUS IMAGING}
미국 정보의 라이센스 권리
본 발명은 미국 국토 안보국이 부여한 허여 번호 HSHQDC-10-C-00083 하에서 미국 정부의 지원으로 이루어졌다. 미국 정부는 본 발명에 대한 소정의 권리를 갖는다.
본 발명의 실시예들은 전반적으로 DFD(depth from defocus) 이미징 시스템 및 방법에 관한 것이며, 특히 비접촉식 다중 지문 수집 장치에 관한 것이다.
지문의 패턴 및 기하학적 형상은 각 개인마다 상이하고 시간이 지나도 변하지 않는다고 잘 알려져 있다. 따라서, 지문은 수정할 수 없는 신체적 속성이기 때문에 각 개인을 식별하는데 매우 정확한 도구로서 사용된다. 지문의 분류는 통상적으로 아치(arch), 루프(loop) 또는 와상문(whorl)과 같은 소정의 특징들에 기초하고 있으며 가장 구별되는 특징들은 미뉴션(minutiae), 포크(fork), 융선(ridge)에서 발견되는 끝부위(ending) 및 융선 흐름의 전체적 형상 등이 있다.
통상적으로, 지문은 지문 채취 대상이 자신의 손가락의 표면을 잉크로 묻히고 이를 종이 또는 유사한 표면상에 대해서 누르고 굴러서 굴러진 지문이 생성되는 잉크 종이 방식에 의해서 획득될 수 있다. 최근에는, 광학 지문 이미지 캡처 기술을 사용하여서 지문 이미지를 획득할 수 있는 다양한 전자식 지문 스캐닝 시스템이 개발되었다. 이러한 전자식 지문 스캐닝 시스템은 통상적으로 인체의 손가락이 스크린 상에 접촉하도록 놓이고 이 스크린상에서 물리적으로 굴러져서 완전하게 굴러진 이미지 지문이 생성되는 접촉 기반형 지문 판독기의 형태로 되어 있다. 그러나, 이러한 접촉 기반형 지문 판독기는 그와 관련하여서 상당한 단점을 갖는다. 가령, 현장에서 먼지, 기름 또는 다른 이물이 접촉 기반형 지문 판독기의 창에 쌓이게 되고 이로써 지문 이미지 품질이 저하된다. 또한, 접촉 기반형 지문 판독기를 사용하게 되면 개인들 간에 질병 또는 감염 물질들이 전염되게 되어 있다.
최근의 전자식 지문 스캐닝 시스템에서, 비접촉식 지문 판독기가 인체의 손가락을 스크린상에 물리적으로 접촉할 필요 없이 지문을 채취할 수 있다. 이의 목적은 이미지가 렌즈에 의해서 형성되는 비접촉식 이미징 시스템을 사용하여서 굴러진 등가의 지문 이미지를 생성하는 것이다. 통상적인 이미징 방식은 대상의 2 차원적 표현을 제공하지만, 굴러진 등가의 지문 이미지를 생성하기 위해서, 손가락의 3차원적 프로파일이 요구된다. 손가락과 같은 물체의 경우에, 얕은 심도의 필드 이미징 시스템을 사용하여서 이미징될 때에 몇몇 부위는 초점에 위치하고 몇몇 부위는 초점에서 벗어나 있다. 통상적으로, 초점에 있는 영역은 가능한 한 날카로운 초점 내에 있는 물체의 영역이며 이와 반대로 탈초점은 초점에서 벗어난 바를 지칭하며 이러한 탈초점 정도는 2 개의 이미지들 간에서 계산될 수 있다. 알려진 시스템은 DFF(depth from focus) 알고리즘 또는 DFD(depth from defocus) 알고리즘을 사용하여서 물체 또는 대상의 심도 맵(depth map)을 생성할 수 있다.
일 시스템에서, 비접촉식 지문 스캐닝 시스템은 구조화된 광원을 사용하여서 손가락의 이미지를 획득하며 3 차원 이미지가 DFF 알고리즘을 사용하여서 생성된다. 예를 들어서, DFF 알고리즘에서, 다양한 초점 면 위치에서 수많은 측정이 이루어지며 이 측정치들이 사용되어서 심도 맵이 생성된다. 통상적으로, 다양한 초점 면 위치들은 (잘 알려진 기술을 사용하거나 자신을 통과하는 광에 대해서 상이한 편광각에서 초점 이동을 달성하는 하나 이상의 복굴절 렌즈를 사용하여서) 초점 면을 조절하거나 물체 또는 렌즈를 물리적으로 이동시킴으로써 획득된다. 그러나, DFF 기반 시스템에서는 통상적으로 수많은 측정치가 필요하며 나아가 물체에 초점을 맞추기 위해서 초점 면이 조절되어야 하며 구조화된 광원도 필요하다.
소정의 대상에 있어서, 탈초점 정도는 적어도 2 개의 파라미터, 즉 대상과 렌즈 간의 거리 및 렌즈 특성에 의존한다. 이 중 렌즈 특성이 알려지고 시스템이 탈초점 정도를 정확하게 측정하면, 대상의 거리가 결정될 수 있다. 이러한 바가 알려진 DFD 알고리즘의 기초가 된다.
따라서, 몇몇 비접촉식 지문 판독기에서, 시스템은 백색 광원을 사용하여서 지문 이미지를 획득하며 3차원 이미지는 DFD 알고리즘을 사용하여서 생성된다. DFD 알고리즘에서, 탈초점 함수는 지문에 대해서 컨볼루션 커널(convoluting kernel) 역할을 하며 이를 복구하기 위한 가장 직접적인 방식은 획득된 이미지 패치들(image patches)에 대해서 주파수 영역 분석을 하는 것이다. 탈초점 정도가 증가하면 반드시 컨볼루션 커널의 폭이 감소하며 이로써 고주파수 성분이 제거된다.
DFD 알고리즘은 통상적으로 다색 조사 가정을 기반으로 하는, 점확산 함수(a point spread function; PSF)에 대해 단순화된 가우시안(Gaussian) 또는 필박스(pillbox) 추정기라는 가정과 함께 시작된다. 통상적으로, 물체 점(object point)이 이미징될 때에 이는 날카로운 점보다는 종형 곡선(bell curve)처럼 보인다. 종형 곡선의 형상을 기술하는 이 함수는 PSF로 지칭되며 이미지 검출기 상에서의 PSF의 형상은 물체 점과 렌즈 간의 거리 및 내부 렌즈 특성에 의존한다. 따라서, 이러한 가정들은 수학적 도함수를 단순화시키며 DFD에 대해 편리한 방식을 제공한다. 이러한 가정들이 적용되는 정도는 특정 이미징 시스템 및 조사 조건에 의존한다. 매우 잘 보정된 이미징 광학 장치 및 백색광 조사의 경우에, PSF는 가우시안 또는 필박스와 유사하며 이렇게 가정하면 통상적으로 적당한 오차를 갖는 심도 추정기가 생성된다. 그러나, DFD를 기반으로 하는 심도 추정은 PSF 구조를 적합하게 결정하는 바에 대해 매우 민감하며 가우시안 또는 필박스 PSF 모델을 기반으로 하는 DFD를 PSF가 이러한 가정으로부터 벗어난 이미징 시스템에 적용하면 신뢰할 수 없는 심도 추정이 이루어지게 된다. 즉, 이러한 단순화된 모델은 가령 수차 정도가 높거나 렌즈가 물체 크기에 비해서 작은 DOF(depth of field)를 가지거나 (LED와 같은) 준 단색 광(quasi-monochromatic light)이 사용되거나 (레이저와 같은) 단색 광이 사용되는 경우에 물리적 렌즈 거동을 적합하게 기술하지 못한다. 따라서, 알려진 DFD 시스템은 물체 거리를 정확하게 추정할 수 없으며 비접촉식 시스템에서 지문을 정확하게 복제할 수 없다.
따라서, 렌즈 결함을 고려한, 비접촉 방식의 지문 취득 방법 및 시스템을 설계하는 것이 요구된다.
본 발명의 실시예들은 비접촉식 다중 지문 수집 시스템 및 방법에 관한 것이다.
본 발명의 일 측면에 따라서, 이미징 시스템은 물체로부터 방출되어 렌즈를 통과하는 광자들로부터 생성되는 이미지 면(image plane)을 축 방향으로 시프트시키도록 구성되는 위치조절 가능한 장치와, 상기 렌즈를 통과하는 상기 물체의 광자들을 수용하도록 배치되는 검출기 면(detector plane)과, 컴퓨터를 포함한다. 상기 컴퓨터는 상기 렌즈를 수학적 함수로서 특성화하고, 상기 검출기 면에 대해 상이한 축 방향 위치들에서 각각의 기초 이미지의 이미지 면을 사용하여 상기 물체의 2 개 이상의 기초 이미지들을 획득하며, 상기 렌즈의 특성화 및 상기 획득된 2 개 이상의 기초 이미지에 기초하여 상기 렌즈로부터 상기 물체의 초점 거리를 결정하고, 상기 결정된 거리에 기초하여 상기 물체의 깊이 맵(depth map)을 생성하도록 프로그래밍된다.
본 발명의 다른 측면에 따라서, 이미징 방법은 렌즈를 수학적 함수로서 수학적으로 특성화하는 단계와, 검출기에 대해 상이한 축 방향 위치들에서 물체의 이미지 면을 사용하여서 상기 물체의 2 개 이상의 기초 이미지들을 획득하는 단계와, 상기 렌즈의 수학적 특성화 및 제 1 및 제 2 기초 이미지들에 기초하여 상기 이미지 면이 상기 검출기에 위치하게 되는 상기 물체에 대한 상기 이미지 면의 제 1 초점 거리를 결정하는 단계와, 상기 결정에 기초하여 상기 물체의 깊이 맵을 생성하는 단계를 포함한다.
본 발명의 또 다른 측면에 따라서, 인스트럭션들을 포함하는 컴퓨터 프로그램을 그 상에 저장한 비일시적 컴퓨터 판독 가능한 저장 매체가 제공되며, 상기 인스트럭션들은 컴퓨터에 의해서 실행되어서 상기 컴퓨터로 하여금, 렌즈의 동공 함수를 유도하게 하고, 검출기에 대한 물체의 이미지 면의 상이한 위치들에서 상기 물체의 기초 이미지들을 획득하게 하며, 상기 물체의 제 1 패치에 대해 획득된 기초 이미지들 및 상기 동공 함수에 기초하여 상기 물체의 제 1 패치의 이미지 면을 배치할 위치를 결정하게 하고, 상기 결정에 기초하여 상기 물체의 깊이 맵을 생성하게 한다.
본 발명의 다양한 다른 특징들 및 장점들이 다음의 상세한 설명 부분 및 첨부 도면으로부터 명백하게 될 것이다.
첨부 도면들은 본 발명을 구현하기 위해서 본 명세서에서 고려되는 바람직한 실시예들을 예시하고 있다.
도 1은 통상적인 지문 스펙트럼을 나타내고 있다.
도 2는 통상적인 지문 이미지의 예시적인 방사 주파수 스펙트럼을 나타내고 있다.
도 3은 상이한 블러(blur) 레벨을 갖는 이미지들에 대한 제 1 방사 스펙트럼 및 제 2 방사 스펙트럼을 나타내고 있다.
도 4는 예시적인 가우시안 커널(Gaussian kernel)을 사용하여서 일 이미지를 블러링(blurring)하는 효과를 나타내고 있다.
도 5는 본 발명의 실시예들에 따라 렌즈의 면들을 식별하기 위해서 사용되는 좌표 시스템을 나타내고 있다.
도 6은 본 발명에 따라서 DFD(depth from defocus)를 사용하여서 이미지를 보정하는 방법을 나타내고 있다.
본 발명에 따라서,렌즈 거동을 지배하는 수학적 모델이 사용된다. 이 모델은 렌즈의 물리적 특성(즉, 수차, 초점 길이, 등) 및 물체 거리에 의해서 영향을 받는다. 초점 면들로부터의 정보(DFF) 및 탈초점 양으로부터의 정보(DFD)가 결합되어서 심도 맵을 산출된다. 다음은 본 발명의 실시예들에 따른 비접촉식 지문 이미징 시스템을 위한 알고리즘을 설명한다. 그러나, 본 발명은 이러한 시스템으로만 한정되지 않으며 본 개시된 발명은 산업용 검사를 위한 3D 마이크로스코픽 프로필로메트리(microscopic profilometry), 3D 보스코프 이미징 시스템, 3D 인-시츄 의학용 이미징 시스템, 3D 소비자용 카메라(적합한 초점 시프팅 렌즈를 구비함), 3D 목표물 인식을 위한 수동 이미징 시스템(군사용 또는 보안용) 등과 같은, 근소하게 초점에서 벗어난 이미지 세트로부터 심도(depth)를 수동으로 추정하는 이미징 시스템에도 적용될 수 있다.
도 1은 본 기술 분야에서 알려진 바와 같은, 통상적인 지문으로부터 푸리에 변환을 사용하여서 획득 및 생성될 수 있는 통상적인 지문 스펙트럼(100)을 나타내고 있다. 이 통상적인 지문 및 주파수 영역에서, 스펙트럼 데이터 내에서 급격한 농도 변화 또는 헤일로(halo)(102)로서 표현되는 명확한 주기성을 이 패턴이 나타내고 있음이 자명하다. 따라서, 심도 추정을 위해서, 유용한 정보가 이러한 알려진 주기성을 기초로 하여서 지문 이미징 시에 추출될 수 있다.
(도 1의 스펙트럼 데이터의 중심 근처의) DC 성분(104)은 대칭적이면서 지문 마크로 인한 것일 수 있는 보다 높은 주파수의 헤일로(102)로부터 분리될 수 있다. 이 스펙트럼은 극좌표로 변환되어서 다음의 등식을 사용하여서 방사 주파수 축에 대한 투사를 생성할 수 있다.
Figure 112012064757589-pat00001
등식(1)
여기서, fr은 방사 주파수이며 Ip(fr, θ)는 극좌표에서의 스펙트럼을 말한다.
도 2는 통상적인 지문 이미지의 예시적인 방사 주파수 스펙트럼(150)을 나타내고 있다. 이 실제 지문 마크의 스펙트럼(150)은 솟아 오른 부분(hump)(152)을 가지고 있다. 이는 자연스러운 이미지(즉, 지문에서와 같이 일반적으로 대칭적인 패턴을 가지지 않는 이미지들)에 대해서 예상된 거동과는 대조적이며 이러한 자연스러운 이미지의 거동은
Figure 112012064757589-pat00002
형태의 지수함수적 감쇠에 의해서 모델링될 수 있다. 통상적으로, 지문 이미지의 가장 가시적인 세부 특징부는 융선(ridge) 및 그루브(groove)이며, 이러한 특징부의 탈초점 정도가 본 발명의 실시예들에 따라서 측정된다.
통상적인 DFD 방법에서는 PSF 대신에 가우시안 함수 또는 필박스 함수와 같은 알려진 함수가 이용될 수 있도록 렌즈의 PSF에 대해서 소정의 형태가 가정된다. 그러나, 실제 PSF 형상이 가정 사항으로부터 크게 벗어나게 되면, 통상적인 DFD 알고리즘은 양호하지 않은 결과를 낳게 된다. 즉, 도 2에 도시된 바와 같은 스펙트럼(150)에서 솟아 오른 부분(152)을 갖는 지문과 같은 물체의 경우에, 알려진 종래의 블러링 커널(blurring kernel)을 사용하게 되면 통상적인 DFD 방법은 작동하지 않게 되어서 DFD를 사용하여서 만족할만한 최종 심도 이미지를 제공할 수 없게 된다.
가령, 가우시안 함수 또는 필박스 함수를 사용하는 종래 DFD 방법이 블러링 프로세스를 위한 적합한 추정치를 제공하지 못한다는 것을 설명하기 위해서, 일 이미지 패치가 다양한 크기 및 형상을 갖는 커널들로 블러링되고 이로써 생성된 이미지가 이미징 시스템에 의해서 획득된 제 2 이미지와 비교된다. 도 3의 그래프(200)에서, 서로 상이한 블러 레벨(blur level)을 갖는 제 1 방사 주파수 스펙트럼(202) 및 제 2 방사 주파수 스펙트럼(204)이 도시되어 있다. 따라서, 통상적인 DFD 방법을 따르면, 알려진 블러링 커널들이 가령 제 1 방사 주파수 스펙트럼(202)에 적용되어서 제 2 방사 주파수 스펙트럼(204)이 복제될 수 있다. 이 도면은 가령 가우시안 블러링 커널이 실제로 제 1 방사 주파수 스펙트럼(202)이 유도되는 제 1 이미지를 제 2 방사 주파수 스펙트럼(204)이 유도되는 제 2 이미지로 변환시킬 수 있다는 것을 이해시키기 위한 것이다. 도 4에서, 일 실례로서, 제 1 방사 주파수 스펙트럼(202)이 0.9 픽셀 표준 편차 폭을 갖는 가우시안 커널로 블러링된다(206). 도 4에서 볼 수 있는 바와 같이, 블러링된 이미지(206)의 스펙트럼은 이미징 시스템에 의해서 캡처된 실제 이미지(204)로부터 벗어나 있다. 상이한 표준 편차를 갖는 가우시안 커널에 대해서도 유사한 거동이 나타날 수 있으며 또한 상이한 표준 편차를 갖는 필박스 커널과 같은 다른 블러링 커널에 대해서 유사한 거동이 나타날 수 있다.
따라서, 가우시안 블러링 커널 또는 필박스 블러링 커널 중 어떠한 것도 다른 이미지로부터 하나의 탈초점화된 이미지를 허용 가능할 정도로 복제하지 못한다는 것을 알 수 있다. 따라서, 본 발명에 따라서, 렌즈의 PSF에 대한 정보는 가우시안 커널 또는 필박스 커널과 같은 이론적 커널을 사용하는 대신에 실험적 또는 경험적으로 획득된다. 도 3 및 도 4에 도시된 바와 같이, 고 주파수 성분이 두 이미지에서 존재하는 것으로 나타나며 이는 전자적 양자화 잡음으로 인한 것일 수 있다 이로써, 이미지의 고주파수 성분들이 DFD 계산을 위해서 의존될 가능성이 낮다. 따라서, 후속 처리 이전에 스펙트럼의 고주파수 부분을 제거하기 위해서 저역 통과 사전 필터가 사용될 수 있다.
따라서, 이미징 렌즈가 통상적인 가우시안 형태, 필박스 형태 또는 다른 분석 형태의 PSF를 발휘하지 못한다면, 본 발명에 따라서, 요구된 정보가 신뢰할만한 DFD 기반 심도 추정기를 설계하기 위한 동공 맵(pupil map)을 통해서 또는 경험적으로 유도될 수 있다. 도 5에서, 프레임워크(300)는 물체 면(302), 출구 동공또는 면(304)(렌즈(306)의 위치에 대응함), 이미지 면(308) 및 검출기 면(310)(가령, CCD(charge-coupled device)의 검출기 면)을 포함한다. 물체 면(302)으로부터 발산되는 광자는 출구 공동(304)을 통과하여 이미지 면(308)에서 선명한 이미지를 형성하며, 이 이미지 면은 이미징 시스템의 특성 및 거리에 따라서 검출기 면(310)의 위치와 만나지 않을 수 있다. 따라서, 이 시스템(300)은 자신의 초점 길이를 변화시킬 수 있는 이미징 시스템을 나타낸다.
이미징 렌즈 특성은 그의 출구 공동에 의해서 주로 영향을 받는다. 통상적으로, 동공 함수 맵(또는 동공 맵)은 공간 내의 소정의 물체 위치에 있어서 이미징 시스템의 출구 공동에서의 파면(wavefront)이다. 본 기술 분야에서 알려진 바와 같이, 물체 면(302)과 출구 공동(304) 간의 거리 z0가 변하면, 이 출구 공동(304)에서 거리 z1 만큼 떨어진 이미지 면(308)의 위치도 따라서 변하게 된다. 따라서, 명료화를 위해서, 물체 면(302)에서 물체의 선명한 또는 날카롭게 초점화된 이미지가 획득될 수 있도록 검출기 면(310)과 만나도록 이미지 면(308)을 위치시킬 수 있는 값 z0를 아는 것이 요구된다. 예시된 바와 같은 일 실시예에 따라서, 렌즈(306)는 병진 축(314)을 따라서 병진 이동 가능한 단(312) 상에서 위치가 조절될 수 있으며 이로써 물체 면(302)에 위치한 물체의 복수의 기초 이미지들(elemental images)을 획득할 수 있다. 통상적으로, 이 기초 이미지는 (즉, 초점 길이와 같은) 특정 렌즈 설정 및 구성 사항에 있어서의 단일 이미지이다. 거리 z0는 본 발명에 따라서 다른 방식으로 변화될 수 있다. 가령, 물체 면(302)에서의 물체는 병진 축(314)을 따라서 물체 면(302)을 병진 이동시킬 수 있는 물체 병진 이동기(316)를 사용하여서 병진 이동될 수 있다. 나아가, 거리 z0는 본 발명에 따라서 다음으로 한정되지 않지만 가변 경로 윈도우, 프리즘, 압전 방식의 병진 이동기, 복굴절 광학 장치 등을 포함하는 본 기술 분야에서 알려진 다른 기술들을 사용하여서 변화될 수 있다. 따라서, 거리 z0는 물체 및/또는 렌즈의 물리적 이동에 의해서 실제로 물리적으로 영향을 받거나 가령 가변 경로 윈도우, 프리즘 또는 복굴절 광학 장치를 사용하여서 그들 간의 가현 거리(apparent distance)를 변화시킴으로써 실제로 영향을 받을 수 있다.
도 6에서는, 물체의 심도 또는 깊이를 획득하는 방법이 예시되어 있다. 전술한 바와 같이, 본 발명의 실시예들이 지문 이미지 취득과 관련하여서 기술되지만, 본 명세서에서 개시된 본 발명은 보다 넓은 범위의 이미징 기술에 적용될 수 있다. 가령, 본 발명은 알려진 커널이 렌즈의 PSF와 같은 이미징 시스템의 특성을 적합하게 나타내지 못하기 때문에 DFD 기술이 최적화되지 않는 다른 애플리케이션에 적용될 수 있다.
도 6은 오프라인 구성 요소(402) 및 온라인 구성 요소(404)를 포함하는, 본 발명에 따른 기술 또는 방법(400)을 나타내고 있다. 일반적으로, 오프라인 구성 요소들(402)은 도 5의 시스템에서 나타난 렌즈(306)와 같은 렌즈를 경험적으로 특성화시키기 위한 단계들을 포함한다. 온라인 구성 요소(404)는 이미지 취득 동작, 렌즈의 특성화를 고려함으로써 수행되는 이미지 조작 동작, 및 오프라인 구성 요소(402)로부터 유도된 PSF 또는 동공 함수(pupil function)를 포함한다.
전반적인 기술(400)은 다음과 같다. 도 5로 돌아가서, 동공 함수는 p(x,y)로 표현되고 PSF는 h(x,y)로 표현되며 이들은 렌즈 설계 소프트웨어 패키지를 통해서 구해지거나 간섭 측정과 같은 다양한 방법을 통해서 경험적으로 구해질 수 있다. 이미지 면에 대한 동공 함수 및 PSF는 다음과 같은 관계를 갖는다.
Figure 112012064757589-pat00003
등식(2)
여기서,
Figure 112012064757589-pat00004
는 푸리에 변환을 나타내며 γ는 렌즈에 대한 특정 초점 설정 사항이며 λ는 조사 파장이다. 스케일링된 버전의 푸리에 쌍들이 다음과 같이 푸리에 변환을 통해서 서로 관련된다.
Figure 112012064757589-pat00005
등식(3)
따라서, 등식 (2)는 다음과 같이 재작성될 수 있다.
Figure 112012064757589-pat00006
등식(4)
그러나, 검출기 면이 일반적으로 이미지 면과 만나지 않기 때문에, 다음과 같이 2차 위상 계수(탈초점)가 사용되어서 동공 함수를 보상하고 그 거리를 고려한다.
Figure 112012064757589-pat00007
등식(5)
여기서,
Figure 112012064757589-pat00008
는 이미지 면과 검출기 면 간의 거리와 관련되며 이미징 조건 zi = zd가 적용되면 사라진다.
이어서, 검출기 면 상에 형성된 이미지는 다음과 같이 PSF와 이상적인 이미지 간의 컨볼루션(convolution)으로서 기록된다.
Figure 112012064757589-pat00009
등식(6)
푸리에 변환의 이원성 원리(duality principle)를 고려하면, 다음과 같은 등식이 이루어진다.
Figure 112012064757589-pat00010
등식(7)
따라서, 다음과 같다.
Figure 112012064757589-pat00011
등식(8)
이미지 스펙트럼은 다음과 같이 재작성될 수 있다.
Figure 112012064757589-pat00012
등식(9)
스펙트럼 비는 다음과 같다.
Figure 112012064757589-pat00013
등식(10)
이 등식은 상이한 (fs, ft)에 대해서 점 대 점 비를 나타내며 다음과 같이 극좌표로서 표현될 수 있다.
Figure 112012064757589-pat00014
등식(11)
여기서,
Figure 112012064757589-pat00015
Figure 112012064757589-pat00016
을 낳는다. 아래 첨자 p는 극좌표를 의미한다.
동공 함수는 일 실례로서 다음과 같이 제르니케(Zernike) 다항식으로 표현될 수 있다.
Figure 112012064757589-pat00017
등식(12)
제르니케 다항식은 등식(12)에서 볼 수 있는 바와 같이 파면을 효율적으로 기술하는데 사용될 수 있는 다항식 함수 세트이다. 이들은 보다 복잡한 함수를 기술하는 기본 함수 역할을 한다. 그러나, 본 발명은 동공 함수를 이러한 제르니케 다항식으로 표현하는 것으로 한정되지 않고 가령 아베 공식(Abbe formulation)과 같은 다른 함수들이 사용될 수도 있다.
따라서, 등식(12)은 다음과 같이 표현될 수 있다.
Figure 112012064757589-pat00018
등식(13)
이는 초점 설정 사항에 의존하는 계수들을 갖는 다항식이며 다음과 같이 짧게 재작성될 수 있다.
Figure 112012064757589-pat00019
등식(14)
등식(13)에서, 본 발명을 따라서, 오프라인 계산(402)은 두 번째 분수 값을 제공하고 온라인 구성 요소(404)를 통해 획득된 구성 요소들은 처리되어(푸리에 변환되어서) 첫 번째 분수를 계산한다. 이어서, 본 발명에 따른 최소화 전략은 두 분수 간의 차가 사라지도록 하는 물체 거리 z0을 찾는 것이다. 이러한 프로세스는 손가락 상의 수많은 점들에 대해서 수행되어서 그 표면을 맵핑한다.
상술한 바와 같이, 본 발명에 따른 오프라인 구성 요소(402)는 이하에서 기술될 일련의 수학적 단계들을 사용하여서 렌즈를 특성화하는 바를 포함한다. 스펙트럼 영역 DFD 알고리즘에서, 소정의 점원(point source)에 대한 CCD 상에서의 강도 분포의 푸리에 변환은 알려질 필요가 있다. 도 5에 도시된 바와 같이, 이미지 면과 CCD 면은 만나지 않으며, 따라서 PSF와 동공 함수 간의 간단한 푸리에 관계식은 유효하지 않게 된다. 그러나, 동공 함수와 CCD 면 간에서의 각 스펙트럼 전파를 사용하여 (추가 이차 위상으로 조절된) 동공 함수의 푸리에 변환(각 스펙트럼)에 기초하여서 CCD 면 상에서의 광 분포의 푸리에 변환((x,y) 면에서의 각 스펙트럼)을 계산할 수 있다. 다음의 등식들은 이러한 프로세스를 나타낸다.
Figure 112012064757589-pat00020
등식(15)
여기서,
Figure 112012064757589-pat00021
는 출구 공동의 둘레에서 매우 고주파수로 되는 것으로 분석적으로 구해지며(에일리어싱(aliashing)이 방지됨),
Figure 112012064757589-pat00022
는 제르니케 다항식에 기초하여서 계산되며, Wab는 수차이다(물체 심도 또는 깊이만큼 변화된다).
도 5의 개략도는 출구 공동, CCD 면, 이미지 면 및 통상적인 크기의 지문 렌즈에 대한 좌표 시스템을 나타내고 있다. 출구 공동과 CCD 면 간의 거리 zd는 고정되지만 출구 공동과 이미지 면 간의 거리는 물체 위치 및 렌즈 초점 구성에 따라서 변한다. 렌즈(306)의 출구 공동의 크기는 물체 거리가 상이하면 근소하게 변할 수 있다.
동공 함수의 푸리에 변환을 계산하기 위해서, 매우 큰(가령, 35000*35000) 이산 푸리에 변환(DFT) 계산이 요구되지만 이는 불가능하다. 이는 기준 구형 파면이 공동의 에지에서 급격한 위상 변화를 보인다는 사실 때문이다. 이러한 필드의 각 스펙트럼을 계산하기 위해서, 공간적 샘플링은 나이퀴스트 판정법(Nyquist criteria)을 만족시켜야 한다. 다음의 계산들은 일 실례에 따라서 공간적 샘플링 기간(및 행렬의 크기)이 얼마 정도인지를 나타낸다.
zf = 55 mm (공동과 이미지 점 간의 거리)에서 초점을 이루는 기준 구(reference sphere)를 나타내는 공동(D = 32 mm)의 에지에서의 평면형 파면의 최대 코사인 각은 다음과 같다.
Figure 112012064757589-pat00023
등식(16)
관계식
Figure 112012064757589-pat00024
에 따르면 다음과 같이 이루어진다.
Figure 112012064757589-pat00025
등식(17)
나이퀴스트 레이트에 따르면, 이러한 주파수를 캡처하기 위해서는 32 mm 직경에 걸쳐서 파면에 대한 약 35,000 개의 샘플들이 필요하거나
Figure 112017056358425-pat00026
의 공간적 샘플링 기간이 필요하다. 따라서, DFT는 35,000*35,000 행렬 상에서 연산되어야 하며 이는 실제 불가능하며 언더샘플링을 낳게 된다. 따라서, 동공 함수에서의 각 스펙트럼은 간접적으로 계산될 수 있다.
파면의 수차 부분은 통상적으로 고주파수가 아니며 그의 각 스펙트럼은 DFT를 통해서 계산될 수 있다. 이는 총 동공파면 각 스펙트럼을 계산하는 바를 다음과 같은 2 개의 과제로 나누어지게 한다.
1. 파면 수차의 각 스펙트럼을 DFT를 통해서 계산한다.
2. 소정의 주파수에서 기준 구형 파(reference spherical wave)의 각 성분(평면형 파면)을 직접적으로 계산한다. 이러한 평면형 파면이 얼마인지를 정확하게 알기 때문에, DFT에 의해서 유발되는 에일리어싱을 도입할 필요 없이 동공상의 임의의 위치에서 각 성분들이 계산될 수 있다.
공동에 걸친 샘플링은 상대적으로 작을 수 있다(가령, 128*128). 본 실례에서, 렌즈 수차는 고주파수가 아니며 따라서 양 방향에서 nab 개의 샘플로 갭처될 수 있다. nab = 256 또는
Figure 112012064757589-pat00027
인 경우에, 이는 최대 주파수
Figure 112012064757589-pat00028
를 낳는다.
본 기술 분야에서 알려진 바와 같이, 각 성분들은 각 방향 코사인 쌍(α,β)에 대해서 직접적으로 계산될 수 있다. 위치 (ξ, η)에서 동공면 상의 평면 파 성분은 다음과 같이 작성될 수 있다.
Figure 112012064757589-pat00029
등식(18)
여기서, 임의의 쌍(α,β)을 동공좌표(ξ, η)로 변환시키는 맵이 존재한다. 그 관계식은 다음과 같이 규정된다.
Figure 112012064757589-pat00030
등식(19)
Figure 112012064757589-pat00031
등식(20)
주파수를 방향 코사인으로 맵핑하는 이러한 등식들은 다음 사항을 포함한다.
Figure 112012064757589-pat00032
,
Figure 112012064757589-pat00033
등식(21)
따라서,
Figure 112012064757589-pat00034
의 임의의 소정의 이산 그리드에 대해서, 평면 파 성분은 위의 등식들을 사용하여서 계산될 수 있다. 이러한 방식이 취해져서, 기준 구 상에 존재하는 최대 주파수로 확장되는 사전 규정된 주파수 그리드에서 각 성분을 직접적으로 계산할 수 있게 된다. 본 실례에서 최대 주파수가
Figure 112012064757589-pat00035
이기 때문에, 2000 개의 요소를 갖는 주파수 그리드는 [-538, +538] mm-1 영역을 커버하는 각 방향 내에 포함된다. 따라서 이 그리드 상에서 계산되는 각 성분들은 에일리어싱이 필요 없게 된다.
다음 단계는 수차 파면 각 주파수와 구형 파면 각 주파수 간에 컨볼루션(convolution)을 수행하는 것이다. 일단 기준 파면 각 스펙트럼 및 수차 파면 각 스펙트럼이 계산되면, 이들이 컨볼루션되어서 다음과 같은 총 파면 각 스펙트럼이 산출된다.
Figure 112012064757589-pat00036
등식(22)
이로써, 본 발명에 따라서 그리고 도 6으로 다시 돌아가면, 오프라인 구성 요소(402)는 높은 레벨에서 렌즈를 특성화하는 단계(406) 및 렌즈를 수학적 함수로서 맵핑하는 단계(408)를 포함한다. 오프라인 구성 요소(402)는 한번 수행되어서 렌즈를 완벽하게 특성화하되 물체 공간 내의 모든 지점에 대한 수차량을 기술하는 동공 맵 함수를 통해서 수행되는 캘리브레이션 단계로 특징지워진다. 동공 함수는 물체의 상이한 지점마다 변한다. 이로써, 오프라인 구성 요소(402)의 결과는 렌즈의 특성화이며 전술한 바와 같이 이 렌즈의 특성화는 등식(13)의 두 번째 분수에서 기술된 바와 같은 계수들을 낳는다. 보다 일반적으로, 수학적 함수(408)는 등식(11)에서 기술된 바와 같은, 동공 함수들을 사용하는 바를 포함하는 일반적인 등식으로서 획득될 수 있다. 그러나, 일 실시예에 따라서, 동공 함수는 등식(13)에서와 같이 제르니케 계수들을 통해서 동공 함수 맵으로서 수학적으로 기술된다. 이로써, 해당 공간 내의 상이한 위치들에서의 점원(point source)에 대한 응답 결과에 기초하여서 렌즈가 특성화되고, 특성화 테이블이 물체의 거리를 파라미터 세트로 맵핑하는 테이블로서 생성될 수 있다. 상기 파라미터 세트는 본 명세서에서 개시된 수학적 기술 사항들에 기초하여서 온라인 프로세스 동안에 이미지들로부터 측정될 수 있다.
온라인 구성요소(404)는 상술된 수학적 기술 사항에 부합되는 일련의 하이 레벨의 단계들을 포함한다. 온라인 구성 요소(404)는 심도 맵이 생성될 필요가 있는 물체의 2 개 이상의 기초 이미지들(410)을 획득함으로써 시작된다. 물체의 패치가 단계(412)에서 선택되고 최상의 초점 면들이 단계(412)에서 가령 알려진 DFF 방법 또는 알고리즘을 사용하여서 이 기초 이미지들로부터 추정된다. 최상의 초점 면들이 추정되면, 기초 이미지들 간의 파워 스펙트럼 비(power spectral ratio)가 단계(416)에서 획득되고 이 파워 스펙트럼 비는 등식(11)에 부합하면서 동일한 기초 이미지 위치들에 대응하여서 획득된 렌즈 함수의 비와 비교된다. 단계(418)에서, 물체 거리가 가정되고 단계(420)에서 함수 비가 단계(408)에서 획득된 렌즈 함수 및 단계(418)에서 가정된 물체 거리에 기초하여서 계산된다. 역시, 단계(420)에서, 등식(11)에 따라서 상기 비들이 비교되고 단계(422)에서 이 비들이 임계치 내에 있는지의 여부가 판정된다. 단계(424)에서 비들이 임계치 내에 있지 않다고 판정되면, 단계들이 반복되고 단계(426)에서 물체 거리 가정 사항이 수정되고 단계(420)로 복귀하여서 다시 단계(416)에서 획득된 파워 스펙트럼 비와 비교된다.
따라서, 본 발명에 따라서, 기초 이미지들이 획득되고, 최상의 초점 면들이 알려진 기술(DFF)을 사용하여서 추정되며, 파워 스펙트럼 비가 계산된다. 맵핑된 함수는 각 기초 이미지에 대응하지만 시작 지점으로서 물체 거리 가정 사항에 기초하여서 계산된다. 이 맵핑된 함수의 비는 기초 이미지뿐만 아니라 기초 이미지들의 비 자체에 대응하게 계산된다. 따라서, 상기 반복 단계는 가정된 물체 거리를 수정함으로써 상기 맵핑된 함수 비를 수정하는 바를 포함하고 2 개의 비들이 적당한 임계치에 상당할 때까지 계속된다. 요약하자면, 2 개의 상이한 렌즈 설정 사항(가령, 초점 길이)에서의 동공 함수들의 비가 이 2 개의 렌즈 설정 사항에 의해서 형성된 2 개의 이미지들 간의 파워 스펙트럼 비와 대등하다. z0에서, (z0 상관없이 DFF에 의해서 구해질 수 있는) 2 개의 최상의 초점 기초 이미지들 간의 파워 스펙트럼 비가 z0와 대등한 물체 거리에서의 동공 함수들의 비에 가장 근접하게 된다. 이 거리 z0는 렌즈로부터 물체의 추정 거리이다.
도 6에서, 일단 비들이 허용 가능할 정도로 근접하게 되면(단계(428)), 최종 거리가 단계(412)에서 선택된 패치에 대해서 선택된다(단계(430)). 단계(432)에서, 추가 패치들이 평가될 지의 여부가 판정된다. 그렇다면(단계(434), 이 프로세스는 단계(412)로 돌아가고 다른 패치가 선택되며 이 프로세스는 새롭게 선택된 패치에 대해서 반복된다. 그러나, 어떠한 추가 패치들도 평가되지 않을 것이라면(단계(436)), 이 프로세스는 단계(438)에서 종료되고 심도 맵이 완성된다.
본 발명의 추가 실시예에 따라서, 비접촉식 다중 지문 수집 장치는 지문 채취 대상의 손을 정지 위치로 둘 필요 없이 이미징 공간을 통해서 움직이면서(즉, 스와이핑(swiped) 또는 웨이빙(waved)하면서) 지문 채취 대상의 손가락에 대한 지문 데이터를 획득하도록 구성될 수 있다. 즉, 지문 채취 대상이 자신의 손가락을 특정된 이미지 캡처 위치에 놓도록 인도하기보다는, 비접촉식 다중 지문 수집 장치는 지문 채취 대상의 손가락 위치를 추적하여서 이미지 캡처 장치로 하여금 손가락 이미지를 수집하게 할 수 있게 한다.
본 발명의 실시예들에 따라서, 하나 이상의 위치조절 검증 장치들은 이미지 캡처 장치들을 제어하기 위해서 지문 채취 대상의 손의 움직임을 이미징 공간 내에서 추적 및 검증하는데 사용될 수 있는 추적 장치들로서 기능하는 장치들(가령, 오버헤드 카메라)을 포함할 수 있다. 즉, 각 이미지 캡처 장치의 관측 시야 및 초점 깊이는 추적 장치에 의해서 추적된 지문 채취 대상의 손/손가락의 움직임 및 배치에 기초하여서 개별 손가락 끝을 따르도록 개별적으로 설정될 수 있다. 각 이미지 캡처 장치의 관측 시야의 움직임은 각 이미지 캡처 장치를 전기적/디지털 방식으로 제어함으로써 또는 하나 이상의 구성 요소들을 기계적으로 작동시킴으로써 이루어질 수 있다. 가령, 관측 시야를 이동시키기 위해서 하나 이상의 구성 요소들이 기계적으로 작동되는 실시예에서, 이미지 캡처 장치에 인접하여 위치한 거울이 회전하거나 렌즈 요소들이 이미지 캡처 장치의 관측 시야를 이동시키도록 움직여질 수 있다. 전자적 또는 디지털 방식의 제어가 구현되는 실시예에서는, 이미지 캡처 장치 내의 센서(가령, 카메라 센서)가 이미지 캡처 장치의 관측 시야를 이동시키도록 제어될 수 있다.
다양한 방법들이 이미지 등록 시에 사용될 수 있다. 본 명세서에서 사용되는 용어 "등록"은 단일 대상의 여러 상이한 이미지들을 단일 좌표 시스템 내로 변환시키는 프로세스를 말한다. 지문 수집의 경우에, 등록된 이미지들은 캡처된 지문 이미지들로부터 유도된다. 등록된 이미지들은 동일한 스케일 및 피처(feature) 위치를 갖는다.
다수의 시프트된 이미지들로부터의 피처들이 근사적으로 등록되는 것을 보장하기 위해서, 통상적으로 협 범위 내에서 배율을 유지할 수 있는 텔레센트릭 렌즈 시스템이 사용된다. 그러나, 본 기술 분야에서 알려진 바와 같이, 텔레센트릭 개구(telecentric aperture)를 부가하면 반드시 f 넘버가 증가하여서 과잉 필드 깊이(excessive depth-of-field)가 되어 버린다.
소정의 등록 실시예에서, 등록 프로세스는 정사 보정(ortho-rectification)을 사용하는 GIS(geographic information system)를 사용할 수 있다. 이 정사 보정은 정상 투시 이미지로부터 표면 편차 및 카메라 위치 효과를 제거하기 위해서 이미지를 재맵핑하는 프로세스이다. 이로써 생성된 다수의 이미지들은 픽셀 간에서 어떠한 배열 편차도 없는, 공통 면 상으로의 투시 보정된 투영 이미지들이다. 소정의 실시예에서, 정사 보정은 이미지 캡처 장치의 3 차원 캘리브레이션 정보 및 이미지의 일 면 상으로의 투영 결과를 이용하여서 각 캡처된 이미지에 대한 일그러짐을 제거하는 동작을 포함한다.
이미지들이 일단 캡처되면, 이미지 융합이 사용되어서 동일한 대상의 다수의 이미지들로부터 단일 고해상도 이미지가 생성된다. 일반적으로, 이미지 융합은 다수의 이미지들로부터의 정보를 단일 이미지로 결합하는 절차인데, 상기 실시예에서는 이 정보는 각 이미지 내의 국부적 공간적 초점 정보와 관련된다. 소스 이미지들이 서로 상이한 특정 영역에서 초점이 맞추어 진 상태에 있는 동안에 재융합된 이미지는 바람직하게는 전체적으로 초점이 맞추어진 상태로 보인다. 이는 선택된 메트릭을 사용하여서 달성될 수 있다. 이러한 메트릭은 이미지의 블러링된 부분들의 픽셀들은 양호하게 초점이 맞추어진 픽셀들과 비교하여서 상이한 피처 레벨들을 나타낸다는 사실에 기초하여서 선택된다. 가령, 초점이 맞추어진 이미지들은 통상적으로 고 주파수를 포함하는 반면에 블러링된 이미지들은 저 주파수 성분들을 갖는다.
소정의 실시예들에서, 소정의 메트릭들이 사용되어서 지문에 대해서 각각 개별로 획득된 이미지의 각 픽셀에 대한 초점 레벨이 컴퓨팅된다. 이 개별 이미지들은 이어서 정규화 처리되고 픽셀 가중치 결합을 통해서 결합되며 이로써 단일 융합 또는 복합 이미지가 획득된다. 이로써, 각 획득된 이미지에 있어서, 관심 영역은 이미지 분절화에 의해서 결정된다. 상이한 메트릭들로부터, 이미지 내의 각 위치에서의 초점은 피처 가중치 결합으로서 계산되고 이어서 이미지들은 피처들에 대한 상기 국부적 가중치 결합에 의해서 결합된다.
지문의 복합 이미지를 생성하면, 다수의 지문 각각에 대한 복합 이미지의 "컨투어 맵(contour map)" 또는 "깊이 맵"이 상술된 DFD 알고리즘을 사용하여서 계산 또는 생성된다. DFD 분석/계산은 특정 이미지가 캡처된 알려진 초점 거리와 각 이미지 내의 초점 맞춤 위치들(in-focus locations)을 상관시키도록 상이한 초점 거리들에서 캡처된 다수의 이미지들을 결합하는 이미지 분석 방법이다.
캡처된 지문 이미지들을 2D 데이터 캡처에 기초한 표준 데이터베이스에 맞추기 위해서, 개시된 DFD 알고리즘으로부터 획득된 3D 모델이 사용되어서 굴러지지 않은 상태의 2D 이미지를 생성한다. 이 사용된 모델은 접촉 방법에서 획득된 2 차원 투영에 대해서 지문 표면의 역 투영에 대응하는 이미지 왜곡을 시뮬레이션한다.
따라서, 본 발명의 일 측면에 따라서, 이미징 시스템은 물체로부터 방출되어 렌즈를 통과하는 광자들로부터 생성되는 이미지 면(image plane)을 축 방향으로 시프트시키도록 구성되는 위치조절 가능한 장치와, 상기 렌즈를 통과하는 상기 물체의 광자들을 수용하도록 배치된 검출기 면(detector plane)과, 컴퓨터를 포함한다. 상기 컴퓨터는 상기 렌즈를 수학적 함수로서 특성화하고, 상기 검출기 면에 대해 상이한 축 방향 위치들에서 각각의 기초 이미지의 이미지 면을 사용하여 상기 물체의 2 개 이상의 기초 이미지들을 획득하며, 상기 렌즈의 특성화 및 상기 획득된 2 개 이상의 기초 이미지에 기초하여 상기 렌즈로부터 상기 물체의 초점 거리를 결정하고, 상기 결정된 거리에 기초하여 상기 물체의 깊이 맵(depth map)을 생성하도록 프로그래밍된다.
본 발명의 다른 측면에 따라서, 이미징 방법은 렌즈를 수학적 함수로서 수학적으로 특성화하는 단계와, 검출기에 대해 상이한 축 방향 위치들에서 물체의 이미지 면을 사용하여 상기 물체의 2 개 이상의 기초 이미지들을 획득하는 단계와, 상기 렌즈의 수학적 특성화 및 제 1 및 제 2 기초 이미지들에 기초하여 상기 이미지 면이 상기 검출기에 위치하게 되는 상기 물체에 대한 상기 이미지 면의 제 1 초점 거리를 결정하는 단계와, 상기 결정에 기초하여 상기 물체의 깊이 맵을 생성하는 단계를 포함한다.
본 발명의 또 다른 측면에 따라서, 인스트럭션들을 포함하는 컴퓨터 프로그램을 그 상에 저장한 비일시적 컴퓨터 판독 가능한 저장 매체가 제공되며, 상기 인스트럭션들은 컴퓨터에 의해서 실행되어서 상기 컴퓨터로 하여금, 렌즈의 동공 함수를 유도하게 하고, 검출기에 대한 물체의 이미지 면의 상이한 위치들에서 상기 물체의 기초 이미지들을 획득하게 하며, 상기 물체의 제 1 패치에 대해서 획득된 기초 이미지들 및 상기 동공 함수에 기초하여 상기 물체의 제 1 패치의 이미지 면을 배치할 위치를 결정하게 하고, 상기 결정에 기초하여 상기 물체의 깊이 맵을 생성하게 한다.
이 개시된 장치 및 방법을 위한 기술적 기여로서, DFD(depth from defocus) 이미징을 위한 컴퓨터 구현형 시스템 및 방법, 보다 구체적으로는, 비접촉식 다중 지문 수집 장치와 관련되어서 DFD(depth from defocus) 이미징을 위한 컴퓨터 구현형 시스템 및 방법이 제공된다.
본 기술 분야의 당업자는 본 발명의 실시예들이 그 상에 컴퓨터 프로그램을 저장한 컴퓨터 판독 가능한 저장 매체와 인터페이싱하여서 이에 의해서 제어될 수 있다는 것을 이해할 것이다. 컴퓨터 판독 가능한 저장 매체는 전자적 구성 요소, 하드웨어 구성 요소 및/또는 컴퓨터 소프트웨어 구성 요소 중 하나 이상과 같은 다수의 구성 요소들을 포함한다. 이들 구성 요소는 일반적으로 시퀀스로 된 하나 이상의 실시예들 또는 구현예들의 하나 이상의 부분들을 수행하기 위한 소프트웨어, 펌웨어 및/또는 어셈블리 언어와 같은 인스트럭션들을 저장하는 하나 이상의 컴퓨터 판독 가능한 저장 매체를 포함한다. 이러한 컴퓨터 판독 가능한 저장 매체는 일반적으로 비일시적이고/이거나 유형의 것이다. 이러한 컴퓨터 판독 가능한 저장 매체의 실례는 컴퓨터 및/또는 저장 장치의 기록 가능한 저장 매체를 포함한다. 컴퓨터 판독 가능한 저장 매체는 가령 자기 매체, 전기적 매체, 광학적 매체, 생물학적 매체 및/또는 원자적 데이터 저장 매체 중 하나 이상을 사용할 수 있다. 나아가, 이러한 매체는 가령, 플로피 디스크, 자기 테이프, CD-ROM, DVD-ROM, 하드 디스크 드라이브 및/또는 전자적 메모리의 형태를 취할 수 있다. 여기서 열거되지 않은 다른 형태의 비일시적 및/또느 유형의 컴퓨터 판독 가능한 저장 매체도 역시 본 발명의 실시예들에서 사용될 수 있다.
다수의 이러한 구성 요소들은 일 시스템의 구현 시에 결합 또는 분할될 수 있다. 또한, 이러한 구성 요소들은 본 기술 분야의 당업자에게 이해될 바와 같이 임의의 다수의 프로그래밍 언어들로 기록 또는 구현되는 컴퓨터 인스트럭션 세트 및/또는 일련의 컴퓨터 인스트럭션들을 포함한다. 또한, 반송파와 같은 다른 형태의 컴퓨터 판독 가능한 매체도 하나 이상의 컴퓨터에 의해서 실행되어서 이 하나 이상의 컴퓨터로 하여금 시퀀스로 된 하나 이상의 실시예들 또는 구현예들의 하나 이상의 일부분들을 수행하도록 하는 인스트럭션 시퀀스를 표현하는 컴퓨터 데이터 신호를 구현하는데 사용될 수도 있다.
위의 상세한 설명 부분은 최상의 실시 모드를 포함하여 본 발명을 개시하고 본 기술 분야의 당업자가 임의의 장치 또는 시스템을 제조 및 사용하거나 임의의 포함된 방법들을 수행하는 바와 같이 본 발명을 실시할 수 있도록 여러 실례들을 사용하고 있다. 본 발명의 권리 범위는 다음의 청구 범위에 의해서 규정되며 본 기술 분야의 당업자에게 가능한 다른 실례들을 포함한다. 이러한 다른 실례들은 이들이 청구 범위의 문자적 언어들과 상이하지 않은 구조적 요소들을 갖거나 청구 범위의 문자적 언어와는 상이하지만 이러한 상이함이 비실질적인 균등한 구조적 요소들을 포함한다면 본원의 청구 범위 내에 포함되는 것으로 해석될 필요가 있다.

Claims (24)

  1. 이미징 시스템(300)으로서,
    이미지 면(an image plane)(308)을 축 방향으로 시프트시키도록 구성되는 위치조절 가능한 장치(a positionable device) - 상기 이미지 면(308)은 물체(316)로부터 방출되어 렌즈(306)를 통과하는 광자들로부터 생성됨 - 와,
    상기 렌즈(306)를 통과하는 상기 물체(316)의 광자들을 수용하도록 배치되는 검출기 면(a detector plane)(310)과,
    컴퓨터를 포함하되,
    상기 컴퓨터는,
    상기 렌즈(306)를 수학적 함수로서 특성화하고,
    상기 검출기 면(310)에 대해 상이한 축 방향 위치들에서 각각의 기초 이미지(elemental image)의 이미지 면(308)을 사용하여 상기 물체(316)의 2 개 이상의 기초 이미지들을 획득하며,
    상기 렌즈(306)의 특성화 및 상기 획득된 2 개 이상의 기초 이미지에 기초하여 상기 렌즈(306)로부터 상기 물체(316)의 초점 거리를 결정하고,
    상기 결정된 거리에 기초하여 상기 물체(316)의 깊이 맵(a depth map)을 생성하도록 프로그래밍되는
    이미징 시스템(300).
  2. 제 1 항에 있어서,
    상기 컴퓨터는, 상기 렌즈(306)를 특성화하도록 프로그래밍됨에 있어서, 상기 렌즈에 대해 상이한 위치들에 배치되는 점원들(point sources)에 대한 응답인 점확산 함수(a point spread function; PSF) 및 렌즈 수차(aberration) 프로파일 함수로서 상기 렌즈를 특성화하도록 더 프로그래밍되는
    이미징 시스템(300).
  3. 제 2 항에 있어서,
    상기 컴퓨터는 다수의 다항식의 형태로 표현되는 상기 이미징 시스템의 동공 함수(a pupil function)의 푸리에 변환으로서 상기 PSF를 모델링하도록 프로그래밍되는
    이미징 시스템(300).
  4. 제 3 항에 있어서,
    상기 다수의 다항식은 3 차 수차에 달하는 제르니케 다항식들(Zernike polynominals)인
    이미징 시스템(300).
  5. 제 1 항 내지 제 4 항 중 어느 한 항에 있어서,
    상기 물체(316)는 손가락이며,
    상기 물체의 2 개 이상의 기초 이미지들은 상기 손가락의 지문의 적어도 2 개의 패치를 포함하는
    이미징 시스템(300).
  6. 제 1 항 내지 제 4 항 중 어느 한 항에 있어서,
    상기 컴퓨터는 2 개의 기초 이미지들 간의 파워 스펙트럼 비를 사용하여 상기 물체의 초점 거리를 결정하도록 프로그래밍되는
    이미징 시스템(300).
  7. 제 6 항에 있어서,
    상기 물체(316)는 3 차원 물체이며,
    상기 파워 스펙트럼 비는 상기 2 개 이상의 기초 이미지들 중 2 개의 기초 이미지들의 연관된 패치들 간에 결정되는
    이미징 시스템(300).
  8. 제 6 항에 있어서,
    상기 컴퓨터는 푸리에 변환을 사용하여 상기 파워 스펙트럼 비를 결정하도록 프로그래밍되는
    이미징 시스템(300).
  9. 제 6 항에 있어서,
    상기 컴퓨터는,
    제 1 기초 이미지에 대응하는 동공 함수의 제 1 값을 계산하고,
    제 2 기초 이미지에 대응하는 동공 함수의 제 2 값을 계산하고,
    상기 동공 함수의 제 1 값과 상기 동공 함수의 제 2 값의 비를 결정하고,
    상기 제 1 값과 상기 제 2 값의 비와 상기 파워 스펙트럼 비 사이의 차이를 최소화하도록 프로그래밍되며,
    상기 차이는 상기 최소화를 달성하는 상기 물체에서 상기 렌즈까지의 거리를 수학적으로 탐색함으로써 최소화되는
    이미징 시스템(300).
  10. 렌즈(306)를 수학적 함수로서 수학적으로 특성화하는 단계와,
    검출기(310)에 대해 상이한 축 방향 위치들에서 물체(316)의 이미지 면(308)을 사용하여 상기 물체의 2 개 이상의 기초 이미지들을 획득하는 단계와,
    상기 렌즈의 수학적 특성화 및 제 1 및 제 2 기초 이미지들에 기초하여 상기 이미지 면이 상기 검출기에 위치하게 되는 상기 물체(316)에 대한 상기 이미지 면(308)의 제 1 초점 거리를 결정하는 단계와,
    상기 결정에 기초하여 상기 물체의 깊이 맵을 생성하는 단계를 포함하는
    이미징 방법.
  11. 제 10 항에 있어서,
    상기 렌즈(306)를 수학적 함수로서 수학적으로 특성화하는 단계는 상기 렌즈에 대해 상이한 위치들에 배치되는 점원들에 대한 응답 및 상기 렌즈의 수차 프로파일에 기초한 수학적 함수로서 상기 렌즈를 수학적으로 특성화하는 단계를 포함하는
    이미징 방법.
  12. 제 10 항 또는 제 11 항에 있어서,
    상기 제 1 초점 거리는 상기 물체(316)의 제 1 패치까지의 거리이며,
    상기 방법은,
    상기 렌즈의 수학적 특성화 및 상기 2 개 이상의 기초 이미지들에 기초하여 상기 물체(316)에 대한 상기 이미지 면(308)의 제 2 초점 거리를 결정하는 단계 - 상기 제 2 초점 거리는 상기 물체의 제 2 패치까지의 거리임 - 와,
    상기 물체(316)의 제 1 패치 및 상기 물체의 제 2 패치를 사용하여 상기 깊이 맵을 생성하는 단계를 더 포함하는
    이미징 방법.
  13. 제 10 항 또는 제 11 항에 있어서,
    상기 렌즈(306)를 수학적 함수로서 수학적으로 특성화하는 단계는,
    이미징 시스템 동공 함수의 푸리에 변환으로서 PSF를 모델링하는 단계와,
    상기 동공 함수를 하나 이상의 다항식으로서 표현하는 단계를 더 포함하는
    이미징 방법.
  14. 제 13 항에 있어서,
    상기 동공 함수를 하나 이상의 다항식으로서 표현하는 단계는 3 차 수차에 달하는 하나 이상의 제르니케 다항식으로서 상기 동공 함수를 표현하는 단계를 더 포함하는
    이미징 방법.
  15. 제 10 항 또는 제 11 항에 있어서,
    상기 2 개 이상의 기초 이미지들 중 2 개에 대해서 결정된 파워 스펙트럼 비를 사용하여 상기 2 개 이상의 기초 이미지들의 기초 이미지 비를 결정하는 단계를 포함하고,
    상기 물체(316)의 상기 이미지 면의 제 1 초점 거리를 결정하는 단계는 상기 기초 이미지 비를 사용하는 단계를 포함하는
    이미징 방법.
  16. 삭제
  17. 삭제
  18. 삭제
  19. 삭제
  20. 삭제
  21. 삭제
  22. 삭제
  23. 삭제
  24. 삭제
KR1020120088526A 2011-10-13 2012-08-13 Dfd 이미징 시스템 및 방법 KR102001678B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/272,424 US8340456B1 (en) 2011-10-13 2011-10-13 System and method for depth from defocus imaging
US13/272,424 2011-10-13

Publications (2)

Publication Number Publication Date
KR20130040121A KR20130040121A (ko) 2013-04-23
KR102001678B1 true KR102001678B1 (ko) 2019-07-18

Family

ID=47088641

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120088526A KR102001678B1 (ko) 2011-10-13 2012-08-13 Dfd 이미징 시스템 및 방법

Country Status (8)

Country Link
US (2) US8340456B1 (ko)
EP (1) EP2581877B1 (ko)
JP (1) JP6081101B2 (ko)
KR (1) KR102001678B1 (ko)
CN (1) CN103116739B (ko)
BR (1) BR102012020046A2 (ko)
CA (1) CA2785405C (ko)
ES (1) ES2868398T3 (ko)

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9230306B2 (en) 2012-02-07 2016-01-05 Semiconductor Components Industries, Llc System for reducing depth of field with digital image processing
US8830380B2 (en) * 2012-06-28 2014-09-09 International Business Machines Corporation Depth of focus in digital imaging systems
US9066002B2 (en) * 2012-08-29 2015-06-23 Sony Corporation System and method for utilizing enhanced scene detection in a depth estimation procedure
AU2012258467A1 (en) * 2012-12-03 2014-06-19 Canon Kabushiki Kaisha Bokeh amplification
US9325971B2 (en) * 2013-01-10 2016-04-26 The Regents Of The University Of Colorado, A Body Corporate Engineered point spread function for simultaneous extended depth of field and 3D ranging
TW201503687A (zh) * 2013-07-15 2015-01-16 Chi Mei Comm Systems Inc 拍照控制系統及方法
JP6173156B2 (ja) 2013-10-02 2017-08-02 キヤノン株式会社 画像処理装置、撮像装置及び画像処理方法
CN104751103A (zh) * 2013-12-26 2015-07-01 齐发光电股份有限公司 手指指纹读取系统及指纹读取方法
TWI594632B (zh) * 2013-12-31 2017-08-01 佳能企業股份有限公司 一種影像補正參數的設定方法、電子裝置、電子裝置可讀取的儲存媒體與應用於電子裝置的程式
CN103856723B (zh) * 2014-02-25 2015-02-11 中国人民解放军国防科学技术大学 一种单透镜成像的psf快速标定方法
CN103927542B (zh) * 2014-04-25 2017-04-26 陕西科技大学 一种三维指纹特征提取方法
FR3020871B1 (fr) * 2014-05-07 2017-08-11 Areva Dispositif et procede de reconstruction tridimensionnelle d'une scene par analyse d'image
US9746323B2 (en) 2014-07-25 2017-08-29 Lockheed Martin Corporation Enhanced optical detection and ranging
CN105357426B (zh) * 2014-11-03 2019-01-15 苏州思源科安信息技术有限公司 用于移动终端可见光和生物识别组合系统的光电成像方法及移动终端
US9338363B1 (en) * 2014-11-06 2016-05-10 General Electric Company Method and system for magnification correction from multiple focus planes
TWI542891B (zh) 2014-12-29 2016-07-21 原相科技股份有限公司 光學測距方法與光學測距系統
US11340352B2 (en) 2014-12-29 2022-05-24 Pixart Imaging Inc. Image noise compensating system, and auto clean machine
CN105824027B (zh) * 2015-01-07 2019-01-11 原相科技股份有限公司 光学测距方法与光学测距系统
KR102432735B1 (ko) * 2015-05-27 2022-08-17 엘지이노텍 주식회사 모션 인식장치
US9760986B2 (en) 2015-11-11 2017-09-12 General Electric Company Method and system for automated shaped cooling hole measurement
US9715721B2 (en) 2015-12-18 2017-07-25 Sony Corporation Focus detection
US9958267B2 (en) 2015-12-21 2018-05-01 Industrial Technology Research Institute Apparatus and method for dual mode depth measurement
EP3185209B1 (en) * 2015-12-23 2019-02-27 STMicroelectronics (Research & Development) Limited Depth maps generated from a single sensor
CN105701451B (zh) * 2015-12-31 2019-04-26 联想(北京)有限公司 一种信息处理方法和电子设备
KR102382865B1 (ko) * 2017-06-28 2022-04-05 삼성전자주식회사 카메라 모듈, 카메라 모듈을 포함하는 전자 장치
US10715718B2 (en) * 2018-03-15 2020-07-14 Taiwan Semiconductor Manufacturing Company, Ltd. Phase detect auto-focus three dimensional image capture system
KR102472156B1 (ko) * 2018-04-19 2022-11-30 삼성전자주식회사 전자 장치 및 그 깊이 정보 생성 방법
US10753734B2 (en) * 2018-06-08 2020-08-25 Dentsply Sirona Inc. Device, method and system for generating dynamic projection patterns in a confocal camera
CN110175494A (zh) * 2018-07-06 2019-08-27 神盾股份有限公司 光学指纹感测装置
SE1830320A1 (en) * 2018-11-03 2020-05-04 Tracy Of Sweden Ab Method and arrangement for identifying object
US10957035B2 (en) * 2018-11-30 2021-03-23 Kla Corporation Defect classification by fitting optical signals to a point-spread function
CN110008802B (zh) 2018-12-04 2023-08-29 创新先进技术有限公司 从多个脸部中选择目标脸部及脸部识别比对方法、装置
CN110470219A (zh) * 2019-08-16 2019-11-19 福建农林大学 基于边缘频谱保留的散焦图像测距方法及装置
US20210356492A1 (en) * 2020-05-15 2021-11-18 Em Photonics, Inc. Wind determination method, wind determination system, and wind determination computer program product for determining wind speed and direction based on image analysis
CN112417717B (zh) * 2020-10-27 2023-01-24 国网重庆市电力公司电力科学研究院 Gis内部检测激光聚焦检测成像分析方法及可读存储介质
CN112965060A (zh) * 2021-02-19 2021-06-15 加特兰微电子科技(上海)有限公司 生命特征参数的检测方法、装置和检测体征点的方法
WO2023096502A1 (en) * 2021-11-25 2023-06-01 Kahu.Ai Limited Methods and systems for determining a three-dimensional structure of a skin lesion

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007139893A (ja) * 2005-11-15 2007-06-07 Olympus Corp 合焦検出装置
JP2009037241A (ja) 2007-07-31 2009-02-19 Alcon Research Ltd 回折レンズを測定する方法

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3639041A (en) * 1970-09-21 1972-02-01 Stanford Research Inst System and method for scanning the depth of the optic fundus
US4952815A (en) * 1988-04-14 1990-08-28 Nikon Corporation Focusing device for projection exposure apparatus
US5231443A (en) * 1991-12-16 1993-07-27 The Research Foundation Of State University Of New York Automatic ranging and automatic focusing
JPH06162187A (ja) * 1992-11-17 1994-06-10 Olympus Optical Co Ltd ボケ画像修復装置
EP0683389A1 (en) * 1994-05-12 1995-11-22 Kabushiki Kaisha Toshiba Laminograph and inspection and repair device using the same
US6229913B1 (en) 1995-06-07 2001-05-08 The Trustees Of Columbia University In The City Of New York Apparatus and methods for determining the three-dimensional shape of an object using active illumination and relative blurring in two-images due to defocus
US5883703A (en) * 1996-02-08 1999-03-16 Megapanel Corporation Methods and apparatus for detecting and compensating for focus errors in a photolithography tool
KR970067585A (ko) * 1996-03-25 1997-10-13 오노 시게오 결상특성의 측정방법 및 투영노광방법
US5878152A (en) 1997-05-21 1999-03-02 Cognex Corporation Depth from focal gradient analysis using object texture removal by albedo normalization
US6219461B1 (en) 1997-07-29 2001-04-17 Cognex Corporation Determining a depth
JP3803950B2 (ja) 1999-03-04 2006-08-02 株式会社リコー 画像合成処理方法、画像合成処理装置及び記録媒体
US6806899B1 (en) * 1999-07-17 2004-10-19 David F. Schaack Focusing systems for perspective dimensional measurements and optical metrology
JP4656706B2 (ja) * 2000-08-28 2011-03-23 オリンパス株式会社 撮像装置および焦点距離換算装置
US6842290B2 (en) * 2002-09-18 2005-01-11 Dmetrix, Inc. Multi-axis imaging system having individually-adjustable elements
US20080101664A1 (en) * 2004-08-09 2008-05-01 Asher Perez Non-Contact Optical Means And Method For 3D Fingerprint Recognition
US7558709B2 (en) 2004-11-08 2009-07-07 Muralidhara Subbarao Methods and apparatus for computing the input and output signals of a linear shift-variant system
US7929801B2 (en) * 2005-08-15 2011-04-19 Sony Corporation Depth information for auto focus using two pictures and two-dimensional Gaussian scale space theory
US20080075444A1 (en) 2006-09-25 2008-03-27 Murali Subbarao Blur equalization for auto-focusing
JP4531070B2 (ja) * 2007-02-07 2010-08-25 京セラ株式会社 生体認証装置
DE102007018048A1 (de) * 2007-04-13 2008-10-16 Michael Schwertner Verfahren und Anordnung zur optischen Abbildung mit Tiefendiskriminierung
JP5213688B2 (ja) * 2008-12-19 2013-06-19 三洋電機株式会社 撮像装置
US8199248B2 (en) * 2009-01-30 2012-06-12 Sony Corporation Two-dimensional polynomial model for depth estimation based on two-picture matching
US8406487B2 (en) * 2009-09-16 2013-03-26 General Electric Company Method and system for contactless fingerprint detection and verification
US20110228070A1 (en) * 2009-11-07 2011-09-22 Courosh Mehanian System and Method for Determining Image Focus by Sampling the Image at Multiple Focal Planes Simultaneously
CN102156037B (zh) * 2010-02-12 2013-06-12 北方国通(北京)光电科技有限公司 光学检测装置及检测方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007139893A (ja) * 2005-11-15 2007-06-07 Olympus Corp 合焦検出装置
JP2009037241A (ja) 2007-07-31 2009-02-19 Alcon Research Ltd 回折レンズを測定する方法

Also Published As

Publication number Publication date
CA2785405C (en) 2019-09-10
EP2581877B1 (en) 2021-04-07
US8340456B1 (en) 2012-12-25
CN103116739B (zh) 2017-11-24
JP6081101B2 (ja) 2017-02-15
EP2581877A3 (en) 2017-05-10
KR20130040121A (ko) 2013-04-23
US8737756B2 (en) 2014-05-27
US20130141538A1 (en) 2013-06-06
BR102012020046A2 (pt) 2013-11-12
EP2581877A2 (en) 2013-04-17
JP2013089230A (ja) 2013-05-13
CA2785405A1 (en) 2013-04-13
CN103116739A (zh) 2013-05-22
ES2868398T3 (es) 2021-10-21

Similar Documents

Publication Publication Date Title
KR102001678B1 (ko) Dfd 이미징 시스템 및 방법
JP5293950B2 (ja) 個人認証装置及び電子機器
CN109766876B (zh) 非接触式指纹采集装置和方法
EP3007131A1 (en) Artifact mitigation in three-dimensional imaging
JP4533158B2 (ja) 画像処理装置、画像処理プログラムおよび屈折率分布測定装置
JP2016541028A (ja) 3d顕微鏡の較正
JP7197017B2 (ja) 処理装置、システム、生体認証システム、処理方法、及びプログラム
JP2019530059A (ja) 複数の対象とする領域を独立的に処理する方法
Leach et al. Fusion of photogrammetry and coherence scanning interferometry data for all-optical coordinate measurement
US20200074132A1 (en) Contactless rolled fingerprints
Lee et al. Improving focus measurement via variable window shape on surface radiance distribution for 3D shape reconstruction
US20150302573A1 (en) Method for designing a passive single-channel imager capable of estimating depth of field
Drouin et al. Consumer-grade RGB-D cameras
JP6044052B2 (ja) 魚眼画像データ作成プログラム及びlai算出プログラム
KR101563470B1 (ko) 적응적 가중치 국부 기술자 기반의 광량 변화에 강건한 스테레오 정합 장치 및 방법
KR101706934B1 (ko) 디지털 홀로그램 데이터를 이용한 마이크로 광학 소자의 3차원 측정방법 및 이를 통해 운용되는 측정장치
KR101803139B1 (ko) 3d 홀로그램 왜곡 보정 방법 및 장치
Takemura et al. Depth from defocus technique based on cross reblurring
Chen et al. Recovering depth from a single image using spectral energy of the defocused step edge gradient
Di Martino et al. One-shot 3D gradient field scanning
Sahay et al. Shape extraction of low‐textured objects in video microscopy
Liu et al. Depth recovery from defocus images using total variation
Karthik et al. Underwater microscopic shape from focus
JP2016109489A (ja) 画像処理装置、画像処理方法、プログラム、及びプログラムを記憶した記憶媒体
Raj Accurate depth from defocus estimation with video-rate implementation

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right