KR101265377B1 - 태스크-기반의 이미징 시스템 - Google Patents

태스크-기반의 이미징 시스템 Download PDF

Info

Publication number
KR101265377B1
KR101265377B1 KR1020087009424A KR20087009424A KR101265377B1 KR 101265377 B1 KR101265377 B1 KR 101265377B1 KR 1020087009424 A KR1020087009424 A KR 1020087009424A KR 20087009424 A KR20087009424 A KR 20087009424A KR 101265377 B1 KR101265377 B1 KR 101265377B1
Authority
KR
South Korea
Prior art keywords
image
imaging system
task
delete delete
output image
Prior art date
Application number
KR1020087009424A
Other languages
English (en)
Other versions
KR20080049121A (ko
Inventor
파울로 이. 엑스. 실베이라
람쿠마 나라얀스웨미
로버트 에이치. 콜맥
그레고리 이. 존슨
에드워드 레이먼드 주니어. 다우스키
Original Assignee
옴니비젼 씨디엠 옵틱스 인코퍼레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 옴니비젼 씨디엠 옵틱스 인코퍼레이티드 filed Critical 옴니비젼 씨디엠 옵틱스 인코퍼레이티드
Publication of KR20080049121A publication Critical patent/KR20080049121A/ko
Application granted granted Critical
Publication of KR101265377B1 publication Critical patent/KR101265377B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/06Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the phase of light
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0025Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical correction, e.g. distorsion, aberration
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0075Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. increasing, the depth of field or depth of focus
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/42Diffraction optics, i.e. systems including a diffractive element being designed for providing a diffractive effect
    • G02B27/46Systems using spatial filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/409Edge or detail enhancement; Noise or error suppression
    • H04N1/4092Edge or detail enhancement

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Image Input (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)

Abstract

하나의 태스크에서 사용할 장면에 관한 데이터를 획득하기 위한 태스크-기반의 이미징 시스템은 (a) 공간 주파수의 범위에 걸쳐 상기 장면으로부터 중간 이미지에 이르는 전자기 에너지의 파두(wavefront)를 이미징하고, (b) 상기 파두의 위상을 변조하며, (c) 상기 중간 이미지를 탐색하고, (d) 상기 공간 주파수의 범위에 걸쳐 이미지 데이터를 생성하기 위한 이미지 데이터 포획 장치를 포함한다. 상기 태스크-기반의 이미징 시스템은 또한 상기 이미지 데이터를 처리하고 상기 태스크를 수행하기 위한 이미지 데이터 처리 장치를 포함한다. 상기 이미지 데이터 포획 장치 및 상기 이미지 데이터 처리 장치는 상기 태스크-기반의 이미징 시스템의 SNR이 상기 공간 주파수의 범위에 걸쳐 파두의 위상 변조가 없는 태스크-기반의 이미징 시스템의 SNR보다 더 크도록 연계되어 동작한다.
태스크, 이미지, 시스템, 파두, 공간 주파수, 위상, 변조

Description

태스크-기반의 이미징 시스템{Task-based imaging system}
본 발명은 태스크-기반의 이미징 시스템에 관한 것으로서, 특히 하나 이상의 신호-처리 태스크에 대한 태스크-특정의 정보 또는 이미지 데이터를 제공할 수 있는 태스크-기반의 이미징 시스템에 관한 것이다.
<관련 출원들에 대한 크로스(cross) 참조>
본 출원은 "Iris Recognition at a Large Standoff Distance"라는 제하의 미국 가출원(Provisional Patent Application)번호 60/718,522(2005.9.19 출원)와, "Zoom Lens Systems with Wavefront Coding"이라는 제하의 미국 가출원번호 60/779,712(2006.3.6 출원)에 대한 우선권을 주장한다. 본 출원은 또한 통상적으로 승인되어 출원 계류중인 "Iris Image Capture Devices and Associated Systems"라는 제하의 미국 특허출원번호 11/225,753(2005.9.13 출원)의 부분적 계속출원 (continuation-in-part)이며, 이러한 미국 특허출원번호 11/225,753은 "Iris Recognition Security for Camera Phones, Digital Cameras and Personal Digital Assistants"라는 제하의 미국 가출원번호 60/609,445(2004.9.13 출원)에 대한 우선권을 주장한다. 본 출원은 또한 "System and Method for Optimizing Optical and Digital System Designs"라는 제하의 미국 특허출원번호 11/000,819(2004.12.01 출 원)의 부분적 계속출원(continuation-in-part)이며, 이러한 미국 특허출원번호 11/000,819는 "Designing Optical Imaging Systems with Wavefront Coding Elements"라는 제하의 미국 가출원번호 60/526,216(2003.12.01 출원)에 대한 우선권을 주장한다. 전술한 각 특허출원은 완전히 참조로 여기에서 빠르게 통합된다.
"Mechanically-Adjustable Optical Phase Filters for Modifying Depth of Field, Aberration-Tolerance, Anti-Aliasing in Optical Systems"라는 제하의 미국 특허출원번호 10/810,446(2004.3.25 출원)과, "Imaging Systems with Pixelated Spatial Light Modulators"라는 제하의 PCT 특허출원번호 PCT/US06/09958(2006. 3.20 출원)은 완전히 참조로 여기에서 빠르게 통합된다.
다음의 미국 특허들은 완전히 참조로 여기에서 빠르게 통합된다: "Extended Depth of Field Optical Systems"라는 제하로 Cathey et al.에게 부여된 미국 특허번호 5,748,371; "Wavefront Coding Phase Contrast Imaging Systems"라는 제하로 Dowski,Jr., et al.에게 부여된 미국 특허번호 6,525,302; "Combined Wavefront Coding and Amplitude Contrast Imaging Systems"라는 제하로 Dowski,Jr.에게 부여된 미국 특허번호 6,873,733; "Wavefront Coding Optics"라는 제하로 Dowski,Jr.에게 부여된 미국 특허번호 6,842,297; "Wavefront Coding Zoom Lens Imaging Systems"라는 제하로 Dowski,Jr., et al.에게 부여된 미국 특허번호 6,911,638; "Wavefront Coded Imaging Systems"라는 제하로 Dowski,Jr.에게 부여된 미국 특허번호 6,940,649.
<미국 정부의 권리>
여기에 개시된 실시예들의 일부는, 양도 번호 DAAD 19-00-1-0540의 하청 계약하에 미국 정부의 지원으로 이루어졌고, Army Research Office에 의해 Wake Forest University로 양도되었다. 미국 정부는 여기에서 어떤 권리를 갖는다.
<배경 기술>
태스크-기반의 이미징 시스템의 한 가지 목표는 하나 이상의 신호-처리 태스크에 대한 태스크-특정의 정보 또는 이미지 데이터를 제공하는 것일 수 있다. 그러한 태스크는 생체 측정학적으로 측정학적 홍채 인식, 생체 측정학적으로 측정학적 얼굴 인식, 접근 제어를 위한 생체 측정학적으로 측정학적 인식, 징후 확인을 위한 생체 측정학적으로 측정학적 인식, 바코드 판독, 조립 라인에서의 품질 제어를 위한 이미징, 광학적 문자 인식, 생물학적 이미징, 피사체 탐색을 위한 자동 이미징, 자동 조립 동안에 피사체의 레지스트레이션 (registration)에 대한 기준 마크 인식을 포함할 수 있다. 위에서 언급된 생체 측정학적으로 측정학적 인식 태스크는, 예를 들면, 보안 또는 접근 목적을 위해 태스크-기반의 이미징 시스템에 의해 실행될 수 있다. 일례로, 생체 측정학적으로 측정학적 홍채 인식은 그러한 태스크-기반의 이미징 시스템의 광학적 및 디지털 부분이 충분히 세분화되고 매우 충분한 SNR(signal-to-noise ratio: 신호 대 잡음비)를 갖는 이미지 데이터를 제공할 때, 인간의 신원 확인에 매우 높은 정밀도를 제공할 수 있다.
태스크-기반의 이미징 시스템의 성능은 태스크의 성공적인 완수를 위해 요구되는 이미지 데이터의 SNR에 직접적으로 관련이 있는 것으로 알려져 있다. 반대로 SNR는 이미징 시스템의 특성에 관련된다. 시스템 성능에 영향을 미치는 특성들은 구형의(spherical) 그리고 다른 수차(aberration), 초점의 흐려짐, 배율의 변화, 피사계 피사계 심도, 색수차, 정렬 허용오차, 동력학적인 진동, 온도 변화를 포함한다. 이러한 특성들은 시스템으로 하여금 회절-한정 시스템의 SNR보다 더 작은 태스크-특정의 SNR을 갖도록 한다.
종래 기술에 서술되어 있는 어떤 시스템들은 작은 조리개들을 이용하여 짧은 거리에서 홍채 인식을 수행한다; 예를 들면, R. Plemmons et al., "Computational imaging systems for iris recognition," in Proc. SPIE, August 2004를 보시오.
그러나, 그러한 시스템들은 짧은 이격 거리에 대해서는 효과적인 반면에, 낮은 신호 레벨(즉, 낮은 SNR)과 비교적 낮은 해상도로 인도하는, 작은 렌즈 조리개를 사용할지도 모른다; 그러한 시스템들은 더 긴 이격 거리에는 적합하지 않을지도 모른다.
본 발명은 상기와 같은 종래 기술에 있어서의 문제점을 감안하여 창출된 것으로서, 하나 이상의 신호-처리 태스크에 대한 태스크-특정의 정보 또는 이미지 데이터를 제공할 수 있는 태스크-기반의 이미징 시스템을 제공함에 그 목적이 있다.
상기의 목적을 달성하기 위하여 본 발명의 일 실시예에 따른 태스크-기반의 이미징 시스템은, 하나의 태스크에서 사용할 장면에 관한 데이터를 획득하기 위한 태스크-기반의 이미징 시스템으로서, (a) 공간 주파수의 범위에 걸쳐 상기 장면으로부터 중간 이미지에 이르는 전자기 에너지의 파두(wavefront)를 이미징하고, (b) 상기 파두의 위상을 변조하며, (c) 상기 중간 이미지를 탐색하고, (d) 상기 공간 주파수의 범위에 걸쳐 이미지 데이터를 생성하기 위한 이미지 데이터 포획 장치를 포함한다.
또한, 상기 태스크-기반의 이미징 시스템은 상기 이미지 데이터를 처리하고 상기 태스크를 수행하기 위한 이미지 데이터 처리 장치를 포함한다.
상기 이미지 데이터 포획 장치 및 상기 이미지 데이터 처리 장치는 상기 태스크-기반의 이미징 시스템의 SNR이 상기 공간 주파수의 범위에 걸쳐 파두의 위상 변조가 없는 태스크-기반의 이미징 시스템의 SNR보다 더 크도록 협력한다.
또한, 본 발명의 다른 실시예에 따른 태스크-기반의 이미징 시스템은, 하나의 태스크에서 사용할 장면에 관한 데이터를 획득하기 위한 태스크-기반의 이미징 시스템으로서, (a) 공간 주파수의 범위에 걸쳐 상기 장면으로부터 중간 이미지에 이르는 전자기 에너지의 파두를 이미징하고, (b) 상기 파두의 위상을 변조하기 위한 적어도 하나의 광학적 구성요소와, 상기 중간 이미지를 탐색하고 상기 공간 주파수의 범위에 걸쳐 이미지 데이터를 생성하기 위한 제1 탐색기를 포함한다.
상기 광학적 구성요소는 상기 태스크-기반의 이미징 시스템의 SNR이 상기 공간 주파수의 범위에 걸쳐 파두의 위상 변조가 없는 태스크-기반의 이미징 시스템의 SNR보다 더 크도록 상기 제1 탐색기와 협력하도록 구성된다.
하나의 실시예로서, 상기 태스크는 생체 측정학적으로 측정학적 홍채 인식, 생체 측정학적으로 측정학적 얼굴 인식, 접근 제어를 위한 생체 측정학적으로 측정학적 인식, 징후 확인을 위한 생체 측정학적으로 측정학적 인식, 바코드 판독, 조립 라인에서의 품질 제어를 위한 이미징, 광학적 문자 인식, 생물학적 이미징, 피사체 탐색을 위한 자동 이미징 중의 적어도 하나로서 선택된다.
또한, 본 발명의 또 다른 실시예로서, 태스크-기반의 이미징 시스템의 탐색기에 의해 포획된 장면의 출력 이미지를 생성하기 위한 방법이 개시된다.
상기 탐색기는 복수의 화소 및 촬영 거리 범위 내에 주어진 촬영 거리에 위치된 적어도 하나의 피사체를 포함하는 장면을 포함한다. 여기서, 촬영 거리는 피사체와 태스크-기반의 이미징 시스템 사이의 거리로 정의된다.
상기 방법은 공간 주파수의 범위에 걸쳐 상기 장면의 고해상도 이미지를 포획하는 단계와; 상기 고해상도 이미지를 상기 장면의 이미지 스펙트럼으로 변환하는 단계와; 촬영 거리의 범위에 걸쳐 태스크-기반의 이미징 시스템의 초점이 흐려진 OTF(optical transfer function: 광학적 전달 함수)를 결정하는 단계; 및 상기 탐색기의 복수의 화소의 범위에 걸쳐 화소 MTF(modulation transfer function: 변조 전달 함수)를 결정하는 단계를 포함한다. 상기 방법은 또한 상기 장면의 변경된 이미지 스펙트럼을 생성하기 위하여 상기 OTF와 MTF를 바탕으로 상기 이미지 스펙트럼을 증폭하는 단계와; 상기 변경된 이미지 스펙트럼을 상기 장면의 변경된 이미지로 변환하는 단계; 및 상기 변경된 이미지로부터 출력 이미지를 생성하는 단계를 더 포함한다.
또한, 본 발명의 또 다른 실시예에 따른 태스크-기반의 이미징 시스템의 사용 방법은, 하나의 장면으로부터 태스크-기반의 이미징 시스템의 중간 이미지에 이르는 전자기 에너지를 이미징하는 단계와; 상기 전자기 에너지의 파두의 위상을 변조하는 단계와; 상기 중간 이미지를 탐색하는 단계; 및 상기 태스크-기반의 이미징 시스템의 SNR이 상기 공간 주파수의 범위에 걸쳐 파두의 위상 변조가 없는 태스크-기반의 이미징 시스템의 SNR보다 더 크도록 그렇게 탐색된 상기 중간 이미지에 기초하여, 상기 공간 주파수의 범위에 걸쳐 이미지 데이터를 생성하는 단계를 포함한다.
또한, 본 발명의 또 다른 실시예로서, 촬영 거리의 범위에 걸쳐 하나의 태스크에서 이용할 장면에 관한 데이터를 획득하기 위한 태스크-기반의 이미징 시스템을 최적화하기 위한 방법이 개시된다. 상기 장면은 촬영 거리의 범위 내에 위치된 적어도 하나의 피사체를 포함한다. 여기서, 상기 촬영 거리는 피사체와 태스크-기반의 이미징 시스템 사이의 거리로 정의된다. 상기 방법은, 1) 태스크-기반의 이미징 시스템의 목표 SNR을 결정하는 단계와; 2) 일련의 홍채 함수 파라미터와 성능 함수를 특정화하는 단계와; 3) 상기 특정화된 성능 함수에 기초하여 일련의 새로운 홍채 함수 파라미터를 생성하는 단계와; 4) 촬영 거리의 범위에 걸쳐 SNR을 결정하는 단계와; 5) 상기 SNR을 상기 목표 SNR과 비교하는 단계; 및 6) 상기 SNR이 상기 목표 SNR과 값에 있어서 적어도 동일해질 때까지, 상기 단계 2)부터 단계 5)까지를 반복하는 단계를 포함한다.
또한, 본 발명의 또 다른 실시예로서, 하나의 태스크에서 이용할 장면에 관한 데이터를 획득하기 위한 태스크-기반의 이미징 시스템의 개선된 형태가 개시된다. 상기 태스크-기반의 이미징 시스템은, 상기 장면으로부터 중간 이미지에 이르는 전자기 에너지의 파두를 이미징하기 위한 적어도 하나의 광학적 구성요소와, 상기 중간 이미지를 탐색하고 상기 공간 주파수의 범위에 걸쳐 이미지 데이터를 생성하기 위한 탐색기를 포함한다. 상기 개선된 형태의 태스크-기반의 이미징 시스템은 상기 태스크-기반의 이미징 시스템의 SNR이 위상 변조 요소가 없는 태스크-기반의 이미징 시스템의 SNR보다 더 크도록, 파두의 위상을 변조하기 위한 위상 변조 요소를 포함한다.
도 1은 본 발명에 따른 태스크-기반의 이미징 시스템이 사용될 수 있는 보안 장면을 예시한다.
도 2는 본 발명에 따른 협동적인, 다기능 태스크-기반의 이미징 시스템을 보여주는 보안 장면을 예시한다.
도 3은 본 발명에 따른 협동적인, 다기능 태스크-기반의 이미징 시스템의 비영구적 설치를 보여주는 보안 장면을 예시한다.
도 4는 본 발명에 따른 소형 다기능 태스크-기반의 이미징 시스템을 보여주는 보안 장면을 예시한다.
도 5는 생체 측정학적으로 측정학적 인식을 위한 중요한 특징들을 포함하는 인간의 안구 부분의 예시이다.
도 6은 생체 측정학적으로 측정학적 인식을 위한 중요한 특징들을 포함하는 인간의 얼굴 부분의 예시이다.
도 7은 파두 코딩을 갖는 그리고 갖지 않는 이미징 시스템으로 포획된 이미지들을 비교하는 2차원 바코드의 일련의 이미지들을 보여준다.
도 8은 파두 코딩을 갖는 그리고 갖지 않는 이미징 시스템으로 포획된 이미 지들을 비교하는 텍스트의 일련의 그레이-스케일(gray-scale) 이미지들을 보여준다.
도 9는 파두 코딩을 갖는 그리고 갖지 않는 이미징 시스템으로 포획된 이미지들을 비교하는 텍스트의 일련의 이진수의 이미지들을 보여준다.
도 10은 파두 코딩을 갖지 않는 이미징 시스템으로 포획된 조립 라인 상의 피사체들의 그레이-스케일 이미지를 보여준다.
도 11은 파두 코딩을 갖는 이미징 시스템으로 포획된 조립 라인 상의 피사체들의 그레이-스케일 이미지를 보여준다.
도 12는 자동 이미징을 통하여 피사체를 탐색하기 위해 사용된 태스크-기반의 이미징 시스템이 본 발명에 따라 사용될 수 있는 장면을 보여준다.
도 13은 생물학적 시스템 내에서 중요한 공간 주파수가 이미징 및 인식 목적을 위해 어떻게 개선되고 유지될 수 있는지를 예시하는, 유사분열(有絲分裂) 동안에 미소관에 대해 착색된 초파리 태아(Drosophila embryo)의 이미지를 보여준다.
도 14는 슬라이딩 가능한 광학적 요소 구성의 사용에 의한 가변 광학적 파워와 이중 회전 위상 필터의 사용에 의한 가변 파두 코딩을 제공하기 위한 제1 및 제2 상태로서의 이미징 시스템의 한 쌍의 개략적 실예를 보여준다.
도 15는 본 발명에 따른 태스크-기반의 이미징 시스템을 보여주는 블록도이다.
도 16은 본 발명에 따른 먼 이격 거리에서의 홍채 인식에 사용하기에 적합한 전형적인 파두 코딩 요소의 표면 침하의 윤곽 구획을 보여준다.
도 17은 홍채 인식을 위한 이미징 시스템에 대한 하나의 이격 거리의 함수로서의 홍채의 이미지의 범위를 정하는 화소들의 수의 그래픽 구성을 보여준다.
도 18은 이미징 시스템에 대한 이격 거리 범위에 걸쳐 초점이 흐려진 파동들의 수의 그래픽 구성을 보여준다.
도 19는 본 발명에 따른 파두 코딩을 포함하는 이미징 시스템에 대한 모의 실험의, 초점을 통해 정상화된 PSFs(point spread functions)의 일련의 그래픽 구성을 보여준다.
도 20은 본 발명에 따른 파두 코딩을 포함하는 이미징 시스템에 대한 모의 실험의, 초점을 통한 MTFs(modulation transfer functions)의 일련의 그래픽 구성을 보여준다.
도 21은 본 발명에 따른 파두 코딩을 포함하는 전형적인 이미징 시스템의 극성-MTF의 윤곽 구획을 보여준다.
도 22는 본 발명에 따른 파두 코딩을 포함하는 이미징 시스템에 대하여, 이격 거리, 평균화된 전체 방위(-π∼+π)에 관한 하나의 함수로서, 이미징 시스템에 대하여 중요한 공간 주파수들에서의 평균 콘트라스트의 그래픽 구성을 보여준다.
도 23은 본 발명에 따른 파두 코딩을 포함하는 이미징 시스템에 대하여, 이격 거리, 평균화된 전체 방위(-π∼+π)에 관한 하나의 함수로서, 이미징 시스템에 대하여 중요한 공간 주파수들에서의 평균 SNR의 그래픽 구성을 보여준다.
도 24는 본 발명에 따른 파두 코딩을 포함하는 이미징 시스템에 대하여, 이미징 시스템에 의해 포획된 이미지들을 처리하기 위해 사용된 필터의 그래픽 표현 을 보여준다.
도 25는 본 발명의 일 실시예에 따른, 파두 코딩을 포함하는 이미징 시스템에 의해 포획된 이미지들에 비교될 수 있는 시뮬레이션 이미지들의 생성에 대한 과정을 보여주는 흐름도이다.
도 26은 파두 코딩을 포함하는 태스크-기반의 이미징 시스템의 최적화를 위한 시스템을 보여주는 흐름도이다.
도 27은 파두 코딩을 포함하는 태스크-기반의 이미징 시스템의 최적화를 위한 프로세스를 보여주는 흐름도이다.
도 28은 주어진 이미징 시스템에 의해 보여진 대로의 원본 이미지, PSF 및 다운-샘플(down-sampled) 이미지의 상대적인 위치를 보여주는 일련의 개략도이다.
도 29는 다운-샘플의 변경된 원점에 관하여 위신호(僞信號) 효과를 상술하는 한 쌍의 구성을 보여준다.
도 30은 본 발명에 따른 파두 코딩 요소의 효과와 관련 프로세싱을 통합하는 일련의 시뮬레이션 홍채 이미지를 보여준다.
도 31은 파두 코딩을 갖지 않는 이미징 시스템에 의해 포획된 시뮬레이션 이미지에 대한 이격 거리(2m∼2.5m)의 함수로서의 해밍 거리(hamming distance)의 그래픽 구성을 보여준다.
도 32는 파두 코딩의 포함이 파두 코딩을 갖지 않는 시스템에 비하여 더 넓은 인식 범위를 제공한다는 것을 예시하기 위해 여기에 도시된, 본 발명에 따른 파두 코딩 요소의 효과와 관련 프로세싱을 통합하는 시뮬레이션 홍채 이미지에 대한 이격 거리(2m∼2.5m)의 함수로서의 해밍 거리(hamming distance)의 그래픽 구성을 보여준다.
도 33은 홍채 이미지의 획득을 위해 사용된 실험 장치의 개략도이다.
도 34는 본 발명에 따른 파두 코딩을 포함하는 이미징 시스템에 대하여, 실험적으로 얻어진, 정상화된 PSFs에 관한 일련의 그래픽 구성을 보여준다.
도 35는 도 34에 도시된 정상화된 PSFs에 상응하는 실험적으로 얻어진, 정상화된 MTFs에 관한 일련의 그래픽 구성을 보여준다.
도 36은 파두 코딩을 포함하는 전형적인 이미징 시스템의 실험적으로 얻어진, 극성-MTF의 윤곽 구성을 보여준다.
도 37은 이격 거리, 평균화된 전체 방위(-π∼+π)의 함수로서, 파두 코딩을 포함하는 이미징 시스템에 대하여 중요한 공간 주파수에서 실험적으로 얻어진 평균 콘트라스트의 그래픽 구성을 보여준다.
도 38은 파두 코딩을 갖지 않는 이미징 시스템을 이용한 홍채 인식용 홍채에 대한 이격 거리의 함수로서의 해밍 거리의 그래픽 구성을 보여준다.
도 39는 본 발명의 실시예에 따른 파두 코딩을 포함하는 이미징 시스템을 이용한 홍채 인식용 홍채에 대한 이격 거리의 함수로서의 해밍 거리의 그래픽 구성을 보여준다.
파두 코딩(Wavefront coding, WFC) 기술로 초점 흐려짐을 포함한 광학적 수차(optical aberration) 영역에서 고화질 이미징을 얻을 수 있다; 예를 들면, 파두 코딩 기술로 이미징 시스템(imaging system)으로부터 넓은 영역의 이격 거리 (standoff distance)에서 또렷한(초점이 맞은) 이미지를 얻을 수 있다. 초소형(handheld) 장치와 홍채(iris) 사이 정도의 짧은 거리에서 파두 코딩 기술과 홍채 인식을 조합한 발명이 미국 가특허 출원번호 60/609,445와 특허출원번호 11/225,753 에 공개되어 있다.
컴퓨터 이미징 방법(computational imaging methods)과 같은 파두 코딩 기술과 관련된 방법들은 구면수차, 고단계수차(high order aberrations), 초점 흐려짐 (defocus), 배율(magnification), 피사계 피사계 심도(depth of field), 색수차(chromatic aberration), 정렬 허용공차(alignment tolerances), 동적 진동(dynamic vibrations), 온도 변화(temperature variations)와 같은 시스템 특성들을 줄이는 데에 효과가 있다. WFC에서, 상기 이미징 시스템의 동공 함수(pupil function)는 이와 같은 특성들이 광범위하게 변할 때 이미지 데이터를 포획(capture)하는 시스템의 성능을 유지하도록 변경된다. 게다가, WFC는 상기 이미지 데이터를 특정 신호 처리 업무를 하는데 이용되도록 제공하는 동안에 시각적으로 받아들일 수 있는(예를 들면, human view 에게) 이미지를 제공할 수 있다.
설명의 명확성을 위해서, 상기 도면의 일정 소자들은 도시를 생략하였음을 일러두는 바이다.
도 1은 보안 장면(security scene)(100)에 있어서, 태스크-기반의 이미징 시스템(task-based imaging system)이 이용될 수 있다는 것을 나타낸다. 이러한 개시 범위 내에서, 이미징 시스템은 카메라(들), 카메라 시스템(들), 하나 이상의 카메 라와 컨트롤러(controllers), 광학 소자(예를 들면, 렌즈 등.)와 결합된 카메라(들)(예를 들면 렌즈 같은 것) 및/또는 상기 태스크-기반의 이미징 장치를 위해 요구되는 프로세서(들)(예를 들면, 소프트웨어에 의해 선택적으로 구성되는 프로세서 또는 컴퓨터)의 조합으로 이해될 수 있다. 보안 장면(100) 내에서, 피실험자 (subject)(160)는 화살표로 표시된 방향(150)으로 제어된 접근 점(controlled access-point; 예를 들면, 문)을 향해 다가간다. 피실험자(160)는 접근지점(110)에 도달하기 위하여 벽(115) 내부에 정의된 서로 다른 140,130,120의 세 구역을 통과해야만 한다. 각각의 구역 120,130,140 안에, 구역 120안에 있는 이미지 데이터 포획 장치(125), 구역 130안에 있는 이미지 데이터 포획 장치(135), 구역 140안에 있는 이미지 데이터 포획 장치(145)와 같이 하나 이상의 이미징 시스템이 존재할 수 있다. 각각의 이미지 데이터 포획 장치는 하나 이상의 기능을 수행할 수 있다; 대안으로, 모든 이미징 시스템은 동일한 기능을 수행할 수도 있다. 각각의 이미지 데이터 포획 장치는 상기 장면으로부터 중간 이미지(intermediate image)에 이르는 전자기 에너지의 파두를 이미징화하고, 상기 파두의 위상을 변조하며, 상기 중간 이미지를 탐색하고, 주요 공간 주파수(spatial frequency)의 범위에 걸쳐 이미지 데이터를 생성한다. 모든 이미징 시스템들이 수행하는 대표적인 기능은 피험실자(160)를 생체 측정학적으로 측정학적으로 식별(biometrically identify)하는 것이다. 이러한 생체 측정학적으로 측정학적 식별에는 홍채 인식 및/또는 안면 인식이 포함될 수 있다. 또한 선택적으로, 피험실자(160)는 텍스트(text)나 바코드(barcode)로 인식되는, 배지(badge)나 도시하지 않은 다른 아이템(item)을 지닐 수 있다. 보안 장면(100)과 이미지 데이터 포획 장치 125,135,145의 전자기 에너지 감지 센서의 특정 타입(적외선(IR), 원적외선(LWIR), RGB 등과 같은, 그러나 이에 한정되지는 않는다)에 관하여 는 후술하겠지만, 당업자라면 상기 이미지 데이터 포획 장치에 이용되는 상기 전자기 스펙트럼의 실제 파장은 달라질 수 있다는 것을 알 수 있을 것이다. 예를 들어, 일반적으로, 적외선 시스템(IR system)으로 지정된 이미지 데이터 포획 장치는 가시광선, 근적외선(NIR), 중적외선(MWIR) 또는 원적외선(LWIR)에 응답한다. 또한 상기 태스크을 수행하는 데 필요한 좁거나 넓은 파장 대역(wavelength bands)을 이용하도록 이미징 시스템을 설계할 수 있다. 파장 영역을 포함하는 전자기 에너지를 이미징하는데 있어서, 각각의 이미지 데이터 포획 장치 125,135,145 는 이미징(imaging)과 상기 파장 영역의 다른 부분에 있는 위상을 변조하는데 적합한 이미징(imaging)과 파두 코딩 광학장치(wavefront coding optics)를 포함할 수 있다.
피험실자(160)가 이미징 시스템(imaging system)에서 멀어질 때, 피험실자(160)가 구역 140에 있는데 이미지 데이터 포획 장치 125에서 관측될 때, 피험실자(160)가 그 이미징 시스템의 파 필드(far field)에 있다고 한다. 상기 파 필드(far field)에서, 피험실자(160)는 이미지 데이터 포획 장치의 상기 동공으로부터 충분히 떨어져 있다. 이러한 이미지 데이터 포획 장치 125에서 찍힌 피험실자(160)의 이미지는 파두 수차 에러(wavefront aberration errors)가 거의 없다. 그러한 경우에는 필드(field)의 깊이를 연장하기 위해 파두 코딩 기술은 필요하지 않을 수도 있다. 그러나, 파두 코딩 기술은 여전히 상기 이미지 데이터 포획 장치 에 추가될 수 있다. 이는 고 배율에서 상기 이미지 데이터 포획 장치를 작동함으로 인해 잠재적으로 야기되는 수차를 보정하기 위해서이다. 예를 들면, 상기 파두(즉, 파두 코딩)의 상기 위상을 변경하기 위해서 변조 소자(modulation element)는 상기 이미지 데이터 포획 장치에 추가될 수 있다. 상기 변조 소자가 없는 상기 태스크-기반의 이미징 시스템과 비교해 볼 때 상기 태스크-기반의 이미징 시스템 안에 있는 하나 이상의 이미지 수차(image aberrations)가 많이 줄어들기 때문이다. 만약 보정되지 않는다면, 이러한 수차는 태스크를 성공적으로 마치기 위해서 필요한, 주요 공간 주파수(spatial frequency)의 신호 대 잡음 비(SNR)를 떨어뜨릴 것이다. 몇몇 상황에서, 고배율(즉, zoom)인 경우, 보안 장면(100)의 larger imaged area 로부터 피험실자(160)를 인식하기 위해 공간(area)을 선택할 필요가 있다.
근접 영역에서(at close ranges), 피험실자(160)의 이미지 안의 피사계 피사계 심도는 파두 수차 에러(wavefront aberration errors)에 매우 민감해지고, 따라서 상기 주요 공간 주파수에서, 인식을 위해 요구되는, 좋은 피사계 피사계 심도와 SNR을 얻기 위해, WFC를 이용하는 것이 이익이 될 것이다. 보안 장면(100) 안에 있는 이미지 데이터 포획 장치 135와 같이, 피험실자(160)가 이미지 데이터 포획 장치로부터 2 내지 4미터 거리 안에서 지나가는 경우가 그러한 상황의 예이다. 이러한 경우에, 움직이는 타겟(target)을 뒤따르기 위해서, 자동으로 상기 배율과 피사계 심도를 맞추기 위해서, 인식을 위해 필요한 상기 주요 공간 주파수의 SNR을 유지하기 위해서 이미지 데이터 포획 장치 135가 필요해진다. 이는 피험실자(160)를 생체 측정학적으로 측정학적으로 인식하기 위해서이다.
피험실자(160)와 이미지 데이터 포획 장치(예를 들어 이미징 시스템 125, 135, 145중의 하나) 사이의 중간 거리에서(at intermediate distances)는, 근접 거리에서 보다 피사계 심도가 더 커지고 배율이 더 조금 필요해질 수 있다. 이러한 중간 거리에서는 인식을 위해서 필요한 상기 주요 공간 주파수의 SNR을 유지하기 위해서 중간 정도의 파두 코딩이 필요하다. 이미징 시스템 145,135,125 는 피실험자를 성공적으로 나란히 뒤따르며 함께 작동하고, 피험실자(160)의 얼굴과 눈을 따로 분리해서, 피험실자(160)를 생체 측정학적으로 인식한다. 그러면 접근점(110)은 하나 이상의 이미징 시스템 145,135,125 에 의해 자동으로 긍정적 생체 측정학적 인식으로 응답하고, 피험실자(160)의 접근이 허용된다. 아니면, 접근점(110)은 위협의 의미로, 피험실자(160)의 긍정적 생체 측정학적 인식에 기초하여 접근을 거부한다.
도 2는 함께 작동하고, 다기능의 태스크-기반의 이미징 시스템임을 보여주는 보안 장면(200)을 나타낸다. 다채널, 다 광학 이미징 시스템 210, 220은 피실험자(260)의 미리 보기와 단면 보기를 보안 장면(200)에 제공한다. 예를 들면, 이미징 시스템 210과 220은 RGB 나 CMY 촬상기(imager)와 같은 색으로 볼 수 있는 전자기 에너지 촬상 장치일 수 있다. 이미징 시스템 210과 220에 의해 제공된 미리 보기 정보는 유선(또는 무선의)경로 290에 의해 중앙 데이터베이스, 통신, 제어 시스템(270)과 통신된다. 제어 시스템(270)은 (도시하지 않은)다른 시스템들과의 연결을 위해 무선 통신 설비(280)를 포함할 수 있다. 220과 같은 이미징 시스템을 대신하여 혹은 220과 같은 이미징 시스템 이외에도, 제어 시스템(270)이 직접 접근을 제어할 수 있고, 피실험자들의 시간이 남겨진(time-stamped) 기록들과 같은 접근 기록을 보관할 수 있다. 인식 데이터나 다른 결과(output)를 동시에 제공하는 동안에 이 제어 시스템들 및/또는 이미징 시스템들은 접근 기록들과 인간이 볼 수 있는 이미지와 같은 정보를 저장하기 위한 데이터 저장 유닛(unit)을 또한 포함할 수 있다.
미리 보기 정보는 접근 제어 이벤트(access control event)를 위한 측정 시스템(interrogation system)을 준비하는데 이용될 수 있다. 미리 보기 정보는 제한되지는 않지만, 피실험자(260)가 실제로는 있지만 생체 측정학적으로 인식되지 않은, 저 해상도 이미지와 같은 데이터를 포함할 수 있다. 예를 들면 미리 보기 정보는 이미징 시스템 210이나 220부터, 생체 측정학적으로 인식과 같은 더 나은 측정을 위해 이미징 시스템 230, 240, 250 을 포함하는 다 광학 이미징 시스템 집합체 245에까지 이송될 수 있다. 예를 들면 이미징 시스템 230은 전용 태스크를 수행하기 위해 자기 조절(self-regulated)(예를 들면 경로 290을 통해 내부적으로 통신한다.)되는 이미징 시스템 집합체 245의 일부분을 형성하는 다채널 이미징 시스템일 수 있다. 상기 태스크의 일부로서, 이미징 시스템 230, 240, 250 은 경로 290을 통해서 경로 290 쪽으로 및/또는 경로 290으로부터 서로서로 이미지 데이터를 이송할 수 있다. 예를 들면 이미징 시스템 230은 포함한다 눈에 보이는 RGB나 LWIR과 같은 두 개의 분리된 전자기 에너지 파장 대역을 위한 광학 장치(optics)을 포함한다. 또한 이미징 시스템 집합체 245는 적외선 내에서(이미징 시스템 240과 일치하는) 또는 그레이 스케일(gray scale)에서(이미징 시스템 250과 일치하는) 동작하는 센 서들을 포함할 수 있다.
도면 3은 함께 작동하고 다기능의 태스크-기반의 이미징 시스템 310, 320, 330 의 비 영구적인 설치를 보여주는 보안 장면(300)을 나타낸다. RGB 이미징 시스템 310, CMY 이미징 시스템 320, IR 이미징 시스템 330은 피실험자(360)를 생체 측정학적으로 인식하는데에 협력한다. 대표적인 구현으로서, 이미징 시스템 330이 홍채 인식을 수행하는 동안에 이미징 시스템 310과 320은 미리 보기 정보를 제공한다. 유선(또는 무선의) 경로 390에 의해 이미징 시스템 310, 320, 330이 서로 연결된다. 무선 통신 설비 380은 다른 시스템들과 상기 이미징 시스템들을 연결한다. 예를 들면 이미징 시스템 310, 320, 330, 경로 390, 통신 설비 380으로 구성되는 것과 같은 무선이고, 이동용(휴대가능한), 다채널, 다 광학 시스템들은 일시적 보안과 같은 응용장치(applications)에 이용될 수 있다.
도면 4는 초소형(hanheld) 다기능의 태스크-기반의 이미징 시스템 410과 420을 포함하는 보안 장면(400)의 개략적인 도식(schematic diagram)을 나타낸다. 이미징 시스템 410 과 420 은 피실험자(460)를 볼 수 있도록 위치한다. 예를 들면 이미징 시스템 410은 저가의(예를 들어 일회용으로 간주 될 정도로 가격이 낮은 것) 휴대용 단일 채널 유닛일 수 있다. 그리고 불안정한 보안 설치에 응용장치될 수 있다. 또한 이미징 시스템 410 은 무선 통신 구성 480 을 통하여 무선 통신을 하도록 허가할 수 있다. 이미징 시스템 420 은 무선 통신 구성 480을 통해 인식과 기록하는 이용을 위한 휴대용 다채널 장치일 수 있다. 이미징 시스템 410 과 420 은 이용하는 동안과 저장하는 동안 가볍고, 내구성과 내열성이 뛰어나도록 설계될 수 있 다.
도면 5 내지 15와 관련하여 바로 아래에서 논의될 것들은 본 개시(발명)(the present disclosure)과 일치하는 태스크-기반의 이미징의 다양한 응용장치( applications)에 관한 것이다. 홍채 인식에 관한 대표적인 태스크-기반의 이미징의 응용장치에 대해서는 도면 5와 도면 16 내지 39에서 자세하게 논의할 것이다. 홍채 인식에 관하여 아래에 논의되는 방법, 과정, 장치는 디자인(design), 최적화 (optimization), 다른 태스크-기반의 이미징 시스템의 이용시에 적당히 개조될 수 있다. 즉, 도면 5 내지 15 와 관련하여 논의된 , 생체 측정학적으로 안면 인식, 접근 제어를 위한 생체 측정학적으로 인식, 위협 식별을 위한 생체 측정학적으로 인식, 바코드 판독(barcode reading), 조립라인에서의 품질 제어를 위한 이미징(imaging), 광학 문자 인식(OCR), 생물학적 이미징과 피실험자 감지를 위한 자동 이미징 장치와 같은 것을 말한다.
주의가 도면 5에 향하고, 태스크-기반의 생체 측정학적으로 이미징의 예로 인간 눈의 부분 삽화 500이 있다. 인간의 눈 500은 동공 영역 510, 홍채 영역 520, 모양체근 영역 530, 맥락막 영역 540을 포함한다. 홍채 영역 520은 인간마다 달라서 높은 정확성을 가지고 있기 때문에 개개인을 식별하는데 이용될 수 있는 것으로 알려져 있다. 홍채 영역 520은 생체 측정학적으로 인식을 위해 필요한 주요 공간 주파수를 가지는 구조들을 포함한다. 주요 공간 주파수는 파두 코딩 기술을 이용하여 선택적으로 증대될 수 있다.
태스크-기반의 생체 측정학적 이미징의 또 다른 예로서, 도면 6은 인간 안면 의 부분 삽화 600을 나타낸다. 일란성 쌍둥이들 사이에도 인간의 안면은 구별되는 특징을 가지고 있다. 이 특징이 생체 측정학적으로 인식에 이용될 수 있다. 머리의 폭 610, 눈들의 간격 620, 눈의 폭 630, 코의 폭 640, 입의 폭 650 과 같은 특징들은 특정한 공간 주파수를 제공할 수 있다. 이 공간 주파수는 종래 기술의 세부사항들을 이용하여 선택적으로 증대될 수 있다. 안면 인식에 관한 주제의 최근 조사는 W.Zhao, et al.이 제공한다. "안면 인식(Face Recognition) : 논문 연구(A Literature Survey) " ACM Computing Surveys, Vol. 35, No.4, 12월(December 2003), pp. 399-458 과 "극 주파수 특성에 기초한 안면 인식 (Face Recognition Based on Polar Frequency Features,)" Y.Zana et al., ACM Transactions on Applied Perciption, Vol. 3, No.1, 1월(January) 2006.
생체 측정학적 이미징 이외에, 다른 태스크-기반의 이미징 문제들도 특정 공간 주파수를 증대시키기 위한 파두 코딩 기술을 포함한 이미징 시스템으로부터 이익을 얻을 수 있다. 그러한 태스크-기반의 이미징 문제의 한 예가 바코드 판독이다. 1차원과 2차원 바코드 둘 다, 주기와 그러므로 특정 공간 주파수를 정의한 구조들을 패턴화했다. 도면 7은 파두 코딩 기술을 이용한 이미징 시스템과 그렇지 않은 이미징 시스템에 의해 포획된 이미지들을 비교하는 일련의 2차원 바코드들의 이미지를 나타낸다. 710 내지 714 이미지들은 파두 코딩 기술을 이용하지 않은 이미징 시스템에서 수집되었다. 720 내지 724 이미지들은 파두 코딩 기술을 도입한 이미징 시스템에서 수집되었다. 파두 코딩 기술을 포함한 이미징 시스템들에서 포획된 상기 이미지들은 상당히 블러링(blurring)이 적고, 따라서 최상의 초점(best focus) 로부터 거리가 더 넓은 영역까지, 인식을 위해 필요한 주요 공간 주파수를 보유할 수 있다는 것을 보여준다.
도 7에 대해 계속 언급한다. 인간이 아닌 대상들에 대해 논의할 때 "이격거리(standoff distance)"와 같은 용어 대신에 "최상의 초점(best focus)으로 부터의 거리" 같은 용어를 도입하는 것이 일반적이다. 상기 용어들의 차이는 "이격거리(standoff distance)"는 절대적 거리이고, "최상의 초점거리(distance from best focus)"는 상대적 거리라는 것으로 이해될 수 있다. 즉, 인간이 아닌 대상물에게 동등한 초점거리는 상기 최상의 초점(best focus)에서 상기 최상의 초점거리(best focus distance)까지의 거리(벗어난/안쪽의)를 더하고/빼고 하는 것에 의해 결정된다. 711과 721 이미지들은 상기 최상의 초점거리(best focus distance)에서 1cm 거리에서 수집되었다. 712와 722 이미지들은 상기 최상의 초점거리(best focus distance)에서 2cm 거리에서 수집되었다. 713과 723 이미지들은 상기 최상의 초점거리(best focus distance)에서 3cm 거리에서 수집되었다. 714와 724 이미지들은 상기 최상의 초점거리(best focus distance)에서 4cm 거리에서 수집되었다. 상기 파두 코딩 기술을 이용하지 않은 이미징 시스템에서 찍힌 710 내지 714 이미지들과 비교하여 720 내지 724 이미지들은 상당히 블러링(blurring)이 적고, 따라서 최상의 초점(best focus)으로부터 거리가 더 넓은 영역까지, 인식을 위해 필요한 주요 공간 주파수를 보유할 수 있다는 것을 보여준다.
도 8과 9는 동일한 일련의 이미지들의 두 가지 버전을 나타낸다. 도면 8에 있는 이미지 세트 800 은 그레이 스케일(gray-scale) 이미지들이고, 도면 9에 있는 이미지 세트 900 은 2진(binary) 이미지들이다. 이들 이미지들을 비교하면 인간의 시각과 광학 문자 인식을 위한 이미징 사이의 차이점을 알 수 있다. 인간의 시각은 색깔과 그레이 스케일(gray-scale)을 구별할 수 있다. OCR에서는 이미지들이 2진의 검정색과 흰색 이미지들로 처리된다. 바코드와 같이, 인쇄된 텍스트(text)는 폰트(font)와 폰트 사이즈(font size), 서체(typeface)와 관련된 특정한 공간 주파수들을 가진다. 810 내지 812 이미지들과 910 내지 912 이미지들은 파두 코딩 기술이 도입되지 않은 이미징 시스템을 이용하여 수집되었다. 820 내지 822 이미지들과 920 내지 922 이미지들은 파두 코딩 기술이 도입된 이미징 시스템을 이용하여 수집되었다. 이미지들의 각각의 열은 최상의 초점(best focus)으로부터 다른 거리에서 포획된 관련있는 이미지들을 나타낸다(display). 가장 윗줄의 이미지들 810, 820, 910, 920 은 상기 최상의 초점거리보다 10cm 적은 거리에서 수집되었다. 중간 줄의 이미지들 811, 821, 911, 921 은 상기 최상의 초점거리에서 수집되었다. 아랫줄의 이미지들 812, 822, 912, 922 는 상기 최상의 초점 거리보다 20cm 큰 거리에서 수집되었다. 특히 2진(binary)이미지들 세트 900에서, 파두 코딩 기술을 포함한 상기 이미징 시스템에서 포획된 이미지들이 텍스트와 관련된 공간 주파수들이 증대되었다는 것이 쉽게 보여 질 수 있다. 상기 텍스트 문자들의 공간 주파수들을 유지하는 것은 광학 문자 인식(OCR)의 높은 가능성을 제공해준다.
도 10 과 11 도 역시 파두 코딩 기술을 도입하지 않은 이미징 시스템들을 이용하여 얻은 이미지들(도면 10)과 파두 코딩 기술을 도입한 이미징 시스템들을 이용하여 얻은 이미지들(도면 11)을 비교한다. 도 10 과 11 은 조립라인 상의 피실험 자의 그레이 스케일(gray-scale) 이미지들 1000 과 1100 을 포함한다. 비슷한 크기와 모양의 대상물을 인식하기 위한 머신 비젼 시스템(machine vision systems)에서, 높은 공간 주파수 정보는 이미징 시스템에 의해 유리하게 유지되거나 증대된다. 도 10의 이미지 1000은 파두 코딩 기술을 포함하지 않은 이미징 시스템을 이용하여 포획되었는데, 중앙 영역 1020 은 초점이 잘 맞았지만, 반면에 1010 과 1030 영역은 상당히 초점이 벗어났다. 이것은 바깥 영역들에서 공간 주파수 정보가 손실되었다는 것을 나타낸다. 이와는 대조적으로, 도 11의 이미지 1100은 파두 코딩 기술을 포함한 이미징 시스템을 이용하여 포획되었는데, 모든 영역에서 초점이 맞았다. 이것은 상기 파두 코딩 기술을 포함하지 않은 이미징 시스템의 상기 공간 주파수 정보와 비교하여 공간 주파수 정보가 증대되었다는 것을 나타낸다.
도 12는 또 다른 타입의 태스크-기반의 이미징 시스템을 나타낸다. 상기 이미징 시스템은 파장 코딩을 포함함으로써 인식을 위한 주요 공간 주파수를 증대하고 유지하는 이익을 얻을 수 있다. 도 12는 장면 1200을 보여주는데, 특별히, 자동차에 있는 이미징을 통해 피실험자를 감지하는 태스크-기반의 이미징 시스템들의 응용장치에 관한 것이다. 이 예에서, 이미징 시스템 1240 은 자동차 1230 내부에 장착되어 있다. 이런 타입의 이미징 시스템은 야간 이미징을 제공하기 위하여 NIR, IR 또는 LWIR 전자기 에너지 파장을 이용할 수 있다. 장면 1200 에는 횡단 보도 1220의 경계 안에서 걷는 보행자 1210 이 있다. 이미징 시스템 1240 은 횡단보도 1220 을 인식하도록 디자인된다. 횡단보도 1220을 인식하자마자 상기 이미징 시스템은 보행자 1210이 횡단보도에 있는지 결정한다. 이미징 시스템 1240의 횡단보도 1220을 인식하는 성능을 증가시킬수록 자동차 1230이 보행자 1210에 부딪힐 가능성이 감소한다. 횡단보도는 보통 줄무늬로 칠해지거나 벽돌이나 돌들이 일렬로 끼워진 모양으로 표시된다. 그러므로 횡단보도 1220이 그것의 구조로 인해 특정한 공간 주파수들을 가지기 때문에, 이미징 시스템 1240 의 인식에 도움이 되는 이 주파수들을 유지하고 증대하기 위해서 파두 코딩 기술이 이미징 시스템 1240에 포함될 수 있다.
주요 공간 주파수를 증대함으로써 이익을 얻는 태스크-기반의 이미징 응용장치의 또 다른 종류로 생물학적 이미징이 있다. 생물학적 이미징의 예로서, 도 13은 초파리 배아 세포의 형광 이미지 1300이다. 초파리 배아 세포의 동시에 분열하는 핵은 유사분열하는 동안에 미세 소관(microtubules)들을 보기 위해 착색되었다. 상기 이미지는 잘 보이게 하기 위해 반전되었다. 이미지 안에서 상기 미세 소관들은 여러 개의 작고 어두운 모양을 하고 있다. 미세 소관은 세포의 작은 부속구성요소(subcomponents)이고, 직경이 24 내지 24 나노미터인 긴 튜브이다. 그것들은 세포골격(cytoskeleton)이라고 알려진 세포 구조의 일부를 형성한다. 유사분열하는 동안에, 미세 소관들은 염색체들이 이동하는 방추사를 생성하기 위하여 역동적으로 다발을 형성한다. 대표적인 방추사의 구조는 박스 1310으로 둘러싸여 있다. 실같이 가늘고 긴 방추사는 광학현미경을 사용하여 해상될 수 있고, 그들의 특징적 구조로 인해 식별될 수 있다. 미세 소관은 물리적 구조를 제공하고, 역동적인 세포분열과정을 조정한다. 미세 소관이 제대로 기능하지 않으면 염색체 분리나 결손을 일어날 수 있다. 정확히 미세 소관을 인식하는 것과 그 안에 있는 불규칙성들은 조사자에 게 유사분열의 세부사항에 대한 정보를 제공할 수 있다. 유사분열하는 동안에 미세 소관들을 모니터하는 데 사용되는 것과 같은 이미징 시스템에 파두 코딩 기술을 부가하면 주요 공간 주파수들을 증대하고 유지해서 불규칙한 미세 소관들의 인식에 도움이 될 수 있다.
도 1 내지 4에서 논의된 바와 같이, 이미징 시스템은 다수의 다른 태스크나 상황을 개선하기 위해 필요할 수 있다. 예를 들면 이미징 시스템은 초기에 안면 인식을 위한 데이터를 제공하기 위해 필요할 수 있다; 그러한 인식은 제한된 피사계 심도(depth of field)만을 필요로 할 수도 있다. 그 후에 그 동일한 시스템이 홍채 인식에 이용될 수 있다. 홍채 인식은 더 큰 피사계 심도를 필요로 한다. 아니면, 상기 이미징 시스템은 파두 코딩 기술을 활용하지 않고서는 종래의 (인간이 볼 수 있는)이미지들을 포획하는데 필요할지도 모른다. 그러한 개선된 이미징 시스템들을 얻기 위한 두 가지 대표적인 방법은 이제 설명될, 초점을 변화시키는 것(줌 이용)과 파두 코딩 기술이 적용되도록 변경하는 것이다.
특별히, 도 14는 한 쌍 1400의 이미징 시스템의 도해를 나타낸다. 이미징 시스템은 슬라이딩식 광학 소자 구성을 이용하여 가변의 광출력을 제공하고, 이중의 회전하는 위상 필터를 이용하여 가변의 파두 코딩 기술을 제공한다. 1402에서, 상기 이미징 시스템은 제1 상태에 있고, 반사되거나 피실험자 1400에서 나오는 전자기 에너지는 개구 1420(aperture)을 통해 감지기 1470 상에 중간 이미지 1465 로 비춰진다. 상기 중간 이미지와 일치하도록, 감지기 1470 은 피실험자에 존재하는 공간 주파수의 범위로 이미지 데이터 1475 (화살표로 표시된)를 생성한다. 슬라이 딩식 소자 1430 은 피실험자 1410의 배율을 변경하기 위해서 소자 1460 과 함께 동작할 수 있다. 부가적인 소자 1440과 1450 은 상기 이미지의 파두 코딩을 변화시키기 위해서 위상 필터들을 회전시킨다. 슬라이딩식 소자 1430, 부가적인 소자 1440과 1450 및/또는 소자 1460 은 피실험자의 전자기 에너지의 파두의 위상을 조절할 수 있다. (즉, 파두 코딩) 감지기 1470으로부터의 이미지 데이터는 디지털 신호 처리 유닛(DSP)1480에 의해 처리된다. 그런 후, 원하는 데이터를 출력한다. 이와 대체방법으로, 감지기 1470 으로부터의 이미지 데이터 1475는 직접 데이터 1490 으로 출력된다. 데이터 1490은 어느 한 경로에 의해 또는 양쪽 경로들에 의해 출력될 수 있다. DSP 1480 에 의해 처리된 데이터 1490은 최종적으로 인간이 볼 수 있는 이미지를 만들어낸다. 반면에 DSP 1480 에 의해 처리되지 않은 데이터 1490은 인식이나 다른 태스크들에 이용된다. 상기 전자기 에너지 파두의 위상 변조는 하나 이상의 슬라이딩식 소자 1430에 의해 제공된다. 부가적인 소자 1440 과 1450, 소자 1460은 이미징 시스템 1400의 SNR이 위상 변조를 하지 않은 이미징 시스템의 SNR 보다 더 크다는 상기 중간 이미지의 특성을 바꾼다. 이와 대체방법으로, 또는 부가적으로, 상기 위상 변조는 위상 조절과 디지털 신호처리기가 없는 동일한 이미징 시스템과 비교하여 이미징 시스템에 있는 적어도 하나의 이미징 수차를 줄이기 위해서 DSP 1480 과 함께 동작하도록 설정될 수 있다. (예를 들어 온도-의존 수차, 충격-유도 수차) 그림 1404에서, 이미징 시스템은 배율과 파두 코딩의 제2 상태에 있다. 회전하는 위상 필터 1450 (다른 해칭에서 보여지는)뿐만 아니라 슬라이딩식 소자 1430도 그림 1402의 유사한 소자 1430' 과 1450' 와 다른 위치에 있다. 그 때문에 다른 중간 이미지 1465', 다른 이미지 데이터 1475', 다른 데이터 1490'을 생성한다.
회전하는 위상 소자들의 관련성에 대해 논의했지만, 가변 파두 코딩 소자들은 액정 공간 광 변조기(liquid crystal spatial light modulators), 변형 거울 (deformable mirrors), 액체 렌즈(liquid lenses), 액정 변배기(liquid crystal variator), 슬라이딩식 광학 소자 구성(slidable optical element configurations), sliding variator arrangement, sliding aperture variators, 위상을 바꾸기 위한 전기 기계적(즉, 디지털 광 처리; DLP), 전자광학적 수단 등과 같은 반사하거나 전송할 수 있는 광학 소자들로부터 디자인될 수 있다. 0 에서 10 파동 또는 그 이상 범위에서의 전자기 에너지 파두의 위상 변동은 특정한 응용장치에 의존할 필요가 있다. 이와 대체방법으로, 파두의 진폭을 변경하는 광학 소자들이 위상 변조 소자들을 대신하여 도입될 수 있다. 게다가 적응 시스템들은 생물학적 이미징을 위해 디자인된 것과 같은 태스크-기반의 이미징 시스템들에 이용될 수 있다. 예를 들면 도면 13에서, 미세 소관들은 현미경을 이용하여 상이 만들어진다; 그러한 응용장치에서는 동일한 이미징 시스템 내부에 있는 더 크거나 더 작은 세포 구조를 관찰하는 것이 필요하다.(예를 들어, 배율을 변화시키면서) 게다가, 파두 코딩 기술은 태스크-기반의 이미징 시스템에서 이미징 수차들을 보정하는데 이용될 수 있다; 예를 들면, 상기 파두의 위상을 변조하기 위한 (즉, 파두 코딩) 조절 소자들은, 적어도 하나 이상의 상기 조절 소자가 없는 태스크-기반의 이미징 시스템과 비교하여, 태스크-기반의 이미징 시스템에 있는 하나 이상의 이미지 수차들을 줄이는 슬라이딩식 소자 1430, 부가적인 소자 1440과 1450, 소자 1460 과 같은 상 기 이미지 데이터 포획 장치에 편입되어 있다.
도 15는 태스크-기반의 이미징 시스템 1510을 보여주는 블럭 다이어그램(block diagram) 1500을 나타낸다. 이미징 시스템 1510은 이미지 데이터 포획 장치 1520과 이미지 데이터 처리 장치 1530을 포함한다. 예를 들면 대표적인 이미징 시스템들은 시스템 제어기 270 과 함께 동작하는 도 2에 있는 이미징 시스템 210 과 220, 이미징 시스템 집합체 245이다.
이미지 데이터 포획 장치 1520은 이에 제한되지는 않지만, 장면으로부터 이미지 데이터를 포획하기 위한 장치, 시스템, 과정을 포함할 수 있다. 예를 들면 시스템 1520 에 포함될 수 있는 구성요소들에는 광원(illumination sources), 반사하거나 굴절하는 광 소자들, 홀로그래픽 소자들, 도 16과 관련해 설명된 위상 변조 소자들, 도 14와 관련해 설명된 가변 광 소자들, 감지기들(센서나 카메라들), 상기 이미지 데이터 포획 장치를 지원하기 위해 필요한 부속 하드웨어들이 있다.
이미지 데이터 처리 장치 1530은 이에 제한되지는 않지만, 장면으로부터 이미지 데이터 포획 장치 1520에 의해 포획된 이미지 데이터를 처리하기 위한 장치, 시스템, 과정을 포함할 수 있다. 예를 들면 시스템 1530 에 포함될 수 있는 구성요소들에는 카메라-기반의 프로세서(camera-based processor), 도 2의 270 과 같은 시스템 제어기, 외부 컴퓨터, 소프트웨어 코드(software codes), 운영체제(operating systems), 이미지 처리 소프트웨어, 파두 코딩 필터 디자인, 태스크-기반의 소프트웨어 프로그램, 이미지 데이터를 기록하기 위한 데이터 저장 유닛 등이 있다.
파두 코딩 기술을 도입함으로써 태스크-기반의 이미징 시스템(위에 설명된 것과 같은)에 있는 주요 공간 주파수들을 증대하거나 유지하는 것에 대한 대표적인 세부사항들은 지금부터 설명될, 큰 이격거리에서의 홍채 인식과의 관계에서 더욱 명확히 이해될 수 있다. 이미지화된(imaged) 홍채가 큰 이격거리(2미터 이상)에 있을 때, 홍채 인식을 실행함에 있어서 어떤 문제들이 발생한다. 상기 이미지화된 홍채가 이미징 시스템으로부터 약 1미터 이상 떨어져 위치할 때, 상기 이미징 시스템은 1) 홍채의 세부사항들을 이미지화하기 위하여 높은 공간 주파수 정보를 제공하기 위해서, 2) 질 좋은 신호를 만들기에 충분한 빛을 포획하기 위해서 큰 개구를 가져야 한다. 이미징 광학장치(imaging optics)의 개구를 증가시키면 피사계 심도가 감소된다. 따라서 피실험자가 큰 이격거리에 있을 때에는 파두 코딩 기술을 사용하는 것이 더욱 이익이 된다. 또한, 큰 이격거리 응용장치에 있어서 주요 공간 주파수 범위와 주요 초점 흐려짐 범위에서의 고변조(high modulation)가 요구된다; 그러한 응용장치를 위해서 파두 코딩 기술이 없는 것을 이용하는 것보다는 조절을 증가시키기 위해 파두 코딩이 이용될 수 있다.
예를 들면, 전체 이미징 볼륨을 더 작은 이미징 볼륨으로 나누는 다수의 카메라를 사용함으로써 어떤 홍채 인식 시스템에서 증가된 시야(field of view)와 피사계 심도를 얻을 수 있다. 그러한 경우에 주요 시야는 거울이나 프리즘같은 기계 장치를 이용한 하나 이상의 카메라로 조종될 수 있다. 그러나 그런 기계 장치는 추가적인 전력을 필요로 하거나, 더 많은 보수 관리를 필요로 하거나, 이미지 포획 과정의 속도를 떨어뜨리거나, 포획된 이미지에 노이즈를 삽입할 수 있다. 피사계 심도를 증가시키고, 시야를 증가시키고, 이미징 시스템의 해상도를 증가시키면, 큰 이격거리에서의 홍채 인식이 용이해진다. 현재 이용가능한 홍채 인식 이미징 시스템들은 큰 시야와 고 해상도를 둘 다 제공해주지는 못하지만, 이미징 광학장치(imaging optics) 내에 파두 코딩 기술을 포함하면 두 가지 성능이 모두 향상될 수 있다.
홍채 인식 시스템은 향상된 홍채 이미지 콘트라스트(contrast)를 위해서 근 적외선 광원을 이용한다. 이런 광원의 조명 수준은 눈의 잠재적 손상을 막기 위하여 전체 이미징 볼륨 동안 안전한 수준으로 유지되어야 한다. 홍채 인식 시스템을 향상시키기 위한 여러 클래스의 파두 코딩에는 코사인 폼(cosine form), 코스틱 큐빅 폼(caustic cubic form), 고차 분리 폼(higher order separable form), 고차 비분리 폼(higher order non-separable form)이 있다. 큰 이격거리 응용장치를 위해서 주요 공간 주파수 범위와 주요 초점 흐려짐 범위에서의 고변조(high modulation)가 요구된다.
대표적인 태스크-기반의 이미징 시스템 1510 은 홍채 이미지 인식에 사용하기 위해서, 장면과 관련된 데이터를 얻기 위한 IHONS 1.1 시스템이다. IHONS 1.1 시스템에서는 특히, 이미지 데이터 포획 장치 1520 은 상기 장면으로부터 중간 이미지까지의 전자기 에너지의 파두를 이미징하고, 파두의 위상을 변조하고(즉, 파두 코딩), 상기 중간 이미지를 감지하고, 공간 주파수 범위에서 이미지 데이터를 생성하기 위한 광학장치(optics)를 포함한다. 예를 들면, 이미지 데이터 포획 장치 1520 은 하나 이상의 이미징 광학장치와 파두 코딩 소자(요소)를 포함한다; 이와 대체방법으로, 상기 이미징 광학장치와 파두 코딩 소자는 하나의 광학 소자로 집적될 수 있다. 또는 파두 코딩 효과는 하나 이상의 이미징 광학장치에 분산될 수 있다. 또한 상기 중간 이미지를 감지하고 이미지 데이터를 생성하는 것은 그 위에 입사한 전자기 에너지를 전자 데이터로 변환하도록 구성된 하나의 감지기에 의해 수행될 수 있다. 게다가, IHONS 1.1 시스템의 이미지 데이터 처리 장치 1530 은 파두 코딩 소자에 영향을 받는 파두의 변경을 설명하기 위해서, 더 나아가 홍채 이미지 인식을 수행하기 위해서 이미지 포획 시스템 1520 과 함께 동작한다. IHONS 1.1 시스템의 상세사항과 큰 이격거리에서의 홍채 인식 태스크에 대하여 이하에서 도 16 내지 39 와 관련하여 자세히 설명된다.
큰 이격거리에서의 홍채 인식에 유용한 WFC 디자인은 홍채 고차 비분리 (iris high-order non-separable; "IHONS")로 설계된 고차 비분리 다항함수(higher-order non-separable polynomial functions)의 종류이다. 이 종류는 위험 최소화와 성능 사이의 절충안을 제공한다. IHONS 디자인은 보다 짧은 이격거리에서의 홍채 인식을 위해 파두 코딩 기술을 이용한 홍채 고차 분리 디자인(iris high-order separable; IHOS)과 유사점이 있다. 이에 대해 R. Narayanswamyet al.,"Extending the imaging volume for biometric iris recognition)" Appl.Op.,vol.44,no.5, pp. 701-712 에 설명되어 있다. IHOS 디자인은 특히 파두 코딩을 위한 위상 변조 면(phase altering surface)의 사용에 대해 언급하고 있다.
위상 변조 면의 수학적 표현은 다음과 같다.
Figure 112008027941106-pct00001
f(x)와 f(y)는 고차 다항식이다. IHOS 디자인이 작은 이격거리에서의 홍채 인식에 적합하지만, IHONS 디자인은 WFC 변조를 동작하는 이격거리 범위에서 적은 수의 필터로 실행한다.
IHONS 디자인의 특성을 나타내는 일 부류의 동공 위상 함수의 수학적 기재는 다음과 같다.
Figure 112008027941106-pct00002
여기에서 1)φ는 정규화 공간 좌표 x 와 y에서의 각각의 위상 함수이다. (즉, 전체 공간 필드는 각각의 차원 x 와 y에서 인입 동공 반지름(r)의 0과 1사이의 범위까지의 분할에 의해 정규화된다. 2)φ는 에르미트(Hermitian)이다. 즉, 각각의 계수 αijji; 3)i=0 또는 j=0 일 때, 적어도 몇몇│αij│≥1 이다. x 와 y 에서 비교적 높은 변조 이송 함수(MTF) 를 제공한다. 4) i≠0 이고 j≠0 일 때, αij 값은 식 3에 의해 정의된다.:
Figure 112008027941106-pct00003
도 17부터 41까지의 예 들에 사용된 대표적인 "IHONS 1.1" 디자인은 식 1에 서 정의된 IHON 디자인에 있는 특정한 αij 계수를 활용한다. αij 항(terms)은 다음과 같이 정의된다. 처음 4개의 항은 가분 항에 대응한다:
Figure 112008027941106-pct00004
남아있는 4개의 항은 가분 항에 대응한다:
Figure 112008027941106-pct00005
도 16은 대표적인 IHONS 1.1, 플로로화 칼슘(CaF2)WFC 소자의 표면도(surface plot)을 나타낸다. 그리고 이것은 도면 15의 이미징 시스템 1510 내부의 이미지 데이터 포획 장치 1520 에 사용하는 데 적합하다. 예를 들면, IHONS 1.1 WFC 소자는 파두의 위상을 변조하기 위한 슬라이딩식 소자 1430, 부가적인 소자 1440, 1450 및/또는 소자 1460 으로서 도면 14에 나타난 이미징 시스템 안에 장착될 수 있다. 표면도 1600 의 가로 좌료와 세로 좌표의 단위는 밀리미터 단위이다. 표면도 오른쪽에 있는 그레이 스케일 막대 표시(gray-scale bar)는 미크론(100만분의 1미터) 단위를 가진다. 각각의 윤곽선은 0의 값을 가지는 중심영역 1610 으로 부터 약 2미크론의 새그 차(sag difference)를 나타낸다. 영역 1620 은 약 12미크론의 새그 값을 가진다. 영역 1630 은 약 -12미크론의 새그 값을 가진다. λ=840nm 에서 19.3 파동(wave)의 전체 경로 길이 차이(total path length difference)에 대하여 전체 peak-to-valley 표면 새그 차는 24.4미크론이다. 예를 들면 IHONS 1.1 WFC 소자는 fast-servo 다이아몬드 커팅 제조 공정(fast-servo diamond cutting manufacturing process)으로 제조된다. 렌즈 소자들 사이에 작은 틈이 생길 수 있기 때문에, CaF2 가 기판 재료로 선택되었다. 대체 재료 polymethyl methacrylate (PMMA)는 값은 더 싸지만 변형되기 쉽다. 그리고 큰 폼 팩터(form factor)(예: 30mm 직경 소자의 경우 5mm두께)가 주어진다. 겉으로 보기에는, 표면도 1600은 가분의 IHOS 디자인의 그것과 그렇게 차이가 있는 것으로 보이지는 않는다; 그러나, 여기서 보여자는 IHONS 1.1 디자인은 상당한 비축 변조(off-axis modulation)가 발생하는 cross 항(cross-terms) 계수들을 포함한다. 그리고 그것은 극 SNR을 증대시킨다. 이에 대해서는 바로 이하에서 더 자세히 설명될 것이다.
보통 사람의 홍채는 직경이 약 12mm 정도 되는 것으로 알려져 있다. 홍채 인식을 용이하게 하기 위해서는 홍채 조직이 높은 공간 주파수에서 추출되어야 한다. 그러므로, 홍채 인식 알고리즘은 일반적으로 권하여지는 홍채 직경의 전역에 걸쳐있는 화소들의 최소 수가 있다. 도면 17은 이격거리의 함수로서 홍채의 이미지를 대(對)응한, 이미지 센서 배열(image sensor array)의 화소들의 수의 그래프 1700을 나타낸다. 도 1700의 가로좌표(abscissa)는 단위가 미터인 이격거리를, 세로좌 표(ordinate)는 홍채의 전역에 걸쳐있는 화소들의 수를 나타낸다. 도면 17은 이격거리가 감소하면, 이미지가 이미지 센서 배열의 더 많은 화소들의 범위를 정하도록 홍채의 이미지는 더 커진다. 보간법(interpolation process)이 정홍채 이미지에 정보를 추가하지는 않지만, 인식을 위한 홍채 이미지 데이터를 더 좋은 조건으로 만든다. 그 때문에 홍채 인식에서 식별력이 더 좋아진다.
도 18은 이격거리 범위의 함수로서 다수의 초점이 흐려진 파동들을 보여주는 그래프 1800을 나타낸다. 도 1800의 가로좌표는 단위가 미터인 이격거리를, 세로좌표는 초점이 흐려진 파동의 수를 나타낸다. 이격거리 2.1미터와 2.4미터에 있는 수직의 점선은 인용기술인 홍채 인식 이미징 시스템의 한 예에서 사용하기 위해 선택된 이격거리 범위를 나타낸다. 거리 범위 내에 있는 초점이 흐려진 파동의 최대값을 최소화하는 최상의 초점 위치를 선택하는 것보다, 피실험자이 더 가까워질 때 더 많은 초점 흐려짐이 생기도록 범위를 선택하는 것이 낫다. 이미징 시스템으로부터 홍채가 더 멀어질 때 더 높은 공간 주파수에서의 이미지화가 필요하기 때문에, 이 선택은 전체 이격거리 범위에 걸쳐 이용가능한 SNR을 같게 한다. 반면에 파두 코딩를 포함한 이미징 시스템을 위해 MTF가 공간 주파수로 단조 감소한다. 도 18에 나타난 바와 같이, 주요 이격거리 범위에서 불과 5개의 초점이 흐려진 파동만이 보정될 필요가 있다.
도 19 내지 21을 참고하면, IHONS 1.1 파두 코딩 소자를 포함하는 모조 이미징 시스템(도 33의 이미징 시스템,하기에서 언급됨)에서 기인한 PSFs 와 MTFs는 예상되는 시스템 수행을 결정하기 위해 계량적으로 분석된다. PSFs는 이미징 볼륨상 의 조밀성과 불변성에 대하여 고찰된다. MTFs는 상기 언급된 요구되는 이격 거리 범위의 전역에 걸쳐 중요한 공간적인 밴드의 변조 강도에 대하여 고찰된다. 변조(콘트라스트) 및 주요 주파수에서의 SNR은 도 21의 극성-MTF 플롯(plot)으로 기술된 바와 같이 이격 거리의 함수 및 모든 각도에 걸친 방위 함수로서 고찰된다.
도 19는 IHONS 1.1 이미징 시스템의 다른 이격 거리(미터 단위이고 각 서브이미지의 좌상 가장자리에 기록된)에서의 표준화된 PSFs의 시뮬레이트된 1900 세트를 나타낸다. PSFs는 대수적으로(logarithmically) 그레이(gray) 스케일이고 명확한 프리젠테이션을 위한 경계이다. 도 18에 나타난 바와 같이, 최상의 포커스는 2.27m에서이다. 이미징 시스템에서 사용되는 렌즈 중 하나로 측정된 콤마는 역시 포함되나 이러한 특징이 IHONS 1.1 이미징 시스템 내에 끼워 넣어진 것은 아니다.특히, 도 19에 IHONS 1.1과 함께 나타나는 PSFs는 IHOS와 직각으로 분리가능한 디자인으로부터 예상되는 것과 유사하다. 즉, 바람직하게는,IHONS 1.1 이미징 시스템의 결과인 PSFs는 이격거리의 함수로써 주목할 만큼 변하지 않고, 먼 이격거리에서 홍채인식의 수행 허가는 이격거리의 요구되는 범위상의 필터의 작은 숫자만을 사용한다.
도 20은 IHONS 1.1 이미징 시스템의 다른 이격 거리(미터 단위이고 각 서브이미지의 좌상 가장자리에 기록된)에서 MTFs의 포커스를 관통하는 시뮬레이트된 2000 세트를 나타낸다.MTFs는 대수적으로(logarithmically) 그레이(gray) 스케일이고 명확한 프리젠테이션을 위한 경계이다. 그리고 콤마는 IHONS 1.1 이미징 시스템에 포함되는 특성은 아니지만 측정된 콤마의 샘플은 완전을 위해 시뮬레이션 내에 포함된다.높은 모듈레이션은 수직과 수평 방향으로 존재하나 순수 분리가능한 디자인(IHOS)과는 반대로 다이애그널(DIAGONAL)과 오프 다이애그널 모듈레이션은 특히 더 많은 모듈레이션이 요구되는 최선의 포커스로부터 목적물이 이동함에 따라 약간 더 커진다. IHONS 1.1 이미징 시스템의 MTFs의 이러한 특징은 도 19에 나타난 바와 같이 느린 PSF 변동과 결합하고 약하게 분리가능하지 않은 디자인의 이점을 IHONS 1.1에 나타난 바와 같이 먼 이격거리에서 홍채 인식 시스템의 특정 어플리케이션 내에서 IHOS 시스템상에서 증명한다.
도 21은 IHONS 1.1 시스템의 극성-MTF 윤곽 구성을 나타낸다. 구성 2100은 가로좌표와 종좌표상의 라디안 내에서 극 각도로서 미터로 이격거리를 갖는다. 이런 구상의 그레이 스케일 외형은 주요 공간 주파수(0.1mm의 정밀하게 샘플된 목적물 특징과 관련된 주파수)의 모듈레이션을 방향의 함수(수직 축)와 이격거리의 함수(수평 축)로 나타내고 공간 주파수 변화를 이격거리의 함수로서 고려한다.
먼 이격거리에서의 홍채 인식 수행을 위해, 모든 방향은 의론의 여지가 있지만 동등하게 중요하다. 도 22는 수행의 정확한 측정을 제공하는 평균화 된 모든 방향에서의 평균 콘트라스트의 플롯 2200이다.플롯 2200은 가로좌표로서 미터단위의 이격거리와 종좌표(ordinate)상의 콘트라스트를 갖는다. 도 22는 평균화된 모든 방향에서(-π to +π),현 명세서의 IHONS 1.1 시스템을 위한 주요 공간 주파수에서의 평균 콘트라스트를 이격거리의 함수로서 나타낸다. 도 22에 나타난 바와 같이, 가장 높은 주요 공간 주파수(0.1mm의 목적물 세부사항에 대응)에서의 콘트라스트는 높다. 도 23은 이격 거리에 대하여 평균 SNR과 관련된 플롯 2300을 나타낸다.평균 콘트라스트보다 더 많은 평균 SNR은 시스템 수행의 계량가능한 측정으로써 계산되고 사용되어 질 수 있다.
도 24는 현재 명세서와 일치하여 IHONS 1.1 이미징 시스템을 사용하는 캡쳐된 WFC 이미지 절차를 위해 사용되는 필터의 그래픽 표현 2400을 나타낸다.상기 필터는 최선의 포커스 위치에 가까이에 캡쳐된 세 PSFs의 평균을 사용하는 위너 파라메트릭 방법을 사용하여 만들어졌다.위너 필터 파라메터는 250의 노이즈 파라메터와 1.2의 목적물 세부사항을 포함한다.결과적으로 노이즈 게인은 필터가 평탄함을 나타내는 0.54이다.
이미지 시뮬레이션은 홍채 인식과 같이 태스크 베이스 이미징 시스템의 디자인 과정에서 중요한 단계이다. 도 25는 시뮬레이트된 이미지 생성을 위한 프로세스(2500)를 설명하는 플로우 다이어 그램을 나타낸다. 프로세스(2500)는 예를 들어, 도 15의 이미지 데이터 처리 장치(1530) 내에서 수행될 수 있다. 예를 들어 이미지 데이터 처리 장치(1530)는 프로세스(2500)를 수행하기 위한 소프트웨어나 펌웨어를 포함할 수 있다. 이미지를 시뮬레이팅하기 위한 프로세스(2500)는 시스템 초기화 및 다른 태스크가 실행되는 사이에 준비단계(2505)와 함께 시작된다. 공간 주파수의 범위를 포함하는 고해상도 입력 이미지 데이터(2510)는 단계(2515)에서 이미지 스펙트럼(2520)을 입력하는 푸리에 공간을 산출하기 위해 푸리에 변환된다. 고해상도의 초점이 흐려진 OTF 데이터(2525)와 고해상도, 이미징 시스템의 화소 MTF 데이터(2535)가 결정된다. 그런 후, 단계(2530)에서 고해상도 이미지의 수정된 이미지 스펙트럼을 생성하기 위해 입력 이미지 스펙트럼(2520)과 곱해진다. 화소 샘플링과 로우-패스 필터링은 화소 MTF에 의한 증배에 의해 고려될 수 있다. OTF데이터는 샘플 렌즈의 측정된 파두 오차를 포함할 수 있다.
초점 흐려짐은 이격거리(d0)에 따라 변하므로, OTF는 고해상도 이미지의 스펙트럼과 똑같은 매트릭스 사이즈를 갖기 위해 삽입될 수 있다. 상기 매트릭스 사이즈에 대한 지식은 역 푸리에 변환 단계(2545) 내에서 이미지 데이터의 실제 공간 변환을 수행하기 위해 역시 중요할 수 있다. OTF는 예를 들어, 출력 이미지에 있는 SNR이 SNR을 갖지 않는 다른 시스템을 능가하여 더 증가되는 정도로 이미징 시스템 내에 있는 파두 코딩 요소를 변경함으로써 수정될 수 있다. 단계(2545)에서, 단계 (2530)으로부터의 수정된 이미지 스펙트럼은 역-FFT에 의해 수정된 이미지로 변환된다. 상기 변환된 이미지는 출력 이미지를 생성하기 위해 사용될 수 있다. 단계(2550)에서, 이미지는 최종 해상도를 향한 다운 샘플링에 의해 크기가 재조정되며, 그에 의해 가변의 확대(예를 들어, 촬영 거리에서의 변화로 인한)를 고려한다. 위신호(僞信號)는 이미지를 로우패스 필터링 하지 않고 다운 샘플링함으로써 고려될 수 있다. 다운 샘플링은 그 대신에, 주어진 다운 샘플링 근원과 일반적으로 사용되는 샘플링 제품에 대한 수정된 이미지를 처리하는 것과, 다운 샘플링 주기 내에서 다운 샘플링 근원을 변경시킴으로써 크기가 재조정된 이미지의 다수의 위신호 버젼을 생성하는 것을 포함할 수 있다. 이러한 다운 샘플링 프로세스와 근원 변경은 도 28 및 도 29와 관련된 논의에서 적절한 시점에 다루어진다. 홍채 인식 알고리즘은 특정한 크기의 이미지(예컨데,640×480 화소)를 요구할 수도 있다. 오리지 널 이미지는 높은 배율일 수 있고, 홍채를 포함하는 영역은 상기 크기보다 작을 수 있다. 단계(2555) 중에, 이미지는 제로 패드(ZERO-PADDED)될 수 있으나, 이러한 과정은 이미지를 에워싸고 있는 비실제적인 가장자리의 결과가 된다. 더 많은 현실적인 이미지를 생성하기 위해, 시뮬레이션 이미지는 외부 경계선의 복사로 채워질 수 있다. 경계선은 이미지의 가장 높은 행(row), 가장 낮은 행, 가장 오른쪽 열(column), 가장 왼쪽 열이다. 이러한 경계선은 이미지가 640×480으로 채워질 때까지 반복될 수 있고, 그러므로 경계선 근처의 줄의 결과가 된다. 도 30은 이러한 주변 효과의 예를 보여준다.
최종 단계(2560)에서, 쁘아송(Poisson)-분산 산탄 잡음 및 가우시안 (Gaussian)-분산 판독 잡음은, 실제 탐지기에 존재하는 바로 그와 같은 잡음 파라미터(예컨대, 풀 웰 카운트(FULL WELL COUNT)와 판독 잡음 카운트)를 이용하여, 이미지에 부가될 수 있다. 결과는 탐지기 포화 비표시의 예외와 함께 IHONS 1.1 시스템에 의해 실제로 포획된 이미지의 신뢰할만한 재현인 출력 이미지(2565)이다. 상기 출력 이미지는 도 30에서 보여준 이미지들과 같은 이미지를 생산하는, 선택된 필터 커널(kernel)을 이용하여 필터링될 수 있다. 시뮬레이션 과정은 이미지에서의 동공 및 다른 영역 내에 있는 정(正)반사성의 반사지점에서 발생할 수 있는 탐지 포화를 고려하지 않는다. 도 25의 시뮬레이션 알고리즘은 초점이 흐려진 이미지상의 파두 코딩의 효과를 포함한다. 알고리즘적 인식은 시뮬레이션 이미지에서 수행될 수 있고, 그 결과로 종합적인 시스템 성능의 예측을 가능하게 한다.
도 26은 태스크-기반의 이미징 시스템을 최적화하기 위하여, 극성-SNR과 같 은 주어진 파라미터를 사용하는 최적화 방법에 대한 블록 다이어그램(2600)을 나타낸다. 도 26은 상기 언급된 미국 특허 출원 번호 No.11/000,819의 도 2와 일치하고, 광학 및 디지털 시스템 디자인 최적화로의 일반적인 접근을 설명하기 위해 재생되었다. 디자인 최적화 시스템(2612)은 광학 시스템 디자인(2614)과 디지털 시스템 디자인(2615)을 포함하는 시스템 디자인(2613)을 최적화하기 위해 사용될 수 있다. 예로써, 광학 시스템 디자인(2614)은 도 16에 나타난 바와 같은 파두 암호화 성분을 위한 초기의 광학 규정일 수 있고, 디지털 시스템 디자인(2615)은 도 24에 나타난 바와 같이 광학 시스템으로부터 신호 과정 이미지를 위해 사용되는 필터의 초기 디자인일 수 있다. 디자인 최적화 시스템(2612)은 최적화된 시스템 디자인(2630)을 생성하는 함수일 수 있다.최적화된 시스템 디자인(2630)은 최적화된 광학 시스템 디자인(2632)과 최적화된 디지털 시스템 디자인(2634)을 포함할 수 있다. 전형적으로 최적화된 디자인은 IHONS 1.1디자인에 묘사된 것이다.
시스템 디자인(2613)은 시스템 모델(2616)을 생성하기 위한 최적화 시스템(2612)을 디자인하기 위한 입력이다.시스템 모델(2616)은 상대적으로 광학 시스템 디자인(2614)과 디지털 시스템 디자인(2615)을 나타내는 광학 시스템 모델(2617)과 디지털 시스템 모델(2618)을 설명적으로 포함한다. 디자인 최적화 시스템(2612)은 출력(2619)을 생성하기 위한 시스템 모델(2616)의 기능성을 시뮬레이트 할 수 있다.출력(2619)은 예를 들어 광학 시스템 모델(2617)의 시물레이션에 의해 생성되는 동공위치와 디지털 시스템 모델(2618)에 의한 절차와 관련된 비트 스트림 정보를 포함할 수 있다.
디자인 최적화 시스템(2612)은 스코어(2622)를 생성하기 위한 출력(2619)을 처리하는 애널라이저(2620)를 포함한다. 상기와 같이, 애널라이저(2620)는 스코어(2622)를 결정하기 위해 하나 또는 그 이상의 측정기준(2621)을 이용할 수 있다. 측정기준(2621)은 광학 시스템 모델(2617)과 디지털 시스템 모델(2618) 양쪽에 관계할 수 있다.각 측정기준(2621)의 결과는 스코어(2622)를 형성하기 위한 애널라이저(2620)에 의해 가공되고 처리될 수 있다. 예를 들어, 각 측정기준(2621)의 웨이트는 사용자에 의해 특정되고 및/또는 알고리즘하게 결정될 수 있다.
옵티마이저(2623)는 스코어(2622)를 처리하고 옵티마이저(2623)에 입력을 위해 사용자(예컨데, 타겟 극성 SNR 값과 같은 사용자 한정 목표(2624))에 의해서 다시 분류될 수 있는 목표(2626)와 관련된 시스템 모델(2616)의 이행을 결정한다. 시스템 모델(2616)이 최적화되지 않았다면 디자인 최적화 시스템(2612)은 옵티마이저(2623)로부터 광학 시스템 모델(2617)을 수정하기 위한 출력(2625) 및/또는 디지털 시스템 모델(2618)을 수정하기 위한 옵티마이저(2623)로부터의 출력(2638)에 반응한다. 시스템 모델(2617),(2618) 어느 쪽도 수정되지 않았다면 시스템 모델(2616)은 디자인 최적화 시스템(2612)에 의해 다시 시물레이트되고 출력(2619)은 새로운 스코어(2622)를 생성하기 위한 애널라이저(2620)에 의해 스코어된다.옵티마이저(2623)는 그러므로 디자인 목표(2626)가 달성될 때까지 시스템 모델(2617),및(2618)을 반복적으로 수정하기 위해 계속한다.홍채 인식을 위해 목표의 한 예는 주요 공간 주파수의 세트내 극성-MTF의 값을 최적화하기 위한 것이다.
디자인 목표(2626)가 달성되면 디자인 최적화 시스템(2612)은 옵티마이 저(2623)에 의해 수정된 것과 같이 시스템 모델(2616)에 기반을 둔 최적화된 시스템 디자인(2630)을 출력한다. 최적화된 시스템 디자인(2630)은 최적화된 광학 디자인 시스템(2632)과 최적화된 디지털 시스템 디자인(2634)을 나타낸 바와 같이 포함한다. 최적화된 시스템 디자인(2630)은 목표(2626)를 충족하는 전자 광학 시스템의 디자인 목적물을 구체화하는 보조변수를 포함한다. 디자인 최적화 시스템(2612)은 예견되는 작업(2640),(예를 들면, 최적화된 시스템 디자인(2630)의 용량을 요약하는)을 출력할 수 있다.
도 27에 나타난 플로우 차트는 태스크-베이스 이미징 시스템을 최적화하기 위한 극성-SNR을 사용하는 전형적인 최적화 방법(2700)을 묘사한다. 최적화 방법(2700)은 도 15의 이미지 데이터 진행 배열(1530)의 부분으로서 실행된다. 즉, 이미지 데이터 진행 배열(1530)이미지 데이터 캡쳐 시스템(1520)과 협력한 최적화 방법(2700)을 실행하기 위한 소프트웨어나 펌웨어를 포함할 수 있다.최적화 방법(2700)은 시스템 초기화 및 다른 업무가 수행되는 사이에 준비 단계(2705)와 같이 시작한다. 광학 메리트 함수(2710)의 초기값은 사용자에 의해서 결정되고 수정된 광학 메리트 함수(2715)의 초기값이 된다. 단계(2725)가 진행되는 동안,수정된 광학 메리트 함수(2715)의 값과 같이 동공 함수 보조변수(2720)의 초기 값은 최적화를 위한 ZEMAXR,CODER또는 OSLOR(또는 학문에 알려진 다른 프로그램)과 같은 광학 디자인 소프트웨어 패키지에 입력된다.동공 함수 보조변수는 광학 디자인 소프트웨어에 의해 수정되고 수정된 광학 함수 보조변수(2730)를 제공한다.
단계(2735) 및 단계(2745)에서, OTF와 이미징 시스템의 극성-SNR은 장면 상에서 목적물 거리(d0)의 요구되는 범위를 고려하여 계산된다.다음으로,단계(2755)에서 계산된 극성-SNR은 많은 어플리케이션에 있어서 상당히 간단한 함수일 수 있는 목표 극성-SNR에 비유된다.예를 들어,목표 극성-SNR은 이미징 시스템 연산 범위 내의 SNRs의 최소값을 나타내는 직선일 수 있다.다음으로, 계산된 SNR이 요구되는 목표 극성-SNR(2750)(디자이너가 충분히 가깝다고 여겨지는 것을 결정한다)와 충분히 가깝거나 계산된 SNR이 요구되는 SNR보다 크면 최적화는 완료되고 절차는 단계(2760)으로 진행되고 종료된다. 한편, 절차가 루프 패스웨이(2765)를 통해 진행되어 디자이너가 새로 수정된 계산된 극성-SNR내에서 결함을 설명하기 위한 광학 메리트 함수(2725)를 생성할 수 있다. (예컨데, 주어진 방향에서 이미징 시스템의 MTF의 목표변조증가), 최적화는 디자인 목표가 달성될 때까지 반복될 수 있다.
도 28은 PSF와 이미징 시스템에 의해 보여지는 다운 샘플된 이미지, 원본 이미지의 상대적인 이미지를 나타내는 도표에 따른 다이어그램(2800)의 시리즈이다.원본 고해상도 이미지(2810)는 작은 사각형의 2D배열로 나타내어진다. 임계적으로 샘플되면, 이미지(2810)는 소스 신(SOURCE SCENE)의 이상적인 표현으로 고려된다.다운 샘플된 로우 레졸루션 이미지(2820,2820'또는2820'')는 소스 신의 임계적으로 샘플되고 디지털화된 형태보다 적게 나타낸다.다운 샘플된 로우 레졸루션 이미지(2820,2820'또는2820'')는 고해상도 이미지의 9개의 작은 사각형을 둘러싸는 사각형의 2D 배열로 나타난다.PSF(2830)는 방사상의 스포크(SPOKES)와 동심의 고리 와 검은 중심의 점으로 나타난다. PSF(2830)는 이미지(2810)내의 특정한 화소과 관련있다.다운 샘플될때의 이러한 예에서, 두 이미지의 상대적인 근원은 9개의 가능한 위치중 어느 곳으로도 이동될 수 있다(3×3 to 1×1 다운 샘플링). 이러한 이동은 새로운 이미지(2820,2820'또는2820'')안으로 PSF(2830)의 매핑(mapping)을 바꿀 수 있다. 이러한 이동은 새로운 이미지와 상대적으로 구 이미지의 사이에서 위신호의 다른 양의 원인이 되기도 한다.모든 다른 위치는 도 26의 애널라이저(2620)내에서 최적화방법의 부분으로서 또는 도 25의 시물레이션 절차의 단계(2550)내에서 계산될 수 있고 사용될 수 있다.
도 29는 다운 샘플링의 변화된 기원에 관한 위신호의 효과를 상술하는 플롯(2900)의 세트이다. 플롯(2902)은 바코드와 같은 패턴(2910)의 2D 시물레이션이다. 패턴(2910)은 패턴(2910)을 형성하는 직사각형 경계선 내의 하나의 값을 갖는다.모든 다른 값들은 0이다.대시 라인(2920)은 플롯(2904)을 위한 데이터를 생성하기 위해 샘플된 스캔 라인이다.플롯(2904)은 3가시 가변적으로 이동된 스캔라인과 관련된 곡선을 나타낸다.점선(곡선 2930)은 제로 화소의 이동을 나타낸다. 실선(곡선 2940)은 한 화소의 이동을 나타낸다. 대시 라인(곡선 2920)은 2화소의 이동을 나타낸다. 각각의 곡선(2930,2940 그리고 2950)을 생성하기 위하여 패턴(2910)의 데이터는 PDF 보기의 적당한 이동에 따라 말아 감겼고 휘감긴 이미지는 스캔 라인(2920)에 따른 샘플이다.곡선 2930,2940 그리고 2950을 비교함으로써 패턴(2910)내의 형태는 수정되었음을 알 수 있다.
도 30은 파두면 코딩 성분과 관련된 절차의 효과를 포함하는 시물레이트된 최종 이미지(3000)의 세트를 나타낸다. 최종 이미지는 최적화(2700) 사용에서 얻어진 이러한 같은 이미지의 중간 형태에서 결정되는 필터 보조변수의 최적화된 세트와 함께 진행된다. 도 30의 서브 이미지 내의 이격거리는 도 19 및 도 20에 상대적으로 나타난 PSFs와 MTFs의 이미지에 나타난 바와 같이 2에서 2.5미터로 변한다. 각 서브 이미지의 이격 거리는 상기 서브이미지의 좌상 모서리에 나타나 있다. 캡쳐된 WFC이미지는 필터 품질의 측정기준을 제공하는 홍채 인식 소프트웨어에 의해 진행된다.초기에는 복수의 필터는 이격거리의 범위 이상에서 사용되었다. 그러나 도24에 나타난 필터를 사용하는 모든 이미징 명세서와 접촉가능함이 결정되었다.이러한 필터수의 감소는 현존기술에 주목할 만한 이점을 제공한다.
시물레이션에 의해 얻어지는 여과된 이미지는 홍채 인식 알고리즘에 의해 식별되고 홍채 스코어는 각 홍채 이미지에서 생성된다.(예를 들어, 수정된 해밍 거리(HAMMING DISTANCE)) 도 31은 파두 코딩 없이 시물레이트된 이미징 시스템의 이격 거리의 함수로써 홍채 스코어 결과의 플롯(3100)을 나타낸다. 플롯(3100)은 가로좌표와 해밍거리의 종좌표로서 미터 단위의 이격거리를 갖는다.0.31에 가까운 HD값에서의 실선 수평 라인은 양성 인정을 위해 요고되는 최소한의 HD값을 나타낸다.2.17 부근에서부터 2.36미터에 이르는 이격 거리의 값은 동공 인식 시스템에 의해 피실험자이 정확하게 인식될 수 있는 지역을 정의한다. IHONS 1.1 시스템의 평가에 있어서, 다른 템플리트(templates)는 창조되었다. 템플리트는 피실험자 홍채의 평균화된 이상화이다.
도 31은 같은 피실험자을 식별하기 위한 두개의 템플리트의 HD 스코어를 나 타낸다.템플릿A와 관련된 데이터는 플롯 내에서 검은 다이아몬드 형의 점으로 나타난다.템플릿B와 관련된 데이터는 둥근 점으로 나타난다. 양 세트의 데이터는 복수의 크기로 전면에 걸쳐서 평균화된다. 템플릿B는 홍채 인식이 약간 더 나은 이미지에 기반하고 있기 때문에 약간 우월한 결과를 제공한다.(예컨데, 넓은 가시 홍채 지역).파두 코딩 없는 시물레이트된 시스템의 인식 거리는 약 18cm이다.
도 32는 시물레이트된 IHONS 1.1 시스템의 홍채 스코어를 결과의 플롯(3200)을 나타낸다. 플롯(3200)은 가로좌표와 종좌표상의 HD로서 미터단위의 이격거리를 갖는다. 템플릿A와 관련된 데이터는 플롯 내에서 검은 다이아몬드 형의 점으로 나타난다.템플릿B와 관련된 데이터는 둥근 점으로 나타난다. 양 세트의 데이터는 복수의 크기로 전면에 걸쳐서 평균화된다.도 32는 IHONS 1.1가 사용될 때 싱글 필터를 이용하는 그룹의 전체 범위에서 홍채 인식이 수행됨을 나타낸다. 이러한 시물레이트된 결과는 필터와 WFC 요소로 한정되고 예상대로 작동하는 선택된 디자인을 확인하기 위한 디자인 절차의 끝에 사용된다.
도 33은 IHONS 1.1 시스템의 확인을 위해 사용되는 실험 셋업(3300)을 나타낸다.홍채 인식 확인을 위한 기본형 태스크-베이스 이미징 시스템에서,배열을 캡쳐하는 이미지 데이터는 IHONS 파두 코딩 요소(예컨데, 도 16에 나타남)와 30mm 입구 동공 직경의 와이드 앵글 렌즈와 효과적인 210mm의 초점 거리, 그리고 카메라(3320)(예컨데,CCD배열)을 차례로 포함하는 렌즈 시스템(3320)을 포함한다.
렌즈 시스템(3320)과 카메라(3330)는 레일 시스템(3340)에 놓여진다.피실험자(3310)은 그 머리를 레일 시스템(3340)으로부터 2.05미터 떨어진 3각에 놓는다. 카메라(3330)는 감도한계 2048×2048의 10비트 CCD 배열이다.렌즈 시스템(3320)은 2개의 조도 어셈블리를 포함하는 조명기를 포함하고 각각은 중심 주파수가 840nm인 4개의 LED를 포함하고 대략 2mW/cm2의 총 방사 조도를 생산하는 프레넬 렌즈를 사용하여 시준한다.렌즈 시스템(3320)은 피실험자(3310)으로부터 CCD 배열(3320)에서의 중간 이미지까지 파두의 수정단계 동안의 전자기 에너지의 파두(예컨데, 파두 코딩)을 이미지한다. 이러한 단계 수정은 파두 코딩를 포함하는 결과 시스템의 SNR은 파두 코딩를 포함하지 않는 이미징 시스템의 SNR보다 크도록 고안된다.눈은 미니레일의 정상에 쌓여진 광학 기둥을 사용하는 이미징 시스템 조망의 영역에 관련하여 개별적으로 배열된다.레일 시스템(3340)은 이격거리를 변화시키는데 사용되는 컴퓨터 제어 케이블의 나선 레일을 포함한다.레일 시스템(3340)은 2.05에서 2.45까지 26의 동등한 간격으로 배치된 짧은 시퀀스내의 10개의 이미지를 캡쳐하는 MATRABR 스크립을 운영하는 컴퓨터(3360)에 반응하는 제어기(3350)에 의해 제어된다.
도 33에 계속하여, 이미지 데이터 진행 배열 또한 컴퓨터(3360)에 의해 제어된다. 다른 MATRABR 스크립은 도 24와 관련하여 언급된 커늘(KERNEL)을 사용하는 이미지의 디코딩을 수행한다.시판의 이용가능한 소프트웨어 패키지는 더그만에 의한 알고리즘의 변화를 이용하는 홍채인식의 업무를 수행한다.(J.G.Daugman,"무작위의 중요성:홍채 인식의 통계상 원리"Patt.Rec.,36,279-291(2003))이미지는 데이터 베이스에 저장되고 이미지와 미리 기록된 고 해상도의 템플리트에 근거하는 각 이미 지에 대한 스코어 배정을 수행하는 다른 MATRABR 스크립에 의해 분석된다. 실험용 장치(3330)는 렌즈(파두 코딩 효과가 없는 것)교환과 재초점 조절에 의해 파두 코딩를 포함하는 것으로부터 이를 포함하지 않는 것으로 변환된다.유사한 장치는 10μm 핀홀에 의해 목적물이 대체되는 다른 존재인 PSFs를 캡쳐한다.핀홀은 흰 빛 소스에 의해 조명된다.
도 34는 공지기술에 따라 이격거리의 범위를 위한 IHONS 1.1 이미징 시스템을 사용하는 실험적으로 측정된 PSFs의 시리즈(3400)를 나타낸다.(각 서브이미지의 좌상 모서리에 미터 단위로 나타낸다.)빛의 강도와 카메라의 노출 시간은 시스템의 최대 동적 거리를 사용하도록 PSFs를 포화에 가깝게 유지하기 위해 조정된다.잡음은 각 위치에서 수집된 15 PSFs의 평균에 의해 감소된다.카메라는 10 비트 센서를 사용하고 비선형 잡음 제거는 값 18 이하의 모든 화소값을 0으로 감소시키는 것에 의해 사용된다.PSFs는 레일의 총거리내에(2.05m~2.45m) 26으로 균일하게 배치된 위치에서 수집된다.26 PSFs 위치는 도 34에 나타난 바와 같이 9로 균일하게 배치된 PSFs안으로 요약된다.이러한 실험 PSFs(도 34)와 시물레이트 된 PSFs(도 19)의 유사점은 잡음 제거 어베러징은 종종 PSFs 표면에 바람직하지 않은 효과를 불러일으킨다는 점을 특히 고려한 디자인의 충분한 재생산을 나타낸다.
시스템 수행은 표준화된 시리즈(3500),MTFs 실험,PSFs실험의 푸리에 변환에 의한 계산을 나타내는 도 35에 설명되어 있다. 도 35의 MTFs 실험은 도 20의 시물레이트된 MTFs와 유사하고 하이 온-액시스(on-axis) 모둘레이션은 거리(2.45m)의 끝에서 오직 약간의 드롭을 포함하여 이격거리 범위에 걸쳐 유지된다.
온-액시스(on-axis) 모둘레이션의 드롭은 도 36의 극성-MTF 플롯(3600)내에서 더 잘 시각화된다.극성-MTF 플롯(3600)은 오직 가장 높은 주요 공간 주파수에서의 거리의 함수로서 거리 내의 목적물 확대의 변화를 고려하여 모든 방향에서의 모둘레이션을 나타낸다. 게다가,도 36에 나타난 그래픽적 플롯과 도 21에 나타난 시물레이트된 극성-MTF 플롯 사이에는 주목할 만한 유사점이 있다.플롯 (2100)과 (3600)의 미묘한 세부사항이 다양하나,강한 온-액시스 응답(0,±π/2, 그리고 ±π방향) 오프-액시스 방향의 요구되는 크기가 도 21과 도 36에 나타나 있다.
최종적으로 도 37은 가장 높은 주요 공간 주파수에서의 모든 방향에서의 평균 콘트라스트의 그래픽적 플롯(3700)을 나타낸다.이러한 구성은 모든 방향에서의 홍채 목적물 분해의 주어진 동일한 중요성의 홍채 인식 케이스에 대한 특별한 관심을 나타낸다. 도 37의 구성은 먼 지역에서의 콘트라스트에서 바람직하지 않은 드롭을 명백히 보여준다. 다행이도, 이러한 드롭은 타켓 거리를 이미 넘어선 영역에서 발생한다. 그리고 이는 최선의 초점을 이동함으로써 부분적으로 오프셋될 수 있다(가까운 거리에서 손실에도 불구하고).도 37의 구성은 미래의 디자인이 더 떨어진 두 피크로 이동하도록 하는 WFC 구성요소를 구성하고 그러므로 총 거리가 증가하도록 향상될 수 있다.(2.17m에서 로컬 최소값 감소의 비용에도 불구하고) 도 22의 시물레이트된 구조와 함께 도 37의 비교는 콘트라스트 피크 사이 거리의 협소함을 제외하고 주목할 만한 유사점을 나타낸다.(시물레이트된 것과 실험 플롯 사이에는 스케일상 작은 변화가 있다)
홍채 인식 내에서 파두 코딩 사용의 효과는 인식의 더 넓은 범위를 위한 HD의 교환이 가능하도록 요약된다.교환은 WFC에 의해 제공된 디포커스의 함수로서모둘레이션(콘트라스트)의 더 넓은 분배에 의해 설명된다. 이러한 교환을 정확히 평가하기 위해서, HD에 영향을 미치는 다른 모든 보조변수들을 일정한 값으로 유지하는 것은 중요하다.이러한 보조변수는 1)조명; 2)눈꺼풀의 위치; 3)안경,콘택트렌즈 혹은 광학 경로상의 다른 물체의 실재. 4)피실험자의 운동을 포함하나 제한되지는 않는다.
그러한 평가는 피실험자이 휴식중이고, 이미지 캡쳐의 기간동안 똑바로 카메라를 향해 눈을 크게 뜬 광학 이미징 상태에서 수행될 수 있다.적외선 근처의 조명 액티브는 높은 강도에서 사용되고 안구 보호 레벨에 의해 제한된다.이러한 보조변수의 임의의 변화는 측정의 SNR에서 드롭 또는 결과 이미지 외의 홍채 부분의 정확한 분할을 위한 홍채 인식 소프트웨어의 실패로 변할 수 있다.실험 보조변수 분할의 민감도는 낮은 SNR경우에 특히 높다. (예컨데,이격거리 범위의 모서리 부분)
많은 홍채 인식 알고리즘은 홍채 이미지와 교차하는 약 200개의 화소과 작동하는 경향이 있다. 실제의 이미징 조건에서 주어진 이미징 보조변수는 도 17에 나타난 바와 같이 가장 먼 거리에서 홍채 드롭과 교차하는 화소의 수는 150 이하이다.이러한 효과를 보충하기 위해 모든 이미지는 1.18의 삽입요소에 의해 실험에서 선형적으로 삽입된다.실제로 모든 이미지는 동등하게 삽입되므로 홍채 인식 시스템은 피실험자의 홍채로 정확한 거리로 제공되지 않을 수 있고 이는 신호 절차는 거리에 독립한 것임을 의미한다. 삽입요소는 경험적으로 결정되고, 이는 한층 더한 최적화의 피실험자이 될 수 있다.그럼에도 불구하고, 삽입 없는 경우보다 삽입의 경우에 시스템은 지속적으로 더 나은 수행을 나타낸다.
도 38은 홍채를 향한 거리의 함수로써 파두 코딩 없는 이미징 시스템을 위한 해밍 거리의 플롯을 나타낸다.(홍채에서부터 이미징 시스템의 제1 안경 표면에서 측정된) 급격한 변화 지역과 좁은 골짜기의 실재는 도 38에 나타나고 좁은 골짜기가 인식 알고리즘에 의해 사용되는 공간 주파수의 모둘레이션(콘트라스트) 내에서 디포커스가 드롭을 초래하는 지역에 상응한다. 최적의 포커스에 가까운 평탄한 지역(2.2에서 2.3m)은 알고리즘에 의해 사용되는 모든 공간 주파수보다 높은 공간 주파수의 드롭이 되는 디포커스 지역에 상응한다.각각의 목적물 위치에서 각 안구의 열개의 이미지가 캡쳐되고 진행되고 플롯(3800)에 나타난 각 안구에 대한 평균화된 HD를 우리에게 제공하는 안구에 상응하는 홍채 코드에 비교된다.빈 원은 오른쪽 안구를 나타내는 실선에 의해 연결되고 빈 사각형은 왼쪽 안구를 나타내는 점선에 의해 연결된다. 도 38에 나타나는 플롯으로부터 파두 코딩 없는 이미징 시스템은 0.2의 최대 HD에서 14.9cm의 인식 범위를 생산함을 추론할 수 있다.(HD=0.2인 점-대시 라인) 도 38의 플롯은 시물레이트된 이미지의 정확성의 확인을 도 31에 나타난 시물레이트된 해밍 거리 플롯과의 비교에 의해 허용한다.
도 39는 파두 코딩를 포함하는 이미징 시스템에 대한 홍채 거리의 함수로서 HD의 그래픽적 플롯(3900)을 나타낸다. 도 39는 해밍 거리의 플롯을 약 40cm인 인식 거리의 배증을 나타내는 IHONS 1.1 이미징 시스템을 이용하는 실험적으로 평가된 홍채 인식 시스템을 위한 이격거리범위의 함수로서 포함한다. 빈 원은 오른쪽 안구를 나타내는 실선에 의해 연결되고 빈 사각형은 왼쪽 안구를 나타내는 점선에 의해 연결된다. 이 경우, 얕고 넓은 골짜기는 나타난다(2.05부터 2.45까지 미터 이격 거리).그러므로 필드의 확장된 깊이를 위한 가장 낮은 HD의 거래를 효과적으로 나타낸다.이러한 거래는 SNR의 용어로 기술되면 더 잘 이해될 수 있다.초과 SNR이 충분히 높으면 HD에 주목할 만한 효과없이 필드의 깊이를 확장시키기 위해 이것을 드롭할 수 있다.반면,SNR이 정확한 홍채 인식을 위한 최적값의 약간 상회할때,WFC없이 디자인된 시스템인 경우가 빈번하므로 필드 깊이의 임의의 확장은 최소 HD내의 드롭으로 변환한다. WFC를 포함하는 이미징 시스템은 0.2(HD=0.2인 점-대시 라인)의 최대 HD에서 거의 40cm의 인식 거리를 제공함은 주목할 만하다.또한 주어진 위치에서 해밍 거리의 변동은 파두 코딩를 포함하지 않는 이미징 시스템보다 파두 코딩를 포함하는 이미징 시스템에서 상당히 증가하였다. 마지막으로, 도 39의 플롯은 도 32에 나타난 플롯과의 비교에 의해 시물레이트된 이미지 정확성의 확인을 허용하고,그 때문에 미래 WFC 디자인의 수행을 분석하기 위한 시물레이트된 이미지를 사용하기 위한 확신을 제공한다.
상기 언급된 바와 같이, WFC는 가까운 태스크를 위한 확장 거리에서 HD(또는 SNR)의 효과적인 거래를 위해 유용할 수 있다.이러한 거래는 과잉 SNR이 갖추어져 있는 시스템일때 특히 매력적이고 그러므로 예를 들면,HD의 주목할 만한 변화없는 홍채 인식 거리의 증가를 허용한다.적절한 환경하에서, WFC를 이용하여 캡쳐된 이미지를 위한 홍채 이미지를 정확히 세그먼트 하기 위한 홍채 인식 알고리즘의 우발적 실패의 주 제한과 함께 WFC를 포함하는 이미징 시스템의 인식거리는 파두 코딩 없는 이미징 시스템보다 2배 이상 증가할 수 있다. 예를 들어, 이러한 실패는 동공내 반사면의 형태에 관한 알고리즘의 추정에 의해 유발될 수 있다.최적의 수행을 위해 고려되어야 하는 WFC를 포함하는 이미징 시스템을 사용하여 캡쳐될 때 이러한 반사면은 다른 형태를 추정한다. 덧붙여서 단계요소의 약한 분리 불가능 형태는 디포커스(분리가능한 디자인의 특징) 상에서 거의 변하지 않는 PSFs를 유지하는 동안 조금 더 큰 모둘레이션 오프-액시스(분리 불가능한 디자인의 특징)를 생산한다. 이러한 타협은 순수히 분리가능한 디자인을 이용한 달성의 유익한 해결책을 산출하고, 전체 디자인 범위에서 싱글 필터를 이용한 모든 디자인 목표를 충족시키도록 한다.
묘사되기 전 구상의 각각은 특별한 각각의 오리엔테이션을 갖는 다양한 구성요소로 설명됨에도 불구하고 공지발명내에 묘사된 시스템은 다양한 장소와 상호 오리엔테이션에 위치한 다양한 구성요소와 같이 특정한 배치의 다양성을 취할 수 있고 스피리트 내에 여전히 남아있고, 공개발명의 범위이고,상기 기술된 변화와 다른것들은 이에 관한 범위로부터 벗어남이 없이 묘사된 태스크-베이스 이미징 시스템 내에서 만들어진다.상기 서술이나 도면에 포함된 내용은 제한된 의미가 아닌 설명적으로 해석되어야 한다.하기의 청구항은 여기에 기술된 모든 일반적이고 특정한 특징을 커버하는 의도이며 마찬가지로,현재 방법과 시스템 범위의 모든 진술,언어상,그들 사이에 누락된 것까지 커버하려는 의도이다. 더구나 적절한 대응물은 사용될 수 있거나 다양한 구성요소에 더하여 함수와 그러한 대응물의 사용 또는 부가적인 구성요소는 당업자에게 정통하도록 기술되고 그러므로 공개발명 범위내로 여겨 진다. 예를 들어, 묘사되기 전 구상의 각각은 약한 분리가능한 단계함수의 경우를 위해 주로 언급되고 다른 단계 함수를 제공하는 다른 WFC 요소는 태스크-베이스 이미징 시스템에 사용될 수 있고, WFC 없이 현재 이용가능한 태스크-베이스 이미징 시스템 상의 진보를 여전히 제공한다.
그러므로, 본 실시예들은 설명을 위한 것이며 한정되지 않도록 고려되어야 하고, 본 개시(발명)는 기재된 세부사항으로 제한되는 것은 아니고 첨부된 청구 범위 내에서 변경될 수도 있다.

Claims (40)

  1. 삭제
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 삭제
  7. 삭제
  8. 삭제
  9. 삭제
  10. 삭제
  11. 삭제
  12. 삭제
  13. 삭제
  14. 삭제
  15. 삭제
  16. 삭제
  17. 태스크-기반의 이미징 시스템의 탐색기에 의해 포획된 장면의 출력 이미지 생성 방법으로서, 상기 탐색기는 복수의 화소를 포함하며, 상기 장면은 촬영 거리의 범위 내에 주어진 촬영 거리에 위치된 적어도 하나의 피사체를 포함하고, 상기 촬영 거리는 상기 피사체와 상기 태스크-기반의 이미징 시스템 사이의 거리로 정의되며, 상기 방법은,
    공간 주파수의 범위에 걸쳐 상기 장면의 고해상도 이미지를 포획하는 단계와;
    상기 고해상도 이미지를 상기 장면의 이미지 스펙트럼으로 변환하는 단계와;
    상기 촬영 거리의 범위에 걸쳐 상기 태스크-기반의 이미징 시스템의 초점이 흐려진 OTF(optical transfer function: 광학적 전달 함수)를 결정하는 단계와;
    상기 탐색기의 복수의 화소의 범위에 걸쳐 화소 MTF(modulation transfer function: 변조 전달 함수)를 결정하는 단계와;
    상기 장면의 변경된 이미지 스펙트럼을 생성하기 위하여 상기 OTF 및 상기 MTF를 바탕으로 상기 이미지 스펙트럼을 증폭하는 단계와;
    상기 변경된 이미지 스펙트럼을 상기 장면의 변경된 이미지로 변환하는 단계; 및
    상기 변경된 이미지로부터 출력 이미지를 생성하는 단계를 포함하는 것을 특징으로 하는 태스크-기반의 이미징 시스템의 탐색기에 의해 포획된 장면의 출력 이미지 생성 방법.
  18. 제17항에 있어서,
    상기 출력 이미지를 생성하는 단계는 상기 변경된 이미지로부터 크기가 재조정된 이미지를 형성하는 단계와, 상기 크기가 재조정된 이미지로부터 상기 출력 이미지를 형성하는 단계를 포함하는 것을 특징으로 하는 태스크-기반의 이미징 시스템의 탐색기에 의해 포획된 장면의 출력 이미지 생성 방법.
  19. 제18항에 있어서,
    상기 크기가 재조정된 이미지를 형성하는 단계는 주어진 촬영 거리에 따라, 상기 변경된 이미지를 최종 해상도로 다운-샘플링하는 단계를 포함하는 것을 특징으로 하는 태스크-기반의 이미징 시스템의 탐색기에 의해 포획된 장면의 출력 이미지 생성 방법.
  20. 제19항에 있어서,
    상기 다운-샘플링 단계는 저역 통과 필터링 없이 상기 변경된 이미지의 크기를 재조정하는 단계를 포함하는 것을 특징으로 하는 태스크-기반의 이미징 시스템의 탐색기에 의해 포획된 장면의 출력 이미지 생성 방법.
  21. 제19항에 있어서,
    상기 다운-샘플링 단계는,
    주어진 다운-샘플링 원점 및 다운-샘플링 주기에 대하여 상기 변경된 이미지를 처리하는 단계와;
    상기 다운-샘플링 주기 내의 다운-샘플링 원점을 변경함으로써 상기 크기가 재조정된 이미지의 다수의 위신호(僞信號) 변형물을 생성하는 단계를 포함하는 것을 특징으로 하는 태스크-기반의 이미징 시스템의 탐색기에 의해 포획된 장면의 출력 이미지 생성 방법.
  22. 제18항에 있어서,
    상기 탐색기는 산탄 잡음(shot noise) 및 판독 잡음(read noise) 특성을 갖고, 상기 출력 이미지를 형성하는 단계는 상기 산탄 잡음 및 상기 판독 잡음 특성 중의 적어도 하나를 상기 크기가 재조정된 이미지에 부가하는 단계를 포함하는 것을 특징으로 하는 태스크-기반의 이미징 시스템의 탐색기에 의해 포획된 장면의 출력 이미지 생성 방법.
  23. 제18항에 있어서,
    상기 크기가 재조정된 이미지는 적어도 하나의 경계선을 포함하고, 상기 경계선을 복제함으로써 상기 크기가 재조정된 이미지를 패딩(padding)하여 원하는 이미지 크기를 갖는 패딩된 이미지를 생성하는 단계를 포함하는 것을 특징으로 하는 태스크-기반의 이미징 시스템의 탐색기에 의해 포획된 장면의 출력 이미지 생성 방법.
  24. 제17항에 있어서,
    상기 출력 이미지를 필터 커널(kernel)로 필터링하여, 필터링된 이미지를 생성하는 단계를 더 포함하는 것을 특징으로 하는 태스크-기반의 이미징 시스템의 탐색기에 의해 포획된 장면의 출력 이미지 생성 방법.
  25. 제17항에 있어서,
    상기 출력 이미지로부터, 상기 장면에 걸쳐 SNR을 계산하는 단계와;
    상기 출력 이미지에서의 SNR이 상기 초점이 흐려진 OTF의 변경이 없는 상기 출력 이미지로부터 계산된 SNR보다 더 크도록 상기 이미징 시스템의 초점이 흐려진 OTF를 변경하는 단계를 더 포함하는 것을 특징으로 하는 태스크-기반의 이미징 시스템의 탐색기에 의해 포획된 장면의 출력 이미지 생성 방법.
  26. 제25항에 있어서,
    평균 SNR을 생성을 생성하도록, 상기 장면을 망라하는 방위 범위에 걸쳐 상기 SNR을 평균하는 단계와;
    상기 출력 이미지에서의 평균 SNR이 상기 초점이 흐려진 OTF의 변경이 없는 상기 출력 이미지로부터 계산된 평균 SNR보다 더 크도록 상기 초점이 흐려진 OTF를 변경하는 단계를 더 포함하는 것을 특징으로 하는 태스크-기반의 이미징 시스템의 탐색기에 의해 포획된 장면의 출력 이미지 생성 방법.
  27. 제26항에 있어서,
    상기 SNR을 평균하는 단계는 상기 장면에 걸쳐 가중 평균 SNR을 계산하는 단계를 포함하는 것을 특징으로 하는 태스크-기반의 이미징 시스템의 탐색기에 의해 포획된 장면의 출력 이미지 생성 방법.
  28. 제27항에 있어서,
    상기 가중 평균 SNR을 계산하는 단계는 신호 강도에 있어서의 저하와 주어진 촬영 거리의 함수로서의 부조화의 이미징 시스템 변조에 있어서의 저하 중에서 선택된 적어도 하나에 따라 상기 SNR의 가중 인자(weighting factor)를 변경하는 단계를 포함하는 것을 특징으로 하는 태스크-기반의 이미징 시스템의 탐색기에 의해 포획된 장면의 출력 이미지 생성 방법.
  29. 제27항에 있어서,
    상기 촬영 거리의 범위에서 최소 촬영 거리 값 및 최대 촬영 거리 값에 대하여 계산된 SNR이 동일해지는 것에 상응하는 지점에 상기 태스크-기반의 이미징 시스템의 초점을 세팅하는 단계를 더 포함하는 것을 특징으로 하는 태스크-기반의 이미징 시스템의 탐색기에 의해 포획된 장면의 출력 이미지 생성 방법.
  30. 제26항에 있어서,
    상기 초점이 흐려진 OTF를 변경하는 단계는 다음과 같은 동공 함수의 형태를 초래하는 상기 태스크-기반의 이미징 시스템을 변경하는 단계를 포함하는 것을 특징으로 하는 태스크-기반의 이미징 시스템의 탐색기에 의해 포획된 장면의 출력 이미지 생성 방법.
    Figure 112008027941106-pct00008
    (여기서, x와 y는 정상화된 공간 좌표이고, α(i,j)는 다음과 같은 수식 관계를 갖는 지수 i 및 j에 대한 동공 함수 계수들을 나타낸다.
    Figure 112008027941106-pct00009
    여기서, r은 동공 입구의 반경을 나타내고, 상기 동공 함수 계수들 α(i,j) 중의 적어도 하나는 지수 i 및 j 중의 적어도 하나가 0(zero)일 때 적어도 1의 값을 갖는다.)
  31. 제17항에 있어서,
    생체 측정학적으로 측정학적 홍채 인식, 생체 측정학적으로 측정학적 얼굴 인식, 접근 제어를 위한 생체 측정학적으로 측정학적 인식, 징후 확인을 위한 생체 측정학적으로 측정학적 인식, 바코드 판독, 조립 라인에서의 품질 제어를 위한 이미징, 광학적 문자 인식, 생물학적 이미징, 피사체 탐색을 위한 자동 이미징 중의 적어도 하나로서 선택된 태스크를 수행하기 위해 상기 출력 이미지를 후-처리하는 단계를 더 포함하는 것을 특징으로 하는 태스크-기반의 이미징 시스템의 탐색기에 의해 포획된 장면의 출력 이미지 생성 방법.
  32. 삭제
  33. 삭제
  34. 삭제
  35. 삭제
  36. 삭제
  37. 삭제
  38. 삭제
  39. 삭제
  40. 삭제
KR1020087009424A 2005-09-19 2008-04-18 태스크-기반의 이미징 시스템 KR101265377B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US71852205P 2005-09-19 2005-09-19
US60/718522 2005-09-19
US77971206P 2006-03-06 2006-03-06
US60/779712 2006-03-06
PCT/US2006/036556 WO2008008084A2 (en) 2005-09-19 2006-09-19 Task-based imaging systems

Publications (2)

Publication Number Publication Date
KR20080049121A KR20080049121A (ko) 2008-06-03
KR101265377B1 true KR101265377B1 (ko) 2013-05-20

Family

ID=38792029

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020087009424A KR101265377B1 (ko) 2005-09-19 2008-04-18 태스크-기반의 이미징 시스템

Country Status (7)

Country Link
US (1) US8144208B2 (ko)
EP (3) EP2328007B1 (ko)
JP (1) JP5033802B2 (ko)
KR (1) KR101265377B1 (ko)
CN (2) CN102147853B (ko)
IL (1) IL190083A0 (ko)
WO (1) WO2008008084A2 (ko)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007103944A2 (en) 2006-03-06 2007-09-13 Cdm Optics, Inc. Zoom lens systems with wavefront coding
US20090060286A1 (en) * 2007-09-04 2009-03-05 General Electric Company Identification system and method utilizing iris imaging
WO2009124181A2 (en) * 2008-04-02 2009-10-08 Oblong Industries, Inc. Gesture based control using three-dimensional information extracted over an extended depth of field
EP2175632A1 (en) 2008-10-10 2010-04-14 Samsung Electronics Co., Ltd. Image processing apparatus and method
US8633969B2 (en) 2011-02-09 2014-01-21 Omnivision Technologies, Inc. Apparatus and method for three-dimensional image capture with extended depth of field
FR2977962B1 (fr) 2011-07-13 2013-07-26 Thales Sa Systeme optique a codage de pupille asservi
WO2013162907A2 (en) * 2012-04-23 2013-10-31 Aoptix Technologies, Inc. Handheld iris manager
US20130342694A1 (en) * 2012-06-25 2013-12-26 Tandent Vision Science, Inc. Method and system for use of intrinsic images in an automotive driver-vehicle-assistance device
US8958608B2 (en) 2013-06-04 2015-02-17 Ut-Battelle, Llc Frontal view reconstruction for iris recognition
JP6221399B2 (ja) * 2013-06-21 2017-11-01 株式会社リコー 撮像システムおよび結像光学系および撮像システムの製造方法
DE102014009890A1 (de) * 2014-07-04 2016-01-07 Drägerwerk AG & Co. KGaA Vorrichtung für einen Impedanztomographen
US9495590B1 (en) * 2015-04-23 2016-11-15 Global Bionic Optics, Ltd. Extended depth-of-field biometric system
US9811729B2 (en) 2015-05-12 2017-11-07 Ut-Battelle, Llc Iris recognition via plenoptic imaging
DE102017108873A1 (de) * 2017-04-26 2018-10-31 Carl Zeiss Microscopy Gmbh Phasenkontrast-Bildgebung mit Übertragungsfunktion
CN107403149A (zh) * 2017-07-17 2017-11-28 广东欧珀移动通信有限公司 虹膜识别方法及相关产品
WO2019067193A1 (en) * 2017-09-28 2019-04-04 Apple Inc. NOCTURNAL DETECTION
JP6913173B2 (ja) * 2017-09-29 2021-08-04 富士フイルム株式会社 投影装置および投影方法
CN108073783B (zh) * 2017-12-06 2021-06-15 中国科学院上海技术物理研究所 一种基于测量数据的自适应智能光学载荷实现方法
US10755135B2 (en) * 2018-09-23 2020-08-25 Paulo Eduardo Xavier da Silveira Computational imaging device and method for improved corner detection
CN112329765B (zh) * 2020-10-09 2024-05-24 中保车服科技服务股份有限公司 文本检测的方法及装置、存储介质及计算机设备

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030127584A1 (en) 1995-02-03 2003-07-10 Dowski Edward Raymond Wavefront coding zoom lens imaging systems

Family Cites Families (92)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4837451A (en) * 1987-08-26 1989-06-06 The Boeing Company Ring array imaging system
KR920007919B1 (ko) * 1988-06-27 1992-09-19 미쯔비시 덴끼 가부시기가이샤 텔레비젼 전화기
US4938596A (en) * 1989-01-05 1990-07-03 The University Of Rochester Phase conjugate, common path interferometer
US5002380A (en) * 1989-03-16 1991-03-26 Trw Inc. Phase corrector for large optical systems
US5221834A (en) * 1991-06-28 1993-06-22 Eastman Kodak Company Method for providing feedback correction for an imaging device
US5291560A (en) * 1991-07-15 1994-03-01 Iri Scan Incorporated Biometric personal identification system based on iris analysis
US5168375A (en) * 1991-09-18 1992-12-01 Polaroid Corporation Image reconstruction by use of discrete cosine and related transforms
US5179273A (en) 1992-05-29 1993-01-12 Eastman Kodak Company Method for testing or controlling a performance of an adaptive optic
US5760834A (en) * 1992-09-30 1998-06-02 Lsi Logic Electronic camera with binary lens element array
JPH06310400A (ja) * 1993-04-12 1994-11-04 Svg Lithography Syst Inc 軸上マスクとウェーハ直線配列システム
US5521695A (en) * 1993-06-25 1996-05-28 The Regents Of The University Of Colorado Range estimation apparatus and method
US5870179A (en) * 1993-06-25 1999-02-09 The Regents Of The University Of Colorado Apparatus and method for estimating range
JP3351046B2 (ja) * 1993-09-22 2002-11-25 ソニー株式会社 レーザ製版装置
US5710839A (en) * 1994-04-20 1998-01-20 Eastman Kodak Company Method and apparatus for obscuring features of an image
US5828867A (en) * 1994-08-04 1998-10-27 Lucent Technologies Inc. Method for discrete digital event simulation
US5555128A (en) * 1994-10-04 1996-09-10 The United States Of America As Represented By The Secretary Of The Air Force Phase coding technique for one-way image transmission through an aberrating medium
US5515206A (en) * 1994-11-15 1996-05-07 Gentle Peng Multi-facet lens component
US6154879A (en) * 1994-11-28 2000-11-28 Smarttouch, Inc. Tokenless biometric ATM access system
JP3275010B2 (ja) * 1995-02-03 2002-04-15 ザ・リジェンツ・オブ・ザ・ユニバーシティ・オブ・コロラド 拡大された被写界深度を有する光学システム
US20030057353A1 (en) * 2001-07-20 2003-03-27 Dowski Edward Raymond Wavefront coding zoom lens imaging systems
US7218448B1 (en) * 1997-03-17 2007-05-15 The Regents Of The University Of Colorado Extended depth of field optical systems
US20020118457A1 (en) 2000-12-22 2002-08-29 Dowski Edward Raymond Wavefront coded imaging systems
US5610707A (en) * 1995-07-07 1997-03-11 Lockheed Missiles & Space Co., Inc. Wavefront sensor for a staring imager
US6433818B1 (en) * 1998-11-06 2002-08-13 Fotonation, Inc. Digital camera with biometric security
US5751340A (en) * 1996-08-21 1998-05-12 Karl Storz Gmbh & Co. Method and apparatus for reducing the inherently dark grid pattern from the video display of images from fiber optic bundles
US5872834A (en) * 1996-09-16 1999-02-16 Dew Engineering And Development Limited Telephone with biometric sensing device
US5963532A (en) * 1998-01-21 1999-10-05 Terastor Corporation Polarization rotation and phase compensation in near-field electro-optical system
US6021005A (en) 1998-01-09 2000-02-01 University Technology Corporation Anti-aliasing apparatus and methods for optical imaging
US6178360B1 (en) * 1998-02-05 2001-01-23 Micron Technology, Inc. Methods and apparatus for determining optimum exposure threshold for a given photolithographic model
US6183693B1 (en) * 1998-02-27 2001-02-06 Cytologix Corporation Random access slide stainer with independent slide heating regulation
AU3779299A (en) 1998-05-01 1999-11-23 University Technology Corporation Extended depth of field optical systems
US6052524A (en) * 1998-05-14 2000-04-18 Software Development Systems, Inc. System and method for simulation of integrated hardware and software components
US6069738A (en) * 1998-05-27 2000-05-30 University Technology Corporation Apparatus and methods for extending depth of field in image projection systems
US6107617A (en) * 1998-06-05 2000-08-22 The United States Of America As Represented By The Secretary Of The Air Force Liquid crystal active optics correction for large space based optical systems
US6097856A (en) * 1998-07-10 2000-08-01 Welch Allyn, Inc. Apparatus and method for reducing imaging errors in imaging systems having an extended depth of field
US6532298B1 (en) * 1998-11-25 2003-03-11 Iridian Technologies, Inc. Portable authentication device and method using iris patterns
US6179273B1 (en) * 1999-03-15 2001-01-30 Highway Plastics, Llc Injection-molded block-out spacer
US6343307B1 (en) * 1999-03-26 2002-01-29 Civcom Inc. Synthesis of light beams
JP2000307715A (ja) 1999-04-23 2000-11-02 Nec Corp 携帯電話装置のセキュリティシステム及び方法
WO2000072267A1 (en) 1999-05-19 2000-11-30 Lenslet, Ltd. Image compression
CN1148150C (zh) * 1999-07-30 2004-05-05 中国科学院光电技术研究所 自适应光学视网膜成像系统(1)
US6813593B1 (en) * 1999-11-17 2004-11-02 Rafael-Armament Development Authority Ltd. Electro-optical, out-door battle-field simulator based on image processing
US7412604B1 (en) 2000-03-28 2008-08-12 International Business Machines Corporation Using biometrics on pervasive devices for mobile identification
JP2001333171A (ja) 2000-05-24 2001-11-30 Fyuutorekku:Kk カメラ付携帯電話
AU2001266878A1 (en) 2000-06-16 2002-01-02 University Technology Corporation Methods and apparatus for increasing resolution in digital imaging systems by offsetting pixels
US6417950B1 (en) 2000-08-28 2002-07-09 University Technology Corporation Three-color imaging on each pixel for increased resolution
US6536898B1 (en) 2000-09-15 2003-03-25 The Regents Of The University Of Colorado Extended depth of field optics for human vision
JP2002139666A (ja) * 2000-11-02 2002-05-17 Fuji Photo Optical Co Ltd 光学系の最適化方法および装置、ならびに光学系の最適化用プログラムを記録した記録媒体
US6873733B2 (en) 2001-01-19 2005-03-29 The Regents Of The University Of Colorado Combined wavefront coding and amplitude contrast imaging systems
US6642504B2 (en) * 2001-03-21 2003-11-04 The Regents Of The University Of Colorado High speed confocal microscope
JP4748343B2 (ja) * 2001-04-26 2011-08-17 大日本印刷株式会社 ウエーハ転写検証方法
JP2002330318A (ja) * 2001-04-27 2002-11-15 Matsushita Electric Ind Co Ltd 携帯端末装置
US6912330B2 (en) * 2001-05-17 2005-06-28 Sioptical Inc. Integrated optical/electronic circuits and associated methods of simultaneous generation thereof
US6525302B2 (en) 2001-06-06 2003-02-25 The Regents Of The University Of Colorado Wavefront coding phase contrast imaging systems
IL159677A0 (en) 2001-07-06 2004-06-20 Explay Ltd An image projecting device and method
WO2003007538A1 (en) 2001-07-12 2003-01-23 Icontrol Transactions, Inc. Operating model for mobile wireless network based transaction authentication and non-repudiation
ATE447216T1 (de) * 2001-07-12 2009-11-15 Do Labs Verfahren und system zur verringerung der aktualisierungs-häufigkeit
US6842297B2 (en) 2001-08-31 2005-01-11 Cdm Optics, Inc. Wavefront coding optics
IL145245A0 (en) 2001-09-03 2002-06-30 Jtc 2000 Dev Delaware Inc System and method including vector-matrix multiplication
JP2003110695A (ja) 2001-09-28 2003-04-11 Matsushita Electric Ind Co Ltd 携帯電話機及びその認証方法
AUPR818901A0 (en) * 2001-10-10 2001-11-01 Vpisystems Optical error simulation system
US20030105104A1 (en) * 2001-11-27 2003-06-05 Burzynski Stanislaw R. Formulation of amino acids and riboflavin useful to reduce toxic effects of cytotoxic chemotherapy
AU2002357321A1 (en) * 2001-12-18 2003-06-30 University Of Rochester Multifocal aspheric lens obtaining extended field depth
US6674519B2 (en) * 2001-12-21 2004-01-06 Northrop Grumman Corporation Optical phase front measurement unit
AU2003213651A1 (en) * 2002-02-27 2003-09-09 Cdm Optics, Inc. Optimized image processing for wavefront coded imaging systems
JP2003284141A (ja) 2002-03-20 2003-10-03 Fuji Photo Film Co Ltd 携帯通信端末用認証装置
US7113203B1 (en) * 2002-05-07 2006-09-26 Magna Chip Semiconductor, Ltd. Method and system for single-chip camera
US6850372B1 (en) * 2002-06-18 2005-02-01 Raytheon Company Orthogonal movement lateral shift zoom lens
US7031054B2 (en) * 2002-10-09 2006-04-18 The Regent Of The University Of Colorado Methods and systems for reducing depth of field of hybrid imaging systems
WO2004063989A2 (en) 2003-01-16 2004-07-29 D-Blur Technologies Ltd. Camera with image enhancement functions
US7550701B2 (en) * 2003-02-25 2009-06-23 Omnivision Cdm Optics, Inc. Non-linear wavefront coding systems and methods
US7180673B2 (en) * 2003-03-28 2007-02-20 Cdm Optics, Inc. Mechanically-adjustable optical phase filters for modifying depth of field, aberration-tolerance, anti-aliasing in optical systems
JP4565192B2 (ja) * 2003-03-31 2010-10-20 オムニビジョン テクノロジーズ, インコーポレイテッド 画像システムにおける収差を生じる影響を最小化するための、システムおよび方法
EP1627526A1 (en) * 2003-05-13 2006-02-22 Xceed Imaging Ltd. Optical method and system for enhancing image resolution
JP4749332B2 (ja) * 2003-05-30 2011-08-17 オムニビジョン テクノロジーズ, インコーポレイテッド 拡大された焦点深度を有するリソグラフィックシステムおよび方法
JP2007524110A (ja) * 2003-06-20 2007-08-23 オプティクス ワン,インコーポレーテッド マルチ位相コンタクトレンズ優先権主張本出願は、2003年6月20日に出願された米国仮特許出願第60/480,299号に基づき優先権を主張し、その特許内容を本願明細書に援用する。背景情報
JP2005063077A (ja) 2003-08-08 2005-03-10 R & D Associates:Kk 個人認証方法、個人認証装置及びコネクタ
US20050049843A1 (en) * 2003-08-29 2005-03-03 Lee Hewitt Computerized extension apparatus and methods
US8254714B2 (en) * 2003-09-16 2012-08-28 Wake Forest University Methods and systems for designing electromagnetic wave filters and electromagnetic wave filters designed using same
EP1692558A2 (en) * 2003-12-01 2006-08-23 CDM Optics, Inc. System and method for optimizing optical and digital system designs
US20080231966A1 (en) * 2004-01-30 2008-09-25 Koninklijke Philips Electronic, N.V. Variable Lens System
KR101145972B1 (ko) * 2004-06-23 2012-05-22 시옵티컬 인코포레이티드 모놀리식 실리콘 기반 광전자 회로의 설계, 시뮬레이션, 및검증에 대한 집적 접근
US7365917B2 (en) * 2004-08-16 2008-04-29 Xceed Imaging Ltd. Optical method and system for extended depth of focus
US7061693B2 (en) * 2004-08-16 2006-06-13 Xceed Imaging Ltd. Optical method and system for extended depth of focus
EP1812968B1 (en) * 2004-08-25 2019-01-16 Callahan Cellular L.L.C. Apparatus for multiple camera devices and method of operating same
US7336430B2 (en) 2004-09-03 2008-02-26 Micron Technology, Inc. Extended depth of field using a multi-focal length lens with a controlled range of spherical aberration and a centrally obscured aperture
US20060204861A1 (en) 2005-03-14 2006-09-14 Eyal Ben-Eliezer Optical mask for all-optical extended depth-of-field for imaging systems under incoherent illumination
WO2006102201A1 (en) 2005-03-18 2006-09-28 Cdm Optics, Inc. Imaging systems with pixelated spatial light modulators
US7576791B2 (en) * 2005-04-20 2009-08-18 The United States Of America As Represented By The Secretary Of The Army Method and apparatus for signature reduction using wavefront coding
US20070102622A1 (en) * 2005-07-01 2007-05-10 Olsen Richard I Apparatus for multiple camera devices and method of operating same
EP1933694B1 (en) * 2005-10-10 2020-07-22 Tobii AB Eye tracker having an extended span of operating distances
US8190406B2 (en) 2008-11-26 2012-05-29 Microsoft Corporation Hybrid solver for data-driven analytics

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030127584A1 (en) 1995-02-03 2003-07-10 Dowski Edward Raymond Wavefront coding zoom lens imaging systems

Also Published As

Publication number Publication date
EP2328007A1 (en) 2011-06-01
JP5033802B2 (ja) 2012-09-26
WO2008008084A2 (en) 2008-01-17
CN101288013A (zh) 2008-10-15
US8144208B2 (en) 2012-03-27
US20100272327A1 (en) 2010-10-28
WO2008008084A3 (en) 2008-04-17
EP2328006A1 (en) 2011-06-01
CN102147853A (zh) 2011-08-10
CN102147853B (zh) 2013-01-09
EP1927025A2 (en) 2008-06-04
EP2328006B1 (en) 2014-08-06
IL190083A0 (en) 2008-08-07
JP2009512882A (ja) 2009-03-26
CN101288013B (zh) 2010-12-08
EP2328007B1 (en) 2014-12-24
KR20080049121A (ko) 2008-06-03

Similar Documents

Publication Publication Date Title
KR101265377B1 (ko) 태스크-기반의 이미징 시스템
US8760516B2 (en) Task-based imaging systems
CN101681021B (zh) 大景深成像系统和虹膜识别系统
US20090304237A1 (en) Biometric Authentication Apparatus
US9536127B2 (en) Apparatus and method for contactless high resolution handprint capture
US10460167B2 (en) Extended depth-of-field biometric system
US20160019421A1 (en) Multispectral eye analysis for identity authentication
Raghavendra et al. Exploring the usefulness of light field cameras for biometrics: An empirical study on face and iris recognition
US20160019420A1 (en) Multispectral eye analysis for identity authentication
US8917346B2 (en) Focus error estimation in images
JP2007513427A (ja) 光学システムおよびデジタルシステムの設計を最適化するシステムおよび方法
KR20070107655A (ko) 3d 지문 인식을 위한 비접촉 광학 수단 및 방법
Park et al. Multispectral iris authentication system against counterfeit attack using gradient-based image fusion
Ritt et al. Protection performance evaluation regarding imaging sensors hardened against laser dazzling
US10096113B2 (en) Method for designing a passive single-channel imager capable of estimating depth of field
Cossairt Tradeoffs and limits in computational imaging
CN114189623B (zh) 基于光场的屈光图形生成方法、装置、设备及存储介质
Yoon et al. Nonintrusive iris image acquisition system based on a pan-tilt-zoom camera and light stripe projection
Kowalski et al. Face recognition in the thermal infrared domain
US20240137632A1 (en) ENGINEERED POINT SPREAD FUNCTION (ePSF) OBJECTIVE LENSES
He et al. Optimization of phase mask-based iris imaging system through the optical characteristics
KR100356600B1 (ko) 열공 및/또는 자율신경환의 형태에 의한 홍채인식방법
Yu et al. Beijing, China
Kim et al. Improved iris localization by using wide and narrow field of view cameras for iris recognition
Genovese et al. Application and Experimental Evaluation of Methods

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160330

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170330

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180329

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190327

Year of fee payment: 7