KR102024949B1 - Efficient method and system for the acquisition of scene imagery and iris imagery using a single sensor - Google Patents
Efficient method and system for the acquisition of scene imagery and iris imagery using a single sensor Download PDFInfo
- Publication number
- KR102024949B1 KR102024949B1 KR1020137024678A KR20137024678A KR102024949B1 KR 102024949 B1 KR102024949 B1 KR 102024949B1 KR 1020137024678 A KR1020137024678 A KR 1020137024678A KR 20137024678 A KR20137024678 A KR 20137024678A KR 102024949 B1 KR102024949 B1 KR 102024949B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- iris
- noise
- sensor
- noise reduction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/20—Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming only infrared radiation into image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/60—Noise processing, e.g. detecting, correcting, reducing or removing noise
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/70—SSIS architectures; Circuits associated therewith
- H04N25/76—Addressed sensors, e.g. MOS or CMOS sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Image Input (AREA)
Abstract
본 개시는 단일 이미지 센서를 이용하여 홍채 및 장면의 이미지들을 캡처하기 위한 방법들 및 시스템들에 관한 것이다. 이미지 센서는 적어도 하나의 이미지 내에서 장면의 뷰 및 홍채의 뷰를 캡처할 수 있다. 이미지 처리 모듈은 적어도 하나의 이미지의 제1 부분에 잡음 감소의 레벨을 적용하여 장면의 이미지를 생성할 수 있다. 이미지 처리 모듈은 적어도 하나의 이미지의 제2 부분에 감소된 잡음 감소의 레벨을 적용하여 생체 식별에 사용할 홍채의 이미지를 생성할 수 있다.The present disclosure relates to methods and systems for capturing images of an iris and a scene using a single image sensor. The image sensor may capture a view of the scene and a view of the iris within the at least one image. The image processing module may generate an image of the scene by applying a level of noise reduction to the first portion of the at least one image. The image processing module may apply the level of reduced noise reduction to the second portion of the at least one image to generate an image of the iris for use in biometric identification.
Description
본 출원은 2011년 2월 17일자로 출원된 "Method and System for Iris Recognition and Face Acquisition"이라는 제목의 미국 특허 가출원 제61/443,757호 및 2011년 4월 6일자로 출원된 "Efficient Method and System for the Acquisition of Scene Imagery and Iris Imagery using a Single Sensor"라는 제목의 미국 특허 가출원 제61/472,279호에 대한 우선권의 이익을 주장하며, 이들 양 출원은 모든 목적을 위해 그 전체가 본 명세서에 참고로 포함된다.This application is filed on February 17, 2011, entitled "Method and System for Iris Recognition and Face Acquisition," US Provisional Application No. 61 / 443,757 and filed April 6, 2011, "Efficient Method and System for Claims the benefit of priority to US Provisional Application No. 61 / 472,279 entitled "The Acquisition of Scene Imagery and Iris Imagery using a Single Sensor", both of which are hereby incorporated by reference in their entirety for all purposes. do.
본 발명은 이미지 처리 기술에 관한 것으로서, 더 구체적으로는, 단일 센서를 이용하여 장면 이미지 및 홍채 이미지를 획득하기 위한 효율적인 시스템 및 방법에 관한 것이다.TECHNICAL FIELD The present invention relates to image processing techniques, and more particularly, to an efficient system and method for acquiring scene images and iris images using a single sensor.
통상적으로, 생체 인식 시스템들은 해당 생체 타입의 특정 제약들을 고려함으로써 최적의 이미지들을 획득하도록 설계된다. 다른 데이터(예로서, 얼굴 또는 배경 이미지)가 획득되어야 하는 경우, 통상적으로 상이한 센서들이 사용되는데, 이는 상이한 이미지 타입들에 대한 요구사항들이 매우 상이하기 때문이다. 그러나, 그러한 접근법은 전체 솔루션에 비용을 추가하며, 또한 시스템의 크기 또는 풋프린트(footprint)를 증가시킬 수 있다.Typically, biometric systems are designed to obtain optimal images by considering specific constraints of the biometric type. If other data (eg a face or background image) is to be obtained, different sensors are typically used because the requirements for different image types are very different. However, such an approach adds cost to the overall solution and can also increase the size or footprint of the system.
Adam 등의 미국 특허 공개 20060050933은 하나의 센서를 이용하여 얼굴 및 홍채 인식에 사용할 데이터를 획득하는 문제를 해결하려고 시도하지만, 얼굴 및 홍채 인식 컴포넌트들 각각에 대해 획득되는 데이터가 개별적으로 최적이 되도록 이미지 획득을 최적화하는 문제를 해결하지 못한다.U.S. Patent Publication 20060050933 by Adam et al. Attempts to solve the problem of acquiring data for use in face and iris recognition using a single sensor, but the image is obtained so that the data obtained for each of the face and iris recognition components is individually optimal. It does not solve the problem of optimizing the acquisition.
Determan 등의 미국 특허 공개 20080075334 및 Saitoh 등의 미국 특허 공개 20050270386은 얼굴용 개별 센서 및 홍채용 개별 센서를 이용하여 인식을 위한 얼굴 및 홍채 이미지를 획득하는 것을 개시하고 있다. Saitoh는 얼굴 및 홍채 이미지를 이용하여 홍채의 위치를 식별하는 단계를 포함하는 홍채 인식을 수행하기 위한 방법을 설명하고 있지만, 얼굴 및 홍채 각각 상에 개별적으로 포커스되는 2개의 개별 센서를 사용하고 데이터를 동시에 획득하므로, 사용자 모션은 무관하다.US Patent Publication 20080075334 by Determan et al. And US Patent Publication 20050270386 by Saitoh et al. Disclose the acquisition of facial and iris images for recognition using individual sensors for faces and individual sensors for irises. Saitoh describes a method for performing iris recognition, which includes identifying the position of the iris using face and iris images, but using two separate sensors that are individually focused on each of the face and iris and displaying the data. Acquiring at the same time, user motion is irrelevant.
Determan 등의 미국 특허 공개 20080075334는 또한 얼굴 및 홍채 양자에 대해 하나의 센서를 사용하는 것을 논의하고 있지만, 얼굴 및 홍채 인식 컴포넌트들 각각에 대해 획득되는 데이터가 개별적으로 최적이 되도록 이미지 획득을 최적화하는 문제를 해결하지 못한다.U.S. Patent Publication 20080075334 by Determan et al. Also discusses the use of one sensor for both face and iris, but the problem of optimizing image acquisition such that the data obtained for each of the face and iris recognition components is individually optimal. Does not solve.
Jacobson 등의 미국 특허 공개 20070206840은 또한 얼굴 및 홍채의 이미지를 획득하는 것을 포함하는 시스템을 설명하고 있지만, 얼굴 및 홍채 인식 컴포넌트들 각각에 대해 획득되는 데이터가 개별적으로 최적이 되도록 이미지 획득을 최적화하는 문제를 해결하지 못하며, 작은 크기의 시스템을 얻을 수 있는 방법을 다루고 있지 않다.US Patent Publication 20070206840 to Jacobson et al. Also describes a system that includes acquiring images of faces and irises, but the problem of optimizing image acquisition such that the data obtained for each of the face and iris recognition components is individually optimal. It does not solve the problem, and does not cover how to get a smaller system size.
특정한 양태들에서, 단일 센서를 이용하여, 생체 식별을 위한 홍채의 고품질 이미지, 및 사람의 얼굴과 같은 임의의 다른 장면의 고품질 픽처를 획득하기 위한 방법들 및 시스템들이 본 명세서에서 설명된다. 이러한 시스템들 및 방법들의 실시예들은 홍채를 이용하는 생체 인식을 이용하여 개개인의 신원을 판정 또는 검증하는 목적을 위해서는 물론, 얼굴들 및 장소들과 같은 장면들의 일반 이미지를 획득하는 목적을 위해 단일 센서를 이용하여 이미지가 획득되게 하는 데 이용될 수 있다. 후자 타입의 이미지는 통상적으로 예를 들어 이동 전화 사용자에 의해 획득될 수 있다. 따라서, 개시되는 방법들 및 시스템들은 이동 및/또는 소형 장치들 내에 통합될 수 있다. 센서는 CMOS(Complementary Metal Oxide Semiconductor) 센서 또는 또 다른 적절한 타입의 이미지 캡처 장치일 수 있다. 방법들 및 시스템들은 2개의 획득 모드, 예컨대 홍채 이미지 획득 모드 및 픽처(예로서, 비-홍채(non-iris)) 획득 모드에서 거의 최적이 되도록 조건들을 설정하거나 조정할 수 있다. 일부 실시예들에서, 예를 들어 장치 내에 구현되는, 그러한 이미지들을 획득하기 위한 시스템들은 예를 들어 다수의 센서를 이용하는 장치들에 비해 상당히 축소된 물리적 크기 또는 풋프린트를 가질 수 있다.In certain aspects, methods and systems are described herein for using a single sensor to obtain a high quality image of an iris for biometric identification, and a high quality picture of any other scene, such as a human face. Embodiments of these systems and methods employ a single sensor for the purpose of determining or verifying an individual's identity using biometrics using iris, as well as for obtaining a general image of scenes such as faces and places. Can be used to cause an image to be acquired. The latter type of image can typically be obtained by, for example, a mobile phone user. Thus, the disclosed methods and systems may be integrated into mobile and / or small devices. The sensor may be a complementary metal oxide semiconductor (CMOS) sensor or another suitable type of image capture device. The methods and systems can set or adjust conditions to be nearly optimal in two acquisition modes, such as an iris image acquisition mode and a picture (eg, non-iris) acquisition mode. In some embodiments, systems for obtaining such images, eg implemented within a device, may have a significantly reduced physical size or footprint compared to devices using multiple sensors, for example.
하나의 양태에서, 본 개시는 단일 이미지 센서를 이용하여 홍채 및 장면의 이미지들을 획득하는 방법을 설명한다. 이 방법은 이미지 센서에 의해 적어도 하나의 이미지 내에서 장면의 뷰(view) 및 홍채의 뷰를 캡처하는 단계를 포함할 수 있다. 이미지 처리 모듈이 적어도 하나의 이미지의 제1 부분에 잡음 감소의 레벨을 적용하여 장면의 이미지를 생성할 수 있다. 이미지 처리 모듈은 적어도 하나의 이미지의 제2 부분에 감소된 잡음 감소의 레벨을 적용하여 생체 식별에 사용할 홍채의 이미지를 생성할 수 있다.In one aspect, the present disclosure describes a method of obtaining images of an iris and a scene using a single image sensor. The method may include capturing a view of the scene and a view of the iris within the at least one image by the image sensor. The image processing module may apply the level of noise reduction to the first portion of the at least one image to generate an image of the scene. The image processing module may apply the level of reduced noise reduction to the second portion of the at least one image to generate an image of the iris for use in biometric identification.
일부 실시예들에서, 이미지 센서는 장면의 뷰 및 홍채의 뷰를 단일 이미지 내에서 분리가능한 컴포넌트들로서 캡처할 수 있다. 이미지 센서는 적외선 조명을 이용하여 홍채를 조명하는 동안 홍채의 적어도 하나의 이미지를 캡처할 수 있다. 특정 실시예들에서, 이미지 센서는 이미지 센서의 복수의 센서 노드를 활성화할 수 있다. 센서 노드들의 제1 서브세트는 주로 생체 식별에 적합한 홍채의 이미지를 캡처하도록 적응될 수 있다. 센서 노드들의 제2 서브세트는 주로 비-홍채 이미지를 캡처하도록 적응될 수 있다.In some embodiments, the image sensor can capture the view of the scene and the view of the iris as separable components within a single image. The image sensor may capture at least one image of the iris while illuminating the iris using infrared illumination. In certain embodiments, the image sensor can activate a plurality of sensor nodes of the image sensor. The first subset of sensor nodes can be adapted to capture an image of the iris primarily suitable for biometric identification. The second subset of sensor nodes may be adapted to capture primarily non-iris images.
특정 실시예들에서, 이미지 처리 모듈은 평균 또는 중앙 함수(averaging or median function)를 포함하는 잡음 감소를 적용할 수 있다. 이미지 처리 모듈은 캡처된 이미지로부터 시간 가변 및 시간 불변 잡음 둘 다를 감소시키는 것을 포함하는 잡음 감소를 적용할 수 있다. 이미지 처리 모듈은 홍채의 하나의 이미지로부터의 잡음과 홍채의 또 다른 이미지로부터의 잡음을 감산할 수 있다. 특정 실시예들에서, 이미지 처리 모듈은 하나의 이미지 내의 주변 잡음을 또 다른 이미지로부터의 주변 잡음을 이용하여 감소시킬 수 있다. 이미지 처리 모듈은 적외선 조명의 존재시에 캡처된 하나의 이미지로부터의 주변 잡음을 적외선 조명 없이 캡처된 또 다른 이미지로부터의 주변 잡음을 이용하여 감소시킬 수 있다. 이미지 처리 모듈은 적어도 하나의 이미지의 제2 부분에 대해 이득 또는 휘도 제어를 수행하여, 생체 식별에 사용하기 위한 홍채의 이미지를 생성할 수 있다.In certain embodiments, the image processing module may apply noise reduction including an averaging or median function. The image processing module may apply noise reduction, including reducing both time varying and time invariant noise from the captured image. The image processing module may subtract noise from one image of the iris and noise from another image of the iris. In certain embodiments, the image processing module may reduce ambient noise in one image using ambient noise from another image. The image processing module may reduce ambient noise from one image captured in the presence of infrared illumination using ambient noise from another image captured without infrared illumination. The image processing module may perform gain or brightness control on the second portion of the at least one image to generate an image of the iris for use in biometric identification.
또 다른 양태에서, 본 개시는 단일 이미지 센서를 이용하여 홍채 및 장면의 이미지들을 캡처하기 위한 장치를 설명한다. 이 장치는 이미지 센서 및 이미지 처리 모듈을 포함할 수 있다. 이미지 센서는 적어도 하나의 이미지 내에서 장면의 뷰 및 홍채의 뷰를 캡처할 수 있다. 이미지 처리 모듈은 적어도 하나의 이미지의 제1 부분에 잡음 감소의 레벨을 적용하여 장면의 이미지를 생성할 수 있다. 이미지 처리 모듈은 적어도 하나의 이미지의 제2 부분에 감소된 잡음 감소의 레벨을 적용하여 생체 식별에 사용할 홍채의 이미지를 생성할 수 있다.In another aspect, the present disclosure describes an apparatus for capturing images of an iris and a scene using a single image sensor. The device may include an image sensor and an image processing module. The image sensor may capture a view of the scene and a view of the iris within the at least one image. The image processing module may generate an image of the scene by applying a level of noise reduction to the first portion of the at least one image. The image processing module may apply the level of reduced noise reduction to the second portion of the at least one image to generate an image of the iris for use in biometric identification.
일부 실시예들에서, 이미지 센서는 장면의 뷰 및 홍채의 뷰를 단일 이미지 내에서 분리가능 컴포넌트들로서 캡처한다. 이미지 센서는 예를 들어 CMOS(Complementary Metal Oxide Semiconductor) 센서를 포함할 수 있다. 이미지 센서는 복수의 센서 노드를 포함할 수 있고, 센서 노드들의 제1 서브세트는 주로 생체 식별에 적합한 홍채의 이미지를 캡처하도록 적응되고, 센서 노드들의 제2 서브세트는 주로 비-홍채 이미지를 캡처하도록 적응될 수 있다. 특정 실시예들에서, 장치는 적외선 조명을 이용하여 홍채를 조명하기 위한 조명기를 포함하며, 이미지 센서는 조명된 홍채의 적어도 하나의 이미지를 캡처한다.In some embodiments, the image sensor captures the view of the scene and the view of the iris as separable components within a single image. The image sensor may include, for example, a complementary metal oxide semiconductor (CMOS) sensor. The image sensor may comprise a plurality of sensor nodes, wherein the first subset of sensor nodes is adapted to capture an image of the iris primarily suitable for biometric identification, and the second subset of sensor nodes mainly capture a non-iris image. Can be adapted to In certain embodiments, the apparatus includes an illuminator for illuminating the iris using infrared illumination, and the image sensor captures at least one image of the illuminated iris.
일부 실시예들에서, 수행되는 잡음 감소는 캡처된 이미지에 대한 평균 또는 중앙 함수의 적용을 포함한다. 잡음 감소는 캡처된 이미지로부터 시간 가변 및 시간 불변 잡음 둘 다를 감소시키는 것을 포함할 수 있다. 특정 실시예들에서, 이미지 처리 모듈은 홍채의 하나의 이미지로부터의 잡음과 홍채의 또 다른 이미지로부터의 잡음을 감산한다. 이미지 처리 모듈은 적외선 조명의 존재시에 캡처된 하나의 이미지로부터의 주변 잡음을 적외선 조명 없이 캡처된 또 다른 이미지로부터의 주변 잡음을 이용하여 감소시킬 수 있다. 일부 실시예들에서, 이미지 처리 모듈은 적어도 하나의 이미지의 제2 부분에 대해 이득 또는 휘도 제어를 수행하여, 생체 식별에 사용할 홍채의 이미지를 생성할 수 있다.In some embodiments, the noise reduction performed includes applying an average or median function to the captured image. Noise reduction can include reducing both time varying and time invariant noise from the captured image. In certain embodiments, the image processing module subtracts noise from one image of the iris with noise from another image of the iris. The image processing module may reduce ambient noise from one image captured in the presence of infrared illumination using ambient noise from another image captured without infrared illumination. In some embodiments, the image processing module may perform gain or brightness control on the second portion of the at least one image to generate an image of the iris for use in biometric identification.
본 명세서에서 개시되는 방법들 및 시스템들의 특정 실시예들은 단일 센서를 이용하여 장면의 고품질 이미지들은 물론, 홍채의 고품질 이미지들을 획득하는 데 있어서의 다양한 과제들을 해결할 수 있다. 예를 들어, 하나의 과제는 아마도 의외로 센서의 잡음 속성들의 관리와 관련된다. 본 발명자들은 홍채 인식 및 표준 장면들의 이미지 품질에 대한 요구사항들이 때로는 잡음에 대하여 상반된다는 것을 발견하였다. 영상기(imager)의 픽셀 크기가 점점 더 작아지고, 따라서 각각의 픽셀에서의 기본 잡음 레벨이 증가하거나 더 현저해지므로, 잡음이 매우 중요한 것일 수 있다. 본 발명자들은 예를 들어 잡음 감소를 포함하는 표준 픽처 취득 모드들에서 획득되는 홍채 이미지들의 품질에 비해, 특정 타입의 잡음은 실제로 홍채 인식에 바람직하거나 묵인될 수 있는 것으로 판정한다. 따라서, 본 발명자들은 통상적인 잡음 감소가 행해진 이미지들에 비해 홍채 식별의 성능을 개선하기 위해 아마도 반직관적으로 홍채 이미지의 획득 동안 처리된 이미지 내에 잡음을 유지하는 것을 선호할 수 있다.Certain embodiments of the methods and systems disclosed herein can solve various challenges in obtaining high quality images of the iris as well as high quality images of the scene using a single sensor. For example, one challenge is probably unexpectedly related to the management of noise properties of the sensor. The inventors have found that the requirements for iris recognition and image quality of standard scenes are sometimes contradictory to noise. Since the pixel size of the imager becomes smaller and smaller, and thus the base noise level in each pixel increases or becomes more pronounced, noise may be very important. We determine that certain types of noise may actually be desirable or tolerated for iris recognition, relative to the quality of iris images obtained in standard picture acquisition modes, including noise reduction, for example. Thus, we may prefer to keep noise in the processed image during acquisition of the iris image, perhaps counterintuitively, in order to improve the performance of iris identification compared to images where conventional noise reduction has been performed.
또 다른 과제는 표준 이미지에 대해 그리고 홍채 이미지에 대해 필요한 조명의 파장과 관련된다. 홍채 이미지의 획득은 통상적으로 적외선 조명을 이용하는 반면, 표준 이미지는 통상적으로 가시 조명에 의존한다. 이들은 양 타입의 이미지들의 획득을 위해 단일 시스템 내에 통합되는 경우에 상반되는 제약들로서 보일 수 있다. 본 개시는 이를 해결하기 위한 여러 접근법을 설명한다. 예를 들어 그리고 하나의 실시예에서, 센서 정면에 상이한 필터들이 인터리브(interleave)될 수 있다. 필터들은 적외선에 대한 상이한 응답들 및 가시 응답들을 가질 수 있다. RGB(적, 녹, 청) 필터들 및 필터 패턴들은 상이한 실시예들에서의 사용을 위해 적응될 수 있다. 예를 들어 그리고 특정 실시예들에서, 시스템들 및 방법들은 적외선을 통과시키는 필터들과 주로 컬러 이미지를 통과시키기 위한 다른 필터들을 인터리브할 수 있다. 이러한 접근법의 예들이 미국 특허 공개 2007/0145273 및 미국 특허 공개 2007/0024931에 있다. 이러한 접근법들에 대한 개선은 R, G, (G+I), B 인터리브된 어레이의 사용을 포함한다(여기서, I는 적외선을 나타낸다). 이러한 접근법은 사람의 시각 시스템이 가장 민감한 G(녹색) 신호의 전체 해상도를 유지 또는 복구하는 이점을 가질 수 있다. 방법들 및 시스템들의 또 다른 실시예는 표준 이미지 획득 모드 동안 센서의 정면에 자동 또는 수동으로 배치될 수 있는 이동식(removable) 또는 접이식(retractable) IR-차단 필터를 사용함으로써 이러한 과제를 해결한다. 또 다른 실시예에서, 시스템들 및 방법들은 단지 홍채 인식에 전용화된 이미지 센서의 일부 위에만 IR-차단 필터를 오버레이할 수 있다.Another challenge is related to the wavelength of illumination required for standard images and for iris images. Acquisition of an iris image typically uses infrared illumination, while standard images typically rely on visible illumination. These can be seen as conflicting constraints when integrated into a single system for the acquisition of both types of images. The present disclosure describes several approaches to solving this. For example and in one embodiment, different filters may be interleaved in front of the sensor. The filters may have different responses and visible responses to infrared light. RGB (red, green, blue) filters and filter patterns may be adapted for use in different embodiments. For example and in certain embodiments, systems and methods may interleave filters that pass infrared light and other filters that primarily pass color images. Examples of such approaches are in US Patent Publication 2007/0145273 and US Patent Publication 2007/0024931. Improvements to these approaches include the use of R, G, (G + I), B interleaved arrays, where I represents infrared light. This approach may have the advantage that the human visual system maintains or recovers the full resolution of the most sensitive G (green) signal. Another embodiment of the methods and systems solves this problem by using a removable or retractable IR-blocking filter that can be automatically or manually placed in front of the sensor during the standard image acquisition mode. In yet another embodiment, the systems and methods may overlay the IR-blocking filter only on the portion of the image sensor dedicated to iris recognition.
본 명세서에서 설명되는 시스템들 및 방법들의 실시예들은 주변 조명으로부터의 이미지의 변형과 관련된 제3 과제를 해결할 수 있다. 적외선 필터링 또는 조명이 최적이 아닌 일부 실시예들에서, 홍채 이미지의 획득 동안 각막 또는 눈 표면으로부터 반사된 주변 장면의 이미지들이 관찰될 수 있다. 이것은 때때로 홍채 인식의 성능에 심각하게 악영향을 미칠 수 있다. 본 명세서에서 설명되는 시스템들 및 방법들의 실시예들은 적어도 2개의 이미지를 획득할 수 있다. 제어된 적외선 조명이 턴온된 상태에서 이미지들 중 하나가 캡처될 수 있고, 제어된 적외선 조명이 턴오프된 상태에서 적어도 제2 이미지가 캡처될 수 있다. 이미지 처리 모듈이 이러한 적어도 2개의 이미지를 처리하여 아티팩트들을 줄이거나 제거할 수 있다. 예를 들어, 이미지 처리 모듈은 이미지들을 정렬한 후에 이미지들을 서로 감산하여 아티팩트들을 제거할 수 있다. 아티팩트 생성(artifactual) 조명 또는 컴포넌트들은 2개의 이미지 사이에서 본질적으로 변경되지 않는 반면에 홍채 텍스처는 적외선 조명에 의해 조명되고 하나의 이미지 내에 노출되므로, 이미지들의 차이가 홍채 텍스처를 유지하면서 아티팩트들을 제거할 수 있다. 방법들 및 시스템들은 센서의 비선형 동작 범위(예를 들어, 포화되거나 어두운)에 있거나 그에 가까운 픽셀들을 식별함으로써 센서에서의 비선형성을 극복할 수 있고, 후속 홍채 인식 처리로부터 그들을 제거할 수 있는데, 이는 그러한 영역들에서의 이미지 감산 프로세스가 비선형일 수 있고, 아티팩트들이 여전히 남을 수 있기 때문이다. 방법들의 또 다른 실시예에서는, 사용자, 장치 및 변형 소스의 위치의 특정한 기하학적 제약들을 활용함으로써 이미지들의 변형을 관리할 수 있다. 특정 실시예들에서는, 사용자가 홍채 획득 모드 동안 장치를 그의 얼굴 앞에 유지할 수 있다는 사실을 이용하여, 획득된 홍채 이미지의 한 섹터에서 변형시키는 주변 조명 소스를 줄이거나 차단할 수 있다. 방법들 및 시스템들은 예를 들어 홍채 인식을 이 섹터로 제한하여, 이미지 변형과 관련된 이슈들을 피할 수 있다.Embodiments of the systems and methods described herein may solve a third problem associated with the deformation of an image from ambient lighting. In some embodiments where infrared filtering or illumination is not optimal, images of the surrounding scene reflected from the cornea or eye surface may be observed during acquisition of the iris image. This can sometimes seriously affect the performance of iris recognition. Embodiments of the systems and methods described herein can acquire at least two images. One of the images may be captured with the controlled infrared illumination turned on, and at least a second image may be captured with the controlled infrared illumination turned off. The image processing module may process these at least two images to reduce or eliminate artifacts. For example, the image processing module may remove artifacts by subtracting the images from each other after aligning the images. Artifactual lighting or components are essentially unchanged between the two images, while the iris texture is illuminated by infrared light and exposed within one image, so that differences in the images can eliminate artifacts while maintaining the iris texture. Can be. The methods and systems can overcome nonlinearity in the sensor by identifying pixels that are at or near the nonlinear operating range of the sensor (eg, saturated or dark), and eliminate them from subsequent iris recognition processing, which This is because the image subtraction process in such areas may be nonlinear, and artifacts may still remain. In another embodiment of the methods, the deformation of the images can be managed by utilizing specific geometrical constraints of the location of the user, the device and the deformation source. In certain embodiments, the fact that a user can keep the device in front of his face during the iris acquisition mode can reduce or block the ambient light source from deforming in one sector of the acquired iris image. Methods and systems may, for example, limit iris recognition to this sector, avoiding issues related to image distortion.
아래의 도면들은 본 명세서에서 설명되는 방법들 및 시스템들의 특정 예시적인 실시예들을 도시하며, 도면들에서 동일한 참조 번호들은 동일한 요소들을 지시한다. 각각의 도시된 실시예들은 이러한 방법들 및 시스템들을 한정하는 것이 아니라 예시한다.
도 1a는 서버와 통신하는 클라이언트 기계와의 네트워킹된 환경의 일 실시예를 나타내는 블록도이다.
도 1b 및 1c는 본 명세서에서 설명되는 방법들 및 시스템들을 실시하기 위한 컴퓨팅 기계들의 실시예들을 나타내는 블록도들이다.
도 2는 이미지의 일부에 대응하는 이미지 강도 프로필의 일 실시예를 도시한다.
도 3a는 비-체계적 잡음에 대한 하나의 실시예의 이미지 강도 프로필을 도시한다.
도 3b는 체계적 잡음에 대한 하나의 실시예의 이미지 강도 프로필을 도시한다.
도 4는 체계적 잡음에 대한 하나의 실시예의 이미지 강도 프로필을 도시한다.
도 5는 산발적 잡음에 대한 하나의 실시예의 이미지 강도 프로필을 도시한다.
도 6은 잡음 감소가 행해진 이미지의 일부에 대응하는 이미지 강도 프로필의 일 실시예를 도시한다.
도 7은 홍채 텍스처를 포함하는 얼굴의 뷰의 이미지에 대한 일 실시예의 도면이다.
도 8은 홍채 텍스처를 나타내는 이미지 강도 프로필에 대한 하나의 실시예를 도시한다.
도 9는 잡음 감소 후의 홍채 텍스처를 나타내는 이미지 강도 프로필에 대한 하나의 실시예를 도시한다.
도 10은 홍채 텍스처 및 잡음을 나타내는 이미지 강도 프로필에 대한 하나의 실시예를 도시한다.
도 11은 단일 센서를 이용하여 장면 이미지 및 홍채 이미지를 획득하기 위한 시스템에 대한 하나의 실시예를 도시한다.
도 12는 획득된 이미지들에 대한 잡음의 영향을 나타내는 차트를 도시한다.
도 13은 단일 센서를 이용하여 장면 이미지 및 홍채 이미지를 획득하기 위한 시스템에 대한 또 다른 실시예를 도시한다.
도 14는 단일 센서를 이용하여 얼굴 이미지 및 홍채 이미지를 획득하기 위한 시스템에 대한 일 실시예를 도시한다.
도 15는 이중 대역 통과 필터에 기초하는 응답 프로필을 도시한다.
도 16은 인터리브된 필터들의 구성에 대한 일 실시예를 도시한다.
도 17은 눈 표면으로부터 반사된 아티팩트들을 갖는 이미지에 대한 하나의 실시예를 도시한다.
도 18은 홍채 텍스처 및 눈 표면으로부터 반사된 아티팩트들을 갖는 이미지에 대한 하나의 실시예를 도시한다.
도 19는 단일 센서를 이용하여 얼굴 이미지 및 홍채 이미지를 획득하기 위한 시스템에 대한 또 다른 실시예를 도시한다.
도 20은 아티팩트들이 제거된 홍채 텍스처를 나타내는 이미지에 대한 하나의 실시예를 도시한다.
도 21은 얼굴 및 홍채 이미지의 획득을 위한 하나의 시나리오를 도시한다.
도 22는 홍채 텍스처 및 눈 표면으로부터 반사된 아티팩트들을 갖는 이미지에 대한 또 다른 실시예를 도시한다.
도 23은 단일 센서를 이용하여 얼굴 이미지 및 홍채 이미지를 획득하기 위한 시스템에 대한 또 다른 실시예를 도시한다.
도 24는 단일 센서를 이용하여 얼굴 이미지 및 홍채 이미지를 획득하기 위한 시스템에 대한 또 다른 실시예를 도시한다.
도 25는 단일 센서 및 미러를 이용하여 얼굴 이미지 및 홍채 이미지를 획득하기 위한 시스템에 대한 하나의 실시예를 도시한다.
도 26은 단일 센서 및 미러를 이용하여 얼굴 이미지 및 홍채 이미지를 획득하기 위한 방법에 대한 하나의 실시예를 도시한다.
도 27은 얼굴 이미지 및 홍채 이미지의 획득에 대한 시각 우성(ocular dominance)의 영향을 도시한다.
도 28은 단일 센서 및 미러를 이용하여 얼굴 이미지 및 홍채 이미지를 획득하기 위한 시스템에 대한 또 다른 실시예를 도시한다.
도 29 및 30은 얼굴 이미지 및 홍채 이미지의 획득에 대한 시각 우성의 영향을 도시한다.
도 31은 단일 센서 및 미러를 이용하여 얼굴 이미지 및 홍채 이미지를 획득하기 위한 시스템에 대한 또 다른 실시예를 도시한다.
도 32는 센서 및 미러 구성의 실시예들을 도시한다.
도 33은 단일 센서 및 미러를 이용하여 얼굴 이미지 및 홍채 이미지를 획득하기 위한 시스템에 대한 또 다른 실시예를 도시한다.
도 34는 단일 센서 및 미러를 이용하여 얼굴 이미지 및 홍채 이미지를 획득하기 위한 시스템에 대한 또 다른 실시예를 도시한다.
도 35는 단일 센서를 이용하여 얼굴 이미지 및 홍채 이미지를 획득하기 위한 시스템에 대한 또 다른 실시예를 도시한다.
도 36은 단일 센서를 이용하여 얼굴 이미지 및 홍채 이미지를 획득하기 위한 시스템에 대한 또 다른 실시예를 도시한다.
도 37은 단일 센서를 이용하여 얼굴 이미지 및 홍채 이미지를 획득하기 위한 시스템에 대한 또 다른 실시예를 도시한다.
도 38은 단일 센서를 이용하여 장면 이미지 및 홍채 이미지를 획득하기 위한 방법에 대한 하나의 실시예를 나타내는 흐름도이다.The figures below show specific example embodiments of the methods and systems described herein, wherein like reference numerals designate like elements. Each illustrated embodiment illustrates, but not limiting, these methods and systems.
1A is a block diagram illustrating one embodiment of a networked environment with a client machine in communication with a server.
1B and 1C are block diagrams illustrating embodiments of computing machines for implementing the methods and systems described herein.
2 illustrates one embodiment of an image intensity profile corresponding to a portion of an image.
3A shows an image intensity profile of one embodiment for non-systematic noise.
3B shows an image intensity profile of one embodiment for systematic noise.
4 shows an image intensity profile of one embodiment for systematic noise.
5 shows an image intensity profile of one embodiment for sporadic noise.
6 illustrates one embodiment of an image intensity profile corresponding to a portion of an image where noise reduction has been performed.
7 is a diagram of one embodiment for an image of a view of a face that includes an iris texture.
8 illustrates one embodiment for an image intensity profile representing an iris texture.
9 illustrates one embodiment for an image intensity profile that represents the iris texture after noise reduction.
10 illustrates one embodiment for an image intensity profile representing iris texture and noise.
11 illustrates one embodiment for a system for obtaining scene images and iris images using a single sensor.
12 shows a chart showing the effect of noise on the acquired images.
FIG. 13 shows another embodiment for a system for obtaining a scene image and an iris image using a single sensor.
14 illustrates one embodiment for a system for obtaining a face image and an iris image using a single sensor.
15 shows a response profile based on a dual band pass filter.
16 illustrates one embodiment for the configuration of interleaved filters.
17 shows one embodiment for an image with artifacts reflected from the eye surface.
18 shows one embodiment for an image having iris textures and artifacts reflected from the eye surface.
19 illustrates another embodiment for a system for obtaining a face image and an iris image using a single sensor.
20 illustrates one embodiment for an image representing an iris texture with artifacts removed.
21 illustrates one scenario for the acquisition of face and iris images.
22 shows another embodiment for an image having iris textures and artifacts reflected from the eye surface.
FIG. 23 illustrates another embodiment for a system for obtaining a face image and an iris image using a single sensor.
24 illustrates another embodiment for a system for obtaining a face image and an iris image using a single sensor.
25 illustrates one embodiment for a system for obtaining a face image and an iris image using a single sensor and a mirror.
FIG. 26 illustrates one embodiment of a method for obtaining a face image and an iris image using a single sensor and a mirror.
27 illustrates the effect of ocular dominance on the acquisition of face images and iris images.
28 illustrates another embodiment for a system for obtaining a face image and an iris image using a single sensor and a mirror.
29 and 30 illustrate the effect of visual dominance on the acquisition of face images and iris images.
31 shows another embodiment for a system for obtaining a face image and an iris image using a single sensor and a mirror.
32 illustrates embodiments of sensor and mirror configurations.
33 illustrates another embodiment of a system for obtaining a face image and an iris image using a single sensor and a mirror.
34 illustrates another embodiment for a system for obtaining a face image and an iris image using a single sensor and a mirror.
35 illustrates another embodiment of a system for obtaining a face image and an iris image using a single sensor.
36 shows another embodiment for a system for obtaining a face image and an iris image using a single sensor.
37 illustrates another embodiment for a system for obtaining a face image and an iris image using a single sensor.
38 is a flow diagram illustrating one embodiment of a method for obtaining a scene image and an iris image using a single sensor.
단일 센서를 이용하여 장면 이미지 및 홍채 이미지를 획득하기 위한 시스템들 및 방법들에 대한 다른 양태들을 다루기 전에, 본 시스템들 및 방법들에서 사용하기에 적합한 시스템 컴포넌트들 및 특징들에 대한 설명이 도움이 될 수 있다. 도 1a는 하나 이상의 서버(106A-106N)(본 명세서에서 일반적으로 "서버(들)(106)"로 지칭됨)와 통신하는 하나 이상의 클라이언트 기계(102A-102N)(본 명세서에서 일반적으로 "클라이언트 기계(들)(102)"로 지칭됨)를 포함하는 컴퓨팅 환경(101)에 대한 하나의 실시예를 도시한다. 클라이언트 기계(들)(102)와 서버(들)(106) 사이에는 네트워크가 설치된다.Before discussing other aspects of systems and methods for acquiring scene images and iris images using a single sensor, a description of system components and features suitable for use in the present systems and methods is helpful. Can be. 1A illustrates one or more client machines 102A-102N (generally referred to herein as " clients ") in communication with one or more servers 106A-106N (generally referred to herein as " server (s) 106 "). One embodiment for a
하나의 실시예에서, 컴퓨팅 환경(101)은 서버(들)(106)와 클라이언트 기계(들)(102) 사이에 설치된 어플라이언스를 포함할 수 있다. 이 어플라이언스는 클라이언트/서버 접속들을 관리할 수 있으며, 어떤 경우에는, 복수의 백엔드 서버들 사이에서 클라이언트 접속들의 부하 균형을 유지할 수 있다. 클라이언트 기계(들)(102)는 일부 실시예들에서 단일 클라이언트 기계(102) 또는 클라이언트 기계들(102)의 단일 그룹으로 지칭될 수 있고, 서버(들)(106)는 단일 서버(106) 또는 서버들(106)의 단일 그룹으로 지칭될 수 있다. 하나의 실시예에서, 단일 클라이언트 기계(102)는 둘 이상의 서버(106)와 통신하고, 또 다른 실시예에서, 단일 서버(106)는 둘 이상의 클라이언트 기계(102)와 통신한다. 또 다른 실시예에서, 단일 클라이언트 기계(102)는 단일 서버(106)와 통신한다.In one embodiment,
클라이언트 기계(102)는 일부 실시예들에서 클라이언트 기계(들)(102); 클라이언트(들); 클라이언트 컴퓨터(들); 클라이언트 장치(들); 클라이언트 컴퓨팅 장치(들); 로컬 기계; 원격 기계; 클라이언트 노드(들); 엔드포인트(들); 엔드포인트 노드(들); 또는 제2 기계 중 어느 하나로 지칭될 수 있다. 서버(106)는 일부 실시예들에서, 서버(들); 로컬 기계; 원격 기계; 서버 팜(farm)(들); 호스트 컴퓨팅 장치(들); 또는 제1 기계(들) 중 어느 하나로 지칭될 수 있다.
클라이언트 기계(102)는 일부 실시예들에서 소프트웨어; 프로그램; 실행가능 명령어들; 가상 기계; 하이퍼바이저; 웹 브라우저; 웹 기반 클라이언트; 클라이언트-서버 애플리케이션; 씬(thin)-클라이언트 컴퓨팅 클라이언트; ActiveX 컨트롤; 자바 애플릿; 소프트 IP 전화와 같은 VoIP(voice over internet protocol) 통신과 관련된 소프트웨어; 비디오 및/또는 오디오를 스트리밍하기 위한 애플리케이션; 실시간 데이터 통신을 용이하게 하기 위한 애플리케이션; HTTP 클라이언트; FTP 클라이언트; 오스카 클라이언트; 텔넷 클라이언트; 또는 임의의 다른 세트의 실행가능 명령어들 중 어느 하나일 수 있는 애플리케이션을 실행하거나, 동작시키거나 제공할 수 있다. 또 다른 실시예들은 서버(106) 또는 다른 원격 배치된 기계 상에서 원격 실행되는 애플리케이션에 의해 생성되는 애플리케이션 출력을 표시하는 클라이언트 장치(102)를 포함한다. 이러한 실시예들에서, 클라이언트 장치(102)는 애플리케이션 윈도, 브라우저 또는 다른 출력 윈도 내에 애플리케이션 출력을 표시할 수 있다. 하나의 실시예에서, 애플리케이션은 데스크톱인 반면, 다른 실시예들에서, 애플리케이션은 데스크톱을 생성하는 애플리케이션이다.The
컴퓨팅 환경(101)은 둘 이상의 서버(106A-106N)를 포함하여, 서버들(106A-106N)은 논리적으로 함께 서버 팜(106) 내에 그룹화될 수 있다. 서버 팜(106)은 지리적으로 분산되고 논리적으로 함께 서버 팜(106) 내에 그룹화된 서버들(106), 또는 서로 근접 배치되고 논리적으로 함께 서버 팜(106) 내에 그룹화된 서버들(106)을 포함할 수 있다. 서버 팜(106) 내의 지리적으로 분산된 서버들(106A-106N)은 일부 실시예들에서 WAN, MAN 또는 LAN을 이용하여 통신할 수 있으며, 상이한 지리 영역들은 상이한 대륙들; 대륙의 상이한 지역들; 상이한 국가들; 상이한 주들; 상이한 도시들; 상이한 캠퍼스들; 상이한 방들; 또는 전술한 지리적 위치들의 임의의 조합으로서 특성화될 수 있다. 일부 실시예들에서, 서버 팜(106)은 단일 엔티티로서 관리될 수 있는 반면, 다른 실시예들에서, 서버 팜(106)은 다수의 서버 팜(106)을 포함할 수 있다.
일부 실시예들에서, 서버 팜(106)은 실질적으로 유사한 타입의 운영 체제 플랫폼(예로서, 워싱턴 레드먼드의 마이크로소프트사에 의해 제작된 WINDOWS NT, UNIX, LINUX 또는 SNOW LEOPARD)을 실행하는 서버들(106)을 포함할 수 있다. 다른 실시예들에서, 서버 팜(106)은 제1 타입의 운영 체제 플랫폼을 실행하는 서버들(106)의 제1 그룹, 및 제2 타입의 운영 체제 플랫폼을 실행하는 서버들(106)의 제2 그룹을 포함할 수 있다. 서버 팜(106)은 다른 실시예들에서 상이한 타입의 운영 체제 플랫폼들을 실행하는 서버들(106)을 포함할 수 있다.In some embodiments,
서버(106)는 일부 실시예들에서 임의의 서버 타입일 수 있다. 다른 실시예들에서, 서버(106)는 다음의 서버 타입들: 파일 서버; 애플리케이션 서버; 웹 서버; 프록시 서버; 어플라이언스; 네트워크 어플라이언스, 게이트웨이; 애플리케이션 게이트웨이; 게이트웨이 서버; 가상화 서버; 전개 서버; SSL VPN 서버; 방화벽; 웹 서버; 애플리케이션 서버 또는 마스터 애플리케이션 서버; 활성 디렉토리를 실행하는 서버(106); 또는 방화벽 기능, 애플리케이션 기능 또는 부하 균형유지 기능을 제공하는 애플리케이션 가속화 프로그램을 실행하는 서버(106) 중 임의의 서버일 수 있다. 일부 실시예들에서, 서버(106)는 원격 인증 다이얼-인 사용자 서비스를 포함하는 RADIUS 서버일 수 있다. 일부 실시예들은 클라이언트 기계(102)로부터 요청들을 수신하고, 요청을 제2 서버(106B)로 전송하고, 클라이언트 기계(102)에 의해 생성된 요청에 대해 제2 서버(106B)로부터의 응답으로 응답하는 제1 서버(106A)를 포함한다. 제1 서버(106A)는 클라이언트 기계(102)가 이용가능한 애플리케이션들의 목록은 물론, 애플리케이션들의 목록 내에서 식별된 애플리케이션을 호스트하는 애플리케이션 서버(106)와 관련된 어드레스 정보를 획득할 수 있다. 게다가, 제1 서버(106A)는 웹 인터페이스를 이용하여 클라이언트의 요청에 대한 응답을 제공할 수 있고, 클라이언트(102)와 직접 통신하여, 클라이언트(102)에게 식별된 애플리케이션에 대한 액세스를 제공할 수 있다.
클라이언트 기계들(102)은 일부 실시예들에서, 서버(106)에 의해 제공되는 자원들에 대한 액세스를 추구하는 클라이언트 노드일 수 있다. 다른 실시예들에서, 서버(106)는, 클라이언트들(102) 또는 클라이언트 노드들에게, 호스트된 자원들에 대한 액세스를 제공할 수 있다. 서버(106)는 일부 실시예들에서 마스터 노드로서 기능하여, 하나 이상의 클라이언트(102) 또는 서버(106)와 통신한다. 일부 실시예들에서, 마스터 노드는 요청된 애플리케이션을 호스트하는 서버(106)와 관련된 어드레스 정보를 식별하여 하나 이상의 클라이언트(102) 또는 서버(106)에게 제공할 수 있다. 또 다른 실시예들에서, 마스터 노드는 서버 팜(106), 클라이언트(102), 클라이언트 노드들(102)의 클러스터, 또는 어플라이언스일 수 있다.
하나 이상의 클라이언트(102) 및/또는 하나 이상의 서버(106)는 컴퓨팅 환경(101) 내의 기계들과 어플라이언스들 사이에 설치된 네트워크(104)를 통해 데이터를 전송할 수 있다. 네트워크(104)는 하나 이상의 서브네트워크를 포함할 수 있으며, 컴퓨팅 환경(101) 내에 포함된 클라이언트들(102), 서버들(106), 컴퓨팅 기계들 및 어플라이언스들의 임의의 조합 사이에 설치될 수 있다. 일부 실시예들에서, 네트워크(104)는 근거리 네트워크(LAN); 도시 영역 네트워크(MAN); 광역 네트워크(WAN); 클라이언트 기계들(102)과 서버들(106) 사이에 위치하는 다수의 서브네트워크(104)를 포함하는 주요 네트워크(104); 비공개 서브네트워크(104)를 갖는 주요 공개 네트워크(104); 공개 서브네트워크(104)를 갖는 주요 비공개 네트워크(104); 또는 비공개 서브네트워크(104)를 갖는 주요 비공개 네트워크(104)일 수 있다. 또 다른 실시예들은 다음 네트워크 타입: 점대점 네트워크; 방송 네트워크; 전기 통신 네트워크; 데이터 통신 네트워크; 컴퓨터 네트워크; ATM(Asynchronous Transfer Mode) 네트워크; SONET(Synchronous Optical Network) 네트워크; SDH(Synchronous Digital Hierarchy) 네트워크; 무선 네트워크; 유선 네트워크; 또는 무선 링크를 포함하는 네트워크(104)들 중 어느 하나의 타입일 수 있는 네트워크(104)를 포함하며, 무선 링크는 적외선 채널 또는 위성 대역일 수 있다. 네트워크(104)의 네트워크 토폴로지는 상이한 실시예들에서 상이할 수 있으며, 가능한 네트워크 토폴로지들은 버스 네트워크 토폴로지; 스타 네트워크 토폴로지; 링 네트워크 토폴로지; 중계기 기반 네트워크 토폴로지; 또는 티어드-스타(tiered-star) 네트워크 토폴로지를 포함한다. 추가적인 실시예들은 이동 장치들 사이에서 통신하기 위해 프로토콜을 사용하는 이동 전화 네트워크들의 네트워크(104)를 포함할 수 있으며, 프로토콜은 AMPS; TDMA; CDMA; GSM; GPRS; UMTS; 3G; 4G; 또는 이동 장치들 사이에서 데이터를 전송할 수 있는 임의의 다른 프로토콜 중 어느 하나일 수 있다.One or
도 1b에는 컴퓨팅 장치(100)에 대한 일 실시예에가 도시되어 있으며, 도 1a에 도시된 클라이언트 기계(102) 및 서버(106)는 본 명세서에서 도시되고 설명되는 컴퓨팅 장치(100)의 임의의 실시예로서 전개 및/또는 실행될 수 있다. 컴퓨팅 장치(100) 내에는 다음 컴포넌트들: 중앙 처리 유닛(121); 메인 메모리(122); 저장 메모리(128); 입출력(I/O) 제어기(123); 디스플레이 장치들(124A-124N); 설치 장치(116); 및 네트워크 인터페이스(118)와 통신하는 시스템 버스(150)가 포함된다. 하나의 실시예에서, 저장 메모리(128)는 운영 체제, 소프트웨어 루틴들 및 클라이언트 에이전트(120)를 포함한다. I/O 제어기(123)는 일부 실시예들에서 키보드(126) 및 포인팅 장치(127)에 더 접속된다. 다른 실시예들은 둘 이상의 입/출력 장치(130A-130N)에 접속된 I/O 제어기(123)를 포함할 수 있다.1B is shown an embodiment of the
도 1c는 컴퓨팅 장치(100)에 대한 하나의 실시예를 도시하며, 도 1a에 도시된 클라이언트 기계(102) 및 서버(106)는 본 명세서에서 도시되고 설명되는 컴퓨팅 장치(100)의 임의의 실시예로서 전개 및/또는 실행될 수 있다. 컴퓨팅 장치(100) 내에는 다음 컴포넌트들: 브리지(170) 및 제1 I/O 장치(130A)와 통신하는 시스템 버스(150)가 포함된다. 또 다른 실시예에서, 브리지(170)는 메인 중앙 처리 유닛(121)과 더 통신하며, 중앙 처리 유닛(121)은 제2 I/O 장치(130B), 메인 메모리(122), 및 캐시 메모리(140)와 더 통신할 수 있다. 중앙 처리 유닛(121) 내에는 I/O 포트들, 메모리 포트(103), 및 메인 프로세서가 포함된다.1C illustrates one embodiment for
컴퓨팅 기계(100)의 실시예들은 다음 컴포넌트 구성들: 메인 메모리 유닛(122)에서 인출된 명령어들에 응답하여 이들을 처리하는 논리 회로들; 인텔사에 의해 제작된 것들; 모토롤라사에 의해 제작된 것들; 캘리포니아, 산타클라라의 트랜스메타사에 의해 제작된 것들과 같은 마이크로프로세서 유닛; IBM사에 의해 제작된 것들과 같은 RS/6000 프로세서; 어드밴스트 마이크로 디바이스즈 사에 의해 제작된 것들과 같은 프로세서; 또는 논리 회로들의 임의의 다른 조합 중 어느 하나에 의해 특성화되는 중앙 처리 유닛(121)을 포함할 수 있다. 중앙 처리 유닛(122)의 또 다른 실시예들은 마이크로프로세서, 마이크로컨트롤러, 단일 처리 코어를 구비한 중앙 처리 유닛, 2개의 처리 코어를 구비한 중앙 처리 유닛, 또는 둘 이상의 처리 코어를 구비한 중앙 처리 유닛의 임의의 조합을 포함할 수 있다.Embodiments of the
도 1c는 단일 중앙 처리 유닛(121)을 포함하는 컴퓨팅 장치(100)를 도시하지만, 일부 실시예들에서, 컴퓨팅 장치(100)는 하나 이상의 처리 유닛(121)을 포함할 수 있다. 이러한 실시예들에서, 컴퓨팅 장치(100)는 펌웨어 또는 다른 실행가능 명령어들을 저장하고 실행할 수 있으며, 이들은 실행될 때 하나 이상의 처리 유닛(121)에게 동시에 명령어들을 실행하도록 지시하거나 단일 피스의 데이터에 대해 명령어들을 동시에 실행하도록 지시한다. 다른 실시예들에서, 컴퓨팅 장치(100)는 펌웨어 또는 다른 실행가능 명령어들을 저장하고 실행할 수 있으며, 이들은 실행될 때 하나 이상의 처리 유닛에게 명령어들의 그룹의 섹션을 각각 실행하도록 지시한다. 예를 들어, 각각의 처리 유닛(121)은 프로그램의 일부 또는 프로그램 내의 특정한 모듈을 실행하도록 지시받을 수 있다.1C shows a
일부 실시예들에서, 처리 유닛(121)은 하나 이상의 처리 코어를 포함할 수 있다. 예를 들어, 처리 유닛(121)은 2개의 코어, 4개의 코어, 8개의 코어 등을 구비할 수 있다. 하나의 실시예에서, 처리 유닛(121)은 하나 이상의 병렬 처리 코어를 포함할 수 있다. 처리 유닛(121)의 처리 코어들은 일부 실시예들에서 이용가능 메모리를 전역 어드레스 공간으로서 액세스할 수 있거나, 다른 실시예들에서 컴퓨팅 장치(100) 내의 메모리는 세그먼트화되고, 처리 유닛(121) 내의 특정한 코어에 할당될 수 있다. 하나의 실시예에서, 컴퓨팅 장치(100) 내의 하나 이상의 처리 코어 또는 프로세서는 각각 로컬 메모리에 액세스할 수 있다. 또 다른 실시예에서, 컴퓨팅 장치(100) 내의 메모리는 하나 이상의 프로세서 또는 처리 코어 사이에서 공유될 수 있는 반면, 다른 메모리는 특정한 프로세서들 또는 프로세서들의 서브세트들에 의해 액세스될 수 있다. 컴퓨팅 장치(100)가 둘 이상의 처리 유닛을 포함하는 실시예들에서는, 다수의 처리 유닛이 단일 집적 회로(IC) 내에 포함될 수 있다. 이러한 다수의 프로세서는 일부 실시예들에서 요소 상호접속 버스로 지칭될 수 있는 내부 고속 버스에 의해 함께 링크될 수 있다.In some embodiments, processing
컴퓨팅 장치(100)가 하나 이상의 처리 유닛(121), 또는 하나 이상의 처리 코어를 포함하는 처리 유닛(121)을 포함하는 실시예들에서, 프로세서들은 다수의 피스의 데이터에 대해 동시에 단일 명령어를 실행할 수 있거나(SIMD), 다른 실시예들에서, 다수의 피스의 데이터에 대해 동시에 다수의 명령어를 실행할 수 있다(MIMD). 일부 실시예들에서, 컴퓨팅 장치(100)는 임의 수의 SIMD 및 MIMD 프로세서를 포함할 수 있다.In embodiments where
컴퓨팅 장치(100)는 일부 실시예들에서 이미지 프로세서, 그래픽 프로세서 또는 그래픽 처리 유닛을 포함할 수 있다. 그래픽 처리 유닛은 소프트웨어와 하드웨어의 임의의 조합을 포함할 수 있으며, 그래픽 데이터 및 그래픽 명령어들을 더 입력하고, 입력된 데이터 및 명령어들로부터 그래픽을 렌더링하고, 렌더링된 그래픽을 출력할 수 있다. 일부 실시예들에서, 그래픽 처리 유닛은 처리 유닛(121) 내에 포함될 수 있다. 다른 실시예들에서, 컴퓨팅 장치(100)는 하나 이상의 처리 유닛(121)을 포함할 수 있으며, 적어도 하나의 처리 유닛(121)이 그래픽을 처리하고 렌더링하는데 전용화된다.
컴퓨팅 기계(100)에 대한 하나의 실시예는 백사이드 버스로도 알려진 보조 버스를 통해 캐시 메모리(140)와 통신하는 중앙 처리 유닛(121)을 포함하는 반면, 컴퓨팅 기계(100)에 대한 또 다른 실시예는 시스템 버스(150)를 통해 캐시 메모리와 통신하는 중앙 처리 유닛(121)을 포함한다. 로컬 시스템 버스(150)는 일부 실시예들에서 중앙 처리 유닛에 의해 사용되어, 둘 이상의 타입의 I/O 장치(130A-130N)와 통신할 수 있다. 일부 실시예들에서, 로컬 시스템 버스(150)는 아래의 타입의 버스: VESA VL 버스; ISA 버스; EISA 버스; 마이크로 채널 아키텍처(MCA) 버스; PCI 버스; PCI-X 버스; PCI-익스플레스 버스; 또는 NuBus 중 어느 하나일 수 있다. 컴퓨팅 기계(100)의 다른 실시예들은 중앙 처리 유닛(121)과 통신하는 비디오 디스플레이(124)인 I/O 장치(130A-130N)를 포함한다. 컴퓨팅 기계(100)의 또 다른 버전들은 다음의 접속들: HyperTransport, 고속 I/O, 또는 InfiniBand 중 어느 하나를 통해 I/O 장치(130A-130N)에 접속되는 프로세서(121)를 포함한다. 컴퓨팅 기계(100)의 추가 실시예들은 로컬 상호접속 버스를 이용하여 하나의 I/O 버스(130A)와 통신하고 직접 접속을 이용하여 제2 I/O 버스(130B)와 통신하는 프로세서(121)를 포함한다.One embodiment of the
컴퓨팅 장치(100)는 일부 실시예들에서 메인 메모리 유닛(122) 및 캐시 메모리(140)를 포함한다. 캐시 메모리(140)는 임의의 메모리 타입일 수 있으며, 일부 실시예들에서, 다음 메모리 타입들: SRAM; BSRAM; 또는 EDRAM 중 어느 하나일 수 있다. 다른 실시예들은 다음 메모리 타입들: 정적 랜덤 액세스 메모리(SRAM), 버스트 SRAM 또는 SynchBurst SRAM(BSRAM); 동적 랜덤 액세스 메모리(DRAM); 고속 페이지 모드 DRAM(FPM DRAM); 고급 DRAM(EDRAM), 확장 데이터 출력 RAM(EDO RAM); 확장 데이터 출력 DRAM(EDO DRAM); 버스트 확장 데이터 출력 DRAM(BEDO DRAM); 고급 DRAM(EDRAM); 동기 DRAM(SDRAM); JEDEC SRAM; PC100 SDRAM; 더블 데이터 레이트 SDRAM(DDR SDRAM); 고급 SDRAM(ESDRAM); SyncLink DRAM(SLDRAM); 직접 램버스 DRAM(DRDRAM); 강유전체 RAM(FRAM); 또는 임의의 다른 메모리 타입 중 어느 하나일 수 있는 캐시 메모리(140) 및 메인 메모리 유닛(122)을 포함한다. 추가적인 실시예들은 시스템 버스(150); 메모리 포트(103); 또는 프로세서(121)로 하여금 메모리(122)에 액세스할 수 있게 하는 임의의 다른 접속, 버스 또는 포트를 통해 메인 메모리(122)에 액세스할 수 있는 중앙 처리 유닛(121)을 포함한다.
컴퓨팅 장치(100)에 대한 하나의 실시예는 다음의 설치 장치들(116): CD-ROM 드라이브, CD-R/RW 드라이브, DVD-ROM 드라이브, 다양한 포맷의 테이프 드라이브들, USB 장치, 부팅가능한 매체, 부팅가능한 CD, KNOPPIX®와 같은 GNU/리눅스 배포를 위한 부팅가능한 CD, 하드 드라이브 또는 애플리케이션들 또는 소프트웨어를 설치하는 데 적합한 임의의 다른 장치 중 어느 하나에 대한 지원을 제공한다. 애플리케이션들은 일부 실시예들에서 클라이언트 에이전트(120) 또는 클라이언트 에이전트(120)의 임의 부분을 포함할 수 있다. 컴퓨팅 장치(100)는, 하나 이상의 하드 디스크 드라이브 또는 독립 디스크들의 하나 이상의 중복 어레이 중 어느 하나일 수 있는 저장 장치(128)를 더 포함할 수 있으며, 저장 장치는 운영 체제, 소프트웨어, 프로그램들, 애플리케이션들, 또는 클라이언트 에이전트(120)의 적어도 일부를 저장하도록 구성된다. 컴퓨팅 장치(100)에 대한 추가 실시예는 저장 장치(128)로서 사용되는 설치 장치(116)를 포함한다.One embodiment of the
컴퓨팅 장치(100)는, 표준 전화 라인, LAN 또는 WAN 링크(예로서, 802.11, T1, T3, 56kb, X.25, SNA, DECNET), 광대역 접속(예로서, ISDN, 프레임 릴레이, ATM, 기가비트 이더넷, 이더넷-오버-SONET), 무선 접속, 또는 전술한 것들 중 임의의 것 또는 모두의 일부 조합을 포함하지만 이에 한정되지 않는 다양한 접속을 통해 LAN, WAN 또는 인터넷에 인터페이스하기 위한 네트워크 인터페이스(118)를 더 포함할 수 있다. 접속들은 또한 다양한 통신 프로토콜(예로서, TCP/IP, IPX, SPX, NetBIOS, 이더넷, ARCNET, SONET, SDH, 광섬유 분산 데이터 인터페이스(FDDI), RS232, RS485, IEEE 802.11, IEEE 802.11a, IEEE 802.11b, IEEE 802.11g, CDMA, GSM, WiMax 및 직접 비동기 접속)을 이용하여 구축될 수 있다. 컴퓨팅 장치(100)에 대한 하나의 버전은 보안 소켓 계층(SSL) 또는 전송 계층 보안(TLS), 또는 시트릭스 시스템즈사에 의해 제작된 시트릭스(Citrix) 게이트웨이 프로토콜과 같은 임의의 타입 및/또는 형태의 게이트웨이 또는 터널링 프로토콜을 통해 추가적인 컴퓨팅 장치들(100')과 통신할 수 있는 네트워크 인터페이스(118)를 포함한다. 네트워크 인터페이스(118)의 버전들은: 내장된 네트워크 어댑터; 네트워크 인터페이스 카드; PCMCIA 네트워크 카드; 카드 버스 네트워크 어댑터; 무선 네트워크 어댑터; USB 네트워크 어댑터; 모뎀; 또는 본 명세서에서 설명되는 방법들 및 시스템들에서 통신하고 수행할 수 있는 네트워크에 컴퓨팅 장치(100)를 인터페이스하는 데 적합한 임의의 다른 장치 중 어느 하나를 포함할 수 있다.
컴퓨팅 장치(100)의 실시예들은 다음의 I/O 장치들(130A-130N): 키보드(126); 포인팅 장치(127); 마우스; 트랙 패드; 광 펜; 트랙볼; 마이크; 드로잉 태블릿; 비디오 디스플레이; 스피커; 잉크젯 프린터; 레이저 프린터; 및 염료-승화 프린터; 또는 본 명세서에서 설명되는 방법들 및 시스템들을 수행할 수 있는 임의의 다른 입/출력 장치 중 어느 하나를 포함한다. I/O 제어기(123)는 일부 실시예들에서 다수의 I/O 장치(130A-130N)에 접속하여 하나 이상의 I/O 장치를 제어할 수 있다. I/O 장치들(130A-130N)의 일부 실시예들은 저장 또는 설치 매체(116)를 제공하도록 구성될 수 있는 반면, 다른 실시예들은 트윈테크 인더스트리사에 의해 제작된 장치들의 USB 플래시 드라이브 라인과 같은 USB 저장 장치들을 수용하기 위한 유니버설 직렬 버스(USB) 인터페이스를 제공할 수 있다. 또 다른 실시예들은 시스템 버스(150)와 외부 통신 버스: 이를테면, USB 버스; 애플 데스크톱 버스; RS-232 직렬 접속; SCSI 버스; FireWire 버스; FireWire 800 버스; 이더넷 버스; AppleTalk 버스; 기가비트 이더넷 버스; 비동기 전송 모드 버스; HIPPI 버스; 수퍼 HIPPI 버스; SerialPlus 버스; SCI/LAMP 버스; FibreChannel 버스; 또는 직렬 부착 소형 컴퓨터 시스템 인터페이스 버스 사이의 브리지일 수 있는 I/O 장치(130)를 포함한다.Embodiments of
일부 실시예들에서, 컴퓨팅 기계(100)는 임의의 운영 체제를 실행할 수 있는 반면, 다른 실시예들에서, 컴퓨팅 기계(100)는 다음의 운영 체제들: 마이크로소프트 윈도 운영 체제들의 버전들; 유닉스 및 리눅스 운영 체제들의 상이한 릴리스들; 애플 컴퓨터사에 의해 제작된 MAC OS의 임의 버전; IBM사에 의해 제작된 OS/2; 구글사의 안드로이드; 임의의 내장된 운영 체제; 임의의 실시간 운영 체제; 임의의 오픈 소스 운영 체제; 임의의 독점 운영 체제; 이동 컴퓨팅 장치용의 임의의 운영 체제들; 또는 임의의 다른 운영 체제 중 어느 하나를 실행할 수 있다. 또 다른 실시예에서, 컴퓨팅 기계(100)는 다수의 운영 체제를 실행할 수 있다. 예를 들어, 컴퓨팅 기계(100)는 제1 운영 체제를 실행하는 가상 기계를 실행 또는 관리할 수 있는 PARALLELS 또는 또 다른 가상화 플랫폼을 실행할 수 있으며, 컴퓨팅 기계(100)는 제1 운영 체제와 다른 제2 운영 체제를 실행한다.In some embodiments, computing
컴퓨팅 기계(100)는 다음의 컴퓨팅 장치들: 컴퓨팅 워크스테이션; 데스크톱 컴퓨터; 랩톱 또는 노트북 컴퓨터; 서버; 핸드헬드 컴퓨터; 이동 전화; 휴대용 전기통신 장치; 미디어 재생 장치; 게임 시스템; 이동 컴퓨팅 장치; 넷북, 태블릿; 애플 컴퓨터사에 의해 제작된 장치들의 IPOD 또는 IPAD 패밀리의 장치; 소니사에 의해 제작된 장치들의 PLAYSTATION 패밀리 중 어느 하나; 닌텐도사에 의해 제작된 장치들의 닌텐도 패밀리 중 어느 하나; 마이크로소프트사에 의해 제작된 장치들의 XBOX 패밀리 중 어느 하나; 또는 통신할 수 있고, 본 명세서에서 설명되는 방법들 및 시스템들을 수행하기에 충분한 프로세서 능력 및 메모리 용량을 갖는 임의의 다른 타입 및/또는 형태의 컴퓨팅, 전기 통신 또는 미디어 장치 중 어느 하나 내에 구현될 수 있다. 다른 실시예들에서, 컴퓨팅 기계(100)는 다음의 이동 장치들: JAVA-인에이블드 셀룰러 전화 또는 개인용 디지털 보조(PDA); 장치와 양립하는 상이한 프로세서들, 운영 체제들 및 입력 장치들을 갖는 임의의 컴퓨팅 장치; 또는 본 명세서에서 설명되는 방법들 및 시스템들을 수행할 수 있는 임의의 다른 이동 컴퓨팅 장치 중 어느 하나와 같은 이동 장치일 수 있다. 또 다른 실시예들에서, 컴퓨팅 장치(100)는 다음의 이동 컴퓨팅 장치들: 리서치 인 모션 리미티드에 의해 제작된 블랙베리의 적어도 하나의 시리즈 또는 다른 핸드헬드 장치; 애플 컴퓨터사에 의해 제작된 아이폰; Palm Pre; 포켓 PC; 포켓 PC 전화; 안드로이드 전화; 또는 임의의 다른 핸드헬드 이동 장치 중 어느 하나일 수 있다. 본 시스템들 및 방법들에서 사용하는 데 적합할 수 있는 특정 시스템 컴포넌트들 및 특징들이 설명되었으며, 추가적인 양태들이 아래에서 다루어진다.
도 2는 통상적인 이미지 센서에 의해 획득된 통상적인 장면 또는 물체(예를 들어, 집)의 예시적인 이미지를 도시한다. 이미지 센서는 예를 들어 CCD(charge-coupled device) 또는 CMOS(complementary metal-oxide-semiconductor) 활성 픽셀 센서를 포함할 수 있지만, 이에 한정되지 않는다. 이미지에 대응하는 그래프 또는 강도 프로필은, 라인 P2에 의해 지시되는 단면 영역에 대해, 수직축 상의 픽셀들의 강도 값(I) 및 대응하는 공간 위치(X)를 나타낸다. 강도 프로필 내의 밝은 포인트 및 어두운 포인트는 도시된 바와 같은 이미지 내의 밝은 포인트 및 어두운 포인트에 대응한다. 통상적으로, 균일하게 조명된 영역들(예를 들어, 집의 문에 대응하는 영역들) 내에서도 강도의 변동에 의해 표현되는, 신호 내의 실질적 잡음이 존재할 수 있다. 잡음은 여러 소스, 예를 들어 증폭기 잡음과 샷-잡음, 이방성(체계적) 잡음, 및 산발적 잡음으로부터 도출될 수 있다. 샷 잡음은 유한 기간 내에 특정한 픽셀-웰 내에 유한 수의 광자들이 수집되는 양자 효과와 관련된다. 픽셀 크기가 작을수록, 샷 잡음이 더 많이 발생할 수 있다. 이것은 입사 조명의 측정치를 추론할 광자가 더 적을 수 있기 때문이다. 픽셀 치수들이 작아질수록, 주어진 이미지 해상도에 대한 관련 광학 기구의 초점 길이도 선형으로 감소할 수 있다. 이것은 렌즈/센서 컴포넌트 조합의 두께를 감소시킬 수 있다. 그러나, 센서 해상도에 대한 요구사항들이 증가함에 따라, 그리고 센서들 및 이들과 관련된 광학 기구들에 대한 공간 제약들이 더 엄격해짐에 따라, 센서 및 이미지 픽셀 크기들은 요구사항들 및 제약들을 수용하도록 적절히 감소되어야 한다. 픽셀 크기의 감소의 결과는 센서의 잡음의 실질적 증가이다. 이러한 타입의 잡음은 물론, 증폭기 잡음도 도 3a에 도시된 바와 같이 시간 가변적이고 비체계적인 것으로서 특성화될 수 있다.2 illustrates an example image of a typical scene or object (eg, a house) obtained by a conventional image sensor. The image sensor may include, but is not limited to, for example, a charge-coupled device (CCD) or a complementary metal-oxide-semiconductor (CMOS) active pixel sensor. The graph or intensity profile corresponding to the image represents the intensity value I of the pixels on the vertical axis and the corresponding spatial position X, relative to the cross-sectional area indicated by line P2. The light and dark points in the intensity profile correspond to the light and dark points in the image as shown. Typically, there may be substantial noise in the signal, represented by variations in intensity, even within uniformly illuminated areas (eg, areas corresponding to the door of the house). Noise can be derived from several sources, such as amplifier noise and shot-noise, anisotropic (systematic) noise, and sporadic noise. Shot noise is related to quantum effects in which a finite number of photons are collected within a particular pixel-well within a finite period of time. The smaller the pixel size, the more shot noise may occur. This is because there may be fewer photons to infer the measurement of the incident illumination. As pixel dimensions become smaller, the focal length of the relevant optics for a given image resolution may also decrease linearly. This can reduce the thickness of the lens / sensor component combination. However, as requirements for sensor resolution increase, and as space constraints on sensors and their associated optics become more stringent, sensor and image pixel sizes decrease appropriately to accommodate the requirements and constraints. Should be. The result of the reduction in pixel size is a substantial increase in the noise of the sensor. This type of noise, as well as amplifier noise, can be characterized as time varying and unsystematic as shown in FIG. 3A.
또 다른 타입의 잡음은 이방성 또는 체계적/주기적 잡음이다. 주기적 잡음은 예를 들어 이미지 센서의 판독 경로에서 증폭기 이득들에 있어서의 차이들에 의해 유발될 수 있다. 예를 들어, 상이한 로우들 및 컬럼들은 약간 상이한 이득들을 갖는 상이한 증폭기들을 통과할 수 있다. 이러한 타입의 체계적 잡음은 도 3b에 도시되어 있으며, 이 도면에서는 균일하게 편평해야 하는 강도 프로필이 하나의 차원에서(예를 들어, 이미지를 가로질러) 사실상 주기적으로 변동하고 있다. 도 4는 이미지 내에 도입된 산발적 잡음의 일례를 도시하며, 이는 다수의 이미지에 걸쳐 명백할 수 있다. 예를 들어, 센서 노드들의 어레이 내의 가끔의 픽셀들(occasional pixels)은 저하된 감도를 가질 수 있거나, 기능하지 않거나, 제한된 또는 과도한 이득을 가져, 도시된 바와 같이 픽셀들이 더 밝거나 더 어두울 수 있다.Another type of noise is anisotropic or systematic / periodic noise. Periodic noise can be caused, for example, by differences in amplifier gains in the read path of the image sensor. For example, different rows and columns may pass through different amplifiers with slightly different gains. This type of systematic noise is shown in FIG. 3B, where the intensity profile, which must be uniformly flat, is in fact periodically fluctuating in one dimension (eg across the image). 4 shows an example of sporadic noise introduced into an image, which may be evident over multiple images. For example, occasional pixels in an array of sensor nodes may have degraded sensitivity, or may not function, or have limited or excessive gain, such that the pixels may be brighter or darker as shown. .
잡음으로부터 발생하는 문제들은 통상적으로 이미지 처리 모듈(220)에서 잡음 감소를 수행함으로써 해결된다. 이미지 처리 모듈(220)은 도 5에 도시된 바와 같이 임의의 타입의 공간적 중앙 필터링 또는 영역-선택적 평균화를 이용할 수 있다. 잡음 감소를 수행하기 위한 많은 방법이 존재하며, 단지 설명을 위해 중앙 필터링 및 영역-선택적 평균화를 식별한다. 도 6은 잡음 감소로부터 발생할 수 있는 강도 프로필을 도시한다. 잡음 감소가 잡음을 본질적으로 제거했을 수 있지만, 이미지 처리 모듈(220)은 장면 내의 실제 물체들 및 에지들에 대응하는 특징들(예를 들어, 밝은 포인트 및 어두운 포인트)을 유지하였다. 사용자의 관점에서, 이미지 품질은 통상적으로 도 1에서 용납할 수 없는(예를 들어, 잡음이 많은) 반면, 도 6에서는 품질이 더 양호한 것으로 간주된다.Problems resulting from noise are typically solved by performing noise reduction in image processing module 220. Image processing module 220 may use any type of spatial central filtering or region-selective averaging as shown in FIG. 5. There are many ways to perform noise reduction and only identify central filtering and region-selective averaging for illustrative purposes. 6 shows an intensity profile that may arise from noise reduction. Although noise reduction may have essentially removed the noise, the image processing module 220 retained features (eg, bright and dark points) corresponding to real objects and edges in the scene. From the user's point of view, image quality is typically unacceptable (eg, noisy) in FIG. 1, while in FIG. 6 the quality is considered to be better.
도 7은 홍채(I1) 및 얼굴(F1)의 이미지를 도시한다. 이미지는 예를 들어 NIST(National Institute of Standards and Technology) 표준들에 설명된 사양들에 따른 최적의 홍채 이미지 획득 시스템을 이용하여 획득될 수 있다. 이러한 사양들은 ANSI/INCITS 379-2004, 홍채 이미지 교환 포맷(Iris Image Interchange Format)에 설명된 것을 포함할 수 있다. 도 7을 참조하면, 홍채의 텍스처는 I1에 의해 지시되는 원형 영역 내의 라인들에 의해 표현된다. 도 8은 홍채의 텍스처의 강도 프로필에 대한 하나의 표현을 도시한다. 일부 실시예들에서는, 도 8(홍채 텍스처 패턴의 강도 프로필)과 도 2(잡음 신호의 강도 프로필) 간의 유사성이 아주 분명할 수 있다. 그러한 유사성의 이유는 각각의 신호/패턴의 소스가 랜덤 프로세스에 의해 특성화된다는 것이다. 홍채의 경우, 페이퍼 티어(paper tear)는 그것이 발생할 때마다 상이한 프로세스와 아주 유사한, 출현(birth) 전의 홍채 조직의 티어링(tearing)에 의해 신호가 생성된다. 센서 잡음의 경우, 샷 잡음 및 다른 잡음들은 랜덤한 시간-가변적인 물리적 프로세스들에 의해 생성된다.7 shows an image of iris I1 and face F1. The image may be obtained using an optimal iris image acquisition system, for example according to the specifications described in the National Institute of Standards and Technology (NIST) standards. Such specifications may include those described in ANSI / INCITS 379-2004, Iris Image Interchange Format. Referring to FIG. 7, the texture of the iris is represented by lines in the circular region indicated by I1. 8 shows one representation of the intensity profile of the texture of the iris. In some embodiments, the similarity between FIG. 8 (intensity profile of the iris texture pattern) and FIG. 2 (intensity profile of the noise signal) may be quite apparent. The reason for such similarity is that the source of each signal / pattern is characterized by a random process. In the case of the iris, the paper tear is signaled by the tearing of the iris tissue before birth, very similar to a different process each time it occurs. In the case of sensor noise, shot noise and other noises are generated by random time-varying physical processes.
홍채 신호 "텍스처"의 주파수 특성들은 NIST 표준들 [ANSI/INCITS 379-2004, 홍채 이미지 교환 포맷(Iris Image Interchange Format)]에서 어느 정도 특성화되었으며, 상이한 홍채 직경 범위들에 대해 예를 들어 밀리미터(mm)당 라인/쌍들에 대응하는 최소 해상도 값들이 지정될 수 있다. 홍채 직경은 특정한 광학적 구성에 의존할 수 있다. 예를 들어, 100-149개 픽셀 사이의 홍채 직경에 대해, 정의된 픽셀 해상도는 밀리미터당 최소 2.0 라인-쌍의 60% 변조에서의 광학적 해상도를 갖는, 밀리미터당 최소 8.3 픽셀일 수 있다. 150-199개 픽셀 사이의 홍채 직경에 대해, 정의된 픽셀 해상도는 밀리미터당 최소 3.0 라인-쌍의 60% 변조에서의 광학적 해상도를 갖는, 밀리미터당 최소 12.5 픽셀일 수 있다. 200개 이상의 픽셀을 갖는 홍채 직경에 대해, 정의된 픽셀 해상도는 밀리미터당 최소 4.0 라인-쌍의 60% 변조에서의 광학적 해상도를 갖는, 밀리미터당 최소 16.7 픽셀일 수 있다. 특정 실시예들에서, 다른 직경에 대해서는, 정의된 픽셀 해상도 및/또는 광학적 해상도 조합들이 적합할 수 있다.The frequency characteristics of the iris signal “texture” have been characterized to some extent in the NIST standards [ANSI / INCITS 379-2004, Iris Image Interchange Format], for example millimeters (mm) for different iris diameter ranges. Minimum resolution values corresponding to lines / pairs may be specified. The iris diameter may depend on the particular optical configuration. For example, for an iris diameter between 100-149 pixels, the defined pixel resolution can be at least 8.3 pixels per millimeter, with optical resolution at 60% modulation of at least 2.0 line-pairs per millimeter. For an iris diameter between 150-199 pixels, the defined pixel resolution can be at least 12.5 pixels per millimeter, with optical resolution at 60% modulation of at least 3.0 line-pairs per millimeter. For an iris diameter with 200 or more pixels, the defined pixel resolution can be at least 16.7 pixels per millimeter, with optical resolution at 60% modulation of at least 4.0 line-pairs per millimeter. In certain embodiments, for other diameters, defined pixel resolution and / or optical resolution combinations may be suitable.
도 9는 전술한 잡음 감소 처리의 일부가 수행된 후의 홍채 텍스처의 강도 프로필을 도시한다. 이 예시적인 경우에, 홍채 텍스처는 잡음 감소에 의해 본질적으로 제거된다. 이것은 영역에 고유한 평균화와 같은 잡음 감소 알고리즘들이 홍채 텍스처와 잡음 사이를 구별하지 못할 수 있기 때문이다. 따라서, 대부분의 이미지 캡처링 장치들에서 표준이거나 통상적인 잡음 감소는 홍채 인식을 수행하도록 적응될 때 제한일 수 있다.9 shows the intensity profile of the iris texture after some of the noise reduction processing described above has been performed. In this example case, the iris texture is essentially removed by noise reduction. This is because noise reduction algorithms such as region-specific averaging may not distinguish between iris texture and noise. Thus, in most image capturing devices, the standard or conventional noise reduction may be a limitation when adapted to perform iris recognition.
본 시스템들 및 방법들은 홍채 인식과 관련된 특정한 특성들을 인식함으로써 이러한 문제를 해결할 수 있다. 도 10은, 하나의 실시예에서, 점선으로 표시된 센서 잡음의 강도 프로필과 함께, (예를 들어, NIST 표준들 [ANSI/INCITS 379-2004, 홍채 이미지 교환 포맷(Iris Image Interchange Format)]에서와 같이) 최적으로 획득된 홍채 텍스처의 강도 프로필을 도시한다. 특정 홍채 인식 프로세스들은 정합된 신호와 탐침 신호 사이의 통계적 독립성의 결여를 식별하는 단계를 수반한다. 한 가지 의의는 랜덤 프로세스에 의해 달성될 가능성이 없는 결과를 산출하는 비교에 의해 통상적으로 매치가 선언된다는 것일 수 있다. 따라서, 원래의 홍채 신호에 상당한 랜덤 및 시간 가변 잡음을 더하는 것은 1) 거짓 매치들이 논-랜덤 매칭(non-random matching)으로부터 발생하므로 거짓 매치 레이트를 크게 증가시키지 않을 수 있고, 2) 홍채 신호의 텍스처가 일반적으로 또는 본질적으로 센서 잡음의 텍스처를 초과하는 경우(예를 들어, 이미지들 자체가 관찰자에게 잡음이 많은 것으로 보이는 경우)에 개인에 대한 거짓 거절 레이트에 대해 제한된 영향을 미칠 수 있으며, 3) 홍채 신호의 텍스처가 센서 잡음의 규모에 비해 유사하거나 더 작은 규모를 갖는 경우에 (제한된 다른 결과들과 함께) 사용자에 대한 거짓 거절 레이트를 증가시킬 수 있다.The present systems and methods can solve this problem by recognizing certain characteristics related to iris recognition. FIG. 10 illustrates, in one embodiment, with the intensity profile of the sensor noise indicated by a dotted line (eg, in NIST standards [ANSI / INCITS 379-2004, Iris Image Interchange Format]). As such, the intensity profile of the optimally obtained iris texture is shown. Certain iris recognition processes involve identifying a lack of statistical independence between the matched signal and the probe signal. One significance may be that a match is typically declared by a comparison yielding results that are not likely to be achieved by a random process. Thus, adding significant random and time varying noise to the original iris signal may not 1) increase the false match rate significantly because false matches arise from non-random matching, and 2) There may be a limited impact on the false rejection rate for an individual if the texture is in general or in essence exceeding the texture of the sensor noise (eg, the images themselves appear noisy to the observer), 3 ) If the texture of the iris signal has a similar or smaller scale than the scale of the sensor noise, it can increase the false rejection rate for the user (along with other limited results).
그러나, 예를 들어 도 3에 도시된 바와 같이 원래의 홍채 신호에 체계적 잡음을 더하는 것은 거짓 매치를 트리거할 수 있는데, 그 이유는 2개의 데이터 세트 사이의 비교가 랜덤 프로세스에 의해 달성되지 못했다는 결과를 산출할 수 있기 때문이다. 따라서, 방법들 및 시스템들의 특정 실시예들은 (예를 들어, 잡음 감소를 통해) 감소된 잡음 레벨들을 갖는 이미지들에 비해 홍채 식별의 성능을 향상시키기 위해, 캡처된 홍채 이미지 내의 잡음(예를 들어, 심지어 상당한 레벨의 잡음)의 존재를 (예를 들어, 반직관적으로) 선호할 수 있다. 일부 실시예들에서, 본 시스템들은 이미지가 홍채 인식을 위해 의도된 때 이미지에 적용되는 비체계적 잡음 감소의 레벨을 줄이거나 없앨 수 있다. 결과적인 이미지들은 (예를 들어, 잡음 감소가 적용된) 처리된 이미지에 비해 아마도 관찰자에게 극히 잡음이 많은 것으로 보일 수 있다. 그러나, 잡음이 많은 이미지가 홍채 인식을 위해 대신 사용되는 경우에 홍채 인식의 성능은 크게 향상될 수 있다. 일부 특정한 하드웨어 구현들에서, 잡음 감소 알고리즘들은 인에이블되고 하드-코딩되며, 턴오프되지 않을 수 있다. 본 방법들 및 시스템들의 일부 실시예들은 본 명세서의 다른 곳에서 설명되는 바와 같이 홍채 텍스처에 대해 예상되는 주파수 대역들에서의 잡음 감소를 피하기 위해 잡음 감소 알고리즘들에 대한 제어를 허용한다.However, adding systematic noise to the original iris signal, for example, as shown in FIG. 3, can trigger a false match because the comparison between the two data sets was not achieved by a random process. This can be calculated. Thus, certain embodiments of the methods and systems provide noise (eg, in the captured iris image) to improve the performance of iris identification compared to images with reduced noise levels (eg, through noise reduction). May even prefer the presence (eg, counterintuitive) of even a significant level of noise. In some embodiments, the present systems can reduce or eliminate the level of unsystematic noise reduction applied to an image when the image is intended for iris recognition. The resulting images may seem extremely noisy to the observer compared to the processed image (eg, with noise reduction applied). However, the performance of iris recognition can be greatly improved if noisy images are used instead for iris recognition. In some specific hardware implementations, noise reduction algorithms may be enabled, hard-coded, and not turned off. Some embodiments of the present methods and systems allow control over noise reduction algorithms to avoid noise reduction in the frequency bands expected for the iris texture as described elsewhere herein.
도 11은 메인 프로세서가 이미지 신호 프로세서, 예를 들어 저레벨 이미지 신호 프로세서를 제어할 수 있는 접근법에 대한 예시적인 구현을 도시한다. 홍채 인식이 수행되는 모드에서, 전술한 바와 같은 잡음 감소 프로세스를 변경하기 위해 신호가 이미지 신호 프로세서로 전송될 수 있다. 체계적 잡음의 규모에 따라, 그러한 잡음은 (예를 들어, 센서의 에지에 있는 픽셀들이 커버되고, 센서 교정을 위해 사용될 수 있는 동적 로우 교정을 이용하여) 제거될 수 있거나, 잡음의 규모가 홍채 텍스처의 신호 규모보다 상당히 더 작은 경우에 그대로 둘 수 있다. 예를 들어, 도 12는 다수의 시나리오를 요약한 테이블은 나타내며, 어떻게 상이한 타입의 잡음이 상이한 이미지 획득 모드들에서 홍채 인식의 성능 및/또는 가시 이미지의 품질에 영향을 미칠 수 있는지를 설명한다.11 illustrates an example implementation of an approach in which the main processor may control an image signal processor, eg, a low level image signal processor. In the mode in which iris recognition is performed, a signal may be sent to the image signal processor to alter the noise reduction process as described above. Depending on the magnitude of the systematic noise, such noise can be removed (e.g., using dynamic low correction, which is covered by pixels at the edge of the sensor and can be used for sensor calibration), or the magnitude of the noise can be reduced to an iris texture. It can be left as is if it is significantly smaller than the signal magnitude of. For example, FIG. 12 shows a table summarizing a number of scenarios and describes how different types of noise can affect the performance of iris recognition and / or the quality of the visible image in different image acquisition modes.
동일 센서 상에서의 최적의 표준 장면 이미지 및 홍채 이미지의 획득과 관련된 또 다른 과제는 표준 이미지 및 홍채 이미지를 위해 필요한 조명의 파장과 관련된다. 홍채 이미지는 통상적으로 적외선 조명을 필요로 하는 반면, 표준 이미지는 통상적으로 가시 조명을 필요로 한다. 때때로 상반되는 제약들이 존재한다. 본 시스템들의 일부 실시예들은 적외선 및 가시 광에 대해 상이한 응답들을 갖는 필터들을 인터리빙함으로써 이를 해결하도록 구성될 수 있다. 이러한 시스템들은 이미지를 캡처할 때 이미지 센서에 대한 그러한 필터들의 복수의 상이한 구성 중 하나를 이용할 수 있다. 인터리빙된 필터를 생성하도록 통합 또는 변경될 수 있는 필터에 대한 하나의 예는 바이엘(Bayer) RGB(적, 녹, 청) 필터 패턴을 갖는 필터이다(예를 들어, 미국 특허 제3,971,065호 참조). (주로, 상당히 또는 단지) 적외선을 통과시키는 필터들이 (주로, 상당히 또는 단지) 컬러 또는 가시 광을 통과시키는 다른 필터들과 인터리빙될 수 있다. 선택된 필터링을 제공하는 필터들의 일부 실시예들은 미국 특허 공개 20070145273 및 미국 특허 공개 20070024931에 설명되어 있다. 본 시스템 및 방법들의 일부 실시예들은 R, G, (G+I), B 인터리빙된 어레이를 대신 사용한다. 이러한 시스템들 중 일부는 사람의 시각 시스템이 통상적으로 가장 민감한 G(녹색) 신호의 완전한(또는 실질적으로 완전한) 해상도를 유지하는 능력을 갖는다.Another challenge associated with obtaining an optimal standard scene image and iris image on the same sensor is related to the wavelength of illumination required for the standard image and the iris image. Iris images typically require infrared illumination, while standard images typically require visible illumination. Sometimes contradictory restrictions exist. Some embodiments of the present systems can be configured to solve this by interleaving filters with different responses to infrared and visible light. Such systems may use one of a plurality of different configurations of such filters for the image sensor when capturing an image. One example of a filter that can be integrated or altered to produce an interleaved filter is a filter with a Bayer RGB (red, green, blue) filter pattern (see, eg, US Pat. No. 3,971,065). Filters that pass (mainly, only or only) infrared light can be interleaved with other filters that pass (mainly, only or only) color or visible light. Some embodiments of filters providing selected filtering are described in US Patent Publication 20070145273 and US Patent Publication 20070024931. Some embodiments of the present systems and methods use R, G, (G + I), B interleaved arrays instead. Some of these systems have the ability of a human visual system to maintain the full (or substantially complete) resolution of the most sensitive G (green) signal.
홍채 인식 모드에서, G(녹색) 응답의 규모는 통상적으로 입사 적외선 조명으로 인한 적외선 응답의 규모보다 훨씬 작다. 일부 실시예들에서는, 인접 (G+I) 신호로부터 (G) 신호를 감산함으로써 홍채 인식 모드에서의 적외선 신호 응답(I)의 추정치가 복구될 수 있다. 표준 이미지 획득 모드에서는, R, G, (G+I), B 신호를 처리하여, G+I가 복구된 픽셀에서의 G의 추정치(G')를 복구할 수 있다. 예를 들어 R, G, T, B 픽셀 어레이가 사용될 때 - 여기서, T는 완전히 투명함 -, 그러한 추정치들을 생성하기 위해 다양한 방법들이 이용될 수 있다. 그러한 구현에서의 T 픽셀은 함께 누적 또는 중첩된 R, G, B 및 I 신호들의 신호들을 포함할 수 있다. 이것은 문제가 될 수 있다. T 픽셀 필터가 참으로 투명한 경우, 효과적인 성능을 위해, R, G, B, I 응답들의 합은 여전히 픽셀의 동적 범위 내에 있어야 한다. 전체 이미지 전반에 걸쳐 주어진 적분 시간 및 픽셀 영역에 대해, 이것은, T 픽셀(R+G+B+I)의 포화가 발생할 수 있으므로 R, G, B 픽셀들의 동적 범위가 충분히 이용될 수 없다는 것을 의미한다. 다른 R, G, B 픽셀들에 비해 T 픽셀에 대해 상이한 픽셀 영역들 및 이득을 설정하는 것이 가능할 수 있지만, 구현 비용이 많이 들 수 있다. 본 시스템들 내에 통합될 수 있는 하나의 개선은 투명 필터 대신에 중립 밀도 필터를 사용하는 것이다. 중립 밀도 필터는 해당 픽셀에서의 모든 파장들(R, G, B, I)의 조명의 규모를 감소시킬 수 있으며, R, G, B 픽셀들에서 충분한 또는 광범위한 픽셀 용량들이 이용되는 것을 가능하게 하여 잡음을 감소시킬 수 있다. 일례로서 0.5 내지 0.6의 값을 갖는 중립 밀도 필터가 선택될 수 있다. 통상적으로 녹색 신호는 함께 결합된 R, G 및 B를 포함하는 휘도 신호의 약 60%에 기여할 수 있다.In iris recognition mode, the magnitude of the G (green) response is typically much smaller than the magnitude of the infrared response due to incident infrared illumination. In some embodiments, the estimate of the infrared signal response I in the iris recognition mode can be recovered by subtracting the (G) signal from the adjacent (G + I) signal. In the standard image acquisition mode, the R, G, (G + I), and B signals can be processed to recover the estimate G 'of the G in the pixel where G + I is recovered. For example, when R, G, T, B pixel arrays are used, where T is completely transparent, various methods may be used to generate such estimates. The T pixel in such an implementation may include signals of R, G, B and I signals accumulated or superimposed together. This can be a problem. If the T pixel filter is truly transparent, for effective performance, the sum of the R, G, B, and I responses must still be within the dynamic range of the pixel. For a given integration time and pixel region throughout the entire image, this means that the saturation of the T pixels (R + G + B + I) may occur so that the dynamic range of R, G, and B pixels is not fully available. do. It may be possible to set different pixel areas and gain for a T pixel relative to other R, G, B pixels, but it may be expensive to implement. One improvement that can be incorporated into the present systems is the use of neutral density filters instead of transparent filters. Neutral density filter can reduce the scale of illumination of all wavelengths (R, G, B, I) at that pixel, allowing sufficient or extensive pixel capacities to be used at R, G, B pixels Noise can be reduced. As an example a neutral density filter having a value of 0.5 to 0.6 can be selected. Typically the green signal can contribute about 60% of the luminance signal comprising R, G and B coupled together.
T 필터가 참으로 투명한 경우, R, G, B 픽셀들의 신호 대 잡음비의 대가로, T 픽셀의 범위를 수용하고, 이를 선형 범위 내로 유지하기 위해, 센서의 전체 동적 범위는 통상적으로 감소되는 것이 필요할 것이다. 본 시스템들의 일부 실시예들에서 R, G, G+I, B 필터 어레이를 통합함으로써 그리고 적색 및 청색 신호들이 G+I 픽셀 내에 존재하지 않으므로, 센서의 전체 동적 범위는 R, G, T, B 어레이의 동적 범위에 비해 증가될 수 있으며, 따라서 신호 대 잡음비가 증가할 수 있다.If the T filter is truly transparent, the overall dynamic range of the sensor typically needs to be reduced to accommodate the range of T pixels and keep it within the linear range, at the expense of the signal-to-noise ratio of the R, G, and B pixels. will be. In some embodiments of the present systems, by integrating the R, G, G + I, B filter arrays and because the red and blue signals are not present in the G + I pixel, the overall dynamic range of the sensor is R, G, T, B This can be increased relative to the dynamic range of the array, thus increasing the signal-to-noise ratio.
조명의 파장과 관련하여, 동일 센서 상에서 최적의 표준 장면 이미지 및 홍채 이미지를 획득하기 위한 본 방법들 및 시스템들의 일부 실시예들에 통합되는 또 다른 접근법은 표준 이미지 센서 또는 렌즈 위에 적외선 차단 필터를 다중화 또는 배치하는 단계를 수반한다. 하나의 실시예에서, 예를 들어 도 14에 도시된 바와 같이, 센서의 일부(예를 들어, 센서 또는 센서 노드들의 20%)는 주로 홍채 인식을 위해 지정될 수 있는 반면, 나머지(예를 들어, 80%) 부분은 표준 이미지 획득을 위해 사용될 수 있다. 이 예에서와 같이, 센서의 하위 부분(예를 들어, 80%)은 표준 IR 차단 필터에 의해 커버될 수 있다. 센서의 나머지 20%는 커버되지 않고 유지될 수 있다. 홍채 인식 모드에서, 커버된 영역은 무시될 수 있다. 예를 들어, 이미지 캡처링 장치 상에서 실행되는 홍채 인식 애플리케이션은 사용자로 하여금 커버되지 않은 20% 영역의 감지 영역 내에 그의 눈을 위치시키도록 안내할 수 있다. 피드백 메커니즘들은 사용자로 하여금 적절한 캡처 영역 내에 사용자의 홍채를 위치시키기 위해 이미지 캡처링 장치를 이동시키도록 안내할 수 있다. 예를 들어, 얼굴은 영상기의 나머지 80%에서 보일 것이므로, 이것은, 옵션으로서 눈 영역 대신에 나타나는 아이콘들로, 사용자 안내 피드백을 위해 사용될 수 있다. 일부 실시예들에서, 이미지 센서는 커버되지 않은 영역을 이용하여 사용자의 홍채의 이미지를 캡처하기 위해 그의 배향을 조정할 수 있다.Regarding the wavelength of illumination, another approach incorporated into some embodiments of the present methods and systems for obtaining an optimal standard scene image and iris image on the same sensor is to multiplex an infrared cut filter over a standard image sensor or lens. Or deploying. In one embodiment, as shown, for example, in FIG. 14, some of the sensors (eg, 20% of the sensors or sensor nodes) may be designated primarily for iris recognition, while others (eg, , 80%) can be used for standard image acquisition. As in this example, the lower portion of the sensor (eg 80%) may be covered by a standard IR cut filter. The remaining 20% of the sensor can remain uncovered. In the iris recognition mode, the covered area can be ignored. For example, an iris recognition application running on an image capturing device can guide a user to place his eye within a sensing area of an uncovered 20% area. Feedback mechanisms can guide the user to move the image capturing device to position the user's iris within the appropriate capture area. For example, since the face will be visible in the remaining 80% of the imager, this may optionally be used for user guide feedback, with icons appearing instead of the eye area. In some embodiments, the image sensor can adjust its orientation to capture an image of the user's iris using the uncovered area.
본 시스템들 및 방법들의 일부 실시예들 내에 통합되는 또 다른 접근법은 컬러 영상기 또는 센서의 전체 또는 상당한 부분에 걸쳐 이중 대역 통과 필터를 사용한다. 그러한 필터는 850 nm 또는 940 nm 근처의 대역들과 같은 선택된 대역들 내의 R, G, B 신호들 및 적외선 신호들 둘 다를 통과시킬 수 있으며, 도 15에 도시된 바와 같은 주파수 응답을 산출할 수 있다. 또 다른 실시예에서, 이미지 획득 시스템은 장치가 표준 이미지 캡처 모드에 있을 때 이미지 센서의 적어도 일부 위의 장소 내에 자동 또는 수동으로 배치되거나 슬라이딩될 수 있는 IR 차단 필터를 사용할 수 있다. 예를 들어, IR 차단 필터는 홍채 이미지를 캡처하기 위해 사용자의 눈과 나란히 정렬되도록 이미지 센서의 일부를 커버할 수 있다. 이미지 센서의 다른 부분들은 예를 들어 사용자의 얼굴의 부분들을 캡처할 수 있다. IR 차단 필터는 센서의 한 단부에 배치될 수 있으며, 따라서 센서 및 그에 따라 캡처된 이미지가 3개 이상의 영역(예로서, 비(non)-IR-차단, IR-차단 및 비-IR-차단)이 아니라 2개의 별개의 영역(IR-차단 및 비-IR-차단)을 갖게 할 수 있다. 이는 장면(예로서, 얼굴)의 더 크고 더 연속적인 비-홍채 부분이 획득되게 하며, 이는 결국 예를 들어 얼굴 식별에 사용될 수 있다. 일부 실시예들에서는, (예를 들어, 옵션으로서) 장치가 홍채 이미지 캡처 모드에 있을 때 이미지 센서 위에 가시광 필터 또는 IR 통과 필터가 배치될 수 있다.Another approach incorporated within some embodiments of the present systems and methods uses a dual band pass filter over all or a substantial portion of a color imager or sensor. Such a filter can pass both R, G, B signals and infrared signals in selected bands, such as bands near 850 nm or 940 nm, and can yield a frequency response as shown in FIG. 15. . In another embodiment, the image acquisition system may use an IR blocking filter that can be automatically or manually placed or slid into place over at least a portion of the image sensor when the device is in a standard image capture mode. For example, the IR blocking filter may cover a portion of the image sensor so that it is aligned with the user's eyes to capture the iris image. Other portions of the image sensor may capture portions of the user's face, for example. The IR cutoff filter may be placed at one end of the sensor, so that the sensor and thus the captured image are in three or more regions (eg, non-IR-blocking, IR-blocking and non-IR-blocking). Rather, it can have two distinct regions (IR-blocking and non-IR-blocking). This allows a larger and more continuous non-iris part of the scene (eg face) to be obtained, which in turn can be used for face identification for example. In some embodiments, a visible light filter or an IR pass filter may be disposed above the image sensor when the device is in an iris image capture mode (eg, as an option).
일부 실시예들에서, 이미지 획득 시스템은 예를 들어 도 16에 도시된 바와 같이 센서에 걸쳐 적외선 차단 및 적외선 통과 필터들을 인터리빙할 수 있다. 인터리빙된 필터는 체커 박스 배열, 다양한 폭의 줄무늬들 또는 다른 교대 및/또는 반복 가능 패턴들의 사용과 같은 다양한 다른 방식으로 구성될 수 있다. 홍채 인식 모드에서, IR 통과 필터 대역들 아래의 센서 픽셀들/노드들로부터의 응답이 홍채 인식에 사용되는 반면, IR 차단 필터 대역들 아래의 센서 픽셀들/노드들로부터의 응답은 표준 이미지 획득 모드에서 사용된다. 일부 실시예들에서, 표준 및 홍채 이미지들 양자는 단일 이미지 캡처를 이용하여, 예컨대 인터리빙 패턴에 대응하는 IR 및 비-IR 이미지 컴포넌트들을 분리함으로써 획득될 수 있다.In some embodiments, the image acquisition system may interleave infrared cutoff and infrared pass filters across the sensor as shown, for example, in FIG. 16. Interleaved filters may be configured in a variety of other ways, such as checker box arrangement, stripes of varying widths or the use of other alternating and / or repeatable patterns. In iris recognition mode, the response from sensor pixels / nodes below the IR pass filter bands is used for iris recognition, while the response from sensor pixels / nodes below the IR blocking filter bands is in standard image acquisition mode. Used in In some embodiments, both standard and iris images can be obtained using a single image capture, such as by separating the IR and non-IR image components corresponding to an interleaving pattern.
일부 실시예들에서, 이미지 센서에 의해 획득되는 이미지는 주변 조명에 의해 영향을 받거나 변형될 수 있다. 예를 들어, 일부 실시예들에서, 적외선 필터링 및/또는 조명이 최적이 아닌 경우, 장면의 이미지들은 홍채 이미지의 획득 동안 눈의 표면(예로서, 각막)으로부터 반사될 수 있다. 이것의 일례가 도 17에 도시되어 있다. (예를 들어, 눈의 각막 상에서의) 이미지의 반사는 일례로서 사용자 주위의 집들을 포함하는 장면의 반사일 수 있다. 그러한 반사들은 아티팩트들로서 지칭될 수 있다. 위에서는 체계적 잡음이 어떻게 홍채 인식의 성능에 악영향을 미칠 수 있는지에 대해 설명하였다. 아티팩트들은 유사한 방법들: 적어도 2개의 이미지, 즉 도 18에 도시된 바와 같이, 제어된 적외선 조명이 턴온된 상태에서의 하나의 이미지 및 도 17에 도시된 바와 같이 제어된 적외선 조명이 턴오프된 상태에서의 적어도 제2 이미지를 획득하는 방법을 이용하여 극복될 수 있다. 이미지 처리 모듈은 이러한 적어도 2개의 이미지를 처리하여, 아티팩트들을 줄이거나 제거할 수 있다. 예를 들어, 일부 실시예들에서, 이미지 처리 모듈은 도 19의 처리도에 도시된 바와 같이 이미지들을 정렬한 후에 이미지들을 서로 감산할 수 있다. 아티팩트 생성 조명은 2개의 이미지 사이에서 본질적으로 변경되지 않는 반면, 홍채 텍스처는 적외선 조명에 의해 조명되므로, 차이를 취함으로써 아티팩트가 제거될 수 있는 반면, 홍채 텍스처는 유지된다. 나머지 홍채 텍스처는 도 20에서 홍채 내의 라인들에 의해 도시된다. 시스템은 예를 들어 센서의 비선형 동작 범위에 있거나 그에 가까운(예를 들어, 포화되거나 어두운) 픽셀들을 식별함으로써 센서의 비선형성을 더 극복할 수 있다. 이미지 처리 모듈은 식별된 픽셀들을 후속 홍채 인식 처리로부터 배제할 수 있다. 그러한 영역들에서의 이미지 감산 처리는 비선형일 수 있으므로, 아티팩트들은 감산 접근법을 이용하여 계속 유지될 수 있다.In some embodiments, the image obtained by the image sensor can be affected or deformed by ambient light. For example, in some embodiments, if infrared filtering and / or illumination is not optimal, images of the scene may be reflected from the surface of the eye (eg, the cornea) during acquisition of the iris image. An example of this is shown in FIG. The reflection of the image (eg, on the cornea of the eye) may be, for example, a reflection of a scene including houses around the user. Such reflections may be referred to as artifacts. Above, we explain how systematic noise can adversely affect the performance of iris recognition. The artifacts are similar methods: at least two images, one image with the controlled infrared illumination turned on as shown in FIG. 18 and a controlled infrared illumination turned off as shown in FIG. 17. It can be overcome using a method of obtaining at least a second image in. The image processing module may process these at least two images to reduce or eliminate artifacts. For example, in some embodiments, the image processing module may subtract images from each other after aligning the images as shown in the processing diagram of FIG. 19. Artifact generation illumination is essentially unchanged between the two images, while the iris texture is illuminated by infrared illumination, so that artifacts can be eliminated by making a difference, while the iris texture is maintained. The remaining iris texture is shown by the lines in the iris in FIG. 20. The system can further overcome the nonlinearity of the sensor by, for example, identifying pixels that are in or near (eg, saturated or dark) the nonlinear operating range of the sensor. The image processing module may exclude the identified pixels from subsequent iris recognition processing. Image subtraction processing in such areas can be nonlinear, so artifacts can be maintained using a subtraction approach.
본 방법들의 다른 실시예는 사용자, 이미지 캡처링 장치, 및 변형 또는 아티팩트들의 소스의 위치에 대한 특정한 기하학적 제약들을 이용함으로써 이미지들의 변형을 관리한다. 이미지 처리 모듈은 사용자가 홍채 인식 모드 동안 사용자의 얼굴의 정면에 이미지 캡처링 장치를 유지할 때 이미지 캡처링 장치가 예를 들어 도 21에 도시된 바와 같이 획득된 홍채 이미지의 한 섹터 내에서 변형을 야기하는 주변 조명의 소스들을 줄이거나, 심지어 차단할 수 있다는 것을 인식하도록 구성될 수 있다. 도 22에 도시된 바와 같이, 이미지 처리 모듈은 홍채 인식을 주로 또는 단지 이 섹터로 제한하여, 이미지 변형과 관련된 이슈들을 피할 수 있다. 일부 실시예들에서, 이미지의 이 섹터에 기초하는 홍채 인식은 생체 매치를 결정함에 있어서 다른 섹터들보다 높게 가중될 수 있다.Another embodiment of the methods manages the deformation of the images by using specific geometrical constraints on the location of the user, the image capturing device, and the source of the deformation or artifacts. The image processing module causes the image capturing device to deform within a sector of the acquired iris image, for example, as shown in FIG. 21 when the user holds the image capturing device in front of the user's face during iris recognition mode. It may be configured to recognize that it can reduce or even block the sources of ambient light. As shown in FIG. 22, the image processing module can limit iris recognition mainly or only to this sector, thereby avoiding issues related to image deformation. In some embodiments, iris recognition based on this sector of the image may be weighted higher than other sectors in determining the biometric match.
일부 실시예들에서, 적외선 조명은 이미지 캡처 동안 쉽게 이용되지 못하거나 보증되지 못한다. 이미지 획득 시스템(200)은 적외선 조명을 제어 및/또는 제공하도록 구성될 수 있다. 이미지 획득 시스템은 도 23에 도시된 바와 같이 장치가 홍채 인식 모드에 있을 때 적외선 소스(예로서, LED들)로 조명함으로써 전력 사용을 감소시킬 수 있다.In some embodiments, infrared illumination is not readily available or warranted during image capture. Image acquisition system 200 may be configured to control and / or provide infrared illumination. The image acquisition system may reduce power usage by illuminating with an infrared source (eg, LEDs) when the device is in iris recognition mode as shown in FIG. 23.
도 24는 본 명세서에서 설명되는 시스템들 및 방법들의 일부 특징들을 이용하는 이미지 획득 시스템(200)에 대한 하나의 실시예를 도시한다. 이미지 획득 시스템(200)은 이동 및/또는 소형 장치와 같은 장치 내에 구현될 수 있다. 장치는 센서를 갖는 스크린을 포함할 수 있다. 적외선 LED들은 조명을 제공할 수 있다. 사용자는 터치 스크린 또는 다른 입력 장치(예를 들어, 키보드, 버튼 또는 음성 명령 인식)를 이용하여, 홍채 인식 모드와 표준 사진 촬영 모드 사이에서 스위칭할 수 있다. 장치는 애플리케이션을 포함할 수 있으며, 사용자는 이를 통해 이미지 캡처링 모드를 활성화할 수 있다. 애플리케이션은 사용자의 홍채를 자동으로 찾거나, 사용자로 하여금 사용자의 홍채를 적절한 캡처 영역 내로 이동시키도록 안내하기 위한 피드백 또는 안내 메커니즘을 더 제공할 수 있다. 일부 실시예들에서는, 홍채 이미지 캡처 모드에 있을 때 옵션인 IR 차단 필터가 수동으로 또는 자동으로 활성화되거나 이미지 센서 위로 이동될 수 있다. 다른 필터들(예를 들어, IR 통과 필터)이 적절한 모드(들)에서 통합 및/또는 활성화될 수 있다. 특정 실시예들에서, 이미지 획득 시스템(200)의 소정의 특징들이 이동 또는 기존 장치를 위한 애드-온 액세서리 또는 슬리브 내에 포함될 수 있다. 일례로서, 그러한 특징들은 적외선 조명기, 하나 이상의 필터, 및/또는 이동 또는 기존 장치에 대한 인터페이스(예로서, 무선 또는 물리)를 포함할 수 있다.FIG. 24 illustrates one embodiment of an image acquisition system 200 utilizing some features of the systems and methods described herein. Image acquisition system 200 may be implemented within a device, such as a mobile and / or handheld device. The device may include a screen with a sensor. Infrared LEDs can provide illumination. The user can switch between the iris recognition mode and the standard picture capture mode using a touch screen or other input device (eg, keyboard, button or voice command recognition). The device may include an application, through which the user may activate the image capturing mode. The application may further find the user's iris or provide further feedback or guidance mechanisms to guide the user to move the user's iris into the appropriate capture area. In some embodiments, an optional IR blocking filter may be manually or automatically activated or moved over the image sensor when in iris image capture mode. Other filters (eg, IR pass filter) may be integrated and / or activated in the appropriate mode (s). In certain embodiments, certain features of image acquisition system 200 may be included in an add-on accessory or sleeve for a mobile or existing device. As an example, such features may include an infrared illuminator, one or more filters, and / or an interface (eg, wireless or physical) to a mobile or existing device.
일부 실시예들에서, 이미지 획득 시스템(200)은 적외선 조명을 이용한 사용자 눈의 조명을 위해 이미지 획득 시스템(200)의 스크린 내에 내장된 적외선 조명기들을 포함할 수 있다. 스크린들 및 디스플레이들은 통상적으로 LCD 행렬 아래에 백색 LED 조명을 사용한다. 가시광 LED들의 소정 부분을 근적외선 조명기들로 대체하거나 이들을 추가함으로써, 디스플레이 자체에 의해 IR 조명의 소스가 제공될 수 있다. 그러한 실시예에서, 이미지 획득 시스템(200)은 적외선 조명을 제공하기 위해 이미지 획득 시스템(200) 상에 추가적인 고정물 또는 영역을 필요로 하지 않을 수 있어, 따라서 공간이 절약될 수 있다.In some embodiments, image acquisition system 200 may include infrared illuminators embedded within the screen of image acquisition system 200 for illumination of a user's eye using infrared illumination. Screens and displays typically use white LED illumination below the LCD matrix. By replacing or adding some of the visible light LEDs to near infrared illuminators, the source of IR illumination can be provided by the display itself. In such embodiments, the image acquisition system 200 may not require additional fixtures or areas on the image acquisition system 200 to provide infrared illumination, thus saving space.
특정 실시예들에서, 이미지 획득 시스템(200)은 예를 들어 두 가지 조명 강도를 갖는 가시 조명기를 포함할 수 있다. 가시 조명기는 홍채 이미지 획득 모드 동안 낮은 전력에서 턴온될 수 있다. 저전력 조명은 사용자를 산만하게 하거나 불편하게 하지 않기 위해 선택될 수 있다. 일부 실시예들에서, 저전력 모드에서의 휘도 레벨은 가시 조명기의 최대 휘도보다 적어도 2배 어두울 수 있다. 후자 휘도 레벨은 예를 들어 더 넓은 장면을 조명하는 데 사용될 수 있다. 저전력 가시 조명기는 사용자가 어두운 곳에 있는지의 여부에 관계없이 홍채를 수축시키고 홍채 영역을 증가시키는 데 사용될 수 있다. 그러나, 가시 조명기는 눈에 가까울 수 있으므로, 전술한 필터들 중 일부는 여전히 상당한 가시광을 센서 내로 전달할 수 있다. 따라서, 일부 실시예들에서, 가시광은 근적외선 조명기가 턴온된 동안 홍채의 이미지들이 획득되기 전에 턴오프된다. 대안 실시예에서, 스크린 자체는 가시 조명의 소스로서 사용될 수 있다.In certain embodiments, image acquisition system 200 may include, for example, a visible illuminator having two illumination intensities. The visible illuminator can be turned on at low power during the iris image acquisition mode. Low power lighting can be selected to not distract or distract the user. In some embodiments, the luminance level in the low power mode can be at least twice as dark as the maximum luminance of the visible illuminator. The latter luminance level can be used, for example, to illuminate a wider scene. Low power visible illuminators can be used to constrict the iris and increase the iris area whether the user is in the dark or not. However, since visible illuminators can be close to the eye, some of the filters described above can still deliver significant visible light into the sensor. Thus, in some embodiments, visible light is turned off before images of the iris are acquired while the near infrared illuminator is turned on. In an alternative embodiment, the screen itself may be used as the source of visible light.
일부 실시예들에서, 이미지 획득 시스템(200)에서 단일 센서를 사용하는 것의 한 가지 장점은 시스템에 의해 점유되는 공간이 이중 센서의 사용에 비해 최소화될 수 있다는 것이다. 그러나, 어느 경우에나, 중요한 고려 대상은 단일 센서 또는 이중 센서 장치를 효과적으로 사용하기 위한 사용자 및/또는 운영자의 능력이다.In some embodiments, one advantage of using a single sensor in image acquisition system 200 is that the space occupied by the system can be minimized compared to the use of dual sensors. In either case, however, an important consideration is the ability of the user and / or operator to effectively use a single sensor or dual sensor device.
일부 실시예들에서, 사용자로 하여금 사용자의 홍채를 이미지 센서의 적절한 캡처 구역과 나란히 정렬하도록 안내하는 것을 돕기 위해, 미러형(mirrored) 표면이 이용될 수 있다. 미러형 표면은 도 25에 도시된 바와 같이 사용자의 위치를 사용자에게 피드백할 수 있으며, 이 경우에 사용자는 그의 정면에 장치를 유지하고, 사용자의 얼굴 중 일부의 가상 이미지는 사용자로부터 장치까지의 거리의 2배에서 관찰된다. 그러나, 사람 시각 시스템의 속성, 시각 우성(ocular dominance) 및 홍채 인식 시스템의 요구사항들로 인해, 미러의 최적 크기는 예상될 수 있는 바와 같이 미러까지의 사용자의 거리와 선형으로 스케일링되지 않을 수 있다. 실제로, 일부 조건들 하에서, 홍채 인식 성능을 시도하고 개선하기 위한 미러의 크기의 증가는 성능을 저하시키거나 정렬에 있어서 어려움을 유발할 수 있다.In some embodiments, a mirrored surface may be used to help guide the user to align the user's iris with the proper capture area of the image sensor. The mirrored surface can feed back the user's location to the user as shown in FIG. 25, in which case the user holds the device in front of him, and a virtual image of some of the user's face is the distance from the user to the device. It is observed at twice. However, due to the nature of the human vision system, the ocular dominance and the requirements of the iris recognition system, the optimal size of the mirror may not be scaled linearly with the user's distance to the mirror as can be expected. . Indeed, under some conditions, increasing the size of the mirror to try and improve iris recognition performance can degrade performance or cause difficulty in alignment.
시각 우성은 하나의 눈 또는 다른 눈으로부터의 시각적 입력을 선호하는 경향이다. 이것은 대부분의 사람들에게서 발생하며, 사람들 중 2/3는 우안 우성을 갖고, 사람들 중 1/3은 좌안 우성을 갖는다. 복구되는 홍채 이미지의 크기를 최대화하는 한편 사용자를 안내하는 데 사용되는 미러의 크기를 최소화하기 위해, 본 시스템들 및 방법들은 시각 우성을 다루고 시각 우성의 속성들과 홍채 인식의 제약들을 조합한다.Visual dominance tends to favor visual input from one eye or the other. This occurs in most people, with two thirds of them having right eye dominance and one third of people having left eye dominance. In order to maximize the size of the iris image to be recovered while minimizing the size of the mirror used to guide the user, the present systems and methods address visual dominance and combine the attributes of visual dominance with the constraints of iris recognition.
도 26은 양 눈이 시야를 편안히 점유하게 하는 크기의 미러의 반사 시야를 도시한다. 일부 실시예들에서, 미러의 폭은 이미지 획득 장치(200)의 관찰 거리에서 반사 시야가 눈 간격의 반사보다 적어도 약 50% 더 넓을 수 있게 한다. 설명을 위해, 사용자는 미러의 중앙에 도시된다. 그러나, 도 27은 실제로 시각 우성으로 인해 사용자가 통상적으로 미러의 일측에 위치하여 그의 우성 시각이 미러의 중앙에 더 가깝다는 것을 보여준다. 미러의 시야의 폭이 사용자들의 통상의 눈 간격(6.5-7cm)의 시야의 50%보다 큰 경우, 눈들은 시야 내에 계속 있을 수 있다. 따라서, 양 눈은 시각 우성을 갖는 사람들을 위한 이미지 획득 시스템(200)에 의해 획득될 수 있는데, 이는 양 눈이 그러한 경우에 이미지 센서의 시야 내에 계속 있을 수 있기 때문이다. 그러나, 캡처된 이미지 내의 홍채 직경은 비교적 작을 수 있는데, 이는 센서의 렌즈가 통상적으로 넓은 시야를 커버하도록 선택되기 때문이다.FIG. 26 shows a reflective field of view of a mirror sized to allow both eyes to comfortably occupy the field of view. In some embodiments, the width of the mirror allows the reflected field of view at the viewing distance of the image acquisition device 200 to be at least about 50% wider than the reflection of the eye gap. For illustration purposes, the user is shown in the center of the mirror. However, FIG. 27 actually shows that due to the visual dominance the user is typically located on one side of the mirror so that his dominant vision is closer to the center of the mirror. If the width of the mirror's field of view is greater than 50% of the field of view of the user's normal eye interval (6.5-7 cm), the eyes may remain within the field of view. Thus, both eyes may be acquired by the image acquisition system 200 for people with visual dominance, since both eyes may remain in the field of view of the image sensor in that case. However, the iris diameter in the captured image can be relatively small because the lens of the sensor is typically chosen to cover a wide field of view.
도 28은 시각 우성을 고려하지 않고 더 작은 미러를 이용하여 양 눈의 이미지들을 획득하기 위한 구성을 도시한다. 미러의 시야는 더 작으며, 따라서 임의의 이미지 획득 시스템(200) 상에서 그의 영역을 최소화한다. 양 눈은 사용자가 미러의 중앙에 배치되는 경우에 포착될 수 있다. 그러나, 전술한 바와 같이, 시각 우성으로 인해, 사용자는 통상적으로 도 29 및 30에 도시된 바와 같이 이 최적 위치의 우측 또는 좌측에 배치된다. 이러한 시나리오에서, 눈들 중 하나는 카메라의 시야 밖에 위치할 수 있다. 따라서, 이러한 구성은 적당히 큰 미러를 갖지만, 렌즈가 (중앙 위치에 있을 때) 양 눈을 포착하도록 구성될 수 있는 경우에도, 시각 우성으로 인해, 이미지 획득 시스템(200)은 실제로는 한 눈만 믿을만하게 포착할 수 있다.28 shows a configuration for acquiring images of both eyes using a smaller mirror without considering visual dominance. The field of view of the mirror is smaller, thus minimizing its area on any image acquisition system 200. Both eyes can be captured when the user is placed in the center of the mirror. However, as mentioned above, due to visual dominance, the user is typically placed on the right or left side of this optimal position as shown in FIGS. 29 and 30. In such a scenario, one of the eyes may be located outside the field of view of the camera. Thus, this configuration has a reasonably large mirror, but even if the lens can be configured to capture both eyes (when in the center position), due to the visual dominance, the image acquisition system 200 will in fact reliably only have one eye. Can be captured.
도 31은 도 30에 비해 더 높은 해상도의 홍채 이미지를 획득하지만(즉, 홍채 인식 성능을 개선), 우성 시각만이 사용자에 의해 관찰되도록 더 작은 미러를 사용하는 설계를 도시한다. 우성 시각만이 시야 내에 있도록 미러의 크기를 제한함으로써, 사용자의 시각 시스템이 좌측 또는 우측 눈을 선택하는 경향이 시야 내에서의 가변적인 또는 예측 불가한 응답(예를 들어, 좌측 또는 우측으로 시프트된 눈들)과는 대조적으로, 이진 응답(예를 들어, 좌측 또는 우측 눈)이 되도록 강제된다. 일부 실시예들에서, 이미지 획득 시스템(200)은 약 9"의 동작 거리에서 약 14mm의 직경을 갖는 미러를 동작시키거나 포함할 수 있어, 미러의 반사 시야는 약 2개의 통상적인 홍채 직경(2 x 10.5mm)에 대응한다. 도 32는 미러의 유효 시야의 크기 및 1 또는 2-눈 캡처에 대한 그의 관계 및 또한 획득된 홍채 이미지의 크기를 요약하고 도시한다.FIG. 31 shows a design using a smaller mirror so that a higher resolution iris image is obtained (ie, improving iris recognition performance) compared to FIG. 30, but only dominant vision is observed by the user. By limiting the size of the mirror so that only the dominant vision is within the field of view, the user's visual system tends to select the left or right eye with a variable or unpredictable response (e.g., shifted left or right) within the field of view. In contrast to eyes), it is forced to be a binary response (eg, left or right eye). In some embodiments, image acquisition system 200 may operate or include a mirror having a diameter of about 14 mm at an operating distance of about 9 "such that the reflective field of view of the mirror is approximately two conventional iris diameters (2). x 10.5 mm) Figure 32 summarizes and shows the size of the effective field of view of the mirror and its relationship to one or two-eye capture and also the size of the obtained iris image.
도 33은 IR 차단 필터를 센서 일부 위에 배치한 이미지 획득 시스템(200)에 대한 하나의 실시예를 도시한다. 얼굴 또는 다른 이미지가 센서의 일부에 의해 획득될 수 있고, 홍채 인식을 위한 이미지는 IR 차단 필터에 의해 커버된 부분에 의해 획득된다. 시각 우성은 사람 눈들의 수평 구성으로 인해 수평 방향에서의 불확실성을 제공하는 경향이 있으며, 따라서 이미지 획득 시스템(200)은 센서 위에 수평으로 성형된 필터 영역을 갖도록 적절히 구성될 수 있다. 도 34는 사용자가 센서/렌즈 어셈블리를 비스듬히 관찰하고, 눈들이 센서의 중앙에 있는 것이 아니라 센서의 상부에 가깝도록 미러가 경사진 또 다른 실시예를 도시한다. 이러한 구성은 센서의 하나의 단부에 IR 차단 필터를 배치하는 것을 가능하게 하여, 센서가 도 33에 도시된 경우인 3개의 영역(비-IR-차단, IR-차단 및 비-IR-차단)이 아니라 2개의 별개의 영역(IR-차단 및 비-IR-차단)을 갖게 할 수 있다. 이것은 장면의 더 크고 더 연속적인 비-홍채 부분이 획득될 수 있게 한다.33 illustrates one embodiment of an image acquisition system 200 with an IR cut filter disposed over a portion of the sensor. A face or other image can be obtained by part of the sensor, and the image for iris recognition is obtained by the part covered by the IR blocking filter. The visual dominance tends to provide uncertainty in the horizontal direction due to the horizontal configuration of the human eyes, so the image acquisition system 200 can be suitably configured to have a horizontally shaped filter area over the sensor. FIG. 34 illustrates another embodiment where the user observes the sensor / lens assembly at an angle and the mirror is inclined such that the eyes are close to the top of the sensor rather than at the center of the sensor. This configuration makes it possible to place an IR blocking filter at one end of the sensor, so that the three regions (non-IR-blocking, IR-blocking and non-IR-blocking), which is the case where the sensor is shown in FIG. As well as having two distinct regions (IR-blocking and non-IR-blocking). This allows a larger and more continuous non-iris part of the scene to be obtained.
도 35는 운영자가 사용자의 홍채 이미지를 획득하기 위해 이미지 획득 장치(200)를 유지하고 있을 수 있는 이미지 획득 시스템(200)의 또 다른 실시예를 도시한다. 이 실시예에서는, 운영자가 사용자의 눈과 일렬로 세워지기 위해 볼 수 있는 투시(see-through) 안내 채널이 존재한다. 추가로 또는 대안으로서, 이격된 안내 마커들이 이미지 획득 장치(200)의 상부에 배치될 수 있어, 운영자는 예를 들어 2개의 마커를 이용하여 사용자의 눈을 일렬로 세운다. 도 36은 안내 채널에 대한 하나의 실시예의 확대도를 도시한다. 이 실시예에서는, 도시된 바와 같이, 안내 채널의 내측 부분 상에, 안내 채널의 앞뒤에 원형 링들이 인쇄될 수 있다. 사용자가 정렬될 때, 이 링들은 운영자에게 동심원으로 보일 수 있다. 그렇지 않은 경우, 이들은 동심원이 아닐 것이다(사용자의 눈이 오정렬). 도 36은 또한 장치 상의 가시 조명기(LED)는 물론, 홍채 인식을 목적으로 사용될 수 있는 적외선 조명기들을 도시한다. 도 37은 이미지 획득 시스템의 또 다른 실시예를 도시한다. 이 실시예에서, LED들은 제어기들에 의해 제어되는데, 제어기들은 프로세서에 접속되고, 프로세서는 또한 홍채 인식에 사용되는 센서에 접속된다.35 illustrates another embodiment of an image acquisition system 200 in which an operator may be holding the image acquisition device 200 to acquire an iris image of a user. In this embodiment, there is a see-through guidance channel that the operator can see to line up with the eyes of the user. Additionally or alternatively, spaced guiding markers may be placed on top of the image acquisition device 200, such that the operator lines up the user's eyes, for example using two markers. 36 shows an enlarged view of one embodiment for a guide channel. In this embodiment, as shown, circular rings may be printed on the inner portion of the guide channel before and after the guide channel. When the user is aligned, these rings may appear concentric to the operator. Otherwise they will not be concentric (users' eyes misaligned). 36 also shows visible illuminators (LEDs) on the device, as well as infrared illuminators that can be used for iris recognition purposes. 37 illustrates another embodiment of an image acquisition system. In this embodiment, the LEDs are controlled by controllers, which are connected to the processor, which is also connected to the sensor used for iris recognition.
도 38에는 단일 이미지 센서를 이용하여 홍채 및 장면의 이미지들을 캡처하기 위한 방법에 대한 하나의 실시예가 도시된다. 이미지 센서는 적어도 하나의 이미지 내에서 장면의 뷰 및 홍채의 뷰를 캡처한다(382). 이미지 처리 모듈은 잡음 감소의 레벨을 적어도 하나의 이미지의 제1 부분에 적용하여 장면의 이미지를 생성한다(384). 이미지 처리 모듈은 감소된 잡음 감소의 레벨을 적어도 하나의 이미지의 제2 부분에 적용하여, 생체 식별에 사용할 홍채의 이미지를 생성한다(단계 386).38 shows one embodiment of a method for capturing images of an iris and a scene using a single image sensor. The image sensor captures 382 a view of the scene and a view of the iris within the at least one image. The image processing module generates 384 an image of the scene by applying a level of noise reduction to the first portion of the at least one image. The image processing module applies the level of reduced noise reduction to the second portion of the at least one image to generate an image of the iris for use in biometric identification (step 386).
도 38을 더 참조하면, 더 상세하게는, 이미지 획득 시스템(200)의 이미지 센서(202)가 적어도 하나의 이미지 내에서 장면의 뷰 및 홍채의 뷰를 캡처한다(382). 이미지 센서는 하나의 이미지 내에서 장면의 뷰를 캡처하고 또 다른 이미지 내에서 홍채의 뷰를 캡처할 수 있다. 일부 실시예들에서, 이미지 센서는 단일 이미지 내에서 장면의 뷰 및 홍채의 뷰를 캡처할 수 있다. 예를 들어, 장면의 뷰는 홍채의 적어도 일부를 포함할 수 있다. 이미지 센서는 복수의 이미지 내에서 장면의 뷰 및 홍채의 뷰를 캡처할 수 있다. 이미지 센서는 일부 이미지들 내에서 장면의 뷰를 캡처하고 다른 이미지들 내에서 홍채의 뷰를 캡처할 수 있다. 이미지 센서는 일부 이미지들 내에서 장면의 뷰 및 홍채의 뷰를 캡처할 수 있다. 이미지 센서는 소정 기간에 걸쳐 둘 이상의 이미지를 캡처할 수 있다. 이미지 센서는 예를 들어 추후 비교 또는 처리를 위해 둘 이상의 이미지를 서로의 짧은 시간 프레임 내에 캡처할 수 있다. 이미지 센서는 상이한 조건들 하에, 예를 들어 적외선 조명이 있거나 없는 조건에서 또는 본 명세서에서 논의되는 임의의 타입의 필터를 사용하거나 사용하지 않는 조건 하에 둘 이상의 이미지를 캡처할 수 있다.With further reference to FIG. 38, more specifically, the
일부 실시예들에서, 이미지 획득 시스템(200)은 홍채 캡처링 모드 및 픽처(예로서, 비-홍채) 캡처링 모드를 포함할 수 있다. 이미지 센서는 픽처 캡처링 모드에서 장면의 뷰의 이미지를 캡처할 수 있다. 이미지 센서는 홍채 캡처링 모드에서 홍채의 뷰의 이미지를 캡처할 수 있다. 특정 실시예들에서, 이미지 획득 시스템(200)은 또 다른 모드에서 홍채 및 비-홍채 이미지의 동시 캡처를 수행할 수 있다. 사용자는 예를 들어 이미지 획득 장치(200)에서 실행되는 애플리케이션을 통해 이미지 획득을 위한 모드를 선택할 수 있다. 일부 실시예들에서, 이미지 획득 시스템은 장면의 뷰 및 홍채의 뷰를 단일 이미지 내에서 분리가능한 컴포넌트들로서 캡처할 수 있다. 이미지 획득 시스템은 인터리빙된 필터, IR 차단 필터, IR 통과 필터 및 본 명세서에서 설명된 다른 타입의 필터들의 임의의 실시예 및/또는 조합을 이용하여 장면의 뷰 및/또는 홍채의 뷰를 캡처할 수 있다.In some embodiments, image acquisition system 200 may include an iris capturing mode and a picture (eg, non-iris) capturing mode. The image sensor may capture an image of a view of the scene in picture capturing mode. The image sensor may capture an image of a view of the iris in iris capturing mode. In certain embodiments, image acquisition system 200 may perform simultaneous capture of iris and non-iris images in another mode. The user may select a mode for image acquisition through, for example, an application executed in the image acquisition apparatus 200. In some embodiments, the image acquisition system can capture the view of the scene and the view of the iris as separable components within a single image. The image acquisition system may capture a view of the scene and / or a view of the iris using any embodiment and / or combination of interleaved filters, IR blocking filters, IR pass filters, and other types of filters described herein. have.
일부 실시예들에서, 이미지 센서는 이미지 센서의 복수의 센서 노드를 포함한다. 이미지 센서는 주로 생체 식별에 적합한 홍채의 이미지를 캡처하도록 적응되는 센서 노드들의 제1 서브세트를 활성화시킬 수 있다. 이미지 센서는 주로 비-홍채 이미지를 캡처하도록 적응되는 센서 노드들의 제2 서브세트를 활성화시킬 수 있다. (예를 들어 G+I를 통과시키는) IR 통과 (G+I) 필터 또는 다른 필터가 주로 홍채의 이미지를 캡처하도록 적응되는 센서 노드 위에 적용될 수 있다. IR 차단, 가시광 통과, 특정 대역 통과 또는 컬러 필터가 주로 비-홍채 이미지를 캡처하도록 적응되는 센서 노드 위에 적용될 수 있다.In some embodiments, the image sensor includes a plurality of sensor nodes of the image sensor. The image sensor may activate a first subset of sensor nodes that are adapted to capture an image of the iris primarily suitable for biometric identification. The image sensor may activate a second subset of sensor nodes that are primarily adapted to capture non-iris images. An IR pass (G + I) filter or other filter (eg, passing G + I) may be applied over the sensor node which is primarily adapted to capture an image of the iris. IR blocking, visible light pass, specific band pass or color filters may be applied over sensor nodes that are primarily adapted to capture non-iris images.
일부 실시예들에서, 이미지 센서는 적외선 조명을 이용하여 홍채를 조명하는 동안 홍채의 적어도 하나의 이미지를 캡처한다. 이미지 센서는 적외선 조명 없이 홍채의 적어도 하나의 이미지를 캡처할 수 있다. 이미지 센서는 가시광 조명기의 턴오프시 홍채의 적어도 하나의 이미지를 캡처할 수 있다. 이미지 센서는 이미지 획득 시스템(200)의 스크린으로부터의 조명을 이용하여 홍채의 적어도 하나의 이미지를 캡처할 수 있다. 이미지 센서는, 안내를 위한 이미지 획득 시스템(200)의 미러를 이용하여 홍채가 센서의 일부와 정렬될 때, 홍채의 적어도 하나의 이미지를 캡처할 수 있다. 이미지 센서는, 운영자에 의해 투시 안내 채널 및/또는 마커들을 이용하여 홍채가 센서의 일부와 정렬될 때, 홍채의 적어도 하나의 이미지를 캡처할 수 있다.In some embodiments, the image sensor captures at least one image of the iris while illuminating the iris using infrared illumination. The image sensor may capture at least one image of the iris without infrared illumination. The image sensor may capture at least one image of the iris upon turning off the visible light illuminator. The image sensor may capture at least one image of the iris using illumination from the screen of the image acquisition system 200. The image sensor may capture at least one image of the iris when the iris is aligned with a portion of the sensor using a mirror of the image acquisition system 200 for guidance. The image sensor may capture at least one image of the iris when the iris is aligned with a portion of the sensor using a see-through channel and / or markers by the operator.
384를 더 참조하면, 이미지 처리 모듈은 잡음 감소의 레벨을 적어도 하나의 이미지의 제1 부분에 적용하여 장면의 이미지를 생성할 수 있다. 이미지 획득 시스템(200)은 이미지 센서에 의해 캡처된 이미지에 대해 잡음 감소를 적용할 수 있다. 이미지 획득 시스템(200)은 이미지 획득 시스템(200), 예를 들어, 저장 장치 또는 버퍼에 저장된 이미지에 대해 잡음 감소를 적용할 수 있다. 이미지 획득 시스템(200)은 이미지들의 일부 픽셀들, 예를 들어 3x3 픽셀 윈도에 걸쳐 평균 또는 중앙 함수 또는 필터를 적용하는 것을 포함하는 잡음 감소를 적용할 수 있다. 이미지 획득 시스템(200)은 캡처된 이미지로부터의 시간 가변 및 시간 불변 잡음 중 하나 또는 양자의 감소를 포함하는 잡음 감소를 적용할 수 있다. 이미지 획득 시스템(200)은 이미지 처리 및/또는 잡음 감소를 수행하는 동안 알려진 결함 픽셀을 처리하거나 배제할 수 있다. 이미지 획득 시스템(200)은 하나 이상의 이미지 신호 프로세서(206) 및/또는 다른 프로세서(208)를 포함할 수 있는 이미지 처리 모듈을 이용하여 잡음 감소를 적용할 수 있다. 이미지 획득 시스템(200)은 체계적 잡음의 존재를 식별, 처리 및/또는 보상함으로써 잡음 감소를 적용할 수 있다.Referring further to 384, the image processing module may apply the level of noise reduction to the first portion of the at least one image to generate an image of the scene. The image acquisition system 200 may apply noise reduction on the image captured by the image sensor. The image acquisition system 200 may apply noise reduction to images stored in the image acquisition system 200, for example, a storage device or a buffer. Image acquisition system 200 may apply noise reduction, including applying an average or median function or filter over some pixels of the images, eg, a 3x3 pixel window. Image acquisition system 200 may apply noise reduction, including reduction of one or both of time varying and time invariant noise from the captured image. Image acquisition system 200 may process or exclude known defect pixels while performing image processing and / or noise reduction. Image acquisition system 200 may apply noise reduction using an image processing module, which may include one or more
일부 실시예들에서, 이미지 처리 모듈은 비-홍채 캡처 모드에서 캡처된 이미지에 대해 잡음 감소를 적용할 수 있다. 이미지 처리 모듈은 홍채 생체 인식을 위한 것이 아닌 이미지의 부분, 예를 들어 IR 차단 필터에 대응하는 부분에 대해 잡음 감소의 레벨을 적용할 수 있다. 이미지 처리 모듈은 일반 또는 비-홍채 이미지에 대해 잡음 감소 또는 필터링을 적용할 수 있다. 이미지 처리 모듈은 잡음 감소 전의 이미지보다 (예를 들어, 사람에게) 더 양호하게 인식될 수 있는 일반 장면의 이미지를 생성할 수 있다.In some embodiments, the image processing module can apply noise reduction on the image captured in the non-iris capture mode. The image processing module may apply the level of noise reduction to portions of the image that are not for iris biometrics, for example portions corresponding to IR cutoff filters. The image processing module may apply noise reduction or filtering on normal or non-iris images. The image processing module may generate an image of the general scene that may be perceived better (eg, to a human) than the image before the noise reduction.
386을 더 참조하면, 이미지 처리 모듈은 적어도 하나의 이미지의 제2 부분에 대해 감소된 잡음 감소의 레벨을 적용하여, 생체 식별에 사용할 홍채의 이미지를 생성할 수 있다. 일부 실시예들에서, 이미지 처리 모듈은 홍채 생체 식별에 사용할 이미지에 대한 잡음 감소를 디스에이블할 수 있다. 이미지 처리 모듈은 잡음 레벨이 캡처된 홍채 텍스처를 압도하지 않는 것으로 결정할 수 있다. 이미지 처리 모듈은 이미지 센서에 의해 캡처된 원시 또는 미처리 이미지에 기초하여 홍채 생체 식별을 수행할 수 있다. 이미지 처리 모듈은, 일부 처리, 예를 들어 아티팩트들, 산발적 잡음 및/또는 체계적 잡음의 제거 후에 이미지 센서에 의해 캡처된 이미지에 기초하여 홍채 생체 식별을 수행할 수 있다.With further reference to 386, the image processing module may apply a level of reduced noise reduction to the second portion of the at least one image to generate an image of the iris for use in biometric identification. In some embodiments, the image processing module may disable noise reduction for the image to be used for iris biometric identification. The image processing module may determine that the noise level does not overpower the captured iris texture. The image processing module may perform iris biometric identification based on raw or raw images captured by the image sensor. The image processing module may perform iris biometric identification based on the image captured by the image sensor after some processing, eg, removal of artifacts, sporadic noise, and / or systematic noise.
일부 실시예들에서, 이미지 처리 모듈은 홍채 생체 식별에 사용할 이미지에 대해 감소된 잡음 감소의 레벨을 적용할 수 있다. 이미지 처리 모듈은 홍채 캡처링 모드에 있는 동안 캡처된 이미지에 대해 감소된 잡음 감소의 레벨을 적용할 수 있다. 이미지 처리 모듈은 체계적 및/또는 산발적 잡음에 대한 잡음 감소를 수행할 수 있다. 이미지 처리 모듈은 비체계적 잡음에 대한 잡음 감소를 디스에이블할 수 있다. 이미지 처리 모듈은 홍채 생체 식별을 위해 추출된 이미지의 부분, 예를 들어 IR 통과 필터에 대응하는 부분에 대해 감소된 잡음 감소의 레벨을 적용할 수 있다. 이미지 처리 모듈은 홍채 생체 식별을 위해 추출된 이미지의 부분, 예를 들어 IR 통과 필터에 대응하는 부분에 대해 체계적 잡음의 감소를 적용할 수 있다.In some embodiments, the image processing module may apply a level of reduced noise reduction for the image to be used for iris biometric identification. The image processing module may apply a level of reduced noise reduction on the captured image while in the iris capturing mode. The image processing module may perform noise reduction on systematic and / or sporadic noise. The image processing module may disable noise reduction for unsystematic noise. The image processing module may apply the level of reduced noise reduction for the portion of the extracted image, for example the portion corresponding to the IR pass filter, for iris biometric identification. The image processing module may apply a reduction of systematic noise to the portion of the extracted image, for example the portion corresponding to the IR pass filter, for iris biometric identification.
일부 실시예들에서, 이미지 처리 모듈(220)은 홍채의 하나의 이미지로부터의 잡음과 홍채의 또 다른 이미지로부터의 잡음을 감산한다. 그러한 감산은 체계적 잡음 및/또는 산발적 잡음을 감소시킬 수 있다. 이미지 처리 모듈(220)은 2개의 이미지를 함께 나란히 정렬하여 감산을 수행할 수 있다. 이미지 처리 모듈(220)은 공통 기준 포인트들(예로서, 형상들의 에지)을 이용하여 2개의 이미지를 정렬할 수 있다. 이미지 처리 모듈(220)은 패턴 인식/매칭, 상관 및/또는 다른 알고리즘들을 이용하여 2개의 이미지를 정렬할 수 있다. 이미지 처리 모듈(220)은 2개의 이미지의 중첩 부분에 대응하는 잡음을 감산할 수 있다. 이미지 처리 모듈(220)은 하나의 이미지 내의 주변 잡음을 또 다른 이미지로부터의 주변 잡음을 이용하여 감소시킬 수 있다. 주변 잡음은 주변 광 또는 조명으로부터의 신호들을 포함할 수 있다. 주변 잡음은 주위의 조명 소스들로부터의 아티팩트들 또는 눈의 표면으로부터의 주위 물체들의 반사들을 포함할 수 있다. 일부 실시예들에서, 이미지 처리 모듈(220)은 적외선 조명의 존재시에 캡처된 하나의 이미지로부터의 주변 잡음을 적외선 조명의 부재시에 캡처된 또 다른 이미지로부터의 주변 잡음을 이용하여 감소시킬 수 있다.In some embodiments, image processing module 220 subtracts noise from one image of the iris with noise from another image of the iris. Such subtraction can reduce systematic noise and / or sporadic noise. The image processing module 220 may perform subtraction by aligning the two images side by side. The image processing module 220 may align the two images using common reference points (eg, edges of the shapes). Image processing module 220 may align the two images using pattern recognition / matching, correlation, and / or other algorithms. The image processing module 220 may subtract the noise corresponding to the overlapping portion of the two images. The image processing module 220 may reduce ambient noise in one image using ambient noise from another image. Ambient noise can include signals from ambient light or lighting. Ambient noise can include artifacts from ambient lighting sources or reflections of surrounding objects from the surface of the eye. In some embodiments, image processing module 220 may reduce ambient noise from one image captured in the presence of infrared illumination using ambient noise from another image captured in the absence of infrared illumination. .
특정 실시예들에서, 이미지 처리 모듈(220)은 센서 노드 어레이 상에 이미징된 하나 이상의 (G+I) 픽셀로부터 적외선 컴포넌트들을 복구할 수 있다. 이미지 처리 모듈(220)은 이웃 픽셀에서의 G 강도 값을 이용하여 (G+I)로부터 G 컴포넌트를 감산할 수 있다. 일부 실시예들에서, 이미지 처리 모듈(220)은 추정된 G 강도 값을 이용하여 G 컴포넌트를 감산할 수 있다. 이미지 처리 모듈(220)은 이미지의 비-홍채(예로서, 일반 장면) 부분의 처리에 있어서 추정된 G 강도 값을 이용할 수 있다. 일부 실시예들에서, 이미지 처리 모듈(220)은 적어도 하나의 이미지의 일부에 대해 이득 또는 휘도 제어 또는 조정을 수행하여, 생체 식별에 사용할 홍채의 이미지를 생성할 수 있다. 일부 실시예들에서는, 적외선 조명의 양이 불충분하거나 차선(sub-optimal)일 수 있어, 이득 또는 휘도 제어 또는 조정은 홍채 이미지 품질을 개선할 수 있다. 특정 실시예들에서, 이득 또는 휘도 제어 또는 조정은 적외선 조명기들의 추가, 적외선 조명을 제공하기 위한 전력의 인출, 및/또는 적외선 조명의 제어에(예를 들어, 상이한 조건들하에) 보다 바람직할 수 있다. 적외선 신호들은 (예를 들어, RGB(G+I) 어레이에서) 센서 노드들/픽셀들의 일부에 의해 캡처되므로, 이득 또는 휘도 제어 또는 조정을 통한 보상이 적절할 수 있다.In certain embodiments, image processing module 220 may recover infrared components from one or more (G + I) pixels imaged on the sensor node array. The image processing module 220 may subtract the G component from (G + I) using the G intensity value in the neighboring pixel. In some embodiments, image processing module 220 may subtract the G component using the estimated G intensity value. The image processing module 220 may use the estimated G intensity value in the processing of the non-iris (eg, general scene) portion of the image. In some embodiments, image processing module 220 may perform gain or brightness control or adjustment on a portion of the at least one image to generate an image of the iris for use in biometric identification. In some embodiments, the amount of infrared illumination may be insufficient or sub-optimal, such that gain or brightness control or adjustment may improve iris image quality. In certain embodiments, gain or brightness control or adjustment may be more desirable for the addition of infrared illuminators, drawing of power to provide infrared illumination, and / or controlling infrared illumination (eg, under different conditions). have. Since infrared signals are captured by some of the sensor nodes / pixels (eg, in an RGB (G + I) array), compensation through gain or brightness control or adjustment may be appropriate.
방법들 및 시스템들의 특정 실시예들이 설명되었으며, 이제 당업자에게는 본 발명의 개념들을 포함하는 다른 실시예들이 이용될 수 있다는 것이 명백해질 것이다. 전술한 시스템들은 그러한 컴포넌트들 중 임의의 컴포넌트 또는 각각의 컴포넌트를 다수 제공할 수 있으며, 이러한 컴포넌트들은 독립형 기계 상에 또는 일부 실시예들에서 분산 시스템 내의 다수의 기계 상에 제공될 수 있다는 것을 이해해야 한다. 전술한 시스템들 및 방법들은 프로그래밍 및/또는 엔지니어링 기술들을 이용하여 소프트웨어, 펌웨어, 하드웨어 또는 이들의 임의 조합을 생성하는 방법, 장치 또는 제조물로서 구현될 수 있다. 게다가, 전술한 시스템들 및 방법들은 하나 이상의 제조물 상에 또는 그 안에 구현되는 하나 이상의 컴퓨터 판독가능 프로그램으로서 제공될 수 있다. 본 명세서에서 사용되는 바와 같은 "제조물(article of manufacture)"이라는 용어는 하나 이상의 컴퓨터 판독가능 장치로부터 액세스될 수 있고 그 안에 내장되는 코드나 논리, 펌웨어, 프로그래밍 가능 논리, 메모리 장치(예를 들어, EEPROM, ROM, PROM, RAM, SRAM 등), 하드웨어(예로서, 집적 회로 칩, 필드 프로그래머블 게이트 어레이(FPGA), 주문형 집적 회로(ASIC) 등), 전자 장치, 컴퓨터 판독가능 비휘발성 저장 유닛(예로서, CD-ROM, 플로피 디스크, 하드 디스크 드라이브 등)을 포함하도록 의도된다. 제조물은 네트워크 송신 라인, 무선 송신 매체, 공간을 통해 전파되는 신호, 무선파, 적외선 신호 등을 통해 컴퓨터 판독가능 프로그램들에 대한 액세스를 제공하는 파일 서버로부터 액세스될 수 있다. 제조물은 플래시 메모리 카드 또는 자기 테이프일 수 있다. 제조물은 하드웨어 논리는 물론, 프로세서에 의해 실행되는 컴퓨터 판독가능 매체에 내장된 소프트웨어 또는 프로그래밍가능 코드를 포함한다. 일반적으로, 컴퓨터 판독가능 프로그램들은 LISP, PERL, C, C++, C#, PROLOG와 같은 임의의 프로그래밍 언어로 또는 JAVA와 같은 임의의 바이트 코드 언어로 구현될 수 있다. 소프트웨어 프로그램들은 하나 이상의 제조물 상에 또는 그 안에 객체 코드로서 저장될 수 있다.Specific embodiments of the methods and systems have been described, and it will now be apparent to one skilled in the art that other embodiments incorporating the inventive concepts may be used. It should be understood that the above-described systems may provide any of such components or multiple of each of these components, which components may be provided on a standalone machine or in some embodiments on multiple machines in a distributed system. . The systems and methods described above may be implemented as a method, apparatus or article of manufacture using software and / or engineering techniques to generate software, firmware, hardware or any combination thereof. In addition, the systems and methods described above may be provided as one or more computer readable programs implemented on or in one or more articles of manufacture. As used herein, the term "article of manufacture" refers to code or logic, firmware, programmable logic, memory devices (eg, embedded in or accessible from one or more computer-readable devices). EEPROM, ROM, PROM, RAM, SRAM, etc.), hardware (e.g., integrated circuit chips, field programmable gate arrays (FPGAs), application specific integrated circuits (ASICs, etc.), electronic devices, computer readable nonvolatile storage units (e.g., CD-ROM, floppy disk, hard disk drive, etc.). The article of manufacture can be accessed from a file server providing access to computer readable programs via network transmission lines, wireless transmission media, signals propagating through space, radio waves, infrared signals, and the like. The article of manufacture may be a flash memory card or a magnetic tape. The article of manufacture includes hardware logic, as well as software or programmable code embedded in a computer readable medium executed by a processor. In general, computer readable programs may be implemented in any programming language such as LISP, PERL, C, C ++, C #, PROLOG, or in any byte code language such as JAVA. Software programs may be stored as object code on or in one or more articles of manufacture.
Claims (20)
이미지 센서에 의해, 적어도 하나의 이미지 내에서 장면의 뷰 및 홍채의 뷰를 캡처하는 단계;
상기 장면의 이미지를 생성하기 위해 상기 적어도 하나의 이미지의 비-홍채(non-iris) 부분에 잡음 감소(noise reduction)의 제1 모드를 적용하는 단계 - 상기 잡음 감소의 제1 모드는 체계적 잡음에 대한 잡음 감소 및 비-체계적 잡음에 대한 잡음 감소를 포함함 -; 및
생체 식별(biometric identification)에 사용할 상기 홍채의 이미지를 생성하기 위해 상기 적어도 하나의 이미지의 홍채 부분에 잡음 감소의 제2 모드를 적용하는 단계 - 상기 잡음 감소의 제2 모드는 체계적 잡음에 대한 잡음 감소를 포함하나 비-체계적 잡음에 대한 잡음 감소는 포함하지 않음 -
를 포함하는 방법.A method of capturing images of an iris and a scene using a single image sensor,
Capturing, by the image sensor, a view of the scene and a view of the iris within the at least one image;
Applying a first mode of noise reduction to a non-iris portion of the at least one image to produce an image of the scene, the first mode of noise reduction being dependent on systematic noise Noise reduction for non-systematic noise and noise reduction for-; And
Applying a second mode of noise reduction to the iris portion of the at least one image to generate an image of the iris for use in biometric identification, wherein the second mode of noise reduction is noise reduction for systematic noise But does not include noise reduction for non-systematic noise
How to include.
상기 적어도 하나의 이미지 내에서 장면의 뷰 및 홍채의 뷰를 캡처하는 단계는 상기 장면의 뷰 및 상기 홍채의 뷰를 단일 이미지 내에서 분리가능한 컴포넌트들로서 캡처하는 단계를 포함하는 방법.The method of claim 1,
Capturing a view of the scene and a view of the iris within the at least one image comprises capturing the view of the scene and the view of the iris as separable components within a single image.
적외선 조명을 이용하여 상기 홍채를 조명하는 동안 상기 홍채의 적어도 하나의 이미지를 캡처하는 단계를 더 포함하는 방법.The method of claim 1,
Capturing at least one image of the iris while illuminating the iris using infrared illumination.
잡음 감소를 적용하는 단계는 평균 또는 중앙 함수(averaging or median function)를 적용하는 단계를 포함하는 방법.The method of claim 1,
Applying noise reduction comprises applying an averaging or median function.
잡음 감소를 적용하는 단계는 캡처된 이미지로부터 시간 가변 잡음 및 시간 불변 잡음 양쪽 모두를 감소시키는 단계를 포함하는 방법.The method of claim 1,
Applying noise reduction includes reducing both time varying noise and time invariant noise from the captured image.
상기 홍채의 하나의 이미지로부터의 잡음과 상기 홍채의 또 다른 이미지로부터의 잡음을 감산하는 단계를 더 포함하는 방법.The method of claim 1,
Subtracting noise from one image of the iris with noise from another image of the iris.
하나의 이미지 내의 주변 잡음을 또 다른 이미지로부터의 주변 잡음을 이용하여 감소시키는 단계를 더 포함하는 방법.The method of claim 1,
Reducing the ambient noise in one image using ambient noise from another image.
적외선 조명의 존재시에 캡처된 하나의 이미지로부터의 주변 잡음을, 적외선 조명 없이 캡처된 또 다른 이미지로부터의 주변 잡음을 이용하여 감소시키는 단계를 더 포함하는 방법.The method of claim 1,
Reducing ambient noise from one image captured in the presence of infrared illumination, using ambient noise from another image captured without infrared illumination.
생체 식별에 사용할 상기 홍채의 이미지를 생성하기 위해, 상기 적어도 하나의 이미지의 상기 홍채 부분에 대해 이득 또는 휘도 제어(gain or brightness control)를 수행하는 단계를 더 포함하는 방법.The method of claim 1,
Performing gain or brightness control on the iris portion of the at least one image to generate an image of the iris for use in biometric identification.
적어도 하나의 이미지를 캡처하는 단계는 상기 이미지 센서의 복수의 센서 노드를 활성화하는 단계를 포함하고, 상기 센서 노드들의 제1 서브세트는 생체 식별에 적합한 상기 홍채의 이미지를 캡처하도록 조정되고, 상기 센서 노드들의 제2 서브세트는 비-홍채 이미지를 캡처하도록 조정되는 방법.The method of claim 1,
Capturing at least one image includes activating a plurality of sensor nodes of the image sensor, wherein the first subset of sensor nodes is adapted to capture an image of the iris suitable for biometric identification and the sensor And the second subset of nodes is adjusted to capture non-iris images.
적어도 하나의 이미지 내에서 장면의 뷰 및 홍채의 뷰를 캡처하기 위한 이미지 센서; 및
상기 장면의 이미지를 생성하기 위해 상기 적어도 하나의 이미지의 비-홍채 부분에 잡음 감소의 제1 모드 - 상기 잡음 감소의 제1 모드는 체계적 잡음에 대한 잡음 감소 및 비-체계적 잡음에 대한 잡음 감소를 포함함 - 를 적용하고, 생체 식별에 사용할 상기 홍채의 이미지를 생성하기 위해 상기 적어도 하나의 이미지의 홍채 부분에 잡음 감소의 제2 모드 - 상기 잡음 감소의 제2 모드는 체계적 잡음에 대한 잡음 감소를 포함하나 비-체계적 잡음에 대한 잡음 감소는 포함하지 않음 - 를 적용하기 위한 이미지 처리 모듈
을 포함하는 장치.An apparatus for capturing images of an iris and a scene using a single image sensor,
An image sensor for capturing a view of the scene and a view of the iris within the at least one image; And
A first mode of noise reduction in the non-iris portion of the at least one image to produce an image of the scene, wherein the first mode of noise reduction provides noise reduction for systematic noise and noise reduction for non-systematic noise. A second mode of noise reduction in the iris portion of the at least one image to apply an image, and to generate an image of the iris for use in biometric identification, wherein the second mode of noise reduction reduces noise to systematic noise. Image processing module to apply but not including noise reduction for non-systematic noise
Device comprising a.
상기 이미지 센서는 상기 장면의 뷰 및 상기 홍채의 뷰를 단일 이미지 내에서 분리가능한 컴포넌트들로서 캡처하는 장치.The method of claim 11,
And the image sensor captures the view of the scene and the view of the iris as separable components within a single image.
적외선 조명을 이용하여 상기 홍채를 조명하기 위한 조명기를 더 포함하고, 상기 이미지 센서는 상기 조명된 홍채의 적어도 하나의 이미지를 캡처하는 장치.The method of claim 11,
And an illuminator for illuminating the iris using infrared illumination, wherein the image sensor captures at least one image of the illuminated iris.
잡음 감소는, 캡처된 이미지에 대한 평균 또는 중앙 함수의 적용을 포함하는 장치.The method of claim 11,
Noise reduction includes application of an average or median function to the captured image.
잡음 감소는, 캡처된 이미지로부터 시간 가변 잡음 및 시간 불변 잡음 양쪽 모두를 감소시키는 것을 포함하는 장치.The method of claim 11,
Noise reduction includes reducing both time varying noise and time invariant noise from the captured image.
상기 이미지 처리 모듈은 상기 홍채의 하나의 이미지로부터의 잡음과 상기 홍채의 또 다른 이미지로부터의 잡음을 감산하는 장치.The method of claim 11,
And the image processing module subtracts noise from one image of the iris with noise from another image of the iris.
상기 이미지 센서는 CMOS(Complementary Metal Oxide Semiconductor) 센서를 포함하는 장치.The method of claim 11,
And the image sensor comprises a complementary metal oxide semiconductor (CMOS) sensor.
상기 이미지 처리 모듈은 적외선 조명의 존재시에 캡처된 하나의 이미지로부터의 주변 잡음을, 적외선 조명 없이 캡처된 또 다른 이미지로부터의 주변 잡음을 이용하여 감소시키는 장치.The method of claim 11,
And said image processing module reduces ambient noise from one image captured in the presence of infrared illumination using ambient noise from another image captured without infrared illumination.
상기 이미지 처리 모듈은 생체 식별에 사용할 상기 홍채의 이미지를 생성하기 위해, 상기 적어도 하나의 이미지의 상기 홍채 부분에 대해 이득 또는 휘도 제어를 수행하는 장치.The method of claim 11,
And the image processing module performs gain or brightness control on the iris portion of the at least one image to generate an image of the iris for use in biometric identification.
상기 이미지 센서는 복수의 센서 노드를 포함하고, 상기 센서 노드들의 제1 서브세트는 생체 식별에 적합한 상기 홍채의 이미지를 캡처하도록 조정되고, 상기 센서 노드들의 제2 서브세트는 비-홍채 이미지를 캡처하도록 조정되는 장치.The method of claim 11,
The image sensor includes a plurality of sensor nodes, the first subset of sensor nodes being adjusted to capture an image of the iris suitable for biometric identification, and the second subset of sensor nodes capturing a non-iris image. Device adjusted to
Applications Claiming Priority (5)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US201161443757P | 2011-02-17 | 2011-02-17 | |
| US61/443,757 | 2011-02-17 | ||
| US201161472279P | 2011-04-06 | 2011-04-06 | |
| US61/472,279 | 2011-04-06 | ||
| PCT/US2012/025468 WO2012112788A2 (en) | 2011-02-17 | 2012-02-16 | Efficient method and system for the acquisition of scene imagery and iris imagery using a single sensor |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20140049980A KR20140049980A (en) | 2014-04-28 |
| KR102024949B1 true KR102024949B1 (en) | 2019-09-24 |
Family
ID=46652401
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020137024678A Expired - Fee Related KR102024949B1 (en) | 2011-02-17 | 2012-02-16 | Efficient method and system for the acquisition of scene imagery and iris imagery using a single sensor |
Country Status (7)
| Country | Link |
|---|---|
| US (2) | US9280706B2 (en) |
| EP (1) | EP2676223A4 (en) |
| KR (1) | KR102024949B1 (en) |
| CN (1) | CN103477351B (en) |
| BR (1) | BR112013021160B1 (en) |
| RU (1) | RU2589859C2 (en) |
| WO (1) | WO2012112788A2 (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102858734B1 (en) * | 2024-09-13 | 2025-09-12 | 주식회사 로드인 | System for operating public transportation |
Families Citing this family (44)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8260008B2 (en) | 2005-11-11 | 2012-09-04 | Eyelock, Inc. | Methods for performing biometric recognition of a human eye and corroboration of same |
| US8364646B2 (en) | 2006-03-03 | 2013-01-29 | Eyelock, Inc. | Scalable searching of biometric databases using dynamic selection of data subsets |
| US8604901B2 (en) | 2006-06-27 | 2013-12-10 | Eyelock, Inc. | Ensuring the provenance of passengers at a transportation facility |
| US8965063B2 (en) | 2006-09-22 | 2015-02-24 | Eyelock, Inc. | Compact biometric acquisition system and method |
| US8280120B2 (en) | 2006-10-02 | 2012-10-02 | Eyelock Inc. | Fraud resistant biometric financial transaction system and method |
| US8953849B2 (en) | 2007-04-19 | 2015-02-10 | Eyelock, Inc. | Method and system for biometric recognition |
| WO2008131201A1 (en) | 2007-04-19 | 2008-10-30 | Global Rainmakers, Inc. | Method and system for biometric recognition |
| US9117119B2 (en) | 2007-09-01 | 2015-08-25 | Eyelock, Inc. | Mobile identity platform |
| US8212870B2 (en) | 2007-09-01 | 2012-07-03 | Hanna Keith J | Mirror system and method for acquiring biometric data |
| WO2009029757A1 (en) | 2007-09-01 | 2009-03-05 | Global Rainmakers, Inc. | System and method for iris data acquisition for biometric identification |
| US9036871B2 (en) | 2007-09-01 | 2015-05-19 | Eyelock, Inc. | Mobility identity platform |
| US9002073B2 (en) | 2007-09-01 | 2015-04-07 | Eyelock, Inc. | Mobile identity platform |
| WO2009158662A2 (en) | 2008-06-26 | 2009-12-30 | Global Rainmakers, Inc. | Method of reducing visibility of illimination while acquiring high quality imagery |
| US10043229B2 (en) | 2011-01-26 | 2018-08-07 | Eyelock Llc | Method for confirming the identity of an individual while shielding that individual's personal data |
| KR102024949B1 (en) | 2011-02-17 | 2019-09-24 | 아이락 엘엘씨 | Efficient method and system for the acquisition of scene imagery and iris imagery using a single sensor |
| US9124798B2 (en) | 2011-05-17 | 2015-09-01 | Eyelock Inc. | Systems and methods for illuminating an iris with visible light for biometric acquisition |
| JP2016533566A (en) * | 2013-06-18 | 2016-10-27 | デルタ アイディー インコーポレイテッドDelta Id Inc. | Iris imaging device and method for configuring an iris imaging device |
| US9113036B2 (en) * | 2013-07-17 | 2015-08-18 | Ebay Inc. | Methods, systems, and apparatus for providing video communications |
| BR112016015664A8 (en) * | 2014-01-06 | 2020-06-09 | Eyelock Llc | device for repeatedly generating images of an iris and iris image recognition device for repetitive use |
| KR102392800B1 (en) * | 2014-02-12 | 2022-04-29 | 삼성전자주식회사 | Agile biometric camera with bandpass filter and variable light source |
| US20150245767A1 (en) * | 2014-02-28 | 2015-09-03 | Lrs Identity, Inc. | Dual iris and color camera in a mobile computing device |
| JP6417676B2 (en) * | 2014-03-06 | 2018-11-07 | ソニー株式会社 | Information processing apparatus, information processing method, eyewear terminal, and authentication system |
| KR102198852B1 (en) * | 2014-03-24 | 2021-01-05 | 삼성전자 주식회사 | Iris recognition apparatus and and mobile apparatus having the same |
| CN104102906B (en) * | 2014-07-16 | 2017-10-17 | 广东欧珀移动通信有限公司 | A kind of data processing method and equipment applied to iris authentication system |
| KR102215077B1 (en) * | 2014-08-04 | 2021-02-10 | 삼성전자주식회사 | Iris recognition apparatus and iris recognition method |
| BR112017004593A2 (en) * | 2014-09-12 | 2017-12-05 | Eyelock Llc | methods and apparatus for directing a user's gaze on an iris recognition system |
| JP6609098B2 (en) * | 2014-10-30 | 2019-11-20 | キヤノン株式会社 | Display control apparatus, display control method, and computer program |
| CN104580854A (en) * | 2014-12-23 | 2015-04-29 | 南昌欧菲光电技术有限公司 | Imaging device and mobile terminal |
| US10521012B2 (en) * | 2015-03-13 | 2019-12-31 | Apple Inc. | Method for automatically identifying at least one user of an eye tracking device and eye tracking device |
| US20160275348A1 (en) * | 2015-03-17 | 2016-09-22 | Motorola Mobility Llc | Low-power iris authentication alignment |
| CN105100567B (en) * | 2015-07-13 | 2019-07-16 | 南昌欧菲光电技术有限公司 | Imaging device and mobile terminal |
| US9911023B2 (en) * | 2015-08-17 | 2018-03-06 | Hand Held Products, Inc. | Indicia reader having a filtered multifunction image sensor |
| CN105117903B (en) * | 2015-08-31 | 2020-03-24 | 联想(北京)有限公司 | Information processing method and electronic equipment |
| CN105763774B (en) * | 2016-02-29 | 2019-07-26 | 联想(北京)有限公司 | A kind of camera module, electronic equipment and image-pickup method |
| KR102532365B1 (en) | 2016-08-23 | 2023-05-15 | 삼성전자주식회사 | Electronic device including the iris recognition sensor and operating method thereof |
| US10880742B2 (en) | 2016-12-15 | 2020-12-29 | Fotonation Limited | Iris recognition workflow |
| CN107451531B (en) * | 2017-07-07 | 2021-09-07 | Oppo广东移动通信有限公司 | Iris recognition method and electronic device |
| US20190087832A1 (en) * | 2017-09-15 | 2019-03-21 | Pearson Education, Inc. | Digital credential field data mapping |
| CN107968854A (en) * | 2017-11-22 | 2018-04-27 | 广东欧珀移动通信有限公司 | Electronic equipment |
| KR102507746B1 (en) | 2018-03-02 | 2023-03-09 | 삼성전자주식회사 | Method for generating plural information using camera to sense plural wave bandwidth and apparatus thereof |
| RU2726040C1 (en) * | 2019-12-27 | 2020-07-08 | федеральное государственное автономное образовательное учреждение высшего образования "Санкт-Петербургский политехнический университет Петра Великого" (ФГАОУ ВО "СПбПУ") | Method of forming an identification code of an information-protective label with a given level of uniqueness |
| CN111583459A (en) * | 2020-04-28 | 2020-08-25 | 德施曼机电(中国)有限公司 | Intelligent door lock system based on iris detection |
| CN111583456B (en) * | 2020-04-28 | 2022-05-27 | 德施曼机电(中国)有限公司 | Door lock device based on iris recognition |
| EP4303533A4 (en) * | 2021-03-05 | 2024-08-14 | Toppan Inc. | DISTANCE IMAGE CAPTURE DEVICE AND DISTANCE IMAGE CAPTURE METHOD |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005065051A (en) * | 2003-08-18 | 2005-03-10 | Sony Corp | Imaging device |
| KR100492765B1 (en) * | 2000-06-29 | 2005-06-07 | 티알더블류 인코포레이티드 | Apparatus and method for controlling an airbag in a vehicle by optimized human presence detection |
| WO2010124065A1 (en) * | 2009-04-22 | 2010-10-28 | Qualcomm Incorporated | Image selection and combination method and device |
| KR101014325B1 (en) * | 2008-02-11 | 2011-02-14 | 김동의 | Infrared Face Recognition System and Method |
Family Cites Families (248)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US4231661A (en) | 1978-09-20 | 1980-11-04 | Becton, Dickinson & Company | Radial scanner |
| US4641349A (en) | 1985-02-20 | 1987-02-03 | Leonard Flom | Iris recognition system |
| US4910725A (en) | 1986-04-23 | 1990-03-20 | Drexler Technology Corporation | Optical recording method for data cards |
| US4923263A (en) | 1988-09-22 | 1990-05-08 | The United States Of America As Represented By The Secretary Of The Army | Rotating mirror optical scanning device |
| US5140469A (en) | 1990-10-03 | 1992-08-18 | Raytheon Company | Illumination apparatus for semiconductor fabrication including conical optical means |
| US5291560A (en) | 1991-07-15 | 1994-03-01 | Iri Scan Incorporated | Biometric personal identification system based on iris analysis |
| US5259040A (en) | 1991-10-04 | 1993-11-02 | David Sarnoff Research Center, Inc. | Method for determining sensor motion and scene structure and image processing system therefor |
| US5488675A (en) | 1994-03-31 | 1996-01-30 | David Sarnoff Research Center, Inc. | Stabilizing estimate of location of target region inferred from tracked multiple landmark regions of a video image |
| US6714665B1 (en) | 1994-09-02 | 2004-03-30 | Sarnoff Corporation | Fully automated iris recognition system utilizing wide and narrow fields of view |
| US5572596A (en) | 1994-09-02 | 1996-11-05 | David Sarnoff Research Center, Inc. | Automated, non-invasive iris recognition system and method |
| US7613659B1 (en) | 1994-11-28 | 2009-11-03 | Yt Acquisition Corporation | System and method for processing tokenless biometric electronic transmissions using an electronic rule module clearinghouse |
| US5615277A (en) | 1994-11-28 | 1997-03-25 | Hoffman; Ned | Tokenless security system for authorizing access to a secured computer system |
| US5805719A (en) | 1994-11-28 | 1998-09-08 | Smarttouch | Tokenless identification of individuals |
| US5764789A (en) | 1994-11-28 | 1998-06-09 | Smarttouch, Llc | Tokenless biometric ATM access system |
| US7248719B2 (en) | 1994-11-28 | 2007-07-24 | Indivos Corporation | Tokenless electronic transaction system |
| US5613012A (en) | 1994-11-28 | 1997-03-18 | Smarttouch, Llc. | Tokenless identification system for authorization of electronic transactions and electronic transmissions |
| US6366682B1 (en) | 1994-11-28 | 2002-04-02 | Indivos Corporation | Tokenless electronic transaction system |
| US6192142B1 (en) | 1994-11-28 | 2001-02-20 | Smarttouch, Inc. | Tokenless biometric electronic stored value transactions |
| US5802199A (en) | 1994-11-28 | 1998-09-01 | Smarttouch, Llc | Use sensitive identification system |
| US5581629A (en) | 1995-01-30 | 1996-12-03 | David Sarnoff Research Center, Inc | Method for estimating the location of an image target region from tracked multiple image landmark regions |
| JPH09212644A (en) | 1996-02-07 | 1997-08-15 | Oki Electric Ind Co Ltd | Iris recognition device and iris recognition method |
| US6320610B1 (en) | 1998-12-31 | 2001-11-20 | Sensar, Inc. | Compact imaging device incorporating rotatably mounted cameras |
| US7346472B1 (en) | 2000-09-07 | 2008-03-18 | Blue Spike, Inc. | Method and device for monitoring and analyzing signals |
| US5737439A (en) | 1996-10-29 | 1998-04-07 | Smarttouch, Llc. | Anti-fraud biometric scanner that accurately detects blood flow |
| US6545810B1 (en) | 1997-03-06 | 2003-04-08 | Olympus Optical Co., Ltd. | Image pickup optical system and image pickup apparatus using the same |
| US6144754A (en) | 1997-03-28 | 2000-11-07 | Oki Electric Industry Co., Ltd. | Method and apparatus for identifying individuals |
| KR100259475B1 (en) * | 1997-04-14 | 2000-06-15 | 최환수 | Method for the identification of individuals using the pattern of blood vessels |
| US6373968B2 (en) | 1997-06-06 | 2002-04-16 | Oki Electric Industry Co., Ltd. | System for identifying individuals |
| JP3371764B2 (en) | 1997-06-27 | 2003-01-27 | 株式会社日立製作所 | Imaging method and apparatus |
| FR2766943B1 (en) | 1997-07-30 | 1999-10-15 | United Barcode Ind Scanner Tec | OPTOELECTRONIC DEVICE FOR MULTIDIRECTIONAL ACQUISITION OF PLANE OBJECT IMAGES, ESPECIALLY BAR CODES |
| US6246751B1 (en) | 1997-08-11 | 2001-06-12 | International Business Machines Corporation | Apparatus and methods for user identification to deny access or service to unauthorized users |
| US6554705B1 (en) | 1997-08-22 | 2003-04-29 | Blake Cumbers | Passive biometric customer identification and tracking system |
| US6064752A (en) | 1997-11-04 | 2000-05-16 | Sensar, Inc. | Method and apparatus for positioning subjects before a single camera |
| US6069967A (en) | 1997-11-04 | 2000-05-30 | Sensar, Inc. | Method and apparatus for illuminating and imaging eyes through eyeglasses |
| US6055322A (en) | 1997-12-01 | 2000-04-25 | Sensor, Inc. | Method and apparatus for illuminating and imaging eyes through eyeglasses using multiple sources of illumination |
| US6021210A (en) | 1997-12-01 | 2000-02-01 | Sensar, Inc. | Image subtraction to remove ambient illumination |
| US5953440A (en) | 1997-12-02 | 1999-09-14 | Sensar, Inc. | Method of measuring the focus of close-up images of eyes |
| US6028949A (en) | 1997-12-02 | 2000-02-22 | Mckendall; Raymond A. | Method of verifying the presence of an eye in a close-up image |
| US6088470A (en) | 1998-01-27 | 2000-07-11 | Sensar, Inc. | Method and apparatus for removal of bright or dark spots by the fusion of multiple images |
| US6980670B1 (en) | 1998-02-09 | 2005-12-27 | Indivos Corporation | Biometric tokenless electronic rewards system and method |
| US6850631B1 (en) | 1998-02-20 | 2005-02-01 | Oki Electric Industry Co., Ltd. | Photographing device, iris input device and iris image input method |
| US5978494A (en) | 1998-03-04 | 1999-11-02 | Sensar, Inc. | Method of selecting the best enroll image for personal identification |
| JP3271750B2 (en) | 1998-03-05 | 2002-04-08 | 沖電気工業株式会社 | Iris identification code extraction method and device, iris recognition method and device, data encryption device |
| US6847737B1 (en) * | 1998-03-13 | 2005-01-25 | University Of Houston System | Methods for performing DAF data filtering and padding |
| JP3315648B2 (en) | 1998-07-17 | 2002-08-19 | 沖電気工業株式会社 | Iris code generation device and iris recognition system |
| KR100344587B1 (en) | 1998-09-30 | 2003-03-26 | 삼성전자 주식회사 | Fault Inspection System |
| US6381347B1 (en) | 1998-11-12 | 2002-04-30 | Secugen | High contrast, low distortion optical acquistion system for image capturing |
| US6424727B1 (en) | 1998-11-25 | 2002-07-23 | Iridian Technologies, Inc. | System and method of animal identification and animal transaction authorization using iris patterns |
| US6532298B1 (en) | 1998-11-25 | 2003-03-11 | Iridian Technologies, Inc. | Portable authentication device and method using iris patterns |
| US6377699B1 (en) | 1998-11-25 | 2002-04-23 | Iridian Technologies, Inc. | Iris imaging telephone security module and method |
| US6289113B1 (en) | 1998-11-25 | 2001-09-11 | Iridian Technologies, Inc. | Handheld iris imaging apparatus and method |
| KR100320465B1 (en) | 1999-01-11 | 2002-01-16 | 구자홍 | Iris recognition system |
| US6944318B1 (en) * | 1999-01-15 | 2005-09-13 | Citicorp Development Center, Inc. | Fast matching systems and methods for personal identification |
| JP3463612B2 (en) | 1999-01-21 | 2003-11-05 | 日本電気株式会社 | Image input method, image input device, and recording medium |
| JP2000259278A (en) | 1999-03-12 | 2000-09-22 | Fujitsu Ltd | Authentication apparatus and method for performing personal authentication using biometric information |
| KR100320188B1 (en) | 1999-03-23 | 2002-01-10 | 구자홍 | Forgery judgment method for iris recognition system |
| US6247813B1 (en) | 1999-04-09 | 2001-06-19 | Iritech, Inc. | Iris identification system and method of identifying a person through iris recognition |
| US6700998B1 (en) | 1999-04-23 | 2004-03-02 | Oki Electric Industry Co, Ltd. | Iris registration unit |
| JP2000347352A (en) | 1999-06-04 | 2000-12-15 | Fuji Photo Film Co Ltd | Photographic lens and film unit equipped with lens |
| US6515781B2 (en) | 1999-08-05 | 2003-02-04 | Microvision, Inc. | Scanned imaging apparatus with switched feeds |
| US7020351B1 (en) | 1999-10-08 | 2006-03-28 | Sarnoff Corporation | Method and apparatus for enhancing and indexing video and audio signals |
| US6701029B1 (en) | 1999-11-08 | 2004-03-02 | Automatic Recognition And Control, Inc. | Ring-wedge data analysis of digital images |
| JP4265076B2 (en) * | 2000-03-31 | 2009-05-20 | 沖電気工業株式会社 | Multi-angle camera and automatic photographing device |
| KR100373850B1 (en) | 2000-10-07 | 2003-02-26 | 주식회사 큐리텍 | Identification system and method using iris, and media that can record computer program sources thereof |
| KR100416065B1 (en) | 2000-09-23 | 2004-01-24 | 주식회사 큐리텍 | Media that can record computer program sources to analysis humanity and constitution by pattern of iris, system and method thereof |
| US6819219B1 (en) | 2000-10-13 | 2004-11-16 | International Business Machines Corporation | Method for biometric-based authentication in wireless communication for access control |
| US6763148B1 (en) | 2000-11-13 | 2004-07-13 | Visual Key, Inc. | Image recognition methods |
| KR100649303B1 (en) | 2000-11-16 | 2006-11-24 | 엘지전자 주식회사 | Iris image butler device of both eyes |
| US7047418B1 (en) | 2000-11-29 | 2006-05-16 | Applied Minds, Inc. | Imaging method and device using biometric information for operator authentication |
| US6930707B2 (en) | 2000-12-22 | 2005-08-16 | International Business Machines Corporation | Digital camera apparatus with biometric capability |
| FR2819327B1 (en) | 2001-01-10 | 2003-04-18 | Sagem | OPTICAL IDENTIFICATION DEVICE |
| GB2372165A (en) | 2001-02-10 | 2002-08-14 | Hewlett Packard Co | A method of selectively storing images |
| SE0100887D0 (en) | 2001-03-15 | 2001-03-15 | Fingerprint Cards Ab | Device and method for processing fingerprint information |
| US7095901B2 (en) | 2001-03-15 | 2006-08-22 | Lg Electronics, Inc. | Apparatus and method for adjusting focus position in iris recognition system |
| US6920236B2 (en) | 2001-03-26 | 2005-07-19 | Mikos, Ltd. | Dual band biometric identification system |
| KR20020078225A (en) | 2001-04-06 | 2002-10-18 | 주식회사 큐리텍 | System and method for diagnosing remotely using iris, sclera, retina information and strorage media having program source thereof |
| US7103235B2 (en) | 2001-04-25 | 2006-09-05 | Lockheed Martin Corporation | Extended range image processing for electro-optical systems |
| US8279042B2 (en) | 2001-07-10 | 2012-10-02 | Xatra Fund Mx, Llc | Iris scan biometrics on a payment device |
| US20030103212A1 (en) * | 2001-08-03 | 2003-06-05 | Volker Westphal | Real-time imaging system and method |
| KR20030034258A (en) | 2001-08-04 | 2003-05-09 | 주식회사 큐리텍 | Identification system and method using iris and retina, and media that can record computer program sources thereof |
| US7106366B2 (en) | 2001-12-19 | 2006-09-12 | Eastman Kodak Company | Image capture system incorporating metadata to facilitate transcoding |
| KR20030051970A (en) | 2001-12-20 | 2003-06-26 | 주식회사 큐리텍 | Iris registration and recognition system |
| KR100854890B1 (en) | 2001-12-28 | 2008-08-28 | 엘지전자 주식회사 | Iris Registration and Recognition Method Using Multiple Illumination of Iris Recognition System |
| AU2003235641A1 (en) * | 2002-01-16 | 2003-07-30 | Iritech, Inc. | System and method for iris identification using stereoscopic face recognition |
| US7715595B2 (en) | 2002-01-16 | 2010-05-11 | Iritech, Inc. | System and method for iris identification using stereoscopic face recognition |
| US6950536B2 (en) | 2002-01-25 | 2005-09-27 | Houvener Robert C | High volume mobile identity verification system and method using tiered biometric analysis |
| US7362354B2 (en) | 2002-02-12 | 2008-04-22 | Hewlett-Packard Development Company, L.P. | Method and system for assessing the photo quality of a captured image in a digital still camera |
| AUPS158302A0 (en) * | 2002-04-09 | 2002-05-16 | Scan Optics Pty Ltd | Improved fundus camera |
| JP2003323607A (en) | 2002-04-30 | 2003-11-14 | Matsushita Electric Ind Co Ltd | Iris imaging device |
| US7598975B2 (en) | 2002-06-21 | 2009-10-06 | Microsoft Corporation | Automatic face extraction for use in recorded meetings timelines |
| US20040042643A1 (en) * | 2002-08-28 | 2004-03-04 | Symtron Technology, Inc. | Instant face recognition system |
| JP4062031B2 (en) | 2002-09-25 | 2008-03-19 | セイコーエプソン株式会社 | Gamma correction method, gamma correction apparatus and image reading system |
| US7385626B2 (en) | 2002-10-21 | 2008-06-10 | Sarnoff Corporation | Method and system for performing surveillance |
| US7236534B1 (en) * | 2002-11-06 | 2007-06-26 | Jabil Circuit, Inc. | Method and apparatus for noise reduction by spectral and subcarrier averaging |
| KR20030005113A (en) | 2002-12-04 | 2003-01-15 | 주식회사 큐리텍 | Identification system and method using iris, and media that can record computer program sources thereof |
| FR2851673B1 (en) | 2003-02-20 | 2005-10-14 | Sagem | METHOD FOR IDENTIFYING PEOPLE AND SYSTEM FOR IMPLEMENTING THE METHOD |
| US7369759B2 (en) | 2003-03-27 | 2008-05-06 | Matsushita Electric Industrial Co., Ltd. | Eye image pickup apparatus, iris authentication apparatus and portable terminal device having iris authentication function |
| KR200321670Y1 (en) | 2003-05-07 | 2003-07-31 | 주식회사 큐리텍 | Iris identification camera |
| KR20050005336A (en) | 2003-07-01 | 2005-01-13 | 주식회사 큐리텍 | Mobile Device Dual Camera system for Iris Identification |
| US7152782B2 (en) | 2003-07-11 | 2006-12-26 | Visa International Service Association | System and method for managing electronic data transfer applications |
| EP1671258A4 (en) | 2003-09-04 | 2008-03-19 | Sarnoff Corp | Method and apparatus for performing iris recognition from an image |
| US8705808B2 (en) * | 2003-09-05 | 2014-04-22 | Honeywell International Inc. | Combined face and iris recognition system |
| FR2860629B1 (en) | 2003-10-01 | 2005-12-02 | Sagem | DEVICE FOR POSITIONING A USER BY REPERAGE ON BOTH EYES |
| JP3781028B2 (en) | 2003-10-01 | 2006-05-31 | 松下電器産業株式会社 | Eye imaging device |
| KR200340273Y1 (en) | 2003-10-16 | 2004-01-31 | 주식회사 큐리텍 | iris induction installation |
| KR100572626B1 (en) | 2003-11-04 | 2006-04-24 | 주식회사 큐리텍 | Iris registration device |
| KR100580630B1 (en) | 2003-11-19 | 2006-05-16 | 삼성전자주식회사 | Person identification device and method using infrared ray |
| JP3945474B2 (en) | 2003-11-28 | 2007-07-18 | 松下電器産業株式会社 | Eye image input device, authentication device, and image processing method |
| KR20050051861A (en) | 2003-11-28 | 2005-06-02 | 주식회사 큐리텍 | Multi camera system |
| US7398925B2 (en) | 2003-12-09 | 2008-07-15 | First Data Corporation | Systems and methods for assessing the risk of a financial transaction using biometric information |
| FR2864290B1 (en) * | 2003-12-18 | 2006-05-26 | Sagem | METHOD AND DEVICE FOR RECOGNIZING IRIS |
| US20070160265A1 (en) | 2003-12-19 | 2007-07-12 | Matsushita Electric Industrial Co., Ltd. | Iris image pickup camera and iris authentication system |
| US7212330B2 (en) * | 2004-03-22 | 2007-05-01 | Angstrom, Inc. | Three-dimensional imaging system for pattern recognition |
| KR200352669Y1 (en) | 2004-03-25 | 2004-06-05 | 주식회사 큐리텍 | Identification card counterfeit discernment device |
| US7542592B2 (en) | 2004-03-29 | 2009-06-02 | Siemesn Corporate Research, Inc. | Systems and methods for face detection and recognition using infrared imaging |
| KR200355279Y1 (en) | 2004-04-13 | 2004-07-05 | 주식회사 큐리텍 | Iris and normal photographing combined use camera |
| US7542590B1 (en) | 2004-05-07 | 2009-06-02 | Yt Acquisition Corporation | System and method for upgrading biometric data |
| FR2870948B1 (en) | 2004-05-25 | 2006-09-01 | Sagem | DEVICE FOR POSITIONING A USER BY DISPLAYING ITS MIRROR IMAGE, IMAGE CAPTURE DEVICE AND CORRESPONDING POSITIONING METHOD |
| JP2005334402A (en) * | 2004-05-28 | 2005-12-08 | Sanyo Electric Co Ltd | Authentication method and authentication apparatus |
| WO2005120071A2 (en) | 2004-06-01 | 2005-12-15 | L-3 Communications Corporation | Method and system for performing video flashlight |
| CN101027678B (en) * | 2004-06-21 | 2011-09-21 | 谷歌公司 | Single image based multi-biometric system and method |
| FR2871910B1 (en) | 2004-06-22 | 2006-09-22 | Sagem | BIOMETRIC DATA ENCODING METHOD, IDENTITY CONTROL METHOD, AND DEVICES FOR IMPLEMENTING METHODS |
| WO2007018523A2 (en) | 2004-07-28 | 2007-02-15 | Sarnoff Corporation | Method and apparatus for stereo, multi-camera tracking and rf and video track fusion |
| US8289390B2 (en) | 2004-07-28 | 2012-10-16 | Sri International | Method and apparatus for total situational awareness and monitoring |
| US7639840B2 (en) | 2004-07-28 | 2009-12-29 | Sarnoff Corporation | Method and apparatus for improved video surveillance through classification of detected objects |
| US7558406B1 (en) | 2004-08-03 | 2009-07-07 | Yt Acquisition Corporation | System and method for employing user information |
| US8190907B2 (en) | 2004-08-11 | 2012-05-29 | Sony Computer Entertainment Inc. | Process and apparatus for automatically identifying user of consumer electronics |
| KR200367917Y1 (en) | 2004-08-16 | 2004-11-17 | 주식회사 큐리텍 | Iris identification camera module having stable actinomenter |
| US7949295B2 (en) | 2004-08-18 | 2011-05-24 | Sri International | Automated trainee monitoring and performance evaluation system |
| WO2006039003A2 (en) | 2004-08-20 | 2006-04-13 | Viisage Technology, Inc. | Method and system to authenticate an object |
| WO2006040761A2 (en) | 2004-10-15 | 2006-04-20 | Oren Halpern | A system and a method for improving the captured images of digital still cameras |
| KR100682898B1 (en) | 2004-11-09 | 2007-02-15 | 삼성전자주식회사 | Imaging device using infrared and its image identification method |
| US7616788B2 (en) | 2004-11-12 | 2009-11-10 | Cogent Systems, Inc. | System and method for fast biometric pattern matching |
| KR100629550B1 (en) | 2004-11-22 | 2006-09-27 | 아이리텍 잉크 | Multiscale Variable Region Segmentation Iris Recognition Method and System |
| US7418115B2 (en) | 2004-12-07 | 2008-08-26 | Aoptix Technologies, Inc. | Iris imaging using reflection from the eye |
| US7869627B2 (en) | 2004-12-07 | 2011-01-11 | Aoptix Technologies, Inc. | Post processing of iris images to increase image quality |
| KR20070108146A (en) | 2004-12-07 | 2007-11-08 | 에이옵틱스 테크놀로지스, 인크. | Iris Imaging Using Reflections from the Eye |
| KR200383808Y1 (en) | 2005-01-21 | 2005-05-10 | 주식회사 큐리텍 | Iris Image Acquisition Camera |
| JP4641424B2 (en) | 2005-02-02 | 2011-03-02 | キヤノン株式会社 | Imaging device |
| US7668388B2 (en) | 2005-03-03 | 2010-02-23 | Mitutoyo Corporation | System and method for single image focus assessment |
| US7697786B2 (en) | 2005-03-14 | 2010-04-13 | Sarnoff Corporation | Method and apparatus for detecting edges of an object |
| US7542628B2 (en) | 2005-04-11 | 2009-06-02 | Sarnoff Corporation | Method and apparatus for providing strobed image capture |
| FR2884947B1 (en) | 2005-04-25 | 2007-10-12 | Sagem | METHOD FOR ACQUIRING THE SHAPE OF THE IRIS OF AN EYE |
| US7634114B2 (en) | 2006-09-01 | 2009-12-15 | Sarnoff Corporation | Method and apparatus for iris biometric systems for use in an entryway |
| KR200404650Y1 (en) | 2005-08-02 | 2005-12-27 | 주식회사 큐리텍 | Mouse having iris identification system |
| JP3930898B2 (en) | 2005-08-08 | 2007-06-13 | 松下電器産業株式会社 | Image composition apparatus and image composition method |
| US20070098229A1 (en) | 2005-10-27 | 2007-05-03 | Quen-Zong Wu | Method and device for human face detection and recognition used in a preset environment |
| US8260008B2 (en) | 2005-11-11 | 2012-09-04 | Eyelock, Inc. | Methods for performing biometric recognition of a human eye and corroboration of same |
| US7801335B2 (en) | 2005-11-11 | 2010-09-21 | Global Rainmakers Inc. | Apparatus and methods for detecting the presence of a human eye |
| FR2895122B1 (en) | 2005-12-16 | 2008-02-01 | Sagem Defense Securite | METHOD OF SECURING PHYSICAL ACCESS AND PROVIDING ACCESS TO THE PROCESS |
| US7545962B2 (en) | 2005-12-22 | 2009-06-09 | Daon Holdings Limited | Biometric authentication system |
| US20070145273A1 (en) * | 2005-12-22 | 2007-06-28 | Chang Edward T | High-sensitivity infrared color camera |
| KR100729813B1 (en) | 2006-01-20 | 2007-06-18 | (주)자이리스 | Terminal equipped with iris authentication device, iris authentication module and iris authentication device |
| FR2896604B1 (en) | 2006-01-23 | 2008-12-26 | Sagem Defense Securite | METHODS FOR DETERMINING AN IDENTIFIER AND BIOMETRIC VERIFICATION AND ASSOCIATED SYSTEMS |
| US8364646B2 (en) | 2006-03-03 | 2013-01-29 | Eyelock, Inc. | Scalable searching of biometric databases using dynamic selection of data subsets |
| US20080089554A1 (en) * | 2006-03-03 | 2008-04-17 | Catcher Inc. | Device and method for digitally watermarking an image with data |
| US20070211922A1 (en) | 2006-03-10 | 2007-09-13 | Crowley Christopher W | Integrated verification and screening system |
| JP2007249556A (en) * | 2006-03-15 | 2007-09-27 | Fujitsu Ltd | Personal authentication system, method and program using biometric information |
| AU2007227371B2 (en) | 2006-03-23 | 2012-02-02 | Amo Manufacturing Usa, Llc | Systems and methods for wavefront reconstruction for aperture with arbitrary shape |
| FR2899357B1 (en) | 2006-03-29 | 2008-06-20 | Sagem Defense Securite | PROCESSING BIOMETRIC DATA IN A MULTI DIMENSIONAL REFERENTIAL. |
| WO2007127157A2 (en) | 2006-04-28 | 2007-11-08 | Retica Systems, Inc. | System and method for biometric retinal identification |
| FR2900482B1 (en) | 2006-04-28 | 2008-06-20 | Sagem Defense Securite | METHOD FOR IDENTIFYING A PERSON BY ANALYZING THE CTERISTIC CARA OF ITS CILES |
| US8014571B2 (en) | 2006-05-15 | 2011-09-06 | Identix Incorporated | Multimodal ocular biometric system |
| FR2901898B1 (en) | 2006-06-06 | 2008-10-17 | Sagem Defense Securite | IDENTIFICATION METHOD AND ACQUIRING DEVICE FOR CARRYING OUT SAID METHOD |
| KR100757167B1 (en) * | 2006-06-09 | 2007-09-07 | 엘지이노텍 주식회사 | Mobile communication terminal with camera module for biometric imaging and image processing method |
| US8604901B2 (en) | 2006-06-27 | 2013-12-10 | Eyelock, Inc. | Ensuring the provenance of passengers at a transportation facility |
| FR2903513B1 (en) | 2006-07-10 | 2008-12-05 | Sagem Defense Securite | METHOD FOR IDENTIFYING AN INDIVIDUAL USING A TRANSFORMATION FUNCTION AND ASSOCIATED IDENTIFICATION DEVICE |
| JP4752660B2 (en) | 2006-07-28 | 2011-08-17 | 沖電気工業株式会社 | Personal authentication method and personal authentication device |
| US7609958B2 (en) | 2006-08-01 | 2009-10-27 | Eastman Kodak Company | Automatic focus system calibration for image capture systems |
| US9235733B2 (en) * | 2006-08-11 | 2016-01-12 | J. Douglas Birdwell | Mobile biometrics information collection and identification |
| US7916908B1 (en) | 2006-09-06 | 2011-03-29 | SMSC Holdings S.à.r.l | Fingerprint sensor and method of transmitting a sensor image to reduce data size and data rate |
| US7574021B2 (en) | 2006-09-18 | 2009-08-11 | Sarnoff Corporation | Iris recognition for a secure facility |
| FR2906387A1 (en) | 2006-09-21 | 2008-03-28 | St Microelectronics Sa | METHOD AND DEVICE FOR SELECTING IMAGES IN A SEQUENCE OF IMAGES OF IRIS RECEIVED IN CONTINUOUS FLOW |
| US8965063B2 (en) | 2006-09-22 | 2015-02-24 | Eyelock, Inc. | Compact biometric acquisition system and method |
| JP4650386B2 (en) | 2006-09-29 | 2011-03-16 | 沖電気工業株式会社 | Personal authentication system and personal authentication method |
| US20130212655A1 (en) | 2006-10-02 | 2013-08-15 | Hector T. Hoyos | Efficient prevention fraud |
| US8280120B2 (en) | 2006-10-02 | 2012-10-02 | Eyelock Inc. | Fraud resistant biometric financial transaction system and method |
| WO2008054396A1 (en) | 2006-11-03 | 2008-05-08 | Snowflake Technologies Corporation | Method and apparatus for extraction and matching of biometric detail |
| RU2318438C1 (en) * | 2006-11-28 | 2008-03-10 | Дмитрий Евгеньевич Антонов | Device for getting image of iris |
| US8092021B1 (en) | 2007-01-26 | 2012-01-10 | Aoptix Technologies, Inc. | On-axis illumination for iris imaging |
| US8025399B2 (en) | 2007-01-26 | 2011-09-27 | Aoptix Technologies, Inc. | Combined iris imager and wavefront sensor |
| FR2912532B1 (en) | 2007-02-14 | 2009-04-03 | Sagem Defense Securite | SECURED BIOMETRIC CAPTURE DEVICE |
| US20090074256A1 (en) | 2007-03-05 | 2009-03-19 | Solidus Networks, Inc. | Apparatus and methods for testing biometric equipment |
| US8023699B2 (en) * | 2007-03-09 | 2011-09-20 | Jiris Co., Ltd. | Iris recognition system, a method thereof, and an encryption system using the same |
| WO2008131201A1 (en) | 2007-04-19 | 2008-10-30 | Global Rainmakers, Inc. | Method and system for biometric recognition |
| US7568802B2 (en) * | 2007-05-09 | 2009-08-04 | Honeywell International Inc. | Eye-safe near infra-red imaging illumination method and system |
| US20120239458A9 (en) | 2007-05-18 | 2012-09-20 | Global Rainmakers, Inc. | Measuring Effectiveness of Advertisements and Linking Certain Consumer Activities Including Purchases to Other Activities of the Consumer |
| US20090268045A1 (en) | 2007-08-02 | 2009-10-29 | Sudipto Sur | Apparatus and methods for configuration and optimization of image sensors for gaze tracking applications |
| US9002073B2 (en) * | 2007-09-01 | 2015-04-07 | Eyelock, Inc. | Mobile identity platform |
| US9036871B2 (en) * | 2007-09-01 | 2015-05-19 | Eyelock, Inc. | Mobility identity platform |
| US8212870B2 (en) | 2007-09-01 | 2012-07-03 | Hanna Keith J | Mirror system and method for acquiring biometric data |
| WO2009029757A1 (en) | 2007-09-01 | 2009-03-05 | Global Rainmakers, Inc. | System and method for iris data acquisition for biometric identification |
| US9117119B2 (en) * | 2007-09-01 | 2015-08-25 | Eyelock, Inc. | Mobile identity platform |
| WO2009066770A1 (en) | 2007-11-22 | 2009-05-28 | Nikon Corporation | Digital camera and digital camera system |
| FR2924247B1 (en) | 2007-11-22 | 2009-11-13 | Sagem Securite | METHOD OF IDENTIFYING A PERSON BY ITS IRIS |
| US20090157454A1 (en) | 2007-12-14 | 2009-06-18 | Bank Of America Corporation | Transaction control methods for use in financial transactions and information banking |
| FR2925732B1 (en) | 2007-12-21 | 2010-02-12 | Sagem Securite | GENERATION AND USE OF A BIOMETRIC KEY |
| JP5055166B2 (en) | 2008-02-29 | 2012-10-24 | キヤノン株式会社 | Eye open / closed degree determination device, method and program, and imaging device |
| KR20090106791A (en) | 2008-04-07 | 2009-10-12 | (주)아이리사 아이디 | Iris recognition device using convex mirror |
| US20090268030A1 (en) * | 2008-04-29 | 2009-10-29 | Honeywell International Inc. | Integrated video surveillance and cell phone tracking system |
| US20090273562A1 (en) | 2008-05-02 | 2009-11-05 | International Business Machines Corporation | Enhancing computer screen security using customized control of displayed content area |
| US9131141B2 (en) | 2008-05-12 | 2015-09-08 | Sri International | Image sensor with integrated region of interest calculation for iris capture, autofocus, and gain control |
| WO2009158662A2 (en) | 2008-06-26 | 2009-12-30 | Global Rainmakers, Inc. | Method of reducing visibility of illimination while acquiring high quality imagery |
| US8243133B1 (en) | 2008-06-28 | 2012-08-14 | Aoptix Technologies, Inc. | Scale-invariant, resolution-invariant iris imaging using reflection from the eye |
| US8132912B1 (en) | 2008-06-29 | 2012-03-13 | Aoptix Technologies, Inc. | Iris imaging system using circular deformable mirror mounted by its circumference |
| US8159328B2 (en) | 2008-07-16 | 2012-04-17 | George William Luckhardt | Biometric authentication and verification |
| US9053524B2 (en) * | 2008-07-30 | 2015-06-09 | Fotonation Limited | Eye beautification under inaccurate localization |
| US8090246B2 (en) | 2008-08-08 | 2012-01-03 | Honeywell International Inc. | Image acquisition system |
| FR2935508B1 (en) | 2008-09-01 | 2010-09-17 | Sagem Securite | METHOD FOR DETERMINING A PSEUDO-IDENTITY FROM MINUTE CHARACTERISTICS AND ASSOCIATED DEVICE |
| US8306279B2 (en) | 2008-09-15 | 2012-11-06 | Eyelock, Inc. | Operator interface for face and iris recognition devices |
| KR101030613B1 (en) | 2008-10-08 | 2011-04-20 | 아이리텍 잉크 | Method of Acquiring Interest Area Information and Cognitive Information in Eye Image |
| US20100278394A1 (en) | 2008-10-29 | 2010-11-04 | Raguin Daniel H | Apparatus for Iris Capture |
| US8317325B2 (en) | 2008-10-31 | 2012-11-27 | Cross Match Technologies, Inc. | Apparatus and method for two eye imaging for iris identification |
| KR101017798B1 (en) | 2008-11-03 | 2011-03-02 | 서울대학교산학협력단 | Finger vein authentication method and device using average curvature |
| US8687856B2 (en) * | 2008-11-26 | 2014-04-01 | Bioptigen, Inc. | Methods, systems and computer program products for biometric identification by tissue imaging using optical coherence tomography (OCT) |
| US8787623B2 (en) * | 2008-11-26 | 2014-07-22 | Bioptigen, Inc. | Methods, systems and computer program products for diagnosing conditions using unique codes generated from a multidimensional image of a sample |
| PT2382605T (en) | 2009-01-07 | 2020-10-12 | Magnetic Autocontrol Gmbh | Apparatus for a checkpoint |
| US7912252B2 (en) | 2009-02-06 | 2011-03-22 | Robert Bosch Gmbh | Time-of-flight sensor-assisted iris capture system and method |
| US8195044B2 (en) | 2009-03-30 | 2012-06-05 | Eyelock Inc. | Biometric camera mount system |
| US8446149B2 (en) * | 2009-04-17 | 2013-05-21 | Siemens Medical Solutions Usa, Inc. | System for improved MR image reconstruction |
| US8443202B2 (en) | 2009-08-05 | 2013-05-14 | Daon Holdings Limited | Methods and systems for authenticating users |
| US9357920B2 (en) * | 2009-09-04 | 2016-06-07 | University Of Virginia Patent Foundation | Hand-held portable fundus camera for screening photography |
| US20110119141A1 (en) | 2009-11-16 | 2011-05-19 | Hoyos Corporation | Siccolla Identity Verification Architecture and Tool |
| WO2011093538A1 (en) | 2010-01-27 | 2011-08-04 | Iris Id | Iris scanning apparatus employing wide-angle camera, for identifying subject, and method thereof |
| RU97839U1 (en) * | 2010-04-27 | 2010-09-20 | Дмитрий Евгеньевич Антонов | DEVICE FOR PREPARING IMAGES OF IRIS OF THE EYES |
| US8477372B2 (en) * | 2010-05-18 | 2013-07-02 | Xerox Corporation | Updating an image quality metric database to account for printer drift |
| KR101197678B1 (en) | 2010-06-23 | 2012-11-28 | 주식회사 아이락글로벌 | Health Care System and Method through Iridology |
| CN103003826B (en) | 2010-07-12 | 2016-06-15 | 指纹卡公司 | Biometric authentication apparatus and method |
| US8908008B2 (en) | 2010-07-16 | 2014-12-09 | Hewlett-Packard Development Company, L.P. | Methods and systems for establishing eye contact and accurate gaze in remote collaboration |
| US8719584B2 (en) | 2010-10-26 | 2014-05-06 | Bi2 Technologies, LLC | Mobile, wireless hand-held biometric capture, processing and communication system and method for biometric identification |
| US8938105B2 (en) * | 2010-10-28 | 2015-01-20 | Kabushiki Kaisha Toshiba | Denoising method and system for preserving clinically significant structures in reconstructed images using adaptively weighted anisotropic diffusion filter |
| US8666895B2 (en) * | 2011-01-31 | 2014-03-04 | Bank Of America Corporation | Single action mobile transaction device |
| KR102024949B1 (en) | 2011-02-17 | 2019-09-24 | 아이락 엘엘씨 | Efficient method and system for the acquisition of scene imagery and iris imagery using a single sensor |
| US8824749B2 (en) | 2011-04-05 | 2014-09-02 | Microsoft Corporation | Biometric recognition |
| KR20140050603A (en) | 2011-04-06 | 2014-04-29 | 아이락 인크. | Mobile identity platform |
| CN103797495A (en) | 2011-04-19 | 2014-05-14 | 眼锁股份有限公司 | Biometric chain of provenance |
| US9124798B2 (en) | 2011-05-17 | 2015-09-01 | Eyelock Inc. | Systems and methods for illuminating an iris with visible light for biometric acquisition |
| RU2623795C2 (en) | 2011-08-22 | 2017-06-29 | АЙЛОК ЭлЭлСи | Systems and methods for capturing non-artifact images |
| US20130088583A1 (en) * | 2011-10-07 | 2013-04-11 | Aoptix Technologies, Inc. | Handheld Iris Imager |
| US9195900B2 (en) * | 2011-11-21 | 2015-11-24 | Pixart Imaging Inc. | System and method based on hybrid biometric detection |
| US9231729B2 (en) | 2012-02-28 | 2016-01-05 | Spatial Digital Systems, Inc. | Resource allocation in PON networks via wave-front multiplexing and de-multiplexing |
| KR101366748B1 (en) | 2012-03-20 | 2014-02-24 | 주식회사 이리언스 | System and method for website security login with iris scan |
| US8831295B2 (en) | 2012-03-21 | 2014-09-09 | Authentec, Inc. | Electronic device configured to apply facial recognition based upon reflected infrared illumination and related methods |
| US8411909B1 (en) | 2012-06-26 | 2013-04-02 | Google Inc. | Facial recognition |
| KR101374049B1 (en) | 2012-08-20 | 2014-03-12 | 주식회사 이리언스 | Improved iris certification system and improved iris certification method |
| KR101995566B1 (en) | 2012-08-31 | 2019-07-03 | 주식회사 이리언스 | Iris Identifying System with Guide |
| KR101455609B1 (en) | 2012-09-25 | 2014-10-28 | 주식회사 이리언스 | Payment system and method using iris information |
| KR102010421B1 (en) | 2012-10-19 | 2019-08-14 | 주식회사 이리언스 | System and method for certificate management |
-
2012
- 2012-02-16 KR KR1020137024678A patent/KR102024949B1/en not_active Expired - Fee Related
- 2012-02-16 WO PCT/US2012/025468 patent/WO2012112788A2/en not_active Ceased
- 2012-02-16 BR BR112013021160-1A patent/BR112013021160B1/en not_active IP Right Cessation
- 2012-02-16 US US13/398,562 patent/US9280706B2/en not_active Expired - Fee Related
- 2012-02-16 CN CN201280017539.7A patent/CN103477351B/en not_active Expired - Fee Related
- 2012-02-16 RU RU2013142254/08A patent/RU2589859C2/en not_active IP Right Cessation
- 2012-02-16 EP EP12747311.4A patent/EP2676223A4/en not_active Ceased
-
2016
- 2016-03-04 US US15/061,482 patent/US10116888B2/en active Active
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR100492765B1 (en) * | 2000-06-29 | 2005-06-07 | 티알더블류 인코포레이티드 | Apparatus and method for controlling an airbag in a vehicle by optimized human presence detection |
| JP2005065051A (en) * | 2003-08-18 | 2005-03-10 | Sony Corp | Imaging device |
| KR101014325B1 (en) * | 2008-02-11 | 2011-02-14 | 김동의 | Infrared Face Recognition System and Method |
| WO2010124065A1 (en) * | 2009-04-22 | 2010-10-28 | Qualcomm Incorporated | Image selection and combination method and device |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102858734B1 (en) * | 2024-09-13 | 2025-09-12 | 주식회사 로드인 | System for operating public transportation |
Also Published As
| Publication number | Publication date |
|---|---|
| WO2012112788A2 (en) | 2012-08-23 |
| BR112013021160B1 (en) | 2021-06-22 |
| RU2589859C2 (en) | 2016-07-10 |
| WO2012112788A3 (en) | 2013-01-03 |
| US20160191827A1 (en) | 2016-06-30 |
| RU2013142254A (en) | 2015-03-27 |
| CN103477351A (en) | 2013-12-25 |
| US10116888B2 (en) | 2018-10-30 |
| US20120212597A1 (en) | 2012-08-23 |
| EP2676223A4 (en) | 2016-08-10 |
| EP2676223A2 (en) | 2013-12-25 |
| KR20140049980A (en) | 2014-04-28 |
| US9280706B2 (en) | 2016-03-08 |
| BR112013021160A2 (en) | 2019-10-01 |
| CN103477351B (en) | 2019-06-28 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR102024949B1 (en) | Efficient method and system for the acquisition of scene imagery and iris imagery using a single sensor | |
| US10296791B2 (en) | Mobile identity platform | |
| US9036871B2 (en) | Mobility identity platform | |
| US9002073B2 (en) | Mobile identity platform | |
| EP3967025B1 (en) | Method and apparatus for combining image frames captured using different exposure settings into blended images | |
| CN105874472B (en) | Multiband bio-identification camera system with iris color identification | |
| KR102270674B1 (en) | Biometric camera | |
| CN107077602B (en) | Systems and methods for activity analysis | |
| KR20140050603A (en) | Mobile identity platform | |
| US10483315B2 (en) | Image sensor configured for dual mode operation | |
| US20240346849A1 (en) | A method and a system configured to reduce impact of impairment data in captured iris images | |
| HK1235891A1 (en) | Systems and methods for liveness analysis |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0105 | International application |
St.27 status event code: A-0-1-A10-A15-nap-PA0105 |
|
| T11-X000 | Administrative time limit extension requested |
St.27 status event code: U-3-3-T10-T11-oth-X000 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-3-3-R10-R18-oth-X000 |
|
| PG1501 | Laying open of application |
St.27 status event code: A-1-1-Q10-Q12-nap-PG1501 |
|
| N231 | Notification of change of applicant | ||
| PN2301 | Change of applicant |
St.27 status event code: A-3-3-R10-R13-asn-PN2301 St.27 status event code: A-3-3-R10-R11-asn-PN2301 |
|
| A201 | Request for examination | ||
| PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
| R17-X000 | Change to representative recorded |
St.27 status event code: A-3-3-R10-R17-oth-X000 |
|
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
| T11-X000 | Administrative time limit extension requested |
St.27 status event code: U-3-3-T10-T11-oth-X000 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
St.27 status event code: A-1-2-D10-D22-exm-PE0701 |
|
| GRNT | Written decision to grant | ||
| PR0701 | Registration of establishment |
St.27 status event code: A-2-4-F10-F11-exm-PR0701 |
|
| PR1002 | Payment of registration fee |
St.27 status event code: A-2-2-U10-U12-oth-PR1002 Fee payment year number: 1 |
|
| PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |
|
| PC1903 | Unpaid annual fee |
St.27 status event code: A-4-4-U10-U13-oth-PC1903 Not in force date: 20220919 Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE |
|
| PC1903 | Unpaid annual fee |
St.27 status event code: N-4-6-H10-H13-oth-PC1903 Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE Not in force date: 20220919 |