KR20000035840A - Apparatus for the iris acquiring images - Google Patents

Apparatus for the iris acquiring images Download PDF

Info

Publication number
KR20000035840A
KR20000035840A KR1019997001528A KR19997001528A KR20000035840A KR 20000035840 A KR20000035840 A KR 20000035840A KR 1019997001528 A KR1019997001528 A KR 1019997001528A KR 19997001528 A KR19997001528 A KR 19997001528A KR 20000035840 A KR20000035840 A KR 20000035840A
Authority
KR
South Korea
Prior art keywords
iris
light
camera
iris image
capture device
Prior art date
Application number
KR1019997001528A
Other languages
Korean (ko)
Other versions
KR100342159B1 (en
Inventor
네긴마이클
츠미엘루스키토마스에이.쥬니어
사인스부리로빈
살가니코프마르코스
한나케이트제임스
만델바움로버트
미스라디팸
Original Assignee
센사르 인코포레이티드
윌리암 제이. 버크
사르노프 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 센사르 인코포레이티드, 윌리암 제이. 버크, 사르노프 코포레이션 filed Critical 센사르 인코포레이티드
Publication of KR20000035840A publication Critical patent/KR20000035840A/en
Application granted granted Critical
Publication of KR100342159B1 publication Critical patent/KR100342159B1/en

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • A61B3/1216Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes for diagnostics of the iris
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/30Individual registration on entry or exit not involving the use of a pass
    • G07C9/32Individual registration on entry or exit not involving the use of a pass in combination with an identity check
    • G07C9/37Individual registration on entry or exit not involving the use of a pass in combination with an identity check using biometric data, e.g. fingerprints, iris scans or voice recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • A61B3/145Arrangements specially adapted for eye photography by video means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • A61B5/1171Identification of persons based on the shapes or appearances of their bodies or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor

Abstract

PURPOSE: An apparatus for illuminating the eye to obtain an image of the iris is provided which is useful for verifying the identity of users of automated teller machines. CONSTITUTION: At least one wide field of view camera (3) and with an associated illuminator (6,10) obtains sufficient images of a person to be identified so that x, y, z coordinates can be established for the expected position of that person's eye. The coordinates are used to direct a narrow field of view camera (16) and associated illuminators (21,22,23) to take an image of the eye that can be used for to identifying the person using iris verification and recognition algorithms. These illuminators are positioned and illuminated to eliminate or minimize specularities and reflections that obscure the iris.

Description

홍채영상 포착장치{APPARATUS FOR THE IRIS ACQUIRING IMAGES}Iris Image Capture Device {APPARATUS FOR THE IRIS ACQUIRING IMAGES}

개인을 감지 또는 식별하는 생물측정학으로서 여러 방법이 제안되고 있다. 이러한 방법들은 서명분석, 지문 포착 및 분석, 안구의 망막혈관패턴의 영상화 및 분석을 포함한다. 최근, 비접촉, 비노출 생물측정으로서 개인별로 다른, 매우 세밀한 패턴을 가지는 안구의 홍채를 사용하는 방법이 수 년 이상 이용되어 왔다. 이 기술은 Flom 등의 USP 4,641,349, Daugman의 USP 5,291,560에 기술되어 있다. 이 자료들에 기술된 시스템은, 사람이 홍채를 찍는 영상카메라에 대해 임의의 위치에서 적어도 한 눈을 고정시킬 것을 필요로 한다. 이 과정이 다소 만족스럽게 적용되기는 하였지만, 자동금전출납기, 무인입출력제어 또는 자동실행의 이용과 같은 신속처리활동에는 부적합하다. 예를 들면, 이민제어, 판매확인점수, 복지제어시행, 인터넷 은행업무, 은행 대부 또는 계좌개설 및 그 밖의 재정 거래를 들 수 있다.Several methods have been proposed as biometrics to detect or identify individuals. These methods include signature analysis, fingerprint capture and analysis, imaging and analysis of eye retinal vascular patterns. Recently, a method of using eye iris having a very fine pattern that is different for each person as a non-contact, non-exposed biometric has been used for more than a few years. This technique is described in US Pat. No. 4,641,349 to Flom et al., US Pat. No. 5,291,560 to Daugman. The system described in these documents requires that a person hold at least one eye in an arbitrary position with respect to the imaging camera taking the iris. Although this process has been applied somewhat satisfactorily, it is not suitable for expedited processing activities such as the use of automated teller machines, unattended output control or automatic execution. Examples include immigration control, sales verification scores, welfare control enforcement, Internet banking, bank loans or account opening, and other financial transactions.

Flom과 Daugman의 홍채 감정법은 안구의 홍채의 선명하고 잘 조준된 영상을 필요로 한다. 한번 영상이 포착되면, 인식된 사람의 홍채의 코드화된 파일 영상과의 대조가 신속하게 수행된다. 그러나, 종래에는 임의의 위치에 눈을 고정시킨 사람이 영상카메라에 근접하지 않는다면, 광학 시스템이 인식되는 사람의 홍채의 선명한 영상을 신속하고 충분히 얻을 수 없다. 시스템에는, 광학 시스템으로부터 떨어져 임의의 위치에서 사람 또는 동물의 홍채의 선명한 사진을 신속히 얻는 것이 요구된다. 이 시스템은 제한 구역 또는 시설에의 개인 탐색 접근 또는 사용자 인식을 필요로 하는 다른 응용과 마찬가지로 자동금전출납기의 사용자를 확인하는데 매우 유용하다. 또한, 이 시스템은 환자, 범죄 용의자 및 다른 방법으로 확인이 불가능한 사람들을 확인하는데 사용된다.Flom and Daugman's iris appraisal requires a clear, well-targeted image of the eye's iris. Once the image is captured, the contrast of the recognized human's iris with the coded file image is quickly performed. However, conventionally, if a person who has fixed his eye at an arbitrary position does not approach the video camera, a clear image of the iris of the person whose optical system is recognized cannot be obtained quickly and sufficiently. The system is required to quickly obtain a clear picture of the iris of a human or animal at any position away from the optical system. This system is very useful for identifying users of automatic teller machines, as well as other applications requiring personal navigational access to restricted areas or facilities or user awareness. The system is also used to identify patients, suspected criminals and others who cannot be identified in other ways.

자동금전출납기(ATM)는 은행거래에 널리 사용된다. 사용자는 그들의 신분증명서를 삽입하고, 신분증명번호를 기입한 후 그들의 신분을 비교적 빨리 확인받기를 원한다. 그러나, 카드와 관계된 신분증명번호를 아는 사람은 누구나 그 카드를 사용할 수 있다. 절도자가 주인의 카드사용을 보거나, 카드나 다른 것에 쓰여진 번호를 발견하여, 신분증명번호를 알아내면, 그는 쉽게 주인의 계좌로부터 돈을 인출할 수 있다. 따라서, 은행은 ATM 사용자의 신분을 증명하는 다른 신뢰할만한 방법들을 연구해 왔다.Automatic teller machines (ATMs) are widely used for banking transactions. The user wants to insert their identification card, fill in their identification number, and verify their identity relatively quickly. However, anyone who knows the identification number associated with a card can use it. If the thief sees the owner's card use, or finds the identification number on the card or something, and finds the identification number, he can easily withdraw money from the owner's account. Therefore, banks have been studying other reliable methods of verifying the identity of ATM users.

Flom 등의 홍채 인식법은 매우 신뢰성이 있는 것으로 입증되었으므로, ATM 사용자의 신분 및 다른 원격 사용자 인식 또는 신분증명 적용을 확인하기 위해 홍채인식의 사용이 제안되어왔다. 그러나, 상업적으로 유용한 이용에 있어서는, 금전출납기 앞에서 ATM 사용자를 서있게 하여 신분증명 및 인식하므로써 충분한 해상도의 홍채영상을 얻는 신속하고 신뢰성이 있으며, 비노출적인 방법이 있어야 했다. 사용자로 하여금 카메라로부터 일정 거리에 머리를 위치시키기 위해서, 접안렌즈 또는 다른 고정물의 사용 또는 부착물이 없는 것과 같은 것은 실용적이지 않다. 따라서, ATM 사용자의 홍채를 신속하게 위치시키고, 신분증명 및 확인에 사용될 수 있는 홍채의 다량 영상을 얻는 시스템이 필요하다. 이 시스템은 입출력카드와의 결합 또는 그러한 카드없이 사용하는 데 적합하다. 또한, 시스템은 안경, 콘택트렌즈, 스키 마스크, 또는 다른 차단장식을 착용한 사용자로부터 영상을 얻을 수 있어야 한다.Since the iris recognition method of Flom et al. Has proven to be very reliable, the use of iris recognition has been proposed to verify the identity of ATM users and the application of other remote user recognition or identification. However, for commercially useful applications, there must be a fast, reliable and non-exposed method of obtaining an iris image with sufficient resolution by having an ATM user standing in front of the teller and identifying and recognizing it. In order to allow the user to position the head at a distance from the camera, it is not practical, such as without the use of eyepieces or other fixtures or attachments. Therefore, there is a need for a system that quickly locates the iris of an ATM user and obtains a large amount of images of the iris that can be used for identification and verification. This system is suitable for use with or without an input / output card. The system should also be able to obtain images from a user wearing glasses, contact lenses, ski masks, or other barriers.

본 발명은 홍채영상 포착을 위해 눈을 조명하는 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for illuminating the eye for capturing an iris image.

도 1은 본 발명의 홍채영상 포착 장치의 바람직한 실시예의 전면도.1 is a front view of a preferred embodiment of the iris image capture device of the present invention.

도 2는 도 1의 측면도.2 is a side view of FIG. 1;

도 3은 협시야 조명기의 제1실시예의 평면도.3 is a plan view of a first embodiment of a narrow field illuminator;

도 4는 도 3의 쇄선에 따른 조명기의 조명영역을 나타내는 측면도.4 is a side view showing an illumination area of the illuminator according to the broken line of FIG.

도 5는 도 4와 유사한 협시야 조명기의 제2실시예의 측면도.5 is a side view of a second embodiment of a narrow field illuminator similar to FIG. 4;

도 6은 제1조명기 브래킷의 평면도.6 is a plan view of the first fixture bracket.

도 7은 도 6의 쇄선에 따른 조명기 브래킷의 조명기 위치를 나타내는 측면도.7 is a side view showing the position of the illuminator of the illuminator bracket according to the broken line in FIG.

도 8은 제2조명기 브래킷의 평면도.8 is a plan view of the second fixture bracket.

도 9는 도 8의 쇄선에 따른 조명기 브래킷의 조명기 위치를 나타내는 측면도.9 is a side view showing the position of the illuminator of the illuminator bracket according to the broken line in FIG.

도 10은 도 1의 실시예의 제어 구조를 나타내는 블록 다이아그램.10 is a block diagram illustrating a control structure of the embodiment of FIG. 1.

도 11은 사람의 눈 및 안경에 나타나는 광시야 조명기의 반사를 나타내는 전면도.FIG. 11 is a front view illustrating reflection of a wide field illuminator appearing in a human eye and glasses. FIG.

도 12는 사람의 눈 및 안경에 나타나는 협시야 조명기의 반사를 나타내는 전면도.12 is a front view illustrating reflection of a narrow field illuminator appearing in a human eye and glasses.

본 발명은 홍채로부터 반사되는 빛을 수신하는 광학 시스템 앞에 머리를 위치시킨 사람의 홍채의 선명한 영상을 얻을 수 있는 방법 또는 장치를 제공한다. 이 시스템은 주변조명이 있거나 또는 없는 하나 이상의 카메라와 하나 이상의 조명기를 포함한다. 또한, 팬/틸트 반사경, 또는 짐벌장치 및 하나 이상의 렌즈를 제공한다. 물체로부터 반사된 빛은 짐벌카메라 또는 거울에 잡히거나 렌즈를 통과하여 카메라로 향하게 된다. 바람직한 실시예에서는, 협시야(narrow field of view ; NFOV) 카메라가 팬/틸트 반사경으로부터 반사되어 렌즈를 통과하거나 직접적으로 짐벌설치 카메라를 경유하는 빛을 수신한다. 물체의 광시야(wide field of view ; WFOV) 영상을 얻기 위해서는 제2카메라 및 제3카메라가 제공된다. 몇몇 경우에는, 만약 사용자가 항상 NFOV 카메라의 시야 내에 있음을 알거나, NFOV 카메라의 이동으로 위치될 수 있다면, WFOV 카메라는 불필요할 수도 있다. WFOV 카메라로부터의 영상은 인식되는 사람의 머리, 어깨 및 홍채와 같은 중요전의 특정 위치 좌표를 결정한다. 그러한 영상의 분석에 기초하여, 팬/틸트 반사경 또는 짐벌은 홍채 또는 다른 중요 영역으로부터의 빛을 수신하기 위해 조정되고, 반사된 빛을 협시야 카메라로 향하게 한다. 그 카메라는 홍채인식을 허용하기 위한 충분한 양의 영상을 생성한다.The present invention provides a method or apparatus for obtaining a clear image of an iris of a person whose head is positioned in front of an optical system that receives light reflected from the iris. The system includes one or more cameras and one or more illuminators with or without ambient lighting. It also provides a pan / tilt reflector, or gimbal device and one or more lenses. Light reflected from an object is captured by a gimbal camera or mirror, or directed through a lens to the camera. In a preferred embodiment, a narrow field of view (NFOV) camera is reflected from the pan / tilt reflector to receive light through the lens or directly through the gimbal mounting camera. A second camera and a third camera are provided to obtain a wide field of view (WFOV) image of the object. In some cases, a WFOV camera may be unnecessary if the user knows that they are always within the field of view of the NFOV camera or can be located with the movement of the NFOV camera. The image from the WFOV camera determines the specific location coordinates of the major war, such as the head, shoulder and iris of the person being recognized. Based on the analysis of such images, the pan / tilt reflector or gimbal is adjusted to receive light from the iris or other critical area and directs the reflected light to the narrow field camera. The camera produces enough images to allow iris recognition.

바람직한 실시예는 인식되는 사람의 얼굴을 비추는 광시야 조명기를 포함한다. 조명기는 광시야 카메라 또는 카메라들의 주변에 위치한 다수의 적외선 발광 다이오드를 포함한다.Preferred embodiments include a wide field illuminator that illuminates the face of the recognized person. The illuminator includes a wide field of view camera or a plurality of infrared light emitting diodes positioned around the cameras.

또한, 발광 다이오드의 배열로 구성된 둘 이상의 협시야 조명기를 제공한다. 이 배열들은 가로축 및 세로축에 대해 회전가능하게 설치된다. 적어도 두개의 배열을 사용하므로써 안경, 콘택트렌즈, 또는 홍채를 차단하는 다른 물체들로부터 정반사 및 반사를 보상할 수 있다.It also provides two or more narrow field illuminators arranged in an array of light emitting diodes. These arrangements are rotatably installed about the horizontal axis and the vertical axis. By using at least two arrangements, specular reflection and reflection can be compensated from glasses, contact lenses, or other objects blocking the iris.

추가하여, 첫번째 발광다이오드가 기반에 수직한 중심선을 가지고, 두번째 발광다이오드가 기반과 예각을 이루는 중심선을 가지고, 세번째 발광다이오드가 기반에 대해 둔각을 이루는 중심선을 가지도록 배열을 구성한다. 이것은 배열에 광시야 조명을 제공한다. 각 발광다이오드 그룹을 개별적으로 조명할 수 있게 하는 제어 시스템을 추가하여 제공한다. 제어 시스템은 개별적인 다이오드의 선택적 활동을 허용한다. 다른 대안은 영상조정장치의 좌표계로 전환된 단일조명을 제공하는 것이다.In addition, the arrangement is such that the first light emitting diode has a centerline perpendicular to the base, the second light emitting diode has a centerline perpendicular to the base, and the third light emitting diode has a centerline obtuse with respect to the base. This provides wide field illumination to the array. An additional control system is provided to enable individual illumination of each group of LEDs. The control system allows for selective action of individual diodes. Another alternative is to provide a single light converted to the coordinate system of the image adjusting device.

광시야각 카메라로부터 영상을 분석하기 위해 영상 프로세서가 제공되고, 이것에 의해서 인식되는 물체 또는 사람에 중요점 또는 영역의 위치를 상세화한다. 사용자의 위치를 확인하는 바람직한 기술은 입체화법 영상분석이다. 선택적으로, 초음속, 레이다, 스프레드 스펙트럼 극초단파와 같은 가시 또는 비가시 영역 영상화 또는 거리확인장치 또는 열 영상화 또는 감지 또는 다른 광학수단이 사용될 수 있다.An image processor is provided for analyzing the image from the wide viewing angle camera, thereby detailing the location of the key point or area on the object or person being recognized. A preferred technique for identifying a user's location is stereoscopic image analysis. Optionally, visible or invisible region imaging or ranging devices such as supersonic, radar, spread spectrum microwaves or thermal imaging or sensing or other optical means may be used.

본 발명의 시스템은 특히, 자동금전출납기 사용자의 신분을 확인하는데 유용하다. 시스템은 대부분의 종래 자동금전출납기 및 다른 많은 금융거래장치에 조합될 수 있다. 영상 포착 및 인식은 일반적으로 5초미만으로 수행될 수 있거나, 대부분은 2초 미만이다.The system of the present invention is particularly useful for verifying the identity of an automated teller user. The system can be combined with most conventional automated teller machines and many other financial transactions. Image capture and recognition can generally be performed in less than 5 seconds, or most are less than 2 seconds.

1 NFOV 카메라, 1 WFOV 및 1 NFOV 카메라, 2 NFOV 카메라, 멀티 NFOV 카메라 및 멀티 WFOV 카메라와 같은 다른 구성의 카메라들도, 많거나 부족한 제한이동 또는 위치 시나리오와 같은 다른 특정목적에 적용될 수 있다. 예를 들어, 전화부스에서 또는 무선수화기 사용의 홍채 영상화, 군중의 멀티홍채영상화, 이동 또는 정지 수송수단에서 사람의 홍채영상화, 경마의 홍채영상화, 또는 판매지점의 수에 사용된다.Other configurations of cameras, such as one NFOV camera, one WFOV and one NFOV camera, two NFOV cameras, multiple NFOV cameras, and multiple WFOV cameras, may also be applied to other specific purposes, such as many or insufficient constrained or location scenarios. For example, it is used in iris imaging of a telephone booth or using a wireless handset, multi-iris imaging of a crowd, iris imaging of a person, iris imaging of a horse race, or the number of points of sale in a mobile or stationary vehicle.

도 1 및 2를 참조하면, 본 발명의 바람직한 실시예에 따른 장치는 폭 14.5인치, 높이 15인치, 깊이 18인치의 하우징(1) 내에 있다. 이 크기의 하우징은 자동금전출납기 또는 다른 제한입출력기 또는 입력장소 내 또는 근처에 배치될 수 있다. 자동금전출납기의 하우징 내에 결합되거나 근처에 위치하게 되면, 유닛은 광전이 사면 뒤에 위치하게 된다. 특히, 사면에 연기가 생기거나, 또는 다른 시각적인 불투명 유리, 또는 비교할 만한 플라스틱은 이 장치의 시야를 방해한다. 본 장치는 대부분의 사용자들의 시선에 맞도록 위치하게 된다. 도 2에서는 장치 앞에서 사람의 머리가 인식되는 것을 나타낸다1 and 2, a device according to a preferred embodiment of the invention is in a housing 1 of 14.5 inches wide, 15 inches high and 18 inches deep. Housings of this size may be placed in or near an automated teller machine or other limited I / O or input location. When coupled or located within the housing of the automatic teller machine, the unit is positioned behind the slope of the photoelectric. In particular, smoke on the slope, or other visually opaque glass, or comparable plastic, obstructs the field of view of the device. The device is positioned to meet the eyes of most users. 2 shows that a human head is recognized in front of the device

도 1 및 2에 나타낸 바람직한 실시예에서는, 각각 렌즈(2)(4)를 가진 2개의 광시야 카메라(WFOV)를 제공한다. 렌즈(2)(4) 및 다른 구성물의 회전 및 위치는 적절한 공간 또는 다른 응용에 조정할 수 있도록 바뀔 수 있다. 광시야 조명기(6)은 렌즈를 둘러싼다. 후드(5)(7)는 조명기(6)로부터의 빛이 카메라 안으로 직접 통과하는 것을 피하도록 렌즈(2)(4) 둘레에 제공된다. 광시야 조명기는 발광다이오드(10)의 세트로 이루어진다. 구성의 용이를 위해, 이 다이오드 세트는 소회로보드(12) 상에 설치된다. 이 보드는 렌즈(2)(4)를 둘러싸는 하우징(13)에 설치된다. 도 2에 나타낸 바와 같이, 장치앞에 서는 사람의 머리를 조명하도록 회로보드(12)를 포함하는 LED의 충분한 수가 제공되고 위치한다. 따라서, 광시야 조명기는 조명기로부터 약 1피트 거리에서 반경 약 2피트의 영역을 포함하는 조명범위를 제공한다. 이 조명범위는 도 2에 광시야 조명기(6)로부터 연장된 실선으로 나타내었다.In the preferred embodiment shown in Figs. 1 and 2, two wide field-of-view cameras WFOV are provided with lenses 2 and 4, respectively. The rotation and position of the lenses 2, 4 and other components may be varied to adjust to the appropriate space or other application. The wide field illuminator 6 surrounds the lens. Hoods 5 and 7 are provided around the lens 2 and 4 to avoid direct light from the illuminator 6 passing into the camera. The wide field illuminator consists of a set of light emitting diodes 10. For ease of configuration, this diode set is installed on the small circuit board 12. This board is installed in a housing 13 which surrounds the lenses 2 and 4. As shown in Figure 2, a sufficient number of LEDs, including circuit board 12, is provided and positioned to illuminate the head of a person in front of the device. Thus, the wide field illuminator provides an illumination range that includes an area of about 2 feet radius at about 1 foot from the illuminator. This illumination range is shown in FIG. 2 by a solid line extending from the wide field illuminator 6.

광시야 조명기의 일부는 근사 축상 조명(nearly on-axis illumination)을 제공하기 위해 WFOV 카메라 주변에 위치한다. 축상 조명, 근사축상조명 및 경사조명은 표면모양이 나쁜 윤곽 또는 다른 가공물을 만들 수 있는 최소의 그림자로 영상화한다. 이러한 안구의 조명은 좋은 표면모양을 가진 그림자 없는 영상을 생성한다. 이러한 빛의 타입은, 이러한 모양이 불필요하여 불가능하게 되어도, 홍채가 쉽게 위치하도록 사람들을 밝게한다. 다른 광원 및 카메라각으로 생긴 어떤 그림자도 최소화되거나 없어진다. 이 타입의 조명조절은 눈의 깜빡임 또는 사람의 변화 또는 다른 반응을 일으키는 자극 부교감신경 자율신경 시스템 반사에 사용될 수 있다. 이러한 변화는 특정생활지표를 세우거나 영상화 해상도를 향상시키기 위해 크기를 줄일수 있는 물체감지를 결정하는 데 사용될 수 있다.Some of the wide field illuminators are located around the WFOV camera to provide near on-axis illumination. On-axis illumination, near-axis illumination, and oblique illumination are imaged with the least amount of shadows that can produce poor surface contours or other artifacts. These eye lights produce shadowless images with good surface appearance. This type of light brightens people so that the iris is easily located, even if this shape becomes unnecessary and impossible. Any shadows from other light sources and camera angles are minimized or eliminated. This type of illumination control can be used for stimulating parasympathetic autonomic nervous system reflections that cause eye blinking or human changes or other reactions. These changes can be used to determine object detection that can be scaled down to establish specific life indicators or to improve imaging resolution.

광시야 조명기로부터의 빛은 사용자의 얼굴에서 광시야 카메라 렌즈(2)(4)의 렌즈로 반사된다. 이것은 WFOV가 사용자 눈 중 하나로 결정될 수 있는 x, y, z 좌표로부터 영상을 만들어 낼 수 있게 한다. 또한, WFOV 카메라는 입출력 또는 다른 행동을 모니터링하는데 보안 비디오 영상을 제공하는데 사용될 수 있다. 오른쪽 눈의 영상을 얻는다. 그러나, 왼쪽 눈 또는 오른쪽 눈 또는 양쪽 눈으로 선택되어서는 안된다. WFOV 카메라는, x-y 위치 및 중요물체까지의 거리를 결정하기 위해, 입체, 구성된 빛의 입체, 구성된 빛과 또는 없이 촛점으로부터의 깊이와 같은 많은 기술을 사용할 수 있다. x, y, z 좌표를 결정하기 위해 2개의 광시야 카메라로부터 적어도 영상의 일부와 비교하는 입체 공정기술을 사용한다. 또한, 사용자의 주의를 끄는 것에 의해 눈의 위치 및 활동을 제한하는데 조력하는 주시 디렉터(9)를 제공한다.Light from the wide field illuminator is reflected from the user's face to the lens of the wide field camera lens (2) (4). This allows the WFOV to produce an image from x, y and z coordinates that can be determined by one of the user's eyes. WFOV cameras can also be used to provide secure video images to monitor input and output or other behavior. Get an image of your right eye. However, it should not be chosen as left eye or right eye or both eyes. WFOV cameras can use many techniques, such as depth, depth of focus, with or without stereo, to determine x-y position and distance to the object of interest. A stereo process is used to compare at least part of the image from two wide field cameras to determine x, y, z coordinates. It also provides a watch director 9 to assist in limiting eye position and activity by catching the user's attention.

선택된 눈의 위치를 알고나면, 안구의 홍채부분을 조명하여, 홍채 확인 및 감지에 사용되는 홍채영상을 조명해야 한다. 신분증명 및 확인에 사용되는 영상인식알고리즘을 신뢰성있게 작동하기 위해 영상의 홍채부분을 가로지르는 약 200화소를 가진 영상을 얻을 수도 있다.Once the location of the selected eye is known, the iris portion of the eye should be illuminated to illuminate the iris image used for iris identification and detection. An image with about 200 pixels across the iris portion of the image may be obtained to reliably operate the image recognition algorithm used for identification and identification.

홍채인식알고리즘은 영상의 홍채 모양과 저장영상 중에서 동일모양을 비교한다. 비교된 모양의 예정된 수가 맞으면 신분증명이 이루어진다. 어떤 경우에는 적어도 75%의 매치가 필요하다. 따라서, 영상의 중요부분을 차단하는 거울, 의사 빛 반사 또는 검은 그림자가 없도록 하는 것이 중요하다. 사용자가 안경을 착용할 경우, 상기한 것들이 쉽게 일어난다. 이러한 문제점을 극복하기 위해, NFOV 카메라와 결합되는 적어도 2개의 분리된 조명기를 제공한다. 이 조명기들은 이러한 영상 구조를 증대시키기 위해 편성된 조합에 맞게 선택적으로 스위치된다. 예를 들어, 안구를 쉽게 찾기위해 안경 상에 반사물이 생기면, 홍채 영상포착이 불가능하게 된다.The iris recognition algorithm compares the iris shape of the image and the same shape among the stored images. If the predetermined number of shapes compared is correct, identification is provided. In some cases, at least 75% of the matches are required. Therefore, it is important that there are no mirrors, pseudo light reflections or black shadows that block important portions of the image. When the user wears glasses, the above things happen easily. To overcome this problem, it provides at least two separate illuminators that are combined with the NFOV camera. These fixtures are selectively switched to suit the combined combination to enhance this image structure. For example, reflections on the glasses to make eye detection easier, making iris imaging impossible.

도 1에 나타낸 실시예에서, 하나의 NFOV 카메라(16)는 거울(18) 뒤에 위치한다. 하나 이상의 NFOV 조명기(21,22,23)로 부터 발생된 빛은 선택된 눈으로부터 광학 서브시스템(30)쪽으로 반사되며, 상기 광학 서브시스템은 이 반사된 빛을 NFOV 카메라쪽으로 향하게 한다. 신원확인 대상자의 주변조도의 밝기정도를 감지하는 센서(14)를 제공하는 것도 가능하다. 이 센서로부터 감지된 정보는, 조명이 필요하다면, 조명기(21,22,23)가 어떤 조명을 제공할 것인지를 결정한다. 또 다른 방법으로, 이러한 광감지를 위해서, 하나 또는 복수의 카메라 그 자체를 이용하는 것도 가능하다.In the embodiment shown in FIG. 1, one NFOV camera 16 is located behind the mirror 18. Light generated from one or more NFOV illuminators 21, 22, 23 is reflected from the selected eye towards the optical subsystem 30, which directs the reflected light towards the NFOV camera. It is also possible to provide a sensor 14 for detecting the degree of brightness of the peripheral illuminance of the identification subject. The information sensed from this sensor determines which illuminators 21, 22 and 23 will provide if illumination is needed. Alternatively, for this light sensing, it is also possible to use one or a plurality of cameras themselves.

도 1에 나타낸 실시예의 광학 서브시스템(30)은 팬/틸트 반사경을 포함하며, 이 팬/틸트 반사경은 모터(34)로부터 연장된 막대(33)에 부착된다. 이러한 구조에 의해 막대(33)를 통과하는 중심선에 해당하는 틸트축 주변을 팬/틸트 반사경이 회전할 수 있게 된다. 모터(34)는 암(35) 위에 설치되며, 상기한 암은 막대(37)에 의해 베이스(36)에 축결합된다. 상기 암(35)은 막대(37)의 중심선에 해당하는 팬축 둘레를 따라 움직일 수 있다. NFOV 조명기(21,22,23)로부터 발광된 빛은 대상이 되는 홍채로부터 팬/틸트 반사경(32)으로 반사된다. 빛을 NFOV 카메라(16)으로 반사하는 거울(18)로 빛이 향하도록 거울(32)의 위치 및 방향이 결정된다. NFOV 카메라의 렌즈는 촛점 또는 줌(zoom)을 바꿀수 있도록 움직일 수 있게 설치되며, 상기 카메라의 개구부는 조정가능하다. NFOV 카메라(16)는 눈 쪽으로 그 방향을 바꿀 수 있도록, 움직이는 플렛폼 위에 장착될 수도 있다. 그러므로, 도 1에 나타낸 광학장치소부(optical subsection) 부분은 필요하지 않을 수도 있다. 본 발명의 바람직한 광학 부 시스템은 팬축, 틸트축, 촛점축, 개구축, 및 줌축 등의 다섯개의 자유도를 가지고 있다. 그 보다 작은 자유도의 시스템을 이용하는 것도 가능하다. 팬 및 틸트축은 팬/틸트 반사경(32)의 위치를 정하기 위해 이용되며, 이에 따라 NFOV 카메라(16)의 감지어레이(sensing array) 위로 좁은 영역의 영상이 올바르게 입력되게 된다. 촛점축, 개구축 및 줌축을 따라 동작하는 움직임을 조절하여 영상화되는 대상물의 촛점을 맞춘다. NFOV 카메라만을 필요로 한 경우도 있으며, 이 경우에는 WFOV 카메라는 선택적으로 사용 가능하다.The optical subsystem 30 of the embodiment shown in FIG. 1 includes a pan / tilt reflector, which is attached to a rod 33 extending from the motor 34. This structure allows the pan / tilt reflector to rotate around the tilt axis corresponding to the centerline passing through the bar 33. The motor 34 is mounted on the arm 35, which arm is axially coupled to the base 36 by a rod 37. The arm 35 may move along a circumference of the fan shaft corresponding to the centerline of the rod 37. Light emitted from the NFOV illuminators 21, 22, and 23 is reflected from the iris to the pan / tilt reflector 32. The position and orientation of the mirror 32 is determined such that the light is directed to the mirror 18 reflecting light to the NFOV camera 16. The lens of the NFOV camera is mounted to be movable to change the focus or zoom, and the opening of the camera is adjustable. The NFOV camera 16 may be mounted on a moving platform so that its orientation can be turned toward the eye. Therefore, the optical subsection portion shown in FIG. 1 may not be necessary. The preferred optical sub system of the present invention has five degrees of freedom, such as a pan axis, a tilt axis, a focal axis, an aperture axis, and a zoom axis. It is also possible to use systems with smaller degrees of freedom. The pan and tilt axes are used to position the pan / tilt reflector 32 so that a narrow area of the image is correctly input over the sensing array of the NFOV camera 16. It adjusts the movement along the focal axis, aperture axis and zoom axis to focus the object being imaged. In some cases, only NFOV cameras are required, in which case the WFOV cameras are optional.

광학장치의 해상도, 배율, 영상기의 촛점 및 크기의 설계에 따라, 카메라와 렌즈 사이의 거리와 렌즈와 영상화될 대상물의 사이 거리가 결정된다. 영상기의 크기는 렌지로부터 영상기까지의 거리를 결정하는 데 상당히 중요하며, 촛점의 깊이에 영향을 준다. NFOV 카메라(16)는 고체상태(solid state) 또는 비디콘(vidicon) 카메라를 이용할 수 있으며, 산업적으로 일반적인 1/4, 1/2, 2/3, 또는 1인치의 직경을 갖는 다양한 크기의 감지 어레이가 가능하다는 것을 당업자라면 알 수 있을 것이다. 광학 시스템에서 거울을 도입하면, 광학 경로의 길이에 영향을 주지 않으면서, 광경로가 바뀌게 된다. 이러한 거울들을 사용하면 상기한 광 경로가 자신의 것과 다시 겹치게 되며, 이에 따라 광학적 설계를 수행하기 위해 필요한 모든 요구되는 물리적 길이를 감소시킬 수 있다. 짐벌 카메라를 영상 조정을 수행하기 위해 이용할 수 있음을 당업자라면 알 수 있다.Depending on the design of the resolution, magnification, focus and size of the imager, the distance between the camera and the lens and the distance between the lens and the object to be imaged are determined. The size of the imager is of great importance in determining the distance from the stove to the imager and affects the depth of focus. The NFOV camera 16 can use a solid state or vidicon camera and can detect various sizes of industrially common 1/4, 1/2, 2/3 or 1 inch diameters. Those skilled in the art will appreciate that an array is possible. Introducing a mirror in the optical system changes the light path without affecting the length of the optical path. The use of such mirrors allows the above optical path to overlap with its own, thus reducing all the required physical lengths needed to carry out the optical design. It will be appreciated by those skilled in the art that a gimbal camera can be used to perform the image adjustment.

도 1에 나타낸 실시예에서의 조명기 위치는 도 2에 점선으로 표시한 조명영역을 제공하도록 설정되어 있다. 빛이 사용자의 눈에서 팬/틸트 반사경(32) 쪽으로 반사되도록 상기 조명영역의 방향과 위치가 정해진다. 이러한 결과를 얻기 위해서, 하우징(1) 안의 각각 다른 위치에 있는 세개의 조명기(21,22,23)가 제공된다. WFOV카메라 또는 사용가능한 다른 위치측정기로부터 얻은 정보를 바탕으로 사용자의 눈이 위치할 가능성이 큰 영역으로 빛이 향하도록 상기 조명기의 방향을 결정한다. 상기 조명기는 그 위치 또는 방향이 고정되도록 설치될 수 있고, 수동으로 위치수정이 가능하도록 설치할 수도 있으며, 도 6,7,8, 및 9에 나타낸 바와 같이 모터가 장착된 브래킷에 설치될 수도 있다. 상기 조명기는 하나의 축을 따라 이동하는 슬라이딩장치(sliding mechanism)에 부착할 수도 있다.The illuminator position in the embodiment shown in FIG. 1 is set to provide an illumination area indicated by the dashed line in FIG. The illumination area is oriented and positioned so that light is reflected from the user's eyes toward the pan / tilt reflector 32. To achieve this result, three illuminators 21, 22, 23 are provided at different positions in the housing 1. Based on information obtained from a WFOV camera or other available locator, the illuminator is directed to direct light to an area where the user's eyes are likely to be located. The illuminator may be installed so that its position or direction is fixed, it may be installed to enable position correction manually, or may be installed in a bracket on which a motor is mounted as shown in FIGS. 6, 7, 8, and 9. The illuminator may be attached to a sliding mechanism that moves along one axis.

발광다이오드나, 적외선 또는 적외선에 가까운 빛의 발광장치나 이러한 장치의 조합을 광원으로서 이용하는 것이 바람직하다. 균일한 조명을 보장하기 위하여 렌즈와 도면에 도시하지 않은 확산기(diffuser)를 이용할 수 있다. 적외선이 가시시광선영역에 있는 빛보다 안경이나 썬그라스를 잘 통과하기 때문에, 적외선이 광원으로서 효과적이다. 또한, 적외선은 사용자에게 보이지 않거나, 잘 눈에 뛰지 않는다. 원하는 상을 얻는데 방해가 되는 주변파장의 빛을 감소시키기 위해 카메라 앞의 광 경로에 광필터를 위치시킬 수 있다. 각 카메라의 성능을 최적화하기 위하여 상이한 파장의 빛을 통과시키는 상이 파장 우선 필터(different wavelength priority filter)를 사용할 수 있다. 예를 들면, WFOV 카메라의 영상화(imaging)를 위해서 장파장 IR을 사용할 수 있으며, NFOV 카메라의 영상화를 위해서 단파장 IR을 이용할 수 있다. 그러면, NFOV 카메라는 WFOV를 위한 조명에 응답하지 않게 된다. 이러한 일명 "광속" 처리방식("speed of light" processing)을 이용하면 큰 효과를 얻을 수 있다. 원한다면, LED 광원을 스트로빙(strobing)화 할 수도 있다. 스트로빙은 움직임을 정지시키는 기능을 제공한다. 또한, 짧은 시간동안에 고광도광원을 이용하고, 카메라를 노출시킴으로써, 스트로빙은 주변조도를 제압하는 기능을 제공하며, 이에 따라, 간섭을 일으킬 수 있는 배경의 주변조명을 제거하게 된다.It is preferable to use a light emitting diode, a light emitting device of infrared light or near infrared light, or a combination of such devices as a light source. In order to ensure uniform illumination, a lens and a diffuser (not shown) may be used. Infrared rays are effective as light sources because infrared rays pass through glasses or sunglass better than light in the visible region. In addition, infrared rays are not visible to the user or are not well visible. An optical filter can be placed in the light path in front of the camera to reduce the light from the surrounding wavelengths that interferes with obtaining the desired image. In order to optimize the performance of each camera, different wavelength priority filters can be used that pass light of different wavelengths. For example, long wavelength IR may be used for imaging a WFOV camera, and short wavelength IR may be used for imaging a NFOV camera. The NFOV camera then stops responding to the illumination for WFOV. This so-called "speed of light" processing can be very effective. If desired, the LED light source can be strobed. Strobing provides the ability to stop motion. In addition, by using a high intensity light source for a short time and exposing the camera, strobing provides the ability to subdue the ambient light, thereby eliminating background ambient light that may cause interference.

NFOV와 WFOV 조명기를, 예를 들면 서로 다른 시간으로, 스트로빙하고, 각각의 카메라가 적당한, 혹은 각각 다른, 시편(time slices)에 걸쳐서 사진을 통합하기 위해 각 장치의 공간 및 시간적 특성을 최적으로 이용할 수 있다.Strobing the NFOV and WFOV fixtures, for example at different times, and each camera optimally optimizes the spatial and temporal characteristics of each device for integrating photos across the appropriate or different time slices. It is available.

도 1,3,4, 및 5에 나타낸 바와 같이, NFOV 조명기는 회로기판(24) 위에 6×6배열로 설치된 발광다이오드(20)로 구성된다. 상기한 발광다이오드가 상기한 회로기판에 대해 수직으로 설치되어 있으면 상기한 조명기는 도 4에 직경(b)으로 나타낸 바와 같은 조명영역을 갖게 된다. 본 발명자는 도 4에 나타낸 것과 같은 구성을 갖는 발광다이오드의 방향 또는 위치를 재배치하거나 재배열하여 조명영역을 증가시킬 수 있음을 발견하였다. 이 증가된 조명영역은 도 5의 더 긴 직경(a)으로 나타내었다. 상기한 조명기의 상단에 있는 두 열의 다이오드는 회로기판(24)에 대해 예각을 가지며 하단에 있는 두 열의 다이오드는 둔각을 갖는다. 원고리모양 또는 다른 형태의 조명기를 NFOV 렌즈 둘레에 위치하도록 설치할 수도 있다. 인공물의 이용을 최소화하기 위하여, 또는 각막의 만곡(corneal curvature), 안 격리도(eye separation), 홍채의 직경, 공막의 맥관구조(sclerac vasculature) 등의 생물학 관련 특성의 이용도를 높이기 위해 편광자 또는 유전율이방성 분석기(birefrigent analysis devices) 등의 다른 광학소자를 이용할 수 있다.As shown in Figs. 1, 3, 4, and 5, the NFOV illuminator is composed of light emitting diodes 20 arranged in a 6x6 array on a circuit board 24. Figs. If the light emitting diode is provided perpendicular to the circuit board, the illuminator has an illumination area as indicated by the diameter b in FIG. The inventors have found that the illumination area can be increased by rearranging or rearranging the direction or position of the light emitting diodes having the configuration as shown in FIG. This increased illumination area is represented by the longer diameter a of FIG. 5. The two rows of diodes at the top of the illuminator have an acute angle to the circuit board 24 and the two rows of diodes at the bottom have an obtuse angle. A circular or other type of illuminator may be placed around the NFOV lens. To minimize the use of artefacts or to increase the availability of biologically relevant properties such as corneal curvature, eye separation, iris diameter, sclera vasculature, etc. Other optical devices, such as dielectric anisotropy analyzers, can be used.

도 6 및 7은 하우징에 NFOV 조명기(21,22,23)를 부착하기 위해 이용되는 브래킷을 나타낸 도면이다. 이러한 브래킷(30)은 구멍(32)을 갖는 U형태의 베이스(base,31)를 가지며, 구멍(32)에 삽입된 나사에 의해 브래킷이 하우징에 부착된다. 핀(42)이 부착된 한 쌍의 그리퍼암(gripper arm,33,34)은 베이스의 직립부중 하나에 축결합되어 있다. 똑같은 다른 한쌍의 그리퍼암(33,34)도 연결고리(collar,37)에 의해 반대편의 직립부에 연결되어 있다. 도 7에 일점쇄선으로 나타낸 조명기는 나사 또는 핀(38)에 의해 상기한 그리퍼암 사이에 고정된다. 도면에 표시하지 않았지만, 상기한 그리퍼암이 여러위치 중 하나에 선택적으로 위치할 수 있도록, 일련의 구멍이 상기한 직립부를 따라 형성된다. 상기한 연결고리의 회전을 방지하기 위하여, 잠금탭(39)은 연결고리(37)로부터 상기한 직립부의 인접한 슬롯(slot)안으로 연장되어 있다. 상기한 그리퍼암의 회전을 방지하기 위해, 그리퍼암(35,36)으로부터 연장되어 있는 핀(42)에 대해 장착나사(38)가 죄어져 있다.6 and 7 show the brackets used to attach the NFOV illuminators 21, 22, 23 to the housing. This bracket 30 has a U-shaped base 31 having a hole 32, and the bracket is attached to the housing by a screw inserted into the hole 32. A pair of gripper arms 33 and 34 to which the pin 42 is attached is axially coupled to one of the uprights of the base. The same pair of other gripper arms 33 and 34 are also connected to the opposite uprights by a collar 37. The illuminator represented by dashed line in FIG. 7 is fixed between the gripper arms described above by screws or pins 38. Although not shown in the figures, a series of holes are formed along the uprights described above so that the gripper arms can be selectively positioned in one of several positions. In order to prevent rotation of the link ring, the locking tab 39 extends from the link ring 37 into an adjacent slot of the upright portion. In order to prevent the gripper arm from rotating, the mounting screw 38 is tightened with respect to the pin 42 extending from the gripper arms 35 and 36.

도 8 및 9는 NFOV 조명기(21,22,23)를 하우징(1)에 부착하기 위해 사용된 제2브래킷(44)을 나타낸 도면이다. 브래킷(50)은 상기한 하우징에 부착된 베이스(51)를 가지고 있다. 막대(52)는 베이스(50)로부터 위쪽으로 연장되어 있다. 연결고리(53)은 막대(52)를 따라 미끄러지도록 설치되며, 장착나사(54)에 의해 원하는 위치에 고정될 수 있다. 막대(55)는 연결고리(53)으로부터 연장되어 있으며, 운반부(46)를 붙들고 있다. 이 운반부는 연결고리(53)와 같은 방식으로 막대(55)에 미끄러질 수 있도록 부착되어 있다. 상기한 운반부로부터 연장되어 있는 핀(57)에 고정된 고정자 또는 걸쇠(snap)에 의해 도 9에 일점쇄선으로 나타낸 조명기가 운반부(56)에 부착된다. 이러한 브래킷(50)과, 달리 설명된 브래킷(30)에 의해, 그것에 부착된 조명기가 팬축(pan axis) 또는 틸트축(tilt axis)을 따라 재배치되거나 재고정되어진다.8 and 9 show a second bracket 44 used to attach the NFOV illuminators 21, 22, 23 to the housing 1. The bracket 50 has a base 51 attached to the housing described above. The rod 52 extends upwardly from the base 50. The connecting ring 53 is installed to slide along the rod 52 and may be fixed at a desired position by the mounting screw 54. The rod 55 extends from the connecting ring 53 and holds the carrying section 46. This carrier is attached to the rod 55 in the same manner as the linkage 53. An illuminator shown in dashed line in FIG. 9 is attached to the carrying section 56 by a stator or a snap fixed to the pin 57 extending from the carrying section. With this bracket 50 and with the bracket 30 described otherwise, the fixtures attached thereto are repositioned or repositioned along the pan axis or tilt axis.

분배기판(60)을 통해 설치된 각 배열의 발광다이오드는 도 10에 나타낸 조명제어기(62)에 연결하는 것이 바람직하다. 하나 이상의 조명기가 있을 수 있으며, 이러한 발광다이오드의 배열을 도면에 나타낸 조명기(1)부터 조명기(X)까지 도면에 나타낸다. 분배기판(60)과 조명제어기(62)에 의해 도 1의 실시예에서의 WFOV 조명기(6)과 NFOV 조명기(21,22,23)가 선택적으로 발광된다. 또한, 각 배열에 있는 일련의 발광다이오드를 배열마다 선택적으로 발광시킬 수 있으며, 개별의 발광다이오드를 선택적으로 발광시킬 수도 있다.Each array of light emitting diodes provided via the distribution substrate 60 is preferably connected to the lighting controller 62 shown in FIG. There may be more than one illuminator, such an arrangement of light emitting diodes is shown in the figure from illuminator 1 to illuminator X shown in the figure. The WFOV illuminator 6 and the NFOV illuminators 21, 22, and 23 in the embodiment of FIG. 1 selectively emit light by the distribution substrate 60 and the illumination controller 62. FIG. In addition, a series of light emitting diodes in each array can be selectively emitted for each array, and individual light emitting diodes can also be selectively emitted.

각 배열의 발광다이오드는 배열마다 각각 다른 파장의 빛을 발광 할 수 있다. 홍채가 빛에 대해 사람마다 다르게 반응하여 어떤 파장에서는 더 좋게 반응하고 다른 파장에서는 더 나쁘게 반응한다는 점을 주의해야 한다. 이러한 점을 해결하기 위한 방법으로, 파장이 서로 다른 발광다이오드를 구비한 여러 조명기를 이용하거나, 각각의 파장이 서로 다른 발광다이오드를 구비한 하나의 조명기를 이용할 수 있다. 이 발광다이오드들을 스트로빙(strobing)화 할 수 있으며, 이에 의해 더욱 좋은 영상을 얻을 수 있다. 추가로, 조명의 밝기를 제어하기 위해서, 혹은 정반사율(specularity)을 제어하기 위해서, 광선폭이 다른 발광다이오드를 다른 조명기에 나란히 설치하는 것도 가능하다. 이때, 광선폭이 더 조밀할수록 정반사율의 크기는 작아진다.Each array of light emitting diodes can emit light of a different wavelength for each array. Note that the iris responds differently to light, responding better at some wavelengths and worse at other wavelengths. In order to solve this problem, various illuminators having light emitting diodes having different wavelengths may be used, or one illuminator having light emitting diodes having different wavelengths may be used. The light emitting diodes can be strobed, whereby a better image can be obtained. In addition, it is also possible to install light emitting diodes of different light widths in parallel with other illuminators in order to control the brightness of the illumination or to control the specularity. At this time, the denser the light width, the smaller the magnitude of the specular reflectance.

또한, 빛의 발광시간과 광도를 제어할 수 있다. 장시간의 조명때문에 조명기가 꺼지는 것을 방지하기 위해서, 타이머(63)를 각 조명기에 설치할 수 있으며, 이때, 타이머(63)는 도 10에 "T"로 명칭된 점선 블록으로 나타내었다. 상기한 타이머는 정해진 기간의 조명 후에 그 열에 있는 조명기에 전력제공을 중단한다. WFOV 카메라(3)는 PV-I로 지칭되는 영상처리기(64)에 영상을 제공한다. 제어기(64)는 신원확인 대상자의 눈의 위치에 대한 정보를 x,y,z좌표로 컴퓨터(65)에 제공한다. 이 영상처리기는 영상의 질을 평가할 수도 있고, 대상자의 움직임울 보상하는 알고리즘을 포함할 수 있다. 이 영상처리기는 영상의 질을 향상시킬 수도 있다. 컴퓨터(65)는 주변조도 레벨 감지기(69)와 NFOV 카메라로부터의 정보를 평가한다. 이 데이터는 조명방법을 수정하는데 이용된다. 눈의 예상위치에 대한 x,y,z 좌표를 이용하여 컴퓨터는 조명기의 점등을 제어하는 조명 제어기의 방향을 제어할 수 있으며, 팬/틸트유닛(67)을 올바르게 위치시키기 위해서 팬/틸트 제어기의 방향을 제어할 수 있고, 이에 따라, 홍채의 유용한 영상정보가 얻어지게 된다. WFOV 카메라의 처리 결과에 따라 이러한 기능들을 선택할 수 있다. 컴퓨터(65)는 팬/틸트축의 위치를 수정하거나 초점을 맞추기 위한 명령을 모터에 보낸다. 가장 단순한 경우로서, WFOV 영상이 얻어지고, 데이터가 처리된 후, 데이터가 영상처리기(64)와 컴퓨터(65)를 거쳐서 팬/틸트 제어기(66) 또는 수평제어기에 전달되는 것을 고려할 수 있다. 동작시간과 제어조절시간을 최소화하기 위해서, 광학 서브시스템 내의 모든 다섯 축을 따라 이루어지는 동작을 동시화 할 수 있다.In addition, it is possible to control the light emission time and the brightness. In order to prevent the illuminator from turning off due to prolonged illumination, a timer 63 may be installed in each illuminator, in which the timer 63 is represented by a dashed block labeled “T” in FIG. 10. The timer stops powering the fixtures in the row after a period of illumination. The WFOV camera 3 provides an image to an image processor 64 called PV-I. The controller 64 provides the computer 65 with x, y, z coordinates with information about the position of the eye of the identity subject. The image processor may evaluate the image quality and may include an algorithm for compensating for the movement of the subject. The image processor can also improve the quality of the image. The computer 65 evaluates the information from the ambient light level detector 69 and the NFOV camera. This data is used to modify the lighting method. Using the x, y, z coordinates for the expected position of the eye, the computer can control the direction of the lighting controller that controls the lighting of the illuminator, and the pan / tilt controller The orientation can be controlled, thereby obtaining useful image information of the iris. Depending on the processing result of the WFOV camera, these functions can be selected. The computer 65 sends commands to the motor to correct or focus the position of the pan / tilt axis. In the simplest case, a WFOV image may be obtained, and after the data has been processed, it may be considered that the data is passed to the pan / tilt controller 66 or horizontal controller via the image processor 64 and the computer 65. To minimize run time and control adjustment time, the motion along all five axes in the optical subsystem can be synchronized.

팬/틸트 제어기(66)는 컴퓨터로부터 매크로래벨의 명령을 받고, 조명의 제어 또는 각 축의 감시를 위해 올바른 설정값 및/또는 명령을 발생한다. 축에 대한 연속적인 중간경로의 설정값이 여기에서 발생하며, 그후, 각 축의 감시 제어기에 보내진다. 명령해석기는 영상분석으로부터의 명령을 해석하고, 광학장치로부터의 위치정보를 이용하여 응답을 포멧한다. 실시간 인터럽트가 매 nms마다 정해진 클럭신호를 발생한다. 이 신호는 각 축의 위치제어기를 위하여 샘플데이타시스템(sampled data system)의 임무수행에 필요하며, 감시제어기를 이용하여 연속 경로의 움직임을 위한 동기화를 가능하게 한다. 진단 서브시스템은 제어시스템의 상태가 정상적인지를 진단한다.The pan / tilt controller 66 receives a macrolabel command from a computer and generates correct setpoints and / or commands for control of illumination or monitoring of each axis. A set of consecutive intermediate paths for the axis takes place here and is then sent to the supervisory controller for each axis. The command interpreter interprets the command from the image analysis and formats the response using the location information from the optics. A real time interrupt generates a fixed clock signal every nms. This signal is necessary for the performance of the sampled data system for the position controller of each axis, and the monitoring controller enables synchronization for the movement of the continuous path. The diagnostic subsystem diagnoses whether the state of the control system is normal.

상기한 다섯개의 축의 안무기술법(choreography) 외에도, 이러한 마이크로 프로세서는 조명을 제어한다. 선택된 조명기를 적당한 시간에 동작시키기 위해서, 또는 카메라프레임 찍기와 동시에 선택된 조명기를 동작시키기 위해서, 조명제어기는 동작제어와 관련된 명령과 같은 명령을 제공받는다.In addition to the five axis choreography described above, these microprocessors control illumination. In order to operate the selected illuminator at a suitable time or to operate the selected illuminator simultaneously with taking a camera frame, the lighting controller is provided with a command such as a command related to motion control.

WFOV로부터의 영상은 아날로그신호로 영상처리기(64)에 전달된다. 두개의 피라미드 프로세서와, 적어도 두 프레임을 저장할 수 있는 메모리와, 하나의 LUT와, ALU 장치와, 아날로그신호를 디지탈화하는 수자화기(digitizer)와, 택사스 인스트루먼트 TMS 320 C-31 또는 C-32 프로세서와, 직렬/병렬 프로세서를 상기한 영상처리기가 포함하는 것이 바람직하다. van der Wal의 미국특허 No.5,359,574에 기술되어 있는 것과 같은 피라미드 프로세서를 사용하여 상기한 영상이 처리된다. 상기한 택사스 인스트루먼트 프로세서는 영상 간의 불일치가 있는 지를 계산한다. 상기한 WFOV 영상은 WFOV 카메라의 시야범위 내에서 대상자의 오른쪽, 왼쪽, 또는 양쪽 눈의 위치에 해당하는 영역 또는 점을 정의한다. 이러한 불일치가 있을 때 스테레오 처리기술을 이용하면, WFOV 카메라에 대해 대상자를 나타낸 점이 x,y,z좌표로 나타난다. 이러한 정보를 더 처리하여 머리 또는 눈과 같은 관심영역을 정의한다. 상기한 관심영역의 좌표는 NFOV 광학시스템의 방향을 설정하는데 이용된다. 이러한 위치좌표는 상기한 영상처리기로부터 NFOV영상 및 홍채영상 처리기(65)로 전달된다. 이 장치(65)는 486, 팬티엄, 또는 다른 마이크로프로세서 시스템과 관련 메모리를 포함한다. 상기한 메모리에는 광학플랫폼의 방향을 정하고 홍채를 인식하기 위한 프로그램 또는 알고리즘이 저장되어 있다. 또한, WFOV 비디오영상은 보안 비디오기록으로서도 저장될 수 있다.The image from the WFOV is transmitted to the image processor 64 as an analog signal. Two pyramid processors, memory for storing at least two frames, one LUT, an ALU device, a digitizer to digitize analog signals, a Texas Instruments TMS 320 C-31 or C-32 processor, Preferably, the image processor includes a serial / parallel processor. The above image is processed using a pyramid processor such as that described in US Pat. No. 5,359,574 to van der Wal. The Texas instrument processor calculates whether there is a mismatch between the images. The WFOV image defines an area or point corresponding to the position of the right, left, or both eyes of the subject within the field of view of the WFOV camera. When there is such a mismatch, using stereo processing techniques, the point representing the subject for the WFOV camera is represented by x, y, z coordinates. This information is further processed to define areas of interest such as heads or eyes. The coordinates of the region of interest are used to set the orientation of the NFOV optical system. These position coordinates are transferred from the image processor to the NFOV image and the iris image processor 65. The device 65 includes a 486, Pentium, or other microprocessor system and associated memory. The memory stores programs or algorithms for orienting the optical platform and recognizing the iris. The WFOV video image can also be stored as a secure video record.

NFOV 시스템의 촛점축은 열린 루프 방식으로 제어될 수 있다. 이 경우, 스테레오 처리로 얻어진 x,y,z좌표는 분석계산(analytic computation) 또는 테이블조사(table look)에 의해 촛점축 위치를 정의하여, NFOV 카메라의 렌즈 촛점을 원하는 대상에 올바르게 맞출 수 있게 된다. 닫힌 루프 촛점 방식도 이용될 수 있다. 이 경우, NFOV 비디오는 영상처리기(64)에 의해 처리되어 상기한 축이 촛점상에 있는지를 결정하는 감도지수(figure of merit)를 얻을 수 있다. 상기한 감도지수로부터 상기한 축이 전후로 움직이는 명령을 받아서 새로운 영상이 얻어진다. 이러한 처리과정은 영상의 촛점이 맞게 될 때까지 닫힌 루프 방식으로 진행한다. 카메라 장치에 의해 측정된 홍채의 크기 및 위치와, WFOV 카메라 영상으로부터 얻은 안 격리도(eye saparation)와 같은 다른 정보들은 스테레오 및 다른 촛점정보와 결합되어 다변수 특징(multivariate features)이 된다. 이 다변수 특징은 직접 또는 유도된 센서정보를 융합하여 범위정보를 더 정확히 하는데 이용된다. 물론 이러한 센서 융합은 다른 정보를 포함할 수도 있다.The focal axis of the NFOV system can be controlled in an open loop manner. In this case, the x, y, z coordinates obtained by stereo processing define the focal axis position by analytical computation or table look, so that the lens focus of the NFOV camera can be correctly aligned with the desired object. . Closed loop focusing can also be used. In this case, the NFOV video may be processed by the image processor 64 to obtain a figure of merit that determines whether the axis is in focus. A new image is obtained by receiving a command to move the axis back and forth from the sensitivity index. This process proceeds in a closed loop until the image is in focus. Other information, such as the size and position of the iris measured by the camera device and eye saparation obtained from the WFOV camera image, are combined with stereo and other focus information to become multivariate features. This multivariate feature is used to make range information more accurate by fusing direct or derived sensor information. Of course, such sensor fusion may include other information.

관심 대상, 즉 눈이 움직이기 때문에 WFOV에 의해 감지된 궤적을 NFOV 카메라에 의해 추적할 필요가 있다. 동작에 의해 영상이 불분명히 되는 것이 멈추게 되면, NFOV 카메라와 광학장치(optics)에 의해 좋은 화질의 영상을 얻을 수 있다. 좋은 화질의 홍채 영상을 얻기를 원할 때, 더 이상의 동작이 필요하지 않도록, 빛을 NFOV 카메라로 향하게 하는 상기한 광학장치를 정렬시킨다.Since the object of interest, i.e., the eye, is moving, it is necessary to track the trace detected by the WFOV by the NFOV camera. When the image stops being obscured by the operation, an image of good quality can be obtained by the NFOV camera and the optics. When you want to obtain a good quality iris image, align the above-mentioned optics that direct light to the NFOV camera so that no further action is required.

이 경우, 어느정도 균일한 표본비율(sample rate)로, 예를 들면 100ms마다 WFOV 영상의 분석으로부터 얻어진 x,y,z좌표를 NFOV 제어기에 보낸다. 클라프터(Clafter), 츠미엘루스키(Chmielewski) 및 네긴(Negin)에 의해 쓰여진 로보틱 엔지니어링 언 인터그레이티드 어프로치(Robotic Engineering An Integrated Approach (Prentice Hall,1989))에 기재된 바와 같은 연속 경로 알고리즘을 이용하여 설정값의 중간 집합 {p,t,f,a,z}을 상기한 축에 제공할 수 있으며, 이에 따라, 추적상태에 있는 동안 상기 축이 계속 움직이게 된다. 마지막 단(end)의 위치를 정의하기 위해, 메크로 레벨의 명령이 주어질 수 있거나, 같은 집합 {p,t,f,a,z}을 표본주기 동안에 보내질 수 있다.In this case, at some uniform sample rate, for example, the x, y, z coordinates obtained from the analysis of the WFOV image are sent to the NFOV controller every 100 ms. Continuous path algorithms as described in Robotic Engineering An Integrated Approach (Prentice Hall, 1989) by Clafter, Chmielewski and Negin. Can be used to provide an intermediate set of setpoints {p, t, f, a, z} to the axis, so that the axis continues to move while in the tracking state. To define the position of the last end, macro level instructions may be given, or the same set {p, t, f, a, z} may be sent during the sample period.

NFOV 축이 움직임에 따라, 선명한 영상을 얻기위해 요구되는 통합화를 관련 영상기(imager)가 수행하기에는 시간이 충분하지 않을 수도 있다. 또한, 비월 또는 순차 주사 등에 쓰이는 카메라에 따라, 영상의 필드 투 필드(field to field) 배치 또는 수직 배치가 있을 수 있으며, 이러한 배치는 모두 계산에 의해 전체적 또는 부분적으로 교정될 수 있다. 이와같이, NFOV 스테이지의 방향을 결정하기 위해 WFOV 카메라가 필요한 정보를 제공하는 이유를 쉽게 알 수 있다. 비록 움직임에 의한 촛점 또는 노출 오점으로 인해 영상이 약간 불명확하게 될지라도, 반사율, 홍채 구조, 또는 홍채형태의 일치와 같은 눈 추적 알고리즘이, 눈의 위치에 대한 합리적인 판단치를 NFOV 카메라에 주기 위한 충분한 정보를 제공할 수 있다는 점을 주목해야 한다. 개념적으로 WFOV 데이터가 조잡한 움직임을 위해 이용될 수 있으며, 동작중에 추가정보로써 상기와 같이 처리된 NFOV 데이터가 정밀한 해상도를 위해 이용될 수 있다. 좋은 화질의 홍채 영상을 얻기 위해 NFOV 영상의 위치를 결정하는데 있어서, 이렇게 데이터를 융합하는 것이 하나의 WFOV 카메라 영상을 이용하는 것 보다 더 좋은 판단치를 제공하게 된다.As the NFOV axis moves, there may not be enough time for the associated imager to perform the integration required to obtain a clear image. In addition, depending on the camera used for interlaced or sequential scanning or the like, there may be a field to field arrangement or vertical arrangement of the image, all of which may be corrected in whole or in part by calculation. As such, it is easy to see why the WFOV camera provides the necessary information to determine the direction of the NFOV stage. Although the image is slightly obscured by movement focus or exposure blot, eye tracking algorithms such as reflectance, iris structure, or iris conformation provide sufficient information to give the NFOV camera a reasonable judgment of the eye's position. It should be noted that it can provide. Conceptually, WFOV data may be used for coarse movement, and NFOV data processed as above may be used for precise resolution as additional information during operation. In determining the position of the NFOV image to obtain an iris image with good image quality, this fusion of data provides better judgment than using a single WFOV camera image.

좋은 화질의 홍채영상을 얻기 위해서는, 잔여(residual) 동작이 상기한 영상기에 의해 감지될 수 있는 것 보다 작게 되는 지점에 NFOV 축을 고정시켜야 한다. 이것이 발생하게 되면, 어떠한 잔여 영상(전형적으로 통합 영상과 RS170에 의한 판독에 사이에는 지연이 있음)과 선명한 영상을 위해 이용되는 적당 허락시간도 상기한 영상기로부터 제거해야 한다. 로보틱 엔지니어링 언 인티그레이티드 어프로치(Robotic Engineering An Integrated Approach)를 참조하면 타이밍 시나리오에 대해 알 수 있다. 이것은 여러가지 방법에 의해 달성될 수 있으며, 가장 간단한 방법으로는 동작을 정지한 후에 좋은 화질의 RS170 영상이 얻어질 때까지 일어나는 시간지연이 있다. 부분적으로 불명확 할 수 있는 여러겹의 홍채영상이 모아지고 융합되며, 최적화 및 융합 방법을 이용하여 덜 분명확한하나의 혼합 홍채 영상정보가 된다.In order to obtain an iris image with good image quality, the NFOV axis should be fixed at a point where the residual motion is smaller than can be detected by the imager. If this occurs, any residual image (typically there is a delay between the integrated image and the reading by RS170) and the appropriate allowance time used for clear images should be removed from the imager. See Robotic Engineering An Integrated Approach to learn about timing scenarios. This can be accomplished by several methods, the simplest of which is the time lag that occurs after stopping the operation until a good quality RS170 image is obtained. Multiple iris images, which may be partially indeterminate, are collected and merged, resulting in a less obvious mixed iris image using optimization and fusion methods.

본 발명자는 어떠한 광원도 신원확인 대상자의 안경에서 반사를 일으킴을 발견하였다. 도 11은 WFOV 카메라(3)에 의해 감지된 눈을 나타낸 도면이다. 대상자의 안경(74) 위에 WFOV 조명기(6)에 의한 반사광(70)이 있다. 반사광(70)은 대상자 눈의 홍채(76)을 부분적으로 가리고 있어서, 불가능하게는 아니더라도, 홍채의 인식을 어렵게 한다. 이러한 문제점을 해결하기 위해서, NFOV 카메라(16)의 광학축(optical axis)으로부터 축이탈(off-axis) 위치에 있는 조명기(21,22,23)를 이용한다. 발광다이오드의 위치를 주위깊게 결정하고, 여러 발광다이오드 중 약간만을 이용하여, 홍채확인을 불분명하게 하는 반사를 일으키지 않으면서 충분한 양의 조명을 할 수 있다. 이러한 결과를 도 12에 나타내었다. 이 도면을 보면, NFOV 조명기(21,22,23)의 여러 발광다이오드 중 약간만 그 반사광(80)이 영상에 나타남을 알 수 있다. 상기한 반사광은 홍채(76)의 어느부분도 가리고 있지 않다. 어떤 경우에, 특히 안경을 착용했을 경우에, WFOV의 반사에 의해 머리와 눈을 더욱 신속하게 찾을 수 있다.The inventors have discovered that any light source causes reflections in the glasses of the identity subject. 11 is a view showing eyes detected by the WFOV camera 3. There is reflected light 70 by the WFOV illuminator 6 on the subject's glasses 74. The reflected light 70 partially obscures the iris 76 of the subject's eye, making it difficult to recognize the iris, if not impossible. In order to solve this problem, illuminators 21, 22 and 23 which are in an off-axis position from the optical axis of the NFOV camera 16 are used. The position of the light emitting diodes can be determined deeply, and only a small number of light emitting diodes can be used to provide a sufficient amount of illumination without causing reflections that obscure iris identification. These results are shown in FIG. From this figure, it can be seen that the reflected light 80 of the light emitting diodes of the NFOV illuminators 21, 22, and 23 only appears in the image. The reflected light does not cover any part of the iris 76. In some cases, especially when wearing glasses, the reflection of the WFOV can make head and eyes look faster.

다중의 조명기를 사용하여, 안경에 대응하는 영상 안의 이미지에 의해 안경의 형태를 결정할 수 있다. 서로 떨어진 두 개의 조명기를 이용하여 안경을 순차적으로 조명한다. 첫번재 조명을 하는 동안에는 반사이미지(specularity)가 어느 한 위치에 있게 되고, 두번째 조명을 하는 동안에는 상기와 다른 위치에 반사이미지가 있게 된다. 상기한 반사이미지 변화의 총량을 계산하여 적절한 안경모양을 결정한다. 이러한 정보로부터, 상기 반사이미지를 홍채로부터 떨어지게 하기 위해 필요한 최소의 움직임을 결정할 수 있다.Using multiple illuminators, the shape of the glasses can be determined by the images in the image corresponding to the glasses. The glasses are sequentially illuminated using two illuminators separated from each other. During the first illumination the specularity is in one position and during the second illumination the reflection is in a different position. The appropriate amount of spectacles is determined by calculating the total amount of the reflected image change. From this information, it is possible to determine the minimum movement required to bring the reflected image away from the iris.

NFOV 카메라의 시야범위의 중앙부를, 광시야범위(WFOV)에 의해 삼차원 공간으로 정의된 일련의 좌표를 위한, 팬/틸트 및 촛점 축의 위치에 대응시키도록, 눈금보정처리를 이용한다. 카메라 정면의 움직임 공간 내의 사용자 눈의 위치를 결정하는 WFOV 좌표가 주어지면, 변환기 또는 테이블조사에 의해 팬, 틸트 및 촛점{p,t,f}의 좌표축을 결정할 수 있다. 상기한 좌표축에 의해 NFOV 카메라 시야범위의 중앙을 x,y축상에 맞추며, 촛점을 z축에 맞추게 한다. 눈금보정에 도움이 되도록 일련의 목표점을 이용하는 것이 바람직하다. 하나의 페이지상의 정해진 곳에 있는 홍채의 위치에 해당하는 원을, 이러한 목표점이 부분적으로 채우게 된다. 상기한 목표점을 상기한 하우징으로부터 정해진 거리만큼 떨어진 곳에 위치시키며, 홍채의 위치를 찾고 눈금보정 영상을 발생하도록 상기한 장치를 동작시킨다.A scale correction process is used to correspond to the center portion of the NFOV camera's field of view for the position of the pan / tilt and focal axis for a series of coordinates defined in three-dimensional space by the wide field of view (WFOV). Given the WFOV coordinates that determine the position of the user's eye in the motion space in front of the camera, the coordinate axes of pan, tilt and focus {p, t, f} can be determined by means of a transducer or table lookup. The above-described coordinate axis causes the center of the NFOV camera field of view to be aligned on the x and y axes, and the focus is aligned to the z axis. It is advisable to use a series of target points to aid in calibration. This target point partially fills the circle corresponding to the position of the iris at a given position on a page. The target point is located at a predetermined distance from the housing, and the device is operated to locate the iris and generate a calibration image.

NFOV와 WFOV 카메라를 이용할 경우에는, 그 두 카메라를 함께 눈금보정해야 한다. 이러한 눈금보정은 수동 또는 자동 처리방법에 의해 달성될 수 있으며, 광학 목표물 또는 투영 목표물을 사용할 수 있다. 자동 처리방법은 카메라 영상의 구동을 위한 계산 보조 장치에 의해 자동으로 인식될 수 있도록 눈금보정 대상을 필요로 할 수도 있다. NFOV 카메라의 움직임 기능 또는 다른 움직임 발생 기능을 이용하여 목표물을 눈금보정 공간(calibration volume)에 투영시킨 후 그 목표물을 인식하는 방법도 가능하다.If you use NFOV and WFOV cameras, you need to calibrate both cameras together. Such calibration may be accomplished by manual or automatic processing and may use optical or projection targets. The automatic processing method may require a calibration target to be automatically recognized by the calculation assistant for driving the camera image. It is also possible to project the target in the calibration volume using the NFOV camera's motion function or other motion generation function and then recognize the target.

이상, 콤팩트한 영상조정 및 촛점 장치의 바람직한 실시예와 상기한 장치를 사용하는 방법에 의해 본 발명을 기술하였지만, 본 발명은 여기에 국한되지 않으며, 다음에 기술하는 청구항의 권리범위 내에서 여러가지 방식으로 실시될 수 있음이 분명하다.Although the present invention has been described above by the preferred embodiments of the compact image adjusting and focusing apparatus and the method of using the above apparatus, the present invention is not limited thereto, and various methods within the scope of the claims described below. It is clear that it can be carried out as.

Claims (34)

홍채 확인과 신분증명을 위해 사용되기 위해서,영상이 충분한 해상도를 갖고 있는 홍채의 표현을 포함하도록 눈의 영상을 찍기 위해서 배치되어 있는 하나 이상의 카메라와;One or more cameras arranged to take images of the eye such that the images contain representations of the iris with sufficient resolution to be used for iris identification and identification; 홍채를 비추기 위해서 배치되어 있고, 선택적으로 밝혀질 수 있고 동시에 밝혀질 수 있는 복수개의 발광소자로 구성되어 있는 하나 이상의 조명기;One or more illuminators arranged for illuminating the iris and composed of a plurality of light emitting elements that can be selectively and simultaneously revealed; 를 구비하고 있는 홍채영상 포착장치.Iris image capture device having a. 제1항에 있어서, 홍채를 비추기 위해 배치되어 있는 제2조명기를 구비하고 있고, 제2조명기는 제1조명기와 떨어져서 배치되어 있는 것을 특징으로 하는 홍채영상 포착장치.The iris image capture device according to claim 1, further comprising a second illuminator arranged to illuminate the iris, wherein the second illuminator is arranged apart from the first illuminator. 제2항에 있어서, 제2조명기는 선택적으로 밝혀질 수 있는 복수개의 발광소자로 구성되어 있는 것을 특징으로 하는 홍채영상 포착장치.The iris image capture device according to claim 2, wherein the second illuminator is composed of a plurality of light emitting elements that can be selectively identified. 제1항에 있어서, 빛이 홍채로부터 반사되어 카메라 중심선을 따라서 하나 이상의 카메라에 도달하고, 그 빛이 하나 이상의 조명기로부터 카메라 중심선을 교차하는 경로를 따라서 나아가는 것을 특징으로 하는 홍채영상 포착장치.The iris image capture device according to claim 1, wherein light is reflected from the iris to reach one or more cameras along the camera center line, and the light travels along a path crossing the camera center line from the one or more illuminators. 제1항에 있어서, 하나 이상의 조명기는 베이스위에 배치되어 있는 하나 이상의 발광 다이오드의 배열로 구성되어 있는 것을 특징으로 하는 홍채영상 포착장치.The iris image capture device according to claim 1, wherein the one or more illuminators comprise an array of one or more light emitting diodes disposed on the base. 제5항에 있어서, 발광 다이오드의 배열은,The method of claim 5, wherein the array of light emitting diodes, 제1경로를 따라서 빛을 방사하는 방식으로 베이스에 부착되는 발광 다이오드의 제1세트와;A first set of light emitting diodes attached to the base in a manner that emits light along the first path; 제1경로와 병렬이 아닌 제2경로를 따라서 빛을 방사하는 방식으로 베이스에 부착되는 발광다이오드의 제2세트;A second set of light emitting diodes attached to the base in a manner that emits light along a second path that is not in parallel with the first path; 를 포함하는 것을 특징으로 하는 홍채영상 포착장치.Iris image capture device comprising a. 제5항에 있어서, 발광 다이오드의 제1세트와 발광 다이오드의 제2세트는 선택적으로 밝혀질 수 있는 것을 특징으로 하는 홍채영상 포착장치.6. An iris image capture device according to claim 5, wherein the first set of light emitting diodes and the second set of light emitting diodes can be selectively identified. 제5항에 있어서, 홍채영상 포착장치는 배열 브래킷을 포함하고 있고, 하나 이상의 발광 다이오드의 배열의 베이스가 배열 중심에 대하여 회전하기 위해서 배열 브래킷에 추축으로 부착되어 있는 것을 특징으로 하는 홍채영상 포착장치.6. An iris image capture device according to claim 5, wherein the iris image capture device comprises an array bracket, and wherein the base of the array of one or more light emitting diodes is pivotally attached to the array bracket to rotate about the center of the array. . 제8항에 있어서, 홍채영상 포착장치는 제2브래킷을 포함하고 있고, 배열 중심에 수직인 라인을 따라서 배열을 이동할 수 있도록 하기 위해서 배열 브래킷이 제2브래킷에 부착되어 있는 것을 특징으로 하는 홍채영상 포착장치.9. The iris image according to claim 8, wherein the iris image capturing apparatus includes a second bracket, and an array bracket is attached to the second bracket so as to move the array along a line perpendicular to the center of the array. Capture device. 제5항에 있어서, 발광 다이오드의 적어도 어떤 것은 다른 발광 다이오드로부터 방사되는 빛파장과는 다른 파장의 광선을 방사하는 것을 특징으로 하는 홍채영상 포착장치.6. The iris image capture device according to claim 5, wherein at least some of the light emitting diodes emit light having a wavelength different from that of light emitted from other light emitting diodes. 제1항에 있어서, 하나 이상의 조명기가 적외선, 가시광선, 적외선 부근의 광선, 광선 주파수의 선택된 대역 중 하나 이상을 방사할 수 있고, 가시광선과 적외선 모두를 방사할 수 있는 것을 특징으로 하는 홍채영상 포착장치.The iris image capture of claim 1, wherein the one or more illuminators can emit one or more of infrared, visible light, near-infrared light, selected bands of light frequencies, and can emit both visible and infrared light. Device. 제1항에 있어서, 하나 이상의 조명기가 변화하는 강도의 빛을 방사하는 것을 특징으로 하는 홍채영상 포착장치.The iris image capture device according to claim 1, wherein at least one illuminator emits light of varying intensity. 제12항에 있어서, 변화하는 강도의 빛을 방사하는 하나 이상의 조명기에 연결되어 있는 전원 소스와, 전원 출력을 하나 이상의 조명기로 전환시키기 위해서 전원 소스에 연결되어 있는 제어기를 포함하고 있고, 이것에 의해서 그 조명기에 의해서 방사되는 빛의 강도를 변화시키는 것을 특징으로 하는 홍채영상 포착장치.13. The apparatus of claim 12, comprising a power source connected to one or more fixtures that emit light of varying intensity, and a controller connected to the power source to convert the power output to the one or more fixtures. An iris image capture device, characterized by varying the intensity of light emitted by the illuminator. 제1항에 있어서, 하나 이상의 조명기는 빛의 다른 파장들을 방사하는 것을 특징으로 하는 홍채영상 포착장치.The iris image capture device of claim 1, wherein the one or more illuminators emit different wavelengths of light. 제2항에 있어서, 홍채영상 포착장치는 하나 이상의 조명기와 제2조명기에 연결되어 있는 제어기를 포함하고, 그 제어기는 동적으로 미리 결정된 패턴에 따라서 조명기들을 선택적으로 밝히는 프로그램을 포함하는 것을 특징으로 하는 홍채영상 포착장치.3. An iris image capture device according to claim 2, characterized in that the iris image capture device comprises a controller coupled to at least one illuminator and a second illuminator, the controller comprising a program for selectively illuminating the illuminators according to a dynamically predetermined pattern. Iris image capture device. 제1항에 있어서, 눈을 포함하는 영상을 찍기 위해서 배치되어 있는 광시야 카메라를 포함하는 것을 특징으로 하는 홍채영상 포착장치.The iris image capture device according to claim 1, further comprising a wide field of view camera arranged to take an image including an eye. 제16항에 있어서, 광시야 조명기를 포함하는 것을 특징으로 하는 홍채영상 포착장치.The iris image capture device according to claim 16, comprising a wide field illuminator. 제17항에 있어서, 광시야 조명기는 광시야 카메라 주위에 배열되어 있는 발광 소자들의 링으로 구성되어 있는 것을 특징으로 하는 홍채영상 포착장치.18. The iris image capture device according to claim 17, wherein the wide field illuminator is composed of a ring of light emitting elements arranged around the wide field camera. 제17항에 있어서, 조명기로부터의 빛이 카메라로 직접 들어오는 오는 것을 막기 위해서 광시야 카메라를 둘러싸고 있는 후드를 포함하는 것을 특징으로 하는 홍채영상 포착장치.18. The iris image capture device according to claim 17, comprising a hood surrounding a wide field of view camera to prevent light from the illuminator coming directly into the camera. 제1항에 있어서, 하나 이상의 조명기에 연결되어 있는 전원 소스와, 전원 공급에 연결되어 있으며 선택된 시간주기 후에 전원 소스를 끄는 타이머를 포함하는 것을 특징으로 하는 홍채영상 포착장치.The iris image capture device according to claim 1, further comprising a power source connected to at least one illuminator and a timer connected to the power supply and turning off the power source after a selected time period. 제1항에 있어서, 조변조도 센서와, 그 주변조도 센서와 하나 이상의 조명기에 연결되어 있는 제어기를 포함하고 있고, 그 제어기는 주변조도가 미리 결정된 레벨에 있을 때 조명기들을 끄는 프로그램을 포함하는 것을 특징으로 하는 홍채영상 포착장치.10. The apparatus of claim 1, comprising a roughness sensor and a controller coupled to the ambient light sensor and one or more illuminators, the controller comprising a program to turn off the fixtures when the ambient light is at a predetermined level. Iris image capture device characterized in that. 제1항에 있어서, 하나 이상의 조명기에 연결되어 있는 모터를 포함하는 것을 특징으로 하는 홍채영상 포착장치.The iris image capturing apparatus of claim 1, further comprising a motor connected to one or more illuminators. 제1항에 있어서, 홍채로부터 반사된 빛을 수신하고 하나 이상의 카메라에 빛을 보내는 광학 시스템을 포함하는 것을 특징으로 하는 홍채영상 포착장치.The iris image capture device according to claim 1, comprising an optical system for receiving the light reflected from the iris and sending the light to one or more cameras. 제1항에 있어서, 하나 이상의 카메라는 움직일 수 있는 것을 특징으로 하는 홍채영상 포착장치.The iris image capture device of claim 1, wherein the one or more cameras are movable. 홍채영상 포착방법에 있어서,In the iris image capture method, 비춰진 홍채를 포함하는 눈의 3차원 좌표위치를 위치시키는 단계와;Positioning a three-dimensional coordinate position of the eye including the illuminated iris; 홍채로부터 반사된 어떤 빛이 카메라에 반사될 수 있도록 카메라를 위치시키는 단계와;Positioning the camera such that any light reflected from the iris can be reflected to the camera; 빛이 카메라 중심을 따라서 홍채로부터 카메라에 반사되도록 하고, 빛이 카메라 중심과 교차하는 하나 이상의 경로를 따라서 하나 이상의 조명기로부터 나아가도록 하기 위해서, 선택적으로 밝혀질 수 있는 복수개의 발광 소자들로 구성되어 있는 하나 이상의 조명기로 눈을 비추는 단계와;It consists of a plurality of light emitting elements that can be selectively revealed so that light is reflected from the iris along the camera center to the camera and the light travels from one or more illuminators along one or more paths intersecting the camera center. Illuminating the eye with one or more illuminators; 조명이 홍채 확인과 신분증명에 사용되는 동안, 카메라로 충분한 해상도를 갖고 있는 하나 이상의 홍채영상을 생성하는 단계;Generating at least one iris image having sufficient resolution with the camera while the illumination is used for identification and identification; 를 포함하는 것을 특징으로 하는 홍채영상 포착방법.Iris image capturing method comprising a. 제25항에 있어서, 하나 이상의 조명기는 연속적으로 밝혀지는 제1조명기와 제2조명기로 구성되어 있고, 연속적인 조명이 홍채속의 특징을 확인하여 식별하는 동안, 카메라는 충분한 해상도의 영상을 생성하기 위해서 사용되는 제1영상과 제2영상을 생성하는 것을 특징으로 하는 홍채영상 포착방법.27. The apparatus of claim 25, wherein the one or more illuminators are comprised of first and second illuminators that are illuminated in series, while the continuous illumination is to identify and identify features of the iris bundle, while the camera is configured to produce images of sufficient resolution. An iris image capturing method comprising generating a first image and a second image to be used. 제25항에 있어서, 하나 이상의 조명기는, 선택적으로 밝혀질 수 있고 연속적으로 밝혀질 수 있는 복수개의 발광 소자들을 포함하고 있는 두개의 세트들로 구성되어 있는 것을 특징으로 하는 홍채영상 포착방법.26. The method of claim 25, wherein the one or more illuminators are comprised of two sets comprising a plurality of light emitting elements that can be selectively revealed and subsequently illuminated. 제25항에 있어서, 하나 이상의 조명기는 적외선, 가시광선, 적외선 부근의 광선, 광선 주파수들의 하나의 선택 대역 중 적어도 하나를 방사할 수 있고,가시광선과 적외선 모두를 방사할 수 있는 것을 특징으로 하는 홍채영상 포착방법.27. The iris of claim 25, wherein the one or more illuminators can emit at least one of one selected band of infrared light, visible light, light in the vicinity of the infrared light, and light frequencies, and can emit both visible light and infrared light. How to capture images. 제25항에 있어서, 영상은 복수개의 픽셀들로 구성되어 있고, 홍채를 포함하고 있는 영상의 그 부분은 200픽셀 이상으로 구성되어 있는 것을 특징으로 하는 홍채영상 포착방법.An iris image capturing method according to claim 25, wherein the image is composed of a plurality of pixels, and a part of the image including the iris is composed of 200 pixels or more. 제25항에 있어서, 눈의 3차원 좌표는,The method of claim 25, wherein the three-dimensional coordinates of the eye, a. 눈이 위치하고 있다고 여겨지는 영역의 제1영상을 생성하기 위해 광시야 카메라를 사용함으로써 정해질 수 있고;a. Can be determined by using a wide field camera to generate a first image of the area where the eye is believed to be located; b. 눈이 위치하고 있다고 여겨지는 영역의 제2영상을 생성하기 위해 제1광시야 카메라로부터 일정한 간격 떨어져 있는 제2광시야 카메라를 사용함으로써 정해질 수 있고;b. Can be determined by using a second wide field camera that is spaced from the first wide field camera to produce a second image of the area where the eye is believed to be located; c. 그 눈의 3차원 좌표 위치를 정하기 위해서 제1영상과 제2영상을 합성함으로써 정해질 수 있는 것을 특징으로 하는 홍채영상 포착방법.c. An iris image capturing method, which can be determined by synthesizing a first image and a second image to determine a three-dimensional coordinate position of the eye. 제30항에 있어서, 영상들은 입체그래픽 영상분석을 사용하여 합성되는 것을 특징으로 하는 홍채영상 포착방법.31. The method of claim 30, wherein the images are synthesized using stereographic image analysis. 제30항에 있어서, 거의 중심 조명을 사용하여 영역을 밝히는 단계를 포함하는 것을 특징으로 하는 홍채영상 포착방법.31. The method of claim 30, comprising illuminating the area using near center illumination. 제25항에 있어서, 카메라가 팬/틸트 반사경을 포함하고 있는 광학 서브시스템내에 배치되어 있어서 반사광선은 팬/틸트 반사경으로부터 카메라에 보내지도록 되어 있고, 홍채로부터 반사된 빛을 카메라에 보내기위해서 눈의 3차원 좌표위치를 향해서 팬/틸트 반사경을 조정하는 단계를 포함하고 있는 것을 특징으로 하는 홍채영상 포착방법.27. The system of claim 25, wherein the camera is disposed within an optical subsystem that includes a pan / tilt reflector such that the reflected light is directed to the camera from the pan / tilt reflector and that the light reflected from the iris is sent to the camera. And adjusting the pan / tilt reflector toward the three-dimensional coordinate position. 제25항에 있어서, 카메라에는 짐벌이 설치되어 있고, 홍채로부터 반사된 빛을 카메라에 보내기 위해서 눈의 3차원좌표를 향하여 카메라를 조정하는 단계를 포함하는 것을 특징으로 하는 홍채영상 포착방법.27. The method of claim 25, wherein the camera is provided with a gimbal, comprising adjusting the camera toward three-dimensional coordinates of the eye to send light reflected from the iris to the camera.
KR1019997001528A 1996-08-25 1997-08-22 Apparatus and method for acquiring iris images KR100342159B1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US70292396A 1996-08-25 1996-08-25
US8/702,923 1996-08-25
US08/702,923 1996-08-26

Publications (2)

Publication Number Publication Date
KR20000035840A true KR20000035840A (en) 2000-06-26
KR100342159B1 KR100342159B1 (en) 2002-06-27

Family

ID=24823180

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019997001528A KR100342159B1 (en) 1996-08-25 1997-08-22 Apparatus and method for acquiring iris images

Country Status (6)

Country Link
EP (1) EP0959769A1 (en)
JP (2) JP2002514098A (en)
KR (1) KR100342159B1 (en)
AU (1) AU727389B2 (en)
CA (1) CA2264029A1 (en)
WO (1) WO1998008439A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100434370B1 (en) * 2001-05-12 2004-06-04 엘지전자 주식회사 Focusing distance measurement in iris recognition system
KR100447403B1 (en) * 2001-05-12 2004-09-04 엘지전자 주식회사 Focusing angle and distance display in iris recognition system
KR100924271B1 (en) * 2002-05-20 2009-11-03 신성복 Identification system and method using a iris, and media that can record computer program sources thereof
KR100954640B1 (en) * 2002-02-05 2010-04-27 파나소닉 주식회사 Personal authentication method and device
WO2019009534A1 (en) * 2017-07-04 2019-01-10 Samsung Electronics Co., Ltd. Imaging sensor assembly having tilting structure and electronic device including the same

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6532298B1 (en) 1998-11-25 2003-03-11 Iridian Technologies, Inc. Portable authentication device and method using iris patterns
US6377699B1 (en) 1998-11-25 2002-04-23 Iridian Technologies, Inc. Iris imaging telephone security module and method
US6289113B1 (en) 1998-11-25 2001-09-11 Iridian Technologies, Inc. Handheld iris imaging apparatus and method
GB9907515D0 (en) 1999-04-01 1999-05-26 Ncr Int Inc Self service terminal
IL152756A0 (en) 2000-05-16 2003-06-24 Swisscom Mobile Ag Biometric identification and authentication method
KR100374708B1 (en) * 2001-03-06 2003-03-04 에버미디어 주식회사 Non-contact type human iris recognition method by correction of rotated iris image
JP2002341406A (en) * 2001-05-11 2002-11-27 Matsushita Electric Ind Co Ltd Method and device for imaging object to be authenticated
DE10225943A1 (en) 2002-06-11 2004-01-08 Basf Ag Process for the preparation of esters of polyalcohols
EP1671258A4 (en) * 2003-09-04 2008-03-19 Sarnoff Corp Method and apparatus for performing iris recognition from an image
FR2864290B1 (en) * 2003-12-18 2006-05-26 Sagem METHOD AND DEVICE FOR RECOGNIZING IRIS
US7899623B2 (en) * 2004-09-22 2011-03-01 Tripath Imaging, Inc. Methods and computer program products for analysis and optimization of marker candidates for cancer prognosis
US7542628B2 (en) 2005-04-11 2009-06-02 Sarnoff Corporation Method and apparatus for providing strobed image capture
US7634114B2 (en) 2006-09-01 2009-12-15 Sarnoff Corporation Method and apparatus for iris biometric systems for use in an entryway
KR100728657B1 (en) 2006-04-27 2007-06-14 서울통신기술 주식회사 Unmanned system and method for controlling entrance and exit using of face recognition with multiple infrared cameras
US20100291091A1 (en) * 2007-07-30 2010-11-18 ONCOTHERAPY SCIENCE ,inc. Cancer associated gene ly6k
WO2009102940A1 (en) 2008-02-14 2009-08-20 The International Performance Registry, Llc System and method for animal identification using iris images
US20100004518A1 (en) 2008-07-03 2010-01-07 Masimo Laboratories, Inc. Heat sink for noninvasive medical sensor
US8630691B2 (en) 2008-08-04 2014-01-14 Cercacor Laboratories, Inc. Multi-stream sensor front ends for noninvasive measurement of blood constituents
US20100232654A1 (en) * 2009-03-11 2010-09-16 Harris Corporation Method for reconstructing iris scans through novel inpainting techniques and mosaicing of partial collections
US8306288B2 (en) 2009-08-19 2012-11-06 Harris Corporation Automatic identification of fingerprint inpainting target areas
JP5691669B2 (en) 2011-03-08 2015-04-01 富士通株式会社 Biological information processing apparatus, biological information processing method, and biological information processing program
JP5751019B2 (en) 2011-05-30 2015-07-22 富士通株式会社 Biological information processing apparatus, biological information processing method, and biological information processing program
GB2495324B (en) 2011-10-07 2018-05-30 Irisguard Inc Security improvements for Iris recognition systems
GB2495323B (en) * 2011-10-07 2018-05-30 Irisguard Inc Improvements for iris recognition systems
JP5915664B2 (en) 2011-12-15 2016-05-11 富士通株式会社 Vein authentication method and vein authentication apparatus
CN104205165B (en) 2012-03-28 2017-06-23 富士通株式会社 Organism authentication apparatus, biometric authentication method and organism authentication program
CN104221052B (en) 2012-03-28 2017-05-10 富士通株式会社 Biometric authentication device, biometric authentication method, and biometric authentication program
JP6075069B2 (en) 2013-01-15 2017-02-08 富士通株式会社 Biological information imaging apparatus, biometric authentication apparatus, and manufacturing method of biometric information imaging apparatus
WO2014205022A1 (en) * 2013-06-18 2014-12-24 Delta ID Inc. Iris imaging apparatus and methods for configuring an iris imaging apparatus
EP3198913A4 (en) 2014-09-24 2018-05-23 Princeton Identity, Inc. Control of wireless communication device capability in a mobile device with a biometric key
SG11201704097XA (en) 2014-12-03 2017-06-29 Princeton Identity Inc System and method for mobile device biometric add-on
JP2019506694A (en) 2016-01-12 2019-03-07 プリンストン・アイデンティティー・インコーポレーテッド Biometric analysis system and method
WO2017173228A1 (en) 2016-03-31 2017-10-05 Princeton Identity, Inc. Biometric enrollment systems and methods
WO2017172695A1 (en) 2016-03-31 2017-10-05 Princeton Identity, Inc. Systems and methods of biometric anaysis with adaptive trigger
CN106407964B (en) * 2016-11-15 2023-11-07 刘霁中 Device, method and terminal equipment for acquiring iris by using visible light source
US10607096B2 (en) 2017-04-04 2020-03-31 Princeton Identity, Inc. Z-dimension user feedback biometric system
KR20180133076A (en) 2017-06-05 2018-12-13 삼성전자주식회사 Image sensor and electronic apparatus including the same
US10902104B2 (en) 2017-07-26 2021-01-26 Princeton Identity, Inc. Biometric security systems and methods
EP3474328B1 (en) 2017-10-20 2021-09-29 Samsung Electronics Co., Ltd. Combination sensors and electronic devices
US11202567B2 (en) * 2018-07-16 2021-12-21 Verily Life Sciences Llc Retinal camera with light baffle and dynamic illuminator for expanding eyebox
CN111126145A (en) * 2018-10-18 2020-05-08 天目爱视(北京)科技有限公司 Iris 3D information acquisition system capable of avoiding light source image influence
US11151399B2 (en) 2019-01-17 2021-10-19 Gentex Corporation Alignment system
DE102019124127A1 (en) * 2019-09-09 2021-03-11 Bundesdruckerei Gmbh DEVICE AND METHOD FOR DETERMINING BIOMETRIC CHARACTERISTICS OF A FACE OF A PERSON
US20230367857A1 (en) * 2020-09-25 2023-11-16 Apple Inc. Pose optimization in biometric authentication systems
EP4141820A1 (en) * 2021-08-25 2023-03-01 Tools for Humanity Corporation Controlling a two-dimensional mirror gimbal for purposes of iris scanning
WO2023032051A1 (en) 2021-08-31 2023-03-09 日本電気株式会社 Illumination control device, illumination control method, recording medium, and imaging system
WO2023063861A1 (en) * 2021-10-13 2023-04-20 Fingerprint Cards Anacatum Ip Ab A method and a system configured to reduce impact of impairment data in captured iris images
US20230300470A1 (en) * 2022-02-03 2023-09-21 Facebook Technologies, Llc Techniques for producing glints and iris illumination for eye tracking

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4641349A (en) 1985-02-20 1987-02-03 Leonard Flom Iris recognition system
EP0240336B1 (en) * 1986-04-04 1992-03-11 Applied Science Group Inc. Method and system for generating a description of the distribution of looking time as people watch television commercials
IT1226526B (en) * 1988-08-05 1991-01-24 Mario Angi PARTICULARMEWN INFRARED LIGHT VIDEOFRACTOMETER FOR APPLICATIONS IN PEDIATRIC OPHTHALMOLOGY
US5291560A (en) 1991-07-15 1994-03-01 Iri Scan Incorporated Biometric personal identification system based on iris analysis
US5572596A (en) * 1994-09-02 1996-11-05 David Sarnoff Research Center, Inc. Automated, non-invasive iris recognition system and method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100434370B1 (en) * 2001-05-12 2004-06-04 엘지전자 주식회사 Focusing distance measurement in iris recognition system
KR100447403B1 (en) * 2001-05-12 2004-09-04 엘지전자 주식회사 Focusing angle and distance display in iris recognition system
KR100954640B1 (en) * 2002-02-05 2010-04-27 파나소닉 주식회사 Personal authentication method and device
KR100924271B1 (en) * 2002-05-20 2009-11-03 신성복 Identification system and method using a iris, and media that can record computer program sources thereof
WO2019009534A1 (en) * 2017-07-04 2019-01-10 Samsung Electronics Co., Ltd. Imaging sensor assembly having tilting structure and electronic device including the same
US10726258B2 (en) 2017-07-04 2020-07-28 Samsung Electronics Co., Ltd Imaging sensor assembly having tilting structure and electronic device including the same

Also Published As

Publication number Publication date
AU727389B2 (en) 2000-12-14
JP2004073880A (en) 2004-03-11
EP0959769A1 (en) 1999-12-01
WO1998008439A1 (en) 1998-03-05
AU4328297A (en) 1998-03-19
JP2002514098A (en) 2002-05-14
KR100342159B1 (en) 2002-06-27
CA2264029A1 (en) 1998-03-05

Similar Documents

Publication Publication Date Title
KR100342159B1 (en) Apparatus and method for acquiring iris images
US8170293B2 (en) Multimodal ocular biometric system and methods
US6299306B1 (en) Method and apparatus for positioning subjects using a holographic optical element
US6320610B1 (en) Compact imaging device incorporating rotatably mounted cameras
US8014571B2 (en) Multimodal ocular biometric system
JP5297486B2 (en) Device for detecting and tracking the eye and its gaze direction
US8077914B1 (en) Optical tracking apparatus using six degrees of freedom
EP1349487B1 (en) Image capturing device with reflex reduction
US6394602B1 (en) Eye tracking system
JP6159263B2 (en) Optical measurement apparatus and method for adjusting illumination characteristics and capturing at least one parameter in at least one eye
US5717512A (en) Compact image steering and focusing device
EP0350957B1 (en) Image pickup apparatus
JP4347599B2 (en) Personal authentication device
US20110170060A1 (en) Gaze Tracking Using Polarized Light
JP2007527270A (en) Biological face recognition system
JP2008104628A (en) Conjunctiva and sclera imaging apparatus
US20220148218A1 (en) System and method for eye tracking
JP6957048B2 (en) Eye image processing device
US20040120553A1 (en) Device for contactless optical acquisition of biometric characteristics of at least one body part
US11882354B2 (en) System for acquisiting iris image for enlarging iris acquisition range
JP2006318374A (en) Glasses determination device, authentication device, and glasses determination method
JP7228885B2 (en) Pupil detector
RU97839U1 (en) DEVICE FOR PREPARING IMAGES OF IRIS OF THE EYES
JP3342810B2 (en) Iris image acquisition device
WO2011136686A1 (en) Device for producing images of irises of the eyes

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130522

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20140521

Year of fee payment: 13

FPAY Annual fee payment

Payment date: 20150519

Year of fee payment: 14

FPAY Annual fee payment

Payment date: 20160517

Year of fee payment: 15

FPAY Annual fee payment

Payment date: 20170522

Year of fee payment: 16

EXPY Expiration of term