KR20130058665A - 공간적으로 제어된 장면 조명을 위한 시스템 및 방법 - Google Patents

공간적으로 제어된 장면 조명을 위한 시스템 및 방법 Download PDF

Info

Publication number
KR20130058665A
KR20130058665A KR1020127025691A KR20127025691A KR20130058665A KR 20130058665 A KR20130058665 A KR 20130058665A KR 1020127025691 A KR1020127025691 A KR 1020127025691A KR 20127025691 A KR20127025691 A KR 20127025691A KR 20130058665 A KR20130058665 A KR 20130058665A
Authority
KR
South Korea
Prior art keywords
camera
light sources
brightness
view
field
Prior art date
Application number
KR1020127025691A
Other languages
English (en)
Other versions
KR101829850B1 (ko
Inventor
넬슨 지. 퍼블리커버
제이슨 헤퍼넌
Original Assignee
아이-콤 코퍼레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아이-콤 코퍼레이션 filed Critical 아이-콤 코퍼레이션
Publication of KR20130058665A publication Critical patent/KR20130058665A/ko
Application granted granted Critical
Publication of KR101829850B1 publication Critical patent/KR101829850B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C11/00Non-optical adjuncts; Attachment thereof
    • G02C11/10Electronic devices other than hearing aids
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source

Abstract

기계 시각 애플리케이션(machine vision application)을 위한 공간적으로 균일한 또는 제어된 밝기 수준들(brightness levels)을 생성하는, 장면 조명 시스템(scene illumination system)이 제공된다. 이 시스템은, 카메라, 카메라의 시야 내에 있는 상이한 영역들을 우선적으로 조명하는 다수의 광원, 및 카메라와 광원들에 연결된 처리 유닛을 포함한다. 카메라의 시야 내에 있는 광원들의 초점 영역들은 평균 지역적 밝기(average regional brightness)를 결정하기 위해 샘플링되고 목표 밝기 수준들과 비교된다. 처리 유닛은, 시야 내에 있는 목표 밝기 수준들 쪽으로 모으기 위해 조명 수준들을 증가 또는 감소시키도록 광원들을 제어한다. 목표 밝기 수준들이 달성될 때까지, 광원들의 변조는 연속적인 비디오 이미지들과 함께 반복될 수 있다. 달성되면, 반복하는 피드백 제어는 일부 애플리케이션에 대해 고정될 수 있고, 다른 것들에 대해서는, 조명 조건들에서 상이한 장면들이나 변화들을 설명하기 위해 주기적으로 또는 연속적으로 계속될 수 있다.

Description

공간적으로 제어된 장면 조명을 위한 시스템 및 방법{SYSTEMS AND METHODS FOR SPATIALLY CONTROLLED SCENE ILLUMINATION}
미국 정부는, 본 발명에 대한 지불완료 실시권(paid-up license), 및 보건 사회 복지부, 공중 위생국, 질병 대책 센터(CDC)에 의해 수여된 승인 번호 1 R43 CE 00151-01과, 국방부(미 육군) 계약 번호 W81XWH-05-C-0045와, 미국 국방부 의회 연구 계획 번호 W81XWH-06-2-0037과, 미국 운수부 의회 연구 계획 합의 체결 번호 DTNH 22-05-H-01424의 조건들(terms)에 의해 정해진 바와 같은 타당한 조건들에서, 다른 사람들에게 허가하도록(license) 특허 소유자에게 요구하는, 제한된 상황에서의 권리를 가질 수 있다.
본 발명은 대상들(objects)의 조명을 제어하기 위한 장치들 및 방법들에 관한 것으로, 특히, 예컨대, 기계 시각(machine vision)을 위해, 다수의 조명원을 조정함으로써, 대상들, 예를 들어, 개개인의 눈 또는 얼굴의 비디오 카메라 이미지들 내에서, 공간적으로 제어된 밝기, 예컨대, 실질적으로 균일한(uniform) 또는 일정치 않은(varying) 밝기를 생성하기 위한 장치들 및 방법들에 관한 것이다.
본 발명은, 특히, 카메라의 시야(field-of-view) 내에 있는 표면들과 대상들이 반사율이 다를 때, 기계 시각 애플리케이션들을 위한 조명 체계들(illumination schemes)에 관한 것이다. 종래의 조명(lighting) 체계들은 종종 단일 2차원 평면을 넘는 대상들 또는 곡선 표면들을 포함하는 장면들(scenes) 내에 그림자들 및/또는 반짝임들(즉, 핫-스폿들)을 생성한다. 이러한 문제들은, 조명이 제한된 수의 소스로 국한되어야 할 때 및/또는 광원들이 조명되고 있는 장면 가까이에 위치해야만 할 때 악화된다.
기계 시각을 수반하는 출원들이 점점 아주 흔해지고 있다. 이는, 어느 정도는, 전자 제품과 소프트웨어 개발 산업에서의 기술적 진보, 그리고 카메라 및 정보 처리 유닛의 비용의 감소의 결과로 생겨났다. 기계 시각 애플리케이션들의 범위로부터의 적은 수의 예들은: 대상 식별, 거리 측정, 식품 검사, 조립 라인에서의 품질 관리, 바코드 판독, 대상 카운팅, 안전 감시, 및 생체 인식을 포함한다. 기계 시각을 활용하는 분야들 및 산업들은 군사, 의료, 보안, 반도체 제작, 제조, 로봇 및 장난감을 포함한다.
이미지 내에 있는 영역들이 부적절한 조명을 갖는 경우, 거의 모든 이미지 처리 기술들 및 알고리즘들이 영향을 받는다. 조도(illumination levels)가 너무 낮은 경우, 결과적으로, 대상들의 경계들 또는 반사율에 있어서의 지역적 변화들을 구분하기에는, 밝기 강도들에 있어서 변화가 충분하지 않다. 감소된 신호 또는 광의 세기는 또한 이미지들 내에서 검출기 잡음의 우세를 초래할 수 있다. 낮은 신호 대 잡음비는, 일반적으로, "선명하지 못하게(grainy)" 나타나고 처리하기 어려운 이미지들을 초래한다.
반대로, 조도가 너무 높은 경우, 카메라 또는 검출기 내의 픽셀들은 포화된다. 다시 한번, 완전히 포화된 픽셀들은, 이미지 처리 알고리즘들이 에지들 또는 경계들을 구분하기 위한 밝기 수준들에 있어서의 변화들에 관한 어떠한 정보도 제공하지 않는다. 일부 유형의 비디오 카메라들에서, 포화된 픽셀들은 또한 인근 픽셀들의 명백한 밝기를 상승시키기 위해 "블리드 오버(bleed over)"할 수 있다.
대부분의 경우에, 너무 적거나 너무 많은 광자(photons)를 갖는 이미지들의 영역들에서는 정보 내용이 손실된다. 아무리 많은 이미지 처리로도 누락된 정보를 검색할 수 없다. 이러한 경우에, 신뢰할 수 있는 기계 시각 애플리케이션들을 생성하기 위해, 비디오 이미지들의 모든 공간적 영역들에서의 조명은 개선되어야 한다.
예를 들어, 대상 크기의 정확한 측정은, 컬러 또는 휘도에 있어서 날카로운 그래디언트(sharp gradients)가 존재하는 영역들로서 에지들이 식별되는 대상 에지들의 검출을 수반한다. 대상의 에지의 카메라의 뷰가 그림자에 의해 왜곡되는 경우, 에지-검출 알고리즘의 신뢰도 및 정확도가 저하된다.
대상 식별을 포함하는 기계 시각 애플리케이션들은 특히 조명 조건들에 민감하다. 어두운 코너들, 조명으로 인한 컬러 변화들, 표면 조명의 상이한 각도들이 원인이 되는 휘도 변화들, 그림자들, 및 핫-스폿들은 조명 조건들로 인해 대상을 인식할 수 없게 한다.
대상들의 조명이 제어되는 것은, 조명원들이, 조명되고 있는 대상들 가까이에 있도록 국한될 때 특히 어렵다. 이러한 국한은, 예를 들어, 장치를 소형으로 만들고 및/또는 조명을 카메라의 시야로만 국한시킴으로써 전력 소비를 줄이기 위한 요구(desire) 인한 것일 수 있다. 안경에 장착된 장치 또는 머리에 장착된 디바이스를 사용하여 눈에 조명하는 것이 그러한 경우이다. 이러한 유형들의 시스템들 또는 장치들의 예들은, 눈 움직임들을 모니터링함으로써 용이하게 되는 바이오 센서, 통신, 및 컨트롤러 애플리케이션들을 개시하는, 윌리엄 씨. 토치(William C. Torch)에 의한, 미국 특허 7,515,054 B2에서 발견될 수 있다.
본 발명은 대상들의 조명을 제어하기 위한 장치들 및 방법들에 관한 것이다. 특히, 본 발명은, 예컨대, 기계 시각을 위해, 다수의 조명원을 조정함으로써, 대상들, 예를 들어, 개개인의 눈 또는 얼굴의 비디오 카메라 이미지들 내에서, 공간적으로 제어된 밝기, 예컨대, 실질적으로 균일한 밝기를 생성하기 위한 장치들 및 방법들에 관한 것이다.
전술한 배경기술에 비추어, 본원의 장치들, 시스템들 및 방법들은 기계 시각 애플리케이션들을 위한 개선된 조명 방법 및 시스템을 제공할 수 있다. 방법은 일반적으로 카메라의 시야각과는 별개의 각도들에서 장면의 상이한 영역을 조명하는 2개 이상의 전자기 방사선원들을 포함한다. 이러한 조명원들은 각각 하나 이상의 조명 디바이스들, 이를테면, 백열 전구들, 아크등들, 또는 발광-다이오드들(LEDs)을 포함할 수 있다. 카메라는, 캡처된 이미지들에 기초하여 조명원들을 개별적으로 제어하기 위해 피드백 신호들을 생성하는 처리 시스템 및 프레임 그래버(frame grabber)의 구성요소일 수 있다. 목표 밝기 수준들은 일정할 수 있고 또는 공간(예를 들어, 장면에 걸친 밝기에 있어서의 그래디언트(gradient)를 생성하기 위해) 및/또는 시간(예를 들어, 한 장면이 상이한 파장들을 갖는 소스들에 의해 번갈아 조명될 때)의 함수로서 변할 수 있다. 제어된 및/또는 균일한 조명은, 위치 측정들 및 대상 식별을 수반하는 기계 시각 애플리케이션들이, 보다 간단하고, 신속하고, 믿을 수 있게 수행되도록 허용할 수 있다.
하나의 실시예에 따르면, 특히, 장면 내의 반사율에 있어서 공간적 차이들(variations)이 존재할 때, 실질적으로 공간적으로 균일한 및/또는 제어된 장면 밝기를 갖는 카메라 이미지들을 생성하는 시스템들 및 방법들이 제공된다.
또 다른 실시예에 따르면, 곡선 및/또는 카메라의 이미지 평면과 동일 평면상에 있지 않은 표면들로부터의 제어된 또는 실질적으로 균일한 밝기를 갖는 이미지들을 생성하는 시스템들 및 방법들이 제공된다.
예를 들어, 시스템들 및 방법들은 카메라의 시선(line-of-sight)에 대해 충분히 떨어져서 배치되는 하나 이상의 조명원들을 사용할 수 있다. 예각(acute angle)으로부터의 조명은 표면 균열들 또는 눌림자국들(indentations)과 같은 미세한 구조들을 드러내도록 도울 수 있다.
또 다른 실시예에 따르면, 표면을 넘는 3차원 구조들에 의해 생성된 그림자들의 영향을 줄일 수 있는 시스템들 및 방법들이 제공된다. 예를 들어, 그림자들의 영향은, 콘트라스트 각들(contrasting angles)로부터 장면을 조명하는 다수의 전자기 방사선원을 사용함으로써 감소될 수 있다.
또 다른 실시예에 따르면, 포인트 조명원들의 결과로 생기는 소위, "반짝임" 또는 밝은 스폿들의 영향을 줄이거나 피할 수 있는 시스템들 및 방법들이 제공된다. 반짝임의 영향은, 카메라의 시점에서 충분히 떨어진 각도들에 있는 소스들을 사용하여 장면으로의 광을 조종함으로써 피할 수 있다.
또 다른 실시예에 따르면, 사람의 머리에 착용되도록 구성된 디바이스; 디바이스 상에 장착되고 디바이스를 착용하는 사람의 제1 눈을 보도록 배치되는 카메라; 및 제1 눈 주위 및 카메라의 시야 내에 있는 사람의 얼굴의 각각의 초점 영역들을 우선적으로 조명하는, 디바이스 상의 복수의 광원을 포함하는, 사람의 눈을 모니터링하기 위한 시스템이 제공된다. 대안적인 실시예에서, 카메라 및/또는 광원들은 사람으로부터 멀리 떨어져서, 예컨대, 차량의 계기판 또는 다른 내부 구조에 장착될 수 있다.
컨트롤러가 카메라 및 광원들에 연결될 수 있고, 이 컨트롤러는, 카메라를 사용하여 광원들의 각각의 초점 영역들에서 밝기를 샘플링하고, 각각의 초점 영역들 내에 원하는 밝기 수준들을 제공하기 위해 샘플링된 밝기에 기초하여 광원들을 변조(modulate)하도록 구성된다. 예를 들어, 컨트롤러는, 제1 광원에 의해 조명되는 카메라의 시야 내에 있는 제1 초점 영역에 대응하는 카메라의 다수의 픽셀로부터의 밝기를 샘플링하도록 구성될 수 있고, 컨트롤러는 제1 광원에 의해 제공된 평균 밝기를 결정하기 위해 샘플링된 밝기를 조합하고, 컨트롤러는 제1 초점 영역 내에 원하는 밝기 수준을 제공하기 위해 제1 광원을 변조한다. 마찬가지로, 컨트롤러는, 제2 또는 추가적인 각각의 광원에 의해 조명되는 제2 또는 추가적인 초점 영역들로부터의 밝기를 샘플링하고, 대응하는 초점 영역들 내에 원하는 밝기 수준들을 제공하기 위해 광원들을 변조하도록 구성될 수 있다.
하나의 실시예에서, 컨트롤러는 각각의 초점 영역들에 원하는 밝기 수준들을 제공하기 위해 광원으로의 전류 및 전압 중 적어도 하나의 진폭을 변조하도록 구성될 수 있다. 추가로 또는 대안적으로, 컨트롤러는 원하는 밝기 수준들을 제공하기 위해 광원들로의 전류 및 전압 중 적어도 하나의 펄스-폭들을 변조하도록 구성될 수 있다.
선택적으로, 처리 유닛은, 예컨대, 제1 눈의 이미지들을 모니터 및/또는 분석하기 위해, 제1 눈의 이미지들을 수신하기 위해 카메라에 연결될 수 있다. 처리 유닛은 컨트롤러를 포함할 수 있고 또는 하나 이상의 별도의 프로세서일 수 있다.
또 다른 실시예에 따르면, 시야의 2개 이상의 공간 영역에서 장면 밝기를 측정하는 카메라; 카메라의 시야 내에서 대응하는 영역들을 우선적으로 조명하는 광원들; 및 카메라의 시야의 각각의 영역 내에서 평균 밝기를 산출하고, 시야 내에 원하는 밝기 수준들을 제공하기 위해 하나 이상의 목표 밝기 수준들로 대응하는 광원들을 변조하는 프로세서를 포함하여, 공간적으로 제어된 조명을 생성하기 위한 피드백 제어된 시스템이 제공된다.
하나의 실시예에서, 시스템은 전자 디스플레이를 포함할 수 있고, 카메라 및/또는 광원들은, 카메라 및 광원들이 전자 디스플레이를 보는 사람의 얼굴을 향해 지향되도록 디스플레이에 대해 장착될 수 있다. 또 다른 예에서, 카메라 및/또는 광원들은, 카메라 및/또는 광원들이 차량의 조작자의 얼굴을 향해 지향되도록 차량의 계기판 또는 다른 구조에 장착될 수 있다.
또 다른 예에서, 카메라 및/또는 광원들은, 조립 라인 또는 컨베이어 벨트를 따라 이동하는 대상들의 이미지들을 얻기 위해 조립 라인 또는 컨베이어 벨트에 인접한 구조에 장착될 수 있다. 또 다른 예에서, 카메라 및/또는 광원들은 저장 영역들(storage areas)에 위치한 대상들의 이미지들을 얻기 위해 복수의 저장 영역에 인접한 구조에 장착될 수 있다. 예를 들어, 광원들은, 예컨대, 카메라에 의해 획득된 이미지들에 기초하여 대상들의 식별을 용이하게 하기 위해, 카메라의 시야 내에 있는 각각의 초점 영역들을 우선적으로 조명하기 위해, 조립 라인, 컨베이어 벨트, 또는 저장 영역들에 인접하여 장착된다.
이들 예들 중 임의의 것에서, 광원들은 실질적으로 지속적으로 또는 간헐적으로 작동될 수 있다. 예를 들어, 카메라가 작동하지 않을 때, 광원들은 정지될 수 있다. 예를 들어, 카메라가, 각각의 광원에 의해 우선적으로 조명된 영역들 내에서 밝기를 샘플링하는 것과 별도로 시야의 이미지들을 획득하기 위해 사용되는 경우, 카메라가 이미지들을 획득 및/또는 밝기를 샘플링하기 위해 활성화되는 기간 동안에만 광원들이 활성화될 수 있고, 예컨대, 광원들의 밝기를 제어하기 위해 펄스-폭 변조가 사용되는 경우, 이러한 기간 동안에는 광원들이 간헐적으로 활성화될 수 있다.
또 다른 실시예에 따르면, 사람의 제1 눈의 조명을 제어하기 위한 방법이 제공된다. 카메라는, 사람의 제1 눈이 카메라의 시야 내에 놓이도록 사람의 얼굴을 향해 배치될 수 있고, 사람의 얼굴의 적어도 일부는, 제1 눈 주위 및 카메라의 시야 내에 있는 사람의 얼굴의 각각의 초점 영역들을 우선적으로 조명하는 복수의 광원들로 조명될 수 있다. 밝기는 카메라를 사용하여 광원들의 각각의 초점 영역들에서 샘플링될 수 있고, 광원들은 각각의 초점 영역들 내에 원하는 밝기 수준들을 제공하기 위해 샘플링된 밝기에 적어도 부분적으로 기초하여 변조된다.
또 다른 실시예에 따르면, 기계 시각 애플리케이션들을 위한 공간적으로 균일한 또는 제어된 밝기 수준들을 생성할 수 있는 장면 조명 시스템이 제공된다. 예를 들어, 목표 밝기 수준들은, 예컨대, 실질적으로 균일한 밝기를 생성하기 위해, 카메라의 시야 전체에 걸쳐 실질적으로 동일할 수 있고, 또는, 예컨대, 장면 내에 제어된 밝기 수준들을 생성하기 위해, 위치의 함수로서 변할 수 있다. 추가로 또는 대안적으로, 목표 밝기 수준들은 또한 시간에 따라 변하도록 만들어질 수 있다.
예시적인 실시예에서, 시스템은, 카메라, 카메라의 시야 내에서 상이한 영역들을 우선적으로 조명하는 다수의 광원, 및 카메라와 광원들에 연결된 처리 유닛을 포함한다. 카메라의 시야 내에 있는 광원들의 초점 영역들은 평균 지역적 밝기를 결정하기 위해 샘플링되고 목표 밝기 수준들과 비교될 수 있다. 처리 유닛은 시야 내에서 조명 수준을 목표 밝기 수준들 쪽으로 모으기 위해 조명 수준들을 증가 또는 감소시키도록 광원들을 제어할 수 있다. 이러한 광원들의 변조는, 목표 밝기 수준들이 달성될 때까지, 각각의 연속적인 비디오 이미지 또는 주기적 이미지들과 함께 반복될 수 있다. 목표 밝기 수준들이 달성되면, 반복하는 피드백 제어는 일부 기계 시각 애플리케이션들에 대해 고정될 수 있다. 다른 애플리케이션들에 대해, 반복하는 프로세스는 상이한 장면들 또는 조명 조건들에 있어서의 변화들을 파악하기 위해 주기적으로 또는 연속적으로 계속될 수 있다.
또 다른 실시예에 따르면, 장면에서 하나 이상의 대상이 카메라의 시야 내에 있도록 카메라가 장면 쪽으로 향하도록 하는 단계; 카메라의 시야 내에 있는 각각의 초점 영역들을 우선적으로 조명하는 복수의 광원으로 장면을 조명하는 단계; 카메라를 사용하여 광원들의 각각의 초점 영역들에서 밝기를 샘플링하는 단계; 및 각각의 초점 영역들 내에 원하는 밝기 수준들을 제공하기 위해 샘플링된 밝기에 적어도 부분적으로 기초하여 광원들을 변조하는 단계를 포함하는, 장면의 조명을 제어하기 위한 방법이 제공된다.
예를 들어, 장면은 사람의 얼굴의 적어도 일부를 포함할 수 있고, 하나 이상의 대상은 사람의 적어도 하나의 눈을 포함할 수 있다. 카메라 및/또는 광원들은 사람의 머리 위의 디바이스 상에 또는 사람의 머리에서 멀리 떨어진 위치에 장착될 수 있다.
또 다른 예에서, 장면은 전자 디스플레이를 포함할 수 있고, 카메라 및/또는 광원들은, 카메라 및 광원들이 전자 디스플레이를 보는 사람의 얼굴을 향해 지향되도록 디스플레이에 대해 배치될 수 있다. 이 예에서, 광원들은, 카메라의 시야 내에 있는 사람의 얼굴의 각각의 초점 영역들에 원하는 밝기 수준들을 제공하도록 변조될 수 있다.
또 다른 예에서, 카메라 및/또는 광원들은, 카메라가 차량의 조작자의 얼굴을 향해 지향되도록 차량의 계기판에 장착될 수 있다. 이 예에서, 장면은, 조작자의 얼굴의 적어도 일부를 포함할 수 있고, 광원들은, 카메라의 시야 내에 있는 조작자의 얼굴의 각각의 초점 영역들을 우선적으로 조명하기 위해 조작자의 얼굴을 향해 지향될 수 있다.
또 다른 예에서, 카메라 및/또는 광원들은, 조립 라인 또는 컨베이어 벨트를 따라 이동하는 대상들의 이미지들을 얻기 위해, 조립 라인 또는 컨베이어 벨트 쪽으로 향할 수 있다. 또 다른 예에서, 카메라 및/또는 광원들은, 저장 영역들에 위치한 대상들의 이미지들을 얻기 위해, 복수의 저장 영역 쪽으로 향할 수 있다. 광원들은, 예컨대, 시야 내에 실질적으로 균일한 밝기 수준을 제공하거나 시야 내에 일정치 않은 밝기 수준들을 제공하기 위해, 카메라의 시야 내에 있는 각각의 초점 영역들을 우선적으로 조명하도록, 조립 라인, 컨베이어 벨트, 또는 저장 영역 쪽으로 향할 수 있다. 예를 들어, 광원들은 다른 초점 영역들보다 카메라에서 더 멀리 있는 초점 영역들에 대해 더 큰 밝기 수준들을 제공하도록 변조될 수 있다.
본 발명의 다른 양태들 및 특징들은 첨부 도면들과 함께 다음 설명을 고려하면 명백해지게 될 것이다.
도면들은 본 발명의 예시적인 실시예들을 도시한다.
도 1은, 카메라로부터 이미지들을 획득하는 처리 유닛의 제어 하에서의, 3개의 발광 다이오드를 사용한 눈 및 주변 안면 부위의 공간적으로 균일한 조명의 사시도이다.
도 2는 3개의 별도의 광원에 의해 생성된 눈 및 주변 안면 부위의 조명 패턴들의 예이다.
도 3은, 픽셀들의 3개의 클러스터들이, 카메라의 시야 내에 있는 3개 영역에서 평균 조명 강도를 결정하기 위해 샘플링되는, 눈 및 주변 안면 부위의 카메라 이미지의 예이다.
도 4는 조명 패턴에서 공간적 그래디언트가 요구되는 식료품점(grocery) 또는 창고 선반의 제어된 조명의 예이다. 조명은 이미지의 우측을 향해 점진적으로 증가하는 밝기를 갖는 4개의 수평 영역들로 분리된다.
도 5는 진폭 변조 및 펄스-폭 변조 기술들 둘다를 사용하여 조명을 제어하기 위해 사용된 신호들 및 피드백의 시간 시퀀스의 예이다.
도 6은 공간적으로 균일한 밝기를 생성하기 위해 다수의 광원의 조명 수준들을 제어하기 위해 사용될 수 있는 예시적인 알고리즘을 도시하는 플로우차트이다.
도 7은 사람의 눈의 움직임에 기초하여 사람을 모니터링하기 위한 장치의 또 다른 실시예의 사시도이다.
도면들을 참조하면, 도 1은 사람의 눈 및/또는 인근 안면 부위들에 피드백 제어된 조명을 제공할 수 있는 시스템(10)의 예시적인 실시예를 도시한다. 일반적으로, 시스템(10)은 복수의 광원(12)(3개가 도시됨), 하나 이상의 카메라(14)(1개가 도시됨), 및 광원들(12) 및/또는 카메라(들)(14)에 연결된 처리 유닛(16)을 포함한다.
시스템(10)의 구성요소들은 단일 디바이스 또는 2개 이상의 별도의 디바이스들에 포함될 수 있다. 예를 들어, 도 7에 도시된 바와 같이, 카메라(14) 및 광원들(12)은 프레임(18) 또는 사람의 머리에 착용되도록 구성된 다른 디바이스 상에 제공될 수 있다. 도시된 실시예에서, 프레임(18)은, 예컨대, 안경 한 개와 비슷한, 다리 부분(bridge piece; 18a), 각각의 눈 위 또는 그 주위로 연장하고 개구부(opening; 18c)를 정의하는 림(rim; 18b) 및/또는 한 쌍의 귀 받침대(ear supports; 18d)를 포함한다. 선택적으로, 개구부들(18c)에는, 그러한 렌즈들이 시스템(10)의 동작에 필요한 것이 아니더라도, 원하는 경우, 렌즈들, 예컨대, 처방(prescription), 셰이드된(shaded), 편광 및/또는 보호 렌즈들 등이 제공될 수도 있고 제공되지 않을 수도 있다. 대안적으로, 시스템(10)의 구성요소들은, 사람의 머리에 착용되도록 구성된 다른 디바이스들, 이를테면, 미국 특허 번호 6,163,281, 6,542,081 또는 7,488,294에 개시된 디바이스들과 같은, 헬멧, 마스크, 고글 한 개, 풀-다운 마스크 등(도시되지 않음)에 제공될 수 있다.
이 응용에 의존하는 또 다른 대안들에서, 구성요소들은, 본원의 또 다른 곳에서 설명되는 바와 같이, 사람, 대상들 및/또는 기타 장면을 모니터링하기 위해, 별도의 디바이스들, 예컨대, 고정 또는 이동 구조들에 제공될 수 있다. 예를 들어, 카메라(14) 및/또는 광원들(12)이 사람으로부터 멀리 떨어져 제공되지만 사람이 모니터링되도록 허용할 수 있다. 하나의 예시적인 실시예에서, 카메라(14) 및/또는 광원들(12)은 차량의 계기판 또는 조종석 내의 다른 곳 또는 기타 내부 영역에 장착될 수 있고, 운전자, 파일럿, 또는 차량의 다른 조작자, 승객, 또는 차량 내의 다른 사람을 향해 지향될 수 있다. 카메라(14) 및/또는 광원들(12)의 위치들은, 예컨대, 카메라(14) 및/또는 광원들(12)이 얼굴, 예컨대, 조작자 또는 다른 사람의 한쪽 눈 혹은 양쪽 눈을 향해 지향될 수 있도록, 차량 내에 실질적으로 고정되거나 변조가능할 수 있다. 또 다른 예시적인 실시예에서, 카메라(14) 및/또는 광원들(12)은, 예컨대, 한쪽 눈 혹은 양쪽 눈 모두의 움직임에 적어도 부분적으로 기초하여 사용자가 전자 장치를 제어 또는 조작하도록 허용하게 위해, 예를 들어, 전자 장치의 사용자의 한쪽 눈 혹은 양쪽 눈 모두를 모니터링하기 위해, 컴퓨터 또는 기타 전자 장치의 디스플레이 상에 또는 그에 인접하여 장착될 수 있다.
선택적으로, 도 1 및 7을 참조하면, 처리 유닛(16)은 또한 프레임(18)에 휴대될 수 있고, 또는, 본원의 다른 곳에서 설명되는 바와 같이, 프레임(18)(및/또는 프레임(18) 외의 다른 구조에 제공된 경우, 시스템(10)의 다른 구성요소들)과 별도로 및/또는 그로부터 멀리 떨어져 있을 수 있다. 예를 들어, 도 7에 도시된 바와 같이, 처리 유닛(16)은 프레임(18)과 별도의 케이싱에 제공될 수 있고, 프레임(18)으로부터 연장하는 하나 이상의 케이블(17)(간단하게 하기 위해 한개가 도시됨)을 포함할 수 있다. 케이블(들)(17)은, 광원들(12), 카메라들(14) 및/또는 프레임(18) 상의 기타 구성요소들 및 처리 유닛(16)에 연결된 배선들의 집합들 또는 개개의 케이블들을 포함할 수 있다. 예를 들어, 개개의 케이블들 또는 배선들의 집합들은, 원하는 경우, 예컨대, 프레임(18)의 전체 프로파일을 줄이기 위해, 케이블(15) 내에 캡처될 때까지, 각각의 광원들(12), 카메라들(14, 15) 등으로부터, 예컨대, 림(18b)을 따라, 프레임(18)에 내장될 수 있다.
도 1을 추가로 참고하면, 카메라(14)는, 프레임(18)을 착용하는 및/또는 그렇지 않으면, 도시된 바와 같이, 시스템(10)으로 모니터링되는 사람의 제1 눈(20) 쪽으로 향하는 시야를 카메라(14)가 포함하도록, 프레임(18) 상에 장착 및/또는 배치된다. 예를 들어, 도 7에 도시된 바와 같이, 카메라(14)는, 예컨대, 2010년 1월 13일에 출원된, 공동 출원중인 출원 일련 번호 12/551,547에 개시된 바와 같이, 예컨대, 프레임(18)을 착용하는 사람의 일반적인 시야에서 벗어나 카메라(14)를 위치시키기 위해, 프레임(18) 내의 각각의 개구부(18c)로부터 오프셋될 수 있다.
예시적인 실시예에서, 카메라(14)는, 카메라(14)로 이미지들을 캡처하고 이미지들을 표시하는 비디오 신호들을 생성하기 위해, 예컨대, 픽셀들의 직사각형 또는 다른 어레이를 포함하는, 활성 영역을 포함하는 CCD나 CMOS 또는 기타 검출기를 포함할 수 있다. 카메라(14)의 활성 영역은 임의의 원하는 형상, 예컨대, 사각형 또는 직사각형 형상, 원형 또는 타원 형상 등을 가질 수 있다. 카메라(14)의 활성 영역은, 예컨대, 눈(22)을 향해 지향될 수 있는 곡면 내에 놓기 위해, 실질적으로 평면일 수도 있고 또는 곡선일 수 있다. 사용될 수 있는 예시적인 CMOS 디바이스들은 옴니비전(Omnivision), 모델 번호 OV7740, 또는 모크론(Mocron) 모델 번호 MT9V032를 포함한다. 또한, 카메라(14)는, 예컨대, 활성 영역 상에 이미지들을 집중시키고, 원하지 않는 광의 강도들 및/또는 파장들을 필터링하는 것 등을 위해, 원하는 경우, 하나 이상의 필터, 렌즈 등(도시되지 않음)을 포함할 수 있다.
선택적으로, 제2 카메라는 시스템(10)에 의해 모니터링되는 사람의 제2 눈(도시되지 않음) 쪽으로 향하는 시야를 포함하도록 제공될 수 있다. 예를 들어, 도 7에 도시된 바와 같이, 한 쌍의 카메라(14)가 프레임(18), 예컨대, 각각의 눈 아래의 림(18b)의 하측 영역에 장착되어, 사람의 시야에 대한 간섭을 최소화하고, 이로써 사람의 양쪽 눈 모두 모니터링되도록 허용한다. 추가로 또는 대안적으로, 사람의 개개의 눈을 향하도록 다수의 카메라가 제공될 수 있는데(또는, 도시되지 않았지만, 각각의 눈 쪽으로 향하는 다수의 카메라), 예컨대, 별도의 또는 중첩하는 시야를 제공할 수 있다. 또 다른 옵션으로, 도 7에 점선(phantom)으로 도시된 바와 같이, 하나 이상의 카메라(15)는, 본원의 또 다른 곳에서 확인된 특허들에 개시된 바와 같이, 예컨대, 사람 주위의 이미지들을 획득하기 위해, 프레임(18)을 착용하는 사람으로부터 벗어나 지향될 수 있도록 프레임(18) 상에 제공될 수 있다.
광원들(12)은 프레임(18) 상의 여러 위치에, 예컨대, 카메라(14)에 인접한 개구부(18c) 주위에 장착될 수 있다. 예를 들어, 도시된 바와 같이, 3개의 광원(12a, 12b, 12c)이 도시되는데, 예컨대, 제1 및 제2 광원(12a, 12b)은 림(18b)의 상단 영역에 있고 제3 광원(12c)은 림(18b)의 하단 영역에 있다. 원하는 경우, 단지 2개 또는 3개보다 많은 광원(도시되지 않음)이 제공될 수 있어, 본원에 설명된 시스템 및 방법을 사용하여 제어될 수 있다는 것이 이해될 것이다. 도 7에 도시된 바와 같이, 시스템(10)이 제2 카메라(14)를 포함하는 경우, 프레임(18)을 착용하는 사람의 제2 눈 및/또는 안면 부위(도시되지 않음)를 조명하기 위한 추가적인 광원 세트(12)가 프레임(18)에 제공될 수 있다. 추가로, 시스템(10)이 개개의 눈 쪽으로 향하는 다수의 카메라(도시되지 않음)를 포함하는 경우, 카메라들은 복수의 광원을 공유할 수 있고 또는, 대안적으로, 카메라의 각각의 시야를 조명하기 위한 다수의 광원 세트가 제공될 수 있다(이 또한 도시되지 않음).
예시적인 실시예에서, 각각의 광원(12)은, 상대적으로 좁은 또는 넓은 대역폭의 광, 예컨대, 적외선, 약 640-700 나노미터 사이의 하나 이상의 파장의, 광대역 가시광, 예컨대, 백색광 등을 방출하기 위해 구성된 발광 다이오드를 포함할 수 있다. 선택적으로, 광원들(12)은, 예컨대, 사람의 눈 및/또는 얼굴의 각각의 초점 영역들을 조명하는 것을 용이하게 하기 위한, 렌즈들, 필터들, 산광기(diffuser)들, 또는 다른 피처들(도시되지 않음)을 포함할 수 있다. 광원들(12)은, 원하는 밝기 수준들, 예컨대, 사람의 눈 및/또는 얼굴과 카메라(14)를 사용하여 캡처된 사람의 눈 및/또는 얼굴의 이미지들의 실질적으로 균일한 또는 일정치 않은 밝기 수준을 제공하기 위해, 예컨대, 프레임(18)에서 각각의 개구부(18c) 주위에 위치한 하나 이상의 어레이에서, 서로 이격될 수 있다.
처리 유닛(16)은, 시스템(10)의 다양한 구성요소를 조작하기 위한 하나 이상의 컨트롤러 또는 프로세서, 예컨대, 하나 이상의 하드웨어 구성요소 및/또는 소프트웨어 모듈들을 포함할 수 있다. 예를 들어, 처리 유닛(16)은, 광원들(12) 및/또는 카메라(14)를 제어하는 것, 카메라(14)로부터 신호들을 수신 및/또는 처리하는 것 등을 위해, 별도의 또는 통합 컨트롤러(도시되지 않음)를 포함할 수 있다. 선택적으로, 처리 유닛(16)의 구성요소들 중 하나 이상은 프레임(18), 예컨대, 본원의 또 다른 곳에서 확인된 참조 문헌들(references)에 기재된 실시예들과 비슷하게, 귀 받침대들(18d) 또는 림(18b) 상에 휴대될 수 있다.
처리 유닛(16)은 또한 카메라(들)(14, 15)로부터의 이미지 신호들을 저장하기 위한 메모리, 이미지 신호들을 편집 및/또는 처리하기 위한 필터 등을 포함할 수 있다. 추가로, 처리 유닛(16)은, 예컨대, 시스템(10)의 구성요소들을 동작시키기 위한, 하나 이상의 전원(도시되지 않음)을 포함할 수 있다. 선택적으로, 프레임(18) 및/또는 처리 유닛(16)은 데이터를 송신하고, 명령어들을 수신하는 등을 위한 하나 이상의 송신기 및/또는 수신기(도시되지 않음)를 포함할 수 있다. 추가로 또는 대안적으로, 시스템(10)은, 본원의 다른 곳에서 확인된 참조 문헌들에 개시된 실시예들과 비슷하게, 프레임(18) 및/또는 처리 유닛(16)에서 멀리 떨어진 구성요소들을 포함할 수 있다. 예를 들어, 시스템(10)은 처리 유닛(16) 및/또는 프레임(18)으로부터 먼 위치, 예컨대, 같은 방 안, 인근의 모니터링 스테이션, 또는 더 먼 위치에 하나 이상의 수신기들, 프로세서들, 및/또는 디스플레이들(도시되지 않음)을 포함할 수 있다.
도 1로 돌아가면, 예컨대, 자동화된 동공 추적을 위한, 시스템(10)을 사용하여 이미징되는 사람의 눈(20) 및 주위 안면 부위(22)가 도시되는데, 여기서는 실질적으로 공간적으로 균일한 조명이 유용할 수 있다. 눈(20)을 포함하는 안면 부위(22)는 카메라(14)에 의해 시각화될 수 있는데, 여기서 이미지들은 처리 유닛(16)으로 전달된다. 동공(26)은 홍채(27)의 중심부에 위치하고 있다. 홍채(27)는, 차례로, 공막(28) 또는 눈의 흰색 영역 내에 위치하고 있다. 정상 시력 동안, 수의근 및 불수의근 제어 둘다의 결과로 동공(26)의 위치는 변한다. 동공(26)의 이동들 동안, 동공(26), 홍채(27), 및 공막(28)과 연관된 영역의 크기 및 형상은 카메라의 시야 내에서 변한다. 일부에서, 크기 및 형상에 있어서의 변화들은 눈(20)의 곡률(curvature)로 인한 것일 수 있다.
하나 이상의 광원에 의해 조명될 때, 다수의 팩터: a) 광원들과 시야 영역 사이의 거리들, b) 각각의 광원의 강도, c) 각각의 광원의 발산각, d) (조명 파장(들)에서의) 조명된 표면의 반사율, e) 표면의 곡률, 및 f) 광을 유용한 신호로 변환하는데 있어서 카메라의 효율성은 물론 카메라와 연관된 광학의 공간적 균일성(spatial uniformity) 및 집진률(collection efficiency)은, 카메라의 시야 내에 있는 상이한 영역들로부터 검출된 광의 강도에 영향을 미칠 수 있다. 추가로, 3차원 구조는, 단일 또는 적은 수의 광원으로부터 조명된 경우, 그늘을 생성할 수 있다. 눈(20) 주위 영역(22)의 경우에, 그늘은 눈꺼풀, 속눈썹, 및 피지후(skin folds)를 포함하는 구조들에 의해 생성될 수 있다.
본원의 다른 곳에서 더 설명된 바와 같이, 도 1에서의 카메라(14)와 같은, 카메라의 시야 내에 있는 상이한 영역들의 밝기 수준들은, 상이한 조명원들의 강도를 제어하기 위해 피드백 모드에서 사용될 수 있다. 상이한 각도로부터 장면을 조명하는 다수의 광원의 사용은 그림자의 해로운 영향을 감소시키는 것을 도울 수 있다. 반짝임들(glints)은 또한 다수의 조명원을 사용하는 것 및/또는 전략적 위치들에, 예컨대, 카메라의 시야각에서 많이 벗어나 그들을 위치시키는 것에 의해 감소 또는 방지될 수 있다. 도 1에 도시된 예에서, 조명원들로서, 적외선 발광 다이오드들(LED들)이 사용된다. 도시된 바와 같이, LED(12a)는 카메라(14)의 시야의 좌측 상단 영역을 우선적으로 조명하고, LED(12b)는 카메라(14)의 시야의 우측 상단 영역을 우선적으로 조명하고, LED(12c)는 카메라(14)의 시야의 하단 영역을 우선적으로 조명한다.
도 2는 상이한 광원들에 의한 조명의 각각의 초점 영역들을 도시한다. 이 예에서, 3개의 광원이 동공(26) 및 눈(20) 주위의 안면 부위(22)를 조명한다. 광원들은 일반적으로 도 2에 묘사된 것처럼 선명한 경계들을 생성하지 않는다는 것이 이해된다. 오히려, 대시 라인들은 "초점 영역들", 즉, 특정 광원들이 카메라의 시야 내에서 주위 영역들에 비해 한 영역의 조명에 우선적인 또는 증가된 영향을 미치는 영역들을 나타낸다. 도 1을 참조하면, LED(12a)는 카메라의 시야의 좌측 상단 영역에 위치한 도 2의 영역(121)을 우선적으로 조명한다. 마찬가지로, 도 1에서 LED(12b)는 카메라의 시야의 우측 상단 영역에 위치한 도 2의 영역(122)을 조명한다. 도 1에서 LED(12c)는 카메라의 시야의 하단 영역에 위치한 도 2의 영역(123)을 조명한다. 조명된 영역들 또는 초점 영역들의 크기는 광원의 발산각 및/또는 광원과 조명된 표면 사이의 거리에 의존적일 수 있다. 조명 영역의 일반적인 형상은 광원의 광 프로파일뿐만 아니라 광원의 위치와 조명된 표면에 정상적인 벡터 사이의 각도에 의존적일 수 있다. 각각의 초점 영역들의 평균 밝기는 연관된 광원(들)의 강도를 변조함으로써 제어될 수 있다.
도 3은 동공(26)의 주변 영역들의 평균 밝기를 결정하기 위해 샘플링될 수 있는 픽셀 클러스터들의 예이다. 이 예에서, 카메라의 시야 내에서 좌측 상단 영역의 밝기를 평가하기 위해 픽셀들의 8×8(eight by eight) 요소 클러스터(101)의 평균 측정 강도가 사용된다. 카메라의 시야 내에서 우측 상단의 밝기를 산출하기 위해 픽셀의 또 다른 8×8(eight by eight) 요소 클러스터(102)가 사용된다. 카메라의 시야 내에서 하단 영역의 밝기를 평가하기 위해 픽셀들의 세 번째 8×32(eight by thirty two) 요소 클러스터(103)가 사용된다.
그러나, 그 밝기는 시야와 함께 임의의 수의 영역들로부터 평가될 수 있다는 것이 인식될 것이다. 밝기의 평가는 각각의 초점 영역들 내에서 임의의 크기, 간격 또는 형상의 클러스터들에서 임의의 수의 픽셀들로부터 결정될 수 있다. 예를 들어, 각각의 초점 영역들 내에서 각각의 샘플링 동안 동일한 픽셀들이 샘플링될 수 있고, 또는, 원하는 경우, 예컨대, 각각의 초점 영역들 내에서 무작위로 선택된 상이한 픽셀들이 샘플링될 수 있다. 밝기는 눈(20)을 모니터링하는 동안 실제 비디오 신호들을 사용하여 샘플링될 수 있거나 또는 눈(20)을 모니터링하기 위해 사용하는 데이터 스트림의 외측에서 샘플링될 수 있다. 예를 들어, 일련의 비디오 신호들로부터의 주기적 프레임들은, 본원에 기술된 시스템들 및 방법들 중 임의의 것을 사용하여 밝기 수준들을 추정 및/또는 변조하기 위해, 기록되고, 처리되고, 또는 그렇지 않으면 모니터링되는 것에 더하여 샘플링될 수 있다.
예를 들어, 도 1-3을 추가로 참조하면, 처리 유닛(16)은 각각의 초점 영역들(121, 122, 123)에서 평균 밝기 수준을 추정하기 위해, 초점 영역들(121, 122, 123)(도 2에 도시된)에서 미리 결정된 픽셀들(101, 102, 103)(도 3에 도시된)을 주기적으로 샘플링할 수 있다. 처리 유닛(16)은, 그 다음에, 각각의 초점 영역들(121, 122, 123) 내에 원하는 밝기 수준들을 제공하기 위해 (도 1에 도시된) 광원들(12a, 12b, 12c)을 변조할 수 있다. 예를 들어, 카메라(14)로 눈(20)을 조명 및 이미징할 때 실질적으로 균일한 밝기를 갖는 것이 바람직할 수 있다. 처리 유닛(16)은 픽셀들의 세트(101, 102, 103)를 샘플링하고, 초점 영역들(121, 122, 123)의 각각에서 평균 밝기를 결정하고, 광원들(12a, 12b, 12c)의 강도를 증가시키거나 감소시킬 수 있어, 예컨대, 평균 밝기를 실질적으로 균일하게 및/또는 그렇지 않으면 원하는 범위 내에서 유지할 수 있다.
대안적으로, 개개의 눈을 모니터링하기 위해 다수의 카메라가 제공되는 경우(도시되지 않음), 카메라(들)의 시야 내에서 밝기를 샘플링하기 위해 하나 이상의 카메라가 사용될 수 있다. 예를 들어, 하나의 실시예에서, 제1 카메라는 예컨대, 상술한 바와 같이, 오로지 밝기 샘플링을 위해 사용될 수 있는데 반해, 제2 카메라는, 본원의 다른 곳 및 본원에서 확인된 참조 문헌들에 설명된 바와 같이, 다른 목적들, 예컨대, 사람의 의식(awareness), 육체적 및/또는 정신적 상태를 모니터링하는 것, 하나 이상의 디바이스를 제어하는 것 등을 위해 눈의 이미지들을 얻는데 사용될 수 있다. 또 다른 실시예에서, 다수의 카메라는 각각의 광원의 초점 영역들 내에서 밝기를 샘플링하기 위해 사용될 수 있고, 다수의 카메라로부터의 샘플링된 밝기는 그 평균이 계산되거나 그렇지 않으면 비교되어 광원들에게 피드백 제어를 제공할 수 있다.
다른 애플리케이션들에서, 장면의 공간적으로 일정치 않은 조명을 갖는 것이 바람직할 수 있다. 도 4는 밝기에 있어서 (비-균일) 공간적 그래디언트(242)가 요구될 수 있는 상황에서 조명을 제어하는 그러한 예를 보여준다. 이 예에서, 카메라(241)는, 예컨대, 식료품 상점, 창고, 및 제조 시설에서 흔히 발견되는 것과 같은, 일련의 선반 또는 컨베이어 시스템(240) 상의 대상들을 이미징하기 위해 사용될 수 있다. 카메라(241) 및 광원들(231-234)은, 예컨대, 선반들 또는 컨베이어 시스템(240)에서 벗어나 서로에 대해 독립적으로 장착될 수 있고 실질적으로 고정 또는 이동될 수 있다.
그러한 상황에서, 일부 대상들 및 대상들 위의 문자는 카메라(241)를 사용하여 획득한 이미지들 내에서 다른 것들보다 더 작게 나타날 수 있다. 이는 실제로 감소된 대상들의 크기로 인한 것일 수도 있고 또는 대상들이 카메라로부터 더 멀리 있기 때문일 수도 있다. 종종, 이미지 처리 알고리즘들의 성능은 카메라의 시야 내에서 더 작게 나타나는 대상들의 밝기를 증가시킴으로써 (포화를 생성하지 않고) 개선될 수 있다. 공간적으로 제어된 조명은 또한, 이미지 처리 알고리즘이 신호 대 잡음비를 증가시킴으로써 렌즈들 및 다른 광학적 구성요소들의 해상도에 있어서의 공간적 변화를 보상하는 것을 돕기 위해 사용될 수 있다. 대부분의 렌즈들, 특히 작은 렌즈들은 렌즈들의 중심 영역에 비해 렌즈들의 외곽 에지들에 가까울수록 감소된 공간적 해상도 및/또는 광-수집 능력을 갖는다.
도 4에 도시된 예에서, 시야를 4개의 수직 영역으로 분할함으로써 밝기의 수평 그래디언트(horizontal gradient)가 생성될 수 있다. LED(231)에 의해 조명된, 가장 좌측 영역(221)은 신뢰할 수 있는 이미지 처리를 위해 최소한의 밝기를 요구할 수 있다. LED(232)에 의해 조명된, 그 다음의 가장 좌측 영역(222)은 신뢰할 수 있는 이미지 처리를 위해 그 다음으로 최소한의 밝기 수준을 요구할 수 있다. LED(233)에 의해 조명된, 영역(223)은 더 작은 대상들의 존재로 인해 더 큰 밝기를 요구할 수 있다. 끝으로, LED(234)에 의해 조명된, 영역(224)은 작은 대상들, 카메라에서 가장 멀리 있는 대상들, 및/또는 카메라(241)를 사용하여 획득된 이미지들의 에지 근처에서 감소된 광학 해상도의 존재 때문에 최대의 조명을 요구할 수 있다.
본원의 다른 곳에서 설명된 것과 비슷한, 처리 유닛(도시되지 않음)은, 수직 영역들(221-224) 내에서 밝기 수준들을 샘플링하기 위해 카메라(241)에 연결될 수 있고, 및/또는 샘플링된 밝기 수준들에 응답하여 광원들(231-234)의 강도를 변조하기 위해 광원들(231-234)에 연결될 수 있다. 예를 들어, 위에서 설명된 바와 같이, 처리 유닛은, 카메라(241)로부터의 이미지들의 모니터링을 용이하게 하기 위해, 영역들(221-224) 각각에 증가된 밝기 수준들을 제공하기 위해 광원들(231-234)을 변조할 수 있다.
도 5는 카메라의 시야의 상이한 영역들에서 조명을 모니터링 및 제어하기 위해 사용되는 신호들의 타임 시퀀스의 예이다. 실선(141)은 개개의 픽셀 클러스터의 측정된 평균 밝기를 나타낼 수 있는 한편, 점선(140)은 광원의 초점 영역에 대한 목표 광 강도를 나타낼 수 있다. 점들(142)은, 밝기를 샘플링하기 위한 새로운 카메라 이미지들이 수집되는 시간을 나타낼수 있다. 측정된 평균 광 강도가 목표 강도 아래로 떨어지는 경우, 대응하는 영역과 연관된 광원의 강도를 증가시키기 위해 다른 체계(schemes)가 사용될 수 있다. 반대로, 측정된 평균 광 강도가 목표 강도 위로 올라가는 경우, 대응하는 영역과 연관된 광원의 밝기를 감소시키기 위해 동일한 체계(들)가 사용될 수 있다.
예시적인 실시예에서, 실선(143)은, 광원을 구동하는 전압 또는 전류 중 하나의 진폭이 광 강도를 제어하기 위해 사용될 수 있는 체계를 도시한다. 이것은 일반적으로 "진폭 변조"로 지칭된다. 또 다른 실시예에서, 실선(144)은, 제어 전압 또는 전류의 지속기간(duration) 또는 "체류 시간(dwell time)"이 광 강도를 제어하기 위해 변경될 수 있는 체계를 도시한다. 이것은 일반적으로 "펄스-폭 변조"로 지칭된다. 선택적으로, 상기 체계들 둘 다를 동시에 사용하는 것이 또한 가능할 수 있다.
원하는 경우, 카메라가 광을 유용한 신호들로 변환하고 있지 않을 때, 또는, 예를 들어, 에너지를 절약하기 위해 및/또는 예컨대, 안전상의 이유로, 전체 조명 강도들을 줄이기 위해, 전체 디바이스가 사용 중이지는 않을 때와 같이 필요하지 않은 시간들에 조명은 턴오프될 수 있다. 예를 들어, 도 4에서(또는 본원 설명된 또 다른 실시예에서) 광원들(231-234)은 간헐적으로 동작, 예컨대, 카메라(241)가 작동하지 않을 때 정지될 수 있다. 하나의 예시적인 실시예에서, 카메라(241)는 그것의 시야의 이미지들을 획득하기 위해 주기적으로 작동될 수 있음은 물론 예컨대, 획득한 이미지들로부터, 밝기를 샘플링할 수 있다. 이 예에서, 카메라(241)가, 예컨대, 활성화 기간 동안 진폭 변조 및/또는 펄스-폭 변조를 사용하여, 본원의 다른 곳에 설명된 바와 같이 제어된 광원의 밝기를 갖는 이미지들을 획득하고 있는 기간 동안에만 광원들(231-234)이 활성화될 수 있다. 또 다른 예시적인 실시예에서, 카메라(241)는 시야의 이미지들을 획득하기 위해 주기적으로 동작될 수 있고 밝기를 샘플링하기 위해 별도로 동작될 수 있다. 이 예에서, 카메라(241)가, 예컨대, 활성화 기간 동안 진폭 변조 및/또는 펄스-폭 변조를 사용하여, 이미지들을 획득 및/또는 밝기를 샘플링하도록 활성화되는 기간 동안에만 광원들(231-234)이 간헐적으로 활성화될 수 있다.
도 6은, 이를테면, 도 1 및 7의 시스템(10) 또는 도 4의 시스템을 사용하여, 예컨대, 제어된 또는 균일한 조명을 생성하기 위해, 피드백 제어를 생성하도록 사용될 수 있는 예시적인 알고리즘의 플로우차트이다. 각각의 영역의 평균 밝기("n"으로 인덱스됨)는 비디오 이미지들 내에서 연속적으로 측정될 수 있다. 예를 들어, 단계 310에서, 복수의 광원에 의해 조명된 카메라로부터 새로운 이미지들이 수집될 수 있다.
단계 320에서, 제1 광원에 대응하는 제1 초점 영역의 평균 밝기는 제1 영역 내에 있는 새로운 이미지로부터 복수의 픽셀을 샘플링함으로써 샘플링될 수 있다. 예를 들어, 제1 영역에 대한 평균 밝기를 결정하기 위해, 제1 영역 내에 있는 복수의 픽셀의 실제 밝기 수준들이 획득되고 및 평균이 계산될 수 있다. 단계 330에서, 평균 밝기는 제1 영역에 대한 목표 강도와 비교될 수 있다. 평균 밝기가 목표 강도보다 큰 경우(브랜치 330a), 단계 332에서, 제1 광원으로의 출력이 감소된다. 평균 밝기가 목표 강도보다 작은 경우(브랜치 330b), 단계 334에서, 제1 광원으로의 출력은 증가된다. 따라서, 단계 336에서, 제1 광원은 원하는 강도로 변조된다. 단계 338에서, 숫자 "n"이 증가하고, 단계 340에서, 또 다른 초점 영역이 아직 샘플링되지 않고 존재한다는 것이 확인된다. "n"이 초점 영역들 및 광원들의 총 수보다 작거나 동일한 경우, 프로세스, 즉, 제2 초점 영역 및 광원 등에 대한 단계 320-336는 반복된다. 새로운 이미지로부터의 모든 초점 영역이 샘플링되었고 광원들이 변조된 경우, 프로세스는 새로운 이미에 대해 반복된다(단계 310에서 다시 시작함). 따라서, 각각의 샘플링에 의해, 시스템에 포함된 광원들의 전체 어레이로의 출력은 원하는 수준들로 변조될 수 있다. 프로세스는, 그 다음에, 다음 비디오 이미지의 수집 시에, 또는, 예컨대, 샘플링된 밝기를 제공하는 카메라를 사용하여 획득된 하나 걸러 하나(every other) 이미지 또는 모든 10번째(every tenth) 이미지 이후에, 단지 주기적으로 반복될 수 있다.
목표 밝기 수준들은, 예컨대, 도 1 및 7의 시스템(10)에서, 실질적으로 균일한 밝기를 갖는 장면을 생성하기 위해, 카메라의 시야 전체에 걸쳐 모든 영역들에 대해 동일할 수 있다. 대안적으로, 목표 밝기 수준들은 또한 카메라의 시야 내에 있는 상이한 공간 영역들에서 다르게 선택될 수 있는데, 이를테면, 도 4에 도시된 시스템은, 이미지들 내에서 감소된 대상 크기의 영향을 부분적으로 보상한다. 선택적으로, 하나 이상의 영역 내의 목표 밝기는, 또한, 예를 들어, 표면에 있어서의 상세한 균열들 또는 컬러에 있어서의 미묘한 변화들을 드러기 위해, 예컨대, 분석을 강화하기 위해, 공간적 그래디언트 패턴들을 생성하도록 상승될 수 있다.
목표 밝기 수준들은 또한 시간의 함수로서 달라지도록 선택될 수 있다. 상이한 파장들을 방출하는 조명원들의 세트들이 사용되는 경우, 카메라 이미지들 내에 상이한 구조들을 드러내기 위해 각각의 파장이 선택됨에 따라 별도의 목표 밝기 수준들이 요망될 수 있다.
일부 애플리케이션들에서, 밝기는 적용된 조명 시스템의 일부인 전자기 소스에 의해 지배될 수 있다. 다른 애플리케이션들에서, 피드백-제어된 조명 시스템으로부터의 광은 태양이나 실내 조명과 같은 주변 광원들에 겹쳐질 수 있다. 후자의 경우, 주변 조명 수준들이 변할때마다 원하는 밝기 수준들로 재-수렴할(re-converge) 필요가 있을 수 있다.
피드백-제어된 동적 조명이 활용될 수 있는 애플리케이션의 또 다른 예는, 차량 또는 개개인이 카메라의 시야에 접근함에 따라 식별되는 보안 체크포인트를 포함한다. 이 경우, 가시 또는 적외선 조명원들 중 어느 하나는, 이미지 내에서 핫-스폿들을 피하면서 균일한 장면 밝기를 위해 대상들을 조명 및/또는 그림자를 피하기 위해 동적으로 변조될 수 있다.
피드백-제어된 동적 조명이 활용될 수 있는 애플리케이션의 또 다른 예는, 사과 또는 생선(도시되지 않음)과 같은, 제품 또는 다른 식품들을 분류하기 위해 사용되는 것과 같은 조립 라인들 또는 컨베이어 벨트 시스템들 내에 있는 분류 프로세스들에 있다. 상이한 반사 속성들, 크기들, 형상들 및/또는 방향들의 대상들이 카메라 시야에 들어감에 따라, 조명은 치수를 더 잘 측정하고 및/또는 대상들을 더 잘 식별하기 위해 동적으로 조정될 수 있다. 이러한 예에서, 카메라(또는 본원의 다른 곳에 설명된 바와 같은, 다수의 카메라)와 복수의 광원은, 조립 라인 또는 컨베이어 벨트에 인접한 고정 지지부들(stationary supports)에 장착될 수 있고, 조립 라인 또는 컨베이어 벨트에서 운반된 대상들 쪽으로 향할 수 있다(도시되지 않음). 대안적으로, 다수의 고정 카메라가 제공될 수 있고, 다수의 광원들의 세트들은, 예컨대, 각각의 카메라에 대해 고정으로 제공될 수 있고, 또는 광원들이 조립 라인 또는 컨베이어 벨트 상의 대상들과 함께 이동하도록 조립 라인 또는 컨베이어 벨트에 장착되도록 제공될 수 있다.
피드백-제어된 동적 조명이 활용될 수 있는 애플리케이션의 또 다른 예는, 휠들을 정확하게 정렬하고 샤프트를 구동하기 위해 사용되는 것과 같은 정렬 시스템을 포함한다. 피드백-제어된 동적 조명이 활용될 수 있는 애플리케이션의 또 다른 예는 얼굴 인식 분야에 있다.
예시적인 실시예의 전술한 개시는 실례와 설명을 목적으로 제시되었다. 이것은 본 발명을 개시된 정확한 형태로 제한하거나 완전하게 되도록 하기위한 것은 아니다. 본원에 기술된 실시예의 많은 변형 및 수정은 상기 개시에 비추어 당업자에게 자명할 것이다.
또한, 대표적인 실시예를 설명하는데 있어서, 명세서는 특정한 단계의 시퀀스로서 방법들 및/또는 프로세스들을 제시할 수 있다. 그러나, 방법들 또는 프로세스들은 본원에 명시된 단계들의 특정한 순서에 의존하지 않는 결과, 방법들 또는 프로세스들은 설명된 단계들의 특정 시퀀스로 제한되어서는 안된다. 당업자가 인식하는 바와 같이, 단계들의 다른 시퀀스도 가능할 수 있다. 따라서, 명세서에 명시된 단계들의 특정한 순서는 청구항들에 대한 제한으로 해석되어서는 안된다.
본 발명은 다양한 수정 및 대체 형태에 민감하지만, 그들의 구체적인 예들은 도면에 도시되어 있고 본원에 상세히 설명되어 있다. 그러나, 본 발명은 개시된 특정한 형태 또는 방법에 제한되지 않고, 반대로, 본 발명은 첨부된 청구항들의 범위 내에 있는 모든 수정, 등가물 및 대안들을 커버하는 것이라는 것이 이해되어야 한다.

Claims (70)

  1. 사람의 눈을 모니터링하기 위한 시스템으로서,
    사람의 머리에 착용되도록 구성된 디바이스;
    상기 디바이스 상에 장착되고 상기 디바이스를 착용하는 사람의 제1 눈을 보도록 배치되는 카메라;
    상기 제1 눈의 주위 및 상기 카메라의 시야 내에서 상기 사람의 얼굴의 각각의 초점 영역들을 우선적으로 조명하는, 상기 디바이스 상의 복수의 광원; 및
    상기 카메라 및 상기 광원들에 연결된 컨트롤러 - 상기 컨트롤러는, 상기 각각의 초점 영역들 내에 원하는 밝기 수준들을 제공하기 위해, 상기 카메라를 이용하여 상기 광원들의 상기 각각의 초점 영역들에서 밝기를 샘플링하고, 샘플링된 밝기에 적어도 부분적으로 기초하여 상기 광원들을 변조하도록 구성됨 -
    를 포함하는 모니터링 시스템.
  2. 제1항에 있어서, 상기 컨트롤러는 상기 디바이스 상에 장착되는 모니터링 시스템.
  3. 제1항에 있어서, 상기 컨트롤러는 상기 디바이스로부터 멀리 떨어져 위치하는 모니터링 시스템.
  4. 제1항에 있어서, 상기 컨트롤러는, 제1 광원에 의해 조명되는 상기 카메라의 시야 내에 있는 제1 초점 영역에 대응하는 상기 카메라의 다수의 픽셀로부터의 밝기를 샘플링하도록 구성되고, 상기 컨트롤러는, 상기 제1 광원에 의해 제공된 평균 밝기를 결정하기 위해 상기 샘플링된 밝기를 조합하고, 상기 컨트롤러는, 상기 제1 초점 영역 내에 원하는 밝기 수준을 제공하기 위해 상기 제1 광원을 변조하는 모니터링 시스템.
  5. 제4항에 있어서, 상기 컨트롤러는, 상기 원하는 밝기 수준을 제공하기 위해, 상기 제1 광원으로의 전류 및 전압 중 적어도 하나를 진폭 변조하도록 구성되는 모니터링 시스템.
  6. 제4항에 있어서, 상기 컨트롤러는, 상기 원하는 밝기 수준을 제공하기 위해, 상기 제1 광원으로의 전류 및 전압 중 적어도 하나를 펄스-폭 변조하도록 구성되는 모니터링 시스템.
  7. 제1항에 있어서, 상기 컨트롤러는, 상기 카메라가 상기 제1 눈의 이미지들을 획득하기 위해 활성화되는 기간들 동안에만 상기 광원들을 활성화하도록 구성되는 모니터링 시스템.
  8. 제1항에 있어서, 상기 광원들의 상기 원하는 밝기 수준들은 실질적으로 균일한 것인 모니터링 시스템.
  9. 제1항에 있어서, 상기 광원들은 LED들을 포함하는 모니터링 시스템.
  10. 제1항에 있어서, 상기 카메라는 CCD 및 CMOS 검출기 중 하나를 포함하는 모니터링 시스템.
  11. 제1항에 있어서, 상기 카메라로부터 상기 제1 눈의 이미지들을 수신하기 위해 상기 카메라에 연결된 처리 유닛을 더 포함하는 모니터링 시스템.
  12. 공간적으로 제어된 조명을 생성하기 위한 피드백 제어된 시스템으로서,
    시야의 둘 이상의 공간 영역에서 장면 밝기를 측정하는 카메라;
    상기 카메라의 시야 내에서 대응하는 영역들을 우선적으로 조명하는 광원들; 및
    상기 카메라의 시야의 각각의 영역 내에서 평균 밝기를 산출하고, 대응하는 광원들을 하나 이상의 목표 밝기 수준들로 변조하여 상기 시야 내에 원하는 밝기 수준들을 제공하는 프로세서
    를 포함하는 피드백 제어된 시스템.
  13. 제12항에 있어서, 상기 카메라 및 상기 광원들은 사람의 머리에 착용되도록 구성된 디바이스 상에 장착되고, 상기 카메라는 상기 디바이스를 착용하는 사람의 제1 눈을 보도록 상기 디바이스 상에 배치되고, 상기 광원들은 상기 제1 눈의 주위 및 상기 카메라의 시야 내에서 상기 사람의 얼굴의 각각의 초점 영역들을 우선적으로 조명하기 위해 상기 디바이스 상에 위치되는 피드백 제어된 시스템.
  14. 제13항에 있어서, 상기 프로세서는 상기 디바이스로부터 멀리 떨어져 위치되는 피드백 제어된 시스템.
  15. 제12항에 있어서, 상기 프로세서는, 제1 광원에 의해 조명되는 상기 카메라의 시야 내에서 제1 초점 영역에 대응하는 상기 카메라의 다수의 픽셀로부터의 밝기를 샘플링하도록 구성되고, 상기 프로세서는, 상기 제1 광원에 의해 제공된 평균 밝기를 결정하기 위해 샘플링된 밝기를 조합하고, 상기 프로세서는, 상기 제1 초점 영역 내에 원하는 밝기 수준을 제공하기 위해 상기 제1 광원을 변조하는 피드백 제어된 시스템.
  16. 제12항에 있어서, 상기 프로세서는, 상기 원하는 밝기 수준들을 제공하기 위해, 상기 광원들로의 전류 및 전압 중 적어도 하나를 진폭 변조하도록 구성되는 피드백 제어된 시스템.
  17. 제12항에 있어서, 상기 프로세서는, 상기 원하는 밝기 수준들을 제공하기 위해, 상기 광원으로의 전류 및 전압 중 적어도 하나를 펄스-폭 변조하도록 구성되는 피드백 제어된 시스템.
  18. 제12항에 있어서, 상기 프로세서는, 상기 카메라가 상기 제1 눈의 이미지들을 획득하기 위해 활성화되는 기간들 동안에만 상기 광원들을 활성화하기 위해 상기 광원들에 연결되는 피드백 제어된 시스템.
  19. 제18항에 있어서, 상기 프로세서는, 상기 카메라가 상기 원하는 밝기 수준들을 제공하기 위해 활성화되는 기간들 동안 상기 광원들로의 전류 및 전압 중 적어도 하나를 펄스-폭 변조하도록 구성되는 피드백 제어된 시스템.
  20. 제12항에 있어서, 상기 프로세서는, 상기 카메라가 작동하지 않을 때(inactive) 상기 광원들을 비활성화시키기 위해 상기 광원들에 연결되는 피드백 제어된 시스템.
  21. 제12항에 있어서, 상기 광원들의 상기 원하는 밝기 수준들은 실질적으로 균일한 것인 피드백 제어된 시스템.
  22. 제12항에 있어서, 상기 광원들의 상기 원하는 밝기 수준들은, 상기 시야 내에 있는 각각의 초점 영역들의 위치에 적어도 부분적으로 기초하여 가변되는 피드백 제어된 시스템.
  23. 제12항에 있어서, 상기 광원들은 LED들을 포함하는 피드백 제어된 시스템.
  24. 제12항에 있어서, 상기 카메라는 CCD 및 CMOS 검출기 중 하나를 포함하는 피드백 제어된 시스템.
  25. 제12항에 있어서, 전자 디스플레이를 더 포함하고, 상기 카메라 및 광원들은, 상기 카메라 및 광원들이 상기 전자 디스플레이를 보는 사람의 얼굴을 향해 지향되도록 상기 디스플레이에 대해 장착되는 피드백 제어된 시스템.
  26. 제25항에 있어서, 상기 카메라 및 광원들은 상기 디스플레이에 장착되는 피드백 제어된 시스템.
  27. 제12항에 있어서, 상기 카메라는, 상기 카메라가 차량의 조작자의 얼굴을 향해 지향되도록 상기 차량의 계기판에 장착되는 피드백 제어된 시스템.
  28. 제27항에 있어서, 상기 광원들은, 상기 광원들이 상기 카메라의 시야 내에서 상기 조작자의 얼굴의 각각의 초점 영역들을 우선적으로 조명하기 위해 상기 조작자의 상기 얼굴을 향해 지향되도록, 상기 차량에 장착되는 피드백 제어된 시스템.
  29. 제12항에 있어서, 상기 카메라는 조립 라인 또는 컨베이어 벨트를 따라 이동되는 대상들의 이미지들을 얻기 위해 상기 조립 라인 또는 컨베이어 벨트에 인접한 구조에 장착되는 피드백 제어된 시스템.
  30. 제12항에 있어서, 상기 카메라는 저장 영역에 위치한 대상들의 이미지들을 얻기 위해 복수의 저장 영역에 인접한 구조에 장착되는 피드백 제어된 시스템.
  31. 제30항에 있어서, 상기 광원들은 상기 카메라의 시야 내에서 상기 저장 영역들의 각각의 초점 영역들을 우선적으로 조명하기 위해 상기 저장 영역들에 인접하여 장착되는 피드백 제어된 시스템.
  32. 제31항에 있어서, 상기 프로세서는, 상기 시야 내에 실질적으로 균일한 밝기 수준을 제공하도록, 상기 각각의 초점 영역들 내의 평균 밝기에 기초하여 상기 광원들을 변조하기 위해 상기 광원들에 연결되는 피드백 제어된 시스템.
  33. 제31항에 있어서, 상기 프로세서는, 상기 시야 내에서 가변 밝기 수준을 제공하도록 상기 각각의 초점 영역들 내의 평균 밝기에 기초하여 상기 광원들을 변조하기 위해 상기 광원들에 연결되는 피드백 제어된 시스템.
  34. 제33항에 있어서, 상기 프로세서는, 다른 초점 영역들보다 상기 카메라로부터 더 멀리 있는 초점 영역들에 대해 더 큰 밝기 수준을 제공하도록 상기 광원들을 변조하기 위해 상기 광원들에 연결되는 피드백 제어된 시스템.
  35. 사람의 제1 눈의 조명을 제어하기 위한 방법으로서,
    사람의 제1 눈이 카메라의 시야 내에 놓이도록 사람의 얼굴을 향해 상기 카메라를 배치시키는 단계;
    상기 제1 눈의 주위 및 상기 카메라의 시야 내에서 상기 사람의 얼굴의 각각의 초점 영역들을 우선적으로 조명하는 복수의 광원으로 상기 사람의 얼굴의 적어도 일부를 조명하는 단계;
    상기 카메라를 사용하여 상기 광원들의 각각의 초점 영역들들에서 밝기를 샘플링하는 단계; 및
    상기 각각의 초점 영역들 내에 원하는 밝기 수준들을 제공하기 위해 샘플링된 밝기에 적어도 부분적으로 기초하여 상기 광원들을 변조하는 단계
    를 포함하는 조명 제어 방법.
  36. 제35항에 있어서, 상기 카메라는 사람의 머리에 착용되도록 구성된 디바이스 상에 장착되고, 상기 카메라는 상기 디바이스를 상기 사람의 머리 상에 위치시킴으로써 상기 사람의 얼굴을 향해 배치되어 있는 조명 제어 방법.
  37. 제35항에 있어서, 상기 각각의 초점 영역들 내의 밝기는 상기 카메라에 연결된 컨트롤러를 사용하여 샘플링되고, 상기 컨트롤러는 상기 샘플링된 밝기에 적어도 부분적으로 기초하여 상기 광원들을 변조하기 위해 상기 광원들에 연결되는 조명 제어 방법.
  38. 제37항에 있어서, 상기 카메라는 사람의 머리에 착용되도록 구성된 디바이스 상에 장착되고, 상기 컨트롤러는 상기 디바이스로부터 멀리 떨어져 위치하는 조명 제어 방법.
  39. 제35항에 있어서, 밝기를 샘플링하는 단계는:
    제1 광원에 의해 조명되는 상기 카메라의 시야 내에서 제1 초점 영역에 대응하는 상기 카메라의 다수의 픽셀로부터의 밝기를 샘플링하는 단계; 및
    상기 제1 광원에 의해 제공된 평균 밝기를 결정하는 단계
    를 포함하고,
    상기 광원들을 변조하는 단계는, 결정된 평균 밝기에 적어도 부분적으로 기초하여 상기 제1 초점 영역 내에 원하는 밝기 수준을 제공하기 위해 상기 제1 광원을 변조하는 단계를 포함하는 조명 제어 방법.
  40. 제35항에 있어서, 상기 광원들을 변조하는 단계는, 상기 각각의 초점 영역들 내에 상기 원하는 밝기 수준들을 제공하기 위해 상기 광원들로의 전류 및 전압 중 적어도 하나의 진폭들을 수정하는 단계를 포함하는 조명 제어 방법.
  41. 제35항에 있어서, 상기 광원들을 변조하는 단계는, 상기 각각의 초점 영역들 내에 상기 원하는 밝기 수준들을 제공하기 위해 상기 광원들로의 전류 및 전압 중 적어도 하나의 펄스폭들을 수정하는 단계를 포함하는 조명 제어 방법.
  42. 제35항에 있어서, 상기 광원들은 상기 카메라의 시야 내에 실질적으로 균일한 밝기를 제공하도록 변조되는 조명 제어 방법.
  43. 제35항에 있어서, 상기 카메라를 사용하여 상기 제1 눈의 이미지들을 모니터링하는 단계를 더 포함하는 조명 제어 방법.
  44. 제43항에 있어서, 상기 제1 눈의 이미지들은: a) 상기 사람의 졸림(drowsiness)의 레벨을 결정하는 것, b) 전자 디바이스를 적어도 부분적으로 제어하는 것, 및 c) 상기 사람으로부터의 바이오피드백(biofeedback)을 제공하는 것 중 적어도 하나를 위해 모니터링되는 조명 제어 방법.
  45. 장면의 조명을 제어하기 위한 방법으로서,
    상기 장면 내의 하나 이상의 대상들이 카메라의 시야 내에 있도록 상기 카메라를 상기 장면 쪽으로 향하게 하는 단계;
    상기 카메라의 시야 내에 있는 각각의 초점 영역들을 우선적으로 조명하는 복수의 광원으로 상기 장면을 조명하는 단계;
    상기 카메라를 사용하여 상기 광원들의 상기 각각의 초점 영역들에서 밝기를 샘플링하는 단계; 및
    상기 각각의 초점 영역들 내에 원하는 밝기 수준들을 제공하기 위해 샘플링된 밝기에 적어도 부분적으로 기초하여 상기 광원들을 변조하는 단계
    를 포함하는 조명 제어 방법.
  46. 제45항에 있어서, 상기 장면은 사람의 얼굴의 적어도 일부를 포함하고, 상기 하나 이상의 대상들은 상기 사람의 적어도 하나의 눈을 포함하는 조명 제어 방법.
  47. 제45항에 있어서, 상기 카메라는 상기 사람의 머리 위의 디바이스 상에 장착되는 조명 제어 방법.
  48. 제45항에 있어서, 상기 복수의 광원은 상기 사람의 머리 위의 디바이스 상에 장착되는 조명 제어 방법.
  49. 제45항에 있어서, 상기 카메라는 상기 사람의 머리에서 멀리 떨어진 위치에 장착되는 조명 제어 방법.
  50. 제45항에 있어서, 상기 복수의 광원은 상기 사람의 머리에서 멀리 떨어져 장착되는 조명 제어 방법.
  51. 제45항에 있어서, 상기 각각의 초점 영역들에서의 밝기는 상기 카메라에 연결된 컨트롤러를 사용하여 샘플링되고, 상기 컨트롤러는, 상기 샘플링된 밝기에 적어도 부분적으로 기초하여 상기 광원들을 변조하기 위해 상기 광원들에 연결되는 조명 제어 방법.
  52. 제45항에 있어서, 밝기를 샘플링하는 단계는:
    제1 광원에 의해 조명되는 상기 카메라의 시야 내에서 제1 초점 영역에 대응하는 상기 카메라의 다수의 픽셀로부터의 밝기를 샘플링하는 단계; 및
    상기 다수의 픽셀로부터 샘플링된 밝기로부터 상기 제1 광원에 의해 제공된 평균 밝기를 결정하는 단계
    를 포함하고,
    상기 광원들을 변조하는 단계는, 결정된 평균 밝기에 적어도 부분적으로 기초하여 상기 제1 초점 영역 내에 원하는 밝기 수준을 제공하기 위해 상기 제1 광원을 변조하는 단계를 포함하는 조명 제어 방법.
  53. 제52항에 있어서, 밝기를 샘플링하는 단계는:
    제2 광원에 의해 조명되는 상기 카메라의 시야 내에서 제2 초점 영역에 대응하는 상기 카메라의 다수의 픽셀로부터의 밝기를 샘플링하는 단계; 및
    상기 제2 광원에 의해 제공된 평균 밝기를 결정하는 단계
    를 더 포함하고,
    상기 광원들을 변조하는 단계는, 상기 결정된 평균 밝기에 적어도 부분적으로 기초하여 상기 제2 초점 영역 내에 원하는 밝기 수준을 제공하기 위해 상기 제2 광원을 변조하는 단계를 포함하는 조명 제어 방법.
  54. 제45항에 있어서, 상기 광원을 변조하는 단계는, 상기 각각의 초점 영역들 내에 상기 원하는 밝기 수준들을 제공하기 위해 상기 광원들로의 전류 및 전압 중 적어도 하나의 진폭들을 수정하는 단계를 포함하는 조명 제어 방법.
  55. 제45항에 있어서, 상기 광원들을 변조하는 단계는, 상기 각각의 초점 영역들 내에 상기 원하는 밝기 수준들을 제공하기 위해 상기 광원들로의 전류 및 전압 중 적어도 하나의 펄스폭들을 수정하는 단계를 포함하는 조명 제어 방법.
  56. 제45항에 있어서, 상기 광원들은 상기 카메라의 시야 내에서 실질적으로 균일한 밝기를 제공하기 위해 변조되는 조명 제어 방법.
  57. 제45항에 있어서, 상기 광원들은 상기 카메라의 시야의 상이한 부분들 내에 변하는 미리 결정된 밝기를 제공하기 위해 변조되는 조명 제어 방법.
  58. 제45항에 있어서, 상기 카메라 및 광원들은, 상기 카메라 및 광원들이 전자 디스플레이를 보는 사람의 얼굴을 향해 지향되도록 전자 디스플레이에 대해 장착되고, 상기 광원들은 상기 카메라의 시야 내에서 상기 사람의 얼굴의 각각의 초점 영역들에 원하는 밝기 수준들을 제공하기 위해 변조되는 조명 제어 방법.
  59. 제45항에 있어서, 상기 카메라는, 상기 카메라가 차량의 조작자의 얼굴을 향해 지향되도록 상기 차량의 계기판에 장착되는 조명 제어 방법.
  60. 제59항에 있어서, 상기 광원들은, 상기 광원들이 상기 카메라의 시야 내에서 상기 조작자의 얼굴의 각각의 초점 영역들을 우선적으로 조명하기 위해 상기 조작자의 상기 얼굴을 향해 지향되도록, 상기 차량에 장착되는 조명 제어 방법.
  61. 제45항에 있어서, 상기 카메라는 조립 라인 또는 컨베이어 벨트를 따라 이동하는 대상들의 이미지들을 얻기 위해 상기 조립 라인 또는 컨베이어 벨트 쪽으로 향하는 조명 제어 방법.
  62. 제45항에 있어서, 상기 카메라는 복수의 저장 영역 내에 위치한 대상들의 이미지들을 얻기 위해 상기 저장 영역 쪽으로 향하는 조명 제어 방법.
  63. 제62항에 있어서, 상기 광원들은 상기 카메라의 시야 내에서 상기 저장 영역들의 각각의 초점 영역들을 우선적으로 조명하기 위해 상기 저장 영역들 쪽으로 향하는 조명 제어 방법.
  64. 제63항에 있어서, 상기 광원들은 상기 시야 내에 실질적으로 균일한 밝기 수준을 제공하기 위해 변조되는 조명 제어 방법.
  65. 제63항에 있어서, 상기 광원들은 상기 시야 내에서 가변 밝기 수준을 제공하기 위해 변조되는 조명 제어 방법.
  66. 제65항에 있어서, 상기 광원들은 다른 초점 영역들보다 상기 카메라로부터 더 멀리 있는 초점 영역들에 대해 더 큰 밝기 수준을 제공하기 위해 변조되는 조명 제어 방법.
  67. 제45항에 있어서, 상기 카메라를 사용하여 상기 카메라의 시야의 이미지들을 획득하는 단계를 더 포함하고, 상기 광원들의 상기 각각의 초점 영역들 내의 밝기는 상기 카메라를 사용하여 획득된 이미지들로부터 샘플링되는 조명 제어 방법.
  68. 제67항에 있어서, 광원들은, 상기 카메라가 이미지들을 획득하고 있지 않을 때 비활성화되는 조명 제어 방법.
  69. 제45항에 있어서, 상기 카메라를 사용하여 상기 카메라의 시야의 이미지들을 획득하는 단계를 더 포함하고, 상기 광원들의 상기 각각의 초점 영역들 내의 밝기는 상기 카메라를 사용하여 획득된 이미지들로부터 별도로 샘플링되는 조명 제어 방법.
  70. 제69항에 있어서, 광원들은 단지 상기 카메라가 이미지들을 획득하고 있는 기간들 동안 및 상기 광원들의 상기 각각의 초점 영역들 내의 밝기가 샘플링되는 기간들 동안에만 활성화되는 조명 제어 방법.
KR1020127025691A 2010-03-01 2011-03-01 공간적으로 제어된 장면 조명을 위한 시스템 및 방법 KR101829850B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/715,177 US8890946B2 (en) 2010-03-01 2010-03-01 Systems and methods for spatially controlled scene illumination
US12/715,177 2010-03-01
PCT/US2011/026736 WO2011149577A2 (en) 2010-03-01 2011-03-01 Systems and methods for spatially controlled scene illumination

Publications (2)

Publication Number Publication Date
KR20130058665A true KR20130058665A (ko) 2013-06-04
KR101829850B1 KR101829850B1 (ko) 2018-03-29

Family

ID=44505076

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020127025691A KR101829850B1 (ko) 2010-03-01 2011-03-01 공간적으로 제어된 장면 조명을 위한 시스템 및 방법

Country Status (8)

Country Link
US (2) US8890946B2 (ko)
EP (1) EP2543187B1 (ko)
JP (1) JP2013521710A (ko)
KR (1) KR101829850B1 (ko)
CN (1) CN102918834B (ko)
AU (1) AU2011258826A1 (ko)
RU (1) RU2012141574A (ko)
WO (1) WO2011149577A2 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022265201A1 (ko) * 2021-06-18 2022-12-22 삼성전자 주식회사 생체 라이브니스 인증 방법 및 전자 장치

Families Citing this family (138)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8730156B2 (en) 2010-03-05 2014-05-20 Sony Computer Entertainment America Llc Maintaining multiple views on a shared stable virtual space
US9250703B2 (en) 2006-03-06 2016-02-02 Sony Computer Entertainment Inc. Interface with gaze detection and voice input
US9158116B1 (en) 2014-04-25 2015-10-13 Osterhout Group, Inc. Temple and ear horn assembly for headworn computer
US9715112B2 (en) 2014-01-21 2017-07-25 Osterhout Group, Inc. Suppression of stray light in head worn computing
US9366867B2 (en) 2014-07-08 2016-06-14 Osterhout Group, Inc. Optical systems for see-through displays
US9400390B2 (en) 2014-01-24 2016-07-26 Osterhout Group, Inc. Peripheral lighting for head worn computing
KR101383235B1 (ko) * 2010-06-17 2014-04-17 한국전자통신연구원 시선 추적을 이용한 좌표 입력 장치 및 그 방법
WO2012011181A1 (ja) * 2010-07-22 2012-01-26 富士通株式会社 静脈撮像装置
US20130154913A1 (en) * 2010-12-16 2013-06-20 Siemens Corporation Systems and methods for a gaze and gesture interface
US10120438B2 (en) * 2011-05-25 2018-11-06 Sony Interactive Entertainment Inc. Eye gaze to alter device behavior
RU2621633C2 (ru) 2011-10-28 2017-06-06 Мэджик Лип, Инк. Система и способ для дополненной и виртуальной реальности
TWI471808B (zh) * 2012-07-20 2015-02-01 Pixart Imaging Inc 瞳孔偵測裝置
US9854159B2 (en) 2012-07-20 2017-12-26 Pixart Imaging Inc. Image system with eye protection
TW201416908A (zh) 2012-10-23 2014-05-01 Pixart Imaging Inc 瞳孔追蹤裝置
CN103793045B (zh) * 2012-10-31 2016-12-28 原相科技股份有限公司 瞳孔追踪装置
EP2929413B1 (en) 2012-12-06 2020-06-03 Google LLC Eye tracking wearable devices and methods for use
US8761594B1 (en) 2013-02-28 2014-06-24 Apple Inc. Spatially dynamic illumination for camera systems
US9788906B2 (en) 2013-03-15 2017-10-17 Synaptive Medical (Barbados) Inc. Context aware surgical systems for intraoperatively configuring imaging devices
US10063782B2 (en) * 2013-06-18 2018-08-28 Motorola Solutions, Inc. Method and apparatus for displaying an image from a camera
US9665172B2 (en) * 2013-09-03 2017-05-30 Tobii Ab Portable eye tracking device
US10686972B2 (en) 2013-09-03 2020-06-16 Tobii Ab Gaze assisted field of view control
US10310597B2 (en) 2013-09-03 2019-06-04 Tobii Ab Portable eye tracking device
TWI532413B (zh) * 2013-09-11 2016-05-01 晶睿通訊股份有限公司 照明補光系統及方法
US9736373B2 (en) * 2013-10-25 2017-08-15 Intel Corporation Dynamic optimization of light source power
US10684687B2 (en) 2014-12-03 2020-06-16 Mentor Acquisition One, Llc See-through computer display systems
US10254856B2 (en) 2014-01-17 2019-04-09 Osterhout Group, Inc. External user interface for head worn computing
US20150228119A1 (en) 2014-02-11 2015-08-13 Osterhout Group, Inc. Spatial location presentation in head worn computing
US9829707B2 (en) 2014-08-12 2017-11-28 Osterhout Group, Inc. Measuring content brightness in head worn computing
US10649220B2 (en) 2014-06-09 2020-05-12 Mentor Acquisition One, Llc Content presentation in head worn computing
US9594246B2 (en) 2014-01-21 2017-03-14 Osterhout Group, Inc. See-through computer display systems
US11669163B2 (en) 2014-01-21 2023-06-06 Mentor Acquisition One, Llc Eye glint imaging in see-through computer display systems
US11892644B2 (en) 2014-01-21 2024-02-06 Mentor Acquisition One, Llc See-through computer display systems
US11487110B2 (en) 2014-01-21 2022-11-01 Mentor Acquisition One, Llc Eye imaging in head worn computing
US11737666B2 (en) 2014-01-21 2023-08-29 Mentor Acquisition One, Llc Eye imaging in head worn computing
US9753288B2 (en) 2014-01-21 2017-09-05 Osterhout Group, Inc. See-through computer display systems
US9846308B2 (en) 2014-01-24 2017-12-19 Osterhout Group, Inc. Haptic systems for head-worn computers
US20160018653A1 (en) 2014-01-24 2016-01-21 Osterhout Group, Inc. See-through computer display systems
US20170090557A1 (en) * 2014-01-29 2017-03-30 Google Inc. Systems and Devices for Implementing a Side-Mounted Optical Sensor
US9396571B2 (en) * 2014-02-10 2016-07-19 International Business Machines Corporation Simplified lighting compositing
US9651787B2 (en) 2014-04-25 2017-05-16 Osterhout Group, Inc. Speaker assembly for headworn computer
US10853589B2 (en) 2014-04-25 2020-12-01 Mentor Acquisition One, Llc Language translation with head-worn computing
US20160137312A1 (en) 2014-05-06 2016-05-19 Osterhout Group, Inc. Unmanned aerial vehicle launch system
US10564714B2 (en) 2014-05-09 2020-02-18 Google Llc Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects
JP2017527036A (ja) 2014-05-09 2017-09-14 グーグル インコーポレイテッド セキュアなモバイル通信で眼信号を用いるためのシステムおよび方法
US10663740B2 (en) 2014-06-09 2020-05-26 Mentor Acquisition One, Llc Content presentation in head worn computing
JP2016032257A (ja) * 2014-07-30 2016-03-07 株式会社デンソー ドライバ監視装置
US9942966B2 (en) * 2014-09-25 2018-04-10 Philips Lighting Holding B.V. Control of lighting
EP3226554B1 (en) * 2014-11-27 2019-07-17 Kyocera Corporation Imaging device and vehicle
US9635231B2 (en) 2014-12-22 2017-04-25 Google Inc. Time-of-flight camera system and method to improve measurement quality of weak field-of-view signal regions
US9674415B2 (en) 2014-12-22 2017-06-06 Google Inc. Time-of-flight camera system with scanning illuminator
US10878775B2 (en) 2015-02-17 2020-12-29 Mentor Acquisition One, Llc See-through computer display systems
WO2016156586A1 (en) * 2015-04-02 2016-10-06 Essilor International (Compagnie Generale D'optique) A method for updating an index of a person
US10444505B2 (en) * 2015-04-10 2019-10-15 Essilor International Head mounted display device
IL255713B (en) 2015-05-19 2022-09-01 Magic Leap Inc Dual integrated light field device
US11003246B2 (en) 2015-07-22 2021-05-11 Mentor Acquisition One, Llc External user interface for head worn computing
US10139966B2 (en) 2015-07-22 2018-11-27 Osterhout Group, Inc. External user interface for head worn computing
EP3353751A4 (en) 2015-09-24 2019-03-20 California Institute of Technology SYSTEMS AND METHODS FOR VISUALIZING DATA USING THREE DIMENSIONAL DISPLAY DEVICES
CN108369364B (zh) 2015-11-10 2021-07-16 亮锐控股有限公司 自适应光源
CN106814518A (zh) * 2015-12-01 2017-06-09 深圳富泰宏精密工业有限公司 自动对焦拍照系统及电子装置
US10480937B2 (en) * 2016-01-28 2019-11-19 Manatec Electronics Pvt. Ltd. System for simultaneous measurement of wheel alignment angles and wheel runout of multi-axle vehicles
US10850116B2 (en) 2016-12-30 2020-12-01 Mentor Acquisition One, Llc Head-worn therapy device
US10591728B2 (en) 2016-03-02 2020-03-17 Mentor Acquisition One, Llc Optical systems for head-worn computers
US10667981B2 (en) 2016-02-29 2020-06-02 Mentor Acquisition One, Llc Reading assistance system for visually impaired
US9880441B1 (en) 2016-09-08 2018-01-30 Osterhout Group, Inc. Electrochromic systems for head-worn computer systems
US9826299B1 (en) 2016-08-22 2017-11-21 Osterhout Group, Inc. Speaker systems for head-worn computer systems
US10466491B2 (en) 2016-06-01 2019-11-05 Mentor Acquisition One, Llc Modular systems for head-worn computers
US10084979B2 (en) 2016-07-29 2018-09-25 International Business Machines Corporation Camera apparatus and system, method and recording medium for indicating camera field of view
KR102548199B1 (ko) * 2016-08-03 2023-06-28 삼성전자주식회사 전자 장치 및 전자 장치의 시선 추적 방법
CN106128406B (zh) * 2016-09-08 2019-01-22 京东方科技集团股份有限公司 眼图幅值调节方法、数据传输方法、电路和显示装置
US10925479B2 (en) * 2016-10-13 2021-02-23 Ronald Michael Kurtz Networked system of mobile communication platforms for nonpharmacologic constriction of a pupil
US10580234B2 (en) 2017-01-20 2020-03-03 Adesa, Inc. Vehicle documentation system
US10302764B2 (en) * 2017-02-03 2019-05-28 Microsoft Technology Licensing, Llc Active illumination management through contextual information
CN108507636B (zh) * 2017-02-27 2020-11-20 深圳市朗驰欣创科技股份有限公司 一种通道积水情况的检测方法、巡检装置及水位检测设备
US10977858B2 (en) 2017-03-30 2021-04-13 Magic Leap, Inc. Centralized rendering
KR102451702B1 (ko) 2017-03-30 2022-10-05 매직 립, 인코포레이티드 비차단 이중 드라이버 이어폰들
JP7211966B2 (ja) 2017-04-14 2023-01-24 マジック リープ, インコーポレイテッド マルチモーダル眼追跡
US10295827B1 (en) * 2017-04-27 2019-05-21 Facebook Technologies, Llc Diffractive optics beam shaping for structured light generator
US11079522B1 (en) 2017-05-31 2021-08-03 Magic Leap, Inc. Fiducial design
US10578869B2 (en) 2017-07-24 2020-03-03 Mentor Acquisition One, Llc See-through computer display systems with adjustable zoom cameras
US10422995B2 (en) 2017-07-24 2019-09-24 Mentor Acquisition One, Llc See-through computer display systems with stray light management
US11409105B2 (en) 2017-07-24 2022-08-09 Mentor Acquisition One, Llc See-through computer display systems
WO2019026925A1 (ja) * 2017-08-01 2019-02-07 パナソニックIpマネジメント株式会社 個人認証装置
US10969584B2 (en) 2017-08-04 2021-04-06 Mentor Acquisition One, Llc Image expansion optic for head-worn computer
IL297445B2 (en) 2017-10-17 2024-03-01 Magic Leap Inc Spatial audio for mixed reality
WO2019154510A1 (en) 2018-02-09 2019-08-15 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
WO2019154509A1 (en) 2018-02-09 2019-08-15 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
EP3750029A1 (en) 2018-02-09 2020-12-16 Pupil Labs GmbH Devices, systems and methods for predicting gaze-related parameters using a neural network
IL276511B2 (en) 2018-02-15 2024-01-01 Magic Leap Inc Musical instruments in mixed reality
CA3090281A1 (en) 2018-02-15 2019-08-22 Magic Leap, Inc. Dual listener positions for mixed reality
CN111713091A (zh) 2018-02-15 2020-09-25 奇跃公司 混合现实虚拟混响
CN112119340B (zh) * 2018-04-18 2022-07-12 金泰克斯公司 外科显微镜中受限视场的照明
WO2019200434A1 (en) 2018-04-19 2019-10-24 Seeing Machines Limited Infrared light source protective system
WO2019221767A1 (en) 2018-05-14 2019-11-21 Virtualitics, Inc. Systems and methods for high dimensional 3d data visualization
US10509467B1 (en) * 2018-06-01 2019-12-17 Facebook Technologies, Llc Determining fixation of a user's eyes from images of portions of the user's face enclosed by a head mounted display
US10667072B2 (en) 2018-06-12 2020-05-26 Magic Leap, Inc. Efficient rendering of virtual soundfields
WO2019241754A1 (en) 2018-06-14 2019-12-19 Magic Leap, Inc. Reverberation gain normalization
WO2019241760A1 (en) 2018-06-14 2019-12-19 Magic Leap, Inc. Methods and systems for audio signal filtering
CN116156410A (zh) 2018-06-18 2023-05-23 奇跃公司 用于交互式音频环境的空间音频
WO2019246562A1 (en) 2018-06-21 2019-12-26 Magic Leap, Inc. Wearable system speech processing
JP2021531699A (ja) 2018-07-24 2021-11-18 マジック リープ, インコーポレイテッドMagic Leap, Inc. アプリケーション共有
US10506681B1 (en) 2018-08-09 2019-12-10 Distech Controls Inc. Environment controller and method for proportionally adjusting the light intensity of several lighting devices
CN113168007B (zh) 2018-09-25 2023-09-15 奇跃公司 用于增强现实的系统和方法
CN113170253B (zh) 2018-10-05 2024-03-19 奇跃公司 用于音频空间化的加重
US11122383B2 (en) 2018-10-05 2021-09-14 Magic Leap, Inc. Near-field audio rendering
CN113168526A (zh) 2018-10-09 2021-07-23 奇跃公司 用于虚拟和增强现实的系统和方法
CN113227935A (zh) 2018-10-24 2021-08-06 奇跃公司 异步asic
CN111127537A (zh) * 2018-10-29 2020-05-08 托比股份公司 用于检测头戴式装置中的阴影的方法和装置
CN112996423A (zh) * 2018-11-07 2021-06-18 索尼集团公司 图像获取系统和图像获取方法
US11104279B2 (en) * 2018-11-26 2021-08-31 Magna Electronics Solutions Gmbh Vehicle vision system with adaptive reversing light
US11221814B2 (en) 2018-12-27 2022-01-11 Magic Leap, Inc. Systems and methods for virtual and augmented reality
WO2020147948A1 (en) 2019-01-16 2020-07-23 Pupil Labs Gmbh Methods for generating calibration data for head-wearable devices and eye tracking system
EP3931827A4 (en) 2019-03-01 2022-11-02 Magic Leap, Inc. INPUT DETERMINATION FOR A VOICE PROCESSING ENGINE
WO2020244752A1 (en) 2019-06-05 2020-12-10 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
US11151766B2 (en) 2019-06-06 2021-10-19 Magic Leap, Inc. Photoreal character configurations for spatial computing
CA3136749A1 (en) * 2019-06-11 2020-12-17 Gentex Corporation Wearable medical device
US11328740B2 (en) 2019-08-07 2022-05-10 Magic Leap, Inc. Voice onset detection
US11704874B2 (en) 2019-08-07 2023-07-18 Magic Leap, Inc. Spatial instructions and guides in mixed reality
CN110490017B (zh) * 2019-08-08 2022-02-22 广东斯玛特自动化科技有限公司 一种用于扫码机的照明方法及装置
EP4046138A4 (en) 2019-10-18 2022-12-07 Magic Leap, Inc. GRAVITY ESTIMATION AND BUNDLE ADJUSTMENT FOR VISUAL INERTIAL ODOMETRY
CN114586382A (zh) 2019-10-25 2022-06-03 奇跃公司 混响指纹估计
WO2021113782A1 (en) 2019-12-04 2021-06-10 Magic Leap, Inc. Variable-pitch color emitting display
EP4070284A4 (en) 2019-12-06 2023-05-24 Magic Leap, Inc. ENVIRONMENTAL ACOUSTIC PERSISTENCE
JP2023504207A (ja) 2019-12-09 2023-02-01 マジック リープ, インコーポレイテッド ユーザ識別に基づいて頭部搭載型ディスプレイシステムを動作させるためのシステムおよび方法
US11337023B2 (en) 2019-12-20 2022-05-17 Magic Leap, Inc. Physics-based audio and haptic synthesis
EP4104002A4 (en) 2020-02-14 2023-08-09 Magic Leap, Inc. 3D OBJECT ANNOTATION
CN117827004A (zh) 2020-02-14 2024-04-05 奇跃公司 会话管理器
WO2021163382A1 (en) 2020-02-14 2021-08-19 Magic Leap, Inc. Multi-application audio rendering
US11778410B2 (en) 2020-02-14 2023-10-03 Magic Leap, Inc. Delayed audio following
EP4104000A4 (en) 2020-02-14 2023-07-12 Magic Leap, Inc. TOOL BRIDGE
US11205069B1 (en) * 2020-02-20 2021-12-21 Facebook Technologies, Llc Hybrid cornea and pupil tracking
JP2023515886A (ja) 2020-03-02 2023-04-14 マジック リープ, インコーポレイテッド 没入型のオーディオプラットフォーム
US11917384B2 (en) 2020-03-27 2024-02-27 Magic Leap, Inc. Method of waking a device using spoken voice commands
US11636843B2 (en) 2020-05-29 2023-04-25 Magic Leap, Inc. Surface appropriate collisions
CN116210021A (zh) 2020-05-29 2023-06-02 奇跃公司 确定角加速度
US11645844B2 (en) * 2021-10-05 2023-05-09 RS1 Worklete, LLC Computing devices programmed to detect slippery surfaces within enclosures and methods/systems of used thereof
US11592899B1 (en) 2021-10-28 2023-02-28 Tectus Corporation Button activation within an eye-controlled user interface
US11619994B1 (en) 2022-01-14 2023-04-04 Tectus Corporation Control of an electronic contact lens using pitch-based eye gestures
US11874961B2 (en) 2022-05-09 2024-01-16 Tectus Corporation Managing display of an icon in an eye tracking augmented reality device

Family Cites Families (129)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3689135A (en) * 1971-01-26 1972-09-05 Laurence R Young Method for monitoring movement of a subject{40 s eyes
US3863243A (en) * 1972-01-19 1975-01-28 Max Skolnick Sleep inhibiting alarm
US3798599A (en) * 1972-02-24 1974-03-19 H Kafafian Single input controller for a communication system
US3966310A (en) * 1974-02-15 1976-06-29 Larson Merlin D Pupillometer and method of use thereof
US4102564A (en) * 1975-04-18 1978-07-25 Michael Henry L Portable device for the accurate measurement of eye movements both in light and obscurity
US4359724A (en) * 1980-04-28 1982-11-16 Ronald R. Zimmerman Eyelid movement detector
EP0125808A3 (en) 1983-04-18 1986-01-29 Lee S. Weinblatt Eye movement monitoring technique
JPS6332624A (ja) * 1986-07-28 1988-02-12 Canon Inc 情報処理装置
EP0280124A1 (en) * 1987-02-12 1988-08-31 Omron Tateisi Electronics Co. Doze detector
US4850691A (en) * 1987-03-18 1989-07-25 University Of Illinois Method and apparatus for determining pupillary response parameters
US4815839A (en) * 1987-08-03 1989-03-28 Waldorf Ronald A Infrared/video electronystagmographic apparatus
JPH01312902A (ja) * 1988-06-13 1989-12-18 Konan Camera Kenkyusho:Kk 眼球運動検査装置
US4852988A (en) * 1988-09-12 1989-08-01 Applied Science Laboratories Visor and camera providing a parallax-free field-of-view image for a head-mounted eye movement measurement system
JPH02164335A (ja) * 1988-12-16 1990-06-25 Konan Camera Kenkyusho:Kk 眼球運動解析装置
GB8916206D0 (en) * 1989-07-14 1989-11-08 Marconi Gec Ltd Helmet systems
US4967186A (en) * 1989-08-18 1990-10-30 Ariold Ludmirsky Method and apparatus for fatigue detection
US5778893A (en) * 1991-04-01 1998-07-14 President And Fellows Of Harvard College Method of diagnosing and monitoring a treatment for Alzheimer's disease
US5189512A (en) 1991-07-01 1993-02-23 Camair Research, Inc. Helmet integrated display system
US5183512A (en) * 1991-08-29 1993-02-02 Aquotech, Inc. Method of cleaning semiconductor wafer and computer disks by purified water treated with electric AC signal
WO1995018565A1 (en) * 1991-09-26 1995-07-13 Sam Technology, Inc. Non-invasive neurocognitive testing method and system
US5214456A (en) * 1991-10-09 1993-05-25 Computed Anatomy Incorporated Mapping of corneal topography with display of pupil perimeter
US5583590A (en) * 1992-05-04 1996-12-10 Wabash Scientific Corp. Alert monitoring system
US5341181A (en) * 1992-11-20 1994-08-23 Godard Roger R Systems and methods for capturing and presentng visual information
US5345281A (en) * 1992-12-17 1994-09-06 John Taboada Eye tracking system and method
US5461417A (en) * 1993-02-16 1995-10-24 Northeast Robotics, Inc. Continuous diffuse illumination method and apparatus
US5402109A (en) * 1993-04-29 1995-03-28 Mannik; Kallis H. Sleep prevention device for automobile drivers
GB9323970D0 (en) 1993-11-22 1994-01-12 Toad Innovations Ltd Safety device
US5478239A (en) * 1993-12-21 1995-12-26 Maximum Performance, Inc. Dynamic visual acuity training method and apparatus
US5481622A (en) * 1994-03-01 1996-01-02 Rensselaer Polytechnic Institute Eye tracking apparatus and method employing grayscale threshold values
JP3293308B2 (ja) * 1994-03-10 2002-06-17 三菱電機株式会社 人物状態検出装置
JPH086708A (ja) * 1994-04-22 1996-01-12 Canon Inc 表示装置
US5617872A (en) * 1994-07-25 1997-04-08 Beth Israel Hospitcal Assoc. Inc. Hypersensitive constriction velocity method for diagnosing Alzheimer's disease in a living human
US5469143A (en) * 1995-01-10 1995-11-21 Cooper; David E. Sleep awakening device for drivers of motor vehicles
US5583795A (en) * 1995-03-17 1996-12-10 The United States Of America As Represented By The Secretary Of The Army Apparatus for measuring eye gaze and fixation duration, and method therefor
US5566067A (en) * 1995-03-23 1996-10-15 The President And Fellows Of Harvard College Eyelid vigilance detector system
US5689241A (en) * 1995-04-24 1997-11-18 Clarke, Sr.; James Russell Sleep detection and driver alert apparatus
US5570698A (en) * 1995-06-02 1996-11-05 Siemens Corporate Research, Inc. System for monitoring eyes for detecting sleep behavior
US7738678B2 (en) * 1995-06-07 2010-06-15 Automotive Technologies International, Inc. Light modulation techniques for imaging objects in or around a vehicle
US5682144A (en) * 1995-11-20 1997-10-28 Mannik; Kallis Hans Eye actuated sleep prevention devices and other eye controlled devices
US6003991A (en) * 1996-02-17 1999-12-21 Erik Scott Viirre Eye examination apparatus and method for remote examination of a patient by a health professional
US6373961B1 (en) * 1996-03-26 2002-04-16 Eye Control Technologies, Inc. Eye controllable screen pointer
US5726916A (en) * 1996-06-27 1998-03-10 The United States Of America As Represented By The Secretary Of The Army Method and apparatus for determining ocular gaze point of regard and fixation duration
US5861936A (en) * 1996-07-26 1999-01-19 Gillan Holdings Limited Regulating focus in accordance with relationship of features of a person's eyes
US6542081B2 (en) * 1996-08-19 2003-04-01 William C. Torch System and method for monitoring eye movement
US5748113A (en) * 1996-08-19 1998-05-05 Torch; William C. Method and apparatus for communication
US6163281A (en) * 1996-08-19 2000-12-19 Torch; William C. System and method for communication using eye movement
US6246344B1 (en) * 1996-08-19 2001-06-12 William C. Torch Method and apparatus for voluntary communication
JP3651204B2 (ja) * 1996-12-18 2005-05-25 トヨタ自動車株式会社 立体画像表示装置、立体画像表示方法及び記録媒体
US6070098A (en) * 1997-01-11 2000-05-30 Circadian Technologies, Inc. Method of and apparatus for evaluation and mitigation of microsleep events
WO1998049028A1 (en) 1997-04-25 1998-11-05 Applied Science Group, Inc. An alertness monitor
US5867587A (en) * 1997-05-19 1999-02-02 Northrop Grumman Corporation Impaired operator detection and warning system employing eyeblink analysis
US5956125A (en) * 1997-06-19 1999-09-21 Bioprobes, Inc. System and method for screening for dementia
US6007202A (en) * 1997-10-23 1999-12-28 Lasersight Technologies, Inc. Eye illumination system and method
CA2307877C (en) * 1997-10-30 2005-08-30 The Microoptical Corporation Eyeglass interface system
US6611618B1 (en) * 1997-11-13 2003-08-26 Schepens Eye Research Institute, Inc. Wide-band image enhancement
US6055322A (en) * 1997-12-01 2000-04-25 Sensor, Inc. Method and apparatus for illuminating and imaging eyes through eyeglasses using multiple sources of illumination
JP3361980B2 (ja) * 1997-12-12 2003-01-07 株式会社東芝 視線検出装置及びその方法
US6088470A (en) * 1998-01-27 2000-07-11 Sensar, Inc. Method and apparatus for removal of bright or dark spots by the fusion of multiple images
DE19803158C1 (de) * 1998-01-28 1999-05-06 Daimler Chrysler Ag Vorrichtung zur Vigilanzzustandsbestimmung
US6152563A (en) * 1998-02-20 2000-11-28 Hutchinson; Thomas E. Eye gaze direction tracker
US6003992A (en) * 1998-06-02 1999-12-21 Northeast Robotics Llc Back lighting illumination system
US6091378A (en) * 1998-06-17 2000-07-18 Eye Control Technologies, Inc. Video processing methods and apparatus for gaze point tracking
US6867752B1 (en) 1998-08-31 2005-03-15 Semiconductor Energy Laboratory Co., Ltd. Portable information processing system
US6087941A (en) * 1998-09-01 2000-07-11 Ferraz; Mark Warning device for alerting a person falling asleep
JP2000137792A (ja) 1998-10-30 2000-05-16 Toyota Motor Corp 眼部検出装置
US6433760B1 (en) * 1999-01-14 2002-08-13 University Of Central Florida Head mounted display with eyetracking capability
US7120880B1 (en) * 1999-02-25 2006-10-10 International Business Machines Corporation Method and system for real-time determination of a subject's interest level to media content
CA2363138C (en) * 1999-03-01 2010-05-18 Bae Systems Electronics Limited Head tracker system
US6090051A (en) * 1999-03-03 2000-07-18 Marshall; Sandra P. Method and apparatus for eye tracking and monitoring pupil dilation to evaluate cognitive activity
US20020024633A1 (en) * 1999-04-09 2002-02-28 Daehoon Kim Pupil evaluation system
US6247813B1 (en) * 1999-04-09 2001-06-19 Iritech, Inc. Iris identification system and method of identifying a person through iris recognition
US6820979B1 (en) * 1999-04-23 2004-11-23 Neuroptics, Inc. Pupilometer with pupil irregularity detection, pupil tracking, and pupil response detection capability, glaucoma screening capability, intracranial pressure detection capability, and ocular aberration measurement capability
US6116736A (en) * 1999-04-23 2000-09-12 Neuroptics, Inc. Pupilometer with pupil irregularity detection capability
US6346887B1 (en) * 1999-09-14 2002-02-12 The United States Of America As Represented By The Secretary Of The Navy Eye activity monitor
GB0023172D0 (en) 2000-09-20 2000-11-01 Minter Kemp Martin J Wakeup vizor
JP2002143094A (ja) 2000-11-07 2002-05-21 Nac Image Technology Inc 視線検出装置
US6864473B2 (en) * 2000-12-07 2005-03-08 The United States Of America As Represented By The United States National Aeronautics And Space Administration Dynamic optical filtration
US6634553B2 (en) * 2001-03-21 2003-10-21 Hewlett-Packard Development Company, L.P. Method and apparatus for even illumination of a target for image capture
JP3812355B2 (ja) * 2001-03-22 2006-08-23 日産自動車株式会社 運転注意力検出装置および居眠り運転検出装置
US6578962B1 (en) * 2001-04-27 2003-06-17 International Business Machines Corporation Calibration-free eye gaze tracking
US6959102B2 (en) * 2001-05-29 2005-10-25 International Business Machines Corporation Method for increasing the signal-to-noise in IR-based eye gaze trackers
US6775060B2 (en) * 2001-07-26 2004-08-10 The Schepens Eye Research Institute, Inc. Bioptic telescope system embedded into a spectacle lens
GB0119859D0 (en) * 2001-08-15 2001-10-10 Qinetiq Ltd Eye tracking system
US6927694B1 (en) * 2001-08-20 2005-08-09 Research Foundation Of The University Of Central Florida Algorithm for monitoring head/eye motion for driver alertness with one camera
US6997556B2 (en) * 2001-10-01 2006-02-14 Ernst Pfleger Method for detecting, evaluating, and analyzing look sequences
AUPR872301A0 (en) * 2001-11-08 2001-11-29 Sleep Diagnostics Pty Ltd Alertness monitor
US7206435B2 (en) * 2002-03-26 2007-04-17 Honda Giken Kogyo Kabushiki Kaisha Real-time eye detection and tracking under various light conditions
JP2004034938A (ja) * 2002-07-08 2004-02-05 Yazaki Corp 居眠り運転防止装置及び車両運行情報収集装置
US20040061680A1 (en) * 2002-07-10 2004-04-01 John Taboada Method and apparatus for computer control
NL1021496C2 (nl) 2002-09-19 2004-03-22 Joannes Hermanus Heiligers Signaleringsinrichting en werkwijze voor het monitoren van alertheid van personen.
US6637883B1 (en) * 2003-01-23 2003-10-28 Vishwas V. Tengshe Gaze tracking system and method
US7347551B2 (en) * 2003-02-13 2008-03-25 Fergason Patent Properties, Llc Optical system for monitoring eye movement
US7391888B2 (en) * 2003-05-30 2008-06-24 Microsoft Corporation Head pose assessment methods and systems
EP1482768B1 (en) * 2003-05-30 2009-01-07 Continental Automotive GmbH Method and driver for driving electroluminescent lamps
US7731360B2 (en) * 2003-11-07 2010-06-08 Neuro Kinetics Portable video oculography system
US20050100191A1 (en) * 2003-11-11 2005-05-12 Harbach Andrew P. Imaging system and method for monitoring an eye
US7963652B2 (en) * 2003-11-14 2011-06-21 Queen's University At Kingston Method and apparatus for calibration-free eye tracking
US7374284B2 (en) * 2003-12-17 2008-05-20 The Schepens Eye Research Institute, Inc. Peripheral field expansion device
US7331671B2 (en) * 2004-03-29 2008-02-19 Delphi Technologies, Inc. Eye tracking method based on correlation and detected eye movement
JP2007531579A (ja) * 2004-04-01 2007-11-08 ウィリアム・シー・トーチ 目の動きをモニターするバイオセンサ、コミュニケーター及びコントローラー並びにそれらの使用方法
US7509043B2 (en) * 2004-05-25 2009-03-24 Nikon Corporation Illuminating device for photographing and camera
US7775679B2 (en) * 2004-08-18 2010-08-17 Advanced Illumination, Inc. High intensity light source for a machine vision system and method of making same
US7438418B2 (en) * 2005-02-23 2008-10-21 Eyetracking, Inc. Mental alertness and mental proficiency level determination
WO2006091893A2 (en) * 2005-02-23 2006-08-31 Eyetracking, Inc. Mental alertness level determination
RU2423070C2 (ru) 2005-03-04 2011-07-10 Слип Диагностикс Пти.Лтд Измерение бдительности
US7430365B2 (en) * 2005-03-31 2008-09-30 Avago Technologies Ecbu (Singapore) Pte Ltd. Safe eye detection
JP2006307611A (ja) 2005-04-28 2006-11-09 Shingo Kizai Kk 対面反射拡散型高出力led内照式道路標識
WO2007016739A1 (en) 2005-08-11 2007-02-15 Sleep Diagnostics Pty. Ltd. Alertness sensing spectacles
US8358337B2 (en) * 2005-08-23 2013-01-22 National University Corporation Shizuoka University Pupil detection device and pupil detection method
WO2007062478A1 (en) * 2005-11-30 2007-06-07 Seeing Machines Pty Ltd Visual tracking of eye glasses in visual head and eye tracking systems
US8360578B2 (en) 2006-01-26 2013-01-29 Nokia Corporation Eye tracker device
JP2007195775A (ja) 2006-01-27 2007-08-09 Keio Gijuku 瞳検出方法、瞳位置検出装置及び透過型視線検出装置
WO2007092512A2 (en) 2006-02-07 2007-08-16 Attention Technologies, Inc. Driver drowsiness and distraction monitor
JP2007319174A (ja) * 2006-05-30 2007-12-13 Matsushita Electric Ind Co Ltd 撮影装置およびそれを用いた認証装置
CN101485234B (zh) 2006-06-28 2012-08-08 皇家飞利浦电子股份有限公司 根据目标光分布控制照明系统的方法
US7646422B2 (en) * 2006-10-04 2010-01-12 Branislav Kisacanin Illumination and imaging system with glare reduction and method therefor
JP2008091840A (ja) * 2006-10-05 2008-04-17 Sony Corp 固体撮像装置及び電子機器
US8225229B2 (en) * 2006-11-09 2012-07-17 Sony Mobile Communications Ab Adjusting display brightness and/or refresh rates based on eye tracking
SE0602545L (en) 2006-11-29 2008-05-30 Tobii Technology Ab Eye tracking illumination
US7783077B2 (en) * 2006-12-01 2010-08-24 The Boeing Company Eye gaze tracker system and method
US20080128498A1 (en) * 2006-12-05 2008-06-05 Fausak Andrew T System, method, and apparatus for high value product management and tracking
KR100850357B1 (ko) * 2006-12-06 2008-08-04 한국전자통신연구원 시선 위치 추적 방법 및 그 장치
US20080166052A1 (en) * 2007-01-10 2008-07-10 Toshinobu Hatano Face condition determining device and imaging device
AU2007352792B2 (en) * 2007-04-20 2012-11-15 Meinan Machinery Works, Inc. Lumber inspection method, device and program
US7633244B2 (en) * 2007-09-19 2009-12-15 Zippy Technology Corp. Method for dimming multiple lamps
PL2242419T3 (pl) 2008-02-14 2016-05-31 Nokia Technologies Oy Urządzenie i sposób określania kierunku spojrzenia
US9398848B2 (en) 2008-07-08 2016-07-26 It-University Of Copenhagen Eye gaze tracking
ES2880475T3 (es) 2009-04-01 2021-11-24 Tobii Ab Sistema de representación visual con iluminadores para el seguimiento de la mirada
EP2238889B1 (en) * 2009-04-01 2011-10-12 Tobii Technology AB Adaptive camera and illuminator eyetracker

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022265201A1 (ko) * 2021-06-18 2022-12-22 삼성전자 주식회사 생체 라이브니스 인증 방법 및 전자 장치

Also Published As

Publication number Publication date
CN102918834B (zh) 2016-08-03
KR101829850B1 (ko) 2018-03-29
EP2543187B1 (en) 2022-11-16
US8890946B2 (en) 2014-11-18
EP2543187A4 (en) 2017-12-20
EP2543187A2 (en) 2013-01-09
WO2011149577A3 (en) 2012-02-02
WO2011149577A2 (en) 2011-12-01
AU2011258826A1 (en) 2012-10-11
RU2012141574A (ru) 2014-04-10
CN102918834A (zh) 2013-02-06
US20150181100A1 (en) 2015-06-25
JP2013521710A (ja) 2013-06-10
US20110211056A1 (en) 2011-09-01

Similar Documents

Publication Publication Date Title
KR101829850B1 (ko) 공간적으로 제어된 장면 조명을 위한 시스템 및 방법
US9405365B2 (en) Systems and methods for identifying gaze tracking scene reference locations
KR101205039B1 (ko) 눈 검출 시스템 및 그 동작 방법
US9965672B2 (en) Method of reducing visibility of pulsed illumination while acquiring high quality imagery
KR100342159B1 (ko) 홍채영상 포착장치 및 홍채영상 포착방법
US20160170486A1 (en) Eye gaze imaging
US20160337569A1 (en) Method and apparatus for strobed illumination in eye based biometric systems
US11956868B2 (en) Systems, devices, and methods for implementing spectral reflectance imaging using narrow band emitters
JP6327753B2 (ja) 瞳孔検出用光源装置、瞳孔検出装置及び瞳孔検出方法
US8561907B2 (en) Flicker-free illumination apparatus
CN110677949A (zh) 灯具的控制方法和控制系统以及电子设备
US11179035B2 (en) Real-time removal of IR LED reflections from an image
EP3925519B1 (en) Vision screening systems and methods
JP7318793B2 (ja) 生体認証装置、生体認証方法、及び、そのプログラム
JP2021040731A (ja) 均一照射モジュール
WO2023195872A1 (en) Method and system for determining heartbeat characteristics

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant