KR101882594B1 - 휴대용 눈 추적 디바이스 - Google Patents

휴대용 눈 추적 디바이스 Download PDF

Info

Publication number
KR101882594B1
KR101882594B1 KR1020167008758A KR20167008758A KR101882594B1 KR 101882594 B1 KR101882594 B1 KR 101882594B1 KR 1020167008758 A KR1020167008758 A KR 1020167008758A KR 20167008758 A KR20167008758 A KR 20167008758A KR 101882594 B1 KR101882594 B1 KR 101882594B1
Authority
KR
South Korea
Prior art keywords
user
image data
eye
images
image
Prior art date
Application number
KR1020167008758A
Other languages
English (en)
Other versions
KR20160111018A (ko
Inventor
요나스 안데르손
시몬 구스타프손
에릭 엥왈
리차드 하인즐
안데르스 클라우센
얀 노르덴
Original Assignee
토비 에이비
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 토비 에이비 filed Critical 토비 에이비
Publication of KR20160111018A publication Critical patent/KR20160111018A/ko
Application granted granted Critical
Publication of KR101882594B1 publication Critical patent/KR101882594B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • H04N5/2254
    • H04N5/2256
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2201/00Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
    • H04R2201/40Details of arrangements for obtaining desired directional characteristic by combining a number of identical transducers covered by H04R1/40 but not provided for in any of its subgroups

Abstract

프레임, 적어도 하나의 광학계 유지 부재, 움직임 센서 및 제어 유닛을 포함하는 휴대용 눈 추적기 디바이스가 개시되어 있다. 프레임은 사용자에 의해 착용되도록 되어 있는 프레임일 수 있다. 적어도 하나의 광학계 유지 부재는 사용자의 적어도 하나의 눈의 적어도 일부를 선택적으로 조명하도록 구성된 적어도 하나의 조명기, 및 사용자의 적어도 하나의 눈의 적어도 일부의 이미지들을 나타내는 이미지 데이터를 캡처하도록 구성된 적어도 하나의 이미지 센서를 포함할 수 있다. 움직임 센서는 프레임의 움직임을 검출하도록 구성될 수 있다. 제어 유닛은 사용자의 적어도 하나의 눈의 적어도 일부의 선택적 조명을 위해 적어도 하나의 조명기를 제어하고, 이미지 센서들로부터 이미지 데이터를 수신하고, 움직임 센서로부터 정보를 수신하도록 구성될 수 있다.

Description

휴대용 눈 추적 디바이스{PORTABLE EYE TRACKING DEVICE}
관련 출원들에 대한 상호 참조
본 출원은, 2013년 9월 3일자로 출원되었으며 발명의 명칭이 "PORTABLE EYE TRACKING DEVICE"인 미국 가특허 출원 제61/873,154호에 대해 우선권을 주장하며, 이 가특허 출원의 전체 개시내용은 이로써 모든 목적을 위해 본 명세서에 완전히 진술된 것처럼 참조로 포함된다.
본 출원은, 그것과 동시에 출원되었으며 발명의 명칭이 "PORTABLE EYE TRACKING DEVICE"인 미국 특허 출원 제14/281,599호, 그것과 동시에 출원되었으며 발명의 명칭이 "PORTABLE EYE TRACKING DEVICE"인 미국 특허 출원 제14/281,616호, 그것과 동시에 출원되었으며 발명의 명칭이 "PORTABLE EYE TRACKING DEVICE"인 미국 특허 출원 제14/281,587호, 및 그것과 동시에 출원되었으며 발명의 명칭이 "PORTABLE EYE TRACKING DEVICE"인 미국 특허 출원 제14/281,676호에 또한 관련되며, 이러한 특허들의 전체 개시내용은 이로써 모든 목적을 위해 본 명세서에 완전히 진술된 것처럼 참조로 포함된다.
사용자가 보고 있는 지점을 결정하는 방법들은 본 기술분야에 공지되어 있다. 기술은 눈 추적 또는 응시 검출 기술로 언급된다. 눈 추적 시스템들은 전형적으로 2개의 주요 형태들로 발견된다. 하나의 형태에서, 센서 또는 다른 눈 추적 디바이스는 사용자의 눈으로부터 멀리 떨어져서 예컨대 컴퓨터, 디스플레이 또는 유사한 디바이스 내에 또는 상에 위치된다.
눈 추적의 하나의 공지된 방법은 적외선 광 및 이미지 센서의 사용을 포함한다. 적외선 광은 사용자의 동공을 향해 지향되고 광의 반사는 이미지 센서에 의해 캡처된다. 반사 지점의 분석을 통해, 사용자의 응시 방향이 산출될 수 있다. 하나의 그러한 시스템은 스웨덴의 Tobii Technology AB에 양도된 미국 특허 제7,572,008호("'008 특허")에 설명되어 있다. '008 특허의 전체 개시내용은 이로써 모든 목적을 위해 본 명세서에 완전히 진술된 것처럼 참조로 포함된다.
휴대용 또는 착용가능 눈 추적 디바이스들은 또한 이전에 설명되었고 상업 구매에 이용가능하다. 하나의 그러한 눈 추적 시스템은 스웨덴의 Tobii Technology AB에 양도된 미국 특허 출원 공개 공보 제2011/0279666호("'666 출원")에 설명되어 있다. '666 출원의 전체 개시내용은 이로써 모든 목적을 위해 본 명세서에 완전히 진술된 것처럼 참조로 포함된다. '666 출원은 사용자의 응시 방향을 결정하는 것을 돕기 위해, 외부 적외선 광 소스가 참조 지점으로서의 장면에 배치되는 것을 필요로 하는 착용가능 눈 추적 디바이스를 설명한다.
기존 휴대용 눈 추적 시스템들은 장비가 착용자의 머리에 대해 이동할 때 심각한 성능 저하를 겪을 수 있다. 예를 들어, 안경은 착용자의 코에 대해 미끄러질 수 있으며; 게다가, 착용자는 안경이 착용됨에 따라 안경을 수동으로 조정할 수 있다. 교정을 필요로 하는 설계들에 대해, 착용자의 머리에 대한 안경의 그러한 움직임은 교정을 무효화하고 판독들의 정확도를 상당히 저하시킬 수 있다. 다른 예로서, 단일 카메라 휴대용 눈 추적 시스템은 착용자가 강한 광 소스들에 있을 때; 직접적인 햇빛에 노출될 때; 또는 단일 카메라의 뷰가 예컨대 속눈썹에 의해 방해될 때를 포함하는 특정 조건들에서 실질적으로 저하된 판독을 제공할 수 있다. 더욱이, 그러한 단일 카메라 시스템들은 사용자의 시야의 말단들에서 응시 방향들을 검출불가능할 수 있다.
일 실시예에서, 휴대용 눈 추적기 디바이스가 제공된다. 휴대용 눈 추적기 디바이스는 프레임, 적어도 하나의 광학계 유지 부재, 움직임 센서, 및 제어 유닛을 포함할 수 있다. 프레임은 사용자에 의해 착용되도록 되어 있는 프레임일 수 있다. 적어도 하나의 광학계 유지 부재는 사용자의 적어도 하나의 눈의 적어도 일부를 선택적으로 조명하도록 구성된 적어도 하나의 조명기, 및 사용자의 적어도 하나의 눈의 적어도 일부의 이미지들을 나타내는 이미지 데이터를 캡처하도록 구성된 적어도 하나의 이미지 센서를 포함할 수 있다. 움직임 센서는 프레임의 움직임을 검출하도록 구성될 수 있다. 제어 유닛은 사용자의 적어도 하나의 눈의 적어도 일부의 선택적 조명을 위해 적어도 하나의 조명기를 제어하고, 이미지 센서들로부터 이미지 데이터를 수신하고, 움직임 센서로부터 정보를 수신하도록 구성될 수 있다.
다른 실시예에서, 사용자에 대한 응시 방향을 결정하는 방법이 제공된다. 이 방법은 사용자의 눈들 중 적어도 하나의 눈의 적어도 일부를 선택적으로 조명하기 위해 사용자에 의해 착용된 프레임 상의 적어도 하나의 조명기를 활성화하는 단계를 포함할 수 있다. 이 방법은 프레임 상의 적어도 하나의 이미지 센서로부터 사용자의 눈들 중 적어도 하나의 눈의 적어도 일부의 이미지들을 나타내는 이미지 데이터를 수신하는 단계를 또한 포함할 수 있다. 이 방법은 프레임의 움직임을 검출하도록 구성된 움직임 센서로부터 정보를 수신하는 단계를 더 포함할 수 있다. 이 방법은 움직임 센서로부터의 정보 및 이미지 데이터에 적어도 부분적으로 기초하여 사용자에 대한 응시 타깃 영역을 결정하는 단계를 추가적으로 포함할 수 있다.
다른 실시예에서, 사용자에 대한 응시 방향을 결정하기 위한 명령어들을 갖는 비일시적인 머신 판독가능 매체가 제공된다. 이러한 명령어들은, 사용자의 눈들 중 적어도 하나의 눈의 적어도 일부를 선택적으로 조명하도록 사용자에 의해 착용된 프레임 상의 적어도 하나의 조명기를 활성화하기 위해 프로세서에 의해 실행가능할 수 있다. 이러한 명령어들은, 프레임 상의 적어도 하나의 이미지 센서로부터 사용자의 눈들 중 적어도 하나의 눈의 적어도 일부의 이미지들을 나타내는 이미지 데이터를 수신하기 위해 또한 실행가능할 수 있다. 이러한 명령어들은, 프레임의 움직임을 검출하도록 구성된 움직임 센서로부터 정보를 수신하기 위해 추가로 실행가능할 수 있다. 이러한 명령어들은, 움직임 센서로부터의 정보 및 이미지 데이터에 적어도 부분적으로 기초하여 사용자에 대한 응시 타깃 영역을 결정하기 위해 추가적으로 실행가능할 수 있다.
본 발명은 첨부 도면들과 함께 설명된다.
도 1a는 본 발명의 일부 실시예들에 따른 눈 추적 디바이스를 도시한다.
도 1b는 본 발명의 다른 실시예들에 따른 대안적인 눈 추적 디바이스를 도시한다.
도 2a는 본 발명의 일부 실시예들에 따른 눈 추적 디바이스의 후방 뷰를 도시한다.
도 2b는 본 발명의 다른 실시예들에 따른 눈 추적 디바이스의 후방 뷰를 도시한다.
도 3은 본 발명의 일부 실시예들에 따른 광학계 유지 부재의 제1 뷰를 도시한다.
도 4는 본 발명의 일부 실시예들에 따른 광학계 유지 부재의 제2 뷰를 도시한다.
도 5는 본 발명의 다양한 실시예들에 의해 이용되는 하나의 가능한 방법을 도시한다.
도 6은 본 발명의 장치들 또는 시스템들의 적어도 일부 부분에 사용되거나 본 발명의 방법들의 적어도 일부 부분을 구현할 수 있는 예시적인 컴퓨터 시스템의 블록도이다.
첨부된 도면들에서, 유사한 구성요소들 및/또는 피처들은 동일한 수치 참조 라벨을 가질 수 있다. 또한, 동일한 타입의 다양한 구성요소들은 유사한 구성요소들 및/또는 피처들 중에서 구별하는 문자에 의해 참조 라벨을 뒤따름으로써 구별될 수 있다. 첫번째 숫자 참조 라벨만이 본 명세서에 사용되면, 설명은 글자의 접미사에 관계없이 동일한 첫번째 숫자 참조 라벨을 갖는 유사한 구성요소들 및/또는 피처들 중 임의의 하나에 적용가능하다.
다음의 설명은 예시적인 실시예들만을 제공하고, 본 개시내용의 범위, 적용가능성 또는 구성을 제한하도록 의도되지 않는다. 오히려, 예시적인 실시예들의 다음의 설명은 하나 이상의 예시적인 실시예들을 구현하는 권능 설명을 본 기술분야의 통상의 기술자에게 제공할 것이다. 다양한 변화들은 첨부된 청구항들에 진술되는 바와 같이 본 발명의 사상 및 범위로부터 벗어나는 것 없이 요소들의 기능 및 배열에 이루어질 수 있다는 점이 이해될 것이다. 예를 들어, 본원에서 논의되는 일 실시예의 임의의 상세는 그러한 실시예의 모든 가능한 변형들에 존재할 수 있거나 존재하지 않을 수 있고, 본원에서 논의되는 다른 실시예들의 모든 가능한 변형들에 존재할 수 있거나 존재하지 않을 수 있다.
특정 상세들은 실시예들의 철저한 이해를 제공하기 위해 이하의 설명에 주어진다. 그러나, 실시예들은 이들 특정 상세들 없이 실시될 수 있다는 점이 본 기술분야의 통상의 기술자에 의해 이해될 것이다. 예를 들어, 본 발명 내의 회로들, 시스템들, 네트워크들, 프로세스들, 및 다른 요소들은 불필요한 상세에서 실시예들을 모호하게 하지 않도록 블록도 형태의 구성요소들로 도시될 수 있다. 다른 사례들에서, 널리 공지된 회로들, 프로세스들, 알고리즘들, 구조들, 및 기술들은 실시예들의 모호함을 회피하도록 불필요한 상세 없이 도시될 수 있다.
또한, 개별 실시예들은 순서도, 흐름도, 데이터 흐름도, 구조도, 또는 블록도로 도시되는 프로세스로 설명될 수 있다는 점이 주목된다. 순서도는 순차적인 프로세서로서 동작들을 설명할 수 있지만, 동작들의 다수는 병렬로 또는 동시에 수행될 수 있다. 게다가, 동작들의 순서가 재배열될 수 있다. 프로세스는 그것의 동작들이 완료될 때 종결될 수 있지만, 도면에서 논의되거나 포함되지 않은 부가 단계들을 가질 수 있다. 더욱이, 임의의 특별히 설명된 프로세스 내의 모든 동작들은 모든 실시예들에서 발생할 수 있는 것은 아니다. 프로세스는 방법, 기능, 절차, 서브루틴, 서브프로그램 등에 대응할 수 있다. 프로세스가 기능에 대응할 때, 그것의 종결은 호출 기능 또는 주요 기능에 기능의 복귀에 대응한다.
용어 "머신 판독가능 매체"는 명령어(들) 및/또는 데이터를 저장, 포함 또는 운반할 수 있는 휴대용 또는 고정 저장 디바이스들, 광학 저장 디바이스들을 포함하지만, 이들에 제한되지 않는다. 코드 세그먼트 또는 머신 실행가능 명령어들은 절차, 기능, 서브프로그램, 프로그램, 루틴, 서브루틴, 모듈, 소프트웨어 패키지, 클래스, 또는 임의의 조합의 명령어들, 데이터 구조들, 또는 프로그램 문장들을 나타낼 수 있다. 코드 세그먼트는 정보, 데이터, 인수들, 파라미터들, 또는 메모리 콘텐츠를 전달 및/또는 수신함으로써 다른 코드 세그먼트 또는 하드웨어 회로에 결합될 수 있다. 정보, 인수들, 파라미터들, 데이터 등은 메모리 공유, 메시지 전달, 토큰 전달, 네트워크 송신 등을 포함하는 임의의 적절한 수단을 통해 전달, 전송, 또는 송신될 수 있다.
더욱이, 본 발명의 실시예들은 적어도 부분적으로 수동으로 또는 자동으로 구현될 수 있다. 수동 또는 자동 구현들은 머신들, 하드웨어, 소프트웨어, 펌웨어, 미들웨어, 마이크로코드, 하드웨어 기술 언어들, 또는 그것의 임의의 조합의 사용을 통해 실행되거나, 적어도 원조될 수 있다. 소프트웨어, 펌웨어, 미들웨어 또는 마이크로코드로 구현될 때, 필요한 작업들을 수행하는 프로그램 코드 또는 코드 세그먼트들은 머신 판독가능 매체에 저장될 수 있다. 프로세서(들)는 필요한 작업들을 수행할 수 있다.
이제 도 1a를 참조하면, 본 발명의 일 실시예에 따른 휴대용 눈 추적 디바이스(10)가 도시되어 있다. 눈 추적 디바이스(10)는 전통적인 쌍의 안경 또는 선글라스와 비슷하게 하는 그러한 방식으로 그것과 결합되는 안경 렌즈(또는 렌즈들의 쌍)(14)를 갖는 프레임(12)을 포함한다. 프레임(12)은 안경 렌즈(14)가 부착되고 2개의 아암들(17)(즉, 템플들)이 연장되는 중심 피스(15)를 포함할 수 있다. 아암들(17)은 전통적인 쌍의 안경 또는 선글라스의 방식으로 사용자의 귀 위에 끼워 맞춰질 수 있다.
일부 실시예들에서, 코 피스(16)는 안락을 위해 제공되고 사용자의 코에 디바이스(10)의 끼워 맞춤을 돕기 위해 제공될 수 있다. 장면 카메라(scene camera)(18)(스틸 및/또는 비디오 이미지들 및/또는 다른 이미지 데이터를 캡처할 수 있음)는 렌즈(14)의 중간에, 또는 개별 안경 렌즈들 사이에, 코 피스(16) 위에 배치될 수 있다. 마이크로폰(20)은 또한 장면 카메라(18)에 인접하여 또는 근방에 배치될 수 있다.
제어 유닛(22)은 그것의 전면, 중간, 및/또는 단부에서, 한쪽 또는 양쪽 아암들(17) 내에 위치될 수 있다. 본원에 설명되는 임의의 프로세서 기능은 제어 유닛(22), 및/또는 제어 유닛(22)과 통신하는 외부 프로세서에서 실행될 수 있다. 제어 유닛(22)은 본원에 추가로 상세히 설명되는 바와 같이, 인쇄 회로 보드(PCB) 및 다른 전자 디바이스들과 같은, 계산 작업들을 수행하는 요소들을 포함할 수 있다. 제어 유닛(22)은 또한 외부 컴퓨팅 디바이스와 통신하도록 설계되는 통신 포트 또는 구성요소를 포함할 수 있다. 이러한 통신 포트 또는 디바이스는 임의의 하나 이상의 형태의 공지된 통신을 지원할 수 있다. 예를 들어, 통신 포트는 범용 직렬 버스(Universal Serial Bus)(USB) 포트, 파이어와이어 포트, 고선명 멀티미디어 인터페이스(High-Definition Multimedia Interface)(HDMI) 포트, 이더넷 포트 등을 포함할 수 있다. 통신 디바이스는 Wi-Fi 송수신기, 블루투스 송수신기, 또는 임의의 다른 근접장 또는 장거리 통신 디바이스를 포함할 수 있다. 다른 실시예들에서, 통신 포트 또는 디바이스는 또한 휴대용 눈 추적 디바이스에 사용하도록 특별히 설계되는 독점 타입일 수 있다. 통신 포트 또는 디바이스는 예를 들어 저전력 무선 통신 수단을 포함할 수 있다.
도 1b는 상이한 위치들에 특정 구성요소들을 갖는 대안적인 눈 추적 디바이스(10A)를 도시한다. 이러한 실시예에서, 제어 유닛(22)은 아암(17)의 측면 상에 위치되고, HDMI 인터페이스(19)를 포함할 수 있다.
도 2a는 뒤에서 본 바와 같이 본 발명의 특정 실시예들에 따른 눈 추적 디바이스(10)를 도시한다. 예시 목적들을 위해, 중심 피스(12)의 일부는 플렉스 커넥터들(52) 및 마이크로폰(20)과 같은 전자 구성요소들을 포함할 수 있는 회로 보드(50)의 배치를 도시하기 위해 도면으로부터 제거되었다. 회로 보드(50)는 또한 디지털 신호 프로세서, 필드 프로그램가능 게이트 어레이 및/또는 다른 프로세서 시스템 온 칩과 같은 처리 아키텍처를 포함할 수 있다. 회로 보드(50)는 나사들(54), 접착제, 및/또는 다른 수단과 같은 종래의 체결 수단을 통해 중심 피스(12)에 부착될 수 있다. 중심 피스(12)는 회로 보드(50)가 중심 피스(12) 내에 배치되고, 정상 사용 동안에 보이지 않도록 회로 보드(50) 위에 끼워 맞춰지는 하나 이상의 부품을 포함할 수 있다.
디바이스(10)는 또한 2개의 광학계 유지 부재들(70)을 포함할 수 있다. 다른 실시예에서, 도 2a에 도시된 2개의 광학계 유지 부재들(70)의 기능성을 제공하는 하나의 인접 광학계 유지 부재만이 제공될 수 있다. 각각의 광학계 유지 부재(70)는 아래에 추가로 설명되는 바와 같이 하나 이상의 이미지 센서들 및 하나 이상의 조명기들을 포함할 수 있다. 따라서, 광학계 유지 부재(70)는 사용자의 눈, 또는 그것의 일부 서브부분(예를 들어, 홍채)을 조명하고, 사용자의 눈, 또는 그것의 일부 서브부분 상에 조명의 반사 지점들을 포함하는 이미지들을 캡처하는 구성요소들을 포함할 수 있다. 도 2b는 도 1b의 대안적인 눈 추적 디바이스(10A)를 도시한다.
도 3 및 도 4는 본 발명의 실시예들에 따른 광학계 유지 부재들(70)을 추가로 상세히 도시한다. 각각의 광학계 유지 부재(70)는 2개의 주요 구성요소들, 커버(72) 및 가요성 부재(74)를 포함할 수 있다. 커버(72)는 광학계 유지 부재(70B)에 의해 도시된 바와 같이 함께 적절히 결합될 때 가요성 부재(74)를 커버할 수 있다. 광학계 유지 부재(70A)는 2개의 구성요소들 사이의 상호작용을 나타내기 위해 분할되는 가요성 부재(74) 및 커버(72)를 갖는 것으로 도시되어 있다. 가요성 부재(74) 및 커버(72)는 가요성 부재(74)가 커버(72) 내로 잠기도록 구성될 수 있다. 다른 예로서, 가요성 부재(74) 및 커버(72)는 접착제, 나사들 및/또는 다른 종래의 체결 수단을 사용하여 서로 연결될 수 있다.
가요성 부재(74)는 플렉스 회로를 포함하고 그것 상에 하나 이상의 이격된 조명기들(76) 및/또는 하나 이상의 이미지 센서들(78)을 장착할 수 있다. 임의의 수의 조명기들(76)(예를 들어, 1, 2, 3, 4, 5, 6 등) 및 이미지 센서들(예를 들어, 1, 2, 3, 4, 5, 6 등)은 각각의 광학계 유지 부재(70)에 이용될 수 있다. 조명기(76)는 본 기술분야의 통상의 기술자에 의해 용이하게 이해되는 바와 같이 적외선 광을 방출할 수 있는 적외선 조명기들을 포함할 수 있지만, 자외선 및/또는 가시 광을 방출하는 조명기들을 포함하는 다른 조명기들이 또한 사용될 수 있다. 이미지 센서(78)는 사용 영역에 존재할 수 있는 가시 광 및 다른 광뿐만 아니라 조명기(76)에 방출되는 광에 민감할 수 있다. 예를 들어, 디바이스(10)가 외부에 사용될 때, 가시 및 비가시 스펙트럼들(예를 들어, 태양으로부터의 가시 및 자외선 광) 내의 주변 광이 존재할 수 있고 이미지 센서(78)는 상이한 파장들의 주변 광을 검출하고 구별하도록(예를 들어, 필터링하거나 다른 방식으로 보상하도록) 구성될 수 있다. 가요성 부재(74)는 본 기술분야의 통상의 기술자에 의해 잘 이해되는 방식으로 전력을 조명기(76) 및 이미지 센서(78)에 제공하기 위해 전원(예를 들어, 배터리들, 태양 전지 등)을 포함할 수 있다. 가요성 부재(74)의 상부 단부는 중심 피스(12) 상에 장착되는 회로 보드(50)에 연결되는 접촉 요소(80)를 포함할 수 있다. 가요성 회로들 및 전자 디바이스들의 사용이 널리 공지되어 있고, 본 기술분야의 통상의 기술자는 그들이 본 발명에 사용될 수 있는 방식을 이해할 것이다.
본 발명의 일부 실시예들에서, 커버(72)는 조명기들(76)로부터의 광이 실질적으로 방해받지 않고 커버(72)를 통과할 수 있도록 광학적으로 투명한 재료로 형성될 수 있다. 일부 실시예들에서, 커버(72)는 조명기들(76)에 의해 방출되는 광을 적절한 위치에 투과시키도록 형상화될 수 있다. 커버(72)의 부분들 또는 영역들은 예를 들어 사용자의 눈들을 포함하는 더 큰 영역을 조명하기 위해 조명기들(76)(또는 심지어 주변 조명 소스들) 중 하나 이상으로부터 광을 분기시키는 렌즈로 형성화될 수 있다. 커버(72)의 부분들 또는 영역들은 또한 특정 영역들 또는 위치들 상에 광을 수렴시키거나 집중시키도록 형상화될 수 있다. 커버(72)는 단일 재료 피스로부터 몰딩될 수 있으며, 재료의 영역들은 위에서 설명된 바와 같이 렌즈들처럼 형상화되거나 광을 투과시키도록 다른 방법으로 형상화된다. 다른 실시예들에서, 커버는 접착제, 용접, 나사들 및/또는 다른 종래의 체결 수단에 의해 함께 부착되는 다수의 부분들을 포함할 수 있으며, 부분들의 일부는 광을 투과시키고 일부는 광을 투과시키지 않거나, 상이한 부분들은 광을 상이한 방식들로 투과시킨다. 일부 실시예들에서, 가요성 부재(74) 및/또는 커버(72)는 이중 몰딩되고 조명기들(76)로부터 커버(72)를 통해 이미지 센서들(78)로의 광의 투과를 더 직접적으로 방지하는 필터들을 포함할 수 있다. 광학적 윈도우들은 커버(72)에 의해 또는 그 이외의 것과 같이 각각의 이미지 센서(78)에 제공될 수 있다.
눈 추적 디바이스(10)는 사용자의 눈들 중 적어도 하나의 눈의 적어도 일부를 조명하는 조명기들(76)로부터 광을 방출할 수 있다. 그 다음, 하나 이상의 이미지 센서들(78)은 조명기들(76)에 의해 조명되는 바와 같이 눈의 적어도 일부를 포함하는 이미지를 캡처할 수 있다. 이러한 캡처된 이미지는 가요성 부재(74)를 통해 처리 디바이스들에(예를 들어, 제어 유닛(22) 또는 다른 프로세서에, 가능하면 프레임(12)으로부터 분리되는 디바이스에) 송신될 수 있으며, 사용자의 응시 방향은 이미지 데이터를 분석함으로써 결정될 수 있다.
사용자의 응시 방향을 결정하기 위해, 사용자의 한쪽 또는 양쪽 눈들의 각막 위치가 결정될 수 있다. 사용자의 눈(들)의 각막 위치는 조명기들(76)로부터 사용자의 눈(들) 위로 방출되는 광의 글린트들 또는 반사들을 검출함으로써 분석될 수 있다. 사용자의 눈 상에 글린트를 나타내는 고품질 이미지를 획득하기 위해, 다수의 조명기들(76)의 다양한 조합들은 광을 방출하기 위해 사용될 수 있다. 예를 들어, 하나의 조명기(76)는 적외선 광을 사용하여 조명될 수 있는 반면에, 다른 것은 다른 파장의 광을 사용하여 조명된다. 그 다음, 이미지 센서들(78)은 눈이 주변 광만으로 조명될 때, 눈이 각각의 조명기(76)에 의해 개별적으로 조명될 때, 또는 눈이 2개의(또는 그 이상의) 조명기들(76)에 의해 동시에 조명될 때 이미지들을 캡처할 수 있다. 그러한 실시예들에서, 이미지 센서들(78)은 사용자의 눈의 차분 이미지들을 준비할 수 있다.
글린트들의 검출은 이미지 차분 기술들(즉, 제1 이미지를 제2 이미지와 비교하여 변화를 검출함) 및/또는 표준 이미지 분석 알고리즘들로 수행될 수 있다. 예를 들어, 조명기(76)를 토글 온 및 오프하고 각각의 상태에서 사용자의 눈의 이미지를 캡처함으로써, 최종 글린트는 이미지들의 비교를 통해 검출될 수 있다. 그러나, 일부 실시예들에서, 글린트들은 글린트에 대응하는 세기의 영역들을 식별하기 위해 하나 이상의 이미지들을 분석함으로써 검출될 수 있다. 글린트 검출의 하나의 방법은 1998년 8월 4일자로 공개된 논문 "Improved Video-Based Eye-Gaze Detection Method"에 기술되며, 논문은 이로써 모든 목적을 위해 본 명세서에 완전히 진술된 것처럼 참조로 통합된다. 글린트 검출의 추가 방법들은 발명의 명칭이 "Method and system for relevance feedback through gaze tracking and ticker interfaces"인 미국 특허 제6,577,329호 및 발명의 명칭이 "Method and apparatus for communication between humans and devices"인 미국 특허 제8,292,433호에서 논의된다. 상술한 특허들의 전체 개시내용들은 이로써 모든 목적을 위해 본 명세서에 완전히 진술된 것처럼 참조로 통합된다. 본 기술분야의 통상의 기술자는 사용자의 눈에서 반사되는 광으로부터 응시 방향을 결정하는 다수의 방식들을 인식할 것이고, 본 발명은 위에서 열거된 예들에 제한되지 않는다.
본 발명의 일부 실시예들에서, 주어진 수의 적외선 조명기들(76)은 사용자의 눈들 각각을 조명하기 위해 사용될 수 있다. 논의된 바와 같이, 조명기들(76)의 다른 수들 및/또는 타입들이 다른 실시예들에 사용될 수 있다. 그러한 실시예들에서, 각각의 조명기(76)에 대응하는 하나 이상의 글린트들이 예상될 것이다. 또한 조명등 또는 햇빛 등과 같은 주변 조명에서 기인하는 다른 글린트들이 있을 수 있으므로, 상이한 기술들은 어느 글린트들이 조명기들(76)에 대응하는지, 및 어느 글린트들이 대응하지 않는지를 식별하기 위해 사용될 수 있다. 일부 실시예들에서, 턴 온된 조명기들(76) 없이 사용자의 눈으로 취해지는 이미지는 주변 광에 의해 야기되는 글린트들을 필터링하기 위해 턴 온된 조명기들(76)로 취해지는 이미지와 비교될 수 있다. 그러나, 다른 실시예들에서, 글린트들의 크기, 형상, 예상된 세기, 및 예상된 위치들은 어느 글린트들이 어느 조명기들에 대응하는지를 결정하기 위해 사용될 수 있다.
다른 실시예들에서, 파장 필터는 조명기들(76)에 의해 방출되는 파장들에 대응하지 않는 광의 파장들을 필터링하기 위해 이미지 센서들(78)과 함께 사용될 수 있다. 예를 들어, 조명기들(76)이 적외선 광을 방출하는 경우에, 적외선 광만을 이미지 센서(78)까지 통과시키는 필터가 사용될 수 있다. 이러한 방식으로, 이미지 센서들(78)은 조명기들(76)에 의해 방출되는 광에서 기인하는 글린트들만을 검출할 수 있다. 역으로, 주변 광을 통과시키는 동안 조명기들(76)에 의해 방출되는 적외선 광을 필터링하는 필터들이 이용될 수 있다. 그러한 필터들은 주변 광의 다양한 인공 소스들에 대해 잘 작동될 수 있다. 일부 실시예들에서, 렌즈들(14)은 또한 광의 주변 적외선 또는 일부 다른 파장을 차단하도록 구성될 수 있다. 그러나, 적외선 및 자외선 둘 다를 포함하는 광의 스펙트럼을 포함하는 직접적인 햇빛의 경우에, 필터들은 주변 광의 모두를 적절히 차단하는 것이 가능하지 않을 수 있고 조명기들(76)에 의해 방출되는 광만을 통과시킬 수 있다. 그 결과, 주변 광에서 기인하는 글린트들은 조명기가 조명될 때 조명기들(76)에 의해 방출되는 광에서 기인하는 글린트들과 구별가능하지 않을 수 있다.
착용가능 눈 추적기 디바이스(10)의 사용자에 대한 주변 광 조건들은 시간에 따라 급격히 변화될 수 있다. 예를 들어, 사용자가 태양을 향하고 있으면, 그 또는 그녀의 눈들은 햇빛에 의한 실질적인 조명을 받을 수 있는 반면에, 사용자가 태양의 반대쪽을 향하고 있으면, 그/그녀의 눈들은 상당히 덜 조명될 수 있다. 유사하게, 사용자가 실내 환경에 있으면, 조명은 다양한 광 소스들의 근접에 기초하여 상당히 변할 수 있다. 예를 들어, 사용자가 천정등 바로 아래에 서있으면, 그/그녀의 얼굴 및 눈들은 그/그녀가 천정등에 인접하여 서있는 경우보다 실질적으로 더 조명될 수 있다. 더욱이, 일부 실시예들에서, 광 소스들의 배치 및 타입들에 따라, 주변 광의 레벨들은 추적되는 2개의 눈들 사이에서 상이할 수 있다. 예를 들어, 사용자는 그/그녀의 좌측 측면이 직접적인 햇빛에 있는 반면에 그/그녀의 우측 측면이 그늘에 있도록 위치될 수 있다.
논의된 바와 같이, 빌트인 조명기들(76)을 사용함으로써 주변 광 레벨들의 일부 변화들을 보상하는 것이 가능할 수 있다. 주변 조명 설정에 이용가능한 광의 주파수 범위 이외의 광을 사용함으로써 주변 광 변화들의 효과를 저지하는 것이 추가로 가능할 수 있다. 예를 들어, 실내 설정에서, 자외선 조명기들(76)은 실내 조명에서 더 낮은 레벨들로 존재하지 않거나 존재하는 자외선 광으로 사용자의 눈들을 조명하기 위해 사용될 수 있다. 유사하게, 적외선 조명기들(76)은 적외선 광이 전형적으로 실내 설정들에서 낮은 레벨들로 존재하는 것을 고려하면, 일부 실시예들에 사용될 수 있다. 일부 실시예들에서, 파장들의 범위에 걸쳐 광을 방출할 수 있는 조명기들(76)이 사용될 수 있다. 그러한 실시예들에서, 디바이스(10)는 주변 광의 스펙트럼을 동적으로 분석하고, 검출된 스펙트럼보다 더 높거나 더 낮은 조명기들(76)에 의해 방출되거나 검출된 스펙트럼의 특정 부분에 다른 방법으로 한정될 파장을 선택하도록 프로그래밍될 수 있으며, 어느 경우에 센서(78)는 또한 디바이스(10)에 의해 동적으로 조정될 수 있다. 대안적으로, 하나보다 많은 센서(78)는 상이한 파장들에 맞춰지는 상이한 타입들로 제공될 수 있다.
다른 실시예에서, 물에서 고 레벨의 흡수를 갖는 광의 파장, 예컨대 940 nm가 이용될 수 있다. 이러한 개념은 유럽 특허 출원 제12192370.0호에서 논의되고, 그 전체 개시내용은 이로써 모든 목적을 위해 본 명세서에 완전히 진술된 것처럼 참조로 포함된다. 이러한 파장에서, 눈의 어두운 동공 효과는 눈에 진입하는 다수의 광이 흡수됨에 따라 그것의 최대에 있을 수 있다. 부가적으로, 이러한 파장에서 대기 내의 주변 광 레벨들은 비교적 낮다. 또한, 주변 광은 센서(78)에 보여지는 파장에서 광을 차단하기 위해 안경 렌즈(14)를 적절한 재료 또는 구성으로 제공함으로써 처리될 수 있다. 기능적으로, 이것은 광이 안경 렌즈(14)를 통과하는 것으로부터 차단됨에 따라 신호 품질을 개선한다.
일부 실시예들에서, 차분 조명 응용들이 사용될 수 있다. 예를 들어, 이미지 센서(들)(78)는 사용자의 눈의 이미지들을 60 회/초로 캡처할 수 있고 조명기들(76)은 센서(들)(78)의 노출로 위상을 벗어나서 상태(온/오프)를 60 회/초로 변화하도록 구성될 수 있다. 그러한 시나리오에서, 이미지 데이터의 모든 다른 프레임은 조명기들(76)에 의해 조명되는 바와 같은 사용자의 눈을 나타내며, 교호 프레임들(alternate frames)은 주변 광에 의해 조명되는 바와 같은 사용자의 눈을 나타낸다. 이미지 데이터를 분석할 때, 이미지 처리는 2개의 인접 프레임들 사이의 차이를 결정하고 따라서 조명기들(76)로부터의 반사에 의해 야기되는 글린트들을 주변 광으로부터의 반사에 의해 야기되는 것들과 구별하기 위해 이용될 수 있다. 조명기들(76)의 세기 또는 노출 시간은 일부 실시예들에서, 예를 들어 착용자 주위의 주변 광의 레벨에 기초하여 동적으로 조정될 수 있다. 예를 들어, 더 높은 레벨의 조명, 또는 더 긴 노출 시간은 더 많은 광이 존재하는 경우 적용될 수 있거나, 더 작은 레벨의 조명, 또는 더 짧은 노출 시간은 주변 광으로부터의 글린트들이 센서들에 의해 유리하게 사용되는 경우 적용될 수 있다. 더욱이, 조명기들(76)은 이미지 센서들(78) 및 이미지 처리 알고리즘들이 주변 광으로부터의 잡음을 검출하고 보상하는 것을 허용하기 위해 그룹들로 제어될 수 있다.
주변 광은 콘트라스트들을 캡처된 이미지 데이터에서 검출하여 사용자의 동공 및/또는 홍채의 위치를 결정하기 위해 사용될 수 있다. 이러한 정보는 사용자가 보고 있는 방향을 결정하기 위해 조명기들(76)과 연관되는 글린트들에 기초한 정보와 함께 사용될 수 있다. 조명기들(76)로부터 방출되는 조명의 펄스 길이 및 세기 및 이미지 센서들(78)의 노출 시간에 대한 상이한 설정들은 주변 광의 밝기를 보상하기 위해 사용될 수 있고, 어둡거나 밝은 주변 광 조건들에서 성능을 특히 개선할 수 있다.
예를 들어, 고 레벨의 주변 광이 있을 때, 조명기들(76)이 디스에이블될 수 있고 사용자의 동공의 위치는 주변 광의 결과로서 검출되는 글린트들 또는 다른 이미지 데이터에 기초하여 삼각법으로 측정될 수 있다. 따라서, 이미지 데이터는 주변 광만을 사용하여 각막의 위치를 결정하기 위해 분석될 수 있다. 일부 경우들에서, 조명기들(76)은 콘트라스트 검출을 돕기 위해 사용될 수 있으며, 이미지 센서들(78)에 의한 이미지 캡처로 조정되는 조명의 짧은 섬광들은 사용자의 동공들의 위치를 검출하기에 충분할 수 있다. 더 짧은 노출 시간들을 갖는 짧은 집약적 조명의 사용은 과노출, 모션 블러 및 롤링 셔터 효과들과 같은 효과들을 회피하는 것을 도울 수 있다. 예를 들어, 쇼핑 조사 시나리오에서, 모바일 눈 추적기 사용자는 원하는 제품에 대해 상점 선반들을 스캐닝하는 동안 그/그녀의 머리를 주위에 신속히 이동시킬 수 있다. 유사하게, 환경에 너무 적은 주변 광이 있을 때, 조명기들(76)은 광의 생성을 촉진하여 눈의 콘트라스트들을 획득하는 것을 가능하게 하기 위해 사용될 수 있다. 따라서, 조명기들(76)은 더 긴 노출 시간들을 갖는 더 낮은 세기의 더 긴 펄스들을 방출하고/하거나, 낮은 세기의 광을 일정하게 방출하도록 구성될 수 있다. 본 발명의 일 실시예에서, 모든 조명기들(76)은 방출된 광의 각막 상의 다수의 반사들이 센서들(78)에 의해 캡처될 수 있도록 동시에 활성화될 수 있다. 그 다음, 디바이스(10)는 측정된 동공 위치를 사용하여 응시 방향, 배향 데이터, 각막 위치, 및 동공 크기 중 하나 이상을 결정할 수 있다.
일부 실시예들에서, 복수의 조명기들(76) 중 적어도 하나, 복수의 이미지 센서들(78) 중 적어도 하나, 또는 제어 유닛(22)의 알고리즘의 교정은 동공 및 또는 각막의 위치를 결정하기 위해 제어된 조명 조건들에서 수행될 수 있다. 또 다른 실시예들에서, 홍채의 위치는 주변 광에 기초하여 단독으로 추적될 수 있으며; 예를 들어 홍채의 라인들은 눈의 배향을 결정하기 위해 식별될 수 있다. 주변 광에만 의존하는 다양한 모드들은 다수의 조건들에 기초하여 활성화될 수 있다. 예를 들어, 그러한 모드는 배터리 전력이 낮을 때 조명기들(76)을 디스에이블함으로써 전력을 보존하기 위해 활성화될 수 있다. 더욱이, 모드는 글린트 기반 추적의 정확도가 다른 이용가능 모드의 정확도에 적어도 필적하는 레벨에 주변 조명이 도달할 때 활성화될 수 있다. 본 기술분야의 통상의 기술자는 다수의 상이한 구성들이 이미지 데이터를 획득하기 위해 사용될 수 있는 것, 및 본 발명이 위에서 열거된 예들에 제한되지 않는 것을 이해할 것이다. 부가 교정 방법들이 본원에서 추가로 논의될 것이다.
휴대용 눈 추적기 디바이스(10)의 정확도는 글린트들이 최적 크기인 것을 보장함으로써 최대화될 수 있다. 너무 작은 글린트들은 정확도를 검출하고 따라서 감소시키는 것이 어려울 수 있다. 다른 한편, 너무 큰 글린트들은 정확히 배치되는 것이 어려울 수 있고 따라서 동공 검출을 방해함으로써 또는 다른 방법으로 성능을 유사하게 감소시킬 수 있다. 글린트들의 크기는 조명기들(76)에 의해 방출되는 광의 세기에 영향을 받을 수 있다. 글린트들의 크기는 이미지 센서들(78)에 대한 감도 설정들, 애퍼처 및/또는 노출 시간에 추가로 영향을 받을 수 있다. 이미지 센서들(78)에 대한 설정(들)은 주변 광을 보상하기 위해 조정될 수 있고, 조명기들(76)의 세기는 최적 글린트 크기를 획득하기 위해 차례로 조정될 수 있다. 더욱이, 조명기들(76)의 세기 및 이미지 센서들(78)에 대한 설정들은 글린트들의 최적 콘트라스트 레벨을 획득하기 위해 균형이 유지될 수 있어 그들은 용이하게 검출될 수 있다. 본 기술분야의 통상의 기술자는 글린트들의 크기, 콘트라스트 및 다른 특성들이 다수의 방식들로 최적화될 수 있는 것, 및 본 발명이 위에서 열거된 예들에 제한되지 않는 것을 이해할 것이다.
각각의 눈에 대한 광 조건들은 이미지 센서들(78)에 의해 캡처되는 이미지들을 분석하거나 외부 광 센서들을 사용함으로써, 또는 둘 다의 조합에 의해 결정될 수 있다. 이러한 분석의 결과는 각각의 눈에 대한 눈 추적기 설정들을 실시간으로 제어하기 위해 사용될 수 있다. 본 발명의 일부 실시예들에서, 관련 광 레벨들은 휴대용 눈 추적기 디바이스(10)에 내장되는 광 센서들에 의해 결정될 수 있다. 다른 실시예들에서, 광 레벨들은 하나 이상의 장면 카메라들(18)을 사용하여 결정될 수 있다. 각각의 눈에 대한 현재 광 조건들에 기초하여 실시간으로 조명기들을 제어함으로써, 눈 추적기 디바이스(10)의 전체 성능은 설정들이 한쪽 눈에만 또는 양쪽 눈들의 평균값에 기초하는 상황과 비교하여 개선될 수 있다.
조명기들(76)에 대응하는 글린트들은 이미지 센서(78)에 의해 캡처되는 이미지 데이터로 식별된 후에, 사용자의 눈에 대해 그러한 글린트들의 위치는 공지된 이미지 처리 기술들을 사용하여 결정된다. 글린트 위치들이 결정되면, 그들은 사용자의 각막의 위치를 결정하기 위해 분석될 수 있다. 일부 실시예들에서, 글린트들의 위치들은 인간 눈의 3차원 모델로 매핑될 수 있다. 예를 들어, 글린트들은 각막 위로 매핑될 수 있다. 일부 실시예들에서, 각막은 완전한 구인 것으로 가정될 수 있으며; 글린트들의 위치들은 동공에 대한 각막의 위치를 결정하기 위해 사용될 수 있다. 동공에 대한 각막의 이러한 위치는 응시 방향 및 그것에 의해 눈의 광학 축을 결정하기 위해 차례로 사용될 수 있다. 글린트들에 기초하여 응시 방향을 결정하는 다양한 수단은 본 기술분야에 공지되어 있고 본 기술분야의 통상의 기술자는 본 발명이 위에서 열거된 예들에 제한되지 않는 것을 이해할 것이다.
본 발명의 일부 실시예들에서, 각각의 눈의 이미지들을 캡처하는 하나보다 많은 이미지 센서(78)가 제공된다. 2개의 이미지 센서들(78)이 각각의 눈을 위해 사용되는 경우에, 이것은 "스테레오 모드"로 언급될 수 있다. 다수의 관점으로부터 눈의 이미지들을 캡처함으로써, 부가 정보, 예컨대 각각의 이미지 센서(78)로부터의 눈의 거리는 제어 유닛(22) 또는 다른 프로세서와 같은 프로세서에 의해 결정될 수 있다. 또한, 하나보다 많은 이미지 센서(78)를 동작시킴으로써, 시스템에 중복의 레벨이 있으며 그것에 의해 시스템은 여전히 기능할 수 있지만 하나 이상의 이미지 센서(78)는 기능을 중단시킨다.
임의의 수의 이미지 센서들 및/또는 그것의 구성은 시스템의 신뢰성을 최적화하기 위해 다양한 구성들로 동작하도록 다수의 조명기들(76)와 조합될 수 있다. 예를 들어, 디바이스(10)는 조명기들(76)의 어느 구성이 각각의 이미지 센서(78)에서 최상의 이미지를 생성하는지를 결정하기 위해 조명기들(76)의 다양한 구성들(예를 들어, 다양한 조명 패턴들/시퀀스들을 통한 사이클)을 시도하도록 구성될 수 있다. 그 다음, 조명기들(76)은 각각의 이미지 센서(78)가 최적 조명에서 사진을 찍도록 상태(온/오프)를 어떤 빈도로 변화시키도록 구성될 수 있다. 예를 들어, 각각의 눈에 대한 3개의 이미지 센서들(78)이 있고, 각각의 이미지 센서(78)는 30 이미지들/초를 캡처하면, 조명기들(76)은 각각의 이미지 센서(78)가 이미지를 전용 조명 설정에서 캡처할 수 있기 위해 상태를 90 회/초로 변화시키도록 구성될 수 있다. 이것은 응시 데이터를 위한 증가된 프레임 레이트를 제공하기 위해 추가로 사용될 수 있다. 게다가, 눈을 위한 하나보다 많은 이미지 센서(78)를 사용하는 것은 디바이스(10)와 사용자 사이의 교정의 필요성을 감소시키며, 즉 하나보다 많은 이미지 센서(78)를 가짐으로써 수집되는 추가 데이터로 인해 일부 사례들에서 사용자 교정 없이 디바이스(10)를 동작시키는 것이 가능할 수 있다.
하나보다 많은 이미지 센서(78)는 또한 디바이스(10)의 물리적인 움직임의 보상을 허용할 수 있다. 예를 들어, 디바이스(10)는 한 쌍의 안경으로 구성될 때, 사용자의 코 아래로 슬라이딩될 수 있고, 사용자는 그것을 다시 위로 차례로 푸시할 수 있다. 디바이스(10)는 또한 사용자의 머리의 신속한 움직임 후에 또는 임의의 다른 이유로 사용자의 머리에 대해 이동할 수 있다. 사용자의 머리에 대한 디바이스(10)의 이러한 타입의 움직임은 이전 교정으로부터 획득되는 임의의 정확도를 감소시키거나 제거할 수 있다. 다수의 이미지 센서들(78)을 사용하는 것은 재교정에 대한 요구 없이 정확도를 개선할 수 있다. 예를 들어, 2개의 이미지 센서들(78)이 각각의 눈을 위해 사용될 때, 각각의 글린트는 2개의 관점들에서 검출되고 디바이스(10)가 임의의 초기 교정 후에 사용자의 머리에 대해 이동한 경우들에 각막의 위치를 더 큰 정확도로 심지어 추정하는 것이 가능하다.
본 발명의 일부 실시예들에서, 디바이스(10)는 하나 이상의 움직임 센서 또는 위치결정 디바이스(25)를 더 포함한다. 움직임 센서 또는 위치결정 디바이스(25)는 자이로스코프; 가속도계; 나침반, GPS 또는 다른 위성 수신기; GLONASS 나침반; 또는 임의의 다른 위치, 위치결정, 또는 방향 센서 중 하나 이상을 포함할 수 있다. 움직임 센서 또는 위치결정 디바이스(25)는 디바이스(10) 자체의 위치 및/또는 배향 및 결과적으로 사용자의 머리의 장소 또는 위치의 추적을 가능하게 할 수 있다. 이것은 디바이스(10)가 머리 움직임을 처리하고 머리 움직임에 관한 정보에 기초하여 응시 방향 데이터를 조정하여 응시 방향의 더 좋은 추정을 제공하는 것을 허용할 수 있다. 사용자의 눈들의 배향에 기초하여 결정되는 응시 방향은 사용자의 머리의 배향에 대한 것일 수 있다. 따라서, 사용자의 눈들에 기초한 응시 방향에 관한 정보는 사용자의 머리의 배향에 관한 정보로 증대될 수 있다. 짧은 시간 동안, 이러한 증대는 가속도계 또는 자이로스코프를 사용하여 수행될 수 있다. 그러나, 이들 디바이스들의 부정확도들은 그들이 시간에 따라 배향을 결정하기 위해 사용되면 드리프트를 초래할 수 있다. 일부 실시예들에서, 사용자의 눈들에 기초한 응시 방향에 관한 정보 및/또는 사용자의 머리의 배향에 관한 정보는 절대 참조 지점들에 대해 배향 정보를 제공하는 나침반으로부터의 정보를 사용하여 추가로 증대될 수 있다. 부가적으로, 디바이스의 배향의 변화에 관한 정보는 응시 데이터의 고정 필터링을 수행할 때 도움이 될 수 있다. 주위의 객체들이 비교적 정지된 채로 있는 것을 가정하면, 디바이스 배향 데이터가 이용가능한 경우 디바이스를 착용하는 사용자가 그들의 머리를 움직이는 동안 정지 객체를 고정하는 것을 결정하는 것이 훨씬 더 용이할 수 있다.
다른 실시예들에서, 움직임 센서 또는 위치결정 디바이스(25)는 디바이스(10) 또는 디바이스(10)의 임의의 부분과 연결되는 장치에 내장될 수 있다. 예를 들어, 움직임 센서 또는 위치결정 디바이스(25)는 디바이스(10) 또는 디바이스(10)의 임의의 부분과 무선으로 또는 케이블로 연결될 수 있다. 일부 실시예들에서, 그러한 움직임 센서 또는 위치결정 디바이스(25)는 사용자에 의해 착용되는 백팩으로 운반되거나, 사용자에 의해 다른 방법으로 운반될 수 있다. 움직임 센서 또는 위치결정 디바이스(25)가 디바이스(10)에 내장될 때, 그것은 사용자의 응시의 위치에 관한 더 정확한 정보를 제공가능할 수 있다. 다수의 상이한 시스템들은 요구된 레이턴시 및 정확도를 제공하거나 처리할 수 있다. 특히, 자이로스코프들 및 나침반들은 디바이스(10) 자체에 내장되면 더 정확한 정보를 제공할 수 있다.
더욱이, 움직임 센서 또는 위치결정 디바이스(25)로부터의 정보는 장면 카메라(들)(18)로부터의 이미지 데이터를 안정화하기 위해 사용될 수 있다. 예를 들어, 장면 카메라(18)는 사용자에 의해 보여지는 뷰에 근사하는 이미지 데이터를 캡처할 수 있다. 움직임 센서 또는 위치결정 디바이스(25)로부터의 정보는 이러한 이미지 데이터를 안정화하기 위해 사용될 수 있다. 사용자의 응시에 관한 정보는 이러한 이미지 데이터를 크롭하거나 다른 방식으로 조정하여 사용자의 응시 방향을 더 정확하게 나타내기 위해 추가로 사용될 수 있다. 이미지 안정화 또는 보상은 비디오 데이터의 라인 시프팅(line-shifting)을 포함할 수 있다. 자이로스코프 또는 가속도계의 사용을 수반하는 다수의 널리 공지된 이미지 안정화 방법들이 있고, 본 기술분야의 통상의 기술자는 이들 방법들이 본 발명의 실시예들과 어떻게 조합될 수 있는지를 이해할 것이다. 더욱이, 시간 기반 보상은 장면 카메라(18)에 내재하는 이미지 캡처 지연을 처리하기 위해 이미지 데이터에 적용될 수 있다. 특히, CCD 타입 카메라들 뿐만 아니라 비디오 카메라들, 롤링 셔터 카메라들에 의해 캡처되는 이미지들은 응시 지점이 이미지 캡처 지연으로 인해 획득된 때 정확한 뷰를 나타내지 않을 수 있다. 시간 보상은 장면 카메라(18)의 타입에 따라 및/또는 이미지에서 응시 지점이 위치되는 경우에 다를 수 있다.
이미지 처리 및 안정화는 일부 실시예들에서, 데이터가 캡처됨에 따라, 디바이스(10), 또는 외부 디바이스 상에서 실시간으로 수행될 수 있다. 다른 실시예들에서, 이미지 데이터는 디바이스(10) 상에 단지 저장되거나 외부 디바이스(도시되지 않음)에 전송될 수 있고, 이미지 안정화 또는 다른 처리는 캡처된 데이터에 기초하여 나중에 수행될 수 있다. 취해진 접근법은 온-보드 또는 다른 방법으로 연결된 전원(들)에서 이용가능한 에너지뿐만 아니라, 디바이스(10)에서 이용가능한 프로세싱 파워에 의존할 수 있다. 특히, 특정 타입들의 처리는 많은 배터리 용량을 차례로 소모하는 대량의 컴퓨팅 파워를 필요로 할 수 있다. 일부 실시예들에서, 디바이스(10)는 배터리 용량을 최적화하거나 실시간 처리를 위해 최적화하도록 구성가능할 수 있다.
더욱이, 장면 카메라(18)로부터의 캡처된 이미지 또는 비디오 내의 요소들은 사용자의 머리의 배향 및 사용자의 머리의 움직임의 속도를 결정하기 위해 분석될 수 있다. 요소들의 상대 위치를 연속적인 이미지들 또는 비디오에서 분석함으로써, 응시 방향의 산출에 대한 조정들은 움직임을 보상하기 위해 이루어질 수 있다. 추가 실시예들에서, 이미지 센서들(78) 및/또는 장면 카메라(18)는 사용자의 머리의 배향을 결정하는 정확도를 추가로 개선하기 위해 롤링 셔터를 이용할 수 있다. 이미지 센서들(78) 및 장면 카메라(18)의 행들의 판독 정보와 조합하여 사용자의 머리의 배향 및 움직임을 결정함으로써, 결정된 응시 방향은 응시 방향이 산출된 때에 사용자의 시야에 존재하는 실제 장면을 반영하기 위해 응시 방향이 정정될 수 있는 그러한 방식으로 장면 카메라(18)에 의해 캡처되는 이미지 상에 오버레이될 수 있다.
예를 들어, 디바이스(10)는 사용자가 장면 카메라(18)로부터의 캡처된 데이터에 관하여 특정 시간에 보고 있었을 경우 및 때를 더 정확히 반영하기 위해 센서들(78)로부터의 응시 데이터와 함께 장면 카메라(18)로부터의 캡처된 데이터를 교정할 수 있다. 본 발명의 실시예들에서, 이러한 접근법은 장면 카메라(18)에 의해 캡처되는 이미지 데이터가 예를 들어 롤링 셔터 왜곡 또는 진동들로 인해 왜곡되었던 경우에 채택될 수 있다. 추가 실시예들은 디바이스의 순간 움직임 데이터를 고려하는 것 및 모션 센서 및/또는 다른 센서를 이용함으로써 적절히 교정하는 것을 포함한다.
장면 카메라(18)로부터의 비디오는 사용자의 시야에서 객체들을 식별하기 위해 분석될 수 있다. 사용자로부터 객체들 및 객체들의 거리를 식별함으로써, 응시의 방향 및 타깃에 관한 더 정확한 정보가 결정될 수 있다. 컴퓨터 비전 알고리즘들은 이미지 데이터로부터 객체들로부터 검출하기 위해 사용될 수 있다. 일부 실시예들에서, 다수의 장면 카메라들(18)은 스테레오 비전 및 더 정확한 컴퓨터 비전 알고리즘들을 제공하기 위해 사용될 수 있다. 이미지 안정화 및 다른 처리와 같이, 객체 식별은 디바이스(10) 상에 이용가능한 컴퓨팅 파워 및 파워 용량에 따라 실시간으로 또는 후 처리 동안에 행해질 수 있다. 대안적으로 또는 부가적으로, 장면 카메라(18)는 디바이스(10)를 착용하는 사람의 시야 내에서 객체들에 대한 거리를 측정하는 깊이 카메라일 수 있다. 깊이 카메라는 또한 객체들의 세기 레벨을 결정하며, 따라서 또한 그레이 스케일 이미지를 제공할 수 있다.
더욱이, 이미지 분석은 사용자의 시야 내에서 검출되는 객체들의 식별에 기초하여 사용자의 위치를 결정하기 위해 사용될 수 있다. 다시 말하면, 사용자의 시야 내의 객체, 예를 들어 주어진 장소 또는 장소의 타입과 연관되는 것으로 공지된 랜드마크 또는 객체는 사용자의 위치를 드러낼 수 있다. 예를 들어, 객체 또는 다른 표시들, 예컨대 사이니지, 제품들의 타입들, 프라이싱 라벨 제품들 등은 사용자가 특정 소매점 또는 적어도 일 타입의 소매점 내에 존재하는 것을 표시할 수 있다. 다른 예로서, 디바이스(10)에 연결되는 장면 카메라(18) 또는 다른 스캐닝 디바이스는 사용자가 소매점 또는 다른 공지된 위치 또는 위치의 타입 내에 존재하는 것을 드러낼 수 있는, 사용자의 시야 내에 나타나는 바코드들을 스캐닝하도록 구성될 수 있다. 그러한 위치 정보는 그/그녀의 현재 위치에 도착하고/하거나 그러한 위치 주위를 내비게이션하기 위해 사용자에 의해 취해지는 경로를 결정하도록 위치 센서들 및 움직임 센서들로부터의 정보와 화합될 수 있다. 사용자가 텔레비전 또는 디스플레이의 부근에 있는 경우에, 예를 들어 컴퓨터 게임을 디스플레이하는 경우에, 게임은 디바이스(10)에 의해 제공되는 눈 추적 입력을 처리가능할 수 있으며; 이미지 분석은 텔레비전 또는 디스플레이에 대한 사용자의 응시 방향을 결정하기 위해 사용될 수 있다.
더욱이, 장면 카메라(18)로부터의 이미지들의 이미지 분석은 SLAM(simultaneous localization and mapping)을 위해 이용될 수 있다. SLAM은 위치의 맵을 구축하는 동시에 그러한 맵 내에 디바이스의 위치를 매핑하는 프로세스이다. SLAM은 로봇들 및 유사한 기기들에 의해 종종 사용되고 매핑을 위해 로봇의 환경의 이미지들을 캡처하는 이미지 센서를 포함할 수 있다. 본 발명의 일 실시예에 따른 디바이스는 또한 SLAM과 사용될 수 있다.
모션 센서들이 모션을 검출하기 위해 사용되는 경우에, 그들이 더 긴 시간 기간 동안에 의존될 때 데이터 내에 상당한 드리프트가 있을 수 있다. 따라서, 이들 모션 센서들의 정보는 장면 카메라(들)(18)로부터 검출되는 객체들에 기초하여 결정되는 위치 정보에 의해 정정될 수 있다. 장면 카메라(들)(18)를 사용하여 검출되는 객체들은 바코드들뿐만 아니라 특성 구조들 또는 객체들을 포함할 수 있다. 다른 실시예들에서, 마이크로폰(20)를 통해 검출되는 사운드 정보는 위치를 결정하기 위해 사용될 수 있다. 예를 들어, 초음파 방출기들은 소매점과 같은 특정 위치 도처의 다양한 지점들에 배치될 수 있고, 마이크로폰(20)은 최단 방출기를 결정하기 위해 사용될 수 있다. 대안적으로, 초음파 소스는 초음파 소스의 방향에서 최단 객체에 대한 거리를 결정하기 위해 사용되는 마이크로폰 및 디바이스(10) 상에 장착될 수 있다. 부가적으로 또는 대안적으로, 마이크로폰(20)은 다른 주변 사운드들을 검출하기 위해 사용될 수 있고 그러한 정보는 사용자가 존재하는 위치 또는 위치의 타입을 결정하기 위해 적어도 부분적으로 사용될 수 있다. 일부 실시예들에서, RFID 태그 판독기는 RFID 태그들이 사용자의 위치를 결정하기 위해 사용될 수 있도록 디바이스(10)에 포함될 수 있다. 부가 예로서, Wi-Fi 신호들 및/또는 다른 통신 신호들은 사용자의 위치를 결정하기 위해 디바이스(10)에 탑재되는 적절한 송수신기들 및 로직에 의해 수신되고 삼각법으로 측정될 수 있다. 본 기술분야의 통상의 기술자는 본 발명이 위에서 열거된 예들에 제한되지 않는 것 및 다수의 위치 식별 수단이 착용자에 관한 위치 정보를 결집하거나 결정하기 위해 사용될 수 있는 것을 이해할 것이다.
일부 실시예들에서, 하나 이상의 부가 디바이스들은 디바이스(10) 내에 내장되거나 디바이스와 결합될 수 있다. 예를 들어, 장면 카메라(18)는 사용자가 이동하고/하거나 볼 수 있는 영역에 이미지들을 기록하기 위해 사용될 수 있다. 자이로스코프는 어느 방향을 디바이스(10)가 지적하고 있는지 및 따라서 어느 방향을 사용자가 보고 있는지를 식별하기 위해 나침반 유사 피처를 위해 사용될 수 있다. 그 다음, 디바이스 내의 이미지 센서들(78)은 머리가 가리키고 있는 방향에 기초하여 사용자의 응시 지점의 각도 및 거리를 식별할 수 있다. 이들 다수의 센서들로부터의 정보는 조합하여 착용자의 응시를 나타내는 벡터를 계산하기 위해 사용될 수 있다. 이러한 벡터는 장면 카메라(18)의 뷰로 변환되고 시각화될 수 있다. 벡터는 사용자의 응시가 포커싱된 곳에 관한 정보에 기초하여 히트 맵을 제공하기 위해 일부 실시예들에서 사용될 수 있다. 디바이스(10) 상에 제공되는 디스플레이(30)는 사용자가 디바이스(10)에 의해 제공되는 이러한 또는 다른 시각 데이터를 보는 것을 허용할 수 있다. 예로서만, 그러한 디스플레이(30)는 LCD 스크린, LED 스크린, 프리즘 프로젝터, 및/또는 다른 디스플레이 기술들을 포함할 수 있다.
본 발명의 일부 실시예들에서, 응시 벡터는 관점을 사용자의 견지에서 응시 벡터를 따라 시뮬레이션하기 위해 사용될 수 있다. 위에서 설명된 바와 같이, 응시 벡터는 디바이스(10)에 부착되는 장면 카메라(18)로부터 이미지를 안정화하기 위해 사용될 수 있다. 그러나, 장면 카메라(18)는 충분한 품질의 비디오를 캡처하지 않거나 비디오를 충분한 품질로 전송하는 능력을 갖지 않을 수 있다. 따라서, 응시 벡터는 장면 카메라(18)로부터 뷰를 모방하는 컴포지트 뷰를 준비하기 위해 고정 또는 추적 카메라들과 같은 다른 카메라들로부터의 비디오 데이터와 함께 사용될 수 있다. 유사하게, 하나 이상의 사용자들에 대한 응시 벡터들은 개요 관점에서 디스플레이될 수 있다. 본 발명의 이러한 적용은 스포츠 경기들에 특히 적절할 수 있다. 예를 들어, 축구 경기에서, 개별 플레이어에 대한 응시 벡터는 다른 플레이어들의 일부 또는 전부에 대한 응시 벡터들과 함께 디스플레이될 수 있다. 더욱이, 장면 카메라 뷰 또는 근사 장면 카메라 뷰의 화면 속 화면은 공을 갖는 플레이어에 대해 디스플레이될 수 있다. 유사한 적용은 대규모 공동 치안 활동들에 사용될 수 있다. 본 기술분야의 통상의 기술자는 본 발명이 위에서 열거된 예들에 제한되지 않는 것, 및 상이한 스포츠에서의 적용 및 다른 상황 내의 적용이 유용할 수 있는 것을 이해할 것이다.
응시 벡터는 하나 이상의 장면 카메라들(18)로부터의 비디오 데이터를 다수의 방식들로 최적화하기 위해 추가로 사용될 수 있다. 본 발명의 일 실시예에서, 응시 벡터는 장면 카메라(18)에 대한 초점 및 광 설정들을 결정하기 위해 사용될 수 있다. 예를 들어, 장면 카메라(18)는 응시 벡터의 타깃에 포커싱될 수 있다. 더욱이, 장면 카메라(18)의 조명 레벨들은 결정된 응시 방향의 타깃 영역에 대해 최적화될 수 있다. 컴퓨터 비전이 장면 카메라(18)에 의해 캡처되는 객체들을 검출하기 위해 사용되는 본 발명의 실시예들에서, 사용자로부터 객체들의 거리에 관한 정보는 장면 카메라(18)의 노출 또는 조명 설정들을 추가로 개선하기 위해 결정되고 사용될 수 있다. 일부 실시예들에서, 응시 타깃 영역은 적어도 일부의 사용자의 시야의 이미지들을 나타내는 이미지 데이터 내에서 결정될 수 있다. 이들 실시예들의 일부에서, 응시 타깃 영역은 장면 카메라로부터의 이미지에서 이미지 데이터의 5 퍼센트 미만, 10 퍼센트 미만, 15 퍼센트 미만, 20 퍼센트 미만, 25 퍼센트 미만, 30 퍼센트 미만, 35 퍼센트 미만, 40 퍼센트 미만, 45 퍼센트 미만, 또는 50 퍼센트 미만을 포함할 수 있다. 그 다음, 제어 유닛(22)은 응시 타깃 영역에 기초하여, 및/또는 이 영역 내에서 초점 및 광 감도 중 적어도 하나를 조정하기 위해 장면 카메라를 제어할 수 있다.
그러나, 다른 실시예들에서, 장면 카메라(18)의 조정은 필요하지 않을 수 있다. 예를 들어, 사용자가 밝은 주간에 자동차를 운전하고 있을 때, 장면 카메라(18)는 윈드실드를 통해 자동차의 대시보드 및 뷰를 캡처할 수 있다. 윈드실드를 통해 보여지는 객체들은 대시보드보다 훨씬 더 높은 레벨에서 조명될 수 있고, 자연스럽게 훨씬 더 멀리 있게 된다. 표준 자동 초점 및 광 검출을 사용하면, 장면 카메라(18)는 검출된 이미지에서의 평균 밝기에 기초하여 조정되고 카메라 뷰의 중심 내의 객체에 포커싱될 수 있다. 그러나, 응시 벡터가 사용될 때, 이미지는 사용자가 대시보드를 볼 때 대시보드 상에 포커싱되고, 사용자가 도로를 볼 때 도로 상에 포커싱될 수 있다. 유사하게, 캡처된 비디오의 조명 레벨들은 사용자가 대시보드를 볼 때 대시보드에 적절하게 조정되고, 사용자가 도로를 볼 때 도로에 적절하게 조정될 수 있다.
일부 실시예들에서, 응시 데이터는 이미지의 영역들을 더 상세하게 우선순위화하기 위해 사용될 수 있다. 사용된 비디오 압축에 기초하여, 우선순위는 응시에 의해 타깃화되는 이미지의 영역에 주어질 수 있다. 다른 실시예들에서, 비디오 스트림은 2개 이상의 피드들로 분할될 수 있다. 하나의 저품질 피드는 장면 카메라의 전체 시야를 포함할 수 있는 반면에, 고품질 피드는 응시 벡터의 타깃 주위에 작은 영역을 포함할 수 있다. 다른 실시예에서, 비디오 피드들의 매트릭스가 사용될 수 있고 그들의 비트레이트는 응시 벡터의 위치에 기초하여 동적으로 적응될 수 있다. 본 기술분야의 통상의 기술자는 비디오 품질이 다수의 상이한 방식들로 조정될 수 있는 것 및 본 발명이 위에서 열거된 예들에 제한되지 않는 것을 이해할 것이다.
추가 실시예들에서, 디바이스(10)는 사운드들을 사용자에게 방출하는 스피커를 포함할 수 있다. 스피커는 사용자의 귀에 근접하는 디바이스(10) 상에 배치될 수 있다.
프로세서가 장면 카메라(18)에 의해 캡처되는 이미지들에서 객체들을 검출하기 위해 사용되는 실시예들에서, 응시 벡터는 응시 타깃 주위에서 이미지 데이터의 서브세트만을 선택하여 처리하고 따라서 처리 작업의 양을 감소시켜 피드백 시간, 배터리 시간 등을 개선하기 위해 사용될 수 있다.
본 발명의 실시예들은 동작이 디바이스(10), 그것의 일부 서브구성요소, 또는 연결된 시스템, 예컨대 컴퓨터, 태블릿, 텔레비전, 및/또는 게임 머신에 의해 수행되게 하는 동작 트리거들을 이용할 수 있다. 일부 실시예들에 따르면, 동작 트리거는 이하를 포함하는, 많은 가능한 방식들로 디바이스(10)에 의해 수행될 수 있다:
● 센서(78)에 의해 캡처되고 디바이스(10) 또는 연결된 시스템에 의해 처리되어, 프리젠트 아이(present eye), 애브센트 아이(absent eye), 깜박거림, 고정, 단속성 운동(saccade), 사용자의 응시 방향 또는 사용자의 응시의 움직임을 미리 결정된 패턴으로 검출하는 이미지들.
● 장면 카메라(18)에 의해 캡처되고 디바이스(10) 또는 연결된 시스템에 의해 처리되어, 컴퓨터 비전 알고리즘들을 사용하여 광, 식별된 객체(들), 식별된 패턴(들) 및 식별된 제스처(들)의 변화들을 검출하는 이미지들.
● 스위치 또는 버튼 기반 트리거. 예를 들어, 디바이스(10) 또는 다른 디바이스 상의 물리 버튼.
● 오디오 기반 트리거. 예를 들어, 사용자가 말하고 마이크로폰(20)에 의해 검출되는 사운드들, 단어들 또는 커맨드들.
● 가속도계- 또는 자이로스코프-검출 동작 트리거, 예컨대 끄덕임 또는 다른 머리 움직임.
● 위에서 설명된 동작들의 조합.
본 발명의 실시예들은 외부 객체들이 디바이스(10)의 교정 프로세스를 용이하게 하기 위해 사용될 수 있는 교정 기술들을 포함한다. 예로서만, 조명기들(76), 이미지 센서들(78), 및/또는 제어 유닛(22)의 알고리즘들은 그러한 교정 동안에 조정될 수 있다. 일부 실시예들에서, 인쇄 매체, 텔레비전, 또는 다른 디스플레이와 같은 외부 디바이스는 디바이스(10)에 의해 용이하게 식별가능한 피처를 포함할 수 있다. 일부 실시예들에서, 피처는 특정 프레임, QR 코드, 비가시 피처(즉, 적외선 피처), 및/또는 다른 가시 피처일 수 있다. 피처는 디바이스(10)에 의해 인식될 때, 디바이스(10)가 인터넷, 블루투스, wi-fi 또는 임의의 다른 통신 프로토콜과 같은 통신 프로토콜을 통해 외부 디바이스에 연결되는 것을 허용하는 식별 코드를 포함할 수 있다. 그 다음, 외부 디바이스는 교정을 위한 아이콘들이 스크린 상에 디스플레이되고 교정 명령어들이 스피커들을 통해 제시되거나 방출되는 교정 모드에 진입할 수 있다. 특정 교정 프로세스들은 널리 공지되어 있지만 전형적으로 사용자가 이때 응시하는 스크린 상에 아이콘들의 정돈된 디스플레이를 포함하고, 디바이스(10)는 각각의 디스플레이된 아이콘에 대해 응시 방향을 결정한다.
특정 예로서, 일부 실시예들은 디바이스(10)가 사용자에 의해 착용될 때, 패턴이 사용자의 전면에 배치되어 패턴이 장면 카메라(18)의 시야 내에 있는 교정 방법을 수행할 수 있다. 장면 카메라(18)는 패턴의 이미지들을 기록하는 반면에, 이미지 센서들(78)은 사용자의 눈(들)의 이미지들을 캡처한다. 처리 디바이스는 패턴을 분석하고 패턴의 공지된 구성요소들을 결정한다. 처리 디바이스는 이미지 센서들(78)에 의해 캡처되는 이미지들을 이용하는 사용자의 응시 방향을 분석하고 패턴의 공지된 구성요소들에 대한 응시 방향과 일치한다. 구성요소들이 공지되어 있으므로, 처리 디바이스는 구성요소들의 위치와 사용자의 결정된 응시 방향 사이의 오프셋을 결정할 수 있다. 이러한 오프셋을 인식함으로써, 디바이스는 특정 사용자를 위해 교정되고 다른 객체들에 대해 사용자의 응시 방향을 결정할 때 오프셋을 고려할 수 있다.
또한, 디바이스(10)는 사용자의 응시 방향과 패턴 또는 유사한 것의 공지된 구성요소들 사이의 관계를 분석하는 것으로부터 획득되는 정보를 알고리즘 또는 수학적 모델에 이용할 수 있다. 예로서, 디바이스(10)는 본 기술분야의 통상의 기술자에 의해 용이하게 이해되는 바와 같이, 응시 방향을 결정하기 위해 사용되는 알고리즘 또는 눈 모델에 사용되는 파라미터의 값을 설정할 수 있다.
일부 실시예들에서, 부가 기능성은 디바이스(10)가 슈퍼마켓과 같은 소매 또는 소비자 구매 환경의 맥락에서 사용될 때 제공될 수 있다. 디바이스는 사용자의 프로파일을 일치시키기 위해 개인 교정 데이터와 같은 정보를 미리 설치할 수 있다. 디바이스(10)가 사용자에 의해 착용되면, 그것은 저전력 모드로부터 정상 전력 모드로 변화되고 동작 모드에 진입할 수 있다. 디바이스(10)는 가상 쇼핑 카트로부터 아이템들을 추가하고 제거함으로써 사용자가 그들의 쇼핑 청구서를 쌍방향으로 관리하는 것을 허용할 수 있다. 예를 들어, 사용자가 아이템을 그들의 쇼핑 카트에 둘 때, 그들은 아이템 상의 바코드를 보고 그들의 손가락이 바코드를 가로지르면서 우측에서 좌측으로 읽어서 아이템이 리스트에 추가되어야 하는 것을 표시할 수 있다. 디바이스(10)는 제스처를 인식하고 아이템을 디바이스(10) 상의 또는 디바이스(10)와 통신하는 원격 위치에서의 가상 리스트에 추가할 수 있다. 이러한 가상 리스트는 바코드를 가로질러 좌측에서 우측으로 읽혀서 아이템들을 제거하고, 상단에서 하단으로 읽혀서 아이템에 관한 추가 정보를 획득하고 쇼핑 카트를 응시하고 미리 결정된 위치를 터치하여 리스트 또는 다른 정보에 관한 피드백을 경청함으로써 사용자에 의해 제어될 수 있다. 상점에서 체크 아웃하면, 가상 리스트는 계산원 또는 자동 기계에 의해 검색될 수 있고 사용자는 쇼핑 카트 내의 아이템들의 대금을 직접 지불할 수 있다. 추가 실시예에서, 사용자는 상점을 직접 나갈 수 있고, 상점을 나가면, 리스트의 값은 신용 카드 또는 계좌와 같은 금융 소스로부터 공제될 수 있다.
다른 실시예에서, 디바이스(10)는 사용자에 의해 판독되는 텍스트를 포함하는 이미지 데이터 상에 광학 문자 인식(optical character recognition)(OCR)을 수행할 수 있다. 예를 들어, 장면 카메라(18)는 사용자의 응시 방향에 의해 결정되는 바와 같이 사용자에 의해 판독되는 텍스트의 이미지들을 기록할 수 있다. 디바이스(10), 또는 디바이스(10)와 통신하는 컴퓨팅 디바이스는 텍스트를 포함하는 단어들을 결정하기 위해 텍스트의 이미지들 상에 OCR을 수행할 수 있다. OCR 기술들은 잘 이해되고 본 기술분야에 공지되어 있다. 텍스트가 OCR 기술을 사용하여 분석되었다면, 그것은 텍스트를 큰소리로 읽어 내는 텍스트-투-스피치 기능성에 송신되고, 실시간으로 사용자에게 제공되는 결과로 변환되고, 및/또는 컴퓨팅 디바이스에 의해 용이하게 조작되고 이해될 수 있는 텍스트 데이터 또는 스트링으로 저장될 수 있다. 텍스트는 사용자에 의한 검색을 위해 저장되거나, 컴퓨팅 디바이스 또는 서비스에 의해 이용되어 사용자의 습관들을 이해할 수 있다. 예를 들어, 텍스트는 사용자에게 특정 요구의 제품 또는 서비스를 보여 줄 수 있다. 실시예들에서, 텍스트 데이터는 사용자에게 디스플레이될 광고들 등을 맞춤화하기 위해 이용될 수 있다.
본 발명의 실시예들에서, 디바이스(10)는 바코드 또는 표준 객체의 크기와 같은 공지된 정보를 고려할 수 있다. 예를 들어, 저장소 내의 제품은 다수의 바코드들을 포함할 수 있으며, 하나의 더 큰 바코드는 제품 식별자 또는 SKU을 포함하고, 하나의 더 작은 바코드는 그러한 박스 내의 특정 아이템의 일련 번호를 포함한다. 디바이스(10)는 쇼핑 리스트를 준비할 때 이미지 센서들(78)에게 더 큰 코드만을 판독하라고 명령하도록 구성될 수 있다. 이것은 더 좋은 정확도를 위해 응시 초점 거리에 기초할 수 있다. 또한, 객체 인식 라이브러리들과 같은 다수의 소프트웨어 솔루션들은 표준 크기의 비디오를 필요로 한다. 따라서, 디바이스(10)는 요구된 크기만의 이미지들 또는 비디오를 캡처하거나, 캡처된 이미지들 또는 비디오를 크롭하여 그들은 요구된 크기가 될 수 있다.
도 5는 본원에 설명된 바와 같이 착용가능 프레임을 사용하여 사용자의 응시 방향을 결정하기 위한 본 발명의 하나의 가능한 방법(500)의 블록도를 도시한다. 블록(510)에서, 위에서 논의된 바와 같이, 디바이스(10)는 초기 사용 전에 교정될 수 있다. 블록(520)에서, 움직임 센서 또는 위치결정 디바이스(25)로부터의 것과 같은 비-이미지 정보가 제어 유닛(22)에 의해 취득될 수 있다. 다른 타입의 비-이미지 정보(예를 들어, 마이크로폰(20)으로부터의 정보)가 또한 본원에 설명된 바와 같이 수신될 수 있다. 블록(530)에서, 장면 카메라(18)로부터의 이미지 정보가 제어 유닛(22)에 의해 수신될 수 있다.
블록(540)에서, 제어 유닛(22)은 단계(510)에서의 교정 중에 확립되는 설정들에 따라 조명기들(76)을 활성화할 수 있다. 블록(550)에서, 이미지 데이터가 제어 유닛(22)에 의해 이미지 센서들(78)로부터 수신될 수 있다. 블록(560)에서, 제어 유닛(22)은, 그것이 수신한 정보로부터, 응시 방향이 위에서 설명된 바와 같이 결정될 수 있는지를 결정할 수 있다. 그렇지 않으면, 블록(570)에서, 디바이스(10)의 조명기들(76), 이미지 센서들(78), 및/또는 다른 구성요소들은 본원에 설명된 바와 같이 조정될 수 있고, 그 다음 방법(500)은 블록(520)으로 복귀한다. 일부 실시예들에서, 방법(500)은 응시 방향이 결정될 수 없으면 블록(530) 또는 블록(540)과 같은 다른 단계로 복귀할 수 있다. 제어 유닛(22)은, 그것이 수신한 정보로부터, 응시 방향을 결정할 수 있으면, 블록(580)에서 응시 방향이 결정된다. 방법(500)은 필요에 따라 응시 방향을 재결정하기 위해 규칙적 또는 불규칙적 간격들로 반복될 수 있다.
도 6은 본 발명의 실시예들이 구현될 수 있는 예시적인 컴퓨터 시스템(600)을 예시하는 블록도이다. 이러한 예는 위에서 논의된 것들과 같은 본 발명의 제어 유닛(22), 조명기들(76), 이미지 센서들(78) 및/또는 다른 구성요소들의 기능들을 제공하고/하거나 제어하기 위해, 전체적으로, 부분적으로, 또는 다양한 수정들로 사용될 수 있는 것과 같은 컴퓨터 시스템(600)을 예시한다. 예를 들어, 제어 유닛(22)의 다양한 기능들은 예로서만, 조명기들(76)을 제어하는 것, 이미지 센서들(78)로부터 이미지들을 수신하는 것, 이미지 센서들(78)로부터 데이터를 처리하는 것 등을 예로서만, 포함하는 컴퓨터 시스템(600)에 의해 제어될 수 있다.
버스(690)를 통해 전기적으로 결합될 수 있는 하드웨어 요소들을 포함하는 컴퓨터 시스템(600)이 도시되어 있다. 하드웨어 요소들은 하나 이상의 중앙 처리 유닛들(610), 하나 이상의 입력 디바이스들(620)(예를 들어, 마우스, 키보드 등), 및 하나 이상의 출력 디바이스들(630)(예를 들어, 디스플레이 디바이스, 프린터 등)을 포함할 수 있다. 컴퓨터 시스템(600)은 또한 하나 이상의 저장 디바이스(640)를 포함할 수 있다. 예로서, 저장 디바이스(들)(640)는 디스크 드라이브들, 광학 저장 디바이스들, 고체 상태 저장 디바이스 예컨대 랜덤 액세스 메모리("RAM") 및/또는 판독 전용 메모리("ROM")일 수 있으며, 이는 프로그램가능, 플래시-업데이트가능하거나 할 수 있다.
컴퓨터 시스템(600)은 컴퓨터 판독가능 저장 매체 판독기(650), 통신 시스템(660)(예를 들어, 모뎀, 네트워크 카드(무선 또는 유선), 적외선 통신 디바이스, 블루투스™ 디바이스, 셀룰러 통신 디바이스 등), 및 위에서 설명된 바와 같은 RAM 및 ROM 디바이스들을 포함할 수 있는 작업 메모리(680)를 부가적으로 포함할 수 있다. 일부 실시예들에서, 컴퓨터 시스템(600)은 또한 디지털 신호 프로세서, 특수 목적 프로세서 등을 포함할 수 있는 처리 가속 유닛(670)을 포함할 수 있다.
컴퓨터 판독가능 저장 매체 판독기(650)는 컴퓨터 판독가능 정보를 일시적으로 및/또는 더 영구적으로 포함하기 위한 광범위하게 나타내는 원격, 국부, 고정, 및/또는 착탈식 저장 디바이스들 플러스 저장 매체와 함께(및, 임의로, 저장 디바이스(들)(640)과 조합하여), 컴퓨터 판독가능 저장 매체에 추가로 연결될 수 있다. 통신 시스템(660)은 데이터가 위에서 설명된 네트워크, 시스템, 컴퓨터 및/또는 다른 구성요소와 교환되는 것을 허용할 수 있다.
컴퓨터 시스템(600)은 또한 운영 체제(684) 및/또는 다른 코드(688)를 포함하는 작업 메모리(680) 내에 현재 위치되는 것으로 도시된 소프트웨어 요소들을 포함할 수 있다. 컴퓨터 시스템(600)의 대안적인 실시예들은 위에서 설명된 것으로부터 다수의 변형들을 가질 수 있다는 점이 이해되어야 한다. 예를 들어, 맞춤형 하드웨어가 또한 사용될 수 있고/있거나 특정 요소들은 하드웨어, 소프트웨어(애플릿들과 같은 휴대용 소프트웨어를 포함함), 또는 둘 다로 구현될 수 있다. 더욱이, 네트워크 입력/출력 및 데이터 취득 디바이스들과 같은 다른 컴퓨팅 디바이스들에의 연결이 또한 발생할 수 있다.
컴퓨터 시스템(600)의 소프트웨어는 본원에 설명된 바와 같이 아키텍처의 다양한 요소들의 기능 중 임의의 것 또는 모두를 구현하는 코드(688)를 포함할 수 있다. 예를 들어, 시스템(600)과 같은 컴퓨터 시스템 상에 저장되고/되거나 실행되는 소프트웨어는 위에서 논의된 것들과 같은 본 발명의 제어 유닛(22), 조명기들(76), 이미지 센서들(78), 및/또는 다른 구성요소들의 기능들을 제공할 수 있다. 이들 구성요소들의 일부 상에 소프트웨어에 의해 구현가능한 방법들은 위에서 논의되었다.
본 발명은 명확성 및 이해의 목적들을 위해 지금까지 설명되었다. 그러나, 특정 변경들 및 수정들은 첨부된 청구항들의 범위 내에서 실시될 수 있다는 점이 이해될 것이다.

Claims (20)

  1. 휴대용 눈 추적기 디바이스로서,
    사용자에 의해 착용되도록 되어 있는 프레임;
    적어도 하나의 광학계 유지 부재 - 상기 광학계 유지 부재는,
    상기 사용자의 적어도 하나의 눈의 적어도 일부를 선택적으로 조명하도록 구성된 적어도 하나의 조명기; 및
    상기 사용자의 적어도 하나의 눈의 적어도 일부의 이미지들을 나타내는 이미지 데이터를 캡처하도록 구성된 적어도 하나의 이미지 센서
    를 포함함 -;
    상기 프레임의 움직임을 검출하도록 구성된 움직임 센서; 및
    제어 유닛
    을 포함하고,
    상기 제어 유닛은,
    상기 사용자의 적어도 하나의 눈의 적어도 일부의 선택적 조명을 위해 상기 적어도 하나의 조명기를 제어하고;
    상기 이미지 센서들로부터 상기 이미지 데이터를 수신하고;
    상기 움직임 센서로부터 정보를 수신하고;
    상기 움직임 센서로부터 수신된 정보 및 상기 이미지 데이터에 적어도 부분적으로 기초하여, 상기 사용자에 대한 응시 타깃 영역을 결정하도록
    구성되는 휴대용 눈 추적기 디바이스.
  2. 삭제
  3. 제1항에 있어서,
    상기 움직임 센서는 자이로스코프를 포함하는 휴대용 눈 추적기 디바이스.
  4. 삭제
  5. 제1항에 있어서,
    상기 사용자의 반대쪽을 향하며(facing away from), 상기 사용자의 시야의 적어도 일부의 이미지들을 나타내는 다른 이미지 데이터를 캡처하도록 구성된 장면 카메라(scene camera)를 더 포함하는 휴대용 눈 추적기 디바이스.
  6. 제5항에 있어서,
    상기 사용자에 대한 응시 타깃 영역을 결정하는 것은 상기 사용자의 상기 시야의 상기 적어도 일부의 이미지들을 나타내는 상기 다른 이미지 데이터 내에서 상기 응시 타깃 영역을 결정하는 것을 포함하고 - 상기 응시 타깃 영역은 상기 장면 카메라로부터의 상기 다른 이미지 데이터의 10 퍼센트 미만을 포함함 -;
    상기 제어 유닛은 상기 응시 타깃 영역에 기초하여 초점 또는 광 감도 중 적어도 하나를 조정하기 위해 상기 장면 카메라를 제어하도록 추가로 구성되는 휴대용 눈 추적기 디바이스.
  7. 제6항에 있어서,
    모든 조명기가 동일한 파장의 광을 방출하는 휴대용 눈 추적기 디바이스.
  8. 제1항에 있어서,
    상기 제어 유닛은,
    상기 사용자의 적어도 하나의 눈의 적어도 일부를 선택적으로 조명하도록 상기 적어도 하나의 조명기의 제1 서브세트를 제어하고;
    상기 제1 서브세트의 적어도 하나의 이미지 센서로부터 제1 세트의 이미지 데이터를 수신하고 - 상기 제1 세트의 이미지 데이터는, 상기 사용자의 적어도 하나의 눈이 상기 적어도 하나의 조명기의 제1 서브세트로부터의 광에 노출될 때 캡처되는 상기 사용자의 적어도 하나의 눈의 적어도 일부의 이미지들을 나타냄 -;
    상기 제1 세트의 이미지 데이터에 기초하여 응시 타깃 영역이 결정될 수 없다는 것을 결정하고;
    상기 사용자의 적어도 하나의 눈의 적어도 일부를 선택적으로 조명하도록 상기 적어도 하나의 조명기의 제2 서브세트를 제어하고;
    상기 제2 서브세트의 적어도 하나의 이미지 센서로부터 제2 세트의 이미지 데이터를 수신하고 - 상기 제2 세트의 이미지 데이터는, 상기 사용자의 적어도 하나의 눈이 상기 적어도 하나의 조명기의 제2 서브세트로부터의 광에 노출될 때 캡처되는 상기 사용자의 적어도 하나의 눈의 적어도 일부의 이미지들을 나타냄 -;
    상기 제2 세트의 이미지 데이터에 적어도 부분적으로 기초하여 상기 사용자에 대한 상기 응시 타깃 영역을 결정하도록
    추가로 구성되는 휴대용 눈 추적기 디바이스.
  9. 제1항에 있어서,
    상기 휴대용 눈 추적기 디바이스는 상기 휴대용 눈 추적기 디바이스의 위치를 결정하도록 구성된 위치결정 디바이스를 더 포함하고,
    상기 사용자에 대한 응시 타깃 영역을 결정하는 것은 추가로 상기 위치결정 디바이스로부터 수신된 위치 정보에 적어도 부분적으로 기초하는 휴대용 눈 추적기 디바이스.
  10. 제1항에 있어서,
    상기 제어 유닛은,
    적어도 하나의 이미지 센서로부터 이미지 데이터를 수신하고;
    상기 이미지 데이터로부터 주변 광의 레벨을 결정하고;
    상기 주변 광의 레벨에 적어도 부분적으로 기초하여 적어도 하나의 조명기의 밝기 또는 노출 시간을 조정하도록
    추가로 구성되는 휴대용 눈 추적기 디바이스.
  11. 제1항에 있어서,
    상기 사용자에 의해 뷰잉가능한 디스플레이를 더 포함하는 휴대용 눈 추적기 디바이스.
  12. 제1항에 있어서,
    상기 제어 유닛은, 상기 사용자의 눈들 외의 영역들을 포함하는 이미지들을 나타내는 이미지 데이터를 적어도 하나의 이미지 센서로부터 수신하도록 추가로 구성되는 휴대용 눈 추적기 디바이스.
  13. 사용자에 대한 응시 방향을 결정하는 방법으로서,
    사용자의 눈들 중 적어도 하나의 눈의 적어도 일부를 선택적으로 조명하기 위해 상기 사용자에 의해 착용된 프레임 상의 적어도 하나의 조명기를 활성화하는 단계;
    상기 프레임 상의 적어도 하나의 이미지 센서로부터 상기 사용자의 눈들 중 적어도 하나의 눈의 적어도 일부의 이미지들을 나타내는 이미지 데이터를 수신하는 단계;
    상기 프레임의 움직임을 검출하도록 구성된 움직임 센서로부터 정보를 수신하는 단계; 및
    상기 움직임 센서로부터의 정보 및 상기 이미지 데이터에 적어도 부분적으로 기초하여, 상기 사용자에 대한 응시 타깃 영역을 결정하는 단계
    를 포함하는 방법.
  14. 제13항에 있어서,
    상기 움직임 센서는 자이로스코프를 포함하는 방법.
  15. 제13항에 있어서,
    상기 사용자의 시야의 적어도 일부의 이미지들을 나타내는, 장면 카메라에 의해 캡처된 다른 이미지 데이터를 수신하는 단계를 더 포함하는 방법.
  16. 제15항에 있어서,
    상기 사용자에 대한 응시 타깃 영역을 결정하는 단계는 상기 사용자의 상기 시야의 상기 적어도 일부의 이미지들을 나타내는 상기 다른 이미지 데이터 내에서 응시 타깃 영역을 결정하는 단계를 포함하고 - 상기 응시 타깃 영역은 상기 장면 카메라로부터의 상기 다른 이미지 데이터의 10 퍼센트 미만을 포함함 -;
    상기 방법은 상기 응시 타깃 영역에 기초하여 초점 또는 광 감도 중 적어도 하나를 조정하도록 상기 장면 카메라를 제어하는 단계를 더 포함하는 방법.
  17. 사용자에 대한 응시 방향을 결정하기 위한 명령어들을 갖는 비일시적인 머신 판독가능 매체로서,
    상기 명령어들은, 적어도,
    사용자의 눈들 중 적어도 하나의 눈의 적어도 일부를 선택적으로 조명하기 위해 상기 사용자에 의해 착용된 프레임 상의 적어도 하나의 조명기를 활성화하고;
    상기 프레임 상의 적어도 하나의 이미지 센서로부터 상기 사용자의 눈들 중 적어도 하나의 눈의 적어도 일부의 이미지들을 나타내는 이미지 데이터를 수신하고;
    상기 프레임의 움직임을 검출하도록 구성된 움직임 센서로부터 정보를 수신하고;
    상기 움직임 센서로부터의 정보 및 상기 이미지 데이터에 적어도 부분적으로 기초하여, 상기 사용자에 대한 응시 타깃 영역을 결정하기 위해
    프로세서에 의해 실행가능한 비일시적인 머신 판독가능 매체.
  18. 제17항에 있어서,
    상기 움직임 센서는 자이로스코프를 포함하는 비일시적인 머신 판독가능 매체.
  19. 제17항에 있어서,
    상기 명령어들은, 적어도, 상기 사용자의 시야의 적어도 일부의 이미지들을 나타내는, 장면 카메라에 의해 캡처된 다른 이미지 데이터를 수신하기 위해 추가로 실행가능한 비일시적인 머신 판독가능 매체.
  20. 제19항에 있어서,
    상기 사용자에 대한 응시 타깃 영역을 결정하는 것은 상기 사용자의 상기 시야의 상기 적어도 일부의 이미지들을 나타내는 상기 다른 이미지 데이터 내에서 응시 타깃 영역을 결정하는 것을 포함하고 - 상기 응시 타깃 영역은 상기 장면 카메라로부터의 상기 다른 이미지 데이터의 10 퍼센트 미만을 포함함 -;
    상기 명령어들은, 적어도, 상기 응시 타깃 영역에 기초하여 초점 또는 광 감도 중 적어도 하나를 조정하도록 상기 장면 카메라를 제어하기 위해 추가로 실행가능한 비일시적인 머신 판독가능 매체.
KR1020167008758A 2013-09-03 2014-05-19 휴대용 눈 추적 디바이스 KR101882594B1 (ko)

Applications Claiming Priority (11)

Application Number Priority Date Filing Date Title
US201361873154P 2013-09-03 2013-09-03
US61/873,154 2013-09-03
US14/281,587 2014-05-19
US14/281,616 US9665172B2 (en) 2013-09-03 2014-05-19 Portable eye tracking device
US14/281,676 2014-05-19
US14/281,599 US10277787B2 (en) 2013-09-03 2014-05-19 Portable eye tracking device
US14/281,599 2014-05-19
PCT/US2014/038653 WO2015034561A1 (en) 2013-09-03 2014-05-19 Portable eye tracking device
US14/281,587 US9041787B2 (en) 2013-09-03 2014-05-19 Portable eye tracking device
US14/281,616 2014-05-19
US14/281,676 US9710058B2 (en) 2013-09-03 2014-05-19 Portable eye tracking device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020187020804A Division KR101968455B1 (ko) 2013-09-03 2014-05-19 휴대용 눈 추적 디바이스

Publications (2)

Publication Number Publication Date
KR20160111018A KR20160111018A (ko) 2016-09-23
KR101882594B1 true KR101882594B1 (ko) 2018-07-26

Family

ID=52582484

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020167008758A KR101882594B1 (ko) 2013-09-03 2014-05-19 휴대용 눈 추적 디바이스
KR1020167008761A KR101926942B1 (ko) 2013-09-03 2014-05-19 휴대용 눈 추적 디바이스
KR1020187020804A KR101968455B1 (ko) 2013-09-03 2014-05-19 휴대용 눈 추적 디바이스

Family Applications After (2)

Application Number Title Priority Date Filing Date
KR1020167008761A KR101926942B1 (ko) 2013-09-03 2014-05-19 휴대용 눈 추적 디바이스
KR1020187020804A KR101968455B1 (ko) 2013-09-03 2014-05-19 휴대용 눈 추적 디바이스

Country Status (5)

Country Link
US (13) US9665172B2 (ko)
EP (2) EP3041401A1 (ko)
KR (3) KR101882594B1 (ko)
CN (4) CN105960193A (ko)
WO (2) WO2015034561A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022114307A1 (ko) * 2020-11-27 2022-06-02 가온미디어 주식회사 가변형 투과도를 가지는 슬림형 xr 디바이스 및 그 제어 방법
WO2022114306A1 (ko) * 2020-11-27 2022-06-02 가온미디어 주식회사 5g 통신 기능을 가지는 슬림형 xr 디바이스 및 그 제어 방법

Families Citing this family (141)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10528130B2 (en) 2010-07-23 2020-01-07 Telepatheye Inc. Unitized eye-tracking wireless eyeglasses system
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
US10310597B2 (en) 2013-09-03 2019-06-04 Tobii Ab Portable eye tracking device
US10686972B2 (en) 2013-09-03 2020-06-16 Tobii Ab Gaze assisted field of view control
KR101882594B1 (ko) 2013-09-03 2018-07-26 토비 에이비 휴대용 눈 추적 디바이스
US10082664B2 (en) * 2013-09-23 2018-09-25 Samsung Electronics Co., Ltd. Tracking optics for a mobile device
US9836639B2 (en) * 2014-01-10 2017-12-05 Facebook, Inc. Systems and methods of light modulation in eye tracking devices
KR20150126501A (ko) * 2014-05-02 2015-11-12 엘지전자 주식회사 조명 시스템 및 그 동작 방법
KR20150126189A (ko) * 2014-05-02 2015-11-11 엘지전자 주식회사 조명 시스템 및 그 동작 방법
KR102230172B1 (ko) * 2014-05-09 2021-03-19 아이플루언스, 인크. 실제 및 가상의 객체와 인터페이싱하기 위한 생체기계학-기반의 안구 신호를 위한 시스템 및 방법
US9727136B2 (en) * 2014-05-19 2017-08-08 Microsoft Technology Licensing, Llc Gaze detection calibration
US10204658B2 (en) 2014-07-14 2019-02-12 Sony Interactive Entertainment Inc. System and method for use in playing back panorama video content
US20170186236A1 (en) * 2014-07-22 2017-06-29 Sony Corporation Image display device, image display method, and computer program
US9952883B2 (en) 2014-08-05 2018-04-24 Tobii Ab Dynamic determination of hardware
KR102281149B1 (ko) * 2014-10-22 2021-07-23 삼성전자주식회사 고 조도 환경 및 저 조도 환경에서 동작 가능한 시점 추적 장치 및 그 방법
KR20160059406A (ko) 2014-11-18 2016-05-26 삼성전자주식회사 가상 이미지를 출력하기 위한 웨어러블 장치 및 방법
US9844119B2 (en) * 2015-02-10 2017-12-12 Daqri, Llc Dynamic lighting for head mounted device
CN107995979B (zh) * 2015-04-16 2021-12-07 托比股份公司 用于对用户进行认证的系统、方法和机器可读介质
KR102626799B1 (ko) * 2015-05-20 2024-01-17 매직 립, 인코포레이티드 틸트 시프트 홍채 이미징
US9724562B2 (en) * 2015-05-28 2017-08-08 Nike, Inc. Wearable USB device assembly
EP3112922A1 (en) * 2015-06-30 2017-01-04 Thomson Licensing A gaze tracking device and a head mounted device embedding said gaze tracking device
US9870051B2 (en) 2015-08-07 2018-01-16 Tobii Ab Gaze direction mapping
US9829976B2 (en) 2015-08-07 2017-11-28 Tobii Ab Gaze direction mapping
US10565446B2 (en) 2015-09-24 2020-02-18 Tobii Ab Eye-tracking enabled wearable devices
CN115167723A (zh) 2015-09-24 2022-10-11 托比股份公司 能够进行眼睛追踪的可穿戴设备
US20170092007A1 (en) * 2015-09-24 2017-03-30 Supereye, Inc. Methods and Devices for Providing Enhanced Visual Acuity
KR20170049996A (ko) * 2015-10-29 2017-05-11 에스케이플래닛 주식회사 디바이스를 이용한 상품 결제 방법 및 서버
US10444972B2 (en) 2015-11-28 2019-10-15 International Business Machines Corporation Assisting a user with efficient navigation between a selection of entries with elements of interest to the user within a stream of entries
CN107016270A (zh) * 2015-12-01 2017-08-04 由田新技股份有限公司 结合脸部认证或手部认证的动态图形眼动认证系统、方法
US9924866B2 (en) 2016-01-11 2018-03-27 Heptagon Micro Optics Pte. Ltd. Compact remote eye tracking system including depth sensing capacity
NL2016085B1 (en) 2016-01-13 2017-07-24 Stichting Vu-Vumc Method, system and computer readable medium to determine a strabismus angle between the eyes of an individual.
US10466778B2 (en) * 2016-01-19 2019-11-05 Magic Leap, Inc. Eye image selection
US9905244B2 (en) * 2016-02-02 2018-02-27 Ebay Inc. Personalized, real-time audio processing
CN114189793B (zh) * 2016-02-04 2024-03-19 奇跃公司 增强现实系统中定向音频的技术
US11445305B2 (en) 2016-02-04 2022-09-13 Magic Leap, Inc. Technique for directing audio in augmented reality system
CN105676456A (zh) * 2016-04-06 2016-06-15 众景视界(北京)科技有限公司 模块化头戴式电子设备
US10088140B2 (en) 2016-06-07 2018-10-02 Heptagon Micro Optics Pte. Ltd. Eye-safe optoelectronic module
FR3053235A1 (fr) 2016-06-29 2018-01-05 Institut Mines Telecom Dispositif de mesure oculaire equipe d'un systeme optiquement aligne sur l'axe de vision de l'utilisateur
US10805592B2 (en) * 2016-06-30 2020-10-13 Sony Interactive Entertainment Inc. Apparatus and method for gaze tracking
US10152122B2 (en) 2016-07-18 2018-12-11 Tobii Ab Foveated rendering
CN114795103A (zh) 2016-07-27 2022-07-29 托比股份公司 具有显示器、透镜、照明器和图像传感器的可穿戴设备
US10529135B2 (en) * 2016-07-27 2020-01-07 Google Llc Low-power mode feature identification at a head mounted display
WO2018035160A1 (en) * 2016-08-15 2018-02-22 The Regents Of The University Of California Bio-sensing and eye-tracking system
US10044925B2 (en) 2016-08-18 2018-08-07 Microsoft Technology Licensing, Llc Techniques for setting focus in mixed reality applications
CN109923499B (zh) * 2016-09-27 2022-07-29 托比股份公司 便携式眼睛追踪装置
DE102016221123A1 (de) 2016-10-26 2018-04-26 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille
CN106405843A (zh) * 2016-11-24 2017-02-15 天津临境科技有限公司 投射型vr眼镜
WO2018100589A1 (en) * 2016-11-30 2018-06-07 Secretary, Department Of Biotechnology Ocular screening
US10122990B2 (en) * 2016-12-01 2018-11-06 Varjo Technologies Oy Imaging system and method of producing context and focus images
EP3859495B1 (en) * 2016-12-06 2023-05-10 Vuelosophy Inc. Systems and methods for tracking motion and gesture of heads and eyes
TWI725097B (zh) * 2016-12-27 2021-04-21 原相科技股份有限公司 偵測生理資訊之穿戴式裝置
TWI632395B (zh) * 2016-12-27 2018-08-11 廣達電腦股份有限公司 虛擬實境裝置以及其畫面產生方法
WO2018125563A1 (en) * 2016-12-30 2018-07-05 Tobii Ab Identification, authentication, and/or guiding of a user using gaze information
US10121337B2 (en) * 2016-12-30 2018-11-06 Axis Ab Gaze controlled bit rate
KR102643553B1 (ko) * 2017-01-06 2024-03-05 나이키 이노베이트 씨.브이. 자동 쇼핑 어시스턴트를 이용한 개인화 쇼핑을 위한 시스템, 플랫폼 및 방법
US10841724B1 (en) * 2017-01-24 2020-11-17 Ha Tran Enhanced hearing system
KR102308937B1 (ko) 2017-02-28 2021-10-05 매직 립, 인코포레이티드 혼합 현실 디바이스에서의 가상 및 실제 객체 레코딩
US20180267604A1 (en) * 2017-03-20 2018-09-20 Neil Bhattacharya Computer pointer device
US10401956B2 (en) 2017-05-11 2019-09-03 Microsoft Technology Licensing, Llc Infrared eye-tracking in high ambient light conditions
US10634921B2 (en) 2017-06-01 2020-04-28 NewSight Reality, Inc. See-through near eye optical display
US10634912B2 (en) 2017-06-01 2020-04-28 NewSight Reality, Inc. See-through near eye optical module
US10884246B2 (en) 2017-06-01 2021-01-05 NewSight Reality, Inc. Releasably attachable augmented reality system for eyewear
US11119353B2 (en) 2017-06-01 2021-09-14 E-Vision Smart Optics, Inc. Switchable micro-lens array for augmented reality and mixed reality
US10466487B2 (en) 2017-06-01 2019-11-05 PogoTec, Inc. Releasably attachable augmented reality system for eyewear
WO2019018365A1 (en) 2017-07-17 2019-01-24 Tobii Ab CLOTHING DEVICES FOR EYE FOLLOW-UP
US11269405B2 (en) 2017-08-31 2022-03-08 Tobii Ab Gaze direction mapping
EP3453316B1 (en) 2017-09-08 2022-02-23 Tobii AB Eye tracking using eyeball center position
US20190079591A1 (en) * 2017-09-14 2019-03-14 Grabango Co. System and method for human gesture processing from video input
US10506217B2 (en) * 2017-10-09 2019-12-10 Facebook Technologies, Llc Head-mounted display tracking system
FI20175960A1 (en) * 2017-10-30 2019-05-01 Univ Of Eastern Finland Procedure and apparatus for gaze detection
US10474916B2 (en) 2017-11-20 2019-11-12 Ashok Krishnan Training of vehicles to improve autonomous capabilities
AU2018267553B2 (en) * 2017-11-20 2019-08-22 Ashok Krishnan Systems and methods to train vehicles
CN108089326B (zh) * 2018-02-01 2023-12-26 北京七鑫易维信息技术有限公司 一种适配于与眼镜使用的装置
US11194161B2 (en) 2018-02-09 2021-12-07 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
WO2019154511A1 (en) 2018-02-09 2019-08-15 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters using a neural network
US10845872B2 (en) * 2018-02-09 2020-11-24 Ricoh Company, Ltd. Eye-gaze tracker, eye-gaze tracking method, and recording medium
US11393251B2 (en) 2018-02-09 2022-07-19 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
US20190253700A1 (en) 2018-02-15 2019-08-15 Tobii Ab Systems and methods for calibrating image sensors in wearable apparatuses
EP3531243B1 (en) * 2018-02-23 2021-12-29 Rohde & Schwarz GmbH & Co. KG Measurement instrument identification system as well as method for finding a particular measurement instrument
US20190265787A1 (en) * 2018-02-26 2019-08-29 Tobii Ab Real world interaction utilizing gaze
US10521013B2 (en) 2018-03-01 2019-12-31 Samsung Electronics Co., Ltd. High-speed staggered binocular eye tracking systems
US10674305B2 (en) 2018-03-15 2020-06-02 Microsoft Technology Licensing, Llc Remote multi-dimensional audio
JP6774975B2 (ja) 2018-03-19 2020-10-28 株式会社東芝 眼球回転検出装置、電子機器及びシステム
WO2019185136A1 (en) 2018-03-28 2019-10-03 Tobii Ab Method and system for controlling illuminators
US10342425B1 (en) 2018-03-28 2019-07-09 Tobii Ab Method and system for controlling illuminators
EP3776057A1 (en) * 2018-04-06 2021-02-17 Essilor International Method for customizing a head mounted device adapted to generate a virtual image
US10788892B2 (en) 2018-05-23 2020-09-29 Facebook Technologies, Llc In-field illumination and imaging for eye tracking
US10288879B1 (en) 2018-05-31 2019-05-14 Tobii Ab Method and system for glint/reflection identification
US10324529B1 (en) 2018-05-31 2019-06-18 Tobii Ab Method and system for glint/reflection identification
WO2019228634A1 (en) 2018-05-31 2019-12-05 Tobii Ab Method and system for glint/reflection identification
US11455031B1 (en) 2018-06-04 2022-09-27 Meta Platforms Technologies, Llc In-field illumination for eye tracking
CN108732764A (zh) * 2018-06-06 2018-11-02 北京七鑫易维信息技术有限公司 一种智能眼镜、眼球轨迹的追踪方法、装置及存储介质
CN110596889A (zh) * 2018-06-13 2019-12-20 托比股份公司 眼睛跟踪装置和制造眼睛跟踪装置的方法
CA3112932A1 (en) * 2018-09-19 2020-03-26 Avedro, Inc. Systems and methods for eye tracking during eye treatment
CN109254420A (zh) * 2018-10-26 2019-01-22 北京七鑫易维信息技术有限公司 一种头戴装置的适配装置
US10914945B2 (en) 2018-11-09 2021-02-09 Facebook Technologies, Llc Inconspicuous near-eye electrical circuits
US20200150425A1 (en) * 2018-11-09 2020-05-14 Facebook Technologies, Llc Inconspicuous near-eye electrical components
CN109725714B (zh) 2018-11-14 2022-06-14 北京七鑫易维信息技术有限公司 视线确定方法、装置、系统、以及头戴式眼动设备
EP3657909A1 (en) * 2018-11-21 2020-05-27 BrainLit AB Head worn electronic device
US11353952B2 (en) 2018-11-26 2022-06-07 Tobii Ab Controlling illuminators for optimal glints
WO2020111861A1 (ko) * 2018-11-29 2020-06-04 엘지전자 주식회사 광학 장치, 및 이를 구비하는 카메라 장치와 전자기기
WO2020147948A1 (en) 2019-01-16 2020-07-23 Pupil Labs Gmbh Methods for generating calibration data for head-wearable devices and eye tracking system
SE543066C2 (en) 2019-01-31 2020-09-29 Tobii Ab Head-worn device and lens for eye-tracking applications that includes an absorptive layer
SE543065C2 (en) 2019-01-31 2020-09-29 Tobii Ab Head-worn device and lens for eye-tracking applications that includes a refractive element
SE542964C2 (en) 2019-01-31 2020-09-22 Tobii Ab Lens for eye-tracking comprising an electrical component and a head-worn device with such a lens
US11176367B1 (en) * 2019-05-01 2021-11-16 Facebook Technologies, Llc Apparatuses, systems, and methods for mapping a surface of an eye via an event camera
US11650426B2 (en) 2019-05-09 2023-05-16 Meta Platforms Technologies, Llc Holographic optical elements for eye-tracking illumination
EP3979896A1 (en) 2019-06-05 2022-04-13 Pupil Labs GmbH Devices, systems and methods for predicting gaze-related parameters
US11003936B2 (en) * 2019-06-14 2021-05-11 Tobii Ab Method and system for controlling an eye tracking system
US11181978B2 (en) 2019-06-17 2021-11-23 Hemy8 Sa System and method for gaze estimation
CN110537895A (zh) * 2019-09-06 2019-12-06 杨容 一种基于虚拟现实技术的视网膜检测系统
IL269809B (en) * 2019-10-03 2021-12-01 Eyejets Ltd A compact retinal scanning device for tracking pupil movements of a user's eye and its applications
US11205069B1 (en) * 2020-02-20 2021-12-21 Facebook Technologies, Llc Hybrid cornea and pupil tracking
FI130748B1 (fi) * 2020-02-21 2024-02-26 Seetrue Tech Oy Katseen seuranta
CN111399658B (zh) * 2020-04-24 2022-03-15 Oppo广东移动通信有限公司 眼球注视点的校准方法、装置、电子设备及存储介质
EP3935433B1 (en) * 2020-05-14 2022-05-04 Viewpoint Sicherheitsforschung - Blickforschung GmbH Spectacles and method for determining the pupil center
US20210407513A1 (en) * 2020-06-29 2021-12-30 Innovega, Inc. Display eyewear with auditory enhancement
CN111714081A (zh) * 2020-07-08 2020-09-29 岭南师范学院 基于多波长led光学无损特殊儿童检测仪及检测方法
SE544921C2 (en) 2020-08-27 2023-01-03 Tobii Ab Eye tracking system
JP2023550699A (ja) * 2020-10-28 2023-12-05 ユニバーシティー オブ マイアミ ヘッドマウントディスプレイにおける視野検査のためのシステムおよび方法
US20230418373A1 (en) 2020-11-13 2023-12-28 Tobii Ab Video processing systems, computing systems and methods
EP4202531A4 (en) 2020-11-24 2024-03-20 Samsung Electronics Co Ltd WEARABLE ELECTRONIC DEVICE WITH AUGMENTED REALITY INCLUDING A CAMERA
SE2051433A1 (en) 2020-12-08 2022-06-09 Tobii Ab Method and system for glint classification
US11593962B2 (en) 2020-12-29 2023-02-28 Tobii Ab Eye gaze tracking system, associated methods and computer programs
EP4274396A1 (en) * 2021-02-03 2023-11-08 Samsung Electronics Co., Ltd. Wearable electronic device comprising heat dissipation structure
US11867915B2 (en) * 2021-03-31 2024-01-09 Microsoft Technology Licensing, Llc Head mounted display with obscured light emitting diodes
US11503998B1 (en) 2021-05-05 2022-11-22 Innodem Neurosciences Method and a system for detection of eye gaze-pattern abnormalities and related neurological diseases
US11711860B2 (en) 2021-06-06 2023-07-25 Kyndryl, Inc. Device pairing by cognitive computing
EP4113464A1 (en) 2021-06-30 2023-01-04 Tobii AB An eye tracking system
EP4113255A1 (en) 2021-06-30 2023-01-04 Tobii AB An eye tracking system
US20230062433A1 (en) * 2021-08-30 2023-03-02 Terek Judi Eyewear controlling an uav
US11651404B2 (en) 2021-08-31 2023-05-16 Kyndryl, Inc. Virtual shopping assistant
US20230097774A1 (en) * 2021-09-29 2023-03-30 Pixieray Oy Eyeglass lens with eye-tracking components
SE2151198A1 (en) 2021-09-30 2023-03-31 Tobii Ab Gaze defect compensation
US11778366B2 (en) * 2021-11-08 2023-10-03 Meta Platforms Technologies, Llc Gaze-guided audio
US20230259199A1 (en) * 2022-02-15 2023-08-17 Google Llc Selection of real-world objects using a wearable device
SE2250299A1 (en) 2022-03-04 2023-09-05 Tobii Ab Eye openness
US20230314797A1 (en) * 2022-03-31 2023-10-05 Tobii Ab Assembly for an eye tracking system and a corresponding head-mounted device utilizing the same
US11806078B1 (en) 2022-05-01 2023-11-07 Globe Biomedical, Inc. Tear meniscus detection and evaluation system
CN114783067B (zh) * 2022-06-14 2022-11-08 荣耀终端有限公司 基于手势的识别方法、设备及系统
SE2250765A1 (en) 2022-06-22 2023-12-23 Tobii Ab An eye tracking system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130114043A1 (en) * 2011-11-04 2013-05-09 Alexandru O. Balan See-through display brightness control

Family Cites Families (127)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3676641A (en) 1971-01-15 1972-07-11 Wallace A Olson Apparatus for assisting in the curing of concrete and for heating
JPH02164335A (ja) 1988-12-16 1990-06-25 Konan Camera Kenkyusho:Kk 眼球運動解析装置
US8730129B2 (en) * 1990-12-07 2014-05-20 Dennis J Solomon Advanced immersive visual display system
JPH0749744A (ja) 1993-08-04 1995-02-21 Pioneer Electron Corp 頭部搭載型表示入力装置
US5583795A (en) * 1995-03-17 1996-12-10 The United States Of America As Represented By The Secretary Of The Army Apparatus for measuring eye gaze and fixation duration, and method therefor
DE69607376T2 (de) 1995-12-15 2000-11-02 Monsanto Co Verfahren zur verbesserten rheologischen steuerung bei zementsystemen
US6320610B1 (en) * 1998-12-31 2001-11-20 Sensar, Inc. Compact imaging device incorporating rotatably mounted cameras
US6204974B1 (en) * 1996-10-08 2001-03-20 The Microoptical Corporation Compact image display system for eyeglasses or other head-borne frames
US6577329B1 (en) 1999-02-25 2003-06-10 International Business Machines Corporation Method and system for relevance feedback through gaze tracking and ticker interfaces
US6592223B1 (en) 1999-10-07 2003-07-15 Panaseca, Inc. System and method for optimal viewing of computer monitors to minimize eyestrain
US6353422B1 (en) 2000-03-31 2002-03-05 Stephen G. Perlman Virtual display system and method
US6603491B2 (en) 2000-05-26 2003-08-05 Jerome H. Lemelson System and methods for controlling automatic scrolling of information on a display or screen
JP4469476B2 (ja) 2000-08-09 2010-05-26 パナソニック株式会社 眼位置検出方法および眼位置検出装置
SE524003C2 (sv) 2002-11-21 2004-06-15 Tobii Technology Ab Förfarande och anläggning för att detektera och följa ett öga samt dess blickvinkel
US7206022B2 (en) 2002-11-25 2007-04-17 Eastman Kodak Company Camera system with eye monitoring
US7306337B2 (en) * 2003-03-06 2007-12-11 Rensselaer Polytechnic Institute Calibration-free gaze tracking under natural head movement
US8292433B2 (en) 2003-03-21 2012-10-23 Queen's University At Kingston Method and apparatus for communication between humans and devices
US7380938B2 (en) * 2003-03-25 2008-06-03 Sarnoff Corporation Apparatus to detect and measure saccade and pupilary changes
US7806525B2 (en) 2003-10-09 2010-10-05 Ipventure, Inc. Eyeglasses having a camera
US7922321B2 (en) 2003-10-09 2011-04-12 Ipventure, Inc. Eyewear supporting after-market electrical components
EP1691670B1 (en) 2003-11-14 2014-07-16 Queen's University At Kingston Method and apparatus for calibration-free eye tracking
US7561143B1 (en) 2004-03-19 2009-07-14 The University of the Arts Using gaze actions to interact with a display
US7500752B2 (en) 2004-04-28 2009-03-10 Natus Medical Incorporated Diagnosing and training the gaze stabilization system
US8427538B2 (en) 2004-04-30 2013-04-23 Oncam Grandeye Multiple view and multiple object processing in wide-angle video camera
US20060044461A1 (en) 2004-08-30 2006-03-02 Popescu-Stanesti Vlad M Digital camera with photoflash controller
US7549743B2 (en) 2005-01-06 2009-06-23 University Of Rochester Systems and methods for improving visual discrimination
WO2007023798A1 (ja) * 2005-08-23 2007-03-01 National University Corporation Shizuoka University 瞳孔検出装置及び瞳孔検出方法
US8066375B2 (en) 2005-10-10 2011-11-29 Tobii Technology Ab Eye tracker having an extended span of operating distances
US9344612B2 (en) 2006-02-15 2016-05-17 Kenneth Ira Ritchey Non-interference field-of-view support apparatus for a panoramic facial sensor
JP5355399B2 (ja) 2006-07-28 2013-11-27 コーニンクレッカ フィリップス エヌ ヴェ 注視された商品の情報表示のための注視インタラクション
SE0602545L (en) 2006-11-29 2008-05-30 Tobii Technology Ab Eye tracking illumination
US20090044482A1 (en) 2007-01-30 2009-02-19 Tooman Norman L Wind turbine installation comprising an apparatus for protection of anchor bolts and method of installation
US7584791B2 (en) 2007-02-08 2009-09-08 Halliburton Energy Services, Inc. Methods for reducing the viscosity of treatment fluids comprising diutan
US8519091B2 (en) 2007-04-10 2013-08-27 Air Products And Chemicals, Inc. Polyalkyleneamine adducts as curing agents for thick layer water-based epoxy systems
EP2165234A1 (en) 2007-06-07 2010-03-24 Panagiotis Pavlopoulos An eyewear comprising at least one display device
US7556377B2 (en) * 2007-09-28 2009-07-07 International Business Machines Corporation System and method of detecting eye fixations using adaptive thresholds
US20090122161A1 (en) 2007-11-08 2009-05-14 Technical Vision Inc. Image to sound conversion device
JP5237267B2 (ja) * 2007-11-20 2013-07-17 パナソニック株式会社 ビーム走査型表示装置、表示方法、及び自動車
US8922672B2 (en) 2008-01-03 2014-12-30 Apple Inc. Illumination systems and methods for imagers
US8786675B2 (en) 2008-01-23 2014-07-22 Michael F. Deering Systems using eye mounted displays
JP2011519293A (ja) 2008-04-14 2011-07-07 ザ・ジョンズ・ホプキンス・ユニバーシティー 前庭‐眼球運動機能の検査システムおよび方法
EP2164295A1 (fr) 2008-09-16 2010-03-17 Deleage SA Dispositif de câble chauffant électrique
US20100074460A1 (en) 2008-09-25 2010-03-25 Lucent Technologies Inc. Self-steering directional hearing aid and method of operation thereof
US8589034B2 (en) 2008-10-09 2013-11-19 Angela Karen Kwok System and methods for an automated sun glare block area and sunshield in a vehicular windshield
CN103119512A (zh) * 2008-11-02 2013-05-22 大卫·乔姆 近眼式显示系统和装置
CN102292017B (zh) 2009-01-26 2015-08-05 托比股份公司 由光学基准信号辅助的对凝视点的检测
WO2010085977A1 (en) 2009-01-30 2010-08-05 Universita' Degli Studi Di Pavia Head impulse testing device for assessing the functionality of the semicircular canals and for the rehabilitation of vestibular loss
US9782068B2 (en) 2009-02-02 2017-10-10 The Johns Hopkins University System for diagnosis and therapy of gaze stability
JP5305999B2 (ja) 2009-03-16 2013-10-02 キヤノン株式会社 情報処理装置、その制御方法、及びプログラム
ATE527934T1 (de) 2009-04-01 2011-10-15 Tobii Technology Ab Adaptive kamera und illuminator-eyetracker
ES2880475T3 (es) 2009-04-01 2021-11-24 Tobii Ab Sistema de representación visual con iluminadores para el seguimiento de la mirada
CN102804806A (zh) 2009-06-23 2012-11-28 诺基亚公司 用于处理音频信号的方法及装置
US8514097B2 (en) 2009-08-14 2013-08-20 Michael William Boise Glasses with sound activated lights
US20110096941A1 (en) 2009-10-28 2011-04-28 Alcatel-Lucent Usa, Incorporated Self-steering directional loudspeakers and a method of operation thereof
GB0920809D0 (en) 2009-11-27 2010-01-13 Qinetiq Ltd Eye tracking apparatus
JP4679661B1 (ja) 2009-12-15 2011-04-27 株式会社東芝 情報提示装置、情報提示方法及びプログラム
JP5653634B2 (ja) * 2010-02-24 2015-01-14 三菱航空機株式会社 繊維強化樹脂からなる部材の補修方法
US20130314303A1 (en) 2010-02-28 2013-11-28 Osterhout Group, Inc. Ar glasses with user action control of and between internal and external applications with feedback
US10180572B2 (en) * 2010-02-28 2019-01-15 Microsoft Technology Licensing, Llc AR glasses with event and user action control of external applications
CN102906623A (zh) * 2010-02-28 2013-01-30 奥斯特豪特集团有限公司 交互式头戴目镜上的本地广告内容
US8472120B2 (en) * 2010-02-28 2013-06-25 Osterhout Group, Inc. See-through near-eye display glasses with a small scale image source
US8488246B2 (en) 2010-02-28 2013-07-16 Osterhout Group, Inc. See-through near-eye display glasses including a curved polarizing film in the image source, a partially reflective, partially transmitting optical element and an optically flat film
US9129295B2 (en) * 2010-02-28 2015-09-08 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a fast response photochromic film system for quick transition from dark to clear
US9229227B2 (en) 2010-02-28 2016-01-05 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a light transmissive wedge shaped illumination system
US8964298B2 (en) 2010-02-28 2015-02-24 Microsoft Corporation Video display modification based on sensor input for a see-through near-to-eye display
US9128281B2 (en) 2010-09-14 2015-09-08 Microsoft Technology Licensing, Llc Eyepiece with uniformly illuminated reflective display
US8890946B2 (en) * 2010-03-01 2014-11-18 Eyefluence, Inc. Systems and methods for spatially controlled scene illumination
KR20130122516A (ko) 2010-04-26 2013-11-07 캠브리지 메카트로닉스 리미티드 청취자의 위치를 추적하는 확성기
US9760123B2 (en) 2010-08-06 2017-09-12 Dynavox Systems Llc Speech generation device with a projected display and optical inputs
EP2499962B1 (en) * 2011-03-18 2015-09-09 SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH Optical measuring device and method for capturing at least one parameter of at least one eye wherein an illumination characteristic is adjustable
US8687840B2 (en) 2011-05-10 2014-04-01 Qualcomm Incorporated Smart backlights to minimize display power consumption based on desktop configurations and user eye gaze
KR20140041570A (ko) 2011-06-24 2014-04-04 톰슨 라이센싱 사용자의 눈 이동으로 동작가능한 컴퓨터 장치 및 컴퓨터 장치를 동작하는 방법
US20130011404A1 (en) * 2011-07-07 2013-01-10 Board Of Trustees Of The University Of Arkansas Methods and Compositions for Regulating Musashi Function
AU2011204946C1 (en) * 2011-07-22 2012-07-26 Microsoft Technology Licensing, Llc Automatic text scrolling on a head-mounted display
US20130028443A1 (en) 2011-07-28 2013-01-31 Apple Inc. Devices with enhanced audio
US9285592B2 (en) * 2011-08-18 2016-03-15 Google Inc. Wearable device with input and output structures
CA2750287C (en) * 2011-08-29 2012-07-03 Microsoft Corporation Gaze detection in a see-through, near-eye, mixed reality display
US9213163B2 (en) 2011-08-30 2015-12-15 Microsoft Technology Licensing, Llc Aligning inter-pupillary distance in a near-eye display system
EP2751609B1 (en) 2011-08-30 2017-08-16 Microsoft Technology Licensing, LLC Head mounted display with iris scan profiling
US20130083003A1 (en) 2011-09-30 2013-04-04 Kathryn Stone Perez Personal audio/visual system
US8847988B2 (en) 2011-09-30 2014-09-30 Microsoft Corporation Exercising applications for personal audio/visual system
KR101255219B1 (ko) * 2011-10-13 2013-04-24 상명대학교 산학협력단 시선 추적 방법 및 이를 적용한 장치
US8970452B2 (en) * 2011-11-02 2015-03-03 Google Inc. Imaging method
US8971570B1 (en) * 2011-11-04 2015-03-03 Google Inc. Dual LED usage for glint detection
US8929589B2 (en) * 2011-11-07 2015-01-06 Eyefluence, Inc. Systems and methods for high-resolution gaze tracking
US8235529B1 (en) 2011-11-30 2012-08-07 Google Inc. Unlocking a screen using eye tracking information
US8917453B2 (en) 2011-12-23 2014-12-23 Microsoft Corporation Reflective array waveguide
US8982014B2 (en) 2012-02-06 2015-03-17 Battelle Memorial Institute Image generation systems and image generation methods
EP2811891A1 (en) * 2012-02-09 2014-12-17 Universität Zürich System for examining eye movements, particularly the vestibulo-ocular reflex and dynamic visual acuity
US9128522B2 (en) 2012-04-02 2015-09-08 Google Inc. Wink gesture input for a head-mountable device
US9746916B2 (en) 2012-05-11 2017-08-29 Qualcomm Incorporated Audio user interaction recognition and application interface
US20130326364A1 (en) 2012-05-31 2013-12-05 Stephen G. Latta Position relative hologram interactions
US9304584B2 (en) 2012-05-31 2016-04-05 Ca, Inc. System, apparatus, and method for identifying related content based on eye movements
US9046738B2 (en) 2012-06-28 2015-06-02 International Business Machines Corporation Digital image capture under conditions of varying light intensity
US9317971B2 (en) 2012-06-29 2016-04-19 Microsoft Technology Licensing, Llc Mechanism to give holographic objects saliency in multiple spaces
US9854159B2 (en) 2012-07-20 2017-12-26 Pixart Imaging Inc. Image system with eye protection
US9697649B1 (en) * 2012-09-04 2017-07-04 Amazon Technologies, Inc. Controlling access to a device
FI125445B (fi) * 2012-09-12 2015-10-15 Trividi Oy Katseenohjausjärjestely
EP2731049A1 (en) 2012-11-13 2014-05-14 Tobii Technology AB Eye-tracker
US20140154651A1 (en) 2012-12-04 2014-06-05 Sync-Think, Inc. Quantifying peak cognitive performance using graduated difficulty
US20140218281A1 (en) * 2012-12-06 2014-08-07 Eyefluence, Inc. Systems and methods for eye gaze determination
US9977492B2 (en) * 2012-12-06 2018-05-22 Microsoft Technology Licensing, Llc Mixed reality presentation
US20140191927A1 (en) * 2013-01-09 2014-07-10 Lg Electronics Inc. Head mount display device providing eye gaze calibration and control method thereof
KR20140090552A (ko) 2013-01-09 2014-07-17 엘지전자 주식회사 시선 캘리브레이션을 제공하는 헤드 마운트 디스플레이 및 그 제어 방법
WO2014113891A1 (en) 2013-01-25 2014-07-31 Hu Hai Devices and methods for the visualization and localization of sound
CN108427504B (zh) 2013-03-15 2021-06-11 奇跃公司 显示系统和方法
DE102014109079A1 (de) 2013-06-28 2014-12-31 Harman International Industries, Inc. Vorrichtung und verfahren zur erfassung des interesses eines fahrers an einer werbeanzeige durch die verfolgung der blickrichtung des fahrers
US20140129207A1 (en) * 2013-07-19 2014-05-08 Apex Technology Ventures, LLC Augmented Reality Language Translation
EP3036620B1 (en) 2013-08-23 2017-03-29 Tobii AB Systems and methods for providing audio to a user based on gaze input
US9143880B2 (en) 2013-08-23 2015-09-22 Tobii Ab Systems and methods for providing audio to a user based on gaze input
US9618749B2 (en) 2013-08-30 2017-04-11 Intel Corporation Nausea and seizure detection, prediction, and mitigation for head-mounted displays
US9196239B1 (en) 2013-08-30 2015-11-24 Amazon Technologies, Inc. Distracted browsing modes
KR101882594B1 (ko) 2013-09-03 2018-07-26 토비 에이비 휴대용 눈 추적 디바이스
US10310597B2 (en) * 2013-09-03 2019-06-04 Tobii Ab Portable eye tracking device
KR102083596B1 (ko) 2013-09-05 2020-03-02 엘지전자 주식회사 디스플레이장치 및 디스플레이장치의 동작방법
CN107203045B (zh) * 2013-11-27 2023-10-20 奇跃公司 虚拟和增强现实系统与方法
CN106030458B (zh) * 2013-12-31 2020-05-08 谷歌有限责任公司 用于基于凝视的媒体选择和编辑的系统和方法
KR20150126189A (ko) 2014-05-02 2015-11-11 엘지전자 주식회사 조명 시스템 및 그 동작 방법
KR102230172B1 (ko) 2014-05-09 2021-03-19 아이플루언스, 인크. 실제 및 가상의 객체와 인터페이싱하기 위한 생체기계학-기반의 안구 신호를 위한 시스템 및 방법
US9727136B2 (en) 2014-05-19 2017-08-08 Microsoft Technology Licensing, Llc Gaze detection calibration
US9355315B2 (en) * 2014-07-24 2016-05-31 Microsoft Technology Licensing, Llc Pupil detection
DE102014116665A1 (de) * 2014-09-22 2016-03-24 Carl Zeiss Ag Verfahren und Vorrichtung zur Bestimmung der Augenrefraktion
US10088971B2 (en) * 2014-12-10 2018-10-02 Microsoft Technology Licensing, Llc Natural user interface camera calibration
US10852913B2 (en) 2016-06-21 2020-12-01 Samsung Electronics Co., Ltd. Remote hover touch system and method
CN109923499B (zh) 2016-09-27 2022-07-29 托比股份公司 便携式眼睛追踪装置
US10416769B2 (en) 2017-02-14 2019-09-17 Microsoft Technology Licensing, Llc Physical haptic feedback system with spatial warping
TWI781404B (zh) * 2019-05-28 2022-10-21 見臻科技股份有限公司 可依據使用情境切換運作模式的眼動追蹤模組

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130114043A1 (en) * 2011-11-04 2013-05-09 Alexandru O. Balan See-through display brightness control

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022114307A1 (ko) * 2020-11-27 2022-06-02 가온미디어 주식회사 가변형 투과도를 가지는 슬림형 xr 디바이스 및 그 제어 방법
WO2022114306A1 (ko) * 2020-11-27 2022-06-02 가온미디어 주식회사 5g 통신 기능을 가지는 슬림형 xr 디바이스 및 그 제어 방법

Also Published As

Publication number Publication date
EP3041401A1 (en) 2016-07-13
KR101926942B1 (ko) 2019-03-07
CN113576398A (zh) 2021-11-02
CN108209857A (zh) 2018-06-29
KR20160111018A (ko) 2016-09-23
US10375283B2 (en) 2019-08-06
US20190327399A1 (en) 2019-10-24
US9710058B2 (en) 2017-07-18
US20150061996A1 (en) 2015-03-05
WO2015034561A1 (en) 2015-03-12
US20180020137A1 (en) 2018-01-18
US10116846B2 (en) 2018-10-30
US9665172B2 (en) 2017-05-30
KR101968455B1 (ko) 2019-04-11
US9041787B2 (en) 2015-05-26
CN105960193A (zh) 2016-09-21
US20210038072A1 (en) 2021-02-11
CN108209857B (zh) 2020-09-11
WO2015034560A1 (en) 2015-03-12
US20170272627A1 (en) 2017-09-21
US20220265142A1 (en) 2022-08-25
US20180131850A1 (en) 2018-05-10
US10708477B2 (en) 2020-07-07
CN105682539B (zh) 2018-03-16
US20150062323A1 (en) 2015-03-05
US20150063603A1 (en) 2015-03-05
US20200076998A1 (en) 2020-03-05
US20150061995A1 (en) 2015-03-05
US9596391B2 (en) 2017-03-14
KR20160111019A (ko) 2016-09-23
US10389924B2 (en) 2019-08-20
CN105682539A (zh) 2016-06-15
US11344196B2 (en) 2022-05-31
KR20180086511A (ko) 2018-07-31
US20150062322A1 (en) 2015-03-05
EP3041400A1 (en) 2016-07-13
US10277787B2 (en) 2019-04-30
US20160328016A1 (en) 2016-11-10

Similar Documents

Publication Publication Date Title
US11344196B2 (en) Portable eye tracking device
US10310597B2 (en) Portable eye tracking device
US10686972B2 (en) Gaze assisted field of view control
CN109923499B (zh) 便携式眼睛追踪装置
US20180160079A1 (en) Pupil detection device
US20160364881A1 (en) Apparatus and method for hybrid eye tracking
CN103501406B (zh) 图像采集系统及图像采集方法
KR20170094255A (ko) 가상 포커스 피드백
KR20130059827A (ko) 동공인식을 이용한 안경 카메라
KR20130014275A (ko) 디스플레이 화면 제어 방법 및 그를 이용한 영상 표시 기기
KR20180045644A (ko) 머리 착용형 디스플레이 장치 및 그의 제어 방법
KR20240030881A (ko) 가상 컨텐츠 출력 방법 및 이를 지원하는 전자장치

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right