KR20240014589A - 다중 모드 눈 추적 - Google Patents

다중 모드 눈 추적 Download PDF

Info

Publication number
KR20240014589A
KR20240014589A KR1020247001766A KR20247001766A KR20240014589A KR 20240014589 A KR20240014589 A KR 20240014589A KR 1020247001766 A KR1020247001766 A KR 1020247001766A KR 20247001766 A KR20247001766 A KR 20247001766A KR 20240014589 A KR20240014589 A KR 20240014589A
Authority
KR
South Korea
Prior art keywords
eye
rate
sensor
data
examples
Prior art date
Application number
KR1020247001766A
Other languages
English (en)
Inventor
에드윈 조셉 셀커
이반 여
Original Assignee
매직 립, 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 매직 립, 인코포레이티드 filed Critical 매직 립, 인코포레이티드
Publication of KR20240014589A publication Critical patent/KR20240014589A/ko

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/398Electrooculography [EOG], e.g. detecting nystagmus; Electroretinography [ERG]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • G01S19/14Receivers specially adapted for specific applications
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Animal Behavior & Ethology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Pathology (AREA)
  • Eye Examination Apparatus (AREA)
  • User Interface Of Digital Computer (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Position Input By Displaying (AREA)
  • Materials For Medical Uses (AREA)
  • Image Analysis (AREA)

Abstract

방법이 개시되고, 방법은 눈의 제1 포지션을 표시하는 데이터를 출력하도록 구성된 제1 센서로부터 제1 시간 인터벌로, 제1 데이터를 수신하는 단계; 눈의 델타 포지션을 표시하는 데이터를 출력하도록 구성된 제2 센서로부터 제2 시간 인터벌로, 제2 데이터를 수신하는 단계; 제1 데이터에 기반하여, 눈의 제1 포지션을 결정하는 단계; 제2 데이터에 기반하여, 눈의 델타 포지션을 결정하는 단계; 눈의 제1 포지션 및 눈의 델타 포지션을 사용하여, 눈의 제2 절대 포지션을 결정하는 단계; 및 눈의 제2 포지션을 결정하는 것에 대한 응답으로, 눈의 제2 포지션을 표시하는 출력 신호를 생성하는 단계를 포함한다.

Description

다중 모드 눈 추적 {MULTIMODAL EYE TRACKING}
[0001] 본 출원은 2017년 4월 14일에 출원된 미국 특허 출원 제62/485,820호를 35 U.S.C.§119(e) 하에서 우선권으로 주장하며, 상기 출원의 전체 개시내용들은 모든 목적들을 위해 인용에 의해 본원에 포함된다.
[0002] 본 개시내용의 예들은 인간의 눈을 추적하고, 더 구체적으로, 인간의 눈의 포지션, 움직임 및/또는 거동을 결정 및/또는 특징화하기 위한 시스템들 및 방법들에 관한 것이다.
[0003] 일반적으로 말하자면, 눈 추적 시스템들은 사용자의 눈의 포지션 및/또는 움직임에 대응하는 하나 이상의 신호들을 생성한다. (본 개시내용 전반에 걸쳐, "포지션"은 포지션 및/또는 배향을 포함하는 것으로 이해되어야 하고, "움직임"은 눈의 움직임 및/또는 회전을 포함하는 것으로 이해되어야 한다). 이들 신호들은 다양한 컴퓨터 시스템들에 대한 입력으로서 사용되고, 게이밍, 내비게이션, 스포츠 트레이닝, 통신들 및 의료 연구와 같은 다양한 애플리케이션들에서, 또는 사용자가 어디를 보고 있는지를 아는 것이 유리한 다른 상황들에서 용도를 찾을 수 있다. 특히, 눈 추적 시스템들은, 사용자의 눈 움직임들에 대한 지식이 가상 환경에서의 몰입감을 향상시킬 수 있는, 이를테면, 일부 "증강 현실"(AR) 시스템들에 의해 사용되는 3D 가상 환경들에서 용도를 찾을 수 있다. 일부 예들에서, 눈 추적 시스템들은 착용자의 눈을 향해 배향된 센서들을 갖는 머리-장착 디바이스와 같은 모바일 장치를 수반한다.
[0004] 눈 추적 시스템들이 동적이거나 예측할 수 없는 조건들(이를테면, 변동하는 날씨 및 조명 조건들) 하에서조차 눈의 포지션들 및 움직임들을 정확히 반영하는 것이 바람직하다. 추가로, 대부분의 컴퓨터 시스템들에서와 같이, 예컨대, 모바일 시스템들에서 배터리 수명을 보존하기 위해, 눈 추적 시스템들에 의해 소비되는 전력을 감소시키는 것이 바람직하다. 이러한 목표들은 항상 호환 가능한 것은 아니며, 예컨대, 고해상도 광학 스캐닝은 높은 전력 소비를 희생하지만 정확한 눈 추적 결과들을 생성할 수 있다. 낮은 리프레시 레이트로 센서 데이터를 업데이트하는 것은 전력을 보존하지만, 높은 빈도의 눈 움직임들을 정확히 캡처하는 데 실패할 수 있다. 본 개시내용은, 눈 추적 시스템들의 정확도 및/또는 전력 소비를 향상시키기 위해, 광학 센서들 및 전기-안구 전압 센서들(electro-ocular voltage sensors)과 같은 센서들을 결합하기 위한 다중 모드 시스템들 및 방법들에 관한 것이다. 본 개시내용은 또한 눈의 거동을 특징화하기 위해 이러한 센서들을 사용하기 위한 시스템들 및 방법들에 관한 것으로, 눈의 거동 정보는 눈 추적 정확도 및/또는 전력 소비를 추가로 향상시키는 데 사용될 수 있다.
[0005] 본 개시내용의 예들은 인간의 눈을 추적하기 위한 시스템들 및 방법들을 설명한다. 본 개시내용의 예들에 따라, 광학 센서들 및 전기-안구 전압 센서들과 같은 센서들은, 이를테면, 정확도 및 전력 소비를 개선함으로써 눈 추적을 향상시키기 위해 결합될 수 있다. 예컨대, 눈의 제1 포지션(예컨대, 절대적인 포지션)을 나타내는 제1 데이터는 제1 센서로부터 제1 시간 인터벌로 수신될 수 있다. 눈의 델타 포지션을 나타내는 제2 데이터는 제2 센서로부터 제2 시간 인터벌로 수신될 수 있다. 눈의 제2 포지션(예컨대, 절대적인 포지션)은 제1 포지션 및 델타 포지션을 사용하여 결정될 수 있다. 센서들은 눈의 다양한 거동들을 특징화하는 데 (예컨대, 머신 학습 기술들로) 추가로 사용될 수 있으며, 눈의 다양한 거동 정보는 눈 추적을 추가로 향상시키는 데 사용될 수 있다.
[0006] 도 1은 인간의 눈의 단면을 예시한다.
[0007] 도 2a는 본 개시내용의 예들에 따른, 눈 움직임을 검출하도록 구성된 전극들의 예를 예시한다.
[0008] 도 2b는 본 개시내용의 예들에 따른 예시적인 머리-장착 디바이스를 예시한다.
[0009] 도 3a 및 3b는 본 개시내용의 예들에 따른, 눈의 포지션 및/또는 움직임에 대응하는 신호를 출력하기 위해 다수의 센서들을 사용하는 예시적인 눈 추적 시스템을 예시한다.
[0010] 도 4는 본 개시내용의 예들에 따른, 임의의 휴대용 또는 비-휴대용 디바이스 내에 포함될 수 있는 시스템 아키텍처의 예를 예시한다.
[0011] 예들의 다음의 설명에서, 설명의 일부를 형성하는 첨부한 도면들에 대한 참조가 이루어지며, 도면들에서, 실시될 수 있는 특정한 예들이 예시로서 도시된다. 개시된 예들의 범위를 벗어나지 않으면서, 다른 예들이 사용될 수 있고 구조적인 변화들이 이루어질 수 있음이 이해되어야 한다.
[0012] 눈 추적 시스템들은 우리의 가장 급변하기 쉽고(skittish) 민활한(mercurial) 신체 부위들 중 하나로부터 정확한 데이터를 신뢰할 수 있게 도출하는 난제와 씨름해야 한다. 또한, 이러한 시스템들은, 예측할 수 없는 조명 조건들에서, 어색한 물리적 환경들에서, 그리고 최소한의 전력 소비로 드러나지 않게(unobtrusively) 그렇게 해야 할 수 있다. 본 개시내용의 예들은, 후술되는 바와 같이, 이러한 난제들을 해결하기 위해, 광학 센서들 및 전기-안구 전압 센서들과 같은 센서들을 결합하기 위한 다중 모드 시스템들 및 방법들에 관한 것이다.
[0013] 안과학(OPHTHALMOLOGY)
[0014] 도 1은 인간의 눈(100)의 단면도이고, 각막(102), 홍채(104), 수정체(106), 공막(108), 맥락막 층(110), 황반(112), 망막(114), 및 뇌에 대한 시신경(116)을 포함하는 것으로 묘사된다. 광은 각막(102)에서 눈(100)의 전방으로 들어간다. 홍채(104)는 망막(114)에 들어가는 광의 양을 조절하고, 수정체(106)는 망막(114)에서 이미지를 원근조절하고 초점을 맞출 수 있다. 차례로, 망막(114)은 시각 자극들을, 시신경(116)을 통해 시각 피질(visual corte)에 전달되는 전기 신호들(예컨대, 수용체 전위들(receptor potentials))로 변환한다. 황반(112)은, 적당한 세부사항(moderate detail)을 보는 데 활용되는 망막(114)의 중심이다. 황반(112)의 중심에는 비교적 작은 중심와(fovea)가 있으며, 이는 미세한 세부사항을 보는 데 활용되며, 망막(114)의 임의의 다른 부분보다 더 많은 광수용체들(photoreceptors)(시각 정도(visual degree) 당 대략 120개의 추상체들(cones)))을 포함한다. 눈(100)은 6개의 자유도들을 제공하기 위해 2개의 쌍들의 직접적인 근육들 및 한 쌍의 간접적인(oblique) 근육들(도시되지 않음)에 의해 회전될 수 있다. 시신경(116)은 눈의 근육들로 둘러싸인다.
[0015] 인간 시각 시스템은 눈들에 커플링 근육들의 활동을 통해 환경을 활동적으로 스캔하도록 구성되고, 눈들은 망막에 입사되는 광에 대한 응답으로 신경 신호들을 생성하는 광수용체들을 포함한다. 눈들은 이러한 근육들을 사용하여 많은 상이한 움직임들을 만들 수 있다. 이들은 적어도 작은 움직임들(예컨대, 떨림(tremor)), 더 빠른 추적 움직임들(예컨대, 완곡 추종(smooth pursuit)) 및 매우 빠른 움직임들(예컨대, 단속성, 탄동(ballistic))을 포함한다. 일부 움직임들은 자율적이며, 대부분 비의식적일 수 있지만, 다른 움직임들은 의식적일 수 있다. 본원에서 논의된 바와 같이, 눈 움직임들은 적어도 수평 축, 수평 축을 중심으로 구체에서 회전하는 (초기) 수직 축, 및 시선 각도를 따른 비틀림(torsion) 축을 중심으로 한 눈의 회전을 지칭할 수 있다.
[0016] 일부 눈 움직임들은 단속성 눈 움직임(saccadic eye movement)으로서 설명될 수 있다. 단속성 움직임들(saccades)은, 응시점을 갑자기 변경하는 눈의 빠른, 한 쌍을 이루는(conjugate), 탄동 움직임들이다. 단속성 움직임들은 초당 최대 900도 속도의 눈의 움직임들을 수반할 수 있다. 일반적으로, 단속성 눈 움직임들은 관심 오브젝트들을 시야로 이동시킨다. 예컨대, 책을 읽을 때, 눈들은 덜컥거리는 단속성 움직임을 만들고, 여러 번 멈춰서, 각각의 응시점 사이에서 매우 빠르게 움직일 것이다. 다른 예에서, 차량 운전자는 도로 상의 다른 자동차들, 교통 신호등, 자동차 인테리어 등을 보기 위해 단속성 눈 움직임들을 만들 것이다. 눈들을 빠르게 움직이는 것은 오브젝트의 상이한 부분들이 중심와에 의해 이미징될 수 있게 한다. 단속성 눈 움직임들은 의식적일 수 있고, 시각 자극에 대한 응답으로 반사작용으로서, 그리고/또는 눈 운동(optokinetic) 또는 전정(vestibular) 움직임들에 대한 응답으로 교정작용으로서 실행될 수 있다. 예컨대, 반사적인(reflexive) 단속성 움직임은 외부 자극에 의해 또는 응시 자극의 소멸에 의해 트리거될 수 있다. 반단속성 움직임들(antisaccade)은 시각 자극으로부터 멀리 눈들을 의식적으로 이동시킬 수 있다. 스캐닝 단속성 움직임은 의식적이며, 시각 환경의 상이한 부분을 조사를 허용할 수 있다. 메모리 단속성 움직임은 눈들을 기억된 점을 향해 이동시킬 수 있다. 예측 단속성 움직임은 관심 오브젝트의 움직임을 예상할 수 있다. 수면 중의 빠른 눈 움직임들 페이즈 동안에 단속성 움직임들이 또한 발생할 수 있다.
[0017] 일부 눈 움직임들은 완곡 추종 움직임들로서 설명될 수 있는데, 이는, 오브젝트의 이미지를 망막 상에서 안정적으로 유지하기 위해, 초당 약 1도 내지 초당 약 100도의 범위에서 관심있는 움직이는 시각 오브젝트들을 느리게 추적하는 한 쌍을 이루는 눈 움직임들이다. 완곡 추종 움직임들은 일반적으로 의식적인 제어 하에 있지 않다.
[0018] 일부 눈 움직임들은 응시로서 설명될 수 있는데, 이는 눈이 망막 상에 관심 오브젝트의 이미지를 보유하는 눈들의 정지 상태이다. 응시는 약 100ms 내지 약 1000ms에서 지속될 수 있다.
[0019] 일부 눈 움직임들은 안구진탕(nystagmus)으로 설명될 수 있다. 안구진탕은 저속 페이즈와 고속 페이즈 사이에서 교번하는 것을 포함하는 비의식적 눈 움직임들의 형태이다. 안구진탕 눈 움직임들은 눈 운동 또는 전정(vestibular)으로서 설명될 수 있다. 눈 운동 안구진탕은 고정 시각 수용체 및 빠르게 움직이는 관심 오브젝트를 지칭한다. 눈 운동 안구진탕은 눈 모션의 특징적인 톱니 패턴을 가질 수 있고, 이는, 눈이 움직이는 필드의 일부를 응시하고 추종 모션이 이어지는 저속 페이즈, 및 눈이 그 필드의 새로운 부분을 응시하는 고속 페이즈(즉, 복귀 단속성 점프(return saccadic jump))를 포함한다. 전정 안구진탕은, 반원형 내이도들(semicircular canals of the inner ear)을 자극하기 위한 머리의 모션에 대한 응답으로 발생할 수 있다. 반원형 내이도들로부터의 감각 정보는 눈들이 머리 움직임과 반대 방향으로 움직이도록 지시할 수 있고, 따라서 망막 상에 관심 오브젝트의 이미지를 대략 유지한다.
[0020] 일부 눈 움직임들은 전정 안구로서 설명될 수 있다. 전정 안구 움직임들은 눈의 움직임과 연동하여 머리 및/또는 신체(예컨대, 목)의 움직임을 지칭한다. 전정 안구 움직임들은, 예컨대, 자신의 시야 주변에서 오브젝트들을 볼 때 또는 자신의 시야를 가로질러 빠르게 신속하게 움직이는 오브젝트들을 추적할 때, 머리 및 목의 더 큰 근육들이 대규모 또는 빠른 움직임을 보조할 수 있게 함으로써 눈들의 긴장을 완화할 수 있다. 예컨대, 대부분의 사람들은, 자신들의 시선이 특정 관심 오브젝트에 초점을 맞추기 위해 중심에서 약 20도를 초과하여 움직일 필요가 있을 때 자신들의 머리들을 움직이는 것을 선호한다. 머리 움직임은 또한 인간 시각 시스템이 머리 모션 시차(head motion parallax)로부터의 깊이 큐들로부터 이익을 얻을 수 있게 하고, 깊이 큐들은 자신의 시야에서 오브젝트들의 상대적인 깊이를 식별하는 것을 도울 수 있다. 머리 및 눈 모션은 전정 안구 반사작용을 사용하여 조정되며, 이는 머리 회전들 동안 망막에 대한 이미지 정보를 안정화시킨다.
[0021] 눈들은 전술된 타입들의 눈 움직임과 같은 다양한 타입들의 눈 움직임의 조합들에 관여할 수 있다. 이하의 개시의 목적으로, 눈 거동은 하나 이상의 눈 움직임들(또는 하나 이상의 눈 움직임들의 패턴)이며, 이를테면, 전정 안구 움직임들의 경우에서의 머리 움직임들을 포함할 수 있다. 사람의 눈이 어떤 눈 거동에 관여하는지는 몇몇의 외부 팩터들: 예컨대, 사람이 관여하는 활동(예컨대, 독서, 운전); 사람의 위치 및 주변(예컨대, 조용한 도서관 내, 복잡한 차량 교통 상황 내); 및 환경적 팩터들(예컨대, 주변 조명 조건들, 온도)에 의해 영향을 받는다. 이러한 외부 팩터들에 대한 지식은 인간의 눈 거동들을 예측하는 데 도움이 될 수 있다. 예컨대, 사람이 책을 읽고 있다는 지식은, 사람의 눈들이 단속성 움직임들에 관여된다는 것을 제안할 수 있다. 반대로, 사람의 눈 거동들에 대한 지식은 다양한 외부 팩터들을 제안할 수 있다. 예컨대, 사람의 눈들이 단속성 움직임들에 관여된다는 지식은 사람이 책을 읽고 있음을 제안할 수 있다.
[0022] 눈 추적
[0023] 사용자의 눈의 포지션에 관한 측정들을 획득하기 위한 몇몇의 기술들이 존재한다.
[0024] 일부 이러한 기술들은 카메라들과 같은 광학 센서들을 포함한다. 예컨대, 광은 눈으로부터 반사되고, 눈 포지션 및 움직임을 검출하기 위해 광학 센서에 의해 감지될 수 있다. 다른 이러한 기술들은 인간의 눈의 2개의 위치들 사이에 존재할 수 있는 전위를 측정하는 것을 수반할 수 있다. 예컨대, 도 1을 참조하면, 눈(100)의 각막(102)은 망막(114)에 대해 전기적으로 양(positive)이며, 각막(102)에서 양극 그리고 망막(114)에서 음극을 갖는 고정된 쌍극자로서 설명될 수 있는 정상 전위 필드를 형성한다. 눈이 회전할 때, 정전기 쌍극자가 눈과 함께 회전한다. 이러한 각막-망막 전위는 전형적으로 0.4 mV 내지 1.0 mV의 범위를 가지며, 광 자극으로부터 독립적이다.
[0025] 전기안전도(electrooculography)는 EOG(electrooculography) 센서를 사용하여 눈의 2개의 위치들(예컨대, 각막과 맥락막(Bruch's membrane)) 사이의 전위를 검출하기 위한 기술이다. 감지 회로는 하나 이상의 전극들, 및 일부 예들에서 전극들 사이의 전위 차이를 측정하도록 구성된 하나 이상의 전기 컴포넌트들을 포함할 수 있다. 감지 회로는 전위 차이들을 기록하기 위해 머리 및/또는 얼굴에 배치될 수 있다. 도 2a는 예시적인 감지 회로의 예시적인 전극 구성을 예시한다. 눈의 전위의 진폭은 일반적으로 μV/도 범위이며, 예컨대, 약 5 μV/도 내지 약 20 μV/도의 범위일 수 있다. 전극 전위 변화의 부호(sign)는 눈 움직임들의 방향(예컨대, 좌측, 우측, 위, 아래)을 표시할 수 있다. 눈의 상대적 포지션은 측정된 전위로부터 추론될 수 있다. 얼굴 근육들은, 활성일 때, 얼굴 표면 상의 전위에 영향을 줄 수 있다. 얼굴 상의 전극 쌍을 걸쳐 보여지는 전압은 얼굴 특징들에 대응하는 눈 근육 움직임 및 얼굴 근육 움직임(예컨대, 깜박임, 윙크 또는 얼굴의 찡그림(scrunching))의 컨볼루션으로서 표현될 수 있다. 예컨대, 깜박임은 전기안전도에서 관찰할 때 특징적인 신호 패턴 및 듀레이션을 갖는다. 휴지 상태에서의 평균 깜박임 레이트는, 약 100 밀리초 내지 약 400 밀리초의 평균 듀레이션을 갖고서 분당 약 12 내지 19개의 깜박임들에서 변동할 수 있다. 눈의 전위는, 예컨대, 감정 상태를 포함하여 사용자의 마음 상태에 대한 통찰력을 추가로 제공할 수 있다. (본 개시내용의 예들에서, 전위를 검출하는 것에 대한 참조가 이루어지지만, 일부 예들에서, 다른 적절한 전기 속성들(예컨대, 커패시턴스, 인덕턴스, 저항, 임피던스)이 눈 추적을 위해 전위 대신에 또는 이에 부가하여 검출될 수 있다).
[0026] 다중 모드 눈 추적 시스템들
[0027] EOG 센서들 및 광학 센서들 각각은 다른 것보다 특정한 장점들을 가질 수 있다. 예컨대, EOG 센서들은 일반적으로 광학 센서들보다 더 전력 효율적이다. 또한, EOG 센서들은 광학 센서들보다 덜 두드러질 수 있고, 사용자의 시력을 손상시키지 않을 수 있으며, 안경 및 콘택트 렌즈들과 같은 교정 렌즈들과 더 호환 가능할 수 있다. 전극들을 사용한 신호 측정들은 높은 시간 분해능(temporal resolution)을 가지고 연속적인 신호를 허용할 수 있다. EOG 센서들은, 광학 센서들과 달리, 일반적으로 밝은 광 또는 어둠에 영향을 받지 않으며, 제어되는 조명의 부재 시에 동작할 수 있다. 또한, 광학 추적기들과 달리, 눈들이 감질 때조차 또는 눈이 시각적으로 (예컨대, 눈꺼풀들, 속눈썹들 등에 의해) 가려지는 다른 상황들에서, 눈 움직임들이 추적될 수 있다. 또한, 전위들을 나타내는 출력을 생성하는 EOG 센서들은 광학 센서보다 대역폭이 덜 집약적일 수 있고, 광학 센서들은 비교적 큰 이미지 데이터를 출력할 수 있다. 더욱이, 광학 센서 데이터보다 EOG 데이터를 프로세싱하는 것이 더 빠르고 더 컴퓨테이셔널적으로 효율적일 수 있다. 그러나, 이러한 광학 센서 데이터(예컨대, 2D 이미지들)는 또한 개선된 해상도 및/또는 정확도로 눈 추적을 제공할 수 있다. 즉, 눈의 포지션은 EOG 센서를 사용하는 것보다(즉, 전위들로부터 눈 포지션을 추론함으로써) 광학 센서를 사용하여(즉, 이미지 데이터로부터 눈 포지션을 추출함으로써) 더 신뢰할 수 있게 측정될 수 있다. 유사하게, EOG 센서들과 비교하여, 광학 센서들은 교정된 값들로부터의 제한된 드리프트로부터 이점을 얻을 수 있다.
[0028] 광학 눈 추적 및 EOG 눈 추적의 상대적 장점들을 고려하면, 눈 추적 시스템들이 광학 센서들 및 EOG 센서들과 같은 다수의 타입들의 센서들을 통합하는 것이 유리할 수 있다. 더 상세히 후술되는 바와 같이, 이러한 다중 모드 눈 추적 접근법은, 예컨대, 비교적 많은 양의 전력을 일상적으로 소비하고 그리고/또는 계산적으로 집약적인 동작들을 일상적으로 수행할 수 있는 눈 추적 기능을 갖는 시스템들에서 특히 유리할 수 있다. 이러한 시스템들은 증강 현실 시스템들, 가상 현실 시스템들 등을 포함할 수 있다.
[0029] 도 2b는 다중 모드 눈 추적 시스템을 포함하는 예시적인 머리-장착 디바이스(200)를 도시한다. 더 구체적으로, 도 2b의 예에서, 예시적인 머리-장착 디바이스(200)는 (예컨대, EOG 감지 기능을 제공하기 위해) 착용자의 머리 및/또는 얼굴에 접촉하도록 구성된 전극들 및/또는 착용자의 눈들 중 하나 또는 둘 모두를 모니터링하도록 구성된 적어도 하나의 광학 센서를 포함하는 감지 회로를 포함한다. 예시적인 디바이스(200)는 증강 현실 시스템에서 사용될 수 있고, 예컨대, 증강 현실 디스플레이를 착용자에게 제공하도록 구성된 디스플레이를 통합할 수 있다. EOG(electrooculography), 광학 눈 추적 및 증강 현실 기능을 제공하기 위한 시스템들 및 기술들에 관한 추가적인 세부사항들은, 본원에 전체 내용이 인용에 의해 포함되는 미국 특허 출원 제15/072,290호에 제공된다.
[0030] 일부 예들에서, 예시적인 머리-장착 디바이스(200)의 감지 회로의 전극들 중 적어도 일부는 도 2a에 예시된 예시적인 전극 구성에 따라 배열될 수 있다. 도 2a의 예에서, 제1 쌍의 전극들(210 및 212)은 눈의 수평 축 움직임을 검출하도록 구성되고, 제2 쌍의 전극들(220 및 222)은 눈의 수직 움직임을 검출하기 위해 피부에 접촉하도록 구성된다. 도시된 예에서, 전극들(210 및 212)은 각각 좌측 눈의 내측(medial) 및 측면 안각들(lateral canthi) 주위의 피부에 접촉하도록 구성되고, 전극들(220 및 222)은 각각 좌측 눈의 위 및 아래의 피부에 접촉하도록 구성된다. 전극들은 간섭을 감소시키기 위해 실용적으로 눈 인근에 배치될 수 있다. 예시적인 디바이스(200)에서, 전극들(210 및 212)은, 전술된 바와 같이, 수평 눈 움직임을 검출하기 위해 각각 우측 및 좌측 눈들의 측면 안각들 주위에서 착용자의 얼굴에 접촉하도록 구성되는 것으로 도시된다. 예시적인 디바이스(200)에서, 전술된 바와 같이, 수직 눈 움직임을 검출하기 위해, 전극(220)은 우측 눈썹 위에서 착용자의 얼굴에 접촉하도록 구성되는 것으로 도시되고, 전극(222)은 우측 눈꺼풀 아래에서 착용자의 얼굴에 접촉하도록 구성되는 것으로 도시된다. 다시 한번 도 2a를 참조하면, 일부 예들에서, 전극들(210 및 212, 220 및 222)은, 전극들에 의해 생성된 신호를 증폭하기 위해, 차동 증폭기들(232 및 234)에 각각 커플링된다. 일부 예들에서, 예시적인 디바이스(200) 또는 예시적인 디바이스(200)에 동작 가능하게 커플링된 다른 디바이스는 차동 증폭기들(232 및 234) 및/또는 도 2b에 도시된 전극들 중 둘 이상과 관련하여 생성된 신호들을 컨디셔닝하기 위한 다른 회로를 포함할 수 있다는 결론이 나온다.
[0031] 추가적으로, 감지 회로는 기준 전위를 제공하기 위한 접지 전극을 포함할 수 있다. 눈의 움직임에 대한 응답으로 전위가, 변한다 하더라도, 거의 변하지 않는 머리 또는 얼굴의 구역 상에 접지 전극을 포지셔닝하는 것이 바람직할 수 있다. 예컨대, 예시적인 디바이스(200)에서, 전극(240)은 착용자의 머리의 후면에 접촉하도록 구성된 접지 전극을 나타낸다. 일부 예들에서, 접지 전극(240) 또는 다른 접지 전극은 귓불, 이마 또는, 귓불 또는 이마에 인접한 하나 이상의 해부학적 구역들을 포함하는 머리 또는 얼굴의 구역에 접촉하도록 구성될 수 있다. 예시적인 디바이스(200)에서, 제3 및 제4 전극들(250 및 252)은 코의 다리 및/또는 눈의 내측 안각들에 접촉하도록 구성된다. 전극들(250 및 252)로부터의 EOG 데이터는 전극들(210, 212, 220 및/또는 222)에 의해 제공된 데이터를 보충할 수 있고, 이는 이들 전극들로부터의 데이터 프로세싱을 단순화할 수 있고, 데이터 중복성(redundancy)을 제공할 수 있고 그리고/또는 시스템의 견고성(robustness)을 개선할 수 있다. 유사한 이익들을 제공하기 위해 추가적인 전극들이 또한 통합될 수 있다. 전극들은 습식 전극들 및/또는 건식 전극들일 수 있다. 일부 예들에서, 전극들은 은-은 클로라이드(silver-silver chloride)로 제조되고 그리고/또는 도금될 수 있다. 일부 예들에서, 공통 모드 제거 전치 증폭기(common mode rejection preamplifier)의 통합과 같은 차폐 및/또는 잡음 제거 기술들이 전자기 간섭을 감소시키는 데 사용될 수 있다.
[0032] 도 2b에 도시된 예시적인 디바이스(200)와 같은 일부 예들에서, 광학 센서(예컨대, 도 2b의 광학 센서(260))는, 증강 현실 시스템에서 사용될 수 있는 것과 같은 머리-장착 디바이스에 장착될 수 있다. 이는, 광학 센서가 눈에 대해 상대적으로 고정되는 장점 ― 이는 센서를 교정할 필요성을 최소화함 ― 을 제공할 수 있고, 광학 센서의 출력을 분석하는 프로세스를 단순화할 수 있다. 일부 예들에서, 광학 센서는, 눈을 조명하고 광학 센서 샘플들에 걸쳐 제어되는 일관된 조명을 제공하기 위한 광원(예컨대, 도 2b의 광원(270))을 동반할 수 있다. 일부 예들에서, 머리-장착 디바이스는 디스플레이를 포함할 수 있고, 디스플레이를 통해, 예컨대, 증강 현실 콘텐츠가 사용자에게 제공될 수 있다. 도 3a-3b를 참조하여 더 상세히 후술되는 바와 같이, 예시적인 디바이스(200)의 광학 및 EOG 센서들과 같은 광학 및 EOG 센서들을 포함하는 다중 모드 눈 추적 시스템에서, 광학 및 EOG 센서들은, 시스템의 전체 전력 효율 및/또는 계산적인 효율을 개선하기 위해 광학 및 EOG 센서들의 앞서 언급된 상대적인 장점들을 레버리지(leverage)하는 방식으로 활용될 수 있다.
[0033] 도 3a 및 3b는 본 개시내용의 예들에 따라, 눈(100)의 포지션 및/또는 움직임에 대응하는 신호(390)를 출력하기 위한 복수의 센서들을 사용하는 예시적인 다중 모드 눈 추적 시스템(300)을 예시한다. 일부 예들에서, 다중 모드 눈 추적 시스템(300)은, 눈(100)에 관련된 데이터를 출력하도록 구성된 센서들(예컨대, EOG 센서들 및/또는 광학 센서들)을 갖는, 도 2b에 도시된 예시적인 디바이스(200)와 같은 머리-장착 디바이스를 포함할 수 있거나, 그의 일부로서 포함될 수 있다. 일부 예들에서, 이러한 머리-장착 디바이스는, 이를테면, 후술되는 눈(100)의 추적에 관련된 하나 이상의 기능들을 수행하도록 구성된 하나 이상의 프로세서들과 함께 동작하도록 구성될 수 있다. 일부 예들에서, 이러한 프로세서들은 머리-장착 디바이스 자체에 위치될 수 있다. 일부 예들에서, 이러한 프로세서들은 벨트 팩과 같이 머리-장착 디바이스로부터 분리된 웨어러블 유닛에 또는 사용자가 휴대하는 유닛에 위치될 수 있다. 일부 예들에서, 이러한 프로세서들은 사용자의 외부에, 이를테면, 사용자에 의해 착용되거나 휴대되지 않는 디바이스에 위치될 수 있다. 일부 예들에서, 다중 모드 눈 추적 시스템(300)은 증강 현실 시스템에 통합될 수 있고, 증강 현실 콘텐츠를 사용자에게 제공하도록 구성된 디스플레이를 포함할 수 있다.
[0034] 예시적인 시스템(300)에서, 눈(100)의 센서 측정들이 취해지는 레이트들을 제어함으로써 전력 및 계산적인 자원들의 효율들이 실현될 수 있다. 일반적으로 말하자면, 센서 측정 레이트들을 증가시키는 것은 더 많은 전력 소비의 댓가로 눈 추적 정확도를 개선할 수 있고, 반대로, 센서 측정 레이트들을 감소시키는 것은 더 적은 전력을 사용할 수 있지만 눈 추적 정확도를 약화시킬 수 있다. 센서 측정 레이트들이 정확도와 전력 소비 간의 트레이드오프에 영향을 미치는 정도는 시스템 동작 동안에 변할 수 있다. 예시적인 시스템(300)과 같은 일부 예들에서, 센서 측정 레이트들은, 정확도 및 전력 소비 사이의 원하는 트레이드오프를 유지하기 위해, 시스템 동작 동안 연속적으로 계산되고 실시간으로 조정될 수 있다. 예컨대, 예시적인 시스템(300)은 이러한 계산들 및 조정들을 수행할 수 있는 눈 데이터 분석기(340)를 포함한다. 예시적인 다중 모드 눈 추적 시스템(300)은 광학 센서 및 EOG 센서를 포함한다. 그러나, 일부 예들에서, 다른 센서들이 사용될 수 있다. 또한, 일부 예들에서, 2개 초과의 센서들이 사용될 수 있다. 예컨대, 가속도계는, 후술하는 바와 같이, 머리의 움직임들을 검출하기 위해 광학 센서 및 EOG 센서와 연동하여 사용될 수 있다. 아래의 예들은 추가적인 센서들을 수용하도록 확장될 수 있다.
[0035] 도 3a는 도 3a 및 3b의 예시적인 시스템(300)의 고레벨 개요를 도시한다. 예에서, 광학 센서 루프(310A) 및 EOG 센서 루프(310B)는 눈(100)으로부터 개개의 센서 데이터를 획득하고, 광학 신호(320A) 및 EOG 신호(320B)를 각각 출력한다. 광학 신호(320A) 및 EOG 신호(320B)는, 신호들(320A 및 320B)로부터 결정된 눈 포지션에 기반하여, 출력 신호(390)를 출력하는 눈 신호 프로세서(330)에 의한 입력으로서 사용된다. 예시적인 시스템(300)과 같은 본 개시내용의 일부 예들에서, 눈 데이터 분석기(340)는 신호 프로세서(330)로부터의 눈 포지션 데이터를 입력하고, 광학 센서 루프(310A) 및 EOG 센서 루프(310B)의 동작에 영향을 미치는 파라미터들을 결정하기 위해 이 데이터를 사용한다. 예시적인 시스템(300)과 같은 본 개시내용의 일부 예들에서, 눈 데이터 분석기(340)는 추가적인 센서 데이터(350)를 수신하고, 광학 센서 루프(310A) 및 EOG 센서 루프(310B)의 동작에 영향을 미치는 파라미터들을 결정하기 위해 이 데이터를 사용한다. 예컨대, 추가적인 센서 데이터(350)는 가속도계(이를테면, 사용자의 머리의 움직임들을 감지하도록 구성됨), GPS 센서 또는 다른 디바이스로부터의 데이터일 수 있다. 추가적인 센서 데이터(350)를 생성할 수 있는 디바이스들의 예들이 추가로 후술된다. 예시적인 시스템(300)과 같은 본 개시내용의 일부 예들에서, 눈 데이터 분석기(340)는 예측 데이터(360)를 수신하고, 광학 센서 루프(310A) 및 EOG 센서 루프(310B)의 동작에 영향을 미치는 파라미터들을 결정하기 위해 이 데이터를 사용한다. 예컨대, 예측 데이터(360)는 눈 데이터 분석기(340)가 하나 이상의 입력 신호들에 대응하는 눈 거동을 결정하는 것을 돕도록 구성된 뉴럴 네트워크의 출력일 수 있다.
[0036] 눈 신호 프로세서(330) 및/또는 눈 데이터 분석기(340)에 의해 수행될 수 있는 프로세스들과 같은, 예시적인 시스템(300)과 관련하여 본원에 설명된 프로세스들 중 하나 이상은 임의의 적합한 로직 회로를 사용하여 컴퓨터 시스템에서 구현될 수 있다. 적절한 로직 회로는, 소프트웨어 프로그램으로 구현된 명령들을 실행할 때, 이러한 프로세스들을 수행하는 하나 이상의 컴퓨터 프로세서들(예컨대, CPU, GPU, 등)을 포함할 수 있다. 추가적으로, 이러한 프로세스들은 또한 이러한 프로세스들을 제공하는 로직 설계들을 구현하는 맞춤형 로직(예컨대, ASIC, 등) 또는 프로그래밍 가능한 로직(예컨대, PLD, FPGA, 등)과 같은 하드웨어 로직 회로에서 구현되는 대응하는 로직 설계를 통해 구현될 수 있다. 또한, 이러한 프로세스들은, 하드웨어 로직 회로 및 소프트웨어를 실행하는 하나 이상의 프로세서들 둘 모두를 결합하는 구현을 통해 제공될 수 있다. 일부 예들에서, 눈 신호 프로세서(330) 및/또는 눈 데이터 분석기(340)와 같은 예시적인 시스템(300)의 컴포넌트들은 눈 신호 프로세서(330)의 기능들을 수행하도록 구성된 컴퓨터 프로세서와 같은 전용 하드웨어 유닛들에 대응할 수 있다. 일부 예들에서, 예시적인 시스템(300)의 컴포넌트들은 하나 이상의 하드웨어 유닛들에 걸쳐 구현된 로지컬 유닛들에 대응할 수 있다. 일부 예들에서, 컴퓨터 프로세서와 같은 단일 하드웨어 유닛은, 눈 신호 프로세서(330) 및 눈 데이터 분석기(340)와 같은 예시적인 시스템(300)의 다수의 컴포넌트들과 관련하여 본원에 설명된 기능들 모두를 수행할 수 있다. 일부 예들에서, 다수의 하드웨어 유닛들(이를테면, 다수의 컴퓨터 프로세서들)은 눈 신호 프로세서(330)와 같은 예시적인 시스템(300)의 단일 컴포넌트에 관련하여 본원에 설명된 기능들을 총괄적으로 수행할 수 있다. 본 개시내용은 임의의 특정 구현에 제한되지 않는다.
[0037] 도 3b는 도 3a의 예시적인 시스템(300)을 더 상세히 도시한다. 도시된 예에서, 광학 센서 루프(310A)는, 광학 센서가 눈(100)으로부터 업데이트된 측정을 획득(318A)할 때를 제어하는 로직을 포함한다. 전술된 바와 같이, 광학 센서 측정을 획득하는 것이 전력-집약적인 동작일 수 있기 때문에, 이러한 업데이트들이 수행되는 레이트를 제한함으로써 전력을 보존하는 것이 바람직할 수 있다. 이러한 예에서, 광학 센서 루프(310A)에서, 광학 센서 측정이 획득되는 레이트는 인터벌 값(intopt)(312A)에 의해 적어도 부분적으로 제어될 수 있다. 일부 예들에서, intopt의 값은, 예컨대, 특정 시간 값에서, 또는 광학 센서 루프(310A)의 특정 반복 횟수에서 고정될 수 있다. 일부 예들에서, intopt의 값은, 예컨대, 함수(fopt)에 따라 변할 수 있다. 더 상세히 후술되는 바와 같이, 함수(fopt)는, 광학 센서 측정을 업데이트하는 레이트를 언제 그리고 어떻게 조정하는 것이 바람직한지를 식별하는 파라미터들(x 및 y)과 같은 다양한 파라미터들을 반영할 수 있다. intopt가 시간 값인 일부 예들에서, intopt는 시스템 동작 동안에 시간이 경과함에 따라 감소할 수 있어서(도 3b에 도시되지 않음), intopt는, 광학 센서 측정이 업데이트되어야 할 때까지 남은 시간을 나타낸다. 예의 스테이지(314A)에서, 광학 센서 루프(310A)는 intopt의 현재 값을 판독하고, 광학 센서 측정이 업데이트되어야 하는지 여부를 결정하기 위해 그 값을 사용할 수 있다. 예컨대, intopt가 임계값(예컨대, 제로) 이하인 경우에, 광학 센서 루프(310A)는, 업데이트된 광학 센서 측정이 획득(318A)되어야 한다고 314A에서 결정할 수 있고, intopt를 임계치를 초과하는 값으로 재설정할 수 있다. 한편, intopt가 임계값을 초과하면, 광학 센서 루프(310A)는 314A에서 진행하지 않고, 광학 센서 측정을 획득할 수 있고, 대신에 intopt가 임계값에 도달하기를 대기할 수 있다. 일부 예들에서, intopt가 임계값을 초과하면, 광학 센서 루프(310A)는, 광학 센서 측정을 획득하는 대신에, intopt가 임계값에 도달하거나 그 미만으로 떨어질 때까지 저전력 모드(316A)에 진입할 수 있다. 저전력 모드는, 광학 센서에 관련된 프로세서 스레드를 정지시키는 것과 같은 전력-절약 거동에 관여할 수 있다. 일부 예들에서, 광학 센서 측정은, intopt의 상태에 관계없이, 이벤트(예컨대, 사용자 입력)의 발생 시에 획득될 수 있다. 일단 intopt가 임계값에 도달하면, 획득되는 임의의 광학 센서 측정들 대신에 또는 이에 부가하여, 이러한 광학 센서 측정들이 획득될 수 있다. 광학 센서 측정들이 획득되는 광학 센서 루프(310A)의 반복들에서, 그 측정들은 광학 신호(320A)로서 출력된다.
[0038] 도 3b에 도시된 예시적인 시스템(300)에서, EOG 센서 루프(310B)는, EOG 센서가 눈(100)으로부터 업데이트된 측정(318B)을 획득할 때를 제어하는 로직을 포함한다. 도시된 예에서, EOG 센서 루프(310B)는 대체로 광학 센서 루프(310A)를 미러링한다. 전술된 바와 같이, 광학 센서 측정들이 획득되는 레이트는, 전력 소비를 감소시키기 위해 광학 센서 루프(310A)에 의해 의도적으로 제한될 수 있다. 어떠한 광학 센서 측정들도 획득되지 않는 기간들 동안, 광학 측정들 대신에 비교적 전력 효율적인 EOG 센서 측정들을 획득하는 것이 바람직할 수 있다. 추가적으로, 일부 예들은, 예컨대, 눈꺼풀들과 같은 오브젝트들을 가림으로써 또는 극단적인 조명 조건들에 의해 측정들이 손상되는 경우에, 광학 센서에 관련된 측정 문제들을 검출하고, EOG 센서 측정들을 업데이트하는 레이트를 조정함으로써 보완할 수 있다. 예에서, 광학 센서 루프(310A)와 유사한 EOG 센서 루프(310B)에서, EOG 센서 측정이 획득되는 레이트는 인터벌 값(inteog)(312B)에 의해 적어도 부분적으로 제어될 수 있다. 일부 예들에서, inteog의 값은, 예컨대, 특정 시간 값으로, 또는 EOG 센서 루프(310B)의 특정 반복 횟수로 고정될 수 있다. 일부 예들에서, inteog의 값은, 예컨대, 함수(feog)에 따라 변할 수 있다. 더 상세히 후술되는 바와 같이, 함수(feog)는, EOG 센서 측정을 업데이트하는 레이트를 언제 그리고 어떻게 조정하는 것이 바람직한지를 식별하는 파라미터들(x 및 y)과 같은 다양한 파라미터들을 반영할 수 있다. inteog가 시간 값인 일부 예들에서, inteog는 시스템 동작 동안에 시간이 경과함에 따라 감소할 수 있어서(도 3b에 도시되지 않음), inteog는, EOG 센서 측정이 업데이트되어야 할 때까지 남은 시간을 나타낸다. 예의 단계(314B)에서, EOG 센서 루프(310B)는 inteog의 현재 값을 판독하고, EOG 센서 측정이 업데이트되어야 하는지 여부를 결정하기 위해 이 값을 사용할 수 있다. 예컨대, inteog가 임계값(예컨대, 0) 이하인 경우, EOG 센서 루프(310B)는 업데이트된 EOG 센서 측정이 획득(318B)되어야 한다고 314B에서 결정할 수 있고, inteog를 임계치를 초과하는 값으로 재설정할 수 있다. 한편, inteog가 임계값을 초과하면, EOG 센서 루프(310B)는 314B에서 진행하지 않고, EOG 센서 측정을 획득할 수 있고, 대신에 inteog가 임계값에 도달하기를 대기할 수 있다. 일부 예들에서, inteog가 임계값을 초과하면, EOG 센서 루프(310B)는, EOG 센서 측정을 획득하는 대신에, inteog가 임계값에 도달하거나 그 미만으로 떨어질 때까지 저전력 모드(316B)에 진입할 수 있다. 저전력 모드는, EOG 센서에 관련된 프로세서 스레드를 정지시키는 것과 같은 전력-절약 거동들에 관여할 수 있다. 일부 예들에서, EOG 센서 측정은, inteog의 상태에 관계없이, 이벤트(예컨대, 사용자 입력)의 발생 시에 획득될 수 있다. 일단 inteog가 임계값에 도달하면 획득되는 임의의 EOG 센서 측정들 대신에 또는 이에 부가하여, 이러한 EOG 센서 측정들이 획득될 수 있다. EOG 센서 측정들이 획득되는 EOG 센서 루프(310B)의 반복들에서, 그 측정들은 EOG 신호(320B)로서 출력된다.
[0039] 일부 예들에서, inteog의 최대값이 intopt의 최대값 미만일 수 있고, 이는 EOG 센서 측정들이 광학 센서 측정들보다 더 빈번하게 업데이트될 수 있음을 반영한다. 예컨대, 포함된 EOG 센서보다 전력 효율이 더 낮은 광학 센서를 포함하는 예시적인 시스템에서, EOG 센서를 더 빈번하게 업데이트하고, 광학 센서를 덜 빈번하게 업데이트하는 것은 예시적인 시스템의 전체 전력 소비를 최적화하는 데 도움이 될 수 있다. 일부 예들에서, inteog 및/또는 feog는, EOG 센서가 약 500 ㎐ 주파수로 업데이트되도록 구성될 수 있고, 그리고 intopt 및/또는 fopt는, 광학 센서가 약 60 Hz의 주파수로 업데이트되도록 구성될 수 있다. 일부 예들에서, inteog와 intopt 신호들 사이의 다른 관계들이 바람직할 수 있다. 예컨대, 광학 센서 및 EOG 센서가 동시에 업데이트되지 않도록 inteog와 intopt 신호들 사이의 위상 오프셋을 유지하는 것은 (예컨대, 레이스 조건들로 인한) 예측 불가한 시퀀싱을 회피하거나, 눈 신호 프로세서(330)의 스루풋을 개선하거나, 로드 밸런싱을 촉진하는 데 유익할 수 있다.
[0040] 일부 예들에서, EOG 센서 측정 및/또는 광학 센서 측정을 획득하는 것은, 타이머(예컨대, inteog 또는 intopt의 기간을 갖는 타이머)가 임계값에 도달하는 것 외에 또는 대신에, 이벤트의 발생에 의해 트리거될 수 있다. 하나의 이러한 이벤트는 EOG 센서에서 충분히 큰 변화 또는 광학 센서 측정 값의 검출일 수 있으며, 이는 사용자의 눈 상태의 변화를 나타낼 수 있다. 일 예로서, 광학 센서, 이를테면, 눈 추적으로 카메라는 저전력 모드에 진입하고(예컨대, 도 3b에 대해 316A), (예컨대, 스테이지(318B)에서) EOG 센서의 출력이 상당히 충분히 많은 양만큼 변할 때까지 저전력 모드를 유지할 수 있다. 이러한 변화를 검출할 때, 광학 센서는 저전력 모드에서 나갈 수 있고, 측정은 광학 센서로부터 판독될 수 있다(예컨대, 이미지가 캡처될 수 있다). 이는, EOG 센서에서 어떠한 충분히 큰 변화도 검출되지 않을 때 ― 이는 정지 상태를 유지하는 사용자의 눈 포지션에 대응할 수 있고, 이러한 상황에서 눈의 업데이트된 광학 센서 측정들에 대한 필요성이 감소될 수 있음 ― 광학 센서가 저전력 모드를 유지할 수 있게 함으로써 전력 소비를 최적화할 수 있다. 연장된 시간 기간 동안 눈이 대체로 정지 상태를 유지하는 것으로 예상되는 상황들 ― 예컨대, 사용자가 수면중인 동안, 또는 눈이 특정 점을 응시하는 동안(예컨대, 텔레비전 스크린을 보고 있는 동안) ― 에서 전력 절감이 특히 두드러질 수 있는데, 왜냐하면 이러한 상황들 동안에 광학 센서 측정들에 대한 필요성이 제한되기 때문이다.
[0041] 눈 포지션이 정지 상태를 유지한다는 것을 EOG 센서 출력이 나타낼 때, 광학 센서의 출력에 대해 이미지 프로세싱을 수행하는 것과 같이 계산적으로 비용이 많이 드는 동작들을 포기함으로써 추가적인 전력 절약들이 실현될 수 있다. 예컨대, EOG 센서의 출력이 일정하게 유지되면, 이는, 눈이 정지 상태이고, 해당 눈의 이미지의 이미지 프로세싱이 이전 이미지 프로세싱에 비해 새로운 정보를 산출할 가능성이 없을 것임을 나타낸다. 따라서, 눈 추적 카메라와 같은 광학 센서의 출력에 이미지 프로세싱을 적용하도록 구성된 예시적인 시스템에서, 시스템은, EOG 센서의 출력이 (예컨대, 스테이지(318B)에서) 충분히 많은 양만큼 변경되었다는 결정에 대한 응답으로, 이미지 프로세싱을 수행하도록 구성될 수 있다. 일부 예들에서, 눈 추적 카메라를 포함하는 시스템은 이미지를 캡처하고, EOG 센서의 출력이 충분히 많은 양만큼 변경되었다는 결정에 대한 응답으로, (예컨대, 시선을 결정하기 위해) 해당 이미지에 대해 이미지 프로세싱을 수행하도록 구성될 수 있다.
[0042] 도 3b에 도시된 예시적인 시스템(300)에서, 광학 신호(320A) 및 EOG 신호(320B)는 눈 신호 프로세서(330)에 입력된다. 눈 신호 프로세서는 또한, 신호들(320A 및 320B)의 기저를 이루는 센서 측정들이 획득된 시간들에 대응하는 시간 값들(도 3b에 도시되지 않음)을 입력할 수 있다. 도시된 예에서, 눈 신호 프로세서(330)의 역할은 신호들(320A 및 320B)에 기반하여, 업데이트된 눈 포지션을 결정하는 것이다.
[0043] 예시적인 시스템(300)과 같은 일부 예들에서, 광학 신호(320A)(이미징 디바이스에 대한 눈(100)의 포지션을 나타냄)는 눈(100)의 베이스 포지션, 즉, 눈(100)의 이전 포지션들과 독립적인 눈(100)의 현재 포지션에 대응한다. 눈 신호 프로세서(330)는 스테이지(332)에서 광학 신호(320A)로부터 눈(100)의 베이스 포지션을 결정할 수 있다. 예컨대, 눈 신호 프로세서(330)는, 예컨대, 광학 신호(320A)를 다양한 시스템 파라미터들(이를테면, 광학 센서의 배치, 환경 조건들 및/또는 사용자의 눈의 외관에 관련된 파라미터들)에 관련시킴으로써 광학 신호(320A)의 값들과 눈(100)의 포지션들 사이의 상관관계를 식별하고, 그 상관관계에 기반하여 눈(100)의 포지션을 결정할 수 있다. 광학 센서들이, 예컨대, 이물질들(예컨대, 눈꺼풀들 또는 속눈썹들)에 의한 폐색 또는 문제있는 조명 조건들로부터 기인한 잘못된 측정들에 영향을 받기 때문에, 눈 신호 프로세서(330)는 잘못된 광학 측정들을 정정하기 위한 로직을 포함할 수 있다. 예컨대, 눈 신호 프로세서(330)는 이웃 측정들과 일치하지 않는 특이(outlier) 측정들을 거절할 수 있다. 신호 프로세서(330)는 또한, 후술하는 바와 같이, EOG 신호들로부터 베이스 눈 포지션들을 더 정확히 결정하기 위해 눈 데이터 분석기(340)의 출력을 사용할 수 있다.
[0044] 마찬가지로, 일부 예들에서, EOG 신호(320B)(눈 근육들을 움직임으로써 생성된 전기 신호들을 나타냄)는 눈(100)의 포지션의 델타, 즉, 눈(100)의 이전 포지션 이후 눈(100)의 포지션이 변한 정도에 대응한다. 눈 신호 프로세서(330)는, 스테이지(334)에서, EOG 신호(320B)로부터 눈(100)의 포지션 델타를 결정할 수 있다. 예컨대, 눈 신호 프로세서(330)는, EOG 신호(320B)의 값에 대응하는 근육 움직임을 설명하는 매트릭스를 결정하기 위해, EOG 신호들과 눈 근육 활동 사이의 알려진 상관관계를 사용할 수 있다. 이어서, 눈 신호 프로세서(330)는 (각각 개별 눈 움직임들을 나타내는) EOG 신호(320B)의 연속적인 값들에 대응하는 매트릭스들을 누산하여, 이들 연속적인 값들로 표현된 눈(100)의 순 포지션 델타를 결정할 수 있다. (이를테면, 차동 움직임들로부터 순 변위들을 획득하기 위한) 누산기 시스템들이 드리프트될 수 있기 때문에, 눈 신호 프로세서(330)는, 예컨대, 스테이지(332)에서 컴퓨팅된 베이스 포지션들에서의 점진적인 변화들과 포지션 델타들에서의 점진적인 변화들을 비교하고, 편차들을 제거함으로써, 드리프트를 정정하기 위한 로직을 포함할 수 있다. 추가적으로, EOG 센서 측정들이 크로스토크와 같은 전자 잡음 및/또는 간섭을 받을 수 있기 때문에, 신호 프로세서(330)는 이러한 잡음 및/또는 간섭들을 정정하기 위한 메커니즘들(이를테면, 크로스토크 제거 필터들)을 포함할 수 있다. 신호 프로세서(330)는 또한, 후술하는 바와 같이, EOG 신호들로부터 눈 포지션 델타들을 더 정확히 결정하기 위해 눈 데이터 분석기(340)의 출력을 사용할 수 있다.
[0045] 일부 예들에서, 이어서, 눈 신호 프로세서(330)는 (전술된 바와 같이, 광학 신호(320A)로부터, 스테이지(332)에서 결정된) 베이스 포지션 및 (전술된 바와 같이 EOG 신호(320B)로부터, 스테이지(334)에서 결정된) 델타 포지션의 합으로서 눈 포지션을 계산할 수 있다(336). 이러한 계산의 출력은, 눈 포지션을 나타내는 출력 신호(390)를 생성할 수 있으며, 이는 전술된 바와 같이 다양한 애플리케이션들에 사용될 수 있다.
[0046] 머리-장착 디스플레이와 같은 디스플레이를 포함하는 일부 예들에서, 눈 포지션은, 디스플레이가, 사용자의 시선 내에 있거나 그렇지 않다면 사용자가 볼 수 있는 디스플레이의 구역에 대한 정보를 제공할 수 있게 하는데 사용될 수 있다. 예컨대, 머리-장착 디스플레이는 사용자의 눈으로부터 알려진 거리에서 사용자의 머리에 고정될 수 있다. 눈의 포지션은, 눈으로부터 디스플레이까지의 알려진 거리와 연동하여, 사용자가 현재 보고 있는 디스플레이의 구역을 식별하는 데 사용될 수 있다. 이어서, 사용자의 현재의 눈 포지션에 기반하여, 사용자가 디스플레이 상태의 변화를 즉시 인지할 가능성이 높다는 지식에 따라, 그 구역의 디스플레이 상태가 변경될 수 있다. 예컨대, 중요한 메시지가 사용자의 시선에 직접적으로 디스플레이될 수 있다. 디스플레이가, 이를테면, 가상 현실 또는 증강 현실 시스템에서 3D 환경을 제공하는 예들에서, 가상 오브젝트는 사용자가 현재 보고 있는 3D 환경의 정확한 위치에 나타날 수 있어서, 사용자의 몰입감 또는 제어를 향상시킨다.
[0047] 유사하게, 눈의 포지션은, 눈으로부터 디스플레이까지의 거리와 연동하여, 사용자가 현재 보고 있지 않은 디스플레이의 구역을 식별하는 데 사용될 수 있다. 이어서, 사용자의 현재의 눈 포지션에 기반하여, 사용자가 디스플레이 상태의 변화를 즉시 인지할 가능성이 높지 않다는 지식에 따라, 그 구역의 디스플레이 상태가 변경될 수 있다. 디스플레이가, 이를테면, 가상 현실 또는 증강 현실 시스템에서 3D 환경을 제공하는 예들에서, 사용자가 인지하지 않고서, 가상 오브젝트들이 눈에 띄지 않게 그 환경으로 들어가거나 나가거나, 가상 오브젝트의 상태(이를테면, 오브젝트를 렌더링하는 데 사용되는 에셋(asset)의 해상도)를 변경하는 것이 바람직할 수 있다. 이러한 거동들은 3D 환경에서 사용자의 몰입감을 향상시킬 수 있다. 이것은, 사용자가 보고 있지 않은 디스플레이의 구역을 식별하고 그 구역의 디스플레이 상태를 변경함으로써 달성될 수 있다.
[0048] 일부 예들은, 예시적인 시스템(300)의 동작을 개선 및 향상시키기 위해, 도 3b에 도시된 눈 데이터 분석기(340)와 같은 눈 데이터 분석기를 포함할 수 있다. 예시적인 시스템(300)에서, 눈 신호 프로세서(330)로부터의 눈 포지션 데이터(이를테면, 스테이지(332)에서 결정된 베이스 포지션 데이터 및/또는 스테이지(334)에서 결정된 델타 포지션 데이터)는, 눈 데이터 프로세서에 의해 수집되고 저장될 수 있는 눈 데이터 프로세서(340)에 입력될 수 있다. 예시적인 시스템(300)과 같은 일부 예들에서, 추가적인 센서 데이터(350) 및/또는 예측 데이터(360)가 또한 눈 데이터 프로세서(340)에 입력된다. 스테이지(342)에서, 눈 데이터 프로세서(340)는, 시간이 지남에 따라 눈(100)의 움직임들 및 거동의 패턴들 및 특징들을 식별하기 위해, 눈 신호 프로세서(330)로부터 눈 포지션 데이터 ― 그리고 일부 예들에서, 추가적인 센서 데이터(350) 및/또는 예측 데이터(360) ― 를 분석할 수 있다. 이러한 패턴들 및 특징들은, 예시적인 시스템(300)이 더 효과적으로 동작할 수 있는 방식들을 드러낼 수 있다.
[0049] 일부 예들에서, 눈 신호 프로세서(330) 및/또는 눈 데이터 분석기(340)는 눈 거동의 발생의 확실성보다는 확률을 결정할 수 있다. 이러한 확률들은 통계적 방법들을 사용하여 결정될 수 있다. 일부 예들에서, 눈 신호 프로세서(330) 및/또는 눈 데이터 분석기(340)는, 다양한 입력들의 상태(예컨대, 눈 포지션 측정들)를 고려하면, 시스템의 출력(예컨대, 눈 거동의 타입)을 예측하는 통계적 모델을 생성 및/또는 적용할 수 있다. 일부 예들에서, 눈 신호 프로세서(330) 및/또는 눈 데이터 분석기(340)는 그 확률에 관련되는 하나 이상의 팩터들의 가중치 또는 영향을 식별 또는 조정함으로써 확률을 결정할 수 있다. 예컨대, 눈 신호 프로세서(330) 및/또는 눈 데이터 분석기(340)는, (그 거동이 반드시 발생할 필요가 없을 수 있을지라도) 다양한 가중된 팩터들의 현재 값들을 고려하면, 몇몇의 가능한 눈 거동들 중 하나의 특정 눈 거동이 발생할 가능성이 가장 높다고 결정할 수 있다. 유사하게, 눈 신호 프로세서(330) 및/또는 눈 데이터 분석기(340)는, 확실하게 미래 거동을 결정할 수는 없을지라도, 다양한 가중된 팩터들에 기반하여 이러한 미래 거동을 예측할 수 있다. 이것은, 많은 경우들에서, 눈이 특정 거동에 관여된다고 확실하게 결론을 내리는 것이 어렵거나 불가능하고, 또한 미래의 눈 거동들을 예측하는 것은 어렵거나 불가능하다는 것을 반영한다. 그러나, 많은 애플리케이션들에서 눈 거동의 발생에 대한 절대적인 확실성이 필요하지 않을 수 있고, 미래의 눈 거동들의 가능성에 관하여 경험에서 우러난 추측(educated guess)에 의해, 또는 특정 눈 거동들의 상대적인 가능성들의 결정에 의해, 장점들(예컨대, 전력 효율 및 컴퓨테이셔널 효율)이 전달될 수 있다.
[0050] 눈 거동의 발생 확률을 결정하기 위해 통계적 방법들이 사용될 수 있다. 예컨대, 신뢰도 스코어가 특정 거동이 발생할 가능성에 할당될 수 있다. 신뢰 스코어는 임계값과 비교될 수 있고, 신뢰 스코어가 임계값을 초과한다고 결정하면, 눈 신호 프로세서(330) 및/또는 눈 데이터 분석기(340)는, 신뢰 스코어와 연관된 거동이 충분한 확률로 발생할 가능성이 높다고 결정할 수 있다. 다른 통계적 방법들이 또한 사용될 수 있다.
[0051] 눈 거동을 식별하는 하나의 예로서, 스테이지(342)에서, 눈 데이터 분석기(340)는, 눈 신호 프로세서(330)로부터의 눈 포지션 데이터로부터, 눈(100)이 고정 초점 타겟을 응시한다고 결정할 수 있다. 예컨대, 눈 데이터 프로세서는, 눈이 작은 고주파수 움직임들만을 실행하고 있음을 나타내는 데이터 ― 고정 타겟을 응시하는 눈들의 조건 특징 ― 에 기반하여, 이러한 결정을 내릴 수 있다. 눈(100)의 포지션은 그렇게 고정된 상태에서 변한다 하더라도 거의 변하지 않을 것으로 예상될 수 있다. 이러한 조건들 하에서, 각각의 새로운 측정이 거의 새롭지 않은 중요 포지션 정보를 제공하는 것으로 예상될 수 있기 때문에, (이를테면, intopt 및/또는 inteog를 증가시킴으로써) 광학 및/또는 EOG 센서들이 새로운 측정들을 획득하는 레이트를 감소시키는 것이 수용 가능할 수 있다. 눈 신호 프로세서(330)는 또한, 눈(100)이 응시에 관여하는 동안, 신호들(320A 및 320B)이 포지션에서 상당한 변화들을 나타낼 가능성이 없다는 것을 반영하기 위해, 눈 포지션의 자신의 컴퓨테이션들을 조정할 수 있어서, 잠재적으로 더 큰 눈 추적 정확도를 발생시킨다.
[0052] 다른 예로서, 스테이지(342)에서, 눈 신호 프로세서(330)로부터의 눈 포지션 데이터는, 눈(100)의 움직임이 빠르게 방향을 변경하고 있다는 것 ― 눈(100)이 단속성 거동에 관여하고 있음을 시사하는 조건 ― 을 나타낼 수 있다. 눈이 단속성 거동에 관여할 때, 눈 포지션을 설명하는 신호는 대량의 고주파수 정보를 포함할 수 있다. 이러한 단속성 거동을 식별하는 것에 대한 응답으로, 눈 데이터 프로세서(340)는 (이를테면, inteog를 감소시킴으로써) EOG 센서가 업데이트되는 레이트 증가시킬 수 있어서, 눈 포지션 신호의 고주파수 정보가 에일리어싱(aliasing) 없이 정확히 캡처될 수 있다.
[0053] 일부 예들에서, 눈 데이터 프로세서(340)는, 이를테면, 광학 센서들 및 EOG 센서들 이외의 센서들로부터의 추가적인 센서 데이터(350)를 사용하여, 다른 방식으로 가능할 수 있는 것보다 더 효과적으로 눈 거동들을 식별할 수 있다. 일부 예들에서, 눈 거동들의 식별을 개선하기 위해 머신 학습 기술들이 사용될 수 있다. 일 예로서, 추가적인 센서 데이터(350)에 기반하여 사용자의 눈 거동을 식별하기 위해, 개별 사용자와 연관된 추가적인 센서 데이터(350)를 사용하여, 뉴럴 네트워크가 트레이닝될 수 있다. 다른 예로서, 일반화된 뉴럴 네트워크들은 개별 사용자들이 아닌 사용자들의 그룹들과 연관된 추가적인 센서 데이터(350)를 사용하여 트레이닝될 수 있다. 이러한 뉴럴 네트워크들은 출력 신호(390)와 같은, 예시적인 시스템(300)으로부터의 데이터를 사용하여 재귀적으로(recursively) 트레이닝될 수 있다. 다른 예로서, 추가의 센서 데이터(350)를 포함하는 입력 데이터와 눈의 거동들 사이의 관계들을 식별하기 위해 유전학(genetic) 알고리즘들이 사용될 수 있다. 심층 학습 기술들을 포함하여, 서포트 벡터 머신들(support vector machines), 베이지안 네트워크들(Bayesian networks), 규칙-기반 시스템들 및 학습 분류기 시스템들과 같은 다른 머신 학습 기술들이 유사하게 사용될 수 있다. 일부 예들에서, 이들 기술들은 눈 데이터 프로세서(340) 내에서 구현된다. 일부 예들에서, 이들 기술들은 예시적인 시스템(300)의 다른 컴포넌트들에서 구현된다. 일부 예들에서, 이들 기술들은 예시적인 시스템(300) 외부의 시스템들에서 적어도 부분적으로 구현된다. 예컨대, 원격 서버는 큰 세트들의 데이터에 대해 뉴럴 네트워크를 트레이닝하고, 컴퓨터 네트워크를 통해 그 뉴럴 네트워크의 파라미터들 또는 출력을 예시적인 시스템(300)에 통신할 수 있다.
[0054] 추가적인 센서 데이터(350)를 활용하는 일 예로서, 추가적인 센서 데이터(350)는 머리 움직임들을 검출하도록 구성된 가속도계로부터의 데이터를 포함할 수 있다. 가속도계는 관성 프레임에 대한 가속도계의 가속도에 대응하는 값을 출력하고, 따라서, 가속도계가 인간의 머리에 부착되면, 가속도계의 출력은 머리의 가속에 대응할 수 있다. 이러한 가속도계로부터의 높은 출력 값은, 예컨대, 사람이 빠르게 움직이는 오브젝트를 관찰하거나, 자신의 목을 울려 시야의 주변에서 오브젝트를 보기 때문에, 상당한 머리 움직임이 있음을 나타낼 수 있다. 반대로, 가속도계로부터의 낮은 출력 값은, 예컨대, 책을 읽는 동안, 머리가 상대적으로 움직이지 않음을 나타낼 수 있다. 가속도계 데이터가 상당한 머리 움직임이 있음을 나타내는 경우, 눈 데이터 프로세서(340)는, 이를테면, 눈이 전술된 바와 같이 머리 또는 목 근육들과 연동하여 움직이는 경우에, 눈(100)이 전정 안구 움직임에 관여된다고 결론을 내릴 수 있다. 전정 안구 움직임이 비교적 작은 크기의 눈의 움직임들과 연관될 수 있기 때문에(예컨대, 머리의 움직임이 큰 눈 움직임들을 불필요하게 하기 때문에), 눈 데이터 프로세서(340)는, 눈의 베이스 포지션이 갑자기 큰 시프트들을 경험하는 것으로 예상되지 않을 수 있음을 반영하기 위해, (이를테면, intopt를 증가시키고, 이에 따라서 광학 센서에 의해 소비되는 전력을 감소시킴으로써) 광학 센서가 업데이트되는 레이트를 감소시킬 수 있다. 반대로, 추가적인 센서 데이터(350)가 어떠한 상당한 머리 움직임도 없다는 것을 나타내는 가속도계 데이터를 포함하면, 눈 데이터 프로세서는, 그렇지 않을 경우보다, (이를테면, 최소의 머리 움직임으로 책을 읽는 동안) 눈(100)이 단속성 움직임에 관여될 가능성이 더 높다는 결론을 내릴 수 있다. 머신 학습 기술들을 사용하는 예들에서, 이러한 기술들은 가속도계 데이터와 눈 거동들 사이의 연관성들을 식별하는 데 사용될 수 있다. 예컨대, 뉴럴 네트워크는 가속도계 데이터의 특정 패턴들(예컨대, 단순한 고조파 모션에 대응하는 정현파 출력)과, 이러한 패턴들과 상관된 특정 눈 거동들을 연관시키도록 트레이닝될 수 있다. 또한, 일부 예들에서, 자이로스코프, 전기 컴퍼스, 자력계, 관성 측정 유닛 또는 다른 디바이스가 가속도계 대신에 또는 이에 부가하여 사용될 수 있다.
[0055] 다른 타입들의 추가적인 센서 데이터(350)가 또한 유리한 효과를 위해 사용될 수 있다. 일부 예들에서, 추가적인 센서 데이터(350)는 주변 광 센서들로부터의 데이터를 포함할 수 있다. 눈 데이터 프로세서(340)는, 특정 광 조건들과 연관된 눈 거동들을 식별하거나, 눈 신호 프로세서(330)가 조명 조건들의 변화들을 교정하도록 돕기 위해, 이러한 데이터를 사용할 수 있다. 예컨대, 눈의 동공들(100)이 증가된 광 레벨들에 대한 노출에 대한 응답으로 수축할 수 있기 때문에, 증가된 광 레벨들을 나타내는 추가적인 센서 데이터(350)는, 동공 크기의 수축이 예상됨을 나타낼 수 있고; 이에 대한 응답으로, 광학 센서는 더 작은 동공에서 사용하기 위해 재교정할 준비를 할 수 있다. 더 작은 눈동자 크기를 수용하기 위해 눈 신호 프로세서(330)에 의해 상이한 눈 추적 알고리즘들이 또한 사용될 수 있다. 다른 예로서, 추가적인 센서 데이터(350)는, 광학 센서가 적절히 작동하기에 너무 어둡다는 것을 나타내는 주변 광 데이터를 포함할 수 있다. 눈 데이터 프로세서(340)는 이러한 정보를 사용하여, (예컨대, intopt를 증가시킴으로써) 이러한 조건들 하에서 광학 센서의 업데이트를 늦추거나 중지시킬 수 있다. 일부 예들에서, 추가적인 센서 데이터(350)는, 광학 센서와 같은 센서로부터 또한 결정될 수 있는 정보를 제공할 수 있다. 이러한 예들에서, 주변 광 센서들과 같은 비교적 전력 효율적인 센서들을 사용하여 그렇지 않으면 카메라 또는 다른 덜 효율적인 센서들에 의해 수행될 작업을 수행함으로써 효율들이 획득될 수 있다. 머신 학습 기술들을 사용하는 예들에서, 이러한 기술들은 주변 광 센서들과 같은 센서들과 눈 거동들 사이의 연관성들을 식별하기 위해 사용될 수 있다. 예컨대, 뉴럴 네트워크는 주변 광의 변화들과, 이러한 변화들에 상관되는, 동공 확장 및 수축과 같은 특정 눈 거동들을 연관시키도록 트레이닝될 수 있다.
[0056] 일부 예들에서, 추가적인 센서 데이터(350)는 시간 및/또는 이를테면, GPS 센서로부터의 위치 데이터를 포함할 수 있다. 눈 데이터 프로세서(340)는, 특정 시간들 및 위치들과 연관된 눈 거동들을 식별하기 위해 이 데이터를 사용할 수 있다. 일 예로서, 추가적인 센서 데이터(350)는, 사용자가 밤에 빌딩 내부에서 정지하고 있고, 따라서 그렇지 않은 경우보다 독서, 및 단속성 눈 움직임에 관여할 가능성이 더 높을 수 있음을 나타내는 위치 데이터를 포함할 수 있다. 다른 예로서, 추가적인 센서 데이터(350)는, 일상적인 거동(이를테면, 매일 6:00 시에서 7:00 시까지 출퇴근)을 식별하고, 이러한 거동에 기반하여 눈 움직임을 예측하기 위해 눈 데이터 프로세서(340)에 의해 사용될 수 있는 시간 데이터를 포함할 수 있다. 다른 예로서, 추가적인 센서 데이터(350)는, 사용자가 차량을 운전하고 있고, 사용자의 눈들이 그렇지 않은 경우보다 단속성 움직임들에 관여할 가능성이 더 높을 수 있음을 나타내는 위치 데이터를 포함할 수 있다. 머신 학습 기술들을 사용하는 예들에서, 이러한 기술들은 시간 및/또는 위치 데이터와 눈 거동들 사이의 연관성들을 식별하는 데 사용될 수 있다. 예컨대, 뉴럴 네트워크는 특정 시간들에 상관된 특정 눈 거동들과 하루 중 시간을 연관시키도록 트레이닝될 수 있다.
[0057] 일부 예들에서, 눈 데이터 프로세서(340)는, (이를테면, GPS 센서로부터의) 지리적 좌표들과 특정 빌딩들, 사업체들 또는 랜드마크들을 상관시키는 상업용 맵 데이터와 같은 맵 데이터에 의해 보조될 수 있다. 예컨대, 추가적인 센서 데이터(350)는, 사용자가 체육관에 있고, 따라서 그렇지 않은 경우보다 운동 및 따라서 전정 안구 움직임에 관여될 가능성이 더 높을 수 있음을 나타내기 위해, 맵 데이터와 연동하여 사용될 수 있는 위치 데이터를 포함할 수 있다. 마찬가지로, 추가적인 센서 데이터(350)는, 사용자가 영화관에 있고, 사용자의 눈이 몇 시간 기간 동안 응시 거동들(이를테면, 영화 스크린을 보는 동안)에 관여될 가능성이 높을 수 있음을 나타내기 위해 맵 데이터와 연동하여 사용될 수 있는 위치 데이터를 포함할 수 있다. 머신 학습 기술들을 사용하는 예들에서, 이러한 기술들은 맵 데이터와 눈 거동들 사이의 연관성들을 식별하는 데 사용될 수 있다. 예컨대, 뉴럴 네트워크는 사용자의 위치와, 그 위치에서 발생하는 경향이 있는 특정 눈 거동을 연관시키도록 트레이닝될 수 있다.
[0058] 일부 예들에서, 추가적인 센서 데이터(350)는 의료 조건과 연관된 눈 거동들에 관련될 수 있는, 의료 조건에 관련된 데이터를 포함할 수 있다. 예컨대, 사용자가 약시(amblyopia)(약시(lazy eye))를 갖는다는 것 ― 눈 추적 시스템에서 비정상적으로 대량의 잡음을 발생시킬 수 있는 조건 ― 을 추가적인 센서 데이터(350)가 나타내면, 눈 데이터 프로세서(340)는 높은 잡음 레벨들을 예측하고 감소시키기 위해 이러한 정보를 사용할 수 있다. 게다가, 눈 데이터 프로세서는, 사용자의 눈이 의료 조건의 결과로서 정상 움직임들에 관여하지 않을 수 있다는 사실을 수용하기 위해, 광학 센서 및/또는 EOG 센서의 업데이트 레이트들을 조정할 수 있다. 머신 학습 기술들을 사용하는 예들에서, 이러한 기술들은 의료 정보와 눈 거동들 사이의 연관성들을 식별하는 데 사용될 수 있다. 예컨대, 뉴럴 네트워크는 특정 의료 조건들과, 특정 의료 조건들을 동반하는 특정 눈 거동들을 연관시키도록 트레이닝될 수 있다.
[0059] 일부 예들에서, 추가적인 센서 데이터(350)는 컴퓨터 시스템의 사용자의 사용에 관한 데이터를 포함할 수 있고, 특히, (예컨대, 컴퓨터 시스템에 입력을 제공하기 위해) 눈 추적 시스템이 컴퓨터 시스템과 통합되는 예들에서, 컴퓨터 시스템은 사용자가 특정 눈 거동들을 나타낼 수 있는 특정 소프트웨어를 사용하고 있음을 나타낼 수 있다. 예컨대, 추가적인 센서 데이터(350)는, 사용자가 텍스트를 읽기 위해 e-북 리더 프로그램을 사용하고 있음을 나타낼 수 있고, 눈 데이터 프로세서(340)는, 사용자가 독서와 연관된 단속성 움직임들에 관여하고 있음을 예측하기 위해 이러한 정보를 사용할 수 있다. 다른 예로서, 추가적인 센서 데이터(350)는, 오브젝트가 사용자의 디스플레이 상에서 나타나는 곳을 나타내는 데이터를 포함할 수 있다. 사용자가 이러한 오브젝트들을 볼 것으로 예상될 수 있기 때문에, 눈 데이터 프로세서(340)는, 사용자의 눈들이 초점을 맞출 가능성이 높은 것을 예측하기 위해 이러한 정보를 사용할 수 있다. 예컨대, 이러한 정보는, 추가적인 센서 데이터(350)에 의해 표시된 추적된 오브젝트의 디스플레이 좌표들과 함께, 눈(100)이 오브젝트 추적 거동에 관여할 것이라고 예측하는 데 사용될 수 있다. 머신 학습 기술들을 사용하는 예들에서, 이러한 기술들은 컴퓨터 시스템 사용과 눈 거동들 사이의 연관성들을 식별하는 데 사용될 수 있다. 예컨대, 뉴럴 네트워크는 특정 컴퓨터 사용 조건들(이를테면, 특정 소프트웨어 애플리케이션의 동작)과, 그러한 사용 조건들을 동반하는 특정 눈 거동들을 연관시키도록 트레이닝될 수 있다.
[0060] 일부 예들에서, 눈 데이터 프로세서(340)는, 눈 거동들을 더 정확히 식별 또는 예측하기 위해, (이를테면, 눈 신호 프로세서(330)로부터의) 눈 포지션 데이터 및/또는 추가적인 센서 데이터(350)와 결합하여 예측 데이터(360)를 사용할 수 있다. 예측 데이터(360)는, 입력 데이터(이를테면, 눈 포지션 데이터)와 일부 출력 눈 거동(예컨대, 단속성 움직임)의 가능성을 상관시키는 정보를 포함할 수 있다. 다양한 머신 학습 기술들은 예측 데이터(360)를 생성하는 데 사용될 수 있다. 일부 예들에서, 뉴럴 네트워크는, 개별 사용자로부터의 눈 포지션 데이터와 눈 거동들을 상관시키는 예측 데이터(360)를 생성하기 위해, 그 사용자로부터의 알려진 눈 포지션 데이터 및 눈 거동들을 사용하여 트레이닝될 수 있다. 일부 예들에서, 일반화된 뉴럴 네트워크들은 개별 사용자들보다는 사용자들의 그룹들에 대해 사용하도록 트레이닝될 수 있다. 일부 예들에서, 자율 학습 기술들(unsupervised learning techniques)로부터 생성된 예측 데이터(360)는 입력 데이터 및 눈 거동들 사이의 관계들을 식별하는 데 사용될 수 있고, 이는 눈 데이터 프로세서(340)의 정확도를 개선할 수 있고, 예시적인 시스템(300)이 많고 다양한 그룹들의 사용자들에게 더 유용하게 만들 수 있다. 일부 예들에서, 심층 학습 기술들로부터 생성된 예측 데이터(360)는, 특히 입력 데이터에 관하여 선험적으로 알려진 것이 거의 없는 경우에, 입력 데이터와 눈 거동들 사이의 관계들을 식별하는 데 사용될 수 있다. 일부 예들에서, 추가의 센서 데이터(350)를 포함하는 입력 데이터와 눈의 거동들 사이의 관계들을 식별하기 위해 유전학 알고리즘들이 사용될 수 있다. 서포트 벡터 머신들, 베이지안 네트워크들, 규칙-기반 시스템들 및 학습 분류기 시스템들과 같은 다른 머신 학습 기술들이 유사하게 사용될 수 있다.
[0061] 일부 예들에서, 예측 데이터(360)는 외부 소스에 의해 예시적인 시스템(300)으로 통신될 수 있다. 예컨대, 뉴럴 네트워크는 원격 서버를 통해 트레이닝될 수 있으며, 그 뉴럴 네트워크의 파라미터들 또는 출력은 예측 데이터(360)로서 예시적인 시스템(300)에 통신된다. 이러한 구성은, 머신 학습 기술들의 로컬 적용이 컴퓨터 자원 소비가 심할 수 있는, 이를테면, 매우 많은 사용자들로부터의 많은 세트들의 눈 데이터를 사용하는 예들에서 특히 유리할 수 있다. 그러나, 머신 학습 기술들의 "가벼운" 구현을 수반하는 예들과 같은 일부 예들에서, 예측 데이터는 예시적인 시스템(300)에 로컬적으로 생성될 수 있다.
[0062] 이를테면, 도 3b에 도시된 일부 예들에서, 눈 데이터 프로세서(340)가 스테이지(342)에서 눈(100)의 거동을 특징화한 후, 눈 데이터 프로세서(340)는 스테이지(344)에서 하나 이상의 광학 센서 파라미터들 및/또는 감지 회로 파라미터들을 결정할 수 있다. 광학 센서 파라미터들 또는 감지 회로 파라미터들은, 광학 센서 루프(318A) 및 EOG 센서 루프(318B)가 그들 개개의 루프들을 업데이트하는 레이트들을 정의하는 인터벌 파라미터들을 포함할 수 있다. 예컨대, 눈 데이터 프로세서(340)가, (예컨대, 광학 센서에 의해 출력된 눈의 이미지에 의해 검출된) 현재 눈 거동에 기반하여, 광학 센서 업데이트 레이트를 감소시킴으로써 전력 소비가 안전하게 감소될 수 있다고 결정하면, 눈 데이터 프로세서(340)는, 전술된 바와 같이, 광학 센서 업데이트들 사이의 시간을 증가(따라서 광학 센서의 업데이트 레이트를 감소시킴)시키기 위해 intopt의 값을 직접 또는 간접적으로 증가시킬 수 있다. 눈 데이터 프로세서(340)는, 전술된 바와 같이, EOG 센서 업데이트들 사이의 시간을 조정하기 위해 inteog의 값을 유사하게 조정할 수 있다. 일부 예들에서, 눈 데이터 프로세서(340)는, 눈 거동에 관한 결정들에 기반하여, 광학 신호(320A) 및/또는 EOG 신호(320B)로부터의 잡음을 필터링하기 위한 파라미터들과 같은 다른 시스템 파라미터들을 조정할 수 있다. 일부 예들에서, 눈 데이터 프로세서(340)는, 눈 거동에 관한 결정들에 기반하여, 이를테면, 광학 센서를 프라이밍하거나, 광학 센서 또는 EOG 센서 교정하는 것과 같은 다른 동작들을 수행할 수 있다.
[0063] 도 3b에 도시된 예시적인 시스템(300)에서, intopt 및 inteog는 함수들(fopt 및 feog)의 출력들로서 각각 설정될 수 있으며, 이들 함수들은 스테이지(346)에서 눈 데이터 프로세서(340)로부터의 하나 이상의 파라미터들(예컨대, x, y)을 수용할 수 있다. 예컨대, 이러한 파라미터들은 고레벨 눈 거동들의 카테고리들, 눈 움직임들의 주파수 컴포넌트들, 및 눈 움직임의 다른 양상들에 대응할 수 있다. 이러한 파라미터들은 또한 눈 움직임들에 직접적으로 관련되지 않은 정보, 이를테면, 현재의 배터리 수명(낮을 때, 덜 빈번한 센서 측정들을 요구할 수 있음)에 대응할 수 있다. 이러한 예시적인 시스템들에서, fopt 및 feog는, 눈 추적 정확도와 전력 소비 사이의 최적의 트레이드오프를 유지하기 위해, 눈 데이터 프로세서(340)가, fopt 및 feog의 파라미터들을 통해, 센서 업데이트 레이트들을 계속해서 조정할 수 있게 하도록 구성될 수 있다.
[0064] 도 4는 상기 예들 중 임의의 것 또는 전부를 구현하기 위해 사용될 수 있는 예시적인 시스템(400)을 예시한다. 예시적인 시스템(400)은 휴대용 디바이스(웨어러블 디바이스를 포함함) 또는 비-휴대용 디바이스, 예컨대 통신 디바이스(예컨대, 모바일 폰, 스마트 폰), 멀티미디어 디바이스(예컨대, MP3 플레이어, TV, 라디오), 휴대용 또는 핸드헬드 컴퓨터(예컨대, 태블릿, 넷북, 랩탑), 데스크탑 컴퓨터, 올인원 데스크탑, 주변 디바이스, 머리 장착 디바이스(예컨대, 통합 디스플레이를 포함할 수 있음), 또는 이러한 타입들의 디바이스들 중 둘 이상의 조합들을 포함하는 예시적인 시스템(400)을 포함하도록 적응 가능한 임의의 다른 시스템 또는 디바이스에 포함될 수 있다. 상기 예들은 무선 네트워크를 통해 통신하는 둘 이상의 컴퓨터들과 같은 둘 이상의 물리적으로 별개의 디바이스들로 구현될 수 있다. 상기 예들은 데이터를 머리 장착 디스플레이에 그리고/또는 그로부터 통신하는 벨트 팩과 같은 둘 이상의 물리적으로 상이한 디바이스들로 구현될 수 있다. 예시적인 시스템(400)은 하나 이상의 컴퓨터 판독가능 매체들(401), 프로세싱 시스템(404), I/O 서브시스템(406), 무선 통신 회로(예컨대, RF 회로)(408), 오디오 디바이스들(예컨대, 스피커, 마이크로폰)(410) 및 센서들(411)을 포함한다. 이러한 컴포넌트들은 하나 이상의 통신 버스들 또는 신호 라인들(403)에 의해 커플링될 수 있다.
[0065] 도 4에 도시된 아키텍처는 예시적인 시스템(400)의 하나의 예시적인 아키텍처일 뿐이며, 예시적인 시스템(400)은 도시된 것보다 더 많거나 더 적은 컴포넌트들, 또는 컴포넌트들의 다른 구성을 가질 수 있다. 도 4에 도시된 다양한 컴포넌트들은 하나 이상의 디지털 신호 프로세서들(DSP) 및/또는 주문형 집적 회로들(ASIC)을 포함하는 하드웨어, 소프트웨어, 펌웨어 또는 이들의 임의의 조합으로 구현될 수 있다.
[0066] 도 4의 예시적인 시스템(400)을 참조하면, 무선 통신 회로(408)는 정보를 무선(예컨대, RF) 링크 또는 네트워크를 통해 하나 이상의 다른 디바이스들에 전송하고 이로부터 수신하기 위해 사용될 수 있고 이러한 기능을 수행하기 위한 회로를 포함할 수 있다. 무선 통신 회로(408) 및 오디오 디바이스들(410)은 주변 인터페이스(416)를 통해 프로세싱 시스템(404)에 커플링될 수 있다. 주변 인터페이스(416)는 주변기기들(예컨대, 무선 통신 회로(408), 오디오 디바이스들(410) 및 센서들(411))과 프로세싱 시스템(404) 사이의 통신을 확립 및 유지하기 위한 다양한 공지된 컴포넌트들을 포함할 수 있다. 오디오 디바이스들(410)은, 주변 인터페이스(416)로부터 수신된 음성 신호들을 프로세싱하여 사용자가 다른 사용자들과 실시간으로 통신할 수 있게 하는 회로를 포함할 수 있다. 오디오 디바이스들(410)은 예컨대 하나 이상의 스피커들 및/또는 하나 이상의 마이크로폰들을 포함할 수 있다. 일부 예들에서, 오디오 디바이스들(410)은 헤드폰 잭(미도시)을 포함할 수 있다.
[0067] 센서들(411)은 하나 이상의 LED(Light Emitting Diode)들 또는 다른 발광기들, 하나 이상의 포토다이오드들 또는 다른 광 센서들, 하나 이상의 광열 센서들, 자력계, 가속도계, 자이로스코프, 기압계, 컴퍼스, 근접 센서, 카메라, 주변 광 센서, 온도계, GPS 센서, EOG(electrooculography) 센서, 및 배터리 잔량, 전력 소비, 프로세서 속도, CPU 부하 등을 감지할 수 있는 다양한 시스템 센서들을 포함하지만 이에 제한되는 것은 아닌 다양한 센서들을 포함할 수 있다. 머리 장착 디바이스(디스플레이를 포함할 수 있음)를 수반하는 것과 같은 예들에서, 하나 이상의 센서들은 사용자의 눈 움직임을 추적하거나 또는 사용자의 눈의 이미지에 기반하여 사용자를 식별하는 것과 같은, 사용자의 눈과 관련된 기능성과 관련하여 사용될 수 있다.
[0068] 주변 인터페이스(416)는 시스템(400)의 입력 및 출력 주변기기들을 하나 이상의 프로세서들(418) 및 하나 이상의 컴퓨터 판독가능 매체들(401)에 커플링할 수 있다. 하나 이상의 프로세서들(418)은 제어기(420)를 통해 하나 이상의 컴퓨터 판독가능 매체들(401)과 통신할 수 있다. 컴퓨터 판독가능 매체(401)는 하나 이상의 프로세서들(418)에 의해 사용하기 위한 코드 및/또는 데이터를 저장할 수 있는 임의의 디바이스 또는 매체(신호를 제외함)일 수 있다. 일부 예들에서, 컴퓨터 판독가능 매체(401)는 비일시적 컴퓨터 판독가능 저장 매체일 수 있다. 컴퓨터 판독가능 매체(401)는 캐시, 메인 메모리 및 2차 메모리를 포함하지만 이에 제한되는 것은 아닌 메모리 계층을 포함할 수 있다. 메모리 계층은 RAM(예컨대, SRAM, DRAM, DDRAM), ROM, FLASH, 자기 및/또는 광학 저장 디바이스들, 예컨대, 디스크 드라이브들, 자기 테이프, CD(compact disc)들 및 DVD(digital video disc)들의 임의의 조합을 사용하여 구현될 수 있다. 컴퓨터 판독가능 매체(401)는 또한 컴퓨터 명령들 또는 데이터를 표시하는 정보 보유 신호들을 운반하기 위한 송신 매체를 포함할 수 있다(그러나 신호들을 제외하고 신호들이 변조되는 반송파를 제외함). 예컨대, 송신 매체는 인터넷(월드 와이드 웹을 포함함), 인트라넷(들), LAN(Local Area Network)들, WLAN(Wide Local Area Network)들, SAN(Storage Area Network)들, MAN(Metropolitan Area Network)들 등을 포함하지만 이에 제한되는 것은 아닌 통신 네트워크를 포함할 수 있다.
[0069] 하나 이상의 프로세서들(418)은 예시적인 시스템(400)에 대한 다양한 기능들을 수행하기 위해 컴퓨터 판독가능 매체(401)에 저장된 다양한 소프트웨어 컴포넌트들을 실행할 수 있다. 일부 예들에서, 소프트웨어 컴포넌트들은 운영 시스템(422), 통신 모듈(또는 명령들의 세트)(424), I/O 프로세싱 모듈(또는 명령들의 세트)(426), 그래픽 모듈(또는 명령들의 세트)(428) 및 하나 이상의 애플리케이션들(또는 명령들의 세트)(430)을 포함할 수 있다. 이들 모듈들 및 상기 언급된 애플리케이션들 각각은 전술한 하나 이상의 기능들 및 본 출원에서 설명된 방법들(예컨대, 본 명세서에서 설명된 컴퓨터 구현 방법들 및 다른 정보 프로세싱 방법들)을 수행하기 위한 명령들의 세트에 대응할 수 있다. 이러한 모듈들(즉, 명령들의 세트)은 별개의 소프트웨어 프로그램들, 절차들 또는 모듈들로서 구현될 필요가 없고, 따라서 이러한 모듈들의 다양한 서브세트들은 다양한 예들에서 조합되거나 달리 재배열될 수 있다. 일부 예들에서, 컴퓨터 판독가능 매체(401)는 앞서 식별된 모듈들 및 데이터 구조들의 서브세트를 저장할 수 있다. 또한, 컴퓨터 판독가능 매체(401)는 앞서 설명되지 않은 추가적인 모듈들 및 데이터 구조들을 저장할 수 있다.
[0070] 운영 시스템(422)은 일반적인 시스템 작업들(예컨대, 메모리 관리, 저장 디바이스 제어, 전력 관리 등)을 제어 및 관리하기 위한 다양한 절차들, 명령들의 세트들, 소프트웨어 컴포넌트들 및/또는 드라이버들을 포함할 수 있고, 다양한 하드웨어 및 소프트웨어 컴포넌트들 사이의 통신을 용이하게 한다.
[0071] 통신 모듈(424)은 하나 이상의 외부 포트들(436)을 통해, 또는 무선 통신 회로(408)를 통해 다른 디바이스들과의 통신을 용이하게 할 수 있고, 무선 통신 회로(408) 및/또는 외부 포트(436)로부터 수신된 데이터를 처리하기 위한 다양한 소프트웨어 컴포넌트들을 포함할 수 있다.
[0072] 그래픽 모듈(428)은 하나 이상의 디스플레이 표면들 상에 그래픽 오브젝트들을 렌더링, 애니메이팅 및 디스플레이하기 위한 다양한 공지된 소프트웨어 컴포넌트들을 포함할 수 있다. 디스플레이 표면들은 2D 또는 3D 디스플레이들을 포함할 수 있다. 디스플레이 표면들은 예시적인 시스템(400)의 하나 이상의 컴포넌트들에 직접 또는 간접적으로 커플링될 수 있다. 터치 감지 디스플레이(예컨대, 터치 스크린)를 수반하는 예들에서, 그래픽 모듈(428)은 터치 감지 디스플레이 상에서 오브젝트들을 렌더링, 디스플레이 및 애니메이팅하기 위한 컴포넌트들을 포함할 수 있다. 일부 예들에서, 그래픽 모듈(428)은 원격 디스플레이들에 렌더링하기 위한 컴포넌트들을 포함할 수 있다. 카메라를 통합하는 것들과 같은 일부 예들에서, 그래픽 모듈(428)은 (머리 장착형 카메라로부터 캡처된 것과 같은) 카메라 데이터 또는 (위성 캡처 이미저리와 같은) 사진 데이터를 렌더링된 그래픽 오브젝트들과 합성함으로써 형성되는 이미지를 생성 및/또는 디스플레이하기 위한 컴포넌트들을 포함할 수 있다. 일부 예들에서, 그래픽 모듈(428)은 머리 장착 디스플레이에 이미지를 렌더링하기 위한 컴포넌트들을 포함할 수 있다. 일부 예들에서, 이미지는 가상 콘텐츠의 엘리먼트(예컨대, 3차원 가상 환경에서의 오브젝트)의 뷰 및/또는 물리적 세계(예컨대, 사용자의 물리적 환경들을 표시하는 카메라 입력)의 뷰를 포함할 수 있다. 일부 예들에서, 디스플레이는 가상 콘텐츠와 물리적 세계의 뷰의 합성을 제시할 수 있다. 일부 예들에서, 물리적 세계의 뷰는 렌더링된 이미지일 수 있고; 일부 예들에서, 물리적 세계의 뷰는 카메라로부터의 이미지일 수 있다.
[0073] 하나 이상의 애플리케이션들(430)은 제한 없이, 브라우저, 주소록, 연락처 목록, 이메일, 인스턴트 메시징, 워드 프로세싱, 키보드 에뮬레이션, 위젯들, JAVA-가능 애플리케이션들, 암호화, 디지털 권리 관리, 음성 인식, 음성 복제, 위치 결정 능력(예컨대, GPS(global positioning system)에 의해 제공되는 것), 뮤직 플레이어 등을 포함하는, 예시적인 시스템(400) 상에 설치된 임의의 애플리케이션들을 포함할 수 있다.
[0074] I/O 서브 시스템(406)은 다양한 기능들을 제어 또는 수행하기 위해 하나 이상의 I/O 디바이스들(414)에 커플링될 수 있다. 눈 추적 또는 홍채 인식 기능성을 포함하는 예들과 같은 눈 데이터의 프로세싱을 수반하는 예들에서, I/O 서브시스템(406)은 눈 관련 입력 및 출력을 처리하는데 전용되는 하나 이상의 I/O 디바이스들(412)에 커플링될 수 있다. 하나 이상의 눈 I/O 디바이스들(412)은 눈 I/O 디바이스 제어기(432)를 통해 프로세싱 시스템(404)과 통신할 수 있으며, 눈 I/O 디바이스 제어기(432)는 눈 입력(예컨대, 눈 추적을 위한 센서들) 또는 사용자 제스처 입력(예컨대, 광학 센서들)을 프로세싱하기 위한 다양한 컴포넌트들을 포함할 수 있다. 하나 이상의 다른 I/O 제어기들(434)은 다른 I/O 디바이스들(414)에 및 그로부터 전기 신호들을 전송 및 수신할 수 있다. 이러한 I/O 디바이스들(414)은 물리적인 버튼들, 다이얼들, 슬라이더 스위치들, 스틱들, 키보드들, 터치 패드들, 추가 디스플레이 스크린들 또는 이들의 임의의 조합을 포함할 수 있다.
[0075] I/O 프로세싱 모듈(426)은 눈 I/O 디바이스 제어기(432)를 통해 눈 I/O 디바이스들(412)로부터 또는 I/O 제어기들(434)을 통해 다른 I/O 디바이스들(414)로부터 수신된 입력을 수신 및 프로세싱하는 것을 포함하지만 이에 제한되는 것은 아닌, 하나 이상의 눈 I/O 디바이스들(412) 및/또는 하나 이상의 다른 I/O 디바이스들(414)과 연관된 다양한 작업들을 수행하기 위한 다양한 소프트웨어 컴포넌트들을 포함할 수 있다. 일부 예들에서, I/O 디바이스들(414) 및/또는 I/O 프로세싱 모듈(426)은 촉각 또는 비-촉각 수단에 의해 제공될 수 있는 제스처 입력과 관련된 다양한 작업들을 수행할 수 있다. 일부 예들에서, 제스처 입력은 예컨대 사용자의 눈들, 팔들, 손들 및/또는 손가락들의 움직임들을 검출하기 위해 카메라 또는 다른 센서에 의해 제공될 수 있다. 일부 예들에서, 하나 이상의 I/O 디바이스들(414) 및/또는 I/O 프로세싱 모듈(426)은 사용자가 상호작용하기를 원하는 디스플레이, 예컨대 사용자가 포인팅하고 있는 GUI 엘리먼트들 상에서 오브젝트들을 식별하도록 구성될 수 있다. 일부 예들에서, 하나 이상의 눈 I/O 디바이스들(412) 및/또는 I/O 프로세싱 모듈(426)은 사용자가 보고 있는 디스플레이 상의 오브젝트 또는 영역을 식별하는 것과 같은 눈 추적 작업들을 (예컨대 광학 또는 EOG 센서들의 보조로) 수행하도록 구성될 수 있다. 일부 예들에서, 하나 이상의 I/O 디바이스들(414) 및/또는 I/O 프로세싱 모듈(426)이 2D 또는 3D 환경에 대해 사용자의 손들의 위치를 식별하는 것과 같은 제스처-관련 작업들을 보조하기 위해 사용자에 의해 디바이스(예컨대, 하드웨어 "비콘")가 착용 또는 유지될 수 있다. 일부 예들에서, 하나 이상의 눈 I/O 디바이스들(412) 및/또는 I/O 프로세싱 모듈(426)은 사용자의 눈과 관련된, 카메라 센서로부터의 데이터와 같은 센서 입력에 기반하여 사용자를 식별하도록 구성될 수 있다.
[0076] 일부 예들에서, 그래픽 모듈(428)은 GUI(graphical user interface)에서 사용자에게 시각적 출력을 디스플레이할 수 있다. 시각적 출력은 텍스트, 그래픽, 비디오 및 이들의 임의의 조합을 포함할 수 있다. 시각적 출력의 일부 또는 전부는 사용자 인터페이스 오브젝트들에 대응할 수 있다. 일부 예들에서, 하나 이상의 I/O 디바이스들(412 및/또는 414) 및/또는 제어기들(432 및/또는 434)은 (매체(401)의 임의의 연관된 모듈들 및/또는 명령들의 세트들과 함께) 제스처들 및/또는 눈 움직임들을 검출 및 추적할 수 있고, 검출된 제스처들 및/또는 눈 움직임들을 하나 이상의 사용자 인터페이스 오브젝트들과 같은 그래픽 오브젝트들과의 상호작용으로 변환할 수 있다. 하나 이상의 눈 I/O 디바이스들(412) 및/또는 눈 I/O 디바이스 제어기(432)가 사용자의 눈 움직임들을 추적하도록 구성되는 예들에서, 사용자는 그래픽 오브젝트들을 봄으로써 이들과 직접 상호작용할 수 있다.
[0077] 디스플레이되고 있는 것 및/또는 예시적인 시스템(400)의 상태 또는 상태들에 기반하여, 예컨대, 하나 이상의 눈 I/O 디바이스들(412) 또는 하나 이상의 다른 I/O 디바이스들(414)에 의해 피드백이 제공될 수 있다. 피드백은 광학적으로(예컨대, 광 신호 또는 디스플레이된 이미지), 기계적으로(예컨대, 햅틱 피드백, 터치 피드백, 힘 피드백 등), 전기적으로(예컨대, 전기 자극), 후각적, 음향적으로(예컨대, 경고음 등) 등으로 또는 이들의 임의의 조합으로 그리고 가변적이거나 비-가변적인 방식으로 송신될 수 있다.
[0078] 예시적인 시스템(400)은 또한 다양한 하드웨어 컴포넌트들에 전력을 공급하기 위한 전력 시스템(444)을 포함할 수 있고, 전력 관리 시스템, 하나 이상의 전원들, 재충전 시스템, 정전 검출 회로, 전력 변환기 또는 인버터, 전력 상태 표시기, 및 휴대용 디바이스들에서 전력의 생성, 관리 및 분배와 통상적으로 임의의 연관된 다른 컴포넌트들을 포함할 수 있다.
[0079] 일부 예들에서, 주변 인터페이스(416), 하나 이상의 프로세서들(418) 및 제어기(420)는 프로세싱 시스템(404)과 같은 단일 칩 상에 구현될 수 있다. 일부 다른 예들에서, 이들은 별개의 칩들 상에 구현될 수 있다.
[0080] 일부 예들에서, 방법이 개시된다. 방법은: 눈의 제1 포지션을 표시하는 데이터를 출력하도록 구성된 제1 센서로부터 제1 시간 인터벌로, 제1 데이터를 수신하는 단계; 눈의 델타 포지션을 표시하는 데이터를 출력하도록 구성된 제2 센서로부터 제2 시간 인터벌로, 제2 데이터를 수신하는 단계; 제1 데이터에 기반하여, 눈의 제1 포지션을 결정하는 단계; 제2 데이터에 기반하여, 눈의 델타 포지션을 결정하는 단계; 눈의 제1 포지션 및 눈의 델타 포지션을 사용하여, 눈의 제2 포지션을 결정하는 단계; 및 눈의 제2 포지션을 결정하는 것에 대한 응답으로, 눈의 제2 포지션을 표시하는 출력 신호를 생성하는 단계를 포함할 수 있다. 상기 예들 중 하나 이상에 대해 추가적으로 또는 대안적으로, 제1 센서는 광학 센서를 포함할 수 있다. 상기 예들 중 하나 이상에 대해 추가적으로 또는 대안적으로, 제2 센서는 전기안전도 센서를 포함할 수 있다. 상기 예들 중 하나 이상에 대해 추가적으로 또는 대안적으로, 제1 시간 인터벌은 제2 시간 인터벌보다 더 클 수 있다. 상기 예들 중 하나 이상에 대해 추가적으로 또는 대안적으로, 제1 센서는 제1 시간 인터벌 동안에 저전력 모드로 동작할 수 있다. 상기 예들 중 하나 이상에 대해 추가적으로 또는 대안적으로, 제2 센서는 제2 시간 인터벌 동안에 저전력 모드로 동작할 수 있다. 상기 예들 중 하나 이상에 대해 추가적으로 또는 대안적으로, 방법은 눈의 제2 포지션을 사용하여 제1 눈 움직임 거동을 결정하는 단계를 더 포함할 수 있다. 상기 예들 중 하나 이상에 대해 추가적으로 또는 대안적으로, 제1 눈 움직임 거동은 단속성(saccadic) 움직임, 완곡 추종(smooth pursuit), 응시(fixation), 안구진탕(nystagmus), 또는 전정안구(vestibulo-ocular) 움직임을 포함할 수 있다. 상기 예들 중 하나 이상에 대해 추가적으로 또는 대안적으로, 방법은, 제1 눈 움직임 거동을 결정하는 것에 대한 응답으로, 제1 센서로부터 데이터를 수신하는 제3 시간 인터벌을 결정하는 단계, 및 제2 센서로부터 데이터를 수신하는 제4 시간 인터벌을 결정하는 단계를 더 포함할 수 있다. 상기 예들 중 하나 이상에 대해 추가적으로 또는 대안적으로, 제1 눈 움직임 거동을 결정하는 단계는: 제1 눈 움직임 거동의 가능성에 대응하는 신뢰 스코어를 생성하는 단계; 신뢰 스코어와 임계값을 비교하는 단계; 및 신뢰 스코어가 임계값을 초과한다고 결정하는 단계를 포함할 수 있다. 상기 예들 중 하나 이상에 대해 추가적으로 또는 대안적으로, 방법은 제3 센서로부터 제3 데이터를 수신하는 단계를 더 포함할 수 있고, 제1 눈 움직임 거동은 제3 데이터를 사용하여 결정될 수 있다. 상기 예들 중 하나 이상에 대해 추가적으로 또는 대안적으로, 제3 센서는 가속도계, 자이로스코프, 전자 컴퍼스, 자력계 또는 관성 측정 유닛을 포함할 수 있다. 상기 예들 중 하나 이상에 대해 추가적으로 또는 대안적으로, 제3 센서는 GPS 센서를 포함할 수 있다. 상기 예들 중 하나 이상에 대해 추가적으로 또는 대안적으로, 제3 센서는 주변 광 센서를 포함할 수 있다. 상기 예들 중 하나 이상에 대해 추가적으로 또는 대안적으로, 제1 눈 움직임 거동은 뉴럴 네트워크를 사용하여 결정될 수 있다. 상기 예들 중 하나 이상에 대해 추가적으로 또는 대안적으로, 방법은 제1 데이터, 제2 데이터, 제3 데이터, 눈의 제2 포지션, 또는 제1 눈 움직임 거동을 포함하는 정보를 사용하여 뉴럴 네트워크를 트레이닝하는 단계를 더 포함할 수 있다. 상기 예들 중 하나 이상에 대해 추가적으로 또는 대안적으로, 방법은 뉴럴 네트워크를 사용하여 제2 눈 움직임 거동을 결정하는 단계를 더 포함할 수 있다. 상기 예들 중 하나 이상에 대해 추가적으로 또는 대안적으로, 제1 센서 및 제2 센서는 디스플레이를 포함하는 머리-장착 디바이스에 부착될 수 있다. 상기 예들 중 하나 이상에 대해 추가적으로 또는 대안적으로, 방법은, 눈의 제2 포지션을 결정하는 것에 대한 응답으로, 눈의 제2 포지션에 대응하는 디스플레이의 구역을 결정하는 단계 ― 구역은 제1 디스플레이 상태와 동일한 디스플레이 상태를 가짐 ― ; 및 구역의 디스플레이 상태를 제1 디스플레이 상태로부터 제2 디스플레이 상태로 변경하는 단계를 더 포함할 수 있다.
[0081] 일부 예들에서, 방법이 개시된다. 방법은: 머리-장착 디스플레이를 포함하는 증강 현실 시스템의 사용자와 연관된 센서로부터 제1 시간 인터벌로, 제1 데이터를 수신하는 단계 ― 제1 데이터는 사용자의 눈의 포지션을 표시함 ― ; 제1 데이터 및 증강 현실 시스템의 속성에 기반하여, 눈과 연관된 눈 움직임 거동을 결정하는 단계; 및 눈과 연관된 눈 움직임 거동을 결정하는 것에 대한 응답으로, 센서로부터 데이터를 수신하는 제2 시간 인터벌을 결정하는 단계를 포함할 수 있다. 상기 예들 중 하나 이상에 대해 추가적으로 또는 대안적으로, 눈 움직임 거동을 결정하는 단계는: 눈 움직임 거동의 가능성에 대응하는 신뢰 스코어를 생성하는 단계; 신뢰 스코어와 임계값을 비교하는 단계; 및 신뢰 스코어가 임계값을 초과한다고 결정하는 단계를 포함할 수 있다. 상기 예들 중 하나 이상에 대해 추가적으로 또는 대안적으로, 증강 현실 시스템은 소프트웨어 애플리케이션을 실행하도록 구성될 수 있고, 증강 현실 시스템의 속성은 소프트웨어 애플리케이션의 상태를 표시할 수 있다. 상기 예들 중 하나 이상에 대해 추가적으로 또는 대안적으로, 센서는 제2 시간 인터벌 동안에 저전력 모드로 동작할 수 있다. 상기 예들 중 하나 이상에 대해 추가적으로 또는 대안적으로, 눈 움직임 거동은 단속성 움직임, 완곡 추종, 응시, 안구진탕, 또는 전정안구 움직임을 포함할 수 있다. 상기 예들 중 하나 이상에 대해 추가적으로 또는 대안적으로, 증강 현실 시스템은 가속도계, 자이로스코프, 전자 컴퍼스, 자력계, 또는 관성 측정 유닛을 포함할 수 있고, 증강 현실 시스템의 속성은 가속도계, 자이로스코프, 전기 컴퍼스, 자력계, 또는 관성 측정 유닛의 출력을 포함한다. 상기 예들 중 하나 이상에 대해 추가적으로 또는 대안적으로, 증강 현실 시스템은 GPS 센서를 포함할 수 있고, 증강 현실 시스템의 속성은 GPS 센서의 출력을 포함할 수 있다. 상기 예들 중 하나 이상에 대해 추가적으로 또는 대안적으로, 증강 현실 시스템은 주변 광 센서를 포함할 수 있고, 증강 현실 시스템의 속성은 주변 광 센서의 출력을 포함할 수 있다. 상기 예들 중 하나 이상에 대해 추가적으로 또는 대안적으로, 눈 움직임 거동은 뉴럴 네트워크를 사용하여 결정될 수 있다. 상기 예들 중 하나 이상에 대해 추가적으로 또는 대안적으로, 센서는 광학 센서를 포함할 수 있다. 상기 예들 중 하나 이상에 대해 추가적으로 또는 대안적으로, 센서는 전기안전도 센서를 포함할 수 있다.
[0082] 일부 예들에서, 웨어러블 컴퓨팅 시스템이 개시된다. 웨어러블 컴퓨팅 시스템은: 사용자의 머리 둘레에 착용되도록 구성된 프레임; 프레임에 부착된 적어도 하나의 전극을 포함하는 감지 회로 ― 감지 회로는 사용자의 눈의 전위를 측정하도록 구성됨 ― ; 프레임에 부착되고, 광학 센서 파라미터에 따라 사용자의 눈의 이미지를 검출하도록 구성된 광학 센서; 및 감지 회로 및 광학 센서에 동작 가능하게 커플링된 프로세서를 포함할 수 있고, 프로세서는: 감지 회로로부터 제1 데이터를 획득하고 ― 제1 데이터는 사용자의 눈의 전위를 표시함 ― ; 그리고 제1 데이터에 기반하여 광학 센서 파라미터를 조정하도록 구성된다. 상기 예들 중 하나 이상에 대해 추가적으로 또는 대안적으로, 광학 센서 파라미터는, 광학 센서가 눈의 이미지들을 검출하는 레이트를 결정할 수 있다. 상기 예들 중 하나 이상에 대해 추가적으로 또는 대안적으로, 광학 센서 파라미터는 광학 센서의 전력 소비 모드를 결정할 수 있다. 상기 예들 중 하나 이상에 대해 추가적으로 또는 대안적으로, 프로세서는 제1 데이터에 기반하여 광학 센서를 선택적으로 활성화 및 비활성화하도록 추가로 구성될 수 있다. 상기 예들 중 하나 이상에 대해 추가적으로 또는 대안적으로, 프로세서는 광학 센서에 의해 검출된 이미지에 기반하여 눈의 포지션을 결정하도록 추가로 구성될 수 있다. 상기 예들 중 하나 이상에 대해 추가적으로 또는 대안적으로, 프로세서는 제1 데이터에 기반하여 눈의 움직임을 검출하도록 추가로 구성될 수 있다. 상기 예들 중 하나 이상에 대해 추가적으로 또는 대안적으로, 프로세서는 검출된 움직임에 기반하여 광학 센서 파라미터를 조정하도록 추가로 구성될 수 있다. 상기 예들 중 하나 이상에 대해 추가적으로 또는 대안적으로, 프로세서는, 눈이 복수의 미리 정의된 눈 움직임 거동들 중 눈 움직임 거동에 관여되는지를 결정하도록 추가로 구성될 수 있고, 그 결정은 적어도 제1 데이터에 기반한다. 상기 예들 중 하나 이상에 대해 추가적으로 또는 대안적으로, 프로세서는 그 결정에 기반하여 광학 센서 파라미터를 조정하도록 추가로 구성될 수 있다. 상기 예들 중 하나 이상에 대해 추가적으로 또는 대안적으로, 감지 회로는 감지 회로 파라미터에 따라 사용자의 눈의 전위를 측정하도록 구성될 수 있고, 프로세서는 광학 센서에 의해 출력된 눈의 이미지에 기반하여 감지 회로 파라미터를 조정하도록 추가로 구성될 수 있다. 상기 예들 중 하나 이상에 대해 추가적으로 또는 대안적으로, 감지 회로 파라미터는, 감지 회로가 눈의 전위를 표시하는 데이터를 프로세서에 출력하는 레이트를 결정할 수 있다. 상기 예들 중 하나 이상에 대해 추가적으로 또는 대안적으로, 감지 회로는 2개의 전극들, 및 2개의 전극들 사이의 전위 차이를 측정하도록 구성된 적어도 하나의 전기 컴포넌트를 포함할 수 있다.
[0083] 본 개시내용이 본원의 예들을 참조하여 특히 도시되고 설명되었지만, 당업자들은 본 개시내용의 범위를 벗어나지 않으면서 형태 및 세부사항들에서의 다양한 변경들이 이루어질 수 있음을 이해할 것이다.

Claims (19)

  1. 눈의 제1 포지션을 표시하는 제1 데이터를 수신하는 단계 ― 상기 제1 데이터는 제1 센서로부터 제1 레이트로 수신됨 ―;
    상기 눈의 제2 포지션을 표시하는 제2 데이터를 수신하는 단계 ― 상기 제2 데이터는 상기 제1 센서와 다른 제2 센서로부터 제2 레이트로 수신되고, 상기 제1 센서는 제1 빈도로 눈 데이터를 검출하도록 구성되며, 그리고 상기 제2 센서는 상기 제1 빈도보다 높은 제2 빈도로 눈 데이터를 검출하도록 구성됨 ―;
    광학 센서 파라미터에 기초하여 상기 제1 레이트가 상기 제2 레이트에 대하여 증가되어야 하는지 여부 결정하는 단계;
    상기 제1 레이트가 상기 제2 레이트에 대하여 증가되어야 한다는 결정에 따라, 상기 제2 레이트에 대하여 상기 제1 레이트를 증가시키도록 시스템 파라미터를 조정하는 단계; 및
    상기 제1 레이트가 상기 제2 레이트에 대하여 증가되지 않아야 한다는 결정에 따라, 상기 시스템 파라미터를 조정하는 것을 포기하는 단계를 포함하는,
    방법.
  2. 제1항에 있어서,
    상기 제1 센서는 광학 센서를 포함하는,
    방법.
  3. 제1항에 있어서,
    상기 제2 센서는 전기안전도 센서(electrooculography sensor)를 포함하는,
    방법.
  4. 제1항에 있어서,
    상기 제1 센서는 상기 제1 레이트로 상기 제1 데이터를 수신함과 동시에 저전력 모드로 동작하는,
    방법.
  5. 제1항에 있어서,
    상기 제2 센서는 상기 제2 레이트로 상기 제2 데이터를 수신함과 동시에 저전력 모드로 동작하는,
    방법.
  6. 제1항에 있어서,
    상기 눈의 제1 포지션 및 상기 눈의 제2 포지션에 기초하여 상기 눈의 제3 포지션을 결정하는 단계; 및
    상기 눈의 제3 포지션에 기초하여 제1 눈 움직임 거동을 결정하는 단계를 더 포함하는,
    방법.
  7. 제6항에 있어서,
    상기 광학 센서 파라미터는 상기 제1 눈 움직임 거동에 기초하는,
    방법.
  8. 제6항에 있어서,
    상기 제1 눈 움직임 거동을 결정하는 단계는:
    상기 제1 눈 움직임 거동의 가능성에 대응하는 신뢰 스코어를 생성하는 단계;
    상기 신뢰 스코어와 임계값을 비교하는 단계; 및
    상기 신뢰 스코어가 상기 임계값을 초과한다고 결정하는 단계를 포함하는,
    방법.
  9. 제6항에 있어서,
    상기 제1 센서 및 상기 제2 센서는 디스플레이를 포함하는 머리-장착 디바이스와 관련되며, 그리고
    상기 눈의 제3 포지션의 결정에 따라:
    상기 눈의 제2 포지션에 대응하는 상기 디스플레이의 구역을 결정하는 단계 ― 상기 구역은 제1 디스플레이 상태와 동일한 디스플레이 상태를 가짐 ― , 및
    상기 구역의 디스플레이 상태를 상기 제1 디스플레이 상태로부터 제2 디스플레이 상태로 변경하는 단계를 더 포함하는,
    방법.
  10. 제1항에 있어서,
    제3 센서로부터 제3 데이터를 수신하는 단계; 및
    상기 제3 데이터에 기초하여 제1 눈 움직임 거동을 결정하는 단계를 더 포함하는,
    방법.
  11. 제1항에 있어서,
    상기 광학 센서 파라미터는 뉴럴 네트워크로부터의 출력에 기초하는,
    방법.
  12. 제1항에 있어서,
    상기 제1 데이터, 상기 제2 데이터, 또는 상기 제1 데이터 및 상기 제2 데이터 둘 다를 포함하는 정보를 사용하여 뉴럴 네트워크를 트레이닝시키는 단계를 더 포함하는,
    방법.
  13. 제1항에 있어서,
    상기 제2 데이터는 상기 눈의 델타 포지션을 나타내며, 그리고
    상기 눈의 델타 포지션이 임계값 미만인지 여부를 결정하는 단계를 더 포함하며,
    상기 델타 포지션이 상기 임계값보다 크다는 결정에 따라, 상기 광학 센서 파라미터는 상기 제1 레이트가 상기 제2 레이트에 대하여 증가되어야 함을 나타내며, 그리고
    상기 델타 포지션이 상기 임계값보다 크지 않다는 결정에 따라, 상기 광학 센서 파라미터는 상기 시스템 파라미터가 조정되지 않아야 함을 나타내는,
    방법.
  14. 제1항에 있어서,
    상기 광학 센서 파라미터에 기초하여 상기 제1 레이트가 상기 제2 레이트에 대하여 감소되어야 하는지 여부를 결정하는 단계;
    상기 제1 레이트가 상기 제2 레이트에 대하여 감소되어야 한다는 결정에 따라, 상기 제2 레이트에 대하여 상기 제1 레이트를 감소시키도록 상기 시스템 파라미터를 조정하는 단계;
    상기 제1 레이트가 상기 제2 레이트에 대하여 감소되지 않아야 한다는 결정에 기초하여, 상기 시스템 파라미터를 조정하는 것을 포기하는 단계를 포함하는,
    방법.
  15. 제14항에 있어서,
    상기 제1 레이트가 상기 제2 레이트에 대하여 감소되어야 한다는 결정은, 상기 광학 센서 파라미터가 상기 제1 센서의 전력 소비를 감소시키기 위한 표시를 포함한다는 결정을 포함하는,
    방법.
  16. 제14항에 있어서,
    상기 제1 레이트가 상기 제2 레이트에 대하여 증가되어야 한다는 결정은, 상기 광학 센서 파라미터가 상기 제1 센서의 정확도를 증가시키기 위한 표시를 포함한다는 결정을 포함하는,
    방법.
  17. 제1항에 있어서,
    제2 센서 파라미터에 기초하여 상기 제2 레이트가 상기 제1 레이트에 대하여 증가되어야 하는지 여부를 결정하는 단계;
    상기 제2 레이트가 상기 제1 레이트에 대하여 증가되어야 한다는 결정에 따라, 상기 제1 레이트에 대하여 상기 제2 레이트를 증가시키도록 제2 시스템 파라미터를 조정하는 단계; 및
    상기 제2 레이트가 상기 제1 레이트에 대하여 증가되지 않아야 한다는 결정에 따라, 상기 제2 시스템 파라미터를 조정하는 것을 포기하는 단계를 더 포함하는,
    방법.
  18. 시스템에 있어서,
    제1 빈도로 눈 데이터를 검출하도록 구성된 제1 센서;
    상기 제1 빈도보다 더 높은 제2 빈도로 눈 데이터를 검출하도록 구성된 제2 센서;
    상기 제1 센서 및 상기 제2 센서에 작동 가능하게 결합된 하나 이상의 프로세서들을 포함하고,
    상기 하나 이상의 프로세서들은:
    눈의 제1 포지션을 나타내는 제1 데이터를 수신하는 단계 ― 상기 제1 데이터는 제1 센서로부터 제1 레이트로 수신됨 ―;
    상기 눈의 제2 포지션을 나타내는 제2 데이터를 수신하는 단계 ― 상기 제2 데이터는 상기 제1 센서와 다른 제2 센서로부터 제2 레이트로 수신됨 ―;
    광학 센서 파라미터에 기초하여 상기 제1 레이트가 상기 제2 레이트에 대하여 증가되어야 하는지 여부를 결정하는 단계;
    상기 제1 레이트가 상기 제2 레이트에 대하여 증가되어야 한다는 결정에 따라, 상기 제2 레이트에 대하여 상기 제1 레이트를 증가시키도록 시스템 파라미터를 조정하는 단계; 및
    상기 제1 레이트가 상기 제2 레이트에 대하여 증가되지 않아야 한다는 결정에 따라, 상기 시스템 파라미터를 조정하는 것을 포기하는 단계를 포함하는 방법을 수행하도록 구성된,
    시스템.
  19. 하나 이상의 프로세서들에 의해 실행될 때, 상기 하나 이상의 프로세서들로 하여금 방법을 수행하게 하는 명령어들을 저장한 비일시적 컴퓨터 판독가능 매체에 있어서,
    상기 방법은:
    눈의 제1 포지션을 나타내는 제1 데이터를 수신하는 단계 ― 상기 제1 데이터는 제1 센서로부터 제1 레이트로 수신됨 ―;
    상기 눈의 제2 포지션을 나타내는 제2 데이터를 수신하는 단계 ― 상기 제2 데이터는 상기 제1 센서와 다른 제2 센서로부터 제2 레이트로 수신되고, 상기 제1 센서는 제1 빈도로 눈 데이터를 검출하도록 구성되고, 상기 제2 센서는 상기 제1 빈도보다 높은 제2 빈도로 눈 데이터를 검출하도록 구성됨 ―;
    광학 센서 파라미터에 기초하여 상기 제1 레이트가 상기 제2 레이트에 대하여 증가되어야 하는지 여부를 결정하는 단계;
    상기 제1 레이트가 상기 제2 레이트에 대하여 증가되어야 한다는 결정에 따라, 상기 제2 레이트에 대하여 상기 제1 레이트를 증가시키도록 시스템 파라미터를 조정하는 단계; 및
    상기 제1 레이트가 상기 제2 레이트에 대하여 증가되지 않아야 한다는 결정에 따라, 상기 시스템 파라미터를 조정하는 것을 포기하는 단계를 포함하는,
    비일시적 컴퓨터 판독가능 매체.

KR1020247001766A 2017-04-14 2018-04-13 다중 모드 눈 추적 KR20240014589A (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201762485820P 2017-04-14 2017-04-14
US62/485,820 2017-04-14
KR1020197033452A KR102627452B1 (ko) 2017-04-14 2018-04-13 다중 모드 눈 추적
PCT/US2018/027679 WO2018191731A1 (en) 2017-04-14 2018-04-13 Multimodal eye tracking

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020197033452A Division KR102627452B1 (ko) 2017-04-14 2018-04-13 다중 모드 눈 추적

Publications (1)

Publication Number Publication Date
KR20240014589A true KR20240014589A (ko) 2024-02-01

Family

ID=63789985

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020197033452A KR102627452B1 (ko) 2017-04-14 2018-04-13 다중 모드 눈 추적
KR1020247001766A KR20240014589A (ko) 2017-04-14 2018-04-13 다중 모드 눈 추적

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020197033452A KR102627452B1 (ko) 2017-04-14 2018-04-13 다중 모드 눈 추적

Country Status (9)

Country Link
US (4) US11016561B2 (ko)
EP (1) EP3610359B1 (ko)
JP (3) JP7211966B2 (ko)
KR (2) KR102627452B1 (ko)
CN (2) CN110520824B (ko)
AU (1) AU2018252665A1 (ko)
CA (1) CA3058669A1 (ko)
IL (1) IL269861B2 (ko)
WO (1) WO2018191731A1 (ko)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL269861B2 (en) 2017-04-14 2023-11-01 Magic Leap Inc Multimodal eye tracking
US10409071B2 (en) 2017-09-27 2019-09-10 University Of Miami Visual enhancement for dynamic vision defects
US10531795B1 (en) 2017-09-27 2020-01-14 University Of Miami Vision defect determination via a dynamic eye-characteristic-based fixation point
US10389989B2 (en) 2017-09-27 2019-08-20 University Of Miami Vision defect determination and enhancement using a prediction model
US10742944B1 (en) 2017-09-27 2020-08-11 University Of Miami Vision defect determination for facilitating modifications for vision defects related to double vision or dynamic aberrations
BR112020006142A2 (pt) 2017-09-27 2020-11-24 University Of Miami óculos corretivos terapêuticos digitais
WO2020028193A1 (en) * 2018-07-30 2020-02-06 Hi Llc Non-invasive systems and methods for detecting mental impairment
US11786694B2 (en) 2019-05-24 2023-10-17 NeuroLight, Inc. Device, method, and app for facilitating sleep
DE102019207803A1 (de) * 2019-05-28 2020-12-03 Friedrich-Alexander-Universität Erlangen-Nürnberg Registrierungseinrichtung, Verfahren zum Registrieren, entsprechendes Computerprogramm und computerlesbares Speichermedium
CN110441912B (zh) * 2019-08-27 2024-04-19 高维度(深圳)生物信息智能应用有限公司 一种便携眼镜智能穿戴设备及其控制方法
US11119580B2 (en) * 2019-10-08 2021-09-14 Nextsense, Inc. Head and eye-based gesture recognition
US11860501B2 (en) * 2019-11-29 2024-01-02 Boe Technology Group Co., Ltd. Optical switch and control method thereof, and display apparatus
US11768594B2 (en) 2019-11-29 2023-09-26 Electric Puppets Incorporated System and method for virtual reality based human biological metrics collection and stimulus presentation
US10860098B1 (en) 2019-12-30 2020-12-08 Hulu, LLC Gesture-based eye tracking
CN112168636B (zh) * 2020-09-24 2023-02-03 华人运通(上海)云计算科技有限公司 车内视力改善装置、设备及系统
KR102434188B1 (ko) * 2020-10-19 2022-08-19 부산대학교 산학협력단 머신러닝을 이용한 손상된 망막에서 측정된 망막전위도검사(erg) 신호의 분류 방법 및 이를 이용한 손상된 망막에서 측정된 망막전위도검사(erg) 신호의 분류 시스템
US11659266B2 (en) * 2020-10-21 2023-05-23 Qualcomm Incorporated Power control based at least in part on user eye movement
US11803237B2 (en) 2020-11-14 2023-10-31 Facense Ltd. Controlling an eye tracking camera according to eye movement velocity
CN113283354B (zh) * 2021-05-31 2023-08-18 中国航天科工集团第二研究院 一种分析眼动信号行为的方法、系统及存储介质
WO2023278716A1 (en) * 2021-07-01 2023-01-05 Massachusetts Institute Of Technology System and method for calibrating electrooculography signals based on head movement
US20230065296A1 (en) * 2021-08-30 2023-03-02 Facebook Technologies, Llc Eye-tracking using embedded electrodes in a wearable device
US11914093B2 (en) * 2021-12-07 2024-02-27 Microsoft Technology Licensing, Llc RF antenna scanning for human movement classification
US11806078B1 (en) 2022-05-01 2023-11-07 Globe Biomedical, Inc. Tear meniscus detection and evaluation system
US11994675B2 (en) * 2022-05-16 2024-05-28 Google Llc Head-mounted device for tracking screen time
US20230418372A1 (en) * 2022-06-28 2023-12-28 Apple Inc. Gaze behavior detection

Family Cites Families (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4852988A (en) 1988-09-12 1989-08-01 Applied Science Laboratories Visor and camera providing a parallax-free field-of-view image for a head-mounted eye movement measurement system
US6847336B1 (en) 1996-10-02 2005-01-25 Jerome H. Lemelson Selectively controllable heads-up display system
US6433760B1 (en) 1999-01-14 2002-08-13 University Of Central Florida Head mounted display with eyetracking capability
US6491391B1 (en) 1999-07-02 2002-12-10 E-Vision Llc System, apparatus, and method for reducing birefringence
CA2316473A1 (en) 1999-07-28 2001-01-28 Steve Mann Covert headworn information display or data display or viewfinder
CA2362895A1 (en) 2001-06-26 2002-12-26 Steve Mann Smart sunglasses or computer information display built into eyewear having ordinary appearance, possibly with sight license
DE10132872B4 (de) 2001-07-06 2018-10-11 Volkswagen Ag Kopfmontiertes optisches Durchsichtssystem
US20030030597A1 (en) 2001-08-13 2003-02-13 Geist Richard Edwin Virtual display apparatus for mobile activities
CA2388766A1 (en) 2002-06-17 2003-12-17 Steve Mann Eyeglass frames based computer display or eyeglasses with operationally, actually, or computationally, transparent frames
US6943754B2 (en) 2002-09-27 2005-09-13 The Boeing Company Gaze tracking system, eye-tracking assembly and an associated method of calibration
US7347551B2 (en) 2003-02-13 2008-03-25 Fergason Patent Properties, Llc Optical system for monitoring eye movement
US7500747B2 (en) 2003-10-09 2009-03-10 Ipventure, Inc. Eyeglasses with electrical components
EP1755441B1 (en) 2004-04-01 2015-11-04 Eyefluence, Inc. Biosensors, communicators, and controllers monitoring eye movement and methods for using them
WO2006119584A1 (en) * 2005-05-13 2006-11-16 Customvis Plc Fast response eye tracking
US11428937B2 (en) 2005-10-07 2022-08-30 Percept Technologies Enhanced optical and perceptual digital eyewear
US9658473B2 (en) 2005-10-07 2017-05-23 Percept Technologies Inc Enhanced optical and perceptual digital eyewear
US20070081123A1 (en) 2005-10-07 2007-04-12 Lewis Scott W Digital eyewear
US8696113B2 (en) 2005-10-07 2014-04-15 Percept Technologies Inc. Enhanced optical and perceptual digital eyewear
US9344612B2 (en) * 2006-02-15 2016-05-17 Kenneth Ira Ritchey Non-interference field-of-view support apparatus for a panoramic facial sensor
JP2008003816A (ja) * 2006-06-21 2008-01-10 Matsushita Electric Ind Co Ltd 操作誘導装置及び操作誘導方法
CN101943982B (zh) * 2009-07-10 2012-12-12 北京大学 基于被跟踪的眼睛运动的图像操作
US20110213664A1 (en) 2010-02-28 2011-09-01 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
US8890946B2 (en) 2010-03-01 2014-11-18 Eyefluence, Inc. Systems and methods for spatially controlled scene illumination
US8531355B2 (en) 2010-07-23 2013-09-10 Gregory A. Maltz Unitized, vision-controlled, wireless eyeglass transceiver
JP5570386B2 (ja) * 2010-10-18 2014-08-13 パナソニック株式会社 注意状態判別システム、方法、コンピュータプログラムおよび注意状態判別装置
US9292973B2 (en) 2010-11-08 2016-03-22 Microsoft Technology Licensing, Llc Automatic variable virtual focus for augmented reality displays
EP2469654B1 (en) * 2010-12-21 2014-08-27 Siemens Aktiengesellschaft Horn antenna for a radar device
EP2499961B1 (en) * 2011-03-18 2016-09-21 SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH Spectacle device with an adjustable field of view and method
US8929589B2 (en) 2011-11-07 2015-01-06 Eyefluence, Inc. Systems and methods for high-resolution gaze tracking
US8611015B2 (en) 2011-11-22 2013-12-17 Google Inc. User interface
US8235529B1 (en) 2011-11-30 2012-08-07 Google Inc. Unlocking a screen using eye tracking information
US8638498B2 (en) 2012-01-04 2014-01-28 David D. Bohn Eyebox adjustment for interpupillary distance
US10013053B2 (en) 2012-01-04 2018-07-03 Tobii Ab System for gaze interaction
US8878749B1 (en) * 2012-01-06 2014-11-04 Google Inc. Systems and methods for position estimation
US9274338B2 (en) 2012-03-21 2016-03-01 Microsoft Technology Licensing, Llc Increasing field of view of reflective waveguide
US8989535B2 (en) 2012-06-04 2015-03-24 Microsoft Technology Licensing, Llc Multiple waveguide imaging structure
JP5947170B2 (ja) 2012-09-14 2016-07-06 京セラ株式会社 表示装置ならびに視線入力制御プログラムおよび方法
US20150309568A1 (en) * 2012-11-27 2015-10-29 Kyocera Corporation Electronic apparatus and eye-gaze input method
US10025379B2 (en) 2012-12-06 2018-07-17 Google Llc Eye tracking wearable devices and methods for use
CA2896985A1 (en) 2013-01-03 2014-07-10 Meta Company Extramissive spatial imaging digital eye glass for virtual or augmediated vision
US20140195918A1 (en) 2013-01-07 2014-07-10 Steven Friedlander Eye tracking user interface
US10216266B2 (en) * 2013-03-14 2019-02-26 Qualcomm Incorporated Systems and methods for device interaction based on a detected gaze
US20190265802A1 (en) * 2013-06-20 2019-08-29 Uday Parshionikar Gesture based user interfaces, apparatuses and control systems
US9955895B2 (en) * 2013-11-05 2018-05-01 The Research Foundation For The State University Of New York Wearable head-mounted, glass-style computing devices with EOG acquisition and analysis for human-computer interfaces
CN107087431B (zh) * 2014-05-09 2021-02-05 谷歌有限责任公司 用于辨别眼睛信号和连续生物识别的系统和方法
KR102244222B1 (ko) * 2014-09-02 2021-04-26 삼성전자주식회사 가상 현실 서비스를 제공하기 위한 방법 및 이를 위한 장치들
CN105574471B (zh) * 2014-10-10 2019-02-05 中国移动通信集团公司 用户行为数据的上传方法、用户行为的识别方法及装置
JP2017227941A (ja) 2014-11-05 2017-12-28 株式会社ジンズ プログラム、情報処理装置、及びアイウエア
NZ773831A (en) 2015-03-16 2022-07-01 Magic Leap Inc Methods and systems for diagnosing and treating health ailments
US9910275B2 (en) * 2015-05-18 2018-03-06 Samsung Electronics Co., Ltd. Image processing for head mounted display devices
US10043281B2 (en) * 2015-06-14 2018-08-07 Sony Interactive Entertainment Inc. Apparatus and method for estimating eye gaze location
JP7021110B2 (ja) * 2016-05-09 2022-02-16 マジック リープ, インコーポレイテッド ユーザ健康分析のための拡張現実システムおよび方法
KR102516112B1 (ko) * 2016-06-03 2023-03-29 매직 립, 인코포레이티드 증강 현실 아이덴티티 검증
JP6913164B2 (ja) * 2016-11-11 2021-08-04 マジック リープ, インコーポレイテッドMagic Leap,Inc. 完全な顔画像の眼球周囲およびオーディオ合成
IL269861B2 (en) 2017-04-14 2023-11-01 Magic Leap Inc Multimodal eye tracking
EP3407164A1 (en) * 2017-05-23 2018-11-28 Stichting IMEC Nederland A method and a system for monitoring an eye position
EP3417775B1 (en) * 2017-06-22 2020-08-19 Oticon A/s A system for capturing electrooculography signals
WO2019071166A1 (en) * 2017-10-05 2019-04-11 VRHealth Ltd MULTIDISCIPLINARY CLINICAL EVALUATION IN VIRTUAL OR INCREASED REALITY
US20190320891A1 (en) * 2018-04-19 2019-10-24 Stichting Imec Nederland System, Device and Method for Eye Activity Monitoring
US11176757B2 (en) * 2019-10-02 2021-11-16 Magic Leap, Inc. Mission driven virtual character for user interaction

Also Published As

Publication number Publication date
EP3610359A1 (en) 2020-02-19
EP3610359B1 (en) 2023-09-20
EP3610359A4 (en) 2020-04-22
IL269861B2 (en) 2023-11-01
US11016561B2 (en) 2021-05-25
US11561615B2 (en) 2023-01-24
JP2020517012A (ja) 2020-06-11
JP7291841B2 (ja) 2023-06-15
US20220382371A1 (en) 2022-12-01
IL269861A (ko) 2019-11-28
US11294462B2 (en) 2022-04-05
US20210333872A1 (en) 2021-10-28
AU2018252665A1 (en) 2019-10-17
US20220179488A1 (en) 2022-06-09
JP2022132349A (ja) 2022-09-08
KR102627452B1 (ko) 2024-01-18
CN110520824A (zh) 2019-11-29
IL269861B1 (en) 2023-07-01
WO2018191731A1 (en) 2018-10-18
JP2023014151A (ja) 2023-01-26
CN117389420A (zh) 2024-01-12
US11449140B2 (en) 2022-09-20
CA3058669A1 (en) 2018-10-18
JP7211966B2 (ja) 2023-01-24
CN110520824B (zh) 2023-11-24
JP7455905B2 (ja) 2024-03-26
US20180299953A1 (en) 2018-10-18
KR20190138852A (ko) 2019-12-16

Similar Documents

Publication Publication Date Title
KR102627452B1 (ko) 다중 모드 눈 추적
EP3158424B1 (en) System and method for display enhancement
Majaranta et al. Eye tracking and eye-based human–computer interaction
US11803237B2 (en) Controlling an eye tracking camera according to eye movement velocity
KR101638095B1 (ko) 시선 인식 및 생체 신호를 이용한 헤드 마운트 디스플레이를 통해 사용자 인터페이스를 제공하는 방법, 이를 이용한 장치 및 컴퓨터 판독 가능한 기록 매체
US20220293241A1 (en) Systems and methods for signaling cognitive-state transitions
CN115844427A (zh) 眼睛检测方法和设备
US20230418372A1 (en) Gaze behavior detection
Kharadea et al. EyePhone Technology: A Smart Wearable Device
WO2022192759A1 (en) Systems and methods for signaling cognitive-state transitions
CN116964545A (zh) 用于信号传递认知状态转换的系统和方法

Legal Events

Date Code Title Description
A107 Divisional application of patent
A302 Request for accelerated examination