KR20170054499A - 눈 불편감 감소 디스플레이 - Google Patents

눈 불편감 감소 디스플레이 Download PDF

Info

Publication number
KR20170054499A
KR20170054499A KR1020177010069A KR20177010069A KR20170054499A KR 20170054499 A KR20170054499 A KR 20170054499A KR 1020177010069 A KR1020177010069 A KR 1020177010069A KR 20177010069 A KR20177010069 A KR 20177010069A KR 20170054499 A KR20170054499 A KR 20170054499A
Authority
KR
South Korea
Prior art keywords
eye
display system
display
viewer
sensor
Prior art date
Application number
KR1020177010069A
Other languages
English (en)
Other versions
KR102439387B1 (ko
Inventor
스캇 풀람
Original Assignee
마이크로소프트 테크놀로지 라이센싱, 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 filed Critical 마이크로소프트 테크놀로지 라이센싱, 엘엘씨
Publication of KR20170054499A publication Critical patent/KR20170054499A/ko
Application granted granted Critical
Publication of KR102439387B1 publication Critical patent/KR102439387B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/144Processing image signals for flicker reduction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits
    • H04N13/0022
    • H04N13/0033
    • H04N13/044
    • H04N13/0484
    • H04N13/0497
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0118Head-up displays characterised by optical features comprising devices for improving the contrast of the display / brillance control visibility
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0149Head-up displays characterised by mechanical features
    • G02B2027/0167Emergency system, e.g. to prevent injuries
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0626Adjustment of display parameters for control of overall brightness
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0666Adjustment of display parameters for control of colour parameters, e.g. colour temperature
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • G09G2340/0435Change or adaptation of the frame rate of the video stream
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Eye Examination Apparatus (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Pharmaceuticals Containing Other Organic And Inorganic Compounds (AREA)
  • Medicines That Contain Protein Lipid Enzymes And Other Medicines (AREA)
  • Medicines Containing Material From Animals Or Micro-Organisms (AREA)

Abstract

디스플레이 시스템은 보는이의 시야 내에 배열되는 디스플레이, 보는이의 안구 상태를 감지하도록 구성되는 감지 서브시스템, 및 컨트롤러를 포함한다. 디스플레이에 또한 감지 서브시스템에 함께 동작하도록 커플링되어, 컨트롤러는 보는이가 겪는 눈 불편감을 방지하거나 또는 완화시키기 위해, 안구 상태에 응답하여 디스플레이 시스템의 동작 파라미터를 조정하도록 구성된다.

Description

눈 불편감 감소 디스플레이{DISPLAY WITH EYE-DISCOMFORT REDUCTION}
본 발명은 눈 불편감 감소 디스플레이에 관한 것이다.
현대의 디스플레이 시스템들은 보는이(viewer)를 그럴듯한(convincing) 가상 현실에 몰두하게 한다. 그러나, 임의의 디스플레이 시스템의 장기적인 사용은 눈 불편감(eye discomfort)을 유발할 수 있다. 눈 불편감은 단순히 장기간 동안 디스플레이 이미지(예를 들어, 3D 스테레오 이미지)를 보는 것으로부터 발생할 수 있다. 몇몇 디스플레이 시스템들에서, 보는이의 신원(identity), 자세, 또는 시선(gaze) 방향을 판단(assess)하기 위해 사용되는 프로브 광(probe light)에 의해 추가적인 눈 불편감이 유발될 수 있다.
일 실시예는 보는이의 시야(sight) 내에 배열되는 디스플레이, 보는이의 안구 상태(ocular condition)를 감지하도록 구성되는 감지 서브시스템(sensory subsystem), 및 컨트롤러를 포함하는 디스플레이 시스템을 제공한다. 디스플레이에 또한 감지 서브시스템에 함께 동작하도록(operatively) 커플링되어, 컨트롤러는 보는이가 겪고 있을 수 있는 눈 불편감을 완화시키기 위해, 감지된 안구 상태에 응답하여 디스플레이 시스템의 동작 파라미터를 조정하도록 구성된다.
본 요약은 아래의 상세한 설명에서 추가로 설명되는 개념들의 선택을 단순한 형태로 소개하기 위해 제공된 것이다. 본 요약은 청구된 발명내용의 중요한 피처들 또는 필수적인 피처들을 식별시키려는 의도는 없으며, 또한 청구된 발명내용의 범위를 제한시키려는 의도도 없다. 뿐만 아니라, 청구된 발명내용은 본 개시의 임의의 부분에서 언급된 임의의 단점을 해결하는 구현예들에 제한되지 않는다.
도 1은 예시적인 머리 장착형(head-mounted) 디스플레이 시스템의 양태들을 도시한다.
도 2는 머리 장착형 디스플레이 시스템의 예시적인 디스플레이 패널의 양태들을 도시한다.
도 3 및 도 4는 다른 예시적인 디스플레이 시스템들의 양태들을 도시한다.
도 5는 예시적인 디스플레이 시스템의 추가적인 양태들을 도시한다.
도 6은 디스플레이 시스템의 보는이에 대한 눈 불편감을 완화시키거나 또는 방지하기 위한 예시적인 방법을 예시한다.
이제 본 개시의 양태들이 예시에 의해 또한 위에 나열된 예시적 실시예들을 참조하여 설명될 것이다. 하나 이상의 실시예에서 실질적으로 동일할 수 있는 컴포넌트들, 프로세스 단계들, 및 다른 엘리먼트들은 대등하게 식별되며 반복을 최소화하여 설명된다. 그러나, 대등하게 식별되는 엘리먼트들이 또한 어느 정도 상이할 수 있다는 점이 언급될 것이다.
본 개시 내에 포함되는 도면들이 개략적인 것이며 일반적으로 축척대로 도시되지 않은 점이 또한 언급될 것이다. 이보다는, 도면들 내에 도시된 다양한 도면 축척들, 애스팩트 비율들, 및 컴포넌트들의 개수들은, 어떤 피처들 또는 관계들을 보다 쉽게 보게 하기 위해 의도적으로 왜곡될 수 있다.
도 1은 착용자(14A)에 의해 착용되고 사용될 예시적인 머리 장착형 디스플레이 시스템(12A)의 양태들을 도시한다. 예시된 디스플레이 시스템은, 착용자의 눈들에 가까이 위치되는 입체적, 시스루 디스플레이 컴포넌트를 포함한다. 따라서, 디스플레이 시스템(12A)은 실세계 이미지가 가상 디스플레이 이미지와 혼합되는 증강 현실 애플리케이션들에서 사용될 수 있다.
도 1의 디스플레이 시스템(12A)은 분리된 우측 및 좌측 디스플레이 패널들(16R 및 16L), 및 전자적으로 모듈레이팅된 디밍(dimming) 스크린(18)을 포함한다. 몇몇 실시예들에서, 우측 및 좌측 디스플레이 패널들은 착용자가 그들 주위를 명확하게 볼 수 있도록 착용자의 관점으로부터 전체적으로 또는 부분적으로 투명하다. 컨트롤러(20)는 디스플레이 패널들에, 디밍 스크린에, 그리고 다른 디스플레이 시스템 컴포넌트에 함께 동작하도록 커플링된다. 컨트롤러는 본원에서 설명되는 제어 프로세스들을 실행하도록 구성되는 로직 및 연관된 컴퓨터 메모리를 포함한다.
도 2는 하나의 비제한적인 실시예에서의 우측 또는 좌측 디스플레이 패널(16)(16R, 16L)의 양태들을 도시한다. 디스플레이 패널은 백라이트(backlight, 22) 및 액정 디스플레이(liquid-crystal display; LCD) 매트릭스(24)를 포함한다. 백라이트는 발광 다이오드(light-emitting diode; LED)들의 앙상블(ensemble) - 예를 들어, 화이트 LED들 또는 레드, 그린, 및 블루 LED들의 분배 - 을 포함할 수 있다. 백라이트는, 컨트롤러(20A)로부터의 제어 신호들에 기반하여 디스플레이 이미지를 형성하는 LCD 매트릭스를 통해 그 방출(emission)을 지향하도록 위치될 수 있다. LCD 매트릭스는 직사각형 그리드 또는 다른 기하학적 구조 상에 배열되는 다수의 개별적으로 어드레싱가능한 픽셀들을 포함할 수 있다. 몇몇 실시예들에서, 레드 광을 투과시키는 픽셀들은, LCD 매트릭스가 컬러 이미지를 형성하도록 그린 및 블루 광을 투과시키는 픽셀들과 매트릭스 내에서 병치(juxtapose)될 수 있다. 다른 실시예들에서, 반사형(reflective) LCOS(liquid-crystal-on-silicon) 매트릭스 또는 디지털 마이크로미러 어레이가 도 2의 LCD 매트릭스 대신 사용될 수 있다. 대안적으로, 우측 및 좌측 디스플레이 이미지들을 형성하기 위해 액티브 LED 매트릭스 또는 적절한 주사 빔(scanned-beam) 기술이 사용될 수 있다. 분리된 우측 및 좌측 디스플레이 패널들을 도면들이 도시하지만, 양쪽 눈들에 걸쳐 연장되는 단일 디스플레이 패널이 대신 사용될 수 있다.
디밍 스크린(18)은 디스플레이 패널(16)을 통해 보여지는 실제 이미지의 밝기를, 필요될 때 감소시키도록 구성되어, 가상 디스플레이 이미지가 적절한 상대적 밝기로 제공될 수 있다. 디밍 스크린은 또한, (가시적인 또한 그 밖의) 주변 광(ambient light)에 대한 착용자의 노출을 감소시킨다. 이를 위해, 디밍 스크린은, 예를 들어 게스트 호스트 전자광학(guest-host electrooptical) 기술을 포함할 수 있다. 예시된 실시예에서, 디밍 스크린은 우측 및 좌측 디스플레이 패널들에 걸쳐 배열되는 바이저(visor)의 형태를 취한다. 따라서, 디밍 스크린은 착용자의 전체 시야를 제어가능하게(controllably) 디밍하도록 구성될 수 있다.
머리 장착형 디스플레이 시스템(12A)은 또한 컨트롤러(20A)에 함께 동작하도록 커플링되는 감지 서브시스템(26A)을 포함한다. 예시된 실시예에서, 감지 서브시스템은 눈 이미징(eye-imaging) 카메라(28), 축상(on-axis) 조명원(illumination source, 30) 및 축외(off-axis) 조명원(30’)을 포함한다. 각각의 조명원은 눈 이미징 카메라의 고감도(high-sensitivity) 파장 대역 내의 적외선(infrared; IR) 또는 근적외선(near-infrared; NIR) 조명을 방출한다. 각각의 조명원은 발광 다이오드(LED), 다이오드 레이저, 방전 조명원 등을 포함할 수 있다. 용어들 ‘축상’ 및 ‘축외’는 눈 이미지 카메라의 광학 축(A)에 대한 조명의 방향을 지칭한다.
임의의 적절한 대물 렌즈 시스템을 통해, 눈 이미징 카메라(28)는 필드 각도(field angle)들의 범위에 걸쳐 광을 검출하고 수집하며, 그러한 각도들을 직사각형 픽셀 어레이의 대응하는 픽셀들에 맵핑한다. 일 실시예에서, 눈 이미징 카메라는 어레이의 픽셀들의 서브세트와 연관된 복수의 파장 채널들 - 예를 들어, 레드, 그린, 블루 등 - 내의 광을 검출할 수 있다. 대안적으로, 가시 광, 근적외선(NIR) 광, 적외선(IR) 광, 및/또는 자외선(ultraviolet; UV) 광을 그레이스케일로 이미징하는 단색(monochromatic) 눈 이미징 카메라가 사용될 수 있다. 눈 이미징 카메라에 노출되는 모든 픽셀들에 대한 컬러 또는 밝기 값들은 총체적으로 디지털 이미지를 구성한다. 컨트롤러(20A)는 착용자(14A)의 시선 방향(V)을 추적하기 위해 눈 이미징 카메라로부터의 출력을 사용하도록 구성될 수 있다.
축상 및 축외 조명은 시선 추적에 대해 상이한 목적들을 제공한다. 도 2에 도시된 바와 같이, 축외 조명은 착용자의 눈의 각막(34)으로부터 반사되는 정반사성 글린트(specular glint, 32)를 생성할 수 있다. 축외 조명은 또한, 동공(pupil, 36)이 주위 홍채(iris, 38)보다 어둡게 나타나는 ‘다크 동공’ 효과를 위해 눈을 조명하도록 사용될 수 있다. 대조적으로, IR 또는 NIR 소스로부터의 축상 조명은 동공이 주변 홍채보다 밝게 나타나는 ‘브라이트 동공’ 효과를 생성하도록 사용될 수 있다. 보다 구체적으로, 축상 조명원(30)으로부터의 IR 또는 NIR 조명은, 광을 동공을 통해 다시 반사하는 눈의 망막(40)의 역반사성 조직(retroreflective tissue)을 조명하여 동공의 밝은 이미지(42)를 형성한다. 디스플레이 패널(16)의 빔 전환(beam-turning) 광학장치(optic)들(44)은, 눈 이미징 카메라 및 축상 조명원이 디스플레이 패널의 주변부 상의 그들의 배열에도 불구하고 공동 광학 축(A)을 공유하는 것을 가능하게 한다. 몇몇 실시예들에서, 눈 이미지 카메라는 강한 주변 광이 존재할 때 브라이트 동공 대조(contrast)를 향상시키기 위해, 조명원들의 방출 대역 밖에 있는 파장의 투과를 차단하는 파장 필터를 포함할 수 있다.
눈 이미징 카메라(28)로부터의 디지털 이미지 데이터는, 컨트롤러(20A) 내의 또는 네트워크를 통해 컨트롤러에 액세스가능한 원격 컴퓨터 시스템 내의 연관된 로직에 전달될 수 있다. 그 곳에서, 이미지 데이터는 동공 중심, 동공 윤곽(outline), 및/또는 각막으로부터의 하나 이상의 정반사성 글린트와 같은 피처들을 분석하도록 프로세싱될 수 있다. 이미지 데이터 내의 그러한 피처들의 위치들은, 피처 위치를 시선 벡터(V)에 연관시키는 모델 - 예를 들어, 다항(polynomial) 모델 - 에서의 입력 파라미터들로서 사용될 수 있다. 시선 벡터가 우측 눈 및 좌측 눈에 대해 결정되는 실시예들에서, 컨트롤러는 또한 우측 시선 벡터 및 좌측 시선 벡터의 교차점으로서의 착용자의 초점(focal point)을 연산하도록 구성될 수 있다. 몇몇 실시예들에서, 눈 이미징 카메라는 착용자(14A)의 신원을 결정하기 위해 홍채 또는 각막 스캔 기능을 실행하는데 사용될 수 있다.
머리 장착형 디스플레이 시스템(12A)의 장기적인 사용은 착용자가 눈 불편감 또는 피로감을 겪게 할 수 있다. 몇몇 눈 불편감은 단순히 장기간 동안 디스플레이 패널들(16)로부터의 디스플레이 이미지를 보는 것으로부터 기인할 수 있다. 이 유형의 불편감은 사실상 근육성(muscular) - 누군가의 눈을 뜬채로 유지하는 것, 반복적인 동공 팽창(dilation) 및 수축(contraction), 및/또는 눈의 궤도 내에서의 눈의 회전의 결과 - 일 수 있다. 착용자는 또한 스테레오 디스플레이를 볼 때 특정한 눈 불편감 - 즉, 가상 디스플레이 이미지 상에 초점을 맞추기 위한 빈번한 적응(accommodation) 변경, 머리 장착형 디스플레이 시스템의 부정확한 위치로 인한 충족되지 못한 적응으로부터 기인하는 피로감 - 을 겪을 수 있다.
추가적인 눈 불편감은 디스플레이 시스템(12A)의 감지 서브시스템 컴포넌트들에 의해 유발될 수 있다. 위에서 언급된 바와 같이, 조명원들(30 및 30’)은 이미징 목적들을 위해 눈을 조명하도록 IR 또는 NIR 프로브 광을 방출할 수 있다. 그러한 파장들의 광은 눈을 뜨겁게 하여, 표면 액체의 증발을 유발하고 건조감을 느끼게 한다. 또한, 몇몇 개인들은 NIR에서 비정상적 감도를 가질 수 있어서, NIR 프로브 광으로의 장기적인 노출로 인해 눈 불편감을 겪는다.
이전의 도면들 및 설명은 하나의 예시적인 디스플레이 시스템(12A) 및 연관된 눈 불편감 문제들을 알아 보았다. 다른, 상당히 상이한 디스플레이 시스템들이 또한 본 개시의 사상 및 범위 내에 있다. 도 3은 헤드 장착형도 아니고 장착가능하지도 않는 디스플레이 시스템들(12B 및 12C)를 도시한다. 디스플레이 시스템(12B)은 데스크탑 컴퓨터 시스템이다. 근안 디스플레이 패널들(16R 및 16L) 대신에, 디스플레이 시스템(12B)은 보는이(14B)의 시야 내에 배열되는 컴퓨터 모니터(16B)를 포함한다. 디스플레이 시스템(12C)은 터치 스크린 디스플레이(16C)를 갖는 스마트 폰 또는 태블릿이다. 도 3의 실시예들에서, 눈 이미징 카메라를 포함하는 감지 서브시스템(26BC)은 각각의 디스플레이의 베젤 아래에 배열된다. 도 3에 도시된 디스플레이들은 반드시 입체적이지는 않지만; 그럼에도 불구하고, 디스플레이의 장기적인 보기 및/또는 감지 서브시스템으로부터의 프로브 광으로의 노출은 보는이로 하여금 눈 불편감을 겪게 할 수 있다.
도 4는 홈 엔터테인먼트 시스템(12D)의 형태에 있는, 디스플레이 시스템의 또 다른 실시예를 도시한다. 이 시스템은 또한 게임 시스템, 멀티미디어 시스템, 또는 생산 시스템으로서 기능할 수 있다. 이는 대형 디스플레이(16D) 및 디스플레이 주변에 있는 감지 서브시스템(26D)을 포함한다. 이 실시예에서, 컨트롤러(20D)는 디스플레이 및 감지 서브시스템에 함께 동작하도록 커플링되는 PC 또는 게임 시스템의 형태를 취할 수 있다. 도 4의 실시예에서, 감지 서브시스템은 제스처 검출을 위한 평면 이미지(flat-image) 카메라(28) 및 깊이 카메라(46)를 갖는 비전 시스템의 형태를 취할 수 있다. IR 또는 NIR 조명원(30D)은 눈 추적 및/또는 깊이 이미징을 위한 보는이(14D)의 조명을 제공한다. 몇몇 실시예들에서, 감지 서브시스템(26D)은 본원에서 위에 설명된 바와 같이, 전용(dedicated) 축상 조명원 및 축외 조명원을 포함할 수 있다.
깊이 카메라(46)는 보는이(14D) 및 보는이의 환경의 양태들의 깊이 맵들의 시간 분해된(time-resolved) 시퀀스를 획득하도록 구성될 수 있다. 본원에서 사용되는 바와 같이, 용어 "깊이 맵"은 이미징된 장면의 대응하는 영역들(Xi, Yi)에 등록된(registered) 픽셀들의 어레이를 지칭하며, 각각의 픽셀에 대한 깊이 값(Zi)은 대응하는 영역의 깊이를 나타낸다. '깊이'는 깊이 카메라의 광학 축과 평행한 좌표로서 정의될 수 있으며, 이는 깊이 카메라로부터의 거리를 증가시킬수록 증가된다.
일반적으로, 깊이 카메라(46)의 속성(nature)은 본 개시의 다양한 실시예들에서 상이할 수 있다. 일 실시예에서, 깊이 카메라에서의 2개의 입체 배향 이미징 어레이들로부터의 밝기 또는 컬러 데이터는 공동 등록되고(co-registered) 깊이 맵을 구성하는데 사용될 수 있다. 다른 실시예들에서, 조명원(30)은 다수의 개별적인 피처들, 예를 들어 라인들 또는 도트들을 포함하는 구조화된 적외선(IR) 조명 패턴을 피사체(subject) 상에 투사하도록 구성될 수 있다. 깊이 카메라 내의 이미징 어레이는 피사체로부터 되반사된 구조화된 조명을 이미징하도록 구성될 수 있다. 이미징된 피사체의 다양한 영역들 내의 인접한 피처들 사이의 간격들에 기초하여, 피사체의 깊이 맵이 구성될 수 있다. 또 다른 실시예들에서, 깊이 카메라는 펄스화된 적외선 조명을 피사체를 향해 투사할 수 있다. 깊이 카메라 내의 한 쌍의 이미징 어레이들은 피사체로부터 되반사된 펄스화된 조명을 검출하도록 구성될 수 있다. 두 어레이들은 펄스화된 조명에 동기화되는 전자 셔터를 포함할 수 있지만, 어레이들에 대한 적산(integration) 시간은 상이할 수 있어서, 조명원으로부터 피사체로 이어서 어레이들로의 펄스화된 조명의 픽셀 분해된(pixel-resolved) TOF(time-of-flight)는 2개의 어레이들의 대응하는 엘리먼트들 내에 수신되는 광의 상대적인 양에 기반하여 식별가능하다.
컨트롤러(20D) - 본원에서 설명되는 실로 임의의 컨트롤러들 - 는 소프트웨어 및/또는 펌웨어 내에 구현되는 다양한 기능적 프로세싱 엔진들을 포함할 수 있다. 이 양태는 도 5에 추가로 예시된다. 컨트롤러(20D) 내의 제스처 인식 엔진(48)은 깊이 카메라(46)로부터의 깊이 데이터를 프로세싱하고, 깊이 데이터 내의 하나 이상의 사람 피사체를 식별하고, 식별된 피사체들의 다양한 골격(skeletal) 피처들을 연산하고, 컨트롤러 상에서 실행되는 OS(50)에 또는 애플리케이션(52)에 공급되는 다양한 자세 또는 제스처 정보를 골격 피처들로부터 수집하도록 구성될 수 있다.
도 4에 예시된 시나리오에서, 예를 들어 보는이(14D)는 시선 방향 또는 손 제스처에 기반하여, 디스플레이(16D) 상에 제공되는 UI를 내비게이팅하고 있다. 일 예시에서, 컨트롤러(20D) 내의 시선 추적 엔진(54)은 평면 이미지 카메라(28D)로부터의 이미지 데이터에 기반하여, 사용자가 바라보고 있는 지점에 대응하는 디스플레이 스크린 좌표들(X, Y)을 연산한다. 디스플레이 스크린 상에서 보는이의 시선을 다른 지점들로 시프팅함으로써, 보는이는 디스플레이 상에 제공되는 다양한 UI 엘리먼트들(56) 사이를 내비게이팅할 수 있다. 대안적으로, 또는 추가적으로, 제스처 인식 엔진(48)은 보는이의 몸에 고정된 좌표 시스템에 관한 보는이의 손의 위치에 기반하여 UI 좌표들을 연산하도록 구성될 수 있다. 이러한 그리고 다른 실시예들에서, 컨트롤러의 얼굴 인식 엔진(58)은 현재 보는이의 얼굴 피처들을 분석하기 위해, 감지 서브시스템의 하나 이상의 카메라로부터의 이미지 데이터를 프로세싱하도록 구성될 수 있다. 얼굴 피처들의 분석은 현재 보는이가 식별, 예를 들어 컨트롤러 내에 또는 네트워크 컴퓨터 시스템 내에 저장되는 프로파일에 매칭되도록 할 수 있다.
몇몇, 개별적인 디스플레이 시스템 실시예들이 본원에서 설명되었지만, 이 개시는 또한 다양한 실시예들로부터의 피처들의 임의의 적절한 서브조합을 포괄한다. 태블릿 또는 스마트폰은, 예를 들어 깊이 이미징 및 제스처 검출을 위해 구비되는 감지 서브시스템을 포함할 수 있다. 홈 엔터테인먼트 시스템은 대형 입체 디스플레이를 포함할 수 있다. 다양한 다른 서브조합들이 또한 구상된다.
위에서 언급된 눈 불편감 문제들을 처리하기 위해, 컨트롤러(20)(20A, 20B 등)는 디스플레이 시스템의 보는이의 안구 상태, 즉 현재의 또는 임박한(impending) 눈 불편감을 나타내는 상태에 응답하여 디스플레이 시스템(12)(12A, 12B 등)의 하나 이상의 동작 파라미터를 조정하도록 구성된다. 동작 파라미터들은 보는이의 불편감을 방지하거나 또는 완화시켜 보는이를 편안한 상태로 되돌리기 위해 조정된다.
이를 위해, 그리고 다시 도 5로 돌아가면, 감지 서브시스템(26)(26A, 26B 등)은 보는이(14)의 안구 상태를 감지하도록 구성되는 안구 센서(60)를 포함할 수 있다. 몇몇 실시예드에서, 안구 센서는 눈 스트레스에 반응할 수 있다. 안구 센서는, 예를 들어 보는이의 눈의 IR 또는 NIR로 인한 눈 뜨거워짐 및/또는 액체 증발을 감지하는 비접촉 눈온도 센서일 수 있다. 다른 예시들에서, 안구 센서는 보는이의 눈을 이미징하도록 구성되는 이미징 센서일 수 있다. 이 종류의 안구 센서는 눈 충혈(redness), 팽창된 모세혈관들, 또는 눈꺼풀의 부분적 감김을 감지하도록 구성될 수 있다. 이들 그리고 다른 실시예들에서, 이미징 안구 센서는 동공 팽창을 감지하도록 구성될 수 있다. 이미징 안구 센서는 디지털 카메라, 예를 들어 웹 카메라, IR 지원(IR-enabled) 웹 카메라, 또는 이미징된 눈의 표면 온도에 반응하는 장파장(long-wavelength) IR 센서가 구비되는 웹 카메라의 형태를 취할 수 있다. 보다 특정한 예시들에서, 이미징 안구 센서는 보는이의 눈에서 눈 자극성(eye-irritating) 대기 미립자(atmospheric particulate)들을 분해할 수 있다. 몇몇 실시예들에서, 안구 센서(60)는 다양한 종류의 눈 움직임(movement) - 보는이의 시선 방향에서의 변화들에 대응하는 눈의 자신의 궤도에서의 비교적 느린 회전, 눈의 보다 빠른 단속성(saccadic) 회전, 경련(twitch)과 연관된 매우 빠른 눈 움직임 - 을 감지하도록 구성될 수 있다.
몇몇 시나리오들에서, 안구 센서(60)로부터의 출력은 보는이가 눈 불편감을 겪고 있다는 것, 또는 눈 불편감이 짧은 기간 내에 발생할 가능성이 있다는 것을 나타낼 수 있다. 예를 들어, 눈 불편감은 눈의 표면에서의 증가된 온도에 의해, 증가된 충혈 또는 팽창된 모세혈관들에 의해, 눈꺼풀의 증가된 감김에 의해, 또는 보는이의 눈 내의 미립자들의 존재에 의해 나타내어질 수 있다. 이들과 같은 지표(Indicator)들은 눈 스트레스를 직접적으로 보고한다. 그러나, 눈 스트레스의 덜 직접적인 지표들이 또한 사용될 수 있다. 예를 들어, 눈 불편감은 동공 크기에서의 변화의 빈도(빈도가 증가함에 따라 불편감 증가), 및 보는이의 초점(focal point)이 시프팅되는 빈도에 기반하여 나타내어질 수 있다. 불편감은 상이한 깊이들에 위치된 초점 평면들로의 초점의 빈번한 시프팅뿐만 아니라, 주어진 초점 평면 내에서의 수평 및 수직 시프팅에 의해 이어질 수 있다.
위에서 언급된 바와 같이, 감지된 안구 상태가 현재의 또는 임박한 눈 불편감을 나타내면, 컨트롤러(20)는 불편감을 완화시키거나 또는 방지하기 위해 디스플레이 시스템(12)의 하나 이상의 동작 파라미터를 사전에 조정할 수 있다. 조정을 위해 선택되는 동작 파라미터는, 본 개시의 상이한 실시예들에서, 그리고 동일한 실시예의 상이한 동작 시나리오들에서 상이할 수 있다.
몇몇 구현예들에서, 조정 대상인 동작 파라미터는 디스플레이(16)(16A, 16B 등)의 파라미터일 수 있다. 예를 들어, 디스플레이 이미지 밝기는, 눈 불편감이 감지되거나 예측될 때 조정(즉, 감소)될 수 있다. 사람 눈이 임의의 다른 컬러보다 그린 광에 보다 민감하기 때문에, RGB 디스플레이의 레드 및 특히 블루 채널에서의 세기(intensity)는, 그린 채널에서의 세기를 보존하면서, 감소될 수 있다. 이 접근법은, 전체 세기에서의 추가적인 감소가 디스플레이 이미지 가시성(visibility)을 손상시킬 수 있는 경우들에서 눈 불편감을 완화시키기 위해 사용될 수 있다.
불편감을 완화시키기 위해 조정될 수 있는 디스플레이(16)의 다른 동작 파라미터는 디스플레이 이미지 색조(hue)일 수 있다. 보다 냉한(Cooler) 컬러들은 보다 온화한(warmer) 컬러들보다 사람 망막 상에 보다 덜 뚜렷하게(sharply) 이미징되는 경향이 있어서, 보다 빈번한 적응 시도들을 유발하고 눈 피로를 증가시킨다. 따라서, 디스플레이 이미지 색조는 눈 불편감이 감지되거나 예측될 때 온화해 질 수 있다[즉, 적화(reddened)될 수 있다]. 디스플레이 이미지 프레임율은 또한 눈 불편감을 완화시키기 위해 조정될 수 있다. 특히, 보다 낮은 프레임율들은 눈 불편감이 검출되었을 때 초점의 덜 빈번한 시프팅을 트리거하기 위해 사용될 수 있다. 디스플레이(16)에 디밍 스크린(18)이 구비되면, 디밍 스크린의 불투명도(opacity)는 주변 광 및/또는 실제 이미지에 의해 유발되는 눈 불편감을 감소시키기 위해 증가될 수 있다. 입체 디스플레이 시스템들에서, 디스플레이 이미지 깊이가 또한 조정될 수 있다. 특히, 우측 이미지 프레임과 좌측 이미지 프레임 사이의 수평 차이가 감소될 수 있으므로, 눈 불편감이 감지되었을 때 디스플레이 이미지를 평평하게 한다. 이 액션은 안구 피질(cortex)이 우측 이미지와 좌측 이미지를 ‘융합(fuse)’할 필요성을 없애주고, 이는 눈 불편감을 완화시키거나 또는 방지할 수 있다.
다른 구현예들에서, 조정 대상인 동작 파라미터는 감지 서브시스템(26)의 파라미터일 수 있다. 예를 들어, 눈 불편감을 완화시키기 위해, 필요에 따라, 보는이를 향해 지향되는 IR 조명원의 조명 세기가 감소될 수 있다. 발광 다이오드 기반 조명원들에서, 변조(즉, 듀티 사이클)는 세기를 대신하여 또는 세기에 추가하여 조정될 수 있다.
위에서 설명된 실시예들은 디스플레이 시스템(12)의 동작 파라미터를 조정할지의 여부를 결정하기 위해 보는이(14)의 안구 상태의 직접적인 판단을 강조했다. 다른 실시예들은 적어도 하나의 생리적인 스트레스의 표시(indication)와 함께 안구 상태를 판단한다. 따라서, 감지 서브시스템(26)은 안구 센서(60)에 추가하여, 보는이 상의 생리학적 스트레스를 감지하도록 구성되는 적어도 하나의 스트레스 센서(62)를 포함할 수 있다. 스트레스는 직접적으로 또는 간접적으로 감지될 수 있다. 본원에서 고려되는 스트레스 센서들은, 비제한적인 예시들로서 심장 박동(heart-rate) 센서(64), 호흡 센서, 혈압 센서, 심장 파형 센서, 혈당 센서, 혈액 산소 센서, 주변 이산화탄소 센서, 피부 저항 측정에 기반한 땀 센서, 및/또는 피부 온도 센서를 포함할 수 있다. 컨트롤러(20)는 스트레스 센서에 의해 보고되는 생리적인 스트레스와 결합되는, 안구 센서에 의해 보고되는 안구 상태에 기반하여 실제 또는 예측되는 눈 불편감을 추정하도록 구성될 수 있다. 몇몇 실시예들에서, 추정을 제공하기 위해 퍼지 로직(fuzzy-logic) 접근법이 사용될 수 있다.
일 예시에서, 동시적인 눈 움직임 또는 동공 크기에서의 변화에 따른 일시적인 증가된 심장 박동은 보는이가 눈 불편감을 겪고 있음을 나타낼 수 있다. 위의 예시에서의 증가된 심장 박동에 대한 적절한 대체증상(surrogate)들은 증가된 호흡, 증가된 혈압, 비정상적인 심장 파형들, 일시적으로 높거나 낮은 혈당, 일시적으로 낮은 혈액 산소, 증가된 주변 이산화탄소 레벨들, 또는 증가된 피부 온도 또는 땀을 포함할 수 있다.
이전의 설명은 다양한 변형예들 및 확장예들이 또한 고려되기 때문에 제한적인 의미로 이해되어서는 안된다. 예를 들어, 컨트롤러(20)는 위에서 설명된 바와 같이 디스플레이 시스템(12)의 동작 파라미터를 조정하도록, 그러나 디스플레이 시스템에서의 성능 제약을 고려하여 구성될 수 있다. 디스플레이(16)가 텍스트를 디스플레이하도록 사용될 때, 예를 들어 디스플레이 이미지 밝기에서의 상당한 감소 또는 색조의 조정은 눈 불편감을 겪는 보는이에 의해 허용가능(tolerable)할 - 또는 심지어 환영받을 - 수 있다. 마찬가지로, 시선 벡터들이 사용자 인터페이스를 내비게이팅하기 위해서만 사용되면, 불편한 보는이는 덜 정확한 시선 추적을 기꺼이 용인할 수 있다. 그러한 상태 하에서, 동작 파라미터의 과감한 조정 - 디스플레이 이미지 밝기 또는 프로브 조명의 감소 - 이 적절할 수 있다. 반면에, 가상 환경 내에서의 정확한 시선 추적 및 세부사항들을 해결하는 능력에 생존이 달린 그래픽 집약적(graphics-intensive) 게이밍에 사용자가 몰두하고 있으면, 이때 디스플레이 시스템 성능에서의 임의의 감소는 편안함을 위해서 일지라도 환영받지 못할 수 있다. 다른 예시에서, 디스플레이 이미지 밝기는 보다 밝은 주변 상태 하에서보다, 눈 불편감에 응답하여, 보다 어두운 주변 상태 하에서 더 감소될 수 있다. 다른 예시에서, 보다 어두운 주변 상태 하에서의 눈 불편감은 디스플레이 이미지 밝기의 감소를 트리거할 수 있는 반면, 보다 밝은 주변 상태 하에서의 동일한 불편감은 디스플레이 이미지 밝기에서의 감소가 적은 디밍 스크린(18)의 활성화를 트리거할 수 있다.
본원에서 도면들이 완전히 일체화된 감지 서스시스템(26)을 도시하지만, 이 양태는 필수적인 것은 아니다. 몇몇 실시예들에서, 감지 서브시스템은 하나 이상의 원격 센서, 즉 디스플레이에 물리적으로 커플링되지 않는 센서들을 포함할 수 있다. 그러한 센서들은, 예를 들어 무선 네트워크를 통해 컨트롤러(20)에 통신가능하게 커플링되는 지능형 손목 밴드 또는 핸드헬드 디바이스에 통합될 수 있다.
위에서 설명된 구성들은, 다양한 방법들이 디스플레이 시스템의 보는이가 겪을 수 있는 눈 불편감을 방지하거나 또는 완화시키는 것을 가능하게 한다. 위에서 설명된 예시적인 구성들을 계속 참조하여 이제 하나의 그러한 방법이 설명된다. 그러나, 본원에서 설명되는 방법들 및 본 개시의 범위 내의 다른 방법들이 상이한 구성들에 의해서도 사용가능할 수 있다는 점이 이해될 것이다.
도 6은 디스플레이 시스템의 보는이가 겪을 수 있는 눈 불편감을 방지하거나 또는 완화시키기 위한 예시적인 방법(66)을 예시한다. 방법(66)의 단계(68)에서, 디스플레이 시스템의 연관된 디스플레이 컴포넌트 내에 디스플레이 이미지가 형성된다. 단계(70)에서, 디스플레이 시스템의 감지 서브시스템을 통해 보는이의 시선 방향이 추적된다. 단계(72)에서, 추적되는 시선 방향에 기반하여 디스플레이 시스템 내에 사용자 입력이 제공된다.
단계(74)에서, 감지 서브시스템을 통해 보는이의 안구 상태가 감지된다. 선택적인 단계(76)에서, 보는이 스트레스의 적어도 하나의 추가적인 지표가 감지된다. 단계(78)에서, 보는이가 눈 불편감을 겪고 있는지, 또는 눈 불편감이 발생할 가능성이 있는지를 감지된 안구 상태가 나타내는지의 여부가 결정된다. 보다 특정한 예시에서, 단계(78)에서의 결정은 단계(76)로부터의 보는이 스트레스의 적어도 하나의 추가적인 지표에 추가로 기반할 수 있다. 보는이가 눈 불편감을 겪고 있다고(또는 겪을 가능성이 있다고) 결정되면, 이어서 단계(80)에서 눈 불편감을 방지하거나 또는 완화시키기 위해 디스플레이 시스템의 동작 파라미터가 조정된다.
이전의 설명으로부터 명백한 바와 같이, 본원에서 설명된 방법들 및 프로세스들은 하나 이상의 컴퓨팅 머신의 컴퓨팅 시스템에 결부될 수 있다. 그러한 방법들 및 프로세스들은 컴퓨터 애플리케이션 프로그램 또는 서비스, 애플리케이션 프로그래밍 인터페이스(application-programming interface; API), 라이브러리, 및/또는 다른 컴퓨터 프로그램 제품으로서 구현될 수 있다. 도 5는 본원에 설명된 방법들 및 프로세스들을 지원하는, 컨트롤러(20)의 형태에 있는 컴퓨터 시스템의 비제한적인 예시를 도시한다. 컴퓨터 시스템은 로직 머신(82) 및 연관된 컴퓨터 메모리(84)를 포함한다.
로직 머신(82)은 명령어들을 실행하도록 구성되는 하나 이상의 물리적 로직 디바이스를 포함한다. 로직 머신은 하나 이상의 애플리케이션, 서비스, 프로그램, 루틴, 라이브러리, 객체, 컴포넌트, 데이터 구조, 또는 다른 로직 구성물의 일부인 명령어들을 실행하도록 구성될 수 있다. 그러한 명령어들은 태스크를 수행하거나, 데이터 유형을 구현하거나, 하나 이상의 컴포넌트의 상태를 변환시키거나, 기술적 효과를 달성하거나, 또는 이와 다르게 희망하는 결과에 도달하도록 구현될 수 있다.
로직 머신(82)은 소프트웨어 명령어들을 실행하도록 구성되는 하나 이상의 프로세서를 포함할 수 있다. 추가적으로 또는 대안적으로, 로직 머신은 하드웨어 또는 펌웨어 명령어들을 실행하도록 구성되는 하나 이상의 하드웨어 또는 펌웨어 로직 머신을 포함할 수 있다. 로직 머신의 프로세서들은 단일 코어 또는 멀티 코어일 수 있고, 이들 상에서 실행되는 명령어들은 순차적, 병렬, 및/또는 분배형 프로세싱을 위해 구성될 수 있다. 선택적으로, 로직 머신의 개별적인 컴포넌트들은 통합 프로세싱을 위해 원격에 위치되고/되거나 구성될 수 있는 두 개 이상의 별개의 디바이스들간에 분배될 수 있다. 로직 머신의 양태들은 클라우드 컴퓨팅 구성 내에 구성된, 원격으로 액세스가능한 네트워크화된 컴퓨팅 디바이스들에 의해 가상화되고 실행될 수 있다.
컴퓨터 메모리(84)는 본원에서 설명된 방법들 및 프로세스들을 구현하기 위해 연관된 로직 머신(82)에 의해 실행가능한 명령어들을 홀딩하도록 구성되는 하나 이상의 물리적 컴퓨터 메모리 디바이스를 포함한다. 그러한 방법들 및 프로세스들이 구현될 때, 컴퓨터 메모리의 상태는 예를 들어, 상이한 데이터를 홀딩하도록 변환될 수 있다. 컴퓨터 메모리는 탈착가능 및/또는 빌트인 디바이스들을 포함할 수 있고, 컴퓨터 메모리는 다른 것들 중에서도, 광학 메모리(예를 들어, CD, DVD, HD-DVD, 블루레이 디스크 등), 반도체 메모리(예를 들어, RAM, EPROM, EEPROM 등), 및/또는 자기 메모리(예를 들어, 하드 디스크 드라이브, 플로피 디스크 드라이브, 테이프 드라이브, MRAM 등)을 포함할 수 있다. 컴퓨터 메모리는 휘발성, 비휘발성, 동적, 정적, 판독/기록, 판독 전용, 랜덤 액세스, 순차적 액세스, 위치 어드레스가능, 파일 어드레스가능, 및/또는 콘텐츠 어드레스가능 디바이스들을 포함할 수 있다.
컴퓨터 메모리(84)가 하나 이상의 물리적 디바이스를 포함한다는 점이 이해될 것이다. 그러나, 본원에서 설명된 명령어들의 양태들은 대안적으로, 한정된 지속기간(duration) 동안 물리적 디바이스에 의해 홀딩되지 않는 통신 매체(예를 들어, 전자기 신호, 광학 신호 등)에 의해 전파될 수 있다.
로직 머신(82)과 컴퓨터 메모리(84)의 양태들은 하나 이상의 하드웨어 로직 컴포넌트 내에 함께 통합될 수 있다. 그러한 하드웨어 로직 컴포넌트들은 예를 들어, FPGA(field-programmable gate array), PASIC/ASIC(program application specific integrated circuit and application specific integrated circuit), PSSP/ASSP(program specific standard product and application specific standard product), SOC(system-on-a-chip), 및 CPLD(complex programmable logic device)를 포함할 수 있다.
용어 ‘엔진’은 특정 기능을 수행하도록 구현되는 컴퓨터 시스템의 양태들을 설명하기 위해 사용될 수 있다. 몇몇 경우들에서, 엔진은 컴퓨터 메모리 내에 홀딩되는 명령어들을 실행시키는 로직 머신을 통해 구현될 수 있다. 상이한 엔진들이 동일한 애플리케이션, 서비스, 코드 블록, 객체, 라이브러리, 루틴, API, 함수 등으로 구현될 수 있다는 점이 이해될 것이다. 마찬가지로, 동일한 엔진은 상이한 애플리케이션들, 서비스들, 코드 블록들, 객체들, 루틴들, API들, 함수들 등에 의해 구현될 수 있다. 용어 ‘엔진’은 개별적인 실행가능한 파일들, 데이터 파일들, 라이브러리들, 드라이버들, 스크립트들, 데이터베이스 레코드들 등 또는 이들의 그룹들을 망라할 수 있다.
통신 시스템(124)은 컴퓨터 시스템을 하나 이상의 다른 머신과 통신가능하게 커플링하도록 구성될 수 있다. 통신 시스템은 하나 이상의 상이한 통신 프로토콜과 호환가능한 유선 및/또는 무선 통신 디바이스들을 포함할 수 있다. 비제한적인 예시들로서, 통신 시스템은 무선 전화기 네트워크, 또는 유선 또는 무선 근거리 네트워크 또는 광대역 네트워크를 통한 통신을 위해 구성될 수 있다. 몇몇 실시예들에서, 통신 시스템은 컴퓨팅 머신이 인터넷과 같은 네트워크를 통해 다른 디바이스들로 및/또는 다른 디바이스들로부터 메시지들을 송신하고/하거나 수신하도록 할 수 있다.
본원에서 설명된 구성들 및/또는 접근법들이 사실상 예시적인 것이며, 이들 특정 실시예들 또는 예시들이 다양한 변형들이 가능하기 때문에 제한적인 의미로 간주되어서는 안된다는 점이 이해될 것이다. 본원에서 설명된 특정 루틴들 또는 방법들은 임의의 수의 프로세싱 전략들 중 하나 이상의 전략을 나타낼 수 있다. 그와 같이, 예시되고/되거나 설명된 다양한 액트들은 예시되고/되거나 설명된 시퀀스로, 다른 시퀀스들로, 병렬로 수행될 수 있거나, 또는 생략될 수 있다. 마찬가지로, 위에서 설명된 프로세스들의 순서는 변경될 수 있다.
본 개시의 발명내용은 본원에 개시된 다양한 프로세스들, 시스템들 및 구성들과, 다른 피처들, 기능들, 동작들, 및/또는 특성들의 모든 신규하고 비자명한 조합들 및 서브조합들뿐만이 아니라, 이들의 임의의 또한 모든 등가물들을 포함한다.

Claims (14)

  1. 디스플레이 시스템으로서,
    보는이(viewer)의 시야(sight) 내에 배열되는 디스플레이;
    상기 보는이의 안구 상태(ocular condition)를 감지하도록 구성되는 감지 서브시스템(sensory subsystem); 및
    상기 디스플레이 및 상기 감지 서브시스템에 함께 동작하도록(operatively) 커플링되는 컨트롤러 - 상기 컨트롤러는 상기 보는이의 시선(gaze) 방향을 추적하기 위해 상기 감지 서브시스템으로부터의 출력을 적용하고, 상기 보는이가 겪는 눈 불편감(eye discomfort)을 완화시키기 위해 상기 안구 상태에 응답하여 상기 디스플레이 시스템의 동작 파라미터를 조정하도록 구성됨 - 를 포함하는 디스플레이 시스템.
  2. 제 1 항에 있어서, 상기 동작 파라미터는 상기 디스플레이의 파라미터인 것인 디스플레이 시스템.
  3. 제 2 항에 있어서, 상기 동작 파라미터는 디스플레이 이미지 밝기를 포함하는 것인 디스플레이 시스템.
  4. 제 2 항에 있어서, 상기 동작 파라미터는 디스플레이 이미지 깊이를 포함하는 것인 디스플레이 시스템.
  5. 제 1 항에 있어서, 상기 동작 파라미터는 상기 감지 서브시스템의 파라미터인 것인 디스플레이 시스템.
  6. 제 5 항에 있어서, 상기 동작 파라미터는 상기 보는이를 향해 지향되는 적외선 조명원(infrared illumination source)의 조명 세기(intensity)를 포함하는 것인 디스플레이 시스템.
  7. 제 1 항에 있어서, 상기 감지 서브시스템은 눈 움직임(movement)을 감지하도록 구성되는 센서를 포함하는 것인 디스플레이 시스템.
  8. 제 1 항에 있어서, 상기 감지 서브시스템은 동공 팽창(pupil dilation)을 감지하도록 구성되는 센서를 포함하는 것인 디스플레이 시스템.
  9. 제 1 항에 있어서, 상기 감지 서브시스템은 상기 보는이 상의 생리적인 스트레스를 감지하도록 구성되는 센서를 포함하는 것인 디스플레이 시스템.
  10. 제 1 항에 있어서, 상기 센서는 눈 스트레스에 응답하는 것인 디스플레이 시스템.
  11. 제 10 항에 있어서, 상기 센서는 비접촉 눈 온도 센서인 것인 디스플레이 시스템.
  12. 제 10 항에 있어서, 상기 센서는 상기 보는이의 눈을 이미징하도록 구성되는 이미징 센서인 것인 디스플레이 시스템.
  13. 제 1 항에 있어서, 상기 감지 서브시스템은 하나 이상의 원격 센서를 포함하는 것인 디스플레이 시스템.
  14. 제 1 항에 있어서, 상기 컨트롤러는 상기 디스플레이 시스템 내의 성능 제약을 고려하여 상기 동작 파라미터를 조정하도록 구성되는 것인 디스플레이 시스템.
KR1020177010069A 2014-09-16 2015-09-15 눈 불편감 감소 디스플레이 KR102439387B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/487,622 2014-09-16
US14/487,622 US9699436B2 (en) 2014-09-16 2014-09-16 Display with eye-discomfort reduction
PCT/US2015/050068 WO2016044195A1 (en) 2014-09-16 2015-09-15 Display with eye-discomfort reduction

Publications (2)

Publication Number Publication Date
KR20170054499A true KR20170054499A (ko) 2017-05-17
KR102439387B1 KR102439387B1 (ko) 2022-09-01

Family

ID=54325044

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020177010069A KR102439387B1 (ko) 2014-09-16 2015-09-15 눈 불편감 감소 디스플레이

Country Status (11)

Country Link
US (2) US9699436B2 (ko)
EP (1) EP3195091B1 (ko)
JP (1) JP6861628B2 (ko)
KR (1) KR102439387B1 (ko)
CN (1) CN106714663B (ko)
AU (1) AU2015318074B2 (ko)
BR (1) BR112017003692A2 (ko)
CA (1) CA2961206C (ko)
MX (1) MX2017003560A (ko)
RU (1) RU2709389C2 (ko)
WO (1) WO2016044195A1 (ko)

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9821159B2 (en) 2010-11-16 2017-11-21 The Board Of Trustees Of The Leland Stanford Junior University Stimulation devices and methods
NZ704579A (en) 2013-04-19 2018-10-26 Oculeve Inc Nasal stimulation devices and methods
EP3689338A1 (en) 2014-02-25 2020-08-05 Oculeve, Inc. Polymer formulations for nasolacrimal stimulation
AU2015292278B2 (en) 2014-07-25 2020-04-09 Oculeve, Inc. Stimulation patterns for treating dry eye
US9699436B2 (en) * 2014-09-16 2017-07-04 Microsoft Technology Licensing, Llc Display with eye-discomfort reduction
WO2016065211A1 (en) 2014-10-22 2016-04-28 Oculeve, Inc. Contact lens for increasing tear production
WO2016065215A1 (en) 2014-10-22 2016-04-28 Oculeve, Inc. Stimulation devices and methods for treating dry eye
DE102014223366A1 (de) * 2014-11-17 2016-05-19 BSH Hausgeräte GmbH Hausgerät mit einer berührungsempfindlichen Bedieneinrichtung sowie Verfahren zu seinem Betrieb
US10139903B2 (en) * 2015-09-25 2018-11-27 International Business Machines Corporation Adjustment of reticle display based on biometric information
US10252048B2 (en) 2016-02-19 2019-04-09 Oculeve, Inc. Nasal stimulation for rhinitis, nasal congestion, and ocular allergies
TWI729983B (zh) * 2016-04-05 2021-06-11 鴻海精密工業股份有限公司 電子裝置、螢幕調節系統及方法
CN107273071A (zh) * 2016-04-06 2017-10-20 富泰华工业(深圳)有限公司 电子装置、屏幕调节系统及方法
US10918864B2 (en) 2016-05-02 2021-02-16 Oculeve, Inc. Intranasal stimulation for treatment of meibomian gland disease and blepharitis
CN106339084A (zh) * 2016-08-21 2017-01-18 乐视控股(北京)有限公司 虚拟现实设备的控制方法及系统
SE541262C2 (en) 2016-11-15 2019-05-21 Heads Stockholm Ab Method and device for eye metric acquisition
RU2019118600A (ru) 2016-12-02 2021-01-11 Окулив, Инк. Аппарат и способ составления прогноза синдрома сухого глаза и рекомендаций по лечению
KR102682123B1 (ko) * 2017-01-11 2024-07-08 삼성전자주식회사 투시형 디스플레이 장치 및 그 동작 방법
CN106901692A (zh) * 2017-01-11 2017-06-30 广东小天才科技有限公司 虚拟现实设备
CN106873159A (zh) 2017-02-27 2017-06-20 阿里巴巴集团控股有限公司 虚拟现实头戴设备
CN106961593A (zh) * 2017-03-20 2017-07-18 河南师范大学 一种立体感觉可调的舒适型vr眼镜
US10810773B2 (en) * 2017-06-14 2020-10-20 Dell Products, L.P. Headset display control based upon a user's pupil state
US10463250B1 (en) 2017-06-28 2019-11-05 Bertec Corporation System and method for vision testing
US10722114B1 (en) 2017-06-28 2020-07-28 Bertec Corporation System and method for vision testing and/or training
US10945599B1 (en) 2017-06-28 2021-03-16 Bertec Corporation System and method for vision testing and/or training
US11337606B1 (en) 2017-06-28 2022-05-24 Bertec Corporation System for testing and/or training the vision of a user
US10264964B1 (en) * 2017-06-28 2019-04-23 Bertec Corporation Eye movement measurement device
US11033453B1 (en) 2017-06-28 2021-06-15 Bertec Corporation Neurocognitive training system for improving visual motor responses
US11712162B1 (en) 2017-06-28 2023-08-01 Bertec Corporation System for testing and/or training the vision of a user
CN107491166B (zh) * 2017-07-07 2021-03-09 深圳市冠旭电子股份有限公司 一种调节虚拟现实设备参数的方法及虚拟现实设备
US11211030B2 (en) 2017-08-29 2021-12-28 Apple Inc. Electronic device with adaptive display
KR101955293B1 (ko) * 2017-12-15 2019-03-08 가톨릭대학교 산학협력단 시각 피로도 분석 장치 및 그 방법
US11029834B2 (en) * 2017-12-20 2021-06-08 International Business Machines Corporation Utilizing biometric feedback to allow users to scroll content into a viewable display area
US10859830B2 (en) * 2018-01-31 2020-12-08 Sony Interactive Entertainment LLC Image adjustment for an eye tracking system
JP2019152980A (ja) * 2018-03-01 2019-09-12 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
CN108510947B (zh) * 2018-04-16 2020-04-21 京东方科技集团股份有限公司 双屏调光方法及显示装置
US11366321B1 (en) 2019-04-23 2022-06-21 Apple Inc. Predictive dimming of optical passthrough displays
JP7467094B2 (ja) * 2019-12-09 2024-04-15 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
US11568832B2 (en) 2020-08-23 2023-01-31 Ipexcel Services Pvt. Ltd. System and method for ocular assistance
WO2023205096A1 (en) * 2022-04-19 2023-10-26 Apple Inc. Head-mountable device for eye monitoring
CN117710276A (zh) * 2022-08-30 2024-03-15 富泰华工业(深圳)有限公司 眼疲劳监测方法、装置、计算机设备及存储介质
US20240286026A1 (en) * 2023-02-28 2024-08-29 Sony Interactive Entertainment Inc. Using eye-tracking / eye metrics to detect vr eye-strain-levels, then using adaptive rendering to lower levels of eye-strain

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007265274A (ja) * 2006-03-29 2007-10-11 Sendai Foundation For Applied Information Sciences 生理適応型表示装置
JP2013077013A (ja) * 2012-11-20 2013-04-25 Sony Corp 表示装置、表示方法
US20140163329A1 (en) * 2012-12-11 2014-06-12 Elwha Llc Unobtrusive Active Eye Interrogation with Gaze Attractor

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0918894A (ja) * 1995-06-26 1997-01-17 Sanyo Electric Co Ltd 立体映像表示装置
JP3428920B2 (ja) * 1999-03-25 2003-07-22 キヤノン株式会社 視点位置検出装置、方法及び立体画像表示システム
US6690351B1 (en) 2000-04-06 2004-02-10 Xybernaut Corporation Computer display optimizer
KR20030031480A (ko) * 2000-04-28 2003-04-21 프지오메드, 인코포레이티드 폴리산 및 폴리알킬렌 옥사이드의 지혈 조성물 및 이들의이용 방법
US6671130B2 (en) * 2000-07-11 2003-12-30 Seagate Technology Llc Apparatus for supporting a recording/reading head and assembling a flex circuit in a disc drive
JP3647376B2 (ja) * 2001-01-31 2005-05-11 キヤノン株式会社 視点位置検出装置、視点位置検出方法及び立体画像表示システム
US7091928B2 (en) * 2001-03-02 2006-08-15 Rajasingham Arjuna Indraeswara Intelligent eye
US8094927B2 (en) 2004-02-27 2012-01-10 Eastman Kodak Company Stereoscopic display system with flexible rendering of disparity map according to the stereoscopic fusing capability of the observer
DE202004018136U1 (de) * 2004-07-14 2005-11-24 Daimlerchrysler Ag Öl-Kühlmittel-Modul
US7522344B1 (en) 2005-12-14 2009-04-21 University Of Central Florida Research Foundation, Inc. Projection-based head-mounted display with eye-tracking capabilities
DE202005021156U1 (de) * 2005-12-15 2007-04-19 Carl Zeiss Surgical Gmbh Optische Beobachtungseinrichtung zur berührungslosen Messung der Temperatur und/oder zur berührungslosen Bestimmung von Geschwindigkeitskomponenten in Fluidströmungen und/oder zur berührungslosen Messung des Innendrucks eines betrachteten Objekts
US7744216B1 (en) 2006-01-06 2010-06-29 Lockheed Martin Corporation Display system intensity adjustment based on pupil dilation
US7855743B2 (en) * 2006-09-08 2010-12-21 Sony Corporation Image capturing and displaying apparatus and image capturing and displaying method
US9891435B2 (en) * 2006-11-02 2018-02-13 Sensics, Inc. Apparatus, systems and methods for providing motion tracking using a personal viewing device
US7924272B2 (en) * 2006-11-27 2011-04-12 Microsoft Corporation Infrared sensor integrated in a touch panel
US8832557B2 (en) 2007-05-04 2014-09-09 Apple Inc. Adjusting media display in a personal display system based on perspective
JP2009134276A (ja) * 2007-11-05 2009-06-18 Panasonic Corp 表示装置、表示方法、表示プログラム、集積回路、眼鏡型ヘッドマウントディスプレイ、自動車、単眼鏡、及び据置型ディスプレイ
JP5545060B2 (ja) 2010-06-18 2014-07-09 ソニー株式会社 映像表示システム、シャッター眼鏡、並びに表示装置
JP5588260B2 (ja) * 2010-08-02 2014-09-10 ナブテスコ株式会社 航空機アクチュエータの制御装置
KR101309705B1 (ko) 2010-10-21 2013-09-17 도시바삼성스토리지테크놀러지코리아 주식회사 안경 및 이를 채용한 3d 영상표시 시스템
JP2012212990A (ja) 2011-03-30 2012-11-01 Brother Ind Ltd ヘッドマウントディスプレイ
US8953242B2 (en) * 2011-03-31 2015-02-10 Honeywell International Inc. Varible focus stereoscopic display system and method
JP5503081B2 (ja) 2011-05-19 2014-05-28 パナソニック株式会社 画像表示システムおよび3次元用メガネ
US8766819B2 (en) * 2011-06-17 2014-07-01 The Boeing Company Crew allertness monitoring of biowaves
AU2011204946C1 (en) 2011-07-22 2012-07-26 Microsoft Technology Licensing, Llc Automatic text scrolling on a head-mounted display
EP2812775A1 (en) 2012-02-06 2014-12-17 Sony Mobile Communications AB Gaze tracking with projector
JP5936379B2 (ja) * 2012-02-07 2016-06-22 シャープ株式会社 画像表示装置
US20130241805A1 (en) 2012-03-15 2013-09-19 Google Inc. Using Convergence Angle to Select Among Different UI Elements
US20130300635A1 (en) 2012-05-09 2013-11-14 Nokia Corporation Method and apparatus for providing focus correction of displayed information
US20140002344A1 (en) 2012-06-29 2014-01-02 Mukund Pai Dynamic display adjustment
JP2014029448A (ja) * 2012-07-31 2014-02-13 Toshiba Corp 液晶モジュール及び液晶表示装置
US10019057B2 (en) * 2013-06-07 2018-07-10 Sony Interactive Entertainment Inc. Switching mode of operation in a head mounted display
US10302944B2 (en) * 2013-06-28 2019-05-28 Seiko Epson Corporation Head-mount type display device and method of controlling head-mount type display device
JP6207259B2 (ja) * 2013-06-28 2017-10-04 キヤノン株式会社 画像処理方法および画像処理装置
US9357696B2 (en) * 2013-07-01 2016-06-07 Deere & Company Drive coupler for a reciprocating knife
US9699436B2 (en) * 2014-09-16 2017-07-04 Microsoft Technology Licensing, Llc Display with eye-discomfort reduction

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007265274A (ja) * 2006-03-29 2007-10-11 Sendai Foundation For Applied Information Sciences 生理適応型表示装置
JP2013077013A (ja) * 2012-11-20 2013-04-25 Sony Corp 表示装置、表示方法
US20140163329A1 (en) * 2012-12-11 2014-06-12 Elwha Llc Unobtrusive Active Eye Interrogation with Gaze Attractor

Also Published As

Publication number Publication date
JP6861628B2 (ja) 2021-04-21
AU2015318074B2 (en) 2020-06-25
BR112017003692A2 (pt) 2017-11-28
US9699436B2 (en) 2017-07-04
RU2709389C2 (ru) 2019-12-17
CN106714663B (zh) 2019-05-14
AU2015318074A1 (en) 2017-03-09
US20170289519A1 (en) 2017-10-05
RU2017108566A (ru) 2018-09-17
RU2017108566A3 (ko) 2019-03-20
CN106714663A (zh) 2017-05-24
MX2017003560A (es) 2017-07-14
KR102439387B1 (ko) 2022-09-01
WO2016044195A1 (en) 2016-03-24
JP2017534957A (ja) 2017-11-24
EP3195091B1 (en) 2018-06-20
CA2961206A1 (en) 2016-03-24
US20160080720A1 (en) 2016-03-17
CA2961206C (en) 2022-05-03
EP3195091A1 (en) 2017-07-26

Similar Documents

Publication Publication Date Title
KR102439387B1 (ko) 눈 불편감 감소 디스플레이
KR102416282B1 (ko) 이벤트 카메라 데이터를 사용한 눈 추적을 위한 방법 및 디바이스
US9924866B2 (en) Compact remote eye tracking system including depth sensing capacity
KR102366110B1 (ko) 번쩍임의 광원에의 매핑
KR102231910B1 (ko) 초점 이동에 반응하는 입체적 디스플레이
US9405365B2 (en) Systems and methods for identifying gaze tracking scene reference locations
US20170092007A1 (en) Methods and Devices for Providing Enhanced Visual Acuity
US6659611B2 (en) System and method for eye gaze tracking using corneal image mapping
US20170116476A1 (en) Systems and methods for high-resolution gaze tracking
EP3453317B1 (en) Pupil radius compensation
US20110170060A1 (en) Gaze Tracking Using Polarized Light
EP2996544A1 (en) Imaging a patient's interior
CN111670001B (zh) 用于眼睛跟踪系统的图像调整
CN113785258A (zh) 检测眼睛测量
US20160209917A1 (en) Gaze-actuated user interface with visual feedback
US11257468B2 (en) User-mountable extended reality (XR) device

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant