CN109074785A - Ar/vr显示系统中的电流消耗减少 - Google Patents
Ar/vr显示系统中的电流消耗减少 Download PDFInfo
- Publication number
- CN109074785A CN109074785A CN201780027169.8A CN201780027169A CN109074785A CN 109074785 A CN109074785 A CN 109074785A CN 201780027169 A CN201780027169 A CN 201780027169A CN 109074785 A CN109074785 A CN 109074785A
- Authority
- CN
- China
- Prior art keywords
- display
- display system
- eyes
- current drain
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 210000001508 eye Anatomy 0.000 claims abstract description 112
- 230000005611 electricity Effects 0.000 claims abstract description 20
- 238000000034 method Methods 0.000 claims description 50
- 238000012545 processing Methods 0.000 claims description 25
- 230000009467 reduction Effects 0.000 abstract description 6
- 230000004044 response Effects 0.000 abstract description 5
- 230000003287 optical effect Effects 0.000 description 34
- 238000002347 injection Methods 0.000 description 14
- 239000007924 injection Substances 0.000 description 14
- 210000001747 pupil Anatomy 0.000 description 14
- 230000003190 augmentative effect Effects 0.000 description 11
- 230000000007 visual effect Effects 0.000 description 9
- 239000000463 material Substances 0.000 description 8
- 230000000712 assembly Effects 0.000 description 7
- 238000000429 assembly Methods 0.000 description 7
- 230000004397 blinking Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 7
- 239000013307 optical fiber Substances 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 230000033001 locomotion Effects 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 230000004941 influx Effects 0.000 description 5
- 230000008447 perception Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 210000004556 brain Anatomy 0.000 description 4
- 238000013500 data storage Methods 0.000 description 4
- 230000002708 enhancing effect Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000000644 propagated effect Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 210000000613 ear canal Anatomy 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 210000000744 eyelid Anatomy 0.000 description 2
- 230000004438 eyesight Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000006303 photolysis reaction Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 239000004983 Polymer Dispersed Liquid Crystal Substances 0.000 description 1
- 206010037660 Pyrexia Diseases 0.000 description 1
- 241000256856 Vespidae Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000004448 convergence reflex Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000004134 energy conservation Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 238000009738 saturating Methods 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 125000006850 spacer group Chemical group 0.000 description 1
- 230000002269 spontaneous effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000033772 system development Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/32—Means for saving power
- G06F1/3203—Power management, i.e. event-based initiation of a power-saving mode
- G06F1/3206—Monitoring of events, devices or parameters that trigger a change in power modality
- G06F1/3231—Monitoring the presence, absence or movement of users
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/32—Means for saving power
- G06F1/3203—Power management, i.e. event-based initiation of a power-saving mode
- G06F1/3234—Power saving characterised by the action undertaken
- G06F1/325—Power saving in peripheral device
- G06F1/3265—Power saving in display device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/20—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
- G09G3/34—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
- G09G3/3406—Control of illumination source
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2330/00—Aspects of power supply; Aspects of display protection and defect management
- G09G2330/02—Details of power systems and of start or stop of display operation
- G09G2330/021—Power management, e.g. power saving
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/04—Changes in size, position or resolution of an image
- G09G2340/0407—Resolution change, inclusive of the use of different resolutions for different screen areas
- G09G2340/0435—Change or adaptation of the frame rate of the video stream
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/20—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
- G09G3/34—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
- G09G3/36—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source using liquid crystals
- G09G3/3611—Control of matrices with row and column drivers
- G09G3/3648—Control of matrices with row and column drivers using an active matrix
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Crystallography & Structural Chemistry (AREA)
- Chemical & Material Sciences (AREA)
- Control Of Indicators Other Than Cathode Ray Tubes (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Controls And Circuits For Display Device (AREA)
- Liquid Crystal Display Device Control (AREA)
- Control Of El Displays (AREA)
- Electronic Switches (AREA)
- Mechanical Optical Scanning Systems (AREA)
- Devices For Indicating Variable Information By Combining Individual Elements (AREA)
Abstract
在一些实施例中,在AR或VR显示系统上使用眼睛跟踪来确定所述显示系统的用户是否眨眼或是否无法看到。作为响应,可以减少与显示系统相关联的显示器的电流消耗或用电,例如通过调暗或关闭与所述显示器相关联的光源,或者通过将图形驱动器配置为跳过指定数量的帧或持续指定的时间段降低刷新率。
Description
相关申请的交叉引用
本申请主张2016年3月4日提交的序列号为62/304,098的美国临时专利申请的优先权益,该申请的全部内容通过引用并入此文。
技术领域
本公开涉及虚拟现实和增强现实成像和可视化系统,更具体地说,涉及虚拟现实和增强现实系统中的电力管理。
背景技术
现代计算和显示技术促进了用于所谓的“虚拟现实”或“增强现实”体验的系统开发,其中,数字再现图像或其部分以看起来是真实的或可以被感知为真实的方式呈现给用户。虚拟现实或“VR”场景通常涉及以对其它实际的真实世界视觉输入不透明的方式呈现数字或虚拟图像信息;增强现实或“AR”场景通常涉及将数字或虚拟图像信息呈现为对用户周围真实世界的可视化的增强。
发明内容
本公开的系统、方法和设备分别具有若干创新方面,这些方面中没有一个单独对本文公开的期望属性负责。下面提供了各种示例系统和方法。
实施例1:一种减少用电的显示系统,包括:
面向内的传感器;
显示器;以及
处理电子器件,其与所述面向内的传感器和所述显示器通信,所述处理电子器件被配置为:
使用所述面向内的传感器检测用户眼睛状态的变化,以及
基于检测到所述用户眼睛状态的变化的时间减少所述显示系统的电流消耗。
实施例2:根据实施例1所述的显示系统,其中,所述用户眼睛状态的变化是眨眼或扫视。
实施例3:根据实施例1至2中任一项所述的显示系统,其中,所述显示器包括光源,并且其中,减少所述显示器的电流消耗包括调暗所述显示器的所述光源。
实施例4:根据实施例1至2中任一项所述的显示系统,其中,所述显示器包括光源,并且其中,减少所述显示器的电流消耗包括关闭所述光源。
实施例5:根据实施例1至4中任一项所述的显示系统,其中,减少所述显示器的电流消耗包括配置与所述显示器相关联的图形驱动器以减少所述显示器消耗的电量。
实施例6:根据实施例5所述的显示系统,其中,所述图形驱动器被配置为跳过指定数量的帧,所述指定数量的帧基于所述眼睛眨眼或扫视的时间长度。
实施例7:根据实施例1至6中任一项所述的显示系统,其中,所述显示器包括LCD显示器。
实施例8:根据实施例1至7中任一项所述的显示系统,其中,所述显示系统包括增强现实或虚拟现实显示器。
实施例9:根据实施例1至8中任一项所述的显示系统,其中,所述面向内的传感器包括相机。
实施例10:根据实施例1至9中任一项所述的显示系统,其中,所述面向内的传感器包括眼睛跟踪相机。
实施例11:根据实施例1至11中任一项所述的显示系统,其中,所述处理电子器件被配置为通过降低与所述显示器相关联的刷新率来减少所述显示器的电流消耗。
实施例12:根据实施例1至11中任一项所述的显示系统,进一步包括图形驱动器,其中,减少所述显示系统的电流消耗包括降低所述图形驱动器的功耗。
实施例13:一种用于减少显示系统的用电的方法,包括:
使用面向内的传感器检测用户眼睛状态的变化,以及
基于检测到所述用户眼睛状态的变化的时间减少所述显示系统的电流消耗。
实施例14:根据实施例13所述的方法,其中,所述用户眼睛状态的变化是眨眼或扫视。
实施例15:根据实施例13至14中任一项所述的方法,其中,所述显示系统包括光源,并且其中,减少所述显示系统的电流消耗包括调暗所述显示系统的所述光源。
实施例16:根据实施例13至14中任一项所述的方法,其中,所述显示系统包括光源,并且其中,减少所述显示系统的电流消耗包括关闭所述显示系统的所述光源。
实施例17:根据实施例13至16中任一项所述的方法,其中,减少所述显示系统的电流消耗包括配置与所述显示系统相关联的图形驱动器以减少所述显示系统消耗的电量。
实施例18:根据实施例17所述的方法,其中,所述图形驱动器被配置为跳过指定数量的帧,所述指定数量的帧基于眨眼的时间长度或所述眼睛无法看到的时间长度。
实施例19:根据实施例17所述的方法,其中,所述图形驱动器被配置为基于眨眼的时间长度或所述眼睛无法看到的时间长度而持续指定的时间段减少所述显示系统消耗的电量。
实施例20:根据实施例13至19中任一项所述的方法,其中,所述显示系统包括LCD显示器。
实施例21:根据实施例13至20中任一项所述的方法,其中,所述显示系统包括增强现实或虚拟现实显示器。
实施例22:根据实施例13至21中任一项所述的方法,其中,所述面向内的传感器包括眼睛跟踪相机。
实施例23:根据实施例13至22中任一项所述的方法,其中,减少所述显示系统的电流消耗包括降低与所述显示器相关联的刷新率。
实施例24:根据实施例13至23中任一项所述的方法,其中,减少所述显示系统的电流消耗包括降低图形驱动器的功耗。
实施例25:一种显示系统,包括:
面向内的相机;
显示器;以及
硬件处理电子器件,其与所述面向内的相机和所述显示器通信,所述硬件处理电子器件被配置为:
使用所述相机确定所述显示器的用户何时眨眼;以及
响应于确定所述用户正在眨眼,减少所述显示系统的电流消耗。
实施例26:根据实施例25所述的显示系统,其中,所述显示器包括光源,并且其中,减少所述显示器的电流消耗包括调暗所述显示器的所述光源。
实施例27:根据实施例25至26中任一项所述的显示系统,其中,所述光源包括背光。
实施例28:根据实施例25至27中任一项所述的显示系统,其中,减少所述显示器的电流消耗包括配置与所述显示器相关联的图形驱动器以减少所述显示器消耗的电量。
实施例29:根据实施例28所述的显示系统,其中,所述图形驱动器被配置为跳过指定数量的帧,所述指定数量的帧基于眨眼的时间长度。
实施例30:根据实施例28所述的显示系统,其中,所述图形驱动器被配置为基于眨眼的时间长度而持续指定的时间段减少所述显示器消耗的电量。
实施例31:根据实施例25至30中任一项所述的显示系统,其中,所述显示器包括LCD显示器。
实施例32:根据实施例25至31中任一项所述的显示系统,其中,所述显示器包括增强现实或虚拟现实显示器。
实施例33:一种用于减少显示器中的电流消耗的方法,包括:
使用面向内的相机以确定所述显示系统的用户何时眨眼;以及
响应于确定所述用户正在眨眼,减少所述显示系统的电流消耗。
实施例34:根据实施例33所述的方法,其中,所述显示器包括光源,并且其中,减少所述显示器的电流消耗包括调暗所述显示器的所述光源。
实施例35:根据实施例34所述的方法,其中,所述光源包括背光。
实施例36:根据实施例33至35中任一项所述的方法,其中,减少所述显示器的电流消耗包括配置与所述显示器相关联的图形驱动器以减少所述显示器消耗的电量。
实施例37:根据实施例36所述的方法,其中,所述图形驱动器被配置为跳过指定数量的帧,所述指定数量的帧基于眨眼的时间长度。
实施例38:根据实施例36所述的方法,其中,所述图形驱动器被配置为基于眨眼的时间长度而持续指定的时间段减少所述显示器消耗的电量。
实施例39:根据实施例33至38中任一项所述的方法,其中,所述显示器包括LCD显示器。
实施例40:根据实施例33至39中任一项所述的方法,其中,所述显示器包括增强现实或虚拟现实显示器。
实施例41:根据实施例33至40中任一项所述的方法,其中,所述相机包括眼睛跟踪相机。
实施例42:根据实施例25至32中任一项所述的显示系统,其中,所述相机包括眼睛跟踪相机。
实施例43:根据实施例1至12中任一项所述的显示系统,其中,所述显示器包括头戴式显示器。
实施例44:根据实施例1至12或43中任一项所述的显示系统,进一步包括框架,所述框架被配置为在所述用户眼睛的前方支撑所述显示器。
实施例45:根据实施例1至12或43至44中任一项所述的显示系统,其中,所述显示系统包括AR或VR系统,所述AR或VR系统被配置为以不同的发散量向所述用户提供图像内容,使得呈现给所述用户的所述图像内容位于不同深度。
实施例46:根据实施例13至23中任一项所述的方法,其中,所述显示系统包括头戴式显示器。
实施例47:根据实施例13至23或46中任一项所述的方法,其中所述显示系统进一步包括框架,所述框架被配置为在所述用户眼睛的前方支撑所述显示器。
实施例48:根据实施例13至23或46至47中任一项所述的方法,其中,所述显示系统包括,所述AR或VR系统被配置为以不同的发散量向所述用户提供图像内容,使得呈现给所述用户的所述图像内容位于不同深度。
附图说明
图1示出了用户通过AR设备的对增强现实(AR)的视图。
图2示出了可穿戴显示系统的示例。
图3示出了用于为用户模拟三维图像的常规显示系统。
图4示出了使用多个深度平面模拟三维图像的方法的各方面。
图5A至图5C示出了曲率半径和焦半径之间的关系。
图6示出了用于将图像信息输出给用户的波导堆叠的示例。
图7示出了由波导输出的出射光束的示例。
图8示出了用于减少显示系统的电流消耗的过程的流程图。
应当理解,提供附图是为了说明示例实施例,而不是为了限制本公开的范围。通篇,相同的参考标号指示相同的特征。
具体实施方式
示例显示系统
参考图1,示出了增强现实场景100。应当理解,现代计算和显示技术促进了用于所谓的“虚拟现实”或“增强现实”体验的系统开发,其中,数字再现图像或其部分以看起来是真实或可以被感知为真实的方式呈现给用户。虚拟现实或“VR”场景通常涉及以对其它实际的真实世界视觉输入不透明的方式呈现数字或虚拟图像信息;增强现实或“AR”场景通常涉及将数字或虚拟图像信息呈现为对用户周围真实世界的可视化的增强。图1示出了这种场景的示例,其中,AR技术的用户看到以人、树、背景中的建筑物和混凝土平台120为特征的真实世界的公园状设置110。除了这些项目之外,AR技术的用户还感知到他“看到”站在真实世界平台120上的机器人雕像130,以及看起来是大黄蜂的化身的正在飞行的卡通式化身角色140,即使这些元素130、150在真实世界中不存在。因为人类视觉感知系统是复杂的,所以开发促进虚拟图像元素在其它虚拟或真实世界图像元素当中舒适、感觉自然、丰富呈现的VR或AR技术是极具挑战的。
图2示出了可穿戴显示系统200的示例。显示系统200包括显示器208,以及支持该显示器208的功能的各种机械和电子模块和系统。显示器208可以被耦接到框架212,该框架可由显示系统用户或观看者201穿戴,并且被配置为将显示器208定位在用户201的眼睛的前方。在一些实施例中,显示器208可以被视为眼镜。在一些实施例中,扬声器216被耦接到框架212并且被定位在用户201的耳道附近(在一些实施例中,另一扬声器(未示出)被定位在用户的另一耳道附近以提供立体声/可塑形的声音控制)。在一些实施例中,显示系统还可以包括一个或多个麦克风(未示出)或其它检测声音的设备。在一些实施例中,麦克风被配置为允许用户向系统200提供输入或命令(例如,语音菜单命令的选择、自然语言问题等)和/或可以允许与其他人(例如,与类似显示系统的其他用户)进行音频通信。
继续参考图2,显示器208诸如通过有线引线或无线连接可操作地耦接到本地数据处理模块224,本地数据处理模块224可以以各种配置安装,例如固定地附接到框架212,固定地附接到用户戴的头盔或帽子,嵌入耳机中,或以其它方式(例如,以背包式配置,腰带耦接式配置)可移除地附接到用户201。本地处理和数据模块224可以包括硬件处理器或者处理电子器件或电路,以及数字存储器,诸如非易失性存储器(例如,闪存或硬盘驱动器),这两者都可用于辅助数据的处理、缓存和存储。这些数据包括a)从传感器(其例如可以可操作地耦接到框架212或以其它方式附接到用户201)捕获的数据,这些传感器诸如为图像捕获设备(如相机)、麦克风、惯性测量单元、加速度计、指南针、GPS单元、无线电设备和/或陀螺仪;和/或b)使用远程处理模块228和/或远程数据存储库232获取和/或处理的数据,这些数据可以在被执行完这样的处理或检索之后传送到显示器208。本地处理和数据模块224可以通过通信链路236、240诸如经由有线或无线通信链路可操作地耦接到远程处理模块228和远程数据存储库232,使得这些远程模块228、232可操作地彼此耦接,并且作为资源可用于本地处理和数据模块224。在一些实施例中,本地处理和数据模块224可以包括图像捕获设备、麦克风、惯性测量单元、加速度计、指南针、GPS单元、无线电设备和/或陀螺仪中的一者或多者。在一些其它实施例中,这些传感器中的一者或多者可以被附接到框架212,或者可以是通过有线或无线通信路径与本地处理和数据模块224通信的独立结构。
继续参考图2,在一些实施例中,远程处理模块228可以包括被配置为分析和处理数据和/或图像信息的一个或多个处理器或者处理电子器件或电路。在一些实施例中,远程数据存储库232可以包括数字数据存储设施,该设施可以通过因特网或“云”资源配置中的其它网络配置获得。在一些实施例中,远程数据存储库232可以包括一个或多个远程服务器,这些服务器向本地处理和数据模块224和/或远程处理模块228提供信息,例如用于生成增强现实内容的信息。在一些实施例中,在本地处理和数据模块中存储所有数据,并执行所有计算,允许来自远程模块的完全自主地使用。
可以通过向观看者的每只眼睛提供略微不同的图像呈现来实现将图像感知为“三维”或“3D”。图3示出了用于模拟用户的三维图像的常规显示系统。向用户输出两个不同图像306、308,每个图像针对一只眼睛302、304。图像306、308沿着与观看者视线平行的光轴或z轴与眼睛302、304相隔距离310。图像306、308是平坦的,眼睛302、304可以通过假设单个调节状态而聚焦在图像上。这样的系统依赖于人类视觉系统来组合图像306、308以提供组合图像的深度感。
然而,应当理解,人类视觉系统更复杂并且提供真实的深度感更具挑战性。例如,不受理论的限制,可以认为对象的观看者可能由于辐辏和调节的组合而将对象感知为“三维的”。两只眼睛相对于彼此的辐辏动作(即,使瞳孔彼此靠近或远离以使眼睛的视线会聚固定在对象上的转动动作)与眼睛晶状体和瞳孔的聚焦(或“调节”)密切相关。在正常情况下,根据被称为“调节-辐辏反射”的关系,当注意力从一个对象转移到不同距离处的另一对象时的辐辏变化将自动导致眼睛晶状体焦点的匹配变化,或者眼睛调节的匹配变化。同样,在正常情况下,调节的变化将触发辐辏的匹配变化。如本文所述,许多立体或“3D”显示系统向每只眼睛使用略微不同的呈现(因此使用略微不同的图像)显示场景,使得人类视觉系统感知到三维透视。然而,这样的系统对于许多观看者来说可以是不舒适的,由于它们尤其是仅提供不同的场景呈现,但是眼睛在单个调节状态下观看所有图像信息,并且违反“调节-辐辏反射”起作用。在调节与辐辏之间提供更好匹配的显示系统可以形成更逼真和舒适的三维图像模拟。
图4示出了使用多个深度平面模拟三维图像的方法的各方面。z轴上相对于眼睛302、304不同距离处的对象由眼睛302、304调节,以使这些对象对焦。眼睛(302和304)假定特定的调节状态,以对沿z轴不同距离处的对象聚焦。因此,可以认为特定的调节状态与深度平面402中的特定一者相关联,具有相关联的焦距,使得当眼睛针对特定深度平面处于调节状态时,该特定深度平面中的对象或对象的部分对焦。在一些实施例中,可以通过为每只眼睛302、304提供图像的不同呈现,并且还可通过提供与每个深度平面对应的图像的不同呈现来模拟三维图像。尽管为了清楚地说明而示出为是分开的,但是应当理解,眼睛302、304的视野可以重叠,例如随着沿z轴的距离增加。此外,尽管为了便于说明而示出为平坦的,但是应当理解,深度平面的轮廓可以在物理空间中弯曲,使得深度平面中的所有特征在眼睛处于特定调节状态时对焦。
对象与眼睛302或304之间的距离也可以改变来自该眼睛所观看到的对象的光的发散量。图5A至图5C示出了距离和光线发散之间的关系。对象与眼睛302之间的距离按照递减的次序由距离R1、R2和R3表示。如图5A至图5C所示,随着到对象的距离减小,光线变得更加发散。随着距离的增加,光线变得更加准直。换句话说,可以认为由点(对象或对象的部分)产生的光场具有球面波前曲率,该球面波前曲率是该点距用户眼睛的距离的函数。随着对象与眼睛302之间的距离减小,曲率增加。因此,在不同的深度平面上,光线的发散程度也不同,发散度随着深度平面与观看者眼睛302之间的距离的减小而增加。尽管为了在图5A至图5C和本文中的其它图中清楚地说明而仅示出单只眼睛302,但是应当理解,有关眼睛302的讨论可以应用于观看者的双眼302和304。
不受理论的限制,可以认为人眼通常可以解释有限数量的深度平面以提供深度感。因此,可以通过向眼睛提供与这些有限数量的深度平面中的每一者对应的图像的不同呈现来实现高度可信的感知深度模拟。不同的呈现可以由观看者的眼睛单独聚焦,从而有助于基于使位于不同深度平面上的场景的不同图像特征对焦所需的眼睛调节和/或基于观察到不在焦点上的不同深度平面的不同的图像特征,为用户提供深度线索。
图6示出了用于将图像信息输出给用户的波导堆叠的示例。显示系统600包括波导堆叠或堆叠波导组件605,该波导堆叠或堆叠波导组件605可被用于使用多个波导620、622、624、626、628向眼睛/大脑提供三维感知。在一些实施例中,显示系统600是图2的系统200,图6更详细地示意性地示出了该系统200的一些部分。例如,波导组件605可以是图2的显示器208的部分。
继续参考图6,波导组件1240还可以包括位于波导之间的多个特征630、632、634、636。在一些实施例中,特征630、632、634、636可以是透镜。波导620、622、624、626、628和/或多个透镜630、632、634、636可以被配置为以各种级别的波前曲率或光线发散度向眼睛发送图像信息。每个波导级别可以与特定深度平面相关联,并且可以被配置为输出对应于该深度平面的图像信息。图像注入装置640、642、644、646、648可以用作波导的光源,并且可被用于将图像信息注入波导620、622、624、626、628中,如本文所述,每个波导可以被配置将入射光分布在每个相应的波导上以便朝着眼睛302输出。通过根据需要使用不同的光源,光源本身起作用以接通或关断每个深度平面的照射,从而切换深度平面。光从图像注入装置640、642、644、646、648的输出表面650、652、654、656、658射出,并且注入波导620、622、624、626、628的对应输入表面670、672、674、676、678。在一些实施例中,输入表面670、672、674、676、678中的每一者可以是对应波导的边缘,或者可以是对应波导的主表面的部分(即,直接面向世界610或观看者眼睛302的波导表面中的一者)。在一些实施例中,可以将单个光束(例如准直光束)注入每个波导以输出整个克隆的准直光束场,这些准直光束以对应于与特定波导相关联的深度平面的特定角度(和发散量)导向眼睛302。在一些实施例中,图像注入装置640、642、644、646、648的一者可以与波导620、622、624、626、628中的多个(例如,三个)相关联,并将光注入其中。
在一些实施例中,图像注入装置640、642、644、646、648是分立的显示器,每个显示器产生用于分别注入对应波导620、622、624、626、628中的图像信息。在一些实施例中,例如,图像注入装置640、642、644、646、648包括扫描光纤或扫描光纤显示装置。在一些其它实施例中,图像注入装置640、642、644、646、648是单个多路复用显示器的输出端,这些显示器例如可以经由一个或多个光学导管(例如光纤光缆)将图像信息管道传输到图像注入装置640、642、644、646、648中的每一者。应当理解,由图像注入装置640、642、644、646、648提供的图像信息可以包括不同波长或颜色(例如,不同的分量颜色)的光。
在一些实施例中,注入波导620、622、624、626、628中的光由光输出模块614提供,该光输出模块614可包括诸如背光614b之类的光源。背光614b可以包括诸如发光二极管(LED)之类的一个或多个发射器。来自背光614b的光可以被光调制器614a(例如,空间光调制器)修改。光调制器614a可以被配置为改变注入波导620、622、624、626、628中的光的感知强度。空间光调制器的示例包括液晶显示器(LCD)和数字光处理(DLP)显示器。在一些实施例中,光输出模块可以包括一个或多个光导、光管或反射器,该一个或多个光导、光管或反射器被配置为将来自发射气的光(例如,通过透射和/或反射光)导向光调制器614a。
控制器612控制堆叠波导组件1240中的一者或多者的操作,包括图像注入装置640、642、644、646、648、光发射器614b和/或光调制器614a的操作。在一些实施例中,控制器612是本地数据处理模块224的部分。控制器612包括编程(例如,非暂时性介质中的指令),该编程例如根据本文公开的各种的方案中的任何方案,调整定时和向波导620、622、624、626、628提供图像信息。在一些实施例中,控制器612可以被配置为控制操作和/或从对用户眼睛进行成像的一个或多个相机或传感器(例如,面向内的相机)接收的输入,其中,光发射器614b和/或光调节器614a的操作可以至少部分地基于眼睛的图像和/或关联的图像数据(诸如确定眼睛何时眨眼或移动)。在一些实施例中,控制器可以是单个集成设备,或者是通过有线或无线通信信道连接的分布式系统。在一些实施例中,控制器612可以是处理模块或电子器件224或228(图2)和/或其它处理电子器件和电路的部分。
继续参考图6,波导620、622、624、626、628可以被配置为通过全内反射(TIR)在每个相应的波导内传播光。波导620、622、624、626、628可以各自是平面的或具有另一形状(例如,弯曲的),具有顶部主表面和底部主表面以及在这些顶部主表面与底部主表面之间延伸的边缘。在所示的配置中,波导620、622、624、626、628可各自包括耦出光学元件660、662、664、666、628,该耦出光学元件660、662、664、666、628被配置为通过重定向来从波导中提取光,在各自对应的波导内部传播,从波导出射以将图像信息输出到眼睛302。所提取的光也可以被称为耦出光,并且耦出光学元件也可以被称为光提取光学元件。在波导内传播的光照射光提取光学元件的位置处,可以由波导输出所提取的光束。耦出光学元件660、662、664、666、628例如可以是光栅,光栅包括本文进一步所讨论的衍射光学特征。尽管为了便于描述和描绘清楚而示出了设置在波导620、622、624、626、628的底部主表面处,但是在一些实施例中,如本文进一步所讨论的,耦出光学元件660、662、664、666、628可以被设置在顶部和/或底部主表面,和/或可以被直接设置在波导620、622、624、626、628的体中。在一些实施例中,耦出光学元件660、662、664、666、628可以在附接到透明基板的材料层中形成,从而形成波导620、622、624、626、628。在一些其它实施例中,波导620、622、624、626、628可以是单片材料,并且耦出光学元件660、662、664、666、628可以形成在该片材料的表面上和/或内部中。
继续参考图6,如本文所讨论的,每个波导620、622、624、626、628被配置为输出光以形成对应于特定深度平面的图像。例如,最靠近眼睛的波导620可以被配置为将注入这种波导620的准直光传送到眼睛302。准直光可以代表光学无限远焦平面。下一上行波导622可以被配置为发出准直光,该准直光在到达眼睛302之前传输通过第一透镜630(例如,负透镜);这样的第一透镜630可以被配置为产生微凸的波前曲率,使得眼睛/大脑将来自下一上行波导622的光解释为来自从光学无限远向内更靠近眼睛302的第一焦平面。类似地,第三上行波导624使其输出光在到达眼睛302之前传输通过第一透镜630和第二透镜632两者。第一透镜630和第二透镜632的组合光焦度(optical power)可以被配置为产生另一波前曲率增量,使得眼睛/大脑将来自第三波导624的光解释为来自从光学无限远向内进一步更靠近人的第二焦平面,而不是来自下一上行波导622的光。
其它波导层626、628和透镜634、636被类似地配置,其中堆叠中的最高波导628将其输出发送通过其与眼睛之间的所有透镜,以获得代表距人最接近的焦平面的总光焦度。为了在观看/解释来自堆叠波导组件605的另一侧上的世界610的光时补偿透镜堆叠630、632、634、636,可以在堆叠的顶部设置补偿透镜层638,以补偿下面的透镜堆叠630、632、634、636的总光焦度。这种配置提供与可用的波导/透镜配对一样多的感知焦平面。波导的耦出光学元件和透镜的聚焦方面都可以是静态的(即,不是动态的或电活性的)。在一些替代实施例中,使用电活性特征,波导的耦出光学元件和透镜的聚焦方面的一者或两者都可以是动态的。
在一些实施例中,波导620、622、624、626、628中的两者或更多者可具有相同的关联深度平面。例如,多个波导620、622、624、626、628可以被配置为将图像集输出到相同的深度平面,或者波导620、622、624、626、628的多个子集可以被配置为将图像集输出到相同的多个深度平面,每个深度平面一个集。这可以为形成平铺图像提供优势,以在那些深度平面上提供扩展视野。
继续参考图6,耦出光学元件660、662、664、666、628可以被配置为既将光重定向出它们相应的波导,也为与波导相关联的特定深度平面输出具有适当的发散量或准直度的该光。因此,具有不同关联深度平面的波导可以具有不同配置的耦出光学元件660、662、664、666、628,不同配置耦出光学元件660、662、664、666、628根据关联的深度平面输出具有不同发散量的光。在一些实施例中,耦出光学元件660、662、664、666、628可以是体特征或表面特征,其可以被配置为以特定角度输出光。例如,耦出光学元件660、662、664、666、628可以是体全息图、表面全息图和/或衍射光栅。在一些实施例中,特征630、632、634、636可以不是透镜;相反,它们可以仅仅是间隔物(例如,包层和/或用于形成气隙的结构)。
在一些实施例中,耦出光学元件660、662、664、666、628是形成衍射图案的衍射特征,或“衍射光学元件”(在本文中也被称为“DOE”)。在各种实施例中,DOE具有足够低的衍射效率,使得只有一部分光束借助DOE的每个交叉点向眼睛302偏转,而其余部分经由全内反射继续行进通过波导。因此,携带图像信息的光被分成多个相关的出射光束,这些出射光束在多个位置处从波导出射,并且针对在波导内弹跳的此特定准直光束,结果是形成向眼睛302出射的相当均匀的图案。
在一些实施例中,一个或多个DOE可以在它们活跃地衍射的“开启”状态与不明显衍射的“关闭”状态之间可切换。例如,可切换的DOE可以包括聚合物分散液晶层,其中,微滴在主体介质中包括衍射图案,并且微滴的折射率可以切换为基本匹配主体材料的折射率(在这种情况下,图案不会显著地衍射入射光)或者微滴可以切换为与主体介质的折射率失配的折射率(在这种情况下,图案活跃地衍射入射光)。
图7示出了由波导输出的出射光束的示例。示出了一个波导,但是应当理解,波导组件605中的其它波导可以发挥类似的作用,其中,波导组件605包括多个波导。光700在波导620的输入表面670处注入波导620,并通过TIR在波导620内传播。在光700照射DOE 660的点处,一部分光作为出射光束702从波导出射。出射光束702被示为基本上平行,但是如本文所讨论的,它们也可以被重定向为以一定角度(例如,形成发散的出射光束)传播到眼睛302,该角度取决于与波导620相关联的深度平面。应当理解,基本上平行的出射光束可以指示具有耦出光学元件的波导,输出光学元件将光耦出以形成看起来设置在距离眼睛302的较远距离(例如,光学无限远)的深度平面上的图像。其它波导或耦出光学元件的其它集合可以输出更加发散的出射光束图案,这将需要眼睛210适应更近的距离以使更加发散的出射光束图案聚焦在视网膜上并且将被大脑解释为来自比光学无限远更靠近眼睛302的距离处的光。
减少电流消耗
在一些实施例中,上文讨论的显示系统600可以由电池供电。可能期望减小电流消耗或降低功率,以便电池提供更多的运行时间或减少设备的发热。在一些实施例中,可以将显示系统200中的电流引出以点亮显示系统620的显示器(例如,使用背光614b、图像注入装置640、642、644、646、648,诸如可能是一个或多个扫描光纤或扫描光纤显示设备等)。另外,采用电流来控制显示器(例如,控制器612的图形处理器或驱动器)。
如本文所述,例如可以通过调暗或关闭显示器(例如,调暗或关闭显示器背光),降低显示器更新或刷新率,或者在超时后基于缺乏用户交互调暗或关闭显示器来实现某种减少电流消耗或降低功率。
在诸如本文所述的增强现实或虚拟现实设备的一些实施例中,可以使用相机(或其它方法)来跟踪眼睛运动。显示系统600可以包括面向内的相机616,该相机616向内朝向用户的脸部,并且特别是朝向用户的眼睛(例如,眼睛302)。在一些情况下,例如可以完成该眼睛跟踪以便调整由显示系统600显示的视图。例如,相机616可以被用于捕获眼睛302的图像,根据该图像可以跟踪眼睛瞳孔或虹膜状态或位置。眼睛瞳孔或虹膜的状态或位置可被用于确定设备的用户正在观看的位置,允许相应地调整显示器。
在一些实施例中,眼睛跟踪可被用于确定用户的眼睛是否处于用户暂时不能看到的状态。例如,当用户正在眨眼时,用户可能不能看到。另外,当用户的眼睛正在进行扫视(例如,眼睛在固定点之间快速移动)时,用户可能不能看到。
在一些实施例中,眼睛跟踪相机或面向内的相机(或其它传感器或传感器系统)可被用于通过确定用户的瞳孔或虹膜是否被部分或完全阻挡视线来确定用户是否正在眨眼。例如,相机可以跟踪作为背景(例如,用户的眼白)内的黑圆圈的用户眼睛的虹膜。替换地,相机可以跟踪作为虹膜内的更黑的圆圈的用户的瞳孔。当用户眨眼时,由虹膜或瞳孔限定的圆圈的一些或全部可能被遮挡或隔绝。控制器612可以响应于与用户的虹膜或瞳孔部分或完全缺失对应的圆形图案而“图形化地”检测眨眼。例如,在一些实施例中,可以将圆形图案的可见程度与阈值进行比较,其中,如果可见(例如,圆形)图案的量不满足阈值,则确定用户正在眨眼。在一些实施例中,阈值可以基于用户试验被预先配置。
在一些实施例中,控制器612可以基于根据相机616的视图计算的对比度来检测用户是否正在眨眼。例如,可以确定对比度是否满足阈值。在一些实施例中,当用户的眼睛张开并且用户的虹膜或瞳孔可见时,在反射回(例如,从眼睛或眼睛和眼睑的组合)并且被相机捕获的图像中可能存在大对比度。另一方面,当用户的眼睛闭合时(例如,用户的眼睑覆盖眼睛),与用户的眼睛张开(例如,至少部分地张开)时相比,对比度可以降低很多。因此,当对比度低于阈值时,控制器612可以检测到眨眼。
在一些实施例中,如果控制器612不能检测到用户虹膜或瞳孔的位置。例如,如果不能检测到用户的虹膜或瞳孔,则控制器612可以生成“错误”状态,这也可以用作眨眼检测。
在一些实施例中,控制器612可以检测用户的扫视。当用户的眼睛处于扫视状态时,尽管用户的眼睛是张开的,但用户可能不会感知任何视觉信息。在一些实施例中,控制器612可以通过使用面向内的相机616跟踪用户虹膜或瞳孔的位置(例如,上述的黑色圆圈)来检测扫视。如果检测到用户的虹膜或瞳孔的移动高于某个速率,则可以认为用户处于扫视状态。
在一些实施例中,眨眼或扫视的时间段可以是预定的时间段。可以基于来自用户研究的经验数据来确定预定时间段。在一些实施例中,可以通过显示系统600的一个或多个传感器(例如,面向内的相机616),基于上述眼睛张开/闭合标准或眼睛移动标准来测量眨眼或扫视的时间段。如果眼睛持续一段时间闭合或经历扫视,则可以将系统设置为低能量状态以节省电力。
尽管上面的讨论主要涉及使用相机确定用户不能看到的状态(例如,由于眨眼或扫视),但是可以使用任何类型的可被用于检测用户眼睛状态的硬件,诸如其它类型的传感器系统。在一些情况下,期望利用已经与显示系统600集成的硬件(例如,在显示系统600中被设计为用于其它目的的硬件),以便减少由添加新硬件将消耗的电力。相机或其它类型的传感器系统不限于使用可见光,并且可以采用红外(IR)光。
在一些实施例中,显示系统600可以在用户不能看到的时段期间(例如,由于眨眼或扫视)减少其电流或降低功率。例如,可以通过采用一种或多种电流消耗减少或功率降低技术来减少显示器的电流消耗或用电,这可以包括调暗或关闭与显示器相关联的用于该显示器的光源(例如,背光)。在一些实施例中,显示系统600的光源(例如,背光)614b可以被调暗或关闭。在其它实施例中(例如,使用不具有背光的OLED显示器的显示系统),可以通过调暗或关闭显示器的一个或多个有源像素来减少电流消耗或用电。当眼睛无法看到时(例如,在眨眼或扫视期间),其它类型的显示部件或显示器可以被关闭、调暗或设置为较低功耗模式。
替代地或组合地,与显示器相关联的图形驱动器或处理器或处理电子器件“跳过”多个帧或等待指定的时间段,在此期间,图形驱动器处于导致比提供新图像或刷新图像消耗更少功率的状态。例如,图形驱动器可以使图形处理器暂停刷新显示的图像,或者降低显示器的刷新率,从而与正常操作相比消耗更少的功率。在一些实施方式中,减少电流消耗期间的帧数或时间段可以被配置为与眨眼或扫视的时间长度对应。例如,眨眼的时间段通常在100毫秒到400毫秒之间。
应当理解,本文讨论的任何电流消耗减少技术可以独立地或彼此组合地执行。例如,在一些实施例中,响应于检测到眨眼或扫视,控制器612可以调暗背光614b以及使图形驱动器跳过指定数量的帧。在其它实施例中,控制器612可以使图形驱动器跳过指定数量的帧,而不调暗背光614b,或者调暗背光而不跳过指定数量的帧。
图8示出了根据一些实施例的用于减少电流消耗或功率使用的示例过程的流程图。该流程图的任何部分可以由诸如处理电子器件或电路之类的电子器件执行。在框802处,确定是否检测到显示系统的用户不能看到时的状态(例如,用户眨眼或扫视)。在一些实施例中,可以使用眼睛跟踪或面向内的相机或者其它传感器或传感器系统来达成此目的,这些相机或者其它传感器或传感器系统确定用户的瞳孔或虹膜是否被阻挡视线或是否正在经历快速移动。如果检测到眨眼或扫视,则该过程可以进行到框804。否则,该过程可以继续监测眼睛,例如继续检测显示系统用户的眨眼或扫视。
在框804处,调暗或关闭与显示器相关联的光源。例如,光源可以被配置为进入低功率模式或被禁用。在一些实施例中,光源可包括背光614b。在其它实施例中,光源可以包括显示器(例如,OLED显示器)的多个有源像素。其它光源和显示配置也是可能的。
在框806处,与显示系统相关联的图形驱动器可以减少耗电量。例如,图形驱动器可以跳过X个帧或等待时间段Y,其中X和Y是基于眨眼或扫描的时间段(例如,在100和400毫秒之间)来确定的。在一些实施例中,图形驱动器可以降低显示器的刷新率。
在框808处,重新打开或调亮与显示器或显示器的其它部件相关联的光源(例如,背光614b、显示器的有源像素等),并且该显示系统恢复正常运行。应当理解,该流程图中示出的过程是示例,并且可以排除、添加和/或重新排序这些步骤。
应当理解,尽管图8示出了调暗/关闭与显示器相关联的光源(框804、808)和降低图形驱动器或处理器的功耗(框806),但是在其它实施例中,显示系统600可以执行电流消耗减少或功率降低技术的任何组合。例如,在一些实施例中,显示系统600可以仅执行调暗/关闭显示器的光源,仅降低图形驱动器或处理器的功耗(例如,跳帧、降低刷新率等)或者同时执行这两种操作。节能也可以来自其它部件。例如,将空间光调制器或者一个或多个扫描光纤或扫描光纤显示设备设置为较低功率状态也可以降低功耗。
普通人大约每2到10秒眨眼一次,持续100到400毫秒时间段。因此,在较少的情况下,眼睛闭合约1%的时间。对于更典型的情况,眼睛闭合2%到5%的时间。因此,可能在与使用光源(例如,背光或有源像素)和/或图形驱动器/处理器点亮显示器相关联的电流消耗中实现几个百分点的降低。
本文描述了本发明的各种示例实施例。以非限制性的意义参考这些实施例。提供它们是为了说明本发明的更广泛适用的方面。在不脱离本发明的精神和范围的情况下,可以对所描述的本发明进行各种改变,并且可以用等同物替换。例如,尽管有利地用于在跨多个深度平面上提供图像的AR显示器,但是本文公开的增强现实内容也可以由在单个深度平面上提供图像的系统显示。
可以进行许多修改以使特定情况、材料、物质组成、过程、多个过程动作或多个步骤适应本发明的多个目的、精神或范围。此外,如本领域技术人员将理解的,在不脱离本发明的范围或精神的情况下,本文描述和说明的每个单独的变型具有分立的部件和特征,这些部件和特征可以容易地与其它若干实施例的任意特征分离或组合。所有这样的修改旨在落入与本公开相关联的权利要求的范围内。
本发明包括可以使用主题设备执行的方法。该方法可以包括提供这种合适设备的动作。这种提供可以由用户执行。换句话说,“提供”动作仅需要用户获得、访问、接近、定位、设置、激活、加电或其它动作,以在主题方法中提供必需的设备。本文所述的方法可以按照逻辑上可能的所述事件的任何顺序进行以及按照所述的事件顺序来执行。
以上已经阐述了本发明的示例方面以及关于材料选择和制造的细节。有关本发明的其它细节,这些其它细节可以结合以上引用的专利和出版物以及本领域技术人员通常已知或理解的来理解。对于本发明的基于方法的方面,就通常或逻辑上采用的附加动作方面而言,这同样适用。
此外,尽管已经参考可选地包括各种特征的若干示例描述了本发明,但是本发明不限于被描述或指示为关于本发明的每个变型所预期。在不脱离本发明的精神和范围的情况下,可以对所描述的本发明进行各种改变,并且,可以替换等同物(无论是在本文所述的还是为了简洁起见而未包括的)。此外,在提供值的范围的情况下,应该理解,在该范围的上限与下限之间的每个中间值,以及所述范围内的任何其它所述值或中间值都包括在本发明内。
此外,可以构想的是,所描述的发明变型的任何可选特征可以被独立地或者与本文所述的任何一个或多个特征相组合来进行阐述或要求保护。对单数项的引用包括存在多个相同项的可能性。更具体地说,除非另有具体说明,当在本文和与本文相关联的权利要求中所使用的,单数形式“一”、“一个”、“所述”和“该”包括复数个指示物。换句话说,所述冠词的使用允许上述说明书以及与本公开相关联的权利要求中的主题项中的“至少一个”。还应注意,这样的权利要求可以被撰写以排除任何可选元素。因此,本声明旨在作为适用于权利要求元素的叙述相关的诸如“单独”、“仅”之类的排他性术语或使用“否定”限制的先行基础。
在不使用这种排他性术语的情况下,与本公开相关联的权利要求中的术语“包括”应允许包括任何附加元素,而不管在这样的权利要求中是否列举给定数量的元素,或者添加特征可以被视为改变了这样的权利要求中阐述的要素的性质。除非本文中具体限定,否则本文所用的所有技术术语和科学术语在保持权利要求的有效性的同时被尽可能广泛地被赋予通常理解的含义。
本发明的广度不限于所提供的示例和/或主题说明书,而是仅由与本公开相关联的权利要求语言的范围来限制。
Claims (20)
1.一种减少用电的显示系统,包括:
面向内的传感器;
显示器;以及
处理电子器件,其与所述面向内的传感器和所述显示器通信,所述处理电子器件被配置为:
使用所述面向内的传感器检测用户眼睛状态的变化,以及
基于检测到所述用户眼睛状态的变化的时间减少所述显示系统的电流消耗。
2.根据权利要求1所述的显示系统,其中,所述用户眼睛状态的变化是眨眼或扫视。
3.根据权利要求1所述的显示系统,其中,所述显示器包括光源,并且其中,减少所述显示器的电流消耗包括调暗所述显示器的所述光源。
4.根据权利要求1所述的显示系统,其中,所述显示器包括光源,并且其中,减少所述显示器的电流消耗包括关闭所述光源。
5.根据权利要求1所述的显示系统,其中,减少所述显示器的电流消耗包括配置与所述显示器相关联的图形驱动器以减少所述显示器消耗的电量。
6.根据权利要求5所述的显示系统,其中,所述图形驱动器被配置为跳过指定数量的帧,所述指定数量的帧基于所述眼睛眨眼或扫视的时间长度。
7.根据权利要求1所述的显示系统,其中,所述显示器包括LCD显示器。
8.根据权利要求1所述的显示系统,其中,所述面向内的传感器包括相机。
9.根据权利要求1所述的显示系统,其中,所述处理电子器件被配置为通过降低与所述显示器相关联的刷新率来减少所述显示器的电流消耗。
10.根据权利要求1所述的显示系统,进一步包括图形驱动器,其中,减少所述显示系统的电流消耗包括降低所述图形驱动器的功耗。
11.一种用于减少显示系统的用电的方法,包括:
使用面向内的传感器检测用户眼睛状态的变化,以及
基于检测到所述用户眼睛状态的变化的时间减少所述显示系统的电流消耗。
12.根据权利要求11所述的方法,其中,所述用户眼睛状态的变化是眨眼或扫视。
13.根据权利要求11所述的方法,其中,所述显示系统包括光源,并且其中,减少所述显示系统的电流消耗包括调暗所述显示系统的所述光源。
14.根据权利要求11所述的方法,其中,所述显示系统包括光源,并且其中,减少所述显示系统的电流消耗包括关闭所述显示系统的所述光源。
15.根据权利要求11所述的方法,其中,减少所述显示系统的电流消耗包括配置与所述显示系统相关联的图形驱动器以减少所述显示系统消耗的电量。
16.根据权利要求15所述的方法,其中,所述图形驱动器被配置为跳过指定数量的帧,所述指定数量的帧基于眨眼的时间长度或所述眼睛无法看到的时间长度。
17.根据权利要求15所述的方法,其中,所述图形驱动器被配置为基于眨眼的时间长度或所述眼睛无法看到的时间长度而持续指定的时间段减少所述显示系统消耗的电量。
18.根据权利要求11所述的方法,其中,所述显示系统包括LCD显示器。
19.根据权利要求11所述的方法,其中,减少所述显示系统的电流消耗包括降低与所述显示器相关联的刷新率。
20.根据权利要求11所述的方法,其中,减少所述显示系统的电流消耗包括降低图形驱动器的功耗。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210361819.5A CN114690881A (zh) | 2016-03-04 | 2017-03-02 | 减少用电的显示系统以及用于减少显示系统的用电的方法 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662304098P | 2016-03-04 | 2016-03-04 | |
US62/304,098 | 2016-03-04 | ||
PCT/US2017/020522 WO2017151974A1 (en) | 2016-03-04 | 2017-03-02 | Current drain reduction in ar/vr display systems |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210361819.5A Division CN114690881A (zh) | 2016-03-04 | 2017-03-02 | 减少用电的显示系统以及用于减少显示系统的用电的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109074785A true CN109074785A (zh) | 2018-12-21 |
CN109074785B CN109074785B (zh) | 2022-05-10 |
Family
ID=59722695
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780027169.8A Active CN109074785B (zh) | 2016-03-04 | 2017-03-02 | 减少用电的显示系统以及用于减少显示系统的用电的方法 |
CN202210361819.5A Pending CN114690881A (zh) | 2016-03-04 | 2017-03-02 | 减少用电的显示系统以及用于减少显示系统的用电的方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210361819.5A Pending CN114690881A (zh) | 2016-03-04 | 2017-03-02 | 减少用电的显示系统以及用于减少显示系统的用电的方法 |
Country Status (10)
Country | Link |
---|---|
US (5) | US11320900B2 (zh) |
EP (1) | EP3424038A4 (zh) |
JP (6) | JP7190903B2 (zh) |
KR (3) | KR20230109789A (zh) |
CN (2) | CN109074785B (zh) |
AU (2) | AU2017225977C1 (zh) |
CA (1) | CA3016032C (zh) |
IL (3) | IL291915B2 (zh) |
NZ (2) | NZ756561A (zh) |
WO (1) | WO2017151974A1 (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110658904A (zh) * | 2019-09-19 | 2020-01-07 | Oppo广东移动通信有限公司 | 控制终端电流的方法、装置、终端及存储介质 |
CN110716639A (zh) * | 2018-07-12 | 2020-01-21 | 苹果公司 | 具有基于眼睛活动的显示器操作的电子设备 |
CN115546249A (zh) * | 2021-06-30 | 2022-12-30 | 托比股份公司 | 在眼动跟踪系统中节能的方法、计算机程序产品 |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
NZ756561A (en) | 2016-03-04 | 2023-04-28 | Magic Leap Inc | Current drain reduction in ar/vr display systems |
IL261769B2 (en) | 2016-03-25 | 2024-08-01 | Magic Leap Inc | Virtual and augmented reality systems and methods |
US10192528B2 (en) | 2016-03-31 | 2019-01-29 | Sony Interactive Entertainment Inc. | Real-time user adaptive foveated rendering |
US10401952B2 (en) | 2016-03-31 | 2019-09-03 | Sony Interactive Entertainment Inc. | Reducing rendering computation and power consumption by detecting saccades and blinks |
US10372205B2 (en) * | 2016-03-31 | 2019-08-06 | Sony Interactive Entertainment Inc. | Reducing rendering computation and power consumption by detecting saccades and blinks |
GB2607455B (en) * | 2017-08-24 | 2023-02-15 | Displaylink Uk Ltd | Compressing image data for transmission to a display |
GB2566013B (en) * | 2017-08-24 | 2022-12-07 | Displaylink Uk Ltd | Compressing image data for transmission to a display |
WO2019246129A2 (en) | 2018-06-18 | 2019-12-26 | Magic Leap, Inc. | Augmented reality display with frame modulation functionality |
US11624909B2 (en) | 2018-06-18 | 2023-04-11 | Magic Leap, Inc. | Head-mounted display systems with power saving functionality |
WO2020018938A1 (en) | 2018-07-19 | 2020-01-23 | Magic Leap, Inc. | Content interaction driven by eye metrics |
US20200073465A1 (en) * | 2018-08-30 | 2020-03-05 | Qualcomm Incorporated | Load reduction in a visual rendering system |
CN115100020A (zh) * | 2019-01-18 | 2022-09-23 | 奇跃公司 | 虚拟、增强和混合现实系统以及方法 |
US11568242B2 (en) | 2019-12-05 | 2023-01-31 | International Business Machines Corporation | Optimization framework for real-time rendering of media using machine learning techniques |
US11960345B2 (en) | 2021-05-25 | 2024-04-16 | Samsung Electronics Co., Ltd. | System and method for controlling operational modes for XR devices for performance optimization |
KR20240074487A (ko) | 2022-11-21 | 2024-05-28 | 가온그룹 주식회사 | 로컬디밍 기반의 xr 디바이스 절전 제어 방법 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100118019A1 (en) * | 2008-11-12 | 2010-05-13 | International Business Machines Corporation | Dynamically Managing Power Consumption Of A Computer With Graphics Adapter Configurations |
US20140145914A1 (en) * | 2012-11-29 | 2014-05-29 | Stephen Latta | Head-mounted display resource management |
US20150029096A1 (en) * | 2012-02-07 | 2015-01-29 | Sharp Kabushiki Kaisha | Image display device |
US20150268720A1 (en) * | 2011-03-24 | 2015-09-24 | Seiko Epson Corporation | Device, head mounted display, control method of device and control method of head mounted display |
US20160048220A1 (en) * | 2014-08-14 | 2016-02-18 | Qualcomm Incorporated | Management for wearable display |
Family Cites Families (98)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6222525B1 (en) | 1992-03-05 | 2001-04-24 | Brad A. Armstrong | Image controllers with sheet connected sensors |
JP3563459B2 (ja) * | 1994-10-31 | 2004-09-08 | 大正製薬株式会社 | 瞬き検出システム |
JPH08271953A (ja) | 1995-03-30 | 1996-10-18 | Olympus Optical Co Ltd | ファインダ装置 |
US5670988A (en) | 1995-09-05 | 1997-09-23 | Interlink Electronics, Inc. | Trigger operated electronic device |
JPH09105853A (ja) | 1995-10-06 | 1997-04-22 | Canon Inc | 光学装置及び撮影装置 |
JP3651204B2 (ja) | 1996-12-18 | 2005-05-25 | トヨタ自動車株式会社 | 立体画像表示装置、立体画像表示方法及び記録媒体 |
JPH11249064A (ja) | 1998-03-04 | 1999-09-17 | Omron Corp | 頭部搭載型表示装置 |
JP4129972B2 (ja) | 2002-02-18 | 2008-08-06 | オリンパス株式会社 | 偏心光学系 |
DE60332328D1 (de) | 2002-03-13 | 2010-06-10 | Imax Corp | Systeme und verfahren für ein digitales remastering oder anderweitiges modifizieren von beweglichen bildern oder anderen bildsequenzdaten |
USD514570S1 (en) | 2004-06-24 | 2006-02-07 | Microsoft Corporation | Region of a fingerprint scanning device with an illuminated ring |
JP4088282B2 (ja) | 2004-08-20 | 2008-05-21 | 清実 中村 | コンピュータ入力方法と装置 |
US7656853B2 (en) | 2004-12-27 | 2010-02-02 | Microsoft Corporation | Reducing power consumption of a wireless device |
US20070081123A1 (en) | 2005-10-07 | 2007-04-12 | Lewis Scott W | Digital eyewear |
US8696113B2 (en) | 2005-10-07 | 2014-04-15 | Percept Technologies Inc. | Enhanced optical and perceptual digital eyewear |
US11428937B2 (en) | 2005-10-07 | 2022-08-30 | Percept Technologies | Enhanced optical and perceptual digital eyewear |
JP2009267733A (ja) | 2008-04-24 | 2009-11-12 | Sharp Corp | 撮像装置および撮像制御方法 |
RU2493613C2 (ru) * | 2008-08-22 | 2013-09-20 | Сони Корпорейшн | Устройство воспроизведения изображений и способ управления |
EP2373924B2 (en) | 2008-12-12 | 2022-01-05 | BAE Systems PLC | Improvements in or relating to waveguides |
JP5212155B2 (ja) | 2009-02-10 | 2013-06-19 | ブラザー工業株式会社 | ヘッドマウントディスプレイ |
WO2011008793A1 (en) | 2009-07-13 | 2011-01-20 | Emsense Corporation | Systems and methods for generating bio-sensory metrics |
US20110075257A1 (en) | 2009-09-14 | 2011-03-31 | The Arizona Board Of Regents On Behalf Of The University Of Arizona | 3-Dimensional electro-optical see-through displays |
JP5308305B2 (ja) | 2009-10-20 | 2013-10-09 | 株式会社トーメーコーポレーション | 網膜電位測定装置 |
US20110106025A1 (en) | 2009-10-29 | 2011-05-05 | Hall Gary S | Ophthalmic fluid pump |
US8345984B2 (en) | 2010-01-28 | 2013-01-01 | Nec Laboratories America, Inc. | 3D convolutional neural networks for automatic human action recognition |
US9128281B2 (en) | 2010-09-14 | 2015-09-08 | Microsoft Technology Licensing, Llc | Eyepiece with uniformly illuminated reflective display |
US9766381B2 (en) | 2010-03-12 | 2017-09-19 | Nokia Technologies Oy | Light-guiding structures |
JP2012022150A (ja) | 2010-07-14 | 2012-02-02 | Nikon Corp | 表示装置および表示方法 |
JP2012109810A (ja) * | 2010-11-17 | 2012-06-07 | Panasonic Corp | 表示装置、表示制御方法、携帯電話及び半導体装置 |
US9304319B2 (en) | 2010-11-18 | 2016-04-05 | Microsoft Technology Licensing, Llc | Automatic focus improvement for augmented reality displays |
KR101997852B1 (ko) | 2010-12-24 | 2019-10-01 | 매직 립, 인코포레이티드 | 인체공학적 머리 장착식 디스플레이 장치 및 광학 시스템 |
US10156722B2 (en) | 2010-12-24 | 2018-12-18 | Magic Leap, Inc. | Methods and systems for displaying stereoscopy with a freeform optical system with addressable focus for virtual and augmented reality |
JP2012203127A (ja) * | 2011-03-24 | 2012-10-22 | Seiko Epson Corp | 頭部装着型表示装置および頭部装着型表示装置の制御方法、頭部装着型表示装置の制御のためのコンピュータープログラム |
CN103635891B (zh) | 2011-05-06 | 2017-10-27 | 奇跃公司 | 大量同时远程数字呈现世界 |
US10795448B2 (en) | 2011-09-29 | 2020-10-06 | Magic Leap, Inc. | Tactile glove for human-computer interaction |
US8976110B2 (en) | 2011-10-27 | 2015-03-10 | Tobii Technology Ab | Power management in an eye-tracking system |
RU2621633C2 (ru) | 2011-10-28 | 2017-06-06 | Мэджик Лип, Инк. | Система и способ для дополненной и виртуальной реальности |
CN107664847B (zh) | 2011-11-23 | 2021-04-06 | 奇跃公司 | 三维虚拟和增强现实显示系统 |
KR101891786B1 (ko) * | 2011-11-29 | 2018-08-27 | 삼성전자주식회사 | 아이 트래킹 기반의 사용자 기능 운용 방법 및 이를 지원하는 단말기 |
US8235529B1 (en) * | 2011-11-30 | 2012-08-07 | Google Inc. | Unlocking a screen using eye tracking information |
US9128522B2 (en) * | 2012-04-02 | 2015-09-08 | Google Inc. | Wink gesture input for a head-mountable device |
EP2841991B1 (en) | 2012-04-05 | 2020-01-08 | Magic Leap, Inc. | Wide-field of view (fov) imaging devices with active foveation capability |
US20130300634A1 (en) | 2012-05-09 | 2013-11-14 | Nokia Corporation | Method and apparatus for determining representations of displayed information based on focus distance |
US10502876B2 (en) | 2012-05-22 | 2019-12-10 | Microsoft Technology Licensing, Llc | Waveguide optics focus elements |
KR102217788B1 (ko) | 2012-06-11 | 2021-02-18 | 매직 립, 인코포레이티드 | 도파관 리플렉터 어레이 프로젝터를 이용한 다중 깊이면 3차원 디스플레이 |
US9671566B2 (en) | 2012-06-11 | 2017-06-06 | Magic Leap, Inc. | Planar waveguide apparatus with diffraction element(s) and system employing same |
US8437513B1 (en) | 2012-08-10 | 2013-05-07 | EyeVerify LLC | Spoof detection for biometric authentication |
WO2014043196A1 (en) | 2012-09-11 | 2014-03-20 | Magic Leap, Inc | Ergonomic head mounted display device and optical system |
US9207760B1 (en) | 2012-09-28 | 2015-12-08 | Google Inc. | Input detection |
JP6525880B2 (ja) | 2012-10-18 | 2019-06-05 | アリゾナ ボード オブ リージェンツ オン ビハーフ オブ ザ ユニバーシティ オブ アリゾナ | アドレス指定可能な焦点手がかりを用いた立体視ディスプレイ |
NZ710096A (en) | 2013-01-15 | 2018-11-30 | Magic Leap Inc | Ultra-high resolution scanning fiber display |
EP2962175B1 (en) | 2013-03-01 | 2019-05-01 | Tobii AB | Delay warp gaze interaction |
EP2967322A4 (en) | 2013-03-11 | 2017-02-08 | Magic Leap, Inc. | System and method for augmented and virtual reality |
NZ751593A (en) | 2013-03-15 | 2020-01-31 | Magic Leap Inc | Display system and method |
US9874749B2 (en) | 2013-11-27 | 2018-01-23 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
US10262462B2 (en) * | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
US20140380249A1 (en) | 2013-06-25 | 2014-12-25 | Apple Inc. | Visual recognition of gestures |
US10295338B2 (en) | 2013-07-12 | 2019-05-21 | Magic Leap, Inc. | Method and system for generating map data from an image |
US9389683B2 (en) * | 2013-08-28 | 2016-07-12 | Lg Electronics Inc. | Wearable display and method of controlling therefor |
KR102341870B1 (ko) | 2013-10-16 | 2021-12-20 | 매직 립, 인코포레이티드 | 조절가능한 동공간 거리를 가지는 가상 또는 증강 현실 헤드셋들 |
JP5620562B1 (ja) | 2013-10-23 | 2014-11-05 | 株式会社光波 | 単結晶蛍光体及び発光装置 |
US9857591B2 (en) | 2014-05-30 | 2018-01-02 | Magic Leap, Inc. | Methods and system for creating focal planes in virtual and augmented reality |
KR102378457B1 (ko) * | 2013-11-27 | 2022-03-23 | 매직 립, 인코포레이티드 | 가상 및 증강 현실 시스템들 및 방법들 |
US9651784B2 (en) * | 2014-01-21 | 2017-05-16 | Osterhout Group, Inc. | See-through computer display systems |
CN106233189B (zh) | 2014-01-31 | 2020-06-26 | 奇跃公司 | 多焦点显示系统和方法 |
EP4071537B1 (en) | 2014-01-31 | 2024-07-10 | Magic Leap, Inc. | Multi-focal display system |
KR20150098162A (ko) | 2014-02-19 | 2015-08-27 | 삼성전자주식회사 | 멀티미디어 데이터와 관련된 동작 제어 방법 및 장치 |
US10534900B2 (en) | 2014-02-21 | 2020-01-14 | Samsung Electronics Co., Ltd. | Electronic device |
EP3111421A1 (en) | 2014-02-25 | 2017-01-04 | EyeVerify Inc. | Eye gaze tracking |
EP3114527B1 (en) | 2014-03-05 | 2021-10-20 | Arizona Board of Regents on Behalf of the University of Arizona | Wearable 3d augmented reality display with variable focus and/or object recognition |
US10203762B2 (en) | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
US11138793B2 (en) | 2014-03-14 | 2021-10-05 | Magic Leap, Inc. | Multi-depth plane display system with reduced switching between depth planes |
JP2015205114A (ja) * | 2014-04-23 | 2015-11-19 | アルプス電気株式会社 | 眼鏡型電子機器 |
AU2015255652B2 (en) | 2014-05-09 | 2018-03-29 | Google Llc | Systems and methods for using eye signals with secure mobile communications |
USD759657S1 (en) | 2014-05-19 | 2016-06-21 | Microsoft Corporation | Connector with illumination region |
WO2015184412A1 (en) * | 2014-05-30 | 2015-12-03 | Magic Leap, Inc. | Methods and system for creating focal planes in virtual and augmented reality |
CA2950432C (en) | 2014-05-30 | 2022-01-04 | Magic Leap, Inc. | Methods and systems for generating virtual content display with a virtual or augmented reality apparatus |
USD752529S1 (en) | 2014-06-09 | 2016-03-29 | Comcast Cable Communications, Llc | Electronic housing with illuminated region |
US9606622B1 (en) | 2014-06-26 | 2017-03-28 | Audible, Inc. | Gaze-based modification to content presentation |
JP2014222909A (ja) | 2014-07-02 | 2014-11-27 | パナソニック株式会社 | 表示装置、表示制御方法及び半導体装置 |
JP6573755B2 (ja) | 2014-07-10 | 2019-09-11 | 富士通株式会社 | 表示制御方法、情報処理プログラム、及び情報処理装置 |
US20160025971A1 (en) | 2014-07-25 | 2016-01-28 | William M. Crow | Eyelid movement as user input |
US9494799B2 (en) | 2014-09-24 | 2016-11-15 | Microsoft Technology Licensing, Llc | Waveguide eye tracking employing switchable diffraction gratings |
US20160131905A1 (en) | 2014-11-07 | 2016-05-12 | Kabushiki Kaisha Toshiba | Electronic apparatus, method and storage medium |
US20160131904A1 (en) | 2014-11-07 | 2016-05-12 | Osterhout Group, Inc. | Power management for head worn computing |
WO2016073986A1 (en) | 2014-11-07 | 2016-05-12 | Eye Labs, LLC | Visual stabilization system for head-mounted displays |
NZ773844A (en) | 2015-03-16 | 2022-07-01 | Magic Leap Inc | Methods and systems for diagnosing and treating health ailments |
USD758367S1 (en) | 2015-05-14 | 2016-06-07 | Magic Leap, Inc. | Virtual reality headset |
EP3109689A1 (en) | 2015-06-22 | 2016-12-28 | Nokia Technologies Oy | Transition from a display power mode to a different display power mode |
JP2017058853A (ja) | 2015-09-15 | 2017-03-23 | 株式会社コーエーテクモゲームス | 情報処理装置、動作制御方法、及び動作制御プログラム |
IL260939B2 (en) | 2016-02-11 | 2023-10-01 | Magic Leap Inc | Multi-depth planar display system with limited change between depth planes |
USD805734S1 (en) | 2016-03-04 | 2017-12-26 | Nike, Inc. | Shirt |
NZ756561A (en) | 2016-03-04 | 2023-04-28 | Magic Leap Inc | Current drain reduction in ar/vr display systems |
USD794288S1 (en) | 2016-03-11 | 2017-08-15 | Nike, Inc. | Shoe with illuminable sole light sequence |
IL261769B2 (en) | 2016-03-25 | 2024-08-01 | Magic Leap Inc | Virtual and augmented reality systems and methods |
CN109640785A (zh) | 2016-04-08 | 2019-04-16 | 维扎瑞尔股份公司 | 用于获得、聚集和分析视觉数据以评估人的视力性能的方法和系统 |
WO2018026737A1 (en) | 2016-08-02 | 2018-02-08 | Magic Leap, Inc. | Fixed-distance virtual and augmented reality systems and methods |
WO2020018938A1 (en) | 2018-07-19 | 2020-01-23 | Magic Leap, Inc. | Content interaction driven by eye metrics |
CN109147715A (zh) | 2018-08-28 | 2019-01-04 | 武汉华星光电技术有限公司 | 用于降低显示面板功耗的方法及低功耗的显示装置 |
-
2017
- 2017-03-02 NZ NZ756561A patent/NZ756561A/en unknown
- 2017-03-02 WO PCT/US2017/020522 patent/WO2017151974A1/en active Application Filing
- 2017-03-02 CN CN201780027169.8A patent/CN109074785B/zh active Active
- 2017-03-02 US US15/448,402 patent/US11320900B2/en active Active
- 2017-03-02 NZ NZ745738A patent/NZ745738A/en unknown
- 2017-03-02 CN CN202210361819.5A patent/CN114690881A/zh active Pending
- 2017-03-02 KR KR1020237023562A patent/KR20230109789A/ko not_active Application Discontinuation
- 2017-03-02 JP JP2018545667A patent/JP7190903B2/ja active Active
- 2017-03-02 KR KR1020187028590A patent/KR102370445B1/ko active IP Right Grant
- 2017-03-02 EP EP17760851.0A patent/EP3424038A4/en active Pending
- 2017-03-02 KR KR1020227006658A patent/KR102556320B1/ko active IP Right Grant
- 2017-03-02 CA CA3016032A patent/CA3016032C/en active Active
- 2017-03-02 IL IL291915A patent/IL291915B2/en unknown
- 2017-03-02 IL IL307287A patent/IL307287A/en unknown
- 2017-03-02 AU AU2017225977A patent/AU2017225977C1/en active Active
-
2018
- 2018-08-27 IL IL261394A patent/IL261394B/en unknown
-
2019
- 2019-08-19 US US16/544,707 patent/US10649527B2/en active Active
-
2020
- 2020-02-28 JP JP2020033116A patent/JP7274435B2/ja active Active
- 2020-05-12 US US15/930,386 patent/US11402898B2/en active Active
-
2021
- 2021-07-02 JP JP2021110759A patent/JP7280922B2/ja active Active
-
2022
- 2022-05-02 US US17/734,965 patent/US11775062B2/en active Active
- 2022-09-20 JP JP2022148941A patent/JP7387843B2/ja active Active
-
2023
- 2023-04-27 AU AU2023202546A patent/AU2023202546B2/en active Active
- 2023-06-20 US US18/338,235 patent/US20230333647A1/en active Pending
- 2023-11-15 JP JP2023194132A patent/JP2024020401A/ja active Pending
-
2024
- 2024-06-19 JP JP2024098682A patent/JP2024120919A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100118019A1 (en) * | 2008-11-12 | 2010-05-13 | International Business Machines Corporation | Dynamically Managing Power Consumption Of A Computer With Graphics Adapter Configurations |
US20150268720A1 (en) * | 2011-03-24 | 2015-09-24 | Seiko Epson Corporation | Device, head mounted display, control method of device and control method of head mounted display |
US20150029096A1 (en) * | 2012-02-07 | 2015-01-29 | Sharp Kabushiki Kaisha | Image display device |
US20140145914A1 (en) * | 2012-11-29 | 2014-05-29 | Stephen Latta | Head-mounted display resource management |
US20160048220A1 (en) * | 2014-08-14 | 2016-02-18 | Qualcomm Incorporated | Management for wearable display |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110716639A (zh) * | 2018-07-12 | 2020-01-21 | 苹果公司 | 具有基于眼睛活动的显示器操作的电子设备 |
US11782503B2 (en) | 2018-07-12 | 2023-10-10 | Apple Inc. | Electronic devices with display operation based on eye activity |
CN110658904A (zh) * | 2019-09-19 | 2020-01-07 | Oppo广东移动通信有限公司 | 控制终端电流的方法、装置、终端及存储介质 |
CN115546249A (zh) * | 2021-06-30 | 2022-12-30 | 托比股份公司 | 在眼动跟踪系统中节能的方法、计算机程序产品 |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109074785A (zh) | Ar/vr显示系统中的电流消耗减少 | |
JP7511070B2 (ja) | 周囲光源からの光を操作するためのシステムおよび方法 | |
CN103033936A (zh) | 具有虹膜扫描剖析的头戴式显示器 | |
US11538227B2 (en) | Flicker mitigation when toggling eyepiece display illumination in augmented reality systems | |
US20230030381A1 (en) | Display system with low-latency pupil tracker |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |