CN114660802A - 头戴式显示器和优化方法 - Google Patents
头戴式显示器和优化方法 Download PDFInfo
- Publication number
- CN114660802A CN114660802A CN202111557782.5A CN202111557782A CN114660802A CN 114660802 A CN114660802 A CN 114660802A CN 202111557782 A CN202111557782 A CN 202111557782A CN 114660802 A CN114660802 A CN 114660802A
- Authority
- CN
- China
- Prior art keywords
- display
- eye
- eye relief
- user
- signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000005457 optimization Methods 0.000 title description 2
- 230000004044 response Effects 0.000 claims abstract description 12
- 238000009877 rendering Methods 0.000 claims description 26
- 238000012545 processing Methods 0.000 claims description 18
- 210000001747 pupil Anatomy 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 4
- 230000001419 dependent effect Effects 0.000 claims description 3
- 230000008859 change Effects 0.000 description 9
- 210000004087 cornea Anatomy 0.000 description 9
- 230000002829 reductive effect Effects 0.000 description 7
- 238000005259 measurement Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 4
- 230000009467 reduction Effects 0.000 description 4
- 230000003247 decreasing effect Effects 0.000 description 3
- 230000000670 limiting effect Effects 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000005043 peripheral vision Effects 0.000 description 2
- 241000226585 Antennaria plantaginifolia Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000004418 eye rotation Effects 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000003760 hair shine Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
- H04N13/117—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0147—Head-up displays characterised by optical features comprising a device modifying the resolution of the displayed image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/327—Calibration thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
Abstract
本发明涉及一种头戴式显示系统,包括用于显示图像的显示器和用户透过其观察显示器的透镜。传感器系统检测适眼距并且向一个或多个处理器输出信号,该一个或多个处理器响应于适眼距信号修改显示器的输出。还公开了一种等效方法。
Description
技术领域
本发明涉及一种用于向用户显示图像的头戴式显示器,比如虚拟现实、增强现实或混合现实头戴设备。还公开了一种包括这种头戴式显示器的计算机系统。本发明还涉及一种改善头戴式显示器的性能的方法。最后,公开了一种用于执行该方法的计算机程序和计算机可读介质。
背景技术
头戴式显示器(HMD)被用在用于向用户显示图像的各种场景中。这些通常在扩展现实(XR)应用中。XR应用包括虚拟现实(VR)、增强现实(AR)和混合现实(MR),在虚拟现实中,人完全沉浸在由HMD提供的虚拟环境中,在增强现实中,人的真实世界环境补充有计算机生成的叠加层,在混合现实中,计算机生成的AR叠加层以使得计算机生成的对象与用户看到的真实世界交互的方式进行组合。
HMD的标准结构包括:使用户能够佩戴HMD的框架或条带、包括HMD的电子器件并且用户在其中观察的壳体、以及向用户的眼睛显示图像的一个或多个显示器。因为显示器必须非常靠近用户的眼睛显示,所以透镜介入于每只眼睛与一个或多个显示器之间,这样允许用户的眼睛在允许眼睛聚焦的距离处聚焦在显示器的虚拟图像上。
透镜和显示器的布置意味着:根据用户的眼睛与透镜之间的距离,透过透镜的视图、特别是用户可见的显示量可以变化。眼睛与透镜之间的距离被称为适眼距(eyerelief),并且其对用户视场的影响在图1a和图1b中进行描述。更具体地,对于本文讨论的问题,适眼距在眼睛的入射光瞳与透镜之间。然而,适眼距也可以被认为在透镜表面与角膜表面之间。出于讨论的目的,有必要与在其间进行测量的边界保持一致。
如从图1a可以看出,眼睛透过透镜12、22可以接收光的角度α1在具有适眼距dER1的左侧图像10中比在具有适眼距dER2的右侧图像20中的角度α2大得多。透过透镜12、22的视场差异自身表现为位于透镜的与眼睛不同的另一端处的显示器的可视角度的减小。
图1b中示出了透过每个透镜观察的显示器的视场(FOV)的示例差异。适眼距的变化意味着显示器36、46透过具有固定光焦度的透镜观察到的视图将改变。如左侧图像中所示,更靠近透镜32相比相对于更远离透镜42的眼睛中所示的FOV 44给予更大的FOV 34。在每个适眼距处显示器的可见的区域因此可根据适眼距而变化。每种布置的FOV 34、44被显示在图1b中,面向观察者,从而突出展示可见区域的差异。在所描述的实施例中,FOV被显示为圆形,因为组件中的透镜是圆形的。也可以使用其他形状的透镜,并且这些透镜将根据它们的形状得到不同的FOV。
在不能在HMD中调整适眼距的情况下,用户头部的不同轮廓将导致每个用户的适眼距不同。典型的分布可能如下(由于四舍五入,总和为100.1%):
当然,一些HMD因此包括调整每个用户的ER的能力。然而,尽管这可能缓解最极端的ER的情况,但是在人群中仍然存在大范围的ER,并且在使用期间可能会变化。
本公开的目的是使用适眼距测量来改善头戴式显示器的性能,比如改善图像处理和/或图像生成。
发明内容
根据第一方面,提供了一种头戴式显示系统,包括:
显示器,该显示器用于向用户的眼睛显示图像;
透镜,该透镜置于用户的眼睛与该显示器之间,用户通过该透镜观察该显示器;
适眼距传感器,该适眼距传感器被配置为检测适眼距并且输出指示该适眼距的适眼距信号;以及
至少一个处理器,该至少一个处理器被配置为接收该适眼距信号并且响应于该适眼距信号修改该显示器的输出。
通过测量和处理适眼距信号,可以对显示器进行修改,使得显示器针对所测得的适眼距被优化,从而减少与头戴式显示系统结合使用的图像处理设备上的工作量。
适眼距在在本申请的背景下通常用作表示HMD上的点与用户上的某个点之间的测量距离的术语。通常地,HMD上的这个点将是用户透过其进行观察的透镜的一部分,且更具体地是本领域中称为透镜顶点的透镜顶表面上的点。类似地,用户上的这个点可以是用户的眼睛的入射光瞳。当然,适眼距信号可以不直接测量这些位置,而是可以通过测量用户和HMD的其他部分并且应用偏移来提供指示这些位置的信号。例如,适眼距信号可以是适眼距传感器与用户的眼睛的角膜之间的距离测量,因为眼睛的角膜是眼睛最靠近透镜顶点的部分。然后可以应用一个或多个偏移,以便考虑角膜与入射光瞳之间的标准或平均距离、以及适眼距传感器与HMD的透镜或显示器之间的已知距离。眼睛的入射光瞳提供了最大的益处,因为它定义了用户看到的实际视野。然而,在靠近入射光瞳的位置作出另一测量也将提供益处,并且可以更容易确定。
显示器的输出可以在显示器的一部分中被修改。显示器的剩余部可以保持不被修改。
显示器的前述被修改的部分可以是显示器的外围部分。以这种方式,显示器的极端部分(用户在该部分无法观察到显示内容)可以被修改,同时对显示器的更中心部分提供较少修改或没有修改。外围部分可以围绕显示器的整个外围、或者可以围绕显示器的外围的一部分。
显示器的部分的尺寸可以取决于适眼距信号。显示器被修改的部分(例如不再被渲染的部分)可能随着适眼距信号指示适眼距增加而扩大。相反,如果适眼距信号指示适眼距减小,则被修改的显示器的部分可能减小。
可以通过改变显示器上渲染的总区域来修改显示器的输出。通过减小显示器上渲染的总区域,可以减少HMD或与HMD通信的其他系统的处理负荷。
当适眼距信号指示适眼距增加时,显示器上渲染的总区域可以减小。
可替代地,可以简化渲染的总区域。例如,显示器的不需要的区域可以被渲染为需要的处理量最少的颜色块,比如黑色块。
可以通过改变显示器的渲染质量来修改显示器的输出。
“渲染质量”可以包括分辨率、阴影和细节层次(LOD)中的一者或多者。
传感器系统可以包括用于跟踪用户的注视方向的眼动追踪系统,该眼动追踪系统将眼动追踪信号输出至处理器。
至少一个处理器可以被配置为响应于眼动追踪信号进一步修改显示器的输出。至少一个处理器可以利用眼动追踪信号,以便更好地确定显示器的可见部分、或者以便提供进一步的修改,比如中央凹渲染。
至少一个处理器可以被进一步配置为一起处理眼动追踪信号和适眼距信号,以产生指示显示器的用户可见的区域的信号。
在头戴式显示系统的继续使用期间,可以更新适眼距信号,并且可以相应地修改显示器。
可替代地,适眼距信号可以在头戴式显示系统的初始使用时段期间(比如在校准过程期间)产生,并且在头戴式显示系统的继续使用期间可以是静态的。
适眼距信号可以包括指示距注视原点的Z距离的分量。Z距离是在垂直于从透镜中心延伸到透镜边缘的平面的方向上,从用户的每只眼睛朝向头戴式显示系统的相应透镜的距离。
适眼距信号可以包括指示距眼睛的入射光瞳的Z距离的分量。Z距离是从用户的每只眼睛朝向HMD的相应透镜的方向上的距离。
适眼距信号可以包括至少一个预定偏移。预定偏移可以考虑到显示器的可见区域取决于从眼睛的特定部分到头戴式显示系统的透镜的长度。如果由传感器系统测量的距离不在这些特定部分之间,则使用一个或多个偏移可以允许校正该测量以用于进一步处理。
预定偏移可以包括鉴于眼睛矫正装置(比如镜片或隐形透镜)的处方的输入强度来修改适眼距信号的项。处方眼镜可以修改有效的适眼距,即它们使入射光瞳的有效3D位置移动,从而使其比原本应有的更近或更远,因此考虑到这一事实可以用于使本系统更有效。
根据第二方面,提供了一种改善头戴式显示系统的性能的方法,该方法包括:
使用传感器系统,检测该头戴式显示系统的用户的适眼距并且输出指示该适眼距的适眼距信号;
使用至少一个处理器,接收该适眼距信号;以及
使用该至少一个处理器,响应于该适眼距信号修改该显示器的输出。
修改显示器的输出可以包括修改显示器的一部分。显示器的剩余部可以保持不被修改。
显示器的前述被修改的部分可以是显示器的外围部分。以这种方式,显示器的极端部分(用户在该部分无法观察到显示内容)可以被修改,同时对显示器的更中心部分提供更少修改或没有修改。外围部分可以围绕显示器的整个外围、或者可以围绕显示器的外围的一部分。
显示器的部分的尺寸可以取决于适眼距信号。显示器被修改的部分(例如不再被渲染的部分)可能随着适眼距信号指示适眼距增加而扩大。相反,如果适眼距信号指示适眼距减小,则被修改的显示器的部分可能减小。
可以通过改变显示器上渲染的总区域来修改显示器的输出。通过减小显示器上渲染的总区域,可以减少HMD或与HMD通信的其他系统的处理负荷。
当适眼距信号指示适眼距增加时,显示器上渲染的总区域可以减小。
可以通过改变显示器的渲染质量来修改显示器的输出。
“渲染质量”可以包括分辨率、阴影和细节层次(LOD)中的一者或多者。
该方法可以进一步包括使用眼动追踪系统跟踪用户的注视方向,并且从眼动追踪系统将眼动追踪信号输出至处理器。
该方法可以进一步包括响应于眼动追踪信号修改显示器的输出。至少一个处理器可以利用眼动追踪信号,以便更好地确定显示器的可见部分、或者以便提供进一步的修改,比如中央凹渲染。
该方法可以进一步包括一起处理眼动追踪信号和适眼距信号,以产生指示显示器的用户可见的区域的信号。
该方法可以进一步包括在HMD的继续使用期间更新适眼距信号,并且相应地修改显示器。
该方法可以进一步包括在HMD的初始使用时段期间(比如在校准过程期间)生成适眼距信号,并且在HMD的继续使用期间维持适眼距信号。
适眼距信号可以包括指示距注视原点的Z距离的分量。Z距离是在垂直于从透镜中心延伸到透镜边缘的平面的方向上的距离。
适眼距信号可以包括指示距眼睛的入射光瞳的Z距离的分量。Z距离是从用户的每只眼睛朝向HMD的相应透镜的方向上的距离。
适眼距信号可以包括至少一个预定偏移。预定偏移可以考虑到显示器的可见区域取决于从眼睛的特定部分到HMD的透镜的长度。如果由传感器系统测量的距离不在这些特定部分之间,则使用一个或多个偏移可以允许校正该测量以用于进一步处理。
根据第三方面,提供了一种具有指令的计算机程序,这些指令在被至少一个处理器执行时,使得该至少一个处理器执行改善头戴式显示系统的性能的方法,该方法包括:
使用传感器系统,检测HMD的用户的适眼距并且输出指示该适眼距的适眼距信号;
接收该适眼距信号;以及
响应于该适眼距信号修改该显示器的输出。
该方法可以进一步包括关于第二方面提到的任何附加的或可选的特征。
根据第四方面,提供了一种计算机可读介质,在该计算机可读介质上存储有根据第三方面的计算机程序。
附图说明
现在将参考附图来详细描述特定实施例,在附图中:
图1a和图1b是适眼距如何影响HMD中的视角和FOV的简化描绘;
图2是根据第一方面的头戴式显示系统的简化视图;
图3是图2的头戴式显示系统的电子器件的示意图;
图4是示出根据第二方面的方法的步骤的流程图;
图5是图2的头戴式显示系统的显示器的操作的描绘;
图6是图2的头戴式显示系统的显示器的替代操作的描绘;以及
图7是图2的头戴式显示系统的显示器的另一替代操作的描绘。
具体实施方式
图2中描绘了头戴式显示系统100(称为“HMD”)。HMD 100包括壳体102,在该壳体内容纳两个显示器104、106。设置有两个透镜108、110,用户可以透过这两个透镜观察显示器104、106。用户的每只眼睛112、114可以透过相应的透镜108、110看到一个显示器104、106,即用户的右眼114只可以看到右侧显示器106,而用户的左眼112只可以看到左侧显示器104。当然,HMD可以仅包括双眼可观察的单个显示器,而不是设置两个显示器104、106。在这种情况下,显示器将包括只对两只眼睛中的一只眼睛可见的显示区,以便向眼睛提供立体视图。HMD 100还将包括用于使得用户可佩戴HMD 100的条带或安装件。然而,为清楚起见,在说明书中不再赘述。
还设置有眼动追踪系统116。在所描绘的实施例中,眼动追踪系统116包括两个眼动追踪相机118、120,每个眼动追踪相机旨在跟踪用户的眼睛112、114之一的运动。眼动追踪系统116在图3中以示意形式描绘。本实施例的眼动追踪系统116利用瞳孔中心角膜反射(PCCR)来跟踪眼睛112、114的运动,因此每个相机118、120具有相关联的发光器122、124,这些发光器照射在用户的眼睛112、114处,以便产生闪光,即眼动追踪系统116可以用来检测用户的注视方向的反射。也可以有替代PCCR的其他眼动追踪方法,其选项对于本申请背景下的技术人员而言将是已知的。
从眼动追踪系统116输出的信号由处理器接收,该处理器在所描述的实施例中是CPU 126。进而,这些信号可以由CPU 126处理,以便控制两个显示器104、106中的每一个显示器的输出。两个显示器104、106的渲染由图形处理单元(GPU)128执行,该图形处理单元经由有线连接或无线连接与CPU 126通信。本实施例的GPU128位于HMD 100所附接到的外部计算机中。
虽然所描述的实施例指的是HMD内部的CPU和HMD外部的GPU,但是这只是多种可能布置中的一种。处理可以在HMD内或HMD外部的单个处理器中进行。可替代地,可以使用不止一个处理器,并且所有的处理器可以位于HMD内,所有的处理器可以位于HMD外部,或者一些处理器可以位于HMD内、而其他处理器可以位于HMD外部。处理也可以在一个或多个外部服务器中执行,例如在云计算系统中执行。
在使用云计算的情况下,本发明可能由于以下事实而具有额外的益处:渲染区域的降低可以允许系统例如以与独立于适眼距而渲染显示器的整个区域的等效系统所用的帧速率相比更高的帧速率操作。
参考前面的附图和图4的流程图描述了HMD 100的操作的方法。
CPU从眼动追踪系统116接收S102眼动追踪信号,包括指示用户的适眼距的适眼距信号。适眼距是用户的眼睛与HMD 100的透镜108、110之间的距离的度量。可以存在指示两只眼睛112、114的适眼距的单个适眼距信号,例如两只眼睛一起来看的平均适眼距、最大适眼距或最小适眼距,或者可以针对每只眼睛112、114接收单独的适眼距信号。
适眼距信号可以由眼动追踪系统116计算,例如通过使用由眼动追踪系统116中的发光器122、124引起的闪光的位置来确定从每个发光器122、124到角膜的距离。由于每个发光器122、124相对于相应相机118、120的位置是已知的,透镜108、110的位置也是已知的,因此可以使用几何学来确定角膜与透镜108、110之间的距离。透镜108、110与角膜之间的距离(通常称为Z距离)是眼动追踪系统116的正常输出信号。
如果要求适眼距信号处于眼睛的入射光瞳与透镜108、110之间,则可以应用预定偏移,该预定偏移等于角膜与入射光瞳之间的平均距离。该预定偏移可以是2mm到3mm。
适眼距的确定也可以考虑用户的注视角度,以便产生更准确的信号。随着眼睛转动,角膜的中心将相对于眼睛的转动中心转动,因此角膜与透镜108、110之间的距离将改变。注视的方向因此可以用于修改适眼距信号。
CPU 126使用眼动追踪信号来确定S104显示器104、106的哪些部分对用户可见。显示器104、106的可见部分由CPU 126通过参考查找表来计算,该查找表将显示器104、106的已知可见部分与由眼动追踪系统116指示的适眼距相关联。这是可能的,因为当适眼距是特定距离时,显示器104、106可见的部分对于任何用户将是相同的。因此,查找表可以预先确定并且被存储在存储器中。存储在查找表中的值最初是在知道HMD 100的部件(且具体是显示器104、106和透镜108、110)的尺寸、特性、以及相对位置和/或大小(例如,透镜108、110的直径)的情况下计算的。
可替代地,显示器104、106的可见部分可以通过在系统使用期间由CPU 126执行的计算来确定。例如,简单的几何计算可以在知道用户的适眼距和HMD 100的几何形状的情况下计算显示器的可见性。
在一些布置中,透镜108、110的形状也可能影响可见的显示区域。例如,一些透镜包括切口部分,以便贴合在用户的鼻子周围。在这种情况下,该处理器或每个处理器可以在确定在每个适眼距处要渲染显示器的哪些区域时考虑透镜的形状。
一旦已经通过处理器确定显示器104、106的可见部分,CPU 126于是将确定待渲染的图像并且该信息可以被传送S106到GPU 128。GPU 128进而将仅渲染S108显示器104、106的图像的对HMD 100的用户将可见的那部分。以这种方式,GPU 128的总渲染工作负荷可以降低到仅用户能够看到的工作负荷,这样可以提高例如HMD100的延迟、渲染质量、帧速率和功耗。一旦GPU 128已经渲染图像,每个图像被馈送S110到HMD的显示器。
在针对每只眼睛单独确定适眼距的情况下,根据每只眼睛112、114的特定适眼距,CPU 126和GPU 128将分别确定和渲染显示器104、106的不同区域。
图5是当前HMD 100的操作在每个显示器104、106上渲染的总区域上的差异的描述。图5中示出了一个显示器104,不过将显而易见的是,当所描述的方法运行时,两个显示器104、106都将受到影响。
显示器104的总区域被显示为矩形。同心圆标示矩形内代表显示器104的不同部分的区域130、132、134,这些区域根据眼动追踪系统116确定的适眼距来渲染。可见区域由于透镜108的作用而被近似表示为圆,在本实施例中为圆形。对于本领域技术人员而言将显而易见的是,显示器104上的实际渲染区域可以不是圆形的,因为可能存在由透镜108引入到图像中的失真(例如枕形失真),因此显示器104上渲染的图像必须包括该失真的逆变换,以便向用户正确地显示被渲染的图像。
最外面区域130是当适眼距最小(在这种情况下为15mm)时用户可见的区域。可见区域130因此是最大的,并且包含显示器104总区域的大部分。将显而易见的是,显示器104的未被渲染的区域,即显示器的最外面区域130之外的所有区域,对于HMD 100的用户是不可见的,因此不需要在这些部分上显示图像。在无需背光灯来照亮每个像素的情况下,比如在OLED显示器中,一部分像素将不发射任何光的事实将使得显示器104的整体功耗较低。
在图5的示例中,显示器104的可见区域可以随着用户眼睛的移动而改变,这是由于眼睛转动引起的视点变化,但是它主要取决于适眼距。这样,将存在显示器的非活动部分,这些非活动部分不能被用户观察,并且不会影响到用户对HMD 100的体验。
另外两个圆或区域132、134描绘了潜在用户的另外两个适眼距的可见区域。例如,最里面区域132描绘了25mm适眼距处的可见区域,而中间区域134描绘了20mm适眼距处的可见区域。本领域技术人员将会清楚,显示器104的可见区域越小,用户的适眼距越大。这样,显示器104的更大部分不被用于显示图像。
将显而易见的是,用户的适眼距不限于三个不同的值,因此系统可以以较小的增量(比如每毫米或每两毫米)改变被渲染的区域。可替代地,被渲染的区域可以基于适眼距的测量连续可变,该测量仅受眼动追踪系统116生成的适眼距信号的分辨率的限制。在这种情况下,为了不需要为适眼距的每个可能变化生成查找表,可以在HMD100的操作期间使用算法由一个或多个处理器计算被渲染的区域。
如下表中所示,改变适眼距度可能对显示器104的可视区域产生显著影响。为了比较的目的,表中的值基于透镜与显示器之间的经假定的50mm距离、以及60×60mm显示器尺寸。
如可以看出的,适眼距增加20mm可以引起使用户的可视区域减少80%。因此,如果系统将用户的身体限制条件考虑在内,则处理和电池等方面的节省可以非常大。
图6示出了系统的另一种操作方法对显示器上可视的内容的影响。在该方法中,CPU 126还从眼动追踪系统116接收注视跟踪信号。因此,CPU 126可以发指令给GPU 128以对待显示的图像进行中央凹渲染,即,基于用户的注视的位置改变被显示的图像的分辨率。
在图6中,用户具有的适眼距为15mm,且因此用户可见的总区域由大圆136描绘。然而,由于眼动追踪系统116也在跟踪用户的注视,因此可以确定实际可见区域(即用户在任何时候可以看到的区域)实际上小于潜在可见的总区域。要渲染的区域因此可以缩小相同的量。
处理器因此考虑用户的注视方向来确定实际可见区域138,并且发指令给GPU以渲染可见的区域。如前所述,为了确定显示器104的可见区域138,CPU 126可以参考不仅包括适眼距而且包括注视方向的查找表,或者CPU 126可以使用算法来确定可见区域138。
除了确定可见区域138之外,CPU 126还确定注视所聚焦在的显示器的区域,且因此可以利用人眼仅可以在相对小的视觉区域中清楚地看到的事实,该视觉区域由称为中央凹的视网膜的部分提供。由于这种现象,不需要以全分辨率渲染整个可见区域。而是,直接在注视点周围的图像部分(称为中央凹区140)可以以全分辨率渲染,并且在此之外的可视区域的部分可以以较低分辨率渲染。这在图6中示出。通过限制中央凹区140外部区域的分辨率,可以进一步减少GPU 128所需的处理总量,而不会对用户体验有任何不利影响。
随着用户的注视移动,中央凹区140也将移动。因此,考虑到用户的当前注视方向,CPU 126将需要持续更新需要渲染的区域。虽然GPU 128的处理因此被进一步减少,但是CPU126可能在提供中央凹渲染时比仅跟踪用户的适眼距时具有更大的工作负荷。
如关于图6所讨论的,眼睛向两侧的移动可能对显示器的可视区域产生进一步的限制作用。再次假设显示50mm的透镜到显示器距离和60×60mm显示器,下表示出了眼睛向两侧的转动如何对可视区域产生显著影响。
在这些情况下,用户正在观察的一侧在外围中具有较低的视野,而用户目前不在观察的一侧在外围中将具有较大的视野。由于人的周边视觉不如中央凹视觉那么细致,因此中央凹渲染可以在确定要渲染多少显示器时考虑这一点。当不使用中央凹渲染时,比如在下文描述的实施例中,可以简单地不渲染在用户不直接看的方向上的显示器部分,因为用户的周边视觉无论如何都不能正确地区分图像。
在另一实施例中,CPU 126利用如先前实施例中的眼动追踪信号和适眼距信号,但是系统不执行中央凹渲染。如图7中可以看见,总的可见区域再次被描绘为圆,并且仅依赖于用户的适眼距。还示出了注视点。由于注视点稍微在眼中心的右边,所以将显而易见的是用户将不再能够看到最左边的显示器区域,即虽然用户可以透过透镜看到屏幕的该区域,但是在当前时间,最左边的部分由于用户的注视方向而不可见。这样,总可见区域中的不可见的区域不需要由GPU渲染。
然而,注视点朝向右的运动不会在总可视区域的右侧引起额外的渲染,因为这将由于透镜连同用户的适眼距而保持不可见。以这种方式,可以通过考虑用户的注视方向而减少总渲染区域,但是不实施中央凹渲染。这意味着处理器将需要连续地接收注视跟踪信号,并且将该信号馈送到GPU,以指示正确区域的渲染,但是不需要像实施中央凹渲染时那样精确的眼动追踪数据。
在不需要眼动追踪信号的实施例中,传感器系统可以利用不同于眼动追踪传感器的传感器来检测用户的适眼距。可以使用适于检测HMD的一部分与用户的眼睛之间的距离的任何其他传感器。这种传感器的具体但非限制性的示例包括飞行时间传感器、超声波传感器和电容传感器。还有可能的是由用户手动调整适眼距设置,这样手动地控制透镜离用户的眼睛多远。在这种情况下,传感器系统将适于使用任何合适形式的传感器来确定手动适眼距设置的调整。当然,在使用手动调整的情况下,将不得不基于手动设置的距离对用户可能的实际适眼距做出假设。可以为此目的使用预定偏移,该预定偏移基于普通用户在该手动距离设置下的适眼距。
在一些实施例中,当确定要渲染多少显示器时,包括一定程度的用户反馈可能是有利的。这样可以确保存在一定程度的灵活性来考虑系统的任何容差,且特别是适眼距信号。例如,至少一个处理器可以被配置为执行校准,其中显示器的被渲染的区域随着时间而变化并且用户指示它们何时能够或者不能够看到被渲染的图像的边缘。因此,系统可以响应于用户反馈来获知或细化显示器上的被渲染的区域。
在上述每一个实施例中,要么通过完全不渲染显示器的某些区域、要么通过降低显示器的某些区域的渲染质量(例如通过降低分辨率),提供所需的GPU功率的降低。然而,这些实施例或其他实施例可以利用修改显示器的输出的其他方法,以便提供类似的益处。例如,显示器可以通过对显示器的一些部分提供较低的内容质量、而不是通过从显示器的一些部分完全移除内容来修改。例如,这可以通过降低显示器的某些部分的分辨率或者通过修改数据的压缩来实现。任何减少GPU工作负荷的方法可以与本公开结合使用,并且这些方法对于本公开背景下的技术人员而言是显而易见的。
Claims (20)
1.一种头戴式显示系统,包括:
显示器,所述显示器用于向用户的眼睛显示图像;
透镜,所述透镜置于所述用户的眼睛与所述显示器之间,所述用户透过所述透镜观察所述显示器;
传感器系统,所述传感器系统被配置为检测适眼距并且输出指示所述适眼距的适眼距信号;以及
至少一个处理器,所述至少一个处理器被配置为接收所述适眼距信号并且响应于所述适眼距信号修改所述显示器的输出。
2.如权利要求1所述的头戴式显示系统,其中,在所述显示器的一部分中修改所述显示器的输出。
3.如权利要求2所述的头戴式显示系统,其中,所述显示器的所述一部分的尺寸取决于所述适眼距信号。
4.如任一前述权利要求所述的头戴式显示系统,其中,所述显示器的输出通过以下中的至少一项被修改:
改变所述显示器上渲染的总区域;以及
改变所述显示器的渲染质量。
5.如任一前述权利要求所述的头戴式显示系统,其中,所述传感器系统包括眼动追踪系统,所述眼动追踪系统用于跟踪所述用户的注视方向,所述眼动追踪系统将眼动追踪信号输出至所述至少一个处理器。
6.如权利要求5所述的头戴式显示系统,其中,所述至少一个处理器被配置为响应于所述眼动追踪信号进一步修改所述显示器的输出。
7.如权利要求5或权利要求6所述的头戴式显示系统,其中,所述至少一个处理器被配置为一起处理所述眼动追踪信号和所述适眼距信号以产生指示所述显示器的所述用户可见的区域的信号。
8.如任一前述权利要求所述的头戴式显示系统,其中,所述适眼距信号包括指示距注视原点的Z距离的分量或指示距所述眼睛的入射光瞳的Z距离的分量。
9.如任一前述权利要求所述的头戴式显示系统,其中,所述至少一个处理器包括图形处理单元GPU,所述图形处理单元被配置为渲染图像以供在所述至少一个显示器上显示。
10.如权利要求9所述的头戴式显示系统,其中,所述至少一个处理器包括中央处理单元CPU,所述中央处理单元被配置为向所述GPU提供渲染指令。
11.一种改善头戴式显示系统性能的方法,所述方法包括:
使用传感器系统,检测所述头戴式显示系统的用户的适眼距并且输出指示所述适眼距的适眼距信号;
使用至少一个处理器,接收所述适眼距信号;以及
使用所述至少一个处理器,响应于所述适眼距信号修改所述显示器的输出。
12.如权利要求11所述的方法,其中,修改所述显示器的输出的步骤包括修改所述显示器的一部分。
13.如权利要求12所述的方法,其中,所述显示器的所述一部分的尺寸取决于所述适眼距信号。
14.如权利要求11至13中任一项所述的方法,其中,修改所述显示器的输出的步骤包括以下中的至少一个:
改变所述显示器上渲染的总区域;以及
改变所述显示器的渲染质量。
15.如权利要求11至14中任一项所述的方法,进一步包括:使用眼动追踪系统跟踪所述用户的注视方向,并且从所述眼动追踪系统将眼动追踪信号输出至所述至少一个处理器的步骤。
16.如权利要求15所述的方法,进一步包括:响应于所述眼动追踪信号修改所述显示器的输出的步骤。
17.如权利要求15或权利要求16所述的方法,进一步包括:所述至少一个处理器一起处理所述眼动追踪信号和所述适眼距信号以产生指示所述显示器的所述用户可见的区域的信号的步骤。
18.如权利要求11至17中任一项所述的方法,其中,所述适眼距信号包括指示距注视原点的Z距离的分量或指示距所述眼睛的入射光瞳的Z距离的分量。
19.一种具有指令的计算机程序,所述指令在被至少一个处理器执行时,使得所述至少一个处理器执行改善头戴式显示系统的性能的方法,所述方法包括:
使用传感器系统,检测所述HMD的用户的适眼距并且输出指示所述适眼距的适眼距信号;
接收所述适眼距信号;以及
响应于所述适眼距信号修改所述显示器的输出。
20.一种计算机可读介质,在所述计算机可读介质上存储有根据权利要求19的计算机程序。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
SE2051559A SE2051559A1 (en) | 2020-12-23 | 2020-12-23 | Head-mounted display and method of optimisation |
SE2051559-9 | 2020-12-23 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114660802A true CN114660802A (zh) | 2022-06-24 |
Family
ID=78829637
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111557782.5A Pending CN114660802A (zh) | 2020-12-23 | 2021-12-20 | 头戴式显示器和优化方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220197029A1 (zh) |
EP (1) | EP4020057A1 (zh) |
CN (1) | CN114660802A (zh) |
SE (1) | SE2051559A1 (zh) |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7961117B1 (en) * | 2008-09-16 | 2011-06-14 | Rockwell Collins, Inc. | System, module, and method for creating a variable FOV image presented on a HUD combiner unit |
KR20160006049A (ko) * | 2014-07-08 | 2016-01-18 | 엘지전자 주식회사 | 헤드 마운티드 디스플레이 장치 |
US20160028788A1 (en) * | 2014-07-25 | 2016-01-28 | Tribune Digital Ventures, Llc | Retrieval and playout of media content |
KR101590825B1 (ko) * | 2014-09-01 | 2016-02-02 | 한국과학기술연구원 | 헤드 마운티드 디스플레이 장치용 복합 렌즈 및 이를 포함하는 디스플레이 장치 |
KR20170017608A (ko) * | 2015-08-07 | 2017-02-15 | 엘지전자 주식회사 | 헤드 마운티드 디스플레이 |
US20170104731A1 (en) * | 2015-10-13 | 2017-04-13 | Google Inc. | Storing decrypted body of message and key used to encrypt and decrypt body of message |
KR20180035361A (ko) * | 2016-09-29 | 2018-04-06 | (주)그린광학 | 조준 감시 장치 |
KR101850973B1 (ko) * | 2016-10-13 | 2018-04-23 | (주)그린광학 | 조준 감시 시스템 |
KR101901985B1 (ko) * | 2017-07-12 | 2018-11-08 | 서울대학교산학협력단 | 증강 현실을 제공하는 장치 |
WO2019104413A1 (en) * | 2017-12-03 | 2019-06-06 | Frank Jones | Enhancing the performance of near-to-eye vision systems |
US20190302881A1 (en) * | 2018-03-29 | 2019-10-03 | Omnivision Technologies, Inc. | Display device and methods of operation |
US20190377191A1 (en) * | 2018-06-08 | 2019-12-12 | Sony Interactive Entertainment Inc. | Head-mountable display device and method |
US20200051320A1 (en) * | 2017-02-12 | 2020-02-13 | Lemnis Technologies Pte. Ltd. | Methods, devices and systems for focus adjustment of displays |
TWI688254B (zh) * | 2018-12-11 | 2020-03-11 | 宏碁股份有限公司 | 立體顯示裝置及其參數校正方法 |
US20200183169A1 (en) * | 2018-12-10 | 2020-06-11 | Kura Technologies | Ar headsets with improved pinhole mirror arrays |
US20200211512A1 (en) * | 2018-12-27 | 2020-07-02 | Facebook Technologies, Llc | Headset adjustment for optimal viewing |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4560368B2 (ja) * | 2004-10-08 | 2010-10-13 | キヤノン株式会社 | 眼検出装置および画像表示装置 |
JP6270674B2 (ja) * | 2014-02-27 | 2018-01-31 | シチズン時計株式会社 | 投影装置 |
US10373297B2 (en) * | 2016-10-26 | 2019-08-06 | Valve Corporation | Using pupil location to correct optical lens distortion |
US10627627B2 (en) * | 2017-10-02 | 2020-04-21 | Google Llc | Eye tracking using light guide with faceted combiner |
KR20190067523A (ko) * | 2017-12-07 | 2019-06-17 | 엘지전자 주식회사 | 글래스 타입 단말기 및 그것의 동작방법 |
WO2021239223A1 (en) * | 2020-05-27 | 2021-12-02 | Telefonaktiebolaget Lm Ericsson (Publ) | Method and device for controlling display of content |
-
2020
- 2020-12-23 SE SE2051559A patent/SE2051559A1/en not_active Application Discontinuation
-
2021
- 2021-12-10 EP EP21213642.8A patent/EP4020057A1/en active Pending
- 2021-12-20 CN CN202111557782.5A patent/CN114660802A/zh active Pending
- 2021-12-22 US US17/559,295 patent/US20220197029A1/en not_active Abandoned
Patent Citations (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7961117B1 (en) * | 2008-09-16 | 2011-06-14 | Rockwell Collins, Inc. | System, module, and method for creating a variable FOV image presented on a HUD combiner unit |
KR20160006049A (ko) * | 2014-07-08 | 2016-01-18 | 엘지전자 주식회사 | 헤드 마운티드 디스플레이 장치 |
US20160028788A1 (en) * | 2014-07-25 | 2016-01-28 | Tribune Digital Ventures, Llc | Retrieval and playout of media content |
US20200351320A1 (en) * | 2014-07-25 | 2020-11-05 | Gracenote Digital Ventures, Llc | Retrieval and Playout of Media Content |
KR101590825B1 (ko) * | 2014-09-01 | 2016-02-02 | 한국과학기술연구원 | 헤드 마운티드 디스플레이 장치용 복합 렌즈 및 이를 포함하는 디스플레이 장치 |
KR20170017608A (ko) * | 2015-08-07 | 2017-02-15 | 엘지전자 주식회사 | 헤드 마운티드 디스플레이 |
US20170104731A1 (en) * | 2015-10-13 | 2017-04-13 | Google Inc. | Storing decrypted body of message and key used to encrypt and decrypt body of message |
KR20180035361A (ko) * | 2016-09-29 | 2018-04-06 | (주)그린광학 | 조준 감시 장치 |
KR101850973B1 (ko) * | 2016-10-13 | 2018-04-23 | (주)그린광학 | 조준 감시 시스템 |
US20200051320A1 (en) * | 2017-02-12 | 2020-02-13 | Lemnis Technologies Pte. Ltd. | Methods, devices and systems for focus adjustment of displays |
KR101901985B1 (ko) * | 2017-07-12 | 2018-11-08 | 서울대학교산학협력단 | 증강 현실을 제공하는 장치 |
WO2019104413A1 (en) * | 2017-12-03 | 2019-06-06 | Frank Jones | Enhancing the performance of near-to-eye vision systems |
CN110322818A (zh) * | 2018-03-29 | 2019-10-11 | 豪威科技股份有限公司 | 显示装置及操作方法 |
US20190302881A1 (en) * | 2018-03-29 | 2019-10-03 | Omnivision Technologies, Inc. | Display device and methods of operation |
US20190377191A1 (en) * | 2018-06-08 | 2019-12-12 | Sony Interactive Entertainment Inc. | Head-mountable display device and method |
US20200183169A1 (en) * | 2018-12-10 | 2020-06-11 | Kura Technologies | Ar headsets with improved pinhole mirror arrays |
TWI688254B (zh) * | 2018-12-11 | 2020-03-11 | 宏碁股份有限公司 | 立體顯示裝置及其參數校正方法 |
US20200186787A1 (en) * | 2018-12-11 | 2020-06-11 | Acer Incorporated | Stereoscopic display device and parameter calibration method thereof |
US20200211512A1 (en) * | 2018-12-27 | 2020-07-02 | Facebook Technologies, Llc | Headset adjustment for optimal viewing |
Also Published As
Publication number | Publication date |
---|---|
US20220197029A1 (en) | 2022-06-23 |
EP4020057A1 (en) | 2022-06-29 |
SE2051559A1 (en) | 2022-06-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10643307B2 (en) | Super-resolution based foveated rendering | |
US11480804B2 (en) | Distributed foveated rendering based on user gaze | |
CN111124104B (zh) | 使用瞳孔中心位置的映射进行注视跟踪 | |
US11736674B2 (en) | Dynamic convergence adjustment in augmented reality headsets | |
US10674141B1 (en) | Apparatuses, systems, and methods for determining interpupillary distances of head-mounted displays | |
CN105093796A (zh) | 显示装置 | |
US11308685B2 (en) | Rendering computer-generated reality text | |
US20220358711A1 (en) | Method for processing images, near-eye display device, computer device, and storage medium | |
JP2022517990A (ja) | Hmd内のディスプレイパネルおよび/または仮想カメラの反対への回転 | |
WO2019217260A1 (en) | Dynamic foveated display | |
US10878781B2 (en) | Image processing method and head-mounted display system | |
CN113534949A (zh) | 头戴式显示设备及其控制方法 | |
CN114660802A (zh) | 头戴式显示器和优化方法 | |
Hwang et al. | 23.4: Augmented Edge Enhancement for Vision Impairment using Google Glas | |
JP7375753B2 (ja) | ヘッドアップディスプレイ装置 | |
JP3325323B2 (ja) | 表示装置 | |
US20230214011A1 (en) | Method and system for determining a current gaze direction | |
Hwang et al. | Augmented Edge Enhancement on Google Glass for Vision‐Impaired Users | |
EP3961572A1 (en) | Image rendering system and method | |
US20230282139A1 (en) | Head-mountable display (hmd) image and foveal region brightness computation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |