CN114594603A - 焦面显示 - Google Patents

焦面显示 Download PDF

Info

Publication number
CN114594603A
CN114594603A CN202210220513.8A CN202210220513A CN114594603A CN 114594603 A CN114594603 A CN 114594603A CN 202210220513 A CN202210220513 A CN 202210220513A CN 114594603 A CN114594603 A CN 114594603A
Authority
CN
China
Prior art keywords
focal plane
virtual scene
focal
scene
wavefront
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210220513.8A
Other languages
English (en)
Inventor
亚历山大·乔布·菲克斯
内森·赛格·马特萨达
道格拉斯·罗伯特·兰曼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meta Platforms Technologies LLC
Original Assignee
Facebook Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US15/786,386 external-priority patent/US10330936B2/en
Application filed by Facebook Technologies LLC filed Critical Facebook Technologies LLC
Publication of CN114594603A publication Critical patent/CN114594603A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0075Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. increasing, the depth of field or depth of focus
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/06Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the phase of light
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21VFUNCTIONAL FEATURES OR DETAILS OF LIGHTING DEVICES OR SYSTEMS THEREOF; STRUCTURAL COMBINATIONS OF LIGHTING DEVICES WITH OTHER ARTICLES, NOT OTHERWISE PROVIDED FOR
    • F21V19/00Fastening of light sources or lamp holders
    • F21V19/02Fastening of light sources or lamp holders with provision for adjustment, e.g. for focusing
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0087Phased arrays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/28Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for polarising
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/02Simple or compound lenses with non-spherical faces
    • G02B3/08Simple or compound lenses with non-spherical faces with discontinuous faces, e.g. Fresnel lens
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/50Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C7/00Optical parts
    • G02C7/02Lenses; Lens systems ; Methods of designing lenses
    • G02C7/022Ophthalmic lenses having special refractive features achieved by special materials or material structures
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/011Head-up displays characterised by optical features comprising device for correcting geometrical aberrations, distortion
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0136Head-up displays characterised by optical features comprising binocular systems with a single image source for both eyes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0145Head-up displays characterised by optical features creating an intermediate image
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0185Displaying image at variable distance

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)

Abstract

本申请涉及焦面显示。头戴式显示器(HMD)使用空间可编程的聚焦元件来调整虚拟场景的光的相位。虚拟场景的深度被近似到一个或更多个焦面,且焦面的形状然后被调整以最小化焦面到虚拟场景中的特征的距离。由此形成的焦面的形状是连续的分段平滑三维曲线。为每个焦面生成相位函数,其当由空间可编程的聚焦元件执行时再现对应于每个焦面的聚焦模式,这使波阵面弯曲并成形以产生符合场景几何形状的聚焦模式。

Description

焦面显示
本申请是申请日为2018年1月8日,申请号为201880018483.4,发明名称为“焦面显示”的申请的分案申请。
背景
本公开总体上涉及增强来自电子显示器的图像,并且特别地涉及改变光学器件的焦距以增强图像。
头戴式显示器(HMD)可以用于模拟虚拟环境。传统的双目HMD用在虚拟场景中呈现给观看用户的信息来改变对视觉辐辏(vergence)的刺激,同时对调节(accommodation)的刺激如由观察光学系统(viewing optics)创建的,保持固定在显示器的视距处。持续的视觉辐辏调节冲突(VAC)与视觉不适相关联,激发了用于实现接近恰当的调节提示的许多建议。
视觉辐辏是两只眼睛在相反方向上的同时移动或旋转以获得或维持与眼睛的调节有关联的双眼单视(single binocular vision)。在正常条件下,改变眼睛的焦点以看在不同距离处的对象自动引起视觉辐辏和调节。例如,当现实对象移动得更靠近看该现实对象的用户时,用户的眼睛向内旋转以保持逼近该对象。当对象变得更靠近用户时,眼睛必须通过减小焦强或焦距来“适应”于更近的距离,这通过每只眼睛改变它的形状来自动实现。因此,在现实世界中的正常条件下,视觉辐辏深度对应于用户正在看的地方,这也等于用户的眼睛的焦距。
然而,一些三维(3D)电子显示器常常出现视觉辐辏和调节之间的冲突。例如,当虚拟对象被再现在3D电子显示器上以移动得更靠近看该对象的用户时,用户的每只眼睛向内旋转以保持逼近该对象,但是每只眼睛的焦强或焦距没有减小;因此,用户的眼睛不如在现实世界中一样的适应。不是减小焦强或焦距以适应于更近的视觉辐辏深度,而是眼睛保持调节在与3D电子显示器相关的距离处。因此,对于显示在3D电子显示器上的对象,视觉辐辏深度常常不等于人眼的焦距。在视觉辐辏深度和焦距之间的这个差异被称为“视觉辐辏调节冲突”。只经历视觉辐辏或调节(而不是同时经历两者)的用户可能经历某种程度的疲劳或恶心,这对于虚拟现实系统创建者是不希望有的。
概述
头戴式显示器(HMD)使用空间可编程的聚焦元件(例如在相位调制模式中操作的空间光调制器)来调整从电子显示器接收的虚拟场景的光的相位。例如,头戴装置(headset)接收虚拟场景的虚拟场景数据,该虚拟场景数据包括在虚拟场景中的不同部分或点的场景几何数据或深度值。在虚拟场景的光由观看虚拟场景的用户的眼睛接收到之前,空间光调制器(SLM)调整虚拟场景的光的聚焦模式或波阵面(wavefront)。虽然传统的头戴式显示器通常实现单个固定焦面(focal surface),但是SLM作为具有在空间上变化的焦距的可编程透镜来进行操作,允许HMD的显示的不同像素的虚拟图像(从HMD的出射光瞳)看起来形成在虚拟场景内的不同深度处,从而使合成焦面成形以符合虚拟场景几何形状。
为了确定在虚拟场景中的焦面的位置,虚拟场景的深度值的范围基于场景几何数据来被近似到一组一个或更多个离散深度值。在一个实施例中,虚拟场景中的场景点基于它们的相关深度值被聚集,以识别对应于每个集群(cluster)的平均深度值的该组一个或更多个离散深度值。虚拟场景的深度然后被分割成在虚拟场景内的一个或更多个离散深度值中的每一个处的一个或更多个焦平面(focal plane)。因此,对于每个焦平面,焦平面的形状被调整以最小化焦平面到集群中的每个场景点的距离。这将焦平面的形状扭曲(warp)到开始将焦平面称为焦面是合理的情况,因为焦平面被弯曲、扭曲和/或调整以符合在虚拟场景中的最接近焦平面的一组场景点、部分或特征。由此产生的焦面的形状是连续的分段平滑三维曲线,与具有位于固定焦深处的平坦表面的多焦点显示不同。因此例如,场景可以被分割成三个焦面(近、中间、远),每个焦面被不同地弯曲或扭曲以分别符合在虚拟场景中的(近、中间、远)对象。
给定一组焦面,为每个焦面生成相位函数。相位函数当由SLM执行时使SLM再现对应于每个焦面的聚焦模式。这通过SLM将相位延迟添加到来自电子显示器的光的波阵面来实现。相位延迟使波阵面的形状被弯曲并扭曲成每个焦面的形状,从而产生符合场景几何形状的聚焦模式。
根据本发明的实施例在针对方法、存储介质和系统的所附权利要求中被具体公开,其中在一个权利要求类别(例如方法)中提到的任何特征也可以在另一个权利要求类别(例如系统、计算机程序产品)中被要求保护。在所附权利要求中的从属性或往回引用仅为了形式原因而被选择。然而,也可以要求保护由对任何前面的权利要求的有意往回引用(特别是多项引用)而产生的任何主题,使得权利要求及其特征的任何组合被公开并可以被要求保护,而不考虑在所附权利要求中选择的从属性。可以被要求保护的主题不仅包括如在所附权利要求中阐述的特征的组合,而且还包括在权利要求中的特征的任何其他组合,其中在权利要求中提到的每个特征可以与在权利要求中的任何其他特征或其他特征的组合相结合。此外,本文描述或描绘的实施例和特征中的任一个可以在单独的权利要求中和/或以与本文描述或描绘的任何实施例和特征的组合的形式或以与所附权利要求的任何特征的任何组合的形式被要求保护。
在实施例中,一种系统包括:
至少一个处理器;
电子显示元件,其被配置为显示虚拟场景;以及
存储器,其包括指令,该指令当由至少一个处理器执行时使至少一个处理器:
基于为虚拟场景获得的场景几何形状来将虚拟场景分割成在虚拟场景中的一组焦面,每个焦面与一组最近场景点相关联;
调整每个焦面的形状以最小化在对于焦面的一组最近场景点中的每个场景点与焦面之间的距离;
为每个焦面生成相位函数,用于调整与焦面的所调整的形状一致的虚拟场景的光的波阵面;以及
光学块(optics block),其包括空间可编程的聚焦元件,该聚焦元件被配置为:
从电子显示元件接收虚拟场景的光的波阵面;
针对该组焦面中的每个焦面,基于与焦面相关联的相位函数来调整波阵面;以及
经由系统的出射光瞳来向用户提供对于每个焦面的虚拟场景的光的所调整的波阵面。
在实施例中,存储器包括指令,该指令当由至少一个处理器执行时还使至少一个处理器:
聚集虚拟场景中的场景点,每个场景点与对应于虚拟场景中的场景点的位置的场景几何数据相关联;以及
基于所聚集的场景点和相关联的场景几何数据来确定该组焦面中的每一个焦面的位置。
在实施例中,存储器还包括指令,该指令当由至少一个处理器执行时使得至少一个处理器:
对于每个相位函数,确定待显示在电子显示元件上的虚拟场景的彩色图像。
在实施例中,每个焦面的所调整的形状是在空间上变化的分段平滑曲线。
在实施例中,调整每个焦面的形状以最小化对于焦面的该组最近场景点中的每个场景点与焦面之间的距离包括:
在对于焦面的该组最近场景点中的每一个之间应用非线性最小二乘法优化。
在实施例中,空间可编程的聚焦元件对针对该组焦面中的每个焦面的波阵面的调整进行时间多路复用。
在实施例中,每个相位函数通过引入与焦面的形状相关联的相位延迟来针对每个相应的焦面移动来自电子显示元件的光,并且其中,每个焦面是连续变化的形状或不连续的表面中的至少一种。
在实施例中,提供了一种头戴式显示器(HMD),其包括:
至少一个处理器;
电子显示元件,其被配置为显示虚拟场景;
空间光调制器(SLM),其被配置为:
接收来自电子显示元件的对于虚拟场景的光的波阵面;
在一个或更多个第一时间调整来自电子显示元件的光的波阵面,以为相对于HMD的出射光瞳位于虚拟场景中的第一深度处的第一焦面提供聚焦;
在一个或更多个第二时间调整来自电子显示元件的光的波阵面,以为相对于HMD的出射光瞳位于虚拟场景中的第二深度处的第二焦面提供聚焦;以及
将为第一焦面和第二焦面提供聚焦的光的所调整的波阵面引导到HMD的出射光瞳,对于第一焦面和第二焦面的光的波阵面组合在一起。
在实施例中,SLM在一个或更多个第一时间和一个或更多个第二时间之间,对针对第一焦面和第二焦面的波阵面的调整进行时间多路复用。
在实施例中,生成第一焦面和第二焦面包括:
基于为虚拟场景获得的场景几何形状来将虚拟场景分割成第一焦面和第二焦面,第一焦面与第一组最近场景点相关联,以及第二焦面与第二组最近场景点相关联;
调整第一焦面的第一形状以最小化在对于第一焦面的第一组最近场景点中的每个场景点与第一焦面之间的第一距离;
调整第二焦面的第二形状以最小化在对于第二焦面的第二组最近场景点中的每个场景点与第二焦面之间的第二距离;以及
为第一焦面和第二焦面中的每一个生成相位函数,以用于调整与第一焦面和第二焦面的所调整的形状一致的虚拟场景的光的波阵面。
在实施例中,HMD还包括:
聚集虚拟场景中的场景点,每个场景点与对应于在虚拟场景中的场景点的位置的场景几何数据相关联;以及
基于所聚集的场景点和相关联的场景几何数据来确定第一焦面的第一深度和第二焦面的第二深度。
在实施例中,HMD还包括:
对于每个相位函数,确定待显示在电子显示元件上的虚拟场景的彩色图像。
在实施例中,调整第一焦面的第一形状和第二焦面的第二形状包括:
通过在对于第一焦面的第一组最近场景点中的每一个之间应用非线性最小二乘法优化来确定第一焦面的第一形状;以及
通过在对于第二焦面的第二组最近场景点中的每一个之间应用非线性最小二乘法优化来确定第二焦面的第二形状。
在HMD的一个实施例中,每个相位函数通过引入与第一焦面的第一形状和第二焦面的第二形状相关联的相位延迟来针对第一焦面和第二焦面的每一个移动来自电子显示元件的光,并且其中,第一焦面和第二焦面中的每一个是连续变化的形状或不连续的表面中的至少一种。
在实施例中,一种方法包括:
获得包括识别与虚拟场景中的每个场景点相关联的深度的场景几何数据的虚拟场景;
基于场景几何数据来将虚拟场景分割成一组焦面,每个焦面与一组最近场景点相关联;
调整每个焦面的形状以最小化在对于焦面的该组最近场景点中的每个场景点与焦面之间的距离,所调整的形状是在空间上变化的分段平滑曲面;以及
对于每个焦面,生成针对空间光调制器(SLM)的相位函数以调整从电子显示元件接收的虚拟场景的光的波阵面,相位函数当由SLM应用时在波阵面中引入相位延迟,使得再现对应于焦面的所调整的形状的聚焦模式。
在实施例中,基于场景几何形状来将虚拟场景分割成一组焦面包括:
聚集虚拟场景中的场景点;以及
基于所聚集的场景点和相关联的场景几何数据来确定该组焦面中的每一个焦面的深度。
在实施例中,该方法还包括:
对于每个相位函数,确定对于每个焦面的待显示在电子显示元件上的虚拟场景的彩色图像。
在实施例中,SLM和电子显示元件被包括在头戴式显示器中,并且SLM基于相应的相位函数来对针对每个焦面的波阵面的调整进行时间多路复用以使虚拟场景的合成图像通过头戴式显示器的出射光瞳被提供给观看虚拟场景的用户。
在该方法的实施例中,每个相位函数通过引入与每个焦面的形状相关联的相位延迟来针对每个焦面移动来自电子显示元件的光,并且其中,每个焦面是连续变化的形状或不连续的表面中的至少一种。
在实施例中,调整每个焦面的形状以最小化在对于焦面的该组最近场景点中的每个场景点与焦面之间的距离包括:
在对于焦面的该组最近场景点中的每一个之间应用非线性最小二乘法优化。
附图简述
图1示出了根据至少一个实施例的可以合并到头戴式显示器中的光学系统的示例光线图。
图2示出了根据至少一个实施例的示例系统。
图3示出了根据至少一个实施例的头戴式显示器的图示。
图4示出了根据至少一个实施例的用于减轻视觉辐辏调节冲突的示例过程。
附图仅为了说明的目的描绘本公开的实施例。本领域中的技术人员将从下面的描述中容易认识到,在本文中示出的结构和方法的替代实施例可以被采用而不偏离本文描述的本公开的原理或所推崇的益处。
详细描述
传统的头戴式显示器包含提供单个固定焦面的目镜和电子显示器。图1示出了焦面显示器100,其包括电子显示元件(“显示器”)102和在目镜106和显示器102之间的调相空间光调制器(SLM)104。SLM 104作为具有在空间上变化的焦距的可编程透镜来进行操作,允许显示器102的不同显示像素的虚拟图像110看起来形成在虚拟场景内的不同深度处。因此,SLM 104充当动态自由透镜,使符合虚拟场景几何形状的合成焦面成形。因此,公开了用于将虚拟场景分解成这些焦面中的一个或更多个的系统和方法。
表示场景几何形状的深度图和对视网膜模糊(retinal blur)随着调节中的变化的改变进行建模的焦点堆栈(focal stack)被提供到系统作为输入。在一个实施例中,两个输入都从观看用户的入射光瞳的角度被再现,并且系统的输出是k个相位函数φ1,...,φk和彩色图像c1,...,ck以由SLM 104和显示器102呈现。理想地,相位函数和彩色图像被联合优化;然而,这导致大的非线性问题。因此,近似被引入以确保该方法是在计算上易处理的。首先,不是说明在虚拟场景中的每个可能的深度,而是虚拟场景的深度图被分解或分割成一组平滑的焦面,虚拟场景的至少大部分(如果不是的话,全部)深度可以被逼近到这组平滑的焦面。然后,SLM的相位函数被优化以逼近这些焦面。最后,彩色图像被优化以再现目标焦点堆栈。因此,虽然所公开的系统提供了多个焦面,但是单个焦面可以在理论上实现相似的视网膜模糊保真度;然而,相对于由其他现有的多焦点显示系统提供的单个焦面,多个焦面可以提供在系统复杂性(例如,对时间多路复用的需要)和图像质量(例如,压缩伪像的抑制)之间的有利折衷。
系统概述
图2是控制台250操作于的系统环境。在该示例中,系统环境包括HMD 200、成像设备260和输入接口270,各自耦合到控制台250。虽然图2示出了单个HMD 200、单个成像设备260和单个输入接口270,但在其他实施例中任何数量的这些部件可以被包括在系统中。例如,可以有多个HMD 200,每个HMD 200具有相关联的输入接口270并且由一个或更多个成像设备260监控,每个HMD 200、输入接口270和成像设备260与控制台250通信。在替代配置中,不同的和/或附加的部件也可以被包括在系统环境200中。
HMD 200是向用户呈现内容的头戴式显示器(HMD)。示例内容包括图像、视频、音频或其某种组合。音频内容可以经由在HMD 200外部的单独设备(例如,扬声器和/或头戴式受话器(headphone))被呈现,该单独设备从HMD 200、控制台250或两者接收音频信息。HMD200包括电子显示器202、光学块204、空间光调制器(SLM)模块206、一个或更多个定位器208、惯性测量单元(IMU)210、头部跟踪传感器212和场景再现模块214。
光学块204将来自显示器202的光经由SLM块206引导到HMD 200的出射光瞳,用于由用户使用一个或更多个光学元件(例如光圈、菲涅耳透镜、凸透镜、凹透镜、滤波器等)来观看,并且可以包括不同光学元件的组合。在一些实施例中,在光学块204中的一个或更多个光学元件可以具有一个或更多个涂层,例如抗反射涂层。由光学块204对图像光的放大允许电子显示器202比更大的显示器在物理上更小、重量更小且消耗更少的功率。另外,图像光的放大可以增加所显示的内容的视场角。例如,所显示的内容的视场角使得所显示的内容使用用户的视场角的几乎全部(例如,150度对角线)以及在一些情况下全部视场角来被呈现。
空间光调制器(SLM)块206包括控制电子显示器202的一个或更多个驱动器和产生并显示具有动态时空焦面的虚拟场景的图像的SLM。与光学块204光学串联地设置的SLM块206在仅相位模式进行操作,并且对于给定帧可以生成多个相位函数,每个相位函数对应于在虚拟场景中的不同深度范围的聚焦模式。在各种实施例中,SLM块206可以集成到光学块204中。在一个实施例中,每个焦面调整聚焦模式以改变HMD 200的焦距(或光焦强),以在观看虚拟场景的内容的同时将用户的眼睛保持在舒适区中。
由于SLM的有限分辨率,在HMD 200的光学系统中的SLM块206的位置受制于设计规则,其基于相应的配置来限制某些性能参数。因此,在配置及其相关联的性能之间存在折衷。例如,可以基于SLM块206相对于电子显示器202和光学块204的位置来限制HMD 200的对焦范围。在该示例中,当SLM被定位成更靠近光学块204而不是显示器202时,更大的对焦范围被实现。因此,当SLM被定位成更靠近显示器202时,对焦范围受到限制。此外,当SLM被定位成更靠近光学块204而不是显示器202时,更大的视场角也是可实现的,以及因此当SLM被定位成更靠近显示器202时,视场角受到限制。然而,当SLM被定位成更靠近光学块204时,在虚拟场景中的边缘边界清晰度降低。因此,SLM被定位成离显示器202越近,边缘边界就越清晰。因此,在边缘清晰度与对焦范围和视场角之间存在待寻求的设计折衷和平衡。
定位器208是相对于彼此并相对于在HMD 200上的特定参考点位于HMD 200上的特定位置的对象。定位器208可以是发光二极管(LED)、锥体棱镜(corner cube reflector)、反射标记、与HMD 200操作于的环境形成对比的一种类型的光源或者其某种组合。有源定位器208(即,LED或其他类型的光发射设备)可以发射在可见光波段(~380nm至750nm)中、在红外(IR)波段(~750nm至1mm)中、在紫外波段(10nm至380nm)中、电磁光谱的某个其他部分中或其某种组合的光。
定位器208可以位于HMD 200的外表面之下,该外表面对于由定位器208发射或反射的光的波长是透光的,或者足够薄而基本上不使由定位器208发射或反射的光的波长衰减。此外,HMD 200的外表面或其他部分在光的波长的可见光波段内可以是不透光的。因此,定位器208当在HMD 200的外表面下时可以发射在IR波段中的光,该外表面在IR波段中是透光的但在可见光波段中是不透光的。
IMU 210是基于从一个或更多个头部跟踪传感器212接收的测量信号来生成快速校准数据的电子设备,头部跟踪传感器响应于HMD 200的运动而生成一个或更多个测量信号。头部跟踪传感器212的示例包括加速度计、陀螺仪、磁力计、适于检测运动、校正与IMU210相关联的误差的其他传感器或者其某种组合。头部跟踪传感器212可以位于IMU 210的外部、IMU 210的内部或者其某种组合。
基于来自头部跟踪传感器212的测量信号,IMU 210生成指示相对于HMD 200的初始位置的HMD 200的所估计的位置的快速校准数据。例如,头部跟踪传感器212可以包括测量平移运动(向前/向后、向上/向下、向左/向右)的多个加速度计和测量旋转运动(例如,俯仰、偏航、横滚)的多个陀螺仪。例如,IMU 210可以对测量信号进行快速采样,并根据所采样的数据来计算HMD 200的所估计的位置。例如,IMU 210随时间的推移对从加速度计接收的测量信号求积分以估计速度矢量,并随时间的推移对速度矢量求积分以确定在HMD 200上的参考点的所估计的位置。参考点是可以用来描述HMD 200的位置的点。虽然参考点通常可以被定义为空间中的点,但是在各种实施例中参考点被定义为在HMD 200内的点(例如,IMU210的中心)。可选地,IMU 210向控制台250提供所采样的测量信号,控制台250确定快速校准数据。
IMU 210可以以附加地从控制台250接收一个或更多个校准参数。如下面进一步讨论的,一个或更多个校准参数用于保持HMD 200的跟踪。基于接收到的校准参数,IMU 210可以调整一个或更多个IMU参数(例如,采样率)。在一些实施例中,某些校准参数使IMU 210更新参考点的初始位置以对应于参考点的下一个所校准的位置。将参考点的初始位置更新为参考点的下一个所校准的位置帮助减少与确定所估计的位置相关联的累积误差。也被称为漂移误差的累积误差使参考点的所估计的位置随着时间的推移“漂移”远离参考点的实际位置。
场景再现模块214从引擎256接收虚拟场景的内容,并提供该内容用于在电子显示器202上显示。另外,如下面进一步描述的,场景再现模块214基于跟踪模块254、头部跟踪传感器212或IMU 210中的一个或更多个来确定待显示在电子显示器202上的内容的一部分。
成像设备260根据从控制台250接收的校准参数来生成慢速校准数据。慢速校准数据包括显示定位器208的所观察的位置的一个或更多个图像,这些位置由成像设备260可检测。成像设备260可以包括一个或更多个照相机、一个或更多个摄像机、包括一个或更多个定位器208的能够捕获图像的其他设备或者其某种组合。另外,成像设备260可以包括一个或更多个滤波器(例如,用于增加信噪比)。成像设备260被配置成在成像设备260的视场角中检测从定位器208发射或反射的光。在定位器208包括无源元件(例如,后向反射器)的实施例中,成像设备260可以包括照亮一些或所有定位器208的光源,其朝着成像设备260中的光源向后反射光。慢速校准数据从成像设备260被传递到控制台250,并且成像设备260从控制台250接收一个或更多个校准参数以调整一个或更多个成像参数(例如,焦距、焦点、帧速率、ISO、传感器温度、快门速度、光圈等)。
输入接口270是允许用户向控制台250发送动作请求的设备。动作请求是执行特定动作的请求。例如,动作请求可以是开始或结束应用,或者在应用内执行特定动作。输入接口270可以包括一个或更多个输入设备。示例输入设备包括键盘、鼠标、游戏控制器或用于接收动作请求并将接收到的动作请求传递到控制台250的任何其他合适的设备。由输入接口270接收到的动作请求可以被传递到控制台250,控制台250执行对应于动作请求的动作。在一些实施例中,输入接口270可以根据从控制台250接收到的指令来向用户提供触觉反馈。例如,当接收到动作请求时,输入接口470提供触觉反馈,或者控制台250向输入接口270传递指令,使输入接口270在控制台250执行动作时生成触觉反馈。
控制台250根据从成像设备260、HMD 200或输入接口270接收的信息来向HMD 200提供内容用于呈现给用户。在图2所示的示例中,控制台250包括应用商店252、跟踪模块254和虚拟现实(VR)引擎256。控制台250的一些实施例具有与结合图2描述的模块不同的或额外的模块。类似地,下面进一步描述的功能可以以不同于这里描述的方式分布在控制台250的部件当中。
应用商店252存储用于由控制台250执行的一个或更多个应用。应用是一组指令,其当由处理器执行时生成用于呈现给用户的内容。由应用生成的内容可以响应于经由HMD200的移动或输入接口270而从用户接收的输入。应用的示例包括游戏应用、会议应用、视频回放应用或其他合适的应用。
跟踪模块254使用一个或更多个校准参数来校准系统,并且可以调整一个或更多个校准参数以减少在确定HMD 200的位置时的误差。例如,跟踪模块254调整成像设备260的焦点以获得在HMD 200上的被观察的定位器208的更准确的位置。此外,由跟踪模块254执行的校准还考虑从IMU 210接收到的信息。另外,如果HMD 200的跟踪丢了(例如,成像设备260失去至少阈值数量的定位器208的视线),则跟踪模块254重新校准系统部件中的一些或全部。
此外,跟踪模块254使用来自成像设备260的慢速校准信息来跟踪HMD 200的移动,并且使用来自慢速校准信息的观察到的定位器和HMD 200的模型来确定在HMD 200上的参考点的位置。跟踪模块254还使用来自在HMD 200上的IMU 210的快速校准信息的位置信息来确定在HMD 200上的参考点的位置。此外,跟踪模块254可以使用快速校准信息、慢速校准信息或其某种组合的部分来预测HMD 200的未来位置,其被提供给引擎256。
引擎256执行在系统内的应用,并从跟踪模块254接收HMD 200的位置信息、加速度信息、速度信息、所预测的未来位置或其某种组合。基于接收到的信息,引擎256确定要提供给HMD 200用于呈现给用户的内容(例如虚拟场景)。例如,如果接收到的信息指示用户向左看了,则引擎256为HMD 200生成对用户在虚拟环境中的移动进行镜像(mirror)或跟踪的内容。另外,引擎256响应于从输入接口270接收到的动作请求来执行在控制台250上执行的应用内的动作,并且向用户提供动作被执行的反馈。所提供的反馈可以是经由HMD 200的视觉或听觉反馈或者经由输入接口270的触觉反馈。
图3是根据至少一个实施例的HMD 200的图示。在该示例中,HMD200包括前刚性主体和绕在用户的头部周围的带。前刚性主体包括对应于电子显示器202、IMU 210、头部跟踪传感器212和定位器208的一个或更多个电子显示元件。在该示例中,头部跟踪传感器212位于IMU 210内。
定位器208相对于彼此并相对于参考点300位于前刚性主体上的固定位置。在该示例中,参考点300位于IMU 210的中心处。定位器208中的每一个发射由成像设备260可检测到的光。如图3所示,定位器208或定位器208的部分位于前刚性主体的前侧、顶侧、底侧、右侧和左侧上。
焦面显示方法
图4示出了根据至少一个实施例的用于减轻视觉辐辏调节冲突的示例过程400。如上面所讨论的,头戴式显示器可以使用SLM来提供焦点调节和景深模糊。因此,在该示例中,获得402用于显示虚拟场景的虚拟场景数据。在一个示例中,电子显示器的每个像素与单独深度值(例如在虚拟场景中显示的天空的无穷大、在桌子上的对象的一米以及在桌子表面的半米和一米之间的变化的距离、在虚拟场景中的远处墙壁的3米等)相关联。
使用场景几何数据,虚拟场景被分割404成一组焦面。为了确定在虚拟场景中的焦面的位置,虚拟场景的深度值的范围基于场景几何数据被近似到一组一个或更多个离散深度值。例如,给定目标虚拟场景,假定
Figure BDA0003537091950000141
为沿着每个视角(θx,θy)∈Ωθ的深度(以屈光度为单位),对于穿过观看用户的瞳孔的中心的主光线,Ωθ为一组离散的视网膜图像样本。如果相位SLM可能产生任意拓扑的焦面,则不需要进一步的优化;然而,情况并非如此,因为焦面需要是平滑的。因此,虚拟场景的深度图被分割404成k个平滑焦面d1,...,dk。例如,如果对于每个视角(θx,θy),存在靠近目标深度图
Figure BDA0003537091950000142
的至少一个焦面沾(θx,θy),那么可以用接近恰当的视网膜模糊来描绘每个场景元素,因为来自显示器102的光将看起来源自正确的场景深度。优化的混合方法仍然有利于遮蔽的(occluding)、半透光和反射对象的重现。给定该目标,下面的优化问题被公式示出。
Figure BDA0003537091950000151
如下面进一步讨论的,使用相位函数φ产生焦面可能引入光学像差。根据观察,如果焦面的二阶导数很小,则像差被最小化。这个观察在上面的优化问题中由边界约束进行反映。然而注意,没有明确的边界约束被强加在焦面的光焦强di上。这看起来与SLM 104的最小可实现的焦距的该推导相矛盾。不是直接添加这些约束,而是目标深度图
Figure BDA0003537091950000152
被截短到可实现的深度范围。
因此,对于每个焦平面,焦平面的形状被调整406以最小化焦平面到集群中的每个场景点的距离。这将焦平面的形状扭曲到开始将焦平面称为焦面是有意义的地方,因为焦平面被弯曲、扭曲和/或调整以符合在虚拟场景中的最接近焦平面的一组场景点、部分或特征。由此产生的焦面的形状是连续的分段平滑三维曲线,与具有位于固定焦深处的平坦表面的多焦点显示器不同。应用非线性最小二乘法对等式1进行求解,该非线性最小二乘法拓展到大的问题尺寸。注意,目标涉及每个像素(θx,θy)的非线性残差
Figure BDA0003537091950000153
该残差不是可微分的,这是非线性最小二乘法的问题。然而,可以通过用“软最小值”(soft-min)代替min来获得接近的近似,有下面的定义:
Figure BDA0003537091950000154
其中t是针对给定应用进行调整的调节参数。
将等式2应用于等式1以及将边界约束重新表示为软约束,产生下面的非线性最小二乘法问题:
Figure BDA0003537091950000155
其中
Figure BDA0003537091950000161
是di在(θx,θy)处的二阶偏导数的矢量,以及γ是加权参数。
给定一组焦面,为每个焦面生成408相位函数。假定该组焦面di,下一步骤包括对一组相位函数φi进行求解以生成每个焦面。为了求解该问题,必须理解相位SLM的光学特性。穿过透镜的光学路径长度的变化引起折射。类似地,跨SLM的相位调制的差异导致衍射。经由波光学建模通过高分辨率SLM进行的光传播的模拟目前在计算上是不可行的,但人们可以使用几何光学器件来近似这些衍射效应。
因此,假定(px,py)表示SLM位置,Ωp是一组离散的SLM像素中心。与SLM相交的光线根据相位φ被重定向。对于小角度(即,在傍轴近似下),偏转与φ的梯度成比例。如果入射光线具有方向矢量(x,y,1)并且在(px,py)处与SLM相交,则出射光线具有方向矢量:
Figure BDA0003537091950000162
其中λ是照明波长。因此,如果φ是线性函数,那么SLM作为棱镜进行操作,将恒定偏移添加到每条光线的方向。(注意,在该推导中假设单色照明,对宽带照明源的实际考虑因素稍后被提出)。SLM还可以通过如下呈现二次变化的相位来充当薄透镜。
Figure BDA0003537091950000163
注意,这些光学属性是局部的。单条光线的偏转仅取决于在与SLM相交的点周围的相位的一阶泰勒级数(即,相位梯度)。类似地,与SLM相交的∈尺寸的光线束的焦点的变化仅取决于二阶泰勒级数。特别地,如果在点(px,py)处的φ的Hessian由下式给出
Figure BDA0003537091950000164
其中I是2x2单位矩阵,那么在(px,py)周围的∈尺寸的邻近区用作焦距f的透镜(即,等式6是等式5的Hessian)。
到现在为止,我们允许相位是任何实值函数。实际上,SLM具有通常来自[0,2π]的有界范围。在此范围之外的相位被“卷绕”,以2π为模。此外,可实现的相位函数受到奈奎斯特极限的限制。相位可以在2δp的距离上改变不超过2π,其中δp是SLM像素间距。
因此,利用SLM的该傍轴模型,确定最好地实现给定目标焦面d的相位函数φ。首先,参考图1,确定SLM 104的焦距fp(来自等式5)如何影响焦面距离zv。如图1所示,SLM 104在焦面显示器100内操作,焦面显示器100由目镜106的距离(z=0)、SLM 104的距离zp和显示器102的距离zd参数化。忽略目镜106,SLM 104在距离Zv′处产生显示器102的中间图像108。根据目镜106的焦距fe,中间图像108被转换成位于zv处的显示器102的虚拟图像110。这些关系通过应用薄透镜等式来被简洁地概括为:
Figure BDA0003537091950000171
通过将来自观看者的瞳孔的观看光线(θx,θy)投射到SLM 104且然后通过应用等式7,可以为每个SLM像素(px,py)分配目标焦距fp,以在期望焦面深度处创建虚拟图像110。为了实现这个焦距,等式6要求使用Hessian的相位函数φ为:
Figure BDA0003537091950000172
可能没有满足该表达式的φ。事实上,这种φ仅在f为恒定的且φ为二次的(即,相位表示均匀透镜)时存在。因为等式8不能完全被满足,下面的线性最小二乘法问题被求解以获得尽可能接近的相位函数φ:
Figure BDA0003537091950000173
其中||·||2 F是Frobenius范数,以及其中H[·]是由φ的有限差分给出的离散Hessian算子。注意,相位函数φ加上任何线性函数a+bx+cy具有相同的HessianH,因此我们另外约束φ(0,0)=0和
Figure BDA0003537091950000181
在确定了对应于焦面di的k个相位函数φi之后,彩色图像ci被确定,用于呈现在显示器102上,以再现目标焦点堆栈。这个焦点堆栈由一组l个视网膜图像r1,...,rl表示。首先,描述视网膜模糊的光线跟踪模型,且然后应用该模型以评估求解表示优化混合的线性最小二乘法问题所需的前向和伴随算子(adjoint operator)。
光线在几何光学模型下通过系统被跟踪,其中每条光线源自在观看者的瞳孔内的一点。光线然后穿过目镜106、SLM 104的前部和后部,且然后射在显示器102上。在目镜106的表面处,使用透镜的曲率半径、它的光学折射率和旁轴近似来使光线折射。等式4通过SLM104对光传输进行建模。每条光线都被分配在它与显示器102相交的坐标处内插的颜色。在显示器上的位置由(qx,qy)表示,且该组显示像素中心由Ωq表示。注意,错过目镜106、SLM104或显示器102的边界的任何光线都被剔除(即,被分配黑色)。
为了对视网膜模糊进行建模,跨越观看者的瞳孔的光线被累积,其使用泊松分布被采样。以这种方式,观看者的眼睛被近似为在深度z处聚焦的理想透镜,深度z根据观看者的调节状态而变化。对于每一条主光线(θx,θy)和深度z,一束光线从泊松采样瞳孔中跨过Rθx,θy,z被求和。当在深度z处聚焦时这产生视网膜模糊的估计。这些在前面的步骤中被定义为前向算子(forward operator)r=Az,φ(c),其接受相位函数φ和彩色图像c,并且当在距离z处聚焦时预测所感知的视网膜图像r。
对于固定相位函数φ和调节深度z,前向算子Az,φ(c)在彩色图像c中是线性的。再现算子(rendering operator)Az,φi(ci)相加地组合,所以我们的组合前向算子是Az(c1,...,ck)=∑i Az,φi(ci),其表示对多分量焦面显示的观看。前向再现可以针对多个调节深度z1,...,z1被连接在一起以用相应的线性算子A=[Az1;...;Az1]来估计重建的焦点堆栈。对于给定的一组彩色图像c,前向算子给出将在视网膜上产生的焦点堆栈r,最小化||Ac-r||2给出了最好地近似于期望焦点堆栈的彩色图像。将视网膜图像样本映射到显示像素的Az,φ的转置可以类似地用具有在彩色图像c而不是视网膜图像r中的累积的光线跟踪操作来被评估。总之,用迭代最小二乘法解算器来应用这些前向和伴随算子。
相位函数在由SLM执行时使SLM再现对应于每个焦面的聚焦模式。这由将相位延迟添加到来自电子显示器的光的波阵面的SLM实现。相位延迟使波阵面的形状被弯曲并被扭曲成每个焦面的形状,从而产生符合场景几何形状的聚焦模式。在一个实施例中,SLM对针对每个焦面的波阵面的调节进行时间多路复用,以便向观看用户提供在虚拟场景中的不同焦面中的每一个的聚焦。例如,在第一时间,SLM针对远深度调整波阵面;在第二时间,SLM针对中间深度调整波阵面;以及在第三时间,SLM针对近深度调整波阵面。这三个深度的时间多路复用调整出现的速度对于人眼来说通常太快而注意不到,且因此观看用户观察到焦点对准的虚拟场景,或者至少如所建模的和/或近似的。
附加配置信息
为了说明的目的,提出了实施例的前述描述;它并不旨在是无遗漏的或将专利权限制于所公开的精确形式。相关领域中的技术人员可以认识到,根据上述公开的许多修改和变化是可能的。
在本说明书中使用的语言主要为了可读性和教学目的而被选择,并且它可以不被选择来描写或限制创造性主题。因此,意图是专利权的范围不由该详细描述限制,而是由在基于其的申请上发布的任何权利要求限制。因此,实施例的公开旨在是说明性的但不限制专利权的范围。

Claims (20)

1.一种方法,包括:
基于虚拟场景的场景几何数据来将所述虚拟场景分割成一组焦面,所述场景几何数据识别在所述虚拟场景中的一个或更多个对象的深度;
对于所述一组焦面中的一个焦面,调整所述焦面的形状,以最小化在所述焦面与所述虚拟场景中到所述焦面的一个或更多个最近对象之间的距离;以及
对于所述焦面,生成相位函数,所述相位函数用于空间光调制器调整所述虚拟场景的光的波阵面,所述相位函数当由所述空间光调制器应用时在所述波阵面中引入相位延迟,使得再现对应于所述焦面的所调整的形状的聚焦模式。
2.根据权利要求1所述的方法,其中,所述空间光调制器被配置成:
接收所述虚拟场景的光的波阵面;
针对所述焦面,基于所述相位函数,调整所述波阵面;以及
将针对所述焦面的所述虚拟场景的光的所调整的波阵面提供给头戴式显示器的出射光瞳。
3.根据权利要求1所述的方法,其中,基于所述场景几何数据来将所述虚拟场景分割成所述一组焦面还包括:
将所述虚拟场景中的所述一个或更多个对象的深度值聚集到一个或更多个聚集深度值;以及
确定最小化在所述焦面与所述一个或更多个聚集深度值中的聚集深度值之间的距离的所述焦面的深度。
4.根据权利要求3所述的方法,其中,基于所述场景几何数据来将所述虚拟场景分割成所述一组焦面还包括:
在所述焦面与所述一个或更多个聚集深度值之间应用非线性最小二乘法优化。
5.根据权利要求1所述的方法,其中,基于所述场景几何数据来将所述虚拟场景分割成所述一组焦面还包括:
将所述一个或更多个对象的深度值的范围近似到一组离散深度值,所述一组焦面中的每个焦面对应于不同的离散深度值。
6.根据权利要求5所述的方法,其中,所述一组离散深度值中的每一个对应于一组聚集深度值的平均深度值。
7.根据权利要求1所述的方法,其中,所述空间光调制器被包括在具有电子显示器的头戴式显示器中,所述电子显示器被配置成显示所述虚拟场景,以及其中,所述电子显示器和所述空间光调制器基于对应的相位函数对所述一组焦面中的每个焦面的波阵面的调整进行时间多路复用,以生成提供给经由所述头戴式显示器观看所述虚拟场景的用户的所述虚拟场景的合成图像。
8.根据权利要求1所述的方法,其中,所述相位函数通过引入与所述焦面的调整的形状相关联的相位延迟来针对所述焦面移动所述虚拟场景的光,并且其中,所述焦面是连续变化的形状或不连续的表面中的至少一种。
9.一种方法,包括:
通过头戴式显示器,基于关于虚拟场景的场景几何形状来将所述虚拟场景分割成第一焦平面和第二焦平面,所述第一焦平面与第一组最近场景点相关联,以及所述第二焦平面与第二组最近场景点相关联;
调整所述第一焦平面的第一形状以生成第一焦面,从而最小化在所述第一组最近场景点中的每个场景点与所述第一焦面之间的距离;
调整所述第二焦平面的第二形状以生成第二焦面,从而最小化在所述第二组最近场景点中的每个场景点与所述第二焦面之间的距离;以及
为所述第一焦面和所述第二焦面中的每一个生成相位函数,以用于空间光调制器调整所述虚拟场景的光的波阵面,所述相位函数当由所述空间光调制器应用时在所述波阵面中引入相位延迟,使得再现对应于所述第一焦面或所述第二焦面的所调整的形状的聚焦模式。
10.根据权利要求9所述的方法,其中,所述头戴式显示器还包括被配置成显示所述虚拟场景的电子显示器,以及其中,所述电子显示器和所述空间光调制器基于对应的相位函数对所述第一焦面或所述第二焦面的波阵面的调整进行时间多路复用,以生成所述虚拟场景的合成图像。
11.根据权利要求9所述的方法,其中,将所述虚拟场景分割成所述第一焦平面和所述第二焦平面包括:
聚集所述虚拟场景中的一个或更多个对象的深度值,以识别所述第一组最近场景点和所述第二组最近场景点;
确定最小化在所述第一焦面与所述第一组最近场景点之间的距离的所述第一焦面的第一深度;以及
确定最小化在所述第二焦面与所述第二组最近场景点之间的距离的所述第二焦面的第二深度。
12.根据权利要求11所述的方法,其中,将所述虚拟场景分割成所述第一焦平面和所述第二焦平面还包括:
在所述第一焦面与所述第一组最近场景点之间和在所述第二焦面与所述第二组最近场景点之间执行非线性最小二乘法优化。
13.根据权利要求9所述的方法,其中,所述第一焦面和所述第二焦面是连续变化的形状或不连续的表面中的至少一种。
14.根据权利要求9所述的方法,其中,将所述虚拟场景分割成所述第一焦平面和所述第二焦平面包括:
将所述虚拟场景中的一个或更多个对象的深度值的范围近似到第一离散深度值和第二离散深度值,第一离散深度值对应于所述第一焦面,以及第二离散深度值对应于所述第二焦面。
15.一种头戴式显示器,包括:
至少一个处理器;
电子显示器,其被配置为显示虚拟场景;
光学块,其包括空间可编程的聚焦元件,所述空间可编程的聚焦元件被配置为聚焦来自所述电子显示器的光;以及
存储器,其包括指令,所述指令当由所述至少一个处理器执行时使所述至少一个处理器:
基于所述虚拟场景的场景几何数据来将所述虚拟场景分割成一组焦面,所述场景几何数据识别在所述虚拟场景中的一个或更多个对象的深度;
对于所述一组焦面中的焦面,调整所述焦面的形状,以最小化在所述焦面与所述虚拟场景中到所述焦面的一个或更多个最近对象之间的距离;以及
对于所述焦面,生成相位函数,所述相位函数用于空间光调制器调整所述虚拟场景的光的波阵面,所述相位函数当由所述空间光调制器应用时在所述波阵面中引入相位延迟,使得再现对应于所述焦面的所调整的形状的聚焦模式。
16.根据权利要求15所述的头戴式显示器,其中,所述光学块还被配置成:
从所述电子显示器接收所述虚拟场景的光的波阵面;
基于与所述焦面相关联的所述相位函数,调整所述波阵面;以及
将针对所述焦面的所调整的波阵面经由所述头戴式显示器的出射光瞳提供给用户。
17.根据权利要求15所述的头戴式显示器,其中,基于所述场景几何数据来将所述虚拟场景分割成所述一组焦面还包括:
将所述虚拟场景中的所述一个或更多个对象的深度值聚集到一个或更多个聚集深度值;以及
确定最小化在所述焦面与所述一个或更多个聚集深度值中的聚集深度值之间的距离的所述焦面的深度。
18.根据权利要求17所述的头戴式显示器,其中,基于所述场景几何数据来将所述虚拟场景分割成所述一组焦面还包括:
在所述焦面与所述一个或更多个聚集深度值之间应用非线性最小二乘法优化。
19.根据权利要求15所述的头戴式显示器,其中,基于所述场景几何数据来将所述虚拟场景分割成所述一组焦面还包括:
将所述一个或更多个对象的深度值的范围近似到一组离散深度值,所述一组焦面中的每个焦面对应于不同的离散深度值。
20.根据权利要求15所述的头戴式显示器,其中,所述相位函数通过引入与所述焦面的调整的形状相关联的相位延迟来针对所述焦面移动所述虚拟场景的光,并且其中,所述焦面是连续变化的形状或不连续的表面中的至少一种。
CN202210220513.8A 2017-01-19 2018-01-08 焦面显示 Pending CN114594603A (zh)

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
US201762448303P 2017-01-19 2017-01-19
US62/448,303 2017-01-19
US201762508002P 2017-05-18 2017-05-18
US62/508,002 2017-05-18
US15/786,386 US10330936B2 (en) 2017-01-19 2017-10-17 Focal surface display
US15/786,386 2017-10-17
CN201880018483.4A CN110431470B (zh) 2017-01-19 2018-01-08 焦面显示
PCT/US2018/012777 WO2018136251A1 (en) 2017-01-19 2018-01-08 Focal surface display

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201880018483.4A Division CN110431470B (zh) 2017-01-19 2018-01-08 焦面显示

Publications (1)

Publication Number Publication Date
CN114594603A true CN114594603A (zh) 2022-06-07

Family

ID=60997382

Family Applications (2)

Application Number Title Priority Date Filing Date
CN202210220513.8A Pending CN114594603A (zh) 2017-01-19 2018-01-08 焦面显示
CN201880018483.4A Active CN110431470B (zh) 2017-01-19 2018-01-08 焦面显示

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN201880018483.4A Active CN110431470B (zh) 2017-01-19 2018-01-08 焦面显示

Country Status (2)

Country Link
EP (1) EP3351999A1 (zh)
CN (2) CN114594603A (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115407504A (zh) * 2021-05-27 2022-11-29 华为技术有限公司 虚拟显示设备和虚拟显示方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080049152A1 (en) * 2005-11-03 2008-02-28 University Of Central Florida Research Foundation, Inc. Head mounted display with eye accommodation
US20080117289A1 (en) * 2004-08-06 2008-05-22 Schowengerdt Brian T Variable Fixation Viewing Distance Scanned Light Displays
US20140192166A1 (en) * 2013-01-10 2014-07-10 The Regents of the University of Colorado, a body corporate Engineered Point Spread Function for Simultaneous Extended Depth of Field and 3D Ranging
US20150178939A1 (en) * 2013-11-27 2015-06-25 Magic Leap, Inc. Virtual and augmented reality systems and methods
US20150177514A1 (en) * 2013-12-19 2015-06-25 Nvidia Corporation System, method, and computer program product for a pinlight see-through near-eye display
CN105934902A (zh) * 2013-11-27 2016-09-07 奇跃公司 虚拟和增强现实系统与方法
CN106233189A (zh) * 2014-01-31 2016-12-14 奇跃公司 多焦点显示系统和方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5169253B2 (ja) * 2008-01-29 2013-03-27 ブラザー工業株式会社 画像表示装置
US9292973B2 (en) * 2010-11-08 2016-03-22 Microsoft Technology Licensing, Llc Automatic variable virtual focus for augmented reality displays
US20130088413A1 (en) * 2011-10-05 2013-04-11 Google Inc. Method to Autofocus on Near-Eye Display
EP3657265B1 (en) * 2013-09-04 2023-05-03 Essilor International Method for augmented reality using head-mounted holographic image displaying device
CN105739093B (zh) * 2014-12-08 2018-02-06 北京蚁视科技有限公司 透过式增强现实近眼显示器
EP3237957A1 (en) * 2014-12-26 2017-11-01 CY Vision Inc. Near-to-eye display device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080117289A1 (en) * 2004-08-06 2008-05-22 Schowengerdt Brian T Variable Fixation Viewing Distance Scanned Light Displays
US20080049152A1 (en) * 2005-11-03 2008-02-28 University Of Central Florida Research Foundation, Inc. Head mounted display with eye accommodation
US20140192166A1 (en) * 2013-01-10 2014-07-10 The Regents of the University of Colorado, a body corporate Engineered Point Spread Function for Simultaneous Extended Depth of Field and 3D Ranging
US20150178939A1 (en) * 2013-11-27 2015-06-25 Magic Leap, Inc. Virtual and augmented reality systems and methods
CN105934902A (zh) * 2013-11-27 2016-09-07 奇跃公司 虚拟和增强现实系统与方法
US20150177514A1 (en) * 2013-12-19 2015-06-25 Nvidia Corporation System, method, and computer program product for a pinlight see-through near-eye display
CN106233189A (zh) * 2014-01-31 2016-12-14 奇跃公司 多焦点显示系统和方法

Also Published As

Publication number Publication date
CN110431470A (zh) 2019-11-08
EP3351999A1 (en) 2018-07-25
CN110431470B (zh) 2022-03-01

Similar Documents

Publication Publication Date Title
US10558049B2 (en) Focal surface display
CN110325895B (zh) 聚焦调整多平面头戴式显示器
US11106276B2 (en) Focus adjusting headset
US10937129B1 (en) Autofocus virtual reality headset
US10317680B1 (en) Optical aberration correction based on user eye position in head mounted displays
JP7369147B2 (ja) 視認システムのホモグラフィ変換行列ベースの温度較正
KR102038379B1 (ko) 초점 조정 가상 현실 헤드셋
US10241569B2 (en) Focus adjustment method for a virtual reality headset
US11776509B2 (en) Image correction due to deformation of components of a viewing device
US11422293B2 (en) Outward coupling suppression in waveguide display
EP3179289B1 (en) Focus adjusting virtual reality headset
Itoh et al. Gaussian light field: Estimation of viewpoint-dependent blur for optical see-through head-mounted displays
EP4018241A1 (en) Outward coupling suppression in waveguide display
US10698218B1 (en) Display system with oscillating element
CN110431470B (zh) 焦面显示
CN114175628A (zh) 近眼显示器中的图像帧同步
US20240061500A1 (en) Absolute phase unwrapping for fringe analysis in an eye tracking application
CN116107083A (zh) 一种显示方法以及显示装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: California, USA

Applicant after: Yuan Platform Technology Co.,Ltd.

Address before: California, USA

Applicant before: Facebook Technologies, LLC