CN105683810B - 用于近眼显示器的光学系统 - Google Patents
用于近眼显示器的光学系统 Download PDFInfo
- Publication number
- CN105683810B CN105683810B CN201480036269.3A CN201480036269A CN105683810B CN 105683810 B CN105683810 B CN 105683810B CN 201480036269 A CN201480036269 A CN 201480036269A CN 105683810 B CN105683810 B CN 105683810B
- Authority
- CN
- China
- Prior art keywords
- light
- display element
- light source
- angle
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003287 optical effect Effects 0.000 title abstract description 39
- 238000000034 method Methods 0.000 claims abstract description 19
- 230000007246 mechanism Effects 0.000 claims abstract description 11
- 238000001514 detection method Methods 0.000 claims description 78
- 238000012545 processing Methods 0.000 claims description 41
- 230000008859 change Effects 0.000 claims description 17
- 238000005259 measurement Methods 0.000 abstract description 7
- 238000005516 engineering process Methods 0.000 description 27
- 230000003321 amplification Effects 0.000 description 7
- 238000006073 displacement reaction Methods 0.000 description 7
- 238000003199 nucleic acid amplification method Methods 0.000 description 7
- 238000005096 rolling process Methods 0.000 description 7
- 238000009877 rendering Methods 0.000 description 6
- 230000015654 memory Effects 0.000 description 5
- 238000013519 translation Methods 0.000 description 5
- 238000002347 injection Methods 0.000 description 4
- 239000007924 injection Substances 0.000 description 4
- 230000007935 neutral effect Effects 0.000 description 4
- 238000012163 sequencing technique Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 208000030984 MIRAGE syndrome Diseases 0.000 description 3
- 230000009471 action Effects 0.000 description 3
- 210000004556 brain Anatomy 0.000 description 3
- 239000000872 buffer Substances 0.000 description 3
- 239000003990 capacitor Substances 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- TVLSRXXIMLFWEO-UHFFFAOYSA-N prochloraz Chemical compound C1=CN=CN1C(=O)N(CCC)CCOC1=C(Cl)C=C(Cl)C=C1Cl TVLSRXXIMLFWEO-UHFFFAOYSA-N 0.000 description 3
- 238000000429 assembly Methods 0.000 description 2
- 230000000712 assembly Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 208000002173 dizziness Diseases 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000009527 percussion Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000009738 saturating Methods 0.000 description 2
- 230000035939 shock Effects 0.000 description 2
- PEDCQBHIVMGVHV-UHFFFAOYSA-N Glycerine Chemical compound OCC(O)CO PEDCQBHIVMGVHV-UHFFFAOYSA-N 0.000 description 1
- 239000004425 Makrolon Substances 0.000 description 1
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 206010047571 Visual impairment Diseases 0.000 description 1
- 230000001154 acute effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 239000000571 coke Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 238000000059 patterning Methods 0.000 description 1
- 239000004033 plastic Substances 0.000 description 1
- 229920003023 plastic Polymers 0.000 description 1
- 229920000515 polycarbonate Polymers 0.000 description 1
- 238000004080 punching Methods 0.000 description 1
- 230000001179 pupillary effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
- 239000000243 solution Substances 0.000 description 1
- 239000011800 void material Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/26—Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes
- G01B11/27—Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes for testing the alignment of axes
- G01B11/272—Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes for testing the alignment of axes using photoelectric detection means
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0129—Head-up displays characterised by optical features comprising devices for correcting parallax
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Optics & Photonics (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
公开了用于检测显示元件(104)相对于用于呈现混合现实或虚拟现实体验的头戴式显示设备上的参考位置的角度偏移的系统和方法。一旦检测到偏移,该偏移可被纠正以维持显示给头戴式显示设备的左显示元件和右显示元件的虚拟图像的正确的双眼差异。在一个示例中,检测系统使用包括经准直的LED(130)和相机(160)的光学组件,LED(130)和相机(160)一起对于线性偏移不敏感。在存在瞳孔间距调整机构(126)的情况下,这一系统提供对头戴式显示设备上的一个或两个显示元件的角度偏移的真实测量。
Description
背景
混合现实是一种允许将虚拟图像与现实世界物理环境相混合的技术。透视、近眼显示设备可被配戴在用户的头上来观看用户的视野中所显示的现实对象和虚拟对象的混合影像。为了便于形成三维深度的幻象,虚拟对象的图像由头戴式显示设备独立地显示给左眼和右眼。左显示和右显示上的图像可被放置成使得虚拟对象的角度与现实世界中的对象在眼睛上产生的双眼差异相同。这一蓄意的水平双眼差异(汇聚的或立体的)与水平分置的眼睛和位于经定义的距离处的虚拟对象之间产生的水平视差接近地匹配。这一双眼差异被大脑理解为指示虚拟对象在混合现实环境中的深度。准确地控制所显示图像的双眼差异是期望的,因为偏离正确的角度可导致与诸如运动视差之类的其它视觉信号冲突。这些冲突可能降低用户体验,并且在最糟糕的情况下,可能丢失沉浸式体验。此外,偏离垂直方向上的图像之间的对准(垂直视差或垂直发散差)或发散的双眼差异是不自然的,并且不能被眼睛大脑系统所适应。即使是小的偏差(例如,1-2毫弧度)也可能产生不舒服,并且更大的误差完全不能被眼睛大脑系统所融合,这导致虚拟图像看上去像重像。
光学显示系统可针对正确的双眼差异初始地校准。然而,通常头戴式显示设备是重量轻的,并且可能在震动下或者在被佩戴在用户的头上时变形。因此需要在检测与头戴式显示器的左目镜相对于右目镜的偏移以便电子或机械地纠正该偏移。在一个示例中,一个目镜上的激光光源跨过鼻梁向相对的目镜上的光检测器阵列发射。左目镜和右目镜的相对移动可能导致在激光撞击到光检测器阵列处的可检测到的改变,以由此指示该相对偏移。
这一检测器系统的一个缺点是一个目镜相对于另一个目镜的线性偏移可能不能从一个目镜相对于另一个目镜的角度偏移中被辨别出。这两者都可导致相同的经测量出的激光束在光检测器阵列上的偏移。虽然添加额外的激光/光检测器阵列配对可提供额外的信息,但是可能仍然存在某些转换和/或旋转组合无法用这一检测器系统来分辨。此外,这一检测器系统仅提供与一个目镜相对于另一个目镜的偏移有关的信息。所描述的传统系统不能够提供与左目镜和右目镜之一相对于头戴式显示器的框架的绝对移动有关的信息。
概述
本技术的各实施例涉及用于检测显示元件相对于用于呈现混合现实或虚拟现实体验的头戴式显示设备上的参考位置的角度偏移的系统和方法。一旦检测到偏移,该偏移可被纠正以维持显示给头戴式显示设备的左显示元件和右显示元件的虚拟图像的正确的双眼差异。检测系统的一个实施例使用包括经准直的LED和相机的光学组件,LED和相机一起对于线性偏移不敏感。这一系统提供对头戴式显示设备上的一个或两个显示元件的角度偏移的真实测量。
在一个示例中,本技术涉及一种用于检测显示元件相对于用于在所述显示元件上显示虚拟图像的头戴式显示设备上的参考位置的角度偏移的系统,所述系统包括:一种对准检测组件,包括:附连在所述显示元件和所述参考位置之一处的发射器,以及附连在所述显示元件和所述参考位置中的不包括发射器的那个处的传感器,所述传感器能够接收来自所述发射器的发射,并且所述传感器能够显现来自所述发射器的指示所述显示元件的角度偏移的发射,同时对来自所述发射器的指示所述显示元件的线性偏移的发射不敏感;以及与所述对准检测组件通信并且接收来自所述传感器的反馈的处理单元,所述处理单元根据所述反馈确定所述显示元件的角度偏移,并且所述处理单元调整所述虚拟图像向所述显示元件的显示以补偿所述显示元件的经确定的角度偏移。
在另一示例中,本技术涉及一种用于检测第一显示元件相对于头戴式显示设备上的参考位置的角度偏移的系统,该头戴式显示设备用于向具有双眼差异的所述第一显示元件以及第二显示元件显示虚拟图像,所述系统包括:一种对准检测组件,包括:一组用于发射光的光源,从所述组中的至少一个光源射出的光的方向基于所述第一显示元件的角度偏移而改变,并且从所述至少一个光源射出的光的方向基于所述第一显示元件的线性偏移而改变,用于接收来自所述一组光源中的两个或更多个光源的光的相机,所述相机包括:用于接收来自所述两个或更多个光源的光的经准直的透镜,以及用于接收穿过所述经准直的透镜的光的图像平面,所述相机显现所述第一显示元件的角度偏移,同时对所述显示元件的线性偏移不敏感;以及与所述对准检测组件通信并且接收来自所述相机的反馈的处理单元,所述处理单元根据所述反馈确定所述第一显示元件的角度偏移,并且所述处理单元调整所述虚拟图像向所述第一显示元件的显示以纠正由所述第一显示元件的角度偏移导致的双眼差异的改变。
在进一步示例中,本技术涉及一种用于检测第一显示元件相对于头戴式显示设备上的参考位置的角度偏移的方法,所述头戴式显示设备用于向具有双眼差异的所述第一显示元件以及第二显示元件显示虚拟图像,所述方法包括:(a)准直来自所述第一显示设备上的第一光源的光;(b)准直来自所述第二显示设备上的第二光源的光;(c)将来自所述第一和第二光源的经准直的光引导到相机中;(d)准直所述相机中接收的光使得所述相机对从所述第一和第二光源接收的光的角度偏移敏感而对从所述第一和第二光源接收的光的线性偏移不敏感;以及(e)基于所述相机中接收的来自所述第一和第二光源的光的角度偏移来确定所述第一显示元件的角度偏移。
提供本概述以便以简化形式介绍将在以下详细描述中进一步描述的一些概念。该概述不旨在标识所要求保护的主题的关键特征或基本特征,也不旨在被用来帮助确定所要求保护的主题的范围。
附图简述
图1是根据本技术的各实施例的包括对准检测组件的头戴式显示设备的俯视图。
图2是根据本技术的各实施例的对准检测组件的放大的俯视图。
图3是根据本技术的各实施例的对准检测组件的相机的光检测器的图像平面的正视图。
图4是根据本技术的各实施例的对准检测组件的一部分的正视图。
图5是根据本技术的各实施例的对准检测组件的一部分的透视图。
图6是根据本技术的各实施例的对准检测组件的放大的俯视图。
图7是根据本技术的各实施例的对准检测组件的相机的光检测器的图像平面的正视图。
图8是根据本技术的进一步实施例的对准检测组件的放大的俯视图。
图9是根据本技术的各实施例的对准检测组件的相机的光检测器的图像平面的正视图。
图10是示出能够测量角度偏移的对准检测组件的对转换不敏感的方面的俯视图。
图11是示出能够测量角度偏移的对准检测组件的角度偏移敏感性的俯视图。
图12-16是根据本技术的各实施例的检测不同的角度偏移的对准检测组件的相机的光检测器的图像平面的正视图。
图17是根据本技术的各实施例的头戴式显示设备的操作的高级流程图。
图18是根据本技术的各实施例的确定要在头戴式显示设备上显示的虚拟对象的外观的不足206的进一步细节。
图19是根据本技术的替代实施例的包括对准检测组件的头戴式显示设备的俯视图。
图20是根据图19的实施例的对准检测组件的放大的俯视图。
图21是根据本技术的替代实施例的对准检测组件的放大的俯视图。
图22是根据本技术的进一步替代实施例的对准检测组件的放大的俯视图。
图23和24是相机的图像平面上接收到的光图案,该光图案用于提供关于光源与相机和瞳孔间距离对准有关的信息。
图25是根据本技术的各实施例的可与头戴式显示设备一起使用的处理单元的框图。
详细描述
现在参考附图1-25描述本技术的各实施例,这些实施例一般涉及用于呈现混合显示或虚拟显示体验的头戴式显示设备中的对准检测组件和方法。对准检测组件可检测头戴式显示设备的显示元件中的一个或两个相对于设备的参照位置的对准。在各实施例中,来自对准检测组件的信息可被用作为闭环反馈系统的一部分以调整双眼差异,图像采用该双眼差异来显示给头戴式显示设备的左显示元件和右显示元件。以此方式,可维持所显示的虚拟对象的三维深度的幻象。
此处所使用的术语“顶部”和“底部”、“上”和“下”以及“垂直”和“水平”仅仅作为示例和说明的目的,并且不意味着限制本发明的描述,因为所提及的项可在位置和朝向上被互换。同样,如此处所使用的,术语“基本上”、“大致”、和/或“大约”意味着所指定的大小或参数可在对于给定应用而言可接受的制造公差内变化。在一个实施例中,可接受的制造公差是±0.25%。
图1是包括对准检测组件102的头戴式显示设备100的俯视图。头戴式显示设备100可具有各种各样的组件和特征,但一般来说被用于向佩戴设备100的用户呈现混合现实环境。在一替代实施例中,头戴式显示设备100可被用来提供纯粹虚拟现实环境,即其中现实世界对象被挡住不可见而仅仅虚拟对象被显示的环境。以下描述了头戴式显示设备100的组件和特征中的一些,但是对准检测组件102可与之一起使用的头戴式显示设备100的示例的进一步细节被公开在美国公开的专利申请号2012/01272284、题为“Head-MountedDisplay Device Which Provides Surround Video”(提供环绕视频的头戴式显示设备)、公开于2012年5月24日的申请中。
在各实施例中,头戴式显示设备100可包括分别与用户的左眼和右眼相关联的一对显示元件104、106。显示元件104、106在一定程度上透明,以使得用户可透过显示元件看到该用户的视野(FOV)内的现实世界对象。显示元件还提供将虚拟图像投射到该用户的FOV中以使得所述虚拟图像也可出现在现实世界对象旁边并与之混合的能力。虚拟对象可以以考虑了视差的双眼差异来投射到显示元件104、106,从而产生虚拟对象的三维深度的幻象。在各实施例中,头戴式显示设备100可自动地跟踪用户正在看之处,使得系统可确定将虚拟图像插入到该用户的FOV中的何处。一旦系统知晓了如何将该虚拟图像投射至相应的显示元件以及要将该虚拟图像投射至相应的显示元件的何处,就使用该显示元件来投射该图像。
头戴式显示设备100可包括集成处理单元108。在进一步实施例中,设备100可经由有线或无线连接与分开的处理单元108通信。在各实施例中,包括其处理单元108的头戴式显示设备100可构建混合显示环境的模型,该模型包括6个自由度:用户、现实世界对象和虚拟三维对象在该环境中的x、y、z、俯仰、偏航以及滚转位置。处理单元108的一个示例的细节在以下参照图25来描述。在进一步的实施例中,处理单元108可包括额外或替代的组件。
除了显示元件104和106,头戴式显示设备100可进一步包括镜腿110、112、鼻梁116以及框架118。对准检测组件102可具有安装在显示元件104和106上的部分(如以下所阐述的),而显示元件104和106可被安装到框架118。在各实施例中,框架118可由刚性材料制成,诸如举例而言聚碳酸酯或其它塑料。所示出的框架118的配置仅仅是示例,并且可具有各种各样其它配置用于支撑显示元件104、106以及对准检测组件102。
不同用户具有不同的瞳孔间距,因此一种大小的头戴式显示设备100可能不适合所有用户。因此,在各实施例中,框架118可用(图1中示意性示出的)机构126来形成,以允许调整显示元件104和显示元件106之间的距离(也称为瞳孔间距或“IPD”)。
如所阐述的,除了感测角度偏移(例如由于IPD调整机构中的机械溢出或公差所导致的),对准检测组件102还提供对IPD的测量。知晓显示元件104、106在相对于彼此的何处可被用于确定如何将图像显示给显示元件104和106。具体来说,头戴式显示设备100将根据虚拟对象在三维空间中经确定的Z轴深度来计算虚拟对象在显示元件104、106中(在角度空间中)的放置。对于这一放置的计算采用显示元件104、106之间的距离。在一个实施例中,这一距离的范围可以是51mm–74mm,但在其他实施例中这一范围可以比这个更大或更小。
允许调整IPD的机构126可根据各种机械方案来操作。在美国公开的专利申请号2013/0050833、题为“Adjustment of a Mixed Reality Display For Inter-PupillaryDistance Alignment”(针对瞳孔间距对准对混合显示显示器进行调整)、公开于2013年2月28日的申请中提出了一个示例。
在IPD调整机构的一个示例中,框架118可以是单一刚性结构,而显示元件104、106可被安装用于朝向以及背向彼此地在框架118上平移。作为众多示例之一,框架118可包括螺纹杆或轨道,由此显示元件104、106被附连到该轨道。与显示元件104配对的轨道的螺纹可以和与显示元件106配对的轨道的螺纹相反,使得轨道的旋转取决于轨道旋转的方向将显示元件104、106沿螺纹彼此移动地更靠近以及更远离。显示元件104、106可通过各种其它机械系统可平移地附连到框架118,机械系统中的一些公开在上文提到的美国公开的专利申请号2013/0050833、题为“Adjustment of a Mixed Reality Display For Inter-Pupillary Distance Alignment”(针对瞳孔间距对准对混合显示显示器进行调整)的申请中。
在进一步的机械方案中,框架118可由两部分形成,第一部分固定地安装到显示元件104,而第二部分固定地安装到显示元件106。这两部分能够彼此朝向或背向移动,以调整头戴式显示设备100的IPD。框架118的这两部分可通过各种机械系统来相对于彼此调整以调整IPD距离,机械系统诸如举例而言的其中一个部分穿入另一部分的套管式部分。设想了允许调整IPD的其它机械机制126。这些机制126可在用户控制下手动或自动地操作。
朝向场景的相机120可被提供在显示元件104、106之一或两个前面,该相机120能够捕捉视频和静态图像。那些图像被传送给处理单元108以帮助构建场景图以及确定头戴式显示设备100在场景图内的朝向。
每个显示元件104、106可包括各种专用于显示虚拟图像的组件。在各实施例中,每个显示元件104、106可包括图像源,该图像源在一个实施例中可包括用于投射虚拟图像的微显示器122以及用于将图像从微显示器122引导到光导光学元件128中的透镜124。在一个实施例中,透镜124可以是准直透镜。
每个光导光学元件128可被提供在显示元件104、106的透视透镜129上或其中间。每个光导光学元件128经由衍射光栅和其它光学组件将虚拟图像从其相关联的微显示器122通过透镜129传输向用户的相应的眼睛(如来自显示元件104、106的箭头所指示)。光导光学元件128还允许来自头戴式显示设备100正面的光透过光导光学元件128和透镜129被传送到用户的眼睛。透视透镜129可以是眼镜中使用的标准透镜,并且可根据任何处方(包括无处方)来制作。
图2是用于确定显示元件104、106相对于头戴式显示设备100上的参考位置对准的对准检测组件102的经放大的俯视图。在各实施例中,参考位置可以是框架118或框架118的一部分。在这一示例中,对准检测组件102能够确定显示元件104相对于框架118的对准,并且独立地,确定显示元件106相对于框架118的对准。在进一步实施例中,参考位置是显示元件104、106之一。在这一示例中,对准检测组件102能够确定显示元件104相对于显示元件106的对准,反之亦然。
如图2中所示,对准检测组件102可包括第一组光源130和第二组光源140中的多个发射器。第一组光源130(此处也被称为第一组130)可被安装到显示元件104,而第二组光源140(此处也被称为第二组140)可被安装到显示元件106,反之亦然。第一和第二组130、140中的光源可被放置在关于参考面R的镜像位置,参考面R在图2的图示页面中内外向延伸,将头戴式显示设备100一分为二。在图2中示出的示例中,第一组光源130可包括第一光源(此处被称为正交光源132)以及第二、第三以及第四光源(此处被称为成角度的光源134、136以及138)。类似的,第二组光源140可包括正交光源142和成角度的光源144、146、148。如以下所阐述的,第一组130和第二组140中的多个光源在进一步实施例中可改变。
如从图4中的示例中可见,第一和第二组130、140中的成角度的光源可放置成一行,彼此共面(例如,水平地共面)。第一和第二组130、140中的正交光源可相对于成角度的光源的行偏移(例如,垂直地偏移)。在示出的示例中,正交光源偏移在成角度的光源上方,但是在进一步实施例中正交光源可以偏移在成角度的光源下方。
在一个示例中,第一和第二组130、140中的每一个光源可以是LED发射光,其通过透镜(未示出)来准直以便聚焦在无穷远处。在这一示例中,第一和第二组130、140中的LED可发射850nm波长的红外(IR)光,但是可以理解,也可使用其它类型的LED。在进一步实施例中,来自第一和/或第二组的光源可以是激光。在激光被用作为光源的情况下,每个组130、140中的单个激光可被拆分成使用衍射透镜的每个组130、140中的各个光源。衍射透镜可以是各种类型,包括全息的、表面凹凸的或相衍的。
来自第一和第二组130、140中的光源中的一个或多个的经准直的光的发射可在图像传感器(此处称为相机160)内接收。相机160可以是已知设备,包括光检测器阵列,诸如举例而言的CMOS图像传感器。在一个示例中,相机160可以是来自加利福尼亚州圣克拉拉市的OmniVision技术有限公司的OmniPixel3-GS传感器。这一相机可具有400x 400分辨率的3微米(μm)像素以及1248μm x 1248μm的图像面积。这些配置仅仅是作为示例,在进一步实施例中,相机160可以是具有其它类型的其它类型的图像传感器。
相机160可包括经准直的透镜162和放置在经准直的透镜162的聚焦长度处的光检测器的图像平面164。如以下更详细描述的,经准直的透镜162将入射到其上的与该经准直的透镜的光轴平行的光线大致向下聚焦到图像平面164上的单个点或区域。
来自第一和第二组130、140中的光源的光经由反射元件150被重新引导向相机160。在没有元件150的情况下,相机160将需要检测直接来自组130、140中的正交光源和成角度的光源的光。这在本技术中是可能的,但是可使用相对高分辨率的光检测器图像平面164以及宽FOV来检测来自正交光源和成角度的光源两者的光。通过使用反射元件150,来自正交光源和成角度的光源的光可被向下引导到相机160的中心。这提供了更好的角度分辨率,放松了对于可被使用的相机160的类型的约束。
在各实施例中,反射元件150可以是棱镜,其具有关于参考面R对称的第一半和第二半。该棱镜可被安装到框架118。通过这一对称,一个棱镜可被用来将来自光源组130、140两者的光向下重新引导到相机160中。然而,在进一步实施例中,两个分开的棱镜可被使用——一个重新引导来自第一组130中的光源的光,第二个重新引导来自第二组140中的光源的光。
如图2、4和5中所指示的,反射元件150可以是多层琢刻的,其具有顶部152,顶部152具有形成相对于参考面R成45°角的侧面152a、152b。反射元件150可进一步包括底部154,顶部154具有形成相对于参考面R成60°角的侧面154a、154b。如以下提到的,在进一步实施例中,这些角度可变化。
反射元件150的顶部和底部152、154的侧面的角度被旋转以使得将来自第一和第二组130、140中的光源中的至少一些的光重新引导到相机160。如上文所提到的,正交光源132、142相对于成角度的光源134、136、138、144、146、148的行偏移。正交光源132、142以及顶部152的侧面152a、152b可以是共面的,并且被定位成使得从正交光源射出的经准直的光撞击侧面152a、152b并且被平行于经准直的透镜162的光轴地重新引导到相机160中(假设显示元件104和106处于如以下所阐述的适当的对准)。
在各实施例中,经准直的光可从正交光源132、142在垂直于参考面R(也垂直于相机162的经准直的透镜162的光轴)的角度射出。如以下所阐述的,这可平行于显示元件104、106为了IPD调整而彼此朝向和背离地移动的方向。在给出这一平行的情况下,来自正交光源132、142的光撞击侧面152a、152b的位置不随IPD的改变而改变。因此,第一和第二组光源130、140中的每一个可包括单个正交光源。
此外,在给出对准检测组件102在参考面R附近对称的情况下,并且在给出来自两个组的光源130、140的光被聚焦到单个相机160的情况下,以45°来提供侧面152a、152b将来自正交光源132、142的光适当地重新引导为平行于经准直的透镜162的光轴。
然而,可以想到,侧面152a、152b可以成45°以外的其它角度,此时来自正交光源132、142的经准直的光可能在穿过经准直的透镜162之后不汇聚到图像平面164上的单个点。只要图像平面164上的这些位置被初始地(如以下阐述的)和已知地校准,对准检测组件102可仍然感测角度偏移(如以下也将阐述的)。
如图2、4和5中还可见到的,底部154的侧面154a、154b位于光从第一组130中的成角度的光源134、136和138以及从第二组140中的成角度的光源144、146和148射出的平面中。成角度的光源以及底部154的侧面154a、152b可以被定位成使得从成角度的光源射出的经准直的光撞击侧面154a、154b并且被平行于经准直的透镜162的光轴地重新引导到相机160中(假设显示元件104和106处于如以下所阐述的适当的对准)。
在各实施例中,在给出例如正交和成角度的光源的垂直偏移的情况下,来自正交光源132、142的经准直的光可在第一平面中行进到相机160,而来自成角度的光源134、136、138、144、146、148中的至少一些的经准直的光可在第二平面中行进到该相机。在各实施例中,这些第一和第二平面可以是平行的。一旦撞击经准直的透镜162,来自这些相应的第一和第二平面的光可汇聚成图像平面164上的单个中心点或区域(假设显示元件104和106处于如以下所阐述的适当的对准)。在图3中示出了这一汇聚点或区域。
图2和3示出了一个示例,其中来自光源132、134、142和144的光在相机160中接收并且被向下聚焦到图像平面164的中心点或区域。可以想到,图像平面164可以被分割成例如四个象限,并且每个象限接收来自一个不同光源的光。然而,通过将每一个光源聚焦到单个点或区域(并且如以下阐述的区分不同的源),图像平面164的角度分辨率可通过象限化的图像平面增加4倍。
存在几种用于区分来自各个光源的入射到图像平面164上的光的方法。在一个示例中,图案化的阴影掩膜可被放置在光源前面,该图案化的阴影掩膜将经准直的光整形成可区分的形状。替代地或附加地,来自各个光源的光可以预定时间顺序被脉冲开关,该预定时间顺序对于每一个光源不同。替代地或附加地,来自各个光源的光可以给定频率发射,该频率对于每一个光源不同。对于这些方法中的每一个所发射的光中的区别可由图像平面164检测,使得(与图像平面164通信的)处理单元108能够确定入射到其上的光的光源,甚至是在如图3中所示的汇聚到一个公共点上的不止一个光源的光的情况下。
在所示出的示例中,来自正交光源132、142的光可被整形为圆,而来自成角度的光源134、144的光可被整形为星形。为了区别来自第一组130的光和来自第二组140的光,来自第一组130的光可用第一周期性来时间定序,而来自第二组140的光可用第二周期性来时间定序。可以理解,来自图2和3中的光源132、134、142和144的光可通过上文所述的方法中的任意一种而与彼此可区分。
如上文提到的,正交光源132、142可发射经准直的光,其可平行于显示元件104、106为了IPD调整而彼此朝向和背离地移动的方向。由此,将正交光源132、142移动地靠近或远离反射元件150不会改变光撞击侧面152a、152b的点。相应的,假设正交光源132、142没有角偏移,当IPD被调整时,来自正交光源132、142的经准直的光将聚焦在图像平面上的大致相同的点。
相反,由于来自成角度的光源134、136、138、144、146、148的经准直的光不平行于IPD调整的方向,因此来自这些光源的光经在IPD调整之际在侧面154a、154b上线性平移。因此,可能发生相机160仅接收到来自成角度的光源134、136、138、144、146以及148中的一些的光。对准检测组件102连同处理单元108可使用关于哪些成角度的光源提供了在相机160内接收到的光的信息来辨别IPD。这一信息可被用于调整对于显示元件104、106的显示器的立体视觉角来,如以下阐述的。
在图2中,IPD可被调整以相对靠近在一起,并且仅仅来自成角度的光源134和144的光在相机160内被接收。在图2中,IPD可已相对于图2中被调整为更大,使得来自成角度的光源134和144的光不再在相机160中被接收。相反,来自成光源136和146的光在相机160内被接收。(图4和5示出来自第一组130的光源;为了清楚,来自第二组140的光源已被省略,但是还是可存在并且以相同的方式来反映。)
在图6中,IPD可已相对于图5中被调整为更大。在这一示例中,来自成角度的光源136、138、146和148的光在相机160内被接收。在其中图案化的阴影掩膜被放置在光源前面以产生以图案射出的经准直的光的示例中,相机160中接收到的来自正交光源和来自第一和第二组130、140中的每一个的成角度的光源中的两个的光可产生图像平面164上的图案,如图7中所示。图7示出接收到被整形成一个圆、一个正方形以及一个三角形的光的图像平面,它们表示正交光源和来自第一和第二组130、140中的每一个的两个成角度的光源。如上文所提到的,第一组130中的光源可与第二组140中的光源相区分,例如通过时间定序或光波长。
使用关于哪些成角度的光源正提供在相机160内被接收到的光的信息,处理单元108可分辨IPD以及显示元件104和106相隔有多远。图2和5示出了其中相机160接收来自第一和第二组130、140中的每一个的单个成角度的光源的光的示例。图6示出了其中相机160中接收到来自第一和第二组130、140中的每一个的两个成角度的光源的光的示例。可以理解,在IPD调整期间,相机160中可接收到来自第一和第二组130、140中的每一个的三个成角度的光源的光。
此外,如上文所提到的,在进一步实施例中,在第一和第二组130、140中的每一个中可存在不止三个成角度的光源。例如,图8和9示出一个示例,其中第四个成角度的光源139被添加到第一组130,而第四个成角度的光源149被添加到第二组140。在示出的示例中,在IPD调整期间,相机160内可接收到来自正交光源132、142和成角度的光源136、138、139和146、148、149的光。处理单元108可使用这一信息来更详细地确定IPD以及显示元件104、106相隔多远。在其它实施例中,设想了更多成角度的光源。以下阐述用于确定相机160中接收到的光的图案的IPD的附加方法。
替代具有第一和第二组130、140中的各个光源,可存在单个光源,该单个光源随后被拆分成经准直光的多个若干光束,每个光束可与彼此相区分。例如,单个光源可由衍射光栅拆分成经准直光的多个若干光束,并且这些相应的光束可通过上文描述的方法中的任意一种来区分。以此方式拆分的单个光源可被用来替代成角度的光源中的一些或全部。这一相同的光源还可被用来替代正交光源,其中提供了镜子来如上所述的将光束引导成平行于显示元件104、106移动的方向。
第一组光源130中的光源可直接附连到显示元件104,而第二组光源140中的光源可直接附连到显示元件106。由此,显示元件104的角度偏移(俯仰、偏航和/或滚转)将导致第一组130中的光源的对应的角度偏移。对于显示元件106和第二组140中的光源的角度偏移同样成立。如以下更详细描述的,第一和/或第二组130、140中的角度偏移通过在图像平面164上移位来自光源的光来在相机160中显现,这可被测量并且其特征在于与显示元件104和/或106的角度偏移接近。
如上文所描述的,IPD可被调整,其改动可由对准检测组件102所检测。然而,可能出现由于IPD调整机构的各组件的机械溢出和公差所导致的线性偏移的伴生分量。伴生线性偏移也可因其它原因而发生。期望的是这一线性偏移不扰乱对显示元件104、106的角度偏移的测量。
因此,本技术的特征是对准检测组件102对于显示元件104、106相对于框架118的线性偏移不敏感(除了如上文所描述的与感测哪个成角度的光源在相机160内显现有关)。与传统系统形成对比,这允许对准检测组件102测量角度偏移,而不带有关于系统是测量角度偏移还是线性偏移的不确定性。
例如,参照图10中的透镜162的俯视图,当经准直的光平行于相机160的经准直的透镜162(图10中示出的透镜的至少一部分)的光轴OA接收时,经准直的光线汇聚到图像平面164上的光轴。如上文所提到的,第一组130的光源132、134、136和138被附连并与显示元件104一起移动。类似的,第二组140的光源142、144、146和148被附连并与显示元件106一起移动。
显示元件104、106沿X方向(IPD调整的方向和在图10的俯视图说明中的上/下)的平移将把经准直的光从经还准直的透镜162上的来自一个或多个光源的经准直的光在图10的俯视图说明中向上/向下移位。然而,该光仍将汇聚到图像平面164处的光轴。
显示元件104、106沿Y方向(一般是相对于头戴式显示设备100的前表面的上和下以及图10的俯视图说明的页面的进/出)的平移将把经准直的光从经还准直的透镜162上的来自一个或多个光源的经准直的光在图10的俯视图说明的页面向内/向外移位。然而,该光仍将汇聚到图像平面164处的光轴。
显示元件104、106沿Z方向(一般是朝向以及远离头戴式显示设备100的前表面以及图10的俯视图说明的左/右)的平移不会对来自一个或多个光源的经准直的光到达经准直的透镜的位置产生任何作用。该光仍将继续汇聚到图像平面164处的光轴。
作为对比,显示元件104、106相对于头戴式显示设备100上的参考位置的角度偏移中的改变可导致来自一个或多个光源的光如何以及在何处撞击图像平面164的可检测的改变。这一角度偏移可来自于各种源,包括例如IPD调整机构中的机械溢出、头戴式显示设备100的震动和/或头戴式显示设备100在用户头上的变形。
参照图11中所示的透镜162的俯视图,作为一个这样的示例,显示元件104、106之一已遭受了偏航旋转(即,围绕Y轴进出页面)。在以下的描述中,将假设是显示元件104被角度地偏移而显示元件106在头戴式显示设备100中保持对准和平行。因此,(安装在显示元件104上的)来自第一组130中的光源的经准直的光在相机160的图像平面164上移位,如以下阐述的。在这一示例中,(安装在显示元件106上的)来自第二组140中的光源的经准直的光在可保持聚焦在图像平面164上的经准直的透镜162的光轴处。
可以理解,显示元件106可代替显示元件104角度偏移,在这种情况下,来自第二组140中的光源的光将在图像平面164上移位,而来自第一组130中的光源的光在可保持聚焦在光轴处。还可以理解显示元件104和106都可彼此独立地角度偏移。这将导致来自第一组130的光在图像平面164上的移位以及来自第二组140的光在图像平面164上的移位,其中这些来自第一组和第二组的光在图像平面上的移位彼此独立。相应的移位可被检测和分析以提供两个显示元件104、106的角度偏移,该角度偏移随后可被独立地考虑。
参考回图11,显示元件104已在偏航旋转上角度偏移,这已导致来自第一组130中的光源的经准直的光由反射元件150反射并以相对于经准直的透镜162的光轴OA的角度偏移角θ撞击相机160中的经准直的透镜162。这导致聚焦在图像平面上的光偏离光轴OA一距离d。假设是理想透镜,角度偏移角θ的量级由以下方程给出:
tanθ=d/FL(1)
其中FL是经准直的透镜的焦距长度。一旦知晓了角度偏移角θ的量级,这一信息可从对准检测组件102传递给处理单元108,以使处理单元108通过调整对显示元件104显示的图像来纠正角度偏移,如以下阐述的。
除了量级,角度偏移的角度方向(俯仰、偏航、和/或滚转)也可被检测并用来调整显示的图像。例如,参照图12,显示元件104的偏航旋转将把在相机160中接收到的来自第一组130中的光源的光在图像平面164上水平地左右移位。在图12的示例中,来自两个光源(例如光源132和136)的光用虚线示出为在图像平面164上水平地远离光轴移位。如上文所描述的,在这一示例中,显示元件106保持对准和平行,并且来自第二组140中的光源的光保持聚焦在光学中心上。
现在参照图13,显示元件104的滚动旋转将把在相机160中接收到的来自第一组130中的光源的光在图像平面164上垂直地上下移位。在图13的示例中,来自两个光源(例如光源132和136)的光用虚线示出为在图像平面164上垂直地远离光轴移位。如上文所描述的,在这一示例中,显示元件106可保持对准和平行,并且来自第二组140中的光源的光保持聚焦在光学中心上。
现在参照图13,显示元件104的俯仰旋转将导致来自第一组130中的光源的光沿弧线路径远离光轴移位(除了在其中旋转的轴与来自正交光源的光同轴的有限情况下,这种情况以下将描述)。在各实施例中,这一弧线路径(如图14中的箭头所示)可由对准检测组件102随时间跟踪以识别这一移动以及俯仰旋转。
俯仰、偏航和滚动旋转的某种组合将导致图12-14中的图像平面164上显示的偏移的某种组合。取决于在相机160内接收的来自光源的经准直的光已在图像平面164上移位到何处,对准检测组件102连同处理单元108能够确定光源的的俯仰、偏航、滚动或其组合以及产生经移位的光图案的显示元件。
如图10-12中所指示的,在许多实例中,角度旋转将把从两个或更多个光源接收的光移位相同或相似的量。因此,单个光源可常常被单独使用来确定显示元件104、106的角度偏移的俯仰、偏航、滚动和量级。如以下所阐述的,各实施例可使用第一组130和第二组140中的单个光源来操作。
然而,存在显示元件104、106的角度偏移的数个场景,其中不止一个光源可被用来分辨角度偏移。例如,可存在显示元件(例如元件104)的俯仰旋转,该显示元件具有与从正交光源132射出的行进到反射元件150的经准直的光同轴的轴。在这一实例中,由于旋转是围绕来自正交光源132的经准直的光的轴,因此该旋转在图像平面上将不可被分辨。这一情景被示出在例如图15中,其中来自正交光源132的圆形图案光仍然大致地出现在图像平面164的经准直的透镜162的光轴处。
然而,该绕来自光源132的经准直的光的俯仰旋转的孤立的实例可通过确保来自至少一个成角度的光源的光在相机160中被接收而可以分辨。在显示元件之一(例如显示元件104)已通过俯仰旋转(具有与来自正交光源的经准直的光有关的旋转轴)被角度偏移的情况下,来自至少一个成角度的光源的光将在图像平面上出现为已沿弧线路径移位,如图15中所示。
因此,通过配置光源的位置使得来自正交光源132和至少一个其它的成角度的光源134、136、138的光在相机160内被接收,对准检测组件102能够分辨角度偏移的各种组合。
同样的,取决于来自成角度的光源134、136、138的经准直的光在图像平面上出现在何处,对准检测组件102能够使用该信息来推导显示元件104的角度偏移的大部分组合。然而,将存在俯仰和偏航旋转的组合,其可能具有与从成角度的光源射出的经准直的光同轴的轴。在这一实例中,由于旋转是围绕来自正交光源132的经准直的光的轴,因此该旋转在图像平面上将不可被分辨,如例如图16中的虚线的星星所示。
然而,该关于来自光源132的经准直的光的角度偏移的孤立的实例可通过确保来自至少正交光源和一个其它成角度的光源的光在相机160中被接收而可以分辨。在显示元件之一(例如显示元件104)已通过俯仰和偏航旋转(具有与自正交光源的经准直的光有关的旋转轴)被角度偏移的情况下,来自至少一个其它的光源的光将在图像平面上出现为已水平地并沿弧线路径移位,如图16中的虚线圆所示。
再次,上文已描述了显示元件104和第一组130中的相关联光源的角度偏移的示例。上文的描述将同样地适用于显示元件106和第二组140中的相关联光源的角度偏移。对准检测组件102能够测量显示元件之一或显示元件中的彼此独立的两个的角度偏移。
因此,通过配置光源的位置使得来自成角度的光源之一和至少一个其它的光源(正交或成角度的)的光在相机160内被接收,对准检测组件102能够分辨角度偏移的各种组合。如以下所阐述的,对准检测组件102可使用成角度的光源(并且不使用正交光源)来配置,使得来自至少两个成角度的光源的光在相机160中被接收。这对于分辨旋转的各种可能组合是足够的。如以下进一步阐述的,系统可使用单个正交光源或每个组130、140中的单个成角度的光源来配置。这样的实施例可能不能够分辨其中旋转轴与光源同轴的情况,但是它将提供在大部分情况下的角度偏移并且被设想作为此处的实施例。
一旦对准检测组件102确定了显示元件104和/或106的角度偏移的量级和方向,显示给相应的显示元件104和/或106的虚拟图像可被调整以纠正所确定的角度偏移。这一纠正确保图像以正确的双眼差异显示给相应的显示元件104和106并且维持适当的三维混合现实或完全虚拟体验。图17是示出由头戴式显示设备100在呈现混合现实或完全虚拟体验中执行的步骤中的一些操作的高级流程图。
在步骤200中,头戴式显示设备100可从场景收集数据。这可包括由面向场景的相机120所感测的图像数据。在步骤202,系统确定头戴式显示设备100的x、y和z位置、朝向以及FOV。在知晓了场景和用户位置的情况下,可在步骤204发展场景图,该场景图标识出该场景的几何形状以及该场景内的对象的几何形状和位置。在各实施例中,在给定帧中生成的场景图可包括现实世界对象和虚拟对象在该场景中的x,y和z位置。
在步骤206中,该系统可使用用户位置和FOV的场景图来确定当前时间从用户的视角看到的虚拟对象的位置和外观。步骤206的一部分可包括基于来自对准检测组件102的反馈来调整虚拟对象向显示元件104和/或106显示的位置。现在将参考图18的流程图来更详细地解释步骤206中的进一步细节,因为它与来自对准检测组件102的反馈有关。
在步骤230,处理单元108可从对准检测组件102接收显示元件104和/或106的角度偏移的量级和方向(俯仰、偏航、滚动或其组合)。在步骤234,处理单元108可将步骤230中接收的数据与显示元件104、106的中立的、对齐的位置作比较。
具体来说,如上文所描述的,在一个理论示例中,当显示元件104、106在头戴式显示设备100内对齐且平行时,相机160中接收到的来自第一和第二组130、140中的光源的近准直的光汇聚到图像平面164上的经准直的透镜162的光轴。然而,在其它示例中,可能的是中立位置(即初始位置,在此处显示元件以正确的双眼差异显示虚拟图像)不导致从组130、140中的光源接收的经准直的光汇聚到图像平面164上的经准直的透镜162的光轴。由于公差和其它因素,来自第一和第二组130、140之一或多个光源的光的中立位置可能偏离图像平面上的光轴。
实践中,对准检测组件102可在使用前经受校准过程。在这一校准过程中,在显示元件104、106正确定位的情况下,可读取与来自每一个光源的光在哪里撞击图像平面、以及在显示元件104、106中的每一个中引起俯仰、偏航和滚动的角度偏移之际该光如何移位有关的读数。这一信息可被存储在处理单元108的存储器中并且被用作为步骤234中的比较的基础。
在步骤238,基于步骤234中的比较的结果,处理单元108可调整要显示给显示元件104和/或显示元件106的虚拟对象的位置。具体来说,处理单元108可调整要显示的虚拟对象在显示元件104、106中的位置以补偿并实际上消除该显示元件104、106相对于其中立位置的任何角度偏移。
在各实施例中,涉及基于角度偏移对显示的图像进行调整的步骤230-238可实时地在每次完成步骤200-220的循环时进行。在进一步实施例中,步骤230-238可周期性地而非实时地进行。例如,每次完成图17的循环后接收来自对准检测组件102的反馈,系统可对显示元件104、106的高频振荡或对准检测组件102的组件作出响应。如果滤除这一程度的敏感性是期望的,则系统可较不频繁地接收来自对准检测组件的反馈。作为一个示例,可提供每秒10-20帧的反馈,但在进一步实施例中可以比该频率更大或更小。
再次参照图17,一旦接收到虚拟对象数据,处理单元108就可以在步骤208中对要使用场景图和用户的FOV来渲染的虚拟对象执行渲染设置操作。步骤208中的设置渲染操作可包括与要在最终FOV中显示的虚拟对象相关联的常见渲染任务。这些渲染任务可包括例如阴影图生成、光照和动画。在一些实施例中,渲染设置步骤208可进一步包括对可能的绘制信息的编译,诸如要在预测的最终FOV中显示的虚拟对象的顶点缓冲区、纹理和状态。
在步骤212,处理单元108的图形处理单元可接着渲染要显示给相应的显示元件104、106的图像。渲染操作的各部分可能已经在渲染设置步骤208中被执行并且被周期性地更新。在步骤216,处理单元108检查是否到了该将所渲染的图像发送给显示元件104、106的时间、或者是否还有时间使用来自头戴式显示设备100和对准检测组件102的更加新的位置反馈数据来对图像进一步细化。
如果到了该显示图像的适合,则在步骤220,一个或多个虚拟对象的图像被发送给显示元件104、106中的微显示器122以被显示在相应的显示元件中的适当的像素处。另一方面,在步骤216还没到发送要被显示的图像数据帧的时间的情况下,处理单元可为了获得更多经更新数据而循环回到步骤200以进一步细化最终FOV的预测以及FOV中的对象的最终位置的预测。上面仅以示例的方式描述了处理步骤200至220。理解到,这些步骤中的一个或多个步骤在另外的实施例中可被省略,这些步骤可以按不同次序来执行,或者可以添加附加步骤。一个示例中的头戴式显示设备100的操作的更详细的流在上文提到的题为“Head-Mounted Display Device Which Provides Surround Video”(提供环绕视频的头戴式显示设备)的美国已公开专利申请号2012/0127284中被提供。
在上文描述的各实施例中,头戴式显示设备100包括用于调整IPD的IPD调整机构126,并且对准检测组件102包括提供关于IPD调整的信息的组件。在图19中所示的进一步实施例中,根据本技术的对准检测组件102可与头戴式显示设备100一起使用,其中IPD调整机构126被省略并且不存在任何IPD调整。在图19中,具有与图1中相同的附图标记的组件可在结构上和操作上与上文结合图1描述的相同,其中可能的例外是以下提到的对准检测组件102。
图20示出了图19的对准检测组件102的放大的俯视图。图20的对准检测组件102可包括与上文描述的那些相同或相似的组件,包括例如多层琢刻的反射元件150以及包括经准直的透镜162和光检测器图像平面164的相机160。图20的对准检测组件102还可包括如上文所描述的第一和第二组光源130、140。然而,由于不存在IPD调整,因此不需要第一和第二组130、140中的多个成角度的光源。
在图20中示出的实施例中,在第一组130中可以有单个正交光源132以及单个成角度的光源134。第二组140可包括相同的两个光源。如上文描述的,正交光源132、142可由反射元件150上的第一组琢刻的侧面反射,而成角度的光源134、144可由反射元件150上的第二组琢刻的侧面反射。如上文所描述的,来自这些光源中的每一个的光可被向下反射到相机160中并通过经准直的透镜162在图像平面164上成像,以检测角度偏移。如之前指出的,本技术的采用IPD调整来操作的各实施例还可使用图20中所示的对准检测组件102来操作。
上文描述的正交光源132、142在存在IPD调整时具有的优点在于来自正交光源的光在图像平面164上的位置不随IPD的改变而改变。然而,在不存在任何IPD调整的实施例中,正交光源可如图21中所示的被省略。在图21的实施例中,第一和第二组光源130、140中的每一个包括如上文所描述的两个成角度的光源。如上文所描述的,来自这些光源中的每一个的光可被向下反射到相机160中并通过经准直的透镜162在图像平面164上成像,以检测角度偏移。如之前指出的,本技术的采用IPD调整来操作的各实施例还可使用图21中所示的对准检测组件102来操作。
图22类似于图21中示出的实施例,但是第一和第二组光源130、140中的每一个包括单个成角度的光源。在所示出的实施例中,光源是如上文所描述的成角度的光源,但是该光源可替代地是如上文所描述的正交光源。图22中示出的对准检测组件102能够提供针对显示元件104、106的大部分角度偏移的对准信息。如之前指出的,本技术的采用IPD调整来操作的各实施例还可使用图22中所示的对准检测组件102来操作。
如上文所描述的对准检测组件102能够基于第一和第二组130、140中的哪些光源在相机160内显现以及光成像在图像平面164上的何处来检测显示元件104、106的角度偏移以及IPD。在进一步实施例中,额外和/或替代的组件可被提供在对准检测组件102内以提供IPD和角度偏移的详细信息。
例如,在一个实施例中,替代使用射出单个光束的成角度的光源,成角度的光源可被配置成射出图案化的光束,例如包括周围围绕了一个环的中心光束。这个光环可通过使用第一组和第二组130、140中的每一个成角度的光源内的环形镜子或与之相关联的环境镜子来产生。到达与光源相关联的经准直的透镜(未示出)的与光轴(诸如中心光束)平行的光可被透射过聚焦在无穷远的经准直的透镜。另一方面,以不平行角度抵达与光源准直的透镜的光(例如,来自一部分光环的光)将以与上文参照碰撞经准直的透镜162的成角度的光所阐述的相同的方式被移位。
采用这一布置,在成角度的光源在空间上与相机160和经准直的透镜162对齐且同轴的情况下,图像平面164上的图案可以是如图23中所示的具有环绕的环的点(如上文提到的,中心光束可以被整形,在该示出的示例中是正方形,用以使其与组中的其它成角度的光源相区分)。另一方面,在成角度的光源不与相机160对齐且不同轴的情况下,图像平面164上的图案可以是如图24中所示的具有月牙形的点。该月牙形是由相机透镜或LED透镜孔径的映晕所导致的。该映晕被专门设计成引起图案的变化。在图像平面164上记录的月牙(以及可能的中心点)的程度可被用来确定成角度的光源与相机的对准。根据这一信息,可确定IPD。可以理解,图23和24中示出的来自组130、140中的不止一个成角度的光源的图案化的光可同时在相机160中接收。
还可理解,光源的其它配置也可被提供。作为一个进一步示例,可使用光源的二维网格,诸如举例而言的经准直的LED阵列,每一个LED聚焦在无穷远。由阵列中的那些LED所带来的、在图像平面164上得到成像的光图案可被用来确定光源阵列与相机的对准。根据这一信息,可确定IPD。
在上文描述的各实施例中,对准检测组件对显示元件104、106的线性偏移不敏感,以允许在不受线性偏移的扰乱的情况下对显示元件的角度偏移进行测量。在X轴IPD调整之际的线性偏移通过相机160上来自成角度的光源的光的图案来给出。在进一步实施例中,附加/替代组件可被提供用于指示显示元件104、106的X、Y和/或Z线性偏移。
一个这样的实施例可使用Moire图案来辨别线性偏移。在这一实施例中,第一阴影掩模可被放置在附连到显示元件104、106的光源上。该第一阴影掩模可以多个平行的矩形裂缝来作为图案,来自光源的光可穿过这些裂缝。第二图案化的阴影掩模可被放置在图像平面164前面。该第二图案化的阴影掩模可类似于第一阴影掩模,但被相对于第一图案化的阴影掩模旋转一倾斜角。这一实施例可采用未被准直的光源和相机上的透镜来操作。
这两个图案化的阴影掩模一起将产生入射到图像平面164上的光的两个网格,形成被称为Moire图案的干涉图案。这样的干涉图案随着相对于光的两个网格的移动中的小的变化会剧烈变化。这些图案变化可被检测并与一个网格(光源上的)相对于另一网格(相机上的)的可量化的线性偏移相关联。取决于光源的朝向和第一图案化阴影掩模,这一实施例可被用于提供关于显示元件104、106的X方向或Y方向的线性偏移的信息。
上文描述的各实施例已使用了用于检测显示元件104、106的角度偏移的光学对准检测组件102。可以理解,除了光学系统以外的其它系统可被用于检测这一角度偏移。作为一个进一步示例,可使用机械系统。在一个这样的示例中,第一电容板可被附连到显示元件104,而第二电容板可被附连到头戴式显示设备100上的参考位置,诸如举例而言的框架118。第一和第二板可被平行地放置在彼此附近并面向彼此,在板之间提供一个小的空气间隙。可为附连到显示元件106的第三板和与其并列并附连到头戴式显示设备100上的参考点的第四板提供类似的布置。
第一对板间可产生电荷差,并且第二对板间可产生电荷差。之后,可采用各种已知方式测量相应的配对中的电容,给出方程:
I=C*dV/dt,(2)
其中dV/dt是电压随时间的变化,C是电容,而I是电流。测得的电容与相应配对中的板之间的距离线性相关。在一种解释下,一块板可被视为是发射器,而另一块板是传感器,两者之间具有电子的流。假设是小的平移(电容变化受距离变化而不是重叠变化的支配),每个配对中的板的角度偏移可被用于辨别显示元件绕电容平面中的旋转轴的旋转。如果需要,可在不同的正交平面中提供更多的电容板配对以辨别显示元件绕不同正交轴的旋转。
在一个不同的机械系统中,可以想到,应变仪可被附连到显示元件104、106。在这样的实施例中,应力计可被用来提供显示元件104、106的线性和/或角度偏移。
图25是描述处理单元108的各种组件的框图。图25示出与电源管理电路306通信的控制电路304。控制电路304包括:中央处理单元(CPU)320、图形处理单元(GPU)322、高速缓存324、RAM 326、与存储器330(例如D-RAM)进行通信的存储器控制器328、与闪存334(或其他类型的非易失性存储)进行通信的闪存控制器332、通过带接口302和带接口232与头戴式显示设备100进行通信的显示输出缓冲器336、通过带接口302和带接口232与头戴式显示设备100进行通信的显示输入缓冲器338、与用于连接到话筒的外部话筒连接器342进行通信的话筒接口340、用于连接到无线通信设备346的PCI express接口、以及(一个或多个)USB端口348。
在一个实施例中,无线通信设备346可包括启用Wi-Fi的通信设备、蓝牙通信设备、红外通信设备等。USB端口可被使用例如用来将数据或软件加载到处理单元108上,以及对处理单元108充电。在一个实施例中,CPU 320和GPU 322是用于确定在何处、何时以及如何向用户的视野内插入虚拟三维对象的主要力量。以下提供更多细节。
电源管理电路306包括时钟生成器360、模数转换器362、电池充电器364、电压调节器366、头戴式显示器电源376、以及与温度传感器374通信的温度传感器接口372。模数转换器362被用于监视电池电压、温度传感器,以及控制电池充电功能。电压调节器366与用于向该系统提供电能的电池368进行通信。电池充电器364被用来在从充电插孔370接收到电能之际(通过电压调节器366)对电池368进行充电。HMD电源376向头戴式显示设备100提供电力。
尽管用结构特征和/或方法动作专用的语言描述了本主题,但可以理解,所附权利要求书中定义的主题不必限于上述具体特征或动作。更确切而言,上述具体特征和动作是作为实现权利要求的示例形式公开的。本发明的范围由所附的权利要求进行定义。
Claims (4)
1.一种用于检测显示元件相对于头戴式显示设备上的参考位置的角度偏移的系统,所述头戴式显示设备用于向具有双眼差异的第一显示元件及第二显示元件显示虚拟图像,所述系统包括:
对准检测组件,包括:
一组用于发射光的光源,所述一组光源包括一个正交光源,所述正交光源沿第一方向发射光,所述第一和第二显示元件之间的距离沿所述第一方向调整,从所述组中的所述正交光源射出的光的方向基于所述第一显示元件的角度偏移而改变,并且所述一组光源包括一个或多个成角度的光源,所述一个或多个成角度的光源沿第二方向发射光,所述第二方向相对于所述第一方向倾斜,从所述一个或多个成角度的光源射出的光的方向基于所述第一显示元件的线性偏移而改变;
用于接收来自所述一组光源中的两个或更多个光源的光的相机,所述相机包括:
用于接收来自所述两个或更多个光源的光的经准直的透镜,以及
用于接收穿过放置在所述经准直的透镜的焦点长度处的所述经准直的透镜的光的光检测器的图像平面,
所述相机显现所述第一显示元件的角度偏移,同时对所述第一显示元件的线性偏移不敏感;以及
与所述对准检测组件通信并且接收来自所述相机的反馈的处理单元,所述处理单元根据所述反馈确定所述第一显示元件的角度偏移,并且所述处理单元调整所述虚拟图像向所述第一显示元件的显示以纠正由所述第一显示元件的角度偏移导致的双眼差异的改变。
2.如权利要求1所述的系统,其特征在于,所述相机接收来自第二组光源中的两个或更多个光源的光,所述处理单元还能够根据所述相机中接收到的来自所述第二组光源中的两个或多个光源的光来确定所述第二显示元件的角度偏移,所述处理单元调整所述虚拟图像向所述第二显示元件的显示以纠正由所述第二显示元件的角度偏移所导致的双眼差异的变化。
3.如权利要求1所述的系统,其特征在于,还包括用于调整所述第一和第二显示元件之间的距离的调整机构,所述对准检测组件还包括:多层琢刻的棱镜,所述棱镜将来自所述正交光源和所述一个或多个成角度的光源中的至少一个成角度的光源的光反射到所述相机中。
4.一种用于检测显示元件相对于头戴式显示设备上的参考位置的角度偏移的方法,所述头戴式显示设备用于向具有双眼差异的第一显示元件以及第二显示元件显示虚拟图像,所述方法包括:
(a)准直位于所述第一显示设备上的正交光源的光,所述正交光源沿第一方向发射光,所述第一和第二显示元件之间的距离沿所述第一方向调整,从所述正交光源射出的光的方向基于所述第一显示元件的角度偏移而改变;
(b)准直位于所述第一显示设备上的一个或多个成角度的光源的光,所述一个或多个成角度的光源沿第二方向发射光,所述第二方向相对于所述第一方向倾斜,从所述一个或多个成角度的光源射出的光的方向基于所述第一显示元件的线性偏移而改变;
(c)将来自所述正交光源和所述一个或多个成角度的光源的经准直的光引导到相机的传感器上中;
(d)独立于所述第二显示元件,基于来自所述正交光源和所述一个或多个成角度的光源的光撞击所述传感器的位置来确定所述第一显示元件的角度偏移。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/925,624 | 2013-06-24 | ||
US13/925,624 US9639985B2 (en) | 2013-06-24 | 2013-06-24 | Active binocular alignment for near eye displays |
PCT/US2014/043098 WO2014209733A1 (en) | 2013-06-24 | 2014-06-19 | Active binocular alignment for near eye displays |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105683810A CN105683810A (zh) | 2016-06-15 |
CN105683810B true CN105683810B (zh) | 2018-06-08 |
Family
ID=51136860
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201480036269.3A Active CN105683810B (zh) | 2013-06-24 | 2014-06-19 | 用于近眼显示器的光学系统 |
Country Status (5)
Country | Link |
---|---|
US (1) | US9639985B2 (zh) |
EP (1) | EP3014336B1 (zh) |
KR (1) | KR102213728B1 (zh) |
CN (1) | CN105683810B (zh) |
WO (1) | WO2014209733A1 (zh) |
Families Citing this family (62)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB0522968D0 (en) | 2005-11-11 | 2005-12-21 | Popovich Milan M | Holographic illumination device |
GB0718706D0 (en) | 2007-09-25 | 2007-11-07 | Creative Physics Ltd | Method and apparatus for reducing laser speckle |
US9335604B2 (en) | 2013-12-11 | 2016-05-10 | Milan Momcilo Popovich | Holographic waveguide display |
US11726332B2 (en) | 2009-04-27 | 2023-08-15 | Digilens Inc. | Diffractive projection apparatus |
WO2012136970A1 (en) | 2011-04-07 | 2012-10-11 | Milan Momcilo Popovich | Laser despeckler based on angular diversity |
US10670876B2 (en) | 2011-08-24 | 2020-06-02 | Digilens Inc. | Waveguide laser illuminator incorporating a despeckler |
WO2016020630A2 (en) | 2014-08-08 | 2016-02-11 | Milan Momcilo Popovich | Waveguide laser illuminator incorporating a despeckler |
EP2748670B1 (en) | 2011-08-24 | 2015-11-18 | Rockwell Collins, Inc. | Wearable data display |
WO2013102759A2 (en) | 2012-01-06 | 2013-07-11 | Milan Momcilo Popovich | Contact image sensor using switchable bragg gratings |
WO2013163347A1 (en) | 2012-04-25 | 2013-10-31 | Rockwell Collins, Inc. | Holographic wide angle display |
US9456744B2 (en) | 2012-05-11 | 2016-10-04 | Digilens, Inc. | Apparatus for eye tracking |
JP5867616B2 (ja) * | 2012-10-15 | 2016-02-24 | 富士通株式会社 | 方向判別装置、方向判別方法、方向判別制御プログラム |
US9933684B2 (en) | 2012-11-16 | 2018-04-03 | Rockwell Collins, Inc. | Transparent waveguide display providing upper and lower fields of view having a specific light output aperture configuration |
WO2014188149A1 (en) | 2013-05-20 | 2014-11-27 | Milan Momcilo Popovich | Holographic waveguide eye tracker |
WO2015015138A1 (en) | 2013-07-31 | 2015-02-05 | Milan Momcilo Popovich | Method and apparatus for contact image sensing |
US10359736B2 (en) | 2014-08-08 | 2019-07-23 | Digilens Inc. | Method for holographic mastering and replication |
WO2016042283A1 (en) | 2014-09-19 | 2016-03-24 | Milan Momcilo Popovich | Method and apparatus for generating input images for holographic waveguide displays |
US10423222B2 (en) | 2014-09-26 | 2019-09-24 | Digilens Inc. | Holographic waveguide optical tracker |
EP3245551B1 (en) | 2015-01-12 | 2019-09-18 | DigiLens Inc. | Waveguide light field displays |
US10437064B2 (en) | 2015-01-12 | 2019-10-08 | Digilens Inc. | Environmentally isolated waveguide display |
JP6867947B2 (ja) | 2015-01-20 | 2021-05-12 | ディジレンズ インコーポレイテッド | ホログラフィック導波路ライダー |
CN105872527A (zh) * | 2015-01-21 | 2016-08-17 | 成都理想境界科技有限公司 | 双目ar头戴显示设备及其信息显示方法 |
US9632226B2 (en) | 2015-02-12 | 2017-04-25 | Digilens Inc. | Waveguide grating device |
WO2016146963A1 (en) | 2015-03-16 | 2016-09-22 | Popovich, Milan, Momcilo | Waveguide device incorporating a light pipe |
US10591756B2 (en) | 2015-03-31 | 2020-03-17 | Digilens Inc. | Method and apparatus for contact image sensing |
US10690916B2 (en) | 2015-10-05 | 2020-06-23 | Digilens Inc. | Apparatus for providing waveguide displays with two-dimensional pupil expansion |
EP3398007A1 (en) | 2016-02-04 | 2018-11-07 | DigiLens, Inc. | Holographic waveguide optical tracker |
CN108780224B (zh) | 2016-03-24 | 2021-08-03 | 迪吉伦斯公司 | 用于提供偏振选择性全息波导装置的方法和设备 |
EP3433658B1 (en) | 2016-04-11 | 2023-08-09 | DigiLens, Inc. | Holographic waveguide apparatus for structured light projection |
US10281378B2 (en) * | 2016-05-05 | 2019-05-07 | Honeywell Federal Manufacturing & Technologies, Llc | System and method for testing true stress and true strain |
US10324291B2 (en) | 2016-09-12 | 2019-06-18 | Microsoft Technology Licensing, Llc | Display active alignment system for waveguide displays |
US10216263B2 (en) * | 2016-09-12 | 2019-02-26 | Microsoft Technology Licensing, Llc | Display active alignment systems utilizing test patterns for calibrating signals in waveguide displays |
US10425636B2 (en) * | 2016-10-03 | 2019-09-24 | Microsoft Technology Licensing, Llc | Automatic detection and correction of binocular misalignment in a display device |
US10394033B2 (en) | 2016-10-11 | 2019-08-27 | Microsoft Technology Licensing, Llc | Parallel beam flexure mechanism for interpupillary distance adjustment |
US11513350B2 (en) | 2016-12-02 | 2022-11-29 | Digilens Inc. | Waveguide device with uniform output illumination |
WO2018129398A1 (en) | 2017-01-05 | 2018-07-12 | Digilens, Inc. | Wearable heads up displays |
JP7399084B2 (ja) | 2017-10-16 | 2023-12-15 | ディジレンズ インコーポレイテッド | ピクセル化されたディスプレイの画像分解能を倍増させるためのシステムおよび方法 |
CN109725417B (zh) * | 2017-10-27 | 2024-04-09 | 江苏洪旭德生科技有限公司 | 基于光波导的深度处理数字光信号的方法及近眼显示装置 |
KR20200081512A (ko) * | 2017-12-18 | 2020-07-07 | 레이아 인코포레이티드 | 멀티빔 소자 기반 근안 디스플레이, 시스템 및 방법 |
WO2019136476A1 (en) | 2018-01-08 | 2019-07-11 | Digilens, Inc. | Waveguide architectures and related methods of manufacturing |
EP3710893A4 (en) | 2018-01-08 | 2021-09-22 | Digilens Inc. | SYSTEMS AND METHODS FOR HIGH RATE RECORDING OF HOLOGRAPHIC NETWORKS IN WAVEGUIDE CELLS |
KR20190085368A (ko) * | 2018-01-10 | 2019-07-18 | 삼성전자주식회사 | 프로젝터에서 출력된 광을 투명 부재로 전달할 수 있는 광 전달 부재를 포함하는 접이형 웨어러블 전자 장치 |
EP3765897B1 (en) | 2018-03-16 | 2024-01-17 | Digilens Inc. | Holographic waveguides incorporating birefringence control and methods for their fabrication |
US10558038B2 (en) * | 2018-03-16 | 2020-02-11 | Sharp Kabushiki Kaisha | Interpupillary distance adjustment mechanism for a compact head-mounted display system |
CN112424671B (zh) * | 2018-07-13 | 2023-10-27 | 奇跃公司 | 用于显示双目变形补偿的系统和方法 |
US11402801B2 (en) | 2018-07-25 | 2022-08-02 | Digilens Inc. | Systems and methods for fabricating a multilayer optical structure |
JP2022520472A (ja) | 2019-02-15 | 2022-03-30 | ディジレンズ インコーポレイテッド | 統合された格子を使用してホログラフィック導波管ディスプレイを提供するための方法および装置 |
JP2022525165A (ja) | 2019-03-12 | 2022-05-11 | ディジレンズ インコーポレイテッド | ホログラフィック導波管バックライトおよび関連する製造方法 |
US11714282B2 (en) | 2019-03-29 | 2023-08-01 | Meta Platforms Technologies, Llc | Compact array light source for scanning display |
WO2020214162A1 (en) * | 2019-04-17 | 2020-10-22 | Huawaei Technologies Co., Ltd. | Measurement and calibration method for augmented reality/virtual reality (ar/vr) binocular alignment errors technical field |
EP3980825A4 (en) | 2019-06-07 | 2023-05-03 | Digilens Inc. | WAVEGUIDES INCORPORATING TRANSPARENT AND REFLECTIVE GRATINGS AND METHODS OF MAKING THEREOF |
EP4004646A4 (en) | 2019-07-29 | 2023-09-06 | Digilens Inc. | METHODS AND APPARATUS FOR MULTIPLYING THE IMAGE RESOLUTION AND FIELD OF VIEW OF A PIXELATED DISPLAY SCREEN |
EP4022370A4 (en) | 2019-08-29 | 2023-08-30 | Digilens Inc. | VACUUM BRAGG GRATINGS AND METHODS OF MANUFACTURING |
US11200646B2 (en) * | 2020-01-15 | 2021-12-14 | Magic Leap, Inc. | Compensation for deformation in head mounted display systems |
US11860439B1 (en) * | 2020-05-06 | 2024-01-02 | Apple Inc. | Head-mounted electronic device with alignment sensors |
CN111505827B (zh) * | 2020-05-22 | 2022-07-12 | Oppo广东移动通信有限公司 | 光学显示组件和智能穿戴设备 |
US11202043B1 (en) * | 2020-08-25 | 2021-12-14 | Facebook Technologies, Llc | Self-testing display device |
US11294188B1 (en) * | 2020-09-30 | 2022-04-05 | Snap Inc. | Geometry modeling of eyewear devices with flexible frames |
CN112285934B (zh) * | 2020-11-09 | 2022-10-21 | Oppo广东移动通信有限公司 | 图像显示装置及可穿戴设备 |
CN117881995A (zh) * | 2021-08-20 | 2024-04-12 | 苹果公司 | 具有位置传感器的系统 |
TW202326232A (zh) * | 2021-11-17 | 2023-07-01 | 美商元平台技術有限公司 | 在用於沉浸式實境應用的智能眼鏡中的鏡框彎曲補償 |
US11624926B1 (en) * | 2022-01-05 | 2023-04-11 | Meta Platforms Technologies, Llc | Display systems with collection optics for disparity sensing detectors |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5838432A (en) * | 1995-06-12 | 1998-11-17 | Olympus Optical Co., Ltd. | Optical Angle detection apparatus |
JP2009523344A (ja) * | 2006-01-13 | 2009-06-18 | ステレオニクス リミテッド | 眼間調整アラインメント確認装置 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4500200A (en) * | 1980-11-14 | 1985-02-19 | Rockwell International Corporation | Electro-optic sensor for measuring angular orientation |
DE69221987T2 (de) * | 1991-11-01 | 1998-02-05 | Sega Enterprises Kk | Am Kopf befestigte Abbildungsvorrichtung |
JPH0821975A (ja) * | 1994-07-06 | 1996-01-23 | Olympus Optical Co Ltd | 頭部装着型映像表示システム |
US20020163482A1 (en) | 1998-04-20 | 2002-11-07 | Alan Sullivan | Multi-planar volumetric display system including optical elements made from liquid crystal having polymer stabilized cholesteric textures |
US20020063807A1 (en) | 1999-04-19 | 2002-05-30 | Neal Margulis | Method for Performing Image Transforms in a Digital Display System |
US6529331B2 (en) | 2001-04-20 | 2003-03-04 | Johns Hopkins University | Head mounted display with full field of view and high resolution |
US6879443B2 (en) * | 2003-04-25 | 2005-04-12 | The Microoptical Corporation | Binocular viewing system |
US9600067B2 (en) | 2008-10-27 | 2017-03-21 | Sri International | System and method for generating a mixed reality environment |
US20120249797A1 (en) | 2010-02-28 | 2012-10-04 | Osterhout Group, Inc. | Head-worn adaptive display |
US9292973B2 (en) | 2010-11-08 | 2016-03-22 | Microsoft Technology Licensing, Llc | Automatic variable virtual focus for augmented reality displays |
US8629815B2 (en) | 2011-08-09 | 2014-01-14 | Google Inc. | Laser alignment of binocular head mounted display |
US9025252B2 (en) | 2011-08-30 | 2015-05-05 | Microsoft Technology Licensing, Llc | Adjustment of a mixed reality display for inter-pupillary distance alignment |
-
2013
- 2013-06-24 US US13/925,624 patent/US9639985B2/en active Active
-
2014
- 2014-06-19 KR KR1020167001856A patent/KR102213728B1/ko active IP Right Grant
- 2014-06-19 WO PCT/US2014/043098 patent/WO2014209733A1/en active Application Filing
- 2014-06-19 EP EP14736590.2A patent/EP3014336B1/en active Active
- 2014-06-19 CN CN201480036269.3A patent/CN105683810B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5838432A (en) * | 1995-06-12 | 1998-11-17 | Olympus Optical Co., Ltd. | Optical Angle detection apparatus |
JP2009523344A (ja) * | 2006-01-13 | 2009-06-18 | ステレオニクス リミテッド | 眼間調整アラインメント確認装置 |
Also Published As
Publication number | Publication date |
---|---|
CN105683810A (zh) | 2016-06-15 |
EP3014336B1 (en) | 2019-03-06 |
US20140375681A1 (en) | 2014-12-25 |
US9639985B2 (en) | 2017-05-02 |
EP3014336A1 (en) | 2016-05-04 |
KR102213728B1 (ko) | 2021-02-05 |
WO2014209733A1 (en) | 2014-12-31 |
KR20160022380A (ko) | 2016-02-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105683810B (zh) | 用于近眼显示器的光学系统 | |
US11768377B2 (en) | Systems and methods for display binocular deformation compensation | |
US10901223B2 (en) | Beam angle sensor in virtual/augmented reality system | |
CN103562675B (zh) | 确定测量物体表面上的3d坐标的光学测量方法和测量系统 | |
US10365710B2 (en) | Head-mounted display device configured to display a visual element at a location derived from sensor data and perform calibration | |
CN109425307B (zh) | 测量装置以及利用其将光图案投影到场景上的方法 | |
US7110103B2 (en) | Apparatus for and method of aligning a structure | |
CN107003744B (zh) | 视点确定方法、装置和电子设备 | |
US10107624B2 (en) | Geodetic surveying device with a microlens array | |
JP2018009836A (ja) | プログラム、頭部装着型表示装置、キャリブレーション方法 | |
JP2016223841A (ja) | 測量装置 | |
JP2017520755A (ja) | 3d粗レーザスキャナ | |
KR20220130809A (ko) | 머리-착용 디스플레이 시스템들에 대한 위치 추적 시스템 | |
JP2014219393A (ja) | 機械要素の位置を求める装置 | |
JP2016151566A (ja) | モーショントラッカ装置 | |
US10746854B1 (en) | Positional tracking using light beams with constant apparent frequencies | |
US20240112406A1 (en) | Bar arrangement inspection result display system | |
JP2012123436A (ja) | 電子機器 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |