CN103793049B - 虚拟现实显示系统 - Google Patents
虚拟现实显示系统 Download PDFInfo
- Publication number
- CN103793049B CN103793049B CN201310516866.3A CN201310516866A CN103793049B CN 103793049 B CN103793049 B CN 103793049B CN 201310516866 A CN201310516866 A CN 201310516866A CN 103793049 B CN103793049 B CN 103793049B
- Authority
- CN
- China
- Prior art keywords
- eye
- orientation
- image
- head
- virtual environment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16Z—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS, NOT OTHERWISE PROVIDED FOR
- G16Z99/00—Subject matter not provided for in other main groups of this subclass
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B5/00—Optical elements other than lenses
- G02B5/30—Polarising elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/144—Processing image signals for flicker reduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0132—Head-up displays characterised by optical features comprising binocular systems
- G02B2027/0134—Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Optics & Photonics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Hardware Design (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Controls And Circuits For Display Device (AREA)
- Digital Computer Display Output (AREA)
Abstract
本发明涉及虚拟现实显示系统。一种用于显示虚拟环境(204)的方法和设备。接收用于人(206)的头部(236)中的第一眼睛(234)的第一眼睛方位信息(226)和用于人(206)的头部(236)中的第二眼睛(240)的第二眼睛方位信息(228)。基于第一眼睛方位信息(226),为第一眼睛(234)产生虚拟环境(204)的第一图像(252)。基于用于第二眼睛的第二眼睛方位信息(228),为第二眼睛(240)产生虚拟环境(204)的第二图像(254)。向人(206)发送第一图像(252)和第二图像(254),以便显示。
Description
技术领域
本发明总体涉及显示信息,具体地涉及在显示装置上的显示信息。更具体地,本发明涉及用于显示来自虚拟环境的信息的方法和设备。
背景技术
虚拟环境是计算机模拟的环境。特别地,虚拟环境为人提供虚拟现实。换句话说,在虚拟环境中,可以对真实世界中物理存在的地方以及虚构世界进行模拟。使用显示装置,例如显示屏或者头戴式显示器,可以显示虚拟环境。通过显示屏,使用三维眼镜可以以三维方式显示虚拟环境。通过头戴式显示器,使用立体显示器可以以三维方式显示虚拟环境。另外,还可以针对虚拟环境产生其他感知信息,例如声音和触觉反馈。
针对虚拟环境产生图像以如下方式表示环境,即对观看虚拟环境的人而言是不自然和失去方向感的。特别地,图像是使用单视点产生的二维图像,从而将图像呈现和显示给人。例如,许多目前所使用的虚拟环境系统采用照相机的单视点产生图像。
目前,头部跟踪可以被用于减小二维图像正在显示给操作者的感觉。头部跟踪的使用可以更准确地表现虚拟环境内的人的视图。一些虚拟环境系统可以提供立体图像,以试图提供虚拟环境的三维视图。
即使通过头部跟踪和立体图像,当前可用的虚拟环境系统所用的显示装置仍会有不期望的效果。这些不期望的效果可以包括失去方向感、模糊强度、疲乏度、视觉疲劳、头痛或者其他不期望的效果中的至少一个。此外,长时间观看虚拟环境,这些不期望的效果还会增加。
例如,许多虚拟环境系统以可能造成眼睛疲劳的方式从三维环境中产生二维图像。当前系统会迫使眼睛以不自然的方式聚焦,例如斜视。
已使用不同类型的机构来试图降低不期望的效果。例如,一些三维显示系统使用偏光透镜。其他系统可能使用快门眼镜,其挡住一只眼睛,向另一只眼睛显示一副图像。
这些种类的系统仍会导致不期望的效果。因此,期望的是具有一种方法和设备,其考虑至少一部分上述问题,以及其他可能的问题。
发明内容
在一个说明性实施例中,一种设备包含图像处理器(216)。图像处理器(216)被配置为接收用于人的头部中的第一眼睛(234)的第一眼睛方位信息(226),并且接收用于人的头部中的第二眼睛的第二眼睛方位信息。图像处理器(216)还被配置为基于第一眼睛(234)的第一眼睛方位信息(226),为第一眼睛(234)产生虚拟环境的第一图像。图像处理器(216)还被配置为基于第二眼睛的第二眼睛方位信息,为第二眼睛产生虚拟环境的第二图像。图像处理器(216)还被配置为发送第一图像和第二图像,以便向人显示。
在另一个说明性实施例中,提出了一种显示虚拟环境的方法。接收用于人的头部中的第一眼睛的第一眼睛方位信息和用于人的头部中的第二眼睛的第二眼睛方位信息。基于用于第一眼睛的第一眼睛方位信息,为第一眼睛产生虚拟环境的第一图像。基于用于第二眼睛的第二眼睛方位信息,为第二眼睛产生虚拟环境的第二图像。将第一图像和第二图像发送至人以便显示。
特征和功能可以在本公开的各种实施例中独立地实现,或者可以在其他实施例中组合,参考下列描述和附图,可以看出进一步细节。
附图说明
随附的权利要求中陈述了被认为是表征说明性实施例的新颖特征。然而,当结合附图阅读,通过参考下列本公开的说明性实施例的详细描述,将更好地理解说明性实施例及其优选的使用模式、进一步目标和特征,其中:
图1是根据说明性实施例的虚拟环境系统的图示;
图2是根据说明性实施例的虚拟环境系统的方框图的图示;
图3是根据说明性实施例的显示装置的实施方式的方框图的图示;
图4是根据说明性实施例的可以被用于虚拟环境系统中的传感器系统中的传感器类型的方框图的图示;
图5是根据说明性实施例的虚拟环境系统的图示;
图6是根据说明性实施例的用于显示虚拟环境的过程的流程图的图示;
图7A和7B是根据说明性实施例的用于观看虚拟环境的过程的流程图的图示;以及
图8是根据说明性实施例的数据处理系统的方框图的图示。
具体实施方式
说明性实施例认识并考虑到一个或更多不同的考虑因素。例如,说明性实施例认识并考虑到用两个视点产生图像可以为人提供更自然的观看体验。说明性实施例认识并考虑到,目前可用的虚拟环境系统未考虑可能观看虚拟环境的不同的人之间的个体差异。相反,这些系统使用预选的度量或者数值产生视点。
然而,说明性实施例认识并考虑到,目前可用的虚拟环境系统所使用的视点在没有考虑不同人的眼睛差异的情况下,可能不会尽可能按所需地减少不期望的效果。例如,不同人的眼睛之间可能具有不同的距离,并且眼睛可能具有不同的高度。结果,人与人之间的眼睛视点可能是非常不同的。
说明性实施例认识并考虑到,在没有正确的视点的情况下,由眼睛所观看的得到的图像对于处理图像的人而言是不自然的。结果,如果人的视点与用于产生图像的视点不同,则聚焦在针对虚拟环境所产生的图像的不同部分的人可能还注意到虚拟环境中的差异,例如虚拟环境看上去应该如何,以及虚拟环境实际如何呈现。基于人两眼的取向,可以识别人的视点。光线可以基于取向从每只眼睛延伸。这些光线的交点可以被用作视点。
实质上,人处理图像期望由每只眼睛捕获两个稍有不同的视点。通过呈现来自每只眼睛视点的图像,人们通过正常处理能够重建虚拟环境。
虚拟环境可以被用于数个不同目的。例如,虚拟环境最常用于游戏中。然而,虚拟环境具有许多其他用途。例如,虚拟环境可以被用于执行工程任务、维护任务、模拟、分析以及其他合适的任务。
因此,说明性实施例提供了一种向人显示虚拟环境的方法和设备。在一个说明性实施例中,图像处理器被配置为接收用于人头部第一眼睛的第一眼睛方位信息,以及用于人头部第二眼睛的第二眼睛方位信息。基于第一眼睛方位信息,为第一眼睛产生虚拟环境的第一图像。基于第二眼睛方位信息,为第二眼睛产生虚拟环境的第二图像。然后,发送第一图像和第二图像,以显示给人。
现在参考附图,具体参考图1,根据说明性实施例描绘虚拟环境系统的图示。在该说明性示例中,虚拟环境系统100包括计算机102和接口系统104。如图所示,接口系统104包括人106、头戴式显示装置108和数据手套110。头戴式显示装置108位于人106的头112上。数据手套110位于人106的手114上。
虚拟环境系统100和人106位于物理环境116中。虚拟环境系统100允许物理环境中的人106与由虚拟环境系统100所产生的虚拟环境交互。
在这些说明性示例中,头戴式显示装置108和数据手套110为人106提供与由计算机102所产生的虚拟环境进行交互的能力。在人106与虚拟环境系统100中的计算机102所产生的虚拟环境交互期间所交换的信息出现在无线通信链路118上。
如图所示,数据手套110是用于人106的输入装置。特别地,数据手套110能够识别数据手套110戴在人106的手114上的方位。另外,数据手套110还可以提供模拟触感的触觉反馈。触觉反馈可以通过对人106的手114施加力、振动、运动或者某些其组合来提供触感。
在这些说明性示例中,头戴式显示装置108被配置为向人106显示由计算机102所产生的虚拟环境。作为人106与计算机102所产生的虚拟环境交互的一部分,产生图像。
头戴式显示装置108还被配置为以这样的方式提供虚拟环境的显示,即使用头戴式显示装置108的人106随时间得到较少的不期望的效果。特别地,与目前可用的显示装置相比,人106可以以减少诸如失去方向感、模糊强度以及疲劳的不期望效果的方式使用头戴式显示装置108持续更长时间段。
在这些说明性示例中,头戴式显示装置108被配置为识别人106的头部112以及头部112中的眼睛(未示出)的方位。通过人106的头部112和眼睛的方位信息,计算机102产生适于人106的每只眼睛的视点的图像。
特别地,计算机102识别虚拟环境中的人106的头部112的方位。另外,头戴式显示装置108还产生关于人106的头部112中的眼睛的方位的信息。头戴式显示装置108经由无线通信链路118将信息发送至计算机102。
通过人106的头部112以及眼睛在头部112中的方位信息,计算机102从虚拟环境中的每只眼睛的视角产生图像。这些图像通过无线通信链路118被发送至头戴式显示装置108。也就是说,人106的头部112中的每只眼睛可以具有稍有不同的视角,因为他们彼此隔开。
在该说明性示例中,独立于人106跟踪每只眼睛的方位。以这种方式,可以识别物理环境116中的人106的准确焦点。计算机102使用人106的头部112和眼睛的方位信息。该信息被计算机102转换成人106在虚拟环境中的对应方位。
依据人106是站立、坐下、蹲伏、躺下或者一些其他姿势,可以改变人106的头部112的方位。在该示例中,人106坐在椅子120上,与虚拟环境互动。
以这种方式,按照与虚拟环境中的人106的眼睛被用于产生不同的虚拟环境视图相同的方式,计算机102将虚拟照相机放置在虚拟环境中。也就是说,虚拟照相机的方位对应于人106的眼睛的方位。随着人106的方位改变,对应于人106的眼睛方位的虚拟照相机的方位可以改变。
针对人106的每只眼睛产生一个视图。产生每个视图的图像,并且发送返回至头戴式显示装置108,以便向人106显示。以这种方式,可以在头戴式显示装置108上向人106显示独立的二维图像。
在这些说明性示例中,根据头戴式显示装置108上所显示的两个二维图像,人106的眼睛重建虚拟环境的感知的三维图像。以这种方式,在人106中发生自然的人类双目视觉处理,从而使用由计算机102所产生的两个二维图像来产生虚拟环境的三维图像。
在这些说明性示例中,自然的人类双目视觉涉及使用两只眼睛。通过自然的人类双目视觉处理,双眼所看到的图像可以被用于产生三维视图。也就是说,人106能够感知深度。
当人106的眼睛、人106的头部112或者两者均移动时,人106的焦点会变化。头戴式显示装置108所产生的信息通过无线通信链路118被发送至计算机102。计算机102使用该信息来重新计算虚拟环境中的虚拟照相机的对应方位中的人106的焦点。根据表示虚拟环境中的人106的眼睛的不同虚拟照相机,产生更新的二维图像。
结果,产生虚拟环境的更准确表示,以便在头戴式显示装置108上向人106显示。通过这种类型的显示,得到与人106的自然视觉的密切匹配。以这种方式,可以减少人106使用二维图像观看虚拟环境的不期望的效果。对于使用头戴式显示装置108的人106,除了更真实的虚拟环境视图之外,还减少了不期望的效果。
现在参考图2,根据说明性实施例描绘虚拟环境系统的方框图的图示。图1中的虚拟环境系统100是在该附图中以方框形式示出的虚拟环境系统200的一个实施方式的示例。
如图所示,虚拟环境系统200位于物理环境202中。虚拟环境系统200被配置为为人206产生虚拟环境204。人206可以通过虚拟环境系统200与虚拟环境204交互。
在这些说明性示例中,虚拟环境系统200包括数个不同的组件。如上所示,虚拟环境系统200包括虚拟环境生成器208和接口系统210。这些组件操作以产生虚拟环境204,并且向人206提供与虚拟环境204交互的能力。
在这些说明性示例中,虚拟环境生成器208可以实现为硬件、软件或者两者的组合。在这些说明性实施例中,硬件可以采用如下形式:电路系统、集成电路、专用集成电路(ASIC)、可编程逻辑器件或被配置为执行数个操作的一些其他合适类型的硬件。通过可编程逻辑器件,该器件被配置为执行数个操作。该器件可以在稍后时间被重新配置,或可以被永久配置以执行数个操作。可编程逻辑器件的示例包括,例如,可编程逻辑阵列、可编程阵列逻辑、现场可编程逻辑阵列、现场可编程门阵列以及其他合适的硬件装置。另外,过程可以实现在与无机组件集成的有机组件中,和/或可以完全由人之外的有机组件构成。例如,过程可以被实现为有机半导体中的电路。
在这些说明性示例中,可以在计算机系统212中实现虚拟环境生成器208。计算机系统212可以是一个或更多计算机。当在计算机系统212中存在多于一个计算机时,那些计算机可以通过诸如网络的通信介质彼此通信。
在该说明性示例中,虚拟环境生成器208包括控制器214和图像处理器216。控制器214被配置为产生虚拟环境204。在这些说明性示例中,虚拟环境204可以采用各种形式。
例如,虚拟环境204可以是设计环境、维护环境、制造环境以及其他合适类型的环境中的至少一个。如此处所使用的,短语“至少一个”,当其与一系列项目使用时,表示可以使用所列项目中的一个或更多的不同的组合,并且可以仅需要列表中每个项目的一个。例如,“项目A、项目B以及项目C中的至少一个”可以包括但不限制于,项目A,或者项目A和项目B。该示例还可以包括项目A、项目B和项目C,或者项目B和项目C。
当虚拟环境204是设计环境时,人206可以与虚拟环境204交互,从而设计一种产品,例如飞机、船、路上车辆、宇宙飞船、卫星、发动机、天线、复合材料部件、椅子以及其他合适的产品。当虚拟环境204采用维护环境的形式时,人206可以实施对诸如飞机的平台执行维护。另外,人206可以使用维护环境,从而识别飞机的维护程序,以便用于物理环境202中。
当虚拟环境204是制造环境时,人206可以与制造环境交互,以获得有关制造过程的信息。例如,人206可以改变制造环境中的组件,以了解这些改变如何影响产品的制造。以这种方式,人206可以识别对用于在物理环境202中制造产品的组件或者程序的改变。
图像处理器216被配置为产生图像218,图像218通过接口系统210显示给人206。图像218是人206通过人206与虚拟环境204的交互所看到的虚拟环境204的图像。在这些说明性示例中,图像218为二维图像。人206可以观看图像218,从而重建虚拟环境204的三维视图。
如图所示,接口系统210是硬件,并且可以包括软件。在这些说明性示例中,接口系统210被配置为向人206提供与虚拟环境204交互的能力。这种交互可以包括对虚拟环境204进行输入以及从虚拟环境204接收输出。
如图所示,接口系统210由数个不同的组件构成。在该说明性示例中,接口系统210包括显示装置220和传感器系统222。
显示装置220被配置为显示由虚拟环境生成器208中的图像处理器216所产生的图像218。以这种方式,人206可以看到虚拟环境204。
在这些说明性示例中,传感器系统222被配置为产生有关人206的信息224。特别地,传感器系统222可以产生第一眼睛方位信息226、第二眼睛方位信息228以及头部方位信息230。另外,传感器系统222还可以产生关于人206的其他部位的方位和移动的信息。这些其他部位可以包括,例如手、手指、手臂、脚以及其他合适的部位。
第一眼睛方位信息226是针对人206的头部236的第一眼睛234的第一方位232。第二眼睛方位信息228是针对人206的头部236的第二眼睛240的第二方位238。在这些说明性示例中,头部方位信息230是针对人206的头部236的头部方位242。
如图所示,第一眼睛方位信息226、第二眼睛方位信息228以及头部方位信息230可以包括数个不同类型的信息。第一眼睛方位信息226、第二眼睛方位信息228以及头部方位信息230可以包括,例如物体的位置和取向。可以使用三维坐标系统以三维方式描述位置。可以以数个不同的方式描述取向。例如,可以使用如下系统描述取向,例如使用欧拉角的相对空间,方向矢量,矩阵,四元数,偏转、斜度和侧倾的组合,或者另一个参考系。
第一眼睛方位信息226、第二眼睛方位信息228以及头部方位信息230可以作为信息224的一部分从传感器系统222发送至虚拟环境生成器208。控制器214可以使用信息224,基于人206所产生的输入,或者基于可能由控制器214所产生的或者来自其他资源的其他事件,对虚拟环境204进行改变。
图像处理器216被配置为使用第一眼睛方位信息226和第二眼睛方位信息228来产生图像218。在这些说明性示例中,头部方位信息230可以可选地产生图像218。如图所示,图像处理器216在虚拟环境204中产生第一虚拟照相机244和第二虚拟照相机246。在该说明性示例中,第一虚拟照相机244和第二虚拟照相机246位于化身(avatar)248中。化身248是虚拟环境204中的人206的虚拟表示。特别地,在这些说明性示例中,第一虚拟照相机244和第二虚拟照相机246可以位于化身248的头部250。
在一个示例中,图像处理器216被配置为基于第一眼睛方位信息226为第一眼睛234产生虚拟环境204的图像218中的第一图像252。另外,图像处理器216还被配置为基于第二眼睛方位信息228为第二眼睛240产生虚拟环境204的图像218中的第二图像254。图像处理器216被配置为发送第一图像252和第二图像242,以便向人206显示。在这些说明性示例中,第一图像252和第二图像254被发送至显示装置220。
在这些说明性示例中,图像处理器216被配置为识别虚拟环境204中的第一虚拟照相机244的第一方位256,其代表虚拟环境204中的第一眼睛234的第一视点258。另外,图像处理器216被配置为识别虚拟环境204中的第二虚拟照相机246的第二方位260,其代表虚拟环境204中的第二眼睛240的第二视点262。
在这些说明性示例中,第一图像252是第一虚拟照相机244所看到的虚拟环境204的图像。第二图像254是第二虚拟照相机246所看到的虚拟环境204的图像。
当第一图像252和第二图像254被发送至显示装置220时,显示装置220向人206的第一眼睛234显示第一图像252。在这些说明性示例中,显示装置220向人206的第二眼睛240显示第二图像254。第一图像252和第二图像254为二维图像,并且通过人206处理,重建虚拟环境204的三维图像。
通过分别从第一视点258和第二视点262产生第一图像252和第二图像254,人206与虚拟环境204进行交互的体验可以在观看虚拟环境204的图像218时不期望的效果减小的情况下进行。在这些说明性示例中,可以以关联到第一眼睛234的第一方位232以及第二眼睛240的第二方位238的方式,定位第一虚拟照相机244和第二虚拟照相机246。
在这些说明性示例中,基于头部方位信息230,可以垂直定位第一虚拟照相机244和第二虚拟照相机246。特别地,头部236的高度可以被用于定位第一虚拟照相机244和第二虚拟照相机246。
头部方位信息230可以被用于定位化身248的头部250,使头部方位264在虚拟环境204内。虚拟环境204中的化身248的头部250的头部方位264对应于物理环境202中的人206的头部236的头部方位242。也就是说,化身248的头部250的取向对应于人206的头部236的取向。
也就是说,定位化身248的头部250以及第一虚拟照相机244和第二虚拟照相机246可以是针对人206的头部236与地面的距离。依据人206是站立、坐下、站立在地面上、站立在物体上,还是处于一些其他合适的方位,该距离可以改变。
另外,基于第一眼睛234到第二眼睛240的瞳孔距离,第一虚拟照相机244和第二虚拟照相机246可以相对于彼此定位。瞳孔距离可以是第一眼睛234和第二眼睛240的瞳孔之间的距离。瞳孔距离还可以称为瞳间距离。特别地,瞳孔距离是人206的眼睛的瞳孔中心之间的距离。该瞳孔距离可以被图像处理器216用来产生第一虚拟照相机244和第二虚拟照相机246在化身248的头部250中的方位。
在这些说明性示例中,当第一眼睛234和第二眼睛240移动至不同的方位时,第一虚拟照相机244和第二虚拟照相机246也移动至对应的不同方位。以类似的方式,当人206的头部236移动时,虚拟环境204中的化身248的头部250也会移动。当然,头部方位信息230可以是可选地。例如,当第一眼睛方位信息226和第二眼睛方位信息228包括第一眼睛234和第二眼睛240的三维坐标时,无需头部236的三维位置。
此外,第一眼睛234和第二眼睛240的取向可以是相对于平面或者除人206的头部236之外的其他参考点。在该类型的实施方式中,可以不需要头部236的头部方位信息230。
在其他说明性示例中,头部方位信息230可以包括头部236的三维位置以及头部236的取向。第一眼睛方位信息226和第二眼睛方位信息228可以包括头部236中的第一眼睛234和第二眼睛240的取向。也就是说,第一眼睛方位信息226和第二眼睛方位信息228可以是相对于头部236,而不是一些其他参考对象。
在该类型的实施方式中,头部方位信息230结合第一眼睛方位信息226和第二眼睛方位信息228可以用来产生头部250以及第一虚拟照相机244和第二虚拟照相机246的方位。在该示例中,图像处理器216基于第一眼睛方位信息226和头部方位信息230,产生第一图像252。以相似方式,图像处理器216基于第二眼睛方位信息228和头部方位信息230产生第二图像254。
现在参考图3,根据说明性实施例描绘显示装置的实施方式的方框图的图示。在该所示的示例中,显示装置300的类型是可以被用于实现图2中的显示装置220的不同类型的显示装置的示例。
在这些说明性示例中,显示装置300的类型包括数个不同类型的装置。在该示例中,显示装置300的类型包括头戴式显示系统302、快门显示系统304、偏振显示系统306、视网膜显示系统308以及接触透镜显示系统310。
头戴式显示系统302可以是图2中的戴在人206的头部236上的显示装置。头戴式显示系统302还可以包括来自传感器系统222的传感器,以产生有关人206的第一眼睛234、第二眼睛240以及头部236的信息。头戴式显示系统302中的显示器可以是,例如但不限制于,液晶显示器、发光二极管显示器、等离子显示器或者一些其他合适类型的显示器。头戴式显示系统302中的显示器可以由一个或更多独立的显示系统构成。
快门显示系统304可以是由人206使用主动式(active)快门眼镜观看的显示器,主动式快门眼镜具有快门系统,快门系统在任意一个时间点仅允许第一眼睛234和第二眼睛240中的一个观看显示器。通过这种类型的显示系统,第一图像252和第二图像254在显示器上的显示交替进行,以对应于第一眼睛234和第二眼睛240能够观看显示器的时间。
偏振显示系统306涉及同时在显示器上显示第一图像252和第二图像254,使得通过不同的偏振显示第一图像252和第二图像254。人206可以佩戴偏振显示系统306中的偏光眼镜,以允许每只眼睛观看正确的图像。
视网膜显示系统308被配置为将光栅显示投影至眼睛的视网膜上。视网膜显示系统308可以包括投影仪,投影仪产生扫视眼睛视网膜的光束。
接触透镜显示系统310采用接触透镜的形式,其被放置在第一眼睛234和第二眼睛240上。这些接触透镜包括电子电路以及发光二极管。电路中的发光二极管被配置为产生由第一眼睛234和第二眼睛240观看的图像。
现在转向图4,根据说明性实施例描绘可以被用于虚拟环境系统中的传感器系统的传感器类型的方框图的图示。在该说明性示例中,传感器400的类型包括可以被用于图2中的传感器系统222中的不同类型的传感器。
在该说明性示例中,传感器400的类型包括数个不同类型的传感器。例如,传感器400的类型可以包括眼睛跟踪系统402、头部跟踪系统404、数据手套406以及手势跟踪系统408。
眼睛跟踪系统402可以包括第一眼睛跟踪器410和第二眼睛跟踪器412。第一眼睛跟踪器410被配置为跟踪第一眼睛234的第一方位232,并且产生图2中的第一眼睛方位信息226。第二眼睛跟踪器412被配置为跟踪第二眼睛240的第二方位238,并且产生第二眼睛方位信息228。
在这些说明性示例中,眼睛跟踪系统402可以与头戴式显示系统302关联,或者可以是分离装置。在这些说明性示例中,眼睛跟踪系统402跟踪第一眼睛234的第一方位232以及第二眼睛240的第二方位238,而不是第一眼睛234和第二眼睛240的视线(gaze)。
视线跟踪涉及识别第一眼睛234和第二眼睛240观看的图像中的区域,而不是第一眼睛234的第一方位232和第二眼睛240的第二方位238。在一些说明性示例中,用于第一眼睛234的第一方位232和第二眼睛240的第二方位238的第一眼睛方位信息226和第二眼睛方位信息228可以用于识别人206的视线。
此外,眼睛跟踪系统402可以使用各种技术,例如角膜反射,来产生有关第一眼睛234和第二眼睛240的取向的信息。这些技术基于照明源相对于光学器件的位置。使用具有硬件装置以及其他合适的装置的照相机可以实现眼睛跟踪系统402。
因此,第一眼睛跟踪器410和第二眼睛跟踪器412可以是分开的照相机,或者可以实现为单个照相机,其中使用软件过程实现第一眼睛跟踪器410和第二眼睛跟踪器412。
此外,在一些说明性示例中,可以使用含压印图案的接触透镜实现眼睛跟踪系统402,压印图案由照相机或者其他合适的装置跟踪。可以使用植入接触透镜中或者直接植入第一眼睛234和第二眼睛240的搜索线圈(search coil)实现眼睛跟踪系统402。可以使用放置在第一眼睛234和第二眼睛240周围的肌肉活动传感器实现眼睛跟踪系统402。
在这些说明性示例中,头部跟踪系统404是被配置为识别人206的头部236的头部方位242并且产生头部方位信息230的硬件装置。头部跟踪系统404可以包括头部跟踪器405。头部跟踪器405可以包括检测头部236的角度和取向的变化的跟踪传感器。这些传感器可以是例如,加速计或者其他合适类型的传感器。在其他说明性示例中,可以使用照相机系统以及人206的头部236上或者头戴式显示系统302上的标记器(marker)实现头部跟踪器405。此外,在一些说明性示例中,头部跟踪系统404可以实现作为头戴式显示系统302的一部分。
数据手套406是人206所佩戴的硬件装置。这些装置可以识别人206的手的方位以及由人206的手产生的各种手势。
如图所示,手势跟踪系统408被配置为识别人206的手的移动和手势。手势跟踪系统408可以包括照相机、运动检测器以及产生用于识别人206的手的手势和方位的信息的其他装置。
图2-4中的虚拟环境系统200和虚拟环境系统200中的组件的图示无意暗示对可以实现说明性实施例的方式的物理或架构限制。可以使用除了和/或代替所示组件的其他组件。一些组件可以不是必须的。同样地,呈现方框是为了说明一些功能性组件。当在说明性实施例中实现时,这些方框中的一个或更多可以被组合、分开或被组合且分成不同的方框。
例如,除人206之外的一个或更多人可以与虚拟环境204交互。这些额外的人可以使用接口系统210。在另一个说明性示例中,显示装置220和传感器系统222可以被实现为单个组件。作为另一个说明性示例,除了或者替换图4中的传感器400类型中所列举的那些,可以使用其他类型的传感器。例如,可以使用操纵杆、跟踪棒、枪形外部设备、鼠标以及其他合适的装置。
作为另一个说明性示例,显示装置220被配置为除了虚拟环境204中的图像218中的第一图像252和第二图像254之外,还提供人206周围的物理环境202的视图。也就是说,第一图像252和第二图像254的显示可以用于向人206提供真实性增强的显示。该真实性增强的显示结合了物理环境202的视图和虚拟环境204的视图。例如,人206可能观看物理环境202中的飞机。虚拟环境204可以重新生成飞机并且提供飞机内部的视图。飞机内部的这些视图可以被用于产生第一图像252和第二图像254,第一图像252和第二图像254以覆盖物理环境202中的飞机的物理视图的方式被显示在显示装置220上。
以这种方式,虚拟环境系统200可以用于为各种操作(例如设计、维护、训练以及其他合适的操作)产生纯粹的虚拟环境的视图。此外,虚拟环境系统200可以被包括作为真实性增强的产生系统的一部分,其以可以被物理环境202覆盖的方式产生虚拟环境204,从而为人206提供关于物理环境202的额外信息。
现在参考图5,根据说明性实施例描绘虚拟环境系统的框图的图示。在该所示的示例中,虚拟环境系统500是在图2中以方框形式示出的虚拟环境系统200的一个实施方式的示例。
在该说明性示例中,虚拟环境系统500包括虚拟环境生成器502和头戴式显示装置504。
在该说明性示例中,头戴式显示装置504包括第一眼睛跟踪器506、第二眼睛跟踪器508、头部跟踪器510、第一显示器512以及第二显示器514。头戴式显示装置504被配置为被戴在人518的头部516上。
在这些说明性示例中,第一眼睛跟踪器506被配置为跟踪人518的头部516中的第一眼睛520的方位。第二眼睛跟踪器508被配置为跟踪人518的头部516中的第二眼睛522的方位。特别的,第一眼睛跟踪器506和第二眼睛跟踪器508可以分别跟踪第一眼睛520和第二眼睛522的取向。
第一显示器512被配置为向第一眼睛520显示图像,而第二显示器514被配置为向第二眼睛522显示图像。特别地,第一显示器512和第二显示器514显示从虚拟环境生成器502接收的图像523。
在该说明性示例中,第一显示器512和第二显示器514彼此隔开,使得第一眼睛520无法看到第二显示器514,而第二眼睛522无法看到第一显示器512。如图所示,可以使用各种类型的显示器实现第一显示器512和第二显示器514。例如,液晶显示器、发光二极管显示器、等离子显示器或者一些其他合适类型的显示器可以被用于第一显示器512、第二显示器514或者第一显示器512和第二显示器514两者。
在这些说明性示例中,头部跟踪器510被配置为跟踪人518的头部516的方位。在这些说明性示例中,头戴式显示装置504将信息524发送至虚拟环境生成器502。如图所示,信息524是有关第一眼睛520和第二眼睛522的跟踪信息。另外,信息524还可以包括由头部跟踪器510产生的头部方位信息。
虚拟环境发生器502接收信息524。在该说明性示例中,可以使用计算机实现虚拟环境生成器502。虚拟环境生成器502被配置为生成和操作虚拟环境528。
虚拟环境生成器502可以使用通信链路与头戴式显示装置504通信。该通信链路可以是,例如但不限于,有线通信链路、光通信链路、无线通信链路或者其一些组合。
虚拟环境生成器502使用从头戴式显示装置504接收的信息524来在虚拟环境528中产生化身526和方位化身526。化身526是虚拟环境528中的人518的表示。
在这些说明性示例中,信息524还可以被用于识别第一虚拟照相机530和第二虚拟照相机532在化身526中的方位。特别地,在这些说明性示例中,第一虚拟照相机530和第二虚拟照相机532可以位于化身526的头部536上。
第一虚拟照相机530和第二虚拟照相机532分别代表第一眼睛520和第二眼睛522。也就是说,在虚拟照相机和眼睛之间呈现一对一的对应关系。在这些说明性示例中,第一虚拟照相机530和第二虚拟照相机532具有对应于第一眼睛520和第二眼睛522之间的瞳孔距离537的距离534。
在这些说明性示例中,当第一眼睛520和第二眼睛522在头部516中移动时,使用信息524重新定位第一虚拟照相机530和第二虚拟照相机532,以具有对应的移动。此外,当人518的头部516移动时,化身526的头部536也移动。
虚拟环境生成器502可以使用第一虚拟照相机530和第二虚拟照相机532基于能够被第一虚拟照相机530和第二虚拟照相机532所看到的虚拟环境528的视图产生图像。在这些说明性示例中,信息524可以更新第一虚拟照相机530和第二虚拟照相机532的方位。
将虚拟环境系统500示为图2中以方框形式所示的虚拟环境系统200的实施方式无意暗示对可以实现不同的虚拟环境系统的方式进行限制。例如,在一些说明性实施例中,可以使用接触透镜显示系统替换头戴式显示装置504。在又一个其他说明性示例中,可以在无化身526的情况下使用虚拟照相机。
图2-4中的不同组件可以与图1和图5中的组件结合,与图1和图5中的组件一起使用,或两者的组合。另外,图1中的一些组件可以是图2-4中以方框形式示出的且在图5中图解示出的组件如何能够被实施为物理结构的说明性示例。
现在参考图6,根据说明性实施例描绘用于显示虚拟环境的过程的流程图。可以使用图2中的虚拟环境系统200实现图6所示的过程。
本过程开始于接收用于人的头部中的第一眼睛的第一眼睛方位信息和人的头部中的第二眼睛的第二眼睛方位信息(操作600)。然后,本过程基于第一眼睛方位信息为第一眼睛产生虚拟环境的第一图像,并且基于第二眼睛方位信息为第二眼睛产生虚拟环境的第二图像(操作602)。在操作602中,图像被产生为使得用于产生虚拟环境中的图像的视点对应于物理环境中的人的眼睛的视点。然后,本过程发送第一图像和第二图像,以便向人显示(操作604),然后过程返回至操作600。
只要人正在与虚拟环境交互,这些不同的操作就可以重复。使用图6的流程图中的不同操作向观看虚拟环境的人提供更自然的体验。特别地,使用虚拟环境中的相同视点,从人的眼睛的视点产生图像。
现在参考图7A和图7B,根据说明性实施例描绘用于观看虚拟环境的过程的流程图。可以使用图2中的虚拟环境系统200实现图7A和图7B所示的过程,从而产生图像218,以便由人206使用显示装置220观看。图7A和图7B所示的不同操作描述了在人206与虚拟环境204交互期间,由图2中的虚拟环境系统200和人206所执行的操作。
本过程开始于将头戴式显示装置放置在人的头部上(操作700)。头戴式显示装置是显示装置220的一种实施方式,并且还可以包括至少一部分传感器系统222。头戴式显示装置可以跟踪眼睛移动以及可选地跟踪头部移动。
然后,人启动虚拟环境的产生(操作702)。在该操作中,人可以开启虚拟环境系统,开始虚拟环境的产生。在这些说明性示例中,虚拟环境生成器,例如图2中的虚拟环境生成器208,可以开始虚拟环境的产生。
虚拟环境生成器将查询发送至头戴式显示装置,以查询当前信息(操作704)。该查询使头戴式显示装置产生查询中的信息。该当前信息包括有关人的眼睛的方位的信息。该当前信息还可以包括头部方位和其他合适的信息。在这些说明性示例中,可以定期进行操作704中的查询。此外,眼睛方位可以是眼睛的三维位置、取向或者两者。
虚拟环境生成器获取有关人的第一眼睛和第二眼睛的取向的信息(操作706)。在这些说明性示例中,第一眼睛可以对应于人的左眼,而第二眼睛可以对应于人的右眼。
然后,确定头戴式显示装置是否包括有关人的头部的取向的信息(操作708)。如果头戴式显示装置包括有关头部的取向的信息,则虚拟环境生成器获取有关头部的取向的信息(操作710)。
接下来,确定头戴式显示装置是否包括有关头部的位置的信息(操作712)。在操作712中,可以使用三维坐标系统描述该位置。如果头戴式显示装置包括该信息,则头戴式显示装置获取有关头部位置的信息(操作714)。在这些说明性示例中,有关头部的取向和位置的信息形成头部方位信息。
接下来,确定虚拟环境生成器是否已经被配置以便人使用(操作716)。如果虚拟环境生成器还未被配置以便人使用,则使用眼睛跟踪信息计算第一眼睛和第二眼睛之间的瞳孔距离(操作718)。在这些说明性示例中,眼睛跟踪信息可以包括第一眼睛和第二眼睛的取向、头戴式显示装置的特性、眼睛跟踪器之间的距离、传感器观看角度和可以被用于计算人的瞳孔间距离的其他合适的信息。
在这些说明性示例中,可以使用数个不同的技术识别瞳孔距离。一种用于识别瞳孔距离的技术包括当每只眼睛聚焦于控制点时,从每只眼睛采集多个样本。该控制点可以是例如中心的瞄准线、显示装置的最外边(extreme)或者其一些组合。接下来,计算每只眼睛的每个控制点的观看方向。使用多个观看方向计算眼睛相对于一个或更多眼睛跟踪传感器的方位。接下来,计算眼睛跟踪传感器之间的距离。最终,计算基于眼睛-传感器偏移和传感器-传感器偏移的每只眼睛之间的距离。
可以在数个不同的位置中存储有关人的这个信息和其他信息。例如,信息可以被存储在头戴式显示装置、虚拟环境生成器、远程数据库或者一些其他合适的位置中的至少一个中。在又一个说明性示例中,人可以输入至少一些信息。
然后,虚拟环境生成器生成化身,以表示人在虚拟环境中的方位(操作720)。表示人的第一眼睛和第二眼睛的第一虚拟照相机和第二虚拟照相机被添加至化身(操作722)。使用从头戴式显示装置获取到的有关眼睛的信息执行虚拟照相机的放置。该放置也可以基于有关人的头部的信息(如果该信息可用)。
可以基于所计算的人的眼睛之间的瞳孔距离以及与人的眼睛有关的当前信息,添加虚拟照相机。也可以使用与人的头部有关的信息(如果可用)。虚拟照相机的水平间隔可以基于瞳孔距离。照相机离虚拟环境地面的垂直距离可以基于与人的头部有关的信息。另外,虚拟照相机的定位还可以考虑到人的一只眼睛可能在垂直方向上高于人的另一只眼睛。虚拟照相机的定位还可以考虑到人的眼睛可能是不对称排列的。
虚拟环境生成器使虚拟照相机定位为具有对应于人的眼睛的取向(操作724)。基于从头戴式显示装置获取的当前信息,执行该定位。以这种方式,虚拟照相机可以具有对应于人的眼睛的视点,该视点基于从头戴式显示装置获取的信息识别的眼睛的位置和眼睛的取向。
接下来,确定从头戴式显示装置获取的信息是否包括有关头部的取向的信息(操作726)。如果获取的信息包括有关头部的取向的信息,则化身被定位成具有基于人的头部的当前取向的对应取向(操作728)。
化身取向的这个改变也改变了虚拟照相机的取向,进而改变了虚拟照相机的视点。以这种方式,化身以及化身中的虚拟照相机可以反映人的头部和人的眼睛的改变。
确定从头戴式显示装置获取的信息是否包括有关头部的位置的信息(操作730)。如果获取的信息包括有关头部的位置的信息,则化身被移动以匹配人的头部的当前位置(操作732)。
然后,虚拟环境生成器从第一虚拟照相机的视角呈现虚拟环境(操作736)。也就是说,虚拟环境生成器从特定视角产生图形信息。这个呈现导致从第一虚拟照相机的视点产生虚拟环境的第一图像。也就是说,虚拟环境生成器产生第一虚拟照相机所看到的虚拟环境的第一图像。以相似的形式,虚拟环境生成器从第二虚拟照相机的视角呈现虚拟环境(操作738)。这个呈现导致从第二虚拟照相机的视点产生虚拟环境的第二图像。与第一虚拟照相机相同,虚拟环境生成器产生第二虚拟照相机所看到的虚拟环境的第二图像。
操作736和操作738所产生的得到的第一图像和第二图像从稍微不同的视点提供虚拟环境的两个视图。也就是说,这些图像从稍微不同的视角(其对应于人的眼睛的视角)提供视图。
在虚拟照相机被定位成具有对应于人的眼睛的取向的情况下,图像被调整(tailor)为针对第一人。当第二人使用头戴式显示装置时,虚拟照相机的定位不同,以考虑到第二人的眼睛的定位相对于第一人的眼睛的差异。
第一图像被发送至头戴式显示装置,以便显示给人的第一眼睛(操作740)。第二图像被发送至头戴式显示装置,以便显示给人的第二眼睛(操作742)。在这些说明性示例中,基本同时执行操作736和操作738。也基本同时执行操作740和操作742。
人观看第一图像和第二图像(操作744)。然后,人使用自然人类双目视觉处理,由第一图像和第二图像重建三维图像(操作746)。确定是否继续与虚拟环境交互(操作748)。如果人选择不继续与虚拟环境交互,则该过程终止。否则,该过程返回至操作704。
再次参考操作730,如果获取的信息不包括头部的位置,则该过程前进至操作736和操作738。返回至操作726,如果获取的信息不包括头部的取向,则该过程也前进至操作736和操作738。
返回至操作716,如果虚拟环境生成器已经被配置以便人使用,则该过程前进至操作736和738,并且不执行为头戴式显示装置配置或校准虚拟环境生成器的操作。再次参考操作712,如果获取的信息不包括头部的位置,则该过程前进至操作716。如果获取的信息不包括头部的取向,则该过程也从操作708前进至操作716。
不同所示实施例中的流程和方框图说明了说明性实施例中的设备和方法的一些可能实施方式的架构、功能以及操作。在这点上,流程图或方框图中的每个方框可以表示模块、片段、功能和/或操作或步骤的一部分。例如,一个或更多方框可以被实现为程序代码、硬件或程序代码和硬件的组合。当在硬件中实现时,硬件可以采用例如集成电路的形式,集成电路被制造或配置为执行流程图或方框图中的一个或更多操作。在一些替换说明性实施例中,方框中所注释的一个或更多功能可以不按附图中所注释的顺序发生。例如,在一些情况下,根据所涉及的功能性,相继示出的两个方框可以基本同时执行,或者这些方框有时可以以相反的顺序执行。同样地,除了在流程图或者方框图中所示的方框之外,可以添加其他的方框。
例如,不同操作描述从头戴式显示装置获取信息。在一些说明性示例中,头戴式显示装置可以自动地发送信息而不必查询,或者虚拟环境生成器获取信息。另外,在一些说明性示例中,可以顺序地而不是基本同时执行操作736和操作738。在又一个说明性示例中,可以省略操作730和操作732。有关眼睛的方位的信息可以包括三维空间中的位置和取向。
现在参考图8,根据说明性实施例描绘数据处理系统的方框图的图示。数据处理系统800可以被用于实现图1中的计算机102、图2中的计算机系统212以及图5中的虚拟环境生成器502。在该说明性示例中,数据处理系统800包括通信框架802,其提供处理器单元804、存储器806、永久存储装置808、通信单元810、输入/输出(I/O)单元812以及图形处理单元814之间的通信。在该示例中,通信框架可以采用总线系统的形式。
处理器单元804用于执行可以被加载至存储器806的软件指令。处理器单元804可以是数个处理器、多个处理器核心或者一些其他类型的处理器,这取决于特定实施方式。
存储器806和永久存储装置808是存储装置816的示例。存储装置是任何能够存储信息的硬件,所述信息是例如但不限于,数据、函数形式的程序代码和/或暂时性和/或永久性的其他合适的信息。在这些说明性示例中,存储装置816还可以称为计算机可读存储装置。在这些示例中,存储器806可以是例如,随机存取存储器或者任何其他合适的易失性或者非易失性存储装置。依据特定实施方式,永久存储装置808可以采用各种形式。
例如,永久存储装置808可以包含一个或更多组件或者装置。例如,永久存储装置808可以是硬盘驱动器、闪存、可重写光盘、可重写磁带或者上述一些组合。永久存储装置808所使用的介质也可以是可移除的。例如,可移除硬盘驱动可以被用于永久存储装置808。
在这些说明性示例中,通信单元810提供与其他数据处理系统或者装置的通信。在这些说明性示例中,通信单元810是网络接口卡。
输入/输出单元812允许与可以连接至数据处理系统800的其他装置进行数据的输入和输出。例如,输入/输出单元812可以通过键盘、鼠标和/或一些其他合适的输入装置为用户输入提供连接。此外,输入/输出单元812可以将输出发送至打印机。图形处理单元814提供产生图形信息的机构,以便向用户显示。
用于操作系统、应用和/或程序的指令可以位于存储装置816中,存储装置816通过通信框架802与处理器单元804通信。处理器单元804使用计算机实现的指令执行不同实施例的过程,这些指令可以位于存储器中,例如存储器806。
这些指令被称为程序代码、计算机可用程序代码或者计算机可读程序代码,它们可以由处理器单元804中的处理器读取和执行。不同实施例中的程序代码可以体现在不同的物理或者计算机可读存储介质上,例如存储器806或者永久存储装置808。
程序代码818以功能形式位于计算机可读介质820(其为选择性可移除的)上,并且可以被加载至或者转移至数据处理系统800,以便由处理器单元804执行。在这些说明性示例中,程序代码818和计算机可读介质820形成计算机程序产品822。在一个示例中,计算机可读介质820可以是计算机可读存储介质824或者计算机可读信号介质826。
在这些说明性示例中,计算机可读存储介质824是用于存储程序代码818的物理或者有形存储装置,而不是传播或者传输程序代码818的介质。
替换地,可以使用计算机可读信号介质826将程序代码818传递至数据处理系统800。计算机可读信号介质826可以是,例如,包含程序代码818的被传播的数据信号。例如,计算机可读信号介质826可以是电磁信号、光信号和/或任何其他合适类型的信号。可以通过通信链路传输这些信号,例如无线通信链路、光缆、同轴电缆、电线和/或任何其他合适类型的通信链路。
针对数据处理系统800所示的不同组件并非意味着对可以实现不同的实施例的方式提供架构限制。可以在包括除了和/或代替针对数据处理系统800所示的组件的数据处理系统中实现不同说明性实施例。图8所示的其他组件可以根据所示的说明性示例而变化。可以使用能够运行程序代码818的任何硬件装置或者系统实现不同的实施例。
因此,说明性实施例向与虚拟环境交互的人提供更自然的观看体验。在一个说明性示例中,执行除了跟踪人的头部之外的额外参数。虚拟环境生成器考虑到有关人的眼睛的信息。
例如,除人的头部的位置和取向之外,还考虑眼睛的瞳孔距离和取向。因此,当为人产生图像时,可以考虑到由人的高度差异所致的不同瞳孔距离或者视线距离造成的人之间的各个距离。因此,为每个人产生虚拟环境的自定义表示。
在一个或更多说明性示例中,跟踪眼睛的方位,从而识别虚拟环境中的观看位置和方向。也就是说,针对人的每只眼睛产生视点。这些视点用于为人产生虚拟环境中的图像。在说明性示例中使用虚拟照相机,从而在虚拟环境中重新生成人的对应的视点。
因此,人可以观看二维图像,并且这个人重建三维图像。可以使用自然的双目视觉处理执行这个重建,在其中人根据两个二维图像重建三维图像,每个二维图像是专门针对人的特定眼睛产生的。
因此,通过一个或更多说明性实施例,人可以具有虚拟环境的更多真实视图。此外,还可以减少与虚拟环境交互导致的不期望的效果。
给出不同说明性实施例是为了例示和说明,而无意进行穷举或被限制于所公开的形式的实施例。许多修改和变化对于本领域技术人员是显而易见的。进一步地,不同的说明性实施例与其他说明性实施例相比可以提供不同的特征。选择并且描述了所选的实施例是为了更好地解释实施例的原理、实际应用,并且使本领域技术人员能够理解具有适于所考虑的特定用途的不同修改的各种实施例的公开。
Claims (14)
1.一种设备,其包含:
头部跟踪器(405),其被配置为跟踪人的头部(236)的头部方位(242),并且产生用于所述头部方位的头部方位信息(230);
显示装置(220),其中所述显示装置(220)选自以下中的一个:头戴式显示系统(302)、快门显示系统(304)、偏振显示系统(306)、视网膜显示系统(308)以及接触透镜显示系统(310);
图像处理器(216),其被配置为:
接收用于所述人(206)的所述头部(236)中的第一眼睛(234)的第一眼睛(234)方位信息(226)以及用于所述人(206)的所述头部(236)中的第二眼睛(240)的第二眼睛方位信息(228);
基于用于所述第一眼睛(234)的所述第一眼睛方位信息(226),为所述第一眼睛(234)产生虚拟环境(204)的第一图像(252);
基于用于所述第二眼睛(240)的所述第二眼睛方位信息(228),为所述第二眼睛(240)产生所述虚拟环境(204)的第二图像(254);
将所述第一图像(252)和所述第二图像(254)发送至显示装置(220),以便向所述人(206)显示;
识别所述虚拟环境(204)中的第一虚拟照相机(244)的第一方位(256),其代表所述虚拟环境(204)中的所述第一眼睛(234)的第一视点(258),并且识别所述虚拟环境(204)中的第二虚拟照相机(246)的第二方位(260),其代表所述虚拟环境(204)中的所述第二眼睛(240)的第二视点(262);
产生所述第一虚拟照相机(244)所看到的所述虚拟环境(204)的所述第一图像(252);以及
产生所述第二虚拟照相机(246)所看到的所述虚拟环境(204)的所述第二图像(254);以及
所述虚拟环境(204)中的化身(248),其中所述化身(248)代表所述虚拟环境(204)中的所述人(206),并且其中在所述虚拟环境(204)内移动所述化身(248),从而使用用于头部(250)的方位的所述头部方位信息(230)匹配所述头部(236)的方位。
2.根据权利要求1所述的设备,还包含:
控制器(214),其被配置为产生所述虚拟环境(204);
其中所述图像处理器(216)还被配置为接收用于所述人(206)的所述头部(236)的头部方位(242)的头部方位(242)信息(230),并且基于用于所述第一眼睛(234)的所述第一眼睛方位信息(226)和所述头部方位(242)信息(230),为所述第一眼睛(234)产生所述虚拟环境(204)的所述第一图像(252),并且基于用于所述第二眼睛(240)的所述第二眼睛方位信息(228)和所述头部方位信息(230),为所述第二眼睛(240)产生所述虚拟环境(204)的所述第二图像(254)。
3.根据权利要求1所述的设备,其中所述显示装置(220)被配置为提供除了所述第一图像(252)和所述第二图像(254)之外的所述人(206)周围的物理环境(202)的视图。
4.根据权利要求1所述的设备,其中所述显示装置(220)被配置为接收所述第一图像(252)和所述第二图像(254),将所述第一图像(252)显示给所述第一眼睛(234),并且将所述第二图像(254)显示给所述第二眼睛(240);并且
其中所述显示装置(220)包括:
第一显示器(512),其被配置为将所述第一图像(252)显示给所述第一眼睛(234);以及
第二显示器(514),其被配置为将所述第二图像(254)显示给所述第二眼睛(240)。
5.根据权利要求1所述的设备,还包含:
眼睛跟踪系统(402),其被配置为跟踪所述第一眼睛(234)的第一方位(256),跟踪所述第二眼睛(240)的第二方位(260);
使用所述第一眼睛(234)的所述第一方位(256),产生所述第一眼睛方位信息(226);以及
使用所述第二眼睛(240)的所述第二方位(260),产生所述第二眼睛方位信息(228)。
6.根据权利要求2所述的设备,还包含:
与所述虚拟环境(204)中的所述化身(248)的头部(250)关联的第一虚拟照相机(244),其中使用所述第一眼睛方位信息(226)定位所述第一虚拟照相机(244);
与所述虚拟环境(204)中的所述化身(248)的所述头部(250)关联的第二虚拟照相机(246),其中使用所述第二眼睛方位信息(228)定位所述第二虚拟照相机(246);
其中使用所述头部方位信息(230)在垂直方向上定位所述第一虚拟照相机(244)和所述第二虚拟照相机(246)。
7.根据权利要求1所述的设备,其中所述第一图像(252)提供所述虚拟环境(204)的第一视点(258),以及所述第二图像(254)提供所述虚拟环境(204)的第二视点(262),其中所述第一视点(258)不同于所述第二视点(262)。
8.根据权利要求1所述的设备,其中所述第一眼睛方位信息(226)包括所述第一眼睛(234)的位置和所述第一眼睛(234)的取向,以及所述第二眼睛方位信息(228)包括所述第二眼睛(240)的位置和所述第二眼睛(240)的取向。
9.一种用于显示虚拟环境(204)的方法,所述方法包含:
经由头部跟踪器(405)跟踪人(206)的头部(236)的头部方位(242);
产生用于所述头部方位的头部方位信息(230);
经由图像处理器(216)接收用于所述人(206)的所述头部(236)的第一眼睛(234)的第一眼睛方位信息(226)和用于所述人(206)的所述头部(236)的第二眼睛(240)的第二眼睛方位信息(228);
经由图像处理器(216)基于所述第一眼睛方位信息(226),为所述第一眼睛(234)产生所述虚拟环境(204)的第一图像(252);
经由图像处理器(216)基于用于所述第二眼睛(240)的所述第二眼睛方位信息(228),为所述第二眼睛(240)产生所述虚拟环境(204)的第二图像(254);
经由图像处理器(216)产生所述虚拟环境(204)中的化身(248),其中所述化身(248)代表所述虚拟环境(204)中的所述人(206);
在所述虚拟环境(204)内移动所述化身(248),从而使用用于头部(250)的方位的所述头部方位信息(230)匹配所述头部(236)的方位;
将所述第一图像(252)和所述第二图像(254)发送至显示装置(220),以便向所述人(206)显示;以及
识别所述虚拟环境(204)中的第一虚拟照相机(244)的第一方位(256),其代表所述虚拟环境(204)中的所述第一眼睛(234)的第一视点(258),所述第一虚拟照相机(244)的所述第一方位(256)基于所述第一眼睛方位信息(226),并且识别所述虚拟环境(204)中的第二虚拟照相机(246)的第二方位(260),其代表所述虚拟环境(204)中的所述第二眼睛(240)的第二视点(262),所述第二虚拟照相机(246)的所述第二方位(260)基于所述第二眼睛方位信息(228),
其中产生所述第一图像(252)包括:
产生所述第一虚拟照相机(244)所看到的所述虚拟环境(204)的所述第一图像(252);并且
其中产生所述第二图像(254)包括:
产生所述第二虚拟照相机(246)所看到的所述虚拟环境(204)的所述第二图像(254)。
10.根据权利要求9所述方法,还包含:
接收用于所述人(206)的所述头部(236)的头部方位(242)的头部方位信息(230),其中产生所述第一图像(252)包含:
基于用于所述第一眼睛(234)的所述第一眼睛方位信息(226)和所述头部方位信息(230),为所述第一眼睛(234)产生所述虚拟环境(204)的所述第一图像(252),其中产生所述第二图像(254)包含:
基于用于所述第二眼睛(240)的所述第二眼睛方位信息(228)以及所述头部方位信息(230),为所述第二眼睛(240)产生所述虚拟环境(204)的所述第二图像。
11.根据权利要求9所述的方法,还包含:
使用显示装置(220)向所述第一眼睛(234)显示所述第一图像(252);以及
使用所述显示装置(220)向所述第二眼睛(240)显示所述第二图像(254)。
12.根据权利要求11所述的方法,其中所述显示装置(220)选自以下中的一个:头戴式显示系统(302)、快门显示系统(304)、偏振显示系统(306)、视网膜显示系统(308)以及接触透镜显示系统(310)。
13.根据权利要求9所述的方法,还包含:
使用眼睛跟踪系统(402)跟踪所述第一眼睛(234)的第一方位(256)以及所述第二眼睛(240)的第二方位(260);以及
使用所述第一眼睛(234)的所述第一方位(256)产生所述第一眼睛方位信息(226),并且使用所述第二眼睛(240)的所述第二方位(260)产生所述第二眼睛方位信息(228)。
14.根据权利要求11所述的方法,其中所述显示装置(220)被配置为提供除了所述第一图像(252)和所述第二图像(254)之外的所述人(206)周围的物理环境(202)的视图。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/661,971 | 2012-10-26 | ||
US13/661,971 US9058053B2 (en) | 2012-10-26 | 2012-10-26 | Virtual reality display system |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103793049A CN103793049A (zh) | 2014-05-14 |
CN103793049B true CN103793049B (zh) | 2018-11-13 |
Family
ID=49552159
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310516866.3A Active CN103793049B (zh) | 2012-10-26 | 2013-10-28 | 虚拟现实显示系统 |
Country Status (9)
Country | Link |
---|---|
US (1) | US9058053B2 (zh) |
EP (1) | EP2725457B1 (zh) |
JP (1) | JP6226697B2 (zh) |
KR (1) | KR102118749B1 (zh) |
CN (1) | CN103793049B (zh) |
AU (1) | AU2013224653B2 (zh) |
BR (1) | BR102013027355B1 (zh) |
CA (1) | CA2825563C (zh) |
RU (1) | RU2664397C2 (zh) |
Families Citing this family (51)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9264702B2 (en) * | 2013-08-19 | 2016-02-16 | Qualcomm Incorporated | Automatic calibration of scene camera for optical see-through head mounted display |
US9551873B2 (en) * | 2014-05-30 | 2017-01-24 | Sony Interactive Entertainment America Llc | Head mounted device (HMD) system having interface with mobile computing device for rendering virtual reality content |
KR20150141461A (ko) * | 2014-06-10 | 2015-12-18 | 엘지전자 주식회사 | 헤드 마운티드 디스플레이 및 그 제어 방법 |
CN104463956B (zh) * | 2014-11-21 | 2017-05-10 | 中国科学院国家天文台 | 一种月表虚拟场景构建方法及装置 |
US9626783B2 (en) * | 2015-02-02 | 2017-04-18 | Kdh-Design Service Inc. | Helmet-used device capable of automatically adjusting positions of displayed information and helmet thereof |
US10176638B2 (en) * | 2015-05-18 | 2019-01-08 | Dreamworks Animation L.L.C. | Method and system for calibrating a virtual reality system |
JP5876607B1 (ja) * | 2015-06-12 | 2016-03-02 | 株式会社コロプラ | フローティング・グラフィカルユーザインターフェース |
US10095306B2 (en) * | 2015-06-15 | 2018-10-09 | Harman International Industries, Incorporated | Passive magnetic head tracker |
JP2017027477A (ja) | 2015-07-24 | 2017-02-02 | 株式会社オプティム | 3次元出力サーバ、3次元出力方法及び3次元出力サーバ用プログラム。 |
KR101808852B1 (ko) * | 2015-08-18 | 2017-12-13 | 권혁제 | 가상현실 헤드셋을 이용한 안경 렌즈 비교 시뮬레이션 시스템 및 그 방법 |
US10353219B1 (en) | 2015-08-20 | 2019-07-16 | Verily Life Sciences Llc | Device, method and system to provide accommodation during a stereoscopic display |
EP3148188A1 (en) * | 2015-09-24 | 2017-03-29 | Airbus Operations GmbH | Virtual windows for airborne verhicles |
EP3148186A1 (en) | 2015-09-24 | 2017-03-29 | Airbus Operations GmbH | Virtual windows for airborne vehicles |
WO2017062268A1 (en) * | 2015-10-04 | 2017-04-13 | Thika Holdings Llc | Eye gaze responsive virtual reality headset |
CN106681674A (zh) * | 2015-11-05 | 2017-05-17 | 丰唐物联技术(深圳)有限公司 | 一种虚拟现实显示器的显示控制方法及系统 |
US10013055B2 (en) * | 2015-11-06 | 2018-07-03 | Oculus Vr, Llc | Eye tracking using optical flow |
EP3185535A1 (en) | 2015-12-22 | 2017-06-28 | Thomson Licensing | Method and apparatus for controlling a discrepant aiming direction of a camera |
WO2017114834A1 (en) * | 2015-12-29 | 2017-07-06 | Koninklijke Philips N.V. | System, controller and method using virtual reality device for robotic surgery |
US10786319B2 (en) * | 2015-12-29 | 2020-09-29 | Koninklijke Philips N.V. | System, control unit and method for control of a surgical robot |
US10430988B2 (en) | 2016-06-03 | 2019-10-01 | Facebook Technologies, Llc | Facial animation using facial sensors within a head-mounted display |
JP6560463B1 (ja) * | 2016-06-03 | 2019-08-14 | フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニーFacebook Technologies, Llc | ヘッドマウントディスプレイ内の顔センサを使用する顔および目のトラッキングおよび顔アニメーション |
US9959678B2 (en) | 2016-06-03 | 2018-05-01 | Oculus Vr, Llc | Face and eye tracking using facial sensors within a head-mounted display |
CN109952550A (zh) * | 2016-06-16 | 2019-06-28 | 弗伊德有限责任公司 | 组合的虚拟和物理环境中的重定向移动 |
US10773179B2 (en) | 2016-09-08 | 2020-09-15 | Blocks Rock Llc | Method of and system for facilitating structured block play |
US10649233B2 (en) | 2016-11-28 | 2020-05-12 | Tectus Corporation | Unobtrusive eye mounted display |
US11348475B2 (en) | 2016-12-09 | 2022-05-31 | The Boeing Company | System and method for interactive cognitive task assistance |
US10237537B2 (en) | 2017-01-17 | 2019-03-19 | Alexander Sextus Limited | System and method for creating an interactive virtual reality (VR) movie having live action elements |
US10438394B2 (en) | 2017-03-02 | 2019-10-08 | Colopl, Inc. | Information processing method, virtual space delivering system and apparatus therefor |
JP6212666B1 (ja) * | 2017-03-02 | 2017-10-11 | 株式会社コロプラ | 情報処理方法、プログラム、仮想空間配信システム及び装置 |
CN106959516A (zh) * | 2017-05-02 | 2017-07-18 | 广州蜃境信息科技有限公司 | 一种基于双屏显示增强现实技术眼镜 |
JP6738308B2 (ja) * | 2017-08-01 | 2020-08-12 | 株式会社コロプラ | 情報処理方法、プログラム、仮想空間配信システム及び装置 |
CN107516335A (zh) * | 2017-08-14 | 2017-12-26 | 歌尔股份有限公司 | 虚拟现实的图形渲染方法和装置 |
US10585277B2 (en) * | 2017-08-31 | 2020-03-10 | Tobii Ab | Systems and methods for tracking a gaze of a user across a multi-display arrangement |
US11303814B2 (en) * | 2017-11-09 | 2022-04-12 | Qualcomm Incorporated | Systems and methods for controlling a field of view |
US10673414B2 (en) | 2018-02-05 | 2020-06-02 | Tectus Corporation | Adaptive tuning of a contact lens |
US10580349B2 (en) | 2018-02-09 | 2020-03-03 | Tectus Corporation | Backplane for eye-mounted display |
US10505394B2 (en) | 2018-04-21 | 2019-12-10 | Tectus Corporation | Power generation necklaces that mitigate energy absorption in the human body |
US10838239B2 (en) | 2018-04-30 | 2020-11-17 | Tectus Corporation | Multi-coil field generation in an electronic contact lens system |
US10895762B2 (en) | 2018-04-30 | 2021-01-19 | Tectus Corporation | Multi-coil field generation in an electronic contact lens system |
US10790700B2 (en) | 2018-05-18 | 2020-09-29 | Tectus Corporation | Power generation necklaces with field shaping systems |
US11137622B2 (en) | 2018-07-15 | 2021-10-05 | Tectus Corporation | Eye-mounted displays including embedded conductive coils |
US10529107B1 (en) | 2018-09-11 | 2020-01-07 | Tectus Corporation | Projector alignment in a contact lens |
US10838232B2 (en) | 2018-11-26 | 2020-11-17 | Tectus Corporation | Eye-mounted displays including embedded solenoids |
US11089279B2 (en) * | 2018-12-06 | 2021-08-10 | Htc Corporation | 3D image processing method, camera device, and non-transitory computer readable storage medium |
US10644543B1 (en) | 2018-12-20 | 2020-05-05 | Tectus Corporation | Eye-mounted display system including a head wearable object |
US10499044B1 (en) | 2019-05-13 | 2019-12-03 | Athanos, Inc. | Movable display for viewing and interacting with computer generated environments |
US10944290B2 (en) | 2019-08-02 | 2021-03-09 | Tectus Corporation | Headgear providing inductive coupling to a contact lens |
CN110515461A (zh) * | 2019-08-23 | 2019-11-29 | Oppo广东移动通信有限公司 | 交互方法、头戴设备、交互系统和存储介质 |
CN113760085A (zh) * | 2020-06-03 | 2021-12-07 | 李连波 | 虚拟环境构建和应用方法、vr设备及虚拟现实交互系统 |
CA3183360A1 (en) * | 2020-06-22 | 2021-12-30 | Nikolaus TROJE | System and method for determining directionality of imagery using head tracking |
CN112505917A (zh) * | 2020-12-09 | 2021-03-16 | Oppo广东移动通信有限公司 | 一种图像显示装置和近眼显示设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6529331B2 (en) * | 2001-04-20 | 2003-03-04 | Johns Hopkins University | Head mounted display with full field of view and high resolution |
CN101783967A (zh) * | 2009-01-21 | 2010-07-21 | 索尼公司 | 信号处理设备、图像显示设备、信号处理方法和计算机程序 |
CN102611909A (zh) * | 2011-02-08 | 2012-07-25 | 微软公司 | 具有运动视差的三维显示 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11195131A (ja) * | 1997-12-26 | 1999-07-21 | Canon Inc | 仮想現実方法及び装置並びに記憶媒体 |
JP3425402B2 (ja) * | 2000-01-31 | 2003-07-14 | 独立行政法人通信総合研究所 | 立体画像を表示する装置および方法 |
US7091929B2 (en) | 2001-03-16 | 2006-08-15 | Hewlett-Packard Development Company, L.P. | Method and apparatus for displaying images |
GB2375188B (en) * | 2001-04-30 | 2004-07-21 | Samsung Electronics Co Ltd | Wearable Display Apparatus with Waveguide Having Diagonally Cut End Face |
US7084838B2 (en) * | 2001-08-17 | 2006-08-01 | Geo-Rae, Co., Ltd. | Method and system for controlling the motion of stereoscopic cameras using a three-dimensional mouse |
US9030532B2 (en) * | 2004-08-19 | 2015-05-12 | Microsoft Technology Licensing, Llc | Stereoscopic image display |
US8130260B2 (en) * | 2005-11-09 | 2012-03-06 | Johns Hopkins University | System and method for 3-dimensional display of image data |
RU2326419C1 (ru) * | 2006-09-05 | 2008-06-10 | Олег Леонидович Головков | Виртуальный шлем и устройство для его реализации |
US9891435B2 (en) * | 2006-11-02 | 2018-02-13 | Sensics, Inc. | Apparatus, systems and methods for providing motion tracking using a personal viewing device |
US20080106489A1 (en) * | 2006-11-02 | 2008-05-08 | Brown Lawrence G | Systems and methods for a head-mounted display |
US7948450B2 (en) * | 2006-11-09 | 2011-05-24 | D3 Led, Llc | Apparatus and method for allowing display modules to communicate information about themselves to other display modules in the same display panel |
US8913056B2 (en) | 2010-08-04 | 2014-12-16 | Apple Inc. | Three dimensional user interface effects on a display by using properties of motion |
-
2012
- 2012-10-26 US US13/661,971 patent/US9058053B2/en active Active
-
2013
- 2013-08-28 CA CA2825563A patent/CA2825563C/en active Active
- 2013-09-04 AU AU2013224653A patent/AU2013224653B2/en active Active
- 2013-09-26 KR KR1020130114282A patent/KR102118749B1/ko active IP Right Grant
- 2013-10-21 EP EP13189587.2A patent/EP2725457B1/en active Active
- 2013-10-24 BR BR102013027355-4A patent/BR102013027355B1/pt active IP Right Grant
- 2013-10-25 JP JP2013221877A patent/JP6226697B2/ja active Active
- 2013-10-25 RU RU2013147677A patent/RU2664397C2/ru active
- 2013-10-28 CN CN201310516866.3A patent/CN103793049B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6529331B2 (en) * | 2001-04-20 | 2003-03-04 | Johns Hopkins University | Head mounted display with full field of view and high resolution |
CN101783967A (zh) * | 2009-01-21 | 2010-07-21 | 索尼公司 | 信号处理设备、图像显示设备、信号处理方法和计算机程序 |
CN102611909A (zh) * | 2011-02-08 | 2012-07-25 | 微软公司 | 具有运动视差的三维显示 |
Also Published As
Publication number | Publication date |
---|---|
JP6226697B2 (ja) | 2017-11-08 |
AU2013224653B2 (en) | 2019-05-02 |
KR20140053765A (ko) | 2014-05-08 |
CN103793049A (zh) | 2014-05-14 |
RU2664397C2 (ru) | 2018-08-17 |
RU2013147677A (ru) | 2015-04-27 |
US9058053B2 (en) | 2015-06-16 |
BR102013027355B1 (pt) | 2022-03-22 |
EP2725457A2 (en) | 2014-04-30 |
AU2013224653A1 (en) | 2014-05-15 |
CA2825563A1 (en) | 2014-04-26 |
BR102013027355A2 (pt) | 2014-10-21 |
EP2725457B1 (en) | 2019-07-03 |
EP2725457A3 (en) | 2016-08-17 |
KR102118749B1 (ko) | 2020-06-04 |
US20140118357A1 (en) | 2014-05-01 |
CA2825563C (en) | 2017-03-21 |
JP2014086091A (ja) | 2014-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103793049B (zh) | 虚拟现实显示系统 | |
CN110945405B (zh) | 眼睛跟踪校准技术 | |
CN112783328B (zh) | 提供虚拟空间的方法、提供虚拟体验的方法、程序以及记录介质 | |
US10115235B2 (en) | Method for controlling head mounted display, and system for implemeting the method | |
CN109313509A (zh) | 视野周围的视觉光环 | |
WO2017090373A1 (ja) | 画像表示方法及びプログラム | |
US11822718B2 (en) | Display systems and methods for determining vertical alignment between left and right displays and a user's eyes | |
JP2017142569A (ja) | 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム | |
JP6220937B1 (ja) | 情報処理方法、当該情報処理方法をコンピュータに実行させるためのプログラム及びコンピュータ | |
CN113221381B (zh) | 一种虚拟现实多视角融合模型的设计方法 | |
WO2022020434A1 (en) | Eye tracking using alternate sampling | |
JP6203346B1 (ja) | 仮想空間を提供する方法、プログラム、および記録媒体 | |
JP6113897B1 (ja) | 仮想空間を提供する方法、仮想体験を提供する方法、プログラム、および記録媒体 | |
JP6934374B2 (ja) | プロセッサを備えるコンピュータにより実行される方法 | |
JP2020031413A (ja) | 表示装置、移動体、移動体制御システム、これらの製造方法、および映像の表示方法 | |
JP2018028900A (ja) | 仮想空間を提供する方法、プログラム、および記録媒体 | |
US20240135660A1 (en) | Information processing apparatus and information processing method | |
JP6216851B1 (ja) | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP2017097918A (ja) | 画像表示方法及びプログラム | |
JP6738308B2 (ja) | 情報処理方法、プログラム、仮想空間配信システム及び装置 | |
JP2018032101A (ja) | 仮想空間を提供する方法、仮想体験を提供する方法、プログラム、および記録媒体 | |
JP2014197776A (ja) | 表示装置及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |