CN102419631A - 虚拟内容到现实内容中的融合 - Google Patents

虚拟内容到现实内容中的融合 Download PDF

Info

Publication number
CN102419631A
CN102419631A CN2011103285860A CN201110328586A CN102419631A CN 102419631 A CN102419631 A CN 102419631A CN 2011103285860 A CN2011103285860 A CN 2011103285860A CN 201110328586 A CN201110328586 A CN 201110328586A CN 102419631 A CN102419631 A CN 102419631A
Authority
CN
China
Prior art keywords
display
light
virtual image
user
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2011103285860A
Other languages
English (en)
Other versions
CN102419631B (zh
Inventor
J·弗莱克斯
A·巴-泽埃夫
J·N·马戈利斯
C·迈尔斯
A·A-A·基普曼
A·J·富勒
B·小克罗科
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Technology Licensing LLC
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of CN102419631A publication Critical patent/CN102419631A/zh
Application granted granted Critical
Publication of CN102419631B publication Critical patent/CN102419631B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0127Head-up displays characterised by optical features comprising devices increasing the depth of field
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Abstract

本发明涉及虚拟内容到现实内容中的融合。描述了一种包括头戴式显示设备和连接到该头戴式显示设备的处理单元的系统,该系统用于将虚拟内容融合到现实内容中。在一个实施例中,该处理单元与中枢计算设备通信。该系统:创建空间的体积模型;将该模型分割成物体;标识出所述物体中的包括第一物体的一个或多个物体;以及在(头戴式显示器的)显示器上将虚拟图像显示在第一物体之上,该显示器允许通过该显示器实际直接地查看该空间的至少一部分。

Description

虚拟内容到现实内容中的融合
技术领域
本发明涉及虚拟内容到现实内容中的融合。
背景技术
扩展现实是一种允许将虚拟图像与现实世界物理环境相混合的技术。例如,扩展现实系统可以用于将恐龙的图像插入到用户房间的视图中,使得该用户看见恐龙在房间中走动。
扩展现实要解决的更困难的问题之一是将虚拟物体覆盖在现实物体之上的能力。例如,所期望的可能是遮蔽现实物体并且使其看上去是别的东西。可替代地,所期望的可能是将看上去是场景的一部分的新图像添加到该场景中,从而要求该新图像挡住该场景中的现实物体的全部或一部分的视图。
用虚拟图像遮蔽现实物体可能是复杂的。
发明内容
在此所述的技术提供了一种系统,其用于将虚拟内容融合到现实内容中,使得虚拟物体的图像可以挡住现实物体的视图的全部或一部分。使用一个或多个传感器来扫描环境以及构建所扫描的环境的模型。使用该模型,该系统将虚拟图像添加到用户对环境的视图中的参考现实世界物体的位置处。例如,该系统可以被配置为创建房间的模型并且添加假想的巨石的虚拟图像以替换房间中的现实咖啡桌。用户佩戴具有显示元件的头戴式显示设备(或其他合适的装置)。该显示元件允许用户通过显示元件查看房间,由此允许通过该显示元件实际直接地查看房间。该显示元件还提供将虚拟图像投影到用户的视野内使得虚拟图像看上去处于该房间内这一能力。该系统自动地跟踪用户所查看之处,使得该系统可以确定:将巨石的虚拟图像例如插入到用户的视野中的何处。一旦系统得知要将虚拟图像投影到何处,则该图像就使用显示元件被投影。
在一些实施例中,可以使用与该显示元件对齐的滤光器来选择性地阻挡到达显示元件的光。这允许该系统使虚拟图像将被投影到的地方暗化,从而使得更易于看见虚拟图像并且更难以看见虚拟图像之后的现实世界物体。在上面的示例中,滤光器将用于使咖啡桌难以被看见,使得当巨石被投影到咖啡桌之上时,观众很好地看见巨石,但是不能很好地看见(或者完全不能看见)咖啡桌。
一个实施例包括:创建空间的体积模型;将该模型分割成物体;标识出所述物体中的包括第一物体的一个或多个物体;以及在显示器上自动地将虚拟图像显示在第一物体之上,该显示器允许通过该显示器实际直接地查看该空间的至少一部分。
一个示例性实施方式中包括头戴式显示设备、以及与该头戴式显示设备通信的处理单元。该头戴式显示设备包括:显示器,其允许通过该显示器对第一物体的实际直接视图;不透明度滤光器,其与该显示器对齐使得穿过该不透明度滤光器的光也穿过该显示器;惯性传感器,其感测该头戴式显示设备的取向信息;第一通信接口;以及一个或多个控制电路,其与该显示器、该不透明度滤光器、该惯性传感器、以及第一通信接口进行通信。处理单元包括:第二通信接口,其与第一通信接口通信;以及一个或多个控制电路,其通过第一通信接口和第二通信接口与头戴式显示设备通信以自动地在该显示器上显示虚拟图像。
提供本发明内容以便以简化形式介绍在以下具体实施方式中进一步描述的一些概念。本发明内容并非旨在标识所要求保护的主题的关键特征或必要特征,也不旨在用于帮助确定所要求保护的主题的范围。此外,所要求保护的主题不限于解决在本公开的任何部分中提及的任何或所有缺点的实现。
附图说明
图1是描绘了用于将虚拟内容融合到现实内容中的系统的一个实施例的示例性组件的框图。
图2是头戴式显示单元的一个实施例的一部分的顶视图。
图2A-2E提供了示出不透明度滤光器的操作的示例性图像。
图3是头戴式显示单元的组件的一个实施例的框图。
图4是与头戴式显示单元相关联的处理单元的组件的一个实施例的框图。
图5是与头戴式显示单元相关联的中枢计算系统的组件的一个实施例的框图。
图6是描绘可用于实现在此所述的中枢计算系统的计算系统的一个实施例的框图。
图7是描绘了可以将虚拟内容与现实内容相融合的多用户系统的框图。
图8是描述用于将虚拟内容与现实内容相融合的过程的一个实施例的流程图。
图8A是描述用于将虚拟内容与现实内容相融合的过程的一个实施例的流程图。
图9是描述用于创建空间的模型的过程的一个实施例的流程图。
图10是描述用于将模型分割成物体的过程的一个实施例的流程图。
图11是描述用于标识出物体的过程的一个实施例的流程图。
图11A是描述用于响应于移动物体来更新模型的过程的一个实施例的流程图。
图12是描述用于将虚拟物体投影到现实物体之上的过程的一个实施例的流程图。
图12A是描述用于基于光源和阴影来调整显示何物的过程的一个实施例的流程图。
图13是描述用于由中枢来跟踪用户和/或头戴式显示单元的位置和取向的过程的一个实施例的流程图。
图14是描述用于跟踪眼睛位置的过程的一个实施例的流程图。
图15是描述用于确定用户视角的过程的一个实施例的流程图。
具体实施方式
在此描述了一种可以将虚拟物体与现实物体相融合的系统。在一个实施例中,该系统包括头戴式显示设备、以及与该头戴式显示设备通信的处理单元。头戴式显示设备包括显示器,该显示器允许通过该显示器对现实世界物体的实际直接视图。该系统可以将虚拟图像投影到显示器上,其中所述虚拟图像可以由佩戴头戴式显示设备的人来查看,同时该人还通过该显示器来查看现实世界物体。使用各种传感器来检测位置和取向以便确定将虚拟图像投影到何处。
使用所述传感器中的一个或多个来扫描相邻环境以及构建所扫描的环境的模型。在一个实施例中,环境的扫描还可以包括:确定光源的位置、表面的反射率,这将使得该系统能够添加合适的阴影和现实表面上的反射。也就是说,该系统将映射表面的照明和反射率以用于反射和阴影。该模型被分割成物体,并且现实世界物体相对于该模型被标识出。使用该模型,虚拟图像被添加到该模型的视图的参考作为该模型的一部分的现实世界物体的位置处。该系统自动地跟踪用户正注视何处,使得该系统可以弄清用户通过安装在头部显示设备的显示器的视野。可以使用包括深度传感器、图像传感器、惯性传感器、眼睛位置传感器等在内的各种传感器来跟踪用户。
一旦该系统知道了用户的视野,则该系统就可以弄清:虚拟图像应当由头戴式显示设备的显示器投影到何处。然后,该图像通过如下方式被渲染:对该虚拟图像进行大小确定和定向;以及将经大小确定/定向的图像渲染在头戴式显示设备的显示器上。在一些实施例中,虚拟图像可以被改变以考虑到遮挡。在此所述的系统的一些实施方式包括:与头戴式显示设备的显示器对齐的滤光器以选择性地阻挡到达显示器的光。这允许该系统使虚拟图像将被投影到的区域变得更暗,从而使得更易于看见虚拟图像并且更难以看见虚拟图像之后的现实世界物体。
图1是描绘了用于将虚拟内容融合到现实内容中的系统10的一个实施例的示例性组件的框图。系统10包括通过线6与处理单元4通信的头戴式显示设备2。在其他实施例中,头戴式显示设备2经由无线通信来与处理单元4进行通信。在一个实施例中为眼镜形状的头戴式显示设备2被佩戴在用户的头上,使得用户可以通过显示器进行查看,并且从而具有该用户前方的空间的实际直接视图。使用术语“实际和直接视图”来指直接用人眼查看现实世界物体的能力,而不是查看对物体的所创建的图像表示。例如,在房间中通过眼镜进行查看将允许用户具有房间的实际直接视图,而在电视上查看房间的视频不是房间的实际直接视图。下面提供头戴式显示设备2的更多细节。
在一个实施例中,处理单元4被佩戴在用户的手腕上,并且包括许多用于操作头戴式显示设备2的计算能力。处理单元4可以与一个或多个中枢计算系统12无线地(例如WiFi、蓝牙、红外、或其他无线通信手段)通信。
中枢计算系统12可以是计算机、游戏系统或控制台等等。根据一示例性实施例,中枢计算系统12可以包括硬件组件和/或软件组件,使得中枢计算系统12可以用于执行诸如游戏应用、非游戏应用等等之类的应用。在一个实施例中,中枢计算系统12可以包括诸如标准化处理器、专用处理器、微处理器等等之类的处理器,这些处理器可以执行存储在处理器可读存储设备上的指令以用于执行在此所述的过程。
中枢计算系统12还包括一个或多个捕捉设备,比如捕捉设备20A和20B。在其他实施例中,可以使用多于或少于两个的捕捉设备。在一个示例性实施方式中,捕捉设备20A和20B指向不同方向,使得它们可以捕捉房间的不同部分。可能有利的是,两个捕捉设备的视野稍微地重叠,使得中枢计算系统12可以理解捕捉设备的视野如何彼此相关。通过这种方式,可以使用多个捕捉设备来查看整个房间(或其他空间)。可替代地,如果捕捉设备可以在操作期间平移,使得整个相关空间随时间被捕捉设备查看,则可以使用一个捕捉设备。
捕捉设备20A和20B例如可以是相机,该相机在视觉上监视一个或多个用户和周围空间,使得可以捕捉、分析并跟踪该一个或多个用户所执行的姿势和/或运动以及周围空间的结构,以在应用中执行一个或多个控制或动作和/或使化身或屏上人物动画化。
中枢计算环境12可以连接到诸如电视机、监视器、高清电视机(HDTV)等可提供游戏或应用程序视觉的视听设备16。例如,中枢计算系统12可包括诸如图形卡等视频适配器和/或诸如声卡等音频适配器,这些适配器可提供与游戏应用、非游戏应用等相关联的视听信号。视听设备16可从中枢计算系统12接收视听信号,并且然后可以输出与视听信号相关联的游戏或应用视觉和/或音频。根据一个实施例,视听设备16可经由例如,S-视频电缆、同轴电缆、HDMI电缆、DVI电缆、VGA电缆、分量视频电缆、RCA电缆等连接至中枢计算系统12。在一个示例中,视听设备16包括内置扬声器。在其他实施例中,视听设备16、单独的立体声系统或中枢计算设备12连接到外部扬声器22。
中枢计算设备10可以与捕捉设备20A和20B一起用于识别、分析和/或跟踪人类(以及其他类型的)目标。例如,可使用捕捉设备20A和20B来跟踪佩戴头戴式显示设备2的用户,使得可以捕捉用户的姿势和/或运动来使化身或屏幕上人物动画化,和/或可将用户的姿势和/或移动解释为可用于影响中枢计算系统12所执行的应用的控制。
图2描绘了头戴式显示设备2的顶视图,其包括镜架的包含镜腿102和鼻中104的那部分。仅仅描绘了头戴式显示设备2的右侧。在鼻中104中置入了话筒110以用于记录声音以及将音频数据传送给处理单元4,这将在下面予以描述。在头戴式显示设备2的前方是朝向可捕捉视频和静止图像的视频相机113的房间。这些图像被传送给处理单元4,这将在下面予以描述。
头戴式显示设备2的镜架的一部分将围绕显示器(其包括一个或多个透镜)。为了示出头戴式显示设备2的组件,未描绘围绕显示器的镜架部分。该显示器包括光导光学元件112、不透明度滤光器114、透视透镜116和透视透镜118。在一个实施例中,不透明度滤光器114处于透视透镜116之后并与其对齐,光导光学元件112处于不透明度滤光器114之后并与其对齐,并且透视透镜118处于光导光学元件112之后并与其对齐。在该示例中,透视透镜116和118是眼镜中使用的标准透镜,并且可根据任何处方(包括不根据处方)来制作。在一个实施例中,透视透镜116和118可以被可变处方透镜替换。在一些实施例中,头戴式显示设备2将仅仅包括一个透视透镜或者不包括透视透镜。在另一替代方案中,处方透镜可以进入光导光学元件112内。不透明度滤光器114滤除自然光(要么以每像素为基础、要么均匀地)以增强虚拟图像的对比度。光导光学元件112将人造光引导至眼睛。下面提供不透明度滤光器114和光导光学元件112的更多细节。
在镜腿102处或镜腿102内安装有图像源,该图像源(在一个实施例中)包括用于对虚拟图像进行投影的微显示器120、以及用于将图像从微显示器120引导到光导光学元件112中的透镜。在一个实施例中,透镜122是准直透镜。
控制电路136提供支承头戴式显示设备2的其他组件的各种电子装置。下面参考图3提供控制电路136的更多细节。处于镜腿102内部或安装在镜腿102处的有耳机130、惯性传感器132、以及温度传感器138。在一个实施例中,惯性传感器132包括三轴磁力计132A、三轴陀螺仪132B、以及三轴加速度计132C(参见图3)。惯性传感器用于感测头戴式显示设备2的位置、取向、以及突然加速。
微显示器120通过透镜122来投影图像。存在着可用于实现微显示器120的不同的图像生成技术。例如,微显示器120可以使用透射投影技术来实现,其中光源由光学活性材料来调制,用白光从背后照亮。这些技术通常是使用具有强大背光和高光能量密度的LCD类型的显示器来实现的。微显示器120还可使用反射技术来实现,其中外部光被光学活性材料反射并调制。根据该技术,由白光源或RGB源点亮的照明是向前的。数字光处理(DLP)、硅上液晶(LCOS)、以及来自Qualcomm有限公司的Mirasol
Figure BSA00000599246700071
显示技术都是高效的反射技术的示例,因为大多数能量从已调制结构反射离开并且可用在本文描述的系统中。附加地,微显示器120可以使用发射技术来实现,其中光由该显示器生成。例如,来自Microvision有限公司的PicoPTM显示引擎使用微型镜面舵来将激光信号发射到充当透射元件的小型屏幕上或直接照射到眼睛(例如激光)。
光导光学元件112将来自微显示器120的光传送到佩戴头戴式显示设备2的用户的眼睛140。光导光学元件112还允许如箭头142所示那样将光从头戴式显示设备2的前方通过光导光学元件112透射到用户的眼睛,从而除接收来自微显示器120的虚拟图像之外还允许用户具有头戴式显示设备2的前方的空间的实际直接视图。因此,光导光学元件112的壁是透视的。光导光学元件112包括第一反射面124(例如,镜面或其他表面)。来自微显示器120的光穿过透镜122并入射在反射面124上。反射面124反射来自微显示器120的入射光,使得光通过内反射而被捕获在包括光导光学元件112的平面衬底内。在离开衬底的表面的若干反射之后,所捕获的光波到达选择性反射面126的阵列。注意,五个表面中只有一个被标记为126以防止附图太过拥挤。反射面126将从衬底出射并入射在这些反射面上的光波耦合到用户的眼睛140。由于不同光线将以不同角度传播并弹离衬底的内部,因此这些不同的光线将以不同角度击中各个反射面126。因此,不同光线将被所述反射面中的不同反射面从衬底中反射出。关于哪些光线被哪个表面126从衬底反射出的选择是通过选择表面126的合适角度来设计的。光导光学元件的更多细节可以在于2008年11月20日公开的美国专利申请公开号2008/0285140、序列号12/214,366的“Substrate-GuidedOptical Devices(衬底导向的光学设备)”中找到,该申请的全部内容通过引用结合于此。在一个实施例中,每只眼睛将具有其自己的光导光学元件112。当头戴式显示设备具有两个光导光学元件时,每只眼睛都可以具有其自己的微显示器120,该微显示器120可以在两只眼睛中显示相同图像或者在两只眼睛中显示不同图像。在另一实施例中,可以存在将光反射到两只眼睛中的一个光导光学元件。
与光导光学元件112对齐的不透明度滤光器114要么均匀地、要么以每像素为基础来选择性地阻挡自然光,以免其穿过光导光学元件112。在一实施例中,不透明度滤光器可以是透视LCD面板、电致变色膜(electrochromic film)或能够充当不透明度滤光器的类似设备。通过从常规LCD中除去衬底、背光和漫射器的各层,可以获得这样的透视LCD面板。LCD面板可包括一个或更多个透光LCD芯片,所述透光LCD芯片允许光穿过液晶。例如,在LCD投影仪中使用了这样的芯片。
不透明度滤光器114可以包括致密的像素网格,其中每个像素的透光率能够在最小和最大透光率之间被个别化地控制。尽管0-100%的透光率范围是理想的,然而更有限的范围也是可以接受的。作为示例,具有不超过两个偏振滤光器的单色LCD面板足以提供每像素约50%到90%的不透明度范围,最高为该LCD的分辨率。在50%的最小值处,透镜将具有稍微带色彩的外观,这是可以容忍的。100%的透光率表示完美地无色透镜。可以从0-100%定义“阿尔法(alpha)”尺度,其中0%不允许光穿过,并且100%允许所有光穿过。可以由下面描述的不透明度滤光器控制电路224为每个像素设置阿尔法的值。
在用代理为现实世界物体进行z-缓冲(z-buffering)之后,可以使用来自渲染流水线的阿尔法值的掩码(mask)。当系统为扩展现实显示而渲染场景时,该系统注意到哪些现实世界物体处于哪些虚拟物体之前。如果虚拟物体处于现实世界物体之前,则不透明度对于该虚拟物体的覆盖区域而言应当是开启的。如果虚拟物体(虚拟地)处于现实世界物体之后,则不透明度以及该像素的任何色彩都应当是关闭的,使得对于现实灯光的该相应区域(其大小为一个像素或更多)而言,用户将会仅仅看到现实世界物体。覆盖将是以逐像素为基础的,所以该系统可以处理虚拟物体的一部分处于现实世界物体之前、该虚拟物体的一部分处于现实世界物体之后、以及该虚拟物体的一部分与现实世界物体相重合的情况。对这种用途而言,最期望的是能够以低的成本、电力和重量从0%达到100%不透明度的显示器。此外,不透明度滤光器可以比如用彩色LCD或用诸如有机LED等其他显示器来以彩色进行渲染,以提供宽视野。于2010年9月21日提交的美国专利申请号12/887,426“Opacity Filter For See-ThroughMounted Display(用于透射安装显示器的不透明度滤光器)”中提供了不透明度滤光器的更多细节,该专利申请的全部内容通过应用结合于此。
诸如LCD之类的不透明度滤光器通常还未与在此所述的透视透镜一起使用,因为在与眼睛的该近距离下,其可能失焦。然而,在一些情况下,这个结果可能是所期望的。通过使用相加色(additive color)的普通HMD显示器(其被设计为是聚焦的),用户看到具有清晰彩色图形的虚拟图像。该LCD面板被放置在该显示器“之后”,使得模糊的黑色边界围绕任何虚拟内容,使其根据需要而不透明。该系统扭转了自然模糊化的缺陷以方便地获得了抗混叠和带宽减少的特征。这些是使用较低分辨率且失焦图像的自然结果。存在对数字采样图像的有效平滑化。任何数字图像都经历混叠,其中在光的波长附近,采样的离散性导致与自然模拟和连续信号相比的误差。平滑化意味着在视觉上更靠近理想的模拟信号。尽管在低分辨率丢失的信息没有被恢复,但是得到的误差的明显程度更低。
在一个实施例中,显示器和不透明度滤光器被同时渲染,并且被校准到用户在空间中的精确位置以补偿角度偏移问题。眼睛跟踪可用于计算视野的末端处的正确的图像偏移。在一些实施例中,在不透明度滤光器中可以使用不透明度的量在时间和空间上的淡化。类似地,在虚拟图像中可以使用在时间和空间上的淡化。在一个方案中,不透明度滤光器的不透明度的量在时间上的淡化对应于虚拟图像在时间上的淡化。在另一方案中,不透明度滤光器的不透明度的量在空间上的淡化对应于虚拟图像中在空间上的淡化。
在一个示例性方案中,从所标识出的用户眼睛的位置的视角出发,为不透明度滤光器的处于虚拟图像之后的像素提供增加的不透明度。通过这种方式,处于虚拟图像之后的像素被暗化,使得来自现实世界场景的相应部分的光被阻挡而无法到达用户的眼睛。这允许虚拟图像是逼真的并且表示全范围的色彩和强度。此外,因为可以以更低的强度提供虚拟图像,所以减少了扩展现实发射器的功耗。在没有不透明度滤光器的情况下,将需要以与现实世界场景的相应部分相比更亮的足够高的强度来提供虚拟图像,以使虚拟图像不同并且不是透明的。在暗化不透明度滤光器的像素时,一般而言,沿着虚拟图像的闭合周界的像素与周界内的像素一起被暗化。所期望的可能是提供一些重叠,使得恰好处于周界之外并且围绕周界的一些像素也被暗化(以相同的暗度级或者比周界内的像素暗度低)。恰好处于周界之外的这些像素可以提供从周界内的暗度到周界之外的完全量的不透明度的淡化(例如不透明度的逐渐过渡)。
为了提供不透明度滤光器的操作的示例,图2A描绘了森林的现实世界场景的示例,该森林是通过头戴式显示设备2进行查看的人眼可见的。图2B描绘了虚拟图像,该虚拟图像在该情况下是海豚。图2C描绘了基于图2B的虚拟图像的形状对不透明度滤光器进行的示例性配置。不透明度滤光器在应当渲染海豚之处提供了不透明度增加的暗化区域。增加的不透明度一般是指像素的暗化,这可以包括允许更少的光穿过。可以在单色方案中使用到不同灰度级(或黑色)的暗化,或者在彩色方案中使用到不同色彩级的暗化。图2D描绘了用户所看到的示例性图像,并且该图像是如下动作的结果:将海豚的虚拟图像投影到用户的视界中;以及使用不透明度滤光器来为与海豚的虚拟图像的位置相对应的像素去除光。如可以看见的那样,背景不是透过海豚可被看见的。为了比较的目的,图2E示出了在不使用不透明度滤光器的情况下将虚拟图像插入到现实图像中。如可以看见的那样,现实背景可以透过海豚的虚拟图像被看见。
头戴式显示设备2还包括用于跟踪用户的眼睛位置的系统。如下面将会解释的那样,该系统将跟踪用户的位置和取向,使得该系统可以确定用户的视野。然而,人类将不会察觉处于其之前的所有事物。相反,用户的眼睛将对准环境的子集。因此,在一个实施例中,该系统将包括用于跟踪用户的眼睛位置的技术以便细化对用户视野的测量。例如,头戴式显示设备2包括眼睛跟踪部件134(参见图2),该眼睛跟踪部件134将包括眼睛跟踪照明设备134A和眼睛跟踪相机134B(参见图3)。在一个实施例中,眼睛跟踪照明源134A包括一个或多个红外(IR)发射器,这些红外发射器向眼睛发射IR光。眼睛跟踪相机134B包括一个或多个感测所反射的IR光的相机。通过检测角膜的反射的已知的成像技术,可以标识出瞳孔的位置。例如,参见2008年7月22日颁发给Kranz等人的、名称为“Head mounted eye tracking and display system(头戴式眼睛跟踪和显示系统)”的美国专利7,401,920,该专利通过引用结合于此。这样的技术可以定位眼睛的中心相对于跟踪相机的位置。一般而言,眼睛跟踪涉及获得眼睛的图像以及使用计算机视觉技术来确定瞳孔在眼眶内的位置。在一个实施例中,跟踪一只眼睛的位置就足够了,因为眼睛通常一致地移动。然而,单独地跟踪每只眼睛是可能的。
在一个实施例中,该系统将使用以矩形布置的4个IR LED和4个IR光电检测器,使得在头戴式显示设备2的透镜的每个角处存在一个IR LED和IR光电检测器。来自LED的光从眼睛反射离开。由在4个IR光电检测器中的每个处所检测到的红外光的量来确定瞳孔位置。也就是说,眼睛中眼白相对于眼黑的量将确定对于该特定光电检测器而言从眼睛反射离开的光量。因此,光电检测器将具有对眼睛中的眼白或眼黑的量的度量。从4个采样中,该系统可以确定眼睛的方向。
另一替代方案是如下面所讨论的那样使用4个红外LED,但是在头戴式显示设备2的透镜的侧边处仅仅使用一个红外CCD。该CCD将使用小镜和/或透镜(鱼眼),使得CCD可以从镜框对高达75%的可见眼睛进行成像。然后,该CCD将感测图像并且使用计算机视觉来找出该图像,就像下面所讨论的那样。因此,尽管图2示出了具有一个IR发射器的一个部件,但是图2的结构可以被调整为具有4个IR发射机和/或4个IR传感器。也可以使用多于或少于4个的IR发射机和/多于或少于4个的IR传感器。
用于跟踪眼睛方向的另一实施例基于电荷跟踪。该方案基于如下观察:视网膜携带可测量的正电荷并且角膜具有负电荷。传感器通过用户的耳朵来安装(靠近耳机130)以检测眼睛在周围运动时的电势并且有效地实时读出眼睛正在进行的动作。也可以使用其他用于跟踪眼睛的实施例。
图2仅仅示出了头戴式显示设备2的一半。完整的头戴式显示设备将包括另一组透视透镜、另一不透明度滤光器、另一光导光学元件、另一微显示器136、另一透镜122、朝向房间的相机、眼睛跟踪部件、微显示器、耳机以及温度传感器。
图3是描绘了头戴式显示设备2的各个组件的框图。图4是描述处理单元4的各个组件的框图。图3中描绘了头戴式显示设备2的组件,该头戴式显示设备2用于通过将虚拟图像与用户对现实世界的视图相融合来向用户提供该虚拟图像。附加地,图3的头戴式显示设备组件包括跟踪各种状况的多个传感器。头戴式显示设备2将从处理单元4接收关于虚拟图像的指令,并且将传感器信息提供回给处理单元4。图3中描绘了处理单元4的组件,该处理单元4将从头戴式显示设备2、并且还从中枢计算设备12(参见图1)接收传感信息。基于该信息,处理单元4将确定在何处以及在何时向用户提供虚拟图像并相应地将指令发送给图3的头戴式显示设备。
注意,图3的组件中的一些(例如朝向背面的相机113、眼睛跟踪相机134B、微显示器120、不透明度滤光器114、眼睛跟踪照明134A、耳机130和温度传感器138)是以阴影示出的,以指示这些的设备中的每个都存在两个,其中一个用于头戴式显示设备2的左侧,并且一个用于头戴式显示设备2的右侧。图3示出与电源管理电路202通信的控制电路200。控制电路200包括处理器210、与存储器214(例如D-RAM)进行通信的存储器控制器212、相机接口216、相机缓冲区218、显示器驱动器220、显示格式化器222、定时生成器226、显示输出接口228、以及显示输入接口230。在一个实施例中,控制电路200的所有组件通过专用线路或一个或多个总线彼此通信。在另一实施例中,控制电路200的每个组件都与处理器210通信。相机接口216提供到两个朝向房间的相机113的接口,并且将从朝向房间的相机所接收到的图像存储在相机缓冲区218中。显示器驱动器220将驱动微显示器120。显式格式化器222向控制不透明度滤光器114的不透明度控制电路224提供关于微显示器120上所显示的虚拟图像的信息。定时生成器226被用于向该系统提供定时数据。显示输出接口228是用于将图像从朝向房间的相机113提供给处理单元4的缓冲区。显示输入230是用于接收诸如要在微显示器120上显示的虚拟图像之类的图像的缓冲区。显示输出228和显示输入230与作为到处理单元4的接口的带接口232进行通信。
电源管理电路202包括电压调节器234、眼睛跟踪照明驱动器236、音频DAC和放大器238、话筒前置放大器音频ADC 240、温度传感器接口242、以及时钟生成器244。电压调节器234通过带接口232从处理单元4接收电能,并将该电能提供给头戴式显示设备2的其他组件。眼睛跟踪照明驱动器236如上面所述的那样为眼睛跟踪照明134A提供IR光源。音频DAC和放大器238从耳机130接收音频信息。话筒前置放大器和音频ADC 240提供话筒100的接口。温度传感器接口242是用于温度传感器138的接口。电源管理单元202还向三轴磁力计132A、三轴陀螺仪132B以及三轴加速度计132C提供电能并从其接收回数据。
图4是描述处理单元4的各个组件的框图。图4示出与电源管理电路306通信的控制电路304。控制电路304包括:中央处理单元(CPU)320;图形处理单元(GPU)322;高速缓存324;RAM 326;与存储器330(例如D-RAM)进行通信的存储器控制器328;与闪存334(或其他类型的非易失性存储)进行通信的闪存控制器332;通过带接口302和带接口232与头戴式显示设备2进行通信的显示输出缓冲区336;经由带接口302和带接口232与头戴式显示设备2进行通信的显示输入缓冲区338;与用于连接到话筒的外部话筒连接器342进行通信的话筒接口340,用于连接到无线通信设备346的PCI express接口;以及USB端口348。在一个实施例中,无线通信设备346可以包括启用Wi-Fi的通信设备、蓝牙通信设备、红外通信设备等。USB端口可以用于将处理单元4对接到中枢计算设备12,以便将数据或软件加载到处理单元4上以及对处理单元4进行充电。在一个实施例中,CPU 320和GPU 322是用于确定在何处、何时以及如何向用户的视野内插入虚拟图像的主负荷设备。下面提供更多的细节。
电源管理电路306包括时钟生成器360、模数转换器362、电池充电器364、电压调节器366、头戴式显示器电源376、以及与温度传感器374进行通信的温度传感器接口372(其位于处理单元4的腕带(wrist band)上)。模数转换器362连接到充电插孔370以用于接收AC电能并为该系统产生DC电能。电压调节器366与用于向该系统提供电能的电池368进行通信。电池充电器364被用来在从充电插孔370接收到电能时对电池368进行充电(通过电压调节器366)。HMD电源376向头戴式显示设备2提供电能。
上述系统将被配置为将虚拟图像插入到用户的视野中,使得该虚拟图像替换现实世界物体的视图。可替代地,虚拟图像可以在不替换现实世界物体的图像的情况下被插入。在各个实施例中,虚拟图像将基于被替换的物体或者该图像将被插入的环境而被调整为与合适的取向、大小和形状相匹配。另外,虚拟图像可以被调整为包括反射率和阴影。在一个实施例中,头戴式显示设备12、处理单元4以及中枢计算设备12一起工作,因为每个设备都包括用于获得用于确定在何处、何时以及如何插入虚拟图像的数据的传感器的子集。在一个实施例中,确定在何处、如何以及何时插入虚拟图像的计算是由中枢计算设备12执行的。在另一实施例中,这些计算由处理单元4来执行。在另一实施例中,这些计算中的一些由中枢计算设备12来执行,而其他计算由处理单元4来执行。在其他实施例中,这些计算可以由头戴式显示设备2来执行。
在一个示例性实施例中,中枢计算设备12将创建用户所处的环境的模型,并且跟踪在该环境中的多个移动物体。另外,中枢计算设备12通过跟踪头戴式显示设备2的位置和取向来跟踪头戴式显示设备2的视野。该模型和跟踪信息被从中枢计算设备12提供给处理单元4。由头戴式显示设备2所获得的传感器信息被传送给处理单元4。然后,处理单元4使用其从头戴式显示设备2接收的其他传感器信息来细化用户的视野并且向头戴式显示设备2提供关于如何、在何处以及何时插入虚拟图像的指令。
图5示出了具有捕捉设备的中枢计算系统12的示例性实施例。在一个实施例中,捕捉设备20A和20B是相同结构,因此,图5仅仅示出了捕捉设备20A。
根据一示例性实施例,捕捉设备20A可被配置为通过可包括例如飞行时间、结构化光、立体图像等在内的任何合适的技术来捕捉包括深度图像的带有深度信息的视频,该深度图像可包括深度值。根据一个实施例,捕捉设备20A可将深度信息组织成“Z层”、或者可与从深度相机沿其视线延伸的Z轴垂直的层。
如图5所示,捕捉设备20A可以包括相机组件423。根据一示例性实施例,相机组件423可以是或者可以包括可捕捉场景的深度图像的深度相机。深度图像可包括所捕捉的场景的二维(2-D)像素区域,其中2D像素区域中的每个像素都可以表示深度值,比如所捕捉的场景中的物体与相机相距的例如以厘米、毫米等为单位的距离。
相机组件23可以包括可用于捕捉场景的深度图像的红外(IR)光组件425、三维(3D)相机426、以及RGB(视觉图像)相机428。例如,在飞行时间分析中,捕捉设备20A的IR光组件425可以将红外光发射到场景上,并且然后可以使用传感器(在一些实施例中包括未示出的传感器)、例如使用3D相机426和/或RGB相机428来检测从场景中的一个或多个目标和物体的表面后向散射的光。在一些实施例中,可以使用脉冲红外光,使得可以测量出射光脉冲和相应的入射光脉冲之间的时间并将其用于确定从捕捉设备20A到场景中的目标或物体上的特定位置的物理距离。附加地,在其他示例性实施例中,可将出射光波的相位与入射光波的相位进行比较来确定相移。然后可以使用该相移来确定从捕捉设备到目标或物体上的特定位置的物理距离。
根据另一示例性实施例,可使用飞行时间分析,以通过经由包括例如快门式光脉冲成像之类的各种技术分析反射光束随时间的强度来间接地确定从捕捉设备20A到目标或物体上的特定位置的物理距离。
在另一示例性实施例中,捕捉设备20A可使用结构化光来捕捉深度信息。在这样的分析中,图案化光(即,被显示为诸如网格图案、条纹图案、或不同图案之类的已知图案的光)可经由例如IR光组件424被投影到场景上。在落到场景中的一个或多个目标或物体的表面上时,作为响应,图案可变形。图案的这种变形可由例如3D相机426和/或RGB相机428(和/或其他传感器)来捕捉,然后可被分析以确定从捕捉设备到目标或物体上的特定位置的物理距离。在一些实施方式中,IR光组件425与相机425和426分开,使得可以使用三角测量来确定与相机425和426相距的距离。在一些实施方式中,捕捉设备20A将包括感测IR光的专用IR传感器或具有IR滤光器的传感器。
根据另一实施例,捕捉设备20A可以包括两个或更多个在物理上分开的相机,这些相机可以从不同的角度观察场景以获得视觉立体数据,这些视觉立体数据可以被分辨以生成深度信息。也可使用其他类型的深度图像传感器来创建深度图像。
捕捉设备20A还可以包括话筒430,所述话筒430包括可以接收声音并将其转换成电信号的换能器或传感器。话筒430可用于接收也可由中枢计算系统12来提供的音频信号。
在一示例实施例中,捕捉设备20A还可包括可与图像相机组件423进行通信的处理器432。处理器432可包括可执行指令的标准处理器、专用处理器、微处理器等,这些指令例如包括用于接收深度图像、生成合适的数据格式(例如,帧)以及将数据传送给计算系统12的指令。
捕捉设备20A还可包括存储器434,该存储器434可存储由处理器432执行的指令、由3D相机和/或RGB相机所捕捉的图像或图像帧、或任何其他合适的信息、图像等等。根据一示例性实施例,存储器434可包括随机存取存储器(RAM)、只读存储器(ROM)、高速缓存、闪存、硬盘或任何其他合适的存储组件。如图5所示,在一个实施例中,存储器434可以是与图像捕捉组件423和处理器432进行通信的单独组件。根据另一实施例,存储器组件434可被集成到处理器432和/或图像捕捉组件422中。
捕捉设备20A和20B通过通信链路436与中枢计算系统12通信。通信链路436可以是包括例如USB连接、火线连接、以太网电缆连接等的有线连接和/或诸如无线802.11b、802.11g、802.11a或802.11n连接等的无线连接。根据一个实施例,中枢计算系统12可以通过通信链路436向捕捉设备20A提供可用于确定例如何时捕捉场景的时钟。附加地,捕捉设备20A通过通信链路436将由例如3D相机426和/或RGB相机428捕捉的深度信息和视觉(例如RGB)图像提供给中枢计算系统12。在一个实施例中,深度图像和视觉图像以每秒30帧的速率来传送,但是可以使用其他帧速率。中枢计算系统12然后可以创建模型并使用模型、深度信息、以及所捕捉的图像来例如控制诸如游戏或文字处理程序等的应用和/或使化身或屏上人物动画化。
中枢计算系统12包括深度图像处理和骨架跟踪模块450,该模块使用深度图像来跟踪可被捕捉设备20A的深度相机功能检测到的一个或多个人。深度图像处理和骨架跟踪模块450向应用453提供跟踪信息,该应用可以是视频游戏、生产性应用、通信应用或其他软件应用等。音频数据和视觉图像数据也被提供给应用452和深度图像处理和骨架跟踪模块450。应用452将跟踪信息、音频数据和视觉图像数据提供给识别器引擎454。在另一实施例中,识别器引擎454直接从深度图像处理和骨架跟踪模块450接收跟踪信息,并直接从捕捉设备20A和20B接收音频数据和视觉图像数据。
识别器引擎454与过滤器460、462、464、……、466的集合相关联,每个过滤器都包括关于可被捕捉设备20A或20B检测到的任何人或物体执行的姿势、动作或状况的信息。例如,来自捕捉设备20A的数据可由过滤器460、462、464、……、466来处理,以便标识出一个用户或一组用户已经何时执行了一个或多个姿势或其他动作。这些姿势可与应用452的各种控制、物体或状况相关联。因此,中枢计算系统12可以将识别器引擎454和过滤器一起用于解释和跟踪物体(包括人)的移动。
捕捉设备20A和20B向中枢计算系统12提供RGB图像(或其他格式或色彩空间的视觉图像)和深度图像。深度图像可以是多个观测到的像素,其中每个观测到的像素具有观测到的深度值。例如,深度图像可包括所捕捉的场景的二维(2D)像素区域,其中2D像素区域中的每个像素都可具有深度值,比如所捕捉的场景中的物体与捕捉设备相距的距离。中枢计算系统12将使用RGB图像和深度图像来跟踪用户或物体的移动。例如,系统将使用深度图像来跟踪人的骨架。可以使用许多方法以通过使用深度图像来跟踪人的骨架。使用深度图像来跟踪骨架的一个合适的示例在2009年10月21日提交的美国专利申请12/603,437“Pose Tracking Pipeline(姿态跟踪流水线)”(以下称为’437申请)中提供,该申请的全部内容通过引用结合于此。‘437申请的过程包括:采集深度图像;对数据进行降采样;移除和/或平滑化高方差噪声数据;标识并移除背景;以及将前景像素中的每个分配给身体的不同部位。基于这些步骤,系统将使一模型拟合到该数据并创建骨架。该骨架将包括一组关节和这些关节之间的连接。也可使用用于跟踪的其他方法。合适的跟踪技术也在以下4个美国专利申请中公开,所有这些申请的全部内容都通过引用结合于此:2009年5月29日提交的美国专利申请12/475,308“Device for Identifying and TrackingMultiple Humans Over Time(用于随时间标识并跟踪多个人的设备)”;2010年1月29日提交的美国专利申请12/696,282“Visual Based Identity Tracking(基于视觉的身份跟踪)”;2009年12月18日提交的美国专利申请12/641,788“Motion Detection Using Depth Images(使用深度图像的运动检测)”;以及2009年10月7日提交的美国专利申请12/575,388“Human Tracking System(人类跟踪系统)”。
识别器引擎454包括多个过滤器460、462、464、……、466来确定姿势或动作。过滤器包括定义姿势、动作或状况以及该姿势、动作或状况的参数或元数据的信息。例如,包括一只手从身体背后经过身体前方的运动的投掷可被实现为包括表示用户的一只手从身体背后经过身体前方的运动的信息的姿势,因为该运动将由深度相机来捕捉。然后可为该姿势设定参数。当姿势是投掷时,参数可以是该手必须达到的阈值速度、该手必须行进的距离(绝对的,或相对于用户的整体大小)、以及识别器引擎对发生了该姿势的置信度评级。用于姿势的这些参数可以随时间在各应用之间、在单个应用的各上下文之间、或在一个应用的一个上下文内变化。
过滤器可以是模块化的或是可互换的。在一个实施例中,过滤器具有多个输入(这些输入中的每一个具有一类型)以及多个输出(这些输出中的每一个具有一类型)。第一过滤器可用具有与第一过滤器相同数量和类型的输入和输出的第二过滤器来替换而不更改识别器引擎架构的任何其他方面。例如,可能具有要驱动的第一过滤器,该第一过滤器将骨架数据作为输入,并输出与该过滤器相关联的姿势正在发生的置信度和转向角。在希望用第二驱动过滤器来替换该第一驱动过滤器的情况下(这可能是因为第二驱动过滤器更高效且需要更少的处理资源),可以通过简单地用第二过滤器替换第一过滤器来这样做,只要第二过滤器具有同样的输入和输出——骨架数据类型的一个输入、以及置信度类型和角度类型的两个输出。
过滤器不需要具有参数。例如,返回用户的高度的“用户高度”过滤器可能不允许可被调节的任何参数。可替代的“用户高度”过滤器可具有可调节参数,比如在确定用户的高度时是否考虑用户的鞋、发型、头饰以及体态。
对过滤器的输入可包括诸如关于用户的关节位置的关节数据、在关节处相交的骨所形成的角度、来自场景的RGB色彩数据、以及用户的某一方面的变化速率等内容。来自过滤器的输出可包括诸如正作出给定姿势的置信度、作出姿势运动的速度、以及作出姿势运动的时间等内容。
识别器引擎454可以具有向过滤器提供功能的基本识别器引擎。在一实施例中,识别器引擎454所实现的功能包括:跟踪所识别的姿势和其他输入的随时间输入(input-over-time)存档;隐马尔可夫模型实施方式(其中所建模的系统被假定为马尔可夫过程—该过程是其中当前状态封装了用于确定将来状态所需的任何过去状态信息,因此不必为此目的而维护任何其他过去状态信息的过程—该过程具有未知参数,并且隐藏参数是从可观察数据来确定的);以及求解姿势识别的特定实例所需的其他功能。
过滤器460、462、464、……、466在识别器引擎454之上加载并实现,并且可利用识别器引擎454提供给所有过滤器460、462、464、……、466的服务。在一个实施例中,识别器引擎454接收数据来确定该数据是否满足任何过滤器460、462、464、……、466的要求。由于这些所提供的诸如解析输入之类的服务是由识别器引擎454一次性提供而非由每个过滤器460、462、464、……、466提供的,因此这样的服务在一段时间内只需被处理一次而不是在该时间段对每个过滤器处理一次,因此减少了确定姿势所需的处理。
应用452可使用识别器引擎454所提供的过滤器460、462、464、……、466,或者它可提供其自己的、插入到识别器引擎454中的过滤器。在一实施例中,所有过滤器具有启用该插入特性的通用接口。此外,所有过滤器可利用参数,因此可使用以下单个姿势工具来诊断并调节整个过滤器系统。
关于识别器引擎454的更多信息可在2009年4月13日提交的美国专利申请12/422,661“Gesture Recognizer System Architecture(姿势识别器系统架构)”中找到,该申请通过整体引用合并于此。关于识别姿势的更多信息可在2009年2月23日提交的美国专利申请12/391,150“Standard Gestures(标准姿势)”;以及2009年5月29日提交的美国专利申请12/474,655“Gesture Tool(姿势工具)”中找到,这两个申请的全部内容都通过引用结合于此。
图6示出了可用于实现中枢计算系统12的计算系统的示例性实施例。如图6所示,多媒体控制台500具有含有一级高速缓存501、二级高速缓存504和闪存ROM(只读存储器)506的中央处理单元(CPU)502。一级高速缓存502和二级高速缓存504临时存储数据并因此减少存储器访问周期数,由此改进处理速度和吞吐量。CPU 501可以被配备为具有一个以上的核,并且由此具有附加的1级和2级高速缓存502和504。闪存ROM 506可存储在多媒体控制台500通电时在引导进程初始化阶段加载的可执行代码。
图形处理单元(GPU)508和视频编码器/视频编解码器(编码器/解码器)514形成用于高速、高分辨率图形处理的视频处理流水线。经由总线从图形处理单元508向视频编码器/视频编解码器514运送数据。视频处理流水线向A/V(音频/视频)端口540输出数据,用于传输至电视或其他显示器。存储器控制器510连接到GPU 508以方便处理器访问各种类型的存储器512,诸如但不局限于RAM(随机存取存储器)。
多媒体控制台500包括优选地在模块518上实现的I/O控制器520、系统管理控制器522、音频处理单元523、网络接口524、第一USB主控制器526、第二USB控制器528以及前面板I/O子部件530。USB控制器526和528用作外围控制器542(1)-542(2)、无线适配器548、和外置存储器设备546(例如闪存、外置CD/DVD ROM驱动器、可移动介质等)的主机。网络接口524和/或无线适配器548提供对网络(例如,因特网、家庭网络等)的访问并且可以是包括以太网卡、调制解调器、蓝牙模块、电缆调制解调器等的各种不同的有线或无线适配器组件中任何一种。
提供系统存储器543来存储在引导过程期间加载的应用数据。提供介质驱动器544,且其可包括DVD/CD驱动器、蓝光驱动器、硬盘驱动器、或其他可移动介质驱动器等。介质驱动器144可位于多媒体控制台500的内部或外部。应用数据可经由媒体驱动器544访问,以由多媒体控制台500执行、回放等。介质驱动器544经由诸如串行ATA总线或其他高速连接(例如IEEE 1394)等总线连接到I/O控制器520。
系统管理控制器522提供涉及确保多媒体控制台500的可用性的各种服务功能。音频处理单元523和音频编解码器532形成具有高保真度和立体声处理的对应的音频处理流水线。音频数据经由通信链路在音频处理单元523与音频编解码器532之间传输。音频处理流水线将数据输出到A/V端口540以供外部音频用户或具有音频能力的设备再现。
前面板I/O子部件530支持暴露在多媒体控制台100的外表面上的电源按钮550和弹出按钮552以及任何LED(发光二极管)或其他指示器的功能。系统供电模块536向多媒体控制台100的组件供电。风扇538冷却多媒体控制台500内的电路。
CPU 501、GPU 508、存储器控制器510、和多媒体控制台500内的各个其他组件经由一条或多条总线互连,包括串行和并行总线、存储器总线、外围总线、和使用各种总线架构中任一种的处理器或局部总线。作为示例,这些架构可以包括外围部件互连(PCI)总线、PCI-Express总线等。
当多媒体控制台500通电时,应用数据可从系统存储器543加载到存储器512和/或高速缓存502、504中并在CPU 501上执行。应用可呈现在导航到多媒体控制台500上可用的不同媒体类型时提供一致的用户体验的图形用户界面。在操作中,媒体驱动器544中包含的应用和/或其他媒体可从媒体驱动器544启动或播放,以向多媒体控制台500提供附加功能。
多媒体控制台500可通过将该系统简单地连接到电视机或其他显示器而作为独立系统来操作。在该独立模式中,多媒体控制台500允许一个或多个用户与该系统交互、看电影、或听音乐。然而,随着通过网络接口524或无线适配器548可用的宽带连接的集成,多媒体控制台500还可作为较大网络社区中的参与者来操作。附加地,多媒体控制台500可以通过无线适配器548与处理单元4通信。
当多媒体控制台500通电时,可以保留设定量的硬件资源以供多媒体控制台操作系统作系统使用。这些资源可包括存储器的保留量、CPU和GPU周期的保留量、网络带宽等等。因为这些资源是在系统引导时保留的,所以所保留的资源对应用的角度而言是不存在的。具体而言,存储器保留优选地足够大,以包含启动内核、并发系统应用和驱动程序。CPU保留优选地为恒定,使得若所保留的CPU用量不被系统应用使用,则空闲线程将消耗任何未使用的周期。
对于GPU保留,通过使用GPU中断来显示由系统应用程序生成的轻量消息(例如,弹出窗口),以调度代码来将弹出窗口呈现为覆盖图。覆盖图所需的存储器量取决于覆盖区域大小,并且覆盖图优选地与屏幕分辨率成比例缩放。在并发系统应用使用完整用户界面的情况下,优选使用独立于应用分辨率的分辨率。定标器可用于设置该分辨率,从而无需改变频率并引起TV重新同步。
在多媒体控制台500引导且系统资源被保留之后,执行并发系统应用来提供系统功能。系统功能被封装在上述所保留的系统资源中执行的一组系统应用中。操作系统内核标识是系统应用线程而非游戏应用线程的线程。系统应用优选地被调度为在预定时间并以预定时间间隔在CPU 501上运行,以便为应用提供一致的系统资源视图。进行调度是为了把由在控制台上运行的游戏应用所引起的高速缓存中断最小化。
当并发系统应用需要音频时,则由于时间敏感性而将音频处理异步地调度给游戏应用。多媒体控制台应用管理器(如下所述)在系统应用活动时控制游戏应用的音频水平(例如,静音、衰减)。
任选的输入设备(例如,控制器542(1)和542(2))由游戏应用和系统应用共享。输入设备不是所保留的资源,但却在系统应用和游戏应用之间切换以使其各自具有设备的焦点。应用管理器优选地控制输入流的切换,而无需知晓游戏应用的知识,并且驱动程序维护有关焦点切换的状态信息。捕捉设备20A和20B可以通过USB控制器526或其他接口来为控制台500定义附加的输入设备。在其他实施例中,中枢计算系统12可以使用其他硬件架构来实现。没有一种硬件架构是必需的。
图1示出了与一个中枢处理设备12(称为中枢)通信的一个头戴式显示设备2和处理单元4(统称为移动显示设备)。在另一实施例中,多个移动显示设备可以与单个中枢通信。每个移动显示设备都将如上述那样使用无线通信与中枢通信。在这样的实施例中所构思的是,有益于所有移动显示设备的信息中的许多都将被计算和存储在中枢处并且传送给每个移动显示设备。例如,中枢将生成环境的模型并且将该模型提供给与该中枢通信的所有移动显示设备。附加地,中枢可以跟踪移动显示设备以及房间中的移动物体的位置和取向,并且然后将该信息传输给每个移动显示设备。
在另一实施例中,系统可以包括多个中枢,其中每个中枢都包括一个或多个移动显示设备。这些中枢可以直接地或者通过因特网(或者其他网络)彼此通信。例如,图7示出了中枢560、562和564。中枢560直接与中枢562通信。中枢560通过因特网与中枢564通信。中枢560与移动显示设备570、572...574通信。中枢562与移动显示设备578、580...582通信。中枢564与移动显示设备584、586...588通信。每个移动显示设备都如上面所讨论的那样通过无线通信与其相应的中枢通信。如果这些中枢处于共同的环境中,则每个中枢都可以提供该环境的模型的一部分,或者一个中枢可以为其他中枢创建该模型。每个中枢都将跟踪移动物体的子集并且将该信息与其他中枢共享,所述其他中枢进而将与合适的移动显示设备共享该信息。用于移动显示设备的传感器信息将被提供给其相应的中枢,并且然后与其他中枢共享以用于最终与其他移动显示设备共享。因此,在中枢间共享的信息可以包括骨架跟踪、关于模型的信息、各种应用状态、以及其他跟踪。在中枢及其相应的移动显示设备之间传递的信息包括:移动物体的跟踪信息、世界模型的状态和物理更新、几何和纹理信息、视频和音频、以及用于执行在此所述的操作的其他信息。
图8是描述了用于将虚拟内容融合到现实内容中的过程的一个实施例的流程图,其中该过程由上面所讨论的组件来执行。在步骤602,配置该系统。例如,该系统的操作员或用户将指示:特定的现实世界物体应当被虚拟物体替换。在一替代方案中,应用(例如图5的应用452)可以将该系统配置为指示:特定的现实世界物体应当被虚拟物体替换。在其他实施例中,配置该系统将指示:特定的虚拟图像(其表示虚拟物体)应当被插入到环境中的指定位置处,而不必替换现实世界物体。考虑如下示例:用虚拟物体来填充空房间以将该空房间转变为虚拟现实。在另一示例中,在中枢计算系统12上运行的应用将指示:特定的虚拟图像(其表示虚拟物体)应当作为视频游戏或其他进程的一部分被插入到该环境中。
在步骤604,该系统将创建头戴式显示设备2所处的空间的体积模型。例如在一个实施例中,中枢计算设备12将使用来自一个或多个深度相机的深度图像来创建头戴式显示设备2所处的环境的三维模型。在一个实施例中,模型的创建包括:映射表面的照明和反射率以用于反射和阴影。在步骤606,将该模型分割成一个或多个物体。例如,如果中枢计算设备12创建房间的三维模型,则该房间很可能在里面具有多个物体。可以处于房间中的物体的示例包括:人、椅子、桌子、沙发椅等等。步骤606包括:确定彼此不同的物体。在步骤608,该系统将标识出这些物体。例如,中枢计算设备12可以标识出:特定物体是桌子并且另一物体是椅子。在步骤610,该系统将把虚拟物体投影到真实物体之上。也就是说,该系统在用户通过头戴式显示设备2进行查看的同时在用户的视野内的第一物体之上显示虚拟图像。因此,该虚拟图像将在显示设备上替换现实世界物体,这允许通过该显示器实际直接地查看该空间的至少一部分。被替换的物体可以是静止物体或者移动物体。附加地,该系统可以替换整个物体或者仅仅替换物体的一部分。例如,该系统可以在步骤602被配置为仅仅用一条不同的裤子替换人的裤子。因此,步骤610将是:无论房间中的人是运动还是静止的,都把一条新裤子的虚拟图像投影到在该人之上。在步骤612,头戴式显示设备2的用户将基于在头戴式显示设备2中所显示的虚拟物体来与运行在中枢计算设备12(或另一计算设备)上的应用交互。下面将更详细地描述步骤604-610中的每个。
图8A提供了图8的过程的实施方式的一个示例。在步骤602A(其对应于步骤602),通过指定要被虚拟物体替换的现实世界物体来配置该系统。在步骤604A(其对应于步骤604),中枢计算设备12将创建中枢计算设备12所处的房间的三维模型。在步骤606A(其对应于步骤606),将该三维模型分割成一组物体。在步骤608A,中枢计算设备12将标识出来自606A分割步骤的物体中的每个物体。步骤608A包括:标识出要被替换的物体以及房间中的其他物体。在步骤610A(其对应于步骤610),头戴式显示设备2用与虚拟物体相对应的虚拟图像来覆盖用户对现实世界物体的视图。例如,可以用巨石替换房间中的咖啡桌。在步骤612A(其对应于步骤612),用户将使用中枢计算设备12和虚拟物体来玩视频游戏。例如,用户可以玩涉及该巨石的视频游戏。
图9是描述了用户创建空间的模型的过程的一个实施例的流程图。例如,图9的过程是图8的步骤604的一个示例性实施方式。在步骤640,中枢计算系统12接收头戴式显示设备所处的空间的多个视角的一个或多个深度图像。例如,中枢计算设备12可以从多个深度相机获得深度图像,或者通过使相机指向不同方向或者使用具有如下透镜的相机来从同一相机获得多个深度图像:该透镜允许将要构建模型的空间的全视图。在步骤642,基于共同的坐标系来组合来自各个深度图像的深度数据。例如,如果该系统从多个相机接收深度图像,则该系统将两个图像相关以具有共同的坐标系(例如使图像排齐)。在步骤644,使用深度数据来创建空间的体积描述。
图10是描述了将空间的模型分割成物体的过程的一个实施例的流程图。例如,图10的过程是图8的步骤606的一个示例性实施方式。在图10的步骤680,该系统将如上面所讨论的那样从一个或多个深度相机接收一个或多个深度图像。可替代地,该系统可以访问其已经接收到的一个或多个深度图像。在步骤682,该系统将如上述那样从相机接收一个或多个视觉图像。可替代地,该系统可以访问已经接收到的一个或多个视觉图像。在步骤684,中枢计算系统将基于深度图像和/或视觉图像检测一个或多个人。例如,该系统将识别一个或多个骨架。在步骤686,中枢计算设备将基于深度图像和/或视觉图像检测该模型内的边缘。在步骤688,中枢计算设备将使用所检测到的边缘来标识出彼此不同的物体。例如,假定:这些边缘是物体之间的边界。在步骤690,将更新使用图9的过程所创建的模型以示出:该模型的哪些部分与不同的物体相关联。
图11是描述用于标识出物体的过程的一个实施例的流程图。例如,图11的过程是图8的步骤608的一个示例性实施方式。在步骤710,中枢计算设备12将所标识出的人与用户身份进行匹配。例如,该系统可以具有用户简档,所述用户简档具有可以与所检测到的物体的图像相匹配的视觉图像。可替代地,用户简档可以描述可基于深度图像或视觉图像来匹配的人的特征。在另一实施例中,用户可以登陆到系统中并且中枢计算设备12可以使用登陆过程来标识出特定用户并且在此处所述的交互的整个过程中跟踪该用户。在步骤712,中枢计算设备12将访问形状数据库。在步骤714,中枢计算设备将模型中的多个物体与数据库中的形状进行匹配。在步骤716,将突出不匹配的那些形状并且将其显示给用户(例如使用监视器16)。在步骤718,中枢计算设备12将接收标识出所突出形状中的每个(或其子集)的用户输入。例如,用户可以使用键盘、鼠标、语音输入、或者其他类型的输入来指示:每个未标识出的形状是什么。在步骤720,基于步骤718中的用户输入来更新形状数据库。在步骤722,通过添加每个物体的元数据来进一步更新在步骤604被创建并且在步骤606被更新的环境模型。该元数据标识出该物体。例如,该元数据可以指示:特定物体处于小桌、某人、绿色真皮沙发椅等等的周围。
图11A是描述了用于响应于移动物体(例如移动的人或其他类型的物体)而更新通过图9的过程所创建的模型的过程的一个实施例的流程图。在步骤728,该系统确定物体在移动。例如,系统将持续地接收深度图像。如果深度图像随时间改变,则物体在移动。如果未检测到移动物体,则该系统将继续接收深度图像并且继续寻找移动物体。
如果存在移动物体,则在步骤730,该系统将标识出正在移动的物体。可以使用帧差异或各种任何跟踪技术来识别移动物体,并且将所识别的物体与在图8的步骤608所标识出的物体之一相关。一些物体将在移动使改变形状。例如,人类可能在其行走或奔跑时改变形状。在步骤732,标识出并存储移动物体的新形状。在步骤734,基于移动物体的新的位置和形状来更新之前创建的环境模型。图11A的过程可以由中枢计算设备12的处理单元4来执行。
图12是描述用于将虚拟物体投影(或以其他方式显示)到现实物体之上的过程的一个实施例的流程图。例如,图12的过程是图8的步骤610的一个示例性实施方式。在一个实施例中,图12的过程由处理单元4来执行。在图12的步骤750中,该系统访问环境的模型。在步骤752,该系统确定用户相对于该环境模型的视角(point fo view)。也就是说,该系统确定:用户正在查看该环境或空间的哪个部分。在一个实施例中,步骤752是使用中枢计算设备12、处理单元4和头戴式显示设备2的协作工作。在一个示例性实施方式中,中枢计算机设备12将跟踪用户和头戴式显示设备以便提供对头戴式显示设备2的位置和取向的初步确定。头戴式显示设备2上的传感器将用于细化所确定的取向。例如,上述惯性传感器34可以用于细化头戴式显示设备2的取向。此外,可以使用上述眼睛跟踪过程来标识出最初确定的视野的与特定用户所查看之处相对应的子集。下面将参照图13、14和15来描述更多细节。
在一个实施例中,该系统将尝试将多个虚拟图像添加到场景中。在其他实施例中,该系统可以仅仅尝试将一个虚拟图像插入到该场景中。针对虚拟图像,该系统具有将该虚拟图像插入到何处的目标。在一个实施例中,该目标可以是现实世界物体,使得该虚拟图像将替换现实物体的视图。在其他环境中,虚拟图像的目标可以是相对于现实世界物体而言的。
在步骤754,该系统在z缓冲区中从头戴式显示设备2的用户的视角来渲染之前所创建的三维环境模型,而不将任何色彩信息渲染到相应色彩缓冲区中。这有效地让所渲染的环境图像是全黑的,但是不存储环境中的物体的z(深度)数据。步骤754导致为每个像素(或者为像素的子集)存储深度数据。在步骤756,将虚拟内容(例如与虚拟物体相对应的虚拟图像)渲染到同一z缓冲区中,并且将虚拟内容的色彩信息写入到相应的色彩缓冲区中。这有效地允许在考虑到现实世界物体或者遮挡虚拟物体的全部或一部分的其他虚拟物体的情况下将虚拟图像绘制在微显示器120上。
在步骤758,把被绘制到移动物体之上的虚拟物体模糊化为恰好足以提供运动的外观。在步骤760,该系统标识出微显示器120的显示虚拟图像的像素。在步骤762,为微显示器120的像素确定阿尔法值。在传统的色度键控系统中,阿尔法值以逐像素为基础指示:将阿尔法值的多少用于标识出图像为多么不透明在一些应用中,阿尔法值可以是二进制的(例如开和关)。在其他应用中,阿尔法值可以是具有范围的数。在一个示例中,在步骤760中所标识出的每个像素都将具有第一阿尔法值,并且所有其他像素都具有第二阿尔法值。
在步骤764,基于阿尔法值来确定不透明度滤光器的像素。在一个示例中,不透明度滤光器与微显示器120具有相同的分辨率,并且因此不透明度滤光器可以使用阿尔法值来控制。在另一实施例中,不透明度滤光器与微显示器120具有不同的分辨率,并且因此用于暗化或不暗化不透明度滤光器的数据将通过使用用于在分辨率之间转换的各种任何数学算法而从阿尔法值中导出。还可以使用用于基于阿尔法值(或其他数据)为不透明度滤光器导出控制数据的其他手段。
在步骤766,将z缓冲区和色彩缓冲区中的图像、以及阿尔法值和不透明度滤光器的控制数据调整为考虑到光源(虚拟或现实)和阴影(虚拟或现实)。下面参照图12A提供步骤766的更多细节。在步骤768,将基于z缓冲区和色彩缓冲区的复合图像发送给微显示器120。也就是说,将要显示在合适像素处显示的虚拟图像发送给微显示器120,其中考虑到视角和遮挡。在步骤770,将不透明度滤光器的控制数据从处理单元4传送给头戴式显示设备2以控制不透明度滤光器114。注意,图12的过程可以每秒多次执行(例如刷新率)。
图12的过程允许在显示器上自动地将虚拟图像显示在静止或移动物体上(或相对于静止或移动物体而言),该显示器允许通过该显示器对空间的至少一部分的实际直接查看。
图12A是描述了用于考虑到光源和阴影的过程的一个实施例的流程图,该过程是图12的步骤766的示例性实施方式。在步骤780,处理单元4标识出需要考虑到的一个或多个光源。例如,当绘制虚拟图像时,可能需要考虑到现实光源。如果该系统将虚拟光源添加到用户的视图,则可以在头戴式显示设备2中考虑到该虚拟光源的效果。在步骤782,标识出被光源照明的模型的部分(包括虚拟图像)。在步骤784,将描绘该照明的图像添加到上述色彩缓冲区。
在步骤786,处理单元4标识出需要被头戴式显示设备2添加的一个或多个阴影区域。例如,如果虚拟图像被添加到阴影的区域中,则在绘制虚拟图像时需要通过在步骤788调整色彩缓冲区来考虑到该阴影。如果虚拟阴影将被添加到不存在虚拟图像之处,则不透明度滤光器114的与该虚拟阴影的位置相对应的像素在步骤790被暗化。
图15是描述了用于确定用户视角的过程的一个实施例的流程图,该过程是图12的步骤752的示例性实施方式。图15的过程依靠来自中枢计算设备12的信息和上述眼睛跟踪技术。图13是描述了由中枢计算系统执行以提供用在图15的过程中的跟踪信息的过程的一个实施例的流程图。图14是描述了用于跟踪眼睛的过程的一个实施例的流程图,其中该过程的结果供图15的过程来使用。
在图13的步骤810,中枢计算设备将跟踪用户的位置。例如,中枢计算设备12将使用一个或多个深度图像和一个或多个视觉图像来跟踪用户(例如使用骨架跟踪)。可以在步骤812使用一个或多个深度图像和一个或多个视觉图像来确定头戴式显示设备2的位置和头戴式显示设备2的取向。在步骤814,将用户和头戴式显示设备2的位置和取向从中枢计算设备12传送给处理单元4。在步骤816,在处理单元4处接收该位置和取向信息。
图14是描述用于使用上述技术来跟踪眼睛的一个实施例的流程图。在步骤860,照明眼睛。例如,可以使用红外光从眼睛跟踪照明134A来照明眼睛。在步骤862,使用一个或多个眼睛跟踪相机134B来检测来自眼睛的反射。在步骤864,将该反射数据从头戴式显示设备2发送给处理单元4。在步骤866,处理单元4将如上述那样基于反射数据来确定眼睛的位置。
图15是描述了用于确定视角的过程(例如图12的步骤750)的一个实施例的流程图。在步骤902,处理单元4将访问从中枢接收到的最新的位置和取向信息。图13的过程可以如从步骤814到步骤810的箭头所描绘的那样连续地执行,因此,处理单元4将周期性地从中枢计算设备12接收经更新的位置和取向信息。然而,处理单元4将需要与其从中枢计算设备12接收经更新的信息相比更频繁地绘制虚拟图像。因此,处理单元4将需要依靠本地感测的信息(其例如来自头戴式设备2)以在来自中枢计算设备12的采样之间提供取向的更新。在步骤904,处理单元4将从三轴陀螺仪132B访问数据。在步骤906,处理单元4将从三轴加速度计132C访问数据。在步骤908,处理单元4将从三轴磁力计132A访问数据。在步骤910,处理单元4将用来自该陀螺仪、加速度计和磁力计的数据来细化(或以其他方式更新)来自中枢计算设备12的位置和取向数据。在步骤912,处理单元4将基于头戴式显示设备的位置和取向来确定潜在的视角。在步骤914,处理单元4将访问最新的眼睛位置信息。在步骤916,处理单元4将基于眼睛位置作为潜在视角的子集来确定模型的用户所观看的位置。例如,用户可以朝向墙壁,并且因此头戴式显示器的视野可以包括沿着墙壁的任何地方。然而,如果用户的眼睛指向右边,则步骤916将作出的结论是,用户的视野仅仅是墙壁的右边部分。在步骤915结束时,处理单元4已经确定了用户通过头戴式显示器2的视角。然后,如上面参照图12所描述的那样,处理单元4可以在该视野内标识出要插入虚拟图像以及使用不透明度滤光器来阻挡光的位置。
尽管用结构特征和/或方法动作专用的语言描述了本主题,但可以理解,所附权利要求书中定义的主题不必限于上述具体特征或动作。更确切而言,上述具体特征和动作是作为实现权利要求的示例形式公开的。本发明的范围由所附的权利要求进行定义。

Claims (15)

1.一种用于将虚拟内容融合到现实内容中的方法,包括:
创建空间的体积模型(604);
将该模型分割成物体(606);
标识出所述物体中的包括第一物体的一个或多个物体(608);以及
在显示器上自动地将虚拟图像显示在第一物体之上(610),该显示器允许通过该显示器实际直接地查看该空间的至少一部分。
2.如权利要求1所述的方法,其特征在于,创建体积模型包括:
接收多个视角的深度图像;以及
使用来自所述深度图像的数据来创建和存储该空间的三维描述。
3.如权利要求1或2所述的方法,其特征在于,将该模型分割成物体包括:
访问一个或多个深度图像;
访问一个或多个视觉图像;
使用所述一个或多个深度图像和所述一个或多个视觉图像来检测一个或多个人;
基于所述一个或多个深度图像和所述一个或多个视觉图像来检测边缘;
基于所述边缘来检测物体;以及
更新该模型以存储关于所述物体和人的检测的信息。
4.如权利要求3所述的方法,其特征在于,标识出所述物体中的一个或多个包括:
将至少一个所检测到的物体与用户身份进行匹配;
访问形状的数据结构;
将一个或多个所检测到的物体与该数据结构中的形状进行匹配;以及
更新该模型以反映所述至少一个所检测到的物体与用户身份的匹配、以及所述一个或多个所检测到的物体与该数据结构中的形状的匹配。
5.如权利要求4所述的方法,其特征在于,标识出所述物体中的一个或多个包括:
向用户视觉地显示不匹配的物体并且请求该用户标识出所述不匹配的物体;
接收所述不匹配的物体的新标识;
更新该数据结构以反映该新标识;以及
更新该模型以存储关于所述不匹配的物体的新标识的信息。
6.如权利要求1-5任一项所述的方法,其特征在于,自动地将虚拟图像显示在第一物体之上还包括:
标识出光源;
基于该光源调整该虚拟图像;
标识出阴影区域;以及
使现实物体的对应于该阴影区域的视图暗化。
7.如权利要求1-6中任一项所述的方法,其特征在于:
在显示器上将虚拟图像显示在第一物体之上包括:确定该显示器的用户的视角;以及
确定该显示器的用户的视野包括:使用一个或多个深度图像自动地确定该显示器的位置和取向;使用惯性传感器来自动地细化所确定的显示器的取向;以及自动地确定该显示器的用户的眼睛的位置以标识出该空间的以所确定的位置和取向被查看的子集。
8.如权利要求1-7中任一项所述的方法,其特征在于,在显示器上将虚拟图像显示在第一物体之上还包括:
自动地确定第一物体正在移动;
自动地跟踪第一物体的移动;
自动地确定第一物体的形状的改变;以及
响应于第一物体的移动使该虚拟图像模糊化。
9.如权利要求1-8中任一项所述的方法,其特征在于,在显示器上将虚拟图像显示在第一物体之上还包括:
标识出该显示器的可能示出第一物体的部分;以及
选择性地阻挡光,使其不能穿过该显示器的可能示出第一物体的该部分,该虚拟图像被投影到该显示器的可能示出第一物体的该部分上。
10.如权利要求1-9中任一项所述的方法,其特征在于:
显示虚拟图像包括:将该虚拟图像投影在该显示器上,而不将该空间的该部分投影到该显示器上。
11.一种用于将虚拟内容融合到现实内容中的装置,包括:
头戴式显示设备2,该头戴式显示设备包括:
显示器(120,122,124,112),该显示器(120,122,124,112)允许通过该显示器对第一物体的实际直接视图;
不透明度滤光器(116),该不透明度滤光器(116)与该显示器对齐,使得穿过该不透明度滤光器的光也穿过该显示器;
惯性传感器(132A,132B,132C),该惯性传感器(132A,132B,132C)感测该头戴式显示设备的取向信息;
第一通信接口(232);以及
一个或多个控制电路(200,202),所述一个或多个控制电路(200,202)与该显示器、该不透明度滤光器、该惯性传感器以及该第一通信接口通信;以及
处理单元(4),该处理单元包括:第二通信接口,该第二通信接口与第一通信接口通信;以及一个或多个控制电路,所述一个或多个控制电路通过第一通信接口和第二通信接口与该头戴式显示设备通信以自动地在该显示器上将虚拟图像显示在第一物体之上。
12.如权利要求11所述的装置,其特征在于,该显示器包括:
图像投影仪;
光导光学元件,该光导光学元件与该不透明度滤光器对齐,使得穿过该不透明度滤光器的光也穿过该光导光学元件,在第一末端处进入该光导光学元件的附加的光将沿着该头戴式显示设备的处于用户的眼睛之前的表面离开该光导光学元件;以及
透镜,该透镜与该图像投影仪对齐以将光从该图像投影仪引导到该光导光学元件中。
13.如权利要求11或12所述的装置,其特征在于,该头戴式显示设备还包括:
照明源,该照明源用于将光投影到该头戴式显示设备的用户的眼睛上;以及
传感器,该传感器感测从用户的眼睛反射回的光,该传感器与头戴式显示器的一个或多个控制电路通信,使得该装置可以确定该用户的眼睛的方向。
14.如权利要求11、12或13所述的装置,其特征在于:
第二通信接口与中枢计算设备无线地通信以接收空间的标识出一个或多个物体的三维模型;以及
该处理单元的一个或多个控制电路:确定该头戴式显示设备的用户的视野;确定第一物体是否处于该视野内;确定第一物体在该显示器中的位置;基于第一物体在该显示器中的大小和取向来调整该虚拟图像的大小和取向;以及向该显示器发送信号以致使该显示器将经调整的虚拟图像显示在该显示器上以替换第一物体的视图。
15.如权利要求11、12、13或14所述的装置,其特征在于:
该处理单元的一个或多个控制电路:标识出该显示器的可能示出第一物体的部分;以及向该不透明度滤光器发送信号以选择性地阻挡光,使得光不能穿过该显示器的可能示出第一物体的部分,该虚拟图像被投影到该显示器的可能示出第一物体的部分上。
CN201110328586.0A 2010-10-15 2011-10-17 虚拟内容到现实内容中的融合 Active CN102419631B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/905,952 2010-10-15
US12/905,952 US8884984B2 (en) 2010-10-15 2010-10-15 Fusing virtual content into real content

Publications (2)

Publication Number Publication Date
CN102419631A true CN102419631A (zh) 2012-04-18
CN102419631B CN102419631B (zh) 2015-02-25

Family

ID=45933748

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201110328586.0A Active CN102419631B (zh) 2010-10-15 2011-10-17 虚拟内容到现实内容中的融合

Country Status (2)

Country Link
US (1) US8884984B2 (zh)
CN (1) CN102419631B (zh)

Cited By (73)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103517512A (zh) * 2012-06-14 2014-01-15 索尼公司 控制装置、显示装置、控制方法、照明控制方法和程序
CN103605208A (zh) * 2013-08-30 2014-02-26 北京智谷睿拓技术服务有限公司 内容投射系统及方法
CN103714749A (zh) * 2012-10-09 2014-04-09 三星电子株式会社 透明显示装置及其控制方法
CN103777351A (zh) * 2012-10-26 2014-05-07 鸿富锦精密工业(深圳)有限公司 多媒体眼镜
CN104062758A (zh) * 2013-03-19 2014-09-24 联想(北京)有限公司 图像显示的方法和显示设备
CN104460004A (zh) * 2013-09-13 2015-03-25 精工爱普生株式会社 头部佩戴型显示装置以及头部佩戴型显示装置的控制方法
CN104603865A (zh) * 2012-05-16 2015-05-06 丹尼尔·格瑞贝格 一种由移动中的用户佩戴的用于通过锚定虚拟对象充分增强现实的系统
CN104641319A (zh) * 2012-09-18 2015-05-20 高通股份有限公司 用于使头戴式显示器的使用对非用户较不明显的方法和系统
CN104838326A (zh) * 2012-11-29 2015-08-12 微软公司 可佩戴的食物营养反馈系统
CN104865701A (zh) * 2014-02-24 2015-08-26 广达电脑股份有限公司 头戴式显示装置
CN105005145A (zh) * 2015-08-03 2015-10-28 众景视界(北京)科技有限公司 智能眼镜及智能眼镜的外接设备
CN105009039A (zh) * 2012-11-30 2015-10-28 微软技术许可有限责任公司 使用imu的直接全息图操纵
CN105264478A (zh) * 2013-05-23 2016-01-20 微软技术许可有限责任公司 全息锚定和动态定位
US20160026242A1 (en) 2014-07-25 2016-01-28 Aaron Burns Gaze-based object placement within a virtual reality environment
CN105793764A (zh) * 2013-12-27 2016-07-20 英特尔公司 用于为头戴式显示设备提供扩展显示设备的设备、方法和系统
CN105829798A (zh) * 2013-12-23 2016-08-03 依视路国际集团(光学总公司) 具有滤光功能的头戴式显示器
CN105874785A (zh) * 2013-11-04 2016-08-17 At&T知识产权部有限合伙公司 用于利用可穿戴显示设备实现镜子视频聊天的系统和方法
CN105899996A (zh) * 2013-12-06 2016-08-24 瑞典爱立信有限公司 光学头戴式显示器、电视入口模块和用于控制图形用户界面的方法
CN106199959A (zh) * 2015-05-01 2016-12-07 尚立光电股份有限公司 头戴式显示器
CN106526853A (zh) * 2016-11-11 2017-03-22 广东小天才科技有限公司 头戴式显示设备、主机和分体式虚拟现实系统
CN106557159A (zh) * 2015-09-28 2017-04-05 迪尔公司 用于作业机械的虚拟平视显示应用
CN106570939A (zh) * 2016-11-09 2017-04-19 深圳奥比中光科技有限公司 一种3d地图的处理方法及系统
CN106568435A (zh) * 2016-11-09 2017-04-19 深圳奥比中光科技有限公司 一种室内定位方法及系统
CN106687886A (zh) * 2014-07-25 2017-05-17 微软技术许可有限责任公司 三维混合现实视口
CN106846456A (zh) * 2016-11-09 2017-06-13 深圳奥比中光科技有限公司 一种室内3d框架图的生成方法及系统
CN107203045A (zh) * 2013-11-27 2017-09-26 奇跃公司 虚拟和增强现实系统与方法
CN107250891A (zh) * 2015-02-13 2017-10-13 Otoy公司 头戴式显示器与真实世界对象之间的相互通信
CN107408314A (zh) * 2015-01-20 2017-11-28 微软技术许可有限责任公司 混合现实系统
CN103838536B (zh) * 2012-11-27 2017-12-29 联想(北京)有限公司 显示模式的切换方法、控制电子设备的方法及电子设备
US9870050B2 (en) 2013-10-10 2018-01-16 Beijing Zhigu Rui Tuo Tech Co., Ltd Interactive projection display
US9867532B2 (en) 2013-07-31 2018-01-16 Beijing Zhigu Rui Tuo Tech Co., Ltd System for detecting optical parameter of eye, and method for detecting optical parameter of eye
US9867756B2 (en) 2013-08-22 2018-01-16 Beijing Zhigu Rui Tuo Tech Co., Ltd Eyesight-protection imaging system and eyesight-protection imaging method
CN107667331A (zh) * 2015-05-28 2018-02-06 微软技术许可有限责任公司 共享空间多人沉浸式虚拟现实中的共享触觉交互和用户安全
CN107810463A (zh) * 2015-06-17 2018-03-16 微软技术许可有限责任公司 混合显示系统
CN108028901A (zh) * 2015-09-16 2018-05-11 富士胶片株式会社 投影型显示装置及投影控制方法
CN108027656A (zh) * 2015-09-28 2018-05-11 日本电气株式会社 输入设备、输入方法和程序
CN108268138A (zh) * 2018-01-29 2018-07-10 广州市动景计算机科技有限公司 增强现实的处理方法、装置及电子设备
CN108369345A (zh) * 2015-10-20 2018-08-03 奇跃公司 在三维空间中选择虚拟对象
CN108416322A (zh) * 2018-03-27 2018-08-17 吉林大学 一种虚拟装配坐式操作中目视动作识别方法
CN108445630A (zh) * 2018-03-21 2018-08-24 上海纷趣网络科技有限公司 一种基于增强现实技术应用于儿童场景的穿戴设备
CN108475492A (zh) * 2015-12-18 2018-08-31 麦克赛尔株式会社 头戴式显示器协作显示系统、包括显示装置和头戴式显示器的系统及其显示装置
CN108496107A (zh) * 2017-03-28 2018-09-04 深圳市柔宇科技有限公司 头戴式显示设备及其显示切换方法
CN108960008A (zh) * 2017-05-22 2018-12-07 华为技术有限公司 Vr显示的方法和装置、vr设备
CN108995590A (zh) * 2018-07-26 2018-12-14 广州小鹏汽车科技有限公司 一种人车互动方法、系统及装置
WO2019000556A1 (zh) * 2017-06-30 2019-01-03 深圳市大疆创新科技有限公司 头戴式显示设备
CN109270688A (zh) * 2013-02-14 2019-01-25 精工爱普生株式会社 头部佩戴型显示装置以及头部佩戴型显示装置的控制方法
US10191276B2 (en) 2013-06-28 2019-01-29 Beijing Zhigu Rui Tuo Tech Co., Ltd Imaging adjustment device and imaging adjustment method
CN109407757A (zh) * 2018-02-09 2019-03-01 北京小米移动软件有限公司 显示系统
CN109478095A (zh) * 2016-06-13 2019-03-15 索尼互动娱乐股份有限公司 用于使虚拟现实环境中的特定内容聚焦的hmd转换
US10261345B2 (en) 2013-06-28 2019-04-16 Beijing Zhigu Rui Tuo Tech Co., Ltd Imaging adjustment device and imaging adjustment method
CN109658514A (zh) * 2017-10-11 2019-04-19 腾讯科技(深圳)有限公司 一种数据处理方法、装置和计算机存储介质
CN109710054A (zh) * 2017-10-26 2019-05-03 北京京东尚科信息技术有限公司 用于头戴式显示设备的虚拟物体呈现方法和装置
US10311638B2 (en) 2014-07-25 2019-06-04 Microsoft Technology Licensing, Llc Anti-trip when immersed in a virtual reality environment
CN110036416A (zh) * 2016-11-25 2019-07-19 诺基亚技术有限公司 用于空间音频的装置和相关方法
CN110095869A (zh) * 2013-12-05 2019-08-06 索尼公司 显示设备
CN105573486B (zh) * 2014-05-30 2019-08-16 索尼电脑娱乐美国公司 具有与移动计算设备介接的接口的头戴式设备(hmd)系统
CN110134197A (zh) * 2019-06-26 2019-08-16 北京小米移动软件有限公司 可穿戴式控制设备、虚拟/增强现实系统及控制方法
TWI669682B (zh) * 2018-05-25 2019-08-21 光寶電子(廣州)有限公司 影像處理系統及影像處理方法
US10395510B2 (en) 2013-08-30 2019-08-27 Beijing Zhigu Rui Tuo Tech Co., Ltd Reminding method and reminding device
CN110225238A (zh) * 2018-03-01 2019-09-10 宏达国际电子股份有限公司 场景重建系统、方法以及非暂态电脑可读取媒体
CN110275619A (zh) * 2015-08-31 2019-09-24 北京三星通信技术研究有限公司 在头戴式显示器中显示真实物体的方法及其头戴式显示器
CN110310288A (zh) * 2018-03-20 2019-10-08 罗技欧洲公司 用于混合现实环境中的对象分割的方法和系统
US10451875B2 (en) 2014-07-25 2019-10-22 Microsoft Technology Licensing, Llc Smart transparency for virtual objects
CN110419061A (zh) * 2017-03-17 2019-11-05 奇跃公司 具有多源虚拟内容合成的混合现实系统及使用该系统生成虚拟内容的方法
US10481396B2 (en) 2013-06-28 2019-11-19 Beijing Zhigu Rui Tuo Tech Co., Ltd. Imaging device and imaging method
CN110673715A (zh) * 2018-07-02 2020-01-10 名硕电脑(苏州)有限公司 虚拟图像系统
US10551638B2 (en) 2013-07-31 2020-02-04 Beijing Zhigu Rui Tuo Tech Co., Ltd. Imaging apparatus and imaging method
US10558270B2 (en) 2015-10-04 2020-02-11 Eminent Electronic Technology Corp. Ltd. Method for determining non-contact gesture and device for the same
US10583068B2 (en) 2013-08-22 2020-03-10 Beijing Zhigu Rui Tuo Tech Co., Ltd Eyesight-protection imaging apparatus and eyesight-protection imaging method
US10649212B2 (en) 2014-07-25 2020-05-12 Microsoft Technology Licensing Llc Ground plane adjustment in a virtual reality environment
CN111638802A (zh) * 2014-09-02 2020-09-08 三星电子株式会社 用于提供虚拟现实服务的方法及装置
CN114578554A (zh) * 2020-11-30 2022-06-03 华为技术有限公司 实现虚实融合的显示设备
CN115509017A (zh) * 2022-11-21 2022-12-23 蔚来汽车科技(安徽)有限公司 增强现实眼镜和利用增强现实眼镜来实现显示增强的方法

Families Citing this family (225)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9158116B1 (en) 2014-04-25 2015-10-13 Osterhout Group, Inc. Temple and ear horn assembly for headworn computer
US9400390B2 (en) 2014-01-24 2016-07-26 Osterhout Group, Inc. Peripheral lighting for head worn computing
US9965681B2 (en) 2008-12-16 2018-05-08 Osterhout Group, Inc. Eye imaging in head worn computing
US9229233B2 (en) 2014-02-11 2016-01-05 Osterhout Group, Inc. Micro Doppler presentations in head worn computing
US9298007B2 (en) 2014-01-21 2016-03-29 Osterhout Group, Inc. Eye imaging in head worn computing
US9952664B2 (en) 2014-01-21 2018-04-24 Osterhout Group, Inc. Eye imaging in head worn computing
US9715112B2 (en) 2014-01-21 2017-07-25 Osterhout Group, Inc. Suppression of stray light in head worn computing
US9366867B2 (en) 2014-07-08 2016-06-14 Osterhout Group, Inc. Optical systems for see-through displays
US20150277120A1 (en) 2014-01-21 2015-10-01 Osterhout Group, Inc. Optical configurations for head worn computing
US20150205111A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. Optical configurations for head worn computing
US9122053B2 (en) 2010-10-15 2015-09-01 Microsoft Technology Licensing, Llc Realistic occlusion for a head mounted augmented reality display
JP2012120067A (ja) * 2010-12-03 2012-06-21 Brother Ind Ltd シースルー型画像表示装置およびシースルー型画像表示方法
US9264515B2 (en) * 2010-12-22 2016-02-16 Intel Corporation Techniques for mobile augmented reality applications
US8913085B2 (en) * 2010-12-22 2014-12-16 Intel Corporation Object mapping techniques for mobile augmented reality applications
CN103210360B (zh) * 2011-02-25 2016-05-04 英派尔科技开发有限公司 用于增强现实演出的方法、设备和系统
JP5724544B2 (ja) * 2011-03-31 2015-05-27 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
US8810598B2 (en) 2011-04-08 2014-08-19 Nant Holdings Ip, Llc Interference based augmented reality hosting platforms
US8570372B2 (en) * 2011-04-29 2013-10-29 Austin Russell Three-dimensional imager and projection device
US8760499B2 (en) * 2011-04-29 2014-06-24 Austin Russell Three-dimensional imager and projection device
US9330499B2 (en) 2011-05-20 2016-05-03 Microsoft Technology Licensing, Llc Event augmentation with real-time information
US9155964B2 (en) 2011-09-14 2015-10-13 Steelseries Aps Apparatus for adapting virtual gaming with real world information
US9520072B2 (en) * 2011-09-21 2016-12-13 University Of South Florida Systems and methods for projecting images onto an object
JP5994233B2 (ja) 2011-11-08 2016-09-21 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
US9072929B1 (en) * 2011-12-01 2015-07-07 Nebraska Global Investment Company, LLC Image capture system
US8872853B2 (en) 2011-12-01 2014-10-28 Microsoft Corporation Virtual light in augmented reality
US9311751B2 (en) 2011-12-12 2016-04-12 Microsoft Technology Licensing, Llc Display of shadows via see-through display
US9230367B2 (en) 2011-12-13 2016-01-05 Here Global B.V. Augmented reality personalization
JP5620414B2 (ja) * 2012-01-18 2014-11-05 株式会社スクウェア・エニックス ゲーム装置
US9147111B2 (en) * 2012-02-10 2015-09-29 Microsoft Technology Licensing, Llc Display with blocking image generation
US10499118B2 (en) * 2012-04-24 2019-12-03 Skreens Entertainment Technologies, Inc. Virtual and augmented reality system and headset display
US11284137B2 (en) 2012-04-24 2022-03-22 Skreens Entertainment Technologies, Inc. Video processing systems and methods for display, selection and navigation of a combination of heterogeneous sources
US9519640B2 (en) * 2012-05-04 2016-12-13 Microsoft Technology Licensing, Llc Intelligent translations in personal see through display
US9263084B1 (en) * 2012-06-15 2016-02-16 A9.Com, Inc. Selective sharing of body data
KR102009928B1 (ko) * 2012-08-20 2019-08-12 삼성전자 주식회사 협업 구현 방법 및 장치
CN102866506A (zh) * 2012-09-21 2013-01-09 苏州云都网络技术有限公司 增强现实眼镜及其实现方法
US9019174B2 (en) 2012-10-31 2015-04-28 Microsoft Technology Licensing, Llc Wearable emotion detection and feedback system
US9158114B2 (en) * 2012-11-05 2015-10-13 Exelis Inc. Image display utilizing a variable mask to selectively block image data
CN102998799A (zh) * 2012-12-04 2013-03-27 深圳市长江力伟股份有限公司 一种虚境与实境融合近眼显示系统
US20140176591A1 (en) * 2012-12-26 2014-06-26 Georg Klein Low-latency fusing of color image data
US10514541B2 (en) 2012-12-27 2019-12-24 Microsoft Technology Licensing, Llc Display update time reduction for a near-eye display
US10127724B2 (en) * 2013-01-04 2018-11-13 Vuezr, Inc. System and method for providing augmented reality on mobile devices
US9588730B2 (en) * 2013-01-11 2017-03-07 Disney Enterprises, Inc. Mobile tele-immersive gameplay
US9449340B2 (en) * 2013-01-30 2016-09-20 Wal-Mart Stores, Inc. Method and system for managing an electronic shopping list with gestures
JP6123365B2 (ja) * 2013-03-11 2017-05-10 セイコーエプソン株式会社 画像表示システム及び頭部装着型表示装置
CN105188516B (zh) 2013-03-11 2017-12-22 奇跃公司 用于增强和虚拟现实的系统与方法
US9846965B2 (en) * 2013-03-15 2017-12-19 Disney Enterprises, Inc. Augmented reality device with predefined object data
US11228805B2 (en) * 2013-03-15 2022-01-18 Dish Technologies Llc Customized commercial metrics and presentation via integrated virtual environment devices
US9922437B1 (en) * 2013-03-15 2018-03-20 William S. Baron Process for creating an augmented image
US9418629B2 (en) * 2013-03-15 2016-08-16 Disney Enterprises, Inc. Optical illumination mapping
KR102271198B1 (ko) 2013-03-15 2021-06-29 매직 립, 인코포레이티드 디스플레이 시스템 및 방법
US11024065B1 (en) 2013-03-15 2021-06-01 William S. Baron Process for creating an augmented image
US9443354B2 (en) 2013-04-29 2016-09-13 Microsoft Technology Licensing, Llc Mixed reality interactions
US9239460B2 (en) 2013-05-10 2016-01-19 Microsoft Technology Licensing, Llc Calibration of eye location
CN104239877B (zh) * 2013-06-19 2019-02-05 联想(北京)有限公司 图像处理的方法和图像采集设备
US10295338B2 (en) 2013-07-12 2019-05-21 Magic Leap, Inc. Method and system for generating map data from an image
US9761053B2 (en) * 2013-08-21 2017-09-12 Nantmobile, Llc Chroma key content management systems and methods
US9292764B2 (en) 2013-09-17 2016-03-22 Qualcomm Incorporated Method and apparatus for selectively providing information on objects in a captured image
US20150123966A1 (en) * 2013-10-03 2015-05-07 Compedia - Software And Hardware Development Limited Interactive augmented virtual reality and perceptual computing platform
US20150102981A1 (en) * 2013-10-11 2015-04-16 Microsoft Corporation Eye tracking
US9740361B2 (en) 2013-10-14 2017-08-22 Microsoft Technology Licensing, Llc Group experience user interface
US9582516B2 (en) 2013-10-17 2017-02-28 Nant Holdings Ip, Llc Wide area augmented reality location-based services
US9652892B2 (en) * 2013-10-29 2017-05-16 Microsoft Technology Licensing, Llc Mixed reality spotlight
EP2887124A1 (en) * 2013-12-20 2015-06-24 Thomson Licensing Optical see-through glass type display device and corresponding optical unit
US9484005B2 (en) 2013-12-20 2016-11-01 Qualcomm Incorporated Trimming content for projection onto a target
US9459451B2 (en) 2013-12-26 2016-10-04 Microsoft Technology Licensing, Llc Eye tracking apparatus, method and system
US9594246B2 (en) 2014-01-21 2017-03-14 Osterhout Group, Inc. See-through computer display systems
US9829707B2 (en) 2014-08-12 2017-11-28 Osterhout Group, Inc. Measuring content brightness in head worn computing
US9575321B2 (en) 2014-06-09 2017-02-21 Osterhout Group, Inc. Content presentation in head worn computing
US9366868B2 (en) 2014-09-26 2016-06-14 Osterhout Group, Inc. See-through computer display systems
US11227294B2 (en) 2014-04-03 2022-01-18 Mentor Acquisition One, Llc Sight information collection in head worn computing
US9841599B2 (en) 2014-06-05 2017-12-12 Osterhout Group, Inc. Optical configurations for head-worn see-through displays
US20160019715A1 (en) 2014-07-15 2016-01-21 Osterhout Group, Inc. Content presentation in head worn computing
US9746686B2 (en) 2014-05-19 2017-08-29 Osterhout Group, Inc. Content position calibration in head worn computing
US9671613B2 (en) 2014-09-26 2017-06-06 Osterhout Group, Inc. See-through computer display systems
US9448409B2 (en) 2014-11-26 2016-09-20 Osterhout Group, Inc. See-through computer display systems
US20150228119A1 (en) 2014-02-11 2015-08-13 Osterhout Group, Inc. Spatial location presentation in head worn computing
US9810906B2 (en) 2014-06-17 2017-11-07 Osterhout Group, Inc. External user interface for head worn computing
US9299194B2 (en) 2014-02-14 2016-03-29 Osterhout Group, Inc. Secure sharing in head worn computing
US10684687B2 (en) 2014-12-03 2020-06-16 Mentor Acquisition One, Llc See-through computer display systems
US9939934B2 (en) 2014-01-17 2018-04-10 Osterhout Group, Inc. External user interface for head worn computing
US10191279B2 (en) 2014-03-17 2019-01-29 Osterhout Group, Inc. Eye imaging in head worn computing
US20150277118A1 (en) 2014-03-28 2015-10-01 Osterhout Group, Inc. Sensor dependent content position in head worn computing
US9529195B2 (en) 2014-01-21 2016-12-27 Osterhout Group, Inc. See-through computer display systems
US10649220B2 (en) 2014-06-09 2020-05-12 Mentor Acquisition One, Llc Content presentation in head worn computing
WO2015109145A1 (en) * 2014-01-17 2015-07-23 Osterhout Group, Inc. See-through computer display systems
US10254856B2 (en) 2014-01-17 2019-04-09 Osterhout Group, Inc. External user interface for head worn computing
US11103122B2 (en) 2014-07-15 2021-08-31 Mentor Acquisition One, Llc Content presentation in head worn computing
US9494800B2 (en) 2014-01-21 2016-11-15 Osterhout Group, Inc. See-through computer display systems
US9766463B2 (en) 2014-01-21 2017-09-19 Osterhout Group, Inc. See-through computer display systems
US11669163B2 (en) 2014-01-21 2023-06-06 Mentor Acquisition One, Llc Eye glint imaging in see-through computer display systems
US9753288B2 (en) 2014-01-21 2017-09-05 Osterhout Group, Inc. See-through computer display systems
US11737666B2 (en) 2014-01-21 2023-08-29 Mentor Acquisition One, Llc Eye imaging in head worn computing
US9532715B2 (en) 2014-01-21 2017-01-03 Osterhout Group, Inc. Eye imaging in head worn computing
US9811159B2 (en) 2014-01-21 2017-11-07 Osterhout Group, Inc. Eye imaging in head worn computing
US20150205135A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. See-through computer display systems
US9836122B2 (en) 2014-01-21 2017-12-05 Osterhout Group, Inc. Eye glint imaging in see-through computer display systems
US11892644B2 (en) 2014-01-21 2024-02-06 Mentor Acquisition One, Llc See-through computer display systems
US9529199B2 (en) 2014-01-21 2016-12-27 Osterhout Group, Inc. See-through computer display systems
US9651784B2 (en) 2014-01-21 2017-05-16 Osterhout Group, Inc. See-through computer display systems
US11487110B2 (en) 2014-01-21 2022-11-01 Mentor Acquisition One, Llc Eye imaging in head worn computing
US9846308B2 (en) 2014-01-24 2017-12-19 Osterhout Group, Inc. Haptic systems for head-worn computers
US9401540B2 (en) 2014-02-11 2016-07-26 Osterhout Group, Inc. Spatial location presentation in head worn computing
US20150241964A1 (en) 2014-02-11 2015-08-27 Osterhout Group, Inc. Eye imaging in head worn computing
US20160187651A1 (en) 2014-03-28 2016-06-30 Osterhout Group, Inc. Safety for a vehicle operator with an hmd
US9977572B2 (en) * 2014-04-01 2018-05-22 Hallmark Cards, Incorporated Augmented reality appearance enhancement
US10853589B2 (en) 2014-04-25 2020-12-01 Mentor Acquisition One, Llc Language translation with head-worn computing
US9672210B2 (en) 2014-04-25 2017-06-06 Osterhout Group, Inc. Language translation with head-worn computing
US9423842B2 (en) 2014-09-18 2016-08-23 Osterhout Group, Inc. Thermal management for head-worn computer
US9651787B2 (en) 2014-04-25 2017-05-16 Osterhout Group, Inc. Speaker assembly for headworn computer
US9430038B2 (en) 2014-05-01 2016-08-30 Microsoft Technology Licensing, Llc World-locked display quality feedback
US20150331260A1 (en) * 2014-05-15 2015-11-19 Kessler Foundation Inc. Wearable systems and methods for treatment of a neurocognitive condition
US10663740B2 (en) 2014-06-09 2020-05-26 Mentor Acquisition One, Llc Content presentation in head worn computing
US9865089B2 (en) * 2014-07-25 2018-01-09 Microsoft Technology Licensing, Llc Virtual reality environment with real world objects
US9904055B2 (en) 2014-07-25 2018-02-27 Microsoft Technology Licensing, Llc Smart placement of virtual objects to stay in the field of view of a head mounted display
US9811095B2 (en) * 2014-08-06 2017-11-07 Lenovo (Singapore) Pte. Ltd. Glasses with fluid-fillable membrane for adjusting focal length of one or more lenses of the glasses
CN204480228U (zh) * 2014-08-08 2015-07-15 厉动公司 运动感测和成像设备
US9946361B2 (en) 2014-08-14 2018-04-17 Qualcomm Incorporated Management for wearable display
US10019059B2 (en) * 2014-08-22 2018-07-10 Sony Interactive Entertainment Inc. Glove interface object
WO2016041088A1 (en) * 2014-09-19 2016-03-24 Sulon Technologies Inc. System and method for tracking wearable peripherals in augmented reality and virtual reality applications
US9494799B2 (en) 2014-09-24 2016-11-15 Microsoft Technology Licensing, Llc Waveguide eye tracking employing switchable diffraction gratings
US20160097930A1 (en) 2014-10-06 2016-04-07 Steven John Robbins Microdisplay optical system having two microlens arrays
US10523993B2 (en) * 2014-10-16 2019-12-31 Disney Enterprises, Inc. Displaying custom positioned overlays to a viewer
KR101930657B1 (ko) 2014-10-24 2018-12-18 유센스, 인코퍼레이티드 몰입식 및 대화식 멀티미디어 생성을 위한 시스템 및 방법
US10320437B2 (en) 2014-10-24 2019-06-11 Usens, Inc. System and method for immersive and interactive multimedia generation
US10495726B2 (en) 2014-11-13 2019-12-03 WorldViz, Inc. Methods and systems for an immersive virtual reality system using multiple active markers
US9684172B2 (en) 2014-12-03 2017-06-20 Osterhout Group, Inc. Head worn computer display systems
WO2016094568A1 (en) * 2014-12-10 2016-06-16 Sixense Entertainment, Inc. System and method for assisting a user in remaining in a selected area while the user is in a virtual reality environment
US9851786B2 (en) 2014-12-10 2017-12-26 Sixense Entertainment, Inc. System and method for assisting a user in remaining in a selected area while the user is in a virtual reality environment
US10771907B2 (en) * 2014-12-11 2020-09-08 Harman International Industries, Incorporated Techniques for analyzing connectivity within an audio transducer array
USD743963S1 (en) 2014-12-22 2015-11-24 Osterhout Group, Inc. Air mouse
US10073516B2 (en) * 2014-12-29 2018-09-11 Sony Interactive Entertainment Inc. Methods and systems for user interaction within virtual reality scene using head mounted display
USD751552S1 (en) 2014-12-31 2016-03-15 Osterhout Group, Inc. Computer glasses
USD753114S1 (en) 2015-01-05 2016-04-05 Osterhout Group, Inc. Air mouse
US10108017B2 (en) 2015-01-20 2018-10-23 Microsoft Technology Licensing, Llc Carbon nanoparticle infused optical mount
US10028418B2 (en) 2015-01-20 2018-07-17 Microsoft Technology Licensing, Llc Metal encased graphite layer heat pipe
US10444515B2 (en) 2015-01-20 2019-10-15 Microsoft Technology Licensing, Llc Convective optical mount structure
US9791704B2 (en) * 2015-01-20 2017-10-17 Microsoft Technology Licensing, Llc Bonded multi-layer graphite heat pipe
US20160239985A1 (en) 2015-02-17 2016-08-18 Osterhout Group, Inc. See-through computer display systems
US11468639B2 (en) * 2015-02-20 2022-10-11 Microsoft Technology Licensing, Llc Selective occlusion system for augmented reality devices
CN108139876B (zh) * 2015-03-04 2022-02-25 杭州凌感科技有限公司 用于沉浸式和交互式多媒体生成的系统和方法
US10003778B2 (en) * 2015-04-29 2018-06-19 Rovi Guides, Inc. Systems and methods for augmenting a viewing environment of users
US10147388B2 (en) 2015-04-29 2018-12-04 Rovi Guides, Inc. Systems and methods for enhancing viewing experiences of users
EP3113106A1 (en) * 2015-07-02 2017-01-04 Nokia Technologies Oy Determination of environmental augmentation allocation data
CN105303600A (zh) * 2015-07-02 2016-02-03 北京美房云谷网络科技有限公司 一种使用虚拟现实眼镜查看3d数字楼盘的方法
RU2597462C1 (ru) * 2015-07-17 2016-09-10 Виталий Витальевич Аверьянов Способ отображения объекта на пространственной модели
US10169917B2 (en) 2015-08-20 2019-01-01 Microsoft Technology Licensing, Llc Augmented reality
US10235808B2 (en) 2015-08-20 2019-03-19 Microsoft Technology Licensing, Llc Communication system
TWI611340B (zh) * 2015-10-04 2018-01-11 義明科技股份有限公司 非接觸式手勢判斷方法及其裝置
US9928658B2 (en) * 2015-11-02 2018-03-27 International Business Machines Corporation Overlay for camera field of vision
US9928648B2 (en) 2015-11-09 2018-03-27 Microsoft Technology Licensing, Llc Object path identification for navigating objects in scene-aware device environments
US10311644B2 (en) * 2016-12-14 2019-06-04 II Jonathan M. Rodriguez Systems and methods for creating and sharing a 3-dimensional augmented reality space
US9990689B2 (en) 2015-12-16 2018-06-05 WorldViz, Inc. Multi-user virtual reality processing
EP3391658B1 (en) 2015-12-17 2021-08-25 InterDigital Madison Patent Holdings, SAS Personalized presentation enhancement using augmented reality
US10095928B2 (en) 2015-12-22 2018-10-09 WorldViz, Inc. Methods and systems for marker identification
US9927614B2 (en) 2015-12-29 2018-03-27 Microsoft Technology Licensing, Llc Augmented reality display system with variable focus
KR102330090B1 (ko) * 2016-04-22 2021-11-24 인터디지털 씨이 페이튼트 홀딩스, 에스에이에스 이미지를 합성하기 위한 방법 및 디바이스
US10242501B1 (en) * 2016-05-03 2019-03-26 WorldViz, Inc. Multi-user virtual and augmented reality tracking systems
US10126553B2 (en) 2016-06-16 2018-11-13 Microsoft Technology Licensing, Llc Control device with holographic element
US10620717B2 (en) 2016-06-30 2020-04-14 Microsoft Technology Licensing, Llc Position-determining input device
US10134191B2 (en) 2016-07-18 2018-11-20 Disney Enterprises, Inc. Systems and methods for generating a virtual space based on a physical layout of objects
US9972119B2 (en) 2016-08-11 2018-05-15 Microsoft Technology Licensing, Llc Virtual object hand-off and manipulation
TWI622298B (zh) * 2016-08-23 2018-04-21 和碩聯合科技股份有限公司 廣告影像生成系統及其廣告影像生成之方法
US9898871B1 (en) * 2016-10-05 2018-02-20 Disney Enterprises, Inc. Systems and methods for providing augmented reality experience based on a relative position of objects
US11215896B2 (en) 2016-10-11 2022-01-04 Sony Corporation Display apparatus
TWI603287B (zh) * 2016-11-11 2017-10-21 財團法人工業技術研究院 虛擬物件之影像合成方法與裝置
CN106444042A (zh) * 2016-11-29 2017-02-22 北京知境科技有限公司 一种增强现实与虚拟现实两用显示设备和可穿戴设备
CN106791487A (zh) * 2016-12-19 2017-05-31 广东威创视讯科技股份有限公司 一种基于机器学习的dlp系统
USD864959S1 (en) 2017-01-04 2019-10-29 Mentor Acquisition One, Llc Computer glasses
US11024092B2 (en) * 2017-02-01 2021-06-01 Pcms Holdings, Inc. System and method for augmented reality content delivery in pre-captured environments
US10403050B1 (en) 2017-04-10 2019-09-03 WorldViz, Inc. Multi-user virtual and augmented reality tracking systems
JP2017146619A (ja) * 2017-05-01 2017-08-24 セイコーエプソン株式会社 虚像表示装置
US20180349837A1 (en) * 2017-05-19 2018-12-06 Hcl Technologies Limited System and method for inventory management within a warehouse
US10621707B2 (en) * 2017-06-16 2020-04-14 Tilt Fire, Inc Table reprojection for post render latency compensation
CN111108746A (zh) * 2017-09-22 2020-05-05 惠普发展公司,有限责任合伙企业 对象的检测
CN111279292B (zh) * 2017-09-29 2022-06-14 苹果公司 检测物理边界
US10922878B2 (en) * 2017-10-04 2021-02-16 Google Llc Lighting for inserted content
CN108182730B (zh) * 2018-01-12 2022-08-12 北京小米移动软件有限公司 虚实对象合成方法及装置
CN108398787B (zh) * 2018-03-20 2023-05-16 京东方科技集团股份有限公司 增强现实显示设备、方法和增强现实眼镜
US11694392B2 (en) 2018-05-22 2023-07-04 Apple Inc. Environment synthesis for lighting an object
WO2019228468A1 (en) * 2018-05-30 2019-12-05 Ke.Com (Beijing) Technology Co., Ltd. Systems and methods for providing an audio-guided virtual reality tour
US20190371071A1 (en) * 2018-06-01 2019-12-05 Merge Labs, Inc. Precise placement of and animation creation for virtual objects in an environment using a trackable three-dimensional object
US11733824B2 (en) * 2018-06-22 2023-08-22 Apple Inc. User interaction interpreter
GB2574882B (en) * 2018-06-22 2020-08-12 Sony Interactive Entertainment Inc Method and system for displaying a virtual object
JP2021536592A (ja) 2018-08-31 2021-12-27 マジック リープ, インコーポレイテッドMagic Leap, Inc. 拡張現実デバイスのための空間的に分解された動的調光
JP7206706B2 (ja) * 2018-08-31 2023-01-18 積水ハウス株式会社 シミュレーションシステム
US11403822B2 (en) * 2018-09-21 2022-08-02 Augmntr, Inc. System and methods for data transmission and rendering of virtual objects for display
EP3864644A1 (en) 2018-10-08 2021-08-18 Telefonaktiebolaget Lm Ericsson (Publ) Improved viewing device and method for providing virtual content overlapping visual objects
US11681834B2 (en) 2019-01-30 2023-06-20 Augmntr, Inc. Test cell presence system and methods of visualizing a test environment
KR102174794B1 (ko) * 2019-01-31 2020-11-05 주식회사 알파서클 복수의 분할영상 중 재생되는 영상의 전환시점을 제어하는 가상현실 분할영상 전환방법 및 가상현실 영상재생장치
CN110139028B (zh) * 2019-03-25 2020-07-07 华为技术有限公司 一种图像处理的方法及头戴式显示设备
EP3716217A1 (en) * 2019-03-28 2020-09-30 InterDigital CE Patent Holdings Techniques for detection of real-time occlusion
US11537351B2 (en) 2019-08-12 2022-12-27 Magic Leap, Inc. Systems and methods for virtual and augmented reality
US11842449B2 (en) 2019-09-26 2023-12-12 Apple Inc. Presenting an environment based on user movement
KR20210066494A (ko) * 2019-11-28 2021-06-07 주식회사 지이모션 의상의 3차원 모델링 방법
US20210169578A1 (en) * 2019-12-10 2021-06-10 Globus Medical, Inc. Augmented reality headset with varied opacity for navigated robotic surgery
US11410387B1 (en) 2020-01-17 2022-08-09 Facebook Technologies, Llc. Systems, methods, and media for generating visualization of physical environment in artificial reality
US10950034B1 (en) 2020-01-27 2021-03-16 Facebook Technologies, Llc Systems, methods, and media for generating visualization of physical environment in artificial reality
US11200745B2 (en) 2020-01-27 2021-12-14 Facebook Technologies, Llc. Systems, methods, and media for automatically triggering real-time visualization of physical environment in artificial reality
US11210860B2 (en) * 2020-01-27 2021-12-28 Facebook Technologies, Llc. Systems, methods, and media for visualizing occluded physical objects reconstructed in artificial reality
US11113891B2 (en) 2020-01-27 2021-09-07 Facebook Technologies, Llc Systems, methods, and media for displaying real-time visualization of physical environment in artificial reality
US11451758B1 (en) 2020-02-12 2022-09-20 Meta Platforms Technologies, Llc Systems, methods, and media for colorizing grayscale images
US11321931B2 (en) 2020-03-31 2022-05-03 Home Box Office, Inc. Creating cloud-hosted, streamed augmented reality experiences with low perceived latency
US20210349310A1 (en) * 2020-05-11 2021-11-11 Sony Interactive Entertainment Inc. Highly interactive display environment for gaming
JP7369669B2 (ja) * 2020-06-14 2023-10-26 株式会社スクウェア・エニックス 拡張現実表示装置及びプログラム
US11205308B1 (en) * 2020-11-25 2021-12-21 XRSpace CO., LTD. Method and electronic apparatus of modifying three-dimensional model
US11454816B1 (en) * 2020-12-07 2022-09-27 Snap Inc. Segmented illumination display
US20220198765A1 (en) * 2020-12-22 2022-06-23 Arkh, Inc. Spatially Aware Environment Interaction
US11495004B1 (en) 2021-06-15 2022-11-08 Meta Platforms Technologies, Llc Systems and methods for lighting subjects for artificial reality scenes
US11908083B2 (en) 2021-08-31 2024-02-20 Snap Inc. Deforming custom mesh based on body mesh
US11663792B2 (en) 2021-09-08 2023-05-30 Snap Inc. Body fitted accessory with physics simulation
US11798238B2 (en) 2021-09-14 2023-10-24 Snap Inc. Blending body mesh into external mesh
US11836866B2 (en) 2021-09-20 2023-12-05 Snap Inc. Deforming real-world object using an external mesh
CN113570441B (zh) * 2021-09-26 2022-02-01 广州新奥达云科技有限公司 一种基于虚拟反向投影的物品展示方法和装置
US11790614B2 (en) * 2021-10-11 2023-10-17 Snap Inc. Inferring intent from pose and speech input
US11836862B2 (en) 2021-10-11 2023-12-05 Snap Inc. External mesh with vertex attributes
US11763481B2 (en) 2021-10-20 2023-09-19 Snap Inc. Mirror-based augmented reality experience
WO2023079041A1 (en) 2021-11-05 2023-05-11 Meta Materials Inc. Lightguide and method of making the same
US20230306689A1 (en) * 2022-03-25 2023-09-28 At&T Intellectual Property I, L.P. Aligning metaverse activities with multiple physical environments
US20230334792A1 (en) * 2022-04-18 2023-10-19 Mobeus Industries, Inc. Interactive reality computing experience using optical lenticular multi-perspective simulation
US20230343036A1 (en) * 2022-04-20 2023-10-26 At&T Intellectual Property I, L.P. Merging multiple environments to create an extended reality environment
WO2023215637A1 (en) * 2022-05-06 2023-11-09 Mobeus Industries, Inc. Interactive reality computing experience using optical lenticular multi-perspective simulation
US20230379067A1 (en) * 2022-05-18 2023-11-23 Rohde & Schwarz Gmbh & Co. Kg Augmented reality spectrum monitoring system
US20240004456A1 (en) * 2022-06-29 2024-01-04 Paypal, Inc. Automated configuration of augmented and virtual reality avatars for user specific behaviors
WO2024039887A1 (en) * 2022-08-19 2024-02-22 Mobeus Industries, Inc. Interactive reality computing experience using optical lenticular multi-perspective simulation
WO2024081154A1 (en) * 2022-10-12 2024-04-18 Snap Inc. Energy-efficient adaptive 3d sensing

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030032484A1 (en) * 1999-06-11 2003-02-13 Toshikazu Ohshima Game apparatus for mixed reality space, image processing method thereof, and program storage medium
US20040239670A1 (en) * 2003-05-29 2004-12-02 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
US20080284864A1 (en) * 2006-08-11 2008-11-20 Canon Kabushiki Kaisha Image processing apparatus and method
US20110075257A1 (en) * 2009-09-14 2011-03-31 The Arizona Board Of Regents On Behalf Of The University Of Arizona 3-Dimensional electro-optical see-through displays

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6466207B1 (en) 1998-03-18 2002-10-15 Microsoft Corporation Real-time image rendering with layered depth images
US6330281B1 (en) 1999-08-06 2001-12-11 Richfx Ltd. Model-based view extrapolation for interactive virtual reality systems
US6525731B1 (en) 1999-11-09 2003-02-25 Ibm Corporation Dynamic view-dependent texture mapping
US6674877B1 (en) 2000-02-03 2004-01-06 Microsoft Corporation System and method for visually tracking occluded objects in real time
US7605826B2 (en) 2001-03-27 2009-10-20 Siemens Corporate Research, Inc. Augmented reality guided instrument positioning with depth determining graphics
US6795090B2 (en) 2001-11-13 2004-09-21 Eastman Kodak Company Method and system for panoramic image morphing
US6956566B2 (en) 2002-05-23 2005-10-18 Hewlett-Packard Development Company, L.P. Streaming of images with depth for three-dimensional graphics
US7583275B2 (en) 2002-10-15 2009-09-01 University Of Southern California Modeling and video projection for augmented virtual environments
US7372977B2 (en) 2003-05-29 2008-05-13 Honda Motor Co., Ltd. Visual tracking using depth data
WO2006081198A2 (en) 2005-01-25 2006-08-03 The Board Of Trustees Of The University Of Illinois Compact haptic and augmented virtual reality system
KR20070119018A (ko) 2005-02-23 2007-12-18 크레이그 써머스 3d 카메라 및 3d비디오를 위한 자동 씬 모델링
DE102005009437A1 (de) 2005-03-02 2006-09-07 Kuka Roboter Gmbh Verfahren und Vorrichtung zum Einblenden von AR-Objekten
US7706603B2 (en) 2005-04-19 2010-04-27 Siemens Corporation Fast object detection for augmented reality systems
KR100809479B1 (ko) 2006-07-27 2008-03-03 한국전자통신연구원 혼합 현실 환경을 위한 얼굴 착용형 디스플레이 장치
US20090221368A1 (en) 2007-11-28 2009-09-03 Ailive Inc., Method and system for creating a shared game space for a networked game
US8648865B2 (en) * 2008-09-26 2014-02-11 International Business Machines Corporation Variable rendering of virtual universe avatars
US20100238161A1 (en) 2009-03-19 2010-09-23 Kenneth Varga Computer-aided system for 360º heads up display of safety/mission critical data
US9122707B2 (en) * 2010-05-28 2015-09-01 Nokia Technologies Oy Method and apparatus for providing a localized virtual reality environment

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030032484A1 (en) * 1999-06-11 2003-02-13 Toshikazu Ohshima Game apparatus for mixed reality space, image processing method thereof, and program storage medium
US20040239670A1 (en) * 2003-05-29 2004-12-02 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
US20080284864A1 (en) * 2006-08-11 2008-11-20 Canon Kabushiki Kaisha Image processing apparatus and method
US20110075257A1 (en) * 2009-09-14 2011-03-31 The Arizona Board Of Regents On Behalf Of The University Of Arizona 3-Dimensional electro-optical see-through displays

Cited By (106)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104603865A (zh) * 2012-05-16 2015-05-06 丹尼尔·格瑞贝格 一种由移动中的用户佩戴的用于通过锚定虚拟对象充分增强现实的系统
CN103517512A (zh) * 2012-06-14 2014-01-15 索尼公司 控制装置、显示装置、控制方法、照明控制方法和程序
CN104641319B (zh) * 2012-09-18 2017-04-26 高通股份有限公司 用于使头戴式显示器的使用对非用户较不明显的方法和系统
CN104641319A (zh) * 2012-09-18 2015-05-20 高通股份有限公司 用于使头戴式显示器的使用对非用户较不明显的方法和系统
CN103714749A (zh) * 2012-10-09 2014-04-09 三星电子株式会社 透明显示装置及其控制方法
CN103777351A (zh) * 2012-10-26 2014-05-07 鸿富锦精密工业(深圳)有限公司 多媒体眼镜
CN103838536B (zh) * 2012-11-27 2017-12-29 联想(北京)有限公司 显示模式的切换方法、控制电子设备的方法及电子设备
CN104838326A (zh) * 2012-11-29 2015-08-12 微软公司 可佩戴的食物营养反馈系统
CN104838326B (zh) * 2012-11-29 2019-03-08 微软技术许可有限责任公司 可佩戴的食物营养反馈系统
CN105009039A (zh) * 2012-11-30 2015-10-28 微软技术许可有限责任公司 使用imu的直接全息图操纵
CN109270688B (zh) * 2013-02-14 2021-06-15 精工爱普生株式会社 头部佩戴型显示装置以及头部佩戴型显示装置的控制方法
CN109270688A (zh) * 2013-02-14 2019-01-25 精工爱普生株式会社 头部佩戴型显示装置以及头部佩戴型显示装置的控制方法
CN104062758B (zh) * 2013-03-19 2017-02-08 联想(北京)有限公司 图像显示的方法和显示设备
CN104062758A (zh) * 2013-03-19 2014-09-24 联想(北京)有限公司 图像显示的方法和显示设备
CN105264478A (zh) * 2013-05-23 2016-01-20 微软技术许可有限责任公司 全息锚定和动态定位
CN105264478B (zh) * 2013-05-23 2019-06-11 微软技术许可有限责任公司 全息锚定和动态定位
US10191276B2 (en) 2013-06-28 2019-01-29 Beijing Zhigu Rui Tuo Tech Co., Ltd Imaging adjustment device and imaging adjustment method
US10481396B2 (en) 2013-06-28 2019-11-19 Beijing Zhigu Rui Tuo Tech Co., Ltd. Imaging device and imaging method
US10261345B2 (en) 2013-06-28 2019-04-16 Beijing Zhigu Rui Tuo Tech Co., Ltd Imaging adjustment device and imaging adjustment method
US9867532B2 (en) 2013-07-31 2018-01-16 Beijing Zhigu Rui Tuo Tech Co., Ltd System for detecting optical parameter of eye, and method for detecting optical parameter of eye
US10551638B2 (en) 2013-07-31 2020-02-04 Beijing Zhigu Rui Tuo Tech Co., Ltd. Imaging apparatus and imaging method
US10583068B2 (en) 2013-08-22 2020-03-10 Beijing Zhigu Rui Tuo Tech Co., Ltd Eyesight-protection imaging apparatus and eyesight-protection imaging method
US9867756B2 (en) 2013-08-22 2018-01-16 Beijing Zhigu Rui Tuo Tech Co., Ltd Eyesight-protection imaging system and eyesight-protection imaging method
CN103605208A (zh) * 2013-08-30 2014-02-26 北京智谷睿拓技术服务有限公司 内容投射系统及方法
CN103605208B (zh) * 2013-08-30 2016-09-28 北京智谷睿拓技术服务有限公司 内容投射系统及方法
WO2015027599A1 (zh) * 2013-08-30 2015-03-05 北京智谷睿拓技术服务有限公司 内容投射系统及内容投射方法
US10395510B2 (en) 2013-08-30 2019-08-27 Beijing Zhigu Rui Tuo Tech Co., Ltd Reminding method and reminding device
US10048750B2 (en) 2013-08-30 2018-08-14 Beijing Zhigu Rui Tuo Tech Co., Ltd Content projection system and content projection method
CN104460004B (zh) * 2013-09-13 2018-12-14 精工爱普生株式会社 头部佩戴型显示装置以及头部佩戴型显示装置的控制方法
CN104460004A (zh) * 2013-09-13 2015-03-25 精工爱普生株式会社 头部佩戴型显示装置以及头部佩戴型显示装置的控制方法
US9870050B2 (en) 2013-10-10 2018-01-16 Beijing Zhigu Rui Tuo Tech Co., Ltd Interactive projection display
CN105874785A (zh) * 2013-11-04 2016-08-17 At&T知识产权部有限合伙公司 用于利用可穿戴显示设备实现镜子视频聊天的系统和方法
CN107203045A (zh) * 2013-11-27 2017-09-26 奇跃公司 虚拟和增强现实系统与方法
CN107203045B (zh) * 2013-11-27 2023-10-20 奇跃公司 虚拟和增强现实系统与方法
CN110095869A (zh) * 2013-12-05 2019-08-06 索尼公司 显示设备
CN110095869B (zh) * 2013-12-05 2021-09-14 索尼公司 显示设备
CN105899996A (zh) * 2013-12-06 2016-08-24 瑞典爱立信有限公司 光学头戴式显示器、电视入口模块和用于控制图形用户界面的方法
CN105899996B (zh) * 2013-12-06 2019-04-23 瑞典爱立信有限公司 光学头戴式显示器、电视入口模块和用于控制图形用户界面的方法
CN105829798A (zh) * 2013-12-23 2016-08-03 依视路国际集团(光学总公司) 具有滤光功能的头戴式显示器
CN105793764A (zh) * 2013-12-27 2016-07-20 英特尔公司 用于为头戴式显示设备提供扩展显示设备的设备、方法和系统
US10310265B2 (en) 2013-12-27 2019-06-04 Intel Corporation Device, method, and system of providing extended display with head mounted display
CN105793764B (zh) * 2013-12-27 2018-11-30 英特尔公司 用于为头戴式显示设备提供扩展显示设备的设备、方法和系统
CN104865701A (zh) * 2014-02-24 2015-08-26 广达电脑股份有限公司 头戴式显示装置
CN104865701B (zh) * 2014-02-24 2017-04-26 广达电脑股份有限公司 头戴式显示装置
CN105573486B (zh) * 2014-05-30 2019-08-16 索尼电脑娱乐美国公司 具有与移动计算设备介接的接口的头戴式设备(hmd)系统
US10451875B2 (en) 2014-07-25 2019-10-22 Microsoft Technology Licensing, Llc Smart transparency for virtual objects
CN106687886B (zh) * 2014-07-25 2019-09-17 微软技术许可有限责任公司 三维混合现实视口
US10649212B2 (en) 2014-07-25 2020-05-12 Microsoft Technology Licensing Llc Ground plane adjustment in a virtual reality environment
US10311638B2 (en) 2014-07-25 2019-06-04 Microsoft Technology Licensing, Llc Anti-trip when immersed in a virtual reality environment
US20160026242A1 (en) 2014-07-25 2016-01-28 Aaron Burns Gaze-based object placement within a virtual reality environment
CN106687886A (zh) * 2014-07-25 2017-05-17 微软技术许可有限责任公司 三维混合现实视口
US10416760B2 (en) 2014-07-25 2019-09-17 Microsoft Technology Licensing, Llc Gaze-based object placement within a virtual reality environment
CN111638802A (zh) * 2014-09-02 2020-09-08 三星电子株式会社 用于提供虚拟现实服务的方法及装置
CN111638802B (zh) * 2014-09-02 2023-05-30 三星电子株式会社 用于提供虚拟现实服务的方法及装置
CN107408314A (zh) * 2015-01-20 2017-11-28 微软技术许可有限责任公司 混合现实系统
CN107250891A (zh) * 2015-02-13 2017-10-13 Otoy公司 头戴式显示器与真实世界对象之间的相互通信
CN106199959A (zh) * 2015-05-01 2016-12-07 尚立光电股份有限公司 头戴式显示器
CN107667331A (zh) * 2015-05-28 2018-02-06 微软技术许可有限责任公司 共享空间多人沉浸式虚拟现实中的共享触觉交互和用户安全
CN107810463B (zh) * 2015-06-17 2020-12-18 微软技术许可有限责任公司 头戴式显示系统和设备以及头戴式显示中产生图像的方法
CN107810463A (zh) * 2015-06-17 2018-03-16 微软技术许可有限责任公司 混合显示系统
CN105005145A (zh) * 2015-08-03 2015-10-28 众景视界(北京)科技有限公司 智能眼镜及智能眼镜的外接设备
CN110275619A (zh) * 2015-08-31 2019-09-24 北京三星通信技术研究有限公司 在头戴式显示器中显示真实物体的方法及其头戴式显示器
CN108028901A (zh) * 2015-09-16 2018-05-11 富士胶片株式会社 投影型显示装置及投影控制方法
CN108028901B (zh) * 2015-09-16 2020-04-21 富士胶片株式会社 投影型显示装置及投影控制方法
CN106557159A (zh) * 2015-09-28 2017-04-05 迪尔公司 用于作业机械的虚拟平视显示应用
CN108027656A (zh) * 2015-09-28 2018-05-11 日本电气株式会社 输入设备、输入方法和程序
CN108027656B (zh) * 2015-09-28 2021-07-06 日本电气株式会社 输入设备、输入方法和程序
US10558270B2 (en) 2015-10-04 2020-02-11 Eminent Electronic Technology Corp. Ltd. Method for determining non-contact gesture and device for the same
CN108369345A (zh) * 2015-10-20 2018-08-03 奇跃公司 在三维空间中选择虚拟对象
CN108475492A (zh) * 2015-12-18 2018-08-31 麦克赛尔株式会社 头戴式显示器协作显示系统、包括显示装置和头戴式显示器的系统及其显示装置
CN108475492B (zh) * 2015-12-18 2021-01-29 麦克赛尔株式会社 头戴式显示器协作显示系统、包括显示装置和头戴式显示器的系统及其显示装置
CN109478095A (zh) * 2016-06-13 2019-03-15 索尼互动娱乐股份有限公司 用于使虚拟现实环境中的特定内容聚焦的hmd转换
CN106568435A (zh) * 2016-11-09 2017-04-19 深圳奥比中光科技有限公司 一种室内定位方法及系统
CN106846456A (zh) * 2016-11-09 2017-06-13 深圳奥比中光科技有限公司 一种室内3d框架图的生成方法及系统
CN106568435B (zh) * 2016-11-09 2019-05-31 深圳奥比中光科技有限公司 一种室内定位方法及系统
CN106570939A (zh) * 2016-11-09 2017-04-19 深圳奥比中光科技有限公司 一种3d地图的处理方法及系统
CN106526853A (zh) * 2016-11-11 2017-03-22 广东小天才科技有限公司 头戴式显示设备、主机和分体式虚拟现实系统
CN110036416A (zh) * 2016-11-25 2019-07-19 诺基亚技术有限公司 用于空间音频的装置和相关方法
CN110036416B (zh) * 2016-11-25 2022-11-29 诺基亚技术有限公司 用于空间音频的装置和相关方法
CN110419061B (zh) * 2017-03-17 2023-09-29 奇跃公司 混合现实系统及使用该系统生成虚拟内容的方法
CN110419061A (zh) * 2017-03-17 2019-11-05 奇跃公司 具有多源虚拟内容合成的混合现实系统及使用该系统生成虚拟内容的方法
CN108496107A (zh) * 2017-03-28 2018-09-04 深圳市柔宇科技有限公司 头戴式显示设备及其显示切换方法
CN108960008A (zh) * 2017-05-22 2018-12-07 华为技术有限公司 Vr显示的方法和装置、vr设备
CN108960008B (zh) * 2017-05-22 2021-12-14 华为技术有限公司 Vr显示的方法和装置、vr设备
WO2019000556A1 (zh) * 2017-06-30 2019-01-03 深圳市大疆创新科技有限公司 头戴式显示设备
CN109658514B (zh) * 2017-10-11 2022-03-11 腾讯科技(深圳)有限公司 一种数据处理方法、装置和计算机存储介质
CN109658514A (zh) * 2017-10-11 2019-04-19 腾讯科技(深圳)有限公司 一种数据处理方法、装置和计算机存储介质
CN109710054A (zh) * 2017-10-26 2019-05-03 北京京东尚科信息技术有限公司 用于头戴式显示设备的虚拟物体呈现方法和装置
CN108268138A (zh) * 2018-01-29 2018-07-10 广州市动景计算机科技有限公司 增强现实的处理方法、装置及电子设备
CN109407757A (zh) * 2018-02-09 2019-03-01 北京小米移动软件有限公司 显示系统
CN109407757B (zh) * 2018-02-09 2021-05-04 北京小米移动软件有限公司 显示系统
US10915781B2 (en) 2018-03-01 2021-02-09 Htc Corporation Scene reconstructing system, scene reconstructing method and non-transitory computer-readable medium
CN110225238B (zh) * 2018-03-01 2021-06-01 宏达国际电子股份有限公司 场景重建系统、方法以及非暂态电脑可读取媒介质
CN110225238A (zh) * 2018-03-01 2019-09-10 宏达国际电子股份有限公司 场景重建系统、方法以及非暂态电脑可读取媒体
CN110310288A (zh) * 2018-03-20 2019-10-08 罗技欧洲公司 用于混合现实环境中的对象分割的方法和系统
CN110310288B (zh) * 2018-03-20 2023-11-28 罗技欧洲公司 用于混合现实环境中的对象分割的方法和系统
CN108445630A (zh) * 2018-03-21 2018-08-24 上海纷趣网络科技有限公司 一种基于增强现实技术应用于儿童场景的穿戴设备
CN108416322A (zh) * 2018-03-27 2018-08-17 吉林大学 一种虚拟装配坐式操作中目视动作识别方法
TWI669682B (zh) * 2018-05-25 2019-08-21 光寶電子(廣州)有限公司 影像處理系統及影像處理方法
CN110673715A (zh) * 2018-07-02 2020-01-10 名硕电脑(苏州)有限公司 虚拟图像系统
CN110673715B (zh) * 2018-07-02 2023-08-25 名硕电脑(苏州)有限公司 虚拟图像系统
CN108995590A (zh) * 2018-07-26 2018-12-14 广州小鹏汽车科技有限公司 一种人车互动方法、系统及装置
CN110134197A (zh) * 2019-06-26 2019-08-16 北京小米移动软件有限公司 可穿戴式控制设备、虚拟/增强现实系统及控制方法
CN114578554A (zh) * 2020-11-30 2022-06-03 华为技术有限公司 实现虚实融合的显示设备
CN114578554B (zh) * 2020-11-30 2023-08-22 华为技术有限公司 实现虚实融合的显示设备
CN115509017A (zh) * 2022-11-21 2022-12-23 蔚来汽车科技(安徽)有限公司 增强现实眼镜和利用增强现实眼镜来实现显示增强的方法

Also Published As

Publication number Publication date
CN102419631B (zh) 2015-02-25
US8884984B2 (en) 2014-11-11
US20120092328A1 (en) 2012-04-19

Similar Documents

Publication Publication Date Title
CN102419631B (zh) 虚拟内容到现实内容中的融合
CN102566756B (zh) 用于扩展现实显示的基于理解力和意图的内容
CN102591016B (zh) 用于扩展现实显示的优化聚焦区
CN102591449B (zh) 虚拟内容和现实内容的低等待时间的融合
CN102540464B (zh) 提供环绕视频的头戴式显示设备
CN102445756B (zh) 用于扩展现实显示的自动焦点改善
CN105359076B (zh) 多步骤虚拟对象选择方法和装置
CN102566049B (zh) 用于扩展现实显示的自动可变虚拟焦点
US9230368B2 (en) Hologram anchoring and dynamic positioning
CN105408837A (zh) Hmd上的混合世界/身体锁定的hud
CN105393158A (zh) 共享的和私有的全息物体
CN105452994A (zh) 虚拟物体的同时优选观看
WO2014105646A1 (en) Low-latency fusing of color image data in a color sequential display system
CN107810634A (zh) 用于立体增强现实的显示器

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
ASS Succession or assignment of patent right

Owner name: MICROSOFT TECHNOLOGY LICENSING LLC

Free format text: FORMER OWNER: MICROSOFT CORP.

Effective date: 20150723

C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20150723

Address after: Washington State

Patentee after: Micro soft technique license Co., Ltd

Address before: Washington State

Patentee before: Microsoft Corp.