CN102999160A - 混合现实显示器中用户控制的现实对象的消失 - Google Patents

混合现实显示器中用户控制的现实对象的消失 Download PDF

Info

Publication number
CN102999160A
CN102999160A CN2012103885648A CN201210388564A CN102999160A CN 102999160 A CN102999160 A CN 102999160A CN 2012103885648 A CN2012103885648 A CN 2012103885648A CN 201210388564 A CN201210388564 A CN 201210388564A CN 102999160 A CN102999160 A CN 102999160A
Authority
CN
China
Prior art keywords
real
world object
user
display
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2012103885648A
Other languages
English (en)
Other versions
CN102999160B (zh
Inventor
J·C·刘
S·G·拉塔
B·I·瓦特
C·M·诺瓦克
D·本内特
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Technology Licensing LLC
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of CN102999160A publication Critical patent/CN102999160A/zh
Application granted granted Critical
Publication of CN102999160B publication Critical patent/CN102999160B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/365Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Abstract

本发明涉及混合现实显示器中用户控制的现实对象的消失。本技术基于用户消失准则致使透视、混合现实显示设备系统的视野中的现实对象消失。跟踪到该透视显示器的该视野中的现实对象的图像数据以在该现实对象上实现致使其从该显示器上消失的更改技术。现实对象可通过是与该用户不希望看到的主题相关联的或通过不满足用户当前感兴趣的主题的相关性准则而满足用户消失准则。在某些实施例中,基于显示设备系统的地点的3D模型,可基于与该地点内的位置相关联的可见度来为现实对象选择更改技术。可基于该显示设备系统的地点来预取用于更改的图像数据。

Description

混合现实显示器中用户控制的现实对象的消失
技术领域
本发明涉及混合现实显示器中用户控制的现实对象的消失。 
背景技术
混合现实,也称为增强现实,是一种允许将虚拟图像与现实世界视图相混合的技术。与其它显示设备不同,透视、混合或增强现实显示设备与其他显示设备的不同在于所显示的图像并不独占用户的视野。当用户看膝上型计算机、台式计算机或智能电话的计算机屏幕时,在处理器上执行的软件生成在百分之百的计算机屏幕上查看的东西。在看计算机屏幕时,用户的视角被从现实世界移走。通过透视、混合现实显示设备,用户可透过显示器观看并与现实世界交互,同时还看到由一个或多个软件应用生成的图像。可以说,存在正在执行的软件和用户看到的人和物(它们不受计算机控制)对显示器的共享控制。 
发明内容
在下面描述的实施例中,一种透视、头戴式混合现实显示设备系统致使现实世界对象由于该现实世界对象与同特定用户相关联的主题的关系而从设备的视野中消失。该主题可额被标识为在某些示例中要避免的主题。现实世界对象还可由于它与用户感兴趣的当前主题的相关度而消失。 
本技术提供了一个或多个处理器可读存储设备的实施例,所述存储设备上编码有用于致使一个或多个处理器执行一种方法的指令,所述方法用于致使透视、混合现实显示设备系统的透视显示器中的现实对象消失。该方法包括接收标识透视显示器的视野中的一个或多个现实对象的元数据。例如,可基于由附连于透视、混合现实显示设备系统的一个或多个面向物理环境的相机捕捉的图像数据来标识一个或多个现实对象。确定所述一个或多个现实对象中的任一个是否满足用户消失准则。响应于确定某现实对象满足用户消失准则,跟踪到透 视显示器中该现实对象的图像数据以致使透视显示器的视野中的该现实对象消失。图像数据的内容是基于指派给该现实对象的更改技术的。 
本技术提供一种透视、头戴式、混合现实显示设备系统的实施例,该显示设备系统用于致使该显示设备系统的透视显示器的视野中的现实对象消失。该系统包括一个或多个地点检测传感器和用于存储用户消失准则的存储器,所述用户消失准则包括至少一个主题项。一个或多个处理器具有对该存储器的访问并且可通信地耦合于该一个或多个地点检测传感器以接收该显示设备系统的地点标识符数据。该一个或多个处理器标识该透视显示器的视野中的与该至少一个主题项有关且对于从该地点标识符数据确定的地点在预定可见度距离内的一个或多个现实对象。至少一个图像生成单元可通信地耦合于该一个或多个处理器并且光学耦合于该透视显示器以跟踪到该透视显示器的视野中的所标识的一个或多个现实对象的图像数据以致使该一个或多个现实对象的消失。 
本技术提供一种用于致使透视、混合现实显示设备系统的透视显示器的视野中的现实对象消失的方法的实施例。该方法包括接收标识用于消失的主题的物理动作的用户输入,所述主题包括当前在该透视显示器的视野中的用于消失的现实对象。用于消失的主题被存储在用户消失准则中。根据更改技术跟踪到用于消失的现实对象的图像数据。响应于标识要应用到当前在视野中的用于消失的现实对象的用户指定的更改技术,将该用户指定的更改技术选择为该更改技术。 
提供本发明内容以便以简化形式介绍将在以下具体实施方式中进一步描述的一些概念。本发明内容并非旨在标识所要求保护的主题的关键特征或必要特征,也不旨在用于帮助确定所要求保护的主题的范围。 
附图说明
图1A是描绘透视、混合现实显示设备系统的一个实施例的示例组件的框图。 
图1B是描绘透视、混合现实显示设备系统的另一实施例的示例组件的框图。 
图2A是被具体化为提供对硬件和软件组件的支持的眼镜的透视、混合现 实显示设备的实施例中的镜架的眼镜腿的侧视图。 
图2B是透视、近眼、混合现实设备的显示光学系统的实施例的俯视图。 
图3A是可以用于一个或多个实施例的透视、近眼、混合现实显示设备的硬件和软件组件的一个实施例的框图。 
图3B是描述处理单元的各组件的框图。 
图4是从软件角度看的用于致使透视、混合现实显示设备系统的显示器中的现实对象消失的系统的实施例的框图。 
图5A示出用户消失准则中的消失主题项数据记录的示例。 
图5B示出用户消失准则中的主题项数据记录的现实对象类型记录的数据字段的示例。 
图5C是用户消失准则中的当前感兴趣主题项数据记录的示例。 
图5D示出用于标识现实对象的元数据的示例。 
图5E示出用于无生命对象(inanimate object)的参考对象数据集的示例,其可表示在更改技术中用于取代对象(replacement object)的数据字段。 
图5F示出用于人的参考对象数据集的示例,其可表示在更改技术中用于取代对象的数据字段。 
图6A是用于确定现实和虚拟对象在显示设备系统的三维视野中的位置的方法的实施例的流程图。 
图6B是用于在显示设备的视野中标识一个或多个现实对象的方法的实施例的流程图。 
图6C是用于生成某地点的三维模型的方法的实施例的流程图。 
图6D是用于基于某地点的三维模型来确定现实和虚拟对象在显示设备系统的三维视野中的位置的方法的实施例的流程图。 
图7是用于基于满足用户消失准则而致使透视、混合现实显示设备系统的视野中的现实对象消失的方法的实施例的流程图。 
图8是用于致使透视、混合现实显示设备系统的视野中的现实对象消失的另一方法的实施例的流程图。 
图9是用于基于用于消失的现实对象的可见度来选择更改技术的过程的实施例的流程图。 
图10是在处于彼此的预定距离内的透视、混合现实显示设备系统之间共享更改图像数据的过程的实施例的流程图。 
图11是用于基于当前感兴趣主题而致使透视、混合现实显示设备系统的视野中的现实对象消失的另一方法的实施例的流程图。 
图12是用于针对消失的现实对象向用户提供冲突警告的过程的实施例的流程图。 
图13A、13B、13C和13D示出处理姿势用户输入的示例,所述姿势用户输入标识用于消失的现实对象。 
图14A、14B、14C和14D示出基于不同可见程度应用到满足用户消失准则的现实对象的不同更改技术的示例。 
图15A和15B示出致使不满足相关准则的现实对象消失的示例。 
图16是可用于实现托管(host)消失应用的网络可访问计算系统的计算系统的一个实施例的框图。 
图17是可以在本技术的各实施例中操作的示例性移动设备的框图。 
具体实施方式
本技术提供用于致使混合现实显示设备系统的透视显示器中的现实对象消失的各实施例。与在其他图像处理应用中一样,术语“对象”可以是指人或物。例如,作为用于标识什么在图像中的图案识别过程的一部分,可向图像数据中的人或物应用边缘检测。如上所述,通过透视、混合现实显示设备,用户能够真正地(literally)透视显示器并与现实世界交互,同时还看到由一个或多个软件应用生成的图像。 
在该显示设备系统上执行的软件应用标识用户消失准则。在某些示例中,用户消失准则可以基于用户输入,该用户输入具体标识用户不想要看到其相关对象的主题项。在某些示例中,主题可以是可跨越不同类型的对象体现的类别或一般性话题。例如,所标识的主题可以是一类人,诸如小丑。在另一示例中,主题可以是一类树。在其他示例中,主题项可以是指一个或一组特定对象。例如,主题可以是特定人(诸如某人的九岁大的兄弟)或特定物(诸如破坏了风景的位于特定地点的蜂窝塔)。在另一示例中,主题可以特定的人、地点、或 物,其中不同类型的对象与所述特定的人、地点或物有关。这种特定物的示例是特定的连锁餐馆。有关的对象的某些示例是穿着该连锁餐馆的员工制服的人、为该连锁餐馆做广告的告示牌、该连锁餐馆的路标、或容纳该连锁餐馆之一的建筑物。 
在某些实施例中,用户消失准则可以基于用户当前感兴趣的主题来确定。为了强调当前感兴趣的主题的信息,使不满足当前感兴趣的主题的相关准则的对象从显示器中消失。 
如下所述,图像数据在该透视显示器中被置于该透视显示器的视野中与主题项有关的现实对象的至少一部分上方。当用户的头、身体或眼睛凝视可能改变,或者现实对象的位置可能改变,或者两者均可能改变,所以覆盖的图像数据跟踪正在消失的现实对象相对于透视显示器的视野的位置。 
为了使对象消失,可以采用不同的更改技术。某些技术可以是用黑色图像数据覆盖现实对象或者通过跟踪到该对象的模糊图像数据来遮蔽(obscure)现实对象的简单的修订效果(redaction effect)。其他技术可涉及在显示器中用虚拟的不同类型的对象来取代该现实对象。例如,如果要遮挡(block)小丑,则可在透视显示器中显示跟踪现实小丑的移动的化身(avatar)。在其他示例中,可采用擦除技术(erasure technique)。擦除技术的一种实现技术的一个示例是显示现实对象后的事物的图像数据来覆盖透视显示器中的该现实对象。在擦除技术的另一个实现示例中,通过复制围绕该现实对象的对象的图像数据来生成图像数据。显示该图像数据来覆盖该现实对象,从而有效地将该现实图像从显示器的视野中混合掉(blend out)。在某些实施例中,在该透视显示器的预定可见距离内的满足用户消失准则的现实对象的位置是用于选择用于现实对象的更改技术的基础。 
具体而言,在使用擦除技术时,某些实施例通过如下方式提供冲突避免安全特征:跟踪该透视、混合现实显示设备的位置或迹线(trajectory)以及“被擦除”的现实对象的相对位置或迹线,并且在“被擦除”的现实对象和该显示设备落入冲突距离内时输出安全警告。 
图1A是描绘透视、混合现实显示设备系统的一个实施例的示例组件的框图。系统8包括作为通过线6与处理单元4进行通信的近眼、头戴式显示设备 2的透明显示设备。在其他实施例中,头戴式显示设备2通过无线通信来与处理单元4进行通信。处理单元4可以采取各种实施例。在一些实施例中,处理单元4是可以佩戴在用户的身体(例如,在所示示例中的腕)上或置于口袋中的分开的单元,并且包括用于操作近眼显示设备2的计算能力中的大部分能力。处理单元4可在通信网络50上与一个或多个计算系统12无线地通信(例如,WiFi、蓝牙、红外、RFID传输、无线通用串行总线(WUSB)、蜂窝、3G、4G或其它无线通信装置),而无论如本示例中的位于附近,还是位于远程地点。在其他实施例中,处理单元4的功能可被集成在显示设备2的软件和硬件组件中。 
头戴式显示设备2(在本实施例中它是带框115眼镜的形状)被佩戴在用户的头上,使得用户可以透视显示器(在本示例中该显示器被体现为用于每一只眼睛的显示光学系统14),并且从而具有对该用户前方的空间的实际直接视图。使用术语“实际直接视图”来指直接用人眼看到现实世界对象的能力,而非看到对象的所创建的图像表示。例如,在房间中透过眼镜看将允许用户具有该房间的实际直接视图,而在电视机上查看房间的视频不是该房间的实际直接视图。基于执行软件(例如,游戏应用)的上下文,该系统可以将虚拟对象的图像(有时称为虚拟图像)投影在可由佩戴该透明显示设备的人观看的显示器上,同时该人还透过该显示器观看现实世界对象。因此,每个显示光学系统14是其相应眼睛的透视显示器,而这两个显示光学系统14还可共同被称为透视显示器。 
镜架115提供用于将该系统的各元件保持在原位的支承体以及用于电连接的管道。在该实施例中,镜架115提供了便利的眼镜架作为对下面进一步讨论的系统的各元件的支承体。在其他实施例中,可以使用其他支承结构。这样的结构的示例是帽舌或护目镜。镜架115包括用于搁在用户的每一只耳朵上的镜腿或侧臂。镜腿102代表右镜腿的实施例,并且包括显示设备2的控制电路136。镜架的鼻梁104包括用于记录声音并向处理单元4传送音频数据的话筒110。 
计算系统12可以是计算机、游戏系统或控制台、或这些中的一个或多个的组合。应用可以在计算系统12上执行,或者可以在透视、混合现实显示设备8中执行。 
在本实施例中,计算系统12可通信地耦合于一个或多个捕捉设备20A和20B。在其他实施例中,可使用多于或少于两个捕捉设备来捕捉房间或用户的其他物理环境。捕捉设备20A和20B可以是例如相机,该相机在视觉上监视一个或多个用户和周围空间,从而可以捕捉、分析并跟踪该一个或多个用户所执行的姿势和/或移动以及周围空间的结构。姿势担当应用内的一个或多个控制或动作和/或用于将化身或屏幕上角色动画化。 
捕捉设备20A和20B可以是深度相机。根据一示例性实施例,每个捕捉设备20A、20B可被配置为通过可包括例如飞行时间、结构化光、立体图像等在内的任何合适的技术来捕捉包括深度图像的带有深度信息的视频,该深度图像可包括深度值。根据一个实施例,该捕捉设备20A、20B可将深度信息组织成“Z层”,即可与从深度相机沿其视线延伸的Z轴垂直的层。捕捉设备20A、20B可包括图像相机组件,该图像相机组件可包括用于捕捉场景的深度图像的IR光组件、三维(3-D)相机、以及RGB相机。深度图像可包括被捕捉的场景的二维(2-D)像素区域,其中2-D像素区域中的每一个像素都可以(例如以厘米、毫米等等为单位)表示来自相机的被捕捉的场景中的对象的长度。 
每个捕捉设备(20A和20B)还可包括话筒(未示出)。计算环境12可以连接到诸如电视机、监视器、高清电视机(HDTV)等可提供游戏或应用视觉的视听设备16。在一些情况下,视听设备16可以是三维显示设备。在一个示例中,视听设备16包括内置扬声器。在其他实施例中,视听设备16、单独的立体声系统或计算系统12连接到外部扬声器22。 
图1B是描绘可通过通信网络50与其他设备通信的透视、混合现实显示设备系统8的另一个实施例的示例组件的框图。在该实施例中,近眼显示设备2与作为处理单元4的示例实施例的移动计算设备5进行通信。在所示示例中,移动设备5经由线6进行通信,但在其他示例中通信也可以是无线的。 
而且,如在计算系统12中一样,应用(比如消失应用(参见下面的456))可在移动设备5的处理器上执行,用户动作控制该应用并且该应用可通过显示光学系统14显示图像数据。移动设备5的显示器7还可显示用于执行应用的数据(例如菜单),并且可以是触摸敏感的,以接收用户输入。移动设备5还提供用于使用有线或无线通信协议经由有线或无线通信介质通过因特网50或 经由另一通信网络50(例如,WiFi、蓝牙、红外、RFID传输、WUSB、蜂窝、3G、4G或其他无线通信手段)与其他计算设备(比如计算系统12)通信的网络接口。像计算系统12等远程网络可访问的计算系统可被像移动设备5等处理单元4充分利用来提供处理能力和远程数据访问。移动设备5的硬件和软件组件(例如可被包括在智能电话或平板计算设备中)的示例在图17中描述,并且这些组件可以包括处理单元4的硬件和软件组件,如在图3B的实施例中讨论的那些组件。移动设备5的一些其他示例是智能电话、膝上型计算机或笔记本计算机以及上网本计算机。 
图2A是被具体化为提供对硬件和软件组件的支持的眼镜的透视、混合现实显示设备的实施例中的镜架115的眼镜腿102的侧视图。在镜架115的前部是面向物理环境的视频相机113,其可捕捉发送给处理单元4、5的视频和静态图像。具体而言,在其中显示设备2没有结合像系统12的捕捉设备20a和20b等深度相机操作的某些实施例中,面向物理环境的相机113可以是深度相机以及对可见光敏感的相机。该相机可包括一个或多个深度传感器和相应的红外照明器以及可见光检测器。头戴式显示设备2的相机113中可包括(而不限于此)的检测器的其他示例是SONAR、LIDAR、结构化光、和/或被定位为检测该设备的佩戴者可能正在观看的对象的飞行时间(Time of Flight)距离检测器。 
来自相机的数据可被发送到控制电路136的处理器210、或处理单元4,5、或者这两者,它们可以处理该数据,但单元4,5也可将数据通过网络50或发送到一个或多个计算机系统12。该处理标识并映射用户的现实世界视野。另外,面向物理环境的相机113还可包括用于测量环境光的曝光计。 
控制电路136提供支持头戴式显示设备2的其他组件的各种电子装置。控制电路136的更多细节在下文参考图3A提供。在镜腿102内部或安装到镜腿102的是耳机130、惯性传感器132、一个或多个地点传感器144(例如,GPS收发器)、红外(IR)收发器、用于经由眼睛移动检测命令的任选的电脉传感器128、以及温度传感器138。在一个实施例中,惯性传感器132包括三轴磁力计132A、三轴陀螺仪132B、以及三轴加速度计132C(参见图3A)。惯性传感器用于感测头戴式显示设备2的位置、定向、以及突然加速。从这些移动中,也可以确定头部位置。 
图像源或图像生成单元120可安装到眼镜腿102或在眼镜腿102内部。在一个实施例中,图像源包括用于投射一个或多个虚拟对象的图像的微显示器120和用于将来自微显示器120的图像导入光导光学元件112中的透镜系统122。透镜系统122可包括一个或多个透镜。在一个实施例中,透镜系统122包括一个或多个准直的透镜。在所示示例中,光导光学元件112的反射元件124接收透镜系统122所定向的图像。 
存在着可用于实现微显示器120的不同的图像生成技术。例如,微显示器120可以使用透射投影技术来实现,其中光源由光学有源材料来调制,用白光从背后照亮。微显示器120还可使用反射技术来实现,其中外部光被光学活性材料反射并调制。数字光处理(DLP)、硅基液晶(LCOS)以及高通公司的 
Figure BDA00002249755000091
显示技术都是反射技术的示例。另外,微显示器120可使用发射技术来实现,其中由显示器产生光,例如,Microvision有限公司的PicoPTM显示引擎。 
图2B是透视、近眼、混合现实设备的显示光学系统14的实施例的俯视图。近眼显示设备2的镜架115的一部分将围绕显示光学系统14以用于为所示的一个或多个透镜提供支撑和进行电连接。为了示出头戴式显示设备2中的显示光学系统14(在该情况下是右眼系统14r)的各个组件,在显示光学系统周围的镜架115的一部分未被描绘。 
在一个实施例中,显示光学系统14包括光导光学元件112、不透明度过滤器114、透视透镜116和透视透镜118。在一个实施例中,不透明度过滤器114处于透视透镜116之后并与其对准,光导光学元件112处于不透明度过滤器114之后并与其对准,并且透视透镜118处于光导光学元件112之后并与其对准。透视透镜116和118是眼镜中使用的标准透镜,并且可根据任何处方(包括无处方)来制作。在一些实施例中,头戴式显示设备2将仅仅包括一个透明透镜或者不包括透明透镜。不透明度过滤器114滤除自然光(要么以每像素为基础,要么均匀地)以增强虚拟图像的对比度。光导光学元件112将人造光引导至眼睛。下面提供光导光学元件112和不透明度过滤器114的更多细节。 
光导光学元件112将来自微显示器120的光传送到佩戴头戴式显示设备2的用户的眼睛140。光导光学元件112还允许如表示显示光学系统14r的光轴 的箭头142所示那样将光从头戴式显示设备2的前方通过光导光学元件112传送到眼睛140,由此除接收来自微显示器120的虚拟图像之外还允许用户具有头戴式显示设备2的前方的空间的实际直接视图。因此,光导光学元件112的壁是透视的。光导光学元件112包括第一反射面124(例如镜面或其他表面)。来自微显示器120的光穿过透镜122并入射在反射面124上。反射面124反射来自微显示器120的入射光,使得光通过内反射而被捕获在包括光导光学元件112的平面衬底内。 
在衬底的表面上进行若干反射之后,所捕获的光波到达选择性反射面126的阵列。注意,五个表面中只有一个表面被标记为126以防止附图太过拥挤。反射面126将从衬底出射并入射在这些反射面上的光波耦合到用户的眼睛140。在一个实施例中,每只眼睛将具有其自己的光导光学元件112。当头戴式显示设备具有两个光导光学元件时,每只眼睛都可以具有其自己的微显示器120,该微显示器120可以在两只眼睛中显示相同图像或者在两只眼睛中显示不同图像。在另一实施例中,可以存在将光反射到两只眼睛中的一个光导光学元件。 
与光导光学元件114对齐的不透明度过滤器112要么均匀地,要么以每像素为基础来选择性地阻挡自然光,以免其穿过光导光学元件112。在一个实施例中,不透明度过滤器可以是透视LCD面板、电致变色膜(electrochromic film)或能够充当不透明度过滤器的类似设备。通过从常规LCD中除去衬底、背光和漫射体的各层,可以获得这样的透视LCD面板。LCD面板可包括一个或多个透光LCD芯片,所述透光LCD芯片允许光穿过液晶。例如,在LCD投影仪中使用了这样的芯片。 
不透明度过滤器114可以包括致密的像素网格,其中每个像素的透光率能够在最小和最大透光率之间被个别化地控制。尽管0-100%的透光率范围是理想的,然而更有限的范围也是可以接受的。在一个示例中,100%的透光率表示完美清澈的透镜。可以从0-100%定义“阿尔法(alpha)”标度,其中0%不允许光穿过,并且100%允许所有光穿过。可以由下面描述的不透明度过滤器控制单元224为每个像素设置阿尔法的值。在用代理为现实世界对象进行z-缓冲(z-buffering)之后,可以使用来自渲染流水线的阿尔法值的掩码(mask)。 
当系统为增强现实显示而呈现场景时,该系统注意到哪些现实世界对象处 于哪些虚拟对象之前。在一个实施例中,显示器和不透明度过滤器被同时渲染,并且被校准到用户在空间中的精确位置以补偿角度偏移问题。眼睛跟踪可用于计算视野的末端处的正确的图像偏移。如果虚拟对象处于现实世界对象之前,则不透明度对于该虚拟对象的覆盖区域而言被开启。如果虚拟对象(虚拟地)处于现实世界对象之后,则不透明度以及该像素的任何颜色都被关闭,使得对于现实光的该相应区域(其大小为一个像素或更多)而言,用户将会仅仅看到现实世界对象。覆盖可以是以逐像素为基础的,所以该系统可以处理虚拟对象的一部分处于现实世界对象之前、该虚拟对象的一部分处于现实世界对象之后、以及该虚拟对象的一部分与现实世界对象相重合的情况。不透明度过滤器帮助虚拟对象的图像表现得更真实并且表示全范围的颜色和强度。于2010年9月21日提交的美国专利申请号12/887,426“Opacity Filter For See-Through Mounted Display(用于透射安装显示器的不透明度过滤器)”中提供了不透明度过滤器的更多细节,该专利申请的全部内容通过引用并入本文。 
头戴式显示设备2还包括用于跟踪用户的眼睛位置的系统。如下面将会解释的那样,该系统将跟踪用户的位置和定向(orientation),使得该系统可以确定用户的视野。然而,人类将不会察觉处于其之前的所有事物。相反,用户的眼睛将对准环境的子集。因此,在一个实施例中,该系统将包括用于跟踪用户的眼睛位置的技术以便细化对用户视野的测量。例如,头戴式显示设备2包括眼睛跟踪部件134(参见图2B),该眼睛跟踪部件134将包括眼睛跟踪照明设备134A和眼睛跟踪相机134B(参见图3A)。 
在一个实施例中,眼睛跟踪照明源134A包括一个或多个红外(IR)发射器,这些红外发射器向眼睛发射IR光。眼睛跟踪相机134B包括一个或多个感测所反射的IR光的相机。通过检测角膜的反射的已知成像技术,可以标识出瞳孔的位置。例如,参见2008年7月22日颁发给Kranz等人的、名称为“Head mounted eye tracking and display system(头戴式眼睛跟踪和显示系统)”的美国专利7,401,920,该专利通过引用结合于此。这样的技术可以定位眼睛的中心相对于跟踪相机的位置。一般而言,眼睛跟踪涉及获得眼睛的图像以及使用计算机视觉技术来确定瞳孔在眼眶内的位置。在一个实施例中,跟踪一只眼睛的位置就足够了,因为眼睛通常一致地移动。然而,单独地跟踪每只眼睛是可能 的。或者,眼睛跟踪相机可以是使用眼睛的基于任何运动的图像在有或没有照明源的情况下检测位置的跟踪相机的替换形式。 
跟踪眼睛移动的另一个实施例是基于电荷跟踪(charge tracking)的。该方案基于如下观察:视网膜携带可测量的正电荷并且角膜具有负电荷。在某些实施例中,传感器128通过用户的耳朵来安装(靠近耳机130)以检测眼睛在转动时的电势并且有效地实时读出眼睛正在进行的动作。(参见2010年2月19日的“用眼球激活的耳机控制你的移动音乐!”[2011年7月12日获取自因特网:http://www.wirefresh.com/control-your-mobile-music-with-eyeball-actvated-headp hones]。)眨眼也可作为命令被跟踪。还可使用用于跟踪眼睛移动的其他实施例,诸如眨眼,其是基于从装载在眼镜内部上的眼睛跟踪相机134B的图像数据中的图案和运动识别的。 
在以上实施例中,所示出的具体数量的透镜只是示例。可以使用其他数目和配置的根据相同原理操作的透镜。另外,图2A和2B仅示出头戴式显示设备2的一半。完整的头戴式显示设备可包括另一组透视透镜116和118、另一不透明度过滤器114、另一光导光学元件112、另一微显示器120、另一透镜系统122、面向物理环境的相机113(也称面向外部或面向前方的相机113)、眼睛跟踪组件134、耳机130、传感器128(如果存在)、以及温度传感器138。在通过引用包含于此的2010年10月15日提交的题为“Fusing Virtual Content Into Real Content”(将虚拟内容融合到现实内容中)的美国专利申请号12/905952中示出头戴式显示器2的附加细节。 
图3A是可以用于一个或多个实施例的透视、近眼、混合现实显示设备2的硬件和软件组件的一个实施例的框图。图3B是描述处理单元4,5的各组件的框图。在这一实施例中,近眼显示设备2接收来自处理单元4,5的关于虚拟图像的指令并将来自传感器的数据提供回处理单元4,5。例如在图3B中描绘的可被实现在处理单元4,5中的软件和硬件组件从显示设备2接收传感数据并且还可通过网络50从计算系统12接收传感信息(参见图1A和1B)。基于这一信息,处理单元4、5将确定在何处以及在何时向用户提供虚拟图像并相应地将指令发送给显示设备12的控制电路136。 
注意,图3A的某些组件(例如,朝向外部或物理环境的相机113、眼睛相机134、微显示器120、不透明度过滤器114、眼睛跟踪照明单元134A、耳机130、传感器128(如果存在)、以及温度传感器138)以阴影显示,以指示那些设备中的每一个可以有至少两个,其中至少一个在头戴式显示设备2的左侧而至少一个在右侧。图3A示出控制电路200与电源管理电路202进行通信。控制电路200包括处理器210、与存储器244(例如D-RAM)进行通信的存储器控制器212、相机接口216、相机缓冲区218、显示驱动器220、显示格式化器222、定时生成器226、显示输出接口228、以及显示输入接口230。在一个实施例中,控制电路200的所有组件经由一个或多个总线的专用线路彼此进行通信。在另一实施例中,控制电路200的每个组件都与处理器210通信。 
相机接口216提供到两个面向物理环境的相机113和每一眼睛相机134的接口,并且将从相机113、134接收到的相应图像存储在相机缓冲区218中。显示驱动器220将驱动微显示器120。显示格式化器222可以向执行该混合现实系统的处理的一个或多个计算机系统(例如4、5、12、210)的一个或多个处理器提供与被显示在微显示器120上的虚拟图像有关的信息。显示格式化器222可向不透明度控制单元224标识关于显示光学系统14的像素的透射率设置。定时生成器226被用于向该系统提供定时数据。显示输出接口228包括用于将来自面向物理环境的相机113和眼睛相机134的图像提供给处理单元4、5的缓冲区。显示输入接口230显示包括用于接收诸如要在微显示器120上显示的虚拟图像之类的图像的缓冲区。显示输出228和显示输入230与作为到处理单元4、5的接口的带接口232进行通信。 
电源管理电路202包括电压调节器234、眼睛跟踪照明驱动器236、音频DAC和放大器238、话筒前置放大器和音频ADC 240、温度传感器接口242、电脉冲控制器237、以及时钟生成器245。电压调节器234通过带接口232从处理单元4、5接收电能,并将该电能提供给头戴式显示设备2的其他组件。照明驱动器236例如经由驱动电流或电压来控制眼睛跟踪照明单元134A以大约预定波长或在某一波长范围内操作。音频DAC和放大器238向耳机130提供音频数据。话筒预放大器和音频ADC 240提供话筒110的接口。温度传感器接口242是用于温度传感器138的接口。电脉冲控制器237从传感器128(如 果其被显示设备2实现)接收指示眼睛移动的数据。电源管理单元202还向三轴磁力计132A、三轴陀螺仪132B以及三轴加速度计132C提供电能并从其接收回数据。电力管理单元202还向一个或多个位置传感器144提供电力并从所述位置传感器接收数据并向其发送数据,在本示例中该一个或多个地点传感器包括GPS收发器和IR收发器。 
图3B是与透视、近眼、混合现实显示单元相关联的处理单元4的硬件和软件组件的一个实施例的框图。移动设备5可包括硬件和软件组件的这一实施例以及执行类似功能的类似组件。图3B示出控制电路304与电源管理电路306进行通信。控制电路304包括中央处理单元(CPU)320,图形处理单元(GPU)322,高速缓存324,RAM 326,与存储器330(例如,D-RAM)进行通信的存储器控制器328,与闪存334(或其他类型的非易失性存储)进行通信的闪存控制器332,经由带接口302和带接口232与透视、近眼显示设备2进行通信的显示输出缓冲区336,经由带接口302和带接口232与近眼显示设备2进行通信的显示输入缓冲区338,与用于连接到话筒的外部话筒连接器342进行通信的话筒接口340,用于连接到无线通信设备346的PCI express接口,以及USB端口348。 
在一个实施例中,无线通信组件346包括启用Wi-Fi的通信设备、蓝牙通信设备、红外通信设备、蜂窝、3G、4G通信设备、无线USB(WUSB)通信设备、RFID通信设备等等。无线通信设备346由此允许与例如另一显示设备系统8的端对端数据传输,以及经由无线路由器或基塔连接到较大网络。USB端口可被用于将处理单元4、5接驳到另一显示设备系统8。另外,处理单元4、5可接驳到另一计算系统12以便将数据或软件加载到处理单元4、5以及对处理单元4、5充电。在一个实施例中,CPU 320和GPU 322是用于确定在何处、何时以及如何向用户的视野内插入虚拟图像的主负荷设备。 
电源管理电路306包括时钟生成器360,模数转换器362,电池充电器364,电压调节器366,透视、近眼显示器电源376,以及与温度传感器374进行通信的温度传感器接口372(位于处理单元4的腕带上)。交流电到直流电转换器362被连接到充电插座370来接收AC电源并为该系统产生DC电源。电压调节器366与用于向该系统提供电能的电池368进行通信。电池充电器364被 用来在从充电插座370接收到电能后对电池368进行充电(经由电压调节器366)。设备电源接口376向显示设备2提供电能。 
图像数据可被应用到在一地点中所标识的、并且在透视、混合现实显示设备系统的用户视野内的现实对象。用户的环境中的现实对象(比如人和物)的地点被跟踪以跟踪到其预期现实对象的虚拟对象。为了图像处理的目的,人和物两者均可以是对象,而对象可以是现实对象(物理上存在的某事物)或显示设备2所显示的图像中的虚拟对象。在上面讨论的硬件组件的一个或多个上执行的软件使用传感器(诸如相机、定向传感器以及一个或多个地点传感器)和网络连接所提供的数据来跟踪用户的环境中的现实和虚拟对象。 
通常,虚拟对象是以三维显示的,以便正像用户与三维空间中的现实对象交互一样,用户可与三维空间中的虚拟对象交互。接下来讨论的图4到图12以不同的细节水平描述了各方法的实施例、处理图像数据的示例性数据结构和软件组件、用于致使满足用户消失准则的现实对象从透视显示器中消失的用户输入和用户消失准则。 
图4是从软件角度看的用于致使现实对象在透视、混合现实显示设备系统的显示器中消失的系统的实施例的框图。在本实施例中,执行作为客户端侧或设备消失应用4561的某版本的消失应用的透视混合现实显示设备系统8通过网络50可通信地耦合于执行作为服务器侧消失应用456的另一版本的消失应用的计算系统12。在本实施例中,本地和服务器侧版本的不同应用(消失456、其他应用462、推送服务应用459等)中的每一个执行相同的功能。所讨论的处理可完全由显示设备系统8的软件和硬件组件执行。例如,用于显示系统8的本地消失应用4561可基于其本地资源标识用于消失的现实对象并跟踪到该现实对象的图像数据。服务器侧版本比本地版本具有对它们可用的更多硬件资源,诸如更大的本地存储器大小以及专用的处理器。在其他示例中,服务器侧消失应用456对于显示系统设备8远程地执行对用于消失的现实对象的标识以及到用于消失的现实对象的图像数据的跟踪。在其他示例中,不同版本利用它们的资源并共享处理。 
在本实施例中,系统8、461和12中的每一个通过一个或多个网络50可通信地耦合到下面进一步讨论的各数据库,诸如参考对象数据集474、图像数 据库470、以及用户简档数据库460。 
其他基于处理器的系统461的某些示例是其他透视、混合现实显示设备系统、其他头戴式显示系统、服务器、比如移动电话、智能电话、上网本、笔记本等移动设备等等以及台式计算机。这些其他基于处理器的系统461与显示设备系统8通信以提供来自应用中的一个或多个的各种多媒体格式的数据,像是文本、音频、图像和视频数据。例如,该数据可以是用户所在的相同地点的朋友的视频,或者示出来自该用户的朋友列表上的其他人的消息的社交网络页面。如在下面的示例中讨论的,这种数据也可以是发送者不希望看到的现实对象的图像消失数据。以此方式,接收者用户可查看被更改以从接收者的视野中遮蔽发送者不想要的现实对象的场景。 
显示设备系统8和其他基于处理器的系统461执行客户端侧版本的推送服务应用459N,所述推送服务应用459N通过通信网络50与信息推送服务应用459通信。用户可向信息推送服务应用459注册帐户,该信息推送服务应用准许信息推送服务许可以监视用户正在执行的应用及其生成和接收的数据以及用户简档数据460N,以及用于跟踪用户的地点和设备能力的设备数据464N。 
在一个实施例中,计算系统12包括用户简档数据库460,该用户简档数据库可聚集来自存储在该用户的不同用户计算机系统8、461上的用户简档数据的数据。用户简档数据的本地副本4601、460N可存储相同用户简档数据460的一部分并可通过通信网络50周期性地用由计算机系统12存储在可访问数据库中的用户简档数据460更新其本地副本。用户消失准则473也可被存储在用户简档数据460中。用于消失的主题数据410和当前感兴趣的主题数据420均是用户消失准则473的类型。 
图5A示出用户消失准则473中的消失主题项数据记录410的示例。在本示例中,主题标识符412可包括人、地点或物的标识符,且该标识符可指示人、地点或物的类别或类型。该标识符还可引用(reference)具体的人、地点或物。在某些示例中,该标识符可以是对人、地点或物的图像的存储地点的引用。例如,图13A到图13D示出了作为指示一人被从用户对山的视图中除去的用户输入的姿势的示例。用户可能不知道她或他正在看并且请求消失的人、地点或物的名字,所以图像存储地点引用(例如,文件名)标识图像数据,作为用于 标识该主题的基础。地点信息也可以是用于主题标识的基础。 
消失应用456、4561基于该标识符412代表的消失主题将一个或多个现实对象类型414与该主题标识符412相关联。类似地,消失应用456将一个或多个主题关键词416与数据记录410中的主题标识符412相关联。例如,消失应用456、4561可与搜索应用462、4621接口(interface)以标识该主题的同义词和相关词,该搜索应用将该同义词和相关词返回给消失应用456、4561。所述关键词在为满足用户消失准则的任何现实对象查找现实对象元数据中的匹配时进行协助。主题标识符412和关键词416还可通过在参考对象数据集中查找匹配来标识与该主题有关的现实对象类型414。在某些示例中,用户输入也可标识现实对象类型414和主题关键词416。 
图5B示出用户消失准则473中的消失主题项数据记录410的现实对象类型记录的数据字段的示例。对于每个现实对象类型414,更改技术指示符415指示用于使该现实对象消失的更改技术。用户可指示该更改技术,并且该应用可提供一个或多个缺省更改技术。更改技术的一些示例包括擦除、修订(redaction)、模糊化(blurring)和用另一对象取代。如果取代是所指示的更改技术,则用户可任选地标识取代对象417,该取代对象可以是具体的,或者指代一种类型的对象。取代对象417可存储该取代对象的显示数据(参见下面的472)或指向该显示数据的标识符。该显示数据可以是下面描述的参考对象数据集474的实例化。 
用户可指示用户希望消失的主题,但是用户也可指示当前感兴趣的主题。对于当前感兴趣的主题,标识该主题的一个或多个感兴趣的现实对象类型。相关性准则被应用到元数据(参见图5C),其描述具有与感兴趣的现实对象类型中的至少一个相匹配的类型(例如,路标)的现实对象。如果所述一个或多个感兴趣的对象类型的一现实对象不满足该相关性准则,则使该现实对象消失。在某些示例中,用户输入可直接标识当前感兴趣的主题,而消失应用456、4561经由标识当前感兴趣的主题的一个或多个现实对象类型的一个或多个电子地提供的请求来提示(prompt)用户。例如,一用户可能对中餐馆感兴趣,并且希望减少她对一条繁忙街道上的建筑物符号的视图的混乱。然而,使所有现实对象(包括她前方的街道)消失可能是危险的,并且在定位中餐馆时没有帮助。 
在某些情况下,该用户已经由另一执行的应用462指示了当前感兴趣的主题,并且该应用与消失应用456、4561通信以标识该当前感兴趣的主题、主题关键词(特别是与应用462相关的那些)、以及感兴趣的现实对象类型424。例如,对于汽车导航应用示例,不同类型的路标可被标识为感兴趣的现实对象类型。该执行的应用选择更改指示符414以及任何可应用的取代对象417。 
在某些示例中,消失应用456提供软件接口,例如应用编程接口(API),该接口定义用于定义现实对象类型414、主题标识符412、主题关键词416、相关性准则428(例如,用于确定相关性的规则)的数据格式。 
图5C示出了用户消失准则数据473中的当前感兴趣主题项数据记录420的示例。主题标识符422被指派(assign),并且像消失主题一样,标识符422可以是对另一存储位置的引用、标识一种类型的人、地点或物、或者是对具体的人、地点或物的引用。如同上面讨论的,现实对象类型数据记录414被存储并包括更改技术指示符415并且任选地包括取代对象标识符417。类似地,一个或多个主题关键词416可与标识符422相关联,例如通过请求并从搜索应用462接收关键词。而且,为感兴趣的主题指派相关性准则428。在某些情况下,相关性准则428可以是执行的应用462所提供的规则,通过其来标识当前感兴趣的主题。一组缺省规则也可实现相关性准则428。 
消失应用为该组缺省规则实现的逻辑的一个示例是:一现实对象具有与当前感兴趣的现实对象类型相同的类型,以及该现实对象的元数据包括主题关键词416或主题标识符422中的至少一个。 
正如图5B的示例一样,在某些情况下用户可选择更改技术和任何可应用的取代对象标识符。在其他示例中,与消失应用456、4561接口的执行的应用462、4621设置更改技术指示符415以选择用于一现实对象类型的更改技术并设置任何可应用的取代对象417。 
在某些情况下,主题项数据记录410、420可被临时地存储。事件触发器可向用户提示他或她是否希望将该主题在非易失性存储器中存储为消失主题或感兴趣的主题以供稍后检索的电子地提供的请求,事件触发器的一些示例是:用于消失的对象不再在视野中,用户已移出一地点、或已接收到将该主题标识为不再感兴趣的数据。请求在被显示、被作为音频数据播放、或这两者地 结合时被电子地提供。还可以为更改技术和取代对象偏好来电子地提供请求。如果用户没有任何指定,则可选择缺省更改技术和用于该缺省技术的任何取代对象。 
用户简档数据一些其他示例是:用户所表达的偏好、用户的朋友的列表、用户的偏好的活动、用户的提醒的列表、用户的社会团体、用户的当前地点、以及其他用户创建的内容,诸如用户的照片、图像和记录的视频。在一个实施例中,用户特定的信息可以从一个或多个应用和数据源获得,诸如:用户的社交站点、地址簿、来自日历应用的排程数据、电子邮件数据、即时消息收发数据、用户简档或者因特网上的其他源以及该用户直接输入的数据。 
该推送服务应用459的每个版本还在用户简档数据460中存储该用户的跟踪历史。在跟踪历史中跟踪的事件、人和物的一些示例是:所访问的地点、事务、购买的内容和现实物品、以及所检测到的该用户与其交互的人。如果电子地标识的朋友(例如,社交网络朋友、联系人列表)也注册到推送服务应用459,或者他们通过到该用户的数据或通过其他应用466公开地使信息可用,则推送服务应用459还可使用此数据来跟踪该用户的社会情境(social context)。随时间跟踪所访问的地点,并且在用户接近熟悉的地点时允许用于消失的现实对象和它们的更改图像数据被存储、预取(prefetch)、并为下载做好准备。 
可基于一个或多个检测传感器获得混合现实设备系统8的地点标识符数据。在某些情况下,计算系统12与混合现实设备上的检测传感器(比如一个或多个收发机144)通信。如在以下示例中讨论的,来自一个或多个不同类型的地点检测传感器的数据可被用来获得地点标识符数据。基于来自处理单元4(例如当该单元被具体化为移动设备5时)的信号,蜂窝塔三角测量(cell tower triangulation)可被用来标识混合现实显示设备系统的地点。可从该显示设备的GPS收发机获得全球定位系统(GPS)数据,或者如在图17中公开的,可从处理单元5中的GPS收发机965获得GPS数据,以标识混合现实设备的地点。GPS技术可用于在用户进入地理围栏(geofence)时进行标识。地理围栏标识符可被用于检索(retrieve)该地理围栏内的区域的图像,以及在某些情况下从图像数据生成的该区域的三维模型。 
面积较小的地点或空间也可通过其他类型的无线检测传感器(诸如无线通 用串行总线(WUSB)收发器、蓝牙收发器、RFID收发机或IR收发器,例如346、144)来描绘或围出。标识数据可以与计算机系统12或其他计算机系统461,包括其他透视混合现实显示设备系统,交换。在其他示例中,计算系统12与中间检测传感器通信。这种中间检测传感器的一个示例是无线网络接入点,例如,WiFi,显示系统8通过该接入点可通信地耦合到计算机系统12。网络接入点的地点由计算系统12存储。面向物理环境或面向外的相机113也可单独地或与其他传感器数据(例如GPS坐标数据)结合地用作地点检测传感器。可使用图案识别软件(pattern recognition software)将该图像数据与其他图像比较以标识匹配。 
设备数据464可以包括:计算机系统8的唯一标识符、网络地址(例如IP地址)、型号、配置参数(诸如所安装的设备)、操作系统、以及什么应用在该显示设备系统8中可用并在该显示系统8中执行等等。尤其对于透视、混合现实显示设备系统8,该设备数据还可包括来自传感器的或从所述传感器(诸如定向传感器132、温度传感器138、话筒110、电脉冲传感器128(如果存在)、以及一个或多个地点检测传感器346、144(例如,GPS收发器、IR收发器))确定的数据。图像数据469是被面向外的相机113捕捉并被存储以被分析来由计算系统12本地地或远程地检测现实对象的数据。 
在讨论应用图像数据以致使该透视、混合现实显示器的视野中的现实对象消失之前,首先呈现关于用于标识在一地点中且在透视显示器视野中的现实对象的组件的讨论。而且,标识虚拟对象(诸如与消失相关联的那些虚拟对象)的位置并且基于该现实世界的所接收的图像数据生成包括所述位置的图像数据。 
计算系统12可以使用一个或多个计算机系统实现。在本示例中,计算系统12通信地耦合到一地点中的一个或多个深度相机20A、20B以接收该位置的三维(3D)图像数据,从该三维图像数据可标识现实对象及其位置。 
来自面向外(从用户的头部向外)的相机113的图像数据可用于确定该透视显示器的视野,该透视显示器的视野近似于该用户的视野。相机113被放置在离每个显示光学系统14的光轴142的预定偏移处。该偏移被应用到相机113的图像数据以标识该显示器视野中的现实对象。基于相机113的分辨率或焦距 设置,可确定到视野中的现实对象的距离。在某些示例中,面向外的相机113可以是深度相机以及视频相机。 
如下面进一步描述的,在图像数据中标识现实对象并存储其外观特征475,例如存储在从计算机系统12通过通信网络50可访问的元数据430中,或本地存储在4301中。参考对象数据集474提供绑定到不同类型的对象的外观特征类别,并且这些参考对象数据集474可用于识别图像数据中的对象,并且用于选择虚拟对象的外观特征以便它们看上去真实。取代对象417标识符可存储参考对象数据集的实例化的标识符。 
图5D示出用于标识现实对象的元数据的示例。为所检测的每个现实对象指派并存储现实对象标识符431。此外,还可存储该对象在三维中的位置数据432。在此示例中,位置数据432包括迹线数据433,用于至少跟踪一对象通过一地点中的位置的移动的速度和方向。如下面在图6A到图6E中进一步讨论的,标识该现实对象相对于该显示设备的视野的位置。此外,位置数据432可跟踪在所定义的地点内,即便当前不在该显示设备视野内,的标识的一个或多个现实对象的位置。例如,该用户可处于商店、家、或其他地点中,该环境中的相机(比如捕捉设备20A、20B)在那里跟踪对象,包括在该地点的三维(3D)模型坐标系中在该商店中的佩戴显示设备2的用户。此外,基于地点的图像数据源(比如 
Figure BDA00002249755000211
)可提供地点的3D模型和其中的从图像档案中开发的现实对象。 
该位置数据还包括可见度434,该可见度基于该现实对象离显示设备系统8的位置。显示光学系统14的光轴142可以是参考点,从该参考点可以确定该现实对象的位置和迹线,并进而确定可见度。在某些实施例中,可见度被指派为对一地点的预定可见距离的细化。如下面讨论的,地点图像跟踪软件453(比如 
Figure BDA00002249755000212
)可提供为该用户正在佩戴的显示设备系统8所检测的一地点的预定可见距离479。例如,在Yosemite的Half Dome顶处被佩戴的显示设备可以看一百英里。由在高峰时间期间在繁忙的西雅图商业区街道上行走的用户佩戴的另一显示设备可具有约15米(即大致45英尺)的预定可见距离。 
可基于平均的人类视力数据来定义多个可见度来区分一个或多个身体部位的一组外观特征和移动。在许多实施例中,每个可见度至少表示该对象和该 显示设备2之间的距离范围和识别度。在某些示例中,该现实对象与每个光轴142的角度以及该现实对象相对于该显示设备的位置均可以作为基础。迹线也可以作为基础。(如下面提到的,即使一现实对象是静止的,迹线433也可被指派给该现实对象,因为显示设备系统8正在移动)。表示从较远到较近的距离的可见度的一些示例是:颜色识别度、关节移动识别度、以及面部移动识别度。在某些实施例中,用一不可见等级来标识预定可见距离之外的现实对象。 
该现实对象的地点数据435如果可用也可被存储。这可以是GPS数据或独立于显示设备2的视野的其他地点数据。 
可为该现实对象存储关键词436。在某些情况下,本地的或服务器侧的消失应用可能已将此现实对象标识为满足消失准则。例如,该现实对象是静止的并且在用户的工作地点中。在这种示例中,关键词包括主题标识符。关键词的其他起始源可以是由其他用户与该现实对象相关联的元数据,所述其他用户经由地点图像跟踪应用453(例如 
Figure BDA00002249755000221
)将他们的图像加载到位置图像数据库470中。而且,捕捉地点的数据的应用(比如存储应用462)可将关键词与在其地点中的现实对象相关联。此外,可基于由本地的或服务器侧的信息推送服务应用459从为该用户或其他用户执行的、准许对其进行监视的其他应用接收的数据为该现实对象指派关键词。消失应用456或4561也可基于与该现实对象有关的用户简档数据来指派关键词。 
来自下面讨论的标识处理的、描述该现实对象的物理特性或特征的外观特征数据集475也被存储在现实对象元数据430中。 
图5E示出无生命对象的参考对象数据集的示例。所述数据字段包括对象的类型481,所述对象的类型可以是还包括子字段的数据记录。针对对象的类型481,其他数据字段提供如下的数据记录:所述数据记录标识出对该类型的对象典型的外观特征的类型。例如,其他数据记录标识大小范围483、形状选择484、材料的类型485、表面纹理486、典型颜色487、典型图案488、表面491、以及每个表面的几何定向490。对象的参考对象数据集474像是模板。离线标识可能已经被人工地或被图案识别软件执行并被用作为该系统定义的每个类型的对象存储的每个参考数据集474的基础。在许多实施例中,虚拟对象(包括用于遮蔽或取代用于消失的现实对象的虚拟对象)的显示数据472包括 参考对象数据集的实例化。在一实例化中,该对象的数据字段中的至少一些(例如大小和颜色)被指派为特定值。 
在桌子作为对象类型的示例中,该对象类型的子字段可被选择为办公桌。大小范围483可以是如下范围的典型值:宽4到6英尺、长2到4英尺、以及高2到4英尺。可用颜色可以是褐色、银色、黑色、白色、海军蓝、米黄色或灰色。某人可能具有红色的办公桌,因此参考外观特征一般提供常见的或平均的参数。表面491可包括几何定向490指示为水平的平坦表面。从桌子的图像数据也可备注出竖直表面。该平坦表面的表面纹理486可以是平滑的,而可用图案488可指示木纹(wood grain)、以及乙烯反光的。木纹图案的类型可以是可用图案488记录的子字段或子记录。 
图5E示出用于人的参考对象数据集的示例,其可表示在更改技术中用于取代对象的数据字段。针对人对象数据集的类型492,其他数据字段提供如下的数据记录:所述数据记录标识出对该类型的人典型的外观特征的类型。人的类型可以是一类别,其一些示例为:小丑、教师、警察、工程师、法官和摇滚明星。对于人,数据字段和数据集的一些示例被示出为包括高度493、身体部位特征494、面部特征495、皮肤特性496、毛发特征497、服饰选择498、以及鞋选择499。身体部位特征数据的一些示例是:躯干宽度、胸宽、肌肉纹理、形状、腿长、膝盖相对于整条腿的位置、以及头形。面部特征的一些示例可包括:眼睛颜色、胎记或其他标记、唇形、鼻形、前额高度。比如眉毛形状和化妆等另外的特性也可作为数据被存储在人的面部特征中。 
如同上面提到的,参考对象数据集474还提供用于定义一消失的虚拟对象的外观特征的输入参数。在一个实施例中,消失显示数据472可定义虚拟对象的类型及其外观特征,以由显示设备2的微显示器120呈现。例如,这些参考对象474可被认为是虚拟对象的外观特征的模板和参数。对于显示数据472,在模板的实例化中选择具体数据值(例如具体颜色和大小)以生成要显示的实际的虚拟对象。例如,可以为每一个类型的对象定义类,而该消失应用在运行时用每个表面和该对象的大小、材料类型、颜色、图案、表面纹理、形状参数、以及几何定向的外观特征的参数来实例化相应类的虚拟对象。显示数据472可用标记语言实现。例如,可使用可扩展标记语言(XML)。在另一示例中,可 使用比如虚拟现实建模语言(VRML)等标记语言。 
现实对象的外观特征数据集475可具有与相同类型的参考数据对象集474类似地定义的字段和子集,但是包括基于该现实对象的捕捉的数据检测或确定的实际数据值。可能不能够为每个数据字段确定数据值。在某些实施例中,被指派的数据值是从参考对象数据集474所提供的可用类型的选集(selection)中选择的。 
除了解释命令以外,声音识别软件478还可被用于标识附近的用户和其他现实对象。面部和图案识别软件476还可用于检测并标识图像数据中的用户以及图像数据中的对象。用户输入软件477可接收标识用于控制应用的物理动作(比如姿势、特定的说出的语音命令或眼睛移动)的数据。该一个或多个物理动作可包括用户对于现实或虚拟对象的响应或请求。例如,在图13A到13D中,拇指姿势指示要使一现实对象消失。计算系统12的应用450、456和459在标识一地点中的用户和其他对象时也可传递请求并从服务器侧版本的声音识别软件478以及面部和图案识别软件476接收数据。 
图4的框图还表示用于识别图像数据中的物理动作的软件组件,这在下面进一步讨论。而且,处理该图像数据以及可用的传感器数据来确定透视、近眼显示设备2的视野内的对象(包括其他用户)的位置。这一实施例示出各设备可如何利用联网计算机来映射用户视野和周围空间的三维模型以及该模型内的现实和虚拟对象。在可通信地耦合到显示设备2的处理单元4、5中执行的图像处理应用451可通过一个或多个通信网络50将图像数据469从面向前的相机113传递到计算系统12中的深度图像处理和骨架跟踪应用450,以处理图像数据来确定并跟踪三维中的对象,所述对象包括人和物两者。在某些实施例中,此外,图像处理应用451可以在本地执行用于映射和定位3D用户空间中的对象的一些处理,并可与远程地点图像跟踪应用453进行交互来接收对象之间的距离。通过充分利用网络连接性,在应用之间共享处理的许多组合是可能的。 
深度图像和骨架跟踪应用450检测对象、标识对象以及它们在模型中的位置。应用450可基于来自深度相机(比如20A、20B)的深度图像数据、来自一个或多个面向外的相机113的两维或深度图像数据、以及从数据库470获得 的图像执行其处理。图像数据库470可包括对象的参考图像以在图案和面部识别(例如,如可由软件476执行)中使用。数据库470中的一个或多个中的图像中的一些还可经由由地点图像跟踪应用453与图像中的对象相关联的地点元数据435来访问。地点元数据的一些示例包括:GPS元数据、用于网络接入点(比如WiFi热点)的地点数据、基于蜂窝塔三角测量的地点数据、以及来自其他类型的无线收发器的地点数据。 
地点图像跟踪应用453基于从处理单元4、5或被标识为处于用户附近的其他定位单元(例如GPS单元)或两者接收到的地点标识符数据来标识一个或多个图像数据库470中的用户的地点的图像。此外,图像数据库470可提供希望分享自己的图像的用户上传的一地点的图像。该数据库可用地点元数据(比如GPS数据、WiFi SSID、基于蜂窝塔的三角测量数据、WUSB端口地点、或红外收发机的位置)来索引或可访问。地点图像跟踪应用453基于地点数据来向深度图像处理应用450提供图像中的对象之间的距离。在某些示例中,地点图像跟踪应用453提供地点的三维模型,而该模型可以是基于该地点中的相机所提供的实时图像数据更新而动态的。除了指定地点中的固定相机外,其他用户的显示设备系统8和移动设备可提供这样的更新。 是这种地点图像跟踪应用453的示例。 
深度相机处理和骨架跟踪应用450以及图像处理软件451两者均可为在图像数据中标识的现实对象生成元数据430。为了标识并跟踪视野或用户地点中的活物(不管如何至少是人),可执行骨架跟踪。 
面向外的相机113向计算系统12提供RGB图像(或其他格式或颜色空间的视觉图像)和深度图像(在某些示例中)。如果存在,捕捉设备20A和20B也可向计算系统12发送视觉图像和深度数据,计算系统12使用该RGB图像和该深度图像来跟踪用户的或对象的移动。例如,系统将使用深度图像来跟踪人的骨架。可以使用许多方法以通过使用深度图像来跟踪人的骨架。使用深度图像跟踪骨架的一个合适的示例在2009年10月21日提交的Craig等人发明的美国专利申请12/603,437“Pose Tracking Pipeline(姿态跟踪流水线)”中提供。(后文称为‘437申请),通过引用整体结合于此。 
‘437申请的过程包括:获得深度图像;对数据进行降采样;移除和/或平滑 化高方差噪声数据;标识并移除背景;以及将前景像素中的每个分配给身体的不同部位。基于这些步骤,系统将使一模型拟合到该数据并创建骨架。该骨架将包括一组关节和这些关节之间的连接。也可使用用于跟踪的其他方法。在下列四个美国专利申请中还公开了合适的跟踪技术,所述专利的全部内容都通过引用结合于此:于2009年5月29日提交的美国专利申请12/475,308“Device for Identifying and Tracking Multiple Humans Over Time(用于随时间标识和跟踪多个人类的设备)”;于2010年1月29日提交的美国专利申请12/696,282“Visual Based Identity Tracking(基于视觉的身份跟踪)”;于2009年12月18日提交的美国专利申请12/641,788“Motion Detection Using Depth Images(使用深度图像的运动检测)”;以及于2009年10月7日提交的美国专利申请12/575,388“Human Tracking System(人类跟踪系统)”。 
骨架跟踪数据标识哪些关节在一段时间内移动并被发送到姿势识别器引擎454,该姿势识别器引擎包括多个过滤器455来确定该图像数据中的任何人或对象是否执行了姿势或动作。姿势是用于用户向消失应用提供输入的物理动作。过滤器包括定义姿势、动作或状况以及该姿势或动作的参数或元数据的信息。例如,包括一只手从身体背面经过身体前方的运动的投掷可被实现为包括表示用户的一只手从身体背面经过身体前方的运动的信息的姿势,因为该运动可能由深度相机捕捉。随后可为该姿势设定参数。当姿势是投掷时,参数可以是这只手必须达到的阈值速度、这只手行进的距离(绝对的、或相对于用户的整体尺寸)、以及识别器引擎454对发生的姿势的置信度评级。用于姿势的这些参数可随时间在各应用之间、在单个应用的各个上下文之间、或在一个应用的一个上下文内变化。 
对过滤器的输入可包括诸如关于用户的关节位置的关节数据、在关节处相交的骨骼所形成的角度、来自场景的RGB颜色数据、以及用户的某一方面的变化速率等内容。来自过滤器的输出可包括诸如正作出给定姿势的置信度、作出姿势运动的速度、以及作出姿势运动的时间等内容。在某些情况下,仅两维图像数据可用。例如,面向前的相机113仅提供两维图像数据。从设备数据464,可标识面向前的相机113的类型,并且识别器引擎454可插入用于其姿势的两维过滤器。 
关于识别器引擎454的更多信息可在2009年4月13日提交的美国专利申请12/422,661“Gesture Recognizer System Architecture(姿势识别器系统体系结构)”中找到,该申请的全部内容通过引用结合于此。关于识别姿势的更多信息可在2009年2月23日提交的美国专利申请12/391,150“Standard Gestures(标准姿势)”;以及2009年5月29日提交的美国专利申请12/474,655“Gesture Tool(姿势工具)”中找到,这些申请的全部内容都通过引用结合于此。 
在显示设备系统8中执行的图像处理软件451也可具有深度图像处理能力或从来自面向外的相机113的立体图像对对象进行3D位置估计的能力。此外,图像处理软件451还可包括用于检测指示用户输入的一组姿势的逻辑。例如,一组手指或手的姿势可为可识别的。可使用骨架跟踪,但是图像数据中的手指或手的图案识别也可识别该组姿势中的姿势。 
在下面对标识用户附近的对象的讨论中,对面向外的图像数据的引用是引用来自面向外的相机113的图像数据。在这些实施例中,在相机位于与每个显示光学系统14的光轴142的相对小的偏移处时,面向外的相机113的视野近似用户的视野,并且在处理图像数据时将该偏移计入。 
图6A是用于确定现实和虚拟对象在显示设备系统的三维视野中的位置的方法的实施例的流程图。在步骤510,控制电路136、处理单元4、5、中枢计算系统12或这些的组合的一个或多个处理器从一个或多个面向外的相机接收图像数据,并且在步骤512标识面向外的图像数据中的一个或多个现实对象。在某些实施例中,面向外的图像数据是三维图像数据。来自定向传感器132(例如,三轴加速度计132C和三轴磁力计132A)的数据也可与面向外的相机113图像数据一起使用来对用户周围的事物、用户的脸部和头部的位置进行映射,以确定他或她可能在当时聚焦于哪些对象(现实或虚拟)。面部和图案识别软件476可通过与参考对象数据集474和存储在图像数据库470中的实际图像进行比较来标识人和物的对象。 
在步骤514中,执行面部和图案识别软件476的一个或多个处理器还标识每个现实对象的一个或多个外观特征,诸如对象的类型、大小、表面、几何定向、形状、颜色等。在步骤516中,为透视显示设备的视野中的每个现实对象确定三维(3D)位置。基于执行的应用,步骤518中的一个或多个处理器标识 视野中的一个或多个虚拟对象3D位置。换言之,每一对象相对于显示设备2位于何处,例如,相对于每一显示光学系统14的光轴142位于何处。 
图6B是用于在显示设备的视野中标识一个或多个现实对象的方法的实施例的流程图。这一实施例可被用于实现步骤512。在步骤520,佩戴显示设备2的用户的位置被标识。例如,经由移动设备5上GPS单元965(参见图17)的GPS数据或显示设备2上的GPS收发器144可标识用户的位置。附加地,与显示设备系统8具有连接的WiFi接入点或蜂窝站的IP地址可以标识地点。在一地点内的已知位置处的相机可通过面部识别标识用户。此外,可经由红外、蓝牙、RFID传输、或WUSB在各显示设备系统8之间交换标识符令牌。红外、RFID、WUSB或蓝牙信号的范围可以充当用于确定与参考点(比如另一用户的显示设备)的接近度的预定义距离。 
在步骤522中,一个或多个处理器从数据库(例如470)检索该地点的一个或多个图像,例如经由对图像跟踪软件453的请求。在步骤524中,面部和图案识别软件476的本地的或基于服务器的执行的版本或两者选择与来自该一个或多个面向外的相机113的图像数据相匹配的一个或多个图像。在某些实施例,步骤522和524可由可访问图像数据库的更强大的计算机(例如12)来远程地执行。在步骤526中,基于地点数据(例如GPS数据),一个或多个处理器确定面向外的图像数据中的一个或多个对象与该地点中的一个或多个所标识的对象的相对位置,并且在步骤528中基于该一个或多个相对位置从该一个或多个所标识的现实对象中确定用户的位置。 
在某些实施例中,诸如在深度相机20A和20B捕捉实况房间的深度图像数据的图1A中,佩戴透视、近眼混合现实显示器的用户可以处于以下地点中:在该地点中计算机系统12的深度图像处理软件450提供一地点(诸如所定义的空间,例如商店)内的对象的三维映射。图6C是用于生成某位置的三维模型的方法的实施例的流程图。在步骤530中,能够访问深度相机的计算机系统(比如带有捕捉设备20A和20B的系统12)基于深度图像来创建地点的三维模型。深度图像可来自多个角度并且可基于共同坐标地点(例如,商店空间)来组合,并且创建该地点的体积或三维描述。在步骤532,在该地点中删除对象。例如,可对深度图像执行边缘检测,以对对象(包括人)进行彼此区分。 在步骤534中,执行深度图像处理和骨架跟踪软件450以及面部和图案识别软件476的的计算机系统12标识一个或多个所检测的对象,包括它们在该地点中的位置,并且在步骤536中标识每个现实对象的一个或多个外观特征。可用来自用户简档数据460、图像数据库470、以及参考对象数据集474的物和人的参考图像来标识所述对象。 
图像处理软件451可将面向外的图像数据和传感器数据转发到深度图像处理软件450并从计算机系统12接收回三维位置和标识,包括外观特征。三维位置可以是相对于该用户地点的3D模型坐标系的。以此方式,消失应用4561可确定哪些现实对象在视野中而哪些现实对象当前不在视野中但是在3D建模的地点中。 
图6D是用于基于某位置的三维模型来确定现实和虚拟对象在显示设备系统的三维视野中的位置的方法的实施例的流程图。在步骤540中,显示设备系统8的一个或多个处理器(210、320、322)将面向外的图像数据发送到与一地点相关联的三维建模计算机系统中。例如,图像处理软件451将面向外的图像数据发送到计算机系统12的深度图像处理和骨架跟踪软件450中。图像处理软件451在步骤542中接收现实对象元数据,包括一个或多个现实对象在该地点中的3D模型位置。所述现实对象是从来自该环境中的相机的图像数据检测的,所述相机也可包括其他用户的面向外的相机。在步骤544中,图像处理软件451接收用户在该3D模型中的位置。任选地,在步骤546中,图像处理软件451接收虚拟对象元数据,包括一个或多个虚拟对象在该地点中的3D模型位置。图像处理软件在步骤548中基于所述3D模型位置来确定该一个或多个对象相对于该显示设备的视野的位置。在用户环境内的用户和对象移来移去时,图6A至6D的实施例中的每一个通常被重复地执行。 
对于用户的透视显示器中被消失应用456、4561指示为用于消失的现实对象,图像处理应用451跟踪该显示设备的视野中的现实对象的位置到每个显示光学系统中的位置,并跟踪所指示的显示数据472、4721,例如用于修订的黑色矩形,来覆盖每一显示光学系统14中的(以及从而在该视野中的)现实对象。透视、混合现实显示设备系统8的图像处理应用451会在设备侧消失应用4561的控制下将用于致使现实对象消失的显示数据472、4721格式化为可由图 像生成单元120(例如微显示器120)处理的格式,并且如果使用不透明度过滤器114的话向用于不透明度过滤器114的不透明度控制器224提供指令。对于某些更改技术(比如擦除),消失显示数据472、4721包括通过复制要被擦除的现实对象周围的图像数据并用其覆盖被擦除的对象生成的图像数据。在其他示例中,消失显示数据472、4721是处于要擦除的对象之后的图像数据(例如,来自数据库470)。 
图7到图12呈现了用于该技术的方法的实施例以及用于所述方法的一些步骤的示例实现过程。为说明目的,下面的方法实施例是在上述系统实施例的上下文中描述的。然而,所述方法实施例不限于在上述系统实施例中操作,而是可以在其他系统实施例中实现。如同上面针对图6A到图6D提到的,当佩戴透视显示器的用户至少移动他或她的眼睛并且视野中的对象可能在其自己的控制下移动时,这些方法和过程实施例也被重复执行。 
图7是用于基于满足消失准则而致使现实对象在透视、混合现实显示设备系统的视野中消失的方法的实施例的流程图。在步骤602中,图像处理软件451接收标识至少在混合显示设备的透视显示器的视野中的一个或多个现实对象的元数据,其中软件451可在消失应用4561也能够访问的存储器中至少临时地存储该元数据。基于该元数据,在步骤604中,消失应用4561标识满足用户消失准则的任何现实对象。 
在某些示例中,本地设备消失应用4561从服务器侧应用456接收消息,所述消息标识哪些现实对象满足用户消失准则。在其他示例中,本地消失应用4561在所接收的现实对象元数据上执行关键词搜索并本地地标识用于消失的现实对象。 
对于被标识为用于消失的任何现实对象,消失应用4561致使图像处理软件451经由图像生成单元120控制透视显示器上的图像以跟踪到任何所标识的现实对象的图像数据来致使其在该透视显示器中消失。如果在该视野中没有现实对象被标识为用于消失,则显示设备系统8的一个或多个处理器在步骤608中返回至其他处理。 
图8是用于致使现实对象在透视、混合现实显示设备系统的视野中消失的另一方法实施例的实施例的流程图。图8的实施例可用于实现图7的实施例的 步骤604、606和608。在步骤612中,消失应用4561检查该透视显示设备的视野中满足用户消失准则的任何现实对象的标识。在步骤614中,为在透视显示设备的视野中的在步骤612中标识的任何现实对象执行消失处理(例如图7的步骤606)。 
对其中跟踪位置和现实对象的软件和图像数据库的网络访问允许在进入这种地点的用户满足预测准则时消失应用4561预取(prefetch)这些被跟踪的地点中被指定为消失的现实对象的任何可应用的图像数据。 
在步骤616中,消失应用4561检查满足用户消失准则、但是在该显示设备的当前视野之外而在该用户的显示设备系统8的地点的预定可见距离内的任何现实对象的标识。在步骤618中,消失应用4561预取在步骤616中标识的任何现实对象的任何可应用的消失图像数据或致使所述图像数据被预取。 
在步骤620中,消失应用4561应用用于标识满足预测准则的一个或多个后续地点的地点预测方法或致使所述地点预测方法被应用。在步骤622中,消失应用4561确定是否已标识任何满足的后续地点。如果否,则在步骤623中,处理在下一调度的检查处返回至步骤612中的视野检查。如果在步骤622中标识了满足预测准则的后续地点,则消失应用4561在步骤624检查任何所标识的后续地点中满足用户消失准则的任何现实对象的标识,并且在步骤626中预取在步骤624中标识的任何现实对象的任何可应用的消失图像数据。 
因为该显示设备的视野包括用户的眼睛当前所关注(focus on)的以及在当前时间点该用户能够在外围(peripherally)看到的,该显示系统的硬件和软件组件使保持视野中没有满足用户消失准则的现实对象比数据预取和地点预测更优先。从而,在某些实施例中,用于标识用于在视野中消失的任何现实对象的检查(步骤612),以及如果找到任何标识的现实对象时的消失处理(步骤614)可能更经常地发生并对显示系统8的组件具有比预取和地点预测步骤更高的优先级。 
如对于图7讨论的,服务器侧消失应用456可发送消息,本地应用4561检查该消息以标识该视野中的、在该用户的地点的预定可见距离内的、或者在后续地点中的满足用户消失准则的现实对象。换言之,利用联网资源来协助标识用于消失的现实对象。搜索元数据中与主题关键词的匹配以及用于标识用于 消失的现实对象的标识符的实现示例过程可由服务器侧应用456执行以卸下本地设备系统处理器的工作。本地副本4561也可通过请求服务器侧消失应用456执行预取来进行预取,并通过请求服务器侧456使地点预测被执行并提供任何所标识的后续地点的结果来应用地点预测方法。 
此外,服务器侧应用456可通过在被本地应用4561请求时提供用于特定更改技术的消失图像显示数据472以节省显示系统8上的存储器空间来协助消失处理。 
而且,请求预取的应用副本(例如本地消失应用4561或服务器侧456)可预取图像数据以存储在要使其消失的现实对象的地点中的另一参与的计算机系统处。在后续地点的情况下,进行请求的应用可调度其他计算机系统来在估计的用户到达之前的某个时间段下载图像数据。用于更改的该图像数据在用户进入该地点前及时地到达。在一个示例中,本地副本应用4561可在与其他计算机系统8进行连接时,或者在另一示例中在该用户的显示设备系统8处于该地点中的参考点的距离准则之内时,将该图像数据下载到该显示设备系统8。 
如同上面提到的,对于每个地点,基于地点的跟踪应用453可能已指派了预定的可见距离。对于用于消失的现实对象,用户或应用可能已选择了更改技术,诸如用化身覆盖层(avatar overlay)来取代不需要的现实对象,其跟踪该现实对象(在本示例中是人)的面部表情或者至少是身体移动。要用化身覆盖的人可能处于预定可见距离内,但是在超过40英尺远,从而该用户不能清楚地看到该人的面部表情。 
因为用化身面部表情跟踪真人的面部表情是计算密集的并且在该距离处对用户益处很小,可应用另一更改技术或不同的图像数据。例如,可向用户显示具有模糊外观的该人的图像数据,或化身。当该人处于该用户的例如20英尺内时,则消失应用的本地副本4561或服务器副本456与图像处理软件451、深度图像处理和骨架跟踪应用450或两者一起工作来跟踪该人的移动,并且连续地跟踪该人在视野中的位置到显示光学系统14中的位置,从而图像生成单元120跟踪化身的移动到被消失的人的身体的移动的图像数据。当该人处于该用户的十(10)英尺内时,化身图像数据到该透视显示器中该人的面部和身体移动跟踪两者都被执行。本示例示出了用于不同可见度的不同更改技术的选 择。 
可见度定义可被编程为消失应用456、4561的一部分或者被存储在可访问存储器中。可见度可以基于对于一般人而言哪些外观特征和移动是视觉上可识别的研究。还可结合基于人的特征(例如年龄)的可见度的其他细化。 
图9是用于基于用于消失的现实对象的可见度来选择更改技术的过程的实施例的流程图。图9的实施例是可在实现步骤606或步骤614时使用的过程的示例。在步骤642中,消失应用642确定透视显示器的视野内被标识为满足用户消失准则的每个现实对象的位置(以及任选地迹线)。可基于该用户相对于静止的现实对象的移动确定该静止对象的迹线,即便该对象没有在移动。基于每个所标识的现实对象的所确定的位置以及任选的迹线,以及该用户的显示设备地点的预定可见距离,在步骤644中消失应用4561标识可见度。 
外观特征也可以作为用于选择可见度的基础。可作为用于确定可见度的基础的外观特征的一些示例是大小和颜色。在40英尺处的穿亮橘色的人与25英尺远的穿海军衫的人相比具有指示更可能在用户视野中被看到的可见度。 
在步骤646中,基于视野中每个现实对象被标识的可见度来为消失优先级化(prioritize)每个现实对象。随着在该视野中接近该显示设备,可见度的优先级增加。在步骤648中,基于相应现实对象的可见度的优先级来为用于消失的每个现实对象选择更改技术。用于选择更改技术的其他基础可包括:实现该更改技术的计算时间、可用的存储器资源、以及要使其从当前视野中消失的现实对象的数量。例如,佩戴透视混合现实显示设备的儿童害怕小丑,而本地马戏团的游行正在街道上前进。用期望的小兔子化身来取代刚进入透视显示器的视野中的五个小丑中的每一个可能没有发生得足够快到不将儿童暴露给至少一个小丑。首先可应用修订效果,例如,在每个小丑上显示黑框。在步骤650中,为满足消失准则的每个现实对象应用所选择的更改技术。在图9的过程的下一个迭代中,可以用小兔子化身覆盖层来取代被修订的小丑中的一个或多个的黑框。 
图9的示例中的优先级化还可被应用到对于所选的技术的用于消失图像数据的不同取代对象的选择。如上面讨论的,该用户可能已选择了取代的更改技术并且已指示他或她将接收其他用户生成的取代对象。与这些取代对象相关联 的图像数据中的一部分可能需要大量存储器并且具有动态内容,所以要显示它们是更计算密集的。消失应用4561可以也基于可见度、实现时间和要处理的对象的数量的因素来从可用取代对象中进行选择。 
用户可能将他的更改图像数据与另一附近用户共享以便该附近用户能够体验该用户如何体验它们周围的现实世界。图10是在处于彼此的预定距离内的透视、混合现实显示设备系统之间共享更改图像数据的过程的实施例的流程图。在步骤652中,第一透视混合现实显示设备系统标识在预定距离内的第二透视混合现实显示设备系统。例如,这些显示设备系统可经由蓝牙、WUSB、IR或RFID连接交换身份令牌。可选择无线收发器的类型和范围来仅允许预定距离内的连接。诸如GPS或蜂窝三角测量等位置数据与比如 等应用的组合也可被用于标识彼此的预定距离内的设备。 
在步骤654中,第一设备的消失应用4561接收满足佩戴第二混合现实设备的另一用户的消失准则的现实对象的标识符,并且在步骤656中,第一设备从第二设备接收用于更改技术的用于跟踪到该现实对象的图像数据。在步骤658中,第一设备的消失应用4561从其透视显示器的其视野的角度显示跟踪该现实对象的图像数据。 
图11是用于基于当前感兴趣主题而致使现实对象在透视、混合现实显示设备系统的视野中消失的另一方法的实施例的流程图。在步骤662中,消失应用4561接收用户的当前感兴趣的主题。如上面提到的,用户可用物理动作(比如凝视持续时间、眨眼命令、其他基于眼睛移动的命令、音频数据、以及一个或多个姿势)来标识当前感兴趣的主题。用户还可通过文本输入,例如经由处理单元4的移动设备5实施例,来指示当前感兴趣的主题。除了直接用户输入外,其他执行的应用可以利用消失能力来增强它们对该用户的服务。在其他示例中,另一执行的应用462基于其与用户的数据交换来确定该用户当前感兴趣的主题并将该当前感兴趣的主题发送给用户,例如,作为当前感兴趣的主题数据项420的一部分发送给用户。 
在步骤664中,消失应用4651标识与该当前感兴趣的主题相关联的任何现实对象类型。当与执行的应用462接口时,应用462向消失应用4561指示用于当前兴趣的现实对象类型(例如经由比如420等数据项)。在用户的情况下, 消失应用4561可输出音频或视觉请求以用于用户标识仅该用户希望看到的与该当前兴趣相关的类型的现实对象。该用户可使用上面讨论的各种输入方法中的任何一种来输入标识这样的现实对象类型的输入。消失应用4561还可基于在在线数据库和用户简档数据中与该主题有关的搜索来标识现实对象类型。此外,可为常见的感兴趣的主题存储缺省现实对象类型,这样的主题的一些示例是餐馆和方向。 
在步骤666中,消失应用4561标识该透视显示器的视野中与任何所标识的现实对象类型相匹配的任何现实对象,例如基于与被图像处理软件451标识为在当前视野中的每个现实对象的元数据中存储的外观特征中的对象类型的匹配。在步骤668中,消失应用4561确定任何被标识的现实对象是否不满足当前感兴趣的主题的相关性准则。例如,消失应用4561可向被标识为具有匹配现实对象类型的任何现实对象的元数据应用关键词搜索技术。该搜索技术返回每个现实对象的相关性得分。例如,所应用的关键词搜索技术可基于该现实对象的元数据的曼哈顿距离加权求和(Manhattan distance weighted sum)来返回相关性得分。基于用于每个现实对象元数据搜索的关键词相关性得分,在步骤668中,消失应用4561标识不满足当前感兴趣的主题的相关性准则的任何现实对象。在步骤670中,消失应用4561致使图像生成单元120(例如经由图像处理软件452)跟踪到不满足相关性准则的每一现实对象的图像数据以用于致使其在该透视显示器的视野中的消失。在在拥挤的餐馆区街道上寻找中餐馆的女人的示例中,除去其他建筑物符号减少了她的视图中的混乱,从而她可以更快地找到她的朋友正在那里等她的中餐馆。 
当然,尽管可以使现实对象从该透视显示器的视野中消失,然而该现实对象仍旧在该用户的环境中。为了避免用户与人或其他对象相撞并受伤,可采用冲突避免机制。图12是用于针对消失的现实对象向用户提供冲突警告的过程的实施例的流程图。在步骤682中,消失应用456、4561确定该混合现实显示设备相对于从该透视显示器中消失的现实对象的位置和迹线。在步骤684中,消失应用456、4561确定该混合现实设备和该现实对象是否在冲突距离内。如果该设备和该消失的现实对象在冲突距离内,则在步骤686中,消失应用456、4561输出安全警告。例如,消失应用456、4561显示图像数据或播放音频数据, 所述数据包括安全警告。如果该设备和该现实对象不处于冲突距离内,则步骤688中的处理返回其他任务,诸如用于另一应用的任务或更新该视野中的现实对象的标识,直到下一次被调度的检查为止。 
图13A、13B、13C和13D示出处理姿势用户输入的示例,所述姿势用户输入标识用于消失的现实对象。图13A示出了从佩戴显示设备2的用户的角度的视图。如由虚线704l和704r所指示的,他当前正关注他前方的由人702所占据的空间。在本示例中,佩戴显示设备2的用户想要看到野花和群山的未被遮挡的视图,但是公园很拥挤,而人702看上去总是挡着他。 
图13B示出了拇指姿势的第一位置,其是用于指示消失的姿势的一个示例。拇指706被置于该显示设备前方并挡住人702。图像处理软件451向用户输入软件477发送已在来自面向外的相机113的图像数据中检测到拇指姿势的第一位置的通知。在此示例中,消失应用4561激活轮廓工具应用(outline tool application)并输入拇指指尖位置709作为该轮廓的起始参考点。在本示例中该轮廓遵循该拇指的宽。图13C示出了沿着执行该姿势的拇指在该显示器上的移动的轮廓的示例。图像处理软件451显示该轮廓以匹配拇指的移动并标识位于该轮廓内的现实对象。接收指示停用该轮廓工具的用户输入。例如,拇指停止预定的时间段,或者在面向外的相机113的视野中不再检测到拇指。图像处理软件451向消失应用4561通知该轮廓内的任何对象的现实对象标识符。在本示例中,用户输入软件477已从声音识别软件478(其处理来自话筒110的音频数据)接收“擦除”命令。在另一示例中,可使用眼睛移动或文本输入来选择擦除更改技术。此外,可选择缺省更改技术。 
基于该拇指姿势和该音频擦除命令,消失应用4561通过网络将来自相机113的地点数据和图像数据发送到地点图像跟踪应用453,一起被发送的是对于在该地点处并从该透视显示器的角度的实时图像数据(如由来自相机113的图像数据所表示的)以及从该显示器光轴142的其预定偏移的请求。如果该实时图像数据可用,例如从被人702佩戴的显示设备系统8获得,则消失应用4561致使图像处理软件451对于该用户的角度在人702上显示该图像数据。图13D示出该透视显示器视野的示例,其中该人702的遮挡被除去。可能需要将该图像数据的边缘与从来自面向外的相机113的图像数据提取的人702四周的周围 空间的图像数据相混合。在另一示例中,可提取并复制周围空间的图像数据以生成遮蔽一对象的图像数据。 
图14A、14B、14C和14D示出基于对该显示设备的不同可见度应用到满足用户消失准则的现实对象的不同更改技术的示例。在本示例中,用户已将小丑标识为当该用户正在佩戴她的透视显示设备2时要使其消失的现实对象类型。图14A示出了在用户地点的预定可见距离内的在透视显示设备的视野中的满足用户消失准则的现实对象(在本示例中是小丑712)的示例。小丑712仅是显示设备的视野中的其他对象(大部分是像人710这样的人)中的一个。这里,如虚线704l和704r所指示的用户凝视的点是在该用户正前方。 
该用户也已选择了化身的取代对象,对于要被覆盖并跟踪到任何小丑的地点所述化身看上去像一般人。消失应用4561可从该地点的表示一般人的多个取代对象中进行选择。尽管小丑在该地点的预定可见距离479内,而到该小丑的距离指示在当前地点(繁忙的商业区街道)中仅有颜色检测的可见度。当该小丑在此可见度中时消失应用4561致使修订效果黑色图像数据被应用。在消失应用4561监视小丑相对于该显示设备的迹线的同时,可预取化身数据。图14B示出了被应用到小丑的修订更改技术的示例。黑色图像数据被跟踪到设备2的透视显示器中的小丑。 
图14C示出小丑处于如下可见度的示例:其中基于该用户的年龄的一般人的视力,人类对象的关节的移动是可见的。图14D示出化身的图像数据取代透视显示设备的视野中的小丑的示例。化身移动模仿小丑的移动。在某些示例中,跟踪小丑的面部移动可以在消失应用4561的控制下执行。面部移动检测的可见度也可在消失应用4561中存储或定义。 
图15A和15B示出致使不满足相关准则的现实对象消失的示例。在本示例中,汽车导航应用462与消失应用4561接口。汽车导航应用462,基于其道路库、上面的符号、以及路上的商业和服务,可以在满足以及不满足相关性准则的现实对象两者在指定时间段和其地点中出现时通知消失应用4561。而且,用户可能已输入一个或多个目的地,而导航系统已经确定路线并且为该路线上要遇到的现实对象的现实对象元数据的数据字段中的一些提供了数据。具有用户的路线便于在接近用户进入不同地点的时间时将图像数据预取到本地计算机 系统。图15A示出了在不为显示设备2执行消失应用的情况下驾驶时,从仪表板720上看出的透视显示器的视野的示例。在路732上前进的用户正在逼近交叉路口734。在用户的左侧有停车(STOP)符号722,以及上面带有方向箭头的一串路线编号符号728、730、724、726。汽车导航应用462已将西行5号线(Route 5West)标识为该用户的路线的下一部分。在图15A中,设备2中执行的凝视确定应用462指示该用户当前正关注东行5号线符号728。 
图15示出了消失应用4561可如何致使不相关的符号消失,而不是用户必须扫视每个符号来找到西行5号线的正确方向。事实上,更改不相关的符号以协助用户更快地找到相关信息。如在图15B中所示,北行24号线(724)、南行24号线(726)以及东行5号线(728)的路标在透视显示器中全部用西行5号线(730)的副本覆盖,其全部指向左侧。用户花更少的时间来尝试寻找指示向哪转的正确路标。消失应用4561还可接收汽车导航应用462请求永不消失(即使用户请求它)的现实对象类型。停止符号722是这种现实对象类型的示例,而安全是其原因。 
图16是可用于实现托管(host)消失应用的网络可访问计算系统的计算系统的一个实施例的框图。例如,图16中的计算系统的实施例可用于实现图1A和1B的计算系统。在这一实施例中,计算系统是诸如游戏控制台等多媒体控制台800。如图16所示,多媒体控制台800具有中央处理单元(CPU)801以及便于处理器访问各种类型存储器的存储器控制器802,包括闪速只读存储器(ROM)803、随机存取存储器(RAM)806、硬盘驱动器808、以及便携式媒体驱动器806。在一种实现中,CPU 801包括1级高速缓存810和2级高速缓存812,这些高速缓存用于临时存储数据并因此减少对硬盘驱动器808进行的存储器访问周期的数量,从而提高了处理速度和吞吐量。 
CPU 801、存储器控制器802、以及各种存储器设备经由一个或多个总线(未示出)互连在一起。在本实现中所使用的总线的细节对理解此处所讨论的关注主题不是特别相关。然而,应该理解,这样的总线可以包括串行和并行总线、存储器总线、外围总线、使用各种总线体系结构中的任何一种的处理器或局部总线中的一个或多个。作为示例,这样的体系结构可以包括工业标准体系结构(ISA)总线、微通道体系结构(MCA)总线、增强型ISA(EISA)总线、 视频电子标准协会(VESA)局部总线、以及也称为夹层总线的外围部件互连(PCI)总线。 
在一个实施方式中,CPU 801、存储器控制器802、ROM 803、以及RAM806被集成到公用模块814上。在此实施方式中,ROM 803被配置为通过PCI总线和ROM总线(两者都没有示出)连接到存储器控制器802的闪速ROM。RAM 806被配置为多个双倍数据速率同步动态RAM(DDR SDRAM)模块,它们被存储器控制器802通过分开的总线(未示出)独立地进行控制。硬盘驱动器808和便携式媒体驱动器805被示为通过PCI总线和AT附加(ATA)总线816连接到存储器控制器802。然而,在其他实现中,也可以备选地应用不同类型的专用数据总线结构。 
图形处理单元820和视频编码器822构成了用于进行高速度和高分辨率(例如,高清晰度)的图形处理的视频处理流水线。数据通过数字视频总线(未示出)从图形处理单元(GPU)820传输到视频编码器822。通过使用GPU 820中断来显示由系统应用程序生成的轻量消息(例如,弹出窗口),以调度代码来将弹出窗口呈现为覆盖图。覆盖图所使用的存储器量取决于覆盖区域大小,并且覆盖图较佳地与屏幕分辨率成比例缩放。在并发系统应用使用完整用户界面的情况下,优选使用独立于应用分辨率的分辨率。定标器(scaler)可用于设置该分辨率,从而消除了对改变频率并引起TV重新同步的需求。 
音频处理单元824和音频编解码器(编码器/解码器)826构成了对应的音频处理流水线,用于对各种数字音频格式进行多通道音频处理。通过通信链路(未示出)在音频处理单元824和音频编解码器826之间传输音频数据。视频和音频处理流水线向A/V(音频/视频)端口828输出数据,以便传输到电视机或其他显示器。在所示出的实现中,视频和音频处理组件820-828安装在模块214上。 
图16示出了包括USB主控制器830和网络接口832的模块814。USB主控制器830被示为通过总线(例如,PCI总线)与CPU 801和存储器控制器802进行通信,并作为外围控制器804(1)-804(4)的主机。网络接口832提供对网络(例如因特网、家庭网络等)的访问,并且可以是包括以太网卡、调制解调器、无线接入卡、蓝牙模块、RFID模块、红外模块、WUSB模块、电缆调制解调 器等各种有线或无线接口组件中的任一种。 
在图16中描绘的实现中,控制台800包括用于支持四个控制器804(1)-804(4)的控制器支持子部件840。控制器支持子部件840包括支持与诸如,例如,媒体和游戏控制器之类的外部控制设备的有线和无线操作所需的任何硬件和软件组件。前面板I/O子部件842支持电源按钮812、弹出按钮813,以及任何LED(发光二极管)或暴露在控制台802的外表面上的其他指示器等多个功能。子部件840和842通过一个或多个电缆部件844与模块814进行通信。在其他实现中,控制台800可以包括另外的控制器子部件。所示出的实现还示出了被配置成发送和接收可以传递到模块814的信号的光学I/O接口835。 
MU 840(1)和840(2)被示为可分别连接到MU端口“A”830(1)和“B”830(2)。附加MU(例如,MU 840(3)-840(6))被示为可连接到控制器804(1)和804(3),即每一个控制器两个MU。控制器804(2)和804(4)也可以被配置成接纳MU(未示出)。每一个MU 840都提供附加存储,在其上面可以存储游戏、游戏参数、及其他数据。在一些实现中,其他数据可以包括数字游戏组件、可执行的游戏应用,用于扩展游戏应用的指令集、以及媒体文件中的任何一种。当被插入到控制台800或控制器中时,MU 840可以被存储器控制器802访问。系统供电模块850向游戏系统800的组件供电。风扇852冷却控制台800内的电路。还提供微控制器单元854。 
包括机器指令的应用860被存储在硬盘驱动器808上。当控制台800被接通电源时,应用860的各个部分被加载到RAM 806,和/或高速缓存810以及812中以在CPU 801上执行,其中应用860是一个这样的示例。各种应用可以存储在硬盘驱动器808上以用于在CPU 801上执行。 
可以通过简单地将系统连接到监视器16(图1A)、电视机、视频投影仪、或其他显示设备来将游戏与媒体系统800用作独立系统。在此独立模式下,游戏和媒体系统800允许一个或多个玩家玩游戏或欣赏数字媒体,例如观看电影或欣赏音乐。然而,随着宽带连接的集成通过网络接口832而成为可能,游戏和媒体系统800还可以作为较大的网络游戏社区的参与者来操作。 
如同上面讨论的,处理单元4可被嵌入在移动设备5中。图17是可以在本技术的各实施例中操作的示例性移动设备900的框图。描绘了典型移动电话 的示例性电子电路。电话900包括一个或多个微处理器912,以及存储由控制处理器912的一个或多个处理器执行来实现此处所述的功能的处理器可读代码的存储器910(例如,诸如ROM等非易失性存储器和诸如RAM等易失性存储器)。 
移动设备900可包括例如处理器912、包括应用和非易失性存储的存储器1010。处理器912可实现通信以及任何数量的应用,包括本文中所描述的交互应用。存储器1010可以是任何种类的存储器存储设备类型,包括非易失性和易失性存储器。设备操作系统处理移动设备900的不同操作,并可包含用于操作的用户界面,如拨打和接听电话呼叫、文本消息收发、检查语音邮件等。应用930可以是任何种类的程序,如用于照片和/或视频的相机应用、地址簿、日历应用、媒体播放器、因特网浏览器、游戏、其他多媒体应用、闹钟应用、其他第三方应用,比如本文讨论的用于处理发送至或者来自显示设备2的图像数据的消失应用和图像处理软件、等等。存储器910中的非易失性存储组件940包含诸如web高速缓存、音乐、照片、联系人数据、日程安排数据、以及其他文件等数据。 
处理器912还与RF发射/接收电路906进行通信,该电路906进而耦合到天线902,它还与红外发射器/接收器908、与像Wi-Fi、WUSB、RFID、红外或蓝牙等任何附加通信信道960、以及与像加速度计等移动/定向传感器914通信。加速度计被包括到移动设备中,以启用诸如让用户通过姿势输入命令的智能用户界面之类的应用,在与GPS卫星断开联系之后计算设备的移动和方向的室内GPS功能,并检测设备的定向,并且,当旋转电话时自动地将显示从纵向变为横向。可以,例如,通过微机电系统(MEMS)来提供加速度计,该微机电系统是构建在半导体芯片上的微小机械设备(微米尺寸)。可以感应加速方向、以及定向、振动和震动。处理器912还与响铃器/振动器916、用户界面键区/屏幕、生物测定传感器系统918、扬声器920、话筒922、相机924、光传感器921以及温度传感器927进行通信。 
处理器912控制无线信号的发射和接收。在发射模式期间,处理器912向RF发射/接收电路906提供来自话筒922的语音信号或其他数据信号。发射/接收电路906将该信号发射到远程站(例如固定站、运营商、其他蜂窝电话等) 来通过天线902进行通信。响铃器/振动器916被用于向用户发传入呼叫、文本消息、日历提醒、闹钟提醒或其他通知等信号。在接收模式期间,发射/接收电路906通过天线902接收来自远程站的语音或其他数据信号。所接收到的语音信号被提供给扬声器920,同时所接收到的其它数据信号也被适当地处理。 
另外,物理连接器988可被用来将移动设备900连接到外部电源,如AC适配器或加电对接底座。物理连接器988还可被用作到计算设备的数据连接。该数据连接允许诸如将移动数据与另一设备上的计算数据进行同步等操作。 
为这种服务启用使用基于卫星的无线电导航来中继用户应用的位置的GPS接收机965。 
附图中示出的示例计算机系统包括计算机可读存储设备的示例。计算机可读存储设备也是处理器可读存储设备。这样的介质可包括以用于存储诸如计算机可读指令、数据结构、程序模块、或其他数据等信息的任何方法或技术实现的易失性和非易失性、可移动和不可移动介质。计算机存储设备包括,但不限于,RAM、ROM、EEPROM、高速缓存、闪存或其他存储器技术、CD-ROM、数字多功能盘(DVD)或其他光盘存储、记忆棒或卡、磁带盒、磁带、媒体驱动器、硬盘、磁盘存储或其他磁性存储设备、或能用于存储所需信息且可以由计算机访问的任何其他介质。 
尽管用结构特征和/或方法动作专用的语言描述了本主题,但可以理解,所附权利要求书中定义的主题不必限于上述具体特征或动作。更确切而言,上述具体特征和动作是作为实现权利要求的示例形式公开的。 

Claims (10)

1.一种用于致使透视、混合现实显示设备系统的透视显示器中的现实对象消失的方法,所述方法包括:
接收标识所述透视显示器的视野中的一个或多个现实对象的元数据;
确定所述一个或多个现实对象中的任一个是否满足用户消失准则;以及
响应于确定第一现实对象满足所述用户消失准则,跟踪到所述透视显示器中的所述第一现实对象的图像数据以致使所述第一现实对象在所述透视显示器的所述视野中消失。
2.如权利要求1所述的方法,其特征在于:
确定所述一个或多个现实对象中的任一个是否满足用户消失准则进一步包括:
基于用户当前感兴趣的主题的通知,标识与所述当前感兴趣的主题相关联的任何现实对象类型;
标识所述透视显示器的所述视野中与任何所标识的现实对象类型相匹配的任何现实对象;以及
确定任何所标识的现实对象是否不满足所述当前感兴趣的主题的相关性准则;以及
其中跟踪到所述透视显示器中的所述第一现实对象的图像数据以致使所述第一现实对象在所述透视显示器的所述视野中消失进一步包括跟踪到不满足相关性准则的每个现实对象的图像数据以致使其在所述透视显示器的所述视野中消失。
3.如权利要求1所述的方法,其特征在于,还包括:
确定所述透视显示器的所述视野内被标识为满足用户消失准则的每一现实对象的位置和迹线;
基于每一所标识的现实对象的相应的所确定的位置和迹线、以及对于所述显示设备的地点的预定可见距离,来标识所述每一所标识的现实对象的可见度;以及
基于所述视野中用于消失的每一现实对象的被标识的可见度来优先级化所述用于消失的每一现实对象。
4.如权利要求3所述的方法,其特征在于,标识每一所标识的现实对象的可见度还基于所述透视显示器的所述视野内的被标识为满足用户消失准则的每一现实对象的至少一个外观特征。
5.如权利要求3所述的方法,其特征在于,跟踪到所述透视显示器中的所述第一现实对象的图像数据以致使所述第一现实对象在所述透视显示器的所述视野中消失进一步包括:
基于用于消失的每一现实对象的可见度的优先级来从为相应现实对象指示的更改技术中选择用于所述相应现实对象的更改技术;
为用于消失的每一现实对象应用所选择的更改技术。
6.如权利要求1所述的方法,其特征在于,还包括:
接收标识用于消失的主题的姿势的用户输入,所述用于消失的主题包括所述视野中的所述一个或多个现实对象中的至少一个现实对象;
在用户消失准则中存储所述用于消失的主题;以及
响应于标识要应用到所述至少一个现实对象的用户指定的更改技术,跟踪到所述至少一个现实对象的图像数据以使用所述用户指定的更改技术致使所述至少一个现实对象在所述透视显示器中消失。
7.如权利要求1所述的方法,其特征在于,所述更改技术包括以下的至少一个:
用虚拟对象取代所述第一现实对象;
通过用通过混合所述第一现实对象周围的对象的图像数据生成的图像数据覆盖所述第一现实对象来擦除所述第一现实对象;
用黑色图像数据修订所述第一现实对象;以及
通过跟踪到所述第一现实对象的模糊图像数据来遮蔽所述第一现实对象。
8.一种透视、头戴式、混合现实显示设备系统,所述显示设备系统用于致使所述显示设备系统的透视显示器的视野中的现实对象消失,所述系统包括:
一个或多个地点检测传感器;
用于存储用户消失准则的存储器,所述用户消失准则包括至少一个主题项;
一个或多个处理器,所述一个或多个处理器能够访问所述存储器并且可通信地耦合到所述一个或多个地点检测传感器以用于接收所述显示设备系统的地点标识符数据并用于标识所述透视显示器的所述视野中的与所述至少一个主题项有关并在从所述地点标识符数据确定的地点的预定可见距离内的一个或多个现实对象;以及
至少一个图像生成单元,所述至少一个图像生成单元可通信地耦合到所述一个或多个处理器并且光学耦合到所述透视显示器以跟踪到所述透视显示器的所述视野中的所标识的一个或多个现实对象的图像数据以致使所述一个或多个现实对象消失。
9.如权利要求8所述的系统,其特征在于,所述一个或多个处理器可通信地耦合到远程计算系统以访问三维模型,所述三维模型包括标识在所述透视、混合现实显示设备的预定可见距离内的、所述地点中的一个或多个现实对象的元数据。
10.如权利要求8所述的系统,其特征在于,
所述一个或多个处理器能够访问用户简档数据以预测所述显示设备的当前地点的后续地点;
所述一个或多个处理器检查所述后续地点中满足用户消失准则的任何现实对象的标识;
所述一个或多个处理器可通信地耦合到所述后续地点中的计算机系统;以及
所述一个或多个处理器通过在所述用户到达前及时地调度到所述后续地点中的所述计算机系统的下载来预取所述后续地点中满足用户消失准则的任何所标识的现实对象的图像数据。
CN201210388564.8A 2011-10-14 2012-10-12 混合现实显示器中用户控制的现实对象的消失 Active CN102999160B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/274,136 2011-10-14
US13/274,136 US9255813B2 (en) 2011-10-14 2011-10-14 User controlled real object disappearance in a mixed reality display

Publications (2)

Publication Number Publication Date
CN102999160A true CN102999160A (zh) 2013-03-27
CN102999160B CN102999160B (zh) 2016-01-27

Family

ID=47927816

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210388564.8A Active CN102999160B (zh) 2011-10-14 2012-10-12 混合现实显示器中用户控制的现实对象的消失

Country Status (5)

Country Link
US (2) US9255813B2 (zh)
CN (1) CN102999160B (zh)
HK (1) HK1181519A1 (zh)
TW (1) TWI581178B (zh)
WO (1) WO2013056187A1 (zh)

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104517076A (zh) * 2013-09-26 2015-04-15 联想(北京)有限公司 一种信息处理方法及电子设备
WO2015096145A1 (en) 2013-12-27 2015-07-02 Intel Corporation Device, method, and system of providing extended display with head mounted display
CN105117931A (zh) * 2015-07-30 2015-12-02 金华唯见科技有限公司 一种目标驱动虚拟现实生态系统
CN106293041A (zh) * 2015-06-18 2017-01-04 北京智谷睿拓技术服务有限公司 确定遮挡的方法和装置
CN106774862A (zh) * 2016-12-03 2017-05-31 西安科锐盛创新科技有限公司 基于视线的vr显示方法及vr设备
CN106959108A (zh) * 2017-03-23 2017-07-18 联想(北京)有限公司 位置确定方法、系统及电子设备
CN107077755A (zh) * 2016-09-30 2017-08-18 深圳达闼科技控股有限公司 虚拟与现实融合方法、系统和虚拟现实设备
CN107113468A (zh) * 2015-01-07 2017-08-29 微软技术许可有限责任公司 基于显示设备的自动主屏确定
CN107111364A (zh) * 2014-12-23 2017-08-29 诺基亚技术有限公司 虚拟现实内容控制
CN107567610A (zh) * 2015-04-27 2018-01-09 微软技术许可有限责任公司 附连控制元素的混合环境显示
CN107852573A (zh) * 2015-08-07 2018-03-27 微软技术许可有限责任公司 混合现实社交交互
CN107924589A (zh) * 2015-08-20 2018-04-17 微软技术许可有限责任公司 通信系统
CN108320333A (zh) * 2017-12-29 2018-07-24 中国银联股份有限公司 场景适应型虚拟现实转换设备和虚拟现实的场景适应方法
CN108700942A (zh) * 2016-05-17 2018-10-23 谷歌有限责任公司 在虚拟/增强现实系统中改变对象位置的技术
CN108885482A (zh) * 2016-03-31 2018-11-23 英特尔公司 包括映像的视场中的增强现实
CN108885488A (zh) * 2016-06-27 2018-11-23 谷歌有限责任公司 在增强和/或虚拟现实环境中生成与虚拟对象相关的可视提示
CN109035415A (zh) * 2018-07-03 2018-12-18 百度在线网络技术(北京)有限公司 虚拟模型的处理方法、装置、设备和计算机可读存储介质
CN110023043A (zh) * 2016-10-28 2019-07-16 国际商业机器公司 通过认知系统增强对机器人假体的控制
CN110337318A (zh) * 2017-02-28 2019-10-15 奇跃公司 混合现实装置中的虚拟和真实对象记录
CN110413105A (zh) * 2018-04-30 2019-11-05 苹果公司 虚拟环境内的虚拟对象的有形可视化
CN110663011A (zh) * 2017-05-23 2020-01-07 Pcms控股公司 基于用户视图中的真实生活对象的持久性而对ar信息进行优先化排序的系统及方法
CN111177291A (zh) * 2019-12-23 2020-05-19 腾讯科技(深圳)有限公司 一种对象移动方法、装置、设备及介质
CN111372098A (zh) * 2015-01-21 2020-07-03 微软技术许可有限责任公司 用于共享场景网格数据同步的用户设备、系统、方法及可读介质
CN111773658A (zh) * 2020-07-03 2020-10-16 珠海金山网络游戏科技有限公司 一种基于计算机视觉库的游戏交互方法及装置
CN113302578A (zh) * 2019-01-22 2021-08-24 惠普发展公司,有限责任合伙企业 混合现实呈现
CN113842227A (zh) * 2021-09-03 2021-12-28 上海涞秋医疗科技有限责任公司 医疗辅助三维模型定位匹配方法、系统、设备及介质

Families Citing this family (157)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015130996A1 (en) * 2014-02-27 2015-09-03 Pure Depth Limited A display interposing a physical object within a three-dimensional volumetric space
US20100306825A1 (en) 2009-05-27 2010-12-02 Lucid Ventures, Inc. System and method for facilitating user interaction with a simulated object associated with a physical location
US9155964B2 (en) 2011-09-14 2015-10-13 Steelseries Aps Apparatus for adapting virtual gaming with real world information
US20150199081A1 (en) * 2011-11-08 2015-07-16 Google Inc. Re-centering a user interface
US8941722B2 (en) * 2012-01-03 2015-01-27 Sony Corporation Automatic intelligent focus control of video
US8952869B1 (en) * 2012-01-06 2015-02-10 Google Inc. Determining correlated movements associated with movements caused by driving a vehicle
US9230501B1 (en) 2012-01-06 2016-01-05 Google Inc. Device control utilizing optical flow
JP6044079B2 (ja) * 2012-02-06 2016-12-14 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2013178639A (ja) * 2012-02-28 2013-09-09 Seiko Epson Corp 頭部装着型表示装置および画像表示システム
US10469916B1 (en) 2012-03-23 2019-11-05 Google Llc Providing media content to a wearable device
US20130297460A1 (en) * 2012-05-01 2013-11-07 Zambala Lllp System and method for facilitating transactions of a physical product or real life service via an augmented reality environment
US10713846B2 (en) 2012-10-05 2020-07-14 Elwha Llc Systems and methods for sharing augmentation data
US9141188B2 (en) 2012-10-05 2015-09-22 Elwha Llc Presenting an augmented view in response to acquisition of data inferring user activity
US10180715B2 (en) 2012-10-05 2019-01-15 Elwha Llc Correlating user reaction with at least an aspect associated with an augmentation of an augmented view
US9077647B2 (en) 2012-10-05 2015-07-07 Elwha Llc Correlating user reactions with augmentations displayed through augmented views
US10269179B2 (en) 2012-10-05 2019-04-23 Elwha Llc Displaying second augmentations that are based on registered first augmentations
US9785839B2 (en) * 2012-11-02 2017-10-10 Sony Corporation Technique for combining an image and marker without incongruity
US9298970B2 (en) * 2012-11-27 2016-03-29 Nokia Technologies Oy Method and apparatus for facilitating interaction with an object viewable via a display
US20140184802A1 (en) * 2012-12-28 2014-07-03 Wal-Mart Stores, Inc. Techniques for reducing consumer wait time
KR102516124B1 (ko) 2013-03-11 2023-03-29 매직 립, 인코포레이티드 증강 및 가상 현실을 위한 시스템 및 방법
US9406253B2 (en) * 2013-03-14 2016-08-02 Broadcom Corporation Vision corrective display
NZ751593A (en) 2013-03-15 2020-01-31 Magic Leap Inc Display system and method
US10109075B2 (en) * 2013-03-15 2018-10-23 Elwha Llc Temporal element restoration in augmented reality systems
US9639964B2 (en) 2013-03-15 2017-05-02 Elwha Llc Dynamically preserving scene elements in augmented reality systems
US10025486B2 (en) 2013-03-15 2018-07-17 Elwha Llc Cross-reality select, drag, and drop for augmented reality systems
US9269003B2 (en) 2013-04-30 2016-02-23 Qualcomm Incorporated Diminished and mediated reality effects from reconstruction
US9234742B2 (en) 2013-05-01 2016-01-12 Faro Technologies, Inc. Method and apparatus for using gestures to control a laser tracker
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
US9417668B2 (en) 2013-06-25 2016-08-16 Nicholas Wiley Sun shade case for a portable computing device
US20150024368A1 (en) * 2013-07-18 2015-01-22 Intelligent Decisions, Inc. Systems and methods for virtual environment conflict nullification
TWI484452B (zh) * 2013-07-25 2015-05-11 Univ Nat Taiwan Normal 擴增實境學習系統及其方法
US20150049001A1 (en) * 2013-08-19 2015-02-19 Qualcomm Incorporated Enabling remote screen sharing in optical see-through head mounted display with augmented reality
US9729864B2 (en) 2013-09-30 2017-08-08 Sony Interactive Entertainment Inc. Camera based safety mechanisms for users of head mounted displays
US9630105B2 (en) * 2013-09-30 2017-04-25 Sony Interactive Entertainment Inc. Camera based safety mechanisms for users of head mounted displays
EP2887639A1 (en) * 2013-12-18 2015-06-24 Microsoft Technology Licensing, LLC Augmented reality information detail
JP2015118578A (ja) * 2013-12-18 2015-06-25 マイクロソフト コーポレーション 拡張現実情報詳細
AU2013273722A1 (en) * 2013-12-19 2015-07-09 Canon Kabushiki Kaisha Method, system and apparatus for removing a marker projected in a scene
EP2887124A1 (en) 2013-12-20 2015-06-24 Thomson Licensing Optical see-through glass type display device and corresponding optical unit
WO2015099683A1 (en) * 2013-12-23 2015-07-02 Empire Technology Development, Llc Suppression of real features in see-through display
JP2015134079A (ja) * 2014-01-17 2015-07-27 株式会社ユニバーサルエンターテインメント ゲーミングマシン
EP3108287A4 (en) * 2014-02-18 2017-11-08 Merge Labs, Inc. Head mounted display goggles for use with mobile computing devices
US9639968B2 (en) * 2014-02-18 2017-05-02 Harman International Industries, Inc. Generating an augmented view of a location of interest
US9495759B2 (en) * 2014-02-26 2016-11-15 Apeiros, Llc Mobile, wearable, automated target tracking system
GB201404134D0 (en) * 2014-03-10 2014-04-23 Bae Systems Plc Interactive information display
US9426358B2 (en) 2014-03-11 2016-08-23 Nokia Technologies Oy Display of video information
WO2015142019A1 (en) 2014-03-21 2015-09-24 Samsung Electronics Co., Ltd. Method and apparatus for preventing a collision between subjects
CN103877726B (zh) * 2014-04-10 2017-09-26 北京蚁视科技有限公司 一种虚拟现实组件系统
US20150331260A1 (en) * 2014-05-15 2015-11-19 Kessler Foundation Inc. Wearable systems and methods for treatment of a neurocognitive condition
JP6412719B2 (ja) * 2014-05-29 2018-10-24 株式会社日立システムズ 建屋内行先誘導システム
US9323983B2 (en) * 2014-05-29 2016-04-26 Comcast Cable Communications, Llc Real-time image and audio replacement for visual acquisition devices
US9551873B2 (en) * 2014-05-30 2017-01-24 Sony Interactive Entertainment America Llc Head mounted device (HMD) system having interface with mobile computing device for rendering virtual reality content
DE102014011163A1 (de) 2014-07-25 2016-01-28 Audi Ag Vorrichtung zum Anzeigen eines virtuellen Raums und Kamerabildern
US10389992B2 (en) * 2014-08-05 2019-08-20 Utherverse Digital Inc. Immersive display and method of operating immersive display for real-world object alert
WO2016053486A1 (en) * 2014-09-30 2016-04-07 Pcms Holdings, Inc. Reputation sharing system using augmented reality systems
US10297082B2 (en) * 2014-10-07 2019-05-21 Microsoft Technology Licensing, Llc Driving a projector to generate a shared spatial augmented reality experience
JP2016090772A (ja) * 2014-11-04 2016-05-23 株式会社ソニー・コンピュータエンタテインメント ヘッドマウントディスプレイおよび情報処理方法
GB2532464B (en) * 2014-11-19 2020-09-02 Bae Systems Plc Apparatus and method for selectively displaying an operational environment
GB2532462A (en) * 2014-11-19 2016-05-25 Bae Systems Plc Mixed reality information and entertainment system and method
US9823764B2 (en) * 2014-12-03 2017-11-21 Microsoft Technology Licensing, Llc Pointer projection for natural user input
US9881422B2 (en) * 2014-12-04 2018-01-30 Htc Corporation Virtual reality system and method for controlling operation modes of virtual reality system
US9911232B2 (en) 2015-02-27 2018-03-06 Microsoft Technology Licensing, Llc Molding and anchoring physically constrained virtual environments to real-world environments
US9767614B2 (en) 2015-03-24 2017-09-19 Nokia Technologies Oy Augmented reality
US10360617B2 (en) 2015-04-24 2019-07-23 Walmart Apollo, Llc Automated shopping apparatus and method in response to consumption
US9910275B2 (en) 2015-05-18 2018-03-06 Samsung Electronics Co., Ltd. Image processing for head mounted display devices
US9836117B2 (en) 2015-05-28 2017-12-05 Microsoft Technology Licensing, Llc Autonomous drones for tactile feedback in immersive virtual reality
US9898864B2 (en) * 2015-05-28 2018-02-20 Microsoft Technology Licensing, Llc Shared tactile interaction and user safety in shared space multi-person immersive virtual reality
US20160358013A1 (en) * 2015-06-02 2016-12-08 Aerdos, Inc. Method and system for ambient proximity sensing techniques between mobile wireless devices for imagery redaction and other applicable uses
US10133931B2 (en) * 2015-08-04 2018-11-20 Fmr Llc Alert notification based on field of view
US9922463B2 (en) 2015-08-07 2018-03-20 Microsoft Technology Licensing, Llc Virtually visualizing energy
WO2017049430A1 (en) 2015-09-21 2017-03-30 Qualcomm Incorporated Camera preview
EP3370414A4 (en) * 2015-10-28 2019-06-05 Kyocera Corporation IMAGING DEVICE, IMAGING SYSTEM, INDIVIDUAL SURVEILLANCE SYSTEM, AND CONTROL METHOD FOR IMAGING DEVICE
US10474411B2 (en) * 2015-10-29 2019-11-12 Samsung Electronics Co., Ltd. System and method for alerting VR headset user to real-world objects
US10846895B2 (en) * 2015-11-23 2020-11-24 Anantha Pradeep Image processing mechanism
TWI596378B (zh) * 2015-12-14 2017-08-21 技嘉科技股份有限公司 可攜式虛擬實境系統
US9767606B2 (en) * 2016-01-12 2017-09-19 Lenovo (Singapore) Pte. Ltd. Automatic modification of augmented reality objects
JP6362631B2 (ja) * 2016-01-15 2018-07-25 株式会社meleap 画像表示システム、画像表示システムの制御方法、画像配信システムおよびヘッドマウントディスプレイ
GB2562430A (en) 2016-01-19 2018-11-14 Walmart Apollo Llc Consumable item ordering system
US10319272B1 (en) 2016-02-10 2019-06-11 Board Of Trustees Of The University Of Alabama, For And On Behalf Of The University Of Alabama In Huntsville Vehicular brightness limiting system
CN105892667B (zh) * 2016-03-31 2019-03-29 联想(北京)有限公司 一种虚拟现实场景下的信息处理方法和电子设备
US10204444B2 (en) 2016-04-28 2019-02-12 Verizon Patent And Licensing Inc. Methods and systems for creating and manipulating an individually-manipulable volumetric model of an object
CA3023391A1 (en) * 2016-05-07 2017-11-16 Smart Third-I Ltd Systems and methods involving edge camera assemblies in handheld devices
US9959678B2 (en) * 2016-06-03 2018-05-01 Oculus Vr, Llc Face and eye tracking using facial sensors within a head-mounted display
US10430988B2 (en) 2016-06-03 2019-10-01 Facebook Technologies, Llc Facial animation using facial sensors within a head-mounted display
US10096165B2 (en) * 2016-06-30 2018-10-09 Intel Corporation Technologies for virtual camera scene generation using physical object sensing
KR101715142B1 (ko) * 2016-08-29 2017-03-14 주식회사 리얼야구존 모바일 기기를 이용하는 스크린 야구 경기 방법
TWI599995B (zh) * 2016-09-02 2017-09-21 Xin-Hong Zhuang Examination questions screening system and its method
US10429191B2 (en) * 2016-09-22 2019-10-01 Amadeus S.A.S. Systems and methods for improved data integration in augmented reality architectures
US10275608B2 (en) 2016-10-15 2019-04-30 International Business Machines Corporation Object-centric video redaction
JP6754678B2 (ja) * 2016-11-18 2020-09-16 株式会社バンダイナムコエンターテインメント シミュレーションシステム及びプログラム
US10437343B2 (en) * 2017-01-06 2019-10-08 Samsung Electronics Co., Ltd. Augmented reality control of internet of things devices
US10146300B2 (en) 2017-01-25 2018-12-04 Lenovo Enterprise Solutions (Singapore) Pte. Ltd. Emitting a visual indicator from the position of an object in a simulated reality emulation
US10429926B2 (en) 2017-03-15 2019-10-01 International Business Machines Corporation Physical object addition and removal based on affordance and view
US10408624B2 (en) 2017-04-18 2019-09-10 Microsoft Technology Licensing, Llc Providing familiarizing directional information
CN108682352B (zh) 2017-05-09 2021-03-23 苏州乐轩科技有限公司 混合现实组件及产生混合现实的方法
CN107315470B (zh) * 2017-05-25 2018-08-17 腾讯科技(深圳)有限公司 图形处理方法、处理器和虚拟现实系统
US10593240B2 (en) * 2017-06-08 2020-03-17 Medos International Sàrl User interface systems for sterile fields and other working environments
US10419716B1 (en) * 2017-06-28 2019-09-17 Vulcan Technologies Llc Ad-hoc dynamic capture of an immersive virtual reality experience
US10627828B2 (en) * 2017-06-30 2020-04-21 Casio Computer Co., Ltd. Autonomous movement device, autonomous movement method and program recording medium
US11054895B2 (en) 2017-07-27 2021-07-06 Htc Corporation Method of display user movement in virtual reality system and related device
CN107666563B (zh) * 2017-09-05 2020-04-21 上海东方传媒技术有限公司 一种应用于摄像机的防碰撞检测方法及系统
WO2019067780A1 (en) * 2017-09-28 2019-04-04 Dakiana Research Llc METHOD AND DEVICE FOR REPAIRING INTERACTIONS WITH THE PHYSICAL ENVIRONMENT DURING SIMULATED REALITY SESSIONS
WO2019065303A1 (ja) * 2017-09-29 2019-04-04 本田技研工業株式会社 サービス提供システム、サービス提供方法およびサービス提供システム用管理装置
US10356341B2 (en) * 2017-10-13 2019-07-16 Fyusion, Inc. Skeleton-based effects and background replacement
JP6946963B2 (ja) * 2017-11-17 2021-10-13 株式会社アイシン 重畳画像表示装置及びコンピュータプログラム
US10169680B1 (en) 2017-12-21 2019-01-01 Luminar Technologies, Inc. Object identification and labeling tool for training autonomous vehicle controllers
CN107977586B (zh) * 2017-12-22 2021-04-13 联想(北京)有限公司 显示内容处理方法、第一电子设备以及第二电子设备
EP3729376A4 (en) 2017-12-22 2021-01-20 Magic Leap, Inc. PROCESS OF RENDERING OF OCCLUSION USING A RAY THROWING AND ACTUAL DEPTH
CN108170391B (zh) * 2017-12-26 2021-04-27 北京三快在线科技有限公司 页面显示方法、装置及电子设备
US11113887B2 (en) * 2018-01-08 2021-09-07 Verizon Patent And Licensing Inc Generating three-dimensional content from two-dimensional images
KR102436018B1 (ko) * 2018-01-23 2022-08-24 삼성전자주식회사 전자 장치 및 그 제어 방법
US10726765B2 (en) 2018-02-15 2020-07-28 Valve Corporation Using tracking of display device to control image display
US11186289B2 (en) * 2018-03-30 2021-11-30 Toyota Jidosha Kabushiki Kaisha Concealment system for improved safe driving
US10902680B2 (en) * 2018-04-03 2021-01-26 Saeed Eslami Augmented reality application system and method
JP6368881B1 (ja) * 2018-04-09 2018-08-01 チームラボ株式会社 表示制御システム,端末装置,コンピュータプログラム,及び表示制御方法
CN108592865A (zh) * 2018-04-28 2018-09-28 京东方科技集团股份有限公司 基于ar设备的几何量测量方法及其装置、ar设备
FR3081069B1 (fr) 2018-05-14 2022-01-21 Diotasoft Procede et systeme pour teletransmettre vers un site de traitement un flux video capte sur un site d’intervention distant
US10713849B2 (en) 2018-05-29 2020-07-14 International Business Machines Corporation Augmented reality masking
US10593119B2 (en) * 2018-06-25 2020-03-17 Intel Corporation Projected augmented reality to obscure physical objects
US10891922B1 (en) * 2018-07-17 2021-01-12 Apple Inc. Attention diversion control
US11600047B2 (en) * 2018-07-17 2023-03-07 Disney Enterprises, Inc. Automated image augmentation using a virtual character
US10877622B2 (en) 2018-08-29 2020-12-29 Facebook Technologies, Llc Detection of structured light for depth sensing
WO2020047486A1 (en) 2018-08-31 2020-03-05 Magic Leap, Inc. Spatially-resolved dynamic dimming for augmented reality device
US11227060B1 (en) 2018-09-12 2022-01-18 Massachusetts Mutual Life Insurance Company Systems and methods for secure display of data on computing devices
US10893043B1 (en) 2018-09-12 2021-01-12 Massachusetts Mutual Life Insurance Company Systems and methods for secure display of data on computing devices
US11042649B1 (en) 2018-09-12 2021-06-22 Massachusetts Mutual Life Insurance Company Systems and methods for secure display of data on computing devices
US10855978B2 (en) * 2018-09-14 2020-12-01 The Toronto-Dominion Bank System and method for receiving user input in virtual/augmented reality
CN112753050A (zh) * 2018-09-28 2021-05-04 索尼公司 信息处理装置、信息处理方法和程序
US10885708B2 (en) * 2018-10-16 2021-01-05 Disney Enterprises, Inc. Automated costume augmentation using shape estimation
CN111103967A (zh) * 2018-10-25 2020-05-05 北京微播视界科技有限公司 虚拟对象的控制方法和装置
US10776933B2 (en) * 2018-12-06 2020-09-15 Microsoft Technology Licensing, Llc Enhanced techniques for tracking the movement of real-world objects for improved positioning of virtual objects
US10866658B2 (en) 2018-12-20 2020-12-15 Industrial Technology Research Institute Indicator device, mixed reality device and operation method thereof
TWI724354B (zh) * 2018-12-20 2021-04-11 財團法人工業技術研究院 指標裝置、混合實境裝置及其操作方法
DE102019101058A1 (de) * 2019-01-16 2020-07-16 Framegrabber Medien GmbH Verfahren zum Darstellen einer virtuellen Realität in einem Landfahrzeug sowie Landfahrzeug
WO2020157995A1 (ja) * 2019-01-28 2020-08-06 株式会社メルカリ プログラム、情報処理方法、及び情報処理端末
CN109862531B (zh) * 2019-02-18 2021-08-17 深圳市慧嘉智科技有限公司 一种交互式监控系统及交互式监控方法
US10996839B2 (en) 2019-05-20 2021-05-04 Microsoft Technology Licensing, Llc Providing consistent interaction models in communication sessions
EP3973513A4 (en) 2019-05-21 2023-06-28 Magic Leap, Inc. Caching and updating of dense 3d reconstruction data
US20200371673A1 (en) * 2019-05-22 2020-11-26 Microsoft Technology Licensing, Llc Adaptive interaction models based on eye gaze gestures
US11238659B2 (en) 2019-06-26 2022-02-01 Magic Leap, Inc. Caching and updating of dense 3D reconstruction data
US20200410764A1 (en) * 2019-06-28 2020-12-31 Snap Inc. Real-time augmented-reality costuming
EP3991142A4 (en) 2019-06-28 2023-06-28 Magic Leap, Inc. Fast hand meshing for dynamic occlusion
JP7385385B2 (ja) * 2019-07-19 2023-11-22 株式会社ソニー・インタラクティブエンタテインメント 画像配信システムおよび画像配信方法
CN112241199B (zh) * 2019-07-19 2023-03-24 华为技术有限公司 虚拟现实场景中的交互方法及装置
EP4014468A4 (en) 2019-08-12 2022-10-19 Magic Leap, Inc. SYSTEMS AND PROCESSES FOR VIRTUAL AND AUGMENTED REALITY
AU2020386866A1 (en) 2019-11-18 2022-06-09 Elbit Systems Ltd. A system and method for mixed reality
US10976806B1 (en) 2019-12-27 2021-04-13 GE Precision Healthcare LLC Methods and systems for immersive reality in a medical environment
US11095855B2 (en) * 2020-01-16 2021-08-17 Microsoft Technology Licensing, Llc Remote collaborations with volumetric space indications
US11410387B1 (en) 2020-01-17 2022-08-09 Facebook Technologies, Llc. Systems, methods, and media for generating visualization of physical environment in artificial reality
US10950034B1 (en) 2020-01-27 2021-03-16 Facebook Technologies, Llc Systems, methods, and media for generating visualization of physical environment in artificial reality
US11113891B2 (en) 2020-01-27 2021-09-07 Facebook Technologies, Llc Systems, methods, and media for displaying real-time visualization of physical environment in artificial reality
US11200745B2 (en) 2020-01-27 2021-12-14 Facebook Technologies, Llc. Systems, methods, and media for automatically triggering real-time visualization of physical environment in artificial reality
US11210860B2 (en) 2020-01-27 2021-12-28 Facebook Technologies, Llc. Systems, methods, and media for visualizing occluded physical objects reconstructed in artificial reality
US11451758B1 (en) 2020-02-12 2022-09-20 Meta Platforms Technologies, Llc Systems, methods, and media for colorizing grayscale images
TWI768478B (zh) * 2020-09-25 2022-06-21 宏碁股份有限公司 適應性調用外部硬體資源的方法
US20230145728A1 (en) * 2021-11-05 2023-05-11 Htc Corporation Method and system for detecting hand gesture, and computer readable storage medium
US11836302B2 (en) 2022-03-03 2023-12-05 Htc Corporation Motion computing system and method for virtual reality
EP4283440A1 (en) * 2022-05-25 2023-11-29 Koninklijke Philips N.V. Modifying a virtual representation of a real environment

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040002642A1 (en) * 2002-07-01 2004-01-01 Doron Dekel Video pose tracking system and method
US6734853B2 (en) * 2001-08-28 2004-05-11 Intel Corporation Method of using view frustrum culling for scaleable collision detection
CN1914646A (zh) * 2004-05-27 2007-02-14 佳能株式会社 信息处理方法、信息处理设备及摄像设备
CN101119443A (zh) * 2002-05-28 2008-02-06 卡西欧计算机株式会社 合成图像传送设备以及方法
US20110179025A1 (en) * 2010-01-21 2011-07-21 Kryptonite Systems Inc Social and contextual searching for enterprise business applications

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6198462B1 (en) 1994-10-14 2001-03-06 Hughes Electronics Corporation Virtual display screen system
US6625299B1 (en) 1998-04-08 2003-09-23 Jeffrey Meisner Augmented reality technology
US7073129B1 (en) 1998-12-18 2006-07-04 Tangis Corporation Automated selection of appropriate information based on a computer user's context
US7080322B2 (en) 1998-12-18 2006-07-18 Tangis Corporation Thematic response to a computer user's context, such as by a wearable personal computer
US6968158B1 (en) 2000-01-31 2005-11-22 Motorola, Inc. Wireless transmission of packetized command and image data
US7126558B1 (en) 2001-10-19 2006-10-24 Accenture Global Services Gmbh Industrial augmented reality
JP3956106B2 (ja) 2002-03-28 2007-08-08 インターナショナル・ビジネス・マシーンズ・コーポレーション コンピュータ装置及びプログラム
US20030146922A1 (en) 2002-12-20 2003-08-07 Nassir Navab System and method for diminished reality
US7500198B2 (en) 2003-04-25 2009-03-03 Motorola, Inc. Method and apparatus for modifying skin and theme screens on a communication product
EP1505516A1 (en) 2003-08-04 2005-02-09 Sap Ag Metadata based query
US20060236258A1 (en) 2003-08-11 2006-10-19 Core Mobility, Inc. Scheduling of rendering of location-based content
US20060146012A1 (en) 2005-01-04 2006-07-06 Arneson Theodore R System and method for automatic display switching
TWI281623B (en) * 2005-05-10 2007-05-21 Pixart Imaging Inc Orientation point orientating method of orientation device and device thereof
US20060267997A1 (en) * 2005-05-24 2006-11-30 Walls Jeffrey J Systems and methods for rendering graphics in a multi-node rendering system
US7848765B2 (en) 2005-05-27 2010-12-07 Where, Inc. Location-based services
TWI348639B (en) * 2005-12-16 2011-09-11 Ind Tech Res Inst Motion recognition system and method for controlling electronic device
US9323055B2 (en) 2006-05-26 2016-04-26 Exelis, Inc. System and method to display maintenance and operational instructions of an apparatus using augmented reality
US20080043013A1 (en) 2006-06-19 2008-02-21 Kimberly-Clark Worldwide, Inc System for designing shopping environments
US10908421B2 (en) * 2006-11-02 2021-02-02 Razer (Asia-Pacific) Pte. Ltd. Systems and methods for personal viewing devices
US20090144657A1 (en) 2007-11-30 2009-06-04 Verizon Laboratories Inc. Method and system of sharing images captured by a mobile communication device
US8184141B2 (en) 2008-02-04 2012-05-22 Siemens Enterprise Communications, Inc. Method and apparatus for face recognition enhanced video mixing
JP2009245392A (ja) 2008-03-31 2009-10-22 Brother Ind Ltd ヘッドマウントディスプレイ及びヘッドマウントディスプレイシステム
TW201004339A (en) 2008-07-09 2010-01-16 Univ Nat Taiwan Method and system for processing synthetic graphic images on digital video file
US20100238161A1 (en) 2009-03-19 2010-09-23 Kenneth Varga Computer-aided system for 360º heads up display of safety/mission critical data
US20100257252A1 (en) 2009-04-01 2010-10-07 Microsoft Corporation Augmented Reality Cloud Computing
US8629784B2 (en) 2009-04-02 2014-01-14 GM Global Technology Operations LLC Peripheral salient feature enhancement on full-windshield head-up display
US8340351B2 (en) 2009-07-01 2012-12-25 Texas Instruments Incorporated Method and apparatus for eliminating unwanted objects from a streaming image
US20110075257A1 (en) 2009-09-14 2011-03-31 The Arizona Board Of Regents On Behalf Of The University Of Arizona 3-Dimensional electro-optical see-through displays
US20110161875A1 (en) 2009-12-29 2011-06-30 Nokia Corporation Method and apparatus for decluttering a mapping display
US9122707B2 (en) 2010-05-28 2015-09-01 Nokia Technologies Oy Method and apparatus for providing a localized virtual reality environment
JP2012029164A (ja) 2010-07-26 2012-02-09 Konica Minolta Business Technologies Inc 携帯端末及び装置管理方法
US9552431B2 (en) 2010-11-24 2017-01-24 Visa International Service Association Unified online content manager apparatuses, methods, and systems
EP2691935A1 (en) * 2011-03-29 2014-02-05 Qualcomm Incorporated System for the rendering of shared digital interfaces relative to each user's point of view
US8493353B2 (en) 2011-04-13 2013-07-23 Longsand Limited Methods and systems for generating and joining shared experience
EP2515075A1 (en) * 2011-04-19 2012-10-24 Sony Ericsson Mobile Communications AB Weather prediction for pressure sensor
US9547938B2 (en) 2011-05-27 2017-01-17 A9.Com, Inc. Augmenting a live view
US8856129B2 (en) * 2011-09-20 2014-10-07 Microsoft Corporation Flexible and scalable structured web data extraction
US9081177B2 (en) * 2011-10-07 2015-07-14 Google Inc. Wearable computer with nearby object response

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6734853B2 (en) * 2001-08-28 2004-05-11 Intel Corporation Method of using view frustrum culling for scaleable collision detection
CN101119443A (zh) * 2002-05-28 2008-02-06 卡西欧计算机株式会社 合成图像传送设备以及方法
US20040002642A1 (en) * 2002-07-01 2004-01-01 Doron Dekel Video pose tracking system and method
CN1914646A (zh) * 2004-05-27 2007-02-14 佳能株式会社 信息处理方法、信息处理设备及摄像设备
US20110179025A1 (en) * 2010-01-21 2011-07-21 Kryptonite Systems Inc Social and contextual searching for enterprise business applications

Cited By (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104517076A (zh) * 2013-09-26 2015-04-15 联想(北京)有限公司 一种信息处理方法及电子设备
CN104517076B (zh) * 2013-09-26 2017-12-26 联想(北京)有限公司 一种信息处理方法及电子设备
US10310265B2 (en) 2013-12-27 2019-06-04 Intel Corporation Device, method, and system of providing extended display with head mounted display
WO2015096145A1 (en) 2013-12-27 2015-07-02 Intel Corporation Device, method, and system of providing extended display with head mounted display
CN107111364B (zh) * 2014-12-23 2020-05-15 诺基亚技术有限公司 用于虚拟现实内容控制的方法及装置
CN107111364A (zh) * 2014-12-23 2017-08-29 诺基亚技术有限公司 虚拟现实内容控制
US10956008B2 (en) 2015-01-07 2021-03-23 Microsoft Technology Licensing, Llc Automatic home screen determination based on display device
CN107113468B (zh) * 2015-01-07 2019-12-31 微软技术许可有限责任公司 一种移动计算设备以及实现的方法、计算机存储介质
CN107113468A (zh) * 2015-01-07 2017-08-29 微软技术许可有限责任公司 基于显示设备的自动主屏确定
CN111372098A (zh) * 2015-01-21 2020-07-03 微软技术许可有限责任公司 用于共享场景网格数据同步的用户设备、系统、方法及可读介质
CN107567610A (zh) * 2015-04-27 2018-01-09 微软技术许可有限责任公司 附连控制元素的混合环境显示
CN107567610B (zh) * 2015-04-27 2021-03-19 微软技术许可有限责任公司 附连控制元素的混合环境显示
US10572133B2 (en) 2015-04-27 2020-02-25 Microsoft Technology Licensing, Llc Mixed environment display of attached control elements
CN106293041A (zh) * 2015-06-18 2017-01-04 北京智谷睿拓技术服务有限公司 确定遮挡的方法和装置
CN106293041B (zh) * 2015-06-18 2019-03-29 北京智谷睿拓技术服务有限公司 确定遮挡的方法和装置
CN105117931A (zh) * 2015-07-30 2015-12-02 金华唯见科技有限公司 一种目标驱动虚拟现实生态系统
CN107852573A (zh) * 2015-08-07 2018-03-27 微软技术许可有限责任公司 混合现实社交交互
CN107924589A (zh) * 2015-08-20 2018-04-17 微软技术许可有限责任公司 通信系统
CN108885482B (zh) * 2016-03-31 2023-04-28 英特尔公司 用于包括映像的视场中的增强现实的方法、设备、系统、装置和介质
CN108885482A (zh) * 2016-03-31 2018-11-23 英特尔公司 包括映像的视场中的增强现实
CN108700942B (zh) * 2016-05-17 2021-07-16 谷歌有限责任公司 在虚拟/增强现实系统中改变对象位置的技术
CN108700942A (zh) * 2016-05-17 2018-10-23 谷歌有限责任公司 在虚拟/增强现实系统中改变对象位置的技术
CN108885488A (zh) * 2016-06-27 2018-11-23 谷歌有限责任公司 在增强和/或虚拟现实环境中生成与虚拟对象相关的可视提示
CN107077755B (zh) * 2016-09-30 2021-06-04 达闼机器人有限公司 虚拟与现实融合方法、系统和虚拟现实设备
CN107077755A (zh) * 2016-09-30 2017-08-18 深圳达闼科技控股有限公司 虚拟与现实融合方法、系统和虚拟现实设备
WO2018058601A1 (zh) * 2016-09-30 2018-04-05 深圳达闼科技控股有限公司 虚拟与现实融合方法、系统和虚拟现实设备
CN110023043A (zh) * 2016-10-28 2019-07-16 国际商业机器公司 通过认知系统增强对机器人假体的控制
CN110023043B (zh) * 2016-10-28 2022-04-15 国际商业机器公司 通过认知系统增强对机器人假体的控制
CN106774862A (zh) * 2016-12-03 2017-05-31 西安科锐盛创新科技有限公司 基于视线的vr显示方法及vr设备
CN110337318A (zh) * 2017-02-28 2019-10-15 奇跃公司 混合现实装置中的虚拟和真实对象记录
CN106959108A (zh) * 2017-03-23 2017-07-18 联想(北京)有限公司 位置确定方法、系统及电子设备
CN110663011A (zh) * 2017-05-23 2020-01-07 Pcms控股公司 基于用户视图中的真实生活对象的持久性而对ar信息进行优先化排序的系统及方法
CN110663011B (zh) * 2017-05-23 2024-04-12 交互数字Vc控股公司 基于用户视图中的真实生活对象的持久性而对ar信息进行优先化排序的系统及方法
CN108320333B (zh) * 2017-12-29 2022-01-11 中国银联股份有限公司 场景适应型虚拟现实转换设备和虚拟现实的场景适应方法
CN108320333A (zh) * 2017-12-29 2018-07-24 中国银联股份有限公司 场景适应型虚拟现实转换设备和虚拟现实的场景适应方法
CN110413105B (zh) * 2018-04-30 2021-12-07 苹果公司 虚拟环境内的虚拟对象的有形可视化
US11756269B2 (en) 2018-04-30 2023-09-12 Apple Inc. Tangibility visualization of virtual objects within a computer-generated reality environment
CN110413105A (zh) * 2018-04-30 2019-11-05 苹果公司 虚拟环境内的虚拟对象的有形可视化
CN109035415A (zh) * 2018-07-03 2018-12-18 百度在线网络技术(北京)有限公司 虚拟模型的处理方法、装置、设备和计算机可读存储介质
CN109035415B (zh) * 2018-07-03 2023-05-16 百度在线网络技术(北京)有限公司 虚拟模型的处理方法、装置、设备和计算机可读存储介质
CN113302578A (zh) * 2019-01-22 2021-08-24 惠普发展公司,有限责任合伙企业 混合现实呈现
CN111177291B (zh) * 2019-12-23 2021-12-14 腾讯科技(深圳)有限公司 一种对象移动方法、装置、设备及介质
CN111177291A (zh) * 2019-12-23 2020-05-19 腾讯科技(深圳)有限公司 一种对象移动方法、装置、设备及介质
CN111773658A (zh) * 2020-07-03 2020-10-16 珠海金山网络游戏科技有限公司 一种基于计算机视觉库的游戏交互方法及装置
CN111773658B (zh) * 2020-07-03 2024-02-23 珠海金山数字网络科技有限公司 一种基于计算机视觉库的游戏交互方法及装置
CN113842227A (zh) * 2021-09-03 2021-12-28 上海涞秋医疗科技有限责任公司 医疗辅助三维模型定位匹配方法、系统、设备及介质
CN113842227B (zh) * 2021-09-03 2024-04-05 上海涞秋医疗科技有限责任公司 医疗辅助三维模型定位匹配方法、系统、设备及介质

Also Published As

Publication number Publication date
CN102999160B (zh) 2016-01-27
HK1181519A1 (zh) 2013-11-08
US10132633B2 (en) 2018-11-20
US20130093788A1 (en) 2013-04-18
US20160117861A1 (en) 2016-04-28
US9255813B2 (en) 2016-02-09
TWI581178B (zh) 2017-05-01
WO2013056187A1 (en) 2013-04-18
TW201329853A (zh) 2013-07-16

Similar Documents

Publication Publication Date Title
CN102999160B (zh) 混合现实显示器中用户控制的现实对象的消失
US10223832B2 (en) Providing location occupancy analysis via a mixed reality device
US20170103440A1 (en) Wearable augmented reality eyeglass communication device including mobile phone and mobile computing via virtual touch screen gesture control and neuron command
US9342610B2 (en) Portals: registered objects as virtualized, personalized displays
US20190188471A1 (en) Method and apparatus for biometric data capture
US9767524B2 (en) Interaction with virtual objects causing change of legal status
CN105264548B (zh) 用于生成增强现实体验的难以察觉的标签
CN102566756B (zh) 用于扩展现实显示的基于理解力和意图的内容
US9390561B2 (en) Personal holographic billboard
US8963956B2 (en) Location based skins for mixed reality displays
US10019962B2 (en) Context adaptive user interface for augmented reality display
US20150379770A1 (en) Digital action in response to object interaction
KR20150126938A (ko) 증강 및 가상 현실을 위한 시스템 및 방법
CN105453011A (zh) 虚拟对象朝向和可视化
CN103946732A (zh) 基于对透视、近眼显示器的传感器输入的视频显示修改
CN102419631A (zh) 虚拟内容到现实内容中的融合
WO2018122709A1 (en) Wearable augmented reality eyeglass communication device including mobile phone and mobile computing via virtual touch screen gesture control and neuron command
US20230199297A1 (en) Selectively using sensors for contextual data
US20230046337A1 (en) Digital assistant reference resolution

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 1181519

Country of ref document: HK

ASS Succession or assignment of patent right

Owner name: MICROSOFT TECHNOLOGY LICENSING LLC

Free format text: FORMER OWNER: MICROSOFT CORP.

Effective date: 20150728

C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20150728

Address after: Washington State

Applicant after: Micro soft technique license Co., Ltd

Address before: Washington State

Applicant before: Microsoft Corp.

C14 Grant of patent or utility model
GR01 Patent grant
REG Reference to a national code

Ref country code: HK

Ref legal event code: GR

Ref document number: 1181519

Country of ref document: HK