CN107924584A - 增强现实 - Google Patents
增强现实 Download PDFInfo
- Publication number
- CN107924584A CN107924584A CN201680048059.5A CN201680048059A CN107924584A CN 107924584 A CN107924584 A CN 107924584A CN 201680048059 A CN201680048059 A CN 201680048059A CN 107924584 A CN107924584 A CN 107924584A
- Authority
- CN
- China
- Prior art keywords
- models
- augmented reality
- equipment
- local
- real world
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0132—Head-up displays characterised by optical features comprising binocular systems
- G02B2027/0134—Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2215/00—Indexing scheme for image rendering
- G06T2215/16—Using real world measurements to influence rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/024—Multi-user, collaborative environment
Abstract
增强现实(AR)系统接收真实世界环境的一部分的多个本地3D模型,其中每个本地3D模型是由不同的AR设备当位于真实世界环境中时已经生成的。所述本地3D模型被组合以生成全局3D模型,所述全局3D模型的至少一部分被发送至远离真实世界环境的设备。与所述本地3D模型中的任何本地3D模型相比,该全局3D模型单独地表示所述真实环境的更大部分。AR系统从远程设备接收渲染数据,并且当AR设备位于真实世界环境中时将其发送至该AR设备。可替代地,渲染数据可以经由网络从远程设备直接被发送至AR设备。所述渲染数据用于在真实世界环境中的AR设备处渲染虚拟对象时使用。
Description
背景技术
显示系统可以用于制造对用户可见的期望的图像。可穿戴显示系统可以在可穿戴头戴设备中被实施,其可以被设置为显示距人眼较短距离内的图像。这样的可穿戴头戴设备有时可以被称为头戴式显示器。光学组件被设置在可穿戴头梁中以便显示用户眼睛的几厘米内的期望的图像。
一些类型的显示系统通过该光学器件提供视野以使得所生成的被显示给用户的图像覆盖在真实世界视野上。这被称为增强现实(“AR”),或者等同地被称为混合现实。一个示例是Microsoft HoloLens设备。
同可穿戴显示系统一样,增强现实设备可以包含其他组件,例如处理单元、提供网络连通性的计算机接口、以及相机等。这些组件可以被封装在头梁中,例如在HoloLens中,或者在通过无线或有线装置连接至头梁的分开的外壳中。
发明内容
提供了该发明内容以用简化的形式引入在下文的具体实施方式中进一步描述的概念的选择。该发明内容不旨在标识所要求保护的主题的关键特征或本质特征,也不旨在用于限制所要求保护的主题的范围。
在一个方面中,增强现实系统包括计算机接口、全局模型生成模块、以及增强共享模块。
计算机接口被配置为接收真实世界环境的一部分的多个本地3D模型,其中每个本地3D模型是由不同的增强现实设备当位于真实世界环境中时已经生成的。全局模型生成模块被配置为组合所述本地3D模型以生成全局3D模型,并且将所述全局3D模型的至少一部分发送至远离真实世界环境的设备。与所述本地3D模型中的任何本地3D模型相比,该全局3D模型单独地表示所述真实环境的更大部分。这允许远程设备远程地探索和增强真实世界环境的虚拟版本。增强共享模块被配置为从远程设备接收渲染数据,并且当增强现实设备位于真实世界环境中时将其发送至该增强现实设备。所述渲染数据用于在真实世界环境中的增强现实设备处渲染虚拟对象时使用。
在另一方面中,所述渲染数据可以经由网络从远程设备直接被发送至AR设备(即,不经由增强现实系统)。
附图说明
为了更好地理解主题并且示出如何来实现主题的实施例,对以下附图进行参考,其中:
图1A示出了增强现实设备的透视视图,而图1B示出了所述设备的框图;
图2示出了增强现实设备的功能模块;
图3示出了通信系统;
图4示出了在用户与另一用户之间实现基于AR的通信的方法;
图5示出了根据本主题的在用户与另一用户之间实现基于AR的通信的改进的方法;
图6示出了其中可以应用主题的示例性环境。
具体实施方式
图1A示出了从设备2的穿戴者22(“AR用户”)的视角的可穿戴增强现实(“AR”)设备2的透视视图。图1B示出了AR设备2的示意框图。AR设备2是以可穿戴头戴设备为形式的计算机设备。AR用户22没有在图1A或图1B中示出,但是在之后的图中的一些图中示出。
增强现实设备2包括头梁6,其是被设置为穿戴在穿戴者头上的头带。头梁6具有目的是适配在穿戴者的鼻梁上方的中央部分4,并且具有目的是在穿戴者的耳朵上方环绕其头部的内弯。
头梁3支持被标为10L和10R的左光学组件和右光学组件,它们是波导。为了方便在本文中引用,光学组件10将被认为是左组件或右组件之一,这是因为所述组件除了是彼此的镜像图之外是本质上相同的。因此,适用于左手的组件的所有描述也适用于右手的组件。中央部分4容纳至少一个光引擎17,其没有在图1A中示出但在图1B中被描绘。
光引擎17包括微显示器和以准直透镜(未示出)为形式的成像光学器件。微显示器可以是任何类型的图像源,例如硅基液晶(LCOS)显示器、透射式液晶显示器(LCD)、LED的矩阵阵列(无论是有机的还是无机的)、以及任何其他合适的显示器。所述显示器是由在图1A和图1B中不可见的电路驱动的,所述电路激活显示器的个体像素以生成图像。来自每个像素的大体上准直的光落在光引擎4的出射光瞳上。在出射光瞳处,准直的光束被耦合到每个光学组件10L、10R中,进而耦合到在每个组件上提供的相应的耦合中区域12L、12R中。在图1A中清楚地示出了这些耦合中区域。耦合中的光接着通过涉及衍射和TIR的机制、从相应的中间(折叠)区域14L和14R中的光学组件侧面被引导,并且也向下被引导到其离开组件10去往用户的眼睛的相应的出口区域16L和16R中。光学组件10位于光引擎13和眼睛之间,即显示系统配置具有所谓的透射类型。
准直镜头将图像校准成多个光束,其形成所显示的图像的虚拟版本,所述虚拟版本是光学传感的无限远处的虚拟图像。光作为多个光束而离开,其对应于输入光束并且大体上形成相同的虚拟图像,眼睛的镜头将所述虚拟图像投影到视网膜上以形成对AR用户22可见的真实图像。以该方式,光学组件10将所显示的图像投影到穿戴者的眼睛上。光学组件10L、10R和光引擎17构成AR设备2的显示装置。
区域12、14、16可以是例如适当地设置的衍射光栅或全息图。光学组件10具有折射率n,其使得发生全内反射以将来自光引擎的光束沿着中间扩展区域314并且向下朝向出口区域316引导。
光学组件10是大体上透明的,由此穿戴者可以看穿它以观看他们与所投影的图像同时所处的真实世界环境,由此提供增强现实体验。
为了提供立体图像(即,被用户感知为具有3D结构的图像),可以使用合适的光学器件将稍微不同版本的2D图像例如从中央部分4中的不同的光引擎17(即,两个微显示器)或者从同一光引擎(即,一个微显示器)投影到每个眼睛上,从而将来自单个显示器的光输出分开。
在图1A中所示出的可穿戴AR设备2仅仅是一个示例配置。例如,在使用两个光引擎的情况下,它们可以替代地位于设备的右边和左边的分开的位置处(靠近穿戴者的双耳)。此外,尽管在该示例中,形成虚拟图像的输入光束是通过校准来自显示器的光而生成的,但基于所谓的扫描的可替代的光引擎可以用单个光束来复制该效果,其朝向被快速调节而同时调节其强度和/或颜色。可以以等同于将通过利用准直光学器件校准显示器上的(真实)图像的光所创建的虚拟图像的该方式来模拟虚拟图像。可替代地,可以通过将大体上透明的像素嵌入穿戴者眼前的玻璃或聚合物板中来提供类似的AR体验,其与光学组件10A、10L具有类似的配置,但不需要区域结构12、14、16。
其他头梁6也在本主题的范围内。例如,显示光学器件可以使用框架(以传统眼睛的方式)、头盔、或其他适配系统而等同地被附接至用户的头部。所述适配系统可以被设计为在人体测量范围和头部形态上满足用户群体,并且提供对显示系统的舒服的支持。
AR设备2还包括一个或多个相机19——固定在头梁3上并且在该示例中被配置为分别从用户的左眼和右眼捕获近似的视野(“视场”)的立体相机10L、10R。所述相机被放置在头梁3上朝向用户的头部的任一侧,并且因此从稍微不同的视角来捕获设备前方的场景的图像。相结合地,立体相机随着设备移动通过真实世界环境而捕获真实世界环境的立体运动图像。立体运动图像意指示出同一场景的稍微不同的视角的两幅运动图像,每个由要紧接地播出以复制运动的时间序列的帧形成。当被组合时,两幅图像给出了运动的3D结构的印象。
如在图1B中所示出的,AR设备2还包括:一个或多个扬声器11;一个或多个麦克风13;存储器5;以一个或多个处理单元3(例如,CPU、GPU、和/或针对诸如AR相关功能之类的特定功能而优化的定制处理单元)为形式的处理装置;以及用于与其他计算机设备进行通信的一个或多个计算机接口,例如Wifi接口7a、蓝牙接口7b等。可穿戴设备3可以包括没有示出的其他组件,例如专用深度传感器、额外的接口等。
如在图1A中所示出的,左麦克风11L和右麦克风13R位于头梁的前部(从穿戴者的视角而言),而左声道和右声道扬声器、耳机、或其他音频输出换能器位于头带3的左边和右边。这些是以一副骨传导音频换能器11L、11R为形式的,它们充当左和右音频声道输出扬声器。
尽管在图1A中不明显,处理装置3、存储器5、和接口7a、7b被封装在头戴3中。可替代地,这些可以被封装在通过有线和/或无线装置而连接至头带3的组件分开的外壳中。例如,所述分开的外壳可以被设计为被穿戴或者是皮带,或者适配在穿戴者的口袋中,或者这些组件中的一个或多个组件可以被封装在分开的计算机设备(例如,智能电话、平板计算机、膝上型或台式计算机等)中,所述分开的计算机设备无线地与AR无线耳机2中的显示器和相机装置进行通信,由此所述无线耳机和分开的设备构成增强现实装置。
存储器保存处理器装置3被配置为执行的可执行代码9。在一些情况下,代码9的不同的部分可以由处理装置3的不同的处理单元来执行。代码9包括操作系统的代码,以及被配置为在操作系统上运行的一个或多个应用的代码。
图2示出了AR设备2的功能框图。示出了AR系统40,其包括以下功能模块:渲染模块42、本地增强模块44、本地建模模块46、模型增强模块48、设备追踪模块50、编码器52、以及解码器54。这些功能模块中的每个功能模块可以在软件中实现,即它们可以是代码9的代码模块、AR设备2的专用硬件、或者软件和专用硬件两者的组合。
渲染模块42控制光引擎17以生成对穿戴者可见的立体图像,即大体上同时地生成由光学组件10L、10R投影到不同的眼睛上的稍微不同的2D图像,以便创建3D结构的印象。
立体图像是由在至少一个虚拟显示元素(“增强”)处进行渲染的渲染模块42形成的,所述虚拟显示元素被感知为3D元素,即具有在3D空间中的真实世界为之处被AR用户感知的3D结构。
所述增强是由以存储在存储器5中的增强数据对象为形式的渲染数据定义的。所述数据对象包括:定义虚拟元素在3D空间中的期望位置的位置数据(例如,作为(x,y,z)笛卡尔坐标);定义虚拟元素的3D表面结构的结构数据,即虚拟元素的3D模型;以及定义要应用至由3D模型所定义的表面的虚拟元素的2D表面纹理的图像数据。数据对象可以包括额外的信息,例如增强的期望朝向。
所感知的3D效果是通过对增强数据对象的适当渲染来实现的。为了给出具有3D结构的增强的印象,立体图像是基于数据对象中的2D表面和3D增强模型数据而生成的,其中增强被渲染以在立体图像中的期望的位置处出现。
AR设备2附近的真实世界的部分的3D模型用于以其将是真实世界对象的方式来给出对增强具有期望的有形效果的真实世界的印象。3D模型表示在真实世界中存在的表面结构,并且其提供的关于该表面结构的信息允许增强被显示为好像其是真实世界3D对象,由此提供沉浸式增强现实体验。3D模型是以3D网格为形式的。
例如,基于真实世界的模型,可以给出关于被真实世界对象遮蔽的增强(其从用户的视角来看在其所感知的位置前面)的印象;例如通过在对象周围移动来动态地与真实世界对象交互;例如通过坐在真实世界对象的顶部等而静态地与其交互。
无论真实世界表面结构是否影响,增强都可以基于合适的渲染标准来确定。例如,通过创建包括真实世界表面结构和任何增强的所感知的AR世界的3D模型,并且沿着使用姿势追踪(见下文)所确定的AR用户的视线将其投影到平面上,用于确定真实世界对象是否应该被感知为部分地遮蔽增强的合适标准是真实世界对象在平面中的投影是否与增强的投影重叠,这可以进一步被细化以考虑到透明的或不透明的真实世界结构。通常而言,所述标准可以取决于增强现实设备2的位置和/或朝向,和/或讨论中的真实世界结构。
增强也可以被映射至网格,这是就其期望的位置和/或朝向是相对于网格中的某些结构来定义的意义而言的。假如结构移动和/或旋转以引起网格中的对应改变,则当被适当地渲染时,这将引起增强的位置和/或朝向的对应改变。例如,增强的期望的位置可以在桌面结构上并且相对于桌面结构而定义;如果桌子被移动,则增强随其移动。对象识别可以用于该目的,例如用于识别已知形状的桌子并且由此使用其可识别的结构来检测桌子何时被移动。这样的对象识别技术是本领域中已知的。
以该方式被映射至网格或者以其他方式与在3D模型中实施的表面结构的片段相关联的增强被称为对该表面结构的片段的“注释”。为了注释真实世界表面结构的片段,有必要使得该表面结构由讨论中的3D模型来表示——没有这个,真实世界结构不能被注释。
本地建模模块46使用AR设备的所有者传感器(例如,相机18)和/或任何专用深度传感器等在存储器5中生成环境的本地3D模型“LM”。本地建模模块46和传感器构成AR设备2的传感装置。
出于在下文中详细解释的原因,同一环境的外部生成的3D模型“GM”(“全局网格”)是从网络26接收的。
模型聚合模块选择性地使用本地模块LM的数据和外部生成的模型GM的数据来生成聚合3D模型“AM”以由渲染组件42在渲染增强时使用。即增强是至少基于本地网格数据LM和全局网格数据GM来渲染的。
设备追踪模块50使用在AR设备2处所捕获的本地传感器数据来追踪AR设备2的位置和朝向。所述传感器数据可以以多种方式来捕获,例如使用相机18和/或AR设备2的其他传感器。追踪模块例如通过输出计算AR设备的当前“姿势向量”来向渲染模块42指示AR设备2的当前位置和朝向。所述姿势向量是六维向量,例如(x,y,z,P,R,Y),其中(x,y,z)是设备关于合适的原点的笛卡尔坐标,而(P,R,Y)是设备关于合适的参考轴的俯仰角、偏航角、和翻滚角。
渲染模块42基于所述追踪来调整增强以考虑到设备的移动,即以保持对占据真实世界的3D元素的感知,例如从而确保静态增强看起来保持静态(这实际上将通过从AR用户的角度在环境相对于它们移动时缩放或旋转它们来实现)。
简要地返回图1,代码9包括用于实现通信系统20中经由通信网络26的通信事件的通信客户端36(见图3)。当在AR设备2上执行时,通信客户端36使得AR设备2能够经营网络26建立与通信系统20的另外的用户(其操作运行他们自己版本的通信客户端软件的他们自己的设备)的实时视频通信事件,例如实时视频通话、即时消息传送会话、屏幕共享或白板会话等。
图3示出了另一用户30,其从AR用户22的角度是远端用户。远端用户30在操作用户设备(“伙伴设备”)32,其被示出为连接至网络26并且要执行其自己版本的客户端软件37(“伙伴客户端”)。伙伴设备32可以例如是智能电话、平板计算机、膝上型或台式计算机设备、智能电视或机顶盒、游戏控制器等。
通话音频和视频数据在建立的通信事件期间通过网络26来发送和接收。通信就在近端设备处所捕获的音频/视频与由远端设备所输出的音频/视频之间仅仅存在短的延迟(例如,大约2秒或更短)的意义上而言是“实时的”。客户端可以例如是在相关设备的处理器上执行并且在操作系统上运行的独立软件应用,或者是在处理器上执行的另一应用(例如,网络浏览器)的插件。
通信系统可以是基于互联网协议语音或视频(VoIP)系统的。这些系统对用户有益,这是因为它们常常比传统固定线路或移动蜂窝网络具有显著较低的成本,特别是针对长距离通信。客户端软件36、37建立VoIP连接并且基于例如登录凭证(例如,用户名和相关联的密码)来提供其他功能,例如注册和用户认证。
返回图2,图3的编码器和解码器模块53、54表示通过在处理装置3上执行AR客户端36来实现的功能。编码器模块52从相机18接收图像数据,从麦克风13接收音频数据,并且将这些数据作为对外数据流55经由网络26发送至远端伙伴设备32。解码器54从远端设备32接收到来的数据流53,并且从中提取远端用户的通话音频和视频数据。
AR客户端36和伙伴客户端37能够将AR元素包含到实时通信事件中。
在视频通话或其他基于视频的通信事件中,AR客户端36将通信事件的视频元素显示为3D增强。例如,3D增强可以被渲染为对AR设备2的AR用户可见,其包含远端用户的通话视频,或者关于当前在他们的屏幕或共享的白板上显示的内容的图像。例如,该元素可以被渲染以使得其被感知为被投影在真实世界表面(例如,桌子或墙)上;或者其可以在AR用户可以走向、从其走开、或者在周围走动的位置处被渲染为明显独立的元素。解码器54从视频数据(其是从到来的数据流提取的)生成一个或多个通话增强数据对象“CA”,解码器54将其提供至渲染模块42。通话对象CA的2D表面数据包括视频数据的至少一部分,其使得当由渲染模块42渲染时,视频数据被显示为通话对象CA的表面纹理。
远端用户也可以通过经由伙伴客户端37的用户接口在伙伴设备32处创建合适的增强数据对象“RA”来经由伙伴设备32的用户接口添加他们自己的增强,例如注释。数据对象RA在到来的视频流53中被发送至AR设备2。解码器54提取远程生成的增强数据对象RA,并且将其提供至渲染模块42以用相同的方式进行渲染。
为了能够以该方式添加注释,伙伴设备32还需要访问被注释的环境的部分的表面结构。解码器54因此在对外的流55中包括一个版本的本地网格LM。
AR用户还可以经由AR设备2的用户接口来创建他们自己的增强。AR设备的用户接口例如可以包括“自然”用户接口(NUI)。NUI使得用户能够以自然的方式与设备进行交互,而不受由诸如鼠标、键盘、遥控器等之类的输入设备所施加的人工约束。NUI方法的示例包括利用以下技术的那些方法:触摸感应显示器、语音和话音识别、意图和目标理解、使用深度相机(例如,立体或飞行时间相机系统、红外相机系统、RGB相机系统及其组合)的运动姿势检测、使用加速度计/陀螺仪的运动姿势检测、面部识别、3D显示、头部、眼睛和目光追踪等。
响应于用户输入,本地增强模块44根据用户输入来创建本地增强数据对象“LA”。该数据对象LA被提供至渲染模块42以用于以与通话和远程数据对象CA、RA相同的方式进行渲染。本地增强对象还被提供至解码器52,解码器52将其包括在对外的数据流中。
在传统视频通话中,每个设备将正常地捕获其相应用户的视频并且将其发送给其他通话参与者。然而,在这里,AR客户端36替代地捕获如使用头带3上的相机18L、18R所捕获的当前对AR用户可见的真实世界视野的运动图像,并且将所述运动图像作为视频信号经由网络26发送至伙伴设备32。伙伴客户端37接收视频信号并且将其显示在伙伴设备32的显示器上。伙伴客户端37还以以下方式来渲染由远端用户30所创建的当前由AR用户所感知的任何增强:它们当前被感知,并且将它们显示在重叠在真实世界图像上的显示器34上以便提供对AR用户的AR“世界”完整表示。
在对外的数据流中被发送至伙伴设备32的本地数据对象AR是由伙伴设备渲染的,并且重叠在显示器34上的真实世界图像上。如由追踪模块50所生成的设备的姿势向量还在对外的流中被传送至伙伴设备32,以由伙伴设备在显示AR用户的世界时使用。
与实时通信事件功能一样,客户端36、37还指示基于AR的非同步通信,其中伙伴设备用户30可以“离线地”查看AR用户的世界的表示(即当AR用户不位于环境中时),并且使用环境的3D模型来添加注释,其在他们选择的一段时间之后经由他们的头戴设备2对AR用户可见。远端用户的注释数据对象被上传至后端计算机系统28,并且可以当AR设备之后在环境中被激活时由AR设备2下载。
返回图3,后端计算机系统(“增强现实系统”)28被示出为连接至网络26,并且由一个或多个服务器形成。后端计算机系统28在该示例中是云系统,即在基于硬件虚拟化的云计算平台上实现。
也连接至网络26的是在上文中所描述的类型的多个AR设备2a、2b。每个是由与另一个位于相同的真实世界环境21中的相应的AR用户22a、22b穿戴的。本主题在相对大量的用户22a、22b所占据的大环境21的上下文中随着时间(在同一时间或不同时间处)是特别地而不是排他地有用的,所述环境例如橄榄球馆(并且用户22a、22b可以正在观看橄榄球赛)、博物馆、画廊等。
通过多个AR设备2的3D数据集合,所述系统可以实现具有3D注释和增强现实内容的环境21的全沉浸式比例放大3D视野。设备感知的另一应用是电影工业中的3D CGI的实时共享和编辑。
图6示出了示例性环境21,其中大量AR用户22关于具有复杂表面几何的大型真实世界结构60而聚集。通过对来自所有用户的AR设备的本地网格数据LM进行组合,可以生成结构60的复杂3D模型。
该公开解决了具有空间21的不完整的3D网格数据的问题。单个AR设备2可以仅仅捕获有限量的3D数据。
通过使用从公共空间21的一组AR设备2a、2b、…所收集的本地网格LM,可以用该数据来扩展混合现实空间。这允许用户跨超越当前能力的较大空间来扩展3D交互。
这还允许可以访问云数据的AR设备用户22能够与大量大型增强现实空间进行交互。
该数据可以由多个用户22共同地但是不同步地(即,在不同时间,例如不同小时、天、星期、月等)收集。
通过在云中收集数据,伙伴设备32也可以访问并且探索该经共享的空间。
多个AR设备2a、2b在一个时间处收集空间21的3D体积数据(以它们本地网格LM为形式)以上传至云系统28。通过从同一空间21的多个AR用户22a、22b收集数据,有可能基于云系统28处的公共参考点而将数据拼接在一起。当AR用户22从云系统28访问空间的数据时,有可能识别相关的数据并且允许用户22根据需要探索大量大型空间。AR设备22的深度感知将在实践中是受限的,但是空间21的更多细节可以当用户移动通过空间21时被更加详细地渲染(见下文)。
这是通过在云系统处实现的以下机制来实现的:
由多个AR设备22a、22b对空间的3D和真实世界场景捕获;
识别出数据的集合(即,不同的本地网格LM)是通过诸如位置(例如,维度和经度数据)、时间、日期等之类的公共参考点相关联的;
将数据集(即,本地网格LM)拼接在一起并且覆盖公共点。即组合多个本地模型LM以基于位置数据、时间数据、以及经删除的公共结构来形成全局模型GM。
在AR设备2处本地地生成的本地模型LM将在一些场景中仅仅提供关于环境的受限的结构信息。不论使用什么传感装置来生成本地网格LM,其将在实践中具有受限的传感器范围。例如,所述传感器将仅仅能够感测对用户可见的表面,即传感器不能“看到”对象后面。此外,传感装置将具有受限的视场和受限的深度感知——传感装置的受限的物理限制,例如传感器硬件光学器件和设备的处理能力,和/或诸如背景光水平或破坏性照明之类的环境因素。在实践中,这意味着当用户22站在特定的位置中并且看向特定方向时,能够被检测到的仅有的表面结构将是对用户22可见并且在传感装置附近的空间的受限体积中(传感装置在其外不能够检测表面)的表面结构——这在大多数情况下比用户的视觉范围更加受限。
假如AR用户22移动或转动其头部,则新的表面结构变得可检测。本地建模模块46更新本地模型LM以添加新检测到的表面结构。因此,当用户移动或环顾环境四周时,更加完整的本地模型LM随着时间被建立。
然而,不完整的本地数据的问题仍然存在,并且这在AR用户第一次面对先前未知的环境时特别严重。
如在上文中所指示的,该问题是通过使用同一环境21的外部生成的全局网格GM来解决的。模型聚合模块选择性地使用本地模型LM的数据和外部生成的模型GM的数据来生成聚合3D模型AM,其比本地模型LM具有更多的结果信息内容,以由渲染组件42在渲染增强时使用。
这允许使用由在或者曾经在同一环境21中的其他AR设备先前收集的网格数据来有效地扩展AR设备2的传感器装置的深度感知和视场。进而,这允许不受AR设备2的传感装置的物理限制或环境21的条件约束的更大范围的AR功能。
为了对此进行说明,现在将考虑两个场景,其中,采用AR设备2的AR功能以允许伙伴设备用户30用虚拟增强来注释AR用户的所感知的环境。
在第一场景中,AR设备2的AR功能是单独基于本地网格LM的,并且其不利用本公开的全局网格。现在将参考图4来描述该场景中的实现基于AR的通信的方法。图4在左手边示出了针对方法的流程图,同时方法步骤的绘图表示在右边。
在步骤S2处,AR设备2被激活。示出了空间的体积R,在AR设备的传感器装置前方。由于设备和/或环境因素的限制,AR设备2不能检测该体积R外部的表面结构,并且因此由于AR用户22的位置和他们面对的方向而不能够检测两个(物理)对象Ob1、Ob2的表面结构,即使它们对用户22可见。因此,在该时间点处,不可能对可见对象Ob1、Ob2中的一个进行注释,这是因为可见对象Ob1、Ob2的表面结构都没有被捕获为本地网格LM的网格数据。
仅仅当用户例如通过转动其头部以面对第一对象Ob1而在环境内移动时(S4),表示其表面结构中的一些表面结构的网格数据MD1能够被捕获并且被添加至本地模型LM。此外,如果AR用户22不移动接近于较远的第二对象Ob2以使得其进入传感装置的范围中,则将不可能检测其表面结构并且因此不可能对其进行注释。
因此伙伴设备用户30可以向AR用户的预览的世界添加他们自己的注释,在步骤S6处,AR设备2将经更新的本地网格LM经由网络26例如在实时AR通信事件中发送至伙伴设备32以使得伙伴用户30可以实时地对AR用户的世界进行注释,和/或发送至云系统28以供在那里存储以使得伙伴设备32可以取回它并且在他们进行选择时离线地进行这样的注释。如利用相机18L、18R中的至少一个所捕获的环境21的移动的图像与模型相关联地被发送,以使得伙伴设备用户30还可以看到环境的2D纹理以及其3D结构。
在步骤S8处,实时地或者离线地,伙伴设备在其显示器32上显示移动的图像。伙伴用户30可以利用伙伴设备34处的合适的用户输入来暂停或者倒回图像。
在步骤S10处,伙伴用户30将他们自己的注释RA1添加至移动的图像,其在该示例中是围绕着第一对象Ob1的三维环形。因为AR用户还没有移动得足够接近第二对象Ob2,所以其表面结构没有被封装在本地网格LM中,因此伙伴用户30不能够对其进行注释。
伙伴设备32将作为注释数据对象的注释经由网络26:
发送回AR设备2,例如经由网络实时地,和/或
发送至云系统28以供在那里存储,以使得:
a.其可以在AR用户22进行选择时由AR用户22取回(即,离线地),和/或
b.以使得系统28的媒体中继服务器可以将数据对象实时地中继至AR设备2,即媒体中继服务器接收数据对象并且直接将其发送至AR设备2。
在步骤S10处,使用所接收或所取回的数据对象来渲染对AR用户22可见的伙伴用户的注释。
如在上文中所述,实时在该上下文中意味着在渲染由伙伴设备32发送的数据和由AR设备2所接收的数据之间仅存在短的延迟(例如,大约两秒或更少),包括当其经由云系统28的媒体中继而相关。
注意,步骤S10-S12仅在用户22花费了一些时间来导航环境、在本地网格LM中建立了需要的等级的细节之后才是可能的。
现在考虑其中替代地使用通过将来自多个Hololens的多个网格拼接在一起而生成的全局网格的场景。
图5示出了根据本主题的用于实现在通信系统20内基于AR的通信的方法的流程图。随着时间,本地网格从多个AR设备2被发送至云系统28。每个本地网格LM与指示本地LM在哪里以及何时被捕获的位置和时间信息相关联地被发送。云系统基于位置过滤标准来识别何时多个本地网格适合于类似的位置。它们检测到网格中的公共结构并且基于这些来组合本地网格LM以生成环境21的全局网格GM。当接收到新的本地网格时,全局网格被相应地更新。全局网格可以在通信事件(例如,通话)之间被实现,即用户之间的通信事件可以使用先前版本的全局网格以用于注释,在通信事件结束之后更新全局网格,并且使用经更新的版本以在用户之间或者不同的用户之间的随后的通信事件中进行注释。可以施加时间约束以使得包含在全局网格中的本地网格数据在其被捕获之后被移除预先确定量的时间。以该方式,有可能建立环境21的全面的全局模型GM,其将艰难地仅利用单个AR设备而生成。这包括第一和第二对象Ob1、Ob2的表面结构的全网格数据表示MD1’、MD2。全局网格GM与标识环境21的位置的位置元数据相关联地存储在云系统28中。
在步骤S16处,伙伴设备用户30使用他们的设备32通过经由对云系统28的合适的请求21下载全局网格来从云系统28取回所述全局网格,并且以与在上文中所描述的相同的方式来进行注释,但基于经下载的全局网格GM而不是单个本地网格LM。这可以是离线的,或者是在实时通信事件期间的(例如,全局网格GM可以由伙伴设备32在实时通信事件的开始处下载以在其中使用)。接着,伙伴设备将它们的注释作为数据对象发送给使用目标AR设备2T的目标AR用户22T,或者发送至云系统28以用于在那里存储,从而使得目标设备22T可以随后取回它。
在步骤S18处,目标用户从云系统28取回全局网格GM。该步骤可以例如在目标用户设备2T在环境中第一次被激活时被执行,或者在实时通信事件开始时被执行。目标用户设备将其当前位置的指示发送至云系统22,其被匹配至与云系统28处的全局网格GM相关联的位置元数据,以使得针对该环境21的全局网格GM能够被取回。
在步骤S20处,目标AR设备2T使用全局网格GM来渲染从伙伴设备32所接收的注释。这些可以在实时通信事件期间从伙伴设备32直接接收,或者在离线注释场景中从云系统28下载。
应当注意,在目标用户22T步行通过环境之前,注释一被接收就被渲染(由于注释能力不再受到目标设备子集的本地网格数据的限制)。因此,例如,当AR用户第一次走到先前未知的AR环境中时,他们可以立即以将不可能仅仅使用本地网格的方式被呈现有遍布环境的大范围的虚拟元素——例如远处的对象的注释,或者更加一般地,被感知为远离真实世界环境21并且仍然与真实世界环境21进行交互的增强。
如在上文中所提及的,目标设备2T的模型聚合模块44将目标设备子集的本地网格LM与全局网格GM进行组合(见图2),以生成可以包含来自两者的网格数据的聚合网格AM。例如,在本地网格LM中的表面结构中的一些表面结构与全局网格GM中的对应的表面结构不匹配的事件中,本地网格LM中的表面结构可以覆盖全局网格GM,这是因为其更有可能是最新的。本地网格LM可以仍然被发送至伙伴设备32,这使得伙伴设备32可以创建其自己的聚合网格以提供更加精确的注释功能;或者聚合网格AM可以出于相同的目的而被发送至伙伴设备32。
目标伙伴设备还将其自己的本地网格LM与事件和位置信息相关联地发送至云系统28,以在更新存储在那里的全局网格GM的版本时使用。
尽管在上文中,全局网格GM是经由互联网26从服务器接收的,但可替代地,本地网格数据可以以去中心化的方式在环境中的AR设备之间交换,例如通过在环境中的AR设备之间建立自组织网格网络(例如,使用蓝牙或其他无线NFC技术)以使得它们可以经由该自组织网络交换它们的本地网格。
在第一方面中,增强现实装置包括:立体显示装置,其被设置为给增强现实装置的用户提供所述用户所处的真实世界环境的视野,其中,所述显示装置被配置为与所述真实世界视野同时地生成对用户可见的立体图像;计算机接口,其被配置为从网络接收所述用户所处的真实世界环境的外部生成的3D模型数据;以及渲染模块,其被配置为使用外部生成的3D模型数据来控制显示装置以用使得其被用户感知为位于真实世界环境中的期望的位置处的3D元素的方式来渲染虚拟元素。
在实施例中,增强现实装置还可以包括:存储器;以及用于检测真实世界环境中的表面结构的传感器装置,其中,所述传感器装置被配置为在所述存储器中生成实施所述真实世界环境的表面结构的所述真实世界环境的本地3D模型数据;以及更新本地3D模型以将新的表面结构实施为由于传感器装置在环境内的移动而使其变得能够被检测;其中,从网络接收的外部生成的3D模型数据用于至少当在本地3D模型数据中实施的表面结构针对因此要使用的本地3D模型数据不足够时以所述方式渲染虚拟元素。
所述计算机接口可以被配置为经由所述网络从服务器取回外部生成的3D模型数据。
例如,可以通过以下方式来从所述服务器取回所述外部生成的3D模型:将所述真实世界环境的位置从增强现实装置发送至所述服务器以用于在那里同与所述外部生成的3D模型数据相关联的位置数据进行比较。
可替代地或另外地,所述计算机接口可以被配置为将所述本地3D模型数据经由所述网络发送至所述服务器以用于由所述服务器在生成外部生成的3D模型数据的经更新的版本时使用。例如,本地3D模型数据可以同与本地3D模型数据相关的位置信息和/或时间信息相关联地被发送。
渲染模块可以被配置为从网络或另一网络接收定义期望的位置的元素位置数据。
例如,所述元素位置数据可以在所述用户与另一用户之间的实时通信事件中经由所述网络或所述另一网络从另一用户接收,或者由所述增强现实装置从服务器取回。
例如,所述元素位置数据可以在定义虚拟元素的虚拟元素数据对象中被接收,所述数据对象还包括:定义所述虚拟元素的3D表面结构的结构数据,和/或定义所述虚拟元素的2D表面纹理的图像数据。
增强现实装置可以被配置为基于从增强现实装置的用户接收的用户输入来确定期望的位置。
渲染模块可以被配置为将至少一个渲染标准应用至外部生成的3D模型以检测用户将期望对虚拟元素施加影响的真实世界环境中的表面结构,其中,所述虚拟元素的渲染是基于所述检测的。
例如,至少一个影响标准可以是基于如由外部生成的3D模型数据所指示的所检测的表面结构的位置和/或朝向的;和/或是基于所述显示装置的位置和/或朝向的。
例如,基于所述检测的所述虚拟元素的渲染可以包括以下中的至少一个:
抑制所述虚拟元素的部分以使得在所述虚拟元素与所述用户之间的位置处所检测的表面结构被感知为部分地遮蔽所述虚拟元素;
将动画效果应用至所述虚拟元素以使得其被感知为与所检测的表面结构动态地交互;以及
修改所述虚拟元素被感知为所处以考虑到所检测的表面结构的期望的位置。
元素位置数据可以定义相对于由外部生成的3D模型数据所实施的表面结构的片段的期望的位置。
至少显示装置可以被实施在可穿戴头戴设备中。例如,增强现实装置可以被实施在可穿戴头戴设备(即,整个装置)中,或者另一功能可以被实施在与头戴设备分开的组件(例如,智能电话)中。
显示装置可以包括真实世界通过其可见并且由此提供真实世界视野的两个大体上透明的观察部分,并且每个大体上透明的观察部分可以被设置为将立体图像的相应的图像成分投影到用户的相应眼睛上。
例如,显示装置可以包括能够由渲染模块控制以发出图像光的光引擎装置,并且两个光学组件被安装在头戴设备上,每个被定位以将图像光的不同部分投影到用户的相应眼睛上由此生成立体图像;光学组件可以是大体上透明的并且由此提供真实世界视野。
在第二方面中,提供了控制增强现实装置的方法,所述增强现实装置包括被配置为提供所述增强现实装置所处的真实世界环境的视野的显示装置,所述代码方法包括:控制所述增强现实装置的立体显示装置以与真实世界视野同时地生成对用户可见的立体图像;从网络接收所述用户所处的真实世界环境的外部生成的3D模型数据;以及使用所述外部生成的3D模型数据来控制所述显示装置渲染虚拟元素,这是以使其被所述用户感知为所述真实世界环境中的期望位置处的3D元素的方式进行的。
根据第三方面,增强现实系统包括:计算机接口,其被配置为接收真实世界环境的部分的多个本地3D模型,每个本地3D模型是当不同的增强现实设备位于所述真实世界环境中时由该不同的增强现实设备生成的;全局建模模块,其被配置为:组合所述本地3D模型以生成全局3D模型,与所述本地3D模型中的任何本地3D模型相比,该全局3D模型单独地表示所述真实环境的更大部分;以及将所述全局3D模型的至少一部分发送至当前位于所述真实世界环境中的目标增强现实设备,以用于当在所述增强现实设备处渲染虚拟元素时使用。
在实施例中,所述全局建模模块可以被配置为将所述全局3D模型的至少一部分发送至远离所述真实世界环境的设备,由此允许远程设备远程地探索和增强所述真实世界环境的虚拟版本。
例如,增强现实系统还可以包括增强共享模型,其被配置为:从所述远程设备接收渲染数据,所述渲染数据用于在目标增强现实设备处渲染虚拟对象时使用;以及将所述渲染数据发送至所述目标增强现实设备。
在一些情况下,所述全局3D模型可以响应于来自所述远程设备的下载请求而被发送至所述远程设备,和/或所述渲染数据可以响应于来自所述增强现实设备的下载请求而被发送至所述目标增强现实设备。
所述远程设备可以例如是智能电话或平板计算机。
在第三方面中,增强现实系统包括:计算机接口,其被配置为接收真实世界环境的部分的多个本地3D模型,每个本地3D模型是当不同的增强现实设备位于所述真实世界环境中时由该不同的增强现实设备生成的;全局模型生成模块,其被配置为:组合所述本地3D模型以生成全局3D模型,与所述本地3D模型中的任何本地3D模型相比,该全局3D模型单独地表示所述真实环境的更大部分;以及将所述全局3D模型的至少一部分发送至远离所述真实世界环境的设备,由此允许远程设备远程地探索和增强所述真实世界环境的虚拟版本;以及增强共享模型,其被配置为:从所述远程设备接收渲染数据,所述渲染数据用于在所述真实世界环境中的增强现实设备处渲染虚拟对象时使用;以及当所述增强现实设备位于所述真实世界环境中时将所述渲染数据发送至所述增强现实设备。
在实施例中,所述渲染数据是从所述远程设备接收,并且实时地被发送至所述增强现实设备的。
所述渲染数据是在所述远程设备的用户与所述增强现实设备的用户之间的通信事件期间从所述远程设备接收并且被发送至所述增强现实设备的。
例如,所述计算机接口可以被配置为当至少一个额外的增强现实设备位于所述真实世界环境中时从该至少一个额外的增强现实设备接收至少一个额外的本地3D模型;所述增强共享模块可以被配置为在所述通信事件结束之后的时间处基于所述至少一个额外的本地3D模型来更新所述全局3D模型,经更新的全局3D模型用于在用户之间的未来的通信事件中使用。
所述增强共享模块可以被配置为从所述增强现实设备接收额外的渲染数据并且将其发送至所述远程设备,所述额外的渲染数据用于在使用所述全局3D模型在所述远程设备处渲染另一虚拟对象时使用。
例如,所述额外的渲染数据是从所述增强现实设备接收,并且实时地被发送至所述远程设备的。
可替代地,所述增强共享模块可以被配置为将所述渲染数据存储在所述增强现实系统的计算机存储中,并且被配置为响应于来自所述增强现实设备的下载请求而将其发送至所述增强现实设备。
所述计算机接口可以被配置为当至少一个额外的增强现实设备位于所述真实世界环境中时从该至少一个额外的增强现实设备接收至少一个额外的本地3D模型,其中,所述增强现实模块被配置为在所述全局3D模型被生成之后的某一时间处基于所述至少一个额外的本地3D模型来更新所述全局3D模型。
每个本地3D模型是与涉及所述本地3D模型的位置信息相关联地接收的,其中,所述全局模型生成模块被配置为基于它们相关联的位置信息将所述多个本地3D模型标识为与所述(同一)真实世界环境相关,并且基于所述标识选择它们以用于在生成所述全局3D模型时使用。
可替代地或另外地,每个本地3D模型是与涉及所述本地3D模型数据的时间信息相关联地接收的,其中,所述全局模型生成模块被配置为将所述多个本地3D模型标识为与预先确定的时间间隔有关,并且基于所述标识选择它们以用于在生成所述全局3D模型时使用。
例如,所述全局模型生成模块被配置为基于所述本地3D模型中的至少一个本地3D模型相关联的时间信息来确定所述本地3D模型中的至少一个本地3D模型的年龄,并且响应于所述年龄达到年龄阈值,更新所述全局3D模型以便从所述全局3D模型中移除根据所述至少一个本地3D模型得出的数据。
所述全局3D模型还被发送至所述增强现实设备以用于当在所述增强现实设备处渲染虚拟元素时使用。
第四方面针对一种实现真实世界环境中的增强现实设备与远离所述真实世界环境的另一设备之间经由网络的通信的方法,所述方法包括在所述另一设备处实现以下步骤:接收全局3D模型,所述全局3D模型是通过组合所述真实世界环境的部分的多个本地3D模型生成的,每个本地3D模型是当不同的增强现实设备位于所述真实世界环境中时由该不同的增强现实设备生成的,其中,与所述本地3D模型中的任何本地3D模型相比,该全局3D模型单独地表示所述真实环境的更大部分;将所述全局3D模型的至少一部分发送至所述远程设备,由此允许所述远程设备远程地探索和增强所述真实世界环境的虚拟版本;使用所述全局3D模型来生成渲染数据以用于在所述真实世界环境中的增强现实设备处渲染虚拟对象时使用;以及当所述增强现实设备位于所述真实世界环境中时将所述渲染数据经由所述网络发送至所述增强现实设备和/或发送至增强现实系统。
在实施例中,所述通信是经由所述网络在所述增强现实设备的用户与所述另一设备的用户之间进行的实时通信,所述渲染数据从所述另一设备实时地被发送至所述增强现实设备。
例如,所述渲染数据可以经由所述增强现实系统从所述另一设备被发送至所述增强现实设备,所述渲染数据由所述增强现实系统在所述设备之间实时地中继。
增强现实数据可以被发送至所述增强现实系统以用于在那里存储。
所述方法可以包括:在所述另一设备处经由所述网络从所述增强现实设备接收额外的渲染数据;并且由所述另一设备使用所述额外的渲染数据来在所述另一设备的显示器上渲染额外的虚拟元素。
所述方法可以包括:
a.在所述另一设备处经由所述网络从所述增强现实设备接收视频信号;
b.在所述显示器上由所述另一设备显示从所述视频信号得出的运动图像,其中,所述额外的虚拟元素覆盖在所述显示器上的所述运动图像上。
在一些情况下,所述全局3D模型可以由所述另一设备使用以渲染所述额外的虚拟元素。
在第五方面中,通信系统包括:远离真实世界环境的设备;以及增强现实系统,其包括:(i)计算机接口,其被配置为接收真实世界环境的部分的多个本地3D模型,每个本地3D模型是由不同的增强现实设备当位于所述真实世界环境中时生成的;以及(ii)全局模型生成模块,其被配置为:组合所述本地3D模型以生成全局3D模型,与所述本地3D模型中的任何本地3D模型相比,该全局3D模型单独地表示所述真实环境的更大部分;以及将所述全局3D模型的至少一部分发送至远离所述真实世界环境的设备,由此允许远程设备远程地探索和增强所述真实世界环境的虚拟版本;其中,所述远程设备被配置为使用所述全局3D数据来生成渲染数据以用于在所述真实世界环境中的增强现实设备处渲染虚拟对象时使用,并且被配置为当所述增强现实设备位于所述真实世界环境中时将所述渲染数据发送至所述增强现实设备和/或发送至所述增强现实系统(例如,用于在那里存储和/或用于关联至所述增强现实设备)。
应当注意,所述系统功能中的任何系统功能可以在实现共享现实通信的方法的对应的方法步骤中实现。
在第六方面中,计算机可读介质存储可执行代码,所述代码当在计算机系统上执行(例如,在用户设备或分布式云系统中实施)时实现在本文中所公开的系统功能或方法步骤中的任何。
通常而言,可以使用软件、固件、硬件(例如,固定逻辑电路)或这些实现的组合来实现在本文中所描述的功能中的任何功能。如在本文中所使用的术语“模块”、“功能”、“组件”、和“逻辑”(例如,图2的功能模块)通常表示软件、固件、硬件、或其组合。在软件实现的情况下,模块、功能、或逻辑表示当在处理器(例如,CPU或多个CPU)上被执行时执行指定任务的程序代码。所述程序代码可以被存储在一个或多个计算机可读存储器设备中。在下文中所描述的技术的特征是与平台无关的,这表示所述技术可以被实现在具有多种处理器的多种商业计算平台上。
例如,AR或伙伴设备(用户终端)还可以包括使得用户终端的硬件执行操作的实体(例如软件),例如处理器功能块等。例如,用户终端可以包括计算机可读介质,所述计算机可读介质可以被配置为保存使得用户终端并且更加具体地使得用户终端的操作系统和相关联的硬件执行操作的指令。因此,指令用于配置操作系统和相关联的硬件来执行操作,并且以这种方式引起操作系统和相关联的硬件的转换以执行功能。所述指令可以是由计算机可读介质通过多种不同的配置提供给用户终端的。
计算机可读介质的一个这样的配置是信号承载介质,并且因此被配置为将指令(例如,作为载波)例如经由网络而发送至计算设备。计算机可读介质还可以被配置为计算机可读存储介质,并且因此不是信号承载介质。计算机可读存储介质的示例包括随机存取存储器(RAM)、只读存储器(ROM)、光盘、闪速存储器、硬盘存储器、以及可以使用磁性、光学、和其他技术来存储指令和其他数据的其他存储器设备。
尽管已经用特定于结构特征和/或方法动作的语言描述了主题,但是应当理解的是,在所附权利要求中所限定的主题不一定限于在上文中所描述的具体特征或动作。相反,在上文中所描述的具体特征和动作是作为实现权利要求的示例形式公开的。
Claims (15)
1.一种增强现实系统,包括:
计算机接口,其被配置为接收真实世界环境的部分的多个本地3D模型,每个本地3D模型是当不同的增强现实设备位于所述真实世界环境中时由该不同的增强现实设备生成的;
全局模型生成模块,其被配置为:组合所述本地3D模型以生成全局3D模型,与所述本地3D模型中的任何本地3D模型相比,该全局3D模型单独地表示所述真实环境的更大部分;以及将所述全局3D模型的至少一部分发送至远离所述真实世界环境的设备,由此允许远程设备远程地探索和增强所述真实世界环境的虚拟版本;以及
增强共享模型,其被配置为:从所述远程设备接收渲染数据,所述渲染数据用于在所述真实世界环境中的增强现实设备处渲染虚拟对象时使用;以及当所述增强现实设备位于所述真实世界环境中时将所述渲染数据发送至所述增强现实设备。
2.根据权利要求1所述的增强现实系统,其中,所述渲染数据是从所述远程设备接收,并且实时地被发送至所述增强现实设备的。
3.根据权利要求1所述的增强现实系统,其中,所述渲染数据是在所述远程设备的用户与所述增强现实设备的用户之间的通信事件期间,从所述远程设备接收并且被发送至所述增强现实设备的。
4.根据权利要求3所述的增强现实系统,其中,所述计算机接口被配置为当至少一个额外的增强现实设备位于所述真实世界环境中时从所述至少一个额外的增强现实设备接收至少一个额外的本地3D模型;
其中,所述增强共享模型被配置为在所述通信事件结束之后的某一时间处基于所述至少一个额外的本地3D模型来更新所述全局3D模型,经更新的全局3D模型用于在用户之间的未来的通信事件中使用。
5.根据权利要求1所述的增强现实系统,其中,所述增强共享模块被配置为从所述增强现实设备接收额外的渲染数据并且将所述额外的渲染数据发送至所述远程设备,所述额外的渲染数据用于在使用所述全局3D模型在所述远程设备处渲染另一虚拟对象时使用。
6.根据权利要求5所述的增强现实系统,其中,所述额外的渲染数据是从所述增强现实设备接收,并且实时地被发送至所述远程设备的。
7.根据权利要求1所述的增强现实系统,其中,所述增强共享模块被配置为:将所述渲染数据存储在所述增强现实系统的计算机存储中;以及响应于来自所述增强现实设备的下载请求而将所述渲染数据发送至所述增强现实设备。
8.根据权利要求1所述的增强现实系统,其中,所述计算机接口被配置为当至少一个额外的增强现实设备位于所述真实世界环境中时从所述至少一个额外的增强现实设备接收至少一个额外的本地3D模型,其中,所述增强共享模型被配置为在所述全局3D模型被生成之后的某一时间处基于所述至少一个额外的本地3D模型来更新所述全局3D模型。
9.根据权利要求1所述的增强现实系统,其中,每个本地3D模型是与涉及该本地3D模型的位置信息相关联地接收的,其中,所述全局模型生成模块被配置为基于所述多个本地3D模型的相关联的位置信息将所述多个本地3D模型标识为涉及相同的真实世界环境,并且基于所述标识选择所述多个本地3D模型以用于在生成所述全局3D模型时使用。
10.根据权利要求1所述的增强现实系统,其中,每个本地3D模型是与涉及该本地3D模型数据的时间信息相关联地接收的,其中,所述全局模型生成模块被配置为将所述多个本地3D模型标识为涉及预先确定的时间间隔,并且基于所述标识选择所述多个本地3D模型以用于在生成所述全局3D模型时使用。
11.根据权利要求10所述的增强现实系统,其中,所述全局模型生成模块被配置为基于所述本地3D模型中的至少一个本地3D模型的相关联的时间信息来确定该至少一个本地3D模型的年龄,并且响应于所述年龄达到年龄阈值,更新所述全局3D模型以便从所述全局3D模型中移除根据所述至少一个本地3D模型得出的数据。
12.根据权利要求1所述的增强现实系统,其中,所述全局3D模型还被发送至所述增强现实设备,以用于当在所述增强现实设备处渲染虚拟元素时使用。
13.一种在真实世界环境中的增强现实设备与远离所述真实世界环境的另一设备之间经由网络实现通信的方法,所述方法包括在所述另一设备处实现以下步骤:
接收全局3D模型,所述全局3D模型是通过组合所述真实世界环境的部分的多个本地3D模型而生成的,每个本地3D模型是当不同的增强现实设备位于所述真实世界环境中时由该不同的增强现实设备生成的,其中,与所述本地3D模型中的任何本地3D模型相比,所述全局3D模型单独地表示所述真实环境的更大部分;
将所述全局3D模型的至少一部分发送至所述远程设备,由此允许所述远程设备远程地探索和增强所述真实世界环境的虚拟版本;
使用所述全局3D模型来生成渲染数据以用于在所述真实世界环境中的增强现实设备处渲染虚拟对象时使用;以及
当所述增强现实设备位于所述真实世界环境中时将所述渲染数据经由所述网络发送至所述增强现实设备,和/或将所述渲染数据发送至增强现实系统。
14.根据权利要求13所述的方法,其中,所述通信是经由所述网络在所述增强现实设备的用户与所述另一设备的用户之间进行的实时通信,所述渲染数据从所述另一设备实时地被发送至所述增强现实设备。
15.一种通信系统,包括:
远离真实世界环境的设备;以及
增强现实系统,其包括:(i)计算机接口,其被配置为接收所述真实世界环境的部分的多个本地3D模型,每个本地3D模型是当不同的增强现实设备位于所述真实世界环境中时由该不同的增强现实设备生成的,以及(ii)全局模型生成模块,其被配置为:组合所述本地3D模型以生成全局3D模型,与所述本地3D模型中的任何本地3D模型相比,该全局3D模型单独地表示所述真实环境的更大部分;以及将所述全局3D模型的至少一部分发送至远程设备,由此允许所述远程设备远程地探索和增强所述真实世界环境的虚拟版本;
其中,所述远程设备被配置为:使用所述全局3D模型来生成渲染数据以用于在所述真实世界环境中的增强现实设备处渲染虚拟对象时使用;以及当所述增强现实设备位于所述真实世界环境中时将所述渲染数据发送至所述增强现实设备,和/或将所述渲染数据发送至所述增强现实系统。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110676080.2A CN113376839A (zh) | 2015-08-20 | 2016-08-19 | 增强现实 |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562207753P | 2015-08-20 | 2015-08-20 | |
US62/207,753 | 2015-08-20 | ||
US15/139,095 | 2016-04-26 | ||
US15/139,095 US10169917B2 (en) | 2015-08-20 | 2016-04-26 | Augmented reality |
PCT/US2016/047666 WO2017031389A1 (en) | 2015-08-20 | 2016-08-19 | Augmented reality |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110676080.2A Division CN113376839A (zh) | 2015-08-20 | 2016-08-19 | 增强现实 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107924584A true CN107924584A (zh) | 2018-04-17 |
CN107924584B CN107924584B (zh) | 2021-06-08 |
Family
ID=56940341
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201680048059.5A Active CN107924584B (zh) | 2015-08-20 | 2016-08-19 | 增强现实 |
CN202110676080.2A Pending CN113376839A (zh) | 2015-08-20 | 2016-08-19 | 增强现实 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110676080.2A Pending CN113376839A (zh) | 2015-08-20 | 2016-08-19 | 增强现实 |
Country Status (4)
Country | Link |
---|---|
US (2) | US10169917B2 (zh) |
EP (1) | EP3323110A1 (zh) |
CN (2) | CN107924584B (zh) |
WO (1) | WO2017031389A1 (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108549942A (zh) * | 2018-04-26 | 2018-09-18 | 厦门市礼小签电子科技有限公司 | 一种基于区块链与ar增强学习技术的数据模型系统 |
CN112639888A (zh) * | 2018-08-09 | 2021-04-09 | 祖克斯有限公司 | 程序世界生成 |
WO2021179399A1 (zh) * | 2019-10-29 | 2021-09-16 | 南京翱翔信息物理融合创新研究院有限公司 | 一种基于混合现实的远程操作引导系统及方法 |
CN114730546A (zh) * | 2019-11-12 | 2022-07-08 | 奇跃公司 | 具有定位服务和基于位置的共享内容的交叉现实系统 |
CN116868187A (zh) * | 2021-01-07 | 2023-10-10 | 谷歌有限责任公司 | 用于促进具有第三方资产的增强现实体验的计算平台 |
WO2023193532A1 (en) * | 2022-04-07 | 2023-10-12 | Beijing Xiaomi Mobile Software Co., Ltd. | Rendering of augmented reality content and method for enabling ar content rendering |
Families Citing this family (74)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9132352B1 (en) | 2010-06-24 | 2015-09-15 | Gregory S. Rabin | Interactive system and method for rendering an object |
US9710960B2 (en) | 2014-12-04 | 2017-07-18 | Vangogh Imaging, Inc. | Closed-form 3D model generation of non-rigid complex objects from incomplete and noisy scans |
US20160358382A1 (en) * | 2015-06-04 | 2016-12-08 | Vangogh Imaging, Inc. | Augmented Reality Using 3D Depth Sensor and 3D Projection |
US10165949B2 (en) | 2015-06-14 | 2019-01-01 | Facense Ltd. | Estimating posture using head-mounted cameras |
JP2017187882A (ja) | 2016-04-04 | 2017-10-12 | セイコーエプソン株式会社 | 画像処理に用いられるコンピュータープログラム |
US10380800B2 (en) * | 2016-04-18 | 2019-08-13 | Disney Enterprises, Inc. | System and method for linking and interacting between augmented reality and virtual reality environments |
EP3500822A4 (en) * | 2016-08-18 | 2019-08-28 | SZ DJI Technology Co., Ltd. | SYSTEMS AND METHODS FOR ADVANCED STEREOSCOPIC PRESENTATION |
US20180063205A1 (en) * | 2016-08-30 | 2018-03-01 | Augre Mixed Reality Technologies, Llc | Mixed reality collaboration |
US10380762B2 (en) | 2016-10-07 | 2019-08-13 | Vangogh Imaging, Inc. | Real-time remote collaboration and virtual presence using simultaneous localization and mapping to construct a 3D model and update a scene based on sparse data |
US10843068B2 (en) | 2017-01-18 | 2020-11-24 | Xvisio Technology Corp. | 6DoF inside-out tracking game controller |
CN108510592B (zh) * | 2017-02-27 | 2021-08-31 | 亮风台(上海)信息科技有限公司 | 真实物理模型的增强现实展示方法 |
US20180255285A1 (en) | 2017-03-06 | 2018-09-06 | Universal City Studios Llc | Systems and methods for layered virtual features in an amusement park environment |
US10895954B2 (en) * | 2017-06-02 | 2021-01-19 | Apple Inc. | Providing a graphical canvas for handwritten input |
US10593117B2 (en) | 2017-06-09 | 2020-03-17 | Nearme AR, LLC | Systems and methods for displaying and interacting with a dynamic real-world environment |
US10091482B1 (en) * | 2017-08-04 | 2018-10-02 | International Business Machines Corporation | Context aware midair projection display |
US11095854B2 (en) | 2017-08-07 | 2021-08-17 | Verizon Patent And Licensing Inc. | Viewpoint-adaptive three-dimensional (3D) personas |
US10460515B2 (en) | 2017-08-07 | 2019-10-29 | Jaunt, Inc. | Systems and methods for reference-model-based modification of a three-dimensional (3D) mesh data model |
US10262631B1 (en) | 2017-08-31 | 2019-04-16 | Bentley Systems, Incorporated | Large scale highly detailed model review using augmented reality |
US10594917B2 (en) | 2017-10-30 | 2020-03-17 | Microsoft Technology Licensing, Llc | Network-controlled 3D video capture |
US10398855B2 (en) | 2017-11-14 | 2019-09-03 | William T. MCCLELLAN | Augmented reality based injection therapy |
US10726626B2 (en) * | 2017-11-22 | 2020-07-28 | Google Llc | Interaction between a viewer and an object in an augmented reality environment |
US10552665B2 (en) | 2017-12-12 | 2020-02-04 | Seiko Epson Corporation | Methods and systems for training an object detection algorithm using synthetic images |
DE102017131083A1 (de) * | 2017-12-22 | 2019-06-27 | Rheinische Friedrich-Wilhelms-Universität Bonn | System und Verfahren zur Aufzeichnung und Visualisierung einer 3D-Szene in Echtzeit |
US10750810B2 (en) * | 2017-12-24 | 2020-08-25 | Jo-Ann Stores, Llc | Method of projecting sewing pattern pieces onto fabric |
US10839585B2 (en) | 2018-01-05 | 2020-11-17 | Vangogh Imaging, Inc. | 4D hologram: real-time remote avatar creation and animation control |
US11113887B2 (en) * | 2018-01-08 | 2021-09-07 | Verizon Patent And Licensing Inc | Generating three-dimensional content from two-dimensional images |
US10410089B2 (en) * | 2018-01-19 | 2019-09-10 | Seiko Epson Corporation | Training assistance using synthetic images |
US11080540B2 (en) | 2018-03-20 | 2021-08-03 | Vangogh Imaging, Inc. | 3D vision processing using an IP block |
US10810783B2 (en) | 2018-04-03 | 2020-10-20 | Vangogh Imaging, Inc. | Dynamic real-time texture alignment for 3D models |
US10769437B2 (en) | 2018-04-10 | 2020-09-08 | Seiko Epson Corporation | Adaptive sampling of training views |
US10878285B2 (en) | 2018-04-12 | 2020-12-29 | Seiko Epson Corporation | Methods and systems for shape based training for an object detection algorithm |
US11170224B2 (en) | 2018-05-25 | 2021-11-09 | Vangogh Imaging, Inc. | Keyframe-based object scanning and tracking |
US10549186B2 (en) * | 2018-06-26 | 2020-02-04 | Sony Interactive Entertainment Inc. | Multipoint SLAM capture |
KR102126561B1 (ko) * | 2018-07-23 | 2020-06-24 | 주식회사 쓰리아이 | 적응적 삼차원 공간 생성방법 및 그 시스템 |
US10832481B2 (en) * | 2018-08-21 | 2020-11-10 | Disney Enterprises, Inc. | Multi-screen interactions in virtual and augmented reality |
US10634918B2 (en) | 2018-09-06 | 2020-04-28 | Seiko Epson Corporation | Internal edge verification |
US11200655B2 (en) | 2019-01-11 | 2021-12-14 | Universal City Studios Llc | Wearable visualization system and method |
US10686980B1 (en) | 2019-01-22 | 2020-06-16 | Daqri, Llc | Systems and methods for generating composite depth images based on signals from an inertial sensor |
US11232633B2 (en) | 2019-05-06 | 2022-01-25 | Vangogh Imaging, Inc. | 3D object capture and object reconstruction using edge cloud computing resources |
US11170552B2 (en) | 2019-05-06 | 2021-11-09 | Vangogh Imaging, Inc. | Remote visualization of three-dimensional (3D) animation with synchronized voice in real-time |
US10867220B2 (en) | 2019-05-16 | 2020-12-15 | Rpx Corporation | Systems and methods for generating composite sets of data from different sensors |
US11625140B2 (en) * | 2019-05-31 | 2023-04-11 | Ptc Inc. | Configuring remote devices through volumetric video telepresence interfaces |
US20200396305A1 (en) * | 2019-06-12 | 2020-12-17 | Samsung Electronics Co., Ltd. | Method and system for providing actionable notification to a user of an augmented reality device |
CN110473293B (zh) * | 2019-07-30 | 2023-03-24 | Oppo广东移动通信有限公司 | 虚拟对象处理方法及装置、存储介质和电子设备 |
US11275453B1 (en) | 2019-09-30 | 2022-03-15 | Snap Inc. | Smart ring for manipulating virtual objects displayed by a wearable device |
US11335063B2 (en) | 2020-01-03 | 2022-05-17 | Vangogh Imaging, Inc. | Multiple maps for 3D object scanning and reconstruction |
US11277597B1 (en) | 2020-03-31 | 2022-03-15 | Snap Inc. | Marker-based guided AR experience |
US11798429B1 (en) | 2020-05-04 | 2023-10-24 | Snap Inc. | Virtual tutorials for musical instruments with finger tracking in augmented reality |
US11520399B2 (en) * | 2020-05-26 | 2022-12-06 | Snap Inc. | Interactive augmented reality experiences using positional tracking |
WO2021242551A1 (en) * | 2020-05-29 | 2021-12-02 | Limonox Projects Llc | Communication sessions using object information |
US11943232B2 (en) | 2020-06-18 | 2024-03-26 | Kevin Broc Vitale | Mobile equipment provisioning system and process |
US11210862B1 (en) | 2020-06-25 | 2021-12-28 | Microsoft Technology Licensing, Llc | Data selection for spatial reconstruction |
CN111862273A (zh) * | 2020-07-16 | 2020-10-30 | 北京字节跳动网络技术有限公司 | 动画处理方法、装置、电子设备及存储介质 |
US20220044480A1 (en) * | 2020-08-06 | 2022-02-10 | At&T Intellectual Property I, L.P. | System for three dimensional extension with multiscreen extended reality |
US11360733B2 (en) | 2020-09-10 | 2022-06-14 | Snap Inc. | Colocated shared augmented reality without shared backend |
US11925863B2 (en) | 2020-09-18 | 2024-03-12 | Snap Inc. | Tracking hand gestures for interactive game control in augmented reality |
EP4217083A1 (en) * | 2020-09-25 | 2023-08-02 | Apple Inc. | Asymmetric presentation of an environment |
US11546505B2 (en) | 2020-09-28 | 2023-01-03 | Snap Inc. | Touchless photo capture in response to detected hand gestures |
KR20220046356A (ko) * | 2020-10-07 | 2022-04-14 | 삼성전자주식회사 | 이동 통신 시스템에서 컨텐츠를 렌더링하는 방법 및 장치 |
US20230419608A1 (en) * | 2020-10-26 | 2023-12-28 | Motorola Solutions, Inc. | 3d modeling of incident scene using body worn cameras |
US11409113B2 (en) | 2020-11-13 | 2022-08-09 | GlaiveRF, Inc. | Wearable accessory with phased array antenna system |
US11740313B2 (en) | 2020-12-30 | 2023-08-29 | Snap Inc. | Augmented reality precision tracking and display |
US11531402B1 (en) | 2021-02-25 | 2022-12-20 | Snap Inc. | Bimanual gestures for controlling virtual and graphical elements |
US11657578B2 (en) | 2021-03-11 | 2023-05-23 | Quintar, Inc. | Registration for augmented reality system for viewing an event |
US11645819B2 (en) | 2021-03-11 | 2023-05-09 | Quintar, Inc. | Augmented reality system for viewing an event with mode based on crowd sourced images |
US11527047B2 (en) | 2021-03-11 | 2022-12-13 | Quintar, Inc. | Augmented reality system for viewing an event with distributed computing |
US11609682B2 (en) * | 2021-03-31 | 2023-03-21 | Verizon Patent And Licensing Inc. | Methods and systems for providing a communication interface to operate in 2D and 3D modes |
EP4327185A1 (en) | 2021-04-19 | 2024-02-28 | Snap, Inc. | Hand gestures for animating and controlling virtual and graphical elements |
US20220385721A1 (en) * | 2021-05-28 | 2022-12-01 | Streem, Llc | 3d mesh generation on a server |
US11539801B1 (en) * | 2021-08-04 | 2022-12-27 | Lemon Inc. | Shared augmented reality sessions for rendering video effects |
WO2023043607A1 (en) * | 2021-09-16 | 2023-03-23 | Chinook Labs Llc | Aligning scanned environments for multi-user communication sessions |
US11770424B2 (en) * | 2021-11-23 | 2023-09-26 | Motorola Mobility Llc | Methods, systems, and devices for presenting content selection and verification presentations in a videoconference |
US11843644B2 (en) | 2021-11-23 | 2023-12-12 | Motorola Mobility Llc | Methods, systems, and devices for presenting content selection and verification presentations in a videoconference |
US11949527B2 (en) * | 2022-04-25 | 2024-04-02 | Snap Inc. | Shared augmented reality experience in video chat |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102473324A (zh) * | 2009-08-18 | 2012-05-23 | Metaio有限公司 | 用于在真实环境中表示虚拟信息的方法 |
US8264505B2 (en) * | 2007-12-28 | 2012-09-11 | Microsoft Corporation | Augmented reality and filtering |
CN102696057A (zh) * | 2010-03-25 | 2012-09-26 | 比兹摩德莱恩有限公司 | 增强现实系统 |
CN102985901A (zh) * | 2010-05-16 | 2013-03-20 | 诺基亚公司 | 用于为移动设备上基于位置的服务渲染对象的立体图及与其相关的内容的方法和装置 |
US20130293584A1 (en) * | 2011-12-20 | 2013-11-07 | Glen J. Anderson | User-to-user communication enhancement with augmented reality |
CN103810356A (zh) * | 2012-11-05 | 2014-05-21 | 大连力天科技有限公司 | 基于增强现实技术及lbs功能的移动终端系统 |
CN103814397A (zh) * | 2010-06-17 | 2014-05-21 | 高通股份有限公司 | 用于增强实境环境的基于移动设备的内容映射 |
US20140204077A1 (en) * | 2013-01-22 | 2014-07-24 | Nicholas Kamuda | Mixed reality experience sharing |
US20150145985A1 (en) * | 2013-11-26 | 2015-05-28 | Michael Jason Gourlay | Large-Scale Surface Reconstruction That Is Robust Against Tracking And Mapping Errors |
US9088787B1 (en) * | 2012-08-13 | 2015-07-21 | Lockheed Martin Corporation | System, method and computer software product for providing visual remote assistance through computing systems |
Family Cites Families (79)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6317127B1 (en) | 1996-10-16 | 2001-11-13 | Hughes Electronics Corporation | Multi-user real-time augmented reality system and method |
US6119147A (en) | 1998-07-28 | 2000-09-12 | Fuji Xerox Co., Ltd. | Method and system for computer-mediated, multi-modal, asynchronous meetings in a virtual space |
US6891518B2 (en) | 2000-10-05 | 2005-05-10 | Siemens Corporate Research, Inc. | Augmented reality visualization device |
US20040078805A1 (en) | 2000-12-01 | 2004-04-22 | Liel Brian | System method and apparatus for capturing recording transmitting and displaying dynamic sessions |
US20040104935A1 (en) | 2001-01-26 | 2004-06-03 | Todd Williamson | Virtual reality immersion system |
US7010158B2 (en) | 2001-11-13 | 2006-03-07 | Eastman Kodak Company | Method and apparatus for three-dimensional scene modeling and reconstruction |
AU2002359541A1 (en) | 2001-11-30 | 2003-06-17 | Zaxel Systems, Inc. | Image-based rendering for 3d object viewing |
US7463280B2 (en) | 2003-06-03 | 2008-12-09 | Steuart Iii Leonard P | Digital 3D/360 degree camera system |
US7561160B2 (en) | 2004-07-15 | 2009-07-14 | Olympus Corporation | Data editing program, data editing method, data editing apparatus and storage medium |
US8982110B2 (en) | 2005-03-01 | 2015-03-17 | Eyesmatch Ltd | Method for image transformation, augmented reality, and teleperence |
US7933956B2 (en) | 2006-01-24 | 2011-04-26 | Simulat, Inc. | System and method to create a collaborative web-based multimedia layered platform |
US20080034038A1 (en) | 2006-08-04 | 2008-02-07 | Jean-Pierre Ciudad | Sharing Application Output In Chat Environment |
EP2084672A1 (en) | 2006-11-20 | 2009-08-05 | THOMSON Licensing | System and method for compositing 3d images |
US8487957B1 (en) | 2007-05-29 | 2013-07-16 | Google Inc. | Displaying and navigating within photo placemarks in a geographic information system, and applications thereof |
US20090221368A1 (en) | 2007-11-28 | 2009-09-03 | Ailive Inc., | Method and system for creating a shared game space for a networked game |
US8624924B2 (en) | 2008-01-18 | 2014-01-07 | Lockheed Martin Corporation | Portable immersive environment using motion capture and head mounted display |
US8737721B2 (en) | 2008-05-07 | 2014-05-27 | Microsoft Corporation | Procedural authoring |
WO2010029553A1 (en) | 2008-09-11 | 2010-03-18 | Netanel Hagbi | Method and system for compositing an augmented reality scene |
US8554307B2 (en) | 2010-04-12 | 2013-10-08 | Inneroptic Technology, Inc. | Image annotation in image-guided medical procedures |
EP3611555A1 (en) | 2009-11-19 | 2020-02-19 | eSight Corporation | Image magnification on a head mounted display |
US20120019614A1 (en) | 2009-12-11 | 2012-01-26 | Tessera Technologies Ireland Limited | Variable Stereo Base for (3D) Panorama Creation on Handheld Device |
KR100989663B1 (ko) | 2010-01-29 | 2010-10-26 | (주)올라웍스 | 단말 장치의 시야에 포함되지 않는 객체에 대한 정보를 제공하기 위한 방법, 단말 장치 및 컴퓨터 판독 가능한 기록 매체 |
US20110214082A1 (en) | 2010-02-28 | 2011-09-01 | Osterhout Group, Inc. | Projection triggering through an external marker in an augmented reality eyepiece |
WO2011106797A1 (en) | 2010-02-28 | 2011-09-01 | Osterhout Group, Inc. | Projection triggering through an external marker in an augmented reality eyepiece |
US20110258526A1 (en) | 2010-04-20 | 2011-10-20 | International Business Machines Corporation | Web content annotation management web browser plug-in |
US9635251B2 (en) | 2010-05-21 | 2017-04-25 | Qualcomm Incorporated | Visual tracking using panoramas on mobile devices |
US9361729B2 (en) | 2010-06-17 | 2016-06-07 | Microsoft Technology Licensing, Llc | Techniques to present location information for social networks using augmented reality |
US8493206B2 (en) | 2010-07-30 | 2013-07-23 | Gravity Jack, Inc. | Augmented reality and location determination methods and apparatus |
GB2482729A (en) | 2010-08-13 | 2012-02-15 | Monnowtone Ltd | An augmented reality musical instrument simulation system |
US8884984B2 (en) | 2010-10-15 | 2014-11-11 | Microsoft Corporation | Fusing virtual content into real content |
US8952983B2 (en) | 2010-11-04 | 2015-02-10 | Nokia Corporation | Method and apparatus for annotating point of interest information |
US8823769B2 (en) | 2011-01-05 | 2014-09-02 | Ricoh Company, Ltd. | Three-dimensional video conferencing system with eye contact |
KR20120086810A (ko) | 2011-01-27 | 2012-08-06 | 삼성전자주식회사 | 단말기 및 그 단말기에서 이미지 처리 방법 |
US20120224070A1 (en) | 2011-03-04 | 2012-09-06 | ZionEyez, LLC | Eyeglasses with Integrated Camera for Video Streaming |
EP3654147A1 (en) | 2011-03-29 | 2020-05-20 | QUALCOMM Incorporated | System for the rendering of shared digital interfaces relative to each user's point of view |
WO2012136388A1 (en) | 2011-04-08 | 2012-10-11 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Capturing panoramic or semi-panoramic 3d scenes |
WO2012154365A2 (en) | 2011-04-12 | 2012-11-15 | Google Inc. | Integrating maps and street views |
US20120299962A1 (en) | 2011-05-27 | 2012-11-29 | Nokia Corporation | Method and apparatus for collaborative augmented reality displays |
KR20130000160A (ko) | 2011-06-22 | 2013-01-02 | 광주과학기술원 | 사용자 적응형 증강현실 이동통신 장치와 서버 및 그 방법 |
US8879828B2 (en) | 2011-06-29 | 2014-11-04 | Matterport, Inc. | Capturing and aligning multiple 3-dimensional scenes |
US20130031457A1 (en) | 2011-07-28 | 2013-01-31 | Peter Griffiths | System for Creating and Editing Temporal Annotations of Documents |
US9269243B2 (en) | 2011-10-07 | 2016-02-23 | Siemens Aktiengesellschaft | Method and user interface for forensic video search |
US9077846B2 (en) | 2012-02-06 | 2015-07-07 | Microsoft Technology Licensing, Llc | Integrated interactive space |
CN104641399B (zh) | 2012-02-23 | 2018-11-23 | 查尔斯·D·休斯顿 | 用于创建环境并用于共享环境中基于位置的体验的系统和方法 |
JP2013183433A (ja) | 2012-03-05 | 2013-09-12 | Sony Corp | クライアント端末、サーバ、およびプログラム |
US8922481B1 (en) | 2012-03-16 | 2014-12-30 | Google Inc. | Content annotation |
US9111134B1 (en) | 2012-05-22 | 2015-08-18 | Image Metrics Limited | Building systems for tracking facial features across individuals and groups |
US10176635B2 (en) | 2012-06-28 | 2019-01-08 | Microsoft Technology Licensing, Llc | Saving augmented realities |
CN103593867A (zh) | 2012-08-17 | 2014-02-19 | 任治全 | 一种3d图像拼接技术 |
WO2014035367A1 (en) | 2012-08-27 | 2014-03-06 | Empire Technology Development Llc | Generating augmented reality exemplars |
US10620902B2 (en) | 2012-09-28 | 2020-04-14 | Nokia Technologies Oy | Method and apparatus for providing an indication regarding content presented to another user |
US9626799B2 (en) | 2012-10-02 | 2017-04-18 | Aria Glassworks, Inc. | System and method for dynamically displaying multiple virtual and augmented reality scenes on a single display |
KR101990536B1 (ko) | 2012-11-02 | 2019-06-18 | 삼성전자주식회사 | 영상 통화 수행 시 사용자들의 관심 정보를 제공하는 정보 제공 방법 및 이를 적용한 전자 장치 |
US9129435B2 (en) | 2012-12-04 | 2015-09-08 | Fuji Xerox Co., Ltd. | Method for creating 3-D models by stitching multiple partial 3-D models |
US20140176661A1 (en) | 2012-12-21 | 2014-06-26 | G. Anthony Reina | System and method for surgical telementoring and training with virtualized telestration and haptic holograms, including metadata tagging, encapsulation and saving multi-modal streaming medical imagery together with multi-dimensional [4-d] virtual mesh and multi-sensory annotation in standard file formats used for digital imaging and communications in medicine (dicom) |
US9336629B2 (en) | 2013-01-30 | 2016-05-10 | F3 & Associates, Inc. | Coordinate geometry augmented reality process |
US9565226B2 (en) | 2013-02-13 | 2017-02-07 | Guy Ravine | Message capturing and seamless message sharing and navigation |
US9940553B2 (en) | 2013-02-22 | 2018-04-10 | Microsoft Technology Licensing, Llc | Camera/object pose from predicted coordinates |
US10200654B2 (en) | 2013-02-27 | 2019-02-05 | Szymczyk Matthew | Systems and methods for real time manipulation and interaction with multiple dynamic and synchronized video streams in an augmented or multi-dimensional space |
US9294757B1 (en) | 2013-03-15 | 2016-03-22 | Google Inc. | 3-dimensional videos of objects |
US9049469B2 (en) | 2013-04-03 | 2015-06-02 | Roy S. Melzer | Encryption and decryption of visible codes for real time augmented reality views |
US9609272B2 (en) | 2013-05-02 | 2017-03-28 | Avaya Inc. | Optimized video snapshot |
US10262462B2 (en) | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
EP3014367B1 (en) | 2013-06-27 | 2017-03-15 | ABB Schweiz AG | Method and video communication device for transmitting video to a remote user |
US9686466B1 (en) | 2013-06-27 | 2017-06-20 | Google Inc. | Systems and methods for environment content sharing |
US20150002636A1 (en) | 2013-06-28 | 2015-01-01 | Cable Television Laboratories, Inc. | Capturing Full Motion Live Events Using Spatially Distributed Depth Sensing Cameras |
US9451162B2 (en) | 2013-08-21 | 2016-09-20 | Jaunt Inc. | Camera array including camera modules |
US20150062123A1 (en) | 2013-08-30 | 2015-03-05 | Ngrain (Canada) Corporation | Augmented reality (ar) annotation computer system and computer-readable medium and method for creating an annotated 3d graphics model |
CN104461477A (zh) | 2013-09-13 | 2015-03-25 | 腾讯科技(北京)有限公司 | 网络评论信息的添加方法、系统和相应装置 |
US20150206343A1 (en) | 2014-01-17 | 2015-07-23 | Nokia Corporation | Method and apparatus for evaluating environmental structures for in-situ content augmentation |
US20160255126A1 (en) | 2014-03-01 | 2016-09-01 | William Sarris | Application and method for conducting group video conversations and meetings on mobile communication devices |
US20150362733A1 (en) | 2014-06-13 | 2015-12-17 | Zambala Lllp | Wearable head-mounted display and camera system with multiple modes |
US10062354B2 (en) | 2014-10-10 | 2018-08-28 | DimensionalMechanics, Inc. | System and methods for creating virtual environments |
US9916002B2 (en) | 2014-11-16 | 2018-03-13 | Eonite Perception Inc. | Social applications for augmented reality technologies |
US10235808B2 (en) | 2015-08-20 | 2019-03-19 | Microsoft Technology Licensing, Llc | Communication system |
US20170053445A1 (en) | 2015-08-20 | 2017-02-23 | Microsoft Technology Licensing, Llc | Augmented Reality |
US20170053455A1 (en) | 2015-08-20 | 2017-02-23 | Microsoft Technology Licensing, Llc | Asynchronous 3D annotation of a Video Sequence |
US20170053621A1 (en) | 2015-08-20 | 2017-02-23 | Microsoft Technology Licensing, Llc | Roundtrip Reintegration of Asynchronous 3D Session |
US20170054815A1 (en) | 2015-08-20 | 2017-02-23 | Microsoft Technology Licensing, Llc | Asynchronous Session via a User Device |
-
2016
- 2016-04-26 US US15/139,095 patent/US10169917B2/en active Active
- 2016-08-19 CN CN201680048059.5A patent/CN107924584B/zh active Active
- 2016-08-19 WO PCT/US2016/047666 patent/WO2017031389A1/en active Search and Examination
- 2016-08-19 CN CN202110676080.2A patent/CN113376839A/zh active Pending
- 2016-08-19 EP EP16766686.6A patent/EP3323110A1/en not_active Ceased
-
2018
- 2018-12-16 US US16/221,567 patent/US10643394B2/en active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8264505B2 (en) * | 2007-12-28 | 2012-09-11 | Microsoft Corporation | Augmented reality and filtering |
CN102473324A (zh) * | 2009-08-18 | 2012-05-23 | Metaio有限公司 | 用于在真实环境中表示虚拟信息的方法 |
CN102696057A (zh) * | 2010-03-25 | 2012-09-26 | 比兹摩德莱恩有限公司 | 增强现实系统 |
CN102985901A (zh) * | 2010-05-16 | 2013-03-20 | 诺基亚公司 | 用于为移动设备上基于位置的服务渲染对象的立体图及与其相关的内容的方法和装置 |
CN103814397A (zh) * | 2010-06-17 | 2014-05-21 | 高通股份有限公司 | 用于增强实境环境的基于移动设备的内容映射 |
US20130293584A1 (en) * | 2011-12-20 | 2013-11-07 | Glen J. Anderson | User-to-user communication enhancement with augmented reality |
US9088787B1 (en) * | 2012-08-13 | 2015-07-21 | Lockheed Martin Corporation | System, method and computer software product for providing visual remote assistance through computing systems |
CN103810356A (zh) * | 2012-11-05 | 2014-05-21 | 大连力天科技有限公司 | 基于增强现实技术及lbs功能的移动终端系统 |
US20140204077A1 (en) * | 2013-01-22 | 2014-07-24 | Nicholas Kamuda | Mixed reality experience sharing |
US20150145985A1 (en) * | 2013-11-26 | 2015-05-28 | Michael Jason Gourlay | Large-Scale Surface Reconstruction That Is Robust Against Tracking And Mapping Errors |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108549942A (zh) * | 2018-04-26 | 2018-09-18 | 厦门市礼小签电子科技有限公司 | 一种基于区块链与ar增强学习技术的数据模型系统 |
CN112639888A (zh) * | 2018-08-09 | 2021-04-09 | 祖克斯有限公司 | 程序世界生成 |
WO2021179399A1 (zh) * | 2019-10-29 | 2021-09-16 | 南京翱翔信息物理融合创新研究院有限公司 | 一种基于混合现实的远程操作引导系统及方法 |
CN114730546A (zh) * | 2019-11-12 | 2022-07-08 | 奇跃公司 | 具有定位服务和基于位置的共享内容的交叉现实系统 |
CN116868187A (zh) * | 2021-01-07 | 2023-10-10 | 谷歌有限责任公司 | 用于促进具有第三方资产的增强现实体验的计算平台 |
WO2023193532A1 (en) * | 2022-04-07 | 2023-10-12 | Beijing Xiaomi Mobile Software Co., Ltd. | Rendering of augmented reality content and method for enabling ar content rendering |
Also Published As
Publication number | Publication date |
---|---|
CN113376839A (zh) | 2021-09-10 |
US20170053447A1 (en) | 2017-02-23 |
CN107924584B (zh) | 2021-06-08 |
US10643394B2 (en) | 2020-05-05 |
US20190122442A1 (en) | 2019-04-25 |
US10169917B2 (en) | 2019-01-01 |
EP3323110A1 (en) | 2018-05-23 |
WO2017031389A1 (en) | 2017-02-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107924584A (zh) | 增强现实 | |
JP7445720B2 (ja) | 拡張現実のためのシステムおよび方法 | |
US20170053445A1 (en) | Augmented Reality | |
US20240087261A1 (en) | Session manager | |
US10235808B2 (en) | Communication system | |
JP2017045476A (ja) | 広範囲同時遠隔ディジタル提示世界 | |
US11645823B2 (en) | Neutral avatars | |
KR102543993B1 (ko) | 시뮬레이션된 현실(sr)에서의 디스플레이 디바이스 공유 및 상호작용성 | |
WO2022108662A1 (en) | Multiple device sensor input based avatar | |
WO2017042070A1 (en) | A gazed virtual object identification module, a system for implementing gaze translucency, and a related method | |
US20230288701A1 (en) | Sensor emulation | |
US20230290096A1 (en) | Progressive body capture of user body for building an avatar of user | |
JP2022554200A (ja) | 非均一ステレオレンダリング | |
WO2022091832A1 (ja) | 情報処理装置、情報処理システム、情報処理方法、および情報処理端末 | |
WO2022242856A1 (en) | Communication devices, adapting entity and methods for augmented/mixed reality communication |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |