CN107305435A - 在增强现实和虚拟现实环境之间链接和交互的系统和方法 - Google Patents
在增强现实和虚拟现实环境之间链接和交互的系统和方法 Download PDFInfo
- Publication number
- CN107305435A CN107305435A CN201710248171.XA CN201710248171A CN107305435A CN 107305435 A CN107305435 A CN 107305435A CN 201710248171 A CN201710248171 A CN 201710248171A CN 107305435 A CN107305435 A CN 107305435A
- Authority
- CN
- China
- Prior art keywords
- data
- augmented reality
- digital object
- user
- real world
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
Abstract
本公开描述了用于在增强现实(AR)环境和虚拟现实(VR)环境之间链接和交互的系统和方法。AR主机系统可以捕获或检索与第一用户的现实世界环境的AR视图相关联的数据。数据可以包括现实世界视图的视听流、与覆盖在现实世界视图上的数字对象相关联的数字对象数据以及其它数据。AR主机系统将数据发送到VR系统。VR系统可以将第二用户放置到作为AR视图的表示的VR环境中。VR系统还可以生成与AR视图相关联的附加数字对象数据,并将生成的数字对象数据发送到AR主机系统。AR主机系统接收数字对象数据并修改呈现给第一用户的AR视图。
Description
相关申请的交叉参考
本申请要求于2016年4月18日提交的美国临时专利申请号62/324,235的优先权。
技术领域
本公开总体涉及增强现实和虚拟现实环境,并且更具体地涉及用于在增强现实环境和虚拟现实环境之间链接和交互的系统和方法。
发明内容
描述了用于在增强现实环境和虚拟现实环境之间进行链接和交互的系统和方法。
在第一实施例中,由与第一用户相关联的增强现实系统实现的方法可以包括:捕获现实世界环境的增强现实视图的数据;向与第二用户相关联的装置发送所述增强现实视图的捕获的数据;从与所述第二用户相关联的所述装置接收与所述增强现实视图相关联的数字对象的数字对象数据;以及响应于接收到所述数字对象数据,修改所述增强现实视图。
在另一实施方式中,该方法包括:呈现现实世界环境的增强现实视图,增强现实视图包括用现实世界环境注册的数字对象。可以通过显示覆盖在现实世界环境上的数字对象中的一个来呈现增强现实视图。发送的捕获数据可以包括现实世界环境的视频数据和与覆盖在现实世界环境上的一个或多个数字对象相关联的数字对象数据。
增强现实系统可以包括头戴式显示器。头戴式显示器可以显示覆盖在现实世界环境上的数字对象,并使用相机记录视场。
在第二实施例中,由与第一用户相关联的虚拟现实系统实现的方法可以包括:从与第二用户相关联的第二装置接收视频数据和数字对象数据,其中视频数据和数字对象数据与现实世界环境的增强现实视图的显示相关联;基于所接收的视频数据和数字对象数据,使用所述第一装置呈现虚拟现实视图;通过用户输入装置的物理操纵来接收由所述第一用户生成的数字对象数据,所述数据包括与增强现实视图相关联的数字对象数据;以及将数字对象数据发送到第二装置,其中数字对象数据修改增强现实视图的显示。
在另一实施方式中,该方法包括:从与第三用户相关联的第三装置接收视频数据,其中视频数据与现实世界环境的增强现实视图的第二显示相关联;基于从第二和第三装置接收的视频数据,创建现实世界环境的三维表示;以及显示现实世界环境的三维表示。
根据结合附图的以下详细描述,所公开的方法的其它特征和方面将变得显而易见,附图通过示例示出了根据本公开的实施例的特征。发明内容不旨在限制所要求保护的公开的范围,其仅由所附权利要求书限定。
附图说明
参照以下附图详细描述根据一个或多个各种实施例的本公开。提供附图仅是为了说明的目的,并且仅示出本公开的典型或示例实施例。
图1A示出根据本公开的用于在AR和VR环境之间链接和交互的系统。
图1B是示出根据本公开的增强现实或虚拟现实装置的部件的示例架构的框图。
图2是示出可以使用图1A的增强现实主机系统实现的示例方法的操作流程图。
图3是示出可以使用图1A的虚拟现实接收器系统实现的示例方法的操作流程图。
图4示出可以用于实现本文公开的方法的各种特征的示例计算模块。
附图不是详尽的并且不将本公开限制为所公开的精确形式。
具体实施方式
根据本文公开的技术的实施例,描述了用于在增强现实(AR)和虚拟现实(VR)环境之间链接和交互的系统和方法。在各种实施例中,这可以通过与体验环境的第一用户相关联的AR主机系统以及与可以允许第二用户与第一用户的视图交互的第二远程连接用户相关联的VR接收器系统来实现。AR主机系统包括用于生成第一用户的环境的增强视图的AR装置,并且VR接收器系统包括允许第二用户远程体验第一用户的环境并与第一用户的视图交互的VR装置。
如本文所使用的,术语“增强现实”或“AR”通常是指通过诸如视频、声音和图形的计算机生成的信息或数字信息来增强或补充的物理现实世界环境的视图。数字信息被直接注册在用户的物理现实世界环境中,使得用户可以实时地与数字信息交互。数字信息可以采取图像,声音,触觉反馈,视频,文本等的形式。例如,数字对象的三维表示可以实时地覆盖在现实世界环境的用户视图上。
如本文所使用的,术语“虚拟现实”或“VR”通常指的是用户在现实或想象的环境中的存在的模拟,使得用户可以与其交互。
图1A示出了根据本公开的示例性系统100的高层次框图。如图所示,与第一用户(即,AR主机)相关联的AR主机系统110通过通信网络130和与第二用户(即VR接收器)相关联的VR接收器系统120通信。在一些实施例中,多个AR主机系统110可以与一个或多个VR接收器系统120通信。可替代地,一个AR主机系统110可以与多个VR接收器系统120通信。
通信网络130可以包括适于在AR主机系统110和VR系统120之间交换数据的任何通信网络。AR主机系统110和VR接收器系统120可以连接到网络130的协议的一些非限制性示例包括:蜂窝电信协议,诸如GSM、UMTS、CDMA2000、LTE或WiMAX;有线通信方法,诸如电缆、DSL、拨号或光纤;或无线通信方法,诸如卫星通信或Wi-Fi。在一个实施例中,AR主机系统110和VR系统120可以通过对等网络进行通信。在一些实施例中,可以利用多个网络协议来建立通信。
在操作期间,AR主机系统110可以捕获并检索与现实世界环境的AR主机的增强现实视图相关联的数据。在各种实施例中,捕获并检索的数据可以包括例如从AR主机的视角(perspective)的AR主机的现实世界环境的视听馈送、与增强现实世界环境的AR主机视图的对象相关联的数字对象数据、关于对象和视听馈送的元数据以及其它信息。作为示例,数字对象数据可以包括覆盖在现实世界视听馈送上的信息,诸如3D图形(例如,移动动画角色)、可选择标记、声音、交互元素等。另外,数字对象数据可以包括用AR用户的现实世界环境注册的其它数据,诸如例如触觉或嗅觉反馈。由AR主机系统110捕获的其它数据可以包括运动传感器或生理传感器数据(例如,用户随时间推移的运动,用户随时间推移的心率等)以及AR主机的物理空间和现实世界对象在该物理空间中的几何数据。例如,AR头戴式显示器(HMD)可以具有相机和/或传感器以扫描房间的区域。
捕获和检索的数据可以被合成或保存在单独的数据流中。例如,来自视听馈送的音频数据、来自视听馈送的视频数据、来自现实世界环境的几何数据,以及不同类型的数字对象数据(例如,3D图形、音频、触觉反馈等)可以被记录为单独的数字文件(或流)或被合成到单个文件(或流)中。在实施方式中,可以使用时间代码来同步分离的数字文件。
在实施例中,诸如HMD系统的AR装置111(例如,眼镜、护目镜、头盔、相机、智能手机等)可以捕获数据。HMD可以包括视频透视显示器或光学透视显示器。在一些实施例中,诸如麦克风、全向相机114、传感器112和移动装置113(例如,电话、平板电脑,诸如智能手表的可穿戴装置等)的附加装置可以辅助以下的任何组合:捕获与AR主机的环境相关联的附加数据(例如,环境的附加视图)、补充提供给AR主机的增强现实视图、处理捕获的AR数据,或通过通信网络130将捕获的数据发送到虚拟现实系统120。在各种实施例,所发送的数据可以包括例如AR主机的现实世界视图的视听流、与覆盖在AR主机的增强现实视图上的数字对象相关联的数字对象数据,以及由诸如全向相机114或传感器112的附加装置捕获的附加数据。该数据可以作为单个合成的文件/流或作为单独的数据文件/流发送。
在VR系统120接收数据之后,VR接收器系统120的VR装置121(例如,HMD、全向投影仪等)可以将用户(VR接收器)放置到作为AR主机的增强现实视图表示的虚拟现实环境中。例如,VR接收器系统120可以通过对应于提供与增强现实视图的覆盖数字对象一起实时地观看AR主机的视听馈送来重新创建发送者的体验。在实施例中,从传感器112接收的数据可以用于补偿AR主机的任何头部运动。
作为另一示例,可以创建AR主机的环境的修改视图。例如,在接收与AR主机的环境相关联的复合元素之后,VR接收器系统120可以从发送者的环境重建现实的几何形状;利用附加的数字对象数据增强几何形状;并且向VR接收器系统120的用户显示增强的环境。
在一些实施例中,VR接收器不能够向AR主机提供反馈,或者AR主机不允许VR接收器提供反馈,即VR接收器是被动的(passive)。例如,著名人物可以是进行活动(例如,烹饪、攀岩、混合武术战斗)的AR主机,并且数千人可以各自具有VR接收器以体验AR主机的活动和环境。
在其它实施例中,AR主机允许VR接收器提供反馈(即,VR接收器是主动的),VR接收器可以与AR主机就有关VR接收器关于AR主机环境的观察进行通信,包括关于AR主机的视听馈送和关于由附加设备(例如,全向相机114、传感器112等)捕获的数据的观察。通信可以是基于音频的(例如,使用麦克风)、基于触觉的(例如,VR接收器可以激活AR主机(host)上的触觉反馈传感器以捕获他们的注意),或者通过下面进一步描述的视觉提示。例如,基于全向相机114捕获什么,VR接收器可以将AR主机从自己的当前视图指向看另一方向。
VR接收器可以通过驱使用户输入装置(例如,VR装置121、移动装置122或其它装置)并且生成被发送回AR主机系统110的数据来与AR主机的AR环境交互并影响AR主机的AR环境。例如,VR接收器可以生成在AR主机的增强现实视图中显示的新数字对象或者操纵当前在增强现实视图中显示的数字对象。在该示例的应用中,VR接收器可以通过操纵移动装置122的触摸屏或其它手动控制器来突出AR主机的注意的对象。在该示例的另一应用中,VR接收器可以生成和/或发送图像、视频和其它内容(现场直播或记录)到AR主机。
作为另一示例,VR接收器可以回放或停止AR主机的视听馈送并且以不同速度(例如,慢动作)回放以回顾特定细节。在另一个示例中,VR接收器可以使用全向相机114放大和缩小AR主机环境。例如,如果AR主机正在看建筑物的门,则VR接收器可以使用控制器缩小并看到其余的建筑物和建筑物周围的对象。AR主机的视图可以用黄色椭圆来突出,使得VR接收器可以在任何时间“跳回”到AR主机的视图。VR接收器然后可以推荐AR主机后退,将他们的头部向左、向右、向上或向下,在场景中移动对象或者向人说某事。因此,如本领域技术人员将理解的,各种实施方式中的系统100允许两个远程连接的用户体验并与相同的增强现实世界环境交互。
VR系统120可以与具有软件和/或处理器的服务器通信,以识别由AR装置111正在观看的对象,并且在互联网上检索关于那些对象的信息。
在实施方式中,服务器130(例如,基于云的应用服务器)可以处理由AR主机系统110收集的数据或由VR接收器系统120接收的数据。例如,服务器130可以创建增强的视听馈送,以基于从AR主机系统110接收的数据向VR接收器系统120显示。作为另一示例,服务器130可以计算使用由AR主机佩戴的HMD捕获并显示的三维数字对象的形状、纹理、网格或其它参数。作为又一示例,服务器130可以合成并同步从AR主机系统110接收的单独数据流以呈现AR体验。服务器130可以将由AR主机系统110收集的数据和由VR接收器系统120生成的数据贮存在存储器(易失性或非易失性)中。可替代地,在其它实施例中,AR主机系统110或VR接收器系统120可以本地处理用于呈现AR或VR体验的所有数据。
图1B是示出可以在实施方式中使用的AR或VR HMD 200的部件的示例架构的框图。如该示例中所示,HMD 200与可以卸载数据处理任务、收集与AR/VR表示相关联的附加数据,或以其它方式辅助呈现AR/VR视图的装置300(例如,本地移动装置或服务器)通信。
在各种实施例中,HMD 200是可以生成用户的现实世界环境的AR视图(例如通过显示覆盖在现实世界环境上的数字对象)和/或另一用户的现实世界环境的VR视图的任何头戴式显示系统(例如,眼镜、护目镜、遮阳板、头盔、智能手机等)。HMD 200可以包括显示器210、贮存器220、定位模块230、处理模块240、相机250、运动传感器260和连接接口280。HMD200可以是有线或无线的。
在实施方式中,显示器210可以是AR显示器,诸如光学透视显示器(例如,使用波导来显示覆盖在现实世界环境上的数字对象的透明OLED或LED屏幕)或视频透视显示器,其用覆盖的数字对象补充用户的现实世界环境的视频。可替代地,显示器210可以是不可透视的VR视频显示器。
贮存器220可以包括易失性存储器(例如RAM)、非易失性存储器(例如闪存存储器)或其某种组合。在各种实施例中,贮存器220存储AR或VR应用程序225,其在由处理模块240(例如,数字信号处理器)执行时在显示器210上生成AR视图或VR视图。在显示器210上生成的视图可以显示一个或多个覆盖的数字对象,并且其可以用于放置一个或多个数字对象。另外,贮存器220可贮存数字对象信息和AR数据流。
定位模块230可以包括用于通过网络检索位置信息的一个或多个装置。例如,定位模块230可以包括全球定位系统接收器、蜂窝接收器、网络接口卡、高度计或其某种组合。由模块230检索的位置信息可以由处理模块240处理以确定HMD 200的地理坐标。例如,安装在贮存器220中的应用软件可以使用来自GPS读数连同地图偏差(例如,从网络贮存或检索)的HMD 200的位置以确定耳机200的地理坐标。
在AR HMD实现中,相机250可以捕获现实世界环境的视频流,使得AR软件225可以在现实世界环境上覆盖数字对象以创建AR环境。例如,在显示器210是视频显示器的实施例中,由相机捕获的数字视频流被数字对象覆盖。在实施例中,相机250是全向相机。在多于一个方向上可以存在多于一个相机250。
运动传感器260接收或生成表示HMD 200的运动/位置的电子输入信号。这些电子输入信号可由处理模块240的电路接收并处理,以确定HMD 200的用户的运动和在东北-西南(NESW)和上下平面中HMD 200的绝对取向。处理模块240可以将该取向信息贮存在贮存器220中。在各种实施例中,位置传感器260可以包括一个或多个陀螺仪、加速度计和磁力计。
连接接口280可以通过通信介质将AR耳机200连接到装置300。该介质可以包括无线网络系统,诸如蓝牙(BLUETOOTH)系统、ZIGBEE系统、红外(IR)系统、射频(RF)系统、无线局域网等。在另外的实施例中,连接接口280可以使用蜂窝网络、卫星网络、局域网或其一些组合将AR耳机系统连接到因特网。
装置300可以包括显示器310、贮存器320、处理器330和将装置300通信地耦合到AR耳机200的连接接口340。在实施例中,装置300可以是任何装置(例如智能电话、平板电脑、膝上型计算机、游戏控制台、台式计算机或计算机和/或服务器的网络,或诸如智能手表的可穿戴装置),其可在诸如生成用于在AR或VR环境中显示的数字对象、生成AR或VR视听馈送、贮存数字对象信息、处理运动传感器数据等的过程中补充HMD 200。例如,装置300可以是基于云的应用服务器,其处理从AR/VR HMD 300接收的信息并返回可由AR/VR HMD呈现的媒体信息以提供AR/VR视图。在一个实施例中,贮存器320贮存基于云的AR/VR应用程序,其在由处理器330执行时处理从AR/VR HMD 300接收的信息。
图2是示出可以使用图1A的AR主机系统110来实现的示例方法400的操作流程图。例如,方法400可以使用系统110的用户佩戴的HMD来实现。操作410和420可以如图所示,以不同的顺序或同时执行。
在操作410处,捕获或检索AR视图的数据。捕获的数据或检索的数据可以包括由一个或多个相机或麦克风(例如,集成在HMD中的相机)捕获的AR视图的视听数据、数字对象数据、传感器数据(例如,由HMD收集的运动传感器数据、由可穿戴装置收集的生理传感器数据等)、现实物理环境的几何数据,以及与AR视图相关联的其它数据。数据可以作为单独的数据流捕获。例如,来自视听馈送的音频数据、来自视听馈送的视频数据、来自现实世界环境的几何数据、传感器数据和不同类型的数字对象数据(例如,3D图形、音频、触觉反馈等)可以被记录为单独的数字文件或作为单独的流来流式化。捕获的数据的全部或子集可以被高速缓存或贮存在通信地耦合到AR主机系统110的存储器中。例如,捕获的数据可以贮存在移动装置113或服务器130的存储器中。
在操作420处,使用AR主机系统110来呈现用户的现实世界环境的AR视图。可以使用捕获和检索的数据来呈现AR视图。例如,一个或多个数字对象可以被显示覆盖在视频透视或光学透视HMD上的用户的现实世界环境上。作为示例,数字对象可以包括用AR用户的现实世界环境注册的3D图形(例如,移动动画角色)、可选择标记、声音、交互元素、触觉反馈、嗅觉反馈和其它数据。与AR视图相关联的数据的呈现和处理可以分布在多个装置(例如,HMD 111、智能电话113、服务器130等)上或者由单个装置(例如,HMD 111)完成。
可以通过执行贮存在HMD或移动装置上的AR应用225来手动或自动地创建数字对象。AR应用225的执行可以显示允许用户在用户的现实世界环境中选择、创建和/或注册数字对象的GUI。例如,在视觉数字对象的情况下,用户可以选择数字对象的一般形状、大小、取向、纹理和颜色。作为另一示例,用户可以将声音与特定位置或视觉对象相关联。在特定实施方式中,用户可以使用AR应用通过网络检索数字对象模板信息。
在操作430处,与呈现的AR视图相关联的捕获的数据通过通信网络发送到与第二用户相关联的VR接收器系统120。在发送之前,可以合成捕获的数据中的一些或全部。例如,音频数据流、可视数据流和数字对象数据流可以在时间上同步(例如,使用时间代码)并且合成到通过网络发送以用于VR接收器系统120回放的单个文件(或视听流)中。在另一实施方式中,VR接收器系统120可以独立地通过网络接收每个数据流,包括每个数据流的同步信息(例如,时间代码)。在又一实施方式中,服务器130可以同步并合成单独的数据流,并使它们可用于VR接收器系统120。在另一实施方式中,可以合成一些数据流,而其它数据流可以保持分离。例如,可以合成未被VR接收器系统修改的数据流(例如,视听馈送或AR物理环境),而可以由VR接收系统修改的数据流(例如,数字对象数据)可以独立地被接收。
在操作440处,通过通信网络从VR接收器系统120接收与AR视图相关联的数字对象数据。例如,VR接收器系统120可能已经生成了用于在AR主机系统110的增强现实视图中显示的新数字对象,或者可能已经使用从AR主机系统110接收的数字对象数据来操纵数字对象。作为示例,从VR接收器系统120接收的数字对象数据可以包括数字标记,以加强AR主机系统110的HMD中的视场中的位置或对象、与改变其状态的现有数字字符的交互,或其它数字对象数据。
在操作450处,AR主机系统110响应于从VR接收器系统120接收数字对象数据来修改所呈现的AR视图。例如,诸如图形、声音和触觉反馈的附加数字对象可以注册在用户的现实世界环境中。
图3是示出可以使用图1A的VR接收器系统120实现的示例方法500的操作流程图。在操作510处,在VR接收器系统120处通过通信网络从AR主机系统110接收与AR视图相关联的数据。数据可以包括由AR装置的一个或多个相机或麦克风捕获的AR视图的视听数据、数字对象数据、传感器数据、现实物理环境的几何数据以及与AR视图相关联的其它数据。可以将不同类型的数据中的每一个作为单独的数据流、复合数据流或其某种组合来接收。例如,AR用户的物理环境的视听馈送可以是与数字对象数据单独接收的音频和视频的合成。
在操作520处,在VR接收器系统120的装置上呈现VR视图。例如,可以使用HMD、投影仪或智能电视向用户显示包括覆盖的数字对象数据的视听馈送。作为另一示例,VR接收器系统120可以使用接收的几何数据根据发送者的环境重建现实的几何形状、采用附加的数字对象数据增强几何形状,并且向VR接收器系统120的用户显示增强的环境。在实施方式中,服务器130可以在VR接收器系统120呈现之前处理数据。
在操作530处,VR装置的用户可以生成要与AR视图相关联的数字对象数据。可以改变现有数字对象的状态或者可以用环境注册新的数字对象。作为示例,VR接收器的用户可以通过操纵移动装置122的触摸屏或其他手动控制器来突出AR主机的注意的对象。在操作540处,将所生成的数字对象数据通过通信网络发送到AR主机系统110。
现在描述其中可以实现本公开的系统的示例设置。在第一示例中,所公开的系统可以被实现为在物理地存在于主题公园的AR主机和在另一位置(例如,在公园中或在公园外部)处的VR接收器之间提供联合主题公园体验。在该示例设置中,AR主机可以佩戴显示覆盖在主题公园环境上的数字角色的AR耳机。覆盖的数字角色可以提供主题公园的定制旅行。VR接收器可以经历AR耳机的用户的眼睛的相同游历并且与数字角色交互。
在第二示例设置中,所公开的系统可以增强电影制作和指导。例如,在拍摄场景时本地呈现的导演、相机操作者和制作者可以各自佩戴AR耳机显示器,其使得能够以多种分辨率、颜色、角度、格式等观看直播场景。这些观看可以在本地AR用户之间共享并且发送到远程VR接收器,其可以向AR用户提供反馈(例如,音乐、视频增强、视频剪辑、场景)。作为另一示例,可以在视频拍摄或制作期间生成预映射环境。VR接收器或AR用户可以选择性地将数字对象添加到由另一AR用户体验的AR视图中。以这种方式,环境可以被虚拟地绿色屏蔽。
在第三示例设置中,所公开的系统可以提供教练和助理教练之间的运动协调。例如,助理教练可以充当提供关于正在进行的足球比赛的多个视图和信息的AR主机。充当VR接收器的教练可以接收该信息并且例如通过生成可以被覆盖到助理教练的增强视图中的数字对象(例如,播放呼叫(call))来指示助理教练。VR接收器可以从多个AR主机接收多个视图,并选择其中一个视图进行放大。
在第四示例设置中,所公开的系统可以为商品或服务的买方提供共享的交易体验。例如,在商店处浏览商品的AR主机可以将关于商品的用AR信息分层的视频馈送发送到VR接收器。在一些实施方式中,AR信息可以显示所查看物品的价格和描述。VR接收器的用户可以经由GUI授权或选择要购买的物品。另外,VR接收器的用户可以通过例如将加密的令牌信息发送到AR装置以在支付终端处使用或通过将令牌信息直接发送到交易系统来购买物品,该交易系统确认AR装置的用户存在的商店处的商业购买。
在第五示例设置中,所公开的系统可以使AR主机能够用VR接收器向多个用户呈现内容。例如,可以向多个VR用户广播演员、电视节目上的参与者或感兴趣的其他人的增强视点。例如,考虑佩戴AR装置的游戏节目参与者,其被呈现数字地注册到用户环境的一组选择。该AR视图的视频馈送对于具有VR接收器的多个用户可用。VR接收器的用户可以各自选择一个选择,并且该信息可以被发送回AR主机,从而提供AR主机可以作出决定的多数投票。
可以实现所公开的系统的其它示例设置包括犯罪现场调查(例如,与犯罪现场的人员远程协调的实验室技术人员)、医疗处理(例如,充当对AR用户给出指令的VR用户的医生)。如本领域技术人员将理解的,所公开的技术可以在期望两个用户与这些用户之一的增强现实环境共同交互并体验增强现实环境的任何设置中实现。
在所公开的技术的另一个实施例中,VR接收器系统120可以基于从具有相同现实世界环境的不同视角的AR主机接收的多个视听馈送来生成现实世界环境的三维表示。例如,可以使用本领域已知的3D重建算法在时间上同步和空间上重构视听馈送。
在所公开的技术的另一实施例中,可以向与一个或多个AR主机交互的多个VR接收器提供不同级别的许可。例如,取决于观看者,可以设置许可,使得VR接收器可以1)仅观看(被动),2)部分地与其交互(例如添加一些数字元素),或3)与AR主机完全交互(主动)。
在所公开的技术的又一实施例中,AR主机系统110和VR系统120中的每一个可以用于AR和VR系统的双重角色。例如,AR装置110可以被配置为提供用户环境的增强现实视图或另一用户环境的虚拟现实视图。同样,VR装置120可以在这两个功能之间切换。
图4示出了可以用于实现本文公开的方法的各种特征的示例计算模块。
如本文所使用的,术语模块可以描述可以根据本申请的一个或多个实施例执行的给定功能单元。如本文所使用的,模块可以利用任何形式的硬件、软件或其组合来实现。例如,可以实现一个或多个处理器、控制器、ASIC、PLA、PAL、CPLD、FPGA、逻辑组件、软件例程或其它机制来构成模块。在实施方式中,本文描述的各种模块可以被实现为离散模块,或者所描述的功能和特征可以在一个或多个模块之中部分地或全部地共享。换句话说,如在阅读本说明书之后对于本领域的普通技术人员显而易见的,本文描述的各种特征和功能可以在任何给定应用中实现,并且可以以各种组合和排列在一个或多个单独或共享的模块中实现。即使功能上的各种特征或元件可以作为单独的模块被单独描述或要求保护,但是本领域普通技术人员将理解,这些特征和功能可以在一个或多个公共软件和硬件元件之间共享,并且这种描述不应当需要或暗示单独的硬件或软件组件用于实现这种特征或功能。
在一个实施例中,在应用的组件或模块全部或部分地使用软件实现的情况下,这些软件元件可以被实现为与能够执行关于其描述的功能性的计算或处理模块一起操作。在图4中示出了一个这样的示例计算模块。关于该示例计算模块600描述了各种实施例。在阅读本说明书之后,对于相关领域的技术人员来说,如何使用其它计算模块或架构来实现应用将变得显而易见。
现在参考图4,计算模块600可以表示例如在台式、膝上型、笔记本和平板计算机内发现的计算或处理能力;手持式计算装置(平板电脑、PDA、智能手机、手机、掌上电脑等);大型机、超级计算机、工作站或服务器;或对于给定应用或环境可能需要或适当的任何其它类型的专用或通用计算装置。计算模块600还可以表示嵌入在给定装置中或以其他方式可用于给定装置的计算能力。例如,计算模块可以在诸如数字相机、导航系统、蜂窝电话、便携式计算装置、调制解调器、路由器、WAP、终端和可以包括某种形式的处理能力的其它电子装置的其它电子装置中找到。
计算模块600可以包括例如一个或多个处理器、控制器、控制模块或诸如处理器604的其它处理装置。处理器604可以例如使用通用或专用处理引擎来实现,诸如微处理器、控制器或其它控制逻辑。在所示示例中,处理器604连接到总线602,但是任何通信介质都可以用于促进与计算模块600的其它组件的交互或外部通信。
计算模块600还可以包括一个或多个存储器模块,这里简称为主存储器608。例如,优选地,随机存取存储器(RAM)或其它动态存储器可以用于存储信息和由处理器604要执行的指令。主存储器608还可以用于在执行由处理器604执行的指令期间存储临时变量或其它中间信息。计算模块600可以同样包括只读存储器(“ROM”)或耦合到总线602的其它静态贮存装置,用于存储用于处理器604的静态信息和指令。
计算模块600还可以包括一个或多个各种形式的信息贮存装置610,其可以包括例如介质驱动器612和贮存单元接口620。介质驱动器612可以包括驱动器或支持固定或可移动存储介质614的其它机构。例如,硬盘驱动器、固态驱动器、磁带驱动器、光盘驱动器、CD或DVD驱动器(R或RW),或其它可移动或固定介质驱动器可能被提供。因此,贮存介质614可以包括例如硬盘、固态驱动器、磁带、盒式磁盘、光盘、CD、DVD或蓝光,或者其它固定或可移动介质,其通过介质驱动器612读取、写入或由介质驱动器612访问。如这些示例所示,贮存介质614可以包括其中贮存有计算机软件或数据的计算机可用贮存介质。
在替代实施例中,信息贮存装置610可以包括用于允许将计算机程序或其它指令或数据加载到计算模块600中的其它类似工具。这些工具可以包括例如固定或可移除的贮存单元622和接口620。这样的贮存单元622和接口620的示例可以包括程序盒和盒接口、可移除存储器(例如,闪存或其它可移除存储器模块)和存储器插槽、PCMCIA插槽和卡,以及其它固定或可移除贮存单元622和接口620,其允许软件和数据从贮存单元622发送到计算模块600。
计算模块600还可以包括通信接口624。通信接口624可以用于允许软件和数据在计算模块600和外部装置之间传输。通信接口624的示例可以包括调制解调器或软调制解调器、网络接口(诸如以太网、网络接口卡、WiMedia、IEEE 802.XX或其它接口)、通信端口(诸如例如USB端口、IR端口、RS232端口接口或其它端口)或其它通信接口。经由通信接口624传送的软件和数据通常可以在信号上携载,该信号可以是电子的、电磁的(其包括光的)或能够由给定通信接口624交换的其它信号。这些信号可以经由通道628提供给通信接口624。该通道628可以携带信号并且可以使用有线或无线通信介质来实现。通道的一些示例可以包括电话线、蜂窝链路、RF链路、光链路、网络接口、局域网或广域网以及其它有线或无线通信通道。
在本文档中,术语“计算机可读介质”、“计算机可用介质”和“计算机程序介质”用于一般指非暂时性介质、易失性或非易失性介质,诸如例如存储器608、贮存单元622和介质614。这些和其它各种形式的计算机程序介质或计算机可用介质可以涉及将一个或多个指令的一个或多个序列携载到处理装置以供执行。包含在介质上的这样的指令通常被称为“计算机程序代码”或“计算机程序产品”(其可以以计算机程序或其它分组的形式分组)。当执行时,这样的指令可以使计算模块600能够执行如本文所讨论的本申请的特征或功能。
尽管上面根据各种示例实施例和实施方式进行了描述,但是应当理解,在一个或多个单独实施例中描述的各种特征、方面和功能性并不限于它们对它们的特定实施例的适用性,而是可以单独地或以各种组合应用于本申请的一个或多个其它实施例,无论这些实施例是否被描述以及这些特征是否被呈现为所描述的实施例的一部分。因此,本申请的宽度和范围不应当由任何上述示例性实施例限制。
除非另有明确说明,否则本文档中使用的术语和短语及其变型应当被解释为开放式的而不是限制性的。作为前述的示例:术语“包括”应当理解为意味着“包括但不限于”等;术语“示例”用于提供讨论中的项目的示例性实例,而不是其穷举或限制性列表;术语“一”或“一个”应当被理解为表示“至少一个”、“一个或多个”等;和诸如“常规的”、“传统的”、“正常的”、“标准的”、“已知的”和类似含义的术语的形容词不应当被解释为将所描述的项目限制到给定时间段,而是应该被理解为涵盖现在或在将来的任何时间可用或已知的常规、传统、正常或标准技术。同样地,在本文献涉及本领域普通技术人员将显而易见或已知的技术的情况下,此类技术包括现在或在未来的任何时间对于本领域技术人员显而易见或已知的技术。
在一些情况下,诸如“一个或多个”、“至少”、“但不限于”或其它类似短语的拓宽词和短语的存在不应被解读为意指更窄的情况旨在或要求在这种加宽短语可不存在的情况下的实例。术语“模块”的使用不意味着作为模块的一部分描述或要求保护的部件或功能全部被配置在共同的封装中。实际上,模块的各种组件(无论是控制逻辑还是其它组件)中的任何一个或全部可以组合在单个封装中或单独维护,并且可以进一步分布在多个分组或封装中或跨越多个位置。
另外,根据示例性框图、流程图和其它图示来描述本文阐述的各种实施例。如在阅读本文件之后对于本领域的普通技术人员将变得显而易见的,可以在不限制于所示示例的情况下实现所示出的实施例及其各种替代方案。例如,框图及其相关描述不应被解释为强制特定架构或配置。
虽然以上已经描述了本公开的各种实施例,但是应当理解,它们仅以示例的方式而不是限制的方式被呈现。同样地,各种示图可以描绘用于本公开的示例架构或其它配置,其用于帮助理解可以包括在本公开中的特征和功能。本公开不限于所示出的示例架构或配置,但是所期望的特征可以使用各种替代架构和配置来实现。实际上,对于本领域技术人员显而易见的是,可以如何实现替代的功能、逻辑或物理分区和配置以实现本公开的期望特征。此外,除了这里描述的那些之外的多个不同的组成模块名称可以应用于各种分区。另外,关于流程图、操作描述和方法权利要求,本文呈现步骤的顺序不应强制实现各种实施例以按照相同的顺序执行所列举的功能,除非上下文另有规定。
尽管上面根据各种示例性实施例和实施方式描述了本公开,但是应当理解,在一个或多个单独实施例中描述的各种特征、方面和功能性在其对具体实施例的适用性上不受限制,但是它们可以单独或以各种组合应用于本公开的一个或多个其它实施例,无论这些实施例是否被描述以及这些特征是否被表示为是本公开的一部分。因此,本公开的宽度和范围不应由上述示例性实施例中的任何一个限制。
Claims (21)
1.一种方法,其包括:
使用与第一用户相关联的增强现实系统捕获现实世界环境的增强现实视图的数据;
从所述增强现实系统向与第二用户相关联的装置发送所述增强现实视图的捕获的数据;
从与所述第二用户相关联的所述装置接收与所述增强现实视图相关联的数字对象的数字对象数据;以及
响应于接收所述数字对象数据,所述增强现实系统修改所述增强现实视图。
2.根据权利要求1所述的方法,进一步包括:使用所述增强现实系统呈现现实世界环境的所述增强现实视图,所述增强现实视图包括用所述现实世界环境注册的一个或多个数字对象。
3.根据权利要求2所述的方法,其中呈现所述增强现实视图包括显示覆盖在所述现实世界环境上的所述一个或多个数字对象中的一个,并且其中捕获的数据包括所述现实世界环境的视频数据和与覆盖在所述现实世界环境上的一个或多个数字对象相关联的数字对象数据。
4.根据权利要求3所述的方法,其中所述增强现实系统包括用于显示覆盖在所述现实世界环境上的数字对象的头戴式显示器。
5.根据权利要求4所述的方法,其中捕获呈现的增强现实视图的数据包括记录所述头戴式显示器的视场的所述头戴式显示器的相机。
6.根据权利要求3所述的方法,其中发送到与所述第二用户相关联的所述装置的所述视频数据和所述数字对象数据作为单独的数据流被发送。
7.根据权利要求3所述的方法,其中修改所述呈现的增强现实视图包括显示覆盖在所述现实世界环境上的新数字对象或者修改覆盖在所述现实世界环境上的数字对象的显示。
8.根据权利要求3所述的方法,进一步包括:
从所述增强现实系统向与第三用户相关联的第二装置发送呈现的所述增强现实视图的所述捕获的数据;
从与所述第三用户相关联的所述第二装置接收与所述增强现实视图相关联的数字对象的数字对象数据;以及
响应于从所述第二装置接收所述数字对象数据,所述增强现实系统修改所述呈现的增强现实视图。
9.根据权利要求3所述的方法,进一步包括:
所述增强现实系统使用传感器或全向相机捕获关于所述现实世界环境的附加数据;以及
将所述附加数据发送到与所述第二用户相关联的装置。
10.一种增强现实系统,其包括:
处理器;
非暂时性计算机可读介质,其可操作地耦合到所述处理器并且具有贮存在其上的指令,所述指令在由所述处理器执行时使所述系统:
呈现现实世界环境的增强现实视图,所述增强现实视图包括用所述现实世界环境注册的一个或多个数字对象;
捕获呈现的增强现实视图的数据;
向与第二用户相关联的装置发送所述呈现的增强现实视图的捕获的数据;
从与所述第二用户相关联的所述装置接收与所述增强现实视图相关联的数字对象的数字对象数据;以及
响应于接收所述数字对象数据,修改所述呈现的增强现实视图。
11.根据权利要求10所述的系统,进一步包括:头戴式显示器,其中呈现所述增强现实视图包括使用所述头戴式显示器来显示覆盖在所述现实世界环境上的所述一个或多个数字对象中的一个,并且其中所述捕获的数据包括所述现实世界环境的视频数据和与覆盖在所述现实世界环境上的所述一个或多个数字对象相关联的数字对象数据。
12.根据权利要求11所述的系统,其中捕获所述呈现的增强现实视图的数据包括记录所述头戴式显示器的视场的所述头戴式显示器的相机。
13.根据权利要求11所述的系统,其中发送到与所述第二用户相关联的所述装置的所述视频数据和数字对象数据作为单独的数据流被发送。
14.根据权利要求11所述的系统,其中修改所述呈现的增强现实视图包括显示覆盖在所述现实世界环境上的新数字对象或者修改覆盖在所述现实世界环境上的数字对象的显示。
15.根据权利要求11所述的系统,其中所述指令在由所述处理器执行时进一步使所述系统:
向与第三用户相关联的第二装置发送所述呈现的增强现实视图的所述捕获的数据;
从与所述第三用户相关联的所述第二装置接收与所述增强现实视图相关联的数字对象的数字对象数据;以及
响应于从所述第二装置接收所述数字对象数据,修改所述呈现的增强现实视图。
16.根据权利要求11所述的系统,其中所述头戴式显示器包括所述处理器和非暂时性计算机可读介质。
17.一种方法,包括:
在与第一用户相关联的第一装置处从与第二用户相关联的第二装置接收视频数据和数字对象数据,其中所述视频数据和数字对象数据与现实世界环境的增强现实视图的显示相关联;
基于接收的视频数据和数字对象数据,使用所述第一装置呈现虚拟现实视图;
通过用户输入装置的物理操纵来接收由所述第一用户生成的数字对象数据,所述数据包括与所述增强现实视图相关联的数字对象数据;以及
将所述数字对象数据发送到所述第二装置,其中所述数字对象数据修改所述增强现实视图的显示。
18.根据权利要求17所述的方法,进一步包括:
在所述第一装置处从与第三用户相关联的第三装置接收视频数据,其中所述视频数据与所述现实世界环境的增强现实视图的第二显示器相关联;以及
基于从所述第二装置和所述第三装置接收的视频数据,创建所述现实世界环境的三维表示。
19.根据权利要求18所述的方法,进一步包括:使用所述虚拟现实装置显示所述现实世界环境的所述三维表示。
20.根据权利要求17所述的方法,其中所述视频数据和所述数字对象数据作为单独的数据流被接收,以及其中通过用户输入装置的物理操纵来接收由所述第一用户生成的数字对象数据包括,该用户选择与接收的数字对象数据相关联的数字对象。
21.根据权利要求17所述的方法,其中所述第一装置是头戴式显示器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410059513.3A CN117784938A (zh) | 2016-04-18 | 2017-04-17 | 在增强现实和虚拟现实环境之间链接和交互的系统和方法 |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662324235P | 2016-04-18 | 2016-04-18 | |
US62/324,235 | 2016-04-18 | ||
US15/354,839 | 2016-11-17 | ||
US15/354,839 US10380800B2 (en) | 2016-04-18 | 2016-11-17 | System and method for linking and interacting between augmented reality and virtual reality environments |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410059513.3A Division CN117784938A (zh) | 2016-04-18 | 2017-04-17 | 在增强现实和虚拟现实环境之间链接和交互的系统和方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107305435A true CN107305435A (zh) | 2017-10-31 |
Family
ID=60039007
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410059513.3A Pending CN117784938A (zh) | 2016-04-18 | 2017-04-17 | 在增强现实和虚拟现实环境之间链接和交互的系统和方法 |
CN201710248171.XA Pending CN107305435A (zh) | 2016-04-18 | 2017-04-17 | 在增强现实和虚拟现实环境之间链接和交互的系统和方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410059513.3A Pending CN117784938A (zh) | 2016-04-18 | 2017-04-17 | 在增强现实和虚拟现实环境之间链接和交互的系统和方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10380800B2 (zh) |
CN (2) | CN117784938A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019105093A1 (zh) * | 2017-11-30 | 2019-06-06 | 广州市动景计算机科技有限公司 | 数据封装、处理方法、装置及电子设备 |
CN109917904A (zh) * | 2017-12-12 | 2019-06-21 | 迪斯尼企业公司 | 虚拟现实或增强现实环境中对象的空间位置计算系统 |
WO2019214370A1 (zh) * | 2018-05-10 | 2019-11-14 | 中兴通讯股份有限公司 | 多媒体信息的传输方法及装置、终端 |
CN110809149A (zh) * | 2018-08-06 | 2020-02-18 | 苹果公司 | 用于计算机生成现实的媒体合成器 |
CN110851095A (zh) * | 2018-08-21 | 2020-02-28 | 迪士尼企业公司 | 虚拟和增强现实中的多屏幕交互 |
CN111602105A (zh) * | 2018-01-22 | 2020-08-28 | 苹果公司 | 用于呈现合成现实伴随内容的方法和设备 |
CN113168735A (zh) * | 2018-10-22 | 2021-07-23 | 犹尼蒂知识产权有限公司 | 用于在混合现实环境中针对视觉数字创作处理和划分真实世界的部分的方法和系统 |
CN114041104A (zh) * | 2019-06-28 | 2022-02-11 | 斯纳普公司 | 可寻址的增强现实内容 |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105338117B (zh) * | 2015-11-27 | 2018-05-29 | 亮风台(上海)信息科技有限公司 | 用于生成ar应用和呈现ar实例的方法、设备与系统 |
US11727645B2 (en) * | 2016-04-27 | 2023-08-15 | Immersion | Device and method for sharing an immersion in a virtual environment |
US10217287B2 (en) * | 2016-12-24 | 2019-02-26 | Motorola Solutions, Inc. | Method and apparatus for generating a search pattern for an incident scene |
CN111511448A (zh) | 2017-06-22 | 2020-08-07 | 百夫长Vr公司 | 虚拟现实仿真 |
EP3489800A1 (de) * | 2017-11-27 | 2019-05-29 | EUCHNER GmbH + Co. KG | Sicherheitssystem |
CN110149542B (zh) * | 2018-02-13 | 2021-12-03 | 华为技术有限公司 | 传输控制方法 |
US11099397B2 (en) * | 2018-03-24 | 2021-08-24 | Tainan National University Of The Arts | Overhang rotatable multi-sensory device and a virtual reality multi-sensory system comprising the same |
US10380804B1 (en) | 2018-06-01 | 2019-08-13 | Imajion Corporation | Seamless injection of augmented three-dimensional imagery using a positionally encoded video stream |
US10540797B1 (en) | 2018-08-02 | 2020-01-21 | Disney Enterprises, Inc. | Image customization using a persona |
US11161038B2 (en) * | 2018-08-06 | 2021-11-02 | Amazon Technologies, Inc. | Systems and devices for controlling network applications |
US10796473B1 (en) * | 2018-12-11 | 2020-10-06 | Facebook, Inc. | Rendering post-capture artificial-reality effects based on artificial-reality state information |
US20200192480A1 (en) * | 2018-12-18 | 2020-06-18 | Immersion Corporation | Systems and methods for providing haptic effects based on a user's motion or environment |
US11062678B2 (en) | 2018-12-27 | 2021-07-13 | At&T Intellectual Property I, L.P. | Synchronization of environments during extended reality experiences |
US11475637B2 (en) * | 2019-10-21 | 2022-10-18 | Wormhole Labs, Inc. | Multi-instance multi-user augmented reality environment |
US11363247B2 (en) * | 2020-02-14 | 2022-06-14 | Valve Corporation | Motion smoothing in a distributed system |
CN111488058A (zh) * | 2020-03-31 | 2020-08-04 | 北京仿真中心 | 一种基于ar及vr的训练方法及装置 |
KR20220078298A (ko) * | 2020-12-03 | 2022-06-10 | 삼성전자주식회사 | 적응적 증강 현실 스트리밍 제공 방법 및 이를 수행하는 장치 |
KR20230127311A (ko) * | 2020-12-31 | 2023-08-31 | 스냅 인코포레이티드 | 안경류 디바이스 상에서의 증강 현실 콘텐츠의 기록 |
EP4272180A1 (en) | 2020-12-31 | 2023-11-08 | Snap Inc. | Post-capture editing of augmented reality content |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1845064A (zh) * | 2005-04-08 | 2006-10-11 | 佳能株式会社 | 信息处理方法和设备 |
US20140132737A1 (en) * | 2012-11-12 | 2014-05-15 | Samsung Electronics Co., Ltd. | Method and apparatus for generating 3d images using a plurality of mobile devices |
US20140240444A1 (en) * | 2013-02-27 | 2014-08-28 | Zugara, Inc. | Systems and methods for real time manipulation and interaction with multiple dynamic and synchronized video streams in an augmented or multi-dimensional space |
US20140320529A1 (en) * | 2013-04-26 | 2014-10-30 | Palo Alto Research Center Incorporated | View steering in a combined virtual augmented reality system |
CN105491416A (zh) * | 2015-11-25 | 2016-04-13 | 腾讯科技(深圳)有限公司 | 增强现实的信息传输方法和装置 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8730156B2 (en) * | 2010-03-05 | 2014-05-20 | Sony Computer Entertainment America Llc | Maintaining multiple views on a shared stable virtual space |
US8400548B2 (en) * | 2010-01-05 | 2013-03-19 | Apple Inc. | Synchronized, interactive augmented reality displays for multifunction devices |
US9449343B2 (en) * | 2012-10-05 | 2016-09-20 | Sap Se | Augmented-reality shopping using a networked mobile device |
EP2951811A4 (en) * | 2013-01-03 | 2016-08-17 | Meta Co | DIGITAL EYES FOR EXTRAMISSIVE SPATIAL IMAGING, PROCESSES AND SYSTEMS FOR VIRTUAL OR ENLARGED VISIBILITY, MANIPULATION, PRODUCTION OR INTERACTION WITH OBJECTS, MATERIALS, OR OTHER UNITS |
CN105188516B (zh) * | 2013-03-11 | 2017-12-22 | 奇跃公司 | 用于增强和虚拟现实的系统与方法 |
US9256072B2 (en) * | 2013-10-02 | 2016-02-09 | Philip Scott Lyren | Wearable electronic glasses that detect movement of a real object copies movement of a virtual object |
US20150193982A1 (en) * | 2014-01-03 | 2015-07-09 | Google Inc. | Augmented reality overlays using position and orientation to facilitate interactions between electronic devices |
US10203762B2 (en) * | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
US10726625B2 (en) * | 2015-01-28 | 2020-07-28 | CCP hf. | Method and system for improving the transmission and processing of data regarding a multi-user virtual environment |
US10360729B2 (en) * | 2015-04-06 | 2019-07-23 | Scope Technologies Us Inc. | Methods and apparatus for augmented reality applications |
US10062208B2 (en) * | 2015-04-09 | 2018-08-28 | Cinemoi North America, LLC | Systems and methods to provide interactive virtual environments |
WO2017004392A1 (en) * | 2015-07-01 | 2017-01-05 | DimensionalMechanics, Inc. | System and method for providing modular online product selection visualization and design services |
US10169917B2 (en) * | 2015-08-20 | 2019-01-01 | Microsoft Technology Licensing, Llc | Augmented reality |
EP3342189B1 (en) * | 2015-08-24 | 2020-10-14 | PCMS Holdings, Inc. | Systems and methods for enhancing augmented reality experience with dynamic output mapping |
US20180130259A1 (en) * | 2016-06-15 | 2018-05-10 | Dotty Digital Pty Ltd | System, Device or Method for Collaborative Augmented Reality |
-
2016
- 2016-11-17 US US15/354,839 patent/US10380800B2/en active Active
-
2017
- 2017-04-17 CN CN202410059513.3A patent/CN117784938A/zh active Pending
- 2017-04-17 CN CN201710248171.XA patent/CN107305435A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1845064A (zh) * | 2005-04-08 | 2006-10-11 | 佳能株式会社 | 信息处理方法和设备 |
US20140132737A1 (en) * | 2012-11-12 | 2014-05-15 | Samsung Electronics Co., Ltd. | Method and apparatus for generating 3d images using a plurality of mobile devices |
US20140240444A1 (en) * | 2013-02-27 | 2014-08-28 | Zugara, Inc. | Systems and methods for real time manipulation and interaction with multiple dynamic and synchronized video streams in an augmented or multi-dimensional space |
US20140320529A1 (en) * | 2013-04-26 | 2014-10-30 | Palo Alto Research Center Incorporated | View steering in a combined virtual augmented reality system |
CN105491416A (zh) * | 2015-11-25 | 2016-04-13 | 腾讯科技(深圳)有限公司 | 增强现实的信息传输方法和装置 |
Non-Patent Citations (1)
Title |
---|
黄海: "《虚拟现实技术》", 31 January 2014 * |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019105093A1 (zh) * | 2017-11-30 | 2019-06-06 | 广州市动景计算机科技有限公司 | 数据封装、处理方法、装置及电子设备 |
CN109917904B (zh) * | 2017-12-12 | 2022-09-20 | 迪斯尼企业公司 | 虚拟现实或增强现实环境中对象的空间位置计算系统 |
CN109917904A (zh) * | 2017-12-12 | 2019-06-21 | 迪斯尼企业公司 | 虚拟现实或增强现实环境中对象的空间位置计算系统 |
CN111602105B (zh) * | 2018-01-22 | 2023-09-01 | 苹果公司 | 用于呈现合成现实伴随内容的方法和设备 |
CN111602105A (zh) * | 2018-01-22 | 2020-08-28 | 苹果公司 | 用于呈现合成现实伴随内容的方法和设备 |
WO2019214370A1 (zh) * | 2018-05-10 | 2019-11-14 | 中兴通讯股份有限公司 | 多媒体信息的传输方法及装置、终端 |
CN110475159A (zh) * | 2018-05-10 | 2019-11-19 | 中兴通讯股份有限公司 | 多媒体信息的传输方法及装置、终端 |
CN110809149A (zh) * | 2018-08-06 | 2020-02-18 | 苹果公司 | 用于计算机生成现实的媒体合成器 |
CN110809149B (zh) * | 2018-08-06 | 2022-02-25 | 苹果公司 | 用于计算机生成现实的媒体合成器 |
US11308696B2 (en) | 2018-08-06 | 2022-04-19 | Apple Inc. | Media compositor for computer-generated reality |
CN114615486A (zh) * | 2018-08-06 | 2022-06-10 | 苹果公司 | 用于计算机生成现实的媒体合成器 |
US11804019B2 (en) | 2018-08-06 | 2023-10-31 | Apple Inc. | Media compositor for computer-generated reality |
CN110851095A (zh) * | 2018-08-21 | 2020-02-28 | 迪士尼企业公司 | 虚拟和增强现实中的多屏幕交互 |
CN110851095B (zh) * | 2018-08-21 | 2023-10-24 | 迪士尼企业公司 | 虚拟和增强现实中的多屏幕交互 |
CN113168735A (zh) * | 2018-10-22 | 2021-07-23 | 犹尼蒂知识产权有限公司 | 用于在混合现实环境中针对视觉数字创作处理和划分真实世界的部分的方法和系统 |
CN114041104A (zh) * | 2019-06-28 | 2022-02-11 | 斯纳普公司 | 可寻址的增强现实内容 |
Also Published As
Publication number | Publication date |
---|---|
US10380800B2 (en) | 2019-08-13 |
US20170301140A1 (en) | 2017-10-19 |
CN117784938A (zh) | 2024-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107305435A (zh) | 在增强现实和虚拟现实环境之间链接和交互的系统和方法 | |
US11257233B2 (en) | Volumetric depth video recording and playback | |
US11206373B2 (en) | Method and system for providing mixed reality service | |
US10262465B2 (en) | Interactive control station | |
CN107636534A (zh) | 一般球面捕获方法 | |
CN107710108B (zh) | 内容浏览 | |
EP3422148B1 (en) | An apparatus and associated methods for display of virtual reality content | |
US20160371888A1 (en) | Interactive information display | |
Hoberman et al. | Immersive training games for smartphone-based head mounted displays | |
JP2020068513A (ja) | 画像処理装置および画像処理方法 | |
CN108628439A (zh) | 信息处理设备、信息处理方法及程序 | |
CN111602391B (zh) | 用于根据物理环境定制合成现实体验的方法和设备 | |
CN111538920A (zh) | 内容的呈现方法及装置、系统、存储介质、电子装置 | |
EP3776405A1 (en) | Generating a mixed reality | |
JP2021512402A (ja) | マルチビューイング仮想現実ユーザインターフェース | |
KR101315398B1 (ko) | 3차원 증강 현실 표시 장치 및 방법 | |
JP7403256B2 (ja) | 映像提示装置およびプログラム | |
US11448884B2 (en) | Image based finger tracking plus controller tracking | |
JP7236529B2 (ja) | ヘッドマウント情報処理装置およびヘッドマウントディスプレイシステム | |
US20220355211A1 (en) | Controller action recognition from video frames using machine learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |