CN107168532B - 一种基于增强现实的虚拟同步显示方法及系统 - Google Patents
一种基于增强现实的虚拟同步显示方法及系统 Download PDFInfo
- Publication number
- CN107168532B CN107168532B CN201710312287.5A CN201710312287A CN107168532B CN 107168532 B CN107168532 B CN 107168532B CN 201710312287 A CN201710312287 A CN 201710312287A CN 107168532 B CN107168532 B CN 107168532B
- Authority
- CN
- China
- Prior art keywords
- information
- virtual
- client
- scene
- motion state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01P—MEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
- G01P13/00—Indicating or recording presence, absence, or direction, of movement
- G01P13/02—Indicating direction only, e.g. by weather vane
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01P—MEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
- G01P3/00—Measuring linear or angular speed; Measuring differences of linear or angular speeds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1454—Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/024—Multi-user, collaborative environment
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Multimedia (AREA)
- Computer Hardware Design (AREA)
- Remote Sensing (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了一种基于增强现实的虚拟同步显示方法及系统,方法包括:S1、获取预设的现实场景图像中的第一特征点信息,将第一特征点信息输入即时定位与地图构建模块中创建三维虚拟场景;S2、对用户进行运动追踪,得到用户在现实场景中的第一运动状态信息;S3、设置三维虚拟场景中除第一客户端对应的第一客户端虚拟模型之外的所有虚拟模型在现实场景中的第二运动状态信息;S4、将三维虚拟场景中除第一客户端虚拟模型之外的所有虚拟模型显示在现实场景中;S5、将第一运行状态信息和第二运动状态信息同步到多个客户端。本发明的有益效果是:基于SLAM技术的运动追踪和三维虚拟场景建模,加强了玩家与虚拟物体在真实世界的互动,更增强了用户体验效果。
Description
技术领域
本发明涉及增强现实领域,特别涉及一种基于增强现实的虚拟同步显示方法及系统。
背景技术
目前,在人与虚拟游戏环境的交互方面,还仅仅是采用传统的键盘遥感输入方式进行交互,但是,更不能给游戏玩家身临其境的沉浸式游戏体验,大大降低了用户体验。
发明内容
本发明提供了一种基于增强现实的虚拟同步显示方法及系统,解决了现有技术用户体验较差的技术问题。
本发明解决上述技术问题的技术方案如下:一种基于增强现实的虚拟同步显示方法,包括:
S1、获取预设的现实场景图像中的第一特征点信息,将所述第一特征点信息输入即时定位与地图构建模块中创建三维虚拟场景,并将所述第一特征点信息保存在多个客户端的识别库中,所述三维虚拟场景包括多个客户端对应的多个客户端虚拟模型和多个非客户端虚拟模型;
S2、通过多个客户端中包括的第一客户端的摄像头、内设传感器和第一识别库对用户进行运动追踪,得到所述用户在现实场景中的第一运动状态信息;
S3、根据所述第一运动状态信息设置所述三维虚拟场景中除所述第一客户端对应的第一客户端虚拟模型之外的所有虚拟模型在所述现实场景中的第二运动状态信息;
S4、将所述三维虚拟场景中除所述第一客户端虚拟模型之外的所有虚拟模型显示在所述现实场景中;
S5、将所述第一运行状态信息和所述第二运动状态信息同步到所述多个客户端。
本发明的有益效果是:通过SLAM技术进行三维虚拟场景建模,能准确定位出玩家在现实场景中的位置信息和通过使用基于真实世界构建的三维虚拟场景,把虚拟物体准确的放置到真实场景的指定位置上,加强了玩家与虚拟物体在真实世界的互动,更增强了用户体验效果。
在上述技术方案的基础上,本发明还可以做如下改进。
优选地,所述第一运动状态信息包括:位移信息、运动速度信息和运动方向信息。
优选地,所述内设传感器包括:加速度计、陀螺仪和深度感应器。
优选地,步骤S2包括:
S21、通过多个客户端中包括的第一客户端的摄像头获取预设帧数的用户周围的环境图像;
S22、获取每一帧环境图像的第二特征点信息;
S23、通过所述深度感应器获取每一帧环境图像的深度信息;
S24、对每一帧环境图像中同一特征点的位置变化信息、每一帧环境图像的深度信息以及每一帧环境图像的第二特征点信息与所述第一识别库中所述现实场景图像的第一特征点信息的匹配结果进行综合分析,得到所述用户的位移信息;
S25、通过所述加速度计和所述陀螺仪获取所述用户的运动速度信息和运动方向信息。
一种基于增强现实的虚拟同步显示系统,包括:
获取模块,用于获取预设的现实场景图像中的第一特征点信息,将所述第一特征点信息输入即时定位与地图构建模块中创建三维虚拟场景,并将所述第一特征点信息保存在多个客户端的识别库中,所述三维虚拟场景包括多个客户端对应的多个客户端虚拟模型和多个非客户端虚拟模型;
追踪模块,用于通过多个客户端中包括的第一客户端的摄像头、内设传感器和第一识别库对用户进行运动追踪,得到所述用户在现实场景中的第一运动状态信息;
设置模块,用于根据所述第一运动状态信息设置所述三维虚拟场景中除所述第一客户端对应的第一客户端虚拟模型之外的所有虚拟模型在所述现实场景中的第二运动状态信息;
显示模块,用于将所述三维虚拟场景中除所述第一客户端虚拟模型之外的所有虚拟模型显示在所述现实场景中;
同步模块,用于将所述第一运行状态信息和所述第二运动状态信息同步到所有客户端。
优选地,所述第一运动状态信息包括:位移信息、运动速度信息和运动方向信息。
优选地,所述内设传感器包括:加速度计、陀螺仪和深度感应器。
优选地,所述追踪模块包括:
第一获取子模块,用于通过多个客户端中包括的第一客户端的摄像头获取预设帧数的用户周围的环境图像;
第二获取子模块,用于获取每一帧环境图像的第二特征点信息;
第三获取子模块,用于通过所述深度感应器获取每一帧环境图像的深度信息;
分析子模块,用于对每一帧环境图像中同一特征点的位置变化信息、每一帧环境图像的深度信息以及每一帧环境图像的第二特征点信息与所述第一识别库中所述现实场景图像的第一特征点信息的匹配结果进行综合分析,得到所述用户的位移信息;
第四获取子模块,用于通过所述加速度计和所述陀螺仪获取所述用户的运动速度信息和运动方向信息。
附图说明
图1为本发明实施例提供的一种基于增强现实的虚拟同步显示方法的流程示意图;
图2为本发明另一实施例提供的一种基于增强现实的虚拟同步显示方法的流程示意图;
图3为本发明另一实施例提供的一种基于增强现实的虚拟同步显示方法的流程示意图;
图4为本发明另一实施例提供的一种基于增强现实的虚拟同步显示系统的结构示意图。
具体实施方式
以下结合附图对本发明的原理和特征进行描述,所举实例只用于解释本发明,并非用于限定本发明的范围。
如图1所示,在一实施例中,提供一种基于增强现实的虚拟同步显示方法,包括:
S1、获取预设的现实场景图像中的第一特征点信息,将第一特征点信息输入即时定位与地图构建模块中创建三维虚拟场景,并将第一特征点信息保存在多个客户端的识别库中,三维虚拟场景包括多个客户端对应的多个客户端虚拟模型和多个非客户端虚拟模型;
S2、通过多个客户端中包括的第一客户端的摄像头、内设传感器和第一识别库对用户进行运动追踪,得到用户在现实场景中的第一运动状态信息;
S3、根据第一运动状态信息设置三维虚拟场景中除第一客户端对应的第一客户端虚拟模型之外的所有虚拟模型在现实场景中的第二运动状态信息;
S4、将三维虚拟场景中除第一客户端虚拟模型之外的所有虚拟模型显示在现实场景中;
S5、将第一运行状态信息和第二运动状态信息同步到多个客户端。
应理解,增强现实(Augmented Reality,AR)技术,是一种将真实世界信息和虚拟世界信息“无缝”集成的新技术,是把原本在现实世界的一定时间空间范围内很难体验到的实体信息(视觉信息、声音、味道和触觉等),通过电脑等科学技术,模拟仿真后再叠加,将虚拟的信息应用到真实世界,被人类感官所感知,从而达到超越现实的感官体验。
即时定位与地图构建(simultaneous localization and mapping,SLAM)技术,是一种即时定位于三维地图构建技术。它通过对移动过程中的位置估计和传感器数据进行自身定位,并结合深度传感器的数据,融合建模出三维的环境地图。SLAM技术与增强现实技术的结合已经有些相关的应用,现有AR技术可以达到稳定的定位识别图的坐标信息。但无法感知人的坐标信息,而SLAM技术通过对现实世界的三维建模和对人的运动追踪,能更准确的定位出人在现实世界中的位置信息,把这些信息运用到基于现实场景构建的三维虚拟世界中后可以给予人更加超越现实的感官体验。
应理解,将通过预先学习的现实场景所构建的三维虚拟世界内置到游戏地图中去,用来指定敌人的行动路径和攻击方式,从而做到把敌人准确的放入到现实场景中去,比如虚拟敌人能准确的站立在现实的地板上,并通过把移动端设备搭载到玩具枪上,玩家在操作玩具枪的过程中,通过安装有相关传感器的移动端设备来运用SLAM技术以此计算出玩家的运动状态,来定位玩家在现实场景中的位置,并把相关位置信息传入到游戏服务器。最后通过游戏服务器验证玩家发送的数据信息,并统一发送相应的游戏指令(如每个玩家的血量,敌人的移动位置等),来实现多人同时在现实场景区域进行AR游戏的功能。
该服务端主要承担的功能有:数据的存储与管理,包括玩家账户信息和游戏资源的数据管理;数据包的转发与运用,接收来自客户端的数据包,解析出相应的逻辑指令,并验证同步后,下发到各个客户端,保证数据通信的实时性与稳定性;通过SLAM技术构建的三维虚拟地图内置到我司开发的AR游戏中,使得游戏服务端可以把游戏角色和敌人准确的放入到的指定现实场景中去,并且同步更新游戏逻辑及角色状态,如玩家角色血量,敌人的死亡状态。
客户端主要承担的功能有:移动端设备连接玩具枪蓝牙设备,把玩家对玩具枪的操作发送到游戏服务器同步信息;基于SLAM技术构建的三维虚拟地图和通过移动端设备的内置传感器获取玩家的运动状态,定位出玩家在现实场景中的位置信息,并输入到服务端;接收服务端同步过来的数据,更新显示现实场景中玩家角色(客户端虚拟模型)和非玩家角色(非客户端虚拟模型)的状态,从而实现一种新的多人游戏体验。比如当玩家在现实场景中进行位置移动的时候,能对虚拟敌人的子弹进行回避动作,这个动作是通过游戏服务器处理玩家在现实世界中的坐标信息在内置的三维虚拟地图中的坐标与子弹的坐标信息做计算来决定的回避动作的成功与失败。
具体地,第一运动状态信息包括:位移信息、运动速度信息和运动方向信息。内设传感器包括:加速度计、陀螺仪和深度感应器。
具体地,如图2所示,步骤S2包括:
S21、通过多个客户端中包括的第一客户端的摄像头获取预设帧数的用户周围的环境图像;
S22、获取每一帧环境图像的第二特征点信息;每隔一定的帧数就删掉之前帧数图像的第二特征点信息;
S23、通过深度感应器获取每一帧环境图像的深度信息;
S24、对每一帧环境图像中同一特征点的位置变化信息、每一帧环境图像的深度信息以及每一帧环境图像的第二特征点信息与第一识别库中现实场景图像的第一特征点信息的匹配结果进行综合分析,得到用户的位移信息;
S25、通过加速度计和陀螺仪获取用户的运动速度信息和运动方向信息。
通过移动端设备的摄像头获取实时图像,通过不断计算相邻帧环境图像的同一特征点的位置变化信息,根据位置变化信息估计出摄像头的移动距离,通过深度感应器获取每一帧环境图像的深度信息,图像深度是指存储每个像素所用的位数,也用于量度图像的色彩分辨率。国内外图像深度估计的方法主要分为单y深度估计的方法和双目深度估计的方法,单目是基于一个镜头,而双目是基于两个镜头,基于它们有许多深度估计的方法,包括描于聚焦的深度估计方法,根据透镜成像公式可求得被测点相对于摄像机的距离,通过内部传感器(加速度计和陀螺仪)来捕捉相机的加速度和运动方向,通过综合分析这些数据来实现运动追踪,以此估计玩家在游戏过程中的运动状态。
应理解,上述方法可以修正在运动追踪过程中不断积累的计算误差,因为在长距离的移动过程中,每一帧与每一帧的移动误差会被累积下去,最终导致真实位置与运动位置有很大差异。所以提前学习指定的游戏现实场景区域,把现实场景的特征点等数据存入移动端设备的识别库中,当玩家拿着移动端设备再次在此现实场景区域进行移动的时候,移动端设备把通过摄像头获取的图像特征点与识别库中的特征点进行匹配,来修正追踪数据的误差,使得玩家在运动过程中,能被AR游戏场景准确的定位;还可以完善现实场景的三维虚拟场景模型,用来完善虚拟角色在现实世界中的坐标信息。
如图3所示,在另一实施例中,提供一种基于增强现实的虚拟同步显示系统,包括:
获取模块1,用于获取预设的现实场景图像中的第一特征点信息,将第一特征点信息输入即时定位与地图构建模块中创建三维虚拟场景,并将第一特征点信息保存在多个客户端的识别库中,三维虚拟场景包括多个客户端对应的多个客户端虚拟模型和多个非客户端虚拟模型;
追踪模块2,用于通过多个客户端中包括的第一客户端的摄像头、内设传感器和第一识别库对用户进行运动追踪,得到用户在现实场景中的第一运动状态信息;
设置模块3,用于根据第一运动状态信息设置三维虚拟场景中除第一客户端对应的第一客户端虚拟模型之外的所有虚拟模型在现实场景中的第二运动状态信息;
显示模块4,用于将三维虚拟场景中除第一客户端虚拟模型之外的所有虚拟模型显示在现实场景中;
同步模块5,用于将第一运行状态信息和第二运动状态信息同步到所有客户端。
具体地,第一运动状态信息包括:位移信息、运动速度信息和运动方向信息。
具体地,内设传感器包括:加速度计、陀螺仪和深度感应器。
具体地,如图4所示,追踪模块2包括:
第一获取子模块21,用于通过多个客户端中包括的第一客户端的摄像头获取预设帧数的用户周围的环境图像;
第二获取子模块22,用于获取每一帧环境图像的第二特征点信息;
第三获取子模块23,用于通过深度感应器获取每一帧环境图像的深度信息;
分析子模块24,用于对每一帧环境图像中同一特征点的位置变化信息、每一帧环境图像的深度信息以及每一帧环境图像的第二特征点信息与第一识别库中现实场景图像的第一特征点信息的匹配结果进行综合分析,得到用户的位移信息;
第四获取子模块25,用于通过加速度计和陀螺仪获取用户的运动速度信息和运动方向信息。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种基于增强现实的虚拟同步显示方法,其特征在于,包括:
S1、获取预设的现实场景图像中的第一特征点信息,将所述第一特征点信息输入即时定位与地图构建模块中创建三维虚拟场景,并将所述第一特征点信息保存在多个客户端的识别库中,所述三维虚拟场景包括多个客户端对应的多个客户端虚拟模型和多个非客户端虚拟模型;
S2、通过多个客户端中包括的第一客户端的摄像头、内设传感器和第一识别库对用户进行运动追踪,得到所述用户在现实场景中的第一运动状态信息;
S3、根据所述第一运动状态信息设置所述三维虚拟场景中除所述第一客户端对应的第一客户端虚拟模型之外的所有虚拟模型在所述现实场景中的第二运动状态信息;
S4、将所述三维虚拟场景中除所述第一客户端虚拟模型之外的所有虚拟模型显示在所述现实场景中;
S5、将所述第一运动状态信息和所述第二运动状态信息同步到所述多个客户端。
2.根据权利要求1所述的一种基于增强现实的虚拟同步显示方法,其特征在于,所述第一运动状态信息包括:位移信息、运动速度信息和运动方向信息。
3.根据权利要求1或2所述的一种基于增强现实的虚拟同步显示方法,其特征在于,所述内设传感器包括:加速度计、陀螺仪和深度感应器。
4.根据权利要求3所述的一种基于增强现实的虚拟同步显示方法,其特征在于,步骤S2包括:
S21、通过多个客户端中包括的第一客户端的摄像头获取预设帧数的用户周围的环境图像;
S22、获取每一帧环境图像的第二特征点信息;
S23、通过所述深度感应器获取每一帧环境图像的深度信息;
S24、对每一帧环境图像中同一特征点的位置变化信息、每一帧环境图像的深度信息以及每一帧环境图像的第二特征点信息与所述第一识别库中所述现实场景图像的第一特征点信息的匹配结果进行综合分析,得到所述用户的位移信息;
S25、通过所述加速度计和所述陀螺仪获取所述用户的运动速度信息和运动方向信息。
5.一种基于增强现实的虚拟同步显示系统,其特征在于,包括:
获取模块,用于获取预设的现实场景图像中的第一特征点信息,将所述第一特征点信息输入即时定位与地图构建模块中创建三维虚拟场景,并将所述第一特征点信息保存在多个客户端的识别库中,所述三维虚拟场景包括多个客户端对应的多个客户端虚拟模型和多个非客户端虚拟模型;
追踪模块,用于通过多个客户端中包括的第一客户端的摄像头、内设传感器和第一识别库对用户进行运动追踪,得到所述用户在现实场景中的第一运动状态信息;
设置模块,用于根据所述第一运动状态信息设置所述三维虚拟场景中除所述第一客户端对应的第一客户端虚拟模型之外的所有虚拟模型在所述现实场景中的第二运动状态信息;
显示模块,用于将所述三维虚拟场景中除所述第一客户端虚拟模型之外的所有虚拟模型显示在所述现实场景中;
同步模块,用于将所述第一运动状态信息和所述第二运动状态信息同步到所有客户端。
6.根据权利要求5所述的一种基于增强现实的虚拟同步显示系统,其特征在于,所述第一运动状态信息包括:位移信息、运动速度信息和运动方向信息。
7.根据权利要求5或6所述的一种基于增强现实的虚拟同步显示系统,其特征在于,所述内设传感器包括:加速度计、陀螺仪和深度感应器。
8.根据权利要求7所述的一种基于增强现实的虚拟同步显示系统,其特征在于,所述追踪模块包括:
第一获取子模块,用于通过多个客户端中包括的第一客户端的摄像头获取预设帧数的用户周围的环境图像;
第二获取子模块,用于获取每一帧环境图像的第二特征点信息;
第三获取子模块,用于通过所述深度感应器获取每一帧环境图像的深度信息;
分析子模块,用于对每一帧环境图像中同一特征点的位置变化信息、每一帧环境图像的深度信息以及每一帧环境图像的第二特征点信息与所述第一识别库中所述现实场景图像的第一特征点信息的匹配结果进行综合分析,得到所述用户的位移信息;
第四获取子模块,用于通过所述加速度计和所述陀螺仪获取所述用户的运动速度信息和运动方向信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710312287.5A CN107168532B (zh) | 2017-05-05 | 2017-05-05 | 一种基于增强现实的虚拟同步显示方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710312287.5A CN107168532B (zh) | 2017-05-05 | 2017-05-05 | 一种基于增强现实的虚拟同步显示方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107168532A CN107168532A (zh) | 2017-09-15 |
CN107168532B true CN107168532B (zh) | 2020-09-11 |
Family
ID=59812491
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710312287.5A Active CN107168532B (zh) | 2017-05-05 | 2017-05-05 | 一种基于增强现实的虚拟同步显示方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107168532B (zh) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107596683B (zh) * | 2017-09-25 | 2021-03-12 | 晋江市博感电子科技有限公司 | 基于增强现实的童车虚拟游乐方法、装置及系统 |
CN107638690B (zh) * | 2017-09-29 | 2020-12-18 | 北京金山安全软件有限公司 | 增强现实的实现方法、装置、服务器及介质 |
CN108057246A (zh) * | 2017-11-08 | 2018-05-22 | 江苏名通信息科技有限公司 | 基于深度神经网络学习的手游增强现实方法 |
CN109840947B (zh) * | 2017-11-28 | 2023-05-09 | 广州腾讯科技有限公司 | 增强现实场景的实现方法、装置、设备及存储介质 |
CN107918956A (zh) * | 2017-12-01 | 2018-04-17 | 广州市动景计算机科技有限公司 | 增强现实的处理方法、装置及电子设备 |
CN111492396A (zh) * | 2017-12-19 | 2020-08-04 | (株)同友E&C | 混合现实服务提供方法及系统 |
CN108022306B (zh) * | 2017-12-30 | 2021-09-21 | 华自科技股份有限公司 | 基于增强现实的场景识别方法、装置、存储介质和设备 |
CN108200064B (zh) * | 2018-01-04 | 2020-07-31 | 超元域(北京)科技有限公司 | 数据同步方法及装置 |
CN108346179B (zh) * | 2018-02-11 | 2021-08-03 | 北京小米移动软件有限公司 | Ar设备显示方法和装置 |
CN110545363B (zh) * | 2018-05-28 | 2022-04-26 | 中国电信股份有限公司 | 实现多终端联网同步的方法、系统和云端服务器 |
CN110858134B (zh) * | 2018-08-22 | 2023-04-28 | 阿里巴巴集团控股有限公司 | 数据、显示处理方法、装置、电子设备和存储介质 |
CN111158463A (zh) * | 2019-11-29 | 2020-05-15 | 淮北幻境智能科技有限公司 | 一种基于slam的计算机视觉大空间定位方法及系统 |
CN112308980B (zh) * | 2020-10-30 | 2024-05-28 | 脸萌有限公司 | 增强现实交互显示方法及设备 |
CN113398596A (zh) * | 2021-07-30 | 2021-09-17 | 广州边在晓峰网络科技有限公司 | 一种基于多维游戏ar处理系统 |
CN114359524B (zh) * | 2022-01-07 | 2024-03-01 | 合肥工业大学 | 一种基于反转增强现实的智能家具体验官系统 |
CN114663438A (zh) * | 2022-05-26 | 2022-06-24 | 浙江银轮智能装备有限公司 | 轨道检测方法、系统、装置、存储介质和计算机程序产品 |
CN117560385B (zh) * | 2024-01-09 | 2024-03-22 | 北京万物镜像数据服务有限公司 | 一种虚拟对象的同步信息处理方法、装置及设备 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102141885A (zh) * | 2010-02-02 | 2011-08-03 | 索尼公司 | 图像处理设备、图像处理方法及程序 |
CN102681661A (zh) * | 2011-01-31 | 2012-09-19 | 微软公司 | 在玩游戏中使用三维环境模型 |
CN104077023A (zh) * | 2013-03-28 | 2014-10-01 | 索尼公司 | 显示控制设备、显示控制方法以及记录介质 |
CN105617658A (zh) * | 2015-12-25 | 2016-06-01 | 新浪网技术(中国)有限公司 | 基于真实室内环境的多人移动射击游戏系统 |
CN105824416A (zh) * | 2016-03-16 | 2016-08-03 | 成都电锯互动科技有限公司 | 一种将虚拟现实技术与云服务技术结合的方法 |
CN105824417A (zh) * | 2016-03-16 | 2016-08-03 | 成都电锯互动科技有限公司 | 一种采用虚拟现实技术的人与物的结合方法 |
CN105849771A (zh) * | 2013-12-19 | 2016-08-10 | Metaio有限公司 | 移动设备上的同步定位与映射 |
-
2017
- 2017-05-05 CN CN201710312287.5A patent/CN107168532B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102141885A (zh) * | 2010-02-02 | 2011-08-03 | 索尼公司 | 图像处理设备、图像处理方法及程序 |
CN102681661A (zh) * | 2011-01-31 | 2012-09-19 | 微软公司 | 在玩游戏中使用三维环境模型 |
CN104077023A (zh) * | 2013-03-28 | 2014-10-01 | 索尼公司 | 显示控制设备、显示控制方法以及记录介质 |
CN105849771A (zh) * | 2013-12-19 | 2016-08-10 | Metaio有限公司 | 移动设备上的同步定位与映射 |
CN105617658A (zh) * | 2015-12-25 | 2016-06-01 | 新浪网技术(中国)有限公司 | 基于真实室内环境的多人移动射击游戏系统 |
CN105824416A (zh) * | 2016-03-16 | 2016-08-03 | 成都电锯互动科技有限公司 | 一种将虚拟现实技术与云服务技术结合的方法 |
CN105824417A (zh) * | 2016-03-16 | 2016-08-03 | 成都电锯互动科技有限公司 | 一种采用虚拟现实技术的人与物的结合方法 |
Also Published As
Publication number | Publication date |
---|---|
CN107168532A (zh) | 2017-09-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107168532B (zh) | 一种基于增强现实的虚拟同步显示方法及系统 | |
US9892563B2 (en) | System and method for generating a mixed reality environment | |
US10905950B2 (en) | Head-mounted display tracking | |
JP7181316B2 (ja) | Hmd環境での高速中心窩レンダリングのための予測及びgpuに対する最新の更新を伴う視線追跡 | |
US20210134064A1 (en) | Cross reality system with quality information about persistent coordinate frames | |
US20220130120A1 (en) | Cross reality system supporting multiple device types | |
CN106125903B (zh) | 多人交互系统及方法 | |
CN105807931B (zh) | 一种虚拟现实的实现方法 | |
US8933931B2 (en) | Distributed asynchronous localization and mapping for augmented reality | |
KR101881620B1 (ko) | 게임플레이에서의 3차원 환경 모델 사용 | |
CN105279795B (zh) | 基于3d标记的增强现实系统 | |
CN105094335B (zh) | 场景提取方法、物体定位方法及其系统 | |
US20150070274A1 (en) | Methods and systems for determining 6dof location and orientation of head-mounted display and associated user movements | |
CN109298629A (zh) | 用于为自主和非自主位置意识提供鲁棒跟踪的容错 | |
EP2579128A1 (en) | Portable device, virtual reality system and method | |
CN112148189A (zh) | 一种ar场景下的交互方法、装置、电子设备及存储介质 | |
CN112198959A (zh) | 虚拟现实交互方法、装置及系统 | |
JP6039594B2 (ja) | 情報処理装置および情報処理方法 | |
WO2013059751A1 (en) | Calculating metabolic equivalence with a computing device | |
KR102199772B1 (ko) | 3차원 모델 데이터 생성 방법 | |
Li | Development of immersive and interactive virtual reality environment for two-player table tennis | |
RU2695053C1 (ru) | Способ и устройство для управления трехмерными объектами в виртуальном пространстве | |
CN112416124A (zh) | 舞蹈姿势反馈方法及装置 | |
KR20210042476A (ko) | 프로젝션 기술을 이용한 증강현실 제공방법 및 시스템 | |
KR20220083166A (ko) | 인체 추정 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |