CN111061374A - 一种支持多人模式增强现实应用的方法及装置 - Google Patents
一种支持多人模式增强现实应用的方法及装置 Download PDFInfo
- Publication number
- CN111061374A CN111061374A CN201911328003.7A CN201911328003A CN111061374A CN 111061374 A CN111061374 A CN 111061374A CN 201911328003 A CN201911328003 A CN 201911328003A CN 111061374 A CN111061374 A CN 111061374A
- Authority
- CN
- China
- Prior art keywords
- coordinate system
- target coordinate
- client
- identification
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 22
- 238000000034 method Methods 0.000 title claims abstract description 22
- 230000009466 transformation Effects 0.000 claims abstract description 37
- 230000008859 change Effects 0.000 claims abstract description 24
- 230000004927 fusion Effects 0.000 claims abstract description 16
- 230000000007 visual effect Effects 0.000 claims description 46
- 239000003550 marker Substances 0.000 claims description 20
- 238000012545 processing Methods 0.000 claims description 10
- 230000001360 synchronised effect Effects 0.000 claims description 8
- 239000000203 mixture Substances 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 4
- 238000011161 development Methods 0.000 abstract description 4
- 238000010586 diagram Methods 0.000 description 3
- 239000011521 glass Substances 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000019771 cognition Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000002054 transplantation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/55—Controlling game characters or game objects based on the game progress
- A63F13/56—Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本文公开了一种支持多人模式增强现实应用开发的方法及装置。所述方法包括:参与同一个多人模式AR应用的客户端通过SLAM模组对预先布置在现实场景中指定位置的标识图进行识别;在识别到标识图后,建立以标识图为参照物的目标坐标系;所述客户端确定摄像头对应的第一相机坐标系与目标坐标系之间的第一变换关系,以及虚拟相机对应的第二相机坐标系与目标坐标系之间的第二变换关系;获得客户端在目标坐标系中的位姿变化以及虚拟对象在目标坐标系中的位姿变化;基于客户端和虚拟对象在目标坐标系中的位姿变化对现实场景和虚拟场景进行融合显示。本文的技术方案能解决多人AR应用中不同客户端感知的场景之间出现的错位问题。
Description
技术领域
本发明涉及增强现实技术领域,尤其涉及的是一种支持多人模式增强现实应用的方法及装置。
背景技术
近年来增强现实(Augmented Reality,简称AR)技术受到越来越多的关注,增强现实设备不断刷新人们的认知。以苹果、谷歌和微软为代表的国际巨头纷纷布局AR领域,发布AR硬件或者抢占开发平台。
对于多人共同参与的AR应用来说,由于需要保证不同客户端感知到的是同一个没有错位的世界,因此相关技术中,将多人互动应用移植到AR平台上通常需要借助第三方ARSDK(Software Development Kit,软件开发工具包),由于第三方AR SDK对软硬件的要求较高,因此增加了多人模式AR应用的开发成本。
发明内容
本发明实施例提供一种支持多人模式增强现实应用的方法及装置,能够提供一种不依赖第三方AR软件开发工具包的多人模式AR应用,解决多人应用时不同客户端感知的场景之间出现的错位问题。
根据本申请的第一方面,本发明实施例提供一种支持多人模式增强现实应用的方法,包括:
参与同一个多人模式增强现实AR应用的任意一个客户端通过视觉同步定位与构图SLAM模组对预先布置在现实场景中指定位置的标识图进行识别;在识别到所述标识图后,建立以所述标识图为参照物的目标坐标系;
所述客户端确定所述视觉SLAM模组的摄像头对应的第一相机坐标系与所述目标坐标系之间的第一变换关系,以及所述应用的虚拟相机对应的第二相机坐标系与所述目标坐标系之间的第二变换关系;
所述客户端利用所述视觉SLAM模组在现实场景中对所述客户端进行空间定位和运动追踪,根据所述第一变换关系获得所述客户端在所述目标坐标系中的位姿变化;利用所述应用的虚拟相机在虚拟场景中对虚拟对象进行空间定位和运动追踪,根据所述第二变换关系获得所述虚拟对象在所述目标坐标系中的位姿变化;
所述客户端基于所述客户端和虚拟对象在所述目标坐标系中的位姿变化对所述现实场景和虚拟场景进行融合显示。
根据本申请的第二方面,本发明实施例提供一种支持多人模式增强现实应用的装置,应用于多人模式增强现实AR应用的客户端,包括:
目标坐标系建立模块,用于通过视觉同步定位与构图SLAM模组对预先布置在现实场景中指定位置的标识图进行识别;在识别到所述标识图后,建立以所述标识图为参照物的目标坐标系;
坐标系变换模块,用于确定所述视觉SLAM模组的摄像头对应的第一相机坐标系与所述目标坐标系之间的第一变换关系,以及所述应用的虚拟相机对应的第二相机坐标系与所述目标坐标系之间的第二变换关系;
位姿追踪模块,用于利用所述视觉SLAM模组在现实场景中对所述客户端进行空间定位和运动追踪,根据所述第一变换关系获得所述客户端在所述目标坐标系中的位姿变化;利用所述应用的虚拟相机在虚拟场景中对虚拟对象进行空间定位和运动追踪,根据所述第二变换关系获得所述虚拟对象在所述目标坐标系中的位姿变化;
融合显示模块,用于基于所述客户端和虚拟对象在所述目标坐标系中的位姿变化对所述现实场景和虚拟场景进行融合显示。
与相关技术相比,本发明实施例提供的一种支持多人模式增强现实应用的方法及装置,参与同一个多人模式增强现实AR应用的任意一个客户端通过视觉同步定位与构图SLAM模组对预先布置在现实场景中指定位置的标识图进行识别;在识别到所述标识图后,建立以所述标识图为参照物的目标坐标系;所述客户端确定所述视觉SLAM模组的摄像头对应的第一相机坐标系与所述目标坐标系之间的第一变换关系,以及所述应用的虚拟相机对应的第二相机坐标系与所述目标坐标系之间的第二变换关系;所述客户端利用所述视觉SLAM模组在现实场景中对所述客户端进行空间定位和运动追踪,根据所述第一变换关系获得所述客户端在所述目标坐标系中的位姿变化;利用所述应用的虚拟相机在虚拟场景中对虚拟对象进行空间定位和运动追踪,根据所述第二变换关系获得所述虚拟对象在所述目标坐标系中的位姿变化;所述客户端基于所述客户端和虚拟对象在所述目标坐标系中的位姿变化对所述现实场景和虚拟场景进行融合显示。本发明实施例的技术方案能够提供一种不依赖第三方AR SDK的多人模式AR应用,解决多人应用时不同客户端感知的场景之间出现的错位问题,降低多人模式AR应用的开发成本。
附图说明
图1为本发明实施例1的一种支持多人模式增强现实应用的方法流程图;
图2为本发明实施例1的一种标识图图案的示意图;
图3为本发明实施例1中利用标识图建立统一坐标系的示意图;
图4为本发明实施例1的一种标识图识别算法的流程图;
图5为本发明实施例1中多人模式的AR游戏应用的架构示意图;
图6为本发明实施例2的一种支持多人模式增强现实应用的装置示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,下文中将结合附图对本发明的实施例进行详细说明。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互任意组合。
本发明实施例的技术方案提出一种基于Marker(标识图)识别算法和SLAM(Simultaneous Localization and Mapping,同步定位与构图)算法的AR系统解决方案,可以在没有配备第三方AR SDK的普通AR平台(比如AR眼镜)上开发多人模式的AR应用。
实施例1
如图1所示,本发明实施例提供了一种支持多人模式增强现实应用的方法,包括:
步骤S110,参与同一个多人模式增强现实AR应用的任意一个客户端通过视觉同步定位与构图SLAM模组对预先布置在现实场景中指定位置的标识图进行识别;在识别到所述标识图后,建立以所述标识图为参照物的目标坐标系;
步骤S120,所述客户端确定所述视觉SLAM模组的摄像头对应的第一相机坐标系与所述目标坐标系之间的第一变换关系,以及所述应用的虚拟相机对应的第二相机坐标系与所述目标坐标系之间的第二变换关系;
步骤S130,所述客户端利用所述视觉SLAM模组在现实场景中对所述客户端进行空间定位和运动追踪,根据所述第一变换关系获得所述客户端在所述目标坐标系中的位姿变化;利用所述应用的虚拟相机在虚拟场景中对虚拟对象进行空间定位和运动追踪,根据所述第二变换关系获得所述虚拟对象在所述目标坐标系中的位姿变化;
步骤S140,所述客户端基于所述客户端和虚拟对象在所述目标坐标系中的位姿变化对所述现实场景和虚拟场景进行融合显示。
其中,位姿指的是位置和姿态;
在一种实施方式中,如图2所示,所述标识图(Marker)包括黑色边框和二进制编码图案;其中,所述黑色边框用于快速识别,所述二进制编码图案用于表示所述标识图的ID;图2中的标识图包括一个4x4,16bit的黑白色块矩阵,所述黑白色块矩阵可以进行二进制编码生成所述标识图的ID。
在一种实施方式中,建立以所述标识图为参照物的目标坐标系,包括:
将所述标识图上指定位置点作为目标坐标系的原点,根据所述标识图的方向确定所述目标坐标系空间坐标轴的方向。其中,所述指定位置点可以是所述标识图的中心或者其他特征位置点。在图3中,将所述标识图的中心作为目标坐标系的原点,根据所述标识图的方向确定所述目标坐标系空间坐标轴的方向。
在一种实施方式中,如图4所示,所述通过视觉SLAM模组对预先布置在所述现实场景中指定位置的标识图进行识别,包括:
通过视觉SLAM模组获得所述现实场景中指定位置的标识图的图像数据,对所述图像数据进行灰度化阈值处理、轮廓滤波以及比特位提取处理,得到所述标识图的ID;对所述标识图的ID进行解码获得所述标识图的信息;其中,所述标识图的信息包括所述标识图的方向信息。
标识图可以预先设计好并进行原尺寸打印,放置到现实场景中供客户端识别。把标识图放到现实场景中的一个位置上,相当于在现实场景中固定了虚拟对象的出生点,虚拟对象在出生点附近的平面上进行活动。基于标识图构建目标坐标系后,就可以达到将虚拟对象放置于指定位置的目的,进而渲染出虚拟对象融合入现实场景中的视觉效果。因此,标识图的设置与识别能够统一不同客户端对现实场景的理解,进而实现AR平台的多人互动。
在一种实施方式中,所述视觉SLAM模组包括:双目摄像头;其中,双目摄像头可以获得图像的深度信息。
在一种实施方式中,所述客户端利用所述视觉SLAM模组对本客户端进行空间定位和运动追踪获得本客户端在现实场景中的位姿变化,包括:
所述客户端通过视觉SLAM模组的摄像头获取现实场景中的当前图像,对所述当前图像进行特征提取;将所述当前图像与前一帧的图像进行帧间比对,根据比对结果估计所述客户端的位姿变化;
其中,所述视觉SLAM模组预置局部地图优化、全局地图优化和闭环检测算法,能够自动纠正系统运行过程中的位姿漂移。
其中,所述客户端基于所述客户端和虚拟对象在所述目标坐标系中的位姿变化对所述现实场景和虚拟场景进行融合显示,与现有技术中单人AR应用的融合显示方法是类似的。单人AR应用中,融合显示是从相机坐标系映射到屏幕坐标系,本发明的多人AR应用中,融合显示是从相机坐标系变换到目标坐标系,然后再从目标坐标系映射到屏幕坐标系;其中,相机坐标系包括用于拍摄现实场景的摄像头对应的相机坐标系和应用中用于拍摄虚拟场景的虚拟摄像机对应的相机坐标系。
在一种实施方式中,所述应用包括:游戏;所述游戏的类型比如:格斗游戏等。
在一种实施方式中,如图6所示,假设所述多人模式AR应用为多人AR游戏。每一个玩家的AR平台(比如AR眼镜)内置有视觉SLAM模组,所述视觉SLAM模组设置有双目摄像头。多个玩家(客户端)之间通过局域网实现互联,第一个玩家进入游戏大厅(虚拟场景)后,对进入同一个游戏大厅的玩家进行查找和匹配,满足游戏开始条件后开始游戏。游戏开始后首先进行初始化,在初始化的过程中,玩家通过视觉SLAM模组对现实场景进行感知和理解,通过视觉SLAM模组对现实场景中的平面进行检测以及对预先布置在所述现实场景中指定位置的标识图进行识别,在识别到所述标识图后,建立以所述标识图为参照物的目标坐标系。确定所述视觉SLAM模组的摄像头对应的第一相机坐标系与所述目标坐标系之间的第一变换关系,以及所述游戏的虚拟相机对应的第二相机坐标系与所述目标坐标系之间的第二变换关系;利用所述视觉SLAM模组在现实场景中对玩家进行空间定位和运动追踪,根据所述第一变换关系获得所述玩家在所述目标坐标系中的位姿变化;利用所述应用的虚拟相机在虚拟场景中对虚拟对象进行空间定位和运动追踪,根据所述第二变换关系获得所述虚拟对象在所述目标坐标系中的位姿变化。基于所述玩家和虚拟对象在所述目标坐标系中的位姿变化对所述现实场景和虚拟场景进行融合显示。上述多人AR游戏通过标识图的设置与识别能够统一不同玩家对现实场景的理解,保证不同玩家融入同一个世界,共享同一套世界坐标系统,进而实现AR平台的多人互动。
在上述多人模式的AR游戏中,AR基础功能部分(位姿估计、运动追踪和环境感知)通过接入视觉SLAM模组实现,基本游戏逻辑通过游戏引擎实现。所述游戏引擎可以使用现有技术中的3D游戏引擎,比如使用Unity3D、UE4等游戏引擎完成。其中的多人模式可以选择封装网络库实现,这种方式自由度较高,此外也可以采用AR平台提供的网络模块或第三方网络库实现。虚拟场景及虚拟人物均需要采用3D渲染,动画制作成骨骼动画,为提高真实性,可以使用2K或4K级别的PBR(Physically BasedRendering,基于物理的渲染)贴图。
实施例2
如图6所示,本发明实施例提供了一种支持多人模式增强现实应用的装置,应用于多人模式增强现实AR应用的客户端,包括:
目标坐标系建立模块10,用于通过视觉同步定位与构图SLAM模组对预先布置在现实场景中指定位置的标识图进行识别;在识别到所述标识图后,建立以所述标识图为参照物的目标坐标系;
坐标系变换模块20,用于确定所述视觉SLAM模组的摄像头对应的第一相机坐标系与所述目标坐标系之间的第一变换关系,以及所述应用的虚拟相机对应的第二相机坐标系与所述目标坐标系之间的第二变换关系;
位姿追踪模块30,用于利用所述视觉SLAM模组在现实场景中对所述客户端进行空间定位和运动追踪,根据所述第一变换关系获得所述客户端在所述目标坐标系中的位姿变化;利用所述应用的虚拟相机在虚拟场景中对虚拟对象进行空间定位和运动追踪,根据所述第二变换关系获得所述虚拟对象在所述目标坐标系中的位姿变化;
融合显示模块40,用于基于所述客户端和虚拟对象在所述目标坐标系中的位姿变化对所述现实场景和虚拟场景进行融合显示。
在一种实施方式中,目标坐标系建立模块,用于通过以下方式建立以所述标识图为参照物的目标坐标系:将所述标识图上指定位置点作为目标坐标系的原点,根据所述标识图的方向确定所述目标坐标系空间坐标轴的方向。
在一种实施方式中,坐标系处理模块,用于采用以下方式通过视觉SLAM模组对预先布置在所述现实场景中指定位置的标识图进行识别:通过视觉SLAM模组获得所述现实场景中指定位置的标识图的图像数据,对所述图像数据进行灰度化阈值处理、轮廓滤波以及比特位提取处理,得到所述标识图的ID;对所述标识图的ID进行解码获得所述标识图的信息;其中,所述标识图的信息包括所述标识图的位置和方向信息。
在一种实施方式中,位姿追踪模块,用于采用以下方式利用所述视觉SLAM模组在现实场景中对所述客户端进行空间定位和运动追踪:通过视觉SLAM模组的摄像头获取现实场景中的当前图像,对所述当前图像进行特征提取;将所述当前图像与前一帧的图像进行帧间比对,根据比对结果估计所述客户端的位姿变化。
在一种实施方式中,所述视觉SLAM模组包括:双目摄像头。
需要说明的是,本发明还可有其他多种实施例,在不背离本发明精神及其实质的情况下,熟悉本领域的技术人员可根据本发明作出各种相应的改变和变形,但这些相应的改变和变形都应属于本发明所附的权利要求的保护范围。
Claims (10)
1.一种支持多人模式增强现实应用的方法,包括:
参与同一个多人模式增强现实AR应用的任意一个客户端通过视觉同步定位与构图SLAM模组对预先布置在现实场景中指定位置的标识图进行识别;在识别到所述标识图后,建立以所述标识图为参照物的目标坐标系;
所述客户端确定所述视觉SLAM模组的摄像头对应的第一相机坐标系与所述目标坐标系之间的第一变换关系,以及所述应用的虚拟相机对应的第二相机坐标系与所述目标坐标系之间的第二变换关系;
所述客户端利用所述视觉SLAM模组在现实场景中对所述客户端进行空间定位和运动追踪,根据所述第一变换关系获得所述客户端在所述目标坐标系中的位姿变化;利用所述应用的虚拟相机在虚拟场景中对虚拟对象进行空间定位和运动追踪,根据所述第二变换关系获得所述虚拟对象在所述目标坐标系中的位姿变化;
所述客户端基于所述客户端和虚拟对象在所述目标坐标系中的位姿变化对所述现实场景和虚拟场景进行融合显示。
2.如权利要求1所述的方法,其特征在于:
所述建立以所述标识图为参照物的目标坐标系,包括:
将所述标识图上指定位置点作为目标坐标系的原点,根据所述标识图的方向确定所述目标坐标系空间坐标轴的方向。
3.如权利要求1所述的方法,其特征在于:
所述通过视觉SLAM模组对预先布置在所述现实场景中指定位置的标识图进行识别,包括:
通过视觉SLAM模组获得所述现实场景中指定位置的标识图的图像数据,对所述图像数据进行灰度化阈值处理、轮廓滤波以及比特位提取处理,得到所述标识图的ID;对所述标识图的ID进行解码获得所述标识图的信息;
其中,所述标识图的信息包括所述标识图的位置和方向信息。
4.如权利要求1所述的方法,其特征在于:
所述客户端利用所述视觉SLAM模组在现实场景中对所述客户端进行空间定位和运动追踪,包括:
所述客户端通过视觉SLAM模组的摄像头获取现实场景中的当前图像,对所述当前图像进行特征提取;将所述当前图像与前一帧的图像进行帧间比对,根据比对结果估计所述客户端的位姿变化。
5.如权利要求1所述的方法,其特征在于:
所述视觉SLAM模组包括:双目摄像头。
6.一种支持多人模式增强现实应用的装置,应用于多人模式增强现实AR应用的客户端,包括:
目标坐标系建立模块,用于通过视觉同步定位与构图SLAM模组对预先布置在现实场景中指定位置的标识图进行识别;在识别到所述标识图后,建立以所述标识图为参照物的目标坐标系;
坐标系变换模块,用于确定所述视觉SLAM模组的摄像头对应的第一相机坐标系与所述目标坐标系之间的第一变换关系,以及所述应用的虚拟相机对应的第二相机坐标系与所述目标坐标系之间的第二变换关系;
位姿追踪模块,用于利用所述视觉SLAM模组在现实场景中对所述客户端进行空间定位和运动追踪,根据所述第一变换关系获得所述客户端在所述目标坐标系中的位姿变化;利用所述应用的虚拟相机在虚拟场景中对虚拟对象进行空间定位和运动追踪,根据所述第二变换关系获得所述虚拟对象在所述目标坐标系中的位姿变化;
融合显示模块,用于基于所述客户端和虚拟对象在所述目标坐标系中的位姿变化对所述现实场景和虚拟场景进行融合显示。
7.如权利要求6所述的装置,其特征在于:
目标坐标系建立模块,用于通过以下方式建立以所述标识图为参照物的目标坐标系:将所述标识图上指定位置点作为目标坐标系的原点,根据所述标识图的方向确定所述目标坐标系空间坐标轴的方向。
8.如权利要求6所述的装置,其特征在于:
坐标系处理模块,用于采用以下方式通过视觉SLAM模组对预先布置在所述现实场景中指定位置的标识图进行识别:通过视觉SLAM模组获得所述现实场景中指定位置的标识图的图像数据,对所述图像数据进行灰度化阈值处理、轮廓滤波以及比特位提取处理,得到所述标识图的ID;对所述标识图的ID进行解码获得所述标识图的信息;其中,所述标识图的信息包括所述标识图的位置和方向信息。
9.如权利要求6所述的装置,其特征在于:
位姿追踪模块,用于采用以下方式利用所述视觉SLAM模组在现实场景中对所述客户端进行空间定位和运动追踪:通过视觉SLAM模组的摄像头获取现实场景中的当前图像,对所述当前图像进行特征提取;将所述当前图像与前一帧的图像进行帧间比对,根据比对结果估计所述客户端的位姿变化。
10.如权利要求6所述的装置,其特征在于:
所述视觉SLAM模组包括:双目摄像头。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911328003.7A CN111061374B (zh) | 2019-12-20 | 2019-12-20 | 一种支持多人模式增强现实应用的方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911328003.7A CN111061374B (zh) | 2019-12-20 | 2019-12-20 | 一种支持多人模式增强现实应用的方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111061374A true CN111061374A (zh) | 2020-04-24 |
CN111061374B CN111061374B (zh) | 2024-04-09 |
Family
ID=70302525
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911328003.7A Active CN111061374B (zh) | 2019-12-20 | 2019-12-20 | 一种支持多人模式增强现实应用的方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111061374B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111651051A (zh) * | 2020-06-10 | 2020-09-11 | 浙江商汤科技开发有限公司 | 一种虚拟沙盘展示方法及装置 |
CN111744202A (zh) * | 2020-06-29 | 2020-10-09 | 完美世界(重庆)互动科技有限公司 | 加载虚拟游戏的方法及装置、存储介质、电子装置 |
CN112017242A (zh) * | 2020-08-21 | 2020-12-01 | 北京市商汤科技开发有限公司 | 显示方法及装置、设备、存储介质 |
CN112099620A (zh) * | 2020-08-11 | 2020-12-18 | 中国人民解放军军事科学院国防科技创新研究院 | 一种面向士兵及班组作战的战斗协同系统及方法 |
CN112138370A (zh) * | 2020-09-10 | 2020-12-29 | 杭州易现先进科技有限公司 | Ar娃娃机的控制方法、装置和电子装置 |
CN112950711A (zh) * | 2021-02-25 | 2021-06-11 | 深圳市慧鲤科技有限公司 | 一种对象的控制方法、装置、电子设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120075343A1 (en) * | 2010-09-25 | 2012-03-29 | Teledyne Scientific & Imaging, Llc | Augmented reality (ar) system and method for tracking parts and visually cueing a user to identify and locate parts in a scene |
CN104361353A (zh) * | 2014-11-17 | 2015-02-18 | 山东大学 | 一种感兴趣区域的定位方法在仪表监控识别中的应用 |
CN108510592A (zh) * | 2017-02-27 | 2018-09-07 | 亮风台(上海)信息科技有限公司 | 真实物理模型的增强现实展示方法 |
CN110335292A (zh) * | 2019-07-09 | 2019-10-15 | 北京猫眼视觉科技有限公司 | 一种基于图片跟踪实现模拟场景跟踪的方法及系统 |
-
2019
- 2019-12-20 CN CN201911328003.7A patent/CN111061374B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120075343A1 (en) * | 2010-09-25 | 2012-03-29 | Teledyne Scientific & Imaging, Llc | Augmented reality (ar) system and method for tracking parts and visually cueing a user to identify and locate parts in a scene |
CN104361353A (zh) * | 2014-11-17 | 2015-02-18 | 山东大学 | 一种感兴趣区域的定位方法在仪表监控识别中的应用 |
CN108510592A (zh) * | 2017-02-27 | 2018-09-07 | 亮风台(上海)信息科技有限公司 | 真实物理模型的增强现实展示方法 |
CN110335292A (zh) * | 2019-07-09 | 2019-10-15 | 北京猫眼视觉科技有限公司 | 一种基于图片跟踪实现模拟场景跟踪的方法及系统 |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111651051A (zh) * | 2020-06-10 | 2020-09-11 | 浙江商汤科技开发有限公司 | 一种虚拟沙盘展示方法及装置 |
CN111651051B (zh) * | 2020-06-10 | 2023-08-22 | 浙江商汤科技开发有限公司 | 一种虚拟沙盘展示方法及装置 |
CN111744202A (zh) * | 2020-06-29 | 2020-10-09 | 完美世界(重庆)互动科技有限公司 | 加载虚拟游戏的方法及装置、存储介质、电子装置 |
CN112099620A (zh) * | 2020-08-11 | 2020-12-18 | 中国人民解放军军事科学院国防科技创新研究院 | 一种面向士兵及班组作战的战斗协同系统及方法 |
CN112017242A (zh) * | 2020-08-21 | 2020-12-01 | 北京市商汤科技开发有限公司 | 显示方法及装置、设备、存储介质 |
CN112017242B (zh) * | 2020-08-21 | 2023-06-16 | 北京市商汤科技开发有限公司 | 显示方法及装置、设备、存储介质 |
CN112138370A (zh) * | 2020-09-10 | 2020-12-29 | 杭州易现先进科技有限公司 | Ar娃娃机的控制方法、装置和电子装置 |
CN112950711A (zh) * | 2021-02-25 | 2021-06-11 | 深圳市慧鲤科技有限公司 | 一种对象的控制方法、装置、电子设备及存储介质 |
CN112950711B (zh) * | 2021-02-25 | 2024-08-09 | 深圳市慧鲤科技有限公司 | 一种对象的控制方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111061374B (zh) | 2024-04-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111061374B (zh) | 一种支持多人模式增强现实应用的方法及装置 | |
CN110163943B (zh) | 图像的渲染方法和装置、存储介质、电子装置 | |
US10460512B2 (en) | 3D skeletonization using truncated epipolar lines | |
CN101305401B (zh) | 用于处理游戏的立体视频的方法 | |
CN110866977B (zh) | 增强现实处理方法及装置、系统、存储介质和电子设备 | |
JP7387202B2 (ja) | 3次元顔モデル生成方法、装置、コンピュータデバイス及びコンピュータプログラム | |
CN106875431B (zh) | 具有移动预测的图像追踪方法及扩增实境实现方法 | |
US20110102460A1 (en) | Platform for widespread augmented reality and 3d mapping | |
Levin | Real-time target and pose recognition for 3-d graphical overlay | |
CN111833458A (zh) | 图像显示方法及装置、设备、计算机可读存储介质 | |
CN111833457A (zh) | 图像处理方法、设备及存储介质 | |
CN114332429A (zh) | 增强现实ar场景的展示方法及装置 | |
CN112308977B (zh) | 视频处理方法、视频处理装置和存储介质 | |
KR20230071588A (ko) | 디오라마 적용을 위한 다수 참여 증강현실 콘텐츠 제공 장치 및 그 방법 | |
WO2004012141A2 (en) | Virtual reality immersion system | |
CN108983974A (zh) | Ar场景处理方法、装置、设备和计算机可读存储介质 | |
CN111199573A (zh) | 一种基于增强现实的虚实互反射方法、装置、介质及设备 | |
CN116057577A (zh) | 用于增强现实的地图 | |
CN111569414B (zh) | 虚拟飞行器的飞行展示方法、装置、电子设备及存储介质 | |
CN110737326A (zh) | 虚拟对象的显示方法、装置、终端设备及存储介质 | |
KR101586071B1 (ko) | 마커리스 증강현실 서비스 제공 장치 및 이를 위한 촬영 위치 추정 방법 | |
CN112950711B (zh) | 一种对象的控制方法、装置、电子设备及存储介质 | |
CN113470190A (zh) | 场景显示方法及装置、设备、车辆、计算机可读存储介质 | |
KR100477801B1 (ko) | 3차원 영상정보 기술장치와 그 방법 및 이를 이용한 3차원영상정보 검색장치 및 그 방법 | |
CN111179341B (zh) | 一种增强现实设备与移动机器人的配准方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |