CN114092670A - 一种虚拟现实显示方法、设备以及存储介质 - Google Patents
一种虚拟现实显示方法、设备以及存储介质 Download PDFInfo
- Publication number
- CN114092670A CN114092670A CN202111341824.1A CN202111341824A CN114092670A CN 114092670 A CN114092670 A CN 114092670A CN 202111341824 A CN202111341824 A CN 202111341824A CN 114092670 A CN114092670 A CN 114092670A
- Authority
- CN
- China
- Prior art keywords
- target object
- virtual
- coordinate system
- virtual space
- avatar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 238000013507 mapping Methods 0.000 claims abstract description 44
- 230000003993 interaction Effects 0.000 claims abstract description 9
- 230000006870 function Effects 0.000 claims description 20
- 230000002452 interceptive effect Effects 0.000 claims description 9
- 230000008859 change Effects 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 7
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000009877 rendering Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 21
- 238000012545 processing Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 230000003190 augmentative effect Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000007613 environmental effect Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 108010001267 Protein Subunits Proteins 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请公开了一种虚拟现实显示方法、设备以及存储介质。该虚拟现实显示方法包括:获取目标对象在第一坐标系下的位姿数据;获取第一坐标系与虚拟空间的第二坐标系之间的映射关系;基于映射关系将位姿数据映射到虚拟空间,以在虚拟空间显示目标对象的虚拟形象。因此,通过获取目标对象的位姿数据,将位姿数据映射到虚拟空间,能够丰富虚拟空间与目标对象的交互效果,提高虚拟空间的趣味性。
Description
技术领域
本申请涉及图像处理技术领域,特别是涉及一种虚拟现实显示方法、设备以及存储介质。
背景技术
增强现实(Augmented Reality)技术是一种将虚拟信息与真实世界进行巧妙融合的技术。其广泛运用了多媒体、三维建模、实时跟踪及注册、智能交互以及传感等多种技术手段。增强现实通过将计算机生成的文字、图像、三维模型、音乐以及视频等虚拟信息进行模拟仿真后,应用到真实世界中,使两种信息互为补充,从而实现对真实世界的“增强”。增强现实技术发展了很多年,希望有一天能在日常生活和工作中能使用该技术,提供生活的便利,提高工作效率等,目前也出现了很多的工作场景,随着技术的进步也有基于视觉高精度地图、信号定位等多传感器融合的全局定位的方法,数字孪生、平行世界等各类科幻的概念逐渐的成为可能。
然而,现有技术中,暂时无法做到识别出人体轮廓以及人体的其他相关数据,故无法实现一些与现实任务的互动效果。
发明内容
为了解决现有技术的中存在的技术问题,本申请提供了一种虚拟现实显示方法、设备以及存储介质。
为解决现有技术的中存在的技术问题,本申请提供了一种虚拟现实显示方法,虚拟现实显示方法包括:获取目标对象在第一坐标系下的位姿数据;获取所述第一坐标系与虚拟空间的第二坐标系之间的映射关系;基于所述映射关系将所述位姿数据映射到所述虚拟空间,以在所述虚拟空间显示所述目标对象的虚拟形象。
为解决现有技术的中存在的技术问题,本申请提供了一种虚拟现实显示设备,虚拟现实显示设备包括:处理器和存储器,所述存储器中存储有计算机程序,所述处理器用于执行所述计算机程序以实现上述的方法。
为解决现有技术的中存在的技术问题,本申请提供了一种虚拟现实显示设备,虚拟现实显示设备存储有程序指令,所述程序指令被处理器执行时实现上述的方法。
与现有技术相比,本申请的虚拟现实显示方法包括:获取目标对象在第一坐标系下的位姿数据;获取第一坐标系与虚拟空间的第二坐标系之间的映射关系;基于映射关系将位姿数据映射到虚拟空间,以在虚拟空间显示目标对象的虚拟形象。因此,通过获取目标对象的位姿数据,将位姿数据映射到虚拟空间,能够丰富虚拟空间与目标对象的交互效果,提高虚拟空间的趣味性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,而非限制本申请。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请提供的虚拟现实显示方法一实施例的流程示意图;
图2是本申请提供的虚拟现实显示方法另一实施例的流程示意图;
图3是本申请提供的虚拟现实显示方法再一实施例的流程示意图;
图4是本申请提供的虚拟现实显示装置一实施例结构示意图;
图5是本申请提供的虚拟现实显示设备一实施例的结构示意图;
图6是本申请提供的计算机存储介质一实施例的结构示意图。
具体实施方式
下面结合附图和实施例,对本申请作进一步的详细描述。特别指出的是,以下实施例仅用于说明本申请,但不对本申请的范围进行限定。同样的,以下实施例仅为本申请的部分实施例而非全部实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其他实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其他实施例相结合。
本申请的描述中,需要说明书的是,除非另外明确的规定和限定,术语“安装”、“设置”、“相连”、“连接”应做广义理解,例如,可以是固定连接,可以是可拆卸连接,或一体地连接;可以是机械来能接,也可以是电连接;可以是直接相连,也可以通过中间媒介间隔相连。对于本领域的普通技术人员而言,可以具体情况连接上述属于在本申请的具体含义。
本申请涉及增强现实领域,通过获取现实环境中的目标对象的图像信息,进而借助各类视觉相关算法实现对目标对象的相关特征、状态及属性进行检测或识别处理,从而得到与具体应用匹配的虚拟与现实相结合的AR效果。示例性的,目标对象可涉及与人体相关的脸部、肢体、手势、动作等,或者与物体相关的标识物、标志物,或者与场馆或场所相关的沙盘、展示区域或展示物品等。视觉相关算法可涉及视觉定位、SLAM、三维重建、图像注册、背景分割、对象的关键点提取及跟踪、对象的位姿或深度检测等。具体应用不仅可以涉及跟真实场景或物品相关的导览、导航、讲解、重建、虚拟效果叠加展示等交互场景,还可以涉及与人相关的特效处理,比如妆容美化、肢体美化、特效展示、虚拟模型展示等交互场景。
可通过卷积神经网络,实现对目标对象的相关特征、状态及属性进行检测或识别处理。上述卷积神经网络是基于深度学习框架进行模型训练而得到的网络模型。
基于以上基础技术,本申请提出了一种虚拟现实显示方法,具体请参阅图1,图1是本申请提供的虚拟现实显示方法一实施例的流程示意图。具体而言,可以包括如下步骤S101~步骤S103:
步骤S101:获取目标对象在第一坐标系下的位姿数据。
本申请实施例中,获取目标对象在第一坐标系下的位姿数据的设备可以包括智能视觉传感器,其中,智能视觉传感器可以具有图像采集单元、图像处理单元、图像处理软件以及网络通信装置。在智能视觉传感器,图像采集单元相当于普通意义上的CCD/CMOS相机和图像采集卡,它将光学图像转换为模拟/数字图像,并输出至图像处理单元;图像处理单元类似于图像采集/处理卡,它可对图像采集单元的图像数据进行实时的存储,并在图像处理软件的支持下进行图像处理;图像处理软件主要在图像处理单元硬件环境的支持下,完成图像处理功能,如几何边缘的提取、Blob、灰度直方图、OCV/OVR、简单的定位和搜索等;网络通信装置主要完成控制信息、图像数据的通信任务。
目标对象可以是人体、动物或其他需要体现位姿数据的目标对象,在一实施例中,可以先将智能视觉传感器架设在预设位置,通过智能视觉传感器捕捉目标对象所在空间的某一帧的图像,并根据智能视觉传感器的角度以及目标对象在图像中的像素比例,推导得出目标对象在第一坐标系下的位姿数据。第一坐标系可以是目标对象所在空间的地图坐标系,或者以架设的智能视觉传感器为原点中心建立的第一坐标系。
其中,关于获取目标对象在第一坐标系下的位姿数据的方式以及获取的设备可以有多种,例如获取的设备还可以包括深度相机或3D相机,上述方式仅为举例,在其他实施例中,也可以采用其他任意能够实现上述内容的方式。
步骤S102:获取第一坐标系与虚拟空间的第二坐标系之间的映射关系。
虚拟空间可以通过获取高精度地图建立,具体地,在一实施例中,虚拟现实显示方法包括:获取目标对象所在空间的高精度地图,基于高精度地图构建虚拟空间。目标对象所在的高精度地图数据可以是基于对目标对象所在的实际环境拍摄得到的图像,图像可以由智能视觉传感器或其他类型相机拍摄得到。其中,图像的数量可以为多张,例如可以是10张、20张、50张等等,图像的数量越多,构建的虚拟空间越准确,但是相对而言构建虚拟空间的时间则更多,图像可以为三维地图数据,三维地图数据可以是三维点云构建而成。其中,构建虚拟空间的步骤可以在步骤S101之前或步骤S102之前,本申请在此不做限定。
在本申请实施例中,第二坐标系可以是虚拟空间的地表坐标系,通过智能视觉传感器获取的位姿数据所处的第一坐标系与虚拟空间的第二坐标系通常并不属于同一坐标系,在未调整坐标系的情况下直接将位姿数据映射至虚拟空间中,可能会直接导致位姿数据偏离原预定位置。由此,在本实施例中,通过获取第一坐标系与虚拟空间的第二坐标系之间的映射关系,能够将位姿数据准确同步至虚拟空间中。
具体地,在一公开实施例中,基于映射关系将位姿数据映射到虚拟空间可以包括:获取虚拟空间中的标的物,及标的物在第二坐标系下的第二坐标值;并获取标的物在第一坐标系下的第一坐标值;基于第一坐标值和第二坐标值计算第一坐标系与第二坐标系之间的映射矩阵。
目标对象所在空间与构建虚拟空间为同一空间,标的物可以为空间中的任意事物,例如书桌、树或电灯等,标的物同时存在于虚拟空间和目标对象所在空间。虚拟空间中的标的物位于虚拟空间中的第二坐标系下,其对应于虚拟空间中的位置为其在第二坐标系下的第二坐标值。通过搜索目标对象所在空间的标的物所在的位置,并确定目标物在第一坐标系下的第一坐标值。由此,在得到标的物在第一坐标系下的第一坐标值和在第二坐标系下的第二坐标值,能够计算两者之间的映射矩阵。
步骤S103:基于映射关系将位姿数据映射到虚拟空间,以在虚拟空间显示目标对象的虚拟形象。
通过映射关系可以转换位姿数据在第一坐标系下的坐标值转换为第二坐标系下的坐标值,具体地,基于映射关系将位姿数据映射到虚拟空间,包括:由位姿数据获取目标对象在第一坐标系下的坐标值;基于映射矩阵将目标对象在第一坐标系下的坐标值转换为第二坐标系下的坐标值。例如,在一实施例中,位姿数据在第一坐标系下的坐标值为(X1,Y1,Z1),则目标对象在第一坐标系下的坐标值也为(X1,Y1,Z1),基于映射矩阵将(X1,Y1,Z1)转换为第二坐标系下的坐标值(X2,Y2,Z2),由此,在虚拟空间显示目标对象的虚拟形象时,可以将目标对象所处现实空间的位置同步至其处于虚拟空间的位置。
因此,在本实施例中,可以通过获取目标对象的位姿数据,将位姿数据映射到虚拟空间,能够丰富虚拟空间与目标对象的交互效果,提高虚拟空间的趣味性。
上述实施例中可以通过单帧图像实现静态虚拟形象在虚拟空间内的投影,进一步地,本申请还可以通过连续多帧的图像实现动态虚拟动画在虚拟空间内的投影,以提高用户与虚拟空间的互动效果。
参见图2,图2是本申请提供的虚拟现实显示方法另一实施例的流程示意图。具体而言,可以包括如下步骤S201~步骤S204:
步骤S201:采集目标对象所在空间连续多帧的目标图像。
在实施例中,目标对象在空间中可能处于非静止状态,通过采集目标对象在空间中连续多帧的目标图像,例如,采集的目标图像可以为10张、20张、50张等等,当采集的目标图像越多,最终生成的动画时间越长。
步骤S202:从连续多帧的目标图像中分别获取目标对象在第一坐标系下的位姿数据。
在本实施例中,每张目标图像中均存在目标对象,也即,在连续的多帧内,目标对象均在设备能够拍摄的空间内。通过提取每一帧目标图像在第一坐标系下的位姿数据,能够呈现目标对象在第一坐标系下变换的位姿数据,从而生成目标对象第一坐标系的动画。
步骤S203:获取第一坐标系与虚拟空间的第二坐标系之间的映射关系。
在本实施例中,步骤S203与上述步骤S102的实施方式相同,在此不再赘述。
步骤S204:基于映射关系将连续多帧的位姿数据映射到虚拟空间,以在虚拟空间显示目标对象的虚拟动画。
在本实施例中,将获取的位姿数据按照所在图像的获取的先后顺序,分别映射到虚拟空间中,以在虚拟空间显示的虚拟动画,并且该虚拟动画能够模仿出目标对象在所处空间中连续的位姿动画,从而实现将显示中拍摄的动画同步至虚拟空间的效果,能够进一步丰富虚拟空间,提高虚拟空间的趣味性。
参见图3,图3是本申请提供的虚拟现实显示方法再一实施例的流程示意图。具体而言,可以包括如下步骤S301~步骤S305:
步骤S301:获取目标对象在第一坐标系下的位姿数据。
步骤S302:获取第一坐标系与虚拟空间的第二坐标系之间的映射关系。
步骤S303:基于映射关系将位姿数据映射到虚拟空间,以在虚拟空间显示目标对象的虚拟形象。
其中,步骤S301~步骤S303与步骤S101~步骤S103的实施方式可以相同,在此不再赘述。
步骤S304:定位虚拟形象在虚拟空间的位置。
虚拟空间中可能均有较多环境信息,例如,在一实施例中,虚拟空间可以包括公路、公路两旁的大厦以及公路与大厦之间的植物等,通过定位虚拟形象在虚拟空间的位置可以确定虚拟形象与环境物的相对位置,例如,定位虚拟形象位于公路上、大厦楼顶或植物旁等等。
步骤S305:在虚拟形象的位置满足预设位置的情况下,基于预设交互功能改变虚拟形象的显示状态。
在确定虚拟形象的位置之后,确定虚拟形象是否处于预设位置,例如,在确定虚拟形象处于虚拟空间的公路上时,确定虚拟形象处于预设位置,当预设虚席形象处于虚拟空间中的大厦楼顶时,则确定虚拟形象不处于预设位置。在确定虚拟形象处于预设位置之后,可以通过预设的交互功能改变虚拟形象的显示状态。其中,可以使用开发引擎软件对开发虚拟三维模型进行编辑,例如开发引擎软件可以是Unity或UnrealEngine等,从而提供预设交互功能,并通过虚拟三维模型对虚拟形象进行编辑,以改变虚拟形象的显示状态。
具体地,在一实施例中,基于预设交互功能改变虚拟形象的显示状态,包括:响应于用户输入的第一预设操作,进入对虚拟形象的第一编辑模式,在第一编辑模式下,基于用户输入的信息确定虚拟形象的第一显示信息,将第一显示信息渲染在虚拟形象的预设位置,以改变虚拟形象的显示状态。
例如,获取用户的语音信息、用户的触摸信息或用户输入的控制信号作为用户的第一预设操作。虚拟形象的第一显示信息可以包括虚拟三维模型,第一显示信息可以为1个或同时包括多个,第一显示信息可以包括显示特效,显示特效可以是帽子、手套或其他虚拟三维模型,通过将显示特效渲染在虚拟形象的预设位置,从而改变虚拟形象的显示状态。例如,当虚拟形象为人时,可以通过将帽子、手套等对应渲染在人物形象的头、手上,从而改变其显示状态。
在另一实施例中,基于预设交互功能改变虚拟形象的显示状态,包括:响应于用户输入的第二预设操作,进入对虚拟形象的第二编辑模式,在第二编辑模式下,基于用户输入的信息确定虚拟形象的第二显示信息,将第二显示信息覆盖虚拟形象,以改变虚拟形象的显示状态。
例如,获取用户的语音信息、用户的触摸信息或用户输入的控制信号作为用户的第二预设操作。虚拟形象的第二显示信息可以包括虚拟三维模型,第二显示信息可以为1个或同时包括多个,第二显示信息可以包括显示特效,显示特效可以是包括虚拟人物模型,例如,显示特效可以是丧尸、鬼怪等具有皮套特效的虚拟人物模型,通过将第二显示信息覆盖于虚拟形象,以将虚拟形象的显示状态改变显示特效的状态,例如,将虚拟形象的显示状态更改为丧尸或鬼怪等。
当然,在其他实施例中,还可以先将第二显示信息覆盖于虚拟形象之后,在将第一显示信息渲染在被第二显示信息覆盖之后的虚拟形象上。
在一实施例中,还可以通过响应于用户输入的第三预设操作,进入对虚拟空间的第三编辑模式,在第三编辑模式下,基于用户输入的信息确定虚拟空间的第三显示信息,将第三显示信息覆盖虚拟空间中的环境物上,以改变虚拟空间中环境物的显示状态。
例如,环境物可以是楼道、建筑物、树等等,第三显示信息可以是显示类信息和/或音频类信息。其中,显示类信息包括显示特效、提示信息和设于建筑物外部的三维模型中的至少一者。显示特效可以是烟花绽放、虚拟人物模型、粒子特效等等。其中,提示信息可以是文字和图像中的至少一者。例如,提示信息可以是图文弹窗的形式。文字类的提示信息可以用于介绍环境物的相关信息或安全防护知识等等。图像类的提示信息可以类似交通标志(停车、左转、右转、慢行等标志)、安全防护标志(禁烟、小心地滑等等)等用于传递信息的图像。设于建筑物外部的三维模型可以是对建筑物外观建立的三维模型。其中,音频类信息可以是对环境物的历史等内容的讲解、也可以是安全防护的介绍等等。例如,在虚拟形象经过可能会对人体的身体或财产造成一定威胁的地点时,可以播放对应安全防护的音频,从而保障车辆行驶过程中乘坐人的安全。通过设置多种类别的第三显示信息,能够丰富虚拟空间。
因此,上述方案中通过获取目标对象在第一坐标系下的位姿数据;获取第一坐标系与虚拟空间的第二坐标系之间的映射关系;基于映射关系将位姿数据映射到虚拟空间,以在虚拟空间显示目标对象的虚拟形象。因此,通过获取目标对象的位姿数据,将位姿数据映射到虚拟空间,能够丰富虚拟空间与目标对象的交互效果,提高虚拟空间的趣味性。
本实施例中的虚拟现实显示方法可以应用于虚拟现实显示装置,本申请的虚拟现实显示装置可以为服务器,也可以为移动设备,还可以为由服务器和移动设备相互配合的系统。相应地,移动设备包括的各个部分,例如各个单元、子单元、模块、子模块可以全部设置于服务器中,也可以全部设置于移动设备中,还可以分别设置于服务器和移动设备中。
进一步地,上述服务器可以是硬件,也可以是软件。当服务器为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可以实现成多个软件或软件模块,例如用来提供分布式服务器的软件或软件模块,也可以实现成单个软件或软件模块,在此不做具体限定。
为实现上述实施例的虚拟现实显示方法,本申请提供了一种虚拟现实显示装置。参见图4,图4是本申请提供的虚拟现实显示装置40一实施例结构示意图。
具体地,虚拟现实显示装置40可以包括:获取模块41以及显示模块42。
获取模块41用于获取目标对象在第一坐标系下的位姿数据,以及获取模块41还用于获取第一坐标系与虚拟空间的第二坐标系之间的映射关系。
显示模块42用于基于映射关系将位姿数据映射到虚拟空间,以在虚拟空间显示目标对象的虚拟形象。
上述方案通过获取目标对象在第一坐标系下的位姿数据;获取第一坐标系与虚拟空间的第二坐标系之间的映射关系;基于映射关系将位姿数据映射到虚拟空间,以在虚拟空间显示目标对象的虚拟形象。因此,通过获取目标对象的位姿数据,将位姿数据映射到虚拟空间,能够丰富虚拟空间与目标对象的交互效果,提高虚拟空间的趣味性。
其中,在本申请的一个实施例,图4所示的虚拟现实显示装置40中的各个模块可以分别或全部合并为一个或若干个单元来构成,或者其中的某个(些)单元还可以再拆分为功能上更小的多个子单元,可以实现同样的操作,而不影响本申请的实施例的技术效果的实现。上述模块是基于逻辑功能划分的,在实际应用中,一个模块的功能也可以由多个单元来实现,或者多个模块的功能由一个单元实现。在本申请的其它实施例中,虚拟现实显示装置40也可以包括其它单元,在实际应用中,这些功能也可以由其它单元协助实现,并且可以由多个单元协作实现。
上述方法应用于虚拟现实显示设备中。具体请参阅图5,图5是本申请提供的虚拟现实显示设备一实施例的结构示意图,本实施例虚拟现实显示设备50包括处理器51和存储器52。其中,存储器52中存储有计算机程序,处理器51用于执行计算机程序以实现上述虚拟现实显示方法。
其中,处理器51可以是一种集成电路芯片,具有信号的处理能力。处理器51还可以是通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
对于图1-图3所示实施例的虚拟现实显示方法,其可以计算机程序的形式呈现,本申请提出一种承载计算机程序的计算机存储介质,请参阅图6,图6是本申请提供的计算机存储介质一实施例的结构示意图,本实施例计算机存储介质60包括计算机程序61,其可被执行以实现上述虚拟现实显示方法。
本实施例计算机存储介质60可以是U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等可以存储程序指令的介质,或者也可以为存储有该程序指令的服务器,该服务器可将存储的程序指令发送给其他设备运行,或者也可以自运行该存储的程序指令。
另外,上述功能如果以软件功能的形式实现并作为独立产品销售或使用时,可存储在一个移动终端可读取存储介质中,即,本申请还提供一种存储有程序数据的存储装置,所述程序数据能够被执行以实现上述实施例的方法,该存储装置可以为如U盘、光盘、服务器等。也就是说,本申请可以以软件产品的形式体现出来,其包括若干指令用以使得一台智能终端执行各个实施例所述方法的全部或部分步骤。
在本申请的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本申请的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本申请的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本申请的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本申请的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(可以是个人计算机,服务器,网络设备或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
以上所述仅为本申请的实施方式,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。
Claims (10)
1.一种虚拟现实显示方法,其特征在于,包括:
获取目标对象在第一坐标系下的位姿数据;
获取所述第一坐标系与虚拟空间的第二坐标系之间的映射关系;
基于所述映射关系将所述位姿数据映射到所述虚拟空间,以在所述虚拟空间显示所述目标对象的虚拟形象。
2.根据权利要求1所述的虚拟现实显示方法,其特征在于,所述获取所述第一坐标系与虚拟空间的第二坐标系之间的映射关系,包括:
获取所述虚拟空间中的标的物,及所述标的物在所述第二坐标系下的第二坐标值;
获取所述标的物在所述第一坐标系下的第一坐标值;
基于所述第一坐标值和所述第二坐标值计算所述第一坐标系与所述第二坐标系之间的映射矩阵。
3.根据权利要求2所述的虚拟现实显示方法,其特征在于,所述基于所述映射关系将所述位姿数据映射到所述虚拟空间,包括:
由所述位姿数据获取所述目标对象在所述第一坐标系下的坐标值;
基于所述映射矩阵将所述目标对象在所述第一坐标系下的坐标值转换为所述第二坐标系下的坐标值。
4.根据权利要求1-3任意一项所述的虚拟现实显示方法,其特征在于,所述虚拟现实显示方法还包括:
获取所述目标对象所在的高精度地图;
基于所述高精度地图构建所述虚拟空间。
5.根据权利要求1-3任意一项所述的虚拟现实显示方法,其特征在于,所述获取目标对象在第一坐标系下的位姿数据包括:
采集所述目标对象所在空间连续多帧的目标图像;
从所述连续多帧的目标图像中分别获取所述目标对象在所述第一坐标系下的位姿数据;
所述基于所述映射关系将所述位姿数据映射到所述虚拟空间,以在所述虚拟空间显示所述目标对象的虚拟形象包括:
基于所述映射关系将所述连续多帧的位姿数据映射到所述虚拟空间,以在所述虚拟空间显示所述目标对象的虚拟动画。
6.根据权利要求1所述的虚拟现实显示方法,其特征在于,所述在所述虚拟空间显示所述目标对象的虚拟形象之后,所述虚拟现实显示方法还包括:
定位所述虚拟形象在所述虚拟空间的位置;
在所述虚拟形象的位置满足预设位置的情况下,基于预设交互功能改变所述虚拟形象的显示状态。
7.根据权利要求6所述的虚拟现实显示方法,其特征在于,所述基于预设交互功能改变所述虚拟形象的显示状态,包括:
响应于用户输入的第一预设操作,进入对所述虚拟形象的第一编辑模式;
在所述第一编辑模式下,基于所述用户输入的信息确定所述虚拟形象的第一显示信息;
将所述第一显示信息渲染在所述虚拟形象的预设位置,以改变所述虚拟形象的显示状态。
8.根据权利要求6所述的虚拟现实显示方法,其特征在于,所述基于预设交互功能改变所述虚拟形象的显示状态,包括:
响应于用户输入的第二预设操作,进入对所述虚拟形象的第二编辑模式;
在所述第二编辑模式下,基于所述用户输入的信息确定所述虚拟形象的第二显示信息;
将所述第二显示信息覆盖所述虚拟形象,以改变所述虚拟形象的显示状态。
9.一种虚拟现实显示设备,其特征在于,包括:处理器和存储器,所述存储器中存储有计算机程序,所述处理器用于执行所述计算机程序以实现权利要求1至8中任一项所述的方法。
10.一种计算机可读存储介质,其上存储有程序指令,其特征在于,所述程序指令被处理器执行时实现权利要求1至8任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111341824.1A CN114092670A (zh) | 2021-11-12 | 2021-11-12 | 一种虚拟现实显示方法、设备以及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111341824.1A CN114092670A (zh) | 2021-11-12 | 2021-11-12 | 一种虚拟现实显示方法、设备以及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114092670A true CN114092670A (zh) | 2022-02-25 |
Family
ID=80300367
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111341824.1A Pending CN114092670A (zh) | 2021-11-12 | 2021-11-12 | 一种虚拟现实显示方法、设备以及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114092670A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115984516A (zh) * | 2022-12-16 | 2023-04-18 | 工业富联(杭州)数据科技有限公司 | 基于slam算法的增强现实方法及相关设备 |
CN116580169A (zh) * | 2023-07-12 | 2023-08-11 | 南京硅基智能科技有限公司 | 一种数字人驱动方法及装置、电子设备和存储介质 |
-
2021
- 2021-11-12 CN CN202111341824.1A patent/CN114092670A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115984516A (zh) * | 2022-12-16 | 2023-04-18 | 工业富联(杭州)数据科技有限公司 | 基于slam算法的增强现实方法及相关设备 |
CN115984516B (zh) * | 2022-12-16 | 2023-11-17 | 工业富联(杭州)数据科技有限公司 | 基于slam算法的增强现实方法及相关设备 |
CN116580169A (zh) * | 2023-07-12 | 2023-08-11 | 南京硅基智能科技有限公司 | 一种数字人驱动方法及装置、电子设备和存储介质 |
CN116580169B (zh) * | 2023-07-12 | 2023-10-31 | 南京硅基智能科技有限公司 | 一种数字人驱动方法及装置、电子设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102831401B (zh) | 对无特定标记目标物体跟踪、三维叠加及交互的方法及系统 | |
US11256958B1 (en) | Training with simulated images | |
CN111833458B (zh) | 图像显示方法及装置、设备、计算机可读存储介质 | |
CN106816077A (zh) | 基于二维码和增强现实技术的互动沙盘展示方法 | |
CN111754541A (zh) | 目标跟踪方法、装置、设备及可读存储介质 | |
CN109887003A (zh) | 一种用于进行三维跟踪初始化的方法与设备 | |
CN114332374A (zh) | 一种虚拟显示方法、设备以及存储介质 | |
CN107084740B (zh) | 一种导航方法和装置 | |
CN109035415B (zh) | 虚拟模型的处理方法、装置、设备和计算机可读存储介质 | |
CN113490050B (zh) | 视频处理方法和装置、计算机可读存储介质及计算机设备 | |
CN112954292B (zh) | 一种基于增强现实的数字博物馆导览系统和方法 | |
CN114092670A (zh) | 一种虚拟现实显示方法、设备以及存储介质 | |
US20190318543A1 (en) | R-snap for production of augmented realities | |
CN112348885A (zh) | 视觉特征库的构建方法、视觉定位方法、装置和存储介质 | |
CN114202622B (zh) | 虚拟建筑生成方法、装置、设备及计算机可读存储介质 | |
CN114429528A (zh) | 图像处理方法、装置、设备、计算机程序及存储介质 | |
CN112085835A (zh) | 三维卡通人脸生成方法、装置、电子设备及存储介质 | |
CN112598780A (zh) | 实例对象模型构建方法及装置、可读介质和电子设备 | |
CN111142967B (zh) | 一种增强现实显示的方法、装置、电子设备和存储介质 | |
CN113706373A (zh) | 模型重建方法及相关装置、电子设备和存储介质 | |
CN111815782A (zh) | Ar场景内容的显示方法、装置、设备及计算机存储介质 | |
JP2022507502A (ja) | 拡張現実(ar)のインプリント方法とシステム | |
EP3007136B1 (en) | Apparatus and method for generating an augmented reality representation of an acquired image | |
CN112070901A (zh) | 一种园林的ar场景构建方法、装置、存储介质及终端 | |
CN115760886B (zh) | 基于无人机鸟瞰图的地块划分方法、装置及相关设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |