CN111651057A - 一种数据展示方法、装置、电子设备及存储介质 - Google Patents

一种数据展示方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN111651057A
CN111651057A CN202010530463.4A CN202010530463A CN111651057A CN 111651057 A CN111651057 A CN 111651057A CN 202010530463 A CN202010530463 A CN 202010530463A CN 111651057 A CN111651057 A CN 111651057A
Authority
CN
China
Prior art keywords
data
scene
target
real scene
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010530463.4A
Other languages
English (en)
Inventor
揭志伟
李炳泽
武明飞
符修源
陈凯彬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Shangtang Technology Development Co Ltd
Zhejiang Sensetime Technology Development Co Ltd
Original Assignee
Zhejiang Shangtang Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Shangtang Technology Development Co Ltd filed Critical Zhejiang Shangtang Technology Development Co Ltd
Priority to CN202010530463.4A priority Critical patent/CN111651057A/zh
Publication of CN111651057A publication Critical patent/CN111651057A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Abstract

本公开提供了一种数据展示方法、装置、电子设备及存储介质,其中,该数据展示方法包括:实时获取关联AR设备组中每个AR设备拍摄目标现实场景的现实场景图像,以及该AR设备发送的操作数据;基于每个AR设备拍摄的所述现实场景图像,确定该AR设备在所述目标现实场景中的位姿数据;针对每个AR设备,基于该AR设备的位姿数据、以及各个AR设备发送的操作数据,生成针对该AR设备的融合展示数据,并将该融合展示数据发送至该AR设备进行展示。

Description

一种数据展示方法、装置、电子设备及存储介质
技术领域
本公开涉及AR技术领域,具体而言,涉及一种数据展示方法、装置、电子设备及存储介质。
背景技术
随着科技的发展,越来越多的展览馆应运而生,展览馆的出现,丰富了人们的生活,扩展了人们的知识。
随着增强现实技术的兴起,还可以在展览馆中使用增强现实技术,从而使得展示效果更加逼真,但是针对多人进行参观时,缺少多人互动,如何能够多人互动的展示效果,是值得研究的问题。
发明内容
本公开实施例至少提供一种数据展示方案。
第一方面,本公开实施例提供了一种数据展示方法,包括:
实时获取关联AR设备组中每个AR设备拍摄目标现实场景的现实场景图像,以及该AR设备发送的针对匹配的虚拟操作对象的操作数据;
基于每个AR设备拍摄的所述现实场景图像,确定该AR设备在所述目标现实场景中的位姿数据;
针对每个AR设备,基于该AR设备的位姿数据、以及各个AR设备发送的操作数据,生成针对该AR设备的至少一个虚拟操作对象的融合展示数据,并将该融合展示数据发送至该AR设备进行展示。
本公开实施例中,可以根据该AR设备的位姿数据,以及各个AR设备发送的针对该虚拟作战飞船的操作数据,生成针对该AR设备的至少一个虚拟操作对象的融合展示数据,这样在将该融合展示数据发送给该AR设备时,用户可以通过该AR设备看到与自己匹配的虚拟操作对象,以及和该AR设备关联的其它AR设备匹配的虚拟操作对象,比如可以看到其它用户的作战飞船,通过该方式可以实现多人互动结果,使得AR场景内容更加逼真。
在一种可能的实施方式中,所述基于每个AR设备拍摄的所述现实场景图像,确定该AR设备在所述目标现实场景中的位姿数据,包括:
基于每个AR设备拍摄的所述现实场景图像,以及预先建立的用于表征所述目标现实场景的三维场景模型,确定该AR设备在所述目标现实场景中的位姿数据。
在一种可能的实施方式中,所述针对每个AR设备,基于该AR设备的位姿数据、以及各个AR设备发送的操作数据,生成针对该AR设备的至少一个虚拟操作对象的融合展示数据,包括:
基于各个AR设备发送的操作数据,确定所述至少一个虚拟操作对象在用于表征所述目标现实场景的三维场景模型中的融合特效数据;
针对每个AR设备,基于该AR设备的位姿数据,以及所述至少一个虚拟操作对象对应的融合特效数据,确定针对该AR设备的至少一个虚拟操作对象的融合展示数据。
在一种可能的实施方式中,按照以下方式预先构建所述三维场景模型:
获取所述目标现实场景对应的多张现实场景图像;
基于所述多张现实场景图像,生成所述目标现实场景对应的初始三维场景模型;
基于所述目标现实场景对应的真实二维地图,对所述初始三维场景模型进行调整,得到调整后的三维场景模型;其中,在所述真实二维地图和调整后的三维场景模型中的各个场景对象之间的尺寸比例关系,与在所述目标现实场景的真实场景中各个场景对象之间的尺寸比例关系一致。
在一种可能的实施方式中,所述基于所述多张现实场景图像,生成所述目标现实场景对应的初始三维场景模型,包括:
从获取的每张现实场景图像中提取多个特征点;
基于提取的多个特征点,以及预存的与所述目标现实场景匹配的三维样本图,生成所述初始三维场景模型;其中,所述三维样本图为预存储的表征所述目标现实场景形貌特征的三维图。
在一种可能的实施方式中,所述基于所述目标现实场景对应的真实二维地图,对所述初始三维场景模型进行调整,得到调整后的三维场景模型,得到调整后的三维场景模型,包括:
在所述目标现实场景对应的初始三维场景模型中提取用于表征所述目标现实场景多个空间位置点的目标特征点;
确定所述目标特征点在所述目标现实场景对应的真实二维地图中的真实坐标数据,并基于每个目标特征点对应的真实坐标数据,调整所述初始三维场景模型中各个特征点的坐标数据。
本公开实施例中,通过真实二维地图,对所述初始三维场景模型进行调整,能够得到准确度较高的三维场景模型。
第二方面,本公开实施例提供了一种数据展示装置,包括:
获取模块,用于实时获取关联AR设备组中每个AR设备拍摄目标现实场景的现实场景图像,以及该AR设备发送的针对匹配的虚拟操作对象的操作数据;
确定模块,用于基于每个AR设备拍摄的所述现实场景图像,确定该AR设备在所述目标现实场景中的位姿数据;
生成模块,用于针对每个AR设备,基于该AR设备的位姿数据、以及各个AR设备发送的操作数据,生成针对该AR设备的至少一个虚拟操作对象的融合展示数据,并将该融合展示数据发送至该AR设备进行展示。
在一种可能的实施方式中,所述确定模块在用于基于每个AR设备拍摄的所述现实场景图像,确定该AR设备在所述目标现实场景中的位姿数据,包括:
基于每个AR设备拍摄的所述现实场景图像,以及预先建立的用于表征所述目标现实场景的三维场景模型,确定该AR设备在所述目标现实场景中的位姿数据。
在一种可能的实施方式中,所述生成模块在用于针对每个AR设备,基于该AR设备的位姿数据、以及各个AR设备发送的操作数据,生成针对该AR设备的至少一个虚拟操作对象的融合展示数据时,包括:
基于各个AR设备发送的操作数据,确定所述至少一个虚拟操作对象在用于表征所述目标现实场景的三维场景模型中的融合特效数据;
针对每个AR设备,基于该AR设备的位姿数据,以及所述至少一个虚拟操作对象对应的融合特效数据,确定针对该AR设备的至少一个虚拟操作对象的融合展示数据。
在一种可能的实施方式中,所述数据展示装置还包括模型构建模块,所述模型构建模块用于按照以下方式预先构建所述三维场景模型:
获取所述目标现实场景对应的多张现实场景图像;
基于所述多张现实场景图像,生成所述目标现实场景对应的初始三维场景模型;
基于所述目标现实场景对应的真实二维地图,对所述初始三维场景模型进行调整,得到调整后的三维场景模型;其中,在所述真实二维地图和调整后的三维场景模型中的各个场景对象之间的尺寸比例关系,与在所述目标现实场景的真实场景中各个场景对象之间的尺寸比例关系一致。
在一种可能的实施方式中,所述模型构建模块在用于基于所述多张现实场景图像,生成所述目标现实场景对应的初始三维场景模型时,包括:
从获取的每张现实场景图像中提取多个特征点;
基于提取的多个特征点,以及预存的与所述目标现实场景匹配的三维样本图,生成所述初始三维场景模型;其中,所述三维样本图为预存储的表征所述目标现实场景形貌特征的三维图。
在一种可能的实施方式中,所述模型构建模块在用于基于所述目标现实场景对应的真实二维地图,对所述初始三维场景模型进行调整,得到调整后的三维场景模型,得到调整后的三维场景模型时,包括:
在所述目标现实场景对应的初始三维场景模型中提取用于表征所述目标现实场景多个空间位置点的目标特征点;
确定所述目标特征点在所述目标现实场景对应的真实二维地图中的真实坐标数据,并基于每个目标特征点对应的真实坐标数据,调整所述初始三维场景模型中各个特征点的坐标数据。
第三方面,本公开实施例提供了一种电子设备,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储器之间通过总线通信,所述机器可读指令被所述处理器执行时执行如第一方面所述的数据展示方法的步骤。
第四方面,本公开实施例提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行如第一方面所述的数据展示方法的步骤。
为使本公开的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本公开实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,此处的附图被并入说明书中并构成本说明书中的一部分,这些附图示出了符合本公开的实施例,并与说明书一起用于说明本公开的技术方案。应当理解,以下附图仅示出了本公开的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出了本公开实施例所提供的一种数据展示方法的流程图;
图2示出了本公开实施例所提供的一种生成融合展示数据的方法流程图;
图3示出了本公开实施例所提供的一种构建三维场景模型的方法流程图;
图4示出了本公开实施例所提供的一种数据展示装置的示意图;
图5示出了本公开实施例所提供的电子设备的示意图。
具体实施方式
为使本公开实施例的目的、技术方案和优点更加清楚,下面将结合本公开实施例中附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本公开实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本公开的实施例的详细描述并非旨在限制要求保护的本公开的范围,而是仅仅表示本公开的选定实施例。基于本公开的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本公开保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
增强现实技术的兴起,将虚拟操作对象和现实场景的进行结合,带给用户全新体验,以游戏类展览馆为例,用户可以通过AR技术体验虚拟操作对象和现实场景结合带来的震撼效果,但是针对一些团体游戏,如何能够体验多人互动的场景画面,使得场景内容更加逼真,为本公开要研究的问题。
基于上述研究,本公开提供了一种数据展示方法,可以通过关联AR设备组中每个AR设备拍摄的现实场景图像,确定每个AR设备对应的位姿数据,然后根据每个AR设备的位姿数据,以及各个AR设备发送的操作数据,可以确定针对该AR设备的至少一个虚拟操作对象的融合展示数据,示例性地,以AR设备匹配的虚拟操作对象为虚拟作战飞船为例,针对每个AR设备,可以根据该AR设备的位姿数据,以及各个AR设备发送的针对该虚拟作战飞船的操作数据,生成针对该AR设备的至少一个虚拟操作对象的融合展示数据,这样在将该融合展示数据发送给该AR设备时,用户可以通过该AR设备看到与自己匹配的虚拟操作对象,以及和该AR设备关联的其它AR设备匹配的虚拟操作对象,比如可以看到其它用户的作战飞船,通过该方式可以实现多人互动结果,使得AR场景内容更加逼真。
为便于对本实施例进行理解,首先对本公开实施例所公开的一种数据展示方法进行详细介绍,本公开实施例所提供的数据展示方法的执行主体一般为具有一定计算能力的计算机设备,该计算机设备例如包括:终端设备或服务器或其它处理设备。在一些可能的实现方式中,该数据展示方法可以通过处理器调用存储器中存储的计算机可读指令的方式来实现。
参见图1所示,为本公开实施例提供的数据展示方法的流程图,本公开以执行主体为服务器为例进行说明,该数据展示方法包括以下S101~S104:
S101,实时获取关联AR设备组中每个AR设备拍摄目标现实场景的现实场景图像,以及该AR设备发送的针对匹配的虚拟操作对象的操作数据。
其中,AR设备包括AR眼镜、智能手机、平板等,在此不进行具体限定。
示例性地,关联AR设备组中每个AR设备可以共同体验同一个AR场景内容,在应用场景中,这些AR设备可以选择相同的AR体验包进入多人互动AR场景,比如,针对游戏类的AR场景,每个AR设备可以通过登录AR游戏账号,进入同一个AR房间体验AR场景,这样,进入相同的AR房间的AR设备可以作为关联AR设备组。
关联AR设备组中各个AR设备登录AR账号后,可以实时拍摄目标现实场景图像,并将该目标现实场景图像发送至服务器,方便服务器基于该目标现实场景图像确定各个AR设备在目标现实场景中的位姿数据。
示例性地,每个AR设备匹配的虚拟操作对象可以是在该AR设备在登录AR账号后选择的待进行操控的虚拟操作对象,比如以AR场景为飞船大战场景为例,这里每个AR设备在登录AR账号后,可以选择要操控的虚拟作战飞船,比如可以选择匹配的虚拟作战飞船的编号,这样AR设备在进行AR体验过程中可以向服务器发送针对匹配编号的虚拟作战飞船的操作数据。
具体地,操作数据可以包括用于指示虚拟操作对象的位姿变化的数据、特效状态变化的数据等,比如针对虚拟作战飞船的操作数据,通过针对该虚拟作战飞船的操作数据,服务器可以确定该虚拟作战飞船在表征目标现实场景中的三维场景模型中特效数据,具体可以包括位姿数据以及状态数据。
S102,基于每个AR设备拍摄的现实场景图像,确定该AR设备在目标现实场景中的位姿数据。
服务器在接收到每个AR设备拍摄的现实场景图像后,可以基于每个AR设备对应的现实场景图像确定该AR设备在目标现实场景中的位姿数据。
示例性地,AR设备在目标现实场景中的位姿数据可以包括用户手持或佩戴AR设备时,用于显示虚拟操作对象的显示部件所在的位置和/或显示角度。
其中,AR设备的显示部件具体指该AR设备中用于显示虚拟操作对象的部件,示例性地,AR设备为手机或者平板时,对应的显示部件可以为显示屏,当AR设备为AR眼镜时,对应的显示部件可以为用于显示虚拟操作对象的镜片。
S103,针对每个AR设备,基于该AR设备的位姿数据、以及各个AR设备发送的操作数据,生成针对该AR设备的至少一个虚拟操作对象的融合展示数据,并将该融合展示数据发送至该AR设备进行展示。
每个AR设备在目标现实场景中的位姿数据不同,因此通过该AR设备针对目标现实场景的观看视野也不同,每个用户通过各自的AR设备观看到的虚拟操作对象的呈现特效也可能不同。
示例性地,关联AR设备组中可以包含第一AR设备和第二AR设备,分别由用户A和用户B携带,当用户A和用户B可以通过各自携带的AR设备看到相同的虚拟操作对象,比如看到虚拟操作对象虚拟作战飞船,不同的是,当第一AR设备和第二AR设备的位姿数据不同时,用户A和用户B看到的虚拟作战飞船的视角不同,比如用户A看到虚拟作战飞船的头部,而用户B看到虚拟作战飞船的尾部。
本公开实施例中,可以根据该AR设备的位姿数据,以及各个AR设备发送的针对该虚拟作战飞船的操作数据,生成针对该AR设备的至少一个虚拟操作对象的融合展示数据,这样在将该融合展示数据发送给该AR设备时,用户可以通过该AR设备看到与自己匹配的虚拟操作对象,以及和该AR设备关联的其它AR设备匹配的虚拟操作对象,比如可以看到其它用户的作战飞船,通过该方式可以实现多人互动结果,使得AR场景内容更加逼真。
下面将结合具体实施例对上述S101~S103进行阐述。
针对上述S102,在基于每个AR设备拍摄的现实场景图像,确定该AR设备在目标现实场景中的位姿数据时,可以包括:
基于每个AR设备拍摄的现实场景图像,以及预先建立的用于表征目标现实场景的三维场景模型,确定该AR设备在目标现实场景中的位姿数据。
示例性地,三维场景模型可以基于预先拍摄的该目标现实场景的多张样本图像来构建,具体在构建时,可以通过提取每张样本图像中的特征点进行构建,在生成三维场景模型后,可以保存三维场景模型中每个特征点对应的样本图像,以及该样本图像在该三维场景模型中对应的拍摄位姿,这样在获取到AR设备拍摄的该目标现实场景的现实场景图像后,可以对该现实场景图像进行特征点提取,基于提取的特征点确定与该现实场景图像匹配的样本图像,最终得到AR设备在该三维场景模型中的位姿数据。
因为该三维场景模型为表征该目标现实场景的模型,因此可以将AR设备在三维场景模型中的位姿数据作为AR设备在目标现实场景中的位姿数据。
具体地,基于每个AR设备拍摄的现实场景图像,以及预先建立的用于表征目标现实场景的三维场景模型,确定该AR设备在目标现实场景中的位姿数据时,可以包括:
(1)对该AR设备拍摄的现实场景图像进行特征点提取,得到待匹配特征点;
(2)基于提取的待匹配特征点确定预先存储的样本图库中与现实场景图像匹配的目标样本图像;样本图像库包括预先拍摄目标现实场景得到的样本图像,以及每张样本图像在三维场景模型中对应的位姿数据;
(3)将目标样本图像在三维场景模型中的位姿数据,作为AR设备在目标现实场景中的位姿数据。
示例性地,在获取到该AR设备拍摄的现实场景图像后,提取该现实场景图像中的待匹配特征点,然后将该待匹配特征点与预先存储的样本图库中每种样本图像的特征点进行比对,确定出样本图库中与现实场景图像匹配的目标样本图片,比如可以基于现实场景图像的待匹配特征点的特征信息每张样本图像的特征点的特征信息,确定该现实场景图像和每张样本图像的相似度值,将相似度值最高且超过相似度阈值的样本图像作为这里的目标样本图像。
在确定出目标样本图像后,将该目标样本图像在该三维场景模型中的位姿数据作为这里现实场景图像对应的位姿数据。
在另一种实施方式中,还可以将AR设备拍摄的现实场景图像输入预先存储的用于定位的神经网络模型,来确定拍摄该现实场景图像的AR设备对应的位姿数据。
具体地,该神经网络可以基于预先拍摄现实场景得到的多张样本图像,和与每张样本图像对应的位姿数据,训练得到。
本公开实施例通过确定三维场景模型来确定AR设备在目标现实场景中的位姿数据,通过该方式,可以确定关联AR设备组中的各个AR设备在目标现实场景下的位姿数据,这样确定各个AR设备在相同坐标系下的位姿数据,比如在目标现实场景对应的世界坐标系下的位姿数据,可以便于对各个AR设备展示多人互动的场景。
针对上述S103,在针对每个AR设备,基于该AR设备的位姿数据、以及各个AR设备发送的操作数据,生成针对该AR设备的至少一个虚拟操作对象的融合展示数据时,如图2所示,可以包括以下S201~S202:
S201,基于各个AR设备发送的操作数据,确定至少一个虚拟操作对象在用于表征目标现实场景的三维场景模型中的融合特效数据;
S202,针对每个AR设备,基于该AR设备的位姿数据,以及至少一个虚拟操作对象对应的融合特效数据,确定针对该AR设备的至少一个虚拟操作对象的融合展示数据。
基于各个AR设备发送的操作数据,可以确定各个AR设备匹配的虚拟操作对象在目标现实场景中的特效数据,对这些虚拟操作对象的特效数据进行融合,即可以得到至少一个虚拟操作对象在三维场景模型中的融合特效数据。
示例性地,比如关联AR设备组中包括第一AR设备和第二AR设备,接收到第一AR设备发送的针对虚拟操作对象A的操作数据指示虚拟操作对象A展示在三维场景模型中的A位置,接收到第二AR设备发送的针对虚拟操作对象B的操作数据指示虚拟操作对象B展示在三维场景模型中的B位置,然后对虚拟操作对象A和虚拟操作对象B各自的特效数据进行融合后,得到的融合特效数据包括A位置的虚拟操作对象A,以及B位置的虚拟操作对象B。
进一步地,针对第一AR设备,可以根据该第一AR设备在目标现实场景中的位姿数据,以及三维场景模型中虚拟操作对象A和虚拟操作对象B的展示位置,确定虚拟操作对象A和虚拟操作对象B针对该第一AR设备的融合展示数据,比如第一AR设备位于目标现实场景中的东面,虚拟操作对象A朝向东面,虚拟操作对象B朝向西面,则该融合展示数据为虚拟操作对象A朝向该第一AR设备,虚拟操作对象B背向该第一AR设备。
针对上文多次提到的三维场景模型,如图3所示,按照以下方式预先构,具体包括以下S301~S303:
S301,获取目标现实场景对应的多张现实场景图像;
S302,基于多张现实场景图像,生成目标现实场景对应的初始三维场景模型;
S303,基于目标现实场景对应的真实二维地图,对初始三维场景模型进行调整,得到调整后的三维场景模型。
其中,在真实二维地图和调整后的三维场景模型中的各个场景对象之间的尺寸比例关系,与在目标现实场景的真实场景中各个场景对象之间的尺寸比例关系一致。
生成的初始三维模型可能会存在失真现象,然后通过真实二维地图对其进行调整,可以得到准确度较高的三维场景模型,从而能够准确的表征目标现实场景。
针对S302,在基于多张现实场景图像,生成目标现实场景对应的初始三维场景模型时,包括:
(1)从获取的每张现实场景图像中提取多个特征点;
(2)基于提取的多个特征点,以及预存的与目标现实场景匹配的三维样本图,生成初始三维场景模型;其中,三维样本图为预存储的表征目标现实场景形貌特征的三维图。
具体地,针对每张现实场景图像提取的特征点可以为能够表征该张现实场景图像关键信息的点,比如针对包含建筑物的现实场景图像,这里的特征点可以表示该建筑物轮廓信息的特征点。
示例性地,这里预存的与目标现实场景匹配的三维样本图可以包括提前设置好的能够表征该目标现实场景形貌特征、且带有尺寸标注的三维图,比如可以是表征该目标现实场景形貌特征的计算机辅助设计(Computer Aided Design,CAD)三维图。
针对该目标现实场景,当提取的特征点足够多时,特征点构成的特征点云,即可以构成表征该目标现实场景的三维模型,这里的特征点云中的特征点是没有单位的,特征点云构成的三维模型也是没有单位的,然后将该特征点云与带有尺度标注的且能够表征该目标现实场景形貌特征的三维图对齐后,即得到该目标现实场景对应的初始三维场景模型。
针对S303,在基于目标现实场景对应的真实二维地图,对初始三维场景模型进行调整,得到调整后的三维场景模型,得到调整后的三维场景模型时,包括:
(1)在目标现实场景对应的初始三维场景模型中提取用于表征目标现实场景多个空间位置点的目标特征点;
(2)确定目标特征点在目标现实场景对应的真实二维地图中的真实坐标数据,并基于每个目标特征点对应的真实坐标数据,调整初始三维场景模型中各个特征点的坐标数据。
示例性地,可以选择一些表征建筑物边缘、角落的空间位置点的特征点作为这里的目标特征点,然后基于目标特征点对应的真实坐标数据以及该目标特征点在初始三维场景模型中的坐标数据,确定坐标调整量,然后基于该坐标调整量对初始三维模型中各个特征点的坐标数据进行修正,即可以得到准确度较高的三维场景模型。
本领域技术人员可以理解,在具体实施方式的上述方法中,各步骤的撰写顺序并不意味着严格的执行顺序而对实施过程构成任何限定,各步骤的具体执行顺序应当以其功能和可能的内在逻辑确定。
本领域技术人员可以理解,在具体实施方式的上述方法中,各步骤的撰写顺序并不意味着严格的执行顺序而对实施过程构成任何限定,各步骤的具体执行顺序应当以其功能和可能的内在逻辑确定。
基于同一技术构思,本公开实施例中还提供了与数据展示方法对应的数据展示装置,由于本公开实施例中的装置解决问题的原理与本公开实施例上述数据展示方法相似,因此装置的实施可以参见方法的实施,重复之处不再赘述。
参照图4所示,为本公开实施例提供的一种数据展示装置400的示意图,该数据展示装置包括:
获取模块401,用于实时获取关联AR设备组中每个AR设备拍摄目标现实场景的现实场景图像,以及该AR设备发送的针对匹配的操作虚拟操作对象的操作数据;
确定模块402,用于基于每个AR设备拍摄的现实场景图像,确定该AR设备在目标现实场景中的位姿数据;
生成模块403,用于针对每个AR设备,基于该AR设备的位姿数据、以及各个AR设备发送的操作数据,生成针对该AR设备的至少一个虚拟操作对象的融合展示数据,并将该融合展示数据发送至该AR设备进行展示。
在一种可能的实施方式中,确定模块402在用于基于每个AR设备拍摄的现实场景图像,确定该AR设备在目标现实场景中的位姿数据,包括:
基于每个AR设备拍摄的现实场景图像,以及预先建立的用于表征目标现实场景的三维场景模型,确定该AR设备在目标现实场景中的位姿数据。
在一种可能的实施方式中,生成模块403在用于针对每个AR设备,基于该AR设备的位姿数据、以及各个AR设备发送的操作数据,生成针对该AR设备的至少一个虚拟操作对象的融合展示数据时,包括:
基于各个AR设备发送的操作数据,确定至少一个虚拟操作对象在用于表征目标现实场景的三维场景模型中的融合特效数据;
针对每个AR设备,基于该AR设备的位姿数据,以及至少一个虚拟操作对象对应的融合特效数据,确定针对该AR设备的至少一个虚拟操作对象的融合展示数据。
在一种可能的实施方式中,数据展示装置400还包括模型构建模块404,模型构建模块用于按照以下方式预先构建三维场景模型:
获取目标现实场景对应的多张现实场景图像;
基于多张现实场景图像,生成目标现实场景对应的初始三维场景模型;
基于目标现实场景对应的真实二维地图,对初始三维场景模型进行调整,得到调整后的三维场景模型;其中,在真实二维地图和调整后的三维场景模型中的各个场景对象之间的尺寸比例关系,与在目标现实场景的真实场景中各个场景对象之间的尺寸比例关系一致。
在一种可能的实施方式中,模型构建模块404在用于基于多张现实场景图像,生成目标现实场景对应的初始三维场景模型时,包括:
从获取的每张现实场景图像中提取多个特征点;
基于提取的多个特征点,以及预存的与目标现实场景匹配的三维样本图,生成初始三维场景模型;其中,三维样本图为预存储的表征目标现实场景形貌特征的三维图。
在一种可能的实施方式中,模型构建模块404在用于基于目标现实场景对应的真实二维地图,对初始三维场景模型进行调整,得到调整后的三维场景模型,得到调整后的三维场景模型时,包括:
在目标现实场景对应的初始三维场景模型中提取用于表征目标现实场景多个空间位置点的目标特征点;
确定目标特征点在目标现实场景对应的真实二维地图中的真实坐标数据,并基于每个目标特征点对应的真实坐标数据,调整初始三维场景模型中各个特征点的坐标数据。
关于装置中的各模块的处理流程、以及各模块之间的交互流程的描述可以参照上述方法实施例中的相关说明,这里不再详述。
对应于图1中的数据展示方法,本公开实施例还提供了一种电子设备500,如图5所示,为本公开实施例提供的电子设备500结构示意图,包括:
处理器51、存储器52、和总线53;存储器52用于存储执行指令,包括内存521和外部存储器522;这里的内存521也称内存储器,用于暂时存放处理器51中的运算数据,以及与硬盘等外部存储器522交换的数据,处理器51通过内存521与外部存储器522进行数据交换,当电子设备500运行时,处理器51与存储器52之间通过总线53通信,使得处理器51执行以下指令:实时获取关联AR设备组中每个AR设备拍摄目标现实场景的现实场景图像,以及该AR设备发送的操作数据;基于每个AR设备拍摄的现实场景图像,确定该AR设备在目标现实场景中的位姿数据;针对每个AR设备,基于该AR设备的位姿数据、以及各个AR设备发送的操作数据,生成针对该AR设备的融合展示数据,并将该融合展示数据发送至该AR设备进行展示。
本公开实施例还提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行上述方法实施例中所述的数据展示方法的步骤。其中,该存储介质可以是易失性或非易失的计算机可读取存储介质。
本公开实施例所提供的数据展示方法的计算机程序产品,包括存储了程序代码的计算机可读存储介质,所述程序代码包括的指令可用于执行上述方法实施例中所述的数据展示方法的步骤,具体可参见上述方法实施例,在此不再赘述。
本公开实施例还提供一种计算机程序,该计算机程序被处理器执行时实现前述实施例的任意一种方法。该计算机程序产品可以具体通过硬件、软件或其结合的方式实现。在一个可选实施例中,所述计算机程序产品具体体现为计算机存储介质,在另一个可选实施例中,计算机程序产品具体体现为软件产品,例如软件开发包(Software DevelopmentKit,SDK)等等。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统和装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。在本公开所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本公开各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个处理器可执行的非易失的计算机可读取存储介质中。基于这样的理解,本公开的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本公开各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上所述实施例,仅为本公开的具体实施方式,用以说明本公开的技术方案,而非对其限制,本公开的保护范围并不局限于此,尽管参照前述实施例对本公开进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本公开揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本公开实施例技术方案的精神和范围,都应涵盖在本公开的保护范围之内。因此,本公开的保护范围应所述以权利要求的保护范围为准。

Claims (10)

1.一种数据展示方法,其特征在于,包括:
实时获取关联AR设备组中每个AR设备拍摄目标现实场景的现实场景图像,以及该AR设备发送的针对匹配的虚拟操作对象的操作数据;
基于每个AR设备拍摄的所述现实场景图像,确定该AR设备在所述目标现实场景中的位姿数据;
针对每个AR设备,基于该AR设备的位姿数据、以及各个AR设备发送的操作数据,生成针对该AR设备的至少一个虚拟操作对象的融合展示数据,并将该融合展示数据发送至该AR设备进行展示。
2.根据权利要求1所述的数据展示方法,其特征在于,所述基于每个AR设备拍摄的所述现实场景图像,确定该AR设备在所述目标现实场景中的位姿数据,包括:
基于每个AR设备拍摄的所述现实场景图像,以及预先建立的用于表征所述目标现实场景的三维场景模型,确定该AR设备在所述目标现实场景中的位姿数据。
3.根据权利要求1或2所述的数据展示方法,其特征在于,针对每个AR设备,基于该AR设备的位姿数据、以及各个AR设备发送的操作数据,生成针对该AR设备的至少一个虚拟操作对象的融合展示数据,包括:
基于各个AR设备发送的操作数据,确定所述至少一个虚拟操作对象在用于表征所述目标现实场景的三维场景模型中的融合特效数据;
针对每个AR设备,基于该AR设备的位姿数据,以及所述至少一个虚拟操作对象对应的融合特效数据,确定针对该AR设备的至少一个虚拟操作对象的融合展示数据。
4.根据权利要求2或3所述的数据展示方法,其特征在于,按照以下方式预先构建所述三维场景模型:
获取所述目标现实场景对应的多张现实场景图像;
基于所述多张现实场景图像,生成所述目标现实场景对应的初始三维场景模型;
基于所述目标现实场景对应的真实二维地图,对所述初始三维场景模型进行调整,得到调整后的三维场景模型;其中,在所述真实二维地图和调整后的三维场景模型中的各个场景对象之间的尺寸比例关系,与在所述目标现实场景的真实场景中各个场景对象之间的尺寸比例关系一致。
5.根据权利要求4所述的数据展示方法,其特征在于,所述基于所述多张现实场景图像,生成所述目标现实场景对应的初始三维场景模型,包括:
从获取的每张现实场景图像中提取多个特征点;
基于提取的多个特征点,以及预存的与所述目标现实场景匹配的三维样本图,生成所述初始三维场景模型;其中,所述三维样本图为预存储的表征所述目标现实场景形貌特征的三维图。
6.根据权利要求4或5所述的数据展示方法,其特征在于,所述基于所述目标现实场景对应的真实二维地图,对所述初始三维场景模型进行调整,得到调整后的三维场景模型,得到调整后的三维场景模型,包括:
在所述目标现实场景对应的初始三维场景模型中提取用于表征所述目标现实场景多个空间位置点的目标特征点;
确定所述目标特征点在所述目标现实场景对应的真实二维地图中的真实坐标数据,并基于每个目标特征点对应的真实坐标数据,调整所述初始三维场景模型中各个特征点的坐标数据。
7.一种数据展示装置,其特征在于,包括:
获取模块,用于实时获取关联AR设备组中每个AR设备拍摄目标现实场景的现实场景图像,以及该AR设备发送的针对匹配的虚拟操作对象的操作数据;
确定模块,用于基于每个AR设备拍摄的所述现实场景图像,确定该AR设备在所述目标现实场景中的位姿数据;
生成模块,用于针对每个AR设备,基于该AR设备的位姿数据、以及各个AR设备发送的操作数据,生成针对该AR设备的至少一个虚拟操作对象的融合展示数据,并将该融合展示数据发送至该AR设备进行展示。
8.根据权利要求7所述的数据展示装置,其特征在于,所述确定模块在用于基于每个AR设备拍摄的所述现实场景图像,确定该AR设备在所述目标现实场景中的位姿数据,包括:
基于每个AR设备拍摄的所述现实场景图像,以及预先建立的用于表征所述目标现实场景的三维场景模型,确定该AR设备在所述目标现实场景中的位姿数据。
9.一种电子设备,其特征在于,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储器之间通过总线通信,所述机器可读指令被所述处理器执行时执行如权利要求1至6任一所述的数据展示方法的步骤。
10.一种计算机可读存储介质,其特征在于,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行如权利要求1至6任一所述的数据展示方法的步骤。
CN202010530463.4A 2020-06-11 2020-06-11 一种数据展示方法、装置、电子设备及存储介质 Pending CN111651057A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010530463.4A CN111651057A (zh) 2020-06-11 2020-06-11 一种数据展示方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010530463.4A CN111651057A (zh) 2020-06-11 2020-06-11 一种数据展示方法、装置、电子设备及存储介质

Publications (1)

Publication Number Publication Date
CN111651057A true CN111651057A (zh) 2020-09-11

Family

ID=72345899

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010530463.4A Pending CN111651057A (zh) 2020-06-11 2020-06-11 一种数据展示方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN111651057A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112181141A (zh) * 2020-09-23 2021-01-05 北京市商汤科技开发有限公司 Ar定位的方法、装置、电子设备及存储介质
CN112650422A (zh) * 2020-12-17 2021-04-13 咪咕文化科技有限公司 设备的ar交互方法、装置、电子设备及存储介质
CN112732140A (zh) * 2021-01-12 2021-04-30 北京市商汤科技开发有限公司 资源处理方法、装置、电子设备及存储介质
CN112950790A (zh) * 2021-02-05 2021-06-11 深圳市慧鲤科技有限公司 路线导航方法、装置、电子设备及存储介质
CN112991514A (zh) * 2021-02-26 2021-06-18 北京市商汤科技开发有限公司 Ar数据展示方法、装置、电子设备及存储介质

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107797665A (zh) * 2017-11-15 2018-03-13 王思颖 一种基于增强现实的三维数字沙盘推演方法及其系统
US10109113B2 (en) * 2015-10-22 2018-10-23 Shandong University Pattern and method of virtual reality system based on mobile devices
WO2019019248A1 (zh) * 2017-07-28 2019-01-31 深圳市瑞立视多媒体科技有限公司 一种虚拟现实交互方法、装置及系统
CN110365666A (zh) * 2019-07-01 2019-10-22 中国电子科技集团公司第十五研究所 军事领域基于增强现实的多端融合协同指挥系统
CN110533780A (zh) * 2019-08-28 2019-12-03 深圳市商汤科技有限公司 一种图像处理方法及其装置、设备和存储介质
CN110568927A (zh) * 2019-08-30 2019-12-13 深圳市商汤科技有限公司 增强现实的信息交互方法、装置、电子设备和存储介质
CN110673732A (zh) * 2019-09-27 2020-01-10 深圳市商汤科技有限公司 场景共享方法及装置、系统、电子设备和存储介质
CN110716645A (zh) * 2019-10-15 2020-01-21 北京市商汤科技开发有限公司 一种增强现实数据呈现方法、装置、电子设备及存储介质
CN110738737A (zh) * 2019-10-15 2020-01-31 北京市商汤科技开发有限公司 一种ar场景图像处理方法、装置、电子设备及存储介质
CN111161422A (zh) * 2019-12-13 2020-05-15 广东电网有限责任公司 一种用于增强虚拟场景实现的模型展示方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10109113B2 (en) * 2015-10-22 2018-10-23 Shandong University Pattern and method of virtual reality system based on mobile devices
WO2019019248A1 (zh) * 2017-07-28 2019-01-31 深圳市瑞立视多媒体科技有限公司 一种虚拟现实交互方法、装置及系统
CN107797665A (zh) * 2017-11-15 2018-03-13 王思颖 一种基于增强现实的三维数字沙盘推演方法及其系统
CN110365666A (zh) * 2019-07-01 2019-10-22 中国电子科技集团公司第十五研究所 军事领域基于增强现实的多端融合协同指挥系统
CN110533780A (zh) * 2019-08-28 2019-12-03 深圳市商汤科技有限公司 一种图像处理方法及其装置、设备和存储介质
CN110568927A (zh) * 2019-08-30 2019-12-13 深圳市商汤科技有限公司 增强现实的信息交互方法、装置、电子设备和存储介质
CN110673732A (zh) * 2019-09-27 2020-01-10 深圳市商汤科技有限公司 场景共享方法及装置、系统、电子设备和存储介质
CN110716645A (zh) * 2019-10-15 2020-01-21 北京市商汤科技开发有限公司 一种增强现实数据呈现方法、装置、电子设备及存储介质
CN110738737A (zh) * 2019-10-15 2020-01-31 北京市商汤科技开发有限公司 一种ar场景图像处理方法、装置、电子设备及存储介质
CN111161422A (zh) * 2019-12-13 2020-05-15 广东电网有限责任公司 一种用于增强虚拟场景实现的模型展示方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112181141A (zh) * 2020-09-23 2021-01-05 北京市商汤科技开发有限公司 Ar定位的方法、装置、电子设备及存储介质
CN112181141B (zh) * 2020-09-23 2023-06-23 北京市商汤科技开发有限公司 Ar定位的方法、装置、电子设备及存储介质
CN112650422A (zh) * 2020-12-17 2021-04-13 咪咕文化科技有限公司 设备的ar交互方法、装置、电子设备及存储介质
CN112732140A (zh) * 2021-01-12 2021-04-30 北京市商汤科技开发有限公司 资源处理方法、装置、电子设备及存储介质
CN112950790A (zh) * 2021-02-05 2021-06-11 深圳市慧鲤科技有限公司 路线导航方法、装置、电子设备及存储介质
CN112991514A (zh) * 2021-02-26 2021-06-18 北京市商汤科技开发有限公司 Ar数据展示方法、装置、电子设备及存储介质

Similar Documents

Publication Publication Date Title
CN111638793B (zh) 飞行器的展示方法、装置、电子设备及存储介质
CN111651057A (zh) 一种数据展示方法、装置、电子设备及存储介质
CN112348969A (zh) 增强现实场景下的展示方法、装置、电子设备及存储介质
CN112148197A (zh) 增强现实ar交互方法、装置、电子设备及存储介质
CN111694430A (zh) 一种ar场景画面呈现方法、装置、电子设备和存储介质
CN111880657A (zh) 一种虚拟对象的控制方法、装置、电子设备及存储介质
CN112148189A (zh) 一种ar场景下的交互方法、装置、电子设备及存储介质
CN111640197A (zh) 一种增强现实ar特效控制方法、装置及设备
JP2022505998A (ja) 拡張現実データの提示方法、装置、電子機器及び記憶媒体
CN112348968B (zh) 增强现实场景下的展示方法、装置、电子设备及存储介质
CN111882674A (zh) 虚拟对象的调整方法、装置、电子设备及存储介质
CN111617471A (zh) 虚拟射击的展示方法、装置、电子设备及存储介质
CN111638797A (zh) 一种展示控制方法及装置
CN111652987A (zh) 一种ar合影图像生成的方法及装置
CN112882576B (zh) Ar交互方法、装置、电子设备及存储介质
CN112637665B (zh) 增强现实场景下的展示方法、装置、电子设备及存储介质
KR20110110379A (ko) 카메라를 이용한 카드 게임 시스템
CN111651051A (zh) 一种虚拟沙盘展示方法及装置
CN111653175B (zh) 一种虚拟沙盘展示方法及装置
CN112905014A (zh) Ar场景下的交互方法、装置、电子设备及存储介质
CN111632377A (zh) 射击轨迹的展示方法、装置、电子设备及存储介质
CN111651058A (zh) 历史场景的控制展示方法、装置、电子设备及存储介质
CN111652971A (zh) 一种显示控制方法及装置
CN111639613A (zh) 一种增强现实ar特效生成方法、装置及电子设备
CN111569414B (zh) 虚拟飞行器的飞行展示方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination