CN111815781A - 增强现实数据呈现方法、装置、设备和计算机存储介质 - Google Patents

增强现实数据呈现方法、装置、设备和计算机存储介质 Download PDF

Info

Publication number
CN111815781A
CN111815781A CN202010617677.5A CN202010617677A CN111815781A CN 111815781 A CN111815781 A CN 111815781A CN 202010617677 A CN202010617677 A CN 202010617677A CN 111815781 A CN111815781 A CN 111815781A
Authority
CN
China
Prior art keywords
virtual
virtual object
target entity
determining
real scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010617677.5A
Other languages
English (en)
Inventor
侯欣如
王鼎禄
郑少林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sensetime Technology Development Co Ltd
Original Assignee
Beijing Sensetime Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sensetime Technology Development Co Ltd filed Critical Beijing Sensetime Technology Development Co Ltd
Priority to CN202010617677.5A priority Critical patent/CN111815781A/zh
Publication of CN111815781A publication Critical patent/CN111815781A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods

Abstract

本实施例公开了一种增强现实数据呈现方法、装置、设备和计算机存储介质,所述方法包括:获取现实场景图像;识别所述现实场景图像中的目标实体对象,得到所述目标实体对象的属性信息;根据所述目标实体对象的属性信息,确定虚拟对象的可渲染范围;根据所述虚拟对象的可渲染范围,确定所述虚拟对象的展示形式;根据所述虚拟对象的展示形式,在增强现实AR设备中展示包括所述虚拟对象的增强现实数据。

Description

增强现实数据呈现方法、装置、设备和计算机存储介质
技术领域
本公开涉及增强现实(Augmented Reality,AR)技术,涉及但不限于一种增强现实数据呈现方法、装置、电子设备和计算机存储介质。
背景技术
AR技术是一种实时地计算摄影机影像的位置及角度并加上相应图像的技术;AR技术,通过将实体信息通过模拟仿真后叠加到真实世界中,从而将真实的环境和虚拟对象实时地在同一个界面呈现。如何提高AR设备呈现的增强现实场景的效果,是亟待解决的技术问题。
发明内容
本公开实施例期望提供增强现实数据呈现的技术方案。
本公开实施例提供了一种增强现实数据呈现方法,所述方法包括:
获取现实场景图像;
识别所述现实场景图像中的目标实体对象,得到所述目标实体对象的属性信息;根据所述目标实体对象的属性信息,确定虚拟对象的可渲染范围
根据所述虚拟对象的可渲染范围,确定所述虚拟对象的展示形式;根据所述虚拟对象的展示形式,在增强现实AR设备中展示包括所述虚拟对象的增强现实数据。
如此,由于虚拟对象的展示形式是根据虚拟对象的可渲染范围确定的,因而,符合AR设备的展示需求,本公开实施例有利于提升AR设备呈现的增强现实场景的效果。
在本公开的一些实施例中,所述虚拟对象包括用于描述所述目标实体对象的虚拟标签;
所述根据所述虚拟对象的可渲染范围,确定所述虚拟对象的展示形式,包括:
根据所述虚拟标签的可渲染范围,确定以下至少一种展示形式:所述虚拟标签的展示区域的属性、所述虚拟标签中的字体的属性、所述虚拟标签的背景部分的透明度、所述虚拟标签中引导线的属性;所述引导线表示所述虚拟标签中标签内容呈现区域与目标实体对象之间的连线。
可以理解地,本公开实施例可以根据虚拟标签的可渲染范围,进一步确定虚拟标签的展示区域的属性、虚拟标签中的字体的属性、虚拟标签中的背景部分的透明度或虚拟标签中的引导线的属性,如此,有利于提升虚拟标签的展示效果。
在本公开的一些实施例中,所述根据所述虚拟对象的可渲染范围,确定所述虚拟对象的展示形式,包括:
根据所述虚拟对象的可渲染范围,所述虚拟标签的展示区域的属性;
所述虚拟标签的展示区域的属性包括以下至少一种:所述展示区域的大小、所述展示区域的形状、所述展示区域的位置。
可以理解地,本公开实施例可以根据虚拟对象的可渲染范围,进一步确定展示区域的大小、展示区域的形状、展示区域的位置,如此,有利于合理确定虚拟标签的展示区域,提升虚拟标签的展示效果。
在本公开的一些实施例中,所述根据所述虚拟对象的可渲染范围,确定所述虚拟对象的展示形式,包括:
根据所述虚拟对象的可渲染范围,确定所述虚拟标签中的字体的属性;
所述虚拟标签中的字体的属性包括以下至少一种:所述虚拟标签中的字体的大小、所述虚拟标签中的字体的颜色。
可以理解地,本公开实施例可以根据虚拟对象的可渲染范围,进一步确定虚拟标签中的字体的大小、所述虚拟标签中的字体的颜色,如此,有利于提升虚拟标签中字体的展示效果。
在本公开的一些实施例中,
所述根据所述虚拟对象的可渲染范围,确定所述虚拟对象的展示形式,包括:
根据所述虚拟对象的可渲染范围,确定所述虚拟标签中引导线的属性;
所述虚拟标签中引导线的属性包括以下至少一种:所述引导线与对应的目标实体对象的连接位置、所述引导线与所述标签内容呈现区域的相对位置、所述引导线的长度、所述引导线的颜色、所述引导线的样式。
可以理解地,本公开实施例可以根据虚拟对象的可渲染范围,进一步确定引导线与对应的目标实体对象的连接位置、引导线与标签内容呈现区域的相对位置、引导线的长度、引导线的颜色、引导线的样式,如此,有利于提升虚拟标签中引导线的展示效果。
在本公开的一些实施例中,所述方法还包括:
在确定多种展示形式的情况下,确定所述多种展示形式的优先级顺序;
所述根据所述虚拟对象的可渲染范围,确定所述虚拟对象的展示形式,包括:
根据所述虚拟对象的可渲染范围,并按照所述多种展示形式的优先级从高到低的顺序,依次确定所述多种展示形式。
可以理解地,本公开实施例中,可以根据多种展示形式的优先级顺序,灵活地确定出虚拟对象的展示形式;多种展示形式的优先级顺序可以根据实际需求设置,因而,本公开实施例可以实现按照实际需求展示虚拟对象,提升了虚拟对象的展示效果。
在本公开的一些实施例中,所述根据所述目标实体对象的属性信息,确定虚拟对象的可渲染范围,包括:
获取预设的虚拟对象的渲染参数,所述渲染参数包括:目标实体对象的属性信息与虚拟对象的可渲染范围的对应关系;
根据所述渲染参数和所述目标实体对象的属性信息,确定所述虚拟对象的可渲染范围。
可以看出,虚拟对象的可渲染范围是根据目标实体对象的属性信息得出的,而目标实体对象是现实场景中真实存在的对象,因而,本公开实施例可以按照实际应用场景准确地确定虚拟对象的可渲染范围。
在本公开的一些实施例中,所述识别所述现实场景图像中的目标实体对象,得到所述目标实体对象的属性信息,包括:
识别所述现实场景图像中的目标实体对象,得到以下至少一种属性信息:目标实体对象的类别、目标实体对象在现实场景图像中的尺寸、目标实体对象在现实场景图像中的位置、目标实体对象的颜色。
可以看出,虚拟对象的可渲染范围是根据目标实体对象的类别、目标实体对象在现实场景图像中的尺寸、目标实体对象在现实场景图像中的位置或目标实体对象的颜色得出的,而目标实体对象是现实场景中真实存在的对象,因而,本公开实施例可以按照实际应用场景准确地确定虚拟对象的可渲染范围。
在本公开的一些实施例中,所述方法还包括:
检测所述AR设备在现实场景中的位姿数据,所述位姿数据包括所述AR设备在现实场景中的位置信息和/或拍摄角度;
在所述位姿数据发生变化的情况下,根据变化后的位姿数据,调整所述虚拟对象的展示形式;
根据调整后的所述虚拟对象的展示形式,在所述AR设备中展示包括所述虚拟对象的增强现实数据。
可以理解地,本公开实施例中,可以根据变化后的位姿数据,实时调整虚拟对象的展示形式,有利于提升虚拟对象的实时显示效果。
本公开实施例还提出了一种增强现实数据呈现装置,所述装置包括:
获取模块,用于获取现实场景图像;
处理模块,用于识别所述现实场景图像中的目标实体对象,得到所述目标实体对象的属性信息;根据所述目标实体对象的属性信息,确定虚拟对象的可渲染范围;
展示模块,用于根据所述虚拟对象的可渲染范围,确定所述虚拟对象的展示形式;根据所述虚拟对象的展示形式,在增强现实AR设备中展示包括所述虚拟对象的增强现实数据。
在本公开的一些实施例中,所述虚拟对象包括用于描述所述目标实体对象的虚拟标签;
所述展示模块,用于根据所述虚拟标签的可渲染范围,确定以下至少一种展示形式:所述虚拟标签的展示区域的属性、所述虚拟标签中的字体的属性、所述虚拟标签的背景部分的透明度、所述虚拟标签中引导线的属性;所述引导线表示所述虚拟标签中标签内容呈现区域与目标实体对象之间的连线。
在本公开的一些实施例中,所述展示模块,用于根据所述虚拟对象的可渲染范围,确定所述虚拟标签的展示区域的属性;
所述虚拟标签的展示区域的属性包括以下至少一种:所述展示区域的大小、所述展示区域的形状、所述展示区域的位置。
在本公开的一些实施例中,所述展示模块,用于根据所述虚拟对象的可渲染范围,确定所述虚拟标签中的字体的属性;
所述虚拟标签中的字体的属性包括以下至少一种:所述虚拟标签中的字体的大小、所述虚拟标签中的字体的颜色。
在本公开的一些实施例中,所述展示模块,用于根据所述虚拟对象的可渲染范围,确定所述虚拟标签中引导线的属性;
所述虚拟标签中引导线的属性包括以下至少一种:所述引导线与对应的目标实体对象的连接位置、所述引导线与所述标签内容呈现区域的相对位置、所述引导线的长度、所述引导线的颜色、所述引导线的样式。
在本公开的一些实施例中,所述展示模块,还用于在确定多种展示形式的情况下,确定所述多种展示形式的优先级顺序;根据所述虚拟对象的可渲染范围,并按照所述多种展示形式的优先级从高到低的顺序,依次确定所述多种展示形式。
在本公开的一些实施例中,所述处理模块,用于:
获取预设的虚拟对象的渲染参数,所述渲染参数包括:目标实体对象的属性信息与虚拟对象的可渲染范围的对应关系;
根据所述渲染参数和所述目标实体对象的属性信息,确定所述虚拟对象的可渲染范围。
在本公开的一些实施例中,所述处理模块,用于识别所述现实场景图像中的目标实体对象,得到以下至少一种属性信息:目标实体对象的类别、目标实体对象在现实场景图像中的尺寸、目标实体对象在现实场景图像中的位置、目标实体对象的颜色。
在本公开的一些实施例中,所述展示模块,还用于:
检测所述AR设备在现实场景中的位姿数据,所述位姿数据包括所述AR设备在现实场景中的位置信息和/或拍摄角度;
在所述位姿数据发生变化的情况下,根据变化后的位姿数据,调整所述虚拟对象的展示形式;
根据调整后的所述虚拟对象的展示形式,在所述AR设备中展示包括所述虚拟对象的增强现实数据。
本公开实施例还提供了一种电子设备,包括处理器和用于存储能够在处理器上运行的计算机程序的存储器;其中,
所述处理器用于运行所述计算机程序以执行上述任意一种方法。
本公开实施例还提供了一种计算机存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述任意一种方法。
本公开实施例提出的增强现实数据呈现方法、装置、设备和计算机存储介质,所述方法包括:获取现实场景图像;识别所述现实场景图像中的目标实体对象,得到所述目标实体对象的属性信息;根据所述目标实体对象的属性信息,确定虚拟对象的可渲染范围;根据所述虚拟对象的可渲染范围,确定所述虚拟对象的展示形式;根据所述虚拟对象的展示形式,在增强现实AR设备中展示包括所述虚拟对象的增强现实数据。如此,由于虚拟对象的展示形式是根据虚拟对象的可渲染范围确定的,因而,符合AR设备的展示需求,本公开实施例有利于提升AR设备呈现的增强现实场景的效果。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,而非限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,这些附图示出了符合本公开的实施例,并与说明书一起用于说明本公开的技术方案。
图1为本公开实施例的增强现实数据呈现方法的流程图;
图2为本公开实施例中AR设备展示的增强现实数据的示意图一;
图3为本公开实施例中AR设备展示的增强现实数据的示意图二;
图4为本公开实施例中AR设备展示的增强现实数据的示意图三;
图5为本公开实施例中在图4的基础上改变AR设备的拍摄角度得到的增强现实数据的展示效果示意图;
图6为本公开实施例的增强现实数据呈现装置的组成结构示意图;
图7为本公开实施例的电子设备的结构示意图。
具体实施方式
以下结合附图及实施例,对本公开进行进一步详细说明。应当理解,此处所提供的实施例仅仅用以解释本公开,并不用于限定本公开。另外,以下所提供的实施例是用于实施本公开的部分实施例,而非提供实施本公开的全部实施例,在不冲突的情况下,本公开实施例记载的技术方案可以任意组合的方式实施。
需要说明的是,在本公开实施例中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的方法或者装置不仅包括所明确记载的要素,而且还包括没有明确列出的其他要素,或者是还包括为实施方法或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个......”限定的要素,并不排除在包括该要素的方法或者装置中还存在另外的相关要素(例如方法中的步骤或者装置中的单元,例如的单元可以是部分电路、部分处理器、部分程序或软件等等)。
例如,本公开实施例提供的增强现实数据呈现方法包含了一系列的步骤,但是本公开实施例提供的增强现实数据呈现方法不限于所记载的步骤,同样地,本公开实施例提供的增强现实数据呈现装置包括了一系列模块,但是本公开实施例提供的装置不限于包括所明确记载的模块,还可以包括为获取相关信息、或基于信息进行处理时所需要设置的模块。
本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中术语“至少一种”表示多种中的任意一种或多种中的至少两种的任意组合,例如,包括A、B、C中的至少一种,可以表示包括从A、B和C构成的集合中选择的任意一个或多个元素。
本公开实施例可适用于支持AR技术的电子设备(如手机、平板、AR眼镜等)或服务器,或者其组合,在本公开实施例应用于服务器的情况下,该服务器可以与其他具有通信功能且具有摄像头的电子设备连接,其连接方式可以是有线连接或无线连接,无线连接例如可以为蓝牙连接、无线宽带(Wireless Fidelity,WIFI)连接等。
AR设备中呈现增强现实场景,即为在AR设备中展示融入到现实场景的虚拟对象,可以是直接将虚拟对象的呈现画面渲染出来,使之与现实场景融合,比如呈现一套虚拟的茶具,使之显示效果是放置在现实场景中的真实桌面上,也可以是将虚拟对象的呈现特效与现实场景图像融合后,展示融合后的显示画面:具体选择何种呈现方式取决于AR设备的设备类型和采用的画面呈现技术,比如,由于从AR眼镜中可以直接看到现实场景(并非成像后的现实场景图像),因此AR眼镜可以采用直接将虚拟对象的呈现画面渲染出来的呈现方式:对于手机、平板电脑等移动终端设备,由于在移动终端设备中展示的是对现实场景成像后的画面,因此可以采用将现实场景图像与虚拟对象的呈现特效进行融合处理的方式,来展示增强现实效果。
图1为本公开实施例的增强现实数据呈现方法的流程图,如图1所示,该流程可以包括:
步骤101:获取现实场景图像。
本公开实施例中,现实场景可以是建筑物室内场景、街道场景、具体的物体等能够叠加虚拟对象的现实场景,通过在现实场景中叠加虚拟对象,可以在AR设备中呈现增强现实的效果。
本公开实施例中,获取现实场景图像的方式可以是,通过AR设备内置摄像头(如前置摄像头)获取,或者,通过现实场景中部署的独立于AR设备之外的摄像头来获取,或者,还可以通过其它设备传输给AR设备的用户图像数据的方式来获取。本公开实施例并不限定现实场景图像的获取方式。
本公开实施例中,现实场景图像可以包括至少一个目标实体对象;在一实施方式中,在现实场景图像中的目标实体对象可以包括建筑物、摆放的物品等。
步骤102:识别所述现实场景图像中的目标实体对象,得到所述目标实体对象的属性信息;根据所述目标实体对象的属性信息,确定虚拟对象的可渲染范围。
本公开实施例中,虚拟对象表示现实场景中不存在的对象,例如,虚拟对象可以包括现实场景图像中不存在的人物、动物等,虚拟对象也可以包括针对现实场景中目标实体对象的虚拟标签,即,虚拟标签表示一种虚拟对象。
可以看出,虚拟对象的可渲染范围是根据目标实体对象的属性信息得出的,而目标实体对象是现实场景中真实存在的对象,因而,本公开实施例可以按照实际应用场景准确地确定虚拟对象的可渲染范围。
在本公开的一些实施例中,目标实体对象的属性信息例如可以是目标实体对象的类别、目标实体对象在现实场景图像中的尺寸、目标实体对象在现实场景图像中的位置、目标实体对象的颜色等;也就是说,可以通过识别现实场景图像中的目标实体对象,得到以下至少一种属性信息:目标实体对象的类别、目标实体对象在现实场景图像中的尺寸、目标实体对象在现实场景图像中的位置、目标实体对象的颜色。
在一种实施方式中,得到现实场景图像中目标实体对象的属性信息的实现方式可以是,将包含目标实体对象的现实场景图像输入到预先训练好的类别检测模型中,经过类别检测模型对现实场景图像进行处理,输出得到目标实体对象的类别。
在一种实施方式中,得到现实场景图像中目标实体对象的属性信息的实现方式可以是,将包含目标实体对象的现实场景图像输入到预先训练好的目标检测模型中,经过目标检测模型对现实场景图像进行处理,输出得到目标实体对象的边界框,进而确定目标实体对象在现实场景图像中的尺寸和位置。
在一种实施方式中,得到现实场景图像中目标实体对象的属性信息的实现方式可以是,对现实场景图像中的目标实体对象进行色彩分析,确定目标实体对象的颜色。
可以看出,虚拟对象的可渲染范围是根据目标实体对象的类别、目标实体对象在现实场景图像中的尺寸、目标实体对象在现实场景图像中的位置或目标实体对象的颜色得出的,而目标实体对象是现实场景中真实存在的对象,因而,本公开实施例可以按照实际应用场景准确地确定虚拟对象的可渲染范围。
步骤103:根据所述虚拟对象的可渲染范围,确定所述虚拟对象的展示形式;根据所述虚拟对象的展示形式,在AR设备中展示包括所述虚拟对象的增强现实数据。
这里,上述目标实体对象可以包括建筑物或其它目标实体对象。
在本公开的一些实施例中,虚拟对象包括用于描述所述目标实体对象的虚拟标签;虚拟标签可以通过标签内容呈现区域呈现内容,虚拟标签呈现的内容可以是对目标实体对象的说明;标签内容呈现区域可以通过文字框等形式呈现,文字框的形状包括但不限于矩形、圆形、三角形、椭圆形或其它不规则形状;在一种实施方式中,可以在标签内容呈现区域与对应的目标实体对象之间设置连线,即设置虚拟标签的引导线;在另一种实施方式中,可以不设置引导线,而是直接在现实场景图像的目标实体对象上叠加显示虚拟标签。
在实际应用中,上述步骤101至步骤102可以基于云平台服务器或AR设备的处理器实现,上述步骤103可以基于云平台服务器或AR设备的处理器和AR设备的显示器实现,上述处理器可以为特定用途集成电路(ApplicationSpecific Integrated Circuit,ASIC)、数字信号处理器(Digital Signal Processor,DSP)、数字信号处理装置(Digital SignalProcessing Device,DSPD)、可编程逻辑装置(Programmable Logic Device,PLD)、现场可编程门阵列(Field Programmable Gate Array,FPGA)、中央处理器(Central ProcessingUnit,CPU)、控制器、微控制器、微处理器中的至少一种。
在一实施方式中,AR设备可以将采集的现实场景图像发送至云平台服务器,云平台服务器执行步骤101至步骤103,得出目标实体对象的虚拟标签的展示形式,然后,可以将虚拟标签的展示形式发送至AR设备端,然后通过AR设备展示包括虚拟标签的增强现实数据。在另一种实施方式中,AR设备在获取现实场景图像后,可以执行步骤101至步骤103,得出目标实体对象的虚拟标签的展示形式,然后,可以直接通过AR设备展示包括虚拟标签的增强现实数据。
可以理解地,本公开实施例中,由于虚拟对象的展示形式是根据虚拟对象的可渲染范围确定的,因而,符合AR设备的展示需求,本公开实施例有利于提升AR设备呈现的增强现实场景的效果。
进一步地,在上述目标实体对象包括建筑物,且虚拟对象包括用于描述所述目标实体对象的虚拟标签的情况下,本公开实施例可以提升建筑物的虚拟标签的展示效果。
在一种实施方式中,可以预先确定虚拟对象的可渲染范围的颜色与虚拟标签的背景部分的透明度的对应关系,在得到虚拟对象的可渲染范围后,便可以根据虚拟对象的可渲染范围的颜色与虚拟标签的背景部分的透明度的对应关系,确定虚拟标签的背景部分的透明度。
在本公开的一些实施例中,可以根据虚拟标签的可渲染范围,确定以下至少一种展示形式:虚拟标签的展示区域的属性、虚拟标签中的字体的属性、虚拟标签的背景部分的透明度、虚拟标签中引导线的属性;引导线表示所述虚拟标签中标签内容呈现区域与目标实体对象之间的连线。
可以理解地,本公开实施例可以根据虚拟标签的可渲染范围,进一步确定虚拟标签的展示区域的属性、虚拟标签中的字体的属性、虚拟标签中的背景部分的透明度或虚拟标签中的引导线的属性,如此,有利于提升虚拟标签的展示效果。
在本公开的一些实施例中,可以据虚拟对象的可渲染范围,确定虚拟标签的展示区域的属性。
虚拟标签的展示区域的属性包括以下至少一种:展示区域的大小、展示区域的形状、展示区域的位置。
在一种实施方式中,在确定虚拟对象的可渲染范围后,可以在虚拟对象的可渲染范围中确定出虚拟标签的展示区域,从而,虚拟标签的展示区域的大小、形状、位置等属性可以直接并行确定。
可以理解地,本公开实施例可以根据虚拟对象的可渲染范围,进一步确定展示区域的大小、展示区域的形状、展示区域的位置,如此,有利于合理确定虚拟标签的展示区域,提升虚拟标签的展示效果。
在本公开的一些实施例中,可以根据虚拟对象的可渲染范围,确定虚拟标签中的字体的属性;
虚拟标签中的字体的属性包括以下至少一种:虚拟标签中的字体的大小、虚拟标签中的字体的颜色。
在一种实施方式中,在确定虚拟对象的可渲染范围后,可以根据虚拟对象的可渲染范围的大小,确定虚拟标签中的字体的大小;例如,在虚拟对象的可渲染范围较大的情况下,虚拟标签中的字体较大,在虚拟对象的可渲染范围较大的情况下,虚拟标签中的字体较小。
在一种实施方式中,可以预先确定虚拟对象的可渲染范围的大小与虚拟标签中的字体的颜色的对应关系,如此,在确定虚拟对象的可渲染范围后,可以根据虚拟对象的可渲染范围的大小与虚拟标签中的字体的颜色的对应关系,确定出虚拟标签中的字体的颜色。
可以理解地,本公开实施例可以根据虚拟对象的可渲染范围,进一步确定虚拟标签中的字体的大小、所述虚拟标签中的字体的颜色,如此,有利于提升虚拟标签中字体的展示效果。
在本公开的一些实施例中,可以根据虚拟对象的可渲染范围,确定虚拟标签中引导线的属性;
虚拟标签中引导线的属性包括以下至少一种:引导线与对应的目标实体对象的连接位置、引导线与标签内容呈现区域的相对位置、引导线的长度、引导线的颜色、引导线的样式。
在一种实施方式中,引导线的样式可以表示引导线的起始端类型、引导线的末端类型,引导线的线型,例如,引导线的起始端类型可以表示带箭头、或带圆圈的起始端,引导线的末端类型可以是带箭头、或带圆圈的末端,引导线的线型可以是实线或虚线。
在一种实施方式中,在确定虚拟对象的可渲染范围,可以根据虚拟对象的可渲染范围与上述至少一个目标实体对象之间的相对位置关系,确定出引导线与对应的目标实体对象的连接位置、引导线与标签内容呈现区域的相对位置或引导线的长度;例如,例如目标实体对象位于图像左侧,虚拟对象的可渲染范围位于图像的右侧,则引导线与对应的目标实体对象的连接位置为图像左侧的一点,导线与所述标签内容呈现区域的相对位置可以直接确定,引导线的长度可以根据引导线与对应的目标实体对象的连接位置以及标签内容呈现区域确定。
在一种实施方式中,可以预先确定虚拟对象的可渲染范围与引导线的颜色、宽度或样式的对应关系;在确定虚拟对象的可渲染范围后,可以根据虚拟对象的可渲染范围与引导线的颜色、宽度或样式的对应关系,确定出引导线的颜色、宽度或样式。
可以理解地,本公开实施例可以根据虚拟对象的可渲染范围,进一步确定引导线与对应的目标实体对象的连接位置、引导线与标签内容呈现区域的相对位置、引导线的长度、引导线的颜色、引导线的样式,如此,有利于提升虚拟标签中引导线的展示效果。
下面结合附图对本公开实施例的虚拟标签的展示方式进行示例性说明。
图2为本公开实施例中AR设备展示的增强现实数据的示意图一,图2中,虚拟标签的内容为“D大厦,位于地点E”;D大厦为现实场景图像中的目标实体对象,虚拟对象的可渲染范围为现实场景图像中处于D大厦之外的区域,可以看出,虚拟对象的可渲染范围较小,因此,虚拟标签的区域较小,虚拟标签中的字体较小。
图3为本公开实施例中AR设备展示的增强现实数据的示意图二,图3中,虚拟标签的内容为“F楼宇,共有3层,位于地点G”,F楼宇为现实场景图像中的目标实体对象,虚拟对象的可渲染范围为现实场景图像中处于F楼宇之外的区域,可以看出,虚拟对象的可渲染范围较大,因此,虚拟标签的区域较大,虚拟标签中的字体较大。
在本公开的一些实施例中,在确定多种展示形式的情况下,在确定虚拟对象的可渲染范围后,可以并行确定各种展示形式。
在一种实施方式中,在确定虚拟对象的可渲染范围后,可以并行确定展示区域的大小、展示区域的形状和展示区域的位置。
在一种实施方式中,在确定虚拟对象的可渲染范围后,可以并行确定虚拟标签中的字体的大小和颜色。
在一种实施方式中,在确定虚拟对象的可渲染范围后,可以并行确定引导线与对应的目标实体对象的连接位置、引导线与所述标签内容呈现区域的相对位置、引导线的长度、引导线的颜色、引导线的宽度、引导线的样式。
在一种实施方式中,在确定虚拟对象的可渲染范围后,可以并行确定展示区域的形状、展示区域的位置、虚拟标签中的字体的大小、引导线与对应的目标实体对象的连接位置等信息。
在本公开的一些实施例中,在确定多种展示形式的情况下,还可以确定所述多种展示形式的优先级顺序
相应地,根据所述虚拟对象的可渲染范围,确定所述虚拟对象的展示形式,可以包括:根据虚拟对象的可渲染范围,并按照多种展示形式的优先级从高到低的顺序,依次确定所述多种展示形式。
在一种实施方式中,对于上述多种展示形式,在确定第i种展示形式后,第i种展示形式可以作为确定第j种展示形式的依据,这里,i为大于0的整数,j为大于i的整数,第i种展示形式的优先级高于第j种展示形式的优先级。
在一种实施方式中,虚拟标签中的字体的大小的优先级高于虚拟标签中的字体的颜色的优先级,如此,在确定虚拟对象的可渲染范围后,可以首先根据虚拟对象的可渲染范围确定虚拟标签中的字体的大小,在虚拟标签中的字体较小时,虚拟标签中的字体的颜色为黄色等便于人眼观察的颜色,在虚拟标签中的字体较大时,虚拟标签中的字体的颜色可以为灰色、浅绿色等颜色。
在一种实施方式中,展示区域的大小的优先级高于虚拟标签中的字体的大小的优先级,如此,在确定虚拟对象的可渲染范围后,可以首先根据虚拟对象的可渲染范围确定虚拟标签的展示区域的大小,然后根据虚拟标签的展示区域的大小确定虚拟标签中的字体的大小。
在一种实施方式中,虚拟标签中的字体的颜色的优先级高于引导线的颜色的优先级,如此,在确定虚拟对象的可渲染范围后,可以首先确定虚拟标签的字体的颜色,然后,以虚拟标签中的字体的颜色与引导线的颜色不同为目标,确定虚拟标签中引导线的颜色。
可以理解地,本公开实施例中,可以根据多种展示形式的优先级顺序,灵活地确定出虚拟标签的展示形式;多种展示形式的优先级顺序可以根据实际需求设置,因而,本公开实施例可以实现按照实际需求展示虚拟标签,提升了虚拟标签的展示效果。
在本公开的一些实施例中,根据目标实体对象的属性信息,确定虚拟对象的可渲染范围,可以包括:
获取预设的虚拟对象的渲染参数,渲染参数包括:目标实体对象的属性信息与虚拟对象的可渲染范围的对应关系;
根据所述渲染参数和所述目标实体对象的属性信息,确定所述虚拟对象的可渲染范围。
在一种实施方式中,根据渲染参数和所述目标实体对象的属性信息,确定所述虚拟对象的可渲染范围的实现方式可以是,在任意一个目标实体的类别为背景对象(例如远处的山)的情况下,可以忽略该目标实体,并根据渲染参数中其它目标实体的类别与虚拟对象的可渲染范围的对应关系,确定出虚拟对象的可渲染范围;在目标实体的类别为前景对象(例如建筑物)的情况下,可以根据渲染参数中前景对象与虚拟对象的可渲染范围的对应关系,确定出虚拟对象的可渲染范围。进一步地,在目标实体的类别为前景对象,且目标实体对象在现实场景图像中的尺寸较大时,可以根据目标实体对象的类别以及目标实体对象在现实场景图像中的尺寸与虚拟对象的可渲染范围的对应关系,确定出虚拟对象的可渲染范围,此时,虚拟对象的可渲染范围较小;在目标实体的类别为前景对象,且目标实体对象在现实场景图像中的尺寸较小时,可以根据目标实体对象的类别以及目标实体对象在现实场景图像中的尺寸与虚拟对象的可渲染范围的对应关系,确定出虚拟对象的可渲染范围,此时,虚拟对象的可渲染范围较大。
在一种实施方式中,根据渲染参数和所述目标实体对象的属性信息,确定所述虚拟对象的可渲染范围的实现方式可以是,可以预先确定目标实体对象的颜色与虚拟对象的可渲染范围的对应关系,在获取到目标实体对象的颜色后,可以根据目标实体对象的颜色与虚拟对象的可渲染范围的对应关系,直接确定出虚拟对象的可渲染范围。
可以看出,虚拟对象的可渲染范围是根据目标实体对象的属性信息得出的,而目标实体对象是现实场景中真实存在的对象,因而,本公开实施例可以按照实际应用场景准确地确定虚拟对象的可渲染范围。
在本公开的一些实施例中,上述识别现实场景图像中的目标实体对象,得到目标实体对象的属性信息,可以包括:识别所述现实场景图像中的目标实体对象,得到以下至少一种属性信息:目标实体对象的类别、目标实体对象在现实场景图像中的尺寸、目标实体对象在现实场景图像中的位置、目标实体对象的颜色。
可以看出,虚拟对象的可渲染范围是根据目标实体对象的类别、目标实体对象在现实场景图像中的尺寸、目标实体对象在现实场景图像中的位置或目标实体对象的颜色得出的,而目标实体对象是现实场景中真实存在的对象,因而,本公开实施例可以按照实际应用场景准确地确定虚拟对象的可渲染范围。
在本公开的一些实施例中,还可以检测AR设备在现实场景中的位姿数据,位姿数据包括AR设备在现实场景中的位置信息和/或拍摄角度;在上述位姿数据发生变化的情况下,根据变化后的位姿数据,调整虚拟对象的展示形式;根据调整后的虚拟对象的展示形式,在AR设备中展示包括虚拟对象的增强现实数据。
这里,AR设备的拍摄位姿数据可以包括用户在手持或佩戴AR设备时,用于显示虚拟对象的显示部件所在的位置和/或显示角度,为了方便解释拍摄位姿数据,这里引入坐标系的概念,比如世界坐标系,这里的拍摄位姿数据包括AR设备的显示部件在世界坐标系中的坐标位置,或者包括AR设备的显示部件与世界坐标系中各个坐标轴的夹角,或者同时包括AR设备的显示部件在世界坐标系中的坐标位置以及与世界坐标中各个坐标轴的夹角,拍摄位姿数据具体包括的内容与对增强现实场景中虚拟对象设定的显示方式相关,在此不做具体限定。
本公开实施例中,AR设备的拍摄位姿数据可以通过多种方式获取,比如当AR设备配置有检测位置的定位部件和检测拍摄角度的角速度传感器时,可以通过定位部件和角速度传感器来确定AR设备的拍摄位姿数据;当AR设备配置有图像采集部件,比如摄像头时,可以通过摄像头采集的现实场景图像来确定拍摄角度。
上述角速度传感器,比如可以包括陀螺仪、惯性测量单元(Inertial MeasurementUnit,IMU)等;上述定位部件,比如可以包括全球定位系统(Global Positioning System,GPS)、全球导航卫星系统(Global Navigation Satellite System,GLONASS),WiFi定位技术的定位部件。
在一种实施方式中,AR设备在现实场景中的位置信息发生变化,且AR设备在现实场景中与目标实体对象的距离变远,则可以认为目标实体对象在现实场景图像变小,可以认为虚拟对象的可渲染范围变大;可以增大虚拟标签的展示区域,或者,增大虚拟标签中的字体。
在一种实施方式中,AR设备在现实场景中的拍摄角度发生变化,则可以认为目标实体对象在现实场景图像的呈现位置发生变化,虚拟对象的可渲染范围相应发生变化;如此,可以根据AR设备在现实场景中的拍摄角度,调整引导线与对应的目标实体对象的连接位置。
图4为本公开实施例中AR设备展示的增强现实数据的示意图三,图4中,虚拟标签的内容为“P大厦,位于地点Q”;P大厦为现实场景图像中的目标实体对象,虚拟对象的可渲染范围为现实场景图像中处于P大厦之外的区域,可以看出,虚拟对象的可渲染范围较小,因此,虚拟标签的区域较小,虚拟标签中的字体较小。
在展示如图4所示的增强现实数据后,如果AR设备的拍摄角度发生变化,则AR设备拍摄的现实场景图像会发生变化,此时,可以直接根据变化后的AR设备的拍摄角度与变化前的AR设备的拍摄角度,直接调整虚拟标签的展示形式。
图5为本公开实施例中在图4的基础上改变AR设备的拍摄角度得到的增强现实数据的展示效果示意图,图5和图4中的目标实体对象为相同的目标实体对象,均为P大厦;图4和图5对应的AR设备的拍摄角度不同,因此,可以设置与图4不同的展示区域的形状,并且可以设置相对于图4更大的虚拟标签的字体。
可以理解地,本公开实施例中,可以根据变化后的位姿数据,实时调整虚拟标签的展示形式,有利于提升虚拟标签的实时显示效果。
在前述实施例提出的增强现实数据呈现方法的基础上,本公开实施例还提出了一种增强现实数据呈现装置。
图6为本公开实施例的增强现实数据呈现装置的组成结构示意图,如图6所示,该装置可以包括:
获取模块601,用于获取现实场景图像;
处理模块602,用于识别所述现实场景图像中的目标实体对象,得到所述目标实体对象的属性信息;根据所述目标实体对象的属性信息,确定虚拟对象的可渲染范围;
展示模块603,用于根据所述虚拟对象的可渲染范围,确定所述虚拟对象的展示形式;根据所述虚拟对象的展示形式,在增强现实AR设备中展示包括所述虚拟对象的增强现实数据。
在本公开的一些实施例中,所述虚拟对象包括用于描述所述目标实体对象的虚拟标签。
所述展示模块603,用于根据所述虚拟标签的可渲染范围,确定以下至少一种展示形式:所述虚拟标签的展示区域的属性、所述虚拟标签中的字体的属性、所述虚拟标签的背景部分的透明度、所述虚拟标签中引导线的属性;所述引导线表示所述虚拟标签中标签内容呈现区域与目标实体对象之间的连线。
在本公开的一些实施例中,所述展示模块603,用于根据所述虚拟对象的可渲染范围,确定所述虚拟标签的展示区域的属性;
所述虚拟标签的展示区域的属性包括以下至少一种:所述展示区域的大小、所述展示区域的形状、所述展示区域的位置。
在本公开的一些实施例中,所述展示模块603,用于根据所述虚拟对象的可渲染范围,确定所述虚拟标签中的字体的属性;
所述虚拟标签中的字体的属性包括以下至少一种:所述虚拟标签中的字体的大小、所述虚拟标签中的字体的颜色。
在本公开的一些实施例中,所述展示模块603,用于根据所述虚拟对象的可渲染范围,确定所述虚拟标签中引导线的属性;
所述虚拟标签中引导线的属性包括以下至少一种:所述引导线与对应的目标实体对象的连接位置、所述引导线与所述标签内容呈现区域的相对位置、所述引导线的长度、所述引导线的颜色、所述引导线的样式。
在本公开的一些实施例中,所述展示模块603,还用于在确定多种展示形式的情况下,确定所述多种展示形式的优先级顺序;根据所述虚拟对象的可渲染范围,并按照所述多种展示形式的优先级从高到低的顺序,依次确定所述多种展示形式。
在本公开的一些实施例中,所述处理模块602,用于:
获取预设的虚拟对象的渲染参数,所述渲染参数包括:目标实体对象的属性信息与虚拟对象的可渲染范围的对应关系;
根据所述渲染参数和所述目标实体对象的属性信息,确定所述虚拟对象的可渲染范围。
在本公开的一些实施例中,所述处理模块602,用于识别所述现实场景图像中的目标实体对象,得到以下至少一种属性信息:目标实体对象的类别、目标实体对象在现实场景图像中的尺寸、目标实体对象在现实场景图像中的位置、目标实体对象的颜色。
在本公开的一些实施例中,所述展示模块603,还用于:
检测所述AR设备在现实场景中的位姿数据,所述位姿数据包括所述AR设备在现实场景中的位置信息和/或拍摄角度;
在所述位姿数据发生变化的情况下,根据变化后的位姿数据,调整所述虚拟对象的展示形式;
根据调整后的所述虚拟对象的展示形式,在所述AR设备中展示包括所述虚拟对象的增强现实数据。
上述获取模块601、处理模块602可以基于云平台服务器或AR设备的处理器实现,上述展示模块603可以基于云平台服务器或AR设备的处理器和AR设备的显示器实现。
另外,在本实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。
所述集成的单元如果以软件功能模块的形式实现并非作为独立的产品进行销售或使用时,可以存储在一个计算机可读取存储介质中,基于这样的理解,本实施例的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或processor(处理器)执行本实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
具体来讲,本实施例中的一种增强现实数据呈现方法对应的计算机程序指令可以被存储在光盘,硬盘,U盘等存储介质上,当存储介质中的与一种增强现实数据呈现方法对应的计算机程序指令被一电子设备读取或被执行时,实现前述实施例的任意一种增强现实数据呈现方法。
基于前述实施例相同的技术构思,参见图7,其示出了本发明实施例提供的一种电子设备70,可以包括:存储器71、处理器72及存储在存储器71上并可在处理器72上运行的计算机程序;其中,
存储器71,用于存储计算机程序和数据;
处理器72,用于执行所述存储器中存储的计算机程序,以实现前述实施例的任意一种增强现实数据呈现方法。
在实际应用中,上述存储器71可以是易失性存储器(volatile memory),例如RAM;或者非易失性存储器(non-volatile memory),例如ROM,快闪存储器(flash memory),硬盘(Hard Disk Drive,HDD)或固态硬盘(Solid-State Drive,SSD);或者上述种类的存储器的组合,并向处理器72提供指令和数据。
上述处理器72可以为ASIC、DSP、DSPD、PLD、FPGA、CPU、控制器、微控制器、微处理器中的至少一种。
在一些实施例中,本公开实施例提供的装置具有的功能或包含的模块可以用于执行上文方法实施例描述的方法,其具体实现可以参照上文方法实施例的描述,为了简洁,这里不再赘述。
上文对各个实施例的描述倾向于强调各个实施例之间的不同之处,其相同或相似之处可以互相参考,为了简洁,本文不再赘述
本申请所提供的各方法实施例中所揭露的方法,在不冲突的情况下可以任意组合,得到新的方法实施例。
本申请所提供的各产品实施例中所揭露的特征,在不冲突的情况下可以任意组合,得到新的产品实施例。
本申请所提供的各方法或设备实施例中所揭露的特征,在不冲突的情况下可以任意组合,得到新的方法实施例或设备实施例。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,这些均属于本发明的保护之内。

Claims (12)

1.一种增强现实数据呈现方法,其特征在于,所述方法包括:
获取现实场景图像;
识别所述现实场景图像中的目标实体对象,得到所述目标实体对象的属性信息;根据所述目标实体对象的属性信息,确定虚拟对象的可渲染范围;
根据所述虚拟对象的可渲染范围,确定所述虚拟对象的展示形式;根据所述虚拟对象的展示形式,在增强现实AR设备中展示包括所述虚拟对象的增强现实数据。
2.根据权利要求1所述的方法,其特征在于,所述虚拟对象包括用于描述所述目标实体对象的虚拟标签;
所述根据所述虚拟对象的可渲染范围,确定所述虚拟对象的展示形式,包括:
根据所述虚拟标签的可渲染范围,确定以下至少一种展示形式:所述虚拟标签的展示区域的属性、所述虚拟标签中的字体的属性、所述虚拟标签的背景部分的透明度、所述虚拟标签中引导线的属性;所述引导线表示所述虚拟标签中标签内容呈现区域与目标实体对象之间的连线。
3.根据权利要求2所述的方法,其特征在于,所述根据所述虚拟对象的可渲染范围,确定所述虚拟对象的展示形式,包括:
根据所述虚拟对象的可渲染范围,确定所述虚拟标签的展示区域的属性;
所述虚拟标签的展示区域的属性包括以下至少一种:所述展示区域的大小、所述展示区域的形状、所述展示区域的位置。
4.根据权利要求2所述的方法,其特征在于,所述根据所述虚拟对象的可渲染范围,确定所述虚拟对象的展示形式,包括:
根据所述虚拟对象的可渲染范围,确定所述虚拟标签中的字体的属性;
所述虚拟标签中的字体的属性包括以下至少一种:所述虚拟标签中的字体的大小、所述虚拟标签中的字体的颜色。
5.根据权利要求2所述的方法,其特征在于,所述根据所述虚拟对象的可渲染范围,确定所述虚拟对象的展示形式,包括:
根据所述虚拟对象的可渲染范围,确定所述虚拟标签中引导线的属性;
所述虚拟标签中引导线的属性包括以下至少一种:所述引导线与对应的目标实体对象的连接位置、所述引导线与所述标签内容呈现区域的相对位置、所述引导线的长度、所述引导线的颜色、所述引导线的样式。
6.根据权利要求1至5任一项所述的方法,其特征在于,所述方法还包括:
在确定多种展示形式的情况下,确定所述多种展示形式的优先级顺序;
所述根据所述虚拟对象的可渲染范围,确定所述虚拟对象的展示形式,包括:
根据所述虚拟对象的可渲染范围,并按照所述多种展示形式的优先级从高到低的顺序,依次确定所述多种展示形式。
7.根据权利要求1所述的方法,其特征在于,所述根据所述目标实体对象的属性信息,确定虚拟对象的可渲染范围,包括:
获取预设的虚拟对象的渲染参数,所述渲染参数包括:目标实体对象的属性信息与虚拟对象的可渲染范围的对应关系;
根据所述渲染参数和所述目标实体对象的属性信息,确定所述虚拟对象的可渲染范围。
8.根据权利要求1或7所述的方法,其特征在于,所述识别所述现实场景图像中的目标实体对象,得到所述目标实体对象的属性信息,包括:
识别所述现实场景图像中的目标实体对象,得到以下至少一种属性信息:目标实体对象的类别、目标实体对象在现实场景图像中的尺寸、目标实体对象在现实场景图像中的位置、目标实体对象的颜色。
9.根据权利要求1所述的方法,其特征在于,所述方法还包括:
检测所述AR设备在现实场景中的位姿数据,所述位姿数据包括所述AR设备在现实场景中的位置信息和/或拍摄角度;
在所述位姿数据发生变化的情况下,根据变化后的位姿数据,调整所述虚拟对象的展示形式;
根据调整后的所述虚拟对象的展示形式,在所述AR设备中展示包括所述虚拟对象的增强现实数据。
10.一种增强现实数据呈现装置,其特征在于,所述装置包括:
获取模块,用于获取现实场景图像;
处理模块,用于识别所述现实场景图像中的目标实体对象,得到所述目标实体对象的属性信息;根据所述目标实体对象的属性信息,确定虚拟对象的可渲染范围;
展示模块,用于根据所述虚拟对象的可渲染范围,确定所述虚拟对象的展示形式;根据所述虚拟对象的展示形式,在增强现实AR设备中展示包括所述虚拟对象的增强现实数据。
11.一种电子设备,其特征在于,包括处理器和用于存储能够在处理器上运行的计算机程序的存储器;其中,
所述处理器用于运行所述计算机程序以执行权利要求1至9任一项所述的方法。
12.一种计算机存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现权利要求1至9任一项所述的方法。
CN202010617677.5A 2020-06-30 2020-06-30 增强现实数据呈现方法、装置、设备和计算机存储介质 Pending CN111815781A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010617677.5A CN111815781A (zh) 2020-06-30 2020-06-30 增强现实数据呈现方法、装置、设备和计算机存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010617677.5A CN111815781A (zh) 2020-06-30 2020-06-30 增强现实数据呈现方法、装置、设备和计算机存储介质

Publications (1)

Publication Number Publication Date
CN111815781A true CN111815781A (zh) 2020-10-23

Family

ID=72856465

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010617677.5A Pending CN111815781A (zh) 2020-06-30 2020-06-30 增强现实数据呈现方法、装置、设备和计算机存储介质

Country Status (1)

Country Link
CN (1) CN111815781A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112927349A (zh) * 2021-02-22 2021-06-08 北京市商汤科技开发有限公司 三维虚拟特效的生成方法、装置、计算机设备及存储介质
CN114356087A (zh) * 2021-12-30 2022-04-15 北京绵白糖智能科技有限公司 一种基于增强现实的交互方法、装置、设备及存储介质
CN114612643A (zh) * 2022-03-07 2022-06-10 北京字跳网络技术有限公司 虚拟对象的形象调整方法、装置、电子设备及存储介质
WO2022169413A1 (zh) * 2021-02-03 2022-08-11 脸萌有限公司 图像处理方法、装置、电子设备及程序产品
CN115016688A (zh) * 2022-06-28 2022-09-06 维沃移动通信有限公司 虚拟信息显示方法、装置和电子设备
WO2024060949A1 (zh) * 2022-09-21 2024-03-28 北京字跳网络技术有限公司 用于增强现实的方法、装置、设备和存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104102678A (zh) * 2013-04-15 2014-10-15 腾讯科技(深圳)有限公司 增强现实的实现方法以及实现装置
CN108897474A (zh) * 2018-05-29 2018-11-27 高新兴科技集团股份有限公司 一种增强现实摄像机的虚拟标签的管理方法及管理系统
CN110738737A (zh) * 2019-10-15 2020-01-31 北京市商汤科技开发有限公司 一种ar场景图像处理方法、装置、电子设备及存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104102678A (zh) * 2013-04-15 2014-10-15 腾讯科技(深圳)有限公司 增强现实的实现方法以及实现装置
CN108897474A (zh) * 2018-05-29 2018-11-27 高新兴科技集团股份有限公司 一种增强现实摄像机的虚拟标签的管理方法及管理系统
CN110738737A (zh) * 2019-10-15 2020-01-31 北京市商汤科技开发有限公司 一种ar场景图像处理方法、装置、电子设备及存储介质

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022169413A1 (zh) * 2021-02-03 2022-08-11 脸萌有限公司 图像处理方法、装置、电子设备及程序产品
CN112927349A (zh) * 2021-02-22 2021-06-08 北京市商汤科技开发有限公司 三维虚拟特效的生成方法、装置、计算机设备及存储介质
CN112927349B (zh) * 2021-02-22 2024-03-26 北京市商汤科技开发有限公司 三维虚拟特效的生成方法、装置、计算机设备及存储介质
CN114356087A (zh) * 2021-12-30 2022-04-15 北京绵白糖智能科技有限公司 一种基于增强现实的交互方法、装置、设备及存储介质
CN114612643A (zh) * 2022-03-07 2022-06-10 北京字跳网络技术有限公司 虚拟对象的形象调整方法、装置、电子设备及存储介质
CN114612643B (zh) * 2022-03-07 2024-04-12 北京字跳网络技术有限公司 虚拟对象的形象调整方法、装置、电子设备及存储介质
CN115016688A (zh) * 2022-06-28 2022-09-06 维沃移动通信有限公司 虚拟信息显示方法、装置和电子设备
WO2024060949A1 (zh) * 2022-09-21 2024-03-28 北京字跳网络技术有限公司 用于增强现实的方法、装置、设备和存储介质

Similar Documents

Publication Publication Date Title
KR102414587B1 (ko) 증강 현실 데이터 제시 방법, 장치, 기기 및 저장 매체
CN111815781A (zh) 增强现实数据呈现方法、装置、设备和计算机存储介质
CN109376667B (zh) 目标检测方法、装置及电子设备
CN110568447B (zh) 视觉定位的方法、装置及计算机可读介质
JP6144826B2 (ja) データベース作成のための対話型および自動的3dオブジェクト走査方法
WO2018107910A1 (zh) 一种全景视频融合方法及装置
US20200394842A1 (en) Method and device for a placement of a virtual object of an augmented or mixed reality application in a real-world 3d environment
US20170132806A1 (en) System and method for augmented reality and virtual reality applications
CN110794955B (zh) 定位跟踪方法、装置、终端设备及计算机可读取存储介质
US20070237424A1 (en) Method and apparatus instrumenting a camera to: measure, model and insert target objects at their right size into pictures
JP2020535536A5 (zh)
WO2020017134A1 (ja) ファイルの生成装置およびファイルに基づく映像の生成装置
US10019821B2 (en) Apparatus and method for constructing indoor map using cloud point
CN108510528B (zh) 一种可见光和红外图像配准融合的方法及装置
US20210118236A1 (en) Method and apparatus for presenting augmented reality data, device and storage medium
CN108629799B (zh) 一种实现增强现实的方法及设备
CN112729327A (zh) 一种导航方法、装置、计算机设备及存储介质
CN107084740A (zh) 一种导航方法和装置
CN111833457A (zh) 图像处理方法、设备及存储介质
KR20210148074A (ko) Ar 시나리오 콘텐츠의 생성 방법, 전시 방법, 장치 및 저장 매체
CN108628442B (zh) 一种信息提示方法、装置以及电子设备
CN110825079A (zh) 一种地图构建方法及装置
CN112230765A (zh) Ar显示方法、ar显示设备和计算机可读存储介质
KR102475790B1 (ko) 지도제작플랫폼장치 및 이를 이용한 지도제작방법
CN113034347A (zh) 倾斜摄影图像处理方法、装置、处理设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination