CN112148188A - 增强现实场景下的交互方法、装置、电子设备及存储介质 - Google Patents
增强现实场景下的交互方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN112148188A CN112148188A CN202011010999.XA CN202011010999A CN112148188A CN 112148188 A CN112148188 A CN 112148188A CN 202011010999 A CN202011010999 A CN 202011010999A CN 112148188 A CN112148188 A CN 112148188A
- Authority
- CN
- China
- Prior art keywords
- virtual object
- picture
- target
- special effect
- displaying
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
Abstract
本公开提供了一种增强现实场景下的交互方法、装置、电子设备及存储介质,其中,该交互方法包括:通过AR设备展示与当前拍摄的现实场景画面匹配的AR画面;所述AR画面中展示有第一虚拟对象;在检测到预设触发展示条件的情况下,在所述AR画面中展示第二虚拟对象的目标AR特效;所述第二虚拟对象与所述第一虚拟对象之间具有预设的运动关系;响应目标触发操作,在AR画面中展示所述第二虚拟对象发生状态更新的AR特效。
Description
技术领域
本公开涉及增强现实技术领域,具体而言,涉及一种增强现实场景下的交互方法、装置、电子设备及存储介质。
背景技术
增强现实(Augmented Reality,AR)技术,通过将实体信息(视觉信息、声音、触觉等)通过模拟仿真后,叠加到真实世界中,从而将真实的环境和虚拟的物体实时地在同一个画面或空间呈现。近年来,AR设备的应用领域越来越广,使得AR设备在生活、工作、娱乐中起到了重要的作用,对AR设备呈现的增强现实场景的效果的优化以及交互方式的优化,越发重要。
发明内容
本公开实施例至少提供一种增强现实场景下的交互方案。
第一方面,本公开实施例提供了一种增强现实场景下的交互方法,包括:
通过AR设备展示与当前拍摄的现实场景画面匹配的AR画面;所述AR画面中展示有第一虚拟对象;
在检测到预设触发展示条件的情况下,在所述AR画面中展示第二虚拟对象的目标AR特效;所述第二虚拟对象与所述第一虚拟对象之间具有预设的运动关系;
响应目标触发操作,在AR画面中展示所述第二虚拟对象发生状态更新的AR特效。
本公开实施例中,在检测到预设触发展示条件的情况下,可以在AR画面中展示与第一虚拟对象之间具有预设的运动关系的第二虚拟对象的目标AR特效,用户可以通过针对AR设备的触发操作,对第二虚拟对象的展示状态进行更新,从而增加用户与AR设备之间的交互性。
在一种可能的实施方式中,所述预设触发展示条件包括以下条件中的至少一种:
所述第一虚拟对象到达至少一个目标移动位置中的任一目标移动位置;
当前到达至少一个目标时间点中的任一目标时间点;
所述第二虚拟对象与所述第一虚拟对象之间的距离小于设定距离阈值。
在一种可能的实施方式中,所述预设的运动关系包括预设的相对运动关系;
所述在所述AR画面中展示第二虚拟对象的目标AR特效,包括:
在所述AR画面展示所述第二虚拟对象按照所述预设的相对运动关系朝向或背离所述第一虚拟对象移动的第一AR特效。
在一种可能的实施方式中,所述预设的运动关系包括预设的交互运动关系;
所述在所述AR画面中展示第二虚拟对象的目标AR特效,包括:
在所述AR画面中展示所述第二虚拟对象与所述第一虚拟对象之间按照所述预设的交互运动关系进行交互运动的第二AR特效。
在一种可能的实施方式中,所述在所述AR画面中展示第二虚拟对象的目标AR特效,包括:
根据预设的不同交互阶段分别对应的所述第二虚拟对象的预设AR特效数据,获取与当前交互阶段对应的所述第二虚拟对象的目标AR特效数据;
基于所述第二虚拟对象的目标AR特效数据,在所述AR画面中展示第二虚拟对象的目标AR特效。
本公开实施例中,通过结合不同触发阶段对应的第二虚拟对象的预设AR特效数据对第二虚拟对象进行展示,可以丰富AR场景的展示内容。
在一种可能的实施方式中,所述响应目标触发操作,在AR画面中展示所述第二虚拟对象发生状态更新的AR特效,包括:
检测到作用在所述AR设备屏幕上的目标触发操作,确定所述目标触发操作对应的触发位置;
在所述触发位置位于所述第二虚拟对象对应的目标位置范围内的情况下,在AR画面中展示所述第二虚拟对象发生状态更新的AR特效。
本公开实施例中,可以根据用户在AR设备屏幕上触发的目标触发操作,比如点击操作,确定是否触发第二虚拟对象发生状态更新的AR特效,从而增加用户与AR设备之间的交互性,提高用户体验度。
在一种可能的实施方式中,所述触发位置为在预先构建的三维场景地图中的坐标位置,所述第二虚拟对象对应的目标位置范围为在预先构建的三维场景地图中的坐标位置范围;
所述确定所述目标触发操作对应的触发位置,包括:
根据所述目标触发操作作用在屏幕上的屏幕位置,以及屏幕坐标系与实时定位与地图构建SLAM坐标系之间的转换关系,确定与所述屏幕位置对应的SLAM坐标位置;
将所述SLAM坐标位置映射到预先构建的三维场景地图中,得到所述目标触发操作在所述预先构建的三维场景地图中对应的所述触发位置。
在一种可能的实施方式中,所述响应目标触发操作,在AR画面中展示所述第二虚拟对象发生状态更新的AR特效,包括:
检测到所述AR设备的位姿数据变化,确定所述AR设备是否朝向所述第二虚拟对象;
在所述AR设备朝向所述第二虚拟对象的情况下,在AR画面中展示所述第二虚拟对象发生状态更新的AR特效。
本公开实施例中,在检测到AR设备的位姿发生变化的情况下,确定AR设备是否朝向第二虚拟对象,通过该朝向信息确定是否触发第二虚拟对象发生状态更新的AR特效,从而可以增加用户与AR设备之间的交互性,提高用户体验度。
在一种可能的实施方式中,所述确定所述AR设备是否朝向所述第二虚拟对象,包括:
获取所述AR设备在预先构建的三维场景地图中的当前位姿数据;
基于所述AR设备的当前位姿数据,确定所述AR设备在所述预先构建的三维场景地图中的当前朝向;
基于所述当前朝向,以及所述第二虚拟对象在所述三维场景地图中的当前位姿数据,确定所述AR设备是否朝向所述第二虚拟对象。
本公开实施例中,通过将虚拟对象和AR设备统一在相同坐标系下确定AR设备针对虚拟对象的朝向情况,可以提升AR场景的虚拟融合程度。
在一种可能的实施方式中,所述AR画面中还展示与所述AR设备保持预设相对位姿关系的第三虚拟对象;
所述响应目标触发操作,在AR画面中展示所述第二虚拟对象发生状态更新的AR特效,包括:
检测到所述AR设备的位姿数据变化,基于所述AR设备在预先构建的三维场景地图中的当前位姿数据和所述预设相对位姿关系,确定所述第三虚拟对象是否朝向所述第二虚拟对象;
在所述第三虚拟对象朝向所述第二虚拟对象的情况下,在AR画面中展示所述第二虚拟对象发生状态更新的AR特效。
在一种可能的实施方式中,所述通过AR设备展示与当前拍摄的现实场景画面匹配的AR画面,包括:
响应针对AR画面中展示的静止状态的第一虚拟对象的移动触发操作,控制所述AR画面中的第一虚拟对象开始移动。
在一种可能的实施方式中
控制所述AR画面中的第一虚拟对象按照目标移动路线移动;
所述交互方法还包括:
在所述第一虚拟对象按照目标移动路线移动到终点位置后,在所述AR画面中展示成功提示信息。
在一种可能的实施方式中,所述交互方法还包括:
在所述AR画面中展示用于指示所述第一虚拟对象的活动状态的状态指示信息;
在所述状态指示信息指示所述第一虚拟对象停止活动的情况下,在所述AR画面中展示失败提示信息。
在一种可能的实施方式中,所述交互方法还包括:
获取当前累计执行目标触发操作的次数;
根据所述当前累计执行目标触发操作的次数,更新所述AR设备的属性值;
确定与所述更新后的属性值对应的所述AR设备的控制属性信息;
所述在AR画面中展示所述第二虚拟对象发生状态更新的AR特效,包括:
基于所述控制属性信息,在所述AR画面中展示所述第二虚拟对象发生状态更新的AR特效。
本公开实施例中,可以随着目标触发操作的次数的累计,在AR画面中展示AR设备对应的不同控制属性信息,便于基于不同的控制属性信息,在AR画面中展示不同的AR特效,以增加用户与AR设备之间的交互性。
在一种可能的实施方式中,所述通过AR设备展示与当前拍摄的现实场景画面匹配的AR画面,包括:
获取AR设备拍摄的现实场景画面;
基于所述现实场景画面,以及预先构建的三维场景地图,在所述AR设备展示与所述AR设备的实时位姿数据匹配的AR画面。
本公开实施例中,通过获取AR设备的实时位姿数据,来展示与AR设备的实时位姿匹配的AR画面,从而可以提高AR画面的虚实融合程度。
在一种可能的实施方式中,所述基于所述现实场景画面,以及预先构建的三维场景地图,在所述AR设备展示与所述AR设备的实时位姿数据匹配的AR画面,包括:
基于所述AR设备拍摄的现实场景画面,以及所述预先构建的三维场景地图,确定所述AR设备的初始位姿数据;
基于所述AR设备的初始位姿数据,通过实时定位与地图构建SLAM,确定所述AR设备的实时位姿数据;
基于所述AR设备的实时位姿数据,在所述AR设备展示与所述AR设备的实时位姿数据匹配的AR画面。
本公开实施例中,在通过AR设备展示与当前拍摄的现实场景画面匹配的AR画面的情况下,可以结合预先构建的三维场景地图以及SLAM技术完成对AR设备的实时定位,从而快速得到准确度较高的AR设备的实时位姿数据。
第二方面,本公开实施例提供了一种增强现实场景下的交互装置,包括:
定位展示模块,用于通过AR设备展示与当前拍摄的现实场景画面匹配的AR画面;所述AR画面中展示有第一虚拟对象;
检测展示模块,用于在检测到预设触发展示条件的情况下,在所述AR画面中展示第二虚拟对象的目标AR特效;所述第二虚拟对象与所述第一虚拟对象之间具有预设的运动关系;
操作展示模块,用于响应目标触发操作,在AR画面中展示所述第二虚拟对象发生状态更新的AR特效。
在一种可能的实施方式中,所述预设触发展示条件包括以下条件中的至少一种:
所述第一虚拟对象到达至少一个目标移动位置中的任一目标移动位置;
当前到达至少一个目标时间点中的任一目标时间点;
所述第二虚拟对象与所述第一虚拟对象之间的距离小于设定距离阈值。
在一种可能的实施方式中,所述预设的运动关系包括预设的相对运动关系;
所述检测展示模块在用于在所述AR画面中展示第二虚拟对象的目标AR特效时,包括:
在所述AR画面展示所述第二虚拟对象按照所述预设的相对运动关系朝向或背离所述第一虚拟对象移动的第一AR特效。
在一种可能的实施方式中,所述预设的运动关系包括预设的交互运动关系;
所述检测展示模块在用于在所述AR画面中展示第二虚拟对象的目标AR特效时,包括:
在所述AR画面中展示所述第二虚拟对象与所述第一虚拟对象之间按照所述预设的交互运动关系进行交互运动的第二AR特效。
在一种可能的实施方式中,所述检测展示模块在用于所述AR画面中展示第二虚拟对象的目标AR特效时,包括:
根据预设的不同交互阶段分别对应的所述第二虚拟对象的预设AR特效数据,获取与当前交互阶段对应的所述第二虚拟对象的目标AR特效数据;
基于所述第二虚拟对象的目标AR特效数据,在所述AR画面中展示第二虚拟对象的目标AR特效。
在一种可能的实施方式中,所述操作展示模块在用于响应目标触发操作,在AR画面中展示所述第二虚拟对象发生状态更新的AR特效时,包括:
检测到作用在所述AR设备屏幕上的目标触发操作,确定所述目标触发操作对应的触发位置;
在所述触发位置位于所述第二虚拟对象对应的目标位置范围内的情况下,在AR画面中展示所述第二虚拟对象发生状态更新的AR特效。
在一种可能的实施方式中,所述触发位置为在预先构建的三维场景地图中的坐标位置,所述第二虚拟对象对应的目标位置范围为在预先构建的三维场景地图中的坐标位置范围;
所述操作展示模块在用于确定所述目标触发操作对应的触发位置时,包括:
根据所述目标触发操作作用在屏幕上的屏幕位置,以及屏幕坐标系与实时定位与地图构建SLAM坐标系之间的转换关系,确定与所述屏幕位置对应的SLAM坐标位置;
将所述SLAM坐标位置映射到预先构建的三维场景地图中,得到所述目标触发操作在所述预先构建的三维场景地图中对应的所述触发位置。
在一种可能的实施方式中,所述操作展示模块在用于响应目标触发操作,在AR画面中展示所述第二虚拟对象发生状态更新的AR特效时,包括:
检测到所述AR设备的位姿数据变化,确定所述AR设备是否朝向所述第二虚拟对象;
在所述AR设备朝向所述第二虚拟对象的情况下,在AR画面中展示所述第二虚拟对象发生状态更新的AR特效。
在一种可能的实施方式中,所述操作展示模块在用于确定所述AR设备是否朝向所述第二虚拟对象时,包括:
获取所述AR设备在预先构建的三维场景地图中的当前位姿数据;
基于所述AR设备的当前位姿数据,确定所述AR设备在所述预先构建的三维场景地图中的当前朝向;
基于所述当前朝向,以及所述第二虚拟对象在所述三维场景地图中的当前位姿数据,确定所述AR设备是否朝向所述第二虚拟对象。
在一种可能的实施方式中,所述AR画面中还展示与所述AR设备保持预设相对位姿关系的第三虚拟对象;
所述操作展示模块在用于响应目标触发操作,在AR画面中展示所述第二虚拟对象发生状态更新的AR特效时,包括:
检测到所述AR设备的位姿数据变化,基于所述AR设备在预先构建的三维场景地图中的当前位姿数据和所述预设相对位姿关系,确定所述第三虚拟对象是否朝向所述第二虚拟对象;
在所述第三虚拟对象朝向所述第二虚拟对象的情况下,在AR画面中展示所述第二虚拟对象发生状态更新的AR特效。
在一种可能的实施方式中,所述定位展示模块在用于通过AR设备展示与当前拍摄的现实场景画面匹配的AR画面时,包括:
响应针对AR画面中展示的静止状态的第一虚拟对象的移动触发操作,控制所述AR画面中的第一虚拟对象开始移动。
在一种可能的实施方式中,所述定位展示模块在用于控制所述AR画面中的第一虚拟对象开始移动时,包括:
控制所述AR画面中的第一虚拟对象按照目标移动路线移动;
所述定位展示模块,还用于在所述第一虚拟对象按照目标移动路线移动到终点位置后,在所述AR画面中展示成功提示信息。
在一种可能的实施方式中,所述检测展示模块还用于:
在所述AR画面中展示用于指示所述第一虚拟对象的活动状态的状态指示信息;
在所述状态指示信息指示所述第一虚拟对象停止活动的情况下,在所述AR画面中展示失败提示信息。
在一种可能的实施方式中,所述操作展示模块还用于:
获取当前累计执行目标触发操作的次数;
根据所述当前累计执行目标触发操作的次数,更新所述AR设备的属性值;
确定与所述更新后的属性值对应的所述AR设备的控制属性信息;
所述操作展示模块在用于在AR画面中展示所述第二虚拟对象发生状态更新的AR特效时,包括:
基于所述控制属性信息,在所述AR画面中展示所述第二虚拟对象发生状态更新的AR特效。
在一种可能的实施方式中,所述定位展示模块在用于通过AR设备展示与当前拍摄的现实场景画面匹配的AR画面时,包括:
获取AR设备拍摄的现实场景画面;
基于所述现实场景画面,以及预先构建的三维场景地图,在所述AR设备展示与所述AR设备的实时位姿数据匹配的AR画面。
在一种可能的实施方式中,所述定位展示模块在用于基于所述现实场景画面,以及预先构建的三维场景地图,在所述AR设备展示与所述AR设备的实时位姿数据匹配的AR画面时,包括:
基于所述AR设备拍摄的现实场景画面,以及所述预先构建的三维场景地图,确定所述AR设备的初始位姿数据;
基于所述AR设备的初始位姿数据,通过实时定位与地图构建SLAM,确定所述AR设备的实时位姿数据;
基于所述AR设备的实时位姿数据,在所述AR设备展示与所述AR设备的实时位姿数据匹配的AR画面。
第三方面,本公开实施例提供了一种电子设备,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储器之间通过总线通信,所述机器可读指令被所述处理器执行时执行如第一方面所述的交互方法的步骤。
第四方面,本公开实施例提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行如第一方面所述的交互方法的步骤。
为使本公开的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本公开实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,此处的附图被并入说明书中并构成本说明书中的一部分,这些附图示出了符合本公开的实施例,并与说明书一起用于说明本公开的技术方案。应当理解,以下附图仅示出了本公开的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出了本公开实施例所提供的一种增强现实场景下的交互方法的流程图;
图2示出了本公开实施例所提供的一种基于现实场景画面展示AR画面的方法流程图;
图3示出了本公开实施例所提供的一种基于不同交互阶段下第二虚拟对象的预设AR特效数据,在AR画面中展示第二虚拟对象的方法流程图;
图4示出了本公开实施例所提供的第一种控制第二虚拟对象发生状态更新的方法流程图;
图5示出了本公开实施例所提供的第二种控制第二虚拟对象发生状态更新的方法流程图;
图6示出了本公开实施例所提供的第三种控制第二虚拟对象发生状态更新的方法流程图;
图7示出了本公开实施例所提供的一种通过AR画面展示提示信息的方法流程图;
图8示出了本公开实施例所提供的一种确定AR设备的控制属性信息的方法流程图;
图9示出了本公开实施例所提供的一种AR画面的展示界面示意图;
图10示出了本公开实施例所提供的一种增强现实场景下的交互装置的结构示意图;
图11示出了本公开实施例所提供的一种电子设备的示意图。
具体实施方式
为使本公开实施例的目的、技术方案和优点更加清楚,下面将结合本公开实施例中附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本公开实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本公开的实施例的详细描述并非旨在限制要求保护的本公开的范围,而是仅仅表示本公开的选定实施例。基于本公开的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本公开保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
本文中术语“和/或”,仅仅是描述一种关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中术语“至少一种”表示多种中的任意一种或多种中的至少两种的任意组合,例如,包括A、B、C中的至少一种,可以表示包括从A、B和C构成的集合中选择的任意一个或多个元素。
增强现实(Augmented Reality,AR)技术可以应用于AR设备中,AR设备可以为任何能够支持AR功能的电子设备,包括但不限于AR眼镜、平板电脑、智能手机等。当AR设备在现实场景中被操作时,通过该AR设备可以观看到叠加在现实场景中的虚拟对象,当AR技术应用于娱乐类场景中,比如应用于交互场景中,如何能够通过AR技术增加用户与AR设备之间的交互性,为本公开实施例所要讨论的内容,下面将结合以下具体实施例进行阐述。
基于上述研究,本公开提供了一种增强现实场景下的交互方法,可以通过AR设备当前拍摄的现实场景画面展示匹配的AR画面,这样在AR设备拍摄的现实场景画面的角度变化时,该第一虚拟对象对应的展示角度也可以跟随拍摄角度的变化而变化,从而可以使得AR画面中展示的第一虚拟对象的展现形式更具有真实感,另外,在检测到预设触发展示条件的情况下,还可以在AR画面中展示与第一虚拟对象之间具有预设的运动关系的第二虚拟对象的目标AR特效,用户可以通过针对AR设备的触发操作,对第二虚拟对象的展示状态进行更新,从而增加用户与AR设备之间的交互性。
为便于对本实施例进行理解,首先对本公开实施例所公开的一种增强现实场景下的交互方法进行详细介绍,本公开实施例所提供的增强现实场景下的交互方法的执行主体一般为具有一定计算能力的计算机设备,该计算机设备例如包括:终端设备或服务器或其它处理设备,终端设备可以是具有AR功能的AR设备,比如可以包括AR眼镜、平板电脑、智能手机、智能穿戴式设备等具有显示功能和数据处理能力的设备,本公开实施例中不作限定。在一些可能的实现方式中,该增强现实场景下的交互方法可以通过处理器调用存储器中存储的计算机可读指令的方式来实现。
参见图1所示,为本公开实施例提供的增强现实场景下的交互方法的流程图,如图1所示,该交互方法包括以下S101~S103:
S101,通过AR设备展示与当前拍摄的现实场景画面匹配的AR画面;AR画面中展示有第一虚拟对象。
示例性地,AR设备为具有AR功能的设备,包括AR眼镜、平板电脑、智能手机、智能穿戴式设备等具有显示功能和数据处理能力的设备。
在AR设备拍摄到现实场景画面后,可以基于该现实场景画面以及预先构建的三维场景地图,确定AR设备的当前位姿数据,然后基于该AR设备的当前位姿数据,以及预先确定的第一虚拟对象在三维场景地图中对应的位姿数据,在AR设备中展示该第一虚拟对象;或者,还可以基于AR设备拍摄的现实场景画面中包含的实体物体,确定匹配的AR画面,以及展示第一虚拟对象,本公开不进行具体限定。
示例性地,以设定AR交互场景为例,该第一虚拟对象可以是位于虚拟水域中的虚拟北极熊,在对AR设备定位成功后,可以在AR画面中展示位于虚拟水域中的虚拟北极熊。
S102,在检测到预设触发展示条件的情况下,在AR画面中展示第二虚拟对象的目标AR特效;第二虚拟对象与第一虚拟对象之间具有预设的运动关系。
示例性地,预设触发展示条件可以预先设定好的,在检测到满足预设触发展示条件的情况下,再在AR画面中展示第二虚拟对象的目标AR特效。
示例性地,在未检测到预设触发展示条件的情况下,在AR画面中可以不展示第二虚拟对象,在检测到预设触发展示条件的情况下,在AR画面中开始展示第二虚拟对象的目标AR特效;或者,在未检测到预设触发展示条件的情况下,在AR画面中展示的第二虚拟对象处于初始AR特效,检测到预设触发展示条件的情况下,在AR画面中展示第二虚拟对象由初始AR特效变为目标AR特效。
示例性地,第二虚拟对象与第一虚拟对象之间具有的预设的运动关系可以包括预设的相对运动关系和/或预设的交互运动关系,其中,预设的相对运动关系可以包括第二虚拟对象朝向或背离第一虚拟对象的方向移动,预设的交互运动关系可以包括第二虚拟对象与第一虚拟对象发生接触。
在预设的运动关系包含预设的相对运动关系的情况下,检测到预设触发展示条件,可以在AR画面中可以展示第二虚拟对象朝向或背离第一虚拟对象移动的目标AR特效;在预设的运动关系包含预设的交互运动关系的情况下,检测到预设触发展示条件,可以在AR画面中可以展示第二虚拟对象与第一虚拟对象接触的目标AR特效;在预设的运动关系同时包含预设的相对运动关系和预设的交互运动关系的情况下,检测到预设触发展示条件,可以在AR画面中可以展示第二虚拟对象朝向第一虚拟对象移动,并在靠近后与第一虚拟对象接触的目标AR特效。
示例性地,针对上述提到的AR交互场景,以预设的运动关系包含预设的相对运动关系和预设的交互运动关系为例,该第二虚拟对象可以为在满足预设触发展示条件下展示的虚拟鲨鱼,该虚拟鲨鱼和上述虚拟北极熊之间具有预设的运动关系,在满足预设触发展示条件的情况下,在AR画面中可以展示虚拟鲨鱼朝向虚拟北极熊移动,并在靠近虚拟北极熊后攻击虚拟北极熊的目标AR特效。
S103,响应目标触发操作,在AR画面中展示第二虚拟对象发生状态更新的AR特效。
示例性地,目标触发操作可以通过在AR设备屏幕上进行针对第二虚拟对象的点击操作进行触发,或者,通过调整AR设备的位姿数据进行触发,这样,在检测到存在目标触发操作后,可以在AR画面中展示第二虚拟对象发生状态更新的AR特效。
示例性地,在检测到目标触发操作之前,可以在AR画面中展示的第二虚拟对象处于目标AR特效,比如朝向第一虚拟对象的方向进行移动的目标AR特效,在检测到目标触发操作后,在AR画面中展示第二虚拟对象由目标AR特效发生状态更新的AR特效,比如由朝向第一虚拟对象的方向进行移动的AR特效变为远离第一虚拟对象的方向进行移动的AR特效。
示例性地,以营救虚拟北极熊的AR交互场景为例,目标触发操作可以为攻击虚拟鲨鱼的操作,这样,在检测到存在攻击虚拟鲨鱼的操作的情况下,可以在AR画面中展示虚拟鲨鱼被攻击后发生状态更新的AR特效,比如远离虚拟北极熊的AR特效。
本公开实施例中,在检测到预设触发展示条件的情况下,可以在AR画面中展示与第一虚拟对象之间具有预设的运动关系的第二虚拟对象的目标AR特效,用户可以通过针对AR设备的触发操作,对第二虚拟对象的展示状态进行更新,从而增加用户与AR设备之间的交互性。
下面将结合具体实施例对上述S101~S103进行具体阐述。
针对上述S101提到的通过AR设备展示与当前拍摄的现实场景画面匹配的AR画面,如图2所示,具体包括以下S201~S202:
S201,获取AR设备拍摄的现实场景画面;
S202,基于现实场景画面,以及预先构建的三维场景地图,在AR设备展示与AR设备的实时位姿数据匹配的AR画面。
示例性地,预先构建的三维场景地图可以根据预先采集的多张现实场景图片来构建,比如基于预先采集的多张现实场景图像构建表征现实场景的三维场景模型,然后将三维场景模型与现实场景对应的世界坐标系对齐,得到三维场景地图。
示例性地,在获取到AR设备拍摄的现实场景画面,可以提取该现实场景画面中包含的特征点,然后与构建三维场景地图时拍摄的多张现实场景图片对应的特征点进行比对,确定与AR设备拍摄的现实场景画面匹配的目标现实场景图片,然后基于目标现实场景图片对应的拍摄位姿数据,确定AR设备的当前位姿数据,按照这样的方式,可以不断根据AR设备拍摄的现实场景画面确定出AR设备的实时位姿数据,然后按照该实时位姿数据可以在AR设备展示与AR设备的实时位姿数据匹配的AR画面。
本公开实施例中,通过获取AR设备的实时位姿数据,来展示与AR设备的实时位姿匹配的AR画面,从而可以提高AR画面的虚实融合程度。
考虑到基于上述过程确定AR设备的实时位姿数据时,需要不断地比对特征点,以确定目标现实场景图片,过程繁琐,容易发生定位延迟,因此,在基于现实场景画面,以及预先构建的三维场景地图,在AR设备展示与AR设备的实时位姿数据匹配的AR画面时,包括以下S2021~S2023:
S2021,基于AR设备拍摄的现实场景画面,以及预先构建的三维场景地图,确定AR设备的初始位姿数据;
S2022,基于AR设备的初始位姿数据,通过实时定位与地图构建SLAM,确定AR设备的实时位姿数据;
S2023,基于AR设备的实时位姿数据,在AR设备展示与AR设备的实时位姿数据匹配的AR画面。
为了提高定位准确度,在初始阶段,可以基于AR设备拍摄的现实场景画面,以及预先构建的三维场景地图,确定AR设备在现实场景对应的世界坐标系中的初始位姿数据,然后以该初始位姿数据为起点,基于实时定位与地图构建SLAM技术,确定AR设备在世界坐标系中的实时位姿数据,这样,基于SLAM技术可以快速完成对AR设备的实时定位,从而在AR设备中展示与AR设备的实时位姿数据匹配的AR画面。
本公开实施例中,在通过AR设备展示与当前拍摄的现实场景画面匹配的AR画面的情况下,可以结合预先构建的三维场景地图以及SLAM技术完成对AR设备的实时定位,从而快速得到准确度较高的AR设备的实时位姿数据。
针对上述S102提到的在AR画面中展示第二虚拟对象的目标AR特效的情况下,预设触发展示条件包括以下条件中的至少一种:
(1)第一虚拟对象到达至少一个目标移动位置中的任一目标移动位置;
(2)当前到达至少一个目标时间点中的任一目标时间点;
(3)第二虚拟对象与第一虚拟对象之间的距离小于设定距离阈值。
针对第(1)种预设触发展示条件,可以根据第一虚拟对象的移动位置来确定是否达到触发第二虚拟对象展示的条件,具体是确定是否达到第二虚拟对象靠近或者远离第一虚拟对象的条件,比如,可以预先设定第一虚拟对象在三维场景地图中的移动轨迹,以及设定至少一个目标移动位置作为触发第二虚拟对象展示的条件,比如设置多个目标移动位置,包括目标移动位置A、目标移动位置B和目标移动位置C,则在第一虚拟对象移动至目标移动位置A、目标移动位置B和目标移动位置C中的任一目标移动位置时,可以触发第二虚拟对象进行展示。
针对第(2)种预设触发展示条件,可以根据AR交互场景的展示时间来确定是否达到触发第二虚拟对象展示的条件,具体是确定是否达到第二虚拟对象靠近或者远离第一虚拟对象的条件,比如可以预先设置从AR交互场景开始的至少一个目标时间点作为触发第二虚拟对象展示的条件,当AR交互场景进行到任一目标时间点时,可以在AR画面中展示第二虚拟对象的目标AR特效。
针对第(3)种预设触发展示条件,具体是确定是否达到第二虚拟对象攻击第一虚拟对象的条件,比如在确定第二虚拟对象和第一虚拟对象之间的距离小于设定距离阈值时,可以在AR画面中展示第二虚拟对象攻击第一虚拟对象的目标AR特效。
针对上述提到的在AR画面中展示第二虚拟对象的目标AR特效时,第二虚拟对象与第一虚拟对象之间具有预设的运动关系,在一种实施方式中,预设的运动关系包括预设的相对运动关系;
这样,在AR画面中展示第二虚拟对象的目标AR特效时,包括:
在AR画面展示第二虚拟对象按照预设的相对运动关系朝向或背离第一虚拟对象移动的第一AR特效。
示例性地,在预设的运动关系包括预设的相对运动关系的情况下,在AR画面中展示第二虚拟对象时,可以展示第二虚拟对象朝向或者背离第一虚拟对象移动的第一AR特效,以预设触发展示条件为上述第(2)种情况(当前到达至少一个目标时间点中的任一目标时间点)为例,比如在AR交互场景到的任一目标时间点的情况下,可以在AR画面中展示第二虚拟对象朝向或者背离第一虚拟对象移动的第一AR特效。
以第二虚拟对象为虚拟鲨鱼,第一虚拟对象为虚拟北极熊为例,在当前到达至少一个目标时间点中的任一目标时间点的情况下,可以在AR画面中展示虚拟鲨鱼向虚拟北极熊移动的第一AR特效,或者在AR画面中展示虚拟鲨鱼远离第一虚拟对象的第一AR特效。
在另一种实施方式中,预设的运动关系包括预设的交互运动关系;
这样,在AR画面中展示第二虚拟对象的目标AR特效时,包括:
在AR画面中展示第二虚拟对象与第一虚拟对象之间按照预设的交互运动关系进行交互运动的第二AR特效。
示例性地,在预设的运动关系包括预设的交互运动关系的情况下,在AR画面中展示第二虚拟对象时,可以展示第二虚拟对象与第一虚拟对象接触的第二AR特效,以预设触发展示条件为上述第(2)种情况(当前到达至少一个目标时间点中的任一目标时间点)为例,比如在AR交互场景到的任一目标时间点的情况下,可以在AR画面中展示第二虚拟对象与第一虚拟对象接触的第二AR特效。
具体地,在AR交互场景为上述提到的营救北极熊的交互场景的情况下,交互运动具体可以包括虚拟鲨鱼攻击虚拟北极熊的情况,在当前到达至少一个目标时间点中的任一目标时间点的情况下,可以在AR画面中展示虚拟鲨鱼攻击虚拟北极熊的第二AR特效。
示例性地,在预设的运动关系同时包括预设的相对运动关系和预设的交互运动关系的情况下,在AR画面中展示第二虚拟对象时,可以展示第二虚拟对象朝向第一虚拟对象移动的第一AR特效,并在靠近第一虚拟对象时,展示第二虚拟对象与第一虚拟对象发生接触的第二AR特效。
结合上述第(2)种情况(当前到达至少一个目标时间点中的任一目标时间点)和第(3)种情况(第二虚拟对象与第一虚拟对象之间的距离小于设定距离阈值)为例,比如在AR交互场景到的任一目标时间点的情况下,可以在AR画面中展示第二虚拟对象向第一虚拟对象接触移动的第一AR特效,然后在第二虚拟对象与第一虚拟对象之间的距离小于设定距离阈值的情况下,展示第二虚拟对象与第一虚拟对象发生接触的第二AR特效。
具体地,在AR交互场景为上述提到的营救北极熊的交互场景的情况下,交互运动具体可以包括虚拟鲨鱼攻击虚拟北极熊的情况,当前到达至少一个目标时间点中的任一目标时间点的情况下,可以在AR画面中展示虚拟鲨鱼向虚拟北极熊移动的第一AR特效,然后在虚拟鲨鱼与虚拟北极熊之间的距离小于设定距离阈值的情况下,在AR画面中展示虚拟鲨鱼攻击虚拟北极熊的第二AR特效。
针对AR交互场景为例,在交互场景中可以包括不同的交互阶段,不同的交互阶段展示的第二虚拟对象的目标AR特效可能不同,具体地,在AR画面中展示第二虚拟对象的目标AR特效时,如图3所示,包括以下S301~S302:
S301,根据预设的不同交互阶段分别对应的第二虚拟对象的预设AR特效数据,获取与当前交互阶段对应的第二虚拟对象的目标AR特效数据;
S302,基于第二虚拟对象的目标AR特效数据,在AR画面中展示第二虚拟对象的目标AR特效。
示例性地,AR特效数据中可以包含第二虚拟对象的类型、移动速度、产生的频次、产生的数量、被击退需要的攻击次数等特效数据,针对不同的交互阶段,第二虚拟对象对应的预设AR特效数据可以不同,比如,针对上述提到的营救北极熊的AR交互场景中,高层次的交互阶段相比底层次的交互阶段,虚拟鲨鱼的移动速度可以更快、阐述的频次可以更快、产生的数量可以更多、被击退需要的攻击次数可以更多。
这里可以根据AR交互场景的当前阶段,确定第二虚拟对象的目标AR特效数据,然后按照第二虚拟对象的目标AR特效数据,在AR画面中展示第二虚拟对象的目标AR特效。
本公开实施例中,通过结合不同触发阶段对应的第二虚拟对象的预设AR特效数据对第二虚拟对象进行展示,可以丰富AR场景的展示内容。
在一种实施方式中,针对上述S103,在响应目标触发操作,在AR画面中展示第二虚拟对象发生状态更新的AR特效时,如图4所示,可以包括以下S401~S402:
S401,检测到作用在AR设备屏幕上的目标触发操作,确定目标触发操作对应的触发位置;
S402,在触发位置位于第二虚拟对象对应的目标位置范围内的情况下,在AR画面中展示第二虚拟对象发生状态更新的AR特效。
示例性地,作用在AR设备屏幕上的目标触发操作可以为针对AR设备屏幕的点击操作,比如用户可以点击AR设备屏幕上的虚拟鲨鱼所在的位置,并在确定点击中虚拟鲨鱼的情况下,触发针对虚拟鲨鱼的射击操作。
具体地,这里在确定是否击中虚拟鲨鱼时,可以首先获取目标触发操作在AR设备屏幕上的点击位置,然后基于该点击位置确定目标触发操作的触发位置,在确定该触发位置位于第二虚拟对象的目标位置范围内的情况下,可以确定触发了针对虚拟鲨鱼的射击操作,进一步可以在AR画面中展示虚拟鲨鱼被击中后发生状态更新的AR特效。
本公开实施例中,可以根据用户在AR设备屏幕上触发的目标触发操作,比如点击操作,确定是否触发第二虚拟对象发生状态更新的AR特效,从而增加用户与AR设备之间的交互性,提高用户体验度。
在另一种实施方式中,AR画面中还展示与AR设备保持预设相对位姿关系的第三虚拟对象,比如在AR交互场景为营救北极熊的交互场景中,该第三虚拟对象可以为表示AR设备的虚拟炮筒,在触发位置位于第二虚拟对象对应的目标位置范围内的情况下,在AR画面中展示第二虚拟对象在被第三虚拟对象射击后发生状态更新的AR特效。
具体地,触发位置为在预先构建的三维场景地图中的坐标位置,第二虚拟对象对应的目标位置范围为在预先构建的三维场景地图中的坐标位置范围,即在确定目标触发操作对应的触发位置命中第二虚拟对象对应的目标位置范围的情况下,可以触发针对虚拟鲨鱼的射击操作。
具体地,在确定目标触发操作对应的触发位置时,可以包括以下S4011~S4012:
S4011,根据目标触发操作作用在屏幕上的屏幕位置,以及屏幕坐标系与实时定位与地图构建SLAM坐标系之间的转换关系,确定与屏幕位置对应的SLAM坐标位置;
S4012,将SLAM坐标位置映射到预先构建的三维场景地图中,得到目标触发操作在预先构建的三维场景地图中对应的触发位置。
示例性地,目标触发操作作用在屏幕上的屏幕位置可以是用户在AR设备屏幕上的点击位置,针对AR设备屏幕构建屏幕坐标系,可以确定出该点击位置在该屏幕坐标系下对应的坐标位置,然后基于屏幕坐标系与SLAM坐标系之间的转换关系,可以将屏幕位置在屏幕坐标系下的坐标位置转换至在SLAM坐标系下的SLAM坐标位置。
进一步,将该SLAM坐标位置映射至预先构建的三维场景地图中,可以得到目标触发操作在预先构建的三维场景地图中对应的触发位置。
在另一种实施方式中,针对上述S103,在响应目标触发操作,在AR画面中展示第二虚拟对象发生状态更新的AR特效时,如图5所示,可以包括以下S501~S502:
S501,检测到AR设备的位姿数据变化,确定AR设备是否朝向第二虚拟对象;
S502,在AR设备朝向第二虚拟对象的情况下,在AR画面中展示第二虚拟对象发生状态更新的AR特效。
示例性地,除了上述提到的基于在AR设备屏幕上触发的目标触发操作,还可以将AR设备的位姿数据作为检测是否触发目标触发操作的情况,具体可以在检测到AR设备的位姿数据发生变化时,确定AR设备是否朝向第二虚拟对象,比如将AR设备作为射击第二虚拟对象的虚拟炮筒,可以基于AR设备的位姿数据,确定该AR设备是否朝向第二虚拟对象。
在确定AR设备朝向第二虚拟对象的情况下,可以确定触发了目标触发操作,即可以在AR画面中展示第二虚拟对象发生状态更新的AR特效。
本公开实施例中,在检测到AR设备的位姿发生变化的情况下,确定AR设备是否朝向第二虚拟对象,通过该朝向信息确定是否触发第二虚拟对象发生状态更新的AR特效,从而可以增加用户与AR设备之间的交互性,提高用户体验度。
具体地,在确定AR设备是否朝向第二虚拟对象时,可以包括以下S5011~S5013:
S5011,获取AR设备在预先构建的三维场景地图中的当前位姿数据;
S5012,基于AR设备的当前位姿数据,确定AR设备在预先构建的三维场景地图中的当前朝向;
S5013,基于当前朝向,以及第二虚拟对象在三维场景地图中的当前位姿数据,确定AR设备是否朝向第二虚拟对象。
在检测到AR设备的位姿数据变化的情况下,获取AR设备在预先构建的三维场景地图中的当前位姿数据,该当前位姿数据可以包含AR设备的当前朝向,具体可以通过AR设备包含的摄像头的朝向来表示,然后根据第二虚拟对象在三维场景地图中的当前位姿数据,可以确定AR设备是否朝向该第二虚拟对象。
本公开实施例中,通过将虚拟对象和AR设备统一在相同坐标系下确定AR设备针对虚拟对象的朝向情况,可以提升AR场景的虚拟融合程度。
在一种实施方式中,AR画面中还展示与AR设备保持预设相对位姿关系的第三虚拟对象,比如在AR交互场景为营救北极熊的交互场景中,该第三虚拟对象可以为表示AR设备的虚拟炮筒,虚拟炮筒在三维场景地图中的位姿数据和AR设备在三维场景地图中的位姿数据相关联。
具体地,针对上述S103,在响应目标触发操作,在AR画面中展示第二虚拟对象发生状态更新的AR特效时,如图6所示,可以包括以下S601~S602:
S601,检测到AR设备的位姿数据变化,基于AR设备在预先构建的三维场景地图中的当前位姿数据和预设相对位姿关系,确定第三虚拟对象是否朝向第二虚拟对象;
S602,在第三虚拟对象朝向第二虚拟对象的情况下,在AR画面中展示第二虚拟对象发生状态更新的AR特效。
这里确定第三虚拟对象是否朝向第二虚拟对象,可以向根据AR设备在预先构建的三维场景地图中的当前位姿数据和预设相对位姿关系,确定第三虚拟对象在该预先构建的三维场景中的当前位姿数据,然后基于该第三虚拟对象在三维场景地图中的当前位姿数据和第二虚拟对象在该三维场景地图中的当前位姿数据,确定第三虚拟对象是否朝向第二虚拟对象,并在确定第三虚拟对象朝向第二虚拟对象的情况下,在AR画面中展示第二虚拟对象在被第三虚拟对象射击下发生状态更新的AR特效。
在一种实施方式中,在通过AR设备展示与当前拍摄的现实场景画面匹配的AR画面时,可以包括:
响应针对AR画面中展示的静止状态的第一虚拟对象的移动触发操作,控制AR画面中的第一虚拟对象开始移动。
示例性地,针对在AR设备中展示的初始AR画面可以为静止状态的AR画面,在该AR画面中可以展示用于触发AR交互场景开始的操作按钮,用户可以点击该操作按钮,触发针对AR画面中处于静止状态的第一虚拟对象的移动触发操作,此时可以控制AR交互场景开始,同时第一虚拟对象开始移动。
具体地,在控制AR画面中的第一虚拟对象开始移动时,可以包括:
控制AR画面中的第一虚拟对象按照目标移动路线移动。
示例性地,在控制第一虚拟对象开始移动的过程中,可以预先设定第一虚拟对象在三维场景地图中的目标移动路线,从而控制AR画面中的第一虚拟对象可以按照该目标移动路线进行移动,比如从AR画面中的A位置移动至B位置。
本公开实施例提供的交互方法还包括:
在第一虚拟对象按照目标移动路线移动到终点位置后,在AR画面中展示成功提示信息。
示例性地,在AR交互场景中,通过AR设备控制第二虚拟对象发生状态更新的AR特效,以使得第一虚拟对象能够按照目标移动路线移动到终点位置,这样,在第一虚拟对象能够按照目标移动路线移动到终点位置后,可以在AR画面中展示用于指示AR设备成功的提示信息。
示例性地,以AR交互场景为营救北极熊的交互场景为例,终点位置为上述提到的目标移动路线的B位置,当控制AR画面中的虚拟北极熊移动至B位置后,可以在AR画面中展示AR设备在AR交互场景中获得成功,即营救北极熊成功的提示信息。
在一种实施方式中,如图7所示,本公开实施例提供的交互方法还包括:
S701,在AR画面中展示用于指示第一虚拟对象的活动状态的状态指示信息;
S702,在状态指示信息指示第一虚拟对象停止活动的情况下,在AR画面中展示失败提示信息。
示例性地,第一虚拟对象在AR画面中可以处于活动状态,比如按照目标移动路线进行移动,在移动过程中,在AR画面中展示第二虚拟对象的目标AR特效后,可以对第一虚拟对象的活动状态发生影响,这里可以增加指示第一虚拟对象的活动状态的状态指示信息,第二虚拟对象出现后与第一虚拟对象之间的交互次数,AR画面中展示的该状态指示信息可以发生变化。
示例性地,在上述AR交互场景中,指示第一虚拟对象的活动状态的状态指示信息可以通过时间剩余信息来表示,或者通过血量剩余信息来表示,以血量剩余信息为例,当血量剩余信息指示血量剩余量小于预设阈值时,可以指示第一虚拟对象停止活动,即虚拟北极熊停止活动,此时可以在AR画面中展示失败提示信息,比如营救北极熊失败的提示信息。
在一种实施方式中,如图8所示,本公开实施例提供的交互方法还包括以下S801~S803:
S801,获取当前累计执行目标触发操作的次数;
S802,根据当前累计执行目标触发操作的次数,更新AR设备的属性值;
S803,确定与更新后的属性值对应的AR设备的控制属性信息。
示例性地,在AR交互场景中,随着目标触发操作次数的积累,可以更新第二虚拟对象发生状态更新的次数,同时,目标触发操作次数的积累,可以更新AR设备在AR交互场景中的属性值,该属性值可以表示AR设备在AR交互场景中的控制属性信息,比如随着属性值的变大,AR设备在AR交互场景下的控制力度越大,这样在响应目标触发操作的情况下,致使第二虚拟对象发生状态更新的幅度也就越大。
示例性地,当前累计执行的目标触发操作的次数可以作为触发针对第二虚拟对象的射击操作的次数,随着针对第二虚拟对象的射击操作的次数的积累,可以更新AR设备的属性值,在AR交互场景中,AR设备的属性值可以表示为AR设备在AR画面中对象的第三虚拟对象的经验值,比如上述提到的虚拟炮筒的经验值。
随着AR设备的属性值的增加,可以确定AR设备在AR交互场景中的控制属性信息,比如属性值较低时,AR设备在AR交互场景中的射击强度较低,随着属性值的增加,AR设备在AR交互场景中的射击强度也可以增加,此外,除了影响AR设备在AR画面中的射击强度,也可以影响AR设备在AR画面中对应的射击子弹的类型。
这样,在AR画面中展示第二虚拟对象发生状态更新的AR特效时,可以包括:
基于控制属性信息,在AR画面中展示第二虚拟对象发生状态更新的AR特效。
示例性地,对应不同的控制属性信息的AR设备,在AR画面中击中第二虚拟对象后,第二虚拟对象发生状态更新的AR特效可以不同,比如,射击强度较低的AR设备,在AR画面中击中第二虚拟对象后,可以在AR画面中展示状态更新幅度较小的第二虚拟对象,而射击强度较高的AR设备,在AR画面中击中第二虚拟对象后,可以在AR画面中展示状态更新幅度较大的第二虚拟对象。
本公开实施例中,可以随着目标触发操作的次数的累计,在AR画面中展示AR设备对应的不同控制属性信息,便于基于不同的控制属性信息,在AR画面中展示不同的AR特效,以增加用户与AR设备之间的交互性。
下面将结合图9所示的AR交互场景为例,对上述交互过程进行具体介绍。
其中第一虚拟对象为虚拟北极熊,在AR交互场景中的预设移动路线为从A位置向B位置移动,第二虚拟对象为在检测到预设触发展示条件的情况下,在AR画面中展示靠近并攻击虚拟北极熊的鲨鱼,第三虚拟对象为与AR设备关联的虚拟炮筒,可以在用户触发下,射击虚拟鲨鱼,营救北极熊从A位置顺利移动至B位置,此外,AR画面中还展示虚拟北极熊对应的血量条,该血量条用于指示虚拟北极熊在AR交互场景中的活动状态,该血量条中的剩余血量在虚拟北极熊受到虚拟鲨鱼的攻击时会降低,在降低为0时,指示虚拟北极熊处于停止活动状态,可以在AR画面中展示营救北极熊失败的提示信息,反之,在血量条降低为0之前,虚拟北极熊成功移动至目的地B位置的情况下,可以在AR画面中展示营救北极熊成功的提示信息。
本领域技术人员可以理解,在具体实施方式的上述方法中,各步骤的撰写顺序并不意味着严格的执行顺序而对实施过程构成任何限定,各步骤的具体执行顺序应当以其功能和可能的内在逻辑确定。
基于同一技术构思,本公开实施例中还提供了与增强现实场景下的交互方法对应的增强现实场景下的交互装置,由于本公开实施例中的交互装置解决问题的原理与本公开实施例上述交互方法相似,因此装置的实施可以参见方法的实施,重复之处不再赘述。
参照图10所示,为本公开实施例提供的一种在增强现实场景下的交互装置900的示意图,该交互装置包括:
定位展示模块901,用于通过AR设备展示与当前拍摄的现实场景画面匹配的AR画面;AR画面中展示有第一虚拟对象;
检测展示模块902,用于在检测到预设触发展示条件的情况下,在AR画面中展示第二虚拟对象的目标AR特效;第二虚拟对象与第一虚拟对象之间具有预设的运动关系;
操作展示模块903,用于响应目标触发操作,在AR画面中展示第二虚拟对象发生状态更新的AR特效。
在一种可能的实施方式中,预设触发展示条件包括以下条件中的至少一种:
第一虚拟对象到达至少一个目标移动位置中的任一目标移动位置;
当前到达至少一个目标时间点中的任一目标时间点;
第二虚拟对象与第一虚拟对象之间的距离小于设定距离阈值。
在一种可能的实施方式中,预设的运动关系包括预设的相对运动关系;
检测展示模块902在用于在AR画面中展示第二虚拟对象的目标AR特效时,包括:
在AR画面展示第二虚拟对象按照预设的相对运动关系朝向或背离第一虚拟对象移动的第一AR特效。
在一种可能的实施方式中,预设的运动关系包括预设的交互运动关系;
检测展示模块902在用于在AR画面中展示第二虚拟对象的目标AR特效时,包括:
在AR画面中展示第二虚拟对象与第一虚拟对象之间按照预设的交互运动关系进行交互运动的第二AR特效。
在一种可能的实施方式中,检测展示模块902在用于AR画面中展示第二虚拟对象的目标AR特效时,包括:
根据预设的不同交互阶段分别对应的第二虚拟对象的预设AR特效数据,获取与当前交互阶段对应的第二虚拟对象的目标AR特效数据;
基于第二虚拟对象的目标AR特效数据,在AR画面中展示第二虚拟对象的目标AR特效。
在一种可能的实施方式中,操作展示模块903在用于响应目标触发操作,在AR画面中展示第二虚拟对象发生状态更新的AR特效时,包括:
检测到作用在AR设备屏幕上的目标触发操作,确定目标触发操作对应的触发位置;
在触发位置位于第二虚拟对象对应的目标位置范围内的情况下,在AR画面中展示第二虚拟对象发生状态更新的AR特效。
在一种可能的实施方式中,触发位置为在预先构建的三维场景地图中的坐标位置,第二虚拟对象对应的目标位置范围为在预先构建的三维场景地图中的坐标位置范围;
操作展示模块903在用于确定目标触发操作对应的触发位置时,包括:
根据目标触发操作作用在屏幕上的屏幕位置,以及屏幕坐标系与实时定位与地图构建SLAM坐标系之间的转换关系,确定与屏幕位置对应的SLAM坐标位置;
将SLAM坐标位置映射到预先构建的三维场景地图中,得到目标触发操作在预先构建的三维场景地图中对应的触发位置。
在一种可能的实施方式中,操作展示模块903在用于响应目标触发操作,在AR画面中展示第二虚拟对象发生状态更新的AR特效时,包括:
检测到AR设备的位姿数据变化,确定AR设备是否朝向第二虚拟对象;
在AR设备朝向第二虚拟对象的情况下,在AR画面中展示第二虚拟对象发生状态更新的AR特效。
在一种可能的实施方式中,操作展示模块903在用于确定AR设备是否朝向第二虚拟对象时,包括:
获取AR设备在预先构建的三维场景地图中的当前位姿数据;
基于AR设备的当前位姿数据,确定AR设备在预先构建的三维场景地图中的当前朝向;
基于当前朝向,以及第二虚拟对象在三维场景地图中的当前位姿数据,确定AR设备是否朝向第二虚拟对象。
在一种可能的实施方式中,AR画面中还展示与AR设备保持预设相对位姿关系的第三虚拟对象;
操作展示模块903在用于响应目标触发操作,在AR画面中展示第二虚拟对象发生状态更新的AR特效时,包括:
检测到AR设备的位姿数据变化,基于AR设备在预先构建的三维场景地图中的当前位姿数据和预设相对位姿关系,确定第三虚拟对象是否朝向第二虚拟对象;
在第三虚拟对象朝向第二虚拟对象的情况下,在AR画面中展示第二虚拟对象发生状态更新的AR特效。
在一种可能的实施方式中,定位展示模块901在用于通过AR设备展示与当前拍摄的现实场景画面匹配的AR画面时,包括:
响应针对AR画面中展示的静止状态的第一虚拟对象的移动触发操作,控制AR画面中的第一虚拟对象开始移动。
在一种可能的实施方式中,定位展示模块901在用于控制AR画面中的第一虚拟对象开始移动时,包括:
控制AR画面中的第一虚拟对象按照目标移动路线移动;
定位展示模块,还用于在第一虚拟对象按照目标移动路线移动到终点位置后,在AR画面中展示成功提示信息。
在一种可能的实施方式中,检测展示模块902还用于:
在AR画面中展示用于指示第一虚拟对象的活动状态的状态指示信息;
在状态指示信息指示第一虚拟对象停止活动的情况下,在AR画面中展示失败提示信息。
在一种可能的实施方式中,操作展示模块903还用于:
获取当前累计执行目标触发操作的次数;
根据当前累计执行目标触发操作的次数,更新AR设备的属性值;
确定与更新后的属性值对应的AR设备的控制属性信息;
操作展示模块903在用于在AR画面中展示第二虚拟对象发生状态更新的AR特效时,包括:
基于控制属性信息,在AR画面中展示第二虚拟对象发生状态更新的AR特效。
在一种可能的实施方式中,定位展示模块901在用于通过AR设备展示与当前拍摄的现实场景画面匹配的AR画面时,包括:
获取AR设备拍摄的现实场景画面;
基于现实场景画面,以及预先构建的三维场景地图,在AR设备展示与AR设备的实时位姿数据匹配的AR画面。
在一种可能的实施方式中,定位展示模块901在用于基于现实场景画面,以及预先构建的三维场景地图,在AR设备展示与AR设备的实时位姿数据匹配的AR画面时,包括:
基于AR设备拍摄的现实场景画面,以及预先构建的三维场景地图,确定AR设备的初始位姿数据;
基于AR设备的初始位姿数据,通过实时定位与地图构建SLAM,确定AR设备的实时位姿数据;
基于AR设备的实时位姿数据,在AR设备展示与AR设备的实时位姿数据匹配的AR画面。
关于装置中的各模块的处理流程、以及各模块之间的交互流程的描述可以参照上述方法实施例中的相关说明,这里不再详述。
对应于图1中的增强现实场景下的交互方法,本公开实施例还提供了一种电子设备1000,如图11所示,为本公开实施例提供的电子设备1000结构示意图,包括:
处理器101、存储器102、和总线103;存储器102用于存储执行指令,包括内存1021和外部存储器1022;这里的内存1021也称内存储器,用于暂时存放处理器101中的运算数据,以及与硬盘等外部存储器1022交换的数据,处理器101通过内存1021与外部存储器1022进行数据交换,当电子设备1000运行时,处理器101与存储器102之间通过总线103通信,使得处理器101执行以下指令:通过AR设备展示与当前拍摄的现实场景画面匹配的AR画面;AR画面中展示有第一虚拟对象;在检测到预设触发展示条件的情况下,在AR画面中展示第二虚拟对象的目标AR特效;第二虚拟对象与第一虚拟对象之间具有预设的运动关系;响应目标触发操作,在AR画面中展示第二虚拟对象发生状态更新的AR特效。
本公开实施例还提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行上述方法实施例中所述的增强现实场景下的交互方法的步骤。其中,该存储介质可以是易失性或非易失的计算机可读取存储介质。
本公开实施例所提供的增强现实场景下的交互方法的计算机程序产品,包括存储了程序代码的计算机可读存储介质,所述程序代码包括的指令可用于执行上述方法实施例中所述的增强现实场景下的交互方法的步骤,具体可参见上述方法实施例,在此不再赘述。
本公开实施例还提供一种计算机程序,该计算机程序被处理器执行时实现前述实施例的任意一种方法。该计算机程序产品可以具体通过硬件、软件或其结合的方式实现。在一个可选实施例中,所述计算机程序产品具体体现为计算机存储介质,在另一个可选实施例中,计算机程序产品具体体现为软件产品,例如软件开发包(Software DevelopmentKit,SDK)等等。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统和装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。在本公开所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本公开各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个处理器可执行的非易失的计算机可读取存储介质中。基于这样的理解,本公开的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本公开各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上所述实施例,仅为本公开的具体实施方式,用以说明本公开的技术方案,而非对其限制,本公开的保护范围并不局限于此,尽管参照前述实施例对本公开进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本公开揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本公开实施例技术方案的精神和范围,都应涵盖在本公开的保护范围之内。因此,本公开的保护范围应所述以权利要求的保护范围为准。
Claims (19)
1.一种增强现实场景下的交互方法,其特征在于,包括:
通过AR设备展示与当前拍摄的现实场景画面匹配的AR画面;所述AR画面中展示有第一虚拟对象;
在检测到预设触发展示条件的情况下,在所述AR画面中展示第二虚拟对象的目标AR特效;所述第二虚拟对象与所述第一虚拟对象之间具有预设的运动关系;
响应目标触发操作,在AR画面中展示所述第二虚拟对象发生状态更新的AR特效。
2.根据权利要求1所述的交互方法,其特征在于,所述预设触发展示条件包括以下条件中的至少一种:
所述第一虚拟对象到达至少一个目标移动位置中的任一目标移动位置;
当前到达至少一个目标时间点中的任一目标时间点;
所述第二虚拟对象与所述第一虚拟对象之间的距离小于设定距离阈值。
3.根据权利要求1或2所述的交互方法,其特征在于,所述预设的运动关系包括预设的相对运动关系;
所述在所述AR画面中展示第二虚拟对象的目标AR特效,包括:
在所述AR画面展示所述第二虚拟对象按照所述预设的相对运动关系朝向或背离所述第一虚拟对象移动的第一AR特效。
4.根据权利要求1至3任一所述的交互方法,其特征在于,所述预设的运动关系包括预设的交互运动关系;
所述在所述AR画面中展示第二虚拟对象的目标AR特效,包括:
在所述AR画面中展示所述第二虚拟对象与所述第一虚拟对象之间按照所述预设的交互运动关系进行交互运动的第二AR特效。
5.根据权利要求1至4任一所述的交互方法,其特征在于,所述在所述AR画面中展示第二虚拟对象的目标AR特效,包括:
根据预设的不同交互阶段分别对应的所述第二虚拟对象的预设AR特效数据,获取与当前交互阶段对应的所述第二虚拟对象的目标AR特效数据;
基于所述第二虚拟对象的目标AR特效数据,在所述AR画面中展示第二虚拟对象的目标AR特效。
6.根据权利要求1至5任一所述的交互方法,其特征在于,所述响应目标触发操作,在AR画面中展示所述第二虚拟对象发生状态更新的AR特效,包括:
检测到作用在所述AR设备屏幕上的目标触发操作,确定所述目标触发操作对应的触发位置;
在所述触发位置位于所述第二虚拟对象对应的目标位置范围内的情况下,在AR画面中展示所述第二虚拟对象发生状态更新的AR特效。
7.根据权利要求6所述的交互方法,其特征在于,所述触发位置为在预先构建的三维场景地图中的坐标位置,所述第二虚拟对象对应的目标位置范围为在预先构建的三维场景地图中的坐标位置范围;
所述确定所述目标触发操作对应的触发位置,包括:
根据所述目标触发操作作用在屏幕上的屏幕位置,以及屏幕坐标系与实时定位与地图构建SLAM坐标系之间的转换关系,确定与所述屏幕位置对应的SLAM坐标位置;
将所述SLAM坐标位置映射到预先构建的三维场景地图中,得到所述目标触发操作在所述预先构建的三维场景地图中对应的所述触发位置。
8.根据权利要求1至7任一所述的交互方法,其特征在于,所述响应目标触发操作,在AR画面中展示所述第二虚拟对象发生状态更新的AR特效,包括:
检测到所述AR设备的位姿数据变化,确定所述AR设备是否朝向所述第二虚拟对象;
在所述AR设备朝向所述第二虚拟对象的情况下,在AR画面中展示所述第二虚拟对象发生状态更新的AR特效。
9.根据权利要求8所述的交互方法,其特征在于,所述确定所述AR设备是否朝向所述第二虚拟对象,包括:
获取所述AR设备在预先构建的三维场景地图中的当前位姿数据;
基于所述AR设备的当前位姿数据,确定所述AR设备在所述预先构建的三维场景地图中的当前朝向;
基于所述当前朝向,以及所述第二虚拟对象在所述三维场景地图中的当前位姿数据,确定所述AR设备是否朝向所述第二虚拟对象。
10.根据权利要求8所述的交互方法,其特征在于,所述AR画面中还展示与所述AR设备保持预设相对位姿关系的第三虚拟对象;
所述响应目标触发操作,在AR画面中展示所述第二虚拟对象发生状态更新的AR特效,包括:
检测到所述AR设备的位姿数据变化,基于所述AR设备在预先构建的三维场景地图中的当前位姿数据和所述预设相对位姿关系,确定所述第三虚拟对象是否朝向所述第二虚拟对象;
在所述第三虚拟对象朝向所述第二虚拟对象的情况下,在AR画面中展示所述第二虚拟对象发生状态更新的AR特效。
11.根据权利要求1至10任一所述的交互方法,其特征在于,所述通过AR设备展示与当前拍摄的现实场景画面匹配的AR画面,包括:
响应针对AR画面中展示的静止状态的第一虚拟对象的移动触发操作,控制所述AR画面中的第一虚拟对象开始移动。
12.根据权利要求11任一所述的交互方法,其特征在于,所述控制所述AR画面中的第一虚拟对象开始移动,包括:
控制所述AR画面中的第一虚拟对象按照目标移动路线移动;
所述交互方法还包括:
在所述第一虚拟对象按照目标移动路线移动到终点位置后,在所述AR画面中展示成功提示信息。
13.根据权利要求1至12任一所述的交互方法,其特征在于,所述交互方法还包括:
在所述AR画面中展示用于指示所述第一虚拟对象的活动状态的状态指示信息;
在所述状态指示信息指示所述第一虚拟对象停止活动的情况下,在所述AR画面中展示失败提示信息。
14.根据权利要求1至13任一所述的交互方法,其特征在于,所述交互方法还包括:
获取当前累计执行目标触发操作的次数;
根据所述当前累计执行目标触发操作的次数,更新所述AR设备的属性值;
确定与所述更新后的属性值对应的所述AR设备的控制属性信息;
所述在AR画面中展示所述第二虚拟对象发生状态更新的AR特效,包括:
基于所述控制属性信息,在所述AR画面中展示所述第二虚拟对象发生状态更新的AR特效。
15.根据权利要求1至14任一所述的交互方法,其特征在于,所述通过AR设备展示与当前拍摄的现实场景画面匹配的AR画面,包括:
获取AR设备拍摄的现实场景画面;
基于所述现实场景画面,以及预先构建的三维场景地图,在所述AR设备展示与所述AR设备的实时位姿数据匹配的AR画面。
16.根据权利要求15所述的交互方法,其特征在于,所述基于所述现实场景画面,以及预先构建的三维场景地图,在所述AR设备展示与所述AR设备的实时位姿数据匹配的AR画面,包括:
基于所述AR设备拍摄的现实场景画面,以及所述预先构建的三维场景地图,确定所述AR设备的初始位姿数据;
基于所述AR设备的初始位姿数据,通过实时定位与地图构建SLAM,确定所述AR设备的实时位姿数据;
基于所述AR设备的实时位姿数据,在所述AR设备展示与所述AR设备的实时位姿数据匹配的AR画面。
17.一种增强现实场景下的交互装置,其特征在于,包括:
定位展示模块,用于通过AR设备展示与当前拍摄的现实场景画面匹配的AR画面;所述AR画面中展示有第一虚拟对象;
检测展示模块,用于在检测到预设触发展示条件的情况下,在所述AR画面中展示第二虚拟对象的目标AR特效;所述第二虚拟对象与所述第一虚拟对象之间具有预设的运动关系;
操作展示模块,用于响应目标触发操作,在AR画面中展示所述第二虚拟对象发生状态更新的AR特效。
18.一种电子设备,其特征在于,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储器之间通过总线通信,所述机器可读指令被所述处理器执行时执行如权利要求1至16任一所述的交互方法的步骤。
19.一种计算机可读存储介质,其特征在于,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行如权利要求1至16任一所述的交互方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011010999.XA CN112148188A (zh) | 2020-09-23 | 2020-09-23 | 增强现实场景下的交互方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011010999.XA CN112148188A (zh) | 2020-09-23 | 2020-09-23 | 增强现实场景下的交互方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112148188A true CN112148188A (zh) | 2020-12-29 |
Family
ID=73896252
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011010999.XA Pending CN112148188A (zh) | 2020-09-23 | 2020-09-23 | 增强现实场景下的交互方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112148188A (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112711714A (zh) * | 2021-01-15 | 2021-04-27 | 上海景域智能科技有限公司 | 一种基于5g与ar的旅行路线推荐方法 |
CN112882576A (zh) * | 2021-02-26 | 2021-06-01 | 北京市商汤科技开发有限公司 | Ar交互方法、装置、电子设备及存储介质 |
CN113421343A (zh) * | 2021-05-27 | 2021-09-21 | 深圳市晨北科技有限公司 | 基于增强现实观测设备内部结构的方法 |
CN113867531A (zh) * | 2021-09-30 | 2021-12-31 | 北京市商汤科技开发有限公司 | 交互方法、装置、设备及计算机可读存储介质 |
CN114625468A (zh) * | 2022-03-21 | 2022-06-14 | 北京字跳网络技术有限公司 | 增强现实画面的展示方法、装置、计算机设备及存储介质 |
CN115098000A (zh) * | 2022-02-22 | 2022-09-23 | 北京字跳网络技术有限公司 | 图像处理方法、装置、电子设备及存储介质 |
WO2022252509A1 (zh) * | 2021-06-03 | 2022-12-08 | 北京市商汤科技开发有限公司 | 数据展示方法及装置、设备、存储介质和计算机程序产品 |
WO2023030106A1 (zh) * | 2021-08-30 | 2023-03-09 | 北京字跳网络技术有限公司 | 对象显示方法、装置、电子设备及存储介质 |
CN116095293A (zh) * | 2023-01-13 | 2023-05-09 | 北京达佳互联信息技术有限公司 | 虚拟道具的显示方法、装置、设备以及存储介质 |
WO2023134490A1 (zh) * | 2022-01-12 | 2023-07-20 | 北京字跳网络技术有限公司 | 数据显示方法、装置、移动终端及存储介质 |
CN116880948A (zh) * | 2023-09-07 | 2023-10-13 | 深圳星坊科技有限公司 | 珠宝虚拟试戴展示方法、装置、计算机设备和存储介质 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107765987A (zh) * | 2017-11-03 | 2018-03-06 | 北京密境和风科技有限公司 | 一种用户交互方法及装置 |
CN108187343A (zh) * | 2018-01-16 | 2018-06-22 | 腾讯科技(深圳)有限公司 | 数据交互方法和装置、存储介质及电子装置 |
CN108833818A (zh) * | 2018-06-28 | 2018-11-16 | 腾讯科技(深圳)有限公司 | 视频录制方法、装置、终端及存储介质 |
CN109298776A (zh) * | 2017-07-25 | 2019-02-01 | 广州市动景计算机科技有限公司 | 增强现实互动系统、方法和装置 |
CN109420336A (zh) * | 2017-08-30 | 2019-03-05 | 深圳市掌网科技股份有限公司 | 基于增强现实的游戏实现方法和装置 |
CN110523085A (zh) * | 2019-08-30 | 2019-12-03 | 腾讯科技(深圳)有限公司 | 虚拟对象的控制方法、装置、终端及存储介质 |
CN110611776A (zh) * | 2018-05-28 | 2019-12-24 | 腾讯科技(深圳)有限公司 | 特效处理方法、计算机设备和计算机存储介质 |
CN110716646A (zh) * | 2019-10-15 | 2020-01-21 | 北京市商汤科技开发有限公司 | 一种增强现实数据呈现方法、装置、设备及存储介质 |
CN111228807A (zh) * | 2020-01-08 | 2020-06-05 | 腾讯科技(深圳)有限公司 | 虚拟操作对象的控制方法和装置、存储介质及电子装置 |
CN111610998A (zh) * | 2020-05-26 | 2020-09-01 | 北京市商汤科技开发有限公司 | Ar场景内容的生成方法、展示方法、装置及存储介质 |
CN111617471A (zh) * | 2020-06-08 | 2020-09-04 | 浙江商汤科技开发有限公司 | 虚拟射击的展示方法、装置、电子设备及存储介质 |
CN111679742A (zh) * | 2020-06-10 | 2020-09-18 | 浙江商汤科技开发有限公司 | 基于ar的交互控制方法、装置、电子设备及存储介质 |
-
2020
- 2020-09-23 CN CN202011010999.XA patent/CN112148188A/zh active Pending
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109298776A (zh) * | 2017-07-25 | 2019-02-01 | 广州市动景计算机科技有限公司 | 增强现实互动系统、方法和装置 |
CN109420336A (zh) * | 2017-08-30 | 2019-03-05 | 深圳市掌网科技股份有限公司 | 基于增强现实的游戏实现方法和装置 |
CN107765987A (zh) * | 2017-11-03 | 2018-03-06 | 北京密境和风科技有限公司 | 一种用户交互方法及装置 |
CN108187343A (zh) * | 2018-01-16 | 2018-06-22 | 腾讯科技(深圳)有限公司 | 数据交互方法和装置、存储介质及电子装置 |
CN110611776A (zh) * | 2018-05-28 | 2019-12-24 | 腾讯科技(深圳)有限公司 | 特效处理方法、计算机设备和计算机存储介质 |
CN108833818A (zh) * | 2018-06-28 | 2018-11-16 | 腾讯科技(深圳)有限公司 | 视频录制方法、装置、终端及存储介质 |
CN110523085A (zh) * | 2019-08-30 | 2019-12-03 | 腾讯科技(深圳)有限公司 | 虚拟对象的控制方法、装置、终端及存储介质 |
CN110716646A (zh) * | 2019-10-15 | 2020-01-21 | 北京市商汤科技开发有限公司 | 一种增强现实数据呈现方法、装置、设备及存储介质 |
CN111228807A (zh) * | 2020-01-08 | 2020-06-05 | 腾讯科技(深圳)有限公司 | 虚拟操作对象的控制方法和装置、存储介质及电子装置 |
CN111610998A (zh) * | 2020-05-26 | 2020-09-01 | 北京市商汤科技开发有限公司 | Ar场景内容的生成方法、展示方法、装置及存储介质 |
CN111617471A (zh) * | 2020-06-08 | 2020-09-04 | 浙江商汤科技开发有限公司 | 虚拟射击的展示方法、装置、电子设备及存储介质 |
CN111679742A (zh) * | 2020-06-10 | 2020-09-18 | 浙江商汤科技开发有限公司 | 基于ar的交互控制方法、装置、电子设备及存储介质 |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112711714B (zh) * | 2021-01-15 | 2022-06-17 | 上海景域智能科技有限公司 | 一种基于5g与ar的旅行路线推荐方法 |
CN112711714A (zh) * | 2021-01-15 | 2021-04-27 | 上海景域智能科技有限公司 | 一种基于5g与ar的旅行路线推荐方法 |
CN112882576A (zh) * | 2021-02-26 | 2021-06-01 | 北京市商汤科技开发有限公司 | Ar交互方法、装置、电子设备及存储介质 |
CN113421343A (zh) * | 2021-05-27 | 2021-09-21 | 深圳市晨北科技有限公司 | 基于增强现实观测设备内部结构的方法 |
WO2022252509A1 (zh) * | 2021-06-03 | 2022-12-08 | 北京市商汤科技开发有限公司 | 数据展示方法及装置、设备、存储介质和计算机程序产品 |
WO2023030106A1 (zh) * | 2021-08-30 | 2023-03-09 | 北京字跳网络技术有限公司 | 对象显示方法、装置、电子设备及存储介质 |
CN113867531A (zh) * | 2021-09-30 | 2021-12-31 | 北京市商汤科技开发有限公司 | 交互方法、装置、设备及计算机可读存储介质 |
WO2023134490A1 (zh) * | 2022-01-12 | 2023-07-20 | 北京字跳网络技术有限公司 | 数据显示方法、装置、移动终端及存储介质 |
CN115098000A (zh) * | 2022-02-22 | 2022-09-23 | 北京字跳网络技术有限公司 | 图像处理方法、装置、电子设备及存储介质 |
CN115098000B (zh) * | 2022-02-22 | 2023-10-10 | 北京字跳网络技术有限公司 | 图像处理方法、装置、电子设备及存储介质 |
CN114625468A (zh) * | 2022-03-21 | 2022-06-14 | 北京字跳网络技术有限公司 | 增强现实画面的展示方法、装置、计算机设备及存储介质 |
CN114625468B (zh) * | 2022-03-21 | 2023-09-22 | 北京字跳网络技术有限公司 | 增强现实画面的展示方法、装置、计算机设备及存储介质 |
CN116095293A (zh) * | 2023-01-13 | 2023-05-09 | 北京达佳互联信息技术有限公司 | 虚拟道具的显示方法、装置、设备以及存储介质 |
CN116880948A (zh) * | 2023-09-07 | 2023-10-13 | 深圳星坊科技有限公司 | 珠宝虚拟试戴展示方法、装置、计算机设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112148188A (zh) | 增强现实场景下的交互方法、装置、电子设备及存储介质 | |
CN109876438B (zh) | 用户界面显示方法、装置、设备及存储介质 | |
CN110115838B (zh) | 虚拟环境中生成标记信息的方法、装置、设备及存储介质 | |
CN112148187A (zh) | 增强现实场景的交互方法、装置、电子设备及存储介质 | |
CN111589133B (zh) | 虚拟对象控制方法、装置、设备及存储介质 | |
US8261199B2 (en) | Breakpoint identification and presentation in virtual worlds | |
CN111638793B (zh) | 飞行器的展示方法、装置、电子设备及存储介质 | |
CN109529319B (zh) | 界面控件的显示方法、设备及存储介质 | |
US8022948B2 (en) | Image capture and buffering in a virtual world using situational measurement averages | |
KR20210046591A (ko) | 증강 현실 데이터 제시 방법, 장치, 전자 기기 및 저장 매체 | |
CN112148197A (zh) | 增强现实ar交互方法、装置、电子设备及存储介质 | |
CN112148189A (zh) | 一种ar场景下的交互方法、装置、电子设备及存储介质 | |
US10504295B2 (en) | Systems and methods for using sensing of real object position, trajectory, or attitude to enable user interaction with a virtual object | |
CN112245921B (zh) | 虚拟对象控制方法、装置、设备及存储介质 | |
CN112843679B (zh) | 虚拟对象的技能释放方法、装置、设备及介质 | |
JP2018147002A (ja) | 画像処理プログラム、画像処理システム、画像処理装置および画像処理方法 | |
CN112181141B (zh) | Ar定位的方法、装置、电子设备及存储介质 | |
CN112348968A (zh) | 增强现实场景下的展示方法、装置、电子设备及存储介质 | |
WO2019166005A1 (zh) | 智能终端及其感控方法、具有存储功能的装置 | |
CN112882576A (zh) | Ar交互方法、装置、电子设备及存储介质 | |
KR101429341B1 (ko) | 증강 현실을 이용한 사격 게임 방법 및 이를 이용하는 모바일 기기와 시스템 | |
CN112905014A (zh) | Ar场景下的交互方法、装置、电子设备及存储介质 | |
US7656407B2 (en) | Image processing program and image processing apparatus | |
US20230277931A1 (en) | Exchanging positions of virtual props displayed with a virtual scene | |
CN112386910A (zh) | 游戏控制方法、装置、电子设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20201229 |