CN112148187A - 增强现实场景的交互方法、装置、电子设备及存储介质 - Google Patents
增强现实场景的交互方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN112148187A CN112148187A CN202011010925.6A CN202011010925A CN112148187A CN 112148187 A CN112148187 A CN 112148187A CN 202011010925 A CN202011010925 A CN 202011010925A CN 112148187 A CN112148187 A CN 112148187A
- Authority
- CN
- China
- Prior art keywords
- virtual object
- picture
- target
- special effect
- displaying
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 101
- 238000000034 method Methods 0.000 title claims abstract description 86
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 27
- 230000000694 effects Effects 0.000 claims abstract description 150
- 230000004044 response Effects 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 10
- 238000013507 mapping Methods 0.000 claims description 8
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 238000001514 detection method Methods 0.000 claims description 5
- 230000001960 triggered effect Effects 0.000 description 14
- 230000002452 interceptive effect Effects 0.000 description 13
- 230000008569 process Effects 0.000 description 10
- 241001147416 Ursus maritimus Species 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 8
- 239000008280 blood Substances 0.000 description 7
- 210000004369 blood Anatomy 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 230000004927 fusion Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 239000011521 glass Substances 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Architecture (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本公开提供了一种增强现实场景下的交互方法、装置、电子设备及存储介质,其中,该交互方法包括:通过AR设备展示与当前拍摄的现实场景画面匹配的AR画面;所述AR画面中展示第一虚拟对象;响应于目标触发操作,在所述AR画面中展示所述第一虚拟对象发生第一状态更新的第一AR特效;在检测到所述第一虚拟对象满足预设控制条件的情况下,在所述AR画面中展示所述第一虚拟对象发生第二状态更新的第二AR特效。
Description
技术领域
本公开涉及增强现实技术领域,具体而言,涉及一种增强现实场景的交互方法、装置、电子设备及存储介质。
背景技术
增强现实(Augmented Reality,AR)技术,通过将实体信息(视觉信息、声音、触觉等)通过模拟仿真后,叠加到真实世界中,从而将真实的环境和虚拟的物体实时地在同一个画面或空间呈现。近年来,AR设备的应用领域越来越广,使得AR设备在生活、工作、娱乐中起到了重要的作用,对AR设备呈现的增强现实场景的效果的优化以及交互方式的优化,越发重要。
发明内容
本公开实施例至少提供一种增强现实场景下的交互方案。
第一方面,本公开实施例提供了一种增强现实场景下的交互方法,包括:
通过AR设备展示与当前拍摄的现实场景画面匹配的AR画面;所述AR画面中展示第一虚拟对象;
响应于目标触发操作,在所述AR画面中展示所述第一虚拟对象发生第一状态更新的第一AR特效;
在检测到所述第一虚拟对象满足预设控制条件的情况下,在所述AR画面中展示所述第一虚拟对象发生第二状态更新的第二AR特效。
本公开实施例中,可以在AR画面中展示第一虚拟对象进行第一状态更新的第一AR特效,在检测到第一虚拟对象满足预设控制条件的情况下,在AR画面中展示第一虚拟对象进行第二状态更新的第二AR特效,整个交互过程,用户可以通过针对AR设备的触发操作,对第一虚拟对象的展示状态进行更新,该过程可以增加用户与AR设备之间的交互性。
在一种可能的实施方式中,所述响应于目标触发操作,在所述AR画面中展示所述第一虚拟对象发生第一状态更新的第一AR特效,包括:
检测到作用在所述AR设备屏幕上的目标触发操作,确定所述目标触发操作对应的第一目标控制位置;
在所述第一目标控制位置位于所述第一虚拟对象对应的第一目标位置范围内的情况下,在所述AR画面中展示所述第一虚拟对象发生第一状态更新的第一AR特效。
本公开实施例中,可以根据用户在AR设备屏幕上触发的目标触发操作,比如点击操作,确定是否触发第一虚拟对象发生第一状态更新的第一AR特效,从而增加用户与AR设备之间的交互性,提高用户体验度。
在一种可能的实施方式中,所述第一目标控制位置为在预先构建的三维场景地图中的坐标位置,所述第一虚拟对象对应的第一目标位置范围为在预先构建的三维场景地图中的坐标位置范围;
所述确定所述目标触发操作对应的第一目标控制位置,包括:
根据所述目标触发操作作用在屏幕上的屏幕位置,以及屏幕坐标系与实时定位与地图构建SLAM坐标系之间的转换关系,确定与所述屏幕位置对应的SLAM坐标位置;
将所述SLAM坐标位置映射到预先构建的三维场景地图中,得到所述目标触发操作在所述预先构建的三维场景地图中对应的所述第一目标控制位置。
在一种可能的实施方式中,所述响应于目标触发操作,在所述AR画面中展示所述第一虚拟对象发生第一状态更新的第一AR特效,包括:
检测到所述AR设备的位姿数据发生变化,确定所述AR设备是否朝向所述第一虚拟对象;
在所述AR设备朝向所述第一虚拟对象的情况下,在所述AR画面中展示所述第一虚拟对象发生第一状态更新的第一AR特效。
本公开实施例中,在检测到AR设备的位姿发生变化的情况下,确定AR设备是否朝向第一虚拟对象,通过该朝向信息确定是否触发第一虚拟对象发生第一状态更新的第一AR特效,从而可以增加用户与AR设备之间的交互性,提高用户体验度。
在一种可能的实施方式中,所述确定所述AR设备是否朝向所述第一虚拟对象,包括:
获取所述AR设备在预先构建的三维场景地图中的第一当前位姿数据;
基于所述第一当前位姿数据,确定所述AR设备在所述预先构建的三维场景地图中的当前朝向;
基于所述当前朝向,以及所述第一虚拟对象在所述三维场景地图中的第二当前位姿数据,确定所述AR设备是否朝向所述第一虚拟对象。
本公开实施例中,通过将虚拟对象和AR设备统一在相同坐标系下确定AR设备针对虚拟对象的朝向情况,可以提升AR场景的虚拟融合程度。
在一种可能的实施方式中,所述AR画面中还展示与所述AR设备保持预设相对位姿关系的第二虚拟对象;
所述响应于目标触发操作,在所述AR画面中展示所述第一虚拟对象发生第一状态更新的第一AR特效,包括:
检测到所述AR设备的位姿数据发生变化,基于所述AR设备在预先构建的三维场景地图中的第一当前位姿数据和所述预设相对位姿关系,确定所述第二虚拟对象是否朝向所述第一虚拟对象;
在确定所述第二虚拟对象朝向所述第一虚拟对象的情况下,在所述AR画面中展示所述第一虚拟对象发生第一状态更新的第一AR特效。
在一种可能的实施方式中,所述通过AR设备展示与当前拍摄的现实场景画面匹配的AR画面,包括:
根据不同触发阶段分别对应第一虚拟对象的预设AR特效数据,获取与当前触发阶段对应的所述第一虚拟对象的目标AR特效数据;
基于所述第一虚拟对象的目标AR特效数据,在所述AR画面中展示所述第一虚拟对象。
本公开实施例中,通过结合不同触发阶段对应的第一虚拟对象的预设AR特效数据对第一虚拟对象进行展示,可以丰富AR场景的展示内容。
在一种可能的实施方式中,所述交互方法还包括:
在所述AR画面中展示用于指示所述第一虚拟对象的活动状态的第一状态指示信息;
在所述第一状态指示信息指示所述第一虚拟对象停止活动的情况下,在所述AR画面中展示用于指示所述AR设备成功的提示信息。
在一种可能的实施方式中,所述通过AR设备展示与当前拍摄的现实场景画面匹配的AR画面,还包括:
通过所述AR设备展示第三虚拟对象被所述第一虚拟对象控制的第三AR特效;
所述交互方法还包括,包括:
在所述第一状态指示信息指示所述第一虚拟对象停止活动的情况下,在所述AR画面中展示所述第三虚拟对象被解除控制的第四AR特效。
在一种可能的实施方式中,所述交互方法还包括:
在所述AR画面中展示用于指示所述AR设备的活动状态的第二状态指示信息;
在所述第二状态指示信息指示所述AR设备停止活动的情况下,在所述AR画面中展示用于指示所述AR设备失败的提示信息。
在一种可能的实施方式中,所述交互方法还包括:
响应所述目标触发操作,获取当前累计执行目标触发操作的次数;
根据所述当前累计执行目标触发操作的次数,更新所述AR设备的属性值;
确定与所述更新后的属性值对应的所述AR设备的控制属性信息;
所述在所述AR画面中展示所述第一虚拟对象发生第一状态更新的第一AR特效,包括:
基于所述控制属性信息,在所述AR画面中展示所述第一虚拟对象发生第一状态更新的第一AR特效。
本公开实施例中,可以随着目标触发操作的次数的累计,在AR画面中展示AR设备对应的不同控制属性信息,便于基于不同的控制属性信息,在AR画面中展示不同的AR特效,以增加用户与AR设备之间的交互性。
在一种可能的实施方式中,在所述AR画面中展示所述第一虚拟对象发生第二状态更新的第二AR特效之后,所述交互方法还包括:
在确定所述第一虚拟对象对应的第二目标控制位置位于所述AR设备对应的第二目标位置范围内的情况下,在所述AR画面中展示与所述第一虚拟对象关联的第四虚拟对象的第五AR特效。
本公开实施例中,在确定第一虚拟对象的第二目标控制位置与AR设备之间的距离小于第一预设距离的情况下,可以在AR画面中展示对应的AR展示特效,从而使得AR展示内容更加逼真。
在一种可能的实施方式中,所述确定所述第一虚拟对象对应的第二目标控制位置位于所述AR设备对应的第二目标位置范围内,包括:
基于所述第一虚拟对象在预先构建的三维场景地图中的第二当前位姿数据,确定所述第二目标控制位置在所述预先构建的三维场景地图中坐标位置;
在确定所述第二目标控制位置对应的所述坐标位置与所述AR设备在所述预先构建的三维场景地图中第一当前位姿数据之间的距离小于第一预设距离的情况下,确定所述第二目标控制位置位于所述第二目标位置范围内。
本公开实施例中,通过将第一虚拟对象对应的第二目标控制位置和AR设备的第一当前位姿数据统一在相同的坐标系下,可以提高AR画面的虚实融合程度。
在一种可能的实施方式中,所述第一虚拟对象满足预设控制条件的情况至少包括以下一种:
当前时间达到至少一个目标时间点中的任一目标时间点、所述第一虚拟对象在预先构建的三维场景地图中与所述AR设备之间的距离小于第二预设距离、检测到所述目标触发操作。
在一种可能的实施方式中,所述通过AR设备展示与当前拍摄的现实场景画面匹配的AR画面,包括:
获取所述AR设备拍摄的现实场景画面;
基于所述现实场景画面,以及预先构建的三维场景地图,在所述AR设备展示与所述AR设备的第一当前位姿数据匹配的AR画面。
本公开实施例中,通过实时获取AR设备的第一当前位姿数据,来展示与AR设备的位姿匹配的AR画面,从而可以提高AR画面的虚实融合程度。
在一种可能的实施方式中,所述基于所述现实场景画面,以及预先构建的三维场景地图,在所述AR设备展示与所述AR设备的第一当前位姿数据匹配的AR画面,包括:
基于所述AR设备拍摄的现实场景画面,以及所述预先构建的三维场景地图,确定所述AR设备的初始位姿数据;
基于所述AR设备的初始位姿数据,通过实时定位与地图构建SLAM,确定所述AR设备的第一当前位姿数据;
基于所述AR设备的第一当前位姿数据,在所述AR设备展示与所述AR设备的第一当前位姿数据匹配的AR画面。
本公开实施例中,在通过AR设备展示与当前拍摄的现实场景画面匹配的AR画面的情况下,可以结合预先构建的三维场景地图以及SLAM技术完成对AR设备的实时定位,从而快速得到准确度较高的AR设备的实时位姿数据。
在一种可能的实施方式中,所述第一状态更新指所述第一虚拟对象被动进行状态更新,所述第二状态更新指所述第一虚拟对象主动进行状态更新。
本公开实施例中,通过不同的交互方式使得第一虚拟对象发生不同形式的状态更新,可以丰富AR交互场景的展示内容,提高用户体验度。
第二方面,本公开实施例提供了一种增强现实场景下的交互装置,包括:
定位展示模块,用于通过AR设备展示与当前拍摄的现实场景画面匹配的AR画面;所述AR画面中展示第一虚拟对象;
操作展示模块,用于响应于目标触发操作,在所述AR画面中展示所述第一虚拟对象发生第一状态更新的第一AR特效;
检测展示模块,用于在检测到所述第一虚拟对象满足预设控制条件的情况下,在所述AR画面中展示所述第一虚拟对象发生第二状态更新的第二AR特效。
第三方面,本公开实施例提供了一种电子设备,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储器之间通过总线通信,所述机器可读指令被所述处理器执行时执行如第一方面所述的交互方法的步骤。
第四方面,本公开实施例提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行如第一方面所述的交互方法的步骤。
为使本公开的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本公开实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,此处的附图被并入说明书中并构成本说明书中的一部分,这些附图示出了符合本公开的实施例,并与说明书一起用于说明本公开的技术方案。应当理解,以下附图仅示出了本公开的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出了本公开实施例所提供的一种增强现实场景下的交互方法的流程图;
图2示出了本公开实施例所提供的一种基于现实场景画面展示AR画面的方法流程图;
图3示出了本公开实施例所提供的第一种控制第一虚拟对象发生状态更新的方法流程图;
图4示出了本公开实施例所提供的第二种控制第一虚拟对象发生状态更新的方法流程图;
图5示出了本公开实施例所提供的第三种控制第一虚拟对象发生状态更新的方法流程图;
图6示出了本公开实施例所提供的一种基于第一虚拟对象在不同触发阶段对应的AR特效数据,在AR画面中展示第一虚拟对象的方法流程图;
图7示出了本公开实施例所提供的一种通过AR画面展示提示信息的方法流程图;
图8示出了本公开实施例所提供的另一种通过AR画面展示提示信息的方法流程图;
图9示出了本公开实施例所提供的一种确定AR设备的控制属性信息的方法流程图;
图10示出了本公开实施例所提供的一种确定第一虚拟对象对应的第二目标控制位置位于AR设备对应的第二目标位置范围内的方法流程图;
图11示出了本公开实施例所提供的一种AR画面的展示界面示意图;
图12示出了本公开实施例所提供的一种增强现实场景下的交互装置的结构示意图;
图13示出了本公开实施例所提供的一种电子设备的结构示意图。
具体实施方式
为使本公开实施例的目的、技术方案和优点更加清楚,下面将结合本公开实施例中附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本公开实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本公开的实施例的详细描述并非旨在限制要求保护的本公开的范围,而是仅仅表示本公开的选定实施例。基于本公开的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本公开保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
本文中术语“和/或”,仅仅是描述一种关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中术语“至少一种”表示多种中的任意一种或多种中的至少两种的任意组合,例如,包括A、B、C中的至少一种,可以表示包括从A、B和C构成的集合中选择的任意一个或多个元素。
增强现实(Augmented Reality,AR)技术可以应用于AR设备中,AR设备可以为任何能够支持AR功能的电子设备,包括但不限于AR眼镜、平板电脑、智能手机等。当AR设备在现实场景中被操作时,通过该AR设备可以观看到叠加在现实场景中的虚拟对象,当AR技术应用于娱乐类场景中,比如应用于交互场景中,如何能够通过AR技术增加用户与AR设备之间的交互性,为本公开实施例所要讨论的内容,下面将结合以下具体实施例进行阐述。
基于上述研究,本公开提供了一种增强现实场景下的交互方法,可以通过AR设备当前拍摄的现实场景画面展示匹配的AR画面,这样在AR设备拍摄的现实场景画面的角度变化时,该第一虚拟对象对应的展示角度也可以跟随拍摄角度的变化而变化,从而可以使得AR画面中展示的第一虚拟对象的展现形式更具有真实感,另外,在检测到存在针对AR设备的目标触发操作的情况下,可以在AR画面中展示第一虚拟对象进行第一状态更新的第一AR特效,在检测到第一虚拟对象满足预设控制条件的情况下,在AR画面中展示第一虚拟对象进行第二状态更新的第二AR特效,整个过程,用户可以通过针对AR设备的触发操作,对第一虚拟对象的展示状态进行更新,从而增加用户与AR设备之间的交互性。
为便于对本实施例进行理解,首先对本公开实施例所公开的一种增强现实场景下的交互方法进行详细介绍,本公开实施例所提供的增强现实场景下的交互方法的执行主体一般为具有一定计算能力的计算机设备,该计算机设备例如包括:终端设备或服务器或其它处理设备,终端设备可以是具有AR功能的AR设备,比如可以包括AR眼镜、平板电脑、智能手机、智能穿戴式设备等具有显示功能和数据处理能力的设备,本公开实施例中不作限定。在一些可能的实现方式中,该增强现实场景下的交互方法可以通过处理器调用存储器中存储的计算机可读指令的方式来实现。
参见图1所示,为本公开实施例提供的增强现实场景下的交互方法的流程图,该交互方法包括以下S101~S103:
S101,通过AR设备展示与当前拍摄的现实场景画面匹配的AR画面;AR画面中展示第一虚拟对象。
示例性地,AR设备为具有AR功能的设备,包括AR眼镜、平板电脑、智能手机、智能穿戴式设备等具有显示功能和数据处理能力的设备。
在AR设备拍摄到现实场景画面后,可以基于该现实场景画面以及预先构建的三维场景地图,确定AR设备的当前位姿数据,然后基于该AR设备的当前位姿数据,以及预先确定的第一虚拟对象在三维场景地图中对应的位姿数据,在AR设备中展示该第一虚拟对象;或者,还可以基于AR设备拍摄的现实场景画面中包含的实体物体,确定匹配的AR画面,以及展示第一虚拟对象,本公开不进行具体限定。
S102,响应于目标触发操作,在AR画面中展示第一虚拟对象发生第一状态更新的第一AR特效。
示例性地,目标触发操作可以通过在AR设备屏幕上进行针对第一虚拟对象的点击操作进行触发,或者,通过调整AR设备的位姿数据进行触发,这样,在检测到存在目标触发操作后,可以在AR画面中展示第一虚拟对象发生第一状态更新的第一AR特效。
示例性地,在检测到目标触发操作之前,可以在AR画面中展示的第一虚拟对象处于静止状态的初始AR特效,在检测到目标触发操作后,在AR画面中展示第一虚拟对象由静止状态变为运动状态的第一AR特效;或者,在检测到目标触发操作之前,在AR画面中展示的第一虚拟对象处于第一运动状态的初始AR特效,在检测到目标触发操作后,在AR画面中展示第一虚拟对象由第一运动状态变为第二运动状态的第一AR特效。
示例性地,以营救虚拟北极熊的AR交互场景为例,目标触发操作可以为攻击挟持北极熊的虚拟潜艇的操作,这样,在检测到存在攻击挟持北极熊的虚拟潜艇的操作的情况下,可以在AR画面中展示虚拟潜艇被攻击后发生第一状态更新的第一AR特效,比如被击中后再AR画面中的展示位置发生变动,或者被击中的位置展示出破裂的AR特效。
S103,在检测到第一虚拟对象满足预设控制条件的情况下,在AR画面中展示第一虚拟对象发生第二状态更新的第二AR特效。
示例性地,预设控制条件可以预先设定好的,在检测到第一虚拟对象满足预设控制条件的情况下,对第一虚拟对象在AR画面中的展示状态进行更新。
示例性地,在未检测到第一虚拟对象满足预设控制条件的情况下,在AR画面中展示的第一虚拟对象处于静止状态的初始AR特效,在检测到第一虚拟对象满足预设控制条件的情况下,在AR画面中展示第一虚拟对象由静止状态变为运动状态的第二AR特效;或者,在未检测到第一虚拟对象满足预设控制条件的情况下,在AR画面中展示的第一虚拟对象处于第一运动状态的初始AR特效,在检测到第一虚拟对象满足预设控制条件的情况下,在AR画面中展示第一虚拟对象由第一运动状态变为第二运动状态的第二AR特效。
示例性地,针对上述提到的AR交互场景,第一虚拟对象可以为在AR画面中与AR设备互相对战的虚拟对战对象,比如上述提到的挟持虚拟北极熊的虚拟潜艇,在检测到第一虚拟对象满足预设控制条件的情况下,可以在AR画面中展示虚拟潜艇发射虚拟物,比如发射炮弹的第二AR特效。
具体地,预设控制条件可以为预先设置的可以触发在AR画面中展示第一虚拟对象发生第二状态更新的条件,具体地,第一虚拟对象满足预设控制条件的情况至少包括以下一种:
(1)当前时间达到至少一个目标时间点中的任一目标时间点;
(2)第一虚拟对象在预先构建的三维场景地图中与AR设备之间的距离小于第二预设距离;
(3)检测到目标触发操作。
针对第(1)种情况,比如可以预先设置从AR交互场景开始的至少一个预设时间点作为触发第一虚拟对象发生第二状态更新的条件,当AR交互场景进行到任一目标时间点时,可以在AR画面中展示第一虚拟对象发生第二状态更新的第二AR特效。
针对第(2)种情况,比如在确定第一虚拟对象和AR设备之间的距离小于第二预设距离的情况下,可以在AR画面中展示第一虚拟对象攻击AR设备的AR特效,在攻击AR设备的过程中,第一虚拟对象发生第二状态更新的第二AR特效。
针对第(3)种情况,在检测到目标触发操作的情况下,可以在AR画面中展示第一虚拟对象攻击AR设备的AR特效,在攻击AR设备的过程中,第一虚拟对象发生第二状态更新的第二AR特效,示例性地,可以在检测到AR设备射击第一虚拟对象后,可以在AR画面中展示第一虚拟对象攻击AR设备的AR特效。
示例性地,上述提到的第一虚拟对象发生第一状态更新和发生第二状态更新的场景不同,其中,第一状态更新可以指第一虚拟对象被动发生的状态更新,具体可以指在其它控制操作下被动发生的状态更新,比如在检测到存在对第一虚拟对象的控制操作下,使得第一虚拟对象被动发生状态更新;相反地,第二状态更新可以指第一虚拟对象主动发生的状态更新,具体可以指在第一虚拟对象满足预设控制条件的情况下,无需接受其它控制操作,主动进行状态更新的情况。
示例性地,以AR交互场景为例,在展示第一虚拟对象与AR设备的对战场景中,第一状态更新可以指第一虚拟对象被动进行状态更新,比如在AR画面中展示第一虚拟对象被AR设备射出的虚拟物(子弹)击中后进行状态更新的第一AR特效,第二状态更新指第一虚拟对象主动进行状态更新,比如在AR画面中展示第一虚拟对象射出的虚拟物(子弹)后进行状态更新的第二AR特效。
这样,通过不同的交互方式使得第一虚拟对象发生不同形式的状态更新,可以丰富AR交互场景的展示内容,提高用户体验度。
本公开实施例中,可以在AR画面中展示第一虚拟对象进行第一状态更新的第一AR特效,在检测到第一虚拟对象满足预设控制条件的情况下,在AR画面中展示第一虚拟对象进行第二状态更新的第二AR特效,整个交互过程,用户可以通过针对AR设备的触发操作,对第一虚拟对象的展示状态进行更新,该过程可以增加用户与AR设备之间的交互性。
下面将结合具体实施例对上述S101~S103进行具体阐述。
针对上述S101提到的通过AR设备展示与当前拍摄的现实场景画面匹配的AR画面,如图2所示,具体包括以下S201~S202:
S201,获取AR设备拍摄的现实场景画面;
S202,基于现实场景画面,以及预先构建的三维场景地图,在AR设备展示与AR设备的第一当前位姿数据匹配的AR画面。
示例性地,预先构建的三维场景地图可以根据预先采集的多张现实场景图片来构建,比如基于预先采集的多张现实场景图像构建表征现实场景的三维场景模型,然后将三维场景模型与现实场景对应的世界坐标系对齐,得到三维场景地图。
示例性地,在获取到AR设备拍摄的现实场景画面,可以提取该现实场景画面中包含的特征点,然后与构建三维场景地图时拍摄的多张现实场景图片对应的特征点进行比对,确定与AR设备拍摄的现实场景画面匹配的目标现实场景图片,然后基于目标现实场景图片对应的拍摄位姿数据,确定AR设备的第一当前位姿数据,然后按照该第一当前位姿数据可以在AR设备展示与AR设备的第一当前位姿数据匹配的AR画面。
本公开实施例中,通过实时获取AR设备的第一当前位姿数据,来展示与AR设备的位姿匹配的AR画面,从而可以提高AR画面的虚实融合程度。
考虑到基于上述过程确定AR设备的第一当前位姿数据时,需要不断地比对特征点,以确定目标现实场景图片,过程繁琐,容易发生定位延迟,因此,针对S202,在基于现实场景画面,以及预先构建的三维场景地图,在AR设备展示与AR设备的第一当前位姿数据匹配的AR画面时,可以包括:
S2021,基于AR设备拍摄的现实场景画面,以及预先构建的三维场景地图,确定AR设备的初始位姿数据;
S2022,基于AR设备的初始位姿数据,通过实时定位与地图构建SLAM,确定AR设备的第一当前位姿数据;
S2023,基于AR设备的第一当前位姿数据,在AR设备展示与AR设备的第一当前位姿数据匹配的AR画面。
为了提高定位准确度,在初始阶段,可以基于AR设备拍摄的现实场景画面,以及预先构建的三维场景地图,确定AR设备在现实场景对应的世界坐标系中的初始位姿数据,然后以该初始位姿数据为起点,基于实时定位与地图构建SLAM技术,确定AR设备在世界坐标系中的第一当前位姿数据,这样,基于SLAM技术可以快速完成对AR设备的实时定位,从而在AR设备中展示与AR设备的第一当前位姿数据匹配的AR画面。
本公开实施例中,在通过AR设备展示与当前拍摄的现实场景画面匹配的AR画面的情况下,可以结合预先构建的三维场景地图以及SLAM技术完成对AR设备的实时定位,从而快速得到准确度较高的AR设备的实时位姿数据。
在一种实施方式中,针对上述S102,在响应于目标触发操作,在AR画面中展示第一虚拟对象发生第一状态更新的第一AR特效时,如图3所示,可以包括以下S301~S302:
S301,检测到作用在AR设备屏幕上的目标触发操作,确定目标触发操作对应的第一目标控制位置;
S302,在第一目标控制位置位于第一虚拟对象对应的第一目标位置范围内的情况下,在AR画面中展示第一虚拟对象发生第一状态更新的第一AR特效。
示例性地,作用在AR设备屏幕上的目标触发操作可以为针对AR设备屏幕的点击操作,比如用户可以点击AR设备屏幕上的虚拟潜艇所在的位置,并在确定点击中虚拟潜艇的情况下,触发针对虚拟潜艇的射击操作。
具体地,这里在确定是否击中虚拟潜艇时,可以首先获取目标触发操作对应的第一目标控制位置,具体可以为AR设备在AR画面中发射的子弹的射击目标位置,然后基于该第一目标控制位置,确定该第一目标控制位置位于第一虚拟对象的目标位置范围内的情况下,可以确定触发了针对虚拟潜艇的射击操作,进一步可以在AR画面中展示虚拟潜艇被击中后发生第一状态更新的AR特效。
在另一种实施方式中,AR画面中还展示与AR设备保持预设相对位姿关系的第三虚拟对象,比如在AR交互场景为营救北极熊的交互场景时,该第三虚拟对象可以为表示AR设备的虚拟炮筒,在第一目标控制位置位于第一虚拟对象对应的目标位置范围内的情况下,在AR画面中展示第一虚拟对象发生第一状态更新的第一AR特效。
具体地,第一目标控制位置为在预先构建的三维场景地图中的坐标位置,第一虚拟对象对应的第一目标位置范围为在预先构建的三维场景地图中的坐标位置范围,即在确定目标触发操作对应的第一目标控制位姿命中第一虚拟对象对应的第一目标位置范围的情况下,可以触发针对虚拟潜艇的射击操作。
本公开实施例中,可以根据用户在AR设备屏幕上触发的目标触发操作,比如点击操作,确定是否触发第一虚拟对象发生第一状态更新的第一AR特效,从而增加用户与AR设备之间的交互性,提高用户体验度。
具体地,在确定目标触发操作对应的第一目标控制位置时,可以包括以下S3011~S3012:
S3011,根据目标触发操作作用在屏幕上的屏幕位置,以及屏幕坐标系与实时定位与地图构建SLAM坐标系之间的转换关系,确定与屏幕位置对应的SLAM坐标位置;
S3012,将SLAM坐标位置映射到预先构建的三维场景地图中,得到目标触发操作在预先构建的三维场景地图中对应的第一目标控制位置。
示例性地,目标触发操作作用在屏幕上的屏幕位置可以是用户在AR设备屏幕上的点击位置,针对AR设备屏幕构建屏幕坐标系,可以确定出该点击位置在该屏幕坐标系下对应的坐标位置,然后基于屏幕坐标系与SLAM坐标系之间的转换关系,可以将屏幕位置在屏幕坐标系下的坐标位置转换至在SLAM坐标系下的SLAM坐标位置。
进一步,将该SLAM坐标位置映射至预先构建的三维场景地图中,可以得到目标触发操作在预先构建的三维场景地图中对应的第一目标控制位置。
此外,为了进一步提高用户与AR设备之间的交互操作,在AR交互场景中,还可以在点击第一虚拟对象在AR设备屏幕上的屏幕位置,以确定瞄准第一虚拟对象的情况下,再点击确定发射操作按钮,以完成针对第一虚拟对象的射击操作。
在另一种实施方式中,针对上述S102,在响应于目标触发操作,在AR画面中展示第一虚拟对象发生第一状态更新的第一AR特效时,如图4所示,可以包括以下S401~S402:
S401,检测到AR设备的位姿数据发生变化,确定AR设备是否朝向第一虚拟对象;
S402,在AR设备朝向第一虚拟对象的情况下,在AR画面中展示第一虚拟对象发生第一状态更新的第一AR特效。
示例性地,除了上述提到的基于在AR设备屏幕上触发的目标触发操作,还可以将AR设备的位姿数据作为检测是否触发目标触发操作的情况,具体可以在检测到AR设备的位姿数据发生变化时,确定AR设备是否朝向第一虚拟对象,比如将AR设备作为射击第一虚拟对象的虚拟炮筒,可以基于AR设备的位姿数据,确定该AR设备是否朝向第一虚拟对象。
在确定AR设备朝向第一虚拟对象的情况下,可以确定触发了目标触发操作,可以在AR画面中展示第一虚拟对象发生第一状态更新的第一AR特效。
本公开实施例中,在检测到AR设备的位姿发生变化的情况下,确定AR设备是否朝向第一虚拟对象,通过该朝向信息确定是否触发第一虚拟对象发生第一状态更新的第一AR特效,从而可以增加用户与AR设备之间的交互性,提高用户体验度。
具体地,在确定AR设备是否朝向第一虚拟对象时,可以包括以下S4011~S4013:
S4011,获取AR设备在预先构建的三维场景地图中的第一当前位姿数据;
S4012,基于第一当前位姿数据,确定AR设备在预先构建的三维场景地图中的当前朝向;
S4013,基于当前朝向,以及第一虚拟对象在三维场景地图中的第二当前位姿数据,确定AR设备是否朝向第一虚拟对象。
在检测到AR设备的位姿数据变化的情况下,获取AR设备在预先构建的三维场景地图中的第一当前位姿数据,该第一当前位姿数据可以包含AR设备的当前朝向,具体可以通过AR设备包含的摄像头的朝向来表示,然后根据第一虚拟对象在三维场景地图中的第二当前位姿数据,可以确定AR设备是否朝向该第一虚拟对象。
本公开实施例中,通过将虚拟对象和AR设备统一在相同坐标系下确定AR设备针对虚拟对象的朝向情况,可以提升AR场景的虚拟融合程度。
在一种实施方式中,AR画面中还展示与AR设备保持预设相对位姿关系的第二虚拟对象,比如在AR交互场景为营救北极熊的交互场景中,该第二虚拟对象可以为表示AR设备的虚拟炮筒,虚拟炮筒在三维场景地图中的位姿数据和AR设备在三维场景地图中的位姿数据相关联。
具体地,针对上述S102,在响应于目标触发操作,在AR画面中展示第一虚拟对象发生第一状态更新的第一AR特效时,如图5所示,可以包括以下S501~S502:
S501,检测到AR设备的位姿数据发生变化,基于AR设备在预先构建的三维场景地图中的第一当前位姿数据和预设相对位姿关系,确定二虚拟对象是否朝向第一虚拟对象;
S502,在确定第二虚拟对象朝向第一虚拟对象的情况下,在AR画面中展示第一虚拟对象发生第一状态更新的第一AR特效。
这里确定第二虚拟对象是否朝向第一虚拟对象,可以向根据AR设备在预先构建的三维场景地图中的当前位姿数据和预设相对位姿关系,确定第二虚拟对象在该预先构建的三维场景中的第三当前位姿数据,然后基于该第二虚拟对象在三维场景地图中的第三当前位姿数据和第一虚拟对象在该三维场景地图中的第二当前位姿数据,确定第二虚拟对象是否朝向第一虚拟对象,并在确定第二虚拟对象朝向第一虚拟对象的情况下,在AR画面中展示第一虚拟对象在被第二虚拟对象射击下发生状态更新的AR特效。
以AR交互场景为例,在交互场景中可以包含不同的触发阶段,不同触发阶段在AR画面中展示的第一虚拟对象的AR特效可能不同,具体地,在通过AR设备展示与当前拍摄的现实场景画面匹配的AR画面时,如图6所示,可以包括以下S601~S602:
S601,根据不同触发阶段分别对应第一虚拟对象的预设AR特效数据,获取与当前触发阶段对应的第一虚拟对象的目标AR特效数据;
S602,基于第一虚拟对象的目标AR特效数据,在AR画面中展示第一虚拟对象。
示例性地,AR特效数据中可以包含第一虚拟对象的类型、移动速度、被击退需要的攻击次数等特效数据,针对不同的触发阶段,第一虚拟对象对应的预设AR特效数据可以不同,比如,针对上述提到的营救北极熊的AR交互场景中,高层次的交互阶段相比底层次的交互阶段,虚拟潜艇的移动速度可以更快、被击退需要的攻击次数可以更多。
这里可以根据AR交互场景的当前触发阶段,确定第一虚拟对象的目标AR特效数据,然后按照第一虚拟对象的目标AR特效数据,在AR画面中展示第一虚拟对象。
本公开实施例中,通过结合不同触发阶段对应的第一虚拟对象的预设AR特效数据对第一虚拟对象进行展示,可以丰富AR场景的展示内容。
在一种实施方式中,如图7所示,本公开实施例提供的交互方法还包括:
S701,在AR画面中展示用于指示第一虚拟对象的活动状态的第一状态指示信息;
S702,在第一状态指示信息指示第一虚拟对象停止活动的情况下,在AR画面中展示用于指示AR设备成功的提示信息。
示例性地,第一虚拟对象在AR画面中可以处于活动状态,在响应于目标触发操作的情况下,随着第一虚拟对象发生第一状态更新的次数的积累,第一虚拟对象可以停止活动,为了对该活动状态进行形象展示,这里增加指示第一虚拟对象的活动状态的第一状态指示信息,随着第一虚拟对象发生第一状态更新的次数的积累,AR画面中展示的该第一状态指示信息可以发生变化。
示例性地,第一状态指示信息在第一虚拟对象发生第一状态更新后会进行改变,和/或,在第一虚拟对象发生第二状态更新后也会发生改变,通过该第一状态指示信息可以反应第一虚拟对象在AR画面中的活动状态情况。
示例性地,指示第一虚拟对象的活动状态的状态指示信息可以通过时间剩余信息来表示,或者通过血量剩余信息来表示,以血量剩余信息为例,当血量剩余信息指示血量剩余量小于预设阈值时,可以指示第一虚拟对象停止活动,即虚拟潜艇停止活动,此时可以在AR画面中展示AR设备成功的提示信息,比如营救北极熊成功的提示信息。
此外,通过AR设备展示与当前拍摄的现实场景画面匹配的AR画面时,还包括:
通过AR设备展示第三虚拟对象被第一虚拟对象控制的第三AR特效。
针对AR交互场景为例,可以在AR画面中展示第三虚拟对象被第一虚拟对象控制的第三AR特效,比如虚拟北极熊被虚拟潜艇控制的第三AR特效。
本公开实施例提供的交互方法还包括,包括:
在第一状态指示信息指示第一虚拟对象停止活动的情况下,在AR画面中展示第三虚拟对象被解除控制的第四AR特效。
示例性地,针对AR交互场景为例,在第一状态指示信息指示第一虚拟对象停止活动的情况下,可以在AR画面中展示第一虚拟对象消失的AR特效,以及在AR画面中展示第一虚拟对象消失后,第三虚拟对象停止被第一虚拟对象控制的第四AR特效,
比如,针对AR交互场景为营救北极熊的交互场景,第一虚拟对象停止活动的情况下,可以表示虚拟潜艇在AR设备的攻击下处于停止活动的状态,此时可以在AR画面中展示虚拟北极熊被成功营救的第四AR特效。
在另一种实施方式中,如图8所示,本公开实施例提供的交互方法还包括以下S801~S802:
S801,在AR画面中展示用于指示AR设备的活动状态的第二状态指示信息;
S802,在第二状态指示信息指示AR设备停止活动的情况下,在AR画面中展示用于指示AR设备失败的提示信息。
示例性地,在AR画面中还可以展示AR设备在AR交互场景下的活动状态的第二指示信息,在AR交互场景中,随着AR设备与第一虚拟对象之间的交互过程,AR设备可以由活动状态变为停止活动状态,为了对该活动状态进行形象展示,这里增加指示AR设备的活动状态的第二状态指示信息。
示例性地,在第一虚拟对象发生第二状态更新的情况下,即第一虚拟对象主动进行状态更新的情况下,可以影响AR设备的活动状态,比如第一虚拟对象在交互过程中,若第一虚拟对象对应的第二目标控制位置位于AR设备对应的第二目标位置范围内的情况下,可以影响AR设备的活动状态,此时可以通过第二状态指示信息来表示AR设备的活动状态的变化。
示例性地,在AR交互场景中,指示AR设备在AR交互场景中的活动状态的状态指示信息可以通过时间剩余信息来表示,或者通过血量剩余信息来表示,以血量剩余信息为例,当血量剩余信息指示血量剩余量小于预设阈值时,可以指示AR设备在AR交互场景中处于停止活动的状态,此时可以在AR画面中展示营救北极熊失败的提示信息。
在一种实施方式中,如图9所示,本公开实施例提供的交互方法还包括以下S901~S903:
S901,响应目标触发操作,获取当前累计执行目标触发操作的次数;
S902,根据当前累计执行目标触发操作的次数,更新AR设备的属性值;
S903,确定与更新后的属性值对应的AR设备的控制属性信息。
示例性地,在AR交互场景中,随着目标触发操作次数的积累,可以更新第一虚拟对象发生第一状态更新的次数,同时,目标触发操作次数的积累,可以更新AR设备在AR交互场景中的属性值,该属性值可以表示AR设备在AR交互场景中的控制属性信息,比如随着属性值的变大,AR设备在AR交互场景下的控制力度越大,这样在响应目标触发操作的情况下,致使第一虚拟对象发生第一状态更新的幅度也就越大。
示例性地,当前累计执行的目标触发操作的次数可以作为触发针对第一虚拟对象的射击操作的次数,随着针对第一虚拟对象的射击操作的次数的积累,可以更新AR设备的属性值,在AR交互场景中,AR设备的属性值可以表示为AR设备在AR画面中对象的第二虚拟对象的经验值,比如上述提到的虚拟炮筒的经验值。
随着AR设备的属性值的增加,可以确定AR设备在AR交互场景中的控制属性信息,比如属性值较低时,AR设备在AR交互场景中的射击强度较低,随着属性值的增加,AR设备在AR交互场景中的射击强度也可以增加,此外,除了影响AR设备在AR画面中的射击强度,也可以影响AR设备在AR画面中对应的射击子弹的类型。
这样,在AR画面中展示第一虚拟对象发生第一状态更新的第一AR特效时,可以包括:
基于控制属性信息,在AR画面中展示第一虚拟对象发生第一状态更新的第一AR特效。
示例性地,对应不同的控制属性信息的AR设备,在AR画面中击中第一虚拟对象后,第一虚拟对象发生第一状态更新的第一AR特效可以不同,比如,射击强度较低的AR设备,在AR画面中击中第一虚拟对象后,可以在AR画面中展示第一状态更新幅度较小的第一虚拟对象,而射击强度较高的AR设备,在AR画面中击中第一虚拟对象后,可以在AR画面中展示第一状态更新幅度较大的第一虚拟对象。
本公开实施例中,可以随着目标触发操作的次数的累计,在AR画面中展示AR设备对应的不同控制属性信息,便于基于不同的控制属性信息,在AR画面中展示不同的AR特效,以增加用户与AR设备之间的交互性。
在一种实施方式中,在AR画面中展示第一虚拟对象发生第二状态更新的第二AR特效之后,交互方法还包括:
在确定第一虚拟对象对应的第二目标控制位置位于AR设备对应的第二目标位置范围内的情况下,在AR画面中展示与第一虚拟对象关联的第四虚拟对象的第五AR特效。
示例性地,第二目标控制位置具体指第一虚拟对象可以击中的位置,比如在AR交互场景中,可以指第一虚拟对象发射的虚拟物射击的目标位置。
第二目标控制位置位于AR设备对应的第二目标位置范围内,可以表示第一虚拟对象射中AR设备,此时可以在AR画面中展示AR设备被射中的AR特效,具体地,AR设备被射中的AR特效可以通过第一虚拟对象关联的第四虚拟对象的第五AR特效表示,比如,针对AR交互场景为营救北极熊的交互场景,这里第一虚拟对象关联的第四虚拟对象可以为虚拟粘液,在第一虚拟对象未射中AR设备的情况下,AR画面中不展示该虚拟粘液,在第一虚拟对象射中AR设备的情况下,可以在AR画面中展示该虚拟粘液,该虚拟粘液的展示位置位于用于遮挡AR画面中的虚拟潜艇的位置区域,这样可以在AR画面中展示出AR设备被击中的AR特效。
本公开实施例中,在确定第一虚拟对象的第二目标控制位置与AR设备之间的距离小于第一预设距离的情况下,可以在AR画面中展示对应的AR展示特效,从而使得AR展示内容更加逼真。
具体地,在确定第一虚拟对象对应的第二目标控制位置位于AR设备对应的第二目标位置范围内时,如图10所示,可以包括以下S1001~S1002:
S1001,基于第一虚拟对象在预先构建的三维场景地图中的第二当前位姿数据,确定第二目标控制位置在预先构建的三维场景地图中坐标位置;
S1002,在确定第二目标控制位置对应的坐标位置与AR设备在预先构建的三维场景地图中第一当前位姿数据之间的距离小于第一预设距离的情况下,确定第二目标控制位置位于第二目标位置范围内。
具体地,可以根据第一虚拟对象在三维场景地图中的第二当前位姿数据,以及预先设定的第一虚拟对象发射虚拟物时的发射朝向以及射程,确定出第二目标控制位置在该三维场景地图中的坐标位置。
进一步地,可以根据确定出的第二目标控制位置对应的坐标位置和AR设备在预先构建的三维场景地图中第一当前位姿数据,确定出该第二目标控制位置与AR设备之间的距离是否小于第一预设距离,在确定小于第一预设距离的情况下,可以确定第一虚拟对象发射的虚拟物击中AR设备。
特别地,针对AR画面中存在与AR设备保持预设相对位姿关系的第二虚拟对象的情况下,比如AR交互场景中,在AR画面中展示表示AR设备的虚拟炮筒的情况下,在第二目标控制位置与AR设备之间的距离小于第一预设距离时,可以在AR画面中展示虚拟炮筒被虚拟潜艇射中后,在AR画面中展示出用于遮挡虚拟潜艇的虚拟粘液。
本公开实施例中,通过将第一虚拟对象对应的第二目标控制位置和AR设备的第一当前位姿数据统一在相同的坐标系下,可以提高AR画面的虚实融合程度。
下面将结合图11所示的AR交互场景为例,对上述交互过程进行具体介绍。
其中第一虚拟对象为虚拟潜艇,第二虚拟对象为表示AR设备的虚拟炮筒,第三虚拟对象为被虚拟潜艇困住的虚拟北极熊(图11中未示出),根据AR设备拍摄的现实场景画面,确定针对AR设备展示的AR画面,在AR交互场景开始时,可以在AR画面中展示第三虚拟对象(虚拟北极熊)被第一虚拟对象(虚拟潜艇)控制的AR特效,用户可以通过针对AR设备的目标触发操作,比如可以点击虚拟潜艇,然后点击发射按钮,从而控制虚拟炮筒射击虚拟潜艇,在AR画面中展示虚拟潜艇被射中后的AR特效,并在虚拟潜艇的血量剩余量小于预设阈值的情况下,在AR画面中展示营救成功的提示信息,此外,还可以AR画面中展示虚拟潜艇射击虚拟炮筒的AR特效,并在击中后,在AR画面中展示用于遮挡虚拟潜艇的虚拟粘液(图11中未示出),以体现击中的AR特效,此外,还可以在虚拟炮筒的血量剩余量小于预设阈值的情况下,在AR画面中展示营救失败的提示信息。
本领域技术人员可以理解,在具体实施方式的上述方法中,各步骤的撰写顺序并不意味着严格的执行顺序而对实施过程构成任何限定,各步骤的具体执行顺序应当以其功能和可能的内在逻辑确定。
基于同一技术构思,本公开实施例中还提供了与增强现实场景下的交互方法对应的增强现实场景下的交互装置,由于本公开实施例中的交互装置解决问题的原理与本公开实施例上述交互方法相似,因此装置的实施可以参见交互方法的实施,重复之处不再赘述。
参照图12所示,为本公开实施例提供的一种增强现实场景下的交互装置1200的示意图,该交互装置包括:
定位展示模块1201,用于通过AR设备展示与当前拍摄的现实场景画面匹配的AR画面;AR画面中展示第一虚拟对象;
操作展示模块1202,用于响应于目标触发操作,在AR画面中展示第一虚拟对象发生第一状态更新的第一AR特效;
检测展示模块1203,用于在检测到第一虚拟对象满足预设控制条件的情况下,在AR画面中展示第一虚拟对象发生第二状态更新的第二AR特效。
在一种可能的实施方式中,操作展示模块1202在用于响应于目标触发操作,在AR画面中展示第一虚拟对象发生第一状态更新的第一AR特效时,包括:
检测到作用在AR设备屏幕上的目标触发操作,确定目标触发操作对应的第一目标控制位置;
在第一目标控制位置位于第一虚拟对象对应的第一目标位置范围内的情况下,在AR画面中展示第一虚拟对象发生第一状态更新的第一AR特效。
在一种可能的实施方式中,第一目标控制位置为在预先构建的三维场景地图中的坐标位置,第一虚拟对象对应的第一目标位置范围为在预先构建的三维场景地图中的坐标位置范围;
操作展示模块1202在用于确定目标触发操作对应的第一目标控制位置时,包括:
根据目标触发操作作用在屏幕上的屏幕位置,以及屏幕坐标系与实时定位与地图构建SLAM坐标系之间的转换关系,确定与屏幕位置对应的SLAM坐标位置;
将SLAM坐标位置映射到预先构建的三维场景地图中,得到目标触发操作在预先构建的三维场景地图中对应的第一目标控制位置。
在一种可能的实施方式中,操作展示模块1202在用于响应于目标触发操作,在AR画面中展示第一虚拟对象发生第一状态更新的第一AR特效时,包括:
检测到AR设备的位姿数据发生变化,确定AR设备是否朝向第一虚拟对象;
在AR设备朝向第一虚拟对象的情况下,在AR画面中展示第一虚拟对象发生第一状态更新的第一AR特效。
在一种可能的实施方式中,操作展示模块1202在用于确定AR设备是否朝向第一虚拟对象时,包括:
获取AR设备在预先构建的三维场景地图中的第一当前位姿数据;
基于第一当前位姿数据,确定AR设备在预先构建的三维场景地图中的当前朝向;
基于当前朝向,以及第一虚拟对象在三维场景地图中的第二当前位姿数据,确定AR设备是否朝向第一虚拟对象。
在一种可能的实施方式中,AR画面中还展示与AR设备保持预设相对位姿关系的第二虚拟对象;
操作展示模块1202在用于响应于目标触发操作,在AR画面中展示第一虚拟对象发生第一状态更新的第一AR特效时,包括:
检测到AR设备的位姿数据发生变化,基于AR设备在预先构建的三维场景地图中的第一当前位姿数据和预设相对位姿关系,确定二虚拟对象是否朝向第一虚拟对象;
在确定第二虚拟对象朝向第一虚拟对象的情况下,在AR画面中展示第一虚拟对象发生第一状态更新的第一AR特效。
在一种可能的实施方式中,定位展示模块1201在用于通过AR设备展示与当前拍摄的现实场景画面匹配的AR画面,包括:
根据不同触发阶段分别对应第一虚拟对象的预设AR特效数据,获取与当前触发阶段对应的第一虚拟对象的目标AR特效数据;
基于第一虚拟对象的目标AR特效数据,在AR画面中展示第一虚拟对象。
在一种可能的实施方式中,定位展示模块1201还用于:
在AR画面中展示用于指示第一虚拟对象的活动状态的第一状态指示信息;
在第一状态指示信息指示第一虚拟对象停止活动的情况下,在AR画面中展示用于指示AR设备成功的提示信息。
在一种可能的实施方式中,定位展示模块1201在用于通过AR设备展示与当前拍摄的现实场景画面匹配的AR画面时,还包括:
通过AR设备展示第三虚拟对象被第一虚拟对象控制的第三AR特效;
定位展示模块1201,还用于在第一状态指示信息指示第一虚拟对象停止活动的情况下,在AR画面中展示第三虚拟对象被解除控制的第四AR特效。
在一种可能的实施方式中,定位展示模块1201还用于:
在AR画面中展示用于指示AR设备的活动状态的第二状态指示信息;
在第二状态指示信息指示AR设备停止活动的情况下,在AR画面中展示用于指示AR设备失败的提示信息。
在一种可能的实施方式中,操作展示模块1202还用于:
响应目标触发操作,获取当前累计执行目标触发操作的次数;
根据当前累计执行目标触发操作的次数,更新AR设备的属性值;
确定与更新后的属性值对应的AR设备的控制属性信息;
操作展示模块1202在用于在AR画面中展示第一虚拟对象发生第一状态更新的第一AR特效时,包括:
基于控制属性信息,在AR画面中展示第一虚拟对象发生第一状态更新的第一AR特效。
在一种可能的实施方式中,在AR画面中展示第一虚拟对象发生第二状态更新的第二AR特效之后,检测展示模块1203还用于:
在确定第一虚拟对象对应的第二目标控制位置位于AR设备对应的第二目标位置范围内的情况下,在AR画面中展示与第一虚拟对象关联的第四虚拟对象的第五AR特效。
在一种可能的实施方式中,检测展示模块1203在用于确定第一虚拟对象对应的第二目标控制位置位于AR设备对应的第二目标位置范围内时,包括:
基于第一虚拟对象在预先构建的三维场景地图中的第二当前位姿数据,确定第二目标控制位置在预先构建的三维场景地图中坐标位置;
在确定第二目标控制位置对应的坐标位置与AR设备在预先构建的三维场景地图中第一当前位姿数据之间的距离小于第一预设距离的情况下,确定第二目标控制位置位于第二目标位置范围内。
在一种可能的实施方式中,第一虚拟对象满足预设控制条件的情况至少包括以下一种:
当前时间达到至少一个目标时间点中的任一目标时间点、第一虚拟对象在预先构建的三维场景地图中与AR设备之间的距离小于第二预设距离、检测到目标触发操作。
在一种可能的实施方式中,定位展示模块1201在用于通过AR设备展示与当前拍摄的现实场景画面匹配的AR画面时,包括:
获取AR设备拍摄的现实场景画面;
基于现实场景画面,以及预先构建的三维场景地图,在AR设备展示与AR设备的第一当前位姿数据匹配的AR画面。
在一种可能的实施方式中,定位展示模块1201在用于基于现实场景画面,以及预先构建的三维场景地图,在AR设备展示与AR设备的第一当前位姿数据匹配的AR画面时,包括:
基于AR设备拍摄的现实场景画面,以及预先构建的三维场景地图,确定AR设备的初始位姿数据;
基于AR设备的初始位姿数据,通过实时定位与地图构建SLAM,确定AR设备的第一当前位姿数据;
基于AR设备的第一当前位姿数据,在AR设备展示与AR设备的第一当前位姿数据匹配的AR画面。
在一种可能的实施方式中,第一状态更新指第一虚拟对象被动进行状态更新,第二状态更新指第一虚拟对象主动进行状态更新。
关于装置中的各模块的处理流程、以及各模块之间的交互流程的描述可以参照上述方法实施例中的相关说明,这里不再详述。
对应于图1中的增强现实场景下的交互方法,本公开实施例还提供了一种电子设备1300,如图13所示,为本公开实施例提供的电子设备1300结构示意图,包括:
处理器131、存储器132、和总线133;存储器132用于存储执行指令,包括内存1321和外部存储器1322;这里的内存1321也称内存储器,用于暂时存放处理器131中的运算数据,以及与硬盘等外部存储器1322交换的数据,处理器131通过内存1321与外部存储器1322进行数据交换,当所述电子设备1300运行时,所述处理器131与所述存储器132之间通过总线133通信,使得所述处理器131执行以下指令:通过AR设备展示与当前拍摄的现实场景画面匹配的AR画面;AR画面中展示第一虚拟对象;响应于目标触发操作,在AR画面中展示第一虚拟对象发生第一状态更新的第一AR特效;在检测到第一虚拟对象满足预设控制条件的情况下,在AR画面中展示第一虚拟对象发生第二状态更新的第二AR特效。
本公开实施例还提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行上述方法实施例中所述的增强现实场景下的交互方法的步骤。其中,该存储介质可以是易失性或非易失的计算机可读取存储介质。
本公开实施例所提供的增强现实场景下的交互方法的计算机程序产品,包括存储了程序代码的计算机可读存储介质,所述程序代码包括的指令可用于执行上述方法实施例中所述的增强现实场景下的交互方法的步骤,具体可参见上述方法实施例,在此不再赘述。
本公开实施例还提供一种计算机程序,该计算机程序被处理器执行时实现前述实施例的任意一种方法。该计算机程序产品可以具体通过硬件、软件或其结合的方式实现。在一个可选实施例中,所述计算机程序产品具体体现为计算机存储介质,在另一个可选实施例中,计算机程序产品具体体现为软件产品,例如软件开发包(Software DevelopmentKit,SDK)等等。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统和装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。在本公开所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本公开各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个处理器可执行的非易失的计算机可读取存储介质中。基于这样的理解,本公开的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本公开各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上所述实施例,仅为本公开的具体实施方式,用以说明本公开的技术方案,而非对其限制,本公开的保护范围并不局限于此,尽管参照前述实施例对本公开进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本公开揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本公开实施例技术方案的精神和范围,都应涵盖在本公开的保护范围之内。因此,本公开的保护范围应所述以权利要求的保护范围为准。
Claims (20)
1.一种增强现实场景下的交互方法,其特征在于,包括:
通过AR设备展示与当前拍摄的现实场景画面匹配的AR画面;所述AR画面中展示第一虚拟对象;
响应于目标触发操作,在所述AR画面中展示所述第一虚拟对象发生第一状态更新的第一AR特效;
在检测到所述第一虚拟对象满足预设控制条件的情况下,在所述AR画面中展示所述第一虚拟对象发生第二状态更新的第二AR特效。
2.根据权利要求1所述的交互方法,其特征在于,所述响应于目标触发操作,在所述AR画面中展示所述第一虚拟对象发生第一状态更新的第一AR特效,包括:
检测到作用在所述AR设备屏幕上的目标触发操作,确定所述目标触发操作对应的第一目标控制位置;
在所述第一目标控制位置位于所述第一虚拟对象对应的第一目标位置范围内的情况下,在所述AR画面中展示所述第一虚拟对象发生第一状态更新的第一AR特效。
3.根据权利要求2所述的交互方法,其特征在于,所述第一目标控制位置为在预先构建的三维场景地图中的坐标位置,所述第一虚拟对象对应的第一目标位置范围为在预先构建的三维场景地图中的坐标位置范围;
所述确定所述目标触发操作对应的第一目标控制位置,包括:
根据所述目标触发操作作用在屏幕上的屏幕位置,以及屏幕坐标系与实时定位与地图构建SLAM坐标系之间的转换关系,确定与所述屏幕位置对应的SLAM坐标位置;
将所述SLAM坐标位置映射到预先构建的三维场景地图中,得到所述目标触发操作在所述预先构建的三维场景地图中对应的所述第一目标控制位置。
4.根据权利要求1至3任一所述的交互方法,其特征在于,所述响应于目标触发操作,在所述AR画面中展示所述第一虚拟对象发生第一状态更新的第一AR特效,包括:
检测到所述AR设备的位姿数据发生变化,确定所述AR设备是否朝向所述第一虚拟对象;
在所述AR设备朝向所述第一虚拟对象的情况下,在所述AR画面中展示所述第一虚拟对象发生第一状态更新的第一AR特效。
5.根据权利要求4所述的交互方法,其特征在于,所述确定所述AR设备是否朝向所述第一虚拟对象,包括:
获取所述AR设备在预先构建的三维场景地图中的第一当前位姿数据;
基于所述第一当前位姿数据,确定所述AR设备在所述预先构建的三维场景地图中的当前朝向;
基于所述当前朝向,以及所述第一虚拟对象在所述三维场景地图中的第二当前位姿数据,确定所述AR设备是否朝向所述第一虚拟对象。
6.根据权利要求1至5任一所述的交互方法,其特征在于,所述AR画面中还展示与所述AR设备保持预设相对位姿关系的第二虚拟对象;
所述响应于目标触发操作,在所述AR画面中展示所述第一虚拟对象发生第一状态更新的第一AR特效,包括:
检测到所述AR设备的位姿数据发生变化,基于所述AR设备在预先构建的三维场景地图中的第一当前位姿数据和所述预设相对位姿关系,确定所述第二虚拟对象是否朝向所述第一虚拟对象;
在确定所述第二虚拟对象朝向所述第一虚拟对象的情况下,在所述AR画面中展示所述第一虚拟对象发生第一状态更新的第一AR特效。
7.根据权利要求1至6任一所述的交互方法,其特征在于,所述通过AR设备展示与当前拍摄的现实场景画面匹配的AR画面,包括:
根据不同触发阶段分别对应第一虚拟对象的预设AR特效数据,获取与当前触发阶段对应的所述第一虚拟对象的目标AR特效数据;
基于所述第一虚拟对象的目标AR特效数据,在所述AR画面中展示所述第一虚拟对象。
8.根据权利要求1至7任一所述的交互方法,其特征在于,所述交互方法还包括:
在所述AR画面中展示用于指示所述第一虚拟对象的活动状态的第一状态指示信息;
在所述第一状态指示信息指示所述第一虚拟对象停止活动的情况下,在所述AR画面中展示用于指示所述AR设备成功的提示信息。
9.根据权利要求8所述的交互方法,其特征在于,所述通过AR设备展示与当前拍摄的现实场景画面匹配的AR画面,还包括:
通过所述AR设备展示第三虚拟对象被所述第一虚拟对象控制的第三AR特效;
所述交互方法还包括,包括:
在所述第一状态指示信息指示所述第一虚拟对象停止活动的情况下,在所述AR画面中展示所述第三虚拟对象被解除控制的第四AR特效。
10.根据权利要求8或9所述的交互方法,其特征在于,所述交互方法还包括:
在所述AR画面中展示用于指示所述AR设备的活动状态的第二状态指示信息;
在所述第二状态指示信息指示所述AR设备停止活动的情况下,在所述AR画面中展示用于指示所述AR设备失败的提示信息。
11.根据权利要求1至10任一所述的交互方法,其特征在于,所述交互方法还包括:
响应所述目标触发操作,获取当前累计执行目标触发操作的次数;
根据所述当前累计执行目标触发操作的次数,更新所述AR设备的属性值;
确定与所述更新后的属性值对应的所述AR设备的控制属性信息;
所述在所述AR画面中展示所述第一虚拟对象发生第一状态更新的第一AR特效,包括:
基于所述控制属性信息,在所述AR画面中展示所述第一虚拟对象发生第一状态更新的第一AR特效。
12.根据权利要求1至11任一所述的交互方法,其特征在于,在所述AR画面中展示所述第一虚拟对象发生第二状态更新的第二AR特效之后,所述交互方法还包括:
在确定所述第一虚拟对象对应的第二目标控制位置位于所述AR设备对应的第二目标位置范围内的情况下,在所述AR画面中展示与所述第一虚拟对象关联的第四虚拟对象的第五AR特效。
13.根据权利要求12所述的交互方法,其特征在于,所述确定所述第一虚拟对象对应的第二目标控制位置位于所述AR设备对应的第二目标位置范围内,包括:
基于所述第一虚拟对象在预先构建的三维场景地图中的第二当前位姿数据,确定所述第二目标控制位置在所述预先构建的三维场景地图中坐标位置;
在确定所述第二目标控制位置对应的所述坐标位置与所述AR设备在所述预先构建的三维场景地图中第一当前位姿数据之间的距离小于第一预设距离的情况下,确定所述第二目标控制位置位于所述第二目标位置范围内。
14.根据权利要求1至13任一所述的交互方法,其特征在于,所述第一虚拟对象满足预设控制条件的情况至少包括以下一种:
当前时间达到至少一个目标时间点中的任一目标时间点、所述第一虚拟对象在预先构建的三维场景地图中与所述AR设备之间的距离小于第二预设距离、检测到所述目标触发操作。
15.根据权利要求1至14任一所述的交互方法,其特征在于,所述通过AR设备展示与当前拍摄的现实场景画面匹配的AR画面,包括:
获取所述AR设备拍摄的现实场景画面;
基于所述现实场景画面,以及预先构建的三维场景地图,在所述AR设备展示与所述AR设备的第一当前位姿数据匹配的AR画面。
16.根据权利要求15所述的交互方法,其特征在于,所述基于所述现实场景画面,以及预先构建的三维场景地图,在所述AR设备展示与所述AR设备的第一当前位姿数据匹配的AR画面,包括:
基于所述AR设备拍摄的现实场景画面,以及所述预先构建的三维场景地图,确定所述AR设备的初始位姿数据;
基于所述AR设备的初始位姿数据,通过实时定位与地图构建SLAM,确定所述AR设备的第一当前位姿数据;
基于所述AR设备的第一当前位姿数据,在所述AR设备展示与所述AR设备的第一当前位姿数据匹配的AR画面。
17.根据权利要求1至16任一所述的交互方法,其特征在于,所述第一状态更新指所述第一虚拟对象被动进行状态更新,所述第二状态更新指所述第一虚拟对象主动进行状态更新。
18.一种增强现实场景下的交互装置,其特征在于,包括:
定位展示模块,用于通过AR设备展示与当前拍摄的现实场景画面匹配的AR画面;所述AR画面中展示第一虚拟对象;
操作展示模块,用于响应于目标触发操作,在所述AR画面中展示所述第一虚拟对象发生第一状态更新的第一AR特效;
检测展示模块,用于在检测到所述第一虚拟对象满足预设控制条件的情况下,在所述AR画面中展示所述第一虚拟对象发生第二状态更新的第二AR特效。
19.一种电子设备,其特征在于,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储器之间通过总线通信,所述机器可读指令被所述处理器执行时执行如权利要求1至17任一所述的交互方法的步骤。
20.一种计算机可读存储介质,其特征在于,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行如权利要求1至17任一所述的交互方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011010925.6A CN112148187A (zh) | 2020-09-23 | 2020-09-23 | 增强现实场景的交互方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011010925.6A CN112148187A (zh) | 2020-09-23 | 2020-09-23 | 增强现实场景的交互方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112148187A true CN112148187A (zh) | 2020-12-29 |
Family
ID=73896277
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011010925.6A Pending CN112148187A (zh) | 2020-09-23 | 2020-09-23 | 增强现实场景的交互方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112148187A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112791416A (zh) * | 2021-01-22 | 2021-05-14 | 北京字跳网络技术有限公司 | 一种场景数据的交互控制方法及装置 |
CN112882576A (zh) * | 2021-02-26 | 2021-06-01 | 北京市商汤科技开发有限公司 | Ar交互方法、装置、电子设备及存储介质 |
CN112927293A (zh) * | 2021-03-26 | 2021-06-08 | 深圳市慧鲤科技有限公司 | Ar场景展示方法及装置、电子设备和存储介质 |
CN113359988A (zh) * | 2021-06-03 | 2021-09-07 | 北京市商汤科技开发有限公司 | 一种信息的展示方法、装置、计算机设备及存储介质 |
CN114625468A (zh) * | 2022-03-21 | 2022-06-14 | 北京字跳网络技术有限公司 | 增强现实画面的展示方法、装置、计算机设备及存储介质 |
WO2023030106A1 (zh) * | 2021-08-30 | 2023-03-09 | 北京字跳网络技术有限公司 | 对象显示方法、装置、电子设备及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102735100A (zh) * | 2012-06-08 | 2012-10-17 | 重庆邮电大学 | 一种采用增强现实技术的单兵轻武器射击训练的方法和系统 |
EP2953099A1 (en) * | 2013-02-01 | 2015-12-09 | Sony Corporation | Information processing device, terminal device, information processing method, and programme |
CN109568944A (zh) * | 2017-09-29 | 2019-04-05 | 日本聚逸株式会社 | 游戏处理方法、游戏处理装置、游戏处理系统及记录介质 |
CN111080751A (zh) * | 2019-12-30 | 2020-04-28 | 北京金山安全软件有限公司 | 碰撞渲染方法和装置 |
CN111228807A (zh) * | 2020-01-08 | 2020-06-05 | 腾讯科技(深圳)有限公司 | 虚拟操作对象的控制方法和装置、存储介质及电子装置 |
CN111589125A (zh) * | 2020-04-22 | 2020-08-28 | 腾讯科技(深圳)有限公司 | 虚拟对象控制方法、装置、计算机设备及存储介质 |
CN111589150A (zh) * | 2020-04-22 | 2020-08-28 | 腾讯科技(深圳)有限公司 | 虚拟道具的控制方法、装置、电子设备及存储介质 |
CN111617471A (zh) * | 2020-06-08 | 2020-09-04 | 浙江商汤科技开发有限公司 | 虚拟射击的展示方法、装置、电子设备及存储介质 |
-
2020
- 2020-09-23 CN CN202011010925.6A patent/CN112148187A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102735100A (zh) * | 2012-06-08 | 2012-10-17 | 重庆邮电大学 | 一种采用增强现实技术的单兵轻武器射击训练的方法和系统 |
EP2953099A1 (en) * | 2013-02-01 | 2015-12-09 | Sony Corporation | Information processing device, terminal device, information processing method, and programme |
CN109568944A (zh) * | 2017-09-29 | 2019-04-05 | 日本聚逸株式会社 | 游戏处理方法、游戏处理装置、游戏处理系统及记录介质 |
CN111080751A (zh) * | 2019-12-30 | 2020-04-28 | 北京金山安全软件有限公司 | 碰撞渲染方法和装置 |
CN111228807A (zh) * | 2020-01-08 | 2020-06-05 | 腾讯科技(深圳)有限公司 | 虚拟操作对象的控制方法和装置、存储介质及电子装置 |
CN111589125A (zh) * | 2020-04-22 | 2020-08-28 | 腾讯科技(深圳)有限公司 | 虚拟对象控制方法、装置、计算机设备及存储介质 |
CN111589150A (zh) * | 2020-04-22 | 2020-08-28 | 腾讯科技(深圳)有限公司 | 虚拟道具的控制方法、装置、电子设备及存储介质 |
CN111617471A (zh) * | 2020-06-08 | 2020-09-04 | 浙江商汤科技开发有限公司 | 虚拟射击的展示方法、装置、电子设备及存储介质 |
Non-Patent Citations (1)
Title |
---|
樱桃木: "SLAM技术概述", 《HTTPS://BLOG.CSDN.NET/QQ_24624539/ARTICLE/DETAILS/92764163》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112791416A (zh) * | 2021-01-22 | 2021-05-14 | 北京字跳网络技术有限公司 | 一种场景数据的交互控制方法及装置 |
CN112882576A (zh) * | 2021-02-26 | 2021-06-01 | 北京市商汤科技开发有限公司 | Ar交互方法、装置、电子设备及存储介质 |
CN112927293A (zh) * | 2021-03-26 | 2021-06-08 | 深圳市慧鲤科技有限公司 | Ar场景展示方法及装置、电子设备和存储介质 |
CN113359988A (zh) * | 2021-06-03 | 2021-09-07 | 北京市商汤科技开发有限公司 | 一种信息的展示方法、装置、计算机设备及存储介质 |
CN113359988B (zh) * | 2021-06-03 | 2022-11-29 | 北京市商汤科技开发有限公司 | 一种信息的展示方法、装置、计算机设备及存储介质 |
WO2023030106A1 (zh) * | 2021-08-30 | 2023-03-09 | 北京字跳网络技术有限公司 | 对象显示方法、装置、电子设备及存储介质 |
CN114625468A (zh) * | 2022-03-21 | 2022-06-14 | 北京字跳网络技术有限公司 | 增强现实画面的展示方法、装置、计算机设备及存储介质 |
CN114625468B (zh) * | 2022-03-21 | 2023-09-22 | 北京字跳网络技术有限公司 | 增强现实画面的展示方法、装置、计算机设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112148187A (zh) | 增强现实场景的交互方法、装置、电子设备及存储介质 | |
CN112148188A (zh) | 增强现实场景下的交互方法、装置、电子设备及存储介质 | |
CN111638793B (zh) | 飞行器的展示方法、装置、电子设备及存储介质 | |
US12036474B2 (en) | Virtual object control method and apparatus, device, and readable storage medium | |
WO2019179294A1 (zh) | 虚拟环境对战中的装备显示方法、装置、设备及存储介质 | |
KR102619439B1 (ko) | 가상 객체를 제어하는 방법 및 관련 장치 | |
CN110548288B (zh) | 虚拟对象的受击提示方法、装置、终端及存储介质 | |
EP2711059B1 (en) | System and method for facilitating interaction with a virtual space | |
CN110465098B (zh) | 控制虚拟对象使用虚拟道具的方法、装置、设备及介质 | |
CN113398571B (zh) | 虚拟道具的切换方法、装置、终端及存储介质 | |
CN112148189A (zh) | 一种ar场景下的交互方法、装置、电子设备及存储介质 | |
CN112870715B (zh) | 虚拟道具的投放方法、装置、终端及存储介质 | |
CN111228809A (zh) | 虚拟环境中虚拟道具的操作方法、装置、设备及可读介质 | |
CN111617471A (zh) | 虚拟射击的展示方法、装置、电子设备及存储介质 | |
CN112138384A (zh) | 虚拟投掷道具的使用方法、装置、终端及存储介质 | |
CN112451969A (zh) | 虚拟对象控制方法、装置、计算机设备及存储介质 | |
CN113117332A (zh) | 一种镜头视角的调整方法、装置、电子设备及存储介质 | |
CN111632377A (zh) | 射击轨迹的展示方法、装置、电子设备及存储介质 | |
CN113256710B (zh) | 游戏中准星的显示方法、装置、计算机设备及存储介质 | |
CN113827967A (zh) | 游戏控制方法及装置、电子设备、存储介质 | |
CN113713385A (zh) | 虚拟道具控制方法、装置、设备、介质及计算机程序产品 | |
CN114612553B (zh) | 一种虚拟对象的控制方法、装置、计算机设备及存储介质 | |
CN113680058B (zh) | 恢复生命值道具的使用方法、装置、设备及存储介质 | |
CN112057859B (zh) | 虚拟对象的控制方法、装置、终端及存储介质 | |
CN112044066B (zh) | 界面显示方法、装置、设备及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20201229 |