CN111640197A - 一种增强现实ar特效控制方法、装置及设备 - Google Patents
一种增强现实ar特效控制方法、装置及设备 Download PDFInfo
- Publication number
- CN111640197A CN111640197A CN202010519544.4A CN202010519544A CN111640197A CN 111640197 A CN111640197 A CN 111640197A CN 202010519544 A CN202010519544 A CN 202010519544A CN 111640197 A CN111640197 A CN 111640197A
- Authority
- CN
- China
- Prior art keywords
- action
- special effect
- target user
- determining
- virtual object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
本公开提供了一种增强现实AR特效控制方法、装置及设备,其中,该方法包括:根据包含目标用户的现实场景图像,确定该目标用户的第一动作对应的第一动作标签;然后基于所述第一动作标签,确定虚拟对象进行第二动作的AR展示特效,该虚拟对象进行第二动作用于回应目标用户的第一动作;基于确定的AR展示特效和现实场景图像,生成AR场景画面,并控制AR设备展示该AR场景画面。通过该方法,AR特效控制设备可以生成虚拟对象通过第二动作回应目标用户的第一动作的AR展示特效,并基于该AR展示特效和所述现实场景图像生成AR场景画面,从而使所述AR场景画面达到目标用户与所述虚拟对象合影,并进行动作配合互动的效果。
Description
技术领域
本公开涉及AR技术领域,具体而言,涉及一种增强现实(augmentedreality,AR)特效控制方法、装置及设备。
背景技术
在展馆或者博物馆等游乐场所中,通常会布置显示屏来展示一些图像、文字、视频等内容,以达到美化广告展示等效果。这种显示方式的显示内容比较单一,对于大部分用户来说,观看这些显示内容时,会缺少融入性,从而无法达到很好的用户体验。
因此,如何实现设备的显示内容的灵活性,是值得研究的问题。
发明内容
本公开实施例至少提供一种AR特效控制方法、装置以及设备。
第一方面,本公开实施例提供了一种AR特效控制方法,该方法包括:
获取设定游乐场所内的包含目标用户的现实场景图像;
基于所述现实场景图像,确定所述目标用户的第一动作对应的第一动作标签;
基于所述第一动作标签,确定虚拟对象的AR展示特效;其中,在所述AR展示特效中所述虚拟对象进行第二动作,所述虚拟对象的所述第二动作用于回应所述目标用户的所述第一动作;
基于所述虚拟对象的AR展示特效和所述现实场景图像,生成AR场景画面,并控制AR设备展示所述AR场景画面。
在一种可能的实施方式中,基于所述第一动作标签,确定虚拟对象的AR展示特效,包括:
确定与所述第一动作标签匹配的第二动作标签;
基于确定的所述第二动作标签,确定所述虚拟对象的所述AR展示特效。
在一种可能的实施方式中,确定所述第一动作标签,包括:
基于动作识别模型,对所述现实场景图像进行动作识别,确定所述第一动作标签;
其中,所述动作识别模型是根据多个动作图像样本数据训练得到的;每个动作图像样本数据包括:包含人体的图像样本以及该图像样本对应的动作标签。
在一种可能的实施方式中,所述现实场景图像的数量为多个;确定所述第一动作标签,包括:
基于肢体识别模型,对每个现实场景图像进行骨骼特征点识别,确定所述目标用户的多个骨骼特征点在每个现实场景图像中的位置;其中,所述肢体识别模型是根据多个肢体图像样本数据训练得到的,每个肢体图像样本数据包括:包含人体的图形样本以及该图像样本中多个骨骼特征点的位置;
根据所述目标用户的多个骨骼特征点在每相邻两个现实场景图像中的位置,确定所述目标用户的姿态变化信息;
根据所述目标用户的姿态变化信息确定所述第一动作;
确定所述第一动作对应的第一动作标签。
在一种可能的实施方式中,在基于所述第一动作标签,确定虚拟对象的AR展示特效之前,所述方法还包括:
根据以下任意一项或任意组合,确定所述虚拟对象:
所述第一动作标签、所述目标用户的身份信息、所述设定游乐场所的场景信息、所述目标用户的位置信息,所述AR设备当前显示或即将显示的目标图像。
在一种可能的实施方式中,获取设定游乐场所内的包含目标用户的现实场景图像之前,所述方法还包括:
检测到所述目标用户进入所述设定游乐场所。
第二方面,本公开实施例提供了一种AR特效控制装置,所述装置包括:
获取单元,用于获取设定游乐场所内的包含目标用户的现实场景图像;
处理单元,用于基于所述现实场景图像,确定所述目标用户的第一动作对应的第一动作标签;基于所述第一动作标签,确定虚拟对象的AR展示特效;其中,在所述AR展示特效中所述虚拟对象进行第二动作,所述虚拟对象的所述第二动作用于回应所述目标用户的所述第一动作;以及基于所述虚拟对象的AR展示特效和所述现实场景图像,生成AR场景画面;
控制单元,控制AR设备展示所述AR场景画面。
在一种可能的实施方式中,所述处理单元,在基于所述第一动作标签,确定虚拟对象的AR展示特效时,具体用于:
确定与所述第一动作标签匹配的第二动作标签;
基于确定的所述第二动作标签,确定所述虚拟对象的所述AR展示特效。
在一种可能的实施方式中,所述处理单元,在确定所述第一动作标签时,具体用于:
基于动作识别模型,对所述现实场景图像进行动作识别,确定所述第一动作标签;
其中,所述动作识别模型是根据多个动作图像样本数据训练得到的;每个动作图像样本数据包括:包含人体的图像样本以及该图像样本对应的动作标签。
在一种可能的实施方式中,所述现实场景图像的数量为多个;所述处理单元,在确定所述第一动作标签时,具体用于:
基于肢体识别模型,对每个现实场景图像进行骨骼特征点识别,确定所述目标用户的多个骨骼特征点在每个现实场景图像中的位置;其中,所述肢体识别模型是根据多个肢体图像样本数据训练得到的,每个肢体图像样本数据包括:包含人体的图形样本以及该图像样本中多个骨骼特征点的位置;
根据所述目标用户的多个骨骼特征点在每相邻两个现实场景图像中的位置,确定所述目标用户的姿态变化信息;
根据所述目标用户的姿态变化信息确定所述第一动作;
确定所述第一动作对应的第一动作标签。
在一种可能的实施方式中,所述处理单元,还用于:
在基于所述第一动作标签,确定虚拟对象的AR展示特效之前,根据以下任意一项或任意组合,确定所述虚拟对象:
所述第一动作标签、所述目标用户的身份信息、所述设定游乐场所的场景信息、所述目标用户的位置信息,所述AR设备当前显示或即将显示的目标图像。
在一种可能的实施方式中,所述装置还包括检测单元,所述检测单元,用于:
在所述获取单元获取设定游乐场所内的包含目标用户的现实场景图像之前,检测到所述目标用户进入所述设定游乐场所。
第三方面,本公开实施例提供了一种AR特效控制设备,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当所述设备运行时,所述处理器与所述存储器之间通过总线通信,所述机器可读指令被所述处理器执行时执行如第一方面所述的方法的步骤。
第四方面,本公开实施例提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行如第一方面所述方法的步骤。
本公开实施例提供了一种AR特效控制方法、装置及设备。在该方案中,AR特效控制设备可以根据包含目标用户的现实场景图像中,确定所述目标用户的第一动作;然后确定虚拟对象的AR展示特效,在该AR展示特效中所述虚拟对象执行第二动作,以回应所述目标用户的所述第一动作;最后所述AR特效控制设备基于所述AR展示特效和所述现实场景图像,生成AR画面,并通过AR设备展示所述AR场景画面。显然,通过该方法,AR特效控制设备可以生成虚拟对象通过第二动作回应目标用户的第一动作的AR展示特效,并基于该AR展示特效和所述现实场景图像生成AR场景画面,从而使所述AR场景画面达到目标用户与所述虚拟对象合影,并进行动作配合互动的效果。与现有技术中单一的显示方法相比,其能够提高设备的显示内容的灵活性,提高设备与用户的互动体验,提高用户的融入性和视觉效果,最终达到较好的用户体验。
为使本公开的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本公开实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,此处的附图被并入说明书中并构成本说明书中的一部分,这些附图示出了符合本公开的实施例,并与说明书一起用于说明本公开的技术方案。应当理解,以下附图仅示出了本公开的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出了本公开实施例所提供的一种AR特效控制方法的流程图;
图2示出了本公开实施例所提供的一种AR特效控制方法实例示意图;
图3示出了本公开实施例所提供的一种AR特效控制装置的示意图;
图4示出了本公开实施例所提供的一种AR特效控制设备的示意图。
具体实施方式
为使本公开实施例的目的、技术方案和优点更加清楚,下面将结合本公开实施例中附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本公开实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本公开的实施例的详细描述并非旨在限制要求保护的本公开的范围,而是仅仅表示本公开的选定实施例。基于本公开的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本公开保护的范围。
目前,设备的显示内容的方式单一,显示内容无法与人进行互动,因此,当用户观看这些显示内容时会缺少融入性。因此,实现设备的显示内容的灵活性是本领域值得研究的问题。
本公开实施例提供了一种AR特效控制方法、装置及设备。在该方案中,AR特效控制设备可以根据包含目标用户的现实场景图像中,确定所述目标用户的第一动作;然后确定虚拟对象的AR展示特效,在该AR展示特效中所述虚拟对象执行第二动作,以回应所述目标用户的所述第一动作;最后所述AR特效控制设备基于所述AR展示特效和所述现实场景图像,生成AR画面,并通过AR设备展示所述AR场景画面。显然,通过该方法,AR特效控制设备可以生成虚拟对象通过第二动作回应目标用户的第一动作的AR展示特效,并基于该AR展示特效和所述现实场景图像生成AR场景画面,从而使所述AR场景画面达到目标用户与所述虚拟对象合影,并进行动作配合互动的效果。与现有技术中单一的显示方法相比,其能够提高设备的显示内容的灵活性,提高设备与用户的互动体验,提高用户的融入性和视觉效果,最终达到较好的用户体验。
为便于对本实施例进行理解,首先对本公开实施例所公开的一种AR特效控制方法进行详细介绍,本公开实施例所提供的AR特效控制方法的执行主体一般为具有一定计算能力的设备,以下将该设备称为AR特效控制设备,具体可为终端设备、服务器或其他处理设备。例如所述设备可以包括:智能手机、平板电脑、车载设备、可穿戴设备、增强现实(augmented reality,AR)设备、展示设备、与AR设备连接的服务器等。其中,所述AR设备可以AR眼镜、平板电脑、智能手机、可穿戴设备,展示设备等等具有显示功能和数据处理能力的设备。在一些可能的实现方式中,该AR特效控制方法可以通过处理器调用存储器中存储的计算机可读指令的方式来实现。
下面以执行主体为AR特效控制设备为例对本公开实施例提供的显示方法加以说明。
下面参阅图1所示的AR特效控制方法的流程图,对本公开实施例提供的AR特效控制方法进行详细说明。
S101:AR特效控制设备获取设定游乐场所内的包含目标用户的现实场景图像。
其中,所述AR特效生成设备可以通过内部的摄像头或连接的其他摄像装置获取设定游乐场所的图像,当目标用户进入所述设定游乐场所时,所述摄像头或摄像装置即可拍摄到所述现实场景图像。在本步骤中,所述AR特效控制设备可以持续获取摄像头或摄像装置实时采集的现实场景图像,并通过人体识别技术,确定采集的现实场景图形中是否存在目标用户。
可选的,所述AR特效控制设备可以在执行S101之前,检测到目标用户进入所述设定游乐场所。其中,所述AR特效控制设备可以通过多种方式检测所述设定游乐场所中是否存在用户。
例如,所述AR特效控制设备可以通过红外传感器检测所述设定游乐场所内是否存在目标用户,当所述AR特效生成设备首次通过红外传感器检测到人体时,即检测到目标用户进入所述设定游乐场所。
又例如,所述AR特效控制设备获取内部的摄像头或外部的其他摄像装置对所述设定游乐场所拍摄的现实场景图像,然后对该现实场景图像进行人脸识别或人脸识别,当在拍摄的现实场景图像中识别到人脸或人体时,即所述AR特效控制设备检测到目标用户进入所述设定游乐场所。
S102:所述AR特效控制设备基于所述现实场景图像,确定所述目标用户的第一动作对应的第一动作标签。
通过本步骤,所述AR特效控制设备可以确定在所述现实场景图像中,所述目标用户进行的第一动作的标签。
在本公开实施例中,所述AR特效控制设备可以但不限于通过以下几种方式,确定所述第一动作标签。
方式一:所述AR特效控制设备基于动作识别模型,对所述现实场景图像进行动作识别,确定所述第一动作标签。
其中,所述动作识别模型是根据多个动作图像样本数据训练得到的;每个动作图像样本数据包括:包含人体的图像样本以及该图像样本对应的动作标签。
可选的,所述动作识别模型可以为所述AR特效控制设备对所述多个动作图形样本数据训练得到的,或者为安装在所述AR特效控制设备中的具有动作识别功能的应用的软件开发工具包(Software Development Kit,SDK)中包含的。
方式二:在所述AR特效控制设备持续获取多个现实场景图像的情况下,所述AR特效控制设备还可以通过以下步骤,确定所述第一动作标签:
A1、基于肢体识别模型,对每个现实场景图像进行骨骼特征点识别,确定所述目标用户的多个骨骼特征点在每个现实场景图像中的位置。
其中,所述肢体识别模型是根据多个肢体图像样本数据训练得到的,每个肢体图像样本数据包括:包含人体的图形样本以及该图像样本中多个骨骼特征点的位置。
可选的,所述肢体识别模型可以为所述AR特效控制设备对所述多个肢体图形样本数据训练得到的,或者为安装在所述AR特效控制设备中的具有肢体识别功能的应用的SDK中包含的。
A2、根据所述目标用户的多个骨骼特征点在每相邻两个现实场景图像中的位置,确定所述目标用户的姿态变化信息。
其中,所述目标用户的姿态变化信息可以至少包含:在每相邻两个现实场景图像中位置发生变化的至少一个骨骼特征点,以及所述至少一个骨骼特征点的位移。
A3、根据所述目标用户的姿态变化信息确定所述第一动作。
所述AR特效控制设备可以采用姿态识别模型,来确定所述姿态变化信息对应的所述第一动作。可选的,所述姿态识别模型是根据多个人体的姿态变化样本数据训练得到的,每个姿态变化样本数据中包含:姿态变化信息和该姿态变化信息对应的动作。
可选的,所述姿态识别模型可以为所述AR特效控制设备对所述多个姿态变化样本数据训练得到的,或者为安装在所述AR特效控制设备中的具有姿态识别功能的应用的SDK中包含的。
A4、确定所述第一动作对应的第一动作标签。
由于在方式二中,所述AR特效控制设备是根据目标用户的多个骨骼特征点在多个现实场景图形的位置变化,确定所述目标用户进行的第一动作的。因此通过方式二,可以提高所述AR特效控制设备确定所述第一动作的准确性,进而提高确定所述第一动作标签的准确性。
S103:所述AR特效控制设备基于所述第一动作标签,确定虚拟对象的AR展示特效。其中,在所述AR展示特效中所述虚拟对象进行第二动作,所述虚拟对象的所述第二动作用于回应所述目标用户的所述第一动作。
在所述AR特效控制设备已知所述虚拟对象的情况下,所述AR特效控制设备可以直接执行该步骤。而在所述AR特效控制设备未知所述虚拟对象的情况下,所述AR特效控制设备在执行S103之前,还包括:确定所述虚拟对象。
在一种实施方式中,所述AR特效控制设备可以但不限于根据以下任意一项或任意组合,确定所述虚拟对象:
所述第一动作标签、所述目标用户的身份信息、所述设定游乐场所的场景信息、所述目标用户的位置信息,所述AR设备当前显示或即将显示的目标图像。
例如,所述第一动作标签为交谊舞动作,那么所述虚拟对象可以为一个交谊舞舞伴;又例如所述第一动作标签为投喂动作,那么所述虚拟对象可以为兔子。
所述目标用户的身份信息,可以为所述目标用户的年龄、性别等特征。例如,当所述目标用户的性别为女,且年龄为1-10岁之间,那么所述虚拟对象可以为美人鱼或天使。当所述目标用户的性别为女,且年龄为20-30岁之间,那么所述虚拟对象可以为男性。
再例如,当所述设定游乐场所的场景信息指示当前场景为航空馆,那么所述虚拟对象可以为太空飞船或者星星。当所述设定游乐场所的场景信息指示当前场景为水族馆,那么所述虚拟对象可以为鲸鱼、海龟、海豚或轮船等。
又例如,当所述目标用户的位置信息指示所述目标用户位于植物馆时,那么所述虚拟对象可以为花仙子。
其中,所述AR特效控制设备可以基于所述现实场景图像来确定所述目标用户的身份信息,或所述设定游乐场所的场景信息;而所述第一动作标签可以根据S102确定;所述AR特效控制设备可以通过视觉定位技术,确定所述目标用户的位置信息;所述AR特效控制设备可以从所述AR设备获取其当前显示或即将显示的目标图像,并从所述目标图像中识别所述虚拟对象。
在一种实施方式中,所述AR特效控制设备可以通过以下步骤,确定所述虚拟对象的AR展示特效:
B1、确定与所述第一动作标签匹配的第二动作标签。
需要说明的是,所述AR特效控制设备可以在预设的所述虚拟对象的多个动作标签对应关系中,确定与所述第一动作标签对应的所述第二动作标签。
显然,所述AR特效控制设备中可以预先存储有多个虚拟对象的动作标签对应关系。这样,便于所述AR特效控制设备快速地且准确地确定所述虚拟对象的第二动作标签。
B2、基于确定的所述第二动作标签,确定所述虚拟对象的所述AR展示特效。
在一种实施方式中,所述AR特效控制设备未存储有所述虚拟对象执行所述第二动作的AR展示特效的情况下,所述AR特效控制设备可以根据所述第二动作标签,生成所述虚拟对象的所述AR展示特效。
在另一种实施方式中,所述AR特效控制设备中存储有多个虚拟对象的AR展示特效集合;每个虚拟对象的AR展示特效集合中包含多个AR展示特效,且不同AR展示特效中所述虚拟对象进行的动作不同。所述AR特效控制设备可以通过动作标签,来标识对应的AR展示特效。因此,所述AR特效控制设备可以直接根据确定的所述虚拟对象,以及所述第二动作标签,确定存储的所述虚拟对象的所述AR展示特效。
S104:所述AR特效控制设备基于所述虚拟对象的AR展示特效和所述现实场景图像,生成AR场景画面,并控制AR设备展示所述AR场景画面。
在本公开实施例中,所述AR特效控制设备可以将所述AR展示特效与所述现实场景图形进行融合,从而生成所述AR场景画面。在所述AR场景画面中,既包含进行所述第一动作的所述目标用户,还包含进行第二动作的所述虚拟对象,形成所述目标用户和所述虚拟对象动作配合互动的效果。
最后,所述AR特效控制设备控制所述AR设备展示所述AR场景画面,这样可以便于其他用户进行拍照留念。
本公开实施例提供了一种AR特效控制方法,在该方法中,AR特效控制设备可以根据包含目标用户的现实场景图像中,确定所述目标用户的第一动作;然后确定虚拟对象的AR展示特效,在该AR展示特效中所述虚拟对象执行第二动作,以回应所述目标用户的所述第一动作;最后所述AR特效控制设备基于所述AR展示特效和所述现实场景图像,生成AR画面,并通过AR设备展示所述AR场景画面。显然,通过该方法,AR特效控制设备可以生成虚拟对象通过第二动作回应目标用户的第一动作的AR展示特效,并基于该AR展示特效和所述现实场景图像生成AR场景画面,从而使所述AR场景画面达到目标用户与所述虚拟对象合影,并进行动作配合互动的效果。与现有技术中单一的显示方法相比,其能够提高设备的显示内容的灵活性,提高设备与用户的互动体验,提高用户的融入性和视觉效果,最终达到较好的用户体验。
参阅图2所示的AR特效控制方法实例所示,当小女孩进入设定游乐场所后,服务器可以持续从摄像装置获取包含该小女孩的现实场景图像,如图2所示的现实场景图像所示。所述服务器可以根据所述现实场景图像,确定所述小女孩的动作标签为交谊舞女性动作;那么所述服务器可以根据所述交谊舞女性动作,确定虚拟对象为男性,并确定该男性的AR展示特效,如图2中的AR展示特效所示,该AR展示特效中该男性进行交谊舞男性动作;最后,所述服务器可以将所述现实场景图像和所述男性的AR展示特效进行融合,生成AR场景画面,如图2中的AR场景画面所示。在该AR场景画面中,该小女孩和虚拟人物能够进行动作交互和动作配合,共同完成交谊舞。最后所述服务器可以将所述AR场景画面发送给AR设备展示,以便其他用户对所述AR场景画面进行拍照留念。
本领域技术人员可以理解,在具体实施方式的上述方法中,各步骤的撰写顺序并不意味着严格的执行顺序而对实施过程构成任何限定,各步骤的具体执行顺序应当以其功能和可能的内在逻辑确定。
基于同一发明构思,本公开实施例中还提供了与AR特效控制方法对应的AR特效控制装置,由于本公开实施例中的装置解决问题的原理与本公开实施例上述AR特效控制方法相似,因此装置的实施可以参见方法的实施,重复之处不再赘述。
参照图3所示,为本公开实施例提供的一种AR特效控制装置的示意图,所述装置包括:获取单元301、处理单元302、控制单元303。下面分别对每个单元的功能进行介绍。
获取单元301,用于获取设定游乐场所内的包含目标用户的现实场景图像;
处理单元302,用于基于所述现实场景图像,确定所述目标用户的第一动作对应的第一动作标签;基于所述第一动作标签,确定虚拟对象的AR展示特效;其中,在所述AR展示特效中所述虚拟对象进行第二动作,所述虚拟对象的所述第二动作用于回应所述目标用户的所述第一动作;以及基于所述虚拟对象的AR展示特效和所述现实场景图像,生成AR场景画面;
控制单元303,控制AR设备展示所述AR场景画面。
在一种可能的实施方式中,所述处理单元302,在基于所述第一动作标签,确定虚拟对象的AR展示特效时,具体用于:
确定与所述第一动作标签匹配的第二动作标签;
基于确定的所述第二动作标签,确定所述虚拟对象的所述AR展示特效。
在一种可能的实施方式中,所述处理单元302,在确定所述第一动作标签时,具体用于:
基于动作识别模型,对所述现实场景图像进行动作识别,确定所述第一动作标签;
其中,所述动作识别模型是根据多个动作图像样本数据训练得到的;每个动作图像样本数据包括:包含人体的图像样本以及该图像样本对应的动作标签。
在一种可能的实施方式中,所述现实场景图像的数量为多个;所述处理单元302,在确定所述第一动作标签时,具体用于:
基于肢体识别模型,对每个现实场景图像进行骨骼特征点识别,确定所述目标用户的多个骨骼特征点在每个现实场景图像中的位置;其中,所述肢体识别模型是根据多个肢体图像样本数据训练得到的,每个肢体图像样本数据包括:包含人体的图形样本以及该图像样本中多个骨骼特征点的位置;
根据所述目标用户的多个骨骼特征点在每相邻两个现实场景图像中的位置,确定所述目标用户的姿态变化信息;
根据所述目标用户的姿态变化信息确定所述第一动作;
确定所述第一动作对应的第一动作标签。
在一种可能的实施方式中,所述处理单元302,还用于:
在基于所述第一动作标签,确定虚拟对象的AR展示特效之前,根据以下任意一项或任意组合,确定所述虚拟对象:
所述第一动作标签、所述目标用户的身份信息、所述设定游乐场所的场景信息、所述目标用户的位置信息,所述AR设备当前显示或即将显示的目标图像。
在一种可能的实施方式中,所述装置还包括检测单元304,所述检测单元304,用于:
在所述获取单元301获取设定游乐场所内的包含目标用户的现实场景图像之前,检测到所述目标用户进入所述设定游乐场所。
本公开实施例提供了一种AR特效控制装置。所述装置可以根据包含目标用户的现实场景图像中,确定所述目标用户的第一动作;然后确定虚拟对象的AR展示特效,在该AR展示特效中所述虚拟对象执行第二动作,以回应所述目标用户的所述第一动作;最后所述装置基于所述AR展示特效和所述现实场景图像,生成AR画面,并通过AR设备展示所述AR场景画面。显然,通过该方案,AR特效控制装置可以生成虚拟对象通过第二动作回应目标用户的第一动作的AR展示特效,并基于该AR展示特效和所述现实场景图像生成AR场景画面,从而使所述AR场景画面达到目标用户与所述虚拟对象合影,并进行动作配合互动的效果。与现有技术中单一的显示方法相比,其能够提高设备的显示内容的灵活性,提高设备与用户的互动体验,提高用户的融入性和视觉效果,最终达到较好的用户体验。
对应于图1中的AR特效控制方法,本公开实施例还提供了一种AR特效控制设备。图4为本公开实施例提供的AR特效控制设备400的结构示意图,所述设备400包括:处理器401、存储器402、和总线403。
存储器402用于存储执行指令,包括内存4021和外部存储器4022。这里的内存4021也称内存储器,用于暂时存放处理器401中的运算数据,以及与硬盘等外部存储器4022交换的数据。处理器401通过内存4021与外部存储器4022进行数据交换,当所述设备400运行时,所述处理器401与所述存储器402之间通过总线403通信,使得所述处理器401执行以下方法:
获取设定游乐场所内的包含目标用户的现实场景图像;基于所述现实场景图像,确定所述目标用户的第一动作对应的第一动作标签;基于所述第一动作标签,确定虚拟对象的AR展示特效;其中,在所述AR展示特效中所述虚拟对象进行第二动作,所述虚拟对象的所述第二动作用于回应所述目标用户的所述第一动作;基于所述虚拟对象的AR展示特效和所述现实场景图像,生成AR场景画面,并控制AR设备展示所述AR场景画面。
所述处理器401执行上述方法的具体过程可以参考本公开实施例中所述的AR特效控制方法的步骤,此处不再赘述。
本公开实施例还提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行上述方法实施例中所述的AR特效控制方法的步骤。其中,该存储介质可以是易失性或非易失的计算机可读取存储介质。
本公开实施例所提供的AR特效控制方法的计算机程序产品,包括存储了程序代码的计算机可读存储介质,所述程序代码包括的指令可用于执行上述方法实施例中所述的AR特效控制方法的步骤,具体可参见上述方法实施例,在此不再赘述。
本公开实施例还提供一种计算机程序,该计算机程序被处理器执行时实现前述实施例的任意一种方法。该计算机程序产品可以具体通过硬件、软件或其结合的方式实现。在一个可选实施例中,所述计算机程序产品具体体现为计算机存储介质,在另一个可选实施例中,计算机程序产品具体体现为软件产品,例如软件开发包(Software DevelopmentKit,SDK)等等。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统和装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。在本公开所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本公开各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个处理器可执行的非易失的计算机可读取存储介质中。基于这样的理解,本公开的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本公开各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上所述实施例,仅为本公开的具体实施方式,用以说明本公开的技术方案,而非对其限制,本公开的保护范围并不局限于此,尽管参照前述实施例对本公开进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本公开揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本公开实施例技术方案的精神和范围,都应涵盖在本公开的保护范围之内。因此,本公开的保护范围应所述以权利要求的保护范围为准。
Claims (9)
1.一种增强现实AR特效控制方法,其特征在于,包括:
获取设定游乐场所内的包含目标用户的现实场景图像;
基于所述现实场景图像,确定所述目标用户的第一动作对应的第一动作标签;
基于所述第一动作标签,确定虚拟对象的AR展示特效;其中,在所述AR展示特效中所述虚拟对象进行第二动作,所述虚拟对象的所述第二动作用于回应所述目标用户的所述第一动作;
基于所述虚拟对象的AR展示特效和所述现实场景图像,生成AR场景画面,并控制AR设备展示所述AR场景画面。
2.根据权利要求1所述的方法,其特征在于,基于所述第一动作标签,确定虚拟对象的AR展示特效,包括:
确定与所述第一动作标签匹配的第二动作标签;
基于确定的所述第二动作标签,确定所述虚拟对象的所述AR展示特效。
3.根据权利要求1或2所述的方法,其特征在于,确定所述第一动作标签,包括:
基于动作识别模型,对所述现实场景图像进行动作识别,确定所述第一动作标签;
其中,所述动作识别模型是根据多个动作图像样本数据训练得到的;每个动作图像样本数据包括:包含人体的图像样本以及该图像样本对应的动作标签。
4.根据权利要求1或2所述的方法,其特征在于,所述现实场景图像的数量为多个;确定所述第一动作标签,包括:
基于肢体识别模型,对每个现实场景图像进行骨骼特征点识别,确定所述目标用户的多个骨骼特征点在每个现实场景图像中的位置;其中,所述肢体识别模型是根据多个肢体图像样本数据训练得到的,每个肢体图像样本数据包括:包含人体的图形样本以及该图像样本中多个骨骼特征点的位置;
根据所述目标用户的多个骨骼特征点在每相邻两个现实场景图像中的位置,确定所述目标用户的姿态变化信息;
根据所述目标用户的姿态变化信息确定所述第一动作;
确定所述第一动作对应的第一动作标签。
5.根据权利要求1至4任一项所述的方法,其特征在于,在基于所述第一动作标签,确定虚拟对象的AR展示特效之前,所述方法还包括:
根据以下任意一项或任意组合,确定所述虚拟对象:
所述第一动作标签、所述目标用户的身份信息、所述设定游乐场所的场景信息、所述目标用户的位置信息,所述AR设备当前显示或即将显示的目标图像。
6.根据权利要求1至5任一项所述的方法,其特征在于,获取设定游乐场所内的包含目标用户的现实场景图像之前,所述方法还包括:
检测到所述目标用户进入所述设定游乐场所。
7.一种增强现实AR特效控制装置,其特征在于,包括:
获取单元,用于获取设定游乐场所内的包含目标用户的现实场景图像;
处理单元,用于基于所述现实场景图像,确定所述目标用户的第一动作对应的第一动作标签;基于所述第一动作标签,确定虚拟对象的AR展示特效;其中,在所述AR展示特效中所述虚拟对象进行第二动作,所述虚拟对象的所述第二动作用于回应所述目标用户的所述第一动作;以及基于所述虚拟对象的AR展示特效和所述现实场景图像,生成AR场景画面;
控制单元,控制AR设备展示所述AR场景画面。
8.一种增强现实AR特效控制设备,其特征在于,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当所述设备运行时,所述处理器与所述存储器之间通过总线通信,所述机器可读指令被所述处理器执行时执行如权利要求1至6任一所述的方法的步骤。
9.一种计算机可读存储介质,其特征在于,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行如权利要求1至6任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010519544.4A CN111640197A (zh) | 2020-06-09 | 2020-06-09 | 一种增强现实ar特效控制方法、装置及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010519544.4A CN111640197A (zh) | 2020-06-09 | 2020-06-09 | 一种增强现实ar特效控制方法、装置及设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111640197A true CN111640197A (zh) | 2020-09-08 |
Family
ID=72330661
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010519544.4A Pending CN111640197A (zh) | 2020-06-09 | 2020-06-09 | 一种增强现实ar特效控制方法、装置及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111640197A (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112148189A (zh) * | 2020-09-23 | 2020-12-29 | 北京市商汤科技开发有限公司 | 一种ar场景下的交互方法、装置、电子设备及存储介质 |
CN112637665A (zh) * | 2020-12-23 | 2021-04-09 | 北京市商汤科技开发有限公司 | 增强现实场景下的展示方法、装置、电子设备及存储介质 |
CN112653848A (zh) * | 2020-12-23 | 2021-04-13 | 北京市商汤科技开发有限公司 | 增强现实场景下的展示方法、装置、电子设备及存储介质 |
CN112906467A (zh) * | 2021-01-15 | 2021-06-04 | 深圳市慧鲤科技有限公司 | 合影图像生成方法及装置、电子设备和存储介质 |
CN113253838A (zh) * | 2021-04-01 | 2021-08-13 | 作业帮教育科技(北京)有限公司 | 基于ar的视频教学方法、电子设备 |
CN113359985A (zh) * | 2021-06-03 | 2021-09-07 | 北京市商汤科技开发有限公司 | 数据展示方法、装置、计算机设备以及存储介质 |
CN113421343A (zh) * | 2021-05-27 | 2021-09-21 | 深圳市晨北科技有限公司 | 基于增强现实观测设备内部结构的方法 |
CN113542620A (zh) * | 2021-07-06 | 2021-10-22 | 北京百度网讯科技有限公司 | 一种特效处理方法、装置及电子设备 |
CN114489337A (zh) * | 2022-01-24 | 2022-05-13 | 深圳市慧鲤科技有限公司 | 一种ar互动方法、装置、设备及存储介质 |
CN115278041A (zh) * | 2021-04-29 | 2022-11-01 | 北京字跳网络技术有限公司 | 图像处理方法、装置、电子设备以及可读存储介质 |
CN115665437A (zh) * | 2022-12-21 | 2023-01-31 | 深圳市易云数字科技有限责任公司 | 一种场景可定制现场互动ar慢直播系统 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106650619A (zh) * | 2016-11-15 | 2017-05-10 | 上海师范大学 | 一种人体动作识别方法 |
CN108416832A (zh) * | 2018-01-30 | 2018-08-17 | 腾讯科技(深圳)有限公司 | 媒体信息的显示方法、装置和存储介质 |
CN109923512A (zh) * | 2016-09-09 | 2019-06-21 | 上海海知智能科技有限公司 | 人机交互的系统及方法 |
CN109948472A (zh) * | 2019-03-04 | 2019-06-28 | 南京邮电大学 | 一种基于姿态估计的非侵入式人体热舒适检测方法及系统 |
CN110705448A (zh) * | 2019-09-27 | 2020-01-17 | 北京市商汤科技开发有限公司 | 一种人体检测方法及装置 |
CN110716634A (zh) * | 2019-08-28 | 2020-01-21 | 北京市商汤科技开发有限公司 | 交互方法、装置、设备以及显示设备 |
CN110716641A (zh) * | 2019-08-28 | 2020-01-21 | 北京市商汤科技开发有限公司 | 交互方法、装置、设备以及存储介质 |
CN110716645A (zh) * | 2019-10-15 | 2020-01-21 | 北京市商汤科技开发有限公司 | 一种增强现实数据呈现方法、装置、电子设备及存储介质 |
-
2020
- 2020-06-09 CN CN202010519544.4A patent/CN111640197A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109923512A (zh) * | 2016-09-09 | 2019-06-21 | 上海海知智能科技有限公司 | 人机交互的系统及方法 |
CN106650619A (zh) * | 2016-11-15 | 2017-05-10 | 上海师范大学 | 一种人体动作识别方法 |
CN108416832A (zh) * | 2018-01-30 | 2018-08-17 | 腾讯科技(深圳)有限公司 | 媒体信息的显示方法、装置和存储介质 |
CN109948472A (zh) * | 2019-03-04 | 2019-06-28 | 南京邮电大学 | 一种基于姿态估计的非侵入式人体热舒适检测方法及系统 |
CN110716634A (zh) * | 2019-08-28 | 2020-01-21 | 北京市商汤科技开发有限公司 | 交互方法、装置、设备以及显示设备 |
CN110716641A (zh) * | 2019-08-28 | 2020-01-21 | 北京市商汤科技开发有限公司 | 交互方法、装置、设备以及存储介质 |
CN110705448A (zh) * | 2019-09-27 | 2020-01-17 | 北京市商汤科技开发有限公司 | 一种人体检测方法及装置 |
CN110716645A (zh) * | 2019-10-15 | 2020-01-21 | 北京市商汤科技开发有限公司 | 一种增强现实数据呈现方法、装置、电子设备及存储介质 |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112148189A (zh) * | 2020-09-23 | 2020-12-29 | 北京市商汤科技开发有限公司 | 一种ar场景下的交互方法、装置、电子设备及存储介质 |
CN112637665A (zh) * | 2020-12-23 | 2021-04-09 | 北京市商汤科技开发有限公司 | 增强现实场景下的展示方法、装置、电子设备及存储介质 |
CN112653848A (zh) * | 2020-12-23 | 2021-04-13 | 北京市商汤科技开发有限公司 | 增强现实场景下的展示方法、装置、电子设备及存储介质 |
CN112637665B (zh) * | 2020-12-23 | 2022-11-04 | 北京市商汤科技开发有限公司 | 增强现实场景下的展示方法、装置、电子设备及存储介质 |
CN112906467A (zh) * | 2021-01-15 | 2021-06-04 | 深圳市慧鲤科技有限公司 | 合影图像生成方法及装置、电子设备和存储介质 |
CN113253838A (zh) * | 2021-04-01 | 2021-08-13 | 作业帮教育科技(北京)有限公司 | 基于ar的视频教学方法、电子设备 |
CN115278041A (zh) * | 2021-04-29 | 2022-11-01 | 北京字跳网络技术有限公司 | 图像处理方法、装置、电子设备以及可读存储介质 |
CN115278041B (zh) * | 2021-04-29 | 2024-02-27 | 北京字跳网络技术有限公司 | 图像处理方法、装置、电子设备以及可读存储介质 |
CN113421343A (zh) * | 2021-05-27 | 2021-09-21 | 深圳市晨北科技有限公司 | 基于增强现实观测设备内部结构的方法 |
CN113421343B (zh) * | 2021-05-27 | 2024-06-04 | 深圳市晨北科技有限公司 | 基于增强现实观测设备内部结构的方法 |
CN113359985A (zh) * | 2021-06-03 | 2021-09-07 | 北京市商汤科技开发有限公司 | 数据展示方法、装置、计算机设备以及存储介质 |
CN113542620B (zh) * | 2021-07-06 | 2022-02-25 | 北京百度网讯科技有限公司 | 一种特效处理方法、装置及电子设备 |
CN113542620A (zh) * | 2021-07-06 | 2021-10-22 | 北京百度网讯科技有限公司 | 一种特效处理方法、装置及电子设备 |
CN114489337A (zh) * | 2022-01-24 | 2022-05-13 | 深圳市慧鲤科技有限公司 | 一种ar互动方法、装置、设备及存储介质 |
CN115665437A (zh) * | 2022-12-21 | 2023-01-31 | 深圳市易云数字科技有限责任公司 | 一种场景可定制现场互动ar慢直播系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111640197A (zh) | 一种增强现实ar特效控制方法、装置及设备 | |
CN106803057B (zh) | 图像信息处理方法及装置 | |
US10026229B1 (en) | Auxiliary device as augmented reality platform | |
CN111638793B (zh) | 飞行器的展示方法、装置、电子设备及存储介质 | |
CN110716645A (zh) | 一种增强现实数据呈现方法、装置、电子设备及存储介质 | |
CN112348969A (zh) | 增强现实场景下的展示方法、装置、电子设备及存储介质 | |
US10186084B2 (en) | Image processing to enhance variety of displayable augmented reality objects | |
CN112348968B (zh) | 增强现实场景下的展示方法、装置、电子设备及存储介质 | |
WO2016122973A1 (en) | Real time texture mapping | |
CN111627117B (zh) | 画像展示特效的调整方法、装置、电子设备及存储介质 | |
CN111639613B (zh) | 一种增强现实ar特效生成方法、装置及电子设备 | |
CN111696215A (zh) | 一种图像处理方法、装置及设备 | |
CN111640202A (zh) | 一种ar场景特效生成的方法及装置 | |
CN111667588A (zh) | 人物图像处理方法、装置、ar设备以及存储介质 | |
CN105278826A (zh) | 增强现实系统 | |
CN111640192A (zh) | 场景图像处理方法、装置、ar设备以及存储介质 | |
CN111638784B (zh) | 人脸表情互动方法、互动装置以及计算机存储介质 | |
CN110928411B (zh) | 一种基于ar的交互方法、装置、存储介质及电子设备 | |
CN111880709A (zh) | 一种展示方法、装置、计算机设备及存储介质 | |
CN111651057A (zh) | 一种数据展示方法、装置、电子设备及存储介质 | |
CN111625100A (zh) | 图画内容的呈现方法、装置、计算机设备及存储介质 | |
CN111652983A (zh) | 一种增强现实ar特效生成方法、装置及设备 | |
CN114332374A (zh) | 一种虚拟显示方法、设备以及存储介质 | |
CN112905014A (zh) | Ar场景下的交互方法、装置、电子设备及存储介质 | |
CN111693063A (zh) | 导航互动展示方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |