一种操作控制的方法及装置
技术领域
本公开涉及互联网技术领域,具体而言,涉及一种操作控制的方法及装置。
背景技术
目前,随着互联网技术的不断发展,智能终端逐渐在人们的生活和工作中普及,智能终端中安装的各种媒体软件的功能也越来越强大。比如,可以通过智能终端中安装的媒体软件来实现对虚拟道具的操作,像模拟射击等,基于这类软件可以减少对真实素材的需求,节省成本,并且便于统计操作结果。但是,目前对虚拟道具的操作大都缺少现实融入性,用户的真实体验感不强。
发明内容
本公开实施例至少提供一种操作控制的方法及装置。
第一方面,本公开实施例提供了一种操作控制的方法,所述方法包括:
获取目标用户的人脸图像;
检测所述人脸图像中目标部位的位置信息;
基于检测到的位置信息,在所述人脸图像上与检测到的位置信息对应的相对位置处展示处于初始展示形态的目标虚拟道具;
根据检测到的所述目标部位的状态信息,调整所述目标虚拟道具的展示形态。
在一种可能的实施方式中,所述展示形态包括展示的形状和/或尺寸大小。
在一种可能的实施方式中,所述根据检测到的所述目标部位的状态信息,调整所述目标虚拟道具的展示形态,包括:
在检测到所述目标部位的状态属性符合预设的状态属性条件、且检测到声音属性符合预设声音属性条件的情况下,调整所述目标虚拟道具的展示形态。
在一种可能的实施方式中,在检测到所述目标部位的状态属性符合预设的状态属性条件、且检测到声音属性符合预设声音属性条件的情况下,调整所述目标虚拟道具的展示形态,包括:
在所述目标部位的状态属性符合预设的状态属性条件、且检测到的声音属性符合预设声音属性条件的情况下,根据检测到的所述目标用户的脸形变化信息,确定单位时间内的所述目标虚拟道具的展示形态调整幅度;
根据确定的展示形态调整幅度,调整所述目标虚拟道具的展示形态。
在一种可能的实施方式中,根据检测到的所述目标部位的状态信息,调整所述目标虚拟道具的展示形态,包括:
在所述目标部位的状态属性符合预设的状态属性条件的情况下,根据检测到的所述目标用户的脸形变化信息,确定单位时间内的所述目标虚拟道具的展示形态调整幅度;
根据确定的展示形态调整幅度,调整所述目标虚拟道具的展示形态。
在一种可能的实施方式中,在所述目标部位为嘴部,所述目标虚拟道具为虚拟气球的情况下,所述目标部位的状态属性符合预设的状态属性条件,包括:
所述目标部位的状态符合嘟嘴的状态。
在一种可能的实施方式中,所述声音属性符合预设声音属性条件,包括:
检测到声音的大小大于设定阈值,和/或检测到声音的类型为预设类型的声音。
在一种可能的实施方式中,根据检测到的所述目标部位的状态信息,调整所述目标虚拟道具的展示形态之后,还包括:
在调整所述目标虚拟道具的展示形态至符合预设条件之后,展示所述目标虚拟道具对应的目标动画特效。
在一种可能的实施方式中,在所述目标部位为嘴部,所述目标虚拟道具为虚拟气球的情况下,展示所述目标虚拟道具的目标动画特效,包括:
展示所述虚拟气球被吹破或吹飞的动画特效。
在一种可能的实施方式中,在调整所述目标虚拟道具的展示形态至符合预设条件之后,展示所述目标虚拟道具对应的目标动画特效,包括:
根据所述目标虚拟道具的道具属性信息,展示与该道具属性信息匹配的目标动画特效。
在一种可能的实施方式中,根据检测到的所述目标部位的状态信息,调整所述目标虚拟道具的展示形态之后,还包括:
在调整所述目标虚拟道具的展示形态至符合预设条件之后,更新记录的成功操作次数,并重新展示初始状态的目标虚拟道具。
在一种可能的实施方式中,所述方法还包括:
获取个性化添加对象;
基于获取的所述个性化添加对象,以及预设的虚拟道具模型,生成所述目标虚拟道具。
在一种可能的实施方式中,所述方法还包括:
在展示所述人脸图像的屏幕上的预设位置区域展示辅助虚拟道具;
响应所述目标虚拟道具的展示形态调整至符合预设条件,改变所述辅助虚拟道具的展示特效。
在一种可能的实施方式中,所述目标用户的人脸图像包括多个目标用户的人脸图像;
基于检测到的每个目标用户的所述目标部位的位置信息,在所述人脸图像上与检测到的每个目标部位的位置信息对应的相对位置处,分别展示初始形态的目标虚拟道具。
在一种可能的实施方式中,根据检测到的所述目标部位的状态信息,调整所述目标虚拟道具的展示形态,包括:
根据检测到的所述多个目标用户中每个目标用户的目标部位的状态信息,以及每个目标用户对应的脸形变化信息,从所述多个目标用户中确定选中用户,调整所述选中用户对应的目标虚拟道具的展示形态。
在一种可能的实施方式中,根据检测到的所述目标部位的状态信息,调整所述目标虚拟道具的展示形态,包括:
根据检测到的所述多个目标用户中每个目标用户的目标部位的状态信息,分别调整所述多个目标用户中每个目标用户对应的目标虚拟道具的展示形态。
在一种可能的实施方式中,所述目标虚拟道具对应有现实场景下的真实目标操作对象;所述目标部位与所述目标虚拟道具之间的所述相对位置,匹配于现实场景下所述真实目标操作对象在被操作时相对于所述目标部位的相对位置。
第二方面,本公开实施例还提供一种操作控制的方法,包括:
获取目标用户的人脸图像;
根据获取的人脸图像,展示初始形态的目标虚拟道具;
根据检测到的所述人脸图像中的人脸表情信息,以及检测到的声音信息,调整所述目标虚拟道具的展示形态。
第三方面,本公开实施例还提供一种操作控制的装置,包括:
获取模块,用于获取目标用户的人脸图像。
检测模块,用于检测所述人脸图像中目标部位的位置信息。
展示模块,用于基于检测到的位置信息,在所述人脸图像上与检测到的位置信息对应的相对位置处展示处于初始展示形态的目标虚拟道具。
调整模块,用于根据检测到的所述目标部位的状态信息,调整所述目标虚拟道具的展示形态。
在一种可能的实施方式中,所述展示形态包括展示的形状和/或尺寸大小。
在一种可能的实施方式中,所述调整模块,具体用于在检测到所述目标部位的状态属性符合预设的状态属性条件、且检测到声音属性符合预设声音属性条件的情况下,调整所述目标虚拟道具的展示形态。
在一种可能的实施方式中,所述调整模块,具体用于在所述目标部位的状态属性符合预设的状态属性条件、且检测到的声音属性符合预设声音属性条件的情况下,根据检测到的所述目标用户的脸形变化信息,确定单位时间内的所述目标虚拟道具的展示形态调整幅度;根据确定的展示形态调整幅度,调整所述目标虚拟道具的展示形态。
在一种可能的实施方式中,所述调整模块,具体用于在所述目标部位的状态属性符合预设的状态属性条件的情况下,根据检测到的所述目标用户的脸形变化信息,确定单位时间内的所述目标虚拟道具的展示形态调整幅度;根据确定的展示形态调整幅度,调整所述目标虚拟道具的展示形态。
在一种可能的实施方式中,所述目标部位的状态符合嘟嘴的状态。
在一种可能的实施方式中,所述声音属性符合预设声音属性条件,包括:检测到声音的大小大于设定阈值,和/或检测到声音的类型为预设类型的声音。
在一种可能的实施方式中,所述装置还包括:目标动画特效展示模块,用于在调整所述目标虚拟道具的展示形态至符合预设条件之后,展示所述目标虚拟道具对应的目标动画特效。
在一种可能的实施方式中,所述目标动画特效展示模块,具体用于展示所述虚拟气球被吹破或吹飞的所述目标动画特效。
在一种可能的实施方式中,所述目标动画特效展示模块,具体用于根据所述目标虚拟道具的道具属性信息,展示与该道具属性信息匹配的目标动画特效。
在一种可能的实施方式中,所述装置还包括:计数更新模块,用于在调整所述目标虚拟道具的展示形态至符合预设条件之后,更新记录的成功操作次数,并重新展示初始状态的目标虚拟道具。
在一种可能的实施方式中,所述装置还包括:个性化设置模块,用于获取个性化添加对象;基于获取的所述个性化添加对象,以及预设的虚拟道具模型,生成所述目标虚拟道具。
在一种可能的实施方式中,所述装置还包括:辅助虚拟道具展示模块,用于在展示所述人脸图像的屏幕上的预设位置区域展示辅助虚拟道具。
辅助虚拟道具展示效果调整模块,用于响应所述目标虚拟道具的展示形态调整至符合预设条件,改变所述辅助虚拟道具的展示特效。
在一种可能的实施方式中,所述目标用户的人脸图像包括多个目标用户的人脸图像;所述展示模块,还用于基于检测到的每个目标用户的所述目标部位的位置信息,在所述人脸图像上与检测到的每个目标部位的位置信息对应的相对位置处,分别展示初始形态的目标虚拟道具。
在一种可能的实施方式中,所述调整模块,还具体用于根据检测到的所述多个目标用户中每个目标用户的目标部位的状态信息,以及每个目标用户对应的脸形变化信息,从所述多个目标用户中确定选中用户,调整所述选中用户对应的目标虚拟道具的展示形态。
在一种可能的实施方式中,所述调整模块,还具体用于根据检测到的所述多个目标用户中每个目标用户的目标部位的状态信息,分别调整所述多个目标用户中每个目标用户对应的目标虚拟道具的展示形态。
在一种可能的实施方式中,所述目标虚拟道具对应有现实场景下的真实目标操作对象;所述目标部位与所述目标虚拟道具之间的所述相对位置,匹配于现实场景下所述真实目标操作对象在被操作时相对于所述目标部位的相对位置。
第四方面,本公开实施例还提供一种操作控制的装置,包括:
获取模块,用于获取目标用户的人脸图像。
展示模块,用于根据获取的人脸图像,展示初始状态的目标虚拟道具。
调整模块,用于根据检测到的所述人脸图像中的人脸表情信息,以及检测到的声音信息,调整所述目标虚拟道具的展示形态。
第五方面,本公开实施例还提供一种计算机设备,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当计算机设备运行时,所述处理器与所述存储器之间通过总线通信,所述机器可读指令被所述处理器执行时执行上述第一方面,或第一方面中任一种可能的实施方式中的步骤,或执行上述第二方面中的步骤。
第六方面,本公开实施例还提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行上述第一方面,或第一方面中任一种可能的实施方式中的步骤,或执行上述第二方面中的步骤。
本公开实施例可以实现用户对虚拟道具展示形态的实时控制,实现了用户人脸图像与虚拟道具的配合展示,增强了对虚拟道具进行操作的现实体验,另外,由于虚拟道具代替了现实道具,还起到了节省素材成本、保护环境(减少现实道具垃圾)、以及便于统计操作结果的作用。
为使本公开的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本公开实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,此处的附图被并入说明书中并构成本说明书中的一部分,这些附图示出了符合本公开的实施例,并与说明书一起用于说明本公开的技术方案。应当理解,以下附图仅示出了本公开的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出了本公开实施例所提供的一种操作控制的方法的流程图;
图2示出了本公开实施例所提供的获取人脸图像的界面图的展示示意图;
图3示出了本公开实施例所提供的一种初始形态的目标虚拟道具的界面展示图的示意图;
图4示出了本公开实施例所提供的一种目标虚拟道具调整后的界面展示图的示意图;
图5示出了本公开实施例所提供的一种吹破特效的界面展示图的示意图;
图6示出了本公开实施例所提供的一种吹飞特效的界面展示图的示意图;
图7示出了本公开实施例所提供的一种辅助虚拟道具展示特效的界面展示图的示意图;
图8示出了本公开实施例所提供的一种多个目标用户对应的初始形态的目标虚拟道具的界面展示图的示意图;
图9示出了本公开实施例所提供的一种多个目标用户对应的调整后目标虚拟道具的界面展示图的示意图;
图10示出了本公开实施例所提供的另一种操作控制的方法的流程图;
图11示出了本公开实施例所提供的一种操作控制的装置的示意图;
图12示出了本公开实施例所提供的另一种操作控制的装置的示意图;
图13示出了本公开实施例所提供的一种电子设备的示意图;
图14示出了本公开实施例所提供的一种电子设备的示意图。
具体实施方式
为使本公开实施例的目的、技术方案和优点更加清楚,下面将结合本公开实施例中附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本公开实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本公开的实施例的详细描述并非旨在限制要求保护的本公开的范围,而是仅仅表示本公开的选定实施例。基于本公开的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本公开保护的范围。
基于上述研究,本公开实施例提供了一种操作控制的方法及装置,可以实现用户对虚拟道具展示形态的实时控制,实现了用户人脸图像与虚拟道具的配合展示,增强了对虚拟道具进行操作的现实体验,另外,由于虚拟道具代替了现实道具,还起到了节省素材成本、保护环境(减少现实道具垃圾)、以及便于统计操作结果的作用。另外,本公开实施例根据目标部位的位置信息确定目标虚拟道具的展示位置,从而可以使得目标虚拟道具的展示位置符合现实场景下的位置相对关系,进一步增强现实体验。
针对以上方案所存在的缺陷,均是发明人在经过实践并仔细研究后得出的结果,因此,上述问题的发现过程以及下文中本公开针对上述问题所提出的解决方案,都应该是发明人在本公开过程中对本公开做出的贡献。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
为便于对本实施例进行理解,首先对本公开实施例所公开的一种操作控制的方法进行详细介绍,本公开实施例所提供的操作控制的方法的执行主体一般为具有一定计算能力的计算机设备,该计算机设备例如包括:终端设备或服务器或其它处理设备,终端设备可以为用户设备(User Equipment,UE)、移动设备、用户终端、终端、蜂窝电话、无绳电话、个人数字处理(Personal Digital Assistant,PDA)、手持设备、计算设备、车载设备、可穿戴设备等。在一些可能的实现方式中,该操作控制的方法可以通过处理器调用存储器中存储的计算机可读指令的方式来实现。
下面以执行主体为终端设备为例对本公开实施例提供的操作控制的方法加以说明。
实施例一
参见图1所示,为本公开实施例提供的一种操作控制的方法的流程图,所述方法包括步骤S101~S104,其中:
S101、获取目标用户的人脸图像。
在具体实施中,可以通过终端设备的前置摄像头获取目标用户的人脸图像。具体的,当目标用户在前置摄像头的拍摄范围内时,则前置摄像头会自动搜索并拍摄目标用户的人脸图像。其中,终端设备可以为智能手机、平板电脑等。
具体的获取用户的人脸图像的界面图可以包括以下部分:人脸图像、指示目标用户开始游戏的动作提示、下一个目标虚拟道具的形状、样式等信息、成功操作次数、辅助虚拟道具、我的宠物、气球DIY(Do It Yourself,DIY)、排行榜等指示用户操作的触发按钮;其中,下一个目标虚拟道具的形状、样式等信息可以用来提示用户下一个目标虚拟道具的形状、样式等;成功操作次数可以表示用户成功吹破气球的次数,也即用户成功吹破气球的个数;我的宠物的触发按钮可以用来指示用户对拥有的辅助虚拟道具进行其他操作;气球DIY的触发按钮可以用于指示目标用户选择自己喜欢或者感兴趣的照片、贴纸等DIY对象,自己设计目标虚拟道具。具体的获取用户的人脸图像的界面图如图2所示,以终端设备为手机为例。
S102、检测所述人脸图像中目标部位的位置信息。
其中,目标部位可以为嘴部;目标部位的位置信息用来表示嘴部在终端屏幕上的位置。
在具体实施中,基于S101中获取到的目标用户的人脸图像,对上述人脸图像进行特征提取,根据特征提取结果,确定人脸图像中的嘴部图像,并确定嘴部图像在终端屏幕上的位置。
S103、基于检测到的位置信息,在所述人脸图像上与检测到的位置信息对应的相对位置处展示处于初始展示形态的目标虚拟道具。
本公开实施例中,目标虚拟道具可以对应有现实场景下的真实目标操作对象;此时,目标部位与所述目标虚拟道具之间的所述相对位置,可以匹配于现实场景下所述真实目标操作对象在被操作时相对于所述目标部位的相对位置,另外,用户操作目标虚拟道具的方式也与现实场景下用户操作对应的真实目标操作对象的方式匹配,从而进一步增强现实体验。
比如,目标虚拟道具可以为气球,相对位置可以为嘴部下方;这里,气球的样式可以包括多种,比如可以包括兔子样式、甜甜圈样式等。
在具体实施中,可以在基于目标用户的人脸图像检测到用户发起预设触发操作后,启动S103的目标虚拟道具展示功能,比如检测到用户嘟嘴后,展示虚拟气球。
另外,本公开实施例还可以对用户针对目标虚拟道具的操作进行统计记录,在这种情况下,可以给用户一定的准备时间。作为一种可选实施方式,可以在用户发起预设触发操作(比如嘟嘴)后,启动倒计时,请用户开始准备,倒计时结束后,开始计时统计用户操作记录。
这里,初始展示形态用来指示目标虚拟道具在初始展示阶段的状态;比如,处于初始展示形态的目标虚拟道具可以为瘪的(没有吹气的)小气球。
在具体实施方式中,基于S102中确定的目标用户嘴部的位置,在嘴部下方展示瘪的小气球,具体展示界面如图3所示,以终端设备为手机为例。
S104、根据检测到的所述目标部位的状态信息,调整所述目标虚拟道具的展示形态。
在具体实施中,可以通过对目标部位的图像进行特征提取,确定目标部位的状态信息。目标部位的状态信息可以包括目标部位的姿态信息,比如嘟嘴。比如可以在目标部位的状态信息符合嘟嘴的状态的前提条件下,调整虚拟气球的展示形态。
其中,目标虚拟道具的展示形态可以包括展示的形状和/或尺寸大小;比如,虚拟气球的展示形状可以包括兔子形状、甜甜圈形状等;尺寸大小用来指示气球的膨胀大小程度,可以为初始展示形态大小的倍数,比如:为初始展示形态大小的1.5倍。
在具体实施中,可以根据检测到的所述目标部位的状态信息,以及检测到的声音信息,调整所述目标虚拟道具的展示形态。
具体的,通过对目标用户的人脸图像进行特征提取,确定目标用户嘴部的状态信息;获取目标用户的声音数据,对声音数据进行处理,确定上述声音数据对应的声音信息;根据上述嘴部的状态信息和上述声音信息,调整气球的展示尺寸。
在具体实施中,根据上述嘴部的状态信息和上述声音信息,调整气球的展示尺寸,具体描述如下:在所述目标部位的状态属性符合预设的状态属性条件、且检测到声音属性符合预设声音属性条件的情况下,调整所述目标虚拟道具的展示形态。
其中,状态属性可以包括目标部位的姿态特征等;比如,针对吹气球的场景,嘴部的状态属性包括嘴部是否撅起。
这里,预设的状态属性条件可以包括嘟嘴以及不同的嘟嘴幅度,可以为轻微嘟嘴、大幅度嘟嘴等。这里,目标部位的状态符合预设的状态属性条件可以为目标部位的状态符合嘟嘴的状态。
这里,声音属性条件可以包括声音类型、声音大小和声音持续度;其中,针对吹气球这种场景,可以将声音类型划分为吹气的声音和其它声音;声音大小可以通过检测目标用户发出声音的音量获得;声音持续度用来指示发出声音的持续时间。
示例性的,预设声音属性条件可以包括:声音类型:吹气(也可以不限制声音类型),声音大小:大于等于1分贝(仅为举例,非实操中实际阈值),声音持续时间:持续时长大于等于3秒(也可以不限制持续时间)。
示例性的,当检测到目标用户的目标部位的状态属性符合预设的状态属性条件,即嘟嘴、且检测到声音大小大于设定阈值的情况下,调整在嘴部下方的气球的尺寸大小。
在一种可选的实施方式中,声音属性符合预设声音属性条件可以为:检测到声音的大小大于设定阈值,和/或检测到声音的类型为预设类型的声音。比如,声音符合预设声音属性条件可以为声音大小大于设定阈值,且声音类型为吹气。
示例性的,当检测到目标用户的目标部位的状态属性符合预设的状态属性条件,即嘟嘴、且检测到声音属性符合预设声音属性条件的情况下,即吹气、声音大小大于1分贝,则调整在嘴部下方的气球的尺寸大小。
在具体实施中,在检测到所述目标部位的状态属性符合预设的状态属性条件、且检测到声音属性符合预设声音属性条件的情况下,调整所述目标虚拟道具的展示形态,具体描述如下:在所述目标部位的状态属性符合预设的状态属性条件、且检测到的声音属性符合预设声音属性条件的情况下,根据检测到目标用户的脸形变化信息,确定单位时间内的目标虚拟道具的展示形态调整幅度;根据确定的展示形态调整幅度,调整所述目标虚拟道具的展示形态。
其中,脸形变化信息可以用来指示发出对应动作的力度大小(比如:吹气力度大小);可以包括脸形变化幅度,即嘴边张开幅度和腮帮鼓起幅度。
这里,脸形变化信息可以影响气球膨胀速度;具体的,脸形变化信息与气球膨胀速度的关系为:当嘴巴张开幅度和腮帮鼓起幅度较大时,即吹气力度较大,则对应的气球膨胀速度快;当嘴巴张开幅度和腮帮鼓起幅度较小时,即吹气力度较小,则对饮的气球膨胀速度慢。
具体的,当检测到目标用户的嘴部为嘟嘴,且声音符合预设声音属性条件时,检测目标用户的人脸对应的嘴巴张开幅度和腮帮鼓起幅度,根据上述当前目标用户的嘴巴张开幅度和腮帮鼓起幅度以及上述确定的脸形变化信息与气球膨胀速度的关系,确定单位时间内气球尺寸的变化程度(即气球膨胀程度);根据上述确定的单位时间内气球尺寸的变化程度,调整气球在终端屏幕上的展示尺寸。
示例性的,当前目标用户嘟嘴,且声音符合预设声音属性条件,检测到目标用户的人脸的嘴巴张开幅度较大、且腮帮鼓起幅度较大,则按照较大膨胀速度调整气球在终端屏幕上的展示尺寸,调整后的展示界面如图4所示,以终端设备为手机为例。
在一种可选的实施方式中,当检测到用户的目标部位的状态属性不符合预设的状态属性条件时,将目标虚拟道具的展示形态调整为初始形态。也就是说,在目标用户吹起气球过程中,若目标用户改变嘴部的状态信息(即从嘟嘴到不嘟嘴的过程),则将在目标用户嘴部下方的气球调整为初始的瘪的小气球状态。
在一种可选的实施方式中,还可以仅根据检测到的目标用户的嘴部状态信息及脸形变化信息,调整气球在终端屏幕上的展示尺寸,具体描述如下:在所述目标部位的状态属性符合预设的状态属性条件的情况下,根据检测到的目标用户的脸形变化信息,确定单位时间内的目标虚拟道具的展示形态调整幅度;根据确定的展示形态调整幅度,调整所述目标虚拟道具的展示形态。
具体的,当检测到目标用户的嘴部状态符合嘟嘴状态的情况下,检测目标用户的人脸对应的嘴巴张开幅度和腮帮鼓起幅度,根据上述当前目标用户的嘴巴张开幅度和腮帮鼓起幅度以及上述确定的脸形变化信息与气球膨胀速度的关系,确定单位时间内气球尺寸的变化程度(即气球膨胀程度);根据上述确定的单位时间内气球尺寸的变化程度,调整气球在终端屏幕上的展示尺寸。
本公开实施例可以实现用户对虚拟道具展示形态的实时控制,实现用户人脸图像与虚拟道具展示形态的融合展示,增强了对虚拟道具进行操作的现实体验,另外,由于虚拟道具代替了现实道具,还起到了节省素材成本、保护环境(减少现实道具垃圾)、以及便于统计操作结果的作用。此外,在本公开实施例中,目标部位与目标虚拟道具之间的相对位置,匹配于现实场景下真实目标操作对象在被操作时相对于所述目标部位的相对位置,从而本公开实施例对虚拟道具的操作更加匹配现实场景。
在一种可选的实施方式中,在根据检测到的所述目标部位的状态信息,调整所述目标虚拟道具的展示形态之后,所述方法还包括:在调整所述目标虚拟道具的展示形态至符合预设条件之后,展示所述目标虚拟道具对应的目标动画特效。
其中,预设条件指目标虚拟道具的尺寸阈值;这里,指的是气球的最大膨胀尺寸。
这里,目标动画特效可以为吹破、吹飞等。具体的,展示所述目标虚拟道具的目标动画特效可以为展示所述虚拟气球被吹破或被吹飞的动画特效。
具体的,在根据检测到的目标用户的嘴部状态信息,调整在终端屏幕是上的气球尺寸之后,当气球尺寸调整到大于气球的最大膨胀尺寸之后,则展示吹破或吹飞气球的特效。比如,当目标用户在吹气球过程中,当终端设备检测到在终端屏幕上的气球尺寸达到最大膨胀尺寸之后,当检测到目标用户依旧为嘟嘴、且声音属性符合预设声音属性条件(即继续吹气球时)时,则在终端屏幕上气球爆炸时的动画特效。
在具体实施中,根据目标虚拟道具的道具属性信息,展示与该道具属性信息匹配的目标动画特效。
其中,道具属性信息可以包括道具类型、以及每种类型对应的现实效果;其中,道具类型可以为炸弹、云朵等,且上述炸弹对应的现实效果为爆炸、云朵对应的现实效果为漂浮等。
示例性的,当目标虚拟道具为炸弹气球时,则根据目标虚拟道具的道具属性信息,则确定展示与炸弹对应的现实效果相同的动画特效,即在终端屏幕上展示炸弹气球的吹破特效,具体展示界面如图5所示,以终端设备为手机为例。
示例性的,当目标虚拟道具为云朵气球时,则根据目标虚拟道具的道具属性信息,则确定展示与云朵对应的现实效果相同的动画特效,即在终端屏幕上展示云朵气球的吹飞特效,具体展示界面如图6所示,以终端设备为手机为例。
在一种可选的实施方式中,在根据检测到的所述目标部位的状态信息,调整所述目标虚拟道具的展示形态之后,所述方法还包括:在调整所述目标虚拟道具的展示形态至符合预设条件之后,更新记录的成功操作次数,并重新展示初始状态的目标虚拟道具。
这里,成功操作次数可以为成功吹破气球的次数,即成功吹破气球的个数;这里的初始状态的目标虚拟道具的道具属性可以与之前初始状态的目标虚拟道具的道具属性相同,也可以不同。其中,道具属性可以包括颜色、形态、类型等。
具体的,在根据检测到的目标用户的嘴部状态信息,调整在终端屏幕是上的气球尺寸之后,当气球尺寸调整到大于气球的最大膨胀尺寸之后,更新成功吹破气球的次数,并在目标用户的嘴部下方重新展示一个瘪的小气球(这里的气球的形状、颜色、类型可以与前一个气球相同,也可以不同)。也就是说,当目标用户在吹气球过程中,当终端设备检测到在终端屏幕上的气球尺寸达到最大膨胀尺寸之后,当检测到目标用户依旧为嘟嘴、且声音属性符合预设声音属性条件(即继续吹气球时)时,则成功吹破气球,更新成功吹破气球的次数,并在目标用户的嘴部下方重新展示一个瘪的小气球。
为了进一步丰富操作场景,在一种可选的实施方式中,所述方法还包括:获取个性化添加对象;基于获取的所述个性化添加对象,以及预设的虚拟道具模型,生成所述目标虚拟道具。
其中,个性化添加对象可以为贴纸、照片等自己动手制作(Do It Yourself,DIY)的对象。
具体的,目标用户可以选择自己喜欢或者感兴趣的照片、贴纸等DIY对象,将DIY对象基于预设规则添加到预设的虚拟道具模型上,生成目标虚拟道具。
示例性的,用户在终端设备上选择DIY按钮,并将自己喜欢的白雪公主形象添加到气球道具模型上,生成包含白雪公主形象的气球,并将上述包含白雪公主的气球展示在终端设备的屏幕上。
在一种可选的实施方式中,所述方法还包括:在展示所述人脸图像的屏幕上的预设位置区域展示辅助虚拟道具;响应所述目标虚拟道具的展示形态调整至符合预设条件,改变所述辅助虚拟道具的展示特效。
其中,辅助虚拟道具可以为虚拟宠物、虚拟人物等,即虚拟猫、虚拟狗、虚拟笑脸人物等;这里,预设位置区域可以为终端屏幕上处人脸图像所在区域外的任意区域。
这里,辅助虚拟道具的展示特效可以为鼓掌、拍手、竖起大拇指点赞等。
具体的,终端设备的屏幕上的预设区域展示辅助虚拟道具,当目标用户在吹气球过程中,当终端设备检测到在终端屏幕上的气球尺寸达到最大膨胀尺寸之后,当检测到目标用户依旧为嘟嘴、且声音属性符合预设声音属性条件(即继续吹气球时)时,则用户成功吹破气球,检测到用户成功吹破气球,则调整辅助虚拟道具的展示特效。
示例性的,终端设备的屏幕上的预设区域展示辅助虚拟道具为虚拟笑脸人物,当检测到用户成功吹破气球时,则将虚拟笑脸人物的展示特效调整为竖起大拇指特效,具体展示界面图如图7所示,以终端设备为手机为例。
在一种可选的实施方式中,当所述目标用户的人脸图像包括多个目标用户的人脸图像时,则基于检测到的每个目标用户的所述目标部位的位置信息,在所述人脸图像上与检测到的每个目标部位的位置信息对应的相对位置处,分别展示初始形态的目标虚拟道具。
具体的,当终端设备获取的目标用户的人脸图像包括多个目标用户的人脸图像时,对每个目标用户的人脸图像进行特征提取,基于特征提取结果的属性信息,确定每个目标用户的嘴部位置信息,并基于上述每个目标用户的嘴部位置信息,在每个目标用户的嘴部下方展示初始形态的目标虚拟道具(即瘪的小气球),具体展示界面图如图8所示,以终端设备为手机为例。
另外,本公开实施例可以展示多人互动场景。在这种场景下,多个目标用户之间可以竞争目标虚拟道具的操作权限(不同目标用户可以分别有各自对应的目标虚拟道具,不过胜出者才能操作)。比如,在一种可选的实施方式中,当获取到多个目标用户的人脸图像时,根据检测到的所述目标部位的状态信息,调整所述目标虚拟道具的展示形态,包括:根据检测到的所述多个目标用户中每个目标用户的目标部位的状态信息,以及每个目标用户对应的脸形变化信息,从所述多个目标用户中确定被选中用户,调整所述被选中用户对应的目标虚拟道具的展示形态。
在另一种多人互动场景下,可以通过以下方法确定多个目标用户中操作较快的用户,具体描述如下:根据检测到的所述多个目标用户中每个目标用户的目标部位的状态信息,分别调整所述多个目标用户中每个目标用户对应的目标虚拟道具的展示形态。
具体的,当终端设备获取的目标用户的人脸图像包括多个目标用户的人脸图像时,对每个目标用户的人脸图像分别进行特征提取,确定每个目标用户的嘴部状态信息(即:嘟嘴、吹气),以及每个目标用户对应的脸部变化信息(即嘴巴张开幅度和腮帮鼓起幅度),并根据每个目标用户的嘴部状态信息和对应的脸部变化信息,调整该目标用户嘴部下方气球的尺寸大小。
示例性的,当终端设备获取的目标用户的人脸图像包括三个目标用户的人脸图像(用户a、用户b、用户c)时,对三个目标用户的人脸图像分别进行特征提取,确定用户a的嘴部状态信息为:嘟嘴、吹气、声音分贝为2分贝、声音持续时长为4秒,且用户a对应的嘴巴张开幅度和腮帮鼓起幅度较大;确定用户b的嘴部状态信息为:微笑、且未张开嘴巴;确定用户c的嘴部状态信息为:嘟嘴、吹气、声音分贝为1.5分贝、声音持续时长为3秒,且用户c对应的嘴巴张开幅度和腮帮鼓起幅度较小,则根据用户a、用户b、用户c的嘴部状态信息、嘴巴张开幅度和腮帮鼓起幅度,将用户a嘴部下方气球的尺寸调整为初始尺寸的4倍;不调整用户b嘴部下方气球的尺寸;将用户c嘴部下方气球的尺寸调整为初始尺寸的2倍。具体展示界面图如图9所示,以终端设备为手机为例。
本公开实施例中,可以针对上述操作过程中的画面进行视频录制,将录制的视频通过社交APP进行分享。比如,可以在拍摄获取人脸图像的同时开始录制视频,在整个操作流程结束后,保存录制完成的视频,分享到社交APP。
实施例二
参见图10所示,为本公开实施例提供的另一种操作控制的方法的流程图,所述方法包括步骤S1001~S1003,其中:
S1001、获取目标用户的人脸图像。
S1002、根据获取的人脸图像,展示初始形态的目标虚拟道具。
参考实施例一所述,获取目标用户的人脸图像后,可以检测所述人脸图像中目标部位的位置信息;基于检测到的位置信息,在所述人脸图像上与检测到的位置信息对应的相对位置处展示初始形态的目标虚拟道具。
S1003、根据检测到的所述人脸图像中的人脸表情信息,以及检测到的声音信息,调整所述目标虚拟道具的展示形态。
其中,人脸表情信息可以包括目标部位的状态信息和/或脸形变化幅度信息等;这里的目标部位的状态信息可以为是否嘟嘴。其中,声音信息可以包括声音类型、声音大小、声音持续性等信息。
在一种实施方式中,可以通过对目标用户的人脸图像进行特征提取,确定目标部位的状态信息(是否嘟嘴)和脸形变化幅度(腮帮鼓起幅度和嘴部张开闭合的动作幅度)等信息;并可以获取目标用户的声音数据,对声音数据进行处理,确定上述声音数据对应的声音信息;根据上述目标部位的状态信息、脸形变化幅度信息和上述声音信息,调整目标虚拟道具的展示尺寸。
在具体实施中,根据检测到的人脸图像中的人脸表情信息,以及检测到的声音信息,调整目标虚拟道具的展示形态的更多的相关描述可以参见实施例一中的描述,这里不再赘述。
本领域技术人员可以理解,在具体实施方式的上述方法中,各步骤的撰写顺序并不意味着严格的执行顺序而对实施过程构成任何限定,各步骤的具体执行顺序应当以其功能和可能的内在逻辑确定。
基于同一发明构思,本公开实施例中还提供了与操作控制的方法对应的操作控制的装置,由于本公开实施例中的装置解决问题的原理与本公开实施例上述操作控制的方法相似,因此装置的实施可以参见方法的实施,重复之处不再赘述。
实施例三
参照图11所示,为本公开实施例提供的一种操作控制的装置1100的示意图,所述装置包括:获取模块1101、检测模块1102、展示模块1103和调整模块1104;其中,
获取模块1101,用于获取目标用户的人脸图像。
检测模块1102,用于检测所述人脸图像中目标部位的位置信息。
展示模块1103,用于基于检测到的位置信息,在所述人脸图像上与检测到的位置信息对应的相对位置处展示处于初始展示形态的目标虚拟道具。
调整模块1104,用于根据检测到的所述目标部位的状态信息,调整所述目标虚拟道具的展示形态。
本公开实施例可以实现用户对虚拟道具展示形态的实时控制,实现用户人脸图像与虚拟道具展示形态的融合展示,增强了对虚拟道具进行操作的现实体验,另外,由于虚拟道具代替了现实道具,还起到了节省素材成本、保护环境(减少现实道具垃圾)、以及便于统计操作结果的作用。此外,在本公开实施例中,目标部位与目标虚拟道具之间的相对位置,匹配于现实场景下真实目标操作对象在被操作时相对于所述目标部位的相对位置,从而本公开实施例对虚拟道具的操作更加匹配现实场景。
一种可能的实施方式中,所述展示形态包括展示的形状和/或尺寸大小。
一种可能的实施方式中,调整模块1104,具体用于在检测到所述目标部位的状态属性符合预设的状态属性条件、且检测到声音属性符合预设声音属性条件的情况下,调整所述目标虚拟道具的展示形态。
一种可能的实施方式中,调整模块1104,具体用于在所述目标部位的状态属性符合预设的状态属性条件、且检测到的声音属性符合预设声音属性条件的情况下,根据检测到的所述目标用户的的脸形变化信息,确定单位时间内的所述目标虚拟道具的展示形态调整幅度;根据确定的展示形态调整幅度,调整所述目标虚拟道具的展示形态。
一种可能的实施方式中,调整模块1104,具体用于在所述目标部位的状态属性符合预设的状态属性条件的情况下,根据检测到的所述目标用户的脸形变化信息,确定单位时间内的所述目标虚拟道具的展示形态调整幅度;根据确定的展示形态调整幅度,调整所述目标虚拟道具的展示形态。
一种可能的实施方式中,所述目标部位的状态符合嘟嘴的状态。
一种可能的实施方式中,所述声音属性符合预设声音属性条件,包括:检测到声音的大小大于设定阈值,和/或检测到声音的类型为预设类型的声音。
一种可能的实施方式中,所述装置还包括:目标动画特效展示模块,用于在调整所述目标虚拟道具的展示形态至符合预设条件之后,展示所述目标虚拟道具对应的目标动画特效。
一种可能的实施方式中,所述目标动画特效展示模块,具体用于展示所述虚拟气球被吹破或吹飞的所述目标动画特效。
一种可能的实施方式中,所述目标动画特效展示模块,具体用于根据所述目标虚拟道具的道具属性信息,展示与该道具属性信息匹配的目标动画特效。
一种可能的实施方式中,所述装置还包括:计数更新模块,用于在调整所述目标虚拟道具的展示形态至符合预设条件之后,更新记录的成功操作次数,并重新展示初始状态的目标虚拟道具。
一种可能的实施方式中,所述装置还包括:个性化设置模块,用于获取个性化添加对象;基于获取的所述个性化添加对象,以及预设的虚拟道具模型,生成所述目标虚拟道具。
一种可能的实施方式中,所述装置还包括:辅助虚拟道具展示模块,用于在展示所述人脸图像的屏幕上的预设位置区域展示辅助虚拟道具。
辅助虚拟道具展示效果调整模块,用于响应所述目标虚拟道具的展示形态调整至符合预设条件,改变所述辅助虚拟道具的展示特效。
一种可能的实施方式中,所述目标用户的人脸图像包括多个目标用户的人脸图像;展示模块1103,还用于基于检测到的每个目标用户的所述目标部位的位置信息,在所述人脸图像上与检测到的每个目标部位的位置信息对应的相对位置处,分别展示初始形态的目标虚拟道具。
一种可能的实施方式中,调整模块1104,还具体用于根据检测到的所述多个目标用户中每个目标用户的目标部位的状态信息,以及每个目标用户对应的脸形变化信息,从所述多个目标用户中确定被选中用户,调整所述被选中用户对应的目标虚拟道具的展示形态。
一种可能的实施方式中,调整模块1104,还具体用于根据检测到的所述多个目标用户中每个目标用户的目标部位的状态信息,分别调整所述多个目标用户中每个目标用户对应的目标虚拟道具的展示形态。
一种可能的实施方式中,所述目标虚拟道具对应有现实场景下的真实目标操作对象;所述目标部位与所述目标虚拟道具之间的所述相对位置,匹配于现实场景下所述真实目标操作对象在被操作时相对于所述目标部位的相对位置。
实施例四
参照图12所示,为本公开实施例提供的一种操作控制的装置1200的示意图,所述装置包括:获取模块1201、展示模块1202和调整模块1203;其中,
获取模块1201,获取目标用户的人脸图像。
展示模块1202,用于根据获取的人脸图像,展示初始状态的目标虚拟道具。
调整模块1203,用于根据检测到的所述人脸图像中的人脸表情信息,以及检测到的声音信息,调整所述目标虚拟道具的展示形态。
关于装置中的各模块的处理流程、以及各模块之间的交互流程、以及有益效果的描述可以参照上述方法实施例中的相关说明,这里不再详述。
基于同一技术构思,本申请实施例还提供了一种电子设备。参照图13所示,为本申请实施例提供的电子设备1300的结构示意图,包括处理器1301、存储器1302、和总线1303。其中,存储器1302用于存储执行指令,包括内存13021和外部存储器13022;这里的内存13021也称内存储器,用于暂时存放处理器1301中的运算数据,以及与硬盘等外部存储器13022交换的数据,处理器1301通过内存13021与外部存储器13022进行数据交换,当电子设备1300运行时,处理器1301与存储器1302之间通过总线1303通信,使得处理器1301执行以下指令:
获取目标用户的人脸图像;检测所述人脸图像中目标部位的位置信息;基于检测到的位置信息,在所述人脸图像上与检测到的位置信息对应的相对位置处展示初始形态的目标虚拟道具;根据检测到的所述目标部位的状态信息,调整所述目标虚拟道具的展示形态。
基于同一技术构思,本申请实施例还提供了一种电子设备。参照图14所示,为本申请实施例提供的电子设备1400的结构示意图,包括处理器1401、存储器1402、和总线1403。其中,存储器1402用于存储执行指令,包括内存14021和外部存储器14022;这里的内存14021也称内存储器,用于暂时存放处理器1401中的运算数据,以及与硬盘等外部存储器14022交换的数据,处理器1401通过内存14021与外部存储器14022进行数据交换,当电子设备1400运行时,处理器1401与存储器1402之间通过总线1403通信,使得处理器1401执行以下指令:
获取目标用户的人脸图像;根据获取的人脸图像,展示初始形态的目标虚拟道具;根据检测到的所述人脸图像中的人脸表情信息,以及检测到的声音信息,调整所述目标虚拟道具的展示形态。
本公开实施例还提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行上述方法实施例中所述的操作控制的方法的步骤。其中,该存储介质可以是易失性或非易失的计算机可读取存储介质。
本公开实施例所提供的操作控制的方法的计算机程序产品,包括存储了程序代码的计算机可读存储介质,所述程序代码包括的指令可用于执行上述方法实施例中所述的操作控制的方法的步骤,具体可参见上述方法实施例,在此不再赘述。
本公开实施例还提供一种计算机程序,该计算机程序被处理器执行时实现前述实施例的任意一种方法。该计算机程序产品可以具体通过硬件、软件或其结合的方式实现。在一个可选实施例中,所述计算机程序产品具体体现为计算机存储介质,在另一个可选实施例中,计算机程序产品具体体现为软件产品,例如软件开发包(Software DevelopmentKit,SDK)等等。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统和装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。在本公开所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本公开各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个处理器可执行的非易失的计算机可读取存储介质中。基于这样的理解,本公开的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本公开各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上所述实施例,仅为本公开的具体实施方式,用以说明本公开的技术方案,而非对其限制,本公开的保护范围并不局限于此,尽管参照前述实施例对本公开进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本公开揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本公开实施例技术方案的精神和范围,都应涵盖在本公开的保护范围之内。因此,本公开的保护范围应所述以权利要求的保护范围为准。