CN117953111A - 三维头部处理方法、三维头部处理模型的训练方法及装置 - Google Patents

三维头部处理方法、三维头部处理模型的训练方法及装置 Download PDF

Info

Publication number
CN117953111A
CN117953111A CN202311362994.7A CN202311362994A CN117953111A CN 117953111 A CN117953111 A CN 117953111A CN 202311362994 A CN202311362994 A CN 202311362994A CN 117953111 A CN117953111 A CN 117953111A
Authority
CN
China
Prior art keywords
target
voxel
dimensional
voice
driving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311362994.7A
Other languages
English (en)
Inventor
叶志凌
张良国
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mashang Consumer Finance Co Ltd
Original Assignee
Mashang Consumer Finance Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mashang Consumer Finance Co Ltd filed Critical Mashang Consumer Finance Co Ltd
Priority to CN202311362994.7A priority Critical patent/CN117953111A/zh
Publication of CN117953111A publication Critical patent/CN117953111A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)

Abstract

本申请实施例提供了一种三维头部处理方法、三维头部处理模型的训练方法及装置,其中处理方法包括:获取待处理的第一驱动语音和第一相机视点;生成第一驱动语音的第一高维空间特征;根据第一高维空间特征和第一相机视点,生成M个第一目标体素的第一体素信息;第一目标体素是第一相机视点与目标成像平面所对应的体素,目标成像平面是待驱动的第一目标三维头部的成像平面,M为大于1的整数;根据第一体素信息在目标成像平面进行体素渲染处理,得到第一目标三维头部。通过本申请实施例,提升了三维头部的驱动效果。

Description

三维头部处理方法、三维头部处理模型的训练方法及装置
技术领域
本申请涉及人工智能技术领域,尤其涉及一种三维头部处理方法、三维头部处理模型的训练方法及装置。
背景技术
随着虚拟现实技术的不断发展,利用语音驱动虚拟人脸已成为热点研究方向之一。利用语音驱动虚拟人脸的最终目标是使虚拟人脸与语音相匹配。目前,利用语音驱动虚拟人脸,通常是采用语音特征提取器提取语音的语音特征,然后基于语音特征进行虚拟人脸的驱动处理。然而,语音特征提取器在提取语音特征时,对语音特征进行了大量平滑处理,这种平滑处理降低了不同语音帧之间的可分性,而该可分性的降低则直接降低了虚拟人脸的驱动效果。
发明内容
本申请提供一种三维头部处理方法、三维头部处理模型的训练方法及装置,以提升驱动语音对三维头部的驱动效果。
第一方面,本申请实施例提供了一种三维头部处理方法,包括:
获取待处理的第一驱动语音和第一相机视点;
生成所述第一驱动语音的第一高维空间特征;
根据所述第一高维空间特征和所述第一相机视点,生成M个第一目标体素的第一体素信息;所述第一目标体素是所述第一相机视点与目标成像平面所对应的体素,所述目标成像平面是待驱动的第一目标三维头部的成像平面,M为大于1的整数;
根据所述第一体素信息在所述目标成像平面进行体素渲染处理,得到所述第一目标三维头部。
可以看出,本申请实施例中,由于在第一高维空间特征中,保留了第一驱动语音的高频信息,而该高频信息中携带了讲话人在讲第一驱动语音时的情绪、喘息等讲话细节,因此可以根据该高频信息,对讲话人在第一驱动语音的不同语音帧之间的讲话细节差异进行有效区分;从而在基于该第一高维空间特征进行后续处理时,能够有效的减少歧义性,提升生成的第一体素信息的准确性,进而提升得到的第一目标三维头部的准确性,即提升了第一目标三维头部的驱动效果。
第二方面,本申请实施例提供了一种三维头部处理模型的训练方法,包括:
获取多个训练样本;所述训练样本包括第二驱动语音及所述第二驱动语音对应的面部图像;
利用所述训练样本对待训练网络进行迭代训练,得到三维头部处理模型;
所述待训练网络包括第一哈希网格编码器和体素处理模块,所述迭代训练包括:通过所述第一哈希网格编码器生成所述第二驱动语音的第二高维空间特征;根据所述第二高维空间特征和所述面部图像对应的第二相机视点,通过所述体素处理模块生成第二目标体素的第二体素信息;根据所述第二体素信息进行体素渲染处理,得到第二目标三维头部;若根据所述第二目标三维头部确定满足训练结束条件,则将满足训练结束条件时的所述待训练网络确定为三维头部处理模型;所述第二目标体素是所述第二相机视点与所述面部图像所对应的体素。
可以看出,本申请实施例中,由于待训练网络中的第一哈希网格编码器所生成的第二高维空间特征中,保留了第二驱动语音的高频信息,而该高频信息中携带了讲话人在讲第二驱动语音时的情绪、喘息等讲话细节,因此可以根据该高频信息,对讲话人在第二驱动语音的不同语音帧之间的讲话细节差异进行有效区分;从而在基于该第二高维空间特征进行后续处理时,能够有效的减少歧义性,提升训练得到的三维头部处理模型的准确性,进而在基于该准确性高的三维头部处理模型进行三维头部处理时,能够极大的提升三维头部处理的准确性,即提升驱动效果。
第三方面,本申请实施例提供了一种三维头部处理装置,包括:
获取模块,用于获取待处理的第一驱动语音和第一相机视点;
第一生成模块,用于生成所述第一驱动语音的第一高维空间特征;
第二生成模块,用于根据所述第一高维空间特征和所述第一相机视点,生成M个第一目标体素的第一体素信息;所述第一目标体素是所述第一相机视点与目标成像平面所对应的体素,所述目标成像平面是待驱动的第一目标三维头部的成像平面,M为大于1的整数;
渲染模块,用于根据所述第一体素信息在所述目标成像平面进行体素渲染处理,得到所述第一目标三维头部。
第四方面,本申请实施例提供了一种三维头部处理模型的训练装置,包括:
获取模块,用于获取多个训练样本;所述训练样本包括第二驱动语音及所述第二驱动语音对应的面部图像;
训练模块,用于利用所述训练样本对待训练网络进行迭代训练,得到三维头部处理模型;
所述待训练网络包括第一哈希网格编码器和体素处理模块,所述迭代训练包括:通过所述第一哈希网格编码器生成所述第二驱动语音的第二高维空间特征;根据所述第二高维空间特征和所述面部图像对应的第二相机视点,通过所述体素处理模块生成T个第二目标体素的第二体素信息;根据所述第二体素信息进行体素渲染处理,得到第二目标三维头部;若根据所述第二目标三维头部确定满足训练结束条件,则将满足训练结束条件时的所述待训练网络确定为三维头部处理模型;所述第二目标体素是所述第二相机视点与所述面部图像所对应的体素,T为大于1的整数。
第五方面,本申请实施例提供了一种电子设备,包括:
处理器;以及,被安排成存储计算机可执行指令的存储器,所述可执行指令被配置由所述处理器执行,所述可执行指令包括用于执行上述第一方面提供的三维头部处理方法中的步骤,或者所述可执行指令包括用于执行上述第二方面提供的三维头部处理模型的训练方法中的步骤。
第六方面,本申请实施例提供了一种存储介质,所述存储介质用于存储计算机可执行指令,所述可执行指令使得计算机执行上述第一方面提供的三维头部处理方法,或者所述可执行指令使得计算机执行上述第二方面提供的三维头部处理模型的训练方法。
附图说明
为了更清楚地说明本申请一个或多个实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种三维头部处理方法的第一种流程示意图;
图2为本申请实施例提供的一种三维头部处理方法的示意图;
图3为本申请实施例提供的一种三维头部处理方法的第二种流程示意图
图4为本申请实施例提供的一种三维头部处理方法的第三种流程示意图;
图5为本申请实施例提供的第一哈希网格编码的编码处理示意图;
图6为本申请实施例提供的一种三维头部处理方法的第四种流程示意图
图7为本申请实施例提供的一种三维头部处理模型的训练方法的流程示意图;
图8为本申请实施例提供的一种三维头部处理装置的模块组成示意图;
图9为本申请实施例提供的一种三维头部处理模型的训练装置的模块组成示意图;
图10为本申请一个或多个实施例提供的一种电子设备的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请一个或多个实施例中的技术方案,下面将结合本申请一个或多个实施例中的附图,对本申请一个或多个实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请的一部分实施例,而不是全部的实施例。基于本申请一个或多个实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都应当属于本文件的保护范围。
考虑到目前利用语音驱动虚拟人脸时,通常是采用语音特征提取器提取语音的语音特征,然后基于语音特征进行虚拟人脸的驱动处理。然而,语音特征提取器在提取语音特征时,对语音特征进行了大量平滑处理,这种平滑处理降低了不同语音帧之间的可分性,而该可分性的降低则直接降低了虚拟人脸的驱动效果,例如人脸不清晰、口型不准确性等。基于此,本申请实施例提供了一种三维头部处理方法,该方法中当获取到待处理的第一驱动语音和第一相机视点时,生成第一驱动语音的第一高维空间特征;并根据第一高维空间特征和第一相机视点,生成M个第一目标体素的第一体素信息,其中,第一目标体素是第一相机视点与目标成像平面所对应的体素,目标成像平面是待驱动的第一目标三维头部的成像平面,M为大于1的整数;根据第一体素信息在目标成像平面进行体素渲染处理,得到第一目标三维头部。由于在第一高维空间特征中,保留了第一驱动语音的高频信息,而该高频信息中携带了讲话人在讲第一驱动语音时的情绪、喘息等讲话细节,因此可以根据该高频信息,对讲话人在第一驱动语音的不同语音帧之间的讲话细节差异进行有效区分;从而在基于该第一高维空间特征进行后续处理时,能够有效的减少歧义性,提升生成的第一体素信息的准确性,进而提升得到的第一目标三维头部的准确性,即提升了第一目标三维头部的驱动效果。
具体的,图1为本申请一个或多个实施例提供的一种三维头部处理方法的流程示意图,图1中的方法能够由三维头部处理装置执行,该驱动装置可以设置于终端设备中,也可以设置于服务端中。其中,终端设备可以是手机、平板电脑、台式计算机、便携式笔记本等;服务端可以是独立的服务器,也可以是由多个服务器组成的服务器集群。如图2所示,该方法包括以下步骤:
步骤S102,获取待处理的第一驱动语音和第一相机视点;
具体的,接收三维头部驱动请求,从三维头部驱动请求中获取待处理的第一驱动语音和第一相机视点。在一些实施方式中,三维头部处理装置与至少一个请求设备通信连接,相应的,三维头部处理装置可以接收请求设备发送的三维头部驱动请求。在另一些实施方式中,三维头部处理装置包括编辑模块,用户可以操作该编辑模块提交三维头部驱动请求,相应的,三维头部处理装置接收用户提交的三维头部驱动请求。第一驱动语音可以是任意内容的语音,第一相机视点包括相机在世界坐标系下的相机光心的位置信息和朝向等。
步骤S104,生成第一驱动语音的第一高维空间特征;
考虑到现有的音频特征提取器在进行语音特征提取处理时,对语音特征进行了大量平滑处理,使得讲话人在不同语音帧之间的情绪、喘息等讲话细节的差异在不用语音帧之间难以区分,即降低了不同语音帧之间的可分性。例如,讲话人在情绪激动时讲“啊”,口型是张大的,在情绪低落时讲“啊”口型是微张的,而现有的音频特征提取器在进行语音特征提取处理时,由于对语音特征进行了大量平滑处理,使得情绪激动时讲“啊”的口型,与情绪低落时讲“啊”口型难以区分,进而在驱动虚拟人脸时,导致虚拟人脸的口型等表情与语音并不匹配,因此降低了虚拟人脸的驱动效果。基于此,本申请一个或多个实施例中预先训练了三维头部处理模型,并基于该三维头部处理模型进行三维头部处理。具体的,如图2所示,该三维头部处理模型包括第一哈希网格编码器,相应的,步骤S104可以包括:通过三维头部处理模型的第一哈希网格编码器生成第一驱动语音的第一高维空间特征;
其中,第一哈希网格编码器包括与L个分辨率一一对应的L层网格,以及每层网格的角点特征矩阵,即L个角点特征矩阵。每个角点特征矩阵包括相应层中各网格的每个角点的角点特征。各层网格的尺度相同,分辨率为每个网格的大小,分辨率越大,对应网格层的网格数量越少。例如每层网格的尺度为1*1,当分辨率为1/2时,表征网格的大小为(1/2)*(1/2),相应的,该网格层包括4个网格;当分辨率为1/3时,表征网格的大小为(1/3)*(1/3),相应的,该网格层包括9个网格;当分辨率为1/4时,表征网格的大小为(1/4)*(1/4),相应的,该网格层包括16个网格,以此类推。也就是说,各网格均为正方形,且有四个角点,各角点的角点特征是三维头部处理模型在训练过程中的训练参数,即在利用三维头部处理模型进行三维头部处理时,角点特征是固定不变的。第一高维空间特征的具体生成过程、三维头部处理模型的训练过程均可参见后文的相关描述。
由于在第一高维空间特征中保留了第一驱动语音的高频信息,而该高频信息中携带了讲话人在讲第一驱动语音时的情绪、喘息等讲话细节,因此可以根据该高频信息,对讲话人在第一驱动语音的不同语音帧之间的讲话细节差异进行有效区分;从而在基于该第一高维空间特征进行后续处理时,能够有效的减少歧义性,提升对三维人脸驱动的准确性,例如提升口型等表情的准确性。
步骤S106,根据第一高维空间特征和第一相机视点,生成M个第一目标体素的第一体素信息;第一目标体素是第一相机视点与目标成像平面所对应的体素,目标成像平面是待驱动的第一目标三维头部的成像平面,M为大于1的整数;
具体的,如图2所示,三维头部处理模型还包括体素处理模块,相应的,步骤S106可以包括:根据第一高维空间特征和第一相机视点,通过三维头部处理模型的体素处理模块生成M个第一目标体素的第一体素信息。
本申请中用于语音驱动的三维头部是隐式的三维头部,即无法用肉眼直接看到整个三维的立体头部,而是从不同的相机视点所对应的视角(例如正视、侧视等),在目标成像平面中看到三维头部的一部分(例如正脸、侧脸等),看到的该部分即第一目标三维头部。也就是说,在基于第一驱动语音驱动三维头部的过程中,通过提供不同的第一相机视点,即可得到不同视角的第一目标三维头部,能够满足不同视角的驱动需求。
第一目标体素是从第一相机视点的相机光心射向目标成像平面的每个像素点的光线上进行采样得到的,即第一目标体素是第一相机视点与第一目标三维头部的目标成像平面所对应的体素。第一体素信息可以包括颜色值(即RGB值)和透明度。
目标成像平面的大小,可以由用户指定,也可以采用预设大小,其可以在实际应用中根据需要自行设定。当用户指定目标成像平面的大小时,步骤S102中接收到的三维头部驱动请求中可以包括目标成像平面的大小,例如100*100,单位为像素。
步骤S108,根据第一体素信息在目标成像平面进行体素渲染处理,得到第一目标三维头部。
具体的,根据目标成像平面中每个像素点所对应的第一目标体素的第一体素信息,确定目标成像平面中每个像素点的像素值;根据目标成像平面中每个像素点的像素值进行渲染处理,得到第一目标三维头部。其中,第一目标三维头部的面部表情与第一驱动语音相匹配。对于体素渲染处理的具体实现过程,可参考相关技术,对此本申请中不再进一步详述。
本申请一个或多个实施例中,在获取到待处理的第一驱动语音和第一相机视点时,生成第一驱动语音的第一高维空间特征;并根据第一高维空间特征和第一相机视点,生成第一相机视点和目标成像平面所对应的第一目标体素的第一体素信息;根据第一体素信息在目标成像平面进行体素渲染处理,得到第一目标三维头部。由于在第一高维空间特征中,保留了第一驱动语音的高频信息,而该高频信息中携带了讲话人在讲第一驱动语音时的情绪、喘息等讲话细节,因此可以根据该高频信息,对讲话人在第一驱动语音的不同语音帧之间的讲话细节差异进行有效区分;从而在基于该第一高维空间特征进行后续处理时,能够有效的减少歧义性,提升生成的第一体素信息的准确性,进而提升得到的第一目标三维头部的准确性,即提升了第一目标三维头部的驱动效果。
为了便于生成第一驱动语音的第一高维空间特征,本申请一个或多个实施例中,首先对第一驱动语音进行预处理,具体的,如图3所示,步骤S104之前还可以包括以下步骤S103:
步骤S103,对第一驱动语音进行预处理,得到第一驱动语音对应的第一空间坐标。
考虑到不同的三维头部驱动需求,其第一驱动语音的时长往往不同,为了便于处理,本申请一个或多个实施例中,以第一预设时长的第一驱动语音作为整体确定其对应的第一空间坐标。具体而言,步骤S103可以包括:
根据第一驱动语音的时长,将第一驱动语音切分为N个语音片段;对N个语音片段进行语音特征提取处理,得到第一驱动语音对应的N个语音特征;根据N个语音特征,确定第一驱动语音对应的N个第一空间坐标。其中,N为正整数。在一些实施方式中,可以通过语音特征提取模型对N个语音片段进行语音特征提取处理,语音特征提取模型可以是预先训练得到的,其训练过程可参考相关技术,本申请中不再详述。
更加具体的,为了提升第一空间坐标的准确性,本申请一个或多个实施例中,还可以将每个语音片段切分为多个第二预设时长的第一子语音,第二预设时长小于第一预设时长。即步骤S103可以包括:
确定第一驱动语音的时长与第一预设时长之间的关系;
若第一驱动语音的时长超过第一预设时长,则按照第一预设时长,将第一驱动语音切分为N个语音片段;针对每个语音片段,按照第二预设时长将语音片段切分为多个第一子语音;将每个语音片段所对应的多个第一子语音,输入语音特征提取模型中进行语音特征提取处理,得到每个语音片段的语音特征;根据得到的N个语音特征,确定第一驱动语音对应的N个第一空间坐标。可以理解的是,当第一驱动语音的时长超过第一预设时长时,可以得到多个语音片段,即此时N是大于1的整数。特别的,按照时间的先后顺序,当最后一个语音片段的时长小于第一预设时长时,还可以包括:对最后一个语音片段进行补齐处理,得到第一预设时长的语音片段。在一些实施例中,第一预设时长可以是40毫秒,第二预设时长可以是10毫秒,其可以在实际应用中根据需要自行设定。
若第一驱动语音的时长等于第一预设时长,则将第一驱动语音确定为切分得到的一个语音片段,即N为1;并按照第二预设时长将语音片段(即第一驱动语音)切分为多个第一子语音;将切分得到的多个第一子语音输入语音特征提取模型中进行语音特征提取处理,得到第一驱动语音的一个语音特征;根据第一驱动语音的该一个语音特征,确定第一驱动语音对应的一个第一空间坐标。
若第一驱动语音的时长小于第一预设时长,则对第一驱动语音进行补齐处理,并将补齐后的语音确定为对第一驱动语音进行切分得到的一个语音片段,即N为1;按照第二预设时长将语音片段切分为多个第一子语音;将切分得到的多个第一子语音输入语音特征提取模型中进行语音特征提取处理,得到第一驱动语音的一个语音特征,根据该一个语音特征,确定第一驱动语音对应的一个第一空间坐标。
也就是说,每个第一预设时长的语音片段,经切分后可以得到多个第一子语音,将该多个第一子语音输入语音特征提取模型后,得到每个语音片段的语音特征,并将该语音特征确定为第一驱动语音的语音特征。其中,每个语音特征包括相应语音片段的目标发音属于每个预设音素的概率。其中,预设音素的数量为大于3的整数,目标发音可以是语音片段的关键语音帧的发音,还可以是语音片段作为整体,其发音(即一个发音)属于每个预设音素的概率。相应的,上述根据N个语音特征,确定第一驱动语音对应的N个第一空间坐标,可以包括:针对每个语音特征,确定语音特征包括的概率中最大的三个目标概率;将目标概率在语音特征中的位置编号,确定为第一驱动语音对应的第一空间坐标,得到第一驱动语音对应的N个第一空间坐标。可以理解的是,当第一驱动语音的时长大于第一预设时长时,得到第一驱动语音对应的多个第一空间坐标,当第一驱动语音的时长小于或等第一预设时长时,得到第一驱动语音对应的一个第一空间坐标。
在一些实施方式中,预设音素的数量可以为4096,则每个语音特征可以是1*4096的一维向量,即包括4096个概率,各概率对应的位置编号可以是从1到4096,第一空间坐标所在的立体空间大小可以是4096*4096*4096。若第一驱动语音对应的某个语音特征中最大的三个目标概率在该语音特征中的位置编号为129、296、1589,那么第一驱动语音对应的一个第一空间坐标为(129,296,1589)。需要指出的是,预设音素的数量不限为4096,其可以在实际应用中根据需要自行设定。
与上述步骤S103对应的,如图3所示,步骤S104可以包括以下步骤S104-2:
步骤S104-2,对第一空间坐标进行第一编码处理,得到第一驱动语音的第一高维空间特征;
具体的,如图4所示,步骤S104-2可以包括以下步骤S104-22至步骤S104-26:
步骤S104-22,确定第一空间坐标在第一哈希网格编码器的每层网格中的多个临近角点;
具体的,根据第一空间坐标,确定在第一哈希网格编码器的每层网格中,与第一空间坐标距离最近的预设数量的目标角点,并将目标角点确定为第一空间坐标在每层网格中的临近角点。其中,预设数量可以在实际应用中根据需要自行设定。
以第一哈希网格编码器包括两层网格(即L=2),第一层网格的分辨率为(1/2)*(1/2),第二层网格的分辨率为(1/3)*(1/3),预设数量为4,第一空间坐标记为x,每一层网格中的各角点均从0开始顺序编号(记为角点0、角点1、角点2等)为例。如图5所示,第一空间坐标x在第一层网格中的临近角点为角点0、角点1、角点4和角点7,第一空间坐标x在第二层网格中的临近角点为角点2、角点0、角点3和角点6。
步骤S104-24,在角点特征中,查询临近角点的目标角点特征;
具体的,根据临近角点的角点编号,在临近角点所在网格层的角点特征矩阵中查询对应的角点特征,并将查询到的角点特征确定为目标角点特征。
续接上述示例,且以每个角点特征为1*2的向量(图5中以一行两个方格表示)为例,如图5所示,根据第一层网格中的临近角点的角点编号0、1、4和7,在第一层网格对应的角点特征矩阵(7行2列)中查询到对应的目标角点特征(图中的浅灰色方格);根据第二层网格中的临近角点的角点编号0、2、3和6,在第二层网格对应的角点特征矩阵(16行2列)中查询到对应的目标角点特征(图中的深灰色方格)。
步骤S104-26,根据第一空间坐标及目标角点特征,确定第一驱动语音的第一高维空间特征。
具体的,根据第一空间坐标及每个临近角点第二空间坐标,确定每个目标角点特征的权重;根据各目标角点特征的权重和目标角点特征,确定第一空间坐标的L个中间特征,该L个中间特征与L层网格一一对应;根据L个中间特征,生成第一驱动语音的第一高维空间特征。
更加具体的,根据第一空间坐标及每个临近角点第二空间坐标,计算第一空间坐标与每个临近角点之间的距离;若确定计算的各距离中存在大于1的距离,则对计算的各距离进行归一化处理,并将归一化结果接确定为相应临近角点的目标角点特征的权重;若确定计算的各距离均小于1,则将各距离确定为相应临近角点的目标角点特征的权重。根据确定的权重,对每层网格中的临近角点的目标角点特征进行线性插值处理,得到第一空间坐标在每层网格中的中间特征,即可以得到L个中间特征。按照L层网格的层次顺序对L个中间特征进行拼接处理,得到第一驱动语音的第一高维空间特征。其中,归一化处理可以是计算各距离之和,并将每个距离与该距离之和相除,得到归一化结果等。线性插值处理可以是加权求和等。
续接上述示例,例如对于第一层网格而言,计算的第一空间坐标与临近角点0之间的距离为0.1、第一空间坐标与临近角点1之间的距离为0.6、第一空间坐标与临近角点4之间的距离为0.6、第一空间坐标与临近角点7之间的距离为0.7,则将0.1确定为临近角点0的目标角点特征的权重,将0.6确定为临近角点1的目标角点特征的权重,将0.6确定为临近角点4的目标角点特征的权重,将0.7确定为临近角点7的目标角点特征的权重。第一空间坐标在第一层网格的中间特征1=0.1*临近角点0的目标角点特征+0.6*临近角点1的目标角点特征+0.6*临近角点4的目标角点特征+0.7*临近角点7的目标角点特征。同理,可以得到第一空间坐标在第二层网格的中间特征2,然后将中间特征1与中间特征2顺序拼接,得到第一驱动语音的第一高维空间特征。
本申请的一个或多个实施例中,在步骤S104中,可以将第一空间坐标输入三维头部处理模型的第一哈希网格编码器中进行第一编码处理,得到第一驱动语音的第一高维空间特征;即将第一空间坐标输入三维头部处理模型的第一哈希网格编码器中,通过第一哈希网格编码器执行上述步骤S104-22至步骤S104-26。
由此,通过将第一驱动语音转换到立体空间中,得到第一驱动语音的第一空间坐标,然后利用三维头部处理模型的第一哈希网格编码器对第一空间坐标进行一次编码处理,即可得到第一驱动语音的第一高维空间特征。由于第一哈希网格编码器在编码过程中,并未对语音特征进行平滑处理,因此得到的第一高维空间特征中保留了第一驱动语音的高频信息,由于该高频信息中携带了讲话人在讲第一驱动语音时的情绪、喘息等讲话细节,因此可以根据该高频信息,对讲话人在第一驱动语音的不同语音帧之间的讲话细节差异进行有效区分,即可以根据该高频信息对第一驱动语音的不同语音帧之间的差异进行有效区分;从而在基于该第一高维空间特征进行后续处理时,能够有效的减少歧义性,提升生成的第一体素信息的准确性,进而提升得到的第一目标三维头部的准确性,即提升对三维头部的驱动效果。再次,由于第一哈希网格编码器仅对第一空间坐标进行一次编码处理,因此相较于现有的采用语音特征提取器提取语音特征而言,极大的提升了语音处理速率,进而提升了对三维头部的驱动速率。
在得到第一驱动语音的第一高维空间特征之后,为了得到准确的第一目标三维头部,本申请一个或多个实施例中,还确定第一相机视点对应的多个第一神经辐射场空间特征,并根据第一高维空间特征和各第一神经辐射场空间特征,生成第一体素信息。具体的,如图1所示,体素处理模块包括第二哈希网格编码器和多层感知机(MultilayerPerceptron,简称MLP),其中第二哈希网格编码器的参数与第一哈希网格编码器的参数不同。相应的,如图6所示,步骤S106可以包括以下步骤S106-2至步骤S106-6:
步骤S106-2,确定M个第一目标体素的第一神经辐射场空间特征;第一目标体素是第一相机视点与目标成像平面对应的体素,目标成像平面是待驱动的第一目标三维头部的成像平面;
如前所述,可以通过三维头部处理模块的体素处理模块生成第一体素信息。如图2所示,体素处理模块可以包括第二哈希网格编码器,该第二哈希网格编码器的参数与第一哈希网格编码器的参数不同。相应的,步骤S106-2可以包括:通过三维头部处理模型的第二哈希网格编码器,确定M个第一目标体素的第一神经辐射场空间特征。
为了保障体素渲染的准确性,本申请一个或多个实施例中,步骤S106-2之前还可以包括:根据第一相机视点包括的相机光心的第一位置信息,确定第一相机视点与待驱动的第一目标三维头部的目标成像平面之间的多条光线,该光线以相机光心为起点,射向目标成像平面的每个像素点;对每条光线进行采样处理,得到每条光线上的P个第一目标体素,P为大于1的整数,且P小于M;
与之对应的,步骤S106-2可以包括:对每个第一目标体素的第三空间坐标进行第二编码处理,得到M个第一目标体素的第一神经辐射场空间特征。具体的,将每个第一目标体素的第三空间坐标输入第二哈希网格编码器中进行第二编码处理,得到M个第一目标体素的第一神经辐射场空间特征。其中,第二编码处理的过程,与前述第一编码处理的过程相同,可参见前文的相关之处,重复之处这里不再赘述。不同之处在于第二哈希网格编码器与第一哈希网格编码器的网格层数、分辨率等参数中的至少一个参数不同。
步骤S106-4,将第一高维空间特征与每个第一目标体素的第一神经辐射场空间特征进行拼接处理,得到M个第一拼接特征;
可以理解的是,本申请实施例中,每个第一目标体素对应一个第一神经辐射场空间特征。作为示例,目标成像平面的大小为100*100,单位为像素,那么目标成像平面有10000个像素点,第一相机视点与目标成像平面之间有10000条光线,每条光线上采样5个第一目标体素(即P=5),则共有50000个第一目标体素(即M=5*10000=50000);在步骤S106-2中可以得到50000个第一神经辐射场空间特征;在步骤S106-4中,得到50000个第一拼接特征。
步骤S106-6,根据M个第一拼接特征进行体素信息生成处理,得到M个第一目标体素的第一体素信息。
具体的,如图2所示,三维头部处理模块的体素处理模块还包括多层感知机(Multilayer Perceptron,简称MLP),相应的,步骤S106-6可以包括:将M个第一拼接特征输入三维头部处理模型的多层感知机中进行体素信息生成处理,得到M个第一目标体素的第一体素信息。其中,多层感知机的处理过程可参考相关技术,这里不再详述。
进一步的,与上述步骤S106-2至步骤S106-6对应的,步骤S108可以包括:针对每条光线上的第一目标体素的第一体素信息进行积分处理,得到相应光线在目标成像平面上所对应的像素点的像素值,并根据该像素值渲染得到的第一目标三维头部。
可以理解的是,当第一驱动语音的时长大于第一预设时长时,在步骤S103中得到第一驱动语音对应的N个第一空间坐标,此时N为大于1的整数,该N个第一空间坐标与第一驱动语音切分得到的N个语音片段一一对应。在步骤S104中,针对每个第一空间坐标进行第一编码处理,即可以得到第一驱动语音的N个第一高维空间特征,该N个第一高维空间特征与N个语音片段一一对应。在步骤S106-4中,将每个第一高维空间特征,分别与每个第一目标体素的第一神经辐射场空间特征进行拼接处理,得到每个第一高维空间特征对应的M个第一拼接特征,即每个语音片段对应了M个第一拼接特征,第一驱动语音共计有N*M个第一拼接特征。在步骤S106-6中,针对每个语音片段,将语音片段对应的M个第一拼接特征输入多层感知机进行体素信息生成处理,得到对应的M个第一目标体素的第一体素信息;即N个语音片段共计有N*M个第一体素信息。在步骤S108中,针对每个语音片段对应的M个第一体素信息进行体素渲染处理,得到对应的第一目标三维头部,即共计得到N个第一目标三维头部。同理,当第一驱动语音的时长小于或等于第一预设时长时,在步骤S103中得到第一驱动语音对应的N个第一空间坐标,此时N为1,相应的,在步骤S108中得到一个第一目标三维头部。
本申请一个或多个实施例中,在获取到待处理的第一驱动语音和第一相机视点时,生成第一驱动语音的第一高维空间特征;并根据第一高维空间特征和第一相机视点,生成第一相机视点和目标成像平面所对应的第一目标体素的第一体素信息;根据第一体素信息在目标成像平面进行体素渲染处理,得到第一目标三维头部。由于在第一高维空间特征中,保留了第一驱动语音的高频信息,而该高频信息中携带了讲话人在讲第一驱动语音时的情绪、喘息等讲话细节,因此可以根据该高频信息,对讲话人在第一驱动语音的不同语音帧之间的讲话细节差异进行有效区分;从而在基于该第一高维空间特征进行后续处理时,能够有效的减少歧义性,提升生成的第一体素信息的准确性,进而提升得到的第一目标三维头部的准确性,即提升了第一目标三维头部的驱动效果。
对应上述描述的三维头部处理方法,基于相同的技术构思,本申请一个或多个实施例还提供了一种三维头部处理模型的训练方法,图7为本申请一个或多个实施例提供的一种三维头部处理模型的训练方法的流程示意图,图7中的方法能够由三维头部处理模型的训练装置执行;该训练装置可以设置于终端设备中,也可以设置于服务端中。其中,终端设备可以是手机、平板电脑、台式计算机、便携式笔记本等;服务端可以是独立的服务器,也可以是由多个服务器组成的服务器集群。如图7所示,该方法包括以下步骤:
步骤S202,获取多个训练样本;训练样本包括第二驱动语音及第二驱动语音对应的面部图像;
本申请一个或多个实施例中,在步骤S202之前还可以包括:基于获取的多个视频数据构建训练样本集。具体的,获取多个视频数据,每个视频数据的每个视频帧中包括目标用户的面部图像;从获取的视频数据中提取面部图像及面部图像对应的语音数据;将面部图像对应的语音数据确定为第二驱动语音,并将每个面部图像及面部图像对应的第二驱动语音,确定为训练样本,得到训练样本集。与之对应的,步骤S202可以包括:从训练样本集中获取当前训练轮次所对应的多个训练样本。其中,从获取的视频数据中提取面部图像及面部图像对应的语音数据的具体方式,可参考相关技术,对此本申请中不再详述。在一些实施方式中,每个训练样本可以包括一张面部图像,及该面部对象对应的时长为40毫秒的第二驱动语音。
步骤S204,利用训练样本对待训练网络进行迭代训练,得到三维头部处理模型;其中,待训练网络包括第一哈希网格编码器和体素处理模块,迭代训练包括:通过第一哈希网格编码器生成第二驱动语音的第二高维空间特征;根据第二高维空间特征和面部图像对应的第二相机视点,通过体素处理模块生成T个第二目标体素的第二体素信息;根据第二体素信息进行体素渲染处理,得到第二目标三维头部;若根据第二目标三维头部确定满足训练结束条件,则将满足训练结束条件时的待训练网络确定为三维头部处理模型;第二目标体素是第二相机视点与面部图像所对应的体素,T为大于1的整数。
其中,通过第一哈希网格编码器生成第二驱动语音的第二高维空间特征之前,方法还包括:对第二驱动语音进行预处理,得到第二驱动语音的第四空间坐标。与之对应的,通过第一哈希网格编码器生成第二驱动语音的第二高维空间特征,可以包括:将第四空间坐标输入第一哈希网格编码器中进行第一编码处理,得到第二驱动语音的第二高维空间特征。其中,对第二驱动语音进行预处理的过程,与前述对第一驱动语音进行预处理的过程相同,预处理以及第一编码处理的具体过程均可参见前文的相关描述,重复之处这里不再赘述。
如前所述,体素处理模块包括第二哈希网格编码器和多层感知机,相应的,步骤S204中根据第二高维空间特征和面部图像对应的第二相机视点,通过体素处理模块生成T个第二目标体素的第二体素信息,可以包括:通过第二哈希网格编码器,确定T个第二目标体素的第二神经辐射场空间特征;将第二高维空间特征与每个第二目标体素的第二神经辐射场空间特征进行拼接处理,得到T个第二拼接特征;将T个第二拼接特征输入多层感知机进行体素信息生成处理,得到T个第二目标体素的第二体素信息。
第二相机视点可以包括相机光心的第二位置信息;相应的,上述通过第二哈希网格编码器,确定T个第二目标体素的第二神经辐射场空间特征之前,方法还可以包括:根据第二位置信息,确定第二相机视点与面部图像之间的多条光线;该光线以相机光心为起点,射向面部图像的每个像素点;对每条光线进行采样处理,得到每条光线上的P个第二目标体素;P为大于1的整数、且P小于T。与之对应的,上述通过第二哈希网格编码器,确定T个第二目标体素的第二神经辐射场空间特征,可以包括:将每个第二目标体素的第五空间坐标输入第二哈希网格编码器中进行第二编码处理,得到T个第二目标体素的第二神经辐射场空间特征。
上述各步骤的具体实现方式,均可参见前文的相关描述,重复之处这里不再赘述。
进一步的,根据第二目标三维头部确定满足训练结束条件,可以包括:根据第二目标三维头部及其对应的面部图像,确定目标损失;若目标损失小于预设损失,则确定满足训练结束条件。在一些实施方式中,可以根据均方误差损失函数,基于第二目标三维头部及其对应的面部图像进行损失计算,得到目标损失。
本申请实施例中,在利用包括第二驱动语音及第二驱动语音对应的面部图像的训练样本对待训练网络进行迭代训练时,首先通过待训练网络的第一哈希网格编码器生成第二驱动语音的第二高维空间特征;然后根据第二高维空间特征和面部图像对应的第二相机视点,通过待训练网络的体素处理模块生成第二目标体素的第二体素信息;之后根据第二体素信息进行体素渲染处理,得到第二目标三维头部;并在根据第二目标三维头部确定满足训练结束条件时,将满足训练结束条件时的所述待训练网络确定为三维头部处理模型。由于待训练网络中的第一哈希网格编码器所生成第二驱动语音的第二高维空间特征中,保留了第二驱动语音的高频信息,而该高频信息中携带了讲话人在讲第二驱动语音时的情绪、喘息等讲话细节,因此可以根据该高频信息,对讲话人在第二驱动语音的不同语音帧之间的讲话细节差异进行有效区分;从而在基于该第二高维空间特征进行后续处理时,能够有效的减少歧义性,提升训练得到的三维头部处理模型的准确性,进而在基于该准确性高的三维头部处理模型进行三维头部处理时,能够极大的提升三维头部处理的准确性,即提升驱动效果。
对应上述描述的三维头部处理方法,基于相同的技术构思,本申请一个或多个实施例还提供一种三维头部处理装置。图8为本申请一个或多个实施例提供的一种三维头部处理装置的模块组成示意图,如图8所示,该装置包括:
获取模块301,用于获取待处理的第一驱动语音和第一相机视点;
第一生成模块302,用于生成所述第一驱动语音的第一高维空间特征;
第二生成模块303,用于根据所述第一高维空间特征和所述第一相机视点,生成M个第一目标体素的第一体素信息;所述第一目标体素是所述第一相机视点与目标成像平面所对应的体素,所述目标成像平面是待驱动的第一目标三维头部的成像平面,M为大于1的整数;
渲染模块304,用于根据所述第一体素信息在所述目标成像平面进行体素渲染处理,得到所述第一目标三维头部。
本申请实施例提供的三维头部处理装置,在获取到待处理的第一驱动语音和第一相机视点时,生成第一驱动语音的第一高维空间特征;并根据第一高维空间特征和第一相机视点,生成第一相机视点和目标成像平面所对应的第一目标体素的第一体素信息;根据第一体素信息在目标成像平面进行体素渲染处理,得到第一目标三维头部。由于在第一高维空间特征中,保留了第一驱动语音的高频信息,而该高频信息中携带了讲话人在讲第一驱动语音时的情绪、喘息等讲话细节,因此可以根据该高频信息,对讲话人在第一驱动语音的不同语音帧之间的讲话细节差异进行有效区分;从而在基于该第一高维空间特征进行后续处理时,能够有效的减少歧义性,提升生成的第一体素信息的准确性,进而提升得到的第一目标三维头部的准确性,即提升了第一目标三维头部的驱动效果。
需要说明的是,本申请中关于三维头部处理装置的实施例与本申请中关于三维头部处理方法的实施例基于同一发明构思,因此该实施例的具体实施可以参见前述对应的三维头部处理方法的实施,重复之处不再赘述。
上述三维头部处理装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于终端设备中的处理器或服务端的处理器中,也可以以软件形式存储于终端设备中的存储器或服务端的存储器中,以便于处理器调用执行以上各个模块对应的操作。
进一步的,对应上述描述的三维头部处理模型的训练方法,基于相同的技术构思,本申请一个或多个实施例还提供了一种三维头部处理模型的训练装置。图9为本申请一个或多个实施例提供的一种三维头部处理模型的训练装置的模块组成示意图,如图9所示,该装置包括:
获取模块401,用于获取多个训练样本;所述训练样本包括第二驱动语音及所述第二驱动语音对应的面部图像;
训练模块402,用于利用所述训练样本对待训练网络进行迭代训练,得到三维头部处理模型;
所述待训练网络包括第一哈希网格编码器和体素处理模块,所述迭代训练包括:通过所述第一哈希网格编码器生成所述第二驱动语音的第二高维空间特征;根据所述第二高维空间特征和所述面部图像对应的第二相机视点,通过所述体素处理模块生成第二目标体素的第二体素信息;根据所述第二体素信息进行体素渲染处理,得到第二目标三维头部;若根据所述第二目标三维头部确定满足训练结束条件,则将满足训练结束条件时的所述待训练网络确定为三维头部处理模型;所述第二目标体素是所述第二相机视点与所述面部图像所对应的体素。
本申请实施例提供的三维头部处理模型的训练装置,在利用包括第二驱动语音及第二驱动语音对应的面部图像的训练样本对待训练网络进行迭代训练时,首先通过待训练网络的第一哈希网格编码器生成第二驱动语音的第二高维空间特征;然后根据第二高维空间特征和面部图像对应的第二相机视点,通过待训练网络的体素处理模块生成第二目标体素的第二体素信息;之后根据第二体素信息进行体素渲染处理,得到第二目标三维头部;并在根据第二目标三维头部确定满足训练结束条件时,将满足训练结束条件时的所述待训练网络确定为三维头部处理模型。由于待训练网络中的第一哈希网格编码器所生成第二驱动语音的第二高维空间特征中,保留了第二驱动语音的高频信息,而该高频信息中携带了讲话人在讲第二驱动语音时的情绪、喘息等讲话细节,因此可以根据该高频信息,对讲话人在第二驱动语音的不同语音帧之间的讲话细节差异进行有效区分;从而在基于该第二高维空间特征进行后续处理时,能够有效的减少歧义性,提升训练得到的三维头部处理模型的准确性,进而在基于该准确性高的三维头部处理模型进行三维头部处理时,能够极大的提升三维头部处理的准确性,即提升驱动效果。
需要说明的是,本申请中关于三维头部处理模型的训练装置的实施例与本申请中关于三维头部处理模型的训练方法的实施例基于同一发明构思,因此该实施例的具体实施可以参见前述对应的三维头部处理模型的训练方法的实施,重复之处不再赘述。
上述三维头部处理模型的训练装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于终端设备中的处理器或服务端的处理器中,也可以以软件形式存储于终端设备中的存储器或服务端的存储器中,以便于处理器调用执行以上各个模块对应的操作。
进一步地,对应上述描述的三维头部处理方法、三维头部处理模型的训练方法,基于相同的技术构思,本申请一个或多个实施例还提供一种电子设备,该电子设备用于执行上述的三维头部处理方法、三维头部处理模型的训练方法,图10为本申请一个或多个实施例提供的一种电子设备的结构示意图。
如图10所示,电子设备可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上的处理器501和存储器502,存储器502中可以存储有一个或一个以上存储应用程序或数据。其中,存储器502可以是短暂存储或持久存储。存储在存储器502的应用程序可以包括一个或一个以上模块(图示未示出),每个模块可以包括电子设备中的一系列计算机可执行指令。更进一步地,处理器501可以设置为与存储器502通信,在电子设备上执行存储器502中的一系列计算机可执行指令。电子设备还可以包括一个或一个以上电源503,一个或一个以上有线或无线网络接口504,一个或一个以上输入输出接口505,一个或一个以上键盘506等。
在一个具体的实施例中,电子设备包括有存储器,以及一个或一个以上的程序,其中一个或者一个以上程序存储于存储器中,且一个或者一个以上程序可以包括一个或一个以上模块,且每个模块可以包括对电子设备中的一系列计算机可执行指令,且经配置以由一个或者一个以上处理器执行该一个或者一个以上程序包含用于进行以下计算机可执行指令:
获取待处理的第一驱动语音和第一相机视点;
生成所述第一驱动语音的第一高维空间特征;
根据所述第一高维空间特征和所述第一相机视点,生成M个第一目标体素的第一体素信息;所述第一目标体素是所述第一相机视点与目标成像平面所对应的体素,所述目标成像平面是待驱动的第一目标三维头部的成像平面,M为大于1的整数;
根据所述第一体素信息在所述目标成像平面进行体素渲染处理,得到所述第一目标三维头部。
本申请一个或多个实施例提供的电子设备,在获取到待处理的第一驱动语音和第一相机视点时,生成第一驱动语音的第一高维空间特征;并根据第一高维空间特征和第一相机视点,生成第一相机视点和目标成像平面所对应的第一目标体素的第一体素信息;根据第一体素信息在目标成像平面进行体素渲染处理,得到第一目标三维头部。由于在第一高维空间特征中,保留了第一驱动语音的高频信息,而该高频信息中携带了讲话人在讲第一驱动语音时的情绪、喘息等讲话细节,因此可以根据该高频信息,对讲话人在第一驱动语音的不同语音帧之间的讲话细节差异进行有效区分;从而在基于该第一高维空间特征进行后续处理时,能够有效的减少歧义性,提升生成的第一体素信息的准确性,进而提升得到的第一目标三维头部的准确性,即提升了第一目标三维头部的驱动效果。
在另一个具体的实施例中,电子设备包括有存储器,以及一个或一个以上的程序,其中一个或者一个以上程序存储于存储器中,且一个或者一个以上程序可以包括一个或一个以上模块,且每个模块可以包括对电子设备中的一系列计算机可执行指令,且经配置以由一个或者一个以上处理器执行该一个或者一个以上程序包含用于进行以下计算机可执行指令:
获取多个训练样本;所述训练样本包括第二驱动语音及所述第二驱动语音对应的面部图像;
利用所述训练样本对待训练网络进行迭代训练,得到三维头部处理模型;
所述待训练网络包括第一哈希网格编码器和体素处理模块,所述迭代训练包括:通过所述第一哈希网格编码器生成所述第二驱动语音的第二高维空间特征;根据所述第二高维空间特征和所述面部图像对应的第二相机视点,通过所述体素处理模块生成T个第二目标体素的第二体素信息;根据所述第二体素信息进行体素渲染处理,得到第二目标三维头部;若根据所述第二目标三维头部确定满足训练结束条件,则将满足训练结束条件时的所述待训练网络确定为三维头部处理模型;所述第二目标体素是所述第二相机视点与所述面部图像所对应的体素,T为大于1的整数。
本申请实施例提供的电子设备,在利用包括第二驱动语音及第二驱动语音对应的面部图像的训练样本对待训练网络进行迭代训练时,首先通过待训练网络的第一哈希网格编码器生成第二驱动语音的第二高维空间特征;然后根据第二高维空间特征和面部图像对应的第二相机视点,通过待训练网络的体素处理模块生成第二目标体素的第二体素信息;之后根据第二体素信息进行体素渲染处理,得到第二目标三维头部;并在根据第二目标三维头部确定满足训练结束条件时,将满足训练结束条件时的所述待训练网络确定为三维头部处理模型。由于待训练网络中的第一哈希网格编码器所生成第二驱动语音的第二高维空间特征中,保留了第二驱动语音的高频信息,而该高频信息中携带了讲话人在讲第二驱动语音时的情绪、喘息等讲话细节,因此可以根据该高频信息,对讲话人在第二驱动语音的不同语音帧之间的讲话细节差异进行有效区分;从而在基于该第二高维空间特征进行后续处理时,能够有效的减少歧义性,提升训练得到的三维头部处理模型的准确性,进而在基于该准确性高的三维头部处理模型进行三维头部处理时,能够极大的提升三维头部处理的准确性,即提升驱动效果。
需要说明的是,本申请中关于电子设备的实施例与本申请中关于三维头部处理方法及三维头部处理模型的训练方法的实施例基于同一发明构思,因此该实施例的具体实施可以参见前述对应的三维头部处理方法及三维头部处理模型的训练方法的实施,重复之处不再赘述。
进一步地,对应上述描述的三维头部处理方法、三维头部处理模型的训练方法,基于相同的技术构思,本申请一个或多个实施例还提供了一种存储介质,用于存储计算机可执行指令,一个具体的实施例中,该存储介质可以为U盘、光盘、硬盘等,该存储介质存储的计算机可执行指令在被处理器执行时,能实现以下流程:
获取待处理的第一驱动语音和第一相机视点;
生成所述第一驱动语音的第一高维空间特征;
根据所述第一高维空间特征和所述第一相机视点,生成M个第一目标体素的第一体素信息;所述第一目标体素是所述第一相机视点与目标成像平面所对应的体素,所述目标成像平面是待驱动的第一目标三维头部的成像平面,M为大于1的整数;
根据所述第一体素信息在所述目标成像平面进行体素渲染处理,得到所述第一目标三维头部。
本申请一个或多个实施例提供的存储介质存储的计算机可执行指令在被处理器执行时,在获取到待处理的第一驱动语音和第一相机视点时,生成第一驱动语音的第一高维空间特征;并根据第一高维空间特征和第一相机视点,生成第一相机视点和目标成像平面所对应的第一目标体素的第一体素信息;根据第一体素信息在目标成像平面进行体素渲染处理,得到第一目标三维头部。由于在第一高维空间特征中,保留了第一驱动语音的高频信息,而该高频信息中携带了讲话人在讲第一驱动语音时的情绪、喘息等讲话细节,因此可以根据该高频信息,对讲话人在第一驱动语音的不同语音帧之间的讲话细节差异进行有效区分;从而在基于该第一高维空间特征进行后续处理时,能够有效的减少歧义性,提升生成的第一体素信息的准确性,进而提升得到的第一目标三维头部的准确性,即提升了第一目标三维头部的驱动效果。
在另一个具体的实施例中,该存储介质可以为U盘、光盘、硬盘等,该存储介质存储的计算机可执行指令在被处理器执行时,能实现以下流程:
获取多个训练样本;所述训练样本包括第二驱动语音及所述第二驱动语音对应的面部图像;
利用所述训练样本对待训练网络进行迭代训练,得到三维头部处理模型;
所述待训练网络包括第一哈希网格编码器和体素处理模块,所述迭代训练包括:通过所述第一哈希网格编码器生成所述第二驱动语音的第二高维空间特征;根据所述第二高维空间特征和所述面部图像对应的第二相机视点,通过所述体素处理模块生成T个第二目标体素的第二体素信息;根据所述第二体素信息进行体素渲染处理,得到第二目标三维头部;若根据所述第二目标三维头部确定满足训练结束条件,则将满足训练结束条件时的所述待训练网络确定为三维头部处理模型;所述第二目标体素是所述第二相机视点与所述面部图像所对应的体素,T为大于1的整数。
本申请一个或多个实施例提供的存储介质存储的计算机可执行指令在被处理器执行时,在利用包括第二驱动语音及第二驱动语音对应的面部图像的训练样本对待训练网络进行迭代训练时,首先通过待训练网络的第一哈希网格编码器生成第二驱动语音的第二高维空间特征;然后根据第二高维空间特征和面部图像对应的第二相机视点,通过待训练网络的体素处理模块生成第二目标体素的第二体素信息;之后根据第二体素信息进行体素渲染处理,得到第二目标三维头部;并在根据第二目标三维头部确定满足训练结束条件时,将满足训练结束条件时的所述待训练网络确定为三维头部处理模型。由于待训练网络中的第一哈希网格编码器所生成第二驱动语音的第二高维空间特征中,保留了第二驱动语音的高频信息,而该高频信息中携带了讲话人在讲第二驱动语音时的情绪、喘息等讲话细节,因此可以根据该高频信息,对讲话人在第二驱动语音的不同语音帧之间的讲话细节差异进行有效区分;从而在基于该第二高维空间特征进行后续处理时,能够有效的减少歧义性,提升训练得到的三维头部处理模型的准确性,进而在基于该准确性高的三维头部处理模型进行三维头部处理时,能够极大的提升三维头部处理的准确性,即提升驱动效果。
需要说明的是,本申请中关于存储介质的实施例与本申请中关于三维头部处理方法及三维头部处理模型的训练方法的实施例基于同一发明构思,因此该实施例的具体实施可以参见前述对应的三维头部处理方法及三维头部处理模型的训练方法的实施,重复之处不再赘述。
上述对本申请特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本申请实施例时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本申请一个或多个实施例可提供为方法、系统或计算机程序产品。因此,本申请一个或多个实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本申请一个或多个实施例可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请的一个或多个实施例,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本申请中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本文件的实施例而已,并不用于限制本文件。对于本领域技术人员来说,本文件可以有各种更改和变化。凡在本文件的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本文件的权利要求范围之内。

Claims (15)

1.一种三维头部的处理方法,其特征在于,包括:
获取待处理的第一驱动语音和第一相机视点;
生成所述第一驱动语音的第一高维空间特征;
根据所述第一高维空间特征和所述第一相机视点,生成M个第一目标体素的第一体素信息;所述第一目标体素是所述第一相机视点与目标成像平面所对应的体素,所述目标成像平面是待驱动的第一目标三维头部的成像平面,M为大于1的整数;
根据所述第一体素信息在所述目标成像平面进行体素渲染处理,得到所述第一目标三维头部。
2.根据权利要求1所述的方法,其特征在于,所述生成所述第一驱动语音的第一高维空间特征之前,所述方法还包括:对所述第一驱动语音进行预处理,得到所述第一驱动语音对应的第一空间坐标;
所述生成所述第一驱动语音的第一高维空间特征,包括:对所述第一空间坐标进行第一编码处理,得到所述第一驱动语音的第一高维空间特征。
3.根据权利要求2所述的方法,其特征在于,所述对所述第一驱动语音进行预处理,得到所述第一驱动语音对应的第一空间坐标,包括:
根据所述第一驱动语音的时长,将所述第一驱动语音切分为N个语音片段;所述N为正整数;
对所述N个语音片段进行语音特征提取处理,得到所述第一驱动语音的N个语音特征;
根据所述N个语音特征,确定所述第一驱动语音对应的N个第一空间坐标。
4.根据权利要求3所述的方法,其特征在于,所述语音特征包括所述语音片段的目标发音属于每个预设音素的概率;所述预设音素的数量为大于3的整数;所述根据所述N个语音特征,确定所述第一驱动语音对应的N个第一空间坐标,包括:
针对每个所述语音特征,确定所述概率中最大的三个目标概率;
将所述目标概率在所述语音特征中的位置编号,确定为所述第一驱动语音对应的第一空间坐标,得到所述第一驱动语音对应的N个第一空间坐标。
5.根据权利要求2所述的方法,其特征在于,所述对所述第一空间坐标进行第一编码处理,得到所述第一驱动语音的第一高维空间特征,包括:
确定所述第一空间坐标在第一哈希网格编码器的每层网格中的多个临近角点;所述第一哈希网格编码器包括与L个分辨率一一对应的L层网格、及每个网格的角点的角点特征,L为大于1的整数;
在所述角点特征中,查询所述临近角点的目标角点特征;
根据所述第一空间坐标及所述目标角点特征,确定所述第一驱动语音的第一高维空间特征。
6.根据权利要求5所述的方法,其特征在于,所述根据所述第一空间坐标及所述目标角点特征,确定所述第一驱动语音的第一高维空间特征,包括:
根据所述第一空间坐标及每个所述临近角点第二空间坐标,确定每个所述目标角点特征的权重;
根据所述权重和所述目标角点特征,确定所述第一空间坐标的L个中间特征;所述L个中间特征与所述L层网格一一对应;
根据所述L个中间特征,生成所述第一驱动语音的第一高维空间特征。
7.根据权利要求1所述的方法,其特征在于,所述根据所述第一高维空间特征和所述第一相机视点,生成M个第一目标体素的第一体素信息,包括:
确定M个第一目标体素的第一神经辐射场空间特征;
将所述第一高维空间特征与每个所述第一神经辐射场空间特征进行拼接处理,得到M个第一拼接特征;
根据所述M个第一拼接特征进行体素信息生成处理,得到所述M个第一目标体素的第一体素信息。
8.根据权利要求7所述的方法,其特征在于,所述第一相机视点包括相机光心的第一位置信息;
所述确定M个第一目标体素的第一神经辐射场空间特征之前,所述方法还包括:根据所述第一位置信息,确定所述第一相机视点与所述目标成像平面之间的多条光线;所述光线以所述相机光心为起点,射向所述目标成像平面的每个像素点;对每条所述光线进行采样处理,得到每条所述光线上的P个第一目标体素;所述P为大于1的整数、且P小于M;
所述确定M个第一目标体素的第一神经辐射场空间特征,包括:对每个所述第一目标体素的第三空间坐标进行第二编码处理,得到所述M个第一目标体素的第一神经辐射场空间特征。
9.一种三维头部处理模型的训练方法,其特征在于,包括:
获取多个训练样本;所述训练样本包括第二驱动语音及所述第二驱动语音对应的面部图像;
利用所述训练样本对待训练网络进行迭代训练,得到三维头部处理模型;
所述待训练网络包括第一哈希网格编码器和体素处理模块,所述迭代训练包括:通过所述第一哈希网格编码器生成所述第二驱动语音的第二高维空间特征;根据所述第二高维空间特征和所述面部图像对应的第二相机视点,通过所述体素处理模块生成T个第二目标体素的第二体素信息;根据所述第二体素信息进行体素渲染处理,得到第二目标三维头部;若根据所述第二目标三维头部确定满足训练结束条件,则将满足训练结束条件时的所述待训练网络确定为三维头部处理模型;所述第二目标体素是所述第二相机视点与所述面部图像所对应的体素,T为大于1的整数。
10.根据权利要求9所述的方法,其特征在于,所述通过所述第一哈希网格编码器生成所述第二驱动语音的第二高维空间特征之前,所述方法还包括:对所述第二驱动语音进行预处理,得到所述第二驱动语音的第四空间坐标;
所述通过所述第一哈希网格编码器生成所述第二驱动语音的第二高维空间特征,包括:将所述第四空间坐标输入所述第一哈希网格编码器中进行第一编码处理,得到所述第二驱动语音的第二高维空间特征。
11.根据权利要求9所述的方法,其特征在于,所述体素处理模块包括第二哈希网格编码器和多层感知机;所述根据所述第二高维空间特征和所述面部图像对应的第二相机视点,通过所述体素处理模块生成T个第二目标体素的第二体素信息,包括:
通过所述第二哈希网格编码器,确定T个第二目标体素的第二神经辐射场空间特征;
将所述第二高维空间特征与每个所述第二目标体素的第二神经辐射场空间特征进行拼接处理,得到T个第二拼接特征;
将所述T个第二拼接特征输入所述多层感知机进行体素信息生成处理,得到所述T个第二目标体素的第二体素信息。
12.一种三维头部的处理装置,其特征在于,包括:
获取模块,用于获取待处理的第一驱动语音和第一相机视点;
第一生成模块,用于生成所述第一驱动语音的第一高维空间特征;
第二生成模块,用于根据所述第一高维空间特征和所述第一相机视点,生成M个第一目标体素的第一体素信息;所述第一目标体素是所述第一相机视点与目标成像平面所对应的体素,所述目标成像平面是待驱动的第一目标三维头部的成像平面,M为大于1的整数;
渲染模块,用于根据所述第一体素信息在所述目标成像平面进行体素渲染处理,得到所述第一目标三维头部。
13.一种三维头部处理模型的训练装置,其特征在于,包括:
获取模块,用于获取多个训练样本;所述训练样本包括第二驱动语音及所述第二驱动语音对应的面部图像;
训练模块,用于利用所述训练样本对待训练网络进行迭代训练,得到三维头部处理模型;
所述待训练网络包括第一哈希网格编码器和体素处理模块,所述迭代训练包括:通过所述第一哈希网格编码器生成所述第二驱动语音的第二高维空间特征;根据所述第二高维空间特征和所述面部图像对应的第二相机视点,通过所述体素处理模块生成T个第二目标体素的第二体素信息;根据所述第二体素信息进行体素渲染处理,得到第二目标三维头部;若根据所述第二目标三维头部确定满足训练结束条件,则将满足训练结束条件时的所述待训练网络确定为三维头部处理模型;所述第二目标体素是所述第二相机视点与所述面部图像所对应的体素,T为大于1的整数。
14.一种电子设备,其特征在于,包括:
处理器;以及,
被安排成存储计算机可执行指令的存储器,所述可执行指令被配置由所述处理器执行,所述可执行指令包括用于执行如权利要求1-8任一项所述的三维头部处理方法中的步骤,或者所述可执行指令包括用于执行如权利要求9-11任一项所述的三维头部处理模型的训练方法中的步骤。
15.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质用于存储计算机可执行指令,所述可执行指令使得计算机执行如权利要求1-8任一项所述的三维头部处理方法,或者所述可执行指令使得计算机执行如权利要求9-11任一项所述的三维头部处理模型的训练方法中的步骤。
CN202311362994.7A 2023-10-19 2023-10-19 三维头部处理方法、三维头部处理模型的训练方法及装置 Pending CN117953111A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311362994.7A CN117953111A (zh) 2023-10-19 2023-10-19 三维头部处理方法、三维头部处理模型的训练方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311362994.7A CN117953111A (zh) 2023-10-19 2023-10-19 三维头部处理方法、三维头部处理模型的训练方法及装置

Publications (1)

Publication Number Publication Date
CN117953111A true CN117953111A (zh) 2024-04-30

Family

ID=90800877

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311362994.7A Pending CN117953111A (zh) 2023-10-19 2023-10-19 三维头部处理方法、三维头部处理模型的训练方法及装置

Country Status (1)

Country Link
CN (1) CN117953111A (zh)

Similar Documents

Publication Publication Date Title
CN111104962B (zh) 图像的语义分割方法、装置、电子设备及可读存储介质
CN110503703B (zh) 用于生成图像的方法和装置
CN111860485B (zh) 图像识别模型的训练方法、图像的识别方法、装置、设备
CN115359219B (zh) 虚拟世界的虚拟形象处理方法及装置
CN110619334B (zh) 基于深度学习的人像分割方法、架构及相关装置
US11562734B2 (en) Systems and methods for automatic speech recognition based on graphics processing units
CN111831844A (zh) 图像检索方法、图像检索装置、图像检索设备及介质
CN112001923B (zh) 一种视网膜图像分割方法及装置
CN114973049A (zh) 一种统一卷积与自注意力的轻量视频分类方法
CN108376234B (zh) 用于视频图像的情感识别系统及方法
CN114238904A (zh) 身份识别方法、双通道超分模型的训练方法及装置
CN113780326A (zh) 一种图像处理方法、装置、存储介质及电子设备
CN117635822A (zh) 一种模型训练的方法、装置、存储介质及电子设备
Shi et al. Lightweight context-aware network using partial-channel transformation for real-time semantic segmentation
CN117593473B (zh) 动作图像与视频生成方法、设备与存储介质
CN115499635B (zh) 数据压缩处理方法及装置
CN117953111A (zh) 三维头部处理方法、三维头部处理模型的训练方法及装置
CN113240780B (zh) 生成动画的方法和装置
CN115830633A (zh) 基于多任务学习残差神经网络的行人重识别方法和系统
CN114399708A (zh) 一种视频动作迁移深度学习系统和方法
CN114064972A (zh) 视频类型确定方法及相关装置
CN117689822B (zh) 一种三维模型构建方法、装置、存储介质及电子设备
KR102504007B1 (ko) 분할 이미지를 통해 컨텍스트 벡터를 생성하는 컨텍스트 벡터 추출 모듈 및 이의 동작 방법
CN117593619B (zh) 图像处理方法、装置、电子设备及存储介质
CN117808976B (zh) 一种三维模型构建方法、装置、存储介质及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination