CN117197866A - 人脸模型的生成方法、装置、电子设备及存储介质 - Google Patents
人脸模型的生成方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN117197866A CN117197866A CN202311080302.XA CN202311080302A CN117197866A CN 117197866 A CN117197866 A CN 117197866A CN 202311080302 A CN202311080302 A CN 202311080302A CN 117197866 A CN117197866 A CN 117197866A
- Authority
- CN
- China
- Prior art keywords
- model
- expression
- mixed
- expression model
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 56
- 230000014509 gene expression Effects 0.000 claims abstract description 456
- 238000000354 decomposition reaction Methods 0.000 claims abstract description 15
- 238000012545 processing Methods 0.000 claims abstract description 13
- 238000013507 mapping Methods 0.000 claims description 21
- 238000004590 computer program Methods 0.000 claims description 6
- 238000010586 diagram Methods 0.000 description 19
- 230000007935 neutral effect Effects 0.000 description 19
- 238000004422 calculation algorithm Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000010295 mobile communication Methods 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000012512 characterization method Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Landscapes
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种人脸模型的生成方法、装置、电子设备及存储介质,该方法包括获取第一规范下的第一混合表情模型,将第一混合表情模型中的第一目标表情模型重拓扑至第二规范下的混合表情模型上,得到包括第一身份类型对应的表情基模型的第二混合表情模型,将第二混合表情模型拆分为第一规范下的第三混合表情模型,获取第二身份类型对应的第四混合表情模型,对第三混合表情模型和第四混合表情模型进行特征分解处理,得到目标特征信息,根据目标特征信息构建目标表情模型。采用本发明实施例,能够提高第二身份类型的人脸建模能力,解决现有的人脸参数化模型的人脸数据的身份类型较为单一的技术问题。
Description
技术领域
本发明涉及计算机视觉技术领域,尤其涉及一种人脸模型的生成方法、装置、电子设备及存储介质。
背景技术
目前的人脸三维重建方案,是基本人脸参数化模型技术实现的。具体的实现方式为:将人脸参数化模型作为标准的人脸模型,采用单张或者多张人脸图像,通过算法得到人脸图像的人脸参数模型系数,并通过标准的人脸模型的中性脸进行形变,以得到人脸图像对应的三维人脸模型。现有的常用人脸参数化模型有:ARKit,其具有61个blendshape(表情模型数据);facewarehouse人脸模型,其具有11000个顶点,由150名模特拍摄47个表情组成;FLAME人脸模型,其具有33000个人头数据模拟出的5023个顶点,4个关节以及shape(形状)、pose(姿势)以及expression(表情)3个PCA参数系数。
然而,ARkit没有人脸shape维度,多用于动画驱动,例如emoji等产品,不能用于人脸的三维重建;facewarehouse使用Kinect的RGBD相机,捕捉150名来自不同地域或不同民族的7-80岁个体,采集了包括中性表情和其他19个表情,但最后的人脸模型只有47个blendshape,表征能力稍弱;FLAME在33000个人脸数据上学习得到,具有更强的表现能力,但人脸数据的身份类型较为单一,对于其他身份类型的人脸建模能力欠佳。
发明内容
本发明实施例的目的是提供一种人脸模型的生成方法、装置、电子设备及存储介质,以解决现有的人脸参数化模型的人脸数据的身份类型较为单一的技术问题。
第一方面,本发明实施例提供了一种人脸模型的生成方法,包括:
获取预设的第一参数化模型的第一规范下的第一混合表情模型,所述第一混合表情模型包括所述第一规范下的第一预设数量的表情基模型;
将所述第一混合表情模型中的第一目标表情模型重拓扑至第二规范下的混合表情模型上,得到第二混合表情模型,所述第二规范为预设的第二参数化模型的表情模型规范,所述第二混合表情模型包括第一身份类型对应的表情基模型;
将所述第二混合表情模型拆分为所述第一规范下的所述第一预设数量的表情基模型,得到第三混合表情模型;
获取第二身份类型对应的第四混合表情模型,所述第四混合表情模型为所述第一规范下的表情基模型,且所述第四混合表情模型包括所述第一预设数量的表情基模型;
对所述第三混合表情模型和所述第四混合表情模型进行特征分解处理,得到所述第三混合表情模型和所述第四混合表情模型中各个表情基模型对应的目标特征信息;
根据所述目标特征信息,构建目标表情模型,所述目标表情模型包括含有所述第一身份类型和所述第二身份类型的特征信息对应的表情基模型。
第二方面,本发明实施例提供了一种人脸模型的生成装置,包括:
第一获取模块,用于获取预设的第一参数化模型的第一规范下的第一混合表情模型,所述第一混合表情模型包括所述第一规范下的第一预设数量的表情基模型;
拓扑模块,用于将所述第一混合表情模型中的第一目标表情模型重拓扑至第二规范下的混合表情模型上,得到第二混合表情模型,所述第二规范为预设的第二参数化模型的表情模型规范,所述第二混合表情模型包括第一身份类型对应的表情基模型;
拆分模块,用于将所述第二混合表情模型拆分为所述第一规范下的所述第一预设数量的表情基模型,得到第三混合表情模型;
第二获取模块,用于获取第二身份类型对应的第四混合表情模型,所述第四混合表情模型为所述第一规范下的表情基模型,且所述第四混合表情模型包括所述第一预设数量的表情基模型;
分解模块,用于对所述第三混合表情模型和所述第四混合表情模型进行特征分解处理,得到所述第三混合表情模型和所述第四混合表情模型中各个表情基模型对应的目标特征信息;
构建模块,用于根据所述目标特征信息,构建目标表情模型,所述目标表情模型包括含有所述第一身份类型和所述第二身份类型的特征信息对应的表情基模型。
第三方面,本发明实施例提供了一种电子设备,电子设备包括处理器、存储器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述任一项所述的人脸模型的生成方法中的步骤。
第四方面,本发明实施例提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述任一项所述的人脸模型的生成方法中的步骤。
本发明实施例提供了一种人脸模型的生成方法、装置、电子设备及存储介质,该方法通过对第一身份类型对应的第三混合表情模型,和第二身份类型对应的第四混合表情模型进行特征分解处理,从而能够得到包含有第一身份类型和第二身份类型的目标特征信息,再以目标特征信息构建目标表情模型,能够构建一种针对第二身份类型的人脸参数化模型,提高了第二身份类型的人脸建模能力,解决现有的人脸参数化模型的人脸数据的身份类型较为单一的技术问题。
附图说明
图1是本发明实施例提供的人脸模型的生成方法的一种流程示意图;
图2是本发明实施例提供的第一目标表情模型的一种示意图;
图3是本发明实施例提供的获取任何表情基模型的一种示意图;
图4是本发明实施例提供的重拓扑的一种示意图;
图5是本发明实施例提供的中性表情的表情基模型的重拓扑结果的一种示意图;
图6是本发明实施例提供的人脸模型的生成装置的一种结构示意图;
图7是本发明实施例提供的人脸模型的生成装置的另一种结构示意图;
图8是本发明实施例提供的人脸模型的生成装置的第三种结构示意图;
图9是本发明实施例提供的电子设备的一种结构示意图;
图10是本发明实施例提供的电子设备的另一种结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应当理解的是,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。
在相关技术中,常用的人脸参数化模型有:ARKit,其具有61个blendshape(表情模型数据);facewarehouse人脸模型,其具有11000个顶点,由150名模特拍摄47个表情组成;FLAME人脸模型,其具有33000个人头数据模拟出的5023个顶点,4个关节以及shape(形状)、pose(姿势)以及expression(表情)3个PCA参数系数。
然而,ARkit没有人脸shape维度,多用于动画驱动,例如emoji等产品,不能用于人脸的三维重建;facewarehouse使用Kinect的RGBD相机,捕捉150名来自不同地域或不同民族的7-80岁个体,采集了包括中性表情和其他19个表情,但最后的人脸模型只有47个blendshape,表征能力稍弱;FLAME在33000个人脸数据上学习得到,具有更强的表现能力,但人脸数据的身份类型较为单一,对于其他身份类型的人脸建模能力欠佳。
为了解决相关技术中存在的技术问题,本发明实施例提供了一种人脸模型的生成方法,请参见图1,图1是本发明实施例提供的人脸模型的生成方法的一种流程示意图,该方法包括步骤101至步骤106;
步骤101,获取预设的第一参数化模型的第一规范下的第一混合表情模型,第一混合表情模型包括第一规范下的第一预设数量的表情基模型。
在本实施例中,本实施例提供的第一参数化模型可以为高精度的人脸参数化模型。例如,本实施例提供的第一参数化模型可以为Metahuman lod1的参数化模型,采用Metahuman参数化模型的表情模型规范,也即第一规范,能够缩短后续应用开发时间。并且,lod1相对于精度最高的lod0的人脸模型的大量顶点,能够在人脸重建的过程中节省大量的计算成本,同时也具有较高的精度。
其中,本实施例随机选择一个Metahuman的数字人作为第一参数化模型,并从第一参数化模型中导出多种不同表情对应的表情基模型,得到第一混合表情模型。具体的,本实施例可以采用bridge软件导出maya支持的数据,并从maya支持的数据中导出对应的第一混合表情模型。
作为可选的实施例,本实施例提供的第一预设数量可以为第一参数化模型中包含的任意数量的不同表情的表情基模型,例如,本实施例提供的第一预设数量可以为218。
步骤102,将第一混合表情模型中的第一目标表情模型重拓扑至第二规范下的混合表情模型上,得到第二混合表情模型,第二规范为预设的第二参数化模型的表情模型规范,第二混合表情模型包括第一身份类型对应的表情基模型。
在本实施例中,请参见图2,图2是本发明实施例提供的第一目标表情模型的一种示意图。具体的,如图2所示,本实施例提供的第一目标表情模型为第一混合表情模型中的中性表情对应的表情模型,即不含有任何表情的中性表情对应的表情模型。
其中,对于第一混合表情模型来说,第一混合表情模型可以以A=[A0,A1,…Ai,…An]来表示,A0是第一混合表情模型中的中性表情,也即第一目标表情模型,Ai表示的是相对于中性表情的偏移量,对于任何一种带有表情的表情基模型来说,都可以通过在中性表情对应的第一目标表情模型的基础上加上偏移量得到。具体的,请参见图3,图3是本发明实施例提供的获取任何表情基模型的一种示意图,如图3所示,通过在中性表情的第一表情模型的基础上,加上用户所需表情的偏移量Ai,即可得到用户所需表情对应的表情基模型。
在本实施例中,第二参数化模型可以为含有多种不同身份类型对应的表情基模型的参数化模型,例如,第二参数化模型可以为Facewarehouse参数化模型。其中,Facewarehouse参数化模型是采集了150个不同地域或不同民族(即第一身份类型)的7-80岁个体数据,具体的通过使用Kinect的RGBD相机,采集这些个体包括中性表情和其他19个表情,从而构建含有多个不同的第一身份类型的个体对应的表情基模型的Facewarehouse参数化模型。
具体的,本实施例提供的将第一混合表情模型中的第一目标表情模型重拓扑至第二规范下的混合表情模型上,得到第二混合表情模型的步骤,可以包括:确定第一参数化模型中的第一目标表情模型上的第一表情关键点,和预设的第二参数化模型中的第二目标表情模型上的第二表情关键点;计算第一表情关键点和第二表情关键点之间的第一映射关系;根据第一映射关系,将第一目标表情模型形变至第二规范下的第二混合表情模型。
其中,本实施例提供的第二目标表情模型为第二参数化模型,也即Facewarehouse参数化模型中的中性表情对应的表情基模型。本实施例提供的表情关键点可以为表情基模型上用于表征人脸表情的人脸关键点,例如眼角、鼻角、嘴角等人脸关键点。本实施例计算第一表情关键点和第二表情关键点之间的第一映射关系,可以通过计算两个表征同一表情关键点的第一表情关键点和第二表情关键点之间的偏移量确定。如此,即可通过确定的第一映射关系,将第一目标表情模型中的第一表情关键点形变至第二表情关键点的位置,从而完成将第一目标表情模型重拓扑至第二规范下的混合表情模型上,得到第二混合表情模型的过程。
在一些实施例中,请参见图4和图5,图4是本发明实施例提供的重拓扑的一种示意图,图5是本发明实施例提供的中性表情的表情基模型的重拓扑结果的一种示意图。如图4和图5所示,本实施提供的将第一目标表情模型重拓扑至第二规范下的混合表情模型上,得到第二混合表情模型的具体方式可以为:首先在Facewarehouse参数化模型的中性表情的表情基模型上选择表情关键点,即图4中右侧的表情基模型上的点,计算Facewarehouse参数化模型上的这些表情关键点,与Metahuman参数化模型的中性表情的表情基模型上对应的表情关键点(即图4左侧的表情基模型上的点)之间的映射关系;其次利用形变算法将Metahuman的中性表情的表情基模型形变成为Facewarehouse参数化模型,即可得到如图5所示的中性表情的表情基模型;然后再采用相同的方式获取其他表情对应的表情基模型,从而得到150名个体(即第一身份类型)的多个Metahuman lod1的表情基模型,也即本实施例提供的第二混合表情模型。
其中,本实施例提供的形变算法可以为mesh deformation transfer算法,也可以其它能够将表情基模型上的表情关键点形变的算法,在此不一一例举。
步骤103,将第二混合表情模型拆分为第一规范下的第一预设数量的表情基模型,得到第三混合表情模型。
在本实施例中,在得到第二混合表情模型后,为了便于在同一软件,例如maya软件上编辑或调整表情模型,本实施例还需要将第二混合表情模型转换为第一规范下的预设数量表情的表情基模型。具体的,本实施例可以利用拆分算法将该第二混合表情模型中的多个表情基模型拆分为218个Metahuman定义的表情,从而能够得到含有第一预设数量即218个表情基模型的第三混合表情模型。
其中,本实施例提供的拆分算法可以为example based facial rigging算法,也可以其它能够将表情基模型进行表情拆分的算法,在此不一一例举。
步骤104,获取第二身份类型对应的第四混合表情模型,第四混合表情模型为第一规范下的表情基模型,且第四混合表情模型包括第一预设数量的表情基模型。
在本实施例中,为了解决现有的人脸参数化模型的人脸数据的身份类型较为单一的技术问题,本实施例提供了第二身份类型对应的第四混合表情模型,本实施例提供的第二身份类型可以为用户需要的身份类型。具体的,本实施例提供的获取第二身份类型对应的第四混合表情模型的步骤,可以包括:采集多张第二身份类型的表情图片;根据表情图片进行三维重建,得到第二身份类型对应的混合表情模型;将第一目标表情模型重拓扑至第二身份类型对应的混合表情模型上,得到第四混合表情模型。
具体的,本实施例可以使用9台高速工业摄像机搭建的4d数据采集设备,采集200名个体包括中性表情以及其他预设数量个表情,例如20个。利用reality capture软件将各个体的每个表情的9张表情图片进行三维重建,然后使用wrap4d软件将Metahuman的中性表情分别重拓扑至这200名个体的21个表情上,至此得到200名个体的21个Metahuman lod1的表情基模型。之后,同样是为了便于在同一软件,例如maya软件上编辑或调整表情模型,本实施例还需要将得到的200名个体的21个Metahuman lod1的表情基模型转换为第一规范下的218个表情的表情基模型,从而得到第四混合表情模型。具体的,同样可以利用examplebased facial rigging算法将21个表情基模型拆分为218个Metahuman定义的表情,从而得到第四混合表情模型。
作为可选的实施例,为了提高第四混合表情模型中表情基模型的精度,本实施例提供的根据表情图片进行三维重建,得到第二身份类型对应的混合表情模型的步骤,可以包括:根据表情图片进行三维重建,得到初始混合表情模型;去除初始混合表情模型中不属于表情图片对应的表情基模型,得到第二身份类型对应的混合表情模型。
通过去除三维重建得到的初始混合表情模型中不属于表情图片对应的表情基模型,也即去除不是规定的表情的表情基模型,能够有效提高第四混合表情模型中表情基模型的精度,从而提高后续构建最终的目标表情模型的精度。
步骤105,对第三混合表情模型和第四混合表情模型进行特征分解处理,得到第三混合表情模型和第四混合表情模型中各个表情基模型对应的目标特征信息。
在本实施例中,本实施例是先混合第三混合表情模型和第四混合表情模型中的所有表情基模型,也即将表征第一身份类型的150个个体,和表征第二身份类型的200个个体对应的表情基模型进行混合,然后再对混合后的表情基模型进行特征分解处理,从而得到混合后的表情基模型对应的目标特征信息。
其中,本实施例提供的目标特征信息包括有第一身份类型和第二身份类型对应的身份特征信息,同时还包括有所有个体对应的表情的表情特征信息。本实施例提供的特征分级处理,可以采用矩阵的奇异值分解(singular value decomposition,SVD)进行。具体的,可以先将第三混合表情模型和第四混合表情模型的350名个体的218个Metahuman表情基模型组装成一个秩为3的数据张量(7556个顶点*350个身份类型*218个表情),然后使用SVD分解出身份特征信息和表情特征信息,以便后续构建目标表情模型。
步骤106,根据目标特征信息,构建目标表情模型,目标表情模型包括含有第一身份类型和第二身份类型的特征信息对应的表情基模型。
在本实施例中,在得到含有第一身份类型和第二身份类型对应的身份特征信息,和表情特征信息的目标特征信息之后,即可构建人脸数据的身份类型多样化的目标表情模型,从而解决现有的人脸参数化模型的人脸数据的身份类型较为单一的技术问题。
在一些实施例中,为了增加本实施例提供的目标表情模型的使用广泛性,在根据目标特征信息,构建目标表情模型的步骤之后,本实施例提供的人脸模型的生成方法还可以包括:在目标表情模型上设置多个表情控制器;建立表情控制器与目标表情模型中各个表情基模型之间的第二映射关系,以根据表情控制器驱动目标表情模型。具体的,本实施例可以在目标表情模型上构建116个控制器,并建立控制器与218个表情之间的第二映射关系,以在任何虚幻引擎中通过拖动控制器,可由第二映射关系得到218个表情系数,从而为表情数据标注的提供了便利性。
作为可选的实施例,为了给目标表情模型提供高精度的人脸纹理,在根据目标特征信息,构建目标表情模型的步骤之后,本实施例提供的人脸模型的生成方法还可以包括:获取高精度的人脸模型数据,人脸模型数据包括高精度的人脸模型的纹理贴图;将纹理贴图置换到目标表情模型上,得到含有高精度纹理的目标表情模型。
通过将获取的高精度的人脸模型数据中的纹理贴图,置换到目标表情模型上,能够使得目标表情模型具有高精度的人脸纹理,进一步的提高了本实施例提供的目标表情模型的精度。
在一些实施例中,本实施例提供的将纹理贴图置换到目标表情模型上,得到含有高精度纹理的目标表情模型的步骤,可以包括:确定人脸模型和目标表情模型的顶点之间的第三映射关系;根据第三映射关系,将纹理贴图缩放到目标表情模型上,得到含有高精度纹理的目标表情模型。
具体的,通过确定人脸模型和目标表情模型的顶点,并确定两个模型的顶点之间的第三映射关系,即可确定人脸模型映射到目标表情模型点面的范围,从而能够将这部分顶点对应的人脸纹理提取出来,并缩放到目标表情模型的纹理大小,以置换到目标表情模型的对应位置上,进而得到含有高精度纹理的目标表情模型。
综上,本发明实施例提供了一种人脸模型的生成方法,该方法包括获取第一规范下的第一混合表情模型,将第一混合表情模型中的第一目标表情模型重拓扑至第二规范下的混合表情模型上,得到包括第一身份类型对应的表情基模型的第二混合表情模型,将第二混合表情模型拆分为第一规范下的第三混合表情模型,获取第二身份类型对应的第四混合表情模型,对第三混合表情模型和第四混合表情模型进行特征分解处理,得到目标特征信息,根据目标特征信息构建目标表情模型。采用本发明实施例,能够提高第二身份类型的人脸建模能力,解决现有的人脸参数化模型的人脸数据的身份类型较为单一的技术问题。
根据上述实施例所描述的方法,本实施例将从人脸模型的生成装置的角度进一步进行描述,该人脸模型的生成装置具体可以作为独立的实体来实现,也可以集成在电子设备,比如终端中来实现,该终端可以包括手机、平板电脑等。
请参见图6,图6是本发明实施例提供的人脸模型的生成装置的一种结构示意图,如图6所示,本发明实施例提供的人脸模型的生成装置600,包括:第一获取模块601、拓扑模块602、拆分模块603、第二获取模块604、分解模块605以及构建模块606;
其中,第一获取模块301,用于获取预设的第一参数化模型的第一规范下的第一混合表情模型,第一混合表情模型包括第一规范下的第一预设数量的表情基模型。
拓扑模块602,用于将第一混合表情模型中的第一目标表情模型重拓扑至第二规范下的混合表情模型上,得到第二混合表情模型,第二规范为预设的第二参数化模型的表情模型规范,第二混合表情模型包括第一身份类型对应的表情基模型。
拆分模块603,用于将第二混合表情模型拆分为第一规范下的第一预设数量的表情基模型,得到第三混合表情模型。
第二获取模块604,用于获取第二身份类型对应的第四混合表情模型,第四混合表情模型为第一规范下的表情基模型,且第四混合表情模型包括第一预设数量的表情基模型。
分解模块605,用于对第三混合表情模型和第四混合表情模型进行特征分解处理,得到第三混合表情模型和第四混合表情模型中各个表情基模型对应的目标特征信息。
构建模块606,用于根据目标特征信息,构建目标表情模型,目标表情模型包括含有第一身份类型和第二身份类型的特征信息对应的表情基模型。
在一些实施例中,本实施例提供的拓扑模块602,具体用于:确定第一参数化模型中的第一目标表情模型上的第一表情关键点,和预设的第二参数化模型中的第二目标表情模型上的第二表情关键点;计算第一表情关键点和第二表情关键点之间的第一映射关系;根据第一映射关系,将第一目标表情模型形变至第二规范下的第二混合表情模型。
在一些实施例中,本实施例提供的第二获取模块604,具体用于:采集多张第二身份类型的表情图片;根据表情图片进行三维重建,得到第二身份类型对应的混合表情模型;将第一目标表情模型重拓扑至第二身份类型对应的混合表情模型上,得到第四混合表情模型。
在一些实施例中,本实施例提供的第二获取模块604,具体还用于:根据表情图片进行三维重建,得到初始混合表情模型;去除初始混合表情模型中不属于表情图片对应的表情基模型,得到第二身份类型对应的混合表情模型。
在一些实施例中,请参见图7,图7是本发明实施例提供的人脸模型的生成装置的另一种结构示意图,如图7所示,本发明实施例提供的人脸模型的生成装置600,还包括:设置模块607和建立模块608;
其中,设置模块607,用于在目标表情模型上设置多个表情控制器。
建立模块608,用于建立表情控制器与目标表情模型中各个表情基模型之间的第二映射关系,以根据表情控制器驱动目标表情模型。
在一些实施例中,请参见图8,图8是本发明实施例提供的人脸模型的生成装置的第三种结构示意图,如图8所示,本发明实施例提供的人脸模型的生成装置600,还包括:第三获取模块609和置换模块610;
其中,第三获取模块609,用于获取高精度的人脸模型数据,人脸模型数据包括高精度的人脸模型的纹理贴图。
置换模块610,用于将纹理贴图置换到目标表情模型上,得到含有高精度纹理的目标表情模型。
在一些实施例中,本实施例提供的置换模块610,具体用于:确定人脸模型和目标表情模型的顶点之间的第三映射关系;根据第三映射关系,将纹理贴图缩放到目标表情模型上,得到含有高精度纹理的目标表情模型。
具体实施时,以上各个模块和/或单元可以作为独立的实体来实现,也可以进行任意组合,作为同一或若干个实体来实现,以上各个模块和/或单元的具体实施可参见前面的方法实施例,具体可以达到的有益效果也请参看前面的方法实施例中的有益效果,在此不再赘述。
另外,请参见图9,图9是本发明实施例提供的电子设备的一种结构示意图,该电子设备可以是移动终端如智能手机、平板电脑等设备。如图9所示,电子设备900包括处理器901、存储器902。其中,处理器901与存储器902电性连接。
处理器901是电子设备900的控制中心,利用各种接口和线路连接整个电子设备的各个部分,通过运行或加载存储在存储器902内的应用程序,以及调用存储在存储器902内的数据,执行电子设备900的各种功能和处理数据,从而对电子设备900进行整体监测。
在本实施例中,电子设备900中的处理器901会按照如下的步骤,将一个或一个以上的应用程序的进程对应的指令加载到存储器902中,并由处理器901来运行存储在存储器902中的应用程序,从而实现上述实施例提供的人脸模型的生成方法中的任一步骤。
该电子设备900可以实现本发明实施例所提供的人脸模型的生成方法任一实施例中的步骤,因此,可以实现本发明实施例所提供的任一人脸模型的生成方法所能实现的有益效果,详见前面的实施例,在此不再赘述。
请参见图10,图10是本发明实施例提供的电子设备的另一种结构示意图,如图10所示,图10示出了本发明实施例提供的电子设备的具体结构框图,该电子设备可以用于实施上述实施例中提供的人脸模型的生成方法。该电子设备1000可以为移动终端如智能手机或笔记本电脑等设备。
RF电路1010用于接收以及发送电磁波,实现电磁波与电信号的相互转换,从而与通讯网络或者其他设备进行通讯。RF电路1010可包括各种现有的用于执行这些功能的电路元件,例如,天线、射频收发器、数字信号处理器、加密/解密芯片、用户身份模块(SIM)卡、存储器等等。RF电路1010可与各种网络如互联网、企业内部网、无线网络进行通讯或者通过无线网络与其他设备进行通讯。上述的无线网络可包括蜂窝式电话网、无线局域网或者城域网。上述的无线网络可以使用各种通信标准、协议及技术,包括但并不限于全球移动通信系统(Global System for Mobile Communication,GSM)、增强型移动通信技术(EnhancedData GSM Environment,EDGE),宽带码分多址技术(Wideband Code Division MultipleAccess,WCDMA),码分多址技术(Code Division Access,CDMA)、时分多址技术(TimeDivision Multiple Access,TDMA),无线保真技术(Wireless Fidelity,Wi-Fi)(如美国电气和电子工程师协会标准IEEE 802.11a,IEEE 802.11b,IEEE802.11g和/或IEEE802.11n)、网络电话(Voice over Internet Protocol,VoIP)、全球微波互联接入(Worldwide Interoperability for Microwave Access,Wi-Max)、其他用于邮件、即时通讯及短消息的协议,以及任何其他合适的通讯协议,甚至可包括那些当前仍未被开发出来的协议。
存储器1020可用于存储软件程序以及模块,如上述实施例中人脸模型的生成方法对应的程序指令/模块,处理器1080通过运行存储在存储器1020内的软件程序以及模块,从而执行各种功能应用以及对人脸模型的生成。
存储器1020可包括高速随机存储器,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器1020可进一步包括相对于处理器1080远程设置的存储器,这些远程存储器可以通过网络连接至电子设备1000。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
输入单元1030可用于接收输入的数字或字符信息,以及产生与用户设置以及功能控制有关的键盘、鼠标、操作杆、光学或者轨迹球信号输入。具体地,输入单元1030可包括触敏表面1031以及其他输入设备1032。触敏表面1031,也称为触摸显示屏或者触控板,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触敏表面1031上或在触敏表面1031附近的操作),并根据预先设定的程式驱动相应的连接装置。可选的,触敏表面1031可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器1080,并能接收处理器1080发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触敏表面1031。除了触敏表面1031,输入单元1030还可以包括其他输入设备1032。具体地,其他输入设备1032可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种。
显示单元1040可用于显示由用户输入的信息或提供给用户的信息以及电子设备1000的各种图形用户接口,这些图形用户接口可以由图形、文本、图标、视频和其任意组合来构成。显示单元1040可包括显示面板1041,可选的,可以采用LCD(Liquid CrystalDisplay,液晶显示器)、OLED(Organic Light-Emitting Diode,有机发光二极管)等形式来配置显示面板1041。进一步的,触敏表面1031可覆盖显示面板1041,当触敏表面1031检测到在其上或附近的触摸操作后,传送给处理器1080以确定触摸事件的类型,随后处理器1080根据触摸事件的类型在显示面板1041上提供相应的视觉输出。虽然在图中,触敏表面1031与显示面板1041是作为两个独立的部件来实现输入和输出功能,但是在某些实施例中,可以将触敏表面1031与显示面板1041集成而实现输入和输出功能。
电子设备1000还可包括至少一种传感器1050,比如光传感器、运动传感器以及其他传感器。具体地,光传感器可包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板1041的亮度,接近传感器可在翻盖合上或者关闭时产生中断。作为运动传感器的一种,重力加速度传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别手机姿态的应用(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;至于电子设备1000还可配置的陀螺仪、气压计、湿度计、温度计、红外线传感器等其他传感器,在此不再赘述。
音频电路1060、扬声器1061,传声器1062可提供用户与电子设备1000之间的音频接口。音频电路1060可将接收到的音频数据转换后的电信号,传输到扬声器1061,由扬声器1061转换为声音信号输出;另一方面,传声器1062将收集的声音信号转换为电信号,由音频电路1060接收后转换为音频数据,再将音频数据输出处理器1080处理后,经RF电路1010以发送给比如另一终端,或者将音频数据输出至存储器1020以便进一步处理。音频电路1060还可能包括耳塞插孔,以提供外设耳机与电子设备1000的通信。
电子设备1000通过传输模块1070(例如Wi-Fi模块)可以帮助用户接收请求、发送信息等,它为用户提供了无线的宽带互联网访问。虽然图中示出了传输模块1070,但是可以理解的是,其并不属于电子设备1000的必须构成,完全可以根据需要在不改变发明的本质的范围内而省略。
处理器1080是电子设备1000的控制中心,利用各种接口和线路连接整个手机的各个部分,通过运行或执行存储在存储器1020内的软件程序和/或模块,以及调用存储在存储器1020内的数据,执行电子设备1000的各种功能和处理数据,从而对电子设备进行整体监测。可选的,处理器1080可包括一个或多个处理核心;在一些实施例中,处理器1080可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解地,上述调制解调处理器也可以不集成到处理器1080中。
电子设备1000还包括给各个部件供电的电源1090(比如电池),在一些实施例中,电源可以通过电源管理系统与处理器1080逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。电源1090还可以包括一个或一个以上的直流或交流电源、再充电系统、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。
尽管未示出,电子设备1000还包括摄像头(如前置摄像头、后置摄像头)、蓝牙模块等,在此不再赘述。具体在本实施例中,电子设备的显示单元是触摸屏显示器,移动终端还包括有存储器,以及一个或者一个以上的程序,其中一个或者一个以上程序存储于存储器中,且经配置以由一个或者一个以上处理器执行一个或者一个以上程序实现上述实施例提供的人脸模型的生成方法中的任一步骤。
具体实施时,以上各个模块可以作为独立的实体来实现,也可以进行任意组合,作为同一或若干个实体来实现,以上各个模块的具体实施可参见前面的方法实施例,在此不再赘述。
本领域普通技术人员可以理解,上述实施例的各种方法中的全部或部分步骤可以通过指令来完成,或通过指令控制相关的硬件来完成,该指令可以存储于一计算机可读存储介质中,并由处理器进行加载和执行。为此,本发明实施例提供一种存储介质,其中存储有多条指令,该指令能够被处理器执行时实现上述实施例所提供的人脸模型的生成方法中的任一步骤。
其中,该存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取记忆体(RAM,Random Access Memory)、磁盘或光盘等。
由于该存储介质中所存储的指令,可以执行本发明实施例所提供的人脸模型的生成方法任一实施例中的步骤,因此,可以实现本发明实施例所提供的任一人脸模型的生成方法所能实现的有益效果,详见前面的实施例,在此不再赘述。
以上对本申请实施例所提供的一种人脸模型的生成方法、装置、电子设备及存储介质进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。并且,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也视为本发明的保护范围。
Claims (10)
1.一种人脸模型的生成方法,其特征在于,包括:
获取预设的第一参数化模型的第一规范下的第一混合表情模型,所述第一混合表情模型包括所述第一规范下的第一预设数量的表情基模型;
将所述第一混合表情模型中的第一目标表情模型重拓扑至第二规范下的混合表情模型上,得到第二混合表情模型,所述第二规范为预设的第二参数化模型的表情模型规范,所述第二混合表情模型包括第一身份类型对应的表情基模型;
将所述第二混合表情模型拆分为所述第一规范下的所述第一预设数量的表情基模型,得到第三混合表情模型;
获取第二身份类型对应的第四混合表情模型,所述第四混合表情模型为所述第一规范下的表情基模型,且所述第四混合表情模型包括所述第一预设数量的表情基模型;
对所述第三混合表情模型和所述第四混合表情模型进行特征分解处理,得到所述第三混合表情模型和所述第四混合表情模型中各个表情基模型对应的目标特征信息;
根据所述目标特征信息,构建目标表情模型,所述目标表情模型包括含有所述第一身份类型和所述第二身份类型的特征信息对应的表情基模型。
2.如权利要求1所述的方法,其特征在于,所述将所述第一混合表情模型中的第一目标表情模型重拓扑至第二规范下的混合表情模型上,得到第二混合表情模型,包括:
确定所述第一参数化模型中的第一目标表情模型上的第一表情关键点,和预设的第二参数化模型中的第二目标表情模型上的第二表情关键点;
计算所述第一表情关键点和所述第二表情关键点之间的第一映射关系;
根据所述第一映射关系,将所述第一目标表情模型形变至第二规范下的第二混合表情模型。
3.如权利要求1所述的方法,其特征在于,所述获取第二身份类型对应的第四混合表情模型,包括:
采集多张第二身份类型的表情图片;
根据所述表情图片进行三维重建,得到所述第二身份类型对应的混合表情模型;
将所述第一目标表情模型重拓扑至所述第二身份类型对应的混合表情模型上,得到第四混合表情模型。
4.如权利要求3所述的方法,其特征在于,所述根据所述表情图片进行三维重建,得到所述第二身份类型对应的混合表情模型,包括:
根据所述表情图片进行三维重建,得到初始混合表情模型;
去除所述初始混合表情模型中不属于所述表情图片对应的表情基模型,得到所述第二身份类型对应的混合表情模型。
5.如权利要求1所述的方法,其特征在于,在所述根据所述目标特征信息,构建目标表情模型的步骤之后,所述方法还包括:
在所述目标表情模型上设置多个表情控制器;
建立所述表情控制器与所述目标表情模型中各个表情基模型之间的第二映射关系,以根据所述表情控制器驱动所述目标表情模型。
6.如权利要求1所述的方法,其特征在于,在所述根据所述目标特征信息,构建目标表情模型的步骤之后,所述方法还包括:
获取高精度的人脸模型数据,所述人脸模型数据包括高精度的人脸模型的纹理贴图;
将所述纹理贴图置换到所述目标表情模型上,得到含有高精度纹理的目标表情模型。
7.如权利要求6所述的方法,其特征在于,所述将所述纹理贴图置换到所述目标表情模型上,得到含有高精度纹理的目标表情模型,包括:
确定所述人脸模型和所述目标表情模型的顶点之间的第三映射关系;
根据所述第三映射关系,将所述纹理贴图缩放到所述目标表情模型上,得到含有高精度纹理的目标表情模型。
8.一种人脸模型的生成装置,其特征在于,包括:
第一获取模块,用于获取预设的第一参数化模型的第一规范下的第一混合表情模型,所述第一混合表情模型包括所述第一规范下的第一预设数量的表情基模型;
拓扑模块,用于将所述第一混合表情模型中的第一目标表情模型重拓扑至第二规范下的混合表情模型上,得到第二混合表情模型,所述第二规范为预设的第二参数化模型的表情模型规范,所述第二混合表情模型包括第一身份类型对应的表情基模型;
拆分模块,用于将所述第二混合表情模型拆分为所述第一规范下的所述第一预设数量的表情基模型,得到第三混合表情模型;
第二获取模块,用于获取第二身份类型对应的第四混合表情模型,所述第四混合表情模型为所述第一规范下的表情基模型,且所述第四混合表情模型包括所述第一预设数量的表情基模型;
分解模块,用于对所述第三混合表情模型和所述第四混合表情模型进行特征分解处理,得到所述第三混合表情模型和所述第四混合表情模型中各个表情基模型对应的目标特征信息;
构建模块,用于根据所述目标特征信息,构建目标表情模型,所述目标表情模型包括含有所述第一身份类型和所述第二身份类型的特征信息对应的表情基模型。
9.一种电子设备,其特征在于,所述电子设备包括处理器、存储器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述的方法中的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述的方法中的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311080302.XA CN117197866A (zh) | 2023-08-24 | 2023-08-24 | 人脸模型的生成方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311080302.XA CN117197866A (zh) | 2023-08-24 | 2023-08-24 | 人脸模型的生成方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117197866A true CN117197866A (zh) | 2023-12-08 |
Family
ID=88989695
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311080302.XA Pending CN117197866A (zh) | 2023-08-24 | 2023-08-24 | 人脸模型的生成方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117197866A (zh) |
-
2023
- 2023-08-24 CN CN202311080302.XA patent/CN117197866A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10055879B2 (en) | 3D human face reconstruction method, apparatus and server | |
US20220076000A1 (en) | Image Processing Method And Apparatus | |
CN109919888B (zh) | 一种图像融合的方法、模型训练的方法以及相关装置 | |
CN110495819B (zh) | 机器人的控制方法、机器人、终端、服务器及控制系统 | |
CN111383309B (zh) | 一种骨骼动画驱动方法、装置及存储介质 | |
CN108985220B (zh) | 一种人脸图像处理方法、装置及存储介质 | |
WO2019233229A1 (zh) | 一种图像融合方法、装置及存储介质 | |
CN109918975A (zh) | 一种增强现实的处理方法、对象识别的方法及终端 | |
CN108346175B (zh) | 一种人脸图像修复方法、装置及存储介质 | |
CN109685915B (zh) | 一种图像处理方法、装置及移动终端 | |
CN107948499A (zh) | 一种图像拍摄方法及移动终端 | |
CN112581358B (zh) | 图像处理模型的训练方法、图像处理方法及装置 | |
CN111556337B (zh) | 一种媒体内容植入方法、模型训练方法以及相关装置 | |
CN110717964B (zh) | 场景建模方法、终端及可读存储介质 | |
CN110555815B (zh) | 一种图像处理方法和电子设备 | |
CN113409468A (zh) | 一种图像处理方法、装置、电子设备及存储介质 | |
CN110168599B (zh) | 一种数据处理方法及终端 | |
CN112449098A (zh) | 一种拍摄方法、装置、终端及存储介质 | |
CN117197866A (zh) | 人脸模型的生成方法、装置、电子设备及存储介质 | |
CN109194943B (zh) | 一种图像处理方法及终端设备 | |
CN111982293A (zh) | 体温测量方法、装置、电子设备及存储介质 | |
CN113849142B (zh) | 图像展示方法、装置、电子设备及计算机可读存储介质 | |
CN115100691B (zh) | 关键点检测模型的获取、关键点检测方法、装置和设备 | |
CN117274494A (zh) | 人体重建方法、装置、设备及存储介质 | |
CN109598678B (zh) | 一种图像处理方法、装置和终端设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |