CN117912085A - 模型训练方法、人脸关键点定位方法、装置、设备及介质 - Google Patents
模型训练方法、人脸关键点定位方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN117912085A CN117912085A CN202410309648.0A CN202410309648A CN117912085A CN 117912085 A CN117912085 A CN 117912085A CN 202410309648 A CN202410309648 A CN 202410309648A CN 117912085 A CN117912085 A CN 117912085A
- Authority
- CN
- China
- Prior art keywords
- output
- heat map
- module
- map module
- result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 179
- 238000000034 method Methods 0.000 title claims abstract description 98
- 230000006870 function Effects 0.000 claims description 124
- 238000012545 processing Methods 0.000 claims description 112
- 238000000605 extraction Methods 0.000 claims description 81
- 238000001514 detection method Methods 0.000 claims description 80
- 230000004927 fusion Effects 0.000 claims description 48
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 41
- 238000007781 pre-processing Methods 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 16
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 230000008859 change Effects 0.000 abstract description 9
- 238000010586 diagram Methods 0.000 description 17
- 230000008569 process Effects 0.000 description 16
- 238000004891 communication Methods 0.000 description 8
- 230000001815 facial effect Effects 0.000 description 7
- 230000004913 activation Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 238000007499 fusion processing Methods 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 210000001061 forehead Anatomy 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000002537 cosmetic Substances 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000002500 effect on skin Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
本发明实施例提供了一种模型训练方法、人脸关键点定位方法、装置、设备及介质,该方法在特征提取模型的骨干网络中引入一种注意力方式可以得到训练样本图像的多个尺度特征,同时基于注意力掩膜分支网络可以得到各向异性的注意力掩膜,集中在关键点的区域及其相邻点连接的局部边缘上,从而优化关键点定位误差。另外,在模型训练时,借鉴了时序中人脸面部的变化,采用一种相对坐标损失函数,一起与绝对坐标损失函数联合训练模型,让模型更多的关注到时序中人脸关键点的稳定性,从而减小关键点定位误差,提高模型进行关键点定位的准确性。
Description
技术领域
本发明涉及深度学习技术领域,尤其涉及一种模型训练方法、人脸关键点定位方法、装置、设备及介质。
背景技术
精准护肤的前提是精准检测,精准检测为精准护肤提供了可靠的保证,对于皮肤分析来说,人脸关键点检测的准确性非常重要,通过面部特征定位技术可以进一步分析人脸特定区域肤质,尤其是同一用户跨时序(时间段)同一区域皮肤的分析。
目前,深度学习方法在人脸关键点定位的表现最为突出,主要分为两类:直接坐标回归和基于热图的回归,基于热图的回归克服了直接坐标回归缺乏空间和上下文信息的缺点。且最终特征点学习方向是与人工标注的标准对齐,更多关注的是绝对误差。而精准护肤检测更多的是关注同一用户在不同时间段,不同姿态,不同光照下的相对误差,所以现有的方法受环境等的影响,存在的定位误差会更高。
发明内容
本发明实施例提供了一种模型训练方法、人脸关键点定位方法、装置、设备及介质,能够实现优化人脸关键点定位误差的效果。
第一方面,本发明实施例提供了一种模型训练方法,包括:
对原始人脸图像进行数据增强处理,获得第一样本图像和第二样本图像;
将所述第一样本图像和所述第二样本图像分别输入到预先构建的特征提取模型中,获得第一输出结果和第二输出结果;
当训练迭代次数未达到设定的迭代次数阈值时,根据所述第一输出结果、所述第二输出结果与真实关键点标签的绝对坐标损失函数训练所述特征提取模型,获得初始关键点检测模型;
当训练迭代次数达到设定的迭代次数阈值后,根据所述第一输出结果与所述第二输出结果的相对坐标损失函数以及所述绝对坐标损失函数训练所述初始关键点检测模型,获得目标关键点检测模型;
所述特征提取模型包括骨干网络和若干个注意力掩膜分支网络,所述骨干网络由预处理模块、残差模块、残差块和沙漏模块堆叠而成,每个所述残差块分别与一个所述注意力掩膜分支网络相连,所述注意力掩膜分支网络至少包括并行连接的边缘热图模块、地标热图模块和坐标模块。
第二方面,本发明实施例提供了一种人脸关键点定位方法,包括:
获取待检测人脸图像;
将所述待检测人脸图像输入到目标关键点检测模型中进行检测,确定所述待检测人脸图像中的人脸关键点坐标,所述目标关键点检测模型采用如第一方面实施例所述的模型训练方法进行训练得到。
第三方面,本发明实施例提供了一种模型训练装置,包括:
增强处理模块,用于对原始人脸图像进行数据增强处理,获得第一样本图像和第二样本图像;
图像输入模块,用于将所述第一样本图像和所述第二样本图像分别输入到预先构建的特征提取模型中,获得第一输出结果和第二输出结果;
第一训练模块,用于当训练迭代次数未达到设定的迭代次数阈值时,根据所述第一输出结果、所述第二输出结果与真实关键点标签的绝对坐标损失函数训练所述特征提取模型,获得初始关键点检测模型;
第二训练模块,用于当训练迭代次数达到设定的迭代次数阈值后,根据所述第一输出结果与所述第二输出结果的相对坐标损失函数以及所述绝对坐标损失函数训练所述初始关键点检测模型,获得目标关键点检测模型;
所述特征提取模型包括骨干网络和若干个注意力掩膜分支网络,所述骨干网络由预处理模块、残差模块、残差块和沙漏模块堆叠而成,每个所述残差块分别与一个所述注意力掩膜分支网络相连,所述注意力掩膜分支网络至少包括并行连接的边缘热图模块、地标热图模块和坐标模块。
第四方面,本发明实施例提供了一种人脸关键点定位装置,包括:
图像获取模块,用于获取待检测人脸图像;
图像检测模块,用于将所述待检测人脸图像输入到目标关键点检测模型中进行检测,确定所述待检测人脸图像中的人脸关键点坐标,所述目标关键点检测模型采用如第一方面实施例所述的模型训练方法进行训练得到。
第五方面,本发明实施例还提供一种电子设备,包括:
至少一个处理器;以及与所述至少一个处理器通信连接的存储器;
其中,所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行如第一方面实施例所述的模型训练方法或者第二方面实施例所述的人脸关键点定位方法。
第四方面,本发明实施例还提供一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行如第一方面实施例所述的模型训练方法或者第二方面实施例所述的人脸关键点定位方法。
上述技术方案,在特征提取模型的骨干网络中引入一种注意力方式可以得到训练样本图像的多个尺度特征,同时基于注意力掩膜分支网络可以得到各向异性的注意力掩膜,集中在关键点的区域及其相邻点连接的局部边缘上,从而优化关键点定位误差。另外,在模型训练时,借鉴了时序中人脸面部的变化,采用一种相对坐标损失函数,一起与绝对坐标损失函数联合训练模型,让模型更多的关注到时序中人脸关键点的稳定性,从而减小关键点定位误差,提高模型进行关键点定位的准确性。
应当理解,本部分所描述的内容并非旨在标识本发明的实施例的关键或重要特征,也不用于限制本发明的范围。本发明的其它特征将通过以下的说明书而变得容易理解。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例一提供的一种模型训练方法的流程示意图;
图2为本发明实施例二提供的另一种模型训练方法的流程示意图;
图3为本发明实施例二提供的在一种模型训练方法执行中特征提取模型的结构示例图;
图4为本发明实施例二提供的在一种模型训练方法执行中特征提取模型训练过程的示例图;
图5为本发明实施例二提供的在一种模型训练方法执行中预处理模块的结构示意图;
图6为本发明实施例二提供的在一种模型训练方法执行中残差模块的结构示意图;
图7为本发明实施例二提供的在一种模型训练方法执行中残差块的结构示意图;
图8为本发明实施例三提供的一种人脸关键点定位方法的流程示意图;
图9为本发明实施例四提供的一种模型训练装置的结构示意图;
图10为本发明实施例五提供的一种人脸关键点定位装置的结构示意图;
图11为本发明实施例六提供的一种电子设备的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“原始”、“目标”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
实施例一
图1为本发明实施例一提供的一种模型训练方法的流程示意图,该方法可适用于对人脸关键点检测模型进行训练的情况,该方法可以由模型训练装置来执行,该装置可以采用硬件和/或软件的形式实现,可配置于电子设备中。如图1所示,本实施例一提供的模型训练方法具体可以包括以下步骤:
S101、对原始人脸图像进行数据增强处理,获得第一样本图像和第二样本图像。
其中,原始人脸图像具体可以理解为对用户人脸进行拍照采集的图像。原始人脸图像可以作为后续进行模型训练的基础数据。
可以理解的是,通常采集用户的人脸图像来记录和检测用户的美容护肤效果,如检测用户人脸的皮肤状态,如纹理、轮廓等。对于同一用户的护肤效果,会记录时序中人脸面部的变化,如护肤后的第二天、第五天、第十天等分别采集该用户的人脸图像,来对该用户的人脸关键点进行检测定位,以进一步检测该用户的美容护肤效果。但不同时序对同一用户的人脸进行图像采集时,可能会因为拍摄角度、随机噪声、随机亮度等因素不同,导致对不同时刻采集的人脸图像中的人脸关键点定位出现偏差。
为了解决上述问题,在本实施例中,先对原始人脸图像进行数据增强处理,将数据增强处理后的图像看做是不同时序下对同一用户所采集的人脸图像。数据增强处理可以包括旋转、水平反转、随机噪声、随机亮度、颜色变换、随机对比度等。本步骤中将原始人脸图像进行不同的数据增强处理,分别获得两类图像,分别记为第一样本图像和第二样本图像。可以理解的是,原始人脸图像、第一样本图像和第二样本图像均可以作为训练样本对模型进行训练,本实施例中优选采用第一样本图像和第二样本图像进行模型训练,采用若干张样本图像进行训练。
S102、将第一样本图像和第二样本图像分别输入到预先构建的特征提取模型中,获得第一输出结果和第二输出结果。
在本实施例中,预先构建有特征提取模型,需要基于第一样本图像和第二样本图像对特征提取模型进行训练,获得最终能够对人脸图像中的关键点进行准确定位的目标关键点检测模型。其中,特征提取模型包括骨干网络和若干个注意力掩膜分支网络,骨干网络由预处理模块、残差模块、残差块和沙漏模块堆叠而成,每个残差块分别与一个注意力掩膜分支网络相连,注意力掩膜分支网络至少包括并行连接的边缘热图模块、地标热图模块和坐标模块。
在本实施例中,特征提取模块包括骨干网络,骨干网络由预处理模块、残差模块、残差块和沙漏模块堆叠而成,可以认为本实施例提供的方法可以无缝集成到经典的沙漏网络中。骨干网络用于提取样本图像中多尺度的特征,在构建骨干网络时,可以根据实际需求设置其结构以提取相应数量的尺度的特征,从而获得人脸图像更丰富的特征。例如,假设设置骨干网络可以提取三个尺度的特征,将训练样本图像输入到预处理模块、残差模块、残差块中获得一个尺度的特征,再将该尺度特征输入到沙漏模块,将输出再与该尺度进行融合后输出到残差块中获得一个尺度的特征,以此类推。
接上述描述,在获得各个尺度的尺度特征后,再将各个尺度的尺度特征分别输入到对应的注意力掩膜分支网络中。每个注意力掩膜分支网络均包含边缘热图模块、地标热图模块和坐标模块,其中,边缘热图模块在训练时更关注人脸外轮廓,例如,眼睛外轮廓、鼻子周围轮廓或者额头轮廓,在进行人脸关键点定位时,通过边缘热图模块使关键点定位时更关注轮廓的切线分布,例如关注并学习眼睛的轮廓,学习边缘丰富的信息,使相邻关键点符合切线分布,关注关键点和关键点之间的关联性。地标热图模块,用于规避真实标签有误差的情况,采用地标热图模块进行训练时,将关键点约束在一个区域内即可,从而避免实际坐标点与语义信息本来存在误差的问题。
在上述基于边缘热图模块和地标热图模块对训练样本图像进行学习获得点边区域热图,同时还基于坐标模块输出训练样本图像中的人脸关键点坐标,将点边区域热图和人脸关键点坐标进行修正,从而使模型的人脸关键点定位误差减小。经过每个注意力掩膜分支网络处理后,每个注意力掩膜分支网络均会得到边缘热图模块的输出、地标热图模块的输出和坐标模块的输出,再将每个注意力掩膜分支网络的输出进行融合,可以得到三个输出。三个输出分别包括:各边缘热图模块的输出的融合、各地标热图模块的输出的融合、以及各注意力掩膜分支网络的输出的融合。
具体的,将第一样本图像和第二样本图像输入到特征提取模型中,获得输出结果,将第一样本图像对应的输出结果记为第一输出结果,将第二样本图像对应的输出结果记为第二输出结果。可以理解的是,基于特征提取模型对第一样本图像进行处理的过程,与对第二样本图像进行处理的过程相同。第一输出结果和第二输出结果中均包含三种类型的输出。
S103、当训练迭代次数未达到设定的迭代次数阈值时,根据第一输出结果、第二输出结果与真实关键点标签的绝对坐标损失函数训练特征提取模型,获得初始关键点检测模型。
其中,可以预先设置总的训练迭代次数(epoch)以及迭代次数阈值,例如,设置总的训练迭代次数为100次,迭代次数阈值为90次。本实施例中所采用的训练策略为先采用真实关键点标签进行迭代训练,再将第一输出结果为预测标签,将第二输出结果与预测标签构建损失函数进行迭代训练。
在本实施例中,当训练迭代次数未达到设定的迭代次数阈值时,该阶段采用绝对坐标损失函数对特征提取模型进行训练,直到训练迭代次数达到迭代次数阈值,将训练得到的模型记为初始关键点检测模型。将第一输出结果与第一样本图像所对应的真实关键点标签作差,将第二输出结果与第二样本图像所对应的真实关键点标签作差,将两个作差结果求和所构建的函数作为绝对坐标损失函数。可以认为绝对坐标损失函数是将输出结果与真实标签构建的损失函数。
根据绝对坐标损失函数训练特征提取模型,获得初始关键点检测模型的过程可以是,基于绝对坐标损失函数的值不断调整特征提取模型的参数,以使绝对坐标损失函数的值不断变小。
S104、当训练迭代次数达到设定的迭代次数阈值后,根据第一输出结果与第二输出结果的相对坐标损失函数以及绝对坐标损失函数训练初始关键点检测模型,获得目标关键点检测模型。
考虑到现有技术中在训练时通常关注的是输出结果与真实标签之间的绝对误差,即现有技术中只关注预定义的点坐标误差,如眼角、嘴角,但实际进行护肤效果检测时只需关注不同时序下同一位置的变化。例如,第二天关注的位置与第五天关注的位置相同即可,并不需要关注这些位置具体是否为眼角、嘴角的点。
在本实施例中,当训练迭代次数达到设定的迭代次数阈值后,该阶段采用相对坐标损失函数和绝对坐标损失函数联合对特征提取模型进行训练,将达到总迭代次数时训练得到的模型记为目标关键点检测模型。将第一输出结果作为预测结果,将第二输出结果作为真实关键点标签,将第一输出结果与第二输出结果作差结果所构建的函数作为相对坐标损失函数。可以认为相对坐标损失函数是将第一输出结果与第二输出结果构建的损失函数。
可以知道的是,在模型训练阶段,借鉴了时序中人脸面部的变化,采用一种相对坐标损失函数,一起与绝对坐标损失联合训练模型,让模型更多的关注到时序中人脸关键点的稳定性。示例性的,设定模型训练总的迭代次数为100个epoch,迭代次数阈值为90个epoch。前90个epoch,总的损失函数表示为:loss0=loss1+loss2+loss3+loss4+loss5+loss6,其中,loss1、loss2、loss3分别表示第一输出结果与真实关键点标签之间的损失值,loss4、loss5、loss6分别表示第二输出结果与真实关键点标签之间的损失值。后10个epoch,总的损失函数表示为:loss=0.5*loss0+0.5*(loss7+loss8+loss9),其中,loss7、loss8、loss9表示将第二输出结果作为标签,将第一输出结果作为预测结果之间的损失值,0.5表示权重系数,可根据实际情况调整。
根据相对坐标损失函数和绝对坐标损失函数训练初始关键点检测模型,获得目标关键点检测模型的过程可以是,基于相对坐标损失函数和绝对坐标损失函数加权获得一个损失函数,基于该加权后的损失函数的损失值不断调整初始关键点检测模型的参数,以使相对坐标损失函数的值不断变小。
上述技术方案,在特征提取模型的骨干网络中引入一种注意力方式可以得到训练样本图像的多个尺度特征,同时基于注意力掩膜分支网络可以得到各向异性的注意力掩膜,集中在关键点的区域及其相邻点连接的局部边缘上,从而优化关键点定位误差。另外,在模型训练时,借鉴了时序中人脸面部的变化,采用一种相对坐标损失函数,一起与绝对坐标损失联合训练模型,让模型更多的关注到时序中人脸关键点的稳定性,从而减小关键点定位误差,提高模型进行关键点定位的准确性。
实施例二
图2为本发明实施例二提供的另一种模型训练方法的流程示意图,本实施例为上述实施例的进一步优化,在本实施例中,进一步对“对原始人脸图像进行数据增强处理,获得第一样本图像和第二样本图像”限定优化,且进一步对“根据所述第一输出结果、所述第二输出结果与真实关键点标签的绝对坐标损失函数训练所述特征提取模型,获得初始关键点检测模型”限定优化,且进一步对“根据所述第一输出结果与所述第二输出结果的相对坐标损失函数以及所述绝对坐标损失函数训练所述初始关键点检测模型,获得目标关键点检测模型”限定优化。
如图2所示,本实施例二提供一种模型训练方法,具体包括如下步骤:
S201、对原始人脸图像按照第一增强方式进行数据增强处理,获得第一样本图像。
其中,第一增强方式至少包括以下一种数据增强类型:旋转、水平反转、随机噪声、随机亮度、颜色变换和随机对比度。设定每种增强类型发生的概率为0.5。本实施例中对第一增强方式不做具体限制。
具体的,对原始人脸图像按照第一增强方式进行数据增强处理,获得处理后的样本图像记为第一样本图像。
S202、对原始人脸图像按照第二增强方式进行数据增强处理,获得第二样本图像。
其中,第二增强方式至少包括以下一种数据增强类型:旋转、水平反转、随机噪声、随机亮度、颜色变换和随机对比度。设定每种增强类型发生的概率为0.5。第二增强方式是区别于第一增强方式的又一数据增强方式,本实施例中对第二增强方式不做具体限制。
具体的,对原始人脸图像按照第二增强方式进行数据增强处理,获得处理后的样本图像记为第二样本图像。
S203、将训练样本图像输入到骨干网络中,获得第一尺度特征、第二尺度特征和第三尺度特征。
其中,将第一样本图像和第二样本图像记为训练样本图像,将第一输出结果和第二输出结果记为训练输出结果。将第一样本图像输入到特征提取模型获得第一输出结果,与将第二样本图像输入到特征提取模型获得第二输出结果的过程相同,此处,将第一样本图像和第二样本图像均记为训练样本图像,将第一输出结果和第二输出结果均记为训练输出结果。
在本实施例中,特征提取模型包括骨干网络和若干个注意力掩膜分支网络。将训练样本图像输入到骨干网络中,会提取若干个尺度的特征,分别记为第一尺度特征、第二尺度特征和第三尺度特征。可以知道的是,第一样本图像输入到骨干网络中,会提取到第一样本图像中的第一尺度特征、第二尺度特征和第三尺度特征。同样,第二样本图像输入到骨干网络中,也会提取到第二样本图像中的第一尺度特征、第二尺度特征和第三尺度特征。
示例性的,图3为本发明实施例二提供的在一种模型训练方法执行中特征提取模型的结构示例图,如图3所示,将训练样本图像(图中记为人脸图像)输入到骨干网络中,分别通过三个残差块输出第一尺度特征(图中记为特征1)、第二尺度特征(图中记为特征2)和第三尺度特征(图中记为特征3)。
S204、将第一尺度特征、第二尺度特征和第三尺度特征分别输入至对应的注意力掩膜分支网络中,获得训练输出结果。
继续参考图3,特征提取模型包括三个注意力掩膜分支网络。在上述得到第一尺度特征、第二尺度特征以及第三尺度特征后,将这三个特征分别输入到三个注意力掩膜分支网络中。接上述描述,在获得各个尺度的尺度特征后,再将各个尺度的尺度特征分别输入到对应的注意力掩膜分支网络中。每个注意力掩膜分支网络均包含边缘热图模块、地标热图模块和坐标模块,其中,边缘热图模块在训练时更关注人脸外轮廓,例如,眼睛外轮廓、鼻子周围轮廓或者额头轮廓,在进行人脸关键点定位时,通过边缘热图模块使关键点定位时更关注轮廓的切线分布,例如关注并学习眼睛的轮廓,学习边缘丰富的信息,使相邻关键点符合切线分布,关注关键点和关键点之间的关联性。地标热图模块,用于规避真实标签有误差的情况,采用地标热图模块进行训练时,将关键点约束在一个区域内即可,从而避免实际坐标点与语义信息本来存在误差的问题。
在上述基于边缘热图模块和地标热图模块对训练样本图像进行学习获得点边区域热图,同时还基于坐标模块输出训练样本图像中的人脸关键点坐标,将点边区域热图和人脸关键点坐标进行修正,从而使模型的人脸关键点定位误差减小。经过每个注意力掩膜分支网络处理后,每个注意力掩膜分支网络均会得到边缘热图模块的输出、地标热图模块的输出和坐标模块的输出,在将每个注意力掩膜分支网络的输出进行融合,可以得到三个输出。三个输出分别包括:各边缘热图模块的输出的融合、各地标热图模块的输出的融合、以及各注意力掩膜分支网络的输出的融合。本步骤引入一种注意力方式,它可以得到各向异性的注意力掩膜,集中在点的区域及其相邻点连接的局部边缘上,它在切线上的响应比在法向上的响应更强,这意味着切线上的约束放宽。
图4为本发明实施例二提供的在一种模型训练方法执行中特征提取模型训练过程的示例图,如图4所示,将输入的原始人脸图像进行数据增强处理获得第一样本图像和第二样本图像,分别对第一样本图像和第二样本图像进行特征提取,获得第一样本图像对应的第一输出结果(图中记为输出1、输出2、输出3)以及第二样本图像对应的第二输出结果(图中记为输出4、输出5、输出6)。
S205、当训练迭代次数未达到设定的迭代次数阈值时,将第一输出结果与对应的真实关键点标签作差,获得第一损失函数。
具体的,当训练迭代次数未达到设定的迭代次数阈值时,针对第一样本图像,将真实关键点作为标签,将第一输出结果与第一样本图像对应的真实关键点标签作差,获得的函数记为第一损失函数。示例性的,继续参考图4,第一损失函数可以表示为:(损失值1+损失值2+损失值3),其中,损失值1(loss1)、损失值2(loss2)、损失值3(loss3)分别表示第一输出结果与真实关键点标签之间的损失值。
S206、将第二输出结果与对应的真实关键点标签作差,获得第二损失函数。
接上述描述,当训练迭代次数未达到设定的迭代次数阈值时,针对第二样本图像,将真实关键点作为标签,将第二输出结果与第二样本图像对应的真实关键点标签作差,获得的函数记为第二损失函数。示例性的,继续参考图4,第二损失函数可以表示为:(损失值4+损失值5+损失值6),其中,损失值4(loss4)、损失值5(loss5)、损失值6(loss6)分别表示第二输出结果与真实关键点标签之间的损失值。
S207、将第一损失函数与第二损失函数求和,获得绝对坐标损失函数。
具体的,将第一损失函数与第二损失函数求和,获得的损失函数记为绝对坐标损失函数。接上述示例进行描述,绝对坐标损失函数可以表示为:loss0=loss1+loss2+loss3+loss4+loss5+loss6,loss0表示总的绝对坐标损失值。
S208、基于绝对坐标损失函数训练特征提取模型,获得初始关键点检测模型。
具体,基于绝对坐标损失函数的值不断调整特征提取模型的参数,以使绝对坐标损失函数的值不断变小,当训练迭代次数达到设定的迭代次数阈值时,将训练得到的特征提取模型记为初始关键点检测模型。
S209、当训练迭代次数达到设定的迭代次数阈值后,将第一输出结果与第二输出结果作差,获得相对坐标损失函数。
具体的,当训练迭代次数达到设定的迭代次数阈值时,针对第一样本图像和第二样本图像,将第一输出结果作为预测结果,将第二输出结果作为标签,将第一输出结果与第二输出结果作差所构建的函数记为相对坐标损失函数。可以认为相对坐标损失函数是将第一输出结果与第二输出结果构建的损失函数。
在本实施例中,将第一输出结果与第二输出结果作差,获得的函数记为相对坐标损失函数。示例性的,继续参考图4,当迭代次数达到设定的迭代次数阈值后,相对坐标损失函数可以表示为:(损失值7+损失值8+损失值9),其中,损失值7(loss7)、损失值8(loss8)、损失值9(loss9)表示将第二输出结果作为标签,将第一输出结果作为预测结果之间的损失值。
S210、将相对坐标损失函数与绝对坐标损失函数进行加权处理,获得目标损失函数。
在本实施例中,在模型训练阶段,借鉴了时序中人脸面部的变化,基于相对坐标损失函数,一起与绝对坐标损失函数联合训练模型,使模型更多的关注到时序中人脸关键点的稳定性。具体的,将相对坐标损失函数与绝对坐标损失函数进行加权处理,获得处理后的函数记为目标损失函数。本实施例中对权重的取值不做具体限制。接上述示例进行描述,目标损失函数可以表示为:loss=0.5*loss0+0.5*(loss7+loss8+loss9),其中,各字母含义不再赘述,0.5表示权重系数,可根据实际情况调整。
S211、基于目标损失函数训练初始关键点检测模型,获得目标关键点检测模型。
具体,基于目标损失函数的值不断调整初始关键点检测模型的参数,以使目标损失函数的值不断变小,当训练迭代次数达到设定的迭代次数阈值或者目标损失函数的值小于设定阈值时,将训练得到的特征提取模型记为目标关键点检测模型。
上述技术方案具体化了对原始人脸图像进行数据增强处理获得第一样本图像和第二样本图像的步骤,以及根据第一输出结果、第二输出结果与真实关键点标签的绝对坐标损失函数训练特征提取模型获得初始关键点检测模型的步骤,以及根据第一输出结果与第二输出结果的相对坐标损失函数训练初始关键点检测模型,获得目标关键点检测模型的步骤。在训练阶段,对原始人脸图像进行增强处理,将增强处理后的图像作为样本训练图像以模拟时序中人脸面部的变化;将样本训练图像输入到特征提取模型中,通过骨干网络处理可以提取到多个尺度特征,再分别将多个尺度特征分别经过对应的注意力掩膜分支网络进行处理,注意力掩膜分支网络包括各向异性方向损失和各向异性注意模块分别用于坐标回归和热图回归,保证模型对面部边界上的每一个地标点在法向都有很强的结合力,从而使人脸关键点定位更准确,优化了关键点定位误差。同时,在训练时,先采用绝对坐标损失函数,再采用相对坐标损失函数与绝对坐标损失联合训练模型,让模型更多的关注到时序中人脸关键点的稳定性,从而减小关键点定位误差。
作为本发明实施例的可选实施例,在上述实施例的基础上,可以优化将所述训练样本图像输入到所述骨干网络中,获得第一尺度特征、第二尺度特征和第三尺度特征的步骤,包括:
a1)将训练样本图像输入到骨干网络中顺次连接的预处理模块、第一残差模块和第一残差块进行特征提取,获得第一尺度特征。
继续参考图3,在本实施例中,骨干网络由预处理模块、残差模块、残差块和沙漏模块堆叠而成。将与预处理模块顺次连接的残差模块和残差块分别记为第一残差模块和第一残差块。具体的,将训练样本图像输入到骨干网络中,将训练样本图像经由顺次连接的预处理模块、第一残差模块和第一残差块进行特征提取,获得一种尺度的特征,记为第一尺度特征。
示例性的,图5为本发明实施例二提供的在一种模型训练方法执行中预处理模块的结构示意图,如图5所示,预处理模块主要由卷积模块组成,基本结构如下:输入层:接受输入图像的RGB通道:x;标准卷积模块(CBL模块):卷积层/批归一化/Relu激活函数,卷积核大小:7,x1=F(x);跳跃连接:x2=F(x);CBL模块:x3=F(x1);跳跃连接:x4=F(x1);CBL模块:x5=F(x3);跳跃连接:x6=F(x3);CBL模块:x7=F(x5);对提取的特征x4,x6,x7进行通道拼接,输出为x8;x1与x8进行残差跳跃连接,x9=x1+x8。其中,CBL模块为标准卷积模块。
图6为本发明实施例二提供的在一种模型训练方法执行中残差模块的结构示意图,如图6所示,残差模块的基本结构如下:输入为上一阶段提取特征:x;残差块:x1=F(x);最大池化:x2=maxpool(x1);残差块:x3=F(x2);残差块:x4=F(x3);跳跃连接:x5=x4+x。
图7为本发明实施例二提供的在一种模型训练方法执行中残差块的结构示意图,如图7所示,残差块的基本结构包括三个标准卷积模块(CBL模块);输入为上一阶段提取特征:x;残差块的输出为x经由三个CBL模块处理再与x融合得到的特征。
b1)通过第一沙漏模块对第一尺度特征进行特征提取并与第一尺度特征进行融合,将融合后的特征输入至第二残差块进行特征提取,获得第二尺度特征。
其中,第一残差块、第一沙漏(Hourglass,HG)模块和第二残差块顺次连接。第二残差块是区别于第一残差块的又一残差块。将与第一残差块连接的沙漏模块记为第一沙漏模块。第二尺度特征是区别于第一尺度特征的又一种尺度特征。
需要知道的是,第一尺度特征除了作为一个注意力掩膜分支网络的输入外,还会经过沙漏模块、残差块进行特征提取,以进一步获得第二尺度特征。具体的,将第一尺度特征输入到第一沙漏模块进行特征提取,将提取后的特征再与第一尺度特征进行融合,将融合后的特征输入到第二残差块进行特征提取,获得第二尺度特征。
示例性的,继续参考图3,由第一尺度特征进行处理获得第二尺度特征,其基本结构可以描述为:输入为上一阶段提取特征:x;沙漏模块提取特征:x1=HG(x);跳跃连接:x2=x+x1;残差块如图7:out2=F(x2)。
c1)通过第二沙漏模块对第二尺度特征进行特征提取并与第二尺度特征进行融合,将融合后的特征输入至第三残差块进行特征提取,获得第三尺度特征。
其中,第二残差块、第二沙漏模块和第三残差块顺次连接。第三残差块是区别于第一残差块和第二残差块的又一残差块。将与第二残差块连接的沙漏模块记为第二沙漏模块。第三尺度特征是区别于第一尺度特征和第二尺度特征的又一种尺度特征。
需要知道的是,第二尺度特征除了作为一个注意力掩膜分支网络的输入外,还会经过沙漏模块、残差块进行特征提取,以进一步获得第三尺度特征。具体的,将第二尺度特征输入到第二沙漏模块进行特征提取,将提取后的特征再与第二尺度特征进行融合,将融合后的特征输入到第三残差块进行特征提取,获得第三尺度特征。
示例性的,继续参考图3,由第二尺度特征进行处理获得第三尺度特征,其基本结构可以描述为:输入为上一阶段提取特征:x;沙漏模块提取特征:x1=HG(x);跳跃连接:x2=x+x1;残差块如图7:out3=F(x2)。
上述技术方案具体化了如何提取三种尺度的尺度特征的步骤,实现了多尺度特征提取,为后续进行更为精准的关键点定位提供了依据。
作为本发明实施例的又一可选实施例,在上述实施例的基础上,可以优化所述将所述第一尺度特征、所述第二尺度特征和所述第三尺度特征分别输入至对应的所述注意力掩膜分支网络中,获得训练输出结果的步骤,包括:
a2)将第一尺度特征输入到第一注意力掩膜分支网络中第一边缘热图模块、第一地标热图模块以及第一坐标模块进行处理,获得第一边缘热图模块输出、第一地标热图模块输出和第一坐标模块输出。
在本实施例中,特征提取模型包括三个注意力掩膜分支网络,分别记为第一注意力掩膜分支网络、第二注意力掩膜分支网络和第三注意力掩膜分支网络。每个注意力掩膜分支网络至少包括边缘热图模块、地标热图模块和坐标模块,将第一注意力掩膜分支网络中的边缘热图模块记为第一边缘热图模块,将地标热图模块记为第一地标热图模块,将坐标模块记为第一坐标模块,第一边缘热图模块、第一地标热图模块和第一坐标模块并联。
具体的,继续参考图3,将第一尺度特征输入到第一注意力掩膜分支网络中,分别经过第一边缘热图模块处理获得边缘热图模块输出记为第一边缘热图模块输出,经过第一地标热图模块处理获得第一地标热图模块输出,经过第一坐标模块处理获得第一坐标模块输出。
示例性的,边缘热图模块的处理过程可以表示为:输入为上一阶段提取特征:x;CBL模块:x1=F(x);激活函数sigmoid:x2=S(x1)。地标热图模块的处理过程可以表示为:输入为上一阶段提取特征:x;CBL模块:x1=F(x);实例归一化(Instance Normalization,IN):x2=IN(x1);激活函数Relu:x3=R(x2)。坐标模块:输入为上一阶段提取特征:x;CBL模块:x1=F(x);激活函数(sigmoid):x2=S(x1)。
b2)将第二尺度特征输入到第二注意力掩膜分支网络中第二边缘热图模块、第二地标热图模块以及第二坐标模块进行处理,获得第二边缘热图模块输出、第二地标热图模块输出和第二坐标模块输出。
在本实施例中,将第二注意力掩膜分支网络中的边缘热图模块记为第二边缘热图模块,将地标热图模块记为第二地标热图模块,将坐标模块记为第二坐标模块,第二边缘热图模块、第二地标热图模块和第二坐标模块并联。
具体的,继续参考图3,将第二尺度特征输入到第二注意力掩膜分支网络中,分别经过第二边缘热图模块处理获得边缘热图模块输出记为第二边缘热图模块输出,经过第二地标热图模块处理获得第二地标热图模块输出,经过第二坐标模块处理获得第二坐标模块输出。
c2)将第三尺度特征输入到第三注意力掩膜分支网络中第三边缘热图模块、第三地标热图模块以及第三坐标模块进行处理,获得第三边缘热图模块输出、第三地标热图模块输出和第三坐标模块输出。
在本实施例中,将第三注意力掩膜分支网络中的边缘热图模块记为第三边缘热图模块,将地标热图模块记为第三地标热图模块,将坐标模块记为第三坐标模块,第三边缘热图模块、第三地标热图模块和第三坐标模块并联。
具体的,继续参考图3,将第三尺度特征输入到第三注意力掩膜分支网络中,分别经过第三边缘热图模块处理获得边缘热图模块输出记为第三边缘热图模块输出,经过第三地标热图模块处理获得第三地标热图模块输出,经过第三坐标模块处理获得第三坐标模块输出。
d2)根据第一边缘热图模块输出、第一地标热图模块输出、第一坐标模块输出、第二边缘热图模块输出、第二地标热图模块输出、第二坐标模块输出、第三边缘热图模块输出、第三地标热图模块输出和第三坐标模块输出,确定第一融合结果、第二融合结果和第三融合结果,并将第一融合结果、第二融合结果和第三融合结果作为训练输出结果。
需要说明的是,边缘热图模块用于对模型进行约束,区别于现有技术中在对关键点进行定位时只考虑单独每个关键点的定位,本实施例中,考虑了人脸上每个轮廓上一个关键点与另一个关键点之间的关联性,示例性,人脸外轮廓上的关键点是与相邻若干关键点符合一定的关系的。这样可以基于关键点与关键点之间的关联性来对模型进行约束。可以认为关键点误差的分布倾向于沿切线向地标曲线扩散,这种误差偏差并不是微不足道的,因为它与模糊地标标记任务密切相关。因此,本实施例中利用误差偏差特性来更好地收敛模型。
接上述描述,地标热图模块同样用于对模型进行约束,地标热图模块重点关注关键点所在的区域,关键点保持在这个区域中即可。坐标模块的输出即为关键点的坐标。本实施例中,将边缘热图模块和地标热图模块和坐标模块并联构成一个注意力掩膜分支网络,当把训练样本图像输入到特征提取模型中的骨干网络之后,会得到第一尺度特征、第二尺度特征和第三尺度特征。第一尺度特征和第二尺度特征和第三尺度特征又分别输入到对应的注意力掩膜分支网络中,以上三个尺度特征经过注意力掩膜分支网络处理的方式相同,均是通过边缘热图模块所输出的局部边缘、通过地标热图模块所输出的区域、以及地标模块所述输出的关键点坐标,三种联合约束所训练的模型,以边缘热图模块和地标热图模块辅助训练坐标模块的训练。通过引入一种注意力机制,可以得到各向异性的注意力掩膜,集中在点的区域及其相邻点连接的局部边缘上,它在切线上的响应比在法向上的响应更强,这意味着切线上的约束放宽。这两种方式以互补的方式学习面部结构和纹理细节。从而优化关键点的定位误差,提高关键点定位的准确性。
其中,将三个边缘热图模块的输出进行融合,得到第一融合结果。先在每个注意力掩膜分支网络内部对边缘热图模块输出、地标热图模块输出和坐标模块输出进行处理,再将每个注意力掩膜分支网络的最终输出进行处理,得到的结果作为第二融合结果。每个将三个地标热图模块的输出进行融合,得到第三融合结果。需要知道的是,在对模型进行训练时,得到三个输出结果;在使用已训练好的模型进行人脸关键点定位时,则只需要输出最终的关键点坐标即可,也就是只需要一个输出结果。
上述技术方案具体化了将第一尺度特征、第二尺度特征和第三尺度特征分别输入至对应的注意力掩膜分支网络中,获得训练输出结果的步骤。通过将三个尺度特征分别输入到对应的注意力掩膜分支网络中,每个注意力掩膜分支网络中均包含边缘热图模块、地标热图模块和坐标模块,从而实现对每个尺度特征都进行面部结构、纹理细节以及坐标的学习,从而优化关键点的误差。同时,将三个尺度所得到的特征再进行融合处理,可以实现多尺度特征提取,提高了关键点定位的准确性。
作为一种具体实现方式,可以优化所述根据所述第一边缘热图模块输出、所述第一地标热图模块输出、所述第一坐标模块输出、所述第二边缘热图模块输出、所述第二地标热图模块输出、所述第二坐标模块输出、所述第三边缘热图模块输出、所述第三地标热图模块输出和所述第三坐标模块输出,确定第一融合结果、第二融合结果和第三融合结果的步骤,包括:
d21)将第一边缘热图模块输出、第二边缘热图模块输出和第三边缘热图模块输出进行融合,确定第一融合结果。
具体的,继续参考图3,将三个边缘热图模块的输出进行融合,即将第一边缘热图模块输出、第二边缘热图模块输出和第三边缘热图模块输出进行融合,得到融合后的输出结果记为第一融合结果(图中记为输出1)。
d22)根据第一边缘热图模块输出、第一地标热图模块输出以及第一坐标模块输出,确定第一处理结果。
本步骤用于将第一边缘热图模块输出、第一地标热图模块输出和第一坐标模块输出进行融合处理,以起到修正第一坐标模块输出的作用,获得处理后的结果记为第一处理结果。
进一步地,可以优化所述根据所述第一边缘热图模块输出、所述第一地标热图模块输出以及所述第一坐标模块输出,确定第一处理结果的步骤,包括:
d221)将第一边缘热图模块输出输入至第一卷积模块中,获得第一卷积模块输出。
本实施例中,将第一边缘热图模块输出输入到的卷积模块记为第一卷积模块,进行特征提取后得到的输出记为第一卷积模块输出。
d222)根据第一地标热图模块输出和第一卷积模块输出,确定第一点边区域热图输出。
具体的,将第一地标热图模块输出和第一卷积模块输出进行处理,获得点边区域热图,记为第一点边区域热图输出。
示例性的,点边区域热图的处理过程可以描述为:边缘热图模块输出为x1;地标热图模块输出为x2;卷积:x3=C(x1);点边区域热图为x4:x4=x1*x3。
d223)根据第一点边区域热图输出和第一坐标模块输出,确定第一处理结果。
本步骤用于将第一点边区域热图输出和第一坐标模块输出进行融合,得到处理后的结果记为第一处理结果。示例性的,继续参考图3,点边区域热图输出和坐标模块输出进行处理的过程可以表示为:点边区域热图为x1;坐标模块输出为x2;处理结果为:x3=x1*x2。
d23)根据第二边缘热图模块输出、第二地标热图模块输出以及第二坐标模块输出,确定第二处理结果。
本步骤用于将第二边缘热图模块输出、第二地标热图模块输出和第二坐标模块输出进行融合处理,以起到修正第二坐标模块输出的作用,获得处理后的结果记为第二处理结果。
进一步地,所述根据所述第二边缘热图模块输出、所述第二地标热图模块输出以及所述第二坐标模块输出,确定第二处理结果,包括:
d231)将第二边缘热图模块输出输入至第二卷积模块中,获得第二卷积模块输出。
本实施例中,将第二边缘热图模块输出输入到的卷积模块记为第二卷积模块,进行特征提取后得到的输出记为第二卷积模块输出。
d232)根据第二地标热图模块输出和第二卷积模块输出,确定第二点边区域热图输出。
具体的,将第二地标热图模块输出和第二卷积模块输出进行处理,获得点边区域热图,记为第二点边区域热图输出。
示例性的,继续参考图3,点边区域热图的处理过程可以描述为:边缘热图模块输出为x1;地标热图模块输出为x2;卷积:x3=C(x1);点边区域热图为x4:x4=x1*x3。
d233)根据第二点边区域热图输出和第二坐标模块输出,确定第二处理结果。
本步骤用于将第二点边区域热图输出和第二坐标模块输出进行融合,得到处理后的结果记为第二处理结果。示例性的,点边区域热图输出和坐标模块输出进行处理的过程可以表示为:点边区域热图为x1;坐标模块输出为x2;处理结果为:x3=x1*x2。
d24)根据第三边缘热图模块输出、第三地标热图模块输出以及第三坐标模块输出,确定第三处理结果。
本步骤用于将第三边缘热图模块输出、第三地标热图模块输出和第三坐标模块输出进行融合处理,以起到修正第三坐标模块输出的作用,获得处理后的结果记为第三处理结果。
进一步地,所述根据所述第三边缘热图模块输出、所述第三地标热图模块输出以及所述第三坐标模块输出,确定第三处理结果,包括:
d241)将第三边缘热图模块输出输入至第三卷积模块中,获得第三卷积模块输出。
本实施例中,将第三边缘热图模块输出输入到的卷积模块记为第三卷积模块,进行特征提取后得到的输出记为第三卷积模块输出。
d242)根据第三地标热图模块输出和第三卷积模块输出,确定第三点边区域热图输出。
具体的,将第三地标热图模块输出和第三卷积模块输出进行处理,获得点边区域热图,记为第三点边区域热图输出。
示例性的,点边区域热图的处理过程可以描述为:边缘热图模块输出为x1;地标热图模块输出为x2;卷积:x3=C(x1);点边区域热图为x4:x4=x1*x3。
d243)根据第三点边区域热图输出和第三坐标模块输出,确定第三处理结果。
本步骤用于将第三点边区域热图输出和第三坐标模块输出进行融合,得到处理后的结果记为第三处理结果。示例性的,继续参考图3,点边区域热图输出和坐标模块输出进行处理的过程可以表示为:点边区域热图为x1;坐标模块输出为x2;处理结果为:x3=x1*x2。
d25)将第一处理结果、第二处理结果和第三处理结果进行融合,获得第二融合结果。
继续参考图3,具体的,将第一处理结果、第二处理结果和第三处理结果进行融合,相当于将三个注意力掩膜分支网络的三个尺度的特征进行融合,得到的结果记为第二融合结果(图中记为输出2)。
d26)将第一地标热图模块输出、第二地标热图模块输出和第三地标热图模块输出进行融合,确定第三融合结果。
具体的,继续参考图3,将三个地标热图模块的输出进行融合,即将第一地标热图模块输出、第二地标热图模块输出和第三地标热图模块输出进行融合,得到融合后的输出结果记为第三融合结果(图中记为输出3)。
上述技术方案具体化了第一融合结果、第二融合结果和第三融合结果的确定步骤,边缘热图模块和地标热图模块生成边缘点的高响应热图;具有部分边缘的目标点具有高响应,这意味着它同时包含了边缘和点的信息,可以在法向和切向各向异性上指导模型训练。因此,利用具有映射热图坐标能力的软操作,模型主要在具有切线信息的被关注的地标热图的局部区域积累地标坐标,而不是在地标热图的整个区域积累地标坐标。三个残差模块提取的边缘点高响应热图特征进行融合得到误差优化后的输出结果,降低了模型的定位误差。
实施例三
图8为本发明实施例三提供的一种人脸关键点定位方法的流程示意图,该方法可适用于对人脸图像中的关键点进行定位的情况,该方法可以由人脸关键点定位装置来执行,该装置可以采用硬件和/或软件的形式实现,可配置于电子设备中。如图8所示,本实施例一提供的人脸关键点定位方法具体可以包括以下步骤:
S301、获取待检测人脸图像。
在本实施例中,待检测人脸图像具体可以理解为需要进行人脸关键点定位的人脸图像。待检测人脸图像可以由图像采集装置采集,图像采集装置可以是照相机、录像机等,也可以是直接下载的人脸图像,本实施例中对待检测人脸图像的来源不做具体限制。
S302、将待检测人脸图像输入到目标关键点检测模型中进行检测,确定待检测人脸图像中的人脸关键点坐标。
其中,目标关键点检测模型采用如本发明任一实施例提供的模型训练方法进行训练得到,用于对人脸图像进行定位。预先根据本发明任一实施例提供的模型训练方法进行训练得到目标关键点检测模型,将待检测人脸图像输入到目标关键点检测模型中进行人脸关键点定位,获得待检测人脸图像中的人脸关键点坐标。
本实施例提供了一种人脸关键点定位方法,解决了现有技术中所采用的检测模型所定位误差较高的问题,通过本发明任一实施例提供的模型训练方法训练得到的误差优化后的目标关键点检测模型对待检测人脸图像进行检测,精准实现待检测人脸图像中的关键点定位,提高了关键点定位的准确性。
实施例四
图9为本发明实施例四提供的一种模型训练装置的结构示意图,该装置可适用于对人脸关键点检测模型进行训练的情况,该模型训练装置可配置于电子设备中,如图9所示,该装置包括:增强处理模块41、图像输入模块42、第一训练模块43以及第二训练模块44;其中,
增强处理模块41,用于对原始人脸图像进行数据增强处理,获得第一样本图像和第二样本图像;
图像输入模块42,用于将第一样本图像和第二样本图像分别输入到预先构建的特征提取模型中,获得第一输出结果和第二输出结果;
第一训练模块43,用于当训练迭代次数未达到设定的迭代次数阈值时,根据第一输出结果、第二输出结果与真实关键点标签的绝对坐标损失函数训练特征提取模型,获得初始关键点检测模型;
第二训练模块44,用于当训练迭代次数达到设定的迭代次数阈值后,根据第一输出结果与第二输出结果的相对坐标损失函数和绝对坐标损失函数训练初始关键点检测模型,获得目标关键点检测模型;
特征提取模型包括骨干网络和若干个注意力掩膜分支网络,骨干网络由预处理模块、残差模块、残差块和沙漏模块堆叠而成,每个残差块分别与一个注意力掩膜分支网络相连,注意力掩膜分支网络至少包括并行连接的边缘热图模块、地标热图模块和坐标模块。
上述技术方案,在特征提取模型的骨干网络中引入一种注意力方式可以得到训练样本图像的多个尺度特征,同时基于注意力掩膜分支网络可以得到各向异性的注意力掩膜,集中在关键点的区域及其相邻点连接的局部边缘上,从而优化关键点定位误差。另外,在模型训练时,借鉴了时序中人脸面部的变化,采用一种相对坐标损失函数,一起与绝对坐标损失联合训练模型,让模型更多的关注到时序中人脸关键点的稳定性,从而减小关键点定位误差,提高模型进行关键点定位的准确性。
可选地,增强处理模块41,具体用于:
对原始人脸图像按照第一增强方式进行数据增强处理,获得第一样本图像;
对原始人脸图像按照第二增强方式进行数据增强处理,获得第二样本图像;
第一增强方式和第二增强方式至少包括以下一种数据增强类型:旋转、水平反转、随机噪声、随机亮度、颜色变换和随机对比度。
可选地,将第一样本图像和第二样本图像记为训练样本图像,将第一输出结果和第二输出结果记为训练输出结果;
图像输入模块42,可以包括:
骨干提取单元,用于将训练样本图像输入到骨干网络中,获得第一尺度特征、第二尺度特征和第三尺度特征;
分支提取单元,用于将第一尺度特征、第二尺度特征和第三尺度特征分别输入至对应的注意力掩膜分支网络中,获得训练输出结果。
可选地,骨干提取单元,具体用于:
将训练样本图像输入到骨干网络中顺次连接的预处理模块、第一残差模块和第一残差块进行特征提取,获得第一尺度特征;
通过第一沙漏模块对第一尺度特征进行特征提取并与第一尺度特征进行融合,将融合后的特征输入至第二残差块进行特征提取,获得第二尺度特征,其中,第一残差块、第一沙漏模块和第二残差块顺次连接;
通过第二沙漏模块对第二尺度特征进行特征提取并与第二尺度特征进行融合,将融合后的特征输入至第三残差块进行特征提取,获得第三尺度特征,其中,第二残差块、第二沙漏模块和第三残差块顺次连接。
可选地,分支提取单元,包括:
第一分支提取子单元,用于将第一尺度特征输入到第一注意力掩膜分支网络中第一边缘热图模块、第一地标热图模块以及第一坐标模块进行处理,获得第一边缘热图模块输出、第一地标热图模块输出和第一坐标模块输出;
第二分支提取子单元,用于将第二尺度特征输入到第二注意力掩膜分支网络中第二边缘热图模块、第二地标热图模块以及第二坐标模块进行处理,获得第二边缘热图模块输出、第二地标热图模块输出和第二坐标模块输出;
第三分支提取子单元,用于将第三尺度特征输入到第三注意力掩膜分支网络中第三边缘热图模块、第三地标热图模块以及第三坐标模块进行处理,获得第三边缘热图模块输出、第三地标热图模块输出和第三坐标模块输出;
训练输出子单元,用于根据第一边缘热图模块输出、第一地标热图模块输出、第一坐标模块输出、第二边缘热图模块输出、第二地标热图模块输出、第二坐标模块输出、第三边缘热图模块输出、第三地标热图模块输出和第三坐标模块输出,确定第一融合结果、第二融合结果和第三融合结果,并将第一融合结果、第二融合结果和第三融合结果作为训练输出结果。
可选地,训练输出子单元,用于:
将第一边缘热图模块输出、第二边缘热图模块输出和第三边缘热图模块输出进行融合,确定第一融合结果;
根据第一边缘热图模块输出、第一地标热图模块输出以及第一坐标模块输出,确定第一处理结果;
根据第二边缘热图模块输出、第二地标热图模块输出以及第二坐标模块输出,确定第二处理结果;
根据第三边缘热图模块输出、第三地标热图模块输出以及第三坐标模块输出,确定第三处理结果;
将第一处理结果、第二处理结果和第三处理结果进行融合,获得第二融合结果;
将第一地标热图模块输出、第二地标热图模块输出和第三地标热图模块输出进行融合,确定第三融合结果。
可选地,根据第一边缘热图模块输出、第一地标热图模块输出以及第一坐标模块输出,确定第一处理结果,包括:
将第一边缘热图模块输出输入至第一卷积模块中,获得第一卷积模块输出;
根据第一地标热图模块输出和第一卷积模块输出,确定第一点边区域热图输出;
根据第一点边区域热图输出和第一坐标模块输出,确定第一处理结果;
根据第二边缘热图模块输出、第二地标热图模块输出以及第二坐标模块输出,确定第二处理结果,包括:
将第二边缘热图模块输出输入至第二卷积模块中,获得第二卷积模块输出;
根据第二地标热图模块输出和第二卷积模块输出,确定第二点边区域热图输出;
根据第二点边区域热图输出和第二坐标模块输出,确定第二处理结果;
根据第三边缘热图模块输出、第三地标热图模块输出以及第三坐标模块输出,确定第三处理结果,包括:
将第三边缘热图模块输出输入至第三卷积模块中,获得第三卷积模块输出;
根据第三地标热图模块输出和第三卷积模块输出,确定第三点边区域热图输出;
根据第三点边区域热图输出和第三坐标模块输出,确定第三处理结果。
可选地,第一训练模块43,具体用于:
将第一输出结果与对应的真实关键点标签作差,获得第一损失函数;
将第二输出结果与对应的真实关键点标签作差,获得第二损失函数;
将第一损失函数与第二损失函数求和,获得绝对坐标损失函数;
基于绝对坐标损失函数训练特征提取模型,获得初始关键点检测模型。
可选地,第二训练模块44,具体用于:
将第一输出结果与第二输出结果作差,获得相对坐标损失函数;
将相对坐标损失函数与绝对坐标损失函数进行加权处理,获得目标损失函数;
基于目标损失函数训练初始关键点检测模型,获得目标关键点检测模型。
本发明实施例所提供的模型训练装置可执行本发明任意实施例所提供的模型训练方法,具备执行方法相应的功能模块和有益效果。
实施例五
图10为本发明实施例五提供的一种人脸关键点定位装置的结构示意图,该装置可适用于对人脸图像中的关键点进行定位的情况,该人脸关键点定位装置可配置于电子设备中,如图10所示,该装置包括:图像获取模块51以及图像检测模块52;其中,
图像获取模块51,用于获取待检测人脸图像;
图像检测模块52,用于将待检测人脸图像输入到目标关键点检测模型中进行检测,确定待检测人脸图像中的人脸关键点坐标,目标关键点检测模型采用如任一实施例所述的模型训练方法进行训练得到。
上述技术方案,解决了现有技术中所采用的检测模型所定位误差较高的问题,通过本发明任一实施例提供的模型训练方法训练得到的误差优化后的目标关键点检测模型对待检测人脸图像进行检测,精准检测待检测人脸图像中的关键点定位,提高了关键点定位的准确性。
实施例六
图11为本发明实施例六提供的一种电子设备的结构示意图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备(如头盔、眼镜、手表等)和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本发明的实现。
如图11所示,电子设备60包括至少一个处理器61,以及与至少一个处理器61通信连接的存储器,如只读存储器(ROM)62、随机访问存储器(RAM)63等,其中,存储器存储有可被至少一个处理器执行的计算机程序,处理器61可以根据存储在只读存储器(ROM)62中的计算机程序或者从存储单元68加载到随机访问存储器(RAM)63中的计算机程序,来执行各种适当的动作和处理。在RAM 63中,还可存储电子设备60操作所需的各种程序和数据。处理器61、ROM 62以及RAM 63通过总线64彼此相连。输入/输出(I/O)接口65也连接至总线64。
电子设备60中的多个部件连接至I/O接口65,包括:输入单元66,例如键盘、鼠标等;输出单元67,例如各种类型的显示器、扬声器等;存储单元68,例如磁盘、光盘等;以及通信单元69,例如网卡、调制解调器、无线通信收发机等。通信单元69允许电子设备60通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
处理器61可以是各种具有处理和计算能力的通用和/或专用处理组件。处理器61的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的处理器、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。处理器61执行上文所描述的各个方法和处理,例如模型训练方法或者人脸关键点定位方法。
在一些实施例中,模型训练方法或者人脸关键点定位方法可被实现为计算机程序,其被有形地包含于计算机可读存储介质,例如存储单元68。在一些实施例中,计算机程序的部分或者全部可以经由ROM 62和/或通信单元69而被载入和/或安装到电子设备60上。当计算机程序加载到RAM 63并由处理器61执行时,可以执行上文描述的模型训练方法或者人脸关键点定位方法的一个或多个步骤。备选地,在其他实施例中,处理器61可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行模型训练方法或者人脸关键点定位方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本发明的方法的计算机程序可以采用一个或多个编程语言的任何组合来编写。这些计算机程序可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器,使得计算机程序当由处理器执行时使流程图和/或框图中所规定的功能/操作被实施。计算机程序可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本发明的上下文中,计算机可读存储介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的计算机程序。计算机可读存储介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。备选地,计算机可读存储介质可以是机器可读信号介质。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在电子设备上实施此处描述的系统和技术,该电子设备具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给电子设备。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、区块链网络和互联网。
计算系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务中,存在的管理难度大,业务扩展性弱的缺陷。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发明中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本发明的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本发明保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本发明的精神和原则之内所作的修改、等同替换和改进等,均应包含在本发明保护范围之内。
Claims (14)
1.一种模型训练方法,其特征在于,包括:
对原始人脸图像进行数据增强处理,获得第一样本图像和第二样本图像;
将所述第一样本图像和所述第二样本图像分别输入到预先构建的特征提取模型中,获得第一输出结果和第二输出结果;
当训练迭代次数未达到设定的迭代次数阈值时,根据所述第一输出结果、所述第二输出结果与真实关键点标签的绝对坐标损失函数训练所述特征提取模型,获得初始关键点检测模型;
当训练迭代次数达到设定的迭代次数阈值后,根据所述第一输出结果与所述第二输出结果的相对坐标损失函数以及所述绝对坐标损失函数训练所述初始关键点检测模型,获得目标关键点检测模型;
所述特征提取模型包括骨干网络和若干个注意力掩膜分支网络,所述骨干网络由预处理模块、残差模块、残差块和沙漏模块堆叠而成,每个所述残差块分别与一个所述注意力掩膜分支网络相连,所述注意力掩膜分支网络至少包括并行连接的边缘热图模块、地标热图模块和坐标模块。
2.根据权利要求1所述的方法,其特征在于,所述对原始人脸图像进行数据增强处理,获得第一样本图像和第二样本图像,包括:
对所述原始人脸图像按照第一增强方式进行数据增强处理,获得第一样本图像;
对所述原始人脸图像按照第二增强方式进行数据增强处理,获得第二样本图像;
所述第一增强方式和第二增强方式至少包括以下一种数据增强类型:旋转、水平反转、随机噪声、随机亮度、颜色变换和随机对比度。
3.根据权利要求1所述的方法,其特征在于,将所述第一样本图像和所述第二样本图像记为训练样本图像,将所述第一输出结果和所述第二输出结果记为训练输出结果;
所述将所述第一样本图像和所述第二样本图像分别输入到预先构建的特征提取模型中,获得第一输出结果和第二输出结果,包括:
将所述训练样本图像输入到所述骨干网络中,获得第一尺度特征、第二尺度特征和第三尺度特征;
将所述第一尺度特征、所述第二尺度特征和所述第三尺度特征分别输入至对应的所述注意力掩膜分支网络中,获得训练输出结果。
4.根据权利要求3所述的方法,其特征在于,所述将所述训练样本图像输入到所述骨干网络中,获得第一尺度特征、第二尺度特征和第三尺度特征,包括:
将所述训练样本图像输入到所述骨干网络中顺次连接的预处理模块、第一残差模块和第一残差块进行特征提取,获得第一尺度特征;
通过第一沙漏模块对所述第一尺度特征进行特征提取并与所述第一尺度特征进行融合,将融合后的特征输入至第二残差块进行特征提取,获得第二尺度特征,其中,所述第一残差块、所述第一沙漏模块和所述第二残差块顺次连接;
通过第二沙漏模块对所述第二尺度特征进行特征提取并与所述第二尺度特征进行融合,将融合后的特征输入至第三残差块进行特征提取,获得第三尺度特征,其中,所述第二残差块、所述第二沙漏模块和所述第三残差块顺次连接。
5.根据权利要求3所述的方法,其特征在于,所述将所述第一尺度特征、所述第二尺度特征和所述第三尺度特征分别输入至对应的所述注意力掩膜分支网络中,获得训练输出结果,包括:
将所述第一尺度特征输入到第一注意力掩膜分支网络中第一边缘热图模块、第一地标热图模块以及第一坐标模块进行处理,获得第一边缘热图模块输出、第一地标热图模块输出和第一坐标模块输出;
将所述第二尺度特征输入到第二注意力掩膜分支网络中第二边缘热图模块、第二地标热图模块以及第二坐标模块进行处理,获得第二边缘热图模块输出、第二地标热图模块输出和第二坐标模块输出;
将所述第三尺度特征输入到第三注意力掩膜分支网络中第三边缘热图模块、第三地标热图模块以及第三坐标模块进行处理,获得第三边缘热图模块输出、第三地标热图模块输出和第三坐标模块输出;
根据所述第一边缘热图模块输出、所述第一地标热图模块输出、所述第一坐标模块输出、所述第二边缘热图模块输出、所述第二地标热图模块输出、所述第二坐标模块输出、所述第三边缘热图模块输出、所述第三地标热图模块输出和所述第三坐标模块输出,确定第一融合结果、第二融合结果和第三融合结果,并将所述第一融合结果、所述第二融合结果和所述第三融合结果作为所述训练输出结果。
6.根据权利要求5所述的方法,其特征在于,所述根据所述第一边缘热图模块输出、所述第一地标热图模块输出、所述第一坐标模块输出、所述第二边缘热图模块输出、所述第二地标热图模块输出、所述第二坐标模块输出、所述第三边缘热图模块输出、所述第三地标热图模块输出和所述第三坐标模块输出,确定第一融合结果、第二融合结果和第三融合结果,包括:
将所述第一边缘热图模块输出、所述第二边缘热图模块输出和所述第三边缘热图模块输出进行融合,确定所述第一融合结果;
根据所述第一边缘热图模块输出、所述第一地标热图模块输出以及所述第一坐标模块输出,确定第一处理结果;
根据所述第二边缘热图模块输出、所述第二地标热图模块输出以及所述第二坐标模块输出,确定第二处理结果;
根据所述第三边缘热图模块输出、所述第三地标热图模块输出以及所述第三坐标模块输出,确定第三处理结果;
将所述第一处理结果、所述第二处理结果和所述第三处理结果进行融合,获得所述第二融合结果;
将所述第一地标热图模块输出、所述第二地标热图模块输出和所述第三地标热图模块输出进行融合,确定所述第三融合结果。
7.根据权利要求6所述的方法,其特征在于,
所述根据所述第一边缘热图模块输出、所述第一地标热图模块输出以及所述第一坐标模块输出,确定第一处理结果,包括:
将所述第一边缘热图模块输出输入至第一卷积模块中,获得第一卷积模块输出;
根据所述第一地标热图模块输出和所述第一卷积模块输出,确定第一点边区域热图输出;
根据所述第一点边区域热图输出和所述第一坐标模块输出,确定所述第一处理结果;
所述根据所述第二边缘热图模块输出、所述第二地标热图模块输出以及所述第二坐标模块输出,确定第二处理结果,包括:
将所述第二边缘热图模块输出输入至第二卷积模块中,获得第二卷积模块输出;
根据所述第二地标热图模块输出和所述第二卷积模块输出,确定第二点边区域热图输出;
根据所述第二点边区域热图输出和所述第二坐标模块输出,确定所述第二处理结果;
所述根据所述第三边缘热图模块输出、所述第三地标热图模块输出以及所述第三坐标模块输出,确定第三处理结果,包括:
将所述第三边缘热图模块输出输入至第三卷积模块中,获得第三卷积模块输出;
根据所述第三地标热图模块输出和所述第三卷积模块输出,确定第三点边区域热图输出;
根据所述第三点边区域热图输出和所述第三坐标模块输出,确定所述第三处理结果。
8.根据权利要求1所述的方法,其特征在于,所述根据所述第一输出结果、所述第二输出结果与真实关键点标签的绝对坐标损失函数训练所述特征提取模型,获得初始关键点检测模型,包括:
将所述第一输出结果与对应的所述真实关键点标签作差,获得第一损失函数;
将所述第二输出结果与对应的所述真实关键点标签作差,获得第二损失函数;
将所述第一损失函数与所述第二损失函数求和,获得所述绝对坐标损失函数;
基于所述绝对坐标损失函数训练所述特征提取模型,获得所述初始关键点检测模型。
9.根据权利要求1所述的方法,其特征在于,所述根据所述第一输出结果与所述第二输出结果的相对坐标损失函数以及所述绝对坐标损失函数训练所述初始关键点检测模型,获得目标关键点检测模型,包括:
将所述第一输出结果与所述第二输出结果作差,获得相对坐标损失函数;
将所述相对坐标损失函数与所述绝对坐标损失函数进行加权处理,获得目标损失函数;
基于所述目标损失函数训练所述初始关键点检测模型,获得目标关键点检测模型。
10.一种人脸关键点定位方法,其特征在于,包括:
获取待检测人脸图像;
将所述待检测人脸图像输入到目标关键点检测模型中进行检测,确定所述待检测人脸图像中的人脸关键点坐标,所述目标关键点检测模型采用如权利要求1-9任一项所述的模型训练方法进行训练得到。
11.一种模型训练装置,其特征在于,包括:
增强处理模块,用于对原始人脸图像进行数据增强处理,获得第一样本图像和第二样本图像;
图像输入模块,用于将所述第一样本图像和所述第二样本图像分别输入到预先构建的特征提取模型中,获得第一输出结果和第二输出结果;
第一训练模块,用于当训练迭代次数未达到设定的迭代次数阈值时,根据所述第一输出结果、所述第二输出结果与真实关键点标签的绝对坐标损失函数训练所述特征提取模型,获得初始关键点检测模型;
第二训练模块,用于当训练迭代次数达到设定的迭代次数阈值后,根据所述第一输出结果与所述第二输出结果的相对坐标损失函数以及所述绝对坐标损失函数训练所述初始关键点检测模型,获得目标关键点检测模型;
所述特征提取模型包括骨干网络和若干个注意力掩膜分支网络,所述骨干网络由预处理模块、残差模块、残差块和沙漏模块堆叠而成,每个所述残差块分别与一个所述注意力掩膜分支网络相连,所述注意力掩膜分支网络至少包括并行连接的边缘热图模块、地标热图模块和坐标模块。
12.一种人脸关键点定位装置,其特征在于,包括:
图像获取模块,用于获取待检测人脸图像;
图像检测模块,用于将所述待检测人脸图像输入到目标关键点检测模型中进行检测,确定所述待检测人脸图像中的人脸关键点坐标,所述目标关键点检测模型采用如权利要求1-9任一项所述的模型训练方法进行训练得到。
13.一种电子设备,其特征在于,包括:
至少一个处理器;以及与所述至少一个处理器通信连接的存储器;
其中,所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-10任一项所述方法。
14.一种包含计算机可执行指令的存储介质,其特征在于,所述计算机可执行指令在由计算机处理器执行时用于执行如权利要求1-10任一项所述方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410309648.0A CN117912085B (zh) | 2024-03-19 | 2024-03-19 | 模型训练方法、人脸关键点定位方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410309648.0A CN117912085B (zh) | 2024-03-19 | 2024-03-19 | 模型训练方法、人脸关键点定位方法、装置、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117912085A true CN117912085A (zh) | 2024-04-19 |
CN117912085B CN117912085B (zh) | 2024-06-14 |
Family
ID=90694182
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410309648.0A Active CN117912085B (zh) | 2024-03-19 | 2024-03-19 | 模型训练方法、人脸关键点定位方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117912085B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109255830A (zh) * | 2018-08-31 | 2019-01-22 | 百度在线网络技术(北京)有限公司 | 三维人脸重建方法和装置 |
CN111523484A (zh) * | 2020-04-24 | 2020-08-11 | 北京嘀嘀无限科技发展有限公司 | 一种人脸关键点的检测方法、装置、电子设备及存储介质 |
US20220129689A1 (en) * | 2020-10-28 | 2022-04-28 | Electronics And Telecommunications Research Institute | Method and apparatus for face recognition robust to alignment status of the face |
CN115966004A (zh) * | 2022-11-30 | 2023-04-14 | 长城信息股份有限公司 | 基于注意力指导轻量级网络的人脸关键点检测方法 |
CN116563916A (zh) * | 2023-04-25 | 2023-08-08 | 山东大学 | 基于注意力融合的循环人脸超分辨率方法及系统 |
CN116884071A (zh) * | 2023-07-18 | 2023-10-13 | 深圳市福比特智能科技有限公司 | 人脸检测方法、装置、电子设备及存储介质 |
CN117523645A (zh) * | 2024-01-08 | 2024-02-06 | 深圳市宗匠科技有限公司 | 一种人脸关键点检测方法、装置、电子设备及存储介质 |
-
2024
- 2024-03-19 CN CN202410309648.0A patent/CN117912085B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109255830A (zh) * | 2018-08-31 | 2019-01-22 | 百度在线网络技术(北京)有限公司 | 三维人脸重建方法和装置 |
CN111523484A (zh) * | 2020-04-24 | 2020-08-11 | 北京嘀嘀无限科技发展有限公司 | 一种人脸关键点的检测方法、装置、电子设备及存储介质 |
US20220129689A1 (en) * | 2020-10-28 | 2022-04-28 | Electronics And Telecommunications Research Institute | Method and apparatus for face recognition robust to alignment status of the face |
CN115966004A (zh) * | 2022-11-30 | 2023-04-14 | 长城信息股份有限公司 | 基于注意力指导轻量级网络的人脸关键点检测方法 |
CN116563916A (zh) * | 2023-04-25 | 2023-08-08 | 山东大学 | 基于注意力融合的循环人脸超分辨率方法及系统 |
CN116884071A (zh) * | 2023-07-18 | 2023-10-13 | 深圳市福比特智能科技有限公司 | 人脸检测方法、装置、电子设备及存储介质 |
CN117523645A (zh) * | 2024-01-08 | 2024-02-06 | 深圳市宗匠科技有限公司 | 一种人脸关键点检测方法、装置、电子设备及存储介质 |
Non-Patent Citations (1)
Title |
---|
亢洁;李思禹: "基于注意力机制的卷积神经网络人脸表情识别", 陕西科技大学学报, no. 04, 28 July 2020 (2020-07-28), pages 165 - 171 * |
Also Published As
Publication number | Publication date |
---|---|
CN117912085B (zh) | 2024-06-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111860573B (zh) | 模型训练方法、图像类别检测方法、装置和电子设备 | |
WO2020199931A1 (zh) | 人脸关键点检测方法及装置、存储介质和电子设备 | |
WO2020215974A1 (zh) | 用于人体检测的方法和装置 | |
CN114186632B (zh) | 关键点检测模型的训练方法、装置、设备、存储介质 | |
CN113642431A (zh) | 目标检测模型的训练方法及装置、电子设备和存储介质 | |
CN113379813A (zh) | 深度估计模型的训练方法、装置、电子设备及存储介质 | |
CN110796018A (zh) | 一种基于深度图像和彩色图像的手部运动识别方法 | |
CN113362314B (zh) | 医学图像识别方法、识别模型训练方法及装置 | |
CN115861462B (zh) | 图像生成模型的训练方法、装置、电子设备及存储介质 | |
CN113361363A (zh) | 人脸图像识别模型的训练方法、装置、设备及存储介质 | |
CN114092759A (zh) | 图像识别模型的训练方法、装置、电子设备及存储介质 | |
CN113361572A (zh) | 图像处理模型的训练方法、装置、电子设备以及存储介质 | |
CN112446322A (zh) | 眼球特征检测方法、装置、设备及计算机可读存储介质 | |
CN113705362A (zh) | 图像检测模型的训练方法、装置、电子设备及存储介质 | |
CN114463856B (zh) | 姿态估计模型的训练与姿态估计方法、装置、设备及介质 | |
CN110472673B (zh) | 参数调整方法、眼底图像处理方法、装置、介质及设备 | |
CN114120454A (zh) | 活体检测模型的训练方法、装置、电子设备及存储介质 | |
CN110909578A (zh) | 一种低分辨率图像识别方法、装置和存储介质 | |
CN111281355B (zh) | 一种用于确定脉搏采集位置的方法与设备 | |
CN117912085B (zh) | 模型训练方法、人脸关键点定位方法、装置、设备及介质 | |
CN113537187A (zh) | 文本识别方法、装置、电子设备及可读存储介质 | |
CN114461078B (zh) | 一种基于人工智能的人机交互方法 | |
CN113610856B (zh) | 训练图像分割模型和图像分割的方法和装置 | |
CN115937993A (zh) | 活体检测模型训练方法、活体检测方法、装置和电子设备 | |
CN114549904A (zh) | 视觉处理及模型训练方法、设备、存储介质及程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |