CN112101185A - 一种训练皱纹检测模型的方法、电子设备及存储介质 - Google Patents
一种训练皱纹检测模型的方法、电子设备及存储介质 Download PDFInfo
- Publication number
- CN112101185A CN112101185A CN202010951981.3A CN202010951981A CN112101185A CN 112101185 A CN112101185 A CN 112101185A CN 202010951981 A CN202010951981 A CN 202010951981A CN 112101185 A CN112101185 A CN 112101185A
- Authority
- CN
- China
- Prior art keywords
- wrinkle
- convolution
- layer
- category
- detection model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000037303 wrinkles Effects 0.000 title claims abstract description 250
- 238000001514 detection method Methods 0.000 title claims abstract description 193
- 238000012549 training Methods 0.000 title claims abstract description 111
- 238000000034 method Methods 0.000 title claims abstract description 63
- 230000006870 function Effects 0.000 claims description 69
- 238000013527 convolutional neural network Methods 0.000 claims description 17
- 238000012545 processing Methods 0.000 claims description 15
- 206010040954 Skin wrinkling Diseases 0.000 description 222
- 230000000694 effects Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 230000001815 facial effect Effects 0.000 description 4
- 230000032683 aging Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 239000002537 cosmetic Substances 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000001629 suppression Effects 0.000 description 2
- 235000009967 Erodium cicutarium Nutrition 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 210000004209 hair Anatomy 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000011148 porous material Substances 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
Abstract
本发明实施例涉及目标检测技术领域,尤其涉及一种训练皱纹检测模型的方法、电子设备及存储介质,该方法通过预训练获取初始皱纹检测模型,在初始皱纹检测模型的基础上进行训练,一方面,可以加快后续模型收敛,提高训练效率,另一方面,在初始皱纹检测模型的基础上,以调整权重的方式优化损失函数,以解决因类别和位置比例不均等带来的分类效果差的问题,从而,使得训练出的皱纹检测模型能快速准确地直接对皱纹进行分类及定位。
Description
技术领域
本发明实施例涉及目标检测技术领域,尤其涉及一种训练皱纹检测模型的方法、电子设备及存储介质。
背景技术
脸部皱纹检测技术越来越多地应用在多个领域中。例如,在化妆品研发领域中,需要针对不同的脸部皱纹特征,设计化妆产品或者推荐用户相应的化妆品。又例如,在照片美化特效领域中,需要针对不同的脸部皱纹进行不同程度的美化特效。又例如,在人脸识别中,需要根据脸部皱纹作为用户特征以验证用户身份。
当前较为常见的脸部皱纹检测技术,是通过人脸关键特征点分割出皱纹集中出现的区域,然后采用颜色规则以及二值化等处理方法对皱纹集中区域进行处理得到皱纹结果。然而,容易受脸部本身存在的一些因素的干扰,比如头发丝、粗大毛孔等的干扰。另外,只能识别出是否有皱纹,然后,不能识别出皱纹的种类。也即,没有对皱纹的类别进行精细化研究。
发明内容
本发明实施例主要解决的技术问题是提供一种训练皱纹检测模型的方法、电子设备及存储设备,训练出的皱纹检测模型能快速准确地直接对皱纹进行分类及定位。
为解决上述技术问题,第一方面,本发明实施例中提供给了一种训练皱纹检测模型的方法,包括:
获取包括人脸的图像样本;
根据所述图像样本,截取人脸区域图像,所述人脸区域图像标注有第一标签,其中,所述第一标签包括所述图像样本中的皱纹的皱纹位置和皱纹类别;
将标注有所述第一标签的人脸区域图像作为训练样本,对预设卷积神经网络进行预训练,以获取初始皱纹检测模型,其中,所述预设卷积神经网络配置有初始损失函数,所述初始损失函数为类别损失函数和位置损失函数的加权和;
调整所述类别损失函数的第一权重和所述位置损失函数的第二权重,以获取目标损失函数;
根据所述目标损失函数和所述训练样本,对所述初始皱纹检测模型进行训练,以获取皱纹检测模型。
在一些实施例中,所述皱纹类别为第一子类别和第二子类别的组合,所述第一子类别用于反馈所述皱纹的类型,所述第二子类别用于反馈所述皱纹的严重程度;
所述调整所述类别损失函数的第一权重和所述位置损失函数的第二权重,包括:
根据所述第二子类别的个数,调整所述第一权重和所述第二权重。
在一些实施例中,在所述初始损失函数中,所述第一权重和所述第二权重之间的比例为1:1。
在一些实施例中,一个所述皱纹位置对应一个所述皱纹类别,所述皱纹类别的总数量等于所述第一子类别的数量与所述第二子类别的数量之积,所述第一子类别的数量为至少一个,所述第二子类别的数量为至少两个;
所述根据所述第二子类别的个数,调整所述第一权重和所述第二权重,包括:
减小所述第一权重和所述第二权重之间的比例。
在一些实施例中,所述初始皱纹检测模型包括特征卷积层和检测卷积层;
所述根据所述目标损失函数和所述训练样本,对所述初始皱纹检测模型进行训练,获取皱纹检测模型,包括:
将所述训练样本输入至所述特征卷积层进行卷积特征处理,以获取至少两种尺寸的训练特征图;
将所述至少两种尺寸的训练特征图输入至所述检测卷积层,以获取所述训练样本的预测标签;
根据目标损失函数计算所述预测标签与所述第一标签之间的误差;
根据所述误差,调整所述初始皱纹检测模型的初始模型参数,得到所述皱纹检测模型,其中,所述初始模型参数为所述特征卷积层的卷积核参数。
在一些实施例中,所述特征卷积层包括顺序排列的第一卷积层组、第二卷积层组和第三卷积层组;
所述第一卷积层组包括第一卷积层,所述第一卷积层的深度为第一深度;
所述第二卷积层组包括至少两个第二卷积层,所述第二卷积层的深度为所述第一深度的预设倍数;
所述第三卷积层组包括至少两对卷积层对,所述至少两对卷积层依次排列,每对所述卷积层对包括顺序排列的第三卷积层和第四卷积层,所述第三卷积层的深度为所述第一深度,所述第四卷积层的深度大于任一所述第二卷积层的深度;
所述第二卷积层、所述第三卷积层和所述第四卷积层的卷积核尺寸均大于所述第一卷积层的卷积核尺寸。
为解决上述技术问题,第二方面,本发明实施例中提供给了一种检测皱纹的方法,其特征在于,包括:
获取待测人脸图像;
利用如上第一方面所述的皱纹检测模型检测所述待测人脸图像,获取所述待测人脸图像中的皱纹的皱纹位置和皱纹类别。
在一些实施例中,所述利用如上第一方面所述的皱纹检测模型检测所述待测人脸图像,获取所述待测人脸图像中的皱纹位置和皱纹类别,包括:
将所述待测人脸图像输入至所述皱纹检测模型中的特征卷积层进行卷积特征处理,以获取至少两种尺寸的待测特征图;
将所述至少两种尺寸的待测特征图输入至所述皱纹检测模型中的检测卷积层,以获取所述待测人脸图像的皱纹位置和皱纹类别;
其中:
所述特征卷积层包括顺序排列的第一卷积层组、第二卷积层组和第三卷积层组;
所述第一卷积层组包括第一卷积层,所述第一卷积层的深度为第一深度;
所述第二卷积层组包括至少两个第二卷积层,所述第二卷积层的深度为所述第一深度的预设倍数;
所述第三卷积层组包括至少两对卷积层对,所述至少两对卷积层依次排列,每对所述卷积层对包括顺序排列的第三卷积层和第四卷积层,所述第三卷积层的深度为所述第一深度,所述第四卷积层的深度大于任一所述第二卷积层的深度;
所述第二卷积层、所述第三卷积层和所述第四卷积层的卷积核尺寸均大于所述第一卷积层的卷积核尺寸。
为解决上述技术问题,第三方面,本发明实施例中提供给了一种电子设备,包括:
至少一个处理器,以及
与所述至少一个处理器通信连接的存储器,其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如上第一方面所述的方法和第二方面所述的方法。
为解决上述技术问题,第四方面,本发明实施例中提供给了一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令用于使电子设备执行如上第一方面所述的方法和如上第二方面所述的方法。
本发明实施例的有益效果:区别于现有技术的情况,本发明实施例提供的训练皱纹检测模型的方法,通过获取包括人脸的图像样本,根据所述图像样本,截取人脸区域图像,所述人脸区域图像标注有第一标签,其中,所述第一标签包括所述图像样本中的皱纹的皱纹位置和皱纹类别,将标注有所述第一标签的人脸区域图像作为训练样本,对预设卷积神经网络进行预训练,以获取初始皱纹检测模型,其中,所述预设卷积神经网络配置有初始损失函数,所述初始损失函数为类别损失函数和位置损失函数的加权和,调整所述类别损失函数的第一权重和所述位置损失函数的第二权重,以获取目标损失函数,根据所述目标损失函数和所述训练样本,对所述初始皱纹检测模型进行训练,以获取皱纹检测模型。也即,该方法通过预训练获取初始皱纹检测模型,在初始皱纹检测模型的基础上进行训练,一方面,可以加快后续模型收敛,提高训练效率,另一方面,在初始皱纹检测模型的基础上,以调整权重的方式优化损失函数,以解决因类别和位置比例不均等带来的分类效果差的问题,从而,使得训练出的皱纹检测模型能快速准确地直接对皱纹进行分类及定位。
附图说明
一个或多个实施例通过与之对应的附图中的图片进行示例性说明,这些示例性说明并不构成对实施例的限定,附图中具有相同参考数字标号的元件表示为类似的元件,除非有特别申明,附图中的图不构成比例限制。
图1为本发明实施例提供的用于训练皱纹检测模型的方法的运行环境示意图;
图2为本发明其中一实施例提供的一种电子设备的结构示意图;
图3为本发明其中一实施例提供的一种训练皱纹检测模型的方法的流程示意图;
图4为图3所示方法中截取人脸区域图像的示意图;
图5为图3所示方法中一标注有第一标签的训练样本的示意图;
图6为图3所示方法中步骤S24的一子流程示意图;
图7为图3所示方法中步骤S25的一子流程示意图;
图8为图7所示方法中多尺寸的特征图;
图9为回归特征图和分类特征图的结构示意图;
图10为本发明其中一实施例提供的检测皱纹的方法的流程示意图;
图11为图10所示方法中检测出的皱纹类别和皱纹位置的示意图;
图12为图10所示方法中步骤S32的一子流程示意图。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进。这些都属于本发明的保护范围。
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
需要说明的是,如果不冲突,本发明实施例中的各个特征可以相互结合,均在本申请的保护范围之内。另外,虽然在装置示意图中进行了功能模块划分,在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于装置中的模块划分,或流程图中的顺序执行所示出或描述的步骤。此外,本文所采用的“第一”、“第二”、“第三”等字样并不对数据和执行次序进行限定,仅是对功能和作用基本相同的相同项或相似项进行区分。
除非另有定义,本说明书所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本说明书中在本发明的说明书中所使用的术语只是为了描述具体的实施方式的目的,不是用于限制本发明。本说明书所使用的术语“和/或”包括一个或多个相关的所列项目的任意的和所有的组合。
此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
图1是本发明实施例提供的训练皱纹检测模型的方法的运行环境示意图。请参照图1,包括电子设备10和图像获取装置20,所述电子设备10和所述图像获取装置20通信连接。
所述通信连接可以是有线连接,例如:光纤电缆,也可以是无线通信连接,例如:WIFI连接、蓝牙连接、4G无线通信连接,5G无线通信连接等等。
所述图像获取装置20用于获取包括人脸的图像样本,也可用于获取待测人脸图像,所述图像获取装置20可为能够拍摄图像的终端,例如:具有拍摄功能的手机、平板电脑、录像机或摄像头等。
所述电子设备10是能够按照程序运行,自动、高速处理海量数据的设备,其通常是由硬件系统和软件系统所组成,例如:计算机、智能手机等等。所述电子设备10可以是本地设备,其直接与所述图像获取装置20连接;也可以是云设备,例如:云服务器、云主机、云服务平台、云计算平台等,云设备通过网络与所述图像获取装置20连接,并且两者通过预定的通信协议通信连接,在一些实施例,该通信协议可以是TCP/IP、NETBEUI和IPX/SPX等协议。
可以理解的是:所述图像获取装置20和所述电子设备10也可以集成在一起,作为一体式的设备,例如,带有摄像头的计算机或智能手机等。
所述电子设备10接收所述图像获取装置20发送的包括人脸的图像样本,对所述图像样本进行训练,得到皱纹检测模型,并利用所述皱纹检测模型检测所述图像获取装置20发送的待测人脸图像的皱纹位置和类别。可以理解的是,上述对所述皱纹检测模型的训练和对所述待测人脸图像的检测也可以在不同的电子设备上执行。
在上述图1的基础上,本发明的其他实施例提供了一种电子设备10,请参阅图2,为本发明实施例提供的一种电子设备10的硬件结构图,具体的,如图2所示,所述电子设备10包括通信连接的至少一个处理器11和存储器12(图2中以总线连接、一个处理器为例)。
其中,所述处理器11用于提供计算和控制能力,以控制电子设备10执行相应任务,例如,控制所述电子设备10执行下述发明实施例提供的任意一种训练皱纹检测模型的方法或下述发明实施例提供的任意一种检测皱纹的方法。
可以理解的是,所述处理器11可以是通用处理器,包括中央处理器(CentralProcessing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital Signal Processing,DSP)、专用集成电路(Application SpecificIntegrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
所述存储器12作为一种非暂态计算机可读存储介质,可用于存储非暂态软件程序、非暂态性计算机可执行程序以及模块,如本发明实施例中的训练皱纹检测模型的方法对应的程序指令/模块,或本发明实施例中检测皱纹的方法对应的程序指令/模块。所述处理器11通过运行存储在存储器12中的非暂态软件程序、指令以及模块,可以实现下述任一方法实施例中的训练皱纹检测模型的方法,以及可以实现下述任一方法实施例中的检测皱纹的方法。具体地,所述存储器12可以包括高速随机存取存储器,还可以包括非暂态存储器,例如至少一个磁盘存储器件、闪存器件、或其他非暂态固态存储器件。在一些实施例中,存储器12还可以包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至处理器。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
以下,对本发明实施例提供的训练皱纹检测模型的方法进行详细说明,请参阅图3,所述方法S20包括但不限制于以下步骤:
S21:获取包括人脸的图像样本。
所述图像样本包括人脸,可由上述图像获取装置获取,例如,所述图像样本可以为由所述图像获取装置采集到的证件照或自拍照等。可以理解的是,所述图像样本也可以是现有的开源人脸库中的数据,其中,所述开源人脸库可以为FERET人脸数据库、CMU Multi-PIE人脸数据库或YALE人脸数据库等。在此,对所述图像样本的来源不做限制,只要包括人脸即可。
S22:根据所述图像样本,截取人脸区域图像,所述人脸区域图像标注有第一标签,其中,所述第一标签包括图像样本中的皱纹的皱纹位置和皱纹类别。
所述图像样本中包括人脸和背景,其中,人脸是检测皱纹的目标区域。为了减小背景对皱纹检测的干扰,以及减小后续算法模型的训练时间,只截取人脸区域图像作为样本。如图4所示,可先通过现有的dlib工具包获取人脸框,再结合所述图像样本自身的宽高比例,将所述人脸框的宽高比例调整至所述图像样本自身的宽高比例,从而,可截取所述人脸区域图像。其中,所述dlib工具包是用于图像中的对象检测的工具,例如,将所述dlib工具包用于人脸检测。
如图5所示,所述人脸区域图像标注有第一标签,即为所述人脸区域图像打标签。其中,所述第一标签包括图样样本中的皱纹的皱纹位置和皱纹类别,图5中的标记框为第一标签中的皱纹位置。
S23:将标注有所述第一标签的人脸区域图像作为训练样本,对预设卷积神经网络进行训练,以获取初始皱纹检测模型。
将标注有所述第一标签的人脸区域图像作为训练样本,对预设卷积神经网络进行训练,通过所述预设卷积神经网络学习所述训练样本的特征和对应的标签,找到合适的模型参数,即得到所述初始皱纹检测模型。
具体的,所述预设卷积神经网络包含有若干模型参数,所述预设卷积神经网络根据大量的训练样本进行深度学习后,将所述若干模型参数由任意值转变为合适的固定值,从而,初步得到所述初始皱纹检测模型。其中,所述预设卷积神经网络是未经训练的目标检测卷积神经网络模型,例如,Blazenet网络、或YOLO网络、Resnet网络等。
其中,所述预设卷积神经网络配置有初始损失函数,所述初始损失函数为类别损失函数和位置损失函数的加权和。
例如,所述初始损失函数如下公式所示:
loss=α·class_loss+β·coord_loss
其中,class_loss为类别损失函数,coord_loss为位置损失函数,系数α为所述类别损失函数的第一权重,系数β为所述位置损失函数的第二权重。
首先,将标注有所述第一标签的人脸区域图像作为训练样本,以初始损失函数,对预设卷积神经网络进行预训练,可以得到初始模型参数,获取初始皱纹检测模型。在初始皱纹检测模型的基础上进行训练,可以加快后续模型收敛,提高训练效率,另一方面,以初始模型参数作为参考,有利于模型向误差小的方向调整模型参数。
在一些实施例中,对于所述初始损失函数,所述第一权重和所述第二权重之间的比例为1:1,也即,以所述第一权重和所述第二权重之间的比例为1:1预训练得到的初始皱纹检测模型为基础,获取到的初始模型参数,可反映第一权重和第二权重的合理性,有利于评估在后续的训练中第一权重和第二权重之间的比例的调节方向,例如,可以指导是将比例调大还是调小。此外,在所述第一权重和所述第二权重之间的比例为1:1时得到初始误差,也可作为后续训练得到的误差的参考,可以理解的是,后续训练得到的误差应小于所述初始误差。
步骤S24:调整所述类别损失函数的第一权重和所述位置损失函数的第二权重,以获取目标损失函数。
步骤S25:根据所述目标损失函数和所述训练样本,对所述初始皱纹检测模型进行训练,以获取皱纹检测模型。
在上述初始皱纹检测模型和初始损失函数的基础上,通过微调所述类别损失函数的第一权重和所述位置损失函数的第二权重,获取目标损失函数,以改善当皱纹类别和位置比例不均等时出现的分类效果差但定位准确的问题。例如,将所述第一权重设置为1,所述第二权重设置为2,得到的目标损失函数为loss=1·class_loss+2·coord_loss,或者,将所述第一权重设置为1,所述第二权重设置为3,得到的目标损失函数为loss=1·class_loss+3·coord_loss。
然后,再通过所述训练样本,对所述初始皱纹检测模型进行训练,并通过新得到的目标损失函数计算所述皱纹检测模型的误差,根据误差反向调整所述初始皱纹检测模型的初始参数,得到新的模型参数。
可以理解的是,可以多次调节所述第一权重和所述第二权重,以提升初始皱纹检测模型的精度,然后经过多次迭代训练,获得最终收敛后的皱纹检测模型。也即,通过不断调整所述第一权重和所述第二权重,即调整所述目标损失函数,对所述初始皱纹检测模型进行训练。
可以理解的是,也可根据所述皱纹类别和所述皱纹位置,结合经验,直接将所述第一权重和所述第二权重调节为预设值。
在确定所述目标损失函数后,从而,可以根据所述目标损失函数和所述训练样本,对所述初始皱纹检测模型进行训练,以获取最终的皱纹检测模型。
在本实施例中,通过预训练获取初始皱纹检测模型,在初始皱纹检测模型的基础上进行训练,一方面,可以加快后续模型收敛,提高训练效率,另一方面,在初始皱纹检测模型的基础上,以调整权重的方式优化损失函数,可以解决因类别和位置比例不均等带来的分类效果差的问题,从而,使得训练出的皱纹检测模型能快速准确地直接对皱纹进行分类及定位。
区别于现有的皱纹检测技术中仅判断是否有皱纹,本实施例中的方案将皱纹细分为皱纹种类和所述皱纹种类对应的严重程度,以方便用户详细了解自身的面部衰老情况。
具体的,在一些实施例中,所述皱纹类别为第一子类别和第二子类别的组合,所述第一子类别用于反馈所述皱纹的类型,所述第二子类别用于反馈所述皱纹的严重程度。例如,所述第一子类别包括抬头纹、眉间纹、鱼尾纹或法令纹中至少一种。所述皱纹种类是根据皱纹位于面部的部位而设置的,一个所述皱纹位置对应一个所述皱纹类别。所述皱纹类别和皱纹位置能反映面部衰老情况,以辅助用户能做出具有针对性的缓解措施,例如,保养眼部周围的皮肤,或,改掉抬眉头的习惯等。所述第二子类别包括无、轻度、中度或重度中至少一种。由此,所述皱纹类别由所述第一子类别和所述第二子类别组合后,所述皱纹类别的总数量等于所述第一子类别的数量与所述第二子类别的数量之积。所述第一子类别的数量为至少一个,所述第二子类别的数量为至少两个。从而,所述皱纹类别可最多包括16种皱纹类别。在本实施例中,将皱纹细分为最多16类,可以方便用户详细了解自身的面部衰老情况,以能及时做出具有针对性的缓解措施。
此外,在本实施例中,请参阅图6,所述步骤S24具体包括:
S241:根据所述第二子类别的个数,调整所述第一权重和所述第二权重。
例如,当所述第二子类别包括无、轻度、中度或重度这4种情况时,由于所述第一子类别和皱纹位置是一对一的关系,而第二子类别的存在,导致皱纹类别比皱纹位置多,即皱纹类别和皱纹位置不平衡。为了减小皱纹类别对误差的影响,以免因类别误差太大而造成模型的分类效果差,因此,可提高所述第二权重,以平衡所述类别误差和位置误差。具体的,可根据所述第二子类别的个数,来调整所述第一权重和第二权重,使得所述目标损失函数更为合理,训练出的皱纹检测模型更加准确。
在一些实施例中,可通过减小所述第一权重和所述第二权重之间的比例,使得第二权重相对于所述第一权重增加,例如,当所述第二子类别的个数为4时,将所述第一权重和所述第二权重之间的比例调整为1:4,以减小皱纹类别对误差的影响,提高模型的分类效果。在此1:4的权重比例下,得到的所述皱纹检测模型的准确度高,能同时兼具分类准确、定位准确。
在此实施例中,根据所述第二子类别的个数,减小所述第一权重和第二权重之间的比例,可以快速解决因类别和位置比例不均等带来的分类效果差的问题,使得所述皱纹检测模型的准确度高,能同时兼具分类准确、定位准确。
在一些实施例中,所述初始皱纹检测模型包括特征卷积层和检测卷积层,其中,所述特征卷积层用于卷积特征处理,提取图像样本中的图像特征,所述检测卷积层用于检测目标和定位目标,即检测皱纹类别和皱纹位置。
请参阅图7,所述步骤S25具体包括:
S251:将所述训练样本输入至所述特征卷积层进行卷积特征处理,以获取至少两种尺寸的训练特征图。
S252:将所述至少两种尺寸的训练特征图输入至所述检测卷积层,以获取所述训练样本的预测标签。
S253:根据目标损失函数计算所述预测标签与所述第一标签之间的误差。
S254:根据所述误差,调整所述初始皱纹检测模型的初始模型参数,得到所述皱纹检测模型,其中,所述初始模型参数为所述特征卷积层的卷积核参数。
将训练样本输入至所述特征卷积层,所述特征卷积层会以一组初始的模型参数学习训练样本的图像特征,比如形状、边缘等特征。在学习所述训练样本的图像特征后,检测卷积层会对所述训练样本的皱纹类别和皱纹位置进行预测,即可获取所述训练样本的预测标签。
例如,对于训练集[x1,x2,x3......xn],其标注的第一标签为[y1,y2,y3......yn],可以理解的是,所述训练数据x1,x2......xn均为人脸区域图像,所述第一标签y1,y2.....yn中任意一个均包括皱纹位置和皱纹类别。通过所述初始皱纹检测模型学习标注有标签的所述训练集,所述初始皱纹检测模型会生成用于识别和定位的第一皱纹检测模型。根据所述第一皱纹检测模型,计算所述训练集的预测标签[y1',y2',y3'......yn']。可知,所述预测标签是根据所述第一皱纹检测模型预测到的,因此,预测标签和标注标签(真实标签)之间的误差即可反映所述第一皱纹检测模型的精度。也即,y1与y1'之间的误差,y2与y2'之间的误差,......,yn与yn'之间的误差均反映了所述第一皱纹检测模型的精度。
根据目标损失函数计算所述预测标签[y1',y2',y3'......yn']与所述第一标签[y1,y2,y3......yn]之间的误差。从而,可根据所述误差,调整所述初始皱纹检测模型的特征卷积层的卷积核参数,得到更为准确的图像特征,从而,能够提高所述第一皱纹检测模型的精度。其中,所述卷积核参数为卷积核的权重和偏差。
如此,通过多次训练,获取误差,调整卷积核参数,迭代生成新的第一皱纹检测模型,直到所述误差收敛在一个范围内波动,则停止训练。再根据所述第一皱纹检测模型的预测效果,选取准确度最高的第一皱纹检测模型对应的卷积核参数作为最终的所述皱纹检测模型的卷积核参数。
在本实施例中,由于卷积特征处理降低了图像的空间维度和分辨率,单一尺寸的训练特征图不能满足多尺寸的目标的检测。为了兼顾大尺寸目标(例如抬头纹)和小尺寸目标(例如鱼尾纹)的检测,在本实施例中,采用多尺度的训练特征图进行训练,即通过对所述训练样本以所述预设卷积神经网络中的特征卷积层进行卷积特征处理,每一卷积层对应一训练特征图。在多个训练特征图中选择至少两种尺寸的训练特征图,在所述至少两种尺寸的训练特征图上分别执行独立的目标检测(皱纹类别和皱纹位置)。
例如,如图8所示,针对所述训练样本中的任何一张人脸区域图像C,经所述特征卷积层处理后,可以得到128*128、64*64、32*32、16*16和8*8等多个尺寸的训练特征图,选择其中16*16、8*8这两种尺寸的训练特征图分别通过所述检测卷积层实现独立的目标检测,得到检测出的皱纹类别和皱纹位置,即为所述人脸区域图像C的预测标签。对所述训练样本中的任何一张人脸区域图像均经过上述特征处理和检测识别,即可获取所述训练样本的预测标签。
具体的,所述16*16、8*8这两种尺寸中的训练特征图分别对应的k值为[2,6],即所述16*16训练特征图中的每个像素有2个检测框,所述8*8训练特征图中的每个像素有6个检测框,从而,对于一个人脸区域图像,总共的检测框的数量为(2*16*16+6*8*8)=896个,即每张人脸区域图像对应有896个检测框。所述检测框反映了训练特征图中一像素点在所述人脸区域图像(原始训练图)上映射的区域中的皱纹情况,其中,皱纹情况包括皱纹位置、皱纹类别以及皱纹类别对应的置信度,并且,皱纹类别对应的置信度用于反馈该检测框在所述人脸区域图像中框住的像素区域为皱纹类别的可能性。例如,对于训练特征图中的像素点A,其有6个检测框,每个检测框对应一个位置、一个类别、以及类别的置信度(即类别的概率),其中,像素点A的检测框1的位置为(x1,y1,w1,h1),皱纹类别为中度抬头纹,皱纹类别对应的置信度为90%,即所述像素点A在原人脸区域图像上映射的区域中,被位置(x1,y1,w1,h1)所述框住的像素区域为中度抬头纹的概率为90%。
具体的,将这两种尺寸的训练特征图分别通过检测卷积层,其中检测卷积层的卷积核大小为3*3,所述检测卷积层包括回归卷积层和分类卷积层,也即,上述两种尺寸的训练特征图分别进行回归卷积和分类卷积,每一训练特征图均得到回归特征图和分类特征图,所述回归特征图用于预测所述检测框的位置(中心坐标和长宽),所述分类特征图用于预测所述检测框的类别。
所述回归特征图和分类特征图均是三维的。如图9所示,对于16*16的训练特征图,其回归特征图的维度是2*4*16*16,其中,2为上述K值,4表示检测框的中心坐标(center-x,center-y)以及所述预测框的宽高(w,h),则一个像素点对应8个回归值,每个检测框对应4个回归参数(center-x,center-y,w,h)。其分类特征图的维度是2*num_class*16*16,其中,2为上述K值,num_class表示类别的个数,则一个像素点对应2*num_class个分类值。
同理,对于8*8的训练特征图,其回归特征图的维度是6*4*8*8,其中,6为上述K值,4表示检测框的中心坐标(x,y)以及所述检测框的宽高(w,h),则一个像素点对应6*4=24个回归值,每个检测框对应4个回归参数(x,y,w,h)。其分类特征图的维度是6*num_class*8*8,其中,6为上述K值,num_class表示类别的个数,则一个像素点对应6*num_class个分类值。
从而,当类别num_class=1时,回归参数的维度为896*4=3584,分类参数的维度为896,则在多类别的情况下,num_class=n,回归参数的维度为n*3548,分类参数的维度为n*896。即,所述初始皱纹检测模型会输出n*3548个预测到的回归参数、n*896预测到的类别以及对应的类别置信度。
然后,根据上述初始皱纹检测模型的输出结果,结合目标损失函数,计算输出结果与第一标签之间误差。可以理解的是,在上述计算输出结果与第一标签之间的误差时,可通过现有的并交比函数(IOU函数)计算检测框与第一标签(真实框)的并交比,取并交比满足预设条件的检测框参与误差计算,例如,取并交比大于0.5的检测框参与误差计算。
最后,所述初始皱纹检测模型根据所述误差即可反向调整初始模型参数,在确定新的模型参数后,即可得到所述皱纹检测模型。
在本实施例中,利用多尺寸的训练特征图进行检测,可消除图像的空间维度和分辨率对检测结果的影响,能兼顾多种尺寸的目标,即,能满足大尺寸目标(例如抬头纹)的检测和小尺寸目标(例如鱼尾纹)的检测,检测精度高。
可以理解的是,所述特征卷积层可以是所述初始皱纹检测模型的基础卷积层框架。
在一些实施例中,所述初始皱纹检测模型的特征卷积层如下所示:
所述特征卷积层包括按顺序排列的第一卷积层组,第二卷积层组和第三卷积层组,其中,所述第一卷积层组包括第一卷积层,例如,所述第一卷积层为上述特征卷积层_CONV_DEFS中的Conv(kernel=[3,3],stride=2,depth=32),所述第一卷积层的深度为第一深度,例如,32,代表所述第一卷积层中有32个卷积核。所述第一卷积层中卷积核大小为3*3,卷积核的步长为2。卷积层中的卷积核数量直接影响提取到的图像特征,卷积核越多,图像特征越全面。可以理解的是,所述第一深度是根据大量实验而确定的。
所述第二卷积层组包括至少两个第二卷积层,所述第二卷积层的深度为所述第一深度的预设倍数,即以所述第一深度为基础,按预设比例增加,得到所述第二卷积层的深度。例如,所述第二卷积层组包括上述特征卷积层_CONV_DEFS中的:
DepthSepConv(kernel=[5,5],stride=1,depth=32),
DepthSepConv(kernel=[5,5],stride=1,depth=32),
DepthSepConv(kernel=[5,5],stride=2,depth=64),
DepthSepConv(kernel=[5,5],stride=1,depth=64),
DepthSepConv(kernel=[5,5],stride=1,depth=64),
在上述例子中,所述第二卷尺层的深度为所述第一深度的1倍或2倍,即第二卷积层的深度为32或64,从而,通过所是第二卷积层组可提取到更多的图像特征。
所述第三卷积层组包括至少两对卷积层对,所述至少两对卷积层依次排列,每对所述卷积层对包括顺序排列的第三卷积层和第四卷积层,所述第三卷积层的深度为所述第一深度,所述第四卷积层的深度大于任一所述第二卷积层的深度。例如,所述第三卷积层组包括上述特征卷积层_CONV_DEFS中的:
DepthSepConv(kernel=[5,5],stride=2,depth=32),
DepthSepConv(kernel=[5,5],stride=1,depth=128),
DepthSepConv(kernel=[5,5],stride=1,depth=32),
DepthSepConv(kernel=[5,5],stride=1,depth=128),
DepthSepConv(kernel=[5,5],stride=2,depth=32),
DepthSepConv(kernel=[5,5],stride=1,depth=128),
DepthSepConv(kernel=[5,5],stride=1,depth=32),
DepthSepConv(kernel=[5,5],stride=1,depth=128),
DepthSepConv(kernel=[5,5],stride=1,depth=32),
DepthSepConv(kernel=[5,5],stride=1,depth=128),
DepthSepConv(kernel=[5,5],stride=1,depth=32),
DepthSepConv(kernel=[5,5],stride=1,depth=128)
在上述例子中,所述第三卷积层的深度为第一深度,例如32,所述第四卷积层的深度为128。在所述第三卷积层组中,由32深度的卷积层和128深度的卷积层交错设置,并由浅到深映射,一方面,可避免因卷积层的深度越来大而造成的特征丢失,另一方面,可减少计算量,增加模型的训练速度。
此外,所述第二卷积层、所述第三卷积层和所述第四卷积层的卷积核尺寸均大于所述第一卷积层的卷积核尺寸。在上述例子中,所述第一卷积层的卷积核大小为3*3,对输入的所述人脸区域图像进行初步的特征提取。所述第二卷积层、所述第三卷积层和所述第四卷积层的卷积核大小均为5*5,5*5的卷积核的感受野相对较大,能获取更多的图像信息,从而,所获得的全局特征也较好。
并且,为了减少计算成本,所述第一卷积层为常规卷积层,所述第二卷积层组和所述第三卷积层组中的卷积层均为深度可分离卷积层。相同卷积核的卷积运算,深度可分离卷积层比常规卷积层的计算成本低,并且,对于相同的参数计算量,使用深度可分离卷积层可以构造更深的网络模型。
值得说明的是,上述特征卷积层的设置规律均是通过大量实验模拟后获得的。
在本实施例中,上述特征卷积层能够增加模型的深度,使得模型提取到更加全面的图像特征,并且还具有较小的计算量。
可以理解的是,若所述预设卷积神经网络为YOLO或Resnet等网络,则可用YOLO或Resnet等网络各自原有的特征卷积层,或基于所述YOLO或Resnet等网络各自原有的特征卷积层改进后得到的特征卷积层进行特征处理,并以上述相同的预训练并结合调整权重的方式进行训练,调节模型参数,训练出最终的所述预设皱纹检测模型。
综上所述,本发明实施例提供的检测皱纹的方法,通过所述预设皱纹检测模型,对待测人脸图像进行检测,能直接定位出皱纹类别和皱纹位置,从而,能快速准确地直接对皱纹进行定位及分类,有助于用户针对不同类别的皱纹和对应的皱纹位置,做出更加精细化的护理。
以下,对本发明实施例所提供的检测皱纹的方法进行详细说明,请参阅图10,所述方法S30包括但不限制于以下步骤:
S31:获取待测人脸图像。
S32:利用上述任一项实施例中的皱纹检测模型检测所述待测人脸图像,获取所述待测人脸图像中的皱纹的皱纹位置和皱纹类别。
所述待测人脸图像为人脸面部图像,可由上述图像获取装置20获取,例如,所述待测人脸图像可以为对所述图像获取装置20采集到的证件照或自拍照等(初始待测人脸图像)进行截取人脸区域后获取的人脸面部图像。在此,不对所述待测人脸图像的来源做任何限制,为人脸面部图像即可。
可以理解的是,当初始待测人脸图像还包括背景时,例如上述证件照或自拍照还包括背景,可先通过现有的dlib工具包获取人脸框,再结合所述初始待测人脸图像自身的宽高比例,将所述人脸框的宽高比例调整至所述初始待测人脸图像自身的宽高比例,从而,截取人脸面部图像,并作为最终的所述待测人脸图像。通过上述方式,截取人脸面部图像,去除所述待测人脸图像的背景,能够减小背景对皱纹检测的干扰,提高检测的准确率。
将所述待测人脸图像输入所述皱纹检测模型,即可获取所述待测人脸图像中的皱纹位置和皱纹类别。例如,如图11所示,将待测人脸图像A输入所述皱纹检测模型,经特征处理后,检测出所述待测人脸图像A中存在的皱纹是:轻度抬头纹、无鱼尾纹、无眉间纹以及轻度法令纹,图4中的标记框为各皱纹种类对应的位置。
可以理解的是,所述皱纹检测模型是通过上述实施例中训练皱纹检测模型的方法训练得到的,与上述实施例中的皱纹检测模型的结构和功能均相同,在此不再一一赘述。
在本实施例中,通过所述皱纹检测模型,对待测人脸图像进行检测,能直接定位出皱纹类别和皱纹位置,从而,能快速准确地直接对皱纹进行定位及分类,有助于用户针对皱纹的类别的位置,做出更加精细化的护理。
在一些实施例中,请参阅图12,所述步骤S32具体包括:
S321:将所述待测人脸图像输入至所述皱纹检测模型中的特征卷积层进行卷积特征处理,以获取至少两种尺寸的待测特征图。
S322:将所述至少两种尺寸的待测特征图输入至所述皱纹检测模型中的检测卷积层,以获取所述待测人脸图像的皱纹位置和皱纹类别。
其中,所述特征卷积层包括顺序排列的第一卷积层组、第二卷积层组和第三卷积层组;
所述第一卷积层组包括第一卷积层,所述第一卷积层的深度为第一深度;
所述第二卷积层组包括至少两个第二卷积层,所述第二卷积层的深度为所述第一深度的预设倍数;
所述第三卷积层组包括至少两对卷积层对,所述至少两对卷积层依次排列,每对所述卷积层对包括顺序排列的第三卷积层和第四卷积层,所述第三卷积层的深度为所述第一深度,所述第四卷积层的深度大于任一所述第二卷积层的深度;
所述第二卷积层、所述第三卷积层和所述第四卷积层的卷积核尺寸均大于所述第一卷积层的卷积核尺寸。
也即,所述皱纹检测模型中的特征卷积层与上述初始皱纹检测模型中的特征卷积层的结构相同,检测过程中的特征提取方式与训练过程中的特性提取方式也相同。首先,通过所述第一卷积层组,初步提取所述待测人脸图像的轮廓特征,再通过深度较大的所述第二卷积层组提取更多的图像特征,进而,再通过深度由浅到深交错设置的第三卷积层组提取图像特征,一方面,可避免因卷积层的深度越来大而造成的特征丢失,另一方面,可减少计算量,增加模型的检测速度。
此外,所述第二卷积层、所述第三卷积层和所述第四卷积层的卷积核尺寸均大于所述第一卷积层的卷积核尺寸。所述第二卷积层、所述第三卷积层和所述第四卷积层的卷积核尺寸较大,较大尺寸的卷积核的感受野相对较大,能获取更多的图像信息,从而,所获得的全局特征也较好。
将这两种尺寸的待测特征图分别输入至所述皱纹检测模型的检测卷积层,所述检测卷积层包括回归卷积层和分类卷积层,也即,上述两种尺寸的待测特征图分别进行回归卷积和分类卷积,每一待测特征图均得到回归特征图和分类特征图,所述回归特征图用于预测所述待测特征图的检测框的位置(中心坐标和长宽),所述分类特征图用于预测所述待测特征图的检测框的类别。
例如,16*16、8*8这两种尺寸中的待测特征图分别对应的k值为[2,6],即所述16*16待测特征图中的每个像素有2个检测框,所述8*8待测特征图中的每个像素有6个检测框,从而,对于一个所述待测人脸图像,总共的检测框的数量为(2*16*16+6*8*8)=896个。所述待测特征图的检测框反映了所述待测特征图中每个像素点在所述待测人脸图像上映射的区域中的皱纹情况,所述皱纹情况包括皱纹位置、皱纹类别、和皱纹类别对应的置信度,并且,皱纹类别对应的置信度用于反馈该检测框在所述待测人脸图像中框住的像素区域为皱纹类别的可能性。
最后,通过现有的非极大值抑制算法(NMS),对每一像素点对应的检测框,按所述类别置信度降序排列所述检测框,选取每一类别中类别置信度最高的检测框,作为该类别的位置,即确定了该类别的坐标,并输出检测结果(皱纹位置和皱纹类别)。例如,在上述896个检测框中,若其中有200个检测框的类别为中度抬头纹,在这200个检测框中每一检测框均有各自的类别置信度(即表示检测框中是中度抬头纹的概率),通过非极大值抑制算法,对200个检测框按置信度排序,并从这200个检测框中选出类别置信度最大的检测框B作为最终的预测结果,即,将检测框B的位置(xb,yb,wb,hb)作为最终预测出的抬头纹的位置,检测框B对应的类别(中度抬头纹)作为最终预测出的类别。
在本实施例中,利用多尺寸的待测特征图进行检测,可消除图像的空间维度和分辨率对检测结果的影响,能兼顾多种尺寸的目标,即,能满足大尺寸目标(例如抬头纹)的检测和小尺寸目标(例如鱼尾纹)的检测,检测精度高。
本发明其中一实施例还提供了一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令用于使电子设备执行,例如,执行以上描述的图3-图12中的方法。
本发明实施例提供了一种计算机程序产品,包括存储在非易失性计算机可读存储介质上的计算程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,使所述计算机执行上述任意方法实施例中的检测皱纹的方法,例如,执行以上描述的图3-图12中方法步骤。
需要说明的是,以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
通过以上的实施方式的描述,本领域普通技术人员可以清楚地了解到各实施方式可借助软件加通用硬件平台的方式来实现,当然也可以通过硬件。本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random Access Memory,RAM)等。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;在本发明的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,步骤可以以任意顺序实现,并存在如上所述的本发明的不同方面的许多其它变化,为了简明,它们没有在细节中提供;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (10)
1.一种训练皱纹检测模型的方法,其特征在于,包括:
获取包括人脸的图像样本;
根据所述图像样本,截取人脸区域图像,所述人脸区域图像标注有第一标签,其中,所述第一标签包括所述图像样本中的皱纹的皱纹位置和皱纹类别;
将标注有所述第一标签的人脸区域图像作为训练样本,对预设卷积神经网络进行预训练,以获取初始皱纹检测模型,其中,所述预设卷积神经网络配置有初始损失函数,所述初始损失函数为类别损失函数和位置损失函数的加权和;
调整所述类别损失函数的第一权重和所述位置损失函数的第二权重,以获取目标损失函数;
根据所述目标损失函数和所述训练样本,对所述初始皱纹检测模型进行训练,以获取皱纹检测模型。
2.根据权利要求1所述的方法,其特征在于,所述皱纹类别为第一子类别和第二子类别的组合,所述第一子类别用于反馈所述皱纹的类型,所述第二子类别用于反馈所述皱纹的严重程度;
所述调整所述类别损失函数的第一权重和所述位置损失函数的第二权重,包括:
根据所述第二子类别的个数,调整所述第一权重和所述第二权重。
3.根据权利要求2所述的方法,其特征在于,在所述初始损失函数中,所述第一权重和所述第二权重之间的比例为1:1。
4.根据权利要求2或3所述的方法,其特征在于,一个所述皱纹位置对应一个所述皱纹类别,所述皱纹类别的总数量等于所述第一子类别的数量与所述第二子类别的数量之积,所述第一子类别的数量为至少一个,所述第二子类别的数量为至少两个;
所述根据所述第二子类别的个数,调整所述第一权重和所述第二权重,包括:
减小所述第一权重和所述第二权重之间的比例。
5.根据权利要求1所述的方法,其特征在于,所述初始皱纹检测模型包括特征卷积层和检测卷积层;
所述根据所述目标损失函数和所述训练样本,对所述初始皱纹检测模型进行训练,获取皱纹检测模型,包括:
将所述训练样本输入至所述特征卷积层进行卷积特征处理,以获取至少两种尺寸的训练特征图;
将所述至少两种尺寸的训练特征图输入至所述检测卷积层,以获取所述训练样本的预测标签;
根据目标损失函数计算所述预测标签与所述第一标签之间的误差;
根据所述误差,调整所述初始皱纹检测模型的初始模型参数,得到所述皱纹检测模型,其中,所述初始模型参数为所述特征卷积层的卷积核参数。
6.根据权利要求5所述的方法,其特征在于,所述特征卷积层包括顺序排列的第一卷积层组、第二卷积层组和第三卷积层组;
所述第一卷积层组包括第一卷积层,所述第一卷积层的深度为第一深度;
所述第二卷积层组包括至少两个第二卷积层,所述第二卷积层的深度为所述第一深度的预设倍数;
所述第三卷积层组包括至少两对卷积层对,所述至少两对卷积层依次排列,每对所述卷积层对包括顺序排列的第三卷积层和第四卷积层,所述第三卷积层的深度为所述第一深度,所述第四卷积层的深度大于任一所述第二卷积层的深度;
所述第二卷积层、所述第三卷积层和所述第四卷积层的卷积核尺寸均大于所述第一卷积层的卷积核尺寸。
7.一种检测皱纹的方法,其特征在于,包括:
获取待测人脸图像;
利用如权利要求1-6任一项所述的皱纹检测模型检测所述待测人脸图像,获取所述待测人脸图像中的皱纹的皱纹位置和皱纹类别。
8.根据权利要求7所述的方法,其特征在于,所述利用如权利要求1-6任一项所述的皱纹检测模型检测所述待测人脸图像,获取所述待测人脸图像中的皱纹位置和皱纹类别,包括:
将所述待测人脸图像输入至所述皱纹检测模型中的特征卷积层进行卷积特征处理,以获取至少两种尺寸的待测特征图;
将所述至少两种尺寸的待测特征图输入至所述皱纹检测模型中的检测卷积层,以获取所述待测人脸图像的皱纹位置和皱纹类别;
其中:
所述特征卷积层包括顺序排列的第一卷积层组、第二卷积层组和第三卷积层组;
所述第一卷积层组包括第一卷积层,所述第一卷积层的深度为第一深度;
所述第二卷积层组包括至少两个第二卷积层,所述第二卷积层的深度为所述第一深度的预设倍数;
所述第三卷积层组包括至少两对卷积层对,所述至少两对卷积层依次排列,每对所述卷积层对包括顺序排列的第三卷积层和第四卷积层,所述第三卷积层的深度为所述第一深度,所述第四卷积层的深度大于任一所述第二卷积层的深度;
所述第二卷积层、所述第三卷积层和所述第四卷积层的卷积核尺寸均大于所述第一卷积层的卷积核尺寸。
9.一种电子设备,其特征在于,包括:
至少一个处理器,以及
与所述至少一个处理器通信连接的存储器,其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-8任一项所述的方法。
10.一种非暂态计算机可读存储介质,其特征在于,所述非暂态计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令用于使电子设备执行如权利要求1-8任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010951981.3A CN112101185A (zh) | 2020-09-11 | 2020-09-11 | 一种训练皱纹检测模型的方法、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010951981.3A CN112101185A (zh) | 2020-09-11 | 2020-09-11 | 一种训练皱纹检测模型的方法、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112101185A true CN112101185A (zh) | 2020-12-18 |
Family
ID=73751358
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010951981.3A Pending CN112101185A (zh) | 2020-09-11 | 2020-09-11 | 一种训练皱纹检测模型的方法、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112101185A (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090069739A1 (en) * | 2007-09-07 | 2009-03-12 | Ehab Mohamed | Methodology for non-surgical facial sculpting and lift |
WO2019128646A1 (zh) * | 2017-12-28 | 2019-07-04 | 深圳励飞科技有限公司 | 人脸检测方法、卷积神经网络参数的训练方法、装置及介质 |
CN110287930A (zh) * | 2019-07-01 | 2019-09-27 | 厦门美图之家科技有限公司 | 皱纹分类模型训练方法及装置 |
CN110555830A (zh) * | 2019-08-15 | 2019-12-10 | 浙江工业大学 | 基于DeepLabv3+的深度神经网络皮肤检测方法 |
-
2020
- 2020-09-11 CN CN202010951981.3A patent/CN112101185A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090069739A1 (en) * | 2007-09-07 | 2009-03-12 | Ehab Mohamed | Methodology for non-surgical facial sculpting and lift |
WO2019128646A1 (zh) * | 2017-12-28 | 2019-07-04 | 深圳励飞科技有限公司 | 人脸检测方法、卷积神经网络参数的训练方法、装置及介质 |
CN110287930A (zh) * | 2019-07-01 | 2019-09-27 | 厦门美图之家科技有限公司 | 皱纹分类模型训练方法及装置 |
CN110555830A (zh) * | 2019-08-15 | 2019-12-10 | 浙江工业大学 | 基于DeepLabv3+的深度神经网络皮肤检测方法 |
Non-Patent Citations (2)
Title |
---|
周仿荣;方明;马御棠;潘浩;: "基于YOLO v3的输电线路缺陷快速检测方法", 云南电力技术, no. 04 * |
戴蓉;: "基于面部生理特征和深度学习的表情识别方法", 重庆理工大学学报(自然科学), no. 06 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200334830A1 (en) | Method, apparatus, and storage medium for processing video image | |
CN107784282B (zh) | 对象属性的识别方法、装置及系统 | |
CN108304820B (zh) | 一种人脸检测方法、装置及终端设备 | |
CN112232293B (zh) | 图像处理模型训练、图像处理方法及相关设备 | |
US8792722B2 (en) | Hand gesture detection | |
US8750573B2 (en) | Hand gesture detection | |
US20210303919A1 (en) | Image processing method and apparatus for target recognition | |
CN111160269A (zh) | 一种人脸关键点检测方法及装置 | |
WO2020078119A1 (zh) | 模拟用户穿戴服装饰品的方法、装置和系统 | |
CN110889446A (zh) | 人脸图像识别模型训练及人脸图像识别方法和装置 | |
CN106778453B (zh) | 人脸图像中检测眼镜佩戴的方法及装置 | |
CN111985458B (zh) | 一种检测多目标的方法、电子设备及存储介质 | |
CN110852257B (zh) | 一种人脸关键点的检测方法、装置及存储介质 | |
CN111008935B (zh) | 一种人脸图像增强方法、装置、系统及存储介质 | |
CN111062328A (zh) | 一种图像处理方法、装置及智能机器人 | |
CN113255561B (zh) | 头发信息识别方法、装置、设备及存储介质 | |
CN110222718A (zh) | 图像处理的方法及装置 | |
CN112836625A (zh) | 人脸活体检测方法、装置、电子设备 | |
CN108492301A (zh) | 一种场景分割方法、终端及存储介质 | |
CN114677730A (zh) | 活体检测方法、装置、电子设备及存储介质 | |
WO2023279799A1 (zh) | 对象识别方法、装置和电子系统 | |
CN113569598A (zh) | 图像处理方法和图像处理装置 | |
CN109087240B (zh) | 图像处理方法、图像处理装置及存储介质 | |
CN111860601B (zh) | 预测大型真菌种类的方法及装置 | |
CN113780145A (zh) | 精子形态检测方法、装置、计算机设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |