CN116502700A - 皮肤检测模型训练方法、皮肤检测方法、装置及电子设备 - Google Patents

皮肤检测模型训练方法、皮肤检测方法、装置及电子设备 Download PDF

Info

Publication number
CN116502700A
CN116502700A CN202310410734.6A CN202310410734A CN116502700A CN 116502700 A CN116502700 A CN 116502700A CN 202310410734 A CN202310410734 A CN 202310410734A CN 116502700 A CN116502700 A CN 116502700A
Authority
CN
China
Prior art keywords
function value
loss function
sample
model
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310410734.6A
Other languages
English (en)
Inventor
马建杰
李志阳
李启东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiamen Meitu Yifu Technology Co ltd
Original Assignee
Xiamen Meitu Yifu Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiamen Meitu Yifu Technology Co ltd filed Critical Xiamen Meitu Yifu Technology Co ltd
Priority to CN202310410734.6A priority Critical patent/CN116502700A/zh
Publication of CN116502700A publication Critical patent/CN116502700A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本申请提供一种皮肤检测模型训练方法、皮肤检测方法、装置及电子设备,涉及图像处理技术领域。该方法包括:获取第一样本面部图像;采用教师模型和学生模型对第一样本面部图像识别,得到第一预测面部敏感区域和第二预测面部敏感区域;根据第一预测面部敏感区域和第二预测面部敏感区域计算第一对比损失函数值;根据第二预测面部敏感区域和样本面部敏感区域计算第一分割损失函数值;根据第一对比损失函数值和第一分割损失函数值计算总损失函数值;根据总损失函数值更新学生模型的网络参数;根据学生模型的更新后网络参数,对教师模型的网络参数更新,得到皮肤检测模型。本申请可以提高模型的训练效率,提高模型精度,并增强模型稳定性和泛化性。

Description

皮肤检测模型训练方法、皮肤检测方法、装置及电子设备
技术领域
本发明涉及图像处理技术领域,具体而言,涉及一种皮肤检测模型训练方法、皮肤检测方法、装置及电子设备。
背景技术
人脸皮肤的敏感区域是人脸皮肤敏感的主要外在表现,是衡量人脸皮肤敏感程度的重要指标。
请参考图1,为传统的网络训练流程框图,如图1所示,根据网络输出结果的分割损失进行反向梯度传播,更新网络参数,传统的网络训练流程,由于只利用分割损失对网络的参数进行更新,导致网络的训练收敛速度很慢,模型精度较低,且稳定性和泛化性较差。
发明内容
本发明的目的在于,针对上述现有技术中的不足,提供一种皮肤检测模型训练方法、皮肤检测方法、装置及电子设备,以便提高模型的训练效率,提高模型精度,并增强模型稳定性和泛化性。
为实现上述目的,本申请实施例采用的技术方案如下:
第一方面,本申请实施例提供了一种皮肤检测模型训练方法,所述方法包括:
获取当前次训练的样本面部图像集,所述样本面部图像集中包括:具有样本标签的第一样本面部图像,所述样本标签用于指示所述第一样本面部图像中的样本面部敏感区域;
采用待训练的教师模型和待训练的学生模型分别对所述第一样本面部图像进行识别,得到第一预测面部敏感区域和第二预测面部敏感区域;
根据所述第一预测面部敏感区域和所述第二预测面部敏感区域计算第一对比损失函数值;
根据所述第二预测面部敏感区域和所述样本面部敏感区域计算第一分割损失函数值;
根据所述第一对比损失函数值和所述第一分割损失函数值,计算总损失函数值;
根据所述总损失函数值,更新所述学生模型的网络参数;
根据所述学生模型的更新后网络参数,对所述教师模型的网络参数进行更新,得到皮肤检测模型。
可选的,所述方法还包括:
对所述第一样本面部图像进行随机仿射变换,生成第一样本形变图像;
采用所述学生模型对所述第一样本形变图像进行识别,得到第三预测面部敏感区域;
根据所述第二预测面部敏感区域和所述第三预测面部敏感区域计算第一形变损失函数值;
所述根据所述第一对比损失函数值和所述第一分割损失函数值,计算总损失函数值,包括:
根据所述第一对比损失函数值、所述第一分割损失函数值和所述第一形变损失函数值,计算总损失函数值。
可选的,所述第一样本形变图像标注有样本形变敏感区域,所述方法还包括:
根据所述第三预测面部敏感区域和所述样本形变敏感区域计算第二分割损失函数值;
所述根据所述第一对比损失函数值和所述第一分割损失函数值,计算总损失函数值,包括:
根据所述第一对比损失函数值、所述第一分割损失函数值、所述第一形变损失函数值和所述第二分割损失函数值,计算总损失函数值。
可选的,所述样本面部图像集中还包括:不具有样本标签的第二样本面部图像,所述方法还包括:
采用所述教师模型和所述学生模型分别对所述第二样本面部图像进行识别,得到第四预测面部敏感区域和第五预测面部敏感区域;
根据所述第四预测面部敏感区域和所述第五预测面部敏感区域计算第二对比损失函数值;
所述根据所述对比损失函数值和所述第一分割损失函数值,计算总损失函数值,包括:
根据所述第一对比损失函数值、所述第一分割损失函数值以及所述第二对比损失函数值,计算总损失函数值。
可选的,所述方法还包括:
对所述第二样本面部图像进行随机仿射变换,生成第二样本形变图像;
采用所述学生模型对所述第二样本形变图像进行识别,得到第六预测面部敏感区域;
根据所述第五预测面部敏感区域和所述第六预测面部敏感区域计算第二形变损失函数值;
所述根据所述第一对比损失函数值和所述第一分割损失函数值,计算总损失函数值,包括:
根据所述第一对比损失函数值、所述第一分割损失函数值、所述第二对比损失函数值以及所述第二形变损失函数值,计算总损失函数值。
可选的,所述根据所述学生模型的更新后网络参数,对所述教师模型的网络参数进行更新,得到皮肤检测模型,包括:
根据所述学生模型更新后的网络参数,采用预设的指数移动平均算法,对所述教师模型的网络参数进行更新,得到皮肤检测模型。
第二方面,本申请实施例还提供一种皮肤检测方法,所述方法包括:
获取待识别面部图像;
采用皮肤检测模型对所述待识别面部图像进行识别,确定面部敏感区域;其中,所述皮肤检测模型利用如第一方面中任一项所述的皮肤检测模型训练方法训练得到。
第三方面,本申请实施例还提供一种皮肤检测模型训练装置,所述装置包括:
样本图像获取模块,用于获取当前次训练的样本面部图像集,所述样本面部图像集中包括:具有样本标签的第一样本面部图像,所述样本标签用于指示所述第一样本面部图像中的样本面部敏感区域;
样本识别模块,采用待训练的教师模型和待训练的学生模型分别对所述第一样本面部图像进行识别,得到第一预测面部敏感区域和第二预测面部敏感区域;
对比损失计算模块,用于根据所述第一预测面部敏感区域和所述第二预测面部敏感区域计算第一对比损失函数值;
分割损失计算模块,用于根据所述第二预测面部敏感区域和所述样本面部敏感区域计算第一分割损失函数值;
总损失计算模块,用于根据所述第一对比损失函数值和所述第一分割损失函数值,计算总损失函数值;
学生模型更新模块,用于根据所述总损失函数值,更新所述学生模型的网络参数;
教师模型更新模块,用于根据所述学生模型的更新后网络参数,对所述教师模型的网络参数进行更新,得到皮肤检测模型。
可选的,所述装置还包括:
形变模块,用于对所述第一样本面部图像进行随机仿射变换,生成第一样本形变图像;
所述样本识别模块,还用于采用所述学生模型对所述第一样本形变图像进行识别,得到第三预测面部敏感区域;
形变损失计算模块,用于根据所述第二预测面部敏感区域和所述第三预测面部敏感区域计算第一形变损失函数值;
所述总损失计算模块,具体用于根据所述第一对比损失函数值、所述第一分割损失函数值和所述第一形变损失函数值,计算总损失函数值。
可选的,所述第一样本形变图像标注有样本形变敏感区域,所述装置还包括:
所述分割损失计算模块,还用于根据所述第三预测面部敏感区域和所述样本形变敏感区域计算第二分割损失函数值;
所述总损失计算模块,具体用于根据所述第一对比损失函数值、所述第一分割损失函数值、所述第一形变损失函数值和所述第二分割损失函数值,计算总损失函数值。
可选的,所述样本面部图像集中还包括:不具有样本标签的第二样本面部图像,所述装置还包括:
所述样本识别模块,还用于采用所述教师模型和所述学生模型分别对所述第二样本面部图像进行识别,得到第四预测面部敏感区域和第五预测面部敏感区域;
所述对比损失计算模块,还用于根据所述第四预测面部敏感区域和所述第五预测面部敏感区域计算第二对比损失函数值;
所述总损失计算模块,具体用于根据所述第一对比损失函数值、所述第一分割损失函数值以及所述第二对比损失函数值,计算总损失函数值。
可选的,所述形变模块,还用于对所述第二样本面部图像进行随机仿射变换,生成第二样本形变图像;
所述样本识别模块,还用于采用所述学生模型对所述第二样本形变图像进行识别,得到第六预测面部敏感区域;
所述形变损失计算模块,还用于根据所述第五预测面部敏感区域和所述第六预测面部敏感区域计算第二形变损失函数值;
所述总损失计算模块,具体用于根据所述第一对比损失函数值、所述第一分割损失函数值、所述第二对比损失函数值以及所述第二形变损失函数值,计算总损失函数值。
可选的,所述教师模型更新模块,具体用于根据所述学生模型更新后的网络参数,采用预设的指数移动平均算法,对所述教师模型的网络参数进行更新,得到皮肤检测模型。
第四方面,本申请实施例还提供一种皮肤检测装置,所述装置包括:
图像获取模块,用于获取待识别面部图像;
识别模块,用于采用皮肤检测模型对所述待识别面部图像进行识别,确定面部敏感区域;其中,所述皮肤检测模型利用第一方面任一项所述的皮肤检测模型训练方法训练得到。
第五方面,本申请实施例还提供一种电子设备,包括:处理器、存储介质和总线,所述存储介质存储有所述处理器可执行的程序指令,当电子设备运行时,所述处理器与所述存储介质之间通过总线通信,所述处理器执行所述程序指令,以执行如第一方面任一所述的皮肤检测模型训练方法的步骤,或者执行如第二方面所述的皮肤检测方法的步骤。
第六方面,本申请实施例还提供一种计算机可读存储介质,所述存储介质上存储有计算机程序,所述计算机程序被处理器运行时执行如第一方面任一所述的皮肤检测模型训练方法的步骤,或者执行如第二方面所述的皮肤检测方法的步骤。
本申请的有益效果是:
本申请提供一种皮肤检测模型训练方法、皮肤检测方法、装置及电子设备,利用教师模型和学生模型相互迭代优化,保证训练过程的稳定性,提高模型的训练效果和泛化性,利用对比损失和分割损失共同对学生模型的网络参数进行更新,可以提高学生模型的收敛速度,在此基础上,利用学生模型的网络参数对教师模型的参数进行更新,也会提高教师模型的收敛速度,即提高教师模型的训练效率;且相对于现有的直接采用反向传播更新模型参数的方式,本申请利用学生模型的网络参数更新教师模型的网络参数的训练方法更加稳定,训练得到皮肤检测模型的精度更高,效果更好。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为传统的网络训练流程框图;
图2为本申请实施例提供的皮肤检测模型训练方法的流程示意图一;
图3为本申请实施例提供的皮肤检测模型训练方法的流程示意图二;
图4为本申请实施例提供的皮肤检测模型训练方法的流程示意图三;
图5为本申请实施例提供的皮肤检测模型训练方法的流程示意图四;
图6为本申请实施例提供的皮肤检测模型训练方法的流程示意图五;
图7为本申请实施例提供的皮肤检测模型训练方法的流程框图;
图8为本申请实施例提供的皮肤检测模型的结构示意图;
图9为本申请实施例提供的皮肤检测方法的流程示意图;
图10为本申请实施例提供的皮肤检测模型训练装置的结构示意图;
图11为本申请实施例提供的皮肤检测装置的结构示意图;
图12为本申请实施例提供的电子设备的示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。
因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
此外,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
需要说明的是,在不冲突的情况下,本申请的实施例中的特征可以相互结合。
在对本申请实施例提供的皮肤检测模型训练方法及皮肤检测方法进行说明之前,先对本申请实施例所应用的电子设备进行说明。
执行皮肤检测模型训练方法的电子设备和执行皮肤检测方法的电子设备可以为相同的电子设备或不同的电子设备,若为不同的电子设备,则执行皮肤检测模型训练方法的电子设备可以为计算机设备,在完成训练得到皮肤检测模型后,将该皮肤检测模型部署在执行皮肤检测方法的电子设备,执行皮肤检测方法的电子设备可以为皮肤检测仪或者智能终端,皮肤检测仪和智能终端具备摄像功能和计算能力,通过皮肤检测仪或智能终端获取待识别面部图像,将待识别面部图像输入至部署的皮肤检测模型中进行图像识别,输出识别到的面部敏感区域。
请参考图2,为本申请实施例提供的皮肤检测模型训练方法的流程示意图一,如图2所示,该方法可以包括:
S101:获取当前次训练的样本面部图像集。
其中,样本面部图像集中包括:具有样本标签的第一样本面部图像,样本标签用于指示第一样本面部图像中的样本面部敏感区域。
本实施例中,获取用于训练皮肤检测模型的样本面部图像集,样本图像集中包括多张第一样本面部图像,采用样本面部图像集中的部分第一样本面部图像或全部第一样本面部图像参与皮肤检测模型的每一轮次训练(epoch)。其中,第一样本面部图像预先标注有样本面部敏感区域。
在一些实施例中,可以采用皮肤检测仪、智能终端或摄像设备采集多个人脸图像作为样本面部图像集,为了保证皮肤敏感区域检测的准确性,可以在环境密闭、光线充足、打光均匀的场景下采集人脸图像。更进一步地,为了提高皮肤检测模型的泛化性,也可以在一些光线复杂的场景下采集人脸图像,本实施例对此不做限制。
在一种可能的实现方式中,在将第一样本面部图像输入至模型之前,可以对第一样本面部图像进行增益处理,得到增益处理后的第一样本面部图像作为模型的输入。其中,增益处理可以包括:随机裁剪、随机添加噪声、模糊等处理操作。
S102:采用待训练的教师模型和待训练的学生模型分别对第一样本面部图像进行识别,得到第一预测面部敏感区域和第二预测面部敏感区域。
本实施例中,教师模型(teacher)和学生模型(student)是结构完全相同、但网络参数不同的两个模型,教师模型和学生模型均处于未训练状态,将样本面部图像分别输入至教师模型和学生模型进行图像识别,通过教师模型输入第一预设面部敏感区域,通过学生模型输出第二预设面部敏感区域。
S103:根据第一预测面部敏感区域和第二预测面部敏感区域计算第一对比损失函数值。
本实施中,由于教师模型比学生模型的输出更准确更稳定,期望在教师模型和学生模型的输入相同的情况下,学生模型的输出可以更接近教师模型的输出,通过计算第一预测面部敏感区域和第二预测面部敏感区域之间的差异,确定第一对比损失函数值。
示例的,可以采用cosinembeddingloss计算第一预测面部敏感区域和第二预测面部敏感区域之间的差异,确定第一对比损失函数值。
S104:根据第二预测面部敏感区域和样本面部敏感区域计算第一分割损失函数值。
本实施例中,第一样本面部图像中预先标注有样本面部敏感区域,可以计算第二预测面部敏感区域和样本面部敏感区域之间的差异,确定第一分割损失函数值。
示例的,可以采用CE loss、diceloss等损失计算函数计算第二预测面部敏感区域和样本面部敏感区域之间的差异,确定第一分割损失函数值。
S105:根据第一对比损失函数值和第一分割损失函数值,计算总损失函数值。
本实施例中,根据参与当前轮次训练的多个第一样本面部图像的第一对比损失函数值和第一分割损失函数值,加权计算多个第一样本面部图像的总损失,对多个第一样本面部图像的总损失进行累积,计算当前轮次的总损失函数值。
S106:根据总损失函数值,更新学生模型的网络参数。
本实施例中,根据总损失函数值采用反向梯度传播更新学生模型的网络参数,具体的,利用总损失函数值计算损失梯度,根据损失梯度计算网络参数变化值,根据网络参数变化值和学生模型的当前网络参数,计算学生模型更新后的网络参数。
S107:根据学生模型的更新后网络参数,对教师模型的网络参数进行更新,得到皮肤检测模型。
本实施例中,根据学生模型更新后的网络参数和教师模型的当前网络参数,计算教师模型更新后的网络参数。
对网络参数更新后的教师模型和学生模型,继续采用上述S101-S107的训练方法进行多轮训练,直至教师模型收敛则结束训练,收敛的教师模型为皮肤检测模型,皮肤检测模型用于对待识别面部图像进行敏感区域识别,输出识别到的面部敏感区域。
在一种可能的实现方式中,上述S107根据学生模型的更新后网络参数,对教师模型的网络参数进行更新,得到皮肤检测模型,可以包括:
根据学生模型更新后的网络参数,采用预设的指数移动平均算法,对教师模型的网络参数进行更新,得到皮肤检测模型。
本实施例中,指数移动平均算法(Exponential Moving Average,EMA)是指对模型的更新需要参考模型之前更新的参数,即模型在本次训练过程中使用的参数,而本实施例对教师模型参数的更新,不仅参考教师模型的当前网络参数,还参考学生模型更新后的网络参数。
具体的,对学生模型更新后的网络参数和教师模型的当前网络参数进行加权求和,得到教师模型更新后的网络参数。
示例的,计算公式可以为:V_t=beta*V_t-1+(1-beta)*theta_t
其中,Vt-1是教师模型在当前轮次的网络参数,beta是更新系数,本实施例设定为0.9,theta_t是学生模型当前轮次的更新后的网络参数,Vt是教师模型当前轮次更新后的网络参数。
通过进行多次轮次的模型训练,保存每个轮次训练后的模型参数,从多组模型参数中选择精度最高、指标最好的教师模型作为皮肤检测模型。示例的,本实施例进行200多个轮次的训练,训练后期教师模型区域稳定,精度也比较高,从后面的几十个轮次中挑精度指标最好的教师模型作为皮肤检测模型。
由于在训练过程中教师模型的效果优于学生模型,由教师模型引领学生模型的训练,使学生模型的效果提升,在学生模型的效果更好的情况下,根据学生模型的网络参数采用EMA算法更新的教师模型的网络参数也比学生模型的网络参数更优。
上述实施例提供的皮肤检测模型训练方法,利用教师模型和学生模型相互迭代优化,保证训练过程的稳定性,提高模型的训练效果和泛化性,利用对比损失和分割损失共同对学生模型的网络参数进行更新,可以提高学生模型的收敛速度,在此基础上,利用学生模型的网络参数对教师模型的参数进行更新,也会提高教师模型的收敛速度,即提高教师模型的训练效率;且相对于现有的直接采用反向传播更新模型参数的方式,本申请利用学生模型的网络参数更新教师模型的网络参数的训练方法更加稳定,训练得到皮肤检测模型的精度更高,效果更好。
在一种可能的实现方式,请参考图3,为本申请实施例提供的皮肤检测模型训练方法的流程示意图二,如图3所示,该方法还可以包括:
S201:对第一样本面部图像进行随机仿射变换,生成第一样本形变图像。
本实施例中,为了进一步提高皮肤检测模型的泛化能力,提高对发生形变的图像的检测精度,在进行模型训练时,可以对第一样本面部图像进行形变处理,得到第一样本形变图像。
具体的,采用预设形变矩阵对第一样本面部图像进行仿射变换,得到第一样本形变图像。
S202:采用学生模型对第一样本形变图像进行识别,得到第三预测面部敏感区域。
本实施例中,对第一样本面部图像和第一样本形变图像进行拼接后输入至学生模型,学生模型对第一样本面部图像和第一样本形变图像分别进行识别,得到第二预测面部敏感区域和第三预测面部敏感区域。
S203:根据第二预测面部敏感区域和第三预测面部敏感区域计算第一形变损失函数值。
本实施中,为了保证学生模型在输入的图像发生形变的情况下依然可以保持稳定的输出,可以计算第二预测面部敏感区域和第三预测面部敏感区域之间的差异,确定第一形变损失函数值,第一形变损失函数值越小,确定学生模型的稳定性越高。
示例的,可以采用transinv loss、Jacobian loss等损失计算函数计算第二预测面部敏感区域和第三预测面部敏感区域之间的差异,确定第一形变损失函数值。
上述S105根据第一对比损失函数值和第一分割损失函数值,计算总损失函数值,包括:
S204:根据第一对比损失函数值、第一分割损失函数值和第一形变损失函数值,计算总损失函数值。
本实施例中,对当前轮次的标注样本面部敏感区域的多个第一样本面部图像,根据第一对比损失函数值、第一分割损失函数值和第一形变损失函数值,加权计算多个第一样本面部图像的总损失,对多个第一样本面部图像的总损失进行累积,计算当前轮次的总损失函数值。
上述实施例提供的皮肤检测模型训练方法,通过对第一样本面部图像进行形变的第一样本形变图像进行识别得到第三预测面部敏感区域,根据第二预测面部敏感区域与第三预测面部敏感区域的第一形变损失函数值结合第一对比损失函数值和第一分割损失函数值计算总损失函数值,对样本图像进行形变,在损失函数中加入形变损失,一方面可以加速学生模型的收敛速度,从而加速教师模型的收敛速度;另一方面可以使学生模型和教师模型训练后可以在输入具有轻微形变的情况下仍然具有稳定的输出,提高皮肤检测模型的稳定性和泛化性,以提升对形变图像进行识别的能力和准确度。
在一种可能的实现方式,请参考图4,为本申请实施例提供的皮肤检测模型训练方法的流程示意图三,如图4所示,该方法还可以包括:
S205:根据第三预测面部敏感区域和样本形变敏感区域计算第二分割损失函数值。
本实施例中,第一样本面部图像预先标注有样本面部敏感区域,则对样本面部图像进行形变得到第一样本形变图像后,样本面部敏感区域也发生了形变,第一样本形变图像标注有样本形变敏感区域,可以计算第三预测面部敏感区域和样本面部敏感区域之间的差异,确定第二分割损失函数值。
示例的,可以采用CE loss、diceloss等损失计算函数第三预测面部敏感区域和样本面部敏感区域之间的差异,确定第二分割损失函数值。
上述S105根据第一对比损失函数值和第一分割损失函数值,计算总损失函数值,包括:
S206:根据第一对比损失函数值、第一分割损失函数值、第一形变损失函数值和第二分割损失函数值,计算总损失函数值。
本实施例中,对当前轮次的标注样本面部敏感区域的多个第一样本面部图像及对应的第一样本形变图像,计算第一对比损失函数值、第一分割损失函数值、第一形变损失函数值和第二分割损失函数值,加权计算多个第一样本面部图像的总损失,对多个第一样本面部图像的总损失进行累积,计算当前轮次的总损失函数值。
上述实施例提供的皮肤检测模型训练方法,利用第一对比损失、第一分割损失、第一形变损失和第二分割损失的叠加共同参与网络参数的更新,更多类型的损失对网络参数的更新可以使训练过程更加稳定,收敛速度更快,且可以提高皮肤检测模型的泛化性。
在一种可能的实现方式中,为了在增加更多训练样本的情况下又不增加标注成本,可以将未标注样本敏感区域的样本面部图像作为第二样本面部图像,以下结合实施例对第二样本面部图像参与模型训练的过程进行说明。
请参考图5,为本申请实施例提供的皮肤检测模型训练方法的流程示意图四,如图5所示,该方法还可以包括:
S301:采用教师模型和学生模型分别对第二样本面部图像进行识别,得到第四预测面部敏感区域和第五预测面部敏感区域。
本实施例中,将第二样本面部图像分别输入至教师模型和学生模型进行图像识别,通过教师模型输入第四预设面部敏感区域,通过学生模型输出第五预设面部敏感区域。
S302:根据第四预测面部敏感区域和第五预测面部敏感区域计算第二对比损失函数值。
本实施中,通过计算第四预测面部敏感区域和第五预测面部敏感区域之间的差异,确定第二对比损失函数值。
示例的,可以采用cosinembeddingloss计算第四预测面部敏感区域和第五预测面部敏感区域之间的差异,确定第二对比损失函数值。
上述S105:根据第一对比损失函数值和第一分割损失函数值,计算总损失函数值,可以包括:
S303:根据第一对比损失函数值、第一分割损失函数值以及第二对比损失函数值,计算总损失函数值。
本实施例中,根据参与当前轮次训练的多个第一样本面部图像的第一对比损失函数值和第一分割损失函数值,加权计算多个第一样本面部图像的总损失,对多个第一样本面部图像的总损失,以及参与当前轮次训练的多个第二样本面部图像的第二对比损失函数值进行累积,计算当前轮次的总损失函数值。
在当前轮次的训练中,对标注样本面部敏感区域的第一样本面部图像,计算第一对比损失和第一分割损失,对于未标注样本面部敏感区域的第二样本面部图像,仅计算第二对比损失,通过实验对比确定,本实施例提供的皮肤检测模型训练方法比传统的模型训练方法的训练指标提升1.2%,基于无标签图像和有标签图像的训练,使训练过程变为半监督训练,在有标签图像的数量相同的情况下,通过加入无标签图像进行半监督训练,可以进一步提升模型的训练效果和泛化性,使训练执行进一步提升0.8%,共提升2%。且在增加训练样本的数量的情况下,不会增加标注的时间成本和人工成本。
上述实施例提供的皮肤检测模型训练方法中,样本面部图像包括有标签的图像和无标签的图像,有标签的样本面部图像参与第一对比损失函数值和第一分割损失函数值的计算,无标签的样本面部图像参与第二对比损失函数值的计算,实现半监督式的模型训练,与传统只采用标注图像进行训练的方式相比,在有标签的数据量相同的情况下,可以提高模型的训练效果和泛化性,增加无标签的样本面部图像参与训练,可以降低标注成本。
在一种可能的实现方式,请参考图6,为本申请实施例提供的皮肤检测模型训练方法的流程示意图五,如图6所示,该方法还可以包括:
S304:对第二样本面部图像进行随机仿射变换,生成第二样本形变图像。
本实施例中,为了进一步提高皮肤检测模型的泛化能力,提高对发生形变的图像的检测精度,在进行模型训练时,可以对第二样本面部图像进行形变处理,得到第二样本形变图像。
具体的,可以采用预设形变矩阵对第二样本面部图像进行仿射变换,得到第二样本形变图像。
S305:采用学生模型对第二样本形变图像进行识别,得到第六预测面部敏感区域。
本实施例中,对第二样本面部图像和第二样本形变图像进行拼接后输入至学生模型,学生模型对第二样本面部图像和第二样本形变图像分别进行识别,得到第五预测面部敏感区域和第六预测面部敏感区域。
S306:根据第五预测面部敏感区域和第六预测面部敏感区域计算第二形变损失函数值。
本实施中,为了保证学生模型在输入的图像发生形变的情况下依然可以保持稳定的输出,可以计算第五预测面部敏感区域和第六预测面部敏感区域之间的差异,确定第二形变损失函数值,第二形变损失函数值越小,确定学生模型的稳定性越高。
示例的,可以采用transinv loss、Jacobian loss等损失计算函数计算第五预测面部敏感区域和第六预测面部敏感区域之间的差异,确定第二形变损失函数值。
上述S105根据第一对比损失函数值和第一分割损失函数值,计算总损失函数值,包括:
S307:根据第一对比损失函数值、第一分割损失函数值、第二对比损失函数值以及第二形变损失函数值,计算总损失函数值。
本实施例中,对当前轮次的标注样本面部敏感区域的多个第一样本面部图像,根据第一对比损失函数值和第一分割损失函数值,加权计算多个第一样本面部图像的总损失,对当前轮次的未标注样本面部敏感区域的多个第二样本面部图像,根据第二对比损失函数值和第二形变损失函数值,加权计算多个第二样本面部图像的总损失,对多个第一样本面部图像的总损失和多个第二样本面部图像的总损失进行累积,计算当前轮次的总损失函数值。
上述实施例提供的皮肤检测模型训练方法,对样本图像进行形变,在损失函数中加入形变损失,一方面可以加速学生模型的收敛速度,从而加速教师模型的收敛速度;另一方面可以使学生模型和教师模型训练后可以在输入具有轻微形变的情况下仍然具有稳定的输出,提高皮肤检测模型的稳定性和泛化性,以提升对形变图像进行识别的能力和准确度。
需要说明的是,上述实施例示例性的说明了根据各种损失函数值组合计算总损失函数值的方案,但是各个损失函数值的组合并不限制于上述实施例,可以根据训练过程的需要对各个损失函数值进行组合。
请参考图7,为本申请实施例提供的皮肤检测模型训练方法的流程框图,如图7所示,该过程可以包括:
对样本图像imgs进行常规增益得到样本图像imgs0,采用预设形变矩阵M对样本图像imgs0进行形变得到形变图像imgs1,将样本图像imgs0单独输入至教师模型,输出预测面部敏感区域tea_imgs0_out,将样本图像imgs0和形变图像imgs1拼接为一组后输入至学生模型,分别输出预测面部敏感区域stu_imgs0_out和预测面部敏感区域stu_imgs1_out,对预测面部敏感区域tea_imgs0_out和预测面部敏感区域stu_imgs0_out计算对比损失,对预测面部敏感区域stu_imgs0_out和预测面部敏感区域stu_imgs1_out计算形变损失,若样本图像imgs0具有样本标签mask,则预测面部敏感区域stu_imgs0_out与样本标签mask计算分割损失,预测面部敏感区域stu_imgs1_out与样本标签mask对应的形变标签计算分割损失,根据对比损失、形变损失和/或分割损失对学生模型的网络参数进行更新,根据学生模型的网络参数对教师模型的参数进行更新,得到皮肤检测模型。
请参考图8,为本申请实施例提供的皮肤检测模型的结构示意图,如图8所示,本实施例提供的皮肤检测模型包括:编码模块、融合模块和解码模块,其中,编码模块采用STDC(Short-Term Dense Concatenate Module,短周期稠密级联模型)网络结构,采用编码模块的阶段(Stage)的数量较少,可以降低通道数,在保证网络能力的情况下减小网络尺寸。
融合模块为PPM(Pyramid Pooling Module,金字塔池化模块),可以融合不同尺度的图像信息,提升网络精度。
解码模块包括多个堆叠的上采样模块(upsample block),每个上采样模块由ConvBNRelu+Conv+Upsample构成。
在上述皮肤检测模型的基础上,本申请实施例还提供一种皮肤检测方法。请参考图9,为本申请实施例提供的皮肤检测方法的流程示意图,如图9所示,该方法可以包括:
S201:获取待识别面部图像。
S202:采用皮肤检测模型对所述待识别面部图像进行识别,确定面部敏感区域。
其中,所述皮肤检测模型利用如上述实施例的皮肤检测模型训练方法训练得到。
本实施例中,将采用上述实施例训练得到的皮肤检测模型部署到皮肤检测仪或智能终端中,皮肤检测仪或智能终端通过该皮肤检测模型执行皮肤检测方法,以确定待识别面部图像中的面部敏感区域。
在上述方法实施例的基础上,本申请实施例还提供一种皮肤检测模型训练装置。请参考图10,为本申请实施例提供的皮肤检测模型训练装置的结构示意图,如图10所示,该装置可以包括:
样本图像获取模块11,用于获取当前次训练的样本面部图像集,样本面部图像集中包括:具有样本标签的第一样本面部图像,样本标签用于指示第一样本面部图像中的样本面部敏感区域;
样本识别模块12,采用待训练的教师模型和待训练的学生模型分别对第一样本面部图像进行识别,得到第一预测面部敏感区域和第二预测面部敏感区域;
对比损失计算模块13,用于根据第一预测面部敏感区域和第二预测面部敏感区域计算第一对比损失函数值;
分割损失计算模块14,用于根据第二预测面部敏感区域和样本面部敏感区域计算第一分割损失函数值;
总损失计算模块15,用于根据第一对比损失函数值和第一分割损失函数值,计算总损失函数值;
学生模型更新模块16,用于根据总损失函数值,更新学生模型的网络参数;
教师模型更新模块17,用于根据学生模型的更新后网络参数,对教师模型的网络参数进行更新,得到皮肤检测模型。
可选的,该装置还可以包括:
形变模块,用于对第一样本面部图像进行随机仿射变换,生成第一样本形变图像;
样本识别模块12,还用于采用学生模型对第一样本形变图像进行识别,得到第三预测面部敏感区域;
形变损失计算模块,用于根据第二预测面部敏感区域和第三预测面部敏感区域计算第一形变损失函数值;
总损失计算模块15,具体用于根据第一对比损失函数值、第一分割损失函数值和第一形变损失函数值,计算总损失函数值。
可选的,第一样本形变图像标注有样本形变敏感区域,该装置还可以包括:
分割损失计算模块14,还用于根据第三预测面部敏感区域和样本形变敏感区域计算第二分割损失函数值;
总损失计算模块15,具体用于根据第一对比损失函数值、第一分割损失函数值、第一形变损失函数值和第二分割损失函数值,计算总损失函数值。
可选的,样本面部图像集中还包括:不具有样本标签的第二样本面部图像,该装置还可以包括:
样本识别模块12,还用于采用教师模型和学生模型分别对第二样本面部图像进行识别,得到第四预测面部敏感区域和第五预测面部敏感区域;
对比损失计算模块13,还用于根据第四预测面部敏感区域和第五预测面部敏感区域计算第二对比损失函数值;
总损失计算模块15,具体用于根据第一对比损失函数值、第一分割损失函数值以及第二对比损失函数值,计算总损失函数值。
可选的,形变模块,还用于对第二样本面部图像进行随机仿射变换,生成第二样本形变图像;
样本识别模块12,还用于采用学生模型对第二样本形变图像进行识别,得到第六预测面部敏感区域;
形变损失计算模块,还用于根据第五预测面部敏感区域和第六预测面部敏感区域计算第二形变损失函数值;
总损失计算模块15,具体用于根据第一对比损失函数值、第一分割损失函数值、第二对比损失函数值以及第二形变损失函数值,计算总损失函数值。
可选的,教师模型更新模块17,具体用于根据学生模型更新后的网络参数,采用预设的指数移动平均算法,对教师模型的网络参数进行更新,得到皮肤检测模型。
在上述方法实施例的基础上,本申请实施例还提供一种皮肤检测装置。请参考图11,为本申请实施例提供的皮肤检测装置的结构示意图,如图11所示,该装置可以包括:
图像获取模块21,用于获取待识别面部图像;
识别模块22,用于采用皮肤检测模型对待识别面部图像进行识别,确定面部敏感区域;其中,皮肤检测模型利用第一方面任一项的皮肤检测模型训练方法训练得到。
上述装置用于执行前述实施例提供的方法,其实现原理和技术效果类似,在此不再赘述。
以上这些模块可以是被配置成实施以上方法的一个或多个集成电路,例如:一个或多个特定集成电路(Application Specific Integrated Circuit,简称ASIC),或,一个或多个微处理器,或,一个或者多个现场可编程门阵列(Field Programmable Gate Array,简称FPGA)等。再如,当以上某个模块通过处理元件调度程序代码的形式实现时,该处理元件可以是通用处理器,例如中央处理器(Central Processing Unit,简称CPU)或其它可以调用程序代码的处理器。再如,这些模块可以集成在一起,以片上系统(system-on-a-chip,简称SOC)的形式实现。
请参考图12,为本申请实施例提供的电子设备的示意图,如图12所示,该电子设备100包括:处理器110、存储介质120和总线,存储介质120存储有处理器110可执行的程序指令,当电子设备100运行时,处理器110与存储介质120之间通过总线通信,处理器110执行程序指令,以执行如上述皮肤检测模型训练方法的实施例,或者执行如上述皮肤检测方法的实施例。具体实现方式和技术效果类似,这里不再赘述。
可选地,本申请实施例还提供一种计算机可读存储介质,存储介质上存储有计算机程序,计算机程序被处理器运行时执行如上述皮肤检测模型训练方法的实施例,或者执行如上述皮肤检测方法的实施例。具体实现方式和技术效果类似,这里不再赘述。
在本发明所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(英文:processor)执行本发明各个实施例所述方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(英文:Read-Only Memory,简称:ROM)、随机存取存储器(英文:Random Access Memory,简称:RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
上仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (10)

1.一种皮肤检测模型训练方法,其特征在于,所述方法包括:
获取当前次训练的样本面部图像集,所述样本面部图像集中包括:具有样本标签的第一样本面部图像,所述样本标签用于指示所述第一样本面部图像中的样本面部敏感区域;
采用待训练的教师模型和待训练的学生模型分别对所述第一样本面部图像进行识别,得到第一预测面部敏感区域和第二预测面部敏感区域;
根据所述第一预测面部敏感区域和所述第二预测面部敏感区域计算第一对比损失函数值;
根据所述第二预测面部敏感区域和所述样本面部敏感区域计算第一分割损失函数值;
根据所述第一对比损失函数值和所述第一分割损失函数值,计算总损失函数值;
根据所述总损失函数值,更新所述学生模型的网络参数;
根据所述学生模型的更新后网络参数,对所述教师模型的网络参数进行更新,得到皮肤检测模型。
2.如权利要求1所述的方法,其特征在于,所述方法还包括:
对所述第一样本面部图像进行随机仿射变换,生成第一样本形变图像;
采用所述学生模型对所述第一样本形变图像进行识别,得到第三预测面部敏感区域;
根据所述第二预测面部敏感区域和所述第三预测面部敏感区域计算第一形变损失函数值;
所述根据所述第一对比损失函数值和所述第一分割损失函数值,计算总损失函数值,包括:
根据所述第一对比损失函数值、所述第一分割损失函数值和所述第一形变损失函数值,计算总损失函数值。
3.如权利要求2所述的方法,其特征在于,所述第一样本形变图像标注有样本形变敏感区域,所述方法还包括:
根据所述第三预测面部敏感区域和所述样本形变敏感区域计算第二分割损失函数值;
所述根据所述第一对比损失函数值和所述第一分割损失函数值,计算总损失函数值,包括:
根据所述第一对比损失函数值、所述第一分割损失函数值、所述第一形变损失函数值和所述第二分割损失函数值,计算总损失函数值。
4.如权利要求1所述的方法,其特征在于,所述样本面部图像集中还包括:不具有样本标签的第二样本面部图像,所述方法还包括:
采用所述教师模型和所述学生模型分别对所述第二样本面部图像进行识别,得到第四预测面部敏感区域和第五预测面部敏感区域;
根据所述第四预测面部敏感区域和所述第五预测面部敏感区域计算第二对比损失函数值;
所述根据所述对比损失函数值和所述第一分割损失函数值,计算总损失函数值,包括:
根据所述第一对比损失函数值、所述第一分割损失函数值以及所述第二对比损失函数值,计算总损失函数值。
5.如权利要求4所述的方法,其特征在于,所述方法还包括:
对所述第二样本面部图像进行随机仿射变换,生成第二样本形变图像;
采用所述学生模型对所述第二样本形变图像进行识别,得到第六预测面部敏感区域;
根据所述第五预测面部敏感区域和所述第六预测面部敏感区域计算第二形变损失函数值;
所述根据所述第一对比损失函数值和所述第一分割损失函数值,计算总损失函数值,包括:
根据所述第一对比损失函数值、所述第一分割损失函数值、所述第二对比损失函数值以及所述第二形变损失函数值,计算总损失函数值。
6.如权利要求1所述的方法,其特征在于,所述根据所述学生模型的更新后网络参数,对所述教师模型的网络参数进行更新,得到皮肤检测模型,包括:
根据所述学生模型更新后的网络参数,采用预设的指数移动平均算法,对所述教师模型的网络参数进行更新,得到皮肤检测模型。
7.一种皮肤检测方法,其特征在于,所述方法包括:
获取待识别面部图像;
采用皮肤检测模型对所述待识别面部图像进行识别,确定面部敏感区域;其中,所述皮肤检测模型利用如权利要求1至6中任一项所述的皮肤检测模型训练方法训练得到。
8.一种皮肤检测模型训练装置,其特征在于,所述装置包括:
样本图像获取模块,用于获取当前次训练的样本面部图像集,所述样本面部图像集中包括:具有样本标签的第一样本面部图像,所述样本标签用于指示所述第一样本面部图像中的样本面部敏感区域;
样本识别模块,采用待训练的教师模型和待训练的学生模型分别对所述第一样本面部图像进行识别,得到第一预测面部敏感区域和第二预测面部敏感区域;
对比损失计算模块,用于根据所述第一预测面部敏感区域和所述第二预测面部敏感区域计算第一对比损失函数值;
分割损失计算模块,用于根据所述第二预测面部敏感区域和所述样本面部敏感区域计算第一分割损失函数值;
总损失计算模块,用于根据所述第一对比损失函数值和所述第一分割损失函数值,计算总损失函数值;
学生模型更新模块,用于根据所述总损失函数值,更新所述学生模型的网络参数;
教师模型更新模块,用于根据所述学生模型的更新后网络参数,对所述教师模型的网络参数进行更新,得到皮肤检测模型。
9.一种皮肤检测装置,其特征在于,所述装置包括:
图像获取模块,用于获取待识别面部图像;
识别模块,用于采用皮肤检测模型对所述待识别面部图像进行识别,确定面部敏感区域;其中,所述皮肤检测模型利用如权利要求1至6中任一项所述的皮肤检测模型训练方法训练得到。
10.一种电子设备,其特征在于,包括:处理器、存储介质和总线,所述存储介质存储有所述处理器可执行的程序指令,当电子设备运行时,所述处理器与所述存储介质之间通过总线通信,所述处理器执行所述程序
指令,以执行如权利要求1至6任一所述的皮肤检测模型训练方法的步骤,
或者执行如权利要求7所述的皮肤检测方法的步骤。
CN202310410734.6A 2023-04-17 2023-04-17 皮肤检测模型训练方法、皮肤检测方法、装置及电子设备 Pending CN116502700A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310410734.6A CN116502700A (zh) 2023-04-17 2023-04-17 皮肤检测模型训练方法、皮肤检测方法、装置及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310410734.6A CN116502700A (zh) 2023-04-17 2023-04-17 皮肤检测模型训练方法、皮肤检测方法、装置及电子设备

Publications (1)

Publication Number Publication Date
CN116502700A true CN116502700A (zh) 2023-07-28

Family

ID=87315992

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310410734.6A Pending CN116502700A (zh) 2023-04-17 2023-04-17 皮肤检测模型训练方法、皮肤检测方法、装置及电子设备

Country Status (1)

Country Link
CN (1) CN116502700A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116883914A (zh) * 2023-09-06 2023-10-13 南方医科大学珠江医院 一种融合半监督与对比学习的视频分割方法以及装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116883914A (zh) * 2023-09-06 2023-10-13 南方医科大学珠江医院 一种融合半监督与对比学习的视频分割方法以及装置
CN116883914B (zh) * 2023-09-06 2024-01-16 南方医科大学珠江医院 一种融合半监督与对比学习的视频分割方法以及装置

Similar Documents

Publication Publication Date Title
CN109697435B (zh) 人流量监测方法、装置、存储介质及设备
CN108427939B (zh) 模型生成方法和装置
CN109086811B (zh) 多标签图像分类方法、装置及电子设备
CN114241505B (zh) 化学结构图像的提取方法、装置、存储介质及电子设备
CN113095370A (zh) 图像识别方法、装置、电子设备及存储介质
CN112200173B (zh) 多网络模型训练方法、图像标注方法和人脸图像识别方法
CN114419570A (zh) 一种点云数据识别方法、装置、电子设备及存储介质
CN114648676A (zh) 点云处理模型的训练和点云实例分割方法及装置
CN116502700A (zh) 皮肤检测模型训练方法、皮肤检测方法、装置及电子设备
CN111369524A (zh) 结节识别模型训练方法、结节识别方法及装置
CN110991298A (zh) 图像的处理方法和装置、存储介质及电子装置
CN116612500B (zh) 行人重识别模型训练方法及装置
CN113592932A (zh) 深度补全网络的训练方法、装置、电子设备及存储介质
CN115049730B (zh) 零件装配方法、装置、电子设备及存储介质
CN113139617B (zh) 一种输电线路自主定位方法、装置及终端设备
CN113610856B (zh) 训练图像分割模型和图像分割的方法和装置
CN114882334A (zh) 用于生成预训练模型的方法、模型训练方法及装置
CN113780148A (zh) 交通标志图像识别模型训练方法和交通标志图像识别方法
CN110825311B (zh) 用于存储数据的方法和装置
CN113392859A (zh) 一种确定城市功能区域的类型的方法及装置
CN112825143A (zh) 深度卷积神经网络压缩方法、装置、存储介质及设备
CN116912634B (zh) 目标追踪模型的训练方法及装置
CN113221920B (zh) 图像识别方法、装置、设备、存储介质以及计算机程序产品
Chen et al. Insulator Fault Detection in Aerial Images based on the Mixed-grouped Fire Single-shot Multibox Detector.
CN116912889B (zh) 行人重识别方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination