CN117351307A - 一种模型训练方法、装置、设备及存储介质 - Google Patents
一种模型训练方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN117351307A CN117351307A CN202311658594.0A CN202311658594A CN117351307A CN 117351307 A CN117351307 A CN 117351307A CN 202311658594 A CN202311658594 A CN 202311658594A CN 117351307 A CN117351307 A CN 117351307A
- Authority
- CN
- China
- Prior art keywords
- acne
- predicted
- facial image
- loss function
- image sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 64
- 238000000034 method Methods 0.000 title claims abstract description 54
- 208000002874 Acne Vulgaris Diseases 0.000 claims abstract description 266
- 206010000496 acne Diseases 0.000 claims abstract description 266
- 230000001815 facial effect Effects 0.000 claims abstract description 123
- 230000004913 activation Effects 0.000 claims abstract description 28
- 230000006870 function Effects 0.000 claims description 116
- 208000020154 Acnes Diseases 0.000 claims description 65
- 238000004590 computer program Methods 0.000 claims description 16
- 238000003745 diagnosis Methods 0.000 abstract description 8
- 230000003902 lesion Effects 0.000 abstract description 8
- 238000010586 diagram Methods 0.000 description 15
- 238000004891 communication Methods 0.000 description 8
- 238000011176 pooling Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 101100328519 Caenorhabditis elegans cnt-2 gene Proteins 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000005266 casting Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种模型训练方法、装置、设备及存储介质。该方法包括:获取图像样本集,其中,所述图像样本集包括:面部图像样本、面部图像样本对应的痤疮等级以及面部图像样本对应的痤疮数量;基于所述图像样本集训练第一模型,得到目标模型,其中,所述第一模型包括:PoolFormer网络、第一分支全连接层以及第二分支全连接层,PoolFormer网络位于所述第一分支激活层和第二分支激活层之前,所述PoolFormer网络包括:至少两个PoolFormer块。通过本发明的技术方案,能够实现通过目标模型同时对痤疮的严重程度进行分级,并预测病变数量,根据预测概率分布将严重程度进行打分,为痤疮的诊断提供依据,准确率更高,鲁棒性更强,解释性强。
Description
技术领域
本发明实施例涉及皮肤痤疮检测和护肤技术领域,尤其涉及一种模型训练方法、装置、设备及存储介质。
背景技术
现有技术中,对痤疮严重程度的进行准确分级,在皮肤痤疮检测和护肤技术领域中起到了至关重要的作用,它是皮肤科医生正确诊断痤疮,并为每位患者制定个性化治疗计划的重要环节。
目前,深度学习技术已被引入皮肤痤疮检测和护肤技术领域,用于对痤疮的严重程度进行分级。然而,这一方法仍面临一些挑战,存在训练数据有限以及标签之间存在一定程度的模糊性等问题。例如,传统的卷积神经网络(Convolutional Neural Networks,CNN)通常通过池化层(pooling layers)来降低分辨率以捕获更广泛的信息,但这可能会丢失一些细节;且由于痤疮的病变在外观上相似,严重程度又相差不大,因此,确切的分级也变得更为复杂,缺乏鲁棒性。
发明内容
本发明实施例提供一种模型训练方法、装置、设备及存储介质,以实现通过目标模型同时对痤疮的严重程度进行分级,并预测病变数量,根据预测概率分布将严重程度进行打分,为痤疮的诊断提供依据,准确率更高,鲁棒性更强,解释性强。
第一方面,本发明实施例提供了一种模型训练方法,包括:
获取图像样本集,其中,所述图像样本集包括:面部图像样本、面部图像样本对应的痤疮等级以及面部图像样本对应的痤疮数量;
基于所述图像样本集训练第一模型,得到目标模型,其中,所述第一模型包括:PoolFormer网络、第一分支全连接层以及第二分支全连接层,PoolFormer网络位于所述第一分支激活层和第二分支激活层之前,所述PoolFormer网络包括:至少两个PoolFormer块。
可选的,基于所述图像样本集训练第一模型,得到目标模型,包括:
将所述图像样本集中的面部图像样本输入PoolFormer网络,得到面部图像样本对应的目标特征数据;
将所述面部图像样本对应的目标特征数据输入第一分支全连接层,得到预测痤疮数量;
将所述面部图像样本对应的目标特征数据输入第二分支全连接层,得到预测痤疮等级;
根据预测痤疮数量、面部图像样本对应的痤疮数量以及预测痤疮数量对应的计数类别信息生成第一损失函数;
根据预测痤疮等级、面部图像样本对应的痤疮等级以及预测痤疮数量对应的痤疮等级生成第二损失函数;
根据所述第一损失函数和所述第二损失函数训练所述第一模型的参数,得到目标模型。
可选的,根据预测痤疮数量、面部图像样本对应的痤疮数量以及预测痤疮数量对应的计数类别信息生成第一损失函数,包括:
根据预测痤疮数量和面部图像样本对应的痤疮数量生成MSE损失函数;
根据所述预测痤疮数量对应的计数类别信息和面部图像样本对应的痤疮数量生成计数分类损失函数;
根据所述计数分类损失函数和所述MSE损失函数生成第一损失函数。
可选的,根据预测痤疮等级、面部图像样本对应的痤疮等级以及预测痤疮数量对应的痤疮等级生成第二损失函数,包括:
根据所述预测痤疮数量对应的痤疮等级和面部图像样本对应的痤疮等级生成痤疮等级损失函数;
根据所述预测痤疮等级和面部图像样本对应的痤疮等级生成等级分类损失函数;
根据痤疮等级损失函数和所述等级分类损失函数生成第二损失函数。
可选的,根据所述预测痤疮数量对应的计数类别信息和面部图像样本对应的痤疮数量生成计数分类损失函数,包括:
获取间隔参数;
基于间隔参数确定分类数量;
根据分类数量、预测痤疮数量对应的计数类别信息以及面部图像样本对应的痤疮数量生成计数分类损失函数。
可选的,所述模型训练方法,还包括:
采集面部图像;
将面部图像输入所述目标模型,得到所述面部图像对应的痤疮等级和痤疮数量。
第二方面,本发明实施例提供了一种模型训练装置,包括:
获取模块,用于获取图像样本集,其中,所述图像样本集包括:面部图像样本、面部图像样本对应的痤疮等级以及面部图像样本对应的痤疮数量;
训练模块,用于基于所述图像样本集训练第一模型,得到目标模型,其中,所述第一模型包括:PoolFormer网络、第一分支全连接层以及第二分支全连接层,PoolFormer网络位于所述第一分支激活层和第二分支激活层之前,所述PoolFormer网络包括:至少两个PoolFormer块。
可选的,训练模块,包括:
第一确定单元,用于将所述图像样本集中的面部图像样本输入PoolFormer网络,得到面部图像样本对应的目标特征数据;
第二确定单元,用于将所述面部图像样本对应的目标特征数据输入第一分支全连接层,得到预测痤疮数量;
第三确定单元,用于将所述面部图像样本对应的目标特征数据输入第二分支全连接层,得到预测痤疮等级;
第一生成单元,用于根据预测痤疮数量、面部图像样本对应的痤疮数量以及预测痤疮数量对应的计数类别信息生成第一损失函数;
第二生成单元,用于根据预测痤疮等级、面部图像样本对应的痤疮等级以及预测痤疮数量对应的痤疮等级生成第二损失函数;
训练单元,用于根据所述第一损失函数和所述第二损失函数训练所述第一模型的参数,得到目标模型。
第三方面,本发明实施例提供了一种电子设备,所述电子设备包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行本发明任一实施例所述的模型训练方法。
第四方面,本发明实施例提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使处理器执行时实现本发明任一实施例所述的模型训练方法。
本发明实施例通过获取图像样本集,其中,所述图像样本集包括:面部图像样本、面部图像样本对应的痤疮等级以及面部图像样本对应的痤疮数量;基于所述图像样本集训练第一模型,得到目标模型,其中,所述第一模型包括:PoolFormer网络、第一分支全连接层以及第二分支全连接层,PoolFormer网络位于所述第一分支激活层和第二分支激活层之前,所述PoolFormer网络包括:至少两个PoolFormer块,解决现有技术中训练数据有限以及标签之间存在一定程度的模糊性、以及缺乏鲁棒性的问题,实现通过目标模型同时对痤疮的严重程度进行分级,并预测病变数量,根据预测概率分布将严重程度进行打分,为痤疮的诊断提供依据,准确率更高,鲁棒性更强,解释性强。
应当理解,本部分所描述的内容并非旨在标识本发明的实施例的关键或重要特征,也不用于限制本发明的范围。本发明的其它特征将通过以下的说明书而变得容易理解。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明实施例一提供的一种模型训练方法的流程图;
图2为本发明实施例一提供的一种transformer宏观架构PoolFormer结构图;
图3为本发明实施例一提供的一种PoolFormer block结构示意图;
图4为本发明实施例一提供的一种Channel MLP层结构示意图;
图5为本发明实施例一提供的一种痤疮识别网络结构图;
图6为本发明实施例二提供的一种模型训练方法的流程图;
图7为本发明实施例三提供的一种模型训练装置的结构示意图;
图8示出了可以用来实施本发明的实施例的电子设备的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
可以理解的是,在使用本公开各实施例公开的技术方案之前,均应当依据相关法律法规通过恰当的方式对本公开所涉及个人信息的类型、使用范围、使用场景等告知用户并获得用户的授权。
实施例一
图1为本发明实施例一提供的一种模型训练方法的流程图,本实施例可适用于进行模型训练的情况,该方法可以由本发明实施例中的模型训练装置来执行,该装置可采用软件和/或硬件的方式实现,如图1所示,该方法具体包括如下步骤:
S110,获取图像样本集,其中,所述图像样本集包括:面部图像样本、面部图像样本对应的痤疮等级以及面部图像样本对应的痤疮数量。
其中,图像样本集可以指多个图像样本的集合;面部图像样本可以指人的面部图像,可以从预设的图像数据库中获取;痤疮等级可以指根据痤疮的严重程度将其分为不同的等级,例如,可以分为轻微、中度、严重、非常严重等。痤疮数量可以指痤疮具体的个数,例如,有几个痤疮;具体的,痤疮数量可以设置为1-65不等。
本实施例中,可以从预设的图像数据库中获取面部图像样本,通过专业人员确定各个面部图像样本中对应的痤疮等级以及痤疮数量并进行标注,进而组成图像样本集。
S120,基于所述图像样本集训练第一模型,得到目标模型,其中,所述第一模型包括:PoolFormer网络、第一分支全连接层以及第二分支全连接层,PoolFormer网络位于所述第一分支激活层和第二分支激活层之前,所述PoolFormer网络包括:至少两个PoolFormer块。
其中,第一模型可以指训练前的痤疮识别模型,目标模型可以指训练后的痤疮识别模型。PoolFormer网络可以指PoolFormer block结构;图2为本发明实施例一提供的一种transformer宏观架构PoolFormer结构图,如图2所示, PoolFormer 可以由4个 stage (阶段)组成,各个 stage 的输入分辨率逐级递减,Block 数分别是L/6,L/6,L/2,L/6,L为总的PoolFormer blocks数量,具体可以为48。第一阶段包括:第一个Patch embedding和L/6PoolFormer blocks,第二阶段包括:第二个Patch embedding和L/6PoolFormer blocks,第三阶段包括:第三个Patch embedding和L/2PoolFormer blocks,第四阶段包括:第四个Patch embedding和L/6PoolFormer blocks;其中,Patch embedding可以指块嵌入,每个Patch embedding包括至少一层卷积层,卷积层参数包括:输入特征图的通道数、输出特征图的通道数、核大小、步长以及填充数。D为输入图像的维度, H、W、C是表示输入图像的高、宽和通道数。具体的,将3×H×W的面部图像输入(input)PoolFormer主干网络中的第一阶段,得到C1×H/4×W/4的特征图,将C1×H/4×W/4的特征图输入第二阶段,得到C2×H/8×W/8的特征图,将C2×H/8×W/8的特征图输入第三阶段,得到C3×H/16×W/16的特征图,将C3×H/16×W/16的特征图输入第四阶段,得到C4×H/32×W/32的特征图。在一个具体的例子中,将3×384×384的面部图像输入(input)PoolFormer主干网络中的第一阶段(stage1)中,得到64*96*96的特征图;再将64*96*96的特征图输入到第二阶段(stage2)得到128*48*48的特征图;再将128*48*48的特征图输入到第三阶段(stage3)得到320*24*24的特征图;再将320*24*24的特征图输入到第四阶段(stage4)得到512*12*12的特征图。其中,第一个Patch embedding对应的卷积层参数包括:输入特征图的通道数:3,输出特征图的通道数:64,核大小:7,步长:4,填充:2。第二个Patch embedding对应的卷积层参数包括:输入特征图的通道数:64,输出特征图的通道数:128,核大小:3,步长:2,填充:1。第三个Patchembedding对应的卷积层参数包括:输入特征图的通道数:128,输出特征图的通道数:320,核大小:3,步长:2,填充:1。第四个Patch embedding对应的卷积层参数包括:输入特征图的通道数:320,输出特征图的通道数:512,核大小:3,步长:2,填充:1。
图3为本发明实施例一提供的一种PoolFormer block结构示意图,如图3所示,PoolFormer block包括:Pooling层、Channel MLP层以及norm层,其中,Pooling层也就是池化层,池化层参数包括:核大小:3,步长:1,填充1;池化层具有特征不变性;能够对提取的特征进行降维处理、去除冗余信息;还能够防止过拟合。Channel MLP(MLP通道),MLP为多层感知机(Multilayer Perceptron),Channel MLP层包括:第一卷积层、激活函数以及第二卷积层,第一卷积层为1*1卷积,第一卷积层包括:输入特征图的通道数:第一个Patchembedding的输出通道数(若PoolFormer block为与第一个Patch embedding相连的首个PoolFormer block),输出特征图的通道数:输入特征图的通道数的四倍。第二卷积层为1*1卷积,第二卷积层包括:输入特征图的通道数:第一卷积层的输出通道数,输出特征图的通道数:1/4第一卷积层的输出通道数。norm层是归一化层,对一个样本内的每个特征做归一化。在一个具体的例子中,如图3所示,若PoolFormer block为与第一个Patch embedding相连的首个PoolFormer block,则将第一个Patch embedding输出的特征图X输入norm层,得到norm(X),将norm(X)输入Pooling层,得到TokenMixer(norm(X)),根据TokenMixer(norm(X))+X确定Y,将Y输入norm层,得到norm(Y),将norm(Y)输入Channel MLP层,得到θ(norm(Y)W1)W2,进而得到PoolFormer block的输出θ(norm(Y)W1)W2+Y。
具体的,图4为本发明实施例一提供的一种Channel MLP层结构示意图,如图4所示,所述Channel MLP层从输入到输出方向依次包括:第一卷积层、激活函数以及第二卷积层。将norm(Y)输入第一卷积层,得到norm(Y)W1,将norm(Y)W1输入激活函数,得到θ(norm(Y)W1),将θ(norm(Y)W1)输入第二卷积层,得到θ(norm(Y)W1)W2。
第一分支全连接层可以指痤疮数量分支全连接层;第二分支全连接层可以指痤疮等级分支全连接层;第一分支激活层可以用于对第一分支全连接层输出的预测痤疮数量进行预处理;第二分支激活层可以用于对第二分支全连接层输出的预测痤疮等级进行预处理。
具体的,图5为本发明实施例一提供的一种痤疮识别网络结构图,如图5所示,所述第一模型通过主干网络PoolFormer提取特征,其中,主干网络PoolFormer中包括至少两个PoolFormer Blocks;通过主干网络PoolFormer提取特征后输入全连接层(FC Layers),通过全连接层进行处理后再分别输入第一分支全连接层和第二分支全连接层,第一分支全连接层可以指痤疮数量分支全连接层,第二分支全连接层可以指痤疮等级分支全连接层。通过第一分支全连接层可以得到预测痤疮数量;根据预测痤疮数量与面部图像样本实际对应的痤疮数量确定MSE损失函数;第一分支激活层可以通过softmax对第一分支全连接层输出的内容进行预处理,再获取预测痤疮数量的计数类别信息,痤疮数量的计数类别信息可以根据图像样本集中痤疮数量最多的面部图像样本对应的痤疮数量确定,根据预测痤疮数量的计数类别信息与面部图像样本实际对应的痤疮数量确定损失函数H(y, );即第一分支全连接层输出的损失函数Loss2为损失函数H(y,/>与MSE损失函数的和。通过第二分支全连接层可以得到预测痤疮等级,第二分支激活层可以通过softmax对第二分支全连接层输出的内容进行预处理,cls表示根据预测痤疮等级和面部图像样本实际对应的痤疮等级确定损失函数的过程,该损失函数可以记为loss(cls);可以根据痤疮数量与痤疮等级的转换关系,确定第一分支激活层通过softmax预处理后的得到预测痤疮数量对应的痤疮等级,cnt2cls表示根据预测痤疮数量对应的痤疮等级和面部图像样本实际对应的痤疮等级确定损失函数的过程,该损失函数可以记为loss(cnt2cls);即第二分支全连接层输出的损失函数Loss1=loss(cls) + loss(cnt2cls)。通过Loss1和Loss2训练第一模型,得到目标模型;该目标模型既能够对痤疮的严重程度进行分级,同时还能够预测病变数量,可以通过对痤疮的严重程度进行打分,进而为痤疮的诊断提供依据。
本实施例的技术方案,通过获取图像样本集,其中,所述图像样本集包括:面部图像样本、面部图像样本对应的痤疮等级以及面部图像样本对应的痤疮数量;基于所述图像样本集训练第一模型,得到目标模型,其中,所述第一模型包括:PoolFormer网络、第一分支全连接层以及第二分支全连接层,PoolFormer网络位于所述第一分支激活层和第二分支激活层之前,所述PoolFormer网络包括:至少两个PoolFormer块,解决现有技术中训练数据有限以及标签之间存在一定程度的模糊性、以及缺乏鲁棒性的问题,实现通过目标模型同时对痤疮的严重程度进行分级,并预测病变数量,根据预测概率分布将严重程度进行打分,为痤疮的诊断提供依据,准确率更高,鲁棒性更强,解释性强。
可选的,所述模型训练方法,还包括:
采集面部图像;
将面部图像输入所述目标模型,得到所述面部图像对应的痤疮等级和痤疮数量。
其中,采集面部图像可以通过在摄像设备进行采集,将采集的面部图像存入预先设置的面部图像库,面部图像库可以指包含多个面部图像的数据库。将采集面部图像输入目标模型,通过提取计算后可以得到所述面部图像对应的痤疮等级和痤疮数量,根据痤疮等级和痤疮数量确定痤疮严重程度,为痤疮的诊断提供依据。
本实施例中,可以通过采集面部图像,根据面部图像对应的痤疮等级以及痤疮数量,确定痤疮严重程度,为痤疮的诊断提供依据。
实施例二
图6为本发明实施例二提供的一种模型训练方法的流程图,本实施例的技术方案在上述实施例的基础上进行了进一步的细化。如图6所示,该方法包括:
S210,获取图像样本集,其中,所述图像样本集包括:面部图像样本、面部图像样本对应的痤疮等级以及面部图像样本对应的痤疮数量。
S220,将所述图像样本集中的面部图像样本输入PoolFormer网络,得到面部图像样本对应的目标特征数据。
其中,目标特征数据可以指通过PoolFormer网络进行特征提取后输出的特征数据。
本实施例中,通过Transformer宏观架构PoolFormer有效地捕获图像样本集中的面部图像样本中的全局信息,而不仅仅是局部特征,使用自注意力机制来同时关注面部图像样本中的各个区域,更好地理解全局上下文。进一步的,使用位置嵌入(positionembeddings)来处理位置信息,基于模型中的自注意力机制,可以提供更好的可解释性,准确率更高,鲁棒性更强。
S230,将所述面部图像样本对应的目标特征数据输入第一分支全连接层,得到预测痤疮数量。
其中,预测痤疮数量可以指通过将面部图像样本对应的目标特征数据输入第一分支全连接层后,第一模型输出的面部图像样本所对应预测痤疮数量。
S240,将所述面部图像样本对应的目标特征数据输入第二分支全连接层,得到预测痤疮等级。
其中,预测痤疮等级可以指通过将面部图像样本对应的目标特征数据输入第二分支全连接层后,第一模型输出的面部图像样本所对应得到预测痤疮等级。
S250,根据预测痤疮数量、面部图像样本对应的痤疮数量以及预测痤疮数量对应的计数类别信息生成第一损失函数。具体的,获取所述预测痤疮数量对应的计数类别信息的方式可以为:获取图像样本集中每个面部图像样本对应的痤疮数量中最大的痤疮数量,将所述最大的痤疮数量除以间隔参数,得到分类数量,其中间隔参数可以指间隔痤疮数量类别的参数,分类数量可以理解为痤疮数量可以分为几类,根据预测痤疮数量和分类数量确定预测痤疮数量对应的计数类别信息。
本实施例中,可以根据第一模型输出的面部图像样本对应的预测痤疮数量、图像样本集中面部图像样本对应的痤疮数量以及预测痤疮数量对应的计数类别信息生成第一损失函数。
S260,根据预测痤疮等级、面部图像样本对应的痤疮等级以及预测痤疮数量对应的痤疮等级生成第二损失函数。
本实施例中,可以根据第一模型输出的面部图像样本对应的预测痤疮等级、图像样本集中面部图像样本对应的痤疮等级以及预测痤疮数量对应的痤疮等级生成第二损失函数。
S270,根据所述第一损失函数和所述第二损失函数训练所述第一模型的参数,得到目标模型。
具体的,通过第一损失函数和所述第二损失函数训练第一模型的参数可以先进行数据增强,如表1所示,采用随机裁剪,水平反转,随机旋转,高斯噪声,中值滤波等。
表1 数据增强表
再进行参数训练,训练参数设置如表2所示,epoch 设置为100,bachsize为16,优化器选择AdamW,学习率调整器采用ExponentialLR,初始学习率lr设为0.00005,正则化项weight_decay 设定为0.001,移动平均betas中的beta1和beta2设定为0.9和0.999。
表2 训练参数表
本实施例中,通过图像样本集中的面部图像样本,得到面部图像样本对应的目标特征数据;根据面部图像样本对应的目标特征数据,确定预测痤疮数量和预测痤疮等级;进而生成第一损失函数和第二损失函数,根据所述第一损失函数和所述第二损失函数训练所述第一模型的参数,得到目标模型;以实现通过目标模型同时对痤疮的严重程度进行分级,并预测病变数量,根据预测概率分布将严重程度进行打分,为痤疮的诊断提供依据;且准确率更高,鲁棒性更强,解释性强。
可选的,根据预测痤疮数量、面部图像样本对应的痤疮数量以及预测痤疮数量对应的计数类别信息生成第一损失函数,包括:
根据预测痤疮数量和面部图像样本对应的痤疮数量生成MSE损失函数;
根据所述预测痤疮数量对应的计数类别信息和面部图像样本对应的痤疮数量生成计数分类损失函数;
根据所述计数分类损失函数和所述MSE损失函数生成第一损失函数。
具体的,通过第一模型确定预测痤疮数量,根据预测痤疮数量和图像样本集面部图像样本对应的痤疮数量之间的差值生成MSE损失函数。根据所述预测痤疮数量对应的计数类别信息和面部图像样本对应的痤疮数量生成计数分类损失函数,其中,痤疮数量是连续的,可以通过分桶的思想,将多个痤疮数量进行分类。根据所述预测痤疮数量对应的计数类别信息和面部图像样本对应的痤疮数量生成计数分类损失函数H(y, );根据所述计数分类损失函数和所述MSE损失函数生成第一损失函数,第一损失函数公式如下:
;
其中,a为超参数。
可选的,根据预测痤疮等级、面部图像样本对应的痤疮等级以及预测痤疮数量对应的痤疮等级生成第二损失函数,包括:
根据所述预测痤疮数量对应的痤疮等级和面部图像样本对应的痤疮等级生成痤疮等级损失函数;
根据所述预测痤疮等级和面部图像样本对应的痤疮等级生成等级分类损失函数;
根据痤疮等级损失函数和所述等级分类损失函数生成第二损失函数。
具体的,获取预测痤疮数量对应的痤疮等级的方式可以为:对所述预测痤疮数量进行转换,得到预测痤疮数量对应的痤疮等级。获取预测痤疮数量对应的痤疮等级的方式还可以为:查询痤疮等级与痤疮数量之间的对应关系,得到预测痤疮数量对应的痤疮等级。
在一个具体的例子中,痤疮等级与痤疮数量之间的对应关系如表3所示:
表3
痤疮数量 | 严重等级 |
1~8 | 轻微 |
8~20 | 中度 |
20~50 | 严重 |
>50 | 非常严重 |
若预测痤疮数量为60,则查询表3确定预测痤疮数量对应的痤疮等级为“非常严重”。
可以理解为通过softmax 激活函数对预测痤疮等级进行预处理,再查询痤疮等级与痤疮数量之间的对应关系,得到预测痤疮数量对应的痤疮等级,softmax 激活函数公式如下所示:
本实施例中,根据所述预测痤疮数量对应的痤疮等级和图像样本集中面部图像样本对应的痤疮等级生成痤疮等级损失函数loss(cou2cls);根据第一模型输出的预测痤疮等级和图像样本集中面部图像样本对应的痤疮等级生成等级分类损失函数loss(cls);根据痤疮等级损失函数和等级分类损失函数生成第二损失函数(Loss1);根据第一损失函数和第二损失函数训练第一模型的参数,得到目标模型,实现了通过目标模型同时对痤疮的严重程度进行分级,并预测病变数量,根据预测概率分布将严重程度进行打分,为痤疮的诊断提供了依据。
可选的,在根据所述预测痤疮数量对应的计数类别信息和面部图像样本对应的痤疮数量生成计数分类损失函数之前,还包括:
获取间隔参数;
基于间隔参数确定分类数量;
根据分类数量、预测痤疮数量以及图像样本集确定预测痤疮数量对应的计数类别信息。
其中,间隔参数可以指预先设置的用于间隔痤疮数量类别的参数;分类数量可以指面部图像中痤疮数量的分类的数量。可以根据图像样本集中痤疮数量最多的面部图像样本确定痤疮的分类。
在一个具体的例子中,可以将间隔参数设置为2,若图像样本集中的多个面部图像样本对应的痤疮数量最大为20,那么痤疮数量可以分为20类,分别为痤疮数量为1的一类、痤疮数量为2的一类、痤疮数量为3的一类······痤疮数量为20的一类,每一类都有其对应的概率;例如,痤疮数量为1的一类,对应的概率可以为0.1;痤疮数量为2的一类,对应的概率可以为0.15等等。20类除以间隔参数2等于10类,可以理解为将20类中两类合为一类,将痤疮数量分为了10类,预测痤疮数量就是1-10类,例如,第1类可以包括痤疮数量为1的一类、痤疮数量为2的一类;第2类可以包括痤疮数量为3的一类、痤疮数量为4的一类······第10类可以包括痤疮数量为19的一类、痤疮数量为20的一类。10类中每一类对应的概率为所包括的两类的概率的和,若第10类对应的概率最大,则可以将痤疮数量19、20确定为预测痤疮数量对应的计数类别信息,若面部图像样本对应的痤疮数量为18,则根据预测痤疮数量对应的计数类别信息19、20和面部图像样本对应的痤疮数量18生成的损失函数。或者,可以将痤疮数量为19与痤疮数量为20中概率较高的确定为预测痤疮数量对应的计数类别信息,若痤疮数量为20的概率高于痤疮数量为19的概率,则将20确定为预测痤疮数量对应的计数类别信息,若面部图像样本对应的痤疮数量为18,则根据预测痤疮数量对应的计数类别信息20和面部图像样本对应的痤疮数量18生成的损失函数。
本实施例中,采用分桶的思想,设置间隔参数,基于间隔参数减少分类数量,能够有效提高面部痤疮识别的速度;根据预测痤疮数量、面部图像样本对应的痤疮数量以及预测痤疮数量对应的计数类别信息生成第一损失函数,可以有效降低预测痤疮数量的预测误差。
实施例三
图7为本发明实施例三提供的一种模型训练装置的结构示意图。如图7所示,该装置包括:
获取模块310,用于获取图像样本集,其中,所述图像样本集包括:面部图像样本、面部图像样本对应的痤疮等级以及面部图像样本对应的痤疮数量;
训练模块320,用于基于所述图像样本集训练第一模型,得到目标模型,其中,所述第一模型包括:PoolFormer网络、第一分支全连接层以及第二分支全连接层,PoolFormer网络位于所述第一分支激活层和第二分支激活层之前,所述PoolFormer网络包括:至少两个PoolFormer块。
可选的,训练模块,包括:
第一确定单元,用于将所述图像样本集中的面部图像样本输入PoolFormer网络,得到面部图像样本对应的目标特征数据;
第二确定单元,用于将所述面部图像样本对应的目标特征数据输入第一分支全连接层,得到预测痤疮数量;
第三确定单元,用于将所述面部图像样本对应的目标特征数据输入第二分支全连接层,得到预测痤疮等级;
第一生成单元,用于根据预测痤疮数量、面部图像样本对应的痤疮数量以及预测痤疮数量对应的计数类别信息生成第一损失函数;
第二生成单元,用于根据预测痤疮等级、面部图像样本对应的痤疮等级以及预测痤疮数量对应的痤疮等级生成第二损失函数;
训练单元,用于根据所述第一损失函数和所述第二损失函数训练所述第一模型的参数,得到目标模型。
可选的,所述第一生成单元具体用于:
根据预测痤疮数量和面部图像样本对应的痤疮数量生成MSE损失函数;
根据所述预测痤疮数量对应的计数类别信息和面部图像样本对应的痤疮数量生成计数分类损失函数;
根据所述计数分类损失函数和所述MSE损失函数生成第一损失函数。
可选的,所述第二生成单元具体用于:
根据所述预测痤疮数量对应的痤疮等级和面部图像样本对应的痤疮等级生成痤疮等级损失函数;
根据所述预测痤疮等级和面部图像样本对应的痤疮等级生成等级分类损失函数;
根据痤疮等级损失函数和所述等级分类损失函数生成第二损失函数。
可选的,所述第一生成单元还用于:
获取间隔参数;
基于间隔参数确定分类数量;
根据分类数量、预测痤疮数量以及图像样本集确定预测痤疮数量对应的计数类别信息。
可选的,还包括:
面部图像采集模块,用于采集面部图像;
面部图像对应的痤疮等级和痤疮数量确定模块,用于将面部图像输入所述目标模型,得到所述面部图像对应的痤疮等级和痤疮数量。
本发明实施例所提供的模型训练装置可执行本发明任意实施例所提供的模型训练方法,具备执行方法相应的功能模块和有益效果
实施例四
图8示出了可以用来实施本发明的实施例的电子设备的结构示意图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备(如头盔、眼镜、手表等)和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本发明的实现。
如图8所示,电子设备10包括至少一个处理器11,以及与至少一个处理器11通信连接的存储器,如只读存储器(ROM)12、随机访问存储器(RAM)13等,其中,存储器存储有可被至少一个处理器执行的计算机程序,处理器11可以根据存储在只读存储器(ROM)12中的计算机程序或者从存储单元18加载到随机访问存储器(RAM)13中的计算机程序,来执行各种适当的动作和处理。在RAM 13中,还可存储电子设备10操作所需的各种程序和数据。处理器11、ROM 12以及RAM 13通过总线14彼此相连。输入/输出(I/O)接口15也连接至总线14。
电子设备10中的多个部件连接至I/O接口15,包括:输入单元16,例如键盘、鼠标等;输出单元17,例如各种类型的显示器、扬声器等;存储单元18,例如磁盘、光盘等;以及通信单元19,例如网卡、调制解调器、无线通信收发机等。通信单元19允许电子设备10通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
处理器11可以是各种具有处理和计算能力的通用和/或专用处理组件。处理器11的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的处理器、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。处理器11执行上文所描述的各个方法和处理,例如模型训练方法。
在一些实施例中,模型训练方法可被实现为计算机程序,其被有形地包含于计算机可读存储介质,例如存储单元18。在一些实施例中,计算机程序的部分或者全部可以经由ROM 12和/或通信单元19而被载入和/或安装到电子设备10上。当计算机程序加载到RAM 13并由处理器11执行时,可以执行上文描述的模型训练方法的一个或多个步骤。备选地,在其他实施例中,处理器11可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行模型训练方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本发明的方法的计算机程序可以采用一个或多个编程语言的任何组合来编写。这些计算机程序可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器,使得计算机程序当由处理器执行时使流程图和/或框图中所规定的功能/操作被实施。计算机程序可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本发明的上下文中,计算机可读存储介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的计算机程序。计算机可读存储介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。备选地,计算机可读存储介质可以是机器可读信号介质。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在电子设备上实施此处描述的系统和技术,该电子设备具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给电子设备。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、区块链网络和互联网。
计算系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务中,存在的管理难度大,业务扩展性弱的缺陷。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发明中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本发明的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本发明保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本发明的精神和原则之内所作的修改、等同替换和改进等,均应包含在本发明保护范围之内。
Claims (10)
1.一种模型训练方法,其特征在于,包括:
获取图像样本集,其中,所述图像样本集包括:面部图像样本、面部图像样本对应的痤疮等级以及面部图像样本对应的痤疮数量;
基于所述图像样本集训练第一模型,得到目标模型,其中,所述第一模型包括:PoolFormer网络、第一分支全连接层以及第二分支全连接层,PoolFormer网络位于所述第一分支激活层和第二分支激活层之前,所述PoolFormer网络包括:至少两个PoolFormer块。
2.根据权利要求1所述的方法,其特征在于,基于所述图像样本集训练第一模型,得到目标模型,包括:
将所述图像样本集中的面部图像样本输入PoolFormer网络,得到面部图像样本对应的目标特征数据;
将所述面部图像样本对应的目标特征数据输入第一分支全连接层,得到预测痤疮数量;
将所述面部图像样本对应的目标特征数据输入第二分支全连接层,得到预测痤疮等级;
根据预测痤疮数量、面部图像样本对应的痤疮数量以及预测痤疮数量对应的计数类别信息生成第一损失函数;
根据预测痤疮等级、面部图像样本对应的痤疮等级以及预测痤疮数量对应的痤疮等级生成第二损失函数;
根据所述第一损失函数和所述第二损失函数训练所述第一模型的参数,得到目标模型。
3.根据权利要求2所述的方法,其特征在于,根据预测痤疮数量、面部图像样本对应的痤疮数量以及预测痤疮数量对应的计数类别信息生成第一损失函数,包括:
根据预测痤疮数量和面部图像样本对应的痤疮数量生成MSE损失函数;
根据所述预测痤疮数量对应的计数类别信息和面部图像样本对应的痤疮数量生成计数分类损失函数;
根据所述计数分类损失函数和所述MSE损失函数生成第一损失函数。
4.根据权利要求2所述的方法,其特征在于,根据预测痤疮等级、面部图像样本对应的痤疮等级以及预测痤疮数量对应的痤疮等级生成第二损失函数,包括:
根据所述预测痤疮数量对应的痤疮等级和面部图像样本对应的痤疮等级生成痤疮等级损失函数;
根据所述预测痤疮等级和面部图像样本对应的痤疮等级生成等级分类损失函数;
根据痤疮等级损失函数和所述等级分类损失函数生成第二损失函数。
5.根据权利要求3所述的方法,其特征在于,在根据所述预测痤疮数量对应的计数类别信息和面部图像样本对应的痤疮数量生成计数分类损失函数之前,还包括:
获取间隔参数;
基于间隔参数确定分类数量;
根据分类数量、预测痤疮数量以及图像样本集确定预测痤疮数量对应的计数类别信息。
6.根据权利要求1所述的方法,其特征在于,还包括:
采集面部图像;
将面部图像输入所述目标模型,得到所述面部图像对应的痤疮等级和痤疮数量。
7.一种模型训练装置,其特征在于,包括:
获取模块,用于获取图像样本集,其中,所述图像样本集包括:面部图像样本、面部图像样本对应的痤疮等级以及面部图像样本对应的痤疮数量;
训练模块,用于基于所述图像样本集训练第一模型,得到目标模型,其中,所述第一模型包括:PoolFormer网络、第一分支全连接层以及第二分支全连接层,PoolFormer网络位于所述第一分支激活层和第二分支激活层之前,所述PoolFormer网络包括:至少两个PoolFormer块。
8.根据权利要求7所述的装置,其特征在于,所述训练模块包括:
第一确定单元,用于将所述图像样本集中的面部图像样本输入PoolFormer网络,得到面部图像样本对应的目标特征数据;
第二确定单元,用于将所述面部图像样本对应的目标特征数据输入第一分支全连接层,得到预测痤疮数量;
第三确定单元,用于将所述面部图像样本对应的目标特征数据输入第二分支全连接层,得到预测痤疮等级;
第一生成单元,用于根据预测痤疮数量、面部图像样本对应的痤疮数量以及预测痤疮数量对应的计数类别信息生成第一损失函数;
第二生成单元,用于根据预测痤疮等级、面部图像样本对应的痤疮等级以及预测痤疮数量对应的痤疮等级生成第二损失函数;
训练单元,用于根据所述第一损失函数和所述第二损失函数训练所述第一模型的参数,得到目标模型。
9.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-6中任一项所述的模型训练方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使处理器执行时实现权利要求1-6中任一项所述的模型训练方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311658594.0A CN117351307B (zh) | 2023-12-06 | 2023-12-06 | 一种模型训练方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311658594.0A CN117351307B (zh) | 2023-12-06 | 2023-12-06 | 一种模型训练方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117351307A true CN117351307A (zh) | 2024-01-05 |
CN117351307B CN117351307B (zh) | 2024-05-17 |
Family
ID=89371472
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311658594.0A Active CN117351307B (zh) | 2023-12-06 | 2023-12-06 | 一种模型训练方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117351307B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117392484A (zh) * | 2023-12-06 | 2024-01-12 | 深圳市宗匠科技有限公司 | 一种模型训练方法、装置、设备及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110648311A (zh) * | 2019-09-03 | 2020-01-03 | 南开大学 | 一种基于多任务学习的痤疮图像病灶分割与计数网络模型 |
US20210133968A1 (en) * | 2019-10-31 | 2021-05-06 | L'oréal | Machine-implemented acne grading |
CN113159227A (zh) * | 2021-05-18 | 2021-07-23 | 中国医学科学院皮肤病医院(中国医学科学院皮肤病研究所) | 一种基于神经网络的痤疮图像识别方法、系统和装置 |
CN114821245A (zh) * | 2022-05-30 | 2022-07-29 | 大连大学 | 一种基于全局视觉信息干预的医学视觉问答方法 |
CN115131328A (zh) * | 2022-07-14 | 2022-09-30 | 天津大学 | 一种多模态mri多病灶分割方法 |
CN115862112A (zh) * | 2022-12-12 | 2023-03-28 | 同济大学 | 一种人脸图像痤疮疗效评估用目标检测模型 |
CN116740643A (zh) * | 2023-06-29 | 2023-09-12 | 西安雀凌飞信息技术有限公司 | 一种基于视觉图像的鸟类识别系统及方法 |
CN116863522A (zh) * | 2023-06-30 | 2023-10-10 | 平安科技(深圳)有限公司 | 痤疮分级方法、装置、设备及介质 |
-
2023
- 2023-12-06 CN CN202311658594.0A patent/CN117351307B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110648311A (zh) * | 2019-09-03 | 2020-01-03 | 南开大学 | 一种基于多任务学习的痤疮图像病灶分割与计数网络模型 |
US20210133968A1 (en) * | 2019-10-31 | 2021-05-06 | L'oréal | Machine-implemented acne grading |
CN113159227A (zh) * | 2021-05-18 | 2021-07-23 | 中国医学科学院皮肤病医院(中国医学科学院皮肤病研究所) | 一种基于神经网络的痤疮图像识别方法、系统和装置 |
CN114821245A (zh) * | 2022-05-30 | 2022-07-29 | 大连大学 | 一种基于全局视觉信息干预的医学视觉问答方法 |
CN115131328A (zh) * | 2022-07-14 | 2022-09-30 | 天津大学 | 一种多模态mri多病灶分割方法 |
CN115862112A (zh) * | 2022-12-12 | 2023-03-28 | 同济大学 | 一种人脸图像痤疮疗效评估用目标检测模型 |
CN116740643A (zh) * | 2023-06-29 | 2023-09-12 | 西安雀凌飞信息技术有限公司 | 一种基于视觉图像的鸟类识别系统及方法 |
CN116863522A (zh) * | 2023-06-30 | 2023-10-10 | 平安科技(深圳)有限公司 | 痤疮分级方法、装置、设备及介质 |
Non-Patent Citations (2)
Title |
---|
ZHANG HANG ET AL.: "Acne Detection by Ensemble Neural Networks", 《SENSORS》, pages 1 - 8 * |
张可晔 等: "基于多流神经网络的痤疮证候分类", 《北京生物医学工程》, pages 1 - 7 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117392484A (zh) * | 2023-12-06 | 2024-01-12 | 深圳市宗匠科技有限公司 | 一种模型训练方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN117351307B (zh) | 2024-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112906502B (zh) | 目标检测模型的训练方法、装置、设备以及存储介质 | |
CN111680706A (zh) | 一种基于编码和解码结构的双通道输出轮廓检测方法 | |
CN117351307B (zh) | 一种模型训练方法、装置、设备及存储介质 | |
CN110852330A (zh) | 一种基于单阶段的行为识别方法 | |
CN115294332A (zh) | 一种图像处理方法、装置、设备和存储介质 | |
CN116485817A (zh) | 图像分割方法、装置、电子设备及存储介质 | |
CN115661459A (zh) | 一种使用差异信息的2D mean teacher模型 | |
CN117392484A (zh) | 一种模型训练方法、装置、设备及存储介质 | |
US20230096921A1 (en) | Image recognition method and apparatus, electronic device and readable storage medium | |
Jin et al. | Defect identification of adhesive structure based on DCGAN and YOLOv5 | |
Nie et al. | Recent advances in diagnosis of skin lesions using dermoscopic images based on deep learning | |
CN117274266B (zh) | 痘痘严重程度的分级方法、装置、设备及存储介质 | |
CN113869253A (zh) | 活体检测方法、训练方法、装置、电子设备及介质 | |
Kumar et al. | Diabetic Retinopathy Detection using Deep Learning Methodology | |
CN115457329B (zh) | 图像分类模型的训练方法、图像分类方法和装置 | |
CN115526882A (zh) | 一种医学图像的分类方法、装置、设备及存储介质 | |
CN111291820B (zh) | 一种结合定位信息和分类信息的目标检测方法 | |
CN114565617A (zh) | 基于剪枝U-Net++的乳腺肿块图像分割方法及系统 | |
CN113763313A (zh) | 文本图像的质量检测方法、装置、介质及电子设备 | |
Wang et al. | PCRTAM-Net: A novel pre-activated convolution residual and triple attention mechanism network for retinal vessel segmentation | |
CN117333487B (zh) | 一种痘痘分级方法、装置、设备及存储介质 | |
Han et al. | An attention-oriented U-Net model and global feature for medical image segmentation | |
CN116071773B (zh) | 检测电网建设类档案中表格的方法、装置、介质和设备 | |
CN113705489B (zh) | 基于先验区域知识指导的遥感影像细粒度飞机识别方法 | |
Peng | Research on YOLOv4 Object Detection Based on K-means Algorithm and Fusion Attention Mechanism |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |