CN115457337A - 一种基于标签分布学习的含细粒度噪图像分类方法 - Google Patents
一种基于标签分布学习的含细粒度噪图像分类方法 Download PDFInfo
- Publication number
- CN115457337A CN115457337A CN202211339492.8A CN202211339492A CN115457337A CN 115457337 A CN115457337 A CN 115457337A CN 202211339492 A CN202211339492 A CN 202211339492A CN 115457337 A CN115457337 A CN 115457337A
- Authority
- CN
- China
- Prior art keywords
- loss
- sample
- network
- label distribution
- samples
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 65
- 230000006870 function Effects 0.000 claims abstract description 38
- 238000004364 calculation method Methods 0.000 claims abstract description 13
- 238000012937 correction Methods 0.000 claims abstract description 9
- 238000003062 neural network model Methods 0.000 claims abstract description 9
- 238000013528 artificial neural network Methods 0.000 claims description 40
- 238000012549 training Methods 0.000 claims description 29
- 230000008569 process Effects 0.000 claims description 17
- 239000011159 matrix material Substances 0.000 claims description 10
- 238000012544 monitoring process Methods 0.000 claims description 6
- 238000012512 characterization method Methods 0.000 claims description 4
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 claims description 3
- 241000135164 Timea Species 0.000 claims description 3
- 238000000354 decomposition reaction Methods 0.000 claims description 3
- 238000003384 imaging method Methods 0.000 claims description 3
- 238000002156 mixing Methods 0.000 claims description 3
- 239000000203 mixture Substances 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 238000005192 partition Methods 0.000 claims description 2
- 238000012163 sequencing technique Methods 0.000 claims description 2
- 238000012545 processing Methods 0.000 abstract description 2
- 230000009467 reduction Effects 0.000 abstract description 2
- 238000002474 experimental method Methods 0.000 description 7
- 230000009977 dual effect Effects 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002238 attenuated effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010561 standard procedure Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/778—Active pattern-learning, e.g. online learning of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于标签分布学习的含细粒度噪图像分类方法,首先采用双导师网络互相推荐样本的模式对输入图像进行计算,并输出样本计算结果,接着通过样本选择模块和样本交换模块能依次完成对样本计算结果的选择和交换,再输入至标签分布学习模块,随后由标签分布学习模块能对高损失值样本执行标签分布学习,并实时更新网络神经网络模型的参数,再进行损失校正,然后构建用于提升双导师网络表征学习能力的自监督学习模块,而双导师网络使用各自的损失函数进行更新;本发明能够克服因图像数据集中的噪声导致的模型性能下降的情况,提高了对含细粒度噪图像的分类识别能力,且在处理含细粒度噪图像分类具有高效性和优越性。
Description
技术领域
本发明涉及细粒度图像分类识别技术领域,具体涉及一种基于标签分布学习的含细粒度噪图像分类方法。
背景技术
当前流行的数据集噪声去除方法是在网络训练的过程中剔除出被识别为噪声的样本,仅仅利用主观的“干净样本”来更新网络参数;但是剔除噪声样本的方法并没有显式地指出噪声样本的分布特性。
目前,一些方法直接将低损失值样本视作干净样本并只用这些样本更新网络,作为代表的 Co-teaching 方法是当前比较受到认可的工作;Co-teaching 方法的主要思路就是同时训练两个独立的神经网络,而各个网络选择训练过程中损失值较低的样本并交流给相对应的网络用于更新参数;尽管这种方法能够取得一定效果,但是低损失样本的选择标准过于偏向简单样本,现有的方法总是难以从困难样本中区分出噪声样本,去噪训练网络在调试参数的时候往往倾向于选择尽可能的过滤噪声,而过度的剔除疑似噪声数据必定导致训练数据的浪费和训练出的模型泛化性能不佳;因此,需要设计一种基于标签分布学习的含细粒度噪图像分类方法。
发明内容
本发明的目的是克服现有技术中因图像数据集中的噪声导致的模型性能下降的问题,为更好的有效解决问题,提供了一种基于标签分布学习的含细粒度噪图像分类方法,其在处理含细粒度噪图像分类具有高效性和优越性。
为了达到上述目的,本发明所采用的技术方案是:
一种基于标签分布学习的含细粒度噪图像分类方法,包括以下步骤,
步骤(A),采用双导师网络互相推荐样本的模式对输入图像进行计算,并输出样本计算结果;
步骤(B),通过样本选择模块和样本交换模块能依次完成对样本计算结果的选择和交换,再输入至标签分布学习模块;
步骤(C),由标签分布学习模块能对高损失值样本执行标签分布学习,并实时更新网络神经网络模型的参数,再进行损失校正;
步骤(D),构建用于提升双导师网络表征学习能力的自监督学习模块;
步骤(E),双导师网络使用各自的损失函数进行更新;
步骤(F),由标签分布学习模块输出样本标签分布,完成对输入图像的分类作业。
优选的,步骤(A),采用双导师网络互相推荐样本的模式对输入图像进行计算,并输出样本计算结果,其中双导师网络在网络结构中设置了两个结构相同的深度神经网络同时工作,且两个深度神经网络分别使用和表示,输入图像中的样本会被分别送入和中,再利用损失函数分别计算各个在两个神经网络中的损失,损失函数如公式(1)所示,
优选的,步骤(B),通过样本选择模块和样本交换模块能依次完成对样本计算结果的选择和交换,再输入至标签分布学习模块,其中具体步骤如下,
步骤(B1),样本选择模块,样本选择模块对输入的B进行损失值排序,并分成了和、和,其中和包含了个损失最小的训练样本,而和则包含了剩下的样本,具体步骤是设一个低损失划分比例,则和能定义为如公式(2)所示,并将训练集通过损失值得大小分为两个子集,
优选的,步骤(C),由标签分布学习模块能对高损失值样本执行标签分布学习,并实时更新网络神经网络模型的参数,再进行损失校正,其中标签分布学习模块的具体内容是采用Kullback-Leibler散度损失指导标签分布训练、采用基于Mixup技术的高损失样本与低损失样本混合以及引入辅助性的一致性损失函数,具体步骤如下,
步骤(C1),采用Kullback-Leibler散度损失指导标签分布训练,通过采用Kullback-Leibler散度定义损失,并要维护一个标签分布矩阵,且矩阵的各个项中维护了样本中的真实标签估计值,其中是一个维度为向量,且是分类任务的类别数,而标签分布是样本属于各个标签的归属度分布,Kullback-Leibler散度损失如公式(5)所示,
步骤(C2),采用基于Mixup技术的高损失样本与低损失样本混合,具体步骤如下,
步骤(C3),引入辅助性的一致性损失函数,且一致性损失函数用于指导和正则化模型的训练过程,其中一致性损失是标签分布与原始标签的分布一致性,即标签分布与原始标签在被选出的干净样本上的交叉熵和,如公式(11)和公式(12)所示,
优选的,步骤(D),构建用于提升双导师网络表征学习能力的自监督学习模块,其中自监督学习模块能将在线网络预测从目标网络得到投影,且自监督学习模块将神经网络分解成三个主要部分:一是编码器Encoder记为,第二是投影,三是预测器,而自监督学习模块的具体工作步骤如下,
优选的,步骤(E),双导师网络使用各自的损失函数进行更新,其中损失函数的更新包含分类损失、一致性正则化损失和自监督学习的损失,且分类损失和一致性正则化损失之间是一个凸组合关系,且通过参数α调节,而自监督学习的损失通过参数调节,最终损失函数和如公式(16)和公式(17)所示,
本发明的有益效果是:
(1)本发明通过设置有的标签分布学习模块能对高损失值样本执行标签分布学习,并进行损失校正,该标签分布学习方法通过估计高损失值样本的正确标签概率分布,从而实现了对分布内噪声样本和困难样本的有效利用。
(2)本发明通过设置有的自监督学习模块能提升表征学习能力,改善了细粒度视觉识别模型的分类效果。
(3)本发明通过设置有的样本选择模块和样本交换模块能负责选择和交换样本供双网络模型交流信息,其利用了双导师网络互相推荐样本的模式,结合了样本选择和基于标签分布学习的损失校正方法,获得了细粒度分类性能的提升。
附图说明
图1是本发明的整体流程图;
图2是本发明的自监督学习模块结构示意图;
图3是本发明在三个真实世界数据集上的评估结果图。
具体实施方式
下面将结合说明书附图,对本发明作进一步的说明。
如图1所示,本发明的一种基于标签分布学习的含细粒度噪图像分类方法,包括以下步骤,
步骤(A),采用双导师网络互相推荐样本的模式对输入图像进行计算,并输出样本计算结果,其中双导师网络在网络结构中设置了两个结构相同的深度神经网络同时工作,且两个深度神经网络分别使用和表示,输入图像中的样本会被分别送入和中,再利用损失函数分别计算各个在两个神经网络中的损失,损失函数如公式(1)所示,
步骤(B),通过样本选择模块和样本交换模块能依次完成对样本计算结果的选择和交换,再输入至标签分布学习模块,其中具体步骤如下,
步骤(B1),样本选择模块,样本选择模块对输入的B进行损失值排序,并分成了和、和,其中和包含了个损失最小的训练样本,而和则包含了剩下的样本,具体步骤是设一个低损失划分比例,则和能定义为如公式(2)所示,并将训练集通过损失值得大小分为两个子集,
步骤(C),由标签分布学习模块能对高损失值样本执行标签分布学习,并实时更新网络神经网络模型的参数,再进行损失校正,其中标签分布学习模块的具体内容是采用Kullback-Leibler散度损失指导标签分布训练、采用基于Mixup技术的高损失样本与低损失样本混合以及引入辅助性的一致性损失函数,具体步骤如下,
步骤(C1),采用Kullback-Leibler散度损失指导标签分布训练,通过采用Kullback-Leibler散度定义损失,并要维护一个标签分布矩阵,且矩阵的各个项中维护了样本中的真实标签估计值,其中是一个维度为向量,且是分类任务的类别数,而标签分布是样本属于各个标签的归属度分布,Kullback-Leibler散度损失如公式(5)所示,
步骤(C2),采用基于Mixup技术的高损失样本与低损失样本混合,具体步骤如下,
步骤(C3),引入辅助性的一致性损失函数,且一致性损失函数用于指导和正则化模型的训练过程,其中一致性损失是标签分布与原始标签的分布一致性,即标签分布与原始标签在被选出的干净样本上的交叉熵和,如公式(11)和公式(12)所示,
如图2所示,步骤(D),构建用于提升双导师网络表征学习能力的自监督学习模块,其中自监督学习模块能将在线网络预测从目标网络得到投影,且自监督学习模块将神经网络分解成三个主要部分:一是编码器Encoder记为,第二是投影,三是预测器,而自监督学习模块的具体工作步骤如下,
步骤(E),双导师网络使用各自的损失函数进行更新,其中损失函数的更新包含分类损失、一致性正则化损失和自监督学习的损失,且分类损失和一致性正则化损失之间是一个凸组合关系,且通过参数α调节,而自监督学习的损失通过参数调节,最终损失函数和如公式(16)和公式(17)所示,
其中,本发明的训练过程分两步执行,从第一步开始,按照传统方法对神经网络和进行轮预热训练,而预热训练的过程中没有加入标签分布学习的模块,只是用初始化标签分布,其中是一个数值较大的常数,在预热训练的过程中标签分布学习并不能正常工作;在第二步中,需要利用该更新方法同时更新网络参数和标签分布矩阵。
步骤(F),由标签分布学习模块输出样本标签分布,完成对输入图像的分类作业。
为了更好的阐述本发明的使用效果,下面介绍本发明的一具体实施例,本发明在真实世界数据集上展开对比实验并在Web-Bird、Web-Aircraft和Web-Car三互联网监督的含噪细粒度视觉识别个数据集上评估了本发明的真实性能。上述三个数据集均搜集自互联网并含有开集噪声和闭集噪声,含有至少 25% 的非对称的噪声,同时数据集中也没有为错误标签标注正确的标签信息。
为了能够合理地评估获得的细粒度视觉识别模型的性能,本发明采用测试精度作为性能评估指标。每组实验结果都经过5轮重复且同设置的过程,最终通过求取测试精度的均值获得最终结果。
在Web-Aircraft、Web-Bird和Web-Car等数据集上的实验采用ResNet50作为骨干网络。实验中的训练过程采用随机梯度下降优化器SDG,动量设置为monentum=0.9,同时批大小为16,初始学习率是 0.003,权重衰减设置为 0.00001。实验总共训练了110 轮,其中预热训练是 10 轮。在预热训练结束之后,τ逐渐从 0.75 衰减到 0.5,同时学习率也以余弦衰减的方式逐渐变化。本项实验的标签分布的更新率也被设为 200;与此同时,实验中低损失样本学习过程采用了标签平滑技术,平滑参数。
本发明将和一系列当前性能最优的几种方法作对比,且实验中本发明实现了这些方法并用默认参数初始化,其中实验使用Pytorch并在Nvidia Tesla V100 GPU上实现,而在三个真实世界数据集上的评估结果见图3所示。
观察图3中数据可知,Standard+取得了明显优于Standard方法的结果,这验证了被广泛采用的选取低损失值样本作为干净样本的准则是有效的,本发明也采取了这一思路。同时,观察Co-teaching方法在对Standard+的数据可以确认,Co-teaching方法中的交叉更新方法cross-update是行之有效的,所以本发明中也接纳了这一策略。最后,通过图3中列举的各个对比方法取得的实验结果可以观察到本发明提出的方法的分类精度可以在Web-Aircraft、Web-Bird和Web-Car等含噪互联网细粒度图像分类数据集上一直领先各个对比方法。在所有训练过程结束后,本发明可以在Web-Aircraft、Web-Bird和Web-Car三个数据集上分别较性能最好对比方法分别领先+2.79%、+1.83%和+4.07%。
本发明在Web-Aircraft、Web-Bird和Web-Car三个数据集上相较Co-teaching方法在测试精度上分别取得了+4.29%、+4.34%和+4.22%的提升;相较于PENCIL方法在测试精度上分别取得了+5.01%、+5.93%和+7.47%的提升。综合上述表现,本发明提出的方法通过结合样本选择和损失校正的思路显示了较对比方法更加优越的有效性和优越性。
综上所述,本发明的一种基于标签分布学习的含细粒度噪图像分类方法,首先通过两个分支的神经网络分别产生了低损失样本和高损失样本两个集合,并跨网络地交换了对应样本集,接着对低损失样本使用传统的训练方法训练分类网络而高损失样本则采用标签分布学习方式参与网络训练,随后利用一致性损失和自监督损失分别正则化深度神经网络并增强学习到的表征,提高了对含细粒度噪图像的分类识别能力,且在处理含细粒度噪图像分类具有高效性和优越性。
以上显示和描述了本发明的基本原理、主要特征及优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。
Claims (6)
1.一种基于标签分布学习的含细粒度噪图像分类方法,其特征在于:包括以下步骤,
步骤(A),采用双导师网络互相推荐样本的模式对输入图像进行计算,并输出样本计算结果;
步骤(B),通过样本选择模块和样本交换模块能依次完成对样本计算结果的选择和交换,再输入至标签分布学习模块;
步骤(C),由标签分布学习模块能对高损失值样本执行标签分布学习,并实时更新网络神经网络模型的参数,再进行损失校正;
步骤(D),构建用于提升双导师网络表征学习能力的自监督学习模块;
步骤(E),双导师网络使用各自的损失函数进行更新;
步骤(F),由标签分布学习模块输出样本标签分布,完成对输入图像的分类作业。
3.根据权利要求2所述的一种基于标签分布学习的含细粒度噪图像分类方法,其特征在于:步骤(B),通过样本选择模块和样本交换模块能依次完成对样本计算结果的选择和交换,再输入至标签分布学习模块,其中具体步骤如下,
步骤(B1),样本选择模块,样本选择模块对输入的B进行损失值排序,并分成了和、和,其中和包含了个损失最小的训练样本,而和则包含了剩下的样本,具体步骤是设一个低损失划分比例,则和能定义为如公式(2)所示,并将训练集通过损失值得大小分为两个子集,
4.根据权利要求3所述的一种基于标签分布学习的含细粒度噪图像分类方法,其特征在于:步骤(C),由标签分布学习模块能对高损失值样本执行标签分布学习,并实时更新网络神经网络模型的参数,再进行损失校正,其中标签分布学习模块的具体内容是采用Kullback-Leibler散度损失指导标签分布训练、采用基于Mixup技术的高损失样本与低损失样本混合以及引入辅助性的一致性损失函数,具体步骤如下,
步骤(C1),采用Kullback-Leibler散度损失指导标签分布训练,通过采用Kullback-Leibler散度定义损失,并要维护一个标签分布矩阵,且矩阵的各个项中维护了样本中的真实标签估计值,其中是一个维度为向量,且是分类任务的类别数,而标签分布是样本属于各个标签的归属度分布,Kullback-Leibler散度损失如公式(5)所示,
步骤(C2),采用基于Mixup技术的高损失样本与低损失样本混合,具体步骤如下,
步骤(C3),引入辅助性的一致性损失函数,且一致性损失函数用于指导和正则化模型的训练过程,其中一致性损失是标签分布与原始标签的分布一致性,即标签分布与原始标签在被选出的干净样本上的交叉熵和,如公式(11)和公式(12)所示,
5.根据权利要求4所述的一种基于标签分布学习的含细粒度噪图像分类方法,其特征在于:步骤(D),构建用于提升双导师网络表征学习能力的自监督学习模块,其中自监督学习模块能将在线网络预测从目标网络得到投影,且自监督学习模块将神经网络分解成三个主要部分:一是编码器Encoder记为,第二是投影,三是预测器,而自监督学习模块的具体工作步骤如下,
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211339492.8A CN115457337A (zh) | 2022-10-29 | 2022-10-29 | 一种基于标签分布学习的含细粒度噪图像分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211339492.8A CN115457337A (zh) | 2022-10-29 | 2022-10-29 | 一种基于标签分布学习的含细粒度噪图像分类方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115457337A true CN115457337A (zh) | 2022-12-09 |
Family
ID=84310545
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211339492.8A Pending CN115457337A (zh) | 2022-10-29 | 2022-10-29 | 一种基于标签分布学习的含细粒度噪图像分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115457337A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117152538A (zh) * | 2023-10-26 | 2023-12-01 | 之江实验室 | 一种基于类原型清洗去噪的图像分类方法及装置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113159294A (zh) * | 2021-04-27 | 2021-07-23 | 南京理工大学 | 基于同伴学习的样本选择算法 |
-
2022
- 2022-10-29 CN CN202211339492.8A patent/CN115457337A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113159294A (zh) * | 2021-04-27 | 2021-07-23 | 南京理工大学 | 基于同伴学习的样本选择算法 |
Non-Patent Citations (1)
Title |
---|
ZEREN SUN: "Co-LDL A Co-Training-Based Label Distribution Learning Method for Tackling Label Noise", 《IEEE TRANSACTIONS ON MULTIMEDIA》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117152538A (zh) * | 2023-10-26 | 2023-12-01 | 之江实验室 | 一种基于类原型清洗去噪的图像分类方法及装置 |
CN117152538B (zh) * | 2023-10-26 | 2024-04-09 | 之江实验室 | 一种基于类原型清洗去噪的图像分类方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Sun et al. | Automatically evolving cnn architectures based on blocks | |
CN110689089A (zh) | 用于深度学习多类别医疗图像分类的主动增量训练方法 | |
CN111476285B (zh) | 一种图像分类模型的训练方法及图像分类方法、存储介质 | |
Bani-Hani et al. | Classification of leucocytes using convolutional neural network optimized through genetic algorithm | |
CN115457337A (zh) | 一种基于标签分布学习的含细粒度噪图像分类方法 | |
CN109214444B (zh) | 基于孪生神经网络和gmm的游戏防沉迷判定系统及方法 | |
CN111738870B (zh) | 基于特征工程的工程履约保证保险风险识别方法与平台 | |
CN114819091B (zh) | 基于自适应任务权重的多任务网络模型训练方法及系统 | |
CN114581356A (zh) | 基于风格迁移数据增广的图像增强模型泛化方法 | |
Cong et al. | Texture enhanced generative adversarial network for stain normalisation in histopathology images | |
CN116129189A (zh) | 一种植物病害识别方法、设备、存储介质及装置 | |
Cazenave | Improving model and search for computer Go | |
CN114863193B (zh) | 基于混合批归一化的长尾学习图像分类、训练方法及装置 | |
CN112488188A (zh) | 一种基于深度强化学习的特征选择方法 | |
CN112837145A (zh) | 基于改进随机森林的客户信用分类方法 | |
CN117114705A (zh) | 一种基于持续学习的电商欺诈识别方法与系统 | |
CN116152581A (zh) | 基于多目标混合特征选择的泡沫浮选工况识别方法 | |
CN115392344A (zh) | 一种具有难样本感知的强弱双分支网络的长尾识别方法 | |
So | CatBoost Versus XGBoost and LightGBM: Developing Enhanced Predictive Models for Zero-Inflated Insurance Claim Data | |
Yu et al. | Historical best Q-networks for deep reinforcement learning | |
CN112418252A (zh) | 基于图像内含社交网络平台指纹的起源社交网络识别方法 | |
CN111144910A (zh) | 基于模糊熵均值阴影集的招投标犯罪对象推荐方法及装置 | |
CN117975190B (zh) | 基于视觉预训练模型的模仿学习混合样本处理方法及装置 | |
Yuret et al. | A genetic algorithm system for predicting the OEX | |
Chen | Evaluating Conditional Cash Transfer Policies with Machine Learning Methods |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20221209 |
|
RJ01 | Rejection of invention patent application after publication |