CN115511012B - 一种最大熵约束的类别软标签识别训练方法 - Google Patents
一种最大熵约束的类别软标签识别训练方法 Download PDFInfo
- Publication number
- CN115511012B CN115511012B CN202211463854.4A CN202211463854A CN115511012B CN 115511012 B CN115511012 B CN 115511012B CN 202211463854 A CN202211463854 A CN 202211463854A CN 115511012 B CN115511012 B CN 115511012B
- Authority
- CN
- China
- Prior art keywords
- label
- soft
- noise
- training
- soft label
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种最大熵约束的类别软标签识别训练方法,方法包括如下步骤:S1.首先在一个含噪声的网络数据集D上训练深度网络模型,通过交叉损失函数得到次有的模型;S2.基于软标签的类别正则化策略,来获取每个类别的软标签;S3.采用类别正则优化策略后,获取每个类别的软标签,利用类别软标签从实例的角度,进行噪声净化。本发明中的方法首先使用了最大熵正则化方法,使模型输出的标签变得平滑并以此估计每个类别的软标签,软标签能指导模型学习类别间的相似性,以促进细粒度分类性能的提升。
Description
技术领域
本发明涉及细粒度图像识别技术领域,具体为一种最大熵约束的类别软标签识别训练方法。
背景技术
细粒度识别算法的发展过程中有大量的算法涉及了目标和关键部位提取的操作。然而此类方法往往不适用于网络图像,其原因是两方面的:1)标签噪声的存在,尤其是分布外噪声图像的存在,对提取目标和关键部位造成了严重的困难,如果提取出的关键部位是错误的,那么模型会被错误信息误导,同时破坏部位提取算法和分类算法的性能,最终使此类基于目标和关键部位的细粒度识别算法无法发挥原有的性能;2)目标和关键部位提取增加了算法的复杂性,往往要训练一个额外的辅助模型,考虑到模型还需要同时应用标签噪声处理算法,过多甚至冗余的算法步骤会降低模型的效率和实用性。考虑到上述缺点,本发明提出了更加灵活轻便的细粒度识别算法,使其适用于网络监督训练。
现有的标签噪声处理算法中噪声净化算法能明确地识别并处理各个噪声样本,然而它们大部分都是在人工合成的噪声数据集上设计并测试的,一定程度上缺乏了实用性。噪声鲁棒算法则避免了识别噪声样本这一操作,使用鲁棒函数和正则化方法等方式来降低标签噪声的影响,达到鲁棒训练的结果,然而由于标签噪声没有被显示地丢弃,其不可避免地仍会对模型训练有一定的影响;
所以需要针对上述问题进行改进。
发明内容
本发明的目的在于提供一种最大熵约束的类别软标签识别训练方法,以解决上述背景技术提出的问题。
为实现上述目的,本发明提供如下技术方案:一种最大熵约束的类别软标签识别训练方法,其适用于网络监督训练,细粒度图像识别,能够对分布外噪声进行标签,提高模型的效率和实用性,所述学习方法包括如下步骤:
S1.首先在一个含噪声的网络数据集D上训练深度网络模型,通过交叉损失函数得到次有的模型;
S2.基于软标签的类别正则化方法,来获取每个类别的软标签,其具体的方法步骤为:
S21.借助概率分布预测对软标签进行预测;
S22.采用指数平滑来缓解模型预测结果不稳定导致的软标签波动;
S23. 获取软标签后,使用周期估计出的软标签来监督周期的训练过程,利用训练损失函数提升细粒度识别任务的分类准确率;
S24.采用最大熵约束来引导模型输出更加平滑的预测概率分布;
S3.采用类别正则优化方法后,获取每个类别的软标签,利用类别软标签从实例的角度,利用类别软标签进行噪声净化,具体步骤为:
S31.首先,采用 JS 散度来度量每个样本的概率分布和它对应的类别软标签之间的距离,并以此作为噪声识别准则;
S32.使用一个阈值,根据JS散度距离来区分干净和噪声样本;
S33.在模型的预处理阶段结束后,实例噪声净化根据阈值将每个训练集中的小批次数据划分为干净批和噪声批;
S34.完成标签噪声识别后,先计算噪声样本的概率分布与期预测类别的软标签之间的JS散度距离,
S35.再使用一个硬阈值,在噪声批中进一步筛选可重标注的样本;
S36.将筛选的重标注的样本放入噪声批中,进行进一步地筛选,其余样本直接丢弃,不参与训练。
进一步的,在S1中,网络数据集为 ,其中和分别表示第个训练样本和对应的网络标签,N代表样本总数;独热分布形式的网络标签的标签分布表示为,深度神经网络对于每个输入的样本产生一个概率分布预测,其中表示第类类别;每个训练样本的概率分布预测与其标签分布之间的交叉熵损失函数为:
(6.1);
其中C表示类别总数。
进一步的,在S2中,定义软标签为个训练周期中各个类别的软标签集合,对于每个训练周期,软标签集合是一个的矩阵,其每列分别对应一个类别的软标签;软标签初始化为零矩阵,并在训练过程中动态更新;对于每个输入样本,当其预测结果与对应的标签 一致,那么类别的软标签会借助预测的概率分布以如下方式更新:
(6.2)
是预测结果与标签一致的样本数;
为了让估计到的软标签更加稳定,采用指数平滑方法来融合以往训练周期的软标签估计结果,公式如下:
(6.3)
其中,表示为控制以往结果权重大小的动量。
更进一步的,在S23中,获取软标签后,使用周期估计出的软标签来监督周期的训练过程,软标签训练损失函数如下:
(6.4)
软标签损失函数为非目标的类别分配了权重;
然而,仅使用软标签损失函数来训练模型仍是有缺点的,因为其学习到的软标签 往往会与独热标签较为相似,其中标签类别会有较高的权重,而其他类别则仅有很小的权重,使用最大熵(Maximum Entropy,ME)约束来引导模型输出更加平滑的预测概率分布,其公式为:
(6.5)
最大熵约束的目的是增加预测概率分布的熵。
更进一步的,在S2的最后,类别正则化方法联合采用了独热标签与模型估计的软标签作为监督信息,并使用最大熵损失函数来提供正则化约束;类别正则化的训练损失函数可表示为:
(6.6)
其中,是用于平衡使用网络标签的交叉熵损失函数与软标签损失函数的权重,是最大熵约束的系数。
进一步的,在S31中,依据Jo-SRC方法,实例噪声净化方法采用JS 散度(Jensen-Shannon divergence)来度量每个样本的概率分布和它对应的类别软标签之间的距离,并以此作为噪声识别准则,公式如下:
(6.7)
其中,表示KL散度(Kullback-Leibler Divergence);
在公式 (6.7) 中,JS 散度距离是一个对称的测量方式。
更进一步的 ,在S32中,使用一个阈值,根据来区分干净和噪声样本;每个训练周期中的阈值 定义如下:
(6.8)
其中,表示为整个训练集上所有样本JS散度距离的集合,以及分别表示为计算平均值和标准差,是一个超参数;在模型的预处理阶段结束后,实例噪声净化根据阈值将每个训练集中的小批次数据划分为干净批和噪声批,具体公式如下:
(6.9)。
进一步的,在S34中,完成标签噪声的识别后,进一步在噪声批中筛选可重标注的图像,首先计算噪声样本的概率分布与其预测类别的软标签之间的JS散度距离,公式如下:
(6.10)
由于 JS 散度距离的范围是在之间,可使用一个硬阈值在噪声批中筛选可重标注的样本,具体公式如下:
(6.11)。
与现有技术相比,本发明的有益效果是:本发明中的方法利用最大熵正则化方法,让模型在训练过程中动态计算每个类别的软标签,并将其用于监督模型训练。软标签在训练过程中能促进模型能学习类间相似性以提升细粒度识别性能,同时学习噪声转换矩阵分布来减少标签噪声的影响,并且能抑制过拟合以提升网络的鲁棒性。此外,该方法利用模型对每个样本的预测概率分布和该样本的类别软标签之间的距离来识别标签噪声,并将它们丢弃或重标注以减少其对模型训练的影响。在网络监督细粒度视觉识别数据集 Web-Bird、Web-Aircraft 和 Web-Car 上的实验表明,该方法相比发表于 CVPR 2021 的 SOTA 噪声处理方法分别有 1.01%,0.56% 和 1.36% 的性能提升,验证了该方法的优越性。
附图说明
图1为本发明方法的流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参照图1所示,本发明为一种最大熵约束的类别软标签识别训练方法,其适用于网络监督训练,细粒度图像识别,能够对分布外噪声进行标签,提高模型的效率和实用性,所述学习方法包括如下步骤:
S1.首先在一个含噪声的网络数据集D上训练深度网络模型,通过交叉损失函数得到次有的模型;
S2.基于软标签的类别正则化方法,其具体的方法步骤为:
S21.借助概率分布预测对软标签进行预测;
S22.采用指数平滑来缓解模型预测结果不稳定导致的软标签波动;
S23. 获取软标签后,使用 周期估计出的软标签来监督周期的训练过程,利用训练损失函数提升细粒度识别任务的分类准确率;
S24.采用最大熵约束来引导模型输出更加平滑的预测概率分布;
S3.采用类别正则优化方法后,获取每个类别的软标签,利用类别软标签进行噪声净化,具体步骤为:
S31.首先,采用 JS 散度来度量每个样本的概率分布和它对应的类别软标签之间的距离,并以此作为噪声识别准则;
S32.使用一个阈值,根据JS散度距离来区分干净和噪声样本;
S33.在模型的预处理阶段结束后,实例噪声净化根据阈值将每个训练集中的小批次数据划分为干净批和噪声批;
S34.完成标签噪声识别后,先计算噪声样本的概率分布与期预测类别的软标签之间的JS散度距离,
S35.再使用一个硬阈值,在噪声批中进一步筛选可重标注的样本;
S36.将筛选的重标注的样本放入噪声批中,进行进一步地筛选,其余样本直接丢弃,不参与训练。
在本实施例中,在一个含噪声的网络数据集上训练深度网络模型,其中和分别表示第个训练样本和对应的网络标签,N代表样本总数;独热标签的标签分布表示为,深度神经网络对于每个输入的样本 产生一个概率分布预测,其中表示第类类别,每个训练样本的概率分布预测与其标签分布之间的交叉熵损失函数为:
(6.1)
其中C表示类别总数,交叉熵损失函数对标签噪声是敏感的,所以直接使用该损失函数来从含噪的网络数据集D中学习会得到次优的模型。
在本实施例中,在S2中基于类别正则化的方法中,标签平滑(Label Smoothing)方法将独热标签与均匀分布结合,构建出了鲁棒性更强的软标签,能够为模型提供正则化约束,广泛应用于标签噪声学习和细粒度识别研究中。在线标签平滑(Online LabelSmoothing)方法进一步改进了标签平滑技巧,将均匀分布替换为模型输出的概率分布预测,产生了更合理的软标签,进一步提升了正则化方法对模型训练的作用,基于上述方法,本方法也采用了基于软标签的类别正则化方法。
首先,定义软标签为个训练周期中各个类别的软标签集合,对于每个训练周期,软标签集合是一个的矩阵,其每列分别对应一个类别的软标签;软标签初始化为零矩阵,并在训练过程中动态更新;对于每个输入样本,当其预测结果与对应的标签 一致,那么类别的软标签会借助预测的概率分布以如下方式更新:
(6.2)
是预测结果与标签一致的样本数,由公式 (6.2) 可以看出,每个类别的软标签是该类别中被正确预测的样本的概率分布的平均值。
然而,如果每个训练周期的软标签都直接来源于当前的样本预测结果,那么它可能会在训练过程中有较大的波动,这在训练初期(即模型快速拟合数据集的阶段)会更为明显。为了让估计到的软标签更加稳定,本方法采用了指数平滑(Exponential MovingAverage,EMA)方法来融合以往训练周期的软标签估计结果,公式如下:
(6.3)
其中,表示为控制以往结果权重大小的动量。指数平滑能缓解模型预测结果不稳定导致的软标签波动问题,平滑了软标签在训练中的变化。
在本实施例中,在S23中,获取软标签后,本方法使用周期估计出的软标签来监督周期的训练过程,软标签训练损失函数如下:
(6.4)
与标签平滑相似,软标签损失函数也为非目标的类别分配了权重。所以它能减少模型的过拟合,提升噪声鲁棒性。此外,它还能促进模型学习类间相似性,能提升细粒度识别任务的分类准确率。
然而,仅使用软标签损失函数来训练模型仍是有缺点的,因为其学习到的软标签往往会与独热标签较为相似,其中标签类别会有较高的权重,而其他类别则仅有很小的权重。这个现象可能来源于交叉熵损失函数强大的模型拟合能力,导致模型的预测结果过于接近样本的标签。
为了解决该问题,本方法使用的类别正则化方法使用了最大熵(MaximumEntropy,ME)约束来引导模型输出更加平滑的预测概率分布,其公式为:
(6.5)
最大熵约束的目的是增加预测概率分布的熵,所以它会让模型产生一个更合理的软标签。此外,最大熵约束让模型的预测更加平滑,能够减轻模型对于噪声标签的过拟合,进一步提升模型的噪声鲁棒性。
在本实施例中,在S2的最后,本方法使用的类别正则化方法联合采用了独热标签与模型估计的软标签作为监督信息,并使用最大熵损失函数来提供正则化约束,类别正则化的训练损失函数可以表示为:
(6.6)
其中,是用于平衡使用网络标签的交叉熵损失函数与软标签损失函数的权重,是最大熵约束的系数。得益于软标签损失函数和最大熵约束对模型鲁棒性的提升,类别正则化方法能够产生可靠的类别软标签,有效降低模型对噪声标签的敏感性。此外,产生的软标签可以用于从实例方面对含噪的数据集进行净化。
在本实施例中,在S31中,依据Jo-SRC方法,实例噪声净化方法采用了 JS 散度(Jensen-Shannon divergence)来度量每个样本的概率分布和它对应的类别软标签之间的距离,并以此作为噪声识别准则,公式如下:
(6.7)
其中,表示KL散度(Kullback-Leibler Divergence)。
在公式 (6.7) 中,JS 散度距离是一个对称的测量方式,它度量了模型预测结果和对应的类别软标签两个概率分布之间的差异,更大的数值表明了更明显的差异。此外,当使用以2为底的对数时,JS 散度距离的数值范围在区间内,较为可控,也方便通过阈值来进行样本筛选。
在本实施例中,由于干净图像的预测结果应与它们的类别软标签更为接近,它们与类别软标签的 JS 散度距离应该比噪声样本的更低。基于此,可以使用一个阈值,根据来区分干净和噪声样本。每个训练周期中的阈值定义如下:
(6.8)
其中,表示为整个训练集上所有样本 JS 散度距离 的集合,以及分别表示为计算平均值和标准差,是一个超参数。在模型的预处理阶段结束后,实例噪声净化根据阈值将每个训练集中的小批次数据划分为干净批和噪声批,具体公式如下:
(6.9)
完成了标签噪声的识别后,进一步在噪声批中筛选可重标注的图像,首先计算噪声样本的概率分布与其预测类别的软标签之间的JS散度距离,公式如下:
(6.10)
然后,由于 JS 散度距离的范围是在之间,可使用一个硬阈值在噪声批中筛选可重标注的样本,具体公式如下:
(6.11)
从公式 (6.11)中可以看出,如果一个噪声样本的预测分布与其预测类别软标签之间的距离足够小,那么它就会被认为是可以重标注的样本,并将它的预测结果作为伪标签。其余的样本则直接丢弃,不参与训练。
最后,使用干净和重标注后的噪声样本来训练模型,此外,最大熵约束被用于训练丢弃的样本,目的是让模型“忘记”学到的错误信息。这些丢弃的样本有可能是分布外噪声,对于模型训练没有帮助,如果模型保留了学到的误导性信息,那么噪声识别过程可能会受一定的干扰。
本发明提出的最大熵约束的类别软标签识别训练方法流程如下:
输入: 神经网络参数、网络图像训练集、预处理回合、动量、权重 和、超参数、阈值 以及训练时长。
初始化网络参数。
for do
for 每个训练集和D中的小批次Bdo
if then
在小批次B上,通过公式 (6.6) 计算训练损失L。
else
通过公式 (6.7),计算 JS 散度距离。
通过公式 (6.8),计算阈值。
通过公式 (6.9),获取干净批和噪声批。
通过公式 (6.11),获取重标注批和丢弃批。
在干净批和重标注批上,通过公式 (6.6) 计算训练损失 。
在丢弃批 上,通过公式 (6.5)计算训练损失。
相加获取训练损失。
end
通过公式 (6.3),更新软标签。
更新网络参数。
end
输出:更新后的网络参数。
以上所述,仅是本发明的较佳实施例,并非对本发明做任何形式上的限制,凡是依据本发明的技术实质对以上实施例测试方法或流程所作的任何简单修改、等同变化,均落入本发明的保护范围之内。
Claims (6)
1.一种最大熵约束的类别软标签识别训练方法,其特征在于,包括如下步骤:
S1.首先在一个含噪声的网络数据集D上训练深度网络模型,通过交叉损失函数得到次有的模型;
S2.基于软标签的类别正则化方法,来获取每个类别的软标签,其具体的方法步骤为:
S21.借助概率分布预测对软标签进行预测;
S22.采用指数平滑来缓解模型预测结果不稳定导致的软标签波动;
S23.获取软标签后,使用t-1周期估计出的软标签St-1来监督周期t的训练过程,利用训练损失函数提升细粒度识别任务的分类准确率;
S24.采用最大熵约束来引导模型输出更加平滑的预测概率分布;
S3.采用类别正则优化方法后,获取每个类别的软标签,利用类别软标签从实例的角度,利用类别软标签进行噪声净化,具体步骤为:
S31.首先,采用JS散度来度量每个样本的概率分布和它对应的类别软标签之间的距离,并以此作为噪声识别准则;
S32.使用一个阈值,根据JS散度距离来区分干净样本和噪声样本;
S33.在模型的预处理阶段结束后,实例噪声净化根据阈值将每个训练集中的小批次数据划分为干净批和噪声批;
S34.完成标签噪声识别后,计算噪声样本的概率分布与期预测类别的软标签之间的JS散度距离;
S35.使用一个硬阈值,在噪声批中进一步筛选可重标注的样本;
S36.将筛选的重标注的样本放入噪声批中,进行进一步地筛选,其余样本直接丢弃,不参与训练;
在S1中,网络数据集为D={(xi,yi)|1≤i≤N},其中xi和yi分别表示第i个训练样本和对应的网络标签,N代表样本总数;独热分布形式的网络标签yi的标签分布q表示为q(c=yi|xi)=1,q(c≠yi|xi),深度神经网络对于每个输入的样本xi产生一个概率分布预测p(c|xi),其中c表示第c类类别;每个训练样本的概率分布预测p(c|xi)与其标签分布q之间的交叉熵损失函数为:
C表示类别总数;
在S23中,获取软标签后,使用t-1周期估计出的软标签St-1来监督周期t的训练过程,软标签训练损失函数如下:
软标签损失函数LSoft为非目标的类别分配了权重;
在S24中,通过最大熵约束来引导模型输出更加平滑的预测概率分布,其公式为:
最大熵约束LME的目的是增加预测概率分布p(xi)的熵。
2.根据权利要求1所述的一种最大熵约束的类别软标签识别训练方法,其特征在于,在S2中,定义软标签S={S0,S1,…,St,…,ST-1}为T个训练周期中各个类别的软标签集合,对于每个训练周期t,软标签集合St是一个C×C的矩阵,其每列分别对应一个类别的软标签;软标签S0初始化为零矩阵,并在训练过程中动态更新;对于每个输入样本xi,当其预测结果与对应的标签yi一致,那么类别yi的软标签会借助预测的概率分布p(xi)以如下方式更新:
M是预测结果与标签yi一致的样本数;
为了让估计到的软标签St更加稳定,采用指数平滑方法来融合以往训练周期的软标签估计结果,公式如下:
其中,m表示为控制以往结果权重大小的动量。
3.根据权利要求2所述的一种最大熵约束的类别软标签识别训练方法,其特征在于,在S2的最后,类别正则化方法联合采用了独热标签与模型估计的软标签作为监督信息,并使用最大熵损失函数来提供正则化约束;类别正则化的训练损失函数表示为:
LCR=(1-w)LCE+wLSoft+γLME (6.6)
其中,w是用于平衡使用网络标签的交叉熵损失函数LCE与软标签损失函数LSoft的权重,γ是最大熵约束LCE的系数。
5.根据权利要求4所述的一种最大熵约束的类别软标签识别训练方法,其特征在于,在S32中,使用一个阈值,根据di来区分干净和噪声样本;每个训练周期t中的阈值thr定义如下:
thr=mean(d)+α·std(d) (6.8)
其中,d={d0,d1,…,di,…,dN-1}表示为整个训练集上所有样本JS散度距离di的集合,mean(·)以及std(·)分别表示为计算平均值和标准差,α是一个超参数;在模型的预处理阶段tm结束后,实例噪声净化根据阈值thr将每个训练集中的小批次数据B划分为干净批Bclean和噪声批Bnoisy,具体公式如下:
Bclean={(xi,yi)|di≤thr,t≥tm}Bnoisy={(xi,yi)|di>thr,t≥tm}
(6.9)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211463854.4A CN115511012B (zh) | 2022-11-22 | 2022-11-22 | 一种最大熵约束的类别软标签识别训练方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211463854.4A CN115511012B (zh) | 2022-11-22 | 2022-11-22 | 一种最大熵约束的类别软标签识别训练方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115511012A CN115511012A (zh) | 2022-12-23 |
CN115511012B true CN115511012B (zh) | 2023-04-07 |
Family
ID=84514432
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211463854.4A Active CN115511012B (zh) | 2022-11-22 | 2022-11-22 | 一种最大熵约束的类别软标签识别训练方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115511012B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116863313B (zh) * | 2023-09-05 | 2024-01-12 | 湖北大学 | 基于标签增量精炼和对称评分的目标重识别方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105335756A (zh) * | 2015-10-30 | 2016-02-17 | 苏州大学 | 一种鲁棒学习模型与图像分类系统 |
CN114022904A (zh) * | 2021-11-05 | 2022-02-08 | 湖南大学 | 一种基于两阶段的噪声鲁棒行人重识别方法 |
CN114037011A (zh) * | 2021-11-08 | 2022-02-11 | 北京工业大学 | 一种中医舌色噪声标注样本的自动识别与清洗方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7664718B2 (en) * | 2006-05-16 | 2010-02-16 | Sony Corporation | Method and system for seed based clustering of categorical data using hierarchies |
CN110163234B (zh) * | 2018-10-10 | 2023-04-18 | 腾讯科技(深圳)有限公司 | 一种模型训练方法、装置和存储介质 |
US20210103814A1 (en) * | 2019-10-06 | 2021-04-08 | Massachusetts Institute Of Technology | Information Robust Dirichlet Networks for Predictive Uncertainty Estimation |
CN113470031B (zh) * | 2021-09-03 | 2021-12-03 | 北京字节跳动网络技术有限公司 | 息肉分型方法、模型训练方法及相关装置 |
CN114782742A (zh) * | 2022-04-06 | 2022-07-22 | 浙江工业大学 | 基于教师模型分类层权重的输出正则化方法 |
CN115048936A (zh) * | 2022-06-07 | 2022-09-13 | 昆明理工大学 | 融合词性信息的方面级情感三元组抽取方法 |
-
2022
- 2022-11-22 CN CN202211463854.4A patent/CN115511012B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105335756A (zh) * | 2015-10-30 | 2016-02-17 | 苏州大学 | 一种鲁棒学习模型与图像分类系统 |
CN114022904A (zh) * | 2021-11-05 | 2022-02-08 | 湖南大学 | 一种基于两阶段的噪声鲁棒行人重识别方法 |
CN114037011A (zh) * | 2021-11-08 | 2022-02-11 | 北京工业大学 | 一种中医舌色噪声标注样本的自动识别与清洗方法 |
Also Published As
Publication number | Publication date |
---|---|
CN115511012A (zh) | 2022-12-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109190537A (zh) | 一种基于掩码感知深度强化学习的多人物姿态估计方法 | |
CN110532880B (zh) | 样本筛选及表情识别方法、神经网络、设备及存储介质 | |
CN111339990A (zh) | 一种基于人脸特征动态更新的人脸识别系统和方法 | |
CN109255289B (zh) | 一种基于统一式生成模型的跨衰老人脸识别方法 | |
CN111881722B (zh) | 一种跨年龄人脸识别方法、系统、装置及存储介质 | |
CN110827265B (zh) | 基于深度学习的图片异常检测方法 | |
CN110349597A (zh) | 一种语音检测方法及装置 | |
CN109598220A (zh) | 一种基于多元输入多尺度卷积的人数统计方法 | |
CN109919055B (zh) | 一种基于AdaBoost-KNN的动态人脸情感识别方法 | |
CN115511012B (zh) | 一种最大熵约束的类别软标签识别训练方法 | |
CN116894985B (zh) | 半监督图像分类方法及半监督图像分类系统 | |
CN111784595A (zh) | 一种基于历史记录的动态标签平滑加权损失方法及装置 | |
CN111144462B (zh) | 一种雷达信号的未知个体识别方法及装置 | |
CN115617882A (zh) | 基于gan的带有结构约束的时序图数据生成方法及系统 | |
CN112364708A (zh) | 基于知识蒸馏与对抗学习的多模态人体动作识别方法 | |
CN117041017A (zh) | 数据中心的智能运维管理方法及系统 | |
CN113076235B (zh) | 一种基于状态融合的时序异常检测方法 | |
Kaiser et al. | Blind knowledge distillation for robust image classification | |
CN116910573B (zh) | 异常诊断模型的训练方法及装置、电子设备和存储介质 | |
CN113792541B (zh) | 一种引入互信息正则化器的方面级情感分析方法 | |
CN115424074A (zh) | 一种应用于工业检测的分类方法、装置及设备 | |
CN115578568A (zh) | 一种小规模可靠数据集驱动的噪声修正算法 | |
CN112347826B (zh) | 一种基于强化学习的视频连续手语识别方法及系统 | |
CN110942089B (zh) | 一种基于多级决策的击键识别方法 | |
CN111860441A (zh) | 基于无偏深度迁移学习的视频目标识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |