CN116385791A - 基于伪标签的重加权半监督图像分类方法 - Google Patents
基于伪标签的重加权半监督图像分类方法 Download PDFInfo
- Publication number
- CN116385791A CN116385791A CN202310372351.4A CN202310372351A CN116385791A CN 116385791 A CN116385791 A CN 116385791A CN 202310372351 A CN202310372351 A CN 202310372351A CN 116385791 A CN116385791 A CN 116385791A
- Authority
- CN
- China
- Prior art keywords
- model
- data
- category
- pseudo
- supervised
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 56
- 238000012549 training Methods 0.000 claims abstract description 21
- 238000012360 testing method Methods 0.000 claims abstract description 5
- 238000011478 gradient descent method Methods 0.000 claims abstract description 4
- 238000012545 processing Methods 0.000 claims abstract description 4
- 238000013528 artificial neural network Methods 0.000 claims description 9
- 230000006870 function Effects 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000007781 pre-processing Methods 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 abstract description 7
- 238000013135 deep learning Methods 0.000 description 7
- 230000018109 developmental process Effects 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000011161 development Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 241000512668 Eunectes Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000012733 comparative method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000007430 reference method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及半监督学习技术、图像分类领域,为提出一种基于伪标签的重加权半监督图像分类技术,利用在学习过程中,每个类对于模型的重要性不同,充分地学习不同的类,本发明,基于伪标签的重加权半监督图像分类方法,步骤如下:对用于训练的图像数据集进行处理;利用有标签的数据计算第e次迭代中有监督损失;利用无标签的数据计算第e次迭代中无监督损失;计算模型第e次迭代中的整体损失;利用梯度下降法对模型参数更新;根据第e次迭代过程中模型生成的伪标签的情况计算各个类别的权重系数;在测试时,将原始样本送入训练完成的模型中,模型输出对样本的预测结果,其中概率最高的类别即为样本的类别。本发明主要应用于图像分类场合。
Description
技术领域
本发明涉及半监督学习技术、图像分类领域,具体涉及基于伪标签的重加权半监督图像分类方法。
背景技术
近年来,深度学习领域取得了巨大成就,深度学习快速发展的一个关键因素是能够获得大量的训练数据。然而,在实际应用中,给数据集打标签是昂贵的。由于获取无标签数据比较简单,所以我们经常能够获得部分带标签数据和大量的无标签数据。半监督学习专注于如何有效利用大量未标记数据,旨在减少对标记数据的需求。目前,半监督学习已成功应用于各种现实任务(例如,图像分类、目标检测和语义分割),并受到越来越多的关注。
图像分类是计算机视觉领域基础课题之一,也是实现目标检测、人脸识别等应用的重要基础。因此,图像分类技术具有较高的研究和应用价值。顾名思义,图像分类就是给定一副图像,模型通过挖掘图像内包含的特征信息预测图像的标签信息,从而实现对图像的分类。图像分类已经成功应用于人类生活的各个领域。深度学习快速发展的一个关键因素是拥有大型的数据集。传统的深度学习可以分为有监督学习、无监督学习和半监督学习。在实际应用中,虽然我们可以容易地获取大量的数据,但是有监督学习所需的高质量标记数据仍然昂贵,需要花费大量的人物物力,例如在垃圾邮件分类中,邮件的数量十分庞大,用户无法一一查看邮件并判断是否为垃圾邮件。有标签数据带有十分珍贵的标签信息,无标签数据也含有待挖掘的丰富信息,因此开发相对丰富的未标记数据是非常重要的,并且已经引起了越来越多的关注。由于标记数据集的成本很高,多数据集是由少量标记数据和大量未标记数据组成的数据集,基于这样的数据训练模型的方式称为半监督学习,其目的是通过充分利用大量未标记数据来减少对标记数据的需求。
在半监督分类任务中,有两种在算法中广泛使用的有效技术:伪标记和一致性正则化。基于伪标记的模型,也称为自训练,是半监督学习中常用的策略。它旨在通过模型本身为未标记的数据生成伪标签,以指导训练过程。通常,基于伪标记的模型选择具有高置信度的预测作为监督信息来加入训练过程。基于一致性正则化的模型假设在向数据添加干扰后,预测不会改变。这两种技术都取得了相当好的性能。最近,一些先进的算法,例如MixMatch和FixMatch,集成了上述技术并实现了最先进的性能。
这些半监督分类模型的一个共同特点是,它们仅依赖于预定义的阈值来选择高置信度伪标签。这些算法的一个固有问题是,它们忽略了不同类别中所选伪标签的类别分布,尤其是在训练过程的初始阶段,其中只有少数伪标签的置信度高于预定义阈值。对于学习不足的类,因为模型对这些类的预测结果的置信度较低,所以这些类别中保留的伪标签数量较少,这就导致保留的伪标签的类分布不平衡。此外,尽管不同的类别在学习困难方面存在差异,但大多数现有的半监督模型对所有类别都一视同仁。
发明内容
为克服现有技术的不足,本发明旨在提出一种基于伪标签的重加权半监督图像分类技术,利用在学习过程中,每个类对于模型的重要性不同,充分地学习不同的类。为此,本发明采取的技术方案是,基于伪标签的重加权半监督图像分类方法,步骤如下:
101:对用于训练的图像数据集进行处理,将整个数据集分成带标签数据集和无标签数据集/>随机从每个类别中抽出相同数量的数据,这些数据和其标签构成有标签数据,剩余的数据组成无标签数据集,意味着这些数据的标签没有被加入到无标签数据集中;
104:计算模型第e次迭代中的整体损失Le
Le=L(e,s)+λL(e,u)
其中λ是用于平衡监督损失和非监督损失的贡献的超参数;
105:利用梯度下降法对模型参数更新;
106:根据第e次迭代过程中模型生成的伪标签的情况计算各个类别的权重系数;
107:在测试时,将原始样本送入训练完成的模型f()中,模型输出对样本的预测结果,其中概率最高的类别即为样本的类别。
步骤101中的预处理过程主要包括以下步骤:
1011:从原始数据集中随机地从每个类别中抽取相同数量的样本保留其标签,将抽取出的样本及其标签作为有标签的数据集;
1012:剩余未被抽取的样本均舍弃其标签,单独保留样本作为无标签的数据集;
1013:有标签的数据集和无标签的数据集共同构成训练模型使用的数据集。
其中,步骤102中的计算有监督损失过程主要包括以下步骤:1021:随机抽取有标签样本数Nl个有标签样本组成数据集{(xi,yi):i=1,...,Nl},对样本xi进行弱增强操作W()生成弱增强函数W(xi),其中W()为标准的翻转和移位增强策略,以0.5的概率对原始图像进行随机翻转;
1022:将W(xi)送入神经网络f()中,网络输出预测分布Pi=f(W(xi)),有监督损失L(e,s)为Pi与yi之间的交叉熵:
其中CE()为交叉熵函数。
其中,步骤103中的计算无监督损失过程主要包括以下步骤:
1034:对于保留了伪标签的无标签数据对原始数据进行强增强操作S()生成S()是一种自动数据增强的方法,其设定了一个包括14种操作的操作集,其中有:Identity、AutoContrast、Equalize、Rotate、Solarize、Color、Posterize、Contrast、Brightness、Sharpness、ShearX、ShearY、TranslateX、TranslateY。RandAugmmt,在每次进行强增强操作时随机在上述操作集中选择2种进行使用,使用时的幅度为10;
1036:根据权重系数计算第e次迭代中带有加权的无监督损失L(e,u):
其中ωe-1(c)为上一轮各个类别的权重系数,在每轮迭代训练完成后进行更新。
其中,步骤106中的计算各个类别的权重系数过程主要包括以下步骤:
1061:根据模型生成的伪标签情况计算模型对各个类别的学习状态,例如,模型对于类别c的学习状态σe(c)为:
σe(c)=>I(max(qi)≥τ)·I(arg max(qi))=c
其中I()为指示函数,即当输入为真值时输出为1,否则输出为0;
1062:根据学习状态σe(c)计算各个类别的相对学习状态因子,例如,类别c的学习状态因子βe(c)为:
1063:根据学习状态因子βe(c)计算各个类别的权重系数,例如,类别c的权重系数为ωe(c)为:
ωe(c)=k-βe(c)
其中k是用于缩放ωe(c)范围的超参数。
本发明的特点及有益效果是:
1.本发明是一种基于伪标签的重加权半监督图像分类技术,它考虑了半监督分类中不同类别之间的学习难度。
2.本发明鼓励模型在学习阶段更加关注伪标签较少的类别,并且可以与任意基于伪标记的半监督算法相结合,并提高提高半监督学习的性能。
3.本发明在多个标准数据集(如CIFAR-10,CIFAR-100,SVHN和STL-10)上取得了最优的结果。
附图说明:
图1为本发明训练模型以及使用模型预测分类结果的流程图。
具体实施方式
本发明的目的是:针对目前半监督分类任务中伪标签分布不均衡的问题,提出一种基于伪标签的重加权半监督图像分类技术,本发明考虑了半监督分类中不同类别之间的学习难度。具体而言,根据模型的当前学习状态,动态调整学习过程,鼓励模型更加关注伪标签较少的类,而不是平等对待每个样本。具体地说,在学习过程中,每个类对于模型的重要性不同,因此模型可以充分地学习不同的类。
为使本发明的目的、技术方案和优点更加清楚,下面对本发明实施方式作进一步地详细描述。
本发明实施例针对以上问题,提出了一种基于伪标签的重加权半监督图像分类方法,该方法考虑了半监督分类中不同类别之间的学习难度。具体而言,根据模型的当前学习状态,本发明动态调整学习过程,鼓励模型更加关注伪标签较少的类,而不是平等对待每个样本。
实施例1
一种基于伪标签的重加权半监督图像分类方法,该方法包括如下步骤:
101:对用于训练的图像数据集进行处理,将整个数据集分成有标签数据集和无标签数据集/>具体地,随机从每个类别中抽出相同数量的数据,这些数据和其标签构成有标签数据。剩余的数据组成无标签数据集,意味着这些数据的标签没有被加入到无标签数据集中;
其中,步骤101中的预处理过程主要包括以下步骤:
1011:从原始数据集中随机地从每个类别中抽取相同数量的样本保留其标签,将抽取出的样本及其标签作为有标签的数据集;
1012:剩余未被抽取的样本均舍弃其标签,单独保留样本作为无标签的数据集;
1013:有标签的数据集和无标签的数据集共同构成训练模型使用的数据集。
其中,步骤102中的计算有监督损失过程主要包括以下步骤:
1021:随机抽取Nl个有标签样本组成数据集{(xi,yi):i=1,...,Nl},对样本xi进行弱增强操作W()生成W(xi),其中W()为标准的翻转和移位增强策略,以0.5的概率对原始图像进行随机翻转。
1022:将W(xi)送入神经网络f()中,网络输出预测分布Pi=f(W(xi)),有监督损失L(e,s)为Pi与yi之间的交叉熵:
其中CE()为交叉熵函数;
其中,步骤103中的计算无监督损失过程主要包括以下步骤:
1034:对于保留了伪标签的无标签数据对原始数据进行强增强操作S()生成S()是一种自动数据增强的方法,其设定了一个包括14种操作的操作集,其中有:Identity、AutoContrast、Equalize、Rotate、Solarize、Color、Posterize、Contrast、Brightness、Sharpness、ShearX、ShearY、TranslateX、TranslateY。RandAugmrnt,本发明在每次进行强增强操作时随机在上述操作集中选择2种进行使用,使用时的幅度为10;
1036:根据权重系数计算第e次迭代中带有加权的无监督损失L(e,u):
其中ωe-1(c)为上一轮各个类别的权重系数,在每轮迭代训练完成后进行更新;
104:计算模型第e次迭代中的整体损失Le:
Le=L(e,s)+λL(e,u)
其中λ是用于平衡监督损失和非监督损失的贡献的超参数;
105:利用梯度下降法对模型参数更新;
106:根据第e次迭代过程中模型生成的伪标签的情况计算各个类别的权重系数;
其中,步骤106中的计算各个类别的权重系数过程主要包括以下步骤:
1061:根据模型生成的伪标签情况计算模型对各个类别的学习状态,例如,模型对于类别c的学习状态σe(c)为:
σe(c)=∑I(max(qi)≥τ)·I(arg max(qi))=c
其中I()为指示函数,即当输入为真值时输出为1,否则输出为0;
1062:根据学习状态σe(c)计算各个类别的相对学习状态因子,例如,类别c的学习状态因子βe(c)1为:
1第e轮类别c的学习状态
1063:根据学习状态因子βe(c)计算各个类别的权重系数,例如,类别c的权重系数为ωe(c)为:
ωe(c)=k-βe(c)
其中k是用于缩放ωe(c)范围的超参数;
107:在测试时,将原始样本送入训练完成的模型f()中,模型输出对样本的预测结果,其中概率最高的类别即为样本的类别;
108:在CIFAR-10、CIFAR-100、SVHN和STL-10数据集上的实验详情如下:
1081:实验环境。硬件配置为4 x Titan X Pascal GPU,编程语言及版本为Python3.8,开源环境及版本为Anaconda3,深度学习框架为Pytorch,torch和torchvision的版本分别为1.4和0.5。
1082:实验背景。在图像分类的实际应用中,给数据集打标签是昂贵的。由于获取无标签数据比较简单,所以我们经常能够获得部分带标签数据和大量的无标签数据。半监督图像分类就是利用上述数据集训练模型,目的是在少量有标签数据的帮助下充分挖掘和利用无标签数据含有的信息,从而使模型能够学到更好的语义信息,提高分类性能。
1083:数据来源。实验中所使用的CIFAR-10、CIFAR-100、SVHN和STL-10均为公开RGB图像数据集,深度学习框架PyTorch提供了这些数据集的接口,在实验中可以利用torch.utils.data.Dataset类加载数据集。
1084:实验过程。首先获取硬件计算资源和软件开发环境,包括GPU、Anaconda环境等。然后基于PyTorch深度学习框架进行代码开发,包括搭建网络结构、读取训练数据、对数据进行预处理、设置训练参数等。最后对训练好的模型利用测试集进行评估并于对比方法进行比较。
1085:对比方法。我们挑选目前比较先进的半监督分类算法FixMatch作为基准方法进行比较。
1086:实验结果。本发明及对比方法的在CIFAR-10、CIFAR-100、SVHN和STL-10数据集上的评估结果如下表所示。表中展示的数据为分类正确率,其中“labels”表示数据集中含有的有标签数据的数量。从实验结果可以看出,本发明实施例的半监模型(BPL)的分类准确率高于对比方法。
本发明实施例对各器件的型号除做特殊说明的以外,其他器件的型号不做限制,只要能完成上述功能的器件均可。
本领域技术人员可以理解附图只是一个优选实施例的示意图,上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明披露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。
Claims (5)
1.一种基于伪标签的重加权半监督图像分类方法,其特征是,步骤如下:
101:对用于训练的图像数据集进行处理,将整个数据集分成带标签数据集Dl和无标签数据集Du:随机从每个类别中抽出相同数量的数据,这些数据和其标签构成有标签数据,剩余的数据组成无标签数据集,意味着这些数据的标签没有被加入到无标签数据集中;
102:利用有标签的数据(x,y)∈Dl计算第e次迭代中有监督损失L(e,s);
103:利用无标签的数据xu∈Du计算第e次迭代中无监督损失L(e,u);
104:计算模型第e次迭代中的整体损失Le
Le=L(e,s)+λL(e,u)
其中λ是用于平衡监督损失和非监督损失的贡献的超参数;
105:利用梯度下降法对模型参数更新;
106:根据第e次迭代过程中模型生成的伪标签的情况计算各个类别的权重系数;
107:在测试时,将原始样本送入训练完成的模型f()中,模型输出对样本的预测结果,其中概率最高的类别即为样本的类别。
2.如权利要求1所述的基于伪标签的重加权半监督图像分类方法,其特征是,步骤101中的预处理过程主要包括以下步骤:
1011:从原始数据集中随机地从每个类别中抽取相同数量的样本保留其标签,将抽取出的样本及其标签作为有标签的数据集;
1012:剩余未被抽取的样本均舍弃其标签,单独保留样本作为无标签的数据集;
1013:有标签的数据集和无标签的数据集共同构成训练模型使用的数据集。
4.如权利要求1所述的基于伪标签的重加权半监督图像分类方法,其特征是,步骤103中的计算无监督损失过程主要包括以下步骤:
1034:对于保留了伪标签的无标签数据对原始数据进行强增强操作S()生成S()是一种自动数据增强的方法,其设定了一个包括14种操作的操作集,其中有:Identity、AutoContrast、Equalize、Rotate、Solarize、Color、Posterize、Contrast、Brightness、Sharpness、ShearX、ShearY、TranslateX、TranslateY。RandAugmrnt,在每次进行强增强操作时随机在上述操作集中选择2种进行使用,使用时的幅度为10;
1036:根据权重系数计算第e次迭代中带有加权的无监督损失L(e,u):
其中ωe-1(c)为上一轮各个类别的权重系数,在每轮迭代训练完成后进行更新。
5.如权利要求1所述的基于伪标签的重加权半监督图像分类方法,其特征是,步骤106中的计算各个类别的权重系数过程主要包括以下步骤:
1061:根据模型生成的伪标签情况计算模型对各个类别的学习状态,例如,模型对于类别c的学习状态σe(c)为:
σe(c)=∑I(max(qi)≥τ)·I(arg max(qi))=c
其中I()为指示函数,即当输入为真值时输出为1,否则输出为0;
1062:根据学习状态σe(c)计算各个类别的相对学习状态因子,例如,类别c的学习状态因子βe(c)为:
1063:根据学习状态因子βe(c)计算各个类别的权重系数,例如,类别c的权重系数为ωe(c)为:
ωe(c)=k-βe(c)
其中k是用于缩放ωe(c)范围的超参数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310372351.4A CN116385791A (zh) | 2023-04-09 | 2023-04-09 | 基于伪标签的重加权半监督图像分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310372351.4A CN116385791A (zh) | 2023-04-09 | 2023-04-09 | 基于伪标签的重加权半监督图像分类方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116385791A true CN116385791A (zh) | 2023-07-04 |
Family
ID=86967200
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310372351.4A Pending CN116385791A (zh) | 2023-04-09 | 2023-04-09 | 基于伪标签的重加权半监督图像分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116385791A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116894985A (zh) * | 2023-09-08 | 2023-10-17 | 吉林大学 | 半监督图像分类方法及半监督图像分类系统 |
-
2023
- 2023-04-09 CN CN202310372351.4A patent/CN116385791A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116894985A (zh) * | 2023-09-08 | 2023-10-17 | 吉林大学 | 半监督图像分类方法及半监督图像分类系统 |
CN116894985B (zh) * | 2023-09-08 | 2023-12-15 | 吉林大学 | 半监督图像分类方法及半监督图像分类系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3227836B1 (en) | Active machine learning | |
CN112699247B (zh) | 一种基于多类交叉熵对比补全编码的知识表示学习方法 | |
EP3767536A1 (en) | Latent code for unsupervised domain adaptation | |
CN109766557B (zh) | 一种情感分析方法、装置、存储介质及终端设备 | |
CN110852447A (zh) | 元学习方法和装置、初始化方法、计算设备和存储介质 | |
CN110210468B (zh) | 一种基于卷积神经网络特征融合迁移的文字识别方法 | |
WO2022051856A9 (en) | Method and system for training a neural network model using adversarial learning and knowledge distillation | |
US11681922B2 (en) | Performing inference and training using sparse neural network | |
CN111753087A (zh) | 舆情文本分类方法、装置、计算机设备和存储介质 | |
CN115470354B (zh) | 基于多标签分类识别嵌套和重叠风险点的方法及系统 | |
CN111581368A (zh) | 一种基于卷积神经网络的面向智能专家推荐的用户画像方法 | |
US11983202B2 (en) | Computer-implemented method for improving classification of labels and categories of a database | |
CN116385791A (zh) | 基于伪标签的重加权半监督图像分类方法 | |
CN111160526B (zh) | 基于mape-d环形结构的深度学习系统在线测试方法与装置 | |
CN114299194A (zh) | 图像生成模型的训练方法、图像生成方法及装置 | |
CN113254675A (zh) | 基于自适应少样本关系抽取的知识图谱构建方法 | |
Valizadegan et al. | Learning to trade off between exploration and exploitation in multiclass bandit prediction | |
CN113051911B (zh) | 提取敏感词的方法、装置、设备、介质及程序产品 | |
CN116383382A (zh) | 敏感信息的识别方法、装置、电子设备及存储介质 | |
CN113239215B (zh) | 多媒体资源的分类方法、装置、电子设备及存储介质 | |
CN115188022A (zh) | 一种基于一致性半监督深度学习的人体行为识别方法 | |
CN115098681A (zh) | 一种基于有监督对比学习的开放服务意图检测方法 | |
CN117217929A (zh) | 注册对象风险识别方法、装置、计算机设备和存储介质 | |
CN114511023A (zh) | 分类模型训练方法以及分类方法 | |
Germi et al. | Enhanced data-recalibration: utilizing validation data to mitigate instance-dependent noise in classification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |