CN115457337A - 一种基于标签分布学习的含细粒度噪图像分类方法 - Google Patents

一种基于标签分布学习的含细粒度噪图像分类方法 Download PDF

Info

Publication number
CN115457337A
CN115457337A CN202211339492.8A CN202211339492A CN115457337A CN 115457337 A CN115457337 A CN 115457337A CN 202211339492 A CN202211339492 A CN 202211339492A CN 115457337 A CN115457337 A CN 115457337A
Authority
CN
China
Prior art keywords
loss
sample
network
label distribution
samples
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211339492.8A
Other languages
English (en)
Inventor
刘华峰
黄丹
孙泽人
姚亚洲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Science and Technology
Original Assignee
Nanjing University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Science and Technology filed Critical Nanjing University of Science and Technology
Priority to CN202211339492.8A priority Critical patent/CN115457337A/zh
Publication of CN115457337A publication Critical patent/CN115457337A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于标签分布学习的含细粒度噪图像分类方法,首先采用双导师网络互相推荐样本的模式对输入图像进行计算,并输出样本计算结果,接着通过样本选择模块和样本交换模块能依次完成对样本计算结果的选择和交换,再输入至标签分布学习模块,随后由标签分布学习模块能对高损失值样本执行标签分布学习,并实时更新网络神经网络模型的参数,再进行损失校正,然后构建用于提升双导师网络表征学习能力的自监督学习模块,而双导师网络使用各自的损失函数进行更新;本发明能够克服因图像数据集中的噪声导致的模型性能下降的情况,提高了对含细粒度噪图像的分类识别能力,且在处理含细粒度噪图像分类具有高效性和优越性。

Description

一种基于标签分布学习的含细粒度噪图像分类方法
技术领域
本发明涉及细粒度图像分类识别技术领域,具体涉及一种基于标签分布学习的含细粒度噪图像分类方法。
背景技术
当前流行的数据集噪声去除方法是在网络训练的过程中剔除出被识别为噪声的样本,仅仅利用主观的“干净样本”来更新网络参数;但是剔除噪声样本的方法并没有显式地指出噪声样本的分布特性。
目前,一些方法直接将低损失值样本视作干净样本并只用这些样本更新网络,作为代表的 Co-teaching 方法是当前比较受到认可的工作;Co-teaching 方法的主要思路就是同时训练两个独立的神经网络,而各个网络选择训练过程中损失值较低的样本并交流给相对应的网络用于更新参数;尽管这种方法能够取得一定效果,但是低损失样本的选择标准过于偏向简单样本,现有的方法总是难以从困难样本中区分出噪声样本,去噪训练网络在调试参数的时候往往倾向于选择尽可能的过滤噪声,而过度的剔除疑似噪声数据必定导致训练数据的浪费和训练出的模型泛化性能不佳;因此,需要设计一种基于标签分布学习的含细粒度噪图像分类方法。
发明内容
本发明的目的是克服现有技术中因图像数据集中的噪声导致的模型性能下降的问题,为更好的有效解决问题,提供了一种基于标签分布学习的含细粒度噪图像分类方法,其在处理含细粒度噪图像分类具有高效性和优越性。
为了达到上述目的,本发明所采用的技术方案是:
一种基于标签分布学习的含细粒度噪图像分类方法,包括以下步骤,
步骤(A),采用双导师网络互相推荐样本的模式对输入图像进行计算,并输出样本计算结果;
步骤(B),通过样本选择模块和样本交换模块能依次完成对样本计算结果的选择和交换,再输入至标签分布学习模块;
步骤(C),由标签分布学习模块能对高损失值样本执行标签分布学习,并实时更新网络神经网络模型的参数,再进行损失校正;
步骤(D),构建用于提升双导师网络表征学习能力的自监督学习模块;
步骤(E),双导师网络使用各自的损失函数进行更新;
步骤(F),由标签分布学习模块输出样本标签分布,完成对输入图像的分类作业。
优选的,步骤(A),采用双导师网络互相推荐样本的模式对输入图像进行计算,并输出样本计算结果,其中双导师网络在网络结构中设置了两个结构相同的深度神经网络同时工作,且两个深度神经网络分别使用
Figure 156665DEST_PATH_IMAGE001
Figure 892671DEST_PATH_IMAGE002
表示,输入图像中的样本
Figure 202430DEST_PATH_IMAGE003
会被分别送入
Figure 538733DEST_PATH_IMAGE004
Figure 857719DEST_PATH_IMAGE005
中,再利用损失函数分别计算各个
Figure 697499DEST_PATH_IMAGE006
在两个神经网络中的损失
Figure 443738DEST_PATH_IMAGE007
,损失函数如公式(1)所示,
Figure 267338DEST_PATH_IMAGE008
其中,
Figure 858856DEST_PATH_IMAGE009
,且
Figure 818722DEST_PATH_IMAGE010
Figure 1442DEST_PATH_IMAGE011
表示样本图像
Figure 46758DEST_PATH_IMAGE012
Figure 441967DEST_PATH_IMAGE013
个类别上的概率预测结果,
Figure 272651DEST_PATH_IMAGE014
表示样本图像
Figure 360693DEST_PATH_IMAGE015
属于第
Figure 627726DEST_PATH_IMAGE016
类的独热标签。
优选的,步骤(B),通过样本选择模块和样本交换模块能依次完成对样本计算结果的选择和交换,再输入至标签分布学习模块,其中具体步骤如下,
步骤(B1),样本选择模块,样本选择模块对输入的B进行损失值排序,并分成了
Figure 92206DEST_PATH_IMAGE017
Figure 26663DEST_PATH_IMAGE018
Figure 285607DEST_PATH_IMAGE019
Figure 39936DEST_PATH_IMAGE020
,其中
Figure 42527DEST_PATH_IMAGE021
Figure 831491DEST_PATH_IMAGE022
包含了
Figure 261336DEST_PATH_IMAGE023
个损失最小的训练样本,而
Figure 768540DEST_PATH_IMAGE024
Figure 57046DEST_PATH_IMAGE025
则包含了剩下的样本,具体步骤是设一个低损失划分比例
Figure 966096DEST_PATH_IMAGE026
,则
Figure 301262DEST_PATH_IMAGE027
Figure 295763DEST_PATH_IMAGE028
能定义为如公式(2)所示,并将训练集通过损失值得大小分为两个子集,
Figure 640157DEST_PATH_IMAGE029
其中,
Figure 138134DEST_PATH_IMAGE030
表示从输入样本B中由k网络选出的干净样本子集,
Figure 175361DEST_PATH_IMAGE031
表示求取最优子集过程中遍历的所有符合比例tau的子集,
Figure 125999DEST_PATH_IMAGE032
为低损失划分比例,
Figure 274084DEST_PATH_IMAGE033
表示从输入样本B中由k网络选出的高损失样本子集;
步骤(B2),样本交换模块,样本交换模块是将低损失样本视为干净样本并在两个神经网络中交换被分离的样本集,再滤除由标签噪声引入的不同错误,且
Figure 892147DEST_PATH_IMAGE034
Figure 100274DEST_PATH_IMAGE035
在干净样本上的分类损失
Figure 538209DEST_PATH_IMAGE036
Figure 975137DEST_PATH_IMAGE037
分别如公式(3)和公式(4)所示,
Figure 447707DEST_PATH_IMAGE038
优选的,步骤(C),由标签分布学习模块能对高损失值样本执行标签分布学习,并实时更新网络神经网络模型的参数,再进行损失校正,其中标签分布学习模块的具体内容是采用Kullback-Leibler散度损失指导标签分布训练、采用基于Mixup技术的高损失样本与低损失样本混合以及引入辅助性的一致性损失函数,具体步骤如下,
步骤(C1),采用Kullback-Leibler散度损失指导标签分布训练,通过采用Kullback-Leibler散度定义损失,并要维护一个标签分布矩阵
Figure 826736DEST_PATH_IMAGE039
,且矩阵的各个项中维护了样本
Figure 17546DEST_PATH_IMAGE040
中的真实标签估计值
Figure 241854DEST_PATH_IMAGE041
,其中
Figure 568930DEST_PATH_IMAGE042
是一个维度为
Figure 118860DEST_PATH_IMAGE043
向量,且
Figure 531387DEST_PATH_IMAGE044
是分类任务的类别数,而标签分布是样本
Figure 824965DEST_PATH_IMAGE045
属于各个标签的归属度分布,Kullback-Leibler散度损失
Figure 272127DEST_PATH_IMAGE046
如公式(5)所示,
Figure 461800DEST_PATH_IMAGE047
其中,
Figure 627202DEST_PATH_IMAGE048
是分类任务的类别数,
Figure 209624DEST_PATH_IMAGE049
是第
Figure 511292DEST_PATH_IMAGE050
次更新网络时神经网络模型的参数,
Figure 137446DEST_PATH_IMAGE051
满足约束
Figure 790144DEST_PATH_IMAGE052
,每个
Figure 159945DEST_PATH_IMAGE053
引入了一个隐变量
Figure 316120DEST_PATH_IMAGE054
,且
Figure 378754DEST_PATH_IMAGE054
能在梯度回传的过程中自由地更新,再通过归一化操作使得
Figure 987590DEST_PATH_IMAGE055
变成
Figure 426661DEST_PATH_IMAGE056
,并能生成一个标签分布矩阵;
步骤(C2),采用基于Mixup技术的高损失样本与低损失样本混合,具体步骤如下,
步骤(C21),对每一个样本
Figure 702922DEST_PATH_IMAGE057
随机地从干净样本集
Figure 670878DEST_PATH_IMAGE058
中抽取出干净样本
Figure 32589DEST_PATH_IMAGE059
,并相应建立新的样本
Figure 760505DEST_PATH_IMAGE060
,具体方法如公式(6)所示,
Figure 625693DEST_PATH_IMAGE061
其中,
Figure 30129DEST_PATH_IMAGE062
是一个从 Beta 分布
Figure 879137DEST_PATH_IMAGE063
中采样的权重参数,且Mixup技术能确保样本
Figure 128852DEST_PATH_IMAGE064
中至少含有
Figure 379705DEST_PATH_IMAGE065
的权重在正确的标签上。
步骤(C22),设一个超参数
Figure 955043DEST_PATH_IMAGE066
,且被优化器使用的分类损失
Figure 25767DEST_PATH_IMAGE067
Figure 344753DEST_PATH_IMAGE068
如公式(7)和公式(8)所示,并得到标签分布学习的损失函数定义,
Figure 450112DEST_PATH_IMAGE069
其中,
Figure 930772DEST_PATH_IMAGE070
Figure 488792DEST_PATH_IMAGE071
的具体形式如公式 (9) 和公式 (10) 所示,
Figure 359272DEST_PATH_IMAGE072
步骤(C3),引入辅助性的一致性损失函数,且一致性损失函数用于指导和正则化模型的训练过程,其中一致性损失是标签分布
Figure 53559DEST_PATH_IMAGE073
与原始标签
Figure 970699DEST_PATH_IMAGE074
的分布一致性,即标签分布
Figure 281595DEST_PATH_IMAGE075
与原始标签
Figure 676804DEST_PATH_IMAGE076
在被选出的干净样本上的交叉熵
Figure 491176DEST_PATH_IMAGE077
Figure 844797DEST_PATH_IMAGE078
,如公式(11)和公式(12)所示,
Figure 111830DEST_PATH_IMAGE079
优选的,步骤(D),构建用于提升双导师网络表征学习能力的自监督学习模块,其中自监督学习模块能将在线网络
Figure 576310DEST_PATH_IMAGE080
预测从目标网络得到投影
Figure 245188DEST_PATH_IMAGE081
,且自监督学习模块将神经网络
Figure 504131DEST_PATH_IMAGE082
分解成三个主要部分:一是编码器Encoder记为
Figure 524040DEST_PATH_IMAGE083
,第二是投影
Figure 277364DEST_PATH_IMAGE084
,三是预测器
Figure 800749DEST_PATH_IMAGE085
,而自监督学习模块的具体工作步骤如下,
步骤(D1),设
Figure 496172DEST_PATH_IMAGE086
的参数集合是
Figure 737798DEST_PATH_IMAGE087
Figure 278501DEST_PATH_IMAGE088
的参数集合是
Figure 187551DEST_PATH_IMAGE089
,设
Figure 788296DEST_PATH_IMAGE090
是目标网络
Figure 517218DEST_PATH_IMAGE091
是在线网络,且
Figure 861612DEST_PATH_IMAGE092
Figure 359589DEST_PATH_IMAGE093
提供回归目标,在线网络的参数
Figure 131236DEST_PATH_IMAGE094
是目标网络和在线网络的指数加权平均,更新形式如公式(13)所示,
Figure 613033DEST_PATH_IMAGE095
其中,
Figure 495538DEST_PATH_IMAGE096
是目标衰减系数,且
Figure 864334DEST_PATH_IMAGE097
步骤(D2),将样本图像
Figure 72461DEST_PATH_IMAGE098
的两个增强视图
Figure 775975DEST_PATH_IMAGE099
Figure 196592DEST_PATH_IMAGE100
分别送入到深度神经网络
Figure 934741DEST_PATH_IMAGE101
Figure 782611DEST_PATH_IMAGE102
中,并优化如公式(14)所示的损失函数
Figure 973421DEST_PATH_IMAGE103
Figure 463308DEST_PATH_IMAGE104
其中,
Figure 790384DEST_PATH_IMAGE105
同时
Figure 340315DEST_PATH_IMAGE106
Figure 18421DEST_PATH_IMAGE107
表示内积运算;
步骤(D3),设
Figure 780840DEST_PATH_IMAGE108
,同时
Figure 978734DEST_PATH_IMAGE109
则可得到损失函数
Figure 699566DEST_PATH_IMAGE110
如公式(15)所示,
Figure 599389DEST_PATH_IMAGE111
步骤(D4),采用停止梯度技术抑制更新目标神经网络,且当神经网络
Figure 431078DEST_PATH_IMAGE112
作为在线神经网络而神经网络
Figure 732747DEST_PATH_IMAGE113
作为目标神经网络时,损失函数
Figure 624479DEST_PATH_IMAGE114
只单独指导神经网络
Figure 11598DEST_PATH_IMAGE115
更新。
优选的,步骤(E),双导师网络使用各自的损失函数进行更新,其中损失函数的更新包含分类损失、一致性正则化损失和自监督学习的损失,且分类损失和一致性正则化损失之间是一个凸组合关系,且通过参数α调节,而自监督学习的损失通过参数
Figure 381400DEST_PATH_IMAGE116
调节,最终损失函数
Figure 803154DEST_PATH_IMAGE117
Figure 600209DEST_PATH_IMAGE118
如公式(16)和公式(17)所示,
Figure 474624DEST_PATH_IMAGE119
本发明的有益效果是:
(1)本发明通过设置有的标签分布学习模块能对高损失值样本执行标签分布学习,并进行损失校正,该标签分布学习方法通过估计高损失值样本的正确标签概率分布,从而实现了对分布内噪声样本和困难样本的有效利用。
(2)本发明通过设置有的自监督学习模块能提升表征学习能力,改善了细粒度视觉识别模型的分类效果。
(3)本发明通过设置有的样本选择模块和样本交换模块能负责选择和交换样本供双网络模型交流信息,其利用了双导师网络互相推荐样本的模式,结合了样本选择和基于标签分布学习的损失校正方法,获得了细粒度分类性能的提升。
附图说明
图1是本发明的整体流程图;
图2是本发明的自监督学习模块结构示意图;
图3是本发明在三个真实世界数据集上的评估结果图。
具体实施方式
下面将结合说明书附图,对本发明作进一步的说明。
如图1所示,本发明的一种基于标签分布学习的含细粒度噪图像分类方法,包括以下步骤,
步骤(A),采用双导师网络互相推荐样本的模式对输入图像进行计算,并输出样本计算结果,其中双导师网络在网络结构中设置了两个结构相同的深度神经网络同时工作,且两个深度神经网络分别使用
Figure 673217DEST_PATH_IMAGE001
Figure 683898DEST_PATH_IMAGE120
表示,输入图像中的样本
Figure 917433DEST_PATH_IMAGE121
会被分别送入
Figure 279145DEST_PATH_IMAGE004
Figure 725169DEST_PATH_IMAGE005
中,再利用损失函数分别计算各个
Figure 121516DEST_PATH_IMAGE006
在两个神经网络中的损失
Figure 525952DEST_PATH_IMAGE007
,损失函数如公式(1)所示,
Figure 109380DEST_PATH_IMAGE122
其中,
Figure 624675DEST_PATH_IMAGE009
,且
Figure 875528DEST_PATH_IMAGE010
Figure 185287DEST_PATH_IMAGE011
表示样本图像
Figure 521590DEST_PATH_IMAGE012
Figure 591308DEST_PATH_IMAGE013
个类别上的概率预测结果,
Figure 431088DEST_PATH_IMAGE014
表示样本图像
Figure 177328DEST_PATH_IMAGE015
属于第
Figure 735348DEST_PATH_IMAGE016
类的独热标签。
步骤(B),通过样本选择模块和样本交换模块能依次完成对样本计算结果的选择和交换,再输入至标签分布学习模块,其中具体步骤如下,
步骤(B1),样本选择模块,样本选择模块对输入的B进行损失值排序,并分成了
Figure 592445DEST_PATH_IMAGE017
Figure 552311DEST_PATH_IMAGE018
Figure 469452DEST_PATH_IMAGE019
Figure 514768DEST_PATH_IMAGE020
,其中
Figure 175556DEST_PATH_IMAGE021
Figure 989929DEST_PATH_IMAGE022
包含了
Figure 77970DEST_PATH_IMAGE023
个损失最小的训练样本,而
Figure 610583DEST_PATH_IMAGE024
Figure 560215DEST_PATH_IMAGE025
则包含了剩下的样本,具体步骤是设一个低损失划分比例
Figure 229094DEST_PATH_IMAGE026
,则
Figure 753616DEST_PATH_IMAGE027
Figure 507946DEST_PATH_IMAGE028
能定义为如公式(2)所示,并将训练集通过损失值得大小分为两个子集,
Figure 776116DEST_PATH_IMAGE029
其中,
Figure 299501DEST_PATH_IMAGE030
表示从输入样本B中由k网络选出的干净样本子集,
Figure 729346DEST_PATH_IMAGE031
表示求取最优子集过程中遍历的所有符合比例tau的子集,
Figure 236550DEST_PATH_IMAGE032
为低损失划分比例,
Figure 42832DEST_PATH_IMAGE033
表示从输入样本B中由k网络选出的高损失样本子集;
步骤(B2),样本交换模块,样本交换模块是将低损失样本视为干净样本并在两个神经网络中交换被分离的样本集,再滤除由标签噪声引入的不同错误,且
Figure 420724DEST_PATH_IMAGE034
Figure 287049DEST_PATH_IMAGE035
在干净样本上的分类损失
Figure 766703DEST_PATH_IMAGE036
Figure 376676DEST_PATH_IMAGE037
分别如公式(3)和公式(4)所示,
Figure 874653DEST_PATH_IMAGE038
步骤(C),由标签分布学习模块能对高损失值样本执行标签分布学习,并实时更新网络神经网络模型的参数,再进行损失校正,其中标签分布学习模块的具体内容是采用Kullback-Leibler散度损失指导标签分布训练、采用基于Mixup技术的高损失样本与低损失样本混合以及引入辅助性的一致性损失函数,具体步骤如下,
步骤(C1),采用Kullback-Leibler散度损失指导标签分布训练,通过采用Kullback-Leibler散度定义损失,并要维护一个标签分布矩阵
Figure 646300DEST_PATH_IMAGE039
,且矩阵的各个项中维护了样本
Figure 128097DEST_PATH_IMAGE040
中的真实标签估计值
Figure 10602DEST_PATH_IMAGE041
,其中
Figure 628666DEST_PATH_IMAGE042
是一个维度为
Figure 571214DEST_PATH_IMAGE043
向量,且
Figure 9148DEST_PATH_IMAGE044
是分类任务的类别数,而标签分布是样本
Figure 960924DEST_PATH_IMAGE045
属于各个标签的归属度分布,Kullback-Leibler散度损失
Figure 167914DEST_PATH_IMAGE046
如公式(5)所示,
Figure 546943DEST_PATH_IMAGE047
其中,
Figure 485556DEST_PATH_IMAGE048
是分类任务的类别数,
Figure 975443DEST_PATH_IMAGE049
是第
Figure 302519DEST_PATH_IMAGE050
次更新网络时神经网络模型的参数,
Figure 852449DEST_PATH_IMAGE051
满足约束
Figure 999397DEST_PATH_IMAGE052
,每个
Figure 292975DEST_PATH_IMAGE053
引入了一个隐变量
Figure 740137DEST_PATH_IMAGE054
,且
Figure 460968DEST_PATH_IMAGE054
能在梯度回传的过程中自由地更新,再通过归一化操作使得
Figure 360791DEST_PATH_IMAGE055
变成
Figure 192481DEST_PATH_IMAGE056
,并能生成一个标签分布矩阵;
步骤(C2),采用基于Mixup技术的高损失样本与低损失样本混合,具体步骤如下,
步骤(C21),对每一个样本
Figure 494149DEST_PATH_IMAGE057
随机地从干净样本集
Figure 120302DEST_PATH_IMAGE058
中抽取出干净样本
Figure 258154DEST_PATH_IMAGE059
,并相应建立新的样本
Figure 893534DEST_PATH_IMAGE060
,具体方法如公式(6)所示,
Figure 49709DEST_PATH_IMAGE061
其中,
Figure 112343DEST_PATH_IMAGE062
是一个从 Beta 分布
Figure 986758DEST_PATH_IMAGE063
中采样的权重参数,且Mixup技术能确保样本
Figure 160251DEST_PATH_IMAGE064
中至少含有
Figure 170932DEST_PATH_IMAGE065
的权重在正确的标签上,从而抑制标签分布学习的不稳定性。
步骤(C22),设一个超参数
Figure 404467DEST_PATH_IMAGE066
,且被优化器使用的分类损失
Figure 766178DEST_PATH_IMAGE067
Figure 477782DEST_PATH_IMAGE068
如公式(7)和公式(8)所示,并得到标签分布学习的损失函数定义,
Figure 874129DEST_PATH_IMAGE069
其中,
Figure 29298DEST_PATH_IMAGE070
Figure 347147DEST_PATH_IMAGE071
的具体形式如公式 (9) 和公式 (10) 所示,
Figure 128021DEST_PATH_IMAGE072
步骤(C3),引入辅助性的一致性损失函数,且一致性损失函数用于指导和正则化模型的训练过程,其中一致性损失是标签分布
Figure 378874DEST_PATH_IMAGE073
与原始标签
Figure 688632DEST_PATH_IMAGE074
的分布一致性,即标签分布
Figure 759356DEST_PATH_IMAGE075
与原始标签
Figure 78342DEST_PATH_IMAGE076
在被选出的干净样本上的交叉熵
Figure 918122DEST_PATH_IMAGE077
Figure 664361DEST_PATH_IMAGE078
,如公式(11)和公式(12)所示,
Figure 487961DEST_PATH_IMAGE079
如图2所示,步骤(D),构建用于提升双导师网络表征学习能力的自监督学习模块,其中自监督学习模块能将在线网络
Figure 79479DEST_PATH_IMAGE080
预测从目标网络得到投影
Figure 304924DEST_PATH_IMAGE081
,且自监督学习模块将神经网络
Figure 972797DEST_PATH_IMAGE082
分解成三个主要部分:一是编码器Encoder记为
Figure 752534DEST_PATH_IMAGE083
,第二是投影
Figure 413323DEST_PATH_IMAGE084
,三是预测器
Figure 493274DEST_PATH_IMAGE085
,而自监督学习模块的具体工作步骤如下,
其中,采用自监督模块的目的是学习到一个更好的表征
Figure 581316DEST_PATH_IMAGE123
能够帮助提升下游细粒度分类任务提升能力;
步骤(D1),设
Figure 113928DEST_PATH_IMAGE086
的参数集合是
Figure 312829DEST_PATH_IMAGE087
Figure 247286DEST_PATH_IMAGE088
的参数集合是
Figure 506230DEST_PATH_IMAGE089
,设
Figure 260559DEST_PATH_IMAGE090
是目标网络
Figure 528729DEST_PATH_IMAGE091
是在线网络,且
Figure 65496DEST_PATH_IMAGE092
Figure 229761DEST_PATH_IMAGE093
提供回归目标,在线网络的参数
Figure 736966DEST_PATH_IMAGE094
是目标网络和在线网络的指数加权平均,更新形式如公式(13)所示,
Figure 543248DEST_PATH_IMAGE095
其中,
Figure 921140DEST_PATH_IMAGE096
是目标衰减系数,且
Figure 787465DEST_PATH_IMAGE097
步骤(D2),将样本图像
Figure 516386DEST_PATH_IMAGE098
的两个增强视图
Figure 860780DEST_PATH_IMAGE099
Figure 358757DEST_PATH_IMAGE100
分别送入到深度神经网络
Figure 395984DEST_PATH_IMAGE101
Figure 346622DEST_PATH_IMAGE102
中,并优化如公式(14)所示的损失函数
Figure 494707DEST_PATH_IMAGE103
Figure 863502DEST_PATH_IMAGE104
其中,
Figure 806050DEST_PATH_IMAGE105
,同时
Figure 509564DEST_PATH_IMAGE106
Figure 461340DEST_PATH_IMAGE107
表示内积运算;
步骤(D3),设
Figure 668330DEST_PATH_IMAGE108
,同时
Figure 47359DEST_PATH_IMAGE109
则可得到损失函数
Figure 238169DEST_PATH_IMAGE110
如公式(15)所示,
Figure 462477DEST_PATH_IMAGE111
步骤(D4),采用停止梯度技术抑制更新目标神经网络,且当神经网络
Figure 55132DEST_PATH_IMAGE124
作为在线神经网络而神经网络
Figure 339483DEST_PATH_IMAGE113
作为目标神经网络时,损失函数
Figure 752010DEST_PATH_IMAGE114
只单独指导神经网络
Figure 45588DEST_PATH_IMAGE115
更新。
步骤(E),双导师网络使用各自的损失函数进行更新,其中损失函数的更新包含分类损失、一致性正则化损失和自监督学习的损失,且分类损失和一致性正则化损失之间是一个凸组合关系,且通过参数α调节,而自监督学习的损失通过参数
Figure 243482DEST_PATH_IMAGE116
调节,最终损失函数
Figure 698734DEST_PATH_IMAGE117
Figure 598557DEST_PATH_IMAGE118
如公式(16)和公式(17)所示,
Figure 430247DEST_PATH_IMAGE119
其中,本发明的训练过程分两步执行,从第一步开始,按照传统方法对神经网络
Figure 731915DEST_PATH_IMAGE125
Figure 623648DEST_PATH_IMAGE126
进行
Figure 10767DEST_PATH_IMAGE127
轮预热训练,而预热训练的过程中没有加入标签分布学习的模块,只是用
Figure 380568DEST_PATH_IMAGE128
初始化标签分布,其中
Figure 802322DEST_PATH_IMAGE129
是一个数值较大的常数,在预热训练的过程中标签分布学习并不能正常工作;在第二步中,需要利用该更新方法同时更新网络参数和标签分布矩阵。
步骤(F),由标签分布学习模块输出样本标签分布,完成对输入图像的分类作业。
为了更好的阐述本发明的使用效果,下面介绍本发明的一具体实施例,本发明在真实世界数据集上展开对比实验并在Web-Bird、Web-Aircraft和Web-Car三互联网监督的含噪细粒度视觉识别个数据集上评估了本发明的真实性能。上述三个数据集均搜集自互联网并含有开集噪声和闭集噪声,含有至少 25% 的非对称的噪声,同时数据集中也没有为错误标签标注正确的标签信息。
为了能够合理地评估获得的细粒度视觉识别模型的性能,本发明采用测试精度作为性能评估指标。每组实验结果都经过5轮重复且同设置的过程,最终通过求取测试精度的均值获得最终结果。
在Web-Aircraft、Web-Bird和Web-Car等数据集上的实验采用ResNet50作为骨干网络。实验中的训练过程采用随机梯度下降优化器SDG,动量设置为monentum=0.9,同时批大小为16,初始学习率是 0.003,权重衰减设置为 0.00001。实验总共训练了110 轮,其中预热训练是 10 轮。在预热训练结束之后,τ逐渐从 0.75 衰减到 0.5,同时学习率也以余弦衰减的方式逐渐变化。本项实验的标签分布的更新率也被设为 200;与此同时,实验中低损失样本学习过程采用了标签平滑技术,平滑参数
Figure 864956DEST_PATH_IMAGE130
本发明将和一系列当前性能最优的几种方法作对比,且实验中本发明实现了这些方法并用默认参数初始化,其中实验使用Pytorch并在Nvidia Tesla V100 GPU上实现,而在三个真实世界数据集上的评估结果见图3所示。
观察图3中数据可知,Standard+取得了明显优于Standard方法的结果,这验证了被广泛采用的选取低损失值样本作为干净样本的准则是有效的,本发明也采取了这一思路。同时,观察Co-teaching方法在对Standard+的数据可以确认,Co-teaching方法中的交叉更新方法cross-update是行之有效的,所以本发明中也接纳了这一策略。最后,通过图3中列举的各个对比方法取得的实验结果可以观察到本发明提出的方法的分类精度可以在Web-Aircraft、Web-Bird和Web-Car等含噪互联网细粒度图像分类数据集上一直领先各个对比方法。在所有训练过程结束后,本发明可以在Web-Aircraft、Web-Bird和Web-Car三个数据集上分别较性能最好对比方法分别领先+2.79%、+1.83%和+4.07%。
本发明在Web-Aircraft、Web-Bird和Web-Car三个数据集上相较Co-teaching方法在测试精度上分别取得了+4.29%、+4.34%和+4.22%的提升;相较于PENCIL方法在测试精度上分别取得了+5.01%、+5.93%和+7.47%的提升。综合上述表现,本发明提出的方法通过结合样本选择和损失校正的思路显示了较对比方法更加优越的有效性和优越性。
综上所述,本发明的一种基于标签分布学习的含细粒度噪图像分类方法,首先通过两个分支的神经网络分别产生了低损失样本和高损失样本两个集合,并跨网络地交换了对应样本集,接着对低损失样本使用传统的训练方法训练分类网络而高损失样本则采用标签分布学习方式参与网络训练,随后利用一致性损失和自监督损失分别正则化深度神经网络并增强学习到的表征,提高了对含细粒度噪图像的分类识别能力,且在处理含细粒度噪图像分类具有高效性和优越性。
以上显示和描述了本发明的基本原理、主要特征及优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。

Claims (6)

1.一种基于标签分布学习的含细粒度噪图像分类方法,其特征在于:包括以下步骤,
步骤(A),采用双导师网络互相推荐样本的模式对输入图像进行计算,并输出样本计算结果;
步骤(B),通过样本选择模块和样本交换模块能依次完成对样本计算结果的选择和交换,再输入至标签分布学习模块;
步骤(C),由标签分布学习模块能对高损失值样本执行标签分布学习,并实时更新网络神经网络模型的参数,再进行损失校正;
步骤(D),构建用于提升双导师网络表征学习能力的自监督学习模块;
步骤(E),双导师网络使用各自的损失函数进行更新;
步骤(F),由标签分布学习模块输出样本标签分布,完成对输入图像的分类作业。
2.根据权利要求1所述的一种基于标签分布学习的含细粒度噪图像分类方法,其特征在于:步骤(A),采用双导师网络互相推荐样本的模式对输入图像进行计算,并输出样本计算结果,其中双导师网络在网络结构中设置了两个结构相同的深度神经网络同时工作,且两个深度神经网络分别使用
Figure 717844DEST_PATH_IMAGE001
Figure 285092DEST_PATH_IMAGE002
表示,输入图像中的样本
Figure 176825DEST_PATH_IMAGE003
会被分别送入
Figure 829523DEST_PATH_IMAGE004
Figure 464904DEST_PATH_IMAGE005
中,再利用损失函数分别计算各个
Figure 902969DEST_PATH_IMAGE006
在两个神经网络中的损失
Figure 965603DEST_PATH_IMAGE007
,损失函数如公式(1)所示,
Figure 840018DEST_PATH_IMAGE008
其中,
Figure 279090DEST_PATH_IMAGE009
,且
Figure 555350DEST_PATH_IMAGE010
Figure 788886DEST_PATH_IMAGE011
表示样本图像
Figure 399864DEST_PATH_IMAGE012
Figure 377048DEST_PATH_IMAGE013
个类别上的概率预测结果,
Figure 507815DEST_PATH_IMAGE014
表示样本图像
Figure 912251DEST_PATH_IMAGE015
属于第
Figure 761259DEST_PATH_IMAGE016
类的独热标签。
3.根据权利要求2所述的一种基于标签分布学习的含细粒度噪图像分类方法,其特征在于:步骤(B),通过样本选择模块和样本交换模块能依次完成对样本计算结果的选择和交换,再输入至标签分布学习模块,其中具体步骤如下,
步骤(B1),样本选择模块,样本选择模块对输入的B进行损失值排序,并分成了
Figure 807712DEST_PATH_IMAGE017
Figure 792986DEST_PATH_IMAGE018
Figure 119056DEST_PATH_IMAGE019
Figure 455359DEST_PATH_IMAGE020
,其中
Figure 774345DEST_PATH_IMAGE021
Figure 145284DEST_PATH_IMAGE022
包含了
Figure 891523DEST_PATH_IMAGE023
个损失最小的训练样本,而
Figure 715122DEST_PATH_IMAGE024
Figure 572220DEST_PATH_IMAGE025
则包含了剩下的样本,具体步骤是设一个低损失划分比例
Figure 49862DEST_PATH_IMAGE026
,则
Figure 232582DEST_PATH_IMAGE027
Figure 277898DEST_PATH_IMAGE028
能定义为如公式(2)所示,并将训练集通过损失值得大小分为两个子集,
Figure 938687DEST_PATH_IMAGE029
其中,
Figure 18638DEST_PATH_IMAGE030
表示从输入样本B中由k网络选出的干净样本子集,
Figure 106680DEST_PATH_IMAGE031
表示求取最优子集过程中遍历的所有符合比例tau的子集,
Figure 655604DEST_PATH_IMAGE032
为低损失划分比例,
Figure 120083DEST_PATH_IMAGE033
表示从输入样本B中由k网络选出的高损失样本子集;
步骤(B2),样本交换模块,样本交换模块是将低损失样本视为干净样本并在两个神经网络中交换被分离的样本集,再滤除由标签噪声引入的不同错误,且
Figure 54541DEST_PATH_IMAGE034
Figure 579064DEST_PATH_IMAGE035
在干净样本上的分类损失
Figure 598972DEST_PATH_IMAGE036
Figure 601563DEST_PATH_IMAGE037
分别如公式(3)和公式(4)所示,
Figure 390528DEST_PATH_IMAGE038
4.根据权利要求3所述的一种基于标签分布学习的含细粒度噪图像分类方法,其特征在于:步骤(C),由标签分布学习模块能对高损失值样本执行标签分布学习,并实时更新网络神经网络模型的参数,再进行损失校正,其中标签分布学习模块的具体内容是采用Kullback-Leibler散度损失指导标签分布训练、采用基于Mixup技术的高损失样本与低损失样本混合以及引入辅助性的一致性损失函数,具体步骤如下,
步骤(C1),采用Kullback-Leibler散度损失指导标签分布训练,通过采用Kullback-Leibler散度定义损失,并要维护一个标签分布矩阵
Figure 335219DEST_PATH_IMAGE039
,且矩阵的各个项中维护了样本
Figure 842423DEST_PATH_IMAGE040
中的真实标签估计值
Figure 383126DEST_PATH_IMAGE041
,其中
Figure 292176DEST_PATH_IMAGE042
是一个维度为
Figure 892922DEST_PATH_IMAGE043
向量,且
Figure 153002DEST_PATH_IMAGE044
是分类任务的类别数,而标签分布是样本
Figure 497396DEST_PATH_IMAGE045
属于各个标签的归属度分布,Kullback-Leibler散度损失
Figure 11685DEST_PATH_IMAGE046
如公式(5)所示,
Figure 48911DEST_PATH_IMAGE047
其中,
Figure 265129DEST_PATH_IMAGE048
是分类任务的类别数,
Figure 678792DEST_PATH_IMAGE049
是第
Figure 296856DEST_PATH_IMAGE050
次更新网络时神经网络模型的参数,
Figure 504983DEST_PATH_IMAGE051
满足约束
Figure 208497DEST_PATH_IMAGE052
每个
Figure 141031DEST_PATH_IMAGE053
引入了一个隐变量
Figure 144759DEST_PATH_IMAGE054
,且
Figure 523788DEST_PATH_IMAGE054
能在梯度回传的过程中自由地更新,再通过归一化操作使得
Figure 714598DEST_PATH_IMAGE055
变成
Figure 204485DEST_PATH_IMAGE056
,并能生成一个标签分布矩阵;
步骤(C2),采用基于Mixup技术的高损失样本与低损失样本混合,具体步骤如下,
步骤(C21),对每一个样本
Figure 531561DEST_PATH_IMAGE057
随机地从干净样本集
Figure 81491DEST_PATH_IMAGE058
中抽取出干净样本
Figure 510330DEST_PATH_IMAGE059
,并相应建立新的样本
Figure 803908DEST_PATH_IMAGE060
,具体方法如公式(6)所示,
Figure 516649DEST_PATH_IMAGE061
其中,
Figure 971901DEST_PATH_IMAGE062
是一个从Beta 分布
Figure 137303DEST_PATH_IMAGE063
中采样的权重参数,且Mixup技术能确保样本
Figure 968993DEST_PATH_IMAGE064
中至少含有
Figure 536240DEST_PATH_IMAGE065
的权重在正确的标签上;
步骤(C22),设一个超参数
Figure 411661DEST_PATH_IMAGE066
,且被优化器使用的分类损失
Figure 64359DEST_PATH_IMAGE067
Figure 965319DEST_PATH_IMAGE068
如公式(7)和公式(8)所示,并得到标签分布学习的损失函数定义,
Figure 121494DEST_PATH_IMAGE069
其中,
Figure 184128DEST_PATH_IMAGE070
Figure 58543DEST_PATH_IMAGE071
的具体形式如公式(9)和公式(10)所示,
Figure 513927DEST_PATH_IMAGE072
步骤(C3),引入辅助性的一致性损失函数,且一致性损失函数用于指导和正则化模型的训练过程,其中一致性损失是标签分布
Figure 790187DEST_PATH_IMAGE073
与原始标签
Figure 23722DEST_PATH_IMAGE074
的分布一致性,即标签分布
Figure 385433DEST_PATH_IMAGE075
与原始标签
Figure 362617DEST_PATH_IMAGE076
在被选出的干净样本上的交叉熵
Figure 493384DEST_PATH_IMAGE077
Figure 163400DEST_PATH_IMAGE078
,如公式(11)和公式(12)所示,
Figure 264604DEST_PATH_IMAGE079
5.根据权利要求4所述的一种基于标签分布学习的含细粒度噪图像分类方法,其特征在于:步骤(D),构建用于提升双导师网络表征学习能力的自监督学习模块,其中自监督学习模块能将在线网络
Figure 779899DEST_PATH_IMAGE080
预测从目标网络得到投影
Figure 30752DEST_PATH_IMAGE081
,且自监督学习模块将神经网络
Figure 606090DEST_PATH_IMAGE082
分解成三个主要部分:一是编码器Encoder记为
Figure 207972DEST_PATH_IMAGE083
,第二是投影
Figure 526958DEST_PATH_IMAGE084
,三是预测器
Figure 632317DEST_PATH_IMAGE085
,而自监督学习模块的具体工作步骤如下,
步骤(D1),设
Figure 394868DEST_PATH_IMAGE086
的参数集合是
Figure 218468DEST_PATH_IMAGE087
Figure 606724DEST_PATH_IMAGE088
的参数集合是
Figure 566590DEST_PATH_IMAGE089
,设
Figure 483730DEST_PATH_IMAGE090
是目标网络
Figure 43893DEST_PATH_IMAGE091
是在线网络,且
Figure 704682DEST_PATH_IMAGE092
Figure 519054DEST_PATH_IMAGE093
提供回归目标,在线网络的参数
Figure 138254DEST_PATH_IMAGE094
是目标网络和在线网络的指数加权平均,更新形式如公式(13)所示,
Figure 670867DEST_PATH_IMAGE095
其中,
Figure 135346DEST_PATH_IMAGE096
是目标衰减系数,且
Figure 804225DEST_PATH_IMAGE097
步骤(D2),将样本图像
Figure 79479DEST_PATH_IMAGE098
的两个增强视图
Figure 99388DEST_PATH_IMAGE099
Figure 367558DEST_PATH_IMAGE100
分别送入到深度神经网络
Figure 156523DEST_PATH_IMAGE101
Figure 851946DEST_PATH_IMAGE102
中,并优化如公式(14)所示的损失函数
Figure 93572DEST_PATH_IMAGE103
Figure 899854DEST_PATH_IMAGE104
其中,
Figure 55242DEST_PATH_IMAGE105
,同时
Figure 921567DEST_PATH_IMAGE106
Figure 916067DEST_PATH_IMAGE107
表示内积运算;
步骤(D3),设
Figure 260461DEST_PATH_IMAGE108
,同时
Figure 24018DEST_PATH_IMAGE109
则可得到损失函数
Figure 795665DEST_PATH_IMAGE110
如公式(15)所示,
Figure 277462DEST_PATH_IMAGE111
步骤(D4),采用停止梯度技术抑制更新目标神经网络,且当神经网络
Figure 176279DEST_PATH_IMAGE112
作为在线神经网络而神经网络
Figure 59921DEST_PATH_IMAGE113
作为目标神经网络时,损失函数
Figure 268048DEST_PATH_IMAGE114
只单独指导神经网络
Figure 237141DEST_PATH_IMAGE115
更新。
6.根据权利要求5所述的一种基于标签分布学习的含细粒度噪图像分类方法,其特征在于:步骤(E),双导师网络使用各自的损失函数进行更新,其中损失函数的更新包含分类损失、一致性正则化损失和自监督学习的损失,且分类损失和一致性正则化损失之间是一个凸组合关系,且通过参数α调节,而自监督学习的损失通过参数
Figure 188917DEST_PATH_IMAGE116
调节,最终损失函数
Figure 707492DEST_PATH_IMAGE117
Figure 352100DEST_PATH_IMAGE118
如公式(16)和公式(17)所示,
Figure 542910DEST_PATH_IMAGE119
CN202211339492.8A 2022-10-29 2022-10-29 一种基于标签分布学习的含细粒度噪图像分类方法 Pending CN115457337A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211339492.8A CN115457337A (zh) 2022-10-29 2022-10-29 一种基于标签分布学习的含细粒度噪图像分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211339492.8A CN115457337A (zh) 2022-10-29 2022-10-29 一种基于标签分布学习的含细粒度噪图像分类方法

Publications (1)

Publication Number Publication Date
CN115457337A true CN115457337A (zh) 2022-12-09

Family

ID=84310545

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211339492.8A Pending CN115457337A (zh) 2022-10-29 2022-10-29 一种基于标签分布学习的含细粒度噪图像分类方法

Country Status (1)

Country Link
CN (1) CN115457337A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117152538A (zh) * 2023-10-26 2023-12-01 之江实验室 一种基于类原型清洗去噪的图像分类方法及装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113159294A (zh) * 2021-04-27 2021-07-23 南京理工大学 基于同伴学习的样本选择算法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113159294A (zh) * 2021-04-27 2021-07-23 南京理工大学 基于同伴学习的样本选择算法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ZEREN SUN: "Co-LDL A Co-Training-Based Label Distribution Learning Method for Tackling Label Noise", 《IEEE TRANSACTIONS ON MULTIMEDIA》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117152538A (zh) * 2023-10-26 2023-12-01 之江实验室 一种基于类原型清洗去噪的图像分类方法及装置
CN117152538B (zh) * 2023-10-26 2024-04-09 之江实验室 一种基于类原型清洗去噪的图像分类方法及装置

Similar Documents

Publication Publication Date Title
Sun et al. Automatically evolving cnn architectures based on blocks
CN110689089A (zh) 用于深度学习多类别医疗图像分类的主动增量训练方法
CN111476285B (zh) 一种图像分类模型的训练方法及图像分类方法、存储介质
Bani-Hani et al. Classification of leucocytes using convolutional neural network optimized through genetic algorithm
CN115457337A (zh) 一种基于标签分布学习的含细粒度噪图像分类方法
CN109214444B (zh) 基于孪生神经网络和gmm的游戏防沉迷判定系统及方法
CN111738870B (zh) 基于特征工程的工程履约保证保险风险识别方法与平台
CN114819091B (zh) 基于自适应任务权重的多任务网络模型训练方法及系统
CN114581356A (zh) 基于风格迁移数据增广的图像增强模型泛化方法
Cong et al. Texture enhanced generative adversarial network for stain normalisation in histopathology images
CN116129189A (zh) 一种植物病害识别方法、设备、存储介质及装置
Cazenave Improving model and search for computer Go
CN114863193B (zh) 基于混合批归一化的长尾学习图像分类、训练方法及装置
CN112488188A (zh) 一种基于深度强化学习的特征选择方法
CN112837145A (zh) 基于改进随机森林的客户信用分类方法
CN117114705A (zh) 一种基于持续学习的电商欺诈识别方法与系统
CN116152581A (zh) 基于多目标混合特征选择的泡沫浮选工况识别方法
CN115392344A (zh) 一种具有难样本感知的强弱双分支网络的长尾识别方法
So CatBoost Versus XGBoost and LightGBM: Developing Enhanced Predictive Models for Zero-Inflated Insurance Claim Data
Yu et al. Historical best Q-networks for deep reinforcement learning
CN112418252A (zh) 基于图像内含社交网络平台指纹的起源社交网络识别方法
CN111144910A (zh) 基于模糊熵均值阴影集的招投标犯罪对象推荐方法及装置
CN117975190B (zh) 基于视觉预训练模型的模仿学习混合样本处理方法及装置
Yuret et al. A genetic algorithm system for predicting the OEX
Chen Evaluating Conditional Cash Transfer Policies with Machine Learning Methods

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20221209

RJ01 Rejection of invention patent application after publication