CN116543259A - 一种深度分类网络噪声标签建模与纠正方法、系统及存储介质 - Google Patents

一种深度分类网络噪声标签建模与纠正方法、系统及存储介质 Download PDF

Info

Publication number
CN116543259A
CN116543259A CN202310513686.3A CN202310513686A CN116543259A CN 116543259 A CN116543259 A CN 116543259A CN 202310513686 A CN202310513686 A CN 202310513686A CN 116543259 A CN116543259 A CN 116543259A
Authority
CN
China
Prior art keywords
label
noise
modeling
training
classification network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310513686.3A
Other languages
English (en)
Inventor
王琛
陶重犇
郭继冲
师君
周远远
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou University of Science and Technology
Original Assignee
Suzhou University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou University of Science and Technology filed Critical Suzhou University of Science and Technology
Priority to CN202310513686.3A priority Critical patent/CN116543259A/zh
Publication of CN116543259A publication Critical patent/CN116543259A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T90/00Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Complex Calculations (AREA)

Abstract

本发明提供一种深度分类网络噪声标签建模与纠正方法、系统及存储介质,该深度分类网络噪声标签建模与纠正方法包括以下步骤:步骤一,获取损失函数曲线;步骤二,对损失函数曲线进行聚类拟合,得到单模型训练下标签噪声隶属度函数值,然后返回步骤一;步骤三,多模型噪声标签建模;获取M个模型的隶属度函数值,对M个模型的隶属度函数值进行多模型置信度阀值平均,得到最终最优隶属度函数值;步骤四,噪声标签纠正与分类网络训练;根据多模型标签建模结果,构建多个标签集合,并对所构建标签集合中不同标签样本赋予不同权重,得到对应设计加权损失函数对分类网络进行训练。本发明的有益效果是:提升噪声标签下分类网络的训练效果和分类精度。

Description

一种深度分类网络噪声标签建模与纠正方法、系统及存储 介质
技术领域
本发明涉及图像处理技术领域,尤其涉及一种深度分类网络噪声标签建模与纠正方法、系统及存储介质。
背景技术
深度分类网络已经被广泛应用于自然视觉图像、SAR图像、医学图像等多种图像形式的目标分类任务中,在目标监测、目标识别、图像理解、医学诊断分析等多种场景中有着广泛的应用。由于深度分类网络参数量大、模型拟合能力强的特点,使其能够拟合噪声标签(错误标签)导致深度分类网络训练效果受损。因此,传统分类网络的训练方法明显受到噪声标签的影响;噪声标签情形下的分类网络训练和噪声标签纠正成为实际分类网络场景应用中的研究热点。
虽然目前已有一些对于噪声标签的相关研究,但主要涉及正则化约束、标签平滑、鲁棒损失设计等方面。
发明内容
为了解决现有技术中监督学习分类网络在噪声标签数据集下训练效果严重受损的问题,本发明提供了一种深度分类网络噪声标签建模与纠正方法。
本发明提供了一种深度分类网络噪声标签建模与纠正方法,包括以下步骤:
步骤一,获取损失函数曲线;
步骤二,对步骤一的损失函数曲线进行聚类拟合,得到单模型训练下标签噪声隶属度函数值,然后返回步骤一;循环执行步骤一和步骤二M次后,再执行步骤三;
步骤三,多模型噪声标签建模;获取M个模型的隶属度函数值,对所获取的M个模型的隶属度函数值进行多模型置信度阀值平均,得到最终最优隶属度函数值;
步骤四,噪声标签纠正与分类网络训练;根据步骤三的多模型标签建模结果,构建多个标签集合,并对所构建标签集合中不同标签样本赋予不同权重,得到对应设计加权损失函数对分类网络进行训练。
作为本发明的进一步改进,所述步骤一具体过程如下:
假设目标数据集为S,其中包含图像集Xn和对应含噪声标签的标签集Yn,利用目标图像数据集S训练深度分类网络模型,损失函数定义为交叉熵损失,训练时超参数设置与监督学习下深度网络训练模型的超参数相同,训练过程中记录每个迭代阶段中图像集Xn中每个图像样本i对应的损失值,得到对应损失函数曲线向量li,训练结束后将得到对应损失函数曲线集{li}。
作为本发明的进一步改进,所述步骤二具体过程如下:
将步骤一中获取到的损失函数曲线作为特征向量进行标签建模;假设T表示步骤一中损失函数曲线获取阶段中训练迭代次数,则任意损失曲线li为T维向量,将标签噪声建模阶段建模为无监督聚类过程,定义标签噪声建模损失函数为计算公式如下:
其中N为损失函数曲线的数量,q为模糊指数,c(k)表示第k类团簇的聚类中心,在噪声标签建模阶段,k有两个取值,此处取值为1、2,并规定k=1对应团簇中心为无噪声标签,ui(k)为隶属度函数,表示任意损失函数曲线li属于第k类团簇的程度。
通过交替迭代过程得到最小化损失函数值;首先初始化聚类中心c(k),之后利用下列公式交替迭代更新团簇和隶属度:
当优化迭代过程最终收敛后,将获得最优团簇中心c*(1)和c*(2)以及各损失曲线标签噪声隶属度函数c*(1)对应无噪声标签,c*(2)对应噪声标签,N为损失函数曲线的数量,i为损失函数序号下标,所有样本对应损失曲线隶属度函数值构成单模型训练下标签噪声隶属度函数值集合/>
作为本发明的进一步改进,所述步骤三包括:
步骤1,获取多模型隶属度函数值集合;每次使用相同训练集训练不同网络模型,得到不同噪声标签建模结果,即团簇中心c* m(1)和c* m(2)以及各损失函数隶属度函数值集合
步骤2,利用基于置信度阈值的方式计算多模型标签噪声平均,具体计算公式如下:
其中,
表示步骤二中拟合收敛后最优聚类结果下损失曲线i对应的隶属度函数在多模型下的基于阈值的平均,/>表示步骤二中拟合收敛后最优聚类结果下损失曲线i对应的隶属度函数在多模型下的算数平均,/>为指示函数,当满足/>时函数值为1,否则为0,j表示遍历所有损失曲线的下标索引,pi表示第i个训练损失函数曲线对应的变量p;
多模型下噪声标签建模结果计算为:
表示样本i对应标签建模为无噪声标签,/>表示样本i对应标签建模为噪声标签。
作为本发明的进一步改进,在所述步骤四中,根据噪声标签建模结果和多模型隶属度函数值/>构建高置信无错误标签集合、高置信错误标签集合、低置信标签建模集合,在纠正训练过程中,对所构建的高置信无错误标签集合、高置信错误标签集合、低置信标签建模集合中不同标签样本赋予不同权重,配合mixup标签构建方法,设计加权损失函数对分类网络进行训练。
本发明还公开了一种深度分类网络噪声标签建模与纠正系统,包括:存储器、处理器以及存储在所述存储器上的计算机程序,所述计算机程序配置为由所述处理器调用时实现本发明所述深度分类网络噪声标签建模与纠正方法的步骤。
本发明还公开了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序配置为由处理器调用时实现本发明所述深度分类网络噪声标签建模与纠正方法的步骤。
本发明的有益效果是:本发明公开的一种深度分类网络噪声标签建模与纠正方法充分挖掘多模型下损失函数曲线所蕴含的特征,通过对多模型下标签噪声置信进行分析以建模噪声标签,从而实现对噪声标签的纠正,提升噪声标签下分类网络的训练效果和分类精度。
附图说明
图1是本发明深度分类网络噪声标签建模与纠正方法流程图。
具体实施方式
本发明公开了一种深度分类网络噪声标签建模与纠正方法,该深度分类网络噪声标签建模与纠正方法是一种基于多模型损失函数曲线拟合的深度分类网络噪声标签建模与纠正方法,该深度分类网络噪声标签建模与纠正方法是一种新的噪声标签纠正方法,适用于存在一定比例噪声标签情形下的深度分类网络的训练。该深度分类网络噪声标签建模与纠正方法可以在训练数据中包含噪声标签的情形下,有效对深度分类网络进行训练,得到可靠的分类网络模型,同时对噪声标签进行建模与纠正,降低噪声标签对于网络模型的影响,提升噪声标签情形下深度分类网络的分类精度,满足SAR图像、自然视觉图像中包含大量噪声标签的分类任务的网络训练要求。
如图1所示,本发明公开的一种深度分类网络噪声标签建模与纠正方法,包括以下步骤:
步骤一,损失函数曲线获取阶段;获取损失函数曲线;
假设目标数据集为S,其中包含图像集Xn和对应含噪声标签的标签集Yn。利用目标图像数据集S训练深度分类网络模型,损失函数定义为交叉熵损失。训练时超参数设置与监督学习下深度网络训练模型的超参数相同。训练过程中记录每个迭代阶段中图像集Xn中每个图像样本i对应的损失值,得到对应损失函数曲线向量li;训练结束后将得到对应损失函数曲线集{li}。
步骤二,单模型基于损失函数曲线的标签噪声建模阶段;对步骤一的损失函数曲线进行聚类拟合,得到单模型训练下标签噪声隶属度函数值,然后返回步骤一。
本阶段中将步骤一中获取到的损失函数曲线作为特征向量进行标签建模,具体步骤如下:假设T表示步骤一中损失函数曲线获取阶段中训练迭代次数,则任意损失曲线li为T维向量,本发明将标签噪声建模阶段建模为无监督聚类过程,定义标签噪声建模损失函数为具体计算如公式(1)所示:
其中N为损失函数曲线的数量,q为模糊指数。c(k)表示第k类团簇的聚类中心。在噪声标签建模阶段,k有两个取值,此处取值为1、2,并规定k=1对应团簇中心为无噪声标签。ui(k)为隶属度函数,表示任意损失函数曲线li属于第k类团簇的程度。
最小化损失函数值可以通过交替迭代过程实现,首先初始化团簇值c(k),之后利用下列公式交替迭代更新团簇和隶属度:
当优化迭代过程最终收敛后,将获得最优团簇中心c*(1)(对应无噪声标签)和c*(2)(对应噪声标签)以及各损失曲线标签噪声隶属度函数所有样本对应损失曲线隶属度函数值构成单模型训练下标签噪声隶属度函数值集合/>q为模糊指数。
循环执行步骤一和步骤二M次后,再执行步骤三,M为指定数,例如M为3。
步骤三,多模型噪声标签建模阶段;获取M个模型的隶属度函数值,对所获取的M个模型的隶属度函数值进行多模型置信度阀值平均,得到最终最优隶属度函数值。
步骤三包括:
步骤1,获取多模型隶属度函数值集合。
构建多网络结构模型,分别记模型序号为1,2,...,m,...,M。对于多模型,循环执行步骤一和步骤二,每次使用相同训练集训练不同网络模型,得到不同噪声标签建模结果,即团簇中心c* m(1)和c* m(2)以及各损失函数隶属度函数值集合多模型的构建可采用多种方式:(1)选用相同网络模型的不同深度版本,如Resnet18、Resnet50、Resnet101等等;(2)使用dropout等网络裁剪方式对网络进行随机修改,以构建出不同的模型。
步骤2,获取多模型隶属度函数值集合后,利用基于置信度阈值的方式计算多模型标签噪声平均,具体计算如公式(4)所示:
其中,
表示M个模型的隶属度函数的算数平均,M为多模型的模型个数,/>表示任意模型m下步骤二得到的聚类拟合收敛后的曲线i的隶属度函数;
表示步骤二中拟合收敛后最优聚类结果下损失曲线i对应的隶属度函数在多模型下的基于阈值的平均,表示步骤二中拟合收敛后最优聚类结果下损失曲线i对应的隶属度函数在多模型下的算数平均,/>为指示函数,当满足/>时函数值为1,否则为0,/>表示指示函数与算数平均(公式5)的乘积;pi和T分别为Sharpen函数的两个参数,T为sharpen函数中的超参数,j表示遍历所有损失曲线的下标索引,pi 1/T表示pi的T分之一次方,pj 1/T表示pj的T分之一次方,i表示第i个训练损失函数曲线,pi表示第i个训练损失函数曲线对应的变量p,具体在公式4中为隶属度函数u;
多模型下噪声标签建模结果可计算为:
表示样本i对应标签建模为无噪声标签,/>表示样本i对应标签建模为噪声标签;k取值为1或者2,1对应无噪声标签,2对应噪声标签;k*和k的区别在于k*表示模型最优化拟合后的收敛值。
步骤四,噪声标签纠正与分类网络训练阶段。
根据多模型标签建模结果,可根据噪声标签建模结果和多模型隶属度函数值从而构建出高置信无错误标签集合和高置信错误标签集合以及低置信标签建模集合;在纠正训练过程中,对三个集合中不同标签样本赋予不同权重,配合mixup标签构建方法,设计加权损失函数对分类网络进行训练。Mixup为一个数据扩增方法。
作为本发明的实施例,以MSTAR数据集为例,将原数据集训练样本中80%的标签赋值为随机值,则得到噪声标签比例为80%左右的训练数据集S。
选择残差网络作为深度分类网络结果,设置多模型分别为Resnet18、Resnet50、Resnet101三种不同深度的残差网络。
循环执行三次步骤一和步骤二,执行中实施方式如下:
利用交叉熵损失作为训练损失,设置训练参数如下:batchsize为16,学习率为0.0001,对网络分别进行训练,迭代300代。分别得到不同模型下的损失函数曲线集合通过损失函数曲线建模得到标签噪声聚类隶属度函数值集合
执行步骤三,进行多模型隶属度值融合,得到融合后样本标签噪声隶属度值
执行步骤四,通过隶属度阈值(阈值可设置为0.8)根据值大小情况将样本分为三个集合,包括/>对应的高置信无错误标签集合、/>对应的高置信错误标签集合和/>对应的低置信标签集合。将高置信无错误标签集合中标签训练权值设置为1,高置信错误标签集合中标签训练权值设置为0,同时低置信标签集合中标签训练权值设置为0.5,对网络进行训练,训练中采用mixup样本混合技术,采用交叉熵损失进行训练,从而实现对网络的标签纠正训练。
本发明公开了一种深度分类网络噪声标签建模与纠正系统,所述计算机可读存储介质存储有计算机程序,所述计算机程序配置为由处理器调用时实现本发明所述深度分类网络噪声标签建模与纠正方法的步骤。
本发明公开了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序配置为由处理器调用时实现本发明所述深度分类网络噪声标签建模与纠正方法的步骤。
本发明无需预先了解噪声标签的比例,在噪声比例较大的情形下仍然适用,且普遍适用于任意分类网络、任意图像目标分类任务。
本发明的有益效果:本发明公开的一种深度分类网络噪声标签建模与纠正方法充分挖掘多模型下损失函数曲线所蕴含的特征,通过对多模型下标签噪声置信进行分析以建模噪声标签,从而实现对噪声标签的纠正,提升噪声标签下分类网络的训练效果和分类精度。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。

Claims (7)

1.一种深度分类网络噪声标签建模与纠正方法,其特征在于,包括以下步骤:
步骤一,获取损失函数曲线;
步骤二,对步骤一的损失函数曲线进行聚类拟合,得到单模型训练下标签噪声隶属度函数值,然后返回步骤一;循环执行步骤一和步骤二M次后,再执行步骤三;
步骤三,多模型噪声标签建模;获取M个模型的隶属度函数值,对所获取的M个模型的隶属度函数值进行多模型置信度阀值平均,得到最终最优隶属度函数值;
步骤四,噪声标签纠正与分类网络训练;根据步骤三的多模型标签建模结果,构建多个标签集合,并对所构建标签集合中不同标签样本赋予不同权重,得到对应设计加权损失函数对分类网络进行训练。
2.根据权利要求1所述的深度分类网络噪声标签建模与纠正方法,其特征在于,所述步骤一具体过程如下:
假设目标数据集为S,其中包含图像集Xn和对应含噪声标签的标签集Yn,利用目标图像数据集S训练深度分类网络模型,损失函数定义为交叉熵损失,训练时超参数设置与监督学习下深度网络训练模型的超参数相同,训练过程中记录每个迭代阶段中图像集Xn中每个图像样本i对应的损失值,得到对应损失函数曲线向量li,训练结束后将得到对应损失函数曲线集{li}。
3.根据权利要求1所述的深度分类网络噪声标签建模与纠正方法,其特征在于,所述步骤二具体过程如下:
将步骤一中获取到的损失函数曲线作为特征向量进行标签建模;假设T表示步骤一中损失函数曲线获取阶段中训练迭代次数,则任意损失曲线li为T维向量,将标签噪声建模阶段建模为无监督聚类过程,定义标签噪声建模损失函数为计算公式如下:
其中N为损失函数曲线的数量,q为模糊指数,c(k)表示第k类团簇的聚类中心,在噪声标签建模阶段,k有两个取值,此处取值为1、2,并规定k=1对应团簇中心为无噪声标签,ui(k)为隶属度函数,表示任意损失函数曲线li属于第k类团簇的程度;
通过交替迭代过程得到最小化损失函数值;首先初始化聚类中心c(k),之后利用下列公式交替迭代更新团簇和隶属度:
当优化迭代过程最终收敛后,将获得最优团簇中心c*(1)和c*(2)以及各损失曲线标签噪声隶属度函数c*(1)对应无噪声标签,c*(2)对应噪声标签,N为损失函数曲线的数量,i为损失函数序号下标,所有样本对应损失曲线隶属度函数值构成单模型训练下标签噪声隶属度函数值集合/>
4.根据权利要求1所述的深度分类网络噪声标签建模与纠正方法,其特征在于,所述步骤三包括:
步骤1,获取多模型隶属度函数值集合;每次使用相同训练集训练不同网络模型,得到不同噪声标签建模结果,即团簇中心c* m(1)和c* m(2)以及各损失函数隶属度函数值集合
步骤2,利用基于置信度阈值的方式计算多模型标签噪声平均,具体计算公式如下:
其中,
表示步骤二中拟合收敛后最优聚类结果下损失曲线i对应的隶属度函数在多模型下的基于阈值的平均,/>表示步骤二中拟合收敛后最优聚类结果下损失曲线i对应的隶属度函数在多模型下的算数平均,/>为指示函数,当满足/>时函数值为1,否则为0;j表示遍历所有损失曲线的下标索引,pi表示第i个训练损失函数曲线对应的变量p;
多模型下噪声标签建模结果计算为:
表示样本i对应标签建模为无噪声标签,/>表示样本i对应标签建模为噪声标签。
5.根据权利要求1所述的深度分类网络噪声标签建模与纠正方法,其特征在于,在所述步骤四中,根据噪声标签建模结果和多模型隶属度函数值/>构建高置信无错误标签集合、高置信错误标签集合、低置信标签建模集合,在纠正训练过程中,对所构建的高置信无错误标签集合、高置信错误标签集合、低置信标签建模集合中不同标签样本赋予不同权重,配合mixup标签构建方法,设计加权损失函数对分类网络进行训练。
6.一种深度分类网络噪声标签建模与纠正系统,其特征在于,包括:存储器、处理器以及存储在所述存储器上的计算机程序,所述计算机程序配置为由所述处理器调用时实现权利要求1-5中任一项所述深度分类网络噪声标签建模与纠正方法的步骤。
7.一种计算机可读存储介质,其特征在于:所述计算机可读存储介质存储有计算机程序,所述计算机程序配置为由处理器调用时实现权利要求1-5中任一项所述深度分类网络噪声标签建模与纠正方法的步骤。
CN202310513686.3A 2023-05-09 2023-05-09 一种深度分类网络噪声标签建模与纠正方法、系统及存储介质 Pending CN116543259A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310513686.3A CN116543259A (zh) 2023-05-09 2023-05-09 一种深度分类网络噪声标签建模与纠正方法、系统及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310513686.3A CN116543259A (zh) 2023-05-09 2023-05-09 一种深度分类网络噪声标签建模与纠正方法、系统及存储介质

Publications (1)

Publication Number Publication Date
CN116543259A true CN116543259A (zh) 2023-08-04

Family

ID=87446570

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310513686.3A Pending CN116543259A (zh) 2023-05-09 2023-05-09 一种深度分类网络噪声标签建模与纠正方法、系统及存储介质

Country Status (1)

Country Link
CN (1) CN116543259A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117690011A (zh) * 2024-02-04 2024-03-12 中国海洋大学 适用于嘈杂水下场景的目标检测方法及其模型搭建方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117690011A (zh) * 2024-02-04 2024-03-12 中国海洋大学 适用于嘈杂水下场景的目标检测方法及其模型搭建方法
CN117690011B (zh) * 2024-02-04 2024-04-19 中国海洋大学 适用于嘈杂水下场景的目标检测方法及其模型搭建方法

Similar Documents

Publication Publication Date Title
CN109711426B (zh) 一种基于gan和迁移学习的病理图片分类装置及方法
CN108399428B (zh) 一种基于迹比准则的三元组损失函数设计方法
KR101183391B1 (ko) 메트릭 임베딩에 의한 이미지 비교
CN113112534B (zh) 一种基于迭代式自监督的三维生物医学图像配准方法
JP2005202932A (ja) データを複数のクラスに分類する方法
CN112580728B (zh) 一种基于强化学习的动态链路预测模型鲁棒性增强方法
CN112215101A (zh) 一种基于注意力机制的三维目标识别方法及系统
CN110889865A (zh) 一种基于局部加权稀疏特征选择的视频目标跟踪方法
CN112634149A (zh) 一种基于图卷积网络的点云去噪方法
CN116543259A (zh) 一种深度分类网络噪声标签建模与纠正方法、系统及存储介质
CN108154186B (zh) 一种模式识别方法和装置
CN111062428A (zh) 一种高光谱图像的聚类方法、系统及设备
CN107292855B (zh) 一种结合自适应非局部样本和低秩的图像去噪方法
CN107240100B (zh) 一种基于遗传算法的图像分割方法和系统
WO2024060839A1 (zh) 对象操作方法、装置、计算机设备以及计算机存储介质
CN111461303B (zh) 基于生成对抗神经网络的数字岩心重构方法及系统
CN113378620A (zh) 监控视频噪声环境下跨摄像头行人重识别方法
CN110717402B (zh) 一种基于层级优化度量学习的行人再识别方法
CN111046958A (zh) 基于数据依赖的核学习和字典学习的图像分类及识别方法
CN107492101B (zh) 基于自适应构造最优图的多模态鼻咽肿瘤分割算法
CN116432053A (zh) 基于模态交互深层超图神经网络的多模态数据表示方法
CN108830860B (zh) 一种基于rgb-d约束的双目图像目标分割方法和装置
CN111310857A (zh) 特征提取方法、电子装置及医疗案例相似度模型构建方法
CN111914865A (zh) 一种基于随机核的概率主组件分析方法
CN115879513B (zh) 一种数据的层次化标准化方法、装置和电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination