CN112101328A - 一种深度学习中识别并处理标签噪声的方法 - Google Patents
一种深度学习中识别并处理标签噪声的方法 Download PDFInfo
- Publication number
- CN112101328A CN112101328A CN202011301460.XA CN202011301460A CN112101328A CN 112101328 A CN112101328 A CN 112101328A CN 202011301460 A CN202011301460 A CN 202011301460A CN 112101328 A CN112101328 A CN 112101328A
- Authority
- CN
- China
- Prior art keywords
- label
- data set
- image data
- training
- face image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/55—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computing Systems (AREA)
- Evolutionary Biology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种深度学习中识别并处理标签噪声的方法,属于深度学习技术领域,解决了现有技术样本量大,人工无法逐个对标签数据进行检查,无法找出噪声样本的问题,其包括在含有标签噪声的数据集上,搭建神经网络,确定损失函数,使用梯度下降技术对参数进行训练,得到一组能使损失函数相对较小的模型参数,完成模型的初步训练。用初次训练好的模型对含标签噪声的训练集重新进行预测分类,将模型预测出的标签与实际标签比对,人工筛选出标签噪声数据并重新打标;本发明通过对含有标签噪声的数据集进行迭代训练,从而筛选出潜在的标签噪声数据进行修正,其不需要预先对数据进行清洗,训练难度低且人工成本低,效率高,具有重要现实意义。
Description
技术领域
本发明属于深度学习技术领域,具体属于一种深度学习中识别并处理标签噪声的方法。
背景技术
金融科技是指通过利用各类科技手段创新传统金融行业所提供的产品和服务,提升效率并有效降低运营成本,金融市场以及金融服务业务供给产生重大影响的新兴业务模式、新技术应用、新产品服务等。随着互联网金融的发展,金融欺诈问题的不断涌现,如何解决互联网金融欺诈问题、提高金融交易安全性,成为当前形势下亟待解决的问题。
金融交易中欺诈者通过耳机指挥借贷者进行欺诈的场景,欺诈客户中有较大比例会戴耳机接收中介/骗子的实时指导,因此市场需要开发一个自动化模型来快速识别戴耳机的客户,并导向专门的风险筛查流程,以此节约人力资源与成本,同时降低行内资产的欺诈风险。但由于人工打标签成本高、质量低,本例模型训练集中样本严重不平衡,戴耳机的样本量约为不戴耳机样本量的1/100。且在进行模型训练时,必须面对标签噪声的影响,我们拿到的每一个带标签数据集都含有一定程度的噪声,即0标签数据集中含有少量的1标签,这部分1标签会严重影响训练模型的效果。由于样本量很大,对于每一个带标签数据集,我们不可能人工逐个检查并校正标签。
现有技术中常用的标签噪声处理方法主要有:改变损失函数,通过改变损失函数使得模型在噪声数据集上训练后的性能与在干净的噪声数据集上的性能相当,但在实际操作过程中,改变的损失函数往往会降低模型的性能;使用鲁棒性的架构,但这类方法往往难以训练而且效果并不好;正则化,比如权重衰减、dropout、 batch normalization等方法,这类方法足以抵抗少量的噪声数据,但在面对稍多的噪声时,效果不太好;调整损失函数,在更新参数前调整所有训练样本对损失值的影响,从而来影响最终的损失值,但此类方法训练难度大,效果也并不是很好;丢弃疑似噪声的样本,但选择什么样的规则来丢弃疑似噪声样本会增大训练难度且不可避免地会丢弃一些标注正确的样本;半监督学习,从少量的干净数据集上训练多个小型的网络,然后将这些网络在噪音集上的预测结果进行集成,从而筛选出可能的标签噪音数据。
深度学习模型往往需要大量标记正确的数据,而实际数据集中有8%-38.5%的数据是被污染的,故很多深度学习模型很容易对存在噪声的数据集过拟合,从而使得模型在测试集上的表现较差,而常用的处理标签噪声的方法并不能很好地解决这一问题。
发明内容
针对现有技术中样本量大,人工无法逐个对标签数据进行检查,无法找出是噪音样本的的问题,本发明提供一种深度学习中识别并处理标签噪声的方法,其目的在于:通过对含有标签噪声的数据集进行迭代训练,从而筛选出潜在的标签噪声数据进行修正。
本发明采用的技术方案如下:
一种深度学习中识别并处理标签噪声的方法,包括以下步骤:
步骤A:构建大规模的带有标签噪声的真实条件下的初始人脸图像数据集;
步骤B:在ImageNet图像数据集上使用ResNet框架训练带有标签噪声的通用数据集得到通用图片分类模型,该通用图片分类模型使用了51层的CNN模型进行训练,目标为1000类图片标签(包含车,船,飞机,花,鸟,猫,狗等等,但不包含本发明示例的下游任务预测目标/标签),模型的中间层充分学习了各种物体的纹理特征,泛化/迁移学习能力良好;
步骤C:将通用图片分类模型在初始人脸图像数据集上进行有监督迁移学习,得到标签分类模型;
步骤D:将标签分类模型应用于初始人脸图像数据集上并进行标签预测,完成人脸图像数据集的分类和标签标注,得到预测后的人脸图像数据集;
步骤E:将初始人脸图像数据集与预测后的人脸图像数据集进行对比,若标签一致,则结束训练;若标签不一致,输出预测后的人脸图像数据集与初始人脸图像数据集中不一致的标签样本,将不一致的标签样本进行人工检验,若不一致的标签样本标注错误则校正,得到校正后的人脸图像数据集。
优选的,还包括步骤F:重复步骤C至E,将初始人脸图像数据集替换为校正后的人脸图像数据集。
优选的,所述步骤A中还包括对初始人脸图像数据集进行预处理:用opencv和dlib对初始人脸图像数据集中的每一人脸进行检测,对人脸进行关键点定位并旋转对齐,之后依据眼睛和嘴唇的特征点裁剪人脸,再使用高斯噪声、对比度增强、调整亮度和几何变换增强的方式依次增强噪声标签样本。
优选的,所述步骤C中具体包括:将初始人脸图像数据集随机切分为训练集、验证集和测试集,三者的数据量比例为2:1:1,将通用图片分类模型在训练集上训练最小化损失函数得到初始标签分类模型,将初始标签分类模型在验证集进行评估,评估后得到评估初始标签分类模型,再将评估初始标签分类模型依次在训练集上训练、验证集上评估,经过数次训练评估后,得到准标签分类模型,再将准标签分类模型在测试集进行评估,评估后得到标签分类模型。
综上所述,由于采用了上述技术方案,本发明的有益效果是:
1.本发明对标签噪声的数据进行训练,之后用训练得到的模型在训练集上进行预测,从而筛选出可能的标签噪声数据进行修正并迭代模型更可能筛选出标签噪声数据;本发明适用于含有标签噪声的数据,解决数据存在严重不平衡、打标错误的问题;本发明通过对含有标签噪声的数据集进行迭代训练,从而筛选出潜在的标签噪声数据进行修正,其不需要预先对数据进行清洗,训练难度低且人工成本低,效率高,具有重要现实意义。
2.本发明将初始人脸图像数据集分为训练集、验证集和测试集,三者的数据量比例为2:1:1;其中,训练集用于模型在单轮(单个epoch)训练中最小化损失函数(此处学习任务为分类任务,所以损失函数定义为交叉熵损失函数,最小化损失函数即为最小化交叉熵损
失CrossEntrophyLoss,公式如上,其中L为交叉熵损失,y为真实标签,y_hat为模型预测值,该损失用于评估预测值与真实标签之间的差异,预测差异越大,交叉熵损失越大,最小化交叉熵损失即为最小化预测误差),验证集用于评估本轮训练的模型效果(泛化能力,避免过拟合),经过若干轮训练后,模型的验证集评估效果不再有显著提升,此时在测试集(独立于训练与验证样本)上评估模型的样本外表现,避免出现严重的过拟合,得到泛化能力强且稳定的模型。
附图说明
图1是本发明的一种具体实施方式的流程示意图。
图2是本发明的一种具体实施方式的人脸示意图。
具体实施方式
本说明书中公开的所有特征,或公开的所有方法或过程中的步骤,除了互相排斥的特征和/或步骤以外,均可以以任何方式组合。
下面结合图1对本发明作详细说明。
本发明适用的条件:
统计打标客户绝对数量与相对占比,如果打标数量充足,进入本发明所述的标签噪声处理与模型训练流程;如果打标数量不足,则需要考虑加入相似分布的外部标签样本参与训练,并进入本发明所述的标签噪声处理与模型训练流程;
抽样评估打标质量,如果打标质量较差(漏标与误标情况较多),则直接进入本发明所述的标签噪声处理与模型训练流程;
一种深度学习中识别并处理标签噪声的方法,包括以下步骤:
步骤A:构建大规模的带有标签噪声的真实条件下的初始人脸图像数据集;
人脸图像均为真实人脸,且数据集中含有标签噪声,初始人脸图像数据集具有如下特点:真实人脸图像从手机等拍摄工具获取或从互联网中爬取;少量标签为1的样本被误标为0,即标签为0的数据集中存在标签噪声;
步骤B:在ImageNet图像数据集上使用ResNet框架训练带有标签噪声的通用数据集得到通用图片分类模型;
步骤C:将通用图片分类模型在初始人脸图像数据集上进行有监督迁移学习,得到标签分类模型;其中有监督代表训练过程中使用的初始人脸图像数据集带有标签(虽然含有标签噪声,标签准确度不高),无监督则代表训练数据不含显式的标签;迁移学习则表示该模型训练的初始化权重来自于不同的学习任务A(即步骤B中的通用图片分类模型),与本学习任务B没有直接关联;
即通用图片分类模型通过解析训练数据,学习到一个可以将数据映射到标签的函数,可以将不同标签的样本分类。
步骤D:将标签分类模型应用于初始人脸图像数据集上并进行标签预测,完成人脸图像数据集的分类和标签标注,得到预测后的人脸图像数据集;
即将训练好的标签分类模型重新应用于初始人脸图像数据集上并进行标签预测,即不展示样本的分类标签,让模型通过步骤B和C学习到的将数据映射到标签的函数,对初始人脸图像数据集上的样本进行分类并标注标签。
步骤E:将初始人脸图像数据集与预测后的人脸图像数据集进行对比,若标签一致,则结束训练;若标签不一致,输出预测后的人脸图像数据集与初始人脸图像数据集中不一致的标签样本,将不一致的标签样本进行人工检验,若不一致的标签样本标注错误则校正,得到校正后的人脸图像数据集。
即输出与预测标签与原始标签不一致的人脸图像,人工校对预测结果是否正确,将确实标注错误的样本从原数据集中删除,并将这些样本加入到正确的数据集中;
还包括步骤F:重复步骤C至E,将初始人脸图像数据集替换为校正后的人脸图像数据集。
所述步骤A中还包括对初始人脸图像数据集进行预处理:用opencv和dlib对初始人脸图像数据集中的每一人脸进行检测,对人脸进行关键点定位并旋转对齐,之后依据眼睛和嘴唇的特征点裁剪人脸,再使用高斯噪声、对比度增强、调整亮度和几何变换增强的方式依次增强噪声标签样本。
所述步骤C中具体包括:将初始人脸图像数据集分为训练集、验证集和测试集,三者的数据量比例为2:1:1,将通用图片分类模型在训练集上训练最小化损失函数得到初始标签分类模型,将初始标签分类模型在验证集进行评估,评估后得到评估初始标签分类模型,再将评估初始标签分类模型依次在训练集上训练、验证集上评估,经过数次训练评估后,得到准标签分类模型,再将准标签分类模型在测试集进行评估,评估后得到标签分类模型。
即将初始人脸图像数据集分为训练集、验证集和测试集,三者的数据量比例为2:1:1,其中,训练集用于模型在单轮(单个epoch)训练中最小化损失函数(CrossEntrophyLoss),验证集用于评估本轮训练的模型效果(泛化能力,避免过拟合),经过若干轮训练后,模型的验证集评估效果不再有显著提升,此时在测试集(独立于训练与验证样本)上评估模型的样本外表现,避免出现严重的过拟合,得到泛化能力强且稳定的模型。
具体实施例:
前置条件
数据集标签记为0标签与1标签,数据集样本严重不平衡,0标签远远多于1标签。
0标签数据含有标签噪声,即部分1标签数据被误划分为0标签数据。
模型训练阶段
在含有标签噪声的数据集上,搭建神经网络,确定损失函数,使用梯度下降技术对参数进行训练,得到一组能使损失函数相对较小的模型参数,完成模型的初步训练。
用初次训练好的模型对含标签噪声的训练集重新进行预测分类。
将模型预测出的1标签与实际1标签比对,人工筛选出标签噪声数据并重新打标。
模型迭代阶段
在重新打标之后的数据集上训练模型,不断重复模型训练阶段,直至模型预测结果与实际数据基本吻合。
1.构建大规模的深度学习初始人脸识别图像数据集,该数据集的特点为:
图像均为真实场景下的人脸自拍;
戴耳机的人脸图像数据标签为1,不戴耳机的人脸图像数据标签为0;
不戴耳机(0标签)数据集存在标签噪声,即有一些戴耳机的数据混在里面,且这部分数据标签为0;
戴耳机(1标签)数据集干净,即不存在不戴耳机的数据;
不戴耳机的数据集规模远远大于戴耳机数据集规模;
初始人脸识别图像数据集被随机分为训练集、验证集和测试集,其中训练集的规模要远大于验证集和测试集;
2.对初始人脸图像数据进行数据预处理,具体方法为:
使用face_recognition检测人脸的关键点并返回68个特征点,face_recognition是一个强大、简单、易上手的人脸识别开源项目,可以提取、识别、操作人脸;
将人脸图像对齐,即计算左右眼中心坐标连线与水平方向的夹角θ,以左右两眼整体中心坐标为基点,将图片旋转θ度以使得左右眼中心连线与水平方向对齐(夹角θ为正时顺时针旋转,θ为负时逆时针旋转);
基于眼睛和嘴唇的特征点对人脸图像进行裁剪,首先将两眼坐标中心到嘴唇坐标中心的像素距离定义为裁剪标定距离,再进行上下等距裁剪使得该裁剪标定距离占垂直方向的35%;裁剪标定距离的具体说明参见后文图2的人脸示意图;
3.利用数据增强方法处理样本不平衡问题,具体方法为:
使用几何变换(水平翻转)对图像进行数据增强;
使用随机调整亮度(增加亮度或降低亮度)对图像进行增强;
使用随机调整对比度对图像进行增强;
利用程序给图像添加高斯噪声;
4.利用Resnet34训练模型。
(1)Resnet又叫深度残差网络,是卷积神经网络(CNN)中的一种,将Resnet与其它神经网络在Image数据集上的分类效果进行对比,发现Resnet较其它神经网络准确率有比较大的提升。因此选择Resnet作为最终模型。
(2)Resnet有很多不同结构,如ResNet34、ResNet18、 ResNet50等,将不同Resnet分类效果在验证集上对比,结果如下表所示,发现Resnet34在验证集上表现效果更好。
表1不同模型框架训练效果对比表
因此本案例使用Resnet34作为训练模型。
(3)Resnet34训练模型的大致流程为:
a.模型输入。Resnet34是一种图像处理的方法,模型输入即为数值矩阵,通常的图像有红蓝绿3色通道,因此模型输入为3×M×N。其中M×N是图像的分辨率。
b.模型结构。基本的CNN主要包含4个元素,分别为卷积层、池化层、激活函数、全连接层。
卷积层的目的是提取图像特征,前向传播公式为:
池化层简单来说是一种下采样,它可以大大降低数据维度。
卷积层和池化层之后会有全连接层,然后加上一个损失函数就能输出我们想要的结果,比如二分类问题,我们常用Logistic函数,其形式如下:
其中f(x)输出的模型预测概率p,x为模型输出绝对值(未转化为概率),e为对数函数。
Resnet网络为解决传统CNN面临的随着层数增加,模型拟合效果下降的问题而提出,主要思想是一种恒等映射,具体公式为:
模型只需要学习F(x)即可,如此便可解决模型的退化问题。
5.batch_size设置为64,训练方法使用随机梯度下降算法(SGD),训练结果如下表所示:
表2 模型训练结果表
数据集 | 戴耳机数 | 不戴耳机数 | 精确率 | 召回率 | F1 |
验证集 | 46 | 4424 | 0.8846 | 1 | 0.9388 |
测试集 | 112 | 9888 | 0.8257 | 0.8036 | 0.8145 |
用训练好的Resnet34分类模型重新应用于原训练集上并进行标签预测,对训练集上的样本进行分类并标注标签。
预测的具体方法为使用Softmax函数就可以将多分类的输出值转换为范围在[0,1]和为1的概率分布。具体公式如下:
其中为第i个节点的输出值,C为输出节点的个数,即分类类别个数。与softmax相对应的是hardmax,后者只选出其中一个最大的值,即非黑即白。但是往往在实际中这种方式是不合情理的,比如对于图片分类来说,一张图片可能同时包含多种图片类别,我们更期望得到图片对于每个可能的物体类别的概率值(置信度),可以简单理解成属于对应类别的可信度。所以此时用到了soft的概念,Softmax的含义就在于不再唯一的确定某一个最大值,而是为每个输出分类的结果都赋予一个概率值,表示属于每个类别的可能性。
6.将分类后的标签结果与原始标签进行对比,若不一致,输出与原始标签不一致的样本进行人工检验,若的确标注错误,则将标注错误的样本标签校正。若一致,则结束训练。
7.结束训练后得到最终模型和一个没有标签噪声的干净数据集合。
以上所述实施例仅表达了本申请的具体实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请保护范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请技术方案构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。
Claims (4)
1.一种深度学习中识别并处理标签噪声的方法,其特征在于,包括以下步骤:
步骤A:构建大规模的带有标签噪声的真实条件下的初始人脸图像数据集;
步骤B:在ImageNet图像数据集上使用ResNet框架训练带有标签噪声的通用数据集得到通用图片分类模型;
步骤C:将通用图片分类模型在初始人脸图像数据集上进行有监督迁移学习,得到标签分类模型;
步骤D:将标签分类模型应用于初始人脸图像数据集上并进行标签预测,完成人脸图像数据集的分类和标签标注,得到预测后的人脸图像数据集;
步骤E:将初始人脸图像数据集与预测后的人脸图像数据集进行对比,若标签一致,则结束训练;若标签不一致,输出预测后的人脸图像数据集与初始人脸图像数据集中不一致的标签样本,将不一致的标签样本进行人工检验,若不一致的标签样本标注错误则校正,得到校正后的人脸图像数据集。
2.根据权利要求1所述的一种深度学习中识别并处理标签噪声的方法,其特征在于,还包括步骤F:重复步骤C至E,将初始人脸图像数据集替换为校正后的人脸图像数据集。
3.根据权利要求1所述的一种深度学习中识别并处理标签噪声的方法,其特征在于,所述步骤A中还包括对初始人脸图像数据集进行预处理:用opencv和dlib对初始人脸图像数据集中的每一人脸进行检测,对人脸进行关键点定位并旋转对齐,之后依据眼睛和嘴唇的特征点裁剪人脸,再使用高斯噪声、对比度增强、调整亮度和几何变换增强的方式依次增强噪声标签样本。
4.根据权利要求1所述的一种深度学习中识别并处理标签噪声的方法,其特征在于,所述步骤C中具体包括:将初始人脸图像数据集分为训练集、验证集和测试集,三者的数据量比例为2:1:1,将通用图片分类模型在训练集上训练最小化损失函数得到初始标签分类模型,将初始标签分类模型在验证集进行评估,评估后得到评估初始标签分类模型,再将评估初始标签分类模型依次在训练集上训练、验证集上评估,经过数次训练评估后,得到准标签分类模型,再将准标签分类模型在测试集进行评估,评估后得到标签分类模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011301460.XA CN112101328A (zh) | 2020-11-19 | 2020-11-19 | 一种深度学习中识别并处理标签噪声的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011301460.XA CN112101328A (zh) | 2020-11-19 | 2020-11-19 | 一种深度学习中识别并处理标签噪声的方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112101328A true CN112101328A (zh) | 2020-12-18 |
Family
ID=73785759
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011301460.XA Pending CN112101328A (zh) | 2020-11-19 | 2020-11-19 | 一种深度学习中识别并处理标签噪声的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112101328A (zh) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112836754A (zh) * | 2021-02-05 | 2021-05-25 | 方玉明 | 一种面向图像描述模型泛化能力评估方法 |
CN113139053A (zh) * | 2021-04-15 | 2021-07-20 | 广东工业大学 | 一种基于自监督对比学习的文本分类方法 |
CN113139628A (zh) * | 2021-06-22 | 2021-07-20 | 腾讯科技(深圳)有限公司 | 样本图像的识别方法、装置、设备及可读存储介质 |
CN113283578A (zh) * | 2021-04-14 | 2021-08-20 | 南京大学 | 一种基于标记风险控制的数据去噪方法 |
CN113361201A (zh) * | 2021-06-10 | 2021-09-07 | 南京大学 | 一种基于噪声标签学习的众包获取标签数据清洗方法 |
CN113435394A (zh) * | 2021-07-13 | 2021-09-24 | 郑州大学 | 一种基于标签概率序列的高鲁棒性深度道路提取方法 |
CN113505120A (zh) * | 2021-09-10 | 2021-10-15 | 西南交通大学 | 一种大规模人脸数据集的双阶段噪声清洗方法 |
CN113516207A (zh) * | 2021-09-10 | 2021-10-19 | 之江实验室 | 一种带噪声标签的长尾分布图像分类方法 |
CN113610070A (zh) * | 2021-10-11 | 2021-11-05 | 中国地质环境监测院(自然资源部地质灾害技术指导中心) | 一种基于多源数据融合的滑坡灾害识别方法 |
CN114190950A (zh) * | 2021-11-18 | 2022-03-18 | 电子科技大学 | 一种针对含有噪声标签的心电图智能分析方法及心电仪 |
CN114429570A (zh) * | 2021-11-29 | 2022-05-03 | 哈尔滨工程大学 | 一种基于更小损失的动态随机性增强的小样本学习方法 |
CN114463806A (zh) * | 2021-12-29 | 2022-05-10 | 四川新网银行股份有限公司 | 一种基于模型可视化的新特征自动预警方法 |
CN114581719A (zh) * | 2022-03-10 | 2022-06-03 | 西安交通大学 | 一种基于带噪学习的耐热钢珠光体球化智能评级方法 |
WO2022183321A1 (zh) * | 2021-03-01 | 2022-09-09 | 华为技术有限公司 | 图像检测方法、装置和电子设备 |
CN115577797A (zh) * | 2022-10-18 | 2023-01-06 | 东南大学 | 一种基于本地噪声感知的联邦学习优化方法及系统 |
CN115618935A (zh) * | 2022-12-21 | 2023-01-17 | 北京航空航天大学 | 面向分类任务标签噪声的鲁棒性损失函数搜索方法及系统 |
CN115909464A (zh) * | 2022-12-26 | 2023-04-04 | 淮阴工学院 | 一种面向行人重识别的自适应弱监督标签标记方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010075408A1 (en) * | 2008-12-22 | 2010-07-01 | The Trustees Of Columbia University In The City Of New York | System and method for annotating and searching media |
US8914321B2 (en) * | 2013-02-03 | 2014-12-16 | Microsoft Corporation | Learning with noisy labels from multiple judges |
CN106599051A (zh) * | 2016-11-15 | 2017-04-26 | 北京航空航天大学 | 一种基于生成图像标注库的图像自动标注的方法 |
CN107679501A (zh) * | 2017-10-12 | 2018-02-09 | 中科视拓(北京)科技有限公司 | 一种基于标签自提纯的深度学习方法 |
CN108597602A (zh) * | 2018-04-28 | 2018-09-28 | 中南大学 | 一种面向皮肤医学数据的标签纠错方法 |
CN110363228A (zh) * | 2019-06-26 | 2019-10-22 | 南京理工大学 | 噪声标签纠正方法 |
CN111222434A (zh) * | 2019-12-30 | 2020-06-02 | 深圳市爱协生科技有限公司 | 基于局部二值模式和深度学习的合成人脸图像取证方法 |
CN111783564A (zh) * | 2020-06-15 | 2020-10-16 | 青岛众瑞智能仪器有限公司 | 一种快速检测呼吸道防护装备佩戴安全性的方法 |
CN111814883A (zh) * | 2020-07-10 | 2020-10-23 | 重庆大学 | 一种基于异质集成的标签噪声纠正方法 |
-
2020
- 2020-11-19 CN CN202011301460.XA patent/CN112101328A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010075408A1 (en) * | 2008-12-22 | 2010-07-01 | The Trustees Of Columbia University In The City Of New York | System and method for annotating and searching media |
US8914321B2 (en) * | 2013-02-03 | 2014-12-16 | Microsoft Corporation | Learning with noisy labels from multiple judges |
CN106599051A (zh) * | 2016-11-15 | 2017-04-26 | 北京航空航天大学 | 一种基于生成图像标注库的图像自动标注的方法 |
CN107679501A (zh) * | 2017-10-12 | 2018-02-09 | 中科视拓(北京)科技有限公司 | 一种基于标签自提纯的深度学习方法 |
CN108597602A (zh) * | 2018-04-28 | 2018-09-28 | 中南大学 | 一种面向皮肤医学数据的标签纠错方法 |
CN110363228A (zh) * | 2019-06-26 | 2019-10-22 | 南京理工大学 | 噪声标签纠正方法 |
CN111222434A (zh) * | 2019-12-30 | 2020-06-02 | 深圳市爱协生科技有限公司 | 基于局部二值模式和深度学习的合成人脸图像取证方法 |
CN111783564A (zh) * | 2020-06-15 | 2020-10-16 | 青岛众瑞智能仪器有限公司 | 一种快速检测呼吸道防护装备佩戴安全性的方法 |
CN111814883A (zh) * | 2020-07-10 | 2020-10-23 | 重庆大学 | 一种基于异质集成的标签噪声纠正方法 |
Non-Patent Citations (2)
Title |
---|
XIYU YU 等: "Transfer Learning with Label Noise", 《MACHINE LEARNING》 * |
余孟池 等: "噪声标签重标注方法", 《计算机科学》 * |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112836754A (zh) * | 2021-02-05 | 2021-05-25 | 方玉明 | 一种面向图像描述模型泛化能力评估方法 |
WO2022183321A1 (zh) * | 2021-03-01 | 2022-09-09 | 华为技术有限公司 | 图像检测方法、装置和电子设备 |
CN113283578A (zh) * | 2021-04-14 | 2021-08-20 | 南京大学 | 一种基于标记风险控制的数据去噪方法 |
CN113139053A (zh) * | 2021-04-15 | 2021-07-20 | 广东工业大学 | 一种基于自监督对比学习的文本分类方法 |
CN113139053B (zh) * | 2021-04-15 | 2024-03-05 | 广东工业大学 | 一种基于自监督对比学习的文本分类方法 |
CN113361201A (zh) * | 2021-06-10 | 2021-09-07 | 南京大学 | 一种基于噪声标签学习的众包获取标签数据清洗方法 |
CN113361201B (zh) * | 2021-06-10 | 2023-08-25 | 南京大学 | 一种基于噪声标签学习的众包获取标签数据清洗方法 |
CN113139628A (zh) * | 2021-06-22 | 2021-07-20 | 腾讯科技(深圳)有限公司 | 样本图像的识别方法、装置、设备及可读存储介质 |
CN113139628B (zh) * | 2021-06-22 | 2021-09-17 | 腾讯科技(深圳)有限公司 | 样本图像的识别方法、装置、设备及可读存储介质 |
CN113435394A (zh) * | 2021-07-13 | 2021-09-24 | 郑州大学 | 一种基于标签概率序列的高鲁棒性深度道路提取方法 |
CN113516207A (zh) * | 2021-09-10 | 2021-10-19 | 之江实验室 | 一种带噪声标签的长尾分布图像分类方法 |
CN113505120A (zh) * | 2021-09-10 | 2021-10-15 | 西南交通大学 | 一种大规模人脸数据集的双阶段噪声清洗方法 |
CN113610070A (zh) * | 2021-10-11 | 2021-11-05 | 中国地质环境监测院(自然资源部地质灾害技术指导中心) | 一种基于多源数据融合的滑坡灾害识别方法 |
CN114190950A (zh) * | 2021-11-18 | 2022-03-18 | 电子科技大学 | 一种针对含有噪声标签的心电图智能分析方法及心电仪 |
CN114429570A (zh) * | 2021-11-29 | 2022-05-03 | 哈尔滨工程大学 | 一种基于更小损失的动态随机性增强的小样本学习方法 |
CN114429570B (zh) * | 2021-11-29 | 2024-10-01 | 哈尔滨工程大学 | 一种基于更小损失的动态随机性增强的小样本学习方法 |
CN114463806A (zh) * | 2021-12-29 | 2022-05-10 | 四川新网银行股份有限公司 | 一种基于模型可视化的新特征自动预警方法 |
CN114581719A (zh) * | 2022-03-10 | 2022-06-03 | 西安交通大学 | 一种基于带噪学习的耐热钢珠光体球化智能评级方法 |
CN115577797A (zh) * | 2022-10-18 | 2023-01-06 | 东南大学 | 一种基于本地噪声感知的联邦学习优化方法及系统 |
CN115577797B (zh) * | 2022-10-18 | 2023-09-26 | 东南大学 | 一种基于本地噪声感知的联邦学习优化方法及系统 |
CN115618935A (zh) * | 2022-12-21 | 2023-01-17 | 北京航空航天大学 | 面向分类任务标签噪声的鲁棒性损失函数搜索方法及系统 |
CN115909464A (zh) * | 2022-12-26 | 2023-04-04 | 淮阴工学院 | 一种面向行人重识别的自适应弱监督标签标记方法 |
CN115909464B (zh) * | 2022-12-26 | 2024-03-26 | 淮阴工学院 | 一种面向行人重识别的自适应弱监督标签标记方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112101328A (zh) | 一种深度学习中识别并处理标签噪声的方法 | |
CN107945204B (zh) | 一种基于生成对抗网络的像素级人像抠图方法 | |
CN109918454B (zh) | 对关系网络图进行节点嵌入的方法及装置 | |
CN108765423B (zh) | 一种卷积神经网络训练方法及装置 | |
CN107563999A (zh) | 一种基于卷积神经网络的芯片缺陷识别方法 | |
CN109086799A (zh) | 一种基于改进卷积神经网络模型AlexNet的作物叶片病害识别方法 | |
CN109840560A (zh) | 基于胶囊网络中融入聚类的图像分类方法 | |
CN108960404A (zh) | 一种基于图像的人群计数方法及设备 | |
CN109816002B (zh) | 基于特征自迁移的单一稀疏自编码器弱小目标检测方法 | |
CN111222545B (zh) | 基于线性规划增量学习的图像分类方法 | |
CN109740677A (zh) | 一种基于主成分分析改进生成对抗网络的半监督分类方法 | |
CN112668522A (zh) | 一种人体关键点与人体掩码联合检测网络及方法 | |
CN112288700A (zh) | 一种铁轨缺陷检测方法 | |
CN114219762A (zh) | 基于图像修复的缺陷检测方法 | |
CN114429441A (zh) | 一种异常检测方法及装置、设备、存储介质 | |
CN115761888A (zh) | 基于nl-c3d模型的塔吊操作人员异常行为检测方法 | |
CN115147418A (zh) | 缺陷检测模型的压缩训练方法和装置 | |
Saraswat et al. | Plant Disease Identification Using Plant Images | |
CN113313179B (zh) | 一种基于l2p范数鲁棒最小二乘法的噪声图像分类方法 | |
CN111047618A (zh) | 基于多尺度的无参考屏幕内容图像质量评估方法 | |
CN112508900B (zh) | 细胞病理图像分割方法及装置 | |
CN113887455A (zh) | 一种基于改进fcos的人脸口罩检测系统及方法 | |
CN109948708A (zh) | 基于迭代隐式正则的多时多光谱图像特征级信息融合方法 | |
CN113743443A (zh) | 一种图像证据分类和识别方法及装置 | |
KR102574605B1 (ko) | 영상 데이터 및 소리 데이터를 활용하여 소리 데이터를 분류하고 그리고 소음도를 측정하는 방법, 장치 및 컴퓨터 프로그램 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20201218 |
|
RJ01 | Rejection of invention patent application after publication |