CN114021670A - 分类模型的学习方法及终端 - Google Patents
分类模型的学习方法及终端 Download PDFInfo
- Publication number
- CN114021670A CN114021670A CN202210000974.4A CN202210000974A CN114021670A CN 114021670 A CN114021670 A CN 114021670A CN 202210000974 A CN202210000974 A CN 202210000974A CN 114021670 A CN114021670 A CN 114021670A
- Authority
- CN
- China
- Prior art keywords
- sample set
- sub
- training
- training sample
- label
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本申请提供了一种分类模型的学习方法,该分类模型的学习方法包括:利用第一标签验证模型从训练样本集中筛选出标签正确的样本得到正确样本集、以及利用第二标签验证模型从所述训练样本集中选出标签不正确的样本得到错误样本集;利用正确样本集和第一无噪声损失函数、以及错误样本集和补标签损失函数共同对初始分类模型进行训练得到目标分类模型。本申请能够有效充分利用标注错误的样本,减少模型拟合错误信息,从而提高模型的泛化性能和对标签噪声的鲁棒性。
Description
技术领域
本申请涉及人工智能技术领域,尤其涉及一种分类模型的学习方法及终端。
背景技术
深度模型在各个领域中已经取得了巨大的成就,特别是有监督模型在各种视觉任务中取得的巨大成功。深度模型一般是从大量的训练样本中学习出一个模型用于给未见过的样本预测一个尽可能正确的标签。然而在实际应用场景中,由于各种不可控制的因素,如测量误差、标注误差等因素导致标记的训练集带有噪声标签,即部分训练样本标注的标签并不是它真正的标签,而是错误的标签,即标签噪声,标签噪声会影响深度模型的准确性。然而,在训练集中带有大量的噪声样本,如果将其识别出来后直接舍弃,那么训练样本的规模将会变小,从而影响模型的泛化性能。
发明内容
有鉴于此,实有必要提供一种可提高泛化性能的分类模型的学习方法及终端。
第一方面,本申请实施例提供一种分类模型的学习方法,所述分类模型的学习方法包括:利用第一标签验证模型从训练样本集中筛选出标签正确的样本得到正确样本集、以及利用第二标签验证模型从所述训练样本集中选出标签不正确的样本得到错误样本集;利用正确样本集和第一无噪声损失函数、以及错误样本集和补标签损失函数共同对初始分类模型进行训练得到目标分类模型。
第二方面,本申请实施例提供一种终端,其特征在于,所述终端设备包括:计算机可读存储介质,用于存储程序指令,处理器以及总线执行所述程序指令以实现上所述的分类模型的学习方法。
上述分类模型的学习方法及终端,利用第一标签验证模型从训练样本集中筛选出标签正确的样本得到正确样本集、以及利用第二标签验证模型从所述训练样本集中选出标签不正确的样本得到错误样本集;区分出正确样本和错误样本以后,再利用了第一无噪声损失函数可最大化正确样本的输出概率,同时,利用补标签损失函数对错误标签的输出概率进行最小化,从而可以减少分类模型对错误标签的拟合,从而提高分类模型的泛化能力以及标签噪声的鲁棒性。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图示出的结构获得其他的附图。
图1为本申请实施例提供的分类模型的学习方法的流程图。
图2为本申请实施例提供的分类模型的学习方法的第一子流程图。
图3为本申请实施例提供的分类模型的学习方法的第二子流程图。
图4为本申请实施例提供的分类模型的学习方法的第三子流程图。
图5为本申请实施例提供的分类模型的学习方法的第四子流程图。
图6为图1所示分类模型的学习方法中标签验证模型的示意图。
图7为图1所示分类模型的学习方法中得到目标分类模型的示意图。
图8为图3所示分类模型的学习方法中获取正确样本集与错误样本集的示意图。
图9为图3所示分类模型的学习方法中训练样本集获得正确样本的示意图。
图10为图3所示分类模型的学习方法中训练样本集获得错误样本的示意图。
图11为本申请实施例提供的终端的内部结构示意图。
元件符号说明
标号 | 名称 | 标号 | 名称 |
S0 | 训练样本集 | Sc | 正确样本集 |
S1 | 第一子训练样本集 | Sn | 错误样本集 |
S2 | 第二子训练样本集 | M1 | 第一标签验证模型 |
S11 | 第一子训练样本预测标签 | M2 | 第二标签验证模型 |
S21 | 第二子训练样本预测标签 | N1 | 第一验证模块 |
F1 | 第一分类器 | N2 | 第二验证模块 |
F2 | 第二分类器 |
本申请目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的规划对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,换句话说,描述的实施例根据除了这里图示或描述的内容以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,还可以包含其他内容,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于只清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
需要说明的是,在本申请中涉及“第一”、“第二”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者多个该特征。另外,各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本申请要求的保护范围之内。
本申请提供一种分类模型的学习方法,通过补标签学习技术,将错误标注的样本继续用于分类模型训练,保持训练样本数量,从而提高分类模型的泛化性能。
请结合参看图1,其为本申请实施例提供的一种分类模型的学习方法的流程示意图。所述分类模型的学习方法包括步骤S102-S104。
步骤S102,利用第一标签验证模型从训练样本集中筛选出标签正确的样本得到正确样本集、以及利用第二标签验证模型从所述训练样本集中选出标签不正确的样本得到错误样本集。请结合参看图6,训练样本集S0中每一个样本带有源标签。第一标签验证模型M1用于验证每一个样本的源标签是否为真实标签。具体地,一个样本中的源标签为真实标签,则表示该样本为标签正确的样本。反之,一个样本中的源标签不是真实标签,则表示该样本为标签错误的样本。例如,当训练样本集为动物样本集,训练样本集的源标签为动物类别,其中一个样本的源标签用于表示狗,第一标签验证模型M1验证出该样本的源标签为狗是真实标签,则该样本为正确样本。同样地,当其中一个样本的源标签用于表示狗,第二标签验证模型M2验证出该样本的源标签为狗不是真实标签,则该样本为错误样本。在本实施例中,以正确样本集为、错误样本集为 为例进行说明。可以理解地,验证样本的源标签是否正确和错误可以采用现有的标签验证模型进行验证。在本实施例中,验证样本的源标签是否是真实标签采用的第一标签验证模型M1和第二标签验证模型M2为交叉验证模型。如何使用第一标签验证模型M1和第二标签验证模型M2验证标签正确的样本和错误的样本具体将在下文进行描述。
步骤S104,利用正确样本集和第一无噪声损失函数、以及错误样本集和补标签损失函数共同对初始分类模型进行训练得到目标分类模型。请结合参看图7,具体地,先利用正确样本集 和第一无噪声损失函数对初始分类模型进行训练,然后再利用错误样本集和补标签损失函数继续对初始分类模型进行训练,从而得到目标分类模型。由于本申请区分出正确样本和错误样本以后,再利用了第一无噪声损失函数可最大化正确样本的输出概率,同时,利用补标签损失函数对错误标签的输出概率进行最小化,从而可以减少分类模型对错误标签的拟合,从而提高分类模型的泛化能力以及标签噪声的鲁棒性。例如,训练样本集S0为动物样本集,其中一个带标签为狗的样本为正确样本,一个带标签为猫的样本为错误样本。将正确样本标签狗和第一无噪声损失函数对初始分类模型进行训练,再将错误样本标签猫和补标签损失函数对初始分类模型进行训练。
请结合参看图8,第一标签验证模型M1包括第一分类器F1、第二分类器F2和第一验证模块N1,第二标签验证模型M2包括第一分类器F1、第二分类器F2和第二验证模块N2。所述第一验证模块N1和第二验证模块N2用于对所述第一分类器F1和所述第二分类器F2输出的结果进行验证。所述分类模型的学习方法还包括训练所述第一分类器F1和所述第二分类器F2。
请结合参看图2,其为本申请实施例提供的分类模型的学习方法的第一子流程图。训练所述第一分类器F1和所述第二分类器F2包括步骤S202-S206。
步骤S202,将所述训练样本集划分为第一子训练样本集S1和第二子训练样本集S2。在本实施例中,根据训练样本集中样本的数量将训练样本集中的样本随机对半划分。亦即,第一子训练样本集S1和第二子训练样本集S2的样本数量相等。在一些可行的实施例中,第一子训练样本集S1中第一子训练样本数量和第二子训练样本集S2中第二子训练样本的数量可以不相等,例如,第一子训练样本的数量与第二子训练样本的数量的比例为4比6或者5.5比4.5,在此不做限定。
步骤S204,将所述第一子训练样本集S1和第一无噪声损失函数输入至第一训练模型得到第一分类器F1。第一无噪声损失函数可以为但不限于分类交叉熵损失(CCE)、均方误差损失(MSE)或者绝对误差损失(MAE)。
步骤206,将所述第二子训练样本集S2和第二无噪声损失函数输入至第二训练模型得到第二分类器F2。其中,第一无噪声损失函数和第二无噪声损失函数采用相同的噪声损失函数。例如,若第一无噪声损失函数使用的损失函数是分类交叉熵损失,第二无噪声损失函数也采用分类交叉熵损失。
在一些可行的实施例中,第一无噪声损失函数可以是预先设定于第一训练模型和第二训练模型中,即第一训练模型和第二训练模型自带损失函数。可以理解地,相应地,训练所述第一分类器F1和所述第二分类器F2仅需要将第一子训练样本集S1和第二子训练样本集S2输入至第一训练模型和第二训练模型,利用第一训练模型和第二训练模型中自带的损失函数得到第一分类器F1和第二分类器F2。
本实施例中所述第一训练模型、所述第二训练模型、初始分类模型采用相同的神经网络。上述实施例中,第一分类器F1和所述第二分类器F2为利用数量相同的样本集进行训练可以得到相同水平的分类能力。
请结合参看图3和图8,图3为本申请实施例提供的分类模型的学习方法的第二子流程图,图8为本申请实施例提供的分类模型的学习方法中获取正确样本集与错误样本集的示意图。
步骤S302,将所述第一子训练样本集S1和所述第二子训练样本集S2分别输入至所述第二分类器F2和所述第一分类器F1得到所述第一子训练样本集S1和所述第一子训练样本集的预测标签S11以及得到所述第二子训练样本集S2和所述第二子训练样本集的预测标签S21,将所述第一子训练样本集的预测标签S11和所述第二子训练样本集的预测标签S21输入至所述第一验证模块N1和第二验证模块N2。可以理解地,在本实施例中,利用所述第二分类器F2对所述第一子训练样本集S1进行分类,而利用所述第一分类器F1对第二子训练样本集S2进行分类。但是所述第二分类器F2是利用第二子训练样本集S2训练得到,第一分类器F1是利用第一子训练样本集S1训练得到,也就是说,在本实施例中,利用了第二分类器F2和第一分类器F1对所述第一子训练样本集S1和所述第二子训练样本集S2进行交叉分类得到正确样本集和错误样本集。
步骤S304,所述第一验证模块N1验证所述第一子训练样本集S1和所述第二子训练样本集S2中预测标签和源标签是否一致,并输出所述第一子训练样本集S1和所述第二子训练样本集S2中预测标签和源标签一致的样本作为所述正确样本集 。在本实施例中,第一标签验证模型M1用 (公式一)表示,其中, 表示正确样本集, 表示利用第一分类器F1预测得到的第二子训练样本集 的预测标签, 利用第二分类器F2预测得到的第一子训练样本集 的预测标签。即,当第二子训练样本集 的预测标签属于第二子训练样本集 则放入正确样本集 中,第一子训练样本集S1的预测标签属于第一子训练样本集 则放入正确样本集 中。
可以理解地,在本实施例中,利用交叉分类验证的方式,可以提高正确样本集 的真实性。如图9所示,第一子训练样本集S1中带源标签为狗的样本A1和带源标签为猫的样本An、以及第二样本集中带源标签为老虎的样本B1和带源标签为狮子的样本Bn被输入到第一标签验证模型M1,例如,第一子训练样本集S1中样本An的源标签为猫而预测标签为猫,二者一致,因此放入正确样本集 中,第二子训练样本集S2中样本B1的源标签为老虎而预测标签为老虎,二者一致,因此也放入正确样本集 中。又例如,第一子训练样本集S1中样本A1的源标签为狗而预测标签为狼,二者不一致,因此未放入正确样本集 中,第二子训练样本集S2中样本Bn的源标签为狮子而预测标签为老虎,二者不一致,因此也未放入正确样本集 中。
步骤S306,所述第二验证模块N2验证所述第一子训练样本集S1和所述第二子训练样本集S2中预测标签和源标签是否不一致,并输出所述第一子训练样本集S1和所述第二子训练样本集S2中预测标签和源标签不一致的样本作为所述错误样本集 。在本实施例中,第二标签验证模型M2用 (公式二)表示,其中, 表示错误样本集, 表示利用第一分类器F1预测得到的第二子训练样本集 的预测标签, 表示利用第二分类器F2预测得到的第一子训练样本集 的预测标签;第二子训练样本集S2的预测标签不同于第二子训练样本集 中的源标签则放入错误样本集中,当第一子训练样本集S1的预测标签不同于第一子训练样本集 中的源标签则放入错误样本集 中。
可以理解地,在本实施例中,利用交叉分类验证的方式,可以提高错误样本集 的真实性。如图10所示,第一子训练样本集S1中带源标签为狗的样本A1和带源标签为猫的样本An、以及第二样本集中带源标签为老虎的样本B1和带源标签为狮子的样本Bn被输入到第二标签验证模型M2。例如,第一子训练样本集S1中样本An的源标签为猫而预测标签为仓鼠,二者不一致,因此放入错误确样本集 中,第二子训练样本集S2中样本B1的源标签为老虎而预测标签为猫,二者不一致,因此也放入错误确样本集 中。反之,又例如,第一子训练样本集S1中样本A1的源标签为狗而预测标签为狗,二者一致,因此未放入错误确样本集 中,第二子训练样本集S2中样本Bn的源标签为狮子而预测标签为狮子,二者一致,因此也未放入错误确样本集 中。
请结合参看图4,其为本申请实施例提供的分类模型的学习方法的第三子流程图。所述第一验证模块N1验证出所述第一子训练样本集S1和所述第二子训练样本集S2中预测标签和源标签一致的样本,并输出所述第一子训练样本集S1和所述第二子训练样本集S2中预测标签和源标签一致的样本具体包括步骤S402-S404。
步骤S402,所述第一验证模块N1将所述第一子训练样本集S1与所述第一子训练样本集的预测标签S11进行一一比较得到第一子训练样本集S1中预测标签和源标签一致的样本。即,将第二分类器F2中输出的每个样本预测标签和每个样本的源标签一一进行比较,即可得到预测标签与源标签一致的样本。
步骤S404,所述第一验证模块N1将所述第二子训练样本集S2与所述第二子训练样本集的预测标签S21进行一一比较得到所述第二子训练样本集S2中预测标签和源标签一致的样本。即,将第一分类器F1中输出的每个样本预测标签和每个样本的源标签一一进行比较,即可得到预测标签与源标签一致的样本。
上述实施例中,将第一分类器F1对第二子训练样本集S2通过第一验证模块N1筛选出第二子训练样本集S2中预测标签和源标签一样的样本,再将第二分类器F2对第一子训练样本集S1通过第一验证模块N1筛选出第一子训练样本集S1中预测标签和源标签一样的样本,将筛选出的样本作为正确样本集 ,从而提高模型最大化正确标签的输出概率。
请结合参看图5,其为本申请实施例提供的分类模型的学习方法的第四子流程图。所述第二验证模块N2验证出所述第一子训练样本集S1和所述第二子训练样本集S2中预测标签和源标签不一致的样本,并输出所述第一子训练样本集S1和所述第二子训练样本集S2中预测标签和源标签不一致的样本,具体包括步骤S502-S504。
步骤S502,所述第二验证模块N2将所述第一子训练样本集S1与所述第一子训练样本集的预测标签S11进行一一比较得到所述第一子训练样本集S1中预测标签和源标签不一致的样本。即,将第二分类器F2中输出的每个样本预测标签和每个样本的源标签一一进行比较,即可得到预测标签与源标签不一致的样本。
步骤S504,所述第二验证模块N2将所述第二子训练样本集S2与所述第二子训练样本集的预测标签S21进行一一比较得到所述第二子训练样本集S2中预测标签和源标签不一致的样本。即,将第一分类器F1中输出的每个样本预测标签和每个样本的源标签一一进行比较,即可得到预测标签与源标签不一致的样本。
上述实施例中,将第一分类器F1对第二子训练样本集S2通过第二验证模块N2筛选出第二子训练样本集S2中预测标签和源标签不一样的样本,再将第二分类器F2对第一子训练样本集S1通过第二验证模块N2筛选出第一子训练样本集S1中预测标签和源标签不一样的样本,将筛选出的样本作为错误样本集 ,从而降低错误标签的输出概率。
请结合参看图11,其为本申请实施例提供的执行所述分类模型的学习方法的终端的内部结构示意图。终端10包括计算机可读存储介质11、处理器12以及总线13。其中,计算机可读存储介质11至少包括一种类型的可读存储介质,该可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、磁性存储器、磁盘、光盘等。计算机可读存储介质11在一些实施例中可以是终端10的内部存储单元,例如终端10的硬盘。计算机可读存储介质11在另一些实施例中也可以是的外部终端10存储设备,例如终端10上配备的插接式硬盘、智能存储卡(Smart Media Card, SMC)、安全数字(Secure Digital,SD)卡、闪存卡(Flash Card)等。进一步地,计算机可读存储介质11还可以既包括终端10的内部存储单元也包括外部存储设备。计算机可读存储介质11不仅可以用于存储安装于终端10的应用软件及各类数据,还可以用于暂时地存储已经输出或者将要输出的数据。
总线13可以是外设部件互连标准(peripheral component interconnect,PCI)总线或扩展工业标准结构(extended industry standard architecture,EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。为便于表示,图11中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
进一步地,终端10还可以包括显示组件14。显示组件14可以是发光二极管(LightEmitting Diode,LED)显示器、液晶显示器、触控式液晶显示器以及有机发光二极管(Organic Light-Emitting Diode,OLED)触摸器等。其中,显示组件14也可以适当的称为显示装置或显示单元,用于显示在终端10中处理的信息以及用于显示可视化的用户界面。
进一步地,终端10还可以包括通信组件15。通信组件15可选地可以包括有线通信组件和/或无线通信组件,如WI-FI通信组件、蓝牙通信组件等,通常用于在终端10与其他智能控制设备之间建立通信连接。
处理器12在一些实施例中可以是一中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器或其他数据处理芯片,用于运行计算机可读存储介质11中存储的程序代码或处理数据。具体地,处理器12执行处理程序以控制终端10执行分类模型的学习方法。可以理解地,图11仅示出了具有组件11-15以及实现分类模型的学习方法的终端10,本领域技术人员可以理解的是,图11示出的结构并不构成对终端10的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘且本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。
以上所列举的仅为本申请较佳实施例而已,当然不能以此来限定本申请之权利范围,因此依本申请权利要求所作的等同变化,仍属于本申请所涵盖的范围。
Claims (10)
1.一种分类模型的学习方法,其特征在于,所述分类模型的学习方法包括:
利用第一标签验证模型从训练样本集中筛选出标签正确的样本得到正确样本集、以及利用第二标签验证模型从所述训练样本集中选出标签不正确的样本得到错误样本集;以及
利用正确样本集和第一无噪声损失函数、以及错误样本集和补标签损失函数共同对初始分类模型进行训练得到目标分类模型。
2.如权利要求1所述的分类模型的学习方法,其特征在于,所述第一标签验证模型和所述第二标签验证模型为交叉验证模型。
3.如权利要求1所述的分类模型的学习方法,其特征在于,所述第一标签验证模型包括第一分类器、第二分类器以及第一验证模块,所述第一验证模块用于对所述第一分类器和所述第二分类器输出的结果进行验证,所述分类模型的学习方法还包括训练所述第一分类器和所述第二分类器,训练所述第一分类器和所述第二分类器包括:
将所述训练样本集划分为第一子训练样本集和第二子训练样本集;
将所述第一子训练样本集输入至第一训练模型进行训练得到第一分类器;以及
将所述第二子训练样本集输入至第二训练模型进行训练得到第二分类器。
4.如权利要求3所述的分类模型的学习方法,其特征在于,利用第一标签验证模型从训练样本集中筛选出标签正确的样本得到正确样本集具体包括:
将所述第一子训练样本集和所述第二子训练样本集分别输入至所述第二分类器和所述第一分类器进行计算得到所述第一子训练样本集的预测标签和所述第二子训练样本集的预测标签;
将所述第一子训练样本集的预测标签和所述第二子训练样本集的预测标签输入至所述第一验证模块中进行验证,所述第一验证模块验证所述第一子训练样本集和所述第二子训练样本集中预测标签和源标签是否一致;以及
输出所述第一子训练样本集和所述第二子训练样本集中预测标签和源标签一致的样本作为正确样本集。
5.如权利要求3所述的分类模型的学习方法,其特征在于,所述第二标签验证模型包括第一分类器、第二分类器以及第二验证模块,所述第二验证模块用于对所述第一分类器和所述第二分类器输出的结果进行验证,利用第二标签验证模型从所述训练样本集中选出标签不正确的样本得到错误样本集具体包括:
将所述第一子训练样本集和所述第二子训练样本集分别输入至所述第二分类器和所述第一分类器得到所述第一子训练样本集的预测标签和所述第二子训练样本集的预测标签;
将所述第一子训练样本集的预测标签和所述第二子训练样本集的预测标签输入至所述第二验证模块进行验证,所述第二验证模块验证所述第一子训练样本集和所述第二子训练样本集中预测标签和源标签是否不一致;
输出所述第一子训练样本集和所述第二子训练样本集中预测标签和源标签不一致的样本作为所述错误样本集。
6.如权利要求3所述的分类模型的学习方法,其特征在于,训练所述第一分类器和所述第二分类器还包括:
将所述第一子训练样本集输入至第一训练模型进行训练的同时,还输入第二无噪声损失函数至所述第一训练模型;以及
将所述第二子训练样本集输入至第二训练模型进行训练的同时,还输入第三无噪声损失函数至所述第二训练模型。
7.如权利要求6所述的分类模型的学习方法,其特征在于,所述第一无噪声损失函数、所述第二无噪声损失函数、以及所述第三无噪声损失函数的类型相同。
8.如权利要求3所述的分类模型的学习方法,其特征在于,所述第一子训练样本集和所述第二子训练样本集为所述训练样本集随机对半划分而成。
9.如权利要求3所述的分类模型的学习方法,其特征在于,所述第一训练模型、所述第二训练模型以及所述初始分类模型采用相同的神经网络。
10.一种终端,其特征在于,所述终端包括:
计算机可读存储介质,用于存储程序指令;以及
处理器执行所述程序指令以实现如权利要求1至9中任一项所述的分类模型的学习方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210000974.4A CN114021670A (zh) | 2022-01-04 | 2022-01-04 | 分类模型的学习方法及终端 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210000974.4A CN114021670A (zh) | 2022-01-04 | 2022-01-04 | 分类模型的学习方法及终端 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114021670A true CN114021670A (zh) | 2022-02-08 |
Family
ID=80069563
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210000974.4A Pending CN114021670A (zh) | 2022-01-04 | 2022-01-04 | 分类模型的学习方法及终端 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114021670A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117274726A (zh) * | 2023-11-23 | 2023-12-22 | 南京信息工程大学 | 一种基于多视角补标签的图片分类方法与系统 |
CN117932457A (zh) * | 2024-03-22 | 2024-04-26 | 南京信息工程大学 | 一种基于错误分类的模型指纹识别方法及系统 |
-
2022
- 2022-01-04 CN CN202210000974.4A patent/CN114021670A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117274726A (zh) * | 2023-11-23 | 2023-12-22 | 南京信息工程大学 | 一种基于多视角补标签的图片分类方法与系统 |
CN117274726B (zh) * | 2023-11-23 | 2024-02-23 | 南京信息工程大学 | 一种基于多视角补标签的图片分类方法与系统 |
CN117932457A (zh) * | 2024-03-22 | 2024-04-26 | 南京信息工程大学 | 一种基于错误分类的模型指纹识别方法及系统 |
CN117932457B (zh) * | 2024-03-22 | 2024-05-28 | 南京信息工程大学 | 一种基于错误分类的模型指纹识别方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200302340A1 (en) | Systems and methods for learning user representations for open vocabulary data sets | |
CN114021670A (zh) | 分类模型的学习方法及终端 | |
US20150120624A1 (en) | Apparatus and method for information processing | |
CN108830329B (zh) | 图片处理方法和装置 | |
CN113128536A (zh) | 无监督学习方法、系统、计算机设备及可读存储介质 | |
KR20240001241A (ko) | 객체의 머신 학습 분석에 기반한 이미지 기반 이상 검출 | |
CN113268665A (zh) | 基于随机森林的信息推荐方法、装置、设备及存储介质 | |
Xu | Bi-linear matrix-variate analyses, integrative hypothesis tests, and case-control studies | |
CN113468017A (zh) | 应用于区块链的在线业务状态检测方法及业务服务器 | |
CN112269875A (zh) | 文本分类方法、装置、电子设备及存储介质 | |
US11797774B2 (en) | Extraction of genealogy data from obituaries | |
CN111709475A (zh) | 一种基于N-grams的多标签分类方法及装置 | |
US20200234134A1 (en) | Systems providing a learning controller utilizing indexed memory and methods thereto | |
CN112861962B (zh) | 样本处理方法、装置、电子设备和存储介质 | |
Liu et al. | Evolutionary Voting‐Based Extreme Learning Machines | |
CN111506776B (zh) | 数据标注方法以及相关装置 | |
CN113284141A (zh) | 用于缺陷检测的模型确定方法、装置和设备 | |
CN114496068A (zh) | 蛋白质二级结构预测方法、装置、设备及存储介质 | |
CN114662580A (zh) | 数据分类模型的训练方法、分类方法、装置、设备和介质 | |
CN113989596B (zh) | 图像分类模型的训练方法及计算机可读存储介质 | |
CN113868240B (zh) | 数据清洗方法及计算机可读存储介质 | |
CN112364169A (zh) | 基于nlp的wifi识别方法、电子设备和介质 | |
CN114005005B (zh) | 双重批标准化的零实例图像分类方法 | |
CN114118301A (zh) | 分类模型的训练方法及计算机可读存储介质 | |
CN116561814B (zh) | 纺织化纤供应链信息防篡改方法及其系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: 518049 Floor 25, Block A, Zhongzhou Binhai Commercial Center Phase II, No. 9285, Binhe Boulevard, Shangsha Community, Shatou Street, Futian District, Shenzhen, Guangdong Applicant after: Shenzhen Youjia Innovation Technology Co.,Ltd. Address before: 518049 401, building 1, Shenzhen new generation industrial park, No. 136, Zhongkang Road, Meidu community, Meilin street, Futian District, Shenzhen, Guangdong Province Applicant before: SHENZHEN MINIEYE INNOVATION TECHNOLOGY Co.,Ltd. |
|
CB02 | Change of applicant information |