CN112508092A - 一种样本筛选方法、系统、设备及介质 - Google Patents
一种样本筛选方法、系统、设备及介质 Download PDFInfo
- Publication number
- CN112508092A CN112508092A CN202011414329.4A CN202011414329A CN112508092A CN 112508092 A CN112508092 A CN 112508092A CN 202011414329 A CN202011414329 A CN 202011414329A CN 112508092 A CN112508092 A CN 112508092A
- Authority
- CN
- China
- Prior art keywords
- sample
- unlabeled
- samples
- classification model
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Probability & Statistics with Applications (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Investigating Or Analysing Biological Materials (AREA)
Abstract
本发明提供一种样本筛选方法、系统、设备及介质,从目标样本集中获取部分未标注样本进行标注后形成初始训练集,并将目标样本集中剩余的未标注样本作为候选样本集;利用分类模型对目标样本集中每个未标注样本进行预测,获取每个未标注样本在每个分类类别上的预测概率;根据预测概率计算候选样本集中的每个未标注样本与初始训练集的距离;并基于距离计算结果从候选样本集中筛选出若干个未标注样本,以作为分类模型的训练样本。本发明通过机器学习的方式从海量数据中筛选出符合需求的未标注人工样本,可以减少训练分类模型时人工标注数据的数量,减少标注成本,提高标注效率,实现以最小的数据标注代价快速迭代优化模型,并训练出较优的模型。
Description
技术领域
本发明涉及人工智能技术领域,特别是涉及一种样本筛选方法、系统、设备及介质。
背景技术
近年来,计算机软硬件能力的快速提升为人工智能技术带来了生机,使其在工业界和学术界取得了丰硕的成果,同时也为很多行业迎来了新的发展契机。以机器学习为代表的人工智能技术常被应用于计算机视觉、自然语言处理以及语音识别等领域,在这些领域中有海量的数据可用于建模,然而,在实际的应用场景中,获取足量的用于模型训练的样本往往会遇到诸多限制。
构建和训练出理想的机器学习模型需要大量的标注数据,当前的数据标注工作主要是靠人力来完成,这无疑需要消耗大量的人力、物力以及时间等资源,特别是对于深度学习而言,其对数据量的需求更加庞大。此外,机器学习或深度学习模型的训练过程同样需要花费较高的代价,且这种代价会随入模样本量的增大而增大。因此,需要一种可以从海量数据中选出最具代表性样本的方式,以达到降低数据标注成本同时确保模型具有理想精度的目的。
发明内容
鉴于以上所述现有技术的缺点,本发明的目的在于提供一种样本筛选方法、系统、设备及介质,用于解决现有技术中存在的技术问题。
为实现上述目的及其他相关目的,本发明提供一种样本筛选方法,应用于计算机模型训练过程,包括以下步骤:
从目标样本集中获取部分未标注样本进行标注后形成初始训练集,并将所述目标样本集中剩余的未标注样本作为候选样本集;其中,目标样本集中的样本包括以下至少之一:图像、语音、文字;
利用分类模型对所述目标样本集中每个未标注样本进行预测,获取每个未标注样本在每个分类类别上的预测概率;
根据所述预测概率计算所述候选样本集中的每个未标注样本与所述初始训练集的距离;并基于距离计算结果从所述候选样本集中筛选出若干个未标注样本,以作为所述分类模型的训练样本。
可选地,根据所述预测概率计算所述候选样本集中的每个未标注样本与所述初始训练集的距离;并基于距离计算结果从所述候选样本集中筛选出若干个未标注样本,包括:
根据所述预测概率计算所述候选样本集中的每个未标注样本与所述初始训练集的距离,基于当前距离计算结果从所述候选样本集中筛选出与所述初始训练集距离最大的一个未标注样本,并将该未标注样本加入至所述初始训练集中更新所述初始训练集;
根据所述预测概率继续计算所述候选样本集中剩余的每个未标注样本与更新后的初始训练集的距离,基于当前距离计算结果从所述候选样本集剩余的未标注样本中筛选出与当前训练集距离最大的一个未标注样本,并将该未标注样本加入至当前训练集中更新当前训练集;
迭代上一筛选过程,直至筛选出若干个未标注样本。
可选地,获取分类模型的过程包括:利用所述初始训练集对初始分类模型进行训练,获取初始训练分类模型,将所述初始训练分类模型作为所述分类模型;
或者,使用预训练模型对初始分类模型进行训练,获取初始训练分类模型,将所述初始训练分类模型作为所述分类模型。
可选地,获取所述分类模型的过程还包括:将从所述候选样本集中筛选出与所述初始训练集距离最大的若干个未标注样本推送至标注平台进行标注,并将完成标注后的若干个样本加入至所述初始训练集中扩充所述初始训练集;
根据扩充后的初始训练集对所述分类模型进行迭代优化训练,并将完成迭代优化训练后的分类模型作为最终的分类模型。
可选地,在将筛选出的若干个未标注样本推送至标注平台前,或者在标注平台对筛选出的若干个未标注样本进行标注过程中;还包括对筛选出的若干个未标注样本进行预标注;其中,进行预标注的方式包括以下之一:
利用未进行迭代优化的分类模型对筛选出的若干个未标注样本进行预标注、利用完成迭代优化训练的分类模型对筛选出的若干个未标注样本进行预标注、利用人工对筛选出的若干个未标注样本进行预标注。
可选地,若所述目标样本集中的单个样本为一个或多个目标图像;则在形成初始训练集后,还包括:
对所述一个或多个目标图像进行数据增强,并将数据增强后的一个或多个目标图像增加至所述初始训练集中;
利用数据增强后的初始训练集对所述初始分类模型进行训练,获取增强训练分类模型;并将所述增强训练分类模型作为所述分类模型。
可选地,对所述一个或多个目标图像进行数据增强的方式包括以下至少之一:对所述一个或多个目标图像进行旋转、对所述一个或多个目标图像进行错切、对所述一个或多个目标图像进行翻转、对所述一个或多个目标图像进行色彩调整、对所述一个或多个目标图像进行色调分离、对所述一个或多个目标图像进行曝光度调整、对所述一个或多个目标图像进行对比度调整、对所述一个或多个目标图像进行亮度调整、对所述一个或多个目标图像进行锐化。
本发明还提供一种样本筛选系统,应用于计算机模型训练过程,包括有:
样本采集模块,用于从目标样本集中获取部分未标注样本进行标注后形成初始训练集,并将所述目标样本集中剩余的未标注样本作为候选样本集;其中,目标样本集中的样本包括以下至少之一:图像、语音、文字;
样本预测模块,用于利用分类模型对所述目标样本集中每个未标注样本进行预测,获取每个未标注样本在每个分类类别上的预测概率;
样本筛选模块,用于根据所述预测概率计算所述候选样本集中的每个未标注样本与所述初始训练集的距离;并基于距离计算结果从所述候选样本集中筛选出若干个未标注样本,以作为所述分类模型的训练样本。
可选地,所述样本筛选模块根据所述预测概率计算所述候选样本集中的每个未标注样本与所述初始训练集的距离;并基于距离计算结果从所述候选样本集中筛选出若干个未标注样本,包括:
根据所述预测概率计算所述候选样本集中的每个未标注样本与所述初始训练集的距离,基于当前距离计算结果从所述候选样本集中筛选出与所述初始训练集距离最大的一个未标注样本,并将该未标注样本加入至所述初始训练集中更新所述初始训练集;
根据所述预测概率继续计算所述候选样本集中剩余的每个未标注样本与更新后的初始训练集的距离,基于当前距离计算结果从所述候选样本集剩余的未标注样本中筛选出与当前训练集距离最大的一个未标注样本,并将该未标注样本加入至当前训练集中更新当前训练集;
迭代上一筛选过程,直至筛选出若干个未标注样本。
可选地,获取分类模型的过程包括:利用所述初始训练集对初始分类模型进行训练,获取初始训练分类模型,将所述初始训练分类模型作为所述分类模型;
或者,使用预训练模型对初始分类模型进行训练,获取初始训练分类模型,将所述初始训练分类模型作为所述分类模型。
可选地,获取所述分类模型的过程还包括:将从所述候选样本集中筛选出与所述初始训练集距离最大的若干个未标注样本推送至标注平台进行标注,并将完成标注后的若干个样本加入至所述初始训练集中扩充所述初始训练集;
根据扩充后的初始训练集对所述分类模型进行迭代优化训练,并将完成迭代优化训练后的分类模型作为最终的分类模型。
可选地,在将筛选出的若干个未标注样本推送至标注平台前,或者在标注平台对筛选出的若干个未标注样本进行标注过程中;还包括对筛选出的若干个未标注样本进行预标注;其中,进行预标注的方式包括以下之一:
利用未进行迭代优化的分类模型对筛选出的若干个未标注样本进行预标注、利用完成迭代优化训练的分类模型对筛选出的若干个未标注样本进行预标注、利用人工对筛选出的若干个未标注样本进行预标注。
可选地,若所述目标样本集中的单个样本为一个或多个目标图像;则在形成初始训练集后,还包括:
对所述一个或多个目标图像进行数据增强,并将数据增强后的一个或多个目标图像增加至所述初始训练集中;
利用数据增强后的初始训练集对所述初始分类模型进行训练,获取增强训练分类模型;并将所述增强训练分类模型作为所述分类模型。
可选地,对所述一个或多个目标图像进行数据增强的方式包括以下至少之一:对所述一个或多个目标图像进行旋转、对所述一个或多个目标图像进行错切、对所述一个或多个目标图像进行翻转、对所述一个或多个目标图像进行色彩调整、对所述一个或多个目标图像进行色调分离、对所述一个或多个目标图像进行曝光度调整、对所述一个或多个目标图像进行对比度调整、对所述一个或多个目标图像进行亮度调整、对所述一个或多个目标图像进行锐化。
本发明还提供一种设备,包括:
一个或多个处理器;和
存储有指令的一个或多个机器可读介质,当所述一个或多个处理器执行所述指令时,使得所述设备执行如上述中任意一项所述的方法。
本发明还提供一个或多个机器可读介质,其上存储有指令,当由一个或多个处理器执行所述指令时,使得设备执行如上述中任意一项所述的方法。
如上所述,本发明提供一种样本筛选方法、系统、设备及介质,具有以下有益效果:从目标样本集中获取部分未标注样本进行标注后形成初始训练集,并将目标样本集中剩余的未标注样本作为候选样本集;利用分类模型对目标样本集中每个未标注样本进行预测,获取每个未标注样本在每个分类类别上的预测概率;根据预测概率计算候选样本集中的每个未标注样本与初始训练集的距离;并基于距离计算结果从候选样本集中筛选出若干个未标注样本,以作为分类模型的训练样本。其中,目标样本集中的样本包括以下至少之一:图像、语音、文字。本发明设计了一种基于最小覆盖集合的样本筛选和标注方法,通过筛选出的新的待标注样本与已标注样本一起构成全部样本的最小覆盖集合,因此按这种策略筛选出的待标注样本是全部训练集的最好代表。而且通过这种方式可以高效地选择出最有价值的样本进行标注,进而显著性地减少标注数据的代价。本发明可以从海量数据中挑选出最具代表性的少量样本进行人工标注,解决了传统需要对全量样本进行标注时耗资巨大的问题。并且本发明可以减少训练分类模型时所需人工标注数据的数量,减少进行人工标注的人力成本,提高了标注效率;同时能够以最小的数据标注代价快速迭代优化模型,实现用较少的数据训练出较优的模型。
附图说明
图1为一实施例提供的筛选样本的方法流程示意图;
图2为另一实施例提供的筛选样本的方法流程示意图;
图3为一实施例提供的筛选样本的系统硬件结构示意图;
图4为一实施例提供的终端设备的硬件结构示意图;
图5为另一实施例提供的终端设备的硬件结构示意图。
元件标号说明
1100 输入设备
1101 第一处理器
1102 输出设备
1103 第一存储器
1104 通信总线
1200 处理组件
1201 第二处理器
1202 第二存储器
1203 通信组件
1204 电源组件
1205 多媒体组件
1206 音频组件
1207 输入/输出接口
1208 传感器组件
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,遂图式中仅显示与本发明中有关的组件而非按照实际实施时的组件数目、形状及尺寸绘制,其实际实施时各组件的型态、数量及比例可为一种随意的改变,且其组件布局型态也可能更为复杂。
请参阅图1,本发明提供一种样本筛选方法,应用于计算机模型训练过程,包括以下步骤:
S100,从目标样本集中获取部分未标注样本进行标注后形成初始训练集,并将目标样本集中剩余的未标注样本作为候选样本集;其中,目标样本集中的样本包括以下至少之一:图像、语音、文字;
S200,利用分类模型对目标样本集中每个未标注样本进行预测,获取每个未标注样本在每个分类类别上的预测概率;
S300,根据预测概率计算候选样本集中的每个未标注样本与初始训练集的距离;并基于距离计算结果从候选样本集中筛选出若干个未标注样本,以作为分类模型的训练样本。
本方法设计了一种基于最小覆盖集合的样本筛选和标注策略,通过筛选出的新的待标注样本与已标注样本一起构成全部样本的最小覆盖集合,因此按这种策略筛选出的待标注样本是全部训练集的最好代表。而且通过这种方式可以高效地选择出最有价值的样本进行标注,进而显著性地减少标注数据的代价。本方法可以从海量数据中挑选出最具代表性的少量样本进行人工标注,解决了传统需要对全量样本进行标注时耗资巨大的问题。并且本方法可以减少训练分类模型时所需人工标注数据的数量,减少进行人工标注的人力成本,提高了标注效率;同时能够以最小的数据标注代价快速迭代优化模型,实现用较少的数据训练出较优的模型。
在一示例性实施例中,根据预测概率计算候选样本集中的每个未标注样本与初始训练集的距离;并基于距离计算结果从候选样本集中筛选出若干个未标注样本,包括:根据预测概率计算候选样本集中的每个未标注样本与初始训练集的距离,基于当前距离计算结果从候选样本集中筛选出与初始训练集距离最大的一个未标注样本,并将该未标注样本加入至初始训练集中更新初始训练集;根据预测概率继续计算候选样本集中剩余的每个未标注样本与更新后的初始训练集的距离,基于当前距离计算结果从候选样本集剩余的未标注样本中筛选出与当前训练集距离最大的一个未标注样本,并将该未标注样本加入至当前训练集中更新当前训练集;迭代上一筛选过程,直至从候选样本集中筛选出若干个未标注样本。
具体地,输入目标样本集为{xi|i∈[n]},样本总数n,初始训练集,候选样本集和期望筛选出的K个待标注样本。
记目标样本集中的第i个样本为xi,其被预测为第k个分类类别的概率为pik,并记pi=[pi1,pi2,…]为其预测概率向量。记目标样本集中的第j个样本为xj,其被预测为第k个分类类别的概率为pjk,并记pj=[pj1,pj2,…]为其预测概率向量。对于任意两个样本,可以通过其预测概率向量间的欧式距离计算二者之间的距离。例如对于样本xi和样本xj之间的距离,可以由下式给出:
其中,Δ(xi,xj)表示样本xi和样本xj之间的距离,c为分类类别总数。
按照上述定义和输入,从候选样本集中筛选出K个最值得标注的样本的过程如下:
初始化s=s0;即将s初始化为已标注样本集合s0。在初始状态下,已标注样本集合s0为初始训练集。
初始筛选状态,计算候选样本集中每个未标注样本到初始训练集中的距离,从候选样本集中选出距离初始训练集最远的一个未标注样本,并将该未标注样本加入至初始训练集中更新初始训练集。同时,将更新后的初始训练集记为已标注样本集合s,以及从候选样本集中删除被选出的未标注样本,将剩余的未标注样本记为未标注样本集合[n]-s。其中,候选样本集中每个未标注样本到初始训练集中的距离定义为每个未标注样本与初始训练集中每个样本的最小距离。
其他筛选状态,计算未标注样本集合[n]-s中每个未标注样本到已标注样本集合s的距离,并从未标注样本集合[n]-s选出距离最远的未标注样u,将选出的未标注样本u加入至已标注样本集合s中更新已标注样本集合s,得到更新后的已标注样本集合s=s∪{u}。同时,从未标注样本集合[n]-s中删除被选出的未标注样本u,得到更新后的未标注样本集合[n]-s。作为示例,样本xi与已标注样本集合s的距离定义为样本xi与已标注样本集合s中每个样本距离的最小值,即minj∈sΔ(xi,xj)。
基于更新后的已标注样本集合和更新后的未标注样本集合继续迭代重复执行上一步骤,直至筛选出K个待标注样本,即直至|s|=K+|s0|。将筛选出的K个待标注样本记为待标注样本集合s1,从而得到目标样本集{xi|i∈[n]}中最值得标注的样本集合s1。其中,|s|为已标注集合s的大小,|s0|为未标注样本集合s0的大小。由此选择出样本集合s1和初始已标注样本集合s0(即初始训练集)的并集s1∪s0是目标样本集{xi|i∈[n]}的最小覆盖集合,同时这种策略也称为基于最小覆盖集合的主动学习方法。
该公式的含义是挑选出K个待标注样本构成集合s1,与之前初始的已标注样本集合s0构成的集合s1∪s0是全集[n]的最小覆盖集合。其中,s0为初始的已标注样本集合,即初始训练集;s1为挑选出的待标注样本集合;[n]为全部n个训练样本构成的集合,即目标样本集;K为每轮主动学习挑选出的样本个数;xi为第i个样本,从全集[n]中选取;xj为第j个样本,从s1∪s0中选取;Δ(xi,xj)表示样本xi和样本xj之间的距离。
在一示例性实施例中,获取分类模型的过程包括:从目标样本集中获取剩余的未标注样本;对剩余的未标注样本进行人工标注,形成初始训练集;利用初始训练集对初始分类模型进行训练,获取初始训练分类模型;并将初始训练分类模型作为分类模型。作为示例,本申请实施例中抽取初始训练集的方式可以是随机选择,也可以是人为指定,还可以通过设计特定的算法进行挑选。本申请实施例中的初始分类模型包括但不限于vgg,resnet等深度学习模型。作为另一示例性实施例,获取分类模型时,还可以选择在使用预训练模型的基础上对初始分类模型进行训练;获取初始训练分类模型;并将获取的初始训练分类模型作为分类模型。本申请实施例通过使用预训练模型对初始分类模型进行训练,可以很大程度上提高初始分类模型的分类能力。其中,预训练模型可以是在imagenet等数据集上得到的预训练模型。
在另一示例性实施例中,将从候选样本集中筛选出与初始训练集距离最大的若干个未标注样本记为候选样本,则获取分类模型的过程还包括:将候选样本推送至标注平台进行标注,并将完成标注后的候选样本加入至初始训练集中扩充初始训练集;根据扩充后的初始训练集对分类模型进行迭代优化训练,并将完成迭代优化训练后的分类模型作为最终的分类模型。其中,分类模型包括以下至少之一:初始分类模型、预训练模型、初始训练分类模型。本申请实施例将标注后的候选样本加入至初始训练集得到新的训练集,即扩充后的初始训练集;新的训练集不仅有更多的样本数量,而且包含了最具代表性的候选样本,有着更为丰富的信息量,利用新的训练集对分类模型进行训练,可以达到迭代优化分类模型的目的。作为示例,例如使用新的训练集来对初始分类模型从最开始进行模型训练;或者使用新的训练集来对预训练模型进行模型微调;或者使用新的训练集来对初始训练分类模型进行增量学习。本申请实施例中,分类模型完成迭代优化训练可以是利用扩充后的初始训练集对分类模型进行一次或多次迭代优化训练,使分类模型的迭代优化训练次数达到实际要求的训练次数即可。还可以是利用扩充后的初始训练集对分类模型进行一次或多次迭代优化,直至迭代优化训练后的分类模型满足终止条件。作为一示例,本申请实施例中的终止条件可以是迭代优化训练后的分类模型的模型效果达到按照实际要求设定的阈值;其中,模型效果参数指标包括以下至少之一:模型F1值、训练损失loss、AUC值、准确率、召回率、标注量。作为另一示例,终止条件还可以是迭代优化训练后的分类模型的模型效果与之前的分类模型相比,小于按照实际要求设定的阈值。作为另一示例,终止条件还可以是迭代优化训练后的分类模型进行样本标注时的标注量达到实际要求。
根据上述记载,将从候选样本集中筛选出与初始训练集距离最大的若干个未标注样本记为候选样本。在将筛选出的若干个未标注样本推送至标注平台前,或者在标注平台对筛选出的若干个未标注样本进行标注过程中;还包括对筛选出的若干个未标注样本进行预标注;其中,进行预标注的方式包括以下之一:利用未进行迭代优化的分类模型对筛选出的若干个未标注样本进行预标注、利用完成迭代优化训练的分类模型对筛选出的若干个未标注样本进行预标注、利用人工对筛选出的若干个未标注样本进行预标注。通过对筛选出的若干个未标注样本进行预标注,可以减少训练分类模型时所需人工标注数据的数量,减少进行人工标注的人力成本,有效提高标注效率;同时能够以最小的数据标注代价快速迭代优化模型,实现用较少的数据训练出较优的模型。
在一示例性实施例中,若目标样本集中的单个样本为一个或多个目标图像;则在形成初始训练集后,还包括:对一个或多个目标图像进行数据增强,并将数据增强后的一个或多个目标图像增加至初始训练集中;利用数据增强后的初始训练集对初始分类模型进行训练,获取增强训练分类模型;并将增强训练分类模型作为分类模型。本方法通过对一个或多个目标图像进行数据增强来扩充初始训练集,使得样本的数量和多样性得到提升。其中,对一个或多个目标图像进行数据增强的方式包括以下至少之一:对一个或多个目标图像进行旋转、对一个或多个目标图像进行错切、对一个或多个目标图像进行翻转、对一个或多个目标图像进行色彩调整、对一个或多个目标图像进行色调分离、对一个或多个目标图像进行曝光度调整、对一个或多个目标图像进行对比度调整、对一个或多个目标图像进行亮度调整、对一个或多个目标图像进行锐化。作为示例,数据增强的具体方式如下:对一个或多个目标图像进行旋转:将原目标图像以某点为中心,顺时针或逆时针旋转一定的角度,使目标图像中的像素点在空间中的位置发生改变。对一个或多个目标图像进行错切:图像错切也叫图像倾斜,就是将目标图像按照指定的方向进行倾斜,使原本的矩阵目标图像转换成为平行四边形的目标图像。对一个或多个目标图像进行翻转:将原目标图像进行左右或者上下的镜面翻转,使得转换后的目标图像与原目标图像关于翻转轴对称。对一个或多个目标图像进行色彩调整:对原目标图像的色彩进行调整,使原目标图像的色彩增强或减弱。对一个或多个目标图像进行色调分离:只保留原目标图像各像素点数值较高的比特位,使得目标图像出现相邻像素点颜色的跳变。对一个或多个目标图像进行曝光度调整:对原目标图像的曝光度进行调整,将目标图像从RGB色彩空间转换到HSV色彩空间,调整目标图像在HSV色彩空间的第三个通道的数值。对一个或多个目标图像进行对比度调整:对原目标图像的对比度进行调整,在保证平均亮度不变的情况下,扩大或缩小原目标图像中亮点和暗点的差异。对一个或多个目标图像进行亮度调整:对原目标图像的亮度进行调整,将目标图像从RGB色彩空间转换到HSL色彩空间,调整目标图像在HSL色彩空间的第三个通道的数值。对一个或多个目标图像进行锐化:对原目标图像的轮廓进行补偿,增强目标图像的边缘及灰度跳变的部分,使目标图像变得清晰。
根据上述记载,在一具体实施例中,若样本由一个或多个目标图像构成,则样本筛选的具体实施过程如图2所示:
S101,构建初始训练集。从全量候选样本集中抽取包含M个样本的样本子集进行人工标注,该进行人工标注后的样本子集将作为初始训练集,而剩余的未标注样本则作为候选样本集。其中,抽取初始训练集的方式可以是随机选择,也可以通过设计特定的算法进行挑选。
S102,数据增强。对图像数据进行旋转、错切、翻转、调整色彩、色调分离、调整曝光度、调整对比度、调整亮度、锐化等操作,使得样本的数量和多样性得到提升。其中,数据增强是数据预处理的主要方法,同时也是主动学习模块所依赖的手段。在进行数据增强时,可以选择包括但不限于上述任何一种数据增强方式,也是对这些数据增强方式进行两个或两个以上的组合使用。
S103,初始模型训练。利用步骤S101所构建的初始训练集对初始分类模型进行训练,得到初始训练分类模型。其中,初始分类模型包括但不限于vgg,resnet等深度学习模型。在进行初始模型训练时,还可以选择在使用预训练模型的基础上对初始分类模型进行训练,得到初始训练分类模型。本步骤中,使用预训练模型可以在很大程度上提高模型的分类能力。其中,预训练模型可以是在imagenet等数据集上得到的预训练模型。
S104,挑选待标注样本;即筛选候选样本。通过步骤S103中已训练好的分类模型对目标样本集中的每一个样本进行预测,得到每一个样本在每个分类类别上的预测概率。记目标样本集中的第i个样本为xi,其被预测为第k个分类类别的概率为pik,并记pi=[pi1,pi2,…]为其预测概率向量。记目标样本集中的第j个样本为xj,其被预测为第k个分类类别的概率为pjk,并记pj=[pj1,pj2,…]为其预测概率向量。对于任意两个样本,可以通过其预测概率向量间的欧式距离计算二者之间的距离。例如对于样本xi和样本xj之间的距离,可以由下式给出:
其中,Δ(xi,xj)表示样本xi和样本xj之间的距离,c为分类类别总数。
按照上述定义和输入,从候选样本集中筛选出K个最值得标注的样本的过程如下:
初始化s=s0;即将s初始化为已标注样本集合s0。在初始状态下,已标注样本集合s0为初始训练集。
初始筛选状态,计算候选样本集中每个未标注样本到初始训练集中的距离,从候选样本集中选出距离初始训练集最远的一个未标注样本,并将该未标注样本加入至初始训练集中更新初始训练集。同时,将更新后的初始训练集记为已标注样本集合s,以及从候选样本集中删除被选出的未标注样本,将剩余的未标注样本记为未标注样本集合[n]-s。其中,候选样本集中每个未标注样本到初始训练集中的距离定义为每个未标注样本与初始训练集中每个样本的最小距离。
其他筛选状态,计算未标注样本集合[n]-s中每个未标注样本到已标注样本集合s的距离,并从未标注样本集合[n]-s选出距离最远的未标注样u,将选出的未标注样本u加入至已标注样本集合s中更新已标注样本集合s,得到更新后的已标注样本集合s=s∪{u}。同时,从未标注样本集合[n]-s中删除被选出的未标注样本u,得到更新后的未标注样本集合[n]-s。作为示例,样本xi与已标注样本集合s的距离定义为样本xi与已标注样本集合s中每个样本距离的最小值,即minj∈sΔ(xi,xj)。
基于更新后的已标注样本集合和更新后的未标注样本集合继续迭代重复执行上一步骤,直至筛选出K个待标注样本,即直至|s|=K+|s0|。将筛选出的K个待标注样本记为待标注样本集合s1,从而得到目标样本集{xi|i∈[n]}中最值得标注的样本集合s1。其中,|s|为已标注集合s的大小,|s0|为未标注样本集合s0的大小。由此选择出样本集合s1和初始已标注样本集合s0(即初始训练集)的并集s1∪s0是目标样本集{xi|i∈[n]}的最小覆盖集合,同时这种策略也称为基于最小覆盖集合的主动学习方法。
该公式的含义是挑选出K个待标注样本构成集合s1,与之前初始的已标注样本集合s0构成的集合s1∪s0是全集[n]的最小覆盖集合。其中,s0为初始的已标注样本集合,即初始训练集;s1为挑选出的待标注样本集合;[n]为全部n个训练样本构成的集合,即目标样本集;K为每轮主动学习挑选出的样本个数;xi为第i个样本,从全集[n]中选取;xj为第j个样本,从s1∪s0中选取;Δ(xi,xj)表示样本xi和样本xj之间的距离。
根据上述记载,本步骤可以使用的距离计算空间包括但不限于预测概率向量空间和特征向量空间等,前者可以根据神经网络的预测概率得到,后者可以根据神经网络隐藏层的输出得到。距离的计算方式包括但不限于欧氏距离、马氏距离、余弦距离、交叉熵或对称KL散度等距离度量方法。作为示例,本步骤计算图形之间的距离可以在概率向量空间进行,也可以在特征向量空间进行,特征向量可以从神经网络中提取某一层,如某一个全连接层的输出得到。
步骤S105,人工标注样本。通过步骤S104可以选出最值得标注的候选样本,将这些候选样本推送给标注平台进行标注,进而得到新的标注样本。在推送给标注平台或在标注平台进行标注时,可以选择使用或不使用训练好的分类模型进行预标注。通过预标注可以减少训练分类模型时所需人工标注数据的数量,减少进行人工标注的人力成本,有效地提高了标注效率;同时能够以最小的数据标注代价快速迭代优化模型,实现用较少的数据训练出较优的模型。在本步骤的其他实现方案中,也可以将所挑选的待标注样本推送给专家或者其他用户进行标注。
步骤S106,扩充初始训练集并优化分类模型。将步骤S105得到的新的标注样本加入到初始训练集中,得到新的初始训练集。新的初始训练集不仅有更多的样本数量,而且包含了最具代表性的部分样本,从而有着更为丰富的信息量;利用新的初始训练集对分类模型进行训练,能够达到优化模型的目的。本步骤中,可以使用新的训练集来对非预训练模型从最开始进行模型训练;或者使用新的训练集来对预训练模型进行模型微调;或者使用新的训练集来对上一个初始训练分类模型进行增量学习。
步骤S107,循环执行步骤S104至步骤106直到满足终止条件。作为一示例,本申请实施例中的终止条件可以是迭代优化训练后的分类模型的模型效果达到按照实际要求设定的阈值;其中,模型效果参数指标包括以下至少之一:模型F1值、训练损失loss、AUC值、准确率、召回率、标注量。作为另一示例,终止条件还可以是迭代优化训练后的分类模型的模型效果与之前的分类模型相比,小于按照实际要求设定的阈值。作为另一示例,终止条件还可以是迭代优化训练后的分类模型进行样本标注时的标注量达到实际要求。
本方法针对目前存在的问题,设计了一种基于最小覆盖集合样本选择的主动学习方法,通过该方法可以从海量数据中挑选出最具代表性的少量样本进行人工标注,解决了传统需对全量样本进行标注的耗资巨大的问题。本方法通过筛选出的新的待标注样本与已标注样本一起构成全部样本的最小覆盖集合,按照这种策略筛选出的待标注样本是全部训练集的最好代表。而且通过这种方式可以高效地选择出最有价值的样本进行标注,进而显著性地减少标注数据的代价。本方法可以从海量数据中挑选出最具代表性的少量样本进行人工标注,解决了传统需要对全量样本进行标注时耗资巨大的问题。并且本方法可以减少训练分类模型时所需人工标注数据的数量,减少进行人工标注的人力成本,提高了标注效率;同时能够以最小的数据标注代价快速迭代优化模型,实现用较少的数据训练出较优的模型。同时与现有技术相比,例如与现有的一种主动学习方法及装置相比,本方法与该现有技术在具体的主动学习策略上有所不同,该现有技术是利用训练好的机器学习模型对未标记数据进行预测,将边界模糊的预测结果对应的测试数据作为待标注样本数据输出,其中的边界模糊是依靠人为根据预测概率是否在一定阈值区间内决定的,如只要预测准确率在48%-52%的区间内样本,均将其视为是边界模糊的。而本方法是通过计算未标注样本与已选择的样本集合之间的距离来判断样本重叠信息量的大小,每轮均可准确的筛选出最具价值的样本。本方法利用样本预测概率向量间的欧氏距离来计算样本与已标注样本集合间的最小距离,不用依赖坐标系统的转度和方向的差异等,进而更便于直接计算样本间的重叠信息量。所以本方法可以减少训练分类模型时所需人工标注数据的数量,减少进行人工标注的人力成本,有效地提高了标注效率;并能够同时以最小的数据标注代价快速迭代优化模型,实现用较少的数据训练出较优的模型。
如图3所示,本发明还提供一种样本筛选系统,其特征在于,应用于计算机模型训练过程,包括有:
样本采集模块M10,用于从目标样本集中获取部分未标注样本进行标注后形成初始训练集,并将目标样本集中剩余的未标注样本作为候选样本集;其中,目标样本集中的样本包括以下至少之一:图像、语音、文字;
样本预测模块M20,用于利用分类模型对目标样本集中每个未标注样本进行预测,获取每个未标注样本在每个分类类别上的预测概率;
样本筛选模块M30,用于根据预测概率计算候选样本集中的每个未标注样本与初始训练集的距离;并基于距离计算结果从候选样本集中筛选出若干个未标注样本,以作为分类模型的训练样本。
本系统设计了一种基于最小覆盖集合的样本筛选和标注策略,通过筛选出的新的待标注样本与已标注样本一起构成全部样本的最小覆盖集合,因此按这种策略筛选出的待标注样本是全部训练集的最好代表。而且通过这种方式可以高效地选择出最有价值的样本进行标注,进而显著性地减少标注数据的代价。本系统可以从海量数据中挑选出最具代表性的少量样本进行人工标注,解决了传统需要对全量样本进行标注时耗资巨大的问题。并且本系统可以减少训练分类模型时所需人工标注数据的数量,减少进行人工标注的人力成本,提高了标注效率;同时能够以最小的数据标注代价快速迭代优化模型,实现用较少的数据训练出较优的模型。
在一示例性实施例中,样本筛选模块M30根据预测概率计算候选样本集中的每个未标注样本与初始训练集的距离;并基于距离计算结果从候选样本集中筛选出若干个未标注样本,包括:根据预测概率计算候选样本集中的每个未标注样本与初始训练集的距离,基于当前距离计算结果从候选样本集中筛选出与初始训练集距离最大的一个未标注样本,并将该未标注样本加入至初始训练集中更新初始训练集;根据预测概率继续计算候选样本集中剩余的每个未标注样本与更新后的初始训练集的距离,基于当前距离计算结果从候选样本集剩余的未标注样本中筛选出与当前训练集距离最大的一个未标注样本,并将该未标注样本加入至当前训练集中更新当前训练集;迭代上一筛选过程,直至从候选样本集中筛选出若干个未标注样本。
具体地,输入目标样本集为{xi|i∈[n]},样本总数n,初始训练集,候选样本集和期望筛选出的K个待标注样本。
记目标样本集中的第i个样本为xi,其被预测为第k个分类类别的概率为pik,并记pi=[pi1,pi2,…]为其预测概率向量。记目标样本集中的第j个样本为xj,其被预测为第k个分类类别的概率为pjk,并记pj=[pj1,pj2,…]为其预测概率向量。对于任意两个样本,可以通过其预测概率向量间的欧式距离计算二者之间的距离。例如对于样本xi和样本xj之间的距离,可以由下式给出:
其中,Δ(xi,xj)表示样本xi和样本xj之间的距离,c为分类类别总数。
按照上述定义和输入,从候选样本集中筛选出K个最值得标注的样本的过程如下:
初始化s=s0;即将s初始化为已标注样本集合s0。在初始状态下,已标注样本集合s0为初始训练集。
初始筛选状态,计算候选样本集中每个未标注样本到初始训练集中的距离,从候选样本集中选出距离初始训练集最远的一个未标注样本,并将该未标注样本加入至初始训练集中更新初始训练集。同时,将更新后的初始训练集记为已标注样本集合s,以及从候选样本集中删除被选出的未标注样本,将剩余的未标注样本记为未标注样本集合[n]-s。其中,候选样本集中每个未标注样本到初始训练集中的距离定义为每个未标注样本与初始训练集中每个样本的最小距离。
其他筛选状态,计算未标注样本集合[n]-s中每个未标注样本到已标注样本集合s的距离,并从未标注样本集合[n]-s选出距离最远的未标注样u,将选出的未标注样本u加入至已标注样本集合s中更新已标注样本集合s,得到更新后的已标注样本集合s=s∪{u}。同时,从未标注样本集合[n]-s中删除被选出的未标注样本u,得到更新后的未标注样本集合[n]-s。作为示例,样本xi与已标注样本集合s的距离定义为样本xi与已标注样本集合s中每个样本距离的最小值,即minj∈sΔ(xi,xj)。
基于更新后的已标注样本集合和更新后的未标注样本集合继续迭代重复执行上一步骤,直至筛选出K个待标注样本,即直至|s|=K+|s0|。将筛选出的K个待标注样本记为待标注样本集合s1,从而得到目标样本集{xi|i∈[n]}中最值得标注的样本集合s1。其中,|s|为已标注集合s的大小,|s0|为未标注样本集合s0的大小。由此选择出样本集合s1和初始已标注样本集合s0(即初始训练集)的并集s1∪s0是目标样本集{xi|i∈[n]}的最小覆盖集合,同时这种策略也称为基于最小覆盖集合的主动学习方法。
该公式的含义是挑选出K个待标注样本构成集合s1,与之前初始的已标注样本集合s0构成的集合s1∪s0是全集[n]的最小覆盖集合。其中,s0为初始的已标注样本集合,即初始训练集;s1为挑选出的待标注样本集合;[n]为全部n个训练样本构成的集合,即目标样本集;K为每轮主动学习挑选出的样本个数;xi为第i个样本,从全集[n]中选取;xj为第j个样本,从s1∪s0中选取;Δ(xi,xj)表示样本xi和样本xj之间的距离。
在一示例性实施例中,样本预测模块M20获取分类模型的过程包括:从目标样本集中获取剩余的未标注样本;对剩余的未标注样本进行人工标注,形成初始训练集;利用初始训练集对初始分类模型进行训练,获取初始训练分类模型;并将初始训练分类模型作为分类模型。作为示例,本申请实施例中抽取初始训练集的方式可以是随机选择,也可以是人为指定,还可以通过设计特定的算法进行挑选。本申请实施例中的初始分类模型包括但不限于vgg,resnet等深度学习模型。作为另一示例性实施例,获取分类模型时,还可以选择在使用预训练模型的基础上对初始分类模型进行训练;获取初始训练分类模型;并将获取的初始训练分类模型作为分类模型。本申请实施例通过使用预训练模型对初始分类模型进行训练,可以很大程度上提高初始分类模型的分类能力。其中,预训练模型可以是在imagenet等数据集上得到的预训练模型。
在另一示例性实施例中,将从候选样本集中筛选出与初始训练集距离最大的若干个未标注样本记为候选样本,则样本预测模块M20获取分类模型的过程还包括:将候选样本推送至标注平台进行标注,并将完成标注后的候选样本加入至初始训练集中扩充初始训练集;根据扩充后的初始训练集对分类模型进行迭代优化训练,并将完成迭代优化训练后的分类模型作为最终的分类模型。其中,分类模型包括以下至少之一:初始分类模型、预训练模型、初始训练分类模型。本申请实施例将标注后的候选样本加入至初始训练集得到新的训练集,即扩充后的初始训练集;新的训练集不仅有更多的样本数量,而且包含了最具代表性的候选样本,有着更为丰富的信息量,利用新的训练集对分类模型进行训练,可以达到迭代优化分类模型的目的。作为示例,例如使用新的训练集来对初始分类模型从最开始进行模型训练;或者使用新的训练集来对预训练模型进行模型微调;或者使用新的训练集来对初始训练分类模型进行增量学习。本申请实施例中,分类模型完成迭代优化训练可以是利用扩充后的初始训练集对分类模型进行一次或多次迭代优化训练,使分类模型的迭代优化训练次数达到实际要求的训练次数即可。还可以是利用扩充后的初始训练集对分类模型进行一次或多次迭代优化,直至迭代优化训练后的分类模型满足终止条件。作为一示例,本申请实施例中的终止条件可以是迭代优化训练后的分类模型的模型效果达到按照实际要求设定的阈值;其中,模型效果参数指标包括以下至少之一:模型F1值、训练损失loss、AUC值、准确率、召回率、标注量。作为另一示例,终止条件还可以是迭代优化训练后的分类模型的模型效果与之前的分类模型相比,小于按照实际要求设定的阈值。作为另一示例,终止条件还可以是迭代优化训练后的分类模型进行样本标注时的标注量达到实际要求。
根据上述记载,将从候选样本集中筛选出与初始训练集距离最大的若干个未标注样本记为候选样本。在将筛选出的若干个未标注样本推送至标注平台前,或者在标注平台对筛选出的若干个未标注样本进行标注过程中;还包括对筛选出的若干个未标注样本进行预标注;其中,进行预标注的方式包括以下之一:利用未进行迭代优化的分类模型对筛选出的若干个未标注样本进行预标注、利用完成迭代优化训练的分类模型对筛选出的若干个未标注样本进行预标注、利用人工对筛选出的若干个未标注样本进行预标注。通过对筛选出的若干个未标注样本进行预标注,可以减少训练分类模型时所需人工标注数据的数量,减少进行人工标注的人力成本,有效提高标注效率;同时能够以最小的数据标注代价快速迭代优化模型,实现用较少的数据训练出较优的模型。
在一示例性实施例中,若目标样本集中的单个样本为一个或多个目标图像;则在形成初始训练集后,还包括:对一个或多个目标图像进行数据增强,并将数据增强后的一个或多个目标图像增加至初始训练集中;利用数据增强后的初始训练集对初始分类模型进行训练,获取增强训练分类模型;并将增强训练分类模型作为分类模型。本方法通过对一个或多个目标图像进行数据增强来扩充初始训练集,使得样本的数量和多样性得到提升。其中,对一个或多个目标图像进行数据增强的方式包括以下至少之一:对一个或多个目标图像进行旋转、对一个或多个目标图像进行错切、对一个或多个目标图像进行翻转、对一个或多个目标图像进行色彩调整、对一个或多个目标图像进行色调分离、对一个或多个目标图像进行曝光度调整、对一个或多个目标图像进行对比度调整、对一个或多个目标图像进行亮度调整、对一个或多个目标图像进行锐化。作为示例,数据增强的具体方式如下:对一个或多个目标图像进行旋转:将原目标图像以某点为中心,顺时针或逆时针旋转一定的角度,使目标图像中的像素点在空间中的位置发生改变。对一个或多个目标图像进行错切:图像错切也叫图像倾斜,就是将目标图像按照指定的方向进行倾斜,使原本的矩阵目标图像转换成为平行四边形的目标图像。对一个或多个目标图像进行翻转:将原目标图像进行左右或者上下的镜面翻转,使得转换后的目标图像与原目标图像关于翻转轴对称。对一个或多个目标图像进行色彩调整:对原目标图像的色彩进行调整,使原目标图像的色彩增强或减弱。对一个或多个目标图像进行色调分离:只保留原目标图像各像素点数值较高的比特位,使得目标图像出现相邻像素点颜色的跳变。对一个或多个目标图像进行曝光度调整:对原目标图像的曝光度进行调整,将目标图像从RGB色彩空间转换到HSV色彩空间,调整目标图像在HSV色彩空间的第三个通道的数值。对一个或多个目标图像进行对比度调整:对原目标图像的对比度进行调整,在保证平均亮度不变的情况下,扩大或缩小原目标图像中亮点和暗点的差异。对一个或多个目标图像进行亮度调整:对原目标图像的亮度进行调整,将目标图像从RGB色彩空间转换到HSL色彩空间,调整目标图像在HSL色彩空间的第三个通道的数值。对一个或多个目标图像进行锐化:对原目标图像的轮廓进行补偿,增强目标图像的边缘及灰度跳变的部分,使目标图像变得清晰。
根据上述记载,在一具体实施例中,若样本由一个或多个目标图像构成,则样本筛选的具体实施过程如图2所示,本系统不再进行赘述。
本系统针对目前存在的问题,设计了一种基于最小覆盖集合样本选择的主动学习系统,通过该系统可以从海量数据中挑选出最具代表性的少量样本进行人工标注,解决了传统需对全量样本进行标注的耗资巨大的问题。本系统通过筛选出的新的待标注样本与已标注样本一起构成全部样本的最小覆盖集合,按照这种策略筛选出的待标注样本是全部训练集的最好代表。而且通过这种方式可以高效地选择出最有价值的样本进行标注,进而显著性地减少标注数据的代价。本系统可以从海量数据中挑选出最具代表性的少量样本进行人工标注,解决了传统需要对全量样本进行标注时耗资巨大的问题。并且本系统可以减少训练分类模型时所需人工标注数据的数量,减少进行人工标注的人力成本,提高了标注效率;同时能够以最小的数据标注代价快速迭代优化模型,实现用较少的数据训练出较优的模型。同时与现有技术相比,例如与现有的一种主动学习方法及装置相比,本系统与该现有技术在具体的主动学习策略上有所不同,该现有技术是利用训练好的机器学习模型对未标记数据进行预测,将边界模糊的预测结果对应的测试数据作为待标注样本数据输出,其中的边界模糊是依靠人为根据预测概率是否在一定阈值区间内决定的,如只要预测准确率在48%-52%的区间内样本,均将其视为是边界模糊的。而本系统是通过计算未标注样本与已选择的样本集合之间的距离来判断样本重叠信息量的大小,每轮均可准确的筛选出最具价值的样本。本系统利用样本预测概率向量间的欧氏距离来计算样本与已标注样本集合间的最小距离,不用依赖坐标系统的转度和方向的差异等,进而更便于直接计算样本间的重叠信息量。所以本系统可以减少训练分类模型时所需人工标注数据的数量,减少进行人工标注的人力成本,有效地提高了标注效率;并能够同时以最小的数据标注代价快速迭代优化模型,实现用较少的数据训练出较优的模型。
本申请实施例还提供了一种样本筛选设备,包括有:
从目标样本集中获取部分未标注样本进行标注后形成初始训练集,并将所述目标样本集中剩余的未标注样本作为候选样本集;其中,目标样本集中的样本包括以下至少之一:图像、语音、文字;
利用分类模型对所述目标样本集中每个未标注样本进行预测,获取每个未标注样本在每个分类类别上的预测概率;
根据所述预测概率计算所述候选样本集中的每个未标注样本与所述初始训练集的距离;并基于距离计算结果从所述候选样本集中筛选出若干个未标注样本,以作为所述分类模型的训练样本。
在本实施例中,该样本筛选设备执行上述系统或方法,具体功能和技术效果参照上述实施例即可,此处不再赘述。
本申请实施例还提供了一种设备,该设备可以包括:一个或多个处理器;和其上存储有指令的一个或多个机器可读介质,当由所述一个或多个处理器执行时,使得所述设备执行图1所述的方法。在实际应用中,该设备可以作为终端设备,也可以作为服务器,终端设备的例子可以包括:智能手机、平板电脑、电子书阅读器、MP3(动态影像专家压缩标准语音层面3,Moving Picture Experts Group Audio Layer III)播放器、MP4(动态影像专家压缩标准语音层面4,Moving Picture Experts Group Audio Layer IV)播放器、膝上型便携计算机、车载电脑、台式计算机、机顶盒、智能电视机、可穿戴设备等等,本申请实施例对于具体的设备不加以限制。
本申请实施例还提供了一种非易失性可读存储介质,该存储介质中存储有一个或多个模块(programs),该一个或多个模块被应用在设备时,可以使得该设备执行本申请实施例的图1中数据处理方法所包含步骤的指令(instructions)。
图4为本申请一实施例提供的终端设备的硬件结构示意图。如图所示,该终端设备可以包括:输入设备1100、第一处理器1101、输出设备1102、第一存储器1103和至少一个通信总线1104。通信总线1104用于实现元件之间的通信连接。第一存储器1103可能包含高速RAM存储器,也可能还包括非易失性存储NVM,例如至少一个磁盘存储器,第一存储器1103中可以存储各种程序,用于完成各种处理功能以及实现本实施例的方法步骤。
可选的,上述第一处理器1101例如可以为中央处理器(Central ProcessingUnit,简称CPU)、应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,该处理器1101通过有线或无线连接耦合到上述输入设备1100和输出设备1102。
可选的,上述输入设备1100可以包括多种输入设备,例如可以包括面向用户的用户接口、面向设备的设备接口、软件的可编程接口、摄像头、传感器中至少一种。可选的,该面向设备的设备接口可以是用于设备与设备之间进行数据传输的有线接口、还可以是用于设备与设备之间进行数据传输的硬件插入接口(例如USB接口、串口等);可选的,该面向用户的用户接口例如可以是面向用户的控制按键、用于接收语音输入的语音输入设备以及用户接收用户触摸输入的触摸感知设备(例如具有触摸感应功能的触摸屏、触控板等);可选的,上述软件的可编程接口例如可以是供用户编辑或者修改程序的入口,例如芯片的输入引脚接口或者输入接口等;输出设备1102可以包括显示器、音响等输出设备。
在本实施例中,该终端设备的处理器包括用于执行各设备中语音识别装置各模块的功能,具体功能和技术效果参照上述实施例即可,此处不再赘述。
图5为本申请的另一个实施例提供的终端设备的硬件结构示意图。图5是对图4在实现过程中的一个具体的实施例。如图所示,本实施例的终端设备可以包括第二处理器1201以及第二存储器1202。
第二处理器1201执行第二存储器1202所存放的计算机程序代码,实现上述实施例中图1所述方法。
第二存储器1202被配置为存储各种类型的数据以支持在终端设备的操作。这些数据的示例包括用于在终端设备上操作的任何应用程序或方法的指令,例如消息,图片,视频等。第二存储器1202可能包含随机存取存储器(random access memory,简称RAM),也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
可选地,第二处理器1201设置在处理组件1200中。该终端设备还可以包括:通信组件1203,电源组件1204,多媒体组件1205,音频组件1206,输入/输出接口1207和/或传感器组件1208。终端设备具体所包含的组件等依据实际需求设定,本实施例对此不作限定。
处理组件1200通常控制终端设备的整体操作。处理组件1200可以包括一个或多个第二处理器1201来执行指令,以完成上述图1所示方法的全部或部分步骤。此外,处理组件1200可以包括一个或多个模块,便于处理组件1200和其他组件之间的交互。例如,处理组件1200可以包括多媒体模块,以方便多媒体组件1205和处理组件1200之间的交互。
电源组件1204为终端设备的各种组件提供电力。电源组件1204可以包括电源管理系统,一个或多个电源,及其他与为终端设备生成、管理和分配电力相关联的组件。
多媒体组件1205包括在终端设备和用户之间的提供一个输出接口的显示屏。在一些实施例中,显示屏可以包括液晶显示器(LCD)和触摸面板(TP)。如果显示屏包括触摸面板,显示屏可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。
音频组件1206被配置为输出和/或输入语音信号。例如,音频组件1206包括一个麦克风(MIC),当终端设备处于操作模式,如语音识别模式时,麦克风被配置为接收外部语音信号。所接收的语音信号可以被进一步存储在第二存储器1202或经由通信组件1203发送。在一些实施例中,音频组件1206还包括一个扬声器,用于输出语音信号。
输入/输出接口1207为处理组件1200和外围接口模块之间提供接口,上述外围接口模块可以是点击轮,按钮等。这些按钮可包括但不限于:音量按钮、启动按钮和锁定按钮。
传感器组件1208包括一个或多个传感器,用于为终端设备提供各个方面的状态评估。例如,传感器组件1208可以检测到终端设备的打开/关闭状态,组件的相对定位,用户与终端设备接触的存在或不存在。传感器组件1208可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在,包括检测用户与终端设备间的距离。在一些实施例中,该传感器组件1208还可以包括摄像头等。
通信组件1203被配置为便于终端设备和其他设备之间有线或无线方式的通信。终端设备可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个实施例中,该终端设备中可以包括SIM卡插槽,该SIM卡插槽用于插入SIM卡,使得终端设备可以登录GPRS网络,通过互联网与服务器建立通信。
由上可知,在图5实施例中所涉及的通信组件1203、音频组件1206以及输入/输出接口1207、传感器组件1208均可以作为图4实施例中的输入设备的实现方式。
上述实施例仅例示性说明本发明的原理及其功效,而非用于限制本发明。任何熟悉此技术的人士皆可在不违背本发明的精神及范畴下,对上述实施例进行修饰或改变。因此,举凡所属技术领域中具有通常知识者在未脱离本发明所揭示的精神与技术思想下所完成的一切等效修饰或改变,仍应由本发明的权利要求所涵盖。
Claims (13)
1.一种样本筛选方法,其特征在于,应用于计算机模型训练过程,包括以下步骤:
从目标样本集中获取部分未标注样本进行标注后形成初始训练集,并将所述目标样本集中剩余的未标注样本作为候选样本集;其中,目标样本集中的样本包括以下至少之一:图像、语音、文字;
利用分类模型对所述目标样本集中每个未标注样本进行预测,获取每个未标注样本在每个分类类别上的预测概率;
根据所述预测概率计算所述候选样本集中的每个未标注样本与所述初始训练集的距离;并基于距离计算结果从所述候选样本集中筛选出若干个未标注样本,以作为所述分类模型的训练样本。
2.根据权利要求1所述的样本筛选方法,其特征在于,根据所述预测概率计算所述候选样本集中的每个未标注样本与所述初始训练集的距离;并基于距离计算结果从所述候选样本集中筛选出若干个未标注样本,包括:
根据所述预测概率计算所述候选样本集中的每个未标注样本与所述初始训练集的距离,基于当前距离计算结果从所述候选样本集中筛选出与所述初始训练集距离最大的一个未标注样本,并将该未标注样本加入至所述初始训练集中更新所述初始训练集;
根据所述预测概率继续计算所述候选样本集中剩余的每个未标注样本与更新后的初始训练集的距离,基于当前距离计算结果从所述候选样本集剩余的未标注样本中筛选出与当前训练集距离最大的一个未标注样本,并将该未标注样本加入至当前训练集中更新当前训练集;
迭代上一筛选过程,直至筛选出若干个未标注样本。
3.根据权利要求1所述的样本筛选方法,其特征在于,获取分类模型的过程包括:
利用所述初始训练集对初始分类模型进行训练,获取初始训练分类模型,将所述初始训练分类模型作为所述分类模型;
或者,使用预训练模型对初始分类模型进行训练,获取初始训练分类模型,将所述初始训练分类模型作为所述分类模型。
4.根据权利要求3所述的样本筛选方法,其特征在于,获取所述分类模型的过程还包括:
将从所述候选样本集中筛选出与所述初始训练集距离最大的若干个未标注样本推送至标注平台进行标注,并将完成标注后的若干个样本加入至所述初始训练集中扩充所述初始训练集;
根据扩充后的初始训练集对所述分类模型进行迭代优化训练,并将完成迭代优化训练后的分类模型作为最终的分类模型。
5.根据权利要求4所述的样本筛选方法,其特征在于,在将筛选出的若干个未标注样本推送至标注平台前,或者在标注平台对筛选出的若干个未标注样本进行标注过程中;还包括对筛选出的若干个未标注样本进行预标注;其中,进行预标注的方式包括以下之一:
利用未进行迭代优化的分类模型对筛选出的若干个未标注样本进行预标注、利用完成迭代优化训练的分类模型对筛选出的若干个未标注样本进行预标注、利用人工对筛选出的若干个未标注样本进行预标注。
6.根据权利要求1所述的样本筛选方法,其特征在于,若所述目标样本集中的单个样本为一个或多个目标图像;则在形成初始训练集后,还包括:
对所述一个或多个目标图像进行数据增强,并将数据增强后的一个或多个目标图像增加至所述初始训练集中;
利用数据增强后的初始训练集对所述初始分类模型进行训练,获取增强训练分类模型;并将所述增强训练分类模型作为所述分类模型。
7.根据权利要求6所述的样本筛选方法,其特征在于,对所述一个或多个目标图像进行数据增强的方式包括以下至少之一:
对所述一个或多个目标图像进行旋转、对所述一个或多个目标图像进行错切、对所述一个或多个目标图像进行翻转、对所述一个或多个目标图像进行色彩调整、对所述一个或多个目标图像进行色调分离、对所述一个或多个目标图像进行曝光度调整、对所述一个或多个目标图像进行对比度调整、对所述一个或多个目标图像进行亮度调整、对所述一个或多个目标图像进行锐化。
8.一种样本筛选系统,其特征在于,应用于计算机模型训练过程,包括有:
样本采集模块,用于从目标样本集中获取部分未标注样本进行标注后形成初始训练集,并将所述目标样本集中剩余的未标注样本作为候选样本集;其中,目标样本集中的样本包括以下至少之一:图像、语音、文字;
样本预测模块,用于利用分类模型对所述目标样本集中每个未标注样本进行预测,获取每个未标注样本在每个分类类别上的预测概率;
样本筛选模块,用于根据所述预测概率计算所述候选样本集中的每个未标注样本与所述初始训练集的距离;并基于距离计算结果从所述候选样本集中筛选出若干个未标注样本,以作为所述分类模型的训练样本。
9.根据权利要求8所述的样本筛选系统,其特征在于,所述样本筛选模块根据所述预测概率计算所述候选样本集中的每个未标注样本与所述初始训练集的距离;并基于距离计算结果从所述候选样本集中筛选出若干个未标注样本,包括:
根据所述预测概率计算所述候选样本集中的每个未标注样本与所述初始训练集的距离,基于当前距离计算结果从所述候选样本集中筛选出与所述初始训练集距离最大的一个未标注样本,并将该未标注样本加入至所述初始训练集中更新所述初始训练集;
根据所述预测概率继续计算所述候选样本集中剩余的每个未标注样本与更新后的初始训练集的距离,基于当前距离计算结果从所述候选样本集剩余的未标注样本中筛选出与当前训练集距离最大的一个未标注样本,并将该未标注样本加入至当前训练集中更新当前训练集;
迭代上一筛选过程,直至筛选出若干个未标注样本。
10.根据权利要求8所述的样本筛选系统,其特征在于,获取分类模型的过程包括:
利用所述初始训练集对初始分类模型进行训练,获取初始训练分类模型,将所述初始训练分类模型作为所述分类模型;
或者,使用预训练模型对初始分类模型进行训练,获取初始训练分类模型,将所述初始训练分类模型作为所述分类模型。
11.根据权利要求10所述的样本筛选系统,其特征在于,获取所述分类模型的过程还包括:
将从所述候选样本集中筛选出与所述初始训练集距离最大的若干个未标注样本推送至标注平台进行标注,并将完成标注后的若干个样本加入至所述初始训练集中扩充所述初始训练集;
根据扩充后的初始训练集对所述分类模型进行迭代优化训练,并将完成迭代优化训练后的分类模型作为最终的分类模型。
12.一种设备,其特征在于,包括:
一个或多个处理器;和
存储有指令的一个或多个机器可读介质,当所述一个或多个处理器执行所述指令时,使得所述设备执行如权利要求1-7中任意一项所述的方法。
13.一个或多个机器可读介质,其特征在于,其上存储有指令,当由一个或多个处理器执行所述指令时,使得设备执行如权利要求1-7中任意一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011414329.4A CN112508092A (zh) | 2020-12-03 | 2020-12-03 | 一种样本筛选方法、系统、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011414329.4A CN112508092A (zh) | 2020-12-03 | 2020-12-03 | 一种样本筛选方法、系统、设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112508092A true CN112508092A (zh) | 2021-03-16 |
Family
ID=74970378
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011414329.4A Pending CN112508092A (zh) | 2020-12-03 | 2020-12-03 | 一种样本筛选方法、系统、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112508092A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112861842A (zh) * | 2021-03-22 | 2021-05-28 | 天津汇智星源信息技术有限公司 | 基于ocr的案件文本识别方法及电子设备 |
CN113011534A (zh) * | 2021-04-30 | 2021-06-22 | 平安科技(深圳)有限公司 | 分类器训练方法、装置、电子设备和存储介质 |
CN113268665A (zh) * | 2021-05-24 | 2021-08-17 | 平安科技(深圳)有限公司 | 基于随机森林的信息推荐方法、装置、设备及存储介质 |
CN113469251A (zh) * | 2021-07-02 | 2021-10-01 | 南京邮电大学 | 不平衡数据的分类方法 |
CN113487617A (zh) * | 2021-07-26 | 2021-10-08 | 推想医疗科技股份有限公司 | 数据处理方法、装置、电子设备以及存储介质 |
CN114519406A (zh) * | 2022-04-21 | 2022-05-20 | 天津卓朗科技发展有限公司 | 工业数据的分类方法及其模型训练方法、装置 |
CN115482441A (zh) * | 2022-11-11 | 2022-12-16 | 北京阿丘科技有限公司 | 训练数据筛选方法、装置及计算机可读存储介质 |
CN118090672A (zh) * | 2024-04-25 | 2024-05-28 | 奥谱天成(厦门)光电有限公司 | 猕猴桃特征检测方法、装置、介质及设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109447151A (zh) * | 2018-10-26 | 2019-03-08 | 成都国星宇航科技有限公司 | 一种基于深度学习的遥感数据分析方法 |
CN110245716A (zh) * | 2019-06-20 | 2019-09-17 | 杭州睿琪软件有限公司 | 样本标注审核方法及装置 |
CN111242234A (zh) * | 2020-01-17 | 2020-06-05 | 深圳力维智联技术有限公司 | 图像目标的检测方法、装置、终端设备及存储介质 |
CN111461232A (zh) * | 2020-04-02 | 2020-07-28 | 大连海事大学 | 一种基于多策略批量式主动学习的核磁共振图像分类方法 |
CN111881989A (zh) * | 2020-08-03 | 2020-11-03 | 齐齐哈尔大学 | 一种高光谱图像分类算法 |
-
2020
- 2020-12-03 CN CN202011414329.4A patent/CN112508092A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109447151A (zh) * | 2018-10-26 | 2019-03-08 | 成都国星宇航科技有限公司 | 一种基于深度学习的遥感数据分析方法 |
CN110245716A (zh) * | 2019-06-20 | 2019-09-17 | 杭州睿琪软件有限公司 | 样本标注审核方法及装置 |
CN111242234A (zh) * | 2020-01-17 | 2020-06-05 | 深圳力维智联技术有限公司 | 图像目标的检测方法、装置、终端设备及存储介质 |
CN111461232A (zh) * | 2020-04-02 | 2020-07-28 | 大连海事大学 | 一种基于多策略批量式主动学习的核磁共振图像分类方法 |
CN111881989A (zh) * | 2020-08-03 | 2020-11-03 | 齐齐哈尔大学 | 一种高光谱图像分类算法 |
Non-Patent Citations (1)
Title |
---|
郭芷榕 等: "基于PU学习和自主训练的时间序列分类模型", 《计算机工程与设计》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112861842A (zh) * | 2021-03-22 | 2021-05-28 | 天津汇智星源信息技术有限公司 | 基于ocr的案件文本识别方法及电子设备 |
CN113011534A (zh) * | 2021-04-30 | 2021-06-22 | 平安科技(深圳)有限公司 | 分类器训练方法、装置、电子设备和存储介质 |
CN113011534B (zh) * | 2021-04-30 | 2024-03-29 | 平安科技(深圳)有限公司 | 分类器训练方法、装置、电子设备和存储介质 |
CN113268665A (zh) * | 2021-05-24 | 2021-08-17 | 平安科技(深圳)有限公司 | 基于随机森林的信息推荐方法、装置、设备及存储介质 |
CN113469251A (zh) * | 2021-07-02 | 2021-10-01 | 南京邮电大学 | 不平衡数据的分类方法 |
CN113487617A (zh) * | 2021-07-26 | 2021-10-08 | 推想医疗科技股份有限公司 | 数据处理方法、装置、电子设备以及存储介质 |
CN114519406A (zh) * | 2022-04-21 | 2022-05-20 | 天津卓朗科技发展有限公司 | 工业数据的分类方法及其模型训练方法、装置 |
CN115482441A (zh) * | 2022-11-11 | 2022-12-16 | 北京阿丘科技有限公司 | 训练数据筛选方法、装置及计算机可读存储介质 |
CN118090672A (zh) * | 2024-04-25 | 2024-05-28 | 奥谱天成(厦门)光电有限公司 | 猕猴桃特征检测方法、装置、介质及设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112508092A (zh) | 一种样本筛选方法、系统、设备及介质 | |
CN112308144A (zh) | 一种筛选样本的方法、系统、设备及介质 | |
CN111476306B (zh) | 基于人工智能的物体检测方法、装置、设备及存储介质 | |
CN109934173B (zh) | 表情识别方法、装置及电子设备 | |
CN109345553B (zh) | 一种手掌及其关键点检测方法、装置和终端设备 | |
CN110121118A (zh) | 视频片段定位方法、装置、计算机设备及存储介质 | |
WO2021129181A1 (en) | Portrait segmentation method, model training method and electronic device | |
CN109543714A (zh) | 数据特征的获取方法、装置、电子设备及存储介质 | |
CN109522945B (zh) | 一种群体情感识别方法、装置、智能设备及存储介质 | |
US11170264B2 (en) | Labeling using interactive assisted segmentation | |
CN112308143A (zh) | 一种基于多样性的样本筛选方法、系统、设备及介质 | |
CN115017418B (zh) | 基于强化学习的遥感影像推荐系统及方法 | |
CN111475613A (zh) | 案件分类方法、装置、计算机设备及存储介质 | |
CN110162604B (zh) | 语句生成方法、装置、设备及存储介质 | |
JP2022502758A (ja) | 符号化方法、装置、機器およびプログラム | |
CN112287994A (zh) | 伪标签处理方法、装置、设备及计算机可读存储介质 | |
CN111950570B (zh) | 目标图像提取方法、神经网络训练方法及装置 | |
WO2023207541A1 (zh) | 一种语音处理方法及相关设备 | |
CN111222557A (zh) | 图像分类方法、装置、存储介质及电子设备 | |
Li et al. | Style transfer for QR code | |
CN110717405A (zh) | 人脸特征点定位方法、装置、介质及电子设备 | |
CN114428842A (zh) | 一种扩充问答库的方法、装置、电子设备及可读存储介质 | |
CN114757247A (zh) | 分类预测模型的训练方法、分类预测方法、装置和设备 | |
CN117315758A (zh) | 面部表情的检测方法、装置、电子设备及存储介质 | |
CN117315090A (zh) | 基于跨模态风格学习的图像生成方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210316 |