CN109961098A - 一种机器学习的训练数据选择方法 - Google Patents
一种机器学习的训练数据选择方法 Download PDFInfo
- Publication number
- CN109961098A CN109961098A CN201910222007.0A CN201910222007A CN109961098A CN 109961098 A CN109961098 A CN 109961098A CN 201910222007 A CN201910222007 A CN 201910222007A CN 109961098 A CN109961098 A CN 109961098A
- Authority
- CN
- China
- Prior art keywords
- data
- training
- machine learning
- learning model
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种机器学习的数据选择方法,包括以下步骤:步骤1,选定待选择数据的机器学习模型,并获取该机器学习模型对应的训练数据集;步骤2,从训练数据集中随机选出一个数据子集作为策略训练数据集,通过深度强化学习对策略训练数据集应用于机器学习模型进行若干轮训练,根据训练结果确定与机器学习模型匹配的数据选择策略;步骤3,通过确定的数据选择策略对机器学习模型待输入数据按批次进行选择,将选出的数据用于机器学习模型的训练。该方法能用得出的对当前机器学习模型最优的训练数据选择策略进行机器学习模型的训练数据的选择,提升机器学习模型性能。
Description
技术领域
本发明涉及机器学习领域,尤其涉及一种机器学习的训练数据选择方法。
背景技术
近年来,机器学习,尤其是基于大规模深度神经网络的深度学习技术迅猛发展,已在生活的各个方面得到了应用。随着深度学习的日益流行,机器学习中的数据选择问题成为一个日益受关注的问题。如何自动地选择数据,提高深度学习模型的性能,成为目前的一个迫切的需求。
目前在机器学习数据选择的领域,已有了许多方法,例如将训练数据按照“难易程度”由低到高的所谓“课程”(Curriculum)顺序训练,有利于模型的训练过程。此外,自步学习用数据的损失函数大小(loss value)作为“难易程度”的度量标准。在自步学习算法中,损失值大于一个特定阈值η的数据会被丢弃,而阈值η在训练过程中逐渐增长,直到最终所有数据都被选中。
然而,上述现有的数据选择策略属于人为定义的启发式策略,具有较大的特定性,由于不同的机器学习任务通常具有不同的数据分布和模型特点,这些规则在不同的机器学习任务上往往难以泛化。
发明内容
基于现有技术所存在的问题,本发明的目的是提供一种机器学习的训练数据选择方法,能在机器学习的不同阶段根据当前训练状态动态地选择训练数据,进而提高机器学习模型的性能。
本发明的目的是通过以下技术方案实现的:
本发明实施方式提供一种机器学习的训练数据选择方法,包括以下步骤:
步骤1,选定待选择数据的机器学习模型,并获取该机器学习模型对应的训练数据集;
步骤2,从所述训练数据集中随机选出一个数据子集作为策略训练数据集,通过深度强化学习对所述策略训练数据集应用于所述机器学习模型进行若干轮训练,根据训练结果确定与所述机器学习模型匹配的数据选择策略;
步骤3,通过确定的所述数据选择策略对所述机器学习模型待输入数据按批次进行选择,将选出的数据用于所述机器学习模型的训练。
由上述本发明提供的技术方案可以看出,本发明实施例提供的机器学习的训练数据选择方法,其有益效果为:
通过深度强化学习对所述策略训练数据集应用于所述机器学习模型进行若干轮训练,根据训练结果确定与所述机器学习模型匹配的数据选择策略的方式,能得出对当前机器学习模型最优的训练数据选择策略,提升机器学习模型性能,由于不需要主动遍历所有未训练过的数据以选出用于训练的批次,降低了计算开销;并且由于不是对每个任务使用简单的启发式策略,对不同的学习任务能自适应的确定选择策略,实现为不同的学习任务最优化的选择训练数据。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他附图。
图1为本发明实施例提供的机器学习的训练数据选择方法的流程图;
图2为本发明实施例提供的选择方法中实验的MLP在MNIST数据集的一半训练数据上不同数据选择策略的测试集准确率曲线图;
图3为本发明实施例提供的选择方法中实验的NDF策略在每一轮中过滤掉的数据数量;
图4为本发明实施例提供的选择方法中实验的ResNet32在CIFAR-10数据集的一半训练数据上不同数据选择策略的测试集准确率曲线图;
图5为本发明实施例提供的选择方法中实验的NDF策略在每一轮中过滤掉的数据数量;
图6为本发明实施例提供的选择方法中实验的RNN在IMDB的一半训练数据上不同数据选择策略的测试集准确率曲线图;
图7为本发明实施例提供的选择方法中实验的NDF策略在每一轮中过滤掉的数据数量。
具体实施方式
下面结合本发明的具体内容,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明的保护范围。本发明实施例中未作详细描述的内容属于本领域专业技术人员公知的现有技术。
如图1所示,本发明实施例提供一种机器学习的数据选择方法,是一种能在机器学习的不同阶段根据当前训练状态动态地选择训练数据的方法,进而可提高机器学习模型的性能,包括以下步骤:
步骤1,选定待选择数据的机器学习模型,并获取该机器学习模型对应的训练数据集;
步骤2,从所述训练数据集中随机选出一个数据子集作为策略训练数据集,通过深度强化学习对所述策略训练数据集应用于所述机器学习模型进行若干轮训练,根据训练结果确定与所述机器学习模型匹配的数据选择策略;
步骤3,通过确定的所述数据选择策略对所述机器学习模型待输入数据按批次进行选择,将选出的数据用于所述机器学习模型的训练。
上述方法的步骤2中,通过深度强化学习对所述策略训练数据集应用于所述机器学习模型进行若干轮训练,根据训练结果确定与所述机器学习模型匹配的数据选择策略为:
步骤21,将策略训练数据集分为两个不相交的策略训练子集和策略验证子集;
步骤22,初始化深度强化学习模型的策略函数;
步骤23,以所述策略训练子集作为训练数据,通过所述深度强化学习模型重复进行若干轮深度强化学习训练;
步骤24,训练完成后得到与所述机器学习模型匹配的深度强化学习模型的策略函数,该策略函数能为所述机器学习模型选择训练数据。
上述方法的步骤23中,每轮深度强化学习训练包括:
步骤231,初始化所述机器学习模型;
步骤232,用所述策略训练子集训练所述机器学习模型,直到所述机器学习模型停止训练;在所述机器学习模型的每步训练过程中,对于每批次数据,根据深度强化学习模型的输出动作,选定该批次数据中的一部分数据作为所述机器学习模型的输入,并使用策略验证子集,计算出该次训练对应的奖励函数值;
具体的,上述步骤232中,深度强化学习模型(即教师模块)对机器学习模型(即学生模块)的训练数据的选择交互方式是:先从机器学习模型中抽取状态特征向量,将抽取的状态特征向量作为输入给深度强化学习模型的策略函数进行处理,处理后得到输出动作,输出动作是指:在深度强化学习模型的数据选择任务中,对于一个批次中的每个数据,是选择保留该数据还是丢弃该数据的动作。
步骤233,当所述机器学习模型一轮训练结束后,累计计算所述奖励函数值,更新策略函数。
上述步骤233具体是:从一轮训练中所有的奖励函数计算累计回报,然后从累计回报中计算出梯度值,使用梯度值更新策略函数。上述过程是已有的深度强化学习算法(REINFORCE算法)的标准步骤。
上述方法的步骤232中,深度强化学习模型的输出动作中,包含以下特征中的至少一种:
(1)包含数据的信息的数据特征;
(2)包含反映当前模型训练进度的信息的基本模型特征。
(3)包含当前到达的训练数据对于当前模型的重要性的信息的模型与数据结合的特征。
上述输出动作中,
所述数据特征中包含数据的信息为:数据的标签类别信息、文本数据句子的长度、文字片段的语法信息、图像数据梯度直方图中的至少一种;
所述基本模型特征中包含反映当前模型训练进度的信息为:当前已训练的批次数量、历史的损失函数的平均值和训练集历史准确率;
所述模型与数据结合的特征中包含当前到达的训练数据对于当前模型的重要性的信息为:模型输出的每一类别的概率、数据的损失函数值和训练数据的间隔值;所述训练数据(x,y)的间隔值的定义为:P(y|x)-maxy′≠yP(y′|x))。
下面对本发明实施例具体作进一步地详细描述。
本发明提供一种基于深度强化学习算法的机器学习模型训练数据的选择方法。在该方法中,深度强化学习作为教师模块,而基本的机器学习模型则为学生模块,教师模块需要为学生模块选择合适的训练数据,该方法包括以下步骤:
步骤1,选择作为学生模块的机器学习模型,并收集相应的训练数据集;
步骤2,策略训练:从训练数据集中随机选出一个数据子集,称为策略数据集,用于教师模块;在该子集上,使用如下步骤,优化神经网络数据选择器策略网络:
步骤21,将策略数据集分为两个不相交的子集,分别用于训练和验证;
步骤22,初始化教师模块的策略函数;
步骤23,重复若干轮训练,在每轮训练中:
步骤231,初始化学生模型;
步骤232,用策略训练数据集训练学生模型,直到学生模型达到停止训练标准。在每步训练过程中,对于每批次数据,需要根据教师模块的输出的状态特征向量,选定其中一部分数据作为学生模型的输入。使用策略验证子集,计算下该动作对应的奖励函数值(奖励函数值具体见下文说明);
步骤233,学生模型训练结束后,计算累计奖励函数值,更新策略函数;
步骤24,训练完成,输出策略函数;
步骤3,策略应用:使用如下步骤,将优化好的教师模块应用到学生模块的训练中:
步骤31,将输入数据按批次通过数据选择器,选出应该被保留的数据;
步骤32,将被选出的数据用于学生模型的训练,训练过程与学生模型的原始训练过程一致。
该步骤3中的学生模型不必和步骤2中训练用的学生模型一致,可以使用迁移学习的方法,将该选择策略应用到其他机器学习任务的训练过程中,其具有泛化能力。
上述方法中,实现教师模块的策略训练和策略应用的算法中,策略训练的过程为一个马尔科夫决策过程,称为SGD-MDP。本发明中的“深度强化学习”是指基于SGD-MDP的策略训练算法,该策略训练算法属于深度强化学习的一种。
具体的,SGD-MDP:与经典的MDP一样,SGD-MDP由一个四元组<s;a;P;r>组成:
其中,s表示环境的状态,与当前训练批次的数据和当前机器学习模型的状态相关;
a表示动作。在数据选择任务中,a表示对于一个批次中的每个数据,是选择保留该数据还是丢弃该数据;
为状态转移概率,由两个因素决定:1)训练批次数据的均匀分布;2)梯度下降算法的优化过程。该过程中的随机性来自于训练的随机性;
r=r(s;a)为奖励函数,可以被设置为任何能够指示训练进度的值,如验证集准确率、当前训练批次在模型更新前后的损失函数之差等。在计算累计期望时,未来的期望值会被乘以衰减因子γ(γ∈[0,1]);
本发明中的教师模块的核心是策略函数,策略函数为A=PΘ(a|s),能随机抽样出动作a,其中Θ为待学习的参数,策略函数A可以是任意的二分类模型,如Logistic回归和深度神经网络等。以Logistic回归为例,策略函数为A(s,a;Θ)=PΘ(a|s)=aσ(θf(s)+b)+(1-a)(1-σ(θf(s)+b)),此处σ(·)为sigmoid函数,策略参数Θ={θ,b},f(s)为表示状态s的特征向量(即状态特征向量)。策略函数的具体结构不做具体限制。
(1)状态特征向量f(s)是使其能够简洁而有效地表示SGD-MDP的状态。由于状态s包含了当前到达的数据和当前基本模型的状态,使用以下三类特征组合成f(s)。
(2)数据特征:这类特征包含数据的信息,例如数据的标签类别信息、(对于文本数据)句子的长度、文字片段的语法信息以及(对于图像数据)梯度直方图特征等。上述数据特征也常用于课程学习,课程学习指对训练数据进行重排以提高模型性能的算法。
(3)基本模型特征:这类特征包含反映当前模型训练进度的信息。在实验中,使用1)当前已训练的批次数量;2)历史的损失函数的平均值;以及3)训练集历史准确率三个特征。
(4)模型与数据结合的特征:这类特征包含当前到达的训练数据对于当前模型的重要性的信息。在实验中,使用1)模型输出的每一类别的概率;2)数据的损失函数值;以及3)间隔值(margin value)三个特征。(训练数据(x,y)的间隔值定义为:P(y|x)-maxy′≠yP(y′|x))。
本发明的方法中的学生模块是已有的独立的机器学习模型,视为黑箱,不属于本发明的范围。
本发明的方法中,神经网络数据选择算法的全部训练流程如下2.1所示:
算法2.1:使用神经网络数据选择器的批量梯度下降算法
上述算法2.1中策略训练的详细算法如下:
算法2.2:NDF策略训练算法
本发明提出的方法优势体现在以下几点:
(1)通过神经网络的深度强化学习确定的选择策略在随机到达的训练批次上选择训练数据,由于不是主动遍历所有未训练过的数据以选出用于训练的批次,降低了计算开销;
(2)根据训练过程中返回的特征向量值自动得到匹配的最优数据选择策略,由于不是对每个任务使用简单的启发式策略,对不同的学习任务能自适应的确定选择策略,实现为不同的学习任务最优化的选择训练数据。
实验结果表明(参见图2、3、4、5、6、7),本发明的选择方法可以对训练过程的收敛速度有较显著的提高,说明这种基于强化学习的自适应算法是有效的,并且对于多种不同的机器学习任务有较好的泛化能力。
图2:MLP在MNIST数据集的一半训练数据上不同数据选择策略的测试集准确率曲线图。包含如下超参数设置:NDF策略(即本发明的选择方法)中,验证集准确率阈值τ分别为0.93,0.95,0.97;SPL策略中,S分别为80,120,160;RandDrop使用NDFτ=0.97输出的选择数据的比例。X轴记录有效的训练数据的数量。图3:NDF策略(即本发明的选择方法)在每一轮中过滤掉的数据数量。不同的曲线表示不同困难程度的数据在训练过程中被过滤掉的数量,数据的困难程度以该数据在其所在批次中损失函数值的排名代表。具体而言,将大小为20的训练批次中{1,2,…,20}的排名值分入5个桶(buckets)。1号桶代表每个批次中最难的数据,其损失函数值最大(排名第1到第4),而5号桶表示每个批次中最简单的数据,其损失函数值最小。
图4:ResNet32在CIFAR-10数据集的一半训练数据上不同数据选择策略的测试集准确率曲线图。NDF策略(即本发明的选择方法)中的超参数τ∈{0.80,0.84,0.88};SPL策略中的超参数分别为S∈{120,150,180};RandDrop策略使用NDFτ=0.84输出的选择数据的比例。图5:NDF策略(即本发明的选择方法)在每一轮中过滤掉的数据数量。与图3类似,将数据按排名值{1,2,…,128}分为5个桶,表示不同困难程度的数据在训练过程中被过滤掉的数量。
图6:RNN在IMDB的一半训练数据上不同数据选择策略的测试集准确率曲线图。NDF策略(即本发明的选择方法)中的超参数τ∈{0.78,0.81,0.84};SPL策略中的超参数分别为S∈{80,100,120};RandDrop策略使用NDFτ=0.78输出的选择数据的比例。图7:NDF策略(即本发明的选择方法)在每一轮中过滤掉的数据数量。与图3类似,将数据按排名值{1,2,…,16}分为5个桶,表示不同困难程度的数据在训练过程中被过滤掉的数量。
本领域普通技术人员可以理解:实现上述实施例方法中的全部或部分流程是可以通过程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random Access Memory,RAM)等。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明披露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求书的保护范围为准。
Claims (6)
1.一种机器学习的数据选择方法,其特征在于,包括以下步骤:
步骤1,选定待选择数据的机器学习模型,并获取该机器学习模型对应的训练数据集;
步骤2,从所述训练数据集中随机选出一个数据子集作为策略训练数据集,通过深度强化学习对所述策略训练数据集应用于所述机器学习模型进行若干轮训练,根据训练结果确定与所述机器学习模型匹配的数据选择策略;
步骤3,通过确定的所述数据选择策略对所述机器学习模型待输入数据按批次进行选择,将选出的数据用于所述机器学习模型的训练。
2.根据权利要求1所述的机器学习的数据选择方法,其特征在于,所述方法的步骤2中,通过深度强化学习对所述策略训练数据集应用于所述机器学习模型进行若干轮训练,根据训练结果确定与所述机器学习模型匹配的数据选择策略为:
步骤21,将策略训练数据集分为两个不相交的策略训练子集和策略验证子集;
步骤22,初始化深度强化学习模型的策略函数;
步骤23,以所述策略训练子集作为训练数据,通过所述深度强化学习模型重复进行若干轮深度强化学习训练;
步骤24,训练完成后得到与所述机器学习模型匹配的深度强化学习模型的策略函数,该策略函数能为所述机器学习模型选择训练数据。
3.根据权利要求2所述的机器学习的数据选择方法,其特征在于,所述方法的步骤23中,每轮深度强化学习训练包括:
步骤231,初始化所述机器学习模型;
步骤232,用所述策略训练子集训练所述机器学习模型,直到所述机器学习模型停止训练;在所述机器学习模型的每步训练过程中,对于每批次数据,根据深度强化学习模型的输出动作,选定该批次数据中的一部分数据作为所述机器学习模型的输入,并使用策略验证子集,计算出该次训练对应的奖励函数值;
步骤233,当所述机器学习模型一轮训练结束后,累计计算所述奖励函数值,更新策略函数。
4.根据权利要求3所述的机器学习的数据选择方法,其特征在于,所述方法的步骤232中,深度强化学习模型的输出动作为:在所述深度强化学习模型的数据选择任务中,对于一个批次中的每个数据,是选择保留该数据还是丢弃该数据的动作。
5.根据权利要求3或4所述的机器学习的数据选择方法,其特征在于,所述方法的步骤232中,深度强化学习模型的输出动作中,包含以下特征中的至少一种:
(1)包含数据的信息的数据特征;
(2)包含反映当前模型训练进度的信息的基本模型特征。
(3)包含当前到达的训练数据对于当前模型的重要性的信息的模型与数据结合的特征。
6.根据权利要求5所述的机器学习的数据选择方法,其特征在于,
所述数据特征中包含数据的信息为:数据的标签类别信息、文本数据句子的长度、文字片段的语法信息、图像数据梯度直方图中的至少一种;
所述基本模型特征中包含反映当前模型训练进度的信息为:当前已训练的批次数量、历史的损失函数的平均值和训练集历史准确率;
所述模型与数据结合的特征中包含当前到达的训练数据对于当前模型的重要性的信息为:模型输出的每一类别的概率、数据的损失函数值和训练数据的间隔值;所述训练数据(x,y)的间隔值的定义为:P(y|x)-maxy′≠yP(y′|x))。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910222007.0A CN109961098B (zh) | 2019-03-22 | 2019-03-22 | 一种机器学习的训练数据选择方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910222007.0A CN109961098B (zh) | 2019-03-22 | 2019-03-22 | 一种机器学习的训练数据选择方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109961098A true CN109961098A (zh) | 2019-07-02 |
CN109961098B CN109961098B (zh) | 2022-03-01 |
Family
ID=67024691
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910222007.0A Active CN109961098B (zh) | 2019-03-22 | 2019-03-22 | 一种机器学习的训练数据选择方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109961098B (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110458243A (zh) * | 2019-08-16 | 2019-11-15 | 北京金山数字娱乐科技有限公司 | 图像识别模型的训练方法及装置、图像识别方法及装置 |
CN111245805A (zh) * | 2020-01-06 | 2020-06-05 | 北京元心科技有限公司 | 一种基于emm生成管控策略的方法、终端设备、服务端及系统 |
CN112070127A (zh) * | 2020-08-21 | 2020-12-11 | 南方电网科学研究院有限责任公司 | 一种基于智能分析的海量数据样本增量分析方法 |
CN112132415A (zh) * | 2020-08-31 | 2020-12-25 | 三盟科技股份有限公司 | 一种精准资助认定方法、系统、计算机设备及存储介质 |
CN112148730A (zh) * | 2020-06-30 | 2020-12-29 | 网络通信与安全紫金山实验室 | 一种使用矩阵广义逆来分批次提取产品数据特征的方法 |
CN113326689A (zh) * | 2020-02-28 | 2021-08-31 | 中国科学院声学研究所 | 一种基于深度强化学习模型的数据清洗方法及装置 |
CN113361625A (zh) * | 2021-06-23 | 2021-09-07 | 中国科学技术大学 | 一种联邦学习场景中带有隐私保护的错误数据检测方法 |
CN113537446A (zh) * | 2020-04-17 | 2021-10-22 | 富泰华工业(深圳)有限公司 | 深度学习算法的选择方法及深度学习算法的选择装置 |
WO2021244583A1 (zh) * | 2020-06-03 | 2021-12-09 | 杭州海康威视数字技术股份有限公司 | 一种数据清洗方法、装置及设备、程序及存储介质 |
JP2022541370A (ja) * | 2020-06-09 | 2022-09-26 | ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド | データ強化ポリシーの更新方法、装置、デバイス及び記憶媒体 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102496061A (zh) * | 2011-11-25 | 2012-06-13 | 河海大学 | 基于主动学习的神经网络样本选择方法及其装置 |
CN104750734A (zh) * | 2013-12-30 | 2015-07-01 | 华为技术有限公司 | 基于线性支持向量机的分类方法及装置 |
US20160034786A1 (en) * | 2014-07-29 | 2016-02-04 | Microsoft Corporation | Computerized machine learning of interesting video sections |
CN107729915A (zh) * | 2017-09-08 | 2018-02-23 | 第四范式(北京)技术有限公司 | 用于确定机器学习样本的重要特征的方法及系统 |
CN109214436A (zh) * | 2018-08-22 | 2019-01-15 | 阿里巴巴集团控股有限公司 | 一种针对目标场景的预测模型训练方法及装置 |
CN109299161A (zh) * | 2018-10-31 | 2019-02-01 | 阿里巴巴集团控股有限公司 | 一种数据选择方法和装置 |
-
2019
- 2019-03-22 CN CN201910222007.0A patent/CN109961098B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102496061A (zh) * | 2011-11-25 | 2012-06-13 | 河海大学 | 基于主动学习的神经网络样本选择方法及其装置 |
CN104750734A (zh) * | 2013-12-30 | 2015-07-01 | 华为技术有限公司 | 基于线性支持向量机的分类方法及装置 |
US20160034786A1 (en) * | 2014-07-29 | 2016-02-04 | Microsoft Corporation | Computerized machine learning of interesting video sections |
CN107729915A (zh) * | 2017-09-08 | 2018-02-23 | 第四范式(北京)技术有限公司 | 用于确定机器学习样本的重要特征的方法及系统 |
CN109214436A (zh) * | 2018-08-22 | 2019-01-15 | 阿里巴巴集团控股有限公司 | 一种针对目标场景的预测模型训练方法及装置 |
CN109299161A (zh) * | 2018-10-31 | 2019-02-01 | 阿里巴巴集团控股有限公司 | 一种数据选择方法和装置 |
Non-Patent Citations (2)
Title |
---|
王蒙: ""机器学习中样本筛选方法的研究与应用"", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
魏洒洒: ""基于随机森林的SVM训练数据选择研究"", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110458243A (zh) * | 2019-08-16 | 2019-11-15 | 北京金山数字娱乐科技有限公司 | 图像识别模型的训练方法及装置、图像识别方法及装置 |
CN110458243B (zh) * | 2019-08-16 | 2022-05-13 | 北京金山数字娱乐科技有限公司 | 图像识别模型的训练方法及装置、图像识别方法及装置 |
CN111245805A (zh) * | 2020-01-06 | 2020-06-05 | 北京元心科技有限公司 | 一种基于emm生成管控策略的方法、终端设备、服务端及系统 |
CN113326689A (zh) * | 2020-02-28 | 2021-08-31 | 中国科学院声学研究所 | 一种基于深度强化学习模型的数据清洗方法及装置 |
CN113326689B (zh) * | 2020-02-28 | 2023-08-18 | 中国科学院声学研究所 | 一种基于深度强化学习模型的数据清洗方法及装置 |
CN113537446A (zh) * | 2020-04-17 | 2021-10-22 | 富泰华工业(深圳)有限公司 | 深度学习算法的选择方法及深度学习算法的选择装置 |
WO2021244583A1 (zh) * | 2020-06-03 | 2021-12-09 | 杭州海康威视数字技术股份有限公司 | 一种数据清洗方法、装置及设备、程序及存储介质 |
JP2022541370A (ja) * | 2020-06-09 | 2022-09-26 | ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド | データ強化ポリシーの更新方法、装置、デバイス及び記憶媒体 |
CN112148730A (zh) * | 2020-06-30 | 2020-12-29 | 网络通信与安全紫金山实验室 | 一种使用矩阵广义逆来分批次提取产品数据特征的方法 |
CN112070127A (zh) * | 2020-08-21 | 2020-12-11 | 南方电网科学研究院有限责任公司 | 一种基于智能分析的海量数据样本增量分析方法 |
CN112132415A (zh) * | 2020-08-31 | 2020-12-25 | 三盟科技股份有限公司 | 一种精准资助认定方法、系统、计算机设备及存储介质 |
CN113361625A (zh) * | 2021-06-23 | 2021-09-07 | 中国科学技术大学 | 一种联邦学习场景中带有隐私保护的错误数据检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109961098B (zh) | 2022-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109961098A (zh) | 一种机器学习的训练数据选择方法 | |
CN108491874B (zh) | 一种基于生成式对抗网络的图像单分类方法 | |
CN108062572A (zh) | 一种基于DdAE深度学习模型的水电机组故障诊断方法与系统 | |
CN106845530A (zh) | 字符检测方法和装置 | |
US20220176248A1 (en) | Information processing method and apparatus, computer readable storage medium, and electronic device | |
WO2021174827A1 (zh) | 文本生成方法、装置、计算机设备及可读存储介质 | |
CN110276442A (zh) | 一种神经网络架构的搜索方法及装置 | |
Käser et al. | When to stop? Towards universal instructional policies | |
CN110059716A (zh) | 一种cnn-lstm-svm网络模型的构建及mooc辍学预测方法 | |
CN108009593A (zh) | 一种迁移学习最优算法选取方法及系统 | |
CN109215344B (zh) | 用于城市道路短时交通流量预测的方法和系统 | |
CN110288878A (zh) | 自适应学习方法及装置 | |
CN110070116A (zh) | 基于深度树状训练策略的分段式选择集成图像分类方法 | |
CN112990385A (zh) | 一种基于半监督变分自编码器的主动众包图像学习方法 | |
CN110162751A (zh) | 文本生成器训练方法和文本生成器训练系统 | |
CN109344968A (zh) | 一种神经网络的超参数处理的方法及装置 | |
CN113591988B (zh) | 知识认知结构分析方法、系统、计算机设备、介质、终端 | |
Yang et al. | Managing non-cooperative behaviors in large-scale group decision making based on trust relationships and confidence levels of decision makers | |
CN111282281A (zh) | 图像处理方法及装置、电子设备和计算机可读存储介质 | |
CN109726404A (zh) | 端到端模型的训练数据增强方法、装置及介质 | |
Kuk et al. | The design of the personal enemy-MIMLebot as an intelligent agent in a game-based learning environment | |
CN112396105A (zh) | 一种基于贝叶斯网络的飞行训练科目智能生成方法 | |
Boschetti et al. | Interactive modelling for natural resource management | |
JP7073171B2 (ja) | 学習装置、学習方法及びプログラム | |
CN114298376A (zh) | 一种基于启发式离散人工蜂群算法的软件项目调度方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |