CN111160522B - 机器学习的抗噪方法、装置及系统 - Google Patents
机器学习的抗噪方法、装置及系统 Download PDFInfo
- Publication number
- CN111160522B CN111160522B CN201911275361.6A CN201911275361A CN111160522B CN 111160522 B CN111160522 B CN 111160522B CN 201911275361 A CN201911275361 A CN 201911275361A CN 111160522 B CN111160522 B CN 111160522B
- Authority
- CN
- China
- Prior art keywords
- function
- training
- parameter
- machine learning
- sample set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000010801 machine learning Methods 0.000 title claims abstract description 181
- 238000000034 method Methods 0.000 title claims abstract description 83
- 230000006870 function Effects 0.000 claims abstract description 396
- 238000012549 training Methods 0.000 claims abstract description 290
- 238000013507 mapping Methods 0.000 claims abstract description 9
- 230000014509 gene expression Effects 0.000 claims description 54
- 238000009826 distribution Methods 0.000 claims description 51
- 238000012360 testing method Methods 0.000 claims description 30
- 230000008859 change Effects 0.000 claims description 27
- 238000003860 storage Methods 0.000 claims description 27
- 230000004044 response Effects 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 10
- 238000010276 construction Methods 0.000 claims description 7
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000010586 diagram Methods 0.000 description 16
- 238000012545 processing Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 6
- 238000013145 classification model Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 4
- 238000003491 array Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000011478 gradient descent method Methods 0.000 description 2
- 230000036039 immunity Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003238 somatosensory effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
- Feedback Control In General (AREA)
Abstract
本发明公开了一种机器学习的抗噪方法、装置及系统,该方法包括:获取对应所述机器学习的选取比例函数,其中,所述选取比例函数反映在所述机器学习的一期训练中,从所述机器学习的训练样本集中选取小损失样本集的选取比例与所述机器学习的训练期数之间的映射关系;根据当前训练期数和所述选取比例函数,获得对应所述当前训练期数的当前选取比例;根据所述当前选取比例,从所述机器学习的训练样本集中选取小损失样本集;以及,利用选取出的小损失样本集进行所述机器学习,获得对应的机器学习模型。
Description
技术领域
本发明涉及机器学习技术领域,更具体地,涉及一种机器学习的抗噪方法、一种机器学习的抗噪装置、及一种包括至少一个计算装置和至少一个存储装置的系统、及一种计算机可读存储介质。
背景技术
随着基于机器学习网络模型的人工智能技术在图像识别、自然语言处理、序列决策等场景中的应用越来越普遍,显著提高应用场景中的操作效率,为人们的生产和生活带来了极大的便利。
而机器学习网络模型的使用,离不开对机器学习网络模型的训练。机器学习网络模型的训练包括调整机器学习网络模型所基于的深度学习网络的参数。而深度学习网络的参数除了网络结构本身的参数之外,还包括一些不属于深度学习网络本身在学习训练过程中所求解的参数,这些参数被称为超参数。
常用的深度学习网络例如R-CNN(Region-Convolutional Neural Networks,区域卷积神经网络)、resnet(Residual Neural Network,残差神经网络)等,超参数通常包括学习率(LearningRate)、批大小(batch size)、网络单元丢弃率(dropout)等,其中,批大小决定了每次训练中,需要从训练样本集中选取的样本的数量,即从训练样本集中选取样本完成一次训练的选取比例决定了该批大小,该选取比例在满足一定条件的情况下,可以基本实现每次从样本集中选取小损失样本进行训练,提高了训练得到的机器学习模型的精确度,进而实现抗噪目的,其中,小损失样本即为不存在标注错误的样本。
目前,对于该选取比例的选择,主要依赖于实施训练机器学习模型的训练人员根据自身的模型训练经验和上述条件来实施,这样的选择方式往往受限于训练人员自身的经验,并不能保证选择的选取比例的有效性。
发明内容
本发明实施例的一个目的是提供一种能够准确确定每期训练中使用的选取小损失样本的选取比例,以提高机器学习抗噪效果的技术方案。
根据本发明的第一方面,提供了一种机器学习的抗噪方法,其包括:
获取对应所述机器学习的选取比例函数,其中,所述选取比例函数反映在所述机器学习的一期训练中,从所述机器学习的训练样本集中选取小损失样本集的选取比例与所述机器学习的训练期数之间的映射关系;
根据当前训练期数和所述选取比例函数,获得对应所述当前训练期数的当前选取比例;
根据所述当前选取比例,从所述机器学习的训练样本集中选取小损失样本集;
利用选取出的小损失样本集进行所述机器学习,获得对应的机器学习模型。
可选地,所述选取比例函数使得所述机器学习模型在所述训练样本集上的损失最小时,在测试样本集上的设定性能达到最优。
可选地,所述方法还包括获得所述选取比例函数的步骤,包括:
根据所述选取比例函数要满足的设定条件,构建所述选取比例函数的含有待确定的常量参数组的函数表达式;
构建所述选取比例函数的收敛条件包括:所述机器学习模型在所述训练样本集上的损失最小时,在测试样本集上的设定性能达到最优;
通过所述训练样本集训练所述常量参数组,获得所述常量参数组中的每一参数在所述选取比例函数满足所述收敛条件时的参数值;
根据所述参数值和所述函数表达式,确定所述选取比例函数。
可选地,所述构建所述选取比例函数的含有待确定的常量参数组的函数表达式包括:
获取选择的各基函数;
设置每一所述基函数在所述各基函数中的权重参数;
根据所述权重参数和所述各基函数,获得所述函数表达式;
其中,所述常量参数组包括所述权重参数和每一所述基函数中的参数。
可选地,所述各基函数包括幂函数、指数函数、对数函数和vapor函数中的至少一种。
可选地,所述幂函数包括以下函数f1(t)和函数f2(t)中的至少一个:
f1(t)=1/(1+bt)a;
其中,a、b为所述函数f1(t)中的参数;a1、b1、a2、b2、m为所述函数f2(t)中的参数。
可选地,所述指数函数包括以下函数f3(t)和函数f4(t)中的至少一个:
其中,a、b为所述函数f3(t)中的参数;a1、b1、a2、b2、m为所述函数f4(t)中的参数。
可选地,所述对数函数包括以下函数f5(t):
f5(t)=log(b)/log(at+b);
其中,a、b为所述函数f5(t)中的参数。
可选地,所述vapor函数包括以下函数f6(t):
其中,a、b、m为所述函数f6(t)中的参数。
可选地,所述函数表达式R(t)为:
其中,所述fi(t)为第i个基函数的表达式,所述λi为第i个基函数的权重,所述λi大于或者等于0,k为基函数的数量。
可选地,所述通过所述训练样本集训练所述常量参数组包括:
在当前次迭代训练中,基于所述收敛条件的自然梯度确定所述常量参数组需要满足的概率分布的变化矢量;
根据所述变化矢量,获得对应下一次迭代训练的概率分布;
根据所述下一次迭代训练的概率分布,选取对应下一次迭代训练的所述常量参数组的参数值。
可选地,所述基于所述收敛条件的自然梯度下降确定所述常量参数组需要满足的概率分布的变化矢量包括:
基于对应当前次迭代训练的所述常量参数组α的参数值,选取在所述当前次迭代训练中使用的训练样本集;
获取通过选取出的训练样本集进行所述机器学习获得的、使得所述机器学习模型在所述选取出的训练样本集上的损失最小的模型参数ω的参数值ω*(α);
获取在所述模型参数ω的取值为ω*(α)时,对应的机器学习模型在测试样本集上对于所述设定性能的评分值/>
获取所述评分值在对应所述当前次迭代训练的概率分布下的期望值/>其中,所述θm为所述概率分布/>的参数θ的参数值;
获取所述概率分布的Fisher矩阵H(θm);
根据所述H(θm)和所述按照如下公式获得所述变化矢量:
其中,所述θm+1为所述对应下一次迭代训练的概率分布的参数θ的参数值。
可选地,所述方法还包括:
响应于选取基函数的操作,提供设置接口;
获取通过所述设置接口输入的基函数信息;
根据所述基函数信息生成所述各基函数。
可选地,所述获取对应所述机器学习的选取比例函数包括:
获取所述机器学习的目标应用场景;
根据所述目标应用场景,查找对应的选取比例函数。
可选地,所述方法还包括:
根据所述机器学习的目标应用场景,获得与所述目标应用场景相匹配的训练样本集;
所述从所述机器学习的训练样本集中选取小损失样本集包括:
从与所述目标应用场景相匹配的训练样本集中选取小损失样本集。
可选地,所述方法还包括:
响应于确定应用场景的操作,提供输入接口;
获取通过所述输入接口输入的应用场景,作为所述目标应用场景。
可选地,所述目标应用场景为图像识别场景、语音识别场景或者文本识别场景。
根据本发明的第二方面,还提供了一种机器学习的抗噪装置,其包括:
数据获取模块,用于获取对应所述机器学习的选取比例函数,其中,所述选取比例函数反映在所述机器学习的一期训练中,从所述机器学习的训练样本集中选取小损失样本集的选取比例与所述机器学习的训练期数之间的映射关系;
比例确定模块,用于根据当前训练期数和所述选取比例函数,获得对应所述当前训练期数的当前选取比例;
样本选取模块,用于根据所述当前选取比例,从所述机器学习的训练样本集中选取小损失样本集;以及,
模型训练模块,用于利用选取出的小损失样本集进行所述机器学习,获得对应的机器学习模型。
可选地,所述选取比例函数使得所述机器学习模型在所述训练样本集上的损失最小时,在测试样本集上的设定性能达到最优。
可选地,所述抗噪装置还包括函数生成模块,所述函数生成模块用于获得所述选取比例函数,所述函数生成模块在获得所述选取比例函数时,用于:
根据所述选取比例函数要满足的设定条件,构建所述选取比例函数的含有待确定的常量参数组的函数表达式;
构建所述选取比例函数的收敛条件包括:所述机器学习模型在所述训练样本集上的损失最小时,在测试样本集上的设定性能达到最优;
通过所述训练样本集训练所述常量参数组,获得所述常量参数组中的每一参数在所述选取比例函数满足所述收敛条件时的参数值;以及,
根据所述参数值和所述函数表达式,确定所述选取比例函数。
可选地,所述函数生成模块在构建所述选取比例函数的含有待确定的常量参数组的函数表达式时,用于:
获取选择的各基函数;
设置每一所述基函数在所述各基函数中的权重参数;
根据所述权重参数和所述各基函数,获得所述函数表达式;以及,
其中,所述常量参数组包括所述权重参数和每一所述基函数中的参数。
可选地,所述各基函数包括幂函数、指数函数、对数函数和vapor函数中的至少一种。
可选地,所述幂函数包括以下函数f1(t)和函数f2(t)中的至少一个:
f1(t)=1/(1+bt)a;
其中,a、b为所述函数f1(t)中的参数;a1、b1、a2、b2、m为所述函数f2(t)中的参数。
可选地,所述指数函数包括以下函数f3(t)和函数f4(t)中的至少一个:
其中,a、b为所述函数f3(t)中的参数;a1、b1、a2、b2、m为所述函数f4(t)中的参数。
可选地,所述对数函数包括以下函数f5(t):
f5(t)=log(b)/log(at+b);
其中,a、b为所述函数f5(t)中的参数。
可选地,所述vapor函数包括以下函数f6(t):
其中,a、b、m为所述函数f6(t)中的参数。
可选地,所述函数表达式R(t)为:
其中,所述fi(t)为第i个基函数的表达式,所述λi为第i个基函数的权重,所述λi大于或者等于0,k为基函数的数量。
可选地,所述函数生成模块在通过所述训练样本集训练所述常量参数组时,用于:
在当前次迭代训练中,基于所述收敛条件的自然梯度确定所述常量参数组需要满足的概率分布的变化矢量;
根据所述变化矢量,获得对应下一次迭代训练的概率分布;以及,
根据所述下一次迭代训练的概率分布,选取对应下一次迭代训练的所述常量参数组的参数值。
可选地,所述函数生成模块在基于所述收敛条件的自然梯度确定所述常量参数组需要满足的概率分布的变化矢量时,用于:
基于对应当前次迭代训练的所述常量参数组α的参数值,选取在所述当前次迭代训练中使用的训练样本集;
获取通过选取出的训练样本集进行所述机器学习获得的、使得所述机器学习模型在所述选取出的训练样本集上的损失最小的模型参数ω的参数值ω*(α);
获取在所述模型参数ω的取值为ω*(α)时,对应的机器学习模型在测试样本集上对于所述设定性能的评分值/>
获取所述评分值在对应所述当前次迭代训练的概率分布下的期望值/>其中,所述θm为所述概率分布/>的参数θ的参数值;
获取所述概率分布的Fisher矩阵H(θm);以及,
根据所述H(θm)和所述按照如下公式获得所述变化矢量:
其中,所述θm+1为所述对应下一次迭代训练的概率分布的参数θ的参数值。
可选地,所述抗噪装置还包括设置模块,所述设置模块用于:
响应于选取基函数的操作,提供设置接口;
获取通过所述设置接口输入的基函数信息;
根据所述基函数信息生成所述各基函数。
可选地,所述数据获取模块在获取对应所述机器学习的选取比例函数时,用于:
获取所述机器学习的目标应用场景;以及,
根据所述目标应用场景,查找对应的选取比例函数。
可选地,所述抗噪装置还包括样本集查找模块,所述样本集查找模块用于:根据所述机器学习的目标应用场景,获得与所述目标应用场景相匹配的训练样本集;
所述样本选取模块在从所述机器学习的训练样本集中选取小损失样本集时,用于:从与所述目标应用场景相匹配的训练样本集中选取小损失样本集。
可选地,所述抗噪装置还包括设置模块,所述设置模块用于:
响应于确定应用场景的操作,提供输入接口;以及,
获取通过所述输入接口输入的应用场景,作为所述目标应用场景。
可选地,所述目标应用场景为图像识别场景、语音识别场景或者文本识别场景。
根据本发明的第三方面,还提供了一种包括至少一个计算装置和至少一个存储装置的系统,其中,所述至少一个存储装置用于存储指令,所述指令用于控制所述至少一个计算装置执行根据本发明的第一方面所述的抗噪方法。
根据本发明的第四方面,还提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序在被处理器执行时实现根据本发明的第一方面所述的抗噪方法。
本发明实施例的一个有益效果在于,根据设置的选取比例函数,在每期机器学习中自动选取对应当前训练期数的选取小损失样本的选取比例,而不再依赖于训练人员的经验进行选取,降低了人为因素对于机器学习的抗噪效果的影响,提高了抗噪的有效性。
通过以下参照附图对本发明的示例性实施例的详细描述,本发明的其它特征及其优点将会变得清楚。
附图说明
被结合在说明书中并构成说明书的一部分的附图示出了本发明的实施例,并且连同其说明一起用于解释本发明的原理。
图1示出了可用于实现本发明实施例的一种可选的电子设备的硬件结构的原理框图;
图2是根据一个实施例的机器学习的抗噪方法的流程示意图;
图3是根据一个实施例的选取比例函数的目标曲线形状;
图4是根据一个实施例的获得选取比例函数的流程示意图;
图5是根据一个实施例的机器学习的抗噪装置的原理框图。
具体实施方式
现在将参照附图来详细描述本发明的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本发明的范围。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本发明及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
在这里示出和讨论的所有例子中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它例子可以具有不同的值。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
近年来,在从图像处理到语音识别,从语言建模到推荐系统等众多任务中,使用深层神经网络进行学习取得了巨大的成功。然而,它们的成功在很大程度上依赖于训练样本具有准确的标签。相反,我们在实践中面临的是从众包平台收集或从互联网上爬行的大型数据集,这些数据集包含许多不准确的训练样本,即,这些训练样本的标签不准确,已被损坏。此外,由于深度网络的巨大学习能力,它们最终会在这些损坏的标签上过度过滤,导致预测性能差,这可能比从简单模型获得的结果更差。
为了减少损坏标签的负面影响,本实施例在机器学习的每一期(Epoch)的每次训练(Iteration)中,从训练样本集中选取较小比例的训练样本参与本次训练,且该选取比例会随着训练期数的进行而发生变化,即每期训练可能会对应不同的选取比例,以达到通过小损失样本完成每次训练的目的,进而提升最终获得的机器学习模型的准确性。
本实施例中,完成所需的机器学习分为N期,或者称之为N代,N为大于1的自然数,每期训练被设置为使用训练样本集中的全部样本对模型进行一次完整的训练,而每一期又可包括多次训练,每次训练将从训练样本集中选取较小比例的训练样本参与本次训练,其中,每次训练选取的训练样本的数量称为批大小Batch,Batch由选取比例决定,每一期包括的训练次数与该期的批大小Batch相关,即与该期的选取比例相关,例如,训练样本集具有50000个样本,第五期训练的选取比例为1/196,则,在第五期训练中,批大小Batch为256个样本,这说明,每五期需要进行196次训练,以使用训练样本集中的全部样本对模型进行一次完整的训练。本实施例的方法即提出了一种在机器学习的每期训练中,自动确定与当前训练期数相对应的选取比例、以实现有效降噪的方法。
本实施例中的机器学习可以是图像识别(例如图像分类等)场景中的机器学习,即,通过该机器学习获得的机器学习模型用于进行图像识别;也可以是语音识别场景中的机器学习,即,通过该机器学习获得的机器学习模型用于进行语音识别;也可以是文本识别场景中的机器学习,即,通过该机器学习获得的机器学习模型用于进行文本识别;还可以是点击率预估(CTR)场景中的机器学习等,即,通过该机器学习获得的机器学习模型用于进行预估对于任意对象的点击率,以进行对象推荐等,该对象可以是商品、视频、广告等任意待推荐的对象,在此不做限定。
本实施例中,不同场景的机器学习,具有不同的训练样本集,例如,对于图像识别场景中的机器学习,其使用的训练样本集中的样本为图像样本等。
<硬件配置>
本发明实施例的方法可以由至少一台电子设备实施。图1示出了任意电子设备的一种可能的硬件结构。图1所示的电子设备可以是便携式电脑、台式计算机、手机、平板电脑等,也可以是任意的具有处理器等计算装置和存储器等存储装置的其他设备,例如,还可以是服务器等设置,在此不做限定。
如图1所示,该电子设备1000可以包括处理器1100、存储器1200、接口装置1300、通信装置1400、显示装置1500、输入装置1600、扬声器1700、麦克风1800等等。其中,处理器1100用于执行计算机程序。该计算机程序可以采用比如x86、Arm、RISC、MIPS、SSE等架构的指令集编写。存储器1200例如包括ROM(只读存储器)、RAM(随机存取存储器)、诸如硬盘的非易失性存储器等。接口装置1300例如包括USB接口、耳机接口等。通信装置1400例如能够进行有线或无线通信,具体地可以包括Wifi通信、蓝牙通信、2G/3G/4G/5G通信等。显示装置1500例如是液晶显示屏、触摸显示屏等。输入装置1600例如可以包括触摸屏、键盘、体感输入等。电子设备1000可以通过扬声器1700输出语音信息,及可以通过麦克风1800采集语音信息等。
图1所示的电子设备仅仅是说明性的并且决不意味着对本发明、其应用或使用的任何限制。应用于本发明的实施例中,电子设备1000的所述存储器1200用于存储指令,所述指令用于控制所述处理器1100进行操作以执行本发明任意实施例的抗噪方法。技术人员可以根据本发明所公开方案设计指令。指令如何控制处理器进行操作,这是本领域公知,故在此不再详细描述。
在另外的实施例中,该电子设备1000也可以包括根据本发明任意实施例的抗噪装置,其中,该装置被设置为执行根据本发明任意实施例的抗噪方法。
在一个实施例中,还提供了一种包括至少一个计算装置和至少一个存储装置的系统,该至少一个存储装置用于存储指令,该指令用于控制该至少一个计算装置执行根据本发明任意实施例的抗噪方法。
该系统可以包括至少一个如图1所示的电子设备1000,以提供至少一个例如是处理器的计算装置和至少一个例如是存储器的存储装置,在此不做限定。
<方法实施例>
图2是根据一个实施例的机器学习的抗噪方法的流程示意图。本实施例中,该方法可以由图1所示的电子设备1000实施,也可以由其他设备实施,在此不做限定。
如图2所示,本实施例中,该抗噪方法可以包括如下步骤S2100~S2400:
步骤S2100,获取对应所要进行的机器学习的选取比例函数,其中,该选取比例函数反映在该机器学习的一期训练中,从机器学习的训练样本集中选取小损失样本集的选取比例与机器学习的训练期数之间的映射关系。
该选取比例函数例如用R(t)表示,t为自变量,代表该机器学习的训练期数,取值为从1到N的自然数,其中,N为该机器学习的总训练期数,R(t)为因变量,代表选取比例。根据该选取比例函数,对应第一期训练的选取比例为R(1),对应第二期训练的选取比例为R(2),以此类推,对应第N期训练的选取比例为R(N)。
本实施例中,该机器学习对应的目标应用场景可以是图像识别场景、语音识别场景、文本识别场景或者CTR预估场景等。
本实施例中,不同的目标应用场景具有不同的样本集,该样本集包括按照一定比例划分出的训练样本集和测试样本集,其中,训练样本集用于进行机器学习模型的训练,而测试样本集则用于测试训练得到的机器学习模型的效果。例如,在目标应用场景为图像识别场景的情况下,对应该目标应用场景的样本集包括具有标签的图像样本;又例如,在目标应用场景为语音识别场景的情况下,对应该目标应用场景的样本集包括具有标签的语音样本等。
在一个实施例中,不同的目标应用场景可以对应不同的选取比例函数,可以使得应用本实施例的方法的设备或者系统能够更好地适应不同的应用场景,且在各种应用场景中均具有优异的降噪表现。
该实施例中,该步骤S2100中获取机器学习的选取比例函数可以包括:获取该机器学习的目标应用场景;以及,根据该目标应用场景,查找对应的选取比例函数。
该实施例中,例如可以在本地存储反映应用场景与选取比例函数间的映射关系的对照表,这样,便可以在对照表中查找对应目标应用场景的选取比例函数,进行该目标应用场景下的机器学习。
在一个实施例中,可以允许用户通过人机交互接口指定机器学习对应的目标应用场景,实现目标应用场景的灵活设置。该实施例中,该方法还可以包括:响应于确定应用场景的操作,提供输入接口;以及,获取通过该输入接口输入的应用场景,作为该目标应用场景。
该实施例中,输入接口可以是输入框、勾选项、下拉列表等各种形式的输入接口,以供用户输入所期望的应用场景。
该实施例中,在用户输入应用场景后,可以触发确认所输入的应用场景的操作,例如,点击确认按键等,这样,上述获取通过该输入接口输入的应用场景的步骤可以包括:响应于确认所输入的应用场景的操作,获取通过该输入接口输入的应用场景,作为目标应用场景。
在一个实施例中,该选取比例函数满足以下基本条件:1)最初的选取比例为1,即,第一期训练中的选取比例为1;2)选取比例R(t)随着训练期数的进行,先下降,再上升;或者,先下降,之后保持不变;或者,先下降,再上升,然后保持不变。该实施例中,该选取比例函数R(t)的曲线形状例如如图3所示。通过测试样本集测试,满足该基本条件的选取比例函数,在提高机器学习的抗噪性方面具有更为优异的表现。
在一个实施例中,该选取比例函数R(t)使得所机器学习模型在所述训练样本集上的损失最小时,在测试样本集上的设定性能达到最优。
该设定性能可以是通过评价机器学习模型的性能的任意评价指标表示,该评价指标例如可以包括模型评估指标AUC,精确率、召回率、准确率、及基于以上任意指标或者任意指标组合的模型评分中的至少一项等。
AUC是机器学习领域中常用的一种模型评估指标,指对应模型的受试者工作特征曲线(Receiver Operating Characteristic,ROC)下的面积,通常情况下,AUC越高,模型性能越高。精确率Precision为提取出的正确信息条数与提取出的信息条数的比值。召回率Recall指提取出的正确信息条数与样本中的信息条数的比值。准确率Accuracy指预测正确的信息条数与样本中的信息条数的比值。
该实施例中,可以限定该选取比例函数R(t)满足使得所机器学习模型在所述训练样本集上的损失最小时,在测试样本集上的设定性能达到最优的搜索条件,即,该实施例中,满足该搜索条件的选取比例函数R(t),可以使得基于该选取比例函数R(t)进行的机器学习具有最优的抗噪效果,进而获得在该设定性能方面达到最优的机器学习模型。该实施例中,基于所要进行的机器学习的训练样本集和测试样本集,确定该选取比例函数R(t),将使得基于该选取比例函数R(t)进行该机器学习所获得的机器学习模型具有更高的适配度。
在一个实施例中,可以设定基本满足上述基本条件的函数表达式,该函数表达式具有待确定的参数,进而将该选取比例函数R(t)构造为一个带有未知参数的选取比例模型,通过用于机器学习的训练样本集训练该选取比例模型,即,训练该选取比例模型的参数,并通过用于该机器学习的测试样本集测试训练得到的选取比例模型,有利于以较快的速度搜索到满足上述搜索条件的选取比例函数R(t),完成在搜索空间中的快速搜索。
该实施例中,如果将设定该函数表达式的所有待确定的参数(这些待确定的参数构成选取比例模型的常量参数组)统一记为α,A为α的搜索空间,该搜索空间由α中每一参数的取值范围确定,则训练得到的该选取比例函数R(t)的α的一组最优取值α*将满足如下关系:
该公式(1)中,ω为机器学习模型的待定参数,F(ω;α)为机器学习模型在训练样本集上的损失(loss),ω*(α)为基于该α训练得到的使得F(ω;α)最小的ω的取值,表示干净的测试样本集,/>为ω取值为ω*(α)时,所确定的机器学习模型在测试样本集上对于设定性能的评分值。
步骤S2200,根据当前训练期数和选取比例函数,获得对应当前训练期数的当前选取比例。
该实施例中,由于选取比例函数R(t)反映了从机器学习的训练样本集中选取小损失样本集的选取比例与机器学习的训练期数之间的映射关系,因此,随着训练的进行,可以根据该选取比例函数,确定对应每一期训练的选取比例,作为对应当前训练期数的当前选取比例。
步骤S2300,根据该当前选取比例,从机器学习的训练样本集中选取小损失样本集。
在当前训练期数的每一次训练中,可以根据该当前选取比例从训练样本集中选取进行当前次训练的小损失样本集,其中,同一期的各次训练中,该选取比例相同,不同期的训练中,该选取比例可能不同。例如,在第一期训练中,选取比例R(1)等于1,则第一期需要进行一次训练,此次训练将选取全部的训练样本集进行训练。又例如,在第二期训练中,选取比例R(2)小于1,则第二期至少需要进行两次训练,每次训练按照R(2)从训练样本集中选取部分训练样本进行当前次的训练等。
步骤S2400,利用选取出的小损失样本集进行机器学习,获得对应的机器学习模型。
本实施例中,在当前期的每次训练中,通过步骤S2300选取当前次训练的小损失样本集,并通过步骤S2400完成本次训练,以进行机器学习模型的更新。这样,在完成所有期的所有训练后,便可获得最终的机器学习模型。
根据以上步骤S2100~S2200可知,本实施例的方法设置了一个选取比例函数,通过该选取比例函数在机器学习中自动调整每期从训练样本集中选取小损失样本的比例,以在机器学习中降低标签损坏的样本对于训练结果的影响,提高机器学习的抗噪能力。
根据以上步骤S2100~S2200可知,本实施例的方法通过选取比例函数在机器学习的各期训练中自动调整该选取比例,而无需不同的用户凭各自的经验设定,降低了人为因素对抗噪性能的影响。
在一个实施例中,为了能够以较快的速度在上述搜索空间A中搜索满足上述搜索条件的α*,可以通过另一机器学习训练得到该选取比例函数的确定表达式。该实施例中,如图4所示,该方法还可以包括获得上述步骤S2100中使用的选取比例函数的步骤,这可以包括如下步骤S4100~S4400:
步骤S4100,根据选取比例函数要满足的设定条件,构建选取比例函数的含有待确定的常量参数组的函数表达式。
该设定条件例如是上述基本条件等。
该步骤S4100中,可以根据该设定条件,构建基本满足该设定条件的函数表达式,该函数表达式的所有待确定的常量参数组即构成上述α。
在一个实施例中,可以通过至少部分满足该设定条件的两个以上的基函数来构建该函数表达式,以提高构建效率。该实施例中,该步骤S4100中构建选取比例函数的含有待确定的常量参数组的函数表达式,可以包括:获取选择的各基函数;设置每一基函数在各基函数中的权重参数;根据权重参数和各基函数,获得该函数表达式。
该实施例中,该常量参数组即包括上述每一基函数的权重参数和每一基函数中的参数。
该实施例中,该函数表达式R(t)可以表示为如下公式(2):
该公式(2)中,fi(t)为第i个基函数的表达式,λi为第i个基函数的权重参数,λi大于或者等于0,k为构建该函数表达式R(t)时使用的基函数的数量。
在一个实施例中,以上各基函数可以包括幂函数、指数函数、对数函数和蒸气压(vapor)函数中的至少一种。
在一个实施例中,各基函数中,幂函数可以包括以下函数f1(t)和函数f2(t)中的至少一个:
f1(t)=1/(1+bt)a;
其中,a、b为函数f1(t)中的参数;a1、b1、a2、b2、m为函数f2(t)中的参数,在各基函数包括函数f1(t)和/或函数f2(t)的情况下,常量参数组除了包含对应函数对应的权重参数,还包括对应函数中的参数。
在一个实施例中,各基函数中,指数函数可以包括以下函数f3(t)和函数f4(t)中的至少一个:
其中,a、b为函数f3(t)中的参数;a1、b1、a2、b2、m为函数f4(t)中的参数。
在一个实施例中,各基函数中,对数函数可以包括以下函数f5(t):
f5(t)=log(b)/log(at+b);
其中,a、b为所述函数f5(t)中的参数。
在一个实施例中,各基函数中,vapor函数可以包括以下函数f6(t):
其中,a、b、m为所述函数f6(t)中的参数。
在采用以上函数f1(t)~f6(t)构建选取比例函数R(t)的函数表达式时,以上公式(2)中的K的取值为6。
步骤S4200,构建该选取比例函数的收敛条件包括:基于该选取比例函数训练得到的机器学习模型在训练样本集上的损失最小时,在测试样本集上的设定性能达到最优。
本实施例中,可以将上述搜索条件设置成为训练α的收敛条件,训练该函数表达式的常量参数组α时,满足该收敛条件,则训练该常量参数组的过程结束,并基于最后一次训练获得的常量参数组的参数取值,获得最终的选取比例函数。
本实施例中,可以根据该收敛条件,在每次训练结束后,基于梯度下降法确定常量参数组中各参数的变化矢量(包括变化方向及变化步距),例如,基于自然梯度下降法,进而获得各参数在进行下次训练时的取值。
本实施例中,也可以基于训练迭代中使用的其他方式确定该变化矢量,在此不做限定。
步骤S4300,通过训练样本集训练该常量参数组,获得该常量参数组中的每一参数在选取比例函数满足该收敛条件时的参数值。
该步骤S4300为在搜索空间A中搜索满足上述搜索条件的α*,其中,该常量参数组中的每一参数在选取比例函数满足该收敛条件时的参数值即构成α*。
由于常量参数组中各参数的变化矢量取决于较多的因素,而该变化矢量的准确度直接决定了训练得到选取比例函数的收敛速度,因此,在一个实施例中,该方法通过确定常量参数组中各参数满足的概率分布的变化矢量,进行各参数取值在每次训练中的更新,即,优化α在某一概率分布pθ(α)下的的期望值,而并非优化/>本身。这可以在不考虑各种复杂因素的情况下,达到快速收敛的效果。
该实施例中,该步骤S4300中训练样本集训练该常量参数组可以包括如下步骤S4310~S4330:
步骤S4310,在当前次迭代训练中,基于上述收敛条件的自然梯度下降确定常量参数组需要满足的概率分布的变化矢量。
该步骤S4310中基于上述收敛条件的自然梯度下降确定常量参数组需要满足的概率分布的变化矢量可以包括如下步骤S4311~S4316:
步骤S4311,基于对应当前次迭代训练的常量参数组α的参数值,选取在当前次迭代训练中使用的训练样本集。
在步骤S4311中,可以基于对应当前次迭代训练的常量参数组α的参数值,确定对应的选取比例函数,并基于该对应的选取比例函数选取在当前迭代训练中使用的训练样本集。
步骤S4312,获取通过选取出的训练样本集进行机器学习获得的、使得上述机器学习模型在选取出的训练样本集上的损失最小的模型参数ω的参数值ω*(α)。
该模型参数ω为所述机器学习模型的参数。
步骤S4313,获取在该模型参数ω的取值为ω*(α)时,对应的机器学习模型在测试样本集上对于上述设定性能的评分值/>
步骤S4314,获取该指标值在对应当前次迭代训练的概率分布下的期望值/>其中,θm为该概率分布/>的参数θ的参数值。
步骤S4315,获取该概率分布的Fisher矩阵H(θm)。
步骤S4316,根据以上H(θm)和以上按照如下公式(3)获得该变化矢量。
其中,θm+1为对应下一次迭代训练的概率分布的参数θ的参数值,即,/>构成该变化矢量,H-1(θm)为H(θm)的逆矩阵,ρ为常量系数。
步骤S4320,根据该变化矢量,获得对应下一次迭代训练的概率分布。
该步骤S4320中,根据以上公式(3)可以确定θm+1,进而确定对应下一次迭代训练的概率分布。
该实施例中,可以在每一次迭代训练中,根据当前的概率分布pθ(α)中选取若干个α的取值,然后通过所确定的选取比例函数选取小损失样本,进行以上步骤S2400中的机器学习,得到对应的机器学习模型,并通过测试样本集获得这些机器学习模型在设定性能上的评分值。然后利用以上公式(3)更新概率分布的参数θ,进而获得对应下一次迭代训练的概率分布,以根据下一次迭代训练的概率分布再选取若干个α的取值,进行下一次迭代训练。
步骤S4330,根据该下一次迭代训练的概率分布,选取对应下一次迭代训练的常量参数组的参数值。
在该步骤S4330后,将根据步骤S4330选取出的参数值进行下一次迭代训练。
根据以上步骤S4310~S4330,可以经过多次迭代训练,便可获得满足所设定的收敛条件的α*。该实施例的方法中,基于自然梯度优化α满足的概率分布,可以加快收敛速度,有利于快速确定该机器学习中使用的选取比例函数。
在确定了该机器学习中使用的选取比例函数后,对于在后的相同应用场景的另一机器学习,可以在该另一机器学习中,直接使用之前得到的选取比例函数选取小损失样本进行该另一机器学习,以获得对应的机器学习模型,进而提高机器学习的效率。
步骤S4400,根据步骤S4300确定的各参数值和步骤S4100构建的函数表达式,确定最终的选取比例函数。
在采用以上函数f1(t)~f6(t)构建选取比例函数R(t)的函数表达式时,通过步骤S4300可以确定λi的取值及fi(t)中各参数的取值,进而可以确定最终的选取比例函数,以能够根据该选取比例函数确定每期训练中使用的选取比例。
根据以上步骤S4100~S4400可知,本实施例的方法预先设定基本符合设定条件的选取比例模型的函数表达式,并利用机器学习的训练样本集进行迭代训练,以确定该函数表达式中的待确定常数参数组中各参数的参数值,这可以提高在上述搜索空间A中搜索到满足上述搜索条件的α*,提高确定选取比例模型的效率。
在一个实施例中,不同应用场景的机器学习可以使用不同的基函数来确定以上函数表达式,该实施例中,可以允许用户通过人机交互接口设置所希望使用的基函数,提高构建该函数表达式的灵活性和可操作性。
该实施例中,该方法还可以包括:响应于选取基函数的操作,提供设置接口;获取通过所述设置接口输入的基函数信息;以及,根据所述基函数信息生成各基函数。
该基函数信息可以是能够确定对应的函数表达式的任何类型的信息,例如可以包括函数类型和参数设置,也可以包括基函数的表达式,还可以是代表某一特定的基函数的编码,执行本实施例方法的电子设备可以根据该编码确定相映射的基函数,在此不做限定。
该设置接口可以是输入框、勾选项或者下拉列表等形式的接口,在此不做限定。
在一个实施例中,该方法还可以在执行上述步骤S2100之前,执行以下步骤,包括:根据机器学习的目标应用场景,获得与该目标应用场景相匹配的训练样本集。
该实施例中,上述步骤S2300中从所述机器学习的训练样本集中选取小损失样本集,可以包括:从与目标应用场景相匹配的训练样本集中选取小损失样本集。
以目标应用场景为图像识别场景为例,对应的训练样本集中的样本则为图像样本。
该实施例中,可以设置训练样本数据库,该数据库具有对应不同应用场景的训练样本集,每一训练样本集以对应的应用场景命名,以方便根据名称索引进行搜索。
该实施例中,选取与目标应用场景相匹配的训练样本集,可以使得训练得到的机器学习模型在该目标应用场景中具有更优良的表现。
在一个实施例中,可以将通过本发明任意实施例的方法获得的最终的机器学习模型应用在对应的应用场景中,提供识别、预测等服务。
例如,该应用场景为图像分类场景,首先可以图像样本集获得满足上述搜索条件的选取比例函数;然后,在获得图像分类模型的机器学习过程中,通过该选取比例函数确定在每期训练中,从该图像样本集的训练样本集中选取小损失样本进行当前次训练的选取比例,并根据该选取比例完成各期的训练,最终获得图像分类模型;之后,便可以基于该图像分类模型对目标图像进行处理,以获得该目标图像的分类结果。
在进行目标图像的处理过程中,该图像分类模型相当于一个分类器,通过该图像分类模型扫描该目标图像,便可以识别该目标图像包含的图像内容的类型,进而提供相应的分类结果。
在其他的应用场景中,应用对应的机器学习模型进行识别或者预测的方式与上述图像分类场景类似,在此不再赘述。
<装置实施例>
图5是根据一个实施例的机器学习的抗噪装置的结构原理框图。该实施例中,如图5所示,该抗噪装置5000可以包括数据获取模块5100、比例确定模块5200、样本选取模块5300和模型训练模块5400。
该数据获取模块5100用于获取对应所述机器学习的选取比例函数,其中,该选取比例函数反映在所述机器学习的一期训练中,从机器学习的训练样本集中选取小损失样本集的选取比例与所述机器学习的训练期数之间的映射关系。
该比例确定模块5200用于根据当前训练期数和选取比例函数,获得对应当前训练期数的当前选取比例。
该样本选取模块5300用于根据当前选取比例,从机器学习的训练样本集中选取小损失样本集。
该模型训练模块5400用于利用选取出的小损失样本集进行机器学习,获得对应的机器学习模型。
在一个实施例中,上述选取比例函数使得该机器学习模型在训练样本集上的损失最小时,在测试样本集上的设定性能达到最优。
在一个实施例中,该抗噪装置还包括函数生成模块,该函数生成模块用于获得选取比例函数,该函数生成模块在获得选取比例函数时,可以用于:根据选取比例函数要满足的设定条件,构建选取比例函数的含有待确定的常量参数组的函数表达式;构建选取比例函数的收敛条件包括:机器学习模型在训练样本集上的损失最小时,在测试样本集上的设定性能达到最优;通过训练样本集训练所述常量参数组,获得常量参数组中的每一参数在选取比例函数满足所述收敛条件时的参数值;以及,根据获得的参数值和函数表达式,确定选取比例函数。
在一个实施例中,该函数生成模块在构建选取比例函数的含有待确定的常量参数组的函数表达式时,可以用于:获取选择的各基函数;设置每一所述基函数在各基函数中的权重参数;以及,根据权重参数和各基函数,获得函数表达式;其中,常量参数组包括权重参数和每一基函数中的参数。
在一个实施例中,该函数表达式R(t)为:
其中,所述fi(t)为第i个基函数的表达式,所述λi为第i个基函数的权重,且λi大于或者等于0,k为基函数的数量。
在一个实施例中,各基函数包括幂函数、指数函数、对数函数和vapor函数中的至少一种。
在一个实施例中,幂函数包括以下函数f1(t)和函数f2(t)中的至少一个:
f1(t)=1/(1+bt)a;
其中,a、b为所述函数f1(t)中的参数;a1、b1、a2、b2、m为所述函数f2(t)中的参数。
在一个实施例中,指数函数包括以下函数f3(t)和函数f4(t)中的至少一个:
其中,a、b为所述函数f3(t)中的参数;a1、b1、a2、b2、m为所述函数f4(t)中的参数。
在一个实施例中,该对数函数包括以下函数f5(t):
f5(t)=log(b)/log(at+b);
其中,a、b为所述函数f5(t)中的参数。
在一个实施例中,该vapor函数包括以下函数f6(t):
其中,a、b、m为所述函数f6(t)中的参数。
在一个实施例中,该函数生成模块在通过训练样本集训练常量参数组时,可以用于:在当前次迭代训练中,基于所述收敛条件的自然梯度确定所述常量参数组需要满足的概率分布的变化矢量;根据所述变化矢量,获得对应下一次迭代训练的概率分布;以及,根据所述下一次迭代训练的概率分布,选取对应下一次迭代训练的所述常量参数组的参数值。
在一个实施例中,该函数生成模块在基于所述收敛条件的自然梯度确定所述常量参数组需要满足的概率分布的变化矢量时,可以用于:基于对应当前次迭代训练的所述常量参数组α的参数值,选取在所述当前次迭代训练中使用的训练样本集;获取通过选取出的训练样本集进行所述机器学习获得的、使得所述机器学习模型在所述选取出的训练样本集上的损失最小的模型参数ω的参数值ω*(α);获取在所述模型参数ω的取值为ω*(α)时,对应的机器学习模型在测试样本集上对于所述设定性能的评分值/>获取所述评分值/>在对应所述当前次迭代训练的概率分布/>下的期望值/>其中,所述θm为所述概率分布/>的参数θ的参数值;获取所述概率分布的Fisher矩阵H(θm);以及,根据所述H(θm)和所述/>按照如下公式获得所述变化矢量:
其中,所述θm+1为所述对应下一次迭代训练的概率分布的参数θ的参数值。
在一个实施例中,该抗噪装置5000还可以包括设置模块,该设置模块可以用于:响应于选取基函数的操作,提供设置接口;获取通过该设置接口输入的基函数信息;以及,根据基函数信息生成所述各基函数。
在一个实施例中,上述数据获取模块5100在获取对应机器学习的选取比例函数时,可以用于:获取所述机器学习的目标应用场景;以及,根据所述目标应用场景,查找对应的选取比例函数。
在一个实施例中,该抗噪装置5000还可以包括样本集查找模块,该样本集查找模块可以用于:根据机器学习的目标应用场景,获得与目标应用场景相匹配的训练样本集。该实施例中,样本选取模块5300在从机器学习的训练样本集中选取小损失样本集时,可以用于:从与目标应用场景相匹配的训练样本集中选取小损失样本集。
在一个实施例中,该抗噪装置5000还可以包括设置模块,该设置模块可以用于:响应于确定应用场景的操作,提供输入接口;以及,获取通过输入接口输入的应用场景,作为目标应用场景。
在一个实施例中,该目标应用场景为图像识别场景、语音识别场景或者文本识别场景。
<介质实施例>
在一个实施例中,还提供了一种计算机可读存储介质,其中,该计算机可读存储介质存储有可被计算机读取执行的计算机程序,所述计算机程序用于在被所述计算机读取运行时,执行根据任意方法实施例的抗噪方法。
本发明可以是系统、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本发明的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本发明操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本发明的各个方面。
这里参照根据本发明实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本发明的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本发明的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。对于本领域技术人员来说公知的是,通过硬件方式实现、通过软件方式实现以及通过软件和硬件结合的方式实现都是等价的。
以上已经描述了本发明的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。本发明的范围由所附权利要求来限定。
Claims (30)
1.一种基于机器学习的识别预测方法,包括:
响应于确定应用场景的操作,提供输入接口;
获取通过所述输入接口输入的应用场景,作为目标应用场景;
根据所述机器学习的目标应用场景,获得与所述目标应用场景相匹配的训练样本集,其中,所述目标应用场景为图像识别场景、语音识别场景、文本识别场景或者CTR预估场景;
根据所述目标应用场景,查找对应的选取比例函数,其中,所述选取比例函数反映在所述机器学习的一期训练中,从所述机器学习的训练样本集中选取小损失样本集的选取比例与所述机器学习的训练期数之间的映射关系;
根据当前训练期数和所述选取比例函数,获得对应所述当前训练期数的当前选取比例;
根据所述当前选取比例,从所述机器学习的训练样本集中选取小损失样本集;
利用选取出的小损失样本集进行所述机器学习,获得对应的机器学习模型,其中,所述机器学习模型应用在所述目标应用场景中,以提供所述目标应用场景中的识别、预测服务。
2.根据权利要求1所述的方法,其中,所述选取比例函数使得所述机器学习模型在所述训练样本集上的损失最小时,在测试样本集上的设定性能达到最优。
3.根据权利要求1所述的方法,其中,所述方法还包括获得所述选取比例函数的步骤,包括:
根据所述选取比例函数要满足的设定条件,构建所述选取比例函数的含有待确定的常量参数组的函数表达式;
构建所述选取比例函数的收敛条件包括:所述机器学习模型在所述训练样本集上的损失最小时,在测试样本集上的设定性能达到最优;
通过所述训练样本集训练所述常量参数组,获得所述常量参数组中的每一参数在所述选取比例函数满足所述收敛条件时的参数值;
根据所述参数值和所述函数表达式,确定所述选取比例函数。
4.根据权利要求3所述的方法,其中,所述构建所述选取比例函数的含有待确定的常量参数组的函数表达式包括:
获取选择的各基函数;
设置每一所述基函数在所述各基函数中的权重参数;
根据所述权重参数和所述各基函数,获得所述函数表达式;
其中,所述常量参数组包括所述权重参数和每一所述基函数中的参数。
5.根据权利要求4所述的方法,其中,所述各基函数包括幂函数、指数函数、对数函数和vapor函数中的至少一种。
6.根据权利要求5所述的方法,其中,所述幂函数包括以下函数f1(t)和函数f2(t)中的至少一个:
f1(t)=1/(1+bt)a;
其中,a、b为所述函数f1(t)中的参数;a1、b1、a2、b2、m为所述函数f2(t)中的参数。
7.根据权利要求5所述的方法,其中,所述指数函数包括以下函数f3(t)和函数f4(t)中的至少一个:
其中,a、b为所述函数f3(t)中的参数;a1、b1、a2、b2、m为所述函数f4(t)中的参数。
8.根据权利要求5所述的方法,其中,所述对数函数包括以下函数f5(t):
f5(t)=log(b)/log(at+b);
其中,a、b为所述函数g5(t)中的参数。
9.根据权利要求5所述的方法,其中,所述vapor函数包括以下函数f6(t):
其中,a、b、m为所述函数f6(t)中的参数。
10.根据权利要求4所述的方法,其中,所述函数表达式R(t)为:
其中,所述fi(t)为第i个基函数的表达式,所述λi为第i个基函数的权重,所述λi大于或者等于0,k为基函数的数量。
11.根据权利要求3所述的方法,其中,所述通过所述训练样本集训练所述常量参数组包括:
在当前次迭代训练中,基于所述收敛条件的自然梯度下降确定所述常量参数组需要满足的概率分布的变化矢量;
根据所述变化矢量,获得对应下一次迭代训练的概率分布;
根据所述对应下一次迭代训练的概率分布,选取对应下一次迭代训练的所述常量参数组的参数值。
12.根据权利要求11所述的方法,其中,所述基于所述收敛条件的自然梯度下降确定所述常量参数组需要满足的概率分布的变化矢量包括:
基于对应当前次迭代训练的所述常量参数组α的参数值,选取在所述当前次迭代训练中使用的训练样本集;
获取通过选取出的训练样本集进行所述机器学习获得的、使得所述机器学习模型在所述选取出的训练样本集上的损失最小的模型参数ω的参数值ω*(α);
获取在所述模型参数ω的取值为ω*(α)时,对应的机器学习模型在测试样本集上对于所述设定性能的评分值/>
获取所述评分值在对应所述当前次迭代训练的概率分布/>下的期望值/>其中,所述θm为所述概率分布/>的参数θ的参数值;
获取所述概率分布的Fisher矩阵H(θm);
根据所述H(θm)和所述按照如下公式获得所述变化矢量:
其中,所述θm+1为所述对应下一次迭代训练的概率分布的参数θ的参数值。
13.根据权利要求4所述的方法,其中,所述方法还包括:
响应于选取基函数的操作,提供设置接口;
获取通过所述设置接口输入的基函数信息;
根据所述基函数信息生成所述各基函数。
14.根据权利要求1至13中任一项所述的方法,其中,
所述从所述机器学习的训练样本集中选取小损失样本集包括:
从与所述目标应用场景相匹配的训练样本集中选取小损失样本集。
15.一种基于机器学习的识别预测装置,其特征在于,包括:
设置模块,用于响应于确定应用场景的操作,提供输入接口;以及获取通过所述输入接口输入的应用场景,作为目标应用场景;
数据获取模块,用于根据所述目标应用场景,查找对应的选取比例函数,其中,所述选取比例函数反映在所述机器学习的一期训练中,从所述机器学习的训练样本集中选取小损失样本集的选取比例与所述机器学习的训练期数之间的映射关系;
比例确定模块,用于根据当前训练期数和所述选取比例函数,获得对应所述当前训练期数的当前选取比例;
样本选取模块,用于根据所述当前选取比例,从所述机器学习的训练样本集中选取小损失样本集;
模型训练模块,用于利用选取出的小损失样本集进行所述机器学习,获得对应的机器学习模型,其中,所述机器学习模型应用在所述目标应用场景中,以提供所述目标应用场景中的识别、预测服务;以及,
样本集查找模块,用于根据所述机器学习的目标应用场景,获得与所述目标应用场景相匹配的训练样本集,其中,所述目标应用场景为图像识别场景、语音识别场景、文本识别场景或者CTR预估场景。
16.根据权利要求15所述的装置,其中,所述选取比例函数使得所述机器学习模型在所述训练样本集上的损失最小时,在测试样本集上的设定性能达到最优。
17.根据权利要求15所述的装置,其中,所述装置还包括函数生成模块,所述函数生成模块用于获得所述选取比例函数,所述函数生成模块在获得所述选取比例函数时,用于:
根据所述选取比例函数要满足的设定条件,构建所述选取比例函数的含有待确定的常量参数组的函数表达式;
构建所述选取比例函数的收敛条件包括:所述机器学习模型在所述训练样本集上的损失最小时,在测试样本集上的设定性能达到最优;
通过所述训练样本集训练所述常量参数组,获得所述常量参数组中的每一参数在所述选取比例函数满足所述收敛条件时的参数值;以及,
根据所述参数值和所述函数表达式,确定所述选取比例函数。
18.根据权利要求17所述的装置,其中,所述函数生成模块在构建所述选取比例函数的含有待确定的常量参数组的函数表达式时,用于:
获取选择的各基函数;
设置每一所述基函数在所述各基函数中的权重参数;
根据所述权重参数和所述各基函数,获得所述函数表达式;以及,
其中,所述常量参数组包括所述权重参数和每一所述基函数中的参数。
19.根据权利要求18所述的装置,其中,所述各基函数包括幂函数、指数函数、对数函数和vapor函数中的至少一种。
20.根据权利要求19所述的装置,其中,所述幂函数包括以下函数f1(t)和函数f2(t)中的至少一个:
f1(t)=1/(1+bt)a;
其中,a、b为所述函数f1(t)中的参数;a1、b1、a2、b2、m为所述函数f2(t)中的参数。
21.根据权利要求19所述的装置,其中,所述指数函数包括以下函数f3(t)和函数f4(t)中的至少一个:
其中,a、b为所述函数f3(t)中的参数;a1、b1、a2、b2、m为所述函数f4(t)中的参数。
22.根据权利要求19所述的装置,其中,所述对数函数包括以下函数f5(t):
f5(t)=log(b)/log(at+b);
其中,a、b为所述函数f5(t)中的参数。
23.根据权利要求19所述的装置,其中,所述vapor函数包括以下函数f6(t):
其中,a、b、m为所述函数f6(t)中的参数。
24.根据权利要求18所述的装置,其中,所述函数表达式R(t)为:
其中,所述fi(t)为第i个基函数的表达式,所述λi为第i个基函数的权重,所述λi大于或者等于0,k为基函数的数量。
25.根据权利要求17所述的装置,其中,所述函数生成模块在通过所述训练样本集训练所述常量参数组时,用于:
在当前次迭代训练中,基于所述收敛条件的自然梯度确定所述常量参数组需要满足的概率分布的变化矢量;
根据所述变化矢量,获得对应下一次迭代训练的概率分布;以及,
根据所述下一次迭代训练的概率分布,选取对应下一次迭代训练的所述常量参数组的参数值。
26.根据权利要求25所述的装置,其中,所述函数生成模块在基于所述收敛条件的自然梯度确定所述常量参数组需要满足的概率分布的变化矢量时,用于:基于对应当前次迭代训练的所述常量参数组α的参数值,选取在所述当前次迭代训练中使用的训练样本集;
获取通过选取出的训练样本集进行所述机器学习获得的、使得所述机器学习模型在所述选取出的训练样本集上的损失最小的模型参数ω的参数值ω*(α);
获取在所述模型参数ω的取值为ω*(α)时,对应的机器学习模型在测试样本集上对于所述设定性能的评分值/>
获取所述评分值在对应所述当前次迭代训练的概率分布/>下的期望值/>其中,所述θm为所述概率分布/>的参数θ的参数值;
获取所述概率分布的Fisher矩阵H(θm);以及,
根据所述H(θm)和所述按照如下公式获得所述变化矢量:
其中,所述θm+1为所述对应下一次迭代训练的概率分布的参数θ的参数值。
27.根据权利要求18所述的装置,其中,所述设置模块还用于:
响应于选取基函数的操作,提供设置接口;
获取通过所述设置接口输入的基函数信息;
根据所述基函数信息生成所述各基函数。
28.根据权利要求15至27中任一项所述的装置,其中,所述样本选取模块在从所述机器学习的训练样本集中选取小损失样本集时,用于:从与所述目标应用场景相匹配的训练样本集中选取小损失样本集。
29.一种包括至少一个计算装置和至少一个存储装置的系统,其中,所述至少一个存储装置用于存储指令,所述指令用于控制所述至少一个计算装置执行根据权利要求1至14中任一项所述的方法。
30.一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序在被处理器执行时实现如权利要求1至14中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911275361.6A CN111160522B (zh) | 2019-12-12 | 2019-12-12 | 机器学习的抗噪方法、装置及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911275361.6A CN111160522B (zh) | 2019-12-12 | 2019-12-12 | 机器学习的抗噪方法、装置及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111160522A CN111160522A (zh) | 2020-05-15 |
CN111160522B true CN111160522B (zh) | 2023-11-24 |
Family
ID=70556821
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911275361.6A Active CN111160522B (zh) | 2019-12-12 | 2019-12-12 | 机器学习的抗噪方法、装置及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111160522B (zh) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109711548A (zh) * | 2018-12-26 | 2019-05-03 | 歌尔股份有限公司 | 超参数的选取方法、使用方法、装置及电子设备 |
CN110458778A (zh) * | 2019-08-08 | 2019-11-15 | 深圳市灵明光子科技有限公司 | 一种深度图像去噪方法、装置及存储介质 |
-
2019
- 2019-12-12 CN CN201911275361.6A patent/CN111160522B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109711548A (zh) * | 2018-12-26 | 2019-05-03 | 歌尔股份有限公司 | 超参数的选取方法、使用方法、装置及电子设备 |
CN110458778A (zh) * | 2019-08-08 | 2019-11-15 | 深圳市灵明光子科技有限公司 | 一种深度图像去噪方法、装置及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111160522A (zh) | 2020-05-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020253663A1 (zh) | 基于人工智能的图像区域识别方法、模型训练方法及装置 | |
CN108229667B (zh) | 基于人工神经网络类别的修剪 | |
CN110366734B (zh) | 优化神经网络架构 | |
CN107836000B (zh) | 用于语言建模和预测的改进的人工神经网络方法、电子设备 | |
US9892414B1 (en) | Method, medium, and system for responding to customer requests with state tracking | |
US10628474B2 (en) | Probabalistic generation of diverse summaries | |
CN111667056B (zh) | 用于搜索模型结构的方法和装置 | |
CN109885713A (zh) | 基于语音情绪识别的表情图像推荐方法以及装置 | |
CN109271493A (zh) | 一种语言文本处理方法、装置和存储介质 | |
CN107609185B (zh) | 用于poi的相似度计算的方法、装置、设备和计算机可读存储介质 | |
CN112784778B (zh) | 生成模型并识别年龄和性别的方法、装置、设备和介质 | |
CN109145213A (zh) | 基于历史信息的查询推荐方法及装置 | |
CN102741840B (zh) | 用于对个性化场景建模的方法和装置 | |
CN112861518B (zh) | 文本纠错方法、装置和存储介质及电子装置 | |
WO2020151690A1 (zh) | 语句生成方法、装置、设备及存储介质 | |
JP2022502758A (ja) | 符号化方法、装置、機器およびプログラム | |
CN111950295A (zh) | 一种训练自然语言处理模型的方法和系统 | |
CN111512299A (zh) | 用于内容搜索的方法及其电子设备 | |
CN111104874B (zh) | 人脸年龄预测方法及模型的训练方法、装置及电子设备 | |
CN111199540A (zh) | 图像质量评价方法、装置、电子设备及存储介质 | |
CN114547244A (zh) | 用于确定信息的方法和装置 | |
JP2020008836A (ja) | 語彙テーブルの選択方法、装置およびコンピュータ読み取り可能な記憶媒体 | |
CN111160522B (zh) | 机器学习的抗噪方法、装置及系统 | |
CN111797220A (zh) | 对话生成方法、装置、计算机设备和存储介质 | |
CN116910202A (zh) | 一种数据处理方法及相关设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |