CN112819085B - 基于机器学习的模型优化方法、装置及存储介质 - Google Patents
基于机器学习的模型优化方法、装置及存储介质 Download PDFInfo
- Publication number
- CN112819085B CN112819085B CN202110184013.9A CN202110184013A CN112819085B CN 112819085 B CN112819085 B CN 112819085B CN 202110184013 A CN202110184013 A CN 202110184013A CN 112819085 B CN112819085 B CN 112819085B
- Authority
- CN
- China
- Prior art keywords
- samples
- sample
- loss function
- value
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 83
- 238000005457 optimization Methods 0.000 title claims abstract description 28
- 238000003860 storage Methods 0.000 title claims abstract description 20
- 238000010801 machine learning Methods 0.000 title claims abstract description 19
- 230000006870 function Effects 0.000 claims abstract description 161
- 230000008859 change Effects 0.000 claims abstract description 27
- 239000013598 vector Substances 0.000 claims description 50
- 238000009826 distribution Methods 0.000 claims description 41
- 230000002776 aggregation Effects 0.000 claims description 35
- 238000004220 aggregation Methods 0.000 claims description 35
- 238000000605 extraction Methods 0.000 claims description 26
- 238000012216 screening Methods 0.000 claims description 24
- 238000004519 manufacturing process Methods 0.000 claims description 20
- 238000012360 testing method Methods 0.000 claims description 20
- 230000000694 effects Effects 0.000 claims description 13
- 238000012549 training Methods 0.000 claims description 11
- 238000013459 approach Methods 0.000 claims description 4
- 238000011156 evaluation Methods 0.000 claims description 4
- 239000000523 sample Substances 0.000 claims 46
- 238000010586 diagram Methods 0.000 description 8
- 238000004590 computer program Methods 0.000 description 7
- 239000011159 matrix material Substances 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 230000009286 beneficial effect Effects 0.000 description 4
- 238000010276 construction Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000009412 basement excavation Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Complex Calculations (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请提供了一种基于机器学习的模型优化方法、装置及计算机可读存储介质,其中该方法包括:确定多个样本、各所述样本的权重和各所述样本的标签;根据所述多个样本、各所述样本的权重和各所述样本的标签对第一输入模型进行多次迭代,得到各所述样本的损失函数值序列、以及第一输出模型;根据各所述损失函数值序列中的损失函数值随所述多次迭代的变化趋势、及所述变化趋势彼此之间的比较关系对样本的权重进行更新。利用上述方法,能够降低对样本质量的依赖。
Description
技术领域
本申请属于人工智能领域,具体涉及一种基于机器学习的模型优化方法、装置及计算机可读存储介质。
背景技术
本部分旨在为权利要求书中陈述的本申请的实施方式提供背景或上下文。此处的描述不因为包括在本部分中就承认其为现有技术。
机器学习模型已应用在各种不同的业务领域。通常需要大量的样本对模型进行训练。样本的质量的优劣直接影响到最终训练得到的模型的性能。例如,如果样本是容易预测的样本,那么它对模型的性能贡献较小。又例如,如果样本是噪声样本,它会和难预测的样本混在一起,使得模型容易过拟合。需要降低模型质量对样本质量的依赖。
另一方面,每一个样本就是一个特征的集合,现有技术中,需要人工从大量的原始数据中提取特征,从而构成一个个样本。特征的提取基于经验,难免会漏掉更有意义的特征。
发明内容
针对上述现有技术的问题,本申请实施例提出了一种基于机器学习的模型优化方法、装置及计算机可读存储介质。利用这种方法及装置,能够至少部分解决上述问题。
本申请的实施例中提供了以下方案:一种基于机器学习的模型优化方法,包括:
确定多个样本、各所述样本的权重和各所述样本的标签;
根据所述多个样本、各所述样本的权重和各所述样本的标签对第一输入模型进行多次迭代,得到各所述样本的损失函数值序列、以及第一输出模型;
根据各所述损失函数值序列中的损失函数值随所述多次迭代的变化趋势、及所述变化趋势彼此之间的比较关系对样本的权重进行更新。
在一些实施例中,所述多个样本是按照如下方式构建的:
获取多组原始数据以及每组原始数据对应的标签,其中,每组原始数据至少包括一份原始数据,每份原始数据具有多个实例维度的实例信息;
分别对单一实例维度的实例信息进行分箱,根据各分箱的正负样本区分能力从各分箱方式中筛选出特征算子;
根据至少一种目标口径对应的特征算子、和至少一个预设聚合函数构建出多个特征提取方案,所述目标口径属于所述多个实例维度;
根据所述多个特征提取方案分别从各组原始数据中提取特征,从各组原始数据所提取出的特征分别构成一个所述样本。
在一些实施例中,还包括:
根据准投产模型对所述多个样本进行更新,其中,删减样本的特征维度,所述准投产模型为所述第一输出模型或包含所述第一输出模型和所述第一输入模型的组合;
根据更新后的样本及对应的更新后的权重、和各样本的标签对所述准投产模型进行多次迭代,得到第二输出模型;
根据所述准投产模型模型对所述多个样本进行更新,包括:
依次将全部样本中一个特征维度的特征取值随机打乱,将打乱处理后的样本输入准投产模型,得到各特征维度对应的测试损失函数值向量;
将未被打乱处理的样本输入所述准投产模型,得到原始损失函数值向量;
根据各测试损失函数值向量与所述原始损失函数值向量的比较结果筛选特征维度。
本申请的实施例中提供了以下方案:一种基于机器学习的模型训练方法,包括:构建多个样本;
根据所述多个样本、各所述样本的权重和各所述样本的标签对第一输入模型进行多次迭代,得到各所述样本的损失函数值序列、以及第一输出模型;
其中,构建多个样本,包括:
获取多组原始数据以及每组原始数据对应的标签,其中,每组原始数据至少包括一份原始数据,每份原始数据具有多个实例维度的实例信息;
分别对单一实例维度的实例信息进行分箱,根据各分箱的正负样本区分能力从各分箱方式中筛选出特征算子;
根据至少一种目标口径对应的特征算子、和至少一个预设聚合函数构建出多个特征提取方案,所述目标口径属于所述多个实例维度;
根据所述多个特征提取方案分别从各原始数据中提取特征,从各组原始数据所提取出的特征分别构成一个所述样本。
在一些实施例中,还包括:
根据准投产模型对所述多个样本进行更新,其中,删减样本的特征维度,所述准投产模型为所述第一输出模型或包含所述第一输出模型和所述第一输入模型的组合;
根据更新后的样本及对应的更新后的权重、和各样本的标签对第二输入模型进行多次迭代,得到第二输出模型;
根据准投产模型对所述多个样本进行更新,包括:
依次将全部样本中一个特征维度的特征取值随机打乱,将打乱处理后的样本输入所述准投产模型,得到各特征维度对应的测试损失函数值向量;
将未被打乱处理的样本输入所述准投产模型,得到原始损失函数值向量;
根据各测试损失函数值向量与所述原始损失函数值向量的比较结果筛选特征维度。
本申请的实施例中提供了以下方案:一种基于机器学习的模型优化装置,包括:至少一个处理器;以及,与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行:前述的方法。
本申请的实施例中提供了以下方案:一种计算机可读存储介质,所述计算机可读存储介质存储有程序,当所述程序被处理器执行时,使得所述处理器执行:前述的方法。
本申请实施例采用的上述至少一个技术方案能够达到以下有益效果:在对第一输入模型进行迭代的过程中,不同类型的样本的损失函数值序列会表现出不同的变化趋势。根据每一个样本的损失函数值序列的变化趋势以及这些变化趋势之间的相对关系,能够区分出这些样本对模型优化的作用的大小,进而可以使对模型优化作用更大的样本的权重相对更大,从而使得模型优化的质量对样本本身质量的依赖降低。
应当理解,上述说明仅是本申请技术方案的概述,以便能够更清楚地了解本申请的技术手段,从而可依照说明书的内容予以实施。为了让本申请的上述和其它目的、特征和优点能够更明显易懂,以下特举例说明本申请的具体实施方式。
附图说明
通过阅读下文的示例性实施例的详细描述,本领域普通技术人员将明白本文所述的优点和益处以及其他优点和益处。附图仅用于示出示例性实施例的目的,而并不认为是对本申请的限制。而且在整个附图中,用相同的标号表示相同的部件。在附图中:
图1为根据本申请一实施例的基于机器学习的模型优化方法的流程示意图;
图2为在一轮模型迭代过程中不同类型的样本的损失函数值变化趋势;
图3为根据本申请一实施例的样本构建方法的流程示意图;
图4为根据本申请一实施例的样本更新方法的流程示意图;
图5为根据本申请一实施例的基于机器学习的模型优化装置的结构示意图。
在附图中,相同或对应的标号表示相同或对应的部分。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
在本申请中,应理解,诸如“包括”或“具有”等术语旨在指示本说明书中所公开的特征、数字、步骤、行为、部件、部分或其组合的存在,并且不排除一个或多个其他特征、数字、步骤、行为、部件、部分或其组合存在的可能性。
另外还需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1为根据本申请一实施例的基于机器学习的模型优化方法的流程示意图,该方法用于对模型进行优化,在该流程中,从设备角度而言,执行主体可以是一个或者多个电子设备;从程序角度而言,执行主体相应地可以是搭载于这些电子设备上的程序。
图1中的流程可以包括以下步骤101~步骤103。
步骤101、确定多个样本、各所述样本的权重和各所述样本的标签;
步骤102、根据所述多个样本、各所述样本的权重和各所述样本的标签对第一输入模型进行多次迭代,得到各所述样本的损失函数值序列、以及第一输出模型;
步骤103、根据各所述损失函数值序列中的损失函数值随所述多次迭代的变化趋势、及所述变化趋势彼此之间的比较关系对样本的权重进行更新。
在对第一输入模型进行迭代的过程中,不同类型的样本的损失函数值序列会表现出不同的变化趋势。根据每一个样本的损失函数值序列中的损失函数值随所述多次迭代的变化趋势以及这些变化趋势之间的相对关系,能够区分出这些样本对模型优化的作用的大小,进而可以使对模型优化作用更大的样本的权重相对更大,从而使得模型优化的质量对样本本身质量的依赖降低。
基于图1的模型优化方法,本申请的一些实施例还提供了该模型优化方法的一些具体实施方案,以及扩展方案,下面进行说明。
在一些实施例中,根据各所述损失函数值序列中的损失函数值随所述多次迭代的变化趋势、及所述变化趋势彼此之间的比较关系对样本的权重进行更新,包括:
从所述多个样本中划分出第一类样本、第二类样和第三类样本,其中,所述第一类样本和所述第二类样本的损失函数值序列均收敛,所述第一类样本的收敛速度比所述第二类样本的收敛速度快,所述第三类样本的损失函数值序列不收敛;
更新权重时,执行对所述第一类样本的权重进行调减、对所述第二类样本的权重进行调增、和对所述第三类样本的权重进行调减中的至少一项操作。
结合图2,以该模型是进行预测为例进行说明,第一类样本是相对容易预测的样本,它对于模型的优化贡献相对较小,故可适当降低第一类样本的权重。第二类样本是相对难预测的样本,它对于模型的优化贡献相对较大,故可适当增加第一类样本的权重。第三类样本是噪声样本,它对模型的优化起负面的作用,故需要降低第三类样本的权重。极限情况下,第三类样本的权重降为0,也就相当于删除第三类样本。
在一些实施例中,对至少一个样本,其对应的权重按照如下方式进行更新:
以数字的方式表征当前样本对所述第一输出模型的损失函数值在全部样本对所述第一输出模型的损失函数值中的分布位置,得到当前样本的第一分布信息值;
以数字的方式表征当前样本在所述第一输入模型进行迭代时损失函数值序列的变化趋势值在全部样本在所述第一输入模型进行迭代时损失函数值序列的变化趋势值中的分布位置,得到当前样本的第二分布信息值;
根据所述第一分布信息值和所述第二分布信息值对当前样本对应的权重进行更新;
其中,所述变化趋势值以数字的方式表征损失函数值序列的变化趋势。
当前样本,指的是当前确定权重如何更新的样本。
第一分布信息值可以反映出在全部样本中,当前样本的损失函数值是相对较大还是相对较小。
变化趋势值可以反映出当前样本在对第一输入模型进行迭代时,损失函数值是趋于收敛还是趋于发散,以及可以反映出收敛的速度的快慢。损失函数值趋于发散的情况下,相当于其收敛速度为0或负数。换言之,变化趋势值的大小是按照收敛速度快、收敛速度慢、发散的顺序递增或递减的。
第二分布信息值可以反映出在全部样本中,当前样本的收敛速度是相对较快还是相对较慢。
以上实施方式中,对样本的在第一输入模型的迭代过程中的性质进行数值化,从而得到对权重调整的幅度能够有一个确定的定量数值。且全部样本的权重的调整是平滑的。
在一些实施例中,第一分布信息值和第二分布信息值按照如下方式确定:
计算比当前样本的损失函数值小的其余样本数量与全部样本数的比值,作为所述第一分布信息值;
计算比当前样本的变化趋势值小的其余样本数量与全部样本数量的比值,作为所述第二分布信息值。
第一分布信息值越大,则表明当前样本的损失函数值在全部样本中是相对更小的。
第二分布信息值越大,则表明当前样本的变化趋势值在全部样本中是相对更小的。
当然,分布信息也可以按照其他的方式进行数值化。例如对全部样本对第一输出模型的损失函数值进行排序,按照排序的位次对第一分布信息进行数值化。
在一些实施例中,按照如下公式计算当前样本更新后的权重:
loss_rank=α1*top(L1)+α2*top(L2);
其中,top(L1)为当前样本的第一分布信息值,top(L2)为当前样本的第二分布信息值,α1和α2均为比例系数,r和s均为大于0且小于1的衰减因子,且r+s=1,loss_rank为损失函数值等级,<loss_rank>b为对损失函数值等级进行分箱之后当前样本的损失函数值所在分箱的平均值。
需要说明的是α1和α2可能是正数也能看是负数,这取决于第一分布信息值和第二分布信息值的定义方式。
例如,如第一分布信息值越大,则表明当前样本的损失函数值在全部样本中是相对更小的,第二分布信息值越大,则表明当前样本的变化趋势值在全部样本中是相对更小的,变化趋势值越大表明当前样本的收敛越慢甚至不收敛,则α1为负数,α2为正数。
每个样本均对应一个损失函数值等级,损失函数值等级是对当前样本对第一输出模型的损失函数值的自身的大小程度以及训练得到第一输出模型时的损失函数值序列的收敛速度的大小程度的综合评价指标。
对损失函数值等级进行分箱,并对同一分箱内的损失函数值等级求平均,是为了使得更新后的权重彼此之间的差异不会太大。
当然,对损失函数值等级也可以不进行分箱处理。例如,在一些实施例中,按照如下公式计算当前样本更新后的权重:
loss_rank=-α1*top(L1)+α2*top(L2);
其中,top(L1)为当前样本的第一分布信息值,top(L2)为当前样本的第二分布信息值,α1和α2均为正的比例系数,r和s均为大于0且小于1的衰减因子,且r+s=1,loss_rank为损失函数值等级。
以上实施例中,r为衰减因子,0.8<r<0.95。
在一些实施例中,所述变化趋势值按照如下方式计算:
将所述损失函数值序列的尾部第一设定数量数据点的平均值与其头部第二设定数量数据点的平均值的商作为所述变化趋势值。
在这种定义方式中,变化趋势值越小表明对应的样本收敛越快。
以下,以一个数值化的实例介绍模型优化过程。
第一步:各样本的初始权重相等。假定样本数量为6,样本的初始权重为[1/6,1/6,1/6,1/6,1/6,1/6]。
第二步:第一输入模型的训练过程中,记录每一个样本在迭代过程中损失函数值。
例如第i个样本训练过程中迭代14次,每次迭代的损失函数值构成一个序列,例如为:[0.8,07,0.65,0.61,0.54,0.51,0.49,0.41,0.32,0.33,0.21,0.19,0.18,0.18]。
第三步:计算6个样本对准投产模型的损失函数值。该实例中,将第一输入模型和第一输出模型进行线性组合,作为准投产模型。则每个样本在准投产模型运行时的损失函数值如下:[0.2,03,0.5,0.61,0.44,0.53]。
第四步:根据损失函数值的变化趋势,对每个样本的权重值进行调整:
损失函数值在降低且快速收敛的,降低样本权重;损失函数值在降低且慢速降低收敛的,增加样本权重;损失函数值在增加收敛的,降低样本权重。
得到新的样本权重值例如为:[0.12,0.11,0.23,0.14,0.09,0.16,0.15]。
图3为根据本申请一实施例的样本构建方法的流程示意图,该方法用于从原始数据中构建出样本,在该流程中,从设备角度而言,执行主体可以是一个或者多个电子设备;从程序角度而言,执行主体相应地可以是搭载于这些电子设备上的程序。
该方法包括以下步骤201至步骤204。
步骤201、获取多组原始数据以及每组原始数据对应的标签,其中,每组原始数据至少包括一份原始数据,每份原始数据具有多个实例维度的实例信息。
同一组原始数据对应的是同一个待分析的对象。例如根据大量用户的交易行为训练模型,每一个用户可能有多笔交易数据。每一笔交易数据便是一份原始数据,同一个用户的各笔交易数据构成一组原始数据。每一笔交易数据包含多个实例维度的信息,例如有:交易金额、交易日期、发起交易时所处城市等多个实例维度。
步骤202、分别对单一实例维度的实例信息进行分箱,根据各分箱的正负样本区分能力从各分箱方式中筛选出特征算子。
即从单一实例维度中挑选出正样本相对较多或者负样本相对较多的分箱方式。
步骤203、根据至少一种目标口径对应的特征算子、和至少一个预设聚合函数构建出多个特征提取方案,所述目标口径属于所述多个实例维度。
目标口径记为构建特征时所用到的实例维度。预设聚合函数指的是对于所挑选的目标口径的实例信息进行什么样的处理。
步骤204、根据所述多个特征提取方案分别从各原始数据中提取特征,从各组原始数据所提取出的特征分别构成一个所述样本。
即一个样本内的多个特征是基于程序自动生成的。避免了人工挖掘特征的局限性。能够发现更深层次或更有价值的特征。
在一些实施例中,分别对单一实例维度的实例信息进行分箱,根据各分箱的正负样本区分能力从各分箱方式中筛选出特征算子,包括:
按照如下公式确定各分箱方式的正负样本区分能力:
其中,Pb为当前分箱方式中正样本的ID个数,Nb为当前分箱方式中负样本的ID个数,P为所述多组原始数据中正样本的ID个数,N为所述多组原始数据中负样本的ID个数,Rb为当前实例维度当前分箱方式的正负样本区分能力值,每组原始数据分别具有一个ID,同一分箱方式中属于同一组原始数据的实例信息的ID数记为1个;
将正负样本区分能力值大于设定阈值的分箱方式作为特征算子。
即,如果一个分箱内正负样本的分布与对应实例维度中全部样本的正负样本的分布差异足够大,则该分箱方式可作为一个特征算子。
例如一个用户是正样本,他有5笔交易数据落入一个分箱,那么这个用户对这个分箱正样本的个数贡献值为1。以此类推。
在一些实施例中,根据至少一种目标口径对应的特征算子、和至少一个预设聚合函数构建出多个特征提取方案,包括:
从各目标口径中分别挑选一个特征算子,从至少一个预设聚合函数中挑选一个聚合函数,挑选出的特征算子与挑选出的聚合函数的各组合方式分别构成一个特征提取方案。
即每个特征提取方案包括至少一个目标口径的特征算子和一个聚合函数。所有可能的组合方案构成全部的特征提取方案。
在一些实施例中,对单一实例维度的实例信息进行分箱的方式包括以下至少一种:
对于连续类型的实例维度,每个分箱方式对应一个数值区间;
对于离散类型的实例维度,每个离散值作为一个分箱方式;
对于文本类型的实例维度,每种文本作为一个分箱方式;
对于时间戳类型的实例维度,以星期或日期作为分箱方式,或以时长为分箱方式。
在一些实施例中,如所述聚合函数针对的是连续类型的实例维度,所述聚合函数包括:最大值、最小值、评价值、总和、方差和占比中的至少一项;
如所述聚合函数针对的是离散类型的实例维度,所述聚合函数包括:频次、频数、占比中的至少一项;
如所述聚合函数针对的是时间类型的实例维度,所述聚合函数包括:天数、月数、活跃天数、活跃月数、时间间隔、最早时间和最晚时间中的至少一项。
在一些实施例中,所述特征提取方案还包括时间窗口。
以下以一个数值化的实例,介绍样本构建过程。
比如原始数据如下所示。每一个ID表示一个用户。用户001记载有2笔交易数据。相当于用户001对应的原始数据组中有2份原始数据。交易金额和城市是两个实例维度。
Id | 交易金额 | 城市 | 标签 |
001 | 80 | 01 | 1 |
002 | 20 | 02 | 0 |
003 | 50 | 03 | 0 |
001 | 100 | 01 | 1 |
004 | 35 | 02 | 0 |
005 | 46 | 02 | 0 |
006 | 125 | 01 | 1 |
第一步:挖掘特征算子
针对第二列交易金额这一实例维度,因为是连续数据,对该维度的数值进行分箱,分箱方式如下:分箱1:单笔交易金额在[0,80)范围内、分箱方式2:单笔交易金额>=80。
金额区间在[0,80)范围内的有4笔交易,其中标签为1的交易有0人次,标签为0的交易有4人次,在该分箱中,正负样本区分能力Rb=|4/4-2/6|=4/6。如果设置阈值ε=0.2,则Rb>ε,满足特征算子的条件,将交易金额在[0,80)之间记为一个特征算子。
在金额区间>=80范围内有2笔交易,其中标签为1的交易有2人次,标签为0的交易有0人次,在该分箱中Rb=|-2/2-2/6|=8/6,Rb>ε,也满足筛选特征算子的条件,将交易金额在>=80的范围内记为一个特征算子。
针对第三列的城市这一实例维度,因为是离散型变量,直接对每一个离散值作为一个分箱方式。
城市值为01的用户有001,006,其中标签为1的交易有2人次,标签为0的交易有0人次,在该分箱方式中,Rb=|-2/2-2/6|=8/6,Rb>ε,也满足筛选特征算子的条件,将城市01记为一个特征算子。
城市值为02的用户有002,004,005,其中标签为1的交易有0人次,标签为0的交易有3人次,在该分箱方式中,Rb=|3/3-2/6|=4/6,Rb>ε,也满足筛选特征算子的条件,将城市02记为一个特征算子。
城市值为03的用户有003,其中标签为1的交易0人次,标签为0的交易有1人次,在该分箱方式中,Rb=|1/1-2/6|=4/6,Rb>ε,也满足筛选特征算子的条件,将城市03记为一个特征算子。
通过遍历第2实例维度和第3实例维度的数据,得到以下特征算子:
第2实例维度特征算子 | 第3实例维度特征算子 |
交易金额在[0,80)之间 | 城市为01 |
交易金额>80 | 城市为02 |
城市为03 |
第二步:构建聚合函数
在本实例中,选择单个用户的交易金额总和,单个用户的交易次数作为聚合函数。
第三步:选择目标口径
在本实例中,选择交易金额,交易次数作为统计口径。
第四步:构建特征提取方案
关联深度为1时的特征提取方案如下:
交易金额在[0,80)之间的交易金额总和;
交易金额在[0,80)之间的交易次数;
交易金额大于80的交易金额总和;
交易金额大于80的交易次数;
城市为01的交易金额总和;
城市为01的交易次数;
城市为02的交易金额总和;
城市为02的交易次数;
城市为02的交易金额总和;
城市为02的交易次数。
关联深度为2的特征提取方案如下:
交易金额在[0,80)之间且城市为01的交易金额总和;
交易金额在[0,80)之间且城市为02的交易金额总和;
交易金额在[0,80)之间且城市为03的交易金额总和;
交易金额在[0,80)之间且城市为01的交易次数;
交易金额在[0,80)之间且城市为02的交易次数;
交易金额在[0,80)之间且城市为03的交易次数;
交易金额大于80且城市为01的交易金额总和;
交易金额大于80且城市为02的交易金额总和;
交易金额大于80且城市为03的交易金额总和;
交易金额大于80且城市为01的交易次数;
交易金额大于80且城市为02的交易次数;
交易金额大于80且城市为03的交易次数。
第五步:提取特征
根据上述特征提取方案分别处理每一个用户的全部交易数据,得到每一个用户的多个特征,从而得到多个样本。
在一些场景中,需要对模型进行多轮迭代,每一轮迭代时模型的结构与上一轮迭代时模型的结构可能是相同的,也可能是不同的。例如,后一轮迭代时模型中样本的特征维度是相对较少的。这是因为基于前一轮迭代过程中的数据分析,可以剔除一些无意义的特征维度。
图4为根据本申请一实施例的样本更新方法的流程示意图,该方法用于对模型进行一轮迭代之后,在下一轮迭代之前,对样本的结构进行更新,删减部分特征维度,在该流程中,从设备角度而言,执行主体可以是一个或者多个电子设备;从程序角度而言,执行主体相应地可以是搭载于这些电子设备上的程序。
该方法包括以下步骤301至步骤303。
步骤301、依次将全部样本中一个特征维度的特征取值随机打乱,将打乱处理后的样本输入准投产模型,得到各特征维度对应的测试损失函数值向量,所述准投产模型为所述第一输出模型或包含所述第一输出模型和所述第一输入模型的组合;
步骤302、将未被打乱处理的样本输入所述准投产模型,得到原始损失函数值向量;
步骤303、根据各测试损失函数值向量与所述原始损失函数值向量的比较结果筛选特征维度。
由于全部样本的某一个特征维度的取值被随机打乱,如该特征维度是一个重要的特征维度,那么打乱之后准投产模型的输出与打乱之前准投产模型的输出差异较大。如该特征维度是一个无意义的特征维度,那么打乱之后准投产模型的输出与打乱之前准投产模型的输出差异较小。由于待评价的特征维度的取值是随机打乱的,更能发掘出该特征维度是否是一个重要的特征维度。
在一些实施例中,根据各测试损失函数值向量与所述原始损失函数值向量的比较结果筛选特征维度,包括:
分别将各测试损失函数值向量与原始损失函数值向量进行比较,得到各维度特征对应的显著性参数;
根据各特征维度的显著性参数筛选特征维度。
即用采用特定的方法对两个向量的差异进行量化,得到显著性参数。
在一些实施例中,各特征维度对应的显著性参数按照如下方式确定:
计算测试损失函数值向量与所述原始损失函数值向量的差向量;
计算所述差向量中各项的均值与各项的标准差的商作为对应特征维度的显著性参数。
当然,也可以用差向量的模作为显著性参数。
在一些实施例中,根据各特征维度的显著性参数筛选特征维度,包括:
对各特征维度对应的显著性参数进行分箱;
按照不同的概率从对应分箱内随机挑选特征维度,其中,显著性参数相对较高的分箱内的特征维度被选中的概率相对较高。
如此,即能保证下一轮迭代时样本的特征维度是相对有价值的特征维度,又能保留一定的随机性。
以下以一个数值化的实例介绍筛选特征维度的方法。
以样本数量是7为例,每个样本具有7个特征维度。7个样本的7个特征构成特征矩阵如下:
[[12,3,4,5,6,10,12];
[21,23,4,6,6,12,2];
[8,3,14,25,16,41,32];
[54,31,24,15,6,10,17];
[11,32,24,5,16,9,7];
[6,13,26,5,36,10,32];
[36,23,14,45,16,6,12]]。
每一行代表一个样本的所有特征,每一列代表每一特征维度的特征。
如需评估第1特征维度的价值,操作方法就是随机打乱特征矩阵中第一列的特征的取值,使得这一列的特征与原始的特征分布不一致。经过随机打乱第一列的特征值,特征矩阵变为:
[[36,3,4,5,6,10,12];
[6,23,4,6,6,12,2];
[12,3,14,25,16,41,32];
[11,31,24,15,6,10,17];
[8,32,24,5,16,9,7];
[54,13,26,5,36,10,32];
[21,23,14,45,16,6,12]]。
原始第一列的特征为[12,21,8,54,11,6,36],经过随机打乱变为[36,6,12,11,8,54,21]。
使用待投产模型对随机打乱后的特征矩阵进行预测,计算每个样本的损失函数值构成测试损失函数值向量。
使用待投产模型对随机打乱前的特征矩阵进行预测,计算每个样本的损失函数值构成原始损失函数值向量。
如此进行7轮比较,分别得到7个特征维度的显著性参数。7个特征维度的显著性参数例如依次为:5.3、2.1、0.6、3.2、0.9、1.5、2.4。
对显著性参数进行分箱,例如得到两个分箱[5.3,2.1,3.2,2.4]和[0.6,0.9,1.5]。
其中,第一个分箱中的特征显著性高,对应的特征分别是第1列特征,第2列特征,第4列特征,第7列特征。第二个分箱中的特征显著性较低,对应的特征分别是第3列特征,第5列特征,第6列特征。
因为第一分箱中的特征显著性高,所以以较高的概率r=0.8的概率从中筛选特征,从第1列特征,第2列特征,第4列特征,第7列特征中随机抽取3列,例如抽中了第1列特征、第2列特征和第7列特征。
因为第二分箱中的特征显著性较低,所以以较低的概率r=0.5的概率从中筛选特征,从第3列特征,第5列特征,第6列特征中随机抽取2列,例如抽中了第3列特征和第5列特征。
如此从7个特征维度中抽取了5个特征维度,也就是从7列特征值中抽中了5列特征值(第1、2、3、4、7列)。用于下一轮训练的特征矩阵变为:
[[12,3,4,6,12];
[21,23,4,6,2];
[8,3,14,16,32];
[54,31,24,6,17];
[11,32,24,16,7];
[6,13,26,36,32];
[36,23,14,16,12]]。
需要说明的是,以上对模型训练方法的3种改进方式可以组合在一起使用。例如按照前述方法生成特征,然后按照前述方法进行模型迭代。又例如按照前述方法进行模型迭代之后,在下一轮模型迭代之前对样本的特征维度进行删减。又例如首先生成丰富特征维度的特征,然后对特征的维度进行删减。以下提供的另一个实例中,将以上3种改进措施组合在一起使用。
输入:样本X的实例数据E={e(xi)|xi∈X},标签y={y1,y2,...,yn}。
参数:子模型的个数m。
输出:准投产模型其中,Tk(x)为第k个子模型。
完整流程分别Step1和Step2两个大的步骤。以下以类程序化的方式展现模型优化过程。
Step1:
以前述自学习的方式构建模型训练所需要的特征集合F={f1,f2,...,fc};
初始化第1次特征筛选集合fs1=F;
初始化所有的样本的权重W1=(1,1,...,1)。
Step2:
for j=1,2,3,...,m:
作为本次模型训练的特征集合,训练第j个子模型,得到的子模型Tj(x);
计算每个样本在第j个子模型Tj(x)不同迭代次数的损失函数值矩阵其中/>表示第i个样本在第t次迭代的误差函数值;
计算每个样本在准投产模型上Mj(x)的损失函数值
根据损失函数值Lj和Cj,更新样本的权重
筛选出在准投产模型上Mj(x)有显著性的特征值作为下一轮模型迭代时的模型。
图5为根据本申请一实施例的基于机器学习的模型优化装置,用于执行前述的方法,该基于机器学习的模型优化装置包括:至少一个处理器;以及,与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行:前述的基于机器学习的模型优化方法。
根据本申请的一些实施例,提供了方法的非易失性计算机存储介质,其上存储有计算机可执行指令,该计算机可执行指令设置为在由处理器运行时执行:前述的基于机器学习的模型优化方法。
本申请中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置和计算机可读存储介质实施例而言,由于其基本相似于方法实施例,所以其描述进行了简化,相关之处可参见方法实施例的部分说明即可。
本申请实施例提供的装置和计算机可读存储介质与方法是一一对应的,因此,装置和计算机可读存储介质也具有与其对应的方法类似的有益技术效果,由于上面已经对方法的有益技术效果进行了详细说明,因此,这里不再赘述装置和计算机可读存储介质的有益技术效果。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、装置、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。此外,尽管在附图中以特定顺序描述了本申请方法的操作,但是,这并非要求或者暗示必须按照该特定顺序来执行这些操作,或是必须执行全部所示的操作才能实现期望的结果。附加地或备选地,可以省略某些步骤,将多个步骤合并为一个步骤执行,和/或将一个步骤分解为多个步骤执行。
虽然已经参考若干具体实施方式描述了本申请的精神和原理,但是应该理解,本申请并不限于所公开的具体实施方式,对各方面的划分也不意味着这些方面中的特征不能组合以进行受益,这种划分仅是为了表述的方便。本申请旨在涵盖所附权利要求的精神和范围内所包括的各种修改和等同布置。
Claims (30)
1.一种基于机器学习的模型优化方法,其特征在于,包括:
确定多个包括交易数据的样本、各所述样本的权重和各所述样本的标签;
根据所述多个样本、各所述样本的权重和各所述样本的标签对第一输入模型进行多次迭代,得到各所述样本的损失函数值序列、以及第一输出模型;
根据各所述损失函数值序列中的损失函数值随所述多次迭代的变化趋势、及所述变化趋势彼此之间的比较关系对样本的权重进行更新;
其中,对至少一个样本,其对应的权重按照如下方式进行更新:
以数字的方式表征当前样本对准投产模型的损失函数值在全部样本对所述准投产模型的损失函数值中的分布位置,得到当前样本的第一分布信息值,所述准投产模型为所述第一输出模型或包含所述第一输出模型和所述第一输入模型的组合,所述第一分布信息值随着当前样本的损失函数值在全部样本中的减小而增大;
以数字的方式表征当前样本在所述第一输入模型进行迭代时损失函数值序列的变化趋势值在全部样本在所述第一输入模型进行迭代时损失函数值序列的变化趋势值中的分布位置,得到当前样本的第二分布信息值,所述第二分布信息值随着当前样本的变化趋势值在全部样本中的减少而增大;
根据所述第一分布信息值和所述第二分布信息值对当前样本对应的权重进行更新;
其中,所述变化趋势值以数字的方式表征损失函数值序列的变化趋势。
2.根据权利要求1所述的方法,其特征在于,根据各所述损失函数值序列中的损失函数值随所述多次迭代的变化趋势、及所述变化趋势彼此之间的比较关系对样本的权重进行更新,包括:
从所述多个样本中划分出第一类样本、第二类样和第三类样本,其中,所述第一类样本和所述第二类样本的损失函数值序列均收敛,所述第一类样本的收敛速度比所述第二类样本的收敛速度快,所述第三类样本的损失函数值序列不收敛;
更新权重时,执行对所述第一类样本的权重进行调减、对所述第二类样本的权重进行调增、和对所述第三类样本的权重进行调减中的至少一项操作。
3.根据权利要求1所述的方法,其特征在于,第一分布信息值和第二分布信息值按照如下方式确定:
计算比当前样本的损失函数值小的其余样本数量与全部样本数的比值,作为所述第一分布信息值;
计算比当前样本的变化趋势值小的其余样本数量与全部样本数量的比值,作为所述第二分布信息值。
4.根据权利要求3所述的方法,其特征在于,按照如下公式计算当前样本更新后的权重:
;
;
其中,为当前样本的第一分布信息值,/>为当前样本的第二分布信息值,和/>均为比例系数,r和s均为大于0且小于1的衰减因子,且r+s=1,/>为损失函数值等级,/>为对损失函数值等级进行分箱之后当前样本的损失函数值所在分箱的平均值。
5.根据权利要求3所述的方法,其特征在于,按照如下公式计算当前样本更新后的权重:
;
;
其中,为当前样本的第一分布信息值,/>为当前样本的第二分布信息值,和/>均为比例系数,r和s均为大于0且小于1的衰减因子,且r+s=1,/>为损失函数值等级。
6.根据权利要求4或5所述的方法,其特征在于,0.8<r<0.95。
7.根据权利要求1所述的方法,其特征在于,所述变化趋势值按照如下方式计算:
将所述损失函数值序列的尾部第一设定数量数据点的平均值与其头部第二设定数量数据点的平均值的商作为所述变化趋势值。
8.根据权利要求1所述的方法,其特征在于,所述多个样本是按照如下方式构建的:
获取多组原始数据以及每组原始数据对应的标签,其中,每组原始数据至少包括一份原始数据,每份原始数据具有多个实例维度的实例信息;
分别对单一实例维度的实例信息进行分箱,根据各分箱的正负样本区分能力从各分箱方式中筛选出特征算子;
根据至少一种目标口径对应的特征算子、和至少一个预设聚合函数构建出多个特征提取方案,所述目标口径属于所述多个实例维度;
根据所述多个特征提取方案分别从各组原始数据中提取特征,从各组原始数据所提取出的特征分别构成一个所述样本。
9.根据权利要求8所述的方法,其特征在于,分别对单一实例维度的实例信息进行分箱,根据各分箱的正负样本区分能力从各分箱方式中筛选出特征算子,包括:
按照如下公式确定各分箱方式的正负样本区分能力:
,
其中,为当前分箱方式中正样本的ID个数,/>为当前分箱方式中负样本的ID个数,P为所述多组原始数据中正样本的ID个数,N为所述多组原始数据中负样本的ID个数,/>为当前实例维度当前分箱方式的正负样本区分能力值,每组原始数据分别具有一个ID,同一分箱方式中属于同一组原始数据的实例信息的ID个数记为1个;
将正负样本区分能力值大于设定阈值的分箱方式作为特征算子。
10.根据权利要求8所述的方法,其特征在于,根据至少一种目标口径对应的特征算子、和至少一个预设聚合函数构建出多个特征提取方案,包括:
从各目标口径中分别挑选一个特征算子,从至少一个预设聚合函数中挑选一个聚合函数,挑选出的特征算子与挑选出的聚合函数的各组合方式分别构成一个特征提取方案。
11.根据权利要求8所述的方法,其特征在于,对单一实例维度的实例信息进行分箱的方式包括以下至少一种:
对于连续类型的实例维度,每个分箱方式对应一个数值区间;
对于离散类型的实例维度,每个离散值作为一个分箱方式;
对于文本类型的实例维度,每种文本作为一个分箱方式;
对于时间戳类型的实例维度,以星期或日期作为分箱方式,或以时长为分箱方式。
12.根据权利要求8所述的方法,其特征在于,
如所述聚合函数针对的是连续类型的实例维度,所述聚合函数包括:最大值、最小值、评价值、总和、方差和占比中的至少一项;
如所述聚合函数针对的是离散类型的实例维度,所述聚合函数包括:频次、频数、占比中的至少一项;
如所述聚合函数针对的是时间类型的实例维度,所述聚合函数包括:天数、月数、活跃天数、活跃月数、时间间隔、最早时间和最晚时间中的至少一项。
13.根据权利要求8所述的方法,其特征在于,所述特征提取方案还包括时间窗口。
14.根据权利要求1所述的方法,其特征在于,还包括:
根据所述多个样本、各所述样本更新后的权重和各所述样本的标签对第一输出模型进行多次迭代,得到第二输出模型。
15.根据权利要求1所述的方法,其特征在于,还包括:
根据准投产模型对所述多个样本进行更新,其中,删减样本的特征维度,所述准投产模型为所述第一输出模型或包含所述第一输出模型和所述第一输入模型的组合;
根据更新后的样本及对应的更新后的权重、和各样本的标签对所述准投产模型进行多次迭代,得到第二输出模型;
根据所述准投产模型对所述多个样本进行更新,包括:
依次将全部样本中一个特征维度的特征取值随机打乱,将打乱处理后的样本输入准投产模型,得到各特征维度对应的测试损失函数值向量;
将未被打乱处理的样本输入所述准投产模型,得到原始损失函数值向量;
根据各测试损失函数值向量与所述原始损失函数值向量的比较结果筛选特征维度。
16.根据权利要求15所述的方法,其特征在于,根据各测试损失函数值向量与所述原始损失函数值向量的比较结果筛选特征维度,包括:
分别将各测试损失函数值向量与原始损失函数值向量进行比较,得到各维度特征对应的显著性参数;
根据各特征维度的显著性参数筛选特征维度。
17.根据权利要求16所述的方法,其特征在于,各特征维度对应的显著性参数按照如下方式确定:
计算测试损失函数值向量与所述原始损失函数值向量的差向量;
计算所述差向量中各项的均值与各项的标准差的商作为对应特征维度的显著性参数。
18.根据权利要求16所述的方法,其特征在于,根据各特征维度的显著性参数筛选特征维度,包括:
对各特征维度对应的显著性参数进行分箱;
按照不同的概率从对应分箱内随机挑选特征维度,其中,显著性参数相对较高的分箱内的特征维度被选中的概率相对较高。
19.一种基于机器学习的模型训练方法,其特征在于,包括:
构建多个包括交易数据的样本;
根据所述多个样本、各所述样本的权重和各所述样本的标签对第一输入模型进行多次迭代,得到各所述样本的损失函数值序列、以及第一输出模型;
其中,构建多个样本,包括:
获取多组原始数据以及每组原始数据对应的标签,其中,每组原始数据至少包括一份原始数据,每份原始数据具有多个实例维度的实例信息;
分别对单一实例维度的实例信息进行分箱,根据各分箱的正负样本区分能力从各分箱方式中筛选出特征算子;
根据至少一种目标口径对应的特征算子、和至少一个预设聚合函数构建出多个特征提取方案,所述目标口径属于所述多个实例维度;
根据所述多个特征提取方案分别从各原始数据中提取特征,从各组原始数据所提取出的特征分别构成一个所述样本;
所述方法还包括:
依次将全部样本中一个特征维度的特征取值随机打乱,根据准投产模型所确定的打乱前后的损失函数值向量比较结果对所述多个样本进行更新;所述准投产模型至少包含所述第一输出模型;
其中,按照如下公式确定各分箱方式的正负样本区分能力:
,
其中,为当前分箱方式中正样本的ID个数,/>为当前分箱方式中负样本的ID个数,P为所述多组原始数据中正样本的ID个数,N为所述多组原始数据中负样本的ID个数,/>为当前实例维度当前分箱方式的正负样本区分能力值,每组原始数据分别具有一个ID,同一分箱方式中属于同一组原始数据的实例信息的ID个数记为1个;
将正负样本区分能力值大于设定阈值的分箱方式作为特征算子。
20.根据权利要求19所述的方法,其特征在于,根据至少一种目标口径对应的特征算子、和至少一个预设聚合函数构建出多个特征提取方案,包括:
从各目标口径中分别挑选一个特征算子,从至少一个预设聚合函数中挑选一个聚合函数,挑选出的特征算子与挑选出的聚合函数的各组合方式分别构成一个特征提取方案。
21.根据权利要求19所述的方法,其特征在于,对单一实例维度的实例信息进行分箱的方式包括以下至少一种:
对于连续类型的实例维度,每个分箱方式对应一个数值区间;
对于离散类型的实例维度,每个离散值作为一个分箱方式;
对于文本类型的实例维度,每种文本作为一个分箱方式;
对于时间戳类型的实例维度,以星期或日期作为分箱方式,或以时长为分箱方式。
22.根据权利要求19所述的方法,其特征在于,
如所述聚合函数针对的是连续类型的实例维度,所述聚合函数包括:最大值、最小值、评价值、总和、方差和占比中的至少一项;
如所述聚合函数针对的是离散类型的实例维度,所述聚合函数包括:频次、频数、占比中的至少一项;
如所述聚合函数针对的是时间类型的实例维度,所述聚合函数包括:天数、月数、活跃天数、活跃月数、时间间隔、最早时间和最晚时间中的至少一项。
23.根据权利要求19所述的方法,其特征在于,所述特征提取方案还包括时间窗口。
24.根据权利要求19所述的方法,其特征在于,还包括:
根据所述多个样本、各所述样本更新后的权重和各所述样本的标签对第一输出模型进行多次迭代,得到第二输出模型。
25.根据权利要求19所述的方法,其特征在于,所述根据准投产模型所确定的打乱前后的损失函数值向量比较结果对所述多个样本进行更新,包括:
将打乱处理后的样本输入所述准投产模型,得到各特征维度对应的测试损失函数值向量;
将未被打乱处理的样本输入所述准投产模型,得到原始损失函数值向量;
根据各测试损失函数值向量与所述原始损失函数值向量的比较结果筛选特征维度;
还包括:
根据更新后的样本及对应的更新后的权重、和各样本的标签对第二输入模型进行多次迭代,得到第二输出模型。
26.根据权利要求25所述的方法,其特征在于,根据各测试损失函数值向量与所述原始损失函数值向量的比较结果筛选特征维度,包括:
分别将各测试损失函数值向量与原始损失函数值向量进行比较,得到各维度特征对应的显著性参数;
根据各特征维度的显著性参数筛选特征维度。
27.根据权利要求26所述的方法,其特征在于,各特征维度对应的显著性参数按照如下方式确定:
计算测试损失函数值向量与所述原始损失函数值向量的差向量;
计算所述差向量中各项的均值与各项的标准差的商作为对应特征维度的显著性参数。
28.根据权利要求27所述的方法,其特征在于,根据各特征维度的显著性参数筛选特征维度,包括:
对各特征维度对应的显著性参数进行分箱;
按照不同的概率从对应分箱内随机挑选特征维度,其中,显著性参数相对较高的分箱内的特征维度被选中的概率相对较高。
29.一种基于机器学习的模型优化装置,其特征在于,包括:
至少一个处理器;以及,与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行:根据权利要求1至28任意一项所述的方法。
30.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有程序,当所述程序被处理器执行时,使得所述处理器执行:根据权利要求1至28任意一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110184013.9A CN112819085B (zh) | 2021-02-10 | 2021-02-10 | 基于机器学习的模型优化方法、装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110184013.9A CN112819085B (zh) | 2021-02-10 | 2021-02-10 | 基于机器学习的模型优化方法、装置及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112819085A CN112819085A (zh) | 2021-05-18 |
CN112819085B true CN112819085B (zh) | 2023-10-24 |
Family
ID=75865188
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110184013.9A Active CN112819085B (zh) | 2021-02-10 | 2021-02-10 | 基于机器学习的模型优化方法、装置及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112819085B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116089808A (zh) * | 2023-02-06 | 2023-05-09 | 迪爱斯信息技术股份有限公司 | 一种特征选择方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106778820A (zh) * | 2016-11-25 | 2017-05-31 | 北京小米移动软件有限公司 | 识别模型确定方法及装置 |
CN109325639A (zh) * | 2018-12-06 | 2019-02-12 | 南京安讯科技有限责任公司 | 一种用于信用预测评估的信用评分卡自动化分箱方法 |
CN109614866A (zh) * | 2018-11-08 | 2019-04-12 | 中科天网(广东)科技有限公司 | 基于级联深度卷积神经网络的人脸检测方法 |
WO2019127924A1 (zh) * | 2017-12-29 | 2019-07-04 | 深圳云天励飞技术有限公司 | 样本权重分配方法、模型训练方法、电子设备及存储介质 |
CN110781934A (zh) * | 2019-10-15 | 2020-02-11 | 深圳市商汤科技有限公司 | 监督学习、标签预测方法及装置、电子设备和存储介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106548210B (zh) * | 2016-10-31 | 2021-02-05 | 腾讯科技(深圳)有限公司 | 基于机器学习模型训练的信贷用户分类方法及装置 |
CN109409416B (zh) * | 2018-09-29 | 2021-06-18 | 上海联影智能医疗科技有限公司 | 特征向量降维方法和医学图像识别方法、装置及存储介质 |
-
2021
- 2021-02-10 CN CN202110184013.9A patent/CN112819085B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106778820A (zh) * | 2016-11-25 | 2017-05-31 | 北京小米移动软件有限公司 | 识别模型确定方法及装置 |
WO2019127924A1 (zh) * | 2017-12-29 | 2019-07-04 | 深圳云天励飞技术有限公司 | 样本权重分配方法、模型训练方法、电子设备及存储介质 |
CN109614866A (zh) * | 2018-11-08 | 2019-04-12 | 中科天网(广东)科技有限公司 | 基于级联深度卷积神经网络的人脸检测方法 |
CN109325639A (zh) * | 2018-12-06 | 2019-02-12 | 南京安讯科技有限责任公司 | 一种用于信用预测评估的信用评分卡自动化分箱方法 |
CN110781934A (zh) * | 2019-10-15 | 2020-02-11 | 深圳市商汤科技有限公司 | 监督学习、标签预测方法及装置、电子设备和存储介质 |
Non-Patent Citations (4)
Title |
---|
Learning to reweight examples for robust deep learning;M. Ren等;International Conference on Machine Learning (2018);全文 * |
Not all samples are created equal: deep learning with importance sampling;A. Katharopoulos等;International Conference on Machine Learning (2018);全文 * |
一种改进的带参数AdaBoost算法;邱仁博等;计算机工程;第42卷(第07期);全文 * |
基于深度学习算法的人脸活体识别门禁系统设计;王学花等;贵阳学院学报(自然科学版)(第01期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112819085A (zh) | 2021-05-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108986470B (zh) | 粒子群算法优化lstm神经网络的行程时间预测方法 | |
CN110782658B (zh) | 一种基于LightGBM算法的交通量预测方法 | |
CN114241779B (zh) | 一种城市快速路交通流短时预测方法、计算机及存储介质 | |
CN110991495B (zh) | 生产制造过程中产品质量预测方法、系统、介质及设备 | |
CN111738477A (zh) | 基于深层特征组合的电网新能源消纳能力预测方法 | |
CN112819085B (zh) | 基于机器学习的模型优化方法、装置及存储介质 | |
CN110956277A (zh) | 一种交互式的迭代建模系统及方法 | |
CN111126865B (zh) | 一种基于科技大数据的技术成熟度判断方法和系统 | |
CN116468536A (zh) | 一种自动化风险控制规则生成的方法 | |
CN111507824A (zh) | 风控模型入模变量最小熵分箱方法 | |
CN114385465A (zh) | 一种故障预测方法、设备及存储介质 | |
CN115618987A (zh) | 生产井生产数据预测方法、装置、设备和存储介质 | |
CN110543904A (zh) | 一种基于贝叶斯的企业风险分类模型构建方法 | |
CN109977977B (zh) | 一种识别潜在用户的方法及对应装置 | |
CN110751400B (zh) | 一种风险评估方法及装置 | |
CN116993548A (zh) | 基于增量学习的LightGBM-SVM的教育培训机构信用评估方法及系统 | |
CN111066562A (zh) | 一种葡萄霜霉病预测方法及系统 | |
CN116681945A (zh) | 一种基于强化学习的小样本类增量识别方法 | |
CN111046912A (zh) | 特征衍生方法、装置及计算机设备 | |
CN111028086A (zh) | 基于聚类与lstm网络的增强指数跟踪方法 | |
CN115631379A (zh) | 结合主动学习和噪声筛除的视频分析方法、装置及介质 | |
CN113656707A (zh) | 一种理财产品推荐方法、系统、存储介质及设备 | |
CN114861858A (zh) | 一种路面异常数据检测方法、装置、设备及可读存储介质 | |
KR102466482B1 (ko) | 적응적 배치 선택 전략을 이용한 딥 뉴럴 네트워크 학습 가속 시스템 및 방법 | |
CN109508455B (zh) | 一种GloVe超参数调优方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |