CN108280462A - 一种模型训练方法及装置,电子设备 - Google Patents
一种模型训练方法及装置,电子设备 Download PDFInfo
- Publication number
- CN108280462A CN108280462A CN201711308334.5A CN201711308334A CN108280462A CN 108280462 A CN108280462 A CN 108280462A CN 201711308334 A CN201711308334 A CN 201711308334A CN 108280462 A CN108280462 A CN 108280462A
- Authority
- CN
- China
- Prior art keywords
- training sample
- training
- model
- machine learning
- fusion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/01—Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
Abstract
本申请提供了一种模型训练方法,属于计算机技术领域,解决现有技术中模型训练方法训练得到的模型应用于数据挖掘或搜索等应用时,预测结果不准确的问题。所述方法包括:根据训练样本,获得至少一份子训练样本;根据每份所述子训练样本,分别训练与每份所述子训练样本对应的多个机器学习模型,并获取相应机器学习模型对所述每份子训练样本的预测值;根据所述预测值,确定融合训练样本;根据所述融合训练样本,训练目标机器学习模型。本申请实施例公开的模型训练方法,通过将前次训练得到的模型的预测结果作为特征,进一步进行训练目标模型,可以有效提升训练得到的模型的预测效果准确性。
Description
技术领域
本申请涉及计算机技术领域,特别是涉及一种模型训练方法及装置,电子设备。
背景技术
随着平台数据量的增加,对平台数据的利用显得尤为重要。例如:通过平台数据进行建模,利用预先训练的模型预测用户行为或者提供用户感兴趣的数据。现有技术中,比较常用的方法是通过预先训练一个模型,并通过训练好的模型对实时数据进行预测。进一步的,为了提升预测数据的准确性,现有技术中出现了一种预先训练多个模型,然后,通过每个模型分别进行数据预测,最后,将预测结果进行融合,例如,通过将各模型预测的得分加权求和,得到数据的最终预测得分。现有技术中的个模型在训练时,直接提取平台数据的预设维度特征,然后基于SVM分类器或神经网络模型进行训练。
但是,现有技术中的单个模型的预测效果过于片面,预测结果不够准确;而多个模型在进行融合时依赖人工设置的融合权重,同样存在预测结果不准确的问题。
发明内容
本申请提供一种模型训练方法,解决现有技术中的模型训练方法训练得到的模型应用于数据挖掘或搜索等应用时,预测结果不准确的问题。
为了解决上述问题,第一方面,本申请实施例提供了一种模型训练方法包括:
根据每份所述子训练样本,分别训练与每份所述子训练样本对应的多个机器学习模型,并获取相应机器学习模型对所述每份子训练样本的预测值;
根据所述预测值,确定融合训练样本;
根据所述融合训练样本,训练目标机器学习模型。
第二方面,本申请实施例提供了一种模型训练装置,包括:
采样模块,用于根据训练样本,获得至少一份子训练样本;
单模型训练和预测模块,用于根据每份所述子训练样本,分别训练与每份所述子训练样本对应的多个机器学习模型,并获取相应机器学习模型对所述每份子训练样本的预测值;
样本特征融合模块,用于根据所述预测值,确定融合训练样本;
目标机器模型训练模块,用于根据所述样本特征融合模块确定的融合训练样本,训练目标机器学习模型。
第三方面,本申请实施例还公开了一种电子设备,包括存储器、处理器及存储在所述存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现本申请实施例所述的模型训练方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时本申请实施例公开的模型训练方法的步骤。
本申请实施例公开的模型训练方法,通过训练样本,获得至少一份子训练样本;然后,根据每份所述子训练样本,分别训练与每份所述子训练样本对应的多个机器学习模型,并获取相应机器学习模型对所述每份子训练样本的预测值;根据所述预测值,确定融合训练样本;最后,根据所述融合训练样本,训练目标机器学习模型,解决了现有技术中的模型训练方法训练得到的模型应用于数据挖掘或搜索等应用时,预测结果不准确的问题。本申请实施例公开的模型训练方法,通过将训练样本分为多份,用于训练不同的机器学习模型,然后,再将前次训练得到的模型的预测结果作为特征,进一步进行训练,可以有效规避由于训练模型单一或者训练数据分布不均匀导致的训练得到的模型预测结果不准确的问题,有效提升训练得到的模型的预测效果准确性。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例一的模型训练方法流程图;
图2是本申请实施例二的模型训练方法流程图;
图3是本申请实施例二的多个单模型训练示意图;
图4是本申请实施例三的模型训练装置结构示意图之一;
图5是本申请实施例三的模型训练装置结构示意图之二;
图6是本申请实施例三的模型训练装置结构示意图之三。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
实施例一
本实施例公开的一种模型训练方法,如图1所示,该方法包括:步骤110至步骤140。
步骤110,根据训练样本,获得至少一份子训练样本。
用于训练模型的训练样本通常包括:样本标签和预设维度样本特征。所述预设维度根据源数据以及待训练模型的应用场景不同相应选择。以预测用户的购买率为例,可以的预设维度包括:用户性别、年龄、职业、居住地、商品品类、价格、购买次数等特征。训练样本数量越多,训练得到的模型预测结果越准确。本申请具体实施时,首先对训练样本进行采样,以得到多份子训练样本,分别用于训练不同的机器学习模型。例如,随机抽取总训练样本中的80%组成一份子训练样本。
步骤120,根据每份所述子训练样本,分别训练与每份所述子训练样本对应的多个机器学习模型,并获取相应机器学习模型对所述每份子训练样本的预测值。
为了进一步提升训练得到的模型预测结果的准确性,本申请采用迭代训练的方法训练目标模型。即预设多个,如M个机器学习模型,首先,通过所述至少一份子训练样本对所述M个机器学习模型进行训练。然后,再利用训练得到的模型对训练样本的预测值作为样本特征,重新生成训练数据,进一步训练预设的多个或1个机器学习模型。其中,M为大于1的整数。本申请实施例中,以M=5为例详细阐述模型训练过程。所述M个机器学习模型可以相同,也可以不同。所述机器学习模型可以为逻辑回归模型,随机森林模型,贝叶斯方法模型,支持向量机模型、神经网络模型中的任意一个或多个,或为其他模型。
具体实施时,首先将至少一份子训练样本分别作为M个机器学习模型的输入,训练所述每份子训练样本对应的所述M个机器学习模型,可以得到每份子训练样本对应的M个机器学习模型。然后,对于每份子训练样本,通过其对应的M个机器学习模型分别对其进行预测,得到M组预测值。其中,每一组预测值包括该份子训练样本中每一条数据的预测值。若子训练样本有N份,则N份子训练样本分别通过各子训练样本对应的M个机器学习模型分别对其进行预测,将得到N*M组预测值。其中,N和M为大于1的整数。
步骤130,根据所述预测值,确定融合训练样本。
具体实施时,通过上述步骤获得的N*M组预测值中,包括:M个机器学习模型分别对第1份子训练样本中每条样本数据预测得到的预测值、M个机器学习模型分别对第2份子训练样本中每条样本数据预测得到的预测值、…、M个机器学习模型分别对第N份子训练样本中每条样本数据预测得到的预测值。即,如果一条训练样本被采样到N份子训练样本中,该条训练样本将会得到N*M个预测值。具体实施时,将这N*M个预测值作为该条数据的的样本特征,生成融合训练样本,用于接下来训练机器学习模型。
步骤140,根据所述融合训练样本,训练目标机器学习模型。
通过将预测值作为样本特征,生成融合训练样本之后,每条训练样本将拥有一个N*M维的样本特征,样本标签保持不变,然后,根据融合训练样本,训练目标机器学习模型。
本申请实施例公开的模型训练方法,通过对训练样本进行采样,获得至少一份子训练样本;然后,根据每份所述子训练样本,分别训练与每份所述子训练样本对应的多个机器学习模型,并获取相应机器学习模型对所述每份子训练样本的预测值;并根据所述预测值生成融合训练样本;最后,根据融合训练样本,训练目标机器学习模型,解决了现有技术中的模型训练方法训练得到的模型应用于数据挖掘或搜索等应用时,预测结果不准确的问题。本申请实施例公开的模型训练方法,通过将训练样本分为多份,用于训练不同的机器学习模型,然后,再将前次训练得到的模型的预测结果作为特征,进一步进行训练,可以有效规避由于训练模型单一或者训练数据分布不均匀导致的训练得到的模型预测结果不准确的问题,有效提升训练得到的模型的预测效果准确性。
实施例二
本实施例公开的一种模型训练方法,如图2所示,该方法包括:步骤210至步骤270。
步骤210,根据训练样本,获得至少一份子训练样本。
训练样本数量越多,训练得到的模型预测结果越准确。本申请具体实施时,首先对训练样本进行采样,以得到多份子训练样本,分别用于训练不同的机器学习模型。具体实施时,所述根据训练样本,获得至少一份子训练样本,包括:对训练样本进行随机采样,得到至少一份子训练样本;对每份子训练样本进行特征采样。假设训练样本总共有10000条,要得到10份子训练样本,可以随机抽取总训练样本中的80%组成一份子训练样本,则每份子训练样本中包括8000条训练样本。
用于训练模型的训练样本通常包括:样本标签和预设维度样本特征。所述预设维度根据源数据以及待训练模型的应用场景不同相应选择。然后,进一步对每一份样本进行特征采样。具体实施时,为了提升训练得到的模型的差异性,提高预测准确度,进一步对每份子训练样本进行特征采样。例如,随机选择子训练样本的部分维度的特征用于训练和预测,删除其他维度的特征。以预测用户的购买率为例,首次训练机器学习模型时,预设维度包括:用户性别、年龄、职业、居住地、商品品类、价格、购买次数等特征。在对子训练样本进行特征采样时,随即删除部分维度的特征后,对于第一份子训练样本,其样本特征可以包括:性别、居住地、商品品类;而对于第二份子训练样本,其样本特征可以包括:性别、职业、价格。经过对子训练样本进行特征采样,将进一步增加训练得到的模型的差异性。以训练样本item1为例,首次训练机器学习模型时,item1的特征为从平台原始数据中提取的预设维度的特征,如下表所示:
样本标签 | 特征1 | 特征2 | 特征3 | 特征4 | … | |
item1 | 1 | 149901204 | 1002423 | 26.776 | 14 | … |
步骤220,根据每份所述子训练样本,分别训练与每份所述子训练样本对应的多个机器学习模型,并获取相应机器学习模型对所述每份子训练样本的预测值。
优选的,所述多个机器学习模型为不同类型的机器学习模型。
本实施例中,以训练5个机器学习模型,即M=5为例详细阐述模型训练过程。如图3所示,假设M个机器学习模型分别为:Model1(逻辑回归模型)、Model2(随机森林模型)、Model3(贝叶斯方法模型)、Model4(支持向量机模型)和Model5(神经网络模型)。假设对训练样本进行采样后,得到了10份子训练样本,分别记为:Sample1至Sample10。那么,具体实施时,将Sample1分别作为Model1至Model5的输入,基于Sample1分别训练Model1至Model5,将得到与Sample1对应的5个机器学习模型,分别为:逻辑回归模型Model11、随机森林模型Model21、贝叶斯方法模型Model31、支持向量机模型Model41和神经网络模型Model51。同理,将Sample2至Sample10分别作为Model1至Model5的输入,基于Sample2至Sample10分别训练Model1至Model5。通过将每份子训练样本分别作为5个机器学习模型的输入,训练所述每份子训练样本对应的所述5个机器学习模型,将得50个机器学习模型。其中,每份子训练样本对应5个机器学习模型。
然后,对于每份子训练样本,通过该份子训练样本对应5个机器学习模型分别对该份子训练样本进行预测,得到该份子训练样本的5组预测值。例如,通过逻辑回归模型Model11、随机森林模型Model21、贝叶斯方法模型Model31、支持向量机模型Model41和神经网络模型Model51分别对子训练样本Sample1进行预测,将得到子训练样本Sample1基于多个机器学习模型的预测值。
具体实施时,根据每份所述子训练样本,分别训练与每份所述子训练样本对应的多个机器学习模型,并获取相应机器学习模型对所述每份子训练样本的预测值,包括:将每份所述子训练样本分别作为多个机器学习模型的输入,通过K-折交叉验证法训练所述每份子训练样本对应的所述多个机器学习模型,并获取相应机器学习模型对所述每份子训练样本的预测值。本申请实施例中以K=5为例,详细说明将一份子训练样本分别作为5个机器学习模型的输入,通过K-折交叉验证法训练所述该份子训练样本对应的所述5个机器学习模型的具体方案。
具体实施时,将每份所述子训练样本分别作为多个机器学习模型的输入,通过K-折交叉验证法训练所述每份子训练样本对应的所述多个机器学习模型,并获取相应机器学习模型对所述每份子训练样本的预测值,包括:对于每份子训练样本,将其分别作为多个机器学习模型的输入,以训练该份子训练样本对应的多个机器学习模型;对于每份子训练样本,通过该份子训练样本对应的所述机器学习模型,分别对该份子训练样本进行预测,得到每份子训练样本基于对应的每个机器学习模型的预测值。
其中,训练当前份子训练样本对应的指定机器学习模型,进一步包括:将当前份子训练样本随机分成K份;每次选择所述K份中不同的1份作为测试样本,将剩余K-1份作为所述测试样本对应的训练样本,并基于所述训练样本分别训练所述指定机器学习模型,以获取与所述指定机器学习模型对应的K个子机器学习模型。以子训练样本Sample1作为前份子训练样本,指定模型为逻辑回归模型为例,首先,将Sample1平均分成5份,分别标记为D1、D2、D3、D4和D5。第一次,选择D1作为测试样本,D2至D5作为与D1对应的训练样本,基于D2至D5训练一个逻辑回归模型,训练得到的逻辑回归模型记为Model111。Model111是基于子训练样本Sample1的部分样本训练的,与子训练样本Sample1对应。第二次,选择D2作为测试样本,D1、D3至D5作为与D2对应的训练样本,基于D1、D3至D5训练一个逻辑回归模型,训练得到的逻辑回归模型记为Model112。Model112是基于子训练样本Sample1的部分样本训练的,与子训练样本Sample1对应。按照此方法,可以依次训练得到与子训练样本Sample1对应的逻辑回归模型Model113、Model114和Model115。与逻辑回归模型Model113、Model114和Model115的训练样本对应的测试样本分别为D3、D4和D5。其中,逻辑回归模型Model111、Model111、Model113、Model114和Model115是逻辑回归模型Model11对应的子机器学习模型。
然后,通过指定份子训练样本对应的一个机器学习模型,对该份子训练样本进行预测,得到该份子训练样本基于所述一个机器学习模型的预测结果,包括:确定所述指定份子训练样本对应的一个机器学习模型所对应的K个子机器学习模型;通过每个所述子机器学习模型分别对指定测试样本进行预测,获取每个所述子机器学习模型分别对所述指定份子训练样本的预测值;其中,所述指定测试样本为训练所述子机器学习模型时采用的训练样本对应的测试样本;将所述K个子机器学习模型分别对所述指定份子训练样本的预测值进行融合,得到所述K个子机器学习模型对应的机器学习模型对所述指定份子训练样本的预测值。
以指定份子训练样本为子训练样本Sample1为例,当通过子训练样本Sample1对应的逻辑回归模型Model11对子训练样本Sample1进行预测时,首先确定子训练样本Sample1对应的逻辑回归模型Model11所进一步对应的5个子模型,即Model111、Model111、Model113、Model114和Model115。然后,通过Model111对测试样本D1进行预测,等到测试样本D1中每条样本的预测值;通过Model112对测试样本D2进行预测,等到测试样本D2中每条样本的预测值;通过Model113对测试样本D3进行预测,等到测试样本D3中每条样本的预测值;通过Model114对测试样本D4进行预测,等到测试样本D4中每条样本的预测值;通过Model115对测试样本D5进行预测,等到测试样本D5中每条样本的预测值。测试样本D1、D2、D3、D4和D5中所有样本的预测值,就构成了逻辑回归模型Model11对子训练样本Sample1的预测值。
按照此方法,可以分别得到子训练样本Sample1的对应的机器学习模型Model21、Model31、Model41和Model51对子训练样本Sample1的预测值。
对不同子份训练样本分别执行上述操作,将得到每子份训练样本对应的5个机器学习模型,以及与每子份训练样本对应的5个机器学习模型分别对该子份训练样本进行预测的预测值。其中,每个机器学习模型对相应子份训练样本进行预测的预测值由该子份训练样本中每条训练样本的预测值组成。
步骤230,根据所述预测值,确定融合训练样本。
根据所述预测值,确定融合训练样本,包括:对于每条训练样本,将各机器学习模型对所述训练样本的预测值作为所述训练样本相应维度的特征值,得到该条训练样本对应的一条融合训练样本。即确定所述训练样本中每条训练样本被采样到至少一份子训练样本中时,由所述至少一份子训练样本对应的M个机器学习模型对该条训练样本进行预测所得到的所有预测值;对于每条训练样本,将每个所述预测值分别作为该条训练样本对应的融合训练样本的相应维度的特征值。本申请具体实施时,通过样本特征融合,将得到每条融合训练样本的N*M维特征。
以训练样本item1为例,假设采样得到的10份子训练样本中都包括item1,那么,item1将用于:训练子训练样本Sample1对应的机器学习模型Model11、Model21、Model31、Model41和Model51;训练子训练样本Sample2对应的机器学习模型Model12、Model22、Model32、Model42和Model52;…;训练子训练样本Sample10对应的机器学习模型Model110、Model210、Model310、Model410和Model510。同时,上述机器学习模型对item1分别进行预测,得到相应的预测值。具体实施时,将上述机器学习模型也会对item1分别进行预测,得到相应的预测值,按照预设维度位置进行排列,即得到与item1对应的融合训练样本item1’的样本特征。例如,将子训练样本Sample1对应的机器学习模型对item1预测得到的预测值作为item1’前5个维度的特征;将子训练样本Sample2对应的机器学习模型对item1预测得到的预测值作为item1’第6至第10个维度的特征,依次排列,即可得到item1’的各维度特征。融合训练样本item1’的样本标签与对应的训练样本item1的标签相同。
再以训练样本item2为例,假设经过采样,item2被采样到子训练样本Sample1和Sample2中,那么,item2将用于:训练子训练样本Sample1对应的机器学习模型Model11、Model21、Model31、Model41和Model51;训练子训练样本Sample2对应的机器学习模型Model12、Model22、Model32、Model42和Model52。同时,上述机器学习模型也会对item2分别进行预测,得到相应的预测值。具体实施时,可以首先将与item2对应的融合训练样本item2’各维度的特征值设置为空,如0;然后,通过上述机器学习模型对item2分别进行预测所得到的相应预测值,按照预设维度位置对相应维度赋值,即得到item2’的各维度特征。例如,通过机器学习模型Model12对item2进行预测所得到的预测值对item2’的第一个特征维度赋值、通过机器学习模型Model22对item2进行预测所得到的预测值对item2’的第二个特征维度赋值…。
经过特征融合后,以训练样本item1和item2为例,首次训练机器学习模型时,item1和item2的特征为从平台原始数据中提取的预设维度的特征,融合训练样本的样本特征的每个维度为某个机器学习模型对该条样本的预测值,如下表所示:
样本标签 | 特征1 | 特征2 | 特征3 | 特征4 | … | |
item1 | 1 | 0.8 | 0.7 | 0.7 | 0.6 | … |
item2 | 0 | 0.2 | 0.1 | 0.1 | 0.1 | … |
在确定了融合训练样本之后,根据所述融合训练样本,训练目标机器学习模型,进一步包括:根据融合训练样本,获得至少一份子融合训练样本;将每份所述子融合训练样本分别作为多个融合机器学习模型的输入,训练所述每份子融合训练样本对应的所述多个融合机器学习模型,并获取相应融合机器学习模型对所述每份子融合训练样本的预测值;根据所述子融合训练样本的预测值,确定目标训练样本;根据所述目标训练样本,训练目标机器学习模型。
步骤240,根据融合训练样本,获得至少一份子融合训练样本。
根据融合训练样本,获得至少一份子融合训练样本的具体实施方式,与步骤210中对训练样本进行采样,得到至少一份子训练样本的具体实施方式相同,此处不再赘述。
步骤250,将每份所述子融合训练样本分别作为多个融合机器学习模型的输入,训练所述每份子融合训练样本对应的所述多个融合机器学习模型,并获取相应融合机器学习模型对所述每份子融合训练样本的预测值。
将每份所述子融合训练样本分别作为多个融合机器学习模型的输入,训练所述每份子融合训练样本对应的所述多个融合机器学习模型,并获取相应融合机器学习模型对所述每份子融合训练样本的预测值,包括:将每份所述子融合训练样本分别作为多个融合机器学习模型的输入,通过K-折交叉验证法训练所述每份子融合训练样本对应的所述多个融合机器学习模型,并获取相应融合机器学习模型对所述每份子融合训练样本的预测值。通过K-折交叉验证法训练所述每份子融合训练样本对应的所述多个融合机器学习模型的具体实施方式参见步骤220,此处不再赘述。具体实施时,训练的融合机器学习模型的数量和种类与步骤220中的机器学习模型的数量和种类可以相同,也可以不同。
步骤260,根据所述子融合训练样本的预测值,确定目标训练样本。
在确定融合机器学习模型对每条融合训练样本的预测值之后,根据所述预测值,生成目标训练样本。具体实施时,对于每条目标训练样本,将各融合机器学习模型对该条融合训练样本的预测值进行融合,作为对应的一条目标训练样本的特征。根据融合训练样本的预测值生成目标训练样本的具体方案参见根据训练样本的预测值生成融合训练样本,此处不再赘述。
步骤270,根据所述目标训练样本,训练目标机器学习模型。
通过将融合机器学习模型的预测值作为样本特征,生成目标训练样本之后,每条目标训练样本将拥有一个多维的样本特征,样本标签与对应的融合训练样本相同。然后,通过目标训练样本,训练目标机器学习模型。具体实施时,所述目标机器学习模型可以选自于所述多个机器学习模型,也可以为其他机器学习模型。
在完成目标机器学习模型的训练后,可以进一步通过训练得到的目标机器学习模型对测试数据进行预测。首先,通过训练得到的与每份子训练样本对应的机器学习模型对待预测数据进行预测,得到单个机器学习模型对应的预测值。例如,通过前述N份子训练样本对应的N*M个机器学习模型分别对待预测样本进行预测,得到N*M个预测值。然后,将得到的N*M个单个机器学习模型对应的预测值输入至目标机器学习模型,得到待预测样本的最终预测值。
具体实施时,在训练每份子训练样本对应的机器学习模型时,记录输入的子训练样本的特征维度,作为与该份子训练样本对应的机器学习模型的输入特征维度。然后,在通过训练得到的某个机器学习模型对所述待预测数据进行预测时,需要根据当前机器学习模型的输入特征维度,提取待预测数据的特征,然后将提取的特征输入至所述当前机器学习模型,得到所述待预测数据的一个预测值。
具体实施时,为了进一步提升模型预测效果,可以根据实际需要设置融合训练的次数,执行一次融合训练或多次融合训练。优选的,至少进行一次迭代训练,即将迭代次数设置为1。
可选的,所述根据所述子融合训练样本的预测值,确定目标训练样本的步骤之前,还包括:若训练融合机器学习模型的次数小于预设值,则重复执行根据融合训练样本,获得至少一份子融合训练样本,和将每份所述子融合训练样本分别作为多个融合机器学习模型的输入,训练所述每份子融合训练样本对应的所述多个融合机器学习模型,并获取相应融合机器学习模型对所述每份子融合训练样本的预测值的步骤,以执行迭代训练;若迭代训练融合机器学习模型的次数大于或等于预设值,则转入根据所述子融合训练样本的预测值,确定目标训练样本的步骤。例如,所述预设值等于2时,则当执行完当步骤210至步骤250后,仅执行了1次融合模型训练,即训练融合机器学习模型的次数小于预设值,则跳转至步骤240,重复执行步骤240和步骤250,再进行一次融合模型训练。经过2次融合机器学习模型训练之后,转入根据所述子融合训练样本的预测值,确定目标训练样本的步骤。
本申请实施例公开的模型训练方法,通过对训练样本进行采样,获得N份子训练样本;然后,根据每份所述子训练样本,分别训练与每份所述子训练样本对应的多个机器学习模型,并获取相应机器学习模型对所述每份子训练样本的预测值;并根据所述预测值确定融合训练样本;并进行一定次数的迭代训练,最后,通过最后一次迭代训练得到的模型的预测值确定目标训练样本,并基于目标训练样本训练目标机器学习模型,解决了现有技术中的模型训练方法训练得到的模型应用于数据挖掘或搜索等应用时,预测结果不准确的问题。本申请实施例公开的模型训练方法,通过将训练样本分为多份,用于训练不同的机器学习模型,然后,再将前次训练得到的模型的预测结果作为特征,进一步进行训练,可以有效规避由于训练模型单一或者训练数据分布不均匀导致的训练的模型预测结果不准确的问题,有效提升训练得到的模型的预测效果准确性。
通过使用K-折交叉验证进行单机器学习模型进行训练,得到单机器学习模型在训练数据上的预测值和测试数据上的预测值,然后再进行特征融合,可以提升将预测值作为融合特征的可靠性,进一步提升目标机器学习模型预测结果的准确性。
通过执行一定深度的迭代训练,可以进一步规避模型单一导致的训练得到的模型预测不准确的问题,进一步提升模型预测效果。
实施例三
本实施例公开的一种模型训练装置,如图4所示,所述装置包括:
采样模块410,用于根据训练样本,获得至少一份子训练样本;
单模型训练和预测模块420,用于根据每份所述子训练样本,分别训练与每份所述子训练样本对应的多个机器学习模型,并获取相应机器学习模型对所述每份子训练样本的预测值;
样本特征融合模块430,用于根据所述预测值,确定融合训练样本;
目标机器模型训练模块440,用于根据所述样本特征融合模块430确定的融合训练样本,训练目标机器学习模型。
可选的,如图5所示,所述目标机器模型训练模块440进一步包括:
融合采样单元4401,用于根据融合训练样本,获得至少一份子融合训练样本;
融合模型训练和预测单元4402,用于将每份所述子融合训练样本分别作为多个融合机器学习模型的输入,训练所述每份子融合训练样本对应的所述多个融合机器学习模型,并获取相应融合机器学习模型对所述每份子融合训练样本的预测值;
目标样本确定单元4403,用于根据所述子融合训练样本的预测值,确定目标训练样本;
目标机器模型训练单元4404,根据所述目标训练样本,训练目标机器学习模型。
可选的,如图6所示,所述目标机器模型训练模块440还包括:
迭代训练判断单元4405,用于若训练融合机器学习模型的次数小于预设值,则重复调用所述融合采样单元4401和所述融合模型训练和预测单元4402,以执行迭代训练;若迭代训练融合机器学习模型的次数大于或等于预设值,则转入所述目标样本确定单元4403。
可选的,所述单模型训练和预测模块420,进一步用于:
将每份所述子训练样本分别作为多个机器学习模型的输入,通过K-折交叉验证法训练所述每份子训练样本对应的所述多个机器学习模型,并获取相应机器学习模型对所述每份子训练样本的预测值。
将每份所述子训练样本分别作为多个机器学习模型的输入,通过K-折交叉验证法训练所述每份子训练样本对应的所述多个机器学习模型,并获取相应机器学习模型对所述每份子训练样本的预测值的具体实施方式,参见实施例二,此处不再赘述。
可选的,所述样本特征融合模块430进一步用于:
对于每条训练样本,将各机器学习模型对所述训练样本的预测值作为所述训练样本相应维度的特征值,得到该条训练样本对应的一条融合训练样本。
可选的,所述采样模块410,进一步用于:
对训练样本进行随机采样,得到至少一份子训练样本;
对每份子训练样本进行特征采样。
可选的,所述多个机器学习模型为不同类型的机器学习模型。
本申请实施例公开的模型训练装置,通过对训练样本进行采样,获得至少一份子训练样本;然后,根据每份所述子训练样本,分别训练与每份所述子训练样本对应的多个机器学习模型,并获取相应机器学习模型对所述每份子训练样本的预测值;并根据所述预测值确定融合训练样本;最后,根据融合训练样本,训练目标机器学习模型,解决了现有技术中的模型训练方法训练得到的模型应用于数据挖掘或搜索等应用时,预测结果不准确的问题。本申请实施例公开的模型训练装置,通过将训练样本分为多份,用于训练不同的机器学习模型,然后,再将前次训练得到的模型的预测结果作为特征,进一步进行训练,可以有效规避由于训练模型单一或者训练数据分布不均匀导致的训练得到的模型预测结果不准确的问题,有效提升训练得到的模型的预测效果准确性。
通过使用K-折交叉验证进行单机器学习模型进行训练,得到单机器学习模型在训练数据上的预测值和测试数据上的预测值,然后再进行特征融合,可以提升将预测值作为融合特征的可靠性,进一步提升目标机器学习模型预测结果的准确性。
通过执行一定深度的迭代训练,可以进一步规避模型单一导致的训练得到的模型预测不准确的问题,进一步提升模型预测效果。
相应的,本申请还公开了一种电子设备,包括存储器、处理器及存储在所述存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如本申请实施例一和实施例二所述的模型训练方法。所述电子设备可以为PC机、移动终端、个人数字助理、平板电脑等。
本申请还公开了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本申请实施例一和实施例二所述的模型训练方法的步骤。
本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。对于装置实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上对本申请提供的一种模型训练方法及装置进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件实现。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
Claims (10)
1.一种模型训练方法,其特征在于,包括:
根据训练样本,获得至少一份子训练样本;
根据每份所述子训练样本,分别训练与每份所述子训练样本对应的多个机器学习模型,并获取相应机器学习模型对所述每份子训练样本的预测值;
根据所述预测值,确定融合训练样本;
根据所述融合训练样本,训练目标机器学习模型。
2.根据权利要求1所述的方法,其特征在于,所述根据所述融合训练样本,训练目标机器学习模型的步骤,包括:
根据融合训练样本,获得至少一份子融合训练样本;
将每份所述子融合训练样本分别作为多个融合机器学习模型的输入,训练所述每份子融合训练样本对应的所述多个融合机器学习模型,并获取相应融合机器学习模型对所述每份子融合训练样本的预测值;
根据所述子融合训练样本的预测值,确定目标训练样本;
根据所述目标训练样本,训练目标机器学习模型。
3.根据权利要求2所述的方法,其特征在于,所述根据所述子融合训练样本的预测值,确定目标训练样本的步骤之前,还包括:
若训练融合机器学习模型的次数小于预设值,则重复执行根据融合训练样本,获得至少一份子融合训练样本,和将每份所述子融合训练样本分别作为多个融合机器学习模型的输入,训练所述每份子融合训练样本对应的所述多个融合机器学习模型,并获取相应融合机器学习模型对所述每份子融合训练样本的预测值的步骤,以执行迭代训练;
若迭代训练融合机器学习模型的次数大于或等于预设值,则转入根据所述子融合训练样本的预测值,确定目标训练样本的步骤。
4.根据权利要求1至3任一项所述的方法,其特征在于,根据每份所述子训练样本,分别训练与每份所述子训练样本对应的多个机器学习模型,并获取相应机器学习模型对所述每份子训练样本的预测值的步骤,包括:
将每份所述子训练样本分别作为多个机器学习模型的输入,通过K-折交叉验证法训练所述每份子训练样本对应的所述多个机器学习模型,并获取相应机器学习模型对所述每份子训练样本的预测值。
5.根据权利要求1至3任一项所述的方法,其特征在于,所述根据所述预测值,确定融合训练样本的步骤,包括:
对于每条训练样本,将各机器学习模型对所述训练样本的预测值作为所述训练样本相应维度的特征值,得到该条训练样本对应的一条融合训练样本。
6.根据权利要求1至3任一项所述的方法,其特征在于,所述根据训练样本,,获得至少一份子训练样本的步骤,包括:
对训练样本进行随机采样,得到至少一份子训练样本;
对每份子训练样本进行特征采样。
7.根据权利要求1至3任一项所述的方法,其特征在于,所述多个机器学习模型为不同类型的机器学习模型。
8.一种模型训练装置,其特征在于,包括:
采样模块,用于根据训练样本,获得至少一份子训练样本;
单模型训练和预测模块,用于根据每份所述子训练样本,分别训练与每份所述子训练样本对应的多个机器学习模型,并获取相应机器学习模型对所述每份子训练样本的预测值;
样本特征融合模块,用于根据所述预测值,确定融合训练样本;
目标机器模型训练模块,用于根据所述样本特征融合模块确定的融合训练样本,训练目标机器学习模型。
9.一种电子设备,包括存储器、处理器及存储在所述存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7任意一项所述的模型训练方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1至7任意一项所述的模型训练方法的步骤。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711308334.5A CN108280462A (zh) | 2017-12-11 | 2017-12-11 | 一种模型训练方法及装置,电子设备 |
US16/768,074 US20200356875A1 (en) | 2017-12-11 | 2018-10-18 | Model training |
PCT/CN2018/110872 WO2019114413A1 (zh) | 2017-12-11 | 2018-10-18 | 模型训练 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711308334.5A CN108280462A (zh) | 2017-12-11 | 2017-12-11 | 一种模型训练方法及装置,电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108280462A true CN108280462A (zh) | 2018-07-13 |
Family
ID=62801483
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711308334.5A Pending CN108280462A (zh) | 2017-12-11 | 2017-12-11 | 一种模型训练方法及装置,电子设备 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20200356875A1 (zh) |
CN (1) | CN108280462A (zh) |
WO (1) | WO2019114413A1 (zh) |
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109146076A (zh) * | 2018-08-13 | 2019-01-04 | 东软集团股份有限公司 | 模型生成方法及装置、数据处理方法及装置 |
CN109299161A (zh) * | 2018-10-31 | 2019-02-01 | 阿里巴巴集团控股有限公司 | 一种数据选择方法和装置 |
CN109460561A (zh) * | 2018-07-25 | 2019-03-12 | 北京国双科技有限公司 | 采油设备故障诊断方法及装置 |
CN109492827A (zh) * | 2018-12-06 | 2019-03-19 | 深圳市中农易讯信息技术有限公司 | 商品价格预测方法、装置、计算机设备及存储介质 |
CN109614777A (zh) * | 2018-11-23 | 2019-04-12 | 第四范式(北京)技术有限公司 | 智能设备以及智能设备的用户身份验证方法和装置 |
CN109727155A (zh) * | 2018-08-02 | 2019-05-07 | 平安科技(深圳)有限公司 | 基于电量预测的用电控制方法、装置、设备和存储介质 |
CN109886408A (zh) * | 2019-02-28 | 2019-06-14 | 北京百度网讯科技有限公司 | 一种深度学习方法及装置 |
WO2019114413A1 (zh) * | 2017-12-11 | 2019-06-20 | 北京三快在线科技有限公司 | 模型训练 |
CN109919931A (zh) * | 2019-03-08 | 2019-06-21 | 数坤(北京)网络科技有限公司 | 冠脉狭窄度评价模型训练方法及评价系统 |
CN110232130A (zh) * | 2019-05-20 | 2019-09-13 | 平安科技(深圳)有限公司 | 元数据管理谱系生成方法、装置、计算机设备和存储介质 |
CN110378739A (zh) * | 2019-07-23 | 2019-10-25 | 中国联合网络通信集团有限公司 | 一种数据流量匹配方法及装置 |
CN110717515A (zh) * | 2019-09-06 | 2020-01-21 | 北京三快在线科技有限公司 | 模型训练方法、装置及电子设备 |
CN110929887A (zh) * | 2020-02-17 | 2020-03-27 | 支付宝(杭州)信息技术有限公司 | 逻辑回归模型训练方法、装置及系统 |
CN110968887A (zh) * | 2018-09-28 | 2020-04-07 | 第四范式(北京)技术有限公司 | 在数据隐私保护下执行机器学习的方法和系统 |
CN111061963A (zh) * | 2019-11-28 | 2020-04-24 | 支付宝(杭州)信息技术有限公司 | 基于多方安全计算的机器学习模型训练及预测方法、装置 |
CN111078876A (zh) * | 2019-12-04 | 2020-04-28 | 国家计算机网络与信息安全管理中心 | 一种基于多模型集成的短文本分类方法和系统 |
CN111105628A (zh) * | 2019-12-23 | 2020-05-05 | 北京首钢自动化信息技术有限公司 | 一种停车场画像构建方法和装置 |
CN111401563A (zh) * | 2018-12-28 | 2020-07-10 | 杭州海康威视数字技术股份有限公司 | 机器学习模型更新方法和装置 |
CN111445134A (zh) * | 2020-03-26 | 2020-07-24 | 珠海随变科技有限公司 | 商品的销量预测方法、装置、计算机设备和存储介质 |
CN111951933A (zh) * | 2020-08-07 | 2020-11-17 | 平安科技(深圳)有限公司 | 眼底彩照图像分级方法、装置、计算机设备及存储介质 |
CN112101452A (zh) * | 2020-09-14 | 2020-12-18 | 中国人民解放军战略支援部队信息工程大学 | 一种访问权限的控制方法及装置 |
CN112466401A (zh) * | 2019-09-09 | 2021-03-09 | 华为技术有限公司 | 利用人工智能ai模型组分析多类数据的方法及装置 |
CN112491820A (zh) * | 2020-11-12 | 2021-03-12 | 新华三技术有限公司 | 异常检测方法、装置及设备 |
CN112653680A (zh) * | 2020-12-14 | 2021-04-13 | 广东电网有限责任公司 | 模型训练方法、网络态势预测方法、装置、设备及介质 |
CN112785005A (zh) * | 2021-01-22 | 2021-05-11 | 中国平安人寿保险股份有限公司 | 多目标任务的辅助决策方法、装置、计算机设备及介质 |
CN113454544A (zh) * | 2019-02-19 | 2021-09-28 | 西门子股份公司 | 为至少一个机器提供模型的方法、训练系统、模拟机器运行的方法及模拟系统 |
CN114187980A (zh) * | 2022-02-15 | 2022-03-15 | 北京晶泰科技有限公司 | 模型训练方法、模型预测方法、分子筛选方法及其装置 |
CN114266253A (zh) * | 2021-12-21 | 2022-04-01 | 武汉百智诚远科技有限公司 | 一种未标注数据的半监督命名实体识别的方法 |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021003391A1 (en) * | 2019-07-02 | 2021-01-07 | Insurance Services Office, Inc. | Machine learning systems and methods for evaluating sampling bias in deep active classification |
US11551044B2 (en) * | 2019-07-26 | 2023-01-10 | Optum Services (Ireland) Limited | Classification in hierarchical prediction domains |
JP7304488B2 (ja) * | 2019-09-24 | 2023-07-06 | グーグル エルエルシー | 強化学習ベースの局所解釈可能モデル |
CN110765110A (zh) * | 2019-10-24 | 2020-02-07 | 深圳前海微众银行股份有限公司 | 泛化能力处理方法、装置、设备及存储介质 |
CN112101566A (zh) * | 2020-09-11 | 2020-12-18 | 石化盈科信息技术有限责任公司 | 预测模型训练方法、价格预测方法、存储介质及电子设备 |
CN116802668A (zh) * | 2020-11-30 | 2023-09-22 | 利维帕尔森有限公司 | 用于自动账户间交互的方法和装置 |
CN112560499B (zh) * | 2020-12-11 | 2024-01-09 | 北京百度网讯科技有限公司 | 语义表示模型的预训练方法、装置、电子设备及存储介质 |
CN113095169B (zh) * | 2021-03-26 | 2022-03-29 | 生态环境部卫星环境应用中心 | 大空间范围储油罐提取方法 |
CN114216246B (zh) * | 2021-12-16 | 2023-08-29 | 东软云科技有限公司 | 空调机组控制方法、装置、存储介质及电子设备 |
CN117349670B (zh) * | 2023-10-25 | 2024-04-12 | 杭州汇健科技有限公司 | 一种肿瘤检测模型训练系统、方法、设备及存储介质 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7844567B2 (en) * | 2007-08-13 | 2010-11-30 | Yahoo! Inc. | System and method for selecting a training sample from a sample test based on data sample proximity |
CN102270279A (zh) * | 2011-07-27 | 2011-12-07 | 华北电力大学 | 一种短期电力负荷预测方法 |
US10325220B2 (en) * | 2014-11-17 | 2019-06-18 | Oath Inc. | System and method for large-scale multi-label learning using incomplete label assignments |
CN106067028A (zh) * | 2015-04-19 | 2016-11-02 | 北京典赞科技有限公司 | 基于gpu的自动化机器学习的建模方法 |
CN106779086A (zh) * | 2016-11-28 | 2017-05-31 | 北京大学 | 一种基于主动学习和模型剪枝的集成学习方法及装置 |
US9900790B1 (en) * | 2016-12-08 | 2018-02-20 | Futurewei Technologies, Inc. | Prediction of performance indicators in cellular networks |
US11586905B2 (en) * | 2017-10-11 | 2023-02-21 | Arizona Board Of Regents On Behalf Of Arizona State University | Systems and methods for customizing kernel machines with deep neural networks |
CN108280462A (zh) * | 2017-12-11 | 2018-07-13 | 北京三快在线科技有限公司 | 一种模型训练方法及装置,电子设备 |
-
2017
- 2017-12-11 CN CN201711308334.5A patent/CN108280462A/zh active Pending
-
2018
- 2018-10-18 US US16/768,074 patent/US20200356875A1/en not_active Abandoned
- 2018-10-18 WO PCT/CN2018/110872 patent/WO2019114413A1/zh active Application Filing
Cited By (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019114413A1 (zh) * | 2017-12-11 | 2019-06-20 | 北京三快在线科技有限公司 | 模型训练 |
CN109460561A (zh) * | 2018-07-25 | 2019-03-12 | 北京国双科技有限公司 | 采油设备故障诊断方法及装置 |
CN109727155A (zh) * | 2018-08-02 | 2019-05-07 | 平安科技(深圳)有限公司 | 基于电量预测的用电控制方法、装置、设备和存储介质 |
CN109146076A (zh) * | 2018-08-13 | 2019-01-04 | 东软集团股份有限公司 | 模型生成方法及装置、数据处理方法及装置 |
CN110968887A (zh) * | 2018-09-28 | 2020-04-07 | 第四范式(北京)技术有限公司 | 在数据隐私保护下执行机器学习的方法和系统 |
CN110968887B (zh) * | 2018-09-28 | 2022-04-05 | 第四范式(北京)技术有限公司 | 在数据隐私保护下执行机器学习的方法和系统 |
CN109299161A (zh) * | 2018-10-31 | 2019-02-01 | 阿里巴巴集团控股有限公司 | 一种数据选择方法和装置 |
CN109299161B (zh) * | 2018-10-31 | 2022-01-28 | 创新先进技术有限公司 | 一种数据选择方法和装置 |
CN109614777A (zh) * | 2018-11-23 | 2019-04-12 | 第四范式(北京)技术有限公司 | 智能设备以及智能设备的用户身份验证方法和装置 |
CN109492827A (zh) * | 2018-12-06 | 2019-03-19 | 深圳市中农易讯信息技术有限公司 | 商品价格预测方法、装置、计算机设备及存储介质 |
CN111401563A (zh) * | 2018-12-28 | 2020-07-10 | 杭州海康威视数字技术股份有限公司 | 机器学习模型更新方法和装置 |
CN111401563B (zh) * | 2018-12-28 | 2023-11-03 | 杭州海康威视数字技术股份有限公司 | 机器学习模型更新方法和装置 |
CN113454544A (zh) * | 2019-02-19 | 2021-09-28 | 西门子股份公司 | 为至少一个机器提供模型的方法、训练系统、模拟机器运行的方法及模拟系统 |
CN109886408A (zh) * | 2019-02-28 | 2019-06-14 | 北京百度网讯科技有限公司 | 一种深度学习方法及装置 |
CN109919931B (zh) * | 2019-03-08 | 2020-12-25 | 数坤(北京)网络科技有限公司 | 冠脉狭窄度评价模型训练方法及评价系统 |
CN109919931A (zh) * | 2019-03-08 | 2019-06-21 | 数坤(北京)网络科技有限公司 | 冠脉狭窄度评价模型训练方法及评价系统 |
CN110232130B (zh) * | 2019-05-20 | 2024-02-02 | 平安科技(深圳)有限公司 | 元数据管理谱系生成方法、装置、计算机设备和存储介质 |
CN110232130A (zh) * | 2019-05-20 | 2019-09-13 | 平安科技(深圳)有限公司 | 元数据管理谱系生成方法、装置、计算机设备和存储介质 |
CN110378739B (zh) * | 2019-07-23 | 2022-03-29 | 中国联合网络通信集团有限公司 | 一种数据流量匹配方法及装置 |
CN110378739A (zh) * | 2019-07-23 | 2019-10-25 | 中国联合网络通信集团有限公司 | 一种数据流量匹配方法及装置 |
CN110717515A (zh) * | 2019-09-06 | 2020-01-21 | 北京三快在线科技有限公司 | 模型训练方法、装置及电子设备 |
CN112466401A (zh) * | 2019-09-09 | 2021-03-09 | 华为技术有限公司 | 利用人工智能ai模型组分析多类数据的方法及装置 |
CN112466401B (zh) * | 2019-09-09 | 2024-04-09 | 华为云计算技术有限公司 | 利用人工智能ai模型组分析多类数据的方法及装置 |
CN111061963A (zh) * | 2019-11-28 | 2020-04-24 | 支付宝(杭州)信息技术有限公司 | 基于多方安全计算的机器学习模型训练及预测方法、装置 |
CN111078876A (zh) * | 2019-12-04 | 2020-04-28 | 国家计算机网络与信息安全管理中心 | 一种基于多模型集成的短文本分类方法和系统 |
CN111105628A (zh) * | 2019-12-23 | 2020-05-05 | 北京首钢自动化信息技术有限公司 | 一种停车场画像构建方法和装置 |
CN110929887A (zh) * | 2020-02-17 | 2020-03-27 | 支付宝(杭州)信息技术有限公司 | 逻辑回归模型训练方法、装置及系统 |
CN111445134A (zh) * | 2020-03-26 | 2020-07-24 | 珠海随变科技有限公司 | 商品的销量预测方法、装置、计算机设备和存储介质 |
CN111951933A (zh) * | 2020-08-07 | 2020-11-17 | 平安科技(深圳)有限公司 | 眼底彩照图像分级方法、装置、计算机设备及存储介质 |
CN111951933B (zh) * | 2020-08-07 | 2023-01-17 | 平安科技(深圳)有限公司 | 眼底彩照图像分级方法、装置、计算机设备及存储介质 |
CN112101452A (zh) * | 2020-09-14 | 2020-12-18 | 中国人民解放军战略支援部队信息工程大学 | 一种访问权限的控制方法及装置 |
CN112101452B (zh) * | 2020-09-14 | 2023-12-22 | 中国人民解放军战略支援部队信息工程大学 | 一种访问权限的控制方法及装置 |
CN112491820B (zh) * | 2020-11-12 | 2022-07-29 | 新华三技术有限公司 | 异常检测方法、装置及设备 |
CN112491820A (zh) * | 2020-11-12 | 2021-03-12 | 新华三技术有限公司 | 异常检测方法、装置及设备 |
CN112653680B (zh) * | 2020-12-14 | 2022-04-12 | 广东电网有限责任公司 | 模型训练方法、网络态势预测方法、装置、设备及介质 |
CN112653680A (zh) * | 2020-12-14 | 2021-04-13 | 广东电网有限责任公司 | 模型训练方法、网络态势预测方法、装置、设备及介质 |
CN112785005A (zh) * | 2021-01-22 | 2021-05-11 | 中国平安人寿保险股份有限公司 | 多目标任务的辅助决策方法、装置、计算机设备及介质 |
CN114266253A (zh) * | 2021-12-21 | 2022-04-01 | 武汉百智诚远科技有限公司 | 一种未标注数据的半监督命名实体识别的方法 |
CN114266253B (zh) * | 2021-12-21 | 2024-01-23 | 武汉百智诚远科技有限公司 | 一种未标注数据的半监督命名实体识别的方法 |
CN114187980A (zh) * | 2022-02-15 | 2022-03-15 | 北京晶泰科技有限公司 | 模型训练方法、模型预测方法、分子筛选方法及其装置 |
Also Published As
Publication number | Publication date |
---|---|
US20200356875A1 (en) | 2020-11-12 |
WO2019114413A1 (zh) | 2019-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108280462A (zh) | 一种模型训练方法及装置,电子设备 | |
CN110263244A (zh) | 内容推荐方法、装置、存储介质和计算机设备 | |
CN110276066A (zh) | 实体关联关系的分析方法及相关装置 | |
Knox et al. | Reinforcement learning from simultaneous human and MDP reward. | |
CN110287477A (zh) | 实体情感分析方法及相关装置 | |
CN107563841A (zh) | 一种基于用户评分分解的推荐系统 | |
CN108427708A (zh) | 数据处理方法、装置、存储介质和电子装置 | |
CN109299258A (zh) | 一种舆情事件检测方法、装置及设备 | |
CN107870964A (zh) | 一种应用于答案融合系统的语句排序方法及系统 | |
CN110971659A (zh) | 推荐消息的推送方法、装置及存储介质 | |
CN107463878A (zh) | 基于深度学习的人体行为识别系统 | |
CN113191838B (zh) | 一种基于异质图神经网络的购物推荐方法及系统 | |
CN110069699B (zh) | 排序模型训练方法和装置 | |
CN111727451A (zh) | 用于计算预测数据的信息处理装置等 | |
CN108241984A (zh) | 一种访客分类方法及装置 | |
CN109816483A (zh) | 信息推荐方法及装置、可读存储介质 | |
CN109784959A (zh) | 一种目标用户预测方法、装置、后台服务器及存储介质 | |
CN108537327A (zh) | 一种基于时间序列bp神经网络预测方法及装置 | |
CN107463879A (zh) | 基于深度学习的人体行为识别方法 | |
CN109117980A (zh) | 数据预填方法、装置及设备 | |
CN111538668A (zh) | 基于强化学习的移动端应用测试方法、装置、设备及介质 | |
CN108074003A (zh) | 预测信息推送方法和装置 | |
CN106354836A (zh) | 一种广告页面的预测方法和装置 | |
Chang et al. | Applying learning behavioral Petri nets to the analysis of learning behavior in web-based learning environments | |
CN107808220A (zh) | 一种收入预测方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180713 |
|
RJ01 | Rejection of invention patent application after publication |