CN111753987A - 机器学习模型的生成方法和装置 - Google Patents
机器学习模型的生成方法和装置 Download PDFInfo
- Publication number
- CN111753987A CN111753987A CN202010649102.1A CN202010649102A CN111753987A CN 111753987 A CN111753987 A CN 111753987A CN 202010649102 A CN202010649102 A CN 202010649102A CN 111753987 A CN111753987 A CN 111753987A
- Authority
- CN
- China
- Prior art keywords
- model
- training
- machine learning
- data
- gbdt
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/01—Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Feedback Control In General (AREA)
Abstract
本发明提供一种机器学习模型的生成方法和装置,所述方法包括以下步骤:获取初始数据集,并对初始数据集进行自动化特征工程处理、自动特征选择和分批次的自适应采样,以得到训练集和验证集;构建GBDT模型;利用验证集调整GBDT模型的参数;通过训练集对调参后的GBDT模型进行训练,以得到第一结果模型;通过深度学习模型对训练集中的数据进行嵌入处理;通过嵌入处理后的训练集对调参后的GBDT模型进行训练,以得到第二结果模型;对第一结果模型和第二结果模型进行融合,以得到目标模型。本发明能够方便地在保证数据有效性的前提下减小数据量,提高后续模型训练的速度,并能够缓解数据类别不平衡问题,而且所生成的机器学习模型性能较高,实用性较强。
Description
技术领域
本发明涉及机器学习技术领域,具体涉及一种机器学习模型的生成方法、一种机器学习模型的生成装置、一种计算机设备和一种计算机程序产品。
背景技术
在人工智能的时代,许多实际应用程序都依赖于机器学习,然而这些程序的开发人员却并不都具备专业的机器学习算法研发能力,因而非常需要部署AutoML(自动机器学习)算法来自动进行学习。此外,有些应用中的数据只能分批次获取,例如每天、每周、每月或每年,并且数据分布随时间的变化相对缓慢。这就要求AutoML具备持续学习或者终生学习的能力。这一类的典型问题包括客户关系管理、在线广告、推荐、情感分析、欺诈检测、垃圾邮件过滤、运输监控、计量经济学、病人监控、气候监测、制造等。
首先,现实世界问题的数据往往是多种不同数据类型的,需要特定领域的专家对这些数据进行大量的预处理及特征工程,这无疑是不够方便的,并且存在大量的类别不平衡问题。其次,目前基于这些数据所训练的机器学习模型大多仅适用于单一的应用场景,性能和实用性均有待提高。
发明内容
本发明为解决上述技术问题,提供了一种机器学习模型的生成方法和装置,能够方便地在保证数据有效性的前提下减小数据量,提高后续模型训练的速度,并能够缓解数据类别不平衡问题,而且所生成的机器学习模型性能较高,实用性较强。
本发明采用的技术方案如下:
一种机器学习模型的生成方法,包括以下步骤:获取初始数据集,并对所述初始数据集进行自动化特征工程处理、自动特征选择和分批次的自适应采样,以得到训练集和验证集;构建GBDT(Gradient Boosting Decision Tree,梯度提升迭代决策树)模型;利用所述验证集调整所述GBDT模型的参数;通过所述训练集对调参后的GBDT模型进行训练,以得到第一结果模型;通过深度学习模型对所述训练集中的数据进行嵌入处理;通过嵌入处理后的训练集对调参后的GBDT模型进行训练,以得到第二结果模型;对所述第一结果模型和所述第二结果模型进行融合,以得到目标模型。
自动化特征工程处理包括:基于时间特征、分类特征、数值特征和多值分类特征做特征间的高阶组合,同时自动提取跨时间、样本和特征的高阶组合。
所述的机器学习模型的生成方法还包括:针对数据大小、数据复杂度,自适应选择batch(批)数目,同时对于每个batch,设定不同batch间采样率随时间增加;在对所述初始数据集进行自动化特征工程处理时,加入关于不同batch数据之间的信息。
分批次的自适应采样包括:针对数据情况、计算机性能、算法执行时间的限制,自适应地对数据采取不同的采样方式和比例;采用分批次的方式选取样本。
所述GBDT模型为LightGBM。
利用所述验证集调整所述GBDT模型的参数包括:利用所述验证集采用随机搜索自动调整LightGBM的学习率、叶子结点、树的深度、行采样和列采样。
所述的机器学习模型的生成方法还包括:加入先验知识,设置多组不同的学习率,通过早停法选择LightGBM的学习率,以保证模型能训练一定的轮数,并且通过所述验证集选择最好的学习率。
一种机器学习模型的生成装置,包括:数据处理模块,所述数据处理模块用于获取初始数据集,并对所述初始数据集进行自动化特征工程处理、自动特征选择和分批次的自适应采样,以得到训练集和验证集;建模模块,所述建模模块用于构建GBDT模型;调参模块,所述调参模块用于利用所述验证集调整所述GBDT模型的参数;第一训练模块,所述第一训练模块用于通过所述训练集对调参后的GBDT模型进行训练,以得到第一结果模型;嵌入处理模块,所述嵌入处理模块用于通过深度学习模型对所述训练集中的数据进行嵌入处理;第二训练模块,所述第二训练模块用于通过嵌入处理后的训练集对调参后的GBDT模型进行训练,以得到第二结果模型;融合模块,所述融合模块用于对所述第一结果模型和所述第二结果模型进行融合,以得到目标模型。
一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时,实现上述机器学习模型的生成方法。
一种计算机程序产品,当所述计算机程序产品中的指令由处理器执行时,执行上述机器学习模型的生成方法。
本发明的有益效果:
本发明通过自动化特征工程和自动特征选择,能够方便地在保证数据有效性的前提下减小数据量,提高后续模型训练的速度,通过分批次的自适应采样,能够缓解数据类别不平衡问题,通过基于GBDT模型和深度学习模型的模型训练及融合,所生成的机器学习模型性能较高,实用性较强。
附图说明
图1为本发明实施例的机器学习模型的生成方法的流程图;
图2为本发明一个实施例的机器学习模型的生成方法的流程框架示意图;
图3为本发明一个实施例的模型融合示意图;
图4为本发明实施例的机器学习模型的生成装置的方框示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,本发明实施例的机器学习模型的生成方法包括以下步骤:
S1,获取初始数据集,并对初始数据集进行自动化特征工程处理、自动特征选择和分批次的自适应采样,以得到训练集和验证集。
在本发明的一个实施例中,初始数据集可以为表格数据,具体可为表格形式的时序数据。
具体地,参照图2,可构建自动化特征工程,首先基于时间特征、分类特征、数值特征、多值分类特征做特征间的高阶组合,获取高阶特征;同时,自动提取跨时间、样本和特征的高阶组合。通过不同特征的间的组合,实现了一个自动特征工程方法,进而提取重要特征进行高阶组合,从而避免了指数级的特征组合,并且能挖掘三阶甚至四阶不同类型的特征组合,有效地提升后续生成的模型的性能。
由于数据集本身所包含的特征并不全部有效,因此本发明实施例中需进行自动特征选择。具体地,首先可过滤掉方差低的特征,降低数据维度,加速后续的模型训练。其次,通过计算特征的相似性,删除相似性比较高的特征,同时,结合特征重要性及序列后向选择算法,忽略重要性低的特征,这能过滤掉大量的特征并且对于模型的精度影响很小,并且极大地加速了后续的模型训练和预测速度。为了提升模型的性能,并快速的过滤掉过拟合特征,可采用序列后向选择算法,筛选出重要性极高的特征。特征间的组合很容易造成维度灾难,为了避免维度灾难,可迭代地进行特征工程和特征选择,在低阶特征生成后,利用特征选择过滤大部分特征,在其基础上进行更高阶的特征组合,更有效地提取了高阶特征并避免了维度灾难。
机器学习算法普遍需要面对数据的类别不平衡性对模型性能的影响,有些数据集的正负比例甚至可以达到万级别,本发明实施例中对于数据的类别不平衡处理上,采用以下两种方式:自适应采样和分批次采样。其中,自适应采样能够自动针对数据情况(数据大小,数据类型不同)、计算机性能、算法执行时间的限制等各种因素的不同,自适应地对数据采取不同的采样方式和比例,在保证模型满足基本限制的前提下,最大限度的提升模型的性能。同时,在数据采样时,仍然保留大量的高比例样本,通过采用分批次的方式选取样本,在加入模型中训练时,让模型轮流训练这些批次,这样能够尽可能保留更多的原始数据的信息,同时缓解了类别不平衡问题。
海量数据,尤其时序数据还存在概念漂移问题,参照图2,本发明实施例中为解决概念漂移问题采用自适应数据融合,即针对数据大小、数据复杂度,自适应选择batch数目,同时对于每个batch,设定不同batch间采样率随时间增加。此外,在对初始数据集进行自动化特征工程处理时,可加入大量关于不同batch数据之间的信息,从而实现抗概念漂移特征。
S2,构建GBDT模型。
GBDT模型可基于信息增益学习特征间的高阶非线性组合,常用的有LightGBM、XGBoost、CatBoost等。其中LightGBM的运行速度和效果均较好,因此本发明实施例采用LightGBM。
S3,利用验证集调整GBDT模型的参数。
具体地,可利用验证集采用随机搜索自动调整LightGBM的学习率、叶子结点、树的深度、行采样和列采样等。同时,可加入先验知识,设置多组不同的学习率,通过早停法(early-stopping)选择LightGBM的学习率,以保证模型能训练一定的轮数,并且通过验证集选择最好的学习率。
S4,通过训练集对调参后的GBDT模型进行训练,以得到第一结果模型。
S5,通过深度学习模型对训练集中的数据进行嵌入处理(embedding)。
S6,通过嵌入处理后的训练集对调参后的GBDT模型进行训练,以得到第二结果模型。
S7,对第一结果模型和第二结果模型进行融合,以得到目标模型。
在本发明的实施例中,可使用不同的行采样及列采样来训练多个不同的模型,这不仅仅更加充分的利用了样本,也使得每个模型使用的数据和特征具有充分的差异性,同时大大减少了过拟合的风险。参照图3,具体可通过深度学习模型中的embedding层对数据进行embedding,然后将embedding特征加入到GBDT模型中进行训练。进行和不进行embedding的训练集可分别训练出两种不同的模型,即上述第一结果模型和第二结果模型,最后对该两种模型进行融合得到想要的机器学习模型。
根据本发明实施例的机器学习模型的生成方法,通过自动化特征工程和自动特征选择,能够方便地在保证数据有效性的前提下减小数据量,提高后续模型训练的速度,通过分批次的自适应采样,能够缓解数据类别不平衡问题,通过基于GBDT模型和深度学习模型的模型训练及融合,所生成的机器学习模型性能较高,实用性较强,属于一种Lifelong学习模型。
对应上述实施例的机器学习模型的生成方法,本发明还提出一种机器学习模型的生成装置。
如图4所示,本发明实施例的机器学习模型的生成装置包括数据处理模块10、建模模块20、调参模块30、第一训练模块40、嵌入处理模块50、第二训练模块60和融合模块70。其中,数据处理模块10用于获取初始数据集,并对初始数据集进行自动化特征工程处理、自动特征选择和分批次的自适应采样,以得到训练集和验证集;建模模块20用于构建GBDT模型;调参模块30用于利用验证集调整GBDT模型的参数;第一训练模块40用于通过训练集对调参后的GBDT模型进行训练,以得到第一结果模型;嵌入处理模块50用于通过深度学习模型对训练集中的数据进行嵌入处理;第二训练模块60用于通过嵌入处理后的训练集对调参后的GBDT模型进行训练,以得到第二结果模型;融合模块70用于对第一结果模型和第二结果模型进行融合,以得到目标模型。
本发明实施例的机器学习模型的生成装置更具体的实施方式可参照上述机器学习模型的生成方法的实施例,在此不再赘述。
根据本发明实施例的机器学习模型的生成装置,通过数据处理模块进行自动化特征工程和自动特征选择,能够在保证数据有效性的前提下减小数据量,提高后续模型训练的速度,通过数据处理模块进行分批次的自适应采样,能够缓解数据类别不平衡问题,通过其他模块基于GBDT模型和深度学习模型的模型训练及融合,所生成的机器学习模型性能较高,实用性较强,属于一种Lifelong学习模型。
对应上述实施例,本发明还提出一种计算机设备。
本发明实施例的计算机设备包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行该计算机程序时,可实现根据本发明上述实施例所述的机器学习模型的生成方法。
根据本发明实施例的计算机设备,处理器执行存储在存储器上的计算机程序时,通过自动化特征工程和自动特征选择,能够在保证数据有效性的前提下减小数据量,提高后续模型训练的速度,通过分批次的自适应采样,能够缓解数据类别不平衡问题,通过基于GBDT模型和深度学习模型的模型训练及融合,所生成的机器学习模型性能较高,实用性较强。
对应上述实施例,本发明还提出一种计算机程序产品。
当本发明实施例的计算机程序产品中的指令由处理器执行时,可执行根据本发明上述实施例所述的机器学习模型的生成方法。
根据本发明实施例的计算机程序产品,处理器执行其中的指令时,通过自动化特征工程和自动特征选择,能够在保证数据有效性的前提下减小数据量,提高后续模型训练的速度,通过分批次的自适应采样,能够缓解数据类别不平衡问题,通过基于GBDT模型和深度学习模型的模型训练及融合,所生成的机器学习模型性能较高,实用性较强。
在本发明的描述中,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。“多个”的含义是两个或两个以上,除非另有明确具体的限定。
在本发明中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”、“固定”等术语应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
在本发明中,除非另有明确的规定和限定,第一特征在第二特征“上”或“下”可以是第一和第二特征直接接触,或第一和第二特征通过中间媒介间接接触。而且,第一特征在第二特征“之上”、“上方”和“上面”可是第一特征在第二特征正上方或斜上方,或仅仅表示第一特征水平高度高于第二特征。第一特征在第二特征“之下”、“下方”和“下面”可以是第一特征在第二特征正下方或斜下方,或仅仅表示第一特征水平高度小于第二特征。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必针对相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,“计算机可读介质”可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (10)
1.一种机器学习模型的生成方法,其特征在于,包括以下步骤:
获取初始数据集,并对所述初始数据集进行自动化特征工程处理、自动特征选择和分批次的自适应采样,以得到训练集和验证集;
构建GBDT模型;
利用所述验证集调整所述GBDT模型的参数;
通过所述训练集对调参后的GBDT模型进行训练,以得到第一结果模型;
通过深度学习模型对所述训练集中的数据进行嵌入处理;
通过嵌入处理后的训练集对调参后的GBDT模型进行训练,以得到第二结果模型;
对所述第一结果模型和所述第二结果模型进行融合,以得到目标模型。
2.根据权利要求1所述的机器学习模型的生成方法,其特征在于,自动化特征工程处理包括:
基于时间特征、分类特征、数值特征和多值分类特征做特征间的高阶组合,同时自动提取跨时间、样本和特征的高阶组合。
3.根据权利要求2所述的机器学习模型的生成方法,其特征在于,还包括:
针对数据大小、数据复杂度,自适应选择batch数目,同时对于每个batch,设定不同batch间采样率随时间增加;
在对所述初始数据集进行自动化特征工程处理时,加入关于不同batch数据之间的信息。
4.根据权利要求1-3中任一项所述的机器学习模型的生成方法,其特征在于,分批次的自适应采样包括:
针对数据情况、计算机性能、算法执行时间的限制,自适应地对数据采取不同的采样方式和比例;
采用分批次的方式选取样本。
5.根据权利要求1所述的机器学习模型的生成方法,其特征在于,所述GBDT模型为LightGBM。
6.根据权利要求5所述的机器学习模型的生成方法,其特征在于,利用所述验证集调整所述GBDT模型的参数包括:
利用所述验证集采用随机搜索自动调整LightGBM的学习率、叶子结点、树的深度、行采样和列采样。
7.根据权利要求6所述的机器学习模型的生成方法,其特征在于,还包括:
加入先验知识,设置多组不同的学习率,通过早停法选择LightGBM的学习率,以保证模型能训练一定的轮数,并且通过所述验证集选择最好的学习率。
8.一种机器学习模型的生成装置,其特征在于,包括:
数据处理模块,所述数据处理模块用于获取初始数据集,并对所述初始数据集进行自动化特征工程处理、自动特征选择和分批次的自适应采样,以得到训练集和验证集;
建模模块,所述建模模块用于构建GBDT模型;
调参模块,所述调参模块用于利用所述验证集调整所述GBDT模型的参数;
第一训练模块,所述第一训练模块用于通过所述训练集对调参后的GBDT模型进行训练,以得到第一结果模型;
嵌入处理模块,所述嵌入处理模块用于通过深度学习模型对所述训练集中的数据进行嵌入处理;
第二训练模块,所述第二训练模块用于通过嵌入处理后的训练集对调参后的GBDT模型进行训练,以得到第二结果模型;
融合模块,所述融合模块用于对所述第一结果模型和所述第二结果模型进行融合,以得到目标模型。
9.一种计算机设备,其特征在于,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时,实现根据权利要求1-7中任一项所述的机器学习模型的生成方法。
10.一种计算机程序产品,其特征在于,当所述计算机程序产品中的指令由处理器执行时,执行根据权利要求1-7中任一项所述的机器学习模型的生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010649102.1A CN111753987A (zh) | 2020-07-08 | 2020-07-08 | 机器学习模型的生成方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010649102.1A CN111753987A (zh) | 2020-07-08 | 2020-07-08 | 机器学习模型的生成方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111753987A true CN111753987A (zh) | 2020-10-09 |
Family
ID=72680123
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010649102.1A Pending CN111753987A (zh) | 2020-07-08 | 2020-07-08 | 机器学习模型的生成方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111753987A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112990480A (zh) * | 2021-03-10 | 2021-06-18 | 北京嘀嘀无限科技发展有限公司 | 构建模型的方法、装置、电子设备和存储介质 |
CN112990270A (zh) * | 2021-02-10 | 2021-06-18 | 华东师范大学 | 一种传统特征与深度特征的自动融合方法 |
CN113688861A (zh) * | 2021-07-06 | 2021-11-23 | 清华大学 | 基于机器学习的低维特征小样本多分类方法和装置 |
CN114153829A (zh) * | 2021-11-30 | 2022-03-08 | 中国电力工程顾问集团华东电力设计院有限公司 | 用于能源大数据的跨时空双向数据缺失值填充方法和装置 |
CN114841060A (zh) * | 2022-04-21 | 2022-08-02 | 深圳微言科技有限责任公司 | 实现自动机器学习的方法及装置 |
-
2020
- 2020-07-08 CN CN202010649102.1A patent/CN111753987A/zh active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112990270A (zh) * | 2021-02-10 | 2021-06-18 | 华东师范大学 | 一种传统特征与深度特征的自动融合方法 |
CN112990270B (zh) * | 2021-02-10 | 2023-04-07 | 华东师范大学 | 一种传统特征与深度特征的自动融合方法 |
CN112990480A (zh) * | 2021-03-10 | 2021-06-18 | 北京嘀嘀无限科技发展有限公司 | 构建模型的方法、装置、电子设备和存储介质 |
CN113688861A (zh) * | 2021-07-06 | 2021-11-23 | 清华大学 | 基于机器学习的低维特征小样本多分类方法和装置 |
CN114153829A (zh) * | 2021-11-30 | 2022-03-08 | 中国电力工程顾问集团华东电力设计院有限公司 | 用于能源大数据的跨时空双向数据缺失值填充方法和装置 |
CN114153829B (zh) * | 2021-11-30 | 2023-01-20 | 中国电力工程顾问集团华东电力设计院有限公司 | 用于能源大数据的跨时空双向数据缺失值填充方法和装置 |
CN114841060A (zh) * | 2022-04-21 | 2022-08-02 | 深圳微言科技有限责任公司 | 实现自动机器学习的方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111753987A (zh) | 机器学习模型的生成方法和装置 | |
CN108596410B (zh) | 一种风控事件自动处理方法及装置 | |
CN112508243A (zh) | 电力信息系统多故障预测网络模型的训练方法及装置 | |
CN109800781A (zh) | 一种图像处理方法、装置及计算机可读存储介质 | |
CN109271957B (zh) | 人脸性别识别方法以及装置 | |
CN113139687A (zh) | 一种预测信用卡用户违约的方法及装置 | |
CN115394358A (zh) | 基于深度学习的单细胞测序基因表达数据插补方法和系统 | |
Xing et al. | Automatic thresholding using a modified valley emphasis | |
CN110782349A (zh) | 一种模型训练方法和系统 | |
CN110458600A (zh) | 画像模型训练方法、装置、计算机设备及存储介质 | |
CN113807469A (zh) | 一种多能源用户价值预测方法、装置、存储介质和设备 | |
CN114943307A (zh) | 一种模型训练的方法、装置、存储介质以及电子设备 | |
CN112565422A (zh) | 一种对电力物联网故障数据的识别方法、系统和存储介质 | |
CN112884569A (zh) | 一种信用评估模型的训练方法、装置及设备 | |
CN115858774A (zh) | 用于文本分类的数据增强方法、装置、电子设备及介质 | |
CN110263817B (zh) | 一种基于用户账号的风险等级划分方法及装置 | |
CN113506175A (zh) | 中小企业风险预警模型优化方法、装置、设备和存储介质 | |
CN106874286B (zh) | 一种筛选用户特征的方法及装置 | |
CN111046912A (zh) | 特征衍生方法、装置及计算机设备 | |
CN112632219B (zh) | 一种垃圾短信的拦截方法和拦截装置 | |
CN110246026B (zh) | 一种数据转移的输出组合设定方法、装置及终端设备 | |
CN114298829A (zh) | 用于授信评估的数据处理方法和装置 | |
CN113360416A (zh) | 测试数据批量生成方法及装置 | |
CN111145066A (zh) | 基于无限层级数据结构的城市体征画像的确定方法及系统 | |
Olofsson | A machine learning ensemble approach to churn prediction: Developing and comparing local explanation models on top of a black-box classifier |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |