CN112200316B - 一种针对在线预测任务的gbdt学习方法 - Google Patents

一种针对在线预测任务的gbdt学习方法 Download PDF

Info

Publication number
CN112200316B
CN112200316B CN202011187707.XA CN202011187707A CN112200316B CN 112200316 B CN112200316 B CN 112200316B CN 202011187707 A CN202011187707 A CN 202011187707A CN 112200316 B CN112200316 B CN 112200316B
Authority
CN
China
Prior art keywords
neural network
training
decision tree
leaf
gbdt
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011187707.XA
Other languages
English (en)
Other versions
CN112200316A (zh
Inventor
林志贤
庄跃生
张永爱
周雄图
林珊玲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuzhou University
Original Assignee
Fuzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuzhou University filed Critical Fuzhou University
Priority to CN202011187707.XA priority Critical patent/CN112200316B/zh
Publication of CN112200316A publication Critical patent/CN112200316A/zh
Application granted granted Critical
Publication of CN112200316B publication Critical patent/CN112200316B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明涉及一种针对在线预测任务的GBDT学习方法,筛选符合决策树模型训练的数据特征,并输入单棵决策树中训练,对决策树模型的超参数进行微调,根据分类准确率得出最佳超参数,再重新训练决策树模型聚类输出对应的叶子索引;利用两层全连接层将高维稀疏的叶子索引向量嵌入成低维密集向量,再利用深度神经网络拟合低维密集向量,从而完成单棵决策树模型蒸馏为神经网络的过程;最后将GBDT多棵决策树随机划分多组,每组决策树输出的叶子索引向量进行拼接,同组决策树用相同神经网络拟合拼接后叶子索引的低维密集向量,重复多组树的训练,使GBDT完整蒸馏构造为神经网络。本发明能够改善GBDT树模型对表格数据空间的训练学习效果,又能保持高效在线更新能力。

Description

一种针对在线预测任务的GBDT学习方法
技术领域
本发明涉及推荐系统设计技术领域,特别是一种针对在线预测任务的GBDT学习方法。
背景技术
推荐系统中的在线预测任务存在表格数据空间和在线数据流两种特征。表格数据空间指数据特征同时包含类别和数值特征,在线数据生成代表任务实际数据实时生成呈动态分布。
目前GBDT模型在处理在线预测任务时,能够有效地处理密集的数值特征,并且需要大量的离线数据训练。但GBDT中的学习树不可微,在线模式下无法更新树模型;频繁的从头开始训练树模型使其无法处理大规模数据;而且树模型在稀疏类别特征上学习效率极低,使用标签编码或类别编码等方式将类别特征处理成连续特征会丢失数据中有用的特征信息。
发明内容
有鉴于此,本发明的目的是提出一种针对在线预测任务的GBDT学习方法,能够改善GBDT树模型对表格数据空间的训练学习效果,又能保持高效在线更新能力。
本发明采用以下方案实现:一种针对在线预测任务的GBDT学习方法,具体为:将数据集进行预处理,筛选符合决策树模型训练的数据特征,并输入单棵决策树中训练,利用Hyperband算法对决策树模型的超参数进行微调,根据分类准确率得出最佳超参数,之后重新训练决策树模型聚类输出对应的叶子索引;利用两层全连接层将高维稀疏的叶子索引向量嵌入成低维密集向量,再利用深度神经网络拟合低维密集向量,从而完成单棵决策树模型蒸馏为神经网络的过程;最后将GBDT多棵决策树随机划分多组,每组决策树输出的叶子索引向量进行拼接,同组决策树用相同神经网络拟合拼接后叶子索引的低维密集向量,重复多组树的训练,使GBDT完整蒸馏构造为神经网络。
进一步地,所述将数据集进行预处理,筛选符合决策树模型训练的数据特征,并输入单棵决策树中训练具体为:
将输入数据根据特征类型划分为类别特征部分和数值特征部分,将类别特征按照编码方式转化为独热编码;设定缺失值数量的阈值,筛选数据集中符合该阈值的数据特征;再将清洗后数据输入决策树模型训练,根据信息增益的计算,划分树模型内部节点直到叶子节点处输出对应的聚类结果。
进一步地,所述利用Hyperband算法对决策树模型的超参数进行微调,根据分类准确率得出最佳超参数,之后重新训练决策树模型聚类输出对应的叶子索引具体为:
用Hyperband算法对决策树模型调参,根据总预算资源B和预设超参数组数n,则每组超参数分配资源B/n,反复迭代训练决策树模型,每次训练淘汰固定比例η的超参数组,余下超参数组分配最大预算表示为r:
r=Rη-S
式中,s表示控制预算大小,其中模型迭代次数表示为(0,....s);R表示每组超参数组合可分配最多资源;
每次训练淘汰一批超参数组,可分配预算r随之增加,最后得到一组能够分配整部分预算资源r超参数,使决策树模型聚类准确率最佳;
利用调参后的决策树模型输出叶子索引L。
进一步地,所述利用两层全连接层将高维稀疏的叶子索引向量嵌入成低维密集向量,再利用深度神经网络拟合低维密集向量,从而完成单棵决策树模型蒸馏为神经网络的过程具体为:
利用参数为Wt的两层全连接网络拟合叶子索引L,输出低维密集向量表示为H:
H(L,Wt);
用深度神经网络N拟合叶子索引L对应叶子值P,进一步对H优化,其中低维密度向量优化过程的损失函数表示为:
minLoss(N(wTH+w0),p);
式中,式中wT和w0为映射H到P的神经网络N的参数,p表示叶子值;在目标函数minLoss(N(wTH+w0),p)收敛情况下,完成叶子索引L到低维向量H的映射,减少输出叶子节点个数,得到优化后的低维向量H;
用DNN拟合优化后的低维向量H,拟合过程的目标函数表示为:
minLoss_D(DNN(x;θ),H);
式中x是神经网络DNN输入的数据特征,与决策树训练所输入的特征一致,都是经过特征选择过程得到的,θ为DNN的网络参数,Loss_D是交叉熵损失函数;
训练DNN直至Loss_D(DNN(x;θ),H)达到收敛,完成单棵树蒸馏为神经网络的过程。
进一步地,所述将GBDT多棵决策树随机划分多组,每组决策树输出的叶子索引向量进行拼接,同组决策树用相同神经网络拟合拼接后叶子索引的低维密集向量,重复多组树的训练,使GBDT完整蒸馏构造为神经网络具体包括以下步骤:
根据随机分组原则,将GBDT中多棵树划分为K组,每组共用一个神经网络模型训练,将每组树输出叶子索引L进行拼接得到向量G:
G=∑H;
对于一组决策树的蒸馏,重复单棵决策树模型蒸馏为神经网络的过程,将其中的低维密度向量优化过程的训练损失函数重写为:
minLoss(N(wT∑H+w0),∑P);
式中,∑P是叶子索引∑H对应叶子值的拼接数值;将拟合过程的目标函数重写为:
minLoss_D(DNN(x;θ),∑H);
由此完成一组决策树的蒸馏,输出聚类结果y;
对K组决策树进行同样的操作,完成整个GBDT模型蒸馏构造过程,树状神经网络模型输出就是多组树输出之和∑y。
本发明还提供了一种针对在线预测任务的GBDT学习系统,包括存储器、处理器以及存储在存储器上并能够被处理器运行的计算机程序,当处理器运行该计算机程序时能够实现如上文所述的方法步骤。
本发明还提供了一种计算机可读存储介质,其上存储有能够被处理器运行的计算机程序,当处理器运行该计算机程序时,能够实现如上文所述的方法步骤。
与现有技术相比,本发明有以下有益效果:本发明能够改善GBDT处理在线预测任务中类别特征的学习问题,对不断生成的动态数据可以有效实现在线更新。
附图说明
图1为本发明实施例的方法流程示意图。
图2为本发明实施例的原理图。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
应该指出,以下详细说明都是示例性的,旨在对本申请提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本申请所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
如图1所示,本实施例提供了一种针对在线预测任务的GBDT学习方法,具体为:将数据集进行预处理,筛选符合决策树模型训练的数据特征,并输入单棵决策树中训练,利用Hyperband算法对决策树模型的超参数进行微调,根据分类准确率得出最佳超参数,之后重新训练决策树模型聚类输出对应的叶子索引;利用两层全连接层将高维稀疏的叶子索引向量嵌入成低维密集向量,以此减少树结构输出叶子节点个数,再利用深度神经网络拟合低维密集向量,从而完成单棵决策树模型蒸馏为神经网络的过程;最后将GBDT多棵决策树随机划分多组,每组决策树输出的叶子索引向量进行拼接,同组决策树用相同神经网络拟合拼接后叶子索引的低维密集向量,重复多组树的训练,使GBDT完整蒸馏构造为神经网络。
图2是神经网络蒸馏构造为树结构模型的示意图。首先深度神经网络N拟合低维密集向量,利用损失函数minLoss(N(wTH+w0),p)去优化神经网络N对叶子值的拟合效果,进一步的完成叶子索引L到低维向量H的映射,减少输出叶子节点个数,得到优化后的低维向量H;然后用DNN拟合优化后的低维向量H,通过训练损失函数minLoss_D(DNN(x;θ),H)从而完成决策树蒸馏为神经网络的过程。
在本实施例中,所述将数据集进行预处理,筛选符合决策树模型训练的数据特征,并输入单棵决策树中训练具体为:
将输入数据根据各个特征列的缺失值数目、特征类型、方差,进行数据清洗,之后输入决策树模型中训练,得出树模型对数据不同的聚类结果。具体的,将输入数据根据特征类型划分为类别特征部分和数值特征部分,将类别特征按照编码方式转化为独热编码;设定缺失值数量的阈值,筛选数据集中符合该阈值的数据特征;再将清洗后数据输入决策树模型训练,根据信息增益的计算,划分树模型内部节点直到叶子节点处输出对应的聚类结果。
在本实施例中,所述利用Hyperband算法对决策树模型的超参数进行微调,根据分类准确率得出最佳超参数,之后重新训练决策树模型聚类输出对应的叶子索引具体为:
用Hyperband算法对决策树模型调参,根据总预算资源B和预设超参数组数n,则每组超参数分配资源B/n,超参数组采样方式为均匀采样;反复迭代训练决策树模型,每次训练淘汰固定比例η效果较差的超参数组,余下超参数组分配最大预算表示为r:
r=Rη-S
式中,s表示控制预算大小,其计算过程可表示s=logη(R),其中模型迭代次数表示为(0,....s);R表示每组超参数组合可分配最多资源;
每次训练淘汰一批超参数组,可分配预算r随之增加,最后得到一组能够分配整部分预算资源r超参数,使决策树模型聚类准确率最佳;
利用调参后的决策树模型输出叶子索引L。
在本实施例中,所述利用两层全连接层将高维稀疏的叶子索引向量嵌入成低维密集向量,再利用深度神经网络拟合低维密集向量,从而完成单棵决策树模型蒸馏为神经网络的过程具体为:
利用参数为Wt的两层全连接网络拟合叶子索引L,输出低维密集向量表示为H:
H(L,Wt);
用深度神经网络N拟合叶子索引L对应叶子值P,进一步对H优化,其中低维密度向量优化过程的损失函数表示为:
minLoss(N(wTH+w0),p);
式中,式中wT和w0为映射H到P的神经网络N的参数,p表示叶子值;在目标函数minLoss(N(wTH+w0),p)收敛情况下,完成叶子索引L到低维向量H的映射,减少输出叶子节点个数,得到优化后的低维向量H;
用DNN拟合优化后的低维向量H,拟合过程的目标函数表示为:
minLoss_D(DNN(x;θ),H);
式中x是神经网络DNN输入的数据特征,与决策树训练所输入的特征一致,都是经过特征选择过程得到的,θ为DNN的网络参数,Loss_D是交叉熵损失函数;
训练DNN直至Loss_D(DNN(x;θ),H)达到收敛,完成单棵树蒸馏为神经网络的过程。整个神经网络具有树系模型的特征,如特征选择、特征重要性、自动搜索模型最佳超参数等知识。
在本实施例中,所述将GBDT多棵决策树随机划分多组,每组决策树输出的叶子索引向量进行拼接,同组决策树用相同神经网络拟合拼接后叶子索引的低维密集向量,重复多组树的训练,使GBDT完整蒸馏构造为神经网络具体包括以下步骤:
根据随机分组原则,将GBDT中多棵树划分为K组,每组共用一个神经网络模型训练,将每组树输出叶子索引L进行拼接得到向量G:
G=∑H;
对于一组决策树的蒸馏,重复单棵决策树模型蒸馏为神经网络的过程,将其中的低维密度向量优化过程的训练损失函数重写为:
minLoss(N(wT∑H+w0),∑P);
式中,∑P是叶子索引∑H对应叶子值的拼接数值;将拟合过程的目标函数重写为:
minLoss_D(DNN(x;θ),∑H);
由此完成一组决策树的蒸馏,输出聚类结果y;
对K组决策树进行同样的操作,完成整个GBDT模型蒸馏构造过程,树状神经网络模型输出就是多组树输出之和∑y。
较佳的,在本实施例中,整个树状神经网络可以对在线预测任务输入数据中类别特征和数值特征有效训练,又能保持高效在线更新能力,利用新生成数据对神经网络进行反向传播更新模型参数,达到最终任务的输出。对于决策树模型的训练,使用Hyperband算法,可以自动训练出最佳超参数组,使决策树能够准确对数据聚类。对聚类输出的叶子索引进行embedding操作得到低维密集向量,有效降低神经网络拟合叶子索引的效率,从而完成决策树的蒸馏。对GBDT中所有树分组训练,避免每棵树训练一个神经网络,造成计算资源不足。
本实施例还提供了一种针对在线预测任务的GBDT学习系统,包括存储器、处理器以及存储在存储器上并能够被处理器运行的计算机程序,当处理器运行该计算机程序时能够实现如上文所述的方法步骤。
本实施例还提供了一种计算机可读存储介质,其上存储有能够被处理器运行的计算机程序,当处理器运行该计算机程序时,能够实现如上文所述的方法步骤。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述,仅是本发明的较佳实施例而已,并非是对本发明作其它形式的限制,任何熟悉本专业的技术人员可能利用上述揭示的技术内容加以变更或改型为等同变化的等效实施例。但是凡是未脱离本发明技术方案内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与改型,仍属于本发明技术方案的保护范围。

Claims (7)

1.一种针对在线预测任务的GBDT学习方法,其特征在于,将数据集进行预处理,筛选符合决策树模型训练的数据特征,并输入单棵决策树中训练,利用Hyperband算法对决策树模型的超参数进行微调,根据分类准确率得出最佳超参数,之后重新训练决策树模型聚类输出对应的叶子索引;利用两层全连接层将高维稀疏的叶子索引向量嵌入成低维密集向量,再利用深度神经网络拟合低维密集向量,从而完成单棵决策树模型蒸馏为神经网络的过程;最后将GBDT多棵决策树随机划分多组,每组决策树输出的叶子索引向量进行拼接,同组决策树用相同神经网络拟合拼接后叶子索引的低维密集向量,重复多组树的训练,使GBDT完整蒸馏构造为神经网络。
2.根据权利要求1所述的一种针对在线预测任务的GBDT学习方法,其特征在于,所述将数据集进行预处理,筛选符合决策树模型训练的数据特征,并输入单棵决策树中训练具体为:
将输入数据根据特征类型划分为类别特征部分和数值特征部分,将类别特征按照编码方式转化为独热编码;设定缺失值数量的阈值,筛选数据集中符合该阈值的数据特征;再将清洗后数据输入决策树模型训练,根据信息增益的计算,划分树模型内部节点直到叶子节点处输出对应的聚类结果。
3.根据权利要求1所述的一种针对在线预测任务的GBDT学习方法,其特征在于,所述利用Hyperband算法对决策树模型的超参数进行微调,根据分类准确率得出最佳超参数,之后重新训练决策树模型聚类输出对应的叶子索引具体为:
用Hyperband算法对决策树模型调参,根据总预算资源B和预设超参数组数n,则每组超参数分配资源B/n,反复迭代训练决策树模型,每次训练淘汰固定比例η的超参数组,余下超参数组分配最大预算表示为r:
r=Rη-S
式中,s表示控制预算大小,其中模型迭代次数表示为(0,....s);R表示每组超参数组合可分配最多资源;
每次训练淘汰一批超参数组,可分配预算r随之增加,最后得到一组能够分配整部分预算资源r超参数,使决策树模型聚类准确率最佳;
利用调参后的决策树模型输出叶子索引L。
4.根据权利要求1所述的一种针对在线预测任务的GBDT学习方法,其特征在于,所述利用两层全连接层将高维稀疏的叶子索引向量嵌入成低维密集向量,再利用深度神经网络拟合低维密集向量,从而完成单棵决策树模型蒸馏为神经网络的过程具体为:
利用参数为Wt的两层全连接网络拟合叶子索引L,输出低维密集向量表示为H:
H(L,Wt);
用深度神经网络N拟合叶子索引L对应叶子值P,进一步对H优化,其中低维密度向量优化过程的损失函数表示为:
minLoss(N(wTH+w0),p);
式中,式中Loss表示损失函数,wT和w0为映射H到P的神经网络N的参数,p表示叶子值;在目标函数minLoss(N(wTH+w0),p)收敛情况下,完成叶子索引L到低维向量H的映射,减少输出叶子节点个数,得到优化后的低维向量H;
用DNN拟合优化后的低维向量H,拟合过程的目标函数表示为:
minLoss_D(DNN(x;θ),H);
式中x是神经网络DNN输入的数据特征,与决策树训练所输入的特征一致,都是经过特征选择过程得到的,θ为DNN的网络参数,Loss_D是交叉熵损失函数;
训练DNN直至Loss_D(DNN(x;θ),H)达到收敛,完成单棵树蒸馏为神经网络的过程。
5.根据权利要求1所述的一种针对在线预测任务的GBDT学习方法,其特征在于,所述将GBDT多棵决策树随机划分多组,每组决策树输出的叶子索引向量进行拼接,同组决策树用相同神经网络拟合拼接后叶子索引的低维密集向量,重复多组树的训练,使GBDT完整蒸馏构造为神经网络具体包括以下步骤:
根据随机分组原则,将GBDT中多棵树划分为K组,每组共用一个神经网络模型训练,将每组树输出叶子索引L进行拼接得到向量G:
G=∑H;
对于一组决策树的蒸馏,重复单棵决策树模型蒸馏为神经网络的过程,将其中的低维密度向量优化过程的训练损失函数重写为:
minLoss(N(wT∑H+w0),∑P);
式中,∑P是叶子索引∑H对应叶子值的拼接数值;将拟合过程的目标函数重写为:
minLoss_D(DNN(x;θ),∑H);
由此完成一组决策树的蒸馏,输出聚类结果y;
对K组决策树进行同样的操作,完成整个GBDT模型蒸馏构造过程,树状神经网络模型输出就是多组树输出之和∑y。
6.一种针对在线预测任务的GBDT学习系统,其特征在于,包括存储器、处理器以及存储在存储器上并能够被处理器运行的计算机程序,当处理器运行该计算机程序时能够实现如权利要求1-5任一项所述的方法步骤。
7.一种计算机可读存储介质,其特征在于,其上存储有能够被处理器运行的计算机程序,当处理器运行该计算机程序时,能够实现如权利要求1-5任一项所述的方法步骤。
CN202011187707.XA 2020-10-30 2020-10-30 一种针对在线预测任务的gbdt学习方法 Active CN112200316B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011187707.XA CN112200316B (zh) 2020-10-30 2020-10-30 一种针对在线预测任务的gbdt学习方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011187707.XA CN112200316B (zh) 2020-10-30 2020-10-30 一种针对在线预测任务的gbdt学习方法

Publications (2)

Publication Number Publication Date
CN112200316A CN112200316A (zh) 2021-01-08
CN112200316B true CN112200316B (zh) 2022-07-15

Family

ID=74012083

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011187707.XA Active CN112200316B (zh) 2020-10-30 2020-10-30 一种针对在线预测任务的gbdt学习方法

Country Status (1)

Country Link
CN (1) CN112200316B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113283586B (zh) * 2021-05-26 2022-05-13 桂林电子科技大学 一种基于决策机和特征选择的快速入侵检测方法
CN116542504B (zh) * 2023-07-07 2023-09-22 合肥喆塔科技有限公司 参数自适应的半导体工件生产调度方法、设备及存储介质
CN117435580B (zh) * 2023-12-21 2024-03-22 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) 一种数据库参数筛选方法及相关设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109960759A (zh) * 2019-03-22 2019-07-02 中山大学 基于深度神经网络的推荐系统点击率预测方法
CN110472778A (zh) * 2019-07-29 2019-11-19 上海电力大学 一种基于Blending集成学习的短期负荷预测方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10366451B2 (en) * 2016-01-27 2019-07-30 Huawei Technologies Co., Ltd. System and method for prediction using synthetic features and gradient boosted decision tree
US10909471B2 (en) * 2017-03-24 2021-02-02 Microsoft Technology Licensing, Llc Resource-efficient machine learning

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109960759A (zh) * 2019-03-22 2019-07-02 中山大学 基于深度神经网络的推荐系统点击率预测方法
CN110472778A (zh) * 2019-07-29 2019-11-19 上海电力大学 一种基于Blending集成学习的短期负荷预测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Daning Cheng 等.Using Gradient based multikernel Gaussian Process and Meta-acquisition function to Accelerate SMBO.《2019 IEEE 31st International Conference on Tools with Artificial Intelligence (ICTAI)》.2020,全文. *
童颖.网络特征学习算法在关联网络节点分类中的应用.《中国优秀硕士学位论文全文数据库 基础科学缉》.2020,第A002-54页. *

Also Published As

Publication number Publication date
CN112200316A (zh) 2021-01-08

Similar Documents

Publication Publication Date Title
CN112200316B (zh) 一种针对在线预测任务的gbdt学习方法
Kim et al. SplitNet: Learning to semantically split deep networks for parameter reduction and model parallelization
CN110782658B (zh) 一种基于LightGBM算法的交通量预测方法
CN107330902B (zh) 基于Arnold变换的混沌遗传BP神经网络图像分割方法
CN116596044B (zh) 基于多源数据的发电负荷预测模型训练方法及装置
Gao et al. Post: Device placement with cross-entropy minimization and proximal policy optimization
CN110222830B (zh) 一种基于自适应遗传算法优化的深度前馈网络故障诊断方法
CN111967971A (zh) 银行客户数据处理方法及装置
CN112990420A (zh) 一种用于卷积神经网络模型的剪枝方法
Zhang et al. Evolving neural network classifiers and feature subset using artificial fish swarm
Gu et al. A discrete particle swarm optimization algorithm with adaptive inertia weight for solving multiobjective flexible job-shop scheduling problem
CN110263917B (zh) 一种神经网络压缩方法及装置
CN103824285B (zh) 一种基于蝙蝠优化模糊聚类的图像分割方法
KR20210039921A (ko) 신경망 모델을 최적화하도록 구성된 심층 신경망 시스템의 동작 방법
Meng et al. Vigilance adaptation in adaptive resonance theory
CN112860856B (zh) 一种算数应用题智能解题方法及系统
Naik et al. Survey on comparative study of pruning mechanism on mobilenetv3 model
CN109074348A (zh) 用于对输入数据集进行迭代聚类的设备和迭代方法
CN112395273A (zh) 一种数据处理方法及装置、存储介质
CN116303386A (zh) 一种基于关系图谱的缺失数据智能插补方法和系统
CN110766072A (zh) 一种基于结构相似性的计算图进化ai模型自动生成方法
CN114912518A (zh) 基于用户群体典型特征的强化学习分组方法、装置及介质
CN111027709B (zh) 信息推荐方法、装置、服务器及存储介质
CN112926723A (zh) 基于Split LBI算法的自动网络增长方法
US20230289563A1 (en) Multi-node neural network constructed from pre-trained small networks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant