CN111914884A - 梯度下降树的生成方法、装置、电子设备及存储介质 - Google Patents

梯度下降树的生成方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN111914884A
CN111914884A CN202010561789.3A CN202010561789A CN111914884A CN 111914884 A CN111914884 A CN 111914884A CN 202010561789 A CN202010561789 A CN 202010561789A CN 111914884 A CN111914884 A CN 111914884A
Authority
CN
China
Prior art keywords
gradient descent
descent tree
tree
generating
search space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010561789.3A
Other languages
English (en)
Inventor
希滕
张刚
温圣召
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202010561789.3A priority Critical patent/CN111914884A/zh
Publication of CN111914884A publication Critical patent/CN111914884A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24323Tree-organised classifiers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)

Abstract

本申请公开了梯度下降树的生成方法、装置、电子设备及存储介质,涉及人工智能技术和深度学习领域,可应用于图像处理。具体实现方案为:先生成梯度下降树搜索空间,再根据梯度下降树搜索空间生成待训练梯度下降树;接着,对待训练梯度下降树进行训练并进行性能评估,当评估结果不满足评分要求时对待训练梯度下降树进行迭代更新,直至评估结果满足评分要求或者对待训练梯度下降树的迭代更新次数达到预设迭代次数。通过本申请实现了梯度下降树的自动生成,在梯度下降树搜索空间中进行自动搜索以生成梯度下降树,使得最终生成的梯度下降树能够获得较优的性能,提高梯度下降树的鲁棒性。

Description

梯度下降树的生成方法、装置、电子设备及存储介质
技术领域
本申请的实施例总体上涉及计算机技术领域,并且更具体地,涉及人工智能技术和深度学习领域,可应用于图像处理。
背景技术
深度学习是机器学习研究中的一个新的领域,其目的在于建立模拟人脑进行分析学习的神经网络。近年来,深度学习技术在计算机视觉、语音识别、自然语言处理等人工智能技术研究的多个方面取得了成功。
深度学习技术中,人工神经网络(Artificial Neural Network,ANN)结构的好坏对最终模型的效果有非常重要的影响。手工设计网络拓扑结构要求设计人员具备丰富的经验并需要多次尝试,且当参数较多时会产生爆炸性的组合,采用常规的随机搜索算法来生成网络结构的方式可行性较低,因此神经网络架构搜索(Neural Architecture Search,NAS)技术逐渐成为深度学习领域的研究热点。
发明内容
本申请提供了一种梯度下降树的生成方法、装置、电子设备及存储介质。
根据第一方面,提供了一种梯度下降树的生成方法,包括:
获取训练集和验证集,并将所述训练集和所述验证集划分为K个训练子集和K个验证子集,其中,K为正整数;
生成梯度下降树搜索空间,根据所述梯度下降树搜索空间生成待训练梯度下降树;
根据所述K个训练子集对所述待训练梯度下降树进行训练以生成K个梯度下降树模型;
分别使用所述K个验证子集对所述K个梯度下降树模型进行评估以生成所述K个梯度下降树模型的评分值;以及
根据所述K个梯度下降树模型的评分值对所述待训练梯度下降树进行N次迭代更新,直至所述K个梯度下降树模型的评分值满足评分要求或者N到达预设迭代次数,其中,N为正整数。
根据第二方面,提供了一种梯度下降树的生成装置,包括:
获取模块,用于获取训练集和验证集,并将所述训练集和所述验证集划分为K个训练子集和K个验证子集,其中,K为正整数;
第一生成模块,用于生成梯度下降树搜索空间;
第二生成模块,用于根据所述梯度下降树搜索空间生成待训练梯度下降树;
训练模块,用于根据所述K个训练子集对所述待训练梯度下降树进行训练以生成K个梯度下降树模型;
验证模块,用于分别使用所述K个验证子集对所述K个梯度下降树模型进行评估以生成所述K个梯度下降树模型的评分值;以及
更新模块,用于根据所述K个梯度下降树模型的评分值对所述待训练梯度下降树进行N次迭代更新,直至所述K个梯度下降树模型的评分值满足评分要求或者N到达预设迭代次数,其中,N为正整数。
根据第三方面,提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如第一方面所述的梯度下降树的生成方法。
根据第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行如第一方面所述的梯度下降树的生成方法。
本申请提供的梯度下降树的生成方法、装置、电子设备及存储介质,存在如下有益效果:
通过生成梯度下降树搜索空间,在梯度下降树搜索空间中进行自动搜索以生成梯度下降树,不仅实现了梯度下降树的自动生成,还使得最终生成的梯度下降树能够获得较优的性能,提高梯度下降树模型的鲁棒性。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是根据本申请第一实施例的梯度下降树的生成方法的流程示意图;
图2是根据本申请第二实施例的梯度下降树的生成方法的流程示意图;
图3是根据本申请第三实施例的梯度下降树的生成方法的流程示意图;
图4是根据本申请第四实施例的梯度下降树的生成方法的流程示意图;
图5是根据本申请第五实施例的梯度下降树的生成装置的结构示意图;
图6是根据本申请第六实施例的梯度下降树的生成装置的结构示意图;
图7是根据本申请第七实施例的梯度下降树的生成装置的结构示意图;
图8是根据本申请第八实施例的梯度下降树的生成装置的结构示意图;
图9是用来实现本申请实施例的梯度下降树的生成方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
下面参考附图描述本申请的梯度下降树的生成方法、装置、电子设备及存储介质。
梯度下降树(Gradient Boosting Decision Tree,GBDT)是一种迭代的决策树算法,通过多轮迭代得到最终的梯度决策树。在每轮迭代中产生一个弱分类器,每个弱分类器都是在上一轮得到的弱分类器的残差基础上进行学习得到的。由于学习的过程是通过降低偏差来不断地提高最终分类器的精度,这就要求弱分类器足够简单且是低方差和高偏差的,基于这种要求,每个弱分类器的深度不会很深。在传统的梯度下降树生成方法中,是通过将每一轮学习得到的弱分类器进行加权求和来得到最终的总分类器(即梯度下降树)的,没有全局地考虑各个弱分类器之间的关系,使得各个弱分类器的组合并非是最优的,因此会限制梯度下降树的性能,导致最终生成的梯度下降树的性能不佳。
针对上述问题,本申请公开了一种梯度下降树的生成方法,通过生成梯度下降树搜索空间,并根据梯度下降树搜索空间生成待训练梯度下降树,进而利用获取的K个训练子集对生成的待训练梯度下降树进行训练,得到K个梯度下降树模型,并分别使用获取的K个验证集对K个梯度下降树模型进行性能评估,得到K个梯度下降树模型的评分值,当K个梯度下降树模型的评分值不满足评分要求且未达到预设迭代次数时,对待训练梯度下降树进行迭代更新,直至K个梯度下降树模型的评分值满足评分要求或者迭代次数N到达预设迭代次数,由此,实现了梯度下降树的自动生成。本申请的方案,通过在梯度下降树搜索空间中进行自动搜索以生成梯度下降树,由于梯度下降树搜索空间中包含了可搜索到的所有梯度下降树的可能性,梯度下降树搜索空间中各个梯度下降树包含的弱分类器的组合是任意的,而非对每一轮学习得到的弱分类器进行简单的加权求和,从而全面地考虑了不同弱分类器之间的关系,使得最终生成的梯度下降树是弱分类器的较优组合,从而能够保证梯度下降树的性能,提高梯度下降树的鲁棒性。
图1是根据本申请第一实施例的梯度下降树的生成方法的流程示意图,该方法可以由本申请提供的梯度下降树的生成装置执行,也可以由本申请提供的电子设备执行,其中,电子设备可以包括但不限于台式电脑、平板电脑等终端设备,也可以是服务器。下面以由本申请提供的梯度下降树的生成装置来执行本申请提供的梯度下降树的生成方法为例来解释说明本申请,而不能作为对本申请的限制。
如图1所示,该梯度下降树的生成方法,可以包括以下步骤:
步骤101,获取训练集和验证集,并将训练集和验证集划分为K个训练子集和K个验证子集,其中,K为正整数。
针对不同的任务,本申请实施例中,可以从不同类型的样本集中获取训练集和验证集。其中,训练集用于模型训练,验证集用于评估训练好的模型的表现如何,即测试训练好的模型的性能。
比如,对于分类任务、目标检测任务、人脸检测任务等图像处理方面的任务,可以从公开的图像数据集中获取大量图像样本作为训练集和验证集,其中,公开的图像数据集比如可以是ImageNet数据集、PASCAL VOC数据集、Labelme数据集,等等,其中,获取的验证集中的图像样本与训练集中的图像样本不同,以保证训练得到的梯度下降树的性能和鲁棒性。
又比如,对于语音识别任务,可以从公开的开源语音数据集中获取大量的语音样本作为训练集和验证集,其中,开源语音数据集比如可以是中文数据集、英文数据集等,获取的验证集中的语音数据与训练集中的语音数据不同,以保证训练得到的梯度下降树的性能和鲁棒性。
举例而言,以从ImageNet数据集中获取图像样本作为训练集和验证集为例,可以先从ImageNet数据集中获取一个包含大量图像样本的样本集,再按照预设的分配比例,将样本集划分为验证集和训练集。比如,样本集中训练集与验证集的预设的分配比例为8:2,即样本集中80%的图像样本作为训练集,样本集中剩余20%的图像样本作为验证集,则将获取的样本集按照8:2的比例划分为训练集和验证集。
本实施例中,获取了训练集和验证集之后,可以对训练集和验证集进行划分,将训练集划分为K个训练子集,将验证集划分为K个验证子集,其中,K为正整数。
比如,在划分训练集和验证集时,可以将训练集随机地划分为K份,得到K个训练子集,每个训练子集中包含的样本图像的数量可以相同也可以不同;对于验证集的划分,也可以将验证集随机地划分为K份,得到K个验证子集,每个验证子集中包含的样本图像的数量可以相同也可以不同。
需要说明的是,本实施例中,划分得到的训练子集和验证子集的个数相同,比如,将训练集划分为5个训练子集,同样地,也将验证集划分为5个验证子集,每个训练子集对应一个验证子集,以便后续利用验证子集对根据训练子集训练得到的梯度下降树模型进行性能测试。
在本申请实施例一种可能的实现方式中,为了获取到K个训练子集和K个验证子集,可以先将获取的样本集划分为K份,得到K个样本子集,再针对每个验证子集,按照预设的训练集与验证集的分配比例(比如8:2),将样本子集划分为训练子集和验证子集,最终得到K个训练子集和K个验证子集,每个训练子集对应一个验证子集。
步骤102,生成梯度下降树搜索空间,根据梯度下降树搜索空间生成待训练梯度下降树。
本实施例中,可以预先设计好梯度下降树搜索空间的设计规则,进而根据设计规则生成梯度下降树搜索空间。
比如,梯度下降树搜索空间的设计规则可以约定梯度下降树所需的弱分类器的个数、弱分类器的类型以及与弱分类器的类型对应的弱分类器的属性。其中,弱分类器的类型比如可以是决策树,当弱分类器为决策树时,弱分类器的属性可以包括决策树的最大节点(即特征)个数、决策树的最大深度和每个节点可以包含的最大子节点个数。
根据上述设计规则,可以生成满足上述设计规则约定的条件的梯度下降树搜索空间,梯度下降树搜索空间中包含了可生成的梯度下降树的所有可能性,也就是说,梯度下降树搜索空间是所有可能的梯度下降树的集合。并且,当弱分类器为决策树时,在生成的梯度下降树搜索空间中,每个梯度下降树所包含的各个决策树中,决策树的各个节点的组合是任意的,每个决策树所包含的总节点数均不大于设计规则中约定的最大节点个数,每个决策树的深度均不大于设计规则中约定的最大深度,每个决策树中,各个节点包含的子节点数均不大于设计规则中约定的最大子节点个数。
以弱分类器为决策树为例,设计规则中约定的最大节点个数为100,树的最大深度为10,节点的最大子节点个数为5,则可以生成满足该设计规则的所有可能的决策树,每个决策树包含的总节点数均不大于100,且每个决策树的深度均不大于10,且每个决策树中各个节点包含的子节点数均不大于5。生成所有可能的决策树之后,再根据设计规则中约定的决策树的个数,任意组合决策树,得到所有可能的决策树组合,即生成了所有可能的梯度下降树,所有可能的梯度下降树的集合即构成了梯度下降树搜索空间。本申请的方案,通过在梯度下降树搜索空间中进行搜索,能够从所有可能的梯度下降树中找到各个决策树的较优组合,使得梯度下降树的性能较好,克服了现有技术中对每一轮学习得到的弱分类器进行简单的加权求和生成梯度下降树导致梯度下降树的性能受限的不足,使得搜索到的梯度下降树具有较好的性能和鲁棒性。
本实施例中,生成梯度下降树搜索空间后,可以根据梯度下降树搜索空间生成待训练梯度下降树。如前文所述,梯度下降树搜索空间中包含了可生成的梯度下降树的所有可能,因此,可以从梯度下降树搜索空间中随机地生成一个梯度下降树,并将随机生成的梯度下降树作为待训练梯度下降树。
为了得到网络架构简单且性能满足条件的梯度下降树,根据梯度下降树搜索空间生成待训练梯度下降树时,也可以先随机地生成一个网络架构比较简单的梯度下降树作为待训练梯度下降树,比如,以弱分类器为决策树为例,首次获取的待训练梯度下降树的网络架构可以是,梯度下降树包含两个决策树的组合,且每个决策树中每个节点仅包含2个子节点,决策树的最大深度为3,决策树的总节点数为7。
需要说明的是,步骤101-步骤102的执行顺序不分先后,两者可以先后执行,也可以同时执行,本申请仅以步骤102在步骤101之后执行作为示例来解释说明本申请,则不能作为对本申请的限制。
步骤103,根据K个训练子集对待训练梯度下降树进行训练以生成K个梯度下降树模型。
本实施例中,生成了待训练梯度下降树之后,即可根据获取的K个训练子集对该待训练梯度下降树进行训练,生成K个梯度下降树模型。
利用每个训练子集对待训练梯度下降树进行训练时,将训练子集中包含的样本数据(比如图像样本、语音数据)作为待训练梯度下降树的输入,将样本数据的标注结果作为待训练梯度下降树的输出,通过不断地迭代更新待训练梯度下降树的参数,最终寻找到一组使得损失函数的取值在训练子集上最小的模型参数,训练结束,得到与训练子集对应的梯度下降树模型。
能够理解的是,K个梯度下降树模型是利用K个不同的训练子集,对同一个模型结构,即待训练梯度下降树,分别进行训练得到的,由于采用的训练子集不同,训练得到的K个梯度下降树模型包含的参数也不同。
在本申请实施例一种可能的实现方式中,对待训练梯度下降树进行训练之前,可以先对待训练梯度下降树进行初始化,比如初始化待训练梯度下降树的参数,初始化完成后再利用K个训练子集对待训练梯度下降树进行训练。
步骤104,分别使用K个验证子集对K个梯度下降树模型进行评估以生成K个梯度下降树模型的评分值。
本实施例中,利用K个训练子集对待训练梯度下降树进行训练,得到对应的K个梯度下降树模型之后,对于每个梯度下降树模型,可以利用与训练得到该梯度下降树模型时使用的训练子集对应的验证子集,对该梯度下降树模型进行性能测试,生成该梯度下降树模型的评分值,依次对每个梯度下降树模型进行测试,最终得到K个梯度下降树模型的评分值,共得到K个评分值。
由于本申请的梯度下降树搜索空间中,梯度下降树是由不同的弱分类器任意组合生成的,因此根据梯度下降树搜索空间生成的待训练梯度下降树中,各个弱分类器的组合是任意的,从而对待训练梯度下降树进行训练,是将待训练梯度下降树中的各个弱分类器作为整体进行训练,而非在前一轮训练到的弱分类器的残差基础上继续训练得到弱分类器,在训练过程中从全局考虑了弱分类器之间的关系,利用验证子集对梯度下降树模型进行评估获得的评分值能够反映出梯度下降树模型的整体性能。
步骤105,根据K个梯度下降树模型的评分值对待训练梯度下降树进行N次迭代更新,直至K个梯度下降树模型的评分值满足评分要求或者N到达预设迭代次数,其中,N为正整数。
其中,评分要求和预设迭代次数均可以预先设定。比如,评分要求可以设置为K个评分值中的最小值不小于90%,或者,评分要求也可以设置为K个评分值的均值不小于90%,等等;预设迭代次数比如可以设置为30次、40次等。
本实施例中,获得K个梯度下降树模型的评分值之后,可以根据获得的K个评分值判断是否需要对待训练梯度下降树进行迭代更新,并在需要继续迭代更新时,对待训练梯度下降树进行迭代更新。
为了防止无限次地在梯度下降树搜索空间中进行搜索,可以预先设定预设迭代次数,当待训练梯度下降树的迭代更新次数达到预设迭代次数时,即使当前获取的K个梯度下降树模型的评分值未满足评分要求,也不再对待训练梯度下降树进行迭代更新。
也就是说,本实施例中,获取了K个梯度下降树模型的评分值之后,可以先判断获取的评分值是否满足评分要求,比如评分要求为K个评分值中的最小值不小于90%,则当K个评分值中的最小值小于90%时,判定不满足评分要求,即当前的梯度下降树的性能仍未达到要求,需要在已经进行了N次迭代更新的待训练梯度下降树的基础上,对N次迭代更新后的待训练梯度下降树进行第N+1次迭代更新,此时,在对待训练梯度下降树进行迭代更新之前,先判断当前迭代次数N是否达到预设迭代次数,若N小于预设迭代次数,则执行对待训练梯度下降树进行迭代更新的操作。
其中,N为正整数。
需要说明的是,N是指对待训练梯度下降树进行迭代更新的次数,对于第一次生成的待训练梯度下降树,当利用K个训练子集进行训练得到K个梯度下降树模型,并利用K个验证子集进行评估得到K个评分值之后,若K个评分值不满足评分要求,则需要对待训练梯度下降树进行第一次迭代更新,即此时N等于1;若迭代更新后的待训练梯度下降树仍不满足评分要求,则需要对迭代更新后的待训练梯度下降树再次进行迭代更新,此时N等于2,以此类推,可以确定待训练梯度下降树每次需要迭代更新时的迭代次数N。
本实施例中,对待训练梯度下降树进行迭代更新,可以是调整待训练梯度下降树中的弱分类器、弱分类器的位置、个数等,当弱分类器为决策树时,还可以调整决策树中各节点的位置等,本申请对于迭代更新待训练梯度下降树的方式不作限制。
进一步地,对于迭代更新后的待训练梯度下降树,再根据K个训练子集对其进行训练,生成K个梯度下降树模型,并使用K个验证子集对K个梯度下降树模型进行评估以生成K个梯度下降树模型的评分值,并根据评分值对迭代更新后的待训练梯度下降树再次进行迭代更新。也就是说,对于迭代更新后的待训练梯度下降树,重复执行上述步骤103-步骤105,直至K个梯度下降树模型的评分值满足评分要求或者迭代更新次数N到达预设迭代次数后,搜索结束,得到最终生成的梯度下降树。
本实施例的梯度下降树的生成方法,通过获取训练集和验证集,并将训练集和验证集划分为K个训练子集和K个验证子集,以及,生成梯度下降树搜索空间,并根据梯度下降树搜索空间生成待训练梯度下降树,接着,根据K个训练子集对待训练梯度下降树进行训练以生成K个梯度下降树模型,并分别使用K个验证子集对K个梯度下降树模型进行评估,以生成K个梯度下降树模型的评分值,根据K个梯度下降树模型的评分值对待训练梯度下降树进行N次迭代更新,直至K个梯度下降树模型的评分值满足评分要求或者N到达预设迭代次数,由此,实现了梯度下降树的自动生成。并且,通过在梯度下降树搜索空间中进行自动搜索以生成梯度下降树,由于梯度下降树搜索空间中包含了可搜索到的所有梯度下降树的可能性,梯度下降树搜索空间中各个梯度下降树包含的弱分类器的组合是任意的,而非对每一轮学习得到的弱分类器进行简单的加权求和,从而全面地考虑了不同弱分类器之间的关系,使得最终生成的梯度下降树是弱分类器的较优组合,从而能够保证梯度下降树的性能,提高梯度下降树的鲁棒性。
在本申请实施例一种可能的实现方式中,将训练集和验证集划分为K个训练子集和K个验证子集时,可以通过K折交叉划分算法,将训练集和验证集划分为K个训练子集和K个验证子集。
K折交叉划分算法,是指将所有数据集分成K份,每次不重复地取其中一份作为验证子集,其他的K-1份作为训练子集用于训练模型,共得到K组训练子集和验证子集的组合。
举例而言,假设K=5,本实施例中,将训练集和验证集包含的所有数据随机地划分成K份,每份数据分别编号为1,2,3,4,5,则划分得到的训练子集和验证子集的组合如下:
(1)1,2,3,4作为训练子集,5作为验证子集;
(2)1,2,3,5作为训练子集,4作为验证子集;
(3)1,2,4,5作为训练子集,3作为验证子集;
(4)1,3,4,5作为训练子集,2作为验证子集;
(5)2,3,4,5作为训练子集,1作为验证子集。
可见,经过5折交叉划分算法划分后,得到5个训练子集和与各个训练子集对应的5个验证子集。
由于K折交叉划分算法是将数据随机地划分成K份,每次不重复地选择一份作为验证子集,剩余的K-1份作为验证子集,因此,根据K折交叉划分算法将训练集和验证集划分为K个训练子集和K个验证子集,保证了训练子集和验证子集的随机性,根据训练子集训练得到的梯度下降树模型,经验证子集评估,能够提高评估结果的准确性,有利于提高最终获取的梯度下降树的性能和鲁棒性。
为了更加清楚地描述前述实施例中根据梯度下降树搜索空间生成待训练梯度下降树的具体实现过程,下面结合附图2进行详细说明。
图2是根据本申请第二实施例的梯度下降树的生成方法的流程示意图。如图2所示,在如图1所示实施例的基础上,步骤102中,根据梯度下降树搜索空间生成待训练梯度下降树,可以包括以下步骤:
步骤201,根据梯度下降树搜索空间生成梯度下降树序列生成器。
步骤202,根据梯度下降树序列生成器生成梯度下降树序列。
步骤203,根据梯度下降树序列和梯度下降树搜索空间生成待训练梯度下降树。
如前文所述,梯度下降树搜索空间是根据预设的设计规则生成的,预设规则定义了所有的可能性,梯度下降树搜索空间即是所有可能性的集合。因此本实施例中,可以根据梯度下降树搜索空间,对梯度下降树序列生成器进行初始化,生成梯度下降树序列生成器。
其中,可以随机地对梯度下降树序列生成器进行初始化,梯度下降树搜索空间中的每种可能性即对应一种初始化结果,根据梯度下降树搜索空间随机地进行初始化,能够随机地得到一种梯度下降树序列生成器。
梯度下降树序列生成器能够生成梯度下降树序列,梯度下降树序列是用一组序列唯一地对应一种可能性的建模,即梯度下降树序列生成器生成唯一对应的一个梯度下降树序列。
梯度下降树序列能够表示对梯度下降树建模所选择的各个弱分类器,根据梯度下降树序列和梯度下降树搜索空间,可以生成待训练梯度下降树。
举例而言,假设梯度下降树序列生成器可以直接生成梯度下降树序列如[33,142,321,222],该序列表示选择编号分别为33、142、321和222的四个弱分类器依次组合生成梯度下降树,之后,在生成待训练梯度下降树时,从梯度下降树搜索空间中选择一个与上述序列包含的弱分类器匹配的组合作为待训练梯度下降树。
需要说明的是,当弱分类器为决策树时,对于构成梯度下降树的各个决策树,决策树中各节点之间的组合是随机的,利用相同的多个节点,根据节点的位置不同,生成的决策树也不同,决策树的编号也不同,也就是说,本申请实施例中,一个编号唯一对应一个决策树。此外,利用相同的多个决策树,根据决策树的位置关系不同,生成的梯度下降树也不同,比如,梯度下降树序列[33,142,321,222]和梯度下降树序列[321,33,142,222],由于决策树的位置关系不同,这两个序列对应两个不同的梯度下降树,从而使得根据已知的梯度下降树序列对应的各个决策树按序生成的梯度下降树是唯一的。
为了优化梯度下降树序列生成器生成的梯度下降树序列,可以将梯度下降树搜索空间中包含的每种弱分类器之间的可能组合方式进行编码,以便于表达梯度下降树序列,梯度下降树序列生成器生成梯度下降树序列之后,根据梯度下降树搜索空间对梯度下降树序列进行解码,得到对应的待训练梯度下降树。比如,对于梯度下降树搜索空间中的每种可能性,可以从1开始进行编码,梯度下降树序列生成器生成的梯度下降树序列为编码数据,比如1,相较于序列[33,142,321,222]等数据要简单地多,之后根据梯度下降树搜索空间中对每种可能性的编码,对梯度下降树序列进行解码,即得到梯度下降树序列对应的弱分类器及弱分类器之间的位置关系,进而利用弱分类器及弱分类器之间的位置关系按序生成待训练梯度下降树。比如,梯度下降树搜索空间中一种可能的建模[33,142,321,222]对应的编码为5,则获取到梯度下降树序列5之后,通过根据梯度下降树搜索空间进行解码,即可确定建模组合方案为[33,142,321,222],进而选择编号为33、142、321和222]的弱分类器及其之间的位置关系,按序组合生成待训练梯度下降树。
本实施例的梯度下降树的生成方法,通过根据梯度下降树搜索空间生成梯度下降树序列生成器,接着根据梯度下降树序列生成器生成梯度下降树序列,进而根据梯度下降树序列和梯度下降树搜索空间生成待训练梯度下降树,由此,实现了从梯度下降树搜索空间中自动搜索待训练梯度下降树,保证了待训练梯度下降树的随机性。
图3是根据本申请第三实施例的梯度下降树的生成方法的流程示意图。在如图2所示实施例的基础上,如图3所示,步骤105可以包括以下步骤
步骤301,分别获取K个梯度下降树模型的K个评分值。
步骤302,根据K个梯度下降树模型的K个评分值生成平均评分值。
本实施例中,对于K个梯度下降树模型中的任一个模型,利用与训练子集对应的验证子集进行评估,即得到对应的评分值。对于K个梯度下降树模型,可以得到K个评分值。接着,可以根据K个评分值,计算得到K个评分值的平均评分值。
步骤303,如果平均评分值小于评分要求,且当前迭代次数N小于预设迭代次数,则进一步更新梯度下降树序列生成器。
步骤304,通过更新之后的梯度下降树序列生成器对待训练梯度下降树进行更新。
作为一种示例,评分要求可以是预设的性能标准阈值,比如设置性能标准阈值为90%。本示例中,当K个评分值的平均评分值小于预设的性能标准阈值时,则确定平均评分值不满足评分要求,此时进一步判断当前迭代次数N是否小于预设迭代次数,若当前迭代次数N小于预设迭代次数,则进一步更新梯度下降树序列生成器。
本申请实施例中,梯度下降树序列生成器可以是神经网络模块,或者,也可以是进化算法模块。针对不同的模块,可以采用不同的方式更新梯度下降树序列生成器。
作为一种可能的实现方式,当梯度下降树序列生成器为神经网络模块时,可以通过反向传播算法更新梯度下降树序列生成器。
作为一种可能的实现方式,当梯度下降树序列生成器为进化算法模块时,可以通过种群更新算法更新梯度下降树序列生成器。
本实施例中,当梯度下降树序列生成器为神经网络模块时,通过反向传播算法更新梯度下降树序列生成器,当梯度下降树序列生成器为进化算法模块时,通过种群更新算法更新梯度下降树序列生成器,由此,针对不同的梯度下降树序列生成器,提供了不同的更新方式对梯度下降树序列生成器进行更新,提高了方法的灵活性。
接着,对梯度下降树序列生成器进行更新之后,即可通过更新之后的梯度下降树序列生成器对待训练梯度下降树进行更新。如前文所述,梯度下降树序列生成器生成唯一对应的梯度下降树序列,则更新梯度下降树序列生成器之后,根据梯度下降树序列生成器生成的梯度下降树序列也随之发生变化,因此,根据梯度下降树序列和梯度下降树搜索空间生成的待训练梯度下降树也随之更新。
本实施例的梯度下降树的生成方法,通过分别获取K个梯度下降树模型的K个评分值,根据K个梯度下降树模型的K个评分值生成平均评分值,并在平均评分值小于评分要求,且当前迭代次数N小于预设迭代次数时,进一步更新梯度下降树序列生成器,进而通过更新之后的梯度下降树序列生成器对待训练梯度下降树进行更新,由此,实现了在迭代次数未达到预设迭代次数的前提下,根据梯度下降树模型的平均评分值判断是否对待训练梯度下降树进行更新,实现了对于不满足评分要求的梯度下降树模型进行迭代更新,以保证尽可能地获取到满足评分要求的梯度下降树,为生成性能佳且鲁棒性好的梯度下降树提供了条件。
为了更加清楚地描述前述实施例中生成梯度下降树搜索空间的具体实现过程,下面结合附图4进行详细说明。
图4是根据本申请第四实施例的梯度下降树的生成方法的流程示意图,如图4所示,在如图1所示实施例的基础上,步骤102中,生成梯度下降树搜索空间,可以通过以下步骤实现:
步骤401,获取梯度下降树搜索空间所需的分类器数量。
其中,按照分类器的分类能力的强弱,分类器可以分为强分类器和弱分类器。
本实施例中,分类器数量可以根据实际需求设定,分类器数量是指每个梯度下降树中可以包含的分类器的最大个数,即梯度下降树可包含的分类器的数量阈值,梯度下降树搜索空间中的任一梯度下降树所包含的分类器的个数均不大于分类器的数量阈值。
步骤402,获取梯度下降树搜索空间所需的分类器的类型以及与类型对应的属性。
其中,分类器的类型比如可以是决策树、关联规则算法等,对于不同类型的分类器,其对应的属性不同。以决策树为例,当弱分类器为决策树时,获取的属性可以包括决策树的最大节点(即特征)个数、决策树的最大深度和每个节点可以包含的最大子节点个数。
步骤403,根据分类器数量、分类器的类型以及与类型对应的属性,构建梯度下降树搜索空间。
本实施例中,获取了分类器数量、分类器的类型以及与类型对应的属性之后,即可根据分类器数量、分类器的类型以及与类型对应的属性,构建得到梯度下降树搜索空间,梯度下降树搜索空间可以生成满足上述条件的任意梯度下降树。
以获取的分类器的类型为决策树为例,获取到决策树及对应的决策树的最大节点个数、决策树的最大深度和每个节点可以包含的最大子节点个数之后,可以根据决策树的最大节点个数、决策树的最大深度和每个节点可以包含的最大子节点个数,对训练数据中的特征进行任意组合以生成所有可能的决策树,进而根据获取的决策树数量,对所有可能的决策树进行任意组合,得到所有可能的梯度下降树,所有可能的梯度下降树的集合即构成了梯度下降树搜索空间。
以决策树作为分类器生成梯度下降树搜索空间时,在生成的梯度下降树搜索空间中,每个梯度下降树所包含的决策树的个数均不大于获取的决策树数量,并且,任一梯度下降树所包含的各个决策树,每个决策树所包含的总节点数均不大于最大节点个数,每个决策树的深度均不大于最大深度,每个决策树中,各个节点包含的子节点数均不大于最大子节点个数,梯度下降树搜索空间可以生成满足上述条件的任意梯度下降树,梯度下降树所包含的决策树之间是随机组合的,而非对每一轮学习得到的决策树进行简单的加权求和,从而全面地考虑了不同决策树之间的关系,使得最终生成的梯度下降树是决策树的较优组合,能够保证梯度下降树的性能。
本实施例的梯度下降树的生成方法,通过根据获取的梯度下降树搜索空间所需的分类器数量、分类器的类型以及与分类器的类型对应的属性,构建梯度下降树搜索空间,为自动搜索生成梯度下降树奠定了基础,并且,构成梯度下降树的分类器之间是任意组合的,全面地考虑了分类器之间的关系,从而有利于提高生成的梯度下降树的性能。此外,早期的NAS未限制搜索空间,在搜索时甚至需要七八百块的图形处理器,并训练一个月之久才能获得收敛的模型,所需的硬件设备较多,且搜索速度慢;而本申请中,通过生成梯度下降树搜索空间,以在梯度下降树搜索空间中进行搜索生成梯度下降树,梯度下降树搜索空间定义了优化问题的变量,变量规模决定了搜索算法的难度和搜索时间,因此通过定义合理的梯度下降树搜索空间进行搜索,能够加快搜索速度和效率,减少硬件设备的使用,从而节约了硬件成本。
本申请提供的方案可以应用于图像处理中。比如,当梯度下降树的输入为深度学习网络所提取的特征时,本申请提供的方案可以应用于图像处理中的分类任务、目标检测任务、人脸检测任务、人脸人体关键点检测任务等任务中。由于通过本申请提供的方案生成的梯度下降树具有较好的性能和鲁棒性,从而利用梯度下降树完成分类任务、目标检测任务、人脸检测任务等任务时,能够提高任务处理的准确率,对于分类任务,能够提高分类的准确率,对于目标检测任务,能够提高目标检测结果的准确率。
根据本申请的实施例,本申请还提供了一种梯度下降树的生成装置。
图5是根据本申请第五实施例的梯度下降树的生成装置的结构示意图。如图5所示,该梯度下降树的生成装置50包括:获取模块510、第一生成模块520、第二生成模块530、训练模块540、验证模块550以及更新模块560。
其中,获取模块510,用于获取训练集和验证集,并将训练集和验证集划分为K个训练子集和K个验证子集,其中,K为正整数。
在本申请实施例一种可能的实现方式中,获取模块510通过K折交叉划分算法将所述训练集和所述验证集划分为K个训练子集和K个验证子集。
第一生成模块520,用于生成梯度下降树搜索空间。
第二生成模块530,用于根据所述梯度下降树搜索空间生成待训练梯度下降树。
训练模块540,用于根据所述K个训练子集对所述待训练梯度下降树进行训练以生成K个梯度下降树模型。
验证模块550,用于分别使用所述K个验证子集对所述K个梯度下降树模型进行评估以生成所述K个梯度下降树模型的评分值。
更新模块560,用于根据所述K个梯度下降树模型的评分值对所述待训练梯度下降树进行N次迭代更新,直至所述K个梯度下降树模型的评分值满足评分要求或者N到达预设迭代次数,其中,N为正整数。
在本申请实施例一种可能的实现方式中,如图6所示,在如图5所示实施例的基础上,第二生成模块530包括:
第一生成单元531,用于根据所述梯度下降树搜索空间生成梯度下降树序列生成器;
第二生成单元532,用于根据所述梯度下降树序列生成器生成梯度下降树序列;以及
第三生成单元533,用于根据所述梯度下降树序列和所述梯度下降树搜索空间生成所述待训练梯度下降树。
在本申请实施例一种可能的实现方式中,如图7所示,在如图6所示实施例的基础上,更新模块560,包括:
评分值获取单元561,用于分别获取所述K个梯度下降树模型的K个评分值;
计算单元562,用于根据所述K个梯度下降树模型的K个评分值生成平均评分值;
第一更新单元563,用于如果所述平均评分值小于所述评分要求,或当前迭代次数N小于所述预设迭代次数,则进一步更新所述梯度下降树序列生成器;
在本申请实施例一种可能的实现方式中,梯度下降树序列生成器为神经网络模块或进化算法模块,第一更新单元563在所述梯度下降树序列生成器为所述神经网络模块时,通过反向传播算法更新所述梯度下降树序列生成器;在所述梯度下降树序列生成器为所述进化算法模块时,通过种群更新算法更新所述梯度下降树序列生成器。
第二更新单元564,用于通过更新之后的所述梯度下降树序列生成器对所述待训练梯度下降树进行更新。
在本申请实施例一种可能的实现方式中,如图8所示,在如图5所示实施例的基础上,第一生成模块520,包括:
第一获取单元521,用于获取所述梯度下降树搜索空间所需的分类器数量;
第二获取单元522,用于获取所述梯度下降树搜索空间所需的分类器的类型以及与所述类型对应的属性;以及
构建单元523,用于根据所述分类器数量、所述分类器的类型以及与所述类型对应的属性,构建所述梯度下降树搜索空间。
需要说明的是,前述对梯度下降树的生成方法的实施例的解释说明,也适用于该实施例的梯度下降树的生成装置,其实现原理类似,此处不再赘述。
本申请实施例的梯度下降树的生成装置,通过获取训练集和验证集,并将训练集和验证集划分为K个训练子集和K个验证子集,以及,生成梯度下降树搜索空间,并根据梯度下降树搜索空间生成待训练梯度下降树,接着,根据K个训练子集对待训练梯度下降树进行训练以生成K个梯度下降树模型,并分别使用K个验证子集对K个梯度下降树模型进行评估,以生成K个梯度下降树模型的评分值,根据K个梯度下降树模型的评分值对待训练梯度下降树进行N次迭代更新,直至K个梯度下降树模型的评分值满足评分要求或者N到达预设迭代次数,由此,实现了梯度下降树的自动生成。并且,通过在梯度下降树搜索空间中进行自动搜索以生成梯度下降树,由于梯度下降树搜索空间中包含了可搜索到的所有梯度下降树的可能性,梯度下降树搜索空间中各个梯度下降树包含的弱分类器的组合是任意的,而非对每一轮学习得到的弱分类器进行简单的加权求和,从而全面地考虑了不同弱分类器之间的关系,使得最终生成的梯度下降树是弱分类器的较优组合,从而能够保证梯度下降树的性能,提高梯度下降树的鲁棒性。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图9所示,是用来实现本申请实施例的梯度下降树的生成方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图9所示,该电子设备包括:一个或多个处理器701、存储器702,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图9中以一个处理器701为例。
存储器702即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的梯度下降树的生成方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的梯度下降树的生成方法。
存储器702作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的梯度下降树的生成方法对应的程序指令/模块(例如,附图5所示的获取模块510、第一生成模块520、第二生成模块530、训练模块540、验证模块550以及更新模块560)。处理器701通过运行存储在存储器702中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的梯度下降树的生成方法。
存储器702可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据执行梯度下降树的生成方法的电子设备的使用所创建的数据等。此外,存储器702可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器702可选包括相对于处理器701远程设置的存储器,这些远程存储器可以通过网络连接至执行梯度下降树的生成方法的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
执行梯度下降树的生成方法的电子设备还可以包括:输入装置703和输出装置704。处理器701、存储器702、输入装置703和输出装置704可以通过总线或者其他方式连接,图9中以通过总线连接为例。
输入装置703可接收输入的数字或字符信息,以及产生与执行梯度下降树的生成方法的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置704可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
根据本申请实施例的技术方案,通过生成梯度下降树搜索空间,并根据梯度下降树搜索空间生成待训练梯度下降树,进而利用获取的K个训练子集对生成的待训练梯度下降树进行训练,得到K个梯度下降树模型,并分别使用获取的K个验证集对K个梯度下降树模型进行性能评估,得到K个梯度下降树模型的评分值,当K个梯度下降树模型的评分值不满足评分要求且未达到预设迭代次数时,对待训练梯度下降树进行迭代更新,直至K个梯度下降树模型的评分值满足评分要求或者迭代次数N到达预设迭代次数,由此,实现了梯度下降树的自动生成。并且,通过在梯度下降树搜索空间中进行自动搜索以生成梯度下降树,由于梯度下降树搜索空间中包含了可搜索到的所有梯度下降树的可能性,梯度下降树搜索空间中各个梯度下降树包含的弱分类器的组合是任意的,而非对每一轮学习得到的弱分类器进行简单的加权求和,从而全面地考虑了不同弱分类器之间的关系,使得最终生成的梯度下降树是弱分类器的较优组合,从而能够保证梯度下降树的性能,提高梯度下降树的鲁棒性。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。

Claims (14)

1.一种梯度下降树的生成方法,包括:
获取训练集和验证集,并将所述训练集和所述验证集划分为K个训练子集和K个验证子集,其中,K为正整数;
生成梯度下降树搜索空间,根据所述梯度下降树搜索空间生成待训练梯度下降树;
根据所述K个训练子集对所述待训练梯度下降树进行训练以生成K个梯度下降树模型;
分别使用所述K个验证子集对所述K个梯度下降树模型进行评估以生成所述K个梯度下降树模型的评分值;以及
根据所述K个梯度下降树模型的评分值对所述待训练梯度下降树进行N次迭代更新,直至所述K个梯度下降树模型的评分值满足评分要求或者N到达预设迭代次数,其中,N为正整数。
2.如权利要求1所述的梯度下降树的生成方法,其中,所述根据所述梯度下降树搜索空间生成待训练梯度下降树,包括:
根据所述梯度下降树搜索空间生成梯度下降树序列生成器;
根据所述梯度下降树序列生成器生成梯度下降树序列;以及
根据所述梯度下降树序列和所述梯度下降树搜索空间生成所述待训练梯度下降树。
3.如权利要求2所述的梯度下降树的生成方法,其中,所述根据所述K个梯度下降树模型的评分值对所述待训练梯度下降树进行N次迭代更新,包括:
分别获取所述K个梯度下降树模型的K个评分值;
根据所述K个梯度下降树模型的K个评分值生成平均评分值;
如果所述平均评分值小于所述评分要求,且当前迭代次数N小于所述预设迭代次数,则进一步更新所述梯度下降树序列生成器;以及
通过更新之后的所述梯度下降树序列生成器对所述待训练梯度下降树进行更新。
4.如权利要求3所述的梯度下降树的生成方法,其中,所述梯度下降树序列生成器为神经网络模块或进化算法模块,其中,所述进一步更新所述梯度下降树序列生成器,包括:
当所述梯度下降树序列生成器为所述神经网络模块时,通过反向传播算法更新所述梯度下降树序列生成器;
当所述梯度下降树序列生成器为所述进化算法模块时,通过种群更新算法更新所述梯度下降树序列生成器。
5.如权利要求1所述的梯度下降树的生成方法,其中,所述生成梯度下降树搜索空间,包括:
获取所述梯度下降树搜索空间所需的分类器数量;
获取所述梯度下降树搜索空间所需的分类器的类型以及与所述类型对应的属性;以及
根据所述分类器数量、所述分类器的类型以及与所述类型对应的属性,构建所述梯度下降树搜索空间。
6.如权利要求1所述的梯度下降树的生成方法,其中,所述将所述训练集和所述验证集划分为K个训练子集和K个验证子集,包括:
通过K折交叉划分算法将所述训练集和所述验证集划分为K个训练子集和K个验证子集。
7.一种梯度下降树的生成装置,包括:
获取模块,用于获取训练集和验证集,并将所述训练集和所述验证集划分为K个训练子集和K个验证子集,其中,K为正整数;
第一生成模块,用于生成梯度下降树搜索空间;
第二生成模块,用于根据所述梯度下降树搜索空间生成待训练梯度下降树;
训练模块,用于根据所述K个训练子集对所述待训练梯度下降树进行训练以生成K个梯度下降树模型;
验证模块,用于分别使用所述K个验证子集对所述K个梯度下降树模型进行评估以生成所述K个梯度下降树模型的评分值;以及
更新模块,用于根据所述K个梯度下降树模型的评分值对所述待训练梯度下降树进行N次迭代更新,直至所述K个梯度下降树模型的评分值满足评分要求或者N到达预设迭代次数,其中,N为正整数。
8.如权利要求7所述的梯度下降树的生成装置,其中,所述第二生成模块,包括:
第一生成单元,用于根据所述梯度下降树搜索空间生成梯度下降树序列生成器;
第二生成单元,用于根据所述梯度下降树序列生成器生成梯度下降树序列;以及
第三生成单元,用于根据所述梯度下降树序列和所述梯度下降树搜索空间生成所述待训练梯度下降树。
9.如权利要求8所述的梯度下降树的生成装置,其中,所述更新模块,包括:
评分值获取单元,用于分别获取所述K个梯度下降树模型的K个评分值;
计算单元,用于根据所述K个梯度下降树模型的K个评分值生成平均评分值;
第一更新单元,用于如果所述平均评分值小于所述评分要求,且当前迭代次数N小于所述预设迭代次数,则进一步更新所述梯度下降树序列生成器;以及
第二更新单元,用于通过更新之后的所述梯度下降树序列生成器对所述待训练梯度下降树进行更新。
10.如权利要求9所述的梯度下降树的生成装置,其中,所述梯度下降树序列生成器为神经网络模块或进化算法模块,所述第一更新单元在所述梯度下降树序列生成器为所述神经网络模块时,通过反向传播算法更新所述梯度下降树序列生成器;在所述梯度下降树序列生成器为所述进化算法模块时,通过种群更新算法更新所述梯度下降树序列生成器。
11.如权利要求7所述的梯度下降树的生成装置,其中,所述第一生成模块,包括:
第一获取单元,用于获取所述梯度下降树搜索空间所需的分类器数量;
第二获取单元,用于获取所述梯度下降树搜索空间所需的分类器的类型以及与所述类型对应的属性;以及
构建单元,用于根据所述分类器数量、所述分类器的类型以及与所述类型对应的属性,构建所述梯度下降树搜索空间。
12.如权利要求7所述的梯度下降树的生成装置,其中,所述获取模块通过K折交叉划分算法将所述训练集和所述验证集划分为K个训练子集和K个验证子集。
13.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-6中任一项所述的梯度下降树的生成方法。
14.一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行权利要求1-6中任一项所述的梯度下降树的生成方法。
CN202010561789.3A 2020-06-18 2020-06-18 梯度下降树的生成方法、装置、电子设备及存储介质 Pending CN111914884A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010561789.3A CN111914884A (zh) 2020-06-18 2020-06-18 梯度下降树的生成方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010561789.3A CN111914884A (zh) 2020-06-18 2020-06-18 梯度下降树的生成方法、装置、电子设备及存储介质

Publications (1)

Publication Number Publication Date
CN111914884A true CN111914884A (zh) 2020-11-10

Family

ID=73237940

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010561789.3A Pending CN111914884A (zh) 2020-06-18 2020-06-18 梯度下降树的生成方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN111914884A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112816898A (zh) * 2021-01-26 2021-05-18 三一重工股份有限公司 电瓶故障预测方法、装置、电子设备和存储介质
WO2022134946A1 (zh) * 2020-12-25 2022-06-30 华为云计算技术有限公司 模型训练方法、装置、存储介质及设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150161988A1 (en) * 2013-12-06 2015-06-11 International Business Machines Corporation Systems and methods for combining stochastic average gradient and hessian-free optimization for sequence training of deep neural networks
CN110363810A (zh) * 2019-06-14 2019-10-22 北京百度网讯科技有限公司 建立图像检测模型的方法、装置、设备和计算机存储介质
CN110414005A (zh) * 2019-07-31 2019-11-05 深圳前海达闼云端智能科技有限公司 意图识别方法、电子设备及存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150161988A1 (en) * 2013-12-06 2015-06-11 International Business Machines Corporation Systems and methods for combining stochastic average gradient and hessian-free optimization for sequence training of deep neural networks
CN110363810A (zh) * 2019-06-14 2019-10-22 北京百度网讯科技有限公司 建立图像检测模型的方法、装置、设备和计算机存储介质
CN110414005A (zh) * 2019-07-31 2019-11-05 深圳前海达闼云端智能科技有限公司 意图识别方法、电子设备及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
刘云;肖雪;黄荣乘;: "混合蒙特卡罗搜索的特征选择算法的优化", 信息技术, no. 05 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022134946A1 (zh) * 2020-12-25 2022-06-30 华为云计算技术有限公司 模型训练方法、装置、存储介质及设备
CN112816898A (zh) * 2021-01-26 2021-05-18 三一重工股份有限公司 电瓶故障预测方法、装置、电子设备和存储介质
CN112816898B (zh) * 2021-01-26 2022-03-01 三一重工股份有限公司 电瓶故障预测方法、装置、电子设备和存储介质

Similar Documents

Publication Publication Date Title
CN111539223B (zh) 语言模型的训练方法、装置、电子设备及可读存储介质
CN111667057B (zh) 用于搜索模型结构的方法和装置
CN111914994B (zh) 多层感知机的生成方法、装置、电子设备及存储介质
CN111667056B (zh) 用于搜索模型结构的方法和装置
CN111950254B (zh) 搜索样本的词特征提取方法、装置、设备以及存储介质
CN110795569B (zh) 知识图谱的向量表示生成方法、装置及设备
CN111967256B (zh) 事件关系的生成方法、装置、电子设备和存储介质
CN111582479B (zh) 神经网络模型的蒸馏方法和装置
CN111859982B (zh) 语言模型的训练方法、装置、电子设备及可读存储介质
CN111488740B (zh) 一种因果关系的判别方法、装置、电子设备及存储介质
CN112037760A (zh) 语音频谱生成模型的训练方法、装置及电子设备
CN111967569A (zh) 神经网络结构的生成方法、装置、存储介质及电子设备
CN113723278B (zh) 表格信息提取模型的训练方法及装置
CN111931520B (zh) 自然语言处理模型的训练方法和装置
CN111709252B (zh) 基于预训练的语义模型的模型改进方法及装置
CN111582454A (zh) 生成神经网络模型的方法和装置
CN111324715B (zh) 问答机器人的生成方法和装置
CN110675954A (zh) 信息处理方法及装置、电子设备、存储介质
CN111950293A (zh) 语义表示模型的生成方法、装置、电子设备及存储介质
CN111738418A (zh) 超网络的训练方法和装置
CN111753761A (zh) 模型生成方法、装置、电子设备及存储介质
CN111914884A (zh) 梯度下降树的生成方法、装置、电子设备及存储介质
CN114492788A (zh) 训练深度学习模型的方法和装置、电子设备及存储介质
CN111967591A (zh) 神经网络自动剪枝方法、装置及电子设备
CN111914880A (zh) 决策树的生成方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination