CN113780575A - 一种渐进式的深度学习模型的超参数寻优方法 - Google Patents
一种渐进式的深度学习模型的超参数寻优方法 Download PDFInfo
- Publication number
- CN113780575A CN113780575A CN202111002372.4A CN202111002372A CN113780575A CN 113780575 A CN113780575 A CN 113780575A CN 202111002372 A CN202111002372 A CN 202111002372A CN 113780575 A CN113780575 A CN 113780575A
- Authority
- CN
- China
- Prior art keywords
- model
- hyper
- parameters
- parameter
- models
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013136 deep learning model Methods 0.000 title claims abstract description 73
- 238000000034 method Methods 0.000 title claims abstract description 30
- 230000000750 progressive effect Effects 0.000 title claims abstract description 12
- 238000005457 optimization Methods 0.000 title abstract description 11
- 238000012549 training Methods 0.000 claims abstract description 30
- 238000012163 sequencing technique Methods 0.000 claims abstract description 4
- 238000012795 verification Methods 0.000 claims description 9
- 230000001172 regenerating effect Effects 0.000 claims description 3
- 230000009286 beneficial effect Effects 0.000 abstract description 8
- 238000013145 classification model Methods 0.000 description 23
- 230000000717 retained effect Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 5
- 238000010606 normalization Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000010187 selection method Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- 230000001174 ascending effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及一种渐进式的深度学习模型的超参数寻优方法,包括:步骤一:生成多个不同的深度学习模型,并从超参数空间中为每一个模型选取一组超参数;步骤二:在训练集上训练每一个模型一定的代数,步骤三:对模型按照性能的高低从高到低进行排序;采用逐次减半的方法,保留性能排名50%之前的模型;步骤四:在保留的模型中选取部分模型对模型的超参数进行扰动;步骤五:继续在训练集上训练每一个模型一定的代数,步骤六:判断是否满足最大迭代次数,如是则保存最优的模型并终止训练至结束。采用这种逐次减半的方式训练的超参数寻优方法,有利于使用更多的资源寻优表现优异的超参数,减少了相似模型的重复训练,使模型得到更优的性能。
Description
技术领域
本发明涉及深度学习模型的超参数寻优方法,尤其是一种渐进式的深度学 习模型的超参数寻优方法。
背景技术
一个深度学习模型有大量的超参数,随着网络结构的增长,超参数也会增 加。一般而言,深度学习模型里的超参数包含以下几点:优化器、学习率、迭 代次数、激活函数、批处理大小、网络结构等。
常用的超参数寻优的方法包括人工搜索、网格搜索、随机搜索和贝叶斯优 化等。人工搜索通过选择合适的超参数训练模型,并根据模型的表现调整超参 数的取值,这需要极强的专家经验。网格搜索通过尝试所有的超参数组合分别 训练一个模型,并在验证集上测试性能,这会消耗大量的计算资源。随机搜索 通过随机产生一组超参数训练模型,并在验证集上测试性能,但未考虑不同超 参数之间的相关性。贝叶斯优化通过已经试验的超参数组合,来预测下一个可 能带来最大收益的组合,但当超参数的维度越大时,搜索变得越困难。
发明内容
本发明要解决的技术问题是:提供一种渐进式的深度学习模型的超参数寻 优方法。
本发明解决其技术问题所采用的技术方案是:一种渐进式的深度学习模型 的超参数寻优方法,包括:
步骤一:生成多个不同的深度学习模型,并从超参数空间中为每一个模型 选取一组超参数;
步骤二:在训练集上训练每一个模型一定的代数,并在验证集上验证模型 的性能,并记录每一个模型的性能;
步骤三:根据模型的超参数得到模型的性能,对模型按照性能的高低从高 到低进行排序;
采用逐次减半的方法,保留性能排名50%之前的模型,剔除性能排名在50% 之后的模型;
步骤四:在保留的模型中选取部分模型对模型的超参数进行扰动;
步骤五:继续在训练集上训练每一个模型一定的代数,并在验证集上验证 模型的性能,并记录每一个模型的性能;
步骤六:判断是否满足最大迭代次数,如是则保存最优的模型并终止训练 至结束;如否则返回步骤三。
进一步地,模型的权重是随机初始化的,模型的超参数是从超参数空间中 选取的;在选取超参数时,对于取值范围是离散的超参数,从中随机选取一个 超参数;对于取值范围是连续的超参数,采用等分随机的方式从中选取一个超 参数。
进一步地,步骤五中在保留的模型中选取部分模型对模型的超参数进行扰 动具体为:其模型扰动方式P的确定方式如下:
其中,λ∈(0,1),λ为随机取值;P1表示选择模型扰动方式 一,P2表示选择模型扰动方式二,P3表示选择模型扰动方式三。
模型扰动方式一是指重新生成一组超参数,用这组超参数替换排名在 (100-η)%之后的模型原有的超参数,(100-η)%之后的模型的权重 由排名在η%之前的模型的权重进行替换;η的取值范围:[10,50];
模型扰动方式二是指模型性能排名在(100-η)%之后的模型的权重由 性能排名在η%之前的权重进行替换;性能排名在(100-η)%之后的 模型的超参数由性能排名在η%之前的模型的超参数进行随机扰动后再替 换;
模型扰动方式三是指对模型性能排名在(100-η)%之后的模型的权 重和超参数不做修改,即直接继续下一阶段的训练。
进一步地,模型扰动方式二中,在对超参数组合进行随机扰动时,如果超 参数的取值是非实数,则不对其进行扰动,令如果超参数的 取值是实数,则对其进行扰动,令其中, α∈[0.8,1.2],α的取值是随机的,扰动后的超参数的取值不应超出超参数空间,为扰动前的超参数的取值,α为扰动系数,为扰动后的超参数的取值。
本发明的有益效果是:(1)对于连续的超参数采用等分随机的方式取值, 可以保证即使在深度学习模型数量很小的情况下,这些连续的超参数的取值也 可以较为均匀的分布,避免连续超参数的取值集中在某一个较小的范围。连续 超参数取值的均匀性有利于深度学习模型寻找到合适的超参数,从而得到更优 的深度学习模型性能;(2)采用这种逐次减半的方式训练的超参数寻优方法,有 利于使用更多的资源寻优表现优异的超参数,减少了相似深度学习模型的重复 训练,使深度学习模型得到更优的性能。(3)使用多种模型参数扰动方式有利 于充分探索不同超参数在深度学习模型上表现,帮助深度学习模型达到更优的 性能。
附图说明
下面结合附图和实施方式对本发明进一步说明。
图1一种渐进式的深度学习模型的超参数寻优方法流程图;
图2是实施例的深度学习模型的超参数过程的模型示意图;
具体实施方式
现在结合附图对本发明作进一步的说明。这些附图均为简化的示意图仅以 示意方式说明本发明的基本结构,因此其仅显示与本发明有关的构成。
一种渐进式的深度学习模型的超参数寻优方法,包括:
步骤一:生成多个不同的深度学习模型,并从超参数空间中为每一个模型 选取一组超参数;
步骤二:在训练集上训练每一个模型一定的代数,并在验证集上验证模型 的性能,并记录每一个模型的性能;
步骤三:根据模型的超参数得到模型的性能,对模型按照性能的高低从高 到低进行排序;
采用逐次减半的方法,保留性能排名50%之前的模型,剔除性能排名在50% 之后的模型;
步骤四:在保留的模型中选取部分模型对模型的超参数进行扰动;
步骤五:继续在训练集上训练每一个模型一定的代数,并在验证集上验证 模型的性能,并记录每一个模型的性能;
步骤六:判断是否满足最大迭代次数,如是则保存最优的模型并终止训练 至结束;如否则返回步骤三。
进一步地,模型的权重是随机初始化的,模型的超参数是从超参数空间中 选取的;在选取超参数时,对于取值范围是离散的超参数,从中随机选取一个 超参数;对于取值范围是连续的超参数,采用等分随机的方式从中选取一个超 参数。
具体地,步骤一中,随机生成S个深度学习模型M=[M1,M2,...,Ms], S为自然数,深度学习模型例如为视觉模型。S个深度学习模型的权重初始化为 其中0≤i<Max_Epoch, Max_Epoch表示深度学习模型的最大迭代次数,S个深度学习视觉模型的超参数为其中j 是超参数的个数。深度学习模型的权重是随机初始化的,深度学习模型的超参 数是从超参数空间中选取的。在选取超参数时,对于取值范围是离散的超参数, 从中随机选取一个超参数,对于取值范围是连续的超参数,采用等分随机的方 式从中选取一个超参数。为保证选取的超参数可以较为均匀的分布,会将连续 的超参数空间等分成S份,并从每一份中随机选择一个超参数,即等分随机选 取。
进一步的,每一个深度学习模型使用不同的超参数组合进行训练一定的代 数,并在验证集上验证每一个深度学习模型的性能,记录每一组超参数对应的 深度学习模型的性能。深度学习模型的性能是Y=[Y1,Y2,...,Ys]。
进一步的,建立一个采样模型,用于描述不同的超参数与深度学习模型性 能之间的联系,根据模型的超参数得到模型的性能。采样模型可以用一个4层 的多层感知机表示,多层感知机的输入是超参数取值,输出是深度学习模型的 性能。
对于离散的超参数采用One-Hot编码,考虑到离散超参数取值的有限性, One-Hot编码的位数限制为4位。对于连续的超参数值采用Max-Min归一化方法。
多层感知机输入的维度大于等于超参数的个数,输出维度是1。多层感知机 的输入用X表示,输出是f(X),隐层的权重是WMLP,隐层的偏置是b, 隐层和输出的激活函数是sigmoid函数,用σ表示。多层感知机的公式表示如 下:
sigmoid函数的公式如下:
其中,a表示sigmoid函数的输入。
进一步的,对训练过的深度学习模型按照性能进行排序,其中性能较差的 一半的模型将被剔除,不再进行训练,性能较好的一半的模型将被保留,并继 续训练。最终保留的模型数应大于等于最小保留的模型数。
步骤五中在保留的模型中选取部分模型对模型的超参数进行扰动具体为: 其模型扰动方式P的确定方式如下:
其中,λ∈(0,1),λ的取值是随机的;P1表示选择模型扰动 方式一,P2表示选择模型扰动方式二,P3表示选择模型扰动方式三。
模型扰动方式一是指重新生成一组超参数,用这组超参数替换排名在 (100-η)%之后的模型原有的超参数,(100-η)%之后的模型的权重 由排名在η%之前的模型的权重进行替换;η的取值范围:[10,50];
模型扰动方式二是指模型性能排名在(100-η)%之后的模型的权重由 性能排名在η%之前的权重进行替换;性能排名在(100-η)%之后的 模型的超参数由性能排名在η%之前的模型的超参数进行随机扰动后再替 换;
模型扰动方式三是指对模型性能排名在(100-η)%之后的模型的权 重和超参数不做修改,即直接继续下一阶段的训练。
进一步地,模型扰动方式二中,在对超参数组合进行随机扰动时,如果超 参数的取值是非实数,则不对其进行扰动,令如果超参数的 取值是实数,则对其进行扰动,令其中, α∈[0.8,1.2],α的取值是随机的,扰动后的超参数的取值不 应超出超参数空间,为扰动前的超参数的取值,α为扰动系数, 为扰动后的超参数的取值。
具体实施方式,如图2所示,初始化S组超参数,同时训练S组不同的深 度学习模型,这里S的取值为4。图1中矩形区域表示深度学习模型的权重,各 个深度学习模型的初始化权重不一样;图1中圆形区域表示深度学习模型的超 参数,每一组超参数都是从超参数空间中随机或者等分随机选择的。并行的训 练这4组模型迭代一定的代数,比较各个深度学习模型在验证集上的性能,深 度学习模型的性能可以是accuracy、MIoU等,保存深度学习模型的状态到本地, 深度学习模型的状态包括深度学习模型的权重、超参数信息、性能和优化器状 态等。
如图2所示,采用逐次减半的方式剔除掉较差的2个深度学习模型,只保 留较好的2个深度学习模型。剔除掉的深度学习模型将不再训练,保留的深度 学习模型将继续训练。基于训练得到的结果,建立超参数与深度学习模型性能 之间的映射。在较好的2个的深度学习模型中,对深度学习模型的性能进行排 序。选择超参数的扰动方式,并根据扰动方式对深度学习模型的超参数进行扰 动。继续训练保留下来的深度学习模型,直至达到最大的迭代次数。
以下结合一个具体的应用场景,以分类任务为例,对本发明的深度学习模 型超参数寻优方法作说明。
从超参数空间中随机选择一组超参数,并生成与这组超参数对应的视觉分 类模型,共生成10组分类模型,每一分类模型都有一个不同的超参数组合。超 参数包括优化器、批处理大小和学习率。优化器、批处理大小等离散的超参数 采用随机选取的方法,学习率等连续的超参数采用等分随机选取的方法,即先 将学习率的取值范围等分为10份,再从每一份中随机的选取一个学习率的值。
每一分类模型都在训练集上训练一定的代数,并在验证集上做分类模型的 验证得到分类模型的准确率,记录每一组超参数对应的分类模型的准确率,将 分类模型的权重和状态信息保存到本地,此处准确率为该分类模型的性能。
根据已经得到的分类模型的超参数与准确率信息,建立分类模型的超参数 与准确率之间的映射关系。具体的做法是:先对超参数进行归一化,再采用梯 度下降法训练多层感知机。优化器的取值是“Adam”、“SGD”、“RMSProp”,采用 One-Hot归一化后的值分别是0000、0001、0010。批处理大小的取值是8、16、 32、64、128、256、512、1024,采用One-Hot归一化后的值分别是0000、0001、0010、0011、0100、0101、0110、0111。学习率的取值范围是[1e-5,1e-1],从 中等分随机选取10个值,并做归一化,归一化方式采用Max-Min归一化方式。 例如当超参数是(“Admam”,256,1e-3),准确率是0.95,则多层感知机的输入 是[0,0,0,0,0,1,0,1,0.0099],输出是0.95。
比较分类模型的准确率,并按照准确率进行升序排序,剔除较差的一半的 分类模型,保留较好的一半的分类模型。设置的保留的最小模型数为3,如果剔 除较差的分类模型后,保留的分类模型数小于3,则应减少剔除模型的数量,使 得最后保留下来的分类模型数量是3。
在保留的模型中选取部分模型对模型的超参数进行扰动具体为:其模型扰 动方式P的确定方式如下:
其中,λ∈(0,1),λ的取值是随机的;P1表示选择模型扰动 方式一,P2表示选择模型扰动方式二,P3表示选择模型扰动方式三。
模型扰动方式一是指重新生成一组超参数,用这组超参数替换排名在80% 之后的深度学习模型的超参数,80%之后的深度学习模型的权重由排名在20%之 前的深度学习模型的权重进行替换。
模型扰动方式二是指模型性能排名在80%之后的深度学习模型的权重由性 能排名在20%之前的深度学习模型的权重进行替换;性能排名在80%之后的深度 学习模型的超参数由性能排名在20%之前的深度学习模型的超参数进行随机扰 动后再替换。在对超参数组合进行随机扰动时,优化器的值不进行扰动,批处 理大小和学习率的值进行扰动,扰动系数在[0.8,1.2]中随机选取,扰动后的 批处理大小和学习率的取值不应超出超参数的空间。
模型扰动方式三是指对模型性能排名在80%之后的深度学习模型的权重和 超参数不做任何的修改,即直接继续下一阶段的训练。
继续分类模型的训练、性能的比较和分类模型的替换,直至分类模型达到 最大的迭代次数,保留准确率最高的分类模型作为最优的分类模型。
本发明可以自动的搜寻深度学习模型的超参数,使得得到最优的深度学习 模型。对于连续的超参数采用等分随机的方式取值,连续超参数取值的均匀性 有利于深度学习模型寻找到合适的超参数,从而得到更优的深度学习模型性能。 采用这种逐次减半的方式训练的超参数寻优算法,有利于使用更多的资源寻优 表现优异的超参数,减少了相似深度学习模型的重复训练,使深度学习模型得 到更优的性能。使用多种模型参数扰动方式有利于充分探索不同超参数在深度 学习模型上表现,帮助深度学习模型达到更优的性能。
上述实施方式只为说明本发明的技术构思及特点,其目的在于让熟悉此项 技术的人士能够了解本发明的内容并加以实施,并不能以此限制本发明的保护 范围,凡根据本发明精神实质所作的等效变化或修饰,都应涵盖在本发明的保 护范围内。
Claims (4)
1.一种渐进式的深度学习模型的超参数寻优方法,其特征在于,包括:
步骤一:生成多个不同的深度学习模型,并从超参数空间中为每一个模型选取一组超参数;
步骤二:在训练集上训练每一个模型一定的代数,并在验证集上验证模型的性能,并记录每一个模型的性能;
步骤三:根据模型的超参数得到模型的性能,对模型按照性能的高低从高到低进行排序;
采用逐次减半的方法,保留性能排名50%之前的模型,剔除性能排名在50%之后的模型;
步骤四:在保留的模型中选取部分模型对模型的超参数进行扰动;
步骤五:继续在训练集上训练每一个模型一定的代数,并在验证集上验证模型的性能,并记录每一个模型的性能;
步骤六:判断是否满足最大迭代次数,如是则保存最优的模型并终止训练至结束;如否则返回步骤三。
2.根据权利要求1所述的一种渐进式的深度学习模型的超参数寻优方法,其特征在于,
模型的权重是随机初始化的,模型的超参数是从超参数空间中选取的;在选取超参数时,对于取值范围是离散的超参数,从中随机选取一个超参数;对于取值范围是连续的超参数,采用等分随机的方式从中选取一个超参数。
3.根据权利要求1所述的一种渐进式的深度学习模型的超参数寻优方法,其特征在于,
步骤五中在保留的模型中选取部分模型对模型的超参数进行扰动具体为:其模型扰动方式P的确定方式如下:
其中,λ∈(0,1),λ为随机取值;P1表示选择模型扰动方式一,P2表示选择模型扰动方式二,P3表示选择模型扰动方式三;
模型扰动方式一是指重新生成一组超参数,用这组超参数替换排名在(100-η)%之后的模型原有的超参数,(100-η)%之后的模型的权重由排名在η%之前的模型的权重进行替换;η的取值范围:[10,50];
模型扰动方式二是指模型性能排名在(100-η)%之后的模型的权重由性能排名在η%之前的权重进行替换;性能排名在(100-η)%之后的模型的超参数由性能排名在η%之前的模型的超参数进行随机扰动后再替换;
模型扰动方式三是指对模型性能排名在(100-η)%之后的模型的权重和超参数不做修改,即直接继续下一阶段的训练。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111002372.4A CN113780575B (zh) | 2021-08-30 | 2021-08-30 | 一种基于渐进式的深度学习模型的视觉分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111002372.4A CN113780575B (zh) | 2021-08-30 | 2021-08-30 | 一种基于渐进式的深度学习模型的视觉分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113780575A true CN113780575A (zh) | 2021-12-10 |
CN113780575B CN113780575B (zh) | 2024-02-20 |
Family
ID=78840102
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111002372.4A Active CN113780575B (zh) | 2021-08-30 | 2021-08-30 | 一种基于渐进式的深度学习模型的视觉分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113780575B (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108470210A (zh) * | 2018-04-02 | 2018-08-31 | 中科弘云科技(北京)有限公司 | 一种深度学习中超参数的优化选取方法 |
CN110766090A (zh) * | 2019-10-30 | 2020-02-07 | 腾讯科技(深圳)有限公司 | 一种模型训练方法、装置、设备、系统及存储介质 |
CN111160459A (zh) * | 2019-12-30 | 2020-05-15 | 上海依图网络科技有限公司 | 超参数的优化装置和方法 |
CN111178486A (zh) * | 2019-11-27 | 2020-05-19 | 湖州师范学院 | 一种基于种群演化的超参数异步并行搜索方法 |
AU2020103207A4 (en) * | 2020-11-03 | 2021-01-14 | Badgujar, Ravindra Daga MR | A novel method of introducing basic elementary disturbances for testing machine learning models |
CN112232294A (zh) * | 2020-11-09 | 2021-01-15 | 北京爱笔科技有限公司 | 一种超参数优化、目标识别模型训练、目标识别方法及装置 |
CN113240094A (zh) * | 2021-06-07 | 2021-08-10 | 西安交通大学 | 一种基于svm的lstm超参数优化方法、系统、介质及设备 |
WO2021159060A1 (en) * | 2020-02-06 | 2021-08-12 | Google Llc | Generation of optimized hyperparameter values for application to machine learning tasks |
-
2021
- 2021-08-30 CN CN202111002372.4A patent/CN113780575B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108470210A (zh) * | 2018-04-02 | 2018-08-31 | 中科弘云科技(北京)有限公司 | 一种深度学习中超参数的优化选取方法 |
CN110766090A (zh) * | 2019-10-30 | 2020-02-07 | 腾讯科技(深圳)有限公司 | 一种模型训练方法、装置、设备、系统及存储介质 |
CN111178486A (zh) * | 2019-11-27 | 2020-05-19 | 湖州师范学院 | 一种基于种群演化的超参数异步并行搜索方法 |
CN111160459A (zh) * | 2019-12-30 | 2020-05-15 | 上海依图网络科技有限公司 | 超参数的优化装置和方法 |
WO2021159060A1 (en) * | 2020-02-06 | 2021-08-12 | Google Llc | Generation of optimized hyperparameter values for application to machine learning tasks |
AU2020103207A4 (en) * | 2020-11-03 | 2021-01-14 | Badgujar, Ravindra Daga MR | A novel method of introducing basic elementary disturbances for testing machine learning models |
CN112232294A (zh) * | 2020-11-09 | 2021-01-15 | 北京爱笔科技有限公司 | 一种超参数优化、目标识别模型训练、目标识别方法及装置 |
CN113240094A (zh) * | 2021-06-07 | 2021-08-10 | 西安交通大学 | 一种基于svm的lstm超参数优化方法、系统、介质及设备 |
Non-Patent Citations (1)
Title |
---|
"Non-stochastic Best Arm Identification and Hyperparameter Optimization", 《ARTIFICIAL INTELLIGENCE AND STATISTICS》, vol. 51, 1 January 2016 (2016-01-01) * |
Also Published As
Publication number | Publication date |
---|---|
CN113780575B (zh) | 2024-02-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210232925A1 (en) | Stochastic Gradient Boosting For Deep Neural Networks | |
CN112069310B (zh) | 基于主动学习策略的文本分类方法及系统 | |
CN111753101B (zh) | 一种融合实体描述及类型的知识图谱表示学习方法 | |
CN110941734B (zh) | 基于稀疏图结构的深度无监督图像检索方法 | |
CN110363230B (zh) | 基于加权基分类器的stacking集成污水处理故障诊断方法 | |
CN111834010A (zh) | 一种基于属性约简和XGBoost的COVID-19检测假阴性识别方法 | |
CN110866113A (zh) | 基于稀疏自注意力机制微调伯特模型的文本分类方法 | |
CN112580742A (zh) | 基于标签传播的图神经网络快速训练方法 | |
CN114218292A (zh) | 一种多元时间序列相似性检索方法 | |
CN113537365A (zh) | 一种基于信息熵动态赋权的多任务学习自适应平衡方法 | |
CN113222035A (zh) | 基于强化学习和知识蒸馏的多类别不平衡故障分类方法 | |
CN108647206A (zh) | 基于混沌粒子群优化cnn网络的中文垃圾邮件识别方法 | |
CN111209939A (zh) | 一种具有智能参数优化模块的svm分类预测方法 | |
Phan et al. | Efficiency enhancement of evolutionary neural architecture search via training-free initialization | |
CN112651499A (zh) | 一种基于蚁群优化算法和层间信息的结构化模型剪枝方法 | |
CN112668633A (zh) | 一种基于细粒度领域自适应的图迁移学习方法 | |
CN113780575A (zh) | 一种渐进式的深度学习模型的超参数寻优方法 | |
CN108446718B (zh) | 一种动态深度置信网络分析方法 | |
CN115906959A (zh) | 基于de-bp算法的神经网络模型的参数训练方法 | |
CN112560900B (zh) | 一种面向样本不均衡的多疾病分类器设计方法 | |
CN113191450B (zh) | 一种基于动态标签调整的弱监督目标检测算法 | |
CN114298160A (zh) | 一种基于孪生知识蒸馏与自监督学习的小样本分类方法 | |
CN112819161A (zh) | 基于变长基因遗传算法的神经网络构建系统、方法及存储介质 | |
CN113688559B (zh) | 一种基于改进选择性进化随机网络的海水淡化系统故障诊断方法 | |
Zhu et al. | Ordered incremental training for GA-based classifiers |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |