CN111860833A - 一种模型的训练方法、设备以及介质 - Google Patents

一种模型的训练方法、设备以及介质 Download PDF

Info

Publication number
CN111860833A
CN111860833A CN202010656144.8A CN202010656144A CN111860833A CN 111860833 A CN111860833 A CN 111860833A CN 202010656144 A CN202010656144 A CN 202010656144A CN 111860833 A CN111860833 A CN 111860833A
Authority
CN
China
Prior art keywords
training
parameters
model
trained
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202010656144.8A
Other languages
English (en)
Inventor
于彤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou Inspur Intelligent Technology Co Ltd
Original Assignee
Suzhou Inspur Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou Inspur Intelligent Technology Co Ltd filed Critical Suzhou Inspur Intelligent Technology Co Ltd
Priority to CN202010656144.8A priority Critical patent/CN111860833A/zh
Publication of CN111860833A publication Critical patent/CN111860833A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Abstract

本发明公开了一种模型的训练方法,包括:获取多组超参数并分别利用每一组超参数构建模型;利用训练集分别对构建的多个模型进行训练,并利用验证集对正在训练的模型进行验证;响应于触发早停,获取正在训练的模型在进行验证时产生的评估参数,并从多个评估参数中得到标准参数;判断标准参数是否大于阈值;响应于标准参数不大于阈值,获取正在训练的模型对应的损失函数值的倒数,并根据获取到的损失函数值的倒数以及对应的评估参数从正在训练的模型中确定继续训练的若干个模型;响应于继续训练的若干个模型的数量大于1,返回进行训练的步骤,直到继续训练的若干个模型的数量等于1。本发明还公开了一种计算机设备以及可读存储介质。

Description

一种模型的训练方法、设备以及介质
技术领域
本发明涉及超参数搜索领域,具体涉及一种模型的训练方法、系统、设备以及存储介质。
背景技术
当在模型上使用超参数调优方案的时候,多以相应的评估参数作为评估网络训练效果、从而判断超参数组合质量的标准。如果在超参数调优时使用早停算法,步骤大体如下:使用某种采样方法确定一个或一组超参数组合,并得到每一组超参数组合对应的目标检测模型;根据早停算法的具体要求,将模型训练若干轮,并得到验证集相应的评估值。在某些算法中,可能会基于现有的评估参数值判断模型质量;在某些算法中会根据现有的值预测模型训练后最佳的评估参数值。但无论是哪种情况,都需要根据现有的评估参数值判断。当模型现有的评估参数值或预测的评估参数值比较低的时候,算法会根据一定的标准停止其中一部分训练;重复上述过程直到只剩下一个网络在训练,该网络所使用的超参数组合即为最佳组合。
超参数调优中的早停策略原本是为了尽快停止效果不好的网络,从而节省时间和计算资源。但采用怎样的评价标准判断是否应该停止训练是很重要的。对于目标检测模型来说,如果采用mAP作为判断标准,在训练的最初一段时间很可能都是0,但调优算法已经要开始判断是否要开始提前停止训练了。这样以来可能造成的结果就是,可能所有参数对应的模型mAP都还是0,算法就随机选择停止哪些训练;或者只有几组训练的mAP有值,那么所有有数值的训练就都被保留了,mAP还是0的训练就都被停掉了。无论是哪一种情况,都会导致早停策略很草率,很可能会有一些最终训练效果还不错的训练提前被停掉了,这样一来一定会影响最终的训练精度和超参数选择。这个问题在目标检测模型中比较突出,主要原因是mAP在训练的最初阶段是0或非常小。
发明内容
有鉴于此,为了克服上述问题的至少一个方面,本发明实施例提出一种模型的训练方法,包括以下步骤:
获取多组超参数并分别利用每一组所述超参数构建模型;
利用训练集分别对构建的多个模型进行训练,并利用验证集对正在训练的模型进行验证;
响应于触发早停,获取正在训练的所述模型在利用所述验证集进行验证时产生的评估参数,并从多个所述评估参数中得到标准参数;
判断所述标准参数是否大于阈值;
响应于所述标准参数不大于阈值,获取所述正在训练的模型在利用所述验证集进行验证时产生的损失函数值的倒数,并根据获取到的损失函数值的倒数以及对应的所述评估参数从所述正在训练的模型中确定继续训练的若干个模型;
响应于所述继续训练的若干个模型的数量大于1,返回进行训练的步骤,直到所述继续训练的若干个模型的数量等于1。
在一些实施例中,还包括:
响应于所述标准参数大于所述阈值,根据对应的所述评估参数的大小从所述正在训练的模型中确定继续训练的若干个模型。
在一些实施例中,响应于所述标准参数不大于阈值,获取所述正在训练的模型对应的损失函数值的倒数,并根据获取到的损失函数值的倒数以及对应的所述评估参数从所述正在训练的模型中确定继续训练的若干个模型,进一步包括:
响应于所述标准参数大于0不大于所述阈值,根据对所述获取到的损失函数值的倒数以及对应的所述评估参数进行加权求和后的大小确定继续训练的若干个模型。
在一些实施例中,还包括:
响应于所述标准参数等于0,根据获取到的损失函数值的倒数的大小确定继续训练的若干个模型;
在一些实施例中,从多个所述评估参数中得到标准参数,进一步包括:
将所述多个所述评估参数中的最小值作为标准参数。
在一些实施例中,从多个所述评估参数中得到标准参数,进一步包括:
将所述多个所述评估参数的平均值作为标准参数。
在一些实施例中,还包括:
预先利用所述训练集对其中一组超参数构成的模型进行训练,直到所述其中一组超参数构成的模型收敛至预设精度,并根据利用所述验证集进行验证时得到的最终的评估参数确定所述阈值。
在一些实施例中,获取多组超参数并分别利用每一组所述超参数构建模型,进一步包括:
确定所述超参数的采样空间;
利用所述采样算法在所述采样空间中进行采样以获取多组所述超参数。
基于同一发明构思,根据本发明的另一个方面,本发明的实施例还提供了一种计算机设备,包括:
至少一个处理器;以及
存储器,所述存储器存储有可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时执行如上所述的任一种模型的训练方法的步骤。
基于同一发明构思,根据本发明的另一个方面,本发明的实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时执行如上所述的任一种模型的训练方法的步骤。
本发明具有以下有益技术效果之一:本发明提出的方案将将单一使用评估参数作为评价标准转变为将损失函数值和评估参数结合作为评估模型的标准,可以更有效的在模型训练早期对模型进行评估,并且避免带有早停策略的超参数调优算法随机停止一些训练,或者错误地将可能得到更高精度的训练提前中止,从而有效地提升超参数质量,进而在应用目标检测模型时获取更高的精度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的实施例。
图1为本发明的实施例提供的模型的训练方法的流程示意图;
图2为本发明的实施例提供的计算机设备的结构示意图;
图3为本发明的实施例提供的计算机可读存储介质的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明实施例进一步详细说明。
需要说明的是,本发明实施例中所有使用“第一”和“第二”的表述均是为了区分两个相同名称非相同的实体或者非相同的参量,可见“第一”“第二”仅为了表述的方便,不应理解为对本发明实施例的限定,后续实施例对此不再一一说明。
根据本发明的一个方面,本发明的实施例提出一种模型的训练方法,如图1所示,其可以包括步骤:
S1,获取多组超参数并分别利用每一组所述超参数构建模型;
S2,利用训练集分别对构建的多个模型进行训练,并利用验证集对正在训练的模型进行验证;
S3,响应于触发早停,获取正在训练的所述模型在利用所述验证集进行验证时产生的评估参数,并从多个所述评估参数中得到标准参数;
S4,判断所述标准参数是否大于阈值;
S5,响应于所述标准参数不大于阈值,获取所述正在训练的模型在利用所述验证集进行验证时产生的损失函数值的倒数,并根据获取到的损失函数值的倒数以及对应的所述评估参数从所述正在训练的模型中确定继续训练的若干个模型;
S6,响应于所述继续训练的若干个模型的数量大于1,返回进行训练的步骤,直到所述继续训练的若干个模型的数量等于1。
本发明提出的方案将将单一使用评估参数作为评价标准转变为将损失函数值和评估参数结合作为评估模型的标准,可以更有效的在模型训练早期对模型进行评估,并且避免带有早停策略的超参数调优算法随机停止一些训练,或者错误地将可能得到更高精度的训练提前中止,从而有效地提升超参数质量,进而在应用目标检测模型时获取更高的精度。
在一些实施例中,步骤S1中,获取多组超参数并分别利用每一组所述超参数构建模型,进一步包括:
确定所述超参数的采样空间;
利用所述采样算法在所述采样空间中进行采样以获取多组所述超参数。
具体的,可以使用软件AutoML-Suite中的超参数调优模块(AutoTune)搜索超参数。当使用这个模块搜索最优的超参数时,可以选择一个带有早停策略的超参数调优算法,在采样空间中搜索最优的超参数组合。可以通过超参数调优模块使用对应的采样算法在采样空间中确定一个或一组超参数组合,并得到每一组超参数组合对应的目标检测模型为模型。所涉及的超参数可以是与训练相关的,也可以是与模型结构相关的。在选择模型评估标准时,可以将原本的单一评价标准变为复合的评价标准。
需要说明的是,采样算法和采样空间可以是超参数调优模块中本身所拥有的。
在一些实施例中,步骤S3中,响应于触发早停,获取正在训练的所述模型在利用所述验证集进行验证时产生的评估参数,并从多个所述评估参数中得到标准参数,具体的,带有早停策略的超参数调优算法其自身有相应的早停标准,例如时间等。
目前有多种超参数搜索调优的算法支持早停策略,比较典型的有基于多臂老虎机算法的HyperBand(HB),基于遗传算法的Population Based Training(PBT),基于贝叶斯算法的Freeze Thaw Bayesian Optimization(FTBO)等。这些早停算法在细节处理上略有不同,但大体思路是一致的:当模型被训练一段时间之后,算法会使用验证过程中产生的某些反馈信息,以决定是继续还是停止本次训练。这个算法参考的评估参数对于不同深度学习模型可以不同,比如对于强化学习网络可以是rewards值,对于机器翻译网络可以是BLEUscore,对于图像分类模型通常是验证精度,而对于目标检测模型通常使用的判断标准是全类别的平均精度mAP。
需要说明的是,触发早停的时机需要根据每一个算法自身决定,也即本申请是对当触发早停时选择相应的评价参数以决定哪些模型继续训练。
在一些实施例中,步骤S4中,根据所述标准参数的大小确定是否需要获取所述正在训练的模型对应的损失函数值的倒数,具体的,损失函数值(loss)在不同的模型中具体的计算方式也不同。例如,在目标检测模型中,可以分为两类,一类是给图片分类时产生的loss,一类是与预测的边框和真实边框之间的交集并集相关的loss,并不是所有loss都会算进预测结果的loss。在实际操作中会区分出正确的预测、错误的预测和可以忽略的预测,然后再各类别中按一定的比例采样计算loss。在训练目标检测模型时,loss依然时一个判断模型质量的重要参考。Loss值越小,则说明模型质量越高,越大则说明模型质量越低。
在一些实施例中,方法还包括:
响应于所述标准参数大于所述阈值,根据对应的所述评估参数的大小从所述正在训练的模型中确定继续训练的若干个模型。
在一些实施例中,步骤S5中,响应于所述标准参数不大于阈值,获取所述正在训练的模型对应的损失函数值的倒数,并根据获取到的损失函数值的倒数以及对应的所述评估参数从所述正在训练的模型中确定继续训练的若干个模型,进一步包括:
响应于所述标准参数大于0不大于所述阈值,根据对所述获取到的损失函数值的倒数以及对应的所述评估参数进行加权求和后的大小确定继续训练的若干个模型。
在一些实施例中,还包括:
响应于所述标准参数等于0,根据获取到的损失函数值的倒数的大小确定继续训练的若干个模型;
具体的,当标准参数是0的时候,只用loss的倒数作为判断和评估标准,超参数调优算法可以通过评估loss的倒数的大小来判断停止训练哪些模型,在一些实施例中,可以停止训练loss的倒数较小的若干个模型。
当标准参数的值比较小,即大于0小于阈值时,它的变化是比较快的。所以很难说这个阶段评估参数大的模型训练到最后是不是精度最高,因此还是用loss值作为辅助。但因为loss在这个阶段可能已经比较小,我们需要加一个权重来平衡二者之间的关系。例如可以通过评估参数+w*1/loss的方式确定继续训练的若干个模型,其中,w是loss的权重,如果想处理精细一些,可以选择在评估参数值不同时给予loss不同的权重。但通常来说,使用一个特定的值可以降低超参数调优算法评估时的复杂度,保证算法的连贯性,比如w取值可以用0.1。在一些实施例中,可以将停止训练评估参数+w*1/loss较小的若干个模型。
在训练的中后期,标准参数值比较大,即大于阈值时,只使用评估参数作为评价标准。在一些实施例中,可以将停止训练评估参数较小的若干个模型。
在一些实施例中,从多个所述评估参数中得到标准参数,进一步包括:
将所述多个所述评估参数中的最小值作为标准参数。
在一些实施例中,从多个所述评估参数中得到标准参数,进一步包括:
将所述多个所述评估参数的平均值作为标准参数。
具体的,算法每次进行早停时会有一个或多个训练要进行判断是否需要早停,具体用多个评估参数中的哪个作为标准参数,要以所有训练中最小的评估参数为准,或者以平均值为准。
在一些实施例中,还包括:
预先利用所述训练集对其中一组超参数构成的模型进行训练,直到所述其中一组超参数构成的模型收敛至预设精度,并根据利用所述验证集进行验证时得到的最终的评估参数确定所述阈值。
具体的,标准参数的阈值与验证集有关,因此可以先对一组超参数构成的模型训练至收敛,然后根据该模型对应的评估参数确定阈值,例如该模型对应的评估参数为0.6,则阈值可以是0.4。在一些实施例中,也可以直接根据经验值确定阈值。
在一些实施例中,在步骤S6中,响应于所述继续训练的若干个模型的数量大于1,返回触发早停的步骤,直到所述继续训练的若干个模型的数量等于1。具体的,超参数调优算法触发多次早停判断后将只留下一个模型在训练,该模型所使用的超参数组合就是搜索得到的最佳组合。
本发明提出的方案将将单一使用评估参数作为评价标准转变为将损失函数值和评估参数结合作为评估模型的标准,可以更有效的在模型训练早期对模型进行评估,并且避免带有早停策略的超参数调优算法随机停止一些训练,或者错误地将可能得到更高精度的训练提前中止,从而有效地提升超参数质量,进而在应用目标检测模型时获取更高的精度。
基于同一发明构思,根据本发明的另一个方面,如图2所示,本发明的实施例还提供了一种计算机设备501,包括:
至少一个处理器520;以及
存储器510,存储器510存储有可在处理器上运行的计算机程序511,处理器520执行程序时执行如上的任一种模型的训练方法的步骤。
基于同一发明构思,根据本发明的另一个方面,如图3所示,本发明的实施例还提供了一种计算机可读存储介质601,计算机可读存储介质601存储有计算机程序指令610,计算机程序指令610被处理器执行时执行如上的任一种模型的训练方法的步骤。
最后需要说明的是,本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关硬件来完成,的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,的存储介质可为磁碟、光盘、只读存储记忆体(ROM)或随机存储记忆体(RAM)等。上述计算机程序的实施例,可以达到与之对应的前述任意方法实施例相同或者相类似的效果。
此外,典型地,本发明实施例公开的装置、设备等可为各种电子终端设备,例如手机、个人数字助理(PDA)、平板电脑(PAD)、智能电视等,也可以是大型终端设备,如服务器等,因此本发明实施例公开的保护范围不应限定为某种特定类型的装置、设备。本发明实施例公开的客户端可以是以电子硬件、计算机软件或两者的组合形式应用于上述任意一种电子终端设备中。
此外,根据本发明实施例公开的方法还可以被实现为由CPU执行的计算机程序,该计算机程序可以存储在计算机可读存储介质中。在该计算机程序被CPU执行时,执行本发明实施例公开的方法中限定的上述功能。
此外,上述方法步骤以及系统单元也可以利用控制器以及用于存储使得控制器实现上述步骤或单元功能的计算机程序的计算机可读存储介质实现。
此外,应该明白的是,本文的计算机可读存储介质(例如,存储器)可以是易失性存储器或非易失性存储器,或者可以包括易失性存储器和非易失性存储器两者。作为例子而非限制性的,非易失性存储器可以包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦写可编程ROM(EEPROM)或快闪存储器。易失性存储器可以包括随机存取存储器(RAM),该RAM可以充当外部高速缓存存储器。作为例子而非限制性的,RAM可以以多种形式获得,比如同步RAM(DRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据速率SDRAM(DDRSDRAM)、增强SDRAM(ESDRAM)、同步链路DRAM(SLDRAM)、以及直接Rambus RAM(DRRAM)。所公开的方面的存储设备意在包括但不限于这些和其它合适类型的存储器。
本领域技术人员还将明白的是,结合这里的公开所描述的各种示例性逻辑块、模块、电路和算法步骤可以被实现为电子硬件、计算机软件或两者的组合。为了清楚地说明硬件和软件的这种可互换性,已经就各种示意性组件、方块、模块、电路和步骤的功能对其进行了一般性的描述。这种功能是被实现为软件还是被实现为硬件取决于具体应用以及施加给整个系统的设计约束。本领域技术人员可以针对每种具体应用以各种方式来实现的功能,但是这种实现决定不应被解释为导致脱离本发明实施例公开的范围。
结合这里的公开所描述的各种示例性逻辑块、模块和电路可以利用被设计成用于执行这里功能的下列部件来实现或执行:通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或其它可编程逻辑器件、分立门或晶体管逻辑、分立的硬件组件或者这些部件的任何组合。通用处理器可以是微处理器,但是可替换地,处理器可以是任何传统处理器、控制器、微控制器或状态机。处理器也可以被实现为计算设备的组合,例如,DSP和微处理器的组合、多个微处理器、一个或多个微处理器结合DSP和/或任何其它这种配置。
结合这里的公开所描述的方法或算法的步骤可以直接包含在硬件中、由处理器执行的软件模块中或这两者的组合中。软件模块可以驻留在RAM存储器、快闪存储器、ROM存储器、EPROM存储器、EEPROM存储器、寄存器、硬盘、可移动盘、CD-ROM、或本领域已知的任何其它形式的存储介质中。示例性的存储介质被耦合到处理器,使得处理器能够从该存储介质中读取信息或向该存储介质写入信息。在一个替换方案中,存储介质可以与处理器集成在一起。处理器和存储介质可以驻留在ASIC中。ASIC可以驻留在用户终端中。在一个替换方案中,处理器和存储介质可以作为分立组件驻留在用户终端中。
在一个或多个示例性设计中,功能可以在硬件、软件、固件或其任意组合中实现。如果在软件中实现,则可以将功能作为一个或多个指令或代码存储在计算机可读介质上或通过计算机可读介质来传送。计算机可读介质包括计算机存储介质和通信介质,该通信介质包括有助于将计算机程序从一个位置传送到另一个位置的任何介质。存储介质可以是能够被通用或专用计算机访问的任何可用介质。作为例子而非限制性的,该计算机可读介质可以包括RAM、ROM、EEPROM、CD-ROM或其它光盘存储设备、磁盘存储设备或其它磁性存储设备,或者是可以用于携带或存储形式为指令或数据结构的所需程序代码并且能够被通用或专用计算机或者通用或专用处理器访问的任何其它介质。此外,任何连接都可以适当地称为计算机可读介质。例如,如果使用同轴线缆、光纤线缆、双绞线、数字用户线路(DSL)或诸如红外线、无线电和微波的无线技术来从网站、服务器或其它远程源发送软件,则上述同轴线缆、光纤线缆、双绞线、DSL或诸如红外线、无线电和微波的无线技术均包括在介质的定义。如这里所使用的,磁盘和光盘包括压缩盘(CD)、激光盘、光盘、数字多功能盘(DVD)、软盘、蓝光盘,其中磁盘通常磁性地再现数据,而光盘利用激光光学地再现数据。上述内容的组合也应当包括在计算机可读介质的范围内。
以上是本发明公开的示例性实施例,但是应当注意,在不背离权利要求限定的本发明实施例公开的范围的前提下,可以进行多种改变和修改。根据这里描述的公开实施例的方法权利要求的功能、步骤和/或动作不需以任何特定顺序执行。此外,尽管本发明实施例公开的元素可以以个体形式描述或要求,但除非明确限制为单数,也可以理解为多个。
应当理解的是,在本文中使用的,除非上下文清楚地支持例外情况,单数形式“一个”旨在也包括复数形式。还应当理解的是,在本文中使用的“和/或”是指包括一个或者一个以上相关联地列出的项目的任意和所有可能组合。
上述本发明实施例公开实施例序号仅仅为了描述,不代表实施例的优劣。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本发明实施例公开的范围(包括权利要求)被限于这些例子;在本发明实施例的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,并存在如上的本发明实施例的不同方面的许多其它变化,为了简明它们没有在细节中提供。因此,凡在本发明实施例的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本发明实施例的保护范围之内。

Claims (10)

1.一种模型的训练方法,其特征在于,包括以下步骤:
获取多组超参数并分别利用每一组所述超参数构建模型;
利用训练集分别对构建的多个模型进行训练,并利用验证集对正在训练的模型进行验证;
响应于触发早停,获取正在训练的所述模型在利用所述验证集进行验证时产生的评估参数,并从多个所述评估参数中得到标准参数;
判断所述标准参数是否大于阈值;
响应于所述标准参数不大于阈值,获取所述正在训练的模型在利用所述验证集进行验证时产生的损失函数值的倒数,并根据获取到的损失函数值的倒数以及对应的所述评估参数从所述正在训练的模型中确定继续训练的若干个模型;
响应于所述继续训练的若干个模型的数量大于1,返回进行训练的步骤,直到所述继续训练的若干个模型的数量等于1。
2.如权利要求1所述的方法,其特征在于,还包括:
响应于所述标准参数大于所述阈值,根据对应的所述评估参数的大小从所述正在训练的模型中确定继续训练的若干个模型。
3.如权利要求1所述的方法,其特征在于,响应于所述标准参数不大于阈值,获取所述正在训练的模型对应的损失函数值的倒数,并根据获取到的损失函数值的倒数以及对应的所述评估参数从所述正在训练的模型中确定继续训练的若干个模型,进一步包括:
响应于所述标准参数大于0不大于所述阈值,根据对所述获取到的损失函数值的倒数以及对应的所述评估参数进行加权求和后的大小确定继续训练的若干个模型。
4.如权利要求3所述的方法,其特征在于,还包括:
响应于所述标准参数等于0,根据获取到的损失函数值的倒数的大小确定继续训练的若干个模型。
5.如权利要求1所述的方法,其特征在于,从多个所述评估参数中得到标准参数,进一步包括:
将所述多个所述评估参数中的最小值作为标准参数。
6.如权利要求1所述的方法,其特征在于,从多个所述评估参数中得到标准参数,进一步包括:
将所述多个所述评估参数的平均值作为标准参数。
7.如权利要求1所述的方法,其特征在于,还包括:
预先利用所述训练集对其中一组超参数构成的模型进行训练,直到所述其中一组超参数构成的模型收敛至预设精度,并根据利用所述验证集进行验证时得到的最终的评估参数确定所述阈值。
8.如权利要求1所述的方法,其特征在于,获取多组超参数并分别利用每一组所述超参数构建模型,进一步包括:
确定所述超参数的采样空间;
利用所述采样算法在所述采样空间中进行采样以获取多组所述超参数。
9.一种计算机设备,包括:
至少一个处理器;以及
存储器,所述存储器存储有可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时执行如权利要求1-8任意一项所述的方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时执行如权利要求1-8任意一项所述的方法的步骤。
CN202010656144.8A 2020-07-09 2020-07-09 一种模型的训练方法、设备以及介质 Withdrawn CN111860833A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010656144.8A CN111860833A (zh) 2020-07-09 2020-07-09 一种模型的训练方法、设备以及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010656144.8A CN111860833A (zh) 2020-07-09 2020-07-09 一种模型的训练方法、设备以及介质

Publications (1)

Publication Number Publication Date
CN111860833A true CN111860833A (zh) 2020-10-30

Family

ID=73153684

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010656144.8A Withdrawn CN111860833A (zh) 2020-07-09 2020-07-09 一种模型的训练方法、设备以及介质

Country Status (1)

Country Link
CN (1) CN111860833A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113986561A (zh) * 2021-12-28 2022-01-28 苏州浪潮智能科技有限公司 人工智能任务处理方法、装置、电子设备及可读存储介质

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113986561A (zh) * 2021-12-28 2022-01-28 苏州浪潮智能科技有限公司 人工智能任务处理方法、装置、电子设备及可读存储介质
CN113986561B (zh) * 2021-12-28 2022-04-22 苏州浪潮智能科技有限公司 人工智能任务处理方法、装置、电子设备及可读存储介质
WO2023123926A1 (zh) * 2021-12-28 2023-07-06 苏州浪潮智能科技有限公司 人工智能任务处理方法、装置、电子设备及可读存储介质

Similar Documents

Publication Publication Date Title
US11669744B2 (en) Regularized neural network architecture search
CN107797984B (zh) 智能交互方法、设备及存储介质
US11610064B2 (en) Clarification of natural language requests using neural networks
US20200320419A1 (en) Method and device of classification models construction and data prediction
CN110245475B (zh) 身份验证方法和装置
CN111582341B (zh) 用户异常操作预测方法及装置
CN111860833A (zh) 一种模型的训练方法、设备以及介质
CN114706963A (zh) 问答处理方法及智能设备
CN108319628B (zh) 一种用户兴趣确定方法及装置
US11165648B1 (en) Facilitating network configuration testing
CN110442623B (zh) 大数据挖掘方法、装置及数据挖掘服务器
CN111210017A (zh) 确定布局顺序及数据处理的方法、装置、设备及存储介质
CN111260035A (zh) 一种EfficientNet的结构参数的搜索方法、系统、设备以及介质
US20230229896A1 (en) Method and computing device for determining optimal parameter
WO2021066903A1 (en) Providing explainable product recommendation in a session
CN113157582B (zh) 测试脚本执行序列确定方法及装置
CN111768306B (zh) 基于智能数据分析的风险识别方法及系统
KR102326972B1 (ko) 언론 매체의 신뢰성을 반영한 기사 판별 시스템 및 명제의 진위 판별 방법
US11727042B2 (en) Method and server for classifying queries
CN111105267A (zh) 一种基于als算法的推荐方法、设备及可读介质
US20220414530A1 (en) Selection of a machine learning model
US20230045900A1 (en) Method and system for evaluating performance of operation resources using artificial intelligence (ai)
US20240135184A1 (en) Constrained search: improve multi-objective nas quality by focus on demand
CN117893938A (zh) 一种视频评估模型的训练方法、装置、设备及存储介质
CN116561735A (zh) 一种基于多认证源的互信认证方法、系统及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication

Application publication date: 20201030

WW01 Invention patent application withdrawn after publication