CN111814965A - 超参数调整方法、装置、设备及存储介质 - Google Patents
超参数调整方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN111814965A CN111814965A CN202010819783.1A CN202010819783A CN111814965A CN 111814965 A CN111814965 A CN 111814965A CN 202010819783 A CN202010819783 A CN 202010819783A CN 111814965 A CN111814965 A CN 111814965A
- Authority
- CN
- China
- Prior art keywords
- hyper
- training
- model
- historical
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Abstract
本申请实施例公开了一种超参数调整方法、装置、设备及存储介质,属于人工智能领域。该方法包括:训练过程中,获取目标神经网络模型的当前前向推导偏差,当前前向推导偏差根据目标神经网络模型输出的当前前向推导结果和目标推导结果确定得到;响应于当前前向推导偏差不满足训练完成条件,且当前前向推导偏差和历史前向推导偏差指示进行超参数调整,将目标神经网络模型的历史训练数据输入超参数调整模型;根据超参数调整模型输出的超参数调整值调整超参数,并根据调整后的超参数训练目标神经网络模型。本申请实施例实现了神经网络训练过程中超参数的自动化调整,有助于提高超参数的调整效率,进而提高神经网络模型的训练效率。
Description
技术领域
本申请实施例涉及人工智能领域,特别涉及一种超参数调整方法、装置、设备及存储介质。
背景技术
超参数(Hyper Parameter)是训练神经网络过程中,用于控制神经网络结构、性能以及训练效率的参数,在神经网络训练过程中起着重要作用。
通常情况下,在训练神经网络前,开发人员会根据经验设置初始超参数,并在神经网络训练过程中,根据神经网络的实际训练情况,根据经验手动调整超参数,以提高神经网络的训练效率和质量。
发明内容
本申请实施例提供了一种超参数调整方法、装置、设备及存储介质。所述技术方案如下:
一方面,本申请实施例提供了一种超参数调整方法,所述方法包括:
训练过程中,获取目标神经网络模型的当前前向推导偏差,所述当前前向推导偏差根据所述目标神经网络模型输出的当前前向推导结果和目标推导结果确定得到;
响应于所述当前前向推导偏差不满足训练完成条件,且当前前向推导偏差和历史前向推导偏差指示进行超参数调整,将所述目标神经网络模型的历史训练数据输入超参数调整模型,所述超参数调整模型是根据超参数历史调整记录训练得到的神经网络模型;
根据所述超参数调整模型输出的超参数调整值调整超参数,并根据调整后的超参数训练所述目标神经网络模型。
另一方面,本申请实施例提供了一种超参数调整装置,所述装置包括:
偏差获取模块,用于在训练过程中,获取目标神经网络模型的当前前向推导偏差,所述当前前向推导偏差根据所述目标神经网络模型输出的当前前向推导结果和目标推导结果确定得到;
数据输入模块,用于响应于所述当前前向推导偏差不满足训练完成条件,且当前前向推导偏差和历史前向推导偏差指示进行超参数调整,将所述目标神经网络模型的历史训练数据输入超参数调整模型,所述超参数调整模型是根据超参数历史调整记录训练得到的神经网络模型;
调整模块,用于根据所述超参数调整模型输出的超参数调整值调整超参数,并根据调整后的超参数训练所述目标神经网络模型。
另一方面,本申请实施例提供了一种计算机设备,所述计算机设备包括处理器和存储器;所述存储器存储有至少一条指令,所述至少一条指令用于被所述处理器执行以实现如上述方面所述的超参数调整方法。
另一方面,本申请实施例提供了一种计算机可读存储介质,所述存储介质存储有至少一条指令,所述至少一条指令用于被处理器执行以实现如上述方面所述的超参数调整方法。
另一方面,本申请实施例提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述方面提供的超参数调整方法。
本申请实施例提供的技术方案至少包括如下有益效果:
采用本申请实施例提供的方法训练神经网络模型时,基于目标神经网路模型的当前前向推导结果和历史前向推导结果,确定是否需要继续训练,以及是否需要进行超参数调整,并在需要进行超参数调整时,利用预训练的超参数调整模型,根据历史训练数据预测当前训练阶段下的超参数调整值,进而利用该超参数调整值进行超参数调整,并基于调整后的超参数继续训练目标神经网络模型,实现了神经网络训练过程中超参数的自动化调整,相较于根据经验手动调整超参数,使用基于超参数历史调整记录训练得到的超参数调整模型进行超参数调整,在保证超参数调整准确率的前提下,有助于提高超参数的调整效率,进而提高神经网络模型的训练效率。
附图说明
图1示出了本申请一个示例性实施例提供的超参数调整方法的方法流程图;
图2是一个示例性实施例示出的神经网络模型训练过程的实施示意图;
图3示出了本申请另一个示例性实施例提供的超参数调整方法的方法流程图;
图4示出了本申请另一个示例性实施例提供的超参数调整方法的方法流程图;
图5是一个示例性实施例提供的超参数调整方法的流程图;
图6示出了本申请一个实施例提供的超参数调整装置的结构框图;
图7示出了本申请一个示例性实施例提供的计算机设备的结构方框图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
在本文中提及的“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
相关技术中,为了提高神经网络模型的训练效率,在计算资源充足的场景下,开发人员会在计算机设备中同时部署多个训练任务,不同训练任务对应不同的超参数配置,以便计算机设备根据不同超参数并行训练同一神经网络模型。在计算资源不足的场景下,计算机设备中部署训练任务后,开发人员需要对训练过程进行人为监督,并每隔一段时间对训练结果进行检查,从而在训练结果不符合预期时,人为调整超参数配置后继续训练。
采用上述方式训练复杂神经网络模型时,由于整个训练过程持续时间较长,因此通过人为进行不间断监督的难度较高,需要在训练过程中频繁中断训练,以便开发人员对训练结果进行检查,进一步延长了训练时长。此外,人为调整超参数的效率较低,且调整效率和调整质量与超参数调整经验密切相关,对于超参数调整经验不足的开发人员而言实现难度较高。
本申请实施例提供的方法提出了通过并行技术,在模型训练任务的基础上增加一套超参数调整系统,从而利用超参数调整系统对模型训练任务的训练过程进行监督,并在训练结果不符合预期时,由超参数调整系统中的超参数调整模型,根据历史训练数据输出超参数调整值,以便超参数调整系统根据该超参数调整值对模型训练任务进行超参数调整,进而根据调整后的超参数继续执行模型训练任务,直至模型训练完成。
整个训练过程中,由超参数调整系统在模型训练过程中并行实现训练结果监督以及超参数调整,开发人员只需要在训练开始阶段设置初始超参数即可,无需在训练过程中人为监督并中断训练过程,提高了模型训练的效率,缩短了模型训练的时长。同时,由于超参数调整模型根据超参数历史调整记录训练得到,因此其根据输出的超参数调整量进行超参数调整的准确率较高,对于超参数调整经验不足的开发人员而言也能够快速完成模型训练。
本申请实施例提供的超参数调整方法应用于计算机设备,该计算机设备设置有神经网络训练平台,以通过该神经网络训练平台完成神经网络模型的训练。该计算机设备可以是个人计算机、工作站或服务器等等;设置在计算机设备上的神经网络训练平台,包括但不限于Caffe2,TensorFlow,PyTorch等,本申请实施例并不对计算机设备以及神经网络训练平台的具体类型进行限定。为了方便描述,下述各个实施例以超参数调整方法用于计算机设备为例进行说明。
请参考图1,其示出了本申请一个示例性实施例提供的超参数调整方法的方法流程图,该方法可以包括如下步骤。
步骤101,训练过程中,获取目标神经网络模型的当前前向推导偏差,当前前向推导偏差根据目标神经网络模型输出的当前前向推导结果和目标推导结果确定得到。
神经网络训练过程中,神经网络模型根据输入的样本数据,通过神经网络模型中各个网络层对样本数据进行处理的过程为前向推导过程,而神经网络模型在前向推导过程中最终输出的结果即为前向推导结果。目标推导结果为预先标注数据,通常与样本数据关联存储,作为前向推导结果的监督。
其中,同一样本数据对应的前向推导结果与目标推导结果之间的偏差为前向推导偏差,前向推导偏差越小,表明神经网络模型的模型预测效果越好,前向推导偏差越大,表明神经网络模型的模型预测效果越差。
在一种可能的实施方式中,计算机设备除了在神经网络训练平台中部署训练任务外,还设置有超参数调整系统。训练任务执行过程中,神经网络训练平台根据当前前向推导结果和目标推导结果确定当前前向推导误差,并将当前前向推导误差传递给超参数调整系统,以便超参数调整系统确定是否需要进行超参数调整。
其中,目标神经网络模型可以为卷积神经网络模型、循环神经网络模型、生成对抗网络模型等等,本申请实施例对此不作限定。相应的,前向推导结果与神经网络模型的用途相关,该目标推导结果可以包括分类标签、生成图像、目标对象在图像中的标注位置、生成文本、语音识别结果等等,本申请实施例对此不作限定。
在一种可能的实施方式中,训练过程中,计算机设备从存储器中存储的训练样本集中读取训练样本(比如包含目标分类标签的图像),将训练样本输入目标神经网络模型(比如图像分类神经网络),得到目标神经网络模型输出的当前前向推导结果(比如样本分类标签);计算机设备从存储器中读取训练样本对应的目标推导结果(比如目标分类标签),计算当前前向推导结果与目标推导结果之间的当前前向推导偏差。
步骤102,响应于当前前向推导偏差不满足训练完成条件,且当前前向推导偏差和历史前向推导偏差指示进行超参数调整,将目标神经网络模型的历史训练数据输入超参数调整模型,超参数调整模型是根据超参数历史调整记录训练得到的神经网络模型。
在一种可能的实施方式中,计算机设备根据当前前向推导偏差确定是否满足训练完成条件,若满足,则完成目标神经网络模型训练,若不满足,则进一步确定当前超参数是否需要进行调整。
为了提高超参数调整时机的准确性,计算机设备获取历史前向推导偏差,从而根据当前前向推导偏差和历史前向推导偏差综合确定是否需要调整超参数。若超参数设置合理,随着训练阶段的不断深入,前向推导结果将趋向于目标推导结果,相应的,前向推导误差将不断减小,因此在一些实施例中,计算机设备根据当前前向推导偏差和历史前向推导偏差确定前向推导偏差的变化趋势,并在该变化趋势指示前向推导偏差收敛时,确定无需进行超参数调整,在该变化趋势指示前向推导偏差不收敛时,确定需要进行超参数调整。
在一种可能的实施方式中,计算机设备对训练过程中目标神经网络模型的历史训练数据进行存储,当确定出需要进行超参数调整时,计算机设备基于该历史训练数据,利用超参数调整模型进行超参数调整值预测。
其中,超参数调整模型根据超参数历史调整记录训练得到,该超参数历史调整记录中包括人工手动调整超参数的记录。在一些实施例中,在训练超参数调整模型时,以超参数历史调整记录中历史训练数据为样本输入,超参数历史调整记录中的超参数调整值为样本输出(监督超参数调整模型训练),进行模型训练。训练得到的超参数调整模型即以历史训练数据为输入,输出超参数调整值。
可选的,超参数调整模型的训练过程可以采用相关技术中的人工调整超参数方案,或者,多训练任务同步训练方案,本实施例在此不再赘述。
在一些实施例中,若当前前向推导偏差和历史前向推导偏差指示无需进行超参数调整,计算机设备将当前前向推导偏差作为后向推导的输入值,计算目标神经网络模型各网络层中神经元的误差,进而根据该误差确定目标神经网络模型对应网络参数(或称为模型参数)的调整量(可以采用梯度下降等反向传播算法)。根据网络参数的调整量完成网络参数调整后,计算机设备即根据当前超参数继续训练调整后的目标神经网络模型。其中,调整网络参数可以由神经网络训练平台执行。
在一种可能的实施方式中,由于不同类型的神经网络模型在训练过程中的超参数调整策略存在差异,因此为了进一步提高超参数调整的准确性,计算机设备预先针对不同类型的神经网络模型训练不同的超参数调整模型,后续计算机设备即选用与目标神经网络模型对应网络类型相匹配的超参数调整模型。
在一种可能的实施方式中,计算机设备从存储器中读取预先设置的训练完成条件(比如前向推导偏差上限),若当前前向推导偏差不满足训练完成条件,则进一步从存储器中读取历史前向推导偏差(比如将历史前向推导偏差存储在模型训练日志中),并通过比较当前前向推导偏差和历史前向推导偏差确定是否需要进行超参数调整,若比较结果指示需要进行超参数调整,计算机设备则从存储器中读取历史训练数据(比如存储在训练日志中),并输入运行于内存的超参数调整模型。
步骤103,根据超参数调整模型输出的超参数调整值调整超参数,并根据调整后的超参数训练目标神经网络模型。
进一步的,计算机设备根据超参数调整模型输出的超参数调整值对当前超参数进行调整,并根据调整后的超参数继续训练目标神经网络模型。训练过程中,计算机设备循环执行上述步骤101至103,直至满足训练完成条件。
在一种可能的实施方式中,超参数调整模型将超参数调整值传递给神经网络训练平台,由神经网络训练平台根据超参数调整值对训练任务的超参数进行调整,并根据调整后的超参数继续执行训练任务。
其中,调整的超参数包括如下中的至少一种:学习率(Learning rate)、批样本数量(Batch size)、优化器(Optimizer)参数、迭代(Epochs)次数、网络层交互方式(相加、相乘或串接)、卷积核数量、卷积核尺寸、网络层数(或称为网络深度)、激活函数、权重衰减系数等等,本申请实施例对此不作限定。
比如,超参数调整模型输出的超参数调整值包括学习率调整值、批尺寸数量以及激活函数时,计算机设备即对当前超参数中的学习率、批尺寸数量以及激活函数进行调整,并保持其他超参数。
在一种可能的实施方式中,计算机设备获取超参数调整模型输出的超参数调整值,并根据该超参数调整值对内存中神经网络训练平台的超参数进行调整,由神经网络训练平台根据调整后的超参数继续训练目标神经网络模型。
在一个示意性的例子中,如图2所示,计算机设备中设置有神经网络训练平台21和超参数调整系统22。神经网络训练平台21中部署有训练任务211,该训练任务211中包含训练样本212、网络参数213以及超参数214。训练过程中,神经网络训练平台21即执行训练任务211,将训练样本212输入目标神经网络215,得到目标神经网络模型215输出的当前前向推导结果216。根据训练样本212对应的目标推导结果217以及当前前向推导结果216,神经网络训练平台21计算得到当前前向推导偏差218,并传递至超参数调整系统22。超参数调整系统22根据当前前向推导偏差218以及存储的历史前向推导偏差221,确定是否需要调整超参数。当无需调整超参数时,神经网络训练平台即根据当前前向推导偏差218,对网络参数213进行调整,并根据调整后的网络参数继续训练。当需要调整超参数时,超参数调整系统22即将存储的历史训练数据222以及前向推导偏差输入超参数调整模型223,得到输出的超参数调整值224。超参数调整系统22将超参数调整值224传递至神经网络训练平台21,由神经网络训练平台21根据超参数调整值224对超参数214进行调整后,继续训练目标神经网络模型215。
综上所述,采用本申请实施例提供的方法训练神经网络模型时,基于目标神经网路模型的当前前向推导结果和历史前向推导结果,确定是否需要继续训练,以及是否需要进行超参数调整,并在需要进行超参数调整时,利用预训练的超参数调整模型,根据历史训练数据预测当前训练阶段下的超参数调整值,进而利用该超参数调整值进行超参数调整,并基于调整后的超参数继续训练目标神经网络模型,实现了神经网络训练过程中超参数的自动化调整,相较于根据经验手动调整超参数,使用基于超参数历史调整记录训练得到的超参数调整模型进行超参数调整,在保证超参数调整准确率的前提下,有助于提高超参数的调整效率,进而提高神经网络模型的训练效率。
请参考图3,其示出了本申请另一个示例性实施例提供的超参数调整方法的方法流程图,该方法可以包括如下步骤。
步骤301,训练过程中,每隔预设训练步数获取目标神经网络模型的当前前向推导偏差。
在一种可能的实施方式中,训练过程中计算机设备按照预设频率确定是否需要调整超参数,相应的,计算机设备按照预设频率获取目标神经网络模型的前向推导偏差。其中,该预设频率可以采用预设训练步数进行表示。比如,计算机设备每隔20000步,获取目标神经网络模型的前向推导偏差。需要说明的是,本步骤为超参数调整系统获取前向推导偏差的过程,神经网络训练平台在执行训练任务的过程中,根据批样本数量对一批训练样本进行模型训练后,即需要获取前向推导偏差,以此进行网络参数进行调整。
在一些实施例中,该预设训练步数固定值,比如固定为20000步,或者,该预设训练步数根据当前训练阶段动态变化(比如随训练阶段深度不断减小),本实施例对此不作限定。
步骤302,响应于当前前向推导偏差大于偏差阈值,确定不满足训练完成条件,并获取历史前向推导偏差。
在一种可能的实施方式中,当以前向推导偏差作为训练完成条件时,开发人员预先设置满足训练完成条件时,前向推导偏差所需满足的偏差阈值。相应的,获取到当前前向推导偏差后,计算机设备检测当前前向推导偏差是否大于偏差阈值,若大于,则确定不满足训练完成条件,若小于,则确定满足训练完成条件。其中,该偏差阈值可以为百分数值,即(前向推导偏差-目标推导偏差)/目标推导偏差,比如,该偏差阈值为5%。
进一步的,当不满足训练完成条件时,计算机设备获取历史前向推导偏差,其中,该历史前向推导偏差为当前训练阶段过程中获取的前向推导偏差。比如,计算机设备每隔20000步获取前向推导偏差,当在第100000步时获取前向推导偏差,且该前向推导偏差大于偏差阈值时,计算机设备即获取第20000步、40000步、60000步以及80000步时的历史前向推导偏差。
在一个示意性的例子中,计算机设备获取到的历史前向推导偏差以及当前前向推导偏差如表一所示。
表一
步数 | 20000 | 40000 | 60000 | 80000 | 100000 |
前向推导偏差 | 40% | 30% | 20% | 15% | 18% |
在其他可能的实施方式中,当以迭代次数作为训练完成条件时,开发人员预设设置迭代次数上限,相应的,若当前迭代次数未达到迭代次数上限,计算机设备则获取历史前向推导偏差。本实施例对此不作限定。
步骤303,根据当前前向推导偏差和历史前向推导偏差,确定前向推导偏差的变化趋势。
获取到当前前向推导偏差和历史前向推导偏差后,计算机设备进一步确定训练过程中前向推导偏差的变化趋势。在一种可能的实施方式中,计算机设备根据相邻两次历史前向推导偏差的差值,确定前向推导偏差的变化趋势。
结合表一所示数据,计算机设备确定出前向推导偏差的变化趋势为10%→10%→5%→-3%。
步骤304,确定当前训练进度对应的目标收敛趋势,其中,收敛趋势所表征的收敛速率与训练进度呈负相关关系。
在一种可能的实施方式中,当前向推导偏差的变化趋势指示前向推导偏差收敛时(即前向推导误差逐渐减小,前向推导结果趋向目标推导结果),计算机设备确定变化趋势符合收敛趋势,进而确定无需进行超参数调整。当前向推导偏差的变化趋势指示前向推导偏差未收敛时,计算机设备确定变化趋势不符合收敛趋势,进而确定需要进行超参数调整。
然而,通过对大量模型训练过程发现,当超参数设置不当(比如学习率设置过低)时,虽然随着训练阶段的不断深入,前向推导偏差也会收敛,但是收敛速度过慢,导致训练时间过长。因此为了进一步提高模型训练效率,在一种可能的实施方式中,计算机设备进一步根据当前训练进度,确定前向推导误差的目标收敛趋势,后续即根据该目标收敛趋势以及变化趋势,确定是否需要调整超参数。
可选的,不同训练进度(即当前训练步数)对应不同收敛趋势,且收敛趋势所表征的收敛速率与训练进度呈负相关关系,即随着训练步数的不断增加,前向收敛误差的收敛速率逐渐降低。比如,该收敛趋势可以采用收敛速度区间表示,且在第20000至40000步这一训练进度内,收敛速度区间为8%-12%,在第80000至100000步这一训练进度内,收敛速度区间为4%-6%。
在一些实施例中,计算机设备通过查找对应关系的方式确定目标收敛趋势,或者,计算机设备通过预设公式计算得到目标收敛趋势,本实施例对此不作限定。
步骤305,响应于变化趋势不符合目标收敛趋势,获取至少一组历史训练数据,不同组历史训练数据对应不同训练步数,且每组历史训练数据中包括历史前向推导结果、历史前向推导偏差、历史模型参数、历史模型参数调整量和历史超参数调整值。
进一步的,计算机设备检测前向推导误差的变化趋势是否符合目标收敛趋势,若符合,则确定无需进行超参数调整,若不符合,则需要进一步预测超参数的调整量。
结合表一中的数据,在一个示意性的例子中,计算机设备在训练100000步后,确定当前训练进度下的目标收敛趋势为4%。由于当前变化趋势为-3%,因此计算机设备确定当前变化趋势不满足目标收敛趋势。
为了提高确定出的超参数调整值的准确性,在一种可能的实施方式中,计算机设备以组的形式,对不同训练进度下的历史训练数据进行存储。其中,每组历史训练数据中包含对应历史训练进度下的历史前向推导结果、历史前向推导偏差、历史模型参数、历史模型参数调整量和历史超参数调整值。
在一些实施例中,该历史训练数据中还可以包括模型类型、模型结构(网络层结构)等数据,且其它在模型训练过程中产生的数据都可以被视为历史训练数据,本实施例对历史训练数据的具体内容不作限定。
步骤306,将至少一组历史训练数据输入超参数调整模型。
在一种可能的实施方式中,计算机设备将各组历史训练数据处理为符合超参数调整模型输入标准的输入数据,并输入超参数调整模型。需要说明的是,向超参数调整模型中输入历史训练数据的同时,计算机设备还需要将前向推导偏差的变化趋势输入超参数调整模型,使超参数调整模型能够基于当前变化趋势做出针对性的超参数调整值预测。
在一些实施例中,由于输入超参数调整模型的数据在时间上具有连续性,且在先训练进度对应的历史训练数据会对在后训练进度对应的历史训练数据产生影响,因此本申请实施例中的超参数调整模型以长短期记忆(Long Short-Term Memor,LSTM)网络为主干(backbone)网络,并利用时序连续的超参数历史调整记录训练得到。相应的,利用超参数调整模型进行调整值预测时,计算机设备按照历史训练数据的先后顺序,将各组历史训练数据依次输入超参数调整模型中。
当然,除了使用LSTM网络作为主干网络外,超参数调整模型还可以以其他循环神经网络(Recurrent Neural Network,RNN)为主干网络,本申请实施例对此不作限定。
步骤307,根据超参数调整模型输出的超参数调整值调整超参数。
在一些实施例中,计算机设备根据输出的超参数调整值,在当前超参数基础上进行调整,得到调整后的超参数。
步骤308,在当前训练步数对应模型参数的基础上,根据调整后的超参数训练目标神经网络模型。
在一种可能的实施方式中,完成超参数调整后,计算机设备保持当前训练进度,并在当前训练进度对应模型参数的基础上,继续训练目标神经网络模型。
在一个示意性的例子中,在第100000步训练完成后,超参数调整系统确定需要进行超参数调整,从而将前4次得到的历史训练数据以及前向推导误差的变化趋势输入超参数调整模型,得到超参数调整模型输出的超参数调整值中包含学习率调整值(比如指示将学习率下调0.0001)以及激活函数调整值(比如指示调整为ReLU激活函数)。神经网络训练平台根据该超参数调整值,更新当前学习率以及激活函数,并在第100000步训练得到的模型参数基础上,继续进行模型训练。
本实施例中,计算机设备基于前向推导偏差的变化趋势是否满足收敛趋势,确定是否进行超参数调整,且基于所处的不同训练进度,动态确定当前训练进度所需满足的收敛速率,提高了确定出的超参数调整时机的准确性,进而提高了模型的训练效率。
此外,本实施例中,使用LSTM网络作为超参数调整模型的主干网络,并将不同训练进度下的历史训练数据作为输入参数用于进行超参数调整预测,有助于提高超参数调整值的预测准确性,加快模型收敛,提高模型的训练效率。
在一种可能的实施方式中,本申请实施例中的超参数调整模型还具有自学习功能,若当前前向推导偏差满足训练完成条件,计算机设备即根据训练过程中超参数的历史调整数据更新超参数历史调整记录,并根据更新后的超参数历史调整记录训练超参数调整模型,以此提高超参数调整模型的预测准确性。可选的,计算机设备还可以将带有训练进度的训练记录保存在日志(log)文件中,该日志文件中即包含训练过程的超参数调整记录。其他计算机设备可以通过提取日志文件中的超参数调整记录对本地超参数调整模型进行训练,本实施例在此不再赘述。
当然,当计算机设备的计算资源充足时,可以在训练目标神经网络模型的过程中,对超参数调整模型进行同步更新,本实施例对此不作限定。
然而,超参数设置不当对前向推导误差对应变化趋势的影响存在滞后性,比如,当超参数设置不当时,在第20000步至60000步训练周期内(每隔20000步进行一次超参数调整检测),前向推导误差的变化情况为20%→16%→14%,而在第60000步至80000步这一训练周期内前向推导误差变为了17%,虽然从表面来看是在第60000步至80000步这一训练周期内出现问题,但是实际情况下,可能在第40000步至60000步这一训练周期内就已经出现了问题。若继续在当前训练进度的基础上继续训练,可能会影响后续训练的效率和准确性(因为不当的超参数会对模型参数调整造成负面影响)。
因此,为了进一步提高模型训练的效率,提高模型训练质量,在一种可能的实施方式,在图3的基础上,如图4所示,上述步骤307至308可以被替换为如下步骤。
步骤309,根据超参数调整模型输出的目标回退量以及当前训练步数,确定目标训练步数。
在一种可能的实施方式中,用于训练超参数调整模型的超参数历史调整记录中包含回退量,该回退量用于指示根据调整后的超参数进行训练前训练步数的回退步数。可选的,该回退量在训练过程中作为样本输出,对超参数调整模型的输出的预测回退量进行监督。
相应的,目标神经网络模型根据输入的历史训练数据,在输出超参数调整量的同时输出目标回退量,该目标回退量即用于指示调整超参数后,继续训练模型时所需回退的训练步数。
进一步的,计算机设备根据目标回退量以及当前训练步数,确定继续训练时的起始训练步数(即目标训练步数),其中,目标训练步数=当前训练步数-目标回退量。
在一个示意性的例子中,超参数调整模型输出的目标回退量为20000步,而当前训练步数为第100000步,计算机设备确定继续训练时的起始训练步数为第80000步。
可选的,若目标回退量小于回退量阈值,计算机设备则忽略还目标回退量,即在当前训练进度的基础上继续训练。比如,该回退量阈值为100步。
步骤310,确定目标训练步数下目标神经网络模型的目标历史模型参数。
为了避免不恰当的超参数对模型参数造成的影响,确定出目标训练步数后,计算机设备需要对目标神经网络模型的模型参数进行相应回退,即将当前模型参数恢复为目标训练步数下目标神经网络模型的历史模型参数。其中,该历史模型参数可以从存储的历史数据中获取。
在一个示意性的例子中,当前训练步数为第100000步,且对应的模型参数为模型参数A,若确定超参数调整后需要回退至第80000步时,计算机设备从获取第80000步时对应的历史训练数据中获取模型参数B。
步骤311,根据超参数调整模型输出的超参数调整值调整超参数,并在目标历史模型参数的基础上,根据调整后的超参数训练目标神经网络模型。
进一步的,完成超参数调整以及模型参数回退后,计算机设备在目标历史模型参数的基础上,根据调整后的超参数训练目标神经网络模型。
本实施例中,超参数调整模型除了能够预测超参数调整值外,还能够预测回退量,以便在调整超参数的同时,进行训练进度回退,避免直接在当前训练进度之上继续训练时,不当模型参数对模型收敛速率造成影响。
在一个示意性的例子中,计算机设备进行模型训练的过程如图5所示。
步骤501,将训练数据输入待训练神经网络模型。
步骤502,获取待训练神经网络模型输出的前向推导结果。
步骤503,计算前向推导结果与训练数据对应目标推导结果的前向推导偏差。
步骤504,检测前向推导偏差是否满足训练完成条件。
步骤505,若满足训练完成条件,则输出待训练神经网络模型的当前模型数据,完成训练。
步骤506,若不满足训练完成条件,根据历史前向推导偏差和当前前向推导偏差确定是否需要调整超参数。
步骤507,若不需要调整超参数,则根据前向推导偏差计算网络层中神经元的误差。
步骤508,根据各神经元的误差后向推导各个模型参数的调整量,并返回执行步骤501。
步骤509,若需要调整超参数,则将历史训练数据输入超参数调整模型,得到超参数调整模型输出的超参数调整值以及训练回退步数。
步骤510,根据超参数调整值调整超参数,根据训练回退步数进行训练进度回退,并在完成调整和回退后返回执行步骤501。
上述步骤的实施方式可以参考上述实施例,本实施例在此不再赘述。
请参考图6,其示出了本申请一个实施例提供的超参数调整装置的结构框图。该装置可以通过软件、硬件或者两者的结合实现成为计算机设备的全部或一部分。该装置包括:
偏差获取模块610,用于在训练过程中,获取目标神经网络模型的当前前向推导偏差,所述当前前向推导偏差根据所述目标神经网络模型输出的当前前向推导结果和目标推导结果确定得到;
数据输入模块620,用于响应于所述当前前向推导偏差不满足训练完成条件,且当前前向推导偏差和历史前向推导偏差指示进行超参数调整,将所述目标神经网络模型的历史训练数据输入超参数调整模型,所述超参数调整模型是根据超参数历史调整记录训练得到的神经网络模型;
调整模块630,用于根据所述超参数调整模型输出的超参数调整值调整超参数,并根据调整后的超参数训练所述目标神经网络模型。
可选的,所述数据输入模块620,包括:
历史偏差获取单元,用于响应于所述当前前向推导偏差大于偏差阈值,确定不满足所述训练完成条件,并获取所述历史前向推导偏差;
变化趋势确定单元,用于根据所述当前前向推导偏差和所述历史前向推导偏差,确定前向推导偏差的变化趋势;
数据输入单元,用于响应于所述变化趋势不符合目标收敛趋势,将所述目标神经网络模型的所述历史训练数据输入所述超参数调整模型。
可选的,所述数据输入模块620,还包括:
收敛趋势确定单元,用于确定当前训练进度对应的所述目标收敛趋势,其中,收敛趋势所表征的收敛速率与训练进度呈负相关关系。
可选的,所述偏差获取模块610,用于在训练过程中,每隔预设训练步数获取所述目标神经网络模型的所述当前前向推导偏差;
所述数据输入模块620,用于:
获取至少一组所述历史训练数据,不同组历史训练数据对应不同训练步数,且每组所述历史训练数据中包括历史前向推导结果、所述历史前向推导偏差、历史模型参数、历史模型参数调整量和历史超参数调整值;
将至少一组所述历史训练数据输入所述超参数调整模型。
可选的,所述调整模块630,包括:
参数调整单元,用于根据所述超参数调整模型输出的所述超参数调整值调整超参数;
第一训练单元,用于在当前训练步数对应模型参数的基础上,根据调整后的超参数训练所述目标神经网络模型。
可选的,所述超参数历史调整记录中包含回退量,所述回退量是根据调整后的超参数进行训练前训练步数的回退步数,所述目标神经网络模型还用于根据所述历史训练数据输出目标回退量;
所述调整模块630,包括:
回退单元,用于根据所述超参数调整模型输出的所述目标回退量以及当前训练步数,确定目标训练步数;
模型参数确定单元,用于确定所述目标训练步数下所述目标神经网络模型的目标历史模型参数;
第二训练单元,用于根据所述超参数调整模型输出的所述超参数调整值调整超参数,并在所述目标历史模型参数的基础上,根据调整后的超参数训练所述目标神经网络模型。
可选的,所述装置还包括:
记录更新模块,用于响应于所述当前前向推导偏差满足所述训练完成条件,根据训练过程中超参数的历史调整数据更新所述超参数历史调整记录;
模型更新模块,用于根据更新后的所述超参数历史调整记录训练所述超参数调整模型。
可选的,所述超参数调整模型是根据所述超参数历史调整记录训练得到的长短期记忆LSTM网络。
综上所述,采用本申请实施例提供的方法训练神经网络模型时,基于目标神经网路模型的当前前向推导结果和历史前向推导结果,确定是否需要继续训练,以及是否需要进行超参数调整,并在需要进行超参数调整时,利用预训练的超参数调整模型,根据历史训练数据预测当前训练阶段下的超参数调整值,进而利用该超参数调整值进行超参数调整,并基于调整后的超参数继续训练目标神经网络模型,实现了神经网络训练过程中超参数的自动化调整,相较于根据经验手动调整超参数,使用基于超参数历史调整记录训练得到的超参数调整模型进行超参数调整,在保证超参数调整准确率的前提下,有助于提高超参数的调整效率,进而提高神经网络模型的训练效率。
请参考图7,其示出了本申请一个示例性实施例提供的计算机设备的结构方框图。本申请中的计算机设备可以包括一个或多个如下部件:处理器710和存储器720。
处理器710可以包括一个或者多个处理核心。处理器710利用各种接口和线路连接整个计算机设备内的各个部分,通过运行或执行存储在存储器720内的指令、程序、代码集或指令集,以及调用存储在存储器720内的数据,执行计算机设备的各种功能和处理数据。可选地,处理器710可以采用数字信号处理(Digital Signal Processing,DSP)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)、可编程逻辑阵列(ProgrammableLogic Array,PLA)中的至少一种硬件形式来实现。处理器710可集成中央处理器(CentralProcessing Unit,CPU)、图像处理器(Graphics Processing Unit,GPU)、神经网络处理器(Neural-network Processing Unit,NPU)和调制解调器等中的一种或几种的组合。其中,CPU主要处理操作系统、用户界面和应用程序等;GPU用于负责触摸显示屏所需要显示的内容的渲染和绘制;NPU用于实现人工智能(Artificial Intelligence,AI)功能;调制解调器用于处理无线通信。可以理解的是,上述调制解调器也可以不集成到处理器710中,单独通过一块芯片进行实现。
存储器720可以包括随机存储器(Random Access Memory,RAM),也可以包括只读存储器(Read-Only Memory,ROM)。可选地,该存储器720包括非瞬时性计算机可读介质(non-transitory computer-readable storage medium)。存储器720可用于存储指令、程序、代码、代码集或指令集。存储器720可包括存储程序区和存储数据区,其中,存储程序区可存储用于实现操作系统的指令、用于至少一个功能的指令(比如触控功能、声音播放功能、图像播放功能等)、用于实现下述各个方法实施例的指令等;存储数据区可存储根据计算机设备的使用所创建的数据(比如音频数据、电话本)等。
除此之外,本领域技术人员可以理解,上述附图所示出的计算机设备的结构并不构成对计算机设备的限定,计算机设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。比如,计算机设备中还包括输入输出组件、显示组件或网络通信组件等部件,在此不再赘述。
本申请实施例还提供了一种计算机可读存储介质,该存储介质存储有至少一条指令,至少一条指令用于被处理器执行以实现如上述实施例所述超参数调整方法。
本申请实施例提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述实施例提供的超参数调整方法。
本领域技术人员应该可以意识到,在上述一个或多个示例中,本申请实施例所描述的功能可以用硬件、软件、固件或它们的任意组合来实现。当使用软件实现时,可以将这些功能存储在计算机可读介质中或者作为计算机可读介质上的一个或多个指令或代码进行传输。计算机可读介质包括计算机存储介质和通信介质,其中通信介质包括便于从一个地方向另一个地方传送计算机程序的任何介质。存储介质可以是通用或专用计算机能够存取的任何可用介质。
以上所述仅为本申请的可选实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (11)
1.一种超参数调整方法,其特征在于,所述方法用于计算机设备,所述方法包括:
训练过程中,获取目标神经网络模型的当前前向推导偏差,所述当前前向推导偏差根据所述目标神经网络模型输出的当前前向推导结果和目标推导结果确定得到;
响应于所述当前前向推导偏差不满足训练完成条件,且当前前向推导偏差和历史前向推导偏差指示进行超参数调整,将所述目标神经网络模型的历史训练数据输入超参数调整模型,所述超参数调整模型是根据超参数历史调整记录训练得到的神经网络模型;
根据所述超参数调整模型输出的超参数调整值调整超参数,并根据调整后的超参数训练所述目标神经网络模型。
2.根据权利要求1所述的方法,其特征在于,所述响应于所述当前前向推导偏差不满足训练完成条件,且当前前向推导偏差和历史前向推导偏差指示进行超参数调整,将所述目标神经网络模型的历史训练数据输入超参数调整模型,包括:
响应于所述当前前向推导偏差大于偏差阈值,确定不满足所述训练完成条件,并获取所述历史前向推导偏差;
根据所述当前前向推导偏差和所述历史前向推导偏差,确定前向推导偏差的变化趋势;
响应于所述变化趋势不符合目标收敛趋势,将所述目标神经网络模型的所述历史训练数据输入所述超参数调整模型。
3.根据权利要求2所述的方法,其特征在于,所述响应于所述变化趋势不符合目标收敛趋势,将所述目标神经网络模型的所述历史训练数据输入所述超参数调整模型之前,所述方法还包括:
确定当前训练进度对应的所述目标收敛趋势,其中,收敛趋势所表征的收敛速率与训练进度呈负相关关系。
4.根据权利要求1至3任一所述的方法,其特征在于,所述训练过程中,获取目标神经网络模型的当前前向推导偏差,包括:
训练过程中,每隔预设训练步数获取所述目标神经网络模型的所述当前前向推导偏差;
所述将所述目标神经网络模型的历史训练数据输入超参数调整模型,包括:
获取至少一组所述历史训练数据,不同组历史训练数据对应不同训练步数,且每组所述历史训练数据中包括历史前向推导结果、所述历史前向推导偏差、历史模型参数、历史模型参数调整量和历史超参数调整值;
将至少一组所述历史训练数据输入所述超参数调整模型。
5.根据权利要求4所述的方法,其特征在于,所述根据所述超参数调整模型输出的超参数调整值调整超参数,并根据调整后的超参数训练所述目标神经网络模型,包括:
根据所述超参数调整模型输出的所述超参数调整值调整超参数;
在当前训练步数对应模型参数的基础上,根据调整后的超参数训练所述目标神经网络模型。
6.根据权利要求4所述的方法,其特征在于,所述超参数历史调整记录中包含回退量,所述回退量是根据调整后的超参数进行训练前训练步数的回退步数,所述目标神经网络模型还用于根据所述历史训练数据输出目标回退量;
所述根据所述超参数调整模型输出的超参数调整值调整超参数,并根据调整后的超参数训练所述目标神经网络模型,包括:
根据所述超参数调整模型输出的所述目标回退量以及当前训练步数,确定目标训练步数;
确定所述目标训练步数下所述目标神经网络模型的目标历史模型参数;
根据所述超参数调整模型输出的所述超参数调整值调整超参数,并在所述目标历史模型参数的基础上,根据调整后的超参数训练所述目标神经网络模型。
7.根据权利要求1至3任一所述的方法,其特征在于,所述获取目标神经网络模型的当前前向推导偏差之后,所述方法还包括:
响应于所述当前前向推导偏差满足所述训练完成条件,根据训练过程中超参数的历史调整数据更新所述超参数历史调整记录;
根据更新后的所述超参数历史调整记录训练所述超参数调整模型。
8.根据权利要求1至3任一所述的方法,其特征在于,所述超参数调整模型是根据所述超参数历史调整记录训练得到的长短期记忆LSTM网络。
9.一种超参数调整装置,其特征在于,所述装置包括:
偏差获取模块,用于在训练过程中,获取目标神经网络模型的当前前向推导偏差,所述当前前向推导偏差根据所述目标神经网络模型输出的当前前向推导结果和目标推导结果确定得到;
数据输入模块,用于响应于所述当前前向推导偏差不满足训练完成条件,且当前前向推导偏差和历史前向推导偏差指示进行超参数调整,将所述目标神经网络模型的历史训练数据输入超参数调整模型,所述超参数调整模型是根据超参数历史调整记录训练得到的神经网络模型;
调整模块,用于根据所述超参数调整模型输出的超参数调整值调整超参数,并根据调整后的超参数训练所述目标神经网络模型。
10.一种计算机设备,其特征在于,所述计算机设备包括处理器和存储器;所述存储器存储有至少一条指令,所述至少一条指令用于被所述处理器执行以实现如权利要求1至8任一所述的超参数调整方法。
11.一种计算机可读存储介质,其特征在于,所述存储介质存储有至少一条指令,所述至少一条指令用于被处理器执行以实现如权利要求1至8任一所述的超参数调整方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010819783.1A CN111814965A (zh) | 2020-08-14 | 2020-08-14 | 超参数调整方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010819783.1A CN111814965A (zh) | 2020-08-14 | 2020-08-14 | 超参数调整方法、装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111814965A true CN111814965A (zh) | 2020-10-23 |
Family
ID=72860548
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010819783.1A Pending CN111814965A (zh) | 2020-08-14 | 2020-08-14 | 超参数调整方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111814965A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112734106A (zh) * | 2021-01-08 | 2021-04-30 | 深圳市国电科技通信有限公司 | 用于预测能源负荷的方法及装置 |
CN113407820A (zh) * | 2021-05-29 | 2021-09-17 | 华为技术有限公司 | 模型训练方法及相关系统、存储介质 |
CN113807397A (zh) * | 2021-08-13 | 2021-12-17 | 北京百度网讯科技有限公司 | 语义表示模型的训练方法、装置、设备和存储介质 |
CN115017844A (zh) * | 2022-08-03 | 2022-09-06 | 阿里巴巴(中国)有限公司 | 设计参数调整方法、装置、电子设备和存储介质 |
CN117114141A (zh) * | 2023-10-20 | 2023-11-24 | 安徽蔚来智驾科技有限公司 | 模型训练的方法、评估方法、计算机设备及存储介质 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018112699A1 (zh) * | 2016-12-19 | 2018-06-28 | 上海寒武纪信息科技有限公司 | 人工神经网络反向训练装置和方法 |
US20180240041A1 (en) * | 2017-02-22 | 2018-08-23 | Sas Institute Inc. | Distributed hyperparameter tuning system for machine learning |
CN108537335A (zh) * | 2017-03-06 | 2018-09-14 | 南京理工大学 | 一种自适应学习率的bp神经网络算法 |
US20190197404A1 (en) * | 2016-08-25 | 2019-06-27 | Microsoft Technology Licensing, Llc | Asychronous training of machine learning model |
CN110033081A (zh) * | 2019-03-08 | 2019-07-19 | 华为技术有限公司 | 一种确定学习率的方法和装置 |
CN110443364A (zh) * | 2019-06-21 | 2019-11-12 | 深圳大学 | 一种深度神经网络多任务超参数优化方法及装置 |
CN110889450A (zh) * | 2019-11-27 | 2020-03-17 | 腾讯科技(深圳)有限公司 | 超参数调优、模型构建方法和装置 |
CN111027579A (zh) * | 2018-10-10 | 2020-04-17 | 百度在线网络技术(北京)有限公司 | 超参数的确定方法、装置、设备和介质 |
CN111160567A (zh) * | 2019-12-27 | 2020-05-15 | 第四范式(北京)技术有限公司 | 一种实现自动超参数选择的方法、装置及系统 |
-
2020
- 2020-08-14 CN CN202010819783.1A patent/CN111814965A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190197404A1 (en) * | 2016-08-25 | 2019-06-27 | Microsoft Technology Licensing, Llc | Asychronous training of machine learning model |
WO2018112699A1 (zh) * | 2016-12-19 | 2018-06-28 | 上海寒武纪信息科技有限公司 | 人工神经网络反向训练装置和方法 |
US20180240041A1 (en) * | 2017-02-22 | 2018-08-23 | Sas Institute Inc. | Distributed hyperparameter tuning system for machine learning |
CN108537335A (zh) * | 2017-03-06 | 2018-09-14 | 南京理工大学 | 一种自适应学习率的bp神经网络算法 |
CN111027579A (zh) * | 2018-10-10 | 2020-04-17 | 百度在线网络技术(北京)有限公司 | 超参数的确定方法、装置、设备和介质 |
CN110033081A (zh) * | 2019-03-08 | 2019-07-19 | 华为技术有限公司 | 一种确定学习率的方法和装置 |
CN110443364A (zh) * | 2019-06-21 | 2019-11-12 | 深圳大学 | 一种深度神经网络多任务超参数优化方法及装置 |
CN110889450A (zh) * | 2019-11-27 | 2020-03-17 | 腾讯科技(深圳)有限公司 | 超参数调优、模型构建方法和装置 |
CN111160567A (zh) * | 2019-12-27 | 2020-05-15 | 第四范式(北京)技术有限公司 | 一种实现自动超参数选择的方法、装置及系统 |
Non-Patent Citations (1)
Title |
---|
朱汇龙;刘晓燕;刘瑶;: "基于人群的神经网络超参数优化的研究", 信息技术, no. 11, pages 105 - 110 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112734106A (zh) * | 2021-01-08 | 2021-04-30 | 深圳市国电科技通信有限公司 | 用于预测能源负荷的方法及装置 |
CN113407820A (zh) * | 2021-05-29 | 2021-09-17 | 华为技术有限公司 | 模型训练方法及相关系统、存储介质 |
CN113407820B (zh) * | 2021-05-29 | 2023-09-15 | 华为技术有限公司 | 利用模型进行数据处理的方法及相关系统、存储介质 |
CN113807397A (zh) * | 2021-08-13 | 2021-12-17 | 北京百度网讯科技有限公司 | 语义表示模型的训练方法、装置、设备和存储介质 |
CN113807397B (zh) * | 2021-08-13 | 2024-01-23 | 北京百度网讯科技有限公司 | 语义表示模型的训练方法、装置、设备和存储介质 |
CN115017844A (zh) * | 2022-08-03 | 2022-09-06 | 阿里巴巴(中国)有限公司 | 设计参数调整方法、装置、电子设备和存储介质 |
CN117114141A (zh) * | 2023-10-20 | 2023-11-24 | 安徽蔚来智驾科技有限公司 | 模型训练的方法、评估方法、计算机设备及存储介质 |
CN117114141B (zh) * | 2023-10-20 | 2024-02-27 | 安徽蔚来智驾科技有限公司 | 模型训练的方法、评估方法、计算机设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111814965A (zh) | 超参数调整方法、装置、设备及存储介质 | |
US11790238B2 (en) | Multi-task neural networks with task-specific paths | |
US11651259B2 (en) | Neural architecture search for convolutional neural networks | |
US10600000B2 (en) | Regularization of machine learning models | |
US20190236482A1 (en) | Training machine learning models on multiple machine learning tasks | |
EP3602419B1 (en) | Neural network optimizer search | |
US20200265315A1 (en) | Neural architecture search | |
CN107463701B (zh) | 基于人工智能推送信息流的方法和装置 | |
CN110546656A (zh) | 前馈生成式神经网络 | |
US11538237B2 (en) | Utilizing artificial intelligence to generate and update a root cause analysis classification model | |
US20220405641A1 (en) | Method for recommending information, recommendation server, and storage medium | |
US20210004676A1 (en) | Population based training of neural networks | |
CN111656373A (zh) | 训练神经网络模型 | |
US20200364617A1 (en) | Training machine learning models using teacher annealing | |
US20210303967A1 (en) | Neural architecture search with weight sharing | |
JP2022033695A (ja) | モデルを生成するための方法、装置、電子機器、記憶媒体、及びコンピュータプログラム製品 | |
WO2019006541A1 (en) | SYSTEM AND METHOD FOR AUTOMATIC CONSTRUCTION OF LEARNING MACHINES USING LEARNING MACHINES | |
CN114004358B (zh) | 一种深度学习模型训练方法 | |
US20230177794A1 (en) | Electronic device and method of inferring object in image | |
US11526781B2 (en) | Automatic sentence inferencing network | |
CN113221017B (zh) | 粗排方法、装置及存储介质 | |
US20230334315A1 (en) | Information processing apparatus, control method of information processing apparatus, and storage medium | |
US20230259778A1 (en) | Generating and utilizing pruned neural networks | |
US20240152809A1 (en) | Efficient machine learning model architecture selection | |
CN114298273A (zh) | 一种深度学习模型自动训练的方法、装置及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |