CN113361621A - 用于训练模型的方法和装置 - Google Patents
用于训练模型的方法和装置 Download PDFInfo
- Publication number
- CN113361621A CN113361621A CN202110682914.0A CN202110682914A CN113361621A CN 113361621 A CN113361621 A CN 113361621A CN 202110682914 A CN202110682914 A CN 202110682914A CN 113361621 A CN113361621 A CN 113361621A
- Authority
- CN
- China
- Prior art keywords
- sample data
- prediction model
- training
- initial
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 162
- 238000000034 method Methods 0.000 title claims abstract description 76
- 230000006870 function Effects 0.000 claims description 30
- 230000008569 process Effects 0.000 claims description 17
- 238000010586 diagram Methods 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000013135 deep learning Methods 0.000 abstract description 3
- 238000004891 communication Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000013140 knowledge distillation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请公开了用于训练模型的方法和装置,涉及深度学习、知识图谱技术领域。该方法包括:获取训练完成的初始第一预测模型以及样本数据集,其中,样本数据集中包括样本数据、以及样本数据的实际标签;采用样本数据、以及样本数据的实际标签训练初始第一预测模型,并得到目标第一预测模型;采用目标第一预测模型确定样本数据的第一预测标签;采用样本数据、以及样本数据的第一预测标签,训练初始第二预测模型,并得到目标第二预测模型。采用该方法可以提高训练模型的效率以及降低训练模型的成本。
Description
技术领域
本公开涉及计算机技术领域,具体涉及深度学习、知识图谱技术领域,尤其涉及用于训练模型的方法和装置。
背景技术
基于大规模样本数据训练得到的模型网络能够更准确的执行数据的标签预测或者数据的分类等任务。然而,采用大规模样本数据训练模型网络,需要占用大量的存储空间以及计算资源,对训练用设备具有较高的要求,并且,采用规模样本数据训练得到的模型网络拥有海量的参数以及巨大的网络结构,在应用该训练完成的模型网络执行任务时,同样需要占用大量的存储空间以及计算资源,并且需要耗费较长的响应时间。
发明内容
本公开提供了一种用于训练模型的方法、装置、电子设备以及计算机可读存储介质。
根据第一方面,提供了一种用于训练模型的方法,该方法包括:获取训练完成的初始第一预测模型以及样本数据集,其中,样本数据集中包括样本数据、以及样本数据的实际标签;采用样本数据、以及样本数据的实际标签训练初始第一预测模型,并得到目标第一预测模型;采用目标第一预测模型确定样本数据的第一预测标签;采用样本数据、以及样本数据的第一预测标签,训练初始第二预测模型,并得到目标第二预测模型。
根据第二方面,提供了一种用于训练模型的装置,该装置包括:获取单元,被配置为获取训练完成的初始第一预测模型以及样本数据集,其中,样本数据集中包括样本数据、以及样本数据的实际标签;第一训练单元,被配置为采用样本数据、以及样本数据的实际标签训练初始第一预测模型,并得到目标第一预测模型;预测单元,被配置为采用目标第一预测模型确定样本数据的第一预测标签;第二训练单元,被配置为采用样本数据、以及样本数据的第一预测标签,训练初始第二预测模型,并得到目标第二预测模型。
根据第三方面,本公开的实施例提供了一种电子设备,包括:一个或多个处理器:存储装置,用于存储一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面提供的用于训练模型的方法,或者实现如第二方面提供的用于训练模型的方法。
根据第四方面,本公开的实施例提供了一种计算机可读存储介质,其上存储有计算机程序,其中,程序被处理器执行时实现第一方面提供的用于训练模型的方法,或者实现如第二方面提供的用于训练模型的方法。
本公开提供的用于训练模型的方法、装置,获取训练完成的初始第一预测模型以及样本数据集,其中,样本数据集中包括样本数据、以及样本数据的实际标签;采用样本数据、以及样本数据的实际标签训练初始第一预测模型,并得到目标第一预测模型;采用目标第一预测模型确定样本数据的第一预测标签;采用样本数据、以及样本数据的第一预测标签,训练初始第二预测模型,并得到目标第二预测模型,可以提高训练模型的效率以及降低训练模型的成本。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是本申请的实施例可以应用于其中的示例性系统架构图;
图2是根据本申请的用于训练模型的方法的一个实施例的流程图;
图3是根据本申请的用于训练模型的方法的另一个实施例的流程图;
图4是根据本申请的用于训练模型的方法的又一个实施例的流程图;
图5是根据本申请的用于训练模型的装置的一个实施例的结构示意图;
图6是用来实现本申请实施例的用于训练模型的方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
图1示出了可以应用本申请的用于验证系统的方法或用于验证系统的装置的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装各种仿真类进程或者对系统进行测试的进程。终端设备101、102、103上还可以安装有各种客户端应用,例如,信息输入类应用、视频类应用、播放类应用、音频类应用、搜索类应用、购物类应用、金融类应用等。
终端设备101、102、103可以是具有显示屏并且支持接收服务器消息的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、电子播放器、膝上型便携计算机和台式计算机等等。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是各种待验证的硬件模组或者电子设备,当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务的多个软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以通过终端设备101、102、103获取训练完成的初始第一预测模型以及样本数据集,样本数据集中包括样本数据以及样本数据的实际标签。采用样本数据以及样本数据的实际标签训练初始第一预测模型,并得到目标第一预测模型,采用目标第一预测模型确定样本数据的第一预测标签,并采用样本数据、以及样本数据的第一预测标签训练初始第二预测模型,并得到目标第二预测模型。
需要说明的是,本公开的实施例所提供的用于验证系统的方法一般由服务器105执行,相应地,用于验证系统的装置一般设置于服务器105中。
应该理解,图1中的设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的设备、网络和服务器。
继续参考图2,示出了根据本公开的用于训练模型的方法的一个实施例的流程200。用于训练模型的方法,包括以下步骤:
步骤201,获取训练完成的初始第一预测模型以及样本数据集,其中,样本数据集中包括样本数据、以及样本数据的实际标签。
在本实施例中,用于训练模型的方法的执行主体(例如图1所示的服务器)可以通过有线或者无线的方式获取训练完成的初始第一预测模型,以及样本数据集。其中,初始第一预测模型是指已经采用预训练数据集训练完成的模型网络/深度学习网络。样本数据集中包括至少一个样本数据、以及至少一个样本数据中每一个样本数据的实际标签。
预训练数据集中的数据与样本数据集中的样本数据可以是来源于不同业务或者应用场景的数据,例如,预训练数据集中的数据可以是来源于识别图片中的植物的业务,样本数据集中的样本数据可以是来源于识别图片中实体数目的业务。预训练数据集与样本数据集可以是具有不同数据量规模的数据集,例如,预训练数据集的数据量规模可以远远大于样本数据集的数据量规模,即,预训练数据集相对于样本数据集而言具有海量的训练数据。
步骤202,采用样本数据、以及样本数据的实际标签训练初始第一预测模型,并得到目标第一预测模型。
在本实施例中,可以采用样本数据以及样本数据的实际标签训练初始第一预测模型,并得到目标第一预测模型。
步骤203,采用目标第一预测模型确定样本数据的第一预测标签。
在本实施例中,可以采用目标第一预测模型预测样本数据集中的样本数据的预测标签,将该预测标签称为样本数据的第一预测标签。
步骤204,采用样本数据、以及样本数据的第一预测标签,训练初始第二预测模型,并得到目标第二预测模型。
在本实施例中,可以采用样本数据以及样本数据的第一预测标签,训练初始第二预测模型,即,将样本数据作为初始第二预测模型的输入以及将样本数据的第一预测标签作为初始第二预测模型的期望输出对初始第二预测模型进行训练,以得到训练完成的目标第二预测模型。
本实施例提供的用于训练模型的方法,获取训练完成的初始第一预测模型以及样本数据集,其中,样本数据集中包括样本数据、以及样本数据的实际标签;采用样本数据、以及样本数据的实际标签训练初始第一预测模型,并得到目标第一预测模型;采用目标第一预测模型确定样本数据的第一预测标签;采用样本数据、以及样本数据的第一预测标签,训练初始第二预测模型,并得到目标第二预测模型,可以基于样本数据集训练已经基于预训练数据集训练完成的初始第一预测模型,使得到的目标第一预测模型能够基于样本数据集调整模型的网络参数,之后,再采用样本数据以及目标第一预测模型所确定的第一预测标签训练初始第二预测模型,可以使初始第二预测模型学习目标第一预测模型的网络参数以及网络结构。
由于初始第一预测模型是已经训练完成的模型网络,具有成熟的网络结构以及网络参数,基于样本数据集训练所得的目标第一预测模型是将具有成熟的网络结构以及网络参数的模型网络基于样本数据集进行调参后的模型网络,因此,基于样本数据以及由目标第一预测模型所预测的第一预测标签训练初始第二预测模型,可以使初始第二预测模型学习目标第一预测模型的网络参数以及网络结构,也即,实现目标第一预测模型到目标第二预测模型的知识蒸馏,在确保训练得到的目标第二预测模型的预测性能的同时,避免采用大规模数据对未经训练的初始第二预测模型进行训练,降低训练模型所需的硬件成本以及提高模型训练效率。
可选地,可以对样本数据集中的样本数据进行数据增强,并采用目标第一预测模型预测增强后的样本数据的标签,以扩充样本数据集。
可选地,初始第一预测模型可以是采用具有海量数据的预训练数据集预先训练完成的模型网络,样本数据集是数据量远远小于预训练数据集的集合。初始第二预测模型相比于初始第一预测模型/目标第一预测模型,具有更精简的网络结构。
采用样本数据集训练已经具有成熟的网络结构以及网络参数的初始第一预测模型,可以使训练后所得到的目标第一预测模型能学习样本数据集的中样本数据特征与标签之间的映射关系的同时,避免从头训练模型所造成的硬件成本以及时间成本的浪费。
另外,采用样本数据以及基于目标第一预测模型预测的第一预测标签训练初始第二预测模型,可以使得初始第二预测模型学习目标第一预测模型的网络参数以及学习第一预测标签所包含的类别间信息,获得具有精简结构的目标第二预测模型,在确保模型性能的同时,降低复杂网络结构产生的计算资源以及存储资源的占用、或者计算耗时。
可选地,采用样本数据、以及样本数据的实际标签训练初始第一预测模型,并得到目标第一预测模型,包括:采用样本数据、以及样本数据的实际标签训练初始第一预测模型的预设网络层,并得到目标第一预测模型。
在本实施例中,可以采用样本数据以及样本数据的实际标签训练初始第一预测模型的预设网络层,并得到目标第一预测模型。
具体地,预设网络层可以是初始第一预测模型的最后预设数目个网络层,使训练后的目标第一预测模型相比于初始第一预测模型,仅该最后预设数目个网络层的网络参数或者网络结构发生了改变。例如,用于执行图片识别任务的模型网络的前几层网络学习到的均为低级特征,如,点、线、面,低级特征可以从任意图片中抽象出来,所以,使学习这些低级特征的网络层(模型网络中的前几层)的网络参数或者网络结构保持不变,仅改变将这些低级特征组合成高级特征的网络层(模型网络中的后几层),使这些低级特征所组成的图形的标签基于训练用的样本数据集得到,如,这些点、线、面,组成图形的标签是圆形还是正方形。
具体地,预设网络层也可以是初始第一预测模型的最前预设数目个网络层,使训练后的目标第一预测模型相比于初始第一预测模型,仅该最前预设数目个网络层的网络参数或者网络结构发生了改变,例如,针对语音识别任务,不同单词的标签可能是相同的,但这些单词的发音或者单词的拼写是不同的,如,苹果(中文表达)、apple(英文表达)、apfel(德文表达)均代表一个相同的实体,也即高级特征是相同的,此时仅需要调整模型网络中最前预设数目个网络层的网络参数或者网络结构,使学习低级特征的网络层学习不同样本数据的语法特征或者发音特征。
具体地,预设网络层也可以是初始第一预测模型的全连接层,使训练后的目标第一预测模型相比于初始第一预测模型,仅全连接层的网络参数或者网络结构发生了改变,由于全连接层是将各个特征提取层提取出的特征进行带权重的连接,基于样本数据集训练得到的目标第一预测模型的全连接层,可以使目标第一预测模型的全连接层基于样本数据的特征与样本数据的实际标签调整全连接层连接各个特征的权重,从而使目标第一预测模型在应用于样本数据所属于的业务或者应用场景时候,能够准确进行标签预测。
本实施例中,采用样本数据以及样本数据的实际标签训练初始第一预测模型的预设网络层,并得到目标第一预测模型,可以仅对已经训练完成的初始第一预测模型中的部分网络层的网络参数或网络结构进行调整,可以提高模型训练的效率以及降低模型训练所占用的硬件资源。
进一步参考图3,其示出了用于训练模型的方法的另一个实施例的流程300。该用于训练模型的方法的流程300,包括以下步骤:
步骤301,获取训练完成的初始第一预测模型以及样本数据集,其中,样本数据集中包括样本数据、以及样本数据的实际标签。
步骤302,采用样本数据、以及样本数据的实际标签训练初始第一预测模型,并得到目标第一预测模型。
步骤303,采用目标第一预测模型确定样本数据的第一预测标签。
本实施例中对步骤301、步骤302、步骤303的描述与步骤201、步骤202、步骤203的描述一致,此处不再赘述。
步骤304,将减少样本数据的第一预测标签、与初始第二预测模型预测的样本数据的第二预测标签之间的损失函数值,作为训练初始第二预测模型的目标。
在本实施例中,在对初始第二预测模型进行训练时,在每一轮模型训练中,将样本数据输入当前轮次中的初始第二预测模型,并获得本轮迭代操作中的初始第二预测模型所预测的第二预测标签,以及将减少样本数据的第一预测标签与当前轮次中初始第二预测模型所预测的样本数据的第二预测标签之间的损失函数值作为目标,调整当前轮次中初始第二预测模型的网络参数,并在下一轮模型训练中,采用网络参数调整后的初始第二预测模型预测样本数据的第二预测标签,并基于损失函数值调整网络参数。通过多轮模型训练,可以使初始第二预测模型学习目标第一预测模型的网络结构或者网络参数。损失函数可以是交叉熵损失函数、对数损失函数、平方损失函数等。
其中,第一预测标签可以是目标第一预测模型所预测的样本数据标签的概率分布结果,第二预测标签可以是初始第二预测模型所预测的样本数据标签的概率分布结果。
本实施例提供的用于训练模型的方法,相比于图2描述的实施例,采用目标第一预测模型所预测的第一预测标签与初始第二预测模型针对样本数据确定的第二预测标签之间的损失函数值,训练初始第二预测模型,可以使初始第二预测模型在多轮训练中学习目标第一预测模型的网络参数或者网络结构,提高训练初始第二预测模型的效率。
可选地,用于训练模型的方法还包括:将减少样本数据的实际标签、与初始第二预测模型预测的样本数据的第二预测标签之间的损失函数值,作为训练初始第二预测模型的目标。
在本实施例中,在对初始第二预测模型进行训练时,在每一轮模型训练中,将样本数据输入当前轮次中的初始第二预测模型,并获得本轮迭代操作中的初始第二预测模型所预测的第二预测标签,以及将减少样本数据的实际标签与当前轮次中初始第二预测模型所预测的样本数据的第二预测标签之间的损失函数值作为目标,调整当前轮次中初始第二预测模型的网络参数,并在下一轮模型训练中,采用网络参数调整后的初始第二预测模型预测样本数据的第二预测标签、基于损失函数值调整网络参数。
本实施例中,将减少样本数据的实际标签、与初始第二预测模型预测的样本数据的第二预测标签之间的损失函数值,以及将减少样本数据的第一预测标签、与初始第二预测模型预测的样本数据的第二预测标签之间的损失函数值,共同作为训练初始第二预测模型的目标,可以提高训练初始第二预测模型的效率。
可选地,在对初始第二预测模型进行多轮训练时,可以在多轮训练的前预设数目轮次中,将减少样本数据的第一预测标签、与初始第二预测模型预测的样本数据的第二预测标签之间的损失函数值,作为训练初始第二预测模型的目标,以及,在剩余轮次中,将减少样本数据的实际标签、与初始第二预测模型预测的样本数据的第二预测标签之间的损失函数值,作为训练初始第二预测模型的目标。
可选地,针对如RNN(Recurrent Neural Network,循环神经网络)、CNN(Convolutional Neural Networks,卷积神经网络)、BOW(Bag of words,词袋模型)等初始第二预测模型,在对初始第二预测模型进行多轮训练时,可以在多轮训练的前预设数目轮次中,将减少样本数据的实际标签、与初始第二预测模型预测的样本数据的第二预测标签之间的损失函数值,作为训练初始第二预测模型的目标,以及,在剩余轮次中,将减少样本数据的实际标签、与初始第二预测模型预测的样本数据的第二预测标签之间的损失函数值,以及将减少样本数据的第一预测标签、与初始第二预测模型预测的样本数据的第二预测标签之间的损失函数值,共同作为训练初始第二预测模型的目标。
进一步参考图4,其示出了用于训练模型的方法的另一个实施例的流程400。该用于训练模型的方法的流程400,包括以下步骤:
步骤401,获取训练完成的初始第一预测模型以及样本数据集,其中,样本数据集中包括样本数据、以及样本数据的实际标签。
步骤402,采用样本数据、以及样本数据的实际标签训练初始第一预测模型,并得到目标第一预测模型。
步骤403,采用目标第一预测模型确定样本数据的第一预测标签。
本实施例中对步骤401、步骤402、步骤403的描述与步骤201、步骤202、步骤203的描述一致,此处不再赘述。
步骤404,针对目标第一预测模型中的多个目标预设层级,获取该多个目标预设层级中的特征图求解过程矩阵之间的第一内积。
在本实施例中,针对目标第一预测模型中的多个目标预设层级,获取该多个目标预设层级中的特征图/特征矩阵之间的内积,该内积可以被称为第一内积。其中,目标预设层级可以是目标第一预测模型中的任何网络层级。
步骤405,针对初始第二预测模型的多个目标预设层级,获取该多个目标预设层级中的特征图求解过程矩阵之间的第二内积。
在本实施例中,针对初始第二预测模型中的多个目标预设层级,获取该多个目标预设层级中的特征图/特征矩阵之间的内积,该内积可以被称为第二内积。其中,用于提取计算第二内积的特征图的初始第二预测模型中的多个目标预设层级,是与用于提取计算第一内积的特征图的目标第一预测模型中的多个目标预设层级相同的层级。
步骤406,将减少第一内积与第二内积之间的正则损失,作为训练初始第二预测模型的目标。
在本实施例中,可以将减少针对目标第一预测模型中的多个目标预设层级、所获取的该多个目标预设层级中的特征图求解过程矩阵之间的第一内积,与针对初始第二预测模型的多个目标预设层级、所获取的该多个目标预设层级中的特征图求解过程矩阵之间的第二内积之间的正则损失,作为训练初始第二预测模型的目标。
本实施例提供的用于训练模型的方法,相比于图2描述的实施例,将减小第一内积与第二内积之间的正则损失作为训练初始第二预测模型的目标,可以使初始第二预测模型中的目标预设层级学习到目标第一预测模型中的目标预设层级的网络参数或者网络结构,提高训练初始第二预测模型的效率。
可选地,针对如transformer模型(翻译模型)等初始第二预测模型,在对初始第二预测模型进行多轮训练时,可以在多轮训练的前预设数目轮次中,将减少样本数据的第一预测标签、与初始第二预测模型预测的样本数据的第二预测标签之间的损失函数值,作为训练初始第二预测模型的目标,以及,在剩余轮次中,将减少样本数据的实际标签、与初始第二预测模型预测的样本数据的第二预测标签之间的损失函数值,以及将减少样本数据的第一预测标签、与初始第二预测模型预测的样本数据的第二预测标签之间的损失函数值,共同作为训练初始第二预测模型的目标;并且,将减少针对目标第一预测模型中的多个目标预设层级、所获取的该多个目标预设层级中的特征图求解过程矩阵之间的第一内积,与针对初始第二预测模型的多个目标预设层级、所获取的该多个目标预设层级中的特征图求解过程矩阵之间的第二内积之间的L2正则损失,作为训练初始第二预测模型的目标。
进一步参考图5,作为对上述各图所示方法的实现,本公开提供了一种用于训练模型的装置的一个实施例,该装置实施例与图2、图3和图4所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的用于训练模型的装置500包括:获取单元501、第一训练单元502、预测单元503、第二训练单元504。其中,获取单元,被配置为获取训练完成的初始第一预测模型以及样本数据集,其中,样本数据集中包括样本数据、以及样本数据的实际标签;第一训练单元,被配置为采用样本数据、以及样本数据的实际标签训练初始第一预测模型,并得到目标第一预测模型;预测单元,被配置为采用目标第一预测模型确定样本数据的第一预测标签;第二训练单元,被配置为采用样本数据、以及样本数据的第一预测标签,训练初始第二预测模型,并得到目标第二预测模型。
在一些实施例中,第一训练单元,包括:第一训练模块,被配置为采用样本数据、以及样本数据的实际标签训练初始第一预测模型的预设网络层,并得到目标第一预测模型。
在一些实施例中,第二训练单元,包括:第二训练模块,被配置为将减少样本数据的第一预测标签、与初始第二预测模型预测的样本数据的第二预测标签之间的损失函数值,作为训练初始第二预测模型的目标。
在一些实施例中,用于训练模型的装置还包括:第三训练模块,被配置为将减少样本数据的实际标签、与初始第二预测模型预测的样本数据的第二预测标签之间的损失函数值,作为训练初始第二预测模型的目标。
在一些实施例中,第二训练单元,包括:第一计算模块,被配置为针对目标第一预测模型中的多个目标预设层级,获取该多个目标预设层级中的特征图求解过程矩阵之间的第一内积;第二计算模块,被配置为针对初始第二预测模型的多个目标预设层级,获取该多个目标预设层级中的特征图求解过程矩阵之间的第二内积;第四训练模块,被配置为将减少第一内积与第二内积之间的正则损失,作为训练初始第二预测模型的目标。
上述装置500中的各单元与参考图2、图3和图4描述的方法中的步骤相对应。由此上文针对用于训练模型的方法描述的操作、特征及所能达到的技术效果同样适用于装置500及其中包含的单元,在此不再赘述。
图6示出了可以用来实施本申请的实施例的示例电子设备600的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图6所示,设备600包括计算单元601,其可以根据存储在只读存储器(ROM)602中的计算机程序或者从存储单元608加载到随机访问存储器(RAM)603中的计算机程序,来执行各种适当的动作和处理。在RAM 603中,还可存储设备600操作所需的各种程序和数据。计算单元601、ROM 602以及RAM603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
设备600中的多个部件连接至I/O接口605,包括:输入单元606,例如键盘、鼠标等;输出单元607,例如各种类型的显示器、扬声器等;存储单元608,例如磁盘、光盘等;以及通信单元605,例如网卡、调制解调器、无线通信收发机等。通信单元605允许设备600通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元601可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元601的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元601执行上文所描述的各个方法和处理,例如用于训练模型的方法。例如,在一些实施例中,用于训练模型的方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元608。在一些实施例中,计算机程序的部分或者全部可以经由ROM 602和/或通信单元605而被载入和/或安装到设备600上。当计算机程序加载到RAM 603并由计算单元601执行时,可以执行上文描述的用于训练模型的方法的一个或多个步骤。备选地,在其他实施例中,计算单元601可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行用于训练模型的方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本申请的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本申请的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的数据,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (13)
1.一种用于训练模型的方法,包括:
获取训练完成的初始第一预测模型以及样本数据集,其中,所述样本数据集中包括样本数据、以及所述样本数据的实际标签;
采用所述样本数据、以及所述样本数据的实际标签训练所述初始第一预测模型,并得到目标第一预测模型;
采用所述目标第一预测模型确定所述样本数据的第一预测标签;
采用所述样本数据、以及所述样本数据的第一预测标签,训练初始第二预测模型,并得到目标第二预测模型。
2.根据权利要求1所述的方法,其中,所述采用所述样本数据、以及所述样本数据的实际标签训练所述初始第一预测模型,并得到目标第一预测模型,包括:
采用所述样本数据、以及所述样本数据的实际标签训练所述初始第一预测模型的预设网络层,并得到所述目标第一预测模型。
3.根据权利要求1所述的方法,其中,所述采用所述样本数据、以及所述样本数据的第一预测标签,训练初始第二预测模型,并得到目标第二预测模型,包括:
将减少所述样本数据的第一预测标签、与所述初始第二预测模型预测的所述样本数据的第二预测标签之间的损失函数值,作为训练所述初始第二预测模型的目标。
4.根据权利要求2所述的方法,其中,所述方法还包括:
将减少所述样本数据的实际标签、与所述初始第二预测模型预测的所述样本数据的第二预测标签之间的损失函数值,作为训练所述初始第二预测模型的目标。
5.根据权利要求1所述的方法,其中,所述采用所述样本数据、以及所述样本数据的第一预测标签,训练初始第二预测模型,并得到目标第二预测模型,包括:
针对所述目标第一预测模型中的多个目标预设层级,获取该多个目标预设层级中的特征图求解过程矩阵之间的第一内积;
针对所述初始第二预测模型的多个目标预设层级,获取该多个目标预设层级中的特征图求解过程矩阵之间的第二内积;
将减少所述第一内积与所述第二内积之间的正则损失,作为训练所述初始第二预测模型的目标。
6.一种用于训练模型的装置,包括:
获取单元,被配置为获取训练完成的初始第一预测模型以及样本数据集,其中,所述样本数据集中包括样本数据、以及所述样本数据的实际标签;
第一训练单元,被配置为采用所述样本数据、以及所述样本数据的实际标签训练所述初始第一预测模型,并得到目标第一预测模型;
预测单元,被配置为采用所述目标第一预测模型确定所述样本数据的第一预测标签;
第二训练单元,被配置为采用所述样本数据、以及所述样本数据的第一预测标签,训练初始第二预测模型,并得到目标第二预测模型。
7.根据权利要求1所述的装置,其中,所述第一训练单元,包括:
第一训练模块,被配置为采用所述样本数据、以及所述样本数据的实际标签训练所述初始第一预测模型的预设网络层,并得到所述目标第一预测模型。
8.根据权利要求1所述的装置,其中,所述第二训练单元,包括:
第二训练模块,被配置为将减少所述样本数据的第一预测标签、与所述初始第二预测模型预测的所述样本数据的第二预测标签之间的损失函数值,作为训练所述初始第二预测模型的目标。
9.根据权利要求2所述的装置,其中,所述装置还包括:
第三训练模块,被配置为将减少所述样本数据的实际标签、与所述初始第二预测模型预测的所述样本数据的第二预测标签之间的损失函数值,作为训练所述初始第二预测模型的目标。
10.根据权利要求1所述的装置,其中,所述第二训练单元,包括:
第一计算模块,被配置为针对所述目标第一预测模型中的多个目标预设层级,获取该多个目标预设层级中的特征图求解过程矩阵之间的第一内积;
第二计算模块,被配置为针对所述初始第二预测模型的多个目标预设层级,获取该多个目标预设层级中的特征图求解过程矩阵之间的第二内积;
第四训练模块,被配置为将减少所述第一内积与所述第二内积之间的正则损失,作为训练所述初始第二预测模型的目标。
11.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-5中任一项所述的方法。
12.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行权利要求1-5中任一项所述的方法。
13.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-5中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110682914.0A CN113361621B (zh) | 2021-06-18 | 2021-06-18 | 用于训练模型的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110682914.0A CN113361621B (zh) | 2021-06-18 | 2021-06-18 | 用于训练模型的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113361621A true CN113361621A (zh) | 2021-09-07 |
CN113361621B CN113361621B (zh) | 2023-12-15 |
Family
ID=77535192
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110682914.0A Active CN113361621B (zh) | 2021-06-18 | 2021-06-18 | 用于训练模型的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113361621B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116070520A (zh) * | 2023-01-20 | 2023-05-05 | 清华大学 | 水流阻力预测模型的构建方法、流量预测方法及装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107832581A (zh) * | 2017-12-15 | 2018-03-23 | 百度在线网络技术(北京)有限公司 | 状态预测方法和装置 |
CN111428008A (zh) * | 2020-06-11 | 2020-07-17 | 北京百度网讯科技有限公司 | 用于训练模型的方法、装置、设备以及存储介质 |
CN112036509A (zh) * | 2020-09-30 | 2020-12-04 | 北京百度网讯科技有限公司 | 用于训练图像识别模型的方法和装置 |
US20210019564A1 (en) * | 2019-07-17 | 2021-01-21 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Method and apparatus for optimizing tag of point of interest |
US20210065058A1 (en) * | 2019-08-29 | 2021-03-04 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Method, apparatus, device and readable medium for transfer learning in machine learning |
WO2021081837A1 (zh) * | 2019-10-30 | 2021-05-06 | 深圳市欢太科技有限公司 | 模型构建方法、分类方法、装置、存储介质及电子设备 |
CN112949818A (zh) * | 2021-01-25 | 2021-06-11 | 北京百度网讯科技有限公司 | 模型蒸馏方法、装置、设备以及存储介质 |
-
2021
- 2021-06-18 CN CN202110682914.0A patent/CN113361621B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107832581A (zh) * | 2017-12-15 | 2018-03-23 | 百度在线网络技术(北京)有限公司 | 状态预测方法和装置 |
US20210019564A1 (en) * | 2019-07-17 | 2021-01-21 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Method and apparatus for optimizing tag of point of interest |
US20210065058A1 (en) * | 2019-08-29 | 2021-03-04 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Method, apparatus, device and readable medium for transfer learning in machine learning |
WO2021081837A1 (zh) * | 2019-10-30 | 2021-05-06 | 深圳市欢太科技有限公司 | 模型构建方法、分类方法、装置、存储介质及电子设备 |
CN111428008A (zh) * | 2020-06-11 | 2020-07-17 | 北京百度网讯科技有限公司 | 用于训练模型的方法、装置、设备以及存储介质 |
CN112036509A (zh) * | 2020-09-30 | 2020-12-04 | 北京百度网讯科技有限公司 | 用于训练图像识别模型的方法和装置 |
CN112949818A (zh) * | 2021-01-25 | 2021-06-11 | 北京百度网讯科技有限公司 | 模型蒸馏方法、装置、设备以及存储介质 |
Non-Patent Citations (1)
Title |
---|
程康明;熊伟丽;: "一种自训练框架下的三优选半监督回归算法", 智能系统学报, no. 03 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116070520A (zh) * | 2023-01-20 | 2023-05-05 | 清华大学 | 水流阻力预测模型的构建方法、流量预测方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN113361621B (zh) | 2023-12-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114881129A (zh) | 一种模型训练方法、装置、电子设备及存储介质 | |
CN113657483A (zh) | 模型训练方法、目标检测方法、装置、设备以及存储介质 | |
CN115690443B (zh) | 特征提取模型训练方法、图像分类方法及相关装置 | |
US20220374678A1 (en) | Method for determining pre-training model, electronic device and storage medium | |
CN112949433B (zh) | 视频分类模型的生成方法、装置、设备和存储介质 | |
CN112966744A (zh) | 模型训练方法、图像处理方法、装置和电子设备 | |
CN115456167B (zh) | 轻量级模型训练方法、图像处理方法、装置及电子设备 | |
CN114972877B (zh) | 一种图像分类模型训练方法、装置及电子设备 | |
CN114186681A (zh) | 用于生成模型簇的方法、装置及计算机程序产品 | |
CN112949818A (zh) | 模型蒸馏方法、装置、设备以及存储介质 | |
CN114494814A (zh) | 基于注意力的模型训练方法、装置及电子设备 | |
CN114693934A (zh) | 语义分割模型的训练方法、视频语义分割方法及装置 | |
CN113627536A (zh) | 模型训练、视频分类方法,装置,设备以及存储介质 | |
CN113516185B (zh) | 模型训练的方法、装置、电子设备及存储介质 | |
CN114186097A (zh) | 用于训练模型的方法和装置 | |
CN114495101A (zh) | 文本检测方法、文本检测网络的训练方法及装置 | |
CN113657468A (zh) | 预训练模型的生成方法、装置、电子设备和存储介质 | |
CN113468857A (zh) | 风格转换模型的训练方法、装置、电子设备以及存储介质 | |
CN113361621B (zh) | 用于训练模型的方法和装置 | |
CN112561061A (zh) | 神经网络稀疏化方法、装置、设备、存储介质及程序产品 | |
CN117351299A (zh) | 图像生成及模型训练方法、装置、设备和存储介质 | |
CN115496916B (zh) | 图像识别模型的训练方法、图像识别方法以及相关装置 | |
CN113642654B (zh) | 图像特征的融合方法、装置、电子设备和存储介质 | |
CN114707638A (zh) | 模型训练、对象识别方法及装置、设备、介质和产品 | |
CN114998649A (zh) | 图像分类模型的训练方法、图像分类方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |