CN114913371A - 多任务学习模型训练方法、装置、电子设备及存储介质 - Google Patents
多任务学习模型训练方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN114913371A CN114913371A CN202210505196.4A CN202210505196A CN114913371A CN 114913371 A CN114913371 A CN 114913371A CN 202210505196 A CN202210505196 A CN 202210505196A CN 114913371 A CN114913371 A CN 114913371A
- Authority
- CN
- China
- Prior art keywords
- task
- loss
- value
- loss value
- learning model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 118
- 238000000034 method Methods 0.000 title claims abstract description 35
- 238000004458 analytical method Methods 0.000 claims abstract description 27
- 238000006243 chemical reaction Methods 0.000 claims abstract description 21
- 230000006870 function Effects 0.000 claims description 51
- 238000011176 pooling Methods 0.000 claims description 32
- 238000004590 computer program Methods 0.000 claims description 14
- 230000009466 transformation Effects 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000013473 artificial intelligence Methods 0.000 abstract description 5
- 238000005516 engineering process Methods 0.000 abstract description 4
- 238000004891 communication Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 238000007726 management method Methods 0.000 description 5
- 230000004913 activation Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000009795 derivation Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及人工智能技术,揭露一种多任务学习模型训练方法,包括:获取由一个编码器并联多个的解码器构成多任务学习模型,解码器与任务类别一一对应;利用解码器计算每个任务类别的标签分析值;根据标签分析及任务标签计算任务损失值;对任务损失值进行差异性平衡转换,并利用转换后的任务损失值进行计算,得到目标损失值;当目标损失值大于或等于损失阈值,更新多任务学习模型的参数,并对更新后的模型重新训练;当目标损失值小于损失阈值,训练完成。本发明还涉及一种区块链技术,所述任务损失值可以存储在区块链节点中。本发明还提出一种多任务学习模型训练装置、设备以及介质。本发明可以提高训练后的模型的鲁棒性。
Description
技术领域
本发明涉及人工智能技术,尤其涉及一种多任务学习模型训练方法、装置、电子设备及存储介质。
背景技术
近年来,深度学习极大地提升了各种计算机视觉任务的性能,而多任务学习在一个模型中联合学习多个任务从而获得较好的泛化性能和较低的内存占用,两者的结合即多任务学习模型训练研究越来越受到人们的关注。
但目前多任务学习模型的训练过程中存在不同任务的损失值差异过大,导致模型的训练以某一任务为主导,其他任务没有得到训练的,训练后的模型鲁棒性较差。
发明内容
本发明提供一种多任务学习模型训练方法、装置、电子设备及存储介质,其主要目的在于提高了训练后的模型的鲁棒性。
获取训练图片集,其中,所述训练图片集中每个训练图片包含多个任务类别对应的任务标签;
获取预构建的多任务学习模型,其中,所述多任务学习模型由一个编码器并联多个的解码器构成,所述解码器与所述任务类别一一对应;
利用所述编码器对所述训练图片集进行预设次数的卷积池化,得到特征数据集;
利用所述任务类别对应的解码器对所述特征数据集中的每个特征数据进行计算,得到该任务类别对应的标签分析值;
根据所述特征数据对应的训练图片的任务类别对应的任务标签确认该任务类别对应的标签真实值;
利用所述任务类别对应的预设损失函数计算该种所述任务类别对应的标签分析值及标签真实值之间的任务损失值;
对所述任务损失值进行差异性平衡转换,得到标准任务损失值,并利用所有所述标准任务损失值进行计算,得到目标损失值;
当所述目标损失值大于或等于所述损失阈值,更新所述多任务学习模型的参数,返回所述利用所述编码器对所述训练图片集进行预设次数的卷积池化步骤;
当所述目标损失值小于所述损失阈值,输出训练完成的多任务学习模型。
可选地,所述对所述任务损失值进行差异性平衡转换,得到标准任务损失值,包括:
将每种所述任务对应的损失函数进行梯度转换得到对应的梯度函数;
将每种所述任务类别对应的标签分析值及标签真实值作为函数参数计算该任务类别对应的梯度函数,得到该任务类别的梯度;
根据所述任务类别的梯度进行计算,得到该任务类别的权重;
根据所述任务类别的权重及任务损失值进行计算,得到该任务类别的标准任务损失值。
可选地,所述对所述任务损失值进行差异性平衡转换,得到标准任务损失值,包括:
计算每个所述任务损失值在所有任务损失值中的比重,得到损失值比重;
将所述任务损失值的损失值比重取倒数,得到该任务损失值的损失值权重;
利用每个所述任务损失值及对应的损失值权重进行计算,得到对应的标准任务损失值。
可选地,所述利用所述编码器对所述训练图片集进行预设次数的卷积池化,得到所述特征数据集,包括:
随机选取所述所述训练图片集中预设数量的训练图片,得到训练图片子集;
对所述训练图片子集中的每张训练图片进行预设次数的卷积池化,得到对应的特征数据;
汇总所有的所述特征数据,得到所述特征数据集。
可选地,所述利用所有所述标准任务损失值进行计算,得到目标损失值,包括:
将每个所述标准任务损失值进行归一化,并将所有归一化后的标准任务损失值进行求和,得到所述目标损失值。
为了解决上述问题,本发明还提供一种多任务学习模型训练装置,所述装置包括:
损失值计算模块,用于获取训练图片集,其中,所述训练图片集中每个训练图片包含多个任务类别对应的任务标签;获取预构建的多任务学习模型,其中,所述多任务学习模型由一个编码器并联多个的解码器构成,所述解码器与所述任务类别一一对应;利用所述编码器对所述训练图片集进行预设次数的卷积池化,得到特征数据集;利用所述任务类别对应的解码器对所述特征数据集中的每个特征数据进行计算,得到该任务类别对应的标签分析值;根据所述特征数据对应的训练图片的任务类别对应的任务标签确认该任务类别对应的标签真实值;利用所述任务类别对应的预设损失函数计算该种所述任务类别对应的标签分析值及标签真实值之间的任务损失值;
损失值转换模块,用于对所述任务损失值进行差异性平衡转换,得到标准任务损失值,并利用所有所述标准任务损失值进行计算,得到目标损失值;
模型训练模块,用于当所述目标损失值大于或等于所述损失阈值,更新所述多任务学习模型的参数,返回所述利用所述编码器对所述训练图片集进行预设次数的卷积池化步骤;当所述目标损失值小于所述损失阈值,输出训练完成的多任务学习模型。
可选地,所述利用所有所述标准任务损失值进行计算,得到目标损失值,包括:
将每种所述任务对应的损失函数进行梯度转换得到对应的梯度函数;
将每种所述任务类别对应的标签分析值及标签真实值作为函数参数计算该任务类别对应的梯度函数,得到该任务类别的梯度;
根据所述任务类别的梯度进行计算,得到该任务类别的权重;
根据所述任务类别的权重及任务损失值进行计算,得到该任务类别的标准任务损失值。
可选地,所述利用所有所述标准任务损失值进行计算,得到目标损失值,包括:
计算每个所述任务损失值在所有任务损失值中的比重,得到损失值比重;
将所述任务损失值的损失值比重取倒数,得到该任务损失值的损失值权重;
利用每个所述任务损失值及对应的损失值权重进行计算,得到对应的标准任务损失值。
为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:
存储器,存储至少一个计算机程序;及
处理器,执行所述存储器中存储的计算机程序以实现上述所述的多任务学习模型训练方法。
为了解决上述问题,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个计算机程序,所述至少一个计算机程序被电子设备中的处理器执行以实现上述所述的多任务学习模型训练方法。
本发明实施例利用所述任务类别对应的预设损失函数计算该种所述任务类别对应的标签分析值及标签真实值之间的任务损失值;对所述任务损失值进行差异性平衡转换,得到标准任务损失值,并利用所有所述标准任务损失值进行计算,得到目标损失值;平衡不同任务的损失值,避免了单一损失值对模型梯度影响,进而增加了多任务学习模型中每个任务的训练度,提高了训练后的模型的鲁棒性;因此本发明实施例提出的多任务学习模型训练方法、装置、电子设备及可读存储介质提高了训练后的模型的鲁棒性。
附图说明
图1为本发明一实施例提供的多任务学习模型训练方法的流程示意图;
图2为本发明一实施例提供的多任务学习模型训练装置的模块示意图;
图3为本发明一实施例提供的实现多任务学习模型训练方法的电子设备的内部结构示意图;
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明实施例提供一种多任务学习模型训练方法。所述多任务学习模型训练方法的执行主体包括但不限于服务端、终端等能够被配置为执行本申请实施例提供的该方法的电子设备中的至少一种。换言之,所述多任务学习模型训练方法可以由安装在终端设备或服务端设备的软件或硬件来执行,所述软件可以是区块链平台。所述服务端包括但不限于:单台服务器、服务器集群、云端服务器或云端服务器集群等,服务器可以是独立的服务器,也可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(Content Delivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。
参照图1所示的本发明一实施例提供的多任务学习模型训练方法的流程示意图,在本发明实施例中,所述多任务学习模型训练方法包括:
S1、获取训练图片集,其中,所述训练图片集中每个训练图片包含多个任务类别对应的任务标签;
本发明实施例中训练多任务学习模型是训练多个关联的任务,所有所述任务类别是相互关联的,如:训练的多个任务分别为性别识别及人脸检测,那么任务类别分别为性别识别任务及人脸检测任务,所述性别识别任务对应的任务标签为男或女;所述人脸检测任务标签为人脸的区域坐标。
S2、获取预构建的多任务学习模型,其中,所述多任务学习模型由一个编码器并联多个的解码器构成,所述解码器与所述任务类别一一对应;
本发明实施例中所述多任务学习模型由一个编码器并联多个任务类别对应的解码器构成,其中,所述编码器包含所有任务共享的网络参数;进一步地,每个任务对应一个解码器,所述解码器包含任务特定的网络参数。
可选地,本发明实施例中所述编码器为包含多个卷积层及池化层的深度学习网络,所述解码器为全连接层及预设的激活函数构成。
S3、利用所述编码器对所述训练图片集进行预设次数的卷积池化,得到特征数据集;
本发明实施例中利用所述编码器对所述训练图片集进行预设次数的卷积池化,得到所述特征数据集,包括:
随机选取所述所述训练图片集中预设数量的训练图片,得到训练图片子集;
对所述训练图片子集中的每张训练图片进行预设次数的卷积池化,得到对应的特征数据;
汇总所有的所述特征数据,得到所述特征数据集。
进一步地,本发明实施例中所述卷积池化包含卷积处理及池化处理,所述卷积处理为利用预设卷积核进行卷积,所述池化处理为最大池化或平均池化。
具体地,本发明另一实施例中对所述训练图片子集中的每张训练图片进行预设次数的卷积池化,得到对应的特征数据,包括:利用所述编码器中的卷积层对所述训练图片进行卷积,得到对应的卷积数据;利用所述编码器中的池化层对所述卷积数据进行平均池化,得到特征数据,其中,所述编码器中卷积层与池化层的层数之和与所述预设次数相等。
S4、利用所述任务类别对应的解码器对所述特征数据集中的每个特征数据进行计算,得到该任务类别对应的标签分析值;
本发明实施例中利用所述任务类别对应的解码器对所述特征数据集中的每个特征数据进行计算,得到该任务类别对应的标签分析值,包括:
利用所述任务类别对应解码器中的激活函数对所述特征数据集中的每个特征数据进行计算,得到该任务类别对应的标签分析值。
进一步地,本发明实施例中利用如下激活函数公式对对所述特征数据集中的每个特征数据进行计算,包括:
其中,μt表示所述任务类别对应的标签分析值,s表示所述特征数据集中的特征数据。
S5、根据所述特征数据对应的训练图片的任务类别对应的任务标签确认该任务类别对应的标签真实值;
本发明实施例中更好的衡量模型预测的标签分析值与实际对应的任务标签的一致性,根据所述特征数据对应的训练图片的任务类别确认该任务类别对应的标签真实值。
例如:任务类别对应的对应的任务标签为性别标签,那么任务标签为“男”时,该任务标签对应的标签真实值为1;任务标签为“女”时,该任务标签对应的标签真实值为0。
S6、利用所述任务类别对应的预设损失函数计算该种所述任务类别对应的标签分析值及标签真实值之间的任务损失值;
本发明实施例中每种任务类别对应一个预设的损失函数,每种任务类别对应的损失函数可以相同也可以不同。
具体地,本发明实施例中所述损失函数包括但不限于对数损失函数、平方损失函数、绝对值损失函数、交叉熵损失函数等。
本发明另一实施例中所述任务损失值可以存储在区块链节点中,利用区块链节点高吞吐的特性,提高数据的取用效率。
S7、对所述任务损失值进行差异性平衡转换,得到标准任务损失值,并利用所有所述标准任务损失值进行计算,得到目标损失值;
本发明实施例中不同任务的任务损失值下降的梯度不同,为了避免不同损失值差异过大导致下降快的任务的任务损失值占据的绝对的影响,使得其他没有梯度下降的任务损失值对应的任务基本得不到训练,从而使训练失效,因此,需要对所述任务损失值进行差异性平衡转换,得到标准任务损失值,并利用所有所述标准任务损失值进行计算,得到目标损失值具体地,本发明实施例中对所述任务损失值进行差异性平衡转换,得到标准任务损失值,包括:
将每种所述任务对应的损失函数进行梯度转换得到对应的梯度函数;
可选地,本发明实施例中所述梯度函数为表示所述损失函数变化速率的函数,因此,本发明实施例中所述梯度转换的操作可以为对所述损失函数进行求导或者求偏导操作。
将每种所述任务类别对应的标签分析值及标签真实值作为函数参数计算该任务类别对应的梯度函数,得到该任务类别的梯度;
根据所述任务类别的梯度进行计算,得到该任务类别的权重;
详细地,本发明实施例中由于所述梯度的绝对值越大,则对应的任务类别的损失值影响越大,因此,本发明实施例中为了平衡这种影响,利用每个任务类别的梯度的倒数作为该任务类别的权重;由于梯度可以为负值,权重不能为负值;本发明实施例将所述任务类别的梯度取绝对值,得到该任务类别的标准梯度;将所述任务类别的标准梯度取倒数,得到该任务类别的权重。
根据所述任务类别的权重及任务损失值进行计算,得到该任务类别的标准任务损失值;
具体地,本发明实施例中将每种任务类别的权重及任务损失值进行乘法计算,得到该任务类别的标准任务损失值。
将所有所述标准任务损失值进行计算,得到所述目标损失值。
进一步地,本发明实施例中利用所有所述标准任务损失值进行计算,得到目标损失值,包括:将所有所述标准任务损失值进行求和,得到所述目标损失值。
本发明另一实施例中为了降低后续计算资源的消耗,将每个所述标准任务损失值进行归一化,并将所有归一化后的标准任务损失值进行求和,得到所述目标损失值。
本发明另一实施例中对所述任务损失值进行差异性平衡转换,得到标准任务损失值,包括:
计算每个所述任务损失值在所有任务损失值中的比重,得到损失值比重;
具体地,本发明实施例计算所述任务损失值与所有所述任务损失值之和的比值,得到所述损失值比重。
将所述任务损失值的损失值比重取倒数,得到该任务损失值的损失值权重;
利用每个所述任务损失值及对应的损失值权重进行计算,得到对应的标准任务损失值。
例如:任务损失值A的损失值权重为0.1,任务损失值A为0.5,那么任务损失值A的标准任务损失值为0.5*0.1=0.05。
S8、判断所述目标损失值是否小于预设损失阈值;
详细地,本发明实施例中为了衡量模型的训练精度是否达到预设的要求,因此,判断所述目标损失值是否小于所述损失阈值。
S9、当所述目标损失值大于或等于所述损失阈值,更新所述多任务学习模型的参数,返回所述利用所述编码器对所述训练图片集进行预设次数的卷积池化步骤;
本发明实施例中当所述目标损失值大于或等于所述损失阈值,则说明所述多任务学习模型的模型精度未达到要求,因此,需要对所述多任务学习模型的参数更改后继续训练。具体地,本发明实施例利用梯度下降算法更新所述多任务学习模型的模型参数,得到更新后的多任务学习模型。
S10、当所述目标损失值小于所述损失阈值,输出训练完成的多任务学习模型。
本发明实施例中当所述目标损失值小于所述损失阈值,将此时的所述多任务学习模型输出,得到训练完成的多任务学习模型。
如图2所示,是本发明多任务学习模型训练装置的功能模块图。
本发明所述多任务学习模型训练装置100可以安装于电子设备中。根据实现的功能,所述多任务学习模型训练装置可以包括损失值计算模块101、损失值转换模块102、模型训练模块103,本发所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
所述损失值计算模块101用于获取训练图片集,其中,所述训练图片集中每个训练图片包含多个任务类别对应的任务标签;获取预构建的多任务学习模型,其中,所述多任务学习模型由一个编码器并联多个的解码器构成,所述解码器与所述任务类别一一对应;利用所述编码器对所述训练图片集进行预设次数的卷积池化,得到特征数据集;利用所述任务类别对应的解码器对所述特征数据集中的每个特征数据进行计算,得到该任务类别对应的标签分析值;根据所述特征数据对应的训练图片的任务类别对应的任务标签确认该任务类别对应的标签真实值;利用所述任务类别对应的预设损失函数计算该种所述任务类别对应的标签分析值及标签真实值之间的任务损失值;
所述损失值转换模块102用于对所述任务损失值进行差异性平衡转换,得到标准任务损失值,并利用所有所述标准任务损失值进行计算,得到目标损失值;
所述模型训练模块103用于当所述目标损失值大于或等于所述损失阈值,更新所述多任务学习模型的参数,返回所述利用所述编码器对所述训练图片集进行预设次数的卷积池化步骤;当所述目标损失值小于所述损失阈值,输出训练完成的多任务学习模型。
详细地,本发明实施例中所述多任务学习模型训练装置100中所述的各模块在使用时采用与上述图1中所述的多任务学习模型训练方法一样的技术手段,并能够产生相同的技术效果,这里不再赘述。
如图3所示,是本发明实现多任务学习模型训练方法的电子设备的结构示意图。
所述电子设备可以包括处理器10、存储器11、通信总线12和通信接口13,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如多任务学习模型训练程序。
其中,所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备的内部存储单元,例如该电子设备的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备的外部存储设备,例如电子设备上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(SecureDigital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备的应用软件及各类数据,例如多任务学习模型训练程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(Control Unit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如多任务学习模型训练程序等),以及调用存储在所述存储器11内的数据,以执行电子设备的各种功能和处理数据。
所述通信总线12可以是外设部件互连标准(perIPheral componentinterconnect,简称PCI)总线或扩展工业标准结构(extended industry standardarchitecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述通信总线12总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
图3仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图3示出的结构并不构成对所述电子设备的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障分类电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
可选地,所述通信接口13可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备与其他电子设备之间建立通信连接。
可选地,所述通信接口13还可以包括用户接口,用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备中处理的信息以及用于显示可视化的用户界面。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备中的所述存储器11存储的多任务学习模型训练程序是多个计算机程序的组合,在所述处理器10中运行时,可以实现:
获取训练图片集,其中,所述训练图片集中每个训练图片包含多个任务类别对应的任务标签;
获取预构建的多任务学习模型,其中,所述多任务学习模型由一个编码器并联多个的解码器构成,所述解码器与所述任务类别一一对应;
利用所述编码器对所述训练图片集进行预设次数的卷积池化,得到特征数据集;
利用所述任务类别对应的解码器对所述特征数据集中的每个特征数据进行计算,得到该任务类别对应的标签分析值;
根据所述特征数据对应的训练图片的任务类别对应的任务标签确认该任务类别对应的标签真实值;
利用所述任务类别对应的预设损失函数计算该种所述任务类别对应的标签分析值及标签真实值之间的任务损失值;
对所述任务损失值进行差异性平衡转换,得到标准任务损失值,并利用所有所述标准任务损失值进行计算,得到目标损失值;
当所述目标损失值大于或等于所述损失阈值,更新所述多任务学习模型的参数,返回所述利用所述编码器对所述训练图片集进行预设次数的卷积池化步骤;
当所述目标损失值小于所述损失阈值,输出训练完成的多任务学习模型。
具体地,所述处理器10对上述计算机程序的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。
进一步地,所述电子设备集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。所述计算机可读介质可以是非易失性的,也可以是易失性的。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
本发明实施例还可以提供一种计算机可读存储介质,所述可读存储介质存储有计算机程序,所述计算机程序在被电子设备的处理器所执行时,可以实现:
获取训练图片集,其中,所述训练图片集中每个训练图片包含多个任务类别对应的任务标签;
获取预构建的多任务学习模型,其中,所述多任务学习模型由一个编码器并联多个的解码器构成,所述解码器与所述任务类别一一对应;
利用所述编码器对所述训练图片集进行预设次数的卷积池化,得到特征数据集;
利用所述任务类别对应的解码器对所述特征数据集中的每个特征数据进行计算,得到该任务类别对应的标签分析值;
根据所述特征数据对应的训练图片的任务类别对应的任务标签确认该任务类别对应的标签真实值;
利用所述任务类别对应的预设损失函数计算该种所述任务类别对应的标签分析值及标签真实值之间的任务损失值;
对所述任务损失值进行差异性平衡转换,得到标准任务损失值,并利用所有所述标准任务损失值进行计算,得到目标损失值;
当所述目标损失值大于或等于所述损失阈值,更新所述多任务学习模型的参数,返回所述利用所述编码器对所述训练图片集进行预设次数的卷积池化步骤;
当所述目标损失值小于所述损失阈值,输出训练完成的多任务学习模型。
进一步地,所述计算机可用存储介质可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序等;存储数据区可存储根据区块链节点的使用所创建的数据等。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种多任务学习模型训练方法,其特征在于,所述方法包括:
获取训练图片集,其中,所述训练图片集中每个训练图片包含多个任务类别对应的任务标签;
获取预构建的多任务学习模型,其中,所述多任务学习模型由一个编码器并联多个的解码器构成,所述解码器与所述任务类别一一对应;
利用所述编码器对所述训练图片集进行预设次数的卷积池化,得到特征数据集;
利用所述任务类别对应的解码器对所述特征数据集中的每个特征数据进行计算,得到该任务类别对应的标签分析值;
根据所述特征数据对应的训练图片的任务类别对应的任务标签确认该任务类别对应的标签真实值;
利用所述任务类别对应的预设损失函数计算该种所述任务类别对应的标签分析值及标签真实值之间的任务损失值;
对所述任务损失值进行差异性平衡转换,得到标准任务损失值,并利用所有所述标准任务损失值进行计算,得到目标损失值;
当所述目标损失值大于或等于所述损失阈值,更新所述多任务学习模型的参数,返回所述利用所述编码器对所述训练图片集进行预设次数的卷积池化步骤;
当所述目标损失值小于所述损失阈值,输出训练完成的多任务学习模型。
2.如权利要求1所述的多任务学习模型训练方法,其特征在于,所述对所述任务损失值进行差异性平衡转换,得到标准任务损失值,包括:
将每种所述任务对应的损失函数进行梯度转换得到对应的梯度函数;
将每种所述任务类别对应的标签分析值及标签真实值作为函数参数计算该任务类别对应的梯度函数,得到该任务类别的梯度;
根据所述任务类别的梯度进行计算,得到该任务类别的权重;
根据所述任务类别的权重及任务损失值进行计算,得到该任务类别的标准任务损失值。
3.如权利要求1所述的多任务学习模型训练方法,其特征在于,所述对所述任务损失值进行差异性平衡转换,得到标准任务损失值,包括:
计算每个所述任务损失值在所有任务损失值中的比重,得到损失值比重;
将所述任务损失值的损失值比重取倒数,得到该任务损失值的损失值权重;
利用每个所述任务损失值及对应的损失值权重进行计算,得到对应的标准任务损失值。
4.如权利要求1所述的多任务学习模型训练方法,其特征在于,所述利用所述编码器对所述训练图片集进行预设次数的卷积池化,得到所述特征数据集,包括:
随机选取所述所述训练图片集中预设数量的训练图片,得到训练图片子集;
对所述训练图片子集中的每张训练图片进行预设次数的卷积池化,得到对应的特征数据;
汇总所有的所述特征数据,得到所述特征数据集。
5.如权利要求1至4中任意一项所述的多任务学习模型训练方法,其特征在于,所述利用所有所述标准任务损失值进行计算,得到目标损失值,包括:
将每个所述标准任务损失值进行归一化,并将所有归一化后的标准任务损失值进行求和,得到所述目标损失值。
6.一种多任务学习模型训练装置,其特征在于,包括:
损失值计算模块,用于获取训练图片集,其中,所述训练图片集中每个训练图片包含多个任务类别对应的任务标签;获取预构建的多任务学习模型,其中,所述多任务学习模型由一个编码器并联多个的解码器构成,所述解码器与所述任务类别一一对应;利用所述编码器对所述训练图片集进行预设次数的卷积池化,得到特征数据集;利用所述任务类别对应的解码器对所述特征数据集中的每个特征数据进行计算,得到该任务类别对应的标签分析值;根据所述特征数据对应的训练图片的任务类别对应的任务标签确认该任务类别对应的标签真实值;利用所述任务类别对应的预设损失函数计算该种所述任务类别对应的标签分析值及标签真实值之间的任务损失值;
损失值转换模块,用于对所述任务损失值进行差异性平衡转换,得到标准任务损失值,并利用所有所述标准任务损失值进行计算,得到目标损失值;
模型训练模块,用于当所述目标损失值大于或等于所述损失阈值,更新所述多任务学习模型的参数,返回所述利用所述编码器对所述训练图片集进行预设次数的卷积池化步骤;当所述目标损失值小于所述损失阈值,输出训练完成的多任务学习模型。
7.如权利要求6所述的多任务学习模型训练装置,其特征在于,所述利用所有所述标准任务损失值进行计算,得到目标损失值,包括:
将每种所述任务对应的损失函数进行梯度转换得到对应的梯度函数;
将每种所述任务类别对应的标签分析值及标签真实值作为函数参数计算该任务类别对应的梯度函数,得到该任务类别的梯度;
根据所述任务类别的梯度进行计算,得到该任务类别的权重;
根据所述任务类别的权重及任务损失值进行计算,得到该任务类别的标准任务损失值。
8.如权利要求6所述的多任务学习模型训练装置,其特征在于,所述利用所有所述标准任务损失值进行计算,得到目标损失值,包括:
计算每个所述任务损失值在所有任务损失值中的比重,得到损失值比重;
将所述任务损失值的损失值比重取倒数,得到该任务损失值的损失值权重;
利用每个所述任务损失值及对应的损失值权重进行计算,得到对应的标准任务损失值。
9.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;
其中,所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至5中任一项所述的多任务学习模型训练方法。
10.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至5中任一项所述的多任务学习模型训练方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210505196.4A CN114913371A (zh) | 2022-05-10 | 2022-05-10 | 多任务学习模型训练方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210505196.4A CN114913371A (zh) | 2022-05-10 | 2022-05-10 | 多任务学习模型训练方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114913371A true CN114913371A (zh) | 2022-08-16 |
Family
ID=82766301
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210505196.4A Pending CN114913371A (zh) | 2022-05-10 | 2022-05-10 | 多任务学习模型训练方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114913371A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115081630A (zh) * | 2022-08-24 | 2022-09-20 | 北京百度网讯科技有限公司 | 多任务模型的训练方法、信息推荐方法、装置和设备 |
CN116883325A (zh) * | 2023-06-21 | 2023-10-13 | 杭州医策科技有限公司 | 一种免疫荧光图像分析方法和装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190130275A1 (en) * | 2017-10-26 | 2019-05-02 | Magic Leap, Inc. | Gradient normalization systems and methods for adaptive loss balancing in deep multitask networks |
CN111027428A (zh) * | 2019-11-29 | 2020-04-17 | 北京奇艺世纪科技有限公司 | 一种多任务模型的训练方法、装置及电子设备 |
CN111932534A (zh) * | 2020-09-22 | 2020-11-13 | 平安科技(深圳)有限公司 | 医学影像图片分析方法、装置、电子设备及可读存储介质 |
CN114048676A (zh) * | 2021-11-02 | 2022-02-15 | 中国石油大学(华东) | 基于多任务深度学习的地震断层和层位解释方法、装置 |
CN114237838A (zh) * | 2021-11-23 | 2022-03-25 | 华南理工大学 | 基于自适应损失函数加权的多任务模型训练方法 |
-
2022
- 2022-05-10 CN CN202210505196.4A patent/CN114913371A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190130275A1 (en) * | 2017-10-26 | 2019-05-02 | Magic Leap, Inc. | Gradient normalization systems and methods for adaptive loss balancing in deep multitask networks |
CN111027428A (zh) * | 2019-11-29 | 2020-04-17 | 北京奇艺世纪科技有限公司 | 一种多任务模型的训练方法、装置及电子设备 |
CN111932534A (zh) * | 2020-09-22 | 2020-11-13 | 平安科技(深圳)有限公司 | 医学影像图片分析方法、装置、电子设备及可读存储介质 |
CN114048676A (zh) * | 2021-11-02 | 2022-02-15 | 中国石油大学(华东) | 基于多任务深度学习的地震断层和层位解释方法、装置 |
CN114237838A (zh) * | 2021-11-23 | 2022-03-25 | 华南理工大学 | 基于自适应损失函数加权的多任务模型训练方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115081630A (zh) * | 2022-08-24 | 2022-09-20 | 北京百度网讯科技有限公司 | 多任务模型的训练方法、信息推荐方法、装置和设备 |
WO2024040869A1 (zh) * | 2022-08-24 | 2024-02-29 | 北京百度网讯科技有限公司 | 多任务模型的训练方法、信息推荐方法、装置和设备 |
CN116883325A (zh) * | 2023-06-21 | 2023-10-13 | 杭州医策科技有限公司 | 一种免疫荧光图像分析方法和装置 |
CN116883325B (zh) * | 2023-06-21 | 2024-04-30 | 杭州医策科技有限公司 | 一种免疫荧光图像分析方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112257774A (zh) | 基于联邦学习的目标检测方法、装置、设备及存储介质 | |
CN111814962A (zh) | 识别模型的参数获取方法、装置、电子设备及存储介质 | |
CN114913371A (zh) | 多任务学习模型训练方法、装置、电子设备及存储介质 | |
CN112396005A (zh) | 生物特征图像识别方法、装置、电子设备及可读存储介质 | |
CN114491047A (zh) | 多标签文本分类方法、装置、电子设备及存储介质 | |
CN113868529A (zh) | 知识推荐方法、装置、电子设备及可读存储介质 | |
CN115600644A (zh) | 多任务处理方法、装置、电子设备及存储介质 | |
CN113868528A (zh) | 资讯推荐方法、装置、电子设备及可读存储介质 | |
CN114781832A (zh) | 课程推荐方法、装置、电子设备及存储介质 | |
CN114186132A (zh) | 信息推荐方法、装置、电子设备及存储介质 | |
CN113890712A (zh) | 数据传输方法、装置、电子设备及可读存储介质 | |
CN114880449A (zh) | 智能问答的答复生成方法、装置、电子设备及存储介质 | |
CN114022841A (zh) | 人员监控识别方法、装置、电子设备及可读存储介质 | |
CN113157739A (zh) | 跨模态检索方法、装置、电子设备及存储介质 | |
CN112990374A (zh) | 图像分类方法、装置、电子设备及介质 | |
CN112269875A (zh) | 文本分类方法、装置、电子设备及存储介质 | |
CN116630712A (zh) | 基于模态组合的信息分类方法、装置、电子设备及介质 | |
CN115982454A (zh) | 基于用户画像的问卷推送方法、装置、设备及存储介质 | |
CN115496166A (zh) | 多任务处理方法、装置、电子设备及存储介质 | |
CN114595321A (zh) | 问题标注方法、装置、电子设备及存储介质 | |
CN115221274A (zh) | 文本情感分类方法、装置、电子设备及存储介质 | |
CN114219367A (zh) | 用户评分方法、装置、设备及存储介质 | |
CN113627394A (zh) | 人脸提取方法、装置、电子设备及可读存储介质 | |
CN112631589A (zh) | 应用程序首页布局配置方法、装置、电子设备及存储介质 | |
CN114742423B (zh) | 一种随机分组方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |