CN115496162A - 一种模型的训练方法、装置以及设备 - Google Patents

一种模型的训练方法、装置以及设备 Download PDF

Info

Publication number
CN115496162A
CN115496162A CN202211259139.9A CN202211259139A CN115496162A CN 115496162 A CN115496162 A CN 115496162A CN 202211259139 A CN202211259139 A CN 202211259139A CN 115496162 A CN115496162 A CN 115496162A
Authority
CN
China
Prior art keywords
sparse
training
feature
task
loss value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211259139.9A
Other languages
English (en)
Inventor
董鑫
吴睿泽
熊超
李海
程磊
何勇
莫林剑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alipay Hangzhou Information Technology Co Ltd
Original Assignee
Alipay Hangzhou Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alipay Hangzhou Information Technology Co Ltd filed Critical Alipay Hangzhou Information Technology Co Ltd
Priority to CN202211259139.9A priority Critical patent/CN115496162A/zh
Publication of CN115496162A publication Critical patent/CN115496162A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本说明书实施例公开了一种模型的训练方法、装置以及设备。通过获取第j层对于训练样本的输出特征xj,生成由M个输出特征所组成的特征矩阵,1≤j≤M;针对第i个任务,根据稀疏矩阵中的第i行与所述输出特征矩阵生成对应该任务的稀疏特征vi,其中,所述稀疏矩阵中包含K*M个可训练的稀疏参数Z;获取所述多任务模型对所述第i个任务的初始预测特征,融合所述初始预测特征和所述稀疏特征vi生成第i个任务的目标预测特征yi;根据所述目标预测特征yi和训练样本的标签的差异确定第i个任务的损失值Li;融合所产生的K个任务的损失值生成总损失值,根据所述总损失值对所述稀疏参数Z进行训练。

Description

一种模型的训练方法、装置以及设备
技术领域
本说明书涉及互联网技术领域,尤其涉及一种模型的训练方法、装置以及设备。
背景技术
多任务学习(multi-task learning,MTL)近来发展迅速。用深度神经网络进行MTL的典型方法即为采用包含多层(layer)的深度神经网络(deep neural networks,DNNs)建立某种能共享所有任务的特征共享机制,或者为每个任务分配一个单独的具有交叉连接的参数集。然而,这些现有的这些方法仅利用了DNN中特征在各层间的特定顺序,对于特征的使用不够充分,这会降低模型的训练性能。
基于此,需要一种在多任务模型中性能更高的模型的训练方案。
发明内容
本说明书实施例提供一种模型的训练方法、装置、设备以及存储介质,用以解决如下技术问题:需要一种在多任务模型中性能更高的模型的训练方案。
为解决上述技术问题,本说明书一个或多个实施例是这样实现的:
在第一方面,本说明书实施例提供一种模型的训练方法,应用于包含M层和K个任务的多任务模型中,M和K为大于1的自然数,所述方法包括:获取第j层对于训练样本的输出特征xj,生成由M个输出特征所组成的特征矩阵,1≤j≤M;针对第i个任务,根据稀疏矩阵中的第i行与所述输出特征矩阵生成对应该任务的稀疏特征vi,其中,所述稀疏矩阵中包含K*M个可训练的稀疏参数Z;获取所述多任务模型对所述第i个任务的初始预测特征,融合所述初始预测特征和所述稀疏特征vi生成第i个任务的目标预测特征yi;根据所述目标预测特征yi和训练样本的标签的差异确定第i个任务的损失值Li;融合所产生的K个任务的损失值生成总损失值,根据所述总损失值对所述稀疏参数Z进行训练。
在第二方面,本说明书实施例提供一种模型的训练装置,应用于包含M层和K个任务的多任务模型中,M和K为大于1的自然数,所述装置包括:输出特征获取模块,获取第j层对于训练样本的输出特征xj,生成由M个输出特征所组成的特征矩阵,1≤j≤M;稀疏特征模块,针对第i个任务,根据稀疏矩阵中的第i行与所述输出特征矩阵生成对应该任务的稀疏特征vi,其中,所述稀疏矩阵中包含K*M个可训练的稀疏参数Z;目标预测特征模块,获取所述多任务模型对所述第i个任务的初始预测特征,融合所述初始预测特征和所述稀疏特征vi生成第i个任务的目标预测特征yi;单任务损失模块,根据所述目标预测特征yi和训练样本的标签的差异确定第i个任务的损失值Li;训练模块,融合所产生的K个任务的损失值生成总损失值,根据所述总损失值对所述稀疏参数Z进行训练。
在第三方面,本说明书一个或多个实施例提供一种电子设备,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如第一方面所述的方法。
在第四方面,本说明书实施例提供一种非易失性计算机存储介质存储有计算机可执行指令,当计算机读取存储介质中的计算机可执行指令后,该指令使得一个或多个处理器执行如第一方面所述的方法。
本说明书一个或多个实施例采用的上述至少一个技术方案能够达到以下有益效果:通过获取第j层对于训练样本的输出特征xj,生成由M个输出特征所组成的特征矩阵,1≤j≤M;针对第i个任务,根据稀疏矩阵中的第i行与所述输出特征矩阵生成对应该任务的稀疏特征vi,其中,所述稀疏矩阵中包含K*M个可训练的稀疏参数Z;获取所述多任务模型对所述第i个任务的初始预测特征,融合所述初始预测特征和所述稀疏特征vi生成第i个任务的目标预测特征yi;根据所述目标预测特征yi和训练样本的标签的差异确定第i个任务的损失值Li;融合所产生的K个任务的损失值生成总损失值,根据所述总损失值对所述稀疏参数Z进行训练,从而实现在多任务的模型训练中为每个任务引入任意层的特征,不同任务可以自适应选择不同特征,并且,这种引入各层特征至不同任务的稀疏路由的框架与多任务模型的本身结构无关,可以将这种框架结合至任意的多任务模型中以提高其性能,适应性广。
附图说明
为了更清楚地说明本说明书实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本说明书实施例提供的一种型的训练方法的流程示意图;
图2为本说明书实施例所提供的一种系统的架构示意图;
图3为本说明书实施例所提供的一种损失值的产生示意图;
图4为本说明书实施例提供的一种模型的训练装置的结构示意图;
图5为本说明书实施例提供的一种电子设备的结构示意图。
具体实施方式
本说明书实施例提供一种模型的训练方法、装置、设备以及存储介质。
为了使本技术领域的人员更好地理解本说明书中的技术方案,下面将结合本说明书实施例中的附图,对本说明书实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本说明书实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
如图1所示,图1为本说明书实施例提供的一种型的训练方法的流程示意图,应用于包含M层和K个任务的多任务模型中,M和K为大于1的自然数,图1中的流程可以包括以下步骤:
S101:获取第j层对于训练样本的输出特征xj,生成由M个输出特征所组成的特征矩阵,1≤j≤M。
多任务模型即基于多任务学习(multi-task learning,MTL)的模型,通过构建单个模型来同时学习多个目标和任务。例如,通过多任务模型同时学习图片识别和图片分类(即此时的训练样本可以是图片),或者,通过多任务模型同时学习预测用户对于一个推荐信息的点击率和阅读时长,以及,同时学习用户在该的场景的购买转化率(此时的训练样本可以是包含用户和待推荐信息的特征的数据)。
在多任务模型中,可以包含多个层(larey)的结构,例如嵌入层(embeddinglayer)、共享层(sharing layer)以及多个输出层(tower layer)等等。
这些不同的层级的内部结构可以是基于需要自行设定,例如,对于某些共享层(sharing layer)其可能采用双向的长短期记忆网络(Long Short-Term Memory,LSTM)等等。每一层中都可以包含待训练的模型参数。同时,在多任务之间可以共享这些不同的层级结构和模型参数。
从而对于每一层而言,其都会产生一个相应的输出特征。对于第j层的输出特征而言,可以将其记为xj,从而对于M层所产生的M个输出特征,即可以将其记为对应的特征矩阵[x1,x2,……,xM]。M层所产生的M个输出特征在维度大小上是相同的。
S103,针对第i个任务,根据稀疏矩阵中的第i行与所述输出特征矩阵生成对应该任务的稀疏特征vi,其中,所述稀疏矩阵中包含K*M个可训练的稀疏参数Z。
如图2所示,图2为本说明书实施例所提供的一种系统的架构示意图。在该示意图中,仅给出了包含两个任务的多任务模型作为示例,在实际应用中,任务数量K不做限制。
如该图中所示意,对于每一个任务而言,都可以通过一个稀疏矩阵对前述的M个特征进行稀疏路由,从而产生对应与K个任务的K个稀疏特征,即为[v1,v2,……,vK]。
换言之,可以通过如下矩阵运算的形式来表达对于特征矩阵的稀疏路由:
Figure BDA0003890847960000041
其中的稀疏参数Zij即为将第j个输出特征路由到第i个任务的路由参数。aij为可学习的权重参数。每个稀疏参数Z∈Zij也可以称为编码变量或者路由参数,应为二进制值,即Z∈{0,1}。
例如,对于第1个任务而言,实际上其对应的稀疏特征v1=Z1j*[x1,x2,……,xM]T,其中,Z1j即为前述的稀疏矩阵的第一行,[x1,x2,……,xM]T即为前述的特征矩阵的转置矩阵。
由于在稀疏矩阵中,稀疏参数Zij的取值要么为0,要么为1,那么当Zij取0的时候,显然,对应的稀疏特征中就不包含对应的第j个输出特征xj;当Zij取1的时候,对应的稀疏特征中就包含对应的第j个输出特征xj,同时xj的权重大小由对应的权重参数aij给定。
在本说明书实施例中,稀疏参数Z和权重参数aij都是可训练的参数。其初始值可以基于需要预先给定(例如,给定符合一定预期分布的初始参数),或者,任意给定(例如,给定初始值为一定范围内的随机取值)。
S105,获取所述多任务模型对所述第i个任务的初始预测特征,融合所述初始预测特征和所述稀疏特征vi生成第i个任务的目标预测特征yi
对于多任务模型而言,其在包含前述的M层的层级结构的同时,还会对于每一个任务都会给出一个相应的初始预测向量。将第i个任务所对应的初始预测向量即为xsi,通常初始预测向量连接一个全连接层用于给出预测结果。显然,对于每一个任务而言,初始预测向量xsi是一个非常具有代表性的特征向量。
因此,可以将前述所产生的稀疏特征vi和所述初始预测特征xsi进行融合,从而生成第i个任务的目标预测特征yi。即
Figure BDA0003890847960000051
其中,||表征了一种融合方式,w为任务权重值,b为偏移量,σ为激活函数。融合之后得到的目标预测特征yi即依然作为前述的全连接层的输入以产生一个预测结果。
在一种实施例中,所述||所表征的融合方式可以是拼接所述初始预测特征和所述稀疏特征vi生成第i个任务的目标预测特征yi,即如图2中所示意;或者,即可以通过预先调整所述稀疏特征vi和所述目标预测特征yi的大小一致,从而还可以叠加所述初始预测特征和所述稀疏特征vi生成第i个任务的目标预测特征yi
S107,根据所述目标预测特征yi和训练样本的标签的差异确定第i个任务的损失值Li
如图3所示,图3为本说明书实施例所提供的一种损失值的产生示意图。对于每一个任务而言,其各自的损失值基于训练样本的标签和所述目标预测特征yi单独计算,从而产生对应的L个损失值。
S109,融合所产生的K个任务的损失值生成总损失值,根据所述总损失值对所述稀疏参数Z进行训练。
一种融合的方式即可以是直接相加所述K个任务的损失值生成总损失值,或者,也可以是基于预设的权重分布加权求和K个任务的损失值生成总损失值,通过权重分布加权求和的方式进行总损失值的计算,可以通过对于权重分布的调整来突出多个任务中那些需要重点注意的任务。在确定得到了总损失值之后,即可以根据所述损失值对所述稀疏参数Z进行训练。
在一种实施方式中,即可以固定所述多任务模型中所包含的各层中的参数,而仅对稀疏矩阵中所包含的稀疏参数Z和权重参数aij进行训练。
在这种实施方式中,对于多任务模型的训练可以是分阶段进行的。例如,首先不加入前述的稀疏矩阵,而直接对多任务模型中所包含的多层结构中的参数进行训练,在多任务模型训练达到一定准确度之后,再固定所述多层结构中的参数,并接入所述稀疏矩阵对稀疏矩阵中的Z和权重参数aij进行训练。通过这种分阶段的训练方式可以基于用户需要的更为便利的训练。
在另一种实施方式中,对于多任务模型的训练可以是根据所述总损失值对所述稀疏参数Z和所述M层中所包含的可训练参数进行同步训练。即对于损失函数而言,将其视为Z、X、W和Y的函数,其中,W即为所述M层中所包含的可训练参数,X为训练样本,Y为多个任务所对应的标签的联合。
此时,若预设稀疏系数Z符合一定的预期分布(这种预期分布通常而言是离散的,例如,假设其服从伯努利分布,即Z~p(Z;π)),则可以将模型的训练目标通过如下目标函数进行表达:
Figure BDA0003890847960000061
其中的f表示从训练样本X、稀疏参数Z和M层中所包含的可训练参数W到目标预测特征yi的映射,L表示总损失值。前述目标函数及表示,当Z服从伯努利分布时,通过从X、W和Z的映射,使得L最小。
但如前所示,由于Z是一个稀疏取值,其要么为0,要么为1。换言之,对于函数L而言,变量Z是一个离散和不可微的变量,因此,在常规方式中是无法直接计算L对于Z的梯度,因此也就很难通过反向传播来直接训练Z。
基于此,则可以获取所述稀疏参数Z的预期分布,确定预期分布的近似分布,其中,所述预期分布为离散型,所述近似分布为连续型;根据所述总损失值和所述近似分布对所述稀疏参数Z进行训练。通过采用连续型的近似分布,实际上是对目标函数进行了松弛。
例如,在假设所述预期分布为伯努利分布的时候,首先找到一个与其接近的连续型分布s~q(θ;φ),并且将Z记为所述s的激活取值。例如,Z=g(s)=min(1,max(0,θ))来计算Z的取值
其中的θ和φ为所述近似分布中所包含的待训练的分布参数,且,θ和φ连续可微。
此时,对于前述的目标函数的计算即转换为在给定了X、W、s和Y的情形下求取最小值。由于s是一个包含连续的分布参数的连续分布,因此,此时即可以根据所述L来计算对于s中所包含的待训练的分布参数的梯度,并根据所述梯度对所述分布参数进行训练。
在每一轮的迭代训练中,当待训练的分布参数发生变化时,对应的s也会发生变化,此时,对应的Z也将会被更新。
例如,假设s服从如下的分布,s=sigmoid((log(u)-log(1-u)+log(α)/β),其中的log(α)即为可训练的连续的分布参数,β为超参数,u服从随机分布U(0,1),是一个均匀的随机变量,可以看到,此时的s已经是一个连续分布。其中的β取值在0至1之间,用于调整稀疏矩阵的稀疏程度,β越接近1,训练得到的稀疏矩阵的稀疏程度越高。
此时,则可以通过θ=s(ζ-γ)+γ,Z=min(1,max(θ,0)),来在每一轮的迭代中通过迭代log(α),而对s进行迭代,进而调整所述稀疏参数Z的取值至稀疏值0或者1。其中,γ和ζ都是超参数
换言之,通过前述方式,在训练阶段即可以通过随机梯度的方式来训练所述隐变量log(α)和所述模型中所包含的各层中的其它参数,由于前述的u作为噪声平滑了Z的分布,此时,Z的取值可以通过如下方式计算:z=min(1,max(0,sigmoid(log(α))(ζ-γ)+γ))。当sigmoid(log(α))(ζ-γ)+γ<0时,z即取值为0,从而实现了对于稀疏矩阵中的稀疏值的训练。
通过获取第j层对于训练样本的输出特征xj,生成由M个输出特征所组成的特征矩阵,1≤j≤M;针对第i个任务,根据稀疏矩阵中的第i行与所述输出特征矩阵生成对应该任务的稀疏特征vi,其中,所述稀疏矩阵中包含K*M个可训练的稀疏参数Z;获取所述多任务模型对所述第i个任务的初始预测特征,融合所述初始预测特征和所述稀疏特征vi生成第i个任务的目标预测特征yi;根据所述目标预测特征yi和训练样本的标签的差异确定第i个任务的损失值Li;融合所产生的K个任务的损失值生成总损失值,根据所述总损失值对所述稀疏参数Z进行训练中,从而实现在多任务的模型训练中为每个任务引入任意层的特征,不同任务可以自适应选择不同特征,并且,这种引入各层特征至不同任务的稀疏路由的框架与多任务模型的本身结构无关,可以将这种框架结合至任意的多任务模型中以提高其性能,适应性广。
此外,需要说明的是,本说明书的模型训练方式可以适用于任意的已经训练好的多任务模型中。具体方式为,在已经训练好的多任务模型中引入前述的稀疏矩阵,并将模型的各层的输出连接至所述稀疏矩阵,从而得到框架如图2所示的多任务模型,并再次进行训练吗,以提升,模型性能。换言之,通过稀疏矩阵实现对于多层特征的稀疏路由结构可以广泛的适应于各类多任务模型中,而与多任务模型本身无关。
基于同样的思路,本说明书一个或多个实施例还提供了上述方法对应的装置和设备,如图4、图5所示。
在第二方面,如图4所示,图4为本说明书实施例提供的一种模型的训练装置的结构示意图,应用于包含M层和K个任务的多任务模型中,M和K为大于1的自然数,所述装置包括:
输出特征获取模块401,获取第j层对于训练样本的输出特征xj,生成由M个输出特征所组成的特征矩阵,1≤j≤M;
稀疏特征模块403,针对第i个任务,根据稀疏矩阵中的第i行与所述输出特征矩阵生成对应该任务的稀疏特征vi,其中,所述稀疏矩阵中包含K*M个可训练的稀疏参数Z;
目标预测特征模块405,获取所述多任务模型对所述第i个任务的初始预测特征,融合所述初始预测特征和所述稀疏特征vi生成第i个任务的目标预测特征yi
单任务损失模块407,根据所述目标预测特征yi和训练样本的标签的差异确定第i个任务的损失值Li
训练模块409,融合所产生的K个任务的损失值生成总损失值,根据所述总损失值对所述稀疏参数Z进行训练。
可选地,所述训练模块409,获取所述稀疏参数Z的预期分布,确定预期分布的近似分布,其中,所述预期分布为离散型,所述近似分布为连续型;根据所述总损失值和所述近似分布对所述稀疏参数Z进行训练。
可选地,所述训练模块409根据所述总损失值对所述稀疏参数Z和所述M层中所包含的可训练参数进行同步训练。
可选地,所述训练模块409,确定所述近似分布中所包含的待训练的分布参数;根据所述总损失值中确定所述待训练的分布参数的梯度;根据所述梯度对所述分布参数进行训练,其中,所述分布参数用于在每一轮训练中调整所述稀疏参数Z的取值至稀疏值。
可选地,所述目标预测特征模块405,拼接所述初始预测特征和所述稀疏特征vi生成第i个任务的目标预测特征yi;或者,叠加所述初始预测特征和所述稀疏特征vi生成第i个任务的目标预测特征yi
可选地,所述训练模块409,基于预设的权重分布加权求和K个任务的损失值生成总损失值。
在第三方面,如图5所示,图5为本说明书实施例提供的一种电子设备的结构示意图,所述设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如第一方面所述的方法。
在第四方面,基于同样的思路,本说明书实施例还提供了对应于上述方法的一种非易失性计算机存储介质,存储有计算机可执行指令,当计算机读取存储介质中的计算机可执行指令后,该指令使得一个或多个处理器执行如第一方面所述的方法。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本说明书实施例可提供为方法、系统、或计算机程序产品。因此,本说明书实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书是参照根据本说明书实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置、设备、非易失性计算机存储介质实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
以上所述仅为本说明书的一个或多个实施例而已,并不用于限制本说明书。对于本领域技术人员来说,本说明书的一个或多个实施例可以有各种更改和变化。凡在本说明书的一个或多个实施例的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书的权利要求范围之内。

Claims (8)

1.一种模型的训练方法,应用于包含M层和K个任务的多任务模型中,M和K为大于1的自然数,所述方法包括:
获取第j层对于训练样本的输出特征xj,生成由M个输出特征所组成的特征矩阵,1≤j≤M;
针对第i个任务,根据稀疏矩阵中的第i行与所述输出特征矩阵生成对应该任务的稀疏特征vi,其中,所述稀疏矩阵中包含K*M个可训练的稀疏参数Z;
获取所述多任务模型对所述第i个任务的初始预测特征,融合所述初始预测特征和所述稀疏特征vi生成第i个任务的目标预测特征yi
根据所述目标预测特征yi和训练样本的标签的差异确定第i个任务的损失值Li
融合所产生的K个任务的损失值生成总损失值,根据所述总损失值对所述稀疏参数Z进行训练。
2.如权利要求1所述的方法,其中,根据所述总损失值对所述稀疏参数Z进行训练,包括:
获取所述稀疏参数Z的预期分布,确定预期分布的近似分布,其中,所述预期分布为离散型,所述近似分布为连续型;
根据所述总损失值和所述近似分布对所述稀疏参数Z进行训练。
3.如权利要求1所述的方法,其中,根据所述总损失值和所述近似分布对所述稀疏参数Z进行训练,包括:
根据所述总损失值对所述稀疏参数Z和所述M层中所包含的可训练参数进行同步训练。
4.如权利要求2所述的方法,其中,根据所述总损失值和所述近似分布对所述稀疏参数Z进行训练,包括:
确定所述近似分布中所包含的待训练的分布参数;
根据所述总损失值中确定所述待训练的分布参数的梯度;
根据所述梯度对所述分布参数进行训练,其中,所述分布参数用于在每一轮训练中调整所述稀疏参数Z的取值至稀疏值。
5.如权利要求1所述的方法,其中,融合所述初始预测特征和所述稀疏特征vi生成第i个任务的目标预测特征yi,包括:
拼接所述初始预测特征和所述稀疏特征vi生成第i个任务的目标预测特征yi;或者,
叠加所述初始预测特征和所述稀疏特征vi生成第i个任务的目标预测特征yi
6.如权利要求1所述的方法,其中,融合所产生的K个任务的损失值生成总损失值,包括:
基于预设的权重分布加权求和K个任务的损失值生成总损失值。
7.一种模型的训练装置,应用于包含M层和K个任务的多任务模型中,M和K为大于1的自然数,所述装置包括:
输出特征获取模块,获取第j层对于训练样本的输出特征xj,生成由M个输出特征所组成的特征矩阵,1≤j≤M;
稀疏特征模块,针对第i个任务,根据稀疏矩阵中的第i行与所述输出特征矩阵生成对应该任务的稀疏特征vi,其中,所述稀疏矩阵中包含K*M个可训练的稀疏参数Z;
目标预测特征模块,获取所述多任务模型对所述第i个任务的初始预测特征,融合所述初始预测特征和所述稀疏特征vi生成第i个任务的目标预测特征yi
单任务损失模块,根据所述目标预测特征yi和训练样本的标签的差异确定第i个任务的损失值Li
训练模块,融合所产生的K个任务的损失值生成总损失值,根据所述总损失值对所述稀疏参数Z进行训练。
8.一种电子设备,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至6任一项所述的方法。
CN202211259139.9A 2022-10-14 2022-10-14 一种模型的训练方法、装置以及设备 Pending CN115496162A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211259139.9A CN115496162A (zh) 2022-10-14 2022-10-14 一种模型的训练方法、装置以及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211259139.9A CN115496162A (zh) 2022-10-14 2022-10-14 一种模型的训练方法、装置以及设备

Publications (1)

Publication Number Publication Date
CN115496162A true CN115496162A (zh) 2022-12-20

Family

ID=84473497

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211259139.9A Pending CN115496162A (zh) 2022-10-14 2022-10-14 一种模型的训练方法、装置以及设备

Country Status (1)

Country Link
CN (1) CN115496162A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115841335A (zh) * 2023-02-07 2023-03-24 支付宝(杭州)信息技术有限公司 数据处理方法、装置及设备

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115841335A (zh) * 2023-02-07 2023-03-24 支付宝(杭州)信息技术有限公司 数据处理方法、装置及设备

Similar Documents

Publication Publication Date Title
CN110348462B (zh) 一种图像特征确定、视觉问答方法、装置、设备及介质
KR102158683B1 (ko) 외부 메모리로 신경망들 증강
CN111507726B (zh) 一种报文生成方法、装置及设备
CN115496162A (zh) 一种模型的训练方法、装置以及设备
CN117456028A (zh) 基于文本进行图像生成的方法及装置
CN116312480A (zh) 一种语音识别方法、装置、设备及可读存储介质
CN112836829B (zh) 一种个性化的隐私保护学习方法、装置以及设备
CN117409466B (zh) 一种基于多标签控制的三维动态表情生成方法及装置
CN117953258A (zh) 对象分类模型的训练方法、对象分类方法及装置
CN116779061A (zh) 交互式药物分子设计方法、装置、电子设备及介质
CN115841016A (zh) 一种基于特征选择的模型训练方法、装置以及设备
CN116824331A (zh) 一种模型训练、图像识别方法、装置、设备及存储介质
CN115964633A (zh) 一种基于数据增广的模型训练方法、装置以及设备
Zhang et al. Deep Learning and Applications
CN110991496B (zh) 一种训练模型的方法及装置
CN117634550B (zh) 一种面向多类脑芯片级联系统的时间同步方法与装置
CN116501852B (zh) 一种可控对话模型训练方法、装置、存储介质及电子设备
CN114461769A (zh) 一种知识追踪模型的训练方法、装置以及设备
CN115034861B (zh) 一种针对长尾分布的学习方法、装置以及设备
CN114241268B (zh) 一种模型的训练方法、装置及设备
CN117350351B (zh) 用户响应预测系统的训练方法、用户响应预测方法及装置
CN117576522B (zh) 一种基于拟态结构动态防御的模型训练方法及装置
CN118468045B (zh) 一种模型训练加速方法、装置及存储介质
CN114037062A (zh) 多任务模型的特征提取方法及装置
CN117910542A (zh) 用户转化预测模型训练方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination