CN114037062A - 多任务模型的特征提取方法及装置 - Google Patents

多任务模型的特征提取方法及装置 Download PDF

Info

Publication number
CN114037062A
CN114037062A CN202111331891.5A CN202111331891A CN114037062A CN 114037062 A CN114037062 A CN 114037062A CN 202111331891 A CN202111331891 A CN 202111331891A CN 114037062 A CN114037062 A CN 114037062A
Authority
CN
China
Prior art keywords
task
features
attention
layer
feature extraction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111331891.5A
Other languages
English (en)
Inventor
周泳宇
马琼旭
李少帅
孟令勋
徐武将
赵云安
郭晓波
郭乃诚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang eCommerce Bank Co Ltd
Original Assignee
Zhejiang eCommerce Bank Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang eCommerce Bank Co Ltd filed Critical Zhejiang eCommerce Bank Co Ltd
Priority to CN202111331891.5A priority Critical patent/CN114037062A/zh
Publication of CN114037062A publication Critical patent/CN114037062A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本说明书实施例提供了多任务模型的特征提取方法及装置,其中,一种多任务模型的特征提取方法包括:获取多任务模型的前一共享层的输出特征;将所述输出特征输入后一共享层进行注意力特征提取,获得共享注意力特征;将所述共享注意力特征与各任务的前一子提取层的输出特征,输入对应任务的后一子提取层进行任务特征提取,输出目标特征。

Description

多任务模型的特征提取方法及装置
技术领域
本文件涉及数据处理技术领域,尤其涉及一种多任务模型的特征提取方法及装置。
背景技术
多任务学习是给定多个学习任务,在给定的多个学习任务中全部或者部分任务相关但不完全相同的情况下,是利用多个学习任务中包含的有用信息帮助各任务学习得到更为准确的结果,多任务学习模型可以在机器学习过程中实现多个任务的参数共享,从而实现了多个任务共同学习,是利用多个学习任务中包含的有用信息帮助各任务学习得到更为准确的学习器。
发明内容
本说明书一个或多个实施例提供了一种多任务模型的特征提取方法,包括:获取多任务模型的前一共享层的输出特征。将所述输出特征输入后一共享层进行注意力特征提取,获得共享注意力特征。将所述共享注意力特征与各任务的前一子提取层的输出特征,输入对应任务的后一子提取层进行任务特征提取,输出目标特征。
本说明书一个或多个实施例提供了一种多任务模型的特征提取装置,包括:特征获取模块,被配置为获取多任务模型的前一共享层的输出特征。注意力特征提取模块,被配置为将所述输出特征输入后一共享层进行注意力特征提取,获得共享注意力特征。任务特征提取模块,被配置为将所述共享注意力特征与各任务的前一子提取层的输出特征,输入对应任务的后一子提取层进行任务特征提取,输出目标特征。
本说明书一个或多个实施例提供了一种多任务模型的特征提取设备,包括:处理器;以及,被配置为存储计算机可执行指令的存储器,所述计算机可执行指令在被执行时使所述处理器:获取多任务模型的前一共享层的输出特征。将所述输出特征输入后一共享层进行注意力特征提取,获得共享注意力特征。将所述共享注意力特征与各任务的前一子提取层的输出特征,输入对应任务的后一子提取层进行任务特征提取,输出目标特征。
本说明书一个或多个实施例提供了一种存储介质,用于存储计算机可执行指令,所述计算机可执行指令在被处理器执行时实现以下流程:获取多任务模型的前一共享层的输出特征。将所述输出特征输入后一共享层进行注意力特征提取,获得共享注意力特征。将所述共享注意力特征与各任务的前一子提取层的输出特征,输入对应任务的后一子提取层进行任务特征提取,输出目标特征。
附图说明
为了更清楚地说明本说明书一个或多个实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图;
图1为本说明书一个或多个实施例提供的一种多任务模型的特征提取方法处理流程图;
图2为本说明书一个或多个实施例提供的一种多任务模型的示意图;
图3为本说明书一个或多个实施例提供的一种共享隐藏层的示意图;
图4为本说明书一个或多个实施例提供的一种特征提取层的子提取层的示意图;
图5为本说明书一个或多个实施例提供的一种应用于模型训练场景的多任务模型的特征提取方法处理流程图;
图6为本说明书一个或多个实施例提供的一种多任务模型的特征提取装置示意图;
图7为本说明书一个或多个实施例提供的一种多任务模型的特征提取设备的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本说明书一个或多个实施例中的技术方案,下面将结合本说明书一个或多个实施例中的附图,对本说明书一个或多个实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本说明书的一部分实施例,而不是全部的实施例。基于本说明书一个或多个实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本文件的保护范围。
本说明书提供的一种多任务模型的特征提取方法实施例:
参照图1,其示出了本实施例提供的一种多任务模型的特征提取方法处理流程图,参照图2,其示出了本实施例提供的一种多任务模型的示意图,参照图3,其示出了本实施例提供的一种共享隐藏层的示意图,参照图4,其示出了本实施例提供的一种特征提取层的子提取层的示意图,参照图5,其示出了本实施例提供的一种应用于模型训练场景的多任务模型的特征提取方法处理流程图。
参照图1,本实施例提供的多任务模型的特征提取方法,具体包括步骤S102至步骤S106。
步骤S102,获取多任务模型的前一共享层的输出特征。
本实施例提供的多任务模型的特征提取方法,通过在多任务模型中部署提取多任务之间交互的共享特征的共享层以及针对单个任务提取任务敏感特征的特征提取层,实现共享特征提取与任务敏感特征提取的结合,具体在多任务模型的训练过程中,基于多任务模型配置的多个共享层以及多个特征提取层,利用共享层学习多任务之间的特征交互,进而进行多任务的共享注意力特征提取,并利用特征提取层包含的各任务的子提取层进行任务敏感特征的提取,从而通过特征提取层的部署,在多任务模型的训练过程中即实现了多任务特征交互层面的共享特征提取,还针对各任务实现了任务角度的任务相关特征提取,降低了多任务模型训练过程中存在的负迁移问题,提升了多任务模型的训练效率以及训练准确性。
本实施例所述多任务模型,是指包含多个学习任务的多任务学习模型或者待训练模型,比如针对向用户进行广告推荐的多任务学习模型,该多任务学习模型包含2个学习任务,第一学习任务为用户对广告1的点击率,第二学习任务为用户对广告2的点击率,对该多任务学习模型的训练目的,是提升模型预测用户对广告1和广告2的点击率的准确性。除此之外,所述多任务模型还可以是包含多个任务并且经过训练学习上线部署的任务模型,针对该多任务模型,本实施例提供的多任务模型的特征提取方法,可在该任务模型上线部署后进行参数调整的过程中执行,参数调整过程具体包括利用该任务模型进行实际任务处理的过程以及根据任务处理结果对模型参数进行调整的过程。
实际应用中,许多数据场景面临的数据特征往往较为复杂,并且实际数据处理的过程中数据量也比较大,针对于此,为实现数据特征的深度提取,同时也为了提升多任务模型在应对数据量较大的处理场景时的特征提取准确度,本实施例通过针对所述多任务模型配置多个共享层来进行深入的共享特征提取,可选的,所述多任务模型包括至少两个共享层以及至少两个特征提取层,每个特征提取层包括与任务数目(多任务模型包含的任务的数目)相等的子提取层,每个特征提取层的子提取层与任务一一对应。
在所述多任务模型包含多个共享层以及至少两个特征提取层的基础上,为了提升任务层面的任务敏感特征提取的有效性和准确性,采用共享层与特征提取层相邻的方式交替部署的方式,针对每一个共享层输出的输出特进行任务层面的敏感特征提取,以此来降低多任务模型训练过程中任务之间的相互影响。可选的,所述多任务模型的至少两个共享层以及至少两个特征提取层,采用共享层与特征提取层相邻的方式交替部署,且共享层部署于特征提取层之前。可选的,所述多任务模型的至少两个共享层中,部署于首位的共享层的输入为所述多任务模型的嵌入层的输出特征,部署于非首位的共享层的输入为前一共享层输出的共享注意力特征。
在所述多任务模型的共享层与特征提取层采用交替部署的基础上,在任务层面进行敏感特征提取的过程中,为保持各任务的敏感特征提取的独立性,以此来保证提取的任务敏感特征相对各任务的有效性,本实施例通过在每个特征提取层中,针对每个任务分配部署相应的子提取层,通过每个任务的子提取层进行该任务的任务敏感特征提取。可选的,所述多任务模型的至少两个特征提取层中,部署于首位的特征提取层中各任务的子提取层的输入为部署于首位的共享层输出的共享注意力特征;部署于非首位的特征提取层中各任务的子提取层的输入,为相邻的前一共享层输出的共享注意力特征,以及前一特征提取层中相应任务的子提取层输出的目标特征;部署于末位的特征提取层中各任务的子提取层输出的目标特征为相应任务的任务输出特征。
例如,图2所示的多任务模型的架构图,该多任务模型包括3个共享隐藏层和3个特征提取层,其中,第一共享隐藏层的输入为嵌入层的输出特征,第一共享隐藏层的输出被输入第一特征提取层和第二共享隐藏层,第一特征提取层包含第一任务(Task 1)的子提取层和第二任务(Task 2)的子提取层,即:第一共享隐藏层的输出被分别输入第一任务(Task1)在第一特征提取层的子提取层以及第二任务(Task 2)在第一特征提取层的子提取层;第一任务(Task 1)在第一特征提取层的子提取层的输出被输入至第一任务(Task 1)在第二特征提取层的子提取层,类似的,第二任务(Task 2)在第一特征提取层的子提取层的输出被输入至第二任务(Task 2)在第二特征提取层的子提取层;
第二共享隐藏层的输出被输入至第三共享隐藏层,以及,被分别输入至第一任务(Task 1)在第二特征提取层的子提取层以及第二任务(Task 2)在第二特征提取层的子提取层;第一任务(Task 1)在第二特征提取层的子提取层的输出被输入至第一任务(Task 1)在第三特征提取层的子提取层,类似的,第二任务(Task 2)在第二特征提取层的子提取层的输出被输入至第二任务(Task 2)在第三特征提取层的子提取层;
最终,第一任务(Task 1)在第三特征提取层的子提取层的输出被作为第一任务在特征提取过程中的任务输出,相应的,第二任务(Task 1)在第三特征提取层的子提取层的输出同样被作为第二任务在特征提取过程中的任务输出。
需要说明的是,所述共享层以及所述特征提取层的数目,可以根据实际应用场景中的数据需要进行调整,比如在数据量较大的情况下,可增加共享层的数目,并相应的增加特征提取层的数目;反之,在数据量较小或者数据复杂度较低的情况下,可减少共享层的数目,并相应的减少特征提取层的数目。需要指出的是,在面临实际场景需要的情况下,可将共享层的数目降至1,并相应的将特征提取层的数目也降为1,在共享层和特征提取层的数目为1的情况下,多任务模型的架构也会相应的发生变化,具体的,共享层的输入为多任务模型的嵌入层的输出,共享层的输出被分别输入至特征提取层中各任务的子提取层,各任务的子提取层的输出即为各任务的任务输出。
步骤S104,将所述输出特征输入后一共享层进行注意力特征提取,获得共享注意力特征。
本实施例所述共享层,采用多头注意力机制进行多任务之间交互的共享特征的提取,具体在提取过程中,为了提升共享特征提取的准确性,通过部署两层多头注意力机制的共享特征提取来多任务特征之间的交互,并且,引入随机向量通过反向传播来学习隐式特征帮助进行共享特征的提取。
沿用上例,针对图2所示的多任务模型的任意一个共享隐藏层,该共享隐藏层的组成如图3所示,该共享隐藏层包含两个多头注意力模块Multi-head Attention Block 1和Multi-head Attention Block 2,其中,Multi-head Attention Block 1的输入包括预先配置的随机向量以及共享隐藏层的输入特征(Input Features),Multi-head AttentionBlock 2的输入包括Multi-head Attention Block 1的输出特征以及输入特征(InputFeatures),Multi-head Attention Block 2的输出即为共享隐藏层的输出。
本实施例提供的一种可选实施方式中,将所述输出特征输入后一共享层进行注意力特征提取,获得共享注意力特征,包括:
将随机向量和所述输出特征输入第一注意力模块进行注意力计算;
将所述输出特征与注意力计算获得的注意力特征输入第二注意力模块进行注意力计算,获得所述共享注意力特征。
可选的,所述第一注意力模块和所述第二注意力模块包括基于多头注意力的神经网络;以及,在注意力计算过程中采用反向传播进行所述随机向量的特征提取分量参数学习。
步骤S106,将所述共享注意力特征与各任务的前一子提取层的输出特征,输入对应任务的后一子提取层进行任务特征提取,输出目标特征。
实际应用中,在多任务模型的特征提取过程中,有些特征的显著性比较强(显著特征),但有些特征的显著性很弱(非显著特征),如果存在部分任务与显著特征强相关,还存在部分任务与非显著特征强相关,则多任务的训练学习过程中会更倾向于与显著特征强相关的任务。针对于此,在多任务模型的特征提取的过程中,在上述通过共享层对任务之间的特征交互进行学习的基础上,为了避免不同任务之间的相互影响,本实施例在共享层之间针对每个任务插入任务特征的子提取层以提取任务敏感特征。
本实施例提供的一种可选实施方式中,将所述共享注意力特征与各任务的前一子提取层的输出特征,输入对应任务的后一子提取层进行任务特征提取,输出目标特征,包括:
针对任一任务的子提取层,采用如下方式进行特征提取:
在所述共享注意力特征中提取该任务的任务注意力特征;
根据该任务的前一子提取层的输出特征以及该任务的任务注意力特征,确定该任务的任务特征。
可选的,所述在所述共享注意力特征中提取该任务的任务注意力特征,包括:
将所述共享注意力特征输入该任务的基于注意力的神经网络进行任务注意力计算,获得该任务的任务注意力特征。
可选的,所述根据该任务的前一子提取层的输出特征和所述任务注意力特征,确定该任务的任务特征,包括:
将该任务的前一子提取层的输出特征与该任务的任务注意力特征相加;
对相加获得的特征进行归一化处理,获得该任务的任务特征。
任以上述多任务模型为例,针对图2所示的多任务模型的任意一个特征提取层中任意一个任务的子提取层,通过部署针对该任务特征的适配器实现任务敏感特征的提取,如图3所示的适配器,共享隐藏层输出的特征(Output Features)在输入子提取层之后,被输入基于注意力机制的神经网络模块进行注意力计算,获得任务注意力特征Fi k
Figure BDA0003349095720000051
其中,
Figure BDA0003349095720000052
为可学习参数,O1、O2为共享隐藏层的输出特征,i表示第i个训练样本;
然后,将任务注意力特征Fi k和前一特征提取层该任务的适配器输出的特征Ti k-1,与任务注意力特征Fi k相加并进行归一化处理,获得输出特征Ti k
Ti k=LayerNorm(Ti k-1+Fi k)
其中,k表示第k个任务,i表示第i个训练样本,LayerNorm()为归一化函数。
具体实施时,在多任务模型的训练过程中,需对多任务模型进行调参,本实施例采用联合训练的方式,将多个任务的损失加权合并为一个损失,并根据合并后的损失对多任务模型进行参数调整,本实施例提供的一种可选实施方式中,在所述多任务模型的任意一次训练之后,采用如下方式进行损失计算和参数调整:
(1)对各任务的损失进行加权计算,获得训练损失;
具体的,根据各任务的损失以及损失权重进行加权计算,获得训练损失的过程中,如果多个任务的训练样本空间不同,则会导致样本选择偏差,针对于此,本实施例在计算各各任务的损失的过程中,剔除该任务的训练样本空间之外的其他训练样本,以此来避免样本选择偏差,从而提升损失计算的准确性。
(2)根据所述训练损失对所述多任务模型进行参数调整。
可选的,所述对所述多任务模型进行参数调整,包括下述至少一项:对所述多任务模型的共享层以及特征提取层的数目进行调整,共享层包含的基于多头注意力的神经网络的参数组的数目进行调整,随机向量的特征提取分量参数进行调整,各任务的损失权重进行调整。
下述以本实施例提供的一种多任务模型的特征提取方法在模型训练场景的应用为例,对本实施例提供的多任务模型的特征提取方法进行进一步说明,参见图2至5,应用于模型训练场景的多任务模型的特征提取方法,具体包括步骤S502至步骤S512。
步骤S502,获取多任务模型的第一共享隐藏层进行注意力特征提取后输出的第一共享注意力特征。
步骤S504,将共享注意力特征和预先配置的随机向量,输入第二共享隐藏层的第一注意力模块进行注意力计算,获得注意力特征。
步骤S506,将共享注意力特征与注意力特征输入第二共享隐藏层的第二注意力模块进行注意力计算,获得第二共享注意力特征。
步骤S508,针对任一任务,利用该任务在第二特征提取层的适配器在第二共享注意力特征中提取该任务的第二任务注意力特征。
其中,该任务在特征提取层的适配器,即是指该任务在特征提取层的子提取层部署的适配器。
步骤S510,将该任务在第一特征提取层的适配器输出的第一任务注意力特征与该任务的第二任务注意力特征相加。
步骤S512,对相加获得的特征进行归一化处理,获得该任务的任务特征。
本说明书提供的一种多任务模型的特征提取装置实施例如下:
在上述的实施例中,提供了一种多任务模型的特征提取方法,与之相对应的,还提供了一种多任务模型的特征提取装置,下面结合附图进行说明。
参照图6,其示出了本实施例提供的一种多任务模型的特征提取装置示意图。
由于装置实施例对应于方法实施例,所以描述得比较简单,相关的部分请参见上述提供的方法实施例的对应说明即可。下述描述的装置实施例仅仅是示意性的。
本实施例提供一种多任务模型的特征提取装置,包括:
特征获取模块602,被配置为获取多任务模型的前一共享层的输出特征;
注意力特征提取模块604,被配置为将所述输出特征输入后一共享层进行注意力特征提取,获得共享注意力特征;
任务特征提取模块606,被配置为将所述共享注意力特征与各任务的前一子提取层的输出特征,输入对应任务的后一子提取层进行任务特征提取,输出目标特征。
可选的,所述多任务模型包括至少两个共享层以及至少两个特征提取层,每个特征提取层包括与任务数目相等的子提取层,每个特征提取层的子提取层与任务一一对应。
可选的,所述多任务模型的至少两个共享层以及至少两个特征提取层,采用共享层与特征提取层相邻的方式交替部署,且共享层部署于特征提取层之前。
可选的,所述多任务模型的至少两个共享层中,部署于首位的共享层的输入为所述多任务模型的嵌入层的输出特征,部署于非首位的共享层的输入为前一共享层输出的共享注意力特征。
可选的,所述多任务模型的至少两个特征提取层中,部署于首位的特征提取层中各任务的子提取层的输入为部署于首位的共享层输出的共享注意力特征;
部署于非首位的特征提取层中各任务的子提取层的输入,为相邻的前一共享层输出的共享注意力特征,以及前一特征提取层中相应任务的子提取层输出的目标特征;
部署于末位的特征提取层中各任务的子提取层输出的目标特征为相应任务的任务输出特征。
本说明书提供的一种多任务模型的特征提取设备实施例如下:
对应上述描述的一种多任务模型的特征提取方法,基于相同的技术构思,本说明书一个或多个实施例还提供一种多任务模型的特征提取设备,该多任务模型的特征提取设备用于执行上述提供的多任务模型的特征提取方法,图7为本说明书一个或多个实施例提供的一种多任务模型的特征提取设备的结构示意图。
本实施例提供的一种多任务模型的特征提取设备,包括:
如图7所示,多任务模型的特征提取设备可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上的处理器701和存储器702,存储器702中可以存储有一个或一个以上存储应用程序或数据。其中,存储器702可以是短暂存储或持久存储。存储在存储器702的应用程序可以包括一个或一个以上模块(图示未示出),每个模块可以包括多任务模型的特征提取设备中的一系列计算机可执行指令。更进一步地,处理器701可以设置为与存储器702通信,在多任务模型的特征提取设备上执行存储器702中的一系列计算机可执行指令。多任务模型的特征提取设备还可以包括一个或一个以上电源703,一个或一个以上有线或无线网络接口704,一个或一个以上输入/输出接口705,一个或一个以上键盘706等。
在一个具体的实施例中,多任务模型的特征提取设备包括有存储器,以及一个或一个以上的程序,其中一个或者一个以上程序存储于存储器中,且一个或者一个以上程序可以包括一个或一个以上模块,且每个模块可以包括对多任务模型的特征提取设备中的一系列计算机可执行指令,且经配置以由一个或者一个以上处理器执行该一个或者一个以上程序包含用于进行以下计算机可执行指令:
获取多任务模型的前一共享层的输出特征;
将所述输出特征输入后一共享层进行注意力特征提取,获得共享注意力特征;
将所述共享注意力特征与各任务的前一子提取层的输出特征,输入对应任务的后一子提取层进行任务特征提取,输出目标特征。
本说明书提供的一种存储介质实施例如下:
对应上述描述的一种多任务模型的特征提取方法,基于相同的技术构思,本说明书一个或多个实施例还提供一种存储介质。
本实施例提供的存储介质,用于存储计算机可执行指令,所述计算机可执行指令在被处理器执行时实现以下流程:
获取多任务模型的前一共享层的输出特征;
将所述输出特征输入后一共享层进行注意力特征提取,获得共享注意力特征;
将所述共享注意力特征与各任务的前一子提取层的输出特征,输入对应任务的后一子提取层进行任务特征提取,输出目标特征。
需要说明的是,本说明书中关于存储介质的实施例与本说明书中关于多任务模型的特征提取方法的实施例基于同一发明构思,因此该实施例的具体实施可以参见前述对应方法的实施,重复之处不再赘述。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
在20世纪30年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书实施例时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本说明书一个或多个实施例可提供为方法、系统或计算机程序产品。因此,本说明书一个或多个实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书是参照根据本说明书实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程多任务模型的特征提取设备的处理器以产生一个机器,使得通过计算机或其他可编程多任务模型的特征提取设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程多任务模型的特征提取设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程多任务模型的特征提取设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本说明书一个或多个实施例可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书的一个或多个实施例,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本文件的实施例而已,并不用于限制本文件。对于本领域技术人员来说,本文件可以有各种更改和变化。凡在本文件的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本文件的权利要求范围之内。

Claims (15)

1.一种多任务模型的特征提取方法,包括:
获取多任务模型的前一共享层的输出特征;
将所述输出特征输入后一共享层进行注意力特征提取,获得共享注意力特征;
将所述共享注意力特征与各任务的前一子提取层的输出特征,输入对应任务的后一子提取层进行任务特征提取,输出目标特征。
2.根据权利要求1所述的多任务模型的特征提取方法,所述多任务模型包括至少两个共享层以及至少两个特征提取层,每个特征提取层包括与任务数目相等的子提取层,每个特征提取层的子提取层与任务一一对应。
3.根据权利要求1所述的多任务模型的特征提取方法,所述将所述输出特征输入后一共享层进行注意力特征提取,获得共享注意力特征,包括:
将随机向量和所述输出特征输入第一注意力模块进行注意力计算;
将所述输出特征与注意力计算获得的注意力特征输入第二注意力模块进行注意力计算,获得所述共享注意力特征。
4.根据权利要求3所述的多任务模型的特征提取方法,所述第一注意力模块和所述第二注意力模块包括基于多头注意力的神经网络;以及,在注意力计算过程中采用反向传播进行所述随机向量的特征提取分量参数学习。
5.根据权利要求1所述的多任务模型的特征提取方法,所述将所述共享注意力特征与各任务的前一子提取层的输出特征,输入对应任务的后一子提取层进行任务特征提取,输出目标特征,包括:
针对任一任务的子提取层,采用如下方式进行特征提取:
在所述共享注意力特征中提取该任务的任务注意力特征;
根据该任务的前一子提取层的输出特征以及该任务的任务注意力特征,确定该任务的任务特征。
6.根据权利要求5所述的多任务模型的特征提取方法,所述在所述共享注意力特征中提取该任务的任务注意力特征,包括:
将所述共享注意力特征输入该任务的基于注意力的神经网络进行任务注意力计算,获得该任务的任务注意力特征。
7.根据权利要求5所述的多任务模型的特征提取方法,所述根据该任务的前一子提取层的输出特征以及该任务的任务注意力特征,确定该任务的任务特征,包括:
将该任务的前一子提取层的输出特征与该任务的任务注意力特征相加;
对相加获得的特征进行归一化处理,获得该任务的任务特征。
8.根据权利要求1所述的多任务模型的特征提取方法,还包括:
对各任务的损失进行加权计算,获得训练损失;
根据所述训练损失对所述多任务模型进行参数调整。
9.根据权利要求8所述的多任务模型的特征提取方法,所述对所述多任务模型进行参数调整,包括下述至少一项:
对所述多任务模型的共享层以及特征提取层的数目进行调整,共享层包含的基于多头注意力的神经网络的参数组的数目进行调整,随机向量的特征提取分量参数进行调整,各任务的损失权重进行调整。
10.根据权利要求2所述的多任务模型的特征提取方法,所述多任务模型的至少两个共享层以及至少两个特征提取层,采用共享层与特征提取层相邻的方式交替部署,且共享层部署于特征提取层之前。
11.根据权利要求10所述的多任务模型的特征提取方法,所述多任务模型的至少两个共享层中,部署于首位的共享层的输入为所述多任务模型的嵌入层的输出特征,部署于非首位的共享层的输入为前一共享层输出的共享注意力特征。
12.根据权利要求10所述的多任务模型的特征提取方法,所述多任务模型的至少两个特征提取层中,部署于首位的特征提取层中各任务的子提取层的输入为部署于首位的共享层输出的共享注意力特征;
部署于非首位的特征提取层中各任务的子提取层的输入,为相邻的前一共享层输出的共享注意力特征,以及前一特征提取层中相应任务的子提取层输出的目标特征;
部署于末位的特征提取层中各任务的子提取层输出的目标特征为相应任务的任务输出特征。
13.一种多任务模型的特征提取装置,包括:
特征获取模块,被配置为获取多任务模型的前一共享层的输出特征;
注意力特征提取模块,被配置为将所述输出特征输入后一共享层进行注意力特征提取,获得共享注意力特征;
任务特征提取模块,被配置为将所述共享注意力特征与各任务的前一子提取层的输出特征,输入对应任务的后一子提取层进行任务特征提取,输出目标特征。
14.一种多任务模型的特征提取设备,包括:
处理器;以及,被配置为存储计算机可执行指令的存储器,所述计算机可执行指令在被执行时使所述处理器:
获取多任务模型的前一共享层的输出特征;
将所述输出特征输入后一共享层进行注意力特征提取,获得共享注意力特征;
将所述共享注意力特征与各任务的前一子提取层的输出特征,输入对应任务的后一子提取层进行任务特征提取,输出目标特征。
15.一种存储介质,用于存储计算机可执行指令,所述计算机可执行指令在被处理器执行时实现以下流程:
获取多任务模型的前一共享层的输出特征;
将所述输出特征输入后一共享层进行注意力特征提取,获得共享注意力特征;
将所述共享注意力特征与各任务的前一子提取层的输出特征,输入对应任务的后一子提取层进行任务特征提取,输出目标特征。
CN202111331891.5A 2021-11-11 2021-11-11 多任务模型的特征提取方法及装置 Pending CN114037062A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111331891.5A CN114037062A (zh) 2021-11-11 2021-11-11 多任务模型的特征提取方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111331891.5A CN114037062A (zh) 2021-11-11 2021-11-11 多任务模型的特征提取方法及装置

Publications (1)

Publication Number Publication Date
CN114037062A true CN114037062A (zh) 2022-02-11

Family

ID=80137297

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111331891.5A Pending CN114037062A (zh) 2021-11-11 2021-11-11 多任务模型的特征提取方法及装置

Country Status (1)

Country Link
CN (1) CN114037062A (zh)

Similar Documents

Publication Publication Date Title
CN108170667B (zh) 词向量处理方法、装置以及设备
CN107957989B (zh) 基于集群的词向量处理方法、装置以及设备
CN109214193B (zh) 数据加密、机器学习模型训练方法、装置以及电子设备
CN113255328B (zh) 语言模型的训练方法及应用方法
CN112308113A (zh) 一种基于半监督的目标识别方法、设备及介质
CN110825854A (zh) 响应推断方法和设备
CN117332282B (zh) 一种基于知识图谱的事件匹配的方法及装置
CN117392485A (zh) 图像生成模型训练方法、业务执行方法、装置及介质
CN115238250B (zh) 一种模型的处理方法、装置及设备
CN114037062A (zh) 多任务模型的特征提取方法及装置
CN112307371B (zh) 小程序子服务识别方法、装置、设备及存储介质
CN115204395A (zh) 数据的处理方法、装置及设备
CN114997277A (zh) 一种模型训练的方法、任务执行的方法及装置
CN110929871A (zh) 博弈决策方法和系统
CN111539520A (zh) 增强深度学习模型鲁棒性的方法及装置
CN115017915B (zh) 一种模型训练、任务执行的方法及装置
CN114861665B (zh) 一种强化学习模型训练以及确定数据关系的方法及装置
CN115953706B (zh) 虚拟形象处理方法及装置
CN109242478B (zh) 一种口令红包创建方法及装置
CN114882566A (zh) 一种表情识别模型的训练方法、装置以及设备
CN116824580A (zh) 图像处理方法、装置、设备及存储介质
CN117456028A (zh) 基于文本进行图像生成的方法及装置
CN117520850A (zh) 一种模型训练方法、装置、存储介质及电子设备
CN117095206A (zh) 生物检测模型训练方法及装置
CN117992787A (zh) 一种模型训练的方法、任务执行的方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination