CN115994537B - 用于解决实体重叠与实体嵌套的多任务学习方法及系统 - Google Patents

用于解决实体重叠与实体嵌套的多任务学习方法及系统 Download PDF

Info

Publication number
CN115994537B
CN115994537B CN202310029462.5A CN202310029462A CN115994537B CN 115994537 B CN115994537 B CN 115994537B CN 202310029462 A CN202310029462 A CN 202310029462A CN 115994537 B CN115994537 B CN 115994537B
Authority
CN
China
Prior art keywords
task
general
entity
learning model
task learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310029462.5A
Other languages
English (en)
Other versions
CN115994537A (zh
Inventor
闫凯峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Real Intelligence Technology Co ltd
Original Assignee
Hangzhou Real Intelligence Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Real Intelligence Technology Co ltd filed Critical Hangzhou Real Intelligence Technology Co ltd
Priority to CN202310029462.5A priority Critical patent/CN115994537B/zh
Publication of CN115994537A publication Critical patent/CN115994537A/zh
Application granted granted Critical
Publication of CN115994537B publication Critical patent/CN115994537B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Image Analysis (AREA)

Abstract

本发明属于命名实体识别技术领域,具体涉及用于解决实体重叠与实体嵌套的多任务学习方法及系统。方法包括S1,构造多任务通用数据集,并对所述多任务通用数据集进行预处理;S2,设计通用型多任务学习模型,并根据预处理后的多任务通用数据集进行训练;S3,引入优化器PCGrad,对具有负影响的梯度进行纠偏,对通用型多任务学习模型进行参数优化;S4,引入损失函数,并用于计算通用型多任务学习模型在整个前向传播过程中总的损失;S5,将优化后的通用型多任务学习模型,用于实际数据预测,最终合并所有预测结果作为最终结果。本发明具有模型抽取精度高,效果好,能够降低现有命名实体任务设计难度,提升工作效率的特点。

Description

用于解决实体重叠与实体嵌套的多任务学习方法及系统
技术领域
本发明属于命名实体识别技术领域,具体涉及用于解决实体重叠与实体嵌套的多任务学习方法及系统。
背景技术
随着现代社会的数字化发展要求,将非结构化数据转化为结构化数据已经成了一个迫切的需求,其中最为关键的技术就是信息抽取。通常来说,信息抽取包含关系抽取,事件抽取,命名实体识别等任务,其目的是将非结构化数据转化为结构化数据。命名实体识别任务可以识别已知文本中含有独特含义的实体,关系抽取得到的是实体之间的关系,而事件抽取是在给定事件类型与事件实体要素的基础上,抽取用户感兴趣的事件。其中,命名实体识别任务是其他信息抽取任务的基石,该任务的效果直接或者间接影响其他信息抽取任务。其应用领域较广,包括军事、法律、医学等。总之,存在非结构化文本信息的领域,就存在使用命名实体识别技术抽取结构化数据的需求。
当前,命名实体识别任务的主流方法是编码器-解码器框架,其中,编码器使用主流的CNN、LSTM、BERT家族等一系列深度学习模型,使用指针网络、CRF(Conditional RandomFields, 条件随机域)等作为解码器结构的主要组成部分。但是,采用上述方法存在如下问题:
1.实体重叠问题,如“XXX”既是A标签也是B标签,有两种方法解决该问题,第一种就是使用多标签对单个字进行分类,但是这样的效果会使得计算量成指数级上升,从而导致训练资源占用更高,推理时间更长;第二种就是新增一个标签,加入原有标签体系,这也会带来一个新的问题,即最终通过规则分离新增标签,可能降低模型识别准确率。
2.实体嵌套问题,如“XXXYYY”整个为A标签,其中“XXX”为B标签,解决方案通常有两种,第一种方案也是使用多标签对单个字进行分类,这也将导致同样的问题,即训练与推理的时间延长,消耗资源较较高;第二种方案是将嵌套标签分离,即将A,B两个标签置于不同模型中训练,训练过程A,B彼此不可见,推理时将二者合并,当然,这样做也存在问题,举一个比较极端的例子:“XXXYYYZZZ”整体为标签A,“XXXYYY”为标签B,“YYYZZZ”为标签C,那就必须分离出三个模型,从而导致模型数量增多,训练成本升高,推理时间变长。
3.通常大多数实体识别任务需要大量的人工去设计任务,包括实体重叠任务中的标签合并,实体嵌套中的标签分离,都需要人工大量干预,如此,难以批量化处理相似任务,极大耗费了人力、物力、财力资源。
4.数据不均衡问题,是实体识别任务中普遍存在的问题,这将使得深度学习模型学习到的结果偏向于数据量更多的标签,通常的解决方案包括:
A.数据增强方式如随机增删数据,同音、同义词替换等,保证不同标签数量分布尽量接近。
B.使用对数据量不敏感的损失函数,如Focal loss 或者 Dice loss等。
当前,也存在一些采用多任务学习去提升模型推理效果,削减模型占用空间。关键的问题是多个解码器如何有效的向着梯度下降的方向学习,而损失函数作为其中不可或缺的一部分,如何构建一个高效的损失函数来整合不同的子任务也尤为关键。
为了解决实体嵌套与实体重叠的问题,当前使用的多个单任务设计框架与多任务学习框架设计通常如图1和图2所示:
图1所示的模型结构中,每一个子任务需要单独设计一个模型进行训练、推理,这样的模型设计虽然可以取得较为理想的效果,但显而易见的是,词表示层与网络特征提取层严重冗余导致以上模型参数重复量极大。
图2所示的模型框架,解决了上诉参数冗余的问题,但是一个新的问题是,不同任务之间的关联性如何有效利用起来,此外损失函数的设计,以及优化器的选择都成为了限制该框架的主要因素。
结合上述内容描述,多任务本质上是将编解码器模型进行改造,使不同的任务得以共享编码器,同时在关联性任务中,可以更加有效更新模型参数,以求得到泛化性能更强的模型。但是当前的多任务学习模型存在如下问题:
1.需要大量的人工设计,针对不同的任务及情况,需要对模型,标签进行特殊的处理以及针对性设计,例如“XXXYYYZZZ”整体为标签A,“XXXYYY”为标签B,“YYYZZZ”为标签C,至少需要设计三个解码器,同时还需要分析除此之外的标签,把具有相似特征的标签进行合并,置于同一解码器中,剩下的标签以此类推,这将极大的消耗人力资源。
2.关联性子任务进行更加有效交互,而不是产生“排斥反应”降低模型泛化性能。这也是当前多任务学习的一个问题所在,由于模型在学习过程中,通过计算梯度,确定参数如何更新,如果两个子任务关联性较强,那么其梯度的方向就有可能反向变化,这将造成模型只能找到梯度下降更快子任务的一个局部最优值,而非真正达到了帕累托稳定点。
3.损失函数设计困难,由于多个子任务之间可能存在显著差异,每个子任务的损失通常通过如下方法计算得到:
a.采用子任务损失加权求和的方式,通常对于相近子任务是可行的,但对差异较 大的子任务,损失减小的差异较大,即使采用固定的参数也是不可行的,因为损失的差异会 逐渐增大,导致多任务退化为单任务,如下公式所示,其中,
Figure 451309DEST_PATH_IMAGE001
为总的损失,
Figure 680034DEST_PATH_IMAGE002
表示每个子任 务的损失,
Figure 335138DEST_PATH_IMAGE003
为每个损失的系数,(
Figure 573090DEST_PATH_IMAGE004
)为子任务id:
Figure 184200DEST_PATH_IMAGE005
b.使用网络调参的方式,调整不同损失系数。但是这样耗费的时间成本也是巨大的,且对于梯度方向不同的子任务上效果极差。
在深度学习模型框架中,优化器的选择也是尤为重要的,就是在深度学习反向传播过程中,指引损失函数的各个参数往正确的方向更新合适的大小,使得损失函数值不断逼近全局最小。选择合适的优化器可以有效缓解损失函数设计的困难程度。
因此,设计一种模型抽取精度高,效果好,能够降低现有命名实体任务设计难度,提升工作效率的用于解决实体重叠与实体嵌套的多任务学习方法及系统,就显得十分重要。
发明内容
本发明是为了克服现有技术中,现有解决命名实体识别任务中实体重叠、实体嵌套问题的多任务学习模型,存在人工设计难度大、精度低、效果差,进而导致工作效率低下的问题,提供了一种模型抽取精度高,效果好,能够降低现有命名实体任务设计难度,提升工作效率的用于解决实体重叠与实体嵌套的多任务学习方法及系统。
为了达到上述发明目的,本发明采用以下技术方案:
用于解决实体重叠与实体嵌套的多任务学习方法,包括如下步骤;
S1,构造多任务通用数据集,并对所述多任务通用数据集进行预处理;
S2,设计通用型多任务学习模型,并根据预处理后的多任务通用数据集进行训练;
S3,引入优化器PCGrad,对具有负影响的梯度进行纠偏,对通用型多任务学习模型进行参数优化;
S4,引入损失函数,并用于计算通用型多任务学习模型在整个前向传播过程中总的损失;
S5,将优化后的通用型多任务学习模型,用于实际数据预测,最终合并所有预测结果作为最终结果。
作为优选,步骤S1中所述预处理过程为将多任务通用数据集处理为单标签数据集,即每条数据只保留互不重复的一类标签,保证不同标签在不同子任务中互不可见。
作为优选,步骤S2中所述通用型多任务学习模型采用编码器-解码器网络架构;
编码阶段,使用预训练模型RoBerta对初始特征进行共享编码;再通过卷积层CONV分离每个子任务内部参数,区分每个子任务内部的差异性信息;在整个编码阶段,全体参数共享;
解码阶段,使用不同的分类器区分每个子任务内部类别,最终得到每个子任务的标注结果;其中,每个分类器均包括全连接层和Softmax层。
作为优选,步骤S3包括如下步骤:
S31,设定两个不同的任务梯度分别为
Figure 819712DEST_PATH_IMAGE006
,其中
Figure 726225DEST_PATH_IMAGE007
,计算两个不同的任务 梯度之间的余弦相似度
Figure 987442DEST_PATH_IMAGE008
,计算公式如下所示:
Figure 203791DEST_PATH_IMAGE009
其中,
Figure 790630DEST_PATH_IMAGE010
Figure 381843DEST_PATH_IMAGE011
表示向量模长;
S32,若得到的余弦相似度为负,则向两个任务梯度中的另一个任务梯度的法向量方向做投影,将得到的新梯度替换原来的梯度,具体计算公式如下所示:
Figure 259801DEST_PATH_IMAGE012
若得到的余弦相似度不为负值,则不做任何操作;
S33,循环步骤S31和步骤S32,得到一组新的梯度;
S34,最后将新的梯度与普通的优化器结合,更新通用型多任务学习模型参数。
作为优选,步骤S4包括如下步骤:
S41,将整个通用型多任务学习模型前向传播中,得到的损失计作L,通过如下方式计算得出:
Figure 625929DEST_PATH_IMAGE013
Figure 852511DEST_PATH_IMAGE014
其中,L为最终损失,
Figure 172765DEST_PATH_IMAGE015
为梯度模长;
Figure 821790DEST_PATH_IMAGE016
表示第
Figure 809468DEST_PATH_IMAGE017
个子任务的损失,其中,
Figure 738110DEST_PATH_IMAGE018
为通用型多任务学习模型最后一层激 活函数计算得出的对应标签的概率;
Figure 513037DEST_PATH_IMAGE019
为样本
Figure 201638DEST_PATH_IMAGE020
的标签,即数据特征化时,对应的id值,范围 为[0…N],N为单个任务的标签总数;
Figure 496354DEST_PATH_IMAGE021
为平滑系数,用于防止分母为零以及平滑loss与梯 度,是一个超参数,设置为1。
作为优选,步骤S5包括如下步骤:
S51,对待预测数据进行id化,生成数据矩阵,并输入通用型多任务学习模型;
S52,所述数据矩阵经过预训练模型层,充分进行数据编码,并进行共性特征抽取,生成一个共性编码特征矩阵;
S53,卷积层CONV对上一层得到的共性编码特征矩阵进行局部特征抽取,强化每个子任务的个性特征,得到整体编码层的编码矩阵;
S54,解码阶段,不同的子任务分类器,使用全连接层将分布式特征表示映射到当前子任务标签集中,再通过Softmax层对每个单字进行分类,解码后得到每个分类器的分类结果,最终合并所有预测结果作为最终结果。
本发明还提供了用于解决实体重叠与实体嵌套的多任务学习系统,包括;
数据构造与预处理模块,用于构造多任务通用数据集,并对所述多任务通用数据集进行预处理;
模型构建模块,用于设计通用型多任务学习模型,并根据预处理后的多任务通用数据集进行训练;
优化器引入模块,用于引入优化器PCGrad,对具有负影响的梯度进行纠偏,对通用型多任务学习模型进行参数优化;
损失函数引入模块,用于引入损失函数,并用于计算通用型多任务学习模型在整个前向传播过程中总的损失;
预测模块,用于将优化后的通用型多任务学习模型,用于实际数据预测,最终合并所有预测结果作为最终结果。
本发明与现有技术相比,有益效果是:(1)本发明设计了一个通用型多任务学习模型,旨在解决命名实体识别任务中普遍存在的实体重叠与实体嵌套问题,降低人工设计命名实体识别任务的难度,从而提升工作效率,为企业提高经济效益;(2)本发明对模型架构进行了针对性设计,在预训练模型层,通过选择不同预训练模型,可以对不同任务类型进行适应性调整,底层更突出共性特征,编码器的上层使用卷积层,更加强调个性特征的抽取,主要是为其后不同的子任务设计的;不同子任务的分类器,起到了标签隔离的作用,有效解决了实体嵌套与实体重叠的问题,提升了模型抽取精度与速度;(3)本发明为了解决不同子任务梯度方向不一致的问题,应用PCGrad的方式,对具有负影响的梯度进行纠偏,使整个模型参数朝着全局最优化方向更新,每个子任务向着统一方向学习尤为重要;(3)本发明的通用型多任务学习模型中,由于比一般的多任务具有更多的标签,更丰富的解码器,也就意味着有更多的损失需要整合;通过使用梯度模长作为每个损失整合的系数,利用其动态更新的优势,进行总体损失的计算,极大的优化了模型耗时及预测精度;(4)本发明方法有效解决了命名实体识别中普遍存在的实体重叠与实体嵌套问题,既提升了模型预测准确率,同时也提升了预测效率,拥有耗时少同时预测结果对用户极其友好的益处,本发明是一种因素更多样,考虑更全面,设计更合理,效率更高的通用型命名实体识别方案。
附图说明
图1为现有技术中多个单任务学习模型设计的一种框架图;
图2为现有技术中多任务学习模型设计的一种框架图;
图3为本发明中通用型多任务学习模型的一种框架图;
图4为本发明实施例所提供的用于解决实体重叠与实体嵌套的多任务学习的一种实际业务流程图。
具体实施方式
为了更清楚地说明本发明实施例,下面将对照附图说明本发明的具体实施方式。显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图,并获得其他的实施方式。
实施例:
本发明提供了用于解决实体重叠与实体嵌套的多任务学习方法,包括如下步骤;
S1,构造多任务通用数据集,并对所述多任务通用数据集进行预处理;
S2,设计通用型多任务学习模型,并根据预处理后的多任务通用数据集进行训练;
S3,引入优化器PCGrad,对具有负影响的梯度进行纠偏,对通用型多任务学习模型进行参数优化;
S4,引入损失函数,并用于计算通用型多任务学习模型在整个前向传播过程中总的损失;
S5,将优化后的通用型多任务学习模型,用于实际数据预测,最终合并所有预测结果作为最终结果。
步骤S1中,构造了一个多任务通用数据集,极大的减少了算法人员后续的重复性 设计工作;此外,数据预处理阶段,为了解决实体重叠与实体嵌套问题,将数据处理为单标 签数据集,目的是将重叠以及嵌套实体置于互不相交的标签集合之中,为了叙述方便,这里 假设只有集合
Figure 851024DEST_PATH_IMAGE022
Figure 411449DEST_PATH_IMAGE023
,以及全体标签集合
Figure 153009DEST_PATH_IMAGE024
,其中:
Figure 551498DEST_PATH_IMAGE025
Figure 838254DEST_PATH_IMAGE026
为嵌套实体,
Figure 135243DEST_PATH_IMAGE027
为重叠实体,则每 一条数据可以根据上述规则进行处理。对于数据<text, labels>,text为数据文本内容,其 中labels=[a,b,c,d,e],则数据集中会生成两条数据,分别为<text,[a,c]>,<text, [b,d, e]>。
如图3所示,步骤S2中通用型多任务学习模型采用编码器-解码器网络架构;
采用编码器-解码器网络架构,在编码阶段为了信息的充分交互,使用预训练模型(RoBerta)对初始特征进行共享编码;之后通过卷积层(CONV)分离每个子任务内部参数,区分每个子任务内部的差异性信息。在整个编码阶段,全体参数共享。
解码阶段,不同的分类器有助于区分每个子任务内部类别,每个分类器均包括全连接层,Softmax层,经过上述操作得到每个子任务的标注结果。
图3中,RoBerta预训练模型层:该框架使用预训练模型(以RoBerta为例)作为特征交互层,有利于输入的文本特征之间充分交互,对于关联性任务的共性特征提取意义重大。图3 中的CLS表示有N个分类器,CONV表示卷积网络层,FC表示神经网络全连接层,使用Softmax作为全连接层激活函数,编码阶段的CLS为RoBerta编码格式总的分类标记,E[CLS]为相应的向量表示。
CONV卷积层:经过卷积层分离不同的子任务,强化不同子任务的个性特征,有利于不同子任务内部的局部特征交互,其特殊意义在于使用卷积核加深网络深度与复杂度,从而达到子任务特征充分交互的目的。
CLS分类器:表示每一个任务对应的标签及分类器,通过全连接层将分布式特征表示映射到当前子任务标签集中,之后通过Softmax层对每个单字进行分类,同时每个分类器独立运行、互不干扰,且同步计算,进一步解决了抽取耗时问题。
步骤S3包括如下步骤:
S31,设定两个不同的任务梯度分别为
Figure 398603DEST_PATH_IMAGE006
,其中
Figure 684222DEST_PATH_IMAGE007
,计算两个不同的任务梯 度之间的余弦相似度
Figure 125568DEST_PATH_IMAGE008
,计算公式如下所示:
Figure 96804DEST_PATH_IMAGE009
其中,
Figure 930899DEST_PATH_IMAGE010
Figure 54712DEST_PATH_IMAGE011
表示向量模长;
S32,若得到的余弦相似度为负,则向两个任务梯度中的另一个任务梯度的法向量方向做投影,将得到的新梯度替换原来的梯度,具体计算公式如下所示:
Figure 996122DEST_PATH_IMAGE012
若得到的余弦相似度不为负值,则不做任何操作;
S33,循环步骤S31和步骤S32,得到一组新的梯度;
S34,最后将新的梯度与普通的优化器结合,更新通用型多任务学习模型参数。
对于步骤S3的优化器设计,由于前向传播中梯度的计算直接影响后续模型参数的优化,不同子任务可能存在梯度方向不一致,梯度互相干扰的问题,导致参数更新偏向于主任务,最终结果是模型只学习到了其中一个或者几个较为主要的任务。为了解决该问题,应用了一个可以缓解相互干扰的子任务梯度的优化器PCGrad,该优化器的目的是在保证不引入新问题的基础上,解决不同任务梯度之间的相互干扰问题,从而最小化不同任务梯度之间的影响。
步骤S4包括如下步骤:
S41,将整个通用型多任务学习模型前向传播中,得到的损失计作L,通过如下方式计算得出:
Figure 956119DEST_PATH_IMAGE013
Figure 577593DEST_PATH_IMAGE014
其中,L为最终损失,
Figure 805181DEST_PATH_IMAGE015
为梯度模长;
Figure 870220DEST_PATH_IMAGE016
表示第
Figure 363518DEST_PATH_IMAGE017
个子任务的损失,其中,
Figure 772372DEST_PATH_IMAGE018
为模型最后一层激活函数(通常使用 Softmax)计算得出的对应标签的概率,
Figure 355931DEST_PATH_IMAGE019
为样本
Figure 841139DEST_PATH_IMAGE020
的标签(数据特征化时,对应的id值,范围 为[0…N],N为单个任务的标签总数);
Figure 805422DEST_PATH_IMAGE021
为平滑系数,用于防止分母为零以及平滑loss与梯 度,是一个超参数,通常设置为1。
步骤S5包括如下步骤:
S51,对待预测数据进行id化,生成数据矩阵,并输入通用型多任务学习模型;
S52,所述数据矩阵经过预训练模型层,充分进行数据编码,并进行共性特征抽取,生成一个共性编码特征矩阵;
S53,卷积层CONV对上一层得到的共性编码特征矩阵进行局部特征抽取,强化每个子任务的个性特征,得到整体编码层的编码矩阵;
S54,解码阶段,不同的子任务分类器,使用全连接层将分布式特征表示映射到当前子任务标签集中,再通过Softmax层对每个单字进行分类,解码后得到每个分类器的分类结果,最终合并所有预测结果作为最终结果。
本发明还提供了用于解决实体重叠与实体嵌套的多任务学习系统,包括;
数据构造与预处理模块,用于构造多任务通用数据集,并对所述多任务通用数据集进行预处理;
模型构建模块,用于设计通用型多任务学习模型,并根据预处理后的多任务通用数据集进行训练;
优化器引入模块,用于引入优化器PCGrad,对具有负影响的梯度进行纠偏,对通用型多任务学习模型进行参数优化;
损失函数引入模块,用于引入损失函数,并用于计算通用型多任务学习模型在整个前向传播过程中总的损失;
预测模块,用于将优化后的通用型多任务学习模型,用于实际数据预测,最终合并所有预测结果作为最终结果。
基于本发明的技术方案,如图4所示,展示了本发明方案在具体实施和操作过程中的一个典型业务流程:
1.对于一个命名实体识别任务,进行多任务数据预处理,包括长句切分,实体位置 修正,噪声去除等工作,进行单条数据的单标签分离及任务分离,如下例所示,这里假设只 有集合
Figure 785010DEST_PATH_IMAGE022
Figure 789787DEST_PATH_IMAGE023
,以及全体标签集合
Figure 931050DEST_PATH_IMAGE024
,其中:
Figure 133361DEST_PATH_IMAGE025
Figure 149596DEST_PATH_IMAGE026
为嵌套实体,
Figure 973327DEST_PATH_IMAGE027
为重叠实体,则每一条数据可以根据上述规则进行处理。对于数据< text, [a,b,c,d,e]>,其中text为数据文本内容,则数据集中会生成两条数据,分别为< text,[a,c]>,<text, [b,d,e]>
2.通用型多任务学习框架训练阶段,以<text,[a,c]>,<text, [b,d,e]>数据为例:
a.对数据及标签分别进行id化,合成数据矩阵,待输入模型,这里以示例数据为 例,得到数据矩阵中的两行,保证了每条数据对应的标签之间互不重叠互不嵌套,每一个位 置的id表示唯一标签;具体如下所示,其中
Figure 800337DEST_PATH_IMAGE028
符号表示取字符在词表中数据id,
Figure 942475DEST_PATH_IMAGE029
放在数据开头,表示任务是一个分类任务,
Figure 998286DEST_PATH_IMAGE030
用于分割给定的文本与标签id:
Figure 925791DEST_PATH_IMAGE031
b.经过预训练模型层(RoBERTa)数据编码,共性特征抽取,得到一个共性编码特征 矩阵,矩阵内部经过模型进行了大量计算,用符号表示为矩阵
Figure 172971DEST_PATH_IMAGE032
c.卷积层的进一步编码,对上一层数据的特征矩阵进行局部特征抽取,强化每个 子任务的个性特征,得到整体编码层的编码矩阵,同样地,由于矩阵内部经过卷积运算已经 发生巨大改变,故用符号表示为矩阵
Figure 100607DEST_PATH_IMAGE033
d.解码阶段,不同的子任务分类器,使用全连接层将分布式特征表示映射到当前 子任务标签集中,之后通过Softmax层对每个单字进行分类,通过PCGrad优化器进行参数优 化,利用定义好的损失函数进行损失计算,按照最小化该损失函数的方向进行反向传播更 新参数,具体地,有两个子任务A与B,需要更新的参数为
Figure 147060DEST_PATH_IMAGE034
,在模型前向计算过程中可以得 到对应的梯度
Figure 234796DEST_PATH_IMAGE035
Figure 341293DEST_PATH_IMAGE036
,通过PCGrad计算得到
Figure 756224DEST_PATH_IMAGE037
,更新参数
Figure 121216DEST_PATH_IMAGE038
,得到的参 数即为当前最优参数权重,会将原始输入标签与Softmax输出的结果比较,理想情况下,应 与原始数据一致,可以得到:
Figure 820050DEST_PATH_IMAGE039
3.通用型多任务学习框架推理预测阶段,以<text, [a,c,f]>,<text, [b,d]>数据为例:
a.对待预测数据进行id化,生成数据矩阵,待输入模型,这里以示例数据为例,得 到数据矩阵中的两行,保证了每条数据对应的标签之间互不重叠互不嵌套,每一个位置的 id表示唯一标签;具体如下所示,其中
Figure 848180DEST_PATH_IMAGE028
符号表示取字符在词表中数据id ,
Figure 248943DEST_PATH_IMAGE041
表示 对整个text中每个字取id,
Figure 699516DEST_PATH_IMAGE043
放在数据开头,表示任务是一个分类任务,
Figure 738011DEST_PATH_IMAGE030
用于 分割给定的文本与标签id,由于该过程为预测推理过程,标签id取0,表示初始化的空标签:
Figure 435577DEST_PATH_IMAGE044
b.经过预训练模型层充分进行数据编码,共性特征抽取,生成一个共性编码特征 矩阵,矩阵内部经过模型进行了大量计算,用符号表示为矩阵
Figure 339948DEST_PATH_IMAGE032
c.卷积层的进一步编码,对上一层数据的特征矩阵进行局部特征抽取,强化每个 子任务的个性特征,得到整体编码层的编码矩阵,同样地,由于矩阵内部经过卷积运算已经 发生巨大改变,故用符号表示为矩阵
Figure 282627DEST_PATH_IMAGE033
d.解码阶段,不同的子任务分类器,使用全连接层将分布式特征表示映射到全体标签集合中,之后通过Softmax层对每个单字进行分类,解码后得到每个分类器的分类结果,最终合并所有预测结果作为最终结果,以原始示例为例,理想情况下,应与原始标签id化结果一致,可以得到如下结果:
Figure 893737DEST_PATH_IMAGE045
将id还原之后,可以得到<text, [a,c,f]>,<text, [b,d]>,合并之后得到<text, [a,b,c,d,f]>
图4中,缩写CONV表示卷积网络层,RoBERTa为预训练模型,选用PCGrad作为优化器更新网络参数。
本发明的创新点如下:
1.本发明设计了一个通用型多任务学习模型,解决了命名实体识别任务中普遍存在的实体重叠与实体嵌套问题,降低了人工设计命名实体识别任务的难度,节省了命名实体识别人力资源,极大提升了工作效率,提升了模型预测精度。
2.通用型多任务学习还存在一个较为显著的问题就是梯度之间可能存在减小方向不一致,甚至是完全相反的问题,因此本发明使用PCGrad方式对不同梯度进行检测,如梯度相反,则对其在另一梯度的法向量上进行投影计算。
3.由于通用型多任务学习中不同子任务之间的损失可能会有多个数据级的差异,导致每个子任务在总的损失中比重差异明显。因而根据梯度更新的特点本发明设计了损失函数用于计算总的损失。
综上,本发明方法设计了一套通用型多任务网络学习框架,不仅大大解放了生产力,提升了工作效率,同时解决了命名实体中极为常见的实体重叠与实体嵌套的问题,本发明是一种因素更多样,考虑更全面,设计更合理,效率更优化且通用型多任务命名实体识别方案。
以上所述仅是对本发明的优选实施例及原理进行了详细说明,对本领域的普通技术人员而言,依据本发明提供的思想,在具体实施方式上会有改变之处,而这些改变也应视为本发明的保护范围。

Claims (5)

1.用于解决实体重叠与实体嵌套的多任务学习方法,其特征在于,包括如下步骤;
S1,构造多任务通用数据集,并对所述多任务通用数据集进行预处理;
S2,设计通用型多任务学习模型,并根据预处理后的多任务通用数据集进行训练;
S3,引入优化器PCGrad,对具有负影响的梯度进行纠偏,对通用型多任务学习模型进行参数优化;
S4,引入损失函数,并用于计算通用型多任务学习模型在整个前向传播过程中总的损失;
S5,将优化后的通用型多任务学习模型,用于实际数据预测,最终合并所有预测结果作为最终结果;
步骤S2中所述通用型多任务学习模型采用编码器-解码器网络架构;
编码阶段,使用预训练模型RoBerta对初始特征进行共享编码;再通过卷积层CONV分离每个子任务内部参数,区分每个子任务内部的差异性信息;在整个编码阶段,全体参数共享;
解码阶段,使用不同的分类器区分每个子任务内部类别,最终得到每个子任务的标注结果;其中,每个分类器均包括全连接层和Softmax层;
步骤S4包括如下步骤:
S41,将整个通用型多任务学习模型前向传播中,得到的损失计作L,通过如下方式计算得出:
Figure FDA0004212319480000021
Figure FDA0004212319480000022
其中,L为最终损失,
Figure FDA0004212319480000023
为梯度模长;
Figure FDA0004212319480000024
表示第i∈[1,n]个子任务的损失,其中,pi为通用型多任务学习模型最后一层激活函数计算得出的对应标签的概率;yi为样本i的标签,即数据特征化时,对应的id值,范围为[0…N],N为单个任务的标签总数;γ为平滑系数,用于防止分母为零以及平滑loss与梯度,是一个超参数,设置为1。
2.根据权利要求1所述的用于解决实体重叠与实体嵌套的多任务学习方法,其特征在于,步骤S1中所述预处理过程为将多任务通用数据集处理为单标签数据集,即每条数据只保留互不重复的一类标签,保证不同标签在不同子任务中互不可见。
3.根据权利要求1所述的用于解决实体重叠与实体嵌套的多任务学习方法,其特征在于,步骤S3包括如下步骤:
S31,设定两个不同的任务梯度分别为gi,gj,其中gj≠gi,计算两个不同的任务梯度之间的余弦相似度consine similarity,计算公式如下所示:
Figure FDA0004212319480000025
其中,‖gi‖,‖gj‖表示向量模长;
S32,若得到的余弦相似度为负,则向两个任务梯度中的另一个任务梯度的法向量方向做投影,将得到的新梯度替换原来的梯度,具体计算公式如下所示:
Figure FDA0004212319480000026
若得到的余弦相似度不为负值,则不做任何操作;
S33,循环步骤S31和步骤S32,得到一组新的梯度;
S34,最后将新的梯度与普通的优化器结合,更新通用型多任务学习模型参数。
4.根据权利要求1所述的用于解决实体重叠与实体嵌套的多任务学习方法,其特征在于,步骤S5包括如下步骤:
S51,对待预测数据进行id化,生成数据矩阵,并输入通用型多任务学习模型;
S52,所述数据矩阵经过预训练模型层,充分进行数据编码,并进行共性特征抽取,生成一个共性编码特征矩阵;
S53,卷积层CONV对上一层得到的共性编码特征矩阵进行局部特征抽取,强化每个子任务的个性特征,得到整体编码层的编码矩阵;
S54,解码阶段,不同的子任务分类器,使用全连接层将分布式特征表示映射到当前子任务标签集中,再通过Softmax层对每个单字进行分类,解码后得到每个分类器的分类结果,最终合并所有预测结果作为最终结果。
5.用于解决实体重叠与实体嵌套的多任务学习系统,用于实现权利要求1-4任一项所述的用于解决实体重叠与实体嵌套的多任务学习方法,其特征在于,所述用于解决实体重叠与实体嵌套的多任务学习系统包括;
数据构造与预处理模块,用于构造多任务通用数据集,并对所述多任务通用数据集进行预处理;
模型构建模块,用于设计通用型多任务学习模型,并根据预处理后的多任务通用数据集进行训练;
优化器引入模块,用于引入优化器PCGrad,对具有负影响的梯度进行纠偏,对通用型多任务学习模型进行参数优化;
损失函数引入模块,用于引入损失函数,并用于计算通用型多任务学习模型在整个前向传播过程中总的损失;
预测模块,用于将优化后的通用型多任务学习模型,用于实际数据预测,最终合并所有预测结果作为最终结果。
CN202310029462.5A 2023-01-09 2023-01-09 用于解决实体重叠与实体嵌套的多任务学习方法及系统 Active CN115994537B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310029462.5A CN115994537B (zh) 2023-01-09 2023-01-09 用于解决实体重叠与实体嵌套的多任务学习方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310029462.5A CN115994537B (zh) 2023-01-09 2023-01-09 用于解决实体重叠与实体嵌套的多任务学习方法及系统

Publications (2)

Publication Number Publication Date
CN115994537A CN115994537A (zh) 2023-04-21
CN115994537B true CN115994537B (zh) 2023-06-20

Family

ID=85990018

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310029462.5A Active CN115994537B (zh) 2023-01-09 2023-01-09 用于解决实体重叠与实体嵌套的多任务学习方法及系统

Country Status (1)

Country Link
CN (1) CN115994537B (zh)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114881032A (zh) * 2022-04-28 2022-08-09 北京计算机技术及应用研究所 基于多任务学习的层次类别命名实体识别模型设计方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170235796A1 (en) * 2016-02-16 2017-08-17 Taleris Global Llp Interrelation of Multiple Data Streams
CN108108657B (zh) * 2017-11-16 2020-10-30 浙江工业大学 基于多任务深度学习的修正局部敏感哈希车辆检索方法
WO2022036616A1 (zh) * 2020-08-20 2022-02-24 中山大学 一种基于低标注资源生成可推理问题的方法和装置
CN114048749B (zh) * 2021-11-19 2024-02-02 北京第一因科技有限公司 一种适用于多领域的中文命名实体识别方法
CN114821315B (zh) * 2022-04-24 2024-06-07 福州大学 结合边缘检测和多任务学习的遥感影像耕地地块提取方法
CN115017908A (zh) * 2022-06-09 2022-09-06 北京邮电大学 一种命名实体识别方法及系统

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114881032A (zh) * 2022-04-28 2022-08-09 北京计算机技术及应用研究所 基于多任务学习的层次类别命名实体识别模型设计方法

Also Published As

Publication number Publication date
CN115994537A (zh) 2023-04-21

Similar Documents

Publication Publication Date Title
CN109902145B (zh) 一种基于注意力机制的实体关系联合抽取方法和系统
US8645291B2 (en) Encoding of data for processing in a spatial and temporal memory system
US8825565B2 (en) Assessing performance in a spatial and temporal memory system
CN110196980A (zh) 一种基于卷积网络在中文分词任务上的领域迁移
Tian et al. A survey on few-shot class-incremental learning
CN111666406A (zh) 基于自注意力的单词和标签联合的短文本分类预测方法
Chen et al. A few-shot transfer learning approach using text-label embedding with legal attributes for law article prediction
CN112364656A (zh) 一种基于多数据集多标签联合训练的命名实体识别方法
CN112597766A (zh) 一种基于BERT-base网络的带噪半监督文本分类方法
CN112101031A (zh) 一种实体识别方法、终端设备及存储介质
CN116594748A (zh) 针对任务的模型定制处理方法、装置、设备和介质
Bibi et al. Class association and attribute relevancy based imputation algorithm to reduce twitter data for optimal sentiment analysis
CN112699685A (zh) 基于标签引导的字词融合的命名实体识别方法
CN116663540A (zh) 基于小样本的金融事件抽取方法
CN117034921B (zh) 一种基于用户数据的提示学习训练方法、装置和介质
CN115994537B (zh) 用于解决实体重叠与实体嵌套的多任务学习方法及系统
CN116757773A (zh) 服装电子商务销售管理系统及其方法
CN111259673A (zh) 一种基于反馈序列多任务学习的法律判决预测方法及系统
CN116029793A (zh) 商品推荐方法及其装置、设备、介质
CN113435190B (zh) 一种融合多层次信息抽取和降噪的篇章关系抽取方法
CN114241380A (zh) 一种基于类别标签和属性注释的多任务属性场景识别方法
CN111582945A (zh) 一种基于复杂网络的金融市场预测方法
CN111104478A (zh) 一种领域概念语义漂移探究方法
CN115409135B (zh) 一种网络业务文档的分类管理方法
CN115510873A (zh) 一种文本意图识别方法、装置、设备和介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant