CN115409011A - 一种基于动态提示学习的小样本嵌套关系抽取方法 - Google Patents

一种基于动态提示学习的小样本嵌套关系抽取方法 Download PDF

Info

Publication number
CN115409011A
CN115409011A CN202211047628.8A CN202211047628A CN115409011A CN 115409011 A CN115409011 A CN 115409011A CN 202211047628 A CN202211047628 A CN 202211047628A CN 115409011 A CN115409011 A CN 115409011A
Authority
CN
China
Prior art keywords
relation
prompt
nesting
task
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211047628.8A
Other languages
English (en)
Inventor
麦丞程
王宇翔
陈宇
黄宜华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University
Original Assignee
Nanjing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University filed Critical Nanjing University
Priority to CN202211047628.8A priority Critical patent/CN115409011A/zh
Publication of CN115409011A publication Critical patent/CN115409011A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/186Templates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种基于动态提示学习的小样本嵌套关系抽取方法,包括以下步骤:给定嵌套关系任务的原输入句子;经过Prompt模板转换函数得到Prompt输入语句;再输入到预训练语言模型,通过预训练语言模型在语句中的掩码位置预测出标签词;将预测出的标签词转化为对应的嵌套关系任务关系类型标签;迭代地使用Prompt模版将原任务输入句子与每层嵌套关系转化为Prompt输入句子并进行迭代式预测,最终得到所有层次的嵌套关系。本发明通过将嵌套关系抽取任务转化为掩码语言模型任务,充分发挥预训练模型和提示学习在小样本场景下的有效性,提升模型在小样本场景下的嵌套关系抽取准确性。

Description

一种基于动态提示学习的小样本嵌套关系抽取方法
技术领域
本发明属于人工智能和自然语言处理领域,涉及一种基于动态提示学习的小样本嵌套关系抽取方法。
背景技术
随着互联网的高速发展,网络上每天都会产生大量非结构化的数字文本,例如新闻文章、电子邮件、社交媒体、政府文件等。如何帮助人类理解所有这些数据?一种流行的想法是通过注释语义信息将非结构化文本转换为结构化文本。然而,数据的绝对量和异构性使得人工注释变得不可能。相反,我们希望有一台计算机用我们感兴趣的结构注释所有数据。通常,我们对实体(人,组织,位置等)之间的关系(个人归属,组织结构等)感兴趣。当前最先进的命名实体识别(NER)模型,可以高精度地自动标记数据。然而,整个关系提取过程并不是一项简单的任务。为了做出正确的注释,计算机需要知道如何识别具有感兴趣语义属性的文本。因此,提取自然语言文本中实体之间的语义关系是实现自然语言理解应用的关键步骤。关系抽取就是指识别非结构化文本中实体之间关系的任务,在构建知识图谱,知识库问答、对话生成与事实抽取等领域有着广泛应用。
关系抽取技术根据任务复杂性主要分为三种,由简单到复杂依次分别为:扁平关系抽取(Flat Relation),重叠关系抽取(Overlapping Relation)和嵌套关系抽取(NestedRelation)。
1)扁平关系抽取:该研究面向实体之间扁平结构的关系抽取,并且只需要抽取出句子中两个指定实体之间的关系。
2)重叠关系抽取:该研究面向实体之间扁平结构的关系抽取,并且在此基础上,需要抽取出句子中多个实体之间所有的关系三元组,即,一个实体可能出现在多个不同的关系三元组中。
3)嵌套关系抽取:该研究不仅面向实体之间的关系抽取,还面向关系三元组与实体、关系三元组之间构成的嵌套结构的关系抽取,需要抽取出句子中所有的嵌套关系三元组,即,需要抽取实体与实体之间、实体与关系之间以及关系与关系之间的关系三元组。
这三种关系抽取任务中,相同点是都研究需要抽取出实体之间的关系;不同点是嵌套关系抽取还需要抽取关系三元组与实体、关系三元组之间的嵌套关系。
现有关系抽取算法研究工作大多集中在扁平关系抽取与重叠关系抽取,只关注实体之间的关系。但是,在实际应用场景中,以嵌套结构形式呈现的关系信息更加常见,而现有的面向扁平结构的关系抽取算法不能解决嵌套关系抽取的问题。因此,嵌套关系抽取的研究开始受到广泛关注。
目前,嵌套关系抽取的相关研究还较少,并且嵌套关系抽取算法的准确性依赖于大量的、高质量的、人工标注的训练数据,这与缺少有标注语料的研究现状互相矛盾,所以,亟需提出一种面向小样本场景的嵌套关系抽取方法。因此,研究面向小样本领域的嵌套关系抽取具有广阔的应用场景与较高的研究价值。
发明内容
发明目的:本发明在现有研究的基础上,提出一种基于动态提示学习的小样本嵌套关系抽取方法,充分发挥预训练模型和提示学习在小样本场景下的有效性,提升模型在小样本场景下的嵌套关系抽取准确性。
技术方案:为实现上述发明目的,本发明提出一种基于动态提示学习的小样本嵌套关系抽取方法,包括以下步骤:
(1)提示模板设计,对嵌套关系任务原输入句子x按照Prompt模版设计进行相应转换,经过Prompt模版转换函数,得到Prompt输入语句x′;
(2)答案搜索,将Prompt输入语句x′输入到预训练语言模型对语句对应的单词序列进行编码,得到每个单词的词向量,然后在Prompt输入语句x′中的掩码位置预测出标签词集合中概率最高的标签词;
(3)答案映射,通过预训练语言模型在Prompt输入语句x′的掩码位置预测出最终的标签词之后,将预测出的标签词映射为对应的嵌套关系任务的关系类型标签;
(4)迭代抽取,逐层迭代地预测具有嵌套结构的关系三元组,并将当前层预测出的嵌套关系关系三元组用于下一层关系的预测,直到没有新的嵌套关系三元组产生。
进一步地,所述步骤(1)中,生成每层嵌套关系的候选左、右元素对;然后,使用Prompt模版转换函数将原始输入句子与每层候选左、右元素对结合,转换为Prompt输入语句。
进一步地,所述步骤(2)中,使用预训练语言模型对Prompt输入语句进行编码,根据掩码位置的编码词向量进行掩码预测,从标签词集合中选择预测概率最高的标签词,从而实现对每层嵌套关系候选左右元素对的关系类型分类。
进一步地,所述步骤(3)中,预训练语言模型根据转换后的Prompt输入语句x′在掩码位置预测出标签词,但是预测出的标签词与下游任务输出不完全一一对应,所以在预训练语言模型预测出标签词后,需要再次进行答案映射,将预测出的标签词映射为对应的嵌套关系任务的关系类型标签。
进一步地,所述步骤(4)中,嵌套关系抽取任务需要对每个原始输入句子迭代地进行嵌套关系抽取,在迭代过程中,因为每一层嵌套关系会产生新的关系三元组,所以每一层的Prompt输入语句也是各不相同的,需要迭代地根据每一层的嵌套关系三元组来生成新的Prompt输入语句,从而迭代地生成Prompt输入语句、答案搜索、答案映射。
有益效果:本发明能够有效解决嵌套关系抽取方法在小样本场景下嵌套关系抽取结果不准确的问题,充分发挥预训练模型和提示学习在小样本场景下的有效性,提升模型在小样本场景下的嵌套关系抽取准确性。第一,本发明通过将嵌套关系抽取任务转化为掩码语言模型任务形式,直接将下游任务转化为预训练任务的形式,能够有效地帮助预训练语言模型理解下游任务;第二,提出动态Prompt机制,将原来通过固定转换模版函数生成Prompt输入语句的方法进行改进,使用动态的模版转换函数生成Prompt输入语句,起到数据增强的作用,从而缓解原来Prompt模版带来的数据稀疏问题;第三,自底向上迭代地生成各层的嵌套关系候选三元组并完成表示与分类,直到没有新的嵌套关系三元组产生,因此能够全面准确地生成句子中的所有嵌套关系三元组。
附图说明
图1为本发明方法的整体框架图;
图2为本发明方法中基于Prompt的嵌套关系迭代过程图;
图3为本发明方法中特殊关系标识符使用示例图;
图4为本发明方法中动态Prompt机制示例图;
图5(a)为本发明方法中模型Promptauto的实验结果图,(b)本发明方法中模型Promptmanual的实验结果图。
具体实施方式
下面结合附图,进一步阐明本发明,应理解这些实施例仅用于说明本发明而不用于限制本发明的范围,在阅读了本发明之后,本领域技术人员对本发明的各种等价形式的修改均落于本申请所附权利要求所限定的范围。
本发明提出了一种基于动态提示学习的小样本嵌套关系抽取方法,解决了现有嵌套关系抽取方法在小样本场景下对嵌套关系识别准确性低的问题。如图1所示,本发明的完整流程包括提示模板设计阶段、答案搜索阶段、答案映射阶段、迭代抽取阶段4个部分。具体的实施方式说明如下:
提示模板设计阶段对应技术方案步骤(1)。具体实施方式为:给定嵌套关系任务的原输入句子x为:x={w1,w2,…,wn},表示x由n个单词组成,Prompt模版转换函数将输入句子x转换为Prompt输入语句x′,作为预训练语言模型的掩码语言模型任务输入形式。具体转换公式如下:
fpre(x)=[CLS]x[SEP]ri,ri∈S
其中,fpre(x)表示嵌套关系Prompt提示模版前缀函数;[CLS]与[SEP]都是预训练语言模型词表中的特殊单词,分别用来表示输入句子的起始标记与输入句子的分割标记;ri表示第i个嵌套关系三元组;S表示嵌套关系中已抽取出的关系三元组集合。
x′=fprompt1(x)=fpre(x)[Ell][MASK][Elr].[SEP]
=fpre(x)⊕<Ell,Elr>
其中,fprompt1(x)表示第一种嵌套关系Prompt输入模版转换函数;[Ell]与[Elr]分别表示候选嵌套关系元素对中的左元素与右元素,其具体内容取决于当前迭代抽取的层数;[MASK]是预训练语言模型的特殊单词,表示掩码语言模型需要预测的单词位置;⊕表示拼接符;<Ell,Elr>表示候选嵌套关系元素对。
x′=fprompt2(x)=fpre(x)[Ell]对[Elr]是[MASK]关系.[SEP]
=fpre(x)⊕<Ell,Elr>
其中,fprompt2(x)表示第二种嵌套关系Prompt输入模版转换函数。
考虑到Prompt输入模板设计方法具有多样性,不同任务对应不同的Prompt模版设计,相同任务也可以有多种Prompt输入模版设计,因此,本发明方法设计了2种Prompt输入模版fprompt1(·)与fprompt2(·),分别采用直接拼接与人工构造蕴含自然语义句子模版的方法:
1)fprompt1(·)是第一种Prompt转换模版函数,该函数直接将左元素内容[Ell]、特殊单词[MASK]和右元素内容[Elr]依次拼接到嵌套关系任务原输入句子x后面,形成Prompt输入语句。
2)fprompt2(·)是第二种Prompt转换模版函数,该函数将左元素内容[Ell]、“对”、右元素内容[Elr]、“是”、特殊单词[MASK]与“关系”依次拼接到嵌套关系任务原输入句子x后面,形成蕴含自然语义的Prompt输入语句。
答案搜索阶段对应技术方案步骤(2)。具体实施方式为:嵌套关系抽取任务的原输入句子x,经过Prompt模版转换函数后,得到Prompt输入语句x′,再输入到预训练语言模型,预训练语言模型在Prompt输入语句x′中单词[MASK]的位置预测出Prompt答案词。因为这些答案词与嵌套关系抽取中的关系类型标签相对应,所以,Prompt答案词也被称为标签词(label word)。
在本方法中,设计实现了两种标签词设计方法:
1)第一种标签词设计方法,记为Promptmanual,人工地选择自然语言单词作为标签词,使得本发明嵌套关系抽取任务中各个关系类型与其对应的标签词在自然语义上紧密相关。
2)第二种标签词设计方法,记为Promptauto,自动地选择预训练语言模型词表中的特殊单词[unused]作为标签词,使得本发明嵌套关系抽取任务中各个关系类型与这些标签词一一对应。
设嵌套关系抽取任务的关系类型集合为R={rt1,rt2,…,rtt},其中rti表示第i种关系类型,t是嵌套关系抽取任务中关系类型的总数量。每种关系类型rt都使用对应的关系类型标签yrt表示,并且每种关系类型标签yrt对应着Prompt模版的标签词集合
Figure BDA0003822025190000053
可使用如下公式表示映射函数:
Figure BDA0003822025190000054
其中,
Figure BDA0003822025190000055
表示关系类型标签yrt对应的标签词集合,是从预训练语言模型词表中选择的单词集合;fmap表示关系类型标签的映射函数,将关系类型标签yrt映射到对应的标签词集合
Figure BDA0003822025190000056
→表示函数映射符号。
因为每种嵌套关系类型标签都对应着Prompt标签词集合,所以嵌套关系抽取任务的所有Prompt标签词集合为:
Figure BDA0003822025190000051
其中,Vp表示嵌套关系抽取任务的所有Prompt标签词集合,即为所有关系类型标签对应的标签词集合的并集。
Prompt标签词的预测概率公式如下:
Figure BDA0003822025190000052
其中,h[MASK]表示预训练语言模型在单词[MASK]位置输出的隐层向量;Ww表示预训练语言模型可训练参数;P([MASK]=w|x′)表示预训练语言模型从Prompt输入语句x′中[MASK]位置预测出标签词w的概率。
该公式先计算每个标签词w的得分exp(Ww·h[MASK]),再进行归一化,得到每个标签词的预测概率。
通过以上公式计算出每个标签词的预测概率后,选择其中预测概率最大单词的作为最终预测标签词,具体预测公式表示为:
Figure BDA0003822025190000061
其中,argmax表示选择概率最大单词的函数,
Figure BDA0003822025190000062
表示模型最终作为标签词的单词。
答案映射阶段对应技术方案步骤(3)。具体实施方式为:预训练语言模型在Prompt输入语句x′中特殊单词[MASK]的对应位置预测出最终的标签词
Figure BDA0003822025190000063
之后,提示学习Prompt模版需要将该标签词
Figure BDA0003822025190000064
转化为对应的嵌套关系任务关系类型标签,对应的转化过程使用如下公式表示:
Figure BDA0003822025190000065
其中,
Figure BDA0003822025190000066
表示关系标签词的映射函数,将预训练语言模型预测出的最终标签词
Figure BDA0003822025190000067
映射为嵌套关系抽取任务中的关系类型标签yrt
迭代抽取阶段对应技术方案步骤(4)。具体实施方式为:一般的关系抽取任务或者文本分类任务只需要预测出输入句子所表达的实体之间关系或类别,属于单次预测任务。所以,为了将这类任务转化为预训练语言模型的掩码语言模型任务形式,只需要使用提示学习的Prompt模版直接将原任务输入句子转化为Prompt输入句子并且进行单次预测。
但是,嵌套关系抽取任务为了抽取输入句子中的嵌套关系,需要逐层迭代地预测具有嵌套结构的关系三元组,并且需要将当前层预测出的嵌套关系关系三元组用于下一层关系的预测,构成迭代式嵌套关系抽取任务。
为了将嵌套关系抽取任务转化为预训练语言模型的掩码语言模型任务形式,需要迭代地使用提示学习的Prompt模版将原任务输入句子与每层嵌套关系转化为Prompt输入句子并且进行迭代式预测。这也是基于动态提示学习的嵌套关系抽取任务与一般的关系抽取任务的主要区别。
在基于Prompt的嵌套关系抽取算法迭代过程中,嵌套关系抽取任务的Prompt提示模版设计主要分为两种情况:嵌套关系层数l=0和l≥1,对于这2种情况分别讨论如下:
(1)嵌套关系层数l=0
当嵌套关系层数l=0时,嵌套关系中元素只包含句子中的全部实体,对应的嵌套关系Prompt提示模版设计中转换模版公式如下:
Figure BDA0003822025190000068
Figure BDA0003822025190000069
表示第0层的嵌套关系Prompt提示模版前缀函数,当嵌套关系层数l=0时,该函数将[CLS]拼接上嵌套关系原始输入句子x再拼接上[SEP],得到第0层的Prompt提示模版前缀。
Figure BDA0003822025190000071
其中,x′0表示Prompt提示模版将第0层嵌套关系与对应的候选嵌套关系元素对
Figure BDA0003822025190000072
转换后的Prompt输入语句;
Figure BDA0003822025190000073
表示第0层的嵌套关系Prompt输入模版转换函数;
Figure BDA0003822025190000074
表示原任务输入句子x中第0层的嵌套关系元素集合,即句子x中的所有实体构成的集合;
Figure BDA0003822025190000075
表示
Figure BDA0003822025190000076
中的第i个元素。
(2)嵌套关系层数l≥1
当嵌套关系层数l≥1时,嵌套关系中元素不仅有实体,还有关系三元组,对应的嵌套关系Prompt输入模版转换公式如下:
Figure BDA0003822025190000077
其中,
Figure BDA0003822025190000078
表示第l层的嵌套关系Prompt提示模版前缀函数,当嵌套关系层数l≥1时,该函数将第l层的嵌套关系三元组都拼接到第l-1层Prompt提示模版前缀后面,得到第l层的Prompt提示模板前缀,用于抽取下一层的嵌套关系三元组;
Figure BDA0003822025190000079
表示输入句子中第l层的第i个嵌套关系三元组;pl表示输入句子中第l层的嵌套关系三元组数量。
Figure BDA00038220251900000710
其中,x′l表示Prompt提示模版将第l层嵌套关系与对应的候选嵌套关系元素对
Figure BDA00038220251900000711
转换后的Prompt输入语句;
Figure BDA00038220251900000712
表示第l层的嵌套关系Prompt输入模版转换函数;
Figure BDA00038220251900000713
表示包含输入句子中前l层的所有嵌套关系元素集合;
Figure BDA00038220251900000714
表示
Figure BDA00038220251900000715
中的第i个嵌套关系元素。
根据上述公式,当嵌套关系层数l≥1时,首先,将输入句子中第l层的所有嵌套关系三元组都依次拼接到第l-1层的Prompt前缀模版函数
Figure BDA00038220251900000716
后面,得到第l层的Prompt前缀模版函数
Figure BDA00038220251900000717
然后,把第l层生成的候选嵌套关系元素对拼接到第l层的Prompt前缀模版函数
Figure BDA00038220251900000718
后面,形成第l层的嵌套关系Prompt输入句子x′l
此外,在生成嵌套关系候选元素对时,保证该元素对中左元素
Figure BDA00038220251900000719
与右元素
Figure BDA00038220251900000720
互不相同,并且其中至少一个元素属于第l层的嵌套关系三元组集合,即候选关系元素对满足以下条件公式:
Figure BDA00038220251900000721
其中,
Figure BDA0003822025190000081
表示输入句子中前l层的所有嵌套关系元素集合减去前l-1层的所有嵌套关系元素集合,即为第l层的所有嵌套关系三元组集合。
以图2中的嵌套关系抽取迭代过程为例,嵌套关系原始输入句子为x=“技术性收入占营业收入的20%以上。”,该句子具有三个实体分别是“技术性收入”、“营业收入”和“20%”。
首先,算法从
Figure BDA0003822025190000082
生成待分类的嵌套关系左右元素对<技术性收入,20%>、<技术性收入,营业收入>与<营业收入,20%>;然后,使用Prompt模版转换函数得到第0层的Prompt输入为:
Figure BDA0003822025190000083
随后,预训练语言模型对该层Prompt输入的[MASK]位置依次预测出对应嵌套关系元素对的类型标签词“Division”、“None”与“None”;最后,将标签词映射为关系类型标签“/”、“No”与“No”。
经过以上过程,嵌套关系抽取模型在l=0时,抽取出了新的嵌套关系三元组为<技术性收入,/,营业收入>。
当嵌套关系层数l=1时,第1层的嵌套关系三元组集合为
Figure BDA0003822025190000084
其中
Figure BDA0003822025190000085
Figure BDA0003822025190000086
则该层已有的嵌套关系元素集合是
Figure BDA0003822025190000087
Figure BDA0003822025190000088
首先,算法将第一层的嵌套关系三元组拼接到前一层的Prompt前缀模版函数输出
Figure BDA0003822025190000089
后面;然后,从
Figure BDA00038220251900000810
生成嵌套关系左右元素对<
Figure BDA00038220251900000811
‘20%’>与<‘20%’,
Figure BDA00038220251900000812
>,并使用Prompt模版转换函数得到该层的Prompt输入为:
Figure BDA00038220251900000813
随后,预训练语言模型对该层Prompt输入的[MASK]位置依次预测出对应嵌套关系元素对的关系类型标签词,并映射为嵌套关系类型标签;最后,算法抽取出嵌套关系层数l=1时新的嵌套关系三元组为
Figure BDA00038220251900000814
20%>。
当嵌套关系层数l=2时,模型继续生成嵌套关系左右元素对,再转换为Prompt输入,使用预训练语言模型预测出对应的标签词,没有产生新的嵌套关系三元组,最终结束嵌套关系抽取的迭代过程。
动态Prompt机制是对技术方案步骤(4)的扩展。具体实施方式为:当嵌套关系层数l≥1时,候选嵌套关系元素对会使用到前l层的嵌套关系三元组。所以,在使用Prompt输入模版转换函数
Figure BDA0003822025190000091
生成第l层的Prompt输入语句时,需要先使用Prompt提示模板前缀函数
Figure BDA0003822025190000092
将前l层的嵌套关系三元组进行表示,然后再将每个候选嵌套关系元素对拼接到
Figure BDA0003822025190000093
后面。但是,高层嵌套关系三元组的左、右元素可能是低层嵌套关系三元组,难以直接使用自然语言单词来表示复杂多层的嵌套关系三元组。
为了解决该问题,本发明方法提出使用特殊关系标识符来表示底层嵌套关系三元组。考虑到使用特殊关系标识符的方法会将特殊关系标识符与部分嵌套关系三元组绑定,从而引发数据稀疏问题。对此,本发明提出了动态Prompt机制,对特殊关系标识符进行动态分配,起到数据增强作用,从而缓解数据稀疏问题。
动态Prompt机制主要分为两个部分:特殊关系标识符设计和动态分配。
(1)特殊关系标识符设计
本方法提出的特殊关系标识符集合为{[rid=1],[rid=2],…,[rid=K]},其中,每个特殊关系标识符[rid=k]都是从预训练语言模型词表中选择的特殊单词,用来表示嵌套关系中的关系三元组。
当嵌套关系层数l=0时,因为嵌套关系中所有元素都是实体,不会使用到特殊关系标识符。
当嵌套关系层数l≥1时,前缀计算公式如下:
Figure BDA0003822025190000094
根据上述公式,使用Prompt提示模版前缀函数
Figure BDA0003822025190000095
将输入句子中第l层的所有嵌套关系三元组都依次拼接到第l-1层的Prompt前缀模版函数
Figure BDA0003822025190000096
后面,从而形成第l层的Prompt前缀模版函数
Figure BDA0003822025190000097
在表示嵌套关系三元组时,对于前l层嵌套关系三元组集合中每个嵌套关系三元组ri=<Ell,rt,Elr>,本方法为嵌套关系三元组ri分配一个特殊关系标识符[rid=i]。在前缀模版函数
Figure BDA00038220251900000910
中,使用“[Ell][rid=i][wrt][Elr]”表示嵌套关系三元组ri,具体含义依次为:嵌套关系三元组ri的左元素内容[Ell]、特殊关系标识符[rid=i]、嵌套关系三元组的类型标签词[wrt]与嵌套关系三元组的右元素内容[Elr]。在高层中使用该嵌套关系三元组ri作为高层嵌套关系三元组的左元素或者右元素时,直接使用[rid=i]表示该嵌套关系三元组。
以图3中嵌套关系抽取过程为例,对特殊关系标识符的使用过程进行介绍。
当嵌套关系层数l=1时,第l=1层的嵌套关系三元组集合为
Figure BDA00038220251900000911
其中
Figure BDA0003822025190000098
Figure BDA0003822025190000099
基于动态提示学习的嵌套关系抽取算法为嵌套关系三元组
Figure BDA0003822025190000101
分配特殊关系标识符[rid=1]后,使用Prompt模版转换函数得到该层的Prompt输入句子为:
Figure BDA0003822025190000102
[′/′]营业收入[SEP]
[rid=1][MASK1]20%[SEP]
20%[MASK2][rid=1][SEP]
然后,预训练语言模型从Prompt输入x′1中[MASK1]与[MASK2]的位置分别预测出关系类型“>”与“No”,表示对应的嵌套关系元素对分别是“>”关系与没有关系。最终,抽取出新的嵌套关系三元组
Figure BDA0003822025190000103
20%>。
(2)特殊关系标识符动态分配
基于动态提示学习的嵌套关系抽取方法在为各个嵌套关系三元组分配特殊关系标识符时,如果只按照预定义好的标识符顺序进行分配,那么排序越靠后的特殊关系标识符出现的频率越低。
这是因为,只有当一个样本包含的嵌套关系三元组个数越多时,排序靠后的特殊关系标识符才会在该样本中被使用到,即,[rid=k]只会在嵌套关系三元组个数大于等于k的样本中被使用到。但是,随着k不断增大,嵌套关系三元组个数大于等于k的样本数量不断减小,导致特殊关系标识符[rid=k]的出现次数不断减小。因此,静态的关系标识符分配方法会产生数据稀疏的问题,导致排序靠后的特殊关系标识符不能充分训练。
为了解决该问题,本发明提出了基于特殊关系标识符的动态分配机制:
对于样本中的任意嵌套关系三元组ri,在为嵌套关系三元组ri分配特殊关系标识符时,采用随机采样,即从0~K范围中随机采样出一个特殊关系标识符[rid=Rand(K)]来表示嵌套关系三元组ri,其中,Rand(K)表示随机函数,将会随机产生0~K范围中的数。同时,为了保证特殊关系标识符数量能够完全覆盖所有样本的嵌套关系三元组,特殊关系标识符数量K需要满足以下条件:
K≥max(RelNum(x1),RelNum(x2),…,RelNum(xn))
其中,RelNum(xi)表示数据集样本句子xi中嵌套关系三元组的个数;n表示数据集中的样本句子数量。
以图4为例,采用特殊关系标识符的动态分配机制后,当嵌套关系层数l=1时,第l=1层的嵌套关系三元组集合为
Figure BDA0003822025190000111
其中
Figure BDA0003822025190000112
Figure BDA0003822025190000113
特殊关系标识符的动态分配机制,为
Figure BDA0003822025190000114
随机分配特殊关系标识符[rid=Rand(K)],使用Prompt模版转换函数得到第l=1层的Prompt输入句子为:
Figure BDA0003822025190000115
[rid=Rand(K)][′/′]营业收入[SEP]
[rid=Rand(K)][MASK1]20%[SEP]
20%[MASK2][rid=Rand(K)][MASK1][SEP]
然后,预训练语言模型从Prompt输入x′1中[MASK1]和[MASK2]的位置分别预测出关系类型“>”与“No”,表示对应的嵌套关系元素对分别是“>”关系与没有关系。最终,抽取出新的嵌套关系三元组
Figure BDA0003822025190000117
20%>。
本发明提出了一种基于动态提示学习的小样本嵌套关系抽取方法,为了测试该方法的有效性,在本发明构建的Policy数据集上从“From Scratch”与“Guided”两种模式,使用查准率Precision、查全率Recall与F1指标评估了方法,并和其他嵌套关系抽取方法进行了对比。此外,为了验证本方法在小样本场景下的有效性,还从全量的嵌套关系抽取数据集Policy中抽取出部分数据集作为小样本数据集进行实验。
“From Scratch”模式指模型按层次迭代地预测嵌套关系,当前层次预测出的错误关系三元组可能被用于下一层嵌套关系三元组,导致误差传播,模型性能随着层次增加而衰减。
“Guided”模式指在预测下一层的嵌套关系时,使用当前层的正确嵌套关系三元组来代替模型预测结果,避免误差传播。两种模式对比可以测试嵌套关系层次之间预测结果误差传播的影响。
表1动态提示学习模型超参数设置信息
Figure BDA0003822025190000116
Figure BDA0003822025190000121
本发明方法模型超参数如表1所示。其中,提示学习使用的预训练语言模型为BERT的base版本,具有12层Transformer编码器层;在模型训练时,使用early stop训练策略,模型每训练一个epoch,都在验证集上进行测试计算指标,如果连续10个epoch都没有指标上升,则提前结束模型训练;模型使用Adam作为参数优化器;模型参数的学习率设置为1e-5;模型隐层向量维度大小为768;模型输入句子的最大长度设置为512;每个batch的样本数量设置为[4,8];特殊关系标识符的数量为60。
表2动态提示学习模型对比实验结果
Figure BDA0003822025190000122
不同嵌套关系抽取算法在Policy数据集上对比实验结果如表2所示,模型从第一层开始迭代地预测出所有层的嵌套关系三元组后,计算整体评价指标。其中,Promptmanual指本发明中使用的Prompt标签词通过人工设计,选择自然语言单词作为标签词,使得嵌套关系抽取任务中各个关系类型与其对应的标签词在自然语义上紧密相关;Promptauto指本发明中使用的Prompt标签词通过自动设计,选择预训练语言模型词表中的特殊单词[unused]作为标签词。
从表2中的实验结果可以看出,本发明提出的基于动态提示学习的嵌套关系抽取算法,相比于其他嵌套关系抽取算法,在Policy数据集上“From Scratch”与“Guided”两种模式下都取得了最好的整体指标,所以,该对比实验结果证明了本发明算法在嵌套关系抽取任务上的有效性。
为了评估发明方法提出的基于动态提示学习的小样本嵌套关系抽取方法在小样本场景下的准确性,本发明从全量的嵌套关系抽取数据集Policy中按照10%、20%、30%与50%的百分比采样出多个小样本数据集。
表3动态提示学习模型百分比小样本实验结果
Figure BDA0003822025190000131
本发明方法在百分比小样本数据集上的实验结果如表3所示,从上述表中的实验结果可以看出,本发明提出的基于动态提示学习的面向小样本场景下的嵌套关系抽取方法,相比其他嵌套关系抽取算法,在所有百分比小样本数据上,准确性都超过了其他模型,说明了本方法能够有效提升模型在小样本场景下嵌套关系抽取任务上的准确性。
图5显示了Prompt特殊关系标识符数量对实验结果的影响,其中(a)与(b)分别是特殊关系标识符数量对模型Promptauto与Promptmanual效果影响图。通过评估本发明方法中特殊关系标识符数量对嵌套关系抽取任务准确性的影响,可以看出Prompt特殊关系标识符可以提升本发明方法模型在嵌套关系抽取任务上的准确性,避免数据稀疏问题,但是特殊关系标识符数量过大会导致嵌套关系抽取任务的准确性下降。

Claims (3)

1.一种基于动态提示学习的小样本嵌套关系抽取方法,包括以下步骤:
(1)提示模板设计,给定嵌套关系任务的原输入句子,对原输入句子按照提示模版设计进行相应转换,经过Prompt模版转换函数,得到Prompt输入语句;
(2)答案搜索,将得到的Prompt输入语句输入到预训练语言模型,通过预训练语言模型在语句中的掩码位置预测出标签词集合中概率最高的标签词;
(3)答案映射,通过预训练语言模型在Prompt输入语句的掩码位置预测出最终的标签词之后,将预测出的标签词映射为对应的嵌套关系任务的关系类型标签;
(4)迭代抽取,逐层迭代地预测具有嵌套结构的关系三元组,并将当前层预测出的嵌套关系关系三元组用于下一层关系的预测,直到没有新的嵌套关系三元组产生。
2.根据权利要求1所述的一种基于动态提示学习的小样本嵌套关系抽取方法,其特征在于,所述步骤(1)中,将嵌套关系抽取任务转化为掩码语言模型任务形式,生成每层嵌套关系的候选左、右元素对;然后,使用Prompt模版转换函数将原始输入句子与每层候选左、右元素对结合,转换为Prompt输入语句。
3.根据权利要求1所述的一种基于动态提示学习的小样本嵌套关系抽取方法,其特征在于,所述步骤(2)中,使用预训练语言模型对Prompt输入语句进行编码,根据掩码位置的编码词向量进行掩码预测,从标签词集合中选择预测概率最高的标签词,从而实现对每层嵌套关系候选左右元素对的关系类型分类。
CN202211047628.8A 2022-08-30 2022-08-30 一种基于动态提示学习的小样本嵌套关系抽取方法 Pending CN115409011A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211047628.8A CN115409011A (zh) 2022-08-30 2022-08-30 一种基于动态提示学习的小样本嵌套关系抽取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211047628.8A CN115409011A (zh) 2022-08-30 2022-08-30 一种基于动态提示学习的小样本嵌套关系抽取方法

Publications (1)

Publication Number Publication Date
CN115409011A true CN115409011A (zh) 2022-11-29

Family

ID=84161632

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211047628.8A Pending CN115409011A (zh) 2022-08-30 2022-08-30 一种基于动态提示学习的小样本嵌套关系抽取方法

Country Status (1)

Country Link
CN (1) CN115409011A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117216220A (zh) * 2023-09-25 2023-12-12 福建实达集团股份有限公司 一种大语言模型的使用方法及装置
CN117216220B (zh) * 2023-09-25 2024-06-07 福建实达集团股份有限公司 一种大语言模型的使用方法及装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117216220A (zh) * 2023-09-25 2023-12-12 福建实达集团股份有限公司 一种大语言模型的使用方法及装置
CN117216220B (zh) * 2023-09-25 2024-06-07 福建实达集团股份有限公司 一种大语言模型的使用方法及装置

Similar Documents

Publication Publication Date Title
CN107783960B (zh) 用于抽取信息的方法、装置和设备
CN108052583B (zh) 电商本体构建方法
CN108038492A (zh) 一种基于深度学习的感性词向量及情感分类方法
CN111767368A (zh) 一种基于实体链接的问答知识图谱构建方法及存储介质
CN111930914B (zh) 问题生成方法和装置、电子设备以及计算机可读存储介质
CN112307168B (zh) 基于人工智能的问诊会话处理方法、装置和计算机设备
CN110347802B (zh) 一种文本分析方法及装置
CN112926337B (zh) 一种结合重构句法信息的端到端方面级情感分析方法
CN112667782A (zh) 一种文本分类方法、装置、设备及存储介质
Papadaki Data augmentation techniques for legal text analytics
CN114297342A (zh) 基于阅读理解和意图识别模型的法律文书生成方法及系统
CN113627194A (zh) 信息抽取方法及装置、通信消息分类方法及装置
CN111159405B (zh) 基于背景知识的讽刺检测方法
CN109635289B (zh) 词条分类方法及审计信息抽取方法
CN116775873A (zh) 一种多模态对话情感识别方法
CN116257616A (zh) 面向音乐领域的实体关系抽取方法及系统
CN115409011A (zh) 一种基于动态提示学习的小样本嵌套关系抽取方法
CN115204143A (zh) 一种基于prompt的文本相似度计算方法及系统
CN115577080A (zh) 一种问题回复匹配方法、系统、服务器及存储介质
Liu et al. Suggestion mining from online reviews usingrandom multimodel deep learning
CN115129863A (zh) 意图识别方法、装置、设备、存储介质和计算机程序产品
Kreyssig Deep learning for user simulation in a dialogue system
CN114239565A (zh) 一种基于深度学习的情绪原因识别方法及系统
Sopuru et al. Comparative Analysis of Word2Vec and GloVe with LSTM for Sentiment Analysis: Accuracy and Loss Evaluation on Twitter Data
Yao et al. Word segmentation for chinese judicial documents

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination