CN115048926A - 一种实体关系抽取方法、装置、电子设备及存储介质 - Google Patents

一种实体关系抽取方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN115048926A
CN115048926A CN202210384509.5A CN202210384509A CN115048926A CN 115048926 A CN115048926 A CN 115048926A CN 202210384509 A CN202210384509 A CN 202210384509A CN 115048926 A CN115048926 A CN 115048926A
Authority
CN
China
Prior art keywords
sentence
entity relationship
extracted
representation
sentences
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210384509.5A
Other languages
English (en)
Inventor
项冠华
刘帅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China Normal University
Original Assignee
South China Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China Normal University filed Critical South China Normal University
Priority to CN202210384509.5A priority Critical patent/CN115048926A/zh
Publication of CN115048926A publication Critical patent/CN115048926A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Abstract

本发明涉及一种实体关系抽取方法、装置、电子设备及存储介质。本发明所述的实体关系抽取方法包括:获取待抽取实体关系的句子;对待抽取实体关系的句子进行编码,得到句子表示;对句子表示进行依赖解析处理,得到待抽取实体关系的句子的结构信息;对句子的结构信息使用注意力机制和池化操作,提取句子的局部特征和全局特征,得到基于关系的语义信息;拼接结构信息和语义信息,得到待抽取实体关系的句子对应的句子表征;对句子表征进行解码,得到待抽取实体关系的句子的实体关系三元组。本发明所述的一种实体关系抽取方法,通过Bi‑LSTM和GCN两次对单词的依赖抽取,和基于关系的注意力机制训练,提升了模型的鲁棒性。

Description

一种实体关系抽取方法、装置、电子设备及存储介质
技术领域
本发明涉及自然语言处理技术领域,特别是涉及一种实体关系抽取方法、装置、电子设备及存储介质。
背景技术
近些年,深度学习技术在视觉处理和自然语言处理和机器人领域又取得了巨大的成就。随着TensorFlow和Pytorch等开源框架的使用,越来越多的深度学习技术在自然语言领域得到了应用,并且取得不错的成绩。信息抽取任务作为nlp领域的下游任务,其重要性不言而喻。现有的提取重叠实体关系的方法主要可分为两类:sequence-to-sequence(Seq2Seq)方法和基于图的方法。Seq2Seq方法将非结构化文本作为输入,并直接解码关系三元组作为顺序输出。基于图的方法构造了一个图神经网络,用于联合提取实体和重叠关系。
然而,现有的大多数方法不能正确处理一个句子中包含多个重叠实体的关系三元组的情况。正因传统的方法对重叠实体的抽取效果甚微,18年提出的重叠实体抽取问题一经认可也因此受到广泛的关注。虽然后来提出的一些方法已经可以初步解决重叠问题,如CopyRE、CopyMTL、CasRel(HBT)等,但它们在训练和推理阶段存在曝光偏差。即在训练阶段,使用了golden truth作为已知信息对训练过程进行引导,而在推理阶段只能依赖于预测结果。这导致中间步骤的输入信息来源于两个不同的分布,对性能有一定的影响。虽然这些方法都是在一个模型中对实体和关系进行了联合抽取,但从某种意义上它们“退化”成了“pipeline”的方法,即在解码阶段需要分多步进行。
发明内容
基于此,本发明的目的在于,提供一种实体关系抽取方法、装置、电子设备及存储介质,通过Bi-LSTM和GCN两次对单词的依赖抽取,和基于关系的注意力机制训练,提升了模型的鲁棒性。
第一方面,本发明提供一种实体关系抽取方法,包括以下步骤:
获取待抽取实体关系的句子;
对所述待抽取实体关系的句子进行编码,得到句子表示,其中,所述句子表示包含句子中每个词的向量表示;
对所述句子表示进行依赖解析处理,得到所述待抽取实体关系的句子的结构信息;
对所述句子的结构信息使用注意力机制和池化操作,提取所述句子的局部特征和全局特征,得到基于关系的语义信息;
拼接所述结构信息和所述语义信息,得到所述待抽取实体关系的句子对应的句子表征;
对所述句子表征进行解码,得到所述待抽取实体关系的句子的实体关系三元组。
进一步地,对所述待抽取实体关系的句子进行编码,得到句子表示,包括:
对于给定长度为n的句子s={W1,W2,…,Wn},用xi表示句子中的每一个的单词表征Wi,其中xi由单词Wi的词嵌入
Figure BDA0003594337790000021
位置嵌入
Figure BDA0003594337790000022
和字符嵌入
Figure BDA0003594337790000023
拼接而成,即
Figure BDA0003594337790000024
将所述待抽取实体关系的句子输入Bi-LSTM网络,使用以下公式,提取句子中每个单词Wi对应的隐藏向量hi,得到句子表示得到所述待抽取实体关系的句子的句子表示:
Figure BDA0003594337790000025
其中,hi为句子中相应位置第i个单词对应的隐藏向量。
进一步地,对所述句子表示进行依赖解析处理,得到所述待抽取实体关系的句子的结构信息,包括:
将所述句子表示生成对应的依赖树,使用以下公式,得到所述依赖树的节点表征
Figure BDA0003594337790000026
Figure BDA0003594337790000027
其中,Aij为邻接矩阵,如果有边从节点i到节点j,则Aij=1和Aji=1,否则Aij=0和Aji=0;W(l)为权矩阵,bl为偏置向量,ρ为激活函数,
Figure BDA0003594337790000028
为更新后的最终节点表征;
构建一个基于注意力机制的邻接矩阵
Figure BDA0003594337790000029
输出计算为值的加权和,其中权重由具有相应键的查询函数计算,加入多头注意力机制邻接矩阵的计算如下:
Figure BDA00035943377900000210
其中,Q和K都等于上一节中l-1层的集合表示
Figure BDA00035943377900000211
表示第t个头的邻接矩阵,
Figure BDA00035943377900000212
Figure BDA00035943377900000213
和V是注意力机制中输入所需要相乘的矩阵;
使用以下公式,更新依赖树中每一层的节点表征
Figure BDA00035943377900000214
Figure BDA00035943377900000215
Figure BDA0003594337790000031
其中,
Figure BDA0003594337790000032
为更新后的节点表征,ρ为激活函数,
Figure BDA0003594337790000033
是更新完成的邻接矩阵,W(l)
Figure BDA0003594337790000034
是与注意力引导邻接矩阵
Figure BDA0003594337790000035
相关的权重矩阵和偏差项,
Figure BDA0003594337790000036
为连接后的节点表征,xj为节点的初始输入,即节点更新完成的
Figure BDA0003594337790000037
表示节点j的l层表征;
使用以下公式,得到所述待抽取实体关系的句子对应的结构信息hcomb
hcomb=(Wcombhout+bcomb)⊕hi
其中,hout=[h(1);…;h(l)],是将l个分离的密连层的输出连接起来的输出;Wcomb为权重矩阵,bcomb为线性变换的偏置向量,hi为句子中相应位置第i个单词对应的隐藏向量。
进一步地,对所述句子的结构信息使用注意力机制和池化操作,提取所述句子的局部特征和全局特征,得到基于关系的语义信息,包括:
将所述句子的结构信息输入平均池中进行平均池化处理,使用以下公式,得到句子的全局表征Sg
Sg=avg(hk)
其中,hk={hcomb1;…;hcombi};
将所述句子的全局表征Sg、所述句子的结构信息hcomb和关系嵌入矩阵R一起输入到基于关系的注意力机制中,使用以下公式,得到基于关系的句子语义表征Sk和关系矩阵Rk
Sk,Rk=attention(hk,Sg,R)
其中,Sk为句子的语义表征,Rk为句子的关系矩阵,attention()为注意力机制计算,R是第k种关系的可训练的初始矩阵;
拼接所述句子的全局表征Sg和语义表征Sk,得到基于关系的语义信息Uk
进一步地,对所述句子表征进行解码,得到所述待抽取实体关系的句子的实体关系三元组,包括:
将所述句子表征输入Bi-LSTM模型,使用以下公式,得到单词序列经过Bi-LSTM模型映射后的句子表征;
Figure BDA0003594337790000038
其中,
Figure BDA0003594337790000039
为句子表征;
使用以下公式,计算关系rk下第n个单词的预测标记的概率P:
Figure BDA00035943377900000310
其中,wo为权重,bo为偏秩;
当P大于特定阈值时,抽取P值最大的两个实体组,组成当前关系rk的实体关系三元组。
第二方面,本发明还提供一种实体关系抽取装置,包括:
句子获取模块,用于获取待抽取实体关系的句子;
编码模块,用于对所述待抽取实体关系的句子进行编码,得到句子表示,其中,所述句子表示包含句子中每个词的向量表示;
结构信息提取模块,用于对所述句子表示进行依赖解析处理,得到所述待抽取实体关系的句子的结构信息;
语义信息提取模块,用于对所述句子的结构信息使用注意力机制和池化操作,提取所述句子的局部特征和全局特征,得到基于关系的语义信息;
拼接模块,用于拼接所述结构信息和所述语义信息,得到所述待抽取实体关系的句子对应的句子表征;
解码模块,用于对所述句子表征进行解码,得到所述待抽取实体关系的句子的实体关系三元组。
第三方面,本发明还提供一种电子设备,其特征在于,包括:
至少一个存储器以及至少一个处理器;
所述存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述至少一个处理器执行,使得所述至少一个处理器实现如本发明第一方面任一所述的一种实体关系抽取方法的步骤。
第四方面,本发明还提供一种计算机可读存储介质,其特征在于:
所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如本发明第一方面任一所述的一种实体关系抽取方法的步骤。
本发明提供的一种实体关系抽取方法、装置、电子设备及存储介质,通过Bi-LSTM和GCN两次对单词的依赖抽取,和基于关系的注意力机制训练,提升了模型的鲁棒性。实体识别能力强:使用基于图卷积网络的方法,可以在实体重叠情况中很好的识别出尽量多的重叠实体。通过特定的注意力机制解决了图卷积网络容易忽略序列的全局信息的弊端。输出更好的全局信息表征。将结构信息和语语义信息两种信息进行一个耦合,避免了过度拟合训练集中频繁出现的实体与关系现象。
为了更好地理解和实施,下面结合附图详细说明本发明。
附图说明
图1为本发明提供的一种实体关系抽取方法的流程示意图;
图2为本发明在一个实施例中使用的关系抽取网络的结构示意图;
图3为一个示例性的包含实体关系的句子示意图;
图4为本发明提供的一种实体关系抽取装置的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施例方式作进一步地详细描述。
应当明确,所描述的实施例仅仅是本申请实施例一部分实施例,而不是全部的实施例。基于本申请实施例中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本申请实施例保护的范围。
在本申请实施例使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本申请实施例。在本申请实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。在本申请的描述中,需要理解的是,术语“第一”、“第二”、“第三”等仅用于区别类似的对象,而不必用于描述特定的顺序或先后次序,也不能理解为指示或暗示相对重要性。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本申请中的具体含义。
此外,在本申请的描述中,除非另有说明,“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
针对背景技术中的问题,本申请实施例提供一种实体关系抽取方法,首先使用双向LSTM模型对句子的输入进行编码,初步获取句子中每个词之间的依赖;然后使用图卷积把输入的句子进行依赖解析获得依赖树进一步获得邻接矩阵;连接两次句子的输出—结构信息;把上一步的输出输入到基于关系的注意力矩阵中来,分别使用注意力机制和池化操作来提取文本局部特征和全局特征,得到基于关系的语义信息;再通过另一个双向LSTM模型后解码进行基于关系的实体标注。
如图1和图2所示,该方法具体包括以下步骤:
S01:获取待抽取实体关系的句子。
如图3所示,所述句子由多个单词组成,单词与单词之间存在多组实体关系。
S02:对所述待抽取实体关系的句子进行编码,得到句子表示,其中,所述句子表示包含句子中每个词的向量表示。
在一个优选的实施例中,对所述待抽取实体关系的句子进行编码,得到句子表示,包括:
对于给定长度为n的句子s={W1,W2,…,Wn},用xi表示句子中的每一个的单词表征Wi,其中xi由单词Wi的词嵌入
Figure BDA0003594337790000061
位置嵌入
Figure BDA0003594337790000062
和字符嵌入
Figure BDA0003594337790000063
拼接而成,即
Figure BDA0003594337790000064
将所述待抽取实体关系的句子输入Bi-LSTM网络,使用以下公式,提取句子中每个单词Wi对应的隐藏向量hi,得到句子表示得到所述待抽取实体关系的句子的句子表示:
Figure BDA0003594337790000065
其中,hi为句子中相应位置第i个单词对应的隐藏向量。
S03:对所述句子表示进行依赖解析处理,得到所述待抽取实体关系的句子的结构信息。
在一个优选的实施例中,包括以下子步骤:
S031:将所述句子表示生成对应的依赖树,使用以下公式,得到所述依赖树的节点表征
Figure BDA0003594337790000066
Figure BDA0003594337790000067
其中,Aij为邻接矩阵,如果有边从节点i到节点j,则Aij=1和Aji=1,否则Aij=0和Aji=0;W(l)为权矩阵,bl为偏置向量,ρ为激活函数,
Figure BDA0003594337790000068
为更新后的最终节点表征;
S032:构建一个基于注意力机制的邻接矩阵
Figure BDA0003594337790000069
输出计算为值的加权和,其中权重由具有相应键的查询函数计算,加入多头注意力机制邻接矩阵的计算如下:
Figure BDA00035943377900000610
其中,Q和K都等于上一节中l-1层的集合表示
Figure BDA00035943377900000611
表示第t个头的邻接矩阵,
Figure BDA00035943377900000612
Wi K和V是注意力机制中输入所需要相乘的矩阵;
S033:使用以下公式,更新依赖树中每一层的节点表征
Figure BDA00035943377900000613
Figure BDA0003594337790000071
Figure BDA0003594337790000072
其中,
Figure BDA0003594337790000073
为更新后的节点表征,ρ为激活函数,
Figure BDA0003594337790000074
是更新完成的邻接矩阵,W(l)
Figure BDA0003594337790000075
是与注意力引导邻接矩阵
Figure BDA0003594337790000076
相关的权重矩阵和偏差项,
Figure BDA0003594337790000077
为连接后的节点表征,xj为节点的初始输入,即节点更新完成的
Figure BDA0003594337790000078
表示节点j的l层表征;
S034:使用以下公式,得到所述待抽取实体关系的句子对应的结构信息hcomb
hcomb=(Wcombhout+bcomb)⊕hi
其中,hout=[h(1);…;h(l)],是将l个分离的密连层的输出连接起来的输出;Wcomb为权重矩阵,bcomb为线性变换的偏置向量,hi为句子中相应位置第i个单词对应的隐藏向量。
S04:对所述句子的结构信息使用注意力机制和池化操作,提取所述句子的局部特征和全局特征,得到基于关系的语义信息。
在一个优选的实施例中,包括以下子步骤:
将所述句子的结构信息输入平均池中进行平均池化处理,使用以下公式,得到句子的全局表征Sg
Sg=avg(hk)
其中,hk={hcomb1;…;hcombi};
将所述句子的全局表征Sg、所述句子的结构信息hcomb和关系嵌入矩阵R一起输入到基于关系的注意力机制中,使用以下公式,得到基于关系的句子语义表征Sk和关系矩阵Rk
Sk,Rk=attention(hk,Sg,R)
其中,Sk为句子的语义表征,Rk为句子的关系矩阵,attention()为注意力机制计算,R是第k种关系的可训练的初始矩阵;
拼接所述句子的全局表征Sg和语义表征Sk,得到基于关系的语义信息Uk
S05:拼接所述结构信息和所述语义信息,得到所述待抽取实体关系的句子对应的句子表征。
S06:对所述句子表征进行解码,得到所述待抽取实体关系的句子的实体关系三元组。
在一个优选的实施例中,包括以下子步骤:
S061:将所述句子表征输入Bi-LSTM模型,使用以下公式,得到单词序列经过Bi-LSTM模型映射后的句子表征;
Figure BDA0003594337790000081
其中,
Figure BDA0003594337790000082
为句子表征;
S062:使用以下公式,计算关系rk下第n个单词的预测标记的概率P:
Figure BDA0003594337790000083
其中,wo为权重,bo为偏秩;
S063:当P大于特定阈值时,抽取P值最大的两个实体组,组成当前关系rk的实体关系三元组。
本发明提供的一种实体关系抽取方法,在经过两次依赖的训练和基于关系的自注意力机制的训练,可以抽取出基于关系的句子表示和较为完全的关系矩阵,在抽取过程,基于每一种关系进行一次标注。如图3所示,基于三种关系进行三标注。每一个实体可以被多次标注。如果同一种关系出现多次也会进行多次标注,因为实体关系三元组可能会存在一个实体的差异。每一种关系就标注一对实体组,同一个实体可以被多次标注,这样就不会出现重复不清的实体标注。
本申请实施例还提供一种实体关系抽取装置,如图4所示,该实体关系抽取装置400包括:
句子获取模块401,用于获取待抽取实体关系的句子;
编码模块402,用于对所述待抽取实体关系的句子进行编码,得到句子表示,其中,所述句子表示包含句子中每个词的向量表示;
结构信息提取模块403,用于对所述句子表示进行依赖解析处理,得到所述待抽取实体关系的句子的结构信息;
语义信息提取模块404,用于对所述句子的结构信息使用注意力机制和池化操作,提取所述句子的局部特征和全局特征,得到基于关系的语义信息;
拼接模块405,用于拼接所述结构信息和所述语义信息,得到所述待抽取实体关系的句子对应的句子表征;
解码模块406,用于对所述句子表征进行解码,得到所述待抽取实体关系的句子的实体关系三元组。
优选的,编码模块包括:
单词表征单元,用于对于给定长度为n的句子s={W1,W2,…,Wn},用xi表示句子中的每一个的单词表征Wi,其中xi由单词Wi的词嵌入
Figure BDA0003594337790000084
位置嵌入
Figure BDA0003594337790000085
和字符嵌入
Figure BDA0003594337790000086
拼接而成,即
Figure BDA0003594337790000091
向量提取单元,用于将所述待抽取实体关系的句子输入Bi-LSTM网络,使用以下公式,提取句子中每个单词Wi对应的隐藏向量hi,得到句子表示得到所述待抽取实体关系的句子的句子表示:
Figure BDA0003594337790000092
其中,hi为句子中相应位置第i个单词对应的隐藏向量。
优选的,结构信息提取模块包括:
依赖树生成单元,用于将所述句子表示生成对应的依赖树,使用以下公式,得到所述依赖树的节点表征
Figure BDA0003594337790000093
Figure BDA0003594337790000094
其中,Aij为邻接矩阵,如果有边从节点i到节点j,则Aij=1和Aji=1,否则Aij=0和Aji=0;W(l)为权矩阵,bl为偏置向量,ρ为激活函数,
Figure BDA0003594337790000095
为更新后的最终节点表征;
邻接矩阵构建单元,用于构建一个基于注意力机制的邻接矩阵
Figure BDA0003594337790000096
输出计算为值的加权和,其中权重由具有相应键的查询函数计算,加入多头注意力机制邻接矩阵的计算如下:
Figure BDA0003594337790000097
其中,Q和K都等于上一节中l-1层的集合表示
Figure BDA0003594337790000098
表示第t个头的邻接矩阵,
Figure BDA0003594337790000099
Figure BDA00035943377900000910
和V是注意力机制中输入所需要相乘的矩阵;
节点表征更新单元,用于使用以下公式,更新依赖树中每一层的节点表征
Figure BDA00035943377900000911
Figure BDA00035943377900000912
Figure BDA00035943377900000913
其中,
Figure BDA00035943377900000914
为更新后的节点表征,ρ为激活函数,
Figure BDA00035943377900000915
是更新完成的邻接矩阵,W(l)
Figure BDA00035943377900000916
是与注意力引导邻接矩阵
Figure BDA00035943377900000917
相关的权重矩阵和偏差项,
Figure BDA00035943377900000918
为连接后的节点表征,xj为节点的初始输入,即节点更新完成的
Figure BDA00035943377900000919
表示节点j的l层表征;
结构信息提取单元,用于使用以下公式,得到所述待抽取实体关系的句子对应的结构信息hcomb
hcomb=(Wcombhout+bcomb)⊕hi
其中,hout=[h(1);…;h(l)],是将l个分离的密连层的输出连接起来的输出;Wcomb为权重矩阵,bcomb为线性变换的偏置向量,hi为句子中相应位置第i个单词对应的隐藏向量。
优选的,语义信息提取模块包括:
全局表征计算单元,用于将所述句子的结构信息输入平均池中进行平均池化处理,使用以下公式,得到句子的全局表征Sg
Sg=avg(hk)
其中,hk={hcomb1;…;hcombi};
语义表征计算单元,用于将所述句子的全局表征Sg、所述句子的结构信息hcomb和关系嵌入矩阵R一起输入到基于关系的注意力机制中,使用以下公式,得到基于关系的句子语义表征Sk和关系矩阵Rk
Sk,Rk=attention(hk,Sg,R)
其中,Sk为句子的语义表征,Rk为句子的关系矩阵,attention()为注意力机制计算,R是第k种关系的可训练的初始矩阵;
语义信息计算单元,用于拼接所述句子的全局表征Sg和语义表征Slk,得到基于关系的语义信息Uk
优选的,解码模块包括:
映射单元,用于将所述句子表征输入Bi-LSTM模型,使用以下公式,得到单词序列经过Bi-LSTM模型映射后的句子表征;
Figure BDA0003594337790000101
其中,
Figure BDA0003594337790000102
为句子表征;
概率计算单元,用于使用以下公式,计算关系rk下第n个单词的预测标记的概率P:
Figure BDA0003594337790000103
其中,wo为权重,bo为偏秩;
实体关系抽取单元,用于当P大于特定阈值时,抽取P值最大的两个实体组,组成当前关系rk的实体关系三元组。
对于装置实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元。所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
本申请实施例还提供一种电子设备,包括:
至少一个存储器以及至少一个处理器;
所述存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述至少一个处理器执行,使得所述至少一个处理器实现如前所述的一种实体关系抽取方法的步骤。
对于设备实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的设备实施例仅仅是示意性的,其中所述作为分离部件说明的组件可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本公开方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
本申请实施例还提供一种计算机可读存储介质,
所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如前所述的一种实体关系抽取方法的步骤。
计算机可用存储介质包括永久性和非永久性、可移动和非可移动媒体,可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括但不限于:相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(R AM)、只读存储器(R OM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。
本发明提供的一种实体关系抽取方法、装置、电子设备及存储介质,通过Bi-LSTM和GCN两次对单词的依赖抽取,和基于关系的注意力机制训练,提升了模型的鲁棒性。实体识别能力强:使用基于图卷积网络的方法,可以在实体重叠情况中很好的识别出尽量多的重叠实体。通过特定的注意力机制解决了图卷积网络容易忽略序列的全局信息的弊端。输出更好的全局信息表征。将结构信息和语语义信息两种信息进行一个耦合,避免了过度拟合训练集中频繁出现的实体与关系现象。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。

Claims (8)

1.一种实体关系抽取方法,其特征在于,包括以下步骤:
获取待抽取实体关系的句子;
对所述待抽取实体关系的句子进行编码,得到句子表示,其中,所述句子表示包含句子中每个词的向量表示;
对所述句子表示进行依赖解析处理,得到所述待抽取实体关系的句子的结构信息;
对所述句子的结构信息使用注意力机制和池化操作,提取所述句子的局部特征和全局特征,得到基于关系的语义信息;
拼接所述结构信息和所述语义信息,得到所述待抽取实体关系的句子对应的句子表征;
对所述句子表征进行解码,得到所述待抽取实体关系的句子的实体关系三元组。
2.根据权利要求1所述的一种实体关系抽取方法,其特征在于,对所述待抽取实体关系的句子进行编码,得到句子表示,包括:
对于给定长度为n的句子s={W1,W2,...,Wn},用xi表示句子中的每一个的单词表征Wi,其中xi由单词Wi的词嵌入
Figure FDA0003594337780000011
位置嵌入
Figure FDA0003594337780000012
和字符嵌入
Figure FDA0003594337780000013
拼接而成,即
Figure FDA0003594337780000014
将所述待抽取实体关系的句子输入Bi-LSTM网络,使用以下公式,提取句子中每个单词Wi对应的隐藏向量hi,得到句子表示得到所述待抽取实体关系的句子的句子表示:
Figure FDA0003594337780000015
其中,hi为句子中相应位置第i个单词对应的隐藏向量。
3.根据权利要求2所述的一种实体关系抽取方法,其特征在于,对所述句子表示进行依赖解析处理,得到所述待抽取实体关系的句子的结构信息,包括:
将所述句子表示生成对应的依赖树,使用以下公式,得到所述依赖树的节点表征
Figure FDA0003594337780000016
Figure FDA0003594337780000017
其中,Aij为邻接矩阵,如果有边从节点i到节点j,则Aij=1和Aji=1,否则Aij=0和Aji=0;W(l)为权矩阵,bl为偏置向量,ρ为激活函数,
Figure FDA0003594337780000018
为更新后的最终节点表征;
构建一个基于注意力机制的邻接矩阵
Figure FDA0003594337780000019
输出计算为值的加权和,其中权重由具有相应键的查询函数计算,加入多头注意力机制邻接矩阵的计算如下:
Figure FDA0003594337780000021
其中,Q和K都等于上一节中l_1层的集合表示
Figure FDA0003594337780000022
Figure FDA0003594337780000023
表示第t个头的邻接矩阵,Wi Q
Figure FDA0003594337780000024
和V是注意力机制中输入所需要相乘的矩阵;
使用以下公式,更新依赖树中每一层的节点表征
Figure FDA0003594337780000025
Figure FDA0003594337780000026
Figure FDA0003594337780000027
其中,
Figure FDA0003594337780000028
为更新后的节点表征,ρ为激活函数,
Figure FDA0003594337780000029
是更新完成的邻接矩阵,W(l)
Figure FDA00035943377800000210
是与注意力引导邻接矩阵
Figure FDA00035943377800000211
相关的权重矩阵和偏差项,
Figure FDA00035943377800000212
为连接后的节点表征,xj为节点的初始输入,即节点更新完成的
Figure FDA00035943377800000213
表示节点j的l层表征;
使用以下公式,得到所述待抽取实体关系的句子对应的结构信息hcomb
Figure FDA00035943377800000214
其中,hout=[h(1);…;h(l)],是将1个分离的密连层的输出连接起来的输出;Wcomb为权重矩阵,bcomb为线性变换的偏置向量,hi为句子中相应位置第i个单词对应的隐藏向量。
4.根据权利要求3所述的一种实体关系抽取方法,其特征在于,对所述句子的结构信息使用注意力机制和池化操作,提取所述句子的局部特征和全局特征,得到基于关系的语义信息,包括:
将所述句子的结构信息输入平均池中进行平均池化处理,使用以下公式,得到句子的全局表征Sg
Sg=avg(hk)
其中,hk={hcomb1;...;hcombi};
将所述句子的全局表征Sg、所述句子的结构信息hcomb和关系嵌入矩阵R一起输入到基于关系的注意力机制中,使用以下公式,得到基于关系的句子语义表征Sk和关系矩阵Rk
Sk,Rk=attention(hk,Sg,R)
其中,Sk为句子的语义表征,Rk为句子的关系矩阵,attention()为注意力机制计算,R是第k种关系的可训练的初始矩阵;
拼接所述句子的全局表征Sg和语义表征Sk,得到基于关系的语义信息Uk
5.根据权利要求4所述的一种实体关系抽取方法,其特征在于,对所述句子表征进行解码,得到所述待抽取实体关系的句子的实体关系三元组,包括:
将所述句子表征输入Bi-LSTM模型,使用以下公式,得到单词序列经过Bi-LSTM模型映射后的句子表征;
Figure FDA0003594337780000031
其中,
Figure FDA0003594337780000032
为句子表征;
使用以下公式,计算关系rk下第n个单词的预测标记的概率P:
Figure FDA0003594337780000033
其中,wo为权重,bo为偏秩;
当P大于特定阈值时,抽取P值最大的两个实体组,组成当前关系rk的实体关系三元组。
6.一种实体关系抽取装置,其特征在于,包括:
句子获取模块,用于获取待抽取实体关系的句子;
编码模块,用于对所述待抽取实体关系的句子进行编码,得到句子表示,其中,所述句子表示包含句子中每个词的向量表示;
结构信息提取模块,用于对所述句子表示进行依赖解析处理,得到所述待抽取实体关系的句子的结构信息;
语义信息提取模块,用于对所述句子的结构信息使用注意力机制和池化操作,提取所述句子的局部特征和全局特征,得到基于关系的语义信息;
拼接模块,用于拼接所述结构信息和所述语义信息,得到所述待抽取实体关系的句子对应的句子表征;
解码模块,用于对所述句子表征进行解码,得到所述待抽取实体关系的句子的实体关系三元组。
7.一种电子设备,其特征在于,包括:
至少一个存储器以及至少一个处理器;
所述存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述至少一个处理器执行,使得所述至少一个处理器实现如权利要求1-5任一所述的一种实体关系抽取方法的步骤。
8.一种计算机可读存储介质,其特征在于:
所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1-5任一所述的一种实体关系抽取方法的步骤。
CN202210384509.5A 2022-04-13 2022-04-13 一种实体关系抽取方法、装置、电子设备及存储介质 Pending CN115048926A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210384509.5A CN115048926A (zh) 2022-04-13 2022-04-13 一种实体关系抽取方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210384509.5A CN115048926A (zh) 2022-04-13 2022-04-13 一种实体关系抽取方法、装置、电子设备及存储介质

Publications (1)

Publication Number Publication Date
CN115048926A true CN115048926A (zh) 2022-09-13

Family

ID=83158440

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210384509.5A Pending CN115048926A (zh) 2022-04-13 2022-04-13 一种实体关系抽取方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN115048926A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116629264A (zh) * 2023-05-24 2023-08-22 成都信息工程大学 一种基于多个词嵌入和多头自注意力机制的关系抽取方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116629264A (zh) * 2023-05-24 2023-08-22 成都信息工程大学 一种基于多个词嵌入和多头自注意力机制的关系抽取方法
CN116629264B (zh) * 2023-05-24 2024-01-23 成都信息工程大学 一种基于多个词嵌入和多头自注意力机制的关系抽取方法

Similar Documents

Publication Publication Date Title
Liu et al. Tree-structured decoding for solving math word problems
CN108415953B (zh) 一种基于自然语言处理技术的不良资产经营知识管理方法
CN112966074B (zh) 一种情感分析方法、装置、电子设备以及存储介质
US11972365B2 (en) Question responding apparatus, question responding method and program
CN111078836B (zh) 基于外部知识增强的机器阅读理解方法、系统、装置
CN111914067B (zh) 中文文本匹配方法及系统
CN110826336A (zh) 一种情感分类方法、系统、存储介质及设备
CN111079532A (zh) 一种基于文本自编码器的视频内容描述方法
CN110990555B (zh) 端到端检索式对话方法与系统及计算机设备
JP7315065B2 (ja) 質問生成装置、質問生成方法及びプログラム
CN109857846B (zh) 用户问句与知识点的匹配方法和装置
CN111814487B (zh) 一种语义理解方法、装置、设备及存储介质
CN110807335B (zh) 基于机器学习的翻译方法、装置、设备及存储介质
CN111145914B (zh) 一种确定肺癌临床病种库文本实体的方法及装置
CN111814489A (zh) 口语语义理解方法及系统
CN112463989B (zh) 一种基于知识图谱的信息获取方法及系统
CN108536735A (zh) 基于多通道自编码器的多模态词汇表示方法与系统
CN114692602A (zh) 一种句法信息注意力引导的图卷积网络关系抽取方法
CN113705196A (zh) 基于图神经网络的中文开放信息抽取方法和装置
CN112200664A (zh) 基于ernie模型和dcnn模型的还款预测方法
CN114091450A (zh) 一种基于图卷积网络的司法领域关系抽取方法和系统
CN113761868A (zh) 文本处理方法、装置、电子设备及可读存储介质
CN116303881A (zh) 一种基于自监督表示学习的企业单位地址匹配方法及装置
CN115048926A (zh) 一种实体关系抽取方法、装置、电子设备及存储介质
CN114036246A (zh) 商品图谱向量化方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination