CN115048926A - 一种实体关系抽取方法、装置、电子设备及存储介质 - Google Patents
一种实体关系抽取方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN115048926A CN115048926A CN202210384509.5A CN202210384509A CN115048926A CN 115048926 A CN115048926 A CN 115048926A CN 202210384509 A CN202210384509 A CN 202210384509A CN 115048926 A CN115048926 A CN 115048926A
- Authority
- CN
- China
- Prior art keywords
- sentence
- entity relationship
- extracted
- representation
- sentences
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000605 extraction Methods 0.000 title claims abstract description 47
- 230000007246 mechanism Effects 0.000 claims abstract description 33
- 238000011176 pooling Methods 0.000 claims abstract description 14
- 238000004458 analytical method Methods 0.000 claims abstract description 7
- 238000012545 processing Methods 0.000 claims abstract description 7
- 239000011159 matrix material Substances 0.000 claims description 64
- 238000000034 method Methods 0.000 claims description 31
- 238000012512 characterization method Methods 0.000 claims description 13
- 238000004364 calculation method Methods 0.000 claims description 12
- 230000006870 function Effects 0.000 claims description 12
- 230000004913 activation Effects 0.000 claims description 8
- 238000013507 mapping Methods 0.000 claims description 4
- 230000009466 transformation Effects 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 3
- 238000012549 training Methods 0.000 abstract description 11
- 238000010586 diagram Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Abstract
本发明涉及一种实体关系抽取方法、装置、电子设备及存储介质。本发明所述的实体关系抽取方法包括:获取待抽取实体关系的句子;对待抽取实体关系的句子进行编码,得到句子表示;对句子表示进行依赖解析处理,得到待抽取实体关系的句子的结构信息;对句子的结构信息使用注意力机制和池化操作,提取句子的局部特征和全局特征,得到基于关系的语义信息;拼接结构信息和语义信息,得到待抽取实体关系的句子对应的句子表征;对句子表征进行解码,得到待抽取实体关系的句子的实体关系三元组。本发明所述的一种实体关系抽取方法,通过Bi‑LSTM和GCN两次对单词的依赖抽取,和基于关系的注意力机制训练,提升了模型的鲁棒性。
Description
技术领域
本发明涉及自然语言处理技术领域,特别是涉及一种实体关系抽取方法、装置、电子设备及存储介质。
背景技术
近些年,深度学习技术在视觉处理和自然语言处理和机器人领域又取得了巨大的成就。随着TensorFlow和Pytorch等开源框架的使用,越来越多的深度学习技术在自然语言领域得到了应用,并且取得不错的成绩。信息抽取任务作为nlp领域的下游任务,其重要性不言而喻。现有的提取重叠实体关系的方法主要可分为两类:sequence-to-sequence(Seq2Seq)方法和基于图的方法。Seq2Seq方法将非结构化文本作为输入,并直接解码关系三元组作为顺序输出。基于图的方法构造了一个图神经网络,用于联合提取实体和重叠关系。
然而,现有的大多数方法不能正确处理一个句子中包含多个重叠实体的关系三元组的情况。正因传统的方法对重叠实体的抽取效果甚微,18年提出的重叠实体抽取问题一经认可也因此受到广泛的关注。虽然后来提出的一些方法已经可以初步解决重叠问题,如CopyRE、CopyMTL、CasRel(HBT)等,但它们在训练和推理阶段存在曝光偏差。即在训练阶段,使用了golden truth作为已知信息对训练过程进行引导,而在推理阶段只能依赖于预测结果。这导致中间步骤的输入信息来源于两个不同的分布,对性能有一定的影响。虽然这些方法都是在一个模型中对实体和关系进行了联合抽取,但从某种意义上它们“退化”成了“pipeline”的方法,即在解码阶段需要分多步进行。
发明内容
基于此,本发明的目的在于,提供一种实体关系抽取方法、装置、电子设备及存储介质,通过Bi-LSTM和GCN两次对单词的依赖抽取,和基于关系的注意力机制训练,提升了模型的鲁棒性。
第一方面,本发明提供一种实体关系抽取方法,包括以下步骤:
获取待抽取实体关系的句子;
对所述待抽取实体关系的句子进行编码,得到句子表示,其中,所述句子表示包含句子中每个词的向量表示;
对所述句子表示进行依赖解析处理,得到所述待抽取实体关系的句子的结构信息;
对所述句子的结构信息使用注意力机制和池化操作,提取所述句子的局部特征和全局特征,得到基于关系的语义信息;
拼接所述结构信息和所述语义信息,得到所述待抽取实体关系的句子对应的句子表征;
对所述句子表征进行解码,得到所述待抽取实体关系的句子的实体关系三元组。
进一步地,对所述待抽取实体关系的句子进行编码,得到句子表示,包括:
将所述待抽取实体关系的句子输入Bi-LSTM网络,使用以下公式,提取句子中每个单词Wi对应的隐藏向量hi,得到句子表示得到所述待抽取实体关系的句子的句子表示:
其中,hi为句子中相应位置第i个单词对应的隐藏向量。
进一步地,对所述句子表示进行依赖解析处理,得到所述待抽取实体关系的句子的结构信息,包括:
使用以下公式,得到所述待抽取实体关系的句子对应的结构信息hcomb:
hcomb=(Wcombhout+bcomb)⊕hi
其中,hout=[h(1);…;h(l)],是将l个分离的密连层的输出连接起来的输出;Wcomb为权重矩阵,bcomb为线性变换的偏置向量,hi为句子中相应位置第i个单词对应的隐藏向量。
进一步地,对所述句子的结构信息使用注意力机制和池化操作,提取所述句子的局部特征和全局特征,得到基于关系的语义信息,包括:
将所述句子的结构信息输入平均池中进行平均池化处理,使用以下公式,得到句子的全局表征Sg:
Sg=avg(hk)
其中,hk={hcomb1;…;hcombi};
将所述句子的全局表征Sg、所述句子的结构信息hcomb和关系嵌入矩阵R一起输入到基于关系的注意力机制中,使用以下公式,得到基于关系的句子语义表征Sk和关系矩阵Rk;
Sk,Rk=attention(hk,Sg,R)
其中,Sk为句子的语义表征,Rk为句子的关系矩阵,attention()为注意力机制计算,R是第k种关系的可训练的初始矩阵;
拼接所述句子的全局表征Sg和语义表征Sk,得到基于关系的语义信息Uk。
进一步地,对所述句子表征进行解码,得到所述待抽取实体关系的句子的实体关系三元组,包括:
将所述句子表征输入Bi-LSTM模型,使用以下公式,得到单词序列经过Bi-LSTM模型映射后的句子表征;
使用以下公式,计算关系rk下第n个单词的预测标记的概率P:
其中,wo为权重,bo为偏秩;
当P大于特定阈值时,抽取P值最大的两个实体组,组成当前关系rk的实体关系三元组。
第二方面,本发明还提供一种实体关系抽取装置,包括:
句子获取模块,用于获取待抽取实体关系的句子;
编码模块,用于对所述待抽取实体关系的句子进行编码,得到句子表示,其中,所述句子表示包含句子中每个词的向量表示;
结构信息提取模块,用于对所述句子表示进行依赖解析处理,得到所述待抽取实体关系的句子的结构信息;
语义信息提取模块,用于对所述句子的结构信息使用注意力机制和池化操作,提取所述句子的局部特征和全局特征,得到基于关系的语义信息;
拼接模块,用于拼接所述结构信息和所述语义信息,得到所述待抽取实体关系的句子对应的句子表征;
解码模块,用于对所述句子表征进行解码,得到所述待抽取实体关系的句子的实体关系三元组。
第三方面,本发明还提供一种电子设备,其特征在于,包括:
至少一个存储器以及至少一个处理器;
所述存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述至少一个处理器执行,使得所述至少一个处理器实现如本发明第一方面任一所述的一种实体关系抽取方法的步骤。
第四方面,本发明还提供一种计算机可读存储介质,其特征在于:
所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如本发明第一方面任一所述的一种实体关系抽取方法的步骤。
本发明提供的一种实体关系抽取方法、装置、电子设备及存储介质,通过Bi-LSTM和GCN两次对单词的依赖抽取,和基于关系的注意力机制训练,提升了模型的鲁棒性。实体识别能力强:使用基于图卷积网络的方法,可以在实体重叠情况中很好的识别出尽量多的重叠实体。通过特定的注意力机制解决了图卷积网络容易忽略序列的全局信息的弊端。输出更好的全局信息表征。将结构信息和语语义信息两种信息进行一个耦合,避免了过度拟合训练集中频繁出现的实体与关系现象。
为了更好地理解和实施,下面结合附图详细说明本发明。
附图说明
图1为本发明提供的一种实体关系抽取方法的流程示意图;
图2为本发明在一个实施例中使用的关系抽取网络的结构示意图;
图3为一个示例性的包含实体关系的句子示意图;
图4为本发明提供的一种实体关系抽取装置的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施例方式作进一步地详细描述。
应当明确,所描述的实施例仅仅是本申请实施例一部分实施例,而不是全部的实施例。基于本申请实施例中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本申请实施例保护的范围。
在本申请实施例使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本申请实施例。在本申请实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。在本申请的描述中,需要理解的是,术语“第一”、“第二”、“第三”等仅用于区别类似的对象,而不必用于描述特定的顺序或先后次序,也不能理解为指示或暗示相对重要性。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本申请中的具体含义。
此外,在本申请的描述中,除非另有说明,“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
针对背景技术中的问题,本申请实施例提供一种实体关系抽取方法,首先使用双向LSTM模型对句子的输入进行编码,初步获取句子中每个词之间的依赖;然后使用图卷积把输入的句子进行依赖解析获得依赖树进一步获得邻接矩阵;连接两次句子的输出—结构信息;把上一步的输出输入到基于关系的注意力矩阵中来,分别使用注意力机制和池化操作来提取文本局部特征和全局特征,得到基于关系的语义信息;再通过另一个双向LSTM模型后解码进行基于关系的实体标注。
如图1和图2所示,该方法具体包括以下步骤:
S01:获取待抽取实体关系的句子。
如图3所示,所述句子由多个单词组成,单词与单词之间存在多组实体关系。
S02:对所述待抽取实体关系的句子进行编码,得到句子表示,其中,所述句子表示包含句子中每个词的向量表示。
在一个优选的实施例中,对所述待抽取实体关系的句子进行编码,得到句子表示,包括:
将所述待抽取实体关系的句子输入Bi-LSTM网络,使用以下公式,提取句子中每个单词Wi对应的隐藏向量hi,得到句子表示得到所述待抽取实体关系的句子的句子表示:
其中,hi为句子中相应位置第i个单词对应的隐藏向量。
S03:对所述句子表示进行依赖解析处理,得到所述待抽取实体关系的句子的结构信息。
在一个优选的实施例中,包括以下子步骤:
S034:使用以下公式,得到所述待抽取实体关系的句子对应的结构信息hcomb:
hcomb=(Wcombhout+bcomb)⊕hi
其中,hout=[h(1);…;h(l)],是将l个分离的密连层的输出连接起来的输出;Wcomb为权重矩阵,bcomb为线性变换的偏置向量,hi为句子中相应位置第i个单词对应的隐藏向量。
S04:对所述句子的结构信息使用注意力机制和池化操作,提取所述句子的局部特征和全局特征,得到基于关系的语义信息。
在一个优选的实施例中,包括以下子步骤:
将所述句子的结构信息输入平均池中进行平均池化处理,使用以下公式,得到句子的全局表征Sg:
Sg=avg(hk)
其中,hk={hcomb1;…;hcombi};
将所述句子的全局表征Sg、所述句子的结构信息hcomb和关系嵌入矩阵R一起输入到基于关系的注意力机制中,使用以下公式,得到基于关系的句子语义表征Sk和关系矩阵Rk;
Sk,Rk=attention(hk,Sg,R)
其中,Sk为句子的语义表征,Rk为句子的关系矩阵,attention()为注意力机制计算,R是第k种关系的可训练的初始矩阵;
拼接所述句子的全局表征Sg和语义表征Sk,得到基于关系的语义信息Uk。
S05:拼接所述结构信息和所述语义信息,得到所述待抽取实体关系的句子对应的句子表征。
S06:对所述句子表征进行解码,得到所述待抽取实体关系的句子的实体关系三元组。
在一个优选的实施例中,包括以下子步骤:
S061:将所述句子表征输入Bi-LSTM模型,使用以下公式,得到单词序列经过Bi-LSTM模型映射后的句子表征;
S062:使用以下公式,计算关系rk下第n个单词的预测标记的概率P:
其中,wo为权重,bo为偏秩;
S063:当P大于特定阈值时,抽取P值最大的两个实体组,组成当前关系rk的实体关系三元组。
本发明提供的一种实体关系抽取方法,在经过两次依赖的训练和基于关系的自注意力机制的训练,可以抽取出基于关系的句子表示和较为完全的关系矩阵,在抽取过程,基于每一种关系进行一次标注。如图3所示,基于三种关系进行三标注。每一个实体可以被多次标注。如果同一种关系出现多次也会进行多次标注,因为实体关系三元组可能会存在一个实体的差异。每一种关系就标注一对实体组,同一个实体可以被多次标注,这样就不会出现重复不清的实体标注。
本申请实施例还提供一种实体关系抽取装置,如图4所示,该实体关系抽取装置400包括:
句子获取模块401,用于获取待抽取实体关系的句子;
编码模块402,用于对所述待抽取实体关系的句子进行编码,得到句子表示,其中,所述句子表示包含句子中每个词的向量表示;
结构信息提取模块403,用于对所述句子表示进行依赖解析处理,得到所述待抽取实体关系的句子的结构信息;
语义信息提取模块404,用于对所述句子的结构信息使用注意力机制和池化操作,提取所述句子的局部特征和全局特征,得到基于关系的语义信息;
拼接模块405,用于拼接所述结构信息和所述语义信息,得到所述待抽取实体关系的句子对应的句子表征;
解码模块406,用于对所述句子表征进行解码,得到所述待抽取实体关系的句子的实体关系三元组。
优选的,编码模块包括:
向量提取单元,用于将所述待抽取实体关系的句子输入Bi-LSTM网络,使用以下公式,提取句子中每个单词Wi对应的隐藏向量hi,得到句子表示得到所述待抽取实体关系的句子的句子表示:
其中,hi为句子中相应位置第i个单词对应的隐藏向量。
优选的,结构信息提取模块包括:
结构信息提取单元,用于使用以下公式,得到所述待抽取实体关系的句子对应的结构信息hcomb:
hcomb=(Wcombhout+bcomb)⊕hi
其中,hout=[h(1);…;h(l)],是将l个分离的密连层的输出连接起来的输出;Wcomb为权重矩阵,bcomb为线性变换的偏置向量,hi为句子中相应位置第i个单词对应的隐藏向量。
优选的,语义信息提取模块包括:
全局表征计算单元,用于将所述句子的结构信息输入平均池中进行平均池化处理,使用以下公式,得到句子的全局表征Sg:
Sg=avg(hk)
其中,hk={hcomb1;…;hcombi};
语义表征计算单元,用于将所述句子的全局表征Sg、所述句子的结构信息hcomb和关系嵌入矩阵R一起输入到基于关系的注意力机制中,使用以下公式,得到基于关系的句子语义表征Sk和关系矩阵Rk;
Sk,Rk=attention(hk,Sg,R)
其中,Sk为句子的语义表征,Rk为句子的关系矩阵,attention()为注意力机制计算,R是第k种关系的可训练的初始矩阵;
语义信息计算单元,用于拼接所述句子的全局表征Sg和语义表征Slk,得到基于关系的语义信息Uk。
优选的,解码模块包括:
映射单元,用于将所述句子表征输入Bi-LSTM模型,使用以下公式,得到单词序列经过Bi-LSTM模型映射后的句子表征;
概率计算单元,用于使用以下公式,计算关系rk下第n个单词的预测标记的概率P:
其中,wo为权重,bo为偏秩;
实体关系抽取单元,用于当P大于特定阈值时,抽取P值最大的两个实体组,组成当前关系rk的实体关系三元组。
对于装置实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元。所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
本申请实施例还提供一种电子设备,包括:
至少一个存储器以及至少一个处理器;
所述存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述至少一个处理器执行,使得所述至少一个处理器实现如前所述的一种实体关系抽取方法的步骤。
对于设备实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的设备实施例仅仅是示意性的,其中所述作为分离部件说明的组件可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本公开方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
本申请实施例还提供一种计算机可读存储介质,
所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如前所述的一种实体关系抽取方法的步骤。
计算机可用存储介质包括永久性和非永久性、可移动和非可移动媒体,可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括但不限于:相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(R AM)、只读存储器(R OM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。
本发明提供的一种实体关系抽取方法、装置、电子设备及存储介质,通过Bi-LSTM和GCN两次对单词的依赖抽取,和基于关系的注意力机制训练,提升了模型的鲁棒性。实体识别能力强:使用基于图卷积网络的方法,可以在实体重叠情况中很好的识别出尽量多的重叠实体。通过特定的注意力机制解决了图卷积网络容易忽略序列的全局信息的弊端。输出更好的全局信息表征。将结构信息和语语义信息两种信息进行一个耦合,避免了过度拟合训练集中频繁出现的实体与关系现象。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。
Claims (8)
1.一种实体关系抽取方法,其特征在于,包括以下步骤:
获取待抽取实体关系的句子;
对所述待抽取实体关系的句子进行编码,得到句子表示,其中,所述句子表示包含句子中每个词的向量表示;
对所述句子表示进行依赖解析处理,得到所述待抽取实体关系的句子的结构信息;
对所述句子的结构信息使用注意力机制和池化操作,提取所述句子的局部特征和全局特征,得到基于关系的语义信息;
拼接所述结构信息和所述语义信息,得到所述待抽取实体关系的句子对应的句子表征;
对所述句子表征进行解码,得到所述待抽取实体关系的句子的实体关系三元组。
3.根据权利要求2所述的一种实体关系抽取方法,其特征在于,对所述句子表示进行依赖解析处理,得到所述待抽取实体关系的句子的结构信息,包括:
使用以下公式,得到所述待抽取实体关系的句子对应的结构信息hcomb:
其中,hout=[h(1);…;h(l)],是将1个分离的密连层的输出连接起来的输出;Wcomb为权重矩阵,bcomb为线性变换的偏置向量,hi为句子中相应位置第i个单词对应的隐藏向量。
4.根据权利要求3所述的一种实体关系抽取方法,其特征在于,对所述句子的结构信息使用注意力机制和池化操作,提取所述句子的局部特征和全局特征,得到基于关系的语义信息,包括:
将所述句子的结构信息输入平均池中进行平均池化处理,使用以下公式,得到句子的全局表征Sg:
Sg=avg(hk)
其中,hk={hcomb1;...;hcombi};
将所述句子的全局表征Sg、所述句子的结构信息hcomb和关系嵌入矩阵R一起输入到基于关系的注意力机制中,使用以下公式,得到基于关系的句子语义表征Sk和关系矩阵Rk;
Sk,Rk=attention(hk,Sg,R)
其中,Sk为句子的语义表征,Rk为句子的关系矩阵,attention()为注意力机制计算,R是第k种关系的可训练的初始矩阵;
拼接所述句子的全局表征Sg和语义表征Sk,得到基于关系的语义信息Uk。
6.一种实体关系抽取装置,其特征在于,包括:
句子获取模块,用于获取待抽取实体关系的句子;
编码模块,用于对所述待抽取实体关系的句子进行编码,得到句子表示,其中,所述句子表示包含句子中每个词的向量表示;
结构信息提取模块,用于对所述句子表示进行依赖解析处理,得到所述待抽取实体关系的句子的结构信息;
语义信息提取模块,用于对所述句子的结构信息使用注意力机制和池化操作,提取所述句子的局部特征和全局特征,得到基于关系的语义信息;
拼接模块,用于拼接所述结构信息和所述语义信息,得到所述待抽取实体关系的句子对应的句子表征;
解码模块,用于对所述句子表征进行解码,得到所述待抽取实体关系的句子的实体关系三元组。
7.一种电子设备,其特征在于,包括:
至少一个存储器以及至少一个处理器;
所述存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述至少一个处理器执行,使得所述至少一个处理器实现如权利要求1-5任一所述的一种实体关系抽取方法的步骤。
8.一种计算机可读存储介质,其特征在于:
所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1-5任一所述的一种实体关系抽取方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210384509.5A CN115048926A (zh) | 2022-04-13 | 2022-04-13 | 一种实体关系抽取方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210384509.5A CN115048926A (zh) | 2022-04-13 | 2022-04-13 | 一种实体关系抽取方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115048926A true CN115048926A (zh) | 2022-09-13 |
Family
ID=83158440
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210384509.5A Pending CN115048926A (zh) | 2022-04-13 | 2022-04-13 | 一种实体关系抽取方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115048926A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116629264A (zh) * | 2023-05-24 | 2023-08-22 | 成都信息工程大学 | 一种基于多个词嵌入和多头自注意力机制的关系抽取方法 |
-
2022
- 2022-04-13 CN CN202210384509.5A patent/CN115048926A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116629264A (zh) * | 2023-05-24 | 2023-08-22 | 成都信息工程大学 | 一种基于多个词嵌入和多头自注意力机制的关系抽取方法 |
CN116629264B (zh) * | 2023-05-24 | 2024-01-23 | 成都信息工程大学 | 一种基于多个词嵌入和多头自注意力机制的关系抽取方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Liu et al. | Tree-structured decoding for solving math word problems | |
CN108415953B (zh) | 一种基于自然语言处理技术的不良资产经营知识管理方法 | |
CN112966074B (zh) | 一种情感分析方法、装置、电子设备以及存储介质 | |
US11972365B2 (en) | Question responding apparatus, question responding method and program | |
CN111078836B (zh) | 基于外部知识增强的机器阅读理解方法、系统、装置 | |
CN111914067B (zh) | 中文文本匹配方法及系统 | |
CN110826336A (zh) | 一种情感分类方法、系统、存储介质及设备 | |
CN111079532A (zh) | 一种基于文本自编码器的视频内容描述方法 | |
CN110990555B (zh) | 端到端检索式对话方法与系统及计算机设备 | |
JP7315065B2 (ja) | 質問生成装置、質問生成方法及びプログラム | |
CN109857846B (zh) | 用户问句与知识点的匹配方法和装置 | |
CN111814487B (zh) | 一种语义理解方法、装置、设备及存储介质 | |
CN110807335B (zh) | 基于机器学习的翻译方法、装置、设备及存储介质 | |
CN111145914B (zh) | 一种确定肺癌临床病种库文本实体的方法及装置 | |
CN111814489A (zh) | 口语语义理解方法及系统 | |
CN112463989B (zh) | 一种基于知识图谱的信息获取方法及系统 | |
CN108536735A (zh) | 基于多通道自编码器的多模态词汇表示方法与系统 | |
CN114692602A (zh) | 一种句法信息注意力引导的图卷积网络关系抽取方法 | |
CN113705196A (zh) | 基于图神经网络的中文开放信息抽取方法和装置 | |
CN112200664A (zh) | 基于ernie模型和dcnn模型的还款预测方法 | |
CN114091450A (zh) | 一种基于图卷积网络的司法领域关系抽取方法和系统 | |
CN113761868A (zh) | 文本处理方法、装置、电子设备及可读存储介质 | |
CN116303881A (zh) | 一种基于自监督表示学习的企业单位地址匹配方法及装置 | |
CN115048926A (zh) | 一种实体关系抽取方法、装置、电子设备及存储介质 | |
CN114036246A (zh) | 商品图谱向量化方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |