CN115292504B - 实体关系分类方法、装置、设备及存储介质 - Google Patents
实体关系分类方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN115292504B CN115292504B CN202211195163.0A CN202211195163A CN115292504B CN 115292504 B CN115292504 B CN 115292504B CN 202211195163 A CN202211195163 A CN 202211195163A CN 115292504 B CN115292504 B CN 115292504B
- Authority
- CN
- China
- Prior art keywords
- entity
- vector
- vectors
- iteration
- word
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提供了一种实体关系分类方法、装置、设备及存储介质,涉及信息抽取领域,包括:基于上一次迭代后实体向量以及上一次迭代后词向量确定邻接矩阵;基于当前迭代的邻接矩阵对当前实体向量更新,以确定当前迭代后的所有实体向量;基于每次迭代后的所有实体向量确定每次迭代后任意两个实体向量所组成实体对的分类结果;上一次迭代后实体向量包括已连接实体向量及未连接实体向量;所述已连接实体向量基于目标文档中实体向量间的第一注意力得分确定,上一次迭代后词向量基于目标文档中实体向量与所有词向量间的第二注意力得分确定。本发明通过对实体向量进行动态迭代更新,以使得图结构能够具有更好的表达能力,从而使得实体关系分类更为精确。
Description
技术领域
本发明涉及信息抽取领域,尤其涉及一种实体关系分类方法、装置、设备及存储介质。
背景技术
关系抽取任务是指根据文本中的信息判断文本中任意两个实体之间存在的语义关系,其中实体指一些特定的专有名词,如人名、地名、时间等。对于关系抽取任务得到的结果,通常以实体关系三元组的形式返回,形式化表示为(E1,R,E2),其中E1、E2分别指代头实体与尾实体,R代表它们之间的关系。例如,在文本“A出生于B地”中,存在人物实体“A”和地点实体“B”,并且它们之间存在“出生地”的关系,那么就可以返回实体关系三元组(“A”,“出生地”,“B”)。关系抽取任务中,实体和关系的类型通常需要预先定义,如上例中“出生地”即是一种预先定义的关系类型。
对于关系抽取的研究,可以划分为句子级的关系抽取和文档级的关系抽取。文档级关系抽取任务通常是给定一段文本和其中包含的所有实体,去判断这些实体之间可能存在的关系。相较于句子级的关系抽取,文档级关系抽取难度更大。因为其段落通常比较长,有些实体之间相隔的比较远,要判断它们之间的关系可能要用到远程的语义信息而不仅仅是实体附近的语义信息。而现在多数的语言模型对于远程信息的学习效果并不是很好,这也就决定了想要在文档上准确的识别出所有实体之间的关系是比较困难的。随着文档中的支持句子数量增加,模型的性能表现越优,使用序列模型对文档进行建模取得了一定效果,但是由于序列模型自身存在的不能够很好捕捉远程信息的缺点,使得序列模型在文档级关系抽取任务中有一定的局限性。
虽然当前基于图神经网络进行关系抽取的研究众多,但是对于图神经网络的构建和更新方面还是存在一些问题:首先,目前对于图神经网络的构建大多基于规则构建,模型的好坏非常依赖于规则设计的好坏;其次,图神经网络的节点往往固定在部分节点之间,模型不能够从全文动态的获取新的信息,学习到更为合理的图结构。
而目前,并没有一种自适应动态图神经网络动态更新图结构的技术方案,具体地,并没有一种实体关系分类方法、装置、设备及存储介质。
发明内容
本发明提供一种实体关系分类方法、装置、设备及存储介质,用以解决现有图神经网络模型表达能力不足的缺陷,本发明能够通过对实体向量进行动态迭代更新,使得实体关系分类更为精确。
第一方面,本发明提供了一种实体关系分类方法,包括:
基于上一次迭代后实体向量以及上一次迭代后词向量确定邻接矩阵;
基于当前迭代的邻接矩阵对当前实体向量更新,以确定当前迭代后的所有实体向量;
基于每次迭代后的所有实体向量确定每次迭代后任意两个实体向量所组成实体对的分类结果;
所述上一次迭代后实体向量包括已连接实体向量以及未连接实体向量;
在每次迭代中,每一个词向量连接至少一个实体向量;
所述已连接实体向量基于目标文档中实体向量间的第一注意力得分确定,所述上一次迭代后词向量基于目标文档中实体向量与所有词向量间的第二注意力得分确定。
本发明提供了一种实体关系分类方法,所述已连接实体向量基于目标文档中实体向量间的第一注意力得分确定,包括:
确定每一实体向量与其他实体向量间的每个第一查询矩阵、每个第一键矩阵、每个第一值矩阵以及每个第一词向量维度,以获取每一实体向量与其他实体向量的所有子第一注意力得分;
将所有子第一注意力得分求和,以获取每一实体向量的第一注意力得分;
将所述第一注意力得分满足第一预设阈值的所有实体向量确定为已连接实体向量。
本发明提供了一种实体关系分类方法,所述上一次迭代后词向量基于目标文档中实体向量与所有词向量间的第二注意力得分确定,包括:
确定每一实体向量与所有词向量间的每个第二查询矩阵、每个第二键矩阵、每个第二值矩阵以及每个第二词向量维度,以获取每一实体向量与每一词向量间的所有子第二注意力得分;
将所有子第二注意力得分求和,以获取每一实体向量的第二注意力得分;
将所述第二注意力得分满足第二预设阈值的所有词向量确定为上一次迭代后词向量。
本发明提供了一种实体关系分类方法,所述基于当前迭代的邻接矩阵对当前实体向量更新,以确定当前迭代后的所有实体向量,包括:
基于邻接矩阵、权重矩阵、偏置向量、以及激活函数对当前实体向量更新,以确定当前迭代后的实体向量;
基于迭代预设次数进行多次更新,以获取每次迭代后的所有实体向量。
本发明提供了一种实体关系分类方法,所述基于每次迭代后的所有实体向量确定每次迭代后任意两个实体向量所组成实体对的分类结果,包括:
确定迭代后的任一实体向量与任一其他实体向量所组成实体对的分类结果;
遍历迭代后的所有实体向量,以确定每次迭代后任意两个实体向量所组成实体对的分类结果。
本发明提供了一种实体关系分类方法,所述确定迭代后的任一实体向量与任一其他实体向量所组成实体对的分类结果,包括:
基于任一实体向量与任一其他实体向量的参数矩阵、偏置向量、给定关系参数、激活函数确定任一实体向量与任一其他实体向量所组成实体对的实体关系分类结果;
逐一确定所述实体向量与所有其他实体向量所组成实体对的每个实体关系分类结果。
本发明提供了一种实体关系分类方法,在基于上一次迭代后实体向量以及上一次迭代后词向量确定邻接矩阵之前,包括:
处理目标文档,以获取实体以及词;
处理所述实体以及所述词,以获取所有实体向量以及所有词向量。
第二方面,本发明还提供了一种实体关系分类装置,包括:
第一处理装置:用于基于上一次迭代后实体向量以及上一次迭代后词向量确定邻接矩阵;
第二处理装置:用于基于当前迭代的邻接矩阵对当前实体向量更新,以确定当前迭代后的所有实体向量;
确定装置:用于基于每次迭代后的所有实体向量确定每次迭代后任意两个实体向量所组成实体对的分类结果;
所述上一次迭代后实体向量包括已连接实体向量以及未连接实体向量;
在每次迭代中,每一个词向量连接至少一个实体向量;
所述已连接实体向量基于目标文档中实体向量间的第一注意力得分确定,所述上一次迭代后词向量基于目标文档中实体向量与所有词向量间的第二注意力得分确定。
第三方面,本发明还提供了一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述程序时实现所述的实体关系分类方法。
第四方面,本发明还提供了一种非暂态计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现所述的实体关系分类方法。
本发明基于上一次迭代后实体向量以及上一次迭代后词向量确定邻接矩阵;基于当前迭代的邻接矩阵对当前实体向量更新,以确定当前迭代后的所有实体向量;基于每次迭代后的所有实体向量确定每次迭代后任意两个实体向量所组成实体对的分类结果。本发明提供了一种不依赖于规则设计的图神经网络模型构建方法,能够通过对实体向量进行动态迭代更新,自动的从全文挑选节点构建图神经网络模型并动态的更新图结构以使得图神经网络模型能够具有更好的表达能力,从而使得实体关系分类更为精确。
附图说明
为了更清楚地说明本发明或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明提供的实体关系分类方法的流程示意图之一;
图2是本发明提供的实体关系分类方法的流程示意图之二;
图3是本发明提供的实体关系分类方法的流程示意图之三;
图4是本发明提供的确定每次迭代后的所有实体向量的流程示意图;
图5是本发明提供的确定每次迭代后实体向量间的分类结果的流程示意图;
图6是本发明提供的确定分类结果的流程示意图;
图7是本发明提供的实体关系分类方法的流程示意图之四;
图8是本发明提供的实体关系分类装置的结构示意图;
图9是本发明提供的电子设备的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在现实的应用中,有很多互相之间有关系的实体并不会出现在同一个句子当中,它们可能分布在不同的句子中,这样针对于单句的关系抽取模型便不能够判断出它们之间的关系,因此基于这种情形,文档级的关系抽取开始受到关注。
文档级关系抽取任务通常是给定一段文本和其中包含的所有实体,去判断这些实体之间可能存在的关系,相较于句子级的关系抽取,文档级关系抽取难度更大。因为其段落通常比较长,有些实体之间相隔的比较远,要判断它们之间的关系可能要用到远程的语义信息而不仅仅是实体附近的语义信息。而现在多数的语言模型对于远程信息的学习效果并不是很好,这也就决定了想要在文档上准确的识别出所有实体之间的关系是比较困难的。
当前对于文档级关系抽取的研究,主要有基于序列建模的方法和基于图神经网络的方法。基于序列的建模方法主要是使用传统的序列模型学习文章的序列信息来实现对关系的分类,随着文档中的支持句子数量增加,模型的性能表现越优,使用序列模型对文档进行建模取得了一定效果,但是由于序列模型自身存在的不能够很好捕捉远程信息的缺点,使得序列模型在文档级关系抽取任务中有一定的局限性。
基于图神经网络的方式是使用文中出现的实体的上下文词作为图网络的节点,使用一定的方式建立这些节点之间的连接,从而得到一个图网络,继而再对图网络进行更新使得信息能够在节点之间传播。由于图网络建立规则的不同,一些在文章中距离很远的节点在图网络中也可能有连接的边,从而使得信息能够在相距较远的节点之间传播,弥补了序列模型的不足。虽然当前基于图神经网络进行关系抽取的研究众多,但是对于图神经网络的构建和更新方面还是存在一些问题,无法从全文挑选节点构建图神经网络模型并动态的更新图结构以使得图神经网络模型能够具有更好的表达能力,从而无法使得实体关系分类更为精确,因此,本发明提出了一种实体关系分类方法、装置、设备及存储介质,能够自动的从全文挑选节点构建图网络并动态的更新图结构以使得图模型能够具有更好的表达能力。
图1是本发明提供的实体关系分类方法的流程示意图之一,所述实体关系分类方法,包括:
基于上一次迭代后实体向量以及上一次迭代后词向量确定邻接矩阵;
基于当前迭代的邻接矩阵对当前实体向量更新,以确定当前迭代后的所有实体向量;
基于每次迭代后的所有实体向量确定每次迭代后任意两个实体向量所组成实体对的分类结果;
所述上一次迭代后实体向量包括已连接实体向量以及未连接实体向量;
在每次迭代中,每一个词向量连接至少一个实体向量;
所述已连接实体向量基于目标文档中实体向量间的第一注意力得分确定,所述上一次迭代后词向量基于目标文档中实体向量与所有词向量间的第二注意力得分确定。
在步骤S101中,所述上一次迭代后实体向量并不针对某一特定轮次的实体向量,而是为了体现出一种动态的迭代过程,即给出的一种实体向量在上一次迭代后的状态,所述上一次迭代后实体向量是组成迭代后图神经网络模型的一部分,优选地,将所有迭代后实体向量带入到迭代后图神经网络模型中进行训练,所述上一次迭代后词向量即为所有上一次迭代后词向量中的一部分,具体地,是可以被用于连接部分实体向量的指定词向量,所述上一次迭代后词向量可以基于所有迭代后实体向量与所有词向量之间的连接关系而确定,所述上一次迭代后词向量同样是组成邻接矩阵的一部分,优选地,将所述上一次迭代后词向量带入到迭代后图神经网络模型中进行训练,具体地,将所有迭代后实体向量以及所述上一次迭代后词向量代入到迭代后图神经网络模型中进行训练,以构建迭代后图神经网络模型,而所述上一次迭代后实体向量间的连接关系,以及上一次迭代后词向量与所有迭代后实体向量中的至少一个迭代后实体向量之间的连接关系,构成了此次的邻接矩阵,所述邻接矩阵用于后述中的迭代更新。
所述上一次迭代后实体向量包括已连接实体向量以及未连接实体向量,所述已连接实体向量是具备连接其他实体向量或者其他词向量属性的实体向量,每一已连接实体向量连接所有迭代后实体向量中的至少一个迭代后实体向量,即每一个已连接实体向量可以连接一个或多个其他的迭代后实体向量,在每次迭代中,每一个词向量连接至少一个实体向量,每一上一次迭代后词向量连接所有迭代后实体向量中的至少一个迭代后实体向量,即上一次迭代后词向量一定存在与其他实体向量的连接关系。
所述已连接实体向量基于目标文档中实体向量间的第一注意力得分确定,本发明优选地确定每一个实体向量与其他所有实体向量间的重要性程度的得分,而所有重要性程度的得分之和为实体向量相对于其他实体向量而言的总重要程度,基于重要程度的排序即可选择出最为重要的若干个实体向量,即为已连接实体向量。
相应地,所述上一次迭代后词向量基于目标文档中所述迭代后实体向量与所有词向量间的第二注意力得分确定,本发明优选地确定每一个实体向量与其他所有词向量间的重要性程度的得分,而所有重要性程度的得分之和即为实体向量相对于其他普通字词向量间而言的总重要程度,基于重要程度的排序即可选择出最为重要的若干个实体向量相对应的普通字词向量,即为上一次迭代后词向量。
而邻接矩阵表示的为迭代后图神经网络模型中实体节点和其它实体节点与普通字词节点的连接关系,即通过计算出实体向量与实体向量、实体向量与普通字词向量的注意力得分,选出其中较高的若干个节点建立连接,进而得到实体节点和其它实体节点与普通字词节点的连接关系,对所有的实体节点都进行上述操作后就可以得到邻接矩阵。
在步骤S102中,所述当前实体向量即为用于确定邻接矩阵的上一次迭代后实体向量,本领域技术人员为了方便理解每次邻接矩阵的执行对象,且不至于导致理解混淆,优选地用两种表述方法来表达同一技术特征,即上一次迭代后实体向量即为当前实体向量,基于邻接矩阵对当前实体向量更新,即可以实现每一次迭代后的实体向量的动态更新,进一步地,在一个优选地实施例中,在第一轮迭代结束后,确定第一轮的邻接矩阵,基于第一轮的邻接矩阵对第一轮的实体向量进行更新,确定更新后的第二轮的实体向量,基于第二轮的实体向量以及普通字词向量确定第二轮的邻接矩阵,其中,第二轮的实体向量间的连接关系发生了改变,第二轮实体向量与普通字词向量之间的连接关系也发生了改变,由于第二轮实体向量发生了变化,以使得用于产生连接的第二轮的普通字词向量与第一轮的普通字词向量并不是相同的向量,进而基于第二轮的实体向量间的连接关系以及实体向量与普通字词间的连接关系确定第二轮的邻接矩阵,依次类推,进而进行多轮动态迭代更新,以确定每次迭代后的所有实体向量。
在步骤S103中,每次迭代后任意两个实体向量所组成实体对的分类结果是指任意两两实体间的分类结果,在一个优选地实施例中,将通过最后一次迭代过程中所确定的实体向量作为分类训练中的输入,进而确定迭代后实体向量间的分类结果。
本发明基于上一次迭代后实体向量以及上一次迭代后词向量确定邻接矩阵;基于当前迭代的邻接矩阵对当前实体向量更新,以确定当前迭代后的所有实体向量;基于每次迭代后的所有实体向量确定每次迭代后任意两个实体向量所组成实体对的分类结果。本发明提供了一种不依赖于规则设计的图神经网络模型构建方法,能够通过对实体向量进行动态迭代更新,自动的从全文挑选节点构建图神经网络模型并动态的更新图结构以使得图神经网络模型能够具有更好的表达能力,从而使得实体关系分类更为精确。
为了检验本发明的效果,本发明在文档级关系抽取数据集上进行了试验。文档级关系抽取数据集包含5053条样本,40276个句子,132375个实体实例,96种关系类型,63,427个关系实例,是当前文档级关系抽取领域数据量最大,关系种类最丰富的数据集。
为了更好的验证自适应动态图神经网络(Adaptive Dynamic Graph NeuralNetwork,ADGNN)的效果,选取F1值以及Ign F1、Intra-F1、Inter-F1作为评价指标。
F1值:F1值是综合精确率和召回率的一个指标,精确率是指模型预测为正样本的数据中预测正确的比例,召回率是指所有正样本中被模型预测出来的比例。为了能够评价不同算法的优劣,在精确率和召回率的基础上提出了F1值的概念,来对精确率和召回率进行整体评价:F1值=精确率*召回率*2/(精确率+召回率);
Ign F1值:为了验证模型对于未出现过的关系实例识别的能力,提出了Ign F1。Ign F1指去除验证集和测试集中和训练集重叠的实体关系三元组后计算出的F1值。
Intra-F1与Inter-F1值:为了衡量模型对于跨句子关系的识别能力,还引入了Intra-F1与Inter-F1值。Intra-F1值计算的是句子内部实体关系三元组的F1值,Inter-F1值计算的是跨句子的实体关系三元组的F1值。
为了验证本发明提出方法的有效性,本发明选取了卷积神经网络(ConvolutionalNeural Networks, CNN)、长短期记忆网络(Long Short-Term Memory,LSTM)、双向长短词记忆模型(Bi-directional Long Short-Term Memory,BiLSTM)、上下文感知(ContextAware)、初探图卷积神经网络(Graph Convolutional Neural Network,GCNN)、图注意力层(Graph attention layer,GAT)、眼电图(Electro-oculogram,EoG)、异质信息网络(Heterogeneous Information Network,HIN)以及预训练的语言表征模型(BidirectionalEncoder Representation from Transformers,BERT)、两阶段预训练的语言表征模型(Two-phase BERT)、共指信息的预训练模型(CorefBERT)作为基准模型。实验结果如下:
图2是本发明提供的实体关系分类方法的流程示意图之二,所述已连接实体向量基于目标文档中实体向量间的第一注意力得分确定,包括:
确定每一实体向量与其他实体向量间的每个第一查询矩阵、每个第一键矩阵、每个第一值矩阵以及每个第一词向量维度,以获取每一实体向量与其他实体向量的所有子第一注意力得分;
将所有子第一注意力得分求和,以获取每一实体向量的第一注意力得分;
将所述第一注意力得分满足第一预设阈值的所有实体向量确定为已连接实体向量。
在步骤S201中,通过如下公式确定任一实体向量与其他实体向量的子第一注意力得分:
在步骤S202中,通过如下公式获取每一实体向量的第一注意力得分:
在步骤S203中,将所述第一注意力得分满足第一预设阈值的所有迭代后实体向量确定为已连接实体向量,在这样的实施例中,所述第一预设阈值可以根据需求设定,而第一预设阈值设定的高低将决定已连接实体向量的数量,当第一预设阈值设定的门槛较高时,已连接实体向量的数量越少,当第一预设阈值设定的门槛较低时,已连接实体向量的数量越多。
图3是本发明提供的实体关系分类方法的流程示意图之三,所述上一次迭代后词向量基于目标文档中实体向量与所有词向量间的第二注意力得分确定,包括:
确定每一实体向量与所有词向量间的每个第二查询矩阵、每个第二键矩阵、每个第二值矩阵以及每个第二词向量维度,以获取每一实体向量与每一词向量间的所有子第二注意力得分;
将所有子第二注意力得分求和,以获取每一实体向量的第二注意力得分;
将所述第二注意力得分满足第二预设阈值的所有词向量确定为上一次迭代后词向量。
在步骤S301中,通过如下公式确定每一实体向量与每一词向量间的所有子第二注意力得分:
在步骤S302中,通过如下公式获取每一实体向量的第二注意力得分:
为了区分不同实体向量的重要程度,本发明定义了实体重要性,即一个实体向量的实体重要性被定义为实体和实体所在样本中所有词向量的注意力得分之和。经过式(5)计算出实体重要性得分后,将根据获得到的实体重要性得分来确定实体连接向量的个数,例如,对于实体重要性高的向量,将会连接更多的其他实体向量和普通字词向量。
在步骤S303中,在一个优选地实施例中,可以以迭代后实体向量作为确定对象,进而将所述第二注意力得分满足第二预设阈值的所有迭代后实体向量确定为用于确定迭代后词向量的实体向量,具体地,确定满足第二预设阈值的所有迭代后实体向量,确定与所有迭代后实体向量关联程度最高的迭代后词向量,将与所有迭代后实体向量关联程度最高的迭代后词向量作为上一次迭代后词向量。
而在另一个实施例中,还可以直接以迭代后词向量作为确定对象,具体地,确定满足第二预设阈值的所有迭代后词向量,确定与所有迭代后词向量关联程度最高的迭代后实体向量,将满足第二预设阈值的迭代后词向量作为上一次迭代后词向量,并在构建邻接矩阵时,将迭代后词向量与其相对应的迭代后实体向量建立连接关系。
本领域技术人员理解,每个实体向量计算出其和其它实体向量、普通字词向量的注意力得分后,会和其中得分较高的若干个其它实体向量、普通字词向量建立连接,例如,在需要连接五个实体向量以及五个普通字词向量的情况下,就可以与注意力得分最高的五个实体向量和五个普通字词向量连接。每个实体向量连接的其他实体节点和普通字词节点不是固定的,由实体重要性得分确定,实体重要性得分越来,其就可以连接越多的其它实体向量、普通字词向量。
结合本发明图2以及图3,S1是计算实体之间的注意力得分,S2是计算实体与普通字词的注意力得分,实体之间的连接是根据S1得分来连接,实体与普通字词节点之间的连接是根据S2得分来连接,实体重要性是用来确定每个实体节点可以用于连接多少个其他实体节点和普通字词节点的。实体重要性得分高的节点会连接更多的实体节点和普通字词节点,例如,根据实体重要性得分,当前实体节点要连接5个其他实体节点和4个普通字词节点,那么可以选择5个与当前实体节点S1得分最高的实体节点和4个与S2得分最高的普通字词节点建立连接。
图4是本发明提供的确定每次迭代后的所有实体向量的流程示意图,所述基于当前迭代的邻接矩阵对当前实体向量更新,以确定当前迭代后的所有实体向量,包括:
基于邻接矩阵、权重矩阵、偏置向量、以及激活函数对当前实体向量更新,以确定当前迭代后的实体向量;
基于迭代预设次数进行多次更新,以获取每次迭代后的所有实体向量。
在步骤S1021中,通过如下公式确定迭代后的实体向量:
在每轮邻接矩阵更新后,图神经网络模型都会重新计算实体向量与其他实体向量的注意力得分,实体向量与普通字词向量的注意力得分,由于实体向量与其他实体向量、实体向量与普通字词向量在一轮邻接矩阵更新过后,实体向量的向量表示会有所变化,所以每轮更新过后计算出的注意力得分也会有所不同,从而实体向量会选出新的与之相连的其他实体向量以及普通字词向量,进而达到邻接矩阵以及所有实体向量的动态更新,而动态更新是为了学习到更合理的图神经网络结构。本发明在初始时即可以构建图神经网络模型,而图神经网络模型将不会发生变化,发生变化的只是邻接矩阵以及所有实体向量,经过邻接矩阵的更新,图中的节点表示会有所变化,此时再根据更新过后的实体向量重新选择,进而确定出更为合适的实体向量。
更为具体地,在实际测得实体关系分类后,通过损失函数可以更新迭代图神经网络模型,即通过第三次迭代模型参数、第二次迭代模型参数以及第一次迭代模型参数对图神经网络模型进行训练,进而使得图神经网络模型更为优化。
在步骤S1022中,基于迭代预设次数进行多次更新,以获取每次迭代后的所有实体向量。遍历每次待更新的所有实体向量,以确定迭代后的所有实体向量,此步骤的目的是对所有的迭代后实体向量进行实体向量更新,进而改变所有的迭代后实体向量的向量表示,以确定迭代后的所有实体向量。
所述迭代次数可以基于实际需求设定,本发明可以在每次迭代后就确定一次迭代后实体向量间的分类结果,进而分析每次所得出的实体向量间的分类结果的差异性,随着每次迭代后,分类结果合理性的研究,精准性提升的研究,从而确定需要迭代的次数,随着迭代次数的增加,其分类结果的合理性以及准确性将不断提升,但也会随着迭代次数的增加,增加额外的计算量,故可以根据人为设定或样本训练选择最为合适的迭代次数。
在本发明的图神经网络模型构建好后,将会执行对实体节点的更新,而在以往基于图神经网络的文档级关系抽取研究中,对于图神经网络的更新都只在固定的节点之间,本发明提供了一种更新实体向量表示,进而动态更新实体节点,更新后的图神经网络模型又会反作用于更新后的实体向量表示,从而实现不断迭代的过程。
图5是本发明提供的确定迭代后实体向量间的分类结果的流程示意图,所述基于每次迭代后的所有实体向量确定每次迭代后任意两个实体向量所组成实体对的分类结果,包括:
确定迭代后的任一实体向量与任一其他实体向量所组成实体对的分类结果;
遍历迭代后的所有实体向量,以确定每次迭代后任意两个实体向量所组成实体对的分类结果。
在步骤S1031中,本发明将确定迭代后的每一个实体向量与每一个实体向量所组成实体对的分类结果,其逐一确定任一实体向量与其他实体向量所组成实体对的分类结果。
在步骤S1032中,即遍历迭代后的所有实体向量,对每一个实体向量与其他实体向量所组成实体对的分类结果进行计算,进而确定迭代后实体向量所组成实体对的分类结果。
图6是本发明提供的确定分类结果的流程示意图,所述确定迭代后的任一实体向量与任一其他实体向量所组成实体对的分类结果,包括:
基于任一实体向量与任一其他实体向量的参数矩阵、偏置向量、给定关系参数、激活函数确定任一实体向量与任一其他实体向量所组成实体对的实体关系分类结果;
逐一确定所述实体向量与所有其他实体向量所组成实体对的每个实体关系分类结果。
在步骤S10311中,基于如下公式确定任一实体向量与任一其他实体向量的分类结果:
其中分别为任一实体向量与任一其他实体向量,为参数矩阵,为偏
置向量,为给定关系参数,为sigmod激活函数,用于将双线性函数转换成概率值,在经
过分类层的分类后,会得到最终对于实体对之间关系的分类结果,本发明将经过自适应动
态图神经网络更新过后的实体向量输入到分类器中进行实体关系的分类,分类器使用双线
性函数,给定关系参数表示的是给定的关系种类,是预先定义好的,关系抽取任务的本质
也就是判断任意两个实体之间存在何种关系,但是图神经网络模型不能凭空的给出实体之
间的关系,需要先预定义好可能的关系种类,然后在这些关系种类中决定当前图神经网络
模型的实体之间的关系属于何种。
在步骤S10312中,逐一确定所述实体向量与所有其他实体向量所组成实体对的每个实体关系分类结果,基于步骤S10311,可以确定任一实体向量与任一其他实体向量的实体关系分类结果,而本步骤的目的是确定所述实体向量与每一个其他实体向量之间的每个实体关系分类结果。
图7是本发明提供的实体关系分类方法的流程示意图之四,在基于上一次迭代后实体向量以及上一次迭代后词向量确定邻接矩阵之前,包括:
处理目标文档,以获取实体以及词;
处理所述实体以及所述词,以获取所有实体向量以及所有词向量。
在步骤S401中,所述目标文档即为待处理的,待对实体进行分类的文档,首先确定所述目标文档中的所有实体以及所有词。
在步骤S402中,本发明使用预训练的语言表征模型对文本进行编码,经过语言模型编码后,自然语言将被转化为具有语义的词向量,作为下一阶段的输入。使用预训练的语言表征模型编码的表达式如下式:
图8是本发明提供的实体关系分类装置的结构示意图,包括:第一处理装置1:用于基于上一次迭代后实体向量以及上一次迭代后词向量确定邻接矩阵,所述第一处理装置1的工作原理可以参考前述步骤S101,在此不予赘述。
所述实体关系分类装置还包括第二处理装置2:用于基于当前迭代的邻接矩阵对当前实体向量更新,以确定当前迭代后的所有实体向量,所述第二处理装置2的工作原理可以参考前述步骤S102,在此不予赘述。
所述实体关系分类装置还包括确定装置3:用于基于每次迭代后的所有实体向量确定每次迭代后任意两个实体向量所组成实体对的分类结果,所述确定装置3的工作原理可以参考前述步骤S103,在此不予赘述。
所述上一次迭代后实体向量包括已连接实体向量以及未连接实体向量;
在每次迭代中,每一个词向量连接至少一个实体向量;
所述已连接实体向量基于目标文档中实体向量间的第一注意力得分确定,所述上一次迭代后词向量基于目标文档中实体向量与所有词向量间的第二注意力得分确定。
本发明基于上一次迭代后实体向量以及上一次迭代后词向量确定邻接矩阵;基于当前迭代的邻接矩阵对当前实体向量更新,以确定当前迭代后的所有实体向量;基于每次迭代后的所有实体向量确定每次迭代后任意两个实体向量所组成实体对的分类结果。本发明提供了一种不依赖于规则设计的图神经网络模型构建方法,能够通过对实体向量进行动态迭代更新,自动的从全文挑选节点构建图神经网络模型并动态的更新图结构以使得图神经网络模型能够具有更好的表达能力,从而使得实体关系分类更为精确。
图9是本发明提供的电子设备的结构示意图。如图9所示,该电子设备可以包括:处理器(processor)510、通信接口(Communications Interface)520、存储器(memory)530和通信总线540,其中,处理器510,通信接口520,存储器530通过通信总线540完成相互间的通信。处理器510可以调用存储器530中的逻辑指令,以执行实体关系分类方法,该方法包括:基于上一次迭代后实体向量以及上一次迭代后词向量确定邻接矩阵;基于当前迭代的邻接矩阵对当前实体向量更新,以确定当前迭代后的所有实体向量;基于每次迭代后的所有实体向量确定每次迭代后任意两个实体向量所组成实体对的分类结果;所述上一次迭代后实体向量包括已连接实体向量以及未连接实体向量;在每次迭代中,每一个词向量连接至少一个实体向量;所述已连接实体向量基于目标文档中实体向量间的第一注意力得分确定,所述上一次迭代后词向量基于目标文档中实体向量与所有词向量间的第二注意力得分确定。
此外,上述的存储器530中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
另一方面,本发明还提供一种计算机程序产品,所述计算机程序产品包括计算机程序,计算机程序可存储在非暂态计算机可读存储介质上,所述计算机程序被处理器执行时,计算机能够执行上述各方法所提供的一种执行实体关系分类方法,该方法包括:基于上一次迭代后实体向量以及上一次迭代后词向量确定邻接矩阵;基于当前迭代的邻接矩阵对当前实体向量更新,以确定当前迭代后的所有实体向量;基于每次迭代后的所有实体向量确定每次迭代后任意两个实体向量所组成实体对的分类结果;所述上一次迭代后实体向量包括已连接实体向量以及未连接实体向量;在每次迭代中,每一个词向量连接至少一个实体向量;所述已连接实体向量基于目标文档中实体向量间的第一注意力得分确定,所述上一次迭代后词向量基于目标文档中实体向量与所有词向量间的第二注意力得分确定。
又一方面,本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各方法提供的实体关系分类方法,该方法包括:基于上一次迭代后实体向量以及上一次迭代后词向量确定邻接矩阵;基于当前迭代的邻接矩阵对当前实体向量更新,以确定当前迭代后的所有实体向量;基于每次迭代后的所有实体向量确定每次迭代后任意两个实体向量所组成实体对的分类结果;所述上一次迭代后实体向量包括已连接实体向量以及未连接实体向量;在每次迭代中,每一个词向量连接至少一个实体向量;所述已连接实体向量基于目标文档中实体向量间的第一注意力得分确定,所述上一次迭代后词向量基于目标文档中实体向量与所有词向量间的第二注意力得分确定。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种实体关系分类方法,其特征在于,包括:
基于上一次迭代后实体向量以及上一次迭代后词向量确定邻接矩阵;
基于当前迭代的邻接矩阵对当前实体向量更新,以确定当前迭代后的所有实体向量;
基于每次迭代后的所有实体向量确定每次迭代后任意两个实体向量所组成实体对的分类结果;
所述上一次迭代后实体向量包括已连接实体向量以及未连接实体向量;
在每次迭代中,每一个词向量连接至少一个实体向量;
所述已连接实体向量基于目标文档中实体向量间的第一注意力得分确定,所述上一次迭代后词向量基于目标文档中实体向量与所有词向量间的第二注意力得分确定。
2.根据权利要求1所述的实体关系分类方法,其特征在于,所述已连接实体向量基于目标文档中实体向量间的第一注意力得分确定,包括:
确定每一实体向量与其他实体向量间的每个第一查询矩阵、每个第一键矩阵、每个第一值矩阵以及每个第一词向量维度,以获取每一实体向量与其他实体向量的所有子第一注意力得分;
将所有子第一注意力得分求和,以获取每一实体向量的第一注意力得分;
将所述第一注意力得分满足第一预设阈值的所有实体向量确定为已连接实体向量。
3.根据权利要求1所述的实体关系分类方法,其特征在于,所述上一次迭代后词向量基于目标文档中实体向量与所有词向量间的第二注意力得分确定,包括:
确定每一实体向量与所有词向量间的每个第二查询矩阵、每个第二键矩阵、每个第二值矩阵以及每个第二词向量维度,以获取每一实体向量与每一词向量间的所有子第二注意力得分;
将所有子第二注意力得分求和,以获取每一实体向量的第二注意力得分;
将所述第二注意力得分满足第二预设阈值的所有词向量确定为上一次迭代后词向量。
4.根据权利要求1所述的实体关系分类方法,其特征在于,所述基于当前迭代的邻接矩阵对当前实体向量更新,以确定当前迭代后的所有实体向量,包括:
基于邻接矩阵、权重矩阵、偏置向量、以及激活函数对当前实体向量更新,以确定当前迭代后的实体向量;
基于迭代预设次数进行多次更新,以获取每次迭代后的所有实体向量。
5.根据权利要求1所述的实体关系分类方法,其特征在于,所述基于每次迭代后的所有实体向量确定每次迭代后任意两个实体向量所组成实体对的分类结果,包括:
确定迭代后的任一实体向量与任一其他实体向量所组成实体对的分类结果;
遍历迭代后的所有实体向量,以确定每次迭代后任意两个实体向量所组成实体对的分类结果。
6.根据权利要求5所述的实体关系分类方法,其特征在于,所述确定迭代后的任一实体向量与任一其他实体向量所组成实体对的分类结果,包括:
基于任一实体向量与任一其他实体向量的参数矩阵、偏置向量、给定关系参数、激活函数确定任一实体向量与任一其他实体向量所组成实体对的实体关系分类结果;
逐一确定所述实体向量与所有其他实体向量所组成实体对的每个实体关系分类结果。
7.根据权利要求1所述的实体关系分类方法,其特征在于,在基于上一次迭代后实体向量以及上一次迭代后词向量确定邻接矩阵之前,包括:
处理目标文档,以获取实体以及词;
处理所述实体以及所述词,以获取所有实体向量以及所有词向量。
8.一种实体关系分类装置,其特征在于,包括:
第一处理装置:用于基于上一次迭代后实体向量以及上一次迭代后词向量确定邻接矩阵;
第二处理装置:用于基于当前迭代的邻接矩阵对当前实体向量更新,以确定当前迭代后的所有实体向量;
确定装置:用于基于每次迭代后的所有实体向量确定每次迭代后任意两个实体向量所组成实体对的分类结果;
所述上一次迭代后实体向量包括已连接实体向量以及未连接实体向量;
在每次迭代中,每一个词向量连接至少一个实体向量;
所述已连接实体向量基于目标文档中实体向量间的第一注意力得分确定,所述上一次迭代后词向量基于目标文档中实体向量与所有词向量间的第二注意力得分确定。
9.一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1-7任一项所述的实体关系分类方法。
10.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-7任一项所述的实体关系分类方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211195163.0A CN115292504B (zh) | 2022-09-29 | 2022-09-29 | 实体关系分类方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211195163.0A CN115292504B (zh) | 2022-09-29 | 2022-09-29 | 实体关系分类方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115292504A CN115292504A (zh) | 2022-11-04 |
CN115292504B true CN115292504B (zh) | 2022-12-06 |
Family
ID=83833338
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211195163.0A Active CN115292504B (zh) | 2022-09-29 | 2022-09-29 | 实体关系分类方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115292504B (zh) |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110580340A (zh) * | 2019-08-29 | 2019-12-17 | 桂林电子科技大学 | 一种基于多注意力机制的神经网络关系抽取方法 |
CN111291165B (zh) * | 2020-05-09 | 2020-08-14 | 支付宝(杭州)信息技术有限公司 | 训练词向量嵌入模型的方法及装置 |
CN111914185B (zh) * | 2020-07-06 | 2024-03-22 | 华中科技大学 | 一种基于图注意力网络的社交网络中文本情感分析方法 |
WO2022011681A1 (zh) * | 2020-07-17 | 2022-01-20 | 国防科技大学 | 一种基于迭代补全的知识图谱融合方法 |
CN112347268B (zh) * | 2020-11-06 | 2024-03-19 | 华中科技大学 | 一种文本增强的知识图谱联合表示学习方法及装置 |
CN114722820A (zh) * | 2022-03-21 | 2022-07-08 | 河海大学 | 基于门控机制和图注意力网络的中文实体关系抽取方法 |
CN114818721B (zh) * | 2022-06-30 | 2022-11-01 | 湖南工商大学 | 一种结合序列标注的事件联合抽取模型与方法 |
-
2022
- 2022-09-29 CN CN202211195163.0A patent/CN115292504B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN115292504A (zh) | 2022-11-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108647205B (zh) | 细粒度情感分析模型构建方法、设备及可读存储介质 | |
CN108363790B (zh) | 用于对评论进行评估的方法、装置、设备和存储介质 | |
CN110019732B (zh) | 一种智能问答方法以及相关装置 | |
WO2018086470A1 (zh) | 关键词提取方法、装置和服务器 | |
US20210312139A1 (en) | Method and apparatus of generating semantic feature, method and apparatus of training model, electronic device, and storage medium | |
CN104750798B (zh) | 一种应用程序的推荐方法和装置 | |
CN109522420B (zh) | 一种获取学习需求的方法及系统 | |
CN110442725B (zh) | 实体关系抽取方法及装置 | |
CN111090736A (zh) | 问答模型的训练方法、问答方法、装置及计算机存储介质 | |
JP7430820B2 (ja) | ソートモデルのトレーニング方法及び装置、電子機器、コンピュータ可読記憶媒体、コンピュータプログラム | |
EP3660693A1 (en) | Knowledge verification method, knowledge verification device, and storage medium | |
WO2021159655A1 (zh) | 数据属性填充方法、装置、设备及计算机可读存储介质 | |
CN113791757A (zh) | 软件需求和代码映射方法及系统 | |
CN108153735B (zh) | 一种近义词的获取方法及系统 | |
CN111160041A (zh) | 语义理解方法、装置、电子设备和存储介质 | |
CN115470313A (zh) | 信息检索及模型训练方法、装置、设备和存储介质 | |
CN113779190A (zh) | 事件因果关系识别方法、装置、电子设备与存储介质 | |
CN115292504B (zh) | 实体关系分类方法、装置、设备及存储介质 | |
EP4134838A1 (en) | Word mining method and apparatus, electronic device and readable storage medium | |
CN115859963A (zh) | 一种面向新词义原推荐的相似性判别方法及系统 | |
CN114647739B (zh) | 实体链指方法、装置、电子设备及存储介质 | |
CN113536087B (zh) | 作弊站点的识别方法、装置、设备、存储介质及程序产品 | |
CN112905917B (zh) | 内链生成方法、模型训练方法、相关装置及电子设备 | |
CN110852066A (zh) | 一种基于对抗训练机制的多语言实体关系抽取方法及系统 | |
CN114139798A (zh) | 企业风险预测方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |