CN113010683B - 基于改进图注意力网络的实体关系识别方法及系统 - Google Patents

基于改进图注意力网络的实体关系识别方法及系统 Download PDF

Info

Publication number
CN113010683B
CN113010683B CN202010872244.4A CN202010872244A CN113010683B CN 113010683 B CN113010683 B CN 113010683B CN 202010872244 A CN202010872244 A CN 202010872244A CN 113010683 B CN113010683 B CN 113010683B
Authority
CN
China
Prior art keywords
entity
attention
relationship
matrix
relation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010872244.4A
Other languages
English (en)
Other versions
CN113010683A (zh
Inventor
刘嵩
来庆涵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qilu University of Technology
Original Assignee
Qilu University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qilu University of Technology filed Critical Qilu University of Technology
Priority to CN202010872244.4A priority Critical patent/CN113010683B/zh
Publication of CN113010683A publication Critical patent/CN113010683A/zh
Application granted granted Critical
Publication of CN113010683B publication Critical patent/CN113010683B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • G06F40/295Named entity recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Abstract

本公开提供了一种基于改进图注意力网络的实体关系识别方法及系统,所述方法为:获取待识别的文本数据;根据获取的文本数据,得到文本数据中单词的向量表示;根据得到的单词的向量表示,进行实体序列识别;根据实体序列识别的结果进行节点化处理,根据节点化处理后的节点信息和改进的图注意力网络,得到文本数据中的实体类别与关系类别;根据实体类别与关系类别进行文本中实体和实体关系的识别;本公开通过改进图注意力网络有效的提高了实体以及实体间的关系信息识别的准确度和效率。

Description

基于改进图注意力网络的实体关系识别方法及系统
技术领域
本公开涉及文本处理技术领域,特别涉及一种基于改进图注意力网络的实体关系识别方法及系统。
背景技术
本部分的陈述仅仅是提供了与本公开相关的背景技术,并不必然构成现有技术。
移动互联网、智能手机以及社交网络的发展带来了海量文本数据,成为传词达意的主要媒介。从海量文本数据中抽取有用的知识是一项费时费力的任务,所以自动化实体和关系识别就显得尤为重要。传统的实体和关系识别采用人工提取的方法,效率不高,时间长。深度学习近年来在自然语言处理方面表现出了良好的性能,比如LSTM,GCN,RNN,CNN,BERT等。上述深度学习的神经网络模型都能成功地从文本中提取特征,优于人工设计的基于特征的方法,特别是在实体识别任务中。
本公开发明人发现,现有的实体关系识别方法,包括基于深度学习方法,没有有效的模块来捕捉关系信息,不能很好的处理实体间的复杂关系,尤其在复杂文本中执行关系识别任务时模型的性能不足,无法准确和快速的对文本中的实体以及实体关系进行识别。
发明内容
为了解决现有技术的不足,本公开提供了一种基于改进图注意力网络的实体关系识别方法及系统,通过改进的图注意力网络有效的提高了实体以及实体间的关系识别的准确度和效率。
为了实现上述目的,本公开采用如下技术方案:
本公开第一方面提供了一种基于改进图注意力网络的实体关系识别方法。
一种基于改进图注意力网络的实体关系识别方法,包括以下步骤:
获取待识别的文本数据;
根据获取的文本数据,得到文本数据中单词的向量表示;
根据得到的单词的向量表示,进行实体序列识别;
根据实体序列识别的结果进行节点化处理,根据节点化处理后的节点信息和改进的图注意力网络,得到文本数据中的实体类别与关系类别;
根据实体类别与关系类别进行文本中实体和实体关系的识别。
本公开第二方面提供了一种基于改进图注意力网络的实体关系识别系统。
一种基于改进图注意力网络的实体关系识别系统,包括:
数据获取模块,被配置为:获取待识别的文本数据;
单词向量表示模块,被配置为:根据获取的文本数据,得到文本数据中单词的向量表示;
实体序列识别模块,被配置为:根据得到的单词的向量表示,进行实体序列识别;
类别划分模块,被配置为:根据实体序列识别的结果进行节点化处理,根据节点化处理后的节点信息和改进的图注意力网络,得到文本数据中的实体类别与关系类别;
识别模块,被配置为:根据实体类别与关系类别进行文本中实体和实体关系的识别。
本公开第三方面提供了一种计算机可读存储介质,其上存储有程序,该程序被处理器执行时实现如本公开第一方面所述的基于改进图注意力网络的实体关系识别方法中的步骤。
本公开第四方面提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的程序,所述处理器执行所述程序时实现如本公开第一方面所述的基于改进图注意力网络的实体关系识别方法中的步骤。
与现有技术相比,本公开的有益效果是:
1、本公开所述的方法、系统、介质及电子设备,通过改进的图注意力网络有效的提高了实体以及实体间的关系信息识别的效率和准确度。
2、本公开所述的方法、系统、介质及电子设备,设计了简单有效的多头注意力机制,缩减了参数规模,相比于现有的方式获得了更好的性能。
3、本公开所述的方法、系统、介质及电子设备,在训练过程中,结合了文本对抗训练,使得模型获得了更强的鲁棒性。
附图说明
构成本公开的一部分的说明书附图用来提供对本公开的进一步理解,本公开的示意性实施例及其说明用于解释本公开,并不构成对本公开的不当限定。
图1为本公开实施例1提供的基于改进图注意力网络的实体关系识别方法的流程示意图。
图2为本公开实施例1提供的词向量嵌入模型图。
图3为本公开实施例1提供的实体序列识别结构图。
图4为本公开实施例1提供的实体和关系节点嵌入结构图。
图5为本公开实施例1提供的IGAT结构图。
具体实施方式
下面结合附图与实施例对本公开作进一步说明。
应该指出,以下详细说明都是例示性的,旨在对本公开提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本公开所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本公开的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。
实施例1:
本公开实施例1提供了一种基于改进图注意力网络的实体关系识别方法,包括以下步骤:
获取待识别的文本数据;
根据获取的文本数据,得到文本数据中单词的向量表示;
根据得到的单词的向量表示,进行实体序列识别;
根据实体序列识别的结果进行节点化处理,根据节点化处理后的节点信息和改进的图注意力网络,得到文本数据中的实体类别与关系类别;
根据实体类别与关系类别进行文本中实体和实体关系的识别。
详细的,包括以下内容:
如图1所示,整个方法的模型主要包括五个部分:词向量嵌入、实体序列识别、节点嵌入、IGAT抽取实体和关系信息、生成对抗样本。
数据首先经过词嵌入得到单词字符的向量表示;
然后送入BiLSTM抽取信息,之后用softmax函数进行实体序列识别,识别出实体序列后,会计算实体序列损失,并且将识别后的序列与BiLSTM处理后的信息一起送入节点嵌入层;
节点嵌入层将会利用实体序列信息与BiLSTM输出信息进行实体节点嵌入,并在实体的基础上引入上下文信息构造关系节点。
再将构造的关系节点用softmax函数进行二元关系预测,进而得到实体关系图的邻接矩阵。
将实体节点,关系节点与邻接矩阵一起送入改进的图注意力网络对实体节点与关系节点信息进行抽取,抽取完的信息与节点嵌入的输出进行拼接。
将得到的实体与关系信息分别用softmax函数进行激活,获取实体类别与关系类别,并分别计算实体类型损失与关系类型损失。
通过累加实体序列损失、实体类型损失、二元关系损失、关系类型损失来生成对抗样本。固定模型参数不进行更新,将对抗样本加入原来的单词嵌入。重复以上过程,计算扰动损失并累加全部损失值,最后更新模型参数。
本实施例中,所述文本数据可以是通过预设的爬虫程序在垂直网站上抓取的数据;具体可以是某一领域的文本数据,如旅游领域或者新闻领域或者技术领域等等。
具体实现过程如下:
(1)词嵌入
本实施例中的方法模型采用单词级别的嵌入和字符级别的嵌入来得到完整的单词嵌入表示。单词向量表示过程如图2所示。
设置w={w1,...,wn}为一条句子的单词序列,wn句子中第n个单词。X={x1,...,xn}是经过词嵌入后的词向量序列,其中xi表示单词wi经过词嵌入后的向量表示。单词级别嵌入模块由预训练语言模型GloVe和词嵌入模型Word2Vec两部分组成,负责对每个单词进行单词级别嵌入。单词级别嵌入包含了单词语义信息以及上下文信息,是单词向量表示的主体部分。另外,为了捕捉单词的形态信息,采用CNN抽取单词的字符形态信息。综合考虑这两种嵌入方式并采用拼接的方式来最终获取每个单词的嵌入向量。
(2)实体序列识别
采用BIEOU格式来标记实体序列,使用BiLSTM抽取实体序列信息并用softmax函数对实体序列信息进行分类。模型结构图如图3所示。
BiLSTM函数为:
hi=BiLSTM(xi;θseq) (1)
其中xi为词向量,θseq表示参数矩阵,hi表示BiLSTM的输出。用softmax函数来预测单词对应的实体序列标签:
Figure BDA0002651489820000061
其中,Wspan参数矩阵,
Figure BDA0002651489820000062
为预测的标签。
可以得到实体序列识别的损失函数:
Figure BDA0002651489820000063
其中,ti为真实的标签。
(3)节点嵌入
为了使用图卷积网络抽取实体与关系信息,本实施例要构建实体关系图,首先对实体进行嵌入,获取实体节点,然后基于实体和上下文信息构造关系节点,使用softmax函数对关系节点进行二元关系预测,进而获得邻接矩阵。
在初始化二元关系时,假设一条句子中的任意两个实体之间都存在潜在关系,与实体节点只考虑实体自身信息不同,为了捕捉上下文信息对关系的影响,在嵌入关系节点时,综合考虑实体信息与相关实体的上下文信息。模型结构如图4所示。
之后预测两个实体之间是否具有确定关系。定义
Figure BDA0002651489820000071
预测的二元关系标签,
Figure BDA0002651489820000072
的概率计算如下:
Figure BDA0002651489820000073
其中Wadj是权重参数。被优化的目标函数如下:
Figure BDA0002651489820000074
为了在实体关系图中建立节点
Figure BDA0002651489820000075
三者之间的联系,获取邻接矩阵A,采用如下方法:
1)如果
Figure BDA0002651489820000076
在实体关系图中设置节点
Figure BDA0002651489820000077
Figure BDA0002651489820000078
节点
Figure BDA0002651489820000079
Figure BDA00026514898200000710
之间具有连接,即邻接矩阵A中的对应位置元素为1.0。相反,如果
Figure BDA00026514898200000711
在实体关系图中设置节点
Figure BDA00026514898200000712
Figure BDA00026514898200000713
节点
Figure BDA00026514898200000714
Figure BDA00026514898200000715
节点
Figure BDA00026514898200000716
Figure BDA00026514898200000717
之间不具有连接,即邻接矩阵A中对应位置元素为0。
2)为了捕获更多信息,在实体关系图中加入自环,即邻接矩阵A的对角元素为1.0。
3)邻接矩阵A其余位置设置为0。
(4)改进后的图注意力网络(IGAT)
为了有区别的聚合邻居节点信息,缓解过平滑问题。本文借鉴多头注意力图卷积网络的思想,设计了一种简单高效的多头注意力机制,并将设计的图卷积网络用于实体和关系节点信息的抽取。抽取后的信息与节点化处理后的信息进行拼接,分别得到用于实体分类任务和关系分类任务的特征向量。最后,使用softmax函数对特征向量进行分类,分别得到预测实体标签和关系标签。IGAT结构如图5所示。
初始化注意力权重矩阵
Figure BDA0002651489820000081
dnode是节点的特征维度,l是目前图卷积网络的层数,c是注意力头数。
改进后的注意力函数如下:
Figure BDA0002651489820000082
其中,||·||2是行二范数,
Figure BDA0002651489820000083
是节点
Figure BDA0002651489820000084
和它的1阶邻接点通过行拼接构成的矩阵。将节点
Figure BDA0002651489820000085
与其1阶邻接点注意力值赋值给邻接矩阵A中的相应位置,得到注意力邻接矩阵
Figure BDA0002651489820000086
引入度信息:
Figure BDA0002651489820000087
通过拉普拉斯分解得到最终用于卷积的注意力邻接矩阵
Figure BDA0002651489820000088
卷积函数如下:
Figure BDA0002651489820000089
其中,
Figure BDA00026514898200000810
通过共享注意力参数来构建卷积矩阵,
Figure BDA00026514898200000811
是映射矩阵,负责对注意力信息进行进一步抽取并映射至统一维度。σ是非线性激活函数。将IGAT输出的特征矩阵Z与输入IGAT的输入矩阵NG进行拼接,得到用于分类任务的特征矩阵F,其中
Figure BDA00026514898200000812
表示实体ej的特征向量,
Figure BDA00026514898200000813
表示关系rjk的特征向量。定义实体和关系的目标标签分别为ye和yr,预测得到的实体和关系标签分别为
Figure BDA0002651489820000091
Figure BDA0002651489820000092
采用softmax函数进行激活,实体标签和关系标签的计算公式分别如下:
Figure BDA0002651489820000093
Figure BDA0002651489820000094
Went和Wrel分别为权重参数。
设置
Figure BDA0002651489820000095
为句子中的实体集合,可以得到的实体和关系目标优化函数分别如下:
Figure BDA0002651489820000096
Figure BDA0002651489820000097
(5)生成对抗样本
经过以上工作,模型完成了无对抗的前向传播过程。损失值为LJoint(X;θ),其中θ是模型参数。为了增强模型鲁棒性,考虑引入对抗训练。本文使用在样本中加入微小扰动来的方法进行对抗训练。定义ηad是要加入嵌入样本的扰动,
Figure BDA0002651489820000098
是目前模型中参数θ的复制,固定参数θ(即此次反向传播的误差LJoint(X;θ)不对参数θ进行更新)。
扰动计算公式如下:
Figure BDA0002651489820000099
其中,
Figure BDA00026514898200000910
定义
Figure BDA00026514898200000911
其中α是人工设定的扰动参数(本文设置为0.002),DX是嵌入样本X的特征维度。将得到的对抗样本加入嵌入样本X中,得到有对抗样本的前向传播损失
Figure BDA00026514898200000912
综合考虑两次前向传播损失,得到用于最终损失值:
Figure BDA0002651489820000101
然后更新模型参数θ,完成一次参数调整过程。
实施例2:
本公开实施例2提供了一种基于改进图注意力网络的实体关系识别系统,包括:
数据获取模块,被配置为:获取待识别的文本数据;
单词向量表示模块,被配置为:根据获取的文本数据,得到文本数据中单词的向量表示;
实体序列识别模块,被配置为:根据得到的单词的向量表示,进行实体序列识别;
类别划分模块,被配置为:根据实体序列识别的结果进行节点化处理,根据节点化处理后的节点信息和改进的图注意力网络,得到文本数据中的实体类别与关系类别;
识别模块,被配置为:根据实体类别与关系类别进行文本中实体和实体关系的识别。
所述系统的工作方法与实施例1提供的基于改进图注意力网络的实体关系识别方法相同,这里不再赘述。
实施例3:
本公开实施例3提供了一种计算机可读存储介质,其上存储有程序,该程序被处理器执行时实现如本公开实施例1所述的基于改进图注意力网络的实体关系识别方法中的步骤,所述步骤为:
获取待识别的文本数据;
根据获取的文本数据,得到文本数据中单词的向量表示;
根据得到的单词的向量表示,进行实体序列识别;
根据实体序列识别的结果进行节点化处理,根据节点化处理后的节点信息和改进的图注意力网络,得到文本数据中的实体类别与关系类别;
根据实体类别与关系类别进行文本中实体和实体关系的识别。
详细方法与实施例1提供的基于改进图注意力网络的实体关系识别方法相同,这里不再赘述。
实施例4:
本公开实施例4提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的程序,所述处理器执行所述程序时实现如本公开实施例1所述的基于改进图注意力网络的实体关系识别方法中的步骤,所述步骤为:
获取待识别的文本数据;
根据获取的文本数据,得到文本数据中单词的向量表示;
根据得到的单词的向量表示,进行实体序列识别;
根据实体序列识别的结果进行节点化处理,根据节点化处理后的节点信息和改进的图注意力网络,得到文本数据中的实体类别与关系类别;
根据实体类别与关系类别进行文本中实体和实体关系的识别。
详细方法与实施例1提供的基于改进图注意力网络的实体关系识别方法相同,这里不再赘述。
本领域内的技术人员应明白,本公开的实施例可提供为方法、系统、或计算机程序产品。因此,本公开可采用硬件实施例、软件实施例、或结合软件和硬件方面的实施例的形式。而且,本公开可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器和光学存储器等)上实施的计算机程序产品的形式。
本公开是参照根据本公开实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(RandomAccessMemory,RAM)等。
以上所述仅为本公开的优选实施例而已,并不用于限制本公开,对于本领域的技术人员来说,本公开可以有各种更改和变化。凡在本公开的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本公开的保护范围之内。

Claims (9)

1.一种基于改进图注意力网络的实体关系识别方法,其特征在于,包括以下步骤:
获取待识别的文本数据;
根据获取的文本数据,得到文本数据中单词的向量表示;
根据得到的单词的向量表示,进行实体序列识别;
根据实体序列识别的结果进行节点化处理,根据节点化处理后的节点信息和改进的图注意力网络,得到文本数据中的实体类别与关系类别;
根据实体类别与关系类别进行文本中实体和实体关系的识别;
其中,所述改进图注意力网络中的多头注意力机制,具体为:
初始化注意力权重矩阵
Figure FDA0003907979760000011
dnode是节点的特征维度,l是目前图卷积网络的层数,c是注意力头数;
Figure FDA0003907979760000012
是当在注意力为c,卷积层数为l层的情况下的注意力特征维度;
改进后的注意力函数如下:
Figure FDA0003907979760000013
其中,||·||2是行二范数,
Figure FDA0003907979760000014
是节点
Figure FDA0003907979760000015
和它的1阶邻接点通过行拼接构成的矩阵;将节点
Figure FDA0003907979760000016
与其1阶邻接点注意力值赋值给邻接矩阵A中的相应位置,得到注意力邻接矩阵
Figure FDA0003907979760000017
nnode为节点的数量;
引入度信息:
Figure FDA0003907979760000018
其中,i为特征矩阵的行标,j为特征矩阵的列标,通过拉普拉斯分解得到最终用于卷积的注意力邻接矩阵
Figure FDA0003907979760000021
卷积函数如下:
Figure FDA0003907979760000022
其中,
Figure FDA0003907979760000023
通过共享注意力参数来构建卷积矩阵,
Figure FDA0003907979760000024
是映射矩阵,负责对注意力信息进行进一步抽取并映射至统一维度;σ是非线性激活函数;将改进后的图注意力网络输出的特征矩阵Z与输入改进图注意力网络的输入矩阵NG进行拼接,得到用于分类任务的特征矩阵F,其中
Figure FDA0003907979760000025
表示实体ej的特征向量,
Figure FDA0003907979760000026
表示关系rjk的特征向量;定义实体和关系的目标标签分别为ye和yr,预测得到的实体和关系标签分别为
Figure FDA0003907979760000027
Figure FDA0003907979760000028
设置w={w1,...,wn}为一条句子的单词序列,采用softmax函数进行激活,实体标签和关系标签的计算公式分别如下:
Figure FDA0003907979760000029
Figure FDA00039079797600000210
其中,Went和Wrel分别为权重参数;
设置
Figure FDA00039079797600000211
为句子中的实体集合,可以得到的实体和关系目标优化函数分别如下:
Figure FDA00039079797600000212
Figure FDA00039079797600000213
其中,#潜在关系rjk表示实体间所有可能的关系数量。
2.如权利要求1所述的基于改进图注意力网络的实体关系识别方法,其特征在于,节点化处理,具体为:根据实体序列识别的结果进行节点化处理,得到实体节点和关系节点,预测二元关系,进而得到实体关系图的邻接矩阵。
3.如权利要求2所述的基于改进图注意力网络的实体关系识别方法,其特征在于,邻接矩阵的获取方法,具体为:
假设同一句子中任意两个实体节点之间有关系;
构建关系节点;
获取预测的二元关系标签的概率;
如果概率大于或等于预设值,在实体关系图中设置第一实体节点与关系节点之间以及第二实体节点与关系节点之间具有连接,邻接矩阵中的对应位置元素为1;
如果概率小于预设值,在实体关系图中设置两个实体节点以及实体节点与关系节点之间不具有连接,邻接矩阵中的对应位置元素为零;
在实体关系图中加入自环,邻接矩阵的对角元素为1,其余位置设置为零。
4.如权利要求2所述的基于改进图注意力网络的实体关系识别方法,其特征在于,将得到的关系节点用softmax函数进行二元关系预测,得到实体关系图的邻接矩阵。
5.如权利要求1所述的基于改进图注意力网络的实体关系识别方法,其特征在于,根据节点化处理后的节点信息和改进的图注意力网络,对实体节点与关系节点信息进行抽取,抽取的信息与节点化处理后的节点信息进行拼接;
分别得到用于实体分类任务和关系分类任务的特征向量,使用softmax函数对用于实体分类任务和关系分类任务的特征向量进行分类,分别得到预测实体标签和关系标签。
6.如权利要求1所述的基于改进图注意力网络的实体关系识别方法,其特征在于,通过预训练语言模型GloVe和词嵌入模型Word2Vec获取单词信息,通过CNN抽取单词的字符形态信息,根据单词信息和字符信息进行拼接后得到每个单词的向量表示;
或者,
采用BIEOU格式来标记实体序列,使用BiLSTM抽取实体序列信息并用softmax函数来预测单词对应的实体序列标签;
或者,
分别计算实体序列损失、实体类别损失、二元关系损失和关系类别损失,扰动损失;
将对抗样本与嵌入样本相加作为新的文本数据进行实体关系抽取步骤,计算扰动损失并累加全部损失值,进行参数更新。
7.一种基于改进图注意力网络的实体关系识别系统,其特征在于,包括:
数据获取模块,被配置为:获取待识别的文本数据;
单词向量表示模块,被配置为:根据获取的文本数据,得到文本数据中单词的向量表示;
实体序列识别模块,被配置为:根据得到的单词的向量表示,进行实体序列识别;
类别划分模块,被配置为:根据实体序列识别的结果进行节点化处理,根据节点化处理后的节点信息和改进的图注意力网络,得到文本数据中的实体类别与关系类别;
识别模块,被配置为:根据实体类别与关系类别进行文本中实体和实体关系的识别;
其中,所述改进图注意力网络中的多头注意力机制,具体为:
初始化注意力权重矩阵
Figure FDA0003907979760000051
dnode是节点的特征维度,l是目前图卷积网络的层数,c是注意力头数;
Figure FDA0003907979760000052
是当在注意力为c,卷积层数为l层的情况下的注意力特征维度;
改进后的注意力函数如下:
Figure FDA0003907979760000053
其中,||·||2是行二范数,
Figure FDA0003907979760000054
是节点
Figure FDA0003907979760000055
和它的1阶邻接点通过行拼接构成的矩阵;将节点
Figure FDA0003907979760000056
与其1阶邻接点注意力值赋值给邻接矩阵A中的相应位置,得到注意力邻接矩阵
Figure FDA0003907979760000057
nnode为节点的数量;
引入度信息:
Figure FDA0003907979760000058
其中,i为特征矩阵的行标,j为特征矩阵的列标,通过拉普拉斯分解得到最终用于卷积的注意力邻接矩阵
Figure FDA0003907979760000059
卷积函数如下:
Figure FDA0003907979760000061
其中,
Figure FDA0003907979760000062
通过共享注意力参数来构建卷积矩阵,
Figure FDA0003907979760000063
是映射矩阵,负责对注意力信息进行进一步抽取并映射至统一维度;σ是非线性激活函数;将改进后的图注意力网络输出的特征矩阵Z与输入改进图注意力网络的输入矩阵NG进行拼接,得到用于分类任务的特征矩阵F,其中
Figure FDA0003907979760000064
表示实体ej的特征向量,
Figure FDA0003907979760000065
表示关系rjk的特征向量;定义实体和关系的目标标签分别为ye和yr,预测得到的实体和关系标签分别为
Figure FDA0003907979760000066
Figure FDA0003907979760000067
设置w={w1,...,wn}为一条句子的单词序列,采用softmax函数进行激活,实体标签和关系标签的计算公式分别如下:
Figure FDA0003907979760000068
Figure FDA0003907979760000069
其中,Went和Wrel分别为权重参数;
设置
Figure FDA00039079797600000610
为句子中的实体集合,可以得到的实体和关系目标优化函数分别如下:
Figure FDA00039079797600000611
Figure FDA00039079797600000612
其中,#潜在关系rjk表示实体间所有可能的关系数量。
8.一种计算机可读存储介质,其上存储有程序,其特征在于,该程序被处理器执行时实现如权利要求1-6任一项所述的基于改进图注意力网络的实体关系识别方法中的步骤。
9.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的程序,其特征在于,所述处理器执行所述程序时实现如权利要求1-6任一项所述的基于改进图注意力网络的实体关系识别方法中的步骤。
CN202010872244.4A 2020-08-26 2020-08-26 基于改进图注意力网络的实体关系识别方法及系统 Active CN113010683B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010872244.4A CN113010683B (zh) 2020-08-26 2020-08-26 基于改进图注意力网络的实体关系识别方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010872244.4A CN113010683B (zh) 2020-08-26 2020-08-26 基于改进图注意力网络的实体关系识别方法及系统

Publications (2)

Publication Number Publication Date
CN113010683A CN113010683A (zh) 2021-06-22
CN113010683B true CN113010683B (zh) 2022-11-29

Family

ID=76383327

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010872244.4A Active CN113010683B (zh) 2020-08-26 2020-08-26 基于改进图注意力网络的实体关系识别方法及系统

Country Status (1)

Country Link
CN (1) CN113010683B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113505240B (zh) * 2021-07-09 2023-04-18 吉林大学 一种基于注意力引导图lstm关系提取方法及装置
CN113779999B (zh) * 2021-11-12 2022-02-15 航天宏康智能科技(北京)有限公司 命名实体识别方法和命名实体识别装置
CN117725961A (zh) * 2024-02-18 2024-03-19 智慧眼科技股份有限公司 医疗意图识别模型训练方法、医疗意图识别方法及设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109902183A (zh) * 2019-02-13 2019-06-18 北京航空航天大学 一种基于多样图注意力机制的知识图谱嵌入方法
CN110196978A (zh) * 2019-06-04 2019-09-03 重庆大学 一种关注关联词的实体关系抽取方法
CN110675860A (zh) * 2019-09-24 2020-01-10 山东大学 基于改进注意力机制并结合语义的语音信息识别方法及系统
CN111046671A (zh) * 2019-12-12 2020-04-21 中国科学院自动化研究所 基于图网络融入词典的中文命名实体识别方法
CN111241294A (zh) * 2019-12-31 2020-06-05 中国地质大学(武汉) 基于依赖解析和关键词的图卷积网络的关系抽取方法
CN111274491A (zh) * 2020-01-15 2020-06-12 杭州电子科技大学 一种基于图注意力网络的社交机器人识别方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10599686B1 (en) * 2018-09-27 2020-03-24 Babylon Partners Limited Method and system for extracting information from graphs

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109902183A (zh) * 2019-02-13 2019-06-18 北京航空航天大学 一种基于多样图注意力机制的知识图谱嵌入方法
CN110196978A (zh) * 2019-06-04 2019-09-03 重庆大学 一种关注关联词的实体关系抽取方法
CN110675860A (zh) * 2019-09-24 2020-01-10 山东大学 基于改进注意力机制并结合语义的语音信息识别方法及系统
CN111046671A (zh) * 2019-12-12 2020-04-21 中国科学院自动化研究所 基于图网络融入词典的中文命名实体识别方法
CN111241294A (zh) * 2019-12-31 2020-06-05 中国地质大学(武汉) 基于依赖解析和关键词的图卷积网络的关系抽取方法
CN111274491A (zh) * 2020-01-15 2020-06-12 杭州电子科技大学 一种基于图注意力网络的社交机器人识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"Graph Attention Networks for Neural Social Recommendation";Nan Mu,Daren Zha,Yuanye He,Zhihao Tang;《IEEE》;20200213;全文 *

Also Published As

Publication number Publication date
CN113010683A (zh) 2021-06-22

Similar Documents

Publication Publication Date Title
Alzubaidi et al. A survey on deep learning tools dealing with data scarcity: definitions, challenges, solutions, tips, and applications
CN110084296B (zh) 一种基于特定语义的图表示学习框架及其多标签分类方法
CN113010683B (zh) 基于改进图注意力网络的实体关系识别方法及系统
CN107004159B (zh) 主动机器学习
CN110334742B (zh) 一种用于文档分类的基于强化学习的通过添加虚假节点的图对抗样本生成方法
CN112989841B (zh) 一种用于突发事件新闻识别与分类的半监督学习方法
EP4009219A1 (en) Analysis of natural language text in document using hierarchical graph
CN112711953A (zh) 一种基于注意力机制和gcn的文本多标签分类方法和系统
WO2023024412A1 (zh) 基于深度学习模型的视觉问答方法及装置、介质、设备
CN113344206A (zh) 融合通道与关系特征学习的知识蒸馏方法、装置及设备
CN110598869B (zh) 基于序列模型的分类方法、装置、电子设备
CN109783812B (zh) 基于自注意力机制的中文命名实体识别方法、系统、装置
CN112559734B (zh) 简报生成方法、装置、电子设备及计算机可读存储介质
CN113821799B (zh) 基于图卷积神经网络的恶意软件多标签分类方法
CN112949929B (zh) 一种基于协同嵌入增强题目表示的知识追踪方法及系统
CN112465226B (zh) 一种基于特征交互和图神经网络的用户行为预测方法
CN111709225B (zh) 一种事件因果关系判别方法、装置和计算机可读存储介质
CN114936290A (zh) 数据处理方法及装置、存储介质及电子设备
CN115292568B (zh) 一种基于联合模型的民生新闻事件抽取方法
CN116432184A (zh) 基于语义分析和双向编码表征的恶意软件检测方法
CN115203507A (zh) 一种面向文书领域的基于预训练模型的事件抽取方法
CN114896395A (zh) 语言模型微调方法、文本分类方法、装置及设备
CN113705402A (zh) 视频行为预测方法、系统、电子设备及存储介质
CN113254649A (zh) 敏感内容识别模型的训练方法、文本识别方法及相关装置
CN115391570A (zh) 一种基于方面的情感知识图谱构建方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant