CN114648017A - 一种基于异质图注意力网络的文档级关系抽取方法 - Google Patents
一种基于异质图注意力网络的文档级关系抽取方法 Download PDFInfo
- Publication number
- CN114648017A CN114648017A CN202210386134.6A CN202210386134A CN114648017A CN 114648017 A CN114648017 A CN 114648017A CN 202210386134 A CN202210386134 A CN 202210386134A CN 114648017 A CN114648017 A CN 114648017A
- Authority
- CN
- China
- Prior art keywords
- document
- nodes
- entity
- sentence
- representation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
一种基于异质图注意力网络的文档级关系抽取方法,具体涉及一种基于异质图注意力网络的文档级实体关系的抽取方法,本发明为了解决现有的图神经网络在获取节点表示时忽略了图中节点和边,导致关系抽取的准确率低的问题,它包括以下步骤:S1、获取文档文本;S2、建立文档级关系抽取模型,将S1中获取的文档文本输入文档级关系抽取模型内进行训练,输出所述文档文本的关系,得到训练好的文档级关系抽取模型;S3、将待抽取文档级关系的文档文本输入S2中训练好的文档级关系抽取模型内,得到对应的文档文本的关系。属于计算机技术领域。
Description
技术领域
本发明涉及一种抽取方法,具体涉及一种基于异质图注意力网络的文档级实体关系的抽取方法,属于计算机技术领域。
背景技术
关系抽取任务能够提取出自然语言文本中两个命名实体之间所存在的语义关系。关系抽取技术突破了传统的必须经过人工阅读、理解的方式来获得语义关系的限制,取而代之的是语义关系的自动查找和抽取,可以帮助计算机更好的处理文本数据,以及理解非结构化文本的语义信息。目前关系抽取的相关研究多集中在句子级别,即只关注句内两个实体之间的关系,对跨句子的情况关注相对较少。而根据自然语言的表达习惯,实体对分别位于不同句子的情况也十分常见。因此,研究文档级关系提取是十分必要和重要的。与句子级关系抽取相比,文档级关系抽取更为复杂,也更具挑战性,主要有以下几个方面:
(1)在文档级关系抽取中,实体数量比句子级的大得多,因此,文档级关系抽取需要考虑大量实体之间的所有关系。
(2)在句子级关系抽取中,实体通常在句子中出现的形式唯一。一个实体在文档级关系抽取中可能以不同的形式出现多次,比如指代,别名,缩略语等,这些短语通常被成为实体提及。
(3)在文档级关系抽取中,可能无法直接抽取两个实体之间的关系,需要经过多重信息的推理才能得到。
所以为了解决多跳推理和实体表示问题,现有的大多数方法采用图神经网络来抽取关系。但是这些方法在获取节点表示时忽略了图中节点和边的重要作用,从而影响了关系抽取的准确率。
发明内容
本发明为了解决现有的图神经网络在获取节点表示时忽略了图中节点和边,导致关系抽取的准确率低的问题,进而提出了一种基于异质图注意力网络的文档级关系抽取方法。
本发明采取的技术方案是:
一种基于异质图注意力网络的文档级关系抽取方法,它包括以下步骤:
S1、获取文档文本;
S2、建立文档级关系抽取模型,将S1中获取的文档文本输入文档级关系抽取模型内进行训练,输出所述文档文本的关系,得到训练好的文档级关系抽取模型;
S3、将待抽取文档级关系的文档文本输入S2中训练好的文档级关系抽取模型内,得到对应的文档文本的关系。
优选的,所述S2中建立的文档级关系抽取模型依次包括向量表示层、上下文表示层、图表示层、分类层。
优选的,所述S2中建立文档级关系抽取模型,将S1中获取的文档文本输入文档级关系抽取模型内进行训练,输出所述文档文本的关系,得到训练好的文档级关系抽取模型,具体过程为:
S21、将S1中获取的文档文本输入文档级关系抽取模型的向量表示层内,输出对应的文档文本编码表示;
S22、将S21中得到的文档文本编码表示输入文档级关系抽取模型的上下文表示层内,输出文档文本的上下文表示;
S23、将S1中获取的文本文档输入文档级关系抽取模型的图表示层内构建对应的文档图,所述文档图包含多个节点,根据S22中得到的文档文本的上下文表示分别对文档图中的多个节点进行编码表示,将编码表示后的多个节点输入异质图注意力网络内,得到实体节点的编码表示;
S24、将S23中得到的实体节点的编码表示输入文档级关系抽取模型的分类层内,输出所述文档文本的关系,得到训练好的文档级关系抽取模型。
优选的,所述S22中上下文表示层采用BERT编码器进行上下文表示。
优选的,所述S23中将S1中获取的文本文档输入图表示层内构建对应的文档图,所述文档图包含多个节点,根据S22中得到的文档文本的上下文表示分别对文档图中的多个节点进行编码表示,利用异质图注意力网络对编码表示后的多个节点进行处理,得到实体节点的编码表示,具体过程为:
S231、将S1中获取的文本文档输入文档级关系抽取模型的图表示层内构建对应的文档图,所述文档图包含句子节点、提及节点和实体节点;
S232、根据S22中得到的文档文本的上下文表示分别对文档图中的句子节点、提及节点和实体节点进行编码表示;
S233、将S232中编码表示后的多个节点输入异质图注意力网络内,得到实体节点的编码表示。
优选的,所述S232中根据S22中得到的文档文本的上下文表示分别对文档图中的句子节点、提及节点和实体节点进行编码表示,具体过程为:
提及节点
xi表示文档文本中的第i个单词;
ma表示第a个提及节点;
hi表示文档文本中第i个单词的上下文表示;
实体节点
eb表示第b个实体节点;
句子节点
sc第c个句子节点。
优选的,所述S233中将S232中编码表示后的多个节点输入异质图注意力网络内,得到实体节点的编码表示,具体过程为:
S2331、基于启发式规则对S232中编码表示后的多个节点构建多种类别的无向边;
S2332、将S2331中构建的无向边输入异质图注意力网络内,得到实体节点的编码表示。
优选的,所述S2331中构建的无向边的类别为七种。
优选的,七种无向边分别包括:
第一提及边:在一个句子中的两个不同实体的提及之间建立一个边;
第二提及边:若一个句子中两个提及节点表示同一实体,则在所述两个提及节点之间建立一条边;
第一提及实体边:若一个句子中包含多个实体,则在其中一个实体与其他实体的提及之间建立一个边;
第二提及实体边:若句子一中包含实体,句子二中包含所述实体的提及,则在实体和提及之间建立一条边;
提及句子边:若一个句子中包含一个提及,则在提及和句子之间建立一条边;
实体句子边:若句子一中包含实体,句子二中至少包含所述实体的一个提及,则在实体和句子二之间建立一条边;
句子边:若有四个句子,则在每两个句子之间建立一条边。
优选的,所述异质图注意力网络依次包括节点级注意力层、第一类型级注意力层、第二类型级注意力层。
有益效果:
本发明构建了文档级关系抽取模型,文档级关系抽取模型依次包括向量表示层、上下文表示层、图表示层、分类层,首先将获取的文档文本输入向量表示层内,目的是将文档文本中的单词转换为计算机能够识别的编码表示;将得到的文档文本的编码表示输入上下文表示层内,并利用上下文表示层内的BERT编码器获取文档文本中每个单词的上下文表示;将文档文本输入图表示层内构建对应的文档图,所述文档图包括句子节点、提及节点和实体节点,将得到的文档文本的上下文表示对上述不同类型的节点(句子节点、提及节点和实体节点)分别进行编码表示,再将编码表示的节点输入异质图注意力网络内,通过在其内构造七种类型的无向边,结合节点级注意力和类型级注意力对节点和边分别进行处理,得到实体节点的编码表示。即采用异质图注意力网络的消息传播策略来获取有关文档图的信息,所述异质图注意力网络依次包括基于边的节点级注意力层、基于边的第一类型级注意力层、基于节点的第二类型级注意力层;最终将经过异质图注意力网络处理得到的实体节点的编码表示输入分类层内,得到文档文本之间的关系。
本发明文档文本在图表示层内进行处理时结合了文档图中的节点和边,并采用异质图注意力网络对二者均进行了处理,捕获了文档图中提及节点之间、实体节点之间和句子节点之间的复杂交互信息,为关系抽取提供了更多的有用信息,从而提高了关系抽取的准确率,
附图说明
图1是本发明的抽取框架图;
具体实施方式
具体实施方式一:结合图1说明本实施方式,本实施方式所述一种基于异质图注意力网络的文档级关系抽取方法,它包括以下步骤:
S1、获取文档文本;
首先,给定一个文档文本,以实现对文档文本中实体之间的关系进行预测,同时便于后续对文档级关系抽取模型进行训练。
S2、建立文档级关系抽取模型,将S1中获取的文档文本输入文档级关系抽取模型内进行训练,输出所述文档文本的关系,得到训练好的文档级关系抽取模型,具体过程为:
所述文档级关系抽取模型依次包括向量表示层、上下文表示层、图表示层、分类层;
向量表示层:将文档中的单词转换为计算机能够识别的嵌入式表示。
上下文表示层:采用BERT编码器获取文档中每个单词的上下文表示。
图表示层:首先,将文档转换为图。其次,根据得到的上下文表示,对不同类型节点分别进行编码表示。最后,采用异质图注意力网络的消息传播策略来累积有关文档图的信息。
分类层:根据得到实体节点的编码表示来预测实体之间的关系。
S21、将S1中获取的文档文本输入文档级关系抽取模型的向量表示层内,输出对应的文档文本编码表示;
S22、将S21中得到的文档文本编码表示输入文档级关系抽取模型的上下文表示层内,输出文档文本的上下文表示;
所述上下文表示层采用BERT编码器进行上下文表示;
S23、将S1中获取的文本文档输入文档级关系抽取模型的图表示层内构建对应的文档图,所述文档图包含多个节点,根据S22中得到的文档文本的上下文表示分别对文档图中的多个节点进行编码表示,将编码表示后的多个节点输入异质图注意力网络内,得到实体节点的编码表示,具体过程为:
S231、将S1中获取的文本文档输入文档级关系抽取模型的图表示层内构建对应的文档图,所述文档图包含句子节点、提及节点和实体节点;
由于文档中不同类型的元素在表达语义关系中起着不同的作用,以便更好地描述这些元素之间的交互,并将它们用于文档级关系抽取,我们将文档文本在文档级关系抽取模型的图表示层内构建为具有不同节点类型的文档图,具体来说,文档中的元素被分为三种不同类型的节点:句子节点、提及节点和实体节点。
S232、根据S22中得到的文档文本的上下文表示分别对文档图中的句子节点、提及节点和实体节点进行编码表示,具体过程为:
根据S22中BERT编码器得到的文档文本的上下文表示(词的向量化表示)对文档图中的每种类型节点进行编码表示,即对每种类型节点的属性进行初始化,表示如下:
提及节点
xi表示文档文本中的第i个单词;
ma表示第a个提及节点;
hi表示文档文本中第i个单词的上下文表示;
实体节点
eb表示第b个实体节点;
句子节点
sc第c个句子节点。
S233、将S232中编码表示后的多个节点输入异质图注意力网络内,得到实体节点的编码表示,具体过程为:
S2331、基于启发式规则对S232中编码表示后的多个节点构建七类无向边:
为了将S232中的节点连接起来,得到反映节点间交互的图,本发明利用文档元素之间的自然关联构造了以下无向边,具体实例如下表1所示。
第一提及边:在一个句子中的两个不同实体的提及之间建立一个边。
例如,在句子s1中张三达和X国表示两个实体,在句子s3中张三为实体张三达的提及,X国为实体X国的提及,则在句子s3中具有不同实体的两个提及(张三和X国)之间建立一条边,作为第一提及边。
第二提及边:若一个句子中两个提及节点表示同一实体,则在所述两个提及节点之间建立一条边。
例如,在句子s1中红色公司为一个实体,在句子s4中两处红色均为实体红色公司的提及,则在句子s4中的两处红色之间建立一条边,作为第二提及边。
第一提及实体边:若一个句子中包含多个实体,则在其中一个实体与其他实体的提及之间建立一个边。
例如,在句子s1中张三达和X国表示两个实体,张三为张三达的提及,则在提及张三和实体X国之间建立一条边,作为第一提及实体边。
第二提及实体边:若句子一中包含实体,句子二中包含所述实体的提及,则在实体和提及之间建立一条边。
例如,在句子s1中张三达为实体,在句子s2中张三为实体张三达的提及,则在提及张三和实体张三达之间建立一条边,作为第二提及实体边。
提及句子边:若一个句子中包含一个提及,则在提及和句子之间建立一条边。
例如,在句子s1中张三达为实体,在句子s2中张三为实体张三达的提及,则在提及张三和句子s2之间建立一条边,作为提及句子边。
实体句子边:若句子一中包含实体,句子二中至少包含所述实体的一个提及,则在实体和句子二之间建立一条边。
例如,在句子s1中张三达为实体,句子s2中张三为实体张三达的提及,则在实体张三达和句子s2之间建立一条边,作为实体句子边。
句子边:若有四个句子,则在每两个句子之间建立一条边。
例如,根据表1,将其中的s1,s2,s3和s4中的每两个句子之间建立一条边。
表1文本实例
S2332、将S2331中构建的无向边输入异质图注意力网络内,得到实体节点的编码表示。
所述异质图注意力网络依次包括节点级注意力层、第一类型级注意力层、第二类型级注意力层。
将S2321中构建的无向边输入异质图注意力网络内,利用异质图注意力网络的消息传播策略来累积有关文档图的信息。首先,无向边会输入到节点级注意力层,在节点级注意力层内基于边的节点级注意力聚合所有相同边类型邻居节点,得到并输出特定边类型的节点嵌入表示;其次,将节点级注意力层的输出作为第一类型级注意力层的输入,即将特定边类型的节点嵌入表示输入第一类型级注意力层内,并在此层内基于边的类型级注意力输出不同节点类型下的节点嵌入表示;最终,将第一类型级注意力层输出的不同节点类型下的节点嵌入表示作为第二类型级注意力层的输入,并在此层内基于节点的类型级注意力输出最终的有节点嵌入表示,从而得到头实体和尾实体的表示,即实体节点的编码表示,至此,完成无向边在异质图注意力网络内的处理。
S24、将S23中得到的实体节点的编码表示输入文档级关系抽取模型的分类层内,输出所述文档文本的关系,得到训练好的文档级关系抽取模型。
本发明分类层内采用多标签分类任务,并使用二进制交叉熵作为分类损失进行分类,能够预测实体之间的多种关系,结果更加准确。将S23中得到的实体节点的编码表示输入分类层,输出所述文档文本中实体之间的关系。从而得到训练好的文档级关系抽取模型。
S3、将待抽取文档级关系的文档文本输入S2中训练好的文档级关系抽取模型内,得到对应的文档文本关系;
实施例1
由于文档中不同类型的元素在表达语义关系中起着不同的作用,因此将输入文档构建为具有不同节点类型的文档图,即构建的文档图包含句子节点、提及节点和实体节点。然后,利用文档元素之间的自然关联构造七种类型的无向边。另外,考虑到节点和边的重要性,提出一种异质图注意力网络来学习文档图中的丰富的节点表示。
Η=BERT(X) (1)
由于文档文本中不同类型的元素在表达语义关系中起着不同的作用。以便更好地描述这些元素之间的交互,并将它们用于文档级关系抽取,我们考虑将输入文档文本构建为具有不同节点类型的文档图。具体来说,文档文本中的元素被分为三种不同类型的节点:句子节点(S)、提及节点(M)和实体节点(E)。我们根据BERT编码器得到的上下文表示(词的向量化表示)对每种类型的节点均进行编码表示,表示如下:
(1)提及节点:提及节点的编码表示vm是通过对提及所包含单词的表示进行平均,即为表示第a个提及节点的编码表示,xi表示文档文本中的第i个单词,ma表示第a个提及节点,hi表示文档文本中第i个单词的上下文表示。
为了将这些节点连接起来,得到反映节点间交互的图,我们利用文档元素之间的自然关联构造无向边。具体来说,基于启发式规则构造了以下七类边。
·第一提及边(MMU):在一个句子中的两个不同实体的提及之间建立一个边。
·第二提及边(MMO):若一个句子中两个提及节点表示同一实体,则在所述两个提及节点之间建立一条边。
·第一提及实体边(MEU):若一个句子中包含多个实体,则在其中一个实体与其他实体的提及之间建立一个边。
·第二提及实体边(MEO):若句子一中包含实体,句子二中包含所述实体的提及,则在实体和提及之间建立一条边。
·提及句子边(MS):若一个句子中包含一个提及,则在提及和句子之间建立一条边。
·实体句子边(ES):若句子一中包含实体,句子二中至少包含所述实体的一个提及,则在实体和句子二之间建立一条边。
·句子边(SS):若有四个句子,则在每两个句子之间建立一条边。
在构建的图中,目标节点与m种类型的节点相邻,并存在n种类型的边,则节点的类型为{φ1,φ2,...φm},m=(1,2,…k…p),边的类型为n=(1,2,…q),则节点同时具有类型边和φp类型邻居节点的集合为
σ(·)为激活函数;
其中,V是目标节点的集合,|V|表示目标集合中节点的数目;
经过Softmax函数,得到相同节点类型下的不同边类型权重:
将文档图中导出的头实体和尾实体的表示分别为eh和et,使用比较运算来增强特征,即采用两个实体表示之间的减法绝对值|eh-et|和对逐元素相乘eh⊙et进行特征增强,得到最终的头实体和尾实体的表示:
Eh,t=[eh;et;|eh-et|;eh⊙et] (11)
此时得到的头实体和尾实体即为实体节点的编码表示,至此,完成无向边在异质图注意力网络内的处理。
我们将得到的实体节点的编码表示输入分类器内,分类器的任务为多标签分类任务,并输出预测的实体之间的关系:
P(r|eh,et)=sigmoid(W2σ(W1Eh,t+b1)+b2) (12)
其中,r表示两个实体eh和et之间的关系;W1,W2,b1和b2均表示可训练参数;σ()表示激活函数,例如ReLU。
分类器使用二进制交叉熵作为分类损失:
实施例2
Claims (10)
1.一种基于异质图注意力网络的文档级关系抽取方法,其特征在于:它包括以下步骤:
S1、获取文档文本;
S2、建立文档级关系抽取模型,将S1中获取的文档文本输入文档级关系抽取模型内进行训练,输出所述文档文本的关系,得到训练好的文档级关系抽取模型;
S3、将待抽取文档级关系的文档文本输入S2中训练好的文档级关系抽取模型内,得到对应的文档文本的关系。
2.根据权利要求1中所述的一种基于异质图注意力网络的文档级关系抽取方法,其特征在于:所述S2中建立的文档级关系抽取模型依次包括向量表示层、上下文表示层、图表示层、分类层。
3.根据权利要求2中所述的一种基于异质图注意力网络的文档级关系抽取方法,其特征在于:所述S2中建立文档级关系抽取模型,将S1中获取的文档文本输入文档级关系抽取模型内进行训练,输出所述文档文本的关系,得到训练好的文档级关系抽取模型,具体过程为:
S21、将S1中获取的文档文本输入文档级关系抽取模型的向量表示层内,输出对应的文档文本编码表示;
S22、将S21中得到的文档文本编码表示输入文档级关系抽取模型的上下文表示层内,输出文档文本的上下文表示;
S23、将S1中获取的文本文档输入文档级关系抽取模型的图表示层内构建对应的文档图,所述文档图包含多个节点,根据S22中得到的文档文本的上下文表示分别对文档图中的多个节点进行编码表示,将编码表示后的多个节点输入异质图注意力网络内,得到实体节点的编码表示;
S24、将S23中得到的实体节点的编码表示输入文档级关系抽取模型的分类层内,输出所述文档文本的关系,得到训练好的文档级关系抽取模型。
4.根据权利要求3中所述的一种基于异质图注意力网络的文档级关系抽取方法,其特征在于:所述S22中上下文表示层采用BERT编码器进行上下文表示。
5.根据权利要求4中所述的一种基于异质图注意力网络的文档级关系抽取方法,其特征在于:所述S23中将S1中获取的文本文档输入图表示层内构建对应的文档图,所述文档图包含多个节点,根据S22中得到的文档文本的上下文表示分别对文档图中的多个节点进行编码表示,利用异质图注意力网络对编码表示后的多个节点进行处理,得到实体节点的编码表示,具体过程为:
S231、将S1中获取的文本文档输入文档级关系抽取模型的图表示层内构建对应的文档图,所述文档图包含句子节点、提及节点和实体节点;
S232、根据S22中得到的文档文本的上下文表示分别对文档图中的句子节点、提及节点和实体节点进行编码表示;
S233、将S232中编码表示后的多个节点输入异质图注意力网络内,得到实体节点的编码表示。
7.根据权利要求6中所述的一种基于异质图注意力网络的文档级关系抽取方法,其特征在于:所述S233中将S232中编码表示后的多个节点输入异质图注意力网络内,得到实体节点的编码表示,具体过程为:
S2331、基于启发式规则对S232中编码表示后的多个节点构建多种类别的无向边;
S2332、将S2331中构建的无向边输入异质图注意力网络内,得到实体节点的编码表示。
8.根据权利要求7中所述的一种基于异质图注意力网络的文档级关系抽取方法,其特征在于:所述S2331中构建的无向边的类别为七种。
9.根据权利要求8中所述的一种基于异质图注意力网络的文档级关系抽取方法,其特征在于:七种无向边分别包括:
第一提及边:在一个句子中的两个不同实体的提及之间建立一个边;
第二提及边:若一个句子中两个提及节点表示同一实体,则在所述两个提及节点之间建立一条边;
第一提及实体边:若一个句子中包含多个实体,则在其中一个实体与其他实体的提及之间建立一个边;
第二提及实体边:若句子一中包含实体,句子二中包含所述实体的提及,则在实体和提及之间建立一条边;
提及句子边:若一个句子中包含一个提及,则在提及和句子之间建立一条边;
实体句子边:若句子一中包含实体,句子二中至少包含所述实体的一个提及,则在实体和句子二之间建立一条边;
句子边:若有四个句子,则在每两个句子之间建立一条边。
10.根据权利要求9中所述的一种基于异质图注意力网络的文档级关系抽取方法,其特征在于:所述异质图注意力网络依次包括节点级注意力层、第一类型级注意力层、第二类型级注意力层。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210386134.6A CN114648017A (zh) | 2022-04-13 | 2022-04-13 | 一种基于异质图注意力网络的文档级关系抽取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210386134.6A CN114648017A (zh) | 2022-04-13 | 2022-04-13 | 一种基于异质图注意力网络的文档级关系抽取方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114648017A true CN114648017A (zh) | 2022-06-21 |
Family
ID=81996875
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210386134.6A Pending CN114648017A (zh) | 2022-04-13 | 2022-04-13 | 一种基于异质图注意力网络的文档级关系抽取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114648017A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117951313A (zh) * | 2024-03-15 | 2024-04-30 | 华南理工大学 | 基于实体关系统计关联的文档关系抽取方法 |
-
2022
- 2022-04-13 CN CN202210386134.6A patent/CN114648017A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117951313A (zh) * | 2024-03-15 | 2024-04-30 | 华南理工大学 | 基于实体关系统计关联的文档关系抽取方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109284506B (zh) | 一种基于注意力卷积神经网络的用户评论情感分析系统及方法 | |
WO2022057669A1 (zh) | 基于结构化上下文信息的知识图谱预训练方法 | |
CN110413785A (zh) | 一种基于bert和特征融合的文本自动分类方法 | |
CN111079409B (zh) | 一种利用上下文和方面记忆信息的情感分类方法 | |
CN111563166A (zh) | 一种针对数学问题分类的预训练模型方法 | |
CN112926655B (zh) | 一种图像内容理解与视觉问答vqa方法、存储介质和终端 | |
CN116204674B (zh) | 一种基于视觉概念词关联结构化建模的图像描述方法 | |
CN111639254A (zh) | 一种医疗领域的sparql查询语句的生成系统和方法 | |
CN108363685B (zh) | 基于递归变分自编码模型的自媒体数据文本表示方法 | |
CN113987167A (zh) | 基于依赖感知图卷积网络的方面级情感分类方法及系统 | |
CN113312912A (zh) | 一种用于交通基础设施检测文本的机器阅读理解方法 | |
CN115563314A (zh) | 多源信息融合增强的知识图谱表示学习方法 | |
CN115496072A (zh) | 一种基于对比学习的关系抽取方法 | |
CN112989803B (zh) | 一种基于主题向量学习的实体链接预测方法 | |
CN114648017A (zh) | 一种基于异质图注意力网络的文档级关系抽取方法 | |
CN112528168B (zh) | 基于可形变自注意力机制的社交网络文本情感分析方法 | |
CN117094325B (zh) | 水稻病虫害领域命名实体识别方法 | |
CN114020900A (zh) | 基于融合空间位置注意力机制的图表英语摘要生成方法 | |
CN116910272B (zh) | 基于预训练模型t5的学术知识图谱补全方法 | |
CN112950414A (zh) | 一种基于解耦法律要素的法律文本表示方法 | |
CN117648469A (zh) | 一种基于对比学习的交叉双塔结构答案选择方法 | |
CN117235261A (zh) | 一种多模态方面级情感分析方法、装置、设备及存储介质 | |
Ji et al. | LSTM based semi-supervised attention framework for sentiment analysis | |
CN113449517B (zh) | 基于bert门控多窗口注意力网络模型的实体关系抽取方法 | |
CN115906846A (zh) | 一种基于双图的层次特征融合的文档级命名实体识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |