CN109902171A - 基于分层知识图谱注意力模型的文本关系抽取方法及系统 - Google Patents

基于分层知识图谱注意力模型的文本关系抽取方法及系统 Download PDF

Info

Publication number
CN109902171A
CN109902171A CN201910090408.5A CN201910090408A CN109902171A CN 109902171 A CN109902171 A CN 109902171A CN 201910090408 A CN201910090408 A CN 201910090408A CN 109902171 A CN109902171 A CN 109902171A
Authority
CN
China
Prior art keywords
sentence
knowledge mapping
packet
vector
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910090408.5A
Other languages
English (en)
Other versions
CN109902171B (zh
Inventor
李新川
镇诗奇
李圣文
梁庆中
郑坤
姚宏
刘超
董理君
康晓军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing xuetestang Education Technology Co.,Ltd.
Original Assignee
China University of Geosciences
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China University of Geosciences filed Critical China University of Geosciences
Priority to CN201910090408.5A priority Critical patent/CN109902171B/zh
Publication of CN109902171A publication Critical patent/CN109902171A/zh
Application granted granted Critical
Publication of CN109902171B publication Critical patent/CN109902171B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Machine Translation (AREA)

Abstract

本发明提供了一种基于分层知识图谱注意力模型的文本关系抽取方法及系统,其方法包括:首先根据待处理文本选取训练文本集和知识图谱,并对训练文本集和知识图谱分别进行预处理;然后构建分层知识图谱注意力模型,并利用预处理后的训练文本及对该模型进行训练;最后将所述待处理文本中所有句子的头实体和尾实体进行标注,并将标注后的待处理文本输入所述训练后的分层知识图谱注意力模型,得到关系结果。本发明的有益效果是:本发明所提出的技术方案提出一种分层知识图谱注意力模型,利用知识图谱表示帮助模型分配句子和词的权重,提高了模型的关系预测的准确率和召回率,进而提高了文本关系的抽取准确度。

Description

基于分层知识图谱注意力模型的文本关系抽取方法及系统
技术领域
本发明涉及关系抽取领域,尤其涉及一种基于分层知识图谱注意力模型的文本关系抽取方法及系统。
背景技术
知识图谱(knowledge bases)为真实世界的事实提供了有效的结构化信息,被很多自然语言处理(NLP)任务(比如网页搜索和知识问答)用作关键资源。典型的知识图谱有Freebase、DBpedia和YAGO。由于真实世界中的事实可以说是无穷无尽的,并且每天都在不断增长,因此现存的知识图谱还远远不够完全。因此,信息抽取任务被越来越多的人重视。
信息抽取旨在从大规模非结构或半结构的自然语言文本中抽取结构化信息。关系抽取是其中的重要子任务之一,主要目的是从自然语言文本中的目标实体对之间抽取实体对之间存在的语义关系。它对于许多自然语言处理(NLP)任务有着很重要的作用,包括知识问答,网页搜索和知识图谱的构建等。
关系抽取的输出一般是一个三元组(头实体,关系,尾实体),表示实体1和实体2之间存在特定类别的语义关系。例如,句子“中国的首都是北京”中可以抽取出关系(中国,首都,北京)这个三元组。
关系抽取最常用的方法是监督学习和深度学习,这两种方法都取得了很好的效果。然而,深度学习方法即为基于神经网络的方法,虽然在准确率和回归率方面都有着相当不错的表现,但它对于监督数据集(比如ACE-05和SemEval-2010 task 8)十分依赖。然而,这些监督数据都是依靠人工标注的,十分耗时耗力,因此深度学习方法很难扩展到更大的领域中。
远程监督(Distant Supervision)可以通过将语料库与外部知识图谱对齐来自动构建大量的训练标注数据,因而成为目前关系抽取任务最主流的方法。这类数据构造方法的具体实现步骤是:1.从知识图谱中抽取存在关系的实体对2.从非结构化文本中抽取含有实体对的句子作为训练样例。它把现有知识图谱中的三元组<e1,r,e2>作为种子,匹配同时含有e1和e2的文本,得到的文本用作关系r的标注数据。通过远程监督构建的大量标注数据可以训练出一个效果不错的关系抽取器,减少模型对人工标注数据的依赖,增强模型跨领域适应能力。
虽然现在的利用远程监督进行关系抽取方法已经取得了较好的结果,但是对齐过程中产生的错误标签的问题一直存在困扰。这是因为Distant Supervision的提出主要基于以下假设:两个实体如果在知识库中存在某种关系,则包含该两个实体的非结构化句子均能表示出这种关系。而对于某些句子,它仅仅包含了两个实体,但语义上并没有表示出它们之间的特定关系,这样的句子也被当作训练的实例的话,就是错误的标签,即噪声数据,对模型有着负面的影响。如图5所示,三元组<沃伦巴菲特,出生于,奥马哈>,可能对齐到『沃伦巴菲特1930年出生于奥马哈』,也可能对齐到『沃伦巴菲特对奥马哈有着很大的影响』。其中前一句是我们想要的标注数据,后一句则是噪音数据(并不表示“出生于”这种关系)。并且句子『李小龙在美国非常出名』会被标注为NA(即没有关系),因为对应的知识图谱中缺少对应的三元组。如何去除这些噪音数据,是一个丞待解决的问题。
远程监督传统模型严重依赖特定知识领域的专家来手工设计特征,或利用词性标注、句法解析等自然语言处理(NLP)标注来提供分类特征,显然人工设计特征过于费时费力,而NLP工具也往往存在很多误差,比如命名实体识别(NER),依赖解析等,越多的特征工程就会带来越多的误差,在整个任务的pipeline上会产生误差的传播和积累,最终影响后续关系抽取的精度。
本发明提出了一个把知识图谱应用到远程监督关系抽取的双层注意力机制的神经网络结构,针对远程监督关系抽取数据集中的标注不准确问题和为了筛选出句子内部的关键词,在神经网络关系抽取的框架上设计了一个分级的注意力机制,包含了句子级别和词级别,来分别提高对最后的关系预测有更大作用的句子和词的权重:首先,将包含同一个实体对的所有句子成为一个包,将每个包中的句子的词用word2vec转向量输入到我们的神经网络关系抽取模型BG2KGA中,并且把语料库对应的知识图谱用Translation的方法转向量,利用这个知识图谱表示帮助模型分配句子和词的权重,提高了关系抽取模型的关系预测的准确率和召回率。
发明内容
为了解决上述问题,本发明提供了一种基于分层知识图谱注意力模型的文本关系抽取方法及系统,一种基于分层知识图谱注意力模型的文本关系抽取方法,主要包括以下步骤:
S101:根据待处理文本从各开源数据库中获取训练文本集;其中,所述训练文本集中包含有所述待处理文本的所有头实体和尾实体;
S102:根据所述训练文本集从各开源数据库中获取知识图谱;所述训练文本集中的所有头实体和尾实体均包含于所述知识图谱中;
S103:将所述训练文本集划分为多个头实体和尾实体相同的句子组成的包;即每个包中包含多个句子,一个包中的所有句子的头实体和尾实体均相同,不同的包中的句子对应的头实体和尾实体不同;
S104:采用TransR模型将所述知识图谱进行转向量处理,得到转向量处理后的知识图谱;其中,所述TransR模型为利用所述知识图谱训练过后的TransR模型;
S105:构建分层知识图谱注意力模型;所述分层知识图谱注意力模型包括第一注意力层和第二注意力层;所述第一注意力层包括多个句子编码器;所述句子编码器依次包括:输入层、嵌入层、双向GRU层、知识图谱注意力层和输出层;
S106:采用所述多个头实体和尾实体相同的句子组成的包和所述转向量处理后的知识图谱对所述分层知识图谱注意力模型进行训练,得到训练后的分层知识图谱注意力模型;
S107:将所述待处理文本中所有句子的头实体和尾实体进行标注,并将标注后的待处理文本输入所述训练后的分层知识图谱注意力模型,得到所述待处理文本中所有句子的头实体和尾实体对应的关系。
进一步地,步骤S106中,采用多个头实体和尾实体相同的句子组成的包和转向量处理后的所述知识图谱对所述分层知识图谱注意力模型进行训练,得到训练后的分层知识图谱注意力模型;具体步骤包括:
S201:在所述多个头实体和尾实体相同的句子组成的包中随机选择一个未参加过训练的包作为第一包输入至所述第一注意力层,得到所述第一包中各个句子的特征向量yj;其中,j=1,2,…,n,n为所述第一包中句子的总个数;
S202:将所述特征向量作为所述第二注意力层的输入,得到所述第一包对应的关系向量rs
S203:根据所述关系向量rs,采用softmax分类器,计算获得所述第一包的关系概率矩阵P(rs|Bs,θ);计算公式如公式(4)所示:
上式中,Bs为所述转向量处理后的知识图谱,θ为整个模型的参数;M为待训练的参数矩阵,包含于θ中,初始值采用随机获取方法赋值;
S204:根据所述关系概率矩阵P(rs|Bs,θ),采用如公式(5)所示的最大似然函数作为损失函数Jθ对所述分层知识图谱注意力模型进行优化:
上式中,λ为预设的超参数,取0.0001;θ表示整个模型的待训练参数;Ss为所述转向量处理后的知识图谱中对应的包;s=1,2,...,t;t为包的总个数;
S205:采用随机梯度下降法SGD来最小化所述损失函数,同时对所有待训练参数进行调节;并将参数调节后的分层知识图谱注意力模型作为新的分层知识图谱注意力模型;
S206:判断循环次数是否达到设定的最大迭代次数或者Jθ的值稳定至预设范围?若是,则到步骤S207;否则返回步骤S201;
S207:将此时的分层知识图谱注意力模型作为训练后的分层知识图谱注意力模型。
进一步地,步骤S201中,在所述多个头实体和尾实体相同的句子组成的包中随机选择一个未参加过训练的包作为第一包输入至所述第一注意力层,得到所述第一包中各个句子的特征向量的方法为:
将所述第一包中各句子同时输入至所述第一注意力层;其中,每个句子对应一个所述第一注意力层的句子编码器;各句子编码器分别对输入的句子进行处理,得到所述第一包中各个句子的特征向量yj;其中,j=12,...,n,n为所述第一包中句子的总个数;具体的,任意某个句子编码器对输入该句子编码器中的单个句子进行处理的步骤包括:
S301:将所述单个句子中的各个词同时输入至输入层,以对所述句子做词嵌入处理,得到所述单个句子中每个词所对应的词嵌入向量;
S302:将所述词嵌入向量输入至嵌入层,以对所述单个句子中的每个词的位置做嵌入处理,得到所述单个句子中的每个词所对应的位置嵌入向量;
S303:将所述单个句子的每个词的词嵌入向量和位置嵌入向量进行收尾拼接,得到所述单个句子中每个词的最终表示向量;
S304:将每个词的所述最终表示向量同时输入至所述双向GRU层,得到所述单个句子中每个词对应的词表示向量hi;将所述单个句子中所有的词对应的词表示向量hi依次组合至一个向量中,得到所述句子的特征向量H;即H=[h1,h2,...,hm];其中,i=1,2,...,m;m为所述单个句子中词的总个数;
S305:将所述特征向量H输入至知识图谱注意力层,得到所述单个句子的特征向量y。
进一步地,步骤S301中,采用Word2vec工具对所述句子做词嵌入处理;所述Word2Vec工具为已利用skip-gram模型完成词向量训练的Word2Vec工具。
进一步地,步骤S302中,对所述单个句子中的每个词的位置做嵌入处理的方法为:把所述单个句子中的每个词相对于该句子的头实体和尾实体的两个相对位置放在同一个向量中,作为每个词的位置嵌入向量;所述相对位置,为一个词和目标实体间的距离。
进一步地,步骤S305中,将所述特征向量H输入至知识图谱注意力层,得到该句子的特征向量y,具体步骤包括:
S401:根据所述词的特征向量H,采用激活函数tanh()计算获得第一中间向量v,计算公式如公式(6)所示:
v=tanh(W1H+b) (6)
上式中,W1和b分别为待训练的第一参数矩阵和待训练的偏置矩阵,初始值均采用随机获取方法赋值;
S402:获取所述单个句子的头实体和尾实体在所述转向量处理后的知识图谱中的三元组,并将获得的三元组经过TransR模型处理后,得到所述单个句子的头实体向量h和尾实体向量t;进而采用头实体向量h、尾实体向量t计算获得所述单个句子对应的第一关系向量rht,具体计算公式如公式(7)所示:
上式中,Mr为TransR模型训练后确定的内部权重矩阵;
S403:根据所述中间向量v和所述关系向量rht,采用公式(8)计算获得第一权重向量α:
α=softmax([vW2;rht]×W3) (8)
上式中,W2和W3分别为待训练的第二参数矩阵和待训练的第三参数矩阵,初始值均采用随机获取方法赋值;
S404:根据权重向量α和所述特征向量H,采用公式(9)计算获得该句子的特征向量y:
y=H×αT (9)。
进一步地,步骤S202中,将所述特征向量作为所述第二注意力层的输入,得到所述第一包对应的关系向量rs;具体包括:
S501:根据所述特征向量yj,采用公式(10)计算获得第二中间向量ej
ef=tanh(Wsyj+bs) (10)
上式中,Ws和bs分别为待训练的第四参数矩阵和待训练的第一偏置矩阵,初始值均采用随机获取方法赋值;其中,j=1,2,。。。n,n为所述第一包中句子的总个数;
S502:获取所述第一包的头实体和尾实体在所述转向量处理后的知识图谱中的三元组,并将获得的三元组经过TransR模型处理后,得到所述第一包的头实体向量h和尾实体向量t;进而采用头实体向量h和尾实体向量t计算获得所述第一包对应的第二关系向量rht;由于所述第一包的头实体和尾实体所述句子的头实体和尾实体相同,所以所述第一关系向量和第二关系向量相同,均为rht
S503:根据所述第二关系向量rht和所述第二中间向量ej,采用公式(11)计算获得第二权重向量βj
βj=softmax(rht×ej) (11)
S504:根据第二权重向量βj,采用公式(12)计算获得关系向量rs
上式中,j=1,2,。。。n,n为所述第一包中句子的总个数。
进一步地,一种基于分层知识图谱注意力模型的文本关系抽取系统,其特征在于:包括以下模块:
文本集选择模块,用于根据待处理文本选取训练文本集;其中,所述训练文本集中包含有所述待处理文本的所有头实体和尾实体;
知识图谱选择模块,用于根据所述训练文本集选取知识图谱;所述训练文本集中的所有头实体和尾实体均包含于所述知识图谱中;
句子分包模块,用于将所述训练文本集划分为多个头实体和尾实体相同的句子组成的包;即每个包中包含多个句子,一个包中的所有句子的头实体和尾实体均相同,且不同的包中的句子对应的头实体和尾实体不同;
转向量模块,用于采用TransR模型将所述知识图谱进行转向量处理,得到转向量处理后的知识图谱;其中,所述TransR模型为利用所述知识图谱训练过后的TransR模型;
模型构建模块,用于构建分层知识图谱注意力模型;所述分层知识图谱注意力模型包括第一注意力层和第二注意力层;所述第一注意力层包括多个句子编码器;所述句子编码器依次包括:输入层、嵌入层、双向GRU层、知识图谱注意力层和输出层;
模型训练模块,用于采用所述多个头实体和尾实体相同的句子组成的包和所述转向量处理后的知识图谱对所述分层知识图谱注意力模型进行训练,得到训练后的分层知识图谱注意力模型;
关系抽取模块,用于将所述待处理文本中所有句子的头实体和尾实体进行标注,并将标注后的待处理文本输入所述训练后的分层知识图谱注意力模型,得到所述待处理文本中所有句子的头实体和尾实体对应的关系。
进一步地,模型训练模块中,采用多个头实体和尾实体相同的句子组成的包和转向量处理后的所述知识图谱对所述分层知识图谱注意力模型进行训练,得到训练后的分层知识图谱注意力模型;具体步骤包括以下单元:
特征向量获取单元,用于在所述多个头实体和尾实体相同的句子组成的包中随机选择一个未参加过训练的包作为第一包输入至所述第一注意力层,得到所述第一包中各个句子的特征向量yj;其中,j=1,2,...,n,n为所述第一包中句子的总个数;
关系向量获取单元,用于将所述特征向量作为所述第二注意力层的输入,得到所述第一包对应的关系向量rs
概率矩阵获取单元,用于根据所述关系向量rs,采用softmax分类器,计算获得所述第一包的关系概率矩阵P(rs|Bs,θ);计算公式如公式(4)所示:
上式中,Bs为所述转向量处理后的知识图谱,θ为整个模型的参数;M为待训练的参数矩阵,包含于θ中,初始值采用随机获取方法赋值;
损失函数计算单元,用于根据所述关系概率矩阵P(rs|Bs,θ),采用如公式(5)所示的最大似然函数作为损失函数Jθ对所述分层知识图谱注意力模型进行优化:
上式中,λ为预设的超参数,取0.0001;θ表示整个模型的待训练参数;Ss为所述转向量处理后的知识图谱中对应的包;s=1,2,...,t;t为包的总个数;
参数调节单元,用于采用随机梯度下降法SGD来最小化所述损失函数,同时对所有待训练参数进行调节;并将参数调节后的分层知识图谱注意力模型作为新的分层知识图谱注意力模型;
判断单元,用于判断循环次数是否达到设定的最大迭代次数或者Jθ的值稳定至预设范围?若是,则到结束单元;否则返回特征向量获取单元;
结束单元,用于将此时的分层知识图谱注意力模型作为训练后的分层知识图谱注意力模型。
进一步地,特征向量获取单元中,在所述多个头实体和尾实体相同的句子组成的包中随机选择一个未参加过训练的包作为第一包输入至所述第一注意力层,得到所述第一包中各个句子的特征向量的方法为:
将所述第一包中各句子同时输入至所述第一注意力层;其中,每个句子对应一个所述第一注意力层的句子编码器;各句子编码器分别对各句子进行处理,得到所述第一包中各个句子的特征向量yj;其中,j=1,2,...,n,n为所述第一包中句子的总个数;具体的,任意某个句子编码器对输入该句子编码器中的单个句子进行处理的步骤包括如下单元:
词嵌入单元,用于将所述单个句子中的各个词同时输入至输入层,以对所述句子做词嵌入处理,得到所述单个句子中每个词所对应的词嵌入向量;
位置嵌入单元,用于将所述词嵌入向量输入至嵌入层,以对所述单个句子中的每个词的位置做嵌入处理,得到所述单个句子中的每个词所对应的位置嵌入向量;
拼接单元,用于将所述单个句子的每个词的词嵌入向量和位置嵌入向量进行收尾拼接,得到所述单个句子中每个词的最终表示向量;
特征向量获取单元,用于将每个词的所述最终表示向量同时输入至所述双向GRU层,得到所述单个句子中每个词对应的词表示向量hi;将所述单个句子中所有的词对应的词表示向量hi依次组合至一个向量中,得到所述单个句子的特征向量H;即H=[h1,h2,...,hm];其中,i=1,2,...,m;m为所述单个句子中词的总个数;
特征向量计算单元,用于将所述特征向量H输入至知识图谱注意力层,得到所述单个句子的特征向量y。
本发明提供的技术方案带来的有益效果是:本发明所提出的技术方案提出一种分层知识图谱注意力模型,利用知识图谱表示帮助模型分配句子和词的权重,提高了模型的关系预测的准确率和召回率,进而提高了文本关系的抽取准确度。
附图说明
下面将结合附图及实施例对本发明作进一步说明,附图中:
图1是本发明实施例中一种基于分层知识图谱注意力模型的文本关系抽取方法的流程图;
图2是本发明实施例中分层知识图谱注意力模型的结构示意图;
图3是本发明实施例中句子编码器的结构示意图;
图4是本发明实施例中一种基于分层知识图谱注意力模型的文本关系抽取系统的模块组成示意图;
图5是本发明实施例中远程监督标注的数据以及噪音的示意图。
具体实施方式
为了对本发明的技术特征、目的和效果有更加清楚的理解,现对照附图详细说明本发明的具体实施方式。
本发明的实施例提供了一种基于分层知识图谱注意力模型的文本关系抽取方法及系统。
请参考图1,图1是本发明实施例中一种基于分层知识图谱注意力模型的文本关系抽取方法的流程图,具体包括如下步骤:
S101:根据待处理文本选取训练文本集;其中,所述训练文本集中包含有所述待处理文本的所有头实体和尾实体;
在本发明实施例中,所述训练文本集选取New York Time 60k(NYT 60k);
S102:根据所述训练文本集选取知识图谱;所述训练文本集中的所有头实体和尾实体均包含于所述知识图谱中;
在本发明实施例中,所述知识图谱选取Freebase 60k(FB60k);
S103:将所述训练文本集划分为多个头实体和尾实体相同的句子组成的包;即每个包中包含多个句子,一个包中的所有句子的头实体和尾实体均相同,且不同的包中的句子对应的头实体和尾实体不同;
S104:采用TransR模型将所述知识图谱进行转向量处理,得到转向量处理后的知识图谱;
S105:构建分层知识图谱注意力模型BG2KGA;如图2所示,所述分层知识图谱注意力模型BG2KGA包括第一注意力层KATT1和第二注意力层KATT2;所述第一注意力层包括多个句子编码器BGWKA;如图3所示,所述句子编码器BGWKA依次包括:输入层、嵌入层、双向GRU层、知识图谱注意力层和输出层;
S106:采用所述多个头实体和尾实体相同的句子组成的包和所述转向量处理后的知识图谱对所述分层知识图谱注意力模型BG2KGA进行训练,得到训练后的分层知识图谱注意力模型BG2KGA;
S107:将所述待处理文本中所有句子的头实体和尾实体进行标注,并将标注后的待处理文本输入所述训练后的分层知识图谱注意力模型,得到所述待处理文本中所有句子的头实体和尾实体对应的关系。
步骤S104中,所述TransR模型为利用所述知识图谱训练过后的TransR模型;训练方法如下:
首先随机初始化TransR模型的内部参数矩阵Mr;并采用公式(1)求出头实体中间向量hr和尾实体中间向量tr
上式中,h和t分别为输入至TransR模型中的三元组中的头实体向量和尾实体向量;
然后根据头实体中间向量hr和尾实体中间向量tr,采用得分函数计算获得最大得分fr(h,t);具体如公式(2)所示:
上式中,r为输入至TransR模型中的三元组的关系向量;
最后根据公式(3)调节参数矩阵Mr,并将参数调节后的TransR模型作为新的TransR模型;
hr+r≈tr (3)
重复以上步骤,直到达到预定的迭代次数或者最大得分fr(h,t)稳定,并将此时的TransR模型作为训练后的TransR模型对所述知识图谱中的所有三元组进行转向量,并将最后的参数矩阵Mr做为TransR模型训练后确定的内部权重矩阵。(具体训练方法可参考文献:Yankai Lin,Zhiyuan Liu,Maosong Sun,Yang Liu,Xuan Zhu;Leaming Entity andRelation Embeddings for Knowledge Graph Completion;Proceedings of the Twenty-Ninth AAAI Conference on Artificial Intelligence;)
步骤S106中,采用多个头实体和尾实体相同的句子组成的包和转向量处理后的所述知识图谱对所述分层知识图谱注意力模型进行训练,得到训练后的分层知识图谱注意力模型;具体步骤包括:
S201:在所述多个头实体和尾实体相同的句子组成的包中随机选择一个未参加过训练的包作为第一包输入至所述第一注意力层,得到所述第一包中各个句子的特征向量yj;其中,j=1,2,...,n,n为所述第一包中句子的总个数;
S202:将所述特征向量作为所述第二注意力层的输入,得到所述第一包对应的关系向量rs
S203:根据所述关系向量rs,采用softmax分类器,计算获得所述第一包的关系概率矩阵P(rs|Bs,θ);计算公式如公式(4)所示:
上式中,Bs为所述转向量处理后的知识图谱,θ为整个模型的参数;M为待训练的参数矩阵,包含于θ中,初始值采用随机获取方法赋值;
S204:根据所述关系概率矩阵P(rs|Bs,θ),采用如公式(5)所示的最大似然函数作为损失函数Jθ对所述分层知识图谱注意力模型进行优化:
上式中,λ为预设的超参数,取0.0001;θ表示整个模型的待训练参数;Ss为所述转向量处理后的知识图谱中对应的包;s=1,2,...,t;t为包的总个数;
S205:采用随机梯度下降法SGD来最小化所述损失函数,同时对所有待训练参数进行调节;并将参数调节后的分层知识图谱注意力模型作为新的分层知识图谱注意力模型;
S206:判断循环次数是否达到设定的最大迭代次数或者Jθ的值稳定至预设范围?若是,则到步骤S207;否则返回步骤S201;
S207:将此时的分层知识图谱注意力模型作为训练后的分层知识图谱注意力模型。
步骤S201中,在所述多个头实体和尾实体相同的句子组成的包中随机选择一个未参加过训练的包作为第一包输入至所述第一注意力层,得到所述第一包中各个句子的特征向量的方法为:
将所述第一包中各句子同时输入至所述第一注意力层;其中,每个句子对应一个所述第一注意力层的句子编码器BGWKA;各句子编码器BGWKA分别对各句子进行处理,得到所述第一包中各个句子的特征向量yj;其中,j=1,2,...,n,n为所述第一包中句子的总个数;具体的,任意某个句子编码器对输入该句子编码器中的句子进行处理的步骤包括:
S301:将所述单个句子中的各个词同时输入至输入层,以对所述句子做词嵌入处理,得到所述单个句子中每个词所对应的词嵌入向量;采用Word2vec工具(Mikolov etal.2013a;2013b;Mikolov,Yih,and Zweig 2013)做词嵌入处理;所述Word2Vec工具为已利用skip-gram模型完成词向量训练的Word2Vec工具;
S302:将所述词嵌入向量输入至嵌入层,以对所述单个句子中的每个词的位置做嵌入处理,得到所述单个句子中的每个词所对应的位置嵌入向量;
具体的,对所述单个句子中的每个词的位置做嵌入处理的方法为:把所述单个句子中的每个词相对于该句子的头实体和尾实体的两个相对位置放在同一个向量中,作为这个词的位置嵌入向量;相对位置,即为一个词和目标实体间的距离,比如,给出一句话:“史蒂夫乔布斯是苹果的联合创建者和CEO”,那么对于词“联合创建者”,它与实体“史蒂夫乔布斯”和“苹果”的相对位置为4和2;
S303:将所述单个句子的每个词的词嵌入向量和位置嵌入向量进行收尾拼接,得到所述单个句子中每个词的最终表示向量;
S304:将每个词的所述最终表示向量同时输入至所述双向GRU层,得到所述句子中每个词对应的词表示向量hi;将所述单个句子中所有的词对应的词表示向量hi依次组合至一个向量中,得到所述单个句子的特征向量H;即H=[h1,h2,...,hm];其中,i=1,2,...,m;m为所述单个句子中词的总个数;
S305:将所述特征向量H输入至知识图谱注意力层,得到所述单个句子的特征向量y;
步骤S305中,将所述特征向量H输入至知识图谱注意力层,得到该句子的特征向量y,具体步骤包括:
S401:根据所述词的特征向量H,采用激活函数tanh()计算获得第一中间向量v,计算公式如公式(6)所示:
v=tanh(W1H+b) (6)
上式中,W1和b分别为待训练的第一参数矩阵和待训练的偏置矩阵,初始值均采用随机获取方法赋值;
S402:获取所述单个句子的头实体和尾实体在所述转向量处理后的知识图谱中的三元组(h,r,t),并将获得的三元组经过TransR模型处理后,得到所述单个句子的头实体向量h和尾实体向量t;进而采用头实体向量h、尾实体向量t计算获得所述单个句子对应的第一关系向量rht,具体计算公式如公式(7)所示:
上式中,Mr为TransR模型训练后确定的内部权重矩阵;
S403:根据所述中间向量v和所述关系向量rht,采用公式(8)计算获得第一权重向量α:
α=softmax([vW2;rht]×W3) (8)
上式中,W2和W3分别为待训练的第二参数矩阵和待训练的第三参数矩阵,初始值均采用随机获取方法赋值;分号“;”表示向量拼接运算;
S404:根据权重向量α和所述特征向量H,采用公式(9)计算获得该句子的特征向量y:
y=H×αT (9)。
步骤S202中,将所述特征向量作为所述第二注意力层的输入,得到所述第一包对应的关系向量rs;具体包括:
5501:根据所述特征向量yj,采用公式(10)计算获得第二中间向量ej
ej=tanh(Wsyj+bs) (10)
上式中,Ws和bs分别为待训练的第四参数矩阵和待训练的第一偏置矩阵,初始值均采用随机获取方法赋值;其中,j=1,2,...,n,n为所述第一包中句子的总个数;
S502:获取所述第一包的头实体和尾实体在所述转向量处理后的知识图谱中的三元组(h,r,t),并将获得的三元组经过TransR模型处理后,得到所述第一包的头实体向量h和尾实体向量t;进而采用头实体向量h、尾实体向量t计算获得所述第一包对应的第二关系向量rht;由于所述第一包的头实体和尾实体所述句子的头实体和尾实体相同,所以所述第一关系向量和第二关系向量相同,均为rht
S503:根据所述第二关系向量rht和所述第二中间向量ej,采用公式(11)计算获得第二权重向量βj
βj=softmax(rht×ej) (11)
S504:根据第二权重向量βj,采用公式(12)计算获得关系向量rs
上式中,j=1,2,...,n,n为所述第一包中句子的总个数。
请参阅图4,图4是本发明实施例中一种基于分层知识图谱注意力模型的文本关系抽取系统的模块组成示意图,包括依次连接的:文本集选择模块11、知识图谱选择模块12、句子分包模块13、转向量模块14、模型构建模块15、模型训练模块16和关系抽取模块17;
文本集选择模块11,用于根据待处理文本选取训练文本集;其中,所述训练文本集中包含有所述待处理文本的所有头实体和尾实体;
知识图谱选择模块12,用于根据所述训练文本集选取知识图谱;所述训练文本集中的所有头实体和尾实体均包含于所述知识图谱中;
句子分包模块13,用于将所述训练文本集划分为多个头实体和尾实体相同的句子组成的包;即每个包中包含多个句子,一个包中的所有句子的头实体和尾实体均相同,且不同的包中的句子对应的头实体和尾实体不同;
转向量模块14,用于采用TransR模型将所述知识图谱进行转向量处理,得到转向量处理后的知识图谱;其中,所述TransR模型为利用所述知识图谱训练过后的TransR模型;
模型构建模块15,用于构建分层知识图谱注意力模型BG2KGA;所述分层知识图谱注意力模型BG2KGA包括第一注意力层KATT1和第二注意力层KATT2;所述第一注意力层包括多个句子编码器BGWKA;所述句子编码器BGWKA依次包括:输入层、嵌入层、双向GRU层、知识图谱注意力层和输出层;
模型训练模块16,用于采用所述多个头实体和尾实体相同的句子组成的包和所述转向量处理后的知识图谱对所述分层知识图谱注意力模型BG2KGA进行训练,得到训练后的分层知识图谱注意力模型BG2KGA;
关系抽取模块17,用于将所述待处理文本中所有句子的头实体和尾实体进行标注,并将标注后的待处理文本输入所述训练后的分层知识图谱注意力模型,得到所述待处理文本中所有句子的头实体和尾实体对应的关系。
进一步地,模型训练模块16中,采用多个头实体和尾实体相同的句子组成的包和转向量处理后的所述知识图谱对所述分层知识图谱注意力模型进行训练,得到训练后的分层知识图谱注意力模型;具体步骤包括以下单元:
特征向量获取单元,用于在所述多个头实体和尾实体相同的句子组成的包中随机选择一个未参加过训练的包作为第一包输入至所述第一注意力层,得到所述第一包中各个句子的特征向量yj;其中,j=1,2,...,n,n为所述第一包中句子的总个数;
关系向量获取单元,用于将所述特征向量作为所述第二注意力层的输入,得到所述第一包对应的关系向量rs
概率矩阵获取单元,用于根据所述关系向量rs,采用softmax分类器,计算获得所述第一包的关系概率矩阵P(rs|Bs,θ);计算公式如公式(4)所示:
上式中,Bs为所述转向量处理后的知识图谱,θ为整个模型的参数;M为待训练的参数矩阵,包含于θ中,初始值采用随机获取方法赋值;
损失函数计算单元,用于根据所述关系概率矩阵P(rs|Bs,θ),采用如公式(5)所示的最大似然函数作为损失函数Jθ对所述分层知识图谱注意力模型进行优化:
上式中,λ为预设的超参数,取0.0001;θ表示整个模型的待训练参数;Ss为所述转向量处理后的知识图谱中对应的包;s=1,2,...,t;t为包的总个数;
参数调节单元,用于采用随机梯度下降法SGD来最小化所述损失函数,同时对所有待训练参数进行调节;并将参数调节后的分层知识图谱注意力模型作为新的分层知识图谱注意力模型;
判断单元,用于判断循环次数是否达到设定的最大迭代次数或者Jθ的值稳定至预设范围?若是,则到结束单元;否则返回特征向量获取单元;
结束单元,用于将此时的分层知识图谱注意力模型作为训练后的分层知识图谱注意力模型。
进一步地,特征向量获取单元中,在所述多个头实体和尾实体相同的句子组成的包中随机选择一个未参加过训练的包作为第一包输入至所述第一注意力层,得到所述第一包中各个句子的特征向量的方法为:
将所述第一包中各句子同时输入至所述第一注意力层;其中,每个句子对应一个所述第一注意力层的句子编码器BGWKA;各句子编码器BGWKA分别对各句子进行处理,得到所述第一包中各个句子的特征向量yj;其中,j=1,2,...,n,n为所述第一包中句子的总个数;具体的,任意某个句子编码器对输入该句子编码器中的单个句子进行处理的步骤包括如下单元:
词嵌入单元,用于将所述单个句子中的各个词同时输入至输入层,以对所述单个句子做词嵌入处理,得到所述单个句子中每个词所对应的词嵌入向量;
位置嵌入单元,用于将所述词嵌入向量输入至嵌入层,以对所述单个句子中的每个词的位置做嵌入处理,得到所述单个句子中的每个词所对应的位置嵌入向量;
拼接单元,用于将所述单个句子的每个词的词嵌入向量和位置嵌入向量进行收尾拼接,得到所述单个句子中每个词的最终表示向量;
特征向量获取单元,用于将每个词的所述最终表示向量同时输入至所述双向GRU层,得到所述单个句子中每个词对应的词表示向量hi;将所述单个句子中所有的词对应的词表示向量hi依次组合至一个向量中,得到所述单个句子的特征向量H;即H=[h1,h2,...,hm];其中,i=1,2,...,m;m为所述单个句子中词的总个数;
特征向量计算单元,用于将所述特征向量H输入至知识图谱注意力层,得到所述单个句子的特征向量y。
本发明的有益效果是:本发明所提出的技术方案提出一种分层知识图谱注意力模型,利用知识图谱表示帮助模型分配句子和词的权重,提高了模型的关系预测的准确率和召回率,进而提高了文本关系的抽取准确度。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于分层知识图谱注意力模型的文本关系抽取方法,其特征在于:包括以下步骤:
S101:根据待处理文本从各开源数据库中获取训练文本集;其中,所述训练文本集中包含有所述待处理文本的所有头实体和尾实体;
S102:根据所述训练文本集从各开源数据库中获取知识图谱;所述训练文本集中的所有头实体和尾实体均包含于所述知识图谱中;
S103:将所述训练文本集划分为多个头实体和尾实体相同的句子组成的包;即每个包中包含多个句子,一个包中的所有句子的头实体和尾实体均相同,不同的包中的句子对应的头实体和尾实体不同;
S104:采用TransR模型将所述知识图谱进行转向量处理,得到转向量处理后的知识图谱;其中,所述TransR模型为利用所述知识图谱训练过后的TransR模型;
S105:构建分层知识图谱注意力模型;所述分层知识图谱注意力模型包括第一注意力层和第二注意力层;所述第一注意力层包括多个句子编码器;所述句子编码器依次包括:输入层、嵌入层、双向GRU层、知识图谱注意力层和输出层;
S106:采用所述多个头实体和尾实体相同的句子组成的包和所述转向量处理后的知识图谱对所述分层知识图谱注意力模型进行训练,得到训练后的分层知识图谱注意力模型;
S107:将所述待处理文本中所有句子的头实体和尾实体进行标注,并将标注后的待处理文本输入所述训练后的分层知识图谱注意力模型,得到所述待处理文本中所有句子的头实体和尾实体对应的关系。
2.如权利要求1所述的一种基于分层知识图谱注意力模型的文本关系抽取方法,其特征在于:步骤S106中,采用多个头实体和尾实体相同的句子组成的包和转向量处理后的所述知识图谱对所述分层知识图谱注意力模型进行训练,得到训练后的分层知识图谱注意力模型;具体步骤包括:
S201:在所述多个头实体和尾实体相同的句子组成的包中随机选择一个未参加过训练的包作为第一包输入至第一注意力层,得到所述第一包中各个句子的特征向量yj;其中,j=1,2,…,n,n为所述第一包中句子的总个数;
S202:将所述特征向量作为第二注意力层的输入,得到所述第一包对应的关系向量rs
S203:根据关系向量rs,采用softmax分类器,计算获得所述第一包的关系概率矩阵P(rs|Bs,θ);计算公式如公式(4)所示:
上式中,Bs为所述转向量处理后的知识图谱,θ为整个模型的参数;M为待训练的参数矩阵,包含于θ中,初始值采用随机获取方法赋值;
S204:根据关系概率矩阵P(rs|Bs,θ),采用如公式(5)所示的最大似然函数作为损失函数Jθ对所述分层知识图谱注意力模型进行优化:
上式中,λ为预设的超参数,取0.0001;θ表示整个模型的待训练参数;Ss为所述转向量处理后的知识图谱中对应的包;s=1,2,…,t;t为包的总个数;
S205:采用随机梯度下降法SGD来最小化所述损失函数,同时对所有待训练参数进行调节;并将参数调节后的分层知识图谱注意力模型作为新的分层知识图谱注意力模型;
S206:判断循环次数是否达到设定的最大迭代次数或者Jθ的值稳定至预设范围?若是,则到步骤S207;否则返回步骤S201;
S207:将此时的分层知识图谱注意力模型作为训练后的分层知识图谱注意力模型。
3.如权利要求2所述的一种基于分层知识图谱注意力模型的文本关系抽取方法,其特征在于:步骤S201中,在所述多个头实体和尾实体相同的句子组成的包中随机选择一个未参加过训练的包作为第一包输入至所述第一注意力层,得到所述第一包中各个句子的特征向量的方法为:
将所述第一包中各句子同时输入至所述第一注意力层;其中,每个句子对应一个所述第一注意力层的句子编码器;各句子编码器分别对输入的句子进行处理,得到所述第一包中各个句子的特征向量yj;其中,j=12,…,n,n为所述第一包中句子的总个数;具体的,任意某个句子编码器对输入该句子编码器中的单个句子进行处理的步骤包括:
S301:将所述单个句子中的各个词同时输入至输入层,以对所述句子做词嵌入处理,得到所述单个句子中每个词所对应的词嵌入向量;
S302:将所述词嵌入向量输入至嵌入层,以对所述单个句子中的每个词的位置做嵌入处理,得到所述单个句子中的每个词所对应的位置嵌入向量;
S303:将所述单个句子的每个词的词嵌入向量和位置嵌入向量进行收尾拼接,得到所述单个句子中每个词的最终表示向量;
S304:将每个词的所述最终表示向量同时输入至所述双向GRU层,得到所述单个句子中每个词对应的词表示向量hi;将所述单个句子中所有的词对应的词表示向量hi依次组合至一个向量中,得到所述句子的特征向量H;即H=[h1,h2,…,hm];其中,i=1,2,…,m;m为所述单个句子中词的总个数;
S305:将所述特征向量H输入至知识图谱注意力层,得到所述单个句子的特征向量y。
4.如权利要求3所述的一种基于分层知识图谱注意力模型的文本关系抽取方法,其特征在于:步骤S301中,采用Word2vec工具对所述句子做词嵌入处理;所述Word2Vec工具为已利用skip-gram模型完成词向量训练的Word2Vec工具。
5.如权利要求3所述的一种基于分层知识图谱注意力模型的文本关系抽取方法,其特征在于:步骤S302中,对所述单个句子中的每个词的位置做嵌入处理的方法为:把所述单个句子中的每个词相对于该句子的头实体和尾实体的两个相对位置放在同一个向量中,作为每个词的位置嵌入向量;所述相对位置,为一个词和目标实体间的距离。
6.如权利要求3所述的一种基于分层知识图谱注意力模型的文本关系抽取方法,其特征在于:步骤S305中,将所述特征向量H输入至知识图谱注意力层,得到该句子的特征向量y,具体步骤包括:
S401:根据所述词的特征向量H,采用激活函数tanh()计算获得第一中间向量v,计算公式如公式(6)所示:
v=tanh(W1H+b) (6)
上式中,W1和b分别为待训练的第一参数矩阵和待训练的偏置矩阵,初始值均采用随机获取方法赋值;
S402:获取所述单个句子的头实体和尾实体在所述转向量处理后的知识图谱中的三元组,并将获得的三元组经过TransR模型处理后,得到所述单个句子的头实体向量h和尾实体向量t;进而采用头实体向量h、尾实体向量t计算获得所述单个句子对应的第一关系向量rht,具体计算公式如公式(7)所示:
上式中,Mr为TransR模型训练后确定的内部权重矩阵;
S403:根据所述中间向量v和所述关系向量rht,采用公式(8)计算获得第一权重向量α:
α=softmax([vW2;rht]×W3) (8)
上式中,W2和W3分别为待训练的第二参数矩阵和待训练的第三参数矩阵,初始值均采用随机获取方法赋值;
S404:根据权重向量α和所述特征向量H,采用公式(9)计算获得该句子的特征向量y:
y=H×αT (9)。
7.如权利要求2所述的一种基于分层知识图谱注意力模型的文本关系抽取方法,其特征在于:步骤S202中,将所述特征向量作为所述第二注意力层的输入,得到所述第一包对应的关系向量rs;具体包括:
S501:根据所述特征向量yj,采用公式(10)计算获得第二中间向量ej
ej=tanh(Wsyj+bs) (10)
上式中,Ws和bs分别为待训练的第四参数矩阵和待训练的第一偏置矩阵,初始值均采用随机获取方法赋值;其中,j=1,2,…,n,n为所述第一包中句子的总个数;
S502:获取所述第一包的头实体和尾实体在所述转向量处理后的知识图谱中的三元组,并将获得的三元组经过TransR模型处理后,得到所述第一包的头实体向量h和尾实体向量t;进而采用头实体向量h和尾实体向量t计算获得所述第一包对应的第二关系向量rht;由于所述第一包的头实体和尾实体所述句子的头实体和尾实体相同,所以所述第一关系向量和第二关系向量相同,均为rht
S503:根据所述第二关系向量rht和所述第二中间向量ej,采用公式(11)计算获得第二权重向量βj
βj=softmax(rht×ej) (11)
S504:根据第二权重向量βj,采用公式(12)计算获得关系向量rs
上式中,j=1,2,…,n,n为所述第一包中句子的总个数。
8.一种基于分层知识图谱注意力模型的文本关系抽取系统,其特征在于:包括以下模块:
文本集选择模块,用于根据待处理文本选取训练文本集;其中,所述训练文本集中包含有所述待处理文本的所有头实体和尾实体;
知识图谱选择模块,用于根据所述训练文本集选取知识图谱;所述训练文本集中的所有头实体和尾实体均包含于所述知识图谱中;
句子分包模块,用于将所述训练文本集划分为多个头实体和尾实体相同的句子组成的包;即每个包中包含多个句子,一个包中的所有句子的头实体和尾实体均相同,且不同的包中的句子对应的头实体和尾实体不同;
转向量模块,用于采用TransR模型将所述知识图谱进行转向量处理,得到转向量处理后的知识图谱;其中,所述TransR模型为利用所述知识图谱训练过后的TransR模型;
模型构建模块,用于构建分层知识图谱注意力模型;所述分层知识图谱注意力模型包括第一注意力层和第二注意力层;所述第一注意力层包括多个句子编码器;所述句子编码器依次包括:输入层、嵌入层、双向GRU层、知识图谱注意力层和输出层;
模型训练模块,用于采用所述多个头实体和尾实体相同的句子组成的包和所述转向量处理后的知识图谱对所述分层知识图谱注意力模型进行训练,得到训练后的分层知识图谱注意力模型;
关系抽取模块,用于将所述待处理文本中所有句子的头实体和尾实体进行标注,并将标注后的待处理文本输入所述训练后的分层知识图谱注意力模型,得到所述待处理文本中所有句子的头实体和尾实体对应的关系。
9.如权利要求8所述的一种基于分层知识图谱注意力模型的文本关系抽取系统,其特征在于:模型训练模块中,采用多个头实体和尾实体相同的句子组成的包和转向量处理后的所述知识图谱对所述分层知识图谱注意力模型进行训练,得到训练后的分层知识图谱注意力模型;具体步骤包括以下单元:
特征向量获取单元,用于在所述多个头实体和尾实体相同的句子组成的包中随机选择一个未参加过训练的包作为第一包输入至所述第一注意力层,得到所述第一包中各个句子的特征向量yj;其中,j=1,2,…,n,n为所述第一包中句子的总个数;
关系向量获取单元,用于将所述特征向量作为所述第二注意力层的输入,得到所述第一包对应的关系向量rs
概率矩阵获取单元,用于根据所述关系向量rs,采用softmax分类器,计算获得所述第一包的关系概率矩阵P(rs|Bs,θ);计算公式如公式(4)所示:
上式中,Bs为所述转向量处理后的知识图谱,θ为整个模型的参数;M为待训练的参数矩阵,包含于θ中,初始值采用随机获取方法赋值;
损失函数计算单元,用于根据所述关系概率矩阵P(rs|Bs,θ),采用如公式(5)所示的最大似然函数作为损失函数Jθ对所述分层知识图谱注意力模型进行优化:
上式中,λ为预设的超参数,取0.0001;θ表示整个模型的待训练参数;Ss为所述转向量处理后的知识图谱中对应的包;s=1,2,…,t;t为包的总个数;
参数调节单元,用于采用随机梯度下降法SGD来最小化所述损失函数,同时对所有待训练参数进行调节;并将参数调节后的分层知识图谱注意力模型作为新的分层知识图谱注意力模型;
判断单元,用于判断循环次数是否达到设定的最大迭代次数或者Jθ的值稳定至预设范围?若是,则到结束单元;否则返回特征向量获取单元;
结束单元,用于将此时的分层知识图谱注意力模型作为训练后的分层知识图谱注意力模型。
10.如权利要求9所述的一种基于分层知识图谱注意力模型的文本关系抽取系统,其特征在于:特征向量获取单元中,在所述多个头实体和尾实体相同的句子组成的包中随机选择一个未参加过训练的包作为第一包输入至所述第一注意力层,得到所述第一包中各个句子的特征向量的方法为:
将所述第一包中各句子同时输入至所述第一注意力层;其中,每个句子对应一个所述第一注意力层的句子编码器;各句子编码器分别对各句子进行处理,得到所述第一包中各个句子的特征向量yj;其中,j=1,2,…,n,n为所述第一包中句子的总个数;具体的,任意某个句子编码器对输入该句子编码器中的单个句子进行处理的步骤包括如下单元:
词嵌入单元,用于将所述单个句子中的各个词同时输入至输入层,以对所述句子做词嵌入处理,得到所述单个句子中每个词所对应的词嵌入向量;
位置嵌入单元,用于将所述词嵌入向量输入至嵌入层,以对所述单个句子中的每个词的位置做嵌入处理,得到所述单个句子中的每个词所对应的位置嵌入向量;
拼接单元,用于将所述单个句子的每个词的词嵌入向量和位置嵌入向量进行收尾拼接,得到所述单个句子中每个词的最终表示向量;
特征向量获取单元,用于将每个词的所述最终表示向量同时输入至所述双向GRU层,得到所述单个句子中每个词对应的词表示向量hi;将所述单个句子中所有的词对应的词表示向量hi依次组合至一个向量中,得到所述单个句子的特征向量H;即H=[h1,h2,…,hm];其中,i=1,2,…,m;m为所述单个句子中词的总个数;
特征向量计算单元,用于将所述特征向量H输入至知识图谱注意力层,得到所述单个句子的特征向量y。
CN201910090408.5A 2019-01-30 2019-01-30 基于分层知识图谱注意力模型的文本关系抽取方法及系统 Active CN109902171B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910090408.5A CN109902171B (zh) 2019-01-30 2019-01-30 基于分层知识图谱注意力模型的文本关系抽取方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910090408.5A CN109902171B (zh) 2019-01-30 2019-01-30 基于分层知识图谱注意力模型的文本关系抽取方法及系统

Publications (2)

Publication Number Publication Date
CN109902171A true CN109902171A (zh) 2019-06-18
CN109902171B CN109902171B (zh) 2020-12-25

Family

ID=66944474

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910090408.5A Active CN109902171B (zh) 2019-01-30 2019-01-30 基于分层知识图谱注意力模型的文本关系抽取方法及系统

Country Status (1)

Country Link
CN (1) CN109902171B (zh)

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110362823A (zh) * 2019-06-21 2019-10-22 北京百度网讯科技有限公司 描述文本生成模型的训练方法和装置
CN110502749A (zh) * 2019-08-02 2019-11-26 中国电子科技集团公司第二十八研究所 一种基于双层注意力机制与双向gru的文本关系抽取方法
CN110516073A (zh) * 2019-08-30 2019-11-29 北京百度网讯科技有限公司 一种文本分类方法、装置、设备和介质
CN110532397A (zh) * 2019-07-19 2019-12-03 平安科技(深圳)有限公司 基于人工智能的问答方法、装置、计算机设备及存储介质
CN110597948A (zh) * 2019-07-11 2019-12-20 东华大学 一种基于深度学习的实体关系抽取方法
CN110619053A (zh) * 2019-09-18 2019-12-27 北京百度网讯科技有限公司 实体关系抽取模型的训练方法和抽取实体关系的方法
CN110688489A (zh) * 2019-09-09 2020-01-14 中国电子科技集团公司电子科学研究院 基于交互注意力的知识图谱推演方法、装置和存储介质
CN110929041A (zh) * 2019-11-20 2020-03-27 北京邮电大学 基于分层注意力机制的实体对齐方法及系统
CN110929047A (zh) * 2019-12-11 2020-03-27 中国人民解放军国防科技大学 关注邻居实体的知识图谱推理方法和装置
CN110968660A (zh) * 2019-12-09 2020-04-07 四川长虹电器股份有限公司 基于联合训练模型的信息抽取方法和系统
CN111061843A (zh) * 2019-12-26 2020-04-24 武汉大学 一种知识图谱引导的假新闻检测方法
CN111078889A (zh) * 2019-12-20 2020-04-28 大连理工大学 一种基于多种实体注意力和改进预训练语言模型的药物间关系抽取方法
CN111145913A (zh) * 2019-12-30 2020-05-12 安徽科大讯飞医疗信息技术有限公司 基于多重注意力模型的分类方法、装置及设备
CN111276258A (zh) * 2020-01-15 2020-06-12 大连理工大学 一种基于领域知识的药物致病关系抽取方法
CN111949307A (zh) * 2020-07-06 2020-11-17 北京大学 一种开源项目知识图谱的优化方法和系统
CN111967242A (zh) * 2020-08-17 2020-11-20 支付宝(杭州)信息技术有限公司 一种文本信息的抽取方法、装置及设备
CN112100393A (zh) * 2020-08-07 2020-12-18 浙江大学 一种低资源场景下的知识三元组抽取方法
CN112364166A (zh) * 2020-11-02 2021-02-12 北京中科凡语科技有限公司 关系抽取模型的建立方法以及关系抽取方法
CN112395880A (zh) * 2020-11-19 2021-02-23 平安科技(深圳)有限公司 结构化三元组的纠错方法、装置、计算机设备及存储介质
CN112560490A (zh) * 2020-12-08 2021-03-26 吉林大学 知识图谱关系抽取方法、装置、电子设备及存储介质
CN112612884A (zh) * 2020-11-27 2021-04-06 中山大学 一种基于公共文本的实体标签自动化标注方法
CN112860904A (zh) * 2021-04-06 2021-05-28 哈尔滨工业大学 一种融入外部知识的生物医疗关系抽取方法
WO2021139247A1 (zh) * 2020-08-06 2021-07-15 平安科技(深圳)有限公司 医学领域知识图谱的构建方法、装置、设备及存储介质
CN113204649A (zh) * 2021-05-11 2021-08-03 西安交通大学 基于实体关系联合抽取的法律知识图谱构建方法及设备
CN113312498A (zh) * 2021-06-09 2021-08-27 上海交通大学 用无向图嵌入知识图谱的文本信息抽取方法
CN113486676A (zh) * 2021-04-08 2021-10-08 中国地质大学(武汉) 一种面向地质文本的地质实体语义关系提取方法及装置
CN113553440A (zh) * 2021-06-25 2021-10-26 武汉理工大学 一种基于层次推理的医学实体关系抽取方法
CN113569773A (zh) * 2021-08-02 2021-10-29 南京信息工程大学 基于知识图谱和Softmax回归的干扰信号识别方法
CN113609311A (zh) * 2021-09-30 2021-11-05 航天宏康智能科技(北京)有限公司 推荐项目的方法和装置
CN114547312A (zh) * 2022-04-07 2022-05-27 华南师范大学 基于常识知识图谱的情感分析方法、装置以及设备
CN116187446A (zh) * 2023-05-04 2023-05-30 中国人民解放军国防科技大学 基于自适应注意力机制的知识图谱补全方法、装置和设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150178273A1 (en) * 2013-12-20 2015-06-25 Microsoft Corporation Unsupervised Relation Detection Model Training
CN106354710A (zh) * 2016-08-18 2017-01-25 清华大学 一种神经网络关系抽取方法
CN108256065A (zh) * 2018-01-16 2018-07-06 智言科技(深圳)有限公司 基于关系检测和强化学习的知识图谱推理方法
CN108763237A (zh) * 2018-03-21 2018-11-06 浙江大学 一种基于注意力机制的知识图谱嵌入方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150178273A1 (en) * 2013-12-20 2015-06-25 Microsoft Corporation Unsupervised Relation Detection Model Training
CN106354710A (zh) * 2016-08-18 2017-01-25 清华大学 一种神经网络关系抽取方法
CN108256065A (zh) * 2018-01-16 2018-07-06 智言科技(深圳)有限公司 基于关系检测和强化学习的知识图谱推理方法
CN108763237A (zh) * 2018-03-21 2018-11-06 浙江大学 一种基于注意力机制的知识图谱嵌入方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
丁建辉,贾维嘉: "知识图谱补全算法综述", 《信息通信技术》 *

Cited By (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110362823A (zh) * 2019-06-21 2019-10-22 北京百度网讯科技有限公司 描述文本生成模型的训练方法和装置
CN110362823B (zh) * 2019-06-21 2023-07-28 北京百度网讯科技有限公司 描述文本生成模型的训练方法和装置
CN110597948A (zh) * 2019-07-11 2019-12-20 东华大学 一种基于深度学习的实体关系抽取方法
CN110532397A (zh) * 2019-07-19 2019-12-03 平安科技(深圳)有限公司 基于人工智能的问答方法、装置、计算机设备及存储介质
CN110532397B (zh) * 2019-07-19 2023-06-09 平安科技(深圳)有限公司 基于人工智能的问答方法、装置、计算机设备及存储介质
CN110502749B (zh) * 2019-08-02 2023-10-03 中国电子科技集团公司第二十八研究所 一种基于双层注意力机制与双向gru的文本关系抽取方法
CN110502749A (zh) * 2019-08-02 2019-11-26 中国电子科技集团公司第二十八研究所 一种基于双层注意力机制与双向gru的文本关系抽取方法
CN110516073A (zh) * 2019-08-30 2019-11-29 北京百度网讯科技有限公司 一种文本分类方法、装置、设备和介质
CN110688489A (zh) * 2019-09-09 2020-01-14 中国电子科技集团公司电子科学研究院 基于交互注意力的知识图谱推演方法、装置和存储介质
CN110619053A (zh) * 2019-09-18 2019-12-27 北京百度网讯科技有限公司 实体关系抽取模型的训练方法和抽取实体关系的方法
CN110929041A (zh) * 2019-11-20 2020-03-27 北京邮电大学 基于分层注意力机制的实体对齐方法及系统
CN110968660A (zh) * 2019-12-09 2020-04-07 四川长虹电器股份有限公司 基于联合训练模型的信息抽取方法和系统
CN110968660B (zh) * 2019-12-09 2022-05-06 四川长虹电器股份有限公司 基于联合训练模型的信息抽取方法和系统
CN110929047A (zh) * 2019-12-11 2020-03-27 中国人民解放军国防科技大学 关注邻居实体的知识图谱推理方法和装置
CN110929047B (zh) * 2019-12-11 2023-04-28 中国人民解放军国防科技大学 关注邻居实体的知识图谱推理方法和装置
CN111078889A (zh) * 2019-12-20 2020-04-28 大连理工大学 一种基于多种实体注意力和改进预训练语言模型的药物间关系抽取方法
CN111061843A (zh) * 2019-12-26 2020-04-24 武汉大学 一种知识图谱引导的假新闻检测方法
CN111061843B (zh) * 2019-12-26 2023-08-25 武汉大学 一种知识图谱引导的假新闻检测方法
CN111145913A (zh) * 2019-12-30 2020-05-12 安徽科大讯飞医疗信息技术有限公司 基于多重注意力模型的分类方法、装置及设备
CN111145913B (zh) * 2019-12-30 2024-02-20 讯飞医疗科技股份有限公司 基于多重注意力模型的分类方法、装置及设备
CN111276258A (zh) * 2020-01-15 2020-06-12 大连理工大学 一种基于领域知识的药物致病关系抽取方法
CN111276258B (zh) * 2020-01-15 2022-10-14 大连理工大学 一种基于领域知识的药物致病关系抽取方法
CN111949307B (zh) * 2020-07-06 2021-06-25 北京大学 一种开源项目知识图谱的优化方法和系统
CN111949307A (zh) * 2020-07-06 2020-11-17 北京大学 一种开源项目知识图谱的优化方法和系统
WO2021139247A1 (zh) * 2020-08-06 2021-07-15 平安科技(深圳)有限公司 医学领域知识图谱的构建方法、装置、设备及存储介质
CN112100393A (zh) * 2020-08-07 2020-12-18 浙江大学 一种低资源场景下的知识三元组抽取方法
CN112100393B (zh) * 2020-08-07 2022-03-15 浙江大学 一种低资源场景下的知识三元组抽取方法
CN111967242B (zh) * 2020-08-17 2024-05-03 支付宝(杭州)信息技术有限公司 一种文本信息的抽取方法、装置及设备
CN111967242A (zh) * 2020-08-17 2020-11-20 支付宝(杭州)信息技术有限公司 一种文本信息的抽取方法、装置及设备
CN112364166A (zh) * 2020-11-02 2021-02-12 北京中科凡语科技有限公司 关系抽取模型的建立方法以及关系抽取方法
CN112395880A (zh) * 2020-11-19 2021-02-23 平安科技(深圳)有限公司 结构化三元组的纠错方法、装置、计算机设备及存储介质
CN112612884A (zh) * 2020-11-27 2021-04-06 中山大学 一种基于公共文本的实体标签自动化标注方法
CN112612884B (zh) * 2020-11-27 2024-03-12 中山大学 一种基于公共文本的实体标签自动化标注方法
CN112560490A (zh) * 2020-12-08 2021-03-26 吉林大学 知识图谱关系抽取方法、装置、电子设备及存储介质
CN112860904A (zh) * 2021-04-06 2021-05-28 哈尔滨工业大学 一种融入外部知识的生物医疗关系抽取方法
CN113486676B (zh) * 2021-04-08 2023-08-11 中国地质大学(武汉) 一种面向地质文本的地质实体语义关系提取方法及装置
CN113486676A (zh) * 2021-04-08 2021-10-08 中国地质大学(武汉) 一种面向地质文本的地质实体语义关系提取方法及装置
CN113204649A (zh) * 2021-05-11 2021-08-03 西安交通大学 基于实体关系联合抽取的法律知识图谱构建方法及设备
CN113312498B (zh) * 2021-06-09 2022-06-17 上海交通大学 用无向图嵌入知识图谱的文本信息抽取方法
CN113312498A (zh) * 2021-06-09 2021-08-27 上海交通大学 用无向图嵌入知识图谱的文本信息抽取方法
CN113553440A (zh) * 2021-06-25 2021-10-26 武汉理工大学 一种基于层次推理的医学实体关系抽取方法
CN113553440B (zh) * 2021-06-25 2022-08-16 武汉理工大学 一种基于层次推理的医学实体关系抽取方法
CN113569773B (zh) * 2021-08-02 2023-09-15 南京信息工程大学 基于知识图谱和Softmax回归的干扰信号识别方法
CN113569773A (zh) * 2021-08-02 2021-10-29 南京信息工程大学 基于知识图谱和Softmax回归的干扰信号识别方法
CN113609311A (zh) * 2021-09-30 2021-11-05 航天宏康智能科技(北京)有限公司 推荐项目的方法和装置
CN114547312A (zh) * 2022-04-07 2022-05-27 华南师范大学 基于常识知识图谱的情感分析方法、装置以及设备
CN116187446A (zh) * 2023-05-04 2023-05-30 中国人民解放军国防科技大学 基于自适应注意力机制的知识图谱补全方法、装置和设备

Also Published As

Publication number Publication date
CN109902171B (zh) 2020-12-25

Similar Documents

Publication Publication Date Title
CN109902171A (zh) 基于分层知识图谱注意力模型的文本关系抽取方法及系统
CN110134757B (zh) 一种基于多头注意力机制的事件论元角色抽取方法
CN107239446B (zh) 一种基于神经网络与注意力机制的情报关系提取方法
CN110110054B (zh) 一种基于深度学习的从非结构化文本中获取问答对的方法
CN112270193A (zh) 基于bert-flat的中文命名实体识别方法
CN108829722A (zh) 一种远程监督的Dual-Attention关系分类方法及系统
CN107798624B (zh) 一种软件问答社区中的技术标签推荐方法
CN111966812B (zh) 一种基于动态词向量的自动问答方法和存储介质
CN110059160A (zh) 一种端到端的基于上下文的知识库问答方法及装置
CN108549658A (zh) 一种基于语法分析树上注意力机制的深度学习视频问答方法及系统
CN110532355A (zh) 一种基于多任务学习的意图与槽位联合识别方法
CN109857846B (zh) 用户问句与知识点的匹配方法和装置
CN112800203B (zh) 一种融合文本和知识表征的问答匹配方法及系统
CN110175229A (zh) 一种基于自然语言进行在线培训的方法和系统
CN115510814B (zh) 一种基于双重规划的篇章级复杂问题生成方法
CN111709244A (zh) 一种用于矛盾纠纷事件因果关系识别的深度学习方法
CN105975497A (zh) 微博话题自动推荐方法及装置
CN113254616A (zh) 面向智能问答系统的句向量生成方法及系统
CN111523328B (zh) 一种智能客服语义处理方法
CN113971394A (zh) 文本复述改写系统
CN113988075A (zh) 基于多任务学习的网络安全领域文本数据实体关系抽取法
CN109033073A (zh) 文本蕴含识别方法及装置
CN101446941A (zh) 一种基于历史信息的自然语言层次句法分析方法
CN116522165B (zh) 一种基于孪生结构的舆情文本匹配系统及方法
CN110362828B (zh) 网络资讯风险识别方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20190618

Assignee: WUHAN TIMES GEOSMART TECHNOLOGY Co.,Ltd.

Assignor: CHINA University OF GEOSCIENCES (WUHAN CITY)

Contract record no.: X2022420000021

Denomination of invention: Text relation extraction method and system based on hierarchical knowledge map attention model

Granted publication date: 20201225

License type: Common License

Record date: 20220302

EE01 Entry into force of recordation of patent licensing contract
TR01 Transfer of patent right

Effective date of registration: 20220415

Address after: 101-1084, first floor, building 3, No. 103, Beiqing Road, Haidian District, Beijing 100094

Patentee after: Beijing xuetestang Education Technology Co.,Ltd.

Address before: 430000 Lu Mill Road, Hongshan District, Wuhan, Hubei Province, No. 388

Patentee before: CHINA University OF GEOSCIENCES (WUHAN CITY)

TR01 Transfer of patent right