CN114444694A - 一种开放世界知识图谱补全方法及装置 - Google Patents

一种开放世界知识图谱补全方法及装置 Download PDF

Info

Publication number
CN114444694A
CN114444694A CN202210070660.1A CN202210070660A CN114444694A CN 114444694 A CN114444694 A CN 114444694A CN 202210070660 A CN202210070660 A CN 202210070660A CN 114444694 A CN114444694 A CN 114444694A
Authority
CN
China
Prior art keywords
vector
module
entity
knowledge graph
representation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210070660.1A
Other languages
English (en)
Inventor
张璞
陈小阳
张�雄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University of Post and Telecommunications
Original Assignee
Chongqing University of Post and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Post and Telecommunications filed Critical Chongqing University of Post and Telecommunications
Priority to CN202210070660.1A priority Critical patent/CN114444694A/zh
Publication of CN114444694A publication Critical patent/CN114444694A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/027Frames

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明属于开放世界的知识图谱补全领域,具体涉及一种开放世界知识图谱补全方法及装置,包括获取三元组数据并进行词嵌入,由注意力模块得到关系感知表示并与头实体向量连接,通过Transformer获取连接结果的向量表示;将编码问题向量与连接结果的向量表示的融合结果与Transformer获取的候选向量表示分别输入CNN网络;对CNN网络的输出打分,将得分最高的候选尾实体作为尾部实体;采用交叉熵损失函数训练模型;获取待补全知识图谱并输入训练好的模型进行补全,本发明使用注意力机制与Transformer网络框架,充分利用实体的文本描述中的特征信息,降低模型训练的成本,缩短了模型训练的时间。

Description

一种开放世界知识图谱补全方法及装置
技术领域
本发明属于开放世界的知识图谱补全领域,具体涉及一种开放世界知识图谱补全方法及装置。
背景技术
知识图谱有两种主要的存储方式:RDF和图数据库;RDF语言是一种非常简单的语言,本质上是由主语、谓语、宾语组成的三元组,RDF语言表示各种事情之间的关联,把这种关联画出来变成很大的一个图,就转化为了图数据库,谷歌、微软都有自己的图数据库。知识图谱已被应用于网络搜索、链接预测、推荐、自然语言处理和实体链接等领域,然而,大多数知识图谱还不完善。Denis Krompa对一些开源的大型知识库进行了统计,在Freebase中,有71%的人的实体缺失了“出生地”属性值,而在DBpedia中这个数值为66%。知识图谱作为许多任务和应用的底层数据库,数据的缺失会严重影响上层应用的效果。
为了解决这些问题,知识图谱补全被提出,通过填补缺失的连接来改进知识图谱。给定一个知识图谱G=(E,R,T),其中E表示实体集合,R表示关系集合,T表示三元组集合。知识图谱补全可分为封闭世界和开放世界两种,封闭世界假设知识图谱是固定的,利用图的拓扑结构,发现已有实体之间新的关系,添加新的三元组。常用的方法可以分为三类,第一类是基于逻辑规则的模型,根据已有的三元组,通过定义的规则推理出新的规则;第二类是基于关系路径信息的模型,融合知识图谱路径信息进行路径推理的方法,关系路径推理旨在利用知识图谱结构中的路径信息,可以提高知识表示学习模型的性能;第三类是基于嵌入的模型,该类方法将实体向量映射到关系决定的空间,之后通过向量运算推断缺失关系。
然而封闭世界的知识图谱补全的方法能得到的信息是有限的,越来越多的方法倾向于从开放世界的资源中获取知识。为了解决开放世界的知识图谱补全的问题,研究者们提出了ConMask模型、OWE模型等模型。Baoxu Shi提出的ConMask模型首先使用基于关系的内容遮蔽,筛选文本信息,删去无关信息,仅留下与任务有关的内容,然后使用全卷积神经网络从相关文本抽取目标实体的嵌入,最后将这个目标实体嵌入与图谱中现有的目标候选尾部实体做比较生成排序列表;但是该模型没有充分利用实体文本描述中丰富的特征信息。Haseeb Shah等提出了OWE模型,该模型结合了从知识图中学习到的常规链接预测模型和从文本语料库中学习到的单词嵌入,在独立训练之后,学习一个转换,将实体的名称和描述的嵌入映射到基于图的嵌入空间,该模型利用了完整的知识图谱不依赖于长文本,具有很高的扩展性。但该模型训练成本高昂,对原始数据有着很高的质量要求。
发明内容
为解决上述问题,本发明提供了一种开放世界知识图谱补全方法及装置。
一种开放世界知识图谱补全方法,构建知识图谱补全模型,该模型包括Word2Vec模块、注意力模块、打分模块,开放世界知识图谱补全方法包括以下步骤:
S1.获取三元组数据,三元组数据中每个三元组包括头部实体描述,头部实体名称,关系名称,候选尾部实体描述,候选尾实体;
S2.使用Word2Vec模块对头部实体描述和候选尾部实体描述进行词嵌入,得到头实体向量和候选尾实体向量,将头部实体名称与关系名称的文本连接视作问题,使用Word2Vec模块对问题进行词嵌入得到问题向量;
S3.采用注意力模块计算头实体向量和问题向量,得到关系感知表示;
S4.将头实体向量与关系感知进行连接,采用Transformer提取连接结果的全局特征,得到连接结果的向量表示;
S5.采用GRU网络对问题向量进行编码,通过门控机制将编码后的问题向量与连接结果的向量表示融合,并将融合结果输入CNN网络,得到第一CNN输出;
S6.采用Transformer提取候选尾实体向量的全局特征,得到候选向量表示并输入CNN网络,得到第二CNN输出;
S7.通过打分模块对第一CNN输出与第二CNN输出进行打分,并输出分数;
S8.采用交叉熵损失函数计算分数的损失值,使用Adam优化算法训练知识图谱补全模型参数,直到模型参数收敛;
S9.获取待补全的知识图谱并输入训练好的知识图谱补全模型进行补全。
进一步的,三元组数据从DBpedia50k数据集和DBpedia500k数据集中获取,将三元组数据以8:1:1的比例划分为训练集、验证集和测试集数据集。
进一步的,对三元组数据添加标签y*表示三元组的正确性,即正确三元组标签为1,错误三元组标签为0,标签表示为y*∈{0,1}。
进一步的,注意力模块中采用的注意力函数为:
Figure BDA0003481945490000031
Figure BDA0003481945490000032
其中,
Figure BDA0003481945490000033
为注意力分数,x表示输入单词,Y表示文本,yi表示文本中的第i个单词,m为文本长度,w是一个矩阵,α(·)是ReLU非线性激活函数。
进一步的,根据注意力模块中的注意力函数得到头实体向量对应的关系感知表示
Figure BDA0003481945490000034
Figure BDA0003481945490000035
其中,
Figure BDA0003481945490000036
为头实体向量中的第i个词嵌入,
Figure BDA0003481945490000037
为问题向量集合,att(·)表示注意力函数。
进一步的,步骤S5中编码后的问题向量与连接结果的向量表示的融合结果表示为:
Figure BDA0003481945490000038
其中,σ是sigmoid函数,
Figure BDA0003481945490000041
为编码后的问题向量,
Figure BDA0003481945490000042
为头实体向量与关系感知的连接结果采用Transformer提取全局特征之后的向量表示。
进一步的,打分模块采用的打分函数表示为:
Figure BDA0003481945490000043
其中,
Figure BDA0003481945490000044
为第一CNN输出,
Figure BDA0003481945490000045
为第二CNN输出,Ws是需要被训练的变换矩阵。
进一步的,交叉熵损失函数表示为:
Figure BDA0003481945490000046
其中,yi是第i个三元组的标签值,y′i表示模型输出的第i个候选尾实体的分数,m表示三元组总数量。
一种基于开放世界知识图谱补全装置,包括:
获取模块,用于获取待补全的知识图谱数据;
Word2Vec模块,用于对获取模块中的知识图谱数据进行词嵌入,得到头实体向量、候选尾实体向量和问题向量;
注意力模块,用于计算头实体向量和问题向量,得到关系感知表示;
Transformer模块,用于提取头实体向量与关系感知连接结果的全局特征得到连接结果的向量表示,并提取候选尾实体向量的全局特征得到候选向量表示;
融合模块,用于通过门控机制将编码后的问题向量,与Transformer模块输出的连接结果的向量表示进行融合;
CNN网络,用于对融合模块的融合结果和Transformer模块的候选向量表示进行特征抽取;
打分模块,用于对CNN网络输出的结果进行打分,选取最高分数对应的三元组作为新的三元组补入知识图谱。
本发明的有益效果:
本发明提供了一种开放世界知识图谱补全的方法,不限制要补全的三元组的实体都在要补全的知识图谱的实体集合中,而是从开放世界的资源中获取知识,例如在线百科全书,能够补全各种大型知识图谱,解决知识图谱缺失数据的问题。
本发明主要使用Transformer网络框架与CNN网络,其中Transformer能够很好的捕获实体描述的全局特征,CNN网络结构由2次卷积操作与1次池化操作组成,能够降低网络训练成本以及在降低嵌入大小的情况下能够进行很好的特征提取,有助于提升知识图谱补全的三元组准确率。同时使用的注意力机制能够充分利用文本描述的信息,对问题使用的GRU网络在编码的同时也能够提升训练效率。
附图说明
图1为本发明的方法流程图;
图2为本发明中模型结构图;
图3为本发明中CNN网络结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
一种基于注意力机制与Transformer的开放世界知识图谱补全方法,如图1、2所示,构建知识图谱补全模型,该模型包括Word2Vec模块、注意力模块、打分模块,包括以下步骤:
S1.获取三元组数据,三元组数据中每个三元组都包括头部实体描述,头部实体名称(也称为头实体),关系名称(也可叫做关系),候选尾部实体描述,候选尾实体;
S2.使用Word2Vec模块对头部实体描述和候选尾部实体描述进行词嵌入,得到头实体向量和候选尾实体向量,将头部实体名称与关系名称的文本连接视作问题,使用Word2Vec模块对问题进行词嵌入得到问题向量;
S3.采用注意力模块计算头实体向量和问题向量,得到关系感知表示;
S4.将头实体向量与关系感知进行连接,采用Transformer提取连接结果的全局特征,得到连接结果的向量表示;
S5.采用GRU网络对问题向量进行编码,通过门控机制将编码后的问题向量与连接结果的向量表示融合,并将融合结果输入CNN网络,得到第一CNN输出;
S6.采用Transformer提取候选尾实体向量的全局特征,得到候选向量表示并输入CNN网络,得到第二CNN输出;
S7.通过打分模块对第一CNN输出与第二CNN输出进行打分,并输出分数;
S8.采用交叉熵损失函数计算分数的损失值,使用Adam优化算法训练知识图谱补全模型参数,直到模型参数收敛;
S9.获取待补全的知识图谱并输入训练好的知识图谱补全模型进行补全。
Freebase 15K数据集在知识图谱补全中被广泛使用,但是FB15K充满了大量的反向的三元组或同义词三元组,没有为基于文本描述的知识图谱补全方法提供足够的文本信息。
在这一实施例中,由于FB15K数据集中文本内容有限且存在冗余的情况,本实施例使用两个新的数据集DBPedia50k和DBPedia500k,用于开放世界的知识图谱补全;DBpedia50k数据集包含49900个实体,实体的平均描述长度为454个单词,654个关系。DBpedia500k数据集包含517475个实体,654个关系。将获取的数据集中完整的三元组以8:1:1的比例划分为训练集、验证集和测试集数据集。
Word2Vec是一种词向量表达,借助词典把文本转化为一组向量;
使用Word2Vec模块对头部实体描述和候选尾部实体描述进行词嵌入,得到头实体向量和候选尾实体向量,表示为:
Figure BDA0003481945490000061
Figure BDA0003481945490000062
其中,hi是头部实体描述中第i个词,
Figure BDA0003481945490000063
是头实体向量中的第i个词嵌入,|Mh|是头部实体描述的长度,tn是候选尾部实体描述中的第n个词,
Figure BDA0003481945490000071
是候选尾实体向量中的第n个词嵌入,|Zt|是候选尾部实体描述的长度。
将头部实体名称与关系名称的文本连接视作问题,使用Word2Vec模块对问题进行词嵌入得到问题向量,表示为:
Figure BDA0003481945490000072
其中,rj是问题中的第j个词,
Figure BDA0003481945490000073
是问题向量中的第j个词嵌入,|Qr|是问题的长度。
头部实体名称是一个词,头部实体描述是含有名称的一段文本,头部实体描述中的每个单词的表示并不同等重要,对于关系和头部实体描述这段文本中的每个单词来说,头部实体描述中有和关系这个词联系紧密的、相关的词,也有很多无关的词,于是对头实体向量和问题向量使用注意力机制,来强调头部实体描述中和关系相关的信息,得到头部实体描述中词的关系感知表示,相当于减少那些无关的词的表示,去除噪声。
优先地,定义注意力机制中采用的注意力函数为:
Figure BDA0003481945490000074
其中,
Figure BDA0003481945490000075
为注意力分数,给定输入单词x和文本
Figure BDA0003481945490000076
m为文本长度;
Figure BDA0003481945490000077
其中注意力分数
Figure BDA0003481945490000078
捕获了给定的输入单词x和文本Y中每个单词yi之间的相似性,w是一个矩阵,α(·)是ReLU非线性激活函数。根据定义的注意力函数可以得到头实体向量
Figure BDA0003481945490000079
对应的关系感知表示
Figure BDA00034819454900000710
公式为:
Figure BDA00034819454900000711
将未经过注意力操作的头实体向量
Figure BDA00034819454900000712
与经过注意力操作得到的关系感知表示
Figure BDA00034819454900000713
进行连接得到新头实体向量
Figure BDA00034819454900000714
为了更好的捕获长期依赖关系,提取全局特征,将
Figure BDA0003481945490000081
输入Transformer编码器中进行编码得到
Figure BDA0003481945490000082
然后将候选尾实体向量
Figure BDA0003481945490000083
也输入到Transformer编码器中得到
Figure BDA0003481945490000084
Figure BDA0003481945490000085
GRU是循环神经网络的一种,能够解决长期记忆和反向传播中的梯度等问题,并且相较于LSTM更容易进行训练,能够很大程度上提高训练效率。将问题向量
Figure BDA0003481945490000086
使用GRU网络在相关文本中编码上下文信息得到
Figure BDA0003481945490000087
Figure BDA0003481945490000088
为了融合头实体向量
Figure BDA0003481945490000089
与问题向量
Figure BDA00034819454900000810
使用门控机制进行融合得到目标实体嵌入Rs,公式为:
Figure BDA00034819454900000811
其中σ是sigmoid函数。
卷积神经网络能够解决深层次结构的过拟合问题,同时CNN网络也常常用于知识图谱补全领域,获得了很好的表现。本发明采用的CNN网络如图3所示,由两个卷积层、一个池化层和一个全连接层组成,其的网络结构是在两个3×3卷积操作后接最大池化操作再接全连接层,具体地,将572×572的输入图送入CNN网络,经过第一层3×3卷积得到570×570的第一特征图,将第一特征图送入第二层3×3卷积得到568×568的第二特征图,对第二特征图进行最大池化得到284×284的第三特征图,最后送入全连接层。
使用CNN网络作为目标实体融合结构,将目标实体嵌入Rs
Figure BDA00034819454900000812
分别输入到CNN网络中分别得到
Figure BDA00034819454900000813
Figure BDA00034819454900000814
Figure BDA00034819454900000815
Figure BDA00034819454900000816
打分模块中使用打分函数对
Figure BDA00034819454900000817
Figure BDA00034819454900000818
进行打分,其打分函数表示为:
Figure BDA00034819454900000819
其中Ws是需要被训练的变换矩阵,·T表示转置操作。经过Score(·)函数,每个候选尾实体都有其对应的分数si,采用最高分数所对应的候选尾实体作为正确的尾部实体。
本实施例中,模型的训练阶段需要输出每个候选尾实体对应的分数si,设置的模型分数的输出表示为:
y′=softmax([s1;s2;…;sm]);
优先地,在知识图谱补全模型的训练过程中,对训练数据添加标签y*,标签代表训练数据中三元组的正确性,即正确三元组标签为1,错误三元组标签为0,使用交叉熵损失函数来最小化预测三元组和正确三元组之间的差距,交叉熵损失函数公式如下:
Figure BDA0003481945490000091
其中,yi是标签的one-hot编码,yi是第i个三元组的标签值,y′i表示模型输出的第i个候选尾实体的分数。
优先地,采用Adam算法最小化损失函数优化模型。Adam是一种可以替代传统随机梯度下降过程的一阶优化算法,它能基于训练数据迭代地更新神经网络权重。Adam通过计算梯度的一阶矩估计和二阶矩估计为不同的参数设计独立的自适应性学习率。主要计算公式如下:
Figure BDA0003481945490000092
其中
Figure BDA0003481945490000093
表示校正后的一阶矩估计和二阶矩估计,∈、η为训练过程中需调整的参数。
优先地,知识图谱补全模型的训练完成后,对模型进行测评,模型的评价指标为MRR,MR,Hits@1,Hits@3,Hits@10。对于每个测试三元组,预测尾实体,通过对所有候选尾部实体描述进行打分,之后按照升序将这些分数排列。Hits@10就是正确三元组排在前10的概率,同理Hits@3就是排在前3的概率,Hits@1就是排在第1的概率。
MR是平均排名,即正确三元组的排名的平均。
Figure BDA0003481945490000101
其中ti为第i个三元组的真实排名。
MRR是平均倒数排名,即正确三元组排在k位,则MRR就为
Figure BDA0003481945490000102
Figure BDA0003481945490000103
ki是第i个三元组的正确排名。
一种基于开放世界知识图谱补全装置,包括:
获取模块,用于获取待补全的知识图谱数据;
Word2Vec模块,用于对获取模块中的知识图谱数据进行词嵌入,得到头实体向量、候选尾实体向量和问题向量;
注意力模块,用于计算头实体向量和问题向量,得到关系感知表示;
Transformer模块,用于提取头实体向量与关系感知连接结果的全局特征得到连接结果的向量表示,并提取候选尾实体向量的全局特征得到候选向量表示;
融合模块,用于通过门控机制将编码后的问题向量,与Transformer模块输出的连接结果的向量表示进行融合;
CNN网络,用于对融合模块的融合结果和Transformer模块的候选向量表示进行特征抽取;
打分模块,用于对CNN网络输出的结果进行打分,选取最高分数对应的三元组作为新的三元组补入知识图谱。
具体地,获取模块获取的待补全的知识图谱数据为知识图谱G={E,R,F},其中E表示所有实体的集合,R表示所有关系的集合,F为所有三元组的集合,每个三元组包括头部实体描述,头部实体名称,关系名称,候选尾部实体描述,候选尾实体,将头部实体名称与关系名称的文本连接视作问题,在待补全的知识图谱中应用本模型,选取最高分数的候选尾实体所对应的三元组作为正确的三元组,每次补全一组。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。

Claims (9)

1.一种开放世界知识图谱补全方法,其特征在于,构建知识图谱补全模型,该模型包括Word2Vec模块、注意力模块、打分模块,开放世界知识图谱补全方法包括以下步骤:
S1.获取三元组数据,三元组数据中每个三元组包括头部实体描述,头部实体名称,关系名称,候选尾部实体描述,候选尾实体;
S2.使用Word2Vec模块对头部实体描述和候选尾部实体描述进行词嵌入,得到头实体向量和候选尾实体向量,将头部实体名称与关系名称的文本连接视作问题,使用Word2Vec模块对问题进行词嵌入得到问题向量;
S3.采用注意力模块计算头实体向量和问题向量,得到关系感知表示;
S4.将头实体向量与关系感知进行连接,采用Transformer提取连接结果的全局特征,得到连接结果的向量表示;
S5.采用GRU网络对问题向量进行编码,通过门控机制将编码后的问题向量与连接结果的向量表示融合,并将融合结果输入CNN网络,得到第一CNN输出;
S6.采用Transformer提取候选尾实体向量的全局特征,得到候选向量表示并输入CNN网络,得到第二CNN输出;
S7.通过打分模块对第一CNN输出与第二CNN输出进行打分,并输出分数;
S8.采用交叉熵损失函数计算分数的损失值,使用Adam优化算法训练知识图谱补全模型参数,直到模型参数收敛;
S9.获取待补全的知识图谱并输入训练好的知识图谱补全模型进行补全。
2.根据权利要求1所述的一种开放世界知识图谱补全方法,其特征在于,三元组数据从DBpedia50k数据集和DBpedia500k数据集中获取,将三元组数据以8:1:1的比例划分为训练集、验证集和测试集数据集。
3.根据权利要求2所述的一种开放世界知识图谱补全方法,其特征在于,对三元组数据添加标签y*表示三元组的正确性,即正确三元组标签为1,错误三元组标签为0,标签表示为y*∈{0,1}。
4.根据权利要求1所述的一种开放世界知识图谱补全方法,其特征在于,注意力模块中采用的注意力函数为:
Figure FDA0003481945480000021
Figure FDA0003481945480000022
其中,
Figure FDA0003481945480000023
为注意力分数,x表示输入单词,Y表示文本,yi表示文本中的第i个单词,m为文本长度,w是一个权重矩阵,α(·)是ReLU非线性激活函数。
5.根据权利要求4所述的一种开放世界知识图谱补全方法,其特征在于,根据注意力模块中的注意力函数得到头实体向量对应的关系感知表示
Figure FDA0003481945480000024
Figure FDA0003481945480000025
其中,
Figure FDA0003481945480000026
为头实体向量中的第i个词嵌入,
Figure FDA0003481945480000027
为问题向量集合,att(·)表示注意力函数。
6.根据权利要求1所述的一种开放世界知识图谱补全方法,其特征在于,步骤S5中编码后的问题向量与连接结果的向量表示的融合结果表示为:
Figure FDA0003481945480000028
其中,σ是sigmoid函数,
Figure FDA0003481945480000029
为编码后的问题向量,
Figure FDA00034819454800000210
为头实体向量与关系感知的连接结果采用Transformer提取全局特征之后的向量表示。
7.根据权利要求1所述的一种开放世界知识图谱补全方法,其特征在于,打分模块采用双线性打分函数表示为:
Figure FDA00034819454800000211
其中,
Figure FDA00034819454800000212
为第一CNN输出,
Figure FDA00034819454800000213
为第二CNN输出,Ws是需要被训练的变换矩阵。
8.根据权利要求1所述的一种开放世界知识图谱补全方法,其特征在于,交叉熵损失函数表示为:
Figure FDA0003481945480000031
其中,yi是第i个三元组的标签值,y′i表示模型输出的第i个候选尾实体的分数,m表示三元组总数量。
9.一种开放世界知识图谱补全装置,其特征在于,包括:
获取模块,用于获取待补全的知识图谱数据;
Word2Vec模块,用于对获取模块中的知识图谱数据进行词嵌入,得到头实体向量、候选尾实体向量和问题向量;
注意力模块,用于计算头实体向量和问题向量,得到关系感知表示;
Transformer模块,用于提取头实体向量与关系感知连接结果的全局特征得到连接结果的向量表示,并提取候选尾实体向量的全局特征得到候选向量表示;
融合模块,用于通过门控机制将编码后的问题向量,与Transformer模块输出的连接结果的向量表示进行融合;
CNN网络,用于对融合模块的融合结果和Transformer模块的候选向量表示进行特征抽取;
打分模块,用于对CNN网络输出的结果进行打分,选取最高分数对应的三元组作为新的三元组补入知识图谱。
CN202210070660.1A 2022-01-21 2022-01-21 一种开放世界知识图谱补全方法及装置 Pending CN114444694A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210070660.1A CN114444694A (zh) 2022-01-21 2022-01-21 一种开放世界知识图谱补全方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210070660.1A CN114444694A (zh) 2022-01-21 2022-01-21 一种开放世界知识图谱补全方法及装置

Publications (1)

Publication Number Publication Date
CN114444694A true CN114444694A (zh) 2022-05-06

Family

ID=81367808

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210070660.1A Pending CN114444694A (zh) 2022-01-21 2022-01-21 一种开放世界知识图谱补全方法及装置

Country Status (1)

Country Link
CN (1) CN114444694A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116402133A (zh) * 2023-04-12 2023-07-07 中南大学 一种基于结构聚合图卷积网络的知识图谱补全方法及系统
CN116629356A (zh) * 2023-05-09 2023-08-22 华中师范大学 基于编码器和高斯混合模型的少样本知识图谱补全方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116402133A (zh) * 2023-04-12 2023-07-07 中南大学 一种基于结构聚合图卷积网络的知识图谱补全方法及系统
CN116402133B (zh) * 2023-04-12 2024-04-30 中南大学 一种基于结构聚合图卷积网络的知识图谱补全方法及系统
CN116629356A (zh) * 2023-05-09 2023-08-22 华中师范大学 基于编码器和高斯混合模型的少样本知识图谱补全方法
CN116629356B (zh) * 2023-05-09 2024-01-26 华中师范大学 基于编码器和高斯混合模型的少样本知识图谱补全方法

Similar Documents

Publication Publication Date Title
WO2023065545A1 (zh) 风险预测方法、装置、设备及存储介质
WO2022057669A1 (zh) 基于结构化上下文信息的知识图谱预训练方法
CN112487143A (zh) 一种基于舆情大数据分析的多标签文本分类方法
CN106295186A (zh) 一种基于智能推理的辅助疾病诊断的方法与系统
CN110413785A (zh) 一种基于bert和特征融合的文本自动分类方法
CN109189925A (zh) 基于点互信息的词向量模型和基于cnn的文本分类方法
CN113553440B (zh) 一种基于层次推理的医学实体关系抽取方法
CN114444694A (zh) 一种开放世界知识图谱补全方法及装置
CN113673254B (zh) 基于相似度保持的知识蒸馏的立场检测方法
CN112256847B (zh) 融合事实文本的知识库问答方法
CN115048447B (zh) 一种基于智能语义补全的数据库自然语言接口系统
CN113190688A (zh) 基于逻辑推理和图卷积的复杂网络链接预测方法及系统
CN112860930B (zh) 一种基于层次化相似性学习的文本到商品图像的检索方法
CN114841151B (zh) 基于分解-重组策略的医学文本实体关系联合抽取方法
CN114254093A (zh) 多空间知识增强的知识图谱问答方法及系统
CN115130465A (zh) 文献数据集上知识图谱实体标注错误识别方法和系统
CN115563314A (zh) 多源信息融合增强的知识图谱表示学习方法
CN116522945A (zh) 一种食品安全领域中命名实体的识别模型和方法
CN113920379B (zh) 一种基于知识辅助的零样本图像分类方法
CN112989803B (zh) 一种基于主题向量学习的实体链接预测方法
CN114743029A (zh) 一种图像文本匹配的方法
CN114020900A (zh) 基于融合空间位置注意力机制的图表英语摘要生成方法
CN117094325B (zh) 水稻病虫害领域命名实体识别方法
CN112015760B (zh) 基于候选答案集重排序的自动问答方法、装置和存储介质
CN117648984A (zh) 一种基于领域知识图谱的智能问答方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination