CN116383401A - 一种融合文本描述与图卷积机制的知识图谱补全方法 - Google Patents

一种融合文本描述与图卷积机制的知识图谱补全方法 Download PDF

Info

Publication number
CN116383401A
CN116383401A CN202310222708.0A CN202310222708A CN116383401A CN 116383401 A CN116383401 A CN 116383401A CN 202310222708 A CN202310222708 A CN 202310222708A CN 116383401 A CN116383401 A CN 116383401A
Authority
CN
China
Prior art keywords
entity
layer
vector
relation
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310222708.0A
Other languages
English (en)
Inventor
陈思龙
孔雨秋
张立和
马战川
尹宝才
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dalian University of Technology
Original Assignee
Dalian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dalian University of Technology filed Critical Dalian University of Technology
Priority to CN202310222708.0A priority Critical patent/CN116383401A/zh
Publication of CN116383401A publication Critical patent/CN116383401A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)
  • Devices For Executing Special Programs (AREA)

Abstract

本发明提供了一种融合文本描述与图卷积机制的知识图谱补全方法,属于知识图谱补全领域。依次包括以下步骤:首先将实体描述文本和关系词作为输入,利用多层加权图卷积网络,集成实体语义与关系词向量以及实体语义与相邻实体语义的注意力机制,从邻域中获取信息,得到高质量实体特征;其次,通过跨模态Transfomer和空洞卷积进一步提高实体与关系的交互,得到特征图;最后,将特征图拉平后映射到实体向量所在空间,与尾实体点乘后得到相似度得分。本发明可以获得更好实体嵌入表示,并且提高知识图谱补全任务性能。

Description

一种融合文本描述与图卷积机制的知识图谱补全方法
技术领域
本发明属于知识图谱补全领域,具体涉及一种融合文本描述与图卷积机制的知识图谱补全方法。
背景技术
知识图谱是一种包含了丰富知识的数据库,能够为人工智能相关的应用提供非常有价值的数据支持。一般情况下知识图谱以三元组为单位存储知识。尽管现有的大多数知识图谱所包含的知识数量已经很庞大了,但它们还远远不够完备。其次,大多数现有知识图谱存储在符号和逻辑形式中,而应用程序通常涉及连续空间中的数值计算。为了解决这两个问题,研究人员提出了知识图谱嵌入(Knowledge Graph Embedding,KGE)方法,旨在通过将知识图谱中实体和关系投影到连续的低维空间来学习知识图谱的嵌入表示。近年,基于深度神经网络(Deep Neural NetWorks,DNN)的KGE方法(ConvE、InteractE、ConvKB)将知识图谱补全的性能推向新的高度。与以前的方法相比,这种方法可以学习更有效的嵌入,这主要是由于DNN模型固有的强大学习能力。此外,为了整合邻居信息,关系数据图卷积神经网络R-GCN将图卷积引入知识图谱中,为不同关系分配不同的权重矩阵。HittER使用分层架构对结构化输入进行了显式运算,编码源实体的局部邻居的实体-关系对获取实体与关系的表征。
目前知识图谱补全的方法,大多存在着以下几个问题:(1)目前的知识图谱补全技术把各个实体当作单独的个体,忽略了相邻节点中呈现的丰富信息,导致三元组特征挖掘不够充分;(2)知识图谱的实体特征随机初始化效果不佳;(3)实体与实体间的交互没有考虑到多跳邻居之间的关系;(4)基于图卷积的方法为知识图谱中的关系路径上分配相同的权重,忽略了同一个关系在不同三元组中的重要性不同;(5)负样本和正样本的比例差距过大,模型很难从正样本中发掘信息。
发明内容
发明目的:本发明主要针对上述知识图谱补全方法的不足之处进行改善。一种融合文本描述与图卷积机制的知识图谱补全方法,将实体描述文本和关系词作为输入,利用多层加权图卷积网络,集成实体语义与关系词向量以及实体语义与相邻实体语义的注意力机制,在不同的关系路径中分配不同的权重,并从邻域中获取信息,得到高质量实体特征。通过跨模态Transfomer和空洞卷积进一步提高实体与关系的交互,同时使用一个高质量负样本池,缓解训练过程中随机负样本过于简单而带来的梯度消失问题,提高知识图谱补全网络的性能。
为了实现上述目的,本发明采用如下技术方案:
一种融合文本描述与图卷积机制的知识图谱补全方法,其步骤包括:
步骤S1:抽取实体的文本描述,通过Wikidata查询接口获取知识图谱中所有实体的描述信息;
步骤S2:根据知识图谱当中的三元组,标记所有实体的相邻节点,得到实体的邻接矩阵;
进一步,所述步骤S2具体为:
步骤S21:对实体从1到N编号,关系从1到M编号,N、M为实体与关系数;
步骤S22:对于每一种关系编号k_,初始化知识图谱的邻接矩阵
Figure SMS_1
为0;
步骤S23:对于训练集当中每一个三元组,获取三元组中的头实体、尾实体和关系的编号i_、j_、k_,将对应邻接矩阵Ak_的i_行j_列的值置为1,表示第i_个实体和第j_个实体相邻。
步骤S3:构建多层注意力机制编码模块,每层包括实体语义与关系词向量的注意力部分以及实体语义与相邻实体语义的注意力部分;
进一步,所述步骤S3具体为:
步骤S31:构建实体、关系嵌入矩阵,即使用预训练好的BERT模型,得到三元组中实体和关系分别对应的词嵌入向量,具体而言:该模块中,实体词we以及关系词wr都输入到加载了预训练权重的BERT模型中,分别得到实体词和关系词的嵌入向量ew和er,作为初始向量;
步骤S32:将步骤S1所得文本描述{w1,w2...wn}输入预训练好的BERT模型,将最后一层隐藏层L所得输出向量
Figure SMS_2
进行求和取平均,最后的输出向量etext作为实体的语义特征向量。具体过程如公式(1)-(2)所示:
Figure SMS_3
Figure SMS_4
步骤S33:对于一个实体e1,我们将三元组(e2,r,e1)转换为(e1,r-1,e2),训练时每个实体总是充当邻域三元组的头部实体。r-1的特征向量er-1由er经过系数矩阵Wr线性变换所得,具体过程如下:
er-1=Wrer 3)
步骤S34:对于实体h,对第l-1层的实体语义与关系词向量进行级联和线性变换后得到
Figure SMS_5
与l层训练向量τl点乘,再使用激活函数ρ后得到l层实体语义与关系词向量的注意力分数/>
Figure SMS_6
即实体与对应关系之间的绝对相似性得分,定义如公式(4)-(5)所示:
Figure SMS_7
Figure SMS_8
其中,[·||·]为拼接操作,
Figure SMS_9
表示第l-1层头实体语义与关系r的特征向量,/>
Figure SMS_10
表示l层关系与语义描述的融合向量,/>
Figure SMS_11
为第l层的权重矩阵,ρ为LeakyReLU函数,Nh表示实体h的相邻关系集。
得到实体与对应关系的注意力分数后,将公式(4)所得融合向量与对应尾实体特征向量拼接并进行线性变换,所得向量即为三元组(h,r,t)的特征向量,按照公式(6)-(7)计算在关系r下,每个尾实体t对于头实体h的注意力分数,如下所示:
Figure SMS_12
Figure SMS_13
其中,
Figure SMS_14
为l层参数矩阵,/>
Figure SMS_15
表示尾实体的语义特征,/>
Figure SMS_16
表示l层与h、r相关的邻居三元组(h,r,t)的特征向量,γl为l层特定向量,Nh,r为邻接矩阵Ak_中h对应行值为1的实体集合,即在关系r下与头实体h相邻的尾实体t的集合,/>
Figure SMS_17
为关系r下与头实体h相关的尾实体级别的注意力分数,接着将实体-关系级别的注意力分数和实体-实体级别的注意力分数相乘得到三元组级别的注意力分数,公式如下:
Figure SMS_18
步骤S4:基于步骤S2所得邻接矩阵和S3的编码模块,迭代更新实体的特征表示;
进一步,所述步骤S4具体为:
步骤S41:对于实体h的每一个相邻实体t,将信息从实体邻域加权聚合到中心实体,并获得实体h的基于邻域的表示,其计算如下:
Figure SMS_19
Figure SMS_20
其中σ为tanh函数,
Figure SMS_21
为更新后的头实体语义信息,作为下一层的实体特征输入;
步骤S42:重复执行步骤S34和S41,对etext迭代更新,最终得到
Figure SMS_22
步骤S5:初始化高质量负样本缓存池,从中抽样高质量负样本加入训练;
进一步,所述步骤S5具体为:
步骤S51:对于知识图谱中的每个三元组(h,r,t),随机构建1000个样本(h,r,t′)∈G′,G′为假三元组集合;
步骤S52:其中1000个样本加入负样本池子,在第一轮中负样本池全部的样本送入解码器,计算出每个负样本的重要性得分,此后每轮首先由负样本池中根据重要性采样500个高质量负样本,接着从G′随机抽取500个头为h关系为r的负样本,提取1000个负样本的尾实体组成Nneg
步骤S6:构建特征融合网络和解码器,由特征融合网络融合实体特征向量和关系特征向量,与尾实体特征矩阵计算修正余弦相似度后由softmax输出三元组评分结果;
进一步,步骤S6所述特征融合网络,进一步加强实体关系的特征交互,解码器使用Acre模型,所述步骤S6具体为:
步骤S61:对步骤S42的最终输出
Figure SMS_23
和ew分别堆叠成x1、/>
Figure SMS_24
其中d为
Figure SMS_25
和ew数据维度;
步骤S62:构建跨模态Transformer,将x1、x2通过三个线性变换矩阵得到Q、K、V:
Q=W4x2 11)
K=W5x1 12)
V=W6x1 13)
步骤S63:计算Q的每一行与K的每一行之间的相似度结果最后通过softmax来进行归一化,接着用V进行加权求和,得到更新后的特征融合向量x′:
Figure SMS_26
其中dk为K中每个向量的维度,T是转置操作。经过Transformer的多头注意力机制和前馈网络后,得到最终输出xz,将xz拉平后,与ew堆叠得到
Figure SMS_27
步骤S64:对x′进行Z次空洞卷积得到Z个特征图,将特征拼接后与x′残差连接后拉平并通过全连接层映射到实体空间,与尾实体点乘后得到相似度得分,接着使用激活函数来获得所有候选实体的概率分布;
Ci=WiConv(x′,ωi) 15)
Ccat=[C0||C1||...||Cz] 16)
o=Flatten(ReLU(Ccat+Wo(x′))) 17)
Figure SMS_28
其中Wo、Wi、W7是线性变换矩阵,ωt表示卷积核,Conv(·,·)是卷积操作,ReLU是激活函数,Flatten(·)是拉平向量操作,b是偏置向量;
步骤S65:把正标签都归为目标类,负标签归为非目标类,得到适用于知识图谱的多标签损失函数,其定义如下:
Figure SMS_29
其中Nneg为不正确的尾实体集合,Npos为正确的尾实体集合。
步骤S7:取出步骤S6中所得负样本评分较高的负样本,更新步骤S5所述高质量负样本池。
进一步,所述步骤S7具体为:
步骤S71:删除步骤S52的高质量负样本池中用于本轮训练的500个负样本,根据步骤S65的损失函数,取出损失值前500的负样本,加入高质量负样本池进行更新负样本操作。
本发明与现有技术相比具有以下有益效果:
(1)使用加权多层注意力指导相邻实体信息融合,可以融合多跳邻居信息并且为不同三元组分配不同的权重;(2)在训练过程中,介绍了一种高质量负样本池的采样方法,缓解训练过程中随机负样本过于简单的带来的梯度消失问题,提高了模型学习效率;(3)多标签场景下,引入新的损失函数,缓解正负样本比例失衡问题;(4)使用了关系词和实体描述作为输入,引入文本信息增强知识表示;(5)利用跨模态Transformer和空洞卷积对实体-关系特征进行多层次交互,提升了模型的性能。
附图说明
图1是本发明设计的整体结构。
图2是本发明设计的语义提取模块。
图3是本发明设计的两部分注意力机制。
图4是本发明设计的多层注意力信息融合结构。
图5是本发明设计的跨模态Transformer结构。
具体实施方法
为了使本发明的目的、技术方案及优点更加清楚明白,下面结合具体实施例和说明附图对本发明作进一步说明,应当理解,此处所描述的优先实施例仅用于说明和解释本发明,并不用于限定本发明。
本发明所述的一种融合文本描述与图卷积机制的知识图谱补全方法,步骤如下:
步骤S1:抽取实体的文本描述,通过Wikidata查询接口获取知识图谱中所有实体的描述信息;
步骤S2:根据知识图谱当中的三元组,标记所有实体的相邻节点,得到实体的邻接矩阵;
进一步,所述步骤S2具体为:
步骤S21:对实体从1到N编号,关系从1到M编号,N、M为实体与关系数;
步骤S22:对于每一种关系编号k_,初始化知识图谱的邻接矩阵
Figure SMS_30
为0;
步骤S23:对于训练集当中每一个三元组,获取三元组中的头实体、尾实体和关系的编号i_、j_、k_,将对应邻接矩阵Ak_的i_行j_列的值置为1,表示第i_个实体和第j_个实体相邻。
步骤S3:构建多层注意力机制编码模块,每层包括实体语义与关系词向量的注意力部分以及实体语义与相邻实体语义的注意力部分;
进一步,所述步骤S3具体为:
步骤S31:构建实体、关系嵌入矩阵,即使用预训练好的BERT模型,得到三元组中实体和关系分别对应的词嵌入向量,具体而言:该模块中,实体词we以及关系词wr都输入到加载了预训练权重的BERT模型中,分别得到实体词和关系词的嵌入向量ew和er,作为初始向量;
步骤S32:将步骤S1所得文本描述{w1,w2...wn}输入预训练好的BERT模型,将最后一层隐藏层L所得输出向量
Figure SMS_31
进行求和取平均,最后的输出向量etext作为实体的语义特征向量。具体过程如公式(1)-(2)所示:
Figure SMS_32
Figure SMS_33
步骤S33:对于一个实体e1,我们将三元组(e2,r,e1)转换为(e1,r-1,e2),训练时每个实体总是充当邻域三元组的头部实体。r-1的特征向量er-1由er经过系数矩阵Wr线性变换所得,具体过程如下:
er-1=Wrer 3)
步骤S34:对于实体h,对第l-1层的实体语义与关系词向量进行级联和线性变换后得到
Figure SMS_34
与l层训练向量τl点乘,再使用激活函数ρ后得到l层实体语义与关系词向量的注意力分数/>
Figure SMS_35
即实体与对应关系之间的绝对相似性得分,定义如公式(4)-(5)所示:
Figure SMS_36
Figure SMS_37
其中,[·||·]为拼接操作,
Figure SMS_38
表示第l-1层头实体语义与关系r的特征向量,/>
Figure SMS_39
表示l层关系与语义描述的融合向量,/>
Figure SMS_40
为第l层的权重矩阵,ρ为LeakyReLU函数,Nh表示实体h的相邻关系集。
得到实体与对应关系的注意力分数后,将公式(4)所得融合向量与对应尾实体特征向量拼接并进行线性变换,所得向量即为三元组(h,r,t)的特征向量,按照公式(6)-(7)计算在关系r下,每个尾实体t对于头实体h的注意力分数,如下所示:
Figure SMS_41
Figure SMS_42
其中,
Figure SMS_43
为l层参数矩阵,/>
Figure SMS_44
表示尾实体的语义特征,/>
Figure SMS_45
表示l层与h、r相关的邻居三元组(h,r,t)的特征向量,γ1为l层特定向量,Nh,r为邻接矩阵Ak_中h对应行值为1的实体集合,即在关系r下与头实体h相邻的尾实体t的集合,/>
Figure SMS_46
为关系r下与头实体h相关的尾实体级别的注意力分数,接着将实体-关系级别的注意力分数和实体-实体级别的注意力分数相乘得到三元组级别的注意力分数,公式如下:
Figure SMS_47
步骤S4:基于步骤S2所得邻接矩阵和S3的编码模块,迭代更新实体的特征表示;
进一步,所述步骤S4具体为:
步骤S41:对于实体h的每一个相邻实体t,将信息从实体邻域加权聚合到中心实体,并获得实体h的基于邻域的表示,其计算如下:
Figure SMS_48
Figure SMS_49
其中σ为tanh函数,
Figure SMS_50
为更新后的头实体语义信息,作为下一层的实体特征输入;
步骤S42:重复执行步骤S34和S41,对etext迭代更新,最终得到
Figure SMS_51
步骤S5:初始化高质量负样本缓存池,从中抽样高质量负样本加入训练;
进一步,所述步骤S5具体为:
步骤S51:对于知识图谱中的每个三元组(h,r,t),随机构建1000个样本(h,r,t′)∈G′,G′为假三元组集合;
步骤S52:其中1000个样本加入负样本池子,在第一轮中负样本池全部的样本送入解码器,计算出每个负样本的重要性得分,此后每轮首先由负样本池中根据重要性采样500个高质量负样本,接着从G′随机抽取500个头为h关系为r的负样本,提取1000个负样本的尾实体组成Nneg
步骤S6:构建特征融合网络和解码器,由特征融合网络融合实体特征向量和关系特征向量,与尾实体特征矩阵计算修正余弦相似度后由softmax输出三元组评分结果;
进一步,步骤S6所述特征融合网络,进一步加强实体关系的特征交互,解码器使用Acre模型,所述步骤S6具体为:
步骤S61:对步骤S42的最终输出
Figure SMS_52
和ew分别堆叠成x1、/>
Figure SMS_53
其中d为
Figure SMS_54
和ew数据维度;
步骤S62:构建跨模态Transformer,将x1、x2通过三个线性变换矩阵得到Q、K、V:
Q=W4x2 (11)
K=W5x1 (12)
V=W6x1 (13)
步骤S63:计算Q的每一行与K的每一行之间的相似度结果最后通过softmax来进行归一化,接着用V进行加权求和,得到更新后的特征融合向量x′:
Figure SMS_55
其中dk为K中每个向量的维度,T是转置操作。经过Transformer的多头注意力机制和前馈网络后,得到最终输出xz,将xz拉平后,与ew堆叠得到
Figure SMS_56
步骤S64:对x′进行Z次空洞卷积得到Z个特征图,将特征拼接后与x′残差连接后拉平并通过全连接层映射到实体空间,与尾实体点乘后得到相似度得分,接着使用激活函数来获得所有候选实体的概率分布;
Ci=WiConv(x′,ωi) (15)
Ccat=[C0||C1||...||CZ] (16)
o=Flatten(ReLU(Ccat+Wo(x′))) (17)
Figure SMS_57
其中Wo、Wi、W7是线性变换矩阵,ωt表示卷积核,Conv(·,·0是卷积操作,ReLU是激活函数,Flatten(·)是拉平向量操作,b是偏置向量;
步骤S65:把正标签都归为目标类,负标签归为非目标类,得到适用于知识图谱的多标签损失函数,其定义如下:
Figure SMS_58
其中Nneg为不正确的尾实体集合,Npos为正确的尾实体集合。
步骤S7:取出步骤S6中所得负样本评分较高的负样本,更新步骤S5所述高质量负样本池。
进一步,所述步骤S7具体为:
步骤S71:删除步骤S52的高质量负样本池中用于本轮训练的500个负样本,根据步骤S65的损失函数,取出损失值前500的负样本,加入高质量负样本池进行更新负样本操作。
以上所述步骤S6与中解码器是以Acre为基线的拓展模型,仅为本发明的较佳实施例,凡依本发明申请专利范围所做的均等变化与修饰,皆应属本发明的涵盖范围。

Claims (8)

1.一种融合文本描述与图卷积机制的知识图谱补全方法,其特征在于,该方法依次包括以下步骤:
步骤S1:抽取实体的文本描述,通过Wikidata查询接口获取知识图谱中所有实体的描述信息;
步骤S2:根据知识图谱当中的三元组,标记所有实体的相邻节点,得到实体的邻接矩阵;
步骤S3:构建多层注意力机制编码模块,每层包括实体语义与关系词向量的注意力部分以及实体语义与相邻实体语义的注意力部分;
步骤S4:基于步骤S2所得邻接矩阵和S3的编码模块,迭代更新实体的特征表示;
步骤S5:初始化高质量负样本缓存池,从中抽样高质量负样本加入训练;
步骤S6:构建特征融合网络和解码器,由特征融合网络融合实体特征向量和关系特征向量,与尾实体特征矩阵计算修正余弦相似度后由softmax输出三元组评分结果;
步骤S7:取出步骤S6中所得负样本评分较高的负样本,更新步骤S5所述高质量负样本池。
2.根据权利要求1所述的一种融合文本描述与图卷积机制的知识图谱补全方法,其特征在于,所述步骤S2具体为:
步骤S21:对实体从1到N编号,关系从1到M编号,N、M为实体与关系数;
步骤S22:对于每一种关系编号k_,初始化知识图谱的邻接矩阵
Figure FDA0004117346530000011
为0;
步骤S23:对于训练集当中每一个三元组,获取三元组中的头实体、尾实体和关系的编号i_、j_、k_,将对应邻接矩阵Ak_的i_行j_列的值置为1,表示第i_个实体和第j_个实体相邻。
3.根据权利要求1或2所述的一种融合文本描述与图卷积机制的知识图谱补全方法,其特征在于,所述步骤S3具体为:
步骤S31:构建实体、关系嵌入矩阵,即使用预训练好的BERT模型,得到三元组中实体和关系分别对应的词嵌入向量,具体而言:该模块中,实体词we以及关系词wr都输入到加载了预训练权重的BERT模型中,分别得到实体词和关系词的嵌入向量ew和er,作为初始向量;
步骤S32:将步骤S1所得文本描述{w1,w2...wn}输入预训练好的BERT模型,将最后一层隐藏层L所得输出向量
Figure FDA0004117346530000021
进行求和取平均,最后的输出向量etext作为实体的语义特征向量;具体过程如公式(1)-(2)所示:
Figure FDA0004117346530000022
Figure FDA0004117346530000023
步骤S33:对于一个实体e1,我们将三元组(e2,r,e1)转换为(e1,r-1,e2),训练时每个实体总是充当邻域三元组的头部实体;r-1的特征向量er-1由er经过系数矩阵Wr线性变换所得,具体过程如下:
er-1=Wrer 3)
步骤S34:对于实体h,对第l-1层的实体语义与关系词向量进行级联和线性变换后得到
Figure FDA0004117346530000024
与l层训练向量τl点乘,再使用激活函数ρ后得到l层实体语义与关系词向量的注意力分数/>
Figure FDA0004117346530000025
即实体与对应关系之间的绝对相似性得分,定义如公式(4)-(5)所示:
Figure FDA0004117346530000026
Figure FDA0004117346530000027
其中,[·||·]为拼接操作,
Figure FDA0004117346530000028
表示第l-1层头实体语义与关系r的特征向量,/>
Figure FDA0004117346530000031
表示l层关系与语义描述的融合向量,/>
Figure FDA0004117346530000032
为第l层的权重矩阵,ρ为LeakyReLU函数,Nh表示实体h的相邻关系集;
得到实体与对应关系的注意力分数后,将公式(4)所得融合向量与对应尾实体特征向量拼接并进行线性变换,所得向量即为三元组(h,r,t)的特征向量,按照公式(6)-(7)计算在关系r下,每个尾实体t对于头实体h的注意力分数,如下所示:
Figure FDA0004117346530000033
Figure FDA0004117346530000034
其中,
Figure FDA0004117346530000035
为l层参数矩阵,/>
Figure FDA0004117346530000036
表示尾实体的语义特征,/>
Figure FDA0004117346530000037
表示l层与h、r相关的邻居三元组(h,r,t)的特征向量,γl为l层特定向量,Nh,r为邻接矩阵Ak_中h对应行值为1的实体集合,即在关系r下与头实体h相邻的尾实体t的集合,/>
Figure FDA0004117346530000038
为关系r下与头实体h相关的尾实体级别的注意力分数,接着将实体-关系级别的注意力分数和实体-实体级别的注意力分数相乘得到三元组级别的注意力分数,公式如下:
Figure FDA0004117346530000039
4.根据权利要求2或3所述的一种融合文本描述与图卷积机制的知识图谱补全方法,其特征在于,所述步骤S4具体为:
步骤S41:对于实体h的每一个相邻实体t,将信息从实体邻域加权聚合到中心实体,并获得实体h的基于邻域的表示,其计算如下:
Figure FDA00041173465300000310
Figure FDA00041173465300000311
其中σ为tanh函数,
Figure FDA00041173465300000312
为更新后的头实体语义信息,作为下一层的实体特征输入;
步骤S42:重复执行步骤S34和S41,对etext迭代更新,最终得到
Figure FDA0004117346530000041
5.根据权利要求1所述的一种融合文本描述与图卷积机制的知识图谱补全方法,其特征在于,所述步骤S5具体为:
步骤S51:对于知识图谱中的每个三元组(h,r,t),随机构建1000个样本(h,r,t′)∈G′,G′为假三元组集合;
步骤S52:其中1000个样本加入负样本池子,在第一轮中负样本池全部的样本送入解码器,计算出每个负样本的重要性得分,此后每轮首先由负样本池中根据重要性采样500个高质量负样本,接着从G′随机抽取500个头为h关系为r的负样本,提取1000个负样本的尾实体组成Nneg
6.根据权利要求1或4所述的一种融合文本描述与图卷积机制的知识图谱补全方法,其特征在于,步骤S6所述特征融合网络,进一步加强实体关系的特征交互,解码器使用Acre模型:
步骤S61:对步骤S42的最终输出
Figure FDA0004117346530000042
和ew分别堆叠成x1、/>
Figure FDA0004117346530000043
其中d为/>
Figure FDA0004117346530000044
和ew数据维度;
步骤S62:构建跨模态Transformer,将x1、x2通过三个线性变换矩阵得到Q、K、V:
Q=W4x211)
K=W5x112)
V=W6x113)
步骤S63:计算Q的每一行与K的每一行之间的相似度结果最后通过softmax来进行归一化,接着用V进行加权求和,得到更新后的特征融合向量x′:
Figure FDA0004117346530000045
其中dk为K中每个向量的维度,T是转置操作;经过Transformer的多头注意力机制和前馈网络后,得到最终输出xz,将xz拉平后,与ew堆叠得到
Figure FDA0004117346530000051
步骤S64:对x′进行Z次空洞卷积得到Z个特征图,将特征拼接后与x′残差连接后拉平并通过全连接层映射到实体空间,与尾实体点乘后得到相似度得分,接着使用激活函数来获得所有候选实体的概率分布;
Ci=WiConv(x′,ωi)15)
Ccat=[C0||C1||...||CZ]16)
oFlatten(ReLU(CcatWo(x′)))17)
Figure FDA0004117346530000052
其中Wo、Wi、W7是线性变换矩阵,ωt表示卷积核,Conv(·,·)是卷积操作,ReLU是激活函数,Flatten(·)是拉平向量操作,b是偏置向量;
步骤S65:把正标签都归为目标类,负标签归为非目标类,得到适用于知识图谱的多标签损失函数,其定义如下:
Figure FDA0004117346530000053
其中Nneg为不正确的尾实体集合,Npos为正确的尾实体集合。
7.根据权利要求1所述的一种融合文本描述与图卷积机制的知识图谱补全方法,其特征在于,所述步骤S7具体为:
步骤S71:删除步骤S52的高质量负样本池中用于本轮训练的500个负样本,根据步骤S65的损失函数,取出损失值前500的负样本,加入高质量负样本池进行更新负样本操作。
8.根据权利要求6所述的一种融合文本描述与图卷积机制的知识图谱补全方法,其特征在于,特征融合网络由多头注意力层、残差层、LN层、Feed Foward层按顺序堆3次组成,Acre模型结构为BN层1、卷积层、全连接层1,BN层2、ReLU层、全连接层2、Sigmoid层。
CN202310222708.0A 2023-03-09 2023-03-09 一种融合文本描述与图卷积机制的知识图谱补全方法 Pending CN116383401A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310222708.0A CN116383401A (zh) 2023-03-09 2023-03-09 一种融合文本描述与图卷积机制的知识图谱补全方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310222708.0A CN116383401A (zh) 2023-03-09 2023-03-09 一种融合文本描述与图卷积机制的知识图谱补全方法

Publications (1)

Publication Number Publication Date
CN116383401A true CN116383401A (zh) 2023-07-04

Family

ID=86977843

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310222708.0A Pending CN116383401A (zh) 2023-03-09 2023-03-09 一种融合文本描述与图卷积机制的知识图谱补全方法

Country Status (1)

Country Link
CN (1) CN116383401A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116842479A (zh) * 2023-08-29 2023-10-03 腾讯科技(深圳)有限公司 图像处理方法、装置、计算机设备和存储介质
CN117891957A (zh) * 2024-03-14 2024-04-16 华南理工大学 基于预训练语言模型的知识图谱补全方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116842479A (zh) * 2023-08-29 2023-10-03 腾讯科技(深圳)有限公司 图像处理方法、装置、计算机设备和存储介质
CN116842479B (zh) * 2023-08-29 2023-12-12 腾讯科技(深圳)有限公司 图像处理方法、装置、计算机设备和存储介质
CN117891957A (zh) * 2024-03-14 2024-04-16 华南理工大学 基于预训练语言模型的知识图谱补全方法
CN117891957B (zh) * 2024-03-14 2024-05-07 华南理工大学 基于预训练语言模型的知识图谱补全方法

Similar Documents

Publication Publication Date Title
US11941522B2 (en) Address information feature extraction method based on deep neural network model
CN111291836B (zh) 一种生成学生网络模型的方法
WO2022057669A1 (zh) 基于结构化上下文信息的知识图谱预训练方法
CN116383401A (zh) 一种融合文本描述与图卷积机制的知识图谱补全方法
CN111753024B (zh) 一种面向公共安全领域的多源异构数据实体对齐方法
CN112560432B (zh) 基于图注意力网络的文本情感分析方法
CN110046252B (zh) 一种基于注意力机制神经网络与知识图谱的医疗文本分级方法
CN112988917B (zh) 一种基于多种实体上下文的实体对齐方法
CN112464004A (zh) 一种多视角深度生成图像聚类方法
CN112308326A (zh) 一种基于元路径和双向编码器的生物网络链接预测方法
CN114625882B (zh) 提高图像文本描述独特多样性的网络构建方法
CN113177141A (zh) 基于语义嵌入软相似性的多标签视频哈希检索方法及设备
CN115391563B (zh) 一种基于多源异构数据融合的知识图谱链路预测方法
CN116682144B (zh) 一种基于多层次跨模态差异调和的多模态行人重识别方法
CN114969367B (zh) 基于多方面子任务交互的跨语言实体对齐方法
CN116402133B (zh) 一种基于结构聚合图卷积网络的知识图谱补全方法及系统
CN111753207A (zh) 一种基于评论的神经图协同过滤模型
CN114564596A (zh) 一种基于图注意力机制的跨语言知识图谱链接预测方法
CN111461907A (zh) 一种面向社交网络平台的动态网络表征学习方法
CN115438197B (zh) 一种基于双层异质图的事理知识图谱关系补全方法及系统
CN114241191A (zh) 一种基于跨模态自注意力的无候选框指代表达理解方法
CN115952424A (zh) 一种基于多视图结构的图卷积神经网络聚类方法
CN116883723A (zh) 一种基于并联语义嵌入的组成式零样本图像分类方法
CN111882042A (zh) 用于液体状态机的神经网络架构自动搜索方法、系统及介质
CN111444316B (zh) 一种面向知识图谱问答的复合问句解析方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination