CN113806559A - 一种基于关系路径与双层注意力的知识图谱嵌入方法 - Google Patents

一种基于关系路径与双层注意力的知识图谱嵌入方法 Download PDF

Info

Publication number
CN113806559A
CN113806559A CN202111122504.7A CN202111122504A CN113806559A CN 113806559 A CN113806559 A CN 113806559A CN 202111122504 A CN202111122504 A CN 202111122504A CN 113806559 A CN113806559 A CN 113806559A
Authority
CN
China
Prior art keywords
representation
path
entity
embedding
attention
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111122504.7A
Other languages
English (en)
Other versions
CN113806559B (zh
Inventor
何洁月
王金梦
张乃心
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN202111122504.7A priority Critical patent/CN113806559B/zh
Publication of CN113806559A publication Critical patent/CN113806559A/zh
Application granted granted Critical
Publication of CN113806559B publication Critical patent/CN113806559B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Databases & Information Systems (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种基于关系路径与双层注意力的知识图谱嵌入方法。依次包括以下步骤:步骤1:构建双层注意力编码器,在深度学习技术的基础上结合关系路径学习知识图谱嵌入;步骤2:根据步骤1得到的嵌入表示,引入生成对抗网络对学得的嵌入表示施加正则化约束。通过联合优化嵌入表示学习和对抗训练,模型可以得到一个更加鲁棒的嵌入表示,可以有效地提升下游任务的性能,例如链路预测等。

Description

一种基于关系路径与双层注意力的知识图谱嵌入方法
技术领域
本发明涉及一种知识图谱嵌入方法,具体涉及一种基于关系路径与双层注意力的知识图谱嵌入方法。
背景技术
知识图谱嵌入(Knowledge Graph Embedding,KGE)属于表示学习的范畴,关键思想是将实体和关系嵌入到低维连续的向量空间中,在保留知识图谱固有结构的同时简化操作,学到的嵌入表示可以进一步用于各种任务中,如知识库补全、推荐系统等。知识图谱表示学习领域已提出了大量相关模型,尽管已有的基于深度学习的KGE模型比浅层模型很大程度地提升了嵌入的表达能力,但仍然存在一些问题:(1)它们通过堆叠多个网络层传播高阶邻域内的信息,容易发生过度平滑,即模型过深时高阶邻域中的信息会剧减,从而无法充分提取知识图谱中的语义信息;(2)它们通常仅利用知识图谱中存在的三元组事实,并且往往只考虑实体之间的直接关系,忽略了“间接关系”的重要性。实际上实体之间存在着大量的多步路径,并且蕴含了丰富的推理模式;(3)知识图谱中的关系是至关重要的,但是以往模型通常利用权重矩阵更新关系表示,对关系的嵌入学习比较简单。(4)另外,复杂的网络结构缺乏正则化约束,容易发生过拟合问题,导致模型的鲁棒性和泛化能力较差。
发明内容
发明目的:针对上述存在的问题,本发明设计了一种基于关系路径与双层注意力的知识图谱嵌入方法,即HARPA(Hierarchical Attention with Relation Paths forKnowledge Graph Embedding Adversarial Learning)。具体来说,HARPA模型包含两部分:双层注意力编码器和对抗训练模块。双层注意力编码器首先在三元组级别挖掘三元组和邻域中的信息,不用堆叠多个注意力层便可获取高阶邻域的信息,更好地利用邻域信息辅助模型学习嵌入;然后在路径级别采用注意力机制衡量路径与对应关系之间的语义相似性,并基于三元组级别的关系嵌入建模路径,进一步使用路径表示更新关系嵌入,最后使用ConvKB模型作为解码器执行链路预测任务,将学得的实体关系表示输入到解码器中,更好地维持了三元组之间的平移特性。在嵌入过程中同时引入生成对抗网络指导编码器的嵌入表示学习过程,可以将生成对抗网络模块视作整个模型的正则化项,约束知识图谱嵌入表示学习的过程,从而缓解过拟合的问题并增强模型的鲁棒性。
技术方案:本发明所述的一种基于关系路径与双层注意力的知识图谱嵌入方法依次包括以下顺序执行的步骤:
步骤1.构建双层注意力编码器,包含三元组级别和路径级别,首先在三元组级别学习实体嵌入和关系嵌入,通过注意力机制计算三元组的权重系数后更新实体表示,以获取邻域内邻居节点对中心实体的不同影响,然后将学得的嵌入表示输入到下一层;然后在路径级别根据对应关系与路径之间的语义相似性筛选路径,紧接着基于三元组级别的嵌入建模路径表示,并通过注意力机制计算路径的权重后进一步更新关系嵌入,解码器进一步提取三元组和路径中的信息,并维持三元组的平移特性;
步骤2.根据步骤1得到的嵌入表示,引入生成对抗网络对学得的嵌入表示施加正则化约束。
进一步地,步骤1中所述双层注意力编码器基于图注意力网络(Graph AttentionNetwork,GAT)构建,具体包括如下步骤:
步骤1.1.在三元组级别,对GAT加以改进,在计算邻域中不同三元组对中心实体的影响时考虑关系:针对每个中心实体,首先在头实体、尾实体和关系的初始表示上执行线性转换,然后使用激活函数以确保注意力非负即获得每个三元组的嵌入表示:
Figure BDA0003277464400000021
其中,
Figure BDA0003277464400000022
Figure BDA0003277464400000023
分别表示头实体、尾实体和关系的初始表示,σ表示激活函数,包括ReLU、LeakyReLU,ω1为线性转换矩阵,||表示拼接操作,
Figure BDA0003277464400000024
即三元组的嵌入表示;
步骤1.2.获得每个三元组的嵌入表示后按式(2)得到邻域内每个三元组的相对注意力系数:
Figure BDA0003277464400000025
其中,αhrt是三元组(h,r,t)的注意力系数,h表示头实体,r表示关系,t表示尾实体,exp表示e的指数,ω2为线性转换参数矩阵,Nh表示头实体h邻域内的所有实体,Rht即h和t之间的关系集合;
步骤1.3.进一步使用多头注意力机制更新实体的嵌入表示:
Figure BDA0003277464400000026
其中,M表示使用注意力机制的总次数,||表示拼接,
Figure BDA0003277464400000027
是第m次注意力机制下的归一化注意力系数,
Figure BDA0003277464400000028
定示第m次注意力机制下线性转换后的三元组嵌入表示,
Figure BDA0003277464400000029
则是每个注意力层聚合更新后的实体表示;
步骤1.4.在三元组级别的最后一层注意力网络上,采用平均操作聚合嵌入表示:
Figure BDA0003277464400000031
其中,
Figure BDA0003277464400000032
定示用平均操作聚合嵌入表示后的实体表示,
经过堆叠多层注意力后的实体嵌入表示矩阵为
Figure BDA0003277464400000033
n为实体的邻域阶数,D为最终的嵌入维度,为了保留原有表示中的信息,如式(5)所示:将初始的实体嵌入矩阵进行特征转换,聚合
Figure BDA0003277464400000034
与转换后的实体嵌入得到最终的实体嵌入矩阵
Figure BDA0003277464400000035
ω3为初始表示的权重矩阵:
Figure BDA0003277464400000036
同时,在输入的关系嵌入上使用参数矩阵ωR更新表示:
Figure BDA0003277464400000037
其中,
Figure BDA0003277464400000038
表示更新后的关系嵌入,
Figure BDA0003277464400000039
是输入的关系嵌入;
步骤1.5.在路径级别,获取到知识图谱中的所有路径后,首先基于直接关系与对应路径之间语义相似性的方法筛选出可靠的路径,对于实体对(h,t)之间的任意一条路径pi={r1,r2,..,rl},ri表示第i个关系,l表示路径pi中包含的关系数,首先根据输入的初始关系向量矩阵,采用加法操作建模路径表示:
Figure BDA00032774644000000310
其中,
Figure BDA00032774644000000311
是路径pi的嵌入表示,
Figure BDA00032774644000000312
是第i个关系的嵌入表示;
步骤1.6.在拼接路径表示与对应关系r的表示后执行线性变换,再使用激活函数σ计算路径pi的分数得到每条路径与关系的相似性得分
Figure BDA00032774644000000313
其中δ为线性转换的参数矩阵:
Figure BDA00032774644000000314
其中,
Figure BDA00032774644000000315
是关系r的嵌入表示;
得到每条路径与关系的相似性得分
Figure BDA00032774644000000316
后,过滤掉分数小于阈值的路径即为最终参与训练的路径Pfilter={p1,p2,...,ps},s为过滤后路径的数量;
步骤1.7.得到最终参与训练的路径后,基于三元组级别学到的嵌入表示,进一步更新关系嵌入,在注意力层匹配实体对之间的直接关系和路径,按照式(9)(10)计算每条路径的相对注意力系数:
Figure BDA00032774644000000317
Figure BDA0003277464400000041
其中,w,V为参数矩阵,
Figure BDA0003277464400000042
即每条路径与对应关系之间的绝对相似性得分,
Figure BDA0003277464400000043
为路径的注意力系数,
Figure BDA0003277464400000044
是路径pi的嵌入表示,
Figure BDA0003277464400000045
表示三元组级别的关系表示,紧接着聚合所有路径在注意力层的嵌入表示,即为匹配路径的最终表示:
Figure BDA0003277464400000046
其中,
Figure BDA0003277464400000047
为匹配路径的最终表示;
步骤1.8.聚合三元组级别的关系表示与路径级别对应的路径表示更新嵌入,以获取最终的关系嵌入表示
Figure BDA0003277464400000048
其中ωP为用于线性转换三元组级别关系表示的权重参数矩阵:
Figure BDA0003277464400000049
HARPA基于三元组平移转换的思想,通过度量经过关系平移后的头实体与尾实体之间的L1距离评估三元组的置信度:
Figure BDA00032774644000000410
其中,d(·)表示三元组的得分,||·||1表示L1范式,
步骤1.9.最小化基于margin的损失函数训练模型,从而学得实体和关系的嵌入表示:
Figure BDA00032774644000000411
其中,[x]+为max{x,0},即取x的正数部分,γ>0是表示正负例间隔的超参数,F为KG中存在的事实,即正三元组,F′为无效三元组(负例),且F′={(h′,r,t)|h′∈ε}∪{(h,r,t′)|t′∈∈}。
进一步地,步骤1中所述解码器采用ConvKB模型作为解码器,进一步提取三元组和路径中的信息,并维持三元组的平移特性的具体方法是:
将每个三元组嵌入表示为三列矩阵的形式,再使用多个1D过滤器进行卷积得到多个不同特征图,然后将多个特征图串联在一起得到一个单独的向量,即三元组的嵌入表示,最后使用点积计算三元组的分数:
Figure BDA00032774644000000412
其中,f(h,r,t)为三元组得分函数,concat(·)表示连接操作,
Figure BDA00032774644000000413
为最终的关系嵌入表示,g为激活函数,Ω和θ是共享的参数;
最后通过最小化soft-margin损失函数训练解码器,损失函数带有权重向量θ的L2正则化项:
Figure BDA0003277464400000051
其中,LDecoder表示解码器,b(h,r,t)=1表示三元组是正样本,b(h,r,t)=-1表示三元组是负样本,λ表是一个超参数,
Figure BDA0003277464400000052
表示权重向量θ的L2正则化项,
进一步地,步骤2具体包括如下步骤:
步骤2.1.从双层编码器中获取实体嵌入表示的分布pembed,同时从简单的高斯先验分布中采样噪音数据,并将其输入到生成器G中:
Figure BDA0003277464400000053
Figure BDA0003277464400000054
Figure BDA0003277464400000055
其中,xnoise表示从高斯先验分布中采样的噪音数据,
Figure BDA0003277464400000056
分别为权重系数和偏置系数,pnoise表示噪音数据服从简单先验分布,
Figure BDA0003277464400000057
表示高斯先验分布,u表示期望值,∑表示标准差,k表示堆叠的隐藏层的个数,表示f(·)表示非线性激活函数,通过生成器可以将服从简单先验分布的噪音数据映射为较复杂的分布;
步骤2.2.将嵌入表示作为正样本,生成样本作为假样本输入到判别器D中,当对抗博弈的过程达到平衡时,判别器无法区别输入的数据来自于生成器还是编码器,通过式(20)进行对抗训练达到理想状态:
Figure BDA0003277464400000058
其中,minG表示生成器尝试最小化交叉熵损失,maxD表示判别器尝试最大化交叉熵损失,
Figure BDA0003277464400000059
表示实体嵌入服从pembed分布,
Figure BDA00032774644000000510
表示噪音数据服从pnoise分布。
有益效果:
本发明提供一种基于关系路径与双层注意力的知识图谱嵌入方法,双层注意力编码器首先在三元组级别上基于注意力计算不同邻居实体对中心实体的影响,从而学习实体表示;接着在路径级别根据路径与关系之间的语义相似性筛选路径,并再次使用注意力机制基于三元组级别的关系嵌入建模路径,从而进一步更新关系表示,最后使用ConvKB作为解码器执行链路预测任务,将学得的实体关系表示输入到解码器中,更好地维持了三元组之间的平移特性;在嵌入过程中同时引入了一个对抗训练模块,即使用生成对抗网络为编码器学习嵌入表示的过程施加约束,并在嵌入表示学习过程中建模了一定的不确定性,以缓解模型的过拟合问题,并且增强模型的鲁棒性。模型最终联合优化嵌入表示学习和对抗训练过程,对抗训练模块可以看作是整个模型的正则化项,其包含以下优点:
(1)一种新颖的基于关系路径与双层注意力的知识图谱嵌入表示对抗学习模型HARPA,通过在深度学习技术的基础上结合关系路径辅助模型学习嵌入。相比于现有的方法,利用注意力机制与关系路径充分地提取了知识图谱中三元组、高阶邻域以及多步路径中的丰富语义信息,提高了嵌入表示的表达能力;
(2)通过引入生成对抗网络作为对抗训练模块,为嵌入表示过程建模了一定的不确定性,并为嵌入表示学习过程施加正则化约束。在对抗训练过程中,判别器在与生成器博弈的过程中对编码器进行正则化,最终使得模型更具鲁棒性,并且有效地缓解了模型的过拟合问题。
附图说明
图1本发明中HARPA算法的流程图;
图2为嵌入维度D对性能影响示意图;
图3为相似度阈值Sim对性能影响示意图;
图4为对抗学习率lr_adv对性能影响示意图;
图5为间距值γ对性能影响示意图;
图6为消融实验示意图;
图7为实施例中实体邻域样例。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,下面结合具体实施例和说明附图对本发明作进一步说明,应当理解,此处所描述的优先实施例仅用于说明和解释本发明,并不用于限定本发明。
本发明所述的一种基于关系路径与双层注意力的知识图谱嵌入方法依次包括以下顺序执行的步骤:
步骤1.构建双层注意力编码器,包含三元组级别和路径级别,首先在三元组级别学习实体嵌入和关系嵌入,通过注意力机制计算三元组的权重系数后更新实体表示,以获取邻域内邻居节点对中心实体的不同影响,然后将学得的嵌入表示输入到下一层;然后在路径级别根据对应关系与路径之间的语义相似性筛选路径,紧接着基于三元组级别的嵌入建模路径表示,并通过注意力机制计算路径的权重后进一步更新关系嵌入,解码器进一步提取三元组和路径中的信息,并维持三元组的平移特性;
步骤2.根据步骤1得到的嵌入表示,引入生成对抗网络对学得的嵌入表示施加正则化约束。引入生成对抗网络(Generative Adversarial Network,GAN)作为模型的一个正则化项,引入这一模块的有两个优点:作为正则化项可以更好的指导编码器提取输入的有用信息;生成对抗训练可以帮助模型学习出更鲁棒的嵌入表示,可以有效缓解过拟合的问题,提高了模型的泛化能力。
进一步地,步骤1中所述双层注意力编码器基于图注意力网络(Graph AttentionNetwork,GAT)构建,具体包括如下步骤:
步骤1.1.在三元组级别,对GAT加以改进,在计算邻域中不同三元组对中心实体的影响时考虑关系:针对每个中心实体,首先在头实体、尾实体和关系的初始表示上执行线性转换,然后使用激活函数以确保注意力非负即获得每个三元组的嵌入表示:
Figure BDA0003277464400000071
其中,
Figure BDA0003277464400000072
Figure BDA0003277464400000073
分别表示头实体、尾实体和关系的初始表示,σ表示激活函数,包括ReLU、LeakyReLU,ω1为线性转换矩阵,||表示拼接操作,
Figure BDA0003277464400000074
即三元组的嵌入表示;
步骤1.2.获得每个三元组的嵌入表示后按式(2)得到邻域内每个三元组的相对注意力系数:
Figure BDA0003277464400000075
其中,αhrt是三元组(h,r,t)的注意力系数,exp表示e的指数,ω2为线性转换参数矩阵,Nh表示头实体h邻域内的所有实体,Rht即h和t之间的关系集合;
特别注意的是:为了更好地利用高阶邻域的信息,这里的Nh不仅是h的一阶邻域,也包括2-hop及以上的邻域,并且中心位置的头实体h与n-hop邻域内的所有实体之间的联系都是“最短连边”。如图7所示,对于中心节点e0
Figure BDA00032774644000000711
其中计算e4,e5的注意力时,仅考虑它们与e0之间的最短连边r7,r6,而不考虑2-hop连接。
步骤1.3.进一步使用多头注意力机制更新实体的嵌入表示:
Figure BDA0003277464400000076
其中,M表示使用注意力机制的总次数,||表示拼接,
Figure BDA0003277464400000077
是第m次注意力机制下的归一化注意力系数,
Figure BDA0003277464400000078
则是每个注意力层聚合更新后的实体表示;
步骤1.4.在三元组级别的最后一层注意力网络上,采用平均操作聚合嵌入表示:
Figure BDA0003277464400000079
经过堆叠多层注意力后的实体嵌入表示矩阵为
Figure BDA00032774644000000710
n为实体的邻域阶数,D为最终的嵌入维度,为了保留原有表示中的信息,如式(5)所示:将初始的实体嵌入矩阵进行特征转换,聚合
Figure BDA0003277464400000081
与转换后的实体嵌入得到最终的实体嵌入矩阵
Figure BDA0003277464400000082
ω3为初始表示的权重矩阵:
Figure BDA0003277464400000083
同时,在输入的关系嵌入上使用参数矩阵ωR更新表示:
Figure BDA0003277464400000084
其中,
Figure BDA0003277464400000085
表示更新后的关系嵌入,
Figure BDA0003277464400000086
是输入的关系嵌入;
步骤1.5.在路径级别,获取到知识图谱中的所有路径后,首先基于直接关系与对应路径之间语义相似性的方法筛选出可靠的路径,对于实体对(h,t)之间的任意一条路径pi={r1,r2,..,rl},ri表示第i个关系,l表示路径pi中包含的关系数,首先根据输入的初始关系向量矩阵,采用加法操作建模路径表示:
Figure BDA0003277464400000087
其中,
Figure BDA0003277464400000088
是路径pi的嵌入表示,
Figure BDA0003277464400000089
是第i个关系的嵌入表示;
步骤1.6.在拼接路径表示与对应关系r的表示后执行线性变换,再使用激活函数σ计算路径pi的分数得到每条路径与关系的相似性得分
Figure BDA00032774644000000810
其中δ为线性转换的参数矩阵:
Figure BDA00032774644000000811
其中,
Figure BDA00032774644000000812
是关系r的嵌入表示。
得到每条路径与关系的相似性得分
Figure BDA00032774644000000813
后,过滤掉分数小于阈值的路径即为最终参与训练的路径Pfilter={p1,p2,...,ps},s为过滤后路径的数量;
步骤1.7.得到最终参与训练的路径路径后,基于三元组级别学到的嵌入表示,进一步更新关系嵌入,在注意力层匹配实体对之间的直接关系和路径,按照式(9)(10)计算每条路径的相对注意力系数:
Figure BDA00032774644000000814
Figure BDA00032774644000000815
其中,w,V为参数矩阵,
Figure BDA00032774644000000816
即每条路径与对应关系之间的绝对相似性得分,
Figure BDA00032774644000000817
为路径的注意力系数,
Figure BDA00032774644000000818
是路径pi的嵌入表示,
Figure BDA00032774644000000819
表示三元组级别的关系表示,紧接着聚合所有路径在注意力层的嵌入表示,即为匹配路径的最终表示:
Figure BDA00032774644000000820
其中,
Figure BDA00032774644000000821
为匹配路径的最终表示。
步骤1.8.聚合三元组级别的关系表示与路径级别对应的路径表示更新嵌入,以获取最终的关系嵌入表示
Figure BDA0003277464400000091
其中ωP为用于线性转换三元组级别关系表示的权重参数矩阵:
Figure BDA0003277464400000092
HARPA基于三元组平移转换的思想,通过度量经过关系平移后的头实体与尾实体之间的L1距离评估三元组的置信度:
Figure BDA0003277464400000093
其中,d(.)表示三元组的得分,||·||1,表示L1范式。
步骤1.9.最小化基于margin的损失函数训练模型,从而学得实体和关系的嵌入表示:
Figure BDA0003277464400000094
其中,[x]+为max{x,0},即取x的正数部分,γ>0是表示正负例间隔的超参数,F为KG中存在的事实,即正三元组,F′为无效三元组(负例),且F′={(h′,r,t)|h′∈ε}∪{(h,r,t′)|t′∈∈}。
进一步地,步骤1中所述解码器采用ConvKB模型作为解码器,利用ConvKB的评分函数对学得的三元组嵌入表示进行打分以评估三元组的置信度,这一过程的目标使得嵌入表示具有更高的表达能力,从而提升嵌入表示在下游任务上的性能。进一步提取三元组和路径中的信息,并维持三元组的平移特性的具体方法是:
将每个三元组嵌入表示为三列矩阵的形式,再使用多个1D过滤器进行卷积得到多个不同特征图,然后将多个特征图串联在一起得到一个单独的向量,即三元组的嵌入表示,最后使用点积计算三元组的分数:
Figure BDA0003277464400000095
其中,f(h,r,t)为三元组得分函数,concat(·)表示连接操作,
Figure BDA0003277464400000096
为最终的关系嵌入表示,g为激活函数,Ω和θ是共享的参数;
最后通过最小化soft-margin损失函数训练解码器,损失函数带有权重向量θ的L2正则化项:
Figure BDA0003277464400000097
其中,LDecoder表示解码器,b(h,r,t)=1表示三元组是正样本,b(h,r,t)=-1表示三元组是负样本,λ是一个超参数,
Figure BDA0003277464400000098
表示权重向量θ的L2正则化项。
进一步地,步骤2具体包括如下步骤:
步骤2.1.从双层编码器中获取实体嵌入表示的分布pembed,同时从简单的高斯先验分布中采样噪音数据,并将其输入到生成器G中:
Figure BDA0003277464400000101
Figure BDA0003277464400000102
Figure BDA0003277464400000103
其中,xnoise表示从高斯先验分布中采样的噪音数据,
Figure BDA0003277464400000109
b′i分别为权重系数和偏置系数,pnoise表示噪音数据服从简单先验分布,
Figure BDA0003277464400000104
表示高斯先验分布,u表示期望值,∑表示标准差,k表示堆叠的隐藏层的个数,f(·)表示非线性激活函数,通过生成器可以将服从简单先验分布的噪音数据映射为较复杂的分布;
步骤2.2.将嵌入表示作为正样本,生成样本作为假样本输入到判别器D中,当对抗博弈的过程达到平衡时,判别器无法区别输入的数据来自于生成器还是编码器,通过式(20)进行对抗训练达到理想状态:
Figure BDA0003277464400000105
其中,minG表示生成器尝试最小化交叉熵损失,maxD表示判别器尝试最大化交叉熵损失,
Figure BDA0003277464400000106
定示实体嵌入服从pembed分布,
Figure BDA0003277464400000107
表示噪音数据服从pnoise分布。实验:
为了验证模型学习到的嵌入表示的有效性,本文在四个通用知识图谱上进行了链路预测(LinkPrediction)实验,除此之外,还进行了参数学习和消融分析进一步验证模型的有效性,本文使用的数据集的如表1所示。
表1实验所用数据集
Figure BDA0003277464400000108
图2展示了,随着嵌入维度的不断增大,模型在链路预测任务上的指标值先以较快的速度增长,然后缓慢增长,最终逐渐趋于稳定。
图3展示了,在根据路径与关系的语义相似性筛选路径时,随着相似度阈值的增加,整体上结果有所提升,表明通过提高相似度阈值可以获取到更加可靠的路径,进一步学到更高质量的编码表示。
图4展示了,在使用margin-based作为编码器的目标函数时,不同规模的数据集对最优的间距值有不同的要求,图4中(a)为Kinship数据集,(b)为WN18RR数据集。
图5展示了,随着对抗学习率初始时的不断增大,指标值均有所提升,但是当学习率继续增大时,指标值有所下降,说明学习率过小时,模型收敛较慢,可能没有达到最优解,而学习率过高时,模型学习时间加快,可能提前到达拟合点,跳出最优解,容易发生过拟合现象。
图6展示了,当去掉HARPA模型中的路径与对抗训练模块(HARPA-adv-path)时,模型的性能最差且波动较大;添加路径之后(HARPA-adv),模型性能明显上升,说明了结合关系路径可以有效提升模型学习嵌入表示的能力;而HARPA模型的性能优于HARPA-adv,并且可以看出HARPA-adv有一定的波动,HARPA模型则呈现稳定上升的趋势,说明在结合路径的基础上进一步引入生成对抗网络,有效地增强了模型学得的嵌入表示的鲁棒性。

Claims (4)

1.一种基于关系路径与双层注意力的知识图谱嵌入方法,其特征在于,该方法依次包括以下顺序执行的步骤:
步骤1.构建双层注意力编码器,包含三元组级别和路径级别,首先在三元组级别学习实体嵌入和关系嵌入,通过注意力机制计算三元组的权重系数后更新实体表示,以获取邻域内邻居节点对中心实体的不同影响,然后将学得的嵌入表示输入到下一层;然后在路径级别根据对应关系与路径之间的语义相似性筛选路径,紧接着基于三元组级别的嵌入建模路径表示,并通过注意力机制计算路径的权重后进一步更新关系嵌入,解码器进一步提取三元组和路径中的信息,并维持三元组的平移特性;
步骤2.根据步骤1得到的嵌入表示,引入生成对抗网络对学得的嵌入表示施加正则化约束。
2.根据权利要求1所述的基于关系路径与双层注意力的知识图谱嵌入方法,其特征在于,步骤1中所述双层注意力编码器基于图注意力网络构建,具体包括如下步骤:
步骤1.1.在三元组级别,对GAT加以改进,在计算邻域中不同三元组对中心实体的影响时考虑关系:针对每个中心实体,首先在头实体、尾实体和关系的初始表示上执行线性转换,然后使用激活函数以确保注意力非负即获得每个三元组的嵌入表示:
Figure FDA0003277464390000011
其中,
Figure FDA0003277464390000012
Figure FDA0003277464390000013
分别表示头实体、尾实体和关系的初始表示,σ表示激活函数,包括ReLU、LeakyReLU,ω1为线性转换矩阵,||表示拼接操作,
Figure FDA0003277464390000014
即三元组的嵌入表示;
步骤1.2.获得每个三元组的嵌入表示后按式(2)得到邻域内每个三元组的相对注意力系数:
Figure FDA0003277464390000015
其中,αhrt是三元组(h,r,t)的注意力系数,h表示头实体,r表示关系,t表示尾实体,exp表示e的指数,ω2为线性转换参数矩阵,Nh表示头实体h邻域内的所有实体,Rht即h和t之间的关系集合;
步骤1.3.进一步使用多头注意力机制更新实体的嵌入表示:
Figure FDA0003277464390000016
其中,M表示使用注意力机制的总次数,||表示拼接,
Figure FDA0003277464390000021
是第m次注意力机制下的归一化注意力系数,
Figure FDA0003277464390000022
表示第m次注意力机制下线性转换后的三元组嵌入表示,
Figure FDA0003277464390000023
则是每个注意力层聚合更新后的实体表示;
步骤1.4.在三元组级别的最后一层注意力网络上,采用平均操作聚合嵌入表示:
Figure FDA0003277464390000024
其中,
Figure FDA0003277464390000025
表示用平均操作聚合嵌入表示后的实体表示;
经过堆叠多层注意力后的实体嵌入表示矩阵为
Figure FDA0003277464390000026
n为实体的邻域阶数,D为最终的嵌入维度,如式(5)所示:将初始的实体嵌入矩阵进行特征转换,聚合
Figure FDA0003277464390000027
与转换后的实体嵌入得到最终的实体嵌入矩阵
Figure FDA0003277464390000028
ω3为初始表示的权重矩阵:
Figure FDA0003277464390000029
同时,在输入的关系嵌入上使用参数矩阵ωR更新表示:
Figure FDA00032774643900000210
其中,
Figure FDA00032774643900000211
表示更新后的关系嵌入,
Figure FDA00032774643900000212
是输入的关系嵌入;
步骤1.5.在路径级别,获取到知识图谱中的所有路径后,首先基于直接关系与对应路径之间语义相似性的方法筛选出可靠的路径,对于实体对(h,t)之间的任意一条路径pi={r1,r2,..,rl},ri表示第i个关系,l表示路径pi中包含的关系数,首先根据输入的初始关系向量矩阵,采用加法操作建模路径表示:
Figure FDA00032774643900000213
其中,
Figure FDA00032774643900000214
是路径pi的嵌入表示,
Figure FDA00032774643900000215
是第i个关系的嵌入表示;
步骤1.6.在拼接路径表示与对应关系r的表示后执行线性变换,再使用激活函数σ计算路径pi的分数得到每条路径与关系的相似性得分
Figure FDA00032774643900000216
其中δ为线性转换的参数矩阵:
Figure FDA00032774643900000217
其中,
Figure FDA00032774643900000218
是关系r的嵌入表示;
得到每条路径与关系的相似性得分
Figure FDA00032774643900000219
后,过滤掉分数小于阈值的路径即为最终参与训练的路径Pfilter={p1,p2,...,ps},s为过滤后路径的数量;
步骤1.7.得到最终参与训练的路径后,基于三元组级别学到的嵌入表示,进一步更新关系嵌入,在注意力层匹配实体对之间的直接关系和路径,按照式(9)(10)计算每条路径的相对注意力系数:
Figure FDA0003277464390000031
Figure FDA0003277464390000032
其中,W,V为参数矩阵,
Figure FDA0003277464390000033
即每条路径与对应关系之间的绝对相似性得分,
Figure FDA0003277464390000034
为路径的注意力系数,
Figure FDA0003277464390000035
是路径pi的嵌入表示,
Figure FDA0003277464390000036
表示三元组级别的关系表示,紧接着聚合所有路径在注意力层的嵌入表示,即为匹配路径的最终表示:
Figure FDA0003277464390000037
其中,
Figure FDA0003277464390000038
为匹配路径的最终表示;
步骤1.8.聚合三元组级别的关系表示与路径级别对应的路径表示更新嵌入,以获取最终的关系嵌入表示
Figure FDA0003277464390000039
其中ωP为用于线性转换三元组级别关系表示的权重参数矩阵:
Figure FDA00032774643900000310
HARPA基于三元组平移转换的思想,通过度量经过关系平移后的头实体与尾实体之间的L1距离评估三元组的置信度:
Figure FDA00032774643900000311
其中,d(·)表示三元组的得分,‖·‖1表示L1范式,
步骤1.9.最小化基于margin的损失函数训练模型,从而学得实体和关系的嵌入表示:
Figure FDA00032774643900000312
其中,[x]+为max{x,0},即取x的正数部分,γ>0是表示正负例间隔的超参数,F为KG中存在的事实,即正三元组,F′为无效三元组,且F′={(h′,r,t)|h′∈ε}∪{(h,r,t′)|t′∈∈}。
3.根据权利要求2所述的基于关系路径与双层注意力的知识图谱嵌入方法,其特征在于,步骤1中所述解码器采用ConvKB模型作为解码器,进一步提取三元组和路径中的信息,并维持三元组的平移特性的具体方法是:
将每个三元组嵌入表示为三列矩阵的形式,再使用多个1D过滤器进行卷积得到多个不同特征图,然后将多个特征图串联在一起得到一个单独的向量,即三元组的嵌入表示,最后使用点积计算三元组的分数:
Figure FDA0003277464390000041
其中,f(h,r,t)为三元组得分函数,concat(·)表示连接操作,
Figure FDA0003277464390000042
为最终的关系嵌入表示,g为激活函数,Ω和θ是共享的参数;
最后通过最小化soft-margin损失函数训练解码器,损失函数带有权重向量θ的L2正则化项:
Figure FDA0003277464390000043
其中,LDecoder表示解码器,b(h,r,t)=1表示三元组是正样本,b(h,r,t)=-1表示三元组是负样本,λ表是一个超参数,
Figure FDA0003277464390000044
表示权重向量θ的L2正则化项。
4.根据权利要求3所述的基于关系路径与双层注意力的知识图谱嵌入方法,其特征在于,步骤2具体包括如下步骤:
步骤2.1.从双层编码器中获取实体嵌入表示的分布pembed,同时从简单的高斯先验分布中采样噪音数据,并将其输入到生成器G中:
Figure FDA0003277464390000045
Figure FDA0003277464390000046
Figure FDA0003277464390000047
其中,xnoise表示从高斯先验分布中采样的噪音数据,
Figure FDA0003277464390000048
b′i分别为权重系数和偏置系数,pnoise表示噪音数据服从简单先验分布,
Figure FDA0003277464390000049
表示高斯先验分布,u表示期望值,∑表示标准差,k表示堆叠的隐藏层的个数,表示f(·)表示非线性激活函数,通过生成器可以将服从简单先验分布的噪音数据映射为较复杂的分布;
步骤2.2.将嵌入表示作为正样本,生成样本作为假样本输入到判别器D中,当对抗博弈的过程达到平衡时,判别器无法区别输入的数据来自于生成器还是编码器,通过式(20)进行对抗训练达到理想状态:
Figure FDA0003277464390000051
其中,minG表示生成器尝试最小化交叉熵损失,maxD表示判别器尝试最大化交叉熵损失,
Figure FDA0003277464390000052
表示实体嵌入服从pembed分布,
Figure FDA0003277464390000053
表示噪音数据服从pnoise分布。
CN202111122504.7A 2021-09-24 2021-09-24 一种基于关系路径与双层注意力的知识图谱嵌入方法 Active CN113806559B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111122504.7A CN113806559B (zh) 2021-09-24 2021-09-24 一种基于关系路径与双层注意力的知识图谱嵌入方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111122504.7A CN113806559B (zh) 2021-09-24 2021-09-24 一种基于关系路径与双层注意力的知识图谱嵌入方法

Publications (2)

Publication Number Publication Date
CN113806559A true CN113806559A (zh) 2021-12-17
CN113806559B CN113806559B (zh) 2024-04-30

Family

ID=78940381

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111122504.7A Active CN113806559B (zh) 2021-09-24 2021-09-24 一种基于关系路径与双层注意力的知识图谱嵌入方法

Country Status (1)

Country Link
CN (1) CN113806559B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116451785A (zh) * 2023-06-16 2023-07-18 安徽思高智能科技有限公司 一种面向操作关系的rpa知识图谱构建与操作推荐方法
CN117332785A (zh) * 2023-10-10 2024-01-02 山东省计算中心(国家超级计算济南中心) 一种从网络安全威胁情报联合抽取实体与关系的方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190130212A1 (en) * 2017-10-30 2019-05-02 Nec Laboratories America, Inc. Deep Network Embedding with Adversarial Regularization
CN109902183A (zh) * 2019-02-13 2019-06-18 北京航空航天大学 一种基于多样图注意力机制的知识图谱嵌入方法
CN111949764A (zh) * 2020-08-18 2020-11-17 桂林电子科技大学 一种基于双向注意力机制的知识图谱补全方法
CN112329918A (zh) * 2020-10-28 2021-02-05 东南大学 一种基于注意力机制的对抗正则化网络嵌入方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190130212A1 (en) * 2017-10-30 2019-05-02 Nec Laboratories America, Inc. Deep Network Embedding with Adversarial Regularization
CN109902183A (zh) * 2019-02-13 2019-06-18 北京航空航天大学 一种基于多样图注意力机制的知识图谱嵌入方法
CN111949764A (zh) * 2020-08-18 2020-11-17 桂林电子科技大学 一种基于双向注意力机制的知识图谱补全方法
CN112329918A (zh) * 2020-10-28 2021-02-05 东南大学 一种基于注意力机制的对抗正则化网络嵌入方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CHEN LI 等: "Hierarchical Attention Networks for Knowledge Base Completion via Joint Adversarial Training", ARXIV, 14 October 2020 (2020-10-14), pages 1 - 9 *
王媛 等: "一种用于实体关系三元组抽取的位置辅助分步标记方法", DATA ANALYSIS AND KNOWLEDGE DISCOVERY, vol. 5, no. 10, 6 June 2021 (2021-06-06), pages 71 - 79 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116451785A (zh) * 2023-06-16 2023-07-18 安徽思高智能科技有限公司 一种面向操作关系的rpa知识图谱构建与操作推荐方法
CN116451785B (zh) * 2023-06-16 2023-09-01 安徽思高智能科技有限公司 一种面向操作关系的rpa知识图谱构建与操作推荐方法
CN117332785A (zh) * 2023-10-10 2024-01-02 山东省计算中心(国家超级计算济南中心) 一种从网络安全威胁情报联合抽取实体与关系的方法
CN117332785B (zh) * 2023-10-10 2024-03-01 山东省计算中心(国家超级计算济南中心) 一种从网络安全威胁情报联合抽取实体与关系的方法

Also Published As

Publication number Publication date
CN113806559B (zh) 2024-04-30

Similar Documents

Publication Publication Date Title
CN109639710B (zh) 一种基于对抗训练的网络攻击防御方法
CN113806559A (zh) 一种基于关系路径与双层注意力的知识图谱嵌入方法
CN109800317B (zh) 一种基于图像场景图谱对齐的图像查询回答方法
CN110941794A (zh) 一种基于通用逆扰动防御矩阵的对抗攻击防御方法
CN108829756B (zh) 一种利用分层注意力上下文网络解决多轮视频问答的方法
CN112464004A (zh) 一种多视角深度生成图像聚类方法
CN113157957A (zh) 一种基于图卷积神经网络的属性图文献聚类方法
CN113268993B (zh) 基于互信息的属性异构信息网络无监督网络表示学习方法
CN114610897A (zh) 基于图注意力机制的医学知识图谱关系预测方法
CN115658912A (zh) 一种知识图谱的优化方法、系统及储存介质
CN114898086B (zh) 一种基于级联温控蒸馏的目标关键点检测方法
CN111598252B (zh) 基于深度学习的大学计算机基础知识解题方法
CN116386899A (zh) 基于图学习的药物疾病关联关系预测方法及相关设备
CN117201122A (zh) 基于视图级图对比学习的无监督属性网络异常检测方法及系统
Ma et al. Adaptive distillation for decentralized learning from heterogeneous clients
CN114969078A (zh) 一种联邦学习的专家研究兴趣实时在线预测更新方法
CN113987203A (zh) 一种基于仿射变换与偏置建模的知识图谱推理方法与系统
CN107491735A (zh) 人类行为识别的标签和交互关系联合学习方法
CN114037014A (zh) 基于图自编码器的引用网络聚类方法
CN112329918A (zh) 一种基于注意力机制的对抗正则化网络嵌入方法
CN111382871A (zh) 基于数据扩充一致性的领域泛化和领域自适应学习方法
CN116226547A (zh) 基于流式数据的增量图推荐方法
CN114911879A (zh) 一种基于图注意力网络的刑事案件知识图谱关系推理方法
CN115131605A (zh) 一种基于自适应子图的结构感知图对比学习方法
CN115238271A (zh) 基于生成学习的ai安全性检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant