CN116579425A - 基于全局和局部层级注意力的超关系知识图谱补全方法 - Google Patents

基于全局和局部层级注意力的超关系知识图谱补全方法 Download PDF

Info

Publication number
CN116579425A
CN116579425A CN202310855908.XA CN202310855908A CN116579425A CN 116579425 A CN116579425 A CN 116579425A CN 202310855908 A CN202310855908 A CN 202310855908A CN 116579425 A CN116579425 A CN 116579425A
Authority
CN
China
Prior art keywords
embedding
node
attention
super
superside
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310855908.XA
Other languages
English (en)
Other versions
CN116579425B (zh
Inventor
鄂海红
罗浩然
宋美娜
孙明志
姚天宇
汤子辰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Posts and Telecommunications
Original Assignee
Beijing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Posts and Telecommunications filed Critical Beijing University of Posts and Telecommunications
Priority to CN202310855908.XA priority Critical patent/CN116579425B/zh
Publication of CN116579425A publication Critical patent/CN116579425A/zh
Application granted granted Critical
Publication of CN116579425B publication Critical patent/CN116579425B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Animal Behavior & Ethology (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了基于全局和局部层级注意力的超关系知识图谱补全方法,该方法包括:基于输入超关系知识图谱嵌入模型的数据构建超图;将实体输入超图双向注意力层,以根据第一节点嵌入和第一超边嵌入得到节点到超边的注意力,并基于注意力进行超边的节点信息聚合得到第二超边嵌入,以基于第二超边嵌入得到第二节点嵌入;基于第二节点嵌入转化得到局部超关系事实序列中的实体嵌入,并将实体嵌入输入至所述局部异构自注意力层,以利用输出得到的注意力值和对应的第三节点嵌入得到最终嵌入;对第二节点嵌入和最终嵌入进行评分,并根据评分结果计算的预测损失进行超关系知识图谱嵌入模型的补全任务。本发明可以精准地解决超关系知识图谱补全任务。

Description

基于全局和局部层级注意力的超关系知识图谱补全方法
技术领域
本发明涉及信息技术及数据业务技术领域,特别是涉及基于全局和局部层级注意力的超关系知识图谱补全方法。
背景技术
知识图谱是大规模语义网络知识库,采取符号化的知识表示方式,利用三元组(subject,relation,object)来描述具体的知识,并以有向图的形式对其进行表示和存储,具有语义丰富、结构友好、易于理解等优点。由于在表达人类先验知识上具有优良的特性,知识图谱近年来在自然语言处理、问答系统、推荐系统等诸多领域取得了广泛且成功的应用。然而,知识图谱通常存在链接缺失问题,这限制了知识图谱在相关下游任务中的应用。为解决该问题,知识图谱补全任务应运而生。知识图谱补全旨在根据知识图谱中已有事实推断出新的事实,从而使得知识图谱更完整。知识图谱嵌入是解决知识图谱补全问题的重要方法之一,它通过将知识图谱中的实体和关系嵌入到连续向量空间,从而在方便计算的同时保留知识图谱中的结构信息。因此,一个好的知识图谱嵌入方法对知识图谱的应用会起到很大帮助。
在现实世界的知识图谱中,超关系是描述事实的重要关系,其相较于原始的三元组形式,能够更加全面的表示现实信息。因此,近年来出现了许多针对超关系知识图谱(HKG)补全任务的研究,其中效果最好的即为基于嵌入的超关系知识图谱补全方法。
目前现存的超关系知识图谱嵌入方法主要有分为两类,一类是将超关系知识图谱视为形如的超图形式,其主要考虑超关系知识图谱的图结构信息,用图学习的方法来解决超关系知识图谱的补全问题,该类;另一类则将超关系知识图谱视为由一个主三元组/>和辅助键值对/>组成的超关系事实序列结构,其考虑单个事实中的实体重要程度,使用自然语言处理领域的各类方法来解决超关系知识图谱补全问题。然而,超关系知识图谱同时具有全局超图结构和局部超关系事实序列结构,以往的方法都只考虑了单个结构包含的信息,显然,这样学习到的嵌入是不完全的,其很难在补全任务上有更进一步的表现。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本发明提出了一种基于全局和局部层级注意力的超关系知识图谱补全方法,更加精准地解决超关系知识图谱补全任务。
本发明的另一个目的在于提出一种基于全局和局部层级注意力的超关系知识图谱补全装置。
为达上述目的,本发明一方面提出一种基于全局和局部层级注意力的超关系知识图谱补全方法,包括:
基于输入超关系知识图谱嵌入模型的数据构建超图;其中,所述超关系知识图谱嵌入模型,包括超图双向注意力层和局部异构自注意力层;
将实体输入所述超图双向注意力层,以根据第一节点嵌入和第一超边嵌入得到节点到超边的注意力,并基于所述注意力进行超边的节点信息聚合得到第二超边嵌入,以基于第二超边嵌入得到第二节点嵌入;
基于所述第二节点嵌入转化得到局部超关系事实序列中的实体嵌入,并将所述实体嵌入输入至所述局部异构自注意力层,以利用输出得到的注意力值和对应的第三节点嵌入得到最终嵌入;
对所述第二节点嵌入和所述最终嵌入进行评分,并根据评分结果计算的预测损失进行超关系知识图谱嵌入模型的补全任务。
为达上述目的,本发明另一方面提出一种用于路径跟踪任务的车辆模型在线辨识装置,包括:
超图构建模块,用于基于输入超关系知识图谱嵌入模型的数据构建超图;其中,所述超关系知识图谱嵌入模型,包括超图双向注意力层和局部异构自注意力层;
全局注意力模块,用于将实体输入所述超图双向注意力层,以根据第一节点嵌入和第一超边嵌入得到节点到超边的注意力,并基于所述注意力进行超边的节点信息聚合得到第二超边嵌入,以基于第二超边嵌入得到第二节点嵌入;
局部注意力模块,用于基于所述第二节点嵌入转化得到局部超关系事实序列中的实体嵌入,并将所述实体嵌入输入至所述局部异构自注意力层,以利用输出得到的注意力值和对应的第三节点嵌入得到最终嵌入;
超关系事实评分模块,用于对所述第二节点嵌入和所述最终嵌入进行评分,并根据评分结果计算的预测损失进行超关系知识图谱嵌入模型的补全任务。
本发明实施例的基于全局和局部层级注意力的超关系知识图谱补全方法和装置,用来同时建模全局超图结构和局部超关系事实序列结构上的实体和超关系信息,进而获得包含全局和局部信息的实体、关系嵌入;从而更加精准地解决超关系知识图谱补全任务。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1根据本发明实施例的基于全局和局部层级注意力的超关系知识图谱补全方法的流程图;
图2是根据本发明实施例的HAHE模型在超关系知识图谱上的全局和局部结构示意图;
图3是根据本发明实施例的基于全局和局部层级注意力的超关系知识图谱补全装置的结构示意图。
具体实施方式
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本发明。
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
下面参照附图描述根据本发明实施例提出的基于全局和局部层级注意力的超关系知识图谱补全方法和装置。
图1是本发明实施例的基于全局和局部层级注意力的超关系知识图谱补全方法的流程图。
如图1所示,该方法包括但不限于以下步骤:
S1,基于输入超关系知识图谱嵌入模型的数据构建超图;其中,超关系知识图谱嵌入模型,包括超图双向注意力层和局部异构自注意力层;
S2,将实体输入超图双向注意力层,以根据第一节点嵌入和第一超边嵌入得到节点到超边的注意力,并基于注意力进行超边的节点信息聚合得到第二超边嵌入,以基于第二超边嵌入得到第二节点嵌入;
S3,基于第二节点嵌入转化得到局部超关系事实序列中的实体嵌入,并将实体嵌入输入至所述局部异构自注意力层,以利用输出得到的注意力值和对应的第三节点嵌入得到最终嵌入;
S4,对第二节点嵌入和最终嵌入进行评分,并根据评分结果计算的预测损失进行超关系知识图谱嵌入模型的补全任务。
根据本发明实施例的基于全局和局部层级注意力的超关系知识图谱补全方法,可以精准地解决超关系知识图谱补全任务。
下面结合附图对本发明实施例的基于全局和局部层级注意力的超关系知识图谱补全方法进行详细阐述。
本发明实施例如下问题定义:
可以理解的是,超关系知识图谱由超关系事实组成。通常来说,一个超关系事实可以被表示为的形式,其中表示主三元组,/>表示m个辅助键值对。
超关系知识图谱上的链接预测任务即为预测超关系事实中的缺失元素,该元素可以为等实体或者/>等关系。
超图学习即考虑超关系知识图谱上的图结构。超关系知识图谱的超图结构,包含一个节点集/>以及一个超边集/>,同时还包含一个记录每条超边权重的关联矩阵/>,其值定义如下:
其中,/>。对于一个属于节点集/>的节点e,其度可定义为,其表示节点e在不同的超关系事实中出现的总次数。
多位置预测是一个比单位置链接预测更有实际意义的新任务。对于超关系知识图谱链接预测,在主三元组中,本发明实施例可以根据已知的两个元素预测另一个剩下的元素,比如。在辅助键值对中,本发明实施例可以根据一个已知的键或者值,来预测剩下的一个元素,比如/>。因此,在实际的链接预测中,经常会出现需要预测两个或多个位置的例子。举例来说,/>需要预测一个三元组中的元素以及一个辅助键值对中的元素,或者/>需要预测两个辅助键值对中的值。本发明将需要预测两个或多个位置的元素的任务定义为超关系知识图谱上的多位置预测任务。
进一步地,为了同时建模超关系知识图谱上的超图和序列结构,本发明提出了超关系知识图谱嵌入模型装置HAHE,其总体框架如图2所示。其主要分为三全局注意力、局部注意力以及超关系事实评分。
全局注意力:将送入模型的数据构建成超图,并使用注意力机制学习该超图的结构信息。
局部注意力:将全局注意力模块传来的数据分为单个事实,并使用注意力对事实内部实体和关系数据之间的语义信息进行学习。
超关系事实评分:将通过两个注意力模块更新后的数据嵌入进行评分,并计算预测损失。
通过这三个学习,HAHE就可以应用于超关系知识图谱补全任务。下面对这三个部分的具体实现以及整体模型的学习目标进行详细描述。
作为本发明的一个实施例,本发明实施例首先让实体嵌入通过超图双向注意力层,进而学习到超图中的结构信息。以往的超图注意力网络都会通过将与同一超边连接的所有实体做一个全连接,进而将超图转化为普通图,接着在该普通图上进行图注意力学习。然而,这种方法会引入额外的信息损失,使得学习到的嵌入不准确。本发明实施例首先将实体作为超图中的节点,并初始化其嵌入为,其中/>且/>是嵌入维度;并将超关系事实作为超边,将其嵌入初始化为/>,其中/>。接着,使用参数/>来将节点和超边的嵌入映射到同一空间中。从节点到超边的注意力为:
其中是超边/>与节点/>之间的相关程度,att是从节点到超边的注意力函数,其由仅含拼接操作的单层神经网络构成。/>与/>的对应关系由提到的关联矩阵/>给出。接着,本发明实施例通过/>将节点信息聚合到超边上:
其中为更新后的超边嵌入,/>为激活函数。这样,本发明实施例就完成了单向的注意力。接着,本发明实施例用类似的方式计算超边到节点的注意力,并基于此聚合超边的信息到对应节点上:
其中表示更新过的超边/>与节点/>之间的相关程度,/>是超边到节点的注意力,/>是更新后的节点嵌入。通过这种方式,本发明实施例实现了节点和超边之间的双向注意力信息传播,并且使用多头注意力、多层神经网络以及残差链接等方法学习到了完整的超图结构信息,更新了实体嵌入。
进一步地,在超图双向注意力层之后,更新过的节点嵌入就通过超边与超关系事实的对应关系转化成序列中的实体嵌入,并送入局部异构序列自注意力层进行学习。
作为本发明的一个实施例,每个序列中都包括/>5类节点,以及这14类边。因此,本发明实施例设计了同时包含节点异构和边异构的异构自注意力层来学习局部超关系事实序列的语义信息。超关系事实中的各个元素都通过这一注意力层来更新嵌入:
其中表示同一超关系事实中一个元素/>与另一元素/>之间的相关程度。/>是超关系事实中元素之间的语义注意力。/>分别表示节点的query、key、value线性权重矩阵;/>表示节点/>和/>在超关系事实序列中的相对位置参数,用来表示边异构。最后利用得到的注意力值/>和对应的节点嵌入来更新实体和关系嵌入,得到的最终嵌入为/>。这样,即可学习到局部超关系事实序列内部的语义信息。
进一步地,更新过的序列嵌入则用于预测超关系事实中缺失位置的元素。本发明实施例使用MLP解码器来得到在整个实体集或关系集上的答案概率分布。为了提高训练的收敛速度,本发明实施例使用MASK策略来进行,即设置一个[MASK],其可以替换超关系事实中2m+3个位置中任一实体或关系,其中m为辅助键值对的数量。进而利用更新完的[MASK]嵌入与所有实体或关系的相关性得分来对该位置的实体、关系进行预测。解码器定义如下:
其中,是实体嵌入矩阵。/>经过一个softmax操作得到,表示/>是整个超关系知识图谱中每个实体的概率。
最终的训练损失由预测目标与所有实体之间的预测概率相似度得出:
其中是标签y中的第t个元素。由于每个预测都包含多个答案,本发明实施例使用标签平滑策略来定义标签y。即将目标实体位置的元素值定为/>,并将其他位置的元素值定为/>,其中标签平滑率/>
对于多位置预测,由于全连接注意力机制,HAHE可以通过[MASK]机制来掩盖超关系事实中多个位置的元素以此实现多位置预测任务。在通过MLP解码器后。本发明实施例可以获得多个位置的预测概率分布,进而可以利用同样的学习策略来获得损失,并完成学习任务。
根据本发明实施例的基于全局和局部层级注意力的超关系知识图谱补全方法,通过同时建模超关系知识图谱的全局超图结构和局部序列结构来分别学习图结构信息和超关系事实中的语义信息,从而可以学习到更加准确的实体和关系嵌入,更有利于知识图谱的链接预测以及实体分类任务。通过使结构信息从节点流向超边再流回节点,来使实体嵌入学习到足够的结构信息,进而使得下一层注意力层的初始嵌入更准确。同时考虑节点异构和边异构,能够更好的学习到序列内部的语义信息。定义了超关系知识图谱上的多位置预测任务,同时给出了该任务的评价指标,使得往后本领域的研究可以在这一更贴近现实情况的任务上进行训练。能够有效的解决超关系知识图谱补全任务。
为了实现上述实施例,如图3所示,本实施例中还提供了基于全局和局部层级注意力的超关系知识图谱补全装置10,该装置10包括,超图构建模块100、全局注意力模块200、局部注意力模块300和超关系事实评分模块400。
超图构建模块100,用于基于输入超关系知识图谱嵌入模型的数据构建超图;其中,超关系知识图谱嵌入模型,包括超图双向注意力层和局部异构自注意力层;
全局注意力模块200,用于将实体输入超图双向注意力层,以根据第一节点嵌入和第一超边嵌入得到节点到超边的注意力,并基于注意力进行超边的节点信息聚合得到第二超边嵌入,以基于第二超边嵌入得到第二节点嵌入;
局部注意力模块300,用于基于第二节点嵌入转化得到局部超关系事实序列中的实体嵌入,并将实体嵌入输入至所述局部异构自注意力层,以利用输出得到的注意力值和对应的第三节点嵌入得到最终嵌入;
超关系事实评分模块400,用于对第二节点嵌入和最终嵌入进行评分,并根据评分结果计算的预测损失进行超关系知识图谱嵌入模型的补全任务。
进一步地,上述全局注意力模块200,还用于:
将实体作为超图中的节点,并初始化节点嵌入为,其中/>且/>是嵌入维度;
将超关系事实作为超边,并将超边嵌入初始化为,其中/>
利用参数将节点嵌入和超边嵌入映射到同一空间中。
进一步地,上述全局注意力模块200,还用于:
从节点到超边的注意力为:
其中是超边/>与节点/>之间的相关程度,att是从节点到超边的注意力函数,/>与/>的对应关系通过关联矩阵/>得到,通过/>将节点信息聚合到超边上:
其中为更新后的超边嵌入,/>为激活函数,计算超边到节点的注意力,并基于聚合超边的信息到对应节点上:
其中表示更新过的超边/>与节点/>之间的相关程度,/>是超边到节点的注意力,/>是更新后的节点嵌入。
进一步地,上述局部注意力模块300,还用于:
将超关系事实中的各个元素通过局部异构自注意力层来更新嵌入:
其中,表示同一超关系事实中一个元素/>与另一元素/>之间的相关程度,/>是超关系事实中元素之间的语义注意力,/>分别表示节点的query、key、value线性权重矩阵;/>表示节点/>和/>在超关系事实序列中的相对位置参数,用来表示边异构。
根据本发明实施例的基于全局和局部层级注意力的超关系知识图谱补全装置,通过同时建模超关系知识图谱的全局超图结构和局部序列结构来分别学习图结构信息和超关系事实中的语义信息,从而可以学习到更加准确的实体和关系嵌入,更有利于知识图谱的链接预测以及实体分类任务。通过使结构信息从节点流向超边再流回节点,来使实体嵌入学习到足够的结构信息,进而使得下一层注意力层的初始嵌入更准确。同时考虑节点异构和边异构,能够更好的学习到序列内部的语义信息。定义了超关系知识图谱上的多位置预测任务,同时给出了该任务的评价指标,使得往后本领域的研究可以在这一更贴近现实情况的任务上进行训练。能够有效的解决超关系知识图谱补全任务。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、 “示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。

Claims (10)

1.一种基于全局和局部层级注意力的超关系知识图谱补全方法,其特征在于,包括以下步骤:
基于输入超关系知识图谱嵌入模型的数据构建超图;其中,所述超关系知识图谱嵌入模型,包括超图双向注意力层和局部异构自注意力层;
将实体输入所述超图双向注意力层,以根据第一节点嵌入和第一超边嵌入得到节点到超边的注意力,并基于所述注意力进行超边的节点信息聚合得到第二超边嵌入,以基于第二超边嵌入得到第二节点嵌入;
基于所述第二节点嵌入转化得到局部超关系事实序列中的实体嵌入,并将所述实体嵌入输入至所述局部异构自注意力层,以利用输出得到的注意力值和对应的第三节点嵌入得到最终嵌入;
对所述第二节点嵌入和所述最终嵌入进行评分,并根据评分结果计算的预测损失进行超关系知识图谱嵌入模型的补全任务。
2.根据权利要求1所述的方法,其特征在于,在所述根据第一节点嵌入和第一超边嵌入得到节点到超边的注意力之前,所述方法,还包括:
将实体作为超图中的节点,并初始化节点嵌入为,其中/>且/>是嵌入维度;
将超关系事实作为超边,并将超边嵌入初始化为,其中/>
利用参数将节点嵌入和超边嵌入映射到同一空间中。
3.根据权利要求1所述的方法,其特征在于,所述根据第一节点嵌入和第一超边嵌入得到节点到超边的注意力,并基于所述注意力进行超边的节点信息聚合得到第二超边嵌入,以基于第二超边嵌入得到第二节点嵌入,包括:
从节点到超边的注意力为:
其中是超边/>与节点/>之间的相关程度,att是从节点到超边的注意力函数,/>与/>的对应关系通过关联矩阵/>得到,通过/>将节点信息聚合到超边上:
其中为更新后的超边嵌入,/>为激活函数,计算超边到节点的注意力,并基于聚合超边的信息到对应节点上:
其中表示更新过的超边/>与节点/>之间的相关程度,/>是超边到节点的注意力,/>是更新后的节点嵌入。
4.根据权利要求3所述的方法,其特征在于,所述基于所述第二节点嵌入转化得到局部超关系事实序列中的实体嵌入,并将所述实体嵌入输入至所述局部异构自注意力层,包括:
将超关系事实中的各个元素通过局部异构自注意力层来更新嵌入:
其中表示同一超关系事实中一个元素/>与另一元素/>之间的相关程度,/>是超关系事实中元素之间的语义注意力,/>分别表示节点的query、key、value线性权重矩阵;/>表示节点/>和/>在超关系事实序列中的相对位置参数,用来表示边异构。
5.根据权利要求4所述的方法,其特征在于,所述得到最终嵌入之后,所述方法,还包括:利用所述最终嵌入预测超关系事实中缺失位置的元素,以利用MLP解码器得到在整个实体集或关系集上的答案概率分布:
解码器定义如下:
其中,是实体嵌入矩阵,/>经过一个softmax操作得到,表示/>是整个超关系知识图谱中每个实体的预测概率。
6.根据权利要求5所述的方法,其特征在于,所述预测损失通过预测目标与所有实体之间的预测概率相似度得到:
其中,是标签y中的第t个元素,利用标签平滑策略定义标签y,即将目标实体位置的元素值定为/>,并将其他位置的元素值定为/>,其中标签平滑率/>
7.一种基于全局和局部层级注意力的超关系知识图谱补全装置,其特征在于,包括:
超图构建模块,用于基于输入超关系知识图谱嵌入模型的数据构建超图;其中,所述超关系知识图谱嵌入模型,包括超图双向注意力层和局部异构自注意力层;
全局注意力模块,用于将实体输入所述超图双向注意力层,以根据第一节点嵌入和第一超边嵌入得到节点到超边的注意力,并基于所述注意力进行超边的节点信息聚合得到第二超边嵌入,以基于第二超边嵌入得到第二节点嵌入;
局部注意力模块,用于基于所述第二节点嵌入转化得到局部超关系事实序列中的实体嵌入,并将所述实体嵌入输入至所述局部异构自注意力层,以利用输出得到的注意力值和对应的第三节点嵌入得到最终嵌入;
超关系事实评分模块,用于对所述第二节点嵌入和所述最终嵌入进行评分,并根据评分结果计算的预测损失进行超关系知识图谱嵌入模型的补全任务。
8.根据权利要求7所述的装置,其特征在于,所述全局注意力模块,还用于:
将实体作为超图中的节点,并初始化节点嵌入为,其中/>且/>是嵌入维度;
将超关系事实作为超边,并将超边嵌入初始化为,其中/>
利用参数将节点嵌入和超边嵌入映射到同一空间中。
9.根据权利要求8所述的装置,其特征在于,所述全局注意力模块,还用于:
从节点到超边的注意力为:
其中是超边/>与节点/>之间的相关程度,att是从节点到超边的注意力函数,/>与/>的对应关系通过关联矩阵/>得到,通过/>将节点信息聚合到超边上:
其中为更新后的超边嵌入,/>为激活函数,计算超边到节点的注意力,并基于聚合超边的信息到对应节点上:
其中表示更新过的超边/>与节点/>之间的相关程度,/>是超边到节点的注意力,/>是更新后的节点嵌入。
10.根据权利要求9所述的装置,其特征在于,所述局部注意力模块,还用于:
将超关系事实中的各个元素通过局部异构自注意力层来更新嵌入:
其中,表示同一超关系事实中一个元素/>与另一元素/>之间的相关程度,/>是超关系事实中元素之间的语义注意力,/>分别表示节点的query、key、value线性权重矩阵;/>表示节点/>和/>在超关系事实序列中的相对位置参数,用来表示边异构。
CN202310855908.XA 2023-07-13 2023-07-13 基于全局和局部层级注意力的超关系知识图谱补全方法 Active CN116579425B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310855908.XA CN116579425B (zh) 2023-07-13 2023-07-13 基于全局和局部层级注意力的超关系知识图谱补全方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310855908.XA CN116579425B (zh) 2023-07-13 2023-07-13 基于全局和局部层级注意力的超关系知识图谱补全方法

Publications (2)

Publication Number Publication Date
CN116579425A true CN116579425A (zh) 2023-08-11
CN116579425B CN116579425B (zh) 2024-02-06

Family

ID=87545694

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310855908.XA Active CN116579425B (zh) 2023-07-13 2023-07-13 基于全局和局部层级注意力的超关系知识图谱补全方法

Country Status (1)

Country Link
CN (1) CN116579425B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116894097A (zh) * 2023-09-04 2023-10-17 中南大学 一种基于超图建模的知识图谱标签预测方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114064627A (zh) * 2021-11-24 2022-02-18 北京工商大学 一种针对多重关系的知识图谱链接补全方法及系统
CN114817568A (zh) * 2022-04-29 2022-07-29 武汉科技大学 联合注意力机制与卷积神经网络的知识超图链接预测方法
CN115269866A (zh) * 2022-07-15 2022-11-01 北京邮电大学 基于双视图超关系嵌入框架的知识图谱补全方法
CN115292509A (zh) * 2022-06-29 2022-11-04 武汉科技大学 基于多粒度注意力网络的图立方链接预测方法
CN116340524A (zh) * 2022-11-11 2023-06-27 华东师范大学 一种基于关系自适应网络的小样本时态知识图谱补全方法
US20230206603A1 (en) * 2022-09-19 2023-06-29 Nanjing University Of Posts And Telecommunications High-precision point cloud completion method based on deep learning and device thereof

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114064627A (zh) * 2021-11-24 2022-02-18 北京工商大学 一种针对多重关系的知识图谱链接补全方法及系统
CN114817568A (zh) * 2022-04-29 2022-07-29 武汉科技大学 联合注意力机制与卷积神经网络的知识超图链接预测方法
CN115292509A (zh) * 2022-06-29 2022-11-04 武汉科技大学 基于多粒度注意力网络的图立方链接预测方法
CN115269866A (zh) * 2022-07-15 2022-11-01 北京邮电大学 基于双视图超关系嵌入框架的知识图谱补全方法
US20230206603A1 (en) * 2022-09-19 2023-06-29 Nanjing University Of Posts And Telecommunications High-precision point cloud completion method based on deep learning and device thereof
CN116340524A (zh) * 2022-11-11 2023-06-27 华东师范大学 一种基于关系自适应网络的小样本时态知识图谱补全方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116894097A (zh) * 2023-09-04 2023-10-17 中南大学 一种基于超图建模的知识图谱标签预测方法
CN116894097B (zh) * 2023-09-04 2023-12-22 中南大学 一种基于超图建模的知识图谱标签预测方法

Also Published As

Publication number Publication date
CN116579425B (zh) 2024-02-06

Similar Documents

Publication Publication Date Title
CN112015868B (zh) 基于知识图谱补全的问答方法
US11151096B2 (en) Dynamic syntactic affinity group formation in a high-dimensional functional information system
CN108172047B (zh) 一种网络在线学习资源个性化实时推荐方法
CN116579425B (zh) 基于全局和局部层级注意力的超关系知识图谱补全方法
CN115186097A (zh) 一种基于知识图谱和强化学习的交互式推荐方法
CN109919236A (zh) 一种基于标签相关性的bp神经网络多标签分类方法
Wang Fuzzy comprehensive evaluation of physical education based on high dimensional data mining
CN116129286A (zh) 基于知识图谱的图神经网络遥感图像分类方法
CN117350330A (zh) 基于混合教学的半监督实体对齐方法
Pierrard et al. A new approach for explainable multiple organ annotation with few data
CN115631008B (zh) 商品推荐方法、装置、设备及介质
CN112905750A (zh) 一种优化模型的生成方法和设备
CN117058882A (zh) 一种基于多特征双判别器的交通数据补偿方法
Zhong A convolutional neural network based online teaching method using edge-cloud computing platform
CN115840853A (zh) 一种基于知识图谱和图注意力网络的课程推荐系统
CN115269866A (zh) 基于双视图超关系嵌入框架的知识图谱补全方法
CN115934966A (zh) 基于遥感影像推荐信息的自动标注方法
Boongoen et al. Fuzzy qualitative link analysis for academic performance evaluation
CN111882124B (zh) 一种基于生成对抗模仿学习的同质平台发展效应预测方法
CN115034837A (zh) 一种基于知识图谱的产品销量预测方法、设备和介质
Liu Restricted Boltzmann machine collaborative filtering recommendation algorithm based on project tag improvement
Shi et al. Recognizing the take-off action pattern of basketball players based on fuzzy neural network system
Garg et al. Employing Deep Neural Network for Early Prediction of Students’ Performance
Guan An online education course recommendation method based on knowledge graphs and reinforcement learning
Dong et al. Research on Information Fusion Method of English Teaching Reform Based on Reinforcement Learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant