CN113095439A - 基于注意力机制的异构图嵌入学习方法 - Google Patents

基于注意力机制的异构图嵌入学习方法 Download PDF

Info

Publication number
CN113095439A
CN113095439A CN202110479995.4A CN202110479995A CN113095439A CN 113095439 A CN113095439 A CN 113095439A CN 202110479995 A CN202110479995 A CN 202110479995A CN 113095439 A CN113095439 A CN 113095439A
Authority
CN
China
Prior art keywords
node
attention
meta
path
embedding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110479995.4A
Other languages
English (en)
Inventor
裴文江
包雅孟
夏亦犁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN202110479995.4A priority Critical patent/CN113095439A/zh
Publication of CN113095439A publication Critical patent/CN113095439A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种基于注意力机制的异构图嵌入学习方法,包括如下步骤:步骤1,通过类型转换矩阵将异构图中的所有节点转换到统一的特征空间;步骤2,设计类型级注意力学习给定节点对于不同类别的邻居的注意力权重;步骤3,设计节点级注意力学习基于元路径的邻居节点注意力权重,并根据注意力权重进行加权聚合得到基于特定元路径的节点嵌入;步骤4,设计语义级注意力学习不同元路径的注意力权重,并根据注意力权重对基于不同元路径下的节点嵌入进行加权聚合,得到最终的节点嵌入;步骤5,对节点标签进行预测训练;步骤6,设计损失函数,利用反向传播算法进行模型优化训练。本发明的工作为如何将注意力机制应用到异构图提供了新的研究思路。

Description

基于注意力机制的异构图嵌入学习方法
技术领域
本发明涉及一种基于注意力机制的异构图嵌入学习方法,属于图神经网络与人工智能领域。
背景技术
近年来,一种特殊类型的图称为异构信息图(HIN)已成为网络挖掘研究的热点。杂边和节点的异构图形代表了复杂的关系,比如推荐系统,论文引用网络等。HIN最重要的特征是元路径,它反映了节点-边缘元组中的语义关系。以论文引文网络为例,两篇论文的关系可以作为Paper-Author-Paper插图(合著者关系)和Paper-Subject-Paper(同主题关系)。从上面列出的元组中,可以看到在一个异构图中,不同的连接模式包含不同的关系,而传统的同构图深度网络无法处理异构网络中复杂的、跨模式的交互。注意力机制在深度学习中被广泛应用,它可以处理大小可变的数据,并使得模型倾向于关注数据中最显著的部分。图注意力网络(graph attention network,GAT)是一种专门用于处理图结构数据的神经网络模型,但是它只处理单一类型节点或边的非异构图。相比与同构图嵌入学习,异构图更加的复杂。
发明内容
本发明的目的是提供一种基于注意力机制的异构图嵌入学习方法,在基于自注意力以及多头注意力的基础上,结合层次注意力结构,设计了一个新的基于三层注意力机制的异构图嵌入学习模型。
为实现上述目的,本发明采用如下技术方案:
一种基于注意力机制的异构图嵌入学习方法,包括如下步骤:
步骤1,通过类型转换矩阵将异构图中的所有节点转换到统一的特征空间;
步骤2,设计类型级注意力学习给定节点对于不同类别的邻居的注意力权重;
步骤3,设计节点级注意力学习基于元路径的邻居节点注意力权重,并根据注意力权重进行加权聚合得到基于特定元路径的节点嵌入;
步骤4,设计语义级注意力学习不同元路径的注意力权重,并根据注意力权重对基于不同元路径下的节点嵌入进行加权聚合,得到最终的节点嵌入;
步骤5,对节点标签进行预测训练;
步骤6,设计损失函数,利用反向传播算法进行模型优化训练。
所述步骤1中,由于异构图中包含不同类型的节点,通过类型转换矩阵将所有节点转换到统一的特征空间:
h′i=Mτ·hi
其中,Mτ是投影特征,hi和h′i分别是投影前后的节点特征。
所述步骤2包括以下步骤:
步骤21,给定节点vi,定义其关于类型τ的邻域嵌入表示为
Figure BDA0003048810610000021
Figure BDA0003048810610000022
即对节点vi的类型为τ的邻居节点特征求和,其中,
Figure BDA0003048810610000023
为归一化后的邻接矩阵,
Figure BDA0003048810610000024
vj表示vi的邻居节点,
Figure BDA0003048810610000025
是节点vi的邻居节点中类型为τ的节点集合;
步骤22,基于节点vi的投影后的节点特征h′i和其关于类型τ的邻域嵌入表示
Figure BDA0003048810610000026
计算节点vi关于τ类型邻域的注意力分数:
Figure BDA0003048810610000027
其中,||表示连接操作,
Figure BDA0003048810610000028
是τ类型的注意力向量,所有节点共享该注意力向量;σ(·)表示激活函数;上标T表示转置;
步骤23,通过softmax函数对所有类型的注意力分数进行规范化,获得类型级别的注意权重:
Figure BDA0003048810610000029
所述步骤3包括以下步骤:
步骤31,基于自注意力(self-attention)设计节点级别的注意力系数:给定通过元路径Φ连接的节点对(vi,vj),通过将节点对的表示拼接起来并利用注意力向量来学习节点与其邻居间的重要性;
Figure BDA00030488106100000210
Figure BDA00030488106100000211
其中,attnode表示计算节点级注意力的深层神经网络,节点对(vi,vj)的重要性分数
Figure BDA00030488106100000212
表明了vj对vi的重要程度,
Figure BDA00030488106100000213
是不对称的,即节点vi对节点vj的重要性和节点vj对节点vi的重要性可能有很大的不同;
Figure BDA00030488106100000214
是节点对(vi,vj)的注意力分数,σ表示激活函数,||表示拼接操作,
Figure BDA0003048810610000031
是注意力向量(参数),
Figure BDA0003048810610000032
表示针对类型为τj的节点vj的类型级注意力权重;
步骤32,通过节点级别的聚合操作来学习特定语义的节点嵌入表示,每个节点的嵌入表示都是由其邻居表示加权聚合得到;
Figure BDA0003048810610000033
其中,
Figure BDA0003048810610000034
是节点在某条元路径下的嵌入表示,给定某条元路径,节点级别注意力学习到节点在某个语义下的表示;
步骤33,将节点级的注意力重复计算R次,并将学习到的嵌入进行连接,学习到基于元路径Φ的嵌入表示
Figure BDA0003048810610000035
Figure BDA0003048810610000036
其中,r=1,2…R;
给定元路径集合{Φ01,…,ΦP},其中包含P个不同的元路径,在进行节点级别注意力计算之后,得到P组特定语义的节点嵌入表示
Figure BDA0003048810610000037
所述步骤4包括以下步骤:
步骤41,给定元路径集合,节点级别注意力用来学习到不同语义下的节点表示,利用语义级别注意力来学习语义的重要性并融合多个语义下的节点表示,语义级别注意力的形式化描述如下:
Figure BDA0003048810610000038
其中,
Figure BDA0003048810610000039
是各个元路径的注意力权重,attsem表示深层神经网络,执行语义级注意的,利用单层神经网络和语义级别注意力向量来学习各个语义的重要性并通过softmax来进行归一化;
步骤42,给定元路径集合{Φ01,…,ΦP},对于每个节点,都能够得到P组特定语义的节点嵌入表示
Figure BDA00030488106100000310
步骤43,采用自注意力机制将每个节点在不同的元路径上的不同的嵌入进行聚合,首先定义三个矩阵Query Matrix Q,Key Matrix K和Value Matrix V:
Figure BDA0003048810610000041
Figure BDA0003048810610000042
Figure BDA0003048810610000043
依据自注意力模型self-attention model计算基于该元路径的的节点嵌入的重要性:
Figure BDA0003048810610000044
其中,|V|表示在元路径φ上节点的数量,d指维度大小的平方根,q是语义关系的只注意力向量;
在获得每个元路径的重要性分数后,通过softmax函数对其进行归一化,则元路径φp的权重系数为:
Figure BDA0003048810610000045
所有上述参数对于所有元路径和特定于语义的嵌入都是共享的,
Figure BDA0003048810610000046
能够解释为元路径Φp对特定任务的贡献,显然,
Figure BDA0003048810610000047
越高,元路径Φp就越重要;通过对多个语义进行加权融合,得到最终的节点表示得到最终的节点嵌入Z:
Figure BDA0003048810610000048
所述步骤5中,使用多层感知机或者是softmax函数对节点标签进行预测。
所述步骤6包括以下步骤:
步骤61,最终的节点嵌入由所有特定语义的嵌入聚合,将最终的节点嵌入应用到特定的任务中,并设计不同的损失函数;对于半监督节点分类,最小化有类标签节点的预测类标签分布与真实类标签的交叉熵:
Figure BDA0003048810610000049
其中,C是分类器的参数,yL是有标签的节点索引集,Yl和Zl是有标签节点的标签和嵌入表示;
步骤62,在标记数据的引导下,通过反向传播算法和学得的节点嵌入优化模型参数。
有益效果:本发明提出一种基于注意力机制的异构图嵌入学习算法,在基于自注意力以及多头注意力的基础上,结合层次注意力结构,设计了一个新的基于三层注意力机制的异构图嵌入学习模型。该模型遵循一个层次注意结构,包含类型级注意力、节点级注意力和语义级注意力。首先通过类型转换矩阵将所有节点转换到统一的特征空间,接着进入分层注意力模块,分别是类型级注意力、节点级注意力和语义级注意力,从而得到针对特定任务的内含特定语义的节点嵌入。最后通过MLP层预测节点的标签。本发明利用基于层次注意力机制的异构图嵌入模型对ACM数据集和IMDB数据集进行节点分类实验,结果表明,相对于基于深度图神经网络的模型HAN,本模型都取得更好地分类准确率,在ACM数据集上micro-f1和macro-f1分别提升了1.9%和1.85%。另外,本发明的工作为如何将注意力机制应用到异构图提供了新的研究思路。
附图说明
图1为基于注意力机制的异构图嵌入模型整体架构。
具体实施方式
下面结合附图及具体实施方式对本发明做进一步说明。
图1展示了本发明的整体架构。首先通过类型转换矩阵将所有节点转换到统一的特征空间,接着进入分层注意力模块。得到针对特定任务的内含特定语义的节点嵌入后,通过MLP层预测节点的标签。
首先,本发明中使用的符号总结在表1中:
表1符号及相应解释
Figure BDA0003048810610000051
本发明的一种基于注意力机制的异构图嵌入学习方法,包括以下步骤:
(1)通过类型转换矩阵将异构图中的所有节点转换到统一的特征空间;
由于异构图中包含不同类型的节点,所以首先通过类型转换矩阵将所有节点转换到统一的特征空间:
h′i=Mτ·hi
其中Mτ是投影特征,hi和h′i分别是投影前后的节点特征。
(2)设计类型级注意力学习给定节点对于不同类别的邻居的注意力权重;
通常,给定一个特定的节点,不同类型下相邻节点可能会对其产生不同的影响。例如,相同类型的相邻节点可以携带更多有用的信息。此外,同类型下各相邻节点也可能具有不同的重要性。为此,设计了一种新的三层注意力机制。
类型级注意力可以学习到不同类别的邻居的权重系数。首先,给定节点vi,定义其关于类型τ的邻域嵌入表示为
Figure BDA0003048810610000061
即对节点vi的类型为τ的邻居节点特征求和,其中,
Figure BDA0003048810610000062
为归一化后的邻接矩阵,
Figure BDA0003048810610000063
vj表示vi的邻居节点,
Figure BDA0003048810610000064
是节点vi的邻居节点中类型为τ的节点集合。
之后,基于节点vi的嵌入表示向量(即投影后的节点特)hi和类型嵌入表示
Figure BDA0003048810610000065
计算节点vi关于τ类型邻域的注意力分数:
Figure BDA0003048810610000066
其中||表示连接操作,
Figure BDA0003048810610000067
是τ类型的注意力向量(参数),所有节点共享该参数,上标T表示转置,σ(·)表示激活函数,如Leaky ReLU。
之后,通过使用softmax函数对所有类型的注意得分进行规范化,获得类型级别的注意权重:
Figure BDA0003048810610000068
(3)设计节点级注意力学习基于元路径的邻居节点注意力权重,并根据注意力权重进行加权聚合得到基于特定元路径的节点嵌入;
在聚合每个节点的元路径邻居信息之前,可以注意到每个节点的基于元路径的邻居在特定任务的节点嵌入学习中扮演着不同的角色,并显示出不同的重要性。这里引入了节点级注意力,从而可以学习到基于元路径的邻居对于异构图中每个节点的重要性,并将这些有意义的邻居的表示聚合起来形成节点嵌入。
在具体任务中,一个节点在元路径上的邻居节点有不同的重要性。节点级注意力能够学习一个节点基于元路径的邻居节点的表示作为该节点的嵌入。基于自注意力(self-attention)来设计节点级别的注意力系数。给定通过元路径Φ连接的节点对(vi,vj),通过将节点对的表示拼接起来并利用注意力向量来学习节点与其邻居间的重要性。
Figure BDA0003048810610000071
Figure BDA0003048810610000072
其中,attnode表示计算节点级注意力的深层神经网络,节点对(vi,vj)的重要性分数
Figure BDA0003048810610000073
表明了vj对vi的重要程度,
Figure BDA0003048810610000074
是不对称的,即节点vi对节点vj的重要性和节点vj对节点vi的重要性可能有很大的不同;
Figure BDA0003048810610000075
是节点对(vi,vj)的注意力分数,σ表示激活函数,||表示拼接操作,
Figure BDA0003048810610000076
是注意力向量(参数),
Figure BDA0003048810610000077
表示针对类型为τj的节点vj的类型级注意力权重。
结果表明,节点级注意力可以保持非对称性,这是异质图的一个重要性质。最后,通过节点级别的聚合操作来学习特定语义的节点嵌入表示。每个节点的嵌入表示都是由其邻居表示加权聚合得到。
Figure BDA0003048810610000078
其中,
Figure BDA0003048810610000079
是节点在某条元路径下的嵌入表示。给定某条元路径,节点级别注意力可以学习到节点在某个语义下的表示。但是,在实际异质图中往往存在多条不同语义的元路径,单条元路径只能反映节点某一方面的信息。为了全面的描述节点,需要融合多条元路径的语义信息。
由于异构图具有无标度特性,因此图数据的方差很大。为了解决上述问题,将节点级注意力扩展成使用多头注意力机制,使训练过程更加稳定。具体来说,将节点级的注意力重复计算R次,并将学习到的嵌入进行连接,学习到基于元路径Φ的嵌入表示
Figure BDA00030488106100000710
Figure BDA00030488106100000711
其中,r=1,2…R;
给定元路径集合{Φ01,…,ΦP},在进行节点级别注意力计算之后,可以得到P组特定语义的节点嵌入表示
Figure BDA00030488106100000712
(4)设计语义级注意力学习不同元路径的注意力权重,并根据注意力权重对基于不同元路径下的节点嵌入进行加权聚合,得到最终的节点嵌入;
给定元路径集合,节点级别注意力用来学习到不同语义下的节点表示。进一步,可以利用语义级别注意力来学习语义的重要性并融合多个语义下的节点表示。语义级别注意力的形式化描述如下:
Figure BDA0003048810610000081
其中,
Figure BDA0003048810610000082
是各个元路径的注意力权重。attsem表示深层神经网络,执行语义级注意的,具体来说,利用单层神经网络和语义级别注意力向量来学习各个语义(元路径)的重要性并通过softmax来进行归一化。
给定元路径集合{Φ01,…,ΦP},对于每个节点,都可以得到P组特定语义(元路径)的节点嵌入表示
Figure BDA0003048810610000083
考虑到每个节点在不同的元路径上有不同的嵌入表示,这里考虑采用自注意力机制将它们进行聚合。首先定义三个矩阵Query Matrix Q,Key Matrix K和Value Matrix V。
Figure BDA0003048810610000084
Figure BDA0003048810610000085
Figure BDA0003048810610000086
依据自注意力模型self-attention model[77]计算基于该元路径的的节点嵌入的重要性:
Figure BDA0003048810610000087
这里|V|表示在元路径φ上节点的数量,d指维度大小的平方根,q是语义关系的只注意力向量。在获得每个元路径的重要性分数后,通过softmax函数对其进行归一化。则元路径φp的权重系数为:
Figure BDA0003048810610000088
注意,为了进行有意义的比较,所有上述参数对于所有元路径和特定于语义的嵌入都是共享的。
Figure BDA0003048810610000089
可以解释为元路径Φp对特定任务的贡献。显然,
Figure BDA00030488106100000810
越高,元路径Φp就越重要。通过对多个语义(元路径)进行加权融合,可以得到最终的节点表示。注意,这里的元路径权重是针对特定任务优化的。对于不同的任务,元路径Φp可能有不同的权重。将学习到的权值作为系数,将这些语义特定的嵌入进行融合,得到最终的嵌入Z,如下所示:
Figure BDA0003048810610000091
(5)使用多层感知机或者是softmax函数对节点标签进行预测训练;
(6)设计损失函数,利用反向传播算法进行模型优化训练;
最终的嵌入由所有特定语义的嵌入聚合。然后将最终的嵌入应用到特定的任务中,并设计不同的损失函数。对于半监督节点分类,最小化有类标签节点的预测类标签分布与真实类标签的交叉熵:
Figure BDA0003048810610000092
其中C是分类器的参数,yL是有标签的节点索引集,Yl和Zl是有标签节点的标签和嵌入表示。在标记数据的引导下,通过反向传播算法和学得的节点嵌入优化模型参数。
基于注意力机制的异构图嵌入学习算法伪代码如表2所示。
表2异构图嵌入模型算法流程
Figure BDA0003048810610000093
Figure BDA0003048810610000101
本发明主要使用ACM数据集和IMDB数据集来进行节点分类测试模型的分类准确率。
ACM:将发表在KDD、SIGMOD、SIGCOMM、MobiCOMM以及VLDB上的论文抓取出来,并将它们分为三类(数据库、无线通信和数据挖掘),之后构建一个异构图,其中包含3025篇文章(P),5835个作者(A)和56个主题(S),以及两种类型的元路径:PAP(文章---作者---文章)和PSP(文章---主题---文章)。论文特征为对应于关键词表示的词袋中的元素,将论文发表的会议作为它们的标签。
IMDB:这里提取IMDB的一个子集用于实验,数据集包含4780部电影(M),5841名演员(A)和2269名导演(D),以及三种类型的元路径:MAM(电影---演员---电影)和MDM(电影---导演---电影)。其中,只有电影节点存在标签,电影节点存在三种不同类型:动作片、喜剧片、戏剧。电影特征为情节关键词对应的一组词袋中的元素。
这里将数据集划分为三个部分,分别为训练集、验证集、测试集。其中对于ACM数据集,随机选取600篇论文作为训练集,300篇论文用于验证集,其余都作为测试集。对于IBDM数据集,随机选取300个电影作为训练集,300个电影用于验证集,其余都作为测试集。
对于模型设置,首先随机初始化学习参数,使用Adam算法来优化模型,另外,对于一些超参数的设置:学习速率设为0.005,L2正则化项系数为0.001,语义级注意向量q维度为128,多头注意力机制中多头数量为8,dropout丢失率为0.6,加入早停机制(验证集准确度30epoch不变,则停止训练)。为了公平起见,这里设置所有方法的嵌入为维度都为64。由于图结构数据的方差可能很大,因此重复测试20次并报告平均后的Macro-F1和Micro-F1指标。
至此便完成了基于注意力机制的异构图嵌入学习算法。
使用ACM数据集和IMDB数据集做半监督节点分类实验,首先随机初始化学习参数,使用Adam算法来优化模型,另外,对于一些超参数的设置:学习速率设为0.005,L2正则化项系数为0.001,语义级注意向量q维度为128,多头注意力机制中多头数量为8,dropout丢失率为0.6,加入早停机制(验证集准确度100epoch不变,则停止训练)。为了公平起见,这里设置所有方法的嵌入为维度都为64。由于图结构数据的方差可能很大,因此重复测试20次并报告平均后的Macro-F1和Micro-F1指标。
基于ACM数据集测试结果如表3所示。
表3基于ACM数据集测试结果
Figure BDA0003048810610000111
基于IMDB数据集测试结果如表4所示。
表4基于IMDB数据集测试结果
Figure BDA0003048810610000112
至此完成了基于ACM数据集和IMDB数据集的节点分类测试。
以上所述仅是本发明的优选实施方式,应当指出:对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (7)

1.一种基于注意力机制的异构图嵌入学习方法,其特征在于:包括如下步骤:
步骤1,通过类型转换矩阵将异构图中的所有节点转换到统一的特征空间;
步骤2,设计类型级注意力学习给定节点对于不同类别的邻居的注意力权重;
步骤3,设计节点级注意力学习基于元路径的邻居节点注意力权重,并根据注意力权重进行加权聚合得到基于特定元路径的节点嵌入;
步骤4,设计语义级注意力学习不同元路径的注意力权重,并根据注意力权重对基于不同元路径下的节点嵌入进行加权聚合,得到最终的节点嵌入;
步骤5,对节点标签进行预测训练;
步骤6,设计损失函数,利用反向传播算法进行模型优化训练。
2.根据权利要求1所述的基于注意力机制的异构图嵌入学习方法,其特征在于:所述步骤1中,由于异构图中包含不同类型的节点,通过类型转换矩阵将所有节点转换到统一的特征空间:
h′i=Mτ·hi
其中,Mτ是投影特征,hi和h′i分别是投影前后的节点特征。
3.根据权利要求1所述的基于注意力机制的异构图嵌入学习方法,其特征在于:所述步骤2包括以下步骤:
步骤21,给定节点vi,定义其关于类型τ的邻域嵌入表示为
Figure FDA0003048810600000011
Figure FDA0003048810600000012
即对节点vi的类型为τ的邻居节点特征求和,其中,
Figure FDA0003048810600000013
为归一化后的邻接矩阵,
Figure FDA0003048810600000014
vj表示vi的邻居节点,
Figure FDA0003048810600000015
是节点vi的邻居节点中类型为τ的节点集合;
步骤22,基于节点vi的投影后的节点特征h′i和其关于类型τ的邻域嵌入表示
Figure FDA0003048810600000016
计算节点vi关于τ类型邻域的注意力分数:
Figure FDA0003048810600000017
其中,||表示连接操作,
Figure FDA0003048810600000018
是τ类型的注意力向量,所有节点共享该注意力向量;σ(·)表示激活函数;上标T表示转置;
步骤23,通过softmax函数对所有类型的注意力分数进行规范化,获得类型级别的注意权重:
Figure FDA0003048810600000021
4.根据权利要求1所述的基于注意力机制的异构图嵌入学习方法,其特征在于:所述步骤3包括以下步骤:
步骤31,基于自注意力(self-attention)设计节点级别的注意力系数:给定通过元路径Φ连接的节点对(vi,vj),通过将节点对的表示拼接起来并利用注意力向量来学习节点与其邻居间的重要性;
Figure FDA0003048810600000022
Figure FDA0003048810600000023
其中,attnode表示计算节点级注意力的深层神经网络,节点对(vi,vj)的重要性分数
Figure FDA0003048810600000024
表明了vj对vi的重要程度,
Figure FDA0003048810600000025
是不对称的,即节点vi对节点vj的重要性和节点vj对节点vi的重要性可能有很大的不同;
Figure FDA0003048810600000026
是节点对(vi,vj)的注意力分数,σ表示激活函数,||表示拼接操作,
Figure FDA0003048810600000027
是注意力向量(参数),
Figure FDA0003048810600000028
表示针对类型为τj的节点vj的类型级注意力权重;
步骤32,通过节点级别的聚合操作来学习特定语义的节点嵌入表示,每个节点的嵌入表示都是由其邻居表示加权聚合得到;
Figure FDA0003048810600000029
其中,
Figure FDA00030488106000000210
是节点在某条元路径下的嵌入表示,给定某条元路径,节点级别注意力学习到节点在某个语义下的表示;
步骤33,将节点级的注意力重复计算R次,并将学习到的嵌入进行连接,学习到基于元路径Φ的嵌入表示
Figure FDA00030488106000000211
Figure FDA00030488106000000212
其中,r=1,2…R;
给定元路径集合{Φ01,…,ΦP},其中包含P个不同的元路径,在进行节点级别注意力计算之后,得到P组特定语义的节点嵌入表示
Figure FDA0003048810600000031
5.根据权利要求1所述的基于注意力机制的异构图嵌入学习方法,其特征在于:所述步骤4包括以下步骤:
步骤41,给定元路径集合,节点级别注意力用来学习到不同语义下的节点表示,利用语义级别注意力来学习语义的重要性并融合多个语义下的节点表示,语义级别注意力的形式化描述如下:
Figure FDA0003048810600000032
其中,
Figure FDA0003048810600000033
是各个元路径的注意力权重,attsem表示深层神经网络,执行语义级注意的,利用单层神经网络和语义级别注意力向量来学习各个语义的重要性并通过softmax来进行归一化;
步骤42,给定元路径集合{Φ01,…,ΦP},对于每个节点,都能够得到P组特定语义的节点嵌入表示
Figure FDA0003048810600000034
步骤43,采用自注意力机制将每个节点在不同的元路径上的不同的嵌入进行聚合,首先定义三个矩阵Query Matrix Q,Key Matrix K和Value Matrix V:
Figure FDA0003048810600000035
Figure FDA0003048810600000036
Figure FDA0003048810600000037
依据自注意力模型self-attention model计算基于该元路径的的节点嵌入的重要性:
Figure FDA0003048810600000038
其中,|V|表示在元路径φ上节点的数量,d指维度大小的平方根,q是语义关系的只注意力向量;
在获得每个元路径的重要性分数后,通过softmax函数对其进行归一化,则元路径φp的权重系数为:
Figure FDA0003048810600000039
所有上述参数对于所有元路径和特定于语义的嵌入都是共享的,
Figure FDA0003048810600000041
能够解释为元路径Φp对特定任务的贡献,显然,
Figure FDA0003048810600000042
越高,元路径Φp就越重要;通过对多个语义进行加权融合,得到最终的节点表示得到最终的节点嵌入Z:
Figure FDA0003048810600000043
6.根据权利要求1所述的基于注意力机制的异构图嵌入学习方法,其特征在于:所述步骤5中,使用多层感知机或者是softmax函数对节点标签进行预测。
7.根据权利要求1所述的基于注意力机制的异构图嵌入学习方法,其特征在于:所述步骤6包括以下步骤:
步骤61,最终的节点嵌入由所有特定语义的嵌入聚合,将最终的节点嵌入应用到特定的任务中,并设计不同的损失函数;对于半监督节点分类,最小化有类标签节点的预测类标签分布与真实类标签的交叉熵:
Figure FDA0003048810600000044
其中,C是分类器的参数,yL是有标签的节点索引集,Yl和Zl是有标签节点的标签和嵌入表示;
步骤62,在标记数据的引导下,通过反向传播算法和学得的节点嵌入优化模型参数。
CN202110479995.4A 2021-04-30 2021-04-30 基于注意力机制的异构图嵌入学习方法 Pending CN113095439A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110479995.4A CN113095439A (zh) 2021-04-30 2021-04-30 基于注意力机制的异构图嵌入学习方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110479995.4A CN113095439A (zh) 2021-04-30 2021-04-30 基于注意力机制的异构图嵌入学习方法

Publications (1)

Publication Number Publication Date
CN113095439A true CN113095439A (zh) 2021-07-09

Family

ID=76680950

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110479995.4A Pending CN113095439A (zh) 2021-04-30 2021-04-30 基于注意力机制的异构图嵌入学习方法

Country Status (1)

Country Link
CN (1) CN113095439A (zh)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113554100A (zh) * 2021-07-28 2021-10-26 湖南科技大学 异构图注意力网络增强的Web服务分类方法
CN113762334A (zh) * 2021-07-26 2021-12-07 南昌航空大学 一种采用深度强化学习评估异质社交网络关键节点的方法
CN113836425A (zh) * 2021-09-29 2021-12-24 平安科技(深圳)有限公司 基于异构图注意力网络的电影推荐方法、装置及设备
CN113869992A (zh) * 2021-12-03 2021-12-31 平安科技(深圳)有限公司 基于人工智能的产品推荐方法、装置、电子设备及介质
CN114286113A (zh) * 2021-12-24 2022-04-05 国网陕西省电力有限公司西咸新区供电公司 基于多头异构卷积自编码器的图像压缩恢复方法及系统
CN114329099A (zh) * 2021-11-22 2022-04-12 腾讯科技(深圳)有限公司 重叠社区识别方法、装置、设备、存储介质及程序产品
CN114565053A (zh) * 2022-03-10 2022-05-31 天津大学 基于特征融合的深层异质图嵌入模型
CN114692976A (zh) * 2022-04-01 2022-07-01 重庆大学 基于半监督图嵌入框架的出行意图预测方法
CN114944192A (zh) * 2022-06-22 2022-08-26 湖南科技大学 一种基于图注意力的疾病相关环状rna识别方法
CN115086004A (zh) * 2022-06-10 2022-09-20 中山大学 一种基于异质图的安全事件识别方法及系统
CN115507852A (zh) * 2022-09-07 2022-12-23 广东工业大学 一种基于区块链和强化注意力学习的多无人机路径规划方法
CN116257659A (zh) * 2023-03-31 2023-06-13 华中师范大学 一种智能导学系统的动态图嵌入方法及系统
CN116383446A (zh) * 2023-04-06 2023-07-04 哈尔滨工程大学 一种基于异构引文网络的作者分类方法
CN116993433A (zh) * 2023-07-14 2023-11-03 重庆邮电大学 一种基于大数据的互联网电商异常用户检测方法
CN117708821A (zh) * 2024-02-06 2024-03-15 山东省计算中心(国家超级计算济南中心) 基于异构图嵌入的勒索软件检测方法、系统、设备及介质

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113762334A (zh) * 2021-07-26 2021-12-07 南昌航空大学 一种采用深度强化学习评估异质社交网络关键节点的方法
CN113554100A (zh) * 2021-07-28 2021-10-26 湖南科技大学 异构图注意力网络增强的Web服务分类方法
CN113836425A (zh) * 2021-09-29 2021-12-24 平安科技(深圳)有限公司 基于异构图注意力网络的电影推荐方法、装置及设备
CN114329099A (zh) * 2021-11-22 2022-04-12 腾讯科技(深圳)有限公司 重叠社区识别方法、装置、设备、存储介质及程序产品
CN113869992A (zh) * 2021-12-03 2021-12-31 平安科技(深圳)有限公司 基于人工智能的产品推荐方法、装置、电子设备及介质
CN113869992B (zh) * 2021-12-03 2022-03-18 平安科技(深圳)有限公司 基于人工智能的产品推荐方法、装置、电子设备及介质
CN114286113A (zh) * 2021-12-24 2022-04-05 国网陕西省电力有限公司西咸新区供电公司 基于多头异构卷积自编码器的图像压缩恢复方法及系统
CN114286113B (zh) * 2021-12-24 2023-05-30 国网陕西省电力有限公司西咸新区供电公司 基于多头异构卷积自编码器的图像压缩恢复方法及系统
CN114565053B (zh) * 2022-03-10 2023-05-19 天津大学 基于特征融合的深层异质图嵌入模型
CN114565053A (zh) * 2022-03-10 2022-05-31 天津大学 基于特征融合的深层异质图嵌入模型
CN114692976A (zh) * 2022-04-01 2022-07-01 重庆大学 基于半监督图嵌入框架的出行意图预测方法
CN114692976B (zh) * 2022-04-01 2024-05-07 重庆大学 基于半监督图嵌入框架的出行意图预测方法
CN115086004A (zh) * 2022-06-10 2022-09-20 中山大学 一种基于异质图的安全事件识别方法及系统
CN115086004B (zh) * 2022-06-10 2023-08-29 中山大学 一种基于异质图的安全事件识别方法及系统
CN114944192A (zh) * 2022-06-22 2022-08-26 湖南科技大学 一种基于图注意力的疾病相关环状rna识别方法
CN115507852A (zh) * 2022-09-07 2022-12-23 广东工业大学 一种基于区块链和强化注意力学习的多无人机路径规划方法
CN115507852B (zh) * 2022-09-07 2023-11-03 广东工业大学 一种基于区块链和强化注意力学习的多无人机路径规划方法
CN116257659A (zh) * 2023-03-31 2023-06-13 华中师范大学 一种智能导学系统的动态图嵌入方法及系统
CN116383446A (zh) * 2023-04-06 2023-07-04 哈尔滨工程大学 一种基于异构引文网络的作者分类方法
CN116993433A (zh) * 2023-07-14 2023-11-03 重庆邮电大学 一种基于大数据的互联网电商异常用户检测方法
CN117708821A (zh) * 2024-02-06 2024-03-15 山东省计算中心(国家超级计算济南中心) 基于异构图嵌入的勒索软件检测方法、系统、设备及介质
CN117708821B (zh) * 2024-02-06 2024-04-30 山东省计算中心(国家超级计算济南中心) 基于异构图嵌入的勒索软件检测方法、系统、设备及介质

Similar Documents

Publication Publication Date Title
CN113095439A (zh) 基于注意力机制的异构图嵌入学习方法
CN112989064B (zh) 一种聚合知识图神经网络和自适应注意力的推荐方法
Qi et al. Link prediction across networks by biased cross-network sampling
Zhang et al. Cross-domain recommendation with semantic correlation in tagging systems
CN113918832B (zh) 基于社交关系的图卷积协同过滤推荐系统
WO2023155508A1 (zh) 一种基于图卷积神经网络和知识库的论文相关性分析方法
CN113918834B (zh) 融合社交关系的图卷积协同过滤推荐方法
Gao et al. CNL: collective network linkage across heterogeneous social platforms
CN114565053A (zh) 基于特征融合的深层异质图嵌入模型
CN113918833A (zh) 通过社交网络关系的图卷积协同过滤实现的产品推荐方法
Chuang et al. TPR: Text-aware preference ranking for recommender systems
Wang et al. Decoupled representation learning for attributed networks
Xue et al. Relation-based multi-type aware knowledge graph embedding
Li et al. Self-supervised nodes-hyperedges embedding for heterogeneous information network learning
CN113128667A (zh) 一种跨域自适应的图卷积平衡迁移学习方法与系统
Li et al. Capsule neural tensor networks with multi-aspect information for Few-shot Knowledge Graph Completion
Han et al. A triple-branch neural network for knowledge graph embedding
Qi et al. Breaking the barrier to transferring link information across networks
Liu et al. Truth inference with bipartite attention graph neural network from a comprehensive view
CN115689639A (zh) 一种基于深度学习的商业广告点击率预测方法
CN115269853A (zh) 一种基于模体的异构图神经网络假新闻检测算法
Zhao et al. A novel embedding learning framework for relation completion and recommendation based on graph neural network and multi-task learning
CN113297500A (zh) 一种社交网络孤立节点链接预测方法
He et al. Optimal Recommendation Models Based on Knowledge Representation Learning and Graph Attention Networks
CN114254738A (zh) 双层演化的动态图卷积神经网络模型构建方法及应用

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination