CN112966706A - 一种基于图注意力机制的多层网络表示学习方法 - Google Patents
一种基于图注意力机制的多层网络表示学习方法 Download PDFInfo
- Publication number
- CN112966706A CN112966706A CN202011460565.XA CN202011460565A CN112966706A CN 112966706 A CN112966706 A CN 112966706A CN 202011460565 A CN202011460565 A CN 202011460565A CN 112966706 A CN112966706 A CN 112966706A
- Authority
- CN
- China
- Prior art keywords
- network
- layer
- loss function
- node
- matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/29—Graphical models, e.g. Bayesian networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种基于图注意力机制的多层网络表示学习方法,步骤1、获取多层网络拓扑信息;其中,所述网络拓扑信息包括各层网络的层内邻接矩阵和跨层连接矩阵;步骤2、构建各层基于图注意力机制的网络表示学习模型;步骤3、将各层网络的层内邻接矩阵分别输入网络表示学习模型进行模型训练获得各层网络的节点表示向量;步骤4、通过网络表示学习模型的层内连接损失函数和跨层连接损失函数构建网络表示学习模型整体损失函数;步骤5、通过网络表示学习模型整体损失函数判断网络表示学习模型是否满足收敛条件;如果满足,输出各层网络最终的低维表示向量;否则返回步骤3;该方法能够处理不同类型节点,同时考虑层内连接信息和跨层连接信息的多层网络表示学习方法。
Description
技术领域
本发明属于多层网络表示方法的技术领域,特别涉及一种基于图注意力机制的多层异构 网络表示学习方法。
背景技术
网络作为一种重要的数据表示形式,是表达事物之间关联关系的有效载体,在实际生活 中无处不在。有效的网络分析可以使许多应用受益,例如节点分类,节点聚类,节点检索或 推荐,链路预测等。然而,随着信息时代的发展,所面临的信息网络越来越复杂,各行各业 对数据处理的速度和有效性也提出了更高的需求。采用邻接矩阵这种高维稀疏的编码方式来 表示网络中的节点,大多数网络形分析方法都会遇到高额的计算和空间成本等问题,很难被 机器学习算法处理。
因此,网络表示学习开始引起关注。网络表示学习主要用于学习网络数据在低维潜在空 间中的向量表示。然后,在学习到的低维空间上应用传统的机器学习算法,用于之后的网络 分析任务。这种表示方法不仅能够刻画网络的结构,并且有利于减少计算成本。
最近十多年来,复杂网络表示学习取得许多重要的成果。但是,现有的网表示学习大多 数的研究还是集中单层网络,却忽略了现实中多种网络相互作用的存在,例如由航空网、铁 路网和公路网组成的交通网络,以及基因网络、代谢网络、蛋白质–蛋白质相互作用网络等。 所以单层网络已经不能满足实际研究的要求。
此外,在实际的应用中,由于测量误差和数据访问限制,单一的网络中往往会包含一些 假节点和假连接(即网络中的数据噪声),还有一些丢失的节点和丢失的连接(即网络数据的 不完整性),这些缺陷会大大影响网络表示学习所得到表示向量的质量,但是单一网络错误或 者缺失的信息,可以通过与他相关联的网络的信息来进行纠正或者补充。因此,单一网络表 示学习的局限性的一个有效方法之一,就是利用多层相关联网络中的补充信息来提高表示学 习的质量。因此,多层网络表示学习成为当今复杂网络表示学习领域最前沿的重要研究方向 之一。
发明内容
本发明提出了一种基于图注意力机制的多层网络表示学习方法,该方法能够处理不同类 型节点,同时考虑层内连接信息和跨层连接信息的多层网络表示学习方法。
为解决现有技术存在的问题,本发明采用如下技术方案予以实施:
一种基于图注意力机制的多层网络表示学习方法,包括如下步骤:
步骤1、获取多层网络拓扑信息;其中,所述网络拓扑信息包括各层网络的层内邻接矩 阵和跨层连接矩阵;
步骤2、构建各层基于图注意力机制的网络表示学习模型;
步骤3、将各层网络的层内邻接矩阵分别输入网络表示学习模型进行模型训练获得各层 网络的节点表示向量;
步骤4、通过网络表示学习模型的层内连接损失函数和跨层连接损失函数构建网络表示 学习模型整体损失函数;
重复训练步骤2中的模型,直到模型收敛或者到达预先设定的训练次数;
步骤5、通过网络表示学习模型整体损失函数判断网络表示学习模型是否满足收敛条件; 如果满足,输出各层网络最终的低维表示向量;否则返回步骤3。
进一步,所述单层网络表示学习模型搭建过程:
步骤2.1、确定图注意力层输入数据为:网络中节点的特征向量集;
步骤2.2、确定图注意力层输出数据为:新的节点特征表示向量;
其中,F′表示新的节点特征向量维度;
步骤2.3、针对每个节点,计算它与网络其他节点之间的注意力系数:
其中,为注意力机制,是一个单层的前馈神经网络;更具体地,是连接神 经网络中层与层之间的权重矩阵;为表达矩阵节点输入特征矩阵与输出特征矩阵 之间的关系的权重矩阵;eij表示第i个节点和第j个节点之间的注意力系数;
步骤2.4、对注意力系数eij进行归一化处理,得到归一化后的注意力系数αij;具体计算 方式如下:
其中,||是连接操作符,将两个矩阵拼接起来;.T表示矩阵的转置;Ni表示网络中第i个节 点的所有邻居节点集合;LeakyReLu函数计算方式如下:
其中,t为该函数赋予所有负值的非零斜率;
步骤2.5、通过注意力机制来计算每个节点的输出表示向量,具体计算方式如下:
其中,σ为非线性激活函数sigmoid,具体计算方式如下:
进一步,所述步骤3中的将各层网络的层内邻接矩阵一共含有g个邻接矩阵,具体如下:
A={A1,A2,…,Ag}
进一步,所述步骤4中网络表示学习模型整体损失函数过程:
步骤4.1、构建层内连接损失函数,采用网络重构的方式进行计算。第l层网络的层内连 接损失函数,其具体计算方式如下:
步骤4.2、构建跨层连接损失函数,具体计算方式如下:
对于矩阵Dl,k中的任意元素值Dl,k(i,j),其归一化后的值为:
步骤4.3、根据步骤4.1所定义的层内损失函数和步骤4.2所定义的跨层损失函数,定 义模型整体的损失函数,具体定义方式如下:
其中,l∈[1,g],Loss(l)表示第l层网络的整体损失函数;其中,δ为自定参数,表示跨 层损失函数在整体损失函数中的权重。
有益效果
本发明提出了一种能够处理不同类型节点,同时考虑层内连接信息和跨层连接信息的多 层网络表示学习方法,具有如下特点:
1,能够对多层异质网络进行表示学习;
2,节点表示向量保留多层网络中的层内连接信息和跨层连接信息;
3,采用基于图注意力机制的方式进行表示学习模型训练。
附图说明
图1为本发明方法的流程图;
图2为本发明方法的模型总体架构示例图;
具体实施方式:
以下结合实施案例和附图,对本发明的技术和方法进行详细描述,以下案例和附图用于 说明本发明的构成,但不是用来限定本发明的范围。
如图1本发明的技术方案是基于图注意机制对多层异质网络进行表示学习,包括如下步骤:
步骤1、获取多层网络拓扑信息;其中,所述网络拓扑信息包括各层网络的层内邻接矩阵 和跨层连接矩阵;更具体地,所述步骤1中的多层网络可表示为:
G={G1,G2,…,Gg}
其中,g为网络层数,具体值为3。
更具体地,所述步骤1中的各层网络层内邻接矩阵可表示为:
A={A1,A2,…,Ag}
其中,ni为第i层网络的节点数量。
而且,所述步骤1中的跨层连接矩阵可表示为:
D={Dk,l,Dk,l+1,…,Dk,g}
步骤2、搭建基于图注意力机制的单层网络表示学习模型;
所述步骤2中多层网络表示学习模型为一种基于图注意力机制的多层网络表示学习模型; 更进一步地,所述图注意力机制模型搭建步骤具体如下:
步骤2.1、确定图注意力层输入数据为:网络中各层的邻接矩阵。具体如下:
其中,n为节点个数,F为节点特征的个数。
步骤2.2、确定图注意力层输出数据为:新的节点特征表示向量。具体如下:
其中,F′表示新的节点特征向量维度,具体值为100。
步骤2.3、针对每个节点,计算它与网络其他节点之间的注意力系数:
其中,eij表示第i个节点和第j个节点之间的注意力系数。
步骤2.4、对注意力系数eij进行归一化处理,得到归一化后的注意力系数αij。具体计算 方式如下:
其中,||是连接操作符,将两个矩阵拼接起来。
其中,.T表示矩阵的转置。
其中,Ni表示网络中第i个节点的所有邻居节点集合。
其中,在本发明中LeakyReLu具体计算方式如下:
步骤2.5、通过注意力机制来计算每个节点的输出表示向量,具体计算方式如下:
其中,σ为非线性激活函数sigmoid,具体计算方式如下:
步骤3、将各层网络的层内邻接矩阵分别输入到步骤2中所述的网络表示学习模型;使 用步骤2中所述的网络表示学习,以及步骤3中所述的输入数据进行模型训练,得到各层网 络的节点初始表示向量。
所述步骤3中的将各层网络的层内邻接矩阵一共含有g个邻接矩阵,具体如下:
A={A1,A2,…,Ag}
其中,ni为第i层网络的节点数量;需要g个图注意力机制神经网 络模块,分别对所述步骤3中的g个单层网络进行训练。更具体地,需要g个图注意力机制神 经网络模块,分别对所述步骤3中的g个单层网络进行训练。
步骤4、使用模型的层内连接损失函数和跨层连接损失函数定义模型整体损失函数,并 优化步骤3中得到的节点表示向量,重复训练步骤2中的模型,直到模型收敛或者到达预先 设定的训练次数。
更具体地,所述步骤5中的模型损失函数应尽量使训练得到的节点向量表示能够保留原 始网络中的拓扑结构信息。具体步骤如下:
步骤4.1、构建层内连接损失函数,采用网络重构的方式进行计算。第l层网络的层内连 接损失函数,其具体计算方式如下:
步骤4.2、构建跨层连接损失函数,具体计算方式如下:
对于矩阵Dl,k中的任意元素值Dl,k(i,j),其归一化后的值为:
步骤4.3、根据步骤5.1所定义的层内损失函数和步骤5.2所定义的跨层损失函数,定 义模型整体的损失函数。具体定义方式如下:
其中,l∈[1,g],Loss(l)表示第l层网络的整体损失函数。
其中,δ为自定义参数,具体值为0.2,表示跨层损失函数在整体损失函数中的权重。 所述步骤5中得到的各层网络节点低维表示向量为:
H={H1,H2,…,Hg}
在本发明中也可将其表示为:
H={H(1),H(2),…,H(g)}
上述具体实施方式总体框架示例如图2所示。将A1、A2、A3分别输入到三个图注意力机制模 型中进行训练;可以得到H(1)、H(2)、H(3);通过计算H(1)、H(2)、H(3)和Di,j,i,j∈[1,3]可以 计算出模型的损失Loss,之后判断是否继续进行模型训练。其中,图中最左边部分为三层网 络拓扑连接图示例;A1、A2、A3分别为这三个网络的邻接矩阵;H(1)、H(2)、H(3)分别各层网络节点表示向量,三个椭圆形Loss模块为损失函数计算模块,D1,2表示第一个网络和第二个网络之间的跨层连接矩阵,Di,j,i,j∈[1,3]以此类推。
本发明并不限于上文描述的实施方式。以上对具体实施方式的描述旨在描述和说明本发 明的技术方案,上述的具体实施方式仅仅是示意性的,并不是限制性的。在不脱离本发明宗 旨和权利要求所保护的范围情况下,本领域的普通技术人员在本发明的启示下还可做出很多 形式的具体变换,这些均属于本发明的保护范围之内。
Claims (4)
1.一种基于图注意力机制的多层网络表示学习方法,包括如下步骤:
步骤1、获取多层网络拓扑信息;其中,所述网络拓扑信息包括各层网络的层内邻接矩阵和跨层连接矩阵;
步骤2、构建各层基于图注意力机制的网络表示学习模型;
步骤3、将各层网络的层内邻接矩阵分别输入网络表示学习模型进行模型训练获得各层网络的节点表示向量;
步骤4、通过网络表示学习模型的层内连接损失函数和跨层连接损失函数构建网络表示学习模型整体损失函数;
步骤5、通过网络表示学习模型整体损失函数判断网络表示学习模型是否满足收敛条件;如果满足,输出各层网络最终的低维表示向量;否则返回步骤3。
2.根据权利要求2所述的一种图注意力机制的多层网络表示学习方法,其特征在于:所述单层网络表示学习模型搭建过程:
步骤2.1、确定图注意力层输入数据为:网络中节点的特征向量集;
步骤2.2、确定图注意力层输出数据为:新的节点特征表示向量;
其中,F′表示新的节点特征向量维度;
步骤2.3、针对每个节点,计算它与网络其他节点之间的注意力系数:
其中,为注意力机制,是一个单层的前馈神经网络;更具体地,是连接神经网络中层与层之间的权重矩阵;为表达矩阵节点输入特征矩阵与输出特征矩阵之间的关系的权重矩阵;eij表示第i个节点和第j个节点之间的注意力系数;
步骤2.4、对注意力系数eij进行归一化处理,得到归一化后的注意力系数αij;具体计算方式如下:
其中,||是连接操作符,将两个矩阵拼接起来;.T表示矩阵的转置;Ni表示网络中第i个节点的所有邻居节点集合;LeakyReLu函数计算方式如下:
其中,t为该函数赋予所有负值的非零斜率;
步骤2.5、通过注意力机制来计算每个节点的输出表示向量,具体计算方式如下:
其中,σ为非线性激活函数sigmoid,具体计算方式如下:
4.根据权利要求1所述的一种基于图注意力机制的多层网络表示学习方法,其特征在于:所述步骤4中网络表示学习模型整体损失函数过程:
步骤4.1、构建层内连接损失函数,采用网络重构的方式进行计算。第l层网络的层内连接损失函数,其具体计算方式如下:
步骤4.2、构建跨层连接损失函数,具体计算方式如下:
对于矩阵Dl,k中的任意元素值Dl,k(i,j),其归一化后的值为:
步骤4.3、根据步骤4.1所定义的层内损失函数和步骤4.2所定义的跨层损失函数,定义模型整体的损失函数,具体定义方式如下:
其中,l∈[1,g],Loss(l)表示第l层网络的整体损失函数;其中,δ为自定义参数,表示跨层损失函数在整体损失函数中的权重。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011460565.XA CN112966706A (zh) | 2020-12-11 | 2020-12-11 | 一种基于图注意力机制的多层网络表示学习方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011460565.XA CN112966706A (zh) | 2020-12-11 | 2020-12-11 | 一种基于图注意力机制的多层网络表示学习方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112966706A true CN112966706A (zh) | 2021-06-15 |
Family
ID=76271272
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011460565.XA Pending CN112966706A (zh) | 2020-12-11 | 2020-12-11 | 一种基于图注意力机制的多层网络表示学习方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112966706A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113807012A (zh) * | 2021-09-14 | 2021-12-17 | 杭州莱宸科技有限公司 | 一种基于连接强化的供水网络划分方法 |
CN114860952A (zh) * | 2022-04-29 | 2022-08-05 | 华侨大学 | 一种基于数据统计和知识指导的图拓扑学习方法及系统 |
CN116308856A (zh) * | 2023-02-10 | 2023-06-23 | 华南师范大学 | 一种面向多层学习者关系网络的社区发现方法及装置 |
-
2020
- 2020-12-11 CN CN202011460565.XA patent/CN112966706A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113807012A (zh) * | 2021-09-14 | 2021-12-17 | 杭州莱宸科技有限公司 | 一种基于连接强化的供水网络划分方法 |
CN114860952A (zh) * | 2022-04-29 | 2022-08-05 | 华侨大学 | 一种基于数据统计和知识指导的图拓扑学习方法及系统 |
CN116308856A (zh) * | 2023-02-10 | 2023-06-23 | 华南师范大学 | 一种面向多层学习者关系网络的社区发现方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112966706A (zh) | 一种基于图注意力机制的多层网络表示学习方法 | |
CN108399421A (zh) | 一种基于词嵌入的深度零样本分类方法 | |
CN113132232B (zh) | 一种能量路由优化方法 | |
CN113780470B (zh) | 一种基于自适应多通道交叉图卷积网络的图分类方法 | |
CN113378047A (zh) | 一种基于多方面增强的图神经网络推荐方法 | |
CN116403730A (zh) | 一种基于图神经网络的药物相互作用预测方法及系统 | |
CN113128667B (zh) | 一种跨域自适应的图卷积平衡迁移学习方法与系统 | |
CN114679372A (zh) | 一种基于节点相似性的图注意力网络的链路预测方法 | |
CN111798934A (zh) | 一种基于图神经网络的分子性质预测方法 | |
CN111600734B (zh) | 一种网络故障处理模型的构建方法、故障处理方法及系统 | |
CN110020379B (zh) | 一种基于深度动态网络嵌入表示模型的链路预测方法 | |
CN116756308A (zh) | 一种基于孪生图神经网络和集群结构的文献分类方法及系统 | |
CN115601744A (zh) | 一种车身与车牌颜色相近的车牌检测方法 | |
CN115689639A (zh) | 一种基于深度学习的商业广告点击率预测方法 | |
CN114386600A (zh) | 基于自适应结构和位置编码的网络表征方法 | |
Bai et al. | Manufacturing quality prediction based on two-step feature learning approach | |
CN112598115A (zh) | 一种基于非局部邻关系学习的深度神经网络层次分析方法 | |
CN116757460B (zh) | 基于深度学习的应急指挥调度平台构建方法及系统 | |
CN116030257B (zh) | 一种基于NesT模型的语义分割方法 | |
CN117114077A (zh) | 基于全局图瓶颈表示的图自监督学习方法 | |
CN115906946B (zh) | 一种多视图双曲-双曲图表示学习方法 | |
CN117851888A (zh) | 基于融合的超图节点分类方法及装置 | |
CN114638357B (zh) | 基于自动联邦学习的边缘计算系统及其学习方法 | |
CN118038203A (zh) | 一种行为识别模型的训练方法及其应用方法 | |
CN114863234A (zh) | 一种基于拓扑结构保持的图表示学习方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20210615 |