CN112884045B - 基于多视角的随机删边嵌入模型的分类方法 - Google Patents

基于多视角的随机删边嵌入模型的分类方法 Download PDF

Info

Publication number
CN112884045B
CN112884045B CN202110208919.XA CN202110208919A CN112884045B CN 112884045 B CN112884045 B CN 112884045B CN 202110208919 A CN202110208919 A CN 202110208919A CN 112884045 B CN112884045 B CN 112884045B
Authority
CN
China
Prior art keywords
matrix
embedded
embedding
nodes
classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110208919.XA
Other languages
English (en)
Other versions
CN112884045A (zh
Inventor
杨亮
栗位勋
顾军华
贾永娜
张亚娟
牛丙鑫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hebei University of Technology
Original Assignee
Hebei University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hebei University of Technology filed Critical Hebei University of Technology
Priority to CN202110208919.XA priority Critical patent/CN112884045B/zh
Publication of CN112884045A publication Critical patent/CN112884045A/zh
Application granted granted Critical
Publication of CN112884045B publication Critical patent/CN112884045B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明为基于多视角的随机删边嵌入模型的分类方法,该分类方法从两个视角分别是一阶邻居的编码和图扩散分布的各自的特殊通道和他们两个共享权重通道对其进行随机删边操作求和分别做KL散度,两个独特通道和共享权重通道再结合图注意力自适应权重嵌入可以实现最佳性能。基于随机删除边的思想对邻接矩阵和图扩散进行了节点增强,防止过拟合和过平滑增强模型的深度和嵌入能力,提高分类效果及分类速度。

Description

基于多视角的随机删边嵌入模型的分类方法
技术领域
本发明属于同构图半监督分类技术领域,具体是一种基于多视角的随机删边嵌入模型的分类方法。
背景技术
随着机器学习和深度学习成为计算机科研领域非常热门的技术,CNN等一大批经典模型的出现更加推动了在CV领域的发展壮大。但是这些模型都是处理有规则的方方正正的数据,现实社会中更多的存在于非结构化数据,比如社交网络、引用网络、电话通讯网络等等。在处理这些数据情况下CNN就要逊色很多。近些年专家学着的研究提出了图神经网络(GNN),目的就是为了解决CNN处理不了的数据,比如最近非常火的GCN、GAN等模型在处理非结构化数据表现非常的出色。图卷积神经网络(GNN)已被广泛用于图形表示的学习中,并在诸如节点分类和链接预测等任务中实现了较优的性能。
GCN、GAT等这些模型都是从一个视角处理问题,并没有考虑多视角来获取更完整的信息,另外过平滑和过拟合都影响了深度神经网络的表达能力。最近相关论文AM-GCN通过实验证明了从两个视角即初始条件的邻接矩阵和以属性相关生成的邻接矩阵,一阶邻居的编码和生成属性相关矩阵的各自的特殊通道和他们两个共享权重通道分别进行了GCN得到最后的嵌入,在节点分类任务上取得了不错的效果,由于使用了希尔伯特-施密特独立性准则(Hilbert-Schmidt Independence Criterion(HSIC))一个简单而有效的独立措施,增强这两种嵌入的差距,通过实验表明使用HSIC并没有任何提高分类的效果,反而导致了模型的反向传播复杂度大,运行慢等问题。
发明内容
针对现有技术的不足,本发明拟解决的技术问题是,提供一种基于多视角的随机删边嵌入模型的分类方法。该分类方法,运行速度较快,且分类准确性在大多数据集中均表现出更高的精度,综合性能更优。
本发明解决所述技术问题采用的技术方案是:
一种基于多视角的随机删边嵌入模型的分类方法,包括以下步骤:
步骤1、对已知的初始邻接矩阵A做图扩散(diffusion)操作得到图扩散矩阵S,将邻接矩阵A和图扩散矩阵S分别做随机剔除边操作得到Adrop和Sdrop。这是数据预处理也是为后面操作提供的基本条件。
步骤2、邻接矩阵A和图扩散矩阵S分别经过两个独立通道的多层GCN卷积层得到嵌入矩阵ZE1、ZE2,随机剔除边Adrop和随机剔除边Sdrop分别经过共享通道的多层GCN卷积层获得嵌入矩阵ZCE1、ZCE2,嵌入矩阵ZCE1与嵌入矩阵ZCE2求和获得嵌入矩阵ZCM;不同种类通道GCN卷积层权重w不一样,共享通道的权重相同。
步骤3、对嵌入矩阵ZE1、ZE2、ZCM使用注意力机制确定各嵌入矩阵的重要性,根据公式(10)得到最终嵌入矩阵Z;
Z=αE1·ZE1CM·ZCME2·ZE2 (10)
其中,(αE1CME2)分别为对应嵌入矩阵的重要性;
步骤4、将步骤3获得的最终嵌入矩阵Z输入到具有线性变换和softmax函数的半监督多类分类器中,获得对应最终嵌入矩阵Z的预测标签,将预测标签和对应的真实标签Y做交叉熵,获得交叉熵损失函数Lt
步骤5、分别让ZE1和ZCM求KL得到KL散度的损失函数Le1,让ZE2和ZCM求KL得到KL散度的损失函数Le2,三个损失函数求和得到最终的损失函数Loss;
Loss=Lt+βLe1+βLe2 (13)
其中,γ和β是一致性和视差约束项的参数,在标记数据的指导下,通过反向传播优化建议的模型,并学习节点的嵌入以进行分类;
完成嵌入模型的构建。
在使用特定分类任务下的数据集经过本申请的嵌入模型构建过程,获得适用于解决该特定分类任务的高准确性嵌入模型,将该特定分类任务下的待分类数据输入到该嵌入模型中,即可完成待分类数据的分类。
所述特定分类任务为节点分类和链接预测等任务。
与现有技术相比,本发明的有益效果是:
1、与GCN等模型比较增加了视角和通道,一个局部视角邻接矩阵A,一个全局视角扩散矩阵S,邻接矩阵A和图扩散矩阵S分别经过两个特定的通道另外他们各自随机删除节点后得到的邻接矩阵Adrop和Sdrop等四个通道使得模型学习到的嵌入更有利于节点分类等下游任务。
2、应用了图扩散矩阵,通过将邻接矩阵转换为图扩散矩阵,并将这两个矩阵视为同一图结构的两个全等视图,邻接矩阵和扩散矩阵分别提供了图结构的局部和全局视图,从这两个视图学习到的嵌入矩阵表示二者之间的最大一致性,使得嵌入模型能够同时编码丰富的局部和全局信息。
3、邻接矩阵A和图扩散矩阵S分别经过两个特定的通道通过多层GCN模型得到的嵌入矩阵ZE1、ZE2和随机删除节点后得到的邻接矩阵Adrop、Sdrop通过共享通道GCN模型得到的嵌入矩阵ZCE1、ZCE2,二者相加得到ZCM,特定的独立通道的嵌入矩阵和共享通道的加和两者做KL散度,在整个模型中充当损失函数的正则化,得到更加鲁棒性的模型有效的增强了节点分类等任务。
4、通过实验本发明方法的分类结果都有不同程度的提高。本发明基于随机删除边即drop_edge的思想对邻接矩阵和图扩散进行了节点增强。采用随机删除边能对邻接矩阵和图扩散进行随机采样,防止过拟合和过平滑增强模型的深度和嵌入能力。
附图说明
图1是本发明基于多视角的随机删边嵌入模型的分类方法的流程示意图。
具体实施方式
下面结合实施例及附图进一步解释本发明,但并不以此作为对本申请保护范围的限定。
本发明提供一种基于多视角的随机删边嵌入模型的分类方法,该方法包括下述步骤:
步骤1:初始邻接矩阵A和对A做图扩散操作后得到图扩散矩阵S,分别对以上两个矩阵做随机剔除边后对应得到Adrop和Sdrop
其中邻接矩阵A是初始条件。将邻接矩阵转换为图扩散矩阵并将这两个矩阵视为同一图形结构的两个全等视图,由于邻接矩阵和扩散矩阵分别提供了图结构的局部视图和全局视图,因此从这两个视图(局部视图和全局视图)中学习到的表示形式之间的最大化一致性可使GCN模型同时编码丰富的局部和全局信息。使用快速逼近和稀疏化方法一次计算扩散矩阵,扩散公式为公式(1),
Figure BDA0002951710730000031
其中,T∈Rn×n是广义转换矩阵,R是矩阵空间维度表示,n是节点的个数,而θ是确定全局局部信息比率的加权系数,即为概率,同分布前提条件就是所有概率和加起来等于1,因此设
Figure BDA0002951710730000032
θm∈[0,1],和λi∈[0,1]其中λi是T的特征值,可确保收敛,m表示迭代次数,S属于Rn*n
给定邻接矩阵A∈Rn×n和对角度矩阵D∈Rn×n,个性化PageRank(PPR)和热核(heat),即广义的两个实例通过设置T=AD-1和θm=α(1-α)m和θm=e-ttm/m!来定义图扩散,其中α表示随机游走的传送概率,t是扩散次数。热核(heat)和PPR不同个性化形式下的图扩散矩阵可以分别按照方程式(2)和(3)求解闭式解。
Sheat=exp(tAD-1-t) (2)
SPPR=α(In-(1-α)D-1/2AD-1/2)-1 (3),
In指的是维度是n*n的对角线全为1的矩阵,S、Sheat、SPPR都指的是图扩散矩阵,只不过针对不同的问题需要对应的公式,下面统称是S,加粗的是矩阵,不加粗的只是标量也就是说一个具体数。
对于子采样,从一个视图也就是邻接矩阵A中随机采样边缘或者叫剔除边缘得到Adrop,并从图扩散矩阵S中随机采样边缘或者叫剔除边缘得到Sdrop。通过此过程,该随机采样边缘方法可以应用于带有不适合GPU内存的图形的归纳任务,也可以通过将子样本(子采样得到的样本叫子样本,随机采样边缘)视为独立的图形应用于归纳任务。
步骤2:邻接矩阵A和图扩散矩阵S分别经过两个特定的通道(每个通道学习自己独有的权重矩阵)和共享通道(两个通道共享一个权重矩阵)得到嵌入ZE1、ZE2、ZCE1、ZCE2,ZE1、ZE2为两个独立通道的嵌入矩阵,ZCE1、ZCE2表示邻接矩阵A和图扩散矩阵S分别经共享通道得到的嵌入矩阵,ZCM为两个共享权重的通道得到最后嵌入矩阵之和,每个通道都是由多层GCN构成;
GCN是一个神经网络层,它的层与层之间的传播方式是:
Figure BDA0002951710730000033
这个公式中:
·
Figure BDA0002951710730000034
I是单位矩阵,B只是一个变量,可换成邻接矩阵A,也可以换成图扩散矩阵S。
·
Figure BDA0002951710730000041
Figure BDA0002951710730000042
的度矩阵(degree matrix),公式为
Figure BDA0002951710730000043
i表示行,j表示列;
·H是每一层的特征,对于输入层的话,H的初始值是X,X表示特征矩阵也叫属性矩阵,l表示层,
·σ是非线性激活函数
步骤3:对嵌入矩阵ZE1、ZE2、ZCM使用注意力机制att(ZE1,ZCM,ZE2)来了解它们的相应重要性(αE1CME2)如下:
E1CME2)=att(ZE1,ZCM,ZE2) (7)
这里集中在节点i上,它在ZE1中的嵌入是
Figure BDA0002951710730000044
(即ZE1的第i行)。首先通过非线性变换对嵌入进行变换,然后使用一个共享的关注向量q∈Rh′×1来获得关注值
Figure BDA0002951710730000045
如下:
Figure BDA0002951710730000046
W∈Rh′×h是权重矩阵(h表示输入的权重维度、h’表示输出权重维度),b∈Rh′×1是偏差向量,h’、h为嵌入过程中间矩阵的维度。类似地,可以分别在嵌入矩阵ZCM和ZE2中获得节点i的关注值
Figure BDA0002951710730000047
Figure BDA0002951710730000048
(i表示第几个节点,下标E1、CM、E2表示通道)。然后,使用softmax函数将关注值
Figure BDA0002951710730000049
归一化,以得到节点i的归一化后的关注值:
Figure BDA00029517107300000410
Figure BDA00029517107300000411
越大表示对应的嵌入就越重要。类似地,
Figure BDA00029517107300000412
Figure BDA00029517107300000413
Figure BDA00029517107300000414
对于所有n个节点,三个通道的n个节点的归一化后的关注值的集合
Figure BDA00029517107300000415
Figure BDA00029517107300000416
其中e1对应E1独立通道,e2对应E2独立通道,cm对应共享通道,把n个节点的归一化后的关注值的集合转化为对角矩阵,获得各通道嵌入矩阵的重要性分别表示αE1=diag(αe1),αCM=diag(αcm)和αE2=diag(αe2)。然后,将这三个嵌入矩阵按照公式(10)组合起来,以获得最终的嵌入矩阵Z:
Z=αE1·ZE1CM·ZCME2·ZE2 (10)
步骤4、将步骤3获得的最终嵌入矩阵Z输入到具有线性变换和softmax函数的半监督多类分类器中,获得对应最终嵌入矩阵Z的预测标签,将预测标签和对应的真实标签Y做交叉熵,获得交叉熵损失函数Lt
输出嵌入矩阵Z用于具有线性变换和softmax函数的半监督多类分类。将n个节点的类预测表示为
Figure BDA00029517107300000417
(C表示标签或类的总个数)其中
Figure BDA00029517107300000418
是节点i属于类c的概率。然后可以通过以下方式计算
Figure BDA00029517107300000419
Figure BDA00029517107300000420
此时,W为线性分类的权重,b为线性分类的偏置值,
Figure BDA00029517107300000421
(x为变量,C表示标签或类的总数)实际上是所有类的规范化器。假设训练集为K(指训练时用到所有节点的个数),对于每个k∈K,真实标签为Yk,预测标签为
Figure BDA00029517107300000422
由公式(11)获得。然后,将所有训练节点上的节点分类的交叉熵(Cross-entropy)损失函数表示为Lt
Figure BDA0002951710730000051
c表示具体某个标签或者类,Ykc表示第k个节点属于标签c的值是0或者1,
步骤5、由步骤2得到的ZE1、ZE2、ZCM=ZCE1+ZCE2,其中ZE1和ZCM、ZE2和ZCM分别做KL散度目的为了缩小它们之间差异在损失函数中充当正则项促使得到更好的嵌入:
Figure BDA0002951710730000052
Figure BDA0002951710730000053
其中L表示总层数,l表示具体层,Le为KL散度的损失函数。
结合节点分类任务和约束,将两个KL散度的损失函数和交叉熵损失函数按照公式(13)求和,获得最终的损失函数Loss;
Loss=Lt+γLe1+βLe2 (13)
其中γ和β是一致性和视差约束项的参数,至此完成嵌入模型的构建。在标记数据的指导下,可以通过反向传播优化建议的模型,并学习节点的嵌入以进行分类。
实施例1
本实施例提供一种基于多视角的随机删边嵌入模型的分类方法(简称方法,参见图1),包括以下步骤:
步骤1、通过邻接矩阵A得到图扩散矩阵S、随机剔除边操作得到Adrop和Sdrop
使用快速逼近和稀疏化方法一次计算扩散矩阵,扩散公式为公式(1)
Figure BDA0002951710730000054
其中T∈Sn×n是广义转换矩阵,而θ是确定全局局部信息比率的加权系数。设
Figure BDA0002951710730000055
θm∈[0,1],和λi∈[0,1]其中λi是T的特征值,可确保收敛。
给定邻接矩阵A∈Rn×n和对角度矩阵D∈Rn×n,个性化PageRank(PPR)和热核,即广义的两个实例通过设置T=AD-1和θm=α(1-α)m和θm=e-ttm/m!来定义图扩散,其中α表示随机游走的传送概率,t是扩散时间。方程式(2)和(3)中公式化了热核和PPR扩散的闭式解。
sheat=exp(tAD-1-t) (2)
SPPR=α(In-(1-α)D-1/2AD-1/2)-1 (3)
对于子采样,从一个视图也就是邻接矩阵A中随机采样边缘或者叫剔除边缘得到Adrop,并从另一视图图扩展S中随机采样边缘或者叫剔除边缘得到Sdrop。通过此过程,可以应用于带有不适合GPU内存的图形的归纳任务,也可以通过将子样本视为独立的图形应用于归纳任务。
在每个训练时期,随机删除节点(DropEdge)技术都会随机丢弃输入图的一定比例的边缘。形式上,它随机地将邻接矩阵A的Vp个非零元素强制为零,其中V是边的总数,p是下降率。如果将结果邻接矩阵表示为Adrop,则其与A的关系变为:
Adrop=A-A′ (14)
A′是一个稀疏矩阵,从原始边缘E扩展了一个大小为Vp的随机子集。还对Adrop执行了重新归一化技巧,以进行传播和训练。进行验证和测试时,不使用DropEdge。同理可以得到Sdrop
步骤2、邻接矩阵A和以上得到的S、Adrop、Sdrop,经过不同通道的多层GCN卷积层得到相应通道的嵌入矩阵。
Figure BDA0002951710730000061
Figure BDA0002951710730000062
Adrop和Sdrop对应矩阵替换,得到共享通道的对应的两个输出,两个输出求和后即可得到ZCM
步骤3、将Adrop和Sdrop经共享通道的输出求和得到嵌入矩阵ZCM,将A和S经独立通道的输出分别与嵌入矩阵ZCM求KL散度。
由步骤2得到的ZE1、ZE2、ZCM=ZCE1+ZCE2,其中ZE1和ZCM、ZE2和ZCM分别做KL散度目的为了缩小他们直接差异在损失函数中充当正则项促使得到更好的嵌入:
Figure BDA0002951710730000063
Figure BDA0002951710730000064
步骤4、对嵌入矩阵ZE1、ZE2、ZCM使用注意力机制att(ZE1,ZCM,ZE2)来了解它们的相应重要性(αE1CME2)如下:
E1CME2)=att(ZE1,ZCM,ZE2) (7)
这里集中在节点i上,它在ZE1中的嵌入是
Figure BDA0002951710730000065
(即ZE1的第i行)。首先通过非线性变换对嵌入进行变换,然后使用一个共享的关注向量q∈Rh′×1来获得关注值
Figure BDA0002951710730000066
如下:
Figure BDA0002951710730000067
W∈Rh′×h是权重矩阵(h、h’表示权重维度),b∈Rh′×1是偏差向量。类似地,可以分别在嵌入矩阵ZCM和ZE2中获得节点i的关注值
Figure BDA0002951710730000068
Figure BDA0002951710730000069
(i表示第几个节点,下标E1、CM、E2表示通道)。然后,使用softmax函数将关注值
Figure BDA00029517107300000610
归一化,以得到节点i的归一化后的关注值:
Figure BDA00029517107300000611
Figure BDA0002951710730000071
越大表示对应的嵌入就越重要。类似地,
Figure BDA0002951710730000072
Figure BDA0002951710730000073
Figure BDA0002951710730000074
对于所有n个节点,三个通道的n个节点的归一化后的关注值的集合分别为:
Figure BDA0002951710730000075
把n个节点的归一化后的关注值的集合转化为对角矩阵,获得各通道嵌入矩阵的重要性:αE1=diag(αe1),αCM=diag(αcm)和αE2=diag(αe2)。然后,将这三个嵌入矩阵按照公式(10)组合起来,以获得最终的嵌入矩阵Z:
Z=αE1·Ze1CM·ZCME2·Ze2 (10)
步骤5、将步骤4获得的最终嵌入矩阵Z输入到具有线性变换和softmax函数的半监督多类分类器中,获得对应最终嵌入矩阵Z的预测标签,将预测标签和对应的真实标签Y做交叉熵,获得交叉熵损失函数Lt
使用输出嵌入矩阵Z公式(10)用于具有线性变换和softmax函数的半监督多类分类。将n个节点的类预测表示为
Figure BDA0002951710730000076
其中
Figure BDA0002951710730000077
是节点i属于类c的概率。然后可以通过以下方式计算
Figure BDA0002951710730000078
Figure BDA0002951710730000079
假设训练集为K,对于每个k∈K,k为训练集中的节点,真实标签为Yk,预测标签为
Figure BDA00029517107300000710
然后,将所有训练节点上的节点分类的交叉熵损失函数表示为Lt
Figure BDA00029517107300000711
结合节点分类任务和约束,以公式(13)为总体目标函数:
Loss=Lt+βLe1+βLe2 (13)
其中γ和β是一致性和视差约束项的参数,
至此完成嵌入模型的构建。
实验
为验证本方法的效果,在六个真实世界的数据集上进行了评估,这些数据集总结在表1中,为了重现性,在补充中提供了所有的数据网站。
·Citeseer:Citeseer是一个研究论文引文网络,节点是出版物,边缘是引文链接。节点属性是论文的词袋表示,所有节点分为六类。
·UAI2010:使用在图卷积网络中测试过的3067个节点和28311条边的数据集
·ACM:该网络是从ACM数据集中提取的,其中节点代表论文,如果有相同的作者,两篇论文之间有一条边。论文分为数据库、无线通信、数据挖掘3类。这些特征是论文中关键词的单词袋表示。
·BlogCatalog:这是一个社交网络,其中包含BlogCatalog网站上的博客作者及其社交关系。节点属性由用户简要表的关键字构成,标签表示作者提供的主题类别,所有节点分为6类。
·Flickr:Flickr是一个图片和视频托管网站,在这里用户可以通过照片分享相互交流。它是一个社交网络,节点代表用户,边代表用户之间的关系,所有节点根据用户的兴趣分组被分为9类。
·coraffull:这是著名的引文网络Cora数据集的更大版本,其中节点表示论文,边表示其被引用,节点根据论文主题标记。
参数设置:为了更全面地评估的嵌入模型,为每个数据集中的训练集选择三个标记率(即每个类别20、40、60个标记节点,训练集中标签的数量)并选择在数据集中选择1000个节点作为测试集。所有基准线均使用其论文中建议的相同参数进行初始化,还将进一步仔细转换参数以获得最佳性能。对于本申请嵌入模型,训练了三个具有相同隐藏层尺寸(nhid1)和相同输出尺寸(nhid2)的2层GCN,其中nhid1∈{512,768}和nhid2∈{32,128,256},nhid1和nhid2取不同的值取决于不同的数据集,比如citeseer20的nhid1=768,nhid2=256;citeseer40的nhid1=768,nhid2=128;citeseer60的nhid1=768,nhid2=128;coraml20的nhid1=512,nhid2=256;coraml40的nhid1=512,nhid2=32;coraml60的nhid1=512,nhid2=32;BlogCatalog20的nhid1=512,nhid2=128;BlogCatalog20的nhid1=512,nhid2=128;BlogCatalog20的nhid1=512,nhid2=128;
uai20的nhid1=512,nhid2=128;uai40的nhid1=512,nhid2=128;uai60的nhid1=512,nhid2=128;flickr20的nhid1=512,nhid2=128;
Acm的所有标记率下,第一层隐藏层尺度为768、第二层隐藏层尺度为256。在Adam优化器中使用了
Figure BDA0002951710730000081
的学习率,不同的数据集取不同的学习率值,citeseer的学习率5e-4,coraml的学习率e-3;BlogCatalog的学习率5e-4;uai的学习率5e-4;flickr的学习率5e-4。此外,辍学率为0.5,GCN卷积层的权重衰减decay∈{5e-3,5e-4},不同的数据集取不同的decay值,在给定的两个参数内选择,为了更新权重衰减速率,三个通道GCN中卷积层在训练结束后的权重不同,损失函数正则项γ、β分别取值0.8和0.9。对于所有方法,在相同的分区上运行5次,并报告平均结果。使用节点分类的准确性(ACC)和宏F1分数(F1)评估模型的性能,评估结果见下表。黑色加粗部分可以看出新模型在节点分类准确率和召回率对比AM-GCN模型都有不同程度的提高,说明了本申请的分来方法在处理图节点分类问题上更有效果。且本申请的运行速率相对于AM-GCN模型速度更快。
Figure BDA0002951710730000091
本发明针对AM-GCN模型进行了进一步优化,以图扩散矩阵代替属性相关生成的矩阵,从全局视图和局部视图两方面能够得到更好的实验结果,对其共享权重的两个通道分别进行随机删边操作,同时引入KL散度,能够得到准确性高且计算速度快的更好的实验结果,最后两个独特通道和共享权重通道再结合图注意力自适应权重嵌入可以实现最佳性能,适用于引文网络、图网络等的精确快速分类,
本发明未述及之处适用于现有技术。

Claims (4)

1.一种对于论文引文网络Citeseer数据集的论文分类方法,节点是出版物,边缘是引文链接,节点属性是论文的词袋表示,所有节点分为六类,实现引文网络的精确快速分类,包括以下步骤:
步骤1、对已知的初始邻接矩阵A做图扩散操作得到图扩散矩阵S,将邻接矩阵A和图扩散矩阵S分别做随机剔除边操作得到Adrop和Sdrop
步骤2、邻接矩阵A和图扩散矩阵S分别经过两个独立通道的多层GCN卷积层得到嵌入矩阵ZE1、ZE2,随机剔除边Adrop和随机剔除边Sdrop分别经过共享通道的多层GCN卷积层获得嵌入矩阵ZCE1、ZCE2,嵌入矩阵ZCE1与嵌入矩阵ZCE2求和获得嵌入矩阵ZCM
步骤3、对嵌入矩阵ZE1、ZE2、ZCM使用注意力机制确定各嵌入矩阵的重要性,根据公式(10)得到最终嵌入矩阵Z;
Z=αE1·ZE1CM·ZCME2·ZE2 (10)
其中,(αE1,αCM,αE2)分别为对应嵌入矩阵的重要性;
步骤4、将步骤3获得的最终嵌入矩阵Z输入到具有线性变换和softmax函数的半监督多类分类器中,获得对应最终嵌入矩阵Z的预测标签,将预测标签和对应的真实标签Y做交叉熵,获得交叉熵损失函数Lt
步骤5、分别让ZE1和ZCM求KL得到KL散度的损失函数Le1,让ZE2和ZCM求KL得到KL散度的损失函数Le2,三个损失函数求和得到最终的损失函数Loss;
Loss=Lt+γLe1+βLe2
其中,γ和β是一致性和视差约束项的参数,在标记数据的指导下,通过反向传播优化建议的模型,并学习节点的嵌入以进行分类;完成嵌入模型的构建;
将Citeseer数据集的节点数据输入到该嵌入模型中,即可完成Citeseer数据集的分类。
2.根据权利要求1所述的分类方法,其特征在于,使用注意力机制确定各嵌入矩阵的重要性的具体过程是:
在节点i上,在ZE1中的嵌入是
Figure FDA0003935302710000011
即ZE1的第i行,首先通过非线性变换对
Figure FDA0003935302710000012
进行变换,然后使用一个共享的关注向量q∈Rh′×1根据公式(8)获得关注值
Figure FDA0003935302710000013
Figure FDA0003935302710000014
W∈Rh′×h是权重矩阵,h、h’表示权重维度,b∈Rh′×1是偏差向量;
同理,分别在嵌入矩阵ZCM和ZE2中获得节点i的关注值
Figure FDA0003935302710000015
Figure FDA0003935302710000016
然后,使用softmax函数将关注值
Figure FDA0003935302710000017
归一化,以得到节点i的归一化后的关注值:
Figure FDA0003935302710000018
Figure FDA0003935302710000019
越大表示对应的嵌入就越重要;
Figure FDA00039353027100000110
Figure FDA00039353027100000111
对于所有n个节点,三个通道的n个节点的归一化后的关注值的集合分别为:
Figure FDA0003935302710000021
Figure FDA0003935302710000022
把n个节点的归一化后的关注值的集合转化为对角矩阵,获得各通道嵌入矩阵的重要性,分别表示为:
αE1=diag(αe1),αCM=diag(αcm)和αE2=diag(αe2)。
3.根据权利要求1所述的分类方法,其特征在于,所述交叉熵损失函数Lt的表达式:
Figure FDA0003935302710000023
式中,c表示具体某个标签或者类,C表示标签数;Ykc表示第k个节点属于标签c的值是0或者1,
Figure FDA0003935302710000024
为预测标签;K为训练时用到所有节点的个数;
KL散度的损失函数Le1的表达式为公式(5),KL散度的损失函数Le2的表达式为公式(6):
Figure FDA0003935302710000025
Figure FDA0003935302710000026
其中L表示总层数,l表示具体层。
4.根据权利要求1所述的分类方法,其特征在于,嵌入模型中,两个独立通道和共享通道为具有相同隐藏层尺寸和相同输出尺寸的2层GCN;辍学率为0.5,2层GCN的权重衰减decay∈{5e-3,5e-4},最终的损失函数的一致性和视差约束项的参数γ、β分别取值0.8和0.9。
CN202110208919.XA 2021-02-25 2021-02-25 基于多视角的随机删边嵌入模型的分类方法 Active CN112884045B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110208919.XA CN112884045B (zh) 2021-02-25 2021-02-25 基于多视角的随机删边嵌入模型的分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110208919.XA CN112884045B (zh) 2021-02-25 2021-02-25 基于多视角的随机删边嵌入模型的分类方法

Publications (2)

Publication Number Publication Date
CN112884045A CN112884045A (zh) 2021-06-01
CN112884045B true CN112884045B (zh) 2022-12-20

Family

ID=76054369

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110208919.XA Active CN112884045B (zh) 2021-02-25 2021-02-25 基于多视角的随机删边嵌入模型的分类方法

Country Status (1)

Country Link
CN (1) CN112884045B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113486934A (zh) * 2021-06-22 2021-10-08 河北工业大学 基于注意力机制的层次化图卷积网络的属性图深度聚类方法
CN114692780A (zh) * 2022-04-19 2022-07-01 北京百度网讯科技有限公司 实体信息分类方法、分类模型训练方法、装置、电子设备
CN117313551A (zh) * 2023-11-28 2023-12-29 中国科学院合肥物质科学研究院 基于gat-lstm的放射性核素扩散预测方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111598710A (zh) * 2020-05-11 2020-08-28 北京邮电大学 社交网络事件的检测方法和装置
CN112115378A (zh) * 2020-09-16 2020-12-22 长沙理工大学 基于图卷积协同过滤的推荐预测系统以及推荐预测方法
CN112287997A (zh) * 2020-10-27 2021-01-29 浙江工业大学 一种基于生成式对抗网络的深度图卷积模型防御方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7010770B2 (en) * 2003-04-04 2006-03-07 Taiwan Semiconductor Manufacturing Co., Ltd. Method of wide wire identification
US11645524B2 (en) * 2019-05-10 2023-05-09 Royal Bank Of Canada System and method for machine learning architecture with privacy-preserving node embeddings

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111598710A (zh) * 2020-05-11 2020-08-28 北京邮电大学 社交网络事件的检测方法和装置
CN112115378A (zh) * 2020-09-16 2020-12-22 长沙理工大学 基于图卷积协同过滤的推荐预测系统以及推荐预测方法
CN112287997A (zh) * 2020-10-27 2021-01-29 浙江工业大学 一种基于生成式对抗网络的深度图卷积模型防御方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
AM-GCN:Adaptive Multi-channel Graph Convolutional Networks;Xiao wang, et al;《arxiv》;20200711;1121-1126 *
Dropedge: Towards Deep Graph Convolutional networks on node classification;Yu rong,et al;《arxiv》;20200312;321-330 *
基于混合图卷积网络模型的节点分类方法;范敏 等;《通信技术》;20201210;450-456 *

Also Published As

Publication number Publication date
CN112884045A (zh) 2021-06-01

Similar Documents

Publication Publication Date Title
CN112884045B (zh) 基于多视角的随机删边嵌入模型的分类方法
CN112508085B (zh) 基于感知神经网络的社交网络链路预测方法
CN109271522B (zh) 基于深度混合模型迁移学习的评论情感分类方法及系统
CN112529168B (zh) 一种基于gcn的属性多层网络表示学习方法
CN105740401B (zh) 一种基于个体行为和群体兴趣的兴趣地点推荐方法及装置
CN111753024B (zh) 一种面向公共安全领域的多源异构数据实体对齐方法
Jiang et al. Decentralized knowledge acquisition for mobile internet applications
CN113919441A (zh) 一种基于超图变换网络的分类方法
CN111079409B (zh) 一种利用上下文和方面记忆信息的情感分类方法
CN109389151A (zh) 一种基于半监督嵌入表示模型的知识图谱处理方法和装置
CN112148776A (zh) 基于引入语义信息的神经网络的学术关系预测方法和装置
Guo et al. Role-oriented graph auto-encoder guided by structural information
CN114757271B (zh) 基于多通道图卷积网络的社交网络节点分类方法与系统
Yang et al. Multi-view federated learning with data collaboration
CN114969078A (zh) 一种联邦学习的专家研究兴趣实时在线预测更新方法
CN112561599A (zh) 一种融合域特征交互的基于注意力网络学习的点击率预测方法
Ma et al. Friend closeness based user matching cross social networks
CN115238075B (zh) 一种基于超图池化的文本情感分类方法
CN115564013B (zh) 提高网络表示学习表示能力的方法、模型训练方法和系统
Liang et al. The graph embedded topic model
CN115344794A (zh) 一种基于知识图谱语义嵌入的旅游景点推荐方法
Jaya et al. Analysis of convolution neural network for transfer learning of sentiment analysis in Indonesian tweets
Chen et al. A survey of algorithms and applications related with graph embedding
Huang et al. A web service classification method based on graph neural network knowledge distillation
Zhang et al. A multi-view mask contrastive learning graph convolutional neural network for age estimation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant