CN112508085B - 基于感知神经网络的社交网络链路预测方法 - Google Patents

基于感知神经网络的社交网络链路预测方法 Download PDF

Info

Publication number
CN112508085B
CN112508085B CN202011407178.XA CN202011407178A CN112508085B CN 112508085 B CN112508085 B CN 112508085B CN 202011407178 A CN202011407178 A CN 202011407178A CN 112508085 B CN112508085 B CN 112508085B
Authority
CN
China
Prior art keywords
node
neural network
attention
representing
self
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011407178.XA
Other languages
English (en)
Other versions
CN112508085A (zh
Inventor
鱼滨
解子璇
张琛
解宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN202011407178.XA priority Critical patent/CN112508085B/zh
Publication of CN112508085A publication Critical patent/CN112508085A/zh
Application granted granted Critical
Publication of CN112508085B publication Critical patent/CN112508085B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Business, Economics & Management (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种基于感知神经网络的社交网络链路预测方法,主要解决现有技术在表示节点特征时,由于缺乏对于拓扑结构和节点自身两种影响力的综合考虑,造成链路预测准确率低的问题。其实现步骤为:1)构建自注意力神经网络;2)用社交网络生成训练集,并用邻接矩阵表示;3)利用邻接矩阵计算用户节点的影响力矩阵;4)将邻接矩阵和影响力矩阵输入到自注意力神经网络,对其进行训练;5)将一个无标签待预测的社交网络输入到训练好的自注意力神经网络,得到链路预测结果。本发明增强了节点特征的表示效果,提高了社交网络链路预测的准确率,降低了模型训练过程中的训练时间和空间占用率,可用于预测大型社交媒体用户之间存在联系的可能性。

Description

基于感知神经网络的社交网络链路预测方法
技术领域
本发明属于计算机网络技术领域,更进一步涉及一种社交网络链路预测方法,可用于预测大型社交媒体用户之间存在联系的可能性。
背景技术
社交网络作为现实生活中的非欧几里得数据可以自然地以网络结构来表示,通常用于表征一组用户,即节点及其用户关系即边缘。网络中的链路预测是指如何通过已知的网络结构等信息,预测网络中尚未产生连接的两个节点之间产生连接的可能性。在常规的用户关系预测中,通常需要进行大量的人际关系分析或行动轨迹调查才能判断在未来某两个用户之间是否会产生交集。以往的研究链路预测的方法主要是基于局部信息的相似性、基于路径或基于随机游走的方法,随着计算机技术的发展,现在节点属性和网络拓扑结构的信息变得容易收集,计算机通过已有的带标签的数据进行学习并生成一个机器学习模型,将未知的社交网络结构输入进去,最终可以对两个节点之间是否存在关系进行预测。
北京工业大学在其申请的专利文献“基于路径信息和节点信息融合的社交网络好友推荐方法”(专利申请号:201810232469.6,专利公布号:108449209 A)中公开了一种基于路径信息和节点信息融合的社交网络好友推荐方法。该方法的步骤包括以下:步骤1,对网络结构中节点和链接进行表示;步骤2,将所有的链接随机划分为测试集和训练集;步骤3,获取原图中所有不存在链接的集合;步骤4,随机选取测试边集中的一条边,计算这条边两端节点相似性。该方法存在的不足之处在于对于路径信息的考虑不够全面,只考虑了节点之间单方向的链接状态,这样导致了在计算节点的拓扑结构时,忽视了相互链接的结构对节点嵌入的影响。
兰州大学在其申请的专利文献“基于有监督学习的多层网络链接预测方法”(申请号:202010122854.2,专利公布号:111310937 A)公开了一种基于有监督学习的多层网络链接预测方法。该方法的步骤包括以下:步骤1:为所有的节点对赋予类标签,节点对存在链接,类标签为1,不存在链接,类标签为0;步骤2:将链接预测问题转化为判断类标签为0或1的二分类问题。在二分类问题中,定义了一组拓扑特征,并使用这些特征构造节点对的特征向量。这一组拓扑特征包括基于共同邻居的相似性指标、基于节点度的特征、基于聚集系数的特征和基于“朋友”的特征。该方法虽然对于拓扑特征的可能性概括的较为全面,但是这四类拓扑特征的重要性应该是有区别的,该方法没有很好的为这四类拓扑特征分配权重,最终会影响预测的准确性。
发明内容
本发明的目的在于针对上述现有技术中存在的不足,提出一种基于感知神经网络的社交网络链路预测方法,以利用节点间双向链接的拓扑关系并结合节点自身的基础影响力值,生成了中间综合影响力信息矩阵,并通过自注意力机制为每个节点的影响值分配权重,提高预测准确性。
本发明的技术思路是:根据社交网络中节点间的拓扑结构和每个节点自身的影响力形成节点的属性,通过自注意力机制和图形卷积运算得到低维稠密向量空间中的节点特征表示,并将提取到的特征作为神经网络的输入进行社交网络链路预测任务。
根据上述思路,本发明实现步骤包括如下:
1.一种基于感知神经网络的社交网络链路预测方法,其特征在于,包括如下:
(1)构建注意力神经网络:
(1a)构建依次为:输入层、第一全连接层、第一正则化层、第二全连接层、第二正则化层、第三全连接层、第三正则化层、激活函数层和输出层的一个九层的注意力神经网络;
(1b)将第一至第三全连接层的维度分别设置为256,128,64,第一至第三正则化层的维度分别设置为256,128,64,激活层函数设置LeakyRELU函数,采用L2 Loss函数作为损失函数;
(2)生成训练集:
(2a)在现有的社交网络中选取至少1000个用户节点,将这些用户节点间的连接边与网络节点组成社交网络数据集;
(2b)将社交网络训练集进行建模,即生成由网络节点和连接边组成的图结构,由邻接矩阵形式表示;
(3)对训练集中的社交网络结构计算每个用户节点的影响力值:
(3a)根据社交网络的图结构的拓扑性质,将两个用户节点vi和vj之间的关系分为vi对vj的单向关注vi→vj、vj对vi的单向关注vj→vi和vi与vj的双向关注
Figure BDA0002818442620000021
这三种情况,针对每种不同的链接方式,用户vj对于用户vi具有不同的影响力值,计算出每个用户节点vi的基于拓扑的影响力值Di,计算公式如下:
Figure BDA0002818442620000031
i,j∈N且i≠j
其中Ii表示第i个节点vi的入度,Ij表示第j个节点vj的入度,N表示节点的总数;β表示一个常数,在vi→vj时,β取值为60,在vj→vi时,β取值为10,在
Figure BDA0002818442620000032
时,β取值为40;
(3b)将每个用户节点vi的入度Ii作为该用户节点的自身基础影响力Bi,即Bi=Ii
(3c)将每个节点vi计算出的基于拓扑的影响力Di和自身基础影响力Bi利用不同的权重结合,得到一个综合影响力信息矩阵W∈RN×N,其中第i行第j列的元素wij为:
Figure BDA0002818442620000033
wij表示节点vj对节点vi的综合影响力值,
Figure BDA0002818442620000034
Figure BDA0002818442620000035
分别表示基于拓扑结构的影响力Di和自身基础影响力Bi的权重系数;
(4)训练注意力神经网络:
(4a)将训练集中的每个图结构及生成的综合影响力信息矩阵W输入到注意力神经网络中;
(4b)用梯度下降法,更新自注意力神经网络的权值直到损失函数收敛为止,得到训练好的自注意力神经网络;
(5)将一个无标签待预测的社交网络样本输入到训练好的注意力神经网络中,输出所有节点之间产生链接的概率,计算概率的公式如下:
Figure BDA0002818442620000036
Pij表示节点vi与节点vj之间产生链接的概率,
Figure BDA0002818442620000037
表示节点vi经过自注意力神经网络后的特征嵌入,
Figure BDA0002818442620000038
表示节点vj的特征嵌入。
本发明与现有技术先比有以下优点:
第一,由于本发明设计了一个综合影响力信息矩阵W,对社交网络的用户节点嵌入进行表示,克服了现有的节点表示方法中由于缺少节点间拓扑结构以及节点自身影响力的综合影响,提高了链路预测的准确度。
第二,由于本发明搭建并训练了一个多头自注意力神经网络,对社交网络的链路进行预测,并通过采用多头机制极大地降低了自注意力神经网络模型训练过程中的时间复杂度,缩短了链路预测的处理时间,提升了模型的空间利用率。
附图说明
图1是本发明的实现总流程图。
图2是本发明中节点间的三种情况拓扑图。
图3是本发明训练过程中计算损失函数的子流程图。
具体实施方式
下面结合附图对本发明的实例做进一步详细描述。
参照图1,本实例的实现步骤如下:
步骤1,构建自注意力神经网络。
在进行链路预测时,采用图神经网络表示节点嵌入可以保留图的网络拓扑结构和节点的内容信息,本实例中首先构建一个九层的注意力神经网络,其包括一个输入层,三个全连接层,三个正则化层,一个激活函数层和一个输出层。
1.1)注意力神经网络的结构关系:输入层→第一全连接层→第一正则化层→第二全连接层→第二正则化层→第三全连接层→第三正则化层→激活函数层→输出层;
1.2)网络参数设置:
将三个全连接层的维度分别设置为256、128、64,每一个全连接层用于将节点特征进行加权求和,聚合节点的邻居信息;
将三个正则化层的维度分别设置为256、128、64,每一个正则化层用于减小训练过程中产生的过拟合的影响,增加模型的泛化能力;
设置激活函数层的激活函数为LeakyRELU函数;
设模型训练过程中的损失函数采用L2 Loss函数。
步骤2,生成训练集。
在现有的社交网络中选取至少1000个用户节点,由于用户之间存在着单方向的关注关系以及双向的关注关系,因而,这些关系构成了用户节点之间的边。
本实例所选的1000个用户节点至少存在50000条连接边,将用户节点和节点之间的连接关系组成该社交网络训练集的样本;
对该训练集样本进行建模,生成由节点和连接边组成的图结构,并由邻接矩阵的形式表示如下:
A∈RN×N
其中,A中第i行第j列的元素为aij,aij=1,表示节点vi链接节点vj;aij=0,表示节点vi没有连接vj
步骤3,对训练集中的社交网络结构,计算每个用户节点的影响力值。
3.1)根据社交网络图结构的拓扑性质,将两个用户节点vi和vj之间的关系分为vi对vj的单向关注vi→vj、vj对vi的单向关注vj→vi和vi与vj的双向关注
Figure BDA0002818442620000051
这三种情况,如图2所示,其中图2(a)表示vi对vj的单向关注vi→vj,图2(b)表示vj对vi的单向关注vj→vi,图2(c)表示vi与vj的双向关注
Figure BDA0002818442620000052
每种不同的链接方式,用户vj对于用户vi具有不同的影响力值Di,其计算公式如下:
Figure BDA0002818442620000053
i,j∈N,且i≠j
其中,Ii表示第i个节点vi的入度,Ij表示第j个节点vj的入度,N表示节点的总数;β表示一个常数,本实例中,在vi→vj时,β取值为60,在vj→vi时,β取值为10,在
Figure BDA0002818442620000054
Figure BDA0002818442620000055
时,β取值为40;
3.2)针对于每一个用户节点,在社交网络中,将一个用户节点vi被多次连接产生的影响力称为节点vi的自身基础影响力Bi,并用节点vi的入度Ii表示,即Bi=Ii
3.3)将每个节点vi计算出的基于拓扑的影响力Di和自身基础影响力Bi利用不同的权重,计算得到一个综合影响力信息矩阵W∈RN×N,其中该矩阵的第i行第j列的元素wij为:
Figure BDA0002818442620000056
其中,wij表示节点vj对节点vi的综合影响力值,
Figure BDA0002818442620000057
Figure BDA0002818442620000058
分别表示基于拓扑结构的影响力Di和自身基础影响力Bi的权重系数。
步骤4,训练注意力神经网络。
4.1)将训练集中的每个图结构及生成的综合影响力信息矩阵W输入到注意力神经网络中,计算训练的损失函数:
参照图3,本步骤的具体实现如下:
4.1.1)计算每个节点vi的所有邻居与其自身的注意力系数:
eij=a([Whi||Whj]),
式中,eij表示节点vi与vj之间的注意力系数,W表示要训练的权重矩阵,hi表示节点vi的特征嵌入,hj表示节点vj的特征嵌入,||表示对于变化后的特征Whi与Whj的拼接操作,a表示一个可学习的权重向量;
4.1.2)将4.1.1)中计算出的eij加入到LeakyRELU激活函数中进行归一化操作,得到归一化后的注意力系数αij
Figure BDA0002818442620000061
LeakyRELU(eij)=eij,eij≥0
LeakyRELU(eij)=aeij,eij<0,
其中,Ni表示节点vi的所有邻居节点的总数,a取值为0.2;
4.1.3)利用4.1.2)计算的注意力系数αij求出特征变换后节点vi的特征向量
Figure BDA0002818442620000062
Figure BDA0002818442620000063
其中,σ表示非线性激活函数;
4.1.4)计算引入多头注意力机制后节点vi的特征向量
Figure BDA0002818442620000064
类似于卷积神经网络里的多通道,本实例中引入多头注意力机制来丰富模型的能力和稳定训练的过程,多头注意力机制采用并行的操作,以降低模型训练时间和空间占用,即每一头采用独立的可训练权重矩阵W,最后一层之前采用拼接操作求得特征向量,最后一层采用求平均的方法计算输出向量,其实现公式如下:
Figure BDA0002818442620000071
其中,n表示神经网络的层数,M表示设置的多头注意力机制的个数,
Figure BDA0002818442620000072
表示第k头自注意力机制的权重系数,Wk表示第k头自注意力机制的权重矩阵;
4.1.5)采用求平均的方式计算注意力神经网络最后一层的输出特征向量
Figure BDA0002818442620000073
Figure BDA0002818442620000074
4.1.6)根据4.1.1)-4.1.4)计算出的输出特征向量
Figure BDA0002818442620000075
得到训练过程中损失函数的表示公式:
Figure BDA0002818442620000076
4.2)对注意力神经网络的所有权重矩阵Wk进行初始化,并将其输入的特征向量通过与4.1.1)—4.1.5)相同的步骤计算出注意力神经网络的输出特征向量,再将4.1.6)计算出损失函数的梯度进行反向传播,不断重新调整权重参数Wk,直到当损失函数收敛时,模型训练结束。
步骤5,将一个无标签待预测的社交网络样本输入到训练好的注意力神经网络中,输出所有节点之间产生链接的概率,计算概率的公式如下:
Figure BDA0002818442620000077
Pij表示节点vi与节点vj之间产生链接的概率,
Figure BDA0002818442620000078
表示节点vi经过自注意力神经网络后的特征嵌入,
Figure BDA0002818442620000079
表示节点vj经过自注意力神经网络后的特征嵌入。
下面结合实验对本发明的效果做进一步的说明。
1.仿真实验条件:
仿真实验硬件平台设置:处理器为Intel(R)Xeon(R)CPU E5-2650 v4,主频为2.20GHz,内存256GB。
仿真实验的软件平台为:Ubuntu 18.04操作系统和python 3.6。
仿真实验所使用的社交网络样本数据集为,Reddit和BlogCatalog。
该Reddit数据集是由来自Reddit论坛的帖子组成,一个帖子被两个人同时评论,则这两个用户在构成图结构时会有连接边。由Hamilton,William L.等人在“InductiveRepresentation Learning on Large Graphs”中生成了该数据集。
该BlogCatalog数据集由Lei Tang等人在“Relational learning via latentsocial dimensions”中生成,其是一个关系社会网络,图是由博主及好友组成的社会关系,标签是博主的兴趣爱好。
2.仿真内容及其结果分析:
仿真使用的现有分类方法有GCN、GAT、GraphSage、AGNN、DeepInf这五种,其中:
GCN指的是,Thomas Kpif等人在“Semi-supervised classification with graphconvolutional networks”中提出的图卷积神经网络进行链路预测的方法,简称GCN。
GAT指的是,Guillem Cucurull等人在“GRAPH ATTENTION NETWORKS”中提出的自注意力神经网络进行链路预测的方法,简称GAT。
GraphSage指的是,Hamilton,William L等人在“Inductive RepresentationLearning on Large Graphs”中提到的一种直接根据邻居节点特征学习节点表示的基于图神经网络的链路预测方法,简称GraphSage。
AGNN指的是,Kiran K.Thekumparampil等人在“Attention-based Graph NeuralNetwork for Semi-supervised Learning”中提到的基于attention的半监督GCN框架进行链路预测的方法,简称AGNN。
DeepInf指的是,Jiezhong Qiu等人在“DeepInf:Social Influence Predictionwith Deep Learning”中提到的一种利用影响动态和网络结构来预测用户行为的深度学习框架,简称DeepInf。
本仿真是用本发明和上述五个现有技术的分类方法GCN、GAT、GraphSage、AGNN、DeepInf分别输入社交网络数据集进行链路预测,获得链路预测概率结果,并采用评价指标链路预测准确率,对以上六种方法分别在两种数据集下的链路预测结果进行评价,其结果如表1。
表1六种方法分类结果评价一览表
Figure BDA0002818442620000081
从表1可以看出,本发明在两个数据集上链路预测准确率均超过了现有技术,证明本发明可以达到更高的链路预测准确率。

Claims (2)

1.一种基于感知神经网络的社交网络链路预测方法,其特征在于,包括如下:
(1)构建注意力神经网络:
(1a)构建依次为:输入层、第一全连接层、第一正则化层、第二全连接层、第二正则化层、第三全连接层、第三正则化层、激活函数层和输出层的一个九层的注意力神经网络;
(1b)将第一至第三全连接层的维度分别设置为256,128,64,第一至第三正则化层的维度分别设置为256,128,64,激活层函数设置LeakyRELU函数,采用L2 Loss函数作为损失函数;
(2)生成训练集:
(2a)在现有的社交网络中选取至少1000个用户节点,将这些用户节点间的连接边与网络节点组成社交网络数据集;
(2b)将社交网络训练集进行建模,即生成由网络节点和连接边组成的图结构,由邻接矩阵形式表示;
(3)对训练集中的社交网络结构计算每个用户节点的影响力值:
(3a)根据社交网络的图结构的拓扑性质,将两个用户节点vi和vj之间的关系分为vi对vj的单向关注vi→vj、vj对vi的单向关注vj→vi和vi与vj的双向关注
Figure FDA0004047879660000011
这三种情况,针对每种不同的链接方式,用户vj对于用户vi具有不同的影响力值,计算出每个用户节点vi的基于拓扑的影响力值Di,计算公式如下:
Figure FDA0004047879660000012
其中Ii表示第i个节点vi的入度,Ij表示第j个节点vj的入度,N表示节点的总数;β表示一个常数,在vi→vj时,β取值为60,在vj→vi时,β取值为10,在
Figure FDA0004047879660000013
时,β取值为40;
(3b)将每个用户节点vi的入度Ii作为该用户节点的自身基础影响力Bi,即Bi=Ii
(3c)将每个节点vi计算出的基于拓扑的影响力Di和自身基础影响力Bi利用不同的权重结合,得到一个综合影响力信息矩阵W∈RN×N,其中第i行第j列的元素wij为:
Figure FDA0004047879660000021
wij表示节点vj对节点vi的综合影响力值,
Figure FDA0004047879660000022
Figure FDA0004047879660000023
分别表示基于拓扑结构的影响力Di和自身基础影响力Bi的权重系数;
(4)训练注意力神经网络:
(4a)将训练集中的每个图结构及生成的综合影响力信息矩阵W输入到注意力神经网络中;
(4b)用梯度下降法,更新自注意力神经网络的权值直到损失函数收敛为止,得到训练好的自注意力神经网络;实现如下:
3b1)计算每个节点vi的所有邻居与其自身的注意力系数:
eij=a([Whi||Whj]),
式中,eij表示节点vi与vj之间的注意力系数,W表示要训练的权重矩阵,hi表示节点vi的特征嵌入,hj表示节点vj的特征嵌入,||表示对于变化后的特征Whi与Whj的拼接操作,a表示一个可学习的权重向量;
3b2)对(3b1)中计算出的eij加入LeakyRELU激活函数后的值进行归一化操作:
Figure FDA0004047879660000024
LeakyRELU(eij)=eij,eij≥0
LeakyRELU(eij)=aeij,eij<0,
其中,Ni表示节点vi的所有邻居节点的总数,αij表示归一化后的注意力系数,a取值为0.2;
3b3)根据(3b2)计算好的注意力系数求出特征变换后节点vi的特征向量
Figure FDA0004047879660000025
Figure FDA0004047879660000031
其中,σ表示非线性激活函数;
3b4)计算在自注意力神经网络中引入多头注意力机制后节点vi的特征向量
Figure FDA0004047879660000032
Figure FDA0004047879660000033
其中,n表示神经网络的层数,M表示设置的多头注意力机制的个数,
Figure FDA0004047879660000034
表示第k头自注意力机制的权重系数,Wk表示第k头自注意力机制的权重矩阵;
3b5)在注意力神经网络的最后一层,采用求平均的方式计算输出的特征向量
Figure FDA0004047879660000035
Figure FDA0004047879660000036
3b6)注意力神经网络的损失函数采用L2 Loss损失函数,公式如下:
Figure FDA0004047879660000037
3b7)对注意力神经网络的所有权重矩阵Wk进行初始化,并将其输入的特征向量通过与3b1)—3b5)相同的步骤计算出注意力神经网络的输出特征向量,再将3b6)计算出损失函数的梯度进行反向传播,不断重新调整权重参数Wk,直到当损失函数收敛时,模型训练结束;
(5)将一个无标签待预测的社交网络样本输入到训练好的注意力神经网络中,输出所有节点之间产生链接的概率,计算概率的公式如下:
Figure FDA0004047879660000038
Pij表示节点vi与节点vj之间产生链接的概率,
Figure FDA0004047879660000039
表示节点vi经过自注意力神经网络后的特征嵌入,
Figure FDA00040478796600000310
表示节点vj的特征嵌入。
2.根据权利要求1所述的方法,其特征在于,(2b)中所构建的图结构,用邻接矩阵形式表示如下:
A∈RN×N
其中,A中第i行第j列的元素为aij,aij=1,表示节点vi链接节点vj;aij=0,表示节点vi没有连接vj
CN202011407178.XA 2020-12-05 2020-12-05 基于感知神经网络的社交网络链路预测方法 Active CN112508085B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011407178.XA CN112508085B (zh) 2020-12-05 2020-12-05 基于感知神经网络的社交网络链路预测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011407178.XA CN112508085B (zh) 2020-12-05 2020-12-05 基于感知神经网络的社交网络链路预测方法

Publications (2)

Publication Number Publication Date
CN112508085A CN112508085A (zh) 2021-03-16
CN112508085B true CN112508085B (zh) 2023-04-07

Family

ID=74970166

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011407178.XA Active CN112508085B (zh) 2020-12-05 2020-12-05 基于感知神经网络的社交网络链路预测方法

Country Status (1)

Country Link
CN (1) CN112508085B (zh)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113254864B (zh) * 2021-04-29 2024-05-28 中科计算技术创新研究院 基于节点特征和回复路径的动态子图生成方法、争议性检测方法
CN113240086B (zh) * 2021-05-13 2022-12-20 宿州学院 一种复杂网络链接预测方法及系统
CN113420628B (zh) * 2021-06-16 2022-09-09 深圳大学 一种群体行为识别方法、装置、计算机设备及存储介质
CN113537613B (zh) * 2021-07-28 2023-11-21 浙江大学 一种模体感知的时态网络预测方法
CN113962358B (zh) * 2021-09-29 2023-12-22 西安交通大学 一种基于时序超图注意力神经网络的信息扩散预测方法
CN113792937B (zh) * 2021-09-29 2022-09-13 中国人民解放军国防科技大学 一种基于图神经网络的社交网络影响力预测方法、装置
CN114090902B (zh) * 2021-11-22 2022-09-09 中国人民解放军国防科技大学 一种基于异质网络的社交网络影响力预测方法、装置
CN114678069B (zh) * 2022-05-27 2022-09-06 浙江大学 器官移植的免疫排斥预测及信号通路确定装置
CN115063251A (zh) * 2022-05-30 2022-09-16 华侨大学 基于关系强度与反馈机制的社交传播动态网络表示方法
CN115019891B (zh) * 2022-06-08 2023-07-07 郑州大学 一种基于半监督图神经网络的个体驱动基因预测方法
CN114842681A (zh) * 2022-07-04 2022-08-02 中国电子科技集团公司第二十八研究所 一种基于多头注意力机制的机场场面航迹预测方法
CN117057943B (zh) * 2023-07-10 2024-05-03 齐齐哈尔大学 一种节点特征感知的时序社交网络影响力最大化方法及系统
CN117670572B (zh) * 2024-02-02 2024-05-03 南京财经大学 一种基于图对比学习的社交行为预测方法、系统及产品

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019014894A1 (zh) * 2017-07-20 2019-01-24 深圳大学 网络链路预测方法及装置
CN110147911A (zh) * 2019-05-28 2019-08-20 吉林大学 一种基于内容感知的社交影响力预测模型及预测方法
CN110609891A (zh) * 2019-09-18 2019-12-24 合肥工业大学 一种基于上下文感知图神经网络的视觉对话生成方法
CN111339404A (zh) * 2020-02-14 2020-06-26 腾讯科技(深圳)有限公司 基于人工智能的内容热度预测方法、装置和计算机设备
CN111681059A (zh) * 2020-08-14 2020-09-18 支付宝(杭州)信息技术有限公司 行为预测模型的训练方法及装置
CN111709474A (zh) * 2020-06-16 2020-09-25 重庆大学 一种融合拓扑结构和节点属性的图嵌入链路预测方法
CN111709518A (zh) * 2020-06-16 2020-09-25 重庆大学 一种基于社区感知和关系注意力的增强网络表示学习的方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190005384A1 (en) * 2017-06-29 2019-01-03 General Electric Company Topology aware graph neural nets
US11544530B2 (en) * 2018-10-29 2023-01-03 Nec Corporation Self-attentive attributed network embedding

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019014894A1 (zh) * 2017-07-20 2019-01-24 深圳大学 网络链路预测方法及装置
CN110147911A (zh) * 2019-05-28 2019-08-20 吉林大学 一种基于内容感知的社交影响力预测模型及预测方法
CN110609891A (zh) * 2019-09-18 2019-12-24 合肥工业大学 一种基于上下文感知图神经网络的视觉对话生成方法
CN111339404A (zh) * 2020-02-14 2020-06-26 腾讯科技(深圳)有限公司 基于人工智能的内容热度预测方法、装置和计算机设备
CN111709474A (zh) * 2020-06-16 2020-09-25 重庆大学 一种融合拓扑结构和节点属性的图嵌入链路预测方法
CN111709518A (zh) * 2020-06-16 2020-09-25 重庆大学 一种基于社区感知和关系注意力的增强网络表示学习的方法
CN111681059A (zh) * 2020-08-14 2020-09-18 支付宝(杭州)信息技术有限公司 行为预测模型的训练方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Topological Influence-Aware Recommendation on Social Networks;Zhaoyi Li等;《Complexity》;20190210;全文 *
从信息学的角度分析复杂网络链路预测;王慧等;《小型微型计算机系统》;20200215;全文 *

Also Published As

Publication number Publication date
CN112508085A (zh) 2021-03-16

Similar Documents

Publication Publication Date Title
CN112508085B (zh) 基于感知神经网络的社交网络链路预测方法
WO2023000574A1 (zh) 一种模型训练方法、装置、设备及可读存储介质
Wang et al. Research on Healthy Anomaly Detection Model Based on Deep Learning from Multiple Time‐Series Physiological Signals
CN111667022A (zh) 用户数据处理方法、装置、计算机设备和存储介质
CN113919441A (zh) 一种基于超图变换网络的分类方法
CN112381179B (zh) 一种基于双层注意力机制的异质图分类方法
CN112199536A (zh) 一种基于跨模态的快速多标签图像分类方法和系统
US20220383127A1 (en) Methods and systems for training a graph neural network using supervised contrastive learning
CN112884045B (zh) 基于多视角的随机删边嵌入模型的分类方法
Zheng et al. Multimodal deep network embedding with integrated structure and attribute information
CN111130942B (zh) 一种基于消息大小分析的应用流量识别方法
Hur et al. Entropy-based pruning method for convolutional neural networks
CN112668633B (zh) 一种基于细粒度领域自适应的图迁移学习方法
CN116956993A (zh) 一种构建图集成模型的方法、装置及存储介质
Chen et al. CNFRD: A Few‐Shot Rumor Detection Framework via Capsule Network for COVID‐19
CN117349494A (zh) 空间图卷积神经网络的图分类方法、系统、介质及设备
CN114842247B (zh) 基于特征累加的图卷积网络半监督节点分类方法
He et al. Semisupervised network embedding with differentiable deep quantization
CN115660882A (zh) 社交网络中用户间关系预测方法及多头混合聚合图卷积网络
CN110555161A (zh) 一种基于用户信任和卷积神经网络的个性化推荐方法
Guo et al. Deep Learning-Based Image Retrieval With Unsupervised Double Bit Hashing
Liang et al. Incremental deep forest for multi-label data streams learning
CN114171206A (zh) 模型训练、传感病预测方法、装置、设备及存储介质
CN114332469A (zh) 模型训练方法、装置、设备及存储介质
CN113705197A (zh) 一种基于位置增强的细粒度情感分析方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant