CN113784414B - 一种采用图对比学习的机会网络节点嵌入方法 - Google Patents

一种采用图对比学习的机会网络节点嵌入方法 Download PDF

Info

Publication number
CN113784414B
CN113784414B CN202111044097.2A CN202111044097A CN113784414B CN 113784414 B CN113784414 B CN 113784414B CN 202111044097 A CN202111044097 A CN 202111044097A CN 113784414 B CN113784414 B CN 113784414B
Authority
CN
China
Prior art keywords
node
network
opportunistic network
nodes
opportunistic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111044097.2A
Other languages
English (en)
Other versions
CN113784414A (zh
Inventor
魏正皓
舒坚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanchang Hangkong University
Original Assignee
Nanchang Hangkong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanchang Hangkong University filed Critical Nanchang Hangkong University
Priority to CN202111044097.2A priority Critical patent/CN113784414B/zh
Publication of CN113784414A publication Critical patent/CN113784414A/zh
Application granted granted Critical
Publication of CN113784414B publication Critical patent/CN113784414B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W40/00Communication routing or communication path finding
    • H04W40/02Communication route or path selection, e.g. power-based or shortest path routing
    • H04W40/04Communication route or path selection, e.g. power-based or shortest path routing based on wireless node resources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W40/00Communication routing or communication path finding
    • H04W40/24Connectivity information management, e.g. connectivity discovery or connectivity update
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种采用图对比学习的机会网络节点嵌入方法,包括:S1,处理机会网络源数据,构建机会网络的拓扑图表示与特征表示;S2,对机会网络进行增广操作,得到两种不同的视图,并利用节点连边次数确定机会网络中的正例节点集与负例节点集;S3,采用图注意力网络对不同视图下的机会网络进行表征,得到其相应节点嵌入向量;S4,采用多层感知机映射不同视图下的节点嵌入向量,并通过预定义的损失函数,最小化正例节点集中不同视图间节点映射向量的余弦相似性以更新图注意力网络的训练参数。本发明能够应用于多种基于机器学习的机会网络下游任务研究模型中,解决其在现实环境下由于标签质量低下导致的过拟合、泛化性差等问题,提高模型精度。

Description

一种采用图对比学习的机会网络节点嵌入方法
技术领域
本发明涉及机会网络分析技术领域,特别是涉及一种采用图对比学习的机会网络节点嵌入方法。
背景技术
在现实环境中,网络中的节点具备移动性。然而由于节点通讯范围的限制,节点间的无线链路会发生无规律的断开与连接,这严重影响了网络中节点间的通讯效率。因此,机会网络(Opportunistic Network)应运而生,机会网络是一种不需要源节点与目标节点存在完整无线链路的新型网络,其能够在无线链路断开的情况下完成节点间的通讯。
近几年来,机会网络节点嵌入已成为机会网络分析领域中重要的研究方向。网络嵌入方法旨在学习一种编码的方法,该方法可以将节点转化为保留图拓扑与特征属性的嵌入向量,并根据下游任务设计相应的模型以进行研究。然而,在现有机会网络领域的研究中,绝大部分的节点嵌入方法需要得到机会网络相应的标签并基于此进行训练,在现实环境中,机会网络下游任务标签经常由于难以获取或者获取成本较高而出现标签质量低下问题,导致相应模型出现过拟合、泛化性差等问题。
发明内容
针对上述问题,本发明的目的在于提出一种采用图对比学习的机会网络节点嵌入方法,以解决在现实环境中机会网络下游任务标签质量低下,导致相应模型出现过拟合、泛化性差等问题。
本发明采用的技术方案如下:一种采用图对比学习的机会网络节点嵌入方法,包括如下步骤:
S1,处理机会网络源数据并构建机会网络的拓扑图表示与特征表示,根据机会网络数据中的连边次数w与连边时长Δt构建机会网络邻接矩阵
Figure BDA0003250521290000021
与特征矩阵
Figure BDA0003250521290000022
S2,从拓扑与特征两方面对机会网络进行增广操作,分别得到两种不同的视图τ1与τ2,并根据节点连边次数w确定机会网络中的正例与负例;
S3,分别将不同视图下的邻接矩阵与特征矩阵
Figure BDA0003250521290000023
Figure BDA0003250521290000024
Figure BDA0003250521290000025
输入到图注意力网络(Graph Attention Network,GAT)中,得到机会网络各节点的嵌入向量
Figure BDA0003250521290000026
Figure BDA0003250521290000027
其中D为嵌入向量维度;
S4,采用多层感知机(Multilayer Perceptron,MLP)对节点嵌入向量
Figure BDA0003250521290000028
Figure BDA0003250521290000029
进行转换得到映射向量
Figure BDA00032505212900000210
Figure BDA00032505212900000211
计算其映射向量间的余弦相似性,其中D′为映射向量维度且D′>D,并利用预定义的损失函数,通过最小化正例节点集中不同视图下节点映射向量的余弦相似性的方式训练GAT。
自此,训练好的GAT将具备输出具有高效表征能力的机会网络节点的嵌入向量,可用于各类下游任务中。
可选的,在步骤S1中,机会网络邻接矩阵A根据节点间是否存在连边构建,具体构建方法如公式(1)所示:
Figure BDA00032505212900000212
其中ωi,j为节点vi与vj的连边数,Ai,j对应vi与vj在邻接矩阵A中的位置。
可选的,在步骤S1中,机会网络特征矩阵X由机会网络快照Gm(m∈{1,2,...,M})中各节点对应的平均活跃时长xm拼接而成。机会网络快照Gm构建方法为:确定机会网络快照时间跨度ΔT,将机会网络均匀地分割为M个机会网络快照Gm(m∈{1,2,...,M})。xm的计算方法如公式(2)所示:
Figure BDA0003250521290000031
其中,
Figure BDA0003250521290000032
为机会网络快照Gm中节点
Figure BDA0003250521290000033
的一阶邻居,K为
Figure BDA0003250521290000034
中节点的个数,
Figure BDA0003250521290000035
为节点
Figure BDA0003250521290000036
Figure BDA0003250521290000037
中的节点
Figure BDA0003250521290000038
的连边时长。机会网络快照时间跨度ΔT根据具体机会网络数据集的统计单位(天,月)确定。
可选的,在步骤S2中,利用移除拓扑图中重要度最低的U条边实现基于拓扑的机会网络增广,即在视图τ1,机会网络的特征矩阵X不变,邻接矩阵A发生变化。拓扑图中各条连边的重要度
Figure BDA0003250521290000039
计算方法如公式(3)所示:
Figure BDA00032505212900000310
其中Γ(vi)为节点vi的一阶邻居个数,Γ(vj)为节点vj的一阶邻居个数。具体的移除方法为修改邻接矩阵A中对应边ei,j的Ai,j为0。U的大小为机会网络拓扑图中连边数量的5%;
可选的,在步骤S2中,利用掩盖极大连通节点对数最小的V个机会网络快照所对应在特征矩阵中的V维特征实现基于特征的机会网络增广,即在视图τ2中,机会网络的邻接矩阵A不变,特征矩阵X发生变化。机会网络快照Gm中的极大连通节点对数ONPairwisem计算方法如公式(4)所示:
Figure BDA00032505212900000311
其中
Figure BDA0003250521290000041
为机会网络快照Gm的第i个连通分量
Figure BDA0003250521290000042
中所包含节点的个数,C为机会网络快照Gm包含连通分量的个数。具体掩盖方法为修改特征矩阵X中机会网络快照Gm对应的第m列向量xm为0。V的大小为机会网络快照总数的5%。
可选的,在步骤S2中,机会网络中的正例节点集与负例节点集基于机会网络节点连边次数w确定,将w最高的前R个节点组成正例节点集
Figure BDA0003250521290000043
其余节点则组成负例节点集
Figure BDA0003250521290000044
可选的,在步骤S3中,将机会网络视图τ1与τ2对应的邻接矩阵与特征矩阵
Figure BDA0003250521290000045
Figure BDA0003250521290000046
Figure BDA0003250521290000047
分别输入到两个结构相同且参数共享的GAT模型中,得到机会网络节点嵌入向量
Figure BDA0003250521290000048
Figure BDA0003250521290000049
可选的,在步骤S4中,机会网络节点嵌入向量
Figure BDA00032505212900000410
Figure BDA00032505212900000411
输入到两个结构相同且参数共享的MLP模型中,获得节点映射向量
Figure BDA00032505212900000412
Figure BDA00032505212900000413
并利用其计算同一节点在不同视图下映射向量之间的余弦相似性,计算方法如公式(5)所示:
Figure BDA00032505212900000414
可选的,在步骤S4中,最小化正例样本
Figure BDA00032505212900000415
中同一节点在不同视图下映射向量之间的余弦相似性并定义损失函数loss,其计算方法如公式(6)所示:
Figure BDA00032505212900000416
其中
Figure BDA00032505212900000417
Figure BDA00032505212900000418
为来自正例节点集
Figure BDA00032505212900000419
的节点在视图τ1与τ2下的节点映射向量,
Figure BDA00032505212900000420
Figure BDA00032505212900000421
为所有节点在视图τ1与τ2下的节点映射向量。
根据本发明提供的采用图对比学习的机会网络节点嵌入方法,通过学习节点拓扑与特征的重要信息进行节点嵌入向量的优化,首先处理机会网络源数据并构建机会网络的拓扑图表示与特征表示,对机会网络进行增广操作获得其两种不同的视图,通过图注意力网络对不同机会网络视图进行表征得到节点嵌入向量,其次定义机会网络中的正例节点集与负例节点集,并采用多层感知机将不同视图中的节点进行映射,通过最小化正例节点集在不同视图中映射向量的余弦相似性对图注意力网络进行训练,最后将机会网络的拓扑表示与特征表示输入到最终的图注意力网络中进行表征,获取节点嵌入向量并运用于各类下游任务中,有效解决了在现实环境中机会网络下游任务标签质量低下导致的相应模型具有过拟合、泛化性差等问题,提高模型精度。
附图说明
图1为机会网络源数据中节点通讯格式示意图;
图2为基于拓扑的机会网络增广方法示意图;
图3为基于特征的机会网络增广方法示意图;
图4为机会网络不同视图下的节点嵌入过程示意图;
图5为不同视图下节点嵌入向量转化与余弦相似性计算过程示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提供一种采用图对比学习的机会网络节点嵌入方法,包括以下步骤:
S1,处理机会网络源数据并构建机会网络的拓扑图与特征,根据机会网络数据中的连边次数w与连边时长Δt构建机会网络邻接矩阵
Figure BDA0003250521290000061
与特征矩阵
Figure BDA0003250521290000062
S2,从拓扑与特征两方面对机会网络进行增广操作,分别得到两种不同的视图τ1与τ2,并根据节点连边次数w确定机会网络中的正例与负例。
S3,分别将机会网络不同视图下的邻接矩阵A与特征矩阵X输入到GAT中,得到机会网络各节点的嵌入向量
Figure BDA0003250521290000063
Figure BDA0003250521290000064
其中D为嵌入向量维度。
S4,采用MLP对节点嵌入向量
Figure BDA0003250521290000065
Figure BDA0003250521290000066
进行转换得到映射向量
Figure BDA0003250521290000067
Figure BDA0003250521290000068
Figure BDA0003250521290000069
计算其映射向量间的余弦相似性,其中D′为映射向量维度且D′>D,并定义的损失函数,通过最小化正例节点集中不同视图下节点映射向量的余弦相似性的方式更新GAT的训练参数。
自此,训练好的GAT将具备输出具有高效表征能力的机会网络节点的嵌入向量,可用于各类下游任务中。
步骤S1具体包括:
①处理机会网络源数据。机会网络源数据中节点通讯格式如附图1所示,其中Time为发生通讯的时间戳、Action为通讯的行为、First_Node为通讯的源节点、Second_Node为通讯的目标节点、Type为通讯的类型。对以上数据进行预处理获取节点连边次数w与连边时长Δt,其中w通过统计通讯中具有相同源节点与目标节点的个数获得,Δt则为具有相同源节点与目标节点的通讯中类型为“UP”与类型为“DOWN”的通讯间时间戳的差值。
②机会网络拓扑图的构建。利用邻接矩阵
Figure BDA0003250521290000071
表示机会网络拓扑图结构,其根据节点间是否存在连边构建,具体构建方法如公式(1)所示:
Figure BDA0003250521290000072
其中ωi,j为节点vi与vj的连边数,Ai,j对应vi与vj在邻接矩阵A中的位置。
③机会网络特征的构建。利用特征矩阵X表示机会网络特征,首先确定时间跨度ΔT将机会网络均匀分割为M个机会网络快照Gm(m∈{1,2,...,})并计算Gm中各节点的平均活跃时长
Figure BDA0003250521290000073
其次将各Gm中的xm按顺序横向拼接,得到机会网络特征矩阵
Figure BDA0003250521290000074
节点平均活跃时长
Figure BDA0003250521290000075
计算方法如公式(2)所示:
Figure BDA0003250521290000076
其中,
Figure BDA0003250521290000077
为机会网络快照Gm中节点
Figure BDA0003250521290000078
的一阶邻居,K为
Figure BDA0003250521290000079
中节点的个数,
Figure BDA00032505212900000710
为节点
Figure BDA00032505212900000711
Figure BDA00032505212900000712
中节点
Figure BDA00032505212900000713
的连边时长。机会网络快照时间跨度ΔT根据具体机会网络数据集的统计单位(天,月)确定。
步骤S2具体包括:
①基于拓扑的机会网络增广方法。利用移除拓扑图中重要度最低的U条边实现基于拓扑的机会网络增广,得到视图τ1。其特点为机会网络的特征矩阵X不变,邻接矩阵A发生变化。拓扑图中各条连边的重要度
Figure BDA00032505212900000714
计算方法如公式(3)所示:
Figure BDA00032505212900000715
其中Γ(vi)为节点vi的一阶邻居个数,Γ(vj)为节点vj的一阶邻居个数。具体的移除方法如附图2所示,修改邻接矩阵A中对应边ei,j的Ai,j为0,的大小为机会网络拓扑图中连边数量的5%;
②基于特征的机会网络增广方法。利用掩盖极大连通节点对数最小的V个机会网络快照所对应在特征矩阵中的V维特征实现基于特征的机会网络增广,得到视图τ2,其特点为机会网络的邻接矩阵A不变,特征矩阵X发生变化。机会网络快照Gm中的极大连通节点对数ONPairwisem计算方法如公式(4)所示:
Figure BDA0003250521290000081
其中
Figure BDA0003250521290000082
为机会网络快照Gm的第i个连通分量
Figure BDA0003250521290000083
中所包含节点的个数,C为机会网络快照Gm包含连通分量的个数。具体掩盖方法如附图3所示,修改特征矩阵X中机会网络快照Gm对应的第m列向量xm为0,V的大小为机会网络快照总数的5%。
③机会网络正例节点集与负例节点集的确定。利用节点连边次数w确定机会网络中的正例与负例,将w最高的前R个节点组成正例节点集
Figure BDA0003250521290000084
其余节点则组成负例节点集
Figure BDA0003250521290000085
R的大小为机会网络节点总数的5%。
步骤S3具体包括:
①利用GAT对机会网络节点进行嵌入。如附图4所示,将不同视图中的邻接矩阵与特征矩阵
Figure BDA0003250521290000086
Figure BDA0003250521290000087
Figure BDA0003250521290000088
分别输入到两个结构相同且参数共享的GAT模型中,得到相应视图下机会网络节点嵌入向量
Figure BDA0003250521290000089
Figure BDA00032505212900000810
其具体步骤为:
I,对机会网络中的节点特征X进行线性变换,并利用self-attention机制计算相邻节点vi与vj的注意力系数ei,j,其计算如公式(5)所示:
ei,j=Attention(W1xi·W1xj)#(5)
其中xi与xj分别为机会网络特征矩阵X中的第i行与第j行向量,W1为训练参数,Attention(·)为向量拼接操作。
II,通过SoftMax函数对节点与其邻居的注意力系数进行归一化操作得到节点间的注意力因子αi,j,其计算如公式(6)所示:
Figure BDA0003250521290000091
其中
Figure BDA0003250521290000092
为节点vi的一阶邻域。
III,利用节点vi与其一阶邻居
Figure BDA0003250521290000093
中的注意力因子αi,j进行邻域聚合操作,其计算如公式(7)所示:
Figure BDA0003250521290000094
其中W1为训练参数,Relu为激活函数,Zi为节点vi的嵌入向量,而Z则由机会网络各个节点嵌入向量在纵向拼接而成。
步骤S4具体包括:
①计算不同视图间节点嵌入向量的余弦相似性。如附图5所示,首先利用两个结构相同且参数共享的MLP将不同视图下的节点嵌入向量
Figure BDA0003250521290000095
Figure BDA0003250521290000096
转化为映射向量
Figure BDA0003250521290000097
Figure BDA0003250521290000098
具体转化过程如公式(8)所示:
Z_proj=Relu(W3Relu(W2Z+b2)+b3)#(8)
其中W2与W3为训练参数,b2与b3为偏置量,Relu为激活函数。其次计算同一节点在不同视图下其映射向量间的余弦相似性,其计算方法如公式(9)所示:
Figure BDA0003250521290000101
②损失函数的定义。通过最小化正例节点集中节点在不同视图下的映射向量设计损失函数,利用随机梯度下降方法来最小化损失函数并对GAT与MLP中训练参数W1、W2、W3进行更新,直到损失函数收敛到稳定状态。损失函数loss的计算如公式(10)所示:
Figure BDA0003250521290000102
最后将机会网络邻接矩阵A与特征矩阵X输入到训练好的GAT中,得到相应的机会网络节点嵌入训练
Figure BDA0003250521290000103
通过微调的方式与各类下游任务结合,获取的机会网络节点嵌入向量可以较准确的表征机会网络。
根据上述的采用图对比学习的机会网络节点嵌入方法,通过学习节点拓扑与特征的重要信息进行节点嵌入向量的优化,首先处理机会网络源数据并构建机会网络的拓扑图表示与特征表示,对机会网络进行增广操作获得其两种不同的视图,通过图注意力网络对不同机会网络视图进行表征得到节点嵌入向量,其次定义机会网络中的正例节点集与负例节点集,并采用多层感知机将不同视图中的节点进行映射,通过最小化正例节点集在不同视图中映射向量的余弦相似性对图注意力网络进行训练,最后将机会网络的拓扑表示与特征表示输入到最终的图注意力网络中进行表征,获取节点嵌入向量并运用于各类下游任务中,有效解决了在现实环境中机会网络下游任务标签质量低下导致的相应模型具有过拟合、泛化性差等问题,提高模型精度。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管已经示出和描述了本发明的实施例,本领域的普通技术人员可以理解:在不脱离本发明的原理和宗旨的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由权利要求及其等同物限定。

Claims (1)

1.一种图对比学习的机会网络节点嵌入方法,其特征在于,包括如下步骤:
S1,处理机会网络源数据,构建机会网络的拓扑图表示与特征表示;
S2,对机会网络进行增广操作,得到两种不同的视图,并利用节点连边次数确定机会网络中的正例节点集与负例节点集;
S3,采用图注意力网络对不同视图下的机会网络进行表征,得到其相应节点嵌入向量;
S4,采用多层感知机映射不同视图下的节点嵌入向量,并通过预定义的损失函数,最小化正例节点集中不同视图间节点映射向量的余弦相似性以更新图注意力网络的训练参数;
步骤S1中机会网络的特征由特征向量
Figure FDA0004136796100000011
表示,而特征向量X由机会网络快照Gm(m∈{1,2,...,M})中各节点的平均活跃时长
Figure FDA0004136796100000012
拼接而成,其中,N为机会网络节点个数,M为机会网络快照个数,xm计算方法如下式所示:
Figure FDA0004136796100000013
其中,
Figure FDA0004136796100000014
为机会网络快照Gm中节点
Figure FDA0004136796100000015
的一阶邻居,K为
Figure FDA0004136796100000016
中节点的个数,
Figure FDA0004136796100000017
为节点
Figure FDA0004136796100000018
Figure FDA0004136796100000019
中节点
Figure FDA00041367961000000110
的连边时长;
步骤S1中,机会网络拓扑图的构建包括:利用邻接矩阵
Figure FDA00041367961000000111
表示机会网络拓扑图结构,其根据节点间是否存在连边构建,具体构建方法如下式所示:
Figure FDA00041367961000000112
其中ωi,j为节点vi与vj的连边数,Ai,j对应vi与vj在邻接矩阵A中的位置;
步骤S2中机会网络增广操作的具体步骤为:
基于拓扑的机会网络增广方法:对于机会网络拓扑图中的任意一条连边ei,j,计算其边重要度Jei,,其计算方法如下式所示:
Figure FDA0004136796100000021
其中Γ(vi)为节点vi的一阶邻居个数,Γ(vj)为节点vj的一阶邻居个数,对每一条连边ei,j的重要度从大到小进行排序,并将排名最低的U条连边从机会网络中删除,形成视图τ1,U的大小为机会网络拓扑图中整体连边数量的5%;
基于特征的机会网络增广方法:计算机会网络快照Gm中的极大连通节点对数ONPairwisem,其计算方法如下式所示:
Figure FDA0004136796100000022
其中
Figure FDA0004136796100000023
为机会网络快照Gm的第i个连通分量
Figure FDA0004136796100000024
中所包含节点的个数,C为该机会网络快照包含连通分量的个数,对各个机会网络快照的极大连通节点对数从大到小进行排序,并将排名最低的V个机会网络快照的特征修改为0,形成视图τ2,V的大小为机会网络快照总数的5%;
步骤S2利用节点连边次数w确定机会网络中的正例与负例,将w最高的前R个节点组成正例节点集
Figure FDA0004136796100000025
其余节点则组成负例节点集
Figure FDA0004136796100000026
R的大小为机会网络节点总数的5%;
步骤S4中预定义的损失函数loss,其计算方法如下式所示:
Figure FDA0004136796100000027
其中,
Figure FDA0004136796100000028
为正例节点集,
Figure FDA0004136796100000029
为负例节点集,sim(·)为向量余弦相似性,
Figure FDA00041367961000000210
Figure FDA00041367961000000211
分别为在τ1视图与τ2视图下来自正例节点集中的节点映射向量,
Figure FDA00041367961000000212
Figure FDA00041367961000000213
分别为在τ1视图与τ2视图下所有节点映射向量;
步骤S3具体包括:
利用图注意力网络GAT对机会网络节点进行嵌入,将不同视图中的邻接矩阵与特征矩阵
Figure FDA0004136796100000031
Figure FDA0004136796100000032
Figure FDA0004136796100000033
Figure FDA0004136796100000034
分别输入到两个结构相同且参数共享的GAT模型中,得到相应视图下机会网络节点嵌入向量
Figure FDA0004136796100000035
Figure FDA0004136796100000036
具体步骤为:
I,对机会网络中的节点特征X进行线性变换,并利用self-attention机制计算相邻节点vi与vj的注意力系数ei,j,计算如下式所示:
ei,j=Attention(W1xi·W1xj)#
其中xi与xj分别为机会网络特征矩阵X中的第i行与第j行向量,W1为训练参数,Attention(·)为向量拼接操作;
II,通过SoftMax函数对节点与其邻居的注意力系数进行归一化操作得到节点间的注意力因子αi,j,计算如下式所示:
Figure FDA0004136796100000037
其中
Figure FDA0004136796100000038
为节点vi的一阶邻域;
III,利用节点vi与其一阶邻居
Figure FDA0004136796100000039
中的注意力因子αi,j进行邻域聚合操作,计算如下式所示:
Figure FDA00041367961000000310
其中W1为训练参数,Relu为激活函数,Zi为节点vi的嵌入向量,而Z则由机会网络各个节点嵌入向量在纵向拼接而成。
CN202111044097.2A 2021-09-07 2021-09-07 一种采用图对比学习的机会网络节点嵌入方法 Active CN113784414B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111044097.2A CN113784414B (zh) 2021-09-07 2021-09-07 一种采用图对比学习的机会网络节点嵌入方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111044097.2A CN113784414B (zh) 2021-09-07 2021-09-07 一种采用图对比学习的机会网络节点嵌入方法

Publications (2)

Publication Number Publication Date
CN113784414A CN113784414A (zh) 2021-12-10
CN113784414B true CN113784414B (zh) 2023-05-05

Family

ID=78841627

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111044097.2A Active CN113784414B (zh) 2021-09-07 2021-09-07 一种采用图对比学习的机会网络节点嵌入方法

Country Status (1)

Country Link
CN (1) CN113784414B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109347697A (zh) * 2018-10-10 2019-02-15 南昌航空大学 机会网络链路预测方法、装置及可读存储介质
WO2020068831A1 (en) * 2018-09-26 2020-04-02 Visa International Service Association Dynamic graph representation learning via attention networks
CN111696345A (zh) * 2020-05-08 2020-09-22 东南大学 一种基于网络社区检测和gcn的耦合大规模数据流宽度学习快速预测智能算法
CN111884867A (zh) * 2020-08-17 2020-11-03 南昌航空大学 基于循环生成式对抗网络的机会网络拓扑预测方法及装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2337280A1 (en) * 2009-12-21 2011-06-22 Thomson Licensing Method to manage an opportunistic communication network

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020068831A1 (en) * 2018-09-26 2020-04-02 Visa International Service Association Dynamic graph representation learning via attention networks
CN109347697A (zh) * 2018-10-10 2019-02-15 南昌航空大学 机会网络链路预测方法、装置及可读存储介质
CN111696345A (zh) * 2020-05-08 2020-09-22 东南大学 一种基于网络社区检测和gcn的耦合大规模数据流宽度学习快速预测智能算法
CN111884867A (zh) * 2020-08-17 2020-11-03 南昌航空大学 基于循环生成式对抗网络的机会网络拓扑预测方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Graph-CAT: Graph Co-Attention Networks via local and global attribute augmentations;Liang Yang,Weixun Li,Yuanfang Guo;《Future Generation Computer Systems》;全文 *
基于图神经网络的机会网络节点重要度评估方法;刘琳岚;《计算机研究与发展》;第59卷(第04期);全文 *

Also Published As

Publication number Publication date
CN113784414A (zh) 2021-12-10

Similar Documents

Publication Publication Date Title
CN111242282B (zh) 基于端边云协同的深度学习模型训练加速方法
CN109284406B (zh) 基于差异循环神经网络的意图识别方法
US20190294740A1 (en) Forecasting apparatus, parameter set generating method, and program
CN111916144B (zh) 基于自注意力神经网络和粗化算法的蛋白质分类方法
CN113469119B (zh) 基于视觉转换器和图卷积网络的宫颈细胞图像分类方法
CN109299170B (zh) 一种针对带标签时间序列数据的补全方法
CN112100514B (zh) 一种基于全局注意力机制表征学习的好友推荐方法
CN112347970A (zh) 一种基于图卷积神经网络的遥感影像地物识别方法
CN113822419B (zh) 一种基于结构信息的自监督图表示学习运行方法
CN114241230A (zh) 目标检测模型剪枝方法和目标检测方法
CN111488498A (zh) 基于图神经网络的“节点-图”跨层图匹配方法及系统
CN111737294A (zh) 一种基于动态增量集成模糊的数据流分类方法
CN114707641A (zh) 双视角图神经网络模型的训练方法、装置、设备及介质
CN113784414B (zh) 一种采用图对比学习的机会网络节点嵌入方法
CN112446739B (zh) 一种基于分解机和图神经网络的点击率预测方法及系统
CN114816808A (zh) 异常检测方法、装置、电子设备及计算机可读存储介质
CN111460275B (zh) 一种面向社交网络的动态网络表示学习方法及系统
CN112529057A (zh) 一种基于图卷积网络的图相似性计算方法及装置
CN111756587A (zh) 一种采用GraphSAGE预测时序网络链路的方法
CN110580289A (zh) 一种基于堆叠自动编码器和引文网络的科技论文分类方法
CN114677547B (zh) 一种基于自保持表征扩展的类增量学习的图像分类方法
CN115544307A (zh) 基于关联矩阵的有向图数据特征提取与表达方法和系统
CN112990336B (zh) 基于竞争注意力融合的深度三维点云分类网络构建方法
CN114663725A (zh) 多领域自适应模型的训练方法、系统、设备及存储介质
CN114385831B (zh) 一种基于特征提取的知识图谱关系预测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant