CN113065649A - 一种复杂网络拓扑图表示学习方法、预测方法及服务器 - Google Patents
一种复杂网络拓扑图表示学习方法、预测方法及服务器 Download PDFInfo
- Publication number
- CN113065649A CN113065649A CN202110198812.1A CN202110198812A CN113065649A CN 113065649 A CN113065649 A CN 113065649A CN 202110198812 A CN202110198812 A CN 202110198812A CN 113065649 A CN113065649 A CN 113065649A
- Authority
- CN
- China
- Prior art keywords
- graph
- complex network
- matrix
- representation
- node
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 65
- 239000011159 matrix material Substances 0.000 claims abstract description 72
- 230000006870 function Effects 0.000 claims abstract description 31
- 238000013528 artificial neural network Methods 0.000 claims abstract description 29
- 238000012545 processing Methods 0.000 claims abstract description 10
- 238000004590 computer program Methods 0.000 claims description 14
- 238000012549 training Methods 0.000 claims description 13
- 238000013135 deep learning Methods 0.000 claims description 4
- 238000011478 gradient descent method Methods 0.000 claims description 2
- 238000005457 optimization Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 6
- 238000003062 neural network model Methods 0.000 description 5
- 230000004927 fusion Effects 0.000 description 4
- 230000009467 reduction Effects 0.000 description 4
- 238000000354 decomposition reaction Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 3
- 238000009499 grossing Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000005295 random walk Methods 0.000 description 1
- 238000000547 structure data Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/061—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using biological neurons, e.g. biological neurons connected to an integrated circuit
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Neurology (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种复杂网络拓扑图表示学习方法、预测方法及服务器。本发明的表示学习方法,其步骤包括:1)从复杂网络拓扑图结构数据中提取邻接矩阵A和特征矩阵X;2)将邻接矩阵A中设定位置的节点按一定概率p置0,得到加噪后的邻接矩阵A′;3)将邻接矩阵A′和特征矩阵X输入到图神经网络中,得到各节点的嵌入表示并对其进行稀疏化处理后输入到图神经网络的解码模块;4)解码模块重构复杂网络拓扑图,然后利用添加稀疏性约束的损失函数使重构复杂网络拓扑图的邻接矩阵与原始复杂网络拓扑图的邻接矩阵尽可能相近,通过不断学习自编码器参数最终得到有效的图节点嵌入表示。本发明提高了模型泛化能力,进而能够提升目标任务的准确率。
Description
技术领域
本发明涉及一种基于无监督图自编码器的复杂网络拓扑图表示学习方法、预测方法及服务器,属于计算机软件技术领域。
背景技术
复杂网络拓扑图数据有着复杂的结构,比如在自治系统AS(Autonomous System)中,两两之间存在着密不可分的关联关系,顶点与顶点直接通过边相互衔接,使不同顶点具备多样化的属性类型,以及多层面的学习任务,要充分利用图数据顶点之间密切连接的优势,就需要一种高效的图数据表示方法,因此,基于复杂网络拓扑图的图表示学习已经成为图学习领域中十分热门的研究课题之一。
目前,基于复杂网络拓扑图的图表示学习主要有三类方法:1)基于分解的方法:通过描述复杂网络图数据结构信息的矩阵进行矩阵分解,将节点转化到低维向量空间中去,同时保留结构上的相似性。一般来说,这类方法均有解析解,但是由于结果依赖于相关矩阵的分解计算,因此,这类方法具有很高的时间复杂度和空间复杂度;2)基于随机游走的方法:通过将图转化为序列的方式从而实现了大规模图的表示学习,但将图转化成序列集合,复杂网络拓扑图本身的结构信息没有办法被充分利用,同时该学习框架很难融合图中的属性信息进行表示学习;3)基于深度学习的方法,其典型代表是基于图神经网络GNN的相关方法:通过聚合节点自身特征和邻居节点的特征获得节点的嵌入表示,能够非常自然地融合图的属性信息进行学习,在多个图数据相关任务上都取得了较好的成绩,充分显示出了其强大的表示学习能力,为图嵌入学习带来了新的建模方法。但在实际的应用场景中,大量的数据标签往往具有很高的获取门槛,研究如何对图数据进行高效地无监督表示学习将具有十分重要的价值。
发明内容
针对现有技术中存在的技术问题,本发明的目的在于提供一种基于无监督图自编码器的复杂网络拓扑图表示学习方法、预测方法及服务器。
本发明解决原始数据无标签或标签数据较少的问题,同时在无节点属性信息的情况下也能学习到较好的图节点表示结果,用于下游链路预测或图生成等任务。本发明通过基于PageRank算法的DropEdge策略,在训练图神经网络时对输入的原图数据加噪,迫使模型从基于图结构信息的加噪数据中提取有用的信息用于恢复原数据,从而增强模型的学习能力,提高学习到的图嵌入表示的鲁棒性,同时解决过平滑引起的模型参数难以调优的问题。
本发明在图自编码器训练优化阶段,基于高维而稀疏(只有有限的非零元素)的表示是更好的特征表达的启发式知识,引入一个稀疏性约束作为一个正则惩罚项加入到损失函数中,对整个自编码器网络的稀疏性进行正则化约束,使图自编码器学习到图数据的稀疏表征。即在同一时间只激活一小部分神经元,即使在隐藏神经元数量较多的情况下仍然可以发现输入数据中一些有价值的内部结构信息,并可以将大量冗余或噪声特征去除,提高模型的泛化能力,降低模型过拟合的风险。
本发明的技术方案为:
一种复杂网络拓扑图表示学习方法,其步骤包括:
1)从复杂网络拓扑图结构数据中提取邻接矩阵A和特征矩阵X;
2)将邻接矩阵A中设定位置的节点按一定概率p置0,抹去一部分边信息或边权重值,得到加噪后的邻接矩阵A′;
3)将所述邻接矩阵A′和特征矩阵X输入到图神经网络中;图神经网络的编码模块对输入的邻接矩阵A′和特征矩阵X进行深度学习和特征编码,得到复杂网络拓扑图中各节点的嵌入表示,然后将各节点的嵌入表示进行稀疏化处理并输入到图神经网络的解码模块;其中,图神经网络的损失函数中添加一个稀疏性约束;
4)解码模块根据输入的稀疏节点表示重构复杂网络拓扑图,然后利用添加稀疏性约束的损失函数计算重构复杂网络拓扑图与原始复杂网络拓扑图的损失值;
5)通过梯度下降方法不断计算损失函数的梯度值,梯度方向即损失值下降最快的方向,反复求取梯度即可得到损失函数的最小值,此时得到的参数矩阵就是图神经网络的最优参数,当参数矩阵达到最优时,将编码模块得到的各节点的嵌入表示,作为复杂网络拓扑图中各节点的嵌入表示。
进一步的,所述稀疏性约束为一个正则惩罚项。
进一步的,所述图神经网络的原损失函数为交叉熵损失函数,在所述交叉熵损失函数的基础上添加KL散度或L1正则化,作为训练优化所述图神经网络所用的损失函数。
进一步的,得到邻接矩阵A′的方法为:对复杂网络拓扑图中的N个节点分别计算PageRank值,然后在邻接矩阵A中排名前M/2节点和排名后M/2节点对应的位置采用DropEdge策略按设定概率p进行删除,得到加噪后的邻接矩阵A′;其中M<N,p∈[0,1]。
进一步的,所述复杂网络拓扑图主要为自治系统的复杂网络拓扑图,但不限于自治系统的复杂网络拓扑图。
一种复杂网络链路预测方法,其特征在于,利用上述方法得到的复杂网络拓扑图中各节点的图嵌入表示,作为神经网络或分类器的输入特征,预测出相应边是否存在。
一种复杂网络图生成方法,其特征在于,利用上述方法得到的复杂网络拓扑图中的各节点的图嵌入表示结合链路预测任务,预测复杂网络拓扑图的新边,然后根据预测结果更新复杂网络拓扑图。
一种服务器,其特征在于,包括存储器和处理器,所述存储器存储计算机程序,所述计算机程序被配置为由所述处理器执行,所述计算机程序包括用于执行上述方法中各步骤的指令。
一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现所上述方法的步骤。
本发明的复杂网络拓扑图表示学习方法,其特征包括以下步骤:
1)数据加噪处理模块,负责从复杂网络拓扑图结构数据分析提取邻接矩阵A和特征矩阵X(若无节点属性信息,则X用one-hot矩阵表示;网络中节点特征构成的特征矩阵X),并进行加噪处理。加噪处理方法:通过PageRank算法对图数据(节点总数为N)各节点计算PageRank值,然后在邻接矩阵中对排名两端的共M个节点对应的位置采用DropEdge策略按概率p置0(M<N,p∈[0,1]),即通过删除一定数量的边信息对原图数据增加噪声干扰。
2)编码模块,将上述邻接矩阵和特征矩阵输入到图神经网络中作为输入层数据,并通过图神经网络对其进行深度学习和特征编码,从而学习得到各节点的嵌入表示;然后将各节点的嵌入表示进行稀疏化操作处理为稀疏节点表示并输入到解码模块;通过在训练图神经网络模型的优化阶段,添加一个稀疏性约束,即设定一个正则惩罚项并将其加入到图神经网络模型的损失函数中(原损失函数为交叉熵损失函数,本发明在交叉熵损失函数的基础上添加KL散度或L1正则化),通过训练学习到图数据的稀疏节点表示,将其传递给解码模块作为其输入。或者将得到的各节点的嵌入表示不稀疏化处理直接输入到解码模块。
3)解码模块,负责利用解码器(内积形式)逐步重构复杂网络拓扑图,利用上述损失函数使重构的复杂网络拓扑图的邻接矩阵与原始复杂网络拓扑图的邻接矩阵尽可能相近,通过不断学习自编码器参数最终得到有效的图节点嵌入表示。
4)特征融合与建模模块,负责利用最终得到的有效的图嵌入表示结果作为下游任务的输入特征,结合图数据多种其他维度特征进行建模实现链路预测、图生成等任务。
本发明还提供了一种复杂网络链路预测方法,利用上述得到的复杂网络拓扑图中各节点有效的图嵌入表示,将其作为下游神经网络或分类器的输入特征,结合链路(即边)的预测任务,可在输出层预测出相应边是否会存在的结果。
本发明还提供了一种复杂网络图生成方法,利用上述得到的复杂网络拓扑图的各节点有效的图嵌入表示结合链路预测任务,可以给出现有图中未来会出现哪些新链接(新边)的预测结果,生成新图。
本发明还提供一种服务器,其特征在于,包括存储器和处理器,所述存储器存储计算机程序,所述计算机程序被配置为由所述处理器执行,所述计算机程序包括用于执行上述方法中各步骤的指令。
本发明还提供一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现所上述方法的步骤。
本发明的特点包括:
1)基于降噪和稀疏表示的图自编码器无监督图嵌入学习方法,在图自编码器训练时,将降噪处理和稀疏表示的思想融合:针对原始输入图数据,通过PageRank算法在保留图自身结构信息重要性的基础上引入DropEdge加噪策略,迫使基于图自编码器模型从加噪数据中提取有用的信息用于恢复原数据,增强模型的图表示学习能力;针对编码器训练图嵌入表示的优化阶段,通过设定一个稀疏性正则化约束作为惩罚项加入到损失函数中,实现的稀疏性表示,根据得到的邻接矩阵和特征矩阵中值为0的数量判定稀疏程度,0多表示稀疏性强;当不够稀疏或和期望的稀疏程度偏离较大时,惩罚增强,从而提高模型泛化能力,降低过拟合风险,由于在损失函数中加入了惩罚项,利用梯度下降算法进行参数优化过程中即可自动调整惩罚项的值。
2)基于降噪和稀疏表示的图自编码器无监督图嵌入学习方法装置的实现,将基于降噪和稀疏表示的图自编码器的图嵌入学习方法设计为有效的系统装置,能通过输入任意领域网络图数据(有无节点属性特征均可),通过图自编码器端到端训练得到图各节点的嵌入表示。此装置中涉及所有算法对用户均为黑盒模式,用户只需输入原始网络图即可得到期望的图嵌入表示结果,用户可将其作为下游任务的输入特征应用于链路预测、图生成等任务中,提升目标任务的准确率。
与现有技术相比,本发明的积极效果为:
1)通过一种基于图自编码器的方法,将降噪和稀疏表示的思想融合到图自编码器中,在图神经网络模型对图的属性信息和结构信息进行学习的过程中,对输入数据增加噪声干扰同时利用稀疏表示的数据更容易线性可分的启发式知识,引入稀疏性约束,解决过平滑和过拟合的问题,从而得到更准确的图嵌入表示。2)通过一种无监督学习的图嵌入表示方法,解决了原始数据无标签或标签数据较少的问题,无需针对监督学习的要求进行大量的人工标注,减少工作量,降低训练成本。3)通过基于PageRank算法的DropEdge策略对输入的原始图数据加噪,同时在此加噪的过程保留图自身结构信息的重要性,只对PageRank排名两端的节点添加干扰因素,迫使图自编码器模型从基于图结构信息的加噪数据中提取有用的信息用于恢复原数据,提高学习到的节点表示的鲁棒性和普适性,同时解决过平滑引起的模型参数难以有效优化的问题。4)在图自编码器训练学习节点表示的优化阶段,引入一个针对稀疏性的限制,将一个正则惩罚项加入到损失函数中,以此对整个图自编码器网络的稀疏性进行正则化约束,即使在隐藏神经元数量较多的情况下仍然可以发现输入数据中一些有价值的内部结构信息,提高模型的泛化能力,降低模型过拟合的风险。
附图说明
图1为本发明的复杂网络拓扑图表示学习方法生成流程图。
具体实施方式
下面结合附图对本发明进行进一步详细描述。
本实施例的整体流程的具体步骤描述如下:
1)搭建服务器集群(服务器分为1台主服务器和若干子服务器),包括数据加噪处理模块、编码模块、解码模块、特征融合与建模模块四部分;
2)数据加噪处理模块,从AS复杂网络拓扑图结构数据根据AS与AS之间的关联关系分析提取邻接矩阵A和特征矩阵X(若无节点属性信息,则X用one-hot矩阵表示),并基于PageRank排名利用DropEdge策略对原始图数据进行加噪处理,将加噪后的邻接矩阵A′和特征矩阵X传递至编码模块作为输入特征。
3)编码模块,利用图神经网络模型作为编码器学习节点嵌入表示,在训练图神经网络模型的优化过程中,添加一个稀疏性约束,即设定一个正则惩罚项将其加入到损失函数(在交叉熵的基础上添加KL散度或L1正则化),通过训练学习到节点表示,并将其传递给解码模块作为其输入。
4)解码模块,将编码器传递的节点表示结果输入到解码器进行图的重构(通过内积形式),得到重构图的邻接矩阵通过交叉熵作为损失函数使与A尽可能相近,通过图神经网络不断学习自编码器参数最终得到较为准确的图节点嵌入表示,将其传入特征融合与建模模块。
5)特征融合与建模模块,利用训练得到的图嵌入表示结合节点其他属性特征作为下游任务的输入,构建图神经网络完成建模,实现链路预测、图生成等任务。
具体实现过程示例(仅以IPv6 AS级网络拓扑图举例说明过程,并非用以限定本发明),核心流程如图1所示:
(1)选取RouteViews项目位于俄勒冈的IPv6专用采集点(route-views6)一年内的IPv6 BGP路由表原始数据,解析原始数据后提取AS_PATH字段的ASN相关数据,构建AS两两互联的网络拓扑图(节点总数为N)。
(2)数据预处理:将AS网络图数据按照边连接情况转换为邻接矩阵A,AS节点特征矩阵X通过one-hot矩阵表示,若没有节点属性特征,则将X设置为N×1阶全1矩阵(即N维全1列向量)。
(3)图数据加噪处理:对图数据N个节点分别计算PageRank值,然后在邻接矩阵A中对排名两端的共M个节点(排名前M/2节点和排名后M/2节点)对应的位置采用DropEdge策略按p的概率删除(M<N,p∈[0,1]),即将邻接矩阵A对应位置按一定概率p置0,抹去一部分边信息或边权重值,得到加噪后的邻接矩阵A′。
(4)图自编码处理:对加噪后的邻接矩阵A′和特征矩阵X通过两层图卷积神经网络得到图节点嵌入表示Z,即图嵌入表示:
Z=GCN(X,A′)-----公式(1)
其中,两层图卷积网络的定义如下:
(5)解码:采用内积的形式作为解码器来重构原始的图:
(6)优化处理:在训练图自编码器模型得到图嵌入表示的优化阶段,添加一个正则惩罚项作为稀疏性约束,使图自编码器学习到图数据的稀疏表征:假设激活函数采用的是sigmoid,那么输出为1代表这个节点很“活跃”,输出为0代表这个节点“不活跃”。
基于此可以引入KL离散度或L1正则化来作为优化阶段中损失函数的惩罚项ρ(Z),损失函数L为在交叉熵的基础上添加惩罚项,表示为:
(7)基于学习到的图嵌入表示,结合其他维度特征应用于下游任务中构建图神经网络建模,实现链路预测、图生成等任务。
本发明还提供一种服务器,其特征在于,包括存储器和处理器,所述存储器存储计算机程序,所述计算机程序被配置为由所述处理器执行,所述计算机程序包括用于执行上述方法中各步骤的指令。
本发明还提供一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现所上述方法的步骤。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种复杂网络拓扑图表示学习方法,其步骤包括:
1)从复杂网络拓扑图结构数据中提取邻接矩阵A和特征矩阵X;
2)将邻接矩阵A中设定位置的节点按一定概率p置0,得到加噪后的邻接矩阵A′;
3)将所述邻接矩阵A′和特征矩阵X输入到图神经网络中;图神经网络的编码模块对输入的邻接矩阵A′和特征矩阵X进行深度学习和特征编码,得到复杂网络拓扑图中各节点的嵌入表示,然后将各节点的嵌入表示进行稀疏化处理并输入到图神经网络的解码模块;其中,图神经网络的损失函数中添加一个稀疏性约束;
4)解码模块根据输入的稀疏节点表示重构复杂网络拓扑图,然后利用添加稀疏性约束的损失函数计算重构复杂网络拓扑图与原始复杂网络拓扑图的损失值;
5)通过梯度下降方法不断计算损失函数的梯度值,优化所述图神经网络的参数矩阵,当参数矩阵达到最优时,将编码模块得到的各节点的嵌入表示,作为复杂网络拓扑图中各节点的嵌入表示。
2.如权利要求1所述的方法,其特征在于,所述稀疏性约束为一个正则惩罚项。
3.如权利要求2所述的方法,其特征在于,所述图神经网络的原损失函数为交叉熵损失函数,在所述交叉熵损失函数的基础上添加KL散度或L1正则化,作为训练优化所述图神经网络所用的损失函数。
5.如权利要求1所述的方法,其特征在于,得到邻接矩阵A′的方法为:对复杂网络拓扑图中的N个节点分别计算PageRank值,然后在邻接矩阵A中排名前M/2节点和排名后M/2节点对应的位置采用DropEdge策略按设定概率p进行删除,得到加噪后的邻接矩阵A′;其中M<N,p∈[0,1]。
6.如权利要求1所述的方法,其特征在于,所述复杂网络拓扑图为自治系统的复杂网络拓扑图。
7.一种复杂网络链路预测方法,其特征在于,利用权利要求1所述方法得到的复杂网络拓扑图中各节点的图嵌入表示,作为神经网络或分类器的输入特征,预测出相应边是否存在。
8.一种复杂网络图生成方法,其特征在于,利用权利要求1所述方法得到的复杂网络拓扑图中的各节点的图嵌入表示结合链路预测任务,预测复杂网络拓扑图的新边,然后根据预测结果更新复杂网络拓扑图。
9.一种服务器,其特征在于,包括存储器和处理器,所述存储器存储计算机程序,所述计算机程序被配置为由所述处理器执行,所述计算机程序包括用于执行权利要求1至8任一所述方法中各步骤的指令。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至8任一所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110198812.1A CN113065649B (zh) | 2021-02-22 | 2021-02-22 | 一种复杂网络拓扑图表示学习方法、预测方法及服务器 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110198812.1A CN113065649B (zh) | 2021-02-22 | 2021-02-22 | 一种复杂网络拓扑图表示学习方法、预测方法及服务器 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113065649A true CN113065649A (zh) | 2021-07-02 |
CN113065649B CN113065649B (zh) | 2024-01-05 |
Family
ID=76558898
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110198812.1A Active CN113065649B (zh) | 2021-02-22 | 2021-02-22 | 一种复杂网络拓扑图表示学习方法、预测方法及服务器 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113065649B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114139688A (zh) * | 2021-12-09 | 2022-03-04 | 福州大学 | 基于马尔可夫链共识的工业物联网分布式联邦学习方法 |
CN114154019A (zh) * | 2022-02-10 | 2022-03-08 | 奇安信科技集团股份有限公司 | 一种拓线分析方法、装置、电子设备及存储介质 |
CN114863234A (zh) * | 2022-04-29 | 2022-08-05 | 华侨大学 | 一种基于拓扑结构保持的图表示学习方法及系统 |
CN115169526A (zh) * | 2022-05-20 | 2022-10-11 | 北京信息科技大学 | 一种基于深度学习的基站表示学习方法、系统及存储介质 |
CN116094827A (zh) * | 2023-01-18 | 2023-05-09 | 支付宝(杭州)信息技术有限公司 | 基于拓扑增强的安全风险鉴别方法与系统 |
WO2023173987A1 (en) * | 2022-03-16 | 2023-09-21 | International Business Machines Corporation | Prediction and operational efficiency for system-wide optimization of an industrial processing system |
WO2024016199A1 (en) * | 2022-07-20 | 2024-01-25 | Nvidia Corporation | Organizing neural network graph information |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019220128A1 (en) * | 2018-05-18 | 2019-11-21 | Benevolentai Technology Limited | Graph neutral networks with attention |
CN111523051A (zh) * | 2020-04-24 | 2020-08-11 | 山东师范大学 | 基于图卷积矩阵分解的社交兴趣推荐方法及系统 |
CN111787000A (zh) * | 2020-06-30 | 2020-10-16 | 绿盟科技集团股份有限公司 | 网络安全评估方法及电子设备 |
US20210034737A1 (en) * | 2019-07-30 | 2021-02-04 | Sakif Hossain Khan | Detection of adverserial attacks on graphs and graph subsets |
-
2021
- 2021-02-22 CN CN202110198812.1A patent/CN113065649B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019220128A1 (en) * | 2018-05-18 | 2019-11-21 | Benevolentai Technology Limited | Graph neutral networks with attention |
US20210034737A1 (en) * | 2019-07-30 | 2021-02-04 | Sakif Hossain Khan | Detection of adverserial attacks on graphs and graph subsets |
CN111523051A (zh) * | 2020-04-24 | 2020-08-11 | 山东师范大学 | 基于图卷积矩阵分解的社交兴趣推荐方法及系统 |
CN111787000A (zh) * | 2020-06-30 | 2020-10-16 | 绿盟科技集团股份有限公司 | 网络安全评估方法及电子设备 |
Non-Patent Citations (4)
Title |
---|
YU RONG 等: "DROPEDGE: TOWARDS DEEP GRAPH CONVOLUTIONAL NETWORKS ON NODE CLASSIFICATION", 《ARXIV》, pages 1 - 18 * |
ZEKUN TONG 等: "Digraph Inception Convolutional Networks", 《34TH CONFERENCE ON NEURAL INFORMATION PROCESSING SYSTEMS》, pages 1 - 12 * |
徐冰冰 等: "图卷积神经网络综述", 《计算机学报》, vol. 43, no. 5, pages 755 - 780 * |
郭嘉琰 等: "一种基于图神经网络的动态网络异常检测算法", 《软件学报》, pages 1 - 16 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114139688A (zh) * | 2021-12-09 | 2022-03-04 | 福州大学 | 基于马尔可夫链共识的工业物联网分布式联邦学习方法 |
CN114139688B (zh) * | 2021-12-09 | 2024-09-13 | 福州大学 | 基于马尔可夫链共识的工业物联网分布式联邦学习方法 |
CN114154019A (zh) * | 2022-02-10 | 2022-03-08 | 奇安信科技集团股份有限公司 | 一种拓线分析方法、装置、电子设备及存储介质 |
CN114154019B (zh) * | 2022-02-10 | 2022-04-12 | 奇安信科技集团股份有限公司 | 一种拓线分析方法、装置、电子设备及存储介质 |
WO2023173987A1 (en) * | 2022-03-16 | 2023-09-21 | International Business Machines Corporation | Prediction and operational efficiency for system-wide optimization of an industrial processing system |
US12066813B2 (en) | 2022-03-16 | 2024-08-20 | International Business Machines Corporation | Prediction and operational efficiency for system-wide optimization of an industrial processing system |
CN114863234A (zh) * | 2022-04-29 | 2022-08-05 | 华侨大学 | 一种基于拓扑结构保持的图表示学习方法及系统 |
CN115169526A (zh) * | 2022-05-20 | 2022-10-11 | 北京信息科技大学 | 一种基于深度学习的基站表示学习方法、系统及存储介质 |
WO2024016199A1 (en) * | 2022-07-20 | 2024-01-25 | Nvidia Corporation | Organizing neural network graph information |
CN116094827A (zh) * | 2023-01-18 | 2023-05-09 | 支付宝(杭州)信息技术有限公司 | 基于拓扑增强的安全风险鉴别方法与系统 |
Also Published As
Publication number | Publication date |
---|---|
CN113065649B (zh) | 2024-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113065649B (zh) | 一种复杂网络拓扑图表示学习方法、预测方法及服务器 | |
CN112417219B (zh) | 基于超图卷积的超边链接预测方法 | |
CN111259905B (zh) | 一种基于下采样的特征融合遥感图像语义分割方法 | |
CN111079532B (zh) | 一种基于文本自编码器的视频内容描述方法 | |
CN109389151B (zh) | 一种基于半监督嵌入表示模型的知识图谱处理方法和装置 | |
CN112417289B (zh) | 一种基于深度聚类的资讯信息智能推荐方法 | |
CN111898703B (zh) | 多标签视频分类方法、模型训练方法、装置及介质 | |
CN112990295A (zh) | 一种基于迁移学习和深度学习融合的半监督图表示学习方法及装置 | |
CN113157957A (zh) | 一种基于图卷积神经网络的属性图文献聚类方法 | |
CN115661550B (zh) | 基于生成对抗网络的图数据类别不平衡分类方法及装置 | |
CN114329232A (zh) | 一种基于科研网络的用户画像构建方法和系统 | |
CN112487200B (zh) | 一种改进的包含多重边信息与多任务学习的深度推荐方法 | |
CN113128667B (zh) | 一种跨域自适应的图卷积平衡迁移学习方法与系统 | |
CN110993037A (zh) | 一种基于多视图分类模型的蛋白质活性预测装置 | |
CN113344615A (zh) | 一种基于gbdt和dl融合模型的营销活动预测方法 | |
CN115952424A (zh) | 一种基于多视图结构的图卷积神经网络聚类方法 | |
CN112446489A (zh) | 基于变分自编码器的动态网络嵌入链接预测方法 | |
CN116595479A (zh) | 基于图双重自编码器的社区发现方法、系统、设备及介质 | |
CN113591971A (zh) | 基于dpi时间序列词嵌入向量的用户个性行为预测方法 | |
CN114969078A (zh) | 一种联邦学习的专家研究兴趣实时在线预测更新方法 | |
CN113836319B (zh) | 融合实体邻居的知识补全方法及系统 | |
Zhang et al. | Deep compression of probabilistic graphical networks | |
CN116541593B (zh) | 一种基于超图神经网络的课程推荐方法 | |
Hudagi et al. | Bayes-probabilistic-based fusion method for image inpainting | |
CN114936327B (zh) | 元素识别模型的获取方法、装置、计算机设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |