CN112446489A - 基于变分自编码器的动态网络嵌入链接预测方法 - Google Patents
基于变分自编码器的动态网络嵌入链接预测方法 Download PDFInfo
- Publication number
- CN112446489A CN112446489A CN202011344120.5A CN202011344120A CN112446489A CN 112446489 A CN112446489 A CN 112446489A CN 202011344120 A CN202011344120 A CN 202011344120A CN 112446489 A CN112446489 A CN 112446489A
- Authority
- CN
- China
- Prior art keywords
- network
- low
- encoder
- dimensional vector
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 34
- 239000013598 vector Substances 0.000 claims abstract description 78
- 238000007781 pre-processing Methods 0.000 claims abstract description 7
- 239000011159 matrix material Substances 0.000 claims description 12
- 210000002569 neuron Anatomy 0.000 claims description 5
- 238000013461 design Methods 0.000 claims description 3
- 230000000644 propagated effect Effects 0.000 claims description 3
- 230000003068 static effect Effects 0.000 abstract description 6
- 230000007547 defect Effects 0.000 abstract description 4
- 230000006870 function Effects 0.000 description 10
- 238000012512 characterization method Methods 0.000 description 7
- 230000004913 activation Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000003012 network analysis Methods 0.000 description 1
- 102000004169 proteins and genes Human genes 0.000 description 1
- 108090000623 proteins and genes Proteins 0.000 description 1
- 238000005295 random walk Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了基于变分自编码器的动态网络嵌入链接预测方法,包括以下步骤:S1:获取一段时间的学术网络或社交网络数据流,按照一定时间细粒度进行数据预处理;S2:利用变分自编码器建立编码‑解码框架,对每个时间切片的网络数据进行编码得到低维向量;S3:利用当前网络中节点间的邻居关系,对网络中每一个节点输出的低维向量施加自注意约束。本发明中,通过通过挖掘原始网络与隐向量之间的潜在关系,发现动态网络演化的核心机理,有效的利用了网络在空间和时间上的信息,弥补传统静态方法的不足,并对自编码器生成的中间隐含向量施加约束,实现有效利用网络的空间信息和时间信息。
Description
技术领域
本发明涉及深度学习模型方法技术领域,尤其涉及基于变分自编码器的动态网络嵌入链接预测方法。
背景技术
复杂系统可以表示为网络,如蛋白质网络、社交网络、通信网络和联合作者网络,网络分析的子任务通常包含节点分类、社团发现、链接预测、推荐系统等。网络表征学习或网络嵌入是通过将高维原始网络映射到低维空间中以降低原始网络的复杂度并提高下游任务的研究效率,而动态网络的表征学习可以利用网络的历史信息来预测下一时刻网络的演化。
对复杂网络的表征学习可以通过矩阵分解、随机游走和深度学习三种方法,将一个高维的原始网络映射到一个低维的特征空间以降低网络复杂度。近年来,基于静态网络的网络嵌入方法已经提出了许多,可以对网络的拓扑结构进行表征学习,从而获得一组表示性更好的隐向量。
然而在现实世界中,网络往往是动态演化的,只关注某个静态时刻的网络往往会忽视网络的演化性,使得应用场景偏窄。基于此,一些动态网络的表征学习方法更加关注网络的演化,使得在动态场景下模型的分类、链接预测等效果优于传统静态方法,这些动态方法弥补了静态方法对网络变化描述的不足,但是仍然没有解释出网络演化的本质机理,也没有找到原始网络与隐向量之间的本质关联。
发明内容
本发明的目的在于提供基于变分自编码器的动态网络嵌入链接预测方法,以解决现有技术中的上述不足之处。
为了实现上述目的,本发明采用了如下技术方案:基于变分自编码器的动态网络嵌入链接预测方法,包括以下步骤:
S1:获取一段时间的学术网络或社交网络数据流,按照一定时间细粒度进行数据预处理;
S2:利用变分自编码器建立编码-解码框架,对每个时间切片的网络数据进行编码得到低维向量;
S3:利用当前网络中节点间的邻居关系,对网络中每一个节点输出的低维向量施加自注意约束;
S4:将上一时刻输出的低维向量结合当前网络拓扑结构输入LSTM网络,得到更新的低维向量;
S5:对获得的低维向量进行解码,还原为重构的下一时刻网络,以实现链接预测。
作为上述技术方案的进一步描述:
所述S1中获取一段时间的学术网络或社交网络数据流,按照一定时间细粒度进行数据预处理,具体包括以下步骤:
S1.1:通过网络日志形式获取每天的网络结构图,以及通过一段时间内科学杂志摘要的作者信息获得作者之间的社交网络,再分割成每天的网络结构图;
S1.2:使用随机块模型,设计规则生成虚拟的网络拓扑图。
作为上述技术方案的进一步描述:
所述S2中利用变分自编码器建立编码-解码框架,对每个时间切片的网络数据进行编码得到低维向量,具体包括以下步骤:
S2.1:设计自编码器的隐藏层数量与神经元数目,定义变分自编码器的模型代价函数,包括重构损失与KL散度损失两项;
S2.2:利用重参数技巧使模型可以通过梯度下降方式进行反向传播。
作为上述技术方案的进一步描述:
所述S3中利用当前网络中节点间的邻居关系,对网络中每一个节点输出的低维向量施加自注意约束,具体包括以下步骤:
S3.1:利用当前时刻网络的邻居关系计算节点对其邻居的关注程度,得到邻居重要性矩阵;
S3.2:与上述生成的隐向量相乘得到施加结构属性约束的隐向量。
作为上述技术方案的进一步描述:
所述S4中将上一时刻输出的低维向量结合当前网络拓扑结构输入LSTM网络,得到更新的低维向量,具体为利用LSTM网络结构,输入当前网络拓扑结构,隐向量,以及上一时刻的隐向量,结合LSTM当前时刻的状态,输出更新的隐向量。
作为上述技术方案的进一步描述:
所述S5中对获得的低维向量进行解码,还原为重构的下一时刻网络,以实现链接预测,具体为将经过处理的低维向量重新输入变分自编码器解码层,重构出下一时刻的网络,可以直接通过历史数据集评估模型精确度。
本发明提供了基于变分自编码器的动态网络嵌入链接预测方法。具备以下有益效果:
该基于变分自编码器的动态网络嵌入链接预测方法通过挖掘原始网络与隐向量之间的潜在关系,发现动态网络演化的核心机理,有效的利用了网络在空间和时间上的信息,弥补传统静态方法的不足,并对自编码器生成的中间隐含向量施加约束,实现有效利用网络的空间信息和时间信息。
附图说明
图1为动态网络嵌入模型原理示意图;
图2为模型适用的网络演化图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。
参照图1-2,基于变分自编码器的动态网络嵌入链接预测方法,包括以下步骤:
S1:获取一段时间的学术网络或社交网络数据流,按照一定时间细粒度进行数据预处理;
具体的,首先将一段时间的网络分割成若干个切片,该网络可以表示为其中为所有网络切片集合,T代表切片的数量,每个切片的网络拓扑结构可以构建出一个无向图,其中图中的节点为网络的每个用户,边为用户之间是否存在联系,该网络的邻接矩阵可以公式化表示为以及边的集合ε={E1,E2…ET},用t时刻的网络切片代表数据位置,其中t=(1,2,…,T),用Aij=1表示节点vi和vj之间有关系,否则Aij=0。
S2:利用变分自编码器建立编码-解码框架,对每个时间切片的网络数据进行编码得到低维向量;
具体的,构建出网络的邻接矩阵后,利用变分自编码器、注意力机制和LSTM方法,生成动态网络的低维表征,如图1所示,拓扑图表示原始网络,上方矩阵表示邻接矩阵,动态网络的演化是由其潜在空间中的特征向量驱动的,现实网络的变化可以认为是其低维表征的变化。
并且变分自编码器可以作用于图或是网络,实现网络节点分布的学习,其原理是通过变分机制将复杂的现实分布转化为若干个任意的高斯分布叠加:
其中z由标准分布采样得到,φ和θ是控制分布的超参数。Pφ(x|z)用来描述输入数据与隐向量之间的依赖关系,Pθ(z)是隐向量的分布情况。因为P(X)的计算复杂度过高,可以使用Q(x|z)来近似。然后可以得到一个似然函数:
上述似然函数可以转化为变分推断中的证据下界形式:
积分中的两项分别表示网络的重构损失和KL散度损失。变分自编码器结构包含编码-解码两部分,利用深度学习神经网络结构,生成从高维到低维的映射,再从低维到高维的还原,组成了本发明的基本架构。
S3:利用当前网络中节点间的邻居关系,对网络中每一个节点输出的低维向量施加自注意约束;
具体的,对自编码器生成的中间隐含向量施加约束,有效利用网络的空间信息和时间信息,即注意力机制和LSTM方法,注意力机制定义了节点所有邻居的重要程度,
其中,Ni={j∈V|(vi,vj)∈E}表示节点v在t时刻的邻居信息,Ws∈Rd×d是共享的权重转移矩阵,a∈R2d是一个权重向量,用来参数化作为前馈的注意力层,∥是拼接操作,fb(·)是非线性激活函数。为了维持邻居注意力的稳定性,本发明采用K头注意力机制,并采用LeakyReLU和ReLU作为注意力层和输出层的激活函数。
S4:将上一时刻输出的低维向量结合当前网络拓扑结构输入LSTM网络,得到更新的低维向量;
具体的,LSTM用来捕获长程依赖,来更好地利用时序信息。本发明将上一时刻和当前时刻输出的隐向量,与当前时刻网络的拓扑结构作为输入,通过LSTM门控制结构得到更新的当前时刻隐向量。单LSTM层用来表示隐藏状态的模型如下:
S5:对获得的低维向量进行解码,还原为重构的下一时刻网络,以实现链接预测。
具体的,利用自编码器解码的架构,输出重构的t+1时刻网络。整体模型的代价函数如下:
其中,⊙表示哈达玛积,是惩罚矩阵,使非零元素具有更大的重要性,即bi,j=β>1当i,j之间有边时,否则bi,j=1。α是平衡因子,用来平衡重构损失与KL散度损失,μ和σ分别表示高斯分布的均值和方差。为提高效率,采用RMSProp的梯度下降方法进行求解,并采用早停法缓解模型过拟合。
S1中获取一段时间的学术网络或社交网络数据流,按照一定时间细粒度进行数据预处理,具体包括以下步骤:
S1.1:通过网络日志形式获取每天的网络结构图,以及通过一段时间内科学杂志摘要的作者信息获得作者之间的社交网络,再分割成每天的网络结构图;
S1.2:使用随机块模型,设计规则生成虚拟的网络拓扑图。
S2中利用变分自编码器建立编码-解码框架,对每个时间切片的网络数据进行编码得到低维向量,具体包括以下步骤:
S2.1:设计自编码器的隐藏层数量与神经元数目,定义变分自编码器的模型代价函数,包括重构损失与KL散度损失两项;
S2.2:利用重参数技巧使模型可以通过梯度下降方式进行反向传播。
S3中利用当前网络中节点间的邻居关系,对网络中每一个节点输出的低维向量施加自注意约束,具体包括以下步骤:
S3.1:利用当前时刻网络的邻居关系计算节点对其邻居的关注程度,得到邻居重要性矩阵;
S3.2:与上述生成的隐向量相乘得到施加结构属性约束的隐向量。
S4中将上一时刻输出的低维向量结合当前网络拓扑结构输入LSTM网络,得到更新的低维向量,具体为利用LSTM网络结构,输入当前网络拓扑结构,隐向量,以及上一时刻的隐向量,结合LSTM当前时刻的状态,输出更新的隐向量,其关键在于同时利用当前时刻原始网络与隐向量、上一时刻隐向量以及当前计算细胞门的状态。
S5中对获得的低维向量进行解码,还原为重构的下一时刻网络,以实现链接预测,具体为将经过处理的低维向量重新输入变分自编码器解码层,重构出下一时刻的网络,可以直接通过历史数据集评估模型精确度,进一步的,低维向量最大化保留原始网络拓扑结构,可以用来进行分类、聚类等工作。
该基于变分自编码器的动态网络嵌入链接预测方法具体包括:
步骤一、数据整理,可以在相关数据库中下载已按所需时间细粒度处理好的动态网络数据集,也可以通过脚本方式从文献摘要中得到联合作者网络,或自定义规则生成动态网络,将得到的数据集按照自定规则分割成若干切片,默认设置时间细粒度为每天,得到不少于10个连续的动态网络拓扑图切片,然后每个切片分别以本发明规则生成邻接矩阵,作为原始输入数据,利用多个历史快照生成下一时刻的网络表征,因此可采用未输入的下一时刻网络切片作为输出数据来训练、评估模型。
步骤二、网络构建,经过步骤一对数据进行预处理后,可以得到一系列网络切片作为训练数据集,每个切片上节点数量设置为N,输入变分自编码器的编码结构。默认自编码器设置一层隐藏层,神经元数目为512,最终生成的网络表征维度为128,利用重参数技巧进行采样与反向传播,可以得到N×512和N×128的矩阵。接着对中间向量进行邻居重要性加权矩阵计算,得到赋予拓扑结构信息的隐向量。再利用历史与当前的隐向量,结合当前时刻网络拓扑结构,利用LSTM层进行时序信息学习,最终得到目标向量。
步骤三、链接预测,经过步骤二得到低维目标向量,再重新输入变分自编码器的解码结构,按照与编码相同的隐藏层与神经元设置方式,将128维的隐向量还原为原始网络,该网络正好为重构的下一时刻网络,可以用来预测未来时候网络的连接情况。
进一步的,步骤二获得的低维向量还可以采用其他方式进行链接预测,例如相似度计算、二维可视化判断节点之间的连接情况等。
在本说明书的描述中,参考术语“一个实施例”、“示例”、“具体示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料过着特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。
Claims (6)
1.基于变分自编码器的动态网络嵌入链接预测方法,其特征在于,包括以下步骤:
S1:获取一段时间的学术网络或社交网络数据流,按照一定时间细粒度进行数据预处理;
S2:利用变分自编码器建立编码-解码框架,对每个时间切片的网络数据进行编码得到低维向量;
S3:利用当前网络中节点间的邻居关系,对网络中每一个节点输出的低维向量施加自注意约束;
S4:将上一时刻输出的低维向量结合当前网络拓扑结构输入LSTM网络,得到更新的低维向量;
S5:对获得的低维向量进行解码,还原为重构的下一时刻网络,以实现链接预测。
2.根据权利要求1所述的基于变分自编码器的动态网络嵌入链接预测方法,其特征在于,所述S1中获取一段时间的学术网络或社交网络数据流,按照一定时间细粒度进行数据预处理,具体包括以下步骤:
S1.1:通过网络日志形式获取每天的网络结构图,以及通过一段时间内科学杂志摘要的作者信息获得作者之间的社交网络,再分割成每天的网络结构图;
S1.2:使用随机块模型,设计规则生成虚拟的网络拓扑图。
3.根据权利要求1所述的基于变分自编码器的动态网络嵌入链接预测方法,其特征在于,所述S2中利用变分自编码器建立编码-解码框架,对每个时间切片的网络数据进行编码得到低维向量,具体包括以下步骤:
S2.1:设计自编码器的隐藏层数量与神经元数目,定义变分自编码器的模型代价函数,包括重构损失与KL散度损失两项;
S2.2:利用重参数技巧使模型可以通过梯度下降方式进行反向传播。
4.根据权利要求1所述的基于变分自编码器的动态网络嵌入链接预测方法,其特征在于,所述S3中利用当前网络中节点间的邻居关系,对网络中每一个节点输出的低维向量施加自注意约束,具体包括以下步骤:
S3.1:利用当前时刻网络的邻居关系计算节点对其邻居的关注程度,得到邻居重要性矩阵;
S3.2:与上述生成的隐向量相乘得到施加结构属性约束的隐向量。
5.根据权利要求1所述的基于变分自编码器的动态网络嵌入链接预测方法,其特征在于,所述S4中将上一时刻输出的低维向量结合当前网络拓扑结构输入LSTM网络,得到更新的低维向量,具体为利用LSTM网络结构,输入当前网络拓扑结构,隐向量,以及上一时刻的隐向量,结合LSTM当前时刻的状态,输出更新的隐向量。
6.根据权利要求1所述的基于变分自编码器的动态网络嵌入链接预测方法,其特征在于,所述S5中对获得的低维向量进行解码,还原为重构的下一时刻网络,以实现链接预测,具体为将经过处理的低维向量重新输入变分自编码器解码层,重构出下一时刻的网络,可以直接通过历史数据集评估模型精确度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011344120.5A CN112446489B (zh) | 2020-11-25 | 2020-11-25 | 基于变分自编码器的动态网络嵌入链接预测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011344120.5A CN112446489B (zh) | 2020-11-25 | 2020-11-25 | 基于变分自编码器的动态网络嵌入链接预测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112446489A true CN112446489A (zh) | 2021-03-05 |
CN112446489B CN112446489B (zh) | 2023-05-05 |
Family
ID=74738347
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011344120.5A Active CN112446489B (zh) | 2020-11-25 | 2020-11-25 | 基于变分自编码器的动态网络嵌入链接预测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112446489B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112989202A (zh) * | 2021-04-02 | 2021-06-18 | 常熟理工学院 | 基于动态网络嵌入的个性化推荐方法及系统 |
CN113361659A (zh) * | 2021-07-16 | 2021-09-07 | 广东工业大学 | 一种基于隐空间主成分分析的图像可控生成方法及系统 |
CN115759482A (zh) * | 2022-12-29 | 2023-03-07 | 人民网股份有限公司 | 一种社交媒体内容传播预测方法和装置 |
CN115861343A (zh) * | 2022-12-12 | 2023-03-28 | 中山大学·深圳 | 基于动态隐式图像函数的任意尺度图像表示方法及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111461907A (zh) * | 2020-03-13 | 2020-07-28 | 南京邮电大学 | 一种面向社交网络平台的动态网络表征学习方法 |
CN111506814A (zh) * | 2020-04-09 | 2020-08-07 | 苏州大学 | 一种基于变分自注意力网络的序列推荐方法 |
-
2020
- 2020-11-25 CN CN202011344120.5A patent/CN112446489B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111461907A (zh) * | 2020-03-13 | 2020-07-28 | 南京邮电大学 | 一种面向社交网络平台的动态网络表征学习方法 |
CN111506814A (zh) * | 2020-04-09 | 2020-08-07 | 苏州大学 | 一种基于变分自注意力网络的序列推荐方法 |
Non-Patent Citations (1)
Title |
---|
陈梦雪等: "基于对抗图卷积的网络表征学习框架", 《模式识别与人工智能》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112989202A (zh) * | 2021-04-02 | 2021-06-18 | 常熟理工学院 | 基于动态网络嵌入的个性化推荐方法及系统 |
CN112989202B (zh) * | 2021-04-02 | 2024-01-12 | 常熟理工学院 | 基于动态网络嵌入的个性化推荐方法及系统 |
CN113361659A (zh) * | 2021-07-16 | 2021-09-07 | 广东工业大学 | 一种基于隐空间主成分分析的图像可控生成方法及系统 |
CN113361659B (zh) * | 2021-07-16 | 2023-08-22 | 广东工业大学 | 一种基于隐空间主成分分析的图像可控生成方法及系统 |
CN115861343A (zh) * | 2022-12-12 | 2023-03-28 | 中山大学·深圳 | 基于动态隐式图像函数的任意尺度图像表示方法及系统 |
CN115861343B (zh) * | 2022-12-12 | 2024-06-04 | 中山大学·深圳 | 基于动态隐式图像函数的任意尺度图像表示方法及系统 |
CN115759482A (zh) * | 2022-12-29 | 2023-03-07 | 人民网股份有限公司 | 一种社交媒体内容传播预测方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN112446489B (zh) | 2023-05-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Gu et al. | Projection convolutional neural networks for 1-bit cnns via discrete back propagation | |
CN112446489A (zh) | 基于变分自编码器的动态网络嵌入链接预测方法 | |
Nie et al. | Network traffic prediction based on deep belief network in wireless mesh backbone networks | |
CN112529168B (zh) | 一种基于gcn的属性多层网络表示学习方法 | |
CN111339433B (zh) | 基于人工智能的信息推荐方法、装置、电子设备 | |
Nie et al. | Network traffic prediction based on deep belief network and spatiotemporal compressive sensing in wireless mesh backbone networks | |
CN111950594A (zh) | 基于子图采样的大规模属性图上的无监督图表示学习方法和装置 | |
CN113065974B (zh) | 一种基于动态网络表示学习的链路预测方法 | |
CN113822315A (zh) | 属性图的处理方法、装置、电子设备及可读存储介质 | |
CN117237559B (zh) | 面向数字孪生城市的三维模型数据智能分析方法及系统 | |
CN112417289A (zh) | 一种基于深度聚类的资讯信息智能推荐方法 | |
CN114091667A (zh) | 一种面向非独立同分布数据的联邦互学习模型训练方法 | |
Li et al. | Data-driven peer-to-peer blockchain framework for water consumption management | |
CN113377656B (zh) | 一种基于图神经网络的众测推荐方法 | |
CN114679372A (zh) | 一种基于节点相似性的图注意力网络的链路预测方法 | |
CN112183721B (zh) | 一种基于自适应差分进化的组合水文预测模型的构建方法 | |
CN116541593B (zh) | 一种基于超图神经网络的课程推荐方法 | |
Ichisugi | A cerebral cortex model that self-organizes conditional probability tables and executes belief propagation | |
CN117172376A (zh) | 基于网络重构的生成式图神经网络的图结构链路预测方法及系统 | |
CN110020379B (zh) | 一种基于深度动态网络嵌入表示模型的链路预测方法 | |
CN114265954B (zh) | 基于位置与结构信息的图表示学习方法 | |
CN115879507A (zh) | 一种基于深度对抗学习的大规模图生成方法 | |
CN115544307A (zh) | 基于关联矩阵的有向图数据特征提取与表达方法和系统 | |
Zhou et al. | Reconstruction of commuting networks: a distance-tiered graph neural network approach | |
CN111260121B (zh) | 一种基于深度瓶颈残差网络的城市范围的人流量预测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |