CN111428873A - 一种基于自编码器的多视图属性网络嵌入方法 - Google Patents
一种基于自编码器的多视图属性网络嵌入方法 Download PDFInfo
- Publication number
- CN111428873A CN111428873A CN202010107039.9A CN202010107039A CN111428873A CN 111428873 A CN111428873 A CN 111428873A CN 202010107039 A CN202010107039 A CN 202010107039A CN 111428873 A CN111428873 A CN 111428873A
- Authority
- CN
- China
- Prior art keywords
- node
- attribute
- network
- nodes
- encoder
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 16
- 238000005295 random walk Methods 0.000 claims abstract description 13
- 238000012549 training Methods 0.000 claims abstract description 11
- 239000013604 expression vector Substances 0.000 claims abstract description 9
- 238000005065 mining Methods 0.000 claims abstract description 7
- 239000011159 matrix material Substances 0.000 claims description 28
- 239000013598 vector Substances 0.000 claims description 16
- 230000006870 function Effects 0.000 claims description 10
- 230000000694 effects Effects 0.000 claims description 4
- 238000010606 normalization Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims description 4
- 230000009466 transformation Effects 0.000 claims description 3
- 230000008569 process Effects 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 239000000047 product Substances 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 235000017284 Pometia pinnata Nutrition 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 238000012733 comparative method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种基于自编码器的多视图属性网络嵌入方法,所述方法包括:属性网络包括若干个节点、边,每个节点有若干个属性;根据属性网络中节点间固有的连边关系得到拓扑结构视图;根据节点的属性信息挖掘隐含结构信息构造属性结构视图;分别在拓扑、属性结构视图上执行随机游走算法,得到基于拓扑、属性结构视图的节点序列;将节点序列输入到自编码器中,通过训练不断迭代,得到融合拓扑结构和属性结构的节点表示向量,用于解决网络数据的高维性、稀疏性。本方法充分挖掘离散数值属性信息,构造属性结构视图,利用随机游走和基于LSTM的自编码器改善网络表示效果,在节点分类和节点聚类任务上展示了优异的性能。
Description
技术领域
本发明涉及网络表示学习领域,尤其涉及一种基于自编码器的多视图属性网络嵌入方 法。
背景技术
网络表示学习(Network Representation Learning),又称网络嵌入(NetworkEmbedding) 或图嵌入(Graph Embedding),旨在寻找网络的低维表示空间使其更好的捕捉原始网络中 的结构信息和特性。网络表示不仅解决了数据的高维性、稀疏性等问题,而且可以更深入 的挖掘网络数据背后的信息,从而有利于节点分类、节点聚类、链路预测等各种应用任务。
随着深度学习方法的发展,涌现出大量基于神经网络的表示学习方法。受word2vec 方法的启发,DeepWalk[1]利用类似深度优先的随机游走策略,在网络中获得一系列节点序 列,然后将每个节点序列视为一个句子,输入到Skip-Gram模型中,最终得到每个节点的 低维表示。DeepWalk方法仅考虑了节点的一阶相似性信息,LINE[2]进一步保存了网络中 的一阶相似性和二阶相似性特征。node2vec[3]采用更加灵活的随机游走策略,结合深度优 先和广度优先方法,使抽样的路径能更大程度上同时保存网络的局部特征和全局特征。不 同于以上基于浅层神经网络的网络表示学习方法,SDNE[4]利用深度神经网络捕捉了节点之 间的高度非线性关系。
然而,上述方法都只利用了网络的拓扑结构信息,真实世界中的网络节点往往会伴随 着丰富的外部信息,诸如节点属性、标签信息、异构信息等等。因而许多研究也将这些外 部信息融入到节点表示过程中以提高网络表示的质量。MMDW[5]在DeepWalk的基础上将标签信息融入到网络表示学习过程中。DANE[6]利用堆叠降噪自动编码器(stackeddenoising autoencoder)学习属性网络中节点表示向量。MVE[7]使用自注意力机制为网络中不同视图 下的多个节点表示向量投票,最终得到结果最优的鲁棒节点表示向量。不同于MVE的投 票方式,MEGAN[8]使用生成器将不同视图下的节点表示向量进行融合。CANE[9]利用卷积 神经网络对一条边上两个节点的文本信息进行编码。Net2Net[10]基于自翻译机制,使用 LSTM融合节点的结构特征和文本特征。
但是以上方法挖掘的属性信息均为文本信息,而非离散化的二值数值。
参考文献
[1]Perozzi B,Al-Rfou R,Skiena S.Deepwalk:Online learning of socialrepresentations[C]//Proceedings of the 20th ACM SIGKDD internationalconference on Knowledge discovery and data mining.ACM,2014:701-710.
[2]Tang J,Qu M,Wang M,et al.Line:Large-scale information networkembedding[C]//Proceedings of the 24th international conference on world wideweb. International World Wide Web Conferences Steering Committee,2015:1067-1077.
[3]Grover A,Leskovec J.node2vec:Scalable feature learning fornetworks[C]//Proceedings of the 22nd ACM SIGKDD international conference onKnowledge discovery and data mining. ACM,2016:855-864.
[4]Wang D,Cui P,Zhu W.Structural deep network embedding[C]//Proceedings ofthe 22nd ACM SIGKDD international conference on Knowledgediscovery and data mining.ACM,2016: 1225-1234.
[5]Tu C,Zhang W,Liu Z,et al.Max-margin deepwalk:Discriminativelearning of network representation[C]//IJCAI.2016:3889-3895.
[6]Hong R,He Y,WuL,et al.Deep Attributed Network Embedding byPreserving Structure and Attribute Information[J].IEEE TransactionsonSystems,Man,and Cybernetics:Systems,2019.
[7]Qu M,Tang J,Shang J,et al.An attention-based collaborationframework for multi-view network representation learning[C]//Proceedings ofthe 2017ACM on Conference on Information and Knowledge Management.ACM,2017:1767-1776.
[8]Sun Y,Wang S,Hsieh T Y,et al.Megan:a generative adversarialnetwork for multi-view network embedding[J].arXiv preprint arXiv:1909.01084,2019.
[9]Tu C,Liu H,Liu Z,et al.Cane:Context-aware network embedding forrelation modeling[C]//Proceedings of the 55th Annual Meeting of theAssociation for Computational Linguistics(Volume 1:Long Papers).2017:1722-1731.
[10]He Z,Liu J,Li N,et al.Learning Network-to-Network Model forContent-rich Network Embedding[C]//Proceedings of the 25th ACM SIGKDDInternational Conference on Knowledge Discovery&Data Mining.ACM,2019:1037-1045.
发明内容
本发明提供了一种基于自编码器的多视图属性网络嵌入方法,本发明从不同角度设计 了两个网络视图,采用随机游走算法在两个视图上生成两套节点序列,利用基于LSTM(长 短期记忆网络)的自编码器对节点序列进行深度融合,训练得到节点表示向量,用于解决 网络数据的高维性、稀疏性,详见下文描述:
一种基于自编码器的多视图属性网络嵌入方法,所述方法包括:
属性网络包括若干个节点、边,每个节点有若干个属性;
根据属性网络中节点间固有的连边关系得到拓扑结构视图;
根据节点的属性信息挖掘隐含结构信息构造属性结构视图;
分别在拓扑、属性结构视图上执行随机游走算法,得到基于拓扑、属性结构视图的节 点序列;
将节点序列输入到自编码器中,通过训练不断迭代,得到融合拓扑结构和属性结构的 节点表示向量,将节点表示向量用于解决网络数据的高维性、稀疏性。
其中,所述根据节点的属性信息挖掘隐含结构信息构造属性结构视图具体为:
利用节点间相同属性的共现频率作为衡量节点相似性的指标,两个节点间属性的共现 频率越高,两个节点越相似;利用节点相似度构造属性结构视图。
进一步地,所述利用节点相似度构造属性结构视图具体为:
其中,F表示网络节点间相同属性个数矩阵;Fij表示节点vi和节点vj相同属性的个数; Xip表示节点vi第p个属性的值;Xjp表示节点vj第p个属性的值;t表示属性的个数;当 Xip=Xjp时,g(Xip,Xjp)=1,否则g(Xip,Xjp)=0;将矩阵F进行最大最小归一化处理,得到矩阵F,Fij表示节点vi和节点vj相同属性个数归一化处理后的值;S表示网络节点的相似度矩阵,Sij表示节点vi和节点vj的相似度;TOP_c(·)表示取集合中最大的c个值。
其中,所述将节点序列输入到自编码器中,通过训练不断迭代,得到融合拓扑结构和 属性结构的节点表示向量具体为:
将在拓扑结构视图和属性结构视图获得的节点序列向量化,经LSTM编码,获得通用 的编码表示;
经过解码获得节点序列的重构,最后通过最小化重构目标函数不断优化学习效果,并 提取隐藏层中的信息作为节点的表示。
进一步地,所述目标函数具体为:
LLoss=Lrec+αLreg
其中,Lrec表示重构误差;Xi表示节点vi的输出向量;Xi表示节点vi的属性向量,作为输入向量;⊙指hadamard乘积;如果Xip=0,则Bip=1,否则Bip设置为大 于1的常数;Lreg表示L2正则化项,L表示网络层数,W(l)和b(l)分别表示第l层的变换矩 阵和偏差向量;LLoss为目标函数;α为权重参数。
进一步地,所述自编码器具体为:基于LSTM的自编码器。
本发明提供的技术方案的有益效果是:
1、本方法充分挖掘离散数值属性信息,构造属性结构视图,利用随机游走和基于LSTM 的自编码器改善网络表示效果,在节点分类和节点聚类任务上展示了优异的性能;
2、本发明通过构造拓扑结构视图和属性结构视图,使用基于LSTM的自编码器对不同视图生成的节点序列进行深度融合,充分利用不同类型的网络特征,用于解决网络数据的高维性、稀疏性;
3、实验结果表明,本方法性能表现优于目前网络表示学习中常用的仅基于网络结构、 以及同时基于网络结构及节点属性信息的网络表示学习方法。
附图说明
图1为一种基于自编码器的多视图属性网络嵌入方法的整体框架图;
图2为基于LSTM的自编码器结构图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面对本发明实施方式作进一步地详 细描述。
为了便于描述,首先进行一些定义:给定一个属性网络G=(V,E,X),其中V={v1,v2,……,vn} 表示网络中节点的集合,n=|V|表示网络中节点的数量,vn表示第n个节点;E={eij}表示边 的集合,eij表示节点vi和节点vj之间的边;X为一个n×t阶矩阵,表示所有节点的属性矩 阵,t表示属性的维度,Xi=(Xi1,Xi2,……,Xit)表示节点vi的属性向量。
实施例1
一种基于自编码器的多视图属性网络嵌入方法(简称为AE-MVANR方法),参见图1,该方法包括以下步骤:
一、AE-MVANR方法整体框架
AE-MVANR深度挖掘不同节点间属性的内在联系,通过属性特征探索节点之间隐含的结构关系,其整体框架如图1所示。属性网络G有4个节点(v1,v2,v3,v4),3条边(e14,e13,e23), 每个节点有6个属性(f1,f2,f3,f4,f5,f6)。AE-MVANR首先根据网络中节点间固有的连边关系, 得到拓扑结构视图;根据节点的属性信息挖掘隐含结构信息构造属性结构视图。然后分别 在两个视图上执行随机游走算法,得到基于拓扑结构视图和属性结构视图的节点序列。最 后将序列输入到基于LSTM的自编码器中,通过训练不断迭代,得到融合了结构和属性特 征的节点表示向量。
二、构造两个视图
对于网络G,节点之间的连接关系可以用邻接矩阵A={Aij}表示,其中Aij取值为1或 0。若Aij=1则表示节点vi和节点vj之间存在连接关系,否则表示两节点之间不直接相连。 邻接矩阵A体现了网络中节点固有的拓扑结构。然而,网络中不直接相连的节点也会存在 一定的相似关系。例如图1中,节点v1和节点v2之间没有连边,节点v2和节点v3有连边。分析它们的属性特征可以发现,节点v2和节点v3拥有一个共同属性(属性f4),同样地, 节点v1和节点v2也拥有一个共同属性(属性f4),据此可推断出节点v1和节点v2具有较高 的相似性。
为了更加全面真实地刻画网络中节点之间的关系,AE-MVANR利用节点间相同属性的共现频率作为衡量节点相似性的指标,两个节点间属性的共现频率越高,说明两个节点越相似。对网络中隐藏的属性结构信息进行深度挖掘,由此得到节点之间的相似度矩阵,如公式(1)和(2)所示。利用节点相似度构造属性结构视图。
其中,F表示网络节点间相同属性个数矩阵;Fij表示节点vi和节点vj相同属性的个数; Xip表示节点vi第p个属性的值;Xjp表示节点vj第p个属性的值;t表示属性的个数;当 Xip=Xjp时,g(Xip,Xjp)=1,否则g(Xip,Xjp)=0。
将矩阵F进行最大最小归一化处理,得到矩阵F,Fij表示节点vi和节点vj相同属性个数归一化处理后的值;S表示网络节点的相似度矩阵,Sij表示节点vi和节点vj的相似度;TOP_c(·)表示取集合中最大的c个值。
节点相似性具体的计算用以下算法进行描述。
算法的1-5行计算了节点属性共现矩阵F,此时Fij≥0。第6行将矩阵F进行归一化,此时0≤Fij≤1。第7-9行对每个节点筛选与其共现频率最高的前c个节点,c可取网络平 均度的近似,此举不仅挖掘到了隐藏属性网络的结构信息而且极大简化了相似度矩阵S。 第10行返回节点相似性矩阵S。
三、生成节点序列
节点相似性矩阵S体现了节点之间的隐含属性结构关系,是对邻接矩阵A的重要补充。 为了充分利用网络中原拓扑结构信息和隐含的属性结构信息,在拓扑结构视图和属性结构 视图上分别采用随机游走算法进一步提取网络中节点之间的关系,生成节点序列。考虑一 个从节点vk到节点vi的随机游走,现在计算到下一个节点vj的概率,随机游走算法具体策 略如公式(3)~(5)所示。
公式(3)表示在给定当前节点vi,访问下一个节点vj的概率。其中,πij是节点vi和节点vj未归一化的转移概率,Z是归一化常数,distance(k,j)是节点vk和节点vj之间的最短路径长度。参数p控制回到原节点的概率,p越高访问原节点的概率越低。参数q控制跳 到其他节点的概率,若q>1,随机游走倾向于广度优先,若q<1,随机游走倾向于深度优 先;Aij为邻接矩阵A第i行第j列的值;Sij为相似度矩阵S第i行第j列的值,即节点vi和节点vj的相似度。
AE-MVANR模型将原拓扑结构视图和隐含属性结构视图分别输入到该随机游走算法 中,可得到基于两个视图的节点序列,将其输入到基于LSTM的自编码器中进行训练。
四、训练自编码器
为了更好地捕捉节点序列的先后关系、网络结构信息和节点属性信息,AE-MVANR采用基于LSTM的自编码器作为网络表示学习模型。基于LSTM的自编码器结构如图2所 示,自编码器由三部分组成:输入层,隐藏层及输出层。输入层和隐藏层之间为编码过程, 隐藏层和输出层之间为解码过程。输入层和输出层具有相同规模。AE-MVANR采用LSTM 构造编码解码过程。LSTM是一种时间循环神经网络,适用于处理和预测时间序列中间隔 和延迟非常长的重要事件。
如图1所示,AE-MVANR首先将在原拓扑结构视图和隐藏属性结构视图获得的节点序列向量化,经LSTM编码,获得一种通用的编码表示,然后经过解码获得输入序列的重 构,最后通过最小化重构目标函数不断优化学习效果,并提取隐藏层中的信息作为节点的 表示。AE-MVANR定义的目标函数如公式(6)~(8)所示。由于网络的稀疏性,输入向 量的非零元素远远少于零元素。公式(6)对零元素引入惩罚项,为防止目标函数过拟合, 公式(7)引入L2正则化项,公式(8)进一步采用权重参数α来权衡两个不同的部分。
LLoss=Lrec+αLreg (8)
其中,Lrec表示重构误差;Xi表示节点vi的输出向量;Xi表示节点vi的属性向量,作为输入向量;⊙指hadamard乘积;如果Xip=0,则Bip=1,否则Bip设置为大 于1的常数;Lreg表示L2正则化项,L表示网络层数,W(l)和b(l)分别表示第l层的变换矩 阵和偏差向量;LLoss为目标函数;α为权重参数。
五、获取节点表示向量
模型训练结束后,提取自编码器隐藏层的编码信息作为节点表示,最终得到融合结构 信息和属性信息的节点表示向量,将得到的节点表示向量用于解决网络数据的高维性、稀 疏性,解决现有技术中存在的技术问题,满足实际应用中的多种需要。
六、模型验证
为了验证本发明所提方法的有效性,在公共数据集上通过节点分类和聚类任务分别进 行了实验。数据集的相关统计信息说明如表1所示。
表1数据集相关信息
在分类任务中,本发明将实验数据集随机且独立地分为训练集和测试集,将数据中的70%用作训练集,剩余数据用作测试集。采用LR作为分类算法,评价准则采用准确率(Accuracy)。表2是各算法在WebKB和citeseer数据集上的分类结果。每个数据集上最 好的分类结果用粗体表示,最后一行Δ%表示AE-MVANR相对其他对比算法中最优结果 提升的百分比。
从表2可以看出,AE-MVANR在WebKB四个数据集上的结果明显高于其他对比方法。比如,在wisconsin数据集上,AE-MVANR的准确率达到86.25%,相较对比算法中最优的 结果提升了43.75%。在citeseer数据集上,AE-MVANR和TADW算法取得了相同的最优 结果。大部分情况下,基于拓扑结构和属性信息的方法都优于仅基于拓扑结构的方法。
在聚类任务中,本发明采用经典的K-means方法对各个数据集进行聚类实验,WebKB 的聚类个数设为5,citeseer的聚类个数设为6。评价指标采用标准化互信息(NMI)。表 3为各算法的聚类结果。
从表3可以看出,AE-MVANR的聚类结果显著优于其他对比算法,相较对比算法中最优结果最高提升率达到137.95%。从结果中可以看出,一些经典的网络表示学习方法并不适用于节点聚类任务,比如DeepWalk、node2vec、LINE和TADW的聚类效果都不理想。 聚类结果也表明在大部分情况下,基于拓扑结构和属性信息的方法都优于仅基于拓扑结构 的方法。
表2
表3
综上所述,本发明实施例利用网络拓扑结构信息和属性信息构造两个视图;使用随机 游走算法获取节点序列,再利用基于LSTM的自编码器对生成的节点序列进行训练,最后 获得节点表示向量,用于解决网络数据的高维性、稀疏性,流程结束。
本领域技术人员可以理解附图只是一个优选实施例的示意图,上述本发明实施例序号 仅仅为了描述,不代表实施例的优劣。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则 之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (6)
1.一种基于自编码器的多视图属性网络嵌入方法,其特征在于,所述方法包括:
属性网络包括若干个节点、边,每个节点有若干个属性;
根据属性网络中节点间固有的连边关系得到拓扑结构视图;
根据节点的属性信息挖掘隐含结构信息构造属性结构视图;
分别在拓扑、属性结构视图上执行随机游走算法,得到基于拓扑、属性结构视图的节点序列;
将节点序列输入到自编码器中,通过训练不断迭代,得到融合拓扑结构和属性结构的节点表示向量,用于解决网络数据的高维性、稀疏性。
2.根据权利要求1所述的一种基于自编码器的多视图属性网络嵌入方法,其特征在于,所述根据节点的属性信息挖掘隐含结构信息构造属性结构视图具体为:
利用节点间相同属性的共现频率作为衡量节点相似性的指标,两个节点间属性的共现频率越高,两个节点越相似;利用节点相似度构造属性结构视图。
4.根据权利要求1所述的一种基于自编码器的多视图属性网络嵌入方法,其特征在于,所述将节点序列输入到自编码器中,通过训练不断迭代,得到融合拓扑结构和属性结构的节点表示向量具体为:
将在拓扑结构视图和属性结构视图获得的节点序列向量化,经LSTM编码,获得通用的编码表示;
经过解码获得节点序列的重构,最后通过最小化重构目标函数不断优化学习效果,并提取隐藏层中的信息作为节点的表示。
6.根据权利要求1-5中任一权利要求所述的一种基于自编码器的多视图属性网络嵌入方法,其特征在于,所述自编码器具体为:基于LSTM的自编码器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010107039.9A CN111428873A (zh) | 2020-02-21 | 2020-02-21 | 一种基于自编码器的多视图属性网络嵌入方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010107039.9A CN111428873A (zh) | 2020-02-21 | 2020-02-21 | 一种基于自编码器的多视图属性网络嵌入方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111428873A true CN111428873A (zh) | 2020-07-17 |
Family
ID=71547101
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010107039.9A Pending CN111428873A (zh) | 2020-02-21 | 2020-02-21 | 一种基于自编码器的多视图属性网络嵌入方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111428873A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111882622A (zh) * | 2020-07-31 | 2020-11-03 | 常州大学 | 一种大脑功能网络的转换方法 |
CN112464004A (zh) * | 2020-11-26 | 2021-03-09 | 大连理工大学 | 一种多视角深度生成图像聚类方法 |
-
2020
- 2020-02-21 CN CN202010107039.9A patent/CN111428873A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111882622A (zh) * | 2020-07-31 | 2020-11-03 | 常州大学 | 一种大脑功能网络的转换方法 |
CN111882622B (zh) * | 2020-07-31 | 2024-02-13 | 常州大学 | 一种大脑功能网络的转换方法 |
CN112464004A (zh) * | 2020-11-26 | 2021-03-09 | 大连理工大学 | 一种多视角深度生成图像聚类方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wu et al. | Interpretable graph convolutional network for multi-view semi-supervised learning | |
Yang et al. | Variational co-embedding learning for attributed network clustering | |
Ma et al. | Hierarchical taxonomy aware network embedding | |
Arsov et al. | Network embedding: An overview | |
Wang et al. | Graph neural networks: Self-supervised learning | |
CN112464004A (zh) | 一种多视角深度生成图像聚类方法 | |
Shi et al. | GAEN: graph attention evolving networks | |
Zheng et al. | Multimodal deep network embedding with integrated structure and attribute information | |
CN116304367B (zh) | 基于图自编码器自监督训练用于获得社区的算法及装置 | |
CN111428873A (zh) | 一种基于自编码器的多视图属性网络嵌入方法 | |
CN111597943B (zh) | 一种基于图神经网络的表格结构识别方法 | |
CN113220897A (zh) | 基于实体-关系关联图的知识图谱嵌入模型 | |
Kinderkhedia | Learning Representations of Graph Data--A Survey | |
Onwubolu | Gmdh-methodology And Implementation In C (With Cd-rom) | |
CN116361438A (zh) | 基于文本-知识扩展图协同推理网络的问答方法及系统 | |
Li et al. | Self-supervised nodes-hyperedges embedding for heterogeneous information network learning | |
Hajewski et al. | An evolutionary approach to variational autoencoders | |
Zhang et al. | Relational intelligence recognition in online social networks—A survey | |
Zhang et al. | A novel method based on deep reinforcement learning for machining process route planning | |
CN112948581B (zh) | 专利自动分类方法、装置、电子设备及存储介质 | |
CN113989544A (zh) | 一种基于深度图卷积网络的群体发现方法 | |
He et al. | HDGCN: Dual-channel graph convolutional network with higher-order information for robust feature learning | |
CN114842247B (zh) | 基于特征累加的图卷积网络半监督节点分类方法 | |
CN109859062A (zh) | 一种结合深度稀疏编码器和拟牛顿法的社区发现分析方法 | |
Dou et al. | Graph embedding framework based on adversarial and random walk regularization |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20200717 |
|
WD01 | Invention patent application deemed withdrawn after publication |