CN111428873A - 一种基于自编码器的多视图属性网络嵌入方法 - Google Patents

一种基于自编码器的多视图属性网络嵌入方法 Download PDF

Info

Publication number
CN111428873A
CN111428873A CN202010107039.9A CN202010107039A CN111428873A CN 111428873 A CN111428873 A CN 111428873A CN 202010107039 A CN202010107039 A CN 202010107039A CN 111428873 A CN111428873 A CN 111428873A
Authority
CN
China
Prior art keywords
node
attribute
network
nodes
encoder
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010107039.9A
Other languages
English (en)
Inventor
邢艳
黄睿
王慧敏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Civil Aviation University of China
Original Assignee
Civil Aviation University of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Civil Aviation University of China filed Critical Civil Aviation University of China
Priority to CN202010107039.9A priority Critical patent/CN111428873A/zh
Publication of CN111428873A publication Critical patent/CN111428873A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种基于自编码器的多视图属性网络嵌入方法,所述方法包括:属性网络包括若干个节点、边,每个节点有若干个属性;根据属性网络中节点间固有的连边关系得到拓扑结构视图;根据节点的属性信息挖掘隐含结构信息构造属性结构视图;分别在拓扑、属性结构视图上执行随机游走算法,得到基于拓扑、属性结构视图的节点序列;将节点序列输入到自编码器中,通过训练不断迭代,得到融合拓扑结构和属性结构的节点表示向量,用于解决网络数据的高维性、稀疏性。本方法充分挖掘离散数值属性信息,构造属性结构视图,利用随机游走和基于LSTM的自编码器改善网络表示效果,在节点分类和节点聚类任务上展示了优异的性能。

Description

一种基于自编码器的多视图属性网络嵌入方法
技术领域
本发明涉及网络表示学习领域,尤其涉及一种基于自编码器的多视图属性网络嵌入方 法。
背景技术
网络表示学习(Network Representation Learning),又称网络嵌入(NetworkEmbedding) 或图嵌入(Graph Embedding),旨在寻找网络的低维表示空间使其更好的捕捉原始网络中 的结构信息和特性。网络表示不仅解决了数据的高维性、稀疏性等问题,而且可以更深入 的挖掘网络数据背后的信息,从而有利于节点分类、节点聚类、链路预测等各种应用任务。
随着深度学习方法的发展,涌现出大量基于神经网络的表示学习方法。受word2vec 方法的启发,DeepWalk[1]利用类似深度优先的随机游走策略,在网络中获得一系列节点序 列,然后将每个节点序列视为一个句子,输入到Skip-Gram模型中,最终得到每个节点的 低维表示。DeepWalk方法仅考虑了节点的一阶相似性信息,LINE[2]进一步保存了网络中 的一阶相似性和二阶相似性特征。node2vec[3]采用更加灵活的随机游走策略,结合深度优 先和广度优先方法,使抽样的路径能更大程度上同时保存网络的局部特征和全局特征。不 同于以上基于浅层神经网络的网络表示学习方法,SDNE[4]利用深度神经网络捕捉了节点之 间的高度非线性关系。
然而,上述方法都只利用了网络的拓扑结构信息,真实世界中的网络节点往往会伴随 着丰富的外部信息,诸如节点属性、标签信息、异构信息等等。因而许多研究也将这些外 部信息融入到节点表示过程中以提高网络表示的质量。MMDW[5]在DeepWalk的基础上将标签信息融入到网络表示学习过程中。DANE[6]利用堆叠降噪自动编码器(stackeddenoising autoencoder)学习属性网络中节点表示向量。MVE[7]使用自注意力机制为网络中不同视图 下的多个节点表示向量投票,最终得到结果最优的鲁棒节点表示向量。不同于MVE的投 票方式,MEGAN[8]使用生成器将不同视图下的节点表示向量进行融合。CANE[9]利用卷积 神经网络对一条边上两个节点的文本信息进行编码。Net2Net[10]基于自翻译机制,使用 LSTM融合节点的结构特征和文本特征。
但是以上方法挖掘的属性信息均为文本信息,而非离散化的二值数值。
参考文献
[1]Perozzi B,Al-Rfou R,Skiena S.Deepwalk:Online learning of socialrepresentations[C]//Proceedings of the 20th ACM SIGKDD internationalconference on Knowledge discovery and data mining.ACM,2014:701-710.
[2]Tang J,Qu M,Wang M,et al.Line:Large-scale information networkembedding[C]//Proceedings of the 24th international conference on world wideweb. International World Wide Web Conferences Steering Committee,2015:1067-1077.
[3]Grover A,Leskovec J.node2vec:Scalable feature learning fornetworks[C]//Proceedings of the 22nd ACM SIGKDD international conference onKnowledge discovery and data mining. ACM,2016:855-864.
[4]Wang D,Cui P,Zhu W.Structural deep network embedding[C]//Proceedings ofthe 22nd ACM SIGKDD international conference on Knowledgediscovery and data mining.ACM,2016: 1225-1234.
[5]Tu C,Zhang W,Liu Z,et al.Max-margin deepwalk:Discriminativelearning of network representation[C]//IJCAI.2016:3889-3895.
[6]Hong R,He Y,WuL,et al.Deep Attributed Network Embedding byPreserving Structure and Attribute Information[J].IEEE TransactionsonSystems,Man,and Cybernetics:Systems,2019.
[7]Qu M,Tang J,Shang J,et al.An attention-based collaborationframework for multi-view network representation learning[C]//Proceedings ofthe 2017ACM on Conference on Information and Knowledge Management.ACM,2017:1767-1776.
[8]Sun Y,Wang S,Hsieh T Y,et al.Megan:a generative adversarialnetwork for multi-view network embedding[J].arXiv preprint arXiv:1909.01084,2019.
[9]Tu C,Liu H,Liu Z,et al.Cane:Context-aware network embedding forrelation modeling[C]//Proceedings of the 55th Annual Meeting of theAssociation for Computational Linguistics(Volume 1:Long Papers).2017:1722-1731.
[10]He Z,Liu J,Li N,et al.Learning Network-to-Network Model forContent-rich Network Embedding[C]//Proceedings of the 25th ACM SIGKDDInternational Conference on Knowledge Discovery&Data Mining.ACM,2019:1037-1045.
发明内容
本发明提供了一种基于自编码器的多视图属性网络嵌入方法,本发明从不同角度设计 了两个网络视图,采用随机游走算法在两个视图上生成两套节点序列,利用基于LSTM(长 短期记忆网络)的自编码器对节点序列进行深度融合,训练得到节点表示向量,用于解决 网络数据的高维性、稀疏性,详见下文描述:
一种基于自编码器的多视图属性网络嵌入方法,所述方法包括:
属性网络包括若干个节点、边,每个节点有若干个属性;
根据属性网络中节点间固有的连边关系得到拓扑结构视图;
根据节点的属性信息挖掘隐含结构信息构造属性结构视图;
分别在拓扑、属性结构视图上执行随机游走算法,得到基于拓扑、属性结构视图的节 点序列;
将节点序列输入到自编码器中,通过训练不断迭代,得到融合拓扑结构和属性结构的 节点表示向量,将节点表示向量用于解决网络数据的高维性、稀疏性。
其中,所述根据节点的属性信息挖掘隐含结构信息构造属性结构视图具体为:
利用节点间相同属性的共现频率作为衡量节点相似性的指标,两个节点间属性的共现 频率越高,两个节点越相似;利用节点相似度构造属性结构视图。
进一步地,所述利用节点相似度构造属性结构视图具体为:
Figure BDA0002388754440000031
Figure BDA0002388754440000032
其中,F表示网络节点间相同属性个数矩阵;Fij表示节点vi和节点vj相同属性的个数; Xip表示节点vi第p个属性的值;Xjp表示节点vj第p个属性的值;t表示属性的个数;当 Xip=Xjp时,g(Xip,Xjp)=1,否则g(Xip,Xjp)=0;将矩阵F进行最大最小归一化处理,得到矩阵F,Fij表示节点vi和节点vj相同属性个数归一化处理后的值;S表示网络节点的相似度矩阵,Sij表示节点vi和节点vj的相似度;TOP_c(·)表示取集合中最大的c个值。
其中,所述将节点序列输入到自编码器中,通过训练不断迭代,得到融合拓扑结构和 属性结构的节点表示向量具体为:
将在拓扑结构视图和属性结构视图获得的节点序列向量化,经LSTM编码,获得通用 的编码表示;
经过解码获得节点序列的重构,最后通过最小化重构目标函数不断优化学习效果,并 提取隐藏层中的信息作为节点的表示。
进一步地,所述目标函数具体为:
Figure BDA0002388754440000041
Figure BDA0002388754440000042
LLoss=Lrec+αLreg
其中,Lrec表示重构误差;Xi表示节点vi的输出向量;Xi表示节点vi的属性向量,作为输入向量;⊙指hadamard乘积;
Figure BDA0002388754440000043
如果Xip=0,则Bip=1,否则Bip设置为大 于1的常数;Lreg表示L2正则化项,L表示网络层数,W(l)和b(l)分别表示第l层的变换矩 阵和偏差向量;LLoss为目标函数;α为权重参数。
进一步地,所述自编码器具体为:基于LSTM的自编码器。
本发明提供的技术方案的有益效果是:
1、本方法充分挖掘离散数值属性信息,构造属性结构视图,利用随机游走和基于LSTM 的自编码器改善网络表示效果,在节点分类和节点聚类任务上展示了优异的性能;
2、本发明通过构造拓扑结构视图和属性结构视图,使用基于LSTM的自编码器对不同视图生成的节点序列进行深度融合,充分利用不同类型的网络特征,用于解决网络数据的高维性、稀疏性;
3、实验结果表明,本方法性能表现优于目前网络表示学习中常用的仅基于网络结构、 以及同时基于网络结构及节点属性信息的网络表示学习方法。
附图说明
图1为一种基于自编码器的多视图属性网络嵌入方法的整体框架图;
图2为基于LSTM的自编码器结构图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面对本发明实施方式作进一步地详 细描述。
为了便于描述,首先进行一些定义:给定一个属性网络G=(V,E,X),其中V={v1,v2,……,vn} 表示网络中节点的集合,n=|V|表示网络中节点的数量,vn表示第n个节点;E={eij}表示边 的集合,eij表示节点vi和节点vj之间的边;X为一个n×t阶矩阵,表示所有节点的属性矩 阵,t表示属性的维度,Xi=(Xi1,Xi2,……,Xit)表示节点vi的属性向量。
实施例1
一种基于自编码器的多视图属性网络嵌入方法(简称为AE-MVANR方法),参见图1,该方法包括以下步骤:
一、AE-MVANR方法整体框架
AE-MVANR深度挖掘不同节点间属性的内在联系,通过属性特征探索节点之间隐含的结构关系,其整体框架如图1所示。属性网络G有4个节点(v1,v2,v3,v4),3条边(e14,e13,e23), 每个节点有6个属性(f1,f2,f3,f4,f5,f6)。AE-MVANR首先根据网络中节点间固有的连边关系, 得到拓扑结构视图;根据节点的属性信息挖掘隐含结构信息构造属性结构视图。然后分别 在两个视图上执行随机游走算法,得到基于拓扑结构视图和属性结构视图的节点序列。最 后将序列输入到基于LSTM的自编码器中,通过训练不断迭代,得到融合了结构和属性特 征的节点表示向量。
二、构造两个视图
对于网络G,节点之间的连接关系可以用邻接矩阵A={Aij}表示,其中Aij取值为1或 0。若Aij=1则表示节点vi和节点vj之间存在连接关系,否则表示两节点之间不直接相连。 邻接矩阵A体现了网络中节点固有的拓扑结构。然而,网络中不直接相连的节点也会存在 一定的相似关系。例如图1中,节点v1和节点v2之间没有连边,节点v2和节点v3有连边。分析它们的属性特征可以发现,节点v2和节点v3拥有一个共同属性(属性f4),同样地, 节点v1和节点v2也拥有一个共同属性(属性f4),据此可推断出节点v1和节点v2具有较高 的相似性。
为了更加全面真实地刻画网络中节点之间的关系,AE-MVANR利用节点间相同属性的共现频率作为衡量节点相似性的指标,两个节点间属性的共现频率越高,说明两个节点越相似。对网络中隐藏的属性结构信息进行深度挖掘,由此得到节点之间的相似度矩阵,如公式(1)和(2)所示。利用节点相似度构造属性结构视图。
Figure BDA0002388754440000051
Figure BDA0002388754440000061
其中,F表示网络节点间相同属性个数矩阵;Fij表示节点vi和节点vj相同属性的个数; Xip表示节点vi第p个属性的值;Xjp表示节点vj第p个属性的值;t表示属性的个数;当 Xip=Xjp时,g(Xip,Xjp)=1,否则g(Xip,Xjp)=0。
将矩阵F进行最大最小归一化处理,得到矩阵F,Fij表示节点vi和节点vj相同属性个数归一化处理后的值;S表示网络节点的相似度矩阵,Sij表示节点vi和节点vj的相似度;TOP_c(·)表示取集合中最大的c个值。
节点相似性具体的计算用以下算法进行描述。
Figure BDA0002388754440000062
算法的1-5行计算了节点属性共现矩阵F,此时Fij≥0。第6行将矩阵F进行归一化,此时0≤Fij≤1。第7-9行对每个节点筛选与其共现频率最高的前c个节点,c可取网络平 均度的近似,此举不仅挖掘到了隐藏属性网络的结构信息而且极大简化了相似度矩阵S。 第10行返回节点相似性矩阵S。
三、生成节点序列
节点相似性矩阵S体现了节点之间的隐含属性结构关系,是对邻接矩阵A的重要补充。 为了充分利用网络中原拓扑结构信息和隐含的属性结构信息,在拓扑结构视图和属性结构 视图上分别采用随机游走算法进一步提取网络中节点之间的关系,生成节点序列。考虑一 个从节点vk到节点vi的随机游走,现在计算到下一个节点vj的概率,随机游走算法具体策 略如公式(3)~(5)所示。
Figure BDA0002388754440000071
Figure BDA0002388754440000072
Figure BDA0002388754440000073
公式(3)表示在给定当前节点vi,访问下一个节点vj的概率。其中,πij是节点vi和节点vj未归一化的转移概率,Z是归一化常数,distance(k,j)是节点vk和节点vj之间的最短路径长度。参数p控制回到原节点的概率,p越高访问原节点的概率越低。参数q控制跳 到其他节点的概率,若q>1,随机游走倾向于广度优先,若q<1,随机游走倾向于深度优 先;Aij为邻接矩阵A第i行第j列的值;Sij为相似度矩阵S第i行第j列的值,即节点vi和节点vj的相似度。
AE-MVANR模型将原拓扑结构视图和隐含属性结构视图分别输入到该随机游走算法 中,可得到基于两个视图的节点序列,将其输入到基于LSTM的自编码器中进行训练。
四、训练自编码器
为了更好地捕捉节点序列的先后关系、网络结构信息和节点属性信息,AE-MVANR采用基于LSTM的自编码器作为网络表示学习模型。基于LSTM的自编码器结构如图2所 示,自编码器由三部分组成:输入层,隐藏层及输出层。输入层和隐藏层之间为编码过程, 隐藏层和输出层之间为解码过程。输入层和输出层具有相同规模。AE-MVANR采用LSTM 构造编码解码过程。LSTM是一种时间循环神经网络,适用于处理和预测时间序列中间隔 和延迟非常长的重要事件。
如图1所示,AE-MVANR首先将在原拓扑结构视图和隐藏属性结构视图获得的节点序列向量化,经LSTM编码,获得一种通用的编码表示,然后经过解码获得输入序列的重 构,最后通过最小化重构目标函数不断优化学习效果,并提取隐藏层中的信息作为节点的 表示。AE-MVANR定义的目标函数如公式(6)~(8)所示。由于网络的稀疏性,输入向 量的非零元素远远少于零元素。公式(6)对零元素引入惩罚项,为防止目标函数过拟合, 公式(7)引入L2正则化项,公式(8)进一步采用权重参数α来权衡两个不同的部分。
Figure BDA0002388754440000081
Figure BDA0002388754440000082
LLoss=Lrec+αLreg (8)
其中,Lrec表示重构误差;Xi表示节点vi的输出向量;Xi表示节点vi的属性向量,作为输入向量;⊙指hadamard乘积;
Figure BDA0002388754440000083
如果Xip=0,则Bip=1,否则Bip设置为大 于1的常数;Lreg表示L2正则化项,L表示网络层数,W(l)和b(l)分别表示第l层的变换矩 阵和偏差向量;LLoss为目标函数;α为权重参数。
五、获取节点表示向量
模型训练结束后,提取自编码器隐藏层的编码信息作为节点表示,最终得到融合结构 信息和属性信息的节点表示向量,将得到的节点表示向量用于解决网络数据的高维性、稀 疏性,解决现有技术中存在的技术问题,满足实际应用中的多种需要。
六、模型验证
为了验证本发明所提方法的有效性,在公共数据集上通过节点分类和聚类任务分别进 行了实验。数据集的相关统计信息说明如表1所示。
表1数据集相关信息
Figure BDA0002388754440000084
在分类任务中,本发明将实验数据集随机且独立地分为训练集和测试集,将数据中的70%用作训练集,剩余数据用作测试集。采用LR作为分类算法,评价准则采用准确率(Accuracy)。表2是各算法在WebKB和citeseer数据集上的分类结果。每个数据集上最 好的分类结果用粗体表示,最后一行Δ%表示AE-MVANR相对其他对比算法中最优结果 提升的百分比。
从表2可以看出,AE-MVANR在WebKB四个数据集上的结果明显高于其他对比方法。比如,在wisconsin数据集上,AE-MVANR的准确率达到86.25%,相较对比算法中最优的 结果提升了43.75%。在citeseer数据集上,AE-MVANR和TADW算法取得了相同的最优 结果。大部分情况下,基于拓扑结构和属性信息的方法都优于仅基于拓扑结构的方法。
在聚类任务中,本发明采用经典的K-means方法对各个数据集进行聚类实验,WebKB 的聚类个数设为5,citeseer的聚类个数设为6。评价指标采用标准化互信息(NMI)。表 3为各算法的聚类结果。
从表3可以看出,AE-MVANR的聚类结果显著优于其他对比算法,相较对比算法中最优结果最高提升率达到137.95%。从结果中可以看出,一些经典的网络表示学习方法并不适用于节点聚类任务,比如DeepWalk、node2vec、LINE和TADW的聚类效果都不理想。 聚类结果也表明在大部分情况下,基于拓扑结构和属性信息的方法都优于仅基于拓扑结构 的方法。
表2
Figure BDA0002388754440000091
表3
Figure BDA0002388754440000092
Figure BDA0002388754440000101
综上所述,本发明实施例利用网络拓扑结构信息和属性信息构造两个视图;使用随机 游走算法获取节点序列,再利用基于LSTM的自编码器对生成的节点序列进行训练,最后 获得节点表示向量,用于解决网络数据的高维性、稀疏性,流程结束。
本领域技术人员可以理解附图只是一个优选实施例的示意图,上述本发明实施例序号 仅仅为了描述,不代表实施例的优劣。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则 之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (6)

1.一种基于自编码器的多视图属性网络嵌入方法,其特征在于,所述方法包括:
属性网络包括若干个节点、边,每个节点有若干个属性;
根据属性网络中节点间固有的连边关系得到拓扑结构视图;
根据节点的属性信息挖掘隐含结构信息构造属性结构视图;
分别在拓扑、属性结构视图上执行随机游走算法,得到基于拓扑、属性结构视图的节点序列;
将节点序列输入到自编码器中,通过训练不断迭代,得到融合拓扑结构和属性结构的节点表示向量,用于解决网络数据的高维性、稀疏性。
2.根据权利要求1所述的一种基于自编码器的多视图属性网络嵌入方法,其特征在于,所述根据节点的属性信息挖掘隐含结构信息构造属性结构视图具体为:
利用节点间相同属性的共现频率作为衡量节点相似性的指标,两个节点间属性的共现频率越高,两个节点越相似;利用节点相似度构造属性结构视图。
3.根据权利要求2所述的一种基于自编码器的多视图属性网络嵌入方法,其特征在于,所述利用节点相似度构造属性结构视图具体为:
Figure FDA0002388754430000011
Figure FDA0002388754430000012
其中,F表示网络节点间相同属性个数矩阵;Fij表示节点vi和节点vj相同属性的个数;Xip表示节点vi第p个属性的值;Xjp表示节点vj第p个属性的值;t表示属性的个数;当Xip=Xjp时,g(Xip,Xjp)=1,否则g(Xip,Xjp)=0;将矩阵F进行最大最小归一化处理,得到矩阵F,Fij表示节点vi和节点vj相同属性个数归一化处理后的值;S表示网络节点的相似度矩阵,Sij表示节点vi和节点vj的相似度;TOP_c(·)表示取集合中最大的c个值。
4.根据权利要求1所述的一种基于自编码器的多视图属性网络嵌入方法,其特征在于,所述将节点序列输入到自编码器中,通过训练不断迭代,得到融合拓扑结构和属性结构的节点表示向量具体为:
将在拓扑结构视图和属性结构视图获得的节点序列向量化,经LSTM编码,获得通用的编码表示;
经过解码获得节点序列的重构,最后通过最小化重构目标函数不断优化学习效果,并提取隐藏层中的信息作为节点的表示。
5.根据权利要求4所述的一种基于自编码器的多视图属性网络嵌入方法,其特征在于,所述目标函数具体为:
Figure FDA0002388754430000021
Figure FDA0002388754430000022
LLoss=Lrec+αLreg
其中,Lrec表示重构误差;Xi表示节点vi的输出向量;Xi表示节点vi的属性向量,作为输入向量;⊙指hadamard乘积;
Figure FDA0002388754430000023
如果Xip=0,则Bip=1,否则Bip设置为大于1的常数;Lreg表示L2正则化项,L表示网络层数,W(l)和b(l)分别表示第l层的变换矩阵和偏差向量;LLoss为目标函数;α为权重参数。
6.根据权利要求1-5中任一权利要求所述的一种基于自编码器的多视图属性网络嵌入方法,其特征在于,所述自编码器具体为:基于LSTM的自编码器。
CN202010107039.9A 2020-02-21 2020-02-21 一种基于自编码器的多视图属性网络嵌入方法 Pending CN111428873A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010107039.9A CN111428873A (zh) 2020-02-21 2020-02-21 一种基于自编码器的多视图属性网络嵌入方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010107039.9A CN111428873A (zh) 2020-02-21 2020-02-21 一种基于自编码器的多视图属性网络嵌入方法

Publications (1)

Publication Number Publication Date
CN111428873A true CN111428873A (zh) 2020-07-17

Family

ID=71547101

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010107039.9A Pending CN111428873A (zh) 2020-02-21 2020-02-21 一种基于自编码器的多视图属性网络嵌入方法

Country Status (1)

Country Link
CN (1) CN111428873A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111882622A (zh) * 2020-07-31 2020-11-03 常州大学 一种大脑功能网络的转换方法
CN112464004A (zh) * 2020-11-26 2021-03-09 大连理工大学 一种多视角深度生成图像聚类方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111882622A (zh) * 2020-07-31 2020-11-03 常州大学 一种大脑功能网络的转换方法
CN111882622B (zh) * 2020-07-31 2024-02-13 常州大学 一种大脑功能网络的转换方法
CN112464004A (zh) * 2020-11-26 2021-03-09 大连理工大学 一种多视角深度生成图像聚类方法

Similar Documents

Publication Publication Date Title
Wu et al. Interpretable graph convolutional network for multi-view semi-supervised learning
Yang et al. Variational co-embedding learning for attributed network clustering
Ma et al. Hierarchical taxonomy aware network embedding
Arsov et al. Network embedding: An overview
Wang et al. Graph neural networks: Self-supervised learning
CN112464004A (zh) 一种多视角深度生成图像聚类方法
Shi et al. GAEN: graph attention evolving networks
Zheng et al. Multimodal deep network embedding with integrated structure and attribute information
CN116304367B (zh) 基于图自编码器自监督训练用于获得社区的算法及装置
CN111428873A (zh) 一种基于自编码器的多视图属性网络嵌入方法
CN111597943B (zh) 一种基于图神经网络的表格结构识别方法
CN113220897A (zh) 基于实体-关系关联图的知识图谱嵌入模型
Kinderkhedia Learning Representations of Graph Data--A Survey
Onwubolu Gmdh-methodology And Implementation In C (With Cd-rom)
CN116361438A (zh) 基于文本-知识扩展图协同推理网络的问答方法及系统
Li et al. Self-supervised nodes-hyperedges embedding for heterogeneous information network learning
Hajewski et al. An evolutionary approach to variational autoencoders
Zhang et al. Relational intelligence recognition in online social networks—A survey
Zhang et al. A novel method based on deep reinforcement learning for machining process route planning
CN112948581B (zh) 专利自动分类方法、装置、电子设备及存储介质
CN113989544A (zh) 一种基于深度图卷积网络的群体发现方法
He et al. HDGCN: Dual-channel graph convolutional network with higher-order information for robust feature learning
CN114842247B (zh) 基于特征累加的图卷积网络半监督节点分类方法
CN109859062A (zh) 一种结合深度稀疏编码器和拟牛顿法的社区发现分析方法
Dou et al. Graph embedding framework based on adversarial and random walk regularization

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20200717

WD01 Invention patent application deemed withdrawn after publication