CN109101629A - 一种基于深度网络结构和节点属性的网络表示方法 - Google Patents
一种基于深度网络结构和节点属性的网络表示方法 Download PDFInfo
- Publication number
- CN109101629A CN109101629A CN201810922587.XA CN201810922587A CN109101629A CN 109101629 A CN109101629 A CN 109101629A CN 201810922587 A CN201810922587 A CN 201810922587A CN 109101629 A CN109101629 A CN 109101629A
- Authority
- CN
- China
- Prior art keywords
- node
- matrix
- attribute
- network
- formula
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种基于深度网络结构和节点属性的网络表示方法,综合考虑网络结构和节点属性信息对节点的影响,并通过神经网络学习出节点特征表示。包括:构造节点间邻接矩阵和属性关系矩阵;获得节点间结构概率转移矩阵和属性概率转移矩阵;根据结构概率转移矩阵和属性概率转移矩阵利用个性化随机游走模型获得多阶概率关系矩阵;将多阶概率关系矩阵通过衰减函数合并得到全局信息矩阵;将全局信息矩阵输入自动编码器,通过训练自动编码器得到网络节点低维特征表示。本发明解决数据稀疏性问题,通过构建深度神经网络将网络中节点的全局信息编码到低维、稠密的向量空间,保证了对网络中节点的精准表示。
Description
技术领域
本发明涉及网络分析领域,具体地说是一种基于深度网络结构和节点属性的网络表示。
背景技术
网络表示学习旨在通过无监督方法,将符号化的数据编码到低维、连续、稠密的向量空间中。随着在线社交应用和媒体的迅速发展,产生了海量体现网络结构的数据,学习网络的低维网络表示在不同的应用领域中体现了很好的效率和效果,这些应用领域包括链接预测、网络节点分类、异常检测、推荐等。
网络上数据最大的特点在于样本点之间存在着链接关系,这表明网络中样本点之间并非完全独立的。2015年微软研究院提出LINE算法,该算法设计一个新的优化目标函数,可以很好地学习出图结构中的一阶信息和二阶信息。考虑到LINE算法并不能学习出图结构中的高阶信息,2015年提出的GraRep模型通过随机冲浪模型学习出每一阶的网络信息,并对每一阶信息矩阵做分解学习,最后将学习出的各阶表示向量拼接起来作为最后结果,GraRep模型较LINE模型的效果大大提升,充分证明高阶信息蕴含了丰富的网络结构信息。
除了节点之间的链接关系,网络中节点自身还包含着丰富的信息,比如互联网中网页节点对应的文本信息。但是,这些模型并没有考虑节点的属性信息。近年来,考虑到网络中的节点本身包含丰富的属性信息,结合节点属性信息和深度结构信息可以缓解网络的数据稀疏问题,因此基于图结构和属性信息的网络表示算法开始引起重视,例如2015年提出的TADW基于矩阵分解这个框架,将文本信息以一个子矩阵方式加入,学习到了更为丰富的网络节点特征向量。TADW模型实验结果证明了在网络特征学习中考虑节点属性信息可以学习出更丰富的特征向量。
节点间高阶信息和属性信息可以有效缓解数据稀疏问题,从而对节点进行更为精准、丰富的表示。但是,现有技术中的模型并不能够综合考虑节点间高阶信息和节点属性信息。
发明内容
本发明是为避免上述现有技术所存在的问题,提供一种基于深度网络结构和节点属性的网络表示方法,以期能够充分利用节点间的隐含关系以及属性信息解决数据稀疏性问题,通过复杂的深度神经网络结构学习节点的低维信息来保证很好的精度,进而实现对节点的精准表示。
本发明为解决技术问题采用如下技术方案:
本发明基于深度网络结构和节点属性的网络表示方法的特点是:综合考虑网络结构和节点属性信息对节点的影响,并通过神经网络学习出节点特征表示。
本发明基于深度网络结构和节点属性的网络表示方法是按如下步骤进行:
步骤1、构造节点与节点之间邻接矩阵S和属性关系矩阵B:
以G表示一个属性网络,G=(V,E,X),其中:
V表示网络节点集,V={v1,v2,...,vN},以vi和vj分别表示节点i和节点j,i=1,2,...,N,j=1,2,...,N,N为节点总数;
E表示网络中链接集,链接集E中的元素ei,j表示节点vi与节点vj之间的链接关系,ei,j∈E,且i≠j;
X表示属性矩阵,属性矩阵X是一个F×N的实数矩阵,包含所有节点的属性信息,X={x1,x2,...,xN},xi为节点vi的F维的属性向量;
步骤1.1、获得节点与节点之间邻接矩阵S:
对于属性网络G,其网络结构关系由N×N的实数矩阵S表示,所述实数矩阵S即为邻接矩阵S,邻接矩阵S中的第i行第j列元素Si,j表示节点vi与节点vj的链接关系;
步骤1.2、获得节点与节点的属性关系矩阵B:
对于属性网络G,其网络属性关系由N×N的实数矩阵B表示,实数矩阵B即为属性关系矩阵B,由式(1)计算获得属性关系矩阵B中第i行第j列元素Bi,j,Bi,j表示节点vi与节点vj之间的属性相似性:
式(1)中,xi·xj表示对属性向量xi和xj进行点积运算,属性向量xi和xj均为独热编码表示;γ是F维的属性权重向量;
步骤2、构造节点间的结构概率转移矩阵A和属性概率转移矩阵R:
针对所述邻接矩阵S按行归一化处理,获得节点间的结构概率转移矩阵A;由式(2)计算结构概率转移矩阵A中的第i行第j列元素Ai,j,Ai,j表示节点vi与节点vj之间的结构转移概率关系,
Si,k表示节点vi与节点vk的链接关系,其中k=1,2,...,N,且i≠k;
针对属性关系矩阵B按行归一化处理,获得属性概率转移矩阵R,由式(3)计算获得属性概率转移矩阵R中第i行第j列元素Ri,j,Ri,j表示节点vi与节点vj之间的属性转移概率关系;
Bi,k表示节点vi与节点vk的属性相似性;
步骤3、通过个性化随机游走模型获得多阶概率关系矩阵P1,P2,P3,...,PT,T为随机游走步长,P1表示一阶概率关系矩阵,Pt表示t阶概率关系矩阵,t=2,...,T:
由式(4)获得一阶概率关系矩阵P1:
P1=αA+(1-α)R (4),
由式(5)获得t阶概率关系矩阵Pt:
Pt=αPt-1A+(1-α)R (5),
式(5)中,Pt-1为t-1阶概率关系矩阵,参数α为跳转概率,且α取值范围在0.5到1;
步骤4、由式(6)合并不同阶的概率关系阵得到全局信息矩阵Q:
其中,ω(t)是指数衰减函数,并有:ω(t)=β-t,β为指数函数衰减系数,β的取值范围为0.9到1;
步骤5、根据节点间全局信息矩阵Q,利用自动编码器得到低维网络表示矩阵H:
5.1、设定隐含层的总层数为M,以Hm(Q)表示为第m层隐含层的输出,以Wm表示第m层隐含层的转换矩阵,以bm表示第m层隐含层的偏置矩阵,m=1,2,...,M;并有:W=[W1,W2,...WM],b=[b1,b2,...bM];
利用式(7)计算获得第m层隐含层的输出Hm(Q):
Hm(Q)=σ(Wm×H(m-1)(Q)+bm)(7),
其中,H(m-1)(Q)为第m-1层隐含层的输出;σ(·)是Sigmoid激活函数;当m=1时,令H(m-1)(Q)=Q;
步骤5.2、由式(8)获得节点与节点之间的预测关系矩阵
式(8)中,f(·)是Sigmoid激活函数;WM为第M层隐含层的转换矩阵;bM为第M层隐含层的偏置矩阵;HM(Q)为第M层隐含层的输出;
步骤5.3、建立由式(9)所表达的目标函数L:
式(9)中,为预测关系矩阵中第i行j列的值,表示节点vi与节点vj的预测关系值;Qi,j为节点间全局信息矩阵Q第i行j列的值,Qi,j表示节点vi与节点vj的实际关系值;
步骤5.4、通过随机梯度下降法对所述目标函数式(10)进行优化求解,使得L值达到最小,当L值达到最小时,即为获得的网络节点表示矩阵,实现基于深度网络结构和节点属性的网络表示。
与已有技术相比,本发明有益效果体现在:
1、本发明通过相似度计算对节点的属性进行处理,得到节点之间基于属性的相似性。考虑属性信息不仅解决了网络的数据稀疏性问题,并为节点和节点之间的复杂关系提供了有利支持。
2、本发明引入随机游走的思想,并借助马尔科夫过程表示节点在网络中的游走过程,该处理方式不仅可以学习到网络中隐含的结构关系,同时还考虑了节点属性对网络结构的影响,从而可以实现对节点更为精确的表示。
3、本发明采用深层神经网络架构从全局信息矩阵中学习出节点的低维表示。深度神经网络实现对节点之间复杂关系进行非线性映射,更好的表示节点的信息,提高了整个算法的精度。
附图说明
图1为本发明基于深度网络结构和节点属性的网络表示的流程图;
表1为本发明方法与选用的五种对比方法在Flickr数据集上进行节点分类的实验结果;
表2为本发明方法与选用的五种对比方法在BlogCatalog数据集上进行节点分类实验结果;
表3为本发明方法与选用的五种对比方法在Flickr数据集上链接预测实验结果;
表4为本发明方法与选用的五种对比方法在Email-Eu-core数据集上链接预测实验结果。
具体实施方式
参见图1,本实施例中基于深度网络结构和节点属性的网络表示方法是按如下步骤进行:
步骤1、构造节点与节点之间邻接矩阵S和属性关系矩阵B:
以G表示一个属性网络,G=(V,E,X),其中:
V表示网络节点集,V={v1,v2,...,vN},以vi和vj分别表示节点i和节点j,i=1,2,...,N,j=1,2,...,N,N为节点总数;
E表示网络中链接集,链接集E中的元素ei,j表示节点vi与节点vj之间的链接关系,ei,j∈E,且i≠j;
X表示属性矩阵,属性矩阵X是一个F×N的实数矩阵,包含所有节点的属性信息,X={x1,x2,...,xN},xi为节点vi的F维的属性向量;
步骤1.1、获得节点与节点之间邻接矩阵S:
对于属性网络G,其网络结构关系由N×N的实数矩阵S表示,实数矩阵S即为邻接矩阵S,邻接矩阵S中的第i行第j列元素Si,j表示节点vi与节点vj的链接关系;对于非权重网络如果节点vi与节点vj存在联系,则Si,j=1,否则Si,j=0;对于权重网络Si,j表示节点vi与节点vj之间关系的强弱。
步骤1.2、获得节点与节点的属性关系矩阵B:
对于属性网络G,其网络属性关系由N×N的实数矩阵B表示,实数矩阵B即为属性关系矩阵B,由式(1)计算获得属性关系矩阵B中第i行第j列元素Bi,j,Bi,j表示节点vi与节点vj之间的属性相似性,节点之间属性信息越相似,则两个节点越相关,即Bi,j值越大,
式(1)中,xi·xj表示对属性向量xi和xj进行点积运算,属性向量xi和xj均为独热编码表示;γ是F维的属性权重向量。
步骤2、构造节点间的结构概率转移矩阵A和属性概率转移矩阵R:
针对邻接矩阵S按行归一化处理,获得节点间的结构概率转移矩阵A;由式(2)计算结构概率转移矩阵A中的第i行第j列元素Ai,j,Ai,j表示节点vi与节点vj之间的结构转移概率关系,
Si,k表示节点vi与节点vk的链接关系,其中k=1,2,...,N,且i≠k;
针对属性关系矩阵B按行归一化处理,获得属性概率转移矩阵R,由式(3)计算获得属性概率转移矩阵R中第i行第j列元素Ri,j,Ri,j表示节点vi与节点vj之间的属性转移概率关系;
Bi,k表示节点vi与节点vk的属性相似性;
步骤3、通过个性化随机游走模型获得多阶概率关系矩阵P1,P2,P3,...,PT,T为随机游走步长,P1表示一阶概率关系矩阵,Pt表示t阶概率关系矩阵,t=2,...,T:
由式(4)获得一阶概率关系矩阵P1:
P1=αA+(1-α)R (4),
由式(5)获得t阶概率关系矩阵Pt:
Pt=αPt-1A+(1-α)R (5),
式(5)中,Pt-1为t-1阶概率关系矩阵,参数α为跳转概率,且α取值范围在0.5到1。
步骤4、由式(6)合并不同阶的概率关系阵得到全局信息矩阵Q:
其中,ω(t)是指数衰减函数,并有:ω(t)=β-t,β为指数函数衰减系数,β的取值范围为0.9到1,β根据不同数据集可适当调节。
步骤5、根据节点间全局信息矩阵Q,利用自动编码器得到低维网络表示矩阵H:
5.1、设定隐含层的总层数为M,以Hm(Q)表示为第m层隐含层的输出,以Wm表示第m层隐含层的转换矩阵,以bm表示第m层隐含层的偏置矩阵,m=1,2,...,M;并有:W=[W1,W2,...WM],b=[b1,b2,...bM];
利用式(7)计算获得第m层隐含层的输出Hm(Q):
Hm(Q)=σ(Wm×H(m-1)(Q)+bm) (7),
其中,H(m-1)(Q)为第m-1层隐含层的输出;σ(·)是Sigmoid激活函数;当m=1时,令H(m-1)(Q)=Q;
步骤5.2、由式(8)获得节点与节点之间的预测关系矩阵
式(8)中,f(·)是Sigmoid激活函数;WM为第M层隐含层的转换矩阵;bM为第M层隐含层的偏置矩阵;HM(Q)为第M层隐含层的输出;
步骤5.3、建立由式(9)所表达的目标函数L:
式(10)中,为预测关系矩阵中第i行j列的值,表示节点vi与节点vj的预测关系值;Qi,j为节点间全局信息矩阵Q第i行j列的值,Qi,j表示节点vi与节点vj的实际关系值;
步骤5.4、通过随机梯度下降法对目标函数式(10)进行优化求解,使得L值达到最小,当L值达到最小时所得到的即为获得的网络节点表示矩阵,由此实现基于深度网络结构和节点属性的网络表示。
为验证本发明方法的有效性,选用属性网络表示中常见的二个应用:节点分类、链接预测。实验基于三个常用的属性网络数据集:Flcikr、BlogCatalog和Email-Eu-core。
在节点分类应用中采用Macro-F1和Micro-F1作为评价标准,在链接预测应用中采用Precision@k、NDCG@k、Recall@k和AUC作为评价指标。
本实施例中选用五种方法和本发明方法进行效果对比,所选方法分别是TADW、DNGR、LINE、DeepWalk和AE+A,DANE为发明方法;根据实验结果可得出结果如表1、表2、表3和表4所示,实验结果显示本发明方法与其它五种方法相比效果都要更好。
表1
表2
表3
表4
表1所示的实验结果显示,在BlogCatalog数据集上进行节点分类任务,本发明方法在两个评价标准Macro-F1和Micro-F1上均优于其它方法;
表2所示的实验结果显示,在Flcikr数据集上进行节点分类任务,本发明方法在两个评价标准Macro-F1和Micro-F1上均优于其它方法;
表3所示的实验结果显示,在Flcikr数据集上进行链接预测任务,本发明方法在四个评价标准Precision@k、NDCG@k、Recall@k和AUC上均优于其它方法;
表4所示的实验结果显示,在Email-Eu-core数据集上进行链接预测任务,本发明方法在四个评价标准Precision@k、NDCG@k、Recall@k和AUC上均优于其它方法;
本发明方法获得的表示向量能够更好地进行节点分类,本发明方法具有可行性。
Claims (2)
1.一种基于深度网络结构和节点属性的网络表示方法,其特征是:综合考虑网络结构和节点属性信息对节点的影响,并通过神经网络学习出节点特征表示。
2.根据权利要求1所述的基于深度网络结构和节点属性的网络表示方法,其特征是按如下步骤进行:
步骤1、构造节点与节点之间邻接矩阵S和属性关系矩阵B:
以G表示一个属性网络,G=(V,E,X),其中:
V表示网络节点集,V={v1,v2,...,vN},以vi和vj分别表示节点i和节点j,i=1,2,...,N,j=1,2,...,N,N为节点总数;
E表示网络中链接集,链接集E中的元素ei,j表示节点vi与节点vj之间的链接关系,ei,j∈E,且i≠j;
X表示属性矩阵,属性矩阵X是一个F×N的实数矩阵,包含所有节点的属性信息,X={x1,x2,...,xN},xi为节点vi的F维的属性向量;
步骤1.1、获得节点与节点之间邻接矩阵S:
对于属性网络G,其网络结构关系由N×N的实数矩阵S表示,所述实数矩阵S即为邻接矩阵S,邻接矩阵S中的第i行第j列元素Si,j表示节点vi与节点vj的链接关系;
步骤1.2、获得节点与节点的属性关系矩阵B:
对于属性网络G,其网络属性关系由N×N的实数矩阵B表示,实数矩阵B即为属性关系矩阵B,由式(1)计算获得属性关系矩阵B中第i行第j列元素Bi,j,Bi,j表示节点vi与节点vj之间的属性相似性:
式(1)中,xi·xj表示对属性向量xi和xj进行点积运算,属性向量xi和xj均为独热编码表示;γ是F维的属性权重向量;
步骤2、构造节点间的结构概率转移矩阵A和属性概率转移矩阵R:
针对所述邻接矩阵S按行归一化处理,获得节点间的结构概率转移矩阵A;由式(2)计算结构概率转移矩阵A中的第i行第j列元素Ai,j,Ai,j表示节点vi与节点vj之间的结构转移概率关系,
Si,k表示节点vi与节点vk的链接关系,其中k=1,2,...,N,且i≠k;
针对属性关系矩阵B按行归一化处理,获得属性概率转移矩阵R,由式(3)计算获得属性概率转移矩阵R中第i行第j列元素Ri,j,Ri,j表示节点vi与节点vj之间的属性转移概率关系;
Bi,k表示节点vi与节点vk的属性相似性;
步骤3、通过个性化随机游走模型获得多阶概率关系矩阵P1,P2,P3,...,PT,T为随机游走步长,P1表示一阶概率关系矩阵,Pt表示t阶概率关系矩阵,t=2,...,T:
由式(4)获得一阶概率关系矩阵P1:
P1=αA+(1-α)R (4),
由式(5)获得t阶概率关系矩阵Pt:
Pt=αPt-1A+(1-α)R (5),
式(5)中,Pt-1为t-1阶概率关系矩阵,参数α为跳转概率,且α取值范围在0.5到1;
步骤4、由式(6)合并不同阶的概率关系阵得到全局信息矩阵Q:
其中,ω(t)是指数衰减函数,并有:ω(t)=β-t,β为指数函数衰减系数,β的取值范围为0.9到1;
步骤5、根据节点间全局信息矩阵Q,利用自动编码器得到低维网络表示矩阵H:
5.1、设定隐含层的总层数为M,以Hm(Q)表示为第m层隐含层的输出,以Wm表示第m层隐含层的转换矩阵,以bm表示第m层隐含层的偏置矩阵,m=1,2,...,M;并有:W=[W1,W2,...WM],b=[b1,b2,...bM];
利用式(7)计算获得第m层隐含层的输出Hm(Q):
Hm(Q)=σ(Wm×H(m-1)(Q)+bm) (7),
其中,H(m-1)(Q)为第m-1层隐含层的输出;σ(·)是Sigmoid激活函数;当m=1时,令H(m-1)(Q)=Q;
步骤5.2、由式(8)获得节点与节点之间的预测关系矩阵
式(8)中,f(·)是Sigmoid激活函数;WM为第M层隐含层的转换矩阵;bM为第M层隐含层的偏置矩阵;HM(Q)为第M层隐含层的输出;
步骤5.3、建立由式(9)所表达的目标函数L:
式(9)中,为预测关系矩阵中第i行j列的值,表示节点vi与节点vj的预测关系值;Qi,j为节点间全局信息矩阵Q第i行j列的值,Qi,j表示节点vi与节点vj的实际关系值;
步骤5.4、通过随机梯度下降法对所述目标函数式(10)进行优化求解,使得L值达到最小,当L值达到最小时,即为获得的网络节点表示矩阵,实现基于深度网络结构和节点属性的网络表示。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810922587.XA CN109101629A (zh) | 2018-08-14 | 2018-08-14 | 一种基于深度网络结构和节点属性的网络表示方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810922587.XA CN109101629A (zh) | 2018-08-14 | 2018-08-14 | 一种基于深度网络结构和节点属性的网络表示方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109101629A true CN109101629A (zh) | 2018-12-28 |
Family
ID=64849584
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810922587.XA Pending CN109101629A (zh) | 2018-08-14 | 2018-08-14 | 一种基于深度网络结构和节点属性的网络表示方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109101629A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109495328A (zh) * | 2018-12-30 | 2019-03-19 | 李保安 | 一种保障网络通信可靠性的方法 |
CN109726790A (zh) * | 2018-12-30 | 2019-05-07 | 李保安 | 一种判断分布式标签工作状态的方法 |
CN110377822A (zh) * | 2019-06-25 | 2019-10-25 | 腾讯科技(深圳)有限公司 | 用于网络表征学习的方法、装置及电子设备 |
CN110430077A (zh) * | 2019-08-02 | 2019-11-08 | 电子科技大学 | 基于网络结构特征的匿名路由器识别方法 |
CN112364295A (zh) * | 2020-11-13 | 2021-02-12 | 中国科学院数学与系统科学研究院 | 网络节点重要性的确定方法、装置、电子设备及介质 |
CN112801288A (zh) * | 2021-02-05 | 2021-05-14 | 厦门市美亚柏科信息股份有限公司 | 一种图网络的向量表示方法及装置 |
CN112989199A (zh) * | 2021-03-30 | 2021-06-18 | 武汉大学 | 一种基于多维邻近属性网络的合作网络链路预测方法 |
CN113205175A (zh) * | 2021-04-12 | 2021-08-03 | 武汉大学 | 一种基于互信息最大化的多层属性网络表征学习方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105512680A (zh) * | 2015-12-02 | 2016-04-20 | 北京航空航天大学 | 一种基于深度神经网络的多视sar图像目标识别方法 |
CN106960251A (zh) * | 2017-03-09 | 2017-07-18 | 浙江工业大学 | 一种基于节点相似性的无向网络连边权值预测方法 |
CN107622307A (zh) * | 2017-09-11 | 2018-01-23 | 浙江工业大学 | 一种基于深度学习的无向网络连边权重预测方法 |
-
2018
- 2018-08-14 CN CN201810922587.XA patent/CN109101629A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105512680A (zh) * | 2015-12-02 | 2016-04-20 | 北京航空航天大学 | 一种基于深度神经网络的多视sar图像目标识别方法 |
CN106960251A (zh) * | 2017-03-09 | 2017-07-18 | 浙江工业大学 | 一种基于节点相似性的无向网络连边权值预测方法 |
CN107622307A (zh) * | 2017-09-11 | 2018-01-23 | 浙江工业大学 | 一种基于深度学习的无向网络连边权重预测方法 |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109495328B (zh) * | 2018-12-30 | 2021-12-21 | 深圳市万通信息技术有限公司 | 一种保障网络通信可靠性的方法 |
CN109726790A (zh) * | 2018-12-30 | 2019-05-07 | 李保安 | 一种判断分布式标签工作状态的方法 |
CN109726790B (zh) * | 2018-12-30 | 2020-11-13 | 苏州创力波科技有限公司 | 一种判断分布式标签工作状态的方法 |
CN109495328A (zh) * | 2018-12-30 | 2019-03-19 | 李保安 | 一种保障网络通信可靠性的方法 |
CN110377822A (zh) * | 2019-06-25 | 2019-10-25 | 腾讯科技(深圳)有限公司 | 用于网络表征学习的方法、装置及电子设备 |
CN110377822B (zh) * | 2019-06-25 | 2024-04-16 | 腾讯科技(深圳)有限公司 | 用于网络表征学习的方法、装置及电子设备 |
CN110430077A (zh) * | 2019-08-02 | 2019-11-08 | 电子科技大学 | 基于网络结构特征的匿名路由器识别方法 |
CN110430077B (zh) * | 2019-08-02 | 2020-08-18 | 电子科技大学 | 基于网络结构特征的匿名路由器识别方法 |
CN112364295A (zh) * | 2020-11-13 | 2021-02-12 | 中国科学院数学与系统科学研究院 | 网络节点重要性的确定方法、装置、电子设备及介质 |
CN112364295B (zh) * | 2020-11-13 | 2024-04-19 | 中国科学院数学与系统科学研究院 | 网络节点重要性的确定方法、装置、电子设备及介质 |
CN112801288A (zh) * | 2021-02-05 | 2021-05-14 | 厦门市美亚柏科信息股份有限公司 | 一种图网络的向量表示方法及装置 |
CN112989199A (zh) * | 2021-03-30 | 2021-06-18 | 武汉大学 | 一种基于多维邻近属性网络的合作网络链路预测方法 |
CN113205175A (zh) * | 2021-04-12 | 2021-08-03 | 武汉大学 | 一种基于互信息最大化的多层属性网络表征学习方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109101629A (zh) | 一种基于深度网络结构和节点属性的网络表示方法 | |
CN111428147B (zh) | 结合社交和兴趣信息的异源图卷积网络的社交推荐方法 | |
CN109960759B (zh) | 基于深度神经网络的推荐系统点击率预测方法 | |
CN110555112B (zh) | 一种基于用户正负偏好学习的兴趣点推荐方法 | |
CN111222332B (zh) | 一种结合注意力网络和用户情感的商品推荐方法 | |
CN109544306B (zh) | 一种基于用户行为序列特征的跨领域推荐方法及装置 | |
CN110795619B (zh) | 一种融合多目标的教育资源个性化推荐系统及方法 | |
CN109299396A (zh) | 融合注意力模型的卷积神经网络协同过滤推荐方法及系统 | |
CN107562812A (zh) | 一种基于特定模态语义空间建模的跨模态相似性学习方法 | |
CN104598611B (zh) | 对搜索条目进行排序的方法及系统 | |
CN108920641A (zh) | 一种信息融合个性化推荐方法 | |
CN110083770B (zh) | 一种基于特征层面更深的自注意力网络的序列推荐方法 | |
CN111062775A (zh) | 一种基于注意力机制的推荐系统召回方法 | |
CN112561064B (zh) | 基于owkbc模型的知识库补全方法 | |
CN104346440A (zh) | 一种基于神经网络的跨媒体哈希索引方法 | |
CN111881262A (zh) | 基于多通道神经网络的文本情感分析方法 | |
CN109582782A (zh) | 一种基于用弱监督深度学习的文本聚类方法 | |
CN111753207B (zh) | 一种基于评论的神经图协同过滤方法 | |
CN111079409A (zh) | 一种利用上下文和方面记忆信息的情感分类方法 | |
CN106777402A (zh) | 一种基于稀疏神经网络的图像检索文本方法 | |
CN111143705A (zh) | 一种基于图卷积网络的推荐方法 | |
CN113486190A (zh) | 一种融合实体图像信息和实体类别信息的多模态知识表示方法 | |
CN114693397A (zh) | 一种基于注意力神经网络的多视角多模态商品推荐方法 | |
CN108875034A (zh) | 一种基于层次化长短期记忆网络的中文文本分类方法 | |
CN111723285A (zh) | 一种基于评分的深度谱卷积协同过滤推荐方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20181228 |
|
RJ01 | Rejection of invention patent application after publication |