CN110222839A - 一种网络表示学习的方法、装置及存储介质 - Google Patents

一种网络表示学习的方法、装置及存储介质 Download PDF

Info

Publication number
CN110222839A
CN110222839A CN201910390150.0A CN201910390150A CN110222839A CN 110222839 A CN110222839 A CN 110222839A CN 201910390150 A CN201910390150 A CN 201910390150A CN 110222839 A CN110222839 A CN 110222839A
Authority
CN
China
Prior art keywords
network
node
transfer matrix
attribute
matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910390150.0A
Other languages
English (en)
Inventor
蔡晓东
刘玉柱
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guilin University of Electronic Technology
Original Assignee
Guilin University of Electronic Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guilin University of Electronic Technology filed Critical Guilin University of Electronic Technology
Priority to CN201910390150.0A priority Critical patent/CN110222839A/zh
Publication of CN110222839A publication Critical patent/CN110222839A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种网络表示学习的方法、装置及存储介质,该方法包括:获取网络中各个节点的结构信息,基于所述结构信息建立结构转移矩阵;获取所述网络中各个节点的属性信息,基于所述属性信息建立属性转移矩阵;将所述结构转移矩阵以及所述属性转移矩阵进行融合,得到偏向转移矩阵;对所述偏向转移矩阵中的每个节点进行采样,获得多个游走序列;建立神经网络模型,将所述游走序列输入至所述神经网络模型中进行网络表示学习,获得所述游走序列对应的节点的表示向量。本发明可以无缝结合不同源的信息及降低计算的复杂度,提高网络表示的质量,以增强表示向量在网络分析任务上的效果。

Description

一种网络表示学习的方法、装置及存储介质
技术领域
本发明涉及网络分析技术领域,尤其涉及一种网络表示学习的方法、装置及存储介质。
背景技术
网络结构是一种广泛的数据表示方式,并且在实际应用中信息网络变得无处不在,例如社交网络、引用网络、生物网络等。在大数据时代,网络已经成为有效地存储和交互实体关系知识的重要媒介,挖掘网络数据里的知识引起了学术界和商业领域的连续关注。
目前,网络表示学习的研究已经从传统基于矩阵特征向量计算向基于随机游走的深度学习算法及结合外部信息的网络表示学习进行发展。但是在数据爆炸时代,大型的网络结构中有上亿个节点,由于计算复杂度的问题,基于矩阵分解的方法不能够应用在现实中,同时基于深度学习的方法也不能够合理和有效的结合不同源的数据。因此,如何提高网络表示的质量和增强表示向量在网络分析任务上的效果,是网络表示学习领域的重要挑战。
发明内容
本发明所要解决的技术问题是针对现有技术的不足,提供一种网络表示学习的方法、装置及存储介质,以提高网络表示的质量和增强表示向量在网络分析任务上的效果。
为解决上述技术问题,本发明提供一种网络表示学习的方法,包括以下步骤:
获取网络中各个节点的结构信息,基于所述结构信息建立结构转移矩阵;
获取所述网络中各个节点的属性信息,基于所述属性信息建立属性转移矩阵;
将所述结构转移矩阵以及所述属性转移矩阵进行融合,得到偏向转移矩阵;
对所述偏向转移矩阵中的每个节点进行采样,获得多个游走序列;
建立神经网络模型,将所述游走序列输入至所述神经网络模型中进行网络表示学习,获得所述游走序列对应的节点的表示向量。
本发明的有益效果是:能够将网络中的节点的结构信息与属性信息相结合,使得在节点表示时保持节点的结构信息以及属性信息,并且通过神经网络模型进行网络表示学习,可以无缝结合不同源的信息及降低计算的复杂度,提高网络表示的质量,以增强表示向量在网络分析任务上的效果。
在上述技术方案的基础上,本发明还可以做如下改进。
进一步地,所述获取网络中各个节点的结构信息,基于所述结构信息建立结构转移矩阵,具体包括:
获取网络中各个节点的结构信息,基于所述结构信息建立网络邻接矩阵;
基于离散型概率分布将所述网络邻接矩阵转换成所述结构转移矩阵。
进一步地,所述获取所述网络中各个节点的属性信息,基于所述属性信息建立属性转移矩阵,具体包括:
获取所述网络中各个节点的属性信息,基于所述属性信息建立属性信息矩阵;
计算所述属性信息矩阵中每对节点的属性信息的相似度;
基于所述相似度建立属性相似矩阵,并基于离散型概率分布将所述属性相似矩阵转换成所述属性转移矩阵。
采用上述进一步方案的有益效果是:由于网络中节点包含各种不同的属性信息,这种信息数据类型不能直接作为网络表示学习的数据输入,因此通过将网络中所有节点的属性信息组成所述属性信息矩阵,可以将网络中每个节点包含的各种不同的属性信息作为网络表示学习的输入。
进一步地,所述将所述结构转移矩阵以及所述属性转移矩阵进行融合的融合公式为:
其中,为所述属性转移矩阵中第i个节点的属性离散分布概率,为所述结构转移矩阵中第i个节点的结构离散分布概率,Ti为所述偏向转移矩阵中第i个节点的离散分布概率;;α与1-α分别为所述属性转移矩阵和所述结构转移矩阵在所述偏向转移矩阵中的比重。
采用上述进一步方案的有益效果是:通过所述公式将所述结构转移矩阵以及所述属性转移矩阵进行融合,可以平衡节点的结构信息以及属性信息。
进一步地,所述对所述偏向转移矩阵中的每个节点进行采样,获得多个游走序列,具体包括:
通过Alias Sample算法对所述偏向转移矩阵中的每个节点进行采样,获得多个游走序列。
采用上述进一步方案的有益效果是:通过Alias Sample算法进行随机游走的节点采样,可以充分考虑到网络结构中各种节点的存在形式。
进一步地,所述神经网络模型包括编码器以及解码器,所述建立神经网络模型,将所述游走序列输入至所述神经网络模型中进行网络表示学习,获得所述游走序列对应的节点的表示向量,具体包括:
通过所述编码器对所述游走序列中的属性信息进行编码计算,获得上下文向量;
通过所述解码器对所述上下文向量进行解码计算,获得所述游走序列对应的节点的邻域节点的属性信息以及身份信息;
若所述邻域节点的属性信息以及身份信息与所述游走序列对应的节点的原始属性信息以及原始身份信息匹配,则将所述上下文向量作为所述表示向量进行输出。
采用上述进一步方案的有益效果是:所述游走序列在经过编码器编码以及解码器解码后,将编码器最终输出的上下文向量作为所述表示向量,可以无缝结合不同源的信息及降低计算的复杂度,提高网络表示的质量,以增强表示向量在网络分析任务上的效果。
为解决上述技术问题,本发明实施例还提出一种网络表示学习的装置,包括:
结构转移矩阵构建模块,用于获取网络中各个节点的结构信息,并基于所述结构信息建立结构转移矩阵;
属性转移矩阵构建模块,用于获取所述网络中各个节点的属性信息,基于所述属性信息建立属性转移矩阵;
融合模块,用于将所述结构转移矩阵以及所述属性转移矩阵进行融合,得到偏向转移矩阵;
采样模块,用于对所述偏向转移矩阵中的每个节点进行采样,获得多个游走序列;
网络表示学习模块,用于建立神经网络模型,将所述游走序列输入至所述神经网络模型中进行网络表示学习,获得所述游走序列对应的节点的表示向量。
进一步地,所述结构转移矩阵构建模块包括网络邻接矩阵单元以及结构转移矩阵单元,
所述网络邻接矩阵单元用于获取网络中各个节点的结构信息,基于所述结构信息建立网络邻接矩阵;
所述结构转移矩阵单元用于基于离散型概率分布将所述网络邻接矩阵转换成所述结构转移矩阵。
为解决上述技术问题,本发明实施例还提出一种计算机可读存储介质,包括指令,当所述指令在计算机上运行时,使所述计算机执行根据上述实施例任一项所述的网络表示学习的方法。
为解决上述技术问题,本发明实施例还提出一种网络表示学习的装置,包括存储器、处理器及存储在所述存储器上的并可在所述处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述实施例任一项所述的网络表示学习的方法。
附图说明
图1为本发明实施例提供的一种网络表示学习的方法的流程示意图;
图2为本发明实施例提供的神经网络模型进行数据处理的示意图;
图3为本发明实施例提供的网络表示学习执行示意图;
图4为本发明实施例提供的一种网络表示学习的装置的结构示意图。
具体实施方式
以下结合附图对本发明的原理和特征进行描述,所举实例只用于解释本发明,并非用于限定本发明的范围。
图1给出了本发明实施例提供的一种网络表示学习的方法的流程示意图,如图1所示,本实施例中,一种网络表示学习的方法,包括以下步骤:
获取网络中各个节点的结构信息,基于所述结构信息建立结构转移矩阵;
获取所述网络中各个节点的属性信息,基于所述属性信息建立属性转移矩阵;
将所述结构转移矩阵以及所述属性转移矩阵进行融合,得到偏向转移矩阵;
对所述偏向转移矩阵中的每个节点进行采样,获得多个游走序列;
建立神经网络模型,将所述游走序列输入至所述神经网络模型中进行网络表示学习,获得所述游走序列对应的节点的表示向量。
网络中每个节点包含各种不同的属性信息,但由于信息数据类型不能够直接作为网络表示学习的输入,因此基于所述属性信息建立属性转移矩阵,把属性信息学习成数值形式的特征向量。
而且,在现实生活中网络数据的结构信息和属性信息可能不完整,分开使用结构信息和属性信息进行学习,会造成网络节点表示不能够真实表示节点的信息,将所述结构转移矩阵以及所述属性转移矩阵进行融合,得到所述偏向转移矩阵,然后通过在所述偏向转移矩阵进行采样,可以得到结构信息和属性信息结合的游走序列。
值得说明的是,将所述游走序列输入至所述神经网络模型中进行网络表示学习,将网络表示学习的过程转换成机器翻译过程,把包含节点的结构信息和属性信息的游走序列作为输入,所述神经网络模型输出所述表示向量。把网络节点中的不同源的信息保留在学习到的表示向量中,避免造成不同源信息直接结合造成的信息不匹配和信息冗余情况,可以将节点的一阶近似和近似节点的属性信息保留在学习的表示向量中,这样全面地概述了该节点的全部内容。
具体地,所述获取网络中各个节点的结构信息,基于所述结构信息建立结构转移矩阵,具体包括:
获取网络中各个节点的结构信息,基于所述结构信息建立网络邻接矩阵;
基于离散型概率分布将所述网络邻接矩阵转换成所述结构转移矩阵。
值得说明的是,概率分布是指一个表示概率怎样在随机变量可能值间分布的描述,离散型概率函数的要求条件是f(x)≥0,∑f(x)=1。
具体地,所述获取所述网络中各个节点的属性信息,基于所述属性信息建立属性转移矩阵,具体包括:
获取所述网络中各个节点的属性信息,基于所述属性信息建立属性信息矩阵;
计算所述属性信息矩阵中每对节点的属性信息的相似度;
基于所述相似度建立属性相似矩阵,并基于离散型概率分布将所述属性相似矩阵转换成所述属性转移矩阵。
值得说明的是,网络中每个节点包含各种不同的属性信息,但由于信息数据类型不能够直接作为网络表示学习的输入,因此需要采用嵌入层进行特征学习,生成所需的属性特征向量,将网络中所有节点的属性信息组成所述属性信息矩阵。
另外,计算所述属性信息矩阵中每对节点的属性信息的相似度,是指计算所述属性信息矩阵中存在的元素两两之间的相似度。例如所述属性信息矩阵中包括元素A、B、C、D,即计算AB、AC、AD、BC、BD、CD之间的相似度。
具体地,所述将所述结构转移矩阵以及所述属性转移矩阵进行融合的融合公式为:
其中,为所述属性转移矩阵中第i个节点的属性离散分布概率,为所述结构转移矩阵中第i个节点的结构离散分布概率,Ti为所述偏向转移矩阵中第i个节点的离散分布概率;α与1-α分别为所述属性转移矩阵和所述结构转移矩阵在所述偏向转移矩阵中的比重。
值得说明的是,通过所述公式进行将所述结构转移矩阵以及所述属性转移矩阵进行融合,可以平衡节点的结构信息以及属性信息,从而提高网络表示的准确度。
具体地,所述对所述偏向转移矩阵中的每个节点进行采样,获得多个游走序列,具体包括:
通过Alias Sample算法对所述偏向转移矩阵中的每个节点进行采样,获得多个游走序列。
值得说明的是,Alias Sample算法,即别名抽样法,是一种抽样方法,它是专门为解决离散型分布抽样问题而提出来的一种方法。根据偏向转移矩阵,使用Alias Sample算法进行采样可以考虑到节点信息,采样结果好于基于随机游走进行采样,可以保留网络的整体结构信息,包括一阶近似、二阶近似和高阶近似。
具体地,所述神经网络模型包括编码器以及解码器,所述建立神经网络模型,将所述游走序列输入至所述神经网络模型中进行网络表示学习,获得所述游走序列对应的节点的表示向量,具体包括:
通过所述编码器对所述游走序列中的属性信息进行编码计算,获得上下文向量;
通过所述解码器对所述上下文向量进行解码计算,获得所述游走序列对应的节点的邻域节点的属性信息以及身份信息;
若所述邻域节点的属性信息以及身份信息与所述游走序列对应的节点的原始属性信息以及原始身份信息匹配,则将所述上下文向量作为所述表示向量进行输出。
值得说明的是,如图2至图3所示,所述游走序列作为所述编码器的输入,所述编码器进行特征提取以及特征拼接,首先,通过特征提取函数将序列中的每个节点的属性都映射到低维空间,得到对应的特征,该函数用H(:,:)来表示,然后通过特征拼接将各个节点映射得到的特征进行拼接,用函数Q(…)来表示。继而所述编码器将由编码器得到的所述上下文向量仍然利用LSTM函数对其进行解码,生成一组解码序列D={d1,d2,…,dT},然后将得到的解码序列通过由神经网络组成的转移层将其分别变换成邻域节点的属性信息以及身份信息。然后对所述邻域节点的属性信息以及身份信息进行校验,以判断编码器输出的所述上下文向量是否正确。
所述编码器执行特征提取的具体过程包括:使用循环神经网络模型,例如RNN、LSTM、Bi-LSTM、GRU等循环神经网络模型对节点属性信息进行建模。本发明优选为采用了Bi-LSTM循环神经网络模型,其能结合前一个细胞的输出来训练后一个细胞,也有结合后一个细胞的输出来训练前一个细胞,这样就使得第t个点会得到两个特征,即:
其中,代表的是第t时刻的LSTM的输出。
另外,LSTM的结构形式包含以下五个函数:
其中,ft为遗忘门限,it为输入门限,ct为长期状态,ot为输出门限,ht为短期状态,σ代表为sigmoid函数,Wvf、Wvi、Wvc和Wvo分别为需要学习的权重,bf、bi、bC和bo分别为需要学习的偏置项,ht-1为前一个记忆单元隐藏状态的输出,为第t时刻网络结构中节点的属性信息向量。
所述编码器执行特征拼接的具体过程包括:假设总共有T个节点,那么经过Bi-LSTM模型之后,就可以获得其中前面传播得到的最后一个特征有能力包含整个序列的特征信息,同样的,反向传播得到的最后一个特征也将有能力包含整个序列的特征信息。使用拼接函数只取前向特征序列的最后一项,以及反向特征序列的最后一项进行拼接,得到最后的特征所述最后的特征即所述上下文向量。
所述解码器执行的具体过程包括:首先将得到的所述上下文向量仍然利用LSTM函数对其进行解码,生成一组解码序列D={d1,d2,…,dT},然后将得到的解码序列通过由神经网络组成的转移层将其分别变换成所述游走序列对应的节点的邻域节点的属性信息以及身份信息。
另外,值得说明的是,所述编码器对所述游走序列进行编码产生的所述上下文向量,即是所述网络节点的表示向量。通过所述解码器对所述上下文向量进行解码,是要判断所述上下文向量是否能够准确表示对应的网络节点。因此,所述游走序列在经过编码器-解码器后,将编码器最终输出的上下文向量作为所述表示向量,即所述表示向量为所述游走序列对应的节点的表示。如果解码器对所述上下文向量解码后,得到的所述邻域节点的属性信息以及身份信息与对应节点的邻域节点的原始属性信息以及原始身份信息,则意味则所述上下文向量无法对该节点进行正确的表示,因此需要重新对所述游走序列进行编码,以获得一个正确的表示向量。
如图4所示,本发明实施例还提出一种网络表示学习的装置,包括:
结构转移矩阵构建模块,用于获取网络中各个节点的结构信息,并基于所述结构信息建立结构转移矩阵;
属性转移矩阵构建模块,用于获取所述网络中各个节点的属性信息,基于所述属性信息建立属性转移矩阵;
融合模块,用于将所述结构转移矩阵以及所述属性转移矩阵进行融合,得到偏向转移矩阵;
采样模块,用于对所述偏向转移矩阵中的每个节点进行采样,获得多个游走序列;
网络表示学习模块,用于建立神经网络模型,将所述游走序列输入至所述神经网络模型中进行网络表示学习,获得所述游走序列对应的节点的表示向量。
具体地,所述结构转移矩阵构建模块包括网络邻接矩阵单元以及结构转移矩阵单元,
所述网络邻接矩阵单元用于获取网络中各个节点的结构信息,基于所述结构信息建立网络邻接矩阵;
所述结构转移矩阵单元用于基于离散型概率分布将所述网络邻接矩阵转换成所述结构转移矩阵。
同时,本发明实施例还提出一种计算机可读存储介质,包括指令,当所述指令在计算机上运行时,使所述计算机执行根据上述实施例任一项所述的网络表示学习的方法。
同时,本发明实施例还提出一种网络表示学习的装置,包括存储器、处理器及存储在所述存储器上的并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如上述实施例任一项所述的网络表示学习的方法。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本发明实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种网络表示学习的方法,其特征在于,包括以下步骤:
获取网络中各个节点的结构信息,基于所述结构信息建立结构转移矩阵;
获取所述网络中各个节点的属性信息,基于所述属性信息建立属性转移矩阵;
将所述结构转移矩阵以及所述属性转移矩阵进行融合,得到偏向转移矩阵;
对所述偏向转移矩阵中的每个节点进行采样,获得多个游走序列;
建立神经网络模型,将所述游走序列输入至所述神经网络模型中进行网络表示学习,获得所述游走序列对应的节点的表示向量。
2.根据权利要求1所述的网络表示学习的方法,其特征在于,所述获取网络中各个节点的结构信息,基于所述结构信息建立结构转移矩阵,具体包括:
获取网络中各个节点的结构信息,基于所述结构信息建立网络邻接矩阵;
基于离散型概率分布将所述网络邻接矩阵转换成所述结构转移矩阵。
3.根据权利要求1所述的网络表示学习的方法,其特征在于,所述获取所述网络中各个节点的属性信息,基于所述属性信息建立属性转移矩阵,具体包括:
获取所述网络中各个节点的属性信息,基于所述属性信息建立属性信息矩阵;
计算所述属性信息矩阵中每对节点的属性信息的相似度;
基于所述相似度建立属性相似矩阵,并基于离散型概率分布将所述属性相似矩阵转换成所述属性转移矩阵。
4.根据权利要求1至3任一项所述的网络表示学习的方法,其特征在于,所述将所述结构转移矩阵以及所述属性转移矩阵进行融合的融合公式为:
其中,为所述属性转移矩阵中第i个节点的属性离散分布概率,为所述结构转移矩阵中第i个节点的结构离散分布概率,Ti为所述偏向转移矩阵中第i个节点的离散分布概率;α与1-α分别为所述属性转移矩阵和所述结构转移矩阵在所述偏向转移矩阵中的比重。
5.根据权利要求1至3任一项所述的网络表示学习的方法,其特征在于,所述对所述偏向转移矩阵中的每个节点进行采样,获得多个游走序列,具体包括:
通过Alias Sample算法对所述偏向转移矩阵中的每个节点进行采样,获得多个游走序列。
6.根据权利要求1所述的网络表示学习的方法,其特征在于,所述神经网络模型包括编码器以及解码器,所述建立神经网络模型,将所述游走序列输入至所述神经网络模型中进行网络表示学习,获得所述游走序列对应的节点的表示向量,具体包括:
通过所述编码器对所述游走序列中的属性信息进行编码计算,获得上下文向量;
通过所述解码器对所述上下文向量进行解码计算,获得所述游走序列对应的节点的邻域节点的属性信息以及身份信息;
若所述邻域节点的属性信息以及身份信息与所述游走序列对应的节点的原始属性信息以及原始身份信息匹配,则将所述上下文向量作为所述表示向量进行输出。
7.一种网络表示学习的装置,其特征在于,包括:
结构转移矩阵构建模块,用于获取网络中各个节点的结构信息,并基于所述结构信息建立结构转移矩阵;
属性转移矩阵构建模块,用于获取所述网络中各个节点的属性信息,基于所述属性信息建立属性转移矩阵;
融合模块,用于将所述结构转移矩阵以及所述属性转移矩阵进行融合,得到偏向转移矩阵;
采样模块,用于对所述偏向转移矩阵中的每个节点进行采样,获得多个游走序列;
网络表示学习模块,用于建立神经网络模型,将所述游走序列输入至所述神经网络模型中进行网络表示学习,获得所述游走序列对应的节点的表示向量。
8.根据权利要求7所述的网络表示学习的装置,其特征在于,所述结构转移矩阵构建模块包括网络邻接矩阵单元以及结构转移矩阵单元,
所述网络邻接矩阵单元用于获取网络中各个节点的结构信息,基于所述结构信息建立网络邻接矩阵;
所述结构转移矩阵单元用于基于离散型概率分布将所述网络邻接矩阵转换成所述结构转移矩阵。
9.一种计算机可读存储介质,包括指令,其特征在于,当所述指令在计算机上运行时,使所述计算机执行根据权利要求1至6任一项所述的网络表示学习的方法。
10.一种网络表示学习的装置,包括存储器、处理器及存储在所述存储器上的并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至6任一项所述的网络表示学习的方法。
CN201910390150.0A 2019-05-10 2019-05-10 一种网络表示学习的方法、装置及存储介质 Pending CN110222839A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910390150.0A CN110222839A (zh) 2019-05-10 2019-05-10 一种网络表示学习的方法、装置及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910390150.0A CN110222839A (zh) 2019-05-10 2019-05-10 一种网络表示学习的方法、装置及存储介质

Publications (1)

Publication Number Publication Date
CN110222839A true CN110222839A (zh) 2019-09-10

Family

ID=67820860

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910390150.0A Pending CN110222839A (zh) 2019-05-10 2019-05-10 一种网络表示学习的方法、装置及存储介质

Country Status (1)

Country Link
CN (1) CN110222839A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111353002A (zh) * 2020-02-03 2020-06-30 中国人民解放军国防科技大学 网络表示学习模型的训练方法、装置、电子设备及介质
CN111814288A (zh) * 2020-07-28 2020-10-23 交通运输部水运科学研究所 一种基于信息传播图神经网络方法
CN113935024A (zh) * 2021-10-09 2022-01-14 天津科技大学 一种带有不确定性观测的离散事件系统信息安全判定方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111353002A (zh) * 2020-02-03 2020-06-30 中国人民解放军国防科技大学 网络表示学习模型的训练方法、装置、电子设备及介质
CN111353002B (zh) * 2020-02-03 2024-05-03 中国人民解放军国防科技大学 网络表示学习模型的训练方法、装置、电子设备及介质
CN111814288A (zh) * 2020-07-28 2020-10-23 交通运输部水运科学研究所 一种基于信息传播图神经网络方法
CN111814288B (zh) * 2020-07-28 2023-08-08 交通运输部水运科学研究所 一种基于信息传播图神经网络方法
CN113935024A (zh) * 2021-10-09 2022-01-14 天津科技大学 一种带有不确定性观测的离散事件系统信息安全判定方法
CN113935024B (zh) * 2021-10-09 2024-04-26 天津科技大学 一种带有不确定性观测的离散事件系统信息安全判定方法

Similar Documents

Publication Publication Date Title
CN108319686B (zh) 基于受限文本空间的对抗性跨媒体检索方法
Gheisari et al. Deep learning: Applications, architectures, models, tools, and frameworks: A comprehensive survey
CN108549658B (zh) 一种基于语法分析树上注意力机制的深度学习视频问答方法及系统
CN109960810B (zh) 一种实体对齐方法及装置
CN108363695B (zh) 一种基于双向依赖语法树表征的用户评论属性抽取方法
CN110659723B (zh) 基于人工智能的数据处理方法、装置、介质及电子设备
CN108984530A (zh) 一种网络敏感内容的检测方法及检测系统
CN109214006B (zh) 图像增强的层次化语义表示的自然语言推理方法
JP2020523699A (ja) 関心点コピーの生成
CN111581966A (zh) 一种融合上下文特征方面级情感分类方法和装置
CN111079985A (zh) 一种基于bert并融合可区分属性特征的刑事案件刑期预测方法
CN110210027B (zh) 基于集成学习的细粒度情感分析方法、装置、设备及介质
CN110222839A (zh) 一种网络表示学习的方法、装置及存储介质
CN111881671B (zh) 一种属性词提取方法
CN111400494B (zh) 一种基于GCN-Attention的情感分析方法
CN112651940B (zh) 基于双编码器生成式对抗网络的协同视觉显著性检测方法
CN112417289A (zh) 一种基于深度聚类的资讯信息智能推荐方法
Zhou et al. ICRC-HIT: A deep learning based comment sequence labeling system for answer selection challenge
CN114330966A (zh) 一种风险预测方法、装置、设备以及可读存储介质
CN113987167A (zh) 基于依赖感知图卷积网络的方面级情感分类方法及系统
CN116579347A (zh) 一种基于动态语义特征融合的评论文本情感分析方法、系统、设备及介质
CN115391570A (zh) 一种基于方面的情感知识图谱构建方法及装置
CN113380360B (zh) 一种基于多模态病历图的相似病历检索方法及系统
CN114037056A (zh) 一种生成神经网络的方法、装置、计算机设备和存储介质
Fan et al. Domain adaptation based on domain-invariant and class-distinguishable feature learning using multiple adversarial networks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20190910