CN111737535A - 一种基于元结构和图神经网络的网络表征学习方法 - Google Patents

一种基于元结构和图神经网络的网络表征学习方法 Download PDF

Info

Publication number
CN111737535A
CN111737535A CN202010573056.1A CN202010573056A CN111737535A CN 111737535 A CN111737535 A CN 111737535A CN 202010573056 A CN202010573056 A CN 202010573056A CN 111737535 A CN111737535 A CN 111737535A
Authority
CN
China
Prior art keywords
meta
network
node
matrix
graph neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010573056.1A
Other languages
English (en)
Other versions
CN111737535B (zh
Inventor
熊贇
徐攸
朱扬勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fudan University
Original Assignee
Fudan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fudan University filed Critical Fudan University
Priority to CN202010573056.1A priority Critical patent/CN111737535B/zh
Publication of CN111737535A publication Critical patent/CN111737535A/zh
Application granted granted Critical
Publication of CN111737535B publication Critical patent/CN111737535B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/901Indexing; Data structures therefor; Storage structures
    • G06F16/9024Graphs; Linked lists
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/907Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Algebra (AREA)
  • Library & Information Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明提供一种基于元结构和图神经网络的网络表征学习方法。本发明通过图神经网络和带权注意力机制来聚合邻居节点的信息,采用层次搜索算法生成候选的元结构集合,不需要预先定义元结构,并且相比于以往的元路径,可以考虑到节点之间更复杂的结构信息。本发明融合了图神经网络强的学习能力和元结构的丰富语义,有效解决了以往基于元路径的方法考虑结构单一以及需要依赖经验指定元结构的问题。并且,引入带权的注意力机制可以显式地考虑到元结构中的数量信息。进而生成比传统表征分类方式的结果更精确的最终节点,该最终节点可作为向量表征可用于后续的其他机器学习人物中。

Description

一种基于元结构和图神经网络的网络表征学习方法
技术领域
本发明属于大数据技术领域,具体涉及一种基于元结构和图神经网络的网络表征学习方法。
背景技术
网络广泛存在于现实世界中,许多现实场景下都可以通过网络或图来建模表示物体以及物体之间联系。许多的研究工作关注于网络或图中节点的表征学习,其将本身复杂且不规则的图中包含的节点表示为长度相等且维度较低的向量,将向量应用到后续的机器学习任务可以表现出较好的效果,例如节点分类、节点聚类、异常检测和链接预测等。一类被广泛关注的网络被称为异质信息网络(Heterogeneous Information Network,HIN),例如常见的引用网络,网络由作者节点 (A)、期刊节点(C)、论文节点(P)等多种类型节点构成,由于其节点和边的类型复杂,异质信息网络中的网络表示学习(Network Embedding)是一项困难的任务。近年来,图神经网络(Graph Neural Network,GNN)和注意力机制(Attention Mechanism)被较多研究应用到网络表征学习中,其通过对邻居节点中的信息进行聚合,得到的节点表示可以在诸如节点分类以及聚类相关的机器学习任务中表现出色。
然而,当前大多数图神经网络和注意力机制都依赖于预定义的元路径(Meta-path),而预定义需要借助背景知识或对数据集的了解来预先定义元路径增加了机制的操作难度,同时元路径表示的还具有过度单一的缺点。
发明内容
为解决上述问题,提供一种基于元结构和图神经网络的网络表征学习方法,本发明采用了如下技术方案:
数据准备,通过网络获取若干个相关信息,并将所述若干个相关信息处理形成一个带有节点属性的异质信息网络;网络表征学习,将所述异质信息网络输入到经过表征学习训练后得到的所述网络表征学习模型;向量表征获取,将所述网络表征学习模型输出的最终节点作为所述异质信息网络的所述向量表征,其中,对所述网络表征学习模型进行的所述表征学习训练的具体步骤为:训练数据集准备步骤,给定多个带有节点属性的所述异质信息网络作为训练数据集,从所述训练数据集中提取一个所述异质信息网络输入到所述网络表征学习模型;层次搜索步骤,根据输入的所述异质信息网络的网络模式和目标节点类型以及预令的最大搜索深度来生成候选的元结构集合,根据层次搜索算法将所述元结构集合中的元结构进行对称补齐;计算矩阵步骤,将所述元结构分为单条路径元结构和多条路径元结构,分别通过单路径算法和多路径算法获得所述单条路径元结构和所述多条路径元结构各自对应的邻接矩阵,对所述邻接矩阵进行平衡链接重要性后获取矩阵元素;邻居信息聚合步骤,基于所述元结构计算得到注意力系数,使用多头注意力机制算法,基于所述矩阵元素和所述注意力系数计算所有所述元结构的输出特征,对所有所述元结构使用转换矩阵进行转换,并将所有所述转换矩阵的结果加和作为最终节点;计算交叉熵损失和梯度回传,通过交叉熵计算公式获得基于所述最终节点的交叉熵损失,通过梯度反向传播算法进行多轮的参数迭代直到所述交叉熵损失收敛,完成对所述网络表征学习模型的所述表征学习训练。
本发明提供的一种基于元结构和图神经网络的网络表征学习方法,还可以具有这样的技术特征,其中,所述层次搜索算法为:将所述元结构集合分为元结构侯选集合和元结构搜索集合,将所述元结构候选集合设为空,将单独由所述目标节点类型构的图命名为目标节点图;由所述目标节点类型开始,设置搜索层数为i设置为1,在所述元结构搜索集合中将所有所述目标节点图移除,搜索与所述目标节点类型距离为i的相关集合,将所述相关集合中的所有非空子集与所述目标节点图中的节点合并,合并结果为N子图,将所述N子图分别添加到所述元结构侯选集合和所述元结构搜索集合,然后将所述搜索层数i设置为i+1,重复此过程直至i=所述最大搜索深度;根据对称性将候选元结构集合中的元结构进行补齐。
本发明提供的一种基于元结构和图神经网络的网络表征学习方法,还可以具有这样的技术特征,其中,所述单路径算法为:
Figure BDA0002550096450000031
所述多路径算法为:
Figure BDA0002550096450000032
Figure BDA0002550096450000033
所述平衡链接重要性的计算过程为:
Figure BDA0002550096450000034
式中MP为所述单条路径元结构的所述邻接矩阵,
Figure BDA0002550096450000035
为所述多条路径元结构的邻接矩阵,ATiTj为节点类型和Ti节点类型Tj间的邻接矩阵,
Figure BDA0002550096450000041
为所述矩阵元素。
本发明提供的一种基于元结构和图神经网络的网络表征学习方法,还可以具有这样的技术特征,其中,所述注意力系数获取方式为:
Figure BDA0002550096450000042
式中
Figure BDA0002550096450000043
为元结构
Figure BDA0002550096450000044
的所述注意力系数,节点特征矩阵
Figure BDA0002550096450000045
其中Ns是节点数,其代表了邻居节点j的对于节点i的重要性,公式中
Figure BDA0002550096450000046
为对于元结构
Figure BDA0002550096450000047
的输入参数矩阵,aS∈R2F′为元结构
Figure BDA0002550096450000048
注意力参数向量,hi表示特征矩阵H的第i行,|是向量的拼接符号,LeakyReLU为斜率设置为0.2的激活函数。
发明提供的一种基于元结构和图神经网络的网络表征学习方法,还可以具有这样的技术特征,其中,所述输出特征获取过程为:
Figure BDA0002550096450000049
式中
Figure BDA00025500964500000410
为结构中的数量信息,i 计算节点,
Figure BDA00025500964500000411
为维度是KF的所述输出特征,h′j∈RF′是节点j的隐藏特征,其等于
Figure BDA00025500964500000412
所述最终节点获取方式为:
Figure BDA00025500964500000413
Figure BDA00025500964500000414
式中
Figure BDA00025500964500000415
为转换矩阵,
Figure BDA00025500964500000416
为维度是KF的所述最终节点。
发明提供的一种基于元结构和图神经网络的网络表征学习方法,还可以具有这样的技术特征,其中,所述交叉熵计算公式为:
Figure BDA00025500964500000417
式中
Figure BDA00025500964500000418
为所述交叉熵损失,
Figure BDA00025500964500000419
代表有标签数据的节点下标集合,Yi∈ZC是代表节点i标签的one-hot向量,节点属于C个类别,Wc∈RC×KF′是用于最终分类的输出参数矩阵。
发明作用与效果
根据本发明的一种基于元结构和图神经网络的网络表征学习方法,由于该方法提出层次搜索算法来生成元结构,与元路径相比较,元结构可以捕捉更加复杂的节点关系。故本发明可不需要使用领域相关的知识来预先定义元路径,方法自动搜索生成元结构,此外,通过引入注意力机制能够对元结构中的数量信息进行显式地利用。该方法融合了图神经网络的学习能力和元结构丰富的语义,因此模型可以获得更优的效果。本方法最终得到有效的最终节点作为向量表征,此向量表征可以用于后续的机器学习任务。
附图说明
图1是本发明实施例中基于元结构和图神经网络的网络表征学习方法的工作流程图;以及
图2是本发明实施例中基于元结构和图神经网络的网络表征学习方法的图示。
具体实施方式
为了使本发明实现的技术手段、创作特征、达成目的与功效易于明白了解,以下结合实施例及附图对本发明的一种基于元结构和图神经网络的网络表征学习方法作具体阐述。
本发明提供的网络表征学习方法是基于元结构和图神经网络的,具体是通过提出层次搜索算法来生成元结构,元结构可以弥补元路径对于异质信息网络关系捕捉的不足;对于不同的元结构,通过不同的图神经网络独立的参数进行学习,并且使得最终图神经网络可以自动学习到对于每一个节点来说重要的元结构;此后,对于不同元结构得到的节点表征通过不同的转换矩阵进行相乘来得到最终节点表示向量表征;在图神经网络中,为了考虑到异质信息网络中的数量信息,采用了带权的注意力机制对邻居节点的信息进行聚合。该具体步骤为:
(1)训练数据集准备步骤具体为:给定一个带有节点属性的异质信息网络(或称为异质图)
Figure BDA0002550096450000061
其中
Figure BDA0002550096450000069
代表所有节点的集合,ε代表所有边的集合,
Figure BDA0002550096450000062
为节点所对应的属性。根据
Figure BDA00025500964500000610
可以得到异质网络模式
Figure BDA0002550096450000063
Figure BDA0002550096450000064
代表所有类型节点的集合,
Figure BDA0002550096450000065
代表所有类型节点之间的边集合。根据目标节点类型s(例如作者节点A),从
Figure BDA0002550096450000066
中得到的节点初始特征
Figure BDA0002550096450000067
和节点的标签
Figure BDA0002550096450000068
Ns为类型s的节点数目,F为特征的维度,C为节点的类别数量。
(2)层次搜索步骤中采用的层次搜索算法为:根据异质网络模式TG,目标节点类型s,和最大搜索深度d来生成候选的元结构集合 metagraphs,具体流程为:
(2.1)将元结构候选集合设为空,metagraphs=[],图Gs为单独由节点s构成的图,搜索过程中的临时元结构集合 tmp_metagraphs=[Gs]。
(2.2)由目标节点类型s开始,层数分别为i=1开始,遍历tmp_metagraphs中当前的所有元素,对于Gs∈tmp_metagraphs,将 Gs从tmp_metagraphs中移除,搜索与s距离为i的所有节点集合 Ni=layeri(TG,s),对于该节点集合的所有非空子集S∈allsubset(Ni),与Gs中的节点合并得到Nall=nodesof(Gs)∪S,获得由Nall构成的子图subgraph(TG,Nall),将该子图分别添加到临时元结构集合 tmp_metagraphs和元结构候选集合metagraphs,重复上述过程直至层数i=d。
(2.3)根据对称性将候选元结构集合中的元结构进行补齐,如将元结构
Figure BDA0002550096450000077
补齐为
Figure BDA0002550096450000078
(3)计算矩阵步骤中矩阵元素的具体获取方法为:对于单条路径的元结构
Figure BDA0002550096450000071
例如图1中的M1,邻接矩阵
Figure BDA0002550096450000072
是节点类型Ti和节点类型Tj之间的邻接矩阵,n是类型为Ti的节点数目,m是类型为Tj的节点数目,矩阵中的元素为1或0 表示节点之间是否存在链接。对于元结构
Figure BDA0002550096450000073
的邻接矩阵
Figure BDA0002550096450000074
计算如下,·代表矩阵的乘法。
Figure BDA0002550096450000075
对于存在多条路径的元结构,例如图1中的M3,对于分流的路径使用Hardmard乘积来进行计算,M3在P节点分流和聚合,元结构M3的邻接矩阵计算如下,其中⊙为Hardmard乘积,来代表与(and)的关系。
Figure BDA0002550096450000076
接下来平衡自链接和其他链接的相对重要性,设置对角线元素为λ(自链接调整系数),计算自链接调整之后的矩阵元素
Figure BDA0002550096450000081
如下:
Figure BDA0002550096450000082
(4)邻居信息聚合步骤的具体操作为:节点特征矩阵
Figure BDA0002550096450000083
其中Ns是节点数,F特征维度,计算对于元结构
Figure BDA0002550096450000084
注意力系数
Figure BDA0002550096450000085
如下,其代表了邻居节点j的对于节点i的重要性,公式中
Figure BDA0002550096450000086
为对于元结构
Figure BDA00025500964500000822
的输入参数矩阵,as∈R2F′为元结构
Figure BDA0002550096450000088
注意力参数向量,hi表示特征矩阵H的第i行,|是向量的拼接符号,而为LeakyReLU斜率设置为0.2的激活函数。
Figure BDA0002550096450000089
接下来考虑元结构中的数量信息
Figure BDA00025500964500000810
计算节点i对于元结构
Figure BDA00025500964500000811
输出特征
Figure BDA00025500964500000823
如下所示,其中h′j∈RF′是节点j的隐藏特征,其等于
Figure BDA00025500964500000813
Figure BDA00025500964500000814
为了使得训练更加稳定,使用多头注意力机制(Multi-head AttentionMechanism),按照同样的步骤,同时计算K个注意力头将结果进行拼接,拼接之后得到
Figure BDA00025500964500000815
的维度为KF′,计算如下所示。
Figure BDA00025500964500000816
获得节点对于元结构的输出特征
Figure BDA00025500964500000817
之后,对于不同元结构使用的转换矩阵
Figure BDA00025500964500000818
进行转换,并将它们加和在一起作为最终的节点表示,所有元结构的集合
Figure BDA00025500964500000819
设为由步骤2得到的元结构集合 metagraphs,最终的节点表示
Figure BDA00025500964500000820
计算如下所示。
Figure BDA00025500964500000821
(5)计算交叉熵损失和梯度回传具体步骤为:半监督分类任务,模型的交叉熵损失为计算如公式所示,其中
Figure BDA0002550096450000091
代表有标签数据的节点下标集合,Yi∈ZC是代表节点i标签的one-hot向量,节点属于C个类别,Wc∈RC×KF′是用于最终分类的输出参数矩阵。
Figure BDA0002550096450000092
计算得到损失
Figure BDA0002550096450000093
之后,通过梯度反向传播算法 (BackpropagationAlgorithm)对过程中的输入参数矩阵
Figure BDA0002550096450000094
注意力参数向量aS、转换矩阵
Figure BDA0002550096450000095
输出参数矩阵Wc进行更新,进行多轮的迭代直到损失
Figure BDA0002550096450000096
收敛。
该网络表征学习方法具体实施方法为:选取一个待处理网络,从待处理网络上爬取欲处理的节点信息,将所有节点信息处理生成一个异质信息网络,将该异质信息网络输入到经过上述网络表征学习方法训练后的网络表征学习模型,网络表征学习模型通过对异质信息网络进行层次搜索生成元结构,后基于得到的元结构计算矩阵并得到矩阵元素,最后进行邻居信息聚合,通过网络表征学习模型将最终结果即最终节点作为向量表征输出。该向量表征可用于表示某一节点信息以及在同一待处理网络上所有与其具有相关性的节点信息,因此该向量表征还可以具体应用于其他分类型学习机器的输入信息提供、大数据分析、智能检索系统以及信息推广等。以下结合具体实施例对本发明的基于元结构和图神经网络的网络表征学习方法的工作过程进行阐述。
<实施例>
图1是本发明实施例中网络表征学习模型进行的表征学习训练的流程图。
如图1所示,本发明中对网络表征学习模型的进行的表征学习训练具体流程步骤如下:
步骤S1,训练数据集准备步骤:选取一个来源于DBLP网站 (https://dblp.uni-trier.de)作为待处理网站作为训练数据集,通过本网站爬取的论文和会议的节点信息,生成一个异质信息网络。
本实施例中,应用的DBLP网络由4057位作者(Author),14328 篇论文(Paper),20个会议(Conference)和8898个术语(Term)组成。作者根据研究方向类别分为4类:数据库、数据挖掘、信息检索和人工智能方向。作者的特征代表关键字的出现情况,维度为334,即关键字的词典大小为334,如果作者的描述中出现字典中的单词就在对应位置用1表示,反之,用0表示,然后进入步骤S2。
图2是本发明实施例中基于元结构和图神经网络的网络表征学习方法的图示。
如图2所示,输入异质图G使用邻接矩阵表示,例如:作者(A) 与论文(P)的邻接矩阵
Figure BDA0002550096450000101
术语与论文的邻接矩阵
Figure BDA0002550096450000102
三个作者节点 (例如图1中a1、a2和a3)输入初始特征H0矩阵为 [[1,1,0,0,1],[0,1,1,0,0],[0,0,1,1,1]],三个作者的的类别标签Y=[[0,1,0,0],[1,0,0,0],[0,0,0,1]](例如,a1为数据挖掘,a2为数据库,a3为人工智能)。
步骤S2,层次搜索步骤,将步骤S1得到的异质信息网络输入到网络表征学习模型,异质信息网络DBLP的异质网络模型如图2中的 TG,首先根据TG生成候选的元结构集合,设置最大搜索深度d为2,目标节点类型s为作者节点(A),从节点类型作者(A)开始,搜索与s距离为i的所有节点集合N1=[P](论文节点P),对于该节点集合的所有非空子集与A合并得到TG中的子图
Figure BDA0002550096450000111
添加其到临时元结构集合tmp_metagraphs和元结构候选集合metagraphs,然后到下一层与A 距离为2的的所有集合N2=[C,T](期刊节点C、主题节点T),将其非空子集与临时元结构
Figure BDA0002550096450000112
的节点合并得到TG中的子图
Figure BDA0002550096450000113
Figure BDA0002550096450000114
添加到临时元结构集合 tmp_metagraphs和候选元结构集合metagraphs中。根据对称性将候选元结构集合中的元结构进行补齐,最终得到的元结构候选集合为
Figure BDA0002550096450000115
Figure BDA0002550096450000116
例如图1中元结构集合,记为
Figure BDA0002550096450000117
然后进入步骤S3。
步骤S3,计算矩阵步骤,对于单条路径的元结构
Figure BDA0002550096450000118
Figure BDA0002550096450000119
以图2中的G为例计算自链接调整的元结构邻接矩阵,节点类型A与P之间的邻接矩阵
Figure BDA00025500964500001110
例如作者a1发表了论文p1,矩阵的第一行第一列对应的元素为1,节点类型P与T之间的邻接矩阵
Figure BDA00025500964500001111
节点类型T与P 之间的邻接矩阵
Figure BDA0002550096450000121
节点类型P与A的邻接矩阵
Figure BDA0002550096450000122
如步骤S介绍元结构
Figure BDA0002550096450000123
的邻接矩阵
Figure BDA0002550096450000124
计算可得到
Figure BDA0002550096450000125
接下来平衡自链接和其他链接的相对重要性,设置自链接调整系数λ为1,计算自链接调整之后的邻接矩阵
Figure BDA0002550096450000126
对于存在多条路径的元结构,例如图2中的M3
Figure BDA0002550096450000127
节点类型 P与C之间的邻接矩阵
Figure BDA0002550096450000128
节点类型C 与P之间的邻接矩阵
Figure BDA0002550096450000129
根据分流计算得
Figure BDA00025500964500001210
故可以计算得到元结构矩阵
Figure BDA00025500964500001211
设置自链接调整系数为1,最终可以得到自链接调整之后的矩阵元素
Figure BDA00025500964500001212
然后进入步骤S4。
步骤S4,邻居信息聚合步骤,节点特征矩阵H0=[[1,1,0,0,1], [0,1,1,0,0],[0,0,1,1,1]],隐藏层维度F′=3,元结构的随机初始化输入参数矩阵
Figure BDA00025500964500001213
随机初始化注意力参数向量
Figure BDA00025500964500001214
如下。
Figure BDA00025500964500001215
Figure BDA00025500964500001216
根据公式(4)可以计算得到注意力系数的矩阵
Figure BDA00025500964500001217
例如
Figure BDA00025500964500001218
代表作者a1对于作者a2的注意力系数为0.2107。
Figure BDA00025500964500001219
根据公式(5)可以计算元结构
Figure BDA0002550096450000131
输出特征
Figure BDA0002550096450000132
例如作者a1的输出特征计算的结果为:
Figure BDA0002550096450000133
元结构
Figure BDA0002550096450000134
的随机初始化转换矩阵
Figure BDA0002550096450000135
如下,通过公式(7)计算得到的最终节点表示
Figure BDA0002550096450000136
例如作者a1的输出特征计算的结果
Figure BDA0002550096450000137
Figure BDA0002550096450000138
Figure BDA0002550096450000139
(5)计算交叉熵损失和梯度回传:Yi∈ZC是代表节点i标签的 one-hot向量,例如作者节点a1属于第二类,即Y1=[0,1,0,0]对应第二个元素为1,输出参数矩阵Wc初始化为下。
Figure BDA00025500964500001310
根据公式(8)可以计算的得到
Figure BDA00025500964500001311
通过梯度反向传播算法对上述输入参数矩阵
Figure BDA00025500964500001312
注意力参数向量as、转换矩阵
Figure BDA00025500964500001313
输出参数矩阵Wc进行更新。并且得到三个作者节点的节点表示如下。
Figure BDA00025500964500001314
将zfinal中三个作者节点的节点与训练数据集中该三个作者的节点信息做比对,比对结果在误差范围内,网络表征学习模型完成网络表征训练,进入结束状态。
训练后的网络表征学习模型可用与基于元结构和图神经网络的网络表征学习方法,通过将从待处理网络中获得的异质信息网络输入到训练后的网络表征学习模型,经过层次搜索、计算矩阵以及邻居信息聚合,最终输出作为向量表征的最终节点。
本实施例的一种基于元结构和图神经网络的网络表征学习方法具体应用过程为:
数据准备,通过与上述训练数据集准备步骤中相同的方式,即爬取DBLP网站的论文和会议的节点信息,形成一个带有节点属性的异质信息网络。
网络表征学习,将得到的带有节点的异质信息网络输入到经过上述表征学习训练后得到的网络表征学习模型,网络表征学习模型通过层次搜索将异质信息网络处理生成元结构,而后通过计算矩阵将元结构处理生成矩阵元素,最后通过邻居信息聚合将矩阵元素处理生产最终节点并输出。
向量表征获取,将网络表征学习模型输出的最终节点作为向量表征,将该向量表征应用于其他子分类型学习机器或其他领域。
本实施例中网络表征学习模型输出的最终节点
Figure BDA0002550096450000141
作为向量表征,该向量表征可用于表示某一节点信息以及在同一待处理网络上所有与其具有相关性的节点信息,例如本实施例中可通过调阅
Figure BDA0002550096450000142
了解作者ai的向量表征,即作者ai在本实施例中阐述的待处理网络中所有相关信息(如:作者ai的作品、引用ai所写内容的作品和会议等),进一步地,用户可将得到的向量表征应用于其他具体领域(如大数据分析、数据推广),例如将本实施例中应用基于元结构和图神经网络的网络表征学习方法输出的向量表征作为其他的分类型学习机器的输入,从而完成对待处理网络中节点信息的分类处理以及后续应用。
本发明不仅限应用于实施例中的待处理网络,在本发明应用于其他具体领域时,通过多种方式获得待处理领域的节点信息,并依据获得的节点信息生成相应的异质信息网络,将该异质信息网络进行上述的基于元结构和图神经网络的网络表征学习方法后可得到其他领域对应的欲获得的向量表征。
实施例作用与效果
根据本实施例提供的一种基于元结构和图神经网络的网络表征学习方法,由于该方法提出层次搜索算法来生成元结构,元路径相比较,元结构可以捕捉更加复杂的节点关系。故本发明可不需要使用领域相关的知识来预先定义元路径,方法自动搜索生成元结构,此外,通过引入注意力机制能够对元结构中的数量信息进行显式地利用。该方法融合了图神经网络的学习能力和元结构丰富的语义,因此模型可以获得更优的效果。本方法最终得到有效的最终节点作为向量表征,此向量表征可以用于后续的机器学习任务。
实施例中,采用层次搜索算法,通过搜索得到元结构代替了需要预先定义的元路径,既节约了人力成本,也一定程度上减少了人为误差,从而使得本实施例中采用方法获得的结果更准确。
实施例中,分别通过单路径算法和多路径算法对元结构进行处理,得到自链接调整后的矩阵元素,并引入多头注意力机制算法,使最终的得到的最终节点具有更高的可靠性。
实施例中,计算交叉熵损失和基于交叉熵进行梯度回传的方式,对网络表征学习模型的参数进行微调,使得到的最终节点更准确。
上述实施例仅用于举例说明本发明的具体实施方式,而本发明不限于上述实施例的描述范围。

Claims (6)

1.一种基于元结构和图神经网络的网络表征学习方法,用于将异质信息网络输入到网络表征学习模型生成向量表征,其特征在于,包括:
数据准备,通过网络获取若干个相关信息,并将所述若干个相关信息处理形成一个带有节点属性的异质信息网络;
网络表征学习,将所述异质信息网络输入到经过表征学习训练后得到的所述网络表征学习模型;
向量表征获取,将所述网络表征学习模型输出的最终节点作为所述异质信息网络的所述向量表征,
其中,对所述网络表征学习模型进行的所述表征学习训练的具体步骤为:
训练数据集准备步骤,给定多个带有节点属性的所述异质信息网络作为训练数据集,从所述训练数据集中提取一个所述异质信息网络输入到所述网络表征学习模型;
层次搜索步骤,根据输入的所述异质信息网络的网络模式和目标节点类型以及预令的最大搜索深度来生成候选的元结构集合,根据层次搜索算法将所述元结构集合中的元结构进行对称补齐;
计算矩阵步骤,将所述元结构分为单条路径元结构和多条路径元结构,分别通过单路径算法和多路径算法获得所述单条路径元结构和所述多条路径元结构各自对应的邻接矩阵,对所述邻接矩阵进行平衡链接重要性后获取矩阵元素;
邻居信息聚合步骤,基于所述元结构计算得到注意力系数,使用多头注意力机制算法,基于所述矩阵元素和所述注意力系数计算所有所述元结构的输出特征,对所有所述元结构使用转换矩阵进行转换,并将所有所述转换矩阵的结果加和作为最终节点;
计算交叉熵损失和梯度回传,通过交叉熵计算公式获得基于所述最终节点的交叉熵损失,通过梯度反向传播算法进行多轮的参数迭代直到所述交叉熵损失收敛,完成对所述网络表征学习模型的所述表征学习训练。
2.根据权利要求1所述的一种基于元结构和图神经网络的网络表征学习方法,其特征在于:
其中,所述层次搜索算法为:
将所述元结构集合分为元结构侯选集合和元结构搜索集合,将所述元结构候选集合设为空,将单独由所述目标节点类型构的图命名为目标节点图,
由所述目标节点类型开始,设置搜索层数为i设置为1,在所述元结构搜索集合中将所有所述目标节点图移除,搜索与所述目标节点类型距离为i的相关集合,将所述相关集合中的所有非空子集与所述目标节点图中的节点合并,合并结果为N子图,将所述N子图分别添加到所述元结构侯选集合和所述元结构搜索集合,然后将所述搜索层数i设置为i+1,重复此过程直至i=所述最大搜索深度,
根据对称性将候选元结构集合中的元结构进行补齐。
3.根据权利要求1所述的一种基于元结构和图神经网络的网络表征学习方法,其特征在于:
其中,所述单路径算法为:
Figure FDA0002550096440000031
所述多路径算法为:
Figure FDA0002550096440000032
所述平衡链接重要性的计算过程为:
Figure FDA0002550096440000033
式中MP为所述单条路径元结构的所述邻接矩阵,
Figure FDA0002550096440000034
为所述多条路径元结构的邻接矩阵,ATiTj为节点类型和Ti节点类型Tj间的邻接矩阵,
Figure FDA0002550096440000035
为所述矩阵元素。
4.根据权利要求1所述的一种基于元结构和图神经网络的网络表征学习方法,其特征在于:
其中,所述注意力系数获取方式为:
Figure FDA0002550096440000036
式中
Figure FDA0002550096440000037
为元结构
Figure FDA0002550096440000038
的所述注意力系数,节点特征矩阵
Figure FDA0002550096440000039
其中Ns是节点数,其代表了邻居节点j的对于节点i的重要性,公式中
Figure FDA00025500964400000310
为对于元结构
Figure FDA00025500964400000311
的输入参数矩阵,aS∈R2F为元结构
Figure FDA00025500964400000312
注意力参数向量,hi表示特征矩阵H的第i行,|是向量的拼接符号,LeakyReLU为斜率设置为0.2的激活函数。
5.根据权利要求4所述的一种基于元结构和图神经网络的网络表征学习方法,其特征在于:
其中,所述输出特征获取过程为:
Figure FDA0002550096440000041
式中
Figure FDA0002550096440000042
为结构中的数量信息,i计算节点,
Figure FDA0002550096440000043
为维度是KF的所述输出特征,h′j∈RF′是节点j的隐藏特征,其等于
Figure FDA0002550096440000044
所述最终节点获取方式为:
Figure FDA0002550096440000045
式中
Figure FDA0002550096440000046
为转换矩阵,
Figure FDA0002550096440000047
为维度是KF的所述最终节点。
6.根据权利要求1所述的一种基于元结构和图神经网络的网络表征学习方法,其特征在于:
其中,所述交叉熵计算公式为:
Figure FDA0002550096440000048
式中
Figure FDA0002550096440000049
为所述交叉熵损失,
Figure FDA00025500964400000410
代表有标签数据的节点下标集合,Yi∈ZC是代表节点i标签的one-hot向量,节点属于C个类别,Wc∈RC×KF′是用于最终分类的输出参数矩阵。
CN202010573056.1A 2020-06-22 2020-06-22 一种基于元结构和图神经网络的网络表征学习方法 Active CN111737535B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010573056.1A CN111737535B (zh) 2020-06-22 2020-06-22 一种基于元结构和图神经网络的网络表征学习方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010573056.1A CN111737535B (zh) 2020-06-22 2020-06-22 一种基于元结构和图神经网络的网络表征学习方法

Publications (2)

Publication Number Publication Date
CN111737535A true CN111737535A (zh) 2020-10-02
CN111737535B CN111737535B (zh) 2022-10-18

Family

ID=72650267

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010573056.1A Active CN111737535B (zh) 2020-06-22 2020-06-22 一种基于元结构和图神经网络的网络表征学习方法

Country Status (1)

Country Link
CN (1) CN111737535B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112311608A (zh) * 2020-11-25 2021-02-02 中国人民解放军66136部队 一种多层异质网络空间节点表征方法
CN112465075A (zh) * 2020-12-31 2021-03-09 杭银消费金融股份有限公司 元数据管理方法及系统
CN112528275A (zh) * 2020-11-23 2021-03-19 浙江工业大学 基于元路径学习与子图采样的apt网络攻击检测方法
CN112529168A (zh) * 2020-12-29 2021-03-19 中国人民解放军国防科技大学 一种基于gcn的属性多层网络表示学习方法
CN112749757A (zh) * 2021-01-21 2021-05-04 厦门大学 基于门控图注意力网络的论文分类模型构建方法及系统
CN112887143A (zh) * 2021-01-27 2021-06-01 武汉理工大学 一种基于元搜索的仿生控制方法
CN112966763A (zh) * 2021-03-17 2021-06-15 北京邮电大学 一种分类模型的训练方法、装置、电子设备及存储介质
CN113672735A (zh) * 2021-09-08 2021-11-19 北京邮电大学 一种基于主题感知异质图神经网络的链接预测方法
CN113779406A (zh) * 2021-09-16 2021-12-10 浙江网商银行股份有限公司 数据处理方法及装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110046698A (zh) * 2019-04-28 2019-07-23 北京邮电大学 异质图神经网络生成方法、装置、电子设备及存储介质
CN110555050A (zh) * 2018-03-30 2019-12-10 华东师范大学 一种基于元路径的异构网络节点表示学习方法
CN110598061A (zh) * 2019-09-20 2019-12-20 东北大学 一种多元图融合的异构信息网嵌入方法
CN110825884A (zh) * 2019-11-05 2020-02-21 腾讯科技(深圳)有限公司 基于人工智能的嵌入表示处理方法、装置及电子设备
CN110852437A (zh) * 2019-10-29 2020-02-28 天津大学 一种针对异质信息网络的表示学习方法
CN110889015A (zh) * 2019-10-31 2020-03-17 天津工业大学 面向图数据的独立解耦卷积神经网络表征算法
CA3061717A1 (en) * 2018-11-16 2020-05-16 Royal Bank Of Canada System and method for a convolutional neural network for multi-label classification with partial annotations

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110555050A (zh) * 2018-03-30 2019-12-10 华东师范大学 一种基于元路径的异构网络节点表示学习方法
CA3061717A1 (en) * 2018-11-16 2020-05-16 Royal Bank Of Canada System and method for a convolutional neural network for multi-label classification with partial annotations
CN110046698A (zh) * 2019-04-28 2019-07-23 北京邮电大学 异质图神经网络生成方法、装置、电子设备及存储介质
CN110598061A (zh) * 2019-09-20 2019-12-20 东北大学 一种多元图融合的异构信息网嵌入方法
CN110852437A (zh) * 2019-10-29 2020-02-28 天津大学 一种针对异质信息网络的表示学习方法
CN110889015A (zh) * 2019-10-31 2020-03-17 天津工业大学 面向图数据的独立解耦卷积神经网络表征算法
CN110825884A (zh) * 2019-11-05 2020-02-21 腾讯科技(深圳)有限公司 基于人工智能的嵌入表示处理方法、装置及电子设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
YUN XIONG、YIZHOU ZHAN等: "GraphInception: Convolutional Neural Networks for Collective Classification in Heterogeneous Information Networks", 《IEEE TRANSACTIONS ON KNOWLEDGE AND DATA ENGINEERING》 *
蒋宗礼、李苗苗等: "基于融合元路径图卷积的异质网络表示学习", 《计算机科学》 *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112528275B (zh) * 2020-11-23 2021-11-23 浙江工业大学 基于元路径学习与子图采样的apt网络攻击检测方法
CN112528275A (zh) * 2020-11-23 2021-03-19 浙江工业大学 基于元路径学习与子图采样的apt网络攻击检测方法
CN112311608A (zh) * 2020-11-25 2021-02-02 中国人民解放军66136部队 一种多层异质网络空间节点表征方法
CN112529168A (zh) * 2020-12-29 2021-03-19 中国人民解放军国防科技大学 一种基于gcn的属性多层网络表示学习方法
CN112465075B (zh) * 2020-12-31 2021-05-25 杭银消费金融股份有限公司 元数据管理方法及系统
CN112465075A (zh) * 2020-12-31 2021-03-09 杭银消费金融股份有限公司 元数据管理方法及系统
CN112749757A (zh) * 2021-01-21 2021-05-04 厦门大学 基于门控图注意力网络的论文分类模型构建方法及系统
CN112749757B (zh) * 2021-01-21 2023-09-12 厦门大学 基于门控图注意力网络的论文分类模型构建方法及系统
CN112887143A (zh) * 2021-01-27 2021-06-01 武汉理工大学 一种基于元搜索的仿生控制方法
CN112966763A (zh) * 2021-03-17 2021-06-15 北京邮电大学 一种分类模型的训练方法、装置、电子设备及存储介质
CN112966763B (zh) * 2021-03-17 2023-12-26 北京邮电大学 一种分类模型的训练方法、装置、电子设备及存储介质
CN113672735A (zh) * 2021-09-08 2021-11-19 北京邮电大学 一种基于主题感知异质图神经网络的链接预测方法
CN113672735B (zh) * 2021-09-08 2024-01-19 北京邮电大学 一种基于主题感知异质图神经网络的链接预测方法
CN113779406A (zh) * 2021-09-16 2021-12-10 浙江网商银行股份有限公司 数据处理方法及装置

Also Published As

Publication number Publication date
CN111737535B (zh) 2022-10-18

Similar Documents

Publication Publication Date Title
CN111737535B (zh) 一种基于元结构和图神经网络的网络表征学习方法
CN111858954B (zh) 面向任务的文本生成图像网络模型
CN111950594B (zh) 基于子图采样的大规模属性图上的无监督图表示学习方法和装置
CN109960810B (zh) 一种实体对齐方法及装置
CN111192270A (zh) 一种基于点全局上下文关系推理的点云语义分割方法
CN112613602A (zh) 基于知识感知超图神经网络的推荐方法及系统
CN111126218A (zh) 一种基于零样本学习的人体行为识别方法
CN112529168A (zh) 一种基于gcn的属性多层网络表示学习方法
CN114265986B (zh) 一种融合知识图谱结构与路径语义的信息推送方法和系统
CN112862015A (zh) 一种基于超图神经网络的论文分类方法及系统
CN113255895A (zh) 基于图神经网络表示学习的结构图对齐方法和多图联合数据挖掘方法
CN115248876B (zh) 基于内容理解的遥感影像统筹推荐方法
CN114065048A (zh) 基于多异构图图神经网络的物品推荐方法
CN112801762B (zh) 基于商品感知的多模态视频高光检测方法及其系统
CN116304066A (zh) 一种基于提示学习的异质信息网络节点分类方法
CN114064627A (zh) 一种针对多重关系的知识图谱链接补全方法及系统
CN115687760A (zh) 一种基于图神经网络的用户学习兴趣标签预测方法
CN113065321B (zh) 基于lstm模型和超图的用户行为预测方法及系统
Gamgne Domgue et al. Community structure extraction in directed network using triads
CN114492651A (zh) 一种基于个性化网页排位的半监督图节点分类方法
CN117271894A (zh) 一种基于混合网络与dpp的论文推荐方法
CN116302088B (zh) 一种代码克隆检测方法、存储介质及设备
Zhang et al. Cross-graph convolution learning for large-scale text-picture shopping guide in e-commerce search
CN116662566A (zh) 一种基于对比学习机制的异质信息网络链路预测方法
Alfaqeeh et al. Community detection in social networks by spectral embedding of typed graphs

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant