CN113077003A - 基于图采样的图注意力网络归纳学习方法 - Google Patents
基于图采样的图注意力网络归纳学习方法 Download PDFInfo
- Publication number
- CN113077003A CN113077003A CN202110381819.7A CN202110381819A CN113077003A CN 113077003 A CN113077003 A CN 113077003A CN 202110381819 A CN202110381819 A CN 202110381819A CN 113077003 A CN113077003 A CN 113077003A
- Authority
- CN
- China
- Prior art keywords
- graph
- training
- sample point
- sampling
- learning method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 61
- 238000005070 sampling Methods 0.000 title claims abstract description 45
- 230000001939 inductive effect Effects 0.000 title claims description 19
- 238000012549 training Methods 0.000 claims abstract description 67
- 230000008569 process Effects 0.000 claims abstract description 21
- 238000005295 random walk Methods 0.000 claims abstract description 20
- 230000006698 induction Effects 0.000 claims abstract description 7
- 238000012795 verification Methods 0.000 claims description 15
- 230000006870 function Effects 0.000 claims description 14
- 238000004364 calculation method Methods 0.000 claims description 12
- 239000011159 matrix material Substances 0.000 claims description 12
- 239000013598 vector Substances 0.000 claims description 12
- 238000010586 diagram Methods 0.000 claims description 9
- 238000013528 artificial neural network Methods 0.000 claims description 7
- 230000007246 mechanism Effects 0.000 claims description 7
- 230000004913 activation Effects 0.000 claims description 6
- 239000002356 single layer Substances 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 238000004422 calculation algorithm Methods 0.000 abstract description 5
- 238000013135 deep learning Methods 0.000 description 6
- 238000011160 research Methods 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明揭示了一种基于图采样的图注意力网络归纳学习方法,主要包含图采样过程和图训练过程两个部分,通过使用随机游走采样器在原数据集大图中采样出多个子图形成mini batch,再输入到图注意力网络中进行训练,将大数据集拆分为小数据集,并增加训练轮数,从而显著地提升了方法性能、保证了方法具有良好的鲁棒性。本发明还能够作为技术思路的依据,对业内研究人员日后设计相关算法而言具有参考价值和部署意义。
Description
技术领域
本发明为一种针对图神经网络的归纳学习方法,具体而言,基于图采样的图注意力网络归纳学习方法,涉及机器学习领域。
背景技术
图作为描述数据结构的数学工具,一直以来被视为表征数据实体内在关系的有效方法,在现阶段对人工智能的研究和应用产品中,对具有图结构数据的研究也占据了非常重要的地位。随着深度学习逐渐成为人类研究与实现人工智能最重要的工具,越来越多的研究开始尝试将深度学习方法应用到图数据领域。
传统的深度学习方法所处理的是欧氏空间下的数据,这类数据一般具有非常规则的空间结构;而图数据通常则是取自于现实生活中、属于非欧氏空间下的数据,在空间结构上并不规则,因此这就对现有的深度学习方法提出了重大挑战。
随着深度学习研究的不断深入,图神经网络(GNN,Graph Neural Network)的概念被提出,图神经网络是指将图数据与神经网络进行结合,在图数据上进行端到端的深度学习。在此后的研究中,业内研究人员也提出了众多的图神经网络模型,其中,图注意力网络(GAT,Graph Attention Network)的应用较为广泛。在图注意力网络中,引入了注意力机制,根据图中每个节点的不同邻居节点的特征,给当前节点的不同邻居节点分配不同的权重,无需依赖于整个图的信息,并且可以适用于归纳学习(Inductive Learning)。而随着现代社会的不断发展,图数据集的规模也越来愈大,为了更好地处理大型数据集,业内研究人员又提出了图采样算法,引入了传统深度学习方法中mini batch的概念,在大图中采样、形成子图,再进行小批次训练,从而更好地学习图的结构信息,提高模型的表达能力。
综上所述,现有技术中对于基于图采样的图注意力网络归纳学习算法如何有效解决大型图数据集分类问题尚没有公开的披露。
发明内容
鉴于现有技术存在上述缺陷,本发明的目的是提出一种基于图采样的图注意力网络归纳学习方法,具体如下。
一种基于图采样的图注意力网络归纳学习方法,包括如下步骤:
S1、输入待采样的图并设置随机游走采样器参数;
S2、利用随机游走采样器对所输入的图进行随机游走采样,获取采样后的子图;
S3、提取子图的邻接矩阵和样本点、经维度变换后输入图注意力网络中;
S4、采用注意力机制计算样本点之间的图注意力系数;
S5、利用图注意力系数计算样本点最后的输出特征;
S6、多次重复执行S4~S5,对多次执行后的输出结果进行串联合并、得到输出特征;
S7、采用多个二分类器进行分类,计算得到输出特征的损失函数;
S8、对每个Epoch的训练规则进行设置,并依据规则执行操作;
S9、对整个训练的停止条件进行设置,并依据规则进行判断,若整个训练已满足停止条件则流程结束,若整个训练未满足停止条件则重复执行S1~S9。
优选地,S1包括如下步骤:
S11、输入待采样的图G(V,E),其中,V表示图G中的样本点集合,E表示图G中样本点间的连接边集合;
S12、设置随机游走采样器参数,所述参数包括根数量r以及随机游走长度h。
优选地,S2包括如下步骤:
S21、从V中随机采样r个根节点存于集合Vroot中,对于Vroot中的所有样本点,在图G(V,E)中进行h跳随机游走采样,将采样过程中所遍历的样本点存于集合U中;
S22、将U与Vroot中的样本点共同存于集合Vs中,若有重复的样本点则进行删除,Vs作为采样得到的样本点集合、包含了N个样本点,根据Vs在E中选择样本点之间的连接边、存于集合Es中,由此得到采样后的子图Gs(Vs,Es)。
优选地,S3包括如下步骤:
将子图Gs中样本点的邻接矩阵记为A∈RN×N,其中,R表示实数,
优选地,S4包括如下步骤:
利用一个单层的前馈神经网络构建注意力机制,其中,α为每次卷积时用来进行计算加权求和的图注意力系数、其计算公式为,
其中,αij表示样本点j对于样本点i的重要性,LeakyReLu()为非线性激活函数,表示可训练的权值向量W∈RF′×F、表示可训练的权值矩阵,||表示对特征矩阵进行串联合并,j∈Ni,Ni为样本点i的所有相邻样本点集合。
优选地,S5包括如下步骤:
将图注意力系数引入后续计算,对样本点i的邻居节点的特征向量进行加权求和,再通过非线性激活函数,作为每个样本点最后的输出特征,计算公式为,
优选地,S6包括如下步骤:
依照S4~S5中的操作,按序独立执行K次,将K次后的输出结果进行串联合并,得到输出特征、表示为,
优选地,S7包括如下步骤:
采用多个二分类器进行分类,损失函数的计算公式为,
优选地,S8包括如下步骤:
S81、令每个Epoch采样M个子图进行训练,当前子图训练完成后,下一个子图在当前子图训练模型参数的基础上重复S1~S7的训练过程,训练达到M个子图时,一个Epoch的训练完成,计算验证集Gv(Vv,Ev)的损失,其中,Gv表示用于就行验证的图,Vv表示验证图中的样本点,Ev表示验证图中样本点的连接边;
S82、当前Epoch训练完成后,下一个Epoch在当前Epoch训练模型参数的基础上按序重复S1~S81的训练过程。
优选地,S9包括如下步骤:
将整个训练的停止条件设置为若连续10个Epoch的验证集损失没有下降则停止训练,或训练达到P个Epoch时则停止训练、其中P不小于20;
若整个训练已满足停止条件则流程结束,若整个训练未满足停止条件则重复执行S1~S9。
与现有技术相比,本发明的优点在于:
本发明所提出的一种基于图采样的图注意力网络归纳学习方法,主要用于处理大型数据集的归纳学习分类问题。本发明通过使用随机游走采样器在原数据集大图中采样出多个子图形成mini batch,再输入到图注意力网络中进行训练,将大数据集拆分为小数据集,并增加训练轮数,从而显著地提升了方法性能、保证了方法具有良好的鲁棒性。
此外,本发明还能够作为技术思路的依据,对业内研究人员日后设计相关算法而言具有参考价值和部署意义。
以下便结合附图,对本发明的具体实施方式作进一步的详述,以使本发明技术方案更易于理解、掌握。
附图说明
图1为本发明的方法流程示意图。
具体实施方式
本发明提出了一种基于图采样的图注意力网络归纳学习方法,具体方案如下。
如图1所示,一种基于图采样的图注意力网络归纳学习方法,主要包含了按序执行的图采样过程和图训练过程两个部分。
其中,图采样过程主要包括如下步骤:
S1、输入待采样的图并设置随机游走采样器参数。这一步骤的具体操作可以进一步明确为,
S11、输入待采样的图G(V,E),其中,V表示图G中的样本点集合,E表示图G中样本点间的连接边集合;
S12、设置随机游走采样器参数,所述参数包括根数量r以及随机游走长度h。
S2、利用随机游走采样器对所输入的图进行随机游走采样,获取采样后的子图。这一步骤的具体操作可以进一步明确为,
S21、从V中随机采样r个根节点存于集合Vroot中,对于Vroot中的所有样本点,在图G(V,E)中进行h跳随机游走采样,将采样过程中所遍历的样本点存于集合U中;
S22、将U与Vroot中的样本点共同存于集合Vs中,若有重复的样本点则进行删除,Vs作为采样得到的样本点集合、包含了N个样本点,根据Vs在E中选择样本点之间的连接边、存于集合Es中,由此得到采样后的子图Gs(Vs,Es)。
图训练过程则主要包括如下步骤:
S3、提取子图的邻接矩阵和样本点、经维度变换后输入图注意力网络中。这一步骤的具体操作可以进一步明确为,
将子图Gs中样本点的邻接矩阵记为A∈RN×N,其中,R表示实数,
S4、采用注意力机制计算样本点之间的图注意力系数。这一步骤的具体操作可以进一步明确为,
利用一个单层的前馈神经网络构建注意力机制,其中,α为每次卷积时用来进行计算加权求和的图注意力系数、其计算公式为,
其中,αij表示样本点j对于样本点i的重要性,LeakReLu()为非线性激活函数,表示可训练的权值向量W∈RF′×F、表示可训练的权值矩阵,||表示对特征矩阵进行串联合并,j∈Ni,Ni为样本点i的所有相邻样本点集合。
S5、利用图注意力系数计算样本点最后的输出特征。这一步骤的具体操作可以进一步明确为,
将图注意力系数引入后续计算,对样本点i的邻居节点的特征向量进行加权求和,再通过非线性激活函数,作为每个样本点最后的输出特征,计算公式为,
S6、多次重复执行S4~S5,对多次执行后的输出结果进行串联合并、得到输出特征。这一步骤的具体操作可以进一步明确为,
依照S4~S5中的操作,按序独立执行K次,将K次后的输出结果进行串联合并,得到输出特征、表示为,
S7、采用多个二分类器进行分类,计算得到输出特征的损失函数。这一步骤的具体操作可以进一步明确为,
采用多个二分类器进行分类,在本实施例中所述二分类器为sigmoid函数,损失函数的计算公式为,
S8、对每个Epoch的训练规则进行设置,并依据规则执行操作。这一步骤的具体操作可以进一步明确为,
S81、令每个Epoch采样M个子图进行训练,当前子图训练完成后,下一个子图在当前子图训练模型参数的基础上重复S1~S7的训练过程,训练达到M个子图时,一个Epoch的训练完成,计算验证集Gv(Vv,Ev)的损失,其中,Gv表示用于就行验证的图,Vv表示验证图中的样本点,Ev表示验证图中样本点的连接边;
S82、当前Epoch训练完成后,下一个Epoch在当前Epoch训练模型参数的基础上按序重复S1~S81的训练过程。
S9、对整个训练的停止条件进行设置,并依据规则进行判断,若整个训练已满足停止条件则流程结束,若整个训练未满足停止条件则重复执行S1~S9。这一步骤中所述的对整个训练的停止条件进行设置,可以进一步明确为,
将整个训练的停止条件设置为若连续10个Epoch的验证集损失没有下降则停止训练,或训练达到P个Epoch时则停止训练。其中P应当足够大、在本实施例中优选为P不小于20。
综上所述,本发明的有益效果主要体现在以下几个方面:
首先,本发明的方法利用图采样技术对大型图数据集进行处理。由于在大型数据集中,图的尺寸十分庞大,若在全图上进行训练,不仅需要耗费大量的资源,而且训练的参数量也将会非常巨大,训练效果往往达不到预期。通过图采样的方法采样子图,再利用传统深度学习方法中mini batch的优点,分批次进行训练,训练时对资源的需求不高,训练的参数量较小,并且能够更好地学习图结构,使得模型性能更加优异。
其次,本发明的方法高效地利用了图注意力网络模型。在采样得到的子图上使用图注意力网络进行训练,顶点特征之间的相关性被更好地融入到模型中,再利用注意力权重的邻居节点特征聚合函数进一步提高了模型的表达能力。
此外,本发明的方法在归纳学习方面性能优异。利用图注意力网络模型适用于归纳学习任务的特点,搭配上图采样技术所能够提供的大量采样子图进行训练,相比传统图神经网络算法而言,本发明的性能更加优异、鲁棒性更强。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神和基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内。
最后,应当理解,虽然本说明书按照实施方式加以描述,但并非每个实施方式仅包含一个独立的技术方案,说明书的这种叙述方式仅仅是为清楚起见,本领域技术人员应当将说明书作为一个整体,各实施例中的技术方案也可以经适当组合,形成本领域技术人员可以理解的其他实施方式。
Claims (10)
1.一种基于图采样的图注意力网络归纳学习方法,其特征在于,包括如下步骤:
S1、输入待采样的图并设置随机游走采样器参数;
S2、利用随机游走采样器对所输入的图进行随机游走采样,获取采样后的子图;
S3、提取子图的邻接矩阵和样本点、经维度变换后输入图注意力网络中;
S4、采用注意力机制计算样本点之间的图注意力系数;
S5、利用图注意力系数计算样本点最后的输出特征;
S6、多次重复执行S4~S5,对多次执行后的输出结果进行串联合并、得到输出特征;
S7、采用多个二分类器进行分类,计算得到输出特征的损失函数;
S8、对每个Epoch的训练规则进行设置,并依据规则执行操作;
S9、对整个训练的停止条件进行设置,并依据规则进行判断,若整个训练已满足停止条件则流程结束,若整个训练未满足停止条件则重复执行S1~S9。
2.根据权利要求1所述的基于图采样的图注意力网络归纳学习方法,其特征在于,S1包括如下步骤:
S11、输入待采样的图G(V,E),其中,V表示图G中的样本点集合,E表示图G中样本点间的连接边集合;
S12、设置随机游走采样器参数,所述参数包括根数量r以及随机游走长度h。
3.根据权利要求2所述的基于图采样的图注意力网络归纳学习方法,其特征在于,S2包括如下步骤:
S21、从V中随机采样r个根节点存于集合Vroot中,对于Vroot中的所有样本点,在图G(V,E)中进行h跳随机游走采样,将采样过程中所遍历的样本点存于集合U中;
S22、将U与Vroot中的样本点共同存于集合Vs中,若有重复的样本点则进行删除,Vs作为采样得到的样本点集合、包含了N个样本点,根据Vs在E中选择样本点之间的连接边、存于集合Es中,由此得到采样后的子图Gs(Vs,Es)。
9.根据权利要求8所述的基于图采样的图注意力网络归纳学习方法,其特征在于,S8包括如下步骤:
S81、令每个Epoch采样M个子图进行训练,当前子图训练完成后,下一个子图在当前子图训练模型参数的基础上重复S1~S7的训练过程,训练达到M个子图时,一个Epoch的训练完成,计算验证集Gv(Vv,Ev)的损失,其中,Gv表示用于就行验证的图,Vv表示验证图中的样本点,Ev表示验证图中样本点的连接边;
S82、当前Epoch训练完成后,下一个Epoch在当前Epoch训练模型参数的基础上按序重复S1~S81的训练过程。
10.根据权利要求9所述的基于图采样的图注意力网络归纳学习方法,其特征在于,S9包括如下步骤:
将整个训练的停止条件设置为若连续10个Epoch的验证集损失没有下降则停止训练,或训练达到P个Epoch时则停止训练、其中P不小于20;
若整个训练已满足停止条件则流程结束,若整个训练未满足停止条件则重复执行S1~S9。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110381819.7A CN113077003A (zh) | 2021-04-09 | 2021-04-09 | 基于图采样的图注意力网络归纳学习方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110381819.7A CN113077003A (zh) | 2021-04-09 | 2021-04-09 | 基于图采样的图注意力网络归纳学习方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113077003A true CN113077003A (zh) | 2021-07-06 |
Family
ID=76615732
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110381819.7A Pending CN113077003A (zh) | 2021-04-09 | 2021-04-09 | 基于图采样的图注意力网络归纳学习方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113077003A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115494349A (zh) * | 2022-11-04 | 2022-12-20 | 国网浙江省电力有限公司金华供电公司 | 有源配电网单相接地故障区段定位方法 |
-
2021
- 2021-04-09 CN CN202110381819.7A patent/CN113077003A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115494349A (zh) * | 2022-11-04 | 2022-12-20 | 国网浙江省电力有限公司金华供电公司 | 有源配电网单相接地故障区段定位方法 |
CN115494349B (zh) * | 2022-11-04 | 2023-04-07 | 国网浙江省电力有限公司金华供电公司 | 有源配电网单相接地故障区段定位方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Alzubaidi et al. | A survey on deep learning tools dealing with data scarcity: definitions, challenges, solutions, tips, and applications | |
CN109948029B (zh) | 基于神经网络自适应的深度哈希图像搜索方法 | |
CN111192270A (zh) | 一种基于点全局上下文关系推理的点云语义分割方法 | |
CN113361664A (zh) | 一种基于量子卷积神经网络的图像识别系统及方法 | |
CN113378913A (zh) | 一种基于自监督学习的半监督节点分类方法 | |
Chen et al. | Binarized neural architecture search for efficient object recognition | |
Doimo et al. | Hierarchical nucleation in deep neural networks | |
CN116152554A (zh) | 基于知识引导的小样本图像识别系统 | |
CN114548591A (zh) | 一种基于混合深度学习模型和Stacking的时序数据预测方法及系统 | |
Hong et al. | Variational gridded graph convolution network for node classification | |
CN113241117B (zh) | 一种基于残差图卷积神经网络rna-蛋白质结合位点判别方法 | |
CN113077003A (zh) | 基于图采样的图注意力网络归纳学习方法 | |
CN117070741B (zh) | 酸洗机组的控制方法及其系统 | |
CN117611838A (zh) | 一种基于自适应超图卷积网络的多标签图像分类方法 | |
CN116994093A (zh) | 基于对偶图卷积神经网络的高光谱图像分类方法 | |
CN110866838A (zh) | 基于转移概率预处理的网络表示学习算法 | |
CN114997360B (zh) | 神经架构搜索算法的演化参数优化方法、系统及存储介质 | |
Xia et al. | Efficient synthesis of compact deep neural networks | |
Xie et al. | Integrating supervised subspace criteria with restricted Boltzmann machine for feature extraction | |
CN115795035A (zh) | 基于进化神经网络的科技服务资源分类方法、系统及其计算机可读存储介质 | |
Zha et al. | Recognizing plans by learning embeddings from observed action distributions | |
CN114332469A (zh) | 模型训练方法、装置、设备及存储介质 | |
CN113052298A (zh) | 一种基于胶囊网络的三维模型检索方法 | |
CN113704570A (zh) | 基于自监督学习式进化的大规模复杂网络社区检测方法 | |
CN112508170A (zh) | 一种基于生成对抗网络的多相关时间序列预测系统及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210706 |