CN112966706A - 一种基于图注意力机制的多层网络表示学习方法 - Google Patents

一种基于图注意力机制的多层网络表示学习方法 Download PDF

Info

Publication number
CN112966706A
CN112966706A CN202011460565.XA CN202011460565A CN112966706A CN 112966706 A CN112966706 A CN 112966706A CN 202011460565 A CN202011460565 A CN 202011460565A CN 112966706 A CN112966706 A CN 112966706A
Authority
CN
China
Prior art keywords
network
layer
loss function
node
matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011460565.XA
Other languages
English (en)
Inventor
蓝川媚
王文俊
焦鹏飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN202011460565.XA priority Critical patent/CN112966706A/zh
Publication of CN112966706A publication Critical patent/CN112966706A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/29Graphical models, e.g. Bayesian networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种基于图注意力机制的多层网络表示学习方法,步骤1、获取多层网络拓扑信息;其中,所述网络拓扑信息包括各层网络的层内邻接矩阵和跨层连接矩阵;步骤2、构建各层基于图注意力机制的网络表示学习模型;步骤3、将各层网络的层内邻接矩阵分别输入网络表示学习模型进行模型训练获得各层网络的节点表示向量;步骤4、通过网络表示学习模型的层内连接损失函数和跨层连接损失函数构建网络表示学习模型整体损失函数;步骤5、通过网络表示学习模型整体损失函数判断网络表示学习模型是否满足收敛条件;如果满足,输出各层网络最终的低维表示向量;否则返回步骤3;该方法能够处理不同类型节点,同时考虑层内连接信息和跨层连接信息的多层网络表示学习方法。

Description

一种基于图注意力机制的多层网络表示学习方法
技术领域
本发明属于多层网络表示方法的技术领域,特别涉及一种基于图注意力机制的多层异构 网络表示学习方法。
背景技术
网络作为一种重要的数据表示形式,是表达事物之间关联关系的有效载体,在实际生活 中无处不在。有效的网络分析可以使许多应用受益,例如节点分类,节点聚类,节点检索或 推荐,链路预测等。然而,随着信息时代的发展,所面临的信息网络越来越复杂,各行各业 对数据处理的速度和有效性也提出了更高的需求。采用邻接矩阵这种高维稀疏的编码方式来 表示网络中的节点,大多数网络形分析方法都会遇到高额的计算和空间成本等问题,很难被 机器学习算法处理。
因此,网络表示学习开始引起关注。网络表示学习主要用于学习网络数据在低维潜在空 间中的向量表示。然后,在学习到的低维空间上应用传统的机器学习算法,用于之后的网络 分析任务。这种表示方法不仅能够刻画网络的结构,并且有利于减少计算成本。
最近十多年来,复杂网络表示学习取得许多重要的成果。但是,现有的网表示学习大多 数的研究还是集中单层网络,却忽略了现实中多种网络相互作用的存在,例如由航空网、铁 路网和公路网组成的交通网络,以及基因网络、代谢网络、蛋白质–蛋白质相互作用网络等。 所以单层网络已经不能满足实际研究的要求。
此外,在实际的应用中,由于测量误差和数据访问限制,单一的网络中往往会包含一些 假节点和假连接(即网络中的数据噪声),还有一些丢失的节点和丢失的连接(即网络数据的 不完整性),这些缺陷会大大影响网络表示学习所得到表示向量的质量,但是单一网络错误或 者缺失的信息,可以通过与他相关联的网络的信息来进行纠正或者补充。因此,单一网络表 示学习的局限性的一个有效方法之一,就是利用多层相关联网络中的补充信息来提高表示学 习的质量。因此,多层网络表示学习成为当今复杂网络表示学习领域最前沿的重要研究方向 之一。
发明内容
本发明提出了一种基于图注意力机制的多层网络表示学习方法,该方法能够处理不同类 型节点,同时考虑层内连接信息和跨层连接信息的多层网络表示学习方法。
为解决现有技术存在的问题,本发明采用如下技术方案予以实施:
一种基于图注意力机制的多层网络表示学习方法,包括如下步骤:
步骤1、获取多层网络拓扑信息;其中,所述网络拓扑信息包括各层网络的层内邻接矩 阵和跨层连接矩阵;
步骤2、构建各层基于图注意力机制的网络表示学习模型;
步骤3、将各层网络的层内邻接矩阵分别输入网络表示学习模型进行模型训练获得各层 网络的节点表示向量;
步骤4、通过网络表示学习模型的层内连接损失函数和跨层连接损失函数构建网络表示 学习模型整体损失函数;
重复训练步骤2中的模型,直到模型收敛或者到达预先设定的训练次数;
步骤5、通过网络表示学习模型整体损失函数判断网络表示学习模型是否满足收敛条件; 如果满足,输出各层网络最终的低维表示向量;否则返回步骤3。
进一步,所述单层网络表示学习模型搭建过程:
步骤2.1、确定图注意力层输入数据为:网络中节点的特征向量集;
Figure BDA0002831414610000021
其中,n为节点个数,F为节点特征的个数;矩阵A的大小是N×F,表示由网络中所有节 点特征组合而成;
Figure BDA0002831414610000022
代表了网络中某个节点的特征向量,因此大小为1×F;
步骤2.2、确定图注意力层输出数据为:新的节点特征表示向量;
Figure BDA0002831414610000023
其中,F′表示新的节点特征向量维度;
步骤2.3、针对每个节点,计算它与网络其他节点之间的注意力系数:
Figure BDA0002831414610000024
其中,
Figure BDA0002831414610000025
为注意力机制,是一个单层的前馈神经网络;更具体地,
Figure BDA0002831414610000026
是连接神 经网络中层与层之间的权重矩阵;
Figure BDA0002831414610000027
为表达矩阵节点输入特征矩阵与输出特征矩阵 之间的关系的权重矩阵;eij表示第i个节点和第j个节点之间的注意力系数;
步骤2.4、对注意力系数eij进行归一化处理,得到归一化后的注意力系数αij;具体计算 方式如下:
Figure RE-GDA0003060598360000028
其中,||是连接操作符,将两个矩阵拼接起来;.T表示矩阵的转置;Ni表示网络中第i个节 点的所有邻居节点集合;LeakyReLu函数计算方式如下:
Figure BDA0002831414610000031
其中,t为该函数赋予所有负值的非零斜率;
步骤2.5、通过注意力机制来计算每个节点的输出表示向量,具体计算方式如下:
Figure BDA0002831414610000032
其中,σ为非线性激活函数sigmoid,具体计算方式如下:
Figure RE-GDA0003060598360000033
进一步,所述步骤3中的将各层网络的层内邻接矩阵一共含有g个邻接矩阵,具体如下:
A={A1,A2,…,Ag}
其中,
Figure BDA0002831414610000034
ni为第i层网络的节点数量;需要g个图注意力机制神经网 络模块,分别对所述步骤3中的g个单层网络进行训练。
进一步,所述步骤4中网络表示学习模型整体损失函数过程:
步骤4.1、构建层内连接损失函数,采用网络重构的方式进行计算。第l层网络的层内连 接损失函数,其具体计算方式如下:
Figure BDA0002831414610000035
其中,矩阵
Figure BDA0002831414610000036
表示第l层网络经过图注意力机制 模型训练,所输出该层网络的所有节点表示向量组合;
步骤4.2、构建跨层连接损失函数,具体计算方式如下:
Figure BDA0002831414610000037
其中,
Figure BDA0002831414610000038
表示归一化后的Dl,k,具体计算方式如下:
对于矩阵Dl,k中的任意元素值Dl,k(i,j),其归一化后的值为:
Figure BDA0002831414610000039
步骤4.3、根据步骤4.1所定义的层内损失函数和步骤4.2所定义的跨层损失函数,定 义模型整体的损失函数,具体定义方式如下:
Figure BDA00028314146100000310
其中,l∈[1,g],Loss(l)表示第l层网络的整体损失函数;其中,δ为自定参数,表示跨 层损失函数在整体损失函数中的权重。
有益效果
本发明提出了一种能够处理不同类型节点,同时考虑层内连接信息和跨层连接信息的多 层网络表示学习方法,具有如下特点:
1,能够对多层异质网络进行表示学习;
2,节点表示向量保留多层网络中的层内连接信息和跨层连接信息;
3,采用基于图注意力机制的方式进行表示学习模型训练。
附图说明
图1为本发明方法的流程图;
图2为本发明方法的模型总体架构示例图;
具体实施方式:
以下结合实施案例和附图,对本发明的技术和方法进行详细描述,以下案例和附图用于 说明本发明的构成,但不是用来限定本发明的范围。
如图1本发明的技术方案是基于图注意机制对多层异质网络进行表示学习,包括如下步骤:
步骤1、获取多层网络拓扑信息;其中,所述网络拓扑信息包括各层网络的层内邻接矩阵 和跨层连接矩阵;更具体地,所述步骤1中的多层网络可表示为:
G={G1,G2,…,Gg}
其中,g为网络层数,具体值为3。
更具体地,所述步骤1中的各层网络层内邻接矩阵可表示为:
A={A1,A2,…,Ag}
其中,
Figure BDA0002831414610000041
其中,ni为第i层网络的节点数量。
而且,所述步骤1中的跨层连接矩阵可表示为:
D={Dk,l,Dk,l+1,…,Dk,g}
其中,k,l∈[1,g]且k≠l;
Figure BDA0002831414610000042
表示第k层网络和第l层网络的连接矩阵。
步骤2、搭建基于图注意力机制的单层网络表示学习模型;
所述步骤2中多层网络表示学习模型为一种基于图注意力机制的多层网络表示学习模型; 更进一步地,所述图注意力机制模型搭建步骤具体如下:
步骤2.1、确定图注意力层输入数据为:网络中各层的邻接矩阵。具体如下:
Figure BDA0002831414610000043
其中,n为节点个数,F为节点特征的个数。
其中,矩阵A的大小是n×n;
Figure BDA0002831414610000044
代表了网络中某个节点的与其他节点的连接情况,因此 大小为1×n。
步骤2.2、确定图注意力层输出数据为:新的节点特征表示向量。具体如下:
Figure BDA0002831414610000051
其中,F′表示新的节点特征向量维度,具体值为100。
步骤2.3、针对每个节点,计算它与网络其他节点之间的注意力系数:
Figure BDA0002831414610000052
其中,
Figure BDA0002831414610000053
为注意力机制,是一个单层的前馈神经网络;更具体地,
Figure BDA0002831414610000054
是连接神 经网络中层与层之间的权重矩阵。
其中,
Figure BDA0002831414610000055
为表达矩阵节点输入特征矩阵与输出特征矩阵之间的关系的权重矩阵。
其中,eij表示第i个节点和第j个节点之间的注意力系数。
步骤2.4、对注意力系数eij进行归一化处理,得到归一化后的注意力系数αij。具体计算 方式如下:
Figure RE-GDA0003060598360000056
其中,||是连接操作符,将两个矩阵拼接起来。
其中,.T表示矩阵的转置。
其中,Ni表示网络中第i个节点的所有邻居节点集合。
其中,在本发明中LeakyReLu具体计算方式如下:
Figure BDA0002831414610000057
步骤2.5、通过注意力机制来计算每个节点的输出表示向量,具体计算方式如下:
Figure BDA0002831414610000058
其中,σ为非线性激活函数sigmoid,具体计算方式如下:
Figure RE-GDA0003060598360000059
步骤3、将各层网络的层内邻接矩阵分别输入到步骤2中所述的网络表示学习模型;使 用步骤2中所述的网络表示学习,以及步骤3中所述的输入数据进行模型训练,得到各层网 络的节点初始表示向量。
所述步骤3中的将各层网络的层内邻接矩阵一共含有g个邻接矩阵,具体如下:
A={A1,A2,…,Ag}
其中,
Figure BDA00028314146100000510
ni为第i层网络的节点数量;需要g个图注意力机制神经网 络模块,分别对所述步骤3中的g个单层网络进行训练。更具体地,需要g个图注意力机制神 经网络模块,分别对所述步骤3中的g个单层网络进行训练。
步骤4、使用模型的层内连接损失函数和跨层连接损失函数定义模型整体损失函数,并 优化步骤3中得到的节点表示向量,重复训练步骤2中的模型,直到模型收敛或者到达预先 设定的训练次数。
更具体地,所述步骤5中的模型损失函数应尽量使训练得到的节点向量表示能够保留原 始网络中的拓扑结构信息。具体步骤如下:
步骤4.1、构建层内连接损失函数,采用网络重构的方式进行计算。第l层网络的层内连 接损失函数,其具体计算方式如下:
Figure BDA0002831414610000061
其中,矩阵
Figure BDA0002831414610000062
表示第l层网络经过图注意力机制 模型训练,所输出该层网络的所有节点表示向量组合。
步骤4.2、构建跨层连接损失函数,具体计算方式如下:
Figure BDA0002831414610000063
其中,
Figure BDA0002831414610000064
表示归一化后的Dl,k,具体计算方式如下:
对于矩阵Dl,k中的任意元素值Dl,k(i,j),其归一化后的值为:
Figure BDA0002831414610000065
步骤4.3、根据步骤5.1所定义的层内损失函数和步骤5.2所定义的跨层损失函数,定 义模型整体的损失函数。具体定义方式如下:
Figure BDA0002831414610000066
其中,l∈[1,g],Loss(l)表示第l层网络的整体损失函数。
其中,δ为自定义参数,具体值为0.2,表示跨层损失函数在整体损失函数中的权重。 所述步骤5中得到的各层网络节点低维表示向量为:
H={H1,H2,…,Hg}
在本发明中也可将其表示为:
H={H(1),H(2),…,H(g)}
其中,Hi或者
Figure BDA0002831414610000067
F′为节点表示向量的维度。
上述具体实施方式总体框架示例如图2所示。将A1、A2、A3分别输入到三个图注意力机制模 型中进行训练;可以得到H(1)、H(2)、H(3);通过计算H(1)、H(2)、H(3)和Di,j,i,j∈[1,3]可以 计算出模型的损失Loss,之后判断是否继续进行模型训练。其中,图中最左边部分为三层网 络拓扑连接图示例;A1、A2、A3分别为这三个网络的邻接矩阵;H(1)、H(2)、H(3)分别各层网络节点表示向量,三个椭圆形Loss模块为损失函数计算模块,D1,2表示第一个网络和第二个网络之间的跨层连接矩阵,Di,j,i,j∈[1,3]以此类推。
本发明并不限于上文描述的实施方式。以上对具体实施方式的描述旨在描述和说明本发 明的技术方案,上述的具体实施方式仅仅是示意性的,并不是限制性的。在不脱离本发明宗 旨和权利要求所保护的范围情况下,本领域的普通技术人员在本发明的启示下还可做出很多 形式的具体变换,这些均属于本发明的保护范围之内。

Claims (4)

1.一种基于图注意力机制的多层网络表示学习方法,包括如下步骤:
步骤1、获取多层网络拓扑信息;其中,所述网络拓扑信息包括各层网络的层内邻接矩阵和跨层连接矩阵;
步骤2、构建各层基于图注意力机制的网络表示学习模型;
步骤3、将各层网络的层内邻接矩阵分别输入网络表示学习模型进行模型训练获得各层网络的节点表示向量;
步骤4、通过网络表示学习模型的层内连接损失函数和跨层连接损失函数构建网络表示学习模型整体损失函数;
步骤5、通过网络表示学习模型整体损失函数判断网络表示学习模型是否满足收敛条件;如果满足,输出各层网络最终的低维表示向量;否则返回步骤3。
2.根据权利要求2所述的一种图注意力机制的多层网络表示学习方法,其特征在于:所述单层网络表示学习模型搭建过程:
步骤2.1、确定图注意力层输入数据为:网络中节点的特征向量集;
Figure RE-FDA0003060598350000011
其中,n为节点个数,F为节点特征的个数;矩阵A的大小是N×F,表示由网络中所有节点特征组合而成;
Figure RE-FDA0003060598350000012
代表了网络中某个节点的特征向量,因此大小为1×F;
步骤2.2、确定图注意力层输出数据为:新的节点特征表示向量;
Figure RE-FDA0003060598350000013
其中,F′表示新的节点特征向量维度;
步骤2.3、针对每个节点,计算它与网络其他节点之间的注意力系数:
Figure RE-FDA0003060598350000014
其中,
Figure RE-FDA0003060598350000015
为注意力机制,是一个单层的前馈神经网络;更具体地,
Figure RE-FDA0003060598350000016
是连接神经网络中层与层之间的权重矩阵;
Figure RE-FDA0003060598350000017
为表达矩阵节点输入特征矩阵与输出特征矩阵之间的关系的权重矩阵;eij表示第i个节点和第j个节点之间的注意力系数;
步骤2.4、对注意力系数eij进行归一化处理,得到归一化后的注意力系数αij;具体计算方式如下:
Figure RE-FDA0003060598350000018
其中,||是连接操作符,将两个矩阵拼接起来;.T表示矩阵的转置;Ni表示网络中第i个节点的所有邻居节点集合;LeakyReLu函数计算方式如下:
Figure RE-FDA0003060598350000021
其中,t为该函数赋予所有负值的非零斜率;
步骤2.5、通过注意力机制来计算每个节点的输出表示向量,具体计算方式如下:
Figure RE-FDA0003060598350000022
其中,σ为非线性激活函数sigmoid,具体计算方式如下:
Figure RE-FDA0003060598350000023
3.根据权利要求1所述的一种基于图注意力机制的多层网络表示学习方法,其特征在于:
所述步骤3中的将各层网络的层内邻接矩阵一共含有g个邻接矩阵,具体如下:
A={A1,A2,…,Ag}
其中,
Figure FDA0002831414600000024
ni为第i层网络的节点数量;需要g个图注意力机制神经网络模块,分别对所述步骤3中的g个单层网络进行训练。
4.根据权利要求1所述的一种基于图注意力机制的多层网络表示学习方法,其特征在于:所述步骤4中网络表示学习模型整体损失函数过程:
步骤4.1、构建层内连接损失函数,采用网络重构的方式进行计算。第l层网络的层内连接损失函数,其具体计算方式如下:
Figure FDA0002831414600000025
其中,矩阵
Figure FDA0002831414600000026
表示第l层网络经过图注意力机制模型训练,所输出该层网络的所有节点表示向量组合;
步骤4.2、构建跨层连接损失函数,具体计算方式如下:
Figure FDA0002831414600000027
其中,
Figure FDA0002831414600000028
表示归一化后的Dl,k,具体计算方式如下:
对于矩阵Dl,k中的任意元素值Dl,k(i,j),其归一化后的值为:
Figure FDA0002831414600000029
步骤4.3、根据步骤4.1所定义的层内损失函数和步骤4.2所定义的跨层损失函数,定义模型整体的损失函数,具体定义方式如下:
Figure FDA00028314146000000210
其中,l∈[1,g],Loss(l)表示第l层网络的整体损失函数;其中,δ为自定义参数,表示跨层损失函数在整体损失函数中的权重。
CN202011460565.XA 2020-12-11 2020-12-11 一种基于图注意力机制的多层网络表示学习方法 Pending CN112966706A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011460565.XA CN112966706A (zh) 2020-12-11 2020-12-11 一种基于图注意力机制的多层网络表示学习方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011460565.XA CN112966706A (zh) 2020-12-11 2020-12-11 一种基于图注意力机制的多层网络表示学习方法

Publications (1)

Publication Number Publication Date
CN112966706A true CN112966706A (zh) 2021-06-15

Family

ID=76271272

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011460565.XA Pending CN112966706A (zh) 2020-12-11 2020-12-11 一种基于图注意力机制的多层网络表示学习方法

Country Status (1)

Country Link
CN (1) CN112966706A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113807012A (zh) * 2021-09-14 2021-12-17 杭州莱宸科技有限公司 一种基于连接强化的供水网络划分方法
CN114860952A (zh) * 2022-04-29 2022-08-05 华侨大学 一种基于数据统计和知识指导的图拓扑学习方法及系统
CN116308856A (zh) * 2023-02-10 2023-06-23 华南师范大学 一种面向多层学习者关系网络的社区发现方法及装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113807012A (zh) * 2021-09-14 2021-12-17 杭州莱宸科技有限公司 一种基于连接强化的供水网络划分方法
CN114860952A (zh) * 2022-04-29 2022-08-05 华侨大学 一种基于数据统计和知识指导的图拓扑学习方法及系统
CN116308856A (zh) * 2023-02-10 2023-06-23 华南师范大学 一种面向多层学习者关系网络的社区发现方法及装置

Similar Documents

Publication Publication Date Title
CN112966706A (zh) 一种基于图注意力机制的多层网络表示学习方法
CN108399421A (zh) 一种基于词嵌入的深度零样本分类方法
CN113132232B (zh) 一种能量路由优化方法
CN113780470B (zh) 一种基于自适应多通道交叉图卷积网络的图分类方法
CN113378047A (zh) 一种基于多方面增强的图神经网络推荐方法
CN116403730A (zh) 一种基于图神经网络的药物相互作用预测方法及系统
CN113128667B (zh) 一种跨域自适应的图卷积平衡迁移学习方法与系统
CN114679372A (zh) 一种基于节点相似性的图注意力网络的链路预测方法
CN111798934A (zh) 一种基于图神经网络的分子性质预测方法
CN111600734B (zh) 一种网络故障处理模型的构建方法、故障处理方法及系统
CN110020379B (zh) 一种基于深度动态网络嵌入表示模型的链路预测方法
CN116756308A (zh) 一种基于孪生图神经网络和集群结构的文献分类方法及系统
CN115601744A (zh) 一种车身与车牌颜色相近的车牌检测方法
CN115689639A (zh) 一种基于深度学习的商业广告点击率预测方法
CN114386600A (zh) 基于自适应结构和位置编码的网络表征方法
Bai et al. Manufacturing quality prediction based on two-step feature learning approach
CN112598115A (zh) 一种基于非局部邻关系学习的深度神经网络层次分析方法
CN116757460B (zh) 基于深度学习的应急指挥调度平台构建方法及系统
CN116030257B (zh) 一种基于NesT模型的语义分割方法
CN117114077A (zh) 基于全局图瓶颈表示的图自监督学习方法
CN115906946B (zh) 一种多视图双曲-双曲图表示学习方法
CN117851888A (zh) 基于融合的超图节点分类方法及装置
CN114638357B (zh) 基于自动联邦学习的边缘计算系统及其学习方法
CN118038203A (zh) 一种行为识别模型的训练方法及其应用方法
CN114863234A (zh) 一种基于拓扑结构保持的图表示学习方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20210615