CN113822419B - 一种基于结构信息的自监督图表示学习运行方法 - Google Patents

一种基于结构信息的自监督图表示学习运行方法 Download PDF

Info

Publication number
CN113822419B
CN113822419B CN202111130381.1A CN202111130381A CN113822419B CN 113822419 B CN113822419 B CN 113822419B CN 202111130381 A CN202111130381 A CN 202111130381A CN 113822419 B CN113822419 B CN 113822419B
Authority
CN
China
Prior art keywords
node
graph
neural network
nodes
representing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111130381.1A
Other languages
English (en)
Other versions
CN113822419A (zh
Inventor
雷方元
黄达
蒋健健
戴青云
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Polytechnic Normal University
Original Assignee
Guangdong Polytechnic Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Polytechnic Normal University filed Critical Guangdong Polytechnic Normal University
Priority to CN202111130381.1A priority Critical patent/CN113822419B/zh
Publication of CN113822419A publication Critical patent/CN113822419A/zh
Application granted granted Critical
Publication of CN113822419B publication Critical patent/CN113822419B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开一种基于结构信息的自监督图表示学习运行方法,具体步骤为:第一,获取数据样本集并对其进行预处理;第二,将数据样本集分为训练数据集和测试数据集;第三,构建图神经网络和单层感知机并定义迭代优化算法和损失函数;第四,训练图神经网络;接着将测试数据集输入已训练的图神经网络,提取测试数据集的特征,最终获得已提取的测试数据集;第五,将已提取的测试数据集输入单层感知机,进行训练迭代,得到预测标签。与现有技术相比,本发明的有益效果为:本发明的算法在使用过程中无需繁琐的增强过程,同时也减少了用于形成的对比视角所需的编码器,降低了算法的网络复杂度。

Description

一种基于结构信息的自监督图表示学习运行方法
技术领域
本发明涉及深度学习图神经网络技术领域,更具体地,涉及一种基于结构信息的自监督图表示学习运行方法。
背景技术
随着互联网技术和移动设备的发展,数据无时无刻不在爆炸式地增加,其中非结构数据如图像、文本、音频等,占据了增长的绝大部分,并且这些数据比起结构化数据会产生更重要的影响。
现有图表示学习的方法中,如基于随机游走的方法、基于图核的方法和基于图自动编码器的方法,其设计步骤过于复杂且在下游任务均表现不佳。而像基于图对比学习的方法,容易造成图自身的结构信息或者图中节点的信息丢失,需要繁琐的增强挑选过程,并且需要过多的编码器提取特征等,造成提取特征效果不佳,计算耗时和内存占用大。
发明内容
为解决现有图对比方法存在信息丢失,繁琐的增强挑选过程、内存占用和计算耗时大的问题,本发明提出一种基于结构信息的自监督图表示学习运行方法。该方法能够保留原始信息,简易有效地提取特征数据,运行时间更快,内存占用更小。
为实现上述目的,本发明的一种基于结构信息的自监督图表示学习运行方法的技术方案为:
一种基于结构信息的自监督图表示学习运行方法,具体包括以下步骤:
S1.获取数据样本集,并对其进行预处理;
S2.将所述数据样本集分为训练数据集和测试数据集;
S3.构建图神经网络和单层感知机,并定义迭代优化算法和损失函数;
S4.将训练数据集输入到图神经网络中,进行神经网络的训练迭代,优化神经网络参数,生成已训练的图神经网络;接着将测试数据集输入已训练的图神经网络,提取测试数据集的特征,最终获得已提取的测试数据集;
S5.将已提取的测试数据集输入单层感知机,进行训练迭代,得到预测标签。
进一步地,所述步骤S1具体为:
S11.对数据样本集进行行归一化处理,获得行归一化的特征数据;所述特征数据包括图节点信息和图拓扑信息;
S12.将数据样本集中的邻接矩阵加上单位矩阵,依据已加上单位矩阵的邻接矩阵求得度矩阵。
进一步地,所述步骤S3具体包括以下步骤:
S31.构建一个单层的图卷积神经网络编码器,利用该编码器提取数据样本集的特征数据;然后更新当前所有节点的信息;所述单层图卷积网络编码器公式如下:
其中,H表示输出的节点特征数据;f(·)表示编码器;X表示输入的节点特征数据;A表示图的邻接矩阵;D表示图的度矩阵;W表示可学习的参数矩阵;σ(·)表示激活函数;
S32.将步骤S31所述的特征数据送入到分配器中,分配器将每一个目标节点视为锚节点,然后分配锚节点对应的正节点以及负节点;
S33.构建单层感知机,所述单层感知机由一层全连接神经网络组成;具体公式如下:
f(X)=WX+b
其中;f(·)表示编码器;X代表输入节点特征;W代表可学习参数矩阵;b代表偏置参数。
进一步地,所述步骤S32具体包括以下步骤:
S321.将每个锚节点的所有一阶邻居节点作为锚节点的正节点候选节点,通过随机均匀抽样,抽取出其中一个节点作为该锚节点的正节点,具体公式如下:
SP(vi)=Random({j,j∈A})
其中,SP(·)表示正节点筛选器;Random(·)表示随机均匀抽样函数;Vi表示图中第i个节点;j表示锚节点的一阶邻居节点的序号;Ai.表示邻居矩阵第i行的行向量;
S322.在图上所有节点中随机均匀地抽样出一个节点作为锚节点的负节点,具体公式如下:
SN(vi)=Random({k,vk∈ν})
其中,SN(·)表示负节点筛选器;Random(·)表示随机均匀抽样函数;Vi表示图中第i个节点;V表示图中所有节点的集合;Vk表示图中第k个节点;k表示VK节点的序号;
S323.每个节点与其对应的正节点和负节点构成三联体节点组;接着将三联体组送入到三联体损失函数中。
进一步地,所述三联体损失函数计算公式如下:
其中,I表示三联体损失函数;ui表示目标节点;ReLU(·)表示线性整流函数;||·||表示L2范数正则化;hi a表示锚节点特征;hi p代表正节点特征;hi n代表负节点特征;M代表边际参数。
数据样本集中所有节点的总体损失函数的计算公式为:
其中,1(ui)表示节点ui的损失函数值;N表示图上节点个数。
进一步地,所述图神经网络采用一层图神经网络,所述单层感知机为一层全连接神经网络,其中图神经网络采用的激活函数为PReLU函数;
所述定义损失函数和迭代优化算法更具体为:迭代优化算法采用了随机梯度下降法,损失函数采用三联体损失函数TripletLoss,评价指标采用准确率Acc(Accuracy),具体计算公式如下:
其中,f(·)代表神经网络,代表锚节点,/>代表正节点,/>代表负节点,M代表边际参数,true代表预测正确的数量,Total代表所有样本数量。
优选地,所述图神经网络的参数包括学习率和最大迭代次数;所述学习率的值为0.01,所述最大迭代次数的值为5。
优选地,所述单层感知机的参数包括学习率和最大迭代次数,所属学习率的值为0.01,所述最大迭代次数的值为300。
与现有技术相比,本发明的优点及有益效果为:本发明的基于结构信息的自监督图表示学习算法在使用时无需繁琐的增强过程,解决了当前图表示学习算法中图对比学习方法过分依赖于数据增强的问题。该算法无需数据增强方法引入对比视角,不会造成图上节点信息或者结构信息丢弃,同时使用了图上本身的结构信息形成对比视角,有效地提取了图上的丰富拓扑信息。在下游任务中,如节点分类任务,提出的算法表现更佳,即分类准确率上升。另外,本发明的算法仅需采用一个编码器提取节点特征。此外,在损失函数对于每个目标节点的计算中,仅考虑一个负节点,而无需加入大量的节点加入计算,这使得算法的运行时间与内存负载都有大幅度地下降。
附图说明
图1为本发明学习算法的通讯流程图;
图2为本发明学习算法的框架图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
在本实施例中,以引文网络的节点分类预测任务作为实例,引文网络由文章以及引用关系构成。文章作为节点,引用关系作为边,两篇文章存在互相引用的关系则存在一条边连接两篇文章。所有的边与节点最终构成一个引文网络图。每个文章对应的研究领域作为它的标签。
下面结合图1至2和实施例对本发明的技术方案做进一步的说明。
一种基于结构信息的自监督图表示学习运行方法,如图1-2所示,具体包括以下步骤:
S1.获取数据样本集,并对其进行预处理;
S11.获取数据样本集,包括代表文章的节点特征数据矩阵X,代表引用关系的邻接矩阵A。接着将原始数据集的特征数据进行行归一化,获得行归一化的特征数据。其中,归一化的公式具体为:
其中,i表示节点序号;j表示该节点特征维度;xij表示第i个节点的第j维的特征数据;D表示特征维度的总个数。
S12.将原始数据集中的邻接矩阵加上单位矩阵,依据已加上单位矩阵的邻矩阵求得度矩阵。
S2.将原始的样本数据集划分为训练数据集和测试数据集;
将预处理的引文网络数据样本集,按照标准划分规则将数据集划分为训数据集和测试数据集;通常训练数据集占总样本的80%,测试数据集占总样的20%,具体划分规则可依据实际情况而定。
S3.构建图神经网络和单层感知机,并定义损失函数和迭代优化算法;
上述的图神经网络和单层感知机,图神经网络采用一层图神经网络,单层感知机为一层全连接神经网络,其中图神经网络采用的激活函数为PReLU函数;
迭代优化算法使用了随机梯度下降法,损失函数采用三联体损失函数TripletLoss,评价指标采用准确率Acc(Accuracy),具体计算公式如下:
其中,f(·)代表神经网络,代表锚节点,/>代表正节点,/>代表负节点,M代表边际参数,true代表预测正确的数量,Total代表所有样本数量。
S31.构建一个单层的图卷积神经网络编码器提取特征数据,然后更新当前所有节点的信息;所述单层图卷积网络编码器公式如下:
其中,H表示输出的节点特征数据;f(·)表示编码器;X表示输入的节点特征数据;A表示图的邻接矩阵;D表示图的度矩阵;W表示可学习的参数矩阵;σ(·)表示激活函数。
S32.将图卷积神经网络编码器提取的特征数据送入到分配器中,分配器将每一个目标节点视为锚节点,然后分配锚节点相应的正节点以及负节点。
S321.将每个锚节点的所有一阶邻居节点作为锚节点的正节点候选节点,通过随机均匀抽样,抽取出其中一个节点作为该锚节点的正节点,具体公式如下:
SP(υi)=Random({j,j∈A})
其中,SP(·)表示正节点筛选器;Random(·)表示随机均匀抽样函数;Vi表示图中第i个节点;j表示锚节点的一阶邻居节点的序号;Ai.表示邻居矩阵第i行的行向量;
S322.在图上所有节点中随机均匀地抽样出一个节点作为锚节点的负节点,具体公式如下:
SN(vi)=Random({k,vk∈ν})
其中,SN(·)表示负节点筛选器;Random(·)表示随机均匀抽样函数;Vi表示图中第i个节点;V表示图中所有节点的集合;Vk表示图中第k个节点;k表示VK节点的序号;
S323.每个节点都与其对应的正节点和负节点构成一个三联体节点组,即锚节点、正节点和负节点;将三联体组送入到三联体损失函数中。三联体损失函数通过反向传播算法将三联体中的正节点与锚节点的特征表示之间距离变小,同时使负节点与锚节点的特征表示之间距离变大;即使整个图上同类节点之间的聚合更加紧密,不同类节点之间的差异更加明显。对于每个目标节点的三联体损失函数公式如下:
每个目标节点的三联体损失函数的计算公式如下:
其中,I表示三联体损失函数;ui表示目标节点;ReLU(·)表示线性整流函数;||·||表示L2范数正则化;hi a表示锚节点特征;hi p代表正节点特征;hi n代表负节点特征;M代表边际参数。
图上所有节点的总体损失函数的计算公式为:
其中,l(ui)表示节点ui的损失函数值;N表示图上节点个数。
S33.构建由一层全连接神经网络组成的单层感知机,具体公式如下:
f(X)=WX+b
其中;X代表输入节点特征;W代表可学习参数矩阵;b代表偏置参数。
S4.将训练数据集输入到图神经网络中,进行神经网络的训练迭代,优化神经网络参数,生成已训练的图神经网络;接着将测试数据集输入到已训练好的图神经网络,对测试数据集特征进行提取,获得已提取的测试数据集;
将训练数据集作为图神经网络的输入,进行图神经网络的训练迭代,优化神经网络参数,直至模型收敛,训练完成,保存已训练完成的图神经网络权重参数;其中,被图神经网络提取的节点特征数据为输出结果。
接着将测试数据集输入到已训练好的图神经网络,对测试数据集特征进行提取,获得已提取的测试数据集。
S5.将已提取的测试数据集送入到单层感知机,进行训练迭代,得到预测标签。
将已提取测试的测试数据集输入到已构建的单层感知机中进行训练,优化迭代。当迭代次数达到最大迭代次数后,输出对应节点的预测标签,与节点实际的标签比对,计算分类准确率,具体实验结果如图1所示。分类准确率计算公式如下,
其中,true代表预测正确的数量,Total代表所有样本数量。
在本实施例中,图神经网络的参数包括学习率和最大迭代次数;所述学习率的值为0.01,所述最大迭代次数的值为5。单层感知机的参数包括学习率和最大迭代次数,所属学习率的值为0.01,所述最大迭代次数的值为300。
基于上述方法的自监督图表示学习算法SimGRL的数据提取方法,将其与公共公开引文网络数据集进行了不同方法的对比,最终的对比结果如表1所示。所述引文网络数据集包括Cora、Citeseer、Pubmed、Coauthor CS和Coauthor Physics数据集。其中,采用的对比指标是准确率和标准差。对比方法包括DGI(一种基于深度图互信息的图对比方法)、GraphCL(一种基于图增强的图对比方法)、GCA(一种基于自适应图增强的图对比方法)和SelfGNN(一种基于节点特征增强的图对比方法)。
表1在各个标准数据集上不同方法的节点分类准确率对比
其中,X表示输入节点特征矩阵,A表示邻接矩阵,OOM表示该实验所需计算机内存过大无法进行实施。
实验表明,与现有图对比方法相比,本发明方法在其中四个数据集上达到最佳的分类准确率。这证明本发明方法的节点特征提取性能要优于现有方法。
另外,在Cora和CiteSeer数据集下,对不同方法的运行时间以及内存占用进行对比,对比结果如表2所示。其中,对比指标包括运行时间(running time)和内存负载(memoryoverhead),单位分别为秒和兆字节。
表2在Cora和CiteSeer数据集下不同方法的运行时间以及内存占用对比
对比实验表明,所提发明方法在运行时间上远远低于现有方法,运行时间从秒级降低到了毫秒级。在内存负载上,本发明方法同样取得最低的内存负载。
值得说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (5)

1.一种基于结构信息的自监督图表示学习运行方法,其特征在于,包括以下步骤:
S1.获取引文网络数据样本集,并对其进行预处理;引文网络由文章以及引用关系构成,文章作为节点,引用关系作为边,两篇文章存在互相引用的关系则存在一条边连接两篇文章,所有的边与节点最终构成一个引文网络图,每个文章对应的研究领域作为它的标签,
具体包括以下步骤:
S11.对数据样本集进行行归一化处理,获得行归一化的特征数据;所述特征数据包括图节点信息和图拓扑信息;
S12.将数据样本集中的邻接矩阵加上单位矩阵,依据已加上单位矩阵的邻接矩阵求得度矩阵;
S2.将所述数据样本集分为训练数据集和测试数据集;
S3.构建图神经网络和单层感知机,并定义迭代优化算法和损失函数;
具体包括以下步骤:
S31.构建一个单层的图卷积神经网络编码器,利用该编码器提取数据样本集的特征数据;然后更新当前所有节点的信息;所述单层的图卷积神经网络编码器公式如下:
其中,H表示输出的节点特征数据;f(·)表示编码器;X表示输入的节点特征数据;A表示图的邻接矩阵;D表示图的度矩阵;W表示可学习的参数矩阵;σ(·)表示激活函数;
S32.将步骤S31所述的特征数据送入到分配器中,分配器将每一个目标节点视为锚节点,然后分配锚节点对应的正节点以及负节点;
具体包括以下步骤:
S321.将每个锚节点的所有一阶邻居节点作为锚节点的正节点候选节点,通过随机均匀抽样,抽取出其中一个节点作为该锚节点的正节点,具体公式如下:
SP(vi)=Random({j,j∈Ai.})
其中,SP(·)表示正节点筛选器;Random(·)表示随机均匀抽样函数;Vi表示图中第i个节点;j表示锚节点的一阶邻居节点的序号;A表示邻居矩阵第i行的行向量;
S322.在图上所有节点中随机均匀地抽样出一个节点作为锚节点的负节点,具体公式如下:
其中,SN(·)表示负节点筛选器;Random(·)表示随机均匀抽样函数;Vi表示图中第i个节点;V表示图中所有节点的集合;Vk表示图中第k个节点;k表示Vk节点的序号;
S323.每个节点与其对应的正节点和负节点构成三联体节点组;接着将三联体组输入至三联体损失函数中;
S33.构建单层感知机,所述单层感知机由一层全连接神经网络组成;具体公式如下:
f(X)=WX+b
其中;f(·)表示编码器;X代表输入节点特征;W代表可学习参数矩阵;b代表偏置参数;
S4.将训练数据集输入到图神经网络中,进行神经网络的训练迭代,优化神经网络参数,生成已训练的图神经网络;接着将测试数据集输入已训练的图神经网络,提取测试数据集的特征,最终获得已提取的测试数据集;
S5.将已提取的测试数据集输入单层感知机,进行训练迭代,得到预测标签。
2.根据权利要求1所述的方法,其特征在于:所述三联体损失函数计算公式如下:
其中,l表示三联体损失函数;ui表示目标节点;ReLU(·)表示线性整流函数;||·||表示L2范数正则化;hi a表示锚节点特征;hi p代表正节点特征;hi n代表负节点特征;M代表边际参数;
数据样本集中所有节点的总体损失函数的计算公式为:
其中,l(ui)表示节点ui的损失函数值;N表示图上节点个数。
3.根据权利要求1所述的方法,其特征在于:所述图神经网络采用一层图神经网络,所述单层感知机为一层全连接神经网络,其中图神经网络采用的激活函数为PReLU函数;
所述定义迭代优化算法和损失函数更具体为:迭代优化算法采用了随机梯度下降法,损失函数采用三联体损失函数Triplet Loss,评价指标采用准确率Acc(Accuracy),具体计算公式如下:
其中,f(·)表示神经网络,表示锚节点,/>表示正节点,/>表示负节点,M表示边际参数,true表示预测正确的数量,Total表示所有样本数量。
4.根据权利要求1所述的方法,其特征在于:所述图神经网络的参数包括学习率和最大迭代次数;所述学习率的值为0.01,所述最大迭代次数的值为5。
5.根据权利要求1所述的方法,其特征在于:所述单层感知机的参数包括学习率和最大迭代次数,所属学习率的值为0.01,所述最大迭代次数的值为300。
CN202111130381.1A 2021-09-26 2021-09-26 一种基于结构信息的自监督图表示学习运行方法 Active CN113822419B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111130381.1A CN113822419B (zh) 2021-09-26 2021-09-26 一种基于结构信息的自监督图表示学习运行方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111130381.1A CN113822419B (zh) 2021-09-26 2021-09-26 一种基于结构信息的自监督图表示学习运行方法

Publications (2)

Publication Number Publication Date
CN113822419A CN113822419A (zh) 2021-12-21
CN113822419B true CN113822419B (zh) 2023-08-01

Family

ID=78921290

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111130381.1A Active CN113822419B (zh) 2021-09-26 2021-09-26 一种基于结构信息的自监督图表示学习运行方法

Country Status (1)

Country Link
CN (1) CN113822419B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114662687B (zh) * 2022-03-15 2024-04-16 东南大学 一种基于层间互信息的图对比学习方法及系统
CN115056829A (zh) * 2022-05-16 2022-09-16 北京理工大学 多车型连续学习的列车运动状态估计方法
CN115204372B (zh) * 2022-07-20 2023-10-10 成都飞机工业(集团)有限责任公司 一种基于项游走图神经网络的前提选择方法及系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108710104A (zh) * 2018-03-15 2018-10-26 内蒙古科技大学 用于煤矿井下巷道的目标物的实时定位的方法和系统
CN111709311A (zh) * 2020-05-27 2020-09-25 西安理工大学 一种基于多尺度卷积特征融合的行人重识别方法
CN111898730A (zh) * 2020-06-17 2020-11-06 西安交通大学 一种利用图卷积神经网络结构加速的结构优化设计方法
CN112036445A (zh) * 2020-08-06 2020-12-04 中国人民解放军战略支援部队信息工程大学 基于神经张量网络的跨社交网络用户身份识别方法
CN112966114A (zh) * 2021-04-10 2021-06-15 北京工商大学 基于对称图卷积神经网络的文献分类方法和装置
CN113343123A (zh) * 2021-06-21 2021-09-03 中国科学技术大学 一种生成对抗多关系图网络的训练方法和检测方法
CN113362491A (zh) * 2021-05-31 2021-09-07 湖南大学 一种车辆轨迹预测及驾驶行为分析方法
WO2021184311A1 (zh) * 2020-03-19 2021-09-23 中山大学 一种自动生成可推理问答的方法和装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108710104A (zh) * 2018-03-15 2018-10-26 内蒙古科技大学 用于煤矿井下巷道的目标物的实时定位的方法和系统
WO2021184311A1 (zh) * 2020-03-19 2021-09-23 中山大学 一种自动生成可推理问答的方法和装置
CN111709311A (zh) * 2020-05-27 2020-09-25 西安理工大学 一种基于多尺度卷积特征融合的行人重识别方法
CN111898730A (zh) * 2020-06-17 2020-11-06 西安交通大学 一种利用图卷积神经网络结构加速的结构优化设计方法
CN112036445A (zh) * 2020-08-06 2020-12-04 中国人民解放军战略支援部队信息工程大学 基于神经张量网络的跨社交网络用户身份识别方法
CN112966114A (zh) * 2021-04-10 2021-06-15 北京工商大学 基于对称图卷积神经网络的文献分类方法和装置
CN113362491A (zh) * 2021-05-31 2021-09-07 湖南大学 一种车辆轨迹预测及驾驶行为分析方法
CN113343123A (zh) * 2021-06-21 2021-09-03 中国科学技术大学 一种生成对抗多关系图网络的训练方法和检测方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Multi-Stage Self-Supervised Learning for Graph Convolutional Networks on Graphs with Few Labeled Nodes;Ke Sun 等;The Thirty-Fourth AAAI Conference on Artificial Intelligence (AAAI-20)(第4期);5892-5898 *
Self-Supervised Learning with Graph Neural Networks for Region of Interest Retrieval in Histopathology;Yigit Ozen 等;2020 25th International Conference on Pattern Recognition (ICPR);6329-6333 *
基于实体图神经网络的事实核实方法;黄周捷 等;指挥信息系统与技术(第03期);17-21 *
基于深度学习的车联边缘网络交通事故风险预测算法研究;赵海涛 等;电子与信息学报(第01期);50-55 *
神经网络在图像压缩技术中的应用;刘春阳 等;工程数学学报(第03期);67-78 *

Also Published As

Publication number Publication date
CN113822419A (zh) 2021-12-21

Similar Documents

Publication Publication Date Title
CN113822419B (zh) 一种基于结构信息的自监督图表示学习运行方法
CN111125358B (zh) 一种基于超图的文本分类方法
CN107832787B (zh) 基于双谱自编码特征的雷达辐射源识别方法
US20190228268A1 (en) Method and system for cell image segmentation using multi-stage convolutional neural networks
CN111192270A (zh) 一种基于点全局上下文关系推理的点云语义分割方法
CN109284406B (zh) 基于差异循环神经网络的意图识别方法
CN110322445B (zh) 基于最大化预测和标签间相关性损失函数的语义分割方法
CN110929848B (zh) 基于多挑战感知学习模型的训练、跟踪方法
CN112685504B (zh) 一种面向生产过程的分布式迁移图学习方法
EP3620982B1 (en) Sample processing method and device
US20210241112A1 (en) Neural network update method, classification method and electronic device
CN112529638B (zh) 基于用户分类和深度学习的服务需求动态预测方法及系统
CN116503676B (zh) 一种基于知识蒸馏小样本增量学习的图片分类方法及系统
CN109063983B (zh) 一种基于社交媒体数据的自然灾害损失实时评估方法
CN106529397A (zh) 一种非约束环境中的人脸特征点定位方法及系统
CN112861718A (zh) 一种轻量级特征融合人群计数方法及系统
CN111353534B (zh) 一种基于自适应分数阶梯度的图数据类别预测方法
CN114782761A (zh) 基于深度学习的智能仓储物料识别方法和系统
CN109033413B (zh) 一种基于神经网络的需求文档和服务文档匹配方法
CN116884067A (zh) 一种基于改进的隐式语义数据增强的微表情识别方法
CN111160077A (zh) 一种大规模人脸动态聚类方法
Li et al. Handwritten digit recognition via active belief decision trees
CN114140848A (zh) 基于knn和dsn的微表情识别方法、系统、设备及存储介质
CN113283519A (zh) 一种基于离散系数的深度神经网络近似模型分析方法
CN112749345A (zh) 一种基于神经网络的k近邻矩阵分解推荐方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant