CN110909867A - 一种基于力导图的图神经网络可视分析方法 - Google Patents

一种基于力导图的图神经网络可视分析方法 Download PDF

Info

Publication number
CN110909867A
CN110909867A CN201911170016.6A CN201911170016A CN110909867A CN 110909867 A CN110909867 A CN 110909867A CN 201911170016 A CN201911170016 A CN 201911170016A CN 110909867 A CN110909867 A CN 110909867A
Authority
CN
China
Prior art keywords
force
graph
nodes
node
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911170016.6A
Other languages
English (en)
Inventor
俞业洋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nantong Hengqu New Materials Co Ltd
Original Assignee
Nantong Hengqu New Materials Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nantong Hengqu New Materials Co Ltd filed Critical Nantong Hengqu New Materials Co Ltd
Priority to CN201911170016.6A priority Critical patent/CN110909867A/zh
Publication of CN110909867A publication Critical patent/CN110909867A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

本发明公开了一种基于力导图的图神经网络可视分析方法,该方法包含以下步骤:S1、构建图神经网络模型,统计图网神经网络中间隐藏层输出;S2、构建力导图模型,将图网神经网络中间隐藏层的输出作为力导图模型的输入;S3、根据力导图中结点的受力情况,迭代更新力导图中结点的位置,当图中所有结点力平衡或者更新位移小于阈值时得到最终布局。本发明系统与方法对应。本发明提供了连续稳定的可视化结果,从可视分析角度解释了图神经网络学习的有效性。利用力导图模型可视分析图神经网络迭代训练过程中的隐藏层输出,说明了图神经网络训练学习的有效性,增强了图神经网络的可解析性。

Description

一种基于力导图的图神经网络可视分析方法
技术领域
本发明涉及可视分析技术领域,具体为一种基于力导图的图神经网络可视分析方法。
背景技术
随着大数据时代的来临,海量数据结合高性能计算资源促使各种神经网络被提出。作为重要代表的深度卷积神经网络(Convolutional neural networks,CNN)具有多层结构,使得它相比传统的机器学习方法拥有更强的特征表达和学习能力。他在计算机视觉领域取得了非凡的成就,包括图像分类、图像分割、目标检测、人脸识别等任务在诸多基线数据集上效果都优于传统的机器学习方法。另一种处理序列数据的循环神经网络(Recurrent neural networks,RNN)则在自然语言领域取得了重大突破,包括语言识别,机器翻译,文本分类等问题获得了突破性进展。以这两类神经网络为代表的深度学习发展掀起了人工智能的浪潮。
但是现实世界中除了规则的网格数据和时序数据,更多的是不规则的图形数据,例如社交网络,交通网络,蛋白质网络,引文网络等。而这些不规则图形数据无法直接通过常规的卷积神经网络和循环神经网络处理。因此利用CNN、RNN自动提取特征的能力,一般化到图结构数据上是一个很有意义的工作。于是基于图结构数据的图神经网络开始被广泛研究。图神经网络是一个端到端的学习模型,输入为图的拓扑结构信息、结点和边的特征向量信息,通过随机梯度下降的方向训练中间隐藏层参数,输出和学习任务相关的图信息。经过训练好的图神经网络能够有效的提取图中结点、边和全局的特征,从而完成图上的结点分类、链接预测、层次划分等任务。最近大量图神经网络模型被学者提出。2015年,Henaff等人利用基于谱图理论的图卷积来定义图卷积核(filter)。2016年,图卷积神经网络(Graphconvolutional neural networks,GCNN)被Defferrard等人提出,他们试图将处理规则网格的图像数据的CNN应用到处理图结构数据上。他们定义了带有切比雪夫多项式在谱域中得到了近似平滑的过滤器,在常用基线数据集手写数字集(MNIST)上取得了良好结果。2017年,Kipf和Welling提出了一种简化版本的GCNN:图卷积网络(graph convolutionalnetworks, GCN),将他应用在半监督学习图节点分类任务上。
图卷积神经网络和其他深度学习模型一样,缺乏严格的数学论证理论基础,可解释性也不如传统机器学习。本质上,图网络中间的隐藏层参数更新过程体现了图神经网络的学习过程。我们从可视化角度观察其参数的更新过程,进而说明图神经网络的学习有效性,增强图神经网络的可解析性。
发明内容
本发明的目的在于提供一种基于力导图的图神经网络可视分析方法,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:一种基于力导图的图神经网络可视分析方法,该方法包括以下步骤:
S1、构建图神经网络模型,统计图网神经网络中间隐藏层的输出;
S2、构建力导图模型,将图网神经网络中间隐藏层的输出作为力导图模型的输入;
S3、根据力导图中结点的受力情况,迭代更新力导图中结点的位置,当图中所有结点力平衡或者更新位移小于阈值得到最终布局。
优选的,在步骤S1中,选定图卷积神经网络作为代表,它自动提取结点特征,结点能融合周围节点的信息来更新自己信息,最后实现预测、分类等任务,具体步骤如下:
a、准备数据集:采用引文网络数据集,其中,每一篇论文为一个结点,论文间的引用关系为边,这样就构成了一个论文引用网络,统计所有论文中出现的词汇,节选出现频率较高的词汇作为特征词汇,按词汇出现频度降序排序得到一个词袋表,根据这个词袋表,统计每一篇论文中是否包含了词袋表中对应的单词,如果出现在该维度数值为1,否则为0;这样可以得到每篇论文的词向量表达,将他作为引文网络中结点的特征向量,每篇论文有一个所属类别,根据其所属类别构建一个独热向量,只在其所属类别位置为1其他位置为0,作为论文引用网络中结点的标签,按照一定比例划分训练集、验证集和测试集;
b、构建图神经网络模型:采用两层的GCN模型,预测引文网络中结点所属类别,第一层的输入为论文引用网络的邻接矩阵和每个结点的特征向量,邻接矩阵包含了图的拓扑结构信息,每个结点特征向量包含了论文中的词汇信息,第一层的输出为一个N*F维度的隐藏层矩阵,其中N表示结点数量,F为每个结点卷积后的特征向量维度,第一层的输出做为第二层的输入,第二层输出为一个N*C维度的矩阵,其中N表示结点数量,C为每个结点可能属于引文类别的数量;最后经过softmax函数,得到每篇论文属于引文类别的概率向量,模型采用的损失函数为交叉熵损失函数,通过随机梯度下降法优化网络中的参数。
优选的,在步骤S2中,构建力导图模型具体操作包含如下步骤:
首先在图中随机分布N个结点,将每个结点视为一个小球,每个小球受到其他小球的拉力或者斥力,这样在相互作用力下运动,改变原有的位置,通过调整位置来改变受力情况,最终达到一个力平衡状态,即获得当前作用力下的最佳布局;图神经网络网络隐藏层的输出是每个节点特征向量组成的矩阵,通过计算每个向量之间相似性来决定力导图中节点间的作用力大小,这样在不同的作用力大小下会得到不同的力导图布局,相似性高的节点向量对应的节点之间引力更大,最终反映在力导图布局中便是两个结点相对位置较近。
优选的,在步骤S3中,更新力导图中结点位置,确定力导图中最终布局包含如下步骤:
力导图中的图结构和原始输入图中的结构相同,即具有相同的顶点和边,每个结点受到两类作用力:拉力和斥力;拉力来自和它有边直接连接的邻居结点,大小根据对应结点向量的相似性计算,方向是沿着两结点连线方向指向邻居结点,斥力来自于图中其他结点,大小是和两个结点距离平方成反比,方向是沿着两个结点位置线段指向当前结点;每个结点根据所受拉力和斥力情况利用力的合成规则计算合力,最后根据合力的大小和方向计算该结点在布局中的下一个位置,这样一轮计算更新图中所有结点位置,再根据新的位置重新计算每个结点的拉力和斥力,获得新的布局,直到所有结点在一轮中更新的位移大小之和小于一个阈值时达到稳定状态,即在对应图神经网络在某一时刻中学习到的参数情况,在图神经网络更新中间隐藏层参数后,对应的结点特征向量发生改变,力导图中结点间引力发生变化,力导图不在力平衡状态,重新进入上述更新过程中,直到再次到达稳定状态。
与现有技术相比,本发明的有益效果是:
(1)本发明结合了力导图模型,旨在提供一个高效可视化方法来可视分析图神经网络中的隐藏层输出,根据可视结果可以充分说明图神经网络学习的有效性。
(2)相比传统的降维可视化技术,例如t-分布随机邻域嵌入降维可视化。力导图模型可以充分利用上一轮训练的参数结果,即上一轮的布局情况,再此基础上更新结点受力情况,进而得到下一轮的布局可视化结果。而传统的降维技术需要每次都重新计算图神经网络中间隐藏层输出的降维结果,每一轮计算没有直接的关联性,这样我们的计算因为利用了上一轮结果,在此基础上微调,故可以更加高效实现可视化。
(3)相比传统的降维可视化技术,例如t-SNE降维可视化。力导图模型可以充分利用了图的拓扑结构信息。力导图中结点的引力只产生在相邻的结点之间,他利用了图中结点边信息。而t-SNE降维可视化技术只是利用结点特征向量的相似性,将原来高维空间中的向量降维到二维空间中,保持其相对距离。我们的可视结果保留了图拓扑信息,可以更方便的观察图中关键节点在图神经网络学习中如何变化,节点信息流之间的交互情况。
(4)相比传统的降维可视化技术,例t-SNE降维可视化。力导图模型可以平滑的动态可视化图神经网络学习过程。因为力导图模型可以充分利用上一轮可视化结果,更新节点间引力的变化,微调节点布局。这个过程是平滑的,节点的位置在每次更新中不会大幅度移动,方便我们跟踪每个结点。而t-SNE只考虑结点高维空间和低维空间向量相对位置,这样在每轮布局中图节点的绝对位置会发生较大变化,不方便可视跟踪节点位置变化。
附图说明
图1为本发明框图的结构示意图;
图2为本发明实施例中图神经网络模型结构示意图;
图3为本发明实施例中力导图模型结构示意图;
图4为本发明实施例中可视化结果示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1,本发明提供如下技术方案:一种基于力导图的图神经网络可视分析方法,该方法包括以下步骤:
S1、构建图神经网络模型,统计图网神经网络中间隐藏层的输出;
S2、构建力导图模型,将图网神经网络中间隐藏层的输出作为力导图模型的输入;
S3、根据力导图中结点的受力情况,迭代更新力导图中结点的位置,当图中所有结点力平衡或者更新位移小于阈值得到最终布局。
如步骤S1所述,首先构建一个图神经网络模型,我们选用目前最先进的图卷积神经网络(GCN)模型作为代表。在GCN的隐藏层之间利用如下传播规则:
Figure DEST_PATH_IMAGE002
,这里
Figure DEST_PATH_IMAGE004
为拉普拉斯矩阵,
Figure DEST_PATH_IMAGE006
是图的邻接矩阵,
Figure DEST_PATH_IMAGE008
是单位矩阵,
Figure DEST_PATH_IMAGE010
为对角矩阵,
Figure DEST_PATH_IMAGE012
为度矩阵,
Figure DEST_PATH_IMAGE014
Figure DEST_PATH_IMAGE016
层的权重矩阵,通过随机梯度下降法训练学习得到,
Figure DEST_PATH_IMAGE018
为激活函数,
Figure DEST_PATH_IMAGE020
是第
Figure DEST_PATH_IMAGE022
层的输入矩阵,也是
Figure DEST_PATH_IMAGE016A
层的输出矩阵,
Figure DEST_PATH_IMAGE025
是原始输入,用结点原始特征向量构成。我们利用隐藏层输出矩阵
Figure DEST_PATH_IMAGE027
来作为力导图输入,可视化图神经网络学习过程。在实验中具体使用一个两层的图卷积神经网络来构建模型:
Figure DEST_PATH_IMAGE029
。其中,
Figure DEST_PATH_IMAGE031
为结点所属类别的概率矩阵。
Figure DEST_PATH_IMAGE033
函数表示该图卷积神经网络。softmax为归一化指数函数,可以将一个包含任意实数的K维向量z映射到另一个K维向量
Figure DEST_PATH_IMAGE035
中,使得每一个元素的范围在(0,1)之间,并且所有元素和为1,具体公式为
Figure DEST_PATH_IMAGE037
,j=1,...,K。ReLU为激活函数,具体公式为ReLU(x)=max(x, 0),
Figure DEST_PATH_IMAGE039
为拉普拉斯矩阵。
Figure DEST_PATH_IMAGE041
表示输入和隐藏层之间的权重矩阵,H表示这一层的卷积核数量。
Figure DEST_PATH_IMAGE043
是隐藏层和输出层之间的权重矩阵,F表示分类类别数量。我们使用交叉熵损失函数
Figure DEST_PATH_IMAGE045
,其中
Figure DEST_PATH_IMAGE047
是训练集中带标签的节点集合。整个模型构建示意图为图2。实验的数据集为引文网络Cora数据集,每篇论文一个图中结点,论文和论文之间的引用作为图的边,每个结点的特征向量是论文中的词袋特征向量。词袋特征向量如下生成。统计论文集中出现的词汇,节选出现频率较高的词汇作为特征词汇,按词汇出现频度降序排序得到一个词袋表。根据这个词袋表,统计每一篇论文中是否包含了词袋表中对应的单词,如果出现在该维度数值为1,否则为0。其中结点标签为独热标签,一个长度等于标签类别数量的向量,只在对应标签位置为1,其他位置为0。引文网络Cora数据集中包含2708篇论文,5429条引用关系,论文分为7个类别,每篇论文的词袋特征向量维度为1433维。每个类别选择20个论文标签作为训练集,1000个标签作为作为测试集,剩余标签集作为验证集。实验运行在GPU版本的TensorFlow框架上,最后在测试集上的准确率为81.5%。
如步骤S2所述,构建一个力导图模型。该模型结构图入图3所示。模型被视为弹簧物理系统,由刚性小球和弹簧构成。初始时小球位置随机分布在一个特定区域。小球在弹簧推/拉作用力下,自动调整位置,直到力平衡状态,达到最佳布局。具体我们使用1433个小球对于S1中所述的图卷积神经网络中的隐藏层结点数量,给7个类别的小球分别用7种颜色加以区分,论文引用网络中5429条引用关系作为力导图中的弹簧,弹簧对他链接的两个小球同时存在作用力,即将图视为无向图。
如步骤S3所述,我们通过如下规则来计算和更新力导图中小球的位置。弹簧视为有边连接结点之间的引力,我们通过图卷积神经网络隐藏层输出的特征向量之间的相似性来计算小球之间引力大小:
Figure DEST_PATH_IMAGE049
。具体尝试了三种不同的方式。第一种方式通过计算向量间的欧式距离来表示作用力的大小:
Figure DEST_PATH_IMAGE051
,
Figure DEST_PATH_IMAGE053
。第二种方式通过向量间的余弦相似度来表示作用力的大小:
Figure DEST_PATH_IMAGE055
。第三种方式通过向量间的皮尔逊相关系数来表示作用力的大小:
Figure DEST_PATH_IMAGE057
。如果结点间只存在引力就会导致整个图布局坍塌为一个点,故需要有斥力的存在,结点间的斥力根据其在布局中的欧几里得距离来计算:
Figure DEST_PATH_IMAGE059
。结点
Figure DEST_PATH_IMAGE061
的所受合力为:
Figure DEST_PATH_IMAGE063
,其中
Figure DEST_PATH_IMAGE065
表示结点
Figure DEST_PATH_IMAGE061A
的邻居结点集合,
Figure DEST_PATH_IMAGE068
表示图中除了当前结点
Figure DEST_PATH_IMAGE061AA
的所有结点集合,
Figure DEST_PATH_IMAGE071
为超参数可以控制结点间的平均距离大小。结点根据其受力情况更新其位置:
Figure DEST_PATH_IMAGE073
,其中
Figure DEST_PATH_IMAGE075
为其冷却函数,可以让力导图快速平稳,
Figure DEST_PATH_IMAGE077
为结点质量也代表在图中的重要度,可以让质量小的小球尽量围绕在质量大的小球旁边。力导图达到平衡状态可以根据所有结点所受合力大小和小于某一阈值:
Figure DEST_PATH_IMAGE079
,也可以根据一轮迭代过程中所有结点移动距离和小于某一阈值:
Figure DEST_PATH_IMAGE081
。当力导图布局稳定后即对应当前的卷积神经网络隐藏层的输出可视化结果。再通过随机梯度下降法更新卷积神经网络参数后,会得到不同的隐藏层输出结果,我们通过上述计算方式更新小球之间的引力,在原来布局基础上调整小球位置,直到新的稳定状态。
实验中我们得到了如图4所示的可视化效果。分别是初试状态、50轮迭代、100轮迭代、150轮图卷积神经网络迭代后对应的稳定力导图可视化结果。可以看出随着图卷积神经网络的训练,中间隐藏层输出的结果在同一个类别中向量的相似性越来越高,使得同一个类别中的小球呈现聚类效果。
综上所述,本发明结合了力导图模型,旨在提供一个高效可视化方法来可视分析图神经网络中的隐藏层输出,根据可视结果可以充分说明图神经网络学习的有效性;相比传统的降维可视化技术,例如t-分布随机邻域嵌入降维可视化。力导图模型可以充分利用上一轮训练的参数结果,即上一轮的布局情况,再此基础上更新结点受力情况,进而得到下一轮的布局可视化结果。而传统的降维技术需要每次都重新计算图神经网络中间隐藏层输出的降维结果,每一轮计算没有直接的关联性,这样我们的计算因为利用了上一轮结果,在此基础上微调,故可以更加高效实现可视化;相比传统的降维可视化技术,例如t-SNE降维可视化。力导图模型可以充分利用了图的拓扑结构信息。力导图中结点的引力只产生在相邻的结点之间,他利用了图中结点边信息。而t-SNE降维可视化技术只是利用结点特征向量的相似性,将原来高维空间中的向量降维到二维空间中,保持其相对距离。我们的可视结果保留了图拓扑信息,可以更方便的观察图中关键节点在图神经网络学习中如何变化,节点信息流之间的交互情况;相比传统的降维可视化技术,例t-SNE降维可视化。力导图模型可以平滑的动态可视化图神经网络学习过程。因为力导图模型可以充分利用上一轮可视化结果,更新节点间引力的变化,微调节点布局。这个过程是平滑的,节点的位置在每次更新中不会大幅度移动,方便我们跟踪每个结点。而t-SNE只考虑结点高维空间和低维空间向量相对位置,这样在每轮布局中图节点的绝对位置会发生较大变化,不方便可视跟踪节点位置变化。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。

Claims (4)

1.一种基于力导图的图神经网络可视分析方法,其特征在于:该方法包括以下步骤:
S1、构建图神经网络模型,统计图网神经网络中间隐藏层的输出;
S2、构建力导图模型,将图网神经网络中间隐藏层的输出作为力导图模型的输入;
S3、根据力导图中结点的受力情况,迭代更新力导图中结点的位置,当图中所有结点力平衡或者更新位移小于阈值得到最终布局。
2.根据权利要求1所述的一种基于力导图的图神经网络可视分析方法,其特征在于:在步骤S1中,选定图卷积神经网络作为代表,它自动提取结点特征,结点能融合周围节点的信息来更新自己信息,最后实现预测、分类等任务,具体步骤如下:
a、准备数据集:采用引文网络数据集,其中,每一篇论文为一个结点,论文间的引用关系为边,这样就构成了一个论文引用网络,统计所有论文中出现的词汇,节选出现频率较高的词汇作为特征词汇,按词汇出现频度降序排序得到一个词袋表,根据这个词袋表,统计每一篇论文中是否包含了词袋表中对应的单词,如果出现在该维度数值为1,否则为0;这样可以得到每篇论文的词向量表达,将他作为引文网络中结点的特征向量,每篇论文有一个所属类别,根据其所属类别构建一个独热向量,只在其所属类别位置为1其他位置为0,作为论文引用网络中结点的标签,按照一定比例划分训练集、验证集和测试集;
b、构建图神经网络模型:采用两层的GCN模型,预测引文网络中结点所属类别,第一层的输入为论文引用网络的邻接矩阵和每个结点的特征向量,邻接矩阵包含了图的拓扑结构信息,每个结点特征向量包含了论文中的词汇信息,第一层的输出为一个N*F维度的隐藏层矩阵,其中N表示结点数量,F为每个结点卷积后的特征向量维度,第一层的输出做为第二层的输入,第二层输出为一个N*C维度的矩阵,其中N表示结点数量,C为每个结点可能属于引文类别的数量;最后经过softmax函数,得到每篇论文属于引文类别的概率向量,模型采用的损失函数为交叉熵损失函数,通过随机梯度下降法优化网络中的参数。
3.根据权利要求1所述的一种基于力导图的图神经网络可视分析方法,其特征在于:在步骤S2中,构建力导图模型具体操作包含如下步骤:
首先在图中随机分布N个结点,将每个结点视为一个小球,每个小球受到其他小球的拉力或者斥力,这样在相互作用力下运动,改变原有的位置,通过调整位置来改变受力情况,最终达到一个力平衡状态,即获得当前作用力下的最佳布局;图神经网络网络隐藏层的输出是每个节点特征向量组成的矩阵,通过计算每个向量之间相似性来决定力导图中节点间的作用力大小,这样在不同的作用力大小下会得到不同的力导图布局,相似性高的节点向量对应的节点之间引力更大,最终反映在力导图布局中便是两个结点相对位置较近。
4.根据权利要求1所述的一种基于力导图的图神经网络可视分析方法,其特征在于:在步骤S3中,更新力导图中结点位置,确定力导图中最终布局包含如下步骤:
力导图中的图结构和原始输入图中的结构相同,即具有相同的顶点和边,每个结点受到两类作用力:拉力和斥力;拉力来自和它有边直接连接的邻居结点,大小根据对应结点向量的相似性计算,方向是沿着两结点连线方向指向邻居结点,斥力来自于图中其他结点,大小是和两个结点距离平方成反比,方向是沿着两个结点位置线段指向当前结点;每个结点根据所受拉力和斥力情况利用力的合成规则计算合力,最后根据合力的大小和方向计算该结点在布局中的下一个位置,这样一轮计算更新图中所有结点位置,再根据新的位置重新计算每个结点的拉力和斥力,获得新的布局,直到所有结点在一轮中更新的位移大小之和小于一个阈值时达到稳定状态,即在对应图神经网络在某一时刻中学习到的参数情况,在图神经网络更新中间隐藏层参数后,对应的结点特征向量发生改变,力导图中结点间引力发生变化,力导图不在力平衡状态,重新进入上述更新过程中,直到再次到达稳定状态。
CN201911170016.6A 2019-11-26 2019-11-26 一种基于力导图的图神经网络可视分析方法 Pending CN110909867A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911170016.6A CN110909867A (zh) 2019-11-26 2019-11-26 一种基于力导图的图神经网络可视分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911170016.6A CN110909867A (zh) 2019-11-26 2019-11-26 一种基于力导图的图神经网络可视分析方法

Publications (1)

Publication Number Publication Date
CN110909867A true CN110909867A (zh) 2020-03-24

Family

ID=69819353

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911170016.6A Pending CN110909867A (zh) 2019-11-26 2019-11-26 一种基于力导图的图神经网络可视分析方法

Country Status (1)

Country Link
CN (1) CN110909867A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111553363A (zh) * 2020-04-20 2020-08-18 北京易道博识科技有限公司 一种端到端的图章识别方法及系统
CN112241478A (zh) * 2020-11-12 2021-01-19 广东工业大学 一种基于图神经网络的大规模数据可视化降维方法
CN112800749A (zh) * 2021-01-08 2021-05-14 北京师范大学 一种基于h-gcn的学术空间构建方法
CN113239875A (zh) * 2021-06-01 2021-08-10 恒睿(重庆)人工智能技术研究院有限公司 人脸特征的获取方法、系统、装置及计算机可读存储介质
CN114972366A (zh) * 2022-07-27 2022-08-30 山东大学 基于图网络的大脑皮层表面全自动分割方法及系统
CN115359870A (zh) * 2022-10-20 2022-11-18 之江实验室 一种基于层次图神经网络的疾病诊疗过程异常识别系统

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111553363A (zh) * 2020-04-20 2020-08-18 北京易道博识科技有限公司 一种端到端的图章识别方法及系统
CN111553363B (zh) * 2020-04-20 2023-08-04 北京易道博识科技有限公司 一种端到端的图章识别方法及系统
CN112241478A (zh) * 2020-11-12 2021-01-19 广东工业大学 一种基于图神经网络的大规模数据可视化降维方法
CN112241478B (zh) * 2020-11-12 2023-05-30 广东工业大学 一种基于图神经网络的大规模数据可视化降维方法
CN112800749A (zh) * 2021-01-08 2021-05-14 北京师范大学 一种基于h-gcn的学术空间构建方法
CN113239875A (zh) * 2021-06-01 2021-08-10 恒睿(重庆)人工智能技术研究院有限公司 人脸特征的获取方法、系统、装置及计算机可读存储介质
CN113239875B (zh) * 2021-06-01 2023-10-17 恒睿(重庆)人工智能技术研究院有限公司 人脸特征的获取方法、系统、装置及计算机可读存储介质
CN114972366A (zh) * 2022-07-27 2022-08-30 山东大学 基于图网络的大脑皮层表面全自动分割方法及系统
CN114972366B (zh) * 2022-07-27 2022-11-18 山东大学 基于图网络的大脑皮层表面全自动分割方法及系统
CN115359870A (zh) * 2022-10-20 2022-11-18 之江实验室 一种基于层次图神经网络的疾病诊疗过程异常识别系统

Similar Documents

Publication Publication Date Title
CN109977232B (zh) 一种基于力导图的图神经网络可视分析方法
CN110909867A (zh) 一种基于力导图的图神经网络可视分析方法
Pathak et al. Context encoders: Feature learning by inpainting
Xie et al. Point clouds learning with attention-based graph convolution networks
Chen et al. Using fruit fly optimization algorithm optimized grey model neural network to perform satisfaction analysis for e-business service
Fei et al. Low rank representation with adaptive distance penalty for semi-supervised subspace classification
CN107679562B (zh) 三维模型的解析处理方法和装置
Bouchacourt et al. Disco nets: Dissimilarity coefficients networks
Rahman et al. Link prediction in dynamic networks using graphlet
CN111291556A (zh) 基于实体义项的字和词特征融合的中文实体关系抽取方法
Zhang et al. Flexible auto-weighted local-coordinate concept factorization: A robust framework for unsupervised clustering
CN104537684A (zh) 一种静态场景中的实时运动目标提取方法
CN112949647A (zh) 三维场景描述方法、装置、电子设备和存储介质
Lin et al. Font generation based on least squares conditional generative adversarial nets
Lin et al. Intelligent decision support for new product development: a consumer-oriented approach
CN107506792A (zh) 一种半监督的显著对象检测方法
Zhai et al. Asian female facial beauty prediction using deep neural networks via transfer learning and multi-channel feature fusion
Sun et al. Graph force learning
CN115687760A (zh) 一种基于图神经网络的用户学习兴趣标签预测方法
Zhang et al. Skip-attention encoder–decoder framework for human motion prediction
Han Residual learning based CNN for gesture recognition in robot interaction
Gao et al. Spatial-structure Siamese network for plant identification
Zhu et al. Weighted pooling for image recognition of deep convolutional neural networks
Xu et al. RETRACTED ARTICLE: Research on professional talent training technology based on multimedia remote image analysis
Li et al. Feature proposal model on multidimensional data clustering and its application

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20200324