CN113554100B - 异构图注意力网络增强的Web服务分类方法 - Google Patents
异构图注意力网络增强的Web服务分类方法 Download PDFInfo
- Publication number
- CN113554100B CN113554100B CN202110853763.0A CN202110853763A CN113554100B CN 113554100 B CN113554100 B CN 113554100B CN 202110853763 A CN202110853763 A CN 202110853763A CN 113554100 B CN113554100 B CN 113554100B
- Authority
- CN
- China
- Prior art keywords
- service
- path
- meta
- attention
- node
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
Abstract
本发明公开了异构图注意力网络增强的Web服务分类方法,首先利用组合服务信息、原子服务信息和它们各自的属性信息构建一个异构信息服务网络。根据不同语义信息定义元路径,并利用交换矩阵和基于元路径的相似度度量技术,构造服务相似度矩阵。设计服务双层注意力模型,分别计算服务的节点级注意力及语义级注意力,从而得到服务的节点级表征及语义级表征,以融合生成更具表达力的服务特征嵌入。本发明属于移动应用技术领域,具体是指异构图注意力网络增强的Web服务分类方法。
Description
技术领域
本发明属于移动应用技术领域,具体是指异构图注意力网络增强的Web服务分类方法。
背景技术
服务分类有助于提高服务查找和服务发现的效率。现有的方法主要聚焦于同构图下的研究,然而,真实世界中的服务数据由于其异质性,同构图的研究方法无法很好地处理服务关系网络中多种类型的节点和边,同时缺乏对丰富语义信息的利用。而异构图注意力网络的出现能够有效地解决上述问题,因为它可以对服务关系链中的不同类型的关系和节点进行更完整自然的抽象,并很好的区分邻居节点的重要性和元路径的重要性。因此,本文提出一种基于异构图注意力网络的Web服务分类方法。
发明内容
为了解决上述难题,本发明提供了异构图注意力网络增强的Web服务分类方法。
本发明采取的技术方案如下:异构图注意力网络增强的Web服务分类方法,包括如下步骤:
1)构造基于元路径的服务相似度矩阵:针对每条元路径采用Pathsim计算服务之间的相似性;给定一个对称的元路径P,S(Ai,Aj)通过两个方面来定义:两个服务Ai和Aj定义在元路径上的联系以及它们与自身的路径实例个数。因此,两个服务Ai和Aj的Pathsim值如公式(1)所示:
其中,为通过服务与其他类型节点之间的关系Ri得到的关系矩阵,Mij为服务Ai和Aj在特定关系下交互矩阵中对应的值;从而服务Ai和Aj的Pathsim值演变为了服务交换矩阵中的值的计算,如公式(3)所示:
计算出每条元路径下两两服务之间的相似度后,通过设置超参数确定相似度阈值;并将相似度超过阈值的服务确定为邻居服务,并对其应用onehot编码,每一个邻接矩阵代表一个基于元路径引导的邻域;
2)节点级别注意力:针对每条元路径产生邻接矩阵,设计节点级注意力的计算,其输入是服务的特征向量,输出为不同元路径下服务的表征向量;首先用线性层对输入的特征向量进行特征增强,如公式(4)所示,
f′=WLf (4)
其中,WL为线性层随机初始化的参数矩阵,F为服务的原始特征矩阵,F={f1,f2,...,fN};F′为服务的线性转换特征矩阵,F′={f1′,f2′...,fN′);根据不同元路径得到的邻接矩阵,计算特定元路径下Ai对服务Aj的注意力权重;给定一个通过元路径连接的服务节点对(Ai,Aj),所有基于元路径的节点对共享参数向量α;公式(5)中节点对的权重取决于服务本身的特征;同时,计算得到的注意力结果是不对称的,即服务Ai对服务Aj的重要性和服务Aj对服务Ai的重要性不一定相同;
其中,fi′是经过一层线性变换得到的增强特征,为元路径p下节点级注意力层共享参数向量,该参数由一层前馈神经网络进行训练得到;||表示串联操作;σ为非线性激活函数,采用LeakyReLU;最后应用softmax进行归一化得到的为元路径p下邻居服务Aj对服务Ai的注意力系数;将每条元路径下的所有邻居节点的注意力权重与特征进行加权求和得到最终基于元路径的节点表征;如公式(6)所示,每个服务节点嵌入由它的邻居服务聚集,由于节点级别注意权重是在单个元路径下得到的,因此具有该条元路径所附带的语义特异性;
最终,对于整个数据集,将元路径p下节点级别得到的最终服务节点嵌入矩阵表示为:Φp={e′1,e′2,...,e′N,};
3)元路径级别注意力:通过节点级的计算,得到了服务在各条元路径下的表征矩阵{ΦATA,ΦAMAMA,ΦADA,ΦAWA};首先,对每个节点级表征结果使用一层MLP做非线性变换;针对变换后的嵌入向量,将元路径级别注意力度量为变换后的节点级嵌入向量与注意力参数向量的相似性;如公式(8)所示:
其中,θT为语义级注意向量,Wmet表示MLP层的参数矩阵,b表示一个偏置向量,所有参数对于每次的注意力计算都是共享的;V是所有的服务节点,是服务Ai在第p条元路径下的注意力权重;在得到每个元路径的重要性之后,通过softmax函数对它们进行规范化;将学习到的权重作为系数,融合节点级计算得到的服务嵌入,得到最终的嵌入结果;如公式(9)所示:
其中,e′i p为元路径p下服务Ai经过节点级注意力计算后的节点表征;Zi则为聚合了各条元路径表征的结果;
4)服务类别预测:将最终的服务嵌入输入到一个全连接层,利用softmax激活函数输出所有候选的Web服务类别的概率分布;Softmax将多分类的输出数值转化为相对概率,其计算如公式(10)所示:
最后,对于半监督节点分类,最小化所有服务节点在真实标签和预测标签之间的交叉熵来计算损失值;如公式(11)所示:
其中,β是分类器的参数,yc是具有标签的节点索引集,Yl和Zl是标记节点的标签和嵌入;在标记数据的指导下,通过反向传播优化模型,学习节点的嵌入情况。
本发明采取上述结构取得有益效果如下:本发明提供的异构图注意力网络增强的Web服务分类方法,首先利用组合服务信息、原子服务信息和它们各自的属性信息构建一个异构信息服务网络。然后,根据不同语义信息定义元路径,并利用交换矩阵和基于元路径的相似度度量技术,构造服务相似度矩阵。最后,设计服务双层注意力模型,分别计算服务的节点级注意力及语义级注意力,从而得到服务的节点级表征及语义级表征,以融合生成更具表达力的服务特征嵌入,实现更为精准的服务分类效果。最后,在ProgrammableWeb平台真实数据集上进行的多组对比实验结果表明该方法在准确率、召回率、Macro F1上较GAT、GCN、Metapath2Vec、Node2vec、BiLSTM以及LDA等模型相比都有显著的提高,较好地提高了服务分类的精度。
附图说明
图1为本发明异构图注意力网络增强的Web服务分类方法的服务异构信息网络图;
图2为本发明异构图注意力网络增强的Web服务分类方法的元路径及其语义表示表;
图3为本发明异构图注意力网络增强的Web服务分类方法的服务分类框架图;
图4为本发明异构图注意力网络增强的Web服务分类方法的节点级注意力计算图;
图5为本发明异构图注意力网络增强的Web服务分类方法的数据集统计结果图;
图6为本发明异构图注意力网络增强的Web服务分类方法的不同模型实验结果的比较图。
具体实施方式
下面结合具体实施对本发明的技术方案进行进一步详细地说明,本发明所述的技术特征或连接关系没有进行详细描述的部分均为采用的现有技术。
以下结合实施例,对本发明做进一步详细说明。
如图1-6所示,本发明采取的技术方案如下:异构图注意力网络增强的Web服务分类方法,包括如下步骤:
1)构造基于元路径的服务相似度矩阵:针对每条元路径采用Pathsim计算服务之间的相似性;给定一个对称的元路径P,S(Ai,Aj)通过两个方面来定义:两个服务Ai和Aj定义在元路径上的联系以及它们与自身的路径实例个数。因此,两个服务Ai和Aj的Pathsim值如公式(1)所示:
其中,为通过服务与其他类型节点之间的关系Ri得到的关系矩阵,Mij为服务Ai和Aj在特定关系下交互矩阵中对应的值;从而服务Ai和Aj的Pathsim值演变为了服务交换矩阵中的值的计算,如公式(3)所示:
计算出每条元路径下两两服务之间的相似度后,通过设置超参数确定相似度阈值;并将相似度超过阈值的服务确定为邻居服务,并对其应用onehot编码,每一个邻接矩阵代表一个基于元路径引导的邻域;
2)节点级别注意力:针对每条元路径产生邻接矩阵,设计节点级注意力的计算,其输入是服务的特征向量,输出为不同元路径下服务的表征向量;首先用线性层对输入的特征向量进行特征增强,如公式(4)所示,
f′=WLf (4)
其中,WL为线性层随机初始化的参数矩阵,F为服务的原始特征矩阵,F={f1,f2,...,fN};F′为服务的线性转换特征矩阵,F′={f1′,f2′...,fN′};根据不同元路径得到的邻接矩阵,计算特定元路径下Ai对服务Aj的注意力权重;给定一个通过元路径连接的服务节点对(Ai,Aj),所有基于元路径的节点对共享参数向量α;公式(5)中节点对的权重取决于服务本身的特征;同时,计算得到的注意力结果是不对称的,即服务Ai对服务Aj的重要性和服务Aj对服务Ai的重要性不一定相同;
其中,fi′是经过一层线性变换得到的增强特征,为元路径p下节点级注意力层共享参数向量,该参数由一层前馈神经网络进行训练得到;||表示串联操作;σ为非线性激活函数,采用LeakyReLU;最后应用softmax进行归一化得到的为元路径p下邻居服务Aj对服务Ai的注意力系数;将每条元路径下的所有邻居节点的注意力权重与特征进行加权求和得到最终基于元路径的节点表征;如公式(6)所示,每个服务节点嵌入由它的邻居服务聚集,由于节点级别注意权重是在单个元路径下得到的,因此具有该条元路径所附带的语义特异性;
最终,对于整个数据集,将元路径p下节点级别得到的最终服务节点嵌入矩阵表示为:Φp={e′1,e′2,...,e′N};
3)元路径级别注意力:通过节点级的计算,得到了服务在各条元路径下的表征矩阵{ΦATA,ΦAMAMA,ΦADA,ΦAWA};首先,对每个节点级表征结果使用一层MLP做非线性变换;针对变换后的嵌入向量,将元路径级别注意力度量为变换后的节点级嵌入向量与注意力参数向量的相似性;如公式(8)所示:
其中,θT为语义级注意向量,Wmet表示MLP层的参数矩阵,b表示一个偏置向量,所有参数对于每次的注意力计算都是共享的;V是所有的服务节点,是服务Ai在第p条元路径下的注意力权重;在得到每个元路径的重要性之后,通过softmax函数对它们进行规范化;将学习到的权重作为系数,融合节点级计算得到的服务嵌入,得到最终的嵌入结果;如公式(9)所示:
其中,e′i p为元路径p下服务Ai经过节点级注意力计算后的节点表征;Zi则为聚合了各条元路径表征的结果。
4)服务类别预测:将最终的服务嵌入输入到一个全连接层,利用softmax激活函数输出所有候选的Web服务类别的概率分布;Softmax将多分类的输出数值转化为相对概率,其计算如公式(10)所示:
最后,对于半监督节点分类,最小化所有服务节点在真实标签和预测标签之间的交叉熵来计算损失值;如公式(11)所示:
其中,β是分类器的参数,yc是具有标签的节点索引集,Yi和Zl是标记节点的标签和嵌入;在标记数据的指导下,通过反向传播优化模型,学习节点的嵌入情况。
实验评估与分析
将详细介绍实验,包括数据集的选取和实验相关设置、实验指标、多个模型的实验结果比较以及相关参数分析。
数据集及实验设置
爬取了ProgrammableWeb平台公开的服务数据作为服务划分的实验数据集,包含17783个Web API(A),6131个Mashup(M),480个Tag(T)。服务特征是一个词袋的要素,由关键词表示。对于每一个WebAPI,其信息包括服务名称、描述文本、所属类别。由于实验数据集过大,文本选取包含API数量最多的前10、15、20、25、30类别作为实验对象。数据分布见图5所示。
为了进行性能比较和参数影响,在训练时,我们将实验数据进行随机打乱,然后划分60%的数据作为训练集,20%的数据作为验证集,20%的数据作为测试集,并将训练集、验证集和测试集完全分离,以保证公平性。我们随机初始化参数并用Adam[19]对模型进行优化。学习率设置为0.005,正则化参数设置为0.001,语义层注意向量的维数q设置为128,注意头的数目K设置为8。
对比方法
本文采用6种方法作为对比试验,与本文模型进行评估与对比。
LDA:一种非监督机器学习技术,可以用来识别大规模文档集或语料库中潜藏的主题信息。采用了词袋的方法将每一篇文档视为一个词频向量,从而将文本信息转化为了易于建模的数字信息.。
BiLSTM:由前向LSTM与后向LSTM组合而成,将BiLSTM中最后一个隐藏向量作为服务文档的表示,利用softmax得到类别的概率分布。
Node2Vec:利用特定游走方式获得每个点对应的序列,定义两个参数来平衡BFS与DFS的影响,同时考虑到了图结构的局部与全局信息,具有很高的适应性。
Metapath2Vec:使用基于meta-path的随机游走获取异构网络中每种不同类型顶点的异构领域,然后使用扩展的Skip-Gram处理顶点领域,最终学习每个不同类型顶点的网络嵌入表示。
GCN:GCN将标准化的图结构和节点特征作为输入,利用图的拉普拉斯矩阵的特征值和特征向量来提取拓扑图的空间特征,利用softmax进行评分预测。
GAT:通过注意力机制来对邻居节点做聚合操作,实现对不同邻居权重的自适应分配,从而大大提高了图神经网络模型的表达能力。
评价指标
本文针对多分类问题采用Macro F1作为评价指标对以上的方法进行性能的评定,其中,召回率描述被正确分类的Web APIs占所有该类别Web APIs的比例;准确率描述模型最终的分类结果中确实属于该类别的Web APIs所占的比例;Macro F1是召回率和准确率的调和平均值。其公式和意义如下:
分类性能
为了得到稳定的训练结果,我们对上述实验过程重复若干次并采取平均Macro-F1值,如图6所示。从图6中可以看出,基于异构图注意力的方法相比其他方法性能更优。特别是当服务类别数为25时,SCHAN在Macro-F1值上分别比对照方法提高了41.84%、23.19%、14.51%、16.48%、12.38%和2.11%。具体而言,由于特征稀疏,未充分考虑服务与其他对象之间的关系,LDA、BiLSTM方法表现最差。而Node2Vec、Metapath2Vec、GCN效果相对更好,这表明考虑对服务的关系提取的重要性。同样的注意力计算,基于异构图注意力的方法优于单单只考虑节点级别注意力的GAT,这表明了本文提出的方法成功地捕捉到了元路径中丰富的语义信息,显示了其优越性。通过以上分析可以发现我们的方法表现出了良好的性能。结果表明,融合异构图和注意力机制来分析节点和元路径的重要性是非常重要的。
以上对本发明及其实施方式进行了描述,这种描述没有限制性,附图中所示的也只是本发明的实施方式之一,实际的结构并不局限于此。总而言之如果本领域的普通技术人员受其启示,在不脱离本发明创造宗旨的情况下,不经创造性的设计出与该技术方案相似的结构方式及实施例,均应属于本发明的保护范围。
Claims (1)
1.异构图注意力网络增强的Web服务分类方法,其特征在于,包括如下步骤:
1)构造基于元路径的服务相似度矩阵:针对每条元路径采用Pathsim计算服务之间的相似性;给定一个对称的元路径P,S(Ai,Aj)通过两个方面来定义:两个服务Ai和Aj定义在元路径上的联系以及它们与自身的路径实例个数;因此,两个服务Ai和Aj的Pathsim值如公式(1)所示:
其中,为通过服务与其他类型节点之间的关系Ri得到的关系矩阵,Mij为服务Ai和Aj在特定关系下交互矩阵中对应的值;从而服务Ai和Aj的Pathsim值演变为了服务交换矩阵中的值的计算,如公式(3)所示:
计算出每条元路径下两两服务之间的相似度后,通过设置超参数确定相似度阈值;并将相似度超过阈值的服务确定为邻居服务,并对其应用onehot编码,每一个邻接矩阵代表一个基于元路径引导的邻域;
2)节点级别注意力:针对每条元路径产生邻接矩阵,设计节点级注意力的计算,其输入是服务的特征向量,输出为不同元路径下服务的表征向量;首先用线性层对输入的特征向量进行特征增强,如公式(4)所示,
f′=WLf (4)
其中,WL为线性层随机初始化的参数矩阵,F为服务的原始特征矩阵,F={f1,f2,...,fN};F′为服务的线性转换特征矩阵,F′={f1′,f2′,...,fN′};根据不同元路径得到的邻接矩阵,计算特定元路径下Ai对服务Aj的注意力权重;给定一个通过元路径连接的服务节点对(Ai,Aj),所有基于元路径的节点对共享参数向量α;公式(5)中节点对的权重取决于服务本身的特征;同时,计算得到的注意力结果是不对称的,即服务Ai对服务Aj的重要性和服务Aj对服务Ai的重要性不一定相同;
其中,f′i是经过一层线性变换得到的增强特征,为元路径p下节点级注意力层共享参数向量,该参数由一层前馈神经网络进行训练得到;||表示串联操作;σ为非线性激活函数,采用LeakyReLU;最后应用softmax进行归一化得到的为元路径p下邻居服务Aj对服务Ai的注意力系数;将每条元路径下的所有邻居节点的注意力权重与特征进行加权求和得到最终基于元路径的节点表征;如公式(6)所示,每个服务节点嵌入由它的邻居服务聚集,由于节点级别注意权重是在单个元路径下得到的,因此具有该条元路径所附带的语义特异性;
最终,对于整个数据集,将元路径p下节点级别得到的最终服务节点嵌入矩阵表示为:Φp={e′1,e′2,...,e′N,};
3)元路径级别注意力:通过节点级的计算,得到了服务在各条元路径下的表征矩阵{ΦATA,ΦAMAMA,ΦADA,ΦAWA};首先,对每个节点级表征结果使用一层MLP做非线性变换;针对变换后的嵌入向量,将元路径级别注意力度量为变换后的节点级嵌入向量与注意力参数向量的相似性;如公式(8)所示:
其中,θT为语义级注意向量,Wmet表示MLP层的参数矩阵,b表示一个偏置向量,所有参数对于每次的注意力计算都是共享的;V是所有的服务节点,是服务Ai在第p条元路径下的注意力权重;在得到每个元路径的重要性之后,通过softmax函数对它们进行规范化;将学习到的权重作为系数,融合节点级计算得到的服务嵌入,得到最终的嵌入结果;如公式(9)所示:
4)服务类别预测:将最终的服务嵌入输入到一个全连接层,利用softmax激活函数输出所有候选的Web服务类别的概率分布;Softmax将多分类的输出数值转化为相对概率,其计算如公式(10)所示:
最后,对于半监督节点分类,最小化所有服务节点在真实标签和预测标签之间的交叉熵来计算损失值;如公式(11)所示:
其中,β是分类器的参数,yC是具有标签的节点索引集,Yl和Zl是标记节点的标签和嵌入;在标记数据的指导下,通过反向传播优化模型,学习节点的嵌入情况。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110853763.0A CN113554100B (zh) | 2021-07-28 | 2021-07-28 | 异构图注意力网络增强的Web服务分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110853763.0A CN113554100B (zh) | 2021-07-28 | 2021-07-28 | 异构图注意力网络增强的Web服务分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113554100A CN113554100A (zh) | 2021-10-26 |
CN113554100B true CN113554100B (zh) | 2023-04-07 |
Family
ID=78133012
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110853763.0A Active CN113554100B (zh) | 2021-07-28 | 2021-07-28 | 异构图注意力网络增强的Web服务分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113554100B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115617694B (zh) * | 2022-11-30 | 2023-03-10 | 中南大学 | 基于信息融合的软件缺陷预测方法、系统、设备及介质 |
CN116578884B (zh) * | 2023-07-07 | 2023-10-31 | 北京邮电大学 | 基于异质信息网络表示学习的科研团队识别方法及装置 |
CN116894180B (zh) * | 2023-09-11 | 2023-11-24 | 南京航空航天大学 | 一种基于异构图注意力网络的产品制造质量预测方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111309983A (zh) * | 2020-03-10 | 2020-06-19 | 支付宝(杭州)信息技术有限公司 | 基于异构图进行业务处理的方法及装置 |
CN112529168A (zh) * | 2020-12-29 | 2021-03-19 | 中国人民解放军国防科技大学 | 一种基于gcn的属性多层网络表示学习方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160057159A1 (en) * | 2014-08-22 | 2016-02-25 | Syracuse University | Semantics-aware android malware classification |
CN110598061A (zh) * | 2019-09-20 | 2019-12-20 | 东北大学 | 一种多元图融合的异构信息网嵌入方法 |
CN110717047B (zh) * | 2019-10-22 | 2022-06-28 | 湖南科技大学 | 一种基于图卷积神经网络的Web服务分类方法 |
CN111222049B (zh) * | 2020-01-08 | 2021-10-01 | 东北大学 | 语义增强的异构信息网络上Top-k相似度搜索方法 |
CN112035745A (zh) * | 2020-09-01 | 2020-12-04 | 重庆大学 | 一种基于对抗学习与双向长短期记忆网络的推荐算法 |
CN112486467B (zh) * | 2020-11-27 | 2022-04-29 | 武汉大学 | 一种双重交互关系和注意力机制的交互式服务推荐方法 |
CN113095439A (zh) * | 2021-04-30 | 2021-07-09 | 东南大学 | 基于注意力机制的异构图嵌入学习方法 |
-
2021
- 2021-07-28 CN CN202110853763.0A patent/CN113554100B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111309983A (zh) * | 2020-03-10 | 2020-06-19 | 支付宝(杭州)信息技术有限公司 | 基于异构图进行业务处理的方法及装置 |
CN112529168A (zh) * | 2020-12-29 | 2021-03-19 | 中国人民解放军国防科技大学 | 一种基于gcn的属性多层网络表示学习方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113554100A (zh) | 2021-10-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113554100B (zh) | 异构图注意力网络增强的Web服务分类方法 | |
Yang et al. | A survey of DNN methods for blind image quality assessment | |
CN110263280B (zh) | 一种基于多视图的动态链路预测深度模型及应用 | |
CN103984959A (zh) | 一种基于数据与任务驱动的图像分类方法 | |
CN112685504B (zh) | 一种面向生产过程的分布式迁移图学习方法 | |
Shah et al. | Max-margin contrastive learning | |
CN107943856A (zh) | 一种基于扩充标记样本的文本分类方法及系统 | |
CN113378913B (zh) | 一种基于自监督学习的半监督节点分类方法 | |
CN112199536A (zh) | 一种基于跨模态的快速多标签图像分类方法和系统 | |
CN113177132A (zh) | 基于联合语义矩阵的深度跨模态哈希的图像检索方法 | |
CN109614611B (zh) | 一种融合生成非对抗网络与卷积神经网络的情感分析方法 | |
Yang et al. | One-class classification using generative adversarial networks | |
CN113255895A (zh) | 基于图神经网络表示学习的结构图对齐方法和多图联合数据挖掘方法 | |
CN110837865A (zh) | 一种基于表示学习和迁移学习的领域适配方法 | |
CN103177265A (zh) | 基于核函数与稀疏编码的高清图像分类方法 | |
CN112258250A (zh) | 基于网络热点的目标用户识别方法、装置和计算机设备 | |
CN111985152A (zh) | 一种基于二分超球面原型网络的事件分类方法 | |
CN114897085A (zh) | 一种基于封闭子图链路预测的聚类方法及计算机设备 | |
CN117435982A (zh) | 一种多维度快速识别网络水军的方法 | |
CN111126443A (zh) | 基于随机游走的网络表示学习方法 | |
Zhang et al. | Local classifier chains for deep face recognition | |
Li et al. | ipath: Forecasting the pathway to impact | |
CN114265954B (zh) | 基于位置与结构信息的图表示学习方法 | |
CN115661539A (zh) | 一种嵌入不确定性信息的少样本图像识别方法 | |
CN113159976B (zh) | 一种微博网络重要用户的识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |