CN112862064A - 一种基于自适应图学习的图嵌入方法 - Google Patents

一种基于自适应图学习的图嵌入方法 Download PDF

Info

Publication number
CN112862064A
CN112862064A CN202110010713.6A CN202110010713A CN112862064A CN 112862064 A CN112862064 A CN 112862064A CN 202110010713 A CN202110010713 A CN 202110010713A CN 112862064 A CN112862064 A CN 112862064A
Authority
CN
China
Prior art keywords
matrix
graph
adjacency
self
encoder
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110010713.6A
Other languages
English (en)
Inventor
张睿
李学龙
张运星
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN202110010713.6A priority Critical patent/CN112862064A/zh
Publication of CN112862064A publication Critical patent/CN112862064A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/901Indexing; Data structures therefor; Storage structures
    • G06F16/9024Graphs; Linked lists
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于自适应图学习的图嵌入方法,包括构建图自编码器框架、拉普拉斯嵌入、邻接矩阵的自适应学习和迭代更新求解四个步骤。图自编码器框架编码层部分采用两层图卷积神经网络,解码层部分为邻接矩阵的重构损失;拉普拉斯嵌入部分将拉普拉斯矩阵嵌入到潜在空间从而使样本点可以更准确地映射到投影子空间;邻接矩阵的自适应学习分三步:一是不再采用固定的节点邻居数量,而是服从正态分布,成为可以通过自适应学习获取的变量;二是设置迭代停止的阈值,当迭代次数大于阈值时,停止更新;三是邻接矩阵部分更新的方式;最终在迭代更新求解部分给出了模型的求解方法。本发明方法鲁棒性强、应用范围广,大大扩展了图自编码器的应用范围。

Description

一种基于自适应图学习的图嵌入方法
技术领域
本发明属于数据挖掘技术领域,具体涉及一种图嵌入方法。
背景技术
图结构在各种现实世界的应用中都是自然存在的,如社交网络、词同现网络和通信网络。图神经网络的研究与图嵌入或网络嵌入密切相关。图嵌入目的是将网络节点表示为低维向量,同时保留网络的拓扑结构和节点内容信息。图神经网络的目的是以端到端的方式解决与图相关的任务,其提取高级表示。图神经网络和图嵌入的关系可以理解为:图神经网络可以针对多种任务而设计,其中可以采用图自编码器框架来解决图嵌入问题,而图嵌入包含了各种各样其他的方法。然而图自编码器的表现性能对图结构(即邻接矩阵)非常敏感,邻接矩阵的质量对图自编码器的效果有非常大的影响。图自编码器框架对图结构的鲁棒性不足,在图结构受到干扰或者缺失的情况下,图自编码器的效果会很差甚至不能工作。
针对这一问题,目前的一些学者提出了他们的解决方法。比如:Jin Wei等人在文献"W.Jin,Y.Ma,X.Liu,X.Tang,S.Wang,and J.Tang:Graph Structure Learning forRobust Graph Neural Networks.arXiv preprint arXiv:2005.10203,2020"中提出的Pro-GNN,和 Yu Chen在文献"Y.Chen,L.Wu,and M.J.Zaki:Deep iterative and adaptivelearning for graph neural networks.arXiv preprint arXiv:1912.07832,2019"中提出的DIAN-GNN方法。
但是这两种方法都具有其局限性。第一:这些方法依旧使用k近邻(kNN)初始化邻接矩阵,存在固定k值的缺点;第二:这两种方法都是针对的有监督的图神经网络框架而非无监督的图自编码器框架。
发明内容
为了克服现有技术的不足,本发明提供了一种基于自适应图学习的图嵌入方法,包括构建图自编码器框架、拉普拉斯嵌入、邻接矩阵的自适应学习和迭代更新求解四个步骤。图自编码器框架编码层部分采用两层图卷积神经网络,解码层部分为邻接矩阵的重构损失;拉普拉斯嵌入部分将拉普拉斯矩阵嵌入到潜在空间从而使样本点可以更准确地映射到投影子空间;邻接矩阵的自适应学习分三步:一是不再采用固定的节点邻居数量,而是服从正态分布,成为可以通过自适应学习获取的变量;二是设置迭代停止的阈值,当迭代次数大于阈值时,停止更新;三是邻接矩阵部分更新的方式;最终在迭代更新求解部分给出了模型的求解方法。本发明方法鲁棒性强、应用范围广,大大扩展了图自编码器的应用范围。
本发明解决其技术问题所采用的技术方案包括以下步骤:
步骤1:构建图自编码器框架;
步骤1-1:当原始数据中包含邻接矩阵时将数据特征矩阵X和邻接矩阵A作为图自编码器的输入;当原始数据中不存在邻接矩阵时,通过自适应学习机制利用原始特征信息初始化邻接矩阵A,然后再将数据特征矩阵X和邻接矩阵A输入到图自编码器中;
步骤1-2:图编码过程;
采用两层卷积神经网络作为图编码器进行卷积处理;
第一层卷积神经网络采用Relu函数作为激活函数,第二层卷积神经网络采用线性激活函数;卷积神经网络统一表示为:
Figure BDA0002884960200000021
其中,l为卷积神经网络层数,
Figure BDA0002884960200000022
为正则化后的邻接矩阵
Figure BDA0002884960200000023
I为单位矩阵,W(l)为卷积神经网络权重,
Figure BDA0002884960200000024
为正则化邻接矩阵
Figure BDA0002884960200000025
的度矩阵,且
Figure BDA0002884960200000026
满足
Figure BDA0002884960200000027
为度矩阵
Figure BDA0002884960200000028
的对角元素,
Figure BDA0002884960200000029
为矩阵
Figure 1
的第i行第j列元素;
Z(l)为生成的潜在表示,第一层生成的潜在表示Z(1)和第二层生成的潜在表示Z(2)分别为:
Z(1)=fRelu(X,A|W(0)) (2)
Z(2)=flinear(Z(1),A|W(1)) (3)
其中fRelu代表使用Relu激活函数,flinear代表线性层,W(0)和W(1)分别为卷积神经网络第一层和第二层的权重;Z(0)=X,代表初始的的数据特征矩阵;
步骤1-3:图解码过程;
图解码器采用sigmoid作为激活函数,重构后的邻接矩阵表示为:
Figure BDA00028849602000000211
图解码器部分中的邻接矩阵重构损失表示为:
Figure BDA00028849602000000212
其中⊙代表Hadamard乘积,B为权重矩阵,其计算方式为:B=A*β+1,β为权重参数,
Figure BDA0002884960200000031
表示图自编码器框架部分的损失函数;
步骤2:拉普拉斯图结构;
步骤2-1:定义拉普拉斯图结构表示为:
Figure BDA0002884960200000032
其中对角矩阵D为数据矩阵A的度矩阵,表示为:dii=∑jaij,dii为度矩阵的对角元素, aij为矩阵A的元素;
步骤2-2:拉普拉斯嵌入;
将潜在表示嵌入到拉普拉斯图结构中,则拉普拉斯图结构部分的损失函数为:
Figure BDA0002884960200000033
其中Z=Z(2),tr代表矩阵的迹,γ为自适应学习参数
Figure BDA0002884960200000034
其中
Figure BDA0002884960200000035
Figure BDA0002884960200000039
代表向量的2范数,且hij按照从小大顺序排列;
步骤2-3:定义整体损失函数表示为:
Figure BDA0002884960200000036
其中正则化项
Figure BDA0002884960200000037
步骤3:邻接矩阵的自适应学习;
步骤3-1:通过利用生成的潜在表示Z(2),由式(9)生成新的邻接矩阵AL
Figure BDA0002884960200000038
式(9)是式(7)取最小值求解得到的;计算得到的aij即重构后的邻接矩阵AL的第i行第j 列元素;
步骤3-2:邻接矩阵的节点邻居数量k服从于正态分布,正态分布的均值为邻接矩阵上一轮迭代中节点邻居数量的平均值uk,正态分布的方差为1,即
Figure BDA00028849602000000310
步骤3-3:邻接矩阵的部分更新表示为:
A=αAL+(1-α)A0 (10)
其中,α代表调和参数,A0代表初始邻接矩阵;
步骤4:迭代更新求解;
采用梯度下降法进行更新,总损失函数为式(8),采用Adam更新器迭代;最大迭代次数为T,迭代次数t满足0≤t≤T;当0≤t≤τ时,邻接矩阵自适应更新,当τ<t时,邻接矩阵不再更新;
最终求解结果得到图结构邻接矩阵A和特征矩阵X的潜在表示Z。
本发明的有益效果如下:
1、本发明方法通过引入自适应学习机制,使得图自编码器框架对邻接矩阵的敏感度降低。当邻接矩阵受到干扰或者缺失时,仍然能取得很好的图嵌入效果。在节点聚类实验上,本方法可以比对比方法高10%左右,系统具有很强的鲁棒性。
2、本发明引入自适应学习机制,扩大了图自编码器的应用范围。自适应学习机制可以在邻接矩阵缺失的情况下为图自编码器框架初始化邻接矩阵,从而大大扩展了图自编码器的应用范围。
3、样本节点的邻居数量可以自适应取得。自适应学习机制不再采用固定k值的方式,从而避免了使用kNN初始化邻接矩阵的弊端。
附图说明
图1为本发明方法流程框图。
图2为本发明方法邻接矩阵的更新图。
具体实施方式
下面结合附图和实施例对本发明进一步说明。
针对图自编码器对邻接矩阵鲁棒性不足的问题,本发明提出一种基于自适应图学习的图嵌入方法。
自适应图学习机制使得邻接矩阵在迭代过程中实现自适应学习,从而极大地增强模型的鲁棒性。将学习到的潜在表示嵌入到拉普拉斯图结构中,从而在潜在空间中更好地保留图的拓扑结构。与此同时,采用自适应的参数学习方法,让每个样本的近邻参数k可以自主获得,从而避免出现类似kNN的缺陷。此外,针对无先验图结构的数据,在图结构上施加特殊的图约束,使得样本点可以更准确地映射到投影仪子空间。
本方法将图自编码器的应用范围扩展到无图数据集,且自适应学习机制能够在不受参数k影响的情况下初始化邻接矩阵,大大增强了模型的鲁棒性。同时将学习到的潜在向量(Latent representation)嵌入到拉普拉斯图结构中,从而更好地在潜在空间中保留图的拓扑结构。此外,在无先验图结构的数据集上施加图约束,使得样本点更准确地映射到投影子空间,获得更好的嵌入效果。
如图1所示,一种基于自适应图学习的图嵌入方法,包括以下步骤:
步骤1:构建图自编码器框架;
步骤1-1:当原始数据中包含邻接矩阵时将数据特征矩阵X和邻接矩阵A作为图自编码器的输入;当原始数据中不存在邻接矩阵时,通过自适应学习机制利用原始特征信息初始化邻接矩阵A,然后再将数据特征矩阵X和邻接矩阵A输入到图自编码器中;
步骤1-2:图编码过程;
采用两层卷积神经网络作为图编码器进行卷积处理;
第一层卷积神经网络采用Relu函数作为激活函数,第二层卷积神经网络采用线性激活函数;卷积神经网络统一表示为:
Figure BDA0002884960200000051
其中,,为卷积神经网络层数,
Figure BDA0002884960200000052
为正则化后的邻接矩阵
Figure BDA0002884960200000053
I为单位矩阵,W(l)为卷积神经网络权重,
Figure BDA0002884960200000054
为正则化邻接矩阵
Figure BDA00028849602000000511
的度矩阵,且
Figure BDA0002884960200000055
满足
Figure BDA0002884960200000056
为度矩阵
Figure BDA0002884960200000057
的对角元素,
Figure BDA0002884960200000058
为矩阵
Figure 2
的第i行第j列元素;
Z(l)为生成的潜在表示,第一层生成的潜在表示Z(1)和第二层生成的潜在表示Z(2)分别为:
Z(1)=fRelu(X,A|W(0)) (2)
Z(2)=flinear(Z(1),A|W(1)) (3)
其中fRelu代表使用Relu激活函数,flinear代表线性层,W(0)和W(1)分别为卷积神经网络第一层和第二层的权重;Z(0)=X,代表初始的的数据特征矩阵;
步骤1-3:图解码过程;
图解码器采用sigmoid作为激活函数,重构后的邻接矩阵表示为:
Figure BDA00028849602000000510
图解码器部分中的邻接矩阵重构损失表示为:
Figure BDA0002884960200000061
其中⊙代表Hadamard乘积,B为权重矩阵,其计算方式为:B=A*β+1,β为权重参数,
Figure BDA0002884960200000062
表示图自编码器框架部分的损失函数;
步骤2:拉普拉斯图结构;
步骤2-1:定义拉普拉斯图结构表示为:
Figure BDA0002884960200000063
其中对角矩阵D为数据矩阵A的度矩阵,表示为:dii=∑jaij,dii为度矩阵的对角元素, aij为矩阵A的元素;
步骤2-2:拉普拉斯嵌入;
将潜在表示嵌入到拉普拉斯图结构中,则拉普拉斯图结构部分的损失函数为:
Figure BDA0002884960200000064
其中Z=Z(2),tr代表矩阵的迹,/为自适应学习参数
Figure BDA0002884960200000065
其中
Figure BDA0002884960200000066
代表向量的2范数,且hij按照从小大顺序排列;
步骤2-3:定义整体损失函数表示为:
Figure BDA0002884960200000067
其中正则化项
Figure BDA0002884960200000068
步骤3:邻接矩阵的自适应学习;
步骤3-1:通过利用生成的潜在表示Z(2),由式(9)生成新的邻接矩阵AL
Figure BDA0002884960200000069
式(9)是式(7)取最小值求解得到的;计算得到的aij即重构后的邻接矩阵AL的第i行第j 列元素;
步骤3-2:邻接矩阵的节点邻居数量k服从于正态分布,正态分布的均值为邻接矩阵上一轮迭代中节点邻居数量的平均值uk,正态分布的方差为1,即
Figure BDA0002884960200000071
步骤3-3:如图2所示,邻接矩阵的部分更新表示为:
A=αAL+(1-α)A0 (10)
其中,α代表调和参数,A0代表初始邻接矩阵;
步骤4:迭代更新求解;
采用梯度下降法进行更新,总损失函数为式(8),采用Adam更新器迭代;最大迭代次数为T,迭代次数t满足0≤t≤T;当0≤t≤τ时,邻接矩阵自适应更新,当τ<t时,邻接矩阵不再更新;
最终求解结果得到图结构邻接矩阵A和特征矩阵X的潜在表示Z。
生成的潜在表示可以应用于下游任务,比如:节点分类,节点聚类,链路预测等。
具体实施例:
1.仿真条件
本实施例是在中央处理器为
Figure BDA0002884960200000072
i7-10700F 2.90GHz CPU、内存16G、WINDOWS10操作系统上,运用Python软件进行的仿真。
实验中使用的Cora数据集来自于Kipf等人在文献″T.N.Kipf,M.Welling.Variational Graph Auto-Encoders.NIPS Workshop on Bayesian Deep Learning,2016.″中提出,包含2708个样本,5429对链接,每个样本包含1433个特征,共分为8个类别。
2.仿真内容
对数据集进行节点聚类实验。为了验证自适应学习的有效性,在Cora数据集上进行缺失处理,缺失比例为{0%,5%,10%,15%,20%,25%,50%}。为了对比本发明的有效性,选取了Salha等人在文献″G.Salha,R.Hennequin,and M.Vazirgiannis.Keep itsimple:Graph autoencoders without graph convolutional networks.arXiv preprintarXiv:1910.00942,2019.″中提到的LineGAE方法,Pan等人在文献″S.Pan,R.Hu,G. Long,J.Jiang,L.Yao,and C.Zhang.Adversarially Regularized Graph Autoencoder forGraphEmbedding.inProc.IEEE Conf.IJCAI,2018.″中提出的ARGA,和Kipf等人在文献″T.N.Kipf,M.Welling.Variational Graph Auto-Encoders.NIPS Workshop on BayesianDeep Learning.2016.″中提出GAE。以及其他一些基本图嵌入方法。评价指标采用聚类实验中常用的计算精确性(ACC)和归一化互信息(NMI)。对比结果如表1所示(最高值由加粗标出)。
表1实验结果对比
Figure BDA0002884960200000081
从表1可见,本方法在节点聚类实验中的嵌入效果优于其他对比方法。通过以上仿真实验可以验证本发明的有效性。

Claims (1)

1.一种基于自适应图学习的图嵌入方法,其特征在于,包括以下步骤:
步骤1:构建图自编码器框架;
步骤1-1:当原始数据中包含邻接矩阵时将数据特征矩阵X和邻接矩阵A作为图自编码器的输入;当原始数据中不存在邻接矩阵时,通过自适应学习机制利用原始特征信息初始化邻接矩阵A,然后再将数据特征矩阵X和邻接矩阵A输入到图自编码器中;
步骤1-2:图编码过程;
采用两层卷积神经网络作为图编码器进行卷积处理;
第一层卷积神经网络采用Relu函数作为激活函数,第二层卷积神经网络采用线性激活函数;卷积神经网络统一表示为:
Figure FDA0002884960190000011
其中,l为卷积神经网络层数,
Figure FDA0002884960190000012
为正则化后的邻接矩阵
Figure FDA0002884960190000013
I为单位矩阵,W(l)为卷积神经网络权重,
Figure FDA0002884960190000014
为正则化邻接矩阵
Figure FDA0002884960190000015
的度矩阵,且
Figure FDA0002884960190000016
满足
Figure FDA0002884960190000017
Figure FDA0002884960190000018
为度矩阵
Figure FDA0002884960190000019
的对角元素,
Figure FDA00028849601900000110
为矩阵
Figure FDA00028849601900000111
的第i行第j列元素;
Z(l)为生成的潜在表示,第一层生成的潜在表示Z(1)和第二层生成的潜在表示Z(2)分别为:
Z(1)=fRelu(X,A∣W(0)) (2)
Z(2)=flinear(Z(1),A∣W(1)) (3)
其中fRelu代表使用Relu激活函数,flinear代表线性层,W(0)和W(1)分别为卷积神经网络第一层和第二层的权重;Z(0)=X,代表初始的的数据特征矩阵;
步骤1-3:图解码过程;
图解码器采用sigmoid作为激活函数,重构后的邻接矩阵表示为:
Figure FDA00028849601900000112
图解码器部分中的邻接矩阵重构损失表示为:
Figure FDA00028849601900000113
其中⊙代表Hadamard乘积,B为权重矩阵,其计算方式为:B=A*β+1,β为权重参数,
Figure FDA00028849601900000114
表示图自编码器框架部分的损失函数;
步骤2:拉普拉斯图结构;
步骤2-1:定义拉普拉斯图结构表示为:
Figure FDA0002884960190000021
其中对角矩阵D为数据矩阵A的度矩阵,表示为:dii=∑jaij,dii为度矩阵的对角元素,aij为矩阵A的元素;
步骤2-2:拉普拉斯嵌入;
将潜在表示嵌入到拉普拉斯图结构中,则拉普拉斯图结构部分的损失函数为:
Figure FDA0002884960190000022
其中Z=Z(2),tr代表矩阵的迹,γ为自适应学习参数
Figure FDA0002884960190000023
其中
Figure FDA0002884960190000024
Figure FDA0002884960190000025
代表向量的2范数,且hij按照从小大顺序排列;
步骤2-3:定义整体损失函数表示为:
Figure FDA0002884960190000026
其中正则化项
Figure FDA0002884960190000027
步骤3:邻接矩阵的自适应学习;
步骤3-1:通过利用生成的潜在表示Z(2),由式(9)生成新的邻接矩阵AL
Figure FDA0002884960190000028
式(9)是式(7)取最小值求解得到的;计算得到的aij即重构后的邻接矩阵AL的第i行第j列元素;
步骤3-2:邻接矩阵的节点邻居数量k服从于正态分布,正态分布的均值为邻接矩阵上一轮迭代中节点邻居数量的平均值uk,正态分布的方差为1,即
Figure FDA0002884960190000029
步骤3-3:邻接矩阵的部分更新表示为:
A=αAL+(1-α)A0 (10)
其中,α代表调和参数,A0代表初始邻接矩阵;
步骤4:迭代更新求解;
采用梯度下降法进行更新,总损失函数为式(8),采用Adam更新器迭代;最大迭代次数为T,迭代次数t满足0≤t≤T;当0≤t≤τ时,邻接矩阵自适应更新,当τ<t时,邻接矩阵不再更新;
最终求解结果得到图结构邻接矩阵A和特征矩阵X的潜在表示Z。
CN202110010713.6A 2021-01-06 2021-01-06 一种基于自适应图学习的图嵌入方法 Pending CN112862064A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110010713.6A CN112862064A (zh) 2021-01-06 2021-01-06 一种基于自适应图学习的图嵌入方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110010713.6A CN112862064A (zh) 2021-01-06 2021-01-06 一种基于自适应图学习的图嵌入方法

Publications (1)

Publication Number Publication Date
CN112862064A true CN112862064A (zh) 2021-05-28

Family

ID=76004003

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110010713.6A Pending CN112862064A (zh) 2021-01-06 2021-01-06 一种基于自适应图学习的图嵌入方法

Country Status (1)

Country Link
CN (1) CN112862064A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114764858A (zh) * 2022-06-15 2022-07-19 深圳大学 复制粘贴图像识别方法、装置、计算机设备及存储介质
CN116738354A (zh) * 2023-08-15 2023-09-12 国网江西省电力有限公司信息通信分公司 一种电力物联网终端行为异常检测方法及系统

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114764858A (zh) * 2022-06-15 2022-07-19 深圳大学 复制粘贴图像识别方法、装置、计算机设备及存储介质
CN114764858B (zh) * 2022-06-15 2022-11-01 深圳大学 一种复制粘贴图像识别方法、装置、计算机设备及存储介质
CN116738354A (zh) * 2023-08-15 2023-09-12 国网江西省电力有限公司信息通信分公司 一种电力物联网终端行为异常检测方法及系统
CN116738354B (zh) * 2023-08-15 2023-12-08 国网江西省电力有限公司信息通信分公司 一种电力物联网终端行为异常检测方法及系统

Similar Documents

Publication Publication Date Title
CN109754078B (zh) 用于优化神经网络的方法
Montavon et al. Wasserstein training of restricted Boltzmann machines
US9858529B2 (en) Systems and methods for multi-task Bayesian optimization
CN109389151B (zh) 一种基于半监督嵌入表示模型的知识图谱处理方法和装置
WO2022105108A1 (zh) 一种网络数据分类方法、装置、设备及可读存储介质
US11106943B2 (en) Model-aware synthetic image generation
Huang et al. Deep and wide multiscale recursive networks for robust image labeling
CN112529069B (zh) 一种半监督节点分类方法、系统、计算机设备和存储介质
CN109034228B (zh) 一种基于差分隐私和层级相关性传播的图像分类方法
CN112862064A (zh) 一种基于自适应图学习的图嵌入方法
CN115661550B (zh) 基于生成对抗网络的图数据类别不平衡分类方法及装置
Tripathi et al. Image classification using small convolutional neural network
Wiggers et al. Predictive sampling with forecasting autoregressive models
Zhao et al. Universal background subtraction based on arithmetic distribution neural network
Yu et al. Deep learning for topology optimization design
Rezaei et al. G-lbm: Generative low-dimensional background model estimation from video sequences
CN113869234B (zh) 人脸表情识别方法、装置、设备及存储介质
Bhadra et al. Merging two cultures: deep and statistical learning
Wu et al. Sparse and deep generalizations of the frame model
CN116434347B (zh) 一种基于掩码图自编码器的骨架序列识别方法及系统
Arumugam et al. Interpreting denoising autoencoders with complex perturbation approach
Yuan et al. Robust twin extreme learning machines with correntropy-based metric
Rudy et al. Generative class-conditional autoencoders
Jiang et al. Robust Matrix Factorization with Grouping Effect
Graham et al. Applying Neural Networks to a Fractal Inverse Problem

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20210528

RJ01 Rejection of invention patent application after publication