CN113378160A - 一种基于生成式对抗网络的图神经网络模型防御方法及装置 - Google Patents

一种基于生成式对抗网络的图神经网络模型防御方法及装置 Download PDF

Info

Publication number
CN113378160A
CN113378160A CN202110652502.2A CN202110652502A CN113378160A CN 113378160 A CN113378160 A CN 113378160A CN 202110652502 A CN202110652502 A CN 202110652502A CN 113378160 A CN113378160 A CN 113378160A
Authority
CN
China
Prior art keywords
model
graph
node
adjacency matrix
matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110652502.2A
Other languages
English (en)
Inventor
陈晋音
黄国瀚
张任杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN202110652502.2A priority Critical patent/CN113378160A/zh
Publication of CN113378160A publication Critical patent/CN113378160A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/50Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
    • G06F21/55Detecting local intrusion or implementing counter-measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Security & Cryptography (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种基于生成式对抗网络的图神经网络模型防御方法,其特征在于,包括:根据接收的对抗样本数据对应的第一邻接矩阵,对第一图卷积模型进行训练,同时得到第一节点嵌入向量;基于生成式对抗网络构建训练系统,得到第二节点嵌入向量;构建训练系统的损失函数,利用第一损失函数和第二损失函数对训练系统进行训练,确定重构邻接矩阵模型;将对抗网络图像的节点嵌入向量输入至重构邻接矩阵模型得到重构邻接矩阵,将重构邻接矩阵输入干净样本数据训练的图卷积模型,使得所述图卷积模型能够正确分类。本发明还提供了一种基于生成式对抗网络的图神经网络模型防御装置,该装置能够有效地减弱对抗性扰动,提高图神经网络对对抗攻击的鲁棒性。

Description

一种基于生成式对抗网络的图神经网络模型防御方法及装置
技术领域
本发明属于网络安全技术领域,具体涉及一种基于生成式对抗网络的图神经网络模型防御方法。
背景技术
随着互联网的发展,海量数据的产生已经远超出人工计算的能力范围,此外如何对这些数据进行合理分析和有效利用也是一个关键问题。深度学习的出现可以在已知信息有限的情况下,对整体数据进行合理分析和推断,极大地减轻了人工标注的工作量,并且能简便有效地分析数据。而实际生产生活中,很多数据可以被建模为图,例如社交网络中,节点通常是一些个体或者团体组织,个人与个人之间是否存在联系,两者的关系紧密程度等构成了图中节点与节点之间的连边关系(包括权重、方向等)。而图神经网络是处理这一类数据的有效工具之一,它可以通过将图数据的高维特征用低维嵌入向量进行表示,从而使下游应用(如节点分类、图分类、链路预测等)变得简单可行。而图神经网络模型生成的嵌入向量的质量直接关乎下游应用的质量。
随着对图神经网络的研究开展,图神经网络对对抗攻击的脆弱性也获得了研究者的关注。对抗攻击是一种人为设置的,并且经过精心设计的一些扰动。现有的对抗攻击的主要方式由对图中的连边进行添加或删减、修改节点的属性特征或向图中添加虚假节点。对抗攻击生成的扰动往往是隐蔽却具有威胁性的。在现实生活中这类扰动也是常见的,例如在金融交易网络中,低信用客户与一些高信用客户产生一些较小金额的交易(即产生连边关系)则可能有效地提高系统对其判定的信用等级;在存在电信诈骗的网络中,诈骗者通过与正常用户的正常通话隐藏自己的身份而不被系统检测。这些攻击将给人们的生产生活带来安全隐患。
针对上述问题,研究者提出了不同的防御策略,例如在训练过程中随机丢弃一些连边进行对抗训练来达到防御的效果,但是随机性限制了其效果;根据节点特征的相似度对不相似节点间的连边进行删除从而达到去除对抗扰动的效果,然而这种方法受限于已有的知识。因此,如何对图数据中的对抗扰动进行有效去除,并且保证主任务的性能不下降,对提高图神经网络的鲁棒性和安全性具有重要的现实意义。
发明内容
本发明提供了一种基于生成式对抗网络的图神经网络防御方法。该防御方法基于生成式对抗网络,通过对输入图数据进行合理重构来对数据中潜在的对抗性扰动进行剔除,从而提高图神经网络模型对对抗攻击的鲁棒性。
实施例提供的一种基于生成式对抗网络的图神经网络模型防御方法,包括:
(1)根据接收的对抗样本数据对应的第一邻接矩阵,利用交叉熵损失函数,对第一图卷积模型进行训练,同时得到第一节点嵌入向量;
(2)基于生成式对抗网络构建训练系统,包括生成器和判别器,生成器包括第一图卷积模型和解码器,将输入的第一节点嵌入向量通过解码器解码得到第二邻接矩阵,向第二邻接矩阵添加选择权重矩阵得到第三邻接矩阵,所述第三邻接矩阵为重构邻接矩阵,将第三邻接矩阵输入到第一图卷积模型,得到第二节点嵌入向量;判别器包括至少一个全连接网络,用于对生成的第二节点嵌入向量的质量进行评分;
(3)构建训练系统的损失函数,根据第一节点嵌入向量通过判别器输出的第一判别信息,根据第二节点嵌入向量通过判别器输出的第二判别信息,第一判别信息与第二判别信息构建第一损失函数;第二判别信息,第一节点嵌入向量和第二节点嵌入向量的均方差构建第二损失函数;
(4)利用第一损失函数和第二损失函数对训练系统进行训练,训练结束时,确定参数的生成器组成重构邻接矩阵模型;
(5)将对抗网络图像的节点嵌入向量输入至重构邻接矩阵模型得到重构邻接矩阵,将重构邻接矩阵输入至第二图卷积模型,所述第二图卷积模型为干净样本数据训练的图卷积模型,通过输入重构邻接矩阵使得第二图卷积模型能够对受攻击节点正确分类。
所述的第一节点嵌入向量为:
Figure BDA0003112208480000021
l代表模型层数,
Figure BDA0003112208480000022
IN为大小为N×N的单位矩阵,N为网络中节点数,
Figure BDA0003112208480000031
代表节点的度矩阵,Wl为第l层的权重矩阵,σ(·)为非线性激活函数,则模型输出的节点嵌入向量
Figure BDA0003112208480000032
A代表原始图对应的邻接矩阵;
Figure BDA0003112208480000033
代表对抗样本对应的邻接矩阵;i,j代表节点i与节点j;Xl+1表示第l+1层节点嵌入向量;
Figure BDA0003112208480000034
表示输入为
Figure BDA0003112208480000035
时,第一图卷积模型最终输出的节点嵌入向量。
所述的将输入的第一节点嵌入向量通过解码器解码得到第二邻接矩阵具体步骤为:
对第一节点嵌入向量解码处理获得预测网络的第二邻接矩阵A',解码方式为:
Figure BDA0003112208480000036
Figure BDA0003112208480000037
其中·T代表转置操作。sigmoid(·)为非线性激活函数,将预测网络的预测值映射在[0,1]范围内。round(·)函数为取整操作,将输入大于0.5的值置为1,将输入小于等于0.5的值置为0,则可得到第二邻接矩阵A′。
所述的向第二邻接矩阵添加选择权重矩阵得到第三邻接矩阵的具体步骤为:
向第二邻接矩阵添加选择权重矩阵,用于在训练中选择连边进行图重构,得到第三邻接矩阵为:
Figure BDA0003112208480000038
其中,操作符⊙代表逐元素相乘。
所述的第二节点嵌入向量为:
Z′=f1(A″,X)
其中,f1(·)为第一图卷积模型,X为节点特征矩阵。
所述的判别器为:
D(Z)=sigmoid(Wd2LeakyReLU(Wd1(Z+bd1))+bd2)
其中,LeakyReLU(·)为非线性激活函数,W和b分别为全连接网络的权重矩阵和偏置矩阵。d1代表全连接网络的第一层,d2代表全连接网络的第二层。
第一损失函数loss_d1为:
Figure BDA0003112208480000041
第二损失函数loss_d2为:
Figure BDA0003112208480000042
其中,K为训练集的节点数,k为第k个节点,
Figure BDA0003112208480000043
为第一判别信息,D(Z′k)为第二判别信息。
所述的通过输入重构邻接矩阵使得第二图卷积模型能够对受攻击节点正确分类,即第二图卷积模型对对抗样本中的受攻击节点无法正确分类,通过使用基于生成式对抗网络的图神经网络模型防御方法生成重构图对应的重构邻接矩阵,将重构邻接矩阵输入第二图卷积模型,使其能对受攻击节点正确分类,从而达到防御效果。
一种基于生成式对抗网络的图神经网络模型防御装置,包括计算机存储器、计算机处理器以及存储在所述计算机存储器中并可在所述计算机处理器上执行的计算机程序,所述计算机存储器中采用上述基于生成式对抗网络的图神经网络模型防御方法构建的重构邻接矩阵模型;
所述计算机处理器执行所述计算机程序时实现以下步骤:
将对抗样本的节点嵌入向量输入至重构邻接矩阵模型得到重构邻接矩阵,将重构邻接矩阵输入至第二图卷积模型,所述第二图卷积模型为干净样本数据训练的图卷积模型,通过输入重构邻接矩阵使得第二图卷积模型能够对受攻击节点正确分类。
与现有技术相比,本发明具有的有益效果为:
本发明提供的基于生成式对抗网络的图神经网络模型防御方法,首先通过对抗网络训练一个图卷积模型,获得相应的节点嵌入向量;其次通过解码的方式得到初始预测邻接矩阵,构建一个可训练的选择权重矩阵用于筛选连边,利用基于图卷积模型的编码器对对抗网络的节点进行编码,获得相应的节点嵌入向量,再构建判别器对生成的节点嵌入向量进行评分,调整选择权重矩阵,最终生成一个干净的网络,可以有效地减弱由恶意方向图中添加的对抗性扰动,提高图神经网络对对抗攻击的鲁棒性。
附图说明
图1是基于生成式对抗网络的图神经网络模型防御方法的整体框架示意图片。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚明白,下面结合附图对本发明作进一步详细描述。
实施例提供的一种基于生成式对抗网络的图神经网络模型防御方法,主要用于社交领域,在社交网络中,节点通常是一些个体或者团体组织,个人与个人之间是否存在联系,两者的关系紧密程度等构成了图中节点与节点之间的连边关系(包括权重、方向等)。
如图1所示,实施例提供的一种基于生成式对抗网络的图神经网络模型防御方法,包括以下步骤:
(1)根据接收的对抗样本数据对应的第一邻接矩阵,利用交叉熵损失函数,对第一图卷积模型进行训练,同时得到第一节点嵌入向量;
其中,对抗样本数据是指被攻击的社交网络图,构建的图神经网络模型用于某些社交行为预测。
(2)基于生成式对抗网络构建训练系统,包括生成器和判别器,生成器包括第一图卷积模型和解码器,将输入的第一节点嵌入向量通过解码器解码得到第二邻接矩阵,向第二邻接矩阵添加选择权重矩阵得到第三邻接矩阵,所述第三邻接矩阵为重构邻接矩阵,将第三邻接矩阵输入到第一图卷积模型,得到第二节点嵌入向量;判别器包括至少一个全连接网络,用于对生成的第二节点嵌入向量的质量进行评分;
(3)构建训练系统的损失函数,根据第一节点嵌入向量通过判别器输出的第一判别信息,根据第二节点嵌入向量通过判别器输出的第二判别信息,第一判别信息与第二判别信息构建第一损失函数;第二判别信息,第一节点嵌入向量和第二节点嵌入向量的均方差构建第二损失函数;
(4)利用第一损失函数和第二损失函数对训练系统进行训练,训练结束时,确定参数的生成器组成重构邻接矩阵模型;
(5)将对抗样本的节点嵌入向量输入至重构邻接矩阵模型得到重构邻接矩阵,将重构邻接矩阵输入至第二图卷积模型,所述第二图卷积模型为干净样本数据训练的图卷积模型,通过输入重构邻接矩阵使得第二图卷积模型能够对受攻击节点正确分类。
参照图1,一种基于生成式对抗网络的图神经网络模型防御方法,包括以下步骤:
1)利用对抗网络训练图卷积模型并获得节点嵌入向量;
如图1所示,首先将对抗网络
Figure BDA0003112208480000061
对应的邻接矩阵
Figure BDA0003112208480000062
输入到图卷积模型中进行训练,获得一个训练好的图卷积模型f1和相应的节点嵌入向量。节点嵌入向量的表达式为:
Figure BDA0003112208480000063
其中l代表模型层数,此处使用双层图卷积模型;当l=0时,X0为输入的节点特征;
Figure BDA0003112208480000064
IN为大小为N×N的单位矩阵(网络中节点数为N)。
Figure BDA0003112208480000065
代表节点的度矩阵。Wl为第l层的权重矩阵。σ(·)为非线性激活函数。则模型输出的节点嵌入向量
Figure BDA0003112208480000066
A代表原始图对应的邻接矩阵;
Figure BDA0003112208480000067
代表对抗样本对应的邻接矩阵;i,j代表节点i与节点j;Xl+1表示第l+1层节点嵌入向量。
2)构建并训练生成器G;
如图1所示,将步骤1)所得的图卷积模型作为生成器中的编码器,用于获得新的节点嵌入向量。生成器生成重构图的节点嵌入向量的具体步骤如下:
a)对
Figure BDA0003112208480000068
进行解码
对步骤1输出的节点嵌入向量做解码处理获得预测网络的邻接矩阵A′。解码方式为:
Figure BDA0003112208480000069
Figure BDA00031122084800000610
其中·T代表转置操作。sigmoid(·)为非线性激活函数,将预测网络的预测值映射在[0,1]范围内。round(·)函数为取整操作,将输入大于0.5的值置为1,将输入小于等于0.5的值置为0,则可得到邻接矩阵A′。
Figure BDA00031122084800000611
表示输入为
Figure BDA0003112208480000071
时,第一图卷积模型最终输出的节点嵌入向量。
b)选择连边进行图重构
为邻接矩阵A添加一个可训练的选择权重矩阵S,用于在训练中选择连边进行图重构。则重构的邻接矩阵被定义为:
Figure BDA0003112208480000072
其中操作符⊙代表逐元素相乘。为保持邻接矩阵的对称性,故进行了转置和相加操作。
c)获取重构图后的编码器生成的节点嵌入向量
将重构的邻接矩阵A″作为编码器的输入,获得重构后的节点嵌入向量:
Z′=f1(A″,X) (5)
其中f1(·)为步骤1)中得到的训练好的图卷积模型。
3)构建并训练判别器D;
如图1所示,在获得重构图的节点嵌入向量Z后,将其输入到一个全连接网络中,为生成的节点嵌入向量打分,该全连接网络可以表示为:
D(Z)=sigmoid(Wd2LeakyReLU(Wd1(Z+bd1))+bd2) (6)
其中,LeakyReLU(·)为非线性激活函数。W和b分别为全连接网络的权重矩阵和偏置矩阵。d1代表全连接网络的第一层,d2代表全连接网络的第二层。
在训练过程中,判别器D的损失函数为:
Figure BDA0003112208480000073
生成器G的训练损失函数为:
Figure BDA0003112208480000074
其中K为训练集的节点数,k为第k个节点。该训练步骤的目的在于拟合步骤2生成的节点嵌入向量和真实的节点嵌入向量。
4)利用图神经网络模型实现具有防御功能的分类任务预测
经过训练后,将重构图的邻接矩阵A″作为图神经网络的输入,完成分类任务。
以图卷积模型和节点分类任务为例,与步骤1)描述类似,最终输出的分类结果为:
Figure BDA0003112208480000081
其中W0和W1分别为图卷积模型的第1层和第2层权重矩阵。该模型的训练目标是最小化交叉熵损失函数,该损失函数定义如下:
Figure BDA0003112208480000082
其中NL为训练节点集合(带有标签)NL=[n1,···,n|F|],F=[t1,···,t|F|]为图中节点的所有标签集合,则|F|代表总的标签数,Y代表真实的标签矩阵。如果节点nl属于类别tk,则Ylk=1,如果节点nl不属于类别tk,则Ylk=0。Y′由公式(9)计算所得,
Figure BDA0003112208480000083

Claims (9)

1.一种基于生成式对抗网络的图神经网络模型防御方法,其特征在于,包括:
(1)根据接收的对抗样本数据对应的第一邻接矩阵,利用交叉熵损失函数,对第一图卷积模型进行训练,同时得到第一节点嵌入向量;
(2)基于生成式对抗网络构建训练系统,包括生成器和判别器,生成器包括第一图卷积模型和解码器,将输入的第一节点嵌入向量通过解码器解码得到第二邻接矩阵,向第二邻接矩阵添加选择权重矩阵得到第三邻接矩阵,所述第三邻接矩阵为重构邻接矩阵,将第三邻接矩阵输入到第一图卷积模型,得到第二节点嵌入向量;判别器包括至少一个全连接网络,用于对生成的第二节点嵌入向量的质量进行评分;
(3)构建训练系统的损失函数,根据第一节点嵌入向量通过判别器输出的第一判别信息,根据第二节点嵌入向量通过判别器输出的第二判别信息,第一判别信息与第二判别信息构建第一损失函数;第二判别信息,第一节点嵌入向量和第二节点嵌入向量的均方差构建第二损失函数;
(4)利用第一损失函数和第二损失函数对训练系统进行训练,训练结束时,确定参数的生成器组成重构邻接矩阵模型;
(5)将对抗网络图像的节点嵌入向量输入至重构邻接矩阵模型得到重构邻接矩阵,将重构邻接矩阵输入至第二图卷积模型,所述第二图卷积模型为干净样本数据训练的图卷积模型,通过输入重构邻接矩阵使得第二图卷积模型能够对受攻击节点正确分类。
2.根据权利要求1所述的基于生成式对抗网络的图神经网络模型防御方法,其特征在于,所述的第一节点嵌入向量为:
Figure FDA0003112208470000011
l代表模型层数,
Figure FDA0003112208470000012
IN为大小为N×N的单位矩阵,N为网络中节点数,
Figure FDA0003112208470000013
代表节点的度矩阵,Wl为第l层的权重矩阵,σ(·)为非线性激活函数,则模型输出的节点嵌入向量
Figure FDA0003112208470000014
A代表原始图对应的邻接矩阵;
Figure FDA0003112208470000015
代表对抗样本对应的邻接矩阵;i,j代表节点i与节点j;Xl+1表示第l+1层节点嵌入向量。
3.根据权利要求1所述的基于生成式对抗网络的图神经网络模型防御方法,其特征在于,所述的将输入的第一节点嵌入向量通过解码器解码得到第二邻接矩阵具体步骤为:
对第一节点嵌入向量解码处理获得预测网络的第二邻接矩阵A’,解码方式为:
Figure FDA0003112208470000021
Figure FDA0003112208470000022
其中·T代表转置操作,sigmoid(·)为非线性激活函数,将预测网络的预测值映射在[0,1]范围内,round(·)函数为取整操作,将输入大于0.5的值置为1,将输入小于等于0.5的值置为0,则可得到第二邻接矩阵A′,
Figure FDA0003112208470000023
表示输入为
Figure FDA0003112208470000024
时,第一图卷积模型最终输出的节点嵌入向量。
4.根据权利要求1所述的基于生成式对抗网络的图神经网络模型防御方法,其特征在于,所述的向第二邻接矩阵添加选择权重矩阵得到第三邻接矩阵的具体步骤为:
向第二邻接矩阵添加选择权重矩阵,用于在训练中选择连边进行图重构,得到第三邻接矩阵为:
Figure FDA0003112208470000025
其中,操作符⊙代表逐元素相乘。
5.根据权利要求1所述的基于生成式对抗网络的图神经网络模型防御方法,其特征在于,所述的第二节点嵌入向量为:
Z′=f1(A″,X)
其中,f1(·)为第一图卷积模型,X为节点特征矩阵。
6.根据权利要求1所述的基于生成式对抗网络的图神经网络模型防御方法,其特征在于,所述的判别器为:
D(Z)=sigmoid(Wd2LeakyReLU(Wd1(Z+bd1))+bd2)
其中,LeakyReLU(·)为非线性激活函数,W和b分别为全连接网络的权重矩阵和偏置矩阵,d1代表全连接网络的第一层,d2代表全连接网络的第二层。
7.根据权利要求1所述的基于生成式对抗网络的图神经网络模型防御方法,其特征在于,第一损失函数loss_d1为:
Figure FDA0003112208470000031
第二损失函数losS_d2为:
Figure FDA0003112208470000032
其中,K为训练集的节点数,k为第k个节点,
Figure FDA0003112208470000033
为第一判别信息,D(Z′k)为第二判别信息。
8.根据权利要求1所述的基于生成式对抗网络的图神经网络模型防御方法,其特征在于,所述的通过输入重构邻接矩阵使得第二图卷积模型能够对受攻击节点正确分类,即第二图卷积模型对对抗样本中的受攻击节点无法正确分类,通过使用基于生成式对抗网络的图神经网络模型防御方法生成重构图对应的重构邻接矩阵,将重构邻接矩阵输入第二图卷积模型,使其能对受攻击节点正确分类,从而达到防御效果。
9.一种基于生成式对抗网络的图神经网络模型防御装置,包括计算机存储器、计算机处理器以及存储在所述计算机存储器中并可在所述计算机处理器上执行的计算机程序,其特征在于,所述计算机存储器中采用权利要求1~8任一项所述的基于生成式对抗网络的图神经网络模型防御方法构建的重构邻接矩阵模型;
所述计算机处理器执行所述计算机程序时实现以下步骤:
将对抗样本的节点嵌入向量输入至重构邻接矩阵模型得到重构邻接矩阵,将重构邻接矩阵输入至第二图卷积模型,所述第二图卷积模型为干净样本数据训练的图卷积模型,通过输入重构邻接矩阵使得第二图卷积模型能够对受攻击节点正确分类。
CN202110652502.2A 2021-06-11 2021-06-11 一种基于生成式对抗网络的图神经网络模型防御方法及装置 Pending CN113378160A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110652502.2A CN113378160A (zh) 2021-06-11 2021-06-11 一种基于生成式对抗网络的图神经网络模型防御方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110652502.2A CN113378160A (zh) 2021-06-11 2021-06-11 一种基于生成式对抗网络的图神经网络模型防御方法及装置

Publications (1)

Publication Number Publication Date
CN113378160A true CN113378160A (zh) 2021-09-10

Family

ID=77573910

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110652502.2A Pending CN113378160A (zh) 2021-06-11 2021-06-11 一种基于生成式对抗网络的图神经网络模型防御方法及装置

Country Status (1)

Country Link
CN (1) CN113378160A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113887719A (zh) * 2021-09-13 2022-01-04 北京三快在线科技有限公司 一种模型压缩方法及装置
CN113990353A (zh) * 2021-10-27 2022-01-28 北京百度网讯科技有限公司 识别情绪的方法、训练情绪识别模型的方法、装置及设备
CN116189809A (zh) * 2023-01-06 2023-05-30 东南大学 一种基于对抗攻击的药物分子重要节点预测方法
CN117240689A (zh) * 2023-11-10 2023-12-15 北京航空航天大学杭州创新研究院 一种基于深度对比学习的节点受攻击复杂网络自重建方法
CN113806546B (zh) * 2021-09-30 2024-04-05 中国人民解放军国防科技大学 一种基于协同训练的图神经网络对抗防御方法及系统

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113887719A (zh) * 2021-09-13 2022-01-04 北京三快在线科技有限公司 一种模型压缩方法及装置
CN113806546B (zh) * 2021-09-30 2024-04-05 中国人民解放军国防科技大学 一种基于协同训练的图神经网络对抗防御方法及系统
CN113990353A (zh) * 2021-10-27 2022-01-28 北京百度网讯科技有限公司 识别情绪的方法、训练情绪识别模型的方法、装置及设备
CN113990353B (zh) * 2021-10-27 2024-05-07 北京百度网讯科技有限公司 识别情绪的方法、训练情绪识别模型的方法、装置及设备
CN116189809A (zh) * 2023-01-06 2023-05-30 东南大学 一种基于对抗攻击的药物分子重要节点预测方法
CN116189809B (zh) * 2023-01-06 2024-01-09 东南大学 一种基于对抗攻击的药物分子重要节点预测方法
CN117240689A (zh) * 2023-11-10 2023-12-15 北京航空航天大学杭州创新研究院 一种基于深度对比学习的节点受攻击复杂网络自重建方法
CN117240689B (zh) * 2023-11-10 2024-02-06 北京航空航天大学杭州创新研究院 一种基于深度对比学习的节点受攻击复杂网络自重建方法

Similar Documents

Publication Publication Date Title
CN113378160A (zh) 一种基于生成式对抗网络的图神经网络模型防御方法及装置
Lukas et al. Sok: How robust is image classification deep neural network watermarking?
Salama et al. Hybrid intelligent intrusion detection scheme
CN113961759A (zh) 基于属性图表示学习的异常检测方法
CN112884204B (zh) 网络安全风险事件预测方法及装置
Kumar et al. AE-DCNN: Autoencoder enhanced deep convolutional neural network for malware classification
Ding et al. Efficient BiSRU combined with feature dimensionality reduction for abnormal traffic detection
Zhang et al. An intrusion detection method based on stacked sparse autoencoder and improved gaussian mixture model
Kulyadi et al. Anomaly detection using generative adversarial networks on firewall log message data
CN111737688B (zh) 基于用户画像的攻击防御系统
Hao et al. A sequential detection method for intrusion detection system based on artificial neural networks
CN116306780B (zh) 一种动态图链接生成方法
Xin et al. Research on feature selection of intrusion detection based on deep learning
CN115659387A (zh) 一种基于神经通路的用户隐私保护方法、电子设备、介质
CN115695025A (zh) 网络安全态势预测模型的训练方法及装置
Ahmad Enhancing MLP performance in intrusion detection using optimal feature subset selection based on genetic principal components
CN112950222A (zh) 资源处理异常检测方法、装置、电子设备及存储介质
Cheng et al. BHONEM: Binary high-order network embedding methods for networked-guarantee loans
Kalhotra et al. Data mining and machine learning techniques for credit card fraud detection
CN112800435A (zh) 基于深度学习的sql注入检测方法
Zhang et al. Understanding Deep Gradient Leakage via Inversion Influence Functions
CN114662143B (zh) 一种基于图嵌入的敏感链接隐私保护方法
KR102663767B1 (ko) Ai기반 가상자산 고위험 지갑주소 db 자동 업데이트 방법
CN114896539A (zh) 一种基于图变分自编码器的匿名社交图恢复方法及系统
CN115828312B (zh) 一种面向电力用户社交网络的隐私保护方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20210910

RJ01 Rejection of invention patent application after publication