CN115719085B - 一种深度神经网络模型反演攻击防御方法及设备 - Google Patents
一种深度神经网络模型反演攻击防御方法及设备 Download PDFInfo
- Publication number
- CN115719085B CN115719085B CN202310030791.1A CN202310030791A CN115719085B CN 115719085 B CN115719085 B CN 115719085B CN 202310030791 A CN202310030791 A CN 202310030791A CN 115719085 B CN115719085 B CN 115719085B
- Authority
- CN
- China
- Prior art keywords
- model
- inversion
- loss
- sample
- representing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Data Exchanges In Wide-Area Networks (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明涉及一种深度神经网络模型反演攻击防御方法及设备,提出了一种基于生成对抗网络和假样本的模型反演攻击防御方法,先利用生成对抗网络生成虚假样本,在根据虚假样本在保证目标受害者模型的有效性的基础上,微调目标受害者模型参数,从而实现防御模型反演攻击的目的。本发明可以有效地对抗模型反演攻击,保护数据隐私性,同时确保模型的高可用性。
Description
技术领域
本发明属于人工智能安全领域,尤其涉及一种深度神经网络模型反演攻击防御方法及设备。
背景技术
目前,深度学习在各种现实应用中表现得令人印象深刻,例如人脸识别、自动驾驶和目标检测。训练一个高性能的深度学习模型需要大量的敏感或私有数据,以及大量的计算资源和存储资源。许多模型供应商将训练良好的模型作为web服务提供给用户,用户可以发送输入样例并获得模型的输出。一个流行的例子是人脸识别web APIs,这样的服务被广泛用于各个领域的人脸验证与人脸识别。微软云认知服务和NaverClova也为用户提供了其他类型的图像分析web API。然而最近的研究表明,通过访问受害者模型的方式,攻击者可能会获取到敏感的训练数据,这带来了极大的安全隐患。近年来,一种被称为模型反演攻击Model Inversion Attacks,简称MIA的新型攻击引起了广泛的关注。
模型反演攻击的原理是向深度学习模型发送大量的询问请求,并根据API的输入和输出恢复出任何给定标签的相应训练数据。比如,对于一个人脸识别模型,模型反演攻击可以重建训练数据中任何人的面部。随着模型反演技术的发展,现有的工作甚至可以对在高分辨率数据集上训练的深度神经网络都很有效。这样高准确度的重建面部图像甚至可以通过访问控制系统,带来了严重的安全风险。
模型反演攻击可以分为黑盒设置和白盒设置。在黑盒设置中,攻击者只能通过获取预测向量的方式来访问模型,比如谷歌云机器学习引擎);在白盒设置中,攻击者可以获得商业模型的所有信息,比如一个开源可下载的人脸识别服务模型。
迄今为止,很少有专门针对模型反演的防御工作。现有技术一般通过下述方法实现敏感信息的数据的保护:
方法一:基于差分隐私的防御,通过向数据中添加噪声来保护隐私信息。理论上,差分隐私可以用于保护训练数据的安全性。但是,差分隐私无法在保证受害者模型准确率的同时,保护数据的隐私性。此外,有理论分析表明,差分隐私无法防御模型反演攻击。
方法二:基于预测纯化的防御,通过纯化模型的预测输出以防御攻击。具体来说,防御方需要训练一个净化器模型,旨在将返回的可信度向量中包含的信息最小化,并保持模型的预测准确性。为了防御模型反演攻击,该方法减少了模型预测置信度向量在成员和非成员数据之间的差别。因此,训练样本与预测向量之间的相关性减弱。于是,攻击者在进行模型反演攻击时,无法获得准确的训练数据。
方法三:基于预测扰动的防御,通过向预测输出中加入噪声来干扰攻击者。这种策略要求最大化反演误差,并尽量减少对于目标受害者模型的可用性损失。但是在实际应用中,此方法会损害目标受害者模型的预测准确率。
综上,目前针对模型反演的防御存在矛盾:在保证了模型可用性的情况下,无法有效地防御先进的模型反演攻击;相反的,加入过量噪声可以保护训练数据的安全性,却大大影响了模型的准确率。
发明内容
本发明的目的是在于提供一种基于生成对抗网络和假样本的模型反演攻击防御方法,可以在有效地保护数据隐私性的同时,确保模型的高可用性。
为实现以上目的,本发明提供了如下方案:
步骤1,训练模型;所述模型包括使用隐私数据集训练的目标受害者模型与使用公开数据集的分类器模型,目标受害者模型为深度学习模型,采用现有的深度学习模型均可,分类器采用现有分类器均可。
步骤2,利用生成对抗网络,生成虚假样本。所述生成对抗网络包括由深度神经网络组成的生成器模块和鉴别器模块;所述虚假样本包括反演公开样本和反演隐私样本;所述反演公开样本是指,对基于公开数据集训练的分类器进行反演攻击来重构获得的样本;所述反演隐私样本是指,对目标受害者模型进行反演攻击来重构获得的样本。
步骤3,根据虚假样本在保证目标受害者模型的有效性的基础上,微调目标受害者模型参数,从而实现防御模型反演攻击的目的。
可选的,如果目标受害者模型已经预训练完成,将直接使用所述目标受害者模型;否则,所述目标受害者模型的训练过程具体为:
步骤1.1,根据隐私数据样本的交叉熵构建损失函数。
步骤1.2,利用所述损失函数和随机梯度下降算法训练目标受害者模型。
分类器模型的训练过程具体包括:
1)所述分类器模型的训练集为公开数据集;所述的公开数据集是与隐私数据集相同领域的一个常用公开数据集。
2)所述分类器模型的训练遵循标准深度神经网络训练过程。
可选的,生成反演公开样本包括分类器模块、生成对抗网络模块两个部分,所述生成反演公开样本的过程具体为:
步骤2.1.1,随机选取公开数据集中的一类保护数据
l p;
步骤2.1.2,初始化生成对抗网络的生成器模块输入向量
z pub,获得输出图像
img pub;
步骤2.1.3,将步骤2.1.2所述图像
img pub输入分类器模块,获得输出向量;
步骤2.1.4,构建损失函数;所述损失函数计算过程如下:
,,
其中表示优化反演公开样本优化过程中学习后的
z pub向量,
L discri表示生成对抗网络鉴别器损失,
L iden表示可识别性损失,D表示生成对抗网络中的鉴别器模块,
F C表示分类器模块,G表示生成对抗网络中的生成器模块,
λ为
L iden的参数,表示交叉熵函数。
步骤2.1.5,根据步骤2.1.4的损失函数更新生成对抗网络的输入
z pub;
步骤2.1.6,循环执行所述步骤2.1.1到步骤2.1.5,此循环过程将在到达预先设置的迭代次数后终止;将最终的
z pub输入生成对抗网络的生成器模块,输出即为反演公开样本。
可选的,生成反演隐私样本包括目标受害者模型模块、生成对抗网络模块两个部分,所述生成反演隐私样本的过程具体为:
步骤2.2.1,选取隐私数据集中的需要保护的一类数据
l t;
步骤2.2.2,初始化生成对抗网络的生成器模块输入向量
z pri,获得输出图像
img pri;
步骤2.2.3,将步骤2.2.2所述图像
img pri输入目标受害者模型模块,获得输出向量;
步骤2.2.4,构建损失函数;所述损失函数计算过程如下:
,,
其中
Z*表示优化反演隐私样本优化过程中学习后的
z pri向量,
L discri表示生成对抗网络鉴别器损失,
L iden表示可识别性损失,D表示生成对抗网络中的鉴别器模块,
F C表示分类器模块,G表示生成对抗网络中的生成器模块,
λ为
L iden的参数;
步骤2.2.5,将步骤2.2.4所述的损失向后传递,更新生成对抗网络的输入
z pri;
步骤2.2.6,循环执行所述步骤2.2.1到步骤2.2.5,此循环过程将在到达预先设置的迭代次数后终止,将最终的
z pri输入生成对抗网络的生成器模块,输出即为反演隐私样。
优选地,微调目标模型参数包括最大化反演隐私样本的损失和最小化反演公开样本的损失,所述反演隐私样本的损失函数为;所述反演公开样本的损失函数为;微调目标模型参数的过程利用了持续学习算法,还包括可塑权重巩固的正则化项,所述正则化项为,步骤3的全部过程表示为,其中θ为目标受害者模型的参数集,α、β和ω分别是三个损失项的参数,所述反演隐私样本的损失函数为,所述反演公开样本的损失函数为。
基于同一发明构思,本发明还设计了一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现所述深度神经网络模型反演攻击防御方法所执行的操作。
基于同一发明构思,本发明还设计了一种计算机可读介质,其上存储有计算机程序,所述程序被处理器执行时实现所述深度神经网络模型反演攻击防御方法所执行的操作。
本发明的有益效果是:
本发明可以与通用的网络服务结合,保护数据的安全。在防御对抗样本的性能方面,本发明的防御效果在面对不同种类的模型反演攻击时,均很好地保护了隐私数据,同时不影响目标受害者模型的准确率。
本发明可以防御模型反演攻击,保护深度神经网络模型的安全性。本发明可以应用到已有的网络服务上,使得攻击者无法从受保护的网络中获取隐私数据。
本发明不会影响原本神经网络模型的功能。与目前的防御方法不同,本发明使用了持续学习算法,在保护了隐私训练数据的同时,维持了目标受害者模型的准确率。
附图说明
图1为本发明所提出的防御方法的总流程图。
图2为在不同原始训练集下,本发明与其他防御方法在受到不同种类模型反演攻击的对比结果。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例对本发明进行进一步的详细说明。应当理解,此处所描述的具体实施方式仅仅用以解释本发明,并不限定本发明的保护范围。为了实现对模型反演攻击进行防御,本发明提供了一种基于利用生成对抗网络生成假样本的对模型反演攻击的防御方法,该防御方法包括三个阶段,如图1总体架构图所示,分别为训练模型、生成虚假样本、微调目标受害者模型参数。按照本发明内容完整方法实施的实施例如下:
首先进行模型训练,本实例中目标受害者模型的结构为VGG-16,包括22层和37个深度单元。使用公开数据集CelebA作为公开的训练数据集,本发明的目标受害者模型采用现有技术的其他深度学习模型也可,如resnet、VGGnet、AlexNet、FaceNet模型。
步骤1,使用隐私数据集训练目标受害者模型,使用公开数据集CelebA训练分类器模型。在训练目标受害者模型时,根据隐私数据样本的交叉熵构建损失函数,并利用所述损失函数和随机梯度下降算法训练目标受害者模型。分类器模型使用CelebA作为训练集,遵循标准深度神经网络训练过程进行训练。本发明的分类器采用现有技术的分类器即可,如resnet、VGGnet、AlexNet。
步骤2,利用生成对抗网络,生成虚假样本。本案例构建的生成对抗网络G包括由深度神经网络组成的生成器模块和鉴别器模块。生成器用于生成反演图像,鉴别器用于鉴别生成器生成图像的可信度。本发明使用生成对抗网络生成虚假样本,用于干扰攻击者的攻击模型。生成器模块和鉴别器模块采用现有的GAN结构即可。
生成的虚假样本分为反演公开样本和反演隐私样本两种:对基于公开数据集训练的分类器的干扰类别
l p进行反演攻击,重构获得的反演公开样本;对目标受害者模型中受保护的目标类别
l t进行反演攻击,重构获得的反演隐私样本。反演公开样本是用于干扰的图像,反演隐私样本是需要保护的隐私图像。
反演公开样本的生成过程具体为:
步骤2.1.1,随机选取公开数据集中的一类保护数据
l p;
步骤2.1.2,初始化生成对抗网络的生成器模块输入向量
z pub,获得输出图像
img pub;
步骤2.1.3,将步骤2.1.2所述图像
img pub输入分类器模块,获得输出向量;
步骤2.1.4,构建损失函数;所述损失函数计算过程如下:
,,
其中表示优化反演公开样本优化过程中学习后的
z pub向量,
L discri表示生成对抗网络鉴别器损失,
L iden表示可识别性损失,D表示生成对抗网络中的鉴别器模块,
F C表示分类器模块,G表示生成对抗网络中的生成器模块,
λ为
L iden的参数,表示交叉熵函数;
步骤2.1.5,根据步骤2.1.4的损失函数更新生成对抗网络的输入
z pub;
步骤2.1.6,循环执行所述步骤2.1.1到步骤2.1.5,此循环过程将在到达预先设置的迭代次数后终止;将最终的
z pub输入生成对抗网络的生成器模块,输出即为反演公开样本。
生成反演隐私样本的过程具体为:
步骤2.2.1,选取隐私数据集中的需要保护的一类数据
l t;
步骤2.2.2,初始化生成对抗网络的生成器模块输入向量
z pri,获得输出图像
img pri;
步骤2.2.3,将步骤2.2.2所述图像
img pri输入目标受害者模型模块,获得输出向量;
步骤2.2.4,构建损失函数;所述损失函数计算过程如下:
,,
其中
Z*表示优化反演隐私样本优化过程中学习后的
z pri向量,
L discri表示生成对抗网络鉴别器损失,
L iden表示可识别性损失,D表示生成对抗网络中的鉴别器模块,
F C表示分类器模块,G表示生成对抗网络中的生成器模块,
λ为
L iden的参数,
L CE表示交叉熵函数;
步骤2.2.5,将步骤2.2.4所述的损失向后传递,更新生成对抗网络的输入
z pri;
步骤2.2.6,循环执行所述步骤2.2.1到步骤2.2.5,此循环过程将在到达预先设置的迭代次数后终止,将最终的
z pri输入生成对抗网络的生成器模块,输出即为反演隐私样本。本实施例中迭代100轮,学习率10的-3次方。
在本发明的防御下,攻击者仅能推测出公开数据集中的特征,而不能获得隐私数据集中受保护类别的样本特征。
步骤3,根据虚假样本在保证目标受害者模型的有效性的基础上,微调目标受害者模型参数,从而实现防御模型反演攻击的目的。
为了防止反演出的隐私数据集中受保护类别
l t,本发明微调目标受害者模型的参数,从而最大化了反演隐私样本的损失。为了使得攻击者可以反演出公开数据集的干扰类别
l p,本发明通过微调目标受害者模型的参数,最小化了反演公开样本的损失。这个过程相当于向隐私数据集受保护类别
l t中注入干扰样本,使得目标受害者模型在反演公开样本上达到过拟合的效果同时,为了在持续学习的过程中维持目标受害者模型的高准确率,本发明采用了可塑权重巩固算法,增加正则化项。
步骤3的全部过程可表示为,其中θ为目标受害者模型的参数集,α、β和ω分别是三个损失项的参数,本实施例中α=1,β=2,ω=5。
图2为在不同原始训练集下,本发明与其他防御方法在受到不同种类模型反演攻击的对比结果。可以看到,从整体来看,本方法在各种的模型反演攻击下都表现更好。相对于其他防御,能够更有效地保护隐私数据安全。
由此可见,本发明通过利用生成对抗网络生成假样本,可以安全高效地防御模型反演攻击。
基于同一发明构思,本发明还设计了一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现所述深度神经网络模型反演攻击防御方法所执行的操作。
基于同一发明构思,本发明还设计了一种计算机可读介质,其上存储有计算机程序,所述程序被处理器执行时实现所述深度神经网络模型反演攻击防御方法所执行的操作。
本文中所描述的具体实施例仅仅是对本发明作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定。
Claims (10)
1.一种深度神经网络模型反演攻击防御方法,其特征在于,包括以下步骤:
步骤1,训练模型;所述模型包括使用隐私数据集训练的目标受害者模型与使用公开数据集的分类器模型,所述目标受害者模型采用深度学习模型;
步骤2,利用生成对抗网络,生成虚假样本;所述生成对抗网络包括由深度神经网络组成的生成器模块和鉴别器模块;所述虚假样本包括反演公开样本和反演隐私样本;所述反演公开样本是指,对基于公开数据集训练的分类器进行反演攻击来重构获得的样本;所述反演隐私样本是指,对目标受害者模型进行反演攻击来重构获得的样本;
步骤3,根据虚假样本在保证目标受害者模型的有效性的基础上,微调目标受害者模型参数,实现防御模型反演攻击的目的,微调过程为最大化反演隐私样本的损失,最小化反演公开样本的损失。
2.根据权利要求1所述的深度神经网络模型反演攻击防御方法,其特征在于:所述目标受害者模型的训练过程具体为:
步骤1.1,根据隐私数据样本的交叉熵构建损失函数;
步骤1.2,利用所述损失函数和随机梯度下降算法训练目标受害者模型。
3.根据权利要求1所述的深度神经网络模型反演攻击防御方法,其特征在于:所述目标受害者模型的训练过程具体为:所述目标受害者模型在resnet、VGGnet、AlexNet、FaceNet、VGG-16中择一使用。
4.根据权利要求1所述的深度神经网络模型反演攻击防御方法,其特征在于:所述目标受害者模型的训练过程具体为:所述目标受害者模型为VGG-16,包括22层和37个深度单元。
5.根据权利要求1所述的深度神经网络模型反演攻击防御方法,其特征在于:所述目标受害者模型的训练过程具体为:所述分类器在resnet、VGGnet、AlexNet、FaceNet中择一使用。
6.根据权利要求1所述的深度神经网络模型反演攻击防御方法,其特征在于:所述反演公开样本的生成过程具体为:
步骤2.1.1,随机选取公开数据集中的一类保护数据l p;
步骤2.1.2,初始化生成对抗网络的生成器模块输入向量z pub,获得输出图像img pub;
步骤2.1.3,将步骤2.1.2所述图像img pub输入分类器模块,获得输出向量;
步骤2.1.4,构建损失函数;所述损失函数计算过程如下:
,,
其中表示优化反演公开样本优化过程中学习后的z pub向量,L discri表示生成对抗网络鉴别器损失,L iden表示可识别性损失,D表示生成对抗网络中的鉴别器模块,F C表示分类器模块,G表示生成对抗网络中的生成器模块,λ为L iden的参数,表示交叉熵函数;
步骤2.1.5,根据步骤2.1.4的损失函数更新生成对抗网络的输入z pub;
步骤2.1.6,循环执行所述步骤2.1.1到步骤2.1.5,此循环过程将在到达预先设置的迭代次数后终止;将最终的z pub输入生成对抗网络的生成器模块,输出即为反演公开样本。
7.根据权利要求1所述的深度神经网络模型反演攻击防御方法,其特征在于:
所述生成反演隐私样本的过程具体为:
步骤2.2.1,选取隐私数据集中的需要保护的一类数据l t;
步骤2.2.2,初始化生成对抗网络的生成器模块输入向量z pri,获得输出图像img pri;
步骤2.2.3,将步骤2.2.2所述图像img pri输入目标受害者模型模块,获得输出向量;
步骤2.2.4,构建损失函数;所述损失函数计算过程如下:
,,
其中Z*表示优化反演隐私样本优化过程中学习后的z pri向量,L discri表示生成对抗网络鉴别器损失,L iden表示可识别性损失,D表示生成对抗网络中的鉴别器模块,FC表示分类器模块,G表示生成对抗网络中的生成器模块,λ为Liden的参数,L CE表示交叉熵函数;
步骤2.2.5,将步骤2.2.4所述的损失向后传递,更新生成对抗网络的输入z pri;
步骤2.2.6,循环执行所述步骤2.2.1到步骤2.2.5,此循环过程将在到达预先设置的迭代次数后终止,将最终的z pri输入生成对抗网络的生成器模块,输出即为反演隐私样本。
8.根据权利要求1所述的深度神经网络模型反演攻击防御方法,其特征在于:微调目标模型参数的过程利用了持续学习算法,还包括可塑权重巩固的正则化项,所述正则化项为,步骤3的全部过程表示为,其中θ为目标受害者模型的参数集,α、β和ω分别是三个损失项的参数,所述反演隐私样本的损失函数为,所述反演公开样本的损失函数为。
9.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-8中任一项所述方法所执行的操作。
10.一种计算机可读介质,其上存储有计算机程序,其特征在于:所述程序被处理器执行时实现如权利要求1-8中任一项所述方法所执行的操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310030791.1A CN115719085B (zh) | 2023-01-10 | 2023-01-10 | 一种深度神经网络模型反演攻击防御方法及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310030791.1A CN115719085B (zh) | 2023-01-10 | 2023-01-10 | 一种深度神经网络模型反演攻击防御方法及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115719085A CN115719085A (zh) | 2023-02-28 |
CN115719085B true CN115719085B (zh) | 2023-04-18 |
Family
ID=85257951
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310030791.1A Active CN115719085B (zh) | 2023-01-10 | 2023-01-10 | 一种深度神经网络模型反演攻击防御方法及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115719085B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117390688B (zh) * | 2023-12-12 | 2024-04-05 | 齐鲁工业大学(山东省科学院) | 一种基于监督训练的模型反演方法 |
CN118400185B (zh) * | 2024-06-25 | 2024-08-23 | 广州大学 | 一种针对模型反演攻击的检测方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114387449A (zh) * | 2021-12-25 | 2022-04-22 | 中国人民解放军空军预警学院 | 一种应对神经网络对抗性攻击的图像处理方法及系统 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109214404A (zh) * | 2017-07-07 | 2019-01-15 | 阿里巴巴集团控股有限公司 | 基于隐私保护的训练样本生成方法和装置 |
CN108322349B (zh) * | 2018-02-11 | 2021-04-06 | 浙江工业大学 | 基于对抗式生成网络的深度学习对抗性攻击防御方法 |
CN110008696A (zh) * | 2019-03-29 | 2019-07-12 | 武汉大学 | 一种面向深度联邦学习的用户数据重建攻击方法 |
CN110969242A (zh) * | 2019-11-27 | 2020-04-07 | 浙江工业大学 | 一种基于生成式对抗产生通用逆扰动的防御方法 |
CN112989361B (zh) * | 2021-04-14 | 2023-10-20 | 华南理工大学 | 一种基于生成对抗网络的模型安全性检测方法 |
CN115292728B (zh) * | 2022-07-15 | 2023-08-04 | 浙江大学 | 一种基于生成对抗网络的图像数据隐私保护方法 |
CN115438786A (zh) * | 2022-09-16 | 2022-12-06 | 华东师范大学 | 基于样本驱动目标损失函数优化的鲁棒神经网络训练方法 |
-
2023
- 2023-01-10 CN CN202310030791.1A patent/CN115719085B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114387449A (zh) * | 2021-12-25 | 2022-04-22 | 中国人民解放军空军预警学院 | 一种应对神经网络对抗性攻击的图像处理方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN115719085A (zh) | 2023-02-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Liu et al. | Privacy and security issues in deep learning: A survey | |
Bae et al. | Security and privacy issues in deep learning | |
CN115719085B (zh) | 一种深度神经网络模型反演攻击防御方法及设备 | |
CN108549940B (zh) | 基于多种对抗样例攻击的智能防御算法推荐方法及系统 | |
Yang et al. | A comprehensive survey on secure outsourced computation and its applications | |
Sun et al. | Adversarial attacks against deep generative models on data: a survey | |
CN114417427B (zh) | 一种面向深度学习的数据敏感属性脱敏系统及方法 | |
Hu et al. | Stealing machine learning models: Attacks and countermeasures for generative adversarial networks | |
Zhang et al. | A survey on privacy inference attacks and defenses in cloud-based deep neural network | |
Chou et al. | Villandiffusion: A unified backdoor attack framework for diffusion models | |
Yin et al. | Defense against adversarial attacks by low‐level image transformations | |
Mejia et al. | Robust or private? adversarial training makes models more vulnerable to privacy attacks | |
Shafee et al. | Privacy attacks against deep learning models and their countermeasures | |
Jiang et al. | Research progress and challenges on application-driven adversarial examples: A survey | |
Xu et al. | FLPM: A property modification scheme for data protection in federated learning | |
CN115758337A (zh) | 基于时序图卷积网络的后门实时监测方法、电子设备、介质 | |
Zhang et al. | Privacy inference attacks and defenses in cloud-based deep neural network: A survey | |
Yan et al. | Towards explainable model extraction attacks | |
Gong et al. | Gradient leakage attacks in federated learning | |
Guo et al. | Robust and privacy-preserving collaborative learning: A comprehensive survey | |
Yin et al. | Ginver: Generative model inversion attacks against collaborative inference | |
CN113159317B (zh) | 一种基于动态残差侵蚀的对抗样本生成方法 | |
Westbrook et al. | Adversarial attacks on machine learning in embedded and iot platforms | |
Ren et al. | PrivDNN: A Secure Multi-Party Computation Framework for Deep Learning using Partial DNN Encryption | |
Bauer et al. | Generative models for security: Attacks, defenses, and opportunities |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |