CN111738405A - 一种基于生成对抗网络的用户级成员推理方法 - Google Patents
一种基于生成对抗网络的用户级成员推理方法 Download PDFInfo
- Publication number
- CN111738405A CN111738405A CN202010390835.8A CN202010390835A CN111738405A CN 111738405 A CN111738405 A CN 111738405A CN 202010390835 A CN202010390835 A CN 202010390835A CN 111738405 A CN111738405 A CN 111738405A
- Authority
- CN
- China
- Prior art keywords
- data
- user
- network
- reasoning
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000012549 training Methods 0.000 claims abstract description 55
- 230000008569 process Effects 0.000 claims description 12
- 238000004422 calculation algorithm Methods 0.000 claims description 9
- 238000004220 aggregation Methods 0.000 claims description 8
- 230000002776 aggregation Effects 0.000 claims description 8
- 238000007635 classification algorithm Methods 0.000 claims description 5
- 238000013145 classification model Methods 0.000 claims description 4
- 238000004088 simulation Methods 0.000 claims description 4
- 238000005457 optimization Methods 0.000 claims description 3
- 238000009826 distribution Methods 0.000 abstract description 3
- 239000000523 sample Substances 0.000 description 8
- 238000004891 communication Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 230000003042 antagnostic effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013434 data augmentation Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001066 destructive effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6218—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
- G06F21/6245—Protecting personal data, e.g. for financial or medical purposes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Bioethics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Security & Cryptography (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
- Computer And Data Communications (AREA)
Abstract
本发明公开了一种基于联邦学习环境下的用户级成员推理方案,采用生成对抗网络(GANs)的方法用来获取数据分布从而发动成员推理。在联邦学习环境下,攻击者在不访问用户数据的情况下发动成员推理攻击,推断出给定数据记录是否属于目标训练集以窃取目标数据集的数据隐私。包括以下内容:1)用户级成员推理:由恶意用户发动成员推理攻击,窃取特定用户的成员隐私,进一步揭示了当前联合学习的安全漏洞。2)使用在本地部署的生成对抗网络进行数据扩充,进而获得其他用户的数据分布。本发明充分考虑到了当用户数据持有多种标签的情况下我们提出的攻击方法的有效性。
Description
技术领域
本发明涉及人工智能安全领域,尤其涉及一种基于生成对抗网络的用户级成员推理方法。
背景技术
随着去机器学习的去中心化发展,对联邦学习技术的研究正在不断增加。联邦学习是多个用户共同参与模型的训练过程,所有用户通过汇总自身训练参数来更新全局模型,并将所有训练数据保留在本地。尽管联邦学习可以通过本地训练提供基本的隐私保证,但是在参数聚合和与联邦模型通信的过程中仍然存在隐私问题,包括成员推理攻击在内的许多攻击方法已经破坏了联邦学习的安全性。从根本上说,成员推理问题是一个分类问题,攻击者需要判断出未知所有权的数据是否属于某个用户。这是一种间接的隐私窃取,但是当它用作其他攻击的预攻击时,成员推理使这些攻击更具针对性和破坏性。
尽管当前已有的成员推理攻击可以获取用户训练数据的隐私,但它们存在一些局限性。首先,之前的集中式学习模式下的成员推理是假设用于训练攻击模型的数据集通常与属于目标模型的数据集具有相同的分布,甚至这些数据集也具有一定比例的交集。其次,没有关于恶意参与者发起成员推理的研究,实际上由恶意用户发动成员推理才接近于真实情况。
发明内容
发明目的:为了解决现有成员推理存在的问题,本发明的目的是提供一种基于生成对抗网络的用户级成员推理方法,在联邦学习环境下针对用户隐私数据进行成员推理,能够进一步揭示当前联邦学习的安全漏洞。
技术方案:一种基于生成对抗网络的用户级成员推理方法,包括以下步骤:
(1)攻击者参与全局模型的训练过程;
(2)攻击者使用生成对抗网络重构数据;
(3)攻击者分析生成数据,选取分类算法,将生成数据作为训练数据训练成员推理攻击模型;
(4)攻击者使用成员推理攻击模型对目标数据集进行成员推理,得到分类结果。
进一步的,步骤(1)中,将先前的攻击目标由全局模型的训练数据细化到某个用户的训练数据,同时攻击者在训练过程中扮演一名普通用户,正常参与本地训练、梯度上传、模型下载。具体包括以下内容:
(1.1)所有用户向服务器发出请求,表明他们可以参加此轮训练;
(1.2)服务器收到请求后,选择一部分用户参加此轮训练,并在预设时间段后考虑用户参与人数和超时因素使他们重新请求;在超时之前有足够的参与者参加联邦学习的情况下,本轮训练成功;
(1.3)在反馈阶段,服务器等待每个学习参与者返回训练后的梯度参数;服务器接收到参数后,使用聚合算法进行聚合,然后将下一个请求时间通知参与者;如果在超时之前返回了足够多学习参与者的梯度,则本轮训练成功,否则失败。
进一步的,步骤(2)中,使用生成对抗网络通过全局模型的本地副本来生成仿真的其他用户使用的数据,所述生成对抗网络包括生成网络g(z;θG)和判别网络f(x;θD),z代表生成网络的输入噪声,参数θG代表生成网络的内部参数;x代表由生成网络输出得到的样本,θD代表判别网络的参数;具体包括以下内容:
(2.1)攻击者对生成网络g(z;θG)进行初始化,并根据随机噪声生成数据记录;
(2.2)在判别网络f(x;θD)中的辨别模型直接使用最新的全局模型副本D;
设xi是训练集中的原始图像,xgen是生成的图像,采用如下优化算法:
i是判别网络针对当前数据的轮次,j是生成网络针对当前生成数据的轮次,n+、n-代表生成数据的类型数量。
进一步的,步骤(4)具体包括以下内容:
在攻击者获得一批需要推理成员信息的数据后,用训练好的分类模型去做成员推理,模型预测结果和各个用户一开始的申明标签信息一致时,标记为“IN”,否则标记为“OUT”,实现成员推理。可选的,基于CNN模型构造推理分类器。
本发明的有益效果是:发明能从用户的角度突破联邦学习的聚合算法限制,最大程度地得到其他用户的数据信息。
附图说明
图1是联邦学习中的用户级成员推理;
图2是基于生成对抗网络的用户级成员推理的具体流程示意图;
图3为数据增强方案架构图;
图4为生成对抗网络生成数据图,(a)为迭代100次的生成数据,(b)为迭代400次的生成数据,(c)为实际的真实样本数据;
图5为全局模型的识别率;
图6为不同数量的MNIST的数据类型的成员推理效果;
图7为不同数量的CIFAR-10的数据类型的成员推理效果;
图8为MNIST数据和CIFAR-10数据在不同标签数量下推理成功的数量对比。
具体实施方式
下面结合实施例和附图对本发明的技术方案作进一步详细说明。
如图1、图2所示,本发明的主要思想是采用生成对抗网络的方法,把攻击者保存的当前的全局模型作为生成对抗网络的辨别器,而生成器用来生成其他用户的数据。在分析这些生成数据后,采用相应的分类算法。假设此时所有用户持有的数据类型是不重叠的,即不同用户彼此之间拥有不同标签的数据;在全局模型训练开始前,所有用户会申明自己训练的数据标签。我们将生成对抗网络产生的高质量仿真数据结合分类算法训练攻击模型,从而能够对目标数据做出准确识别,区分成员信息。
一种基于生成对抗网络的用户级成员推理方法,包括:
步骤1、攻击者参与全局模型的训练过程;具体的,将先前的攻击目标由全局模型的训练数据细化到某个用户的训练数据,同时攻击者也在训练过程中扮演一名普通用户,正常参与本地训练、梯度上传、模型下载。其主要步骤为:所有用户将首先向服务器发出请求,表明他们可以参加此轮训练。收到请求后,服务器将选择一部分用户参加此轮训练,并在一段时间后考虑用户参与人数和超时等因素使他们重新请求。只有在超时之前有足够的参与者可以参加联邦学习的情况下,本轮训练才会成功。在反馈阶段,服务器将等待每个学习参与者返回训练后的梯度参数。服务器接收到参数后,它将使用聚合算法进行聚合,然后将下一个请求时间通知参与者。如果在超时之前返回了足够多学习参与者的梯度,则此轮训练成功,否则失败。
步骤2、攻击者使用生成对抗网络重构数据;生成对抗网络(GANs)包含生成网络和判别网络。其结构和数据增强阶段的详细信息如图3所示。具体的,使用生成对抗网络(GANs)通过全局模型的本地副本来生成仿真的其他用户使用的数据。其主要步骤为:攻击者首先对生成网络g(z;θG)进行初始化,并根据随机噪声生成数据记录。由于联邦学习中的每个参与者都保留全局模型的副本,所以在判别网络f(x;θD)中的辨别模型就直接使用最新的全局模型副本D。
全局模型副本D是指联邦学习的每个参与者在每一轮学习过程中被中央服务器分配得到的全局模型的拷贝。最新的全局模型副本D表示参与者获得的副本是和中央服务器中的模型保持一致,同步更新。
上述步骤2是一个不断对抗的阶段,在不断生成数据的同时,也在不断地升级判别模型。当判别模型无法区分生成样本和真实样本时,就可以把生成样本作为扩充的数据;该数据扩充阶段的目标是使攻击模型的训练数据集完整,并且让生成数据与原数据非常相似,以至于无法被判别网络的鉴别器识别出来。
设xi是训练集中的原始图像,xgen是生成的图像,方案采用的优化算法如下:
步骤3、生成带有所有标签的数据后,开始训练分类模型。在参与者开始训练之前,他们将声明所保存数据的标签。实际上,这种行为并不能揭示有关训练数据的隐私,因为标签不能反映数据的属性。此外我们假设所有用户拥有的数据的类型不会重叠。其主要步骤为:攻击者根据得到的生成数据结合需求选取高效的分类算法,并将这些生成数据作为训练数据训练成员推理模型。
步骤4、攻击模型训练完成后,攻击者使用成员推理攻击模型对目标数据集进行成员推理,数据集中包含目标用户和其他参与者的训练数据,进而得到分类结果。具体的,在攻击者获得一批需要推理成员信息的数据后,用训练好的分类模型(即成员推理攻击模型)去做成员推理,模型预测结束后,将模型预测结果与目标用户在训练开始前声明的标签信息进行比较。结果比对一致的数据标记为“IN”,比对结果不同的数据则标记为“OUT”。为了计算成员推理攻击的准确性,我们将目标数据集中“IN”的数据数量除以数据集中目标用户的数据数量。
为了全面说明本发明提出的攻击模型,通过以下两个目标评估性能:
(1)模拟数据生成:使用生成对抗网络(GANs)的数据增强算法的有效性;
(2)识别成功率:联邦学习成员推理的准确性以及联邦学习任务的准确性。
使用PyTorch1.0,Tensorflow2.0和Keras框架在联合学习中实现了数据扩充和成员推理。所有实验均在带有32GB RAM的NVidia Quadro P4000 GPU和Ubuntu 16.04LTS OS的RHEL7.5服务器上完成。Python版本是3.6。设置五个参与联邦学习的用户和一个联邦学习服务器,其中假定其中一个用户为攻击者,而其余用户均为正常的学习参与者。在联邦学习训练的每一轮中,每个用户独立地训练本地模型。然后,他们将更新同步上传到新的全局模型中。
本实施例的实验场景采用了MNIST数据集,因此相应地使用CNN模型来构造我们的推理分类器。MNIST模型由两个卷积层和两个密集层组成。这些卷积层的内核大小为5×5。第一卷积层的过滤器数为16,第二卷积层的过滤器数为32。CIFAR-10数据集的模型有四个卷积层,其内核大小为3×3,输入形状为32×32。前两个卷积层的滤波器数量为32,其他卷积层的滤波器数量为64。应用于所有神经网络模型的激活函数为ReLU。两个数据集的训练配置是:训练时期Epoch=30的MNIST数据集,初始学习率η=0.01,参与者训练时期Epoch=60的CIFAR-10数据集,初始学习率η=0.0001。此外,针对联邦学习进行了的400轮模型通信。
为了说明在联邦学习协议中使用生成对抗网络(GANs)进行数据增强的效果,将样本重建过程可视化如图4(a)—4(c)所示。参与用户数和样本总数未更改。需要注意的是,生成对抗网络(GANs)中的辨别器D与每个通信回合中最新的全局模型相同,并且可以同步更新。生成器G的格式为100个长度的随机噪声,中间层为转置的卷积层,其输出大小调整为28×28。此外,设置攻击者在模型精度达到93%之后开始生成样本。显示了MNIST数据集的400次迭代的重建结果以及提取的真实样本。如图4(a)所示,可以识别100次迭代的重构样本的模糊轮廓。如图4(b)所示,在400次迭代中,生成器样本的轮廓变得更清晰,这是因为随着鉴别器D的更新,生成器G的性能变得越来越好。因此,通过部署生成对抗网络(GANs),攻击者可以成功模拟所有参与者的真实样本,如图4(c)所示。
在成员推理功能评估中,指标是成员信息推断以及全局模型预测任务的准确性。设置联邦学习400轮模型通信实验。如图5所示,基于MNIST和CIFAR-10的模型的准确性分别达到99.45%和93.71%,这足以完成正确预测所有测试数据的主要任务。同时,如前所述,攻击者通过本地部署的生成对抗网络(GANs)获得了足够的生成样本并训练了攻击模型。
在成员推理之后,从标签的角度评估攻击方案。每个用户持有的标签数量可能会影响成员推理。图8说明了本发明对这两个数据集的攻击效果,其中TP表示真阳性,而FN表示假阴性。我们假设每个受害人持有的数据中包含多种类型数据,因此考虑了每个参与者的标签数量。在用户持有一种类别数据、两种类别数据、三种类别数据和五种类别数据的条件下观察攻击的有效性。可以看出,受害者或所有参与者持有的不同类型的数据越多,成员推理的效果越差。此外,基于针对这两个数据集的成员推理性能绘制了ROC曲线,其中变量仍然是受害者或每个参与者具有的标签数。图6和图7显示,当目标受害者周围拥有一种或两种类别数据时,可以准确地将成员数据识别为“IN”,将非成员数据识别为“OUT”。
综上,由于现有成员推理的缺陷,本发明从恶意参与者的角度出发,使用白盒访问模型在联邦学习下进行主动的、有针对性的成员推理攻击。本发明将方案命名为用户级成员推理。之所以称其为“用户级”,是因为本发明已经将先前的攻击目标由全局模型的训练数据细化到某个用户的训练数据,同时攻击者也在训练过程中扮演一名普通用户。基于传统成员推理机制,本发明还采用了更为实际的假设,即攻击者不需要了解有关训练数据集的任何先验知识。由于联邦学习中的固有隐私保护机制(聚合算法)的作用,以及缺乏用于成员推理的训练数据,本发明进一步提出了一种基于生成对抗网络(GANs)来生成高质量生成样本的数据增强方法。这些生成样本将用于训练成员推理攻击模型。在获得需要推理的目标数据集之后,利用攻击模型对每一条数据做判断,找出属于目标用户的数据,完成成员推理。
Claims (7)
1.一种基于生成对抗网络的用户级成员推理方法,其特征在于包括以下步骤:
(1)攻击者参与全局模型的训练过程;
(2)攻击者使用生成对抗网络重构数据;
(3)攻击者分析生成数据,选取分类算法,将生成数据作为训练数据训练成员推理攻击模型;
(4)攻击者使用成员推理攻击模型对目标数据集进行成员推理,得到分类结果。
2.根据权利要求1所述的一种基于生成对抗网络的用户级成员推理方法,其特征在于:
步骤(1)中,将先前的攻击目标由全局模型的训练数据细化到某个用户的训练数据,同时攻击者在训练过程中扮演一名普通用户,正常参与本地训练、梯度上传、模型下载。
3.根据权利要求2所述的一种基于生成对抗网络的用户级成员推理方法,其特征在于,所述步骤(1)具体包括以下内容:
(1.1)所有用户向服务器发出请求,表明他们可以参加此轮训练;
(1.2)服务器收到请求后,选择一部分用户参加此轮训练,并在预设时间段后考虑用户参与人数和超时因素使他们重新请求;在超时之前有足够的参与者参加联邦学习的情况下,本轮训练成功;
(1.3)在反馈阶段,服务器等待每个学习参与者返回训练后的梯度参数;服务器接收到参数后,使用聚合算法进行聚合,然后将下一个请求时间通知参与者;如果在超时之前返回了足够多学习参与者的梯度,则本轮训练成功,否则失败。
4.根据权利要求1所述的一种基于生成对抗网络的用户级成员推理方法,其特征在于,步骤(2)中,使用生成对抗网络通过全局模型的本地副本来生成仿真的其他用户使用的数据,所述生成对抗网络包括生成网络g(z;θG)和判别网络f(x;θD),z代表生成网络的输入噪声,参数θG代表生成网络的内部参数;x代表由生成网络输出得到的样本,θD代表判别网络的参数。
6.根据权利要求1所述的一种基于生成对抗网络的用户级成员推理方法,其特征在于,步骤(4)具体包括以下内容:
在攻击者获得一批需要推理成员信息的数据后,用训练好的分类模型去做成员推理,模型预测结果和各个用户一开始的申明标签信息一致时,标记为“IN”,否则标记为“OUT”,实现成员推理。
7.根据权利要求6所述的一种基于生成对抗网络的用户级成员推理方法,其特征在于,基于CNN模型构造推理分类器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010390835.8A CN111738405B (zh) | 2020-05-11 | 2020-05-11 | 一种基于生成对抗网络的用户级成员推理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010390835.8A CN111738405B (zh) | 2020-05-11 | 2020-05-11 | 一种基于生成对抗网络的用户级成员推理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111738405A true CN111738405A (zh) | 2020-10-02 |
CN111738405B CN111738405B (zh) | 2024-05-03 |
Family
ID=72647029
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010390835.8A Active CN111738405B (zh) | 2020-05-11 | 2020-05-11 | 一种基于生成对抗网络的用户级成员推理方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111738405B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112446025A (zh) * | 2020-11-23 | 2021-03-05 | 平安科技(深圳)有限公司 | 联邦学习防御方法、装置、电子设备及存储介质 |
CN112765662A (zh) * | 2021-01-22 | 2021-05-07 | 电子科技大学 | 一种在深度学习下支持训练集成员隐私保护的方法 |
CN112784990A (zh) * | 2021-01-22 | 2021-05-11 | 支付宝(杭州)信息技术有限公司 | 一种成员推断模型的训练方法 |
CN113297573A (zh) * | 2021-06-11 | 2021-08-24 | 浙江工业大学 | 一种基于gan模拟数据生成的垂直联邦学习防御方法和装置 |
CN114785559A (zh) * | 2022-03-29 | 2022-07-22 | 南京理工大学 | 一种抵御成员推理攻击的差分隐私联邦学习方法 |
US20230090398A1 (en) * | 2021-09-20 | 2023-03-23 | Jpmorgan Chase Bank, N.A. | Systems and methods for generating synthetic data using federated, collaborative, privacy preserving models |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110516812A (zh) * | 2019-07-19 | 2019-11-29 | 南京航空航天大学 | 基于对抗样本的抗成员推理攻击的ai模型隐私保护方法 |
CN110647765A (zh) * | 2019-09-19 | 2020-01-03 | 济南大学 | 协同学习框架下基于知识迁移的隐私保护方法及系统 |
US20200082097A1 (en) * | 2018-09-12 | 2020-03-12 | Aleksandr Poliakov | Combination of Protection Measures for Artificial Intelligence Applications Against Artificial Intelligence Attacks |
EP3648015A2 (en) * | 2018-11-05 | 2020-05-06 | Nokia Technologies Oy | A method for training a neural network |
-
2020
- 2020-05-11 CN CN202010390835.8A patent/CN111738405B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200082097A1 (en) * | 2018-09-12 | 2020-03-12 | Aleksandr Poliakov | Combination of Protection Measures for Artificial Intelligence Applications Against Artificial Intelligence Attacks |
EP3648015A2 (en) * | 2018-11-05 | 2020-05-06 | Nokia Technologies Oy | A method for training a neural network |
CN110516812A (zh) * | 2019-07-19 | 2019-11-29 | 南京航空航天大学 | 基于对抗样本的抗成员推理攻击的ai模型隐私保护方法 |
CN110647765A (zh) * | 2019-09-19 | 2020-01-03 | 济南大学 | 协同学习框架下基于知识迁移的隐私保护方法及系统 |
Non-Patent Citations (1)
Title |
---|
王璐璐;张鹏;闫峥;周晓康;: "机器学习训练数据集的成员推理综述", 网络空间安全, no. 10, 25 October 2019 (2019-10-25) * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112446025A (zh) * | 2020-11-23 | 2021-03-05 | 平安科技(深圳)有限公司 | 联邦学习防御方法、装置、电子设备及存储介质 |
CN112765662A (zh) * | 2021-01-22 | 2021-05-07 | 电子科技大学 | 一种在深度学习下支持训练集成员隐私保护的方法 |
CN112784990A (zh) * | 2021-01-22 | 2021-05-11 | 支付宝(杭州)信息技术有限公司 | 一种成员推断模型的训练方法 |
CN113297573A (zh) * | 2021-06-11 | 2021-08-24 | 浙江工业大学 | 一种基于gan模拟数据生成的垂直联邦学习防御方法和装置 |
US20230090398A1 (en) * | 2021-09-20 | 2023-03-23 | Jpmorgan Chase Bank, N.A. | Systems and methods for generating synthetic data using federated, collaborative, privacy preserving models |
CN114785559A (zh) * | 2022-03-29 | 2022-07-22 | 南京理工大学 | 一种抵御成员推理攻击的差分隐私联邦学习方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111738405B (zh) | 2024-05-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111738405A (zh) | 一种基于生成对抗网络的用户级成员推理方法 | |
Gao et al. | Deep leaf‐bootstrapping generative adversarial network for structural image data augmentation | |
Shen et al. | Weighted residuals for very deep networks | |
CN109902018B (zh) | 一种智能驾驶系统测试案例的获取方法 | |
CN109983480A (zh) | 使用聚类损失训练神经网络 | |
JP2017511948A (ja) | ニューラルネットワーク及びニューラルネットワークのトレーニング方法 | |
WO2021174827A1 (zh) | 文本生成方法、装置、计算机设备及可读存储介质 | |
CN110297910A (zh) | 管理分布式知识图 | |
CN112686385A (zh) | 面向多站点三维影像的联邦深度学习方法及系统 | |
CN113240430B (zh) | 移动支付验证方法及装置 | |
WO2020114135A1 (zh) | 特征识别的方法及装置 | |
CN112488826A (zh) | 基于深度强化学习对银行风险定价的优化方法和装置 | |
CN115409155A (zh) | 基于Transformer增强霍克斯过程的信息级联预测系统及方法 | |
Chobola et al. | Transfer learning based few-shot classification using optimal transport mapping from preprocessed latent space of backbone neural network | |
CN109977832A (zh) | 一种图像处理方法、装置及存储介质 | |
CN110162751A (zh) | 文本生成器训练方法和文本生成器训练系统 | |
CN112990987A (zh) | 信息推广方法、装置、电子设备及存储介质 | |
CN115687526A (zh) | 一种基于区块链和联邦学习的地震数据模型共享方法 | |
CN115758337A (zh) | 基于时序图卷积网络的后门实时监测方法、电子设备、介质 | |
Zhou et al. | Deeptree: Modeling trees with situated latents | |
Zhong et al. | Digital recognition of street view house numbers based on DCGAN | |
CN109102061A (zh) | 一种符合人类动力学规律的群体用户行为产生系统,设备及存储介质 | |
CN115293872A (zh) | 建立风险识别模型的方法及对应装置 | |
CN114550737A (zh) | 一种基于神经通路的图垂直联邦数据增强方法与装置 | |
CN111078872B (zh) | 警务事件模拟数据生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |