CN115081003B - 一种采样聚合框架下的梯度泄露攻击方法 - Google Patents
一种采样聚合框架下的梯度泄露攻击方法 Download PDFInfo
- Publication number
- CN115081003B CN115081003B CN202210757336.7A CN202210757336A CN115081003B CN 115081003 B CN115081003 B CN 115081003B CN 202210757336 A CN202210757336 A CN 202210757336A CN 115081003 B CN115081003 B CN 115081003B
- Authority
- CN
- China
- Prior art keywords
- gradient
- client
- server
- federal
- representing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000005070 sampling Methods 0.000 title claims abstract description 33
- 230000002776 aggregation Effects 0.000 title claims abstract description 21
- 238000004220 aggregation Methods 0.000 title claims abstract description 21
- 238000000034 method Methods 0.000 title claims abstract description 19
- 238000012549 training Methods 0.000 claims abstract description 17
- 238000004891 communication Methods 0.000 claims description 18
- 230000006870 function Effects 0.000 claims description 16
- 238000013527 convolutional neural network Methods 0.000 claims description 12
- 238000006116 polymerization reaction Methods 0.000 claims description 11
- 238000004364 calculation method Methods 0.000 claims description 10
- 230000004913 activation Effects 0.000 claims description 9
- 230000006835 compression Effects 0.000 claims description 4
- 238000007906 compression Methods 0.000 claims description 4
- 238000010801 machine learning Methods 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/602—Providing cryptographic facilities or services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Security & Cryptography (AREA)
- Data Mining & Analysis (AREA)
- Computer Hardware Design (AREA)
- General Health & Medical Sciences (AREA)
- Bioethics (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Computer And Data Communications (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种采样聚合框架下的梯度泄露攻击方法,实现步骤为:初始化联邦学习系统;联邦服务器判断客户端Az上传的梯度形式;联邦服务器还原客户端Az的近似梯度;联邦服务器更新客户端Az的近似梯度符号;联邦服务器获取梯度泄露攻击结果。本发明通过客户端上传的多轮采样位置向量,结合联邦服务器本地训练的梯度重构出客户端的近似梯度,进一步通过聚合后的梯度符号更新梯度符号,从而实现了在采样聚合框架下既能从客户端上传的明文梯度中攻击出客户端真实图像数据,也能从客户端上传的密文梯度中攻击出客户端真实图像数据,从而拓宽了梯度泄露攻击的攻击范围。
Description
技术领域
本发明属于机器学习中联邦学习技术领域,涉及一种梯度泄露攻击方法,具体涉及一种采样聚合框架下的梯度泄露攻击方法,可用于获取客户端本地数据。
背景技术
作为一种分布式机器学习框架,联邦学习可以在不共享数据的情况下实现联合建模。具体来说,联邦服务器首先初始化模型并将其发送给各客户端,各客户端利用本地数据作为模型输入训练得到模型梯度发送回联邦服务器,最终联邦服务器聚合梯度并更新模型。不断循环得到更精准的全局模型。现实中,联邦学习经常被部署在网络性能有限的设备上,于是针对梯度进行采样的联邦学习应运而生,即采样聚合框架。然而,梯度泄露攻击表明传统的联邦学习框架下的明文梯度会泄露客户端本地数据,于是安全聚合被引入到联邦学习框架中保护梯度数据,即客户端向联邦服务器发送梯度之前对梯度值进行加密。
Zhu,Ligeng等2019年在“Advances in Neural Information ProcessingSystems”期刊上发表的论文文献“Deep Leakage from Gradients”中公布了一种从公开共享的梯度中获取本地数据的梯度泄露攻击方法。该方法不依赖任何生成模型或任何数据的额外先验知识,可以通过公开共享的梯度对模型的输入和损失函数的输入进行更新,从而还原本地数据。梯度泄露攻击的核心思想在于通过优化随机数据使数据得到的模型梯度匹配客户端真实梯度,不断迭代以接近客户端本地数据。
然而,上述梯度泄露攻击方法仅能从公开共享的梯度中获取客户端本地数据,安全聚合算法的引入导致无法获取明文梯度,实现梯度泄露攻击。
发明内容
本发明的目的是克服上述现有技术中的不足,提出了一种采样聚合框架下的梯度泄露攻击方法,既能从客户端上传的明文梯度中攻击出客户端真实图像数据,也能从客户端上传的密文梯度中攻击出客户端真实图像数据,从而拓宽梯度泄露攻击的攻击范围。
为了实现上述目的,本发明采取的技术方案包括如下步骤:
(1)初始化联邦学习系统:
初始化包括联邦服务器S和N个客户端A={A1,A2,…,An,…,AN}的联邦学习系统,联邦服务器S的全局卷积神经网络模型M0,联邦服务器S从客户端A中随机选择的客户端Az作为受害者,联邦服务器S与客户端Az的当前通信轮数为r,最大通信轮数为R,联邦服务器S与其余客户端通信轮数r=1,其中An表示第n个客户端,N≥2,M0的参数为ω=<ω1,ω2,…,ωm,…,ωM>,M表示M0的参数量,M≥2,ωm表示M0的第m个参数,Az∈A,R≥2;
(2)联邦服务器判断客户端Az上传的梯度形式:
联邦服务器S判断客户端Az上传的梯度是否为密文,若是,执行步骤(3),否则,将客户端Az上传的梯度/>依据其上传的采样位置向量/>得到客户端Az的梯度gz′,并执行步骤(5);
(3)联邦服务器还原客户端Az的近似梯度:
(3a)联邦服务器S通过客户端Az的R轮通信上传的采样位置向量计算每个索引m的采样次数θm,得到M维索引采样次数向量θ=<θ1,θ2,…,θm,…,θM>,其中,/>表示客户端Az向联邦服务器S上传的第r轮通信轮数的采样位置向量,/> 表示第r轮中客户端Az第m个采样位置标志符,取值为{0,1},0表示此索引m未采样,1表示此索引m被采样,θm的计算公式为:
其中∑表示求和操作;
(3b)拥有图像数据Ds={xs,ys}的联邦服务器S将数据特征xs作为全局卷积神经网络模型M0的输入进行模型训练,得到预测结果Ys;采用交叉熵损失函数,计算Ys与标签ys之间的损失值Ls;通过Ls对模型M0的参数ω求偏导,得到梯度gs=<gs1,gs2,…,gsm,…gsM>,其中,xs、ys表示联邦服务器S本地图像数据特征和标签,gsm表示联邦服务器S的第m个梯度元素;
(3c)联邦服务器S将gs的绝对值依据θm的大小顺序得到客户端Az的近似梯度向量gz=<gz1,gz2,…,gzm,…,gzM>,其中,gzm表示客户端Az的第m个梯度元素;
(4)联邦服务器更新客户端Az的近似梯度符号:
(4a)联邦服务器S对每个客户端An上传的一轮的采样梯度向量进行聚合,得到聚合梯度G=<G1,G2,…,Gm,…,GM>,其中,r=1,/>表示客户端An向联邦服务器S上传的采样梯度向量,/> 表示客户端An加密后的第k个采样梯度值,K表示客户端An根据通信网络情况选择的压缩率,0<K≤M,Gm表示联邦服务器S聚合后的第m个梯度元素;
(4b)联邦服务器S将步骤(3)中得到的客户端Az的近似梯度向量与聚合梯度Gm符号不同的索引位置的符号取反,得到更新后的客户端Az的近似梯度gz′,其中,gz′=<gz1′,gz2′,…,gzm′,…,gzM′>,其中gzm′表示更新符号后客户端Az近似梯度的第m个梯度元素;
(5)联邦服务器获取梯度泄露攻击结果:
(5a)联邦服务器S初始化本地迭代训练轮数为t,t=1,最大迭代训练轮数为T;
(5b)联邦服务器S随机生成一组图像数据并将数据特征/>作为全局卷积神经网络模型M0的输入进行模型训练,得到预测结果/>采用交叉熵损失函数,计算/>与标签/>之间的损失值/>通过损失值/>对模型M0的参数ω求偏导,得到梯度/>然后通过gz′与/>的距离/>对模型的输入/>进行更新,得到/>的更新结果/>其中/>分别表示图像数据特征、标签,/>与/>满足标准正态分布;
(5c)联邦服务器S判断迭代训练次数t=T是否成立,若是,得到的更新结果即为梯度泄露攻击的结果,否则,令t=t+1,/>并执行步骤(5b)。
本发明与现有技术相比,具有以下优点:
本发明通过客户端上传的多轮采样位置向量,结合联邦服务器本地训练的梯度重构出客户端的近似梯度,进一步通过聚合后的梯度符号更新梯度符号;实现了在采样聚合框架下既能从客户端上传的明文梯度中攻击出客户端真实图像数据,也能从客户端上传的密文梯度中攻击出客户端真实图像数据,从而拓宽了梯度泄露攻击的攻击范围。
附图说明
图1是本发明的实现流程图。
图2是本发明获取梯度泄露攻击结果的流程图。
具体实施方式
下面结合附图和具体实施例对本发明作进一步的详细描述。
参照附图1,本发明包括如下步骤:
步骤1)初始化联邦学习系统:
初始化包括联邦服务器S和N个客户端A={A1,A2,…,An,…,AN}的联邦学习系统,联邦服务器S的全局卷积神经网络模型M0,联邦服务器S从客户端A中随机选择的客户端Az作为受害者,联邦服务器S与客户端Az的当前通信轮数为r,最大通信轮数为R,联邦服务器S与其余客户端通信轮数r=1,其中An表示第n个客户端,N≥2,M0的参数为ω=<ω1,ω2,…,ωm,…,ωM>,M表示M0的参数量,M≥2,ωm表示M0的第m个参数,Az∈A,R≥2。
本实例中客户端数量N=10,并选择客户端A1为受害者,联邦服务器S和客户端An的通信轮数R=100。所述的全局卷积神经网络模型M0结构包括顺次连接的第一卷积层、激活函数层、第二卷积层、激活函数层、第三卷积层、激活函数层、全连接层;第一卷积层的输入通道数为3,输出通道数为10,卷积核尺寸为5*5;第二卷积层的输入通道数为10,输出通道数为20,卷积核尺寸为5*5;第三卷积层的输入通道数为20,输出通道数为10,卷积核尺寸为5*5;激活函数层采用Sigmoid函数;全连接层的输入维数为4000,输出维数为10。所述的全局卷积神经网络模型M0的参数量M计算公式为:M=3×Mcov+3×Msig+Mfc,其中卷积层参数量Mcov计算公式为:Mcov=size2×Ci×C0+C,其中,size表示卷积核大小,Ci表示输入通道数,C0表示输出通道数,C表示偏置项的参数量;激活函数层参数量Msig计算公式为:Msig=2×Ci,全连接层参数量Mfc计算公式为:Mfc=Ti×T0+T,其中,Ti表示输入向量的长度,T0表示输出向量的长度,T表示偏置项的参数量,经过计算本实例中全局卷积神经网络模型M0参数量为35900。
步骤2)联邦服务器判断客户端Az上传的梯度形式:
联邦服务器S判断客户端Az上传的梯度是否为密文,若是,执行步骤(3),否则,将客户端Az上传的梯度/>依据其上传的采样位置向量/>得到客户端Az的梯度gz′,并执行步骤(5)。
步骤3)联邦服务器还原客户端Az的近似梯度:
步骤3a)联邦服务器S通过客户端Az的R轮通信上传的采样位置向量计算每个索引m的采样次数θm,得到M维索引采样次数向量θ=<θ1,θ2,…,θm,…,θM>,其中,/>表示客户端Az向联邦服务器S上传的第r轮通信轮数的采样位置向量,/> 表示第r轮中客户端Az第m个采样位置标志符,取值为{0,1},0表示此索引m未采样,1表示此索引m被采样,θm的计算公式为:
其中∑表示求和操作。
步骤3b)拥有图像数据Ds={xs,ys}的联邦服务器S将数据特征xs作为全局卷积神经网络模型M0的输入,得到预测结果Ys;采用交叉熵损失函数,计算Ys与标签ys之间的损失值Ls:
Ls=loss(Ys,ys)
其中,loss(·)表示交叉熵损失函数;通过Ls对模型M0的参数ω求偏导:
其中,表示偏导操作;得到联邦服务器S的本地梯度gs=<gs1,gs2,…,gsm,…gsM>,其中,xs、ys表示联邦服务器S本地图像数据特征和标签,gsm表示联邦服务器S的第m个梯度元素;
所述的本地图像数据集为MNIST数据集以及Fashion-MNIST数据集,本实例中选择MNIST数据集。
步骤3c)联邦服务器S将gs的绝对值依据θm的大小顺序得到客户端Az的近似梯度向量gz=<gz1,gz2,…,gzm,…,gzM>,其中,gzm表示客户端Az的第m个梯度元素;
步骤4)联邦服务器更新客户端Az的近似梯度符号:
步骤4a)联邦服务器S对每个客户端An上传的一轮的采样梯度向量进行聚合,得到聚合梯度G=<G1,G2,…,Gm,…,GM>,其中,r=1,/>表示客户端An向联邦服务器S上传的采样梯度向量,/> 表示客户端An加密后的第k个采样梯度值,K表示客户端An根据通信网络情况选择的压缩率,0<K≤M,Gm表示联邦服务器S聚合后的第m个梯度元素;
本实例中压缩率K=32310。联邦服务器S将每个客户端An上传的采样梯度向量依据采样位置向量/>得到客户端An的M维梯度gn′=<gn1′,gn2′,…,gnm′,…,gnM′>,然后对N个客户端A的M维梯度gn′进行安全聚合,得到聚合后梯度G=<G1,G2,…,Gm,…,GM>,其中,gnm′表示联邦服务器S接收到的客户端An第m个梯度元素,Gm计算公式为:
其中∑表示求和操作。
步骤4b)联邦服务器S将步骤(3)中得到的客户端Az的近似梯度向量与聚合梯度Gm符号不同的索引位置的符号取反,得到更新后的客户端Az的近似梯度gz′,其中,gz′=<gz1′,gz2′,…,gzm′,…,gzM′>,其中gzm′表示更新符号后客户端Az近似梯度的第m个梯度元素;
步骤5)联邦服务器获取梯度泄露攻击结果:
步骤5a)联邦服务器S初始化本地迭代训练轮数为t,t=1,最大迭代训练轮数为T;
参照附图二,对本发明获取梯度泄露攻击结果的流程作进一步详细说明。本实例中联邦服务器S最大迭代训练轮数T=100。
步骤5b)联邦服务器S随机生成一组图像数据并将数据特征/>作为全局卷积神经网络模型M0的输入进行模型训练,得到预测结果/>采用交叉熵损失函数,计算与标签/>之间的损失值/>
其中,loss(·)表示交叉熵损失函数;通过损失值对模型M0的参数ω求偏导:
其中,表示偏导操作;得到梯度/>然后通过gz′与/>的距离/>对模型的输入/>进行更新,更新公式为:
其中,η表示学习率。得到的更新结果/>其中/>分别表示图像数据特征、标签,/>与/>满足标准正态分布;
所述的本地图像数据集为MNIST数据集以及Fashion-MNIST数据集,本实例中选择MNIST数据集。
步骤5c)联邦服务器S判断迭代训练次数t=T是否成立,若是,得到的更新结果即为梯度泄露攻击的结果,否则,令t=t+1,/>并执行步骤(5b)。
Claims (4)
1.一种采样聚合框架下的梯度泄露攻击方法,其特征在于,包括如下步骤:
(1)初始化联邦学习系统:
初始化包括联邦服务器S和N个客户端A={A1,A2,…,An,…,AN}的联邦学习系统,联邦服务器S的全局卷积神经网络模型M0,联邦服务器S从客户端A中随机选择的客户端Az作为受害者,联邦服务器S与客户端Az的当前通信轮数为r,最大通信轮数为R,联邦服务器S与其余客户端通信轮数r=1,其中An表示第n个客户端,N≥2,M0的参数为ω=<ω1,ω2,…,ωm,…,ωM>,M表示M0的参数量,M≥2,ωm表示M0的第m个参数,Az∈A,R≥2;
(2)联邦服务器判断客户端Az上传的梯度形式:
联邦服务器S判断客户端Az上传的梯度是否为密文,若是,执行步骤(3),否则,将客户端Az上传的梯度/>依据其上传的采样位置向量/>得到客户端Az的梯度gz′,并执行步骤(5);
(3)联邦服务器还原客户端Az的近似梯度:
(3a)联邦服务器S通过客户端Az的R轮通信上传的采样位置向量计算每个索引m的采样次数θm,得到M维索引采样次数向量θ=<θ1,θ2,…,θm,…,θM>,其中,/>表示客户端Az向联邦服务器S上传的第r轮通信轮数的采样位置向量,/> 表示第r轮中客户端Az第m个采样位置标志符,取值为{0,1},0表示此索引m未采样,1表示此索引m被采样,θm的计算公式为:
其中∑表示求和操作;
(3b)拥有图像数据Ds={xs,ys}的联邦服务器S将数据特征xs作为全局卷积神经网络模型M0的输入进行模型训练,得到预测结果Ys;采用交叉熵损失函数,计算Ys与标签ys之间的损失值Ls;通过Ls对模型M0的参数ω求偏导,得到梯度gs=<gs1,gs2,…,gsm,…gsM>,其中,xs、ys表示联邦服务器S本地图像数据特征和标签,gsm表示联邦服务器S的第m个梯度元素;
(3c)联邦服务器S将gs的绝对值依据θm的大小顺序得到客户端Az的近似梯度向量gz=<gz1,gz2,…,gzm,…,gzM>,其中,gzm表示客户端Az的第m个梯度元素;
(4)联邦服务器更新客户端Az的近似梯度符号:
(4a)联邦服务器S对每个客户端An上传的一轮的采样梯度向量进行聚合,得到聚合梯度G=<G1,G2,…,Gm,…,GM>,其中,r=1,/>表示客户端An向联邦服务器S上传的采样梯度向量,/> 表示客户端An加密后的第k个采样梯度值,K表示客户端An根据通信网络情况选择的压缩率,0<K≤M,Gm表示联邦服务器S聚合后的第m个梯度元素;
(4b)联邦服务器S将步骤(3)中得到的客户端Az的近似梯度向量与聚合梯度Gm符号不同的索引位置的符号取反,得到更新后的客户端Az的近似梯度gz′,其中,gz′=<gz1′,gz2′,…,gzm′,…,gzM′>,其中gzm′表示更新符号后客户端Az近似梯度的第m个梯度元素;
(5)联邦服务器获取梯度泄露攻击结果:
(5a)联邦服务器S初始化本地迭代训练轮数为t,t=1,最大迭代训练轮数为T;
(5b)联邦服务器S随机生成一组图像数据并将数据特征/>作为全局卷积神经网络模型M0的输入进行模型训练,得到预测结果/>采用交叉熵损失函数,计算/>与标签/>之间的损失值/>通过损失值/>对模型M0的参数ω求偏导,得到梯度/>然后通过gz′与/>的距离/>对模型的输入/>进行更新,得到/>的更新结果/>其中/> 分别表示图像数据特征、标签,/>与/>满足标准正态分布;
(5c)联邦服务器S判断迭代训练次数t=T是否成立,若是,得到的更新结果即为梯度泄露攻击的结果,否则,令t=t+1,/>并执行步骤(5b)。
2.根据权利要求1所述的一种采样聚合框架下的梯度泄露攻击方法,其特征在于,步骤(1)中所述的全局卷积神经网络模型结构,包括顺次连接的第一卷积层、激活函数层、第二卷积层、激活函数层、第三卷积层、激活函数层、全连接层,所述的全局卷积神经网络模型参数量M计算公式为:
M=3×Mcov+3×Msig+Mfc
Mcov=size2×Ci×C0+C
Msig=2×Ci
Mfc=Ti×T0+T
其中,Mcov表示卷积层参数量,size表示卷积核大小,Ci表示输入通道数,C0表示输出通道数,C表示偏置项的参数量,Msig表示激活函数层参数量,Mfc表示全连接层参数量,Ti表示输入向量的长度,T0表示输出向量的长度,T表示偏置项的参数量。
3.根据权利要求1所述的一种采样聚合框架下的梯度泄露攻击方法,其特征在于,步骤(4a)中所述的联邦服务器S对每个客户端An上传的一轮的采样梯度向量进行聚合,实现步骤为:
(4a1)联邦服务器S将每个客户端An上传的采样梯度向量依据采样位置向量/>得到客户端An的M维梯度gn′=<gn1′,gn2′,…,gnm′,…,gnM′>,其中,gnm′表示联邦服务器S接收到的客户端An第m个梯度元素;
(4a2)联邦服务器对N个客户端A的M维梯度gn′进行安全聚合,得到聚合后梯度G=<G1,G2,…,Gm,…,GM>,其中,Gm表示联邦服务器S聚合后的第m个梯度元素:
其中∑表示求和操作。
4.根据权利要求1所述的一种采样聚合框架下的梯度泄露攻击方法,其特征在于,步骤(5b)中所述的通过gz′与的距离/>对模型的输入/>进行更新,更新公式为:
其中,表示偏导操作,η表示学习率。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210757336.7A CN115081003B (zh) | 2022-06-29 | 2022-06-29 | 一种采样聚合框架下的梯度泄露攻击方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210757336.7A CN115081003B (zh) | 2022-06-29 | 2022-06-29 | 一种采样聚合框架下的梯度泄露攻击方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115081003A CN115081003A (zh) | 2022-09-20 |
CN115081003B true CN115081003B (zh) | 2024-04-02 |
Family
ID=83255638
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210757336.7A Active CN115081003B (zh) | 2022-06-29 | 2022-06-29 | 一种采样聚合框架下的梯度泄露攻击方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115081003B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112906052A (zh) * | 2021-03-09 | 2021-06-04 | 西安电子科技大学 | 联邦学习中多用户梯度置换的聚合方法 |
CN113361694A (zh) * | 2021-06-30 | 2021-09-07 | 哈尔滨工业大学 | 一种应用差分隐私保护的分层联邦学习方法及系统 |
CN113407963A (zh) * | 2021-06-17 | 2021-09-17 | 北京工业大学 | 基于signsgd的联邦学习梯度安全聚合方法 |
CN113487351A (zh) * | 2021-07-05 | 2021-10-08 | 哈尔滨工业大学(深圳) | 隐私保护广告点击率预测方法、装置、服务器及存储介质 |
GB202203854D0 (en) * | 2022-03-18 | 2022-05-04 | Kings College | A time-triggered federated learning algorithm |
CN114548428A (zh) * | 2022-04-18 | 2022-05-27 | 杭州海康威视数字技术股份有限公司 | 基于实例重构的联邦学习模型智能攻击检测方法及装置 |
-
2022
- 2022-06-29 CN CN202210757336.7A patent/CN115081003B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112906052A (zh) * | 2021-03-09 | 2021-06-04 | 西安电子科技大学 | 联邦学习中多用户梯度置换的聚合方法 |
CN113407963A (zh) * | 2021-06-17 | 2021-09-17 | 北京工业大学 | 基于signsgd的联邦学习梯度安全聚合方法 |
CN113361694A (zh) * | 2021-06-30 | 2021-09-07 | 哈尔滨工业大学 | 一种应用差分隐私保护的分层联邦学习方法及系统 |
CN113487351A (zh) * | 2021-07-05 | 2021-10-08 | 哈尔滨工业大学(深圳) | 隐私保护广告点击率预测方法、装置、服务器及存储介质 |
GB202203854D0 (en) * | 2022-03-18 | 2022-05-04 | Kings College | A time-triggered federated learning algorithm |
CN114548428A (zh) * | 2022-04-18 | 2022-05-27 | 杭州海康威视数字技术股份有限公司 | 基于实例重构的联邦学习模型智能攻击检测方法及装置 |
Non-Patent Citations (6)
Title |
---|
Mohamed, MSE 等.Privacy Amplification for Federated Learning via User Sampling and Wireless Aggregation.2021,第39卷(第12期),第3821-3835页. * |
Reveal Your Images: Gradient Leakage Attack Against Unbiased Sampling-Based Secure Aggregation;Yang, Y 等;IEEE Transaction on Knowledge and data Engineering;20231207;12958-71 * |
RevFRF: Enabling Cross-Domain Random Forest Training With Revocable Federated Learning;Yang Liu等;IEEE TRANSACTIONS ON DEPENDABLE AND SECURE COMPUTING;20221231;第19卷(第6期);第3671-3685页 * |
基于秘密分享和梯度选择的高效安全联邦学习;董业;侯炜;陈小军;曾帅;;计算机研究与发展;20201009(10);第235-244页页 * |
基于门限同态加密的自适应联邦学习安全聚合方案;马卓 等;通信学报;20230731;第44卷(第7期);第76-85页 * |
联邦学习模型在涉密数据处理中的应用;贾延延;张昭;冯键;王春凯;;中国电子科学研究院学报;20200120(01);第47-53页 * |
Also Published As
Publication number | Publication date |
---|---|
CN115081003A (zh) | 2022-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112529758B (zh) | 一种基于卷积神经网络的彩色图像隐写方法 | |
CN107147599B (zh) | 一种用于通信信号调制识别的图域特征自动构建方法 | |
CN107092898B (zh) | 一种基于qpsk信号双谱能量熵和颜色矩的射频指纹识别方法 | |
CN115378707B (zh) | 基于门限同态的自适应采样联邦学习隐私保护方法 | |
CN112217825B (zh) | 基于分辨率自适应网络的非对称加密系统攻击方法 | |
CN111709867B (zh) | 基于新型全卷积网络的等模矢量分解图像加密分析方法 | |
CN115481431A (zh) | 基于双重扰动的联邦学习对抗推理攻击隐私保护方法 | |
CN110135390B (zh) | 基于主信号抑制的辐射源个体识别方法 | |
CN113935050B (zh) | 基于联邦学习的特征提取方法和装置、电子设备、介质 | |
CN114943253A (zh) | 一种基于元学习模型的射频指纹小样本识别方法 | |
CN115081003B (zh) | 一种采样聚合框架下的梯度泄露攻击方法 | |
Shi et al. | Fedrfid: Federated learning for radio frequency fingerprint identification of wifi signals | |
Zheng et al. | Steganographer detection based on multiclass dilated residual networks | |
CN112543339B (zh) | 一种基于残差重构的视频仿真方法及装置 | |
WO2022160239A1 (zh) | 图像处理模型训练方法、图像生成方法、装置和设备 | |
CN117294469A (zh) | 一种面向联邦学习的隐私保护方法 | |
CN116383864A (zh) | 分布式环境下隐私保护联邦学习方法、系统、设备及介质 | |
CN117081806A (zh) | 一种基于特征提取的信道认证方法 | |
CN114862416B (zh) | 一种联邦学习环境下的跨平台信用评价方法 | |
CN116865938A (zh) | 基于秘密共享和同态加密的多服务器联邦学习方法 | |
CN115438753A (zh) | 一种基于生成的衡量联邦学习协议数据安全性的方法 | |
CN111581663B (zh) | 面向非规则用户的保护隐私的联邦深度学习方法 | |
Nagar et al. | Mathematical analysis of wavelet-based multi-image compression in medical diagnostics | |
Wu et al. | Coprime interpolation and compressive sensing for future heterogeneous network towards 5G | |
Kong et al. | Construction of a class of logistic chaotic measurement matrices for compressed sensing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |