CN112464290B - 一种基于自编码器的垂直联邦学习防御方法 - Google Patents
一种基于自编码器的垂直联邦学习防御方法 Download PDFInfo
- Publication number
- CN112464290B CN112464290B CN202011494369.4A CN202011494369A CN112464290B CN 112464290 B CN112464290 B CN 112464290B CN 202011494369 A CN202011494369 A CN 202011494369A CN 112464290 B CN112464290 B CN 112464290B
- Authority
- CN
- China
- Prior art keywords
- information
- encoder
- terminal
- embedded
- server
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 230000007123 defense Effects 0.000 title claims abstract description 18
- 238000012549 training Methods 0.000 claims abstract description 26
- 230000008569 process Effects 0.000 claims abstract description 19
- 238000012795 verification Methods 0.000 claims abstract description 5
- 230000006870 function Effects 0.000 claims description 17
- 210000002569 neuron Anatomy 0.000 claims description 10
- 239000013598 vector Substances 0.000 claims description 10
- 230000004913 activation Effects 0.000 claims description 8
- 230000004044 response Effects 0.000 claims description 8
- 238000013528 artificial neural network Methods 0.000 claims description 5
- 230000004931 aggregating effect Effects 0.000 claims description 3
- 230000001629 suppression Effects 0.000 claims description 3
- 230000000694 effects Effects 0.000 description 4
- 241000282326 Felis catus Species 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000006378 damage Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 239000000243 solution Substances 0.000 description 2
- 241000282414 Homo sapiens Species 0.000 description 1
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6218—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
- G06F21/6245—Protecting personal data, e.g. for financial or medical purposes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/002—Image coding using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Bioethics (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Security & Cryptography (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于自编码器的垂直联邦学习防御方法,包括:(1)终端利用本地数据对边缘模型进行训练,训练过程中,同时聚合边缘模型内每层相邻节点的嵌入特征;(2)终端构建并训练包含编码器和解码器的自编码器,获得编码器参数和解码器参数,同时利用编码器对嵌入特征进行编码得到编码信息;(3)终端上传解码器参数至服务端,服务端依据解码器参数构建解码模型后,与终端进行消息验证后,终端上传编码信息至服务端;(4)服务端利用解码模型对接收的编码信息解码获得解码信息后,聚合所有解码信息得到嵌入信息后,利用嵌入信息对全局模型进行训练,训练后反馈梯度信息至各终端。可以能够有效的防御恶意参与方窃取隐私数据。
Description
技术领域
本发明涉及深度学习、隐私安全技术领域,具体涉及一种基于自编码器的垂直联邦学习防御方法。
背景技术
随着深度神经网络(DNN)研究成果在机器翻译、图像识别、无人驾驶、自然语言处理、网络图谱分析、电磁空间对抗、生物医疗、金融等领域得到广泛应用。深度学习凭借其强大的特征提取能力,逐步在各个领域替代人类进行自主决策。然而,一旦数据与模型发生泄露,则将带来重大的人身伤害和财产损失。
自从2016年谷歌提出了联邦学习(FL)的概念,联邦学习的过程中各方参与者通过交换梯度的信息或者中间结果的方式来共同训练联合模型,这有效解决了数据孤岛问题,并且保护了数据的隐私安全。后续联邦学习的概念按照数据特征的不同被划分为水平联邦、垂直联邦和联邦迁移三个方面。在垂直联邦场景下,基于图神经网络的模型将多个参与方拥有的图数据联合进行训练,首先初始化过程中将参与方之间进行成员对齐,然后在本地使用图神经网络提取特征得到每个节点的节点嵌入向量,并发送给服务器进行聚合操作,服务器采用一个全局模型对聚合后节点的嵌入信息和真实节点标签进行下游任务的训练,如节点分类、链路预测。当完成一次前向传播,全局模型根据损失函数进行反向传播,更新模型参数。
然而这种垂直联邦场景下基于图数据的联合训练模型容易存在部分诚实但好奇的参与方,在参与训练的场景下恶意参与者可能会获得其他参与方上传给中心服务器的部分嵌入信息,这些节点嵌入信息包含一些关于图的拓扑结构信息,攻击者可以通过这些信息推测出其他参与者的其他属性信息,造成隐私泄露发生。
针对常见隐私泄露的防御主要有两种方式:一方面是加密,常见的加密方法有同态加密、多方安全计算以及秘密共享等,客户端可以将其数据以加密格式发送到服务器,服务器可以在不解密的情况下对数据进行计算,然后发送密文(加密的结果)给客户机解密。然而通过直接加密的方式通常要求很高的计算成本,使得计算复杂度增加。另一方面是扰动,常见的扰动方法有添加随机噪声或者拉普拉斯噪声等方式,Wang等人(2018)提出了Arden,一种用于推理的数据无效和差分隐私噪声注入机制。Arden将DNN跨边缘设备和云进行分区。在移动设备上执行简单的数据转换,而计算量大且复杂的推断依赖于云数据中心。然而针对差分隐私攻击的防御方法在保护节点嵌入特征信息的同时大大减小了原任务的准确率,不适用于这种针对处理图数据的垂直联邦学习场景。
发明内容
鉴于垂直联邦学习在众多图数据(如社交网络、知识图谱等)上进行联合训练的模型存在隐私泄露的风险,本发明的目的是提供了一种基于自编码器的垂直联邦学习防御方法,通过自编码器进行处理加密本地参与者上传的图数据信息,可以能够有效的防御恶意参与方窃取隐私数据,起到保护数据隐私的作用,同时也可以使得全局模型训练结果尽可能好,达到更好的收敛效果。
为实现上述发明目的,本发明提供的技术方案为:
一种基于自编码器的垂直联邦学习防御方法,包括以下步骤:
步骤1,终端利用本地数据对边缘模型进行训练,训练过程中,同时聚合边缘模型内每层相邻节点的嵌入特征;
步骤2,终端构建并训练包含编码器和解码器的自编码器,获得编码器参数和解码器参数,同时利用编码器对嵌入特征进行编码得到编码信息;
步骤3,终端上传解码器参数至服务端,服务端依据解码器参数构建解码模型后,与终端进行消息验证后,终端上传编码信息至服务端;
步骤4,服务端利用解码模型对接收的编码信息解码获得解码信息后,聚合所有解码信息得到嵌入信息后,利用嵌入信息对全局模型进行训练,训练后反馈梯度信息至各终端,以使各终端对依据反馈的梯度信息对边缘模型再训练。
与现有技术相比,本发明具有的有益效果至少包括:
本发明提供的基于自编码器的垂直联邦学习防御方法,通过自编码器生成相似的节点嵌入向量策略一方面可以有效保护终端的原图的隐私信息,有效防止终端的隐私泄露,在可接受的模型性能降低的代价范围内保护数据隐私安全,另一方面通过全局模型的迭代优化使得整体模型性能效果得到提升。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图做简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动前提下,还可以根据这些附图获得其他附图。
图1是本发明实施例提供的基于自编码器的垂直联邦学习防御方法的示意图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例对本发明进行进一步的详细说明。应当理解,此处所描述的具体实施方式仅仅用以解释本发明,并不限定本发明的保护范围。
针对如何保护联合训练过程中数据的隐私安全和尽量减少对模型联合训练效果的影响,同时针对场景是攻击者可以获取服务器部分全局模型的背景知识,本发明提出了一种基于自编码器的垂直联邦学习防御方法,在攻击者通过部分全局模型可以推测出其他参与者输出编码后的节点嵌入信息时,基于自编码器的方法会使得攻击者获取表示相似的编码信息,最终通过这些分布相似的编码信息进行区分,从而无法获取其他参与者上传给中心服务器的真实节点嵌入信息。具体技术构思为:首先各个用户根据本地数据集在本地图神经网络上提取嵌入信息,然后将嵌入信息进行编码,使得每个节点输出的嵌入信息都尽可能相似,其次在服务器端部署解码器,对上传的嵌入节点编码信息进行解码,最后通过聚合各个用户上传的节点嵌入表示,在全局模型上进行训练,在每一次迭代过程中,模型参数不断更新,达到模型训练的效果。
图1是本发明实施例提供的基于自编码器的垂直联邦学习防御方法的示意图。如图所示,实施例提供的基于自编码器的垂直联邦学习防御方法,包括以下步骤:
步骤1,终端是边缘模型的训练和嵌入特征的提取。
实施例中采用图卷积神经网络为例作为终端参与者的本地被训练的边缘模型,常见的图神经网络为图卷积神经网络(GCN)、GraphSage等。在每一次训练中,每个节点不断聚合邻居节点的信息来丰富节点表征信息,得到嵌入特征,嵌入特征通常采用如下方式:
其中,x(l)为节点在第l层的特征表示,σ(·)为非线性变换,A为邻接矩阵,D为度矩阵,W(l)为第l层权重。
步骤2,终端构建并训练包含编码器和解码器的自编码器,获得编码器参数和解码器参数,同时利用编码器对嵌入特征进行编码得到编码信息。
自编码器的编码阶段将一种节点嵌入特征通过编码器转换为隐层表达的编码信息,解码阶段尽量将隐层表达的编码信息重新映射为输入的节点嵌入特征向量。实施例中,自编码器采用稀疏编码器模型结构,将本地模型产生的节点嵌入特征向量作为输入,在这个过程中对编码器的隐含层进行约束,在编码器中添加稀疏性约束获得高维且稀疏的表达,隐藏神经元大部分输出得到抑制,所选激活函数为sigmoid函数,输出接近于0表示抑制效果。
自编码器使用全连接网络对信息进行编码,再对信息进行解码。其中,对嵌入特征的编码过程和解码过程为:
hi=f(xi)=Sf(Wxi+B1)
yi=g(hi)=Sg(Wahi+B2)
其中,W和B1分别表示编码器的权重参数和偏置参数,Wa和B2分别表示解码器的权重参数和偏置参数,Wa=WT,xi表示输入的第i个嵌入特征,hi表示编码信息,yi表示解码信息,Sf(·)和Sg(·)均表示激活函数。
实施例中,对自编码器引入稀疏编码的原则,对隐层神经元输出的平均激活值进行约束,利用KL散度使得输出结果与终端参与者提前设定的稀疏值接近,并在损失函数中添加惩罚项来防止过拟合现象发生。该稀疏编码器的损失函数表达为:
其中,xi为编码器的输入的第i个嵌入特征,f(x)表示经过编码器的编码信息,g(f(x))表示经过解码器的解码信息,E‖·‖表示能量,W表示编码器参数,表示L2范数,λ表示正则化强度项,S表示保证每个嵌入特征通过编码器生成尽可能相似的编码信息的目标函数,Ei和Ej分别表示Ei和Ej分别表示第i个嵌入特征的编码向量和第j个嵌入特征的编码向量,β表示控制系数惩罚项的权重,可以在0~1范围内进行取值,ρ为抑制参数,一般取值接近于0.03来抑制大部分神经元,/>表示所有输入特征在隐含层神经元j上的平均激活值,aj(xi)表示输入嵌入特征xi在隐含层神经元j上的激活值,m表示嵌入特征总数,h表示隐含层神经元个数,KL(·)表示KL散度, 损失函数L(xi,g(f(xi)))采用均方误差(MSE)来衡量输入数据和输出数据的相似度。
利用嵌入特征输入自编码器进行前向传播,然后根据损失函数求出梯度,使用反向传播来更新自编码器的模型参数,迭代多轮后使得模型进行收敛,最后终端参与者保存训练完成的模型参数θe与θd作为编码器参数和解码器参数。
编码器训练好后,利用编码器获得嵌入特征对应的编码信息,即其中Me(·)表示编码操作。
步骤3,终端上传解码器参数至服务端,服务端依据解码器参数构建解码模型后,与终端进行消息验证后,终端上传编码信息至服务端。
实施例中,终端上传解码器参数θd,服务端在收到解码器参数信息θd后,布置解码模型,即server:θd→MMd。服务端在构建解码模型MMd后,与终端进行消息验证后,终端上传编码信息至服务端。
具体地,服务端与终端的消息验证过程为:
服务端依据解码器参数构建解码模型后,向终端Pi发送第一响应信息mi,终端Pi接收到第一响应信息mi后,再向服务端上传编码信息Ei,服务端接收到编码信息Ei后反馈第二响应信息ri至终端Pi。
服务端与终端的消息验证过程中,当终端Pi未收到第一响应信息mi时,以固定间隔上传唤醒信息以唤醒服务端接收状态。一般可以每隔一秒上传一次参数,唤醒服务器接收状态。
步骤4,服务端依据编码信息进行全局模型的训练,并将训练后反馈梯度信息至各终端,以使各终端对依据反馈的梯度信息对边缘模型再训练。
当服务端收到编码信息后,利用解码模型MMd对接收的编码信息Ei解码获得解码信息Eei。即Eei=MMd(Ei),得到的解码信息Eei临时存放在服务端加载区队列loading。
当队列加载长度达到终端参与者总和数量D时,服务端进行对解码信息Eei进行聚合操作,获得嵌入信息H,该嵌入信息包含每个节点嵌入特征向量v。
实施例中,采用两种方式聚合所有解码信息得到嵌入信息:
方式一,采用拼接的方式拼接所有解码信息得到嵌入信息,即采用拼接操作cat{·}拼接所有解码信息,得到嵌入信息H=cat{Ee1,Ee2,…,Eei};
方式二,对所有解码信息进行加权求和以获得嵌入信息,即:
Embedding=w1Ee1+w2Ee2+…+wiEei
s.t.∑wi=1,wi≥0
其中,wi为聚合权重参数,表示对终端的边缘模型的关注程度。
当聚合所有解码信息得到嵌入信息后,即可以利用嵌入信息对全局模型进行训练,全局模型可以采用多层感知机,采用嵌入信息的标签值与预测置信度的交叉熵为损失函数,依据该损失函数来优化全局模型参数。训练结束后,将训练后反馈梯度信息至各终端,以使各终端对依据反馈的梯度信息对边缘模型再训练。
实施例中,在边缘模型和全局模型训练过程中,忽略一半的特征检测器来使得一半的神经元失活,即dropout设置为0.5,这种方式减少隐层节点间的相互作用,进一步避免模型过拟合现象的发生,提升终端参与者的边缘模型和服务端的全局模型的泛化能力。
考虑到隐私保护和不影响模型训练的效果,本发明实施例采用了基于自编码器的垂直联邦学习防御方法来进行处理加密终端参与者上传的图数据信息,即利用自编码器来对节点嵌入信息进行编码的策略来起到避免标签信息造成泄露。
以上所述的具体实施方式对本发明的技术方案和有益效果进行了详细说明,应理解的是以上所述仅为本发明的最优选实施例,并不用于限制本发明,凡在本发明的原则范围内所做的任何修改、补充和等同替换等,均应包含在本发明的保护范围之内。
Claims (6)
1.一种基于自编码器的垂直联邦学习防御方法,其特征在于,包括以下步骤:
步骤1,终端利用本地数据对边缘模型进行训练,训练过程中,同时聚合边缘模型内每层相邻节点的嵌入特征;
步骤2,终端构建并训练包含编码器和解码器的自编码器,获得编码器参数和解码器参数,同时利用编码器对嵌入特征进行编码得到编码信息;
步骤3,终端上传解码器参数至服务端,服务端依据解码器参数构建解码模型后,与终端进行消息验证后,终端上传编码信息至服务端;
步骤4,服务端利用解码模型对接收的编码信息解码获得解码信息后,聚合所有解码信息得到嵌入信息后,利用嵌入信息对全局模型进行训练,训练后反馈梯度信息至各终端,以使各终端对依据反馈的梯度信息对边缘模型再训练;
其中,所述自编码器采用全连接网络,其中,对嵌入特征的编码过程和解码过程为:
hi=f(xi)=Sf(Wxi+B1)
yi=g(hi)=Sg(Wahi+B2)
其中,W和B1分别表示编码器的权重参数和偏置参数,Wa和B2分别表示解码器的权重参数和偏置参数,Wa=WT,xi表示输入的第i个嵌入特征,hi表示编码信息,yi表示解码信息,Sf(·)和Sg(·)均表示激活函数,f(·)表示经过编码器的编码信息,g(·)表示经过解码器的解码信息;
所述自编码器的训练过程中,采用以下损失函数:
其中,xi为编码器的输入的第i个嵌入特征,E‖·‖表示能量,W表示编码器参数,表示L2范数,λ表示正则化强度项,S表示保证每个嵌入特征通过编码器生成尽可能相似的编码信息的目标函数,Ei和Ej分别表示第i个嵌入特征的编码向量和第j个嵌入特征的编码向量,β表示控制系数惩罚项的权重,ρ为抑制参数,/>表示所有输入特征在隐含层神经元j上的平均激活值,aj(xi)表示输入嵌入特征xi在隐含层神经元j上的激活值,m表示嵌入特征总数,h表示隐含层神经元个数,KL(·)表示KL散度,
2.如权利要求1所述的基于自编码器的垂直联邦学习防御方法,其特征在于,服务端与终端的消息验证过程为:
服务端依据解码器参数构建解码模型后,向终端发送第一响应信息,终端接收到第一响应信息后,再向服务端上传编码信息,服务端接收到编码信息后反馈第二响应信息至终端。
3.如权利要求1所述的基于自编码器的垂直联邦学习防御方法,其特征在于,服务端与终端的消息验证过程中,当终端未收到第一响应信息时,以固定间隔上传唤醒信息以唤醒服务端接收状态。
4.如权利要求1所述的基于自编码器的垂直联邦学习防御方法,其特征在于,采用两种方式聚合所有解码信息得到嵌入信息:
方式一,采用拼接的方式拼接所有解码信息得到嵌入信息;
方式二,对所有解码信息进行加权求和以获得嵌入信息。
5.如权利要求1所述的基于自编码器的垂直联邦学习防御方法,其特征在于,利用嵌入信息对全局模型进行训练时,采用嵌入信息的标签值与预测置信度的交叉熵为损失函数,依据该损失函数来优化全局模型参数。
6.如权利要求1所述的基于自编码器的垂直联邦学习防御方法,其特征在于,所述边缘模型采用图卷积神经网络,所述全局模型采用多层感知机。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011494369.4A CN112464290B (zh) | 2020-12-17 | 2020-12-17 | 一种基于自编码器的垂直联邦学习防御方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011494369.4A CN112464290B (zh) | 2020-12-17 | 2020-12-17 | 一种基于自编码器的垂直联邦学习防御方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112464290A CN112464290A (zh) | 2021-03-09 |
CN112464290B true CN112464290B (zh) | 2024-03-19 |
Family
ID=74802920
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011494369.4A Active CN112464290B (zh) | 2020-12-17 | 2020-12-17 | 一种基于自编码器的垂直联邦学习防御方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112464290B (zh) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113052333A (zh) * | 2021-04-02 | 2021-06-29 | 中国科学院计算技术研究所 | 基于联邦学习进行数据分析的方法及系统 |
CN113259363B (zh) * | 2021-05-26 | 2022-09-02 | 中国人民解放军战略支援部队信息工程大学 | 一种隐蔽通信方法及装置 |
CN113326128B (zh) * | 2021-05-28 | 2024-08-16 | 东南大学 | 移动边缘计算网络中基于无监督循环联邦学习的隐私保护流行度预测方法 |
CN113297573B (zh) * | 2021-06-11 | 2022-06-10 | 浙江工业大学 | 一种基于gan模拟数据生成的垂直联邦学习防御方法和装置 |
CN113297575B (zh) * | 2021-06-11 | 2022-05-17 | 浙江工业大学 | 一种基于自编码器的多通道图垂直联邦模型防御方法 |
CN113298268B (zh) * | 2021-06-11 | 2024-03-19 | 浙江工业大学 | 一种基于对抗噪声注入的垂直联邦学习方法和装置 |
CN113411329B (zh) * | 2021-06-17 | 2022-06-28 | 浙江工业大学 | 基于dagmm的联邦学习后门攻击防御方法 |
CN113805142B (zh) * | 2021-09-16 | 2023-11-07 | 北京交通大学 | 一种基于联邦学习的建筑物楼层室内定位方法 |
CN113935462A (zh) * | 2021-09-29 | 2022-01-14 | 光大科技有限公司 | 一种基于堆栈自动编码器的联邦学习方法、装置及系统 |
CN113792890B (zh) * | 2021-09-29 | 2024-05-03 | 国网浙江省电力有限公司信息通信分公司 | 一种基于联邦学习的模型训练方法及相关设备 |
CN113726823B (zh) * | 2021-11-03 | 2022-02-22 | 清华大学 | 一种防御方法、装置、电子设备及存储介质 |
CN115114652A (zh) * | 2022-05-11 | 2022-09-27 | 福州数据技术研究院有限公司 | 数据不离开所有者前提下的数据请求方法、系统和存储介质 |
CN115134114B (zh) * | 2022-05-23 | 2023-05-02 | 清华大学 | 基于离散混淆自编码器的纵向联邦学习攻击防御方法 |
CN114912146B (zh) * | 2022-05-25 | 2022-12-06 | 中国信息通信研究院 | 一种垂直联邦架构下的数据信息防御方法、系统、电子设备及存储介质 |
CN118152914A (zh) * | 2024-03-18 | 2024-06-07 | 山东管理学院 | 一种语义结构图引导的ecg自编码方法及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111460478A (zh) * | 2020-03-30 | 2020-07-28 | 西安电子科技大学 | 一种面向协同深度学习模型训练的隐私保护方法 |
CN111611610A (zh) * | 2020-04-12 | 2020-09-01 | 西安电子科技大学 | 联邦学习信息处理方法、系统、存储介质、程序、终端 |
-
2020
- 2020-12-17 CN CN202011494369.4A patent/CN112464290B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111460478A (zh) * | 2020-03-30 | 2020-07-28 | 西安电子科技大学 | 一种面向协同深度学习模型训练的隐私保护方法 |
CN111611610A (zh) * | 2020-04-12 | 2020-09-01 | 西安电子科技大学 | 联邦学习信息处理方法、系统、存储介质、程序、终端 |
Also Published As
Publication number | Publication date |
---|---|
CN112464290A (zh) | 2021-03-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112464290B (zh) | 一种基于自编码器的垂直联邦学习防御方法 | |
Wang et al. | Beyond inferring class representatives: User-level privacy leakage from federated learning | |
Cheng et al. | Generative adversarial networks: A literature review | |
You et al. | Learning from multiple teacher networks | |
Zhang et al. | A brief survey on deep learning based data hiding | |
CN113128701A (zh) | 面向样本稀疏性的联邦学习方法及系统 | |
CN113298268B (zh) | 一种基于对抗噪声注入的垂直联邦学习方法和装置 | |
CN114417427B (zh) | 一种面向深度学习的数据敏感属性脱敏系统及方法 | |
Yue et al. | Gradient obfuscation gives a false sense of security in federated learning | |
Fagbohungbe et al. | Efficient privacy preserving edge intelligent computing framework for image classification in iot | |
CN113240129A (zh) | 一种面向多类型任务图像分析的联邦学习系统 | |
CN111368983A (zh) | 业务模型训练方法、装置及业务模型训练系统 | |
Shanthamallu et al. | Uncertainty-matching graph neural networks to defend against poisoning attacks | |
Zhou et al. | Boosting model inversion attacks with adversarial examples | |
CN115795406A (zh) | 一种可逆的人脸匿名化处理系统 | |
Yang et al. | A general steganographic framework for neural network models | |
Dauphin et al. | Predicting distributions with linearizing belief networks | |
Popoola et al. | Optimizing deep learning model hyperparameters for botnet attack detection in IoT networks | |
Xiao et al. | ANE: Network embedding via adversarial autoencoders | |
CN117521126A (zh) | 针对非独立同分布数据的安全分布式深度学习系统及方法 | |
Chen et al. | Compressed Sensing-Based Practical and Efficient Privacy-Preserving Federated Learning | |
Lin et al. | A secure federated learning mechanism for data privacy protection | |
CN113297575B (zh) | 一种基于自编码器的多通道图垂直联邦模型防御方法 | |
Xing et al. | Representation and Fusion Based on Knowledge Graph in Multi-Modal Semantic Communication | |
CN116070277A (zh) | 一种基于深度哈希的纵向联邦学习隐私保护方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |