CN113298268B - 一种基于对抗噪声注入的垂直联邦学习方法和装置 - Google Patents

一种基于对抗噪声注入的垂直联邦学习方法和装置 Download PDF

Info

Publication number
CN113298268B
CN113298268B CN202110654359.0A CN202110654359A CN113298268B CN 113298268 B CN113298268 B CN 113298268B CN 202110654359 A CN202110654359 A CN 202110654359A CN 113298268 B CN113298268 B CN 113298268B
Authority
CN
China
Prior art keywords
model
edge
server
client
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110654359.0A
Other languages
English (en)
Other versions
CN113298268A (zh
Inventor
陈晋音
李荣昌
张龙源
刘涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN202110654359.0A priority Critical patent/CN113298268B/zh
Publication of CN113298268A publication Critical patent/CN113298268A/zh
Application granted granted Critical
Publication of CN113298268B publication Critical patent/CN113298268B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Bioethics (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer And Data Communications (AREA)

Abstract

本发明公开了一种基于对抗噪声注入的垂直联邦学习方法,包括以下步骤:边缘客户端数据对齐,保证数据特征相同,不同边缘客户端之间相同训练数据成员id进行数据对齐匹配;边缘客户端和服务器端模型初始化工作准备,包括服务商协商选定客户端边缘网络模型和服务器端网络模型和结构,模型参数初始化设置;将客户端边缘网络模型训练产生的中间信息送至信息去敏装置注入对抗性噪声;将边缘客户端去敏的中间信息上传给服务器,利用服务器上布置的网络模型进行训练,并将梯度信息重新反馈给边缘客户端,迭代训练过程,直至联邦模型收敛。该发明不仅保护数据隐私还有效提升了模型的收敛速率,增强了垂直联邦学习框架的实用性。

Description

一种基于对抗噪声注入的垂直联邦学习方法和装置
技术领域
本发明涉及图神经网络、隐私保护领域,具体涉及一种基于对抗噪声注入的垂直联邦学习方法和装置。
背景技术
随着物联网技术和社交网络的迅速发展,边缘设备的数据存储量呈现指数级增加,由于通信代价和数据隐私安全的问题,将原始数据发送到第三方机构进行集中处理是不切实际的。因此联邦学习(Federated learning)成为了现代分布式机器学习的一种典范,它将边缘设备(如智能手机、物联网设备、边缘服务器)协作训练一个全局模型。
根据参与联邦模型训练的客户端数据分布特征不同,联邦学习可以被划分为水平联邦学习、垂直联邦学习和联邦迁移学习。水平联邦学习场景下,客户端拥有的数据特征是相同的;垂直联邦学习中客户端的数据特征是不同的,但是数据的成员存在交集;联邦迁移学习则面对数据特征和成员都有很少的交集的情况。
由于垂直联邦学习的客户端数据分布特性,其越来越受到服务商的青睐。针对垂直联邦学习有很多算法框架,其中分裂学习(Split learning)是一种有效解决图数据在垂直联邦学习场景下的学习框架。现阶段基于分裂学习搭建的垂直联邦学习图神经网络框架注重提升框架的效率和通信成本,而忽略了框架的隐私安全。
间接保护垂直联邦学习网络框架的技术,主要分为两类,一类是基于密码学理论的加密保护,另一类是基于脱敏技术的隐私信息剥离。
常见的加密方法有同态加密和多方安全计算:一方面这些方法要求有很高的计算量,不适合计算资源有限的边缘端设备使用;另一方面这些方法都要求第三方服务器是一个诚实且公正的,一旦第三方和攻击者串通则会导致中间信息加密失败。
公开号为CN112560059A的说明书公开了一种基于神经通路特征提取的垂直联邦下模型窃取防御方法,包括:(1)将数据集中的每张样本平均分成两部分,组成样本集DA和DB,且仅样本集DB包含样本标签;(2)依据DA对边缘终端PB的边缘模型MA进行训练,依据DB对边缘终端PB的边缘模型MB进行训练,PA将训练过程产生的特征数据发送给PB,PB利用接收的特征数据和激活神经元通路数据计算损失函数,PA和PB并将各自的损失函数掩码加密后上传至服务端;(3)服务端对上传的损失函数掩码解密并聚合后求解聚合的损失函数获得MA和MB的梯度信息,并返回梯度信息至PA和PB以更新边缘模型网络参数。
公开号为CN112464290A的说明书公开了了一种基于自编码器的垂直联邦学习防御方法,包括:(1)终端利用本地数据对边缘模型进行训练,训练过程中,同时聚合边缘模型内每层相邻节点的嵌入特征;(2)终端构建并训练包含编码器和解码器的自编码器,获得编码器参数和解码器参数,同时利用编码器对嵌入特征进行编码得到编码信息;(3)终端上传解码器参数至服务端,服务端依据解码器参数构建解码模型后,与终端进行消息验证后,终端上传编码信息至服务端;(4)服务端利用解码模型对接收的编码信息解码获得解码信息后,聚合所有解码信息得到嵌入信息后,利用嵌入信息对全局模型进行训练,训练后反馈梯度信息至各终端。该发明通过自编码器进行处理加密本地参与者上传的图数据信息,防御恶意参与方窃取隐私数据。
发明内容
本发明的发明目的在于提供一种保护客户端属性信息的基于对抗噪声注入的垂直联邦学习方法和装置,不仅保护数据隐私还可有效提升模型的收敛速率,增强垂直联邦学习框架的实用性。
一种基于对抗噪声注入的垂直联邦学习方法,包括以下步骤:
(1)边缘客户端数据对齐,保证数据特征相同,不同边缘客户端之间相同训练数据成员id进行数据对齐匹配;
(2)边缘客户端和服务器端模型初始化工作准备,包括服务商协商选定客户端边缘网络模型和服务器端网络模型和结构,模型参数初始化设置;
(3)将客户端边缘网络模型训练产生的中间信息送至信息去敏装置注入对抗性噪声;
(4)将边缘客户端去敏的中间信息上传给服务器,利用服务器上布置的网络模型进行训练,并将梯度信息重新反馈给边缘客户端,迭代训练过程,直至联邦模型收敛。
基于对抗噪声注入的垂直联邦学习方法中脱出敏感信息的关键环节是信息去敏装置添加对抗性噪声。对抗性噪声使得原数据和敏感信息之间的关联性被切断,破坏了攻击模型在原始数据上的决策边界,从而起到保护属性信息的作用。
所述步骤(1)中,采用隐私交集技术通过加密手段来秘密匹配边缘客户端之间相同数据id,确定客户端之间具有相同id的数据参与联邦学习训练。
所述步骤(2)中,模型参数初始化设置包括两个步骤:
(2-1)客户端边缘网络模型的输出层神经元个数调整为服务器发布的个数,同时根据客户端边缘网络模型的数据特征修改网络输入特征层维度信息;
(2-2)进行本地模型初始化设置,客户端边缘网络模型初始化结束后,向服务器发送训练准备信息,待服务器查询到所有边缘客户端准备完毕后,进入模型训练阶段。
所述步骤(3)中,中间信息去敏装置在联邦模型未收敛阶段,添加随机噪声进行数据脱敏;在模型接近收敛阶段,通过注入对抗噪声进行数据脱敏。在联邦模型接近收敛阶段添加优化后的对抗噪声,在保证隐私的同时减小了噪声对主任务性能的影响。
所述的注入对抗噪声进行数据脱敏,分为两个阶段:
第一阶段为数据隐私泄露情况本地评估,通过集成各个攻击模型进行隐私泄露评估;
第二阶段为对抗噪声生成进行本地隐私保护,通过优化不同分布噪声的权重系数解决最大最小问题,使用生成的对抗噪声进行防御推断攻击。
优选地,隐私泄露评估集成的攻击模型包括:多层感知机模型、逻辑回归、随机森林和支持向量机。
优选地,针对联邦训练不同阶段设置可变的强化系数,所述强化系数用于自适应调整不同阶段的隐私保护和效用保护。
一种基于对抗噪声注入的垂直联邦学习装置,包括存储器、处理器以及存储在存储器中并可在处理器上执行的计算机程序,所述处理器执行计算机程序时实现上述基于对抗噪声注入的垂直联邦学习方法。
本发明相比现有技术,其优点在于:
1、本发明通过在传统分裂学习框架中引入信息去敏装置,起到了滤除中间结果的敏感属性信息的作用;
2、本发明信息去敏装置根据联邦模型在不同收敛阶段引入自适应对抗噪声添加策略,加快了模型收敛,提升联邦模型的整体运行效率,有效降低了时间成本。
附图说明
图1是本发明实施例基于对抗噪声注入的垂直联邦图神经网络的流程图;
图2是本发明实施例基于对抗噪声注入的垂直联邦图神经网络的框架示意图;
图3是本发明实施例中本地隐私泄露评估的集成模型的示意图。
具体实施方式
如图1和图2所示,实施例提供的基于对抗噪声注入的垂直联邦学习方法,包括以下步骤:
(1)边缘客户端数据对齐,保证数据特征相同,不同边缘客户端之间相同训练数据成员id进行数据对齐匹配;
采用隐私交集技术通过加密手段来秘密匹配边缘客户端之间相同数据id,确定客户端之间具有相同id的数据参与联邦学习训练。
(2)边缘客户端和服务器端模型初始化工作准备,包括服务商协商选定客户端边缘网络模型和服务器端网络模型和结构,模型参数初始化设置。
服务器端用于向边缘客户端广播模型结构、类型方案和客户端边缘网络模型输出神经元要求个数。边缘客户端根据其自身数据特征选取合适的模型。
边缘客户端和服务器端模型为图神经网络模型,包括图卷积神经网络(GCN)和GraphSage,图神经网络模型可以用于社交网络,推荐系统,金融风控,物理系统,分子化学,生命科学,知识图谱,交通预测等领域。具体可以应用到路况预测,动作识别等,当用于路况预测时,处理数据为交通数据,利用图神经网络模型根据交通数据进行路况预测。
其中模型参数初始化设置包括两个步骤:
(2-1)客户端边缘网络模型的输出层神经元个数调整为服务器发布的个数,同时根据客户端边缘网络模型的数据特征修改网络输入特征层维度信息;
(2-2)进行本地模型初始化设置,客户端边缘网络模型初始化结束后,向服务器发送训练准备信息,待服务器查询到所有边缘客户端准备完毕后,进入模型训练阶段。
(3)将客户端边缘网络模型训练产生的中间信息送至信息去敏装置注入对抗性噪声。
边缘客户端使用本地模型进行信息聚合生成中间信息,例如图卷积神经网络的聚合方式为:
其中,x(l)为节点在第l层的特征表示,σ(·)为非线性变换,A为邻接矩阵,D为度矩阵,W(l)为第l层权重;
中间信息去敏装置在联邦模型未收敛阶段,通过添加随机噪声的方式来进行数据脱敏,在模型接近收敛阶段,通过注入对抗噪声进行数据脱敏。
注入对抗噪声进行数据脱敏,分为两个阶段:
第一阶段为数据隐私泄露情况本地评估,通过集成各个攻击模型进行隐私泄露评估,如图3所示;
利用常见的攻击模型进行隐私泄露评估P_SCORE,通常选用多层感知机模型MLP、逻辑回归LR、随机森林RM和支持向量机SVM:
其中,Z为边缘客户端产生的中间信息,ACC为准确率。
隐私泄露评估阶段,边缘客户端按照隐私保护需求对待保护的数据特征进行整理,包括整理敏感数据条目的特征信息。
采用多层感知机模型设计损失函数loss为:
其中,xi为编码器的输入的第i个嵌入特征,f(x)表示经过编码器的编码信息,g(f(x))表示经过解码器的解码信息,E||·||表示能量,W表示编码器参数,表示L2范数,λ表示正则化强度项。
第二阶段为对抗噪声生成进行本地隐私保护,通过优化不同分布噪声N的权重系数α解决最大最小问题,使用生成的对抗噪声进行防御推断攻击。
min max fattack(α(N))+||N-emb||2
其中fattack为集成攻击模型,emb为中间信息,边缘客户端在不同分布的随机噪声中选取10个噪声作为噪声基Ni,其中包含正态分布N(0,1),均匀分布U(0,1)以及拉普拉斯分布噪声L(0,1)。
针对联邦训练不同阶段设置可变的强化系数β,强化系数β用于自适应调整不同阶段的隐私保护和效用保护。
得到采用多层感知机模型的信息去敏装置的损失函数loss为:
loss=λ1||noise-emb||2-β*F(tar,true),
其中λ1控制主任务性能,λ2控制隐私防御任务性能,E是联邦学习中当前训练轮回数。
F(tar,true)=emb+α(N1+N2+…+N10)
其中,α为噪声权重系数,α=[α12,…,α10]。
(4)将边缘客户端去敏的中间信息上传给服务器,利用服务器上布置的网络模型进行训练,并将梯度信息重新反馈给边缘客户端,迭代训练过程,直至联邦模型收敛。
聚合所有边缘客户端发送的中间信息的方法有两种:
方法1,采用拼接的方式拼接边缘客户端发送的中间信息,即采用拼接操作cat{·}拼接所有嵌入信息,得到嵌入信息Emb=cat{Ee1,Ee2,…,Eei},其中,Ee为各个边缘客户端发送的中间信息。
方法2,对各个边缘客户端发送的中间信息进行加权求,即:
emb=w1Ee1+w2Ee2+…+wiEei
s.t.∑wi=1,wi≥0
其中,wi为聚合权重参数,表示对服务器的边缘模型的关注度。
当聚合所所有边缘客户端发送的中间信息后,利用聚合后的中间信息对全局模型进行训练,全局模型可采用多层感知机模型,采用中间信息的标签值与预测置信度的交叉熵为损失函数,依据该损失函数来优化全局模型参数。训练结束后,将训练后反馈梯度信息至各边缘客户端,以使各边缘服务器对依据反馈的梯度信息对边缘模型再训练。
在边缘客户端模型和服务器模型训练过程中,忽略一半的特征检测器来使得一半的神经元失活,即dropout设置为0.5,这种方式减少隐层节点间的相互作用,进一步避免模型过拟合现象的发生,提升边缘客户端模型和服务端的全局模型的泛化能力。
考虑到隐私保护和不影响模型训练的效果,本发明实施例采用了基于对抗噪声注入的垂直联邦学习方法来保证边缘客户端中间安全秘密共同训练。通过在传统分裂学习框架中引入信息去敏装置来起到滤除中间结果的敏感属性信息,信息去敏装置根据联邦模型在不同收敛阶段引入自适应对抗噪声添加策略加快了模型收敛,提升联邦模型的整体运行效率,有效降低时间成本。

Claims (6)

1.一种基于对抗噪声注入的垂直联邦学习方法,其特征在于,包括以下步骤:
(1)边缘客户端数据对齐,保证数据特征相同,不同边缘客户端之间相同训练数据成员id进行数据对齐匹配;
(2)边缘客户端和服务器端模型初始化工作准备,包括服务商协商选定客户端边缘网络模型和服务器端网络模型和结构,模型参数初始化设置;
(3)将客户端边缘网络模型训练产生的中间信息送至信息去敏装置注入对抗性噪声,其中,中间信息去敏装置在联邦模型未收敛阶段,添加随机噪声进行数据脱敏;在模型接近收敛阶段,通过注入对抗噪声进行数据脱敏,所述注入对抗噪声进行数据脱敏,分为两个阶段:第一阶段为数据隐私泄露情况本地评估,通过集成各个攻击模型进行隐私泄露评估;第二阶段为对抗噪声生成进行本地隐私保护,通过优化不同分布噪声的权重系数解决最大最小问题,使用生成的对抗噪声进行防御推断攻击;
(4)将边缘客户端去敏的中间信息上传给服务器,利用服务器上布置的网络模型进行训练,并将梯度信息重新反馈给边缘客户端,迭代训练过程,直至联邦模型收敛。
2.如权利要求1所述的基于对抗噪声注入的垂直联邦学习方法,其特征在于,所述步骤(1)中,采用隐私交集技术通过加密手段来秘密匹配边缘客户端之间相同数据id,确定客户端之间具有相同id的数据参与联邦学习训练。
3.如权利要求1所述的基于对抗噪声注入的垂直联邦学习方法,其特征在于,所述步骤(2)中,模型参数初始化设置包括两个步骤:
(2-1)客户端边缘网络模型的输出层神经元个数调整为服务器发布的个数,同时根据客户端边缘网络模型的数据特征修改网络输入特征层维度信息;
(2-2)进行本地模型初始化设置,客户端边缘网络模型初始化结束后,向服务器发送训练准备信息,待服务器查询到所有边缘客户端准备完毕后,进入模型训练阶段。
4.如权利要求1所述的基于对抗噪声注入的垂直联邦学习方法,其特征在于,隐私泄露评估集成的攻击模型包括:多层感知机模型、逻辑回归、随机森林和支持向量机。
5.如权利要求1所述的基于对抗噪声注入的垂直联邦学习方法,其特征在于,针对联邦训练不同阶段设置可变的强化系数,所述强化系数用于自适应调整不同阶段的隐私保护和效用保护。
6.一种基于对抗噪声注入的垂直联邦学习装置,包括存储器、处理器以及存储在存储器中并可在处理器上执行的计算机程序,其特征在于,所述处理器执行计算机程序时实现权利要求1~5任一项所述的基于对抗噪声注入的垂直联邦学习方法。
CN202110654359.0A 2021-06-11 2021-06-11 一种基于对抗噪声注入的垂直联邦学习方法和装置 Active CN113298268B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110654359.0A CN113298268B (zh) 2021-06-11 2021-06-11 一种基于对抗噪声注入的垂直联邦学习方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110654359.0A CN113298268B (zh) 2021-06-11 2021-06-11 一种基于对抗噪声注入的垂直联邦学习方法和装置

Publications (2)

Publication Number Publication Date
CN113298268A CN113298268A (zh) 2021-08-24
CN113298268B true CN113298268B (zh) 2024-03-19

Family

ID=77328042

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110654359.0A Active CN113298268B (zh) 2021-06-11 2021-06-11 一种基于对抗噪声注入的垂直联邦学习方法和装置

Country Status (1)

Country Link
CN (1) CN113298268B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113792890B (zh) * 2021-09-29 2024-05-03 国网浙江省电力有限公司信息通信分公司 一种基于联邦学习的模型训练方法及相关设备
CN114091617A (zh) * 2021-11-29 2022-02-25 深圳前海微众银行股份有限公司 联邦学习建模优化方法、电子设备、存储介质及程序产品
CN114417427B (zh) * 2022-03-30 2022-08-02 浙江大学 一种面向深度学习的数据敏感属性脱敏系统及方法
CN115062159B (zh) * 2022-06-13 2024-05-24 西南交通大学 基于联邦学习的多粒度事件预警动态知识图谱嵌入模型构造方法
CN115424079B (zh) * 2022-09-30 2023-11-24 深圳市大数据研究院 基于联邦边缘学习的图像分类方法以及相关设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111865815A (zh) * 2020-09-24 2020-10-30 中国人民解放军国防科技大学 一种基于联邦学习的流量分类方法及系统
CN112464290A (zh) * 2020-12-17 2021-03-09 浙江工业大学 一种基于自编码器的垂直联邦学习防御方法
CN112532451A (zh) * 2020-11-30 2021-03-19 安徽工业大学 基于异步通信的分层联邦学习方法、装置、终端设备及存储介质
CN112540926A (zh) * 2020-12-17 2021-03-23 杭州趣链科技有限公司 一种基于区块链的资源分配公平的联邦学习方法
CN112765662A (zh) * 2021-01-22 2021-05-07 电子科技大学 一种在深度学习下支持训练集成员隐私保护的方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111865815A (zh) * 2020-09-24 2020-10-30 中国人民解放军国防科技大学 一种基于联邦学习的流量分类方法及系统
CN112532451A (zh) * 2020-11-30 2021-03-19 安徽工业大学 基于异步通信的分层联邦学习方法、装置、终端设备及存储介质
CN112464290A (zh) * 2020-12-17 2021-03-09 浙江工业大学 一种基于自编码器的垂直联邦学习防御方法
CN112540926A (zh) * 2020-12-17 2021-03-23 杭州趣链科技有限公司 一种基于区块链的资源分配公平的联邦学习方法
CN112765662A (zh) * 2021-01-22 2021-05-07 电子科技大学 一种在深度学习下支持训练集成员隐私保护的方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于秘密分享和梯度选择的高效安全联邦学习;董业;侯炜;陈小军;曾帅;;计算机研究与发展;20201009(10);第235-244页 *

Also Published As

Publication number Publication date
CN113298268A (zh) 2021-08-24

Similar Documents

Publication Publication Date Title
CN113298268B (zh) 一种基于对抗噪声注入的垂直联邦学习方法和装置
Friha et al. FELIDS: Federated learning-based intrusion detection system for agricultural Internet of Things
Li et al. Privacy-preserving federated learning framework based on chained secure multiparty computing
Chen et al. Impulsive synchronization of reaction–diffusion neural networks with mixed delays and its application to image encryption
Lee et al. Digestive neural networks: A novel defense strategy against inference attacks in federated learning
CN112464290B (zh) 一种基于自编码器的垂直联邦学习防御方法
US20160004874A1 (en) A method and system for privacy preserving matrix factorization
Besser et al. Wiretap code design by neural network autoencoders
Qin et al. Federated learning-based network intrusion detection with a feature selection approach
Lytvyn et al. Information encryption based on the synthesis of a neural network and AES algorithm
CN108920981A (zh) 涉及数据迭代加密的神经网络模型加密保护系统及方法
Zhang et al. Security and privacy threats to federated learning: Issues, methods, and challenges
CN114363043B (zh) 一种对等网络中基于可验证聚合和差分隐私的异步联邦学习方法
CN108830092A (zh) 涉及数据随机加密的神经网络模型加密保护系统及方法
Kumar Technique for security of multimedia using neural network
CN116708009A (zh) 一种基于联邦学习的网络入侵检测方法
Zhang et al. Safelearning: Enable backdoor detectability in federated learning with secure aggregation
Hallaji et al. Label noise analysis meets adversarial training: A defense against label poisoning in federated learning
Ge et al. A review of secure federated learning: Privacy leakage threats, protection technologies, challenges and future directions
Yang et al. Efficient and secure federated learning with verifiable weighted average aggregation
Meng et al. Fedmonn: meta operation neural network for secure federated aggregation
Zhang et al. Visual object detection for privacy-preserving federated learning
Lu et al. Decentralized federated learning: A defense against gradient inversion attack
CN112560059A (zh) 一种基于神经通路特征提取的垂直联邦下模型窃取防御方法
Chen et al. Privacy-Enhancing and Robust Backdoor Defense for Federated Learning on Heterogeneous Data

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant