CN114841364B - 一种满足个性化本地差分隐私需求的联邦学习方法 - Google Patents
一种满足个性化本地差分隐私需求的联邦学习方法 Download PDFInfo
- Publication number
- CN114841364B CN114841364B CN202210393006.4A CN202210393006A CN114841364B CN 114841364 B CN114841364 B CN 114841364B CN 202210393006 A CN202210393006 A CN 202210393006A CN 114841364 B CN114841364 B CN 114841364B
- Authority
- CN
- China
- Prior art keywords
- client
- server
- local
- clients
- model parameters
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 239000013598 vector Substances 0.000 claims description 23
- 238000005520 cutting process Methods 0.000 claims description 15
- 238000004364 calculation method Methods 0.000 claims description 10
- 238000000605 extraction Methods 0.000 claims description 2
- 230000006870 function Effects 0.000 claims description 2
- 238000011478 gradient descent method Methods 0.000 claims description 2
- 230000003094 perturbing effect Effects 0.000 claims description 2
- 238000005070 sampling Methods 0.000 claims description 2
- 230000007246 mechanism Effects 0.000 abstract description 5
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6218—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
- G06F21/6245—Protecting personal data, e.g. for financial or medical purposes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Bioethics (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Computer Security & Cryptography (AREA)
- Computer Hardware Design (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Complex Calculations (AREA)
- Computer And Data Communications (AREA)
Abstract
本发明涉及一种满足个性化本地差分隐私需求的联邦学习方法,属于网络与信息安全技术领域。在联邦学习的每一个迭代轮次中,每个客户端在完成本地模型训练后,根据自己设置的隐私预算对原始的本地模型参数进行扰动,然后发送给服务器。服务器收集所有客户端扰动后的本地模型参数,并根据每个客户端设置的隐私预算计算其对应的概率参数,在聚合全局模型时根据概率参数来决定使用哪些客户端的本地模型。对比现有技术,本发明可抵抗来自不可信服务器的隐私攻击,客户端可设置不同的隐私预算,支持“个性化”的隐私保护。客户端选择机制可以在隐私预算个性化设置的情形下,使服务器获得更准确的全局模型,平衡了数据可用性与隐私性。
Description
技术领域
本发明涉及一种满足个性化本地差分隐私需求的联邦学习方法,属于网络与信息安全技术领域。
背景技术
对于许多企业单位面临的数据孤岛问题,联邦学习(Federated Learning)给出了一个可行的解决方案。在联邦学习中,数据分析者(也称服务器)不收集客户端的原始数据,而只收集客户端的本地模型训练结果,用于训练一个中心化的“全局模型”。
目前,已有研究表明,攻击者可通过分析客户端分享的本地模型推断客户端隐私。为增强隐私保护,技术人员将差分隐私(Differential Privacy)应用于联邦学习。根据信任假设的不同,现有的差分隐私机制大致分为两类:中心化差分隐私(CentralDifferential Privacy)和本地化差分隐私(Local Differential Privacy)。
基于中心化差分隐私的联邦学习框架虽然能维持较高的准确度,但其依赖于一个可信任的服务器收集客户端的本地模型参数并对模型进行扰动。基于本地化差分隐私的联邦学习框架默认服务器是不可信的,也不在乎服务器拥有何种背景知识,客户端在向服务器发送模型参数之前先进行扰动以保护自己的隐私。
在基于本地化差分隐私的联邦学习框架中,所有客户端需要在本地使用相同的数据扰动方式,也需要发送相同类型的数据给服务器。但是,不同客户端对隐私的定义不同,期望得到的隐私保护程度也不同。本地化差分隐私机制主要通过隐私预算(PrivacyBudget)这个参数来度量隐私保护程度,客户端可以通过设置不同的隐私预算来表达不同的隐私需求。基于本地化差分隐私的联邦学习框架理应适配这种“个性化”隐私设置的场景。
在传统的联邦学习框架中,参与学习的客户端一般有着相同的地位,即对服务器来说,所有客户端提供的本地模型数据都是同等重要的。在基于本地化差分隐私的联邦学习中,当某些客户端设置的隐私预算较高时,如果服务器仍对所有客户端一视同仁,全局模型的准确度可能较低。当允许客户端设置个性化的隐私预算时,服务器有必要采取一定措施来调整客户端权重,以获得准确度较高的全局模型。
发明内容
本发明的目的是针对现有基于本地化差分隐私的联邦学习技术存在的缺陷,为在不同客户端设置不同隐私预算的情形下保证全局模型具有较高准确度,创造性地提出一种满足个性化本地差分隐私需求的联邦学习方法。
本发明的创新点在于:在联邦学习的每一个迭代轮次中,每个客户端在完成本地模型训练后,根据自己设置的隐私预算对原始的本地模型参数进行扰动,即,在原始模型参数上添加随机噪声,然后发送给服务器。服务器收集所有客户端扰动后的本地模型参数,并根据每个客户端设置的隐私预算计算其对应的概率参数,在聚合全局模型时根据概率参数来决定使用哪些客户端的本地模型。
本发明通过以下技术方案实现。
一种满足个性化本地差分隐私需求的联邦学习方法,联邦学习场景包括服务器和客户端。如图1所示。
服务器:是一个不可信的实体,负责收集各客户端的本地模型参数、计算各客户端对应的概率参数,以及生成全局模型。服务器同时也是全局模型的需求者。
客户端:拥有联邦学习任务所需的训练数据,负责训练本地模型、裁切和扰动原始模型参数,生成扰动后的本地模型。由多个客户端共同参与联邦学习过程,各个客户端的训练数据集是独立同分布的。
步骤1:生成初始全局模型。
服务器生成初始全局模型,并将初始全局模型参数发送给各客户端。
步骤2:训练原始模型。
每个客户端根据服务器分发的全局模型参数,在本地训练数据集上应用随机梯度下降(Stochastic Gradient Descent)算法,获得原始的本地模型。
步骤3:模型参数裁切。
每个客户端对训练得到的原始模型的参数进行裁切。模型参数裁切过程,使用事先设定的裁切阈值。裁切阈值的计算过程包括模型参数向量范数计算和取中间值运算。
对原始模型参数进行裁切,能够在一定程度上防止后续扰动过程中引入过大的噪声。
步骤4:本地模型扰动。
每个客户端对经过裁切后的原始模型参数进行扰动,即,添加高斯随机噪声。具体地,客户端根据设定的隐私预算计算高斯分布的标准差,并生成相应的高斯噪声叠加在原始模型的参数向量上。
之后,客户端将扰动后的参数向量作为本地模型参数向量,发送给服务器。
步骤5:选择客户端,生成全局模型。
服务器首先收集来自客户端的本地模型参数。
然后,服务器根据客户端设置的隐私预算,计算其对应的概率参数。其中,概率参数表示某个客户端的本地模型参数被服务器选中用于计算本轮全局模型参数的概率。
被选中的客户端地位平等。服务器使用这些客户端的本地模型参数计算本轮全局模型参数,并将全局模型参数发送给各客户端。
重复步骤2至步骤5,直到迭代结束。
有益效果
本发明对比现有技术,具有以下优点:
1.本发明,首次针对个性化的本地差分隐私保护提出带有客户端选择机制的联邦学习方法,可抵抗来自不可信服务器的隐私攻击。
2.本发明中,客户端可设置不同的隐私预算,即,本发明支持“个性化”的隐私保护。
3.本发明的客户端选择机制可以在隐私预算个性化设置的情形下,使服务器获得比普通方法更准确的全局模型,平衡了数据可用性与隐私性。
附图说明
图1是本发明方法的应用场景示意图。
图2是本发明方法的实施步骤时序图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图对本发明做进一步详细说明。
如图2所示,一种满足个性化本地差分隐私需求的联邦学习方法,包括以下步骤:
步骤1:生成初始全局模型。
服务器生成初始全局模型,并将初始全局模型参数发送给各客户端。
具体地,包括以下步骤:
步骤1.1:服务器生成初始全局模型参数W0。
其中,W0是一个d维向量, 表示由实数组成的d维向量空间,向量中的每个元素为0。N个客户端{Client1,Client2,...,ClientN}所持有的原始数据集D是独立同分布的,分别为{D1,D2,...,DN}。
步骤1.2:服务器将初始全局模型参数W0发送给N个客户端{Client1,Client2,...,ClientN}。
步骤2:训练原始模型。
每个客户端根据服务器分发的全局模型参数,在本地训练数据集上应用随机梯度下降(Stochastic Gradient Descent)算法,获得原始的本地模型。
具体地,在迭代的第r轮,第i个客户端Clienti根据服务器发送来的全局模型参数Wr-1和本地训练数据集Di,使用随机梯度下降法得到原始模型参数
其中,原始模型参数η为学习速率,/>表示使用随机梯度下降算法后得到的梯度。
步骤3:模型参数裁切。
每个客户端对训练得到的原始模型的参数进行裁切。模型参数裁切过程,使用事先设定的裁切阈值。裁切阈值的计算过程包括模型参数向量范数计算和取中间值运算。
具体地,在迭代的第r轮,第i个客户端Clienti根据事先设定好的裁切阈值c对其原始模型参数向量进行裁切,得到裁切后的本地模型参数/>
优选地,裁切的具体方法为,将向量中值大于c的元素置换为c,将值小于-c的元素置换为-c。经裁切后的/>中每一个元素,都在[-c,c]内取值。
步骤4:本地模型扰动。
具体地,在迭代的第r轮,第i个客户端Clienti对经过裁切后的原始模型参数进行扰动,即添加噪声。
优选地,包括如下步骤:
步骤4.1:根据客户端Clienti设置的隐私预算εi,计算得到高斯分布的标准差σi。
其中,隐私预算∈i满足εlow≤∈i≤∈high。隐私预算下界∈low通常可以取1,隐私预算上界∈high通常可以取10。
高斯分布标准差σi的计算公式为:其中,q表示对Clienti所拥有的数据集Di进行随机抽样的概率,δi表示数据集Di大小的倒数,R表示总迭代轮数。
步骤4.2:根据Clienti的高斯分布标准差σi生成高斯噪声N(0,σi 2),叠加在经裁切后的原始模型参数上,得到经裁切、扰动后的本地模型参数/>
其中,高斯噪声的概率密度函数Gauss为:π表示圆周率,σ表示高斯分布标准差,x表示随机变量。
对于向量中的每一个元素p,扰动后变成/>
步骤4.3:客户端Clienti将第r轮的本地模型参数发送给服务器。
步骤5:选择客户端,生成全局模型。
优选地,包括如下步骤:
步骤5.1:服务器计算客户端的概率参数{P1,P2,...,PN}。每个客户端的概率参数P是根据步骤4中高斯分布标准差计算得到的。
对于第i个客户端,服务器首先计算其高斯分布标准差σi的倒数,记为ρi,然后对ρi进行归一化处理,得到客户端i的概率参数N为客户端的总数。
步骤5.2:根据各个客户端所对应的概率参数,对N个候选客户端进行随机抽取,选出M个客户端,1≤M≤N。
优选地,随机抽取的方法为:由服务器生成一个0-1之间的均匀分布的随机数ω。对于第i个客户端Clienti,如果它所对应的概率参数Pi大于服务器生成的随机数ω,则Clienti参与本轮全局模型的生成,如果Pi小于随机数ω则不参与本轮全局模型的生成。
步骤5.3:服务器基于选中的M个客户端,计算第r轮全局模型参数Wr。全局模型参数是被选中的客户端提交的本地模型参数的平均值,即 表示经裁切、扰动后的本地模型参数。
在每个迭代轮次的最后,服务器将本轮计算得到的全局模型参数Wr发送给N个客户端。
然后,开始新一轮迭代,即,重复步骤2至步骤5,直到迭代R轮结束。
Claims (8)
1.一种满足个性化本地差分隐私需求的联邦学习方法,其特征在于,包括以下步骤:
步骤1:服务器生成初始全局模型,并将初始全局模型参数发送给各客户端;
其中,服务器是一个不可信的实体,负责收集各客户端的本地模型参数、计算各客户端对应的概率参数,以及生成全局模型;服务器同时也是全局模型的需求者;
客户端拥有联邦学习任务所需的训练数据,负责训练本地模型、裁切和扰动原始模型参数,生成扰动后的本地模型;由多个客户端共同参与联邦学习过程,各个客户端的训练数据集是独立同分布的;
步骤2:每个客户端根据服务器分发的全局模型参数,在本地训练数据集上获得原始的本地模型;
步骤3:每个客户端对训练得到的原始模型的参数进行裁切;
步骤4:每个客户端对经过裁切后的原始模型参数进行扰动,即,添加高斯随机噪声,客户端根据设定的隐私预算计算高斯分布的标准差,并生成相应的高斯噪声叠加在原始模型的参数向量上;
之后,客户端将扰动后的参数向量作为本地模型参数向量,发送给服务器;
步骤5:选择客户端,生成全局模型;
首先,服务器收集来自客户端的本地模型参数;
然后,服务器根据客户端设置的隐私预算,计算其对应的概率参数;其中,概率参数表示某个客户端的本地模型参数被服务器选中用于计算本轮全局模型参数的概率;
被选中的客户端地位平等;服务器使用这些客户端的本地模型参数计算本轮全局模型参数,并将全局模型参数发送给各客户端;
重复步骤2至步骤5,直到迭代结束;
其中,步骤5包括如下步骤:
步骤5.1:服务器计算客户端的概率参数{P1,P2,...,PN};每个客户端的概率参数P是根据步骤4中高斯分布标准差计算得到的;
对于第i个客户端,服务器首先计算其高斯分布标准差σi的倒数,记为ρi,然后对ρi进行归一化处理,得到客户端i的概率参数N为客户端的总数;
步骤5.2:根据各个客户端所对应的概率参数,对N个候选客户端进行随机抽取,选出M个客户端,1≤M≤N;
步骤5.3:服务器基于选中的M个客户端,计算第r轮全局模型参数Wr;全局模型参数是被选中的客户端提交的本地模型参数的平均值,即 表示由实数组成的d维向量空间,向量中的每个元素为0;/>表示经裁切、扰动后的本地模型参数;
在每个迭代轮次的最后,服务器将本轮计算得到的全局模型参数Wr发送给N个客户端。
2.如权利要求1所述的一种满足个性化本地差分隐私需求的联邦学习方法,其特征在于,步骤1包括以下步骤:
步骤1.1:服务器生成初始全局模型参数W0;
其中,W0是一个d维向量, 表示由实数组成的d维向量空间,向量中的每个元素为0;N个客户端{Client1,Client2,...,ClientN}所持有的原始数据集D是独立同分布的,分别为{D1,D2,...,DN};
步骤1.2:服务器将初始全局模型参数W0发送给N个客户端{Client1,Client2,…,ClientN}。
3.如权利要求1所述的一种满足个性化本地差分隐私需求的联邦学习方法,其特征在于,步骤3中的模型参数裁切过程,使用事先设定的裁切阈值,裁切阈值的计算过程包括模型参数向量范数计算和取中间值运算。
4.如权利要求1所述的一种满足个性化本地差分隐私需求的联邦学习方法,其特征在于,步骤2中,在迭代的第r轮,第i个客户端Clienti根据服务器发送来的全局模型参数Wr-1和本地训练数据集Di,使用随机梯度下降法得到原始模型参数 其中,原始模型参数/>η为学习速率,/>表示使用随机梯度下降算法后得到的梯度;
步骤3中,在迭代的第r轮,第i个客户端Clienti根据事先设定好的裁切阈值c对其原始模型参数进行裁切,得到裁切后的本地模型参数/>
步骤4中,在迭代的第r轮,第i个客户端Clienti对经过裁切后的原始模型参数进行扰动,即添加噪声,包括以下步骤:
步骤4.1:根据客户端Clienti设置的隐私预算∈i,计算得到高斯分布的标准差σi;
其中,隐私预算∈i满足∈low≤∈i≤∈high;
高斯分布标准差σi的计算公式为:其中,q表示对Clienti所拥有的数据集Di进行随机抽样的概率,δi表示数据集Di大小的倒数;R表示总迭代轮数;
步骤4.2:根据Clienti的高斯分布标准差σi生成高斯噪声N(0,σi 2),叠加在经裁切后的原始模型参数上,得到经裁切、扰动后的本地模型参数/>
其中,高斯噪声的概率密度函数Gauss为:π表示圆周率,σ表示高斯分布标准差,x表示随机变量;
对于中的每一个元素p,扰动后变成/>
步骤4.3:客户端Clienti将第r轮的本地模型参数发送给服务器。
5.如权利要求4所述的一种满足个性化本地差分隐私需求的联邦学习方法,其特征在于,步骤3中裁切的具体方法为,将向量中值大于c的元素置换为c,将值小于-c的元素置换为-c,经裁切后的/>中每一个元素,都在[-c,c]内取值。
6.如权利要求4所述的一种满足个性化本地差分隐私需求的联邦学习方法,隐私预算下界∈low取1。
7.如权利要求4所述的一种满足个性化本地差分隐私需求的联邦学习方法,隐私预算上界∈high取10。
8.如权利要求1所述的一种满足个性化本地差分隐私需求的联邦学习方法,步骤5.2中,随机抽取的方法为:
由服务器生成一个0-1之间的均匀分布的随机数ω;对于第i个客户端Clienti,如果它所对应的概率参数Pi大于服务器生成的随机数ω,则Clienti参与本轮全局模型的生成,如果Pi小于随机数ω则不参与本轮全局模型的生成。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210393006.4A CN114841364B (zh) | 2022-04-14 | 2022-04-14 | 一种满足个性化本地差分隐私需求的联邦学习方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210393006.4A CN114841364B (zh) | 2022-04-14 | 2022-04-14 | 一种满足个性化本地差分隐私需求的联邦学习方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114841364A CN114841364A (zh) | 2022-08-02 |
CN114841364B true CN114841364B (zh) | 2024-06-14 |
Family
ID=82565810
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210393006.4A Active CN114841364B (zh) | 2022-04-14 | 2022-04-14 | 一种满足个性化本地差分隐私需求的联邦学习方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114841364B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115442099B (zh) * | 2022-08-28 | 2023-06-06 | 北方工业大学 | 一种基于分布式gan的隐私保护数据共享方法及系统 |
CN115439026B (zh) | 2022-11-08 | 2023-03-24 | 山东大学 | 基于嵌套联邦学习的多智能体自组织需求响应方法及系统 |
CN116739079B (zh) * | 2023-05-10 | 2024-02-09 | 浙江大学 | 一种自适应的隐私保护联邦学习方法 |
CN116611115A (zh) * | 2023-07-20 | 2023-08-18 | 数据空间研究院 | 基于联邦学习的医疗数据诊断模型、方法、系统和存储器 |
CN117094382B (zh) * | 2023-10-19 | 2024-01-26 | 曲阜师范大学 | 一种具有隐私保护的个性化联邦学习方法、装置和介质 |
CN117349672A (zh) * | 2023-10-31 | 2024-01-05 | 深圳大学 | 基于差分隐私联邦学习的模型训练方法、装置及设备 |
CN117592584B (zh) * | 2023-12-11 | 2024-06-14 | 滇西应用技术大学 | 一种基于联邦学习的随机多模型隐私保护方法 |
CN117933427B (zh) * | 2024-03-19 | 2024-05-28 | 南京邮电大学 | 一种智能电网双重采样优化的差分隐私联邦学习方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111091199A (zh) * | 2019-12-20 | 2020-05-01 | 哈尔滨工业大学(深圳) | 一种基于差分隐私的联邦学习方法、装置及存储介质 |
CN113094758A (zh) * | 2021-06-08 | 2021-07-09 | 华中科技大学 | 一种基于梯度扰动的联邦学习数据隐私保护方法及系统 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11475350B2 (en) * | 2018-01-22 | 2022-10-18 | Google Llc | Training user-level differentially private machine-learned models |
CN111523668B (zh) * | 2020-05-06 | 2021-08-20 | 支付宝(杭州)信息技术有限公司 | 基于差分隐私的数据生成系统的训练方法及装置 |
US20210374605A1 (en) * | 2020-05-28 | 2021-12-02 | Samsung Electronics Company, Ltd. | System and Method for Federated Learning with Local Differential Privacy |
CN112257774B (zh) * | 2020-10-20 | 2024-03-15 | 平安科技(深圳)有限公司 | 基于联邦学习的目标检测方法、装置、设备及存储介质 |
CN113344217A (zh) * | 2021-06-18 | 2021-09-03 | 中国科学技术大学 | 一种结合个性化差分隐私的联邦学习方法和系统 |
CN113361694B (zh) * | 2021-06-30 | 2022-03-15 | 哈尔滨工业大学 | 一种应用差分隐私保护的分层联邦学习方法及系统 |
-
2022
- 2022-04-14 CN CN202210393006.4A patent/CN114841364B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111091199A (zh) * | 2019-12-20 | 2020-05-01 | 哈尔滨工业大学(深圳) | 一种基于差分隐私的联邦学习方法、装置及存储介质 |
CN113094758A (zh) * | 2021-06-08 | 2021-07-09 | 华中科技大学 | 一种基于梯度扰动的联邦学习数据隐私保护方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN114841364A (zh) | 2022-08-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114841364B (zh) | 一种满足个性化本地差分隐私需求的联邦学习方法 | |
Zhao et al. | Mobile edge computing, blockchain and reputation-based crowdsourcing IoT federated learning: A secure, decentralized and privacy-preserving system | |
CN113762530B (zh) | 面向隐私保护的精度反馈联邦学习方法 | |
CN111091199B (zh) | 一种基于差分隐私的联邦学习方法、装置及存储介质 | |
Ma et al. | A highly accurate prediction algorithm for unknown web service QoS values | |
Qin et al. | Federated learning-based network intrusion detection with a feature selection approach | |
CN111737743A (zh) | 一种深度学习差分隐私保护方法 | |
CN114510652B (zh) | 一种基于联邦学习的社交协同过滤推荐方法 | |
CN108768986A (zh) | 一种加密流量分类方法及服务器、计算机可读存储介质 | |
CN105989374B (zh) | 一种在线训练模型的方法和设备 | |
CN114741611B (zh) | 联邦推荐模型训练方法以及系统 | |
CN114363043B (zh) | 一种对等网络中基于可验证聚合和差分隐私的异步联邦学习方法 | |
Ye et al. | Deep over-the-air computation | |
CN115496198A (zh) | 基于联邦学习的自适应隐私预算分配的梯度压缩框架 | |
CN115481441A (zh) | 面向联邦学习的差分隐私保护方法及装置 | |
Liu et al. | A reputation model for aggregating ratings based on beta distribution function | |
Li et al. | An Adaptive Communication‐Efficient Federated Learning to Resist Gradient‐Based Reconstruction Attacks | |
Al-Maslamani et al. | Reputation-aware multi-agent DRL for secure hierarchical federated learning in IoT | |
CN117294469A (zh) | 一种面向联邦学习的隐私保护方法 | |
CN116957069A (zh) | 数据异质和系统异质条件下的联邦学习方法及设备 | |
CN115510472B (zh) | 一种面向云边聚合系统的多重差分隐私保护方法及系统 | |
CN115695429A (zh) | 面向Non-IID场景的联邦学习客户端选择方法 | |
Cao et al. | Robust distributed gradient descent with arbitrary number of Byzantine attackers | |
CN107784363B (zh) | 数据处理方法、装置及系统 | |
Green et al. | Federated learning with highly imbalanced audio data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |