CN114841364A - 一种满足个性化本地差分隐私需求的联邦学习方法 - Google Patents

一种满足个性化本地差分隐私需求的联邦学习方法 Download PDF

Info

Publication number
CN114841364A
CN114841364A CN202210393006.4A CN202210393006A CN114841364A CN 114841364 A CN114841364 A CN 114841364A CN 202210393006 A CN202210393006 A CN 202210393006A CN 114841364 A CN114841364 A CN 114841364A
Authority
CN
China
Prior art keywords
client
server
local
clients
model parameters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210393006.4A
Other languages
English (en)
Other versions
CN114841364B (zh
Inventor
徐蕾
吴瑕
祝烈煌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Technology BIT
Original Assignee
Beijing Institute of Technology BIT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Technology BIT filed Critical Beijing Institute of Technology BIT
Priority to CN202210393006.4A priority Critical patent/CN114841364B/zh
Publication of CN114841364A publication Critical patent/CN114841364A/zh
Application granted granted Critical
Publication of CN114841364B publication Critical patent/CN114841364B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioethics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Hardware Design (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Complex Calculations (AREA)
  • Computer And Data Communications (AREA)

Abstract

本发明涉及一种满足个性化本地差分隐私需求的联邦学习方法,属于网络与信息安全技术领域。在联邦学习的每一个迭代轮次中,每个客户端在完成本地模型训练后,根据自己设置的隐私预算对原始的本地模型参数进行扰动,然后发送给服务器。服务器收集所有客户端扰动后的本地模型参数,并根据每个客户端设置的隐私预算计算其对应的概率参数,在聚合全局模型时根据概率参数来决定使用哪些客户端的本地模型。对比现有技术,本发明可抵抗来自不可信服务器的隐私攻击,客户端可设置不同的隐私预算,支持“个性化”的隐私保护。客户端选择机制可以在隐私预算个性化设置的情形下,使服务器获得更准确的全局模型,平衡了数据可用性与隐私性。

Description

一种满足个性化本地差分隐私需求的联邦学习方法
技术领域
本发明涉及一种满足个性化本地差分隐私需求的联邦学习方法,属于网络与信息安全技术领域。
背景技术
对于许多企业单位面临的数据孤岛问题,联邦学习(Federated Learning)给出了一个可行的解决方案。在联邦学习中,数据分析者(也称服务器)不收集客户端的原始数据,而只收集客户端的本地模型训练结果,用于训练一个中心化的“全局模型”。
目前,已有研究表明,攻击者可通过分析客户端分享的本地模型推断客户端隐私。为增强隐私保护,技术人员将差分隐私(Differential Privacy)应用于联邦学习。根据信任假设的不同,现有的差分隐私机制大致分为两类:中心化差分隐私(CentralDifferential Privacy)和本地化差分隐私(Local Differential Privacy)。
基于中心化差分隐私的联邦学习框架虽然能维持较高的准确度,但其依赖于一个可信任的服务器收集客户端的本地模型参数并对模型进行扰动。基于本地化差分隐私的联邦学习框架默认服务器是不可信的,也不在乎服务器拥有何种背景知识,客户端在向服务器发送模型参数之前先进行扰动以保护自己的隐私。
在基于本地化差分隐私的联邦学习框架中,所有客户端需要在本地使用相同的数据扰动方式,也需要发送相同类型的数据给服务器。但是,不同客户端对隐私的定义不同,期望得到的隐私保护程度也不同。本地化差分隐私机制主要通过隐私预算(PrivacyBudget)这个参数来度量隐私保护程度,客户端可以通过设置不同的隐私预算来表达不同的隐私需求。基于本地化差分隐私的联邦学习框架理应适配这种“个性化”隐私设置的场景。
在传统的联邦学习框架中,参与学习的客户端一般有着相同的地位,即对服务器来说,所有客户端提供的本地模型数据都是同等重要的。在基于本地化差分隐私的联邦学习中,当某些客户端设置的隐私预算较高时,如果服务器仍对所有客户端一视同仁,全局模型的准确度可能较低。当允许客户端设置个性化的隐私预算时,服务器有必要采取一定措施来调整客户端权重,以获得准确度较高的全局模型。
发明内容
本发明的目的是针对现有基于本地化差分隐私的联邦学习技术存在的缺陷,为在不同客户端设置不同隐私预算的情形下保证全局模型具有较高准确度,创造性地提出一种满足个性化本地差分隐私需求的联邦学习方法。
本发明的创新点在于:在联邦学习的每一个迭代轮次中,每个客户端在完成本地模型训练后,根据自己设置的隐私预算对原始的本地模型参数进行扰动,即,在原始模型参数上添加随机噪声,然后发送给服务器。服务器收集所有客户端扰动后的本地模型参数,并根据每个客户端设置的隐私预算计算其对应的概率参数,在聚合全局模型时根据概率参数来决定使用哪些客户端的本地模型。
本发明通过以下技术方案实现。
一种满足个性化本地差分隐私需求的联邦学习方法,联邦学习场景包括服务器和客户端。如图1所示。
服务器:是一个不可信的实体,负责收集各客户端的本地模型参数、计算各客户端对应的概率参数,以及生成全局模型。服务器同时也是全局模型的需求者。
客户端:拥有联邦学习任务所需的训练数据,负责训练本地模型、裁切和扰动原始模型参数,生成扰动后的本地模型。由多个客户端共同参与联邦学习过程,各个客户端的训练数据集是独立同分布的。
步骤1:生成初始全局模型。
服务器生成初始全局模型,并将初始全局模型参数发送给各客户端。
步骤2:训练原始模型。
每个客户端根据服务器分发的全局模型参数,在本地训练数据集上应用随机梯度下降(Stochastic Gradient Descent)算法,获得原始的本地模型。
步骤3:模型参数裁切。
每个客户端对训练得到的原始模型的参数进行裁切。模型参数裁切过程,使用事先设定的裁切阈值。裁切阈值的计算过程包括模型参数向量范数计算和取中间值运算。
对原始模型参数进行裁切,能够在一定程度上防止后续扰动过程中引入过大的噪声。
步骤4:本地模型扰动。
每个客户端对经过裁切后的原始模型参数进行扰动,即,添加高斯随机噪声。具体地,客户端根据设定的隐私预算计算高斯分布的标准差,并生成相应的高斯噪声叠加在原始模型的参数向量上。
之后,客户端将扰动后的参数向量作为本地模型参数向量,发送给服务器。
步骤5:选择客户端,生成全局模型。
服务器首先收集来自客户端的本地模型参数。
然后,服务器根据客户端设置的隐私预算,计算其对应的概率参数。其中,概率参数表示某个客户端的本地模型参数被服务器选中用于计算本轮全局模型参数的概率。
被选中的客户端地位平等。服务器使用这些客户端的本地模型参数计算本轮全局模型参数,并将全局模型参数发送给各客户端。
重复步骤2至步骤5,直到迭代结束。
有益效果
本发明对比现有技术,具有以下优点:
1.本发明,首次针对个性化的本地差分隐私保护提出带有客户端选择机制的联邦学习方法,可抵抗来自不可信服务器的隐私攻击。
2.本发明中,客户端可设置不同的隐私预算,即,本发明支持“个性化”的隐私保护。
3.本发明的客户端选择机制可以在隐私预算个性化设置的情形下,使服务器获得比普通方法更准确的全局模型,平衡了数据可用性与隐私性。
附图说明
图1是本发明方法的应用场景示意图。
图2是本发明方法的实施步骤时序图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图对本发明做进一步详细说明。
如图2所示,一种满足个性化本地差分隐私需求的联邦学习方法,包括以下步骤:
步骤1:生成初始全局模型。
服务器生成初始全局模型,并将初始全局模型参数发送给各客户端。
具体地,包括以下步骤:
步骤1.1:服务器生成初始全局模型参数W0
其中,W0是一个d维向量,
Figure BDA0003596274250000041
Figure BDA0003596274250000042
表示由实数组成的d维向量空间,向量中的每个元素为0。N个客户端{Client1,Client2,...,ClientN}所持有的原始数据集D是独立同分布的,分别为{D1,D2,...,DN}。
步骤1.2:服务器将初始全局模型参数W0发送给N个客户端{Client1,Client2,...,ClientN}。
步骤2:训练原始模型。
每个客户端根据服务器分发的全局模型参数,在本地训练数据集上应用随机梯度下降(Stochastic Gradient Descent)算法,获得原始的本地模型。
具体地,在迭代的第r轮,第i个客户端Clienti根据服务器发送来的全局模型参数Wr-1和本地训练数据集Di,使用随机梯度下降法得到原始模型参数
Figure BDA0003596274250000043
Figure BDA0003596274250000044
其中,原始模型参数
Figure BDA0003596274250000045
η为学习速率,
Figure BDA0003596274250000046
表示使用随机梯度下降算法后得到的梯度。
步骤3:模型参数裁切。
每个客户端对训练得到的原始模型的参数进行裁切。模型参数裁切过程,使用事先设定的裁切阈值。裁切阈值的计算过程包括模型参数向量范数计算和取中间值运算。
具体地,在迭代的第r轮,第i个客户端Clienti根据事先设定好的裁切阈值c对其原始模型参数向量
Figure BDA0003596274250000047
进行裁切,得到裁切后的本地模型参数
Figure BDA0003596274250000048
优选地,裁切的具体方法为,将向量
Figure BDA0003596274250000049
中值大于c的元素置换为c,将值小于-c的元素置换为-c。经裁切后的
Figure BDA00035962742500000410
中每一个元素,都在[-c,c]内取值。
步骤4:本地模型扰动。
具体地,在迭代的第r轮,第i个客户端Clienti对经过裁切后的原始模型参数
Figure BDA00035962742500000411
进行扰动,即添加噪声。
优选地,包括如下步骤:
步骤4.1:根据客户端Clienti设置的隐私预算εi,计算得到高斯分布的标准差σi
其中,隐私预算∈i满足εlow≤∈i≤∈high。隐私预算下界∈low通常可以取1,隐私预算上界∈high通常可以取10。
高斯分布标准差σi的计算公式为:
Figure BDA0003596274250000051
其中,q表示对Clienti所拥有的数据集Di进行随机抽样的概率,δi表示数据集Di大小的倒数,R表示总迭代轮数。
步骤4.2:根据Clienti的高斯分布标准差σi生成高斯噪声N(0,σi 2),叠加在经裁切后的原始模型参数
Figure BDA0003596274250000052
上,得到经裁切、扰动后的本地模型参数
Figure BDA0003596274250000053
Figure BDA0003596274250000054
其中,高斯噪声的概率密度函数Gauss为:
Figure BDA0003596274250000055
π表示圆周率,σ表示高斯分布标准差,x表示随机变量。
对于向量
Figure BDA0003596274250000056
中的每一个元素p,扰动后变成
Figure BDA0003596274250000057
Figure BDA0003596274250000058
步骤4.3:客户端Clienti将第r轮的本地模型参数
Figure BDA0003596274250000059
发送给服务器。
步骤5:选择客户端,生成全局模型。
优选地,包括如下步骤:
步骤5.1:服务器计算客户端的概率参数{P1,P2,...,PN}。每个客户端的概率参数P是根据步骤4中高斯分布标准差计算得到的。
对于第i个客户端,服务器首先计算其高斯分布标准差σi的倒数,记为ρi,然后对ρi进行归一化处理,得到客户端i的概率参数
Figure BDA00035962742500000510
N为客户端的总数。
步骤5.2:根据各个客户端所对应的概率参数,对N个候选客户端进行随机抽取,选出M个客户端,1≤M≤N。
优选地,随机抽取的方法为:由服务器生成一个0-1之间的均匀分布的随机数ω。对于第i个客户端Clienti,如果它所对应的概率参数Pi大于服务器生成的随机数ω,则Clienti参与本轮全局模型的生成,如果Pi小于随机数ω则不参与本轮全局模型的生成。
步骤5.3:服务器基于选中的M个客户端,计算第r轮全局模型参数Wr。全局模型参数是被选中的客户端提交的本地模型参数的平均值,即
Figure BDA0003596274250000061
Figure BDA0003596274250000062
Figure BDA0003596274250000063
表示经裁切、扰动后的本地模型参数。
在每个迭代轮次的最后,服务器将本轮计算得到的全局模型参数Wr发送给N个客户端。
然后,开始新一轮迭代,即,重复步骤2至步骤5,直到迭代R轮结束。

Claims (8)

1.一种满足个性化本地差分隐私需求的联邦学习方法,其特征在于,包括以下步骤:
步骤1:服务器生成初始全局模型,并将初始全局模型参数发送给各客户端;
其中,服务器是一个不可信的实体,负责收集各客户端的本地模型参数、计算各客户端对应的概率参数,以及生成全局模型;服务器同时也是全局模型的需求者;
客户端拥有联邦学习任务所需的训练数据,负责训练本地模型、裁切和扰动原始模型参数,生成扰动后的本地模型;由多个客户端共同参与联邦学习过程,各个客户端的训练数据集是独立同分布的;
步骤2:每个客户端根据服务器分发的全局模型参数,在本地训练数据集上获得原始的本地模型;
步骤3:每个客户端对训练得到的原始模型的参数进行裁切;
步骤4:每个客户端对经过裁切后的原始模型参数进行扰动,即,添加高斯随机噪声,客户端根据设定的隐私预算计算高斯分布的标准差,并生成相应的高斯噪声叠加在原始模型的参数向量上;
之后,客户端将扰动后的参数向量作为本地模型参数向量,发送给服务器;
步骤5:选择客户端,生成全局模型;
首先,服务器收集来自客户端的本地模型参数;
然后,服务器根据客户端设置的隐私预算,计算其对应的概率参数;其中,概率参数表示某个客户端的本地模型参数被服务器选中用于计算本轮全局模型参数的概率;
被选中的客户端地位平等;服务器使用这些客户端的本地模型参数计算本轮全局模型参数,并将全局模型参数发送给各客户端;
重复步骤2至步骤5,直到迭代结束。
2.如权利要求1所述的一种满足个性化本地差分隐私需求的联邦学习方法,其特征在于,步骤1包括以下步骤:
步骤1.1:服务器生成初始全局模型参数W0
其中,W0是一个d维向量,
Figure FDA0003596274240000011
Figure FDA0003596274240000012
表示由实数组成的d维向量空间,向量中的每个元素为0;N个客户端{Client1,Client2,...,ClientN}所持有的原始数据集D是独立同分布的,分别为{D1,D2,...,DN};
步骤1.2:服务器将初始全局模型参数W0发送给N个客户端{Client1,Client2,...,ClientN}。
3.如权利要求1所述的一种满足个性化本地差分隐私需求的联邦学习方法,其特征在于,步骤3中的模型参数裁切过程,使用事先设定的裁切阈值,裁切阈值的计算过程包括模型参数向量范数计算和取中间值运算。
4.如权利要求1所述的一种满足个性化本地差分隐私需求的联邦学习方法,其特征在于,步骤2中,在迭代的第r轮,第i个客户端Clienti根据服务器发送来的全局模型参数Wr-1和本地训练数据集Di,使用随机梯度下降法得到原始模型参数
Figure FDA0003596274240000021
Figure FDA0003596274240000022
其中,原始模型参数
Figure FDA0003596274240000023
η为学习速率,
Figure FDA0003596274240000024
表示使用随机梯度下降算法后得到的梯度;
步骤3中,在迭代的第r轮,第i个客户端Clienti根据事先设定好的裁切阈值c对其原始模型参数
Figure FDA0003596274240000025
进行裁切,得到裁切后的本地模型参数
Figure FDA0003596274240000026
步骤4中,在迭代的第r轮,第i个客户端Clienti对经过裁切后的原始模型参数
Figure FDA0003596274240000027
进行扰动,即添加噪声,包括以下步骤:
步骤4.1:根据客户端Clienti设置的隐私预算∈i,计算得到高斯分布的标准差σi
其中,隐私预算∈i满足∈low≤∈i≤∈high
高斯分布标准差σi的计算公式为:
Figure FDA0003596274240000028
其中,q表示对Clienti所拥有的数据集Di进行随机抽样的概率,δi表示数据集Di大小的倒数;R表示总迭代轮数;
步骤4.2:根据Clienti的高斯分布标准差σi生成高斯噪声N(0,σi 2),叠加在经裁切后的原始模型参数
Figure FDA0003596274240000029
上,得到经裁切、扰动后的本地模型参数
Figure FDA00035962742400000210
Figure FDA00035962742400000211
其中,高斯噪声的概率密度函数Gauss为:
Figure FDA00035962742400000212
π表示圆周率,σ表示高斯分布标准差,x表示随机变量;
对于向量
Figure FDA00035962742400000213
中的每一个元素p,扰动后变成
Figure FDA00035962742400000214
Figure FDA00035962742400000215
步骤4.3:客户端Clienti将第r轮的本地模型参数
Figure FDA0003596274240000031
发送给服务器;
步骤5包括如下步骤:
步骤5.1:服务器计算客户端的概率参数{P1,P2,...,PN};每个客户端的概率参数P是根据步骤4中高斯分布标准差计算得到的;
对于第i个客户端,服务器首先计算其高斯分布标准差σi的倒数,记为ρi,然后对ρi进行归一化处理,得到客户端i的概率参数
Figure FDA0003596274240000032
N为客户端的总数;
步骤5.2:根据各个客户端所对应的概率参数,对N个候选客户端进行随机抽取,选出M个客户端,1≤M≤N;
步骤5.3:服务器基于选中的M个客户端,计算第r轮全局模型参数Wr;全局模型参数是被选中的客户端提交的本地模型参数的平均值,即
Figure FDA0003596274240000033
Figure FDA0003596274240000034
Figure FDA0003596274240000035
表示经裁切、扰动后的本地模型参数;
在每个迭代轮次的最后,服务器将本轮计算得到的全局模型参数Wr发送给N个客户端。
5.如权利要求4所述的一种满足个性化本地差分隐私需求的联邦学习方法,其特征在于,步骤3中裁切的具体方法为,将向量
Figure FDA0003596274240000036
中值大于c的元素置换为c,将值小于-c的元素置换为-c,经裁切后的
Figure FDA0003596274240000037
中每一个元素,都在[-c,c]内取值。
6.如权利要求4所述的一种满足个性化本地差分隐私需求的联邦学习方法,隐私预算下界∈low取1。
7.如权利要求4所述的一种满足个性化本地差分隐私需求的联邦学习方法,隐私预算上界∈high取10。
8.如权利要求4所述的一种满足个性化本地差分隐私需求的联邦学习方法,步骤5.2中,随机抽取的方法为:
由服务器生成一个0-1之间的均匀分布的随机数ω;对于第i个客户端Clienti,如果它所对应的概率参数Pi大于服务器生成的随机数ω,则Clienti参与本轮全局模型的生成,如果Pi小于随机数ω则不参与本轮全局模型的生成。
CN202210393006.4A 2022-04-14 2022-04-14 一种满足个性化本地差分隐私需求的联邦学习方法 Active CN114841364B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210393006.4A CN114841364B (zh) 2022-04-14 2022-04-14 一种满足个性化本地差分隐私需求的联邦学习方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210393006.4A CN114841364B (zh) 2022-04-14 2022-04-14 一种满足个性化本地差分隐私需求的联邦学习方法

Publications (2)

Publication Number Publication Date
CN114841364A true CN114841364A (zh) 2022-08-02
CN114841364B CN114841364B (zh) 2024-06-14

Family

ID=82565810

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210393006.4A Active CN114841364B (zh) 2022-04-14 2022-04-14 一种满足个性化本地差分隐私需求的联邦学习方法

Country Status (1)

Country Link
CN (1) CN114841364B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115439026A (zh) * 2022-11-08 2022-12-06 山东大学 基于嵌套联邦学习的多智能体自组织需求响应方法及系统
CN115442099B (zh) * 2022-08-28 2023-06-06 北方工业大学 一种基于分布式gan的隐私保护数据共享方法及系统
CN116611115A (zh) * 2023-07-20 2023-08-18 数据空间研究院 基于联邦学习的医疗数据诊断模型、方法、系统和存储器
CN116739079A (zh) * 2023-05-10 2023-09-12 浙江大学 一种自适应的隐私保护联邦学习方法
CN117094382A (zh) * 2023-10-19 2023-11-21 曲阜师范大学 一种具有隐私保护的个性化联邦学习方法、装置和介质
CN117349672A (zh) * 2023-10-31 2024-01-05 深圳大学 基于差分隐私联邦学习的模型训练方法、装置及设备
CN117592584A (zh) * 2023-12-11 2024-02-23 滇西应用技术大学 一种基于联邦学习的随机多模型隐私保护方法
CN117933427A (zh) * 2024-03-19 2024-04-26 南京邮电大学 一种智能电网双重采样优化的差分隐私联邦学习方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190227980A1 (en) * 2018-01-22 2019-07-25 Google Llc Training User-Level Differentially Private Machine-Learned Models
CN111091199A (zh) * 2019-12-20 2020-05-01 哈尔滨工业大学(深圳) 一种基于差分隐私的联邦学习方法、装置及存储介质
CN113094758A (zh) * 2021-06-08 2021-07-09 华中科技大学 一种基于梯度扰动的联邦学习数据隐私保护方法及系统
CN113344217A (zh) * 2021-06-18 2021-09-03 中国科学技术大学 一种结合个性化差分隐私的联邦学习方法和系统
CN113361694A (zh) * 2021-06-30 2021-09-07 哈尔滨工业大学 一种应用差分隐私保护的分层联邦学习方法及系统
WO2021189906A1 (zh) * 2020-10-20 2021-09-30 平安科技(深圳)有限公司 基于联邦学习的目标检测方法、装置、设备及存储介质
WO2021223663A1 (zh) * 2020-05-06 2021-11-11 支付宝(杭州)信息技术有限公司 基于差分隐私的数据生成系统的训练
US20210374605A1 (en) * 2020-05-28 2021-12-02 Samsung Electronics Company, Ltd. System and Method for Federated Learning with Local Differential Privacy

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190227980A1 (en) * 2018-01-22 2019-07-25 Google Llc Training User-Level Differentially Private Machine-Learned Models
CN111091199A (zh) * 2019-12-20 2020-05-01 哈尔滨工业大学(深圳) 一种基于差分隐私的联邦学习方法、装置及存储介质
WO2021223663A1 (zh) * 2020-05-06 2021-11-11 支付宝(杭州)信息技术有限公司 基于差分隐私的数据生成系统的训练
US20210374605A1 (en) * 2020-05-28 2021-12-02 Samsung Electronics Company, Ltd. System and Method for Federated Learning with Local Differential Privacy
WO2021189906A1 (zh) * 2020-10-20 2021-09-30 平安科技(深圳)有限公司 基于联邦学习的目标检测方法、装置、设备及存储介质
CN113094758A (zh) * 2021-06-08 2021-07-09 华中科技大学 一种基于梯度扰动的联邦学习数据隐私保护方法及系统
CN113344217A (zh) * 2021-06-18 2021-09-03 中国科学技术大学 一种结合个性化差分隐私的联邦学习方法和系统
CN113361694A (zh) * 2021-06-30 2021-09-07 哈尔滨工业大学 一种应用差分隐私保护的分层联邦学习方法及系统

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024045581A1 (zh) * 2022-08-28 2024-03-07 北方工业大学 一种基于分布式gan的隐私保护数据共享方法及系统
CN115442099B (zh) * 2022-08-28 2023-06-06 北方工业大学 一种基于分布式gan的隐私保护数据共享方法及系统
JP7382045B1 (ja) 2022-11-08 2023-11-16 中国電力科学研究院有限公司 ネストされた連合学習によるマルチエージェント自己組織化デマンドレスポンス方法及びシステム
CN115439026A (zh) * 2022-11-08 2022-12-06 山东大学 基于嵌套联邦学习的多智能体自组织需求响应方法及系统
CN116739079A (zh) * 2023-05-10 2023-09-12 浙江大学 一种自适应的隐私保护联邦学习方法
CN116739079B (zh) * 2023-05-10 2024-02-09 浙江大学 一种自适应的隐私保护联邦学习方法
CN116611115A (zh) * 2023-07-20 2023-08-18 数据空间研究院 基于联邦学习的医疗数据诊断模型、方法、系统和存储器
CN117094382A (zh) * 2023-10-19 2023-11-21 曲阜师范大学 一种具有隐私保护的个性化联邦学习方法、装置和介质
CN117094382B (zh) * 2023-10-19 2024-01-26 曲阜师范大学 一种具有隐私保护的个性化联邦学习方法、装置和介质
CN117349672A (zh) * 2023-10-31 2024-01-05 深圳大学 基于差分隐私联邦学习的模型训练方法、装置及设备
CN117592584A (zh) * 2023-12-11 2024-02-23 滇西应用技术大学 一种基于联邦学习的随机多模型隐私保护方法
CN117933427A (zh) * 2024-03-19 2024-04-26 南京邮电大学 一种智能电网双重采样优化的差分隐私联邦学习方法
CN117933427B (zh) * 2024-03-19 2024-05-28 南京邮电大学 一种智能电网双重采样优化的差分隐私联邦学习方法

Also Published As

Publication number Publication date
CN114841364B (zh) 2024-06-14

Similar Documents

Publication Publication Date Title
CN114841364B (zh) 一种满足个性化本地差分隐私需求的联邦学习方法
CN113762530B (zh) 面向隐私保护的精度反馈联邦学习方法
Ma et al. A highly accurate prediction algorithm for unknown web service QoS values
CN111737743A (zh) 一种深度学习差分隐私保护方法
CN109639479B (zh) 基于生成对抗网络的网络流量数据增强方法及装置
Zhao et al. Fedinv: Byzantine-robust federated learning by inversing local model updates
CN114787826A (zh) 生成高维高效用合成数据
CN107886009A (zh) 防隐私泄露的大数据生成方法和系统
CN115496198A (zh) 基于联邦学习的自适应隐私预算分配的梯度压缩框架
CN111400755A (zh) 一种基于指数机制的个性化差分隐私保护方法及系统
CN115481441A (zh) 面向联邦学习的差分隐私保护方法及装置
CN117424754B (zh) 针对集群联邦学习攻击的防御方法、终端及存储介质
CN114565106A (zh) 基于孤立森林的联邦学习中毒攻击的防御方法
CN117171814B (zh) 一种基于差分隐私的联邦学习模型完整性验证方法、系统、设备及介质
CN116186629B (zh) 基于个性化联邦学习的金融客户分类及预测方法、装置
CN117294469A (zh) 一种面向联邦学习的隐私保护方法
CN115510472B (zh) 一种面向云边聚合系统的多重差分隐私保护方法及系统
Tun et al. Federated learning with intermediate representation regularization
CN115481415A (zh) 基于纵向联邦学习的通信成本优化方法、系统、设备及介质
CN115695429A (zh) 面向Non-IID场景的联邦学习客户端选择方法
CN113626854B (zh) 一种基于本地化差分隐私的图像数据隐私保护方法
CN111784381A (zh) 基于隐私保护和som网络的电力客户细分方法及系统
Zhao et al. AdaDpFed: A differentially private federated learning algorithm with adaptive noise on non-IID data
CN117173750B (zh) 生物信息处理方法、电子设备及存储介质
Wang et al. Squeezing more utility via adaptive clipping on differentially private gradients in federated meta-learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant