CN113762530B - 面向隐私保护的精度反馈联邦学习方法 - Google Patents
面向隐私保护的精度反馈联邦学习方法 Download PDFInfo
- Publication number
- CN113762530B CN113762530B CN202111140258.8A CN202111140258A CN113762530B CN 113762530 B CN113762530 B CN 113762530B CN 202111140258 A CN202111140258 A CN 202111140258A CN 113762530 B CN113762530 B CN 113762530B
- Authority
- CN
- China
- Prior art keywords
- model
- data
- client
- server
- parameters
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 238000012549 training Methods 0.000 claims abstract description 38
- 230000002776 aggregation Effects 0.000 claims abstract description 22
- 238000004220 aggregation Methods 0.000 claims abstract description 22
- 238000009826 distribution Methods 0.000 claims abstract description 12
- 238000012360 testing method Methods 0.000 claims abstract description 9
- 230000006870 function Effects 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000003062 neural network model Methods 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 230000001419 dependent effect Effects 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 4
- 238000012935 Averaging Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 230000000875 corresponding effect Effects 0.000 description 2
- 238000009827 uniform distribution Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000593 degrading effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6218—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
- G06F21/6245—Protecting personal data, e.g. for financial or medical purposes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Bioethics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Security & Cryptography (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Complex Calculations (AREA)
Abstract
本发明公开了一种面向隐私保护的精度反馈联邦学习方法,包括以下步骤:各客户端利用GAN对本地数据集进行数据增强,将得到的生成数据上传至服务器组成共享数据集;服务器对模型参数进行初始化并广播至各客户端;各客户端利用下载到的全局参数进行本地模型训练,训练后将参数上传至服务器;服务器对各本地模型进行测试,得到模型精度后生成新的聚合权重;服务器利用聚合权重对本地模型进行模型聚合;服务器利用共享数据集对聚合后的参数进行全局训练,得到全局模型后将参数广播至各客户端;重复步骤三至六,至模型性能达到要求。该方法能够在保护客户端数据的前提下改善由于客户端数据非独立同分布和客户端训练权重对全局模型性能造成的影响。
Description
技术领域
本发明属于联邦学习领域,具体涉及一种面向隐私保护的精度反馈联邦学习方法,致力于改善各客户端本地数据非独立同分布对全局模型性能的影响。
背景技术
数据是机器学习的基础,作为人工智能的主要方向,机器学习需要数据去训练人工智能模型。而在大多数行业中,由于行业竞争、隐私安全、行政手续复杂等问题,数据常常是以孤岛的形式存在的,而只利用数据孤岛内的数据训练所得的人工智能模型性能往往不能满足任务需求。针对数据孤岛和数据隐私的两难问题,联邦学习算法框架应运而生。
在联邦学习框架下,有多个相互独立的客户端和一个中心服务器,客户端有不同且不可共享的本地数据。训练过程中,服务器向客户端广播全局参数,客户端将更新下载得到的全局模型参数用于在他们自己的数据集上进行训练,然后只上传本地参数到服务器进行聚合,经过多次“下载-训练-上传-聚合”的过程得到最终模型参数。显然,在联邦学习框架下客户端的数据得到了保护,数据孤岛的问题也得以解决。
目前针对联邦学习方法的研究主要面临两种挑战,即通信问题和统计问题。联邦学习的经典方法为联邦平均,它依赖于随机梯度下降(Stochastic Gradient Descent:SGD),具有良好的经验性能。而训练数据的独立同分布特性对于确保随机梯度是完整梯度的无偏估计非常重要。在实践中,假设每个边缘设备上的本地数据总是独立同分布是不现实的。针对这一问题,现下提出了一种数据共享策略,通过分发少量全局共享数据(包含来自每个类的示例)来改进带有非独立同分布数据的联邦学习方法,这就在准确性和集中化之间进行了权衡。该策略的具体操作主要可分为两步:(1)利用共享数据集,进行预训练,代替随机初始化模型参数。(2)将共享数据集平均分发给客户端,参与局部训练。在实现本策略过程中,现有技术中至少存在如下问题:(1)联邦学习方法的应用过程中应强调隐私问题,即对于各个客户端隐私数据的保护。而此策略提出从各个客户端中提取出一部分数据构成共享数据集,一定程度上造成了客户端数据的泄露,违背了联邦方法维护隐私的初衷。(2)在当前联邦平均方法中,各个客户端的权重是固定不变的,未根据不同模型训练的性能和训练轮次而相对应的调整不同客户端的权重。
发明内容
有鉴于此,本发明提供一种面向隐私保护的精度反馈联邦学习方法,以改善由于客户端数据非独立同分布和客户端训练权重对全局模型性能造成的影响。
一种面向隐私保护的精度反馈联邦学习方法,包括以下步骤:
步骤一:各客户端利用GAN对本地数据集进行数据增强,将得到的生成数据上传至服务器组成共享数据集;
步骤二:搭建神经网络模型,服务器对全局参数及聚合权重进行初始化并广播至各客户端;
步骤三:各客户端利用下载到的全局参数进行本地模型训练得到本地参数,训练后将本地参数上传至服务器;
步骤四:服务器对各本地模型进行测试,得到模型精度后生成新的聚合权重;
步骤五:服务器利用聚合权重对本地模型进行模型聚合;
步骤六:服务器利用共享数据集对聚合后得到的全局参数进行全局训练,得到更新后的全局参数后将其广播至各客户端;
步骤七:重复步骤三至六,直至全局模型性能达到要求。
特别地,所述GAN网络包括生成器网络和鉴别器网络,所述生成器网络产生生成数据;所述鉴别器网络对生成数据和真实数据进行对比以计算相应的损失函数,对网络进行训练。
特别地,所述损失函数为:
其中,D表示判别器,G表示生成器,E(·)表示期望计算,Pdata为真实数据分布,Pz为随机噪声分布。
特别地,所述训练的过程为:
(1)随机选取一个分布Pz,并对其采样得到随机噪声z,将z输入生成器G中,G(z)便是所需的的生成数据;
(2)固定生成器G不变,损失函数的前半部分与判别器D对真实数据的打分正相关,后半部分与判别器D对生成数据的打分负相关,对损失函数取最大值并对D进行参数更新,使得判别器D对真实数据打高分,对生成数据打低分;
(3)固定判别器D不变,损失函数退化为原式的第二部分,取极小值并对G进行参数更新,使得生成器G生成尽量真实的数据;
(4)步骤(2)和(3)交替进行,直至GAN网络生成数据达到共享数据集要求。
特别地,所述步骤四中基于精度反馈的权重调节表示如下:
根据某一轮各个客户端训练得到的精度,对该客户端的权重进行调整,具体调整策略为:
其中,表示第t轮中第i个客户端的本地模型的测试精度,/>表示第第t轮中第i个客户端更新后的权重值。
特别地,所述步骤五中所涉及模型聚合为加权平均,具体表示如下:
其中,为第i个客户端t时刻得到的本地模型,xt为t时刻所得全局模型。
一种计算机设备,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条计算机程序,所述至少一条计算机程序由所述处理器加载并执行,以实现上述面向隐私保护的精度反馈联邦学习方法中所执行的操作。
一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有至少一条计算机程序,所述至少一条计算机程序由处理器并执行,以实现上述的面向隐私保护的精度反馈联邦学习方法中所执行的操作。
本发明与现有技术相比所具有的有益效果:
(1)共享数据集:利用GAN网络(Generative adversarial networks,生成式对抗网络)生成的生成数据组成共享数据集对服务器进行训练,一方面改善了各个客户端数据非独立同分布特性对全局模型的影响,提高了模型的性能;另一方面也保护了本地数据的隐私性。
(2)权重调节:利用客户端本地精度在所有客户端本地精度的比例来更新本地训练的权重,可以使训练过程中损失函数收敛更加平稳,以提高全局模型性能。
附图说明
图1为本发明系统结构图;
图2为本发明实施例的流程图;
图3为本发明中GAN网络的结构图;
图4为本发明中生成的生成数据示例图;
图5为本发明方法与现有技术实验结果对比。
具体实施方式
下面结合附图和实施例对本发明进行进一步的详细介绍。
图1为本发明系统结构图,包括一个中心服务器和N个客户端,数据分布在N个客户端中,客户端与服务器只传递参数不传递数据,其中服务器采用全局模型,客户端采用本地模型;为获得性能更好的全局模型,采用联邦学习进行模型训练。
图2为面向隐私保护的精度反馈联邦学习方法的流程图,开始时,客户端利用GAN对本地数据集进行数据增强,组成共享数据集并上传至服务器,服务器对全局参数初始化并广播至客户端。N个客户端利用下载到的全局参数在本地数据集上进行本地训练。经过本地训练后,客户端将本地参数上传至服务器,服务器对参数加权平均,并利用共享数据集对加权平均得到的全局模型进行训练。本地客户端对训练后的模型进行下载,并利用本地精度对训练权重进行更新,并开始新的本地训练。具体包括以下步骤:
步骤一:各客户端利用GAN对本地数据集进行数据增强,将得到的生成数据上传至服务器组成共享数据集。
步骤二:搭建神经网络模型,服务器对全局参数及聚合权重进行初始化并广播至各客户端。
步骤三:各客户端利用下载到的全局参数进行本地模型训练得到本地参数,训练后将本地参数上传至服务器。
步骤四:服务器对各本地模型进行测试,得到模型精度后生成新的聚合权重。
步骤五:服务器利用聚合权重对本地模型进行模型聚合。
步骤六:服务器利用共享数据集对聚合后得到的全局参数进行全局训练,得到更新后的全局参数后将其广播至各客户端。
步骤七:重复步骤三至六,直至全局模型性能达到要求。
特别地,步骤一中所涉及GAN网络具体为:
GAN网络的构成如图3所示,主要包括两部分:生成器网络和鉴别器网络。GAN网络的工作策略是首先利用生成器网络产生生成数据,而后利用鉴别器网络对生成数据和真实数据进行对比以计算相应的损失函数对网络进行训练。整个网络采取了博弈对抗的思想,生成器目的是生成尽量真实的数据,而鉴别器的目的是努力提高鉴别真实数据和生成数据的能力,即对真实数据打高分,给生成数据打低分,损失计算方式如下:
其中,D表示判别器,G表示生成器,E(·)表示期望计算,Pdata为真实数据分布,Pz为随机噪声分布。GAN网络的训练过程为:随机选取一个分布Pz,并对其采样得到随机噪声z,将z输入生成器G中,G(z)便是所需的的生成数据。在每次训练中,先固定生成器G不变,损失函数的前半部分与判别器D对真实数据的打分正相关,后半部分与判别器D对生成数据的打分负相关,此时对损失函数取最大值并对D进行参数更新便可使判别器D对真实数据打高分,给生成数据打低分;然后固定判别器D,损失函数退化为原式的第二部分,取极小值并对G进行参数更新便可使生成器G生成尽量真实的数据;两步骤交替进行直至GAN网络生成数据达到共享数据集要求。
本发明中共享数据集是由GAN网络生成的生成数据集构成,如图4所示。该共享数据集只存在于服务器而不暴露给各个客户端。模型聚合后,利用共享数据集在服务器进行少量的训练,以提高模型性能。共享数据集由生成数据组成,并不暴露客户端本地数据,能最大限度保护用户隐私。
特别地,步骤四中基于精度反馈的权重调节表示如下:
根据某一轮对各个客户端训练后得到的本地模型进行测试,利用测试精度对该客户端的权重进行调整,具体调整策略为:
其中,表示第t轮中第i个客户端的本地精度,/>表示第第t轮中第i个客户端更新后的权重值。
特别地,步骤五中所涉及模型聚合为加权平均,具体表示如下:
其中,为第i个客户端t时刻得到的本地模型,xt为t时刻所得全局模型。
本申请实施例还提供了一种计算机设备,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条计算机程序,所述至少一条计算机程序由所述处理器加载并执行,以实现上述实施例的面向隐私保护的精度反馈联邦学习方法中所执行的操作。
本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一条计算机程序,所述至少一条计算机程序由处理器并执行,以实现上述实施例的面向隐私保护的精度反馈联邦学习方法中所执行的操作。
实际中,将MNIST手写数字图片数据集对两层神经网络进行训练,全局模型在测试集上的结果如图5所示,本发明所提出的方法准确率与稳定性都优于现有技术。通过本实例所述方法,实现了对由于客户端本地数据集非独立同分布特性带来的影响的改善,同时利用基于局部精度反馈更新得到的权重使全局模型实现高精度和高稳定性。
以上所述仅为本发明的具体实施方式,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (6)
1.一种面向隐私保护的精度反馈联邦学习方法,其特征在于,包括以下步骤:
步骤一:各客户端利用GAN对本地数据集进行数据增强,将得到的生成数据上传至服务器组成共享数据集;
步骤二:搭建神经网络模型,服务器对全局参数及聚合权重进行初始化并广播至各客户端;
步骤三:各客户端利用下载到的全局参数进行本地模型训练得到本地参数,训练后将本地参数上传至服务器;
步骤四:服务器对各本地模型进行测试,得到模型精度后生成新的聚合权重;
步骤五:服务器利用聚合权重对本地模型进行模型聚合;
步骤六:服务器利用共享数据集对聚合后得到的全局参数进行全局训练,得到更新后的全局参数后将其广播至各客户端;
步骤七:重复步骤三至六,直至全局模型性能达到要求;
所述GAN网络包括生成器网络和鉴别器网络,所述生成器网络产生生成数据;所述鉴别器网络对生成数据和真实数据进行对比以计算相应的损失函数,对网络进行训练;
所述训练的过程为:
(1)随机选取一个分布,并对其采样得到随机噪声/>,将/>输入生成器/>中,/>便是所需的的生成数据;
(2)固定生成器不变,损失函数的前半部分与判别器/>对真实数据的打分正相关,后半部分与判别器/>对生成数据的打分负相关,对损失函数取最大值并对/>进行参数更新,使得判别器/>对真实数据打高分,对生成数据打低分;
(3)固定判别器不变,损失函数退化为原式的第二部分,取极小值并对/>进行参数更新,使得生成器/>生成尽量真实的数据;
(4)步骤(2)和(3)交替进行,直至GAN网络生成数据达到共享数据集要求。
2.根据权利要求1所述的精度反馈联邦学习方法,其特征在于,所述损失函数为:
其中,表示判别器,/>表示生成器,/>(/>)表示期望计算,/>为真实数据分布,/>为随机噪声分布。
3.根据权利要求1所述的精度反馈联邦学习方法,其特征在于,所述步骤四中基于精度反馈的权重调节表示如下:
根据某一轮各个客户端训练得到的精度,对该客户端的权重进行调整,具体调整策略为:
其中,表示第/>轮中第/>个客户端的本地模型的测试精度,/>表示第第/>轮中第/>个客户端更新后的权重值。
4.根据权利要求1所述的精度反馈联邦学习方法,其特征在于,所述步骤五中所涉及模型聚合为加权平均,具体表示如下:
其中,为第/>个客户端/>时刻得到的本地模型,/>为/>时刻所得全局模型。
5.一种计算机设备,其特征在于,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条计算机程序,所述至少一条计算机程序由所述处理器加载并执行,以实现如权利要求1-4所述的面向隐私保护的精度反馈联邦学习方法中所执行的操作。
6.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有至少一条计算机程序,所述至少一条计算机程序由处理器并执行,以实现如权利要求1-4所述的面向隐私保护的精度反馈联邦学习方法中所执行的操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111140258.8A CN113762530B (zh) | 2021-09-28 | 2021-09-28 | 面向隐私保护的精度反馈联邦学习方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111140258.8A CN113762530B (zh) | 2021-09-28 | 2021-09-28 | 面向隐私保护的精度反馈联邦学习方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113762530A CN113762530A (zh) | 2021-12-07 |
CN113762530B true CN113762530B (zh) | 2024-02-02 |
Family
ID=78797851
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111140258.8A Active CN113762530B (zh) | 2021-09-28 | 2021-09-28 | 面向隐私保护的精度反馈联邦学习方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113762530B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114422605A (zh) * | 2022-01-12 | 2022-04-29 | 重庆邮电大学 | 一种基于联邦学习的通信梯度自适应压缩方法 |
CN114595831B (zh) * | 2022-03-01 | 2022-11-11 | 北京交通大学 | 融合自适应权重分配和个性化差分隐私的联邦学习方法 |
CN114758784B (zh) * | 2022-03-29 | 2024-05-28 | 南京理工大学 | 一种基于聚类算法分配联邦学习中参与者权重的方法 |
CN114913390A (zh) * | 2022-05-06 | 2022-08-16 | 东南大学 | 基于条件gan的数据增广改善个性化联邦学习性能方法 |
CN114912581A (zh) * | 2022-05-07 | 2022-08-16 | 奇安信科技集团股份有限公司 | 检测模型的训练方法、装置、电子设备和存储介质 |
CN115328691B (zh) * | 2022-10-14 | 2023-03-03 | 山东大学 | 基于模型差异的故障诊断方法、系统、存储介质及设备 |
CN115329388B (zh) * | 2022-10-17 | 2023-01-24 | 南京信息工程大学 | 一种面向联邦生成对抗网络的隐私增强方法 |
CN115775010B (zh) * | 2022-11-23 | 2024-03-19 | 国网江苏省电力有限公司信息通信分公司 | 基于横向联邦学习的电力数据共享方法 |
CN116168789B (zh) * | 2023-04-26 | 2023-07-18 | 之江实验室 | 一种多中心医疗数据生成系统和方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110874648A (zh) * | 2020-01-16 | 2020-03-10 | 支付宝(杭州)信息技术有限公司 | 联邦模型的训练方法、系统和电子设备 |
CN112132776A (zh) * | 2020-08-11 | 2020-12-25 | 苏州跨视科技有限公司 | 基于联邦学习的视觉检测方法及系统、存储介质、设备 |
US11017322B1 (en) * | 2021-01-28 | 2021-05-25 | Alipay Labs (singapore) Pte. Ltd. | Method and system for federated learning |
WO2021121585A1 (en) * | 2019-12-18 | 2021-06-24 | Telefonaktiebolaget Lm Ericsson (Publ) | Methods for cascade federated learning for telecommunications network performance and related apparatus |
CN113222175A (zh) * | 2021-04-29 | 2021-08-06 | 深圳前海微众银行股份有限公司 | 信息处理方法及系统 |
CN113240127A (zh) * | 2021-04-07 | 2021-08-10 | 睿蜂群(北京)科技有限公司 | 基于联邦学习的训练方法、装置、电子设备及存储介质 |
CN113297573A (zh) * | 2021-06-11 | 2021-08-24 | 浙江工业大学 | 一种基于gan模拟数据生成的垂直联邦学习防御方法和装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11593634B2 (en) * | 2018-06-19 | 2023-02-28 | Adobe Inc. | Asynchronously training machine learning models across client devices for adaptive intelligence |
US11861674B1 (en) * | 2019-10-18 | 2024-01-02 | Meta Platforms Technologies, Llc | Method, one or more computer-readable non-transitory storage media, and a system for generating comprehensive information for products of interest by assistant systems |
-
2021
- 2021-09-28 CN CN202111140258.8A patent/CN113762530B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021121585A1 (en) * | 2019-12-18 | 2021-06-24 | Telefonaktiebolaget Lm Ericsson (Publ) | Methods for cascade federated learning for telecommunications network performance and related apparatus |
CN110874648A (zh) * | 2020-01-16 | 2020-03-10 | 支付宝(杭州)信息技术有限公司 | 联邦模型的训练方法、系统和电子设备 |
CN112132776A (zh) * | 2020-08-11 | 2020-12-25 | 苏州跨视科技有限公司 | 基于联邦学习的视觉检测方法及系统、存储介质、设备 |
US11017322B1 (en) * | 2021-01-28 | 2021-05-25 | Alipay Labs (singapore) Pte. Ltd. | Method and system for federated learning |
CN113240127A (zh) * | 2021-04-07 | 2021-08-10 | 睿蜂群(北京)科技有限公司 | 基于联邦学习的训练方法、装置、电子设备及存储介质 |
CN113222175A (zh) * | 2021-04-29 | 2021-08-06 | 深圳前海微众银行股份有限公司 | 信息处理方法及系统 |
CN113297573A (zh) * | 2021-06-11 | 2021-08-24 | 浙江工业大学 | 一种基于gan模拟数据生成的垂直联邦学习防御方法和装置 |
Non-Patent Citations (8)
Title |
---|
A novel federated learning approach based on the confidence of federated Kalman filters;Kai Hu等;International Journal of Machine Learning and Cybernetics;全文 * |
Fed-tgan: Federated learning framework for synthesizing tabular data;Zhao Z等;arXiv preprint arXiv:2108.07927;全文 * |
Lazily aggregated quantized gradient innovation for communication-efficient federated learning;J. Sun等;IEEE Transactions on Pattern Analysis and Machine Intelligence;全文 * |
基于秘密分享和梯度选择的高效安全联邦学习;董业等;计算机研究与发展(第10期);全文 * |
张向荣等.模式识别.西安电子科技大学出版社,2019,第182页. * |
针对分布式联邦深度学习的攻击模型及隐私对策研究;毛耀如;中国硕士学位论文全文库;全文 * |
面向移动终端智能的自治学习系统;徐梦炜等;软件学报(第10期);全文 * |
面向隐私保护的非聚合式数据共享综述;李尤慧子等;通信学报;第42卷(第6期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113762530A (zh) | 2021-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113762530B (zh) | 面向隐私保护的精度反馈联邦学习方法 | |
CN113361694B (zh) | 一种应用差分隐私保护的分层联邦学习方法及系统 | |
CN111353582B (zh) | 一种基于粒子群算法的分布式深度学习参数更新方法 | |
CN113609521A (zh) | 一种基于对抗训练的联邦学习隐私保护方法及系统 | |
CN112668044B (zh) | 面向联邦学习的隐私保护方法及装置 | |
EA035114B1 (ru) | Нейронная сеть и способ обучения нейронной сети | |
CN114841364A (zh) | 一种满足个性化本地差分隐私需求的联邦学习方法 | |
CN113691594B (zh) | 一种基于二阶导数解决联邦学习中数据不平衡问题的方法 | |
CN114564746B (zh) | 基于客户端权重评价的联邦学习方法和系统 | |
CN111709534A (zh) | 基于演化计算的联邦学习方法、装置、设备及介质 | |
CN112637883A (zh) | 电力物联网中对无线环境变化具有鲁棒性的联邦学习方法 | |
CN114819069A (zh) | 基于dbscan聚类的客户端选择联邦学习方法 | |
Xiao et al. | Network security situation prediction method based on MEA-BP | |
CN114169543A (zh) | 一种基于模型陈旧性与用户参与度感知的联邦学习算法 | |
CN113378474A (zh) | 一种基于贡献量的联邦学习客户机选择方法、系统及介质 | |
CN117272306A (zh) | 基于交替最小化的联邦学习半目标投毒攻击方法及系统 | |
CN115879542A (zh) | 一种面向非独立同分布异构数据的联邦学习方法 | |
CN109121133B (zh) | 一种位置隐私保护方法及装置 | |
CN117236421B (zh) | 一种基于联邦知识蒸馏的大模型训练方法 | |
Li et al. | An Adaptive Communication‐Efficient Federated Learning to Resist Gradient‐Based Reconstruction Attacks | |
CN114116707A (zh) | 确定联合学习中参与方贡献度的方法及装置 | |
Tembine | Mean field stochastic games: Convergence, Q/H-learning and optimality | |
CN117424754A (zh) | 针对集群联邦学习攻击的防御方法、终端及存储介质 | |
CN116010832A (zh) | 联邦聚类方法、装置、中心服务器、系统和电子设备 | |
CN115526333A (zh) | 边缘场景下动态权重的联邦学习方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |