CN113112027A - 一种基于动态调整模型聚合权重的联邦学习方法 - Google Patents
一种基于动态调整模型聚合权重的联邦学习方法 Download PDFInfo
- Publication number
- CN113112027A CN113112027A CN202110367421.8A CN202110367421A CN113112027A CN 113112027 A CN113112027 A CN 113112027A CN 202110367421 A CN202110367421 A CN 202110367421A CN 113112027 A CN113112027 A CN 113112027A
- Authority
- CN
- China
- Prior art keywords
- model
- client
- training
- index
- precision
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 230000002776 aggregation Effects 0.000 title claims abstract description 34
- 238000004220 aggregation Methods 0.000 title claims abstract description 34
- 238000012549 training Methods 0.000 claims abstract description 66
- 238000009826 distribution Methods 0.000 claims abstract description 17
- 230000008569 process Effects 0.000 claims abstract description 7
- 238000012360 testing method Methods 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000010606 normalization Methods 0.000 claims description 4
- 230000009467 reduction Effects 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Information Transfer Between Computers (AREA)
Abstract
本发明公开了一种基于动态调整模型聚合权重的联邦学习方法,所述方法包括:云端服务器从各客户端接收局部训练模型和数据质量指标,若达到客户端权重更新条件,则根据数据质量、模型精度和模型差异指标对模型训练精度的贡献为每个客户端计算贡献分数,并加权平均生成全局模型;云端服务器将更新后的全局模型下发给客户端,各个客户端接收到后在本地训练数据上进行模型训练,并在训练结束后再次上传局部模型和数据质量指标给云端服务器。本发明合理的运用数据分布、模型精度及模型差异等客户端训练数据,并生成动态的聚合权重,充分挖掘了客户端训练过程中可利用的特征,形成了更高质量的全局模型,从而提高了模型精度和收敛效率。
Description
技术领域
本发明涉及分布式机器学习领域,尤其涉及一种基于动态调整模型聚合权重的联邦学习方法。
背景技术
随着数字化技术进入高速发展期,大数据和人工智能等技术迎来爆发式发展,这一方面为传统业态带来了升级变革的新机遇,另一方面不可避免地给数据和网络安全带来了全新的挑战。各个公司为了保证数据的安全性和隐私性,不愿共享数据,这使得各企业数据只能本地处理,导致数据孤岛问题,而数据孤岛使得各企业和研究者不能重复分析和挖掘数据特征,阻碍了大数据和人工智能的发展和应用。
为了解决数据孤岛问题,google研究院在2016年率先提出联邦学习。该技术可在数据不共享的情况下完成联合建模。具体来讲,各个数据拥有者的自有数据不会离开本地,通过联邦系统中加密机制下的参数交换方式(即在不违反数据隐私法规的情况下)联合建立一个全局的共享模型,建好的模型在各自的区域只为本地的目标服务。
由于客户端的地理、时间等分布差异,联邦学习经常要处理非独立同分布(nonIID)的数据,而训练数据的独立同分布采样对于确保随机梯度的无偏估计是很重要的,非独立同分布数据可能造成局部模型的参数分散并最终导致聚合模型的精度下降。为了应对非独立同分布数据挑战,有些研究者提出了联邦多任务学习和联邦元学习方法,它们的核心思想都是针对异构的本地数据训练个性化或特定于设备的模型,但是这种方法的异构性只能针对本地,不能为其他具备相似特征的客户端提供贡献,通用性较差。
发明内容
针对现有联邦学习方法无法提供通用性较好的异构数据解决思路的问题,本发明从模型训练信息入手,在不泄露用户隐私的前提下挖掘客户端的数据和模型特征,将模型精度、数据质量、模型差异三种维度训练信息量化表示,并利用三种量化指标共同建模,在此基础上为客户端动态设置聚合权重,以提高在非独立同分布数据场景下模型的精度和收敛速度。为了实现上述目标,本发明提出一种基于动态调整模型聚合权重的联邦学习方法,具体技术方案包括以下步骤:
(1)云端服务器从各客户端接收局部训练模型和数据质量指标,若达到客户端权重更新条件,则针对各局部训练模型计算模型精度指标和模型差异指标,然后根据数据质量指标、模型精度指标和模型差异指标对模型训练精度的贡献为每个客户端计算贡献分数,并根据所述贡献分数加权平均生成全局模型;
所述模型精度指标是指各客户端的局部模型测试精度;所述模型差异指标是指局部模型和全局模型的欧氏距离;所述数据质量指标是指表示客户端数据分布情况的Wasserstein距离;
(2)云端服务器将更新后的全局模型下发给各个客户端,客户端接收到新的全局模型后,在本地训练数据上进行模型训练,并在训练结束后上传局部模型和数据质量指标给云端服务器。
本发明与现有相比技术相比,其显著的有益效果在于:
本发明提供一种基于动态调整模型聚合权重的联邦学习方法,在保证用户数据隐私的前提下,实现联邦学习建模,解决了现有技术不能有效利用数据分布情况、模型精度以及模型差异等客户端训练相关信息来提高模型训练精度及模型收敛速度的问题,一定程度上解决了联邦学习中的数据异构问题,加速联合模型训练的收敛速度。
将数据质量、模型精度以及模型差异等客户端训练相关维度信息分别通过Wasserstein距离、模型测试精度和欧氏距离来量化成数值指标,再基于所述维度信息对模型训练的贡献加权形成动态的客户端模型聚合权重。充分挖掘了客户端训练过程中可利用的信息,使优秀的局部模型对全局模型的聚合产生更大的影响,从而提高全局模型质量。
不再局限于局部数据集数量这一固定指标决定聚合权重,而是根据训练情况结合多种训练信息动态地为客户端设置权重,实现了更合理的聚合权重分配。
通过Wasserstein距离来展现客户端数据的分布情况,在不暴露客户端局部真实数据的前提下,提供有效的局部数据质量特征给服务器,一定程度上可以解决非独立同分布数据对模型训练的不良影响。
附图说明
在附图中,在各个图中示出的每个相同或近似相同的组成部分可以用相同的标号表示。为了清晰起见,在每个图中,并非每个组成部分均被标记。现在,将通过例子并参考附图来描述本发明的各个方面的实施例,其中:
图1是本发明的基于动态调整模型聚合权重的联邦学习方法的架构图;
图2是本发明的基于动态调整模型聚合权重的联邦学习方法的模型训练流程图。
具体实施方式
应当理解,前述构思以及在下面更加详细地描述的额外构思的所有组合只要在这样的构思不相互矛盾的情况下都可以被视为本发明主题的一部分。另外,所要求保护的主题的所有组合都被视为本发明主题的一部分。
结合附图从下面的描述中可以更加全面地理解本发明教导的前述和其他方面、实施例和特征。本发明的其他附加方面,例如示例性实施方式的特征和/或有益效果将在下面的描述中显见,或通过根据本发明教导的具体实施方式的实践中得知。
本发明的基于动态调整模型聚合权重的联邦学习方法适用于包括一个云端服务器和多个客户端的联邦学习。如图1所示,本发明系统模型架构主要包括两个组成部分:客户端部分和云端服务器部分,具体描述如下:
1)客户端:客户端存有训练模型所需的本地数据集,出于隐私保护考虑,客户端需要独立完成局部模型的训练工作。训练完成后,客户端需上传局部训练模型以及本地数据质量指标到云端服务器。
2)云端服务器:服务器具有强大的存储空间和计算能力,能够完成复杂机器学习模型的训练。在此系统中,服务器需接收各客户端发送上来的局部模型,在符合权重更新条件的情况下对参与训练客户端的数据质量指标和数据差异指标完成计算,并更新客户端聚合权重,然后进行全局模型聚合,并在聚合完成后下发全局模型到各客户端。通过不断的端云同步、训练迭代过程,达到最优的训练模型。
如图2所示,本发明提出一种基于动态调整模型聚合权重的联邦学习方法,所述方法包括以下步骤:
(1)云端服务器从各客户端接收局部训练模型和数据质量指标,若达到客户端权重更新条件,则针对各局部模型计算模型精度指标和模型差异指标,然后根据数据质量指标、模型精度指标和模型差异指标对模型训练精度的贡献为每个客户端计算贡献分数,并根据所述贡献分数加权平均生成新的全局模型。所述模型精度指标是指各客户端的模型测试精度;模型差异指标是指局部模型和全局模型的欧氏距离;模型质量指标是指客户端数据分布情况的Wasserstein距离。若未达到客户端权重更新条件,依然保持原有权重进行全局模型的聚合工作。
(2)云端服务器将更新后的全局模型下发给各个客户端,客户端接收到新的全局模型后,在本地训练数据上进行模型训练,并在训练结束后再次上传局部模型和数据质量指标给云端服务器。
本发明的步骤(1)中,所述客户端权重更新条件分为两种情况:
1)第一种是当本轮全局模型的测试精度相比上一轮全局模型的测试精度下降幅度超过设定阈值时,进行客户端贡献分数更新计算,所述阈值可根据需求进行设置。
2)第二种是当有新客户端参与模型训练时,云端服务器为首次参与训练的新客户端计算客户端贡献分数。
所述步骤(1)中,根据对模型训练精度的贡献为每个客户端计算贡献分数是指:云端服务器将各客户端的数据质量指标、模型精度指标和模型差异指标分别归一化处理为C1,C2,C3,再为客户端计算贡献分数k表示客户端索引,式中F表示贡献评分计算算子,λi为权重,
进一步地,步骤(1)中,所述模型精度指标是指客户端模型经由服务器上设置的验证集测试所得的模型精度。
进一步地,步骤(1)中,所述根据贡献分数加权平均生成全局模型是指,在第t轮训练中,全局模型通过进行更新,其中wt+1表示t+1轮的全局模型,为客户端k在第t轮训练后的局部模型,pk为第k台客户端的贡献分数,p为所有参与训练客户端的贡献分数之和,K为参与训练客户端总数量。此步骤通过贡献分数为客户端设置聚合权重,加强了全局模型聚合的质量,提高了在非独立同分布数据场景下模型的精度及训练收敛速度。
进一步地,步骤(1)中,由于客户端训练数据及数据分布不发生变化,客户端数据质量指标Wasserstein距离值在每台客户端上仅计算一次,在各客户端第一次参与模型训练时进行计算。Wasserstein距离是将一个离散分布转换为另一个离散分布的最小代价,可用来计算两分布之间的距离,计算公式为本方法通过一个全局的均衡数据分布与各局部数据分布做Wasserstein距离计算。
进一步地,归一化处理是指,用式子将每台客户端的数据质量指标、模型精度指标和模型差异指标处理为[0,1]之间的数字。式中,x*表示归一化结果值,x表示指标值,Min、Max分别表示该指标值设定值域的最小值和最大值。由于数据质量指标和模型差异指标值越小代表数据和模型质量更好,需要对二者的归一化结果x*作x*:=1-x*处理。
进一步地,基于模型训练精度、训练数据重要性等方面考虑,客户端的数据质量指标、模型精度指标和模型差异指标对全局模型精度的贡献按照从大到小顺序为:模型精度指标>数据质量指标>模型差异指标。
综上所述,本发明提出的一种基于动态调整模型聚合权重的联邦学习方法,能够有效利用客户端数据质量以及训练过程中的模型精度和模型差异来共同为客户端设置聚合权重。通过上述权重设置方法,本方法既可以实现动态的模型聚合权重设置,使模型权重分配更合理,从而生成更高精度的全局模型;又挖掘了数据质量信息作为聚合权重决定因素之一,一定程度上解决了异构数据问题。
虽然本发明已经以较佳实施例解释如上,然其并非用以限定本发明。本发明所属技术领域中具有通常知识者,在不脱离本发明的精神和范围内,当可作各种的更动与润饰。因此,本发明的保护范围当视权利要求书所界定者为准。
Claims (7)
1.一种基于动态调整模型聚合权重的联邦学习方法,其特征在于,所述方法包括以下步骤:
(1)云端服务器从各客户端接收局部训练模型和数据质量指标,若达到客户端权重更新条件,则针对各局部训练模型计算模型精度指标和模型差异指标,然后根据数据质量指标、模型精度指标和模型差异指标对模型训练精度的贡献为每个客户端计算贡献分数,并根据所述贡献分数加权平均生成全局模型;
所述模型精度指标是指各客户端的局部模型测试精度;所述模型差异指标是指局部模型和全局模型的欧氏距离;所述数据质量指标是指表示客户端数据分布情况的Wasserstein距离;
(2)云端服务器将更新后的全局模型下发给各个客户端,客户端接收到新的全局模型后,在本地训练数据上进行模型训练,并在训练结束后上传局部模型和数据质量指标给云端服务器。
2.根据权利要求1所述的一种基于动态调整模型聚合权重的联邦学习方法,其特征在于:步骤(1)中,所述客户端权重更新条件包括两种情况:
1)第一种是当本轮全局模型的测试精度相比上一轮全局模型的测试精度下降幅度超过设定阈值时,进行客户端贡献分数更新计算,所述阈值根据需求进行设置;
2)第二种是当有新客户端参与模型训练时,云端服务器为首次参与训练的新客户端计算客户端贡献分数。
5.根据权利要求1所述的一种基于动态调整模型聚合权重的联邦学习方法,其特征在于:步骤(1)中,所述数据质量指标Wasserstein距离值在每台客户端上仅计算一次,在各客户端第一次参与模型训练时进行计算。
7.根据权利要求3所述的一种基于动态调整模型聚合权重的联邦学习方法,其特征在于:客户端的数据质量指标、模型精度指标和模型差异指标对全局模型精度的贡献按照从大到小顺序为:模型精度指标>数据质量指标>模型差异指标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110367421.8A CN113112027A (zh) | 2021-04-06 | 2021-04-06 | 一种基于动态调整模型聚合权重的联邦学习方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110367421.8A CN113112027A (zh) | 2021-04-06 | 2021-04-06 | 一种基于动态调整模型聚合权重的联邦学习方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113112027A true CN113112027A (zh) | 2021-07-13 |
Family
ID=76714102
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110367421.8A Pending CN113112027A (zh) | 2021-04-06 | 2021-04-06 | 一种基于动态调整模型聚合权重的联邦学习方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113112027A (zh) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113642737A (zh) * | 2021-08-12 | 2021-11-12 | 广域铭岛数字科技有限公司 | 一种基于汽车用户数据的联邦学习方法及系统 |
CN113672684A (zh) * | 2021-08-20 | 2021-11-19 | 电子科技大学 | 一种面向非独立同分布数据的分层用户训练管理系统及方法 |
CN113691594A (zh) * | 2021-08-11 | 2021-11-23 | 杭州电子科技大学 | 一种基于二阶导数解决联邦学习中数据不平衡问题的方法 |
CN113705610A (zh) * | 2021-07-26 | 2021-11-26 | 广州大学 | 一种基于联邦学习的异构模型聚合方法和系统 |
CN113780344A (zh) * | 2021-08-05 | 2021-12-10 | 中山大学 | 一种基于层次聚类的联邦学习方法及系统 |
CN113837399A (zh) * | 2021-10-26 | 2021-12-24 | 医渡云(北京)技术有限公司 | 联邦学习模型的训练方法、装置、系统、存储介质及设备 |
CN114239862A (zh) * | 2021-12-23 | 2022-03-25 | 电子科技大学 | 一种保护用户数据隐私的抗拜占庭攻击的联邦学习方法 |
CN114358912A (zh) * | 2021-11-17 | 2022-04-15 | 北京交通大学 | 一种基于联邦学习的风险权重融合的异常检测方法 |
CN114595831A (zh) * | 2022-03-01 | 2022-06-07 | 北京交通大学 | 融合自适应权重分配和个性化差分隐私的联邦学习方法 |
CN114912581A (zh) * | 2022-05-07 | 2022-08-16 | 奇安信科技集团股份有限公司 | 检测模型的训练方法、装置、电子设备和存储介质 |
CN115049011A (zh) * | 2022-06-27 | 2022-09-13 | 支付宝(杭州)信息技术有限公司 | 确定联邦学习的训练成员模型贡献度的方法及装置 |
CN115277555A (zh) * | 2022-06-13 | 2022-11-01 | 香港理工大学深圳研究院 | 异构环境的网络流量分类方法、装置、终端及存储介质 |
CN115511103A (zh) * | 2022-10-20 | 2022-12-23 | 抖音视界有限公司 | 用于联邦学习的方法、装置、设备和介质 |
CN116306910A (zh) * | 2022-09-07 | 2023-06-23 | 北京交通大学 | 一种基于联邦节点贡献的公平性隐私计算方法 |
CN116306986A (zh) * | 2022-12-08 | 2023-06-23 | 哈尔滨工业大学(深圳) | 一种基于动态亲和力聚合的联邦学习方法及相关设备 |
CN117131951A (zh) * | 2023-02-16 | 2023-11-28 | 荣耀终端有限公司 | 联邦学习的方法及电子设备 |
CN117313835A (zh) * | 2023-10-08 | 2023-12-29 | 湖北大学 | 异质数据环境下基于客户端贡献理清的联邦学习方法 |
CN117952182A (zh) * | 2024-03-25 | 2024-04-30 | 之江实验室 | 一种基于数据质量的混合精度模型训练方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110572253A (zh) * | 2019-09-16 | 2019-12-13 | 济南大学 | 一种联邦学习训练数据隐私性增强方法及系统 |
CN111553484A (zh) * | 2020-04-30 | 2020-08-18 | 同盾控股有限公司 | 联邦学习的方法、装置及系统 |
CN112101568A (zh) * | 2020-09-17 | 2020-12-18 | 上海交通大学 | 消除终端动态可用偏差的模型更新量聚合方法 |
CN112261137A (zh) * | 2020-10-22 | 2021-01-22 | 江苏禹空间科技有限公司 | 基于联合学习的模型训练方法及系统 |
-
2021
- 2021-04-06 CN CN202110367421.8A patent/CN113112027A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110572253A (zh) * | 2019-09-16 | 2019-12-13 | 济南大学 | 一种联邦学习训练数据隐私性增强方法及系统 |
CN111553484A (zh) * | 2020-04-30 | 2020-08-18 | 同盾控股有限公司 | 联邦学习的方法、装置及系统 |
CN112101568A (zh) * | 2020-09-17 | 2020-12-18 | 上海交通大学 | 消除终端动态可用偏差的模型更新量聚合方法 |
CN112261137A (zh) * | 2020-10-22 | 2021-01-22 | 江苏禹空间科技有限公司 | 基于联合学习的模型训练方法及系统 |
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113705610A (zh) * | 2021-07-26 | 2021-11-26 | 广州大学 | 一种基于联邦学习的异构模型聚合方法和系统 |
CN113705610B (zh) * | 2021-07-26 | 2024-05-24 | 广州大学 | 一种基于联邦学习的异构模型聚合方法和系统 |
CN113780344A (zh) * | 2021-08-05 | 2021-12-10 | 中山大学 | 一种基于层次聚类的联邦学习方法及系统 |
CN113780344B (zh) * | 2021-08-05 | 2023-08-22 | 中山大学 | 一种基于层次聚类的联邦学习方法及系统 |
CN113691594B (zh) * | 2021-08-11 | 2023-02-07 | 杭州电子科技大学 | 一种基于二阶导数解决联邦学习中数据不平衡问题的方法 |
CN113691594A (zh) * | 2021-08-11 | 2021-11-23 | 杭州电子科技大学 | 一种基于二阶导数解决联邦学习中数据不平衡问题的方法 |
CN113642737A (zh) * | 2021-08-12 | 2021-11-12 | 广域铭岛数字科技有限公司 | 一种基于汽车用户数据的联邦学习方法及系统 |
CN113642737B (zh) * | 2021-08-12 | 2024-03-05 | 广域铭岛数字科技有限公司 | 一种基于汽车用户数据的联邦学习方法及系统 |
CN113672684A (zh) * | 2021-08-20 | 2021-11-19 | 电子科技大学 | 一种面向非独立同分布数据的分层用户训练管理系统及方法 |
CN113672684B (zh) * | 2021-08-20 | 2023-04-21 | 电子科技大学 | 一种面向非独立同分布数据的分层用户训练管理系统及方法 |
CN113837399A (zh) * | 2021-10-26 | 2021-12-24 | 医渡云(北京)技术有限公司 | 联邦学习模型的训练方法、装置、系统、存储介质及设备 |
CN113837399B (zh) * | 2021-10-26 | 2023-05-30 | 医渡云(北京)技术有限公司 | 联邦学习模型的训练方法、装置、系统、存储介质及设备 |
CN114358912A (zh) * | 2021-11-17 | 2022-04-15 | 北京交通大学 | 一种基于联邦学习的风险权重融合的异常检测方法 |
CN114239862A (zh) * | 2021-12-23 | 2022-03-25 | 电子科技大学 | 一种保护用户数据隐私的抗拜占庭攻击的联邦学习方法 |
CN114595831B (zh) * | 2022-03-01 | 2022-11-11 | 北京交通大学 | 融合自适应权重分配和个性化差分隐私的联邦学习方法 |
CN114595831A (zh) * | 2022-03-01 | 2022-06-07 | 北京交通大学 | 融合自适应权重分配和个性化差分隐私的联邦学习方法 |
CN114912581A (zh) * | 2022-05-07 | 2022-08-16 | 奇安信科技集团股份有限公司 | 检测模型的训练方法、装置、电子设备和存储介质 |
CN115277555A (zh) * | 2022-06-13 | 2022-11-01 | 香港理工大学深圳研究院 | 异构环境的网络流量分类方法、装置、终端及存储介质 |
CN115277555B (zh) * | 2022-06-13 | 2024-01-16 | 香港理工大学深圳研究院 | 异构环境的网络流量分类方法、装置、终端及存储介质 |
CN115049011A (zh) * | 2022-06-27 | 2022-09-13 | 支付宝(杭州)信息技术有限公司 | 确定联邦学习的训练成员模型贡献度的方法及装置 |
CN116306910B (zh) * | 2022-09-07 | 2023-10-03 | 北京交通大学 | 一种基于联邦节点贡献的公平性隐私计算方法 |
CN116306910A (zh) * | 2022-09-07 | 2023-06-23 | 北京交通大学 | 一种基于联邦节点贡献的公平性隐私计算方法 |
CN115511103A (zh) * | 2022-10-20 | 2022-12-23 | 抖音视界有限公司 | 用于联邦学习的方法、装置、设备和介质 |
CN116306986B (zh) * | 2022-12-08 | 2024-01-12 | 哈尔滨工业大学(深圳) | 一种基于动态亲和力聚合的联邦学习方法及相关设备 |
CN116306986A (zh) * | 2022-12-08 | 2023-06-23 | 哈尔滨工业大学(深圳) | 一种基于动态亲和力聚合的联邦学习方法及相关设备 |
CN117131951A (zh) * | 2023-02-16 | 2023-11-28 | 荣耀终端有限公司 | 联邦学习的方法及电子设备 |
CN117313835A (zh) * | 2023-10-08 | 2023-12-29 | 湖北大学 | 异质数据环境下基于客户端贡献理清的联邦学习方法 |
CN117952182A (zh) * | 2024-03-25 | 2024-04-30 | 之江实验室 | 一种基于数据质量的混合精度模型训练方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113112027A (zh) | 一种基于动态调整模型聚合权重的联邦学习方法 | |
CN113762530B (zh) | 面向隐私保护的精度反馈联邦学习方法 | |
CN113191484A (zh) | 基于深度强化学习的联邦学习客户端智能选取方法及系统 | |
CN114841364A (zh) | 一种满足个性化本地差分隐私需求的联邦学习方法 | |
CN113691594B (zh) | 一种基于二阶导数解决联邦学习中数据不平衡问题的方法 | |
Chen et al. | Communication and computation reduction for split learning using asynchronous training | |
CN113206887A (zh) | 边缘计算下针对数据与设备异构性加速联邦学习的方法 | |
CN114564746B (zh) | 基于客户端权重评价的联邦学习方法和系统 | |
CN116681144A (zh) | 基于动态自适应知识蒸馏的联邦学习模型聚合方法 | |
CN113988314A (zh) | 一种选择客户端的分簇联邦学习方法及系统 | |
CN115525038A (zh) | 一种基于联邦分层优化学习的设备故障诊断方法 | |
CN114707765A (zh) | 一种基于动态加权聚合的联邦学习负荷预测方法 | |
CN115526333A (zh) | 边缘场景下动态权重的联邦学习方法 | |
CN111192158A (zh) | 一种基于深度学习的变电站日负荷曲线相似度匹配方法 | |
CN113850399A (zh) | 一种基于预测置信度序列的联邦学习成员推断方法 | |
CN113095513A (zh) | 双层公平联邦学习方法、装置和存储介质 | |
CN117151208B (zh) | 基于自适应学习率的异步联邦学习参数更新方法、电子设备及存储介质 | |
Yan et al. | Federated learning model training method based on data features perception aggregation | |
Li et al. | Uncertainty measured active client selection for federated learning in smart grid | |
CN115695429A (zh) | 面向Non-IID场景的联邦学习客户端选择方法 | |
CN113743012B (zh) | 一种多用户场景下的云-边缘协同模式任务卸载优化方法 | |
CN115935709A (zh) | 一种自适应差分进化算法用于无源雷达布站的优化方法 | |
CN114581750A (zh) | 一种针对非独立同分布场景下快速准确的联邦学习方法及应用 | |
CN116050557A (zh) | 电力负荷预测方法、装置、计算机设备和介质 | |
Xie et al. | Data-driven based method for power system time-varying composite load modeling |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |