CN112101528A - 基于反向传播的终端贡献度量方法 - Google Patents
基于反向传播的终端贡献度量方法 Download PDFInfo
- Publication number
- CN112101528A CN112101528A CN202010978139.9A CN202010978139A CN112101528A CN 112101528 A CN112101528 A CN 112101528A CN 202010978139 A CN202010978139 A CN 202010978139A CN 112101528 A CN112101528 A CN 112101528A
- Authority
- CN
- China
- Prior art keywords
- round
- contribution
- terminal
- global model
- terminals
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000691 measurement method Methods 0.000 title claims abstract description 6
- 238000012549 training Methods 0.000 claims abstract description 33
- 238000005259 measurement Methods 0.000 claims abstract description 18
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 7
- 238000000034 method Methods 0.000 claims description 26
- 238000004364 calculation method Methods 0.000 claims description 11
- 230000006870 function Effects 0.000 claims description 5
- 238000005070 sampling Methods 0.000 claims description 4
- 238000012546 transfer Methods 0.000 abstract description 2
- 238000012217 deletion Methods 0.000 description 6
- 230000037430 deletion Effects 0.000 description 6
- 238000004088 simulation Methods 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000005265 energy consumption Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000008376 long-term health Effects 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 231100000572 poisoning Toxicity 0.000 description 1
- 230000000607 poisoning effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000013138 pruning Methods 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
Abstract
一种基于反向传播的终端贡献度量方法,通过计算参与联邦学习中任一轮训练的初始全局模型与所有终端对当前轮生成的全局模型的贡献值,即终端级别的单轮贡献度量;再计算参与联邦学习的所有终端对最终全局模型的贡献值,即终端级别的多轮贡献度量。本发明采用结点‑链的方式,使用夏普利值度量单轮贡献,并使用反向传播算法将单轮贡献转移至最后一轮计算多轮贡献。
Description
技术领域
本发明涉及的是一种深度学习领域的技术,具体是一种度量终端在多轮协作训练之后对最终全局模型的贡献的方法。
背景技术
联邦学习是一种机器学习子框架,它使多个仅拥有有限资源的终端可以在云服务器的协调下协作训练一个全局模型,而无需共享其本地数据。参与联邦学习训练的终端将在本地进行模型训练,之后仅将模型参数更新上传至云服务器,由云服务器负责模型参数的聚合与全局模型的更新。
为提高联邦学习的透明度、可追溯性和健壮性,希望能够合理度量贡献。传统集中式机器学习通常进行数据级别的贡献度量或特征级别的贡献度量。但是在联邦学习框架中,为保证终端用户的隐私安全,云服务器作为贡献评估者,只能得到终端用户上传的模型参数更新,而不能访问终端的原始数据与特征值。因此,传统的数据级别的贡献度量或特征级别的贡献度量无意义。故提出终端级别的贡献度量,它不仅可以作为适当奖励诚实用户和惩罚敌对用户的基础,还可以提高联邦学习的透明度、可追溯性和健壮性,对于联邦学习的长期健康发展非常重要。
发明内容
本发明针对现有技术存在的上述不足,提出一种基于反向传播的终端贡献度量方法,采用结点-链的方式,使用夏普利值度量单轮贡献,并使用反向传播算法将单轮贡献转移至最后一轮计算多轮贡献。
本发明是通过以下技术方案实现的:
本发明通过计算参与联邦学习中任一轮训练的初始全局模型与所有终端对当前轮生成的全局模型的贡献值,即终端级别的单轮贡献度量;再计算参与联邦学习的所有终端对最终全局模型的贡献值,即终端级别的多轮贡献度量。
所述的终端级别的单轮贡献度量是指:对联邦学习的每一轮训练分别引入虚结点作为各轮的初始全局模型,并采用合作博弈中经典的夏普利值法(Shapley Value)计算参与当前轮的各终端与虚结点对当前轮生成的全局模型的贡献值。
所述的联邦学习的每一轮训练是指:从联邦学习的第一轮起,直至生成收敛的最终全局模型止,期间云服务器一次更新全局模型完毕至云服务器再次更新全局模型完毕作为一轮训练。
所述的贡献值其中:k为某终端或初始全局模型;n为参与当前轮训练的终端数目;Π(Ν)为n个终端与当前轮初始全局模型的所有全排列集合;π∈Π(Ν)为从Π(Ν)中随机选取的一个元素;为全排列π中位于终端或初始全局模型k前的所有终端以及初始全局模型的集合;U(S)为效用函数,表示集合S中所有元素对全局模型的效用,当集合S中不包含初始全局模型,则使用第一轮初始全局模型替代。
所述的终端级别的多轮贡献度量是指:利用联邦学习的重启性质串联各轮虚结点,通过反向传播算法计算各轮虚结点对最终全局模型的贡献值,再结合单轮贡献值比例得到所有参与终端对最终全局模型的贡献值。
所述的重启性质是指:联邦学习中任意一轮的最终模型是其下一轮的初始模型。
所述的反向传播是指:从联邦学习的最后一轮开始度量参与终端对最终全局模型的贡献值,之后沿虚结点的链反向递推,依次计算每一轮参与终端对最终全局模型的贡献值,直至第一轮参与终端的贡献值计算完毕停止。
本发明涉及一种实现上述方法的系统,包括:终端级别的单轮贡献度量计算单元与终端级别的多轮贡献度量计算单元,其中:调用终端级别的单轮贡献度量计算单元返回联邦学习中每一轮所有参与终端与初始全局模型的对当轮生成全局模型的贡献值,每一轮的返回结果均需输入至终端级别的多轮贡献度量计算单元,之后可以调用终端级别的多轮贡献度量计算单元返回所有参与终端对最终全局模型的贡献值。
技术效果
本发明整体解决现有机器学习贡献度量方法不适用于联邦学习框架。本发明从终端级别度量贡献;最坏情况下终端用户的额外能耗为常量;云服务器的额外能耗与参与终端数的平方线性相关,与轮数线性相关,但可以并行运算,减少工时;终端级别贡献值对外部因素(例如竞争者的数量)是稳健的;终端级别贡献值能够显著捕获数据集删减、翻转图片标签、噪声干扰模型更新三类数据损坏;本方法能够较好地监测敌对终端,可以与在实际应用中可鼓励更多用户上传真实模型更新,惩罚敌对用户。
基于夏普利值法进行单轮设计,通过基于重启性质的反向传播算法链接多轮,单轮与多轮设计都可以保留四个所需性质(即对称性、完整性、零度性和线性);在最坏的情况下,由贡献度量引入的各终端的额外通信和计算开销是恒定的;在CIFAR-10数据集上的经验结果表明,贡献度量在所有终端均为诚实终端的情况下可以正常工作,并且也可以很好地捕获敌对终端的一些攻击方式(包括数据集删减、翻转图片标签和噪声干扰模型更新)。
附图说明
图1为联邦学习终端级别贡献度量算法的流程示意图;
图2为联邦学习中基于夏普利值法的单轮贡献度量计算单元的示意图;
图3为模拟实验中全部终端为诚实终端且每轮参与训练的终端数量分别为10、20、30、 40、50时,初始全局模型与所有终端对最终全局模型的贡献值的对比示意图;
图中:a为初始全局模型对最终全局模型贡献值的对比,b为所有终端对最终全局模型贡献值的细粒度对比,c为所有终端对最终全局模型的贡献值的粗粒度对比;
图4为模拟实验中每轮参与训练的终端数量为10时,诚实情况下贡献值最高的10%终端变为敌对终端且分别发生数据集删减(比例为50%)、翻转图片标签(比例为50%)、噪声干扰模型更新(噪声方差为10-3)时,初始全局模型对最终全局模型的贡献值的对比示意图;
具体实施方式
本实施例涉及一种基于反向传播的终端贡献度量方法,包括以下步骤:
第一步、计算参与联邦学习中某一轮训练的初始全局模型与所有终端对当前轮生成的全局模型的贡献值,即终端级别的单轮贡献度量,具体为:将当前轮的初始全局模型引入为虚结点,采用夏普利值法计算参与当前轮的所有终端与虚结点对当前轮生成的全局模型的贡献值。首先,随机采样全排列;之后,从第一个终端或虚结点扫描至最后一个终端或虚结点,计算每个终端或虚结点的边际效用;重复采样全排列并计算每个终端或虚结点边际效用的均值,直至所有边际效用的均值全部收敛为止。每个终端或虚结点边际效用的均值即其单轮贡献值。
优选地,计算边际效用时,当虚结点尚未出现,则使用第一轮的初始全局模型替代虚结点,即当前出现的所有终端虚拟地参与第一轮训练。
如图1所示,图中有四个终端和初始全局模型,参与了当前轮训练。随机采样五个参与者的全排列,并以预期或平均边际效用衡量每个参与者的贡献。在初始全局模型缺席的情况下,将引入第一轮的初始全局模型及其更新。
第二步、计算参与联邦学习的所有终端对最终全局模型的贡献值,即终端级别的多轮贡献度量,具体为:总贡献值在最后一轮中依据贡献比被完全分配给最后一轮的初始全局模型与参与最后一轮训练的所有终端。之后,根据重启性质,最后一轮的初始全局模型也是倒数第二轮生成的全局模型,因此该全局模型的贡献值又依据贡献比被完全分配给倒数第二轮的初始全局模型与参与倒数第二轮训练的所有终端。通过递归地反向传播至第一轮,总贡献值将被完全分配给所有参与联邦学习的终端。
所述的贡献比是指:某轮训练中,初始全局模型与各参与终端的单轮贡献值的比例关系,可以根据第一步中的返回结果得到。
如图2所示,在一个完整的联邦学习过程中,橙色箭头表示反向传播,绿色箭头表示对第t轮初始全局模型与参与第t轮终端的贡献分配。
本实施例的模拟实验使用CIFAR-10数据集,它包含50000个训练图像和10000个测试图像,这些图像均匀地分为10类。模拟实验中共设置1000个终端,为了模拟联邦学习的不平衡设置与非独立同分布设置,每个终端仅拥有一类图像,并且其本地训练集的大小服从均值为 50、方差为100的正态分布。模拟实验采用PyTorch教程中CIFAR-10数据集的卷积神经网络 (CNN),由两个卷积层和三个全连接层组成。对于每个终端的本地训练,选择小批量随机梯度下降(Mini-Batch SGD)作为优化算法,批大小为16,时期数为1,学习率固定为0.1。贡献度量中采用对测试集的分类准确率作为效用函数。当每轮训练中随机选择的终端数量介于10到50 之间时,大致需要5000轮才能使全局模型收敛。
如图3所示,为所有终端均为诚实终端时,5000轮初始全局模型对最终全局模型的贡献值与全部1000个终端对最终全局模型的贡献值,图(a)对比了当参与某轮训练的终端数量分别为10、20、30、40、50时,初始全局模型对最终全局模型的贡献值。可以看出,随着参与某轮训练的终端数量的增长,初始全局模型的贡献值增加得更快,特别是轮数较小时。可以得出结论:当面临更激烈的竞争时,较早加入联邦学习的活跃客户往往会获得更高的贡献。图(b) 和图(c)对比了当参与某轮训练的终端数量分别为10、20、30、40、50时,各终端对最终全局模型的贡献值,图(b)进行了细粒度的展示,图(c)进行了粗粒度的展示。
可以看出,尽管参与某轮训练的终端数量有所变化,终端级别的贡献值无论从细粒度的个体还是粗粒度的统计上看都是聚集的。考虑到参与每一轮训练的终端都是随机选择的,可以得出结论:当给予终端相同的机会时,通过本方法度量的终端级别贡献对外部因素(例如竞争者的数量)是稳健的。此外,图(c)中还可以看出,大约有一半终端的贡献值为负,这是由于联邦学习终端数据的不平衡设置和非独立同分布设置加剧了基于联合均值的优化的噪音,导致准确性曲线出现许多振荡。
如图4和表1所示,为部分终端为敌对终端时,终端级别的贡献度量结果。模拟实验设置参与每轮训练的终端数量为10,并将全部终端为诚实终端时贡献度最高的10%终端设置为敌对终端。表1对比了敌对终端分别进行数据集删减(比例为50%)、翻转图片标签(比例为50%)、噪声干扰模型更新(噪声方差为10-3)时,初始全局模型对最终全局模型的贡献值,并以全部终端为诚实终端的情况作为基准。可以看出,数据集删减的曲线在轮数较小时斜率较低,这与每轮终端数量较少的趋势一致;噪声干扰模型更新的曲线位于底部,这是因为对10%敌对终端的模型更新进行的高扰动严重破坏了最终全局模型的效用,导致了较低的贡献值;翻转图片标签的曲线略低于诚实情况的曲线,少量翻转图片标签作为机器学习中数据中毒攻击的主要工具,可以实现攻击目的,而不会显着降低全局模型的性能,这使得贡献度曲线可能与诚实情况下的曲线相距不远。对比四条曲线可以看出,本方法能够显著捕获数据集删减、翻转图片标签、噪声干扰模型更新三类数据损坏。
表1为模拟实验中敌对终端发生不同程度的数据集删减、翻转图片标签、噪声干扰模型更新时,敌对终端对最终全局模型的贡献值平均值(相对于诚实情况的)下降程度对比;其分别对比了数据集删减的比例为10%、20%、30%、40%、50%,翻转图片标签的比例为10%、 20%、30%、40%、50%,噪声干扰模型更新的噪声方差为10-6、10-5、10-4、10-3、10-2时,敌对终端对最终全局模型贡献值的平均值与诚实情况相比的降低程度。可以看出,当数据损坏程度越深时,敌对终端的贡献值平均值就会越低,这说明本方法能够较好地监测敌对终端。
上述具体实施可由本领域技术人员在不背离本发明原理和宗旨的前提下以不同的方式对其进行局部调整,本发明的保护范围以权利要求书为准且不由上述具体实施所限,在其范围内的各个实现方案均受本发明之约束。
Claims (10)
1.一种基于反向传播的终端贡献度量方法,其特征在于,通过计算参与联邦学习中任一轮训练的初始全局模型与所有终端对当前轮生成的全局模型的贡献值,即终端级别的单轮贡献度量;再计算参与联邦学习的所有终端对最终全局模型的贡献值,即终端级别的多轮贡献度量;
2.根据权利要求1所述的基于反向传播的终端贡献度量方法,其特征是,所述的终端级别的单轮贡献度量是指:对联邦学习的每一轮训练分别引入虚结点作为各轮的初始全局模型,并采用合作博弈中经典的夏普利值法计算参与当前轮的各终端与虚结点对当前轮生成的全局模型的贡献值。
3.根据权利要求1所述的基于反向传播的终端贡献度量方法,其特征是,所述的联邦学习的每一轮训练是指:从联邦学习的第一轮起,直至生成收敛的最终全局模型止,期间云服务器一次更新全局模型完毕至云服务器再次更新全局模型完毕作为一轮训练。
4.根据权利要求1所述的基于反向传播的终端贡献度量方法,其特征是,所述的终端级别的多轮贡献度量是指:利用联邦学习的重启性质串联各轮虚结点,通过反向传播算法计算各轮虚结点对最终全局模型的贡献值,再结合单轮贡献值比例得到所有参与终端对最终全局模型的贡献值。
5.根据权利要求1所述的基于反向传播的终端贡献度量方法,其特征是,所述的重启性质是指:联邦学习中任意一轮的最终模型是其下一轮的初始模型。
6.根据权利要求1所述的基于反向传播的终端贡献度量方法,其特征是,所述的反向传播是指:从联邦学习的最后一轮开始度量参与终端对最终全局模型的贡献值,之后沿虚结点的链反向递推,依次计算每一轮参与终端对最终全局模型的贡献值,直至第一轮参与终端的贡献值计算完毕停止。
7.根据上述任一权利要求所述的基于反向传播的终端贡献度量方法,其特征是,具体步骤包括先随机采样全排列,然后从第一个终端或虚结点扫描至最后一个终端或虚结点,计算每个终端或虚结点的边际效用;重复采样全排列并计算每个终端或虚结点边际效用的均值,直至所有边际效用的均值全部收敛为止;每个终端或虚结点边际效用的均值即其单轮贡献值;总贡献值在最后一轮中依据贡献比被完全分配给最后一轮的初始全局模型与参与最后一轮训练的所有终端;再根据重启性质,最后一轮的初始全局模型也是倒数第二轮生成的全局模型,因此该全局模型的贡献值又依据贡献比被完全分配给倒数第二轮的初始全局模型与参与倒数第二轮训练的所有终端;通过递归地反向传播至第一轮,总贡献值将被完全分配给所有参与联邦学习的终端。
8.根据权利要求7所述的基于反向传播的终端贡献度量方法,其特征是,计算边际效用时,当虚结点尚未出现,则使用第一轮的初始全局模型替代虚结点,即当前出现的所有终端虚拟地参与第一轮训练。
9.根据权利要求7所述的基于反向传播的终端贡献度量方法,其特征是,所述的贡献比是指:某轮训练中,初始全局模型与各参与终端的单轮贡献值的比例关系。
10.一种实现上述任一权利要求所述方法的系统,其特征在于,包括:终端级别的单轮贡献度量计算单元与终端级别的多轮贡献度量计算单元,其中:调用终端级别的单轮贡献度量计算单元返回联邦学习中每一轮所有参与终端与初始全局模型的对当轮生成全局模型的贡献值,每一轮的返回结果均需输入至终端级别的多轮贡献度量计算单元,之后调用终端级别的多轮贡献度量计算单元返回所有参与终端对最终全局模型的贡献值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010978139.9A CN112101528B (zh) | 2020-09-17 | 2020-09-17 | 基于反向传播的终端贡献度量方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010978139.9A CN112101528B (zh) | 2020-09-17 | 2020-09-17 | 基于反向传播的终端贡献度量方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112101528A true CN112101528A (zh) | 2020-12-18 |
CN112101528B CN112101528B (zh) | 2023-10-24 |
Family
ID=73758829
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010978139.9A Active CN112101528B (zh) | 2020-09-17 | 2020-09-17 | 基于反向传播的终端贡献度量方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112101528B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114553869A (zh) * | 2022-02-11 | 2022-05-27 | 新智我来网络科技有限公司 | 基于联合学习的确定资源贡献度的方法、装置和电子设备 |
WO2023082787A1 (zh) * | 2021-11-10 | 2023-05-19 | 新智我来网络科技有限公司 | 联合学习中确定参与方贡献度的方法、联合学习训练方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110263921A (zh) * | 2019-06-28 | 2019-09-20 | 深圳前海微众银行股份有限公司 | 一种联邦学习模型的训练方法及装置 |
CN110442457A (zh) * | 2019-08-12 | 2019-11-12 | 北京大学深圳研究生院 | 基于联邦学习的模型训练方法、装置及服务器 |
CN110490335A (zh) * | 2019-08-07 | 2019-11-22 | 深圳前海微众银行股份有限公司 | 一种计算参与者贡献率的方法及装置 |
CN111104731A (zh) * | 2019-11-19 | 2020-05-05 | 北京集奥聚合科技有限公司 | 一种用于联邦学习的图形化模型全生命周期建模方法 |
CN111325353A (zh) * | 2020-02-28 | 2020-06-23 | 深圳前海微众银行股份有限公司 | 训练数据集的贡献度计算方法、装置、设备及存储介质 |
-
2020
- 2020-09-17 CN CN202010978139.9A patent/CN112101528B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110263921A (zh) * | 2019-06-28 | 2019-09-20 | 深圳前海微众银行股份有限公司 | 一种联邦学习模型的训练方法及装置 |
CN110490335A (zh) * | 2019-08-07 | 2019-11-22 | 深圳前海微众银行股份有限公司 | 一种计算参与者贡献率的方法及装置 |
CN110442457A (zh) * | 2019-08-12 | 2019-11-12 | 北京大学深圳研究生院 | 基于联邦学习的模型训练方法、装置及服务器 |
CN111104731A (zh) * | 2019-11-19 | 2020-05-05 | 北京集奥聚合科技有限公司 | 一种用于联邦学习的图形化模型全生命周期建模方法 |
CN111325353A (zh) * | 2020-02-28 | 2020-06-23 | 深圳前海微众银行股份有限公司 | 训练数据集的贡献度计算方法、装置、设备及存储介质 |
Non-Patent Citations (5)
Title |
---|
GUAN WANG ET AL.: ""Measure Contribution of Participants in Federated Learning"", ARXIV * |
TIANHAO WANG ET AL.: ""A Principled Approach to Data Valuation for Federated Learning"", ARXIV * |
YUAN LIU ET AL.: ""FedCoin: A Peer-to-Peer Payment System for Federated Learning"", ARXIV * |
欧阳丽炜;袁勇;郑心湖;张俊;王飞跃;: "基于区块链的传染病监测与预警技术", 智能科学与技术学报, no. 02 * |
谭作文;张连福;: "机器学习隐私保护研究综述", 软件学报, no. 07 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023082787A1 (zh) * | 2021-11-10 | 2023-05-19 | 新智我来网络科技有限公司 | 联合学习中确定参与方贡献度的方法、联合学习训练方法及装置 |
CN114553869A (zh) * | 2022-02-11 | 2022-05-27 | 新智我来网络科技有限公司 | 基于联合学习的确定资源贡献度的方法、装置和电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN112101528B (zh) | 2023-10-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113191484B (zh) | 基于深度强化学习的联邦学习客户端智能选取方法及系统 | |
Zhu et al. | Grouped network vector autoregression | |
CN102075352B (zh) | 一种网络用户行为预测的方法和装置 | |
CN110263921A (zh) | 一种联邦学习模型的训练方法及装置 | |
CN108491970A (zh) | 一种基于rbf神经网络的大气污染物浓度预测方法 | |
Zou et al. | Mobile device training strategies in federated learning: An evolutionary game approach | |
Ou et al. | A novel rank learning based no-reference image quality assessment method | |
Wu et al. | Link prediction of time-evolving network based on node ranking | |
CN112101528A (zh) | 基于反向传播的终端贡献度量方法 | |
CN113206887A (zh) | 边缘计算下针对数据与设备异构性加速联邦学习的方法 | |
CN115688913A (zh) | 一种云边端协同个性化联邦学习方法、系统、设备及介质 | |
CN106776941A (zh) | 一种基于众包模式的推荐有效解答者的方法 | |
CN112990478A (zh) | 联邦学习数据处理系统 | |
CN114925854A (zh) | 一种基于梯度相似性度量的联邦学习节点选择方法及系统 | |
CN113361928B (zh) | 一种基于异构图注意力网络的众包任务推荐方法 | |
Xiao et al. | Incentive mechanism design for federated learning: A two-stage stackelberg game approach | |
Munir et al. | Fedprune: Towards inclusive federated learning | |
Zhao et al. | Bounded confidence-based opinion formation for opinion leaders and opinion followers on social networks | |
Sun et al. | Education teaching evaluation method aided by adaptive genetic programming and robust scheduling | |
CN110428476A (zh) | 一种基于多循环生成式对抗网络的图像转换方法及装置 | |
Liu et al. | Single-level electricity market equilibrium with offers and bids in energy and price | |
CN115908600A (zh) | 基于先验正则化的大批量图像重建方法 | |
CN111860630B (zh) | 基于特征重要性的模型建立方法及系统 | |
CN115396491A (zh) | 一种服务生态系统的多层异质分析方法 | |
Lee et al. | Analysis of clustering coefficients of online social networks by duplication models |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |