CN114912626A - 基于夏普利值的联邦学习移动设备分布数据处理方法 - Google Patents
基于夏普利值的联邦学习移动设备分布数据处理方法 Download PDFInfo
- Publication number
- CN114912626A CN114912626A CN202210436896.2A CN202210436896A CN114912626A CN 114912626 A CN114912626 A CN 114912626A CN 202210436896 A CN202210436896 A CN 202210436896A CN 114912626 A CN114912626 A CN 114912626A
- Authority
- CN
- China
- Prior art keywords
- model
- federal
- value
- federal learning
- equipment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Feedback Control In General (AREA)
Abstract
一种基于夏普利值的联邦学习移动设备分布数据处理方法,将多个移动设备构建联邦学习集群,在联邦学习的每一轮中,中心节点应用Monte‑Carlo采样方法估计各个联邦学习移动设备当前的联邦夏普利值,并将其在全局模型参数相对于初始参数的变化方向上的投影作为其对模型的重要性与贡献度,并基于联邦夏普利值选择联邦学习移动设备参与本轮的模型训练能够有效加快模型收敛速度,提升模型最终的精度。本发明能够衡量各个移动终端的数据集对模型训练过程的影响,从而在每轮选择高贡献度的设备参与训练,减少数据通信开销,加快收敛速度,提升模型表现。
Description
技术领域
本发明涉及的是一种分布式数据处理领域的技术,具体是一种基于联邦学习(Federated Learning)和夏普利值(Shapley Value)的移动设备分布数据处理方法。
背景技术
随着移动网络的不断发展,不同网络层的设备实时产生的数据量越来越大,格式越来越复杂,需要人工智能模型来自动地管理整个网络。传统的模型训练方法要求一个中心服务器从各个移动设备采集数据,然后集中式地训练模型。但是,传输大量数据会带来高昂的通信开销,并且上传用户数据会侵犯移动设备的隐私。
联邦学习框架作为一种分布式的机器学习方法被提出来解决上述问题,在每轮训练中,移动设备上传模型更新而非用户数据,在减小通信开销的同时避免了客户私密数据的泄露。受到中心服务器通信带宽和计算资源的限制,在每一轮的联邦学习过程中,仅有部分移动设备能够被中心服务器选中参与到模型的训练过程,极大地限制了每次模型更新所涉及的训练数据量,从而降低了模型的收敛速度和最终性能。
许多工作证明了不同训练数据样本对于模型训练的重要程度也是不同的,仅挑选部分重要的样本参与训练能够在减少训练时长的同时保证模型的最终精度。已有一些工作提出了集中式学习场景下的训练数据选择方法,包括基于LOO(Leave-one-out)的方法,基于影响函数 (Influence Function)的方法和基于数据夏普利值(Data Shapley)的方法。相比于前两种方法,以夏普利值作为选择的标准具有三条令人满意的性质:有效性(Efficiency)、对称性(Symmetry) 和可加性(Additivity),所以被广泛地认为是最公平合理的选择方法。
发明内容
本发明针对现有移动设备的算力资源和模型表现无直接关联、没有考虑移动设备的数据特点和当前中心节点的模型,仅凭借算力选择移动设备,无法从理论上加快模型收敛、提升模型精度的缺陷,提出一种基于夏普利值的联邦学习移动设备分布数据处理方法,将夏普利值更为合理地应用于联邦学习来解决移动设备的选择问题;提出联邦夏普利值的估计方法来避免指数次的模型重复训练,并结合传统的Monte-Carlo采样方法进一步度简化夏普利值的计算复杂度,从而能够衡量各个移动终端的数据集对模型训练过程的影响,从而在每轮选择高贡献度的设备参与训练,减少数据通信开销,加快收敛速度,提升模型表现。
本发明是通过以下技术方案实现的:
本发明涉及一种基于夏普利值的联邦学习移动设备分布数据处理方法,将多个移动设备构建联邦学习集群,在联邦学习的每一轮中,中心节点应用Monte-Carlo采样方法估计各个联邦学习移动设备当前的联邦夏普利值(Fed-Shapley),并将其在全局模型参数相对于初始参数的变化方向上的投影作为其对模型的重要性与贡献度,并基于联邦夏普利值选择联邦学习移动设备参与本轮的模型训练能够有效加快模型收敛速度,提升模型最终的精度。
所述的夏普利值为:其中:为联邦学习移动设备k在第t轮的联邦夏普利值;C为所有联邦学习移动设备的集合;S为移动设备子集;为只有移动设备子集S参与到联邦学习训练过程时,全局模型在第t轮的参数,其值需要通过重新训练模型得到。
所述的联邦夏普利值(Fed-Shapley),通过以下方式估计得到: 其中:为联邦学习移动设备k在第t轮的联邦夏普利值;C为所有联邦学习移动设备的集合;S和Q表示联邦学习移动设备子集;为只有联邦学习移动设备子集S参与到联邦学习训练过程时,全局模型在第t轮的参数;表示在训练过程中从总联邦学习移动设备集合C移除设备子集Q后,模型在第t轮的参数变化。其值可以通过本发明的估计方法得到:
其中:Ct为当前参与模型训练的移动设备集合;nk为第k个联邦学习移动设备的数据集大小; N(Ct\Q)为设备子集Ct\Q的总数据集大小;m为移动设备本地更新模型的次数;I为单位矩阵;η为学习率;表示当模型参数为时,模型在设备k的数据集Dk上的损失函数;为第t轮联邦学习过程中移动设备k在本地数据集上更新i次后的模型;
所述的Monte-Carlo采样是指:随机选取包含所有联邦学习移动的多个排列,按照顺序计算每一个排列当中每个联邦学习移动对排列中位于其之前的移动设备集合的边际贡献。最后对每个联邦学习移动设备的边际贡献求取平均值即为每个设备的重要性,即移动设备选择的标准。
所述的边际贡献是指:将此联邦学习移动设备加入训练后全局模型参数的变化。
所述的联邦学习移动设备选择算法,基于博弈论的经典概念夏普利值(ShapleyValue),具有与之类似的三条公平性定理:当设备k的数据集对于模型性能没有影响,则其价值为0;当对于两个设备k1,k2,将其数据集分别添加到任意子集后模型性能相同,则k1和k2具有相同的价值;任意多种评估方法得到的数据集价值等于这些评估方法结合在一起得到的数据集价值。
所述的模型训练,具体包括:1)中心节点下发全局模型给被选中的联邦学习移动设备; 2)联邦学习移动设备根据本地数据样本更新模型,并将更新后的模型参数上传给中心节点;3) 中心节点聚合各个联邦学习移动设备上传的模型参数为新一轮的全局模型。
所述方法,具体包括:
步骤1、在联邦学习过程的开始阶段,中心节点应用Monte-Carlo采样方法选取p个包含所有联邦学习移动设备的排列Ai,i=0,1,...,p-1,对于每个排列里的每个移动设备Ai[j],中心初始化该设备与其之前设备所组成的设备子集对模型影响的估计,即Q=Ai[0:j],j=0,1,...,|C|,i=0,..,p。
步骤2、在训练过程中的每一轮,参与训练的联邦学习移动设备k不仅上传经过本地更新后的模型,而且上传本地多次迭代对应的参数修正项,具体为: 其中:m为移动设备本地更新模型的次数;I为单位矩阵;η为学习率;为第t轮联邦学习过程中移动设备k在本地数据集上更新i次后的模型;为模型在数据集Dk上损失函数的二阶导数。
步骤4、对于每个移动设备k,中心估计其联邦夏普利值,并将其投影到全局模型的变化方向作为标准选择下一轮参与训练的客户端。所述估计方法为,求取p个排列中该设备对于其之前的设备子集Q的边际贡献,其均值为该设备联邦夏普利值的估计值。所述边际贡献为Q为各个排列中位于移动设备k之前的所有移动设备与设备k组成的集合。
本发明涉及一种实现上述方法的系统,包括:采样单元、夏普利值计算单元、移动设备选择单元、下发单元、移动设备计算单元、收集单元和中心节点计算单元,其中:采样单元在联邦学习的开始阶段根据采样得到的多个包含所有设备的全排列,对于每个排列里的每个设备,中心初始化该设备与排列中其之前设备所组成的设备子集对模型影响,得到各个设备子集对模型影响的初始估计结果;夏普利值计算单元在每一轮训练中,根据上一轮采样单元计算得到的各个排列中设备子集的模型影响,计算各个移动设备的边际贡献均值,得到各个移动设备联邦夏普利值的估计值结果;移动设备选择单元根据各个设备的联邦夏普利值,计算其在全局模型参数变化方向上的投影值作为选择标准,得到本轮参与模型训练的移动设备集合;下发单元根据选择的移动设备集合,下发当前中心节点的模型;移动设备计算单元根据接收到的模型信息,进行本地模型更新和本地修正项的计算,得到更新后的模型参数和本轮对应的修正项;收集单元回传各个参与设备的模型参数和修正项给中心节点;中心节点计算单元根据接收到的更新后的模型参数,进行参数聚合处理,得到新一轮的模型参数;采样单元根据接收到的各个参与设备的修正项,进行各个排列中多个移动设备子集对模型影响的更新。
技术效果
本发明通过在联邦学习每一轮训练中基于夏普利值进行移动设备选择的同时,通过低复杂度估计单个移动设备夏普利值,与现有技术相比显著提升联邦学习中全局模型的最终精度、减少模型训练时间。
附图说明
图1为本发明流程图;
图2为本发明系统示意图;
图3为实施例中当移除不同数目的设备后,本方法对全局模型参数变化的估计误差随训练轮数的变化;
图4为实施例中当模型损失函数为实施例中凸函数时,且当设备数据集分布相同且方差都较小、分布不同但方差都较小、分布不同且方差较大时,联邦夏普利值的估计误差随训练轮数变化的关系;
图5为实施例中应用本发明针对方差较大的改进方法后,联邦夏普利值的估计误差随训练轮数变化的关系;
图6为实施例中应用Monte-Carlo采样方法后,本发明对联邦夏普利值估计的误差随训练轮数的变化关系以及应用改进方法后误差的变化;
图7a为实施例中当模型损失函数为实施例中非凸函数时联邦夏普利值的估计误差随训练轮数的变化关系(设备数据集独立同分布时的情况);
图7b为实施例中当模型损失函数为实施例中非凸函数时联邦夏普利值的估计误差随训练轮数的变化关系(设备数据集不独立同分布时的情况);
图8为实施例中依据联邦夏普利值选择不同的移动设备参与模型训练时的训练曲线。
具体实施方式
本实施例包括8个联邦学习移动设备,其数据的相关信息如图7所示,实施步骤如下所示:
步骤1、在联邦学习过程的开始阶段,中心节点应用Monte-Carlo采样方法选取p个包含所有联邦学习移动设备的排列Ai,i=1,2,...,p。对于每个排列里的每个设备Ai[j],中心初始化该设备与其之前设备所组成的设备子集对模型影响的估计,即Q=Ai[0:j],i= 1,...,p,j=1,...,8。
步骤2、在联邦学习训练过程中的每一轮,每个参与训练的设备k不仅上传在本地数据上更新m次后的模型而且上传本地多次迭代对应的参数修正项所述修正项为 其中m为设备更新模型的次数;I为单位矩阵;η为学习率;为在移动设备数据上更新i次后的模型;Dk为移动设备的数据。
步骤3、中心依据各个移动设备上传的修正项,更新存储的各个设备子集对模型影响的估计,即Q=Ai[0:j],i=1,...,p,j=1,...,8。更新公式为 其中:k单个移动设备;Ct为参与本轮联邦联邦学习的移动设备集合;nk为设备k的数据集规模;N(Ct\Q)为联邦移动设备子集Ct\Q的总数聚集规模;为设备k上传的修正项;为当不考虑设备子集Q上传的模型参数更新时,中心节点聚合得到的模型参数;为中心节点聚合本轮所有参与训练的移动设备上传的参数更新所得到的模型。
步骤4、中心根据存储的移动设备子集对模型的影响,估计每个移动设备k的联邦夏普利值,并将其投影到全局模型的变化方向作为标准选择下一轮参与训练的客户端。所述估计方法为,求取p个排列中该设备对于其之前的设备子集Q的边际贡献,其均值为该移动设备联邦夏普利值的估计值,即其中:为设备k在当前训练轮的联邦夏普利值;p为Monte-Carlo采样得到的排列数目;ji,k为第i个排列中移动设备k的位置;Ai[0:ji,k]为第i个排列中设备k和位于其之前的设备组成的移动设备子集。所述投影值为其中为移动设备k的联邦夏普利值,为当前联邦学习的模型参数,为联邦学习的初始化模型参数。
如图7所示,实验部分所涉及数据集和训练模型的相关信息。
如图3所示,在场景一中,当模型为逻辑斯蒂回归,损失函数为凸函数时,本方法对移除不同设备子集Q后模型参数变化的估计误差随训练轮数的变化关系。它证明了本实施例的理论分析:当损失函数为凸函数时,本方法对模型参数变化的估计误差上界与训练轮数t 有线性关系。
如图4所示,在场景一中,当模型损失函数为凸函数且当设备数据集分布相同且方差都较小、分布不同但方差都较小、分布不同且方差较大时,联邦夏普利值的估计误差随训练轮数变化的关系。它与图3一起证明了设备数据集的分布差异性越大,模型的参数变化越大,进一步使得联邦夏普利值的平均估计误差从0.004上升到0.15。当本实施例将小部分设备数据集替换为方差更大的数据集时,联邦夏普利值的平均估计误差上升到4.0。这个异常大的误差来源于当移除的设备数量过多时,对于联邦移动设备自己对模型的影响,即的估计很不准确。
为了找到仅仅由本方法估计方法导致的误差,本实施例首先在计算每个设备的联邦夏普利值时考虑所有可能的边际贡献。由图6可以看到有着较大数据方差的设备也有着较大的估计误差。然后,本实施例将估计方法与Monte-Carlo采样相结合来降低时间复杂度。本方法尝试了不同的采样数量,例如|C|2,|C|3,其中|C|为设备数量,在本实施例中为8。从图6中可以发现与估计方法导致的误差相比,采样带来的误差可以忽略不计。为了解决数据方差大带来估计误差大的问题,本实施例采用之前所述的改进方法并尝试了不同移动设备自己|Q| 作为阈值,由图6可以看到,平均联邦夏普利值的估计误差从0.6降到了0.2,有较大方差的移动设备的联邦夏普利值估计误差从2.5降到0.3。
如图7中的a和b所示,在场景二中,当模型为卷积神经网络,损失函数是非凸的且设备数据集时独立同分布或者非独立同分布时,本方法对设备联邦夏普利值的估计误差随训练轮数的变化。它验证了本实施例的理论分析:损失函数为非凸时,估计误差与训练轮数t有指数关系。
如图8所示,将联邦夏普利值应用于参与设备选择后的实验效果,本实施例选取有较大、较小联邦夏普利值在模型更新方向上投影值的设备进行联邦学习模型,比较模型性能和表现的变化。实验结果证明选取具有较大夏普利值的设备参与训练能够加快模型收敛、提升最终精度,选取具有较小夏普利值的设备参与训练会损害模型的性能,延长其训练时间。
经过具体实际实验,当有8个移动设备参与联邦学习,各个移动设备的数据为FEMNIST(手写数字识别)数据集且非独立同分布,每一轮各个参与模型训练的设备更新2次模型,模型的学习率为0.02时,能够得到的实验数据是:相比于随机选取移动设备参与模型的训练,选取有较大联邦夏普利值在模型更新方向投影值的设备参与每轮的联邦学习,能够将模型的最终精度从0.95提升至0.99,模型达到目标精度(0.95)所需要的训练轮数从30轮降低至13轮。
与现有技术相比,本方法通过选取有较大联邦夏普利值在模型更新方向投影值的设备参与每轮的联邦学习,能够提升模型最终精度,实施例中从0.95提升至0.99,降低模型训练至目标精度所需要的训练轮数,实施例中模型训练至目标精度(0.95)所需要的训练轮数从 30轮降低至13轮。
上述具体实施可由本领域技术人员在不背离本发明原理和宗旨的前提下以不同的方式对其进行局部调整,本发明的保护范围以权利要求书为准且不由上述具体实施所限,在其范围内的各个实现方案均受本发明之约束。
Claims (9)
1.一种基于夏普利值的联邦学习移动设备分布数据处理方法,其特征在于,将多个移动设备构建联邦学习集群,在联邦学习的每一轮中,中心节点应用Monte-Carlo采样方法估计各个联邦学习移动设备当前的联邦夏普利值,并将其在全局模型参数相对于初始参数的变化方向上的投影作为其对模型的重要性与贡献度,并基于联邦夏普利值选择联邦学习移动设备参与本轮的模型训练能够有效加快模型收敛速度,提升模型最终的精度。
3.根据权利要求1所述的基于夏普利值的联邦学习移动设备分布数据处理方法,其特征是,所述的联邦夏普利值,通过以下方式估计得到: 其中:为联邦学习移动设备k在第t轮的联邦夏普利值;C为所有联邦学习移动设备的集合;S和Q表示联邦学习移动设备子集;为只有联邦学习移动设备子集S参与到联邦学习训练过程时,全局模型在第t轮的参数;表示在训练过程中从总联邦学习移动设备集合C移除设备子集Q后,模型在第t轮的参数变化。其值可以通过本发明的估计方法得到: 其中:Ct为当前参与模型训练的移动设备集合;nk为第k个联邦学习移动设备的数据集大小;N(Ct\Q)为设备子集Ct\Q的总数据集大小;m为移动设备本地更新模型的次数;I为单位矩阵;η为学习率;表示当模型参数为时,模型在设备k的数据集Dk上的损失函数;为第t轮联邦学习过程中移动设备k在本地数据集上更新i次后的模型;表示只在第t轮将联邦学习移动设备子集Q移除后全局模型的参数。因为联邦夏普利值的计算需要遍历移动设备集合C的每一个子集,用Monte-Carlo采样方法来估计可以得到时间复杂度更低的估计方法。
4.根据权利要求1所述的基于夏普利值的联邦学习移动设备分布数据处理方法,其特征是,所述的Monte-Carlo采样是指:随机选取包含所有联邦学习移动的多个排列,按照顺序计算每一个排列当中每个联邦学习移动对排列中位于其之前的移动设备集合的边际贡献。最后对每个联邦学习移动设备的边际贡献求取平均值即为每个设备的重要性,即移动设备选择的标准。
5.根据权利要求1所述的基于夏普利值的联邦学习移动设备分布数据处理方法,其特征是,所述的边际贡献是指:将此联邦学习移动设备加入训练后全局模型参数的变化。
7.根据权利要求1所述的基于夏普利值的联邦学习移动设备分布数据处理方法,其特征是,所述的模型训练,具体包括:1)中心节点下发全局模型给被选中的联邦学习移动设备;2)联邦学习移动设备根据本地数据样本更新模型,并将更新后的模型参数上传给中心节点;3)中心节点聚合各个联邦学习移动设备上传的模型参数为新一轮的全局模型。
8.根据权利要求1~7中任一所述的基于夏普利值的联邦学习移动设备分布数据处理方法,其特征是,具体包括:
步骤1、在联邦学习过程的开始阶段,中心节点应用Monte-Carlo采样方法选取p个包含所有联邦学习移动设备的排列Ai,i=0,1,...,p-1,对于每个排列里的每个移动设备Ai[j],中心初始化该设备与其之前设备所组成的设备子集对模型影响的估计,即Q=Ai[0:j],j=0,1,...,|C|,i=0,..,p;
步骤2、在训练过程中的每一轮,参与训练的联邦学习移动设备k不仅上传经过本地更新后的模型,而且上传本地多次迭代对应的参数修正项,具体为:其中:m为移动设备本地更新模型的次数;I为单位矩阵;η为学习率;为第t轮联邦学习过程中移动设备k在本地数据集上更新i次后的模型;为模型在数据集Dk上损失函数的二阶导数;
9.一种实现权利要求1~8中任一所述上述基于夏普利值的联邦学习移动设备分布数据处理方法的系统,其特征在于,包括:采样单元、夏普利值计算单元、移动设备选择单元、下发单元、移动设备计算单元、收集单元和中心节点计算单元,其中:采样单元在联邦学习的开始阶段根据采样得到的多个包含所有设备的全排列,对于每个排列里的每个设备,中心初始化该设备与排列中其之前设备所组成的设备子集对模型影响,得到各个设备子集对模型影响的初始估计结果;夏普利值计算单元在每一轮的联邦学习过程中,根据上一轮采样单元计算得到的各个排列中设备子集的模型影响,计算各个移动设备的边际贡献均值,得到各个移动设备联邦夏普利值的估计值结果;移动设备选择单元根据各个设备的联邦夏普利值,计算其在全局模型参数变化方向上的投影值作为选择标准,得到本轮参与模型训练的移动设备集合;下发单元根据选择的移动设备集合,下发当前中心节点的模型;移动设备计算单元根据接收到的模型信息,进行本地模型更新和本地修正项的计算,得到更新后的模型参数和本轮对应的修正项;收集单元回传各个参与设备的模型参数和修正项给中心节点;中心节点计算单元根据接收到的更新后的模型参数,进行参数聚合处理,得到新一轮的模型参数;采样单元根据接收到的各个参与设备的修正项,进行各个排列中多个移动设备子集对模型影响的更新。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210436896.2A CN114912626A (zh) | 2022-04-15 | 2022-04-15 | 基于夏普利值的联邦学习移动设备分布数据处理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210436896.2A CN114912626A (zh) | 2022-04-15 | 2022-04-15 | 基于夏普利值的联邦学习移动设备分布数据处理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114912626A true CN114912626A (zh) | 2022-08-16 |
Family
ID=82764490
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210436896.2A Pending CN114912626A (zh) | 2022-04-15 | 2022-04-15 | 基于夏普利值的联邦学习移动设备分布数据处理方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114912626A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115456202A (zh) * | 2022-11-08 | 2022-12-09 | 苏州浪潮智能科技有限公司 | 一种提高工作机学习性能的方法、装置、设备及介质 |
CN116205313A (zh) * | 2023-04-27 | 2023-06-02 | 数字浙江技术运营有限公司 | 联邦学习参与方的选择方法、装置及电子设备 |
CN117172338A (zh) * | 2023-11-02 | 2023-12-05 | 数据空间研究院 | 纵向联邦学习场景中的贡献评估方法 |
-
2022
- 2022-04-15 CN CN202210436896.2A patent/CN114912626A/zh active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115456202A (zh) * | 2022-11-08 | 2022-12-09 | 苏州浪潮智能科技有限公司 | 一种提高工作机学习性能的方法、装置、设备及介质 |
CN115456202B (zh) * | 2022-11-08 | 2023-04-07 | 苏州浪潮智能科技有限公司 | 一种提高工作机学习性能的方法、装置、设备及介质 |
CN116205313A (zh) * | 2023-04-27 | 2023-06-02 | 数字浙江技术运营有限公司 | 联邦学习参与方的选择方法、装置及电子设备 |
CN116205313B (zh) * | 2023-04-27 | 2023-08-11 | 数字浙江技术运营有限公司 | 联邦学习参与方的选择方法、装置及电子设备 |
CN117172338A (zh) * | 2023-11-02 | 2023-12-05 | 数据空间研究院 | 纵向联邦学习场景中的贡献评估方法 |
CN117172338B (zh) * | 2023-11-02 | 2024-02-02 | 数据空间研究院 | 纵向联邦学习场景中的贡献评估方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114912626A (zh) | 基于夏普利值的联邦学习移动设备分布数据处理方法 | |
CN108133330B (zh) | 一种面向社交众包任务分配方法及其系统 | |
CN111030861B (zh) | 一种边缘计算分布式模型训练方法、终端和网络侧设备 | |
CN111091199A (zh) | 一种基于差分隐私的联邦学习方法、装置及存储介质 | |
CN109741198B (zh) | 网络信息传播影响力度量方法、系统及影响力最大化方法 | |
WO2023036184A1 (en) | Methods and systems for quantifying client contribution in federated learning | |
CN113518007B (zh) | 一种基于联邦学习的多物联网设备异构模型高效互学习方法 | |
CN114169543A (zh) | 一种基于模型陈旧性与用户参与度感知的联邦学习算法 | |
CN113206887A (zh) | 边缘计算下针对数据与设备异构性加速联邦学习的方法 | |
CN115587633A (zh) | 一种基于参数分层的个性化联邦学习方法 | |
CN114398634A (zh) | 一种基于信息熵的联邦学习参与方权重计算方法 | |
CN116363449A (zh) | 一种基于分层联邦学习的图像识别方法 | |
CN116957106A (zh) | 一种基于动态注意力机制的联邦学习模型训练方法 | |
WO2018077301A1 (zh) | 账号筛选方法和装置 | |
CN114116705A (zh) | 联合学习中确定参与方贡献值的方法及装置 | |
CN117421115A (zh) | 一种集群驱动的物联网环境下资源受限的联邦学习客户端选择方法 | |
CN114116707A (zh) | 确定联合学习中参与方贡献度的方法及装置 | |
Li et al. | Uncertainty measured active client selection for federated learning in smart grid | |
CN114866272B (zh) | 群智感知环境下真值发现算法的多轮次数据投放系统 | |
CN114401192B (zh) | 一种多sdn控制器协同训练方法 | |
CN115630398A (zh) | 基于小样本数据的个性化差分隐私保护方法、装置及系统 | |
CN115695429A (zh) | 面向Non-IID场景的联邦学习客户端选择方法 | |
CN115374954A (zh) | 一种基于联邦学习的模型训练方法、终端以及存储介质 | |
CN115131605A (zh) | 一种基于自适应子图的结构感知图对比学习方法 | |
CN114116740A (zh) | 用于联合学习中确定参与方贡献度的方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |