CN114841368B - 面向不稳定联邦学习场景的客户端选择优化方法及装置 - Google Patents

面向不稳定联邦学习场景的客户端选择优化方法及装置 Download PDF

Info

Publication number
CN114841368B
CN114841368B CN202210426304.9A CN202210426304A CN114841368B CN 114841368 B CN114841368 B CN 114841368B CN 202210426304 A CN202210426304 A CN 202210426304A CN 114841368 B CN114841368 B CN 114841368B
Authority
CN
China
Prior art keywords
client
training
unstable
selection
local
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210426304.9A
Other languages
English (en)
Other versions
CN114841368A (zh
Inventor
林伟伟
石方
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN202210426304.9A priority Critical patent/CN114841368B/zh
Publication of CN114841368A publication Critical patent/CN114841368A/zh
Application granted granted Critical
Publication of CN114841368B publication Critical patent/CN114841368B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种面向不稳定联邦学习场景的客户端选择优化方法及装置,方法包括下述步骤:分析不稳定联邦学习的不稳定因素,所述不稳定因素包括客户端集合、客户端本地数据和客户端本地训练状态;建模客户端集合、客户端本地数据和客户端本地训练状态对模型训练性能的影响;建模客户端选择问题,即建模不稳定客户端集合、不稳定客户端本地数据和不稳定客户端本地训练状态对客户端选择的影响;提出一种基于上界置信区间和贪婪选择的客户端选择方法,选择最优的客户端组合。本发明能够有效适应学习环境的不稳定性,同时加速模型的收敛速度、提升模型的训练效果。

Description

面向不稳定联邦学习场景的客户端选择优化方法及装置
技术领域
本发明属于面向移动边缘计算和分布式学习的技术领域,具体涉及一种面向不稳定联邦学习场景的客户端选择优化方法及装置。
背景技术
随着大数据的发展,数据的重要性愈发突显,数据的隐私问题更是受到了广泛关注。例如,欧盟通过颁布通用数据保护条例来规范对移动用户的隐私侵犯行为。在数据安全愈发受到重视的今天,获取可靠和真实的训练数据成为了一项更具挑战性的任务。因此,面对这种安全性要求极高的背景,一种保护隐私的机器学习范式–联邦学习(FederatedLearning,FL)应运而生。在FL中,客户端(例如手机、个人笔记本电脑等)保存的训练数据不需要离开数据源并上传到集中实体进行模型训练,仅需要利用本地数据在本地设备上训练完后将训练后的模型上传给服务器。将潜在的数据安全问题减少到最低限度,从而减少数据所有者对数据共享的抵触性。鉴于其数据安全性和可扩展性强的特性,联邦学习已被成功应用于智慧医疗,AI移动应用,智慧城市等领域。
相较于传统的分布式机器学习,联邦学习主要部署在网络边缘,是由边缘设备(如手机)承担训练和传输工作,而由于边缘设备的异构性和数据的异构性,不同设备的训练性能和训练结果可能存在巨大差距。因此客户端(参与节点)的选择问题已成为了目前工业界和学术界的广泛关注和重点研究的问题之一。虽然目前已有的研究结合客户端的选择有效提升了模型的训练性能,但其研究的场景都是基于固定的联邦学习场景,即所有的客户端、客户端的本地数据、客户端的训练状态都是稳定不变的。而在实际场景中,由于客户端的移动性、客户端资源的有限性、网络的不稳定性以及学习环境的动态性等原因,联邦学习所包含的客户端集合、客户端的本地数据以及客户端的训练状态在不同时刻都具有一定的差异性。因此考虑以上动态因素对客户端选择和模型训练性能的影响十分重要。
发明内容
本发明的主要目的在于克服现有技术的缺点与不足,提供一种面向不稳定联邦学习场景的客户端选择优化方法及装置,既能够减少模型训练时间又能够提升模型训练结果的动态客户端选择方法。
为了达到上述目的,本发明采用以下技术方案:
本发明一方面提供了一种面向不稳定联邦学习场景的客户端选择优化方法,包括下述步骤:
S1、分析不稳定联邦学习的不稳定因素,所述不稳定因素包括客户端集合、客户端本地数据和客户端本地训练状态;
S2、建模客户端集合、客户端本地数据和客户端本地训练状态对模型训练性能的影响;
S3、建模客户端选择问题,即建模不稳定客户端集合、不稳定客户端本地数据和不稳定客户端本地训练状态对客户端选择的影响;
S4、提出一种基于上界置信区间和贪婪选择的客户端选择方法,选择最优的客户端组合,所述基于上界置信区间和贪婪选择的客户端选择方法,包括下述步骤:
S41、初始化:将目前所包含的客户端分为两个集合,Ke表示本轮开始之前已经被选择过至少一次的客户端集合,Kne表示目前为止一次都没有被选择过的客户端集合,所述客户端集合包括新进入的客户端;
S42、判断客户端是否已被选择过,若客户端一次都没被选择过,则将客户端加入应选择的客户端集合中;若客户端已经被选择过了,则计算客户端的上界置信值并将上界置信值较高的客户端加入应选择的客户端集合中;
S43、服务器将模型发送给选择的客户端,被选择的客户端利用自己的本地数据训练模型并将训练完的模型发送给服务器,服务器对客户端上传的模型参数进行整合更新;
S44、判断是否达到结束训练的条件,如果达到结束条件则退出训练,反之,则从初始化开始重复上述操作。
作为优选的技术方案,步骤S2具体为:
将客户端集合、客户端本地数据和客户端本地训练状态对模型训练性能的影响建模为:
其中,t∈τ=[1,...,T]表示执行第t次模型训练,T表示总的训练次数;At表示在第t轮训练中选择的客户端集合;K(t)表示在第t次训练时所有的客户端集合;表示客户端k在第t轮训练时权重所占的比例;E[·]表示期望;f(·)表示本地损失函数;表示客户端k在第t次训练时的本地数据集合;/>表示客户端k的数据分布;wt表示第t次训练时的全局模型参数;xk,t表示客户端的训练状态,若客户端成功完成本地训练xk,t=1,反之则为0;o1表示本地更新操作,在该过程中,应用标准的FedAvg和典型的随机梯度下降,具体的更新方式为/>注意,每轮的局部权重wk,t可能因为客户端本地训练失败而无法获得,且如果训练失败,客户端k的局部权重仍然是wk,t=wk,t-1;o2表示模型整合操作,采用权重平均对模型进行整合,但是由于部分客户端有可能在本地训练中失败,因此服务器仅能整合成功训练完的客户端,即/>
作为优选的技术方案,步骤S3中,建模客户端选择问题,具体为:
其中,表示客户端k在所选客户端集合中的权重,用于衡量客户端数据之间的冗余;/>表示客户端k在At中的索引,其中选中的客户端按照数据大小降序排列,较小的/>表示客户端k上的数据量较大;相反,/>越大,表示数据越少,客户数据排名靠前的冗余可能性越大;πt(k)表示客户端k在第t轮训练中被成功用于训练的数据大小。
作为优选的技术方案,通过量化客户端数据和资源异构性对不稳定联邦学习场景的影响,提出客户端的有效参与数据衡量客户端的性能,并提出累积有效参与数据用于衡量三种不稳定因素对整体性能的影响。
作为优选的技术方案,客户端的选择优化问题是一个次模函数的优化问题,并将其转为
其中,
作为优选的技术方案,步骤S4中,所述客户端性能的上界置信值定义:
其中,表示客户端k在第t-1次训练时得到的经验平均值,/>是围绕经验平均值/>的置信上限。
作为优选的技术方案,步骤S4中,每轮训练贪婪地选择上界置信值较高的客户端,因此在每轮训练中,最优的客户端集合可以表示为:
作为优选的技术方案,步骤S4中,所述客户端的遗憾的上限值为:
本发明另一方面提供了一种面向不稳定联邦学习场景的客户端选择优化系统,包括不稳定因素分析模块、第一建模模块、第二建模模块和客户端选择模块;
所述不稳定因素分析模块,用于分析不稳定联邦学习的不稳定因素,所述不稳定因素包括客户端集合、客户端本地数据和客户端本地训练状态;
所述第一建模模块,用于建模客户端集合、客户端本地数据和客户端本地训练状态对模型训练性能的影响;
所述第二建模模块,用于建模客户端选择问题,即建模不稳定客户端集合、不稳定客户端本地数据和不稳定客户端本地训练状态对客户端选择的影响;
所述客户端选择模块,用于提出一种基于上界置信区间和贪婪选择的客户端选择方法,选择最优的客户端组合,所述基于上界置信区间和贪婪选择的客户端选择方法,包括下述步骤:
初始化:将目前所包含的客户端分为两个集合,Ke表示本轮开始之前已经被选择过至少一次的客户端集合,Kne表示目前为止一次都没有被选择过的客户端集合,所述客户端集合包括新进入的客户端;
判断客户端是否已被选择过,若客户端一次都没被选择过,则将客户端加入应选择的客户端集合中;若客户端已经被选择过了,则计算客户端的上界置信值并将上界置信值较高的客户端加入应选择的客户端集合中;
服务器将模型发送给选择的客户端,被选择的客户端利用自己的本地数据训练模型并将训练完的模型发送给服务器,服务器对客户端上传的模型参数进行整合更新;
判断是否达到结束训练的条件,如果达到结束条件则退出训练,反之,则从初始化开始重复上述操作。
本发明又一方面提供了一种计算机可读存储介质,存储有程序,所述程序被处理器执行时,实现所述的面向不稳定联邦学习场景的客户端选择优化方法。
本发明与现有技术相比,具有如下优点和有益效果:
本发明提出一种面向不稳定联邦学习场景的客户端选择优化方法,从客户端集合的不稳定性、客户端数据的不稳定性以及训练状态的不稳定性三个方面详细讨论各不稳定因素对模型训练性能。通过量化客户端数据和资源异构性对不稳定联邦学习场景的影响提出客户端的选择优化问题,并提出一种基于上界置信区间和贪婪选择的客户端选择方法以选择出最优的客户端集合最大化模型的训练性能。
本发明通过在线评估客户端的性能,可以时刻捕捉不稳定因素对客户端选择的影响,同时最大程度地降低不稳定因素对FL模型训练性能地影响。另外本发明所设计地客户端选择方法适用于所有的联邦学习场景,具有较强的普适性。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例面向不稳定联邦学习场景的客户端选择优化方法的流程图;
图2为本发明实施例不同选择方法实现的客户端成功参与率示意图;
图3为本发明实施例不同选择方法实现的累积有效参与数据示意图;
图4为本发明实施例不同选择方法实现的训练性能示意图;
图5为本发明实施例面向不稳定联邦学习场景的客户端选择优化系统的结构图;
图6为本发明实施例计算机可读存储介质的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
在本申请中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本申请所描述的实施例可以与其它实施例相结合。
如图1所示,本实施例提供的一种面向不稳定联邦学习场景的客户端选择优化方法,包括下述步骤:
步骤1:将训练过程表示为t∈τ=[1,...,T],第t次训练时客户端的集合表示为K(t),每轮需要选择的客户端数量为mt=C|K(t)|(C表示选择比例),第t次训练时被选客户端的集合表示为At,任意一个客户端表示为k。确定不稳定因素主要包括客户端集合K(t)、客户端本地数据和客户端本地训练状态xk,t
可以理解的是,在模型训练的过程中,可能会有新的客户端愿意加入全局模型训练,从而导致客户端集合的不稳定性。其次,对于同一个客户端,其本地数据在不同时间段可能具有差异性。比如智能音箱在白天时,其收集的本地数据会持续增加,但是在晚上,其数据变化几乎很小。因此,在不同的时刻,客户端的数据也具有一定的差异性、不稳定性。最后,对于客户端在不同时刻的训练状态,由于客户端资源的有限性、移动性以及网络的不稳定性等因素,其在不同时刻呈现了一定的差异。比如在某些时刻,如果突然手机没电就会导致客户端退出本地训练,从而导致客户端的本地训练也具有一定的不稳定性。
步骤2:建模K(t),Atxk,t对模型训练性能的影响,并将其建模为:
|At|=mtt∈τ
其中K(t)表示在第t次训练时所有的客户端集合;表示客户端k在第t轮训练时权重所占的比例;E[·]表示期望;f(·)表示本地损失函数;/>表示客户端k在第t次训练时的本地数据集合;/>表示客户端k的数据分布;wt表示第t次训练时的全局模型参数;xk,t表示客户端的训练状态,若客户端成功完成本地训练xk,t=1,反之则为0。但是对于服务器来说,其无法提前知道客户端的训练状态,因此在当轮结束之前xk,t的具体值对于服务器来说是未知的;o1表示本地更新操作,在该过程中,本发明应用标准的FedAvg和典型的随机梯度下降,具体的更新方式为/>注意,每轮的局部权重wk,t可能因为客户端本地训练失败而无法获得。且如果训练失败,客户端k的局部权重仍然是wk,t=wk,t-1。o2表示模型整合操作,本发明采用权重平均对模型进行整合。但是由于部分客户端有可能在本地训练中失败,因此服务器仅能整合成功训练完的客户端,即/>
步骤3:将全局问题分解为模型整合更新的优化问题(P1-SUB1)和客户端选择优化问题(P1-SUB2):
其中P1-SUB1是和标准FL一样的优化问题,其他研究者已经给出了具体的解决方案。然而子问题P1-SUB2仍然是不稳定联邦学习的未探索领域,因此本发明主要关注P1-SUB2客户端的选择优化问题。
步骤4:利用客户端的有效参与数据来衡量客户端的性能,其具体表达式为:
通过其表达式可以看出,其主要表示客户端k在第t轮训练中被成功用于训练的数据大小,其中所有的客户端的数据都被归一化为[0,1]。
步骤5:提出累积有效参与数据,并将其定义为:在整体训练过程中被成功用于全局模型训练的数据,即:
其中表示客户端k在所选客户端集合中的权重,其主要用于衡量客户端数据之间的冗余;/>表示客户端k在At中的索引,其中选中的客户端按照数据大小降序排列。较小的/>意味着客户端k上的数据量较大;相反,/>越大,意味着数据越少,客户数据排名靠前的冗余可能性越大。
步骤6:将步骤3中的客户端选择优化问题P1-SUB2转化为以下最优化问题:
步骤7:由于该客户端选择优化问题是一个次模函数的优化问题,因此将优化问题P2进一步转化为:
其中因此在可以求出每轮的最优客户端集合为
根据前述步骤的特征,步骤6的难点在于:由于xk,t的值未知,客户端的有效参与数据πt(k)因此也未知。且由于该问题是一个NP问题,因此无法在有限时间内求出最优解。
步骤8:提出一种基于上界置信区间的算法探索客户端的性能。具体步骤为:
8.1)初始化:将目前所包含的客户端分为两个集合,Ke表示本轮开始之前已经被选择过至少一次的客户端集合,Kne表示目前为止一次都没有被选择过的客户端集合,其中包括新进入的客户端。
8.2)判断客户端是否已被选择过,若客户端一次都没被选择过,则将客户端加入应选择的客户端集合At中。若客户端已经被选择过了,则根据上界置信的区间的乐观估计,服务器计算出每个客户端的上界置信值并将上界置信值较高的客户端加入应选择的客户端集合At中。其中上界置信值/>的具体计算方式为:
其中表示客户端k在第t轮训练时的平均性能,,fk,t表示客户端k在第t轮训练结束后被选择的次数,
是围绕经验平均值的置信上限,当客户端被选择的次数越小/>的值越大,反之,/>的值越小。且随着客户端被选次数的增多,客户端的平均性能会越来越接近其期望性能。
步骤9:证明所提方法的遗憾值具有上限,从理论上证明其可行性。
其中K0表示初始的客户端数量。
本发明通过在线评估客户端的性能,可以时刻捕捉不稳定因素对客户端选择的影响,同时最大程度地降低不稳定因素对FL模型训练性能地影响。另外本发明所设计地客户端选择方法适用于所有的联邦学习场景,具有较强的普适性。
下面结合说明书附图2-4和具体实施例对本发明作进一步解释和说明。本发明所有实例均是在轻量级FL开源平台中进行模拟仿真。对于客户端集合的动态变化问题,本实施例假设初始的客户端数量K0=100,每轮可能有新的客户端加入训练,但是每轮加入的数量最多不超过K0/100。为对于客户端数据变化问题,本实施例假设每个客户端的数据大小服从归一化分布并将数据的大小设置为三个不同的等级,分别为和/>客户端的数据大小分布是其中的一个随机分布。为了仿真客户端的本地训练状态,本实施例采用伯努利分布表示为xk,t~Bern(ρk),其中ρk代表客户端k的成功率。此外,为了模拟客户端的资源异构性,本实施例将客户端的成功率设置为三个级别,分别为0.1、0.3和0.8,客户端的成功率为其中任意一个值。
在其中一个具体实施例中,考察不同选择方法实现的客户端成功参与率和累积有效参与数据之间的区别。
图2展示了本发明所提方法与随机选择方法所实现的客户端成功参与率的区别。其中,客户端的成功参与率计算方式为:
其中xk,t表示客户端k在第t次训练中的参与状态,mt表示第t次训练时客户端的选择数量。如图2所示,由于客户端本地训练状态的不稳定性,客户端的成功参与率在不同时刻呈现上下浮动的趋势。但是就整体结果而言,本发明所提方法明显优于随机选择。
附图3展示了本发明所提方法与随机选择方法所实现的累积有效参与数据的区别。其中,客户端的累积有效参与数据计算方式为:
其中qk,t用于衡量客户端数据的冗余程度,πk,t表示客户端k在第t次训练中的有效参与数据。如图3所示,两种客户端选择方法所实现的累积有效参与数据都在随着训练次数的增加稳定增长,但是比较两种选择算法的增长趋势,本发明所提方法明显优于随机选择算法。在另一个实施例中,通过真实训练任务考察不同选择方法所实现的模型训练效果之间的区别
在该实例中,本实施例通过公共数据集CIFAR-10训练一个真实的任务模型。在该任务中,本实施例的目的是训练一个用于预测分类的卷积神经网络(ConvolutionalNeural Network,CNN)模型。该CNN模型的架构包括两个5x5的卷积层(每个具有64个通道),2x2的最大池化、两个分别具有384和192个单元的全连接层以及一个softmax输出层,其中模型的学习率为5×10-3,本地epoch数为5,batchsize为10。
在该实施例中,本实施例通过前述步骤最大化系统的累积有效参与数据。从附图4中的结果可以看出本发明所提的方法不管是在模型的收敛速度还是训练结果上面都优于随机选择方法,充分说明本发明所提方法可以有效适应不稳定联邦学习场景中的动态性,降低众多不稳定因素所带来的影响,进而提升模型的训练效率。
需要说明的是,对于前述的各方法实施例,为了简便描述,将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其它顺序或者同时进行。
基于与上述实施例中的面向不稳定联邦学习场景的客户端选择优化方法相同的思想,本发明还提供了面向不稳定联邦学习场景的客户端选择优化系统,该系统可用于执行上述面向不稳定联邦学习场景的客户端选择优化方法。为了便于说明,面向不稳定联邦学习场景的客户端选择优化系统实施例的结构示意图中,仅仅示出了与本发明实施例相关的部分,本领域技术人员可以理解,图示结构并不构成对装置的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
请参阅图5,在本申请的另一个实施例中,提供了一种面向不稳定联邦学习场景的客户端选择优化系统100,该系统包括包括不稳定因素分析模块101、第一建模模块102、第二建模模块103和客户端选择模块104;
所述不稳定因素分析模块101,用于分析不稳定联邦学习的不稳定因素,所述不稳定因素包括客户端集合、客户端本地数据和客户端本地训练状态;
所述第一建模模块102,用于建模客户端集合、客户端本地数据和客户端本地训练状态对模型训练性能的影响;
所述第二建模模块103,用于建模客户端选择问题,即建模不稳定客户端集合、不稳定客户端本地数据和不稳定客户端本地训练状态对客户端选择的影响;
所述客户端选择模块104,用于提出一种基于上界置信区间和贪婪选择的客户端选择方法,选择最优的客户端组合,所述基于上界置信区间和贪婪选择的客户端选择方法,包括下述步骤:
初始化:将目前所包含的客户端分为两个集合,Ke表示本轮开始之前已经被选择过至少一次的客户端集合,Kne表示目前为止一次都没有被选择过的客户端集合,所述客户端集合包括新进入的客户端;
判断客户端是否已被选择过,若客户端一次都没被选择过,则将客户端加入应选择的客户端集合中;若客户端已经被选择过了,则计算客户端的上界置信值并将上界置信值较高的客户端加入应选择的客户端集合中;
服务器将模型发送给选择的客户端,被选择的客户端利用自己的本地数据训练模型并将训练完的模型发送给服务器,服务器对客户端上传的模型参数进行整合更新;
判断是否达到结束训练的条件,如果达到结束条件则退出训练,反之,则从初始化开始重复上述操作。
需要说明的是,本发明的面向不稳定联邦学习场景的客户端选择优化系统与本发明的面向不稳定联邦学习场景的客户端选择优化方法一一对应,在上述面向不稳定联邦学习场景的客户端选择优化方法的实施例阐述的技术特征及其有益效果均适用于面向不稳定联邦学习场景的客户端选择优化的实施例中,具体内容可参见本发明方法实施例中的叙述,此处不再赘述,特此声明。
此外,上述实施例的面向不稳定联邦学习场景的客户端选择优化系统的实施方式中,各程序模块的逻辑划分仅是举例说明,实际应用中可以根据需要,例如出于相应硬件的配置要求或者软件的实现的便利考虑,将上述功能分配由不同的程序模块完成,即将所述面向不稳定联邦学习场景的客户端选择优化系统的内部结构划分成不同的程序模块,以完成以上描述的全部或者部分功能。
请参阅图6,在一个实施例中,提供了一种算机可读存储介质,存储有程序,所述程序被处理器执行时,实现所述的面向不稳定联邦学习场景的客户端选择优化方法,具体为:
S1、分析不稳定联邦学习的不稳定因素,所述不稳定因素包括客户端集合、客户端本地数据和客户端本地训练状态;
S2、建模客户端集合、客户端本地数据和客户端本地训练状态对模型训练性能的影响;
S3、建模客户端选择问题,即建模不稳定客户端集合、不稳定客户端本地数据和不稳定客户端本地训练状态对客户端选择的影响;
S4、提出一种基于上界置信区间和贪婪选择的客户端选择方法,选择最优的客户端组合,所述基于上界置信区间和贪婪选择的客户端选择方法,包括下述步骤:
S41、初始化:将目前所包含的客户端分为两个集合,Ke表示本轮开始之前已经被选择过至少一次的客户端集合,Kne表示目前为止一次都没有被选择过的客户端集合,所述客户端集合包括新进入的客户端;
S42、判断客户端是否已被选择过,若客户端一次都没被选择过,则将客户端加入应选择的客户端集合中;若客户端已经被选择过了,则计算客户端的上界置信值并将上界置信值较高的客户端加入应选择的客户端集合中;
S43、服务器将模型发送给选择的客户端,被选择的客户端利用自己的本地数据训练模型并将训练完的模型发送给服务器,服务器对客户端上传的模型参数进行整合更新;
S44、判断是否达到结束训练的条件,如果达到结束条件则退出训练,反之,则从初始化开始重复上述操作。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (7)

1.面向不稳定联邦学习场景的客户端选择优化方法,其特征在于,包括下述步骤:
S1、分析不稳定联邦学习的不稳定因素,所述不稳定因素包括客户端集合、客户端本地数据和客户端本地训练状态;
S2、建模客户端集合、客户端本地数据和客户端本地训练状态对模型训练性能的影响;
S3、建模客户端选择问题,即建模不稳定客户端集合、不稳定客户端本地数据和不稳定客户端本地训练状态对客户端选择的影响;
S4、提出一种基于上界置信区间和贪婪选择的客户端选择方法,选择最优的客户端组合,所述基于上界置信区间和贪婪选择的客户端选择方法,包括下述步骤:
S41、初始化:将目前所包含的客户端分为两个集合,Ke表示本轮开始之前已经被选择过至少一次的客户端集合,Kne表示目前为止一次都没有被选择过的客户端集合,所述客户端集合包括新进入的客户端;
S42、判断客户端是否已被选择过,若客户端一次都没被选择过,则将客户端加入应选择的客户端集合中;若客户端已经被选择过了,则计算客户端的上界置信值并将上界置信值较高的客户端加入应选择的客户端集合中;
S43、服务器将模型发送给选择的客户端,被选择的客户端利用自己的本地数据训练模型并将训练完的模型发送给服务器,服务器对客户端上传的模型参数进行整合更新;
S44、判断是否达到结束训练的条件,如果达到结束条件则退出训练,反之,则从初始化开始重复上述操作;
步骤S2具体为:
将客户端集合、客户端本地数据和客户端本地训练状态对模型训练性能的影响建模为:
其中,t∈τ=[1,…,T]表示执行第t次模型训练,T表示总的训练次数;At表示在第t轮训练中选择的客户端集合;K(t)表示在第t次训练时所有的客户端集合;表示客户端k在第t轮训练时权重所占的比例;E[·]表示期望;f(·)表示本地损失函数;表示客户端k在第t次训练时的本地数据集合;/>表示客户端k的数据分布;wt表示第t次训练时的全局模型参数;xk,t表示客户端的训练状态,若客户端成功完成本地训练xk,t=1,反之则为0;o1表示本地更新操作,在该过程中,应用标准的FedAvg和典型的随机梯度下降,具体的更新方式为/>注意,每轮的局部权重wk,t可能因为客户端本地训练失败而无法获得,且如果训练失败,客户端k的局部权重仍然是wk,t=wk,t-1;o2表示模型整合操作,采用权重平均对模型进行整合,但是由于部分客户端有可能在本地训练中失败,因此服务器仅能整合成功训练完的客户端,即/>
步骤S3中,建模客户端选择问题,具体为:
其中,表示客户端k在所选客户端集合中的权重,用于衡量客户端数据之间的冗余;/>表示客户端k在At中的索引,其中选中的客户端按照数据大小降序排列,较小的/>表示客户端k上的数据量较大;相反,/>越大,表示数据越少,客户数据排名靠前的冗余可能性越大;πt(k)表示客户端k在第t轮训练中被成功用于训练的数据大小;
步骤S4中,所述客户端的遗憾的上限值为:
2.根据权利要求1所述面向不稳定联邦学习场景的客户端选择优化方法,其特征在于,通过量化客户端数据和资源异构性对不稳定联邦学习场景的影响,提出客户端的有效参与数据衡量客户端的性能,并提出累积有效参与数据用于衡量三种不稳定因素对整体性能的影响。
3.根据权利要求2所述面向不稳定联邦学习场景的客户端选择优化方法,其特征在于,客户端的选择优化问题是一个次模函数的优化问题,并将其转为
其中,
4.根据权利要求1所述面向不稳定联邦学习场景的客户端选择优化方法,其特征在于,步骤S4中,所述客户端性能的上界置信值定义:
其中,表示客户端k在第t-1次训练时得到的经验平均值,/>是围绕经验平均值/>的置信上限。
5.根据权利要求1所述面向不稳定联邦学习场景的客户端选择优化方法,其特征在于,步骤S4中,每轮训练贪婪地选择上界置信值较高的客户端,因此在每轮训练中,最优的客户端集合表示为:
6.面向不稳定联邦学习场景的客户端选择优化系统,应用于权利要求1-5中任一项所述面向不稳定联邦学习场景的客户端选择优化方法,其特征在于,包括不稳定因素分析模块、第一建模模块、第二建模模块和客户端选择模块;
所述不稳定因素分析模块,用于分析不稳定联邦学习的不稳定因素,所述不稳定因素包括客户端集合、客户端本地数据和客户端本地训练状态;
所述第一建模模块,用于建模客户端集合、客户端本地数据和客户端本地训练状态对模型训练性能的影响;
所述第二建模模块,用于建模客户端选择问题,即建模不稳定客户端集合、不稳定客户端本地数据和不稳定客户端本地训练状态对客户端选择的影响;
所述客户端选择模块,用于提出一种基于上界置信区间和贪婪选择的客户端选择方法,选择最优的客户端组合,所述基于上界置信区间和贪婪选择的客户端选择方法,包括下述步骤:
初始化:将目前所包含的客户端分为两个集合,Ke表示本轮开始之前已经被选择过至少一次的客户端集合,Kne表示目前为止一次都没有被选择过的客户端集合,所述客户端集合包括新进入的客户端;
判断客户端是否已被选择过,若客户端一次都没被选择过,则将客户端加入应选择的客户端集合中;若客户端已经被选择过了,则计算客户端的上界置信值并将上界置信值较高的客户端加入应选择的客户端集合中;
服务器将模型发送给选择的客户端,被选择的客户端利用自己的本地数据训练模型并将训练完的模型发送给服务器,服务器对客户端上传的模型参数进行整合更新;
判断是否达到结束训练的条件,如果达到结束条件则退出训练,反之,则从初始化开始重复上述操作。
7.一种计算机可读存储介质,存储有程序,其特征在于,所述程序被处理器执行时,实现权利要求1-5任一项所述的面向不稳定联邦学习场景的客户端选择优化方法。
CN202210426304.9A 2022-04-22 2022-04-22 面向不稳定联邦学习场景的客户端选择优化方法及装置 Active CN114841368B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210426304.9A CN114841368B (zh) 2022-04-22 2022-04-22 面向不稳定联邦学习场景的客户端选择优化方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210426304.9A CN114841368B (zh) 2022-04-22 2022-04-22 面向不稳定联邦学习场景的客户端选择优化方法及装置

Publications (2)

Publication Number Publication Date
CN114841368A CN114841368A (zh) 2022-08-02
CN114841368B true CN114841368B (zh) 2024-05-28

Family

ID=82565459

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210426304.9A Active CN114841368B (zh) 2022-04-22 2022-04-22 面向不稳定联邦学习场景的客户端选择优化方法及装置

Country Status (1)

Country Link
CN (1) CN114841368B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117130794B (zh) * 2023-10-27 2024-02-06 之江实验室 联邦学习的客户端选择方法、装置和计算机存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113378474A (zh) * 2021-06-28 2021-09-10 华南理工大学 一种基于贡献量的联邦学习客户机选择方法、系统及介质
WO2021219054A1 (zh) * 2020-04-29 2021-11-04 深圳前海微众银行股份有限公司 横向联邦学习系统优化方法、装置、设备及可读存储介质
CN113807544A (zh) * 2020-12-31 2021-12-17 京东科技控股股份有限公司 一种联邦学习模型的训练方法、装置及电子设备
CN114338628A (zh) * 2022-03-17 2022-04-12 军事科学院系统工程研究院网络信息研究所 一种基于联邦架构的嵌套元学习方法和系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021219054A1 (zh) * 2020-04-29 2021-11-04 深圳前海微众银行股份有限公司 横向联邦学习系统优化方法、装置、设备及可读存储介质
CN113807544A (zh) * 2020-12-31 2021-12-17 京东科技控股股份有限公司 一种联邦学习模型的训练方法、装置及电子设备
CN113378474A (zh) * 2021-06-28 2021-09-10 华南理工大学 一种基于贡献量的联邦学习客户机选择方法、系统及介质
CN114338628A (zh) * 2022-03-17 2022-04-12 军事科学院系统工程研究院网络信息研究所 一种基于联邦架构的嵌套元学习方法和系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
面向移动终端智能的自治学习系统;徐梦炜 等;软件学报;20201014(第10期);第28-42页 *

Also Published As

Publication number Publication date
CN114841368A (zh) 2022-08-02

Similar Documents

Publication Publication Date Title
CN113672865A (zh) 一种基于深度图高斯过程的交通流量预测方法
CN110889450B (zh) 超参数调优、模型构建方法和装置
CN114841368B (zh) 面向不稳定联邦学习场景的客户端选择优化方法及装置
CN112085157B (zh) 基于神经网络和树模型的疾病预测方法及其装置
CN116760122B (zh) 虚拟电厂资源管控方法、装置、计算机设备及存储介质
Conti et al. A model for the generation of social network graphs
CN114629654B (zh) 一种面向信任管理机制的双链区块链及其共识方法
CN115755954B (zh) 巡检路径规划方法、系统、计算机设备及存储介质
CN111598213A (zh) 网络训练方法、数据识别方法、装置、设备和介质
CN111667189A (zh) 一种基于一维卷积神经网络的建筑工程项目风险预测方法
CN112181659A (zh) 云仿真内存资源预测模型构建方法与内存资源预测方法
Xue et al. Improved differentiable architecture search with multi-stage progressive partial channel connections
CN111340396A (zh) 一种融媒体传播力评测方法
CN104462853B (zh) 用于电子病历特征提取的种群精英分布云协同均衡方法
CN117114053A (zh) 基于结构搜索和知识蒸馏的卷积神经网络模型压缩方法和装置
Gao et al. Short-term traffic flow prediction based on time-Space characteristics
CN116415732A (zh) 一种基于改进arnn的用户侧电力负荷数据处理方法
CN116205359A (zh) 一种日前电力负荷预测的方法、装置、终端和存储介质
CN114792187A (zh) 基于意愿和信任双重约束的群智感知团队招募方法及系统
CN113138838A (zh) 一种基于人工蜂群算法的虚拟机放置方法
CN117454133B (zh) 一种数据库参数配置方法及相关设备
CN110135747A (zh) 基于神经网络的流程定制方法
Tu et al. Multi-stage multi-criteria group decision making method based on hierarchical criteria interaction and trust rejection threshold under uncertain preference information
CN116070714B (zh) 基于联邦学习和神经架构搜索的云边协同训练方法及系统
CN117875764A (zh) 园区综合能源系统评估方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant