CN113094181A - 面向边缘设备的多任务联邦学习方法及装置 - Google Patents

面向边缘设备的多任务联邦学习方法及装置 Download PDF

Info

Publication number
CN113094181A
CN113094181A CN202110489298.7A CN202110489298A CN113094181A CN 113094181 A CN113094181 A CN 113094181A CN 202110489298 A CN202110489298 A CN 202110489298A CN 113094181 A CN113094181 A CN 113094181A
Authority
CN
China
Prior art keywords
model
learning
resource
task
scheduling strategy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110489298.7A
Other languages
English (en)
Inventor
唐玉维
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou Liandian Energy Development Co ltd
Original Assignee
Suzhou Liandian Energy Development Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou Liandian Energy Development Co ltd filed Critical Suzhou Liandian Energy Development Co ltd
Priority to CN202110489298.7A priority Critical patent/CN113094181A/zh
Publication of CN113094181A publication Critical patent/CN113094181A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5072Grid computing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/5044Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering hardware capabilities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/502Proximity

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computational Mathematics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Algebra (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Complex Calculations (AREA)

Abstract

本申请涉及一种面向边缘设备的多任务联邦学习方法及装置,属于计算机技术领域,该方法包括:在至少两个学习任务创建完成后,向多个边缘设备发送资源查询请求;根据资源查询请求查询到的资源信息和贝叶斯优化算法确定多个边缘设备的资源调度策略;按照资源调度策略为多个边缘设备分配学习任务;对于每个学习任务对应的全局模型,获取学习任务对应的各个边缘设备上传的模型参数;基于模型参数确定全局模型的最终模型参数;可以解决存在多个学习任务时,无法合理调度设备资源,导致联邦学习效率不高的问题;通过使得提交的至少两个学习任务的完成时长之和最小,也即使多个学习任务能尽可能快速地收敛,可以提高多任务学习的效率。

Description

面向边缘设备的多任务联邦学习方法及装置
【技术领域】
本申请涉及一种面向边缘设备的多任务联邦学习方法及装置,属于计算机技术领域。
【背景技术】
联邦学习(Federated Learning)是一种机器学习框架,其设计目标是在保障大数据交换时的信息安全、保护终端数据和个人数据隐私、保证合法合规的前提下,在多参与方或多计算结点之间开展高效率的机器学习。其中,联邦学习可使用的机器学习算法不局限于神经网络,还包括随机森林等重要算法。
当联邦学习过程存在多个机器学习任务时,如果同一时间只能运行一个学习任务,任务与任务之间不能并行,会增加任务的等待时间且效率极低。因此,在并行运行多个机器学习任务时,如何合理高效地调度设备资源,使得所有任务达到所需性能的效率最高是亟待解决的问题。
【发明内容】
本申请提供了一种面向边缘设备的多任务联邦学习方法及装置,可以解决存在多个学习任务时,无法合理调度设备资源,导致联邦学习效率不高的问题。本申请提供如下技术方案:
第一方面,提供一种面向边缘设备的多任务联邦学习方法,所述方法包括:
在至少两个学习任务创建完成后,向多个边缘设备发送资源查询请求;所述资源查询请求用于请求所述边缘设备返回资源信息;每个学习任务用于指示对一个全局模型进行训练;
根据所述资源信息和贝叶斯优化算法确定所述多个边缘设备的资源调度策略;所述资源调度策略用于使所述多个边缘设备完成所述至少两个学习任务后,消耗的通信时长和计算时长之和最小;
按照所述资源调度策略为所述多个边缘设备分配学习任务,以使每个边缘设备获取所述学习任务对应的全局模型,使用本地数据对所述全局模型进行训练,并将训练后的模型参数上传;每个学习任务对应至少一个边缘设备;
对于每个学习任务对应的全局模型,获取所述学习任务对应的各个边缘设备上传的模型参数;
基于所述模型参数确定所述全局模型的最终模型参数。
可选地,所述贝叶斯优化算法包括概率代理模型和采集函数;所述根据所述资源信息和贝叶斯优化算法确定所述多个边缘设备的资源调度策略,包括:
初始化随机选择t0个初始调度策略,并根据所述资源信息计算每个初始调度策略的目标函数值,得到已观测数据集
Figure BDA0003051542820000021
所述目标函数值为所述至少两个学习任务训练一轮的时长之和;
将所述t0个初始调度策略和每个初始调度策略对应的时长之和输入所述概率代理模型,得到目标函数的后验概率分布,所述后验概率分布用于描述通过所述已观测数据集对先验进行修正后所述目标函数的置信度;
在所述置信度大于置信度阈值时,通过最大化所述采集函数查找下一个调度策略;根据所述下一个调度策略评估目标函数值;使用所述下一个调度策略和所述目标函数值更新所述已观测数据集;使用更新后的已观测数据集更新所述概率代理模型,得到更新后的置信度;
在所述更新后置信度大于所述置信度阈值时,触发执行所述通过最大化所述采集函数查找下一个调度策略;根据所述下一个调度策略评估目标函数值;使用所述下一个调度策略和所述目标函数值更新所述已观测数据集;使用更新后的已观测数据集更新所述概率代理模型,得到更新后的置信度的步骤;
在所述更新后置信度小于或等于置信度阈值时,确定所述更新后置信度对应的调度策略为所述资源调度策略。
可选地,所述概率代理模型为高斯过程,所述采集函数为基于增益期望EI策略的函数。
可选地,所述目标函数通过下式表示:
Figure BDA0003051542820000031
Figure BDA0003051542820000032
其中,κ={1,2,...,K}表示边缘设备的设备集合,J表示所述至少两个学习任务的任务总数,sj表示第r轮训练所选择的设备集合,R表示学习任务j的全局模型需要训练的轮数;
Figure BDA0003051542820000033
表示单个边缘设备一轮所需的训练时长为通信时长与计算时长的和,
Figure BDA0003051542820000034
表示学习任务j完成一轮训练所需的时长。
可选地,所述通过最大化所述采集函数查找下一个调度策略xt通过下式表示:
xt=argmaxx u(x|D1:t-1)
其中,D1:t-1表示所述已观测数据集;u(*)表示采集函数。
可选地,所述在至少两个学习任务创建完成后,向多个边缘设备发送资源查询请求之前,还包括:
为每个学习任务创建一个通用模型,得到至少两个学习任务对应的全局模型;
或者,
为每个学习任务创建一个通用模型,并使用公共数据对所述通用模型进行预训练,得到至少两个学习任务对应的全局模型。
可选地,所述基于所述模型参数确定所述全局模型的最终模型参数,包括:
对所述模型参数进行平均,得到新的全局模型;
确定所述新的全局模型的模型性能是否达到期望模型性能;
在所述新的全局模型的模型性能未达到所述期望模型性能时,再次执行所述根据所述资源信息和贝叶斯优化算法确定所述多个边缘设备的资源调度策略的步骤;
在所述新的全局模型的模型性能达到所述期望模型性能时,将所述新的全局模型确定为最终的全局模型,所述最终的全局模型的模型参数为最终模型参数。
第二方面,提供一种面向边缘设备的多任务联邦学习装置,所述装置包括:
资源查询模块,用于在至少两个学习任务创建完成后,向多个边缘设备发送资源查询请求;所述资源查询请求用于请求所述边缘设备返回资源信息;每个学习任务用于指示对一个全局模型进行训练;
策略确定模块,用于根据所述资源信息和贝叶斯优化算法确定所述多个边缘设备的资源调度策略;所述资源调度策略用于使所述多个边缘设备完成所述至少两个学习任务后,消耗的通信时长和计算时长之和最小;
任务分配模块,用于按照所述资源调度策略为所述多个边缘设备分配学习任务,以使每个边缘设备获取所述学习任务对应的全局模型,使用本地数据对所述全局模型进行训练,并将训练后的模型参数上传;每个学习任务对应至少一个边缘设备;
参数获取模块,用于对于每个学习任务对应的全局模型,获取所述学习任务对应的各个边缘设备上传的模型参数;
模型确定模块,用于基于所述模型参数确定所述全局模型的最终模型参数。
可选地,所述贝叶斯优化算法包括概率代理模型和采集函数;所述策略确定模块,用于:
初始化随机选择t0个初始调度策略,并根据所述资源信息计算每个初始调度策略的目标函数值,得到已观测数据集
Figure BDA0003051542820000041
所述目标函数值为所述至少两个学习任务训练一轮的时长之和;
将所述t0个初始调度策略和每个初始调度策略对应的时长之和输入所述概率代理模型,得到目标函数的后验概率分布,所述后验概率分布用于描述通过所述已观测数据集对先验进行修正后所述目标函数的置信度;
在所述置信度大于置信度阈值时,通过最大化所述采集函数查找下一个调度策略;根据所述下一个调度策略评估目标函数值;使用所述下一个调度策略和所述目标函数值更新所述已观测数据集;使用更新后的已观测数据集更新所述概率代理模型,得到更新后的置信度;
在所述更新后置信度大于所述置信度阈值时,触发执行所述通过最大化所述采集函数查找下一个调度策略;根据所述下一个调度策略评估目标函数值;使用所述下一个调度策略和所述目标函数值更新所述已观测数据集;使用更新后的已观测数据集更新所述概率代理模型,得到更新后的置信度的步骤;
在所述更新后置信度小于或等于置信度阈值时,确定所述更新后置信度对应的调度策略为所述资源调度策略。
可选地,所述目标函数通过下式表示:
Figure BDA0003051542820000051
Figure BDA0003051542820000052
其中,κ={1,2,...,K}表示边缘设备的设备集合,J表示所述至少两个学习任务的任务总数,sj表示第r轮训练所选择的设备集合,R表示学习任务j的全局模型需要训练的轮数;
Figure BDA0003051542820000053
表示单个边缘设备一轮所需的训练时长为通信时长与计算时长的和,
Figure BDA0003051542820000054
表示学习任务j完成一轮训练所需的时长。
本申请的有益效果在于:通过在至少两个学习任务创建完成后,向多个边缘设备发送资源查询请求;根据资源查询请求查询到的资源信息和贝叶斯优化算法确定多个边缘设备的资源调度策略;按照资源调度策略为多个边缘设备分配学习任务;对于每个学习任务对应的全局模型,获取学习任务对应的各个边缘设备上传的模型参数;基于模型参数确定全局模型的最终模型参数;可以解决存在多个学习任务时,无法合理调度设备资源,导致联邦学习效率不高的问题;通过使得提交的至少两个学习任务的完成时长之和最小,也即使多个学习任务能尽可能快速地收敛,可以提高多任务学习的效率。
另外,由于完成时长包括计算时长和通信时长,因此,本申请中结合计算时长和通信时长来计算训练效率,可以进一步提高确定调度策略的准确性,从而提高训练效率。
上述说明仅是本申请技术方案的概述,为了能够更清楚了解本申请的技术手段,并可依照说明书的内容予以实施,以下以本申请的较佳实施例并配合附图详细说明如后。
【附图说明】
图1是本申请一个实施例提供的面向边缘设备的多任务联邦学习方法的流程图;
图2是本申请一个实施例提供的面向边缘设备的多任务联邦学习装置的框图。
【具体实施方式】
下面结合附图和实施例,对本申请的具体实施方式作进一步详细描述。以下实施例用于说明本申请,但不用来限制本申请的范围。
本申请提供的面向边缘设备的多任务联邦学习方法,主要对提交的多个学习任务的训练效率进行优化,使得提交的J个学习任务的完成时长之和最小,也即使多个学习任务能尽可能快速地收敛。J为大于1的整数。
另外,由于完成时长包括计算时长和通信时长,因此,本申请中结合计算时长和通信时长来计算训练效率,可以进一步提高确定调度策略的准确性,从而提高训练效率。
下面对本申请提供的面向边缘设备的多任务联邦学习方法进行详细介绍。
可选地,本申请以各个实施例的执行主体为具有计算能力的电子设备为例进行说明,该电子设备可以为终端或服务器,该终端可以为计算机、笔记本电脑、平板电脑等,本实施例不对终端的类型和电子设备的类型作限定。电子设备与多个边缘设备通信相连,从而可以与边缘设备之间进行通信,比如:为边缘设备分配学习任务,向边缘设备发送全局模型等。
图1是本申请一个实施例提供的面向边缘设备的多任务联邦学习方法的流程图。该方法至少包括以下几个步骤:
步骤101,在至少两个学习任务创建完成后,向多个边缘设备发送资源查询请求;资源查询请求用于请求边缘设备返回资源信息;每个学习任务用于指示对一个全局模型进行训练。
本实施例中,电子设备预先创建至少两个学习任务。其中,创建至少两个学习任务,包括:为每个学习任务创建一个通用模型,得到至少两个学习任务对应的全局模型;或者,为每个学习任务创建一个通用模型,并使用公共数据对通用模型进行预训练,得到至少两个学习任务对应的全局模型。
可选地,资源信息包括但不限于:计算资源占用情况、通信方式和带宽占用情况。
步骤102,根据资源信息和贝叶斯优化算法确定多个边缘设备的资源调度策略;该资源调度策略用于使多个边缘设备完成至少两个学习任务后,消耗的通信时长和计算时长之和最小。
本实施例中,目标函数通过下式表示:
Figure BDA0003051542820000071
Figure BDA0003051542820000072
其中,κ={1,2,...,K}表示边缘设备的设备集合,J表示至少两个学习任务的任务总数,sj表示第r轮训练所选择的设备集合,R表示学习任务j的全局模型需要训练的轮数;
Figure BDA0003051542820000073
表示单个边缘设备一轮所需的训练时长为通信时长与计算时长的和,
Figure BDA0003051542820000074
表示学习任务j完成一轮训练所需的时长。
本实施例中,电子设备进行资源调度策略的核心则是贝叶斯优化,使如上优化目标最小即总任务时长最小。贝叶斯优化是适用于黑盒目标函数的优化,适合于求解非凸、未知并且评估代价高昂的复杂优化问题。主要思想是:将当前所有任务训练一轮的时长之和、和资源调度方案作为概率代理模型的输入,然后优化概率代理模型,更新置信区间;然后采集函数再根据置信区间主动选择下一个调度策略。调度策略所需的运行时间是服务器通过边缘的资源信息和当前学习任务的进度估算得到的。之后,再将新的调度策略和此调度策略下所有学习任务运行完一轮的时间之和作为输入,重复上述过程直到当前所有学习任务运行完一轮的时间之和的置信区间足够小。
贝叶斯优化算法包括概率代理模型和采集函数。
概率代理模型用于代理目标函数,从假设先验开始,通过迭代地增加信息量、修正先验,从而得到更加准确的代理模型。本实施例中,以概率代理模型为高斯过程为例进行说明。
采集函数是在贝叶斯优化中选择下一个评估点的主动策略,采集函数用于从输入空间、观测空间和超参数空间映射到实数空间。采集函数由已观测数据集得到的后验分布构造,并通过对其最大化指导选择下一个平谷店。本实施例中,采集函数为基于增益期望EI策略的函数为例进行说明。
具体地,根据资源信息和贝叶斯优化算法确定多个边缘设备的资源调度策略,包括以下几个步骤:
步骤1,初始化随机选择t0个初始调度策略,并根据资源信息计算每个初始调度策略的目标函数值,得到已观测数据集
Figure BDA0003051542820000082
该目标函数值为至少两个学习任务训练一轮的时长之和。
假设随机选择t0个评估点来评估目标函数,得到观测数据集
Figure BDA0003051542820000081
步骤2,将t0个初始调度策略和每个初始调度策略对应的时长之和输入概率代理模型,得到目标函数的后验概率分布,该后验概率分布用于描述通过已观测数据集对先验进行修正后目标函数的置信度。
步骤3,在置信度大于置信度阈值时,通过最大化采集函数查找下一个调度策略;根据下一个调度策略评估目标函数值;使用下一个调度策略和目标函数值更新已观测数据集;使用更新后的已观测数据集更新概率代理模型,得到更新后的置信度。
通过最大化采集函数查找下一个调度策略xt通过下式表示:
xt=argmaxx u(x|D1:t-1)
其中,D1:t-1表示已观测数据集;u(*)表示采集函数。
步骤4,在更新后置信度大于置信度阈值时,触发执行步骤3;
步骤5,在更新后置信度小于或等于置信度阈值时,确定更新后置信度对应的调度策略为资源调度策略。
步骤103,按照资源调度策略为多个边缘设备分配学习任务,以使每个边缘设备获取学习任务对应的全局模型,使用本地数据对全局模型进行训练,并将训练后的模型参数上传;每个学习任务对应至少一个边缘设备。
可选地,被选择的边缘设备使用本地数据训练从电子设备下载的全局模型,训练完成以后则将更新后的全局模型参数上传给服务器。
步骤104,对于每个学习任务对应的全局模型,获取学习任务对应的各个边缘设备上传的模型参数。
步骤105,基于模型参数确定全局模型的最终模型参数。
基于模型参数确定全局模型的最终模型参数,包括:对模型参数进行平均,得到新的全局模型;确定新的全局模型的模型性能是否达到期望模型性能;在新的全局模型的模型性能未达到期望模型性能时,再次执行步骤102;在新的全局模型的模型性能达到期望模型性能时,将新的全局模型确定为最终的全局模型,最终的全局模型的模型参数为最终模型参数。
综上所述,本实施例提供的面向边缘设备的多任务联邦学习方法,通过在至少两个学习任务创建完成后,向多个边缘设备发送资源查询请求;根据资源查询请求查询到的资源信息和贝叶斯优化算法确定多个边缘设备的资源调度策略;按照资源调度策略为多个边缘设备分配学习任务;对于每个学习任务对应的全局模型,获取学习任务对应的各个边缘设备上传的模型参数;基于模型参数确定全局模型的最终模型参数;可以解决存在多个学习任务时,无法合理调度设备资源,导致联邦学习效率不高的问题;通过使得提交的至少两个学习任务的完成时长之和最小,也即使多个学习任务能尽可能快速地收敛,可以提高多任务学习的效率。
另外,由于完成时长包括计算时长和通信时长,因此,本申请中结合计算时长和通信时长来计算训练效率,可以进一步提高确定调度策略的准确性,从而提高训练效率。
图2是本申请一个实施例提供的面向边缘设备的多任务联邦学习装置的框图。该装置至少包括以下几个模块:资源查询模块210、策略确定模块220、任务分配模块230、参数获取模块240和模型确定模块250。
资源查询模块210,用于在至少两个学习任务创建完成后,向多个边缘设备发送资源查询请求;所述资源查询请求用于请求所述边缘设备返回资源信息;每个学习任务用于指示对一个全局模型进行训练;
策略确定模块220,用于根据所述资源信息和贝叶斯优化算法确定所述多个边缘设备的资源调度策略;所述资源调度策略用于使所述多个边缘设备完成所述至少两个学习任务后,消耗的通信时长和计算时长之和最小;
任务分配模块230,用于按照所述资源调度策略为所述多个边缘设备分配学习任务,以使每个边缘设备获取所述学习任务对应的全局模型,使用本地数据对所述全局模型进行训练,并将训练后的模型参数上传;每个学习任务对应至少一个边缘设备;
参数获取模块240,用于对于每个学习任务对应的全局模型,获取所述学习任务对应的各个边缘设备上传的模型参数;
模型确定模块250,用于基于所述模型参数确定所述全局模型的最终模型参数。
可选地,所述贝叶斯优化算法包括概率代理模型和采集函数;所述策略确定模块220,用于:
初始化随机选择t0个初始调度策略,并根据所述资源信息计算每个初始调度策略的目标函数值,得到已观测数据集
Figure BDA0003051542820000101
所述目标函数值为所述至少两个学习任务训练一轮的时长之和;
将所述t0个初始调度策略和每个初始调度策略对应的时长之和输入所述概率代理模型,得到目标函数的后验概率分布,所述后验概率分布用于描述通过所述已观测数据集对先验进行修正后所述目标函数的置信度;
在所述置信度大于置信度阈值时,通过最大化所述采集函数查找下一个调度策略;根据所述下一个调度策略评估目标函数值;使用所述下一个调度策略和所述目标函数值更新所述已观测数据集;使用更新后的已观测数据集更新所述概率代理模型,得到更新后的置信度;
在所述更新后置信度大于所述置信度阈值时,触发执行所述通过最大化所述采集函数查找下一个调度策略;根据所述下一个调度策略评估目标函数值;使用所述下一个调度策略和所述目标函数值更新所述已观测数据集;使用更新后的已观测数据集更新所述概率代理模型,得到更新后的置信度的步骤;
在所述更新后置信度小于或等于置信度阈值时,确定所述更新后置信度对应的调度策略为所述资源调度策略。
可选地,所述目标函数通过下式表示:
Figure BDA0003051542820000111
Figure BDA0003051542820000112
其中,κ={1,2,...,K}表示边缘设备的设备集合,J表示所述至少两个学习任务的任务总数,sj表示第r轮训练所选择的设备集合,R表示学习任务j的全局模型需要训练的轮数;
Figure BDA0003051542820000113
表示单个边缘设备一轮所需的训练时长为通信时长与计算时长的和,
Figure BDA0003051542820000114
表示学习任务j完成一轮训练所需的时长。
相关细节参考上述方法实施例。
需要说明的是:上述实施例中提供的面向边缘设备的多任务联邦学习装置在进行面向边缘设备的多任务联邦学习时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将面向边缘设备的多任务联邦学习装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的面向边缘设备的多任务联邦学习装置与面向边缘设备的多任务联邦学习方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
可选地,本申请还提供有一种计算机可读存储介质,所述计算机可读存储介质中存储有程序,所述程序由处理器加载并执行以实现上述方法实施例的面向边缘设备的多任务联邦学习方法。
可选地,本申请还提供有一种计算机产品,该计算机产品包括计算机可读存储介质,所述计算机可读存储介质中存储有程序,所述程序由处理器加载并执行以实现上述方法实施例的面向边缘设备的多任务联邦学习方法。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
上述仅为本申请的一个具体实施方式,其它基于本申请构思的前提下做出的任何改进都视为本申请的保护范围。

Claims (10)

1.一种面向边缘设备的多任务联邦学习方法,其特征在于,所述方法包括:
在至少两个学习任务创建完成后,向多个边缘设备发送资源查询请求;所述资源查询请求用于请求所述边缘设备返回资源信息;每个学习任务用于指示对一个全局模型进行训练;
根据所述资源信息和贝叶斯优化算法确定所述多个边缘设备的资源调度策略;所述资源调度策略用于使所述多个边缘设备完成所述至少两个学习任务后,消耗的通信时长和计算时长之和最小;
按照所述资源调度策略为所述多个边缘设备分配学习任务,以使每个边缘设备获取所述学习任务对应的全局模型,使用本地数据对所述全局模型进行训练,并将训练后的模型参数上传;每个学习任务对应至少一个边缘设备;
对于每个学习任务对应的全局模型,获取所述学习任务对应的各个边缘设备上传的模型参数;
基于所述模型参数确定所述全局模型的最终模型参数。
2.根据权利要求1所述的方法,其特征在于,所述贝叶斯优化算法包括概率代理模型和采集函数;所述根据所述资源信息和贝叶斯优化算法确定所述多个边缘设备的资源调度策略,包括:
初始化随机选择t0个初始调度策略,并根据所述资源信息计算每个初始调度策略的目标函数值,得到已观测数据集
Figure FDA0003051542810000011
所述目标函数值为所述至少两个学习任务训练一轮的时长之和;
将所述t0个初始调度策略和每个初始调度策略对应的时长之和输入所述概率代理模型,得到目标函数的后验概率分布,所述后验概率分布用于描述通过所述已观测数据集对先验进行修正后所述目标函数的置信度;
在所述置信度大于置信度阈值时,通过最大化所述采集函数查找下一个调度策略;根据所述下一个调度策略评估目标函数值;使用所述下一个调度策略和所述目标函数值更新所述已观测数据集;使用更新后的已观测数据集更新所述概率代理模型,得到更新后的置信度;
在所述更新后置信度大于所述置信度阈值时,触发执行所述通过最大化所述采集函数查找下一个调度策略;根据所述下一个调度策略评估目标函数值;使用所述下一个调度策略和所述目标函数值更新所述已观测数据集;使用更新后的已观测数据集更新所述概率代理模型,得到更新后的置信度的步骤;
在所述更新后置信度小于或等于置信度阈值时,确定所述更新后置信度对应的调度策略为所述资源调度策略。
3.根据权利要求2所述的方法,其特征在于,所述概率代理模型为高斯过程,所述采集函数为基于增益期望EI策略的函数。
4.根据权利要求2所述的方法,其特征在于,所述目标函数通过下式表示:
Figure FDA0003051542810000021
Figure FDA0003051542810000022
其中,κ={1,2,...,K}表示边缘设备的设备集合,J表示所述至少两个学习任务的任务总数,sj表示第r轮训练所选择的设备集合,R表示学习任务j的全局模型需要训练的轮数;
Figure FDA0003051542810000023
表示单个边缘设备一轮所需的训练时长为通信时长与计算时长的和,
Figure FDA0003051542810000024
表示学习任务j完成一轮训练所需的时长。
5.根据权利要求2所述的方法,其特征在于,所述通过最大化所述采集函数查找下一个调度策略xt通过下式表示:
xt=argmaxxu(x|D1:t-1)
其中,D1:t-1表示所述已观测数据集;u(*)表示采集函数。
6.根据权利要求1至5任一所述的方法,其特征在于,所述在至少两个学习任务创建完成后,向多个边缘设备发送资源查询请求之前,还包括:
为每个学习任务创建一个通用模型,得到至少两个学习任务对应的全局模型;
或者,
为每个学习任务创建一个通用模型,并使用公共数据对所述通用模型进行预训练,得到至少两个学习任务对应的全局模型。
7.根据权利要求1至5任一所述的方法,其特征在于,所述基于所述模型参数确定所述全局模型的最终模型参数,包括:
对所述模型参数进行平均,得到新的全局模型;
确定所述新的全局模型的模型性能是否达到期望模型性能;
在所述新的全局模型的模型性能未达到所述期望模型性能时,再次执行所述根据所述资源信息和贝叶斯优化算法确定所述多个边缘设备的资源调度策略的步骤;
在所述新的全局模型的模型性能达到所述期望模型性能时,将所述新的全局模型确定为最终的全局模型,所述最终的全局模型的模型参数为最终模型参数。
8.一种面向边缘设备的多任务联邦学习装置,其特征在于,所述装置包括:
资源查询模块,用于在至少两个学习任务创建完成后,向多个边缘设备发送资源查询请求;所述资源查询请求用于请求所述边缘设备返回资源信息;每个学习任务用于指示对一个全局模型进行训练;
策略确定模块,用于根据所述资源信息和贝叶斯优化算法确定所述多个边缘设备的资源调度策略;所述资源调度策略用于使所述多个边缘设备完成所述至少两个学习任务后,消耗的通信时长和计算时长之和最小;
任务分配模块,用于按照所述资源调度策略为所述多个边缘设备分配学习任务,以使每个边缘设备获取所述学习任务对应的全局模型,使用本地数据对所述全局模型进行训练,并将训练后的模型参数上传;每个学习任务对应至少一个边缘设备;
参数获取模块,用于对于每个学习任务对应的全局模型,获取所述学习任务对应的各个边缘设备上传的模型参数;
模型确定模块,用于基于所述模型参数确定所述全局模型的最终模型参数。
9.根据权利要求8所述的装置,其特征在于,所述贝叶斯优化算法包括概率代理模型和采集函数;所述策略确定模块,用于:
初始化随机选择t0个初始调度策略,并根据所述资源信息计算每个初始调度策略的目标函数值,得到已观测数据集
Figure FDA0003051542810000041
所述目标函数值为所述至少两个学习任务训练一轮的时长之和;
将所述t0个初始调度策略和每个初始调度策略对应的时长之和输入所述概率代理模型,得到目标函数的后验概率分布,所述后验概率分布用于描述通过所述已观测数据集对先验进行修正后所述目标函数的置信度;
在所述置信度大于置信度阈值时,通过最大化所述采集函数查找下一个调度策略;根据所述下一个调度策略评估目标函数值;使用所述下一个调度策略和所述目标函数值更新所述已观测数据集;使用更新后的已观测数据集更新所述概率代理模型,得到更新后的置信度;
在所述更新后置信度大于所述置信度阈值时,触发执行所述通过最大化所述采集函数查找下一个调度策略;根据所述下一个调度策略评估目标函数值;使用所述下一个调度策略和所述目标函数值更新所述已观测数据集;使用更新后的已观测数据集更新所述概率代理模型,得到更新后的置信度的步骤;
在所述更新后置信度小于或等于置信度阈值时,确定所述更新后置信度对应的调度策略为所述资源调度策略。
10.根据权利要求9所述的装置,其特征在于,所述目标函数通过下式表示:
Figure FDA0003051542810000051
Figure FDA0003051542810000052
其中,κ={1,2,...,K}表示边缘设备的设备集合,J表示所述至少两个学习任务的任务总数,sj表示第r轮训练所选择的设备集合,R表示学习任务j的全局模型需要训练的轮数;
Figure FDA0003051542810000053
表示单个边缘设备一轮所需的训练时长为通信时长与计算时长的和,
Figure FDA0003051542810000054
表示学习任务j完成一轮训练所需的时长。
CN202110489298.7A 2021-05-06 2021-05-06 面向边缘设备的多任务联邦学习方法及装置 Pending CN113094181A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110489298.7A CN113094181A (zh) 2021-05-06 2021-05-06 面向边缘设备的多任务联邦学习方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110489298.7A CN113094181A (zh) 2021-05-06 2021-05-06 面向边缘设备的多任务联邦学习方法及装置

Publications (1)

Publication Number Publication Date
CN113094181A true CN113094181A (zh) 2021-07-09

Family

ID=76681704

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110489298.7A Pending CN113094181A (zh) 2021-05-06 2021-05-06 面向边缘设备的多任务联邦学习方法及装置

Country Status (1)

Country Link
CN (1) CN113094181A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114040425A (zh) * 2021-11-17 2022-02-11 中国电信集团系统集成有限责任公司 一种基于全局资源效用率优化的资源分配方法
CN114065864A (zh) * 2021-11-19 2022-02-18 北京百度网讯科技有限公司 联邦学习方法、联邦学习装置、电子设备以及存储介质
CN114298322A (zh) * 2021-12-27 2022-04-08 北京百度网讯科技有限公司 联邦学习方法和装置、系统、电子设备、计算机可读介质
WO2023038220A1 (en) * 2021-09-07 2023-03-16 Samsung Electronics Co., Ltd. Method and apparatus for performing horizontal federated learning
CN116204327A (zh) * 2023-05-06 2023-06-02 阿里巴巴(中国)有限公司 分布式系统通信调度方法及分布式机器学习系统
CN117573382A (zh) * 2024-01-17 2024-02-20 国网浙江省电力有限公司丽水供电公司 一种数据采集任务编排方法、装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110472545A (zh) * 2019-08-06 2019-11-19 中北大学 基于知识迁移学习的航拍电力部件图像的分类方法
CN111176929A (zh) * 2019-11-29 2020-05-19 广东工业大学 一种面向边缘联邦学习的高能效计算通信联合优化方法
CN111708640A (zh) * 2020-06-23 2020-09-25 苏州联电能源发展有限公司 一种面向边缘计算的联邦学习方法和系统
CN111756848A (zh) * 2020-06-28 2020-10-09 河海大学 移动边缘环境下基于联邦学习和移动感知的QoS优化方法
CN112181666A (zh) * 2020-10-26 2021-01-05 华侨大学 一种基于边缘智能的设备评估和联邦学习重要性聚合方法、系统、设备和可读存储介质
CN112668128A (zh) * 2020-12-21 2021-04-16 国网辽宁省电力有限公司物资分公司 联邦学习系统中终端设备节点的选择方法及装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110472545A (zh) * 2019-08-06 2019-11-19 中北大学 基于知识迁移学习的航拍电力部件图像的分类方法
CN111176929A (zh) * 2019-11-29 2020-05-19 广东工业大学 一种面向边缘联邦学习的高能效计算通信联合优化方法
CN111708640A (zh) * 2020-06-23 2020-09-25 苏州联电能源发展有限公司 一种面向边缘计算的联邦学习方法和系统
CN111756848A (zh) * 2020-06-28 2020-10-09 河海大学 移动边缘环境下基于联邦学习和移动感知的QoS优化方法
CN112181666A (zh) * 2020-10-26 2021-01-05 华侨大学 一种基于边缘智能的设备评估和联邦学习重要性聚合方法、系统、设备和可读存储介质
CN112668128A (zh) * 2020-12-21 2021-04-16 国网辽宁省电力有限公司物资分公司 联邦学习系统中终端设备节点的选择方法及装置

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023038220A1 (en) * 2021-09-07 2023-03-16 Samsung Electronics Co., Ltd. Method and apparatus for performing horizontal federated learning
CN114040425A (zh) * 2021-11-17 2022-02-11 中国电信集团系统集成有限责任公司 一种基于全局资源效用率优化的资源分配方法
CN114040425B (zh) * 2021-11-17 2024-03-15 中电信数智科技有限公司 一种基于全局资源效用率优化的资源分配方法
CN114065864A (zh) * 2021-11-19 2022-02-18 北京百度网讯科技有限公司 联邦学习方法、联邦学习装置、电子设备以及存储介质
CN114065864B (zh) * 2021-11-19 2023-08-11 北京百度网讯科技有限公司 联邦学习方法、联邦学习装置、电子设备以及存储介质
CN114298322A (zh) * 2021-12-27 2022-04-08 北京百度网讯科技有限公司 联邦学习方法和装置、系统、电子设备、计算机可读介质
CN114298322B (zh) * 2021-12-27 2023-08-25 北京百度网讯科技有限公司 联邦学习方法和装置、系统、电子设备、计算机可读介质
CN116204327A (zh) * 2023-05-06 2023-06-02 阿里巴巴(中国)有限公司 分布式系统通信调度方法及分布式机器学习系统
CN117573382A (zh) * 2024-01-17 2024-02-20 国网浙江省电力有限公司丽水供电公司 一种数据采集任务编排方法、装置
CN117573382B (zh) * 2024-01-17 2024-03-29 国网浙江省电力有限公司丽水供电公司 一种数据采集任务编排方法、装置

Similar Documents

Publication Publication Date Title
CN113094181A (zh) 面向边缘设备的多任务联邦学习方法及装置
CN113242568B (zh) 一种不确定网络环境中的任务卸载和资源分配方法
WO2014111948A1 (en) Task assignment in crowdsourcing
CN113469325A (zh) 一种边缘聚合间隔自适应控制的分层联邦学习方法、计算机设备、存储介质
CN114546608B (zh) 一种基于边缘计算的任务调度方法
CN113037877A (zh) 云边端架构下时空数据及资源调度的优化方法
Yi et al. FedGH: Heterogeneous federated learning with generalized global header
CN112073452A (zh) 一种能源有效和资源受限的移动边缘计算任务分配方法
WO2023175335A1 (en) A time-triggered federated learning algorithm
Yamada et al. Feature-selection based data prioritization in mobile traffic prediction using machine learning
Balakrishnan et al. Deep reinforcement learning based traffic-and channel-aware OFDMA resource allocation
CN110796591B (zh) 一种gpu卡的使用方法及相关设备
CN113094180B (zh) 无线联邦学习调度优化方法及装置
CN116781788B (zh) 服务决策方法以及服务决策装置
CN117674957A (zh) 调度方法、装置、计算机设备、存储介质和程序产品
CN114492849B (zh) 一种基于联邦学习的模型更新方法及装置
CN116582407A (zh) 一种基于深度强化学习的容器化微服务编排系统及方法
CN116843016A (zh) 一种移动边缘计算网络下基于强化学习的联邦学习方法、系统及介质
CN113992520B (zh) 一种虚拟网络资源的部署方法和系统
Li Optimization of task offloading problem based on simulated annealing algorithm in MEC
Huang et al. Latency guaranteed edge inference via dynamic compression ratio selection
Elahi et al. Online context-aware task assignment in mobile crowdsourcing via adaptive discretization
CN116991337B (zh) 一种远程教育系统的教育资源的云存储方法及装置
Dong et al. Design and prototyping distributed CNN inference acceleration in edge computing
CN114675955B (zh) 一种边缘计算环境下多个移动审计设备协同处理计算任务的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination