CN114040425A - 一种基于全局资源效用率优化的资源分配方法 - Google Patents

一种基于全局资源效用率优化的资源分配方法 Download PDF

Info

Publication number
CN114040425A
CN114040425A CN202111359293.9A CN202111359293A CN114040425A CN 114040425 A CN114040425 A CN 114040425A CN 202111359293 A CN202111359293 A CN 202111359293A CN 114040425 A CN114040425 A CN 114040425A
Authority
CN
China
Prior art keywords
global
function
local
model
edge device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111359293.9A
Other languages
English (en)
Other versions
CN114040425B (zh
Inventor
王彦君
王斯语
郭彩丽
李忠
张宇峰
李金岭
杜忠田
王欣
龙艳梅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Telecom Digital Intelligence Technology Co Ltd
Original Assignee
China Telecom Group System Integration Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Telecom Group System Integration Co Ltd filed Critical China Telecom Group System Integration Co Ltd
Priority to CN202111359293.9A priority Critical patent/CN114040425B/zh
Publication of CN114040425A publication Critical patent/CN114040425A/zh
Application granted granted Critical
Publication of CN114040425B publication Critical patent/CN114040425B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W24/00Supervisory, monitoring or testing arrangements
    • H04W24/02Arrangements for optimising operational condition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W72/00Local resource management
    • H04W72/04Wireless resource allocation
    • H04W72/044Wireless resource allocation based on the type of the allocated resource
    • H04W72/0446Resources in time domain, e.g. slots or frames

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

本发明属于无线通信领域,具体公开了一种基于全局资源效用率优化的资源分配方法,包括:构建全局模型收益函数与全局更新成本因子;构建端到端时延函数;构建误码因子,构建能量消耗函数;基于所述全局模型收益函数和信道误码因子,获得全局滤码收益函数;基于所述全局滤码收益函数和全局更新成本因子,获得全局模型效用函数;基于所述全局模型效用函数和端到端时延函数,获得优化目标函数;对所述优化目标函数进行求解,获得各个边端设备本地模型的最佳更新次数以及无线信道资源分配策略;对中央服务器与边端设备进行联邦学习训练。本方法能够实现在不同计算资源与无线资源定价场景下,找到最优的资源分配方式,实现全局资源效用率优化。

Description

一种基于全局资源效用率优化的资源分配方法
技术领域
本发明属于无线通信领域,尤其涉及一种基于全局资源效用率优化的资源分配方法。
背景技术
近年来,随着万物互联时代的到来和无线网络的普及,网络边缘的设备数量及其产生的数据量都急剧增长。工业大数据与边缘计算资源相结合,形成了智能制造、智能交通、智能物流等许多有前景的应用。边缘设备提供了强大的计算资源,为工业互联网应用提供了基于工业大数据分析的实时、灵活、快速的决策,极大地促进了工业4.0的发展。传统的基于大数据的机器学习(Machine Learning,ML)技术主要通过将所有数据上传到一个中央服务器进行统一处理来实现。但随着工业互联网中数据量的急剧增多,这种集中式的机器学习方式存在以下三个缺点:用户隐私泄露,通信花销大,和传输时延高。
因此,相比于集中式的训练方式,联邦学习(Federated Learning,FL)的训练模式更适合应用在工业互联网场景下。
联邦学习是2016年由谷歌提出的一种训练模型,其设计目标是在保障大数据交换时的信息安全、保护终端数据和个人数据隐私、保证合法合规的前提下,在终端本地利用其收集的数据集训练本地模型,通过无线信道传输模型参数,更新中央服务器的全局模型,进而学习一个高质量的机器学习模型。
联邦学习框架包括客户端与中央服务器两部分,中央服务器首先将初始的深度神经网络(Deep Neural Networks,DNN)模型发送到客户端,客户端在该初始模型上分别利用本地数据集与计算、能量等资源训练本地DNN模型;然后,客户端并不发送本地数据集,而是将经过本地训练后得到的DNN模型参数通过通信信道发送到中央服务器,中央服务器整合接收到的本地模型参数形成全局模型参数,然后将全局模型下载到客户端,更新本地模型参数。重复以上步骤,直到全局模型收敛为止。
由于联邦学习并不需要交换原始数据集,因此将其应用到工业互联网场景下相比于集中式的模型训练具有保护数据安全、提高带宽资源利用率、减少通信时延等明显优势。
然而,在工业互联网中应用联邦学习框架进行模型训练面临着许多挑战。
联邦学习要求边缘设备与中央服务器都具备一定的计算能力,存储能力、能量以及无线资源。中央服务器与边端设备在联邦学习过程中会消耗大量的资源,包括计算资源、无线资源与能量资源等。如何在联邦学习过程中提高资源利用率是需要迫切解决的问题。
中央服务器连接有线设备,资源充足。工业互联网场景下,各边端设备通过传感器等装置收集了大量数据作为训练集数据。但边端设备属于终端设备,计算和能量资源等是有限的,且边端设备与中央服务器之间通过无线信道传输模型参数,现实场景下,信道状态不稳定的,中央服务器与边端设备之间的无线传输会存在误码率以及传输时延问题。如何平衡计算与无线传输的资源分配会直接影响到联邦学习训练过程。
因此如何在工业互联网中合理分配有限的计算和无线资源实现更高的全局资源效用率是一个亟待解决的问题。
发明内容
本发明针对上述问题,考虑工业互联网场景中模型训练收益与资源消耗之间的权衡,提出工业互联网联邦学习场景中基于全局资源效用率优化的资源分配方法。该方法通过提出基于资源效用率的优化目标实现计算与通信资源联合分配,通过确定本地模型更新和全局参数聚合之间的最佳权衡同时合理分配无线资源,实现全局资源效用率优化,通过利用分部式遗传算法解决该优化问题,实现资源合理分配。理论分析和实验表明,本方法能够实现在不同计算资源与无线资源定价场景下,找到最优的资源分配方式,实现全局资源效用率优化,同时相比于其他方法具有更高的稳定性。
本发明实施例的目的在于提供一种基于全局资源效用率优化的资源分配方法,从而解决背景技术中提出的问题。
为实现上述目的,本发明实施例提供如下技术方案。
一种基于全局资源效用率优化的资源分配方法,包括:
收集设备信息及信道信息,构建全局模型收益函数与全局更新成本因子;
构建端到端时延函数,所述端到端时延函数包括本地模型训练时延因子和参数传输时延因子;
基于信道误码率构建误码因子,基于所述参数传输时延因子构建能量消耗函数;
基于所述全局模型收益函数和信道误码因子,获得全局滤码收益函数;
基于所述全局滤码收益函数和全局更新成本因子,获得全局模型效用函数;
基于所述全局模型效用函数和端到端时延函数,获得优化目标函数;
对所述优化目标函数进行求解,获得各个边端设备本地模型的最佳更新次数以及无线信道资源分配策略;
对中央服务器与边端设备进行联邦学习训练。
进一步地,所述设备信息包括:
中央服务器信息;
边端设备集合U={1,2,…,u},u为边端设备数目;
所述边端设备集合U的计算资源集合F={f1,f2,…,fu};
无线资源块集合θ={1,2,…,n},n为无线资源块数目;
所述全局模型收益函数包括:
Figure BDA0003358493140000041
式中,γ、ξ是常数,表示由所需训练的深度神经网络模型所决定的系统参数;
Figure BDA0003358493140000042
表示训练集大小为x时的全局模型收益;mi表示边端设备i一次本地训练所选取的数据集大小;vi表示边端设备i的本地迭代次数;
所述全局更新成本因子,包括通信成本因子和计算成本因子;其中,
所述通信成本因子Ccom为:
Ccom=εcu
其中,εc为单位通信资源成本费用×参数数据量大小,对于所述深度神经网络模型,参数数据量大小为固定常数;
所述计算成本因子Ccmp为:
Figure BDA0003358493140000043
其中,εf表示单位计算资源成本费用。
进一步地,所述本地模型训练时延因子为vi tt i
其中,tt i为边端设备i的一次本地迭代的时延:
Figure BDA0003358493140000044
式中,bi表示一张图片的比特大小,ρi代表CPU处理1比特所需要的周期,fi是边端设备i的计算资源;
所述参数传输时延因子为tU i
Figure BDA0003358493140000045
其中,D为参数数据量大小,cU i为无线信道上行数据传输速率:
Figure BDA0003358493140000051
式中,BU代表所述无线资源块的带宽,pi代表边端设备i的发射功率,hi代表边端设备i与中央服务器之间的无线信道增益,
Figure BDA0003358493140000052
代表其它边端设备使用同一个无线资源块传输产生的干扰,N0代表噪声功率谱密度。
进一步地,所述误码因子为rik,表示边端设备i的本地模型参数通过第k个无线资源块能否正确上传到中央服务器,k∈θ;若rik=1,则表示误码率不大于误码阈值,参数上传正确;若rik=0,则表示误码率大于误码阈值,参数无法正确上传;
其中,所述信道误码率为qi,qi是边端设备i发送本地模型参数到中央服务器的误码率:
Figure BDA0003358493140000053
所述能量消耗函数为ei,是边端设备i在一次迭代过程中的能量消耗和传输本地模型参数到中央服务器的能量消耗,通过以下公式获得:
Figure BDA0003358493140000054
其中,ηi表示依赖于DNN框架的转换效率。
进一步地,所述全局滤码收益函数为:
Figure BDA0003358493140000055
进一步地,所述全局模型效用函数为:
Figure BDA0003358493140000061
所述优化目标函数为:
Figure BDA0003358493140000062
进一步地,对所述优化目标函数进行求解,获得各个边端设备本地模型的最佳更新次数以及无线信道资源分配策略,包括:
S71,将解设为u×2的数组,第一列代表在一次全局模型更新过程中各个边端设备本地迭代次数,第二列代表各个边端设备的无线资源块资源分配方式;
S72,随机初始化大小为u×2×S的数组为解集;
S73,初始化大小为u×1的数组作为适应度函数值,将所述优化目标函数设为适应度函数,分别计算不同解的适应度函数;
S74,根据选择率保留当前解集的部分解;
S75,采用分部式的杂交算法,随机选择杂交父亲和母亲,根据杂交率,随机生成杂交位置,首先自交换父亲的无线资源块资源分配策略,生成新的子代,然后杂交父亲的子代与母亲生成新的子代;
S76,根据变异概率,随机变异解集的本地迭代策略,生成新的解集,继续上述迭代过程,直到收敛;在获得最佳收敛效果时,优化目标函数中的本地更新次数vi即为各个边端设备本地模型的最佳更新次数vi-best,而此时得到的无线资源块资源分配方式即为无线信道资源分配策略。
进一步地,所述对中央服务器与边端设备进行联邦学习训练,包括:
中央服务器将全局模型参数以及边端设备本地更新策略传输到边端设备中;
边端设备通过vi-best次迭代更新本地模型;
根据得到的无线信道资源分配策略分配有限带宽,将本地训练后得到的模型参数通过无线信道上传到中央服务器;
中央服务器整合所有边端设备上传的正确模型参数以及边端设备信息通过上行链路上传,更新全局模型参数并计算下一轮本地更新次数,全局模型更新完毕后,中央服务器将新的全局模型参数以及本地更新信息通过下行链路传输到边端设备继续训练,直到全局模型收敛,完成训练过程。
本发明的另一目的在于提供一种计算机设备/移动终端,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述存储器中的计算机程序,以实现上述基于全局资源效用率优化的资源分配方法的操作步骤。
本发明的另一目的在于提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述基于全局资源效用率优化的资源分配方法的操作步骤。
与现有技术相比,本发明的有益效果是:
1、本发明设计了新的联邦学习资源分配方法模型,考虑了不同边端设备的计算资源异构性,以及通信状态的不稳定性等因素,更加适用于工业互联网场景,可以有效提高工业互联网中应用联邦学习框架时,在不同资源定价场景下边端设备与服务器的全局计算资源与通信资源效用率。
2、本发明合理量化模型训练所带来的增益,然后联合考虑计算资源与通信资源等成本,构造优化目标函数,通过确定本地模型更新和全局参数聚合之间的最佳权衡以及信道分配策略,实现计算与通信资源联合分配,综合考虑中央服务器与边端设备整体资源效用率的目的,提高全局资源利用率。
3、本发明通过最大化单位时间内全局模型收益减去总计算成本与通信成本所得到的全局效用来构造优化函数,并提出提出分部式遗传算法求解该优化函数,得到资源分配方法。其中,初始化解集可以表示为u×2×s的数组,s表示解集大小,针对于解集的两列有不同的限制条件,分部式遗传算法分别对两列采用各自合适的变异以及交叉方式分别进行更新,可以有效得到最优解。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例。
图1是本发明实施例提供的基于全局资源效用率优化的资源分配方法的方法流程图;
图2是本发明实施例提供的S7步骤的提供的方法流程图;
图3是本发明实施例提供的S8步骤的流程示意图;
图4是不同算法的全局资源效用率随边端设备数目变化的性能对比;
图5是不同算法的全局资源效用率随计算成本变化的性能对比;
图6是不同算法的全局资源效用率随通信成本变化的性能对比。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明的一个实施例,提供了一种基于全局资源效用率优化的资源分配方法,目的是提高工业互联网中面向联邦学习框架的计算与通信资源效用率。本发明优化了工业互联网场景下,边端设备计算资源与能量资源以及边端设备与中央服务器之间的通信资源分配,减少计算与通信资源成本,降低无线信道误码率对模型训练的影响,并保证了全局资源效用率的稳定性。
一种基于全局资源效用率优化的资源分配方法,可参考图1的基于全局资源效用率优化的资源分配方法的方法流程图,具体包括以下步骤。
S1,收集设备信息及信道信息,构建全局模型收益函数与全局更新成本因子。
S11,收集参与联邦学习训练的设备信息及信道信息。
工业互联网中边端设备接入中央服务器时,提供计算资源以及能量信息给中央服务器,同时中央服务器通过信道估计等方式获取信道状态信息。
其中,设备信息包括:
中央服务器信息;
边端设备集合U={1,2,…,u},u为边端设备数目;
所述边端设备集合U的计算资源集合F={f1,f2,…,fu};
无线资源块集合θ={1,2,…,n},n为无线资源块数目。
S12,构建全局模型收益函数。
各个边端设备收集的数据可以帮助中央服务器训练一个更好的全局模型,提高模型精度,即联邦学习全局模型收益与全局损失函数衰减成正相关,衰减值越大,全局收益越高。全局更新一轮的全局模型收益函数,构建为:
Figure BDA0003358493140000091
式中,γ、ξ是常数,表示由所需训练的深度神经网络模型所决定的系统参数;
Figure BDA0003358493140000092
表示训练集大小为x时的全局模型收益;mi表示边端设备i一次本地训练所选取的数据集大小;vi表示边端设备i的本地迭代次数。
S13,构建全局更新成本因子。
在每完成一次全局更新过程中,获得全局更新成本。所述全局更新成本因子包括通信成本因子与计算成本因子。
所述通信成本,是中央服务器与边端设备之间传递模型参数所产生的通信费用。所述通信成本因子Ccom为:
Ccom=εcu (2)
其中,εc为单位通信资源成本费用×参数数据量大小,对于某一深度神经网络模型,参数数据量大小为固定常数。
所述计算成本,是边端设备本地模型训练所产生的计算成本;所述计算成本因子Ccmp为:
Figure BDA0003358493140000101
其中,εf表示单位计算资源成本费用。
上述公式表明计算成本,与单位计算费用和边端设备训练的数据集大小成正比。
S2,构建端到端时延函数。
为了正确评估算法全局效用,全局更新的端到端时延同样也是不可忽视的重要影响因素。端到端时延主要包括:本地模型训练时延因子,以及参数传输时延因子。
S21,构建本地模型训练时延因子。
本地模型训练时延,与本地模型训练时延由边端设备计算能力与训练的数据大小有关。
本地模型训练时延因子为vi tt i。其中,vi表示边端设备i的本地迭代次数,tt i表示边端设备i的一次本地迭代的时延:
Figure BDA0003358493140000102
式中,bi表示一张图片的比特大小,ρi代表CPU处理1比特所需要的周期,fi是边端设备i的计算资源,mi表示边端设备i一次本地训练所选取的数据集大小。
S22,构建参数传输时延因子。
参数传输时延,是中央服务器与边端设备之间模型参数传输时延,无线传输时延由所需要传输的模型参数的比特大小以及无线传输速率共同决定。
本发明采用一个用户占用一个RB(Resource Block,无线资源块)进行传输的方式。参数传输时延包括全局模型下载与本地模型上传两部分。由于中央服务器资源充足,其下行传输时延极低,此处忽略不计,因此参数传输时延主要由参数数据量大小和无线信道上行传输速率共同决定,针对某一特定深度神经网络模型,参数数据量大小为常数。
参数传输时延因子通过以下公式获得:
Figure BDA0003358493140000111
其中,D为参数数据量大小,cU i为无线信道上行数据传输速率:
Figure BDA0003358493140000112
式中,BU代表所述无线资源块的带宽,pi代表边端设备i的发射功率,hi代表边端设备i与中央服务器之间的无线信道增益,
Figure BDA0003358493140000113
代表其它边端设备使用同一个无线资源块传输产生的干扰,N0代表噪声功率谱密度。
S3,基于信道误码率构建误码因子,基于所述参数传输时延因子构建能量消耗函数。
S31,基于信道误码率构建误码因子。
边端设备训练完的本地模型参数通过无线信道上行链路发送到中央服务器。工业互联网场景下,信道条件不稳定,需要考虑误码率对数据传输的影响。当误码率高于一定阈值后,中央服务器无法接收到正确的数据。在联邦学习框架下,中央服务器不会使用发生误码的数据进行全局聚合。
而本发明的方法是,同时假设若中央服务器接收到的数据包含错误,则直接舍弃该部分数据,不会要求边端设备重新发送。中央服务器只聚合接收到的正确本地模型参数来更新全局模型参数。
所述误码因子为rik={0,1},rik表示边端设备i的本地模型参数通过第k个RB能否正确上传到中央服务器,k∈θ;若rik=1,则表示误码率不大于误码阈值,参数上传正确;若rik=0,则表示误码率大于误码阈值,参数无法正确上传。
所述误码率为qi,是边端设备i发送本地模型参数到中央服务器的误码率,通过以下公式获得:
Figure BDA0003358493140000121
当qi大于误码阈值时,中央服务器在聚合全局模型参数时会舍弃边端设备i发送的本地模型参数。
S32,基于参数传输时延因子构建能量消耗函数。
每个边端设备在联邦学习过程中的能量消耗包括两部分:训练本地模型的能量消耗和传输本地模型到中央服务器的能量消耗。
所述能量消耗函数为ei,是边端设备i在一次迭代过程中的能量消耗和传输本地模型参数到中央服务器的能量消耗,通过以下公式获得:
Figure BDA0003358493140000122
其中,ηi表示依赖于DNN框架的转换效率。
S4,基于所述全局模型收益函数和信道误码率,获得全局滤码收益函数。
全局滤码收益,是全局模型收益在考虑误码率的情况下的收益。
本实施例以一轮全局模型更新为例。中央服务器将初始模型下载到边端设备集合,然后通过多次迭代上传本地模型参数聚合更新全局模型参数,以达到模型训练的目的。
全局更新一轮的模型收益由公式(1)表示,在工业互联网场景下,信道条件不稳定,本地模型传输过程中误码率过高的情况大大增加,因此还需要基于信道误码率数据公式(7)考虑传输误码的情况。
本发明假设,若传输过程误码率过高则中央处理器舍弃该边端设备的本地模型参数,且不会要求重传,只使用正确传输的其他边端设备本地模型参数。因此全局模型收益函数在考虑误码率的情况下,进一步表示为全局滤码收益函数:
Figure BDA0003358493140000131
其中,误码因子rik表示边端设备i的本地模型参数通过第k个RB能否正确上传到中央服务器,rik={0,1}。若rik=1,则表示误码率不大于误码阈值,参数上传正确;若rik=0,则表示误码率大于误码阈值,参数无法正确上传。
S5,基于所述全局滤码收益函数和全局更新成本因子,获得全局模型效用函数。
全局模型效用函数为:全局收益-计算成本-通信成本,即:
Figure BDA0003358493140000132
S6,基于所述全局模型效用函数和端到端时延函数,获得优化目标函数。
全局模型效用率,是单位时间内的全局模型效用。
为了更准确的评估全局模型效用,本发明进一步引入中央服务器全局模型更新一次的端到端时延。
本发明基于全局资源效用率优化的资源分配方法构造优化目标函数,通过确定本地模型更新和全局参数聚合之间的最佳权衡同时合理分配无线资源,实现全局效用率优化。因此,优化目标函数被构造为:
Figure BDA0003358493140000141
Figure BDA0003358493140000142
Figure BDA0003358493140000143
Figure BDA0003358493140000144
Figure BDA0003358493140000145
0<pi<Pmax (11e)
其中,tD i为参数数据量D的传输时延;τi表示边端设备i一次全局更新过程中时延要求;pi表示边端设备i传输本地模型参数的发射功率;Pmax表示边端设备可用于无线信道传输的最大发射功率。
其中,公式11a至11e是对公式11中的相关参数的限制条件。
S7,对所述优化目标函数进行求解,获得各个边端设备本地模型的最佳更新次数以及无线信道资源分配策略。
所述中央服务器根据边端设备信息与信道状态信息,通过分部式遗传算法对所述优化目标函数(11)求解,获得各个边端设备本地模型更新的最佳次数vi-best,以及无线信道资源分配策略。
对所述优化目标函数(11)求解,是为了确定本地模型更新和全局参数聚合之间的最佳权衡同时合理分配无线资源。该解可以表示为u×2的数组,即每一行代表一个边端设备,第一列表示u个边端设备本地模型更新和全局参数聚合之间的最佳权衡,第二列表示u个边端设备的RB资源分配。
由于无线信道的RB资源分配需要满足一个RB只能为一个边端设备服务,一个边端设备也只能由一个RB传输本地模型参数的原则,若使用传统遗传算法中的交叉原则,则当父亲与母亲染色体直接发生交叉或变异后,极有可能产生大量不符合要求的子代。为了尽可能得到最优解,本发明提出分部遗传算法求解优化函数,因此,在求解过程中,对于解集的第一列和第二列两部分分别采用各自合适的变异以及交叉方式。
图2是本发明实施例提供的S7步骤的提供的方法流程图。对所述优化目标函数进行求解具体步骤如下。
S71,将解设为u×2的数组,第一列代表在一次全局模型更新过程中各个边端设备本地迭代次数,第二列代表各个边端设备的RB资源分配方式。
S72,随机初始化大小为u×2×S的数组为解集,其中RB分配方式的初始化需要保证各不重复。
S73,初始化大小为u×1的数组作为适应度函数值,将优化目标公式(11)设为适应度函数,分别计算不同解的适应度函数。在计算适应度函数值时,首先根据解集内每个解的本地迭代次数计算其用于本地计算的能量以及本地计算时延,然后根据可用于传输的能量求得可用于传输的理论功率pt i,继而求出实际传输功率为min{pl i,Pmax},根据传输功率以及解集中关于RB资源分配方式计算其误码率以及传输速率,计算出传输时延。将以上结果综合可得适应度函数值。
S74,根据选择率保留当前解集的部分解。
S75,由于RB分配规则的特殊性,此处采用分部式的杂交算法步骤,随机选择杂交父亲和母亲,根据杂交率,随机生成杂交位置,首先自交换父亲的RB资源分配策略,生成新的子代,然后杂交父亲的子代与母亲生成新的子代。
S76,根据变异概率,随机变异解集的本地迭代策略,生成新的解集,继续上述迭代过程,直到收敛。在获得最佳收敛效果时,优化目标函数中的本地更新次数vi即为各个边端设备本地模型的最佳更新次数vi-best,而此时得到的RB资源分配方式即为无线信道资源分配策略。
S8,对中央服务器与边端设备进行联邦学习训练。
在联邦学习过程中,中央服务器将初始模型下载到边端设备集合,然后通过多次迭代上传本地模型参数聚合更新全局模型参数,以达到模型训练的目的。图3是本发明实施例提供的S8步骤的流程示意图。本流程具体包括以下步骤。
S81,下载初始模型及本地更新信息。
中央服务器通过下行链路将全局模型参数以及边端设备本地更新策略传输到边端设备中。
S82,边端设备本地训练。
边端设备利用他们本身的计算能力以及所存储的本地预处理数据集通过vi-best次迭代更新本地模型。
S83,上传本地模型。
根据S7所得到的无线信道资源分配策略合理分配有限带宽,减少信道误码率对参数传输的影响,将本地训练后得到的模型参数通过无线信道上传到中央服务器。
S84,全局模型聚合。
中央服务器整合所有边端设备上传的正确模型参数以及边端设备信息通过上行链路上传,更新全局模型参数并依据S7步骤计算下一轮本地更新次数,全局模型更新完毕后,中央服务器将新的全局模型参数以及本地更新信息通过下行链路传输到边端设备继续训练,周而复始,直到全局模型收敛,完成训练过程。
效果实施例
本发明通过实验仿真加以验证,为进一步实现性能对比,与现有两个对比方法作对比实验。如图4至图6中所示为实验数据对比图,图中曲线分别为:
proposed algorithm,代表本发明所述的资源分配方法;
baseline1,代表本地模型迭代次数(iteration)为固定值(iteration分别为1、2、3)的优化无线资源分配的联邦学习资源分配方法,此方法没有优化本地模型更新和全局参数聚合之间的权衡但考虑了无线资源的合理分配;
baseline2,代表优化本地迭代次数的无线资源随机分配的联邦学习资源分配方法,此方法考虑了本地模型更新和全局参数聚合之间的权衡但并未优化无线资源分配。
图4表示了不同边端设备数目时本发明方法与现有方法的资源效用率性能对比。从图4中可以看出,本发明所述方法的全局效用率优于现有其它两种方法。随着边端设备数目的增加,全局效用率先增加后降低。这是由于随着边端设备数目的增多,参与训练的数据量越来越大,模型收益增加较快,但当数据量增加较多时,计算成本带来的影响超过了其精度增益,因而全局效用率先增加后降低。当对比优化迭代次数与无线资源分配时,迭代次数优化得到的收益更高,即baseline2的全局效用率比baseline1更高。
图5表示了不同计算成本条件下本发明方法与两个基准方法的资源效用率性能对比。本发明仿真当batchsize大小为60,边端设备数目为5时,设置计算成本分别为[0.001,0.00125,0.0015,0.00175,0.002],通信成本εc=0.1。从图5中可以看出,随着计算成本的增加,全局收益率逐渐减少。但同时可以明显看出,相比与另外两种对比算法,本发明所述方法所得到的全局效用率在各个计算成本下均可以取得更高值。当计算成本较低时,baseline2算法相较于baseline1算法效果更好。由于计算成本定价的提升导致过多的模型收益的增加不及计算成本增加的速度,因而在过高的计算成本下,训练的数据量越大,全局效用率越低。
图6表示了不同通信成本条件下本发明所述方法与两个现有方法的资源效用率性能对比。本发明仿真当batchsize大小为60,边端设备数目为5时,通信成本分别为[0.1,0.2,0.3,0.4,0.5],计算成本εf=0.001。从图6中可以看出,随着通信成本定价的增加,全局效用率呈递减趋势。由于通信成本的增加相对降低了计算成本的影响,使得训练更多数据得到的增益高于其训练过程所带来的计算消耗。
在所对比的三种算法中,本发明所提出的方法在各个定价场景下,均可以得到最优的全局效用率,baseline2算法次之,baseline1算法的性能较差。
综上所述,通过实施本发明所提出的一种工业互联网联邦学习场景中基于全局资源效用率优化的资源分配方法,在不同资源定价情况下,均能够有效地提高资源利用效益率。
本发明的另一个实施例,在前述的基于全局资源效用率优化的资源分配方法的基础上,提供了一种计算机设备/移动终端,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述存储器中的计算机程序,以实现前述的基于全局资源效用率优化的资源分配方法的操作步骤。
为了能够加载上述系统和方法能够顺利运行,该系统除了包括上述各种模块之外,还可以包括比上述描述更多或更少的部件,或者组合某些部件,或者不同的部件,例如可以包括输入输出设备、网络接入设备、总线、处理器和存储器等。
所称处理器可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,上述处理器是上述客户端或者相关系统的控制中心,利用各种接口和线路连接整个用户终端的各个部分。
上述存储器可用于存储计算机以及手机程序和/或模块,上述处理器通过运行或执行存储在存储器内的计算机、手机程序和/或模块,以及调用存储在存储器内的数据,实现上述客户端的各种功能。存储器可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如信息采集模板展示功能、产品信息发布功能等)等;存储数据区可存储根据泊位状态显示系统的使用所创建的数据(比如不同产品种类对应的产品信息采集模板、不同产品提供方需要发布的产品信息等)等。此外,存储器可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
本发明的另一个实施例,在前述的基于全局资源效用率优化的资源分配方法的基础上,提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现前述的基于全局资源效用率优化的资源分配方法的操作步骤。
本领域普通技术人员可以理解实现上述实施例中的全部或部分流程及模块,是可以通过计算机和手机程序、硬件及其组合来实现。所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可实现包括如上述各模块及方法的实施例的流程。
应该理解的是,虽然本发明各实施例的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,各实施例中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于全局资源效用率优化的资源分配方法,其特征在于,包括:
收集设备信息及信道信息,构建全局模型收益函数与全局更新成本因子;
构建端到端时延函数,所述端到端时延函数包括本地模型训练时延因子和参数传输时延因子;
基于信道误码率构建误码因子,基于所述参数传输时延因子构建能量消耗函数;
基于所述全局模型收益函数和信道误码因子,获得全局滤码收益函数;
基于所述全局滤码收益函数和全局更新成本因子,获得全局模型效用函数;
基于所述全局模型效用函数和端到端时延函数,获得优化目标函数;
对所述优化目标函数进行求解,获得各个边端设备本地模型的最佳更新次数以及无线信道资源分配策略;
对中央服务器与边端设备进行联邦学习训练。
2.根据权利要求1所述的系统,其特征在于:
所述设备信息包括:
中央服务器信息;
边端设备集合U={1,2,…,u},u为边端设备数目;
所述边端设备集合U的计算资源集合F={f1,f2,…,fu};
无线资源块集合θ={1,2,…,n},n为无线资源块数目;
所述全局模型收益函数包括:
Figure FDA0003358493130000011
式中,γ、ξ是常数,表示由所需训练的深度神经网络模型所决定的系统参数;
Figure FDA0003358493130000012
表示训练集大小为x时的全局模型收益;mi表示边端设备i一次本地训练所选取的数据集大小;vi表示边端设备i的本地迭代次数;
所述全局更新成本因子,包括通信成本因子和计算成本因子;其中,
所述通信成本因子Ccom为:
Ccom=εcu
其中,εc为单位通信资源成本费用×参数数据量大小,对于所述深度神经网络模型,参数数据量大小为固定常数;
所述计算成本因子Ccmp为:
Figure FDA0003358493130000021
其中,εf表示单位计算资源成本费用。
3.根据权利要求2所述的系统,其特征在于:
所述本地模型训练时延因子为vitt i
其中,tt i为边端设备i的一次本地迭代的时延:
Figure FDA0003358493130000022
式中,bi表示一张图片的比特大小,ρi代表CPU处理1比特所需要的周期,fi是边端设备i的计算资源;
所述参数传输时延因子为tU i
Figure FDA0003358493130000023
其中,D为参数数据量大小,cU i为无线信道上行数据传输速率:
Figure FDA0003358493130000024
式中,BU代表所述无线资源块的带宽,pi代表边端设备i的发射功率,hi代表边端设备i与中央服务器之间的无线信道增益,
Figure FDA0003358493130000025
代表其它边端设备使用同一个无线资源块传输产生的干扰,N0代表噪声功率谱密度。
4.根据权利要求3所述的系统,其特征在于:
所述误码因子为rik,表示边端设备i的本地模型参数通过第k个无线资源块能否正确上传到中央服务器,k∈θ;若rik=1,则表示误码率不大于误码阈值,参数上传正确;若rik=0,则表示误码率大于误码阈值,参数无法正确上传;
其中,所述信道误码率为qi,qi是边端设备i发送本地模型参数到中央服务器的误码率:
Figure FDA0003358493130000031
所述能量消耗函数为ei,是边端设备i在一次迭代过程中的能量消耗和传输本地模型参数到中央服务器的能量消耗,通过以下公式获得:
Figure FDA0003358493130000032
其中,ηi表示依赖于DNN框架的转换效率。
5.根据权利要求4所述的系统,其特征在于,所述全局滤码收益函数为:
Figure FDA0003358493130000033
6.根据权利要求5所述的系统,其特征在于:
所述全局模型效用函数为:
Figure FDA0003358493130000034
所述优化目标函数为:
Figure FDA0003358493130000041
7.根据权利要求6所述的系统,其特征在于,对所述优化目标函数进行求解,获得各个边端设备本地模型的最佳更新次数以及无线信道资源分配策略,包括:
S71,将解设为u×2的数组,第一列代表在一次全局模型更新过程中各个边端设备本地迭代次数,第二列代表各个边端设备的无线资源块资源分配方式;
S72,随机初始化大小为u×2×S的数组为解集;
S73,初始化大小为u×1的数组作为适应度函数值,将所述优化目标函数设为适应度函数,分别计算不同解的适应度函数;
S74,根据选择率保留当前解集的部分解;
S75,采用分部式的杂交算法,随机选择杂交父亲和母亲,根据杂交率,随机生成杂交位置,首先自交换父亲的无线资源块资源分配策略,生成新的子代,然后杂交父亲的子代与母亲生成新的子代;
S76,根据变异概率,随机变异解集的本地迭代策略,生成新的解集,继续上述迭代过程,直到收敛;在获得最佳收敛效果时,优化目标函数中的本地更新次数vi即为各个边端设备本地模型的最佳更新次数vi-best,而此时得到的无线资源块资源分配方式即为无线信道资源分配策略。
8.根据权利要求7所述的方法,其特征在于,所述对中央服务器与边端设备进行联邦学习训练,包括:
中央服务器将全局模型参数以及边端设备本地更新策略传输到边端设备中;
边端设备通过vi-best次迭代更新本地模型;
根据得到的无线信道资源分配策略分配有限带宽,将本地训练后得到的模型参数通过无线信道上传到中央服务器;
中央服务器整合所有边端设备上传的正确模型参数以及边端设备信息通过上行链路上传,更新全局模型参数并计算下一轮本地更新次数,全局模型更新完毕后,中央服务器将新的全局模型参数以及本地更新信息通过下行链路传输到边端设备继续训练,直到全局模型收敛,完成训练过程。
9.一种计算机设备/移动终端,其特征在于,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述存储器中的计算机程序,以实现权利要求1至8中任一项所述方法的操作步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至8中任一项所述方法的操作步骤。
CN202111359293.9A 2021-11-17 2021-11-17 一种基于全局资源效用率优化的资源分配方法 Active CN114040425B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111359293.9A CN114040425B (zh) 2021-11-17 2021-11-17 一种基于全局资源效用率优化的资源分配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111359293.9A CN114040425B (zh) 2021-11-17 2021-11-17 一种基于全局资源效用率优化的资源分配方法

Publications (2)

Publication Number Publication Date
CN114040425A true CN114040425A (zh) 2022-02-11
CN114040425B CN114040425B (zh) 2024-03-15

Family

ID=80137898

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111359293.9A Active CN114040425B (zh) 2021-11-17 2021-11-17 一种基于全局资源效用率优化的资源分配方法

Country Status (1)

Country Link
CN (1) CN114040425B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115330277A (zh) * 2022-10-13 2022-11-11 北京云迹科技股份有限公司 机器人自动选择电梯的方法及装置
CN115421930A (zh) * 2022-11-07 2022-12-02 山东海量信息技术研究院 任务处理方法、系统、装置、设备及计算机可读存储介质
CN117135693A (zh) * 2023-10-27 2023-11-28 四川长虹新网科技有限责任公司 多ap环境下基于联邦学习的实时业务分配方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2020101959A4 (en) * 2020-08-24 2020-10-01 Southwest University Decentralized optimization algorithm for machine learning tasks in networks: Resource efficient
CN112817653A (zh) * 2021-01-22 2021-05-18 西安交通大学 一种基于云边端的联邦学习计算卸载计算系统及方法
CN113094181A (zh) * 2021-05-06 2021-07-09 苏州联电能源发展有限公司 面向边缘设备的多任务联邦学习方法及装置
CN113139663A (zh) * 2021-04-23 2021-07-20 深圳市大数据研究院 联邦边缘学习配置信息获取方法、装置、设备及介质
CN113177367A (zh) * 2021-05-28 2021-07-27 北京邮电大学 高能效的联邦学习方法、装置、边缘服务器及用户设备
CN113194489A (zh) * 2021-04-01 2021-07-30 西安电子科技大学 无线边缘网络中有效联邦学习的最小-最大代价优化方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2020101959A4 (en) * 2020-08-24 2020-10-01 Southwest University Decentralized optimization algorithm for machine learning tasks in networks: Resource efficient
CN112817653A (zh) * 2021-01-22 2021-05-18 西安交通大学 一种基于云边端的联邦学习计算卸载计算系统及方法
CN113194489A (zh) * 2021-04-01 2021-07-30 西安电子科技大学 无线边缘网络中有效联邦学习的最小-最大代价优化方法
CN113139663A (zh) * 2021-04-23 2021-07-20 深圳市大数据研究院 联邦边缘学习配置信息获取方法、装置、设备及介质
CN113094181A (zh) * 2021-05-06 2021-07-09 苏州联电能源发展有限公司 面向边缘设备的多任务联邦学习方法及装置
CN113177367A (zh) * 2021-05-28 2021-07-27 北京邮电大学 高能效的联邦学习方法、装置、边缘服务器及用户设备

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115330277A (zh) * 2022-10-13 2022-11-11 北京云迹科技股份有限公司 机器人自动选择电梯的方法及装置
CN115330277B (zh) * 2022-10-13 2023-01-06 北京云迹科技股份有限公司 机器人自动选择电梯的方法及装置
CN115421930A (zh) * 2022-11-07 2022-12-02 山东海量信息技术研究院 任务处理方法、系统、装置、设备及计算机可读存储介质
CN117135693A (zh) * 2023-10-27 2023-11-28 四川长虹新网科技有限责任公司 多ap环境下基于联邦学习的实时业务分配方法
CN117135693B (zh) * 2023-10-27 2024-01-23 四川长虹新网科技有限责任公司 多ap环境下基于联邦学习的实时业务分配方法

Also Published As

Publication number Publication date
CN114040425B (zh) 2024-03-15

Similar Documents

Publication Publication Date Title
CN114040425A (zh) 一种基于全局资源效用率优化的资源分配方法
CN113242568B (zh) 一种不确定网络环境中的任务卸载和资源分配方法
CN110035410B (zh) 一种软件定义车载边缘网络中联合资源分配和计算卸载的方法
US11663920B2 (en) Method and device of path optimization for UAV, and storage medium thereof
CN108901075B (zh) 一种基于gs算法的资源分配方法
CN107948083B (zh) 一种基于增强学习的sdn数据中心拥塞控制方法
CN114422349B (zh) 基于云边端协同的深度学习模型训练和推理架构部署方法
CN113268341A (zh) 电网边缘计算任务的分配方法、装置、设备和存储介质
CN114745383A (zh) 一种移动边缘计算辅助多层联邦学习方法
CN113312177B (zh) 一种基于联邦学习的无线边缘计算系统、优化方法
CN115473896A (zh) 基于dqn算法的电力物联网卸载策略和资源配置优化方法
CN116455768A (zh) 面向全局时延优化的云边端协同cnn推理方法及系统
CN101399708B (zh) 一种建立网络性能模型的方法和设备
CN117196014B (zh) 基于联邦学习的模型训练方法、装置、计算机设备及介质
CN111885551B (zh) 基于边云协同模式的多移动社交网络中高影响力用户的选择和分配机制
CN116112981B (zh) 一种基于边缘计算的无人机任务卸载方法
CN114640966B (zh) 一种车联网中基于移动边缘计算的任务卸载方法
CN115883601A (zh) 一种车联网协作资源分配方法、系统、设备及介质
CN115914230A (zh) 一种自适应移动边缘计算卸载和资源分配方法
CN115392348A (zh) 联邦学习梯度量化方法、高效通信联邦学习方法及相关装置
Saffar et al. Pricing and rate optimization of cloud radio access network using robust hierarchical dynamic game
CN112416577A (zh) 一种适用于区块链工作量证明的协作式智能计算分流方法
CN114202070A (zh) 电力数据处理方法、装置、非易失性存储介质及处理器
CN115733838A (zh) 一种基于移动边缘计算的车联网多维资源分配方法
CN117392483B (zh) 基于增强学习的相册分类模型训练加速方法、系统及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: Room 1308, 13th floor, East Tower, 33 Fuxing Road, Haidian District, Beijing 100036

Applicant after: China Telecom Digital Intelligence Technology Co.,Ltd.

Address before: Room 1308, 13th floor, East Tower, 33 Fuxing Road, Haidian District, Beijing 100036

Applicant before: CHINA TELECOM GROUP SYSTEM INTEGRATION Co.,Ltd.

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant