CN113900796A - 5g网络中面向多任务联邦学习的资源分配方法及系统 - Google Patents

5g网络中面向多任务联邦学习的资源分配方法及系统 Download PDF

Info

Publication number
CN113900796A
CN113900796A CN202111029164.3A CN202111029164A CN113900796A CN 113900796 A CN113900796 A CN 113900796A CN 202111029164 A CN202111029164 A CN 202111029164A CN 113900796 A CN113900796 A CN 113900796A
Authority
CN
China
Prior art keywords
task
equipment
resource allocation
learning
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111029164.3A
Other languages
English (en)
Inventor
孙海蓬
黄萍
李艳丽
刘明刚
王海洋
张波
苏俊浩
刘政强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong Electric Power Engineering Consulting Institute Corp Ltd
Original Assignee
Shandong Electric Power Engineering Consulting Institute Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong Electric Power Engineering Consulting Institute Corp Ltd filed Critical Shandong Electric Power Engineering Consulting Institute Corp Ltd
Priority to CN202111029164.3A priority Critical patent/CN113900796A/zh
Publication of CN113900796A publication Critical patent/CN113900796A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Abstract

本发明提供了一种5G网络中面向多任务联邦学习的资源分配方法及系统,所述方法包括以下步骤:获取每个设备训练每个任务相应的设备运行参数、本地训练数据量和传输数据量;结合网络环境参数、每个设备的发射功率和设备参数,确定每个设备传输每个任务所需的时延和能耗;进行每轮训练任务时,根据每个设备向基站传输每个任务所需的时延和能耗,对参与本轮联邦学习的设备进行筛选;在对选中的设备发送功率进行限制的前提下,进行数据传输的资源分配。本发明基于网络通信环境、设备时延和能耗限制条件,针对联邦学习的每一轮均进行参与学习的设备选择和网络传输资源分配,保证了联邦学习的效率和准确性。

Description

5G网络中面向多任务联邦学习的资源分配方法及系统
技术领域
本发明涉及机器学习技术领域,具体涉及一种5G网络中面向多任务联邦学习的资源分配方法及系统。
背景技术
随着智能电网建设的快速推进,电力系统内各种输变电设备越来越多,仪器设备大多安置于室外,常态检修监视和非常态安全事件主要依靠人工发现,检测任务的增多与高温高压等环境因素对传统的人工巡检形成巨大的挑战。智能摄像头、巡检机器人等智能设备不断投入应用,使用智能设备中的图像识别技术能够有效提升全天候智能监控站内的安全生产能力,并保障环境内工人的安全问题。例如,将计算任务下沉至移动边缘网络的智能摄像头中,摄像头此时既可以作为图像数据采集的工具,又可以对环境内人员与设备进行实时识别及追踪。
但是智能设备的引入会面临新的问题。一方面,如果各系统单独执行独立的任务,在单个电力环境中采集的数量有限,目标不具有普遍性与广泛性,无法囊括大部分的目标物体,使之成为“数据孤岛”,造成最终识别精度无法达到较高水平。另一方面,如果各系统为提升识别精度在各环境下进行数据交互并上传至数据中心进行统一计算,这又会涉及到各用户端的隐私问题。比如在采集的数据中,有些图片包含环境中专业设备等敏感信息,各个电力系统需要保证自己的隐私数据不被泄露。另外,将各环境的数据进行集中会使数据量骤然增加,不仅会增大数据中心的计算压力,还会导致整体的处理时延和通信成本增加。为了提升识别准确率并保护用户隐私,联邦学习技术将作为可靠的机器学习技术进行引入。联邦学习不仅可以满足上述环境的限制,还可以利用5G边缘计算网络特点将计算任务传至多个智能设备进行分布式处理,提升处理效率与识别精确程度。
联邦学习将计算转移到维护数据隐私的边缘网络,在保护数据隐私的同时降低通信成本。尽管联邦学习具有很广阔的前景,但同时它也面临着新的挑战。在实践中,同一变电站下可能存在多个学习任务等待执行,比如在分布式下沉智能摄像头节点中,每一个摄像头不仅可以进行常态与非常态检修监视,还可以同时对环境中的作业工人进行安全穿戴设备的检测。此时需要解决多任务联邦学习存在的情况。多任务联邦学习不仅需要对用户进行作业选择,还需要对各类任务的时延和能耗限制进行筛选。面向多任务的学习过程,不同设备在不同任务上的执行时间、任务输入与输出数据量、任务准确率标准等方面都会存在很大差异,需要综合考虑各个方面以保证总时延、能量或者准确率等方面有所优化。例如,无线信道的不可靠性质和资源限制引入的符号错误会影响用户间联邦学习参数更新的质量和正确性。这样的误差又会影响算法的性能和收敛速度。此外,由于无线带宽、每个用户设备的能耗和学习对时延的严格要求等限制条件,并不是所有的无线用户都可以参与联邦学习,必须选择合适的用户子集来执行算法并优化总体联邦学习的性能。
发明内容
本发明为了解决上述问题,提出了一种在5G电网环境下5G网络中面向多任务联邦学习的资源分配策略。考虑存在多计算任务的场景,结合移动边缘计算建立系统框架,基于网络通信环境、设备时延和能耗限制条件,针对联邦学习的每一轮均进行参与学习的设备选择和网络传输资源分配,保证了联邦学习的效率和准确性。
为实现上述目的,本发明的一个或多个实施例提供了如下技术方案:
一种5G网络中面向多任务联邦学习的资源分配方法,包括以下步骤:
获取每个设备训练每个任务相应的设备运行参数、本地训练数据量和传输数据量;
结合网络环境参数、每个设备的发射功率和设备参数,确定每个设备传输每个任务所需的时延和能耗;
进行每轮训练任务时,根据每个设备向基站传输每个任务所需的时延和能耗,对参与本轮联邦学习的设备进行筛选;
在对选中的设备发送功率进行限制的前提下,进行数据传输的资源分配。
进一步地,所述设备运行参数包括设备芯片的能耗系数、CPU频率,以及设备在执行任务每比特所需要的CPU周期数。
进一步地,设备筛选和资源分配通过构建和求解用户选择与资源分配模型实现;
所述用户选择与资源分配模型是以所有任务损失函数加权和最小化为目标,以设备向基站进行上行链路数据传输时的资源块占用、每轮联邦学习设备所需满足的时延要求和能耗要求为限制条件构建的。
进一步地,所述用户选择与资源分配模型的目标函数为:
Figure BDA0003243843370000031
Figure BDA0003243843370000041
其中,
Figure BDA0003243843370000042
表示在任务j中所有设备的训练数据之和,Kmj表示每个设备m在每个任务j的样本数量,wmj表示设备m在任务j中的本地模型参数,gj表示任务j的全局模型,amj=[a1j,...,aMj]表示设备选择序号向量;fj表示任务j的损失函数。
进一步地,在对选中的设备发送功率进行限制后,所述模型简化为:
Figure BDA0003243843370000043
其中,Kmj表示每个设备m在每个任务j的样本数量,rm,j,n表示第n个RB资源分配给设备m用于执行任务j,且
Figure BDA0003243843370000044
表示一个资源只能被一个任务所占用,M表示设备个数,J表示任务数。
进一步地,采用匈牙利算法对所述模型进行求解。
进一步地,采用匈牙利算法对所述模型进行求解具体包括:
建立二分图G==(V×R,ε),其中V表示所有设备对应的所有任务集合,R表示资源块集合,其为互不相交的顶点集合,并且图中每条边连接的两个顶点,一个在V中,一个在R中,ε为各边权重;
采用匈牙利算法实现二分图的最大化匹配,得到对各个设备对资源块的分配结果。
一个或多个实施例提供了一种5G网络中面向多任务联邦学习的资源分配系统,包括:
设备数据量获取模块,用于获取每个设备训练每个任务相应的设备运行参数、本地训练数据量和传输数据量;
设备限制条件获取模块,用于结合网络环境参数、每个设备的发射功率和设备参数,确定每个设备传输每个任务所需的时延和能耗;
设备筛选模块,用于进行每轮训练任务时,根据每个设备向基站传输每个任务所需的时延和能耗,对参与本轮联邦学习的设备进行筛选;
资源分配模块,用于在对选中的设备发送功率进行限制的前提下,进行数据传输的资源分配。
一个或多个实施例提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现所述的5G网络中面向多任务联邦学习的资源分配方法。
一个或多个实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现所述的5G网络中面向多任务联邦学习的资源分配方法。
一个或多个实施例提供了一种多任务联邦学习方法,用于基站,其特征在于,每次进行全局模型的更新后,均基于所述方法确定下一轮参与学习的设备及相应资源块分配。
以上一个或多个技术方案存在以下有益效果:
考虑多计算任务存在场景,结合移动边缘计算建立系统框架,基于网络通信环境、设备时延和能耗限制条件,针对联邦学习的每一轮均进行参与学习的设备选择和网络传输资源分配,保证了联邦学习的效率和准确性。
将通信环境参数与损失函数结合,建立泛化的多任务联邦学习用户选择与资源分配模型,并求解出各任务累计损失函数加权和最小化的用户作业选择与资源分配策略。
附图说明
构成本发明的一部分的说明书附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。
图1为多任务联邦学习架构;
图2为本发明一个或多个实施例中多任务联邦学习用户选择与资源分配方法流程图;
图3为本发明一个或多个实施例中匈牙利算法优化用户任务资源选择方法流程图;
图4为本发明一个或多个实施例中总任务损失函数加权和收敛曲线;
图5为本发明一个或多个实施例中手写识别任务;
图6为本发明一个或多个实施例中手写识别任务收敛曲线;
图7为本发明一个或多个实施例中函数拟合任务;
图8为本发明一个或多个实施例中函数拟合任务收敛曲线;
图9为本发明一个或多个实施例中样本预测任务;
图10为本发明一个或多个实施例中样本预测任务收敛曲线。
具体实施方式
应该指出,以下详细说明都是示例性的,旨在对本发明提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本发明所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本发明的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
实施例一
面向多任务的学习过程,不同设备在不同任务上的执行时间、任务输入与输出数据量、任务准确率标准等方面都会存在很大差异,需要综合考虑各个方面以保证总时延、能量或者准确率等方面有所优化。本实施例提供了一种面向5G多任务联邦学习的用户选择与资源分配方法。
系统环境基于5G超密集网络场景,具体架构如图1所示,多个用户设备处于基站覆盖范围。其中,用户数量为M,用户集合为M=={1,2,3,...,M},待学习的任务类别数共J个,联邦学习任务类别集合为J=={1,2,3,...,J}。系统中存在的所有联邦学习任务类别都需要被执行,所有任务同时存在于任务池当中,每个设备有自己的能耗和时延的限制条件,每一轮联邦学习中,被选中执行联邦学习任务的设备依据限制条件判定能否参与本轮次学习,在本地各自学习之后通过无线信道上传自己的本地模型到基站,进行全局模型的更新,并通过PDSCH信道将各个任务模型下发到下一次需要执行的设备中去,执行循环直到各个任务的准确率达到指定标准。
如图2、图3所示,所述方法包括以下步骤:
步骤1:获取每个设备训练每个任务相应的设备运行参数、本地训练数据量和传输数据量;
本实施例中涉及三个不同类别的机器学习任务,包括手写识别、函数拟合和样本预测。
在步骤1中,首先初始化每个任务的本地模型参数,然后对于每个任务,分别执行联邦学习,获取各个设备执行每个任务训练对应的设备运行参数、各个任务的本地模型数据量大小,以及接收到的各个任务全局模型数据量大小即自基站接收到的数据量大小。
其中,所述设备运行参数包括该设备芯片的能耗系数、CPU频率,以及该设备在执行任务每比特所需要的CPU周期数;各个任务的本地模型数据量,和接收到的各个任务全局模型数据量大小即传输的数据量大小。
步骤2:结合网络环境参数、每个设备的发射功率和设备运行参数,确定每个设备传输每个任务所需的时延和能耗。
具体地,所述网络环境参数包括上行传输带宽、下行传输带宽和噪声功率谱密度等。
(1)能耗计算
每个设备m在执行任务j全过程的能耗表示为:
Figure BDA0003243843370000081
其中,
Figure BDA0003243843370000082
为每个设备芯片的能耗系数,
Figure BDA0003243843370000085
表示设备的CPU频率,ωmj表示设备m在执行任务j每比特所需要的CPU周期数,
Figure BDA0003243843370000083
表示设备m训练本地模型时带来的能耗,
Figure BDA0003243843370000084
表示设备m传输本地模型所带来的能耗,这里由于基站连续供电,所以在这里不考虑基站的能耗。在采用后续的模型进行求解之前,上述参数依据每个任务在设备上执行进行预先获取。
(2)时延计算
设备m通过上行共享信道(PUSCH)向基站传输任务j的模型参数,传输速率为:
Figure BDA0003243843370000091
Figure BDA0003243843370000092
其中,rmj=[rmj,1,...,rmj,R]表示RB分配向量,rmj,n表示第n个RB资源分配给设备m用于执行任务j。在一次迭代中,每个资源块只能分配给一个设备去执行一个任务,因此限制
Figure BDA0003243843370000093
Pmj表示设备m传输任务j参数时的发射功率,In表示第n个资源块的干扰,BU表示上行传输带宽,N0表示噪声功率谱密度,hmj表示平均信道增益。
全局模型的下发使用下行共享信道(PDSCH),基站向设备传输的下行传输速率表示为:
Figure BDA0003243843370000094
其中,BD表示下行传输带宽,PB表示基站的发送功率,ID表示下行传输的干扰,N0表示噪声功率谱密度,hmj表示平均信道增益。
上行传输与下行传输的传输时延分别表示为:
Figure BDA0003243843370000095
Figure BDA0003243843370000096
其中,Z(wmj)表示本地任务j在设备m上的数据量大小,Z(gj)表示任务j全局模型的数据量大小。
步骤3:进行每轮训练任务时,根据每个设备向基站传输每个任务所需的时延和能耗,对参与本轮联邦学习的设备进行筛选。
步骤4:在对选中的设备发送功率进行限制的前提下,进行数据传输的资源分配。
所述步骤3和步骤4通过求解优化问题的方法来实现。具体地,采用
Figure BDA0003243843370000101
表示每个设备m在每个任务j中输入矩阵。其中,Kmj表示每个设备m在每个任务j的样本数量,wmj表示设备m在任务j中的本地模型参数,
Figure BDA0003243843370000102
表示设备m在任务j的输出向量,联邦学习训练过程旨在最小化所有任务损失函数加权和,其优化问题可以表示为下式所示:
Figure BDA0003243843370000103
Figure BDA0003243843370000104
其中,fj表示任务j的损失函数,
Figure BDA0003243843370000105
表示在任务j中所有设备的训练数据大小之和。gj表示任务j的全局模型,ρj表示任务j的损失函数权值,优化问题的限制条件为最终每项任务的本地化模型与全局模型统一。
传统联邦学习任务在全局模型的更新为所有任务的参数均值,本实施例所提出融合无线网络不确定性环境的因素下,为提高处理数据效率和精确度,只对参与联邦学习的任务进行参数平均,更新之后的全局模型再分别下发到各任务的本地模型中进行下一轮的本地模型更新。任务j全局模型的更新表示为:
Figure BDA0003243843370000111
其中amj=[a1j,…,aMj]表示用户选择序号的向量。
对于区域内存在的所有任务j,结合无线网络环境与联邦学习,我们以所有任务损失函数加权和最小化为目标,解决如下优化问题:
Figure BDA0003243843370000112
Figure BDA0003243843370000113
Figure BDA0003243843370000114
Figure BDA0003243843370000115
Figure BDA0003243843370000116
Figure BDA0003243843370000117
Figure BDA0003243843370000118
其中,γT表示实行联邦学习的时延要求,γE表示实行联邦学习的能耗要求,(13)和(14)限制每个用户只能占用一个RB用于一个任务的上行链路数据传输,(15)限制每个学习步骤参与用户需要满足的时延要求,(16)限制每个学习步骤参与用户需要满足的能耗要求,(17)限制每个上行链路RB最多只能分配给一个用户,(18)是最大发射功率限制。
以下为用户选择与资源分配优化计算过程:
需要对目标函数进行简化,寻找各任务平均收敛速度与无线网络因素的关系,然后,用限制条件对用户选择进行筛选优化,最后,对选中用户的发送功率和MEC端资源分配进行优化分配与排队。具体过程如下所示。
首先,为研究各任务期望收敛速度,令
Figure BDA0003243843370000121
Figure BDA0003243843370000122
表示梯度,由于各类损失函数的精度范围有所不同并且量级差别较大,将每类损失函数都进行归一化处理,并按照实际任务重要情况对每类任务进行权重分配,求解期望收敛速度时作如下假设。
假设1假设
Figure BDA0003243843370000123
关于g是一致Lipschitz连续的,因此可以得到:
Figure BDA0003243843370000124
其中N为正整数。
假设2假设F(g)是带正参数μ的强凸函数,即:
Figure BDA0003243843370000125
假设3假设F(g)是连续两次可微的,根据(19)和(20)可以得到:
Figure BDA0003243843370000126
假设4假设
Figure BDA0003243843370000127
且ζ12≥0。
然后,分析无线网络因素影响,即在所限制的时延与能耗条件下,用户是否能达到要求参与本轮次联邦学习,由上述假设与(12)。可以得到在给定传输功率P,RB资源矩阵R,用户选择向量a,最优全局模型参数g*,学习率
Figure BDA0003243843370000128
条件后,
Figure BDA0003243843370000129
的上界可以表示为
Figure BDA00032438433700001210
其中
Figure BDA00032438433700001211
此时我们需要对无线网络因素对联邦学习收敛影响最小化,只需要最小化
Figure BDA0003243843370000131
即可。这时我们首先对用户功率进行限制,对参与进入联邦学习的用户再进行资源分配。用户的参与联邦学习所需功率限制为:
Figure BDA0003243843370000132
其中,Pmj,γE为满足γE的最大发射功率,此时优化问题可以简化为:
Figure BDA0003243843370000133
Figure BDA0003243843370000134
Figure BDA0003243843370000135
Figure BDA0003243843370000136
Figure BDA0003243843370000137
Figure BDA0003243843370000138
最后,对目标函数进行求解,(25)为线性函数,约束为非线性,由于网络中每个用户存在多个学习任务,用户U与任务J对应的二维关系可以展开为包含所有用户所有任务的一维向量V,此时使用二部图匹配算法进行问题求解。
建立二分图G==(V×R,ε),其中V表示所有用户对应的所有任务集合,R表示RB资源块集合,其为互不相交的顶点集合,并且图中每条边连接的两个顶点,一个在V中,一个在R中,ε为各边权重。这里使用匈牙利算法实现二分图的最大化匹配,核心在于增广路径的寻找,匈牙利算法具体实现过程如图2所示。最终以实现在多任务情况下联邦学习与无线通信条件融合的用户选择与联合RB资源块的优化分配。
本实施例根据实际无线网络环境体条件与设备自身存在的时延与能耗限制,以所有任务各自损失函数最小化为目标,建模用户选择与资源分配联合优化问题,并利用匈牙利算法进行求解,实现了在多任务情况下联邦学习中用户选择与无线网络资源的分配优化。结合三种对比算法,即保证资源分配最优但是用户随机选择(base1)、资源分配与用户选择均随机(base2)与确保资源分配与用户选择均为最优但是不关注联邦学习本身参数(base3),在执行时延最小化与任务错误率最小化中进行验证仿真,观察效果。
实施例二
本实施例的目的是提供一种5G网络中面向多任务联邦学习的资源分配系统,所述系统包括:
设备数据量获取模块,用于获取每个设备训练每个任务相应的设备运行参数、本地训练数据量和传输数据量;
设备限制条件获取模块,用于结合网络环境参数、每个设备的发射功率和设备参数,确定每个设备传输每个任务所需的时延和能耗;
设备筛选模块,用于进行每轮训练任务时,根据每个设备向基站传输每个任务所需的时延和能耗,对参与本轮联邦学习的设备进行筛选;
资源分配模块,用于在对选中的设备发送功率进行限制的前提下,进行数据传输的资源分配。
实施例三
本实施例的目的是提供一种电子设备。
一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如实施例一中所述的5G网络中面向多任务联邦学习的资源分配方法。
实施例四
本实施例的目的是提供一种计算机可读存储介质。
一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如实施例一中所述的5G网络中面向多任务联邦学习的资源分配方法。
实施例五
本实施例的目的是提供一种面向5G多任务联邦学习方法,用于基站,其特征在于,每次进行全局模型的更新后,均基于如实施例一所述方法确定下一轮参与学习的设备及相应资源块分配。
以上实施例二至五中涉及的各步骤与方法实施例一相对应,具体实施方式可参见实施例一的相关说明部分。术语“计算机可读存储介质”应该理解为包括一个或多个指令集的单个介质或多个介质;还应当被理解为包括任何介质,所述任何介质能够存储、编码或承载用于由处理器执行的指令集并使处理器执行本发明中的任一方法。
本领域技术人员应该明白,上述本发明的各模块或各步骤可以用通用的计算机装置来实现,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。本发明不限制于任何特定的硬件和软件的结合。
上述虽然结合附图对本发明的具体实施方式进行了描述,但并非对本发明保护范围的限制,所属领域技术人员应该明白,在本发明的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本发明的保护范围以内。

Claims (10)

1.一种5G网络中面向多任务联邦学习的资源分配方法,其特征在于,包括以下步骤:
获取每个设备训练每个任务相应的设备运行参数、本地训练数据量和传输数据量;
结合网络环境参数、每个设备的发射功率和设备参数,确定每个设备传输每个任务所需的时延和能耗;
进行每轮训练任务时,根据每个设备向基站传输每个任务所需的时延和能耗,对参与本轮联邦学习的设备进行筛选;
在对选中的设备发送功率进行限制的前提下,进行数据传输的资源分配。
2.如权利要求1所述的一种5G网络中面向多任务联邦学习的资源分配方法,其特征在于,所述设备运行参数包括设备芯片的能耗系数、CPU频率,以及设备在执行任务每比特所需要的CPU周期数。
3.如权利要求1所述的一种5G网络中面向多任务联邦学习的资源分配方法,其特征在于,设备筛选和资源分配通过构建和求解用户选择与资源分配模型实现;
所述用户选择与资源分配模型是以所有任务损失函数加权和最小化为目标,以设备向基站进行上行链路数据传输时的资源块占用、每轮联邦学习设备所需满足的时延要求和能耗要求为限制条件构建的。
4.如权利要求3所述的一种5G网络中面向多任务联邦学习的资源分配方法,其特征在于,所述用户选择与资源分配模型的目标函数为:
Figure FDA0003243843360000021
Figure FDA0003243843360000022
其中,
Figure FDA0003243843360000023
表示在任务j中所有设备的训练数据之和,Kmj表示每个设备m在每个任务j的样本数量,wmj表示设备m在任务j中的本地模型参数,gj表示任务j的全局模型,amj=[a1j,...,aMj]表示设备选择序号向量;fj表示任务j的损失函数。
5.如权利要求4所述的一种5G网络中面向多任务联邦学习的资源分配方法,其特征在于,在对选中的设备发送功率进行限制后,所述模型简化为:
Figure FDA0003243843360000024
其中,Kmj表示每个设备m在每个任务j的样本数量,rmj,n表示第n个RB资源分配给设备m用于执行任务j,M表示设备个数,J表示任务数
Figure FDA0003243843360000025
6.如权利要求5所述的一种5G网络中面向多任务联邦学习的资源分配方法,其特征在于,采用匈牙利算法对所述模型进行求解:
建立二分图G==(V×R,ε),其中V表示所有设备对应的所有任务集合,R表示资源块集合,其为互不相交的顶点集合,并且图中每条边连接的两个顶点,一个在V中,一个在R中,ε为各边权重;
采用匈牙利算法实现二分图的最大化匹配,得到对各个设备对资源块的分配结果。
7.一种5G网络中面向多任务联邦学习的资源分配系统,其特征在于,包括:
设备数据量获取模块,用于获取每个设备训练每个任务相应的设备运行参数、本地训练数据量和传输数据量;
设备限制条件获取模块,用于结合网络环境参数、每个设备的发射功率和设备参数,确定每个设备传输每个任务所需的时延和能耗;
设备筛选模块,用于进行每轮训练任务时,根据每个设备向基站传输每个任务所需的时延和能耗,对参与本轮联邦学习的设备进行筛选;
资源分配模块,用于在对选中的设备发送功率进行限制的前提下,进行数据传输的资源分配。
8.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如权利要求1-6任一项所述的5G网络中面向多任务联邦学习的资源分配方法。
9.一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如权利要求1-6任一项所述的5G网络中面向多任务联邦学习的资源分配方法。
10.一种多任务联邦学习方法,用于基站,其特征在于,每次进行全局模型的更新后,均基于如权利要求1-6任一项所述方法确定下一轮参与学习的设备及相应资源块分配。
CN202111029164.3A 2021-09-02 2021-09-02 5g网络中面向多任务联邦学习的资源分配方法及系统 Pending CN113900796A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111029164.3A CN113900796A (zh) 2021-09-02 2021-09-02 5g网络中面向多任务联邦学习的资源分配方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111029164.3A CN113900796A (zh) 2021-09-02 2021-09-02 5g网络中面向多任务联邦学习的资源分配方法及系统

Publications (1)

Publication Number Publication Date
CN113900796A true CN113900796A (zh) 2022-01-07

Family

ID=79188608

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111029164.3A Pending CN113900796A (zh) 2021-09-02 2021-09-02 5g网络中面向多任务联邦学习的资源分配方法及系统

Country Status (1)

Country Link
CN (1) CN113900796A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114465900A (zh) * 2022-03-01 2022-05-10 北京邮电大学 基于联邦边缘学习的数据共享时延优化方法及装置
CN115021883A (zh) * 2022-07-13 2022-09-06 北京物资学院 无线蜂窝系统中应用联邦学习的信令机制
CN115174412A (zh) * 2022-08-22 2022-10-11 深圳市人工智能与机器人研究院 针对异构联邦学习系统的动态带宽分配方法以及相关设备
CN115329987A (zh) * 2022-08-04 2022-11-11 苏州大学 一种联邦学习系统中用户选择的方法
CN116484922A (zh) * 2023-04-23 2023-07-25 深圳大学 一种联邦学习方法、系统、设备及存储介质

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114465900A (zh) * 2022-03-01 2022-05-10 北京邮电大学 基于联邦边缘学习的数据共享时延优化方法及装置
CN115021883A (zh) * 2022-07-13 2022-09-06 北京物资学院 无线蜂窝系统中应用联邦学习的信令机制
CN115021883B (zh) * 2022-07-13 2022-12-27 北京物资学院 无线蜂窝系统中应用联邦学习的信令机制
CN115329987A (zh) * 2022-08-04 2022-11-11 苏州大学 一种联邦学习系统中用户选择的方法
CN115174412A (zh) * 2022-08-22 2022-10-11 深圳市人工智能与机器人研究院 针对异构联邦学习系统的动态带宽分配方法以及相关设备
CN115174412B (zh) * 2022-08-22 2024-04-12 深圳市人工智能与机器人研究院 针对异构联邦学习系统的动态带宽分配方法以及相关设备
CN116484922A (zh) * 2023-04-23 2023-07-25 深圳大学 一种联邦学习方法、系统、设备及存储介质
CN116484922B (zh) * 2023-04-23 2024-02-06 深圳大学 一种联邦学习方法、系统、设备及存储介质

Similar Documents

Publication Publication Date Title
CN113900796A (zh) 5g网络中面向多任务联邦学习的资源分配方法及系统
Yu et al. Toward resource-efficient federated learning in mobile edge computing
Xia et al. Multi-armed bandit-based client scheduling for federated learning
CN110928654B (zh) 一种边缘计算系统中分布式的在线任务卸载调度方法
CN111756812A (zh) 一种能耗感知的边云协同动态卸载调度方法
Qin et al. Task selection and scheduling in UAV-enabled MEC for reconnaissance with time-varying priorities
Sun et al. Edge learning with timeliness constraints: Challenges and solutions
Younis et al. Energy-latency-aware task offloading and approximate computing at the mobile edge
CN111556516A (zh) 面向时延和能效敏感业务的分布式无线网络任务协同分配方法
Zhang et al. Deep reinforcement learning-based offloading decision optimization in mobile edge computing
Hu et al. Deep reinforcement learning for task offloading in edge computing assisted power IoT
Li et al. Energy-efficient resource allocation for application including dependent tasks in mobile edge computing
CN109976873A (zh) 容器化分布式计算框架的调度方案获取方法及调度方法
Duo et al. Joint dual-UAV trajectory and RIS design for ARIS-assisted aerial computing in IoT
Huang et al. Towards video streaming analysis and sharing for multi-device interaction with lightweight dnns
CN116939866A (zh) 一种基于协同计算和资源分配联合优化的无线联邦学习效率提升方法
CN112445617A (zh) 一种基于移动边缘计算的负载策略选择方法及系统
CN114143317B (zh) 面向跨云层移动边缘计算的多优先级计算卸载策略优化方法
Wang et al. Task offloading for edge computing in industrial Internet with joint data compression and security protection
Li Optimization of task offloading problem based on simulated annealing algorithm in MEC
Quintuna et al. On dimensioning cloud-RAN systems
CN114330464A (zh) 一种融合元学习的多终端协同训练算法及系统
Liu et al. Joint radio map construction and dissemination in MEC networks: a deep reinforcement learning approach
Zhang et al. Deploying GIS services into the edge: A study from performance evaluation and optimization viewpoint
CN111611069A (zh) 多数据中心间多类型任务迁移方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination