CN114650228A - 一种异构网络中基于计算卸载的联邦学习调度方法 - Google Patents
一种异构网络中基于计算卸载的联邦学习调度方法 Download PDFInfo
- Publication number
- CN114650228A CN114650228A CN202210274109.9A CN202210274109A CN114650228A CN 114650228 A CN114650228 A CN 114650228A CN 202210274109 A CN202210274109 A CN 202210274109A CN 114650228 A CN114650228 A CN 114650228A
- Authority
- CN
- China
- Prior art keywords
- user
- base station
- sub
- local
- optimization
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/14—Network analysis or design
- H04L41/145—Network analysis or design involving simulating, designing, planning or modelling of a network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/08—Configuration management of networks or network elements
- H04L41/0803—Configuration setting
- H04L41/0823—Configuration setting characterised by the purposes of a change of settings, e.g. optimising configuration for enhancing reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Abstract
本发明公开了一种异构网络中基于计算卸载的联邦学习调度方法,首先宏基站利用用户本地的数据训练机器学习模型,用户可以将这些数据卸载到小基站附近的边缘服务器进行计算;然后综合考虑了联邦学习的精度,以及运算和通信中产生的能耗和时延,建立了优化问题,并分成了对本地学习精度和卸载决策,用户计算频率,用户资源块分配进行优化这三个子问题。通过仿真,本发明分析了在不同参数条件下所取得的效果。仿真结果表明,本发明提出的方法可以有效降低训练过程中的开销。
Description
技术领域
本发明属于无线通信技术领域,尤其涉及一种异构网络中基于计算卸载的联邦学习调度方法。
背景技术
随着用户终端的数量不断增加,大量的个人数据将会随之产生,这些大数据为人工智能的飞速发展提供了坚实的物质基础。然而,机器学习中所需的数据都涉及多种类型,归属不同的个人和部门,数据是以孤岛的形式存在,将这些大量的数据传输到统一的平台需要消耗大量的通信资源,另外考虑到用户隐私和数据安全问题,收集和融合这些数据将面临许多挑战。联邦学习能够在满足用户隐私保护和数据安全前提下,在用户本地进行分布式的数据使用和机器学习建模,有效降低了通信资源的开销,解决了数据孤岛问题,实现AI协作。
联邦学习技术刚刚兴起,还存在许多问题需要研究,例如如何调度训练任务、分配计算资源和通信资源,以达到训练速度与精度的平衡。然而,现有的发明没有考虑用户设备资源受限的问题,比如用户设备的电池电量有限,终端设备的计算资源较少,处理速度较慢,本地训练会占用大量处理器资源,很容易影响用户的体验等。最近边缘计算技术迅猛发展,边缘计算可以给联邦学习用户训练带来的便利,出现了基于边缘计算实现分层联邦学习的架构方案。作为分布式机器学习的一种实现,联邦学习与边缘计算相互之间有许多交点,目前的许多发明只考虑了单个边缘服务器和客户端本身的训练能力,并未考虑异构网络场景下多边缘服务器和通信资源分配的影响。
发明内容
解决的技术问题:目前的许多发明只考虑了单个边缘服务器和客户端本身的训练能力,并未考虑异构网络场景下多边缘服务器和通信资源分配的影响。
技术方案:。
一种异构网络中基于计算卸载的联邦学习调度方法,所述联邦学习调度方法包括以下步骤:
S1,获取异构网络中联邦学习系统的环境参数和用户参数;在异构网络多MEC系统中,用户利用本地数据训练得到子模型,并将子模型发送给宏基站上的中央服务器,在中央服务器上聚合用户子模型以获得全局模型;对于资源较少无法及时完成本地训练的用户,将本地数据卸载到小基站上的边缘服务器进行计算;
S2,构建通信和计算模型,该通信和计算模型综合考虑计算和通信产生的能耗、时延以及联邦学习精度,建立用户开销最小化的优化问题,将其分成为信道分配、用户计算资源分配及本地学习精度和卸载决策三个子问题,通过对三个子问题进行求解,得到最优资源分配方案和卸载决策,使所有用户移动设备整体能耗和时延最小。
进一步地,步骤S1中,异构网络由宏基站与小基站组成,在宏基站的覆盖rmbs范围内,随机分布了N个拥有边缘服务器的小基站和I个用户设备;定义所有用户设备的集合为小基站的集合为每个用户设备i本地存储有大小为oi的训练数据集其中si为数据数量,xik为模型输入变量,yik为模型输出变量;当用户设备在小基站的覆盖范围rsbs内时,允许选择将这一轮的联邦学习训练任务卸载至小基站上的边缘服务器训练,再将训练好的模型参数上传至宏基站进行合并。
进一步地,当用户的损失函数采用li(w,xik,yik)时,将局部损失函数定义为:
全局损失函数定义为各用户局部损失函数的加权,表示为:
重复迭代更新直到模型收敛为止;在第t次迭代中,用户接受基站发送的模型参数wt,并迭代减小损失函数达到精度阈值θi,当所有的用户都完成训练后,将本地模型参数和损失函数的梯度发送给基站,得到全局损失函数的梯度为:
基站将t+1次的模型参数更新为wt+1,并发送给用户再进行下一步训练,更新的模型参数为:
本地用户i的迭代次数受精度阈值影响,表示为:
其中ci是受到损失函数类型和全局收敛条件影响的参数。
进一步地,步骤S2中,所述构建通信和计算模型的过程包括以下步骤:
假设用户设备i分配给本地训练的计算资源为fi,根据下述公式计算本地计算的能量消耗:
其中,α的值为能耗系数,bi表示1比特数据所需要的CPU运算周期;
本地计算的时长表示为:
当用户设备i选择将训练任务卸载至小基站服务器执行时,根据下述公式计算用户设备卸载数据集的传输时延Ti com:
当用户设备将数据集的卸载完成后,小基站服务器计算所需要的时间为:
如果卸载到小基站n的用户人数为un,则用户完成一次卸载所需要的总时延为:
Ti off=Ti com+Ti mec;
用户设备的卸载能耗即为通信过程中产生的能耗,表示为:
进一步地,步骤S2中,所述通信和计算模型建立的用户开销最小化的优化问题为:
s.t.fi min≤fi≤fi max
0≤θi≤1
θi≤θ
ai∈{0,1}
其中,k为加权系数,fi min为用户最小计算频率,fi max为用户最大计算频率,θi为用户的精度阈值,M为总信道数,Tmax为用户训练时延,Tmax=max{aiTi off+(1-ai)Ti loc,i∈[1,n]};用户设备i的卸载决策表示为ai∈{0,1},其中ai=0表示在本地执行,ai=1表示卸载至边缘服务器。
进一步地,步骤S2,将用户开销最小化的优化问题分成为信道分配、用户计算资源分配及本地学习精度和卸载决策三个子问题包括:
S21,对信道分配变量mi进行优化,信道分配优化子问题为:
采用贪婪算法求解信道分配优化子问题,将信道分配给能够使得优化目标最优的用户设备;
s.t.fi max≤fi≤fi max
采用KKT条件求解计算资源分配优化子问题,对本地执行用户的最优计算频率进行优化;
S23,对本地学习精度和卸载决策进行优化,学习精度和卸载决策优化子问题为:
s.t.0≤θi≤1
θi≤θ
ai∈{0,1}
采用坐标下降法求解学习精度和卸载决策优化子问题,确定联邦学习用户的最优卸载决策方案。
进一步地,步骤S21中,采用贪婪算法求解信道分配优化子问题,将信道分配给能够使得优化目标最优的用户设备的过程包括以下步骤:
S212,对rem进行判断,若rem>0,则转入步骤S213,否则转入步骤S219;
S214,计算value[i]=cost1-cost2;value(i)为用户i的目标值;
S217,将rem的值减小1;
S218,回到步骤S212。
进一步地,步骤S22中,采用KKT条件求解计算资源分配优化子问题,对本地执行用户的最优计算频率进行优化的过程包括以下步骤:
S221,将资源分配优化子问题P3中的子问题转化为对时延最优值的求解,时延优化问题表示为:
S222,采用KKT条件求解优化问题P4,解得:
S224,确定本地卸载用户的最优计算频率,要求所有用户都以最大时延为目标,且计算频率不能低于设备的最低频率,最优计算频率表示为:
进一步地,步骤S23中,采用坐标下降法求解学习精度和卸载决策优化子问题,确定联邦学习用户的最优卸载决策方案的过程包括以下步骤:
计算所有用户到最近的小基站的距离,根据小基站覆盖范围确定卸载用户数,具体过程包括:
S232,根据计算资源分配和信道分配算法求解相应的最优值;
S238,将z的值增加1;
S239,转入步骤S233。
其中,v为用户到最近小基站的距离,p为可卸载用户数,为在小基站覆盖范围内的可卸载用户集合,矩阵表示用户的卸载决策;初始卸载矩阵的元素全为0,表示第z-1次迭代时的卸载决定,Z表示最终迭代次数;表示第z次迭代时改变当前卸载决定后优化目标的减小量; 表示第z-1次迭代时的卸载矩阵,改变用户j决定后的矩阵;
在每次迭代中,在当前点处沿一个坐标方向进行一维搜索以求得一个函数的局部极小值,经过多次迭代收敛。
基于前述方法,本发明还提出了一种异构网络中基于计算卸载的联邦学习调度系统,所述联邦学习调度系统包括:
获取模块,用于获取异构网络中联邦学习系统的环境参数和用户参数;在异构网络多MEC系统中,用户利用本地数据训练得到子模型,并将子模型发送给宏基站上的中央服务器,在中央服务器上聚合用户子模型以获得全局模型;对于资源较少无法及时完成本地训练的用户,将本地数据卸载到小基站上的边缘服务器进行计算;
优化计算模块,用于构建通信和计算模型,该通信和计算模型综合考虑计算和通信产生的能耗、时延以及联邦学习精度,建立用户开销最小化的优化问题,将其分成为信道分配、用户计算资源分配及本地学习精度和卸载决策三个子问题,通过对三个子问题进行求解,得到最优资源分配方案和卸载决策,使所有用户移动设备整体能耗和时延最小。
有益效果:
本发明的异构网络中基于计算卸载的联邦学习调度方法,在不同的精度阈值和能耗时延权值条件下,本发明提出的方法都能够有较好的优化效果,提升了系统的总体性能。仿真分析了用户数和精度阈值对性能的影响,仿真结果表明,本发明所提出的算法可以有效降低训练过程中的开销。
附图说明
图1为本发明的异构网络中基于计算卸载的联邦学习调度方法的场景模型示意图。
图2为本发明的异构网络中基于计算卸载的联邦学习调度方法的系统结构示意图。
图3为本发明的异构网络中基于计算卸载的联邦学习调度方法流程图。
具体实施方式
下面的实施例可使本专业技术人员更全面地理解本发明,但不以任何方式限制本发明。
参见图3,本发明的异构网络下边缘计算系统中一种基于计算卸载的联邦学习调度方法,包括以下步骤:
步骤一、建立了异构网络多MEC系统中基于计算卸载的联邦学习模型,系统中用户利用本地数据训练得到子模型,并将子模型发送给宏基站上的中央服务器,在中央服务器上聚合用户子模型以获得全局模型,对于资源较少无法及时完成本地训练的用户,可以将本地数据卸载到小基站上的边缘服务器进行计算。
步骤二、综合考虑计算和通信产生的能耗、时延以及联邦学习精度,建立了用户开销最小化的优化问题,由于优化问题为np-hard问题,本发明将其分成为信道分配、用户计算资源分配及本地学习精度和卸载决策三个子问题,并分别采用KKT条件求解方法和坐标下降法进行求解。
(1)异构网络多MEC系统模型
本发明的系统模型如附图1所示,异构网络由一个宏基站(MBS)与小基站(SBS)组成,在宏基站的覆盖rmbs范围内,随机分布了N个拥有边缘服务器(MEC)小基站和I个用户设备(UE)。定义所有用户设备的集合为小基站的集合为每个用户设备i本地存储有大小为oi的训练数据集其中si为数据数量,xik为模型输入变量,yik为模型输出变量。当用户设备在小基站的覆盖范围rsbs内时,可以选择将这一轮的联邦学习训练任务卸载至小基站上的边缘服务器训练,训练好的模型参数将会上传至宏基站进行合并。
联邦学习的目标是减少全局损失函数,当用户的损失函数采用li(w,xik,yik)时,局部损失函数可以定义为:
此时,全局损失函数可以定义为各用户局部损失函数的加权,表示为:
本发明采用的联邦学习机制如图2所示,在第t次迭代中,用户接受基站发送的模型参数wt,并迭代减小损失函数达到精度阈值θi,本发明所采用的是同步联邦学习模型,故当所有的用户都完成训练后,才会将本地模型参数和损失函数的梯度发送给基站,可以得到全局损失函数的梯度为:
基站可以将t+1次的模型参数更新为wt+1,并发送给用户再进行下一步训练,更新的模型参数为:
这样的迭代更新一直持续到模型收敛为止,本地用户i的迭代次数主要受到要求的精度阈值的影响,表示为:
其中ci是受到损失函数类型和全局收敛条件影响的参数,为运算方便,本发明ci的值取1。
(2)通信和计算模型
假设用户设备i分配给本地训练的计算资源为fi,则本地计算的能量消耗可以表示为:
其中,α的值为能耗系数,bi表示1比特数据所需要的CPU运算周期。
本地计算的时长表示为:
当用户i选择将训练任务卸载至小基站服务器执行时,需要将训练数据发送到小基站,用户的传输速率表示为:
其中B为单个资源块的带宽,mi为分配给用户的资源块数,hi为信道增益,N0为噪声功率谱密度。此时,用户设备卸载数据集的传输时延为:
用户设备将数据集的卸载完成后,小基站服务器会调用自身的计算资源来处理学习任务,小基站服务器计算所需要的时间为:
如果卸载到小基站n的用户人数为un,则用户完成一次卸载所需要的总时延为:
Ti off=Ti com+Ti mec (11);
用户设备的卸载能耗即为通信过程中产生的能耗,表示为:
当边缘服务器完成计算后,需要回传模型参数给用户,用户再将机器学习模型参数再传送给基站,由于模型参数的数据量远小于训练数据,故忽略这部分的传输时延。
(3)优化问题
在联邦学习数据卸载的决策过程中,每个用户会对本地计算与卸载的开销进行评估,然后做出卸载决策。用户i的卸载决策表示为ai∈{0,1},其中ai=0表示在本地执行,ai=1表示卸载至边缘服务器。集合为卸载用户集合,为本地执行用户集合。同时所有用户设备的融合训练精度不得大于最小精度θ(θ为0到1之间的数,它的值越小则模型的参数越精确,训练的迭代次数越大)。由于是同步联邦学习模型,所有用户都完成训练后才发送给基站服务器,因此用户训练时延为所有用户中的最大时延,表示为:
Tmax=max{aiTi off+(1-ai)Ti loc,i∈[1,n]} (13);
本发明的优化目标主要是降低联邦学习过程中最大时延和能耗,可以表示为:
s.t.fi min≤fi≤fi max (14b)
0≤θi≤1 (14c)
θi≤θ (14d)
ai∈{0,1} (14e)
其中,k为加权系数,fi min为用户最小计算频率,fi max为用户最大计算频率,θi为用户的精度阈值,M为总信道数。由于存在卸载决策ai这一整数优化变量,使得上述优化问题成为混合整数非线性规划问题,且该问题是一个NP-Hard问题。
(4)信道分配
信道分配优化子问题是在其他变量确定时对信道分配变量mi进行优化,信道分配优化子问题可以描述为:
本发明采用贪婪算法对信道进行分配,即将信道分配给能够使得优化目标最优的用户。具体步骤如算法1所示,其中value(i)为用户i的目标值,rem为还没有分配的信道数。方法步骤如下:
2:初始化rem。
3:若rem>0,则进行下一步,否则转入第7步。
5:计算value[i]=cost1-cost2。
6:回到第3步。
9:rem的值减小1。
10:返回第3步。
(5)计算资源分配
Subject to fi min≤fi≤fi max (16c)
由于时延和计算频率之间存在确定关系,因此首先将(16a)中的子问题转化为对时延最优值的求解,时延优化问题表示为:
优化问题P4为含有不等式约束的凸优化问题,故可采用KKT条件来求解此问题,解得:
接下来确定本地卸载用户的最优计算频率,要求所有用户都以最大时延为目标,且计算频率不能低于设备的最低频率,最优计算频率表示为:
(6)精度优化和卸载决策
信道和计算频率分配完成后,主要对学习精度和卸载决策进行优化,优化子问题表示为:
Subject to 0≤θi≤1 (22b)
θi≤θ (22c)
ai∈{0,1} (22d)
本发明采用坐标下降法求解最优卸载决策,该算法是一个迭代算法,能够很快收敛到最优卸载决策矩阵。首先,计算所有用户到最近的小基站的距离,根据小基站覆盖范围确定卸载用户数。其中v为用户到最近小基站的距离,p为可卸载用户数,为在小基站覆盖范围内的可卸载用户集合,矩阵表示用户的卸载决策。初始卸载矩阵的元素全为0,表示第z-1次迭代时的卸载决定,Z表示最终迭代次数。表示第z次迭代时改变当前卸载决定后优化目标的减小量。
该算法在每次迭代中,在当前点处沿一个坐标方向进行一维搜索以求得一个函数的局部极小值,经过多次迭代可收敛。,具体过程如下述算法所示:
1:初始化矩阵A。
3:根据计算资源分配和信道分配算法求解相应的最优值。
10:令z的值增加1。
11:回到第3步。
以上仅是本发明的优选实施方式,本发明的保护范围并不仅局限于上述实施例,凡属于本发明思路下的技术方案均属于本发明的保护范围。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理前提下的若干改进和润饰,应视为本发明的保护范围。
Claims (10)
1.一种异构网络中基于计算卸载的联邦学习调度方法,其特征在于,所述联邦学习调度方法包括以下步骤:
S1,获取异构网络中联邦学习系统的环境参数和用户参数;在异构网络多MEC系统中,用户利用本地数据训练得到子模型,并将子模型发送给宏基站上的中央服务器,在中央服务器上聚合用户子模型以获得全局模型;对于资源较少无法及时完成本地训练的用户,将本地数据卸载到小基站上的边缘服务器进行计算;
S2,构建通信和计算模型,该通信和计算模型综合考虑计算和通信产生的能耗、时延以及联邦学习精度,建立用户开销最小化的优化问题,将其分成为信道分配、用户计算资源分配及本地学习精度和卸载决策三个子问题,通过对三个子问题进行求解,得到最优资源分配方案和卸载决策,使所有用户移动设备整体能耗和时延最小。
3.根据权利要求2所述的异构网络中基于计算卸载的联邦学习调度方法,其特征在于,当用户的损失函数采用li(w,xik,yik)时,将局部损失函数定义为:
全局损失函数定义为各用户局部损失函数的加权,表示为:
重复迭代更新直到模型收敛为止;在第t次迭代中,用户接受基站发送的模型参数wt,并迭代减小损失函数达到精度阈值θi,当所有的用户都完成训练后,将本地模型参数和损失函数的梯度发送给基站,得到全局损失函数的梯度为:
基站将t+1次的模型参数更新为wt+1,并发送给用户再进行下一步训练,更新的模型参数为:
本地用户i的迭代次数受精度阈值影响,表示为:
其中ci是受到损失函数类型和全局收敛条件影响的参数。
4.根据权利要求1所述的异构网络中基于计算卸载的联邦学习调度方法,其特征在于,步骤S2中,所述构建通信和计算模型的过程包括以下步骤:
假设用户设备i分配给本地训练的计算资源为fi,根据下述公式计算本地计算的能量消耗:
其中,α的值为能耗系数,bi表示1比特数据所需要的CPU运算周期;
本地计算的时长表示为:
当用户设备i选择将训练任务卸载至小基站服务器执行时,根据下述公式计算用户设备卸载数据集的传输时延Ti com:
当用户设备将数据集的卸载完成后,小基站服务器计算所需要的时间为:
如果卸载到小基站n的用户人数为un,则用户完成一次卸载所需要的总时延为:
用户设备的卸载能耗即为通信过程中产生的能耗,表示为:
6.根据权利要求5所述的异构网络中基于计算卸载的联邦学习调度方法,其特征在于,步骤S2,将用户开销最小化的优化问题分成为信道分配、用户计算资源分配及本地学习精度和卸载决策三个子问题包括:
S21,对信道分配变量mi进行优化,信道分配优化子问题为:
采用贪婪算法求解信道分配优化子问题,将信道分配给能够使得优化目标最优的用户设备;
采用KKT条件求解计算资源分配优化子问题,对本地执行用户的最优计算频率进行优化;
S23,对本地学习精度和卸载决策进行优化,学习精度和卸载决策优化子问题为:
s.t.0≤θi≤1
θi≤θ
ai∈{0,1}
采用坐标下降法求解学习精度和卸载决策优化子问题,确定联邦学习用户的最优卸载决策方案。
7.根据权利要求6所述的异构网络中基于计算卸载的联邦学习调度方法,其特征在于,步骤S21中,采用贪婪算法求解信道分配优化子问题,将信道分配给能够使得优化目标最优的用户设备的过程包括以下步骤:
S212,对rem进行判断,若rem>0,则转入步骤S213,否则转入步骤S219;
S214,计算value[i]=costl-cost2;value(i)为用户i的目标值;
S217,将rem的值减小1;
S218,回到步骤S212。
8.根据权利要求6所述的异构网络中基于计算卸载的联邦学习调度方法,其特征在于,步骤S22中,采用KKT条件求解计算资源分配优化子问题,对本地执行用户的最优计算频率进行优化的过程包括以下步骤:
S221,将资源分配优化子问题P3中的子问题转化为对时延最优值的求解,时延优化问题表示为:
S222,采用KKT条件求解优化问题P4,解得:
S224,确定本地卸载用户的最优计算频率,要求所有用户都以最大时延为目标,且计算频率不能低于设备的最低频率,最优计算频率表示为:
9.根据权利要求6所述的异构网络中基于计算卸载的联邦学习调度方法,其特征在于,步骤S23中,采用坐标下降法求解学习精度和卸载决策优化子问题,确定联邦学习用户的最优卸载决策方案的过程包括以下步骤:
计算所有用户到最近的小基站的距离,根据小基站覆盖范围确定卸载用户数,具体过程包括:
S232,根据计算资源分配和信道分配算法求解相应的最优值;
S238,将z的值增加1;
S239,转入步骤S233;
其中,v为用户到最近小基站的距离,p为可卸载用户数,为在小基站覆盖范围内的可卸载用户集合,矩阵表示用户的卸载决策;初始卸载矩阵的元素全为0,表示第z-1次迭代时的卸载决定,Z表示最终迭代次数;表示第z次迭代时改变当前卸载决定后优化目标的减小量; 表示第z-1次迭代时的卸载矩阵,改变用户j决定后的矩阵;
在每次迭代中,在当前点处沿一个坐标方向进行一维搜索以求得一个函数的局部极小值,经过多次迭代收敛。
10.一种基于权利要求1所述方法的异构网络中基于计算卸载的联邦学习调度系统,其特征在于,所述联邦学习调度系统包括:
获取模块,用于获取异构网络中联邦学习系统的环境参数和用户参数;在异构网络多MEC系统中,用户利用本地数据训练得到子模型,并将子模型发送给宏基站上的中央服务器,在中央服务器上聚合用户子模型以获得全局模型;对于资源较少无法及时完成本地训练的用户,将本地数据卸载到小基站上的边缘服务器进行计算;
优化计算模块,用于构建通信和计算模型,该通信和计算模型综合考虑计算和通信产生的能耗、时延以及联邦学习精度,建立用户开销最小化的优化问题,将其分成为信道分配、用户计算资源分配及本地学习精度和卸载决策三个子问题,通过对三个子问题进行求解,得到最优资源分配方案和卸载决策,使所有用户移动设备整体能耗和时延最小。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210274109.9A CN114650228B (zh) | 2022-03-18 | 2022-03-18 | 一种异构网络中基于计算卸载的联邦学习调度方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210274109.9A CN114650228B (zh) | 2022-03-18 | 2022-03-18 | 一种异构网络中基于计算卸载的联邦学习调度方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114650228A true CN114650228A (zh) | 2022-06-21 |
CN114650228B CN114650228B (zh) | 2023-07-25 |
Family
ID=81995321
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210274109.9A Active CN114650228B (zh) | 2022-03-18 | 2022-03-18 | 一种异构网络中基于计算卸载的联邦学习调度方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114650228B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115470901A (zh) * | 2022-09-06 | 2022-12-13 | 北京大学 | 支持移动端异构处理器分载的混合精度训练方法及设备 |
CN116009677A (zh) * | 2022-09-02 | 2023-04-25 | 南通大学 | 一种基于Cell-Free mMIMO网络的联邦学习设备端能耗优化方法 |
CN116208968A (zh) * | 2022-12-30 | 2023-06-02 | 北京信息科技大学 | 基于联邦学习的轨迹规划方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112817653A (zh) * | 2021-01-22 | 2021-05-18 | 西安交通大学 | 一种基于云边端的联邦学习计算卸载计算系统及方法 |
CN113194489A (zh) * | 2021-04-01 | 2021-07-30 | 西安电子科技大学 | 无线边缘网络中有效联邦学习的最小-最大代价优化方法 |
US20210266834A1 (en) * | 2020-02-25 | 2021-08-26 | South China University Of Technology | METHOD OF MULTI-ACCESS EDGE COMPUTING TASK OFFLOADING BASED ON D2D IN INTERNET OF VEHICLES (IoV) ENVIRONMENT |
CN113504999A (zh) * | 2021-08-05 | 2021-10-15 | 重庆大学 | 一种面向高性能分层联邦边缘学习的调度与资源分配方法 |
-
2022
- 2022-03-18 CN CN202210274109.9A patent/CN114650228B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210266834A1 (en) * | 2020-02-25 | 2021-08-26 | South China University Of Technology | METHOD OF MULTI-ACCESS EDGE COMPUTING TASK OFFLOADING BASED ON D2D IN INTERNET OF VEHICLES (IoV) ENVIRONMENT |
CN112817653A (zh) * | 2021-01-22 | 2021-05-18 | 西安交通大学 | 一种基于云边端的联邦学习计算卸载计算系统及方法 |
CN113194489A (zh) * | 2021-04-01 | 2021-07-30 | 西安电子科技大学 | 无线边缘网络中有效联邦学习的最小-最大代价优化方法 |
CN113504999A (zh) * | 2021-08-05 | 2021-10-15 | 重庆大学 | 一种面向高性能分层联邦边缘学习的调度与资源分配方法 |
Non-Patent Citations (1)
Title |
---|
张海波;李虎;陈善学;贺晓帆;: "超密集网络中基于移动边缘计算的任务卸载和资源优化", 电子与信息学报, no. 05 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116009677A (zh) * | 2022-09-02 | 2023-04-25 | 南通大学 | 一种基于Cell-Free mMIMO网络的联邦学习设备端能耗优化方法 |
CN116009677B (zh) * | 2022-09-02 | 2023-10-03 | 南通大学 | 一种基于Cell-Free mMIMO网络的联邦学习设备端能耗优化方法 |
CN115470901A (zh) * | 2022-09-06 | 2022-12-13 | 北京大学 | 支持移动端异构处理器分载的混合精度训练方法及设备 |
CN115470901B (zh) * | 2022-09-06 | 2023-05-19 | 北京大学 | 支持移动端异构处理器分载的混合精度训练方法及设备 |
CN116208968A (zh) * | 2022-12-30 | 2023-06-02 | 北京信息科技大学 | 基于联邦学习的轨迹规划方法及装置 |
CN116208968B (zh) * | 2022-12-30 | 2024-04-05 | 北京信息科技大学 | 基于联邦学习的轨迹规划方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN114650228B (zh) | 2023-07-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Nishio et al. | Client selection for federated learning with heterogeneous resources in mobile edge | |
CN112351503B (zh) | 基于任务预测的多无人机辅助边缘计算资源分配方法 | |
CN111586720B (zh) | 一种多小区场景下的任务卸载和资源分配的联合优化方法 | |
CN112188442B (zh) | 基于移动边缘计算的车联网数据驱动任务卸载系统和方法 | |
CN110928654B (zh) | 一种边缘计算系统中分布式的在线任务卸载调度方法 | |
CN114650228B (zh) | 一种异构网络中基于计算卸载的联邦学习调度方法 | |
CN111800828B (zh) | 一种超密集网络的移动边缘计算资源分配方法 | |
CN110505644B (zh) | 用户任务卸载与资源分配联合优化方法 | |
CN113242568A (zh) | 一种不确定网络环境中的任务卸载和资源分配方法 | |
CN111475274B (zh) | 云协同多任务调度方法及装置 | |
CN112600921A (zh) | 一种面向异构移动边缘网络的动态任务卸载方法 | |
CN114662661B (zh) | 边缘计算下异构处理器加速多出口dnn推理的方法 | |
CN113905347B (zh) | 一种空地一体化电力物联网云边端协同方法 | |
CN113115459B (zh) | 一种面向电力物联网海量终端的多尺度多维资源分配方法 | |
Qi et al. | Deep reinforcement learning based task scheduling in edge computing networks | |
CN113573363A (zh) | 基于深度强化学习的mec计算卸载与资源分配方法 | |
CN115633033A (zh) | 融合射频能量采集的协同节能计算迁移方法 | |
CN114745383A (zh) | 一种移动边缘计算辅助多层联邦学习方法 | |
Qin et al. | User-edge collaborative resource allocation and offloading strategy in edge computing | |
Zhou et al. | Multi-server federated edge learning for low power consumption wireless resource allocation based on user QoE | |
Shi et al. | Multiuser co-inference with batch processing capable edge server | |
Yu et al. | Task delay minimization in wireless powered mobile edge computing networks: A deep reinforcement learning approach | |
Li et al. | DNN Partition and Offloading Strategy with Improved Particle Swarm Genetic Algorithm in VEC | |
CN113821346A (zh) | 基于深度强化学习的边缘计算中计算卸载与资源管理方法 | |
CN116916386A (zh) | 一种考虑用户竞争和负载的大模型辅助边缘任务卸载方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |