CN114650228A - 一种异构网络中基于计算卸载的联邦学习调度方法 - Google Patents

一种异构网络中基于计算卸载的联邦学习调度方法 Download PDF

Info

Publication number
CN114650228A
CN114650228A CN202210274109.9A CN202210274109A CN114650228A CN 114650228 A CN114650228 A CN 114650228A CN 202210274109 A CN202210274109 A CN 202210274109A CN 114650228 A CN114650228 A CN 114650228A
Authority
CN
China
Prior art keywords
user
base station
sub
local
optimization
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210274109.9A
Other languages
English (en)
Other versions
CN114650228B (zh
Inventor
朱琦
王致远
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Posts and Telecommunications
Original Assignee
Nanjing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Posts and Telecommunications filed Critical Nanjing University of Posts and Telecommunications
Priority to CN202210274109.9A priority Critical patent/CN114650228B/zh
Publication of CN114650228A publication Critical patent/CN114650228A/zh
Application granted granted Critical
Publication of CN114650228B publication Critical patent/CN114650228B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/14Network analysis or design
    • H04L41/145Network analysis or design involving simulating, designing, planning or modelling of a network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0803Configuration setting
    • H04L41/0823Configuration setting characterised by the purposes of a change of settings, e.g. optimising configuration for enhancing reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Abstract

本发明公开了一种异构网络中基于计算卸载的联邦学习调度方法,首先宏基站利用用户本地的数据训练机器学习模型,用户可以将这些数据卸载到小基站附近的边缘服务器进行计算;然后综合考虑了联邦学习的精度,以及运算和通信中产生的能耗和时延,建立了优化问题,并分成了对本地学习精度和卸载决策,用户计算频率,用户资源块分配进行优化这三个子问题。通过仿真,本发明分析了在不同参数条件下所取得的效果。仿真结果表明,本发明提出的方法可以有效降低训练过程中的开销。

Description

一种异构网络中基于计算卸载的联邦学习调度方法
技术领域
本发明属于无线通信技术领域,尤其涉及一种异构网络中基于计算卸载的联邦学习调度方法。
背景技术
随着用户终端的数量不断增加,大量的个人数据将会随之产生,这些大数据为人工智能的飞速发展提供了坚实的物质基础。然而,机器学习中所需的数据都涉及多种类型,归属不同的个人和部门,数据是以孤岛的形式存在,将这些大量的数据传输到统一的平台需要消耗大量的通信资源,另外考虑到用户隐私和数据安全问题,收集和融合这些数据将面临许多挑战。联邦学习能够在满足用户隐私保护和数据安全前提下,在用户本地进行分布式的数据使用和机器学习建模,有效降低了通信资源的开销,解决了数据孤岛问题,实现AI协作。
联邦学习技术刚刚兴起,还存在许多问题需要研究,例如如何调度训练任务、分配计算资源和通信资源,以达到训练速度与精度的平衡。然而,现有的发明没有考虑用户设备资源受限的问题,比如用户设备的电池电量有限,终端设备的计算资源较少,处理速度较慢,本地训练会占用大量处理器资源,很容易影响用户的体验等。最近边缘计算技术迅猛发展,边缘计算可以给联邦学习用户训练带来的便利,出现了基于边缘计算实现分层联邦学习的架构方案。作为分布式机器学习的一种实现,联邦学习与边缘计算相互之间有许多交点,目前的许多发明只考虑了单个边缘服务器和客户端本身的训练能力,并未考虑异构网络场景下多边缘服务器和通信资源分配的影响。
发明内容
解决的技术问题:目前的许多发明只考虑了单个边缘服务器和客户端本身的训练能力,并未考虑异构网络场景下多边缘服务器和通信资源分配的影响。
技术方案:。
一种异构网络中基于计算卸载的联邦学习调度方法,所述联邦学习调度方法包括以下步骤:
S1,获取异构网络中联邦学习系统的环境参数和用户参数;在异构网络多MEC系统中,用户利用本地数据训练得到子模型,并将子模型发送给宏基站上的中央服务器,在中央服务器上聚合用户子模型以获得全局模型;对于资源较少无法及时完成本地训练的用户,将本地数据卸载到小基站上的边缘服务器进行计算;
S2,构建通信和计算模型,该通信和计算模型综合考虑计算和通信产生的能耗、时延以及联邦学习精度,建立用户开销最小化的优化问题,将其分成为信道分配、用户计算资源分配及本地学习精度和卸载决策三个子问题,通过对三个子问题进行求解,得到最优资源分配方案和卸载决策,使所有用户移动设备整体能耗和时延最小。
进一步地,步骤S1中,异构网络由宏基站与小基站组成,在宏基站的覆盖rmbs范围内,随机分布了N个拥有边缘服务器的小基站和I个用户设备;定义所有用户设备的集合为
Figure BDA0003553998830000021
小基站的集合为
Figure BDA0003553998830000022
每个用户设备i本地存储有大小为oi的训练数据集
Figure BDA0003553998830000023
其中si为数据数量,xik为模型输入变量,yik为模型输出变量;当用户设备在小基站的覆盖范围rsbs内时,允许选择将这一轮的联邦学习训练任务卸载至小基站上的边缘服务器训练,再将训练好的模型参数上传至宏基站进行合并。
进一步地,当用户的损失函数采用li(w,xik,yik)时,将局部损失函数定义为:
Figure BDA0003553998830000024
全局损失函数定义为各用户局部损失函数的加权,表示为:
Figure BDA0003553998830000025
其中qi为用户i的加权因子,即为各个用户占有数据量的比重,
Figure BDA0003553998830000026
重复迭代更新直到模型收敛为止;在第t次迭代中,用户接受基站发送的模型参数wt,并迭代减小损失函数达到精度阈值θi,当所有的用户都完成训练后,将本地模型参数
Figure BDA0003553998830000027
和损失函数的梯度发送给基站,得到全局损失函数的梯度为:
Figure BDA0003553998830000028
基站将t+1次的模型参数更新为wt+1,并发送给用户再进行下一步训练,更新的模型参数为:
Figure BDA0003553998830000029
本地用户i的迭代次数受精度阈值影响,表示为:
Figure BDA0003553998830000031
其中ci是受到损失函数类型和全局收敛条件影响的参数。
进一步地,步骤S2中,所述构建通信和计算模型的过程包括以下步骤:
假设用户设备i分配给本地训练的计算资源为fi,根据下述公式计算本地计算的能量消耗:
Figure BDA0003553998830000032
其中,α的值为能耗系数,bi表示1比特数据所需要的CPU运算周期;
本地计算的时长表示为:
Figure BDA0003553998830000033
当用户设备i选择将训练任务卸载至小基站服务器执行时,根据下述公式计算用户设备卸载数据集的传输时延Ti com
Figure BDA0003553998830000034
其中B为单个资源块的带宽,mi为分配给用户的资源块数,hi为信道增益,N0为噪声功率谱密度;Ri为用户的传输速率,
Figure BDA0003553998830000035
当用户设备将数据集的卸载完成后,小基站服务器计算所需要的时间为:
Figure BDA0003553998830000036
其中
Figure BDA0003553998830000037
fn表示服务器n的总计算频率;
如果卸载到小基站n的用户人数为un,则用户完成一次卸载所需要的总时延为:
Ti off=Ti com+Ti mec
用户设备的卸载能耗即为通信过程中产生的能耗,表示为:
Figure BDA0003553998830000038
进一步地,步骤S2中,所述通信和计算模型建立的用户开销最小化的优化问题为:
Figure BDA0003553998830000041
s.t.fi min≤fi≤fi max
0≤θi≤1
θi≤θ
ai∈{0,1}
Figure BDA0003553998830000042
Figure BDA0003553998830000043
其中,k为加权系数,fi min为用户最小计算频率,fi max为用户最大计算频率,θi为用户的精度阈值,M为总信道数,Tmax为用户训练时延,Tmax=max{aiTi off+(1-ai)Ti loc,i∈[1,n]};用户设备i的卸载决策表示为ai∈{0,1},其中ai=0表示在本地执行,ai=1表示卸载至边缘服务器。
进一步地,步骤S2,将用户开销最小化的优化问题分成为信道分配、用户计算资源分配及本地学习精度和卸载决策三个子问题包括:
S21,对信道分配变量mi进行优化,信道分配优化子问题为:
Figure BDA0003553998830000044
Figure BDA0003553998830000045
Figure BDA0003553998830000046
采用贪婪算法求解信道分配优化子问题,将信道分配给能够使得优化目标最优的用户设备;
S22,对本地执行用户的最优计算频率进行优化,定义本地时延最大值
Figure BDA0003553998830000047
计算资源分配优化子问题为:
Figure BDA0003553998830000048
s.t.fi max≤fi≤fi max
Figure BDA0003553998830000051
采用KKT条件求解计算资源分配优化子问题,对本地执行用户的最优计算频率进行优化;
S23,对本地学习精度和卸载决策进行优化,学习精度和卸载决策优化子问题为:
Figure BDA0003553998830000052
s.t.0≤θi≤1
θi≤θ
ai∈{0,1}
Figure BDA0003553998830000053
最优的精度值
Figure BDA0003553998830000054
满足:
Figure BDA0003553998830000055
采用坐标下降法求解学习精度和卸载决策优化子问题,确定联邦学习用户的最优卸载决策方案。
进一步地,步骤S21中,采用贪婪算法求解信道分配优化子问题,将信道分配给能够使得优化目标最优的用户设备的过程包括以下步骤:
S211,初始化信道分配矩阵
Figure BDA0003553998830000056
为全1;初始化rem;rem为还没有分配的信道数;
S212,对rem进行判断,若rem>0,则转入步骤S213,否则转入步骤S219;
S213,对于每一个用户
Figure BDA0003553998830000057
分别计算cost1和cost2;
S214,计算value[i]=cost1-cost2;value(i)为用户i的目标值;
S215,找出最大的value[j]其中
Figure BDA0003553998830000058
S216,令
Figure BDA0003553998830000059
S217,将rem的值减小1;
S218,回到步骤S212。
进一步地,步骤S22中,采用KKT条件求解计算资源分配优化子问题,对本地执行用户的最优计算频率进行优化的过程包括以下步骤:
S221,将资源分配优化子问题P3中的子问题转化为对时延最优值的求解,时延优化问题表示为:
Figure BDA0003553998830000061
Figure BDA0003553998830000062
Figure BDA0003553998830000063
Figure BDA0003553998830000064
S222,采用KKT条件求解优化问题P4,解得:
Figure BDA0003553998830000065
其中,
Figure BDA0003553998830000066
Figure BDA0003553998830000067
分别为在优化问题P4包含的两个边界条件下的用户集合,
Figure BDA0003553998830000068
为边界条件内的用户集合;
S223,定义集合
Figure BDA0003553998830000069
为所有用户的时延,则最优时延值为集合中最大的数:
Figure BDA00035539988300000610
S224,确定本地卸载用户的最优计算频率,要求所有用户都以最大时延为目标,且计算频率不能低于设备的最低频率,最优计算频率表示为:
Figure BDA00035539988300000611
进一步地,步骤S23中,采用坐标下降法求解学习精度和卸载决策优化子问题,确定联邦学习用户的最优卸载决策方案的过程包括以下步骤:
计算所有用户到最近的小基站的距离,根据小基站覆盖范围确定卸载用户数,具体过程包括:
S231,初始化矩阵A,初始化
Figure BDA00035539988300000612
p和Z;
S232,根据计算资源分配和信道分配算法求解相应的最优值;
S233,计算
Figure BDA0003553998830000071
计算
Figure BDA0003553998830000072
S234,判断是否完成了对所有用户
Figure BDA0003553998830000073
的计算,若是,转入步骤S235,否则回到步骤S233;
S235,判断
Figure BDA0003553998830000074
的值是否大于0,若是,转入步骤S236,否则结束流程;
S236,在j∈Uoff选择j使得
Figure BDA00035539988300000714
最大;
S237,计算
Figure BDA0003553998830000075
S238,将z的值增加1;
S239,转入步骤S233。
其中,v为用户到最近小基站的距离,p为可卸载用户数,
Figure BDA0003553998830000076
为在小基站覆盖范围内的可卸载用户集合,矩阵
Figure BDA0003553998830000077
表示用户的卸载决策;初始卸载矩阵
Figure BDA0003553998830000078
的元素全为0,
Figure BDA0003553998830000079
表示第z-1次迭代时的卸载决定,Z表示最终迭代次数;
Figure BDA00035539988300000710
表示第z次迭代时改变当前卸载决定后优化目标的减小量;
Figure BDA00035539988300000711
Figure BDA00035539988300000712
表示第z-1次迭代时的卸载矩阵,改变用户j决定后的矩阵;
Figure BDA00035539988300000713
在每次迭代中,在当前点处沿一个坐标方向进行一维搜索以求得一个函数的局部极小值,经过多次迭代收敛。
基于前述方法,本发明还提出了一种异构网络中基于计算卸载的联邦学习调度系统,所述联邦学习调度系统包括:
获取模块,用于获取异构网络中联邦学习系统的环境参数和用户参数;在异构网络多MEC系统中,用户利用本地数据训练得到子模型,并将子模型发送给宏基站上的中央服务器,在中央服务器上聚合用户子模型以获得全局模型;对于资源较少无法及时完成本地训练的用户,将本地数据卸载到小基站上的边缘服务器进行计算;
优化计算模块,用于构建通信和计算模型,该通信和计算模型综合考虑计算和通信产生的能耗、时延以及联邦学习精度,建立用户开销最小化的优化问题,将其分成为信道分配、用户计算资源分配及本地学习精度和卸载决策三个子问题,通过对三个子问题进行求解,得到最优资源分配方案和卸载决策,使所有用户移动设备整体能耗和时延最小。
有益效果:
本发明的异构网络中基于计算卸载的联邦学习调度方法,在不同的精度阈值和能耗时延权值条件下,本发明提出的方法都能够有较好的优化效果,提升了系统的总体性能。仿真分析了用户数和精度阈值对性能的影响,仿真结果表明,本发明所提出的算法可以有效降低训练过程中的开销。
附图说明
图1为本发明的异构网络中基于计算卸载的联邦学习调度方法的场景模型示意图。
图2为本发明的异构网络中基于计算卸载的联邦学习调度方法的系统结构示意图。
图3为本发明的异构网络中基于计算卸载的联邦学习调度方法流程图。
具体实施方式
下面的实施例可使本专业技术人员更全面地理解本发明,但不以任何方式限制本发明。
参见图3,本发明的异构网络下边缘计算系统中一种基于计算卸载的联邦学习调度方法,包括以下步骤:
步骤一、建立了异构网络多MEC系统中基于计算卸载的联邦学习模型,系统中用户利用本地数据训练得到子模型,并将子模型发送给宏基站上的中央服务器,在中央服务器上聚合用户子模型以获得全局模型,对于资源较少无法及时完成本地训练的用户,可以将本地数据卸载到小基站上的边缘服务器进行计算。
步骤二、综合考虑计算和通信产生的能耗、时延以及联邦学习精度,建立了用户开销最小化的优化问题,由于优化问题为np-hard问题,本发明将其分成为信道分配、用户计算资源分配及本地学习精度和卸载决策三个子问题,并分别采用KKT条件求解方法和坐标下降法进行求解。
(1)异构网络多MEC系统模型
本发明的系统模型如附图1所示,异构网络由一个宏基站(MBS)与小基站(SBS)组成,在宏基站的覆盖rmbs范围内,随机分布了N个拥有边缘服务器(MEC)小基站和I个用户设备(UE)。定义所有用户设备的集合为
Figure BDA0003553998830000081
小基站的集合为
Figure BDA0003553998830000082
每个用户设备i本地存储有大小为oi的训练数据集
Figure BDA0003553998830000083
其中si为数据数量,xik为模型输入变量,yik为模型输出变量。当用户设备在小基站的覆盖范围rsbs内时,可以选择将这一轮的联邦学习训练任务卸载至小基站上的边缘服务器训练,训练好的模型参数将会上传至宏基站进行合并。
联邦学习的目标是减少全局损失函数,当用户的损失函数采用li(w,xik,yik)时,局部损失函数可以定义为:
Figure BDA0003553998830000091
此时,全局损失函数可以定义为各用户局部损失函数的加权,表示为:
Figure BDA0003553998830000092
其中qi为用户i的加权因子,即为各个用户占有数据量的比重,
Figure BDA0003553998830000093
本发明采用的联邦学习机制如图2所示,在第t次迭代中,用户接受基站发送的模型参数wt,并迭代减小损失函数达到精度阈值θi,本发明所采用的是同步联邦学习模型,故当所有的用户都完成训练后,才会将本地模型参数
Figure BDA0003553998830000094
和损失函数的梯度发送给基站,可以得到全局损失函数的梯度为:
Figure BDA0003553998830000095
基站可以将t+1次的模型参数更新为wt+1,并发送给用户再进行下一步训练,更新的模型参数为:
Figure BDA0003553998830000096
这样的迭代更新一直持续到模型收敛为止,本地用户i的迭代次数主要受到要求的精度阈值的影响,表示为:
Figure BDA0003553998830000097
其中ci是受到损失函数类型和全局收敛条件影响的参数,为运算方便,本发明ci的值取1。
(2)通信和计算模型
假设用户设备i分配给本地训练的计算资源为fi,则本地计算的能量消耗可以表示为:
Figure BDA0003553998830000098
其中,α的值为能耗系数,bi表示1比特数据所需要的CPU运算周期。
本地计算的时长表示为:
Figure BDA0003553998830000101
当用户i选择将训练任务卸载至小基站服务器执行时,需要将训练数据发送到小基站,用户的传输速率表示为:
Figure BDA0003553998830000102
其中B为单个资源块的带宽,mi为分配给用户的资源块数,hi为信道增益,N0为噪声功率谱密度。此时,用户设备卸载数据集的传输时延为:
Figure BDA0003553998830000103
用户设备将数据集的卸载完成后,小基站服务器会调用自身的计算资源来处理学习任务,小基站服务器计算所需要的时间为:
Figure BDA0003553998830000104
其中
Figure BDA0003553998830000105
fn表示服务器n的总计算频率。
如果卸载到小基站n的用户人数为un,则用户完成一次卸载所需要的总时延为:
Ti off=Ti com+Ti mec (11);
用户设备的卸载能耗即为通信过程中产生的能耗,表示为:
Figure BDA0003553998830000106
当边缘服务器完成计算后,需要回传模型参数给用户,用户再将机器学习模型参数再传送给基站,由于模型参数的数据量远小于训练数据,故忽略这部分的传输时延。
(3)优化问题
在联邦学习数据卸载的决策过程中,每个用户会对本地计算与卸载的开销进行评估,然后做出卸载决策。用户i的卸载决策表示为ai∈{0,1},其中ai=0表示在本地执行,ai=1表示卸载至边缘服务器。集合
Figure BDA0003553998830000107
为卸载用户集合,
Figure BDA0003553998830000108
为本地执行用户集合。同时所有用户设备的融合训练精度不得大于最小精度θ(θ为0到1之间的数,它的值越小则模型的参数越精确,训练的迭代次数越大)。由于是同步联邦学习模型,所有用户都完成训练后才发送给基站服务器,因此用户训练时延为所有用户中的最大时延,表示为:
Tmax=max{aiTi off+(1-ai)Ti loc,i∈[1,n]} (13);
本发明的优化目标主要是降低联邦学习过程中最大时延和能耗,可以表示为:
Figure BDA0003553998830000111
s.t.fi min≤fi≤fi max (14b)
0≤θi≤1 (14c)
θi≤θ (14d)
ai∈{0,1} (14e)
Figure BDA0003553998830000112
Figure BDA0003553998830000113
其中,k为加权系数,fi min为用户最小计算频率,fi max为用户最大计算频率,θi为用户的精度阈值,M为总信道数。由于存在卸载决策ai这一整数优化变量,使得上述优化问题成为混合整数非线性规划问题,且该问题是一个NP-Hard问题。
(4)信道分配
信道分配优化子问题是在其他变量确定时对信道分配变量mi进行优化,信道分配优化子问题可以描述为:
Figure BDA0003553998830000114
Figure BDA0003553998830000115
Figure BDA0003553998830000116
本发明采用贪婪算法对信道进行分配,即将信道分配给能够使得优化目标最优的用户。具体步骤如算法1所示,其中value(i)为用户i的目标值,rem为还没有分配的信道数。方法步骤如下:
1:初始化信道分配矩阵
Figure BDA0003553998830000117
为全1。
2:初始化rem。
3:若rem>0,则进行下一步,否则转入第7步。
4:对于每一个用户
Figure BDA0003553998830000121
根据(15a)分别计算cost1和cost2。
5:计算value[i]=cost1-cost2。
6:回到第3步。
7:找出最大的value[j]其中
Figure BDA0003553998830000122
8:令
Figure BDA0003553998830000123
9:rem的值减小1。
10:返回第3步。
(5)计算资源分配
本部分主要对于本地执行用户的最优计算频率进行优化,定义本地时延最大值
Figure BDA0003553998830000124
则优化问题可以表示为:
Figure BDA0003553998830000125
Subject to fi min≤fi≤fi max (16c)
Figure BDA0003553998830000126
由于时延和计算频率之间存在确定关系,因此首先将(16a)中的子问题转化为对时延最优值的求解,时延优化问题表示为:
Figure BDA0003553998830000127
Figure BDA0003553998830000128
Figure BDA0003553998830000129
Figure BDA00035539988300001210
优化问题P4为含有不等式约束的凸优化问题,故可采用KKT条件来求解此问题,解得:
Figure BDA0003553998830000131
其中,
Figure BDA0003553998830000132
Figure BDA0003553998830000133
分别为在边界条件(17b)和(17c)的用户集合,
Figure BDA0003553998830000134
为边界条件内的用户集合。用户集的划分可以先假设所有用户都在边界条件内求解,之后再将依次将边界条件外的解划分出去。
定义集合
Figure BDA0003553998830000135
为所有用户的时延,则最优时延值即为集合中最大的数:
Figure BDA0003553998830000136
接下来确定本地卸载用户的最优计算频率,要求所有用户都以最大时延为目标,且计算频率不能低于设备的最低频率,最优计算频率表示为:
Figure BDA0003553998830000137
(6)精度优化和卸载决策
信道和计算频率分配完成后,主要对学习精度和卸载决策进行优化,优化子问题表示为:
Figure BDA0003553998830000138
Subject to 0≤θi≤1 (22b)
θi≤θ (22c)
ai∈{0,1} (22d)
Figure BDA0003553998830000139
由于迭代次数会随着精度值的减小而迅速增大,为了降低优化目标,最优的精度值
Figure BDA00035539988300001310
满足下式
Figure BDA00035539988300001311
本发明采用坐标下降法求解最优卸载决策,该算法是一个迭代算法,能够很快收敛到最优卸载决策矩阵。首先,计算所有用户到最近的小基站的距离,根据小基站覆盖范围确定卸载用户数。其中v为用户到最近小基站的距离,p为可卸载用户数,
Figure BDA0003553998830000141
为在小基站覆盖范围内的可卸载用户集合,矩阵
Figure BDA0003553998830000142
表示用户的卸载决策。初始卸载矩阵
Figure BDA0003553998830000143
的元素全为0,
Figure BDA0003553998830000144
表示第z-1次迭代时的卸载决定,Z表示最终迭代次数。
Figure BDA0003553998830000145
表示第z次迭代时改变当前卸载决定后优化目标的减小量。
Figure BDA0003553998830000146
其中,
Figure BDA0003553998830000147
表示第z-1次迭代时的卸载矩阵,改变用户j决定后的矩阵。
Figure BDA0003553998830000148
该算法在每次迭代中,在当前点处沿一个坐标方向进行一维搜索以求得一个函数的局部极小值,经过多次迭代可收敛。,具体过程如下述算法所示:
1:初始化矩阵A。
2:初始化
Figure BDA0003553998830000149
P和Z。
3:根据计算资源分配和信道分配算法求解相应的最优值。
4:根据式14(a)计算
Figure BDA00035539988300001410
5:根据式(24)计算
Figure BDA00035539988300001411
6:若完成了对所有用户
Figure BDA00035539988300001412
的计算则进行下一步,否则回到第3步。
7:若
Figure BDA00035539988300001413
的值大于0则进行下一步,否则结束。
8:在j∈Uoff选择j使得
Figure BDA00035539988300001414
最大。
9:根据式(25)计算
Figure BDA00035539988300001415
10:令z的值增加1。
11:回到第3步。
以上仅是本发明的优选实施方式,本发明的保护范围并不仅局限于上述实施例,凡属于本发明思路下的技术方案均属于本发明的保护范围。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理前提下的若干改进和润饰,应视为本发明的保护范围。

Claims (10)

1.一种异构网络中基于计算卸载的联邦学习调度方法,其特征在于,所述联邦学习调度方法包括以下步骤:
S1,获取异构网络中联邦学习系统的环境参数和用户参数;在异构网络多MEC系统中,用户利用本地数据训练得到子模型,并将子模型发送给宏基站上的中央服务器,在中央服务器上聚合用户子模型以获得全局模型;对于资源较少无法及时完成本地训练的用户,将本地数据卸载到小基站上的边缘服务器进行计算;
S2,构建通信和计算模型,该通信和计算模型综合考虑计算和通信产生的能耗、时延以及联邦学习精度,建立用户开销最小化的优化问题,将其分成为信道分配、用户计算资源分配及本地学习精度和卸载决策三个子问题,通过对三个子问题进行求解,得到最优资源分配方案和卸载决策,使所有用户移动设备整体能耗和时延最小。
2.根据权利要求1所述的异构网络中基于计算卸载的联邦学习调度方法,其特征在于,步骤S1中,异构网络由宏基站与小基站组成,在宏基站的覆盖rmbs范围内,随机分布了N个拥有边缘服务器的小基站和I个用户设备;定义所有用户设备的集合为
Figure FDA0003553998820000011
小基站的集合为
Figure FDA0003553998820000012
每个用户设备i本地存储有大小为oi的训练数据集
Figure FDA0003553998820000013
k∈[1,si],其中si为数据数量,xik为模型输入变量,yik为模型输出变量;当用户设备在小基站的覆盖范围rsbs内时,允许选择将这一轮的联邦学习训练任务卸载至小基站上的边缘服务器训练,再将训练好的模型参数上传至宏基站进行合并。
3.根据权利要求2所述的异构网络中基于计算卸载的联邦学习调度方法,其特征在于,当用户的损失函数采用li(w,xik,yik)时,将局部损失函数定义为:
Figure FDA0003553998820000014
全局损失函数定义为各用户局部损失函数的加权,表示为:
Figure FDA0003553998820000015
其中qi为用户t的加权因子,即为各个用户占有数据量的比重,
Figure FDA0003553998820000016
重复迭代更新直到模型收敛为止;在第t次迭代中,用户接受基站发送的模型参数wt,并迭代减小损失函数达到精度阈值θi,当所有的用户都完成训练后,将本地模型参数
Figure FDA0003553998820000021
和损失函数的梯度发送给基站,得到全局损失函数的梯度为:
Figure FDA0003553998820000022
基站将t+1次的模型参数更新为wt+1,并发送给用户再进行下一步训练,更新的模型参数为:
Figure FDA0003553998820000023
本地用户i的迭代次数受精度阈值影响,表示为:
Figure FDA0003553998820000024
其中ci是受到损失函数类型和全局收敛条件影响的参数。
4.根据权利要求1所述的异构网络中基于计算卸载的联邦学习调度方法,其特征在于,步骤S2中,所述构建通信和计算模型的过程包括以下步骤:
假设用户设备i分配给本地训练的计算资源为fi,根据下述公式计算本地计算的能量消耗:
Figure FDA0003553998820000025
其中,α的值为能耗系数,bi表示1比特数据所需要的CPU运算周期;
本地计算的时长表示为:
Figure FDA0003553998820000026
当用户设备i选择将训练任务卸载至小基站服务器执行时,根据下述公式计算用户设备卸载数据集的传输时延Ti com
Figure FDA0003553998820000027
其中B为单个资源块的带宽,mi为分配给用户的资源块数,hi为信道增益,N0为噪声功率谱密度;Ri为用户的传输速率,
Figure FDA0003553998820000028
当用户设备将数据集的卸载完成后,小基站服务器计算所需要的时间为:
Figure FDA0003553998820000031
其中
Figure FDA0003553998820000032
fn表示服务器n的总计算频率;
如果卸载到小基站n的用户人数为un,则用户完成一次卸载所需要的总时延为:
Figure FDA0003553998820000033
用户设备的卸载能耗即为通信过程中产生的能耗,表示为:
Figure FDA0003553998820000034
5.根据权利要求4所述的异构网络中基于计算卸载的联邦学习调度方法,其特征在于,步骤S2中,所述通信和计算模型建立的用户开销最小化的优化问题为:
Figure FDA0003553998820000035
s.t.fi min≤fi≤fi max
0≤θi≤1
θi≤θ
ai∈{0,1}
Figure FDA0003553998820000036
Figure FDA0003553998820000037
其中,k为加权系数,fi min为用户最小计算频率,fi max为用户最大计算频率,θi为用户的精度阈值,M为总信道数,Tmax为用户训练时延,Tmax=max{aiTi off+(1-ai)Ti loc,i∈[1,n]};用户设备i的卸载决策表示为ai∈{0,1},其中ai=0表示在本地执行,ai=1表示卸载至边缘服务器。
6.根据权利要求5所述的异构网络中基于计算卸载的联邦学习调度方法,其特征在于,步骤S2,将用户开销最小化的优化问题分成为信道分配、用户计算资源分配及本地学习精度和卸载决策三个子问题包括:
S21,对信道分配变量mi进行优化,信道分配优化子问题为:
Figure FDA0003553998820000041
Figure FDA0003553998820000042
Figure FDA0003553998820000043
采用贪婪算法求解信道分配优化子问题,将信道分配给能够使得优化目标最优的用户设备;
S22,对本地执行用户的最优计算频率进行优化,定义本地时延最大值
Figure FDA0003553998820000044
计算资源分配优化子问题为:
Figure FDA0003553998820000045
Figure FDA0003553998820000046
Figure FDA0003553998820000047
采用KKT条件求解计算资源分配优化子问题,对本地执行用户的最优计算频率进行优化;
S23,对本地学习精度和卸载决策进行优化,学习精度和卸载决策优化子问题为:
Figure FDA0003553998820000048
s.t.0≤θi≤1
θi≤θ
ai∈{0,1}
Figure FDA0003553998820000049
最优的精度值
Figure FDA00035539988200000410
满足:
Figure FDA00035539988200000411
采用坐标下降法求解学习精度和卸载决策优化子问题,确定联邦学习用户的最优卸载决策方案。
7.根据权利要求6所述的异构网络中基于计算卸载的联邦学习调度方法,其特征在于,步骤S21中,采用贪婪算法求解信道分配优化子问题,将信道分配给能够使得优化目标最优的用户设备的过程包括以下步骤:
S211,初始化信道分配矩阵
Figure FDA00035539988200000412
为全1;初始化rem;rem为还没有分配的信道数;
S212,对rem进行判断,若rem>0,则转入步骤S213,否则转入步骤S219;
S213,对于每一个用户
Figure FDA0003553998820000051
分别计算cost1和cost2;
S214,计算value[i]=costl-cost2;value(i)为用户i的目标值;
S215,找出最大的value[j]其中
Figure FDA0003553998820000052
S216,令
Figure FDA0003553998820000053
S217,将rem的值减小1;
S218,回到步骤S212。
8.根据权利要求6所述的异构网络中基于计算卸载的联邦学习调度方法,其特征在于,步骤S22中,采用KKT条件求解计算资源分配优化子问题,对本地执行用户的最优计算频率进行优化的过程包括以下步骤:
S221,将资源分配优化子问题P3中的子问题转化为对时延最优值的求解,时延优化问题表示为:
Figure FDA0003553998820000054
Figure FDA0003553998820000055
Figure FDA0003553998820000056
Figure FDA0003553998820000057
S222,采用KKT条件求解优化问题P4,解得:
Figure FDA0003553998820000058
其中,
Figure FDA0003553998820000059
Figure FDA00035539988200000510
分别为在优化问题P4包含的两个边界条件下的用户集合,
Figure FDA00035539988200000511
为边界条件内的用户集合;
S223,定义集合
Figure FDA00035539988200000512
为所有用户的时延,则最优时延值为集合中最大的数:
Figure FDA0003553998820000061
S224,确定本地卸载用户的最优计算频率,要求所有用户都以最大时延为目标,且计算频率不能低于设备的最低频率,最优计算频率表示为:
Figure FDA0003553998820000062
9.根据权利要求6所述的异构网络中基于计算卸载的联邦学习调度方法,其特征在于,步骤S23中,采用坐标下降法求解学习精度和卸载决策优化子问题,确定联邦学习用户的最优卸载决策方案的过程包括以下步骤:
计算所有用户到最近的小基站的距离,根据小基站覆盖范围确定卸载用户数,具体过程包括:
S231,初始化矩阵A,初始化
Figure FDA0003553998820000063
p和Z;
S232,根据计算资源分配和信道分配算法求解相应的最优值;
S233,计算
Figure FDA0003553998820000064
计算
Figure FDA0003553998820000065
S234,判断是否完成了对所有用户
Figure FDA0003553998820000066
的计算,若是,转入步骤S235,否则回到步骤S233;
S235,判断
Figure FDA0003553998820000067
的值是否大于0,若是,转入步骤S236,否则结束流程;
S236,在j∈Uoff选择j使得
Figure FDA0003553998820000068
最大;
S237,计算
Figure FDA0003553998820000069
S238,将z的值增加1;
S239,转入步骤S233;
其中,v为用户到最近小基站的距离,p为可卸载用户数,
Figure FDA00035539988200000610
为在小基站覆盖范围内的可卸载用户集合,矩阵
Figure FDA00035539988200000611
表示用户的卸载决策;初始卸载矩阵
Figure FDA00035539988200000612
的元素全为0,
Figure FDA00035539988200000613
表示第z-1次迭代时的卸载决定,Z表示最终迭代次数;
Figure FDA00035539988200000614
表示第z次迭代时改变当前卸载决定后优化目标的减小量;
Figure FDA00035539988200000615
Figure FDA00035539988200000616
表示第z-1次迭代时的卸载矩阵,改变用户j决定后的矩阵;
Figure FDA00035539988200000617
在每次迭代中,在当前点处沿一个坐标方向进行一维搜索以求得一个函数的局部极小值,经过多次迭代收敛。
10.一种基于权利要求1所述方法的异构网络中基于计算卸载的联邦学习调度系统,其特征在于,所述联邦学习调度系统包括:
获取模块,用于获取异构网络中联邦学习系统的环境参数和用户参数;在异构网络多MEC系统中,用户利用本地数据训练得到子模型,并将子模型发送给宏基站上的中央服务器,在中央服务器上聚合用户子模型以获得全局模型;对于资源较少无法及时完成本地训练的用户,将本地数据卸载到小基站上的边缘服务器进行计算;
优化计算模块,用于构建通信和计算模型,该通信和计算模型综合考虑计算和通信产生的能耗、时延以及联邦学习精度,建立用户开销最小化的优化问题,将其分成为信道分配、用户计算资源分配及本地学习精度和卸载决策三个子问题,通过对三个子问题进行求解,得到最优资源分配方案和卸载决策,使所有用户移动设备整体能耗和时延最小。
CN202210274109.9A 2022-03-18 2022-03-18 一种异构网络中基于计算卸载的联邦学习调度方法 Active CN114650228B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210274109.9A CN114650228B (zh) 2022-03-18 2022-03-18 一种异构网络中基于计算卸载的联邦学习调度方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210274109.9A CN114650228B (zh) 2022-03-18 2022-03-18 一种异构网络中基于计算卸载的联邦学习调度方法

Publications (2)

Publication Number Publication Date
CN114650228A true CN114650228A (zh) 2022-06-21
CN114650228B CN114650228B (zh) 2023-07-25

Family

ID=81995321

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210274109.9A Active CN114650228B (zh) 2022-03-18 2022-03-18 一种异构网络中基于计算卸载的联邦学习调度方法

Country Status (1)

Country Link
CN (1) CN114650228B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115470901A (zh) * 2022-09-06 2022-12-13 北京大学 支持移动端异构处理器分载的混合精度训练方法及设备
CN116009677A (zh) * 2022-09-02 2023-04-25 南通大学 一种基于Cell-Free mMIMO网络的联邦学习设备端能耗优化方法
CN116208968A (zh) * 2022-12-30 2023-06-02 北京信息科技大学 基于联邦学习的轨迹规划方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112817653A (zh) * 2021-01-22 2021-05-18 西安交通大学 一种基于云边端的联邦学习计算卸载计算系统及方法
CN113194489A (zh) * 2021-04-01 2021-07-30 西安电子科技大学 无线边缘网络中有效联邦学习的最小-最大代价优化方法
US20210266834A1 (en) * 2020-02-25 2021-08-26 South China University Of Technology METHOD OF MULTI-ACCESS EDGE COMPUTING TASK OFFLOADING BASED ON D2D IN INTERNET OF VEHICLES (IoV) ENVIRONMENT
CN113504999A (zh) * 2021-08-05 2021-10-15 重庆大学 一种面向高性能分层联邦边缘学习的调度与资源分配方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210266834A1 (en) * 2020-02-25 2021-08-26 South China University Of Technology METHOD OF MULTI-ACCESS EDGE COMPUTING TASK OFFLOADING BASED ON D2D IN INTERNET OF VEHICLES (IoV) ENVIRONMENT
CN112817653A (zh) * 2021-01-22 2021-05-18 西安交通大学 一种基于云边端的联邦学习计算卸载计算系统及方法
CN113194489A (zh) * 2021-04-01 2021-07-30 西安电子科技大学 无线边缘网络中有效联邦学习的最小-最大代价优化方法
CN113504999A (zh) * 2021-08-05 2021-10-15 重庆大学 一种面向高性能分层联邦边缘学习的调度与资源分配方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
张海波;李虎;陈善学;贺晓帆;: "超密集网络中基于移动边缘计算的任务卸载和资源优化", 电子与信息学报, no. 05 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116009677A (zh) * 2022-09-02 2023-04-25 南通大学 一种基于Cell-Free mMIMO网络的联邦学习设备端能耗优化方法
CN116009677B (zh) * 2022-09-02 2023-10-03 南通大学 一种基于Cell-Free mMIMO网络的联邦学习设备端能耗优化方法
CN115470901A (zh) * 2022-09-06 2022-12-13 北京大学 支持移动端异构处理器分载的混合精度训练方法及设备
CN115470901B (zh) * 2022-09-06 2023-05-19 北京大学 支持移动端异构处理器分载的混合精度训练方法及设备
CN116208968A (zh) * 2022-12-30 2023-06-02 北京信息科技大学 基于联邦学习的轨迹规划方法及装置
CN116208968B (zh) * 2022-12-30 2024-04-05 北京信息科技大学 基于联邦学习的轨迹规划方法及装置

Also Published As

Publication number Publication date
CN114650228B (zh) 2023-07-25

Similar Documents

Publication Publication Date Title
Nishio et al. Client selection for federated learning with heterogeneous resources in mobile edge
CN112351503B (zh) 基于任务预测的多无人机辅助边缘计算资源分配方法
CN111586720B (zh) 一种多小区场景下的任务卸载和资源分配的联合优化方法
CN112188442B (zh) 基于移动边缘计算的车联网数据驱动任务卸载系统和方法
CN110928654B (zh) 一种边缘计算系统中分布式的在线任务卸载调度方法
CN114650228B (zh) 一种异构网络中基于计算卸载的联邦学习调度方法
CN111800828B (zh) 一种超密集网络的移动边缘计算资源分配方法
CN110505644B (zh) 用户任务卸载与资源分配联合优化方法
CN113242568A (zh) 一种不确定网络环境中的任务卸载和资源分配方法
CN111475274B (zh) 云协同多任务调度方法及装置
CN112600921A (zh) 一种面向异构移动边缘网络的动态任务卸载方法
CN114662661B (zh) 边缘计算下异构处理器加速多出口dnn推理的方法
CN113905347B (zh) 一种空地一体化电力物联网云边端协同方法
CN113115459B (zh) 一种面向电力物联网海量终端的多尺度多维资源分配方法
Qi et al. Deep reinforcement learning based task scheduling in edge computing networks
CN113573363A (zh) 基于深度强化学习的mec计算卸载与资源分配方法
CN115633033A (zh) 融合射频能量采集的协同节能计算迁移方法
CN114745383A (zh) 一种移动边缘计算辅助多层联邦学习方法
Qin et al. User-edge collaborative resource allocation and offloading strategy in edge computing
Zhou et al. Multi-server federated edge learning for low power consumption wireless resource allocation based on user QoE
Shi et al. Multiuser co-inference with batch processing capable edge server
Yu et al. Task delay minimization in wireless powered mobile edge computing networks: A deep reinforcement learning approach
Li et al. DNN Partition and Offloading Strategy with Improved Particle Swarm Genetic Algorithm in VEC
CN113821346A (zh) 基于深度强化学习的边缘计算中计算卸载与资源管理方法
CN116916386A (zh) 一种考虑用户竞争和负载的大模型辅助边缘任务卸载方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant