CN117336824A - 移动边缘环境中面向联邦学习的分层节点选择方法 - Google Patents
移动边缘环境中面向联邦学习的分层节点选择方法 Download PDFInfo
- Publication number
- CN117336824A CN117336824A CN202311270261.0A CN202311270261A CN117336824A CN 117336824 A CN117336824 A CN 117336824A CN 202311270261 A CN202311270261 A CN 202311270261A CN 117336824 A CN117336824 A CN 117336824A
- Authority
- CN
- China
- Prior art keywords
- training
- user terminal
- unmanned aerial
- selection
- aerial vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000010187 selection method Methods 0.000 title claims abstract description 17
- 238000012549 training Methods 0.000 claims abstract description 184
- 238000005457 optimization Methods 0.000 claims abstract description 71
- 230000006870 function Effects 0.000 claims abstract description 65
- 230000002776 aggregation Effects 0.000 claims abstract description 41
- 238000004220 aggregation Methods 0.000 claims abstract description 41
- 238000000034 method Methods 0.000 claims abstract description 40
- 238000005265 energy consumption Methods 0.000 claims description 39
- 230000005540 biological transmission Effects 0.000 claims description 16
- 230000008569 process Effects 0.000 claims description 16
- 230000004931 aggregating effect Effects 0.000 claims description 5
- 238000011480 coordinate descent method Methods 0.000 claims description 4
- 230000000052 comparative effect Effects 0.000 description 7
- 238000011156 evaluation Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 239000003999 initiator Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011144 upstream manufacturing Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W48/00—Access restriction; Network selection; Access point selection
- H04W48/20—Selecting an access point
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/098—Distributed learning, e.g. federated learning
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W24/00—Supervisory, monitoring or testing arrangements
- H04W24/02—Arrangements for optimising operational condition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W24/00—Supervisory, monitoring or testing arrangements
- H04W24/08—Testing, supervising or monitoring using real traffic
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W28/00—Network traffic management; Network resource management
- H04W28/02—Traffic management, e.g. flow control or congestion control
- H04W28/08—Load balancing or load distribution
- H04W28/09—Management thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W84/00—Network topologies
- H04W84/02—Hierarchically pre-organised networks, e.g. paging networks, cellular networks, WLAN [Wireless Local Area Network] or WLL [Wireless Local Loop]
- H04W84/04—Large scale networks; Deep hierarchical networks
- H04W84/06—Airborne or Satellite Networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W88/00—Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
- H04W88/02—Terminal devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W88/00—Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
- H04W88/08—Access point devices
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computer Security & Cryptography (AREA)
- Mobile Radio Communication Systems (AREA)
Abstract
本发明提供了一种移动边缘环境中面向联邦学习的分层节点选择方法构建移动边缘网络;设定最小化损失函数,通过用户终端的本地数据进行预训练;通过无人机进行局部参数聚合,并通过基站进行全局参数聚合;通过聚合的参数,并基于用户终端和无人机的选择、参与模型训练的数据集选择和单次训练迭代时延设定优化函数,对优化函数进行求解,并通过全局迭代,得到用户终端和无人机的选择、参与模型训练的数据集选择和单次训练迭代时延的最优解。有效降低了由于本地模型训练的用户终端过多导致网络拥塞的可能,同时训练延迟降低,降低用户终端低质量数据的选取,提升模型训练的精度。
Description
技术领域
本发明涉及移动边缘计算技术领域,具体涉及一种移动边缘环境中面向联邦学习的分层节点选择方法。
背景技术
云计算、雾计算、边缘计算是三个不同的计算层次。云计算侧重于集中式大数据处理,物理位置上更靠近数据中心。边缘计算侧重于分布式大数据处理,物理位置上靠近终端用户和设备,雾计算介于两者之间。移动边缘计算是云计算的延伸。移动边缘计算通过在网络边缘侧设立边缘服务器,为应用提供了计算、存储和传输等服务的新型平台,满足了用户在低时延、高带宽、个性化、高安全性、高隐私性等的要求下的应用场景。移动边缘计算在现场级、实时级、短周期级的数据分析上有不可比拟的优点。同时,移动边缘计算的发展也离不开云计算。来自用户终端的信息需要在云平台上进行汇总和分析,从而为边缘服务提供更好的分析样板。这种组合可以在低延时、高稳定的网络连接中更好地为用户提供服务。
当前已有与移动边缘计算环境中面向联邦学习的分层节点选择相关工作更多地关注于利用无人机作为聚合节点,与用户终端形成联邦学习架构。同时,也考虑到参与联邦学习的用户终端选择问题和参与水平选择问题,有部分相关工作设计了激励机制促使用户终端参与到联邦学习过程中。然而,由于无人机覆盖范围较小,无人机作为聚合节点获得的联邦学习模型具有局限性,难以适应大范围内的任务处理需求。同时,在大多数相关工作中联邦学习全局单次迭代的时延由联邦学习任务发起者指定,使其训练过程难以适应动态变化的拓扑网络环境,从而使得联邦学习在临时资源提供的应用中训练精度较差。针对联邦学习模型训练过程中参与本地模型训练的节点数量过多导致网络拥塞、训练延迟增加以及终端低质量数据降低模型训练精度等问题。本专利提出移动边缘计算环境中面向联邦学习的分层节点选择策略,解决联邦学习模型训练过程中参与本地模型训练的节点数量过多导致网络拥塞、训练延迟增加以及终端低质量数据降低模型训练精度等问题
发明内容
本发明提出了一种移动边缘环境中面向联邦学习的分层节点选择方法,以解决联邦学习模型训练过程中参与本地模型训练的节点数量过多导致网络拥塞、训练延迟增加以及终端低质量数据降低模型训练精度的技术问题。
为解决上述技术问题,本发明提供了一种移动边缘环境中面向联邦学习的分层节点选择方法,其特殊之处在于,包括以下步骤:
步骤S1:构建移动边缘网络,所述移动边缘网络包括用户终端、无人机和基站;
所述用户终端用于本地数据训练;
所述无人机用于局部聚合用户终端上传的训练参数;
所述基站用于全局参数聚合;
所述基站和无人机统称为边缘节点;
步骤S2:设定最小化损失函数,通过所述用户终端的本地数据进行预训练;
步骤S3:通过所述无人机进行局部参数聚合,并通过所述基站进行全局参数聚合;
步骤S4:通过聚合的参数,并基于用户终端和无人机的选择、参与模型训练的数据集选择和单次训练迭代时延设定优化函数,所述优化函数的表达式为:
式中,τ表示边缘节点对终端的选择变量集合,n表示参与模型训练的数据集选择变量集合,π表示基站对无人机的选择变量集合,t表示单次训练迭代的等待时延,A表示无人机的数量,A+1表示一个基站和A个无人机,Um表示用户终端的数量,表示边缘节点m从终端um的数据集中选择样本的数量,h表示损失函数,/>表示数据集/>中第/>个样本的输入数据,/>表示数据集/>中第/>个样本的输出数据,w表示权重向量,ι表示损失函数的权重因子,tall表示训练中一次全局迭代的时延;
步骤S5:对所述优化函数进行求解,并通过全局迭代,得到用户终端和无人机的选择、参与模型训练的数据集选择和单次训练迭代时延的最优解。
优选地,步骤S2中所述最小化损失函数的表达式为:
式中,表示终端um训练样本/>的权重向量,/>表示用户终端um训练后全权重,/>表示为终端um第/>个样本的损失函数。
优选地,步骤S3中所述局部参数聚合的表达式为:
式中,wm表示边缘节点m对用于终端上传参数进行聚合所得到的权重向量,表示边缘节点m对终端um的选择变量集合。
优选地,步骤S3中所述全局参数聚合的表达式为:
式中,πa∈{0,1}表示基站是否选择无人机a参与联邦学习训练的决策变量,当无人机a参与联邦学习训练时πa=1,否则πa=0。
优选地,步骤S4中对所述优化函数设定约束条件,所述约束条件包括:
0≤δ≤ε≤t0
tall≤t0
式中表示用户终端本地训练的最大迭代次数,/>表示用户终端um单次训练的能耗,/>表示用户终端um上传参数的能耗,/>表示用户终端um的可用能耗,M表示边缘节点的数量,/>表示无人机a聚合参数的能耗,/>表示无人机a上传参数到基站b的能耗,/>表示无人机a对用户终端um的选择变量集合,/>表示无人机a回传参数给用户终端um的能耗,t={δ,ε}表示单次训练的等待时延,t0表示单次训练的时间限制。
优选地,步骤S5中对所述优化函数进行求解的方法包括以下步骤:
步骤S51:通过对联邦学习收敛速度进行分析,并设定松弛变量进行优化,将所述优化函数转化为总目标优化函数;
步骤S52:利用块坐标下降法将所述总目标优化函数分解成关于用户终端和单次训练迭代时延、无人机的选择和参与模型训练的数据集选择的目标优化函数;
步骤S53:通过内点法对所述目标优化函数进行求解;
步骤S54:采用随机取整方法对求解结果进行还原,得到优化方案。
优选地,所述总目标优化函数Z的表达式为:
式中,表示松弛变量,/>表示无人机a传输参数给基站的数据包误差率,/>表示用户终端um传输参数给边缘节点的数据包误差率。
优选地,所述用户终端和单次训练迭代时延的目标优化函数的表达式为:
优选地,所述无人机的选择的目标优化函数的表达式为:
优选地,所述参与模型训练的数据集选择的目标优化函数C1的表达式为:
本发明的有益效果至少包括:通过基于用户终端和无人机的选择、参与模型训练的数据集选择和单次训练迭代时延针对性地设定优化函数,有效降低了由于本地模型训练的用户终端过多导致网络拥塞的可能,同时训练延迟降低,降低用户终端低质量数据的选取,提升模型训练的精度。
附图说明
图1为本发明实施例的方法流程图;
图2为本发明实施例所提出方法全局迭代收敛示意图;
图3为本发明实施例的与其它算法关于DOE性能对比的示意图;
图4为本发明实施例的与其它算法关于AEOE性能对比的示意图;
图5为本发明实施例的与其它算法关于目标函数值VO性能对比的示意图;
图6为本发明实施例的本地训练次数对评价指标的影响示意图;
图7为本发明实施例的用户终端拥有数据的最大值对评价指标的影响示意图。
具体实施方式
下面结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本发明的保护范围。
如图1所示,本发明实施例提供了一种移动边缘环境中面向联邦学习的分层节点选择方法,包括以下步骤:
步骤S1:构建移动边缘网络,所述移动边缘网络包括用户终端、无人机和基站;所述用户终端用于本地数据训练;所述无人机用于局部聚合用户终端上传的训练参数;所述基站用于全局参数聚合;所述基站和无人机统称为边缘节点。
具体地,本发明实施例中,无人机集合记为A+1表示基站,表示边缘节点的集合,在边缘节点M的覆盖范围内,可参与联邦学习的用户终端集合为/> 表示愿意与边缘节点m进行通信的用户终端,用户终端um拥有的数据集记为/>数据集的样本总数为表示数据集/>中第/>个样本的输入数据,/>表示数据集/>中第/>个样本的输出数据。/>表示边缘节点选择用户终端um的决策变量。当/>时,边缘节点m选择用户终端um参与联邦学习中的模型训练;当/>时,用户终端um不参与联邦学习中的模型训练。边缘节点m从用户终端um的数据集中选择样本的数量为/>
步骤S2:设定最小化损失函数,通过所述用户终端的本地数据进行预训练。
本发明实施例中,设定的最小化损失函数的表达式为:
式中,表示终端um训练样本/>的权重向量,/>表示用户终端um训练后全权重,/>表示为终端um第/>个样本的损失函数。
因此,联邦学习的训练过程就是解决如下优化问题:
在每次迭代中,权重向量更新过程为/>其中,/>为用户终端本地模型训练的迭代次数,/> 为用户终端um训练本地数据集的最大迭代次数,η为机器学习模型中的学习率,/>为损失函数/>的梯度向量。当满足/>时,用户终端um的本地模型训练迭代停止,其中,/>为用户终端um上的本地模型训练精度值。为了简化模型,令/>
步骤S3:通过所述无人机进行局部参数聚合,并通过所述基站进行全局参数聚合。
具体地,在移动边缘网络中,边缘节点对覆盖区域内用户终端上传参数进行阶段性聚合,即:
式中,wm表示边缘节点m对用于终端上传参数进行聚合所得到的权重向量,表示边缘节点m对终端um的选择变量集合。
之后通过基站,对所有的数据进行全局参数聚合,全局参数聚合过程为:
式中,πa∈{0,1}表示基站是否选择无人机a参与联邦学习训练的决策变量,当无人机a参与联邦学习训练时πa=1,否则πa=0。w表示全局参数聚合所得的权重向量,同时本发明实施例中设定全局迭代次数与阶段性训练参数聚合次数相同,且πA+1=1。
步骤S4:通过聚合的参数,并基于用户终端和无人机的选择、参与模型训练的数据集选择和单次训练迭代时延设定优化函数。
以下对优化函数的部分参数进行说明:
具体地,用户终端的时延和能耗模型主要包括用户终端训练预定义模型参数的时延和能耗模型以及用户终端用于传输参数到边缘节点的时延和能耗模型。
设为数据集/>的大小,/>为处理每单位大小数据需求的CPU周期数,则在本地模型训练中用户终端um单周期训练时延为/>其中,/>为用户终端um的计算能力。同时,在本地模型训练中用户终端um单周期训练的能耗为其中,/>为终端um在单位周期内的CPU能耗。由于用户终端、无人机以及基站参与相同的预定义模型参数训练,因此,可以设用户终端、无人机以及基站输出的参数大小相同,即:/> 其中,/>和/>分别为参数/>和wq的大小,s0为常数。当用户终端训练完模型后,需要将参数上传到已接入的边缘节点,则用户终端um上传参数的时延和能耗依次为/>和/>其中,/>为用户终端um和边缘节点m之间的上行数据传输速率,/>为用户终端um的传输功率。
在联邦学习模型训练过程中,本发明实施例采用异步的方式进行参数传输。设为用户终端um上传参数到边缘节点m的时延,则有/>令/>表示边缘节点m等待覆盖范围内终端用户完成参数上传的时延,则有:
无人机的时延与能耗模型包括无人机聚合参数的时延与能耗模型、无人机上传参数到基站的时延和能耗模型以及无人机回传参数到终端的时延与能耗模型。
无人机在收到用户终端上传的参数后,对参数进行阶段性聚合,并将聚合结果上传给基站。令v0为聚合参数时每单位大小数据需求的CPU周期数,则无人机聚合参数的时延和能耗分别为和/>其中,fa是无人机a用于聚合参数的计算能力,e'a为无人机a在单位周期内的CPU能耗。
当无人机完成参数的阶段性聚合后,需要将参数上传到基站,从而通过基站配备的边缘服务器进行参数的全局聚合,则无人机a上传参数的时延和能耗依次为和/>其中,/>是无人机a和基站b之间的上行数据传输速率,为无人机a的传输功率。同时,当无人机接收到基站聚合的全局参数后,需要将全局参数回传给用户终端,则无人机a回传参数给用户终端um的时延和能耗依次为和/>其中,/>表示无人机a和用户终端um之间的下行数据传输速率。
设为无人机a上传参数到边缘服务器b的时延,其中,δ为联邦学习模型训练中局部参数获取的最大容忍时延。令/>表示基站b等待无人机完成阶段性聚合参数上传的时延,则有:
其中, 为基站b聚合阶段性参数的时延。
基站的时延模型主要由基站聚合阶段性参数或全局参数的时延模型以及基站回传参数给无人机/用户终端的时延模型构成。
基站b聚合阶段性参数的时延为其中,fb是基站b配备的边缘服务器用于聚合参数的计算能力。设/>为基站b聚合全局参数的时延,则有在本发明实施例中,基站对参数聚合的时延可以忽略,因为基站的计算能力远大于终端,且参数聚合的时延较低,可以忽略不记。令/>表示基站b回传全局参数给无人机a的时延,则有/>其中,/>为基站b和无人机a之间的下行数据传输速率。类似地,基站b回传全局参数给用户终端um的时延为/>其中,为基站b和用户终端um之间的下行数据传输速率。设tall为联邦学习模型训练中一次全局迭代的时延,则:
其中,ε为联邦学习模型训练中全局训练的最大容忍时间。
用户终端训练完本地模型后,将参数作为单个数据包传输给边缘节点。无人机也采用单数据包的方式传输参数给基站。边缘节点采用循环冗余校验机制对接收的参数数据包进行检查。令和/>分别表示终端um传输参数给边缘节点m的数据包误差率以及无人机a传输参数给基站的数据包误差率,则有/>以及其中,σ2表示高斯噪声功率,m∈M,pa表示无人机a的传输功率,gab表示无人机a和基站b之间的信道增益,/>表示用户终端um和边缘节点m之间的信道增益,α表示阈值。/>表示边缘节点m收到用户终端um上传错误参数,反之/>类似地,表示基站收到无人机a上传错误参数,反之/>同时,令/>则有以及/>显然/>
步骤S4:通过聚合的参数,并基于用户终端和无人机的选择、参与模型训练的数据集选择和单次训练迭代时延设定优化函数。
具体地,针对联邦学习模型训练过程中参与本地模型训练的节点数量过多导致网络拥塞、训练延迟增加以及终端低质量数据降低模型训练精度等问题,提出面向联邦学习的分层节点选择策略。建立联合优化用户终端和无人机的选择、参与模型训练的数据集选择以及单次训练迭代时延选择的优化问题,即:
式中,τ表示边缘节点对终端的选择变量集合,n表示参与模型训练的数据集选择变量集合,π表示基站对无人机的选择变量集合,t表示单次训练迭代的等待时延,A表示无人机的数量,A+1表示一个基站和A个无人机,Um表示用户终端的数量,表示边缘节点m从终端um的数据集中选择样本的数量,h表示损失函数,/>表示数据集/>中第/>个样本的输入数据,/>表示数据集/>中第/>个样本的输出数据,w表示权重向量,ι表示损失函数的权重因子,tall表示训练中一次全局迭代的时延。
本发明实施例中为了提高运算的准确度和精度,设置约束条件如下:
0≤δ≤ε≤t0
tall≤t0
式中表示用户终端本地训练的最大迭代次数,/>表示用户终端um单次训练的能耗,/>表示用户终端um上传参数的能耗,/>表示用户终端um的可用能耗,M表示边缘节点的数量,/>表示无人机a聚合参数的能耗,/>表示无人机a上传参数到基站b的能耗,/>表示无人机a对用户终端um的选择变量集合,/>表示无人机a回传参数给用户终端um的能耗,t={δ,ε}表示单次训练的等待时延,t0表示单次训练的时间限制,
步骤S5:对所述优化函数进行求解,并通过全局迭代,得到用户终端和无人机的选择、参与模型训练的数据集选择和单次训练迭代时延的最优解。
求解的方法包括以下步骤:
步骤S51:通过对联邦学习收敛速度进行分析,并设定松弛变量进行优化,将所述优化函数转化为总目标优化函数。
具体地,令其中w指代w(τ,n,π,t)。联邦学习训练的最终目的是最小化全局损失函数,使得/>参数的全局更新过程为:
wq+1=wq-ηQ-1G
Q表示迭代次数,Im为边缘节点m完成参数训练并成功上传参数到基站的示性函数,当tm≤δ时,Im=1;否则,Im=0。为用户终端um完成本地模型训练并成功上传参数到边缘节点m的示性函数,当/>时,/>否则,/>
令对参数全局更新过程进行变形,有:
令w*为理想状态下所有终端用户参与联邦学习训练时获得的最优参数,为了获得联邦学习收敛速度的期望,可做如下假设:
1)是关于w的一致李普希茨连续,l是一个正常数,则有:
2)H(w)是关于正参数ζ的严格凸函数,即:
3)
根据上述假设,可以得到如下结论:
给定τ、n、π、t和w*的值,并令η=l-1,则有 其中B=1-ζl-1+4ζξ2Fl-1N-1,/>是关于参数传输数据包误差率的期望,G=2ξ1Fl-1N-1×(1-Bq+1)(1-B)-1,,其中,wq +1是由在第q+1次全局迭代中用户选择以及用户本地训练模型来决定的。w*是理想状态下所有终端用户参与联邦学习训练时获得的最优参数。G为/>和/>之间的间隙。
当B<1时,由联邦学习收敛可得:
由于ζ/l<1,根据上式可得4ζξ2Fl-1N-1-ζl-1<0,并对其进行化简得:
ξ2<N(4F)-1
上式对于所有变量都成立,则有同时,ξ2>0,因此,
为了最小化损失函数,只需要最小化和/>之间的间隙G即可,此时称G为收敛间隙。当B≥1时,联邦学习不收敛。因此,本发明实施例所关注的是在B<1时最小化间隙G的问题,随着q增大,联邦学习收敛,Bq+1=0,得到:
因此对于最小化收敛间隙G的问题,只需要最小化F/N即可,从而将优化函数转换为:
引入松弛变量 进行进一步的优化得到总目标优化函数Z:
s.t.
步骤S52:利用块坐标下降法将所述总目标优化函数分解成关于用户终端和单次训练迭代时延、无人机的选择和参与模型训练的数据集选择的目标优化函数。
总目标优化函数中,离散变量τ、π和n依次被松弛到连续区间上。利用块坐标下降法BCD可以将P3分解为用户选择和迭代时延联合优化问题、无人机选择问题以及样本选择问题。
用户选择和迭代时延联合优化问题:
给定n和π,可得用户选择和迭代时延联合优化问题P3.1,即:
显然,优化问题P3.1是线性规划问题,可利用内点法对其求解。
无人机选择问题:
给定τ、t、和n,可得面向联邦学习的无人机选择问题P3.2,即:
显然,优化问题P3.2是线性规划问题,可利用内点法对其求解。
样本选择问题:
给定τ、t、和n,可得面向联邦学习的样本选择问题P3.3,即:
对优化问题P3.3进行转化,从而获得优化问题P3.4,即:
显然,优化问题P3.4为线性规划问题,因此,可利用内点法对其求解。对于松弛后的变量,可采用随机取整技术对其进行还原,从而得到最优的参数以进行配置。
以下通过具体地实施例对本发明方案进行说明:为了评估本发明所提出的分层节点选择算法CAAGFL的性能,本发明选取基于贪婪选择的联邦学习算法FLGS(FederatedLearning based on Greedy Selection)、基于用户选择的联邦学习算法FLCS(FederatedLearning based on Client Selection)以及基于随机选择的联邦学习算法FLRS(Federated Learning based on Random Selection)作为对比算法。在FLGS算法中,所有终端利用拥有的全部数据集参与联邦学习的模型训练,且没有考虑其它参数的优化;FLCS算法考虑了终端选择的优化,但没有对数据集选择进行优化;在FLRS算法中,终端以及其拥有的数据集被随机选择。
本发明选取一次全局迭代的时延DOE(Delay of One Epoch)、一次全局迭代的用户终端平均能耗AEOE(Average Energy of One Epoch)作为评价指标。同时,在验证CAAGFL算法可行性上。对于评价指标的详细解释如下:
DOE是指在移动边缘计算分层架构中完成一次全局迭代的时延,主要包括终端训练时延、参数上行传输时延以及基站回传参数到用户终端的时延;
AEOE表示被选中的用户终端在利用指定数据样本进行训练的平均能量消耗,是用户终端训练参数中能量消耗的平均值。
为了验证CAAGFL算法的性能,本发明讨论了全局迭代次数、本地训练次数以及用户终端拥有数据的最大值对不同评价指标的影响。
实验1:全局迭代次数对算法性能的影响
实验1首先验证了CAAGFL算法的可行性,计算了400次全局迭代的平均值,并绘制了对比算法与评价指标之间的关系图以及各评价指标的累计分布函数图,如图2所示,CAAGFL算法在第318次全局迭代以后呈收敛趋势。
如图3中的(a)绘制了各算法在400次迭代后的DOE平均值,与FLGS算法、FLCS算法以及FLRS算法相比,CAAGFL算法的DOE值是最小的。与FLGS算法、FLCS算法和FLRS算法的DOE值相比,CAAGFL算法分别获得了56.54%、47.69%和36.96%的缩减。在联邦学习模型训练中,CAAGFL算法综合考虑了无人机、用户终端、样本以及单次迭代时延的优化,从而在各节点可用能耗范围内,最小化DOE,同时最大化模型训练精度。在FLGS算法中,所有的无人机、用户终端以及用户终端拥有的数据集全部参与联邦学习的模型训练,从而显著增加了DOE的值。FLCS算法考虑优化无人机和用户终端的选择,但没有考虑对数据集选择进行优化,从而使得DOE值高于CAAGFL算法的。FLRS算法随机选择用户终端和该终端拥有的数据集,从而使得DOE值高于CAAGFL算法的。
从图3中的(b)可知,在每次全局迭代中,CAAGFL算法的DOE值均低于三个对比算法的。在CAAGFL算法中,80%的DOE延小于3s,FLGS算法的DOE大于3s,这是由于FLGS算法将所有的无人机、用户终端以及用户终端拥有的数据集加入到联邦学习的模型训练,从而引起在DOE上的显著差异。在FLCS算法中,超过80%的DOE大于3s,这是因为FLCS算法考虑优化无人机和用户终端的选择,但没有考虑对数据集选择进行优化,从而在DOE上大于CAAGFL算法的DOE。在FLRS算法中,有近60%的DOE大于3s,因为该算法随机选择用户终端和该终端拥有的数据集,从而使得DOE的值大于CAAGFL算法的DOE值。
图4中的(a)描述了各算法在400次迭代后的AEOE平均值,可以看出,CAAGFL算法的AEOE值均小于FLGS算法、FLCS算法以及FLRS算法的。在CAAGFL算法中,用户终端和无人机的能耗被作为限制条件,模型训练时延和精度的加权和被作为优化目标,从而使得数据集在被选择时较为分散,且相比用户终端拥有的数据,每个用户终端被选择的数据集较少,因此,CAAGFL算法的AEOE值显著变小。与FLGS算法、FLCS算法以及FLRS算法相比,CAAGFL算法的AEOE值依次获得95.36%、93.28%和89.40%的减少。在FLGS算法中,所有的无人机、用户终端以及用户终端拥有的数据集全部参与联邦学习的模型训练,同时,没有考虑无人机和用户终端的可用能耗,从而导致其AEOE值显著增大。FLCS算法以CAAGFL算法的决策结果为基础,将被选择用户终端的样本全部加入到联邦学习的模型训练中。在其它条件和决策结果不变的情况下,参数训练中样本量的增加将导致用户终端平均能耗的增加。FLRS算法随机选择用户终端和该终端拥有的数据集,显然会使得AEOE值大于CAAGFL算法的。
图4中的(b)展示了各对比算法的AEOE的经验CDF图。在每次迭代中,CAAGFL算法的AEOE值小于对比算法的。在CAAGFL算法中,约90%的AEOE小于0.1J。在FLCS算法中,超过90%的AEOE值大于0.1J,这是因为FLCS算法以CAAGFL算法的决策结果为基础,将被选择用户终端的样本全部加入到联邦学习的模型训练中。在其它条件和决策结果不变的情况下,模型训练中样本量的增加将导致用户终端平均能耗的增加。FLGS算法和FLRS算法的AEOE值均大于0.1J,这是因为这两个算法都没有考虑用户终端选择和样本选择的优化,从而导致AEOE值大于CAAGFL算法的。
图5中的(a)描述了各算法在400次迭代后的目标函数值VO的平均值,CAAGFL算法的VO值是三个对比算法中最小的。在CAAGFL算法中,模型训练时延和精度的加权和被作为优化目标,从而使得VO的值变小。与FLGS算法、FLCS算法以及FLRS算法相比,CAAGFL算法使其VO值依次减少了59.74%、20.17%以及61.52%。FLGS算法使所有无人机、用户终端以及用户终端拥有的数据集参与到联邦学习的模型训练中,没有考虑训练时延的优化。虽然大量的数据集使得模型训练精度表现更好,但这也引起了模型训练的高延迟,因此,FLGS算法的VO值明显高于CAAGFL算法的。FLCS算法是以CAAGFL算法的决策结果为基础,将被选择用户终端的样本全部加入到联邦学习的模型训练中。在其它条件和决策结果不变的情况下,模型训练中样本量的增加将导致模型训练时延的增加,从而使得VO值变大。FLRS算法随机选择用户终端和该终端拥有的数据集,没有考虑模型训练精度和训练时延的优化,因此FLRS算法的VO值大于CAAGFL算法的。
图5中的(b)展示了各对比算法的VO经验CDF图,在每次迭代中,CAAGFL算法的VO值均小于对比算法的。在CAAGFL算法中,约70%的VO值小于0.45。在FLCS算法中,超过60%的VO值大于0.45,这是因为FLCS算法是以CAAGFL算法的决策结果为基础,将被选择用户终端的样本全部加入到联邦学习的模型训练中,从而引起VO值的增大。CAAGFL算法中的VO值均小于0.75,而FLGS算法和FLRS算法的VO值均大于0.75。FLGS算法使所有无人机、用户终端以及用户终端拥有的数据集参与到联邦学习的模型训练中,没有考虑训练时延的优化。虽然大量的数据集使得模型训练精度表现更好,但这也引起了模型训练的高延迟,因此,FLGS算法的VO值明显高于CAAGFL算法的。FLRS算法随机选择用户终端和该终端拥有的数据集,没有考虑模型训练精度和训练时延的优化,因此FLRS算法的VO值大于CAAGFL算法的。
图6中的(a)展示了本地训练次数对DOE的影响,随着本地训练次数的增加,各算法的DOE值均依次增加。这是因为,当其它条件不变的情况下,随之本地训练次数的增加,本地训练时延随之增大,从而导致各对比算法的DOE值增大。CAAGFL算法的DOE值均小于三种对比算法的。例如,当本地训练次数为10时,与FLGS算法、FLCS算法以及FLRS算法相比,CAAGFL算法的DOE值依次减少了67.07%、52.52%和58.99%。CAAGFL算法综合考虑了无人机、用户终端、样本以及单次迭代时延的优化,在最小化DOE的同时最大化模型训练精度。在FLGS算法中,所有的无人机、用户终端以及用户终端拥有的数据集全部参与联邦学习的模型训练。当本地训练次数不变的情况下,参与模型训练的样本数量越多,本地的训练时延越大,因此,FLGS算法的DOE值大于CAAGFL算法的。FLCS算法是以CAAGFL算法的决策结果为基础,将被选择用户终端的样本全部加入到联邦学习的模型训练中。在其它条件和决策结果不变的情况下,模型训练中样本量的增加将导致模型训练时延的增加,从而使得FLCS算法的DOE值大于CAAGFL算法的。FLRS算法随机选择用户终端和该终端拥有的数据集,从而使得DOE值高于CAAGFL算法的。
从图6中的(b)表明,随着本地训练次数的增加,各算法的AEOE值随之增大。这是因为当其它条件不变的情况下,随之本地训练次数的增加,各参与联邦学习的终端设备训练模型的能耗在增加,从而导致AEOE值的增大。CAAGFL算法的AEOE值均小于三种对比算法的。例如,当本地训练次数为10时,与FLGS算法、FLCS算法以及FLRS算法相比,CAAGFL算法的AEOE值依次减少了66.73%、56.05%和43.19%。CAAGFL算法综合考虑了无人机、用户终端、样本以及单次迭代时延的优化,从而在各节点可用能耗范围内,最小化DOE,同时最大化模型训练精度。在FLGS算法中,所有的无人机、用户终端以及用户终端拥有的数据集全部参与联邦学习的模型训练。当本地训练次数不变的情况下,参与模型训练的样本数量越多,各参与联邦学习的终端设备训练模型的能耗越大,因此,FLGS算法的AEOE值大于CAAGFL算法的。FLCS算法是以CAAGFL算法的决策结果为基础,将被选择用户终端的样本全部加入到联邦学习的模型训练中。在其它条件和决策结果不变的情况下,模型训练中样本量的增加将导致模型训练能耗的增加,从而使得FLCS算法的AEOE值大于CAAGFL算法的。FLRS算法随机选择用户终端和该终端拥有的数据集,在用户终端和本地训练次数一定的情况下,随机选择样本数量的平均值大于CAAGFL算法中样本数量选择的优化值,从而使得DOE值高于CAAGFL算法的。
图7中描述了用户终端拥有数据的最大值DOE和AEOE的影响,可知,随着用户终端拥有数据的最大值增加,各对比算法的DOE值逐渐增大。这是因为随着用户终端拥有数据的最大值增加,各用户终端中可选择的样本数量增大,从而导致DOE值的增大。CAAGFL算法的DOE值均小于三种对比算法的。例如,当用户终端拥有数据的最大值为2MB时,与FLGS算法、FLCS算法以及FLRS算法相比,CAAGFL算法的DOE值依次减少了63.57%、44.65%和54.65%。CAAGFL算法综合考虑了无人机、用户终端、样本以及单次迭代时延的优化,在最小化DOE的同时最大化模型训练精度。在FLGS算法中,所有的无人机、用户终端以及用户终端拥有的数据集全部参与联邦学习的模型训练。当用户终端拥有数据的最大值一定时,参与模型训练的样本数量越多,本地的训练时延越大,因此,FLGS算法的DOE值大于CAAGFL算法的。FLCS算法是以CAAGFL算法的决策结果为基础,将被选择用户终端的样本全部加入到联邦学习的模型训练中。在其它条件和决策结果不变的情况下,模型训练中样本量的增加将导致模型训练时延的增加,从而使得FLCS算法的DOE值大于CAAGFL算法的。FLRS算法随机选择用户终端和该终端拥有的数据集,从而使得DOE值高于CAAGFL算法的。
由此可以看出,本发明所提出的方法,在综合考虑方面,均由于其它算法,具有良好的效果。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,仅表达了本发明的较佳实施例而已,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种移动边缘环境中面向联邦学习的分层节点选择方法,其特征在于:包括以下步骤:
步骤S1:构建移动边缘网络,所述移动边缘网络包括用户终端、无人机和基站;
所述用户终端用于本地数据训练;
所述无人机用于局部聚合用户终端上传的训练参数;
所述基站用于全局参数聚合;
所述基站和无人机统称为边缘节点;
步骤S2:设定最小化损失函数,通过所述用户终端的本地数据进行预训练;
步骤S3:通过所述无人机进行局部参数聚合,并通过所述基站进行全局参数聚合;
步骤S4:通过聚合的参数,并基于用户终端和无人机的选择、参与模型训练的数据集选择和单次训练迭代时延设定优化函数,所述优化函数的表达式为:
式中,τ表示边缘节点对终端的选择变量集合,n表示参与模型训练的数据集选择变量集合,π表示基站对无人机的选择变量集合,t表示单次训练迭代的等待时延,A表示无人机的数量,A+1表示一个基站和A个无人机,Um表示用户终端的数量,表示边缘节点m从终端um的数据集中选择样本的数量,h表示损失函数,/>表示数据集/>中第/>个样本的输入数据,/>表示数据集/>中第/>个样本的输出数据,w表示权重向量,ι表示损失函数的权重因子,tall表示训练中一次全局迭代的时延;
步骤S5:对所述优化函数进行求解,并通过全局迭代,得到用户终端和无人机的选择、参与模型训练的数据集选择和单次训练迭代时延的最优解。
2.根据权利要求1所述的一种移动边缘环境中面向联邦学习的分层节点选择方法,其特征在于:步骤S2中所述最小化损失函数的表达式为:
式中,表示终端um训练样本/>的权重向量,/>表示用户终端um训练后全权重,表示为终端um第/>个样本的损失函数。
3.根据权利要求2所述的一种移动边缘环境中面向联邦学习的分层节点选择方法,其特征在于:步骤S3中所述局部参数聚合的表达式为:
式中,wm表示边缘节点m对用于终端上传参数进行聚合所得到的权重向量,表示边缘节点m对终端um的选择变量集合。
4.根据权利要求3所述的一种移动边缘环境中面向联邦学习的分层节点选择方法,其特征在于:步骤S3中所述全局参数聚合的表达式为:
式中,πa∈{0,1}表示基站是否选择无人机a参与联邦学习训练的决策变量,当无人机a参与联邦学习训练时πa=1,否则πa=0。
5.根据权利要求1所述的一种移动边缘环境中面向联邦学习的分层节点选择方法,其特征在于:步骤S4中对所述优化函数设定约束条件,所述约束条件包括:
0≤δ≤ε≤t0
tall≤t0
式中表示用户终端本地训练的最大迭代次数,/>表示用户终端um单次训练的能耗,/>表示用户终端um上传参数的能耗,/>表示用户终端um的可用能耗,M表示边缘节点的数量,/>表示无人机a聚合参数的能耗,/>表示无人机a上传参数到基站b的能耗,表示无人机a对用户终端um的选择变量集合,/>表示无人机a回传参数给用户终端um的能耗,t={δ,ε}表示单次训练的等待时延,t0表示单次训练的时间限制。
6.根据权利要求1所述的一种移动边缘环境中面向联邦学习的分层节点选择方法,其特征在于:步骤S5中对所述优化函数进行求解的方法包括以下步骤:
步骤S51:通过对联邦学习收敛速度进行分析,并设定松弛变量进行优化,将所述优化函数转化为总目标优化函数;
步骤S52:利用块坐标下降法将所述总目标优化函数分解成关于用户终端和单次训练迭代时延、无人机的选择和参与模型训练的数据集选择的目标优化函数;
步骤S53:通过内点法对所述目标优化函数进行求解;
步骤S54:采用随机取整方法对求解结果进行还原,得到优化方案。
7.根据权利要求6所述的一种移动边缘环境中面向联邦学习的分层节点选择方法,其特征在于:所述总目标优化函数Z的表达式为:
式中,表示松弛变量,/>表示无人机a传输参数给基站的数据包误差率,/>表示用户终端um传输参数给边缘节点的数据包误差率。
8.根据权利要求7所述的一种移动边缘环境中面向联邦学习的分层节点选择方法,其特征在于:所述用户终端和单次训练迭代时延的目标优化函数的表达式为:
9.根据权利要求1所述的一种移动边缘环境中面向联邦学习的分层节点选择方法,其特征在于:所述无人机的选择的目标优化函数的表达式为:
10.根据权利要求1所述的一种移动边缘环境中面向联邦学习的分层节点选择方法,其特征在于:所述参与模型训练的数据集选择的目标优化函数C1的表达式为:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311270261.0A CN117336824A (zh) | 2023-09-27 | 2023-09-27 | 移动边缘环境中面向联邦学习的分层节点选择方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311270261.0A CN117336824A (zh) | 2023-09-27 | 2023-09-27 | 移动边缘环境中面向联邦学习的分层节点选择方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117336824A true CN117336824A (zh) | 2024-01-02 |
Family
ID=89278470
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311270261.0A Pending CN117336824A (zh) | 2023-09-27 | 2023-09-27 | 移动边缘环境中面向联邦学习的分层节点选择方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117336824A (zh) |
-
2023
- 2023-09-27 CN CN202311270261.0A patent/CN117336824A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Shi et al. | Device scheduling with fast convergence for wireless federated learning | |
Li et al. | Digital twin assisted task offloading for aerial edge computing and networks | |
CN110928654B (zh) | 一种边缘计算系统中分布式的在线任务卸载调度方法 | |
CN110113190B (zh) | 一种移动边缘计算场景中卸载时延优化方法 | |
Chen et al. | Federated learning over wireless IoT networks with optimized communication and resources | |
CN113222179B (zh) | 一种基于模型稀疏化与权重量化的联邦学习模型压缩方法 | |
Sun et al. | Deep learning-based long-term power allocation scheme for NOMA downlink system in S-IoT | |
CN112260737B (zh) | 总能效与最小能效权衡的多波束卫星通信鲁棒预编码方法 | |
CN111629380A (zh) | 面向高并发多业务工业5g网络的动态资源分配方法 | |
WO2021227508A1 (zh) | 基于深度强化学习的工业5g动态多优先级多接入方法 | |
CN115277689A (zh) | 一种基于分布式联邦学习的云边网络通信优化方法及系统 | |
Lan et al. | Progressive feature transmission for split classification at the wireless edge | |
Ling et al. | Distributionally robust chance-constrained backscatter communication-assisted computation offloading in WBANs | |
CN109618312B (zh) | 一种面向d2d中继网络的低复杂度在线资源分配优化算法 | |
Giri et al. | Deep Q-learning based optimal resource allocation method for energy harvested cognitive radio networks | |
CN117114113B (zh) | 一种基于排队论的协同推理加速方法 | |
Albelaihi et al. | Deep-Reinforcement-Learning-Assisted Client Selection in Nonorthogonal-Multiple-Access-Based Federated Learning | |
CN116887205A (zh) | 一种面向物联网协同智能的无线联邦分割学习算法 | |
WO2023098860A1 (zh) | 通信方法和通信装置 | |
CN116484976A (zh) | 一种无线网络中异步联邦学习方法 | |
CN117336824A (zh) | 移动边缘环境中面向联邦学习的分层节点选择方法 | |
CN114884957B (zh) | 空天地网络中的计算任务卸载方法、装置和电子设备 | |
CN116828534A (zh) | 基于强化学习的密集网络大规模终端接入与资源分配方法 | |
CN116341679A (zh) | 一种高时效的联邦边缘学习调度策略设计方法 | |
WO2023175381A1 (en) | Iterative training of collaborative distributed coded artificial intelligence model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |