CN114997737A - 基于分层联邦学习的无人机小基站集群ran切片方法 - Google Patents
基于分层联邦学习的无人机小基站集群ran切片方法 Download PDFInfo
- Publication number
- CN114997737A CN114997737A CN202210830056.4A CN202210830056A CN114997737A CN 114997737 A CN114997737 A CN 114997737A CN 202210830056 A CN202210830056 A CN 202210830056A CN 114997737 A CN114997737 A CN 114997737A
- Authority
- CN
- China
- Prior art keywords
- unmanned aerial
- aerial vehicle
- slice
- cluster
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 68
- 230000002776 aggregation Effects 0.000 claims abstract description 66
- 238000004220 aggregation Methods 0.000 claims abstract description 66
- 238000012549 training Methods 0.000 claims abstract description 43
- 238000002955 isolation Methods 0.000 claims abstract description 33
- 238000009826 distribution Methods 0.000 claims abstract description 22
- 238000013434 data augmentation Methods 0.000 claims abstract description 13
- 230000008569 process Effects 0.000 claims abstract description 8
- 241000854291 Dianthus carthusianorum Species 0.000 claims description 32
- 230000006870 function Effects 0.000 claims description 19
- 238000013468 resource allocation Methods 0.000 claims description 15
- 230000007246 mechanism Effects 0.000 claims description 10
- 238000004422 calculation algorithm Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 8
- 238000005457 optimization Methods 0.000 claims description 8
- 238000004138 cluster model Methods 0.000 claims description 4
- 238000013499 data model Methods 0.000 claims description 4
- 230000004931 aggregating effect Effects 0.000 claims description 2
- 230000003321 amplification Effects 0.000 claims description 2
- 238000011478 gradient descent method Methods 0.000 claims description 2
- 239000011159 matrix material Substances 0.000 claims description 2
- 238000010606 normalization Methods 0.000 claims description 2
- 238000003199 nucleic acid amplification method Methods 0.000 claims description 2
- 238000012545 processing Methods 0.000 claims description 2
- 238000009795 derivation Methods 0.000 claims 1
- 239000012634 fragment Substances 0.000 claims 1
- 238000004891 communication Methods 0.000 abstract description 39
- 230000006854 communication Effects 0.000 abstract description 39
- 230000000694 effects Effects 0.000 abstract description 21
- 238000004088 simulation Methods 0.000 abstract description 6
- 238000010801 machine learning Methods 0.000 abstract description 5
- 238000005265 energy consumption Methods 0.000 description 10
- 210000004027 cell Anatomy 0.000 description 6
- 238000013461 design Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000002474 experimental method Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 238000006116 polymerization reaction Methods 0.000 description 3
- 238000007430 reference method Methods 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000013480 data collection Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000010835 comparative analysis Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000000593 degrading effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 208000000649 small cell carcinoma Diseases 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0631—Resource planning, allocation, distributing or scheduling for enterprises or organisations
- G06Q10/06312—Adjustment or analysis of established resource schedule, e.g. resource or task levelling, or dynamic rescheduling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0631—Resource planning, allocation, distributing or scheduling for enterprises or organisations
- G06Q10/06313—Resource planning in a project environment
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- Engineering & Computer Science (AREA)
- Strategic Management (AREA)
- Entrepreneurship & Innovation (AREA)
- Economics (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Game Theory and Decision Science (AREA)
- General Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Software Systems (AREA)
- Quality & Reliability (AREA)
- Operations Research (AREA)
- Development Economics (AREA)
- Marketing (AREA)
- Educational Administration (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biodiversity & Conservation Biology (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明针对无人机小基站集群为地面用户提供差异化服务的场景,提出一种基于分层联邦学习的无人机小基站集群RAN切片方法基于分层联邦学习的动态RAN切片框架,以提升切片性能隔离效果、减少协同训练过程的通信代价。首先,考虑到无人机动态部署和数据不足等特点,通过数据增广促进本地模型训练。然后,根据位置和数据分布信息,设计面向无人机集群的分簇策略,支持边缘模型聚合,使得边缘的成员无人机有更多机会参与联邦学习并降低通信代价。最后,探索基于注意力机制的边缘和全局模型聚合方案,增强全局联邦学习模型的泛化能力。仿真结果表明,同典型分布式机器学习方法相比,本发明能够提升切片性能隔离效果,降低无人机协同训练的通信代价。
Description
技术领域
本发明属于计算机通信技术领域,具体是一种基于分层联邦学习的无人机小基站集群RAN切片方法
背景技术
第五代移动通信系统(5G)支持多样化应用场景,促使数以百亿计的物联网设备接入网络[1],对资源提供和服务质量(QoS,Quality of Service)保障提出了更高的要求。尽管地面5G无线接入网(RAN,Radio Access Networks)可以基本满足大多数应用的服务需求,但在缺乏基础设施的情况下或出现节假日聚集活动、举办重要赛事等临时性热点时,地面RAN便显得力不从心。此时,配置有无线收发装置和边缘计算模块的无人机形成的空中小基站(drone-small-cell)[2]可以拓展网络覆盖范围和缓解资源分配压力,满足在突发或临时情况下终端设备的服务需求。由于单一无人机的局限性,未来无人机小基站将以集群方式共同为地面用户提供服务[3],这种方式已成为后5G和6G RAN的重要组成部分。
RAN切片是5G网络和可扩展网络架构中重要的使能技术之一,可以根据客户需求提供定制化服务[4]。RAN切片将共享的物理无线网络分割成多个隔离的逻辑网络,为用户动态、弹性地分配网络资源[5]。在通信网络发展过程中,一个自然的步骤是将RAN切片“延伸”至无人机小基站,使其可以支持多样化的服务。机器学习方法能够对资源需求数据进行更高层次、更抽象的表达,成为解决RAN切片中复杂决策问题的重要手段。在切片资源分配方面,机器学习方法可以根据网络态势变化准确地预测用户的切片资源需求[6],还可以实现多时间尺度资源分配[7]和自适应的资源调度[8],但现有RAN切片方案大多针对地面网络设计。
与地面基站不同,无人机小基站计算和存储能力有限,决定了其难以长时间进行复杂模型的训练。另一方面,由于动态部署特性,无人机小基站很难在有限时间内收集到足够的数据,限制了本地模型的质量提升。近年来,研究人员对无人机辅助的RAN切片进行了探讨,包括根据QoS要求对无人机应用分类[9]、定制针对特定QoS要求的逻辑无人机网络[10]、根据资源的使用次序评估切片的优先级[11]、优化切片的频谱效率[12]等,为地面用户提供差异化的QoS支持。然而,如何针对无人机小基站集群设计有效的RAN切片架构还有待进一步研究。
作为一种典型的分布式协同训练框架,联邦学习(FL,Federated Learning)支持跨域模型聚合。FL框架为提升无人机小基站集群整体模型质量开辟了新途径。直觉上,各无人机小基站在本地模型训练完成后,只需将模型参数上载至中心控制器用于全局模型聚合,便可以显著提升模型质量[13]。事实上,联邦学习与无人机集群的高效融合仍然面临着诸多挑战,主要包括以下三个问题:
(1)FL模型参数需要在无人机和中心控制器之间进行交换,导致了较高的通信代价[14],如何在保证训练效果的同时减少无人机集群的通信代价是需要考虑的关键问题。现有方法主要从减小数据传输(如:采用梯度压缩[15])和客户端调度(如:每轮训练选择部分设备参与[16][17])等方面入手。前者通常会产生一定的梯度损失,导致精度下降。虽然研究人员提出了一些方法(如:自适应阈值梯度压缩算法[18])避免精度下降,但复杂度较高。后者需要训练更多轮次[19],会降低模型收敛速度,很难直接应用于动态部署且资源有限的无人机小基站。
(2)虽然集群中各无人机的部署位置相近,但不同无人机采样的数据仍可能存在一定差异性[20],这会导致训练过程的收敛速度下降[21]和模型聚合时出现权重偏差[22]。尽管数据共享策略[23]和最小化边缘数据的KL散度[24]等方法可降低数据差异性带来的负面影响,但这些方法依赖大量的数据传输和复杂的运算。FL客户端分簇[25]也是可能的解决方案,但现有方法主要考虑互联网中的固定客户端,这与动态部署和资源有限的无人机有本质不同。
(3)无人机小基站通常被按需动态部署,很难在短时间内收集到足够的数据,加之计算存储能力有限,模型质量难以提升。如果无人机本地模型性能不佳,必然影响全局模型的性能。不同无人机小基站之间还存在系统异构性,即计算、存储和通信能力的差异性[26],从而带来模型的差异。若采用传统的联邦平均[27]方法,模型泛化能力会受到削弱。
发明内容
针对上述技术问题,本发明提出基于分层FL的无人机小基站集群RAN切片方法,目的是提升切片性能隔离效果、减少模型协同训练的通信代价。
本发明的一种基于分层联邦学习的无人机小基站集群RAN切片方法,在无人机小基站集群无线接入网RAN场景中,每个无人机小基站上的物理资源依照切片预测模型被虚拟化为多个切片,每个切片支持一类定制化服务;无人机小基站简称为无人机;
切片预测模型是联邦学习FL模型,以下简称模型;采用基于学习的方法进行模型协同训练优化,步骤包括:
1)本地数据增广和模型训练:当到无人机达新的部署位置后,每个无人机利用数据增广策略促进本地模型训练;
2)面向边缘模型聚合的分簇:地面基站根据各无人机提交的数据分布和位置信息对无人机集群进行分簇,并选举簇头;
无人机集群被分为多个簇,簇内成员将本地模型参数上载至簇头;簇头将基站更新后的全局模型参数下发至簇内成员;
3)分层模型聚合:簇头聚合簇内成员的模型参数后,形成边缘聚合模型,并将模型参数进一步上传至地面基站;地面基站聚合边缘聚合模型参数,建立全局模型;
簇头将更新后的全局模型参数分发给簇内成员;簇内成员无人机根据接收到的全局模型参数更新本地模型。
本发明主要贡献包括:
第一、针对问题(1),本发明设计基于分层联邦学习的协同训练框架。除了自主地进行本地训练,无人机可以利用中继同地面基站进行参数的交换,从而减少通信代价,优化通信效率。
第二、针对问题(2),本发明设计一种基于地理位置和数据分布的无人机集群分簇策略。充当簇头的无人机负责接收簇内成员的模型参数,执行边缘模型聚合。边缘聚合方案也使得距离地面基站较远的无人机有更多机会参与局部模型的协同优化。
第三、针对问题(3),本发明考虑到动态部署和数据不足等特点,通过数据增广促进本地训练,提升局部模型性能。针对边缘和全局模型聚合,探索基于注意力机制的模型聚合方案,与分层FL框架协同工作,提升全局模型的泛化能力,使得每个无人机小基站都能获得稳定的性能提升。
仿真结果表明,本发明所提方案能够较好地适应网络的动态性,在切片性能隔离、通信代价等方面优于现有典型的分布式机器学习方法。
附图说明
图1是无人机小基站集群RAN结构。
图2是面向服务的资源分配示意图。
图3是分层协同训练框架示意图。
图4是基于注意力机制的分层模型聚合示意图。
图5是资源块数量对性能隔离的影响示意图。
图6是性能隔离的时间占比示意图。
图7是切片的资源需求预测误差示意图。
图8(a)~图8(f)是3个切片的预测误差随通信轮次的变化和误差的概率密度函示意图,其中:
图8(a)切片1的预测误差随通信轮次的变化;
图8(b)切片2的预测误差随通信轮次的变化;
图8(c)切片3的预测误差随通信轮次的变化;
图8(d)切片1预测误差的概率密度函数;
图8(e)切片2预测误差的概率密度函数;
图8(f)切片3预测误差的概率密度函数。
图9是簇的规模对预测误差的影响示意图。
具体实施方式
下面结合附图与具体实施方式对本发明进行说明。
1发明概述
本发明针对无人机小基站集群为地面用户提供差异化服务的场景,提出了基于分层联邦学习的动态RAN切片框架,以提升切片性能隔离效果、减少协同训练过程的通信代价。本发明考虑到无人机动态部署和数据不足等特点,通过数据增广促进本地模型训练。本发明根据位置和数据分布信息,设计面向无人机集群的分簇策略,支持边缘模型聚合,使得边缘的成员无人机有更多机会参与联邦学习并降低通信代价。本发明探索基于注意力机制的边缘和全局模型聚合方案,增强全局联邦学习模型的泛化能力。仿真结果表明,同典型分布式机器学习方法相比,本发明所提方案能够提升切片性能隔离效果,降低无人机协同训练的通信代价。
2系统模型与问题描述
2.1无人机小基站集群RAN结构
如图1所示,考虑一个无人机小基站集群RAN场景,且该场景具有可复制性。其中无人机可以按照预设的轨迹在一个广阔的区域内进行动态部署,为地面设备提供差异化的服务。地面基站连接MEC服务器,可以为与之相邻的无人机集群提供服务支持。当无人机进入地面基站的覆盖范围时,它可通过握手协议[28]与基站建立连接;若无人机距离基站较远或无法直接同基站交互,它可通过中继的方式将信息传递给地面基站,从而有更多机会参与本地协同优化。由于移动性,当无人机需要去其它位置执行任务时,它通过发布通告完成连接释放。地面基站周期性地刷新无人机连接列表,删除失效的关联无人机信息。
在上述RAN结构下,每个无人机小基站上的物理资源被虚拟化为多个切片。每个切片支持一类定制化服务。无人机采用基于学习的方法进行模型训练,决定如何动态地为切片分配资源,从而为其覆盖范围内的终端设备提供差异化的QoS保障。由于无人机小基站能力有限,当关联的终端数量超过所能承载的上限时,就不再允许连接新的设备。
无人机小基站集群在地面基站的帮助下进行分簇,进行分层模型协同优化,增强资源切片的性能。例如,若图1中无人机3被选为簇头,执行边缘聚合,其成员无人机4和5的本地模型可以通过该簇头进行边缘FL模型聚合;簇头无人机3进一步将边缘聚合模型上载至地面基站,用于全局FL模型聚合。簇头将更新后的全局模型参数分发给簇内成员无人机4和5。成员无人机4和5根据接收到的全局模型参数更新本地模型。为了便于阅读,文中使用的主要符号和变量归纳为表1。
表1 系统参数
2.2面向服务的动态资源切片框架
资源切片需要根据各类服务的资源需求波动进行自适应调整。本节考虑面向服务的资源需求感知资源切片方案,即无人机上的控制器根据服务的资源需求量动态地为切片分配资源。
以图2为例说明面向服务的资源分配。假设时间被划分为多个切片窗口,每个切片窗口被划分为多个离散时隙。代表切片窗口a包含的时隙集合,该集合中元素的个数被表示为Ta。无人机在当前切片窗口a运行过程中预测下一窗口a+1内各切片所需的资源块数量。在窗口a+1开始时,根据资源需求预测值重新分配每个切片的资源,即图2中的在窗口a以内,每个切片分配的资源块数量维持不变。在切片窗口内的各个时隙t开始时,无人机上的本地控制器为接收的任务分配资源块。为应对突发的瞬时资源需求变化,每个无人机预留一部分可被各个切片共享的资源块。在资源不足的情况下,切片可以临时占用这些共享资源块。
2.3问题建模与评估方法
性能隔离是资源切片共存的重要前提,即保证一个切片的过载不会影响到其它切片。每个切片窗口开始时的资源分配策略在很大程度上决定着下一窗口内各切片的性能隔离效果。
假设无人机k的资源块数量为Bk,这些资源块被编排成Mk个切片,且切片集合记为在切片窗口a,假设无人机k上切片m在窗口a+1的资源需求预测值为而在时隙的实际资源分配量为则有切片资源分配需要考虑以下2种情况:
假设无人机k预留的共享资源块被表示为B′k。对于上述情况(1),若,即所有共享资源块都不足以应对突发的资源需求,则切片性能隔离将无法得到保障。令二元变量代表在时隙t无人机k上的各切片可以维持性能隔离,否则为0,即
由式(1)可知,在窗口a+1内,切片性能隔离时长占比越高,意味着资源分配方案越有效。于是,相应的切片性能隔离优化问题可以描述为
在窗口a运行过程中,无人机k上的切片m在下一窗口a+1资源块数量预测值和真实资源需求之间的差距越小,为1的概率越大。于是,通过最小化预测值和真实值之间的均方误差(MSE,Mean Square Error),问题可被转化为如下优化问题
问题的实质是在资源总量约束下如何通过优化模型训练来缩小预测误差,以尽可能提升切片性能隔离的时间占比。由于无人机具有动态部署、样本数量、计算和存储能力受限等特性,单纯依靠本地模型训练很难使无人机获得令人满意的模型效果;同时,无人机本身也很难运行复杂的算法。对此,后续将探讨如何设计分层协作的模型训练方法来增强无人机集群的资源切片性能。
3面向无人机集群的分层协同训练方法
3.1协同训练框架
本节设计基于边缘聚合的分层联邦学习框架,目的是在提升无人机集群模型质量的同时降低协同训练的通信代价。
如图3所示,协同训练框架的主要步骤包括:
(1)本地数据增广和模型训练:当到达新的部署位置后,每个无人机利用数据增广策略促进本地模型训练,具体细节见3.2节。
(2)面向边缘模型聚合的分簇:基站根据各无人机提交的数据分布和位置信息对无人机集群进行分簇并选举簇头。例如,图3中无人机集群被分为2个簇。簇内成员将本地模型参数上载至簇头;簇头将基站更新后的全局模型参数下发至簇内成员。具体细节见3.3节。
(3)分层模型聚合:簇头聚合簇内成员的模型参数后,形成边缘聚合模型,并将模型参数进一步上传至基站;基站聚合边缘聚合模型参数,建立全局共享模型。边缘和全局模型聚合均采用基于注意力机制的方案。具体细节见3.4节。
3.2本地数据增广和模型训练
无人机k预测切片m在窗口a+1所需的资源块数量为
当无人机刚进入并悬停在目标区域时,在短时间内往往难以获得足够多的数据来提升模型质量。对此,利用本地数据增广方法促进模型训练。具体地,采用窗口切片方法[29]进行数据增广,即通过使用一个滑动窗口在序列上不断滑动采样,生成多个长度更短的子序列。对无人机k上切片m的资源需求数据而言,若子序列长度设置为s,则可以产生T-s+1个时间序列,即为
每个子序列代表原始数据片段,可表示为
最后,采用梯度下降法更新无人机k的本地模型参数
3.3面向边缘模型聚合的分簇
本节设计面向边缘模型聚合的分簇策略,目的是使得距离地面基站较远的无人机有机会参与本地模型聚合,减少无人机模型上载的通信代价,为边缘和全局模型聚合提供支持。
基站依据无人机数据分布和位置情况对无人机集群进行分簇。为了减少通信代价,无人机k无需将原始数据发送给基站,只需发送自身的数据分布和位置信息。假设将无人机的位置信息和数据分布情况Θ={θ1,...,θK}融入k-means[30]中,以此决定簇的划分。如算法1所示,首先根据无人机集群位置信息进行分簇;然后使用基于获得的质心为初始质心,再根据Θ进行分簇。这样可以将地理位置相近且数据分布相似的无人机分到一个簇内。
算法1同时考虑无人机位置和数据分布的目的是既优化边缘聚合效果,又减少无人机模型上载的通信能耗,特别是距离基站较远的无人机。若单纯依据数据分布进行分簇,容易出现部分成员无人机到簇头的距离大于到基站距离的情况。此时,协同训练的总体通信代价甚至会高于不分簇(即:所有无人机直接与基站交互)时的通信代价。
在每个簇内,基站依据无人机剩余能量、无人机与基站间的距离选举簇头。假设簇c中无人机i与基站之间距离为di,无人机i的剩余能量为ξi,于是使用归一化公式(11)为无人机i打分
其中,ξ(max)代表无人机能量的上限,d(max)代表无人机与基站之间距离的上限。簇c中分数最高的无人机被基站选为簇头,该无人机索引为
3.4基于注意力机制的分层模型聚合
簇头负责接收簇内成员的模型参数,并进行边缘模型的FL聚合。之后,簇头将边缘聚合模型的参数上传至基站,用于建立全局模型。值得注意的是,各无人机可能存在数据量和模型质量的差异,各簇的边缘聚合模型对构建全局模型的贡献也不尽相同。若采用传统的联邦平均算法,全局模型的泛化性能会受到削弱。针对此问题,本节提出基于注意力机制[31]的分层模型聚合框架,用于簇内FL聚合和簇间模型FL聚合。
其中,V,λ和φ都代表可学习参数矩阵。通过相关性计算,可以得到与和O(a+1)对应的两组分值[s1,s2,...,sI]和[s′1,s′2,...,s′C]。使用Softmax函数对分值进行归一化处理,得到簇c内的无人机本地模型和C个簇的边缘聚合模型参数的注意力分布γ=[γ1,γ2,...,γI]和β=[β1,β2,...,βC],其中
其中,σ(·,·)表示两组参数之间的欧式距离。对式(15)的目标函数求导,得到梯度
最后,执行梯度下降算法更新边缘聚合模型的参数。于是,全局模型参数的更新公式可表示为
其中,ε代表和w(a+1)每次迭代中在相反梯度方向移动的步长。之后,基站将全局模型参数下发给簇头,再由簇头分发给簇内成员,用于本地模型更新。分层模型聚合实现细节见算法2,其中注意力分布的计算是获得参数之间加权距离的关键,具体过程对应3-4行。
4仿真实验和结果分析
本节设计了一系列仿真实验评估所提方法的性能。为了便于对比分析,文中提出的方法被命名为HierFed+DG+Att,其中:HierFed代表第3节提出的分层联邦架构,DG代表使用了3.3节的分簇策略,Att代表使用了3.4节基于注意力机制的模型聚合方案。为了便于评估DG策略的有效性,本文给出一种简化版的方案,命名为HierFed+Att。同时,选取了如下2种基准方法评估性能:
1)FedAvg[32]:采用无人机本地模型参数的平均值进行模型聚合;
2)LSTM[33]:模型被部署在每个无人机上,以分布式方式进训练。
考虑到公平性,所有方法均采用相同的神经网络架构。各无人机采用LSTM模型,其中包含2个LSTM层(每层有64个隐藏神经元)和1个将特征映射到预测的线性层。数据集采用来自意大利特伦蒂托省的通信数据,其中包括数据服务、语音通话等业务[34]。本文使用不同类型的业务数据模拟切片的资源需求波动。实验参数设置如表2所示。
表2 实验参数设置
4.1切片性能隔离的时间占比
本组实验考察无人机物理资源块总数变化对切片性能隔离效果的影响。所有10架无人机的物理资源块被设置为相同的数量。图5给出了无人机资源块总数的变化对切片性能隔离效果的影响。在资源块数量为50时,各方法的切片性能隔离性能开始快速提升。其中,HierFed+DG+Att方法下的切片性能隔离的时间占比均高于另外2种基准方法。在资源块数量为150时,所提方法的性能隔离时间占比的优势更加明显。
通常资源块数量的增加有助于提高切片性能隔离的时间占比,但实际效果在很大程度上由资源分配策略决定。在很多情况下,一旦某一切片的资源分配与实际资源需求不匹配,整体性能隔离效果就会被破坏。
接下来,观察所提方法的收敛性和最优性。图6给出了资源块数量为250时切片性能隔离时间占比随切片窗口运行的变化。在第3个切片窗口开始时,切片性能隔离时间占比开始快速上升,直至趋于稳定。这是因为在初期无人机没有足够多的数据来提升模型质量。随无人机采集数据的增多,模型性能也随之提升。在收敛速度上,本文所提方法和FedAvg都快于LSTM。完全分布式的LSTM对资源需求的预测准确性弱于其它2种方法,导致资源分配策略不合理,降低了性能隔离效果。在迭代收敛后,相较于FedAvg和LSTM,Fed+DG+Att在切片性能隔离的时间占比上分别有8.4%和16.5%的性能提升,这得益于对切片资源需求的准确预测。
4.2资源需求预测精度分析
本组实验采用MSE衡量资源需求预测值与真实值之间的误差。引入HierFed+Att作为基准方法是为了验证DG的潜在收益。图7展示了各切片所需资源的总体预测误差。HierFed+DG+Att通过模型聚合方式共享知识,相比LSTM鲁棒性更强,在3个切片上分别实现了15.67%、32.64%、43.00%的性能增益。提出的方法相比FedAvg主要有两方面优势:1)DG策略缓解因数据异构导致的模型精度下降;2)基于注意力机制的模型聚合方案考虑了不同模型的贡献程度,使得全局模型具有更强的泛化能力。该方法在3个切片上分别获得了13.96%、32.98%、14.64%的性能增益。与HierFed+Att相比,HierFed+DG+Att在边缘聚合时考虑了数据分布的相似性,增强了边缘FL聚合效果,在3个切片上分别实现13.34%、26.43%、12.58%的性能增益。
图8(a)-(c)给出了切片所需资源块的预测误差随通信轮次变化的情况。总体而言,随着通信轮次的增加,各切片的预测误差呈现出下降趋势,并收敛在一个区间内。HierFed+DG+Att在各切片上的预测误差总是低于HierFed+Att,这说明引入DG能够提升模型预测性能。此外,与基准方法相比,本文所提方法使用更少的通信轮次便可达到同样的预测精度。该结果表明本文所提方法可以在不降低性能的同时减少无人机能耗。
为了便于观察模型预测性能的差异,本文给出预测误差的概率密度函数(PDF,Probability Density Function),如图8(d)-(f)所示。对于切片1,本文所提方法有68%的预测误差小于0.3,而HierFed+Att只有20%达到同样的效果;对于切片2,2种方法预测误差小于0.2的概率约为99%和94%,比较接近;对于切片3,本文所提方法有87%的预测误差小于0.2,而HierFed+Att约为52%。
4.3簇的数目对性能的影响
本组实验考察簇的数目C的变化对3个切片所需资源需求的预测性能的影响。C=1意味着不分簇。由图9可见,C=1时预测误差最高,而C=4时预测误差最低。不分簇时,所有数据混合在一起产生全局模型,增加了数据的异构性。因此,不分簇时的预测误差总是高于分簇时。
簇的数目也会影响协作训练时的通信能耗,包括发送能耗和接收能耗。本组实验采用文献[35]中的模型量化通信能耗。表3给出了不同簇数目下的通信能耗。虽然HierFed+DG+Att的通信能耗略高于HierFed+Att,但预测效果的提升更为明显。两种分层联邦方法的通信损耗均低于FedAvg。在HierFed结构下,距离基站较远的无人机可以通过簇头上载自身参数信息,而FedAvg方法下所有无人机只能直接和基站通信。该组结果证实了本发明所提方法在减少无人机集群整体通信代价方面的有效性。
表3 簇数目对通信能耗的影响
注:FedAvg方案下通信能耗为0.76KJ
5结束语
面向无人机集群RAN切片,本发明提出了一种基于分层联邦学习的协同训练方法。首先,采用数据增广策略促进无人机本地模型训练。然后,根据无人机采样数据的分布情况和地理位置对无人机群进行分簇,缓解局部数据差异性对边缘FL模型聚合的负面影响。簇头执行边缘FL模型聚合,使得距离基站较远的无人机有更多机会参与联邦学习并降低通信代价。最后,为了构建边缘聚合模型和全局模型,设计了基于注意力机制的FL模型聚合方案,提升了全局模型的泛化能力。仿真结果表明,与2种基准方法相比,本发明所提方法能提升切片的性能隔离效果,且具有更低的通信代价。
参考文献:
[1]Xia T,Wang M M,Jiang C,et al.Practical machine-type communi-cationfor energy Internet of Things:An introduction[J].IEEE CommunicationsStandards Magazine,2019,3(1):48-59.
[2]Shen H,Ye Q,Zhuang W,et al.Drone-small-cell-assisted resourceslicing for 5G uplink radio access networks[J].IEEE Transactions on VehicularTechnology,2021,70(7):7071-7086.
[3]陈新颖,盛敏,李博.面向6G的无人机通信综述[J].电子与信息学报,2022,44(03):781-789.
[4]Zhang S.An overview of network slicing for 5G[J].IEEE WirelessCommunications,2019,26(3):111-117.
[5]Shen x,Gao J,wu w,et al.AI-assisted network-slicing based next-generation wireless networks[J].IEEE Open Journal of Vehicular Technology,2020,1:45-66.
[6]Gutterman C,Grinshpun E,Sharma S,et al.RAN resource usageprediction for a 5G slice broker[C]//Proceedings of the twentieth ACMinternational symposium on mobile ad hoc networking and computing.2019:231-240.
[7]亓伟敬,宋清洋,郭磊.面向软件定义多模态车联网的双时间尺度RAN切片资源分配[J].通信学报,2022,43(04):60-70.
[8]Nassar A,Yilmaz Y.Deep reinforcement learning for adaptive networkslicing in 5G for intelligent vehicular systems and smart cities[J].IEEEInternet of Things Journal,2021,9(1):222-235.
[9]Yuan Z,Muntean G M.Airslice:A network slicing framework for uavcommunications[J].IEEE Communications Magazine,2020,58(11):62-68.
[10]Yang P,Xi x,Guo K,et al.Proactive UAV network slicing for URLLCand mobile broadband service multiplexing[J].IEEE Joumal on Selected Areas inCommunications,2021,39(10):3225-3244.
[11]Ampririt P,Qafzezi E,Bylykbashi K,et al.A Fuzzy-Based Scheme forSlice Priority Assessment in 5G Wireless Networks[C]//InternationalConference on Advanced Information Networking and Applications.Springer,Cham,2022:651-661.
[12]Hossain M A,Ansari N.Network slicing for NOMA-enabled edgecomputing[J].IEEE Transactions on Cloud Computing,2021.
[13]Yang H,Zhao J,Xiong Z,et al.Privacy-preserving federated learningfor UAV-enabled networks:Learning-based joint scheduling and re-sourcemanagement[J].IEEE Journal on Selected Areas in Commu-nications,2021,39(10):3144-3159.
[14]Lian Z,Wang w,Su C.COFEL:communication-efficient and optimizedfederated learning with local differential privacy[C]//ICC 2021-IEEEInternational Conference on Communications.IEEE,2021:1-6.
[15]Lu Y,Liu Z,Huang Y.Parameters Compressed Mechanism in FederatedLearning for Edge Computing[C]//2021 8th IEEE Interna-tional Conference onCyber Security and Cloud Computmg(CSCloud)/2021 7th IEEE InternationalConference on Edge Com-puting and Scalable Cloud(EdgeCom).IEEE,2021:161-166.
[16]Yang H H,Liu Z,Quek T Q S,et al.Scheduling policies for federatedlearning in wireless networks[J].IEEE transactions on communications,2019,68(1):317-333.
[17]Lu Y,Huang X,Zhang K,et al.Blockchain empowered asynchronousfederated learning for secure data sharing in internet of vehicles[J].IEEETransactions on Vehicular Technology,2020,69(4):4298-4311.
[18]唐伦,汪智平,蒲昊,等.基于自适应梯度压缩的高效联邦学习通信机制研究[J].电子与信息学报,2022,44:1-8.
[19]Luo S,Chen X,Wu Q,et al.HFEL:Joint edge association and resourceallocation for cost-efficiem hierarchical federated edge learning[J].IEEETransactions on Wireless Communications,2020,19(10):6535-6548.
[20]陶梅霞,王栋,孙瑞,张乃夫.联邦学习中基于时分多址接入的用户调度策略[J].通信学报,2021,42(06):16-29.
[21]Xiao J,Du C,Duan Z,et al.A Novel Server-side Aggregation Strategyfor Federated Learning in Non-IID situations[C]//2021 20tb Interna-tionalSymposium on Parallel and Distributed Computing(ISPDC).IEEE,2021:17-24.
[22]Yeganeh Y,Farshad A,Navab N,et al.Inverse distance aggregationfor federated learning with non-iid data[M]//Domain Adaptation andRepresentation Transfer,and Distributed and Collaborative Learning.Springer,Cham,2020:150-159.
[23]Zhao Y,Li M,Lai L,et al.Federated learning with non-iid data[J].arXiv preprint arXiv:1806.00582,2018.
[24]Deng Y,Lyu F,Ren J,et al.SHARE:Shaping data distribution at edgefor commiunication-efricient hierarchical federated learning[C]//2021 IEEE41st International Conference on Distributed Computing Sys-tems(ICDCS).IEEE,2021:24-34.
[25]Briggs C,Fan Z,Andras P.Federated learning with hierarchicalclustering of local updates to improve training on non-IID da-ta[C]//2020International Joint Confefence on Neural Networks(IJCNN).IEEE,2020:1-9.
[26]Li T,Sahu A K,Zaheer M,et al.Federated optimization in hetero-geneous networks[J].Proceedings of Machine Learning and Systems,2020,2:429-450.
[27]Nilsson A,Smith S,ulm G,et al.A performance evaluation offederated learning algorithms[C]//Proceedings of the second workshop ondistributed infrastructures for deep learning.2018:1-8.
[28]Song Q,Zeng Y,Xu J,et al.A survey of prototype and experiment forUAV communications[J].Science China Information Sciences,2021,64(4):1-21.
[29]Wen Q,Sun L,Yang F,et al. Time series data augmentation for deeplearning:A survey[J].arXiv preprint arXiv:2002.12478,2020.
[30]Vouros A,Langdell S,Croucher M,et al.An empirical comparisonbetween stochastic and deterministic centroid initialisation for K-meansvariations[J].Machine Learning,2021,110(8):1975-2003.
[31]Ji S,Pan S,Long G,et al.Learning private neural language modelingwith attentive aggregation[C]//2019 International joint conference on neuralnetworks(IJCNN).IEEE,2019:1-8.
[32]McMahan B,Moore E,Ramage D,et al.Communication-efficient learningof deep networks from decenttalized data[C]//Artificial intel-ligence andstatistics.PMLR,2017:1273-1282.
[33]Yu Y,Si X,Hu C,et al.Areview of recurrent neural networks:LSTMcells and network architectures[J].Neural computatioin,2019,31(7):1235-1270.
[34]Barlacchi G,De Nadai M,Larcher R,et al.Amulti-source dataset ofurban life in the city of Milan and the Province of Trentino[J]..Sci-entificdata,2015,2(1):1-15.
[35]Thammawichai M,Baliyarasimhuni S P,Kerrigan E C,et al.Opti-mizingcommunication and computation for multi-UAV information gatheringapplications[J].IEEE Transactions on Aerospace and Elec-tronic Systems,2017,54(2):601-615.
Claims (6)
1.一种基于分层联邦学习的无人机小基站集群RAN切片方法,其特征是,在无人机小基站集群无线接入网RAN场景中,每个无人机小基站上的物理资源依照切片预测模型被虚拟化为多个切片,每个切片支持一类定制化服务;无人机小基站简称为无人机;
切片预测模型是联邦学习FL模型,以下简称模型;采用基于学习的方法进行模型协同训练优化,步骤包括:
1)本地数据增广和模型训练:当到无人机达新的部署位置后,每个无人机利用数据增广策略促进本地模型训练;
2)面向边缘模型聚合的分簇:地面基站根据各无人机提交的数据分布和位置信息对无人机集群进行分簇,并选举簇头;
无人机集群被分为多个簇,簇内成员将本地模型参数上载至簇头;簇头将基站更新后的全局模型参数下发至簇内成员;
3)分层模型聚合:簇头聚合簇内成员的模型参数后,形成边缘聚合模型,并将模型参数进一步上传至地面基站;地面基站聚合边缘聚合模型参数,建立全局模型;
簇头将更新后的全局模型参数分发给簇内成员;簇内成员无人机根据接收到的全局模型参数更新本地模型。
2.根据权利要求1所述的基于分层联邦学习的无人机小基站集群RAN切片方法,其特征是无人机上的控制器根据服务的资源需求量动态地为切片分配资源,方法为:
在窗口a以内,每个切片分配的资源块数量维持不变,在切片窗口内的各个时隙t开始时,无人机上的控制器为接收的任务分配资源块;
每个无人机预留一部分可被各个切片共享的资源块;在资源不足的情况下,切片临时占用这些共享资源块;
切片资源分配有2种情形:
由式(1),在窗口a+1内,切片性能隔离时长占比越高,则资源分配方案越有效;于是,相应的切片性能隔离优化问题描述为
在窗口a运行过程中,无人机k上的切片m在下一窗口a+1资源块数量预测值和真实资源需求之间的差距越小,为1的概率越大;于是,通过最小化预测值和真实值之间的均方误差(MSE,Mean Square Error),问题被转化为如下优化问题
式2、3中,T是一个切片窗口内离散时隙的数量,M是切片的数量。
3.根据权利要求2所述的基于分层联邦学习的无人机小基站集群RAN切片方法,其特征是步骤1)中,在切片窗口a,无人机k利用全局模型参数w(a)初始化自身模型,并根据所采集的数据进行本地训练;
无人机k预测切片m在窗口a+1所需的资源块数量为
利用本地数据增广方法促进模型训练,方法为:
采用窗口切片方法进行数据增广,即通过使用一个滑动窗口在序列上不断滑动采样,生成多个长度更短的子序列;对无人机k上切片m的资源需求数据而言,若子序列长度设置为s,则产生T-s+1个时间序列,即为
每个子序列代表原始数据片段,表示为
式(3)重新表述为
最后,采用梯度下降法更新无人机k的本地模型参数
4.根据权利要求3所述的基于分层联邦学习的无人机小基站集群RAN切片方法,其特征是步骤2)中,地面基站依据无人机数据分布和位置情况对无人机集群进行分簇:
无人机k仅发送自身的数据分布和位置信息;
在每个簇内,数据分布情况基站依据无人机剩余能量、无人机与基站间的距离选举簇头;假设簇c中无人机i与基站之间距离为di,无人机i的剩余能量为ξi,于是使用归一化公式(11)为无人机i打分
其中,ξ(max)代表无人机能量的上限,d(max)代表无人机与基站之间距离的上限;
簇c中分数最高的无人机被基站选为簇头,该无人机索引为
5.根据权利要求4所述的基于分层联邦学习的无人机小基站集群RAN切片方法,其特征是步骤3)中,采用基于注意力机制的分层模型聚合框架,用于簇内模型聚合和簇间模型聚合;
其中,V,λ和φ都代表可学习参数矩阵;
使用Softmax函数对分值进行归一化处理,得到簇c内的无人机本地模型和C个簇的边缘聚合模型参数的注意力分布γ=[γ1,γ2,...,γ1]和β=[β1,β2,...,βC],其中
其中,σ(·,·)表示两组参数之间的欧式距离;对式(15)的目标函数求导,得到梯度
最后,执行梯度下降算法更新边缘聚合模型的参数;
于是,全局模型参数的更新公式表示为
之后,地面基站将全局模型参数下发给簇头,再由簇头分发给簇内成员,用于无人机的本地模型更新。
6.根据权利要求1所述的基于分层联邦学习的无人机小基站集群RAN切片方法,其特征是无人机关联的终端数量超过所能承载的上限时,就不再允许连接新的设备。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210830056.4A CN114997737A (zh) | 2022-07-14 | 2022-07-14 | 基于分层联邦学习的无人机小基站集群ran切片方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210830056.4A CN114997737A (zh) | 2022-07-14 | 2022-07-14 | 基于分层联邦学习的无人机小基站集群ran切片方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114997737A true CN114997737A (zh) | 2022-09-02 |
Family
ID=83022791
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210830056.4A Pending CN114997737A (zh) | 2022-07-14 | 2022-07-14 | 基于分层联邦学习的无人机小基站集群ran切片方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114997737A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115329985A (zh) * | 2022-09-07 | 2022-11-11 | 北京邮电大学 | 无人集群智能模型训练方法、装置和电子设备 |
CN116208968A (zh) * | 2022-12-30 | 2023-06-02 | 北京信息科技大学 | 基于联邦学习的轨迹规划方法及装置 |
CN116341691A (zh) * | 2023-05-12 | 2023-06-27 | 南京邮电大学 | 一种去中心化联邦学习系统、方法、存储介质及计算设备 |
CN117851838A (zh) * | 2024-03-07 | 2024-04-09 | 广州大学 | 一种协作学习过程中异构数据源的鉴定方法 |
-
2022
- 2022-07-14 CN CN202210830056.4A patent/CN114997737A/zh active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115329985A (zh) * | 2022-09-07 | 2022-11-11 | 北京邮电大学 | 无人集群智能模型训练方法、装置和电子设备 |
CN115329985B (zh) * | 2022-09-07 | 2023-10-27 | 北京邮电大学 | 无人集群智能模型训练方法、装置和电子设备 |
CN116208968A (zh) * | 2022-12-30 | 2023-06-02 | 北京信息科技大学 | 基于联邦学习的轨迹规划方法及装置 |
CN116208968B (zh) * | 2022-12-30 | 2024-04-05 | 北京信息科技大学 | 基于联邦学习的轨迹规划方法及装置 |
CN116341691A (zh) * | 2023-05-12 | 2023-06-27 | 南京邮电大学 | 一种去中心化联邦学习系统、方法、存储介质及计算设备 |
CN116341691B (zh) * | 2023-05-12 | 2023-09-22 | 南京邮电大学 | 一种去中心化联邦学习系统、方法、存储介质及计算设备 |
CN117851838A (zh) * | 2024-03-07 | 2024-04-09 | 广州大学 | 一种协作学习过程中异构数据源的鉴定方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114997737A (zh) | 基于分层联邦学习的无人机小基站集群ran切片方法 | |
Wang et al. | Machine learning for 5G and beyond: From model-based to data-driven mobile wireless networks | |
Ye et al. | Joint RAN slicing and computation offloading for autonomous vehicular networks: A learning-assisted hierarchical approach | |
Jiang | Cellular traffic prediction with machine learning: A survey | |
Tan et al. | An adaptive collection scheme-based matrix completion for data gathering in energy-harvesting wireless sensor networks | |
Chen et al. | Federated learning over wireless IoT networks with optimized communication and resources | |
CN111277437B (zh) | 一种智能电网的网络切片资源分配方法 | |
Ke et al. | Joint optimization of data offloading and resource allocation with renewable energy aware for IoT devices: A deep reinforcement learning approach | |
Lin et al. | Data-driven clustering for multimedia communication in Internet of vehicles | |
Khan et al. | On the application of agglomerative hierarchical clustering for cache-assisted D2D networks | |
CN115802389B (zh) | 一种利用数字孪生辅助模型训练的联邦学习方法 | |
Nguyen et al. | Spatially-distributed federated learning of convolutional recurrent neural networks for air pollution prediction | |
CN111083724B (zh) | 一种雾计算网络下基于ocwg-topsis的用户关联方法 | |
Zhou et al. | Multi-server federated edge learning for low power consumption wireless resource allocation based on user QoE | |
Wu et al. | Data transmission scheme based on node model training and time division multiple access with IoT in opportunistic social networks | |
CN113472420B (zh) | 一种基于区域用户兴趣感知的卫星网络缓存放置方法 | |
Liu et al. | FedSSC: Joint client selection and resource management for communication-efficient federated vehicular networks | |
Ren et al. | Energy-efficient sensory data gathering in IoT networks with mobile edge computing | |
Zhang et al. | An Efficient Caching and Offloading Resource Allocation Strategy in Vehicular Social Networks | |
Chen et al. | Traffic prediction-assisted federated deep reinforcement learning for service migration in digital twins-enabled MEC networks | |
Wang et al. | Autonomous on-demand deployment for UAV assisted wireless networks | |
Zhu et al. | Federated deep reinforcement learning-based spectrum access algorithm with warranty contract in intelligent transportation systems | |
Wang et al. | UAV Swarm-Assisted Two-Tier Hierarchical Federated Learning | |
Wang et al. | Learning from images: Proactive caching with parallel convolutional neural networks | |
Mohan et al. | A survey on long term evolution scheduling in data mining |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |