CN115460700A - 基于联邦学习的网络资源配置方法、装置、电子设备及介质 - Google Patents
基于联邦学习的网络资源配置方法、装置、电子设备及介质 Download PDFInfo
- Publication number
- CN115460700A CN115460700A CN202210923838.2A CN202210923838A CN115460700A CN 115460700 A CN115460700 A CN 115460700A CN 202210923838 A CN202210923838 A CN 202210923838A CN 115460700 A CN115460700 A CN 115460700A
- Authority
- CN
- China
- Prior art keywords
- base station
- resource
- network
- prediction model
- slice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/08—Configuration management of networks or network elements
- H04L41/0893—Assignment of logical groups to network elements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/14—Network analysis or design
- H04L41/147—Network analysis or design for predicting network behaviour
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L47/00—Traffic control in data switching networks
- H04L47/70—Admission control; Resource allocation
Abstract
本申请公开了一种基于联邦学习的网络资源配置方法、装置、电子设备及介质。通过应用本申请的技术方案,可以由宏基站接收在联邦学习架构下的多个微基站中的模型参数并进行汇总从而得到全局模型参数后回传给微基站。进而由微基站基于该全局模型参数进行预测模型的训练从而得到训练完毕的目标预测模型。本申请一方面可以达到一种利用联邦学习框架,在保证用户隐私和数据不共享的前提下实现切片间基站的负载预测模型的多方协同训练,可实现切片级的基站分布式资源预测的目的。同时也避免了相关技术中存在的,网络切片中基站的资源预测性能不足所导致的容易影响用户业务进展的问题。
Description
技术领域
本申请中涉及数据处理技术,尤其是一种基于联邦学习的网络资源配置方法、装置、电子设备及介质。
背景技术
网络切片(Network Slicing,NS)是5G/B5G通信系统赋能垂直行业的核心技术之一,指将统一的物理网络基础设施资源虚拟化,抽象为多个端到端(End to End,E2E)的逻辑网络。
相关技术中,为了实现网络切片自动化管理和编排的愿景,运行中的网络切片需要有实时感知预测并主动响应用户需求的能力。在无线网络中,网络负载往往具有时空相关性,可以被提前预测感知。其中,现有的负载预测技术通常通过集中控制器实现。例如该控制器收集全局用户数据和网络状态信息,集中训练全局ML模型并进行预测分析,实现切片未来负载状态的实时感知。
然而,对于网络切片场景下,一个切片网络可能部署在多个基站上,其历史负载数据在地理上是分散的。且网络切片之间相互隔离,用户数据隐私敏感,难以建立集中的机器学习模型来分析、优化网络切片的资源预测性能。从而导致出现影响业务进度的问题。
发明内容
本申请实施例提供一种基于联邦学习的网络资源配置方法、装置、电子设备及介质。用以解决相关技术中存在的,网络切片中基站的资源预测性能不足所导致的容易影响用户业务进展的问题。
其中,根据本申请实施例的一个方面,提供的一种基于联邦学习的网络资源配置方法,应用于微基站,包括:
利用本地的目标资源预测模型,确定在未来时间段所耗费的待匹配流量信息,所述目标资源预测模型为所述微基站在联邦学习框架下进行协同训练得到的模型;
若确定与自身相关联的网络切片所提供的网络资源不能够覆盖所述待匹配流量信息,向与自身相关联的宏基站发送资源获取请求,所述资源获取请求中携带有所述待匹配流量信息;
接收所述宏基站分配的切片资源配置信令,并基于所述切片资源配置信令完成对所述网络切片的资源配置。
可选地,在基于本申请上述方法的另一个实施例中,在所述利用本地的目标资源预测模型,确定在未来时间段所耗费的待匹配流量信息之前,还包括:
获取所述宏基站下发的初始资源预测模型;
利用本地数据对所述初始资源预测模型进行训练,得到初始模型参数;
将所述初始模型参数发送给所述宏基站,以使所述宏基站将接收到的各个初始模型参数进行联邦聚合,得到全局模型参数;
接收所述宏基站发送的全局模型参数,并基于所述全局模型参数,得到所述目标资源预测模型。
可选地,在基于本申请上述方法的另一个实施例中,所述基于所述全局模型参数,得到所述目标资源预测模型,包括:
利用所述全局模型参数,对所述初始资源预测模型进行预设模型精度检验;
若确定所述初始资源预测模型满足所述预设模型精度,将所述初始资源预测模型作为所述目标资源预测模型;或,
若确定所述初始资源预测模型不满足所述预设模型精度,利用所述全局模型参数对所述初始资源预测模型进行训练,得到所述目标资源预测模型。
可选地,在基于本申请上述方法的另一个实施例中,在所述确定在未来时间段所耗费的待匹配流量信息之后,还包括:
若确定所述网络切片所提供的网络资源能够覆盖所述待匹配流量信息,按照预设方式完成对所述网络切片的资源配置。
其中,根据本申请实施例的另一个方面,提供的一种基于联邦学习的网络资源配置方法,应用于宏基站,包括:
接收微基站发送的携带有待匹配流量信息的资源获取请求,所述资源获取请求用于为与所述微基站相关联的网络切片分配预设资源;
基于所述待匹配流量信息以及所述网络切片的属性信息,确定为所述网络切片分配的预设资源;
向所述微基站发送用于为所述网络切片分配所述预设资源的切片资源配置信令。
可选地,在基于本申请上述方法的另一个实施例中,基于所述待匹配流量信息以及所述网络切片的属性信息,确定为所述网络切片分配的预设资源,包括:
提取所述待匹配流量信息包含的资源需求量;以及,获取所述网络切片对应的网络优先级以及网络部署地;
利用优化算法,对所述资源需求量、所述网络优先级以及网络部署地做出资源分配决策,确定为所述网络切片分配的所述预设资源。
可选地,在基于本申请上述方法的另一个实施例中,在所述接收微基站发送的携带有待匹配流量信息的资源获取请求之前,还包括:
向多个所述微基站发送初始资源预测模型,并接收多个所述微基站发送的初始模型参数,所述初始模型参数为所述微基站利用本地数据对所述初始资源预测模型进行训练所得到的;
将接收到的各个初始模型参数进行联邦聚合,得到全局模型参数;
将所述全局模型参数发送给所述微基站。
其中,根据本申请实施例的又一个方面,提供的一种基于联邦学习的网络资源配置装置,应用于微基站,包括:
确定模块,被配置为利用本地的目标资源预测模型,确定在未来时间段所耗费的待匹配流量信息,所述目标资源预测模型为所述微基站在联邦学习框架下进行协同训练得到的模型;
发送模块,被配置为若确定与自身相关联的网络切片所提供的网络资源不能够覆盖所述待匹配流量信息,向与自身相关联的宏基站发送资源获取请求,所述资源获取请求中携带有所述待匹配流量信息;
配置模块,被配置为接收所述宏基站分配的切片资源配置信令,并基于所述切片资源配置信令完成对所述网络切片的资源配置。
根据本申请实施例的又一个方面,提供的一种电子设备,包括:
存储器,用于存储可执行指令;以及
显示器,用于与所述存储器以执行所述可执行指令从而完成上述任一所述基于联邦学习的网络资源配置方法的操作。
根据本申请实施例的还一个方面,提供的一种计算机可读存储介质,用于存储计算机可读取的指令,所述指令被执行时执行上述任一所述基于联邦学习的网络资源配置方法的操作。
本申请中,可以由微基站利用本地的目标资源预测模型,确定在未来时间段所耗费的待匹配流量信息,目标资源预测模型为微基站在联邦学习框架下进行协同训练得到的模型;若确定与自身相关联的网络切片所提供的网络资源不能够覆盖待匹配流量信息,向与自身相关联的宏基站发送资源获取请求,资源获取请求中携带有待匹配流量信息;接收宏基站分配的切片资源配置信令,并基于切片资源配置信令完成对网络切片的资源配置。可以由宏基站接收在联邦学习架构下的多个微基站中的模型参数并进行汇总从而得到全局模型参数后回传给微基站。进而由微基站基于该全局模型参数进行预测模型的训练从而得到训练完毕的目标预测模型。本申请一方面可以达到一种利用联邦学习框架,在保证用户隐私和数据不共享的前提下实现切片间基站的负载预测模型的多方协同训练,可实现切片级的基站分布式资源预测的目的。同时也避免了相关技术中存在的,网络切片中基站的资源预测性能不足所导致的容易影响用户业务进展的问题。
下面通过附图和实施例,对本申请的技术方案做进一步的详细描述。
附图说明
构成说明书的一部分的附图描述了本申请的实施例,并且连同描述一起用于解释本申请的原理。
参照附图,根据下面的详细描述,可以更加清楚地理解本申请,其中:
图1示出了本申请一实施例所提供的一种基于联邦学习的网络资源配置方法的示意图;
图2示出了本申请一实施例所提供的一种基于联邦学习的网络资源配置方法的系统架构示意图;
图3示出了本申请一实施例所提供的一种基于联邦学习的网络资源配置方法的流程示意图;
图4示出了本申请一实施例所提供的另一种基于联邦学习的网络资源配置方法的示意图;
图5示出了本申请一实施例所提供的另一种基于联邦学习的网络资源配置中,宏基站确定分配资源的流程示意图;
图6示出了本申请一实施例所提供的一种电子装置的结构示意图;
图7示出了本申请一实施例所提供的一种电子设备的结构示意图;
图8示出了本申请一实施例所提供的一种存储介质的示意图。
具体实施方式
现在将参照附图来详细描述本申请的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本申请的范围。
同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,不作为对本申请及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
另外,本申请各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本申请要求的保护范围之内。
需要说明的是,本申请实施例中所有方向性指示(诸如上、下、左、右、前、后……)仅用于解释在某一特定姿态(如附图所示)下各部件之间的相对位置关系、运动情况等,如果该特定姿态发生改变时,则该方向性指示也相应的随之改变。
下面结合图1-图3来描述根据本申请示例性实施方式的用于进行基于联邦学习的网络资源配置方法。需要注意的是,下述应用场景仅是为了便于理解本申请的精神和原理而示出,本申请的实施方式在此方面不受任何限制。相反,本申请的实施方式可以应用于适用的任何场景。
本申请还提出一种基于联邦学习的网络资源配置方法、装置、电子设备及介质。
图1示意性地示出了根据本申请实施方式的一种基于联邦学习的网络资源配置方法的流程示意图。如图1所示,该方法应用于微基站,包括:
S101,利用本地的目标资源预测模型,确定在未来时间段所耗费的待匹配流量信息,目标资源预测模型为微基站在联邦学习框架下进行协同训练得到的模型。
S102,若确定与自身相关联的网络切片所提供的网络资源不能够覆盖待匹配流量信息,向与自身相关联的宏基站发送资源获取请求,资源获取请求中携带有待匹配流量信息。
S103,接收宏基站分配的切片资源配置信令,并基于切片资源配置信令完成对网络切片的资源配置。
相关技术中,网络切片(Network Slicing,NS)是5G/B5G通信系统赋能垂直行业的核心技术之一,指将统一的物理网络基础设施资源虚拟化,抽象为多个端到端(End toEnd,E2E)的逻辑网络。
进一步的,这些逻辑网络之间互相隔离,各自独立服务于某一具体的业务场景,从而满足用户定制化、多样化的服务质量(Quality of Service,QoS)需求。网络切片依托于SDN/NFV技术实现,是一组虚拟网络功能(Virtual Network Function,VNF)及其上拥有资源的集合,不同的VNF可实现某个特定的网络功能,
其中,一个网络切片由多个VNF构成,从而形成一个完整的逻辑网络,实现定制化的服务。在一个网络切片中,可分为无线网(AN)子切片、承载网(TN)子切片和核心(CN)网子切片三部分。在5G时代,ITU正式定义了网络切片的三类典型应用场景:增强型移动宽带(enhanced Mobile Broadband,eMBB),大规模机器类型通信(massive Machine Type ofCommunication,mMTC),超可靠和低延迟通信(Ultra-Reliable Low LatencyCommunication,URLLC)。
目前,网络切片已基本可实现端到端业务流程的跨域拉通,可为用户提供定制化的服务。下一阶段的技术目标在于,在保障服务等级协议(Service Level Agreement,SLA)的前提下,实现网络切片的跨域自动化管理编排和配置,提升网络切片的端到端自动化能力,这离不开人工智能(AI)和大数据驱动的负载感知技术作为支持。
进一步的,对于利用网络切片用于实现基于AI的负载感知与资源预测技术来说,为了实现网络切片自动化管理和编排的愿景,运行中的切片需要有实时感知预测并主动响应用户需求的能力。在无线网络中,网络负载往往具有时空相关性,可以被提前预测感知。由于业务类型和用户群体的差异,不同切片的流量模式存在异构性(例如,不同业务类型流量峰值时段不同、部分场景流量突发性更强等)。
其中,网络资源预测的本质为时间序列的预测。传统的资源预测主要基于时间序列模型,根据实际数据对该模型的具体参数进行求解,最后利用已知参数的时间序列模型进行时间序列预测。常见的时间序列模型有移动平均模型(Moving Average,MA),自回归模型(Auto Regressive,AR),自回归移动平均模型(Auto Regressive Moving Average,ARMA),差分自回归移动平均模型(Auto Regressive Integrated Moving Average,ARIMA)。
针对上述存在的问题,本申请提出一种基于联邦学习的网络资源配置方法。其思想是由微基站利用本地的目标资源预测模型,确定在未来时间段所耗费的待匹配流量信息,目标资源预测模型为微基站在联邦学习框架下进行协同训练得到的模型;若确定与自身相关联的网络切片所提供的网络资源不能够覆盖待匹配流量信息,向与自身相关联的宏基站发送资源获取请求,资源获取请求中携带有待匹配流量信息;接收宏基站分配的切片资源配置信令,并基于切片资源配置信令完成对网络切片的资源配置。
进一步的,在6G时代,大量用户数据将分布在网络边缘,这要求无线网络具备更加泛在和原生的智慧能力。具体来说,AI不仅部署在管理切片的集中式SDN控制器中,而且以分布式范式存在于网络节点和用户设备(UE)中。在各种分布式网络架构中,联邦学习(FL)由于具有保护隐私、克服数据孤岛等优点,被认为是实现6G泛在智能的潜在重要解决方案。
其中,联邦学习本质上是一种分布式机器学习框架。目标是在保证数据隐私安全及合法合规的基础上,实现共同建模,提升AI模型的效果。在FL框架下,本地客户机(Clients)利用大量本地用户数据训练本地模型,并将本地模型参数上传至集中的基站/边缘服务器进行聚合,从而获得全局模型,可在保护用户隐私、数据不共享的前提下实现ML模型的多方协同训练。
一种方式中,本申请实施例中的预测模型可以为线性回归模型(LinearRegression,LR)、支持向量回归模型(Support Vector Regression,SVR)、长短期记忆模型(Long Short Time Memory,LSTM)神经网络等。
作为示例的,预测模型可以为长短期记忆模型。可以理解的,LSTM网络是一种改进的循环神经网络(RNN),可以解决RNN无法处理长距离依赖的问题。其在原始RNN的隐藏层增加一个状态(称为单元状态)来保存长期状态,并引入门结构来控制历史记忆信息的保留和丢弃,控制保留具有高相关性的信息,并删除相关性较低的内容。
因此,LSTM具有良好的记忆性能,可以有效解决RNN的梯度爆炸和梯度消失问题。基于ML的网络资源预测主要通过数据中心、集中控制器(如SDN控制器)或智能网络功能(如网络数据智能分析功能(Network Data Analytics Function,NWDAF))等集中式网元实现。集中控制单元统一收集全局用户数据和网络状态信息,对数据进行智能分析预测和决策,实现切片未来负载状态的感知。
一种方式中,如图2所示,为应用在基于联邦学习的网络资源配置方法中的系统架构图。其中,在由宏微基站组成的双层异构网络场景下,由于不同的网络切片(由不同的业务流组成)在一个区域内共享相同的物理网络基础设施。也即一个微基站上可以承载多个切片,或一个切片可以部署在多个微基站上。
其中,请求相同业务(切片)的用户可能接入不同的微基站。因此,每个切片内的样本数据分布在多个微基站上,在地理上是分散的。为了收集分布式切片数据并以较低的通信开销和延迟提供相对可靠的切片级预测,在本申请的方案中,切片内基站间的负载预测基于横向联邦学习实现。
进一步的,如图3所示,为本申请提出的基于联邦学习的网络资源配置方法的流程示意图,其中包括:
步骤1、各个参与联邦学习的微基站接收宏基站发送的初始资源预测模型。
需要说明的是,该各个微基站可以所属于同一个切片网络,也可以所属于不同的切片网络。
步骤2、微基站利用本地数据对所述初始资源预测模型进行训练,得到初始模型参数。
步骤3、微基站将初始模型参数发送给宏基站。
本步骤中,宏基站在接收到多个微基站发送的初始模型参数后,可以由其将接收到的各个初始模型参数进行联邦聚合,得到全局模型参数。
一种方式中,宏基站的聚合方式可以为联邦平均聚合(FedAvg)、联合近端值聚合(FedProx)、随机控制平均聚合(SCAFFOLD)等。本申请对此不作限定。
步骤4、宏基站将当前切片的全局模型参数下发至微基站。
步骤5、微基站利用全局模型参数,对初始资源预测模型进行预设模型精度检验,判断当前模型是否收敛。其中包含两种情况:
第一种情况:若确定初始资源预测模型满足预设模型精度,将初始资源预测模型作为目标资源预测模型。
第二种情况:若确定初始资源预测模型不满足预设模型精度,利用全局模型参数对初始资源预测模型进行训练,直至得到目标资源预测模型。
至此,基于横向联邦学习的切片内负载预测完成,各基站按照预测结果执行下一步决策过程。
步骤6、微基站利用本地的目标资源预测模型,确定在未来时间段所耗费的待匹配流量信息,目标资源预测模型为微基站在联邦学习框架下进行协同训练得到的模型。
步骤7、微基站根据预测结果(即待匹配流量信息)计算与自身相关联的网络切片所提供的网络资源。
步骤8、微基站判断网络切片所提供的网络资源能够覆盖待匹配流量信息,若充足,则直接按请求量分配切片资源。否则,执行步骤9。
步骤9、微基站向宏基站发送携带有待匹配流量信息的资源获取请求。
步骤10、宏基站进行流量分割,并结合资源需求量、网络切片对应的网络优先级以及网络部署地等信息,通过优化算法(线性优化、博弈论、强化学习等)做出资源分配决策,从而确定为该网络切片分配的预设资源。
一种方式中,本申请实施例中的宏基站上存储有所有网络切片的属性信息,该属性信息包括与其相关联的所有网络切片的切片信息,包括切片类型、优先级、部署情况等)。
步骤11、宏基站向微基站下发送用于为网络切片分配预设资源的切片资源配置信令。
步骤12、微基站接收宏基站分配的切片资源配置信令,并基于切片资源配置信令完成对网络切片的资源配置。
本申请中,可以由微基站利用本地的目标资源预测模型,确定在未来时间段所耗费的待匹配流量信息,目标资源预测模型为微基站在联邦学习框架下进行协同训练得到的模型;若确定与自身相关联的网络切片所提供的网络资源不能够覆盖待匹配流量信息,向与自身相关联的宏基站发送资源获取请求,资源获取请求中携带有待匹配流量信息;接收宏基站分配的切片资源配置信令,并基于切片资源配置信令完成对网络切片的资源配置。可以由宏基站接收在联邦学习架构下的多个微基站中的模型参数并进行汇总从而得到全局模型参数后回传给微基站。进而由微基站基于该全局模型参数进行预测模型的训练从而得到训练完毕的目标预测模型。本申请一方面可以达到一种利用联邦学习框架,在保证用户隐私和数据不共享的前提下实现切片间基站的负载预测模型的多方协同训练,可实现切片级的基站分布式资源预测的目的。同时也避免了相关技术中存在的,网络切片中基站的资源预测性能不足所导致的容易影响用户业务进展的问题。
可选地,在基于本申请上述方法的另一个实施例中,在利用本地的目标资源预测模型,确定在未来时间段所耗费的待匹配流量信息之前,还包括:
获取宏基站下发的初始资源预测模型;
利用本地数据对初始资源预测模型进行训练,得到初始模型参数;
将初始模型参数发送给宏基站,以使宏基站将接收到的各个初始模型参数进行联邦聚合,得到全局模型参数;
接收宏基站发送的全局模型参数,并基于全局模型参数,得到目标资源预测模型。
可选地,在基于本申请上述方法的另一个实施例中,基于全局模型参数,得到目标资源预测模型,包括:
利用全局模型参数,对初始资源预测模型进行预设模型精度检验;
若确定初始资源预测模型满足预设模型精度,将初始资源预测模型作为目标资源预测模型;或,
若确定初始资源预测模型不满足预设模型精度,利用全局模型参数对初始资源预测模型进行训练,得到目标资源预测模型。
可选地,在基于本申请上述方法的另一个实施例中,在确定在未来时间段所耗费的待匹配流量信息之后,还包括:
若确定网络切片所提供的网络资源能够覆盖待匹配流量信息,按照预设方式完成对网络切片的资源配置。
一种方式中,本申请所提出的技术方案能够提供一种基于联邦学习的切片级异构负载预测方法。从而达到利用联邦学习框架,在保证用户隐私和数据不共享的前提下实现切片负载预测模型的多方协同训练,可实现切片级的分布式异构负载预测,提高预测性能的目的。
其中,由于各个微基站采取只上传模型参数而不上传原始数据的方案,因此可以达到有效减少数据的交换带来的通信开销和延迟,同时可有效规避数据共享带来的隐私敏感和数据安全问题
一种方式中,多个微基站之间采用横向联邦学习框架协同训练当前业务切片负载预测模型。微基站上记录了小区内用户的历史负载数据,其上部署本地智能训练单元,作为本地客户机(Clients),训练本地负载预测模型(例如,LSTM流量预测模型)。
另一种方式中,宏基站作为联邦学习的中央服务器(Server),负责聚合模型参数,下发每个切片的全局模型。参与横向联邦的每个微基站承载相同的业务(切片)类型,特征相似,但是用户群体不同。同时,每个业务类型异构的切片都有一个并行的横向联邦流量负载预测框架和不同的全局模型。
图4示意性地示出了根据本申请实施方式的一种基于联邦学习的网络资源配置方法的流程示意图。如图4所示,该方法应用于宏基站,包括:
S201,接收微基站发送的携带有待匹配流量信息的资源获取请求,资源获取请求用于为与微基站相关联的网络切片分配预设资源。
S202,基于待匹配流量信息以及网络切片的属性信息,确定为网络切片分配的预设资源。
S203,向微基站发送用于为网络切片分配预设资源的切片资源配置信令。
可选地,在基于本申请上述方法的另一个实施例中,基于待匹配流量信息以及网络切片的属性信息,确定为网络切片分配的预设资源,包括:
提取待匹配流量信息包含的资源需求量;以及,获取网络切片对应的网络优先级以及网络部署地;
利用优化算法,对资源需求量、网络优先级以及网络部署地做出资源分配决策,确定为网络切片分配的预设资源。
可选地,在基于本申请上述方法的另一个实施例中,在接收微基站发送的携带有待匹配流量信息的资源获取请求之前,还包括:
向多个微基站发送初始资源预测模型,并接收多个微基站发送的初始模型参数,初始模型参数为微基站利用本地数据对初始资源预测模型进行训练所得到的;
将接收到的各个初始模型参数进行联邦聚合,得到全局模型参数;
将全局模型参数发送给微基站。
一种方式中,继续以图3举例对本申请提出的基于联邦学习的网络资源配置方法进行说明:
步骤1、各个参与联邦学习的微基站接收宏基站发送的初始资源预测模型。
步骤2、微基站利用本地数据对所述初始资源预测模型进行训练,得到初始模型参数。
步骤3、微基站将初始模型参数发送给宏基站。
步骤4、宏基站将当前切片的全局模型参数下发至微基站。
步骤5、微基站利用全局模型参数,对初始资源预测模型进行预设模型精度检验,判断当前模型是否收敛。其中包含两种情况:
步骤6、微基站利用本地的目标资源预测模型,确定在未来时间段所耗费的待匹配流量信息,目标资源预测模型为微基站在联邦学习框架下进行协同训练得到的模型。
步骤7、微基站根据预测结果(即待匹配流量信息)计算与自身相关联的网络切片所提供的网络资源。
步骤8、微基站判断网络切片所提供的网络资源能够覆盖待匹配流量信息,若充足,则直接按请求量分配切片资源。否则,执行步骤9。
步骤9、微基站向宏基站发送携带有待匹配流量信息的资源获取请求。
步骤10、宏基站基于待匹配流量信息以及网络切片的属性信息,确定为网络切片分配的预设资源。
一种方式中,宏基站需综合考虑切片优先级、资源需求量、切片部署情况,通过优化算法(线性优化、博弈论、强化学习等)做出最优资源配置决策。
作为示例的,本申请实施例可以将多切片资源配置问题抽象为二维背包问题,背包的长和宽分别表示切片对资源占用的时间和分配的资源量,优化目标为背包中物品的权重和(切片SLA满足率以及切片提供商收益),通过优化背包中放入物品(不同切片资源分配)的选择方案和放入顺序,获得最优的时频资源配置方案。
需要说明的是,由于网络流量是实时波动变化的,为了实现更加细粒度的资源配置,本申请实施例在宏基站资源配置前对预测所得流量在时域上进行分割(在分割粒度内,切片资源分配量保持不变)。
进一步的,如图5所示。其中Tp为流量预测窗口,Ts为资源调度窗口。经过流量预测和分割,切片的资源配置问题由原来的矩形背包问题转化为多边形背包问题(如图5中切片NS1所占用的时频资源块,被预测流量塑形为多边形)。这样一来,空余出来的时频资源块可以分配给其他切片,提高资源利用率。
以无线带宽资源为例:根据香农公式,可获得流量与带宽资源需求量的映射关系,如下式所示:
可以理解的,当剩余资源充足时,可直接按照预设方式分配无线带宽资源,满足切片负载需求。当带宽资源不足时(即多个切片或基站间存在资源竞争的情况),由于单个网络切片的资源分配需要多个微基站协同,资源配置决策需由宏基站集中控制。
步骤11、宏基站向微基站下发送用于为网络切片分配预设资源的切片资源配置信令。
步骤12、微基站接收宏基站分配的切片资源配置信令,并基于切片资源配置信令完成对网络切片的资源配置。
可以由宏基站接收在联邦学习架构下的多个微基站中的模型参数并进行汇总从而得到全局模型参数后回传给微基站。进而由微基站基于该全局模型参数进行预测模型的训练从而得到训练完毕的目标预测模型。本申请一方面可以达到一种利用联邦学习框架,在保证用户隐私和数据不共享的前提下实现切片间基站的负载预测模型的多方协同训练,可实现切片级的基站分布式资源预测的目的。同时也避免了相关技术中存在的,网络切片中基站的资源预测性能不足所导致的容易影响用户业务进展的问题。
可选的,在本申请的另外一种实施方式中,如图6所示,本申请还提供一种基于联邦学习的网络资源配置装置。其中应用于微基站,包括:
确定模块301,被配置为利用本地的目标资源预测模型,确定在未来时间段所耗费的待匹配流量信息,所述目标资源预测模型为所述微基站在联邦学习框架下进行协同训练得到的模型;
发送模块302,被配置为若确定与自身相关联的网络切片所提供的网络资源不能够覆盖所述待匹配流量信息,向与自身相关联的宏基站发送资源获取请求,所述资源获取请求中携带有所述待匹配流量信息;
配置模块303,被配置为接收所述宏基站分配的切片资源配置信令,并基于所述切片资源配置信令完成对所述网络切片的资源配置。
可以由宏基站接收在联邦学习架构下的多个微基站中的模型参数并进行汇总从而得到全局模型参数后回传给微基站。进而由微基站基于该全局模型参数进行预测模型的训练从而得到训练完毕的目标预测模型。本申请一方面可以达到一种利用联邦学习框架,在保证用户隐私和数据不共享的前提下实现切片间基站的负载预测模型的多方协同训练,可实现切片级的基站分布式资源预测的目的。同时也避免了相关技术中存在的,网络切片中基站的资源预测性能不足所导致的容易影响用户业务进展的问题。
在本申请的另外一种实施方式中,确定模块301,被配置执行的步骤包括:
获取所述宏基站下发的初始资源预测模型;
利用本地数据对所述初始资源预测模型进行训练,得到初始模型参数;
将所述初始模型参数发送给所述宏基站,以使所述宏基站将接收到的各个初始模型参数进行联邦聚合,得到全局模型参数;
接收所述宏基站发送的全局模型参数,并基于所述全局模型参数,得到所述目标资源预测模型。
在本申请的另外一种实施方式中,确定模块301,被配置执行的步骤包括:
利用所述全局模型参数,对所述初始资源预测模型进行预设模型精度检验;
若确定所述初始资源预测模型满足所述预设模型精度,将所述初始资源预测模型作为所述目标资源预测模型;或,
若确定所述初始资源预测模型不满足所述预设模型精度,利用所述全局模型参数对所述初始资源预测模型进行训练,得到所述目标资源预测模型。
在本申请的另外一种实施方式中,确定模块301,被配置执行的步骤包括:
若确定所述网络切片所提供的网络资源能够覆盖所述待匹配流量信息,按照预设方式完成对所述网络切片的资源配置。
本申请实施方式还提供一种电子设备,以执行上述基于联邦学习的网络资源配置方法。请参考图7,其示出了本申请的一些实施方式所提供的一种电子设备的示意图。如图7所示,电子设备4包括:处理器400,存储器401,总线402和通信接口403,所述处理器400、通信接口403和存储器401通过总线402连接;所述存储器401中存储有可在所述处理器400上运行的计算机程序,所述处理器400运行所述计算机程序时执行本申请前述任一实施方式所提供的基于联邦学习的网络资源配置方法。
其中,存储器401可能包含高速随机存取存储器(RAM:Random Access Memory),也可能还包括非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。通过至少一个通信接口403(可以是有线或者无线)实现该装置网元与至少一个其他网元之间的通信连接,可以使用互联网、广域网、本地网、城域网等。
总线402可以是ISA总线、PCI总线或EISA总线等。所述总线可以分为地址总线、数据总线、控制总线等。其中,存储器401用于存储程序,所述处理器400在接收到执行指令后,执行所述程序,前述本申请实施例任一实施方式揭示的所述数据识别的方法可以应用于处理器400中,或者由处理器400实现。
处理器400可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器400中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器400可以是通用处理器,包括处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(DSP)、专用集成电路(ASIC)、现成可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本申请实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器401,处理器400读取存储器401中的信息,结合其硬件完成上述方法的步骤。
本申请实施例提供的电子设备与本申请实施例提供的基于联邦学习的网络资源配置方法出于相同的发明构思,具有与其采用、运行或实现的方法相同的有益效果。
本申请实施方式还提供一种与前述实施方式所提供的基于联邦学习的网络资源配置方法对应的计算机可读存储介质,请参考图8,其示出的计算机可读存储介质为光盘50,其上存储有计算机程序(即程序产品),所述计算机程序在被处理器运行时,会执行前述任意实施方式所提供的基于联邦学习的网络资源配置方法。
需要说明的是,所述计算机可读存储介质的例子还可以包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他光学、磁性存储介质,在此不再一一赘述。
本申请的上述实施例提供的计算机可读存储介质与本申请实施例提供的数据识别的方法出于相同的发明构思,具有与其存储的应用程序所采用、运行或实现的方法相同的有益效果。
需要说明的是:
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本申请的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本申请并帮助理解各个发明方面中的一个或多个,在上面对本申请的示例性实施例的描述中,本申请的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下示意图:即所要求保护的本申请要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如下面的权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本申请的单独实施例。
此外,本领域的技术人员能够理解,尽管在此所述的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本申请的范围之内并且形成不同的实施例。例如,在下面的权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
以上所述,仅为本申请较佳的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。
Claims (10)
1.一种基于联邦学习的网络资源配置方法,其特征在于,应用于微基站,包括:
利用本地的目标资源预测模型,确定在未来时间段所耗费的待匹配流量信息,所述目标资源预测模型为所述微基站在联邦学习框架下进行协同训练得到的模型;
若确定与自身相关联的网络切片所提供的网络资源不能够覆盖所述待匹配流量信息,向与自身相关联的宏基站发送资源获取请求,所述资源获取请求中携带有所述待匹配流量信息;
接收所述宏基站分配的切片资源配置信令,并基于所述切片资源配置信令完成对所述网络切片的资源配置。
2.如权利要求1所述的方法,其特征在于,在所述利用本地的目标资源预测模型,确定在未来时间段所耗费的待匹配流量信息之前,还包括:
获取所述宏基站下发的初始资源预测模型;
利用本地数据对所述初始资源预测模型进行训练,得到初始模型参数;
将所述初始模型参数发送给所述宏基站,以使所述宏基站将接收到的各个初始模型参数进行联邦聚合,得到全局模型参数;
接收所述宏基站发送的全局模型参数,并基于所述全局模型参数,得到所述目标资源预测模型。
3.如权利要求2所述的方法,其特征在于,所述基于所述全局模型参数,得到所述目标资源预测模型,包括:
利用所述全局模型参数,对所述初始资源预测模型进行预设模型精度检验;
若确定所述初始资源预测模型满足所述预设模型精度,将所述初始资源预测模型作为所述目标资源预测模型;或,
若确定所述初始资源预测模型不满足所述预设模型精度,利用所述全局模型参数对所述初始资源预测模型进行训练,得到所述目标资源预测模型。
4.如权利要求1所述的方法,其特征在于,在所述确定在未来时间段所耗费的待匹配流量信息之后,还包括:
若确定所述网络切片所提供的网络资源能够覆盖所述待匹配流量信息,按照预设方式完成对所述网络切片的资源配置。
5.一种基于联邦学习的网络资源配置方法,其特征在于,应用于宏基站,包括:
接收微基站发送的携带有待匹配流量信息的资源获取请求,所述资源获取请求用于为与所述微基站相关联的网络切片分配预设资源;
基于所述待匹配流量信息以及所述网络切片的属性信息,确定为所述网络切片分配的预设资源;
向所述微基站发送用于为所述网络切片分配所述预设资源的切片资源配置信令。
6.如权利要求5所述的方法,其特征在于,所述基于所述待匹配流量信息以及所述网络切片的属性信息,确定为所述网络切片分配的预设资源,包括:
提取所述待匹配流量信息包含的资源需求量;以及,获取所述网络切片对应的网络优先级以及网络部署地;
利用优化算法,对所述资源需求量、所述网络优先级以及网络部署地做出资源分配决策,确定为所述网络切片分配的所述预设资源。
7.如权利要求5所述的方法,其特征在于,在所述接收微基站发送的携带有待匹配流量信息的资源获取请求之前,还包括:
向多个所述微基站发送初始资源预测模型,并接收多个所述微基站发送的初始模型参数,所述初始模型参数为所述微基站利用本地数据对所述初始资源预测模型进行训练所得到的;
将接收到的各个初始模型参数进行联邦聚合,得到全局模型参数;
将所述全局模型参数发送给所述微基站。
8.一种基于联邦学习的网络资源配置装置,其特征在于,应用于微基站,包括:
确定模块,被配置为利用本地的目标资源预测模型,确定在未来时间段所耗费的待匹配流量信息,所述目标资源预测模型为所述微基站在联邦学习框架下进行协同训练得到的模型;
发送模块,被配置为若确定与自身相关联的网络切片所提供的网络资源不能够覆盖所述待匹配流量信息,向与自身相关联的宏基站发送资源获取请求,所述资源获取请求中携带有所述待匹配流量信息;
配置模块,被配置为接收所述宏基站分配的切片资源配置信令,并基于所述切片资源配置信令完成对所述网络切片的资源配置。
9.一种电子设备,其特征在于,包括:
存储器,用于存储可执行指令;以及,
处理器,用于与所述存储器执行所述可执行指令从而完成权利要求1-7中任一所述基于联邦学习的网络资源配置方法的操作。
10.一种计算机可读存储介质,用于存储计算机可读取的指令,其特征在于,所述指令被执行时执行权利要求1-7中任一所述基于联邦学习的网络资源配置方法的操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210923838.2A CN115460700A (zh) | 2022-08-02 | 2022-08-02 | 基于联邦学习的网络资源配置方法、装置、电子设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210923838.2A CN115460700A (zh) | 2022-08-02 | 2022-08-02 | 基于联邦学习的网络资源配置方法、装置、电子设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115460700A true CN115460700A (zh) | 2022-12-09 |
Family
ID=84296355
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210923838.2A Pending CN115460700A (zh) | 2022-08-02 | 2022-08-02 | 基于联邦学习的网络资源配置方法、装置、电子设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115460700A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116567762A (zh) * | 2023-07-12 | 2023-08-08 | 成都本原星通科技有限公司 | 一种基于多QoS优化的星地协同选择接入控制方法 |
-
2022
- 2022-08-02 CN CN202210923838.2A patent/CN115460700A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116567762A (zh) * | 2023-07-12 | 2023-08-08 | 成都本原星通科技有限公司 | 一种基于多QoS优化的星地协同选择接入控制方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112153700B (zh) | 一种网络切片资源管理方法及设备 | |
CN108028780B (zh) | 用于数据分析管理的方法及设备 | |
Bunyakitanon et al. | End-to-end performance-based autonomous VNF placement with adopted reinforcement learning | |
CN109417719B (zh) | 一种网络资源的管理方法、装置及系统 | |
CN113709048A (zh) | 一种路由信息的发送、接收方法、网元及节点设备 | |
CN110381541A (zh) | 一种基于强化学习的智能电网切片分配方法及装置 | |
CN107113243A (zh) | 用于利用网络运营商管理网络流量的系统和方法 | |
CN104901989B (zh) | 一种现场服务提供系统及方法 | |
Kim et al. | Multi-agent reinforcement learning-based resource management for end-to-end network slicing | |
CN105703927A (zh) | 一种资源分配方法、网络设备和网络系统 | |
US20160242194A1 (en) | Radio resource management | |
WO2022001941A1 (zh) | 网元管理方法、网管系统、独立计算节点、计算机设备、存储介质 | |
US20200195520A1 (en) | Adaptive function execution in a function as a service (faas) architecture | |
CN110602180B (zh) | 一种基于边缘计算的大数据用户行为分析方法及电子设备 | |
CN111966289A (zh) | 基于Kafka集群的分区优化方法和系统 | |
Othman et al. | Efficient admission control and resource allocation mechanisms for public safety communications over 5G network slice | |
CN116016221A (zh) | 业务处理方法、装置及存储介质 | |
CN115460700A (zh) | 基于联邦学习的网络资源配置方法、装置、电子设备及介质 | |
CN116402318B (zh) | 面向配电网的多级算力资源分配方法、装置及网络架构 | |
CN115460617A (zh) | 基于联邦学习的网络负载预测方法、装置、电子设备及介质 | |
Donatti et al. | Survey on machine learning-enabled network slicing: covering the entire life cycle | |
CN114978913B (zh) | 一种基于切链的服务功能链跨域部署方法及系统 | |
Pu et al. | Federated learning-based heterogeneous load prediction and slicing for 5G systems and beyond | |
US20190108060A1 (en) | Mobile resource scheduler | |
Aicardi et al. | Decentralized scalable dynamic load balancing among virtual network slice instantiations |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |