CN117118836A - 基于资源预测的服务功能链多阶段节能迁移方法 - Google Patents
基于资源预测的服务功能链多阶段节能迁移方法 Download PDFInfo
- Publication number
- CN117118836A CN117118836A CN202210528556.2A CN202210528556A CN117118836A CN 117118836 A CN117118836 A CN 117118836A CN 202210528556 A CN202210528556 A CN 202210528556A CN 117118836 A CN117118836 A CN 117118836A
- Authority
- CN
- China
- Prior art keywords
- resource
- vnf
- prediction
- migration
- sfc
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013508 migration Methods 0.000 title claims abstract description 68
- 230000005012 migration Effects 0.000 title claims abstract description 68
- 238000000034 method Methods 0.000 title claims abstract description 31
- 239000002245 particle Substances 0.000 claims abstract description 37
- 230000006870 function Effects 0.000 claims abstract description 34
- 230000007246 mechanism Effects 0.000 claims abstract description 10
- 238000005457 optimization Methods 0.000 claims abstract description 9
- 230000008859 change Effects 0.000 claims abstract description 3
- 238000012549 training Methods 0.000 claims description 22
- 239000013598 vector Substances 0.000 claims description 21
- 238000013507 mapping Methods 0.000 claims description 9
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 230000007774 longterm Effects 0.000 claims description 4
- 230000000694 effects Effects 0.000 claims 1
- 239000000284 extract Substances 0.000 claims 1
- 238000013467 fragmentation Methods 0.000 claims 1
- 238000006062 fragmentation reaction Methods 0.000 claims 1
- 238000010801 machine learning Methods 0.000 claims 1
- 238000005265 energy consumption Methods 0.000 abstract description 11
- 230000008901 benefit Effects 0.000 abstract description 4
- 230000008569 process Effects 0.000 abstract description 4
- 238000004808 supercritical fluid chromatography Methods 0.000 description 36
- 238000010586 diagram Methods 0.000 description 9
- 230000003044 adaptive effect Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 2
- 238000004134 energy conservation Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000013468 resource allocation Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 239000002699 waste material Substances 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000011144 upstream manufacturing Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/08—Configuration management of networks or network elements
- H04L41/0803—Configuration setting
- H04L41/0823—Configuration setting characterised by the purposes of a change of settings, e.g. optimising configuration for enhancing reliability
- H04L41/0833—Configuration setting characterised by the purposes of a change of settings, e.g. optimising configuration for enhancing reliability for reduction of network energy consumption
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/08—Configuration management of networks or network elements
- H04L41/0893—Assignment of logical groups to network elements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/14—Network analysis or design
- H04L41/145—Network analysis or design involving simulating, designing, planning or modelling of a network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/14—Network analysis or design
- H04L41/147—Network analysis or design for predicting network behaviour
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明提供了基于资源预测的服务功能链多阶段节能迁移方法,解决SFC服务过程中由于资源需求的动态性变化带来的网络耗能问题,通过在线部署、增量学习预测和动态迁移优化网络能耗。该方法包含基于注意力机制的资源预测模型,采用序列到序列结构使得模型可以同时预测多个VNF。方法还采用一种基于短周期资源预测的节能动态迁移算法,该算法利用网络资源需求预测结果来确定迁移时机,通过对VNF的拆分与合并来消除违背SLA,并使得能耗降低。同时还采用一种基于粒子群优化的SFC部署算法,以保证服务请求的接受率。本发明提供的方法在提高预测精度方面具有优越性,并且在保证较高服务请求接受率的情况下,降低SLA违背次数,在能耗带宽比方面性能有所提升。
Description
技术领域
本发明是提供一种基于资源预测的服务功能链多阶段节能迁移方法,可以在保证服务水平协议的情况下最小化网络长期能源消耗。
背景技术
随着新型网络技术和多样化的网络用户需求的出现,网络营运商的业务模型正经历一场革命性的变革。网络功能虚拟化(Network Functions Virtualization,NFV)成为这场变革中很有前景的网络技术之一。网络的效率密切依赖于VNF的映射以及SFC的路由。在网络切片运行过程中,各个业务的流量会随着时间的变化而波动,这可能导致SFC资源需求与资源可用性的不匹配,从而影响业务性能和资源利用率。当一种VNF的放置和资源分配方案无法满足当前网络需求时,网络功能虚拟化编排器(NFV Orchestrator,NFVO)可以重新配置SFC的编排方案,具体方法包括水平扩展、垂直扩展和动态迁移。水平扩展是通过安装或移除VNF实例实现,而垂直扩展是向VNF实例分配或释放和主机资源和带宽资源。垂直扩展可以充分利用资源碎片,分配资源更加灵活,只在底层服务器中剩余资源和链路带宽资源充足时可行。当服务器资源不足时,可以采用服务功能动态迁移的方法,这为网络运营商提供了很大的灵活性。
对于NFV提供商来说,在不违反服务水平协议(Service Level Agreement,SLA)的前提下降低能源消耗是降低运营成本和资本费用的关键。其次,为响应“开创绿色节能新时代”的号召,构建绿色节能的虚拟化网络显得更为重要。在NFV网络环境下存在这样的现实问题:随着SFC请求的动态地到达和离开,服务器会不断开启,这使得网络中存在大量利用率低的服务器,而处于空闲状态的服务器则持续消耗其峰值消耗能量的70%,这造成了大量的能源浪费;其次,由于网络流量在时刻波动,VNF对服务器资源的需求也随之改变,服务器随时可能会出现资源过载或低负载的情况,过载可能会导致整体性能下降和违反SLA,而低负载可能进一步加剧严重的能源浪费。
如何找到一种针对时变的数据通信速率的VNF动态迁移策略,在保证SLA的情况下,以最小的迁移成本获得最优的网络能耗,是一个非常重要的问题,而VNF合并与拆分是该问题的实际解决方案。采用怎样的迁移策略、在什么时机执行迁移都将直接影响到网络长期能耗。首先,迁移策略的选取需要针对网络全局,联合考虑迁移的成本,涉及多条SFC的联合迁移策略。其次,传统的迁移算法一般采取定期执行的迁移,无法前瞻地确定迁移时机,这导致不必要的迁移引起的迁移开销。因此有必要确定合并应该在什么时候执行才能够对网络全局带来更好的节能效果,而这是由网络资源需求变化而驱动的。
为解决上述由于迁移滞后性引起的问题,本发明考虑通过有效的资源需求预测算法提前掌握每个虚拟网络功能的资源需求,分析不同SFC资源需求随时间变化的特性,从而可以预先判断节点资源状态是否低负载或过载,据此确定合适的迁移时机并提出迁移策略。
发明内容
本发明是提供一种基于资源预测的服务功能链多阶段节能迁移方法,在保证SLA的前提下降低网络能耗,同时考虑由时变的资源需求导致的服务器过载和低载情况,通过资源预测算法确定VNF合并时机和拆分时机,对VNF执行非周期性迁移,降低网络长期能源消耗。
为了为实现上述发明的目的,本发明提供一种基于资源预测的服务功能链多阶段节能迁移方法,包括以下步骤:
步骤1:在线部署阶段,对SFC采用粒子群优化的部署算法进行部署;
步骤2:在增量学习资源预测阶段,采用基于注意力机制的上下文嵌入序列到序列模型对虚拟网络功能VNF进行资源预测。首先通过VNF资源实时监视器采集服务功能链SFC资源使用情况,收集包括VNF的核心特征(VNF类型、优先级)、派生特征(CPU、内存、磁盘需求)等历史信息,通过特征嵌入输入到模型中进行离线训练,得到预训练模型参数。之后通过增量学习,对训练样本进行小批次在线更新,消除初始离线训练的模型的性能会随着时间推移而下降的问题,模型参数进行微调更新;
步骤3:在动态迁移阶段,使用预测模型输出的预测结果作为基于短周期资源预测的虚拟网络功能动态迁移算法的输入之一,并输出VNF合并时机、拆分时机以及迁移策略。与此同时,物理资源伸缩控制器会对资源进行垂直扩展或资源回收。当迁移执行完毕,网络状态更新,资源实时监视器也同时更新采集的资源数据样本。
进一步的,步骤1中基于粒子群优化的SFC部署方法是指:
这里的粒子群优化算法主要包括粒子个体编码、粒子更新、适应值函数。
(1)个体编码:粒子表示网络中所有SFC部署到网络中的一种映射策略,编码为
pi=[ω1,ω2,…,ωm]
其中,pi表示粒子群中第i个粒子,ωm表示第m条SFC的一种映射方法。粒子的个体编码不仅包括当前迭代,还包括历史个体最优。
(2)粒子更新:参考轮盘赌选择法,这里对粒子速度和位置更新公式赋予新的含义。其中,c1指个体最优解pbesti的学习因子,表示粒子pi有c1的概率更新成pbesti;c2是全局最优解gbest学习因子,表示粒子pi有c2的概率更新成gbest。这里再增加一种粒子更新策略,有1-c1-c2的概率,使用邻域搜索的更新策略。这样,经典粒子群算法转化到了离散问题中来,即粒子更新共有三种更新方式:按全局最优更新、按局部最优更新或物理邻域更新。
每个粒子概率选择其中一种更新方式:
a)粒子更新为pbesti:pi本次迭代更新成历史个体最优解pbesti;
b)粒子更新为gbest:pi本次迭代更新成全局最优解gbest;
c)粒子按物理邻域更新:物理邻域更新方法要对粒子pi中所有SFCs都操作,具体方法为:随机选取SFC上的一个NF,在最短路径上变更该NF的部署节点。将NF部署到当前位置的上游节点或下游节点,虚拟链路按顺序映射,如有需要跨路径延长,将虚拟节点的流量最小的路径跨节点延长。
(3)适应值函数:使用网络部署的总流量为适应值函数,即寻优的目标函数是最大化网络流量,表示成下方公式,其中表示SFC sfcj的虚拟链路/>在t时刻处理的带宽。
进一步的,步骤2中的基于注意力机制的上下文嵌入序列到序列模型包括以下几层结构:
(1)特征嵌入层:特征是基于SFC数据,这些数据由同一链中每个VNF之间的信息组成。资源信息包括VNF当前CPU资源需求、内存需求等,上下文信息包括VNF历史资源需求数据、资源变化量以及SFC相关信息(如长度、序号)。
(2)编解码结构:首先编码器中,使用两个LSTM网络,其基本思想是对与目标VNF的前后相连的VNF进行建模,从而使两个方向的VNF前后关联信息都可以作为SFC的特征表示。捕捉与目标VNF相连接的上下文VNF可以提高对目标VNF资源预测的精确度。
(3)软性注意力层:解码器在预测每一个目标VNF时,会先计算编码器端SFC信息与目标VNF之间的依赖关系,帮助模型为SFC特征信息不同部分赋予不同的权重,增大与目标VNF相关部分的权重,减小与目标VNF相关度较低部分的权重。将权重向量输入作为输入该LSTM单元的初始状态的一部分,使得解码器在预测时更加关注与目标VNF关系更密切的上下文VNF信息,提取关键信息,通过解码生成的结果更加精确。
模型训练阶段采用Teacher-forcing模式,使用自衰减的学习率,公式如下:其中,η0表示初始学习率,α表示衰减因子,epoch表示迭代的次数。
进一步的,步骤3中的基于短周期资源预测的节能迁移算法包括以下步骤:
将底层节点的资源预测值作为输入,首先对预测到下一时段过载的底层节点执行子算法,得到拆分策略。这里采用自适应的过载阈值,用表示/>上部署的NF数量,yj,/>分别是资源预测模型的真实值与预测值,则t时段节点i的过载阈值偏差表示为:
然后执行子算法得到本时段需要进行合并的若干底层节点,以及其上所有NFs的合并策略。由上述子算法输出的迁移策略并非本时段的最终策略,为了防止一个NF多步迁移导致迁移能耗增加,要保证每个NF在本时段最多只发生一次迁移,因此将执行了多次迁移的NF策略更新成一次迁移。最后执行迁移操作,得到更新后的虚拟网络功能映射。
附图说明
图1是本发明申请中基于资源预测的服务功能链多阶段节能迁移方法图;
图2是本发明申请中基于粒子群优化的SFC部署流程图;
图3是本发明申请中基于注意力机制的上下文嵌入序列到序列模型结构图;
图4是本发明申请中基于注意力机制的上下文嵌入序列到序列模型编码器输入特征示意图;
图5是本发明申请中基于注意力机制的上下文嵌入序列到序列模型解码器训练阶段输入特征示意图;
图6是本发明基于短周期资源预测的虚拟网络功能动态迁移流程图。
具体实施方式
下面结合图对本发明做进一步详细的说明:
本发明提供一种基于资源预测的服务功能链多阶段节能迁移方法。
图1为本发明中基于资源预测的服务功能链多阶段节能迁移方法图,包含以下阶段:
步骤101:在阶段一,此时新的SFC不断动态到达网络。SFC调度器控制SFC的生命周期迭代,SFC所处理的带宽随时间变化而变化。采用基于粒子群优化的服务功能链部署算法,尽最大可能利用网络的剩余的资源,提升请求接受率,并得到SFC初始部署方案。
步骤102:在阶段二,首先要获得预训练的CESA-Seq2Seq模型,需要探索物理网络环境(或云数据中心)的现有资源进行学习,首先通过资源实时监视器对网络资源使用情况进行采集,这些历史信息由一组特征组成,包括NF、VNF、SFC、物理节点和物理链路的相关核心特征与派生特征。对NF采集信息包括VNF种类、CPU用量、内存用量等派生信息。对VNF采集信息包括VNF种类、预留CPU资源量、实际CPU使用量、预留内存量、实际内存占用量等。对SFC收集的信息包括到达时间、生命周期、时延、用户优先级、链长等核心特性。对底层网络需要收集物理节点的剩余CPU资源、剩余内存资源、剩余磁盘资源等,还需要监测物理链路的剩余带宽资源等派生信息。当VNF资源实时监视器采集到足够的历史数据后,就可以开始进行CESA-Seq2Seq模型的预训练。首先将历史信息进行特征嵌入,这里对每个VNF依次进行上下文特征嵌入,得到编码器输入特征向量{X1,X2,…,XN},解码器输入特征向量{Y1,Y2,…,YN}和标签向量其中XN为第N个VNF的特征向量,令K为历史信息窗口的长度,那么XN中包含了K个时刻的历史信息以及其他上下文嵌入。YN和/>分别表示第N-1个VNF的特征向量和第N个VNF资源的真实值,令M为预测窗口大小,那么YN和/>分别包含了M个时刻的资源信息。为加快模型收敛,本文将上述输入向量进行归一化处理并予以随机打乱,构造出训练数据集、验证集和测试集,然后对数据集进行分批处理,加快训练速度。使用Teacher-forcing的训练模式,将特征数据进行使用梯度下降法得到预训练模型的参数θ。此时的模型可以对当前的网络环境进行资源预测评估。
当上述两个过程运行一段时间之后,将对预训练的CESA-Seq2Seq模型进行增量更新。这一基本思想源于深度学习领域,由于训练复杂的深度神经网络较为耗时,且对计算资源有较高需求,在实践中常见的做法是使用预训练的网络,然后用新的数据集对模型权重微调。在多阶段迁移方法中,由于SFC的动态到达,网络流量是时刻变化的,这就导致运行了一段时间后的网络环境与初始的网络相比会产生很大差异,而预训练模型是对初始网络环境的表征。此时,如果继续使用预训练的模型对新的资源样本进行预测,那么性能上会有较大衰减,误差也会变大,这就需要对模型权重进行更新,提升模型的实时性。但是,动态迁移阶段需要算法对短周期的资源波动保持高度敏感性,并要求算法及时采取迁移策略,所以真实网络环境无法留给模型足够的时间使用新样本全量更新全部样本并重新训练模型权重。因此在这个阶段,本文采用耗时更少,需要的数据量也更小,且能够快速更新模型权重的增量更新,对模型进行在线优化。这里仅对新加入的增量样本进行学习,每增加一个批次的新VNF样本,就用此样本替代最旧的那一个批次的样本,然后对CESA-Seq2Seq反向微调权重。在增量更新的过程中,由于预训练的模型权重已经光滑平缓,因此希望可以保留原有模型中有关SFC的通用特征,不希望对原有模型权重有过大或者过快的扭曲,因此这里选用学习率为0.1η0,其中η0为离线阶段的初始学习率,让网络专注于学习样本增量中特定于数据集的特征。
步骤103:在阶段三,然后使用预训练中得到的CESA-Seq2Seq模型对网络中每条SFC进行资源预测,RP-EDM算法将利用这些预测结果判断底层网络中的低负载节点或过载节点,针对不同的节点指定迁移时机和迁移策略,选定被迁移的VNF以及目的节点,同时重新规划虚拟链路映射路径,最后执行迁移。与此同时,物理资源伸缩控制器会对资源进行垂直扩展或资源回收。当迁移执行完毕,网络状态更新,资源实时监视器也同时更新采集的资源数据样本。
图2为本发明中基于粒子群优化的SFC部署流程,步骤如下:
步骤201:输入网络资源信息、m条SFC信息,输入参数局部更新概率c1,全局更新概率c2,物理邻域更新概率1-c1-c2;
步骤202:输入种群规模N,初始化粒子群。为了扩大搜索范围,这里首先采用最短路径优先部署算法部署粒子群,然后对每个粒子进行一次物理邻域更新,得到初始化的粒子群P={p1,p2,…pN};
步骤203:计算粒子群中每个粒子pi的适应度值pfit={pfit1,pfit2,…,pfitN},更新局部最优解pbest={pbest1,pbest2,…,pbestN};
步骤204:找到局部最优解pbest中的适应度值最优的那个pbesti,作为全局最优解,更新全局最优解gbest=pbesti,其中pfiti=max(pfit);
步骤205:初始化迭代数t=0;
步骤206:更新每个粒子pi,生成随机数r,如果r<c1,则进行第7步;如果c1<r<c1+c2,则进行步骤208;如果r>c1+c2,则进行步骤209;
步骤207:将粒子pi更新为pbesti,进行步骤203-204,迭代次数t+1,进行步骤206;
步骤208:将粒子pi更新为gbest,进行步骤203-204,迭代次数t+1,进行步骤206;
步骤209:粒子pi={sfc1,sfc2,…,sfcm}进行物理邻域更新,对每一个sfci=[nf1,…,nfk],生成随机数r,在当前路径上改变nfr的部署节点,向前移动1个节点或向后移动1个节点,进行第3-4步,迭代次数t+1,进行步骤206;
步骤210:如果满足最大迭代次数,结束迭代,输出最优部署方案gbest。
图3为本发明中基于注意力机制的上下文嵌入序列到序列模型(CESA-Seq2Seq)的结构,构建模型步骤如下:
步骤301:添加编解码结构。编码器含有两个LSTM神经网络,一个是左LSTML,一个是右LSTMR,分别对VNF进行正序和倒序进行建模。LSTML的输入是按照SFC中VNF连接顺序,LSTMR的输入按照VNF连接顺序的倒序。然后,将LSTML和LSTMR最后一个单元的隐藏向量拼接起来,作为解码器的初始状态s0。LSTML和LSTMR输出的隐藏状态通过注意力层输出注意力加权后的特征向量。CESA-Seq2Seq的解码器由一组LSTM神经网络,利用编码器输出的特征向量对VNF逐个解码,输出预测结果。
步骤302:添加注意力机制层。令矩阵分别表示编码器两个LSTM网络输出的隐藏层向量[h1,…,hN]L,[h1,…,hN]R,矩阵/>表示解码器的LSTM输出的隐藏层向量[h′1,…,h′N],矩阵/>表示解码器的状态向量[s′1,…,s′N],其中,N表示步长,也是SFC的长度。在解码器的第j个时间步,将上一个时间步输出的状态s′j-1分别与HL,HR进行注意力匹配度计算,使用双线性变换计算得到注意力权重/>和计算公式如下:
然后经过Softmax得到映射在[0,1]区间的概率计算公式如下:
之后权重矩阵与/>相乘得到加权特征向量cj-1,加权特征向量cj-1与隐藏状态h′j-1拼接成/>作为第j时间步的LSTM初始状态向量sj-1,yj-1为第j-1时间步的输出y′j-1(测试阶段)或j-1时间步的真实标签值/>(训练阶段)。解码器的输出经过一层全连接层,由tanh激活,得到输出向量:
yj=tanh(wTs′j-1)
步骤303:添加特征嵌入层,生成训练集输入数据。图4为本发明中CESA-Seq2Seq模型的编码器输入特征示意图:
在CESA-Seq2Seq中,特征是基于SFC数据,这些数据由同一链中每个VNF之间的信息组成。资源信息包括VNF当前CPU资源需求、内存需求等,上下文信息包括VNF历史资源需求数据、资源变化量以及SFC相关信息(如长度、序号)。以一条由5个VNF组成的SFC为例,依次对5给VNF进行特征嵌入得到输入向量,并将VNF1的输入向量输入LSTML的第一个LSTM单元和LSTMR的最后一个单元,VNF2的输入向量输入LSTML第二个LSTM单元和LSTMR的倒数第二个单元,依此类推。对于每个VNF来说,输入数据包含4部分:资源信息(如特征1),是此VNF在T时刻的资源用量,维度为(批大小,时间步长,1);历史资源(如特征2~特征6),是此VNF在历史K个时刻的资源用量,图中以嵌入历史5个时刻的资源为例,维度为(批大小,时间步长,历史资源维度);资源变化量(如特征7~特征11),是每一时刻与上一时刻资源用量之差,维度为(批大小,时间步长,历史资源维度);SFC信息,如VNF个数。
步骤304:生成标签数据。图5为本发明中CESA-Seq2Seq模型的解码器标签示意图:
预测标签与编码器相对应,为目标VNF在M个时刻的资源需求真实值。解码器第一个神经网络单元的目标VNF为VNF1,第二个目标VNF为VNF2,依次类推。这样设计有以下几个优势:首先,提升了模型的通用性,利用一个模型可以实现一条SFC中各个VNF未来M个时刻的资源需求;第二,预测模型最终要应用于迁移算法中,在上一章的研究中,RP-EDM算法有一项重要依据是:目标节点的资源占用率在未来可以保持在合理范围的最大时长。为了得到这项指标,需要借助预测模型得到未来M个时刻的资源需求,而不只是下一个时刻的资源需求,这样设计避免了重复训练M个模型。
图6为本发明中基于短周期资源预测的节能迁移策略(RP-EDM)流程图,步骤如下:
步骤601:预测所有VNF的资源需求,得到预测结果;
步骤602:根据预测结果累加计算每个节点未来预计资源使用量;
步骤603:判断下一时段,各节点是否过载;
步骤604:如果节点过载,选择内存需求最小的NF作为待迁移NF;
步骤605:为待迁移NF构建目的节点候选集合,是满足所有带宽和时延约束条件的节点集合;
步骤606:选择目的节点。计算目的节点集合在部署待迁移NF之后保持不过载的时长,以及对应的迁移代价。选择二者之比最小的一个节点,开机节点优先;
步骤607:确定迁移后虚拟链路的映射路径,按照路径时延大小排序,从最短路径开始知道找到满足约束的路径;
步骤608:输出拆分策略,重复步骤604到步骤608,直至过载节点恢复正常载;
步骤609:判断非过载节点是否在下一个时段低负载;
步骤610:如果节点正常载,则按照流量变化垂直缩放节点资源;
步骤611:确定合并源节点,按照节点低负载持续时长降序排列,选择低负载持续时长最长的节点;
步骤612:选择源节点中任意NF;
步骤613:确定目的节点,计算目的节点集合在部署待迁移NF之后保持正常载时长,以及对应的迁移代价。选择二者之比的最小的一个开机节点;
步骤614:判断源节点关机节能的收益是否大于合并迁移成本;
步骤615:如果无收益,则继续判断下一个低负载节点;
步骤616:如果有收益,判断是否能为源节点上所有NF都找到目的节点;
步骤617:如果不能,则本时段不执行合并迁移;
步骤618:输出合并策略,继续对下一个低负载节点重复步骤611到步骤618;
步骤619:更新拆分策略与合并策略,确保每个NF当前时段只迁移一次,得到最终迁移策略;
步骤620:执行迁移;
步骤621:更新底层网络资源分配和映射图;
以上详细描述了本发明的优选实施方式,但是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内进行修改或者等同变换,均应包含在本发明的保护范围之内。
Claims (5)
1.基于资源预测的服务功能链多阶段节能迁移方法其特征在于,所述方法包括:
步骤1:在线部署阶段,对SFC采用粒子群优化的部署算法进行部署;
步骤2:在增量学习资源预测阶段,采用基于注意力机制的上下文嵌入序列到序列模型对虚拟网络功能VNF进行资源预测,首先通过VNF资源实时监视器采集服务功能链SFC资源使用情况,收集包括VNF的核心特征(VNF类型、优先级)、派生特征(CPU、内存、磁盘需求)等历史信息,通过特征嵌入输入到模型中进行离线训练,得到预训练模型参数;之后通过增量学习,对训练样本进行小批次在线更新,消除初始离线训练的模型的性能会随着时间推移而下降的问题,模型参数进行微调更新;
步骤3:在动态迁移阶段,使用预测模型输出的预测结果作为基于短周期资源预测的虚拟网络功能动态迁移算法的输入之一,并输出VNF合并时机、拆分时机以及迁移策略;与此同时,物理资源伸缩控制器会对资源进行垂直扩展或资源回收;当迁移执行完毕,网络状态更新,资源实时监视器也同时更新采集的资源数据样本。
2.根据权利要求1所述的基于资源预测的服务功能链多阶段节能迁移方法,其特征在于:步骤1中,所述基于粒子群优化的SFC部署算法针对节点资源以碎片化的场景,对动态到达的SFC输出虚拟网络功能和虚拟路径映射策略,保证服务接受率。
3.根据权利要求1所述的基于资源预测的服务功能链多阶段节能迁移方法,其特征在于:步骤2中,所述基于注意力机制的上下文嵌入序列到序列模型是一种深度神经网络,采用单个模型同时预测多个VNF的资源需求,模型包括以下几层结构:
特征嵌入层:特征是基于SFC数据,这些数据由同一链中每个VNF之间的信息组成,资源信息包括VNF当前CPU资源需求、内存需求等,上下文信息包括VNF历史资源需求数据、资源变化量以及SFC相关信息(如长度、序号);
编解码结构:使用两个LSTM网络,其基本思想是对与目标VNF的前后相连的VNF进行建模,从而使两个方向的VNF前后关联信息都可以作为SFC的特征表示;解码器由一组LSTM神经网络,利用编码器输出的特征向量对VNF逐个解码,输出预测结果;
软性注意力层:解码器在预测每一个目标VNF时,会先计算编码器端SFC信息与目标VNF之间的依赖关系,帮助模型为SFC特征信息不同部分赋予不同的权重,增大与目标VNF相关部分的权重,减小与目标VNF相关度较低部分的权重,将权重向量输入作为输入该LSTM单元的初始状态的一部分,使得解码器在预测时更加关注与目标VNF关系更密切的上下文VNF信息,提取关键信息,通过解码生成的结果更加精确;
模型训练阶段采用Teacher-forcing模式,使用自衰减的学习率,公式如下:其中,η0表示初始学习率,α表示衰减因子,epoch表示迭代的次数。
4.根据权利要求1所述的基于CRDSA类方法支持业务优先级的快速接入系统,其特征在于在步骤3中,基于短周期资源预测的虚拟网络功能动态迁移算法包含两个子算法:基于资源预测的虚拟网络功能拆分算法、基于资源预测的虚拟网络功能合并算法。
5.基于短周期资源预测的虚拟网络功能动态迁移算法利用机器学习对VNF资源需求的预测结果,提前掌握资源的变化,得到确定的迁移时机,在服务器低负载时,服务功能链动态迁移可以通过将VNF合并到尽可能少的服务器,关闭一些服务器来节约能源,在服务器过载时,及时地将过载节点上的VNF迁移到资源充足的节点上,在保证SLA的前提下,提升网络长期节能效果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210528556.2A CN117118836A (zh) | 2022-05-16 | 2022-05-16 | 基于资源预测的服务功能链多阶段节能迁移方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210528556.2A CN117118836A (zh) | 2022-05-16 | 2022-05-16 | 基于资源预测的服务功能链多阶段节能迁移方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117118836A true CN117118836A (zh) | 2023-11-24 |
Family
ID=88811551
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210528556.2A Pending CN117118836A (zh) | 2022-05-16 | 2022-05-16 | 基于资源预测的服务功能链多阶段节能迁移方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117118836A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117938669A (zh) * | 2024-03-25 | 2024-04-26 | 贵州大学 | 一种面向6g普惠智能服务的网络功能链自适应编排方法 |
-
2022
- 2022-05-16 CN CN202210528556.2A patent/CN117118836A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117938669A (zh) * | 2024-03-25 | 2024-04-26 | 贵州大学 | 一种面向6g普惠智能服务的网络功能链自适应编排方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112000459B (zh) | 一种用于服务的扩缩容的方法及相关设备 | |
CN111953758B (zh) | 一种边缘网络计算卸载和任务迁移方法及装置 | |
Liu et al. | A hierarchical framework of cloud resource allocation and power management using deep reinforcement learning | |
CN109324875B (zh) | 一种基于强化学习的数据中心服务器功耗管理与优化方法 | |
CN108958916B (zh) | 一种移动边缘环境下工作流卸载优化方法 | |
WO2023124947A1 (zh) | 一种任务处理方法、装置及相关设备 | |
CN113703984B (zh) | 5g云边协同场景下基于soa架构的云任务优化策略方法 | |
CN113992527A (zh) | 网络服务功能链在线迁移方法及系统 | |
CN115033359A (zh) | 一种基于时延控制的物联代理多任务调度方法和系统 | |
Zhou et al. | JPAS: Job-progress-aware flow scheduling for deep learning clusters | |
CN117118836A (zh) | 基于资源预测的服务功能链多阶段节能迁移方法 | |
Cheng et al. | Proscale: Proactive autoscaling for microservice with time-varying workload at the edge | |
CN114500561B (zh) | 电力物联网网络资源分配决策方法、系统、设备及介质 | |
Xiao et al. | Dscaler: A horizontal autoscaler of microservice based on deep reinforcement learning | |
Phung et al. | A prediction based autoscaling in serverless computing | |
CN112130927B (zh) | 一种可靠性增强的移动边缘计算任务卸载方法 | |
Kumar et al. | Hpcwmf: A hybrid predictive cloud workload management framework using improved LSTM neural network | |
CN116009990B (zh) | 基于宽注意力机制的云边协同元强化学习计算卸载方法 | |
CN112506658A (zh) | 一种服务链中动态资源分配和任务调度方法 | |
Yuan et al. | A DRL-Based Container Placement Scheme with Auxiliary Tasks. | |
Kusic et al. | Approximation modeling for the online performance management of distributed computing systems | |
Feldman et al. | Using approximate dynamic programming to optimize admission control in cloud computing environment | |
Mingshi et al. | Failure prediction based vnf migration mechanism for multimedia services in power grid substation monitoring | |
Naik et al. | A study on Optimal Resource Allocation Policy in Cloud Environment | |
Kortas et al. | Performance impact of the MVMM algorithm for virtual machine migration in data centres |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication |