CN113596632A - 一种无源光网络切片划分方法、装置及框架 - Google Patents
一种无源光网络切片划分方法、装置及框架 Download PDFInfo
- Publication number
- CN113596632A CN113596632A CN202110857020.0A CN202110857020A CN113596632A CN 113596632 A CN113596632 A CN 113596632A CN 202110857020 A CN202110857020 A CN 202110857020A CN 113596632 A CN113596632 A CN 113596632A
- Authority
- CN
- China
- Prior art keywords
- slice
- bandwidth
- ratio
- shared
- flow
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003287 optical effect Effects 0.000 title claims abstract description 52
- 238000000034 method Methods 0.000 title claims abstract description 31
- 238000003062 neural network model Methods 0.000 claims abstract description 30
- 230000015654 memory Effects 0.000 claims abstract description 29
- 238000012549 training Methods 0.000 claims description 17
- 238000013468 resource allocation Methods 0.000 claims description 11
- 230000006870 function Effects 0.000 claims description 10
- 238000012360 testing method Methods 0.000 claims description 10
- 238000012795 verification Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000010606 normalization Methods 0.000 claims description 5
- 238000007781 pre-processing Methods 0.000 claims description 4
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 230000007547 defect Effects 0.000 abstract description 6
- 238000013528 artificial neural network Methods 0.000 description 14
- 230000007787 long-term memory Effects 0.000 description 13
- 230000006403 short-term memory Effects 0.000 description 12
- 230000000875 corresponding effect Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 238000012937 correction Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04Q—SELECTING
- H04Q11/00—Selecting arrangements for multiplex systems
- H04Q11/0001—Selecting arrangements for multiplex systems using optical switching
- H04Q11/0062—Network aspects
- H04Q11/0067—Provisions for optical access or distribution networks, e.g. Gigabit Ethernet Passive Optical Network (GE-PON), ATM-based Passive Optical Network (A-PON), PON-Ring
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/08—Configuration management of networks or network elements
- H04L41/0893—Assignment of logical groups to network elements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/08—Configuration management of networks or network elements
- H04L41/0896—Bandwidth or capacity management, i.e. automatically increasing or decreasing capacities
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
本发明涉及一种无源光网络切片划分方法,本发明的方法基于长短期记忆神经网络模型进行流量预测,并基于流量预测值采用带宽请求的比例分配带宽策略,获得切片的共享带宽比,实现网络切片公平地分配共享带宽资源,并设置了分配上限值,避免一些切片因无法获得足够的宽带造成延迟或丢包的技术缺陷,能够极大地提高资源利用率,降低网络时延,保证各个网络的服务质量需求。
Description
技术领域
本发明涉及无源光网络切片划分领域,特别是涉及一种无源光网络切片划分方法、装置及框架。
背景技术
近年来,新颖的网络业务和不断多样化的网络应用场景正以惊人的速度出现,现有的网络架构不断受到挑战。不同应用带有多元化的服务质量需求,因此,无源光网络(PON)朝着多切片网络的场景发展。在光接入网中,切片技术可以将一台物理光线路终端(OLT)设备虚拟化为多个切片OLT,从而实现差异化服务和独立运维,可以有效减少网络重复投资。然而现有的资源按需分配的切片划分方式,虽然可以有效的避免切片间的抢占,但是仍然存在不同切片对共享宽带资源的公平分配及因无法获得足够的宽带造成延迟或丢包的技术缺陷,无法满足多种业务的服务质量(QoS)需求。
因此,如何实现网络切片公平地分配共享带宽资源,并避免一些切片因无法获得足够的宽带造成延迟或丢包的技术缺陷,满足多种业务的QoS需求,成为一个亟待解决的技术问题。
发明内容
本发明的目的是提供一种无源光网络切片划分方法、装置及框架,以实现网络切片公平地分配共享带宽资源,并避免一些切片因无法获得足够的宽带造成延迟或丢包的技术缺陷,满足多种业务的QoS需求。
为实现上述目的,本发明提供了如下方案:
一种无源光网络切片划分方法,包括:
基于每个切片的历史流量数据,采用长短期记忆神经网络模型,预测每个切片在下一个切片带宽分配周期的流量,得到每个切片的流量预测值;
根据每个切片的流量预测值,采用基于带宽请求的比例分配带宽策略,获得每个切片的共享带宽比;
将每个切片的共享带宽比分别与每个切片的分配比上限值比较,并将共享带宽比大于分配比上限值的切片的共享带宽比修正为所述切片的分配上限值;
分别根据每个切片的共享带宽比和预设的最小保证带宽比进行每个切片的带宽资源分配。
可选的,所述根据每个切片的流量预测值,采用基于带宽请求的比例分配带宽策略,获得每个切片的共享带宽比,具体包括:
根据每个切片的流量预测值,利用公式rm(t)=τj*pm(t),计算每个切片的基于优先级加权的带宽请求;
其中,rm(t)表示切片m的基于优先级加权的带宽请求,pm(t)为切片的流量预测值,τj为优先级权重;
其中,δm(t)表示切片m的共享带宽比,rn(t)表示切片n的基于优先级加权的带宽请求,N表示切片的数量。
可选的,所述将每个切片的共享带宽比分别与每个切片的分配比上限值比较,并将共享带宽比大于分配比上限值的切片的共享带宽比修正为所述切片的分配上限值,具体包括:
可选的,分别根据每个切片的共享带宽比和预设的最小保证带宽比进行每个切片的带宽资源分配,具体包括:
可选的,所述基于每个切片的历史流量数据,采用长短期记忆神经网络模型,预测每个切片在下一个切片带宽分配周期的流量,得到每个切片的流量预测值,之前还包括:
根据每个切片的租户所缴纳费用和优先级,预设每个切片的最小保证带宽比。
可选的,所述基于每个切片的历史流量数据,采用长短期记忆神经网络模型,预测每个切片在下一个切片带宽分配周期的流量,得到每个切片的流量预测值,之前还包括:
以切片带宽分配周期为采样周期,分别对每个切片的流量数据进行采集,获得流量样本数据集;
将所述流量样本数据集划分为训练集、验证集和测试集;
采用归一化、差分和滑窗的方式对所述训练集、所述验证集和所述测试集进行预处理;
基于预处理后的训练集,以均方误差作为损失函数,以Adam作为优化算法,对所述长短期记忆神经网络模型进行训练,获得训练后的长短期记忆神经网络模型;
基于预处理后的验证集和测试集,以平均绝对百分比误差作为指标,对训练后的长短期记忆神经网络模型进行验证和测试。
一种无源光网络切片划分装置,包括:
流量预测模块,用于基于每个切片的历史流量数据,采用长短期记忆神经网络模型,预测每个切片在下一个切片带宽分配周期的流量,得到每个切片的流量预测值;
共享带宽比计算模块,用于根据每个切片的流量预测值,采用基于带宽请求的比例分配带宽策略,获得每个切片的共享带宽比;
共享带宽比修正模块,用于将每个切片的共享带宽比分别与每个切片的分配比上限值比较,并将共享带宽比大于分配比上限值的切片的共享带宽比修正为所述切片的分配上限值;
带宽资源分配模块,用于分别根据每个切片的共享带宽比和预设的最小保证带宽比进行每个切片的带宽资源分配。
可选的,所述共享带宽比计算模块,具体包括:
带宽请求计算子模块,用于根据每个切片的流量预测值,利用公式rm(t)=τj*pm(t),计算每个切片的基于优先级加权的带宽请求;
其中,rm(t)表示切片m的基于优先级加权的带宽请求,pm(t)为切片的流量预测值,τj为优先级权重;
其中,δm(t)表示切片m的共享带宽比,rn(t)表示切片n的基于优先级加权的带宽请求,N表示切片的数量。
可选的,所述共享带宽比修正模块,具体包括:
本发明还提供一种无源光网络切片的架构,所述架构包括数据平面和控制平面;
所述数据平面包括多个切片;
所述控制平面包括一级SDN控制器、多个二级SDN控制器和多个预测模块;
每个所述切片分别与每个所述二级SDN控制器连接,每个所述二级SDN控制器分别通过所述预测模块与所述一级SDN控制器连接;所述一级SDN控制器分别与每个所述切片连接;
所述二级SDN控制器用于获取切片的历史流量数据,并将所述历史流量数据发送给所述预测模块;
所述预测模块用于基于长短期记忆神经网络模型,预测所述切片在下一个切片带宽分配周期的流量,得到所述切片的流量预测值,并将所述切片的流量预测值发送给所述一级SDN控制器;
所述一级SDN控制器用于根据每个切片的流量预测值,采用基于带宽请求的比例分配带宽策略和分配比上限值限制策略,获得每个切片的共享带宽比;将每个切片的共享带宽比分别与每个切片的分配比上限值比较,并将共享带宽比大于分配比上限值的切片的共享带宽比修正为所述切片的分配上限值;分别根据每个切片的共享带宽比和预设的最小保证带宽比进行每个切片的带宽资源分配,并将每个切片的宽带资源分配结果发送给每个所述切片。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明所提供的一种无源光网络切片划分方法,包括:基于每个切片的历史流量数据,采用长短期记忆神经网络模型,预测每个切片在下一个切片带宽分配周期的流量,得到每个切片的流量预测值;根据每个切片的流量预测值,采用基于带宽请求的比例分配带宽策略,获得每个切片的共享带宽比;将每个切片的共享带宽比分别与每个切片的分配比上限值比较,并将共享带宽比大于分配比上限值的切片的共享带宽比修正为所述切片的分配上限值,分别根据每个切片的共享带宽比和预设的最小保证带宽比进行每个切片的带宽资源分配。本发明基于长短期记忆神经网络模型进行流量预测,并基于流量预测值采用带宽请求的比例分配带宽策略,获得切片的共享带宽比,实现网络切片公平地分配共享带宽资源,并设置了分配上限值,避免一些切片因无法获得足够的宽带造成延迟或丢包的技术缺陷,能够极大地提高资源利用率,降低网络时延,保证各个网络的QoS需求。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明提供的一种无源光网络切片的架构的结构图;
图2为本发明提供的一种无源光网络切片划分方法的流程示意图;
图3为本发明提供的一种无源光网络切片划分方法的原理图;
图4为本发明提供的长短期记忆神经网络训练流程示意图;
图5为本发明提供的不同类型的切片的神经网络模型示意图;图5a为MFH网络流量模型的示意图,图5b为IIoT网络流量模型的示意图;
图6为本发明提供的一种无源光网络切片划分装置的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的是提供一种无源光网络切片划分方法、装置及框架,以实现网络切片公平地分配共享带宽资源,并避免一些切片因无法获得足够的宽带造成延迟或丢包的技术缺陷,满足多种业务的QoS需求。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
分配带宽的调度方案包括:切片间分配(Inter-slice Allocation,IRA)和切片内分配(Intra-slice Allocation,IAA)。IAA本质上是一个动态网络切片划分周期,在此期间二级SDN控制器接收ONU请求消息和队列状态。在IRA周期内,一级SDN控制器接收到网络切片的统计信息,根据网络切片划分算法计算每个切片分配的带宽。换句话说,由虚拟光线路终端连接的二级SDN控制器只负责DBA期间的时隙分配,而一级SDN控制器拥有网络的全局视野,并分配和调度切片资源。
为了避免频繁的IRA调度和不必要的开销,所述切片间分配的周期比所述切片内分配的周期长。
我们提出了一种基于流量预测的动态带宽分配机制,通过引入网络切片流量预测模块实现网络流量预测功能。与传统方法相比,主要的改进在于考虑了网络切片负载的实时性,在保证切片服务的优先级的前提下,即可以满足预先设定的不同优先级的最低资源比例,同时还能将剩余资源按需分配。
首先本发明提出一种时分复用无源光网络(TDM-PON)切片架构,该架构是用来完成动态调度方案的基础。在对接入网资源和功能进行抽象的基础上,将单个OLT在逻辑上划分为两个独立的虚拟OLT(虚拟光线路终端1和2),该切片可以满足特定数量的ONU和特定数量的用户设备的相应需求,网络切片可以在逻辑上彼此隔离。TDM-PON网络切片结构如图1所示,一级SDN控制器能够为网络切片提供管理和编排。这些切片由它们自己的二级软件定义网络控制器,即二级SDN控制器管理。此外,本发明为每个网络切片设置了不同的带宽保证率。为此,本发明考虑每个切片的QoS阈值,以满足其特定的QoS要求。从预测的角度来看,二级SDN控制器负责实时监控网络状态和带宽资源的使用情况,并收集的可靠的历史流量数据。预测模块对接收数据进行归一化处理,通过长短期记忆网络(LSTM)提取数据特征,可以有效拟合切片流量数据。经过训练的LSTM神经网络模型可以实现切片流量数据的预测。
如图1所示,本发明的网络切片分为两个平面:数据平面和控制平面层。控制平面用来下发资源和数据转发的策略,数据平面只负责执行控制平面的策略,这样就实现了控制和转发功能解耦。
数据平面:
切片功能划分方式为:无源光网络的结构由光线路终端(OLT)、光分配网(ODN)和光网络单元(ONU)组成。若将PON切片,需要用网络功能虚拟化技术(NFV)将OLT设备功能进行抽象,虚拟化成多个虚拟的OLT(虚拟光线路终端),所谓切片,是指将虚拟光线路终端和相应的ODN和ONU组合,把原来单一的网络结构切分成多个子网络。各个网络相互隔离,因此可以运行不同的服务,满足不同的指标。本发明将PON划分为两个网络切片,一个运行移动前传业务,一个运行工业物联网业务。
其中各切片内部连接关系为:在移动前传(MFH)切片中,中心单元连接虚拟光线路终端1,再通过光分路器连接分布单元。在工业物联网(IIoT)切片中,网络服务器连接虚拟光线路终端2,再通过光分路器和光网络单元连接工业物联网设备。
控制层:
控制平面用于控制切片的划分:主要采用的工具是软件定义网络控制器,即SDN控制器,具体分为一级SDN控制器(一级软件定义网络控制器)和二级SDN控制器(二级软件定义网络控制器),一级SDN控制器连接OLT,具有全局视野,可以控制切片的资源划分,执行分配策略。二级SDN控制器是一级SDN控制器下属的控制器,具有控制各自切片的能力,负责实时监控切片的网络状态和带宽资源的使用情况。
本发明设置了预测模块,预测模块主要由两个LSTM神经网络模型组成,长短期记忆神经网络模型可以通过给它提供一定数量的历史流量数据来预测下一切片带宽分配周期的流量。所述预测模块设置在一级SDN控制器和二级SDN控制器之间。
基于上述框架和原理,本发明提供了一种无源光网络切片划分方法,本发明的切片划分方法,即带宽分配方法可以实时计算加权带宽需求,实现动态带宽分配。该算法混合了固定带宽分配和动态带宽分配,通过集中控制,可以在静态分配带宽的基础上根据预测的切片需求分配额外的带宽。具体而言,二级SDN控制器收集切片历史流量数据,通过长短时记忆(LSTM)神经网络预测下一切片周期的流量,预测结果作为切片带宽请求上传至一级SDN控制器。一级SDN控制器对不同优先级切片的带宽请求配置相应的优先级权重,然后按照比例分配算法为每个切片分配带宽。该算法能够极大地提高资源利用率,降低网络时延,保证各个网络的QoS需求。
图2和3所示,本发明提供一种无源光网络切片划分方法,包括:
步骤201,基于每个切片的历史流量数据,采用长短期记忆神经网络模型,预测每个切片在下一个切片带宽分配周期的流量,得到每个切片的流量预测值。
在步骤201之前,本发明利用每个切片相应的历史流量数据训练长短期记忆神经网络,确定每个切片对应的训练后的长短期记忆神经网络。长短期记忆神经网络训练方法如图4所示,首先设计MFH切片和IIoT切片流量模型,用来生成所需流量数据,并将收集到的流量数据采用归一化、滑窗等手段进行预处理,然后通过长短期记忆网络提取数据特征。训练后的长短期记忆神经网络对未来时刻的切片流量数据进行预测。
具体的,如图4所示,步骤101所述基于每个切片的历史流量数据,采用长短期记忆神经网络模型,预测每个切片在下一个切片带宽分配周期的流量,得到每个切片的流量预测值,之前还包括:
以切片带宽分配周期为采样周期,分别对每个切片的流量数据进行采集,获得流量样本数据集;收集每个切片对应的历史流量数据每一个切片划分周期统计一次各切片流量,共收集10000个数据。长短期记忆神经网络学习各自切片上历史流量数据特征,预测切片在下一周期任务负载。历史流量数据来自于上述的TDM-PON切片,对于切片DBA周期产生的数据每一个切片划分周期统计一次,得到训练数据集。数据集按照8:1:1被分为训练集、验证集和测试集。
基于所述流量样本数据集,对长短期记忆神经网络模型进行训练;所述长短期记忆神经网络模型包括MFH网络预测模块和IIoT网络预测模块。
流量样本数据集按照8:1:1被分为训练集、验证集和测试集,并采用归一化、差分和滑窗等方式进行数据预处理。
训练长短期记忆神经网络。将经过预处理的历史流量数据作为输入,传入到长短期记忆神经网络中进行训练。具体而言,MFH切片的长短期记忆神经网络需要前50个流量数据预测下一时刻流量,而IIoT切片的长短期记忆神经网络需要前35个历史数据预测下一时刻流量。
训练长短期记忆神经网络的参数:批量大小为200,学习率为0.01。如图5所示,对于不同类型的网络切片,LSTM模型的输入层和隐藏层有所区别:MFH网络预测模块根据前50个历史数据进行预测,有两个隐藏层,每层神经元个数为[160,160];而IIoT网络预测模块根据前35个历史数据预测,有一个隐藏层,神经元个数为95。除此之外,预测模块以下参数是相同的:采用均方误差作为损耗函数,采用Adam作为优化算法,采用tanh作为激活函数。
验证神经网络预测能力:用平均绝对百分比误差(Mean Absolute PercentageError,MAPE)作为指标来评估模型的有效性(该公式是已有公式)。MAPE可以表示为:
为了保证网络切片的基本性能,一级SDN控制器为每个切片设置一个最小的保证资源比率这个比率的设置与切片租户所缴纳费用和切片的优先级成正相关,具体数值由运营商确定。并将剩余带宽抽象成共享资源池,根据切片优先级和带宽请求按需分配切片带宽。即,步骤201所述基于每个切片的历史流量数据,采用长短期记忆神经网络模型,预测每个切片在下一个切片带宽分配周期的流量,得到每个切片的流量预测值,之前还包括:根据每个切片的租户所缴纳费用和优先级,预设每个切片的最小保证带宽比。
步骤202,根据每个切片的流量预测值,采用基于带宽请求的比例分配带宽策略,获得每个切片的共享带宽比。
本发明将TDM-PON切片的优先级划分为三个级别j(j=1,2,3),并将优先级对应的权值设置为τj,则基于优先级加权的带宽请求rm(t)可以表示为相应的优先级权值与网络切片预测值的乘积。其表达式如下:
rm(t)=τj*pm(t)
步骤203,将每个切片的共享带宽比分别与每个切片的分配比上限值比较,并将共享带宽比大于分配比上限值的切片的共享带宽比修正为所述切片的分配上限值;
分配给切片m的带宽比率可以表示为切片m的带宽请求rm(t)占总带宽请求的比例。特别的,在某些极端的情况下,不同切片的带宽请求会具有很大的差别。在这种情况下,如果我们仍然采用前面的根据请求的比例分配带宽的策略,一些切片将无法获得足够的带宽,从而增加了延迟和丢包。因此,有必要对共享资源池中提供的资源的比例添加分配上限即分配给切片m的共享带宽比δm(t)不大于
步骤204,分别根据每个切片的共享带宽比和预设的最小保证带宽比进行每个切片的带宽资源分配。
分配给切片m的带宽资源可以表示为给切片m分配的最小保证带宽与共享带宽的总和,其中,分配给切片m的保证带宽为总带宽Btotal与最小保证带宽比的乘积,分配给切片m的共享带宽为剩余资源Brem晦晦n与共享带宽比δm(t)的乘积。
步骤204分别根据每个切片的共享带宽比和预设的最小保证带宽比进行每个切片的带宽资源分配,具体包括:分别根据每个切片的共享带宽比,利用公式进行每个切片的带宽资源分配;其中,为分配给切片m的带宽资源,Btot晦l为无源光网络的总带宽,为切片m的最小保证带宽比,Brem晦晦n为无源光网络的分配共享带宽,δm(t)表示切片m的共享带宽比。
分配共享带宽Bremain为剩余带宽,本发明将它抽象成共享资源池,根据切片优先级和带宽请求按需分配切片带宽。
本发明采用静态和动态相结合的网络切片划分方法,根据对网络切片流量的预测来分配带宽。其中,为了训练长短期记忆神经网络,二级SDN控制器将采集到的历史流量数据上传到预测模块。此外,一级SDN控制器为每个切片的带宽请求配置相应的优先级权值,然后根据比例分配算法为每个切片分配带宽。总带宽资源在分配保证带宽之后组成一个共享资源池,在共享资源池中可以为网络切片公平地分配共享资源,同时满足不同切片的QoS需求。
图6为本发明所提供的一种无源光网络切片划分装置,包括:
流量预测模块601,用于基于每个切片的历史流量数据,采用长短期记忆神经网络模型,预测每个切片在下一个切片带宽分配周期的流量,得到每个切片的流量预测值;
共享带宽比计算模块602,用于根据每个切片的流量预测值,采用基于带宽请求的比例分配带宽策略,获得每个切片的共享带宽比。
所述共享带宽比计算模块602,具体包括:带宽请求计算子模块,用于根据每个切片的流量预测值,利用公式rm(t)=τj*pm(t),计算每个切片的基于优先级加权的带宽请求;其中,rm(t)表示切片m的基于优先级加权的带宽请求,pm(t)为切片的流量预测值,τj为优先级权重;共享带宽比计算子模块,用于根据每个切片的基于优先级加权的带宽请求,利用公式计算每个切片的共享带宽比;其中,δm(t)表示切片m的共享带宽比,rn(t)表示切片n的基于优先级加权的带宽请求,N表示切片的数量。
共享带宽比修正模块603,用于将每个切片的共享带宽比分别与每个切片的分配比上限值比较,并将共享带宽比大于分配比上限值的切片的共享带宽比修正为所述切片的分配上限值。
所述共享带宽比修正模块603,具体包括:判断子模块,用于对于切片m,判断公式是否成立,获得判断结果;共享带宽比修正子模块,用于若所述判断结果表示否,则将δm(t)的数值修正为其中,δm(t)表示切片m的共享带宽比,表示切片m的分配上限值,t表示下一个切片带宽分配周期的时间。
带宽资源分配模块604,用于分别根据每个切片的共享带宽比和预设的最小保证带宽比进行每个切片的带宽资源分配。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。
Claims (8)
1.一种无源光网络切片划分方法,其特征在于,包括:
基于每个切片的历史流量数据,采用长短期记忆神经网络模型,预测每个切片在下一个切片带宽分配周期的流量,得到每个切片的流量预测值;
根据每个切片的流量预测值,采用基于带宽请求的比例分配带宽策略,获得每个切片的共享带宽比;
将每个切片的共享带宽比分别与每个切片的分配比上限值比较,并将共享带宽比大于分配比上限值的切片的共享带宽比修正为所述切片的分配上限值;
分别根据每个切片的共享带宽比和预设的最小保证带宽比进行每个切片的带宽资源分配。
5.根据权利要求1所述的无源光网络切片划分方法,其特征在于,所述基于每个切片的历史流量数据,采用长短期记忆神经网络模型,预测每个切片在下一个切片带宽分配周期的流量,得到每个切片的流量预测值,之前还包括:
根据每个切片的租户所缴纳费用和优先级,预设每个切片的最小保证带宽比。
6.根据权利要求1所述的无源光网络切片划分方法,其特征在于,所述基于每个切片的历史流量数据,采用长短期记忆神经网络模型,预测每个切片在下一个切片带宽分配周期的流量,得到每个切片的流量预测值,之前还包括:
以切片带宽分配周期为采样周期,分别对每个切片的流量数据进行采集,获得流量样本数据集;
将所述流量样本数据集划分为训练集、验证集和测试集;
采用归一化、差分和滑窗的方式对所述训练集、所述验证集和所述测试集进行预处理;
基于预处理后的训练集,以均方误差作为损失函数,以Adam作为优化算法,对所述长短期记忆神经网络模型进行训练,获得训练后的长短期记忆神经网络模型;
基于预处理后的验证集和测试集,以平均绝对百分比误差作为指标,对训练后的长短期记忆神经网络模型进行验证和测试。
7.一种无源光网络切片划分装置,其特征在于,包括:
流量预测模块,用于基于每个切片的历史流量数据,采用长短期记忆神经网络模型,预测每个切片在下一个切片带宽分配周期的流量,得到每个切片的流量预测值;
共享带宽比计算模块,用于根据每个切片的流量预测值,采用基于带宽请求的比例分配带宽策略,获得每个切片的共享带宽比;
共享带宽比修正模块,用于将每个切片的共享带宽比分别与每个切片的分配比上限值比较,并将共享带宽比大于分配比上限值的切片的共享带宽比修正为所述切片的分配上限值;
带宽资源分配模块,用于分别根据每个切片的共享带宽比和预设的最小保证带宽比进行每个切片的带宽资源分配。
8.一种无源光网络切片的架构,其特征在于,所述架构包括数据平面和控制平面;
所述数据平面包括多个切片;
所述控制平面包括一级SDN控制器、多个二级SDN控制器和多个预测模块;
每个所述切片分别与每个所述二级SDN控制器连接,每个所述二级SDN控制器分别通过所述预测模块与所述一级SDN控制器连接;所述一级SDN控制器分别与每个所述切片连接;
所述二级SDN控制器用于获取切片的历史流量数据,并将所述历史流量数据发送给所述预测模块;
所述预测模块用于基于长短期记忆神经网络模型,预测所述切片在下一个切片带宽分配周期的流量,得到所述切片的流量预测值,并将所述切片的流量预测值发送给所述一级SDN控制器;
所述一级SDN控制器用于根据每个切片的流量预测值,采用基于带宽请求的比例分配带宽策略和分配比上限值限制策略,获得每个切片的共享带宽比;将每个切片的共享带宽比分别与每个切片的分配比上限值比较,并将共享带宽比大于分配比上限值的切片的共享带宽比修正为所述切片的分配上限值;分别根据每个切片的共享带宽比和预设的最小保证带宽比进行每个切片的带宽资源分配,并将每个切片的宽带资源分配结果发送给每个所述切片。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110857020.0A CN113596632B (zh) | 2021-07-28 | 2021-07-28 | 一种无源光网络切片划分方法、装置及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110857020.0A CN113596632B (zh) | 2021-07-28 | 2021-07-28 | 一种无源光网络切片划分方法、装置及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113596632A true CN113596632A (zh) | 2021-11-02 |
CN113596632B CN113596632B (zh) | 2022-05-24 |
Family
ID=78251014
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110857020.0A Active CN113596632B (zh) | 2021-07-28 | 2021-07-28 | 一种无源光网络切片划分方法、装置及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113596632B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114423047A (zh) * | 2022-02-14 | 2022-04-29 | 国网电力科学研究院有限公司 | 一种网络带宽分配优化方法、系统、存储介质及计算设备 |
CN114448770A (zh) * | 2022-01-24 | 2022-05-06 | 北京电信规划设计院有限公司 | 用于自定义宽带网络切片的方法 |
CN115941487A (zh) * | 2022-12-02 | 2023-04-07 | 中国联合网络通信集团有限公司 | 流量分配方法、装置、设备及介质 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070212071A1 (en) * | 2006-03-08 | 2007-09-13 | Huawei Tecnologies Co., Ltd. | System and Method for Allocating Bandwidth in Remote Equipment on a Passive Optical Network |
CN102045605A (zh) * | 2010-12-09 | 2011-05-04 | 北京邮电大学 | OFDM-PON系统中基于QoS的周期轮询动态带宽分配算法 |
CN108881967A (zh) * | 2018-08-01 | 2018-11-23 | 广发证券股份有限公司 | 一种基于机器学习的视频上传方法、装置及设备 |
CN109743215A (zh) * | 2019-03-05 | 2019-05-10 | 重庆邮电大学 | 一种多区域故障下基于灾难预测的蚁群优化虚拟网络映射方法 |
CN110234041A (zh) * | 2019-02-13 | 2019-09-13 | 孙武 | 一种光网络单元带宽需求的精确上报机制 |
CN111586502A (zh) * | 2020-03-26 | 2020-08-25 | 北京邮电大学 | 弹性光网络中的资源分配方法及系统 |
CN111741450A (zh) * | 2020-06-18 | 2020-10-02 | 中国电子科技集团公司第三十六研究所 | 网络流量预测方法、装置和电子设备 |
CN112970228A (zh) * | 2018-11-09 | 2021-06-15 | 华为技术有限公司 | 提供网络切片服务时具有冲突管理的性能保证方法和系统 |
CN113038302A (zh) * | 2019-12-25 | 2021-06-25 | 中国电信股份有限公司 | 流量预测方法及装置、计算机可存储介质 |
CN113115139A (zh) * | 2021-04-23 | 2021-07-13 | 北京智芯微电子科技有限公司 | 基于网络容器的光网络虚拟化系统及业务映射方法 |
-
2021
- 2021-07-28 CN CN202110857020.0A patent/CN113596632B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070212071A1 (en) * | 2006-03-08 | 2007-09-13 | Huawei Tecnologies Co., Ltd. | System and Method for Allocating Bandwidth in Remote Equipment on a Passive Optical Network |
CN102045605A (zh) * | 2010-12-09 | 2011-05-04 | 北京邮电大学 | OFDM-PON系统中基于QoS的周期轮询动态带宽分配算法 |
CN108881967A (zh) * | 2018-08-01 | 2018-11-23 | 广发证券股份有限公司 | 一种基于机器学习的视频上传方法、装置及设备 |
CN112970228A (zh) * | 2018-11-09 | 2021-06-15 | 华为技术有限公司 | 提供网络切片服务时具有冲突管理的性能保证方法和系统 |
CN110234041A (zh) * | 2019-02-13 | 2019-09-13 | 孙武 | 一种光网络单元带宽需求的精确上报机制 |
CN109743215A (zh) * | 2019-03-05 | 2019-05-10 | 重庆邮电大学 | 一种多区域故障下基于灾难预测的蚁群优化虚拟网络映射方法 |
CN113038302A (zh) * | 2019-12-25 | 2021-06-25 | 中国电信股份有限公司 | 流量预测方法及装置、计算机可存储介质 |
CN111586502A (zh) * | 2020-03-26 | 2020-08-25 | 北京邮电大学 | 弹性光网络中的资源分配方法及系统 |
CN111741450A (zh) * | 2020-06-18 | 2020-10-02 | 中国电子科技集团公司第三十六研究所 | 网络流量预测方法、装置和电子设备 |
CN113115139A (zh) * | 2021-04-23 | 2021-07-13 | 北京智芯微电子科技有限公司 | 基于网络容器的光网络虚拟化系统及业务映射方法 |
Non-Patent Citations (3)
Title |
---|
FU WANG;QINGHUA TIAN;QI ZHANG;FENG TIAN;HUAN CHANG;XIN XIANGJUN: "A Dynamic Bandwidth Allocation Scheme for Internet of Thing in Network-Slicing Passive Optical Networks", 《2020 IEEE COMPUTING, COMMUNICATIONS AND IOT APPLICATIONS (COMCOMAP)》 * |
刘明月,涂崎,汪洋,孟萨出拉,赵雄文: "智能电网中网络切片的资源分配算法研究", 《电力信息与通信技术》 * |
李志沛,王曦朔,刘博,张琦,忻向军: "一种适用于概率成形光传输系统的调制格式识别方法", 《北京邮电大学学报》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114448770A (zh) * | 2022-01-24 | 2022-05-06 | 北京电信规划设计院有限公司 | 用于自定义宽带网络切片的方法 |
CN114448770B (zh) * | 2022-01-24 | 2024-02-23 | 北京电信规划设计院有限公司 | 用于自定义宽带网络切片的方法 |
CN114423047A (zh) * | 2022-02-14 | 2022-04-29 | 国网电力科学研究院有限公司 | 一种网络带宽分配优化方法、系统、存储介质及计算设备 |
CN115941487A (zh) * | 2022-12-02 | 2023-04-07 | 中国联合网络通信集团有限公司 | 流量分配方法、装置、设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113596632B (zh) | 2022-05-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3537656B1 (en) | Network control method, apparatus and system, storage medium | |
CN113596632B (zh) | 一种无源光网络切片划分方法、装置及系统 | |
CN108965024A (zh) | 一种5g网络切片基于预测的虚拟网络功能调度方法 | |
CN102724103B (zh) | 代理服务器、分层次网络系统及分布式工作负载管理方法 | |
US10091675B2 (en) | System and method for estimating an effective bandwidth | |
US20150074679A1 (en) | Dynamic Scaling for Multi-Tiered Distributed Computing Systems | |
CN101695050A (zh) | 一种基于网络流量自适应预测的动态负载均衡方法 | |
CN106817499A (zh) | 一种话务资源调度方法及预测调度装置 | |
RU2677373C1 (ru) | Способ повышения качества передачи фрактального телекоммуникационного трафика | |
CN105933064A (zh) | 一种动态带宽分配方法及装置 | |
CN103825838B (zh) | 一种数据中心去带宽碎片化流调度方法 | |
CN114268537B (zh) | 面向确定性网络的网络切片生成及动态配置系统及方法 | |
CN109257304A (zh) | 一种带宽调整方法、装置、存储介质和网络设备 | |
WO2015154483A1 (zh) | 网络流量均衡的方法及超级控制器 | |
CN112015549A (zh) | 一种基于服务器集群的调度节点的选择抢占方法及系统 | |
CN114423020A (zh) | 一种LoRaWAN网络下行路由控制方法及系统 | |
CN117082008B (zh) | 虚拟弹性网络数据传输调度方法、计算机装置及存储介质 | |
KR20130060350A (ko) | Atca-기반 장비에서 통신 트래픽을 스케줄링하기 위한 방법 및 장치 | |
Cassandras et al. | Scheduling policies using marked/phantom slot algorithms | |
CN115441935B (zh) | 一种基于态势感知的任务网卫星资源动态调配装置 | |
Guo et al. | Delay-based packet-granular QoS provisioning for mixed traffic in industrial internet of things | |
EP3468122A1 (en) | Packet admission | |
Lebedenko et al. | Linear-quadratic model of optimal queue management on interface of telecommunication network router | |
RU2742038C1 (ru) | Способ динамического квазиоптимального распределения производительности при обработке фрактального трафика реального времени в системах с отказами | |
Kalafatidis et al. | Microservices-Adaptive Software-Defined Load Balancing for 5G and Beyond Ecosystems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |