CN114401194A - 一种支持网络功能虚拟化的动态扩展方法、平台及计算机 - Google Patents
一种支持网络功能虚拟化的动态扩展方法、平台及计算机 Download PDFInfo
- Publication number
- CN114401194A CN114401194A CN202111641009.7A CN202111641009A CN114401194A CN 114401194 A CN114401194 A CN 114401194A CN 202111641009 A CN202111641009 A CN 202111641009A CN 114401194 A CN114401194 A CN 114401194A
- Authority
- CN
- China
- Prior art keywords
- vnf instance
- original
- data flow
- time sequence
- vnf
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/08—Configuration management of networks or network elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/455—Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
- G06F9/45533—Hypervisors; Virtual machine monitors
- G06F9/45558—Hypervisor-specific management and integration aspects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/455—Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
- G06F9/45533—Hypervisors; Virtual machine monitors
- G06F9/45558—Hypervisor-specific management and integration aspects
- G06F2009/45595—Network integration; Enabling network access in virtual machine instances
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/50—Reducing energy consumption in communication networks in wire-line communication networks, e.g. low power modes or reduced link rate
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
本发明涉及一种支持网络功能虚拟化的动态扩展方法,包括S1、基于网络功能虚拟化架构,创建原始VNF实例;S2、采用基于注意力机制的CNN‑LSTM方法预测原始VNF实例的时序数据流的流量大小,从而预测未来原始VNF实例的流量负载;S3、通过监测原始VNF实例的流量负载,触发VNF缩放事件;S4、监听VNF缩放事件,当VNF缩放事件触发时,创建新VNF实例;S5、根据时序数据流的流量大小指定待迁移的时序数据流;S6、将指定的时序数据流以及与指定的时序数据流相对应的数据流状态迁移至新VNF实例;本发明实现了在VNF实例的数据流迁移过程中的网络数据流级别的SLA保证和高效的资源利用。
Description
技术领域
本发明涉及网络功能虚拟化和网络资源调度技术领域,具体涉及一种支持网络功能虚拟化的动态扩展方法、平台及计算机。
背景技术
网络功能虚拟化(Network Function Virtualization,缩写为NFV)是将网络功能和专有硬件设备分离,并将这些功能进行软件实现并在虚拟机上运行的软件架构。NFV旨在用运行在通用服务器上的虚拟软件实例取代硬件的网络流量处理设备。它不需要网络运营商购买专门的硬件设备来执行网络服务功能,而是将需要的网络服务分解成虚拟网络功能(Virtual Network Functions,缩写为VNFs)的集合,之后以软件的形式运行在通用物理服务器上,这有效的降低了设备成本和管理运营成本。
由于网络流量负载随时间不断变化,且网络流量的突发性非常普遍,而流突发会影响服务等级协议(Service Level Agreements,缩写为SLAs);因此有效地处理流量的突发负载有助于保证SLAs。
现有技术仅考虑迁移数据流来支持NFV实例的扩展并保证整体流量负载的SLAs。但是,一方面仅考虑迁移数据流来支持NFV实例的扩展方式并不能确保单个数据流的SLAs,而且迁移小数据流将显著损害其SLAs,并不能根据单个数据流情况进行流迁移,无法及时的处理数据流的突发;另一方面仅考虑迁移数据流来支持NFV实例的扩展方式在支持VNF实例动态扩展时,通常无法进行高效的基于负载的数据流状态迁移。
现有的状态迁移技术主要有Split/Merge和OpenNF等框架。这些框架会自动跨VNF传输状态,而且迁移所有流的状态需要数百毫秒才能完成,这导致控制平台在产生了大量开销的同时也降低了相关VNF应用的性能。此外,移动所有流需要控制器更新路由表中的许多条目,这会在控制器和支持有限流量表大小的交换机上造成大量操作开销。
发明内容
为了解决现有技术仅考虑迁移数据流来支持NFV实例的扩展方式并不能确保单个数据流的SLAs,而且迁移小数据流将显著损害其SLAs,并不能根据单个数据流情况进行流迁移,无法及时的处理数据流的突发;另一方面仅考虑迁移数据流来支持NFV实例的扩展方式在支持VNF实例动态扩展时,通常无法进行高效地基于负载的数据流状态迁移等技术问题,本发明提供一种支持网络功能虚拟化的动态扩展方法、平台及计算机。
本发明解决上述技术问题的技术方案如下:
一种支持网络功能虚拟化的动态扩展方法,包括如下步骤,
S1、基于网络功能虚拟化架构,创建原始VNF实例;
S2、根据所述原始VNF实例的流量负载触发VNF缩放事件;
S3、监听所述VNF缩放事件,当所述VNF缩放事件触发时,创建新VNF实例;
S4、采用基于注意力机制的CNN-LSTM方法预测所述原始VNF实例的时序数据流的未来流量大小,并根据所述原始VNF实例的时序数据流的未来流量大小预测所述原始VNF实例的未来流量负载;
S5、根据所述原始VNF实例的时序数据流的未来流量负载,在所述原始VNF实例中指定待迁移的时序数据流;
S6、将所述原始VNF实例中待迁移的时序数据流以及与待迁移的所述时序数据流相对应的数据流状态迁移至所述新VNF实例。
本发明的有益效果是:
本发明通过采用基于注意力机制的CNN-LSTM方法预测所述原始VNF实例的时序数据流的流量大小,从而预测未来所述原始VNF实例的流量负载,能够根据所预测的流量负载,提前做好时序数据流以及对应的数据流状态的迁移准备,提前指定需要迁移的时序数据流以及对应数据流状态;当VNF缩放事件触发时,能够将指定的时序数据流以及对应数据流状态迁移至新VNF实例,能够高效地实现数据流的迁移;同时,本发明通过将需要迁移的时序数据流以及其对应的数据流状态一并迁移,保证了单个数据流的SLAs;本发明解决了网络功能虚拟化平台上基于网络流量负载进行动态VNF实例有状态缩放,以实现网络数据流级别的SLAs保证和高的资源利用率。
在上述技术方案的基础上,本发明还可以做如下改进。
进一步,根据所述原始VNF实例的流量负载触发VNF缩放事件,具体包括如下步骤,
S10、建立环形缓冲器以及队列监视器,并为所述队列监视器设置队列大小阀值;
S20、将所述原始VNF实例的时序数据流直接存入所述环形缓冲器,得到数据流缓存队列;
S30、利用所述队列监视器监视所述数据流缓存队列大小,当所述数据流缓存队列大小超过所述队列监视器的所述队列大小阀值时,触发所述VNF缩放事件。
采用上述进一步方案的有益效果是,通过设置实时基于队列的缓存大小检测机制,当环形缓冲器内的数据流大小超过队列监视器的队列大小阀值的时候,自动判定其原始VNF实例中的数据流会出现流量突发情况,从而触发VNF缩放事件。本发明可以快速检测负载突发事件,同时防止消息通信过程中的通信消息的丢失。
进一步,采用基于注意力机制的CNN-LSTM方法预测所述原始VNF实例的时序数据流的流量大小的方法包括如下步骤,
S101、建立基于注意力机制的CNN-LSTM模型;
S102、采集原始VNF实例的时序数据流,并对所述原始VNF实例的时序数据流的带宽时间序列进行预处理,得到预处理序列数据;
S103、将所述预处理序列数据输入至所述CNN-LSTM模型中;
S104、利用所述预处理序列数据训练所述CNN-LSTM模型,得到CNN-LSTM训练模型;
S105、将所述原始VNF实例的时序数据流输入所述CNN-LSTM训练模型,得到预测未来流量带宽的时间序列的预测结果;
S106、根据所述CNN-LSTM训练模型的预测结果来计算所述原始VNF实例在未来流量带宽的时间序列下的数据流量大小。
采用上述进一步方案的有益效果是,通过基于注意力机制的CNN-LSTM方法预测所述原始VNF实例的时序数据流的流量大小,能够根据预测未来流量带宽的时间序列以及在该时间序列下的流量大小,从而预测出可能出现流量突变的带宽的时间序列。根据预测结果能够提前在可能出现流量突变的带宽的时间序列之前准备数据流迁移,能够提高基于负载的数据流状态迁移效率。
进一步,在所述原始VNF实例中指定待迁移的时序数据流的方法具体为,采用模拟退火算法在所述原始VNF实例中指定待迁移的时序数据流。
采用上述进一步方案的有益效果是,由于模拟退火算法基于Monte-Carlo迭代求解策略的一种随机寻优算法,其出发点是基于物理中固体物质的退火过程与一般组合优化问题之间的相似性。模拟退火算法是一种通用的优化算法,理论上算法具有概率的全局优化性能,是通过赋予搜索过程一种时变且最终趋于零的概率突跳性,从而可有效避免陷入局部极小并最终趋于全局最优的串行结构的优化算法;本发明通过采用模拟退火算法指定待迁移的时序数据流,能够高效地计算出最优的时序数据流迁移时序。
基于上述一种支持网络功能虚拟化的动态扩展方法,本发明还提供一种支持网络功能虚拟化的动态扩展平台。
一种支持网络功能虚拟化的动态扩展平台,包括以下模块,
原始VNF实例创建模块,其用于基于网络功能虚拟化架构,创建原始VNF实例;
VNF缩放事件触发模块,其用于根据所述原始VNF实例的流量负载触发VNF缩放事件;
VNF缩放事件监听及新VNF实例创建模块,其用于监听所述VNF缩放事件,当所述VNF缩放事件触发时,创建新VNF实例;
未来流量负载预测模块,其用于采用基于注意力机制的CNN-LSTM方法预测所述原始VNF实例的时序数据流的未来流量大小,并根据所述原始VNF实例的时序数据流的未来流量大小预测所述原始VNF实例的未来流量负载;
待迁移时序数据流指定模块,其用于根据所述原始VNF实例的时序数据流的未来流量负载,在所述原始VNF实例中指定待迁移的时序数据流;
迁移模块,其用于将所述原始VNF实例中待迁移的时序数据流以及与待迁移的所述时序数据流相对应的数据流状态迁移至所述新VNF实例。
进一步,所述VNF缩放事件触发模块具体用于建立环形缓冲器以及队列监视器,并为所述队列监视器设置队列大小阀值;将所述原始VNF实例的时序数据流直接存入所述环形缓冲器,得到数据流缓存队列;利用所述队列监视器监视所述数据流缓存队列大小,当所述数据流缓存队列大小超过所述队列监视器的所述队列大小阀值时,触发所述VNF缩放事件。
进一步,所述未来流量负载预测模块具体用于,建立基于注意力机制的CNN-LSTM模型;采集原始VNF实例的时序数据流,并对所述原始VNF实例的时序数据流的带宽时间序列进行预处理,得到预处理序列数据;将所述预处理序列数据输入至所述CNN-LSTM模型中;利用所述预处理序列数据训练所述CNN-LSTM模型,得到CNN-LSTM训练模型;将所述原始VNF实例的时序数据流输入所述CNN-LSTM训练模型,得到预测未来流量带宽的时间序列的预测结果;根据所述CNN-LSTM训练模型的预测结果来计算所述原始VNF实例在未来流量带宽的时间序列下的数据流量大小,并根据所述原始VNF实例在未来流量带宽的时间序列下的数据流量大小预测所述原始VNF实例的未来流量负载。
进一步,所述待迁移时序数据流指定模块具体用于,根据所述原始VNF实例的时序数据流的未来流量负载,采用模拟退火算法在所述原始VNF实例中指定待迁移的时序数据流。
进一步,所述迁移模块具体用于,将所述原始VNF实例中待迁移的时序数据流以及与待迁移的所述时序数据流相对应的数据流状态迁移至所述新VNF实例,并修改对应的交换机中的流表。
基于上述一种支持网络功能虚拟化的动态扩展方法,本发明还提供一种计算机。
一种计算机,包括处理器和存储器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时实现上述支持网络功能虚拟化的动态扩展方法。
附图说明
图1为本发明的流程框图;
图2为本发明架构及应用示意图;
图3为本发明中负载监视器的结构示意图;
图4为本发明中基于注意力机制的CNN-LSTM的模型结构示意图。
具体实施方式
以下结合附图对本发明的原理和特征进行描述,所举实例只用于解释本发明,并非用于限定本发明的范围。
本专利中的英文缩写具体说明如下:
NFV:全称为Network Function Virtualization,其中文名称为网络功能虚拟化,是将网络功能和专有硬件设备分离,并将这些功能进行软件实现并在虚拟机上运行的软件架构。
SLAs:英文全称为Service Level Agreements,中文名称为服务等级协议。
CNN-LSTM:卷积神经网络与长短期记忆神经网络相结合构成的混合神经网络;其中,LSTM是递归神经网络(RNN)的一种变体,它可以捕获时间序列在时间上的依赖关系并在时间序列预测上取得了一系列的成果。
实施例1
如图1所示,本实施例提供一种支持网络功能虚拟化的动态扩展方法,包括如下步骤,
S1、基于网络功能虚拟化架构,创建原始VNF实例;
S2、根据所述原始VNF实例的流量负载触发VNF缩放事件;
S3、监听所述VNF缩放事件,当所述VNF缩放事件触发时,创建新VNF实例;
S4、采用基于注意力机制的CNN-LSTM方法预测所述原始VNF实例的时序数据流的未来流量大小,并根据所述原始VNF实例的时序数据流的未来流量大小预测所述原始VNF实例的未来流量负载;
S5、根据所述原始VNF实例的时序数据流的未来流量负载,在所述原始VNF实例中指定待迁移的时序数据流;
S6、将所述原始VNF实例中待迁移的时序数据流以及与待迁移的所述时序数据流相对应的数据流状态迁移至所述新VNF实例。
本发明通过设置实时基于队列的缓存大小检测机制,当环形缓冲器内的数据流大小超过队列监视器的队列大小阀值的时候,自动判定其原始VNF实例中的数据流会出现流量突发情况,从而触发VNF缩放事件。以实现快速检测负载突发事件,同时防止消息通信过程中的通信消息的丢失。
具体地,根据所述原始VNF实例的流量负载触发VNF缩放事件包括如下步骤,
S10、建立环形缓冲器以及队列监视器,并为所述队列监视器设置队列大小阀值;
S20、将所述原始VNF实例的时序数据流直接存入所述环形缓冲器,得到数据流缓存队列;
S30、利用所述队列监视器监视所述数据流缓存队列大小,当所述数据流缓存队列大小超过所述队列监视器的所述队列大小阀值时,触发所述VNF缩放事件。
如图3所示,平台和流量发送器通过环形缓冲区进行通信,流量发送器直接将数据包放入环形缓冲器,为每个VNF数据包缓存队列设置了合理的阈值K,以根据缓存队列长度是否超过阈值准确触发VNF缩放;并借用基于优先级流控机制中设置缓存队列大小的想法,通过实时基于队列的缓存大小检测机制,可以快速检测负载突发事件,同时防止负载消息通信过程中的通信消息的丢失。这里的流量发送器可以是上游的交换机或者上游路由器或者上游电脑等硬件通信装置。
通过基于注意力机制的CNN-LSTM方法预测所述原始VNF实例的时序数据流的流量大小,能够根据预测未来流量带宽的时间序列以及在该时间序列下的流量大小,从而预测出可能出现流量突变的带宽的时间序列。根据预测结果能够提前在可能出现流量突变的带宽的时间序列之前准备数据流迁移,能够提高基于负载的数据流状态迁移效率。
具体地,采用基于注意力机制的CNN-LSTM方法预测所述原始VNF实例的时序数据流的流量大小的方法包括如下步骤,
S101、建立基于注意力机制的CNN-LSTM模型;
S102、采集原始VNF实例的时序数据流,并对所述时序数据流的带宽时间序列进行预处理,得到预处理序列数据;
S103、将所述预处理序列数据输入至所述CNN-LSTM模型中;
S104、利用所述预处理序列数据训练所述CNN-LSTM模型,得到CNN-LSTM训练模型;
S105、将原始VNF实例的时序数据流输入所述CNN-LSTM训练模型,得到预测未来流量带宽的时间序列的预测结果;
S106、根据所述CNN-LSTM训练模型的预测结果来计算所述原始VNF实例在未来流量带宽的时间序列下的数据流量大小。
如图4所示,先将每个流的带宽时间序列作为输入进行预处理;然后该模型使用卷积神经网即CNN和注意机制来选择重要特征;其次,该模型以CNN和注意层的输出为输入,采用LSTM即长短期记忆人工神经网络模块来预测未来流量带宽的时间序列。最后,通过带宽预测结果来计算未来流量带宽的时间序列下的数据流量大小,根据未来流量带宽的时间序列下的数据流量大小,判定在未来哪些流量带宽的时间点或者时间段可能会出现数据流量突变,并在可能出现数据流量突变之前,提前准备数据流量迁移,已提高迁移效率,防止已经出现了数据流量突变之后带来的网络拥堵时,再进行数据迁移时,需要同时流量突变以及创建VNF实例以及数据流量迁移所带来的计算开销;因此,本发明能够通过CNN和注意机制来选择重要特征,通过长短期记忆人工神经网络模块来预测未来流量带宽的时间序列,以提高数据迁移效率。
具体地,在所述原始VNF实例中指定待迁移的时序数据流的方法具体为,采用模拟退火算法在所述原始VNF实例中指定待迁移的时序数据流。
实施例2
如图2所示,基于实施例1,本实施例提供一种支持网络功能虚拟化的动态扩展平台,包括以下模块,
原始VNF实例创建模块,其用于基于网络功能虚拟化架构,创建原始VNF实例;
VNF缩放事件触发模块,其用于根据所述原始VNF实例的流量负载触发VNF缩放事件;
VNF缩放事件监听及新VNF实例创建模块,其用于监听所述VNF缩放事件,当所述VNF缩放事件触发时,创建新VNF实例;
未来流量负载预测模块,其用于采用基于注意力机制的CNN-LSTM方法预测所述原始VNF实例的时序数据流的未来流量大小,并根据所述原始VNF实例的时序数据流的未来流量大小预测所述原始VNF实例的未来流量负载;
待迁移时序数据流指定模块,其用于根据所述原始VNF实例的时序数据流的未来流量负载,在所述原始VNF实例中指定待迁移的时序数据流;
迁移模块,其用于将所述原始VNF实例中待迁移的时序数据流以及与待迁移的所述时序数据流相对应的数据流状态迁移至所述新VNF实例。
所述VNF缩放事件触发模块具体用于建立环形缓冲器以及队列监视器,并为所述队列监视器设置队列大小阀值;将所述原始VNF实例的时序数据流直接存入所述环形缓冲器,得到数据流缓存队列;利用所述队列监视器监视所述数据流缓存队列大小,当所述数据流缓存队列大小超过所述队列监视器的所述队列大小阀值时,触发所述VNF缩放事件。
如图3所示,所述负载监视器包括环形缓冲器以及设置了队列大小阀值的队列监视器,所述环形缓冲器用于存储数据流,并将所述数据流整合成数据流缓存队列;所述队列监视器用于比较所述数据流缓存队列大小与所述列监视器的队列大小阀值,当所述数据流缓存队列大小大于所述列监视器的队列大小阀值,所述队列监视器触发所述VNF缩放事件。
平台和流量发送器通过环形缓冲区进行通信,流量发送器直接将数据包放入环形缓冲器,为每个VNF数据包缓存队列设置了合理的阈值K,以根据缓存队列长度是否超过阈值准确触发VNF缩放;并借用基于优先级流控机制中设置缓存队列大小的想法,通过实时基于队列的缓存大小检测机制,可以快速检测负载突发事件,同时防止负载消息通信过程中的通信消息的丢失。这里的流量发送器可以是上游的交换机或者上游路由器或者上游电脑等硬件通信装置。
其中,环形缓冲器英文名称为RingBuffer,也称作圆形队列,循环缓冲区,圆形缓冲区,是一种用于表示一个固定尺寸、头尾相连的缓冲区的数据结构,适合缓存数据流。
如图4所示,为了准确预测流量大小,本发明采用了基于注意网络来预测流量带宽的时间序列架构的数据流大小预测器。注意力网络是一种基于人的行为而设计的,当观察物体的时候,人类通常关注观察对象的特定区域,并随着时间的推移而改变关注点的计算模型。该模型包括输入层、CNN和注意力层、LSTM层和预测层。由于没有先验信息可供注意网络指定权重,因此采用无监督模型,其中模型的输入是来自流量带宽时间序列的所有特征。
具体地,先将每个流的带宽时间序列作为输入进行预处理;然后该模型使用卷积神经网即CNN和注意机制来选择重要特征;其次,该模型以CNN和注意层的输出为输入,采用LSTM即长短期记忆人工神经网络模块来预测未来流量带宽的时间序列。最后,通过带宽预测结果来计算未来流量带宽的时间序列下的数据流量大小,根据未来流量带宽的时间序列下的数据流量大小,判定在未来哪些流量带宽的时间点或者时间段可能会出现数据流量突变,并在可能出现数据流量突变之前,提前准备数据流量迁移,已提高迁移效率,防止已经出现了数据流量突变之后带来的网络拥堵时,再进行数据迁移时,需要同时流量突变以及创建VNF实例以及数据流量迁移所带来的计算开销;因此,本发明能够通过CNN和注意机制来选择重要特征,通过长短期记忆人工神经网络模块来预测未来流量带宽的时间序列,以提高数据迁移效率。
所述未来流量负载预测模块具体用于,建立基于注意力机制的CNN-LSTM模型;采集原始VNF实例的时序数据流,并对所述原始VNF实例的时序数据流的带宽时间序列进行预处理,得到预处理序列数据;将所述预处理序列数据输入至所述CNN-LSTM模型中;利用所述预处理序列数据训练所述CNN-LSTM模型,得到CNN-LSTM训练模型;将所述原始VNF实例的时序数据流输入所述CNN-LSTM训练模型,得到预测未来流量带宽的时间序列的预测结果;根据所述CNN-LSTM训练模型的预测结果来计算所述原始VNF实例在未来流量带宽的时间序列下的数据流量大小,并根据所述原始VNF实例在未来流量带宽的时间序列下的数据流量大小预测所述原始VNF实例的未来流量负载。
所述待迁移时序数据流指定模块具体用于,根据所述原始VNF实例的时序数据流的未来流量负载,采用模拟退火算法在所述原始VNF实例中指定待迁移的时序数据流。
所述迁移模块具体用于,将所述原始VNF实例中待迁移的时序数据流以及与待迁移的所述时序数据流相对应的数据流状态迁移至所述新VNF实例,并修改对应的交换机中的流表。
所述流量与状态管理器包括VFN状态管理器以及流量管理器,所述状态管理器用于将待迁移的所述时序数据流以及与待迁移的所述时序数据流相对应的数据流状态迁移至所述新VNF实例;所述流量管理器用于修改对应的交换机中的流表。
具体地,基于模拟退火算法构建的VFN缩放调度器,能够实现数据流SLA保证和高资源利用率。该VFN缩放调度器负责监听来自负载监视器的缩放触发事件,并从数据流大小预测器收集预测流大小信息。然后,该VFN缩放调度器基于调度算法决定将哪些流及其状态迁移到新的VNF实例,并调用流量及状态管理器进行数据流以及与数据流相对应的数据流状态一并进行数据迁移。
流状态管理器用于接收有关流和状态迁移的命令,并迁移缩放调度模块指定的流和状态,修改相应交换机中的流表,并调用OpenNF状态迁移接口以迭代方式将这些流的状态移动到新VNF实例。在状态迁移期间,原始VNF实例停止为尚未处理的数据流流建立新状态。所有原始VNF实例中,原始VNF实例接收到的没有任何匹配数据状态的数据包将转发到新VNF实例,新VNF实例将正常处理这些数据包,以实现数据流迁移操作。
其中,OpenNF相关介绍如下:网络功能即Network Function,NF通过一系列方式对数据报进行检测和修改。例如Intrusion Detection System、负载均衡器等。NF在网络安全、网络测量等领域扮演着至关重要的角色。近年来,网络功能虚拟化通过在通用服务器上运行基于软件的NF取代基于专用硬件的NF,显著降低成本;同时,软件定义网络即SDN可以引导流量通过NF以执行策略和管理网络。通过SDN与NFV的结合,可以实现通过动态调度流量均衡NF负载的应用,如NF负载均衡和NF迁入迁出。OpenNF正是Aaron Gember-Jacobson等人在SIGCOMM 2014会议上提出用于协调控制NF状态和路由策略的全新架构。
实施例3
基于实施例1,本实施例提供一种计算机,包括处理器和存储器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时实现实施例1所提供的支持网络功能虚拟化的动态扩展方法。
本发明与OpenNF框架实现的数据流迁移效果相比,本发明将停机时间减少至少81.8%,最高可达90%。本发明节省至少59.3的缓存使用,最高可达90.7%。因此,本发明可以非常有效地实现NFV平台上VNF实例的动态缩放。
本发明基于队列的网络负载检测器,用于实时监控队列大小和检测网络负载突发。当触发VNF缩放时,基于注意力机制的CNN-LSTM的计算模型预测单个数据流的带宽时间序列进而计算单个数据的流的大小;然后,根据VNF缩放调度器根据数据流大小、数据流的SLA网络要求以及状态迁移开销决定需要迁移的数据流;最后,使用流量与状态迁移管理器完成指定的数据流流以及与指定的数据流流相对应的数据流状态的迁移工作;实现了在VNF实例的数据流迁移过程中的网络数据流级别的SLA保证和较高的资源利用率。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的构思和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种支持网络功能虚拟化的动态扩展方法,其特征在于:包括如下步骤,
S1、基于网络功能虚拟化架构,创建原始VNF实例;
S2、根据所述原始VNF实例的流量负载触发VNF缩放事件;
S3、监听所述VNF缩放事件,当所述VNF缩放事件触发时,创建新VNF实例;
S4、采用基于注意力机制的CNN-LSTM方法预测所述原始VNF实例的时序数据流的未来流量大小,并根据所述原始VNF实例的时序数据流的未来流量大小预测所述原始VNF实例的未来流量负载;
S5、根据所述原始VNF实例的时序数据流的未来流量负载,在所述原始VNF实例中指定待迁移的时序数据流;
S6、将所述原始VNF实例中待迁移的时序数据流以及与待迁移的所述时序数据流相对应的数据流状态迁移至所述新VNF实例。
2.根据权利要求1所述的支持网络功能虚拟化的动态扩展方法,其特征在于:根据所述原始VNF实例的流量负载触发VNF缩放事件,具体包括如下步骤,
S10、建立环形缓冲器以及队列监视器,并为所述队列监视器设置队列大小阀值;
S20、将所述原始VNF实例的时序数据流直接存入所述环形缓冲器,得到数据流缓存队列;
S30、利用所述队列监视器监视所述数据流缓存队列大小,当所述数据流缓存队列大小超过所述队列监视器的所述队列大小阀值时,触发所述VNF缩放事件。
3.根据权利要求1所述的支持网络功能虚拟化的动态扩展方法,其特征在于:采用基于注意力机制的CNN-LSTM方法预测所述原始VNF实例的时序数据流的流量大小的方法包括如下步骤,
S101、建立基于注意力机制的CNN-LSTM模型;
S102、采集原始VNF实例的时序数据流,并对所述原始VNF实例的时序数据流的带宽时间序列进行预处理,得到预处理序列数据;
S103、将所述预处理序列数据输入至所述CNN-LSTM模型中;
S104、利用所述预处理序列数据训练所述CNN-LSTM模型,得到CNN-LSTM训练模型;
S105、将所述原始VNF实例的时序数据流输入所述CNN-LSTM训练模型,得到预测未来流量带宽的时间序列的预测结果;
S106、根据所述CNN-LSTM训练模型的预测结果来计算所述原始VNF实例在未来流量带宽的时间序列下的数据流量大小。
4.根据权利要求1所述的支持网络功能虚拟化的动态扩展方法,其特征在于:在所述原始VNF实例中指定待迁移的时序数据流的方法具体为,采用模拟退火算法在所述原始VNF实例中指定待迁移的时序数据流。
5.一种支持网络功能虚拟化的动态扩展平台,其特征在于:包括以下模块,
原始VNF实例创建模块,其用于基于网络功能虚拟化架构,创建原始VNF实例;
VNF缩放事件触发模块,其用于根据所述原始VNF实例的流量负载触发VNF缩放事件;
VNF缩放事件监听及新VNF实例创建模块,其用于监听所述VNF缩放事件,当所述VNF缩放事件触发时,创建新VNF实例;
未来流量负载预测模块,其用于采用基于注意力机制的CNN-LSTM方法预测所述原始VNF实例的时序数据流的未来流量大小,并根据所述原始VNF实例的时序数据流的未来流量大小预测所述原始VNF实例的未来流量负载;
待迁移时序数据流指定模块,其用于根据所述原始VNF实例的时序数据流的未来流量负载,在所述原始VNF实例中指定待迁移的时序数据流;
迁移模块,其用于将所述原始VNF实例中待迁移的时序数据流以及与待迁移的所述时序数据流相对应的数据流状态迁移至所述新VNF实例。
6.根据权利要求5所述的支持网络功能虚拟化的动态扩展平台,其特征在于:所述VNF缩放事件触发模块具体用于建立环形缓冲器以及队列监视器,并为所述队列监视器设置队列大小阀值;将所述原始VNF实例的时序数据流直接存入所述环形缓冲器,得到数据流缓存队列;利用所述队列监视器监视所述数据流缓存队列大小,当所述数据流缓存队列大小超过所述队列监视器的所述队列大小阀值时,触发所述VNF缩放事件。
7.根据权利要求5所述的支持网络功能虚拟化的动态扩展平台,其特征在于:所述未来流量负载预测模块具体用于,建立基于注意力机制的CNN-LSTM模型;采集原始VNF实例的时序数据流,并对所述原始VNF实例的时序数据流的带宽时间序列进行预处理,得到预处理序列数据;将所述预处理序列数据输入至所述CNN-LSTM模型中;利用所述预处理序列数据训练所述CNN-LSTM模型,得到CNN-LSTM训练模型;将所述原始VNF实例的时序数据流输入所述CNN-LSTM训练模型,得到预测未来流量带宽的时间序列的预测结果;根据所述CNN-LSTM训练模型的预测结果来计算所述原始VNF实例在未来流量带宽的时间序列下的数据流量大小,并根据所述原始VNF实例在未来流量带宽的时间序列下的数据流量大小预测所述原始VNF实例的未来流量负载。
8.根据权利要求5所述的支持网络功能虚拟化的动态扩展平台,其特征在于:所述待迁移时序数据流指定模块具体用于,根据所述原始VNF实例的时序数据流的未来流量负载,采用模拟退火算法在所述原始VNF实例中指定待迁移的时序数据流。
9.根据权利要求5所述的支持网络功能虚拟化的动态扩展平台,其特征在于:所述迁移模块具体用于,将所述原始VNF实例中待迁移的时序数据流以及与待迁移的所述时序数据流相对应的数据流状态迁移至所述新VNF实例,并修改对应的交换机中的流表。
10.一种计算机,其特征在于:包括处理器和存储器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至4任一项所述的支持网络功能虚拟化的动态扩展方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111641009.7A CN114401194B (zh) | 2021-12-29 | 2021-12-29 | 一种支持网络功能虚拟化的动态扩展方法、平台及计算机 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111641009.7A CN114401194B (zh) | 2021-12-29 | 2021-12-29 | 一种支持网络功能虚拟化的动态扩展方法、平台及计算机 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114401194A true CN114401194A (zh) | 2022-04-26 |
CN114401194B CN114401194B (zh) | 2023-08-01 |
Family
ID=81228744
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111641009.7A Active CN114401194B (zh) | 2021-12-29 | 2021-12-29 | 一种支持网络功能虚拟化的动态扩展方法、平台及计算机 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114401194B (zh) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170238171A1 (en) * | 2014-11-03 | 2017-08-17 | Huawei Technologies Co., Ltd. | Method, Apparatus, and System for Migrating Virtual Network Function Instance |
CN108540405A (zh) * | 2017-12-18 | 2018-09-14 | 清华大学 | 网络资源迁移方法及装置 |
CN108829494A (zh) * | 2018-06-25 | 2018-11-16 | 杭州谐云科技有限公司 | 基于负载预测的容器云平台智能资源优化方法 |
CN110275758A (zh) * | 2019-05-09 | 2019-09-24 | 重庆邮电大学 | 一种虚拟网络功能智能迁移方法 |
US20200167610A1 (en) * | 2018-11-23 | 2020-05-28 | POSTECH Research and Business Development Foundation | Method of predicting demand of virtual network function resources to which machine learning is applied |
CN112199153A (zh) * | 2020-09-25 | 2021-01-08 | 国网河北省电力有限公司信息通信分公司 | 一种虚拟网络功能vnf实例部署方法及装置 |
CN112437012A (zh) * | 2020-10-10 | 2021-03-02 | 网络通信与安全紫金山实验室 | 流量调度方法、vnf集群缩扩容方法以及相关装置 |
WO2021126033A1 (en) * | 2019-12-20 | 2021-06-24 | Telefonaktiebolaget Lm Ericsson (Publ) | Migration of vnfs to vims |
US20210191747A1 (en) * | 2017-12-29 | 2021-06-24 | Nokia Technologies Oy | Virtualized network functions |
CN113114722A (zh) * | 2021-03-17 | 2021-07-13 | 重庆邮电大学 | 一种基于边缘网络的虚拟网络功能迁移方法 |
-
2021
- 2021-12-29 CN CN202111641009.7A patent/CN114401194B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170238171A1 (en) * | 2014-11-03 | 2017-08-17 | Huawei Technologies Co., Ltd. | Method, Apparatus, and System for Migrating Virtual Network Function Instance |
CN108540405A (zh) * | 2017-12-18 | 2018-09-14 | 清华大学 | 网络资源迁移方法及装置 |
US20210191747A1 (en) * | 2017-12-29 | 2021-06-24 | Nokia Technologies Oy | Virtualized network functions |
CN108829494A (zh) * | 2018-06-25 | 2018-11-16 | 杭州谐云科技有限公司 | 基于负载预测的容器云平台智能资源优化方法 |
US20200167610A1 (en) * | 2018-11-23 | 2020-05-28 | POSTECH Research and Business Development Foundation | Method of predicting demand of virtual network function resources to which machine learning is applied |
CN110275758A (zh) * | 2019-05-09 | 2019-09-24 | 重庆邮电大学 | 一种虚拟网络功能智能迁移方法 |
WO2021126033A1 (en) * | 2019-12-20 | 2021-06-24 | Telefonaktiebolaget Lm Ericsson (Publ) | Migration of vnfs to vims |
CN112199153A (zh) * | 2020-09-25 | 2021-01-08 | 国网河北省电力有限公司信息通信分公司 | 一种虚拟网络功能vnf实例部署方法及装置 |
CN112437012A (zh) * | 2020-10-10 | 2021-03-02 | 网络通信与安全紫金山实验室 | 流量调度方法、vnf集群缩扩容方法以及相关装置 |
CN113114722A (zh) * | 2021-03-17 | 2021-07-13 | 重庆邮电大学 | 一种基于边缘网络的虚拟网络功能迁移方法 |
Non-Patent Citations (3)
Title |
---|
孙士清;彭建华;游伟;李英乐;: "基于在线实例配置的服务功能链部署方法", 计算机工程, no. 12 * |
朱晓荣;王一忠;: "虚拟网络功能迁移研究综述", 南京邮电大学学报(自然科学版), no. 01 * |
柴华: "网络功能虚拟化中服务链的部署及缩扩容机制", 中国优秀硕士学位论文全文数据库信息科技辑 * |
Also Published As
Publication number | Publication date |
---|---|
CN114401194B (zh) | 2023-08-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103401794B (zh) | 一种面向大规模应用的软件定义网络控制优化方法 | |
CN109002031B (zh) | 一种应用于监测系统设备故障诊断及智能预警的方法 | |
US9270527B2 (en) | Methods, systems, and computer readable media for enabling real-time guarantees in publish-subscribe middleware using dynamically reconfigurable networks | |
CN101571813B (zh) | 一种多机集群中主从调度方法 | |
EP2661020A2 (en) | Adaptive monitoring of telecommunications networks | |
CN107615792B (zh) | 用于mtc事件的管理方法与系统 | |
EP3958508A1 (en) | Data processing method and device, storage medium and electronic device | |
CN112003763B (zh) | 网络链路的监测方法、监测装置、监测设备及存储介质 | |
US20200004607A1 (en) | Event ingestion management | |
US20150263985A1 (en) | Systems and methods for intelligent workload routing | |
CN111181850B (zh) | 数据包泛洪抑制方法、装置和设备及计算机存储介质 | |
Lopez et al. | An evaluation of a virtual network function for real-time threat detection using stream processing | |
Chao et al. | R-MStorm: A resilient mobile stream processing system for dynamic edge networks | |
Mai et al. | In-network intelligence control: Toward a self-driving networking architecture | |
CN109194590A (zh) | 支持网内智能的网络交换系统 | |
CN105207856A (zh) | 一种基于sdn虚拟交换机的负载均衡的系统及方法 | |
CN108039956A (zh) | 应用监控方法、系统和计算机可读存储介质 | |
CN114401194A (zh) | 一种支持网络功能虚拟化的动态扩展方法、平台及计算机 | |
CN111897634A (zh) | 算子的运行方法及装置、存储介质、电子装置 | |
Ali et al. | Probabilistic normed load monitoring in large scale distributed systems using mobile agents | |
Zhang et al. | Software defined security architecture with deep learning-based network anomaly detection module | |
CN112214303A (zh) | Kubernetes集群自动缩放系统 | |
CN105049365A (zh) | 一种多核多线程入侵检测设备的自适应调频节能方法 | |
Wei et al. | Research on using dynamic thread pool to improve the performance of VPN gateway | |
CN116248473A (zh) | 一种信息处理方法、装置及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |