CN114430380B - 切片容灾池分级方法、装置和设备 - Google Patents

切片容灾池分级方法、装置和设备 Download PDF

Info

Publication number
CN114430380B
CN114430380B CN202011105689.6A CN202011105689A CN114430380B CN 114430380 B CN114430380 B CN 114430380B CN 202011105689 A CN202011105689 A CN 202011105689A CN 114430380 B CN114430380 B CN 114430380B
Authority
CN
China
Prior art keywords
sla
disaster recovery
slicing
attention
classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011105689.6A
Other languages
English (en)
Other versions
CN114430380A (zh
Inventor
何宇
邢彪
陈维新
程佳鸣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Mobile Communications Group Co Ltd
China Mobile Group Zhejiang Co Ltd
Original Assignee
China Mobile Communications Group Co Ltd
China Mobile Group Zhejiang Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Mobile Communications Group Co Ltd, China Mobile Group Zhejiang Co Ltd filed Critical China Mobile Communications Group Co Ltd
Priority to CN202011105689.6A priority Critical patent/CN114430380B/zh
Publication of CN114430380A publication Critical patent/CN114430380A/zh
Application granted granted Critical
Publication of CN114430380B publication Critical patent/CN114430380B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/50Network service management, e.g. ensuring proper service fulfilment according to agreements
    • H04L41/5003Managing SLA; Interaction between SLA and QoS
    • H04L41/5009Determining service level performance parameters or violations of service level contracts, e.g. violations of agreed response time or mean time between failures [MTBF]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/06Management of faults, events, alarms or notifications
    • H04L41/0654Management of faults, events, alarms or notifications using network fault recovery
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/14Network analysis or design
    • H04L41/145Network analysis or design involving simulating, designing, planning or modelling of a network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/50Network service management, e.g. ensuring proper service fulfilment according to agreements
    • H04L41/5003Managing SLA; Interaction between SLA and QoS
    • H04L41/5019Ensuring fulfilment of SLA
    • H04L41/5022Ensuring fulfilment of SLA by giving priorities, e.g. assigning classes of service

Abstract

本发明实施例涉及通信技术领域,公开了一种切片容灾池分级方法、装置和设备。该方法包括:获取各切片应用场景的服务级别协议SLA需求范围特征;发起切片容灾池分级请求,所述分级请求中携带所述SLA需求范围特征;将所述SLA需求范围特征输入分级模型,得到SLA分级;上报所述SLA分级;根据所述SLA分级实施切片容灾池分级。本发明实施例为应用场景提供差异化、个性化的容灾需求。

Description

切片容灾池分级方法、装置和设备
技术领域
本发明实施例涉及通信技术领域,具体涉及一种切片容灾池分级方法、装置、设备和计算机可读存储介质。
背景技术
网络切片(Network Slice)是一种按需组网的方式,可以让运营商在统一的基础设施上分离出多个虚拟的端到端网络,每个网络切片从无线接入网、承载网再到核心网上进行逻辑隔离,以适配各种类型的应用。目前切片典型应用场景主要包括:增强移动宽带(Enhanced Mobile Broadband,eMBB)、大规模物联网(Massive MachineTypeCommunication,mMTC)、高可靠低时延通信(Ultra reliable and low latencycommunication,uRLLC)。
切片容灾池是用于当某个切片发生故障时,容灾池快速为其提供新的切片,以保障用户业务不中断。容灾切片能够提供的服务级别协议(Service Level Agreement,SLA)服务保障需要与原有切片越接近越好。
随着应用场景越来越丰富,现有的切片容灾池无法为越来越多的应用场景提供差异化、个性化的容灾需求。
发明内容
鉴于上述问题,本发明实施例提供了一种切片容灾池分级方法、装置、设备和计算机可读存储介质,用于解决现有技术中的切片容灾池无法为应用场景提供差异化、个性化的容灾需求的问题。
根据本发明实施例的一个方面,提供了一种切片容灾池分级方法,所述方法包括:
获取各切片应用场景的服务级别协议SLA需求范围特征;
发起切片容灾池分级请求,所述分级请求中携带所述SLA需求范围特征;
将所述SLA需求范围特征输入分级模型,得到SLA分级;
上报所述SLA分级;
根据所述SLA分级实施切片容灾池分级。
在一种可选的方式中,所述分级模型通过如下方法训练得到
获取训练样本集,所述训练样本集包括历史的各切片应用场景的服务级别协议SLA需求范围特征和对应于所述SLA需求范围特征的标记的切片容灾池的SLA分级;
将所述训练样本集输入至注意力编解码神经网络,通过所述注意力编解码神经网络的编码器学习所述SLA需求范围特征;
通过所述注意力编解码神经网络的解码器对学习到的所述SLA需求范围特征进行注意力聚合,生成SLA分级;
根据所述标记的切片容灾池的SLA分级以及生成的所述SLA分级优化所述注意力编解码神经网络的权重值,收敛后得到训练完成的分级模型。
在一种可选的方式中,所述训练样本集中每一条训练数据包括n个切片应用场景的SLA需求范围特征和对应于所述SLA需求范围特征的标记的切片容灾池的m个SLA分级。
在一种可选的方式中,所述将所述训练样本集输入至注意力编解码神经网络之前,所述方法还包括:
将所述训练样本集进行文本清洗和文本序列化。
在一种可选的方式中,所述通过所述注意力编解码神经网络的编码器学习所述SLA需求范围特征,包括:
将所述n个切片应用场景的SLA需求范围特征分别输入n个长短期记忆LSTM层,编码成n个固定长度的上下文向量。
在一种可选的方式中,所述通过所述注意力编解码神经网络的解码器对学习到的所述SLA需求范围特征进行注意力聚合,生成SLA分级,包括:
将所述n个固定长度的上下文向量合并为1个固定长度的上下文向量h;
LSTM神经元通过第一激活函数对所述固定长度的上下文向量h进行注意力解码;
Dense全连接神经元通过第二激活函数输出所述SLA分级至目标函数。
在一种可选的方式中,所述根据所述标记的切片容灾池的SLA分级以及生成的所述SLA分级优化所述注意力编解码神经网络的权重值,包括:
比较所述标记的切片容灾池的SLA分级与生成的所述SLA分级,计算目标函数;
利用梯度下降逐渐找到使所述目标函数最小的权重值。
根据本发明实施例的另一方面,提供了一种切片容灾池分级装置,所述装置包括:
获取模块,用于获取各切片应用场景的服务级别协议SLA需求范围特征;
请求模块,用于发起切片容灾池分级请求,所述分级请求中携带所述SLA需求范围特征;
分级模块,用于将所述SLA需求范围特征输入分级模型,得到SLA分级;
上报模块,用于上报所述SLA分级;
实施模块,用于根据所述SLA分级实施切片容灾池分级。
根据本发明实施例的另一方面,提供了一种切片容灾池分级设备,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行如上所述的切片容灾池分级方法的操作。
根据本发明实施例的另一方面,提供了一种计算机可读存储介质,所述存储介质中存储有至少一可执行指令,所述可执行指令在切片容灾池分级设备上运行时,使得所述切片容灾池分级设备执行如上所述的切片容灾池分级方法的操作。
本发明实施例通过发送携带SLA需求范围特征的分级请求,将所述SLA需求范围特征输入分级模型,得到SLA分级,使得每个切片容灾池的SLA分级能同时满足多个应用场景的相似SLA需求,从而可实现对切片容灾池的精细化分级管理,快速为各种切片应用场景提供差异化、个性化的容灾需求。
上述说明仅是本发明实施例技术方案的概述,为了能够更清楚了解本发明实施例的技术手段,而可依照说明书的内容予以实施,并且为了让本发明实施例的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
附图仅用于示出实施方式,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1是本发明实施例的注意力编解码神经网络的结构示意图;
图2是本发明实施例提供的切片容灾池分级模型训练方法的流程图;
图3是本发明实施例中编解码神经网络模型结构示意图;
图4是本发明实施例提供的切片容灾池分级方法的流程图;
图5是本发明实施例提供的切片容灾池分级模型训练装置的结构示意图;
图6是本发明实施例提供的切片容灾池分级设备实施例的结构示意图。
具体实施方式
下面将参照附图更详细地描述本发明的示例性实施例。虽然附图中显示了本发明的示例性实施例,然而应当理解,可以以各种形式实现本发明而不应被这里阐述的实施例所限制。
网络切片是端到端的逻辑功能和其所需的物理或虚拟资源集合,包括接入网、传输网、核心网等。网络切片可认为是5G网络中的虚拟化“专网”;网络切片是基于网络功能虚拟化(Network Functions Virtualization,NFV)的统一基础设施构建,实现低成本高效运营。网络切片技术可以实现通信网络的逻辑隔离,允许在每个网络切片中配置和重用网络元件及功能以满足特定的行业应用需求。切片管理架构主要由通信服务管理功能(Communication Service Management Function,CSMF)、切片管理功能(Network SliceManagement Function,NSMF)、子切片管理功能(Network Slice Subnet ManagementFunction,NSSMF)组成。一个网络切片所构成的逻辑网络是通过该网络切片实例(NetworkSlice Instance,NSI)来实现,网络切片实例是一个真实运行的逻辑网络,能满足一定网络特性或服务需求,通过实例化网络切片的各个网络功能和对应的资源来构成一个网络切片。其中:
CSMF:完成用户业务通信服务的需求订购和处理,负责将运营商/第三方客户的通信服务需求转化为对网络切片的需求,并通过和NSMF之间的接口向NSMF发送对网络切片的需求,如创建、终结、修改网络切片实例请求等。
NSMF:负责接收CSMF发送的网络切片需求,对网络切片实例的生命周期、性能、故障等进行管理,编排网络切片实例的组成,分解网络切片实例的需求为各网络切片子网实例或网络功能的需求,向各NSSMF发送网络切片子网实例管理请求。
NSSMF:接收从NSMF下发的网络切片子网部署需求,对网络切片子网实例进行管理,编排网络切片子网实例的组成,将网络切片子网的SLA需求映射为网络服务的QoS(Quality of Service,服务质量)需求,向欧洲电信标准化协会(EuropeanTelecommunications Standards Institute,ETSI)NFV域的NFVO系统下发网络服务的部署请求。
SLA通常包括安全性/私密性、可见性/可管理性、可靠性/可用性,以及具体的业务特征(业务类型、空口需求、定制化网络功能等)和相应的性能指标(时延、吞吐率、丢包率、掉话率等)。具体可包括:时延(例如小于5ms)、吞吐率、丢包率、掉话率、可靠性(例如99.999%)、服务范围、用户规模、隔离性(例如强、中、弱)、安全性(例如强、中、弱)、接入方式、max TP/site(例如5Gbps)等。
相关技术中,切片容灾池并无分级方案。未分级的切片容灾池无法为越来越多的应用场景提供差异化、个性化的容灾需求。
本发明实施例提供了一种基于编解码神经网络的5G切片容灾池场景化分级方法。目前切片典型应用场景主要包括:
1)增强移动宽带eMBB:作为移动通信最基本的方式,包括连续广域和局部热点高容量覆盖,满足移动性、连续性、高速率和高密度的需求;
2)大规模物联网mMTC:具有小数据包、低功耗、低成本、海量链接的特点,要求支持百万/平方公里连接数的密度;
3)高可靠低时延通信uRLLC:为用户提供毫秒级的端到端时延和接近100%的业务可靠性保证。
本发明实施例中的切片应用场景为以上三种典型类型场景的基础上的细分场景,例如可分为车联网、工业控制、智能制造、智能交通物流、环境监测、智能抄表、智能农业、视频直播和分享、虚拟现实、随时随地云存取、高速移动上网等细分场景。
本发明实施例首先从CSMF中获取历史各切片应用场景的SLA需求范围和对应的人工标记的切片容灾池SLA分级信息,每一条训练数据包含n个切片应用场景的SLA需求范围和对应分级后的m个切片容灾池SLA指标,作为模型总数据集,并对数据集进行文本清洗和文本序列化。
利用注意力编解码神经网络可按需聚焦于输入序列中的相关部分的特点,通过编码器学习各切片应用场景的SLA需求范围特征,在传统编解码神经网络基础上对编码器进行改进,针对每个切片应用场景SLA范围进行单独编码,通过注意力解码器对学习到的各切片应用场景SLA需求范围特征进行注意力聚合,生成各切片容灾池的SLA分级,使得每个切片容灾池的SLA能同时满足多个应用场景的相似SLA需求。
最终,向NSMF上报分级后的每个切片容灾池的SLA范围指标,NSMF进行切片容灾池分级实施。从而实现对切片容灾池的精细化分级管理,快速为各种切片应用场景提供差异化、个性化的容灾需求。
编解码神经网络是一种组织循环神经网络,主要用于解决含多个输入或多个输出的序列预测问题,包含编码器和解码器。编码器负责将输入的序列进行逐字编码,编码成一个固定长度的向量,即上下文向量(Context Vector);解码器负责读取编码器输出的上下文向量,并生成输出序列。
而注意力(attention)机制解决了编解码器结构的局限,首先它将从编码器获得的更加丰富的上下文提供给解码器,编码器会传递更多的数据给解码器,相比传统模型中编码器只传递编码阶段的最后一个隐藏状态,注意力机制模型中编码器传递所有的隐藏状态给解码器。同时注意力提供这样一种学习机制,当预测每一个时步上输出的序列时,解码器可以学习在更加丰富的上下文中需要聚焦于何处。注意力网络会给每一个输入分配一个注意力权重,如果该输入与当前操作越相关则注意力权重越接近于1,反之则越接近于0,这些注意力权重在每一个输出步骤都会重新计算。
如图1所示,为本发明实施例的注意力编解码神经网络的结构示意图。其中:
Tx:输入时间步骤的个数;
Ty:输出时间步骤的个数;
RNN代表循环神经网络(Recurrent Neural Network);
注意力i,也即attentioni:在输出时间步骤i的注意力权重;
计算流程为:
1)计算注意力权重attentioni,权重长度为Tx,所有权重之和为1:
attentioni=softmax(Dense(x,yi-1))
2)计算注意力权重attentioni和输入xi的乘积之和,得到的结果成为在输出时间步骤i的上下文ci(context):
3)将所得的上下文ci输入到长短期记忆神经层中:
yi=LSTM(ci)
本发明实施例的神经元均采用长短期记忆。长短期记忆(Long Short-TermMemory,LSTM)是一种特殊的循环神经网络类型,即同一个神经网络被重复使用。LSTM可以学习长期依赖信息,通过控制缓存中的值保存的时间,可以记住长期的信息,适合进行长序列的学习。每个神经元有四个输入和一个输出,每个神经元内有一个Cell存放记忆的数值,每一个LSTM神经元中含有三个门控:遗忘门、输入门、输出门。长短期记忆神经网络在长序列的学习上具有较好的效果。
图2示出了本发明实施例提供的切片容灾池分级模型训练方法的流程图,如图2所示,该方法包括以下步骤:
步骤210:获取训练样本集,所述训练样本集包括历史的各切片应用场景的服务级别协议SLA需求范围特征和对应于所述SLA需求范围特征的标记的切片容灾池的SLA分级;
其中,所述训练样本集中每一条训练数据包括n个切片应用场景的SLA需求范围特征和对应于所述SLA需求范围特征的标记的切片容灾池的m个SLA分级。
步骤220:将所述训练样本集输入至注意力编解码神经网络,通过所述注意力编解码神经网络的编码器学习所述SLA需求范围特征;
所述将所述训练样本集输入至注意力编解码神经网络之前,所述方法还包括对训练样本集(也即数据集)进行预处理,包括将所述训练样本集进行文本清洗和文本序列化。进行数据预处理以及分级的模块定义为切片容灾池场景化分级器。其中,进行数据预处理的为数据预处理模块,进行分级的为切片容灾池场景化分级模块。
在一些实施例中,首先从CSMF中获取历史的各切片应用场景的SLA需求范围特征和对应的人工标记的切片容灾池的SLA分级信息,每一条训练数据包含n个切片应用场景的SLA需求范围特征和对应分级后的m个切片容灾池的SLA分级信息,作为模型总数据集,并对该数据集进行文本清洗和文本序列化。其中,各切片应用场景的SLA需求范围特征主要包括场景所需的连接数范围、最低时延范围、最大带宽范围、丢包率范围、安全要求和隔离要求范围、用户容量范围等。第i个切片应用场景的SLA需求范围特征文本序列可表示为{S1 i、S2 i、S3 i、…、SL i}。分级后的各切片容灾池的SLA分级信息包括该容灾池的连接数、最低时延、最大带宽、丢包率、安全要求和隔离要求、用户容量等,可表示为{R1、R2、R3、…、RM}。
数据预处理的过程进一步包括:
1.对历史的各切片应用场景的SLA需求范围特征集、以及对应的分级后的各切片容灾池的SLA分级信息集进行文本清洗并将文本序列化。保留所有标点符号,若文本为中文则对文本进行分词、若文本为英文则将字母统一为小写,同时将每个词索引化(tokenize),使得每一段文本被转化成一段索引数字,并且对未达到最大文本长度的序列补零。
2.取各切片应用场景的SLA需求范围特征集的最长长度L作为其索引序列长度,取其词典大小为scene_vocab_size,取对应的分级后的各切片容灾池的SLA分级信息集的最长长度M作为其索引序列长度,取其词典大小为recovery_vocab_size。
3.将总数据集划分为训练集和测试集,例如总数据集的80%划为训练集,总数据集的20%划为测试集。训练集用于训练模型,测试集用于测试模型。
在对数据进行预处理后,进行模型搭建及离线训练。
例如,首先搭建基于长短期记忆神经元的编解码神经网络,搭建好的模型如图3所示。本发明实施例在传统编解码神经网络基础上对编码器进行改进,针对每个切片应用场景的SLA需求范围特征进行单独编码,其中编码器用于将n个切片应用场景的SLA需求范围特征分别输入n个LSTM层,编码成n个固定长度的上下文向量,将n个上下文向量经过合并层合并为1个上下文向量h后输入解码器,注意力解码器对学习到的切片应用场景的SLA需求范围的上下文向量特征进行注意力聚合,生成分级后的各切片容灾池SLA,再与正确的切片容灾池SLA分级结果比较来计算目标函数,利用梯度下降逐渐找到使目标函数最小的权重值。
因此,步骤220中所述通过所述注意力编解码神经网络的编码器学习所述SLA需求范围特征,包括:将所述n个切片应用场景的SLA需求范围特征分别输入n个长短期记忆LSTM层,编码成n个固定长度的上下文向量。
下面对编码器的具体结构及功能进行描述:
第一层为输入层:分别输入索引化后的n个各切片应用场景的SLA需求范围特征,每条信息序列长度为L,因此该层输出数据的形状为(None,L);
第二层为嵌入层(embedding):利用词嵌入(word embedding)将每个词转化为向量,输入数据维度为scene_vocab_size,输出设置为需要将词转换为128维度的空间向量,输入序列长度为L,因此该层输出数据的形状为(None,L,128)。该层的作用是对输入的词进行向量映射,将每个词的索引转换为128维的固定形状向量;
第三层为LSTM编码层:包含n个并列的LSTM层,每层含128个LSTM神经元,激活函数设置为“relu”,该层输出数据的形状为(None,L,128),编码成n个固定长度的上下文向量。
步骤230:通过所述注意力编解码神经网络的解码器对学习到的所述SLA需求范围特征进行注意力聚合,生成SLA分级;
本步骤通过注意力解码器对学习到的各切片应用场景的SLA需求范围特征进行注意力聚合,生成各切片容灾池的SLA分级,使得每个切片容灾池的SLA分级能同时满足多个应用场景的相似SLA需求。
其中,在一些实施例中,步骤230进一步包括:
步骤a1:将所述n个固定长度的上下文向量合并为1个固定长度的上下文向量h;
步骤a2:LSTM神经元通过第一激活函数对所述固定长度的上下文向量h进行注意力解码;
步骤a3:Dense全连接神经元通过第二激活函数输出所述SLA分级至目标函数。
下面对编码器的具体结构及功能进行描述:
第四层(整个注意力编解码神经网络的第四层)为合并层(concatenate),将n个固定长度的上下文向量按列维度进行拼接合并为1个固定长度的上下文向量h;
第五层为注意力LSTM解码层:含256个LSTM神经元,激活函数设置为“relu”。该层输出数据的形状为(None,L,256);
第六层为全连接(Dense)层(输出层):包含全连接神经元个数为recovery_vocab_size,激活函数设置为“softmax”,将softmax输出结果送入多类交叉熵损失函数。该层输出数据的形状为(None,recovery_vocab_size)。
步骤240:根据所述标记的切片容灾池的SLA分级以及生成的所述SLA分级优化所述注意力编解码神经网络的权重值,收敛后得到训练完成的分级模型。
步骤220和步骤230完成编码、解码后,再将生成的SLA分级与已标注好的正确的切片容灾池的SLA分级比较,来计算目标函数,利用梯度下降逐渐找到使目标函数最小的权重值。最后将训练收敛后的模型权重作为切片容灾池场景化分级器。
因此在一些实施例中,步骤240中所述根据所述标记的切片容灾池的SLA分级以及生成的所述SLA分级优化所述注意力编解码神经网络的权重值,包括:
步骤b1:比较所述标记的切片容灾池的SLA分级与生成的所述SLA分级,计算目标函数;
步骤b2:利用梯度下降逐渐找到使所述目标函数最小的权重值。
其中一些实施例的具体的模型训练过程为:将训练回合数设置为1000(epochs=1000),批处理大小设置为100(batch_size=100),选择categorical crossentropy多类交叉熵作为损失函数即目标函数(loss='categorical_crossentropy'),梯度下降优化算法选择adam,化器,用于改善传统梯度下降的学习速度(optimizer='adam')。神经网络通过梯度下降,可以找到使目标函数最小的最优权重值,神经网络通过训练会自主学习到权重值。模型收敛后导出该模型的权重。
本发明实施例利用注意力编解码神经网络可按需聚焦于输入序列中的相关部分的特点,通过编码器学习各切片应用场景的SLA需求范围特征,针对每个切片应用场景SLA需求范围特征进行单独编码,通过注意力解码器对学习到的各切片应用场景SLA需求范围特征进行注意力聚合,生成各切片容灾池的SLA分级,使得每个切片容灾池的SLA分级能同时满足多个应用场景的相似SLA需求,从而可实现对切片容灾池的精细化分级管理,快速为各种切片应用场景提供差异化、个性化的容灾需求。
以上为切片容灾池分级模型训练方法的实施例,下面将训练好的切片容灾池分级模型应用到切片容灾池分级中的方法实施例进行说明。
图4示出了本发明实施例提供的切片容灾池分级方法的流程图,如图4所示,该方法包括以下步骤:
步骤410:获取各切片应用场景的服务级别协议SLA需求范围特征;
本步骤由CSMF获取现有各切片应用场景的SLA需求范围特征。
步骤420:发起切片容灾池分级请求,所述分级请求中携带所述SLA需求范围特征;
本步骤由CSMF向切片容灾池场景化分级器发起切片容灾池分级请求,请求中携带各切片应用场景的SLA需求范围特征。
步骤430:将所述SLA需求范围特征输入根据上述切片容灾池分级模型训练方法实施例得到的分级模型,得到SLA分级;
其中,切片容灾池场景化分级器接收到切片容灾池分级请求后,由数据预处理模块首先对SLA需求范围特征进行数据预处理。将各切片应用场景的SLA需求范围特征经过数据预处理模块转换为整数序列后,输入至基于深度学习的切片容灾池场景化分级模块,由切片容灾池场景化分级模块计算得到SLA分级。
步骤440:上报所述SLA分级;
本步骤由切片容灾池场景化分级器向NSMF上报分级后的每个切片容灾池的SLA范围指标。
步骤450:根据所述SLA分级实施切片容灾池分级。
本步骤由NSMF进行切片容灾池分级实施。
本发明实施例通过发送携带SLA需求范围特征的分级请求,将所述SLA需求范围特征输入分级模型,得到SLA分级,使得每个切片容灾池的SLA分级能同时满足多个应用场景的相似SLA需求,从而可实现对切片容灾池的精细化分级管理,快速为各种切片应用场景提供差异化、个性化的容灾需求。
此外,本发明实施例利用训练好的切片容灾池分级模型对各各切片应用场景的切片容灾池的分级。由于切片容灾池分级模型训练时利用了注意力编解码神经网络可按需聚焦于输入序列中的相关部分的特点,通过编码器学习各切片应用场景的SLA需求范围特征,针对每个切片应用场景SLA需求范围特征进行单独编码,通过注意力解码器对学习到的各切片应用场景SLA需求范围特征进行注意力聚合,生成各切片容灾池的SLA分级,使得每个切片容灾池的SLA分级能同时满足多个应用场景的相似SLA需求,从而可实现对切片容灾池的精细化分级管理,快速为各种切片应用场景提供差异化、个性化的容灾需求。
图5示出了本发明实施例提供的切片容灾池分级装置的结构示意图。如图5所示,该装置300包括:
获取模块310,用于获取各切片应用场景的服务级别协议SLA需求范围特征;
请求模块320,用于发起切片容灾池分级请求,所述分级请求中携带所述SLA需求范围特征;
分级模块330,用于将所述SLA需求范围特征输入分级模型,得到SLA分级;
上报模块340,用于上报所述SLA分级;
实施模块350,用于根据所述SLA分级实施切片容灾池分级。
在一种可选的方式中,所述分级模型通过如下方法训练得到:
获取训练样本集,所述训练样本集包括历史的各切片应用场景的服务级别协议SLA需求范围特征和对应于所述SLA需求范围特征的标记的切片容灾池的SLA分级;
将所述训练样本集输入至注意力编解码神经网络,通过所述注意力编解码神经网络的编码器学习所述SLA需求范围特征;
通过所述注意力编解码神经网络的解码器对学习到的所述SLA需求范围特征进行注意力聚合,生成SLA分级;
根据所述标记的切片容灾池的SLA分级以及生成的所述SLA分级优化所述注意力编解码神经网络的权重值,收敛后得到训练完成的分级模型。
在一种可选的方式中,所述训练样本集中每一条训练数据包括n个切片应用场景的SLA需求范围特征和对应于所述SLA需求范围特征的标记的切片容灾池的m个SLA分级。
在一种可选的方式中,训练过程还包括:
将所述训练样本集进行文本清洗和文本序列化。
在一种可选的方式中,训练过程还包括:将所述n个切片应用场景的SLA需求范围特征分别输入n个长短期记忆LSTM层,编码成n个固定长度的上下文向量。
在一种可选的方式中,训练过程还包括:
将所述n个固定长度的上下文向量合并为1个固定长度的上下文向量h;
LSTM神经元通过第一激活函数对所述固定长度的上下文向量h进行注意力解码;
Dense全连接神经元通过第二激活函数输出所述SLA分级至目标函数。
在一种可选的方式中,训练过程还包括:
比较所述标记的切片容灾池的SLA分级与生成的所述SLA分级,计算目标函数;
利用梯度下降逐渐找到使所述目标函数最小的权重值。
本发明实施例通过发送携带SLA需求范围特征的分级请求,将所述SLA需求范围特征输入分级模型,得到SLA分级,使得每个切片容灾池的SLA分级能同时满足多个应用场景的相似SLA需求,从而可实现对切片容灾池的精细化分级管理,快速为各种切片应用场景提供差异化、个性化的容灾需求。
图6示出了本发明实施例提供的切片容灾池分级设备实施例的结构示意图,本发明具体实施例并不对切片容灾池分级设备的具体实现做限定。
如图6所示,该切片容灾池分级设备可以包括:处理器(processor)402、通信接口(Communications Interface)404、存储器(memory)406、以及通信总线408。
其中:处理器402、通信接口404、以及存储器406通过通信总线408完成相互间的通信。通信接口404,用于与其它设备比如客户端或其它服务器等的网元通信。处理器402,用于执行程序410,具体可以执行上述切片容灾池分级方法实施例中的相关步骤。
具体地,程序410可以包括程序代码,该程序代码包括计算机可执行指令。
处理器402可能是中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路。切片容灾池分级设备包括的一个或多个处理器,可以是同一类型的处理器,如一个或多个CPU;也可以是不同类型的处理器,如一个或多个CPU以及一个或多个ASIC。
存储器406,用于存放程序410。存储器406可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
本发明实施例提供了一种计算机可读存储介质,所述存储介质存储有至少一可执行指令,该可执行指令在切片容灾池分级设备/装置上运行时,使得所述切片容灾池分级设备/装置执行上述任意方法实施例中的切片容灾池分级方法。
本发明实施例提供一种切片容灾池分级装置,用于执行上述切片容灾池分级方法。
本发明实施例提供了一种计算机程序,所述计算机程序可被处理器调用使切片容灾池分级设备执行上述任意方法实施例中的切片容灾池分级方法。
本发明实施例提供了一种计算机程序产品,计算机程序产品包括存储在计算机可读存储介质上的计算机程序,计算机程序包括程序指令,当程序指令在计算机上运行时,使得所述计算机执行上述任意方法实施例中的切片容灾池分级方法。
在此提供的算法或显示不与任何特定计算机、虚拟系统或者其它设备固有相关。各种通用系统也可以与基于在此的示教一起使用。根据上面的描述,构造这类系统所要求的结构是显而易见的。此外,本发明实施例也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本发明的内容,并且上面对特定语言所做的描述是为了披露本发明的最佳实施方式。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本发明并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明实施例的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。
本领域技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。上述实施例中的步骤,除有特殊说明外,不应理解为对执行顺序的限定。

Claims (5)

1.一种切片容灾池分级方法,其特征在于,所述方法包括:
获取各切片应用场景的服务级别协议SLA需求范围特征;
发起切片容灾池分级请求,所述分级请求中携带所述SLA需求范围特征;
将所述SLA需求范围特征输入分级模型,得到SLA分级;所述分级模型通过如下方法训练得到:获取训练样本集,所述训练样本集包括历史的各切片应用场景的服务级别协议SLA需求范围特征和对应于所述SLA需求范围特征的标记的切片容灾池的SLA分级;将所述训练样本集输入至注意力编解码神经网络,通过所述注意力编解码神经网络的编码器学习所述SLA需求范围特征;通过所述注意力编解码神经网络的解码器对学习到的所述SLA需求范围特征进行注意力聚合,生成SLA分级;根据所述标记的切片容灾池的SLA分级以及生成的所述SLA分级优化所述注意力编解码神经网络的权重值,收敛后得到训练完成的分级模型;所述训练样本集中每一条训练数据包括n个切片应用场景的SLA需求范围特征和对应于所述SLA需求范围特征的标记的切片容灾池的m个SLA分级;
所述通过所述注意力编解码神经网络的编码器学习所述SLA需求范围特征,包括:将所述n个切片应用场景的SLA需求范围特征分别输入n个长短期记忆LSTM层,编码成n个固定长度的上下文向量;
所述通过所述注意力编解码神经网络的解码器对学习到的所述SLA需求范围特征进行注意力聚合,生成SLA分级,包括:将所述n个固定长度的上下文向量合并为1个固定长度的上下文向量h;LSTM神经元通过第一激活函数对所述固定长度的上下文向量h进行注意力解码;Dense全连接神经元通过第二激活函数输出所述SLA分级至目标函数;
所述根据所述标记的切片容灾池的SLA分级以及生成的所述SLA分级优化所述注意力编解码神经网络的权重值,包括:比较所述标记的切片容灾池的SLA分级与生成的所述SLA分级,计算目标函数;利用梯度下降逐渐找到使所述目标函数最小的权重值;
上报所述SLA分级;
根据所述SLA分级实施切片容灾池分级。
2.如权利要求1所述的方法,其特征在于,所述将所述训练样本集输入至注意力编解码神经网络之前,所述方法还包括:
将所述训练样本集进行文本清洗和文本序列化。
3.一种切片容灾池分级装置,其特征在于,所述装置包括:
获取模块,用于获取各切片应用场景的服务级别协议SLA需求范围特征;
请求模块,用于发起切片容灾池分级请求,所述分级请求中携带所述SLA需求范围特征;
分级模块,用于将所述SLA需求范围特征输入分级模型,得到SLA分级;所述分级模型通过如下方法训练得到:获取训练样本集,所述训练样本集包括历史的各切片应用场景的服务级别协议SLA需求范围特征和对应于所述SLA需求范围特征的标记的切片容灾池的SLA分级;将所述训练样本集输入至注意力编解码神经网络,通过所述注意力编解码神经网络的编码器学习所述SLA需求范围特征;通过所述注意力编解码神经网络的解码器对学习到的所述SLA需求范围特征进行注意力聚合,生成SLA分级;根据所述标记的切片容灾池的SLA分级以及生成的所述SLA分级优化所述注意力编解码神经网络的权重值,收敛后得到训练完成的分级模型;所述训练样本集中每一条训练数据包括n个切片应用场景的SLA需求范围特征和对应于所述SLA需求范围特征的标记的切片容灾池的m个SLA分级;
所述通过所述注意力编解码神经网络的编码器学习所述SLA需求范围特征,包括:将所述n个切片应用场景的SLA需求范围特征分别输入n个长短期记忆LSTM层,编码成n个固定长度的上下文向量;
所述通过所述注意力编解码神经网络的解码器对学习到的所述SLA需求范围特征进行注意力聚合,生成SLA分级,包括:将所述n个固定长度的上下文向量合并为1个固定长度的上下文向量h;LSTM神经元通过第一激活函数对所述固定长度的上下文向量h进行注意力解码;Dense全连接神经元通过第二激活函数输出所述SLA分级至目标函数;
所述根据所述标记的切片容灾池的SLA分级以及生成的所述SLA分级优化所述注意力编解码神经网络的权重值,包括:比较所述标记的切片容灾池的SLA分级与生成的所述SLA分级,计算目标函数;利用梯度下降逐渐找到使所述目标函数最小的权重值;
上报模块,用于上报所述SLA分级;
实施模块,用于根据所述SLA分级实施切片容灾池分级。
4.一种切片容灾池分级设备,其特征在于,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行如权利要求1-2任意一项所述的切片容灾池分级方法的操作。
5.一种计算机可读存储介质,其特征在于,所述存储介质中存储有至少一可执行指令,所述可执行指令在切片容灾池分级设备上运行时,使得所述切片容灾池分级设备执行如权利要求1-2任意一项所述的切片容灾池分级方法的操作。
CN202011105689.6A 2020-10-15 2020-10-15 切片容灾池分级方法、装置和设备 Active CN114430380B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011105689.6A CN114430380B (zh) 2020-10-15 2020-10-15 切片容灾池分级方法、装置和设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011105689.6A CN114430380B (zh) 2020-10-15 2020-10-15 切片容灾池分级方法、装置和设备

Publications (2)

Publication Number Publication Date
CN114430380A CN114430380A (zh) 2022-05-03
CN114430380B true CN114430380B (zh) 2023-11-24

Family

ID=81309402

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011105689.6A Active CN114430380B (zh) 2020-10-15 2020-10-15 切片容灾池分级方法、装置和设备

Country Status (1)

Country Link
CN (1) CN114430380B (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3396997A1 (en) * 2017-04-28 2018-10-31 NEC Laboratories Europe GmbH Method and system for network slice allocation
CN109196828A (zh) * 2016-06-16 2019-01-11 华为技术有限公司 一种网络切片的资源管理方法和装置
CN110120879A (zh) * 2018-02-06 2019-08-13 华为技术有限公司 一种应用服务水平协议的保障方法、设备及系统
CN110708188A (zh) * 2019-09-19 2020-01-17 中国联合网络通信集团有限公司 一种基于sla的网络切片的创建方法和装置
WO2020063694A1 (zh) * 2018-09-28 2020-04-02 华为技术有限公司 一种切片信息处理方法及装置
CN111031116A (zh) * 2019-12-02 2020-04-17 嘉兴学院 一种云服务合成方法、云服务器和云服务合成系统
CN111148165A (zh) * 2018-11-06 2020-05-12 华为技术有限公司 一种处理网络切片中用户接入的方法及装置
WO2020151803A1 (en) * 2019-01-21 2020-07-30 Telefonaktiebolaget Lm Ericsson (Publ) Technique for implementing a resource reallocation in a network slicing based system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11290333B2 (en) * 2016-09-29 2022-03-29 Telefonaktiebolaget Lm Ericsson (Publ) Quality of service differentiation between network slices
US10979314B2 (en) * 2019-01-24 2021-04-13 Vmware, Inc. Dynamic inter-cloud placement of virtual network functions for a slice

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109196828A (zh) * 2016-06-16 2019-01-11 华为技术有限公司 一种网络切片的资源管理方法和装置
EP3396997A1 (en) * 2017-04-28 2018-10-31 NEC Laboratories Europe GmbH Method and system for network slice allocation
CN110120879A (zh) * 2018-02-06 2019-08-13 华为技术有限公司 一种应用服务水平协议的保障方法、设备及系统
WO2020063694A1 (zh) * 2018-09-28 2020-04-02 华为技术有限公司 一种切片信息处理方法及装置
CN111148165A (zh) * 2018-11-06 2020-05-12 华为技术有限公司 一种处理网络切片中用户接入的方法及装置
WO2020151803A1 (en) * 2019-01-21 2020-07-30 Telefonaktiebolaget Lm Ericsson (Publ) Technique for implementing a resource reallocation in a network slicing based system
CN110708188A (zh) * 2019-09-19 2020-01-17 中国联合网络通信集团有限公司 一种基于sla的网络切片的创建方法和装置
CN111031116A (zh) * 2019-12-02 2020-04-17 嘉兴学院 一种云服务合成方法、云服务器和云服务合成系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
5G移动网络切片技术实现方案;杨磊;闫宁;;中国新通信(09);全文 *
LTE无线网络虚拟化中切片调整策略;庞晓丹等;万方数据库;全文 *
RL-NSB: Reinforcement Learning-Based 5G Network Slice Broker;Vincenzo Sciancalepore等;IEEE/ACM Transactions on Networking;全文 *

Also Published As

Publication number Publication date
CN114430380A (zh) 2022-05-03

Similar Documents

Publication Publication Date Title
US10070328B2 (en) Predictive network traffic management
US20200218937A1 (en) Generative adversarial network employed for decentralized and confidential ai training
CN111819580A (zh) 用于密集图像预测任务的神经架构搜索
US20210012187A1 (en) Adaptation of Deep Learning Models to Resource Constrained Edge Devices
Lee et al. Performance analysis of local exit for distributed deep neural networks over cloud and edge computing
CN114820871B (zh) 字体生成方法、模型的训练方法、装置、设备和介质
JP2023549277A (ja) Paasクラウド環境における演算子の成功の蓋然性を予測する為の機械学習モデル
Liu et al. Deep generative model and its applications in efficient wireless network management: A tutorial and case study
CN113825165B (zh) 基于时间图网络的5g切片网络拥塞预警方法及装置
Gao et al. A deep learning framework with spatial-temporal attention mechanism for cellular traffic prediction
CN114430380B (zh) 切片容灾池分级方法、装置和设备
US11201789B1 (en) Coordinated device grouping in fog computing
Sun et al. Semantic knowledge base-enabled zero-shot multi-level feature transmission optimization
CN113541986B (zh) 5g切片的故障预测方法、装置及计算设备
CN113348691A (zh) 用于网络管理中的故障预测的方法和装置
US20220138537A1 (en) Probabilistic nonlinear relationships cross-multi time series and external factors for improved multivariate time series modeling and forecasting
Zhang et al. A distributed network qoe measurement framework for smart networks in smart cities
CN113541980B (zh) 网络切片故障根因定位方法、装置、计算设备及存储介质
Miyazawa et al. Supervised learning based automatic adaptation of virtualized resource selection policy
Li et al. Cellular traffic prediction via a deep multi-reservoir regression learning network for multi-access edge computing
CN113825161B (zh) 基于深度自编码神经网络的5g切片异常检测方法及装置
CN113806498B (zh) 网络切片实例运行状况的在线问答方法及装置
Soud et al. Moderately multispike return neural network for SDN accurate traffic awareness in effective 5G network slicing
CN116090504A (zh) 图神经网络模型训练方法及装置、分类方法、计算设备
CN114143163B (zh) 基于图注意力网络的切片误告警识别方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant