CN113259145A - 网络切片的端到端组网方法、组网装置及网络切片设备 - Google Patents
网络切片的端到端组网方法、组网装置及网络切片设备 Download PDFInfo
- Publication number
- CN113259145A CN113259145A CN202010090372.3A CN202010090372A CN113259145A CN 113259145 A CN113259145 A CN 113259145A CN 202010090372 A CN202010090372 A CN 202010090372A CN 113259145 A CN113259145 A CN 113259145A
- Authority
- CN
- China
- Prior art keywords
- network
- slice
- networking
- network slice
- resource utilization
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/08—Configuration management of networks or network elements
- H04L41/0893—Assignment of logical groups to network elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/14—Network analysis or design
- H04L41/145—Network analysis or design involving simulating, designing, planning or modelling of a network
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
本发明实施例涉及通信网络技术领域,公开了一种端到端组网方法、组网装置及网络切片设备,该方法包括:获取多个历史用户的服务等级协议需求、网络切片创建成本以及资源利用效率;确定历史用户对应的切片组网方案;对基于深度学习框架搭建的神经网络模型进行训练,获得在线分析模型;获取当前用户的服务等级协议需求、网络切片创建成本以及资源利用效率;通过所述在线分析模型,对所述当前用户的服务等级协议需求、网络切片创建成本以及资源利用效率进行在线分析;根据所述在线分析的结果,输出与所述当前用户对应的切片组网方案。通过上述方式,本发明实施例实现了自动提供满足用户需求的最优组网方案,实现资源利用率和网络代价的平衡。
Description
技术领域
本发明实施例涉及通信网络技术领域,具体涉及一种网络切片的端到端组网方法、组网装置及网络切片设备。
背景技术
网络切片是根据不同业务应用或者实际场景的要求,将物理网络切成多张相互独立的逻辑网络,用于满足特定目标、特定服务类别甚至特定客户的需求的技术。不同网络切片的端到端组网方案会有不同的特点,可以用于满足不同业务场景的需求。例如,在用户面网元和控制面网元均不共享的情况下,具有安全隔离度高的特点,但是成本相对较高。
现有的网络切片端到端组网方案主要通过技术人员的经验来确定。技术专家或者技术人员会针对某些典型的业务场景预先设定好对应的切片组网方案。
在实现本发明实施例的过程中,发明人发现:在出现新的业务场景时,预先设定好的端到端组网方案将无法适用,需要再次采用人工操作的方式来判断和进行调整。这样依赖专家经验的人工确定端到端组网方案的方式费时费力,效率较低并且容易出现人为失误。
发明内容
鉴于上述问题,本发明实施例提供了一种网络切片的端到端组网方法,组网装置及网络切片设备,克服了上述问题或者至少部分地解决了上述问题。
根据本发明实施例的一个方面,提供了一种网络切片的端到端组网方法,所述方法包括:
获取多个历史用户的服务等级协议需求、网络切片创建成本以及资源利用效率;根据所述服务等级协议需求、网络切片创建成本以及资源利用效率确定对应的切片组网方案;将所述历史用户对应的切片组网方案作为训练数据,对基于深度学习框架搭建的神经网络模型进行训练,获得在线分析模型;获取当前用户的服务等级协议需求、网络切片创建成本以及资源利用效率;通过所述在线分析模型,对所述当前用户的服务等级协议需求、网络切片创建成本以及资源利用效率进行在线分析;根据所述在线分析的结果,输出与所述当前用户对应的切片组网方案。
在一种可选的方式中,所述根据所述服务等级协议需求、网络切片创建成本以及资源利用效率确定对应的切片组网方案,进一步包括:
通过多个衡量指标表示所述服务等级协议需求、网络切片创建成本以及资源利用效率;
根据所述多个衡量指标,确定所述历史用户的网络切片的各个组成部分是否专用;所述网络切片的组成部分包括:核心网、传输、基站以及终端。
在一种可选的方式中,所述核心网包括用户面网元和控制面网元;
所述根据所述多个衡量指标,确定所述历史用户的网络切片的各个组成部分是否专用,进一步包括:
根据所述多个衡量指标,确定所述用户面网元和所述控制面网元是否专用。
在一种可选的方式中,所述基于深度学习框架搭建的神经网络模型包括:输入层、全连接层以及输出层;
所述输入层含有与所述衡量指标对应的多个神经元,用于输入所述历史用户的服务等级协议需求、网络切片创建成本以及资源利用效率;
所述输出层含有与所述网络切片的组成部分对应的多个神经元,用于输出所述切片组网方案;
所述全连接层设置有多层,每一层包含多个神经元,用于学习所述衡量指标与切片组网方案之间的对应关系。
在一种可选的方式中,在每一个所述全连接层之后还包括一个舍弃层;所述舍弃层用于以预设的舍弃概率使所述全连接层中的部分神经元失效。
在一种可选的方式中,所述全连接层设置有6层,包括第一至第六全连接层;
所述第一和第二全连接层包含64个神经元,所述第三和第四全连接层包含32个神经元,所述第五和第六全连接层包含16个神经元;所述舍弃层的神经元舍弃概率设置为20%。
在一种可选的方式中,所述根据所述在线分析的结果,输出与所述当前用户对应的切片组网方案,进一步包括:
获取所述输出层中每个神经元的输出值;
在所述神经元的输出值为第一输出值时,确定与所述神经元对应的组成部分为专用;
在所述神经元的输出值为第二输出值时,确定与所述神经元对应的组成部分为共享。
根据本发明实施例的另一方面,提供了一种网络切片的端到端组网装置,包括:
历史数据获取模块,用于获取多个历史用户的服务等级协议需求、网络切片创建成本以及资源利用效率;
组网标注模块,用于根据所述服务等级协议需求、网络切片创建成本以及资源利用效率确定对应的切片组网方案;
训练模块,用于将所述历史用户对应的切片组网方案作为训练数据,对基于深度学习框架搭建的神经网络模型进行训练,获得在线分析模型;
数据采集模块,用于获取当前用户的服务等级协议需求、网络切片创建成本以及资源利用效率;
在线分析模块,用于通过所述在线分析模型,对所述当前用户的服务等级协议需求、网络切片创建成本以及资源利用效率进行在线分析;
组网方案输出模块,用于根据所述在线分析的结果,输出与所述当前用户对应的切片组网方案。
根据本发明实施例的另一方面,提供了一种网络切片设备,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行如上所述的网络切片的端到端组网方法的步骤。
根据本发明实施例的又一方面,提供了一种计算机存储介质,所述存储介质中存储有至少一可执行指令,所述可执行指令使所述处理器执行如上所述的网络切片的端到端组网方法的步骤。
本发明实施例通过深度学习框架搭建深度神经网络,学习到用户的服务等级协议需求、切片创建成本以及当时切片各组成部分资源利用率与切片组网方案之间的映射规律,能够在用户发起切片创建请求时,自动提供最优的组网方案,实现资源利用率和网络代价的平衡,避免了人工设定所存在的缺陷和问题。
上述说明仅是本发明实施例技术方案的概述,为了能够更清楚了解本发明实施例的技术手段,而可依照说明书的内容予以实施,并且为了让本发明实施例的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1示出了本发明实施例提供的网络切片的端到端组网方法流程图;
图2示出了本发明实施例提供的不同组网方案的资源利用率与成本代价的示意图;
图3示出了本发明实施例提供的神经网络模型的示意图;
图4示出了本发明另一实施例提供的网络切片的端到端组网方法流程图;
图5示出了本发明实施例提供的端到端组网装置的结构示意图;
图6示出了本发明实施例提供的网络切片设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本发明的示例性实施例。虽然附图中显示了本发明的示例性实施例,然而应当理解,可以以各种形式实现本发明而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本发明,并且能够将本发明的范围完整的传达给本领域的技术人员。
网络切片(Network Slice)是端到端的逻辑功能和其所需的物理或虚拟资源集合,包括接入网、传输网、核心网,可认为是5G网络中的虚拟化“专网”。网络切片基于NFV的统一基础设施构建,实现低成本高效运营,可以实现通信网络的逻辑隔离,允许在每个网络切片中配置和重用网络元件及功能以满足特定的行业应用需求。
图1示出了本发明端到端组网方法实施例的流程图,该方法应用于服务器等组成的网络切片设备中,为NSMF(Network Slice Management Function网络切片管理功能)提供切片组网方案。该网络切片设备具体可以由任何合适类型的,具有满足使用需求的存储能力和逻辑运算能力的电子计算平台实现。
如图1所示,该方法包括以下步骤:
步骤110:获取多个历史用户的服务等级协议需求、网络切片创建成本以及资源利用效率。
其中,历史用户是指那些已经处理完毕的用户切片创建请求。其可以通过任何合适的数据采集方式,从多种数据来源中采集获得。
服务等级协议(Service Level Agreement,SLA)是针对所提供的服务类型约定的切片编排、服务区域/时间以及保障等级的服务条款。其定义或者表达了具体的用户需求。
资源利用效率是指网络切片各组成部分(如核心网的用户面网元、控制面网元、传输、基站以及共享终端等)的资源利用率。网络切片创建成本是为创建该网络切片所需要付出的网络硬件资源成本。其具体可以通过任何合适的计算方式计算获得。
步骤120:根据所述服务等级协议需求、网络切片创建成本以及资源利用效率确定对应的切片组网方案。
其中,切片组网方案是指能够满足特定用户的服务等级协议需求、网络切片创建成本以及资源利用效率的最佳组网方式。技术人员可以根据已有经验等,通过人工手动标注等的方式,确定能够满足某个历史用户的最佳组网方式,例如网络切片的各个组成部分是否共享。
在一些实施例中,所述网络切片的组成部分包括:核心网、传输、基站以及终端,所述切片组网方案可以表示为网络切片中共享部分和专用部分的组合。亦即,在网络切片的各个组成部分中,哪些为专用的组成部分,哪些为共享的组成部分。
首先,可以通过多个衡量指标表示所述服务等级协议需求、网络切片创建成本以及资源利用效率。
该衡量指标具体可以根据实际情况的需要由技术人员而设置,只需要能够描述或者反映服务等级协议需求、网络切片创建成本以及资源利用效率即可。例如,服务等级协议需求可以从多个不同的维度,通过安全性/私密性、可见性/可管理性、可靠性/可用性,以及具体的业务特征(业务类型、空口需求、定制化网络功能等)和相应的性能指标(时延、吞吐率、丢包率、掉话率等)等的内容信息来体现。
通过预设的衡量指标,可以将所述服务等级协议需求、网络切片创建成本以及资源利用效率以结构化数据的形式表示。
然后,根据所述多个衡量指标,确定所述历史用户的网络切片的各个组成部分是否专用。
本实施例中,该切片组网方案则通过各个组成部分为专用还是共享来表示。在不同的组成部分选择使用专用还是共享时,可以形成具有不同资源利用率、成本代价和性能的网络切片。
图2为本发明实施例提供的资源利用率和网络成本代价的示意图。如图2所示,核心网、传输、基站以及终端等的四个组成部分都可以选择为共享组成部分还是专用组成部分。
当越多的组成部分属于专用时,网络切片会倾向于高成本代价和高性能的一侧。而当越多的组成部分为共享时,网络切片则会倾向于高资源利用率的一侧。换言之,更多的组成部分共享时,会有更高的资源利用率,成本代价和性能则会相应的降低。而当更多的组成部分为专用组成部分时,则会降低资源利用率,提高成本代价和性能。
具体的,核心网还可以包括用户面网元和控制面网元两种。切片组网方案还可以进一步的确定用户面网元和控制面网元是否共享,从而提供更灵活的切片组网方案。
例如,5G核心网的控制面网元可以包括NSSF、NEF、NRF、PCF、UDM、AUSF、AMF、SMF。而用户面网元则包含UPF等。
其中,AMF(接入和移动管理功能)用于完成移动性管理、NAS MM信令处理、NAS SM信令路由、安全锚点和安全上下文管理等;SMF(会话管理功能)用于完成会话管理、UE IP地址分配和管理、UP选择和控制等;UDM(统一数据管理)主要用于管理和存储签约数据、鉴权数据;AUSF(认证服务器功能)用于完成用户接入的身份认证功能;UPF(用户面管理功能)用于完成不同的用户面处理;PCF(策略控制功能)主要用于支持统一策略框架,提供策略规则;NRF(网络存储功能)主要用于维护已部署NF的信息,处理从其他NF过来的NF发现请求;NEF(网络开放功能)使内部或外部应用可以访问网络提供的信息或业务,为不同的使用场景定制化网络能力。
惯常地,核心网的组网方案可以是NSSF和NRF作为5G核心网公共服务,以PLMN为单位部署;AMF、PCF、UDM等NF可以共享为多个切片提供服务;SMF、UPF等可以基于切片对时延、带宽、安全等的不同需求,为每个切片网络单独部署不同的NF。
步骤130:将所述历史用户对应的切片组网方案作为训练数据,对基于深度学习框架搭建的神经网络模型进行训练,获得在线分析模型。
在确定了多个历史用户的切片组网方案以后,可以将其作为训练数据用于进行神经网络模型的训练。在本实施例中,一个历史用户表示一条训练数据,包含了该历史用户的服务等级协议需求、网络切片创建成本、资源利用效率以及对应的切片组网方案,多条训练数据组合成为训练数据集合。
该神经网络模型是由技术人员预先构建或者搭建好的模型。通过训练数据集合可以学习确定模型中的参数,从而总结得到训练数据集合中关于最佳组网方案的规律。
神经网络模型是由输入层、隐藏层以及输出层组成的模型。其通过各层中神经元之间的传递,来实现对训练数据集合的学习。其中,隐藏层可以根据实际情况的需要,由技术人员选用多种功能层(如池化和卷积)搭建形成。
步骤140:获取当前用户的服务等级协议需求、网络切片创建成本以及资源利用效率。
其中,具体的服务等级协议需求、网络切片创建成本以及资源利用效率可以基于切片创建请求而相应的获得。
在一些实施例中,在采集切片创建请求的服务等级协议需求、网络切片创建成本以及资源利用效率时,可以使用与上述实施例公开的衡量指标来表示,作为在线分析模型的输入。
步骤150:通过所述在线分析模型,对所述当前用户的服务等级协议需求、网络切片创建成本以及资源利用效率进行在线分析。
其中,由训练获得的在线分析模型可以学习到输入的切片创建请求与组网方案的关系,并相应的进行在线分析并输出分析的结果。
步骤160:根据所述在线分析的结果,输出与所述当前用户对应的切片组网方案。
在线分析的结果实际上也是神经网络模型的输出。基于已知的对应关系可以将该神经网络模型的输出转换为对应的切片组网方案(如核心网的用户面网元、核心网的控制面网元、传输、基站以及终端各个组成部分是否需要专用)。
本发明实施例提供了一种基于深度学习的端到端组网方法,可以有效的解决现有5G网络切片端到端组网方案依赖于专家经验,效率较低并且容易出错的缺陷。该端到端组网方法通过深度学习框架搭建深度神经网络,自动归纳出用户SLA需求、切片创建成本以及当时切片各组成部分资源利用率,与最佳切片组网方案的映射规律。由此,可以在用户发起切片创建请求时,自动输出最佳的组网方案并发送至NSMF,实施组网。
图3示出了本发明基于深度学习框架搭建的神经网络模型一个实施例的示意图。基于深度学习框架搭建的神经网络又可以被称为深度神经网络(DNN,deep neuralnetwork)。
其中,“深度”是指神经网络模型中的隐藏层包含有多层神经网络。神经元(Neuron)是神经网络的基本单元,也称节点(Node),它从外部或其它节点收到输入(Input),并通过一个激活函数(Activation Function)来计算输出(Output)。另外,每一个输入都有对应的权重(Weight),即这个节点收到的每一个输入的相对重要性。
如图3所示,该神经网络模型可以包括:输入层31、全连接层32以及输出层33。
其中,输出层31具有n个神经元,用于接收n个衡量指标。亦即,输入层的神经元数量由技术人员具体设置的,用于描述服务等级协议需求、网络切片创建成本以及资源利用效率的多个衡量指标所确定。
输出层33含有m个神经元,每个神经元分别与网络切片的一个组成部分(如核心网的各个网元、传输、基站以及终端等)相对应。输出层设置的神经元数量可以根据具体的组网方案而进行相应的调整,只需要与组网方案中各个组成部分保持一一对应即可。
具体的,输出层的神经元可以有第一输出值和第二输出值两种。其中,在所述神经元的输出值为第一输出值时,确定与所述神经元对应的组成部分为专用;在所述神经元的输出值为第二输出值时,确定与所述神经元对应的组成部分为共享。
例如,输出层可以使用simoid函数作为激活函数,将输出层中的神经元的输出值变换为0或1这两个数值,分别用于表示该神经元对应的组成部分是否专用。其中,输出值为“0”是表示其为共享组成部分,输出值为“1”是表示其为专用组成部分。
全连接层22是隐藏层内的分类组件,其包含有预设数量的神经元,通过卷积运算实现对特征的总结归纳。在本实施例中,隐藏层内设置有第一至第六一共6个全连接层。
其中,第一和第二全连接层含有64个神经元,第三和第四全连接层含有32个神经元,第五和第六全连接层含有16个神经元。全连接层使用线性整流函数(Relu函数)作为激活函数,增加神经网络模型的非线性。
较佳的是,可以在每个全连接层之后均引入一个舍弃层。舍弃层(dropout)是用于避免过拟合(overfitting)的组件。其以设定的概率p舍弃神经元并以概率q=1-p保留其余的神经元,从而避免过拟合的情况。
在本实施例中,可以将舍弃概率p设置为20%。亦即,每次随机忽略全连接层20%的神经元,使该神经元的输出失效。
在一些实施例中,基于输出层输出的各个组成部分为专用组成部分还是共享组成部分的二分类结果,可以使用二类对数损失(binary_crossentropy)来衡量神经网络模型的好坏。
“二类对数损失”是通过惩罚错误的分类,实现对分类器的准确度(Accuracy)的量化方式。由此,训练的过程转换为寻找使二类对数损失最小的优化问题。
具体可以使用适应性矩阵估计优化算法(Adam算法),基于训练数据集合迭代地更新神经网络模型的权重,从而令神经网络模型收敛至最优值,获得能够使二类对数损失最小的权重。
请继续参阅图3,在神经网络模型的神经元用圆圈表示。神经元之间连线代表神经元之间的连接。训练后获得的每条连线最优的权重可以导出,作为在线分析模型,用于分析与当前用户对应的最佳组网方式。
在实际的训练过程过程中,可以将训练数据集合中的90%作为训练集,其余的10%作为测试集。较佳的是,还可以进行一些数据预处理以提升模型的训练效果,例如可以将衡量指标中采用非数值型表示的指标转换为数值型,以及对所有的衡量指标进行归一化处理,使其归一化为均值为0,方差为1,从而有效的提升神经网络模型的收敛速度和模型精度。
使用预处理后的训练数据对神经网络模型进行训练,训练回合数可以设置为1500,自主学习到每条连线的权重。
具体而言,训练数据中标注了历史用户的最佳组网方案(即各个组成部分应当属于专用还是共享的正确结果)。由此,可以确定神经网络模型的输出层输出的各个组成部分的判断结果是否正确,从而相应的计算出该训练数据的对数损失。
在以对数损失最小为方向的优化训练过程中,随着训练回合数的不断增加,神经网络模型会逐渐收敛。收敛以后的神经网络模型可以通过测试集进行测试,来评价该神经网络模型的是否可以被应用于在线分析。
在通过测试集验证后,神经网络模型的权重可以被导出作为在线分析模型使用,用于在线分析当前用户对应的最佳组网方式。
图4为本发明实施例提供的网络切片的端到端组网方法在5G场景下的应用流程的示意图。如图4所示,该方法包括以下步骤:
步骤410:从CSMF中获取历史用户的服务等级协议需求、网络切片创建成本以及资源利用效率,并且人工分配与其对应的最佳切片组网方案,形成训练数据集合。
CSMF(Communication Service Management Function)是指通信业务管理功能,用于完成用户业务通信服务的需求订购和处理,负责将运营商/第三方客户的通信服务需求转化为对网络切片的需求,并通过和NSMF之间的接口向NSMF发送对网络切片的需求(如创建、终结、修改网络切片实例请求等),从NSMF获取网络切片的管理数据(如性能、故障数据等),生成运行于网络切片实例之上的通信业务的管理数据,接收运营商/第三方客户对网络切片管理数据或通信业务的管理数据的订阅需求等。
不同的切片组网方案可以采用独热编码(one hot encoding),通过不同的编码来表示。具体的,在不同的切片组网方案中,端到端网络切片可以是完全专用的网络切片,也可以是包含部分共享组成部分的网络切片。例如,根据用户需求,可以分为端到端专用;专用基站、传输、核心网和共享终端;专用传输、核心网和共享基站、终端;专用核心网和共享传输、基站、终端;专用部分核心网网元和共享部分核心网网元、传输、基站、终端;共享核心网、传输、基站、终端等六种不同的切片组网方案。
更具体的,根据SLA、成本、安全隔离等用户需求,核心网切片还可以进一步的支持多种共享类型进行灵活的组网。例如,核心网切片内共享和专用网元组合一般可分为以下三种方案。
其中,方案一是用户面和控制面网元都不共享,其安全隔离度高、对成本不敏感,适用于远程医疗、工业自动化等场景。
方案二是部分控制面网元共享,用户面和其他控制面网元不共享,其隔离要求相对低,终端可同时接入多个切片,适用辅助驾驶、车载娱乐等场景。
方案三是控制面网元共享,用户面网元不共享,隔离要求低,对成本敏感,适用手机视频、智能抄表等场景。
步骤420:对训练数据集合中的训练数据进行预处理。
每个历史用户可以由一条训练数据表示。每一条训练数据中,由多个预设的衡量指标来表示服务等级协议需求、网络切片创建成本以及资源利用效率,作为训练数据的输入特征。数据预处理包括将非数值型的衡量指标转换为数值型以及对所有的衡量指标的数值作归一化处理,将其归一化为均值为0,方差为1的训练数据集合。
步骤430:基于训练数据集合,通过深度学习生成在线分析模型。
在搭建好的神经网络模型中,通过训练数据集合来训练得到神经网络模型的可学习参数,并在通过测试后,作为在线分析模型导出。
步骤440:从CSMF中获取当前用户的服务等级协议需求、网络切片创建成本以及资源利用效率,通过在线分析模型分析获得对应的切片组网方案。
该切片组网方案为在线分析模型的输出,通过“0”和“1”两个数值来分别表示各个组成部分具体为共享组成部分还是专用组成部分。
步骤450:将所述切片组网方案发送至NSMF,由核心网NSSMF、传输网NSSMF和接入网NSSMF实施所述切片组网方案。
NSMF可以依据在线分析模型的输出,确定各个组成部分为共享还是专用,并实现相应的组网从而在满足用户需求的情况下,保持成本与资源利用率之间的平衡。
NSMF(Network Slice Management Function)是指网络切片管理功能,负责接收CSMF(Communication Service Management Function,通信业务管理功能)发送的网络切片需求,对网络切片实例的生命周期、性能、故障等进行管理,编排网络切片实例的组成,分解网络切片实例的需求为各网络切片子网实例或网络功能的需求,向各NSSMF发送网络切片子网实例管理请求。
NSSMF(Network Slice Subnet Management Function)是指网络切片子网管理功能,接收从NSMF下发的网络切片子网部署需求,对网络切片子网实例进行管理,编排网络切片子网实例的组成,将网络切片子网的SLA需求映射为网络服务的QoS需求,向ETSI NFV域的NFVO系统下发网络服务的部署请求。
在本发明实施例提供的端到端组网方式中,在线分析模型具体输出的组网方案包含切片各组成部分(包含核心网、传输、基站、终端)需共享还是专用(其中,核心网部分还进一步细分为控制面和用户面网元需共享还是专用,)并最终NSMF按照该组网方案实施组网。
通过这样的方式实现了切片各组成部分共享和专用的最佳组合、以及核心网切片内共享和专用网元的最佳组合,从而在满足用户需求的基础上实现资源利用率和网络代价的平衡。
图5示出了本发明端到端组网装置实施例的结构示意图。如图5所示,该端到端组网装置500包括:历史数据获取模块510,组网标注模块520,训练模块530,数据采集模块540,在线分析模块550以及组网方案输出模块560。
其中,历史数据获取模块510用于获取多个历史用户的服务等级协议需求、网络切片创建成本以及资源利用效率。组网标注模块520用于根据所述服务等级协议需求、网络切片创建成本以及资源利用效率确定对应的切片组网方案。训练模块530用于将所述历史用户对应的切片组网方案作为训练数据,对基于深度学习框架搭建的神经网络模型进行训练,获得在线分析模型。数据采集模块540用于获取当前用户的服务等级协议需求、网络切片创建成本以及资源利用效率;在线分析模块550用于通过所述在线分析模型,对所述当前用户的服务等级协议需求、网络切片创建成本以及资源利用效率进行在线分析;组网方案输出模块560用于根据所述在线分析的结果,输出与所述当前用户对应的切片组网方案。
该端到端组网装置可以有效的解决现有5G网络切片端到端组网方案依赖于专家经验,效率较低并且容易出错的缺陷。其通过深度学习框架搭建深度神经网络,自动归纳出用户SLA需求、切片创建成本以及当时切片各组成部分资源利用率等用户特征与最佳切片组网方案之间的映射规律。由此,可以在用户发起切片创建请求时,自动输出最佳的组网方案并发送至NSMF,实施组网。
在一种可选的方式中,组网标注模块520具体用于通过多个衡量指标表示所述服务等级协议需求、网络切片创建成本以及资源利用效率;根据所述多个衡量指标,确定所述历史用户的网络切片的各个组成部分是否专用;所述网络切片的组成部分包括:核心网、传输、基站以及终端。
具体的,所述核心网包括用户面网元和控制面网元,所述组网标注模块520还用于根据所述多个衡量指标,确定所述用户面网元和所述控制面网元是否专用。
在一种可选的方式中,所述基于深度学习框架搭建的神经网络模型包括:输入层、全连接层以及输出层。
其中,所述输入层含有与所述衡量指标对应的多个神经元,用于输入所述历史用户的服务等级协议需求、网络切片创建成本以及资源利用效率;所述输出层含有与所述网络切片的组成部分对应的多个神经元,用于输出所述切片组网方案;所述全连接层设置有多层,每一层包含多个神经元,用于学习所述衡量指标与切片组网方案之间的对应关系。
在一种可选的方式中,在每一个所述全连接层之后还包括一个舍弃层;所述舍弃层用于以预设的舍弃概率使所述全连接层中的部分神经元失效。
在一种可选的方式中,所述全连接层设置有6层,包括第一至第六全连接层;
所述第一和第二全连接层包含64个神经元,所述第三和第四全连接层包含32个神经元,所述第五和第六全连接层包含16个神经元;所述舍弃层的神经元舍弃概率设置为20%。
在一种可选的方式中,所述组网方案输出模块560具体用于:获取所述输出层中每个神经元的输出值;在所述神经元的输出值为第一输出值时,确定与所述神经元对应的组成部分为专用;在所述神经元的输出值为第二输出值时,确定与所述神经元对应的组成部分为共享。
本发明实施例提供的端到端组网装置可以根据输入的用户特征,自动确定切片各组成部分共享和专用的最佳组合、以及核心网切片内共享和专用网元的最佳组合,从而在满足用户需求的基础上实现资源利用率和网络代价的平衡。
本发明实施例提供了一种非易失性计算机存储介质,所述计算机存储介质存储有至少一可执行指令,该计算机可执行指令可执行上述任意方法实施例中的网络切片的端到端组网方法。
可执行指令具体可以用于使得处理器执行以下操作:
获取多个历史用户的服务等级协议需求、网络切片创建成本以及资源利用效率;根据所述服务等级协议需求、网络切片创建成本以及资源利用效率确定对应的切片组网方案;将所述历史用户对应的切片组网方案作为训练数据,对基于深度学习框架搭建的神经网络模型进行训练,获得在线分析模型;获取当前用户的服务等级协议需求、网络切片创建成本以及资源利用效率;通过所述在线分析模型,对所述当前用户的服务等级协议需求、网络切片创建成本以及资源利用效率进行在线分析;根据所述在线分析的结果,输出与所述当前用户对应的切片组网方案。
在一种可选的方式中,所述可执行指令使所述处理器执行以下操作:
通过多个衡量指标表示所述服务等级协议需求、网络切片创建成本以及资源利用效率;根据所述多个衡量指标,确定所述历史用户的网络切片的各个组成部分是否专用;所述网络切片的组成部分包括:核心网、传输、基站以及终端。
在一种可选的方式中,所述核心网包括用户面网元和控制面网元;所述根据所述多个衡量指标,确定所述历史用户的网络切片的各个组成部分是否专用,进一步包括:根据所述多个衡量指标,确定所述用户面网元和所述控制面网元是否专用。
在一种可选的方式中,所述基于深度学习框架搭建的神经网络模型包括:输入层、全连接层以及输出层;
所述输入层含有与所述衡量指标对应的多个神经元,用于输入所述历史用户的服务等级协议需求、网络切片创建成本以及资源利用效率;
所述输出层含有与所述网络切片的组成部分对应的多个神经元,用于输出所述切片组网方案;
所述全连接层设置有多层,每一层包含多个神经元,用于学习所述衡量指标与切片组网方案之间的对应关系。
在一种可选的方式中,在每一个所述全连接层之后还包括一个舍弃层;所述舍弃层用于以预设的舍弃概率使所述全连接层中的部分神经元失效。
在一种可选的方式中,所述全连接层设置有6层,包括第一至第六全连接层;
所述第一和第二全连接层包含64个神经元,所述第三和第四全连接层包含32个神经元,所述第五和第六全连接层包含16个神经元;所述舍弃层的神经元舍弃概率设置为20%。
在一种可选的方式中,所述可执行指令使所述处理器执行以下操作:
获取所述输出层中每个神经元的输出值;在所述神经元的输出值为第一输出值时,确定与所述神经元对应的组成部分为专用;在所述神经元的输出值为第二输出值时,确定与所述神经元对应的组成部分为共享。
本发明实施例提供的计算机存储介质可以有效的解决现有5G网络切片端到端组网方案依赖于专家经验,效率较低并且容易出错的缺陷。其通过深度学习框架搭建深度神经网络,自动归纳出用户SLA需求、切片创建成本以及当时切片各组成部分资源利用率等用户特征与最佳切片组网方案之间的映射规律。由此,可以在用户发起切片创建请求时,自动输出最佳的组网方案并发送至NSMF以实施组网。
如图6所示,该网络切片设备可以包括:处理器(processor)602、通信接口(Communications Interface)604、存储器(memory)606、以及通信总线608。
其中:处理器602、通信接口604、以及存储器606通过通信总线608完成相互间的通信。通信接口604,用于与其它设备比如客户端或其它服务器等的网元通信。处理器602,用于执行程序610,具体可以执行上述网络切片设备的端到端组网方法实施例中的相关步骤。
具体地,程序610可以包括程序代码,该程序代码包括计算机操作指令。
处理器602可能是中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路。网络切片设备包括的一个或多个处理器,可以是同一类型的处理器,如一个或多个CPU;也可以是不同类型的处理器,如一个或多个CPU以及一个或多个ASIC。
存储器606,用于存放程序610。存储器606可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
程序610具体可以用于使得处理器602执行以下操作:
获取多个历史用户的服务等级协议需求、网络切片创建成本以及资源利用效率;根据所述服务等级协议需求、网络切片创建成本以及资源利用效率确定对应的切片组网方案;将所述历史用户对应的切片组网方案作为训练数据,对基于深度学习框架搭建的神经网络模型进行训练,获得在线分析模型;获取当前用户的服务等级协议需求、网络切片创建成本以及资源利用效率;通过所述在线分析模型,对所述当前用户的服务等级协议需求、网络切片创建成本以及资源利用效率进行在线分析;根据所述在线分析的结果,输出与所述当前用户对应的切片组网方案。
在一种可选的方式中,所述程序610具体可以用于使得处理器602执行以下操作:
通过多个衡量指标表示所述服务等级协议需求、网络切片创建成本以及资源利用效率;根据所述多个衡量指标,确定所述历史用户的网络切片的各个组成部分是否专用;所述网络切片的组成部分包括:核心网、传输、基站以及终端。
在一种可选的方式中,所述核心网包括用户面网元和控制面网元;所述根据所述多个衡量指标,确定所述历史用户的网络切片的各个组成部分是否专用,进一步包括:根据所述多个衡量指标,确定所述用户面网元和所述控制面网元是否专用。
在一种可选的方式中,所述基于深度学习框架搭建的神经网络模型包括:输入层、全连接层以及输出层;
所述输入层含有与所述衡量指标对应的多个神经元,用于输入所述历史用户的服务等级协议需求、网络切片创建成本以及资源利用效率;
所述输出层含有与所述网络切片的组成部分对应的多个神经元,用于输出所述切片组网方案;
所述全连接层设置有多层,每一层包含多个神经元,用于学习所述衡量指标与切片组网方案之间的对应关系。
在一种可选的方式中,在每一个所述全连接层之后还包括一个舍弃层;所述舍弃层用于以预设的舍弃概率使所述全连接层中的部分神经元失效。
在一种可选的方式中,所述全连接层设置有6层,包括第一至第六全连接层;
所述第一和第二全连接层包含64个神经元,所述第三和第四全连接层包含32个神经元,所述第五和第六全连接层包含16个神经元;所述舍弃层的神经元舍弃概率设置为20%。
在一种可选的方式中,程序610具体可以用于使得处理器602执行以下操作:
获取所述输出层中每个神经元的输出值;在所述神经元的输出值为第一输出值时,确定与所述神经元对应的组成部分为专用;在所述神经元的输出值为第二输出值时,确定与所述神经元对应的组成部分为共享。
该网络切片设备可以有效的解决现有5G网络切片端到端组网方案依赖于专家经验,效率较低并且容易出错的缺陷。其通过深度学习框架搭建深度神经网络,自动归纳出用户SLA需求、切片创建成本以及当时切片各组成部分资源利用率等用户特征与最佳切片组网方案之间的映射规律。
由此,在用户发起切片创建请求时,可以自动输出最佳的组网方案并发送至NSMF实施组网,为用户提供满足需求的网络切片。
在此提供的算法或显示不与任何特定计算机、虚拟系统或者其它设备固有相关。各种通用系统也可以与基于在此的示教一起使用。根据上面的描述,构造这类系统所要求的结构是显而易见的。此外,本发明实施例也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本发明的内容,并且上面对特定语言所做的描述是为了披露本发明的最佳实施方式。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本发明并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明实施例的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如下面的权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在下面的权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有多个不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。上述实施例中的步骤,除有特殊说明外,不应理解为对执行顺序的限定。
Claims (10)
1.一种网络切片的端到端组网方法,其特征在于,所述方法包括:
获取多个历史用户的服务等级协议需求、网络切片创建成本以及资源利用效率;
根据所述服务等级协议需求、网络切片创建成本以及资源利用效率确定对应的切片组网方案;
将所述历史用户对应的切片组网方案作为训练数据,对基于深度学习框架搭建的神经网络模型进行训练,获得在线分析模型;
获取当前用户的服务等级协议需求、网络切片创建成本以及资源利用效率;
通过所述在线分析模型,对所述当前用户的服务等级协议需求、网络切片创建成本以及资源利用效率进行在线分析;
根据所述在线分析的结果,输出与所述当前用户对应的切片组网方案。
2.根据权利要求1所述的方法,其特征在于,所述根据所述服务等级协议需求、网络切片创建成本以及资源利用效率确定对应的切片组网方案,进一步包括:
通过多个衡量指标表示所述服务等级协议需求、网络切片创建成本以及资源利用效率;
根据所述多个衡量指标,确定所述历史用户的网络切片的各个组成部分是否专用;所述网络切片的组成部分包括:核心网、传输、基站以及终端。
3.根据权利要求2所述的方法,其特征在于,所述核心网包括用户面网元和控制面网元;
所述根据所述多个衡量指标,确定所述历史用户的网络切片的各个组成部分是否专用,进一步包括:
根据所述多个衡量指标,确定所述用户面网元和所述控制面网元是否专用。
4.根据权利要求2所述的方法,其特征在于,所述基于深度学习框架搭建的神经网络模型包括:输入层、全连接层以及输出层;
所述输入层含有与所述衡量指标对应的多个神经元,用于输入所述历史用户的服务等级协议需求、网络切片创建成本以及资源利用效率;
所述输出层含有与所述网络切片的组成部分对应的多个神经元,用于输出所述切片组网方案;
所述全连接层设置有多层,每一层包含多个神经元,用于学习所述衡量指标与切片组网方案之间的对应关系。
5.根据权利要求4所述的方法,其特征在于,在每一个所述全连接层之后还包括一个舍弃层;所述舍弃层用于以预设的舍弃概率使所述全连接层中的部分神经元失效。
6.根据权利要求5所述的方法,其特征在于,所述全连接层设置有6层,包括第一至第六全连接层;
所述第一和第二全连接层包含64个神经元,所述第三和第四全连接层包含32个神经元,所述第五和第六全连接层包含16个神经元;所述舍弃层的神经元舍弃概率设置为20%。
7.根据权利要求4所述的方法,其特征在于,所述根据所述在线分析的结果,输出与所述当前用户对应的切片组网方案,进一步包括:
获取所述输出层中每个神经元的输出值;
在所述神经元的输出值为第一输出值时,确定与所述神经元对应的组成部分为专用;
在所述神经元的输出值为第二输出值时,确定与所述神经元对应的组成部分为共享。
8.一种网络切片的端到端组网装置,其特征在于,所述装置包括:
历史数据获取模块,用于获取多个历史用户的服务等级协议需求、网络切片创建成本以及资源利用效率;
组网标注模块,用于根据所述服务等级协议需求、网络切片创建成本以及资源利用效率确定对应的切片组网方案;
训练模块,用于将所述历史用户对应的切片组网方案作为训练数据,对基于深度学习框架搭建的神经网络模型进行训练,获得在线分析模型;
数据采集模块,用于获取当前用户的服务等级协议需求、网络切片创建成本以及资源利用效率;
在线分析模块,用于通过所述在线分析模型,对所述当前用户的服务等级协议需求、网络切片创建成本以及资源利用效率进行在线分析;
组网方案输出模块,用于根据所述在线分析的结果,输出与所述当前用户对应的切片组网方案。
9.一种网络切片设备,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行如权利要求1-7任一项所述的网络切片的端到端组网方法的步骤。
10.一种计算机存储介质,所述存储介质中存储有至少一可执行指令,所述可执行指令使处理器执行如权利要求1-7任一项所述的网络切片的端到端组网方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010090372.3A CN113259145B (zh) | 2020-02-13 | 2020-02-13 | 网络切片的端到端组网方法、组网装置及网络切片设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010090372.3A CN113259145B (zh) | 2020-02-13 | 2020-02-13 | 网络切片的端到端组网方法、组网装置及网络切片设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113259145A true CN113259145A (zh) | 2021-08-13 |
CN113259145B CN113259145B (zh) | 2022-06-03 |
Family
ID=77219831
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010090372.3A Active CN113259145B (zh) | 2020-02-13 | 2020-02-13 | 网络切片的端到端组网方法、组网装置及网络切片设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113259145B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113726571A (zh) * | 2021-08-30 | 2021-11-30 | 电子科技大学 | 一种基于网络切片的网络资源动态分配方法 |
CN114245322A (zh) * | 2021-12-16 | 2022-03-25 | 中国电信股份有限公司 | 网络信息处理方法、网络信息处理装置、和网络系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108965024A (zh) * | 2018-08-01 | 2018-12-07 | 重庆邮电大学 | 一种5g网络切片基于预测的虚拟网络功能调度方法 |
US20190230046A1 (en) * | 2018-01-19 | 2019-07-25 | Ciena Corporation | Autonomic resource partitions for adaptive networks |
CN110366193A (zh) * | 2019-05-28 | 2019-10-22 | 中国电力科学研究院有限公司 | 一种智能电网的网络编排层承载的切片部署方法及装置 |
-
2020
- 2020-02-13 CN CN202010090372.3A patent/CN113259145B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190230046A1 (en) * | 2018-01-19 | 2019-07-25 | Ciena Corporation | Autonomic resource partitions for adaptive networks |
CN108965024A (zh) * | 2018-08-01 | 2018-12-07 | 重庆邮电大学 | 一种5g网络切片基于预测的虚拟网络功能调度方法 |
CN110366193A (zh) * | 2019-05-28 | 2019-10-22 | 中国电力科学研究院有限公司 | 一种智能电网的网络编排层承载的切片部署方法及装置 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113726571A (zh) * | 2021-08-30 | 2021-11-30 | 电子科技大学 | 一种基于网络切片的网络资源动态分配方法 |
CN113726571B (zh) * | 2021-08-30 | 2022-07-12 | 电子科技大学 | 一种基于网络切片的网络资源动态分配方法 |
US11792137B2 (en) | 2021-08-30 | 2023-10-17 | University Of Electronic Science And Technology Of China | Dynamic network resource allocation method based on network slicing |
CN114245322A (zh) * | 2021-12-16 | 2022-03-25 | 中国电信股份有限公司 | 网络信息处理方法、网络信息处理装置、和网络系统 |
CN114245322B (zh) * | 2021-12-16 | 2024-06-07 | 中国电信股份有限公司 | 网络信息处理方法、网络信息处理装置、和网络系统 |
Also Published As
Publication number | Publication date |
---|---|
CN113259145B (zh) | 2022-06-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7478361B2 (en) | Method and system for managing application deployment | |
CN113133087B (zh) | 针对终端设备配置网络切片的方法及装置 | |
CN113098932A (zh) | 基于5g和云计算的物联网设备处理方法及系统 | |
CN113541980B (zh) | 网络切片故障根因定位方法、装置、计算设备及存储介质 | |
CN113259145B (zh) | 网络切片的端到端组网方法、组网装置及网络切片设备 | |
WO2021169294A1 (zh) | 更新应用识别模型的方法、装置及存储介质 | |
CN114091610A (zh) | 智能决策方法及装置 | |
CN113438681A (zh) | 网络切片的可行性评估方法、装置及计算设备 | |
Arshed et al. | GA‐IRACE: Genetic Algorithm‐Based Improved Resource Aware Cost‐Efficient Scheduler for Cloud Fog Computing Environment | |
CN112202584B (zh) | 告警关联方法、装置、计算设备及计算机存储介质 | |
US11201789B1 (en) | Coordinated device grouping in fog computing | |
CN113806498B (zh) | 网络切片实例运行状况的在线问答方法及装置 | |
CN113822453B (zh) | 5g切片的多用户投诉共性确定方法及装置 | |
US20210103830A1 (en) | Machine learning based clustering and patterning system and method for network traffic data and its application | |
CN113825149B (zh) | 5g切片网元功能自动裁剪方法、装置及计算设备 | |
CN113810212B (zh) | 5g切片用户投诉的根因定位方法及装置 | |
CN113971115A (zh) | 容器资源的需求确定方法、装置、服务器及存储介质 | |
CN112990425A (zh) | 5g网络切片的自动分类方法、其装置、电子设备及计算机存储介质 | |
CN113411195B (zh) | 5g切片的物理层配置方法、装置及计算设备 | |
CN114079958B (zh) | 5g切片实例的容灾池选择方法、装置及计算设备 | |
CN113825151B (zh) | 基于关系图卷积网络的切片告警间关系预测方法及装置 | |
CN113766532B (zh) | 网络切片实例的隔离评估方法及装置 | |
CN113965475B (zh) | 网络切片工程验收方法及系统 | |
US11736336B2 (en) | Real-time monitoring of machine learning models in service orchestration plane | |
CN114071580B (zh) | 一种数据传输方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |