CN113259147A - 网元管理方法、装置、计算机设备、介质 - Google Patents
网元管理方法、装置、计算机设备、介质 Download PDFInfo
- Publication number
- CN113259147A CN113259147A CN202010598928.XA CN202010598928A CN113259147A CN 113259147 A CN113259147 A CN 113259147A CN 202010598928 A CN202010598928 A CN 202010598928A CN 113259147 A CN113259147 A CN 113259147A
- Authority
- CN
- China
- Prior art keywords
- model
- network element
- data
- network
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000007726 management method Methods 0.000 title claims abstract description 243
- 238000012549 training Methods 0.000 claims abstract description 158
- 238000005457 optimization Methods 0.000 claims description 58
- 238000004422 calculation algorithm Methods 0.000 claims description 42
- 238000000034 method Methods 0.000 claims description 32
- 230000006870 function Effects 0.000 claims description 19
- 238000004590 computer program Methods 0.000 claims description 4
- 238000012423 maintenance Methods 0.000 abstract description 12
- 238000010586 diagram Methods 0.000 description 8
- 238000010801 machine learning Methods 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 6
- 238000005259 measurement Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000011664 signaling Effects 0.000 description 6
- 230000003993 interaction Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000012384 transportation and delivery Methods 0.000 description 2
- 230000008676 import Effects 0.000 description 1
- 238000012821 model calculation Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000013468 resource allocation Methods 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/14—Network analysis or design
- H04L41/145—Network analysis or design involving simulating, designing, planning or modelling of a network
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/04—Network management architectures or arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/16—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using machine learning or artificial intelligence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/40—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using virtualisation of network functions or resources, e.g. SDN or NFV entities
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Biology (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mobile Radio Communication Systems (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
本公开提出一种网元管理方法、网管系统、独立计算节点、计算机设备及计算机可读介质,其中,该网元管理方法包括:获取各网元的第一网元数据;确定待接收模型的网元;根据所述第一网元数据训练模型;将训练获得的模型下发至所述待接收模型的网元。可以实现由网管系统对网元进行智能化管理,增强基站的算力,实现基站智能运维。
Description
技术领域
本公开涉及边缘计算技术领域,特别涉及一种网元管理方法、网管系统、独立计算节点、计算机设备及计算机可读介质。
背景技术
ETSI(European Telecommunications Standards Institute,欧洲电信标准化协会)引入MEC(Mobile Edge Computing,移动边缘计算),其基本思想是把云计算平台从移动核心网络内部迁移到移动接入网边缘,实现计算及存储资源的弹性利用。这一概念将传统电信蜂窝网络与互联网业务进行了深度融合,旨在减少移动业务交付的端到端时延,发掘无线网络的内在能力,从而提升用户体验,给电信运营商的运作模式带来全新变革,并建立新型的产业链及网络生态圈。2016年,ETSI把MEC的概念扩展为多接入边缘计算(Multi-Access Edge Computing),将边缘计算从电信蜂窝网络进一步延伸至其他无线接入网络。MEC可以看作是一个运行在移动网络边缘的、运行特定任务的云服务器。
随着网络智能化能力的扩展,对实时性和智能化的要求越来越高,也希望基站本身就是一个智能化节点,实现基站智能运维。要实现基站智能运维,基站根据其采集的真实数据训练出模型就非常重要,但无论现有基站设备还是更新版本的基站设备,算力普遍不足,难以完成任务。并且现有网络中已经提供服务的网元,受限于硬件资源,难以支撑模型训练。
发明内容
本公开针对现有技术中存在的上述不足,提供一种网元管理方法、网管系统、独立计算节点、计算机设备及计算机可读介质。
第一方面,本公开实施例提供一种网元管理方法,包括:
获取各网元的第一网元数据;
确定待接收模型的网元;
根据所述第一网元数据训练模型;
将训练获得的模型下发至所述待接收模型的网元。
在一些实施例中,所述根据所述第一网元数据训练模型之后,还包括:
确定各所述待接收模型的网元连接的独立计算节点;
将所述模型下发至所述独立计算节点。
在一些实施例中,所述根据所述第一网元数据训练模型之后,还包括:
选择多个独立计算节点,并向选择出的各个独立计算节点发送第一训练指令;
接收各个独立计算节点返回的模型,所述模型是所述独立计算节点根据接收到的所述第一训练指令训练得到的;
根据所述第一网元数据对所述模型迭代优化,并将迭代优化后的模型下发至所述待接收模型的网元。
在一些实施例中,所述第一网元数据中具有第一类数据和第二类数据;所述确定待接收模型的网元,包括:根据本网管系统中的第一类数据、所述第一网元数据中的第一类数据以及本网管系统能够训练的模型的类型,确定所述待接收模型的网元;
所述根据所述第一网元数据训练模型,包括:
根据所述第一网元数据中的第二类数据训练模型。
在一些实施例中,所述将训练获得的模型下发至所述待接收模型的网元之后,还包括:
接收网元发送的申请模型请求,所述申请模型请求中包括所述网元的第一类数据和第二类数据;
若所述申请模型请求中第一类数据和本网管系统的第一类数据匹配,则确定与所述申请模型请求中的第二类数据对应的模型,并将确定出的模型发送至所述网元。
在一些实施例中,所述将训练获得的模型下发至所述待接收模型的网元之后,还包括:
将所述模型发送给其他用于训练相同类型模型的网管系统。
在一些实施例中,所述方法还包括:
接收其他网管系统发送的模型;
根据本网管系统存储的第一网元数据对所述模型进行迭代优化;
将迭代优化后的模型下发至所述待接收模型的网元。
在一些实施例中,所述第一类数据包括算法数据和运行环境数据,所述模型的第一种类型包括参数和规则,所述模型的第二种类型包括函数或固定运行环境的可执行包,所述模型的第三种类型包括模型容器;
所述根据本网管系统中的第一类数据、所述第一网元数据中的第一类数据以及本网管系统能够训练的模型的类型,确定所述待接收模型的网元,包括:
若本网管系统能够训练的模型的类型为参数和规则,则确定与本网管系统具有相同的运行环境数据且与本网管系统预先约定相同算法的网元为所述待接收模型的网元;
若本网管系统能够训练的模型的类型为函数或固定运行环境的可执行包,则确定与本网管系统具有相同的运行环境数据且与本网管系统未预先约定算法的网元为所述待接收模型的网元;
若本网管系统能够训练的模型的类型为模型容器,则确定与本网管系统的运行环境数据不同且与本网管系统未预先约定算法的网元为所述待接收模型的网元;
其中,所述算法根据算法数据确定。
本公开实施例中,网管系统获取各网元的第一网元数据,确定待接收模型的网元,并根据各网元的第一网元数据训练模型,将训练获得的模型下发至待接收模型的网元,网元使用模型进行推理应用。网管系统的计算能力较强,独立计算节点具备一定算力,但独立计算节点毕竟是网元,无法支撑大量的计算,因此,训练模型由网管系统完成。本公开可以实现由网管系统对网元进行智能化管理,增强基站的算力,实现基站智能运维。
第二方面,本公开实施例提供一种网元管理方法,包括:
接收网管系统发送的第二训练指令;
获取各网元的第一网元数据;
确定待接收模型的网元;
根据各网元的第一网元数据训练模型;
将训练获得的模型下发至所述待接收模型的网元;
接收所述待接收模型的网元返回的第二网元数据,并根据所述第二网元数据对所述模型迭代优化;
将迭代优化后的模型发送至该待接收模型的网元。
本公开实施例中,部分网络中独立计算节点的能力很强,可以由独立计算节点直接完成模型训练和迭代优化。这样数据传递过程更短,一方面可以减少数据传递的资源消耗,另一方面也可以有效提升智能化处理的实时性。同时由于是一个独立计算节点采集边缘的网元的数据,也可以解决机器学习的模型训练时原始数据采集困难、不安全的问题。
第三方面,本公开实施例提供一种网元管理方法,包括:
接收网管系统发送的第一训练指令;
接收本独立计算节点连接的各网元的第一网元数据;
确定待接收模型的网元;
根据各网元的第一网元数据训练模型;
将训练获得的模型上传至所述网管系统。
本公开实施例中,可以通过网管系统调度各独立计算节点采用联邦学习的方式完成模型训练,即网管系统选择多个进行联邦学习的独立计算节点,一个独立计算节点完成一部分样本数据的模型训练,最后由网管系统接收各个独立计算节点完成的模型训练结果,汇总生成最终的模型,实现模型的快速部署和迭代更新,降低基站智能运维的成本。同时由于是独立计算节点分别采集对应的边缘的网元的数据,也可以解决机器学习的模型训练时原始数据采集困难、不安全的问题。
第四方面,本公开实施例提供一种网管系统,包括:
获取模块,用于获取各网元的第一网元数据;
确定模块,用于确定待接收模型的网元;
模型训练模块,用于根据所述第一网元数据训练模型;
发送模块,用于将训练获得的模型下发至所述待接收模型的网元。
第五方面,本公开实施例提供一种独立计算节点,包括:
接收模块,用于接收网管系统发送的第二训练指令;
获取模块,用于获取各网元的第一网元数据;
确定模块,用于确定待接收模型的网元;
模型训练模块,用于根据各网元的第一网元数据训练模型;
发送模块,用于将训练获得的模型下发至所述待接收模型的网元;
所述接收模块还用于接收所述待接收模型的网元返回的第二网元数据;
优化模块,用于根据所述第二网元数据对所述模型迭代优化;
所述发送模块还用于将迭代优化后的模型发送至该待接收模型的网元。
第六方面,本公开实施例提供一种独立计算节点,包括:
接收模块,用于接收网管系统发送的第一训练指令;接收本独立计算节点连接的各网元的第一网元数据;
确定模块,用于确定待接收模型的网元;
模型训练模块,用于根据各网元的第一网元数据训练模型;
发送模块,用于将训练获得的模型上传至所述网管系统。
第七方面,本公开实施例提供一种计算机设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如上述的网元管理方法。
第八方面,本公开实施例提供一种计算机可读介质,其上存储有计算机程序,其中,所述程序被执行时实现如上述的网元管理方法。
附图说明
图1是本公开实施例提供的网络拓扑的结构示意图;
图2是本公开实施例提供的一种网元管理方法的流程图;
图3是本公开实施例提供的一种网元管理方法的另一流程图;
图4是本公开实施例提供的一种网元管理方法的另一流程图;
图5是本公开实施例提供的一种网管系统的结构示意图;
图6是本公开实施例提供的一种独立计算节点的结构示意图;
图7是本公开实施例提供的一种独立计算节点的另一结构示意图。
具体实施方式
为使本领域的技术人员更好地理解本公开的技术方案,下面结合附图对本公开提供的报文传输方法、接入网关、计算机可读介质进行详细描述。
在下文中将参考附图更充分地描述示例实施例,但是所述示例实施例可以以不同形式来体现且不应当被解释为限于本文阐述的实施例。反之,提供这些实施例的目的在于使本公开透彻和完整,并将使本领域技术人员充分理解本公开的范围。
在不冲突的情况下,本公开各实施例及实施例中的各特征可相互组合。
如本文所使用的,术语“和/或”包括一个或多个相关列举条目的任何和所有组合。
本文所使用的术语仅用于描述特定实施例,且不意欲限制本公开。如本文所使用的,单数形式“一个”和“该”也意欲包括复数形式,除非上下文另外清楚指出。还将理解的是,当本说明书中使用术语“包括”和/或“由……制成”时,指定存在所述特征、整体、步骤、操作、元件和/或组件,但不排除存在或添加一个或多个其它特征、整体、步骤、操作、元件、组件和/或其群组。
除非另外限定,否则本文所用的所有术语(包括技术和科学术语)的含义与本领域普通技术人员通常理解的含义相同。还将理解,诸如那些在常用字典中限定的那些术语应当被解释为具有与其在相关技术以及本公开的背景下的含义一致的含义,且将不解释为具有理想化或过度形式上的含义,除非本文明确如此限定。
MEC可以提供各种资源或业务调度优化算法,协助基站更有效完成资源分配和业务调度,但这些优化是由MEC完成的,并且MEC并不是智能化节点,受限于硬件资源,难以支撑模型训练,因此无法直接获得机器学习模型。同时基站只是命令的执行者,也不是智能化节点。并不能解决基站算理不足,难以实现基站智能运维的问题。为了解决以上问题,本公开提出一种网元管理方法、网管系统、独立计算节点、计算机设备及计算机可读介质。
图1示出本公开实施例提供的网络拓扑的结构示意图。独立计算节点可以与网管系统连接,与网管系统交互模型信息和数据信息;一个网管系统可连接多个独立计算节点。独立计算节点可以与基站连接,与基站交互模型信息和数据信息;一个独立计算节点可连接多个基站。基站可以不连接独立计算节点。基站与独立计算节点可以都连接同一个网管系统。一个独立计算节点可连接多个网元。此处的独立计算节点由MEC节点承担。
图2示出本公开实施例提供的网元管理方法的流程图。该网元管理方法可应用于网管系统。如图1所示,本实施例提供的网元管理方法包括以下步骤。
步骤101,获取各网元的第一网元数据。
其中,所述第一网元数据为用于模型训练的网元数据,所述第一网元数据一般为采集的较长周期的数据。所述第一网元数据中具有第一类数据和第二类数据。第一类数据可以包括网元的算法数据和运行环境数据。例如,网元A的运行环境为Java,网元A的预先约定算法为算法b。第二类数据可以包括网元的配置参数、告警参数、性能参数、信令参数和测量报告参数等,配置参数可以包括网元位置、制式类型、硬件能力等参数,性能参数可以包括业务类型、业务量等参数。
在该步骤中,网管系统获取用于模型训练的第一网元数据,以根据第一网元数据进行模型训练,第一网元数据可以是一个网元或多个网元的数据。第一网元数据的获取途径可以是从各个网元直接采集的数据,也可以是外部系统导入的数据。
步骤102,确定待接收模型的网元。
在该步骤中,网管系统指定特定的待接收模型的网元来接收模型,也可以将任意一个网元作为所述待接收模型的网元。
步骤103,根据第一网元数据训练模型。
在该步骤中,网管系统根据所述第一网元数据训练模型。模型可以分为多个类型,但是一个网管系统只训练一个类型的模型,例如只训练参数和规则类型的模型。在每一种类型下还可以根据第二类数据训练细分成多个模型,细分的多个模型分别与待接收模型的网元相匹配。
步骤104,将训练获得的模型下发至待接收模型的网元。
在该步骤中,网管系统将训练获得的模型下发至特定的待接收模型的网元或者是任意一个网元。
需要说明的是,此处下发的模型可以是初始模型,即向所有的待接收模型的网元只下发与本网管系统能够训练的模型的类型对应的一种模型,之后再由待接收模型的网元连接的独立计算节点分别迭代优化,将迭代优化后的模型发送给对应的待接收模型的网元。
在一种可选的实施方式中,网管系统下发的模型也可以与待接收模型的网元相匹配,即向待接收模型的网元下发本网管系统能够训练的模型的类型下对应匹配的模型。为每个待接收模型的网元分配与之相匹配的模型,之后可以继续对模型进行迭代优化。
本公开实施例中,网管系统获取各网元的第一网元数据,确定待接收模型的网元,并根据各网元的第一网元数据训练模型,将训练获得的模型下发至待接收模型的网元,网元使用模型进行推理应用。网管系统的计算能力较强,独立计算节点具备一定算力,但独立计算节点毕竟是网元,无法支撑大量的计算,因此,训练模型由网管系统完成。本公开可以实现由网管系统对网元进行智能化管理,增强基站的算力,实现基站智能运维。
进一步的,在一些实施例中,根据第一网元数据训练模型(即步骤104)之后,所述网元管理方法还包括以下步骤:确定各待接收模型的网元连接的独立计算节点,并将模型下发至独立计算节点。
网管系统确定出部署在靠近基站侧的独立计算节点,该独立计算节点具备计算能力和数据采集能力,可协助提供基站的机器学习模型,协助基站进行智能运维的部署。网管系统将初始模型分别下发至待接收模型的网元所连接的独立计算节点和待接收模型的网元,所述网元在业务处理流程中应用该初始模型进行推理,生成第二网元数据(即模型应用结果),并将该第二网元数据发送至该待接收模型的网元连接的独立计算节点。该独立计算节点根据第二网元数据对该初始模型迭代优化,并将迭代优化后的模型返回给该待接收模型的网元。即网管系统根据各个待接收模型的网元返回的第二网元数据分别调整初始模型,为每个待接收模型的网元分配与之相匹配的模型。
其中,第二网元数据一般为周期较短的数据,也可以是实时的数据,用于对模型进行优化,独立计算节点生成的迭代优化后的模型为短期或实时的模型。
在一种可选的实施方式中,网管系统下发至待接收模型的网元和待接收模型的网元连接的独立计算节点的模型也可以与待接收模型的网元相匹配,即下发本网管系统能够训练的模型的类型下对应匹配的模型。为每个待接收模型的网元分配与之相匹配的模型,再在该相匹配的模型的基础上迭代优化,具体的迭代优化的步骤与上述网管系统下发初始模型时迭代优化的步骤相同,此处不作赘述。
本公开实施例中,训练模型由网管系统完成,网管系统将训练出的模型下发至网元,网元使用模型进行推理应用,网元应用模型生成的第二网元数据发送至独立计算节点,由独立计算节点完成对模型迭代优化。因此,本公开可以实现由独立计算节点协助网管系统对网元进行智能化管理,增强基站的算力,实现基站智能运维。
进一步的,在一些实施例中,所述根据第一网元数据训练模型(即步骤103)之后,还包括:选择多个独立计算节点,并向选择出的各个独立计算节点发送第一训练指令;接收各个独立计算节点返回的模型;根据第一网元数据对模型迭代优化,并将迭代优化后的模型下发至待接收模型的网元。
其中,所述第一训练指令为网管系统向独立计算节点发送的用于联邦学习的指令。所述模型是所述独立计算节点根据接收到的所述第一训练指令训练得到的。
独立计算节点也可以进行模型训练,在独立计算节点进行模型训练的场景下,存在数据隐私保护需求,模型训练的数据,只能由网元上报给独立计算节点,但单个独立计算节点的算力也有限,无法完成全部的模型训练。因此,网管系统选择多个进行联邦学习的独立计算节点,一个独立计算节点完成一部分样本数据的模型训练,最后由网管系统接收各个独立计算节点完成的训练获得的模型,汇总根据第一网元数据对模型迭代优化,生成最终的模型。
进一步的,在一些实施例中,所述确定待接收模型的网元(即步骤103),包括:根据本网管系统中的第一类数据、所述第一网元数据中的第一类数据以及本网管系统能够训练的模型的类型,确定所述待接收模型的网元。
网管系统指定特定的待接收模型的网元接收模型。所述模型的第一种类型包括参数和规则,所述模型的第二种类型包括函数或固定运行环境的可执行包,所述模型的第三种类型包括模型容器。网管系统可以根据本网管系统的硬件条件预先确定本网管系统能够训练的模型的类型。网管系统根据本网管系统的算法数据和运行环境数据、第一网元数据中的第一类数据和本网管系统能够训练模型的类型确定网元与网管系统能够训练模型的类型是否匹配,如果确定出网元与网管系统能够训练模型的类型匹配,则将该网元确定为待接收模型的网元,训练出模型之后可以向该网元下发模型。如果网元与网管系统能够训练模型的类型不匹配,则训练出模型之后,不向该网元下发模型。
相应的,所述根据第一网元数据训练模型(步骤104),包括:根据第一网元数据中的第二类数据训练模型。
在该步骤中,根据第一网元数据中的第二类数据训练模型,即根据所有网元的第二类数据训练模型,训练出的模型可能只与一部分网元匹配。例如,网管系统获取100个网元的第一网元数据,训练出的模型与10个网元匹配。
网管系统根据第一网元数据中的网元的配置参数、告警参数、性能参数、信令参数和测量报告参数等训练模型。例如,若模型的类型为参数和规则,则根据网元的配置参数、告警参数、性能参数、信令参数和测量报告参数等训练出具体的参数和规则,即为模型。每一种第二类数据都有不同的维度,可以基于不同的第二类数据的维度进行分类,具体怎么根据第二类数据进行分类,此处不作限定,可以按照需求自行设定。
需要说明的是,此处训练出的模型是基于网元的较长周期的数据训练出的长周期的训练结果。
相应地,在一些实施例中,所述将训练获得的模型下发至待接收模型的网元(即步骤105)之后,还包括以下步骤:接收网元发送的申请模型请求;若申请模型请求中第一类数据和本网管系统的第一类数据匹配,则确定与申请模型请求中的第二类数据对应的模型,并将确定出的模型发送至网元。其中,申请模型请求中包括网元的第一类数据和第二类数据。
网管系统接收网元发送的申请模型请求,若申请模型请求中的第一类数据与本网管系统的第一类数据匹配,说明该网元可以接收该网管系统下发的相应类型的模型,例如,该网管系统只能训练参数和规则类型的模型,网元可以接收参数和规则类型的模型。网管系统根据申请模型请求中的第二类数据筛选出相匹配的模型,并将确定出的模型发送至该网元。例如,若网管系统只能训练参数和规则类型的模型,并且不同的第二类数据的配置参数中的网元位置不同,参数和规则类型的模型也不同,网元位置在市区对应一种参数和规则类型的模型,网元位置在郊区对应一种参数和规则类型的模型,则根据申请模型请求中的网元位置为其匹配相对应的模型。
进一步的,在一些实施例中,所述将训练获得的模型下发至待接收模型的网元(即步骤104)之后,还包括以下步骤:将模型发送给其他用于训练相同类型模型的网管系统。
不同网管系统间还可以共享训练好的模型。一方面可以实现网元智能化功能的快速部署和优化,另一方面也可以解决由于数据采集困难无法进行模型训练的问题。
例如,网管系统1保存了本网络组网中使用的模型以及模型相关的信息。模型相关的信息可包含:功能、模型列表、模型详细信息、模型迭代记录等。网管系统1可以将本地保存的模型以及模型相关的信息共享给网管系统2。需要说明的是,网管系统1和网管系统2用于训练相同类型的模型,例如,都是训练参数和规则类型的模型。由于共享模型的网管系统之间都是训练相同类型的模型,所以才能方便下发至网元进行模型应用。这个共享过程,可以是文件导出和导入过程,也可以是接口消息交互过程,在线交互流程或离线操作接口都可以实现。网管系统2获取到网管系统1的模型以及模型相关的信息,可以将此模型作为初始模型(即向所有的待接收模型的网元只下发与本网管系统能够训练的模型的类型对应的一种模型)直接分发给本网管系统管理的待接收模型的网元和各待接收模型的网元连接的独立计算节点使用。
机器学习的模型训练,需要采集大量的数据,诸如配置、告警、性能、信令、测量报告等,这些数据的采集,对网元、传输等资源消耗很大,因此采集的代价很大,模型计算的成本高。另一方面,数据安全需求越来越高,不同区域的数据安全策略不同,可能不允许直接采集到网管系统进行模型训练。本公开实施例中,模型包含重要特征值权重,不同网管系统间可以共享训练好的模型,模型应用到另一个网管系统时,根据重要特征值权重调整,对模型进行重新训练。可以综合不同网管系统的数据,快速选择模型,实现模型的快速部署和迭代更新,降低基站智能运维的成本,同时解决了机器学习的模型训练时原始数据采集困难、不安全的问题。
进一步的,在一些实施例中,所述网元管理方法,还可以包括以下步骤:接收其他网管系统发送的模型;根据本网管系统存储的第一网元数据对所述模型进行迭代优化;将迭代优化后的模型下发至待接收模型的网元。
例如,网管系统1将模型分享给网管系统2,网管系统2基于网管系统1分享的模型,使用本网管系统的第一网元数据,迭代优化,重新调整参数等,生成迭代优化后的模型,分发给本网管系统管理的待接收模型的网元和各待接收模型的网元连接的独立计算节点使用。
需要说明的是,此处网管系统下发的迭代优化后的模型可以是一种,也可以是多种,即可以向所有本网管系统管理的待接收模型的网元下发一种模型,也可以向本网管系统管理的各个待接收模型分别下发匹配的模型。
进一步的,在一些实施例中,第一类数据包括算法数据和运行环境数据,所述模型的第一种类型包括参数和规则,所述模型的第二种类型包括函数或固定运行环境的可执行包,所述模型的第三种类型包括模型容器。训练完成的模型,在不同的场景下可以体现为不同形式,不同形式的模型便利性和可扩展性不同,可以满足各种多场景的需求。
根据本网管系统的第一类数据、第一网元数据中的第一类数据以及本网管系统能够训练的模型的类型,确定待接收模型的网元(即步骤102),包括:若本网管系统能够训练的模型的类型为参数和规则,则确定与本网管系统具有相同的运行环境数据且与本网管系统预先约定相同算法的网元为待接收模型的网元;若本网管系统能够训练的模型的类型为函数或固定运行环境的可执行包,则确定与本网管系统具有相同的运行环境数据且与本网管系统未预先约定算法的网元为待接收模型的网元;若本网管系统能够训练的模型的类型为模型容器,则确定与本网管系统的运行环境数据不同且与本网管系统未预先约定算法的网元为待接收模型的网元;其中,算法根据算法数据确定。
每一个网管系统只能训练一种类型的模型。当本网管系统训练的模型的类型为参数和规则时,若根据运行环境数据和算法数据确定出进行模型交互的网管系统和网元的有相同的运行环境,且预先约定相同算法,则确定该网元为待接收模型的网元。
当本网管系统训练的模型的类型为函数或固定运行环境的可执行包时,若根据运行环境数据和算法数据确定出进行模型交互的网管系统和网元的有相同的运行环境,但是未预先约定算法,则确定该网元为待接收模型的网元。
当本网管系统训练的模型的类型为模型容器时,若根据运行环境数据和算法数据确定出进行模型交互的网管系统和网元没有相同的运行环境,也未预先约定算法,则确定该网元为待接收模型的网元。
在一种可选的实施方式中,网元和独立计算节点接收到模型后,也可以判断能否使用该模型,如果可以使用则使用,如果不能使用则丢弃该模型。例如,网元或独立计算节点接收到一个参数和规则类型的模型,若该参数和规则类型的模型与本网元的运行环境匹配,应用的算法也相同,则可以应用该模型。网元或独立计算节点接收到一个函数或固定运行环境的可执行包类型的模型,若该函数或固定运行环境的可执行包类型的模型与本网元的运行环境匹配,则可以应用该模型。网元或独立计算节点接收到一个模型容器的模型,则都可以应用该模型。
在一种可选的实施方式中,一个网管系统可以训练多个类型的模型。所述模型的第一种类型包括参数和规则,所述模型的第二种类型包括函数或固定运行环境的可执行包,所述模型的第三种类型包括模型容器。网管系统训练多种类型的模型和独立计算节点相应优化多种类型的模型的步骤与网管系统训练一种类型的模型和独立计算节点优化该类型的模型的步骤相同,参照上述实施例的步骤具体实施,此处不作限定。
图3示出本公开实施例提供的网元管理方法的另一流程图。该网元管理方法可应用于独立计算节点。如图3所示,本实施例提供的网元管理方法包括以下步骤。
步骤201,接收网管系统发送的第二训练指令。
其中,第二训练指令为网管系统用于指定独立计算节点为特定网元提供智能运维能力支撑的指令。
在该步骤中,独立计算节点接收网管系统发送的第二训练指令,以进行模型训练以及模型优化。图1对应的实施例中训练模型的步骤由网管系统完成,对模型迭代优化的步骤由给独立计算节点完成,本实施例中训练模型和迭代优化模型的步骤由一个独立计算节点完成。
步骤202,获取各网元的第一网元数据。
其中,所述第一网元数据中具有第一类数据和第二类数据,所述第一网元数据一般为采集的较长周期的数据。第一类数据包括网元的算法数据和运行环境数据。例如,网元A的运行环境为Java,网元A的预先约定算法为算法b。第二类数据包括网元的配置参数、告警参数、性能参数、信令参数和测量报告参数等,配置参数可以包括网元位置、制式类型、硬件能力等参数,性能参数可以包括业务类型、业务量等参数。
在该步骤中,独立计算节点获取用于模型训练的第一网元数据,可以是一个网元或多个网元的数据,以根据第一网元数据进行模型训练。具体第一网元数据的获取途径可以是从各个网元直接采集的数据,也可以是外部系统导入的数据。
步骤203,确定待接收模型的网元。
在该步骤中,独立计算节点指定特定的待接收模型的网元来接收模型,也可以将任意一个网元作为所述待接收模型的网元。具体实施方式与图2对应的实施例中的实施方式相同,参照上述实施例即可。
步骤204,根据各网元的第一网元数据训练模型。
在该步骤中,独立计算节点根据所述第一网元数据训练模型。模型可以分为多个类型,但是一个独立计算节点只训练一个类型的模型,例如只训练参数和规则类型的模型。在每一种类型下还可以根据第二类数据训练细分成多个模型,细分的多个模型分别与待接收模型的网元相匹配。具体实施方式与图2对应的实施例中的实施方式相同,参照上述实施例即可。
需要说明的是,此处训练出的模型是基于网元的较长周期的数据训练出的长周期的训练结果。
步骤205,将训练获得的模型下发至待接收模型的网元。
在该步骤中,独立计算节点将训练获得的模型下发至特定的待接收模型的网元或者是任意一个网元。
需要说明的是,此处下发的模型可以是初始模型,即向所有的待接收模型的网元只下发与本独立计算节点能够训练的模型的类型对应的一种模型,之后再由待接收模型的网元连接的独立计算节点分别迭代优化,将迭代优化后的模型发送给对应的待接收模型的网元。
在一种可选的实施方式中,独立计算节点下发的模型也可以与待接收模型的网元相匹配,即向待接收模型的网元下发本独立计算节点能够训练的模型的类型下对应匹配的模型。为每个待接收模型的网元分配与之相匹配的模型,之后可以继续对模型进行迭代优化。
步骤206,接收待接收模型的网元返回的第二网元数据,并根据第二网元数据对模型迭代优化。
步骤207,将迭代优化后的模型发送至该待接收模型的网元。
在步骤206-步骤207中,待接收模型的网元接收该初始模型,进行推理,在业务处理流程中应用该初始模型,并生成第二网元数据(即模型应用结果),将该第二网元数据返回连接的本独立计算节点。本独立计算节点根据第二网元数据对该初始模型迭代优化,并将迭代优化后的模型返回给该待接收模型的网元。即根据各个待接收模型的网元返回的第二网元数据分别调整初始模型,为每个待接收模型的网元分配与之相匹配的模型。
本公开实施例中,部分网络中独立计算节点的能力很强,可以由独立计算节点直接完成模型训练和迭代优化。这样数据传递过程更短,一方面可以减少数据传递的资源消耗,另一方面也可以有效提升智能化处理的实时性。同时由于是一个独立计算节点采集边缘的网元的数据,也可以解决机器学习的模型训练时原始数据采集困难、不安全的问题。
在一种可选的实施方式中,为每个待接收模型的网元分配与之相匹配的模型,再在该相匹配的模型的基础上迭代优化,具体的迭代优化的步骤与上述独立计算节点下发初始模型时迭代优化的步骤相同,此处不作赘述。
在一种可选的实施方式中,网元和独立计算节点接收到模型后,也可以判断能否使用该模型,如果可以使用则使用,如果不能使用则丢弃该模型。具体实施方式与图2对应的实施例中的实施方式相同,参照上述实施例即可。
在一种可选的实施方式中,一个独立计算节点可以训练和优化多个类型的模型。所述模型的第一种类型包括参数和规则,所述模型的第二种类型包括函数或固定运行环境的可执行包,所述模型的第三种类型包括模型容器。独立计算节点训练和优化多种类型的模型的步骤与独立计算节点训练和优化一种类型的模型的步骤相同,参照上述实施例的步骤具体实施,此处不作限定。
图4示出本公开实施例提供的网元管理方法的另一流程图。该网元管理方法可应用于独立计算节点。如图4所示,本实施例提供的网元管理方法包括以下步骤。
步骤301,接收网管系统发送的第一训练指令。
其中,所述第一训练指令为网管系统向独立计算节点发送的用于联邦学习的指令。
在一些实施例中,在图3对应的实施例的基础上,存在数据隐私保护需求,模型训练的数据,只能由网元上报给独立计算节点,但单个独立计算节点的算力也有限,无法完成全部的模型训练。因此,网管系统选择多个进行联邦学习的独立计算节点,一个独立计算节点完成一部分样本数据的模型训练,最后由网管系统接收各个独立计算节点完成的模型训练结果,汇总生成最终的模型。在该步骤中,进行联邦学习的独立计算节点接收网管系统发送的第一训练指令。
步骤302,接收本独立计算节点连接的各网元的第一网元数据。
其中,所述第一网元数据中具有第一类数据和第二类数据,所述第一网元数据一般为采集的较长周期的数据。第一类数据包括网元的算法数据和运行环境数据。例如,网元A的运行环境为Java,网元A的预先约定算法为算法b。第二类数据包括网元的配置参数、告警参数、性能参数、信令参数和测量报告参数等,配置参数可以包括网元位置、制式类型、硬件能力等参数,性能参数可以包括业务类型、业务量等参数。
在该步骤中,进行联邦学习的独立计算节点接收本独立计算节点所连接的各网元的第一网元数据,即一个独立计算节点接收一部分网元的样本数据,而图2对应的实施例是一个独立计算节点获取全部网元的样本数据。
步骤303,确定待接收模型的网元。
在该步骤中,独立计算节点指定特定的待接收模型的网元来接收模型,也可以将任意一个网元作为所述待接收模型的网元。具体实施方式与图2对应的实施例中的实施方式相同,参照上述实施例即可。
步骤304,根据各网元的第一网元数据训练模型。
在该步骤中,独立计算节点根据所述第一网元数据训练模型。模型可以分为多个类型,但是一个独立计算节点只训练一个类型的模型,例如只训练参数和规则类型的模型。在每一种类型下还可以根据第二类数据训练细分成多个模型,细分的多个模型分别与待接收模型的网元相匹配。具体实施方式与图2对应的实施例中的实施方式相同,参照上述实施例即可。
需要说明的是,此处训练出的模型是基于网元的较长周期的数据训练出的长周期的训练结果。
步骤305,将训练获得的模型上传至所述网管系统。
在该步骤中,进行联邦学习的独立计算节点将训练好的模型上传至网管系统。以使网管系统收集各个参与联邦学习的独立计算节点训练出的模型,汇总并经过多次迭代优化,生成最终的模型。网管系统将训练好的模型分发给本独立计算节点确定出的待接收模型的网元,网元使用模型进行推理,在业务处理流程中应用该模型。
需要说明的是,进行联邦学习的独立计算节点训练的模型应为一个类型的模型,这样网管系统进行汇总生成的模型也是一个类型的模型。网管系统下发至网元的模型可以是初始模型,即向所有的待接收模型的网元只下发一种模型,之后再由对应的独立计算节点分别迭代优化,将迭代优化后的模型发送给对应的待接收模型的网元。
在一种可选的实施方式中,此处网管系统下发至网元的模型也可以与待接收模型的网元相匹配,各个待接收模型的网元的第二类数据不同,因此,根据不同第二类数据训练出的模型也不相同。为每个待接收模型的网元分配与之相匹配的模型,之后可以继续对模型进行迭代优化。
本公开实施例中,模型训练需要的所有网元数据只能由网元上报给一个独立计算节点的场景,存在数据隐私保护需求问题,但单个独立计算节点的算力也有限,无法完成全部的模型训练。可以通过网管系统调度采用联邦学习的方式完成模型训练,网管系统选择多个进行联邦学习的独立计算节点,一个独立计算节点完成一部分样本数据的模型训练,最后由网管系统接收各个独立计算节点完成的模型训练结果,汇总生成最终的模型。实现模型的快速部署和迭代更新,降低基站智能运维的成本。同时由于是独立计算节点分别采集对应的边缘的网元的数据,也可以解决机器学习的模型训练时原始数据采集困难、不安全的问题。
在一种可选的实施方式中,网元和独立计算节点接收到模型后,也可以判断能否使用该模型,如果可以使用则使用,如果不能使用则丢弃该模型。具体实施方式与图2对应的实施例中的实施方式相同,参照上述实施例即可。
在一种可选的实施方式中,一个进行联邦学习的独立计算节点可以训练多个类型的模型。所述模型的第一种类型包括参数和规则,所述模型的第二种类型包括函数或固定运行环境的可执行包,所述模型的第三种类型包括模型容器。进行联邦学习的独立计算节点训练多种类型的模型的步骤与进行联邦学习的独立计算节点训练一种类型的模型的步骤相同,参照上述实施例的步骤具体实施,此处不作限定。
图5示出本公开实施例提供的网管系统的结构示意图。基于与图2对应的实施例相同的技术构思,如图5所示,本公开实施例提供的网管系统,包括如下模块。
获取模块11,用于获取各网元的第一网元数据。
第一确定模块12,用于确定待接收模型的网元。
模型训练模块13,用于根据所述第一网元数据训练模型。
发送模块14,用于将训练获得的模型下发至所述待接收模型的网元。
在一些实施例中,所述网管系统,还包括:
第二确定模块,用于确定各所述待接收模型的网元连接的独立计算节点。
所述发送模块14还用于将所述模型下发至所述独立计算节点。
在一些实施例中,所述网管系统,还包括:
选择模块,用于选择多个独立计算节点。
所述发送模块14还用于向选择出的各个独立计算节点发送第一训练指令;将迭代优化后的模型下发至所述待接收模型的网元。
接收模块,用于接收各个独立计算节点返回的模型,所述模型是所述独立计算节点根据接收到的所述第一训练指令训练得到的。
优化模块,用于根据第一网元数据对模型迭代优化。
在一些实施例中,所述第一网元数据中具有第一类数据和第二类数据;所述第一确定模块12,具体用于:根据本网管系统中的第一类数据、所述第一网元数据中的第一类数据以及本网管系统能够训练的模型的类型,确定所述待接收模型的网元。
所述模型训练模块13,具体用于:根据所述第一网元数据中的第二类数据训练模型。
在一些实施例中,所述网管系统,还包括:
所述接收模块还用于接收网元发送的申请模型请求,所述申请模型请求中包括所述网元的第一类数据和第二类数据。
第二确定模块,用于若所述申请模型请求中第一类数据和本网管系统的第一类数据匹配,则确定与所述申请模型请求中的第二类数据对应的模型,并将确定出的模型发送至所述网元。
在一些实施例中,所述网管系统,还包括:
所述发送模块14还用于将所述模型发送给其他用于训练相同类型模型的网管系统。
在一些实施例中,所述网管系统,还包括:
所述接收模块还用于接收其他网管系统发送的模型。
优化模块,用于根据本网管系统存储的第一网元数据对所述模型进行迭代优化。
所述发送模块14还用于将迭代优化后的模型下发至所述待接收模型的网元。
在一些实施例中,所述第一类数据包括算法数据和运行环境数据,所述模型的第一种类型包括参数和规则,所述模型的第二种类型包括函数或固定运行环境的可执行包,所述模型的第三种类型包括模型容器。
所述第一确定模块12,具体用于:
若本网管系统能够训练的模型的类型为参数和规则,则确定与本网管系统具有相同的运行环境数据且与本网管系统预先约定相同算法的网元为所述待接收模型的网元。
若本网管系统能够训练的模型的类型为函数或固定运行环境的可执行包,则确定与本网管系统具有相同的运行环境数据且与本网管系统未预先约定算法的网元为所述待接收模型的网元。
若本网管系统能够训练的模型的类型为模型容器,则确定与本网管系统的运行环境数据不同且与本网管系统未预先约定算法的网元为所述待接收模型的网元。
其中,所述算法根据算法数据确定。
图6示出本公开实施例提供的独立计算节点的结构示意图。基于与图3对应的实施例相同的技术构思,如图6所示,本公开实施例提供的独立计算节点,包括如下模块。
接收模块21,用于接收网管系统发送的第二训练指令。
获取模块22,用于获取各网元的第一网元数据。
第一确定模块23,用于确定待接收模型的网元。
模型训练模块24,用于根据各网元的第一网元数据训练模型。
发送模块25,用于将训练获得的模型下发至所述待接收模型的网元。
所述接收模块21还用于接收所述待接收模型的网元返回的第二网元数据。
优化模块26,用于根据所述第二网元数据对所述模型迭代优化。
所述发送模块25还用于将迭代优化后的模型发送至该待接收模型的网元。
图7示出本公开实施例提供的独立计算节点的另一结构示意图。基于与图4对应的实施例相同的技术构思,如图7所示,本公开实施例提供的独立计算节点,包括如下模块。
接收模块31,用于接收网管系统发送的第一训练指令;接收本独立计算节点连接的各网元的第一网元数据。
确定模块32,用于确定待接收模型的网元。
模型训练模块33,用于根据各网元的第一网元数据训练模型。
发送模块34,用于将训练获得的模型上传至所述网管系统。
本公开实施例还提供了一种计算机设备,该计算机设备包括:一个或多个处理器以及存储装置;其中,存储装置上存储有一个或多个程序,当上述一个或多个程序被上述一个或多个处理器执行时,使得上述一个或多个处理器实现如前述各实施例所提供的网元管理方法。
本公开实施例还提供了一种计算机可读介质,其上存储有计算机程序,其中,该计算机程序被执行时实现如前述各实施例所提供的网元管理方法。
本领域普通技术人员可以理解,上文中所公开方法中的全部或某些步骤、装置中的功能模块/单元可以被实施为软件、固件、硬件及其适当的组合。在硬件实施方式中,在以上描述中提及的功能模块/单元之间的划分不一定对应于物理组件的划分;例如,一个物理组件可以具有多个功能,或者一个功能或步骤可以由若干物理组件合作执行。某些物理组件或所有物理组件可以被实施为由处理器,如中央处理器、数字信号处理器或微处理器执行的软件,或者被实施为硬件,或者被实施为集成电路,如专用集成电路。这样的软件可以分布在计算机可读介质上,计算机可读介质可以包括计算机存储介质(或非暂时性介质)和通信介质(或暂时性介质)。如本领域普通技术人员公知的,术语计算机存储介质包括在用于存储信息(诸如计算机可读指令、数据结构、程序模块或其他数据)的任何方法或技术中实施的易失性和非易失性、可移除和不可移除介质。计算机存储介质包括但不限于RAM、ROM、EEPROM、闪存或其他存储器技术、CD-ROM、数字多功能盘(DVD)或其他光盘存储、磁盒、磁带、磁盘存储或其他磁存储装置、或者可以用于存储期望的信息并且可以被计算机访问的任何其他的介质。此外,本领域普通技术人员公知的是,通信介质通常包含计算机可读指令、数据结构、程序模块或者诸如载波或其他传输机制之类的调制数据信号中的其他数据,并且可包括任何信息递送介质。
本文已经公开了示例实施例,并且虽然采用了具体术语,但它们仅用于并仅应当被解释为一般说明性含义,并且不用于限制的目的。在一些实例中,对本领域技术人员显而易见的是,除非另外明确指出,否则可单独使用与特定实施例相结合描述的特征、特性和/或元素,或可与其他实施例相结合描述的特征、特性和/或元件组合使用。因此,本领域技术人员将理解,在不脱离由所附的权利要求阐明的本发明的范围的情况下,可进行各种形式和细节上的改变。
Claims (15)
1.一种网元管理方法,包括:
获取各网元的第一网元数据;
确定待接收模型的网元;
根据所述第一网元数据训练模型;
将训练获得的模型下发至所述待接收模型的网元。
2.如权利要求1所述的方法,其中,所述根据所述第一网元数据训练模型之后,还包括:
确定各所述待接收模型的网元连接的独立计算节点;
将所述模型下发至所述独立计算节点。
3.如权利要求1所述的方法,其中,所述根据所述第一网元数据训练模型之后,还包括:
选择多个独立计算节点,并向选择出的各个独立计算节点发送第一训练指令;
接收各个独立计算节点返回的模型,所述模型是所述独立计算节点根据接收到的所述第一训练指令训练得到的;
根据所述第一网元数据对所述模型迭代优化,并将迭代优化后的模型下发至所述待接收模型的网元。
4.如权利要求1所述的方法,其中,所述第一网元数据中具有第一类数据和第二类数据;所述确定待接收模型的网元,包括:根据本网管系统中的第一类数据、所述第一网元数据中的第一类数据以及本网管系统能够训练的模型的类型,确定所述待接收模型的网元;
所述根据所述第一网元数据训练模型,包括:
根据所述第一网元数据中的第二类数据训练模型。
5.如权利要求4所述的方法,其中,所述将训练获得的模型下发至所述待接收模型的网元之后,还包括:
接收网元发送的申请模型请求,所述申请模型请求中包括所述网元的第一类数据和第二类数据;
若所述申请模型请求中第一类数据和本网管系统的第一类数据匹配,则确定与所述申请模型请求中的第二类数据对应的模型,并将确定出的模型发送至所述网元。
6.如权利要求1所述的方法,其中,所述将训练获得的模型下发至所述待接收模型的网元之后,还包括:
将所述模型发送给其他用于训练相同类型模型的网管系统。
7.如权利要求6所述的方法,其中,所述方法还包括:
接收其他网管系统发送的模型;
根据本网管系统存储的第一网元数据对所述模型进行迭代优化;
将迭代优化后的模型下发至所述待接收模型的网元。
8.如权利要求4或5所述的方法,其中,所述第一类数据包括算法数据和运行环境数据,所述模型的第一种类型包括参数和规则,所述模型的第二种类型包括函数或固定运行环境的可执行包,所述模型的第三种类型包括模型容器;
所述根据本网管系统中的第一类数据、所述第一网元数据中的第一类数据以及本网管系统能够训练的模型的类型,确定所述待接收模型的网元,包括:
若本网管系统能够训练的模型的类型为参数和规则,则确定与本网管系统具有相同的运行环境数据且与本网管系统预先约定相同算法的网元为所述待接收模型的网元;
若本网管系统能够训练的模型的类型为函数或固定运行环境的可执行包,则确定与本网管系统具有相同的运行环境数据且与本网管系统未预先约定算法的网元为所述待接收模型的网元;
若本网管系统能够训练的模型的类型为模型容器,则确定与本网管系统的运行环境数据不同且与本网管系统未预先约定算法的网元为所述待接收模型的网元;
其中,所述算法根据算法数据确定。
9.一种网元管理方法,包括:
接收网管系统发送的第二训练指令;
获取各网元的第一网元数据;
确定待接收模型的网元;
根据各网元的第一网元数据训练模型;
将训练获得的模型下发至所述待接收模型的网元;
接收所述待接收模型的网元返回的第二网元数据,并根据所述第二网元数据对所述模型迭代优化;
将迭代优化后的模型发送至该待接收模型的网元。
10.一种网元管理方法,包括:
接收网管系统发送的第一训练指令;
接收本独立计算节点连接的各网元的第一网元数据;
确定待接收模型的网元;
根据各网元的第一网元数据训练模型;
将训练获得的模型上传至所述网管系统。
11.一种网管系统,包括:
获取模块,用于获取各网元的第一网元数据;
确定模块,用于确定待接收模型的网元;
模型训练模块,用于根据所述第一网元数据训练模型;
发送模块,用于将训练获得的模型下发至所述待接收模型的网元。
12.一种独立计算节点,包括:
接收模块,用于接收网管系统发送的第二训练指令;
获取模块,用于获取各网元的第一网元数据;
确定模块,用于确定待接收模型的网元;
模型训练模块,用于根据各网元的第一网元数据训练模型;
发送模块,用于将训练获得的模型下发至所述待接收模型的网元;
所述接收模块还用于接收所述待接收模型的网元返回的第二网元数据;
优化模块,用于根据所述第二网元数据对所述模型迭代优化;
所述发送模块还用于将迭代优化后的模型发送至该待接收模型的网元。
13.一种独立计算节点,包括:
接收模块,用于接收网管系统发送的第一训练指令;接收本独立计算节点连接的各网元的第一网元数据;
确定模块,用于确定待接收模型的网元;
模型训练模块,用于根据各网元的第一网元数据训练模型;
发送模块,用于将训练获得的模型上传至所述网管系统。
14.一种计算机设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1-10任一项所述的网元管理方法。
15.一种计算机可读介质,其上存储有计算机程序,其中,所述程序被执行时实现如权利要求1-10任一项所述的网元管理方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010598928.XA CN113259147B (zh) | 2020-06-28 | 2020-06-28 | 网元管理方法、装置、计算机设备、介质 |
PCT/CN2021/102711 WO2022001941A1 (zh) | 2020-06-28 | 2021-06-28 | 网元管理方法、网管系统、独立计算节点、计算机设备、存储介质 |
EP21834141.0A EP4175235A1 (en) | 2020-06-28 | 2021-06-28 | Network element management method, network management system, independent computing node, computer device, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010598928.XA CN113259147B (zh) | 2020-06-28 | 2020-06-28 | 网元管理方法、装置、计算机设备、介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113259147A true CN113259147A (zh) | 2021-08-13 |
CN113259147B CN113259147B (zh) | 2022-07-26 |
Family
ID=77220102
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010598928.XA Active CN113259147B (zh) | 2020-06-28 | 2020-06-28 | 网元管理方法、装置、计算机设备、介质 |
Country Status (3)
Country | Link |
---|---|
EP (1) | EP4175235A1 (zh) |
CN (1) | CN113259147B (zh) |
WO (1) | WO2022001941A1 (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114189890A (zh) * | 2021-12-08 | 2022-03-15 | 中国电信股份有限公司 | 更新网络服务质量模型的方法、装置、设备及存储介质 |
CN114302421A (zh) * | 2021-11-29 | 2022-04-08 | 北京邮电大学 | 通信网络架构的生成方法、装置、电子设备及介质 |
CN115643558A (zh) * | 2022-12-13 | 2023-01-24 | 亚信科技(中国)有限公司 | 数据处理方法、装置、电子设备及存储介质 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114650227B (zh) * | 2022-01-27 | 2023-08-18 | 北京邮电大学 | 一种分层联邦学习场景下的网络拓扑构建方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050123027A1 (en) * | 2003-12-07 | 2005-06-09 | Adaptive Spectrum And Signal Alignment, Inc. | DSL system estimation and parameter recommendation |
CN106899979A (zh) * | 2015-12-18 | 2017-06-27 | 中兴通讯股份有限公司 | 一种部署多模基站的方法及装置 |
CN108718249A (zh) * | 2018-04-27 | 2018-10-30 | 广州西麦科技股份有限公司 | 基于sdn网络的网络加速方法、装置与计算机可读存储介质 |
CN110263936A (zh) * | 2019-06-14 | 2019-09-20 | 深圳前海微众银行股份有限公司 | 横向联邦学习方法、装置、设备及计算机存储介质 |
US20190332955A1 (en) * | 2018-04-30 | 2019-10-31 | Hewlett Packard Enterprise Development Lp | System and method of decentralized machine learning using blockchain |
CN110417565A (zh) * | 2018-04-27 | 2019-11-05 | 华为技术有限公司 | 一种模型更新方法、装置及系统 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11379254B1 (en) * | 2018-11-18 | 2022-07-05 | Pure Storage, Inc. | Dynamic configuration of a cloud-based storage system |
CN109871702B (zh) * | 2019-02-18 | 2024-06-28 | 深圳前海微众银行股份有限公司 | 联邦模型训练方法、系统、设备及计算机可读存储介质 |
CN110633806B (zh) * | 2019-10-21 | 2024-04-26 | 深圳前海微众银行股份有限公司 | 纵向联邦学习系统优化方法、装置、设备及可读存储介质 |
-
2020
- 2020-06-28 CN CN202010598928.XA patent/CN113259147B/zh active Active
-
2021
- 2021-06-28 EP EP21834141.0A patent/EP4175235A1/en active Pending
- 2021-06-28 WO PCT/CN2021/102711 patent/WO2022001941A1/zh unknown
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050123027A1 (en) * | 2003-12-07 | 2005-06-09 | Adaptive Spectrum And Signal Alignment, Inc. | DSL system estimation and parameter recommendation |
CN106899979A (zh) * | 2015-12-18 | 2017-06-27 | 中兴通讯股份有限公司 | 一种部署多模基站的方法及装置 |
CN108718249A (zh) * | 2018-04-27 | 2018-10-30 | 广州西麦科技股份有限公司 | 基于sdn网络的网络加速方法、装置与计算机可读存储介质 |
CN110417565A (zh) * | 2018-04-27 | 2019-11-05 | 华为技术有限公司 | 一种模型更新方法、装置及系统 |
US20190332955A1 (en) * | 2018-04-30 | 2019-10-31 | Hewlett Packard Enterprise Development Lp | System and method of decentralized machine learning using blockchain |
CN110263936A (zh) * | 2019-06-14 | 2019-09-20 | 深圳前海微众银行股份有限公司 | 横向联邦学习方法、装置、设备及计算机存储介质 |
Non-Patent Citations (1)
Title |
---|
HUAWEI: "R3-161759 "RAN Support for Core Network Slicing"", 《3GPP TSG_RAN\WG3_IU》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114302421A (zh) * | 2021-11-29 | 2022-04-08 | 北京邮电大学 | 通信网络架构的生成方法、装置、电子设备及介质 |
CN114189890A (zh) * | 2021-12-08 | 2022-03-15 | 中国电信股份有限公司 | 更新网络服务质量模型的方法、装置、设备及存储介质 |
CN115643558A (zh) * | 2022-12-13 | 2023-01-24 | 亚信科技(中国)有限公司 | 数据处理方法、装置、电子设备及存储介质 |
CN115643558B (zh) * | 2022-12-13 | 2023-03-03 | 亚信科技(中国)有限公司 | 数据处理方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113259147B (zh) | 2022-07-26 |
WO2022001941A1 (zh) | 2022-01-06 |
EP4175235A1 (en) | 2023-05-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113259147B (zh) | 网元管理方法、装置、计算机设备、介质 | |
CN107005480B (zh) | 用于sdt与nfv和sdn相互配合的系统和方法 | |
US10447547B2 (en) | Method and apparatus for NFV management and orchestration | |
Lee et al. | Low cost MEC server placement and association in 5G networks | |
Ozturk et al. | Energy‐aware smart connectivity for IoT networks: enabling smart ports | |
US11689961B2 (en) | Systems and methods for distribution of application logic in digital networks | |
Tinini et al. | 5GPy: A SimPy-based simulator for performance evaluations in 5G hybrid Cloud-Fog RAN architectures | |
Alghamdi et al. | Time-optimized task offloading decision making in mobile edge computing | |
Mlika et al. | Network slicing for vehicular communications: a multi-agent deep reinforcement learning approach | |
Talpur et al. | Reinforcement learning-based dynamic service placement in vehicular networks | |
Koudouridis et al. | An architecture and performance evaluation framework for artificial intelligence solutions in beyond 5G radio access networks | |
Sun et al. | Energy-efficient spectrum sharing for 6G ubiquitous IoT networks through blockchain | |
Laroui et al. | Virtual mobile edge computing based on IoT devices resources in smart cities | |
WO2022038760A1 (ja) | 通信品質を予測する装置、方法及びプログラム | |
Melgarejo et al. | Optimizing flying base station connectivity by RAN slicing and reinforcement learning | |
US11943801B2 (en) | Method and apparatus for abstracting network resources to support end user mobility | |
Arora et al. | A 5g facility for trialing and testing vertical services and applications | |
Sharma et al. | Advanced spectrum management for next-generation vehicular communication: an AI approach | |
US11622322B1 (en) | Systems and methods for providing satellite backhaul management over terrestrial fiber | |
Kalyoncu et al. | A data analysis methodology for obtaining network slices towards 5g cellular networks | |
Sreenivasulu et al. | Deep learning based efficient channel allocation algorithm for next generation cellular networks | |
Borcoci et al. | Edge Computing Architectures—A Survey on Convergence of Solutions | |
Rafique et al. | A survey on beyond 5g network slicing for smart cities applications | |
CN114531684B (zh) | 一种用于电力物联网的业务并行调度方法和装置 | |
WO2024038555A1 (ja) | システム、装置、方法、及び非一時的なコンピュータ可読媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |