CN112512058A - 网络优化方法、服务器、客户端设备、网络设备和介质 - Google Patents
网络优化方法、服务器、客户端设备、网络设备和介质 Download PDFInfo
- Publication number
- CN112512058A CN112512058A CN202010445459.8A CN202010445459A CN112512058A CN 112512058 A CN112512058 A CN 112512058A CN 202010445459 A CN202010445459 A CN 202010445459A CN 112512058 A CN112512058 A CN 112512058A
- Authority
- CN
- China
- Prior art keywords
- model
- network
- machine learning
- measurement
- equipment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000005457 optimization Methods 0.000 title claims abstract description 298
- 238000000034 method Methods 0.000 title claims abstract description 214
- 238000005259 measurement Methods 0.000 claims abstract description 388
- 238000012549 training Methods 0.000 claims abstract description 327
- 238000010801 machine learning Methods 0.000 claims abstract description 229
- 238000012545 processing Methods 0.000 claims abstract description 158
- 230000004044 response Effects 0.000 claims description 136
- 230000008569 process Effects 0.000 claims description 75
- 238000004422 calculation algorithm Methods 0.000 claims description 25
- 230000004913 activation Effects 0.000 claims description 22
- 230000015654 memory Effects 0.000 claims description 19
- 230000006870 function Effects 0.000 claims description 18
- 238000004364 calculation method Methods 0.000 claims description 13
- 230000003213 activating effect Effects 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 6
- 238000013473 artificial intelligence Methods 0.000 description 191
- 238000004891 communication Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 16
- 230000002776 aggregation Effects 0.000 description 13
- 238000004220 aggregation Methods 0.000 description 13
- 230000005540 biological transmission Effects 0.000 description 5
- 238000009795 derivation Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 238000012706 support-vector machine Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000003066 decision tree Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000005265 energy consumption Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 230000000737 periodic effect Effects 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000009849 deactivation Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000001617 migratory effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/16—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using machine learning or artificial intelligence
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W24/00—Supervisory, monitoring or testing arrangements
- H04W24/02—Arrangements for optimising operational condition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/08—Configuration management of networks or network elements
- H04L41/0803—Configuration setting
- H04L41/0823—Configuration setting characterised by the purposes of a change of settings, e.g. optimising configuration for enhancing reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W24/00—Supervisory, monitoring or testing arrangements
- H04W24/10—Scheduling measurement reports ; Arrangements for measurement reports
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W24/00—Supervisory, monitoring or testing arrangements
- H04W24/08—Testing, supervising or monitoring using real traffic
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Theoretical Computer Science (AREA)
- Computing Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Mobile Radio Communication Systems (AREA)
- Computer And Data Communications (AREA)
Abstract
本申请提出一种网络优化方法、服务器、客户端设备、网络设备和介质。该方法包括:发送会话建立请求消息至客户端设备,以请求客户端设备对指定的网络侧设备进行测量配置和对连接于指定的网络侧设备的终端设备进行测量配置;接收指定的网络侧设备的测量报告消息和终端设备的测量报告消息;根据预先获取的机器学习描述信息,确定是否需要客户端设备进行协同训练;基于是否需要客户端设备进行协同训练和所接收的测量报告消息中的测量数据,针对网络优化进行指定的模型训练处理,并将模型训练处理结果发送至客户端设备,以用于指示客户端设备根据模型训练处理结果得到网络优化操作。
Description
技术领域
本申请涉及通信领域,具体涉及一种网络优化方法、服务器、客户端设备、网络设备和介质。
背景技术
当前正在部署第五代无线通信网络(The 5th Generation Wireless SystemsNetwork),并且有望在未来发展超过5G(Beyond 5G,B5G)网络。
在对网络进行优化时,还没有如何对通信网络配置人工智能(ArtificialIntelligence,AI)功能,从而基于AI进行网络智能优化流程的网络智能化方案。
发明内容
本申请提供用于网络优化方法、服务器、客户端设备、网络设备和介质。
第一方面,本申请实施例提供一种网络优化方法,包括:发送会话建立请求消息至客户端设备,以请求客户端设备对指定的网络侧设备进行测量配置和对连接于指定的网络侧设备的终端设备进行测量配置;接收指定的网络侧设备的测量报告消息和终端设备的测量报告消息;根据预先获取的机器学习描述信息,确定是否需要客户端设备进行协同训练;基于是否需要客户端设备进行协同训练和所接收的测量报告消息中的测量数据,针对网络优化进行指定的模型训练处理,并将模型训练处理结果发送至客户端设备,以用于指示客户端设备根据模型训练处理结果得到网络优化操作。
第二方面,本申请实施例提供一种网络优化方法,包括:响应于接收到来自预定服务器的会话建立请求消息,根据会话建立请求消息中包含的测量控制信息,对指定的网络侧设备和连接于指定的网络侧设备的终端设备进行测量配置;发送指定的网络侧设备的测量报告消息和终端设备的测量报告消息至预定服务器,指定的网络侧设备的测量报告和终端设备的测量报告在预定服务器中,被用于针对网络优化进行的模型训练处理;响应于接收到来自预定服务器的模型训练处理结果,根据模型训练处理结果处理得到网络优化操作。
第三方面,本申请实施例提供一种网络优化方法,包括:响应于接收到来自客户端设备的测量配置请求,根据测量配置请求中的网络侧测量控制信息进行测量配置和对连接于本网络侧设备的终端设备进行测量配置;将测量得到当前网络侧设备的测量报告和接收到的终端设备的测量报告,分别发送至预定服务器和预定客户端设备,当前网络侧设备的测量报告和终端设备的测量报告在预定服务器和预定客户端设备中被用于进行针对网络优化的模型训练处理。
第四方面,本申请实施例提供一种服务器,包括:测量配置请求模块,用于发送会话建立请求消息至客户端设备,以请求客户端设备对指定的网络侧设备进行测量配置和对连接于指定的网络侧设备的终端设备进行测量配置;测量报告接收模块,用于接收指定的网络侧设备的测量报告消息和终端设备的测量报告消息;协同训练确定模块,用于根据预先获取的机器学习描述信息,确定是否需要客户端设备进行协同训练;模型训练处理模块,用于基于是否需要客户端设备进行协同训练和所接收的测量报告消息中的测量数据,针对网络优化进行指定的模型训练处理,并将模型训练处理结果发送至客户端设备,以用于指示客户端设备根据模型训练处理结果得到网络优化操作。
第五方面,本申请实施例提供一种客户端设备,包括:测量配置模块,用于响应于接收到来自预定服务器的会话建立请求消息,根据会话建立请求消息中包含的测量控制信息,对指定的网络侧设备和连接于指定的网络侧设备的终端设备进行测量配置;测量报告发送模块,用于发送指定的网络侧设备的测量报告消息和终端设备的测量报告消息至预定服务器,指定的网络侧设备的测量报告和终端设备的测量报告在预定服务器中,被用于针对网络优化进行的模型训练处理;优化操作确定模块,用于响应于接收到来自预定服务器的模型训练处理结果,根据模型训练处理结果处理得到网络优化操作。
第六方面,本申请实施例提供一种网络侧设备,包括:测量配置模块,用于响应于接收到来自客户端设备的测量配置请求,根据测量配置请求中的网络侧测量控制信息进行测量配置和对连接于本网络侧设备的终端设备进行测量配置;测量报告发送模块,用于将测量得到当前网络侧设备的测量报告和接收到的终端设备的测量报告,分别发送至预定服务器和预定客户端设备,当前网络侧设备的测量报告和终端设备的测量报告在预定服务器和预定客户端设备中,被用于进行针对网络优化的模型训练处理。
第七方面,本申请实施例提供一种网络优化系统,包括:服务器,用于执上述第一方面的网络优化方法;一个或多个客户端设备,用于执行上述第二方面的网络优化方法;一个或多个网络侧设备,用于执行上述第三方面的网络优化方法。
第八方面,本申请实施例提供一种网络设备,包括:一个或多个处理器;存储器,其上存储有一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现本申请实施例中的任意一种网络优化方法。
第九方面,本申请实施例提供了一种存储介质,存储介质存储有计算机程序,计算机程序被处理器执行时实现本申请实施例中的任意一种网络优化方法。
根据本申请实施例的网络优化方法、服务器、网络设备和介质,通过请求客户端设备对网络侧设备和终端侧设备进行测量配置,并根据预先获取的机器学习描述信息判定是否需要与客户端设备进行协同训练,根据判定结果进行不同的模型训练处理,从而实现通过服务器与客户端设备来部署机器学习训练过程,来实行分布式的模型训练和处理,得到网络优化操作,从而在通过网络系统中通过人工智能和机器学习对采集的数据进行深度分析,为运营商网络优化提供了新的优化方式和网络智能优化流程。
根据本申请实施例的网络优化方法、客户端设备、网络设备和介质,响应于服务器的会话建立请求消息,对网络侧设备和终端侧设备进行测量配置,并响应于来自预定服务器的模型训练处理结果,处理得到网络优化操作,基于与服务器之间传输的模型训练处理结果,与服务器实现分布式模型训练处理,最终得到网络优化操作,使得网络侧设备和终端设备设备所采集的数据能够在机器学习中被深度分析,通过分布式模型训练为运营商网络优化提供新的优化方式和网络智能优化流程。
根据本申请实施例的网络优化方法、网络侧设备、网络设备和介质,可以根据接收到的网络侧测量控制信息进行测量配置并对连接的终端设备进行测量配置,并将执行测量得到测量报告和接收的终端侧设备的测量报告至预定服务器和客户端设备,网络侧设备的测量报告和终端设备的测量报告在预定服务器和预定客户端设备中被用于进行针对网络优化的模型训练处理,使得网络侧设备和终端设备设备所采集的数据能够在人工智能和机器学习中被深度分析,并在预定服务器和预定客户端设备中被进行分布式模型训练处理,为运营商网络优化提供新的优化方式和网络智能优化流程。
关于本申请的以上实施例和其他方面以及其实现方式,在附图说明、具体实施方式和权利要求中提供更多说明。
附图说明
图1示出本申请一实施例的网络优化方法的流程示意图。
图2示出本申请另一实施例的网络优化方法的流程示意图。
图3示出本申请再一实施例的网络优化方法的流程示意图。
图4示出本申请一个实施例的网络优化方法的时序流程示意图。
图5示出本申请另一个实施例的网络优化方法的时序流程示意图。
图6示出本申请一个实施例的服务器与网络侧设备之间建立通信接口的流程示意图。
图7示出本申请一个实施例的建立服务器与用户设备相关的数据通道的流程示意图。
图8示出本申请一实施例提供的服务器的结构示意图。
图9示出本申请一实施例提供的客户端设备的结构示意图。
图10示出本申请一实施例提供的网络侧设备的结构示意图。
图11示出本申请一实施例提供的网络优化系统的结构示意图。
图12是示出能够实现根据本申请实施例的计算设备的示例性硬件架构的结构图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚明白,下文中将结合附图对本申请的实施例进行详细说明。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互任意组合。
在本申请实施例中,5G网络在性能和灵活性上带来根本性改变的同时,网络运营的复杂度也在显著提高,运营商急需自动化和智能化手段降低网络部署和运维成本,提升网络性能和用户体验。LTE和5G中自组织网络技术自组织网络(Self-Organized Network,SON)和最小化驱动测试(Minimization of Drive Tests,MDT)对网络优化有很大作用,但并没有实现灵活的智能化网络的目标,5G网络面临着诸多网络关键业绩指标(KeyPerformance Indicator,KPI)指标的联合优化问题的挑战。这些指标例如包括时延,可靠性,连接数密度,用户体验等。
传统的网络优化方法日渐呈现出反应周期长,易出错,成本高等问题。无线接入网(Remote Asynchronous Node,RAN)节点设备和终端设备中的测量量,一方面可以用于网管系统监测网络KPI,也可以协助网络厂商优化无线资源管理。本申请实施例提供一种网络优化方案,通过人工智能/机器学习通过深度分析采集的数据,为运营商网络优化提供了新的网络优化方法,实现在现有网络架构中支持基于AI的网络智能优化流程。
在本申请实施例中,服务端设备(AI Centralized Server),也可以称为是具有AI功能的AI集中服务器或AI控制器,一个或多个客户端设备(AI Distributed Client),也可以成为是具有AI功能的AI分布式客户端,每个客户端设备可以布置在一个RAN节点设备上,该RAN节点设备例如可以包括基站等网络侧节点设备。
图1示出本申请一实施例的网络优化方法的流程示意图。如图1所示,本申请实施例中的网络优化方法可以包括以下步骤。
S110,发送会话建立请求消息至客户端设备,以请求客户端设备对指定的网络侧设备进行测量配置和对连接于指定的网络侧设备的终端设备进行测量配置。
S120,接收指定的网络侧设备的测量报告消息和终端设备的测量报告消息。
S130,根据预先获取的机器学习描述信息,确定是否需要客户端设备进行协同训练。
S140,基于是否需要客户端设备进行协同训练和所接收的测量报告消息中的测量数据,针对网络优化进行指定的模型训练处理,并将模型训练处理结果发送至客户端设备,以用于指示客户端设备根据模型训练处理结果得到网络优化操作。
根据本申请实施例的网络优化方法,通过请求客户端设备对网络侧设备和终端侧设备进行测量配置,并根据预先获取的机器学习描述信息判定是否需要与客户端设备进行协同训练,根据判定结果进行不同的模型训练处理,从而实现通过服务器与客户端设备来部署机器学习训练过程,来实行分布式的模型训练和处理,得到网络优化操作,从而在通过网络系统中通过人工智能和机器学习对采集的数据进行深度分析,为运营商网络优化提供了新的优化方式和网络智能优化流程。
在一个实施例中,在步骤S110之前,网络优化方法还包括:响应于接收到的第一激活消息,激活机器学习功能,并获取激活消息中携带的机器学习描述信息和对应的机器学习模型的训练超参数。
在该实施例中,网络管理维护系统(Operation Administration AndMaintenance,OAM)或者核心网,通过AI集中服务器的接口发送机器学习激活消息(Activation Message),用以指示AI集中服务器激活或使用ML(Machine learning)功能。其中,AI集中式服务器或者AI控制节点可以位于核心网内部或者外部。
示例性地,该激活消息中包含指示ML功能是否激活的指示;ML描述信息(MLDescription Information);相应的ML模型的训练超参,例如学习率(Learning Rate)、迭代次数(Epoch)、训练批量大小(Batchsize)等超参数。
在一个实施例中,ML描述消息包含以下一项或者多项:选用的一个或者多个ML类型如监督学习、非监督学习、强化学习、深度学习、迁移学习等,选用的一个或者多个ML模型如卷积神经网络(CNN)、循环神经网络(RNN)、长短期记忆网络(LSTM)、支持矢量机(SVM)、自回归移动平均模型(ARIMA)、决策树等。
在该实施例中,OAM或核心网可以激活AI集中服务器的AI功能,并通过ML描述信息实现对AI集中服务器进行模型训练所使用的ML算法和ML模型进行控制,通过AI集中服务器进行模型训练所使用的ML算法和ML模型,AI集中服务器可以实现确定是否需要和AI分布式客户端协同进行模型训练。
在一个实施例中,会话建立请求消息中可以包括针对客户端设备的测量控制信息、客户端设备的计算处理能力信息项、以及要求客户端设备可支持的一个或多个机器学习模型,其中,测量配置信息用于指示指定的网络侧设备需要配置的测量量和测量上报方式。
在该实施例中,AI集中服务器发送ML会话建立请求消息(ML SESSION SETUPREQUEST)消息给一个或者多个基站内的AI分布式客户端,用于配置某个ML会话所需要的无线侧测量数据。
在一个实施例中,该会话请求消息中可以包括测量控制信息,用以指示AI分布式客户端做哪些测量以及如何上报;分布式客户端的AI计算处理能力,例如可以包含AI分布式客户端的CPU的内存大小、GPU的显存大小、CPU/GPU当前状态的资源利用率等;以及指示分布式客户端上报可支持的一个或者多个ML模型。
在一个实施例中,该会话请求消息中还可以包括ML会话标识(ML Session ID),用来唯一标志某个机器学习会话进程,如果不包含会话请求消息中ML会话ID,表明请求消息中的测量控制是针对所有的ML的进程。也就是说,可以针对全部机器学习进程,指示需要采集的测量量和测量上报方式。
在本申请实施例中,机器学习进程可以用于表示会话建立请求中携带的测量控制信息所对应的机器学习。示例性地,机器学习进程可以根据不同的优化指标来确定,例如针对不同通信质量指标而设置不同的优化指标,不同的优化指标对应不同的机器学习进程;或者,机器学习进程可以由机器学习类型来确定,机器学习类型包括但不限于是监督学习、非监督学习、强化学习、深度学习、迁移学习中的任一种;或者,机器学习进程可以由机器学习模型来确定,机器学习模型包括但不限于是:卷积神经网络、循环神经网络、长短期记忆网络、支持矢量机、自回归移动平均模型、决策树中的任一种。
在一个实施例中,在步骤S110之后,网络优化方法还包括:响应于接收到的会话建立响应消息,根据会话建立响应消息中携带的成功标识,确定客户端能够满足对客户端设备计算处理能力的要求信息。
在该实施例中,通过会话建立响应消息可以确定对网络侧客户端和终端设备是否测量配置成功,以及,客户端设备是否满足会话建立请求中所要求的客户端支持的一个或者多个ML模型。
示例性地,如果基站侧测量和终端侧的测量都配置成功,以及位于基站的客户端设备可以满足建立请求消息中的ML模型,则基站向AI集中服务器发送ML会话建立响应消息,其中消息中携带成功指示。如果基站侧测量或者UE侧测量配置失败,或以无法满足建立请求消息中的ML模型,则基站向AI集中服务器发送ML会话建立响应消息,其中消息中携带失败指示,消息中可选的携带ML会话ID(ML Session ID)。示例性地,ML会话建立响应消息中可以携带ML会话ID。
在一个实施例中,S120具体可以包括:接收指定的网络侧设备的测量报告和由指定的网络侧设备发送的终端设备的测量报告。
在该实施例中,AI集中服务器并不直接与终端设备连接,终端设备将测量报告上报到网络侧设备后,网络侧设备将终端设备的测量报告,AI服务器可以与网络侧设备之间的通讯接口,得到终端设备的测量报告。
在一个实施例中,机器学习描述信息包括选用的一个或多个机器学习类型和选用的一个或多个机器学习模型;S130具体可以包括:S131,根据所选用的机器学习类型的所选用的机器学习模型,获取预先设定的与机器学习类型和机器学习模型对应的训练模式;S132,根据预先设定的训练模式,确定是否需要客户端设备进行协同训练。
在该实施例中,通过ML描述信息中规定AI集中服务器进行模型训练所使用的ML算法和ML模型进行控制,确定是否需要和AI分布式客户端协同进行模型训练。示例性地,可以预先确定所选用一部分ML算法和ML模型,与无需使用AI分布式客户端协同进行模型训练的第一对应关系,以及所选用另一部分ML算法和ML模型,以需要使用AI分布式客户端协同进行模型训练的第二对应关系。从而根据该第一对应关系和第二对应关系,根据所选用的ML算法和ML模型,确定是否需要和AI分布式客户端协同进行模型训练。当无需使用AI分布式客户端协同进行模型训练,用AI分布式客户端可以进行ML模型推导和模型执行等模型训练处理。
在一个实施例中,当确定无需客户端设备进行协同训练时,模型训练处理结果包括训练后的机器学习模型和模型参数值;步骤S140具体可以包括如下步骤。
S11,从接收的指定的网络侧设备的测量报告中,获取客户端设备的计算处理能力,其中,客户端设备部署在指定的网络侧设备内。
S12,根据所接收的测量数据、客户端设备的计算处理能力、和预先获取的客户端设备支持的机器学习模型,选择机器学习算法进行模型训练,得到训练后的机器学习模型和模型参数值。
S13,发送第一模型部署请求消息至客户端设备,以用于在客户端设备生成第一网络优化操作指令;其中,第一模型部署请求消息中包括:第一模型推导配置文件、训练后的机器学习模型和模型参数值、第一模型性能上报指示和第一模型性能上报方式。
在本申请实施例中,发送模型部署请求消息(ML Deployment Message)给一个或者多个基站内的分布式客户端,用于发送ML模型推导(或执行)配置文件。
示例性地,模型推导配置文件可以包含以下一项或者多项:GPU显存使用大小、输入数据大小、输出数据大小等。
示例性地,训练好的ML模型和ML模型参数值,可以包含以下一项或者多项:ML模型图形(Model graph)、ML模型训练好的权重值(Weights),ML模型训练好的偏差值(Bias)等。
示例性地,模型性能上报指示信息包含以下一项或者多项:均方误差(MSE),平均绝对误差(MAE),准确率(Accuracy);以及模型性能上报方式,例如事件性上报或者周期性上报等方式。
在该实施例中,当确定无需客户端设备进行协同训练时,AI集中服务器根据测量数据以AI分布式客户端的计算处理能力和可支持的ML模型,选择合适的ML算法进行模型训练以及模型迭代更新。并将模型训练得到训练后的机器学习模型和模型参数值,发送至分布式客户端,使分布式客户端可以根据该接收的机器学习模型和模型参数值进行模型更新、模型推理和模型指令等模型处理,从而在分布式客户端得到优化操作指令。
在该实施例中,AI服务器可以通过网络操作请求消息(RAN Action Request),通知网络侧设备执行相关优化操作(Action),其中,优化操作action可以是一项或者多项操作指示和对应操作所需的参数,例如包括但不限于是:UE切换指示,关闭/打开小区指示,无线资源激活/去激活指示,功率调整指示,RRM参数重配置指示,分流操作指示,协议层参数重配置指示等。
在该模型训练过程中,AI集中服务器并不直接产生优化操作指令,而是将训练得到的模型和模型参数,发送给分布式客户端,使分布式客户端可以根据自身接收到的测量报告中的测量数据进行有针对性的模型训练,得到更适应于当前分布式客户端的优化操作。
在一个实施例中,在步骤S13之后,网络优化方法还包括:S14,响应于接收到客户端设备的第一模型部署响应消息,根据第一模型部署响应消息中的第一模型部署成功标识,确定在客户端设备部署训练后的机器学习模型成功;或者,S15,根据第一模型部署响应消息中的第一模型部署失败标识,确定在客户端设备部署训练后的机器学习模型失败。
在该实施例中,网络侧设备(例如基站)发送ML模型部署响应消息(ML DeploymentResponse Message),则如果ML模型部署配置成功,则基站向AI集中服务器发送ML模型部署响应消息,并携带成功指示,该消息中可选的携带ML会话ID。如果ML模型部署配置失败,则基站可以向AI集中服务器发送ML模型部署相应消息,并携带失败指示,消息中可选的携带ML会话ID。
在一个实施例中,在S13之后,网络优化方法还包括:S16,响应于接收到网络侧设备的第一模型性能报告消息,根据第一模型性能报告消息中携带的模型性能指标值,确定是否需要重新进行模型训练处理。
在本申请实施例中,模型性能指标包括但不限于是网络KPI指标和网络节能性能,例如均方误差(MSE),平均绝对误差(MAE),准确率(Accuracy)等。模型性能上报方式例如可以是事件性上报或者周期性上报等多种上报方式。本申请实施例不做具体限定。
在该实施例中,AI集中服务器根据网络侧设备上报的模型性能报告消息,确定是否要重新训练部署网络。
在一个实施例中,当确定需要客户端设备进行协同训练时,步骤S140具体可以包括如下步骤。
S21,从接收的指定的网络侧设备的测量报告中,获取客户端设备上报的计算处理能力,其中,客户端设备部署在指定的网络侧设备;S23,根据所接收的测量数据、预先获取的客户端设备的计算处理能力和客户端设备支持的机器学习模型,选择机器学习算法并配置训练超参数值;S24,发送模型配置建立消息至客户端设备,以请求客户端设备根据机器学习算法和训练超参数值进行模型配置;S25,接收客户端设备的模型配置建立消息,模型配置建立消息中包括客户端设备针对机器学习算法和训练超参数值模型配置进行模型训练得到的机器学习模型信息;S26,基于已训练的机器学习模型信息进行模型配置和模型训练处理,得到模型训练处理结果,并将模型训练处理结果发送至客户端设备。
在该实施例中,通过步骤S21-S25,AI集中服务器根据测量数据以及AI分布式客户端的AI计算处理能力和可支持的ML模型,选择合适的ML算法和配置训练超参值,并通过AI集中服务器发送ML模型配置建立消息(ML Model Configuration Message)给一个或者多个基站内的AI分布式客户端,用于发送选择的ML模型和选择的ML训练超参数。
在一个实施例中,机器学习模型信息例如可以包含ML模型训练好的权重值(Weights),ML模型训练好的偏差值(Bias)等。其中消息可选的包含ML会话ID(ML SessionID),用来唯一标志某个进程的ID。
其中,ML模型配置建立消息和模型配置建立消息中,可选的包含ML会话ID(MLSession ID),用来唯一标志某个进程的ID。
在一个实施例中,模型训练处理结果包括第二网络优化操作指令;步骤S26具体可以包括:S2601,根据所接收的测量数据和已训练的机器学习模型信息继续进行模型训练,得到第二网络优化操作指令;S2602,发送第二网络操作请求消息至网络侧设备,第二网络操作请求消息中包括第二网络优化操作指令、第二模型性能上报指示和第二模型性能上报方式。
在该实施例中,AI集中服务器已训练的机器学习模型信息继续进行模型训练,得到网络优化操作指令。步骤S2602之后,网络优化方法还包括:S2603,响应于接收到网络侧设备的第二模型性能报告消息,根据第二模型性能报告消息中携带的模型性能指标值,确定是否需要重新进行模型训练处理。
在该实施例中,第二模型性能报告消息可选的携带ML会话ID(ML session ID)。通过第二模型性能报告消息中的模型性能指标值,确定是否需要重新进行模型训练处理,从而通过模型训练处理得到满足网络侧需要满足的性能指标。
在一个实施例中,模型训练处理结果包括继续训练后的机器学习模型和模型参数值;步骤S26具体可以包括:S2611,根据所接收的测量数据和机器学习模型信息继续进行模型训练,得到继续训练后的机器学习模型和模型参数值;S2612,发送第二模型部署请求消息至客户端设备,以用于在客户端设备生成第三网络优化操作指令;其中,第二模型部署请求消息中包括:第二模型推导配置文件、继续训练后的机器学习模型和模型参数值、第二模型性能上报指示和第二模型性能上报方式。
在该实施例中,AI服务器根据AI分布式客户端训练好的模型和参数继续进行模型训练,得到继续训练后的机器学习模型和模型参数值,将继续训练后的机器学习模型和模型参数值发送至AI分布式客户端,以使AI分布式客户端根据该继续训练后的机器学习模型和模型参数值进行模型部署和模型指令,得到网络优化指令。
在一个实施例中,在S2612之后,网络优化方法还包括:S2613,响应于接收到客户端设备的第二模型部署响应消息,根据第二模型部署响应消息中携带的第二模型部署成功标识,确定在客户端设备部署继续训练后的机器学习模型成功;或者,S2614,根据第二模型部署响应消息中携带的第二模型部署失败标识,确定在客户端设备部署继续训练后的机器学习模型失败。
在该实施例中,第二模型部署响应消息可选的包含ML会话ID,用来唯一标志某个进程的ID。
在一个实施例中,在S2612之后,网络优化方法还包括:S2615,响应于接收到网络侧设备的第二模型性能报告消息,根据第二模型性能报告消息中携带的模型性能指标值,确定是否需要重新进行模型训练处理。
在该实施例中,第二模型性能报告消息可选的包含ML会话ID(ML Session ID),用来唯一标志某个进程的ID。
在一个实施例中,当前服务器通过预定接口与指定的网络侧设备和位于指定的网络侧设备内的客户端设备进行通讯;在步骤S110之前,网络优化方法还可以包括:S31,响应于接收到的控制面接口建立请求消息,建立当前服务器与指定的网络侧设备之间的控制面接口,作为预定接口;S32,发送控制面接口建立响应消息至指定的网络侧设备,以指示预定接口建立成功。
在一个实施例中,若控制面接口建立请求消息中包括指定的网络侧设备的数据面通道信息,则在执行步骤S32,发送控制面接口建立响应消息至指定的网络侧设备时,在控制面接口建立响应消息中携带当前服务器的数据面通道地址。
在该实施例中,通过AI集中服务器的地址和网络侧设备通过建立控制面接口进行通讯,客户端所在网络侧设备和其他网络侧设备之间,可以通过网络侧设备之间已经存在的通讯传输接口进行通讯。
根据上述实施例描述的网络优化方法,AI集中服务器可以根据预先获取的机器学习描述信息判定是否需要与客户端设备进行协同训练,根据判定结果进行不同的模型训练处理,从而实现通过服务器与客户端设备来部署机器学习训练过程,来实行分布式的模型训练和处理,得到网络优化操作,为运营商网络优化提供了新的优化方式和网络智能优化流程。
图2示出本申请另一实施例的网络优化方法的流程示意图。如图2所示,本申请实施例中的网络优化方法可以包括以下步骤。
S210,响应于接收到来自预定服务器的会话建立请求消息,根据会话建立请求消息中包含的测量控制信息,对指定的网络侧设备和连接于指定的网络侧设备的终端设备进行测量配置。
S220,发送指定的网络侧设备的测量报告消息和终端设备的测量报告消息至预定服务器,指定的网络侧设备的测量报告和终端设备的测量报告在预定服务器中,被用于针对网络优化进行的模型训练处理。
S230,响应于接收到来自预定服务器的模型训练处理结果,根据模型训练处理结果处理得到网络优化操作。
在该实施例中,客户端设备例如AI分布式客户端响应于服务器的会话建立请求消息,对网络侧设备和终端侧设备进行测量配置,并响应于来自预定服务器的模型训练处理结果,处理得到网络优化操作,基于与服务器之间传输的模型训练处理结果,与服务器实现分布式模型训练处理,最终得到网络优化操作,使得网络侧设备和终端设备设备所采集的数据能够在机器学习中被深度分析,通过分布式模型训练为运营商网络优化提供新的优化方式和网络智能优化流程。
在一个实施例中,步骤S210可以包括:S211,响应于会话建立请求消息,根据网络侧测量控制信息对本客户端设备所在的网络侧设备进行测量配置;S212,发送测量配置请求至未部署本客户端设备的网络侧设备,以请求未部署本客户端设备的网络侧设备,根据网络侧测量控制信息进行测量配置。
在一个实施例中,会话建立请求消息中还包括要求客户端设备可支持的一个或多个机器学习模型;在S210之后,网络优化方法还包括:若网络侧设备和终端设备测量配置成功,且本客户端设备支持机器学习模型,则发送携带配置成功标识的会话建立响应消息至预定服务器;若网络侧设备测量配置失败或终端设备测量配置失败,或本客户端设备不支持机器学习模型,则发送携带配置失败标识的会话建立响应消息至预定服务器。
在该实施例中,若测量配置成功且支持机器学习模型,向AI集中服务器反馈测量配置成功消息,若测量配置失败或不支持机器学习模型,向AI集中服务器反馈测量配置失败消息,测量配置失败包括网络侧设备测量配置失败或终端设备测量失败。其中,会话建立响应消息中可选的携带AI会话ID。
在一个实施例中,会话建立请求消息中还包括计算处理能力信息项;在执行步骤S220时,在本客户端所在的网络侧设备的测量报告中携带本客户端设备的计算处理能力。
在该实施例中,AI分布式客户端通过会话建立请求消息向AI集中服务器反馈本客户端设备的AI计算处理能力。其中,会话建立请求消息中可选的携带AI会话ID。
在一个实施例中,在步骤S230之前,网络优化方法还包括:响应于接收到的第二激活消息,激活机器学习功能,并获取第二激活消息中携带的机器学习描述信息和网络需要满足的策略信息。
在该实施例中,网管OAM或者核心网通过和基站的接口发送激活消息(MLActivation Message)用以指示AI分布式客户端激活(使用)ML功能。消息中包含指示ML功能是否激活的指示;ML描述消息(ML Description Message);消息中包含指示RAN网络侧设备需要满足的策略信息(Policy Information)。AI分布式客户端中的ML描述消息与上述实施例中AI集中服务器中的ML描述消息基本相同,AI分布式客户端中的ML描述消息可以用于AI分布式客户端进行模型训练时,选择合适的ML类型和ML模型。
在一个实施例中,网络需要满足的策略信息包含以下一项或者多项对象标识信息:一个或者多个终端设备标识(User Equipment Identity,UE ID),一个或者多个服务质量业务流标识(QOS FLOW Identity,QFI)标识,一个或者多个小区标识,一个或者多个网络切片标识,一个或者多个公有网络标识(Public Land Mobile Network,PLMN Identity),一个或者多个私有网络标识,一个或者多个基站标识,以及一个或者多个跟踪区域标识(Tracking Area Code Identity,TAC ID)。
在该实施例中,若对象标识信息所标识的实体为一个或者多个终端设备,则需要执行测量的指定的网络侧设备可以是所标识的终端设备所连接的网络侧设备;若对象标识信息所标识的实体为一个或者多个服务质量业务流、一个或者多个小区、一个或者多个网络切片、一个或者多个公有网络,以及一个或者多个私有网络中的至少一种,则需要执行测量的网络侧设备可以是所标识的实体通信范围内所涉及的网络侧设备。
在该实施例中,需要执行测量的网络侧设备也可以根据实际机器学习的要求灵活选定,本申请实施例不做具体限定。
在一个实施例中,通信质量指标信息,可以用以指示对应对象标识信息所标识的实体所需达到的通信质量。示例性地,通信质量指标信息可以包括以下指标项中的一项或者多项:网络节能指标、网络KPI、业务服务质量指标(Quality of Service)、用户体验质量指标(Quality of Experience,QOE)、业务感知质量指标(Key Quality Indicators,KQI)和业务分流指标(Traffic Steering Preferences)。
示例性地,网络节能指标例如可以包括:节能效率,节省能耗百分比指标,节省能耗值中的一项或多项。作为示例,网络KPI例如可以包括:切换成功率,掉话率,接入成功率,用户吞吐率,小区吞吐率,小区负荷,网络负荷,无线资源利用率,网络覆盖率中的一项或多项。作为示例,业务服务质量指标例如可以包括:业务保证速率,业务最大/最小速率,业务时延,业务优先级,时延抖动,丢包率中的一项或多项。作为示例,用户体验质量指标例如可以包括:衡量通信系统语音质量的平均意见值(Mean Opinion Score,MOS),流媒体打开缓存时间,流媒体重新缓存时间,流媒体重新缓存次数中的一项或多项。
在一个实施例中,模型训练处理结果为训练后的机器学习模型;步骤S230具体可以包括:S231,响应于接收到来自预定服务器的第一模型部署请求消息,根据第一模型部署请求消息中的模型推导配置文件、训练后的机器学习模型和模型参数值,部署并执行训练后的机器学习模型,得到第一网络优化操作指令。
该实施例中,AI分布式客户端仅作为ML模型推导和执行,根据接收的AI集中服务器的训练后的模型和参数,进行部署并执行训练后的机器学习模型,得到网络优化操作指令。
在一个实施例中,在S231之后,网络优化方法还包括:S232,若部署训练后的机器学习模型成功,发送第一模型部署响应消息至预定服务器,第一模型部署响应消息中携带第一模型部署成功标识;S233,若部署训练后的机器学习模型失败,发送第一模型部署响应消息至预定服务器,第一模型部署响应消息中携带第一模型部署失败标识。
在该实施例中,AI分布式客户端根据接收的AI集中服务器的训练后的模型和参数,进行部署时,可以向AI集中服务器反馈模型部署结果。
在一个实施例中,模型部署请求消息中还包括第一模型性能上报指示和第一模型性能上报方式,在步骤S230之后,网络优化方法还包括:S234,在本客户端设备所在网络侧设备执行第一网络优化操作指令;S235,生成第一网络优化操作请求,以请求未部署本客户端设备的网络侧设备指定第一网络优化操作指令;S236,根据第一模型性能上报方式,发送第一模型性能报告消息至预定服务器,第一模型性能报告消息中携带对应的模型性能指标值。
在该实施例中,第一网络优化操作请求可选的携带会话ID,用来唯一标志某个进程的ID。AI分布式客户端可以在所在的网络侧设备执行第一网络优化操作指令,并向AI集中服务器模型性能指标。
在一个实施例中,步骤S230具体可以包括如下步骤。
S41,响应于接收到来自预定服务器的模型配置建立消息,根据模型配置建立消息中的机器学习算法和训练超参数值进行模型配置和超参数配置;S42,若模型配置和超参数配置成功,根据所配置的模型和超参数进行机器模型训练,得到已训练的机器学习模型信息;S43,发送分布式训练请求消息至预定服务器,分布式训练请求消息中包含已训练的机器学习模型信息;S44,响应于接收到来自预定服务器的针对已训练的机器学习模型信息的模型训练处理结果,根据模型训练处理结果得到网络优化操作。
在该实施例中,AI分布式客户端和AI集中服务器进行协同训练,可以响应于接收到来自预定服务器的针对已训练的机器学习模型信息的模型训练处理结果,根据模型训练处理结果得到网络优化操作。
在一个实施例中,模型训练处理结果包括第二网络优化操作指令;步骤S44,具体可以包括:响应于接收到来自预定服务器的第二网络优化操作请求,得到第二网络优化操作请求中携带的第二网络优化操作指令。
在该实施例中,提供了AI分布式客户端和AI集中服务器进行分布式训练的一种方式,即AI分布式客户端将已训练的机器学习模型信息发送至AI集中服务器后,AI集中服务器对各个AI分布式客户端上报的已训练的机器学习模型信息继续进行训练,得到网络优化操作。
在一个实施例中,第二网络优化操作请求中还包括第二模型性能上报指示和第二模型性能上报方式,在步骤S44之后,网络优化方法还包括:S441,在本客户端设备所在网络侧设备执行第二网络优化操作指令;S442,生成第二网络操作请求消息,以请求未部署本客户端设备的网络侧设备指定第二网络优化操作指令;S443,根据第二模型性能上报方式,发送第二模型性能报告消息至预定服务器,第二模型性能报告消息中携带第二模型性能指标值。
在该实施例中,AI分布式客户端所在网络侧设备需要对第二网络优化操作指令上报模型性能指标。
在一个实施例中,模型训练处理结果包括继续训练后的机器学习模型和模型参数值;步骤S44,具体可以包括:S444,响应于接收到第二模型部署请求消息,根据第二模型部署请求消息中的模型推导配置文件、继续训练后的机器学习模型和模型参数值,部署并执行继续训练后的机器学习模型,得到第三网络优化操作指令。
在该实施例中,在该实施例中,提供了AI分布式客户端和AI集中服务器进行分布式训练的另一种方式,即AI分布式客户端将已训练的机器学习模型信息发送至AI集中服务器后,AI集中服务器对各个AI分布式客户端上报的已训练的机器学习模型信息继续进行训练,得到继续训练后的机器学习模型信息,AI分布式客户端根据该继续训练后的机器学习模型信息进行模型训练处理得到网络优化操作。
在一个实施例中,在S230之后,网络优化方法还包括:若部署继续训练后的机器学习模型成功,发送第二模型部署响应消息至预定服务器,第二模型部署响应消息中携带第二模型部署成功标识;若部署继续训练后的机器学习模型失败,发送第二模型部署响应消息至预定服务器,第二模型部署响应消息中携带第二模型部署失败标识。
在该实施例中,第二模型部署响应消息用于反馈模型部署结果,并可选的携带会话ID,用来唯一标志某个机器学习会话进程,如果不包含会话请求消息中ML会话ID,表明请求消息中的测量控制是针对所有的ML的进程。
在一个实施例中,第二模型部署请求消息中还包括第二模型性能上报指示和第二模型性能上报方式,在S444之后,网络优化方法还包括:S445,在本客户端设备所在网络侧设备执行第三网络优化操作指令;S446,生成第三网络优化操作请求,以请求未部署本客户端设备的网络侧设备执行第三网络优化操作指令;S447,根据第二模型性能上报方式,发送第二模型性能报告消息至预定服务器,第二模型性能报告消息中携带对应的模型性能指标值。
在该实施例中,第三网络优化操作指令并可选的携带会话ID,AI分布式客户端在本客户端设备所在网络侧设备执行网络优化操作指令,可以反馈对应的模型性能报告消息至AI集中服务器。
根据本申请实施例的网络优化方法,AI分布式客户端响应于服务器的会话建立请求消息,对网络侧设备和终端侧设备进行测量配置,并响应于来自预定服务器的模型训练处理结果,处理得到网络优化操作,基于与服务器之间传输的模型训练处理结果,与服务器实现分布式模型训练处理,最终得到网络优化操作,使得网络侧设备和终端设备设备所采集的数据能够在机器学习中被深度分析,通过分布式模型训练为运营商网络优化提供新的优化方式和网络智能优化流程。
图3示出再一实施例的网络优化方法的流程示意图。如图3所示,在一个实施例中,网络优化方法包括如下步骤。
S310,响应于接收到来自客户端设备的测量配置请求,根据测量配置请求中的网络侧测量控制信息进行测量配置和对连接于本网络侧设备的终端设备进行测量配置;
S320,将测量得到当前网络侧设备的测量报告和接收到的终端设备的测量报告,分别发送至预定服务器和预定客户端设备,当前网络侧设备的测量报告和终端设备的测量报告在预定服务器和预定客户端设备中被用于进行针对网络优化的模型训练处理。
在该实施例中,RAN网络侧设备可以根据接收到的网络侧测量控制信息进行测量配置并对连接的终端设备进行测量配置,并将执行测量得到测量报告和接收的终端侧设备的测量报告至预定服务器和客户端设备,网络侧设备的测量报告和终端设备的测量报告在预定服务器和预定客户端设备中被用于进行针对网络优化的模型训练处理,使得网络侧设备和终端设备设备所采集的数据能够在人工智能和机器学习中被深度分析,并在预定服务器和预定客户端设备中被进行分布式模型训练处理,为运营商网络优化提供新的优化方式和网络智能优化流程。
在一个实施例中,S310,具体可以包括:S311,响应于接收到测量配置请求,根据网络侧测量控制信息进行测量配置;S312,根据网络侧测量控制信息,确定连接于当前网络侧设备的终端设备需要配置的测量量和测量上报方式,作为终端侧测量控制信息;S313,向终端设备发送无线资源控制消息,以指示终端设备根据终端侧测量控制信息进行测量配置。
在该实施例中,RAN网络侧设备可以根据网络侧测量控制信息进行测量配置和所连接的终端设备进行测量配置。
在一个实施例中,在步骤S320之后,网络优化方法还包括:S330,接收来自预定服务器或来自客户端设备的网络优化操作请求,获取并执行所接收网络优化操作请求中的网络优化操作指令,并发送对应的模型性能报告消息至预定服务器。
在该实施例中,RAN网络侧设备执行网络优化操作指令,需要发送对应的模型性能报告消息至预定服务器。
在一个实施例中,网络侧设备通过预定接口与预定服务器进行通讯,在步骤S310之前,网络优化方法还包括:S51,根据预先获取的预定服务器的地址,向预定服务器发送控制面接口建立请求消息,以请求预定服务器建立当前网络侧设备与预定服务器之间的控制面接口,作为预定接口。
在一个实施例中,控制面接口建立请求消息中包括如下信息项的一项或多项:当前网络侧设备所支持的测量、当前网络侧设备所支持的上报方式、当前网络侧设备所支持的网络优化操作和当前网络侧设备的数据面通道地址、所部署客户端设备所支持的计算能力和所部署客户端设备所支持的机器学习模型。
在一个实施例中,网络优化方法还包括:S340,响应于接收到的控制面接口建立响应消息,确定本网络侧设备与预定服务器之间的控制面接口建立成功;若控制面接口建立请求消息中包括当前网络侧设备的数据面通道地址,则接收到的控制面接口建立响应消息中包括预定服务器的数据面通道地址。
在该实施例中,通过建立的RAN节点设备与AI集中服务器之间的通信接口,通过建立的通信接口,接收到的网络侧测量控制信息进行测量配置并对连接的终端设备进行测量配置,以及将执行测量得到测量报告和接收的终端侧设备的测量报告至预定服务器和客户端设备,网络侧设备的测量报告和终端设备的测量报告在预定服务器和预定客户端设备中被用于进行针对网络优化的模型训练处理,使得网络侧设备和终端设备设备所采集的数据能够在人工智能和机器学习中被深度分析,并在预定服务器和预定客户端设备中被进行分布式模型训练处理,为运营商网络优化提供新的优化方式和网络智能优化流程。
为了更好的理解本申请,下面通过图4和图5,详细描述本申请实施例的网络优化方法。图4示出一个实施例的网络优化方法的时序流程示意图。图5示出另一个实施例的网络优化方法的时序流程示意图。
如图4所示,在一个实施例中,该网络优化方法可以包括如下步骤。
S401-1:网管或者核心网通过发送激活消息激活AI集中服务器的ML功能。
S401-2:网管或者核心网通过发送激活消息激活AI分布式客户端的ML功能。
S401:AI集中服务器发送ML会话建立请求消息至一个或者多个RAN节点设备内的AI分布式客户端,用于配置某个ML会话所需要的无线侧测量数据。
其中,ML会话建立请求消息中包括测量控制信息,客户端设备的计算处理能力信息项、以及要求客户端设备可支持的一个或多个机器学习模型。会话建立请求消息中还可以包含ML会话ID,用来唯一标志某个机器学习进程。
S403:RAN节点设备根据接收消息中的测量控制信息,配置RAN侧需要做哪些测量以及上报方式,以及配置所连接的终端设备需要做哪些测量以及上报方式。
S404:如果RAN节点设备侧测量和UE侧测量都配置成功,以及可以满足建立请求消息中的ML模型,则RAN节点设备向AI集中服务器发送ML会话建立响应消息。
其中,ML会话建立响应消息可选的携带ML会话ID。
S405:如果RAN节点设备侧测量和UE侧测量都配置成功,RAN节点设备和UE都按照指定的测量配置进行相关测量。
S406:RAN节点设备以及终端分别向AI分布式客户端和AI集中服务器发送测量报告消息。
其中,所发送测量报告消息中携带测量量的测量值,以及可选的携带测量所属的ML会话ID,以及AI分布式客户端的AI计算处理能力。
S407:AI集中服务器根据测量数据、AI分布式客户端的AI计算处理能力和可支持的ML模型,选择合适的ML算法进行模型训练以及模型迭代更新。
S408:AI集中服务器发送ML模型部署请求消息至一个或者多个RAN节点设备内的AI分布式客户端。其中,ML模型部署请求消息中可选的携带ML会话ID。
S409:RAN节点设备发送ML模型部署响应消息。
其中,ML模型部署响应消息中可以携带ML会话ID。
S410:AI分布式客户端根据ML模型部署消息中的配置文件,以及训练好的ML模型和ML模型参数值做ML模型推理、模型更新和模型执行等模型处理,得出优化所需的RAN操作。
S4011:AI分布式客户端通过RAN操作请求消息,通知所在RAN节点设备执行相关优化操作。
S4012:RAN节点设备执行RAN操作请求消息中的相关优化操作,如果相关优化操作涉及到一个或者多个UE,基站发送RRC重配置消息或者RRC释放消息给连接在本基站的UE,通知UE执行相关操作。
S4013:RAN节点设备向AI集中服务器发送ML模型性能报告消息,其中携带ML模型性能的指标。
其中,ML模型性能报告消息可选的携带测量所属的ML会话ID。AI CentralizedServer根据上报的模型性能报告决定是否要重新训练部署网络。
在本申请实施例中,AI分布式客户端仅作为ML模型推导和执行,根据AI集中服务器中训练机器学习模型信息,使用接收的测量报告中的测量数据进行针对网络优化的模型训练,得到网络优化操作。
如图5所示,在图5中,步骤S501-1至S506的处理流程与图4中步骤S401-1至S406的处理流程基本相同,本申请实施例中不再赘述。图5的网络优化处理方法与图4中的网络优化处理方法相比,不同之处在于,在步骤S506之后,该网络优化方法可以包括如下步骤。
S507:AI集中服务器根据测量数据、AI分布式客户端的AI计算处理能力和可支持的ML模型,选择合适的ML算法和配置训练超参值。
S508:AI集中服务器发送ML模型配置建立消息给一个或者多个RAN节点设备内的AI分布式客户端,用于发送选择的ML模型和选择的ML训练超参数。
其中,ML模型配置建立消息可选的包含ML会话ID,用来唯一标志某个进程的ID。
S509:RAN节点设备向AI集中服务器发送ML会话建立响应消息。
其中,ML会话建立响应消息用于指示ML模型以及超参配置是否成功。ML会话建立响应消息中可选的携带ML会话ID。
S510:如果RAN节点设备AI分布式客户端的ML模型配置成功,AI分布式客户端根据规定的训练模型和训练超参进行ML模型训练/ML模型迭代更新。
S511:一个或多个RAN节点设备内的AI分布式客户端发送ML分布式模型训练请求给AI集中服务器。
其中,ML分布式模型训练请求携带在AI分布式客户端已训练好的ML模型信息。
S5012:如果已训练好的ML模型信息配置成功,则AI集中服务器向一个或者多个RAN节点设备内的AI分布式客户端发送ML分布式训练响应消息。
其中,ML分布式训练响应消息用于指示已训练好的ML模型配置成功或失败。ML分布式训练响应消息中可选的携带ML会话ID。
下面继续通过一种模型训练处理流程Option A和另一种模型训练处理流程Option B,描述该网络优化方法中,AI分布式客户端与AI集中服务器进行协同训练的处理流程。
在Option A,协同训练的处理流程可以包括如下步骤。
S50A-1:AI集中服务器根据测量数据以及AI分布式客户端的上报的ML训练参数,继续进行模型更新、模型训练、模型推理和模型执行等模型处理步骤,得出优化所需的RAN操作。
S50A-2:AI集中服务器通过RAN网络优化操作请求消息,通知RAN节点执行相关优化操作。
在Option B,协同训练的处理流程可以包括如下步骤。
S50B-1:AI集中服务器根据测量数据、AI分布式客户端的上报的已训练好的ML模型信息,继续进行模型训练以及模型迭代更新。
S50B-2:AI集中服务器发送ML模型部署请求消息给RAN节点设备内的AI分布式客户端,以使AI分布式客户端进行模型配置和执行。
S50B-3:AI分布式客户端发送ML模型部署响应消息。
其中,该模型部署响应消息用于指示ML模型部署配置成功或失败。
上述模型部署请求消息和ML模型部署响应消息中可以携带ML会话ID。
S50B-4:AI分布式客户端根据ML模型部署消息中的配置文件,以及训练好的ML模型和ML模型参数值做ML模型推理、模型执行,并得出优化所需的RAN操作。
S5011:AI分布式客户端通知所在RAN节点设备节点执行相关优化操作。
S5012:RAN节点设备执行RAN操作请求消息中的相关优化操作,如果相关优化操作涉及到一个或者多个终端设备,RAN节点设备发送RRC重配置消息或者RRC释放消息给连接在本RAN节点设备的终端设备,通知终端设备执行相关操作。
S5013:RAN节点设备向AI集中服务器发送ML模型性能报告消息。
其中,ML模型性能报告消息可以携带测量所属的ML会话ID。AI集中服务器根据上报的模型性能报告决定是否要重新训练部署网络。
在本申请实施例中,AI分布式客户端与AI集中服务器集中训练,并提供上述Option A和Option B两种分布式模型训练方式,在AI分布式客户端与AI集中服务器,使用接收的测量报告中的测量数据进行针对网络优化的模型训练,得到网络优化操作。
图6示出一个实施例的服务器与网络侧设备之间建立通信接口的流程示意图。如图6所示,在一个实施例中,该接口建立过程可以包括如下步骤。
S601,网管通过配置消息,或者直接配置AI集中服务器的地址给基站。
S602,基站根据配置的AI集中服务器的地址,发送通信接口建立请求。
在该步骤中,若将AI集中服务器和RAN节点之间的接口称为是I1接口,RAN节点向AI集中服务器的地址发送I1接口建立请求消息,用于建立I1接口。
在一个实施例中,通信接口建立请求中可以包括:网络侧设备(例如基站)所支持的测量;网络侧设备所支持侧量的上报方式;网络侧设备所支持的RAN优化操作;AI分布式客户达端所支持的AI计算能力;AI分布式客户达端所支持的ML模型。
在一个实施例中,通信接口建立请求中还可以包括:网络侧设备的数据面通道地址。
S603,AI集中服务器向基站发送接口建立响应消息,用于指示接口是否建立成功。
在该步骤中,接口建立响应消息可以是I1接口建立响应消息用于指示接口是否建立成功。如果步骤S602中接收的消息中携带了基站侧的数据面通道地址,则在响应消息中携带AI集中服务器的数据面通道地址。
通过上述步骤S501到S503,可以建立AI集中服务器用于RAN节点的控制面接口,控制面接口可以用于传输控制消息,也可以用于传输ML所需的数据,如测量数据。
S604,根据AI集中服务器配置的数据面通道地址以及基站侧的数据面通道地址,建立数据面通道。
在本申请实施中,网络侧设备和AI集中服务器之间可以在数据面通道上传输机器学习所需数据,例如一些较大数据量的数据可以在数据面通道上传输,比如来自基站的测量数据,AI集中式服务器训练好的参数如权重,偏差等,以缓解控制面接口对应通信通道的数据传输压力,提高数据传输效率。本实施例中建立的数据面通道不限于传输指定用户的数据。
图7示出一个实施例的建立预定服务器与用户设备相关的数据通道的流程示意图。在一个实施例中,该接口建立过程可以包括如下步骤。
S701,获取AI集中服务器和基站之间意见建立的I1控制面接口。
其中,AI分布式客户端部署在基站内。
S702,AI集中服务器向基站发送通道建立请求消息。
作为示例,通道建立请求消息例如可以是终端设备文本建立请求消息(UE AIContext Setup Request),并携带AI服务器侧的数据面通道地址和终端设备标识(UE ID)。
S703,基站向AI集中服务器发送响应消息,携带基站侧的数据面通道地址。
作为示例,通道建立响应消息例如可以是终端设备文本建立响应消息(UE AIContext Setup Response),并携带基站侧的数据面通道地址。
S704,根据AI服务器配置的数据面通道地址以及基站侧的数据面通道地址,建立UEID指定和特定用户相关的数据面通道。
作为示例,基站和AI服务器之间可以在数据面通道上传输和特定用户相关的ML所需数据,通常一些较大数据量的数据可以在数据面通道上传输,比如该用户的测量数据,基于该用户数据训练好的ML模型以及参数。
在本申请实施例中,RAN节点设备和AI服务器之间可以在数据面通道上传输机器学习所需数据,例如一些较大数据量的数据可以在数据面通道上传输,比如来自基站的测量数据,以缓解控制面接口对应通信通道的数据传输压力,提高数据传输效率。本实施例中建立的数据面通道不限于传输指定用户的数据。
下面结合附图,详细介绍根据本申请实施例的一种服务器。图8示出本申请一实施例提供的服务器的结构示意图。在一个实施例中,该服务器为AI集中服务器,如图8所示,该服务器可以包括如下模块。
测量配置请求模块810,用于发送会话建立请求消息至客户端设备,以请求客户端设备对指定的网络侧设备进行测量配置和对连接于指定的网络侧设备的终端设备进行测量配置。
测量报告接收模块820,用于接收指定的网络侧设备的测量报告消息和终端设备的测量报告消息。
协同训练确定模块830,用于根据预先获取的机器学习描述信息,确定是否需要客户端设备进行协同训练。
模型训练处理模块840,用于基于是否需要客户端设备进行协同训练和所接收的测量报告消息中的测量数据,针对网络优化进行指定的模型训练处理,并将模型训练处理结果发送至客户端设备,以用于指示客户端设备根据模型训练处理结果得到网络优化操作。
在一个实施例中,服务器还包括:第一激活模块,用于响应于接收到的第一激活消息,激活机器学习功能,并获取激活消息中携带的机器学习描述信息和对应的机器学习模型的训练超参数。
在一个实施例中,会话建立请求消息中包括针对客户端设备的测量控制信息、客户端设备的计算处理能力信息项、以及要求客户端设备可支持的一个或多个机器学习模型,其中,测量配置信息用于指示指定的网络侧设备需要配置的测量量和测量上报方式。
在一个实施例中,服务器还包括:会话建立响应模块,用于响应于接收到的会话建立响应消息,根据会话建立响应消息中携带的成功标识,确定客户端能够满足对客户端设备计算处理能力的要求信息。
在一个实施例中,测量报告接收模块820具体用于接收指定的网络侧设备的测量报告和由指定的网络侧设备发送的终端设备的测量报告。
在一个实施例中,机器学习描述信息包括选用的一个或多个机器学习类型和选用的一个或多个机器学习模型;协同训练确定模块830,包括:训练模式确定单元,用于根据所选用的机器学习类型的所选用的机器学习模型,获取预先设定的与机器学习类型和机器学习模型对应的训练模式;协同训练单元,用于根据预先设定的训练模式,确定是否需要客户端设备进行协同训练。
在一个实施例中,当确定无需客户端设备进行协同训练时,模型训练处理结果包括训练后的机器学习模型和模型参数值;模型训练处理模块840可以包括:计算处理能力获取单元,用于从接收的指定的网络侧设备的测量报告中,获取客户端设备的计算处理能力,其中,客户端设备部署在指定的网络侧设备内;模型训练单元,用于根据所接收的测量数据、客户端设备的计算处理能力、和预先获取的客户端设备支持的机器学习模型,选择机器学习算法进行模型训练,得到训练后的机器学习模型和模型参数值;模型部署请求发单元,用于发送第一模型部署请求消息至客户端设备,以用于在客户端设备生成第一网络优化操作指令;其中,第一模型部署请求消息中包括:第一模型推导配置文件、训练后的机器学习模型和模型参数值、第一模型性能上报指示和第一模型性能上报方式。
在一个实施例中,服务器还包括:模型部署响应模块,用于响应于接收到客户端设备的第一模型部署响应消息,根据第一模型部署响应消息中的第一模型部署成功标识,确定在客户端设备部署训练后的机器学习模型成功;或者,根据第一模型部署响应消息中的第一模型部署失败标识,确定在客户端设备部署训练后的机器学习模型失败。
在一个实施例中,服务器还包括:模型性能确定模块,用于响应于接收到网络侧设备的第一模型性能报告消息,根据第一模型性能报告消息中携带的模型性能指标值,确定是否需要重新进行模型训练处理。
在一个实施例中,当确定需要客户端设备进行协同训练时,模型训练处理模块840,包括:计算处理能力获取单元,用于从接收的指定的网络侧设备的测量报告中,获取客户端设备上报的计算处理能力,其中,客户端设备部署在指定的网络侧设备;模型和参数选择单元,用于根据所接收的测量数据、预先获取的客户端设备的计算处理能力和客户端设备支持的机器学习模型,选择机器学习算法并配置训练超参数值;模型配置建立消息发送单元,用于发送模型配置建立消息至客户端设备,以请求客户端设备根据机器学习算法和训练超参数值进行模型配置;分布式训练请求接收模块,用于接收客户端设备的模型配置建立消息,模型配置建立消息中包括客户端设备针对机器学习算法和训练超参数值模型配置进行模型训练得到的已训练的机器学习模型信息;模型性能确定模块,还用于基于已训练的机器学习模型信息进行模型配置和模型训练处理,得到模型训练处理结果,并将模型训练处理结果发送至客户端设备。
在一个实施例中,模型训练处理结果包括第二网络优化操作指令;模型性能确定模块,还包括:操作指令生成单元,用于根据所接收的测量数据和已训练的机器学习模型信息继续进行模型训练,得到第二网络优化操作指令;操作请求发送模块,用于发送第二网络操作请求消息至网络侧设备,第二网络操作请求消息中包括第二网络优化操作指令、第二模型性能上报指示和第二模型性能上报方式。
在一个实施例中,模型性能确定模块,还用于响应于接收到网络侧设备的第二模型性能报告消息,根据第二模型性能报告消息中携带的模型性能指标值,确定是否需要重新进行模型训练处理。
在一个实施例中,模型训练处理结果包括继续训练后的机器学习模型和模型参数值;基于机器学习模型信息进行模型配置和模型训练处理,得到模型训练处理结果,并将模型训练处理结果发送至客户端设备,包括:
根据所接收的测量数据和机器学习模型信息继续进行模型训练,得到继续训练后的机器学习模型和模型参数值;
发送第二模型部署请求消息至客户端设备,以用于在客户端设备生成第三网络优化操作指令;其中,第二模型部署请求消息中包括:第二模型推导配置文件、继续训练后的机器学习模型和模型参数值、第二模型性能上报指示和第二模型性能上报方式。
在一个实施例中,服务器还包括:模型部署响应模块,还用于响应于接收到客户端设备的第二模型部署响应消息,根据第二模型部署响应消息中携带的第二模型部署成功标识,确定在客户端设备部署继续训练后的机器学习模型成功;或者,根据第二模型部署响应消息中携带的第二模型部署失败标识,确定在客户端设备部署继续训练后的机器学习模型失败。
在一个实施例中,服务器还包括:模型性能确定模块,还用于响应于接收到网络侧设备的第二模型性能报告消息,根据第二模型性能报告消息中携带的模型性能指标值,确定是否需要重新进行模型训练处理。
在一个实施例中,当前服务器通过预定接口与指定的网络侧设备和位于指定的网络侧设备内的客户端设备进行通讯;服务器还包括:预定接口建立模块,用于响应于接收到的控制面接口建立请求消息,建立当前服务器与指定的网络侧设备之间的控制面接口,作为预定接口;发送控制面接口建立响应消息至指定的网络侧设备,以指示预定接口建立成功。
在一个实施例中,若控制面接口建立请求消息中包括指定的网络侧设备的数据面通道信息,则在发送控制面接口建立响应消息至指定的网络侧设备时,在控制面接口建立响应消息中携带当前服务器的数据面通道地址。
根据本申请实施例的服务器,通过请求客户端设备对网络侧设备和终端侧设备进行测量配置,并根据预先获取的机器学习描述信息判定是否需要与客户端设备进行协同训练,根据判定结果进行不同的模型训练处理,从而实现通过服务器与客户端设备来部署机器学习训练过程,来实行分布式的模型训练和处理,得到网络优化操作,从而在通过网络系统中通过人工智能和机器学习对采集的数据进行深度分析,为运营商网络优化提供了新的优化方式和网络智能优化流程。
图9示出申请一实施例提供的客户端设备的结构示意图。在一个实施例中,该客户端设备为AI分布式客户端,部署在网络侧节点设备例如基站内。如图9所示,该客户端设备可以包括如下模块。
测量配置模块910,用于响应于接收到来自预定服务器的会话建立请求消息,根据会话建立请求消息中包含的测量控制信息,对指定的网络侧设备和连接于指定的网络侧设备的终端设备进行测量配置。
测量报告发送模块920,用于发送指定的网络侧设备的测量报告消息和终端设备的测量报告消息至预定服务器,指定的网络侧设备的测量报告和终端设备的测量报告在预定服务器中,被用于针对网络优化进行的模型训练处理;
优化操作确定模块930,用于响应于接收到来自预定服务器的模型训练处理结果,根据模型训练处理结果处理得到网络优化操作。
在一个实施例中,测量配置模块910,具体可以包括响应于会话建立请求消息,根据网络侧测量控制信息对本客户端设备所在的网络侧设备进行测量配置;发送测量配置请求至未部署本客户端设备的网络侧设备,以请求未部署本客户端设备的网络侧设备,根据网络侧测量控制信息进行测量配置。
在一个实施例中,会话建立请求消息中还包括要求客户端设备可支持的一个或多个机器学习模型;客户端设备还包括:会话建立响应模块,用于若网络侧设备和终端设备测量配置成功,且本客户端设备支持机器学习模型,则发送携带配置成功标识的会话建立响应消息至预定服务器;若网络侧设备测量配置失败或终端设备测量配置失败,或本客户端设备不支持机器学习模型,则发送携带配置失败标识的会话建立响应消息至预定服务器。
在一个实施例中,会话建立请求消息中还包括计算处理能力信息项;客户端设备还包括:测量报告发送模块920,还用于在发送指定的网络侧设备的测量报告消息和终端设备的测量报告消息至预定服务器时,在本客户端所在的网络侧设备的测量报告中携带本客户端设备的计算处理能力。
在一个实施例中,客户端设备还包括:激活模块,用于响应于接收到的第二激活消息,激活机器学习功能,并获取第二激活消息中携带的机器学习描述信息和网络需要满足的策略信息。
在一个实施例中,模型训练处理结果为训练后的机器学习模型;优化操作确定模块930包括:模型部署模块,用于响应于接收到来自预定服务器的第一模型部署请求消息,根据第一模型部署请求消息中的模型推导配置文件、训练后的机器学习模型和模型参数值,部署并执行训练后的机器学习模型,得到第一网络优化操作指令。
在一个实施例中,客户端设备还包括:模型部署响应模块,用于若部署训练后的机器学习模型成功,发送第一模型部署响应消息至预定服务器,第一模型部署响应消息中携带第一模型部署成功标识;若部署训练后的机器学习模型失败,发送第一模型部署响应消息至预定服务器,第一模型部署响应消息中携带第一模型部署失败标识。
在一个实施例中,模型部署请求消息中还包括第一模型性能上报指示和第一模型性能上报方式,客户端设备还包括:操作指令执行模块,用于在本客户端设备所在网络侧设备执行第一网络优化操作指令;操作请求模块,用于生成第一网络优化操作请求,以请求未部署本客户端设备的网络侧设备指定第一网络优化操作指令;性能上报模块,用于根据第一模型性能上报方式,发送第一模型性能报告消息至预定服务器,第一模型性能报告消息中携带对应的模型性能指标值。
在一个实施例中,优化操作确定模块930包括:模型部署模块,用于响应于接收到来自预定服务器的模型配置建立消息,根据模型配置建立消息中的机器学习算法和训练超参数值进行模型配置和超参数配置;模型训练模块,用于若模型配置和超参数配置成功,根据所配置的模型和超参数进行机器模型训练,得到已训练的机器学习模型信息;分布式训练请求模块,用于发送分布式训练请求消息至预定服务器,分布式训练请求消息中包含已训练的机器学习模型信息;优化操作确定模块930还用于响应于接收到来自预定服务器的针对已训练的机器学习模型信息的模型训练处理结果,根据模型训练处理结果得到网络优化操作。
在一个实施例中,模型训练处理结果包括第二网络优化操作指令;优化操作确定模块930,还用于响应于接收到来自预定服务器的第二网络优化操作请求,得到第二网络优化操作请求中携带的第二网络优化操作指令。
在一个实施例中,第二网络优化操作请求中还包括第二模型性能上报指示和第二模型性能上报方式,操作指令执行模块,还用于在本客户端设备所在网络侧设备执行第二网络优化操作指令;操作请求模块,还用于生成第二网络操作请求消息,以请求未部署本客户端设备的网络侧设备指定第二网络优化操作指令;性能上报模块,还用于根据第二模型性能上报方式,发送第二模型性能报告消息至预定服务器,第二模型性能报告消息中携带第二模型性能指标值。
在一个实施例中,模型训练处理结果包括继续训练后的机器学习模型和模型参数值;优化操作确定模块930还用于响应于接收到第二模型部署请求消息,根据第二模型部署请求消息中的模型推导配置文件、继续训练后的机器学习模型和模型参数值,部署并执行继续训练后的机器学习模型,得到第三网络优化操作指令。
在一个实施例中,模型部署响应模块,还用于若部署继续训练后的机器学习模型成功,发送第二模型部署响应消息至预定服务器,第二模型部署响应消息中携带第二模型部署成功标识;若部署继续训练后的机器学习模型失败,发送第二模型部署响应消息至预定服务器,第二模型部署响应消息中携带第二模型部署失败标识。
在一个实施例中,第二模型部署请求消息中还包括第二模型性能上报指示和第二模型性能上报方式,操作指令执行模块,还用于在本客户端设备所在网络侧设备执行第三网络优化操作指令;操作请求模块,还用于生成第三网络优化操作请求,以请求未部署本客户端设备的网络侧设备执行第三网络优化操作指令;操作请求模块,还用于根据第二模型性能上报方式,发送第二模型性能报告消息至预定服务器,第二模型性能报告消息中携带对应的模型性能指标值。
根据本申请实施例的客户端设备,响应于服务器的会话建立请求消息,对网络侧设备和终端侧设备进行测量配置,并响应于来自预定服务器的模型训练处理结果,处理得到网络优化操作,基于与服务器之间传输的模型训练处理结果,与服务器实现分布式模型训练处理,最终得到网络优化操作,使得网络侧设备和终端设备设备所采集的数据能够在机器学习中被深度分析,通过分布式模型训练为运营商网络优化提供新的优化方式和网络智能优化流程。
图10示出本申请一实施例提供的网络侧设备的结构示意图。在一个实施例中,网络侧设备为RAN节点设备。如图10所示,该网络侧节点设备可以包括如下模块。
测量配置模块1010,用于响应于接收到来自客户端设备的测量配置请求,根据测量配置请求中的网络侧测量控制信息进行测量配置和对连接于本网络侧设备的终端设备进行测量配置;
测量报告发送模块1020,用于将测量得到当前网络侧设备的测量报告和接收到的终端设备的测量报告,分别发送至预定服务器和预定客户端设备,当前网络侧设备的测量报告和终端设备的测量报告在预定服务器和预定客户端设备中,被用于进行针对网络优化的模型训练处理。
在一个实施例中,测量配置模块1010,还用于响应于接收到测量配置请求,根据网络侧测量控制信息进行测量配置;根据网络侧测量控制信息,确定连接于当前网络侧设备的终端设备需要配置的测量量和测量上报方式,作为终端侧测量控制信息;向终端设备发送无线资源控制消息,以指示终端设备根据终端侧测量控制信息进行测量配置。
在一个实施例中,网络侧设备还包括:性能报告发送模块,用于接收来自预定服务器或来自客户端设备的网络优化操作请求,获取并执行所接收网络优化操作请求中的网络优化操作指令,并发送对应的模型性能报告消息至预定服务器。
在一个实施例中,指定的网络侧通过预定接口与预定服务器进行通讯,网络侧设备还包括:接口建立请求模块,用于根据预先获取的预定服务器的地址,向预定服务器发送控制面接口建立请求消息,以请求预定服务器建立当前网络侧设备与预定服务器之间的控制面接口,作为预定接口。
在一个实施例中,控制面接口建立请求消息中包括如下信息项的一项或多项:当前网络侧设备所支持的测量、当前网络侧设备所支持的上报方式、当前网络侧设备所支持的网络优化操作和当前网络侧设备的数据面通道地址、所部署客户端设备所支持的计算能力和所部署客户端设备所支持的机器学习模型。
在一个实施例中,接口建立请求模块,还用于响应于接收到的控制面接口建立响应消息,确定本网络侧设备与预定服务器之间的控制面接口建立成功;若控制面接口建立请求消息中包括当前网络侧设备的数据面通道地址,则接收到的控制面接口建立响应消息中包括预定服务器的数据面通道地址。
根据本申请实施例的网络侧设备,可以根据接收到的网络侧测量控制信息进行测量配置并对连接的终端设备进行测量配置,并将执行测量得到测量报告和接收的终端侧设备的测量报告至预定服务器和客户端设备,网络侧设备的测量报告和终端设备的测量报告在预定服务器和预定客户端设备中被用于进行针对网络优化的模型训练处理,使得网络侧设备和终端设备设备所采集的数据能够在人工智能和机器学习中被深度分析,并在预定服务器和预定客户端设备中被进行分布式模型训练处理,为运营商网络优化提供新的优化方式和网络智能优化流程。
图11示出本申请一实施例提供的网络优化系统的结构示意图。在一个实施例中,网络侧设备为RAN节点设备。如图11所示,该网络优化系统可以包括服务器1110、一个或多个客户端设备1120、以及一个或多个网络侧设备1130,其中,每个客户端设备位于一个或多个网络侧设备中的一个网络侧设备中;
服务器1110,用于执行权利要求1-17中任一项的网络优化方法;一个或多个客户端设备1120,用于执行权利要求18-31任一项的网络优化方法;一个或多个网络侧设备1130,用于执行权利要求13-20中任一项的网络优化方法。
在该实施例中,服务器1110与上述实施例中描述的AI集中服务器具有相同或等同的结构,并可以执行上述实施例描述的应用于AI集中服务器的网络优化方法;客户端设备1120与上述实施例中描述的AI分布式客户端具有相同或等同的结构,并可以执行上述实施例描述的应用于网络侧设备的网络优化方法;网络侧设备1130上述实施例中描述的RAN节点设备具有相同或等同的结构,并可以执行上述实施例描述的应用于RAN节点设备的网络优化方法。
需要明确的是,本申请并不局限于上文实施例中所描述并在图中示出的特定配置和处理。为了描述的方便和简洁,这里省略了对已知方法的详细描述,并且上述描述的系统、模块和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
图12是示出能够实现根据本申请实施例的计算设备的示例性硬件架构的结构图。
如图12所示,计算设备1200包括输入设备1201、输入接口1202、中央处理器1203、存储器1204、输出接口1205、以及输出设备1206。其中,输入接口1202、中央处理器1203、存储器1204、以及输出接口1205通过总线1210相互连接,输入设备1201和输出设备1206分别通过输入接口1202和输出接口1205与总线1210连接,进而与计算设备1200的其他组件连接。
具体地,输入设备1201接收来自外部的输入信息,并通过输入接口1202将输入信息传送到中央处理器1203;中央处理器1203基于存储器1204中存储的计算机可执行指令对输入信息进行处理以生成输出信息,将输出信息临时或者永久地存储在存储器1204中,然后通过输出接口1205将输出信息传送到输出设备1206;输出设备1206将输出信息输出到计算设备1200的外部供用户使用。
在一个实施例中,图11所示的计算设备可以被实现为一种服务器,该服务器可以包括:存储器,被配置为存储程序;处理器,被配置为运行存储器中存储的程序,以执行上述实施例描述的应用于AI集中服务器的网络优化方法。
在一个实施例中,图11所示的计算设备可以被实现为一种客户端设备,该客户端设备可以包括:存储器,被配置为存储程序;处理器,被配置为运行存储器中存储的程序,以执行上述实施例描述的应用于AI分布式客户端的网络优化方法。
在一个实施例中,图11所示的计算设备可以被实现为一种网络侧设备,该网络侧设备可以包括:存储器,被配置为存储程序;处理器,被配置为运行存储器中存储的程序,以执行上述实施例描述的应用于网络侧设备的网络优化方法。
以上所述,仅为本申请的示例性实施例而已,并非用于限定本申请的保护范围。一般来说,本申请的多种实施例可以在硬件或专用电路、软件、逻辑或其任何组合中实现。例如,一些方面可以被实现在硬件中,而其它方面可以被实现在可以被控制器、微处理器或其它计算装置执行的固件或软件中,尽管本申请不限于此。
本申请的实施例可以通过移动装置的数据处理器执行计算机程序指令来实现,例如在处理器实体中,或者通过硬件,或者通过软件和硬件的组合。计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码。
本申请附图中的任何逻辑流程的框图可以表示程序步骤,或者可以表示相互连接的逻辑电路、模块和功能,或者可以表示程序步骤与逻辑电路、模块和功能的组合。计算机程序可以存储在存储器上。存储器可以具有任何适合于本地技术环境的类型并且可以使用任何适合的数据存储技术实现,例如但不限于只读存储器(ROM)、随机访问存储器(RAM)、光存储器装置和系统(数码多功能光碟DVD或CD光盘)等。计算机可读介质可以包括非瞬时性存储介质。数据处理器可以是任何适合于本地技术环境的类型,例如但不限于通用计算机、专用计算机、微处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、可编程逻辑器件(FGPA)以及基于多核处理器架构的处理器。
通过示范性和非限制性的示例,上文已提供了对本申请的示范实施例的详细描述。但结合附图和权利要求来考虑,对以上实施例的多种修改和调整对本领域技术人员来说是显而易见的,但不偏离本申请的范围。因此,本申请的恰当范围将根据权利要求确定。
Claims (43)
1.一种网络优化方法,其特征在于,所述方法包括:
发送会话建立请求消息至客户端设备,以请求所述客户端设备对指定的网络侧设备进行测量配置和对连接于所述指定的网络侧设备的终端设备进行测量配置;
接收所述指定的网络侧设备的测量报告消息和所述终端设备的测量报告消息;
根据预先获取的机器学习描述信息,确定是否需要所述客户端设备进行协同训练;
基于是否需要所述客户端设备进行协同训练和所接收的测量报告消息中的测量数据,针对网络优化进行指定的模型训练处理,并将模型训练处理结果发送至所述客户端设备,以用于指示客户端设备根据所述模型训练处理结果得到网络优化操作。
2.根据权利要求1所述的方法,其特征在于,在所述发送会话建立请求消息至客户端设备之前,所述方法还包括:
响应于接收到的第一激活消息,激活机器学习功能,并获取所述激活消息中携带的机器学习描述信息和对应的机器学习模型的训练超参数。
3.根据权利要求1所述的方法,其特征在于,
所述会话建立请求消息中包括针对客户端设备的测量控制信息、客户端设备的计算处理能力信息项、以及要求客户端设备可支持的一个或多个机器学习模型,其中,所述测量配置信息用于指示所述指定的网络侧设备需要配置的测量量和测量上报方式。
4.根据权利要求3所述的方法,其特征在于,在所述发送会话建立请求消息至客户端设备之后,所述方法还包括:
响应于接收到的会话建立响应消息,根据所述会话建立响应消息中携带的成功标识,确定所述客户端能够满足所述对客户端设备计算处理能力的要求信息。
5.根据权利要求1所述的方法,其特征在于,所述接收所述指定的网络侧设备的测量报告消息和所述终端设备的测量报告消息,包括:
接收所述指定的网络侧设备的测量报告和由所述指定的网络侧设备发送的所述终端设备的测量报告。
6.根据权利要求1所述的方法,其特征在于,所述机器学习描述信息包括选用的一个或多个机器学习类型和选用的一个或多个机器学习模型;所述根据预先获取的机器学习描述信息,确定是否需要所述客户端设备进行协同训练,包括:
根据所选用的机器学习类型的所选用的机器学习模型,获取预先设定的与所述机器学习类型和所述机器学习模型对应的训练模式;
根据所述预先设定的训练模式,确定是否需要所述客户端设备进行协同训练。
7.根据权利要求1所述的方法,其特征在于,当确定无需所述客户端设备进行协同训练时,所述模型训练处理结果包括训练后的机器学习模型和模型参数值;所述基于是否需要所述客户端设备进行协同训练和所接收的测量报告消息中的测量数据,针对网络优化进行指定的模型训练处理,并将模型训练处理结果发送至所述客户端设备,包括:
从接收的所述指定的网络侧设备的测量报告中,获取客户端设备的计算处理能力,其中,所述客户端设备部署在所述指定的网络侧设备内;
根据所接收的测量数据、所述客户端设备的计算处理能力、和预先获取的所述客户端设备支持的机器学习模型,选择机器学习算法进行模型训练,得到训练后的机器学习模型和模型参数值;
发送第一模型部署请求消息至所述客户端设备,以用于在所述客户端设备生成第一网络优化操作指令;其中,所述第一模型部署请求消息中包括:第一模型推导配置文件、所述训练后的机器学习模型和模型参数值、第一模型性能上报指示和第一模型性能上报方式。
8.根据权利要求7所述的方法,其特征在于,在发送第一模型部署请求消息至所述客户端设备之后,所述方法还包括:
响应于接收到所述客户端设备的第一模型部署响应消息,根据所述第一模型部署响应消息中的第一模型部署成功标识,确定在所述客户端设备部署所述训练后的机器学习模型成功;或者,
根据所述第一模型部署响应消息中的第一模型部署失败标识,确定在所述客户端设备部署所述训练后的机器学习模型失败。
9.根据权利要求7所述的方法,其特征在于,在发送第一模型部署请求消息至所述客户端设备之后,所述方法还包括:
响应于接收到所述网络侧设备的第一模型性能报告消息,根据所述第一模型性能报告消息中携带的模型性能指标值,确定是否需要重新进行模型训练处理。
10.根据权利要求1所述的方法,其特征在于,当确定需要所述客户端设备进行协同训练时,所述基于是否需要所述客户端设备进行协同训练和所接收的测量报告消息中的测量数据,针对网络优化进行指定的模型训练处理,并将模型训练处理结果发送至所述客户端设备,包括:
从接收的所述指定的网络侧设备的测量报告中,获取所述客户端设备上报的计算处理能力,其中,所述客户端设备部署在所述指定的网络侧设备;
根据所接收的测量数据、预先获取的所述客户端设备的计算处理能力和所述客户端设备支持的机器学习模型,选择机器学习算法并配置训练超参数值;
发送模型配置建立消息至所述客户端设备,以请求所述客户端设备根据所述机器学习算法和训练超参数值进行模型配置;
接收所述客户端设备的模型配置建立消息,所述模型配置建立消息中包括所述客户端设备针对所述机器学习算法和训练超参数值模型配置进行模型训练得到的已训练的机器学习模型信息;
基于所述已训练的机器学习模型信息进行模型配置和模型训练处理,得到模型训练处理结果,并将所述模型训练处理结果发送至所述客户端设备。
11.根据权利要求10所述的方法,其特征在于,所述模型训练处理结果包括第二网络优化操作指令;所述基于所述已训练的机器学习模型信息进行模型配置和模型训练处理,得到模型训练处理结果,并将所述模型训练处理结果发送至所述客户端设备,包括:
根据所接收的测量数据和所述已训练的机器学习模型信息继续进行模型训练,得到第二网络优化操作指令;
发送第二网络操作请求消息至所述网络侧设备,所述第二网络操作请求消息中包括所述第二网络优化操作指令、第二模型性能上报指示和第二模型性能上报方式。
12.根据权利要求10所述的方法,其特征在于,在发送第二网络操作请求消息至所述网络侧设备之后,所述方法还包括:
响应于接收到所述网络侧设备的第二模型性能报告消息,根据所述第二模型性能报告消息中携带的模型性能指标值,确定是否需要重新进行模型训练处理。
13.根据权利要求10所述的方法,其特征在于,所述模型训练处理结果包括继续训练后的机器学习模型和模型参数值;所述基于所述已训练的机器学习模型信息进行模型配置和模型训练处理,得到模型训练处理结果,并将所述模型训练处理结果发送至所述客户端设备,包括:
根据所接收的测量数据和所述机器学习模型信息继续进行模型训练,得到继续训练后的机器学习模型和模型参数值;
发送第二模型部署请求消息至所述客户端设备,以用于在所述客户端设备生成第三网络优化操作指令;其中,所述第二模型部署请求消息中包括:第二模型推导配置文件、所述继续训练后的机器学习模型和模型参数值、第二模型性能上报指示和第二模型性能上报方式。
14.根据权利要求13所述的方法,其特征在于,在所述发送第二模型部署请求消息至所述客户端设备之后,所述方法还包括:
响应于接收到所述客户端设备的第二模型部署响应消息,根据所述第二模型部署响应消息中携带的第二模型部署成功标识,确定在所述客户端设备部署所述继续训练后的机器学习模型成功;或者,
根据所述第二模型部署响应消息中携带的第二模型部署失败标识,确定在所述客户端设备部署所述继续训练后的机器学习模型失败。
15.根据权利要求13所述的方法,其特征在于,在所述发送第二模型部署请求消息至所述客户端设备之后,所述方法还包括:
响应于接收到所述网络侧设备的第二模型性能报告消息,根据所述第二模型性能报告消息中携带的模型性能指标值,确定是否需要重新进行模型训练处理。
16.根据权利要求1所述的方法,其特征在于,当前服务器通过预定接口与所述指定的网络侧设备和位于所述指定的网络侧设备内的客户端设备所述进行通讯;在发送会话建立请求消息至客户端设备之前,所述方法还包括:
响应于接收到的控制面接口建立请求消息,建立当前服务器与指定的网络侧设备之间的控制面接口,作为所述预定接口;
发送控制面接口建立响应消息至所述指定的网络侧设备,以指示所述预定接口建立成功。
17.根据权利要求16所述的方法,其特征在于,
若所述控制面接口建立请求消息中包括所述指定的网络侧设备的数据面通道信息,则在发送控制面接口建立响应消息至所述指定的网络侧设备时,在所述控制面接口建立响应消息中携带当前服务器的数据面通道地址。
18.一种网络优化方法,其特征在于,所述方法包括:
响应于接收到来自预定服务器的会话建立请求消息,根据所述会话建立请求消息中包含的测量控制信息,对指定的网络侧设备和连接于所述指定的网络侧设备的终端设备进行测量配置;
发送所述指定的网络侧设备的测量报告消息和所述终端设备的测量报告消息至所述预定服务器,所述指定的网络侧设备的测量报告和所述终端设备的测量报告在所述预定服务器中,被用于针对网络优化进行的模型训练处理;
响应于接收到来自所述预定服务器的模型训练处理结果,根据所述模型训练处理结果处理得到网络优化操作。
19.根据权利要求18所述的方法,其特征在于,所述响应于接收到来自预定服务器的会话建立请求消息,根据所述会话建立请求消息中包含的测量控制信息,对指定的网络侧设备和连接于所述指定的网络侧设备的终端设备进行测量配置,包括:
响应于所述会话建立请求消息,根据所述网络侧测量控制信息对本客户端设备所在的网络侧设备进行测量配置;
发送测量配置请求至未部署本客户端设备的网络侧设备,以请求所述未部署本客户端设备的网络侧设备,根据所述网络侧测量控制信息进行测量配置。
20.根据权利要求18所述的方法,其特征在于,所述会话建立请求消息中还包括要求客户端设备可支持的一个或多个机器学习模型;在所述对指定的网络侧设备和连接于所述指定的网络侧设备的终端设备进行测量配置之后,所述方法还包括:
若所述网络侧设备和所述终端设备测量配置成功,且本客户端设备支持所述机器学习模型,则发送携带配置成功标识的会话建立响应消息至所述预定服务器;
若所述网络侧设备测量配置失败或所述终端设备测量配置失败,或本客户端设备不支持所述机器学习模型,则发送携带配置失败标识的会话建立响应消息至所述预定服务器。
21.根据权利要求18所述的方法,其特征在于,所述会话建立请求消息中还包括计算处理能力信息项;在所述发送所述指定的网络侧设备的测量报告消息和所述终端设备的测量报告消息至所述预定服务器时,所述方法还包括:
在本客户端所在的网络侧设备的测量报告中携带本客户端设备的计算处理能力。
22.根据权利要求18所述的方法,其特征在于,在所述响应于接收到来自预定服务器的会话建立请求消息,根据所述会话建立请求消息中包含的测量控制信息,对指定的网络侧设备和连接于所述指定的网络侧设备的终端设备进行测量配置之前,所述方法还包括:
响应于接收到的第二激活消息,激活机器学习功能,并获取所述第二激活消息中携带的机器学习描述信息和网络需要满足的策略信息。
23.根据权利要求18所述的方法,其特征在于,所述模型训练处理结果为训练后的机器学习模型;所述响应于接收到来自所述预定服务器的模型训练处理结果,根据所述模型训练处理结果处理得到网络优化操作,包括:
响应于接收到来自预定服务器的第一模型部署请求消息,根据所述第一模型部署请求消息中的模型推导配置文件、训练后的机器学习模型和模型参数值,部署并执行所述训练后的机器学习模型,得到第一网络优化操作指令。
24.根据权利要求23所述的方法,其特征在于,在部署所述训练后的机器学习模型之后,所述方法还包括:
若部署所述训练后的机器学习模型成功,发送第一模型部署响应消息至所述预定服务器,所述第一模型部署响应消息中携带第一模型部署成功标识;
若部署所述训练后的机器学习模型失败,发送第一模型部署响应消息至所述预定服务器,所述第一模型部署响应消息中携带第一模型部署失败标识。
25.根据权利要求23所述的方法,其特征在于,所述模型部署请求消息中还包括第一模型性能上报指示和第一模型性能上报方式,在所述执行所述训练后的机器学习模型,得到第一网络优化操作指令之后,所述方法还包括:
在本客户端设备所在网络侧设备执行所述第一网络优化操作指令;
生成第一网络优化操作请求,以请求未部署本客户端设备的网络侧设备指定所述第一网络优化操作指令;
根据所述第一模型性能上报方式,发送第一模型性能报告消息至所述预定服务器,所述第一模型性能报告消息中携带对应的模型性能指标值。
26.根据权利要求18所述的方法,其特征在于,所述响应于接收到来自所述预定服务器的模型训练处理结果,根据所述模型训练处理结果处理得到网络优化操作,包括:
响应于接收到来自预定服务器的模型配置建立消息,根据所述模型配置建立消息中的机器学习算法和训练超参数值进行模型配置和超参数配置;
若所述模型配置和超参数配置成功,根据所配置的模型和超参数进行机器模型训练,得到已训练的机器学习模型信息;
发送分布式训练请求消息至所述预定服务器,所述分布式训练请求消息中包含所述已训练的机器学习模型信息;
响应于接收到来自所述预定服务器的针对所述已训练的机器学习模型信息的模型训练处理结果,根据所述模型训练处理结果得到网络优化操作。
27.根据权利要求26所述的方法,其特征在于,所述模型训练处理结果包括第二网络优化操作指令;所述响应于接收到来自所述预定服务器的针对所述已训练的机器学习模型信息的模型训练处理结果,根据所述模型训练处理结果得到网络优化操作,包括:
响应于接收到来自所述预定服务器的第二网络优化操作请求,得到所述第二网络优化操作请求中携带的第二网络优化操作指令。
28.根据权利要求27所述的方法,其特征在于,所述第二网络优化操作请求中还包括第二模型性能上报指示和第二模型性能上报方式,在得到所述第二网络优化操作请求中携带的第二网络优化操作指令之后,所述方法还包括:
在本客户端设备所在网络侧设备执行所述第二网络优化操作指令;
生成第二网络操作请求消息,以请求未部署本客户端设备的网络侧设备指定所述第二网络优化操作指令;
根据所述第二模型性能上报方式,发送第二模型性能报告消息至所述预定服务器,所述第二模型性能报告消息中携带第二模型性能指标值。
29.根据权利要求26所述的方法,其特征在于,所述模型训练处理结果包括继续训练后的机器学习模型和模型参数值;所述响应于接收到来自所述预定服务器的针对所述已训练的机器学习模型信息的模型训练处理结果,根据所述模型训练处理结果得到网络优化操作,包括:
响应于接收到第二模型部署请求消息,根据所述第二模型部署请求消息中的模型推导配置文件、继续训练后的机器学习模型和模型参数值,部署并执行所述继续训练后的机器学习模型,得到第三网络优化操作指令。
30.根据权利要求29所述的方法,其特征在于,在部署所述继续训练后的机器学习模型,得到第三网络优化操作指令之后,所述方法还包括:
若部署所述继续训练后的机器学习模型成功,发送第二模型部署响应消息至所述预定服务器,所述第二模型部署响应消息中携带第二模型部署成功标识;
若部署所述继续训练后的机器学习模型失败,发送第二模型部署响应消息至所述预定服务器,所述第二模型部署响应消息中携带第二模型部署失败标识。
31.根据权利要求29所述的方法,其特征在于,所述第二模型部署请求消息中还包括第二模型性能上报指示和第二模型性能上报方式,在所述执行所述继续训练后的机器学习模型,得到第三网络优化操作指令之后,所述方法还包括:
在本客户端设备所在网络侧设备执行所述第三网络优化操作指令;
生成第三网络优化操作请求,以请求未部署本客户端设备的网络侧设备执行所述第三网络优化操作指令;
根据所述第二模型性能上报方式,发送第二模型性能报告消息至所述预定服务器,所述第二模型性能报告消息中携带对应的模型性能指标值。
32.一种网络优化方法,其特征在于,所述方法包括:
响应于接收到来自客户端设备的测量配置请求,根据所述测量配置请求中的网络侧测量控制信息进行测量配置和对连接于本网络侧设备的终端设备进行测量配置;
将测量得到当前网络侧设备的测量报告和接收到的终端设备的测量报告,分别发送至预定服务器和预定客户端设备,所述当前网络侧设备的测量报告和所述终端设备的测量报告在所述预定服务器和所述预定客户端设备中被用于进行针对网络优化的模型训练处理。
33.根据权利要求32所述的方法,其特征在于,所述响应于接收到来自客户端设备的测量配置请求,根据所述测量配置请求中的网络侧测量控制信息进行测量配置和对连接于本网络侧设备的终端设备进行测量配置,包括:
响应于接收到所述测量配置请求,根据所述网络侧测量控制信息进行测量配置;
根据所述网络侧测量控制信息,确定连接于当前网络侧设备的终端设备需要配置的测量量和测量上报方式,作为终端侧测量控制信息;
向所述终端设备发送无线资源控制消息,以指示所述终端设备根据所述终端侧测量控制信息进行测量配置。
34.根据权利要求32所述的方法,其特征在于,在将测量得到当前网络侧设备的测量报告和接收到的所述终端设备的测量报告,分别发送至预定服务器和预定客户端设备之后,所述方法还包括:
接收来自预定服务器或来自所述客户端设备的网络优化操作请求,获取并执行所接收网络优化操作请求中的网络优化操作指令,并发送对应的模型性能报告消息至所述预定服务器。
35.根据权利要求32所述的网络优化方法,其特征在于,所述网络侧设备通过预定接口与所述预定服务器进行通讯,在响应于接收到来自客户端设备的测量配置请求,根据所述测量配置请求中的网络侧测量控制信息进行测量配置和对连接于本网络侧设备的终端设备进行测量配置之前,所述方法还包括:
根据预先获取的所述预定服务器的地址,向所述预定服务器发送控制面接口建立请求消息,以请求所述预定服务器建立当前网络侧设备与所述预定服务器之间的控制面接口,作为所述预定接口。
36.根据权利要求35所述的网络优化方法,其特征在于,
所述控制面接口建立请求消息中包括如下信息项的一项或多项:当前网络侧设备所支持的测量、当前网络侧设备所支持的上报方式、当前网络侧设备所支持的网络优化操作和当前网络侧设备的数据面通道地址、所部署客户端设备所支持的计算能力和所部署客户端设备所支持的机器学习模型。
37.根据权利要求35所述的方法,其特征在于,所述方法还包括:
响应于接收到的控制面接口建立响应消息,确定本网络侧设备与所述预定服务器之间的控制面接口建立成功;
若所述控制面接口建立请求消息中包括当前网络侧设备的数据面通道地址,则所述接收到的控制面接口建立响应消息中包括所述预定服务器的数据面通道地址。
38.一种服务器,其特征在于,包括:
测量配置请求模块,用于发送会话建立请求消息至客户端设备,以请求所述客户端设备对指定的网络侧设备进行测量配置和对连接于所述指定的网络侧设备的终端设备进行测量配置;
测量报告接收模块,用于接收所述指定的网络侧设备的测量报告消息和所述终端设备的测量报告消息;
协同训练确定模块,用于根据预先获取的机器学习描述信息,确定是否需要所述客户端设备进行协同训练;
模型训练处理模块,用于基于是否需要所述客户端设备进行协同训练和所接收的测量报告消息中的测量数据,针对网络优化进行指定的模型训练处理,并将模型训练处理结果发送至所述客户端设备,以用于指示客户端设备根据所述模型训练处理结果得到网络优化操作。
39.一种客户端设备,其特征在于,包括:
测量配置模块,用于响应于接收到来自预定服务器的会话建立请求消息,根据所述会话建立请求消息中包含的测量控制信息,对指定的网络侧设备和连接于所述指定的网络侧设备的终端设备进行测量配置;
测量报告发送模块,用于发送所述指定的网络侧设备的测量报告消息和所述终端设备的测量报告消息至所述预定服务器,所述指定的网络侧设备的测量报告和所述终端设备的测量报告在所述预定服务器中,被用于针对网络优化进行的模型训练处理;
优化操作确定模块,用于响应于接收到来自所述预定服务器的模型训练处理结果,根据所述模型训练处理结果处理得到网络优化操作。
40.一种网络侧设备,其特征在于,包括:
测量配置模块,用于响应于接收到来自客户端设备的测量配置请求,根据所述测量配置请求中的网络侧测量控制信息进行测量配置和对连接于本网络侧设备的终端设备进行测量配置;
测量报告发送模块,用于将测量得到当前网络侧设备的测量报告和接收到的终端设备的测量报告,分别发送至预定服务器和预定客户端设备,所述当前网络侧设备的测量报告和所述终端设备的测量报告在所述预定服务器和所述预定客户端设备中,被用于进行针对网络优化的模型训练处理。
41.一种网络优化系统,其特征在于,包括服务器、一个或多个客户端设备、以及一个或多个网络侧设备,其中,每个客户端设备位于所述一个或多个网络侧设备中的一个网络侧设备中;
所述服务器,用于执行权利要求1-17中任一项所述的网络优化方法;
所述一个或多个客户端设备,用于执行权利要求18-31任一项所述的网络优化方法;
所述一个或多个网络侧设备,用于执行权利要求32-37中任一项所述的网络优化方法。
42.一种网络设备,其特征在于,包括:
一个或多个处理器;
存储器,其上存储有一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现权利要求1-17中任一项,权利要求18-31中任一项,或权利要求32-37中任一项所述的网络优化方法。
43.一种存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现权利要求1-17中任一项,权利要求18-31中任一项,或权利要求32-37中任一项所述的网络优化方法。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010445459.8A CN112512058A (zh) | 2020-05-24 | 2020-05-24 | 网络优化方法、服务器、客户端设备、网络设备和介质 |
PCT/CN2021/084325 WO2021238397A1 (zh) | 2020-05-24 | 2021-03-31 | 网络优化方法、服务器、客户端设备、网络侧设备、网络设备、系统和介质 |
EP21812502.9A EP4161129A4 (en) | 2020-05-24 | 2021-03-31 | NETWORK OPTIMIZATION METHOD, SERVER, CLIENT DEVICE, NETWORK SIDE DEVICE, NETWORK DEVICE, SYSTEM AND MEDIUM |
US17/927,726 US20230216745A1 (en) | 2020-05-24 | 2021-03-31 | Network optimization method, server, client device, network side device, network device, system and medium |
MX2022014837A MX2022014837A (es) | 2020-05-24 | 2021-03-31 | Método de optimización de red, servidor, dispositivo cliente, dispositivo del lado de red, dispositivo de red, sistema y medio. |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010445459.8A CN112512058A (zh) | 2020-05-24 | 2020-05-24 | 网络优化方法、服务器、客户端设备、网络设备和介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112512058A true CN112512058A (zh) | 2021-03-16 |
Family
ID=74953269
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010445459.8A Pending CN112512058A (zh) | 2020-05-24 | 2020-05-24 | 网络优化方法、服务器、客户端设备、网络设备和介质 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20230216745A1 (zh) |
EP (1) | EP4161129A4 (zh) |
CN (1) | CN112512058A (zh) |
MX (1) | MX2022014837A (zh) |
WO (1) | WO2021238397A1 (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021238397A1 (zh) * | 2020-05-24 | 2021-12-02 | 中兴通讯股份有限公司 | 网络优化方法、服务器、客户端设备、网络侧设备、网络设备、系统和介质 |
WO2022218347A1 (zh) * | 2021-04-15 | 2022-10-20 | 中国移动通信有限公司研究院 | 通信系统、方法、第一功能体及存储介质 |
WO2022236807A1 (en) * | 2021-05-14 | 2022-11-17 | Qualcomm Incorporated | Model status monitoring, reporting, and fallback in machine learning applications |
WO2022253414A1 (en) * | 2021-06-01 | 2022-12-08 | Nokia Technologies Oy | A packet data unit session for machine learning exploration for wireless communication network optimization |
WO2023277780A1 (en) * | 2021-07-01 | 2023-01-05 | Telefonaktiebolaget Lm Ericsson (Publ) | Enabling downloadable ai |
WO2023066288A1 (zh) * | 2021-10-21 | 2023-04-27 | 维沃移动通信有限公司 | 模型请求方法、模型请求处理方法及相关设备 |
WO2023086937A1 (en) * | 2021-11-12 | 2023-05-19 | Interdigital Patent Holdings, Inc. | 5g support for ai/ml communications |
WO2023134398A1 (zh) * | 2022-01-17 | 2023-07-20 | 中兴通讯股份有限公司 | 通信方法、设备和存储介质 |
WO2023184310A1 (en) * | 2022-03-31 | 2023-10-05 | Qualcomm Incorporated | Centralized machine learning model configurations |
WO2023185711A1 (zh) * | 2022-03-28 | 2023-10-05 | 华为技术有限公司 | 一种用于机器学习模型训练的通信方法及装置 |
WO2023211572A1 (en) * | 2022-04-28 | 2023-11-02 | Rakuten Mobile, Inc. | Method and system of managing artificial intelligence/machine learning (ai/ml) model |
WO2024065772A1 (en) * | 2022-09-30 | 2024-04-04 | Shenzhen Tcl New Technology Co., Ltd. | Wireless communication method and user equipment |
WO2024138132A1 (en) * | 2022-12-23 | 2024-06-27 | Ofinno, Llc | Model performance evaluation in radio access network |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023115567A1 (en) * | 2021-12-24 | 2023-06-29 | Nec Corporation | Methods, devices, and computer readable medium for communication |
CN116418432A (zh) * | 2021-12-30 | 2023-07-11 | 维沃移动通信有限公司 | 模型更新方法及通信设备 |
WO2023240592A1 (en) * | 2022-06-17 | 2023-12-21 | Nokia Shanghai Bell Co., Ltd. | Apparatus, methods, and computer programs |
CN115412465B (zh) * | 2022-07-11 | 2023-06-20 | 中国人民解放军国防科技大学 | 基于客户端生成分布式真实网络流量数据集的方法及系统 |
CN115499899B (zh) * | 2022-11-21 | 2023-05-26 | 国网天津市电力公司电力科学研究院 | 边缘物联代理装置的通信时延测试方法、装置及存储介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9131390B2 (en) * | 2013-02-28 | 2015-09-08 | Verizon Patent And Licensing Inc. | Optimization of transmission control protocol (TCP) connections in a wireless network |
EP3847841B1 (en) * | 2018-09-06 | 2023-03-22 | Nokia Technologies Oy | Procedure for optimization of self-organizing network |
CN110972189A (zh) * | 2018-09-29 | 2020-04-07 | 中国移动通信有限公司研究院 | 数据传输方法、装置、相关设备及存储介质 |
CN110972180A (zh) * | 2018-09-29 | 2020-04-07 | 中国移动通信有限公司研究院 | 数据传输方法、装置、相关设备及存储介质 |
CN109688597B (zh) * | 2018-12-18 | 2020-09-01 | 北京邮电大学 | 一种基于人工智能的雾无线接入网络组网方法及装置 |
CN112512058A (zh) * | 2020-05-24 | 2021-03-16 | 中兴通讯股份有限公司 | 网络优化方法、服务器、客户端设备、网络设备和介质 |
-
2020
- 2020-05-24 CN CN202010445459.8A patent/CN112512058A/zh active Pending
-
2021
- 2021-03-31 MX MX2022014837A patent/MX2022014837A/es unknown
- 2021-03-31 WO PCT/CN2021/084325 patent/WO2021238397A1/zh unknown
- 2021-03-31 US US17/927,726 patent/US20230216745A1/en active Pending
- 2021-03-31 EP EP21812502.9A patent/EP4161129A4/en active Pending
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021238397A1 (zh) * | 2020-05-24 | 2021-12-02 | 中兴通讯股份有限公司 | 网络优化方法、服务器、客户端设备、网络侧设备、网络设备、系统和介质 |
WO2022218347A1 (zh) * | 2021-04-15 | 2022-10-20 | 中国移动通信有限公司研究院 | 通信系统、方法、第一功能体及存储介质 |
CN115225495A (zh) * | 2021-04-15 | 2022-10-21 | 中国移动通信有限公司研究院 | 通信系统、方法、第一功能体及存储介质 |
WO2022236807A1 (en) * | 2021-05-14 | 2022-11-17 | Qualcomm Incorporated | Model status monitoring, reporting, and fallback in machine learning applications |
WO2022253414A1 (en) * | 2021-06-01 | 2022-12-08 | Nokia Technologies Oy | A packet data unit session for machine learning exploration for wireless communication network optimization |
WO2023277780A1 (en) * | 2021-07-01 | 2023-01-05 | Telefonaktiebolaget Lm Ericsson (Publ) | Enabling downloadable ai |
WO2023066288A1 (zh) * | 2021-10-21 | 2023-04-27 | 维沃移动通信有限公司 | 模型请求方法、模型请求处理方法及相关设备 |
WO2023086937A1 (en) * | 2021-11-12 | 2023-05-19 | Interdigital Patent Holdings, Inc. | 5g support for ai/ml communications |
WO2023134398A1 (zh) * | 2022-01-17 | 2023-07-20 | 中兴通讯股份有限公司 | 通信方法、设备和存储介质 |
WO2023185711A1 (zh) * | 2022-03-28 | 2023-10-05 | 华为技术有限公司 | 一种用于机器学习模型训练的通信方法及装置 |
WO2023184310A1 (en) * | 2022-03-31 | 2023-10-05 | Qualcomm Incorporated | Centralized machine learning model configurations |
WO2023211572A1 (en) * | 2022-04-28 | 2023-11-02 | Rakuten Mobile, Inc. | Method and system of managing artificial intelligence/machine learning (ai/ml) model |
WO2024065772A1 (en) * | 2022-09-30 | 2024-04-04 | Shenzhen Tcl New Technology Co., Ltd. | Wireless communication method and user equipment |
WO2024138132A1 (en) * | 2022-12-23 | 2024-06-27 | Ofinno, Llc | Model performance evaluation in radio access network |
Also Published As
Publication number | Publication date |
---|---|
EP4161129A4 (en) | 2024-06-26 |
MX2022014837A (es) | 2023-03-10 |
US20230216745A1 (en) | 2023-07-06 |
WO2021238397A1 (zh) | 2021-12-02 |
EP4161129A1 (en) | 2023-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112512058A (zh) | 网络优化方法、服务器、客户端设备、网络设备和介质 | |
US11418413B2 (en) | Sharable storage method and system for network data analytics | |
US20230180025A1 (en) | Network optimisation method, system and storage medium | |
US11838787B2 (en) | Functional architecture and interface for non-real-time ran intelligent controller | |
US11451452B2 (en) | Model update method and apparatus, and system | |
EP4099635A1 (en) | Method and device for selecting service in wireless communication system | |
US8050191B2 (en) | Distributed information storage and retrieval of communication network performance data | |
WO2020080989A1 (en) | Handling of machine learning to improve performance of a wireless communications network | |
CN114303347A (zh) | 通信网络中与机器学习相关的方法、装置和机器可读介质 | |
CN112655238B (zh) | 通信网络中的容量和覆盖管理系统与方法 | |
WO2022033436A1 (zh) | 位置预测方法、装置、节点和存储介质 | |
CN115552933A (zh) | 电信通信系统中的联邦学习 | |
JP2024515333A (ja) | ネットワークスライス自己最適化方法、基地局、及び記憶媒体 | |
WO2023191682A1 (en) | Artificial intelligence/machine learning model management between wireless radio nodes | |
US20230107244A1 (en) | Methods, apparatuses, and systems for intelligent interference management and radio resource management | |
US20230164629A1 (en) | Managing a node in a communication network | |
US20240196252A1 (en) | Managing resources in a radio access network | |
WO2023134398A1 (zh) | 通信方法、设备和存储介质 | |
US20240224175A1 (en) | Methods for inter-node reporting of energy consumption related information | |
US20240056904A1 (en) | External exposure of control plane to user plane switch parameter | |
WO2023204210A1 (ja) | 通信装置及び通信方法 | |
WO2023204211A1 (ja) | 通信装置及び通信方法 | |
US20240107347A1 (en) | Machine learning model selection for beam prediction for wireless networks | |
GB2621463A (en) | External provisioning of expected inactivity time parameter | |
CN118118917A (zh) | 基站间的信息交互方法及系统、存储介质、电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |