CN111242304B - O-ran系统中基于联邦学习的人工智能模型处理方法和装置 - Google Patents
O-ran系统中基于联邦学习的人工智能模型处理方法和装置 Download PDFInfo
- Publication number
- CN111242304B CN111242304B CN202010147497.5A CN202010147497A CN111242304B CN 111242304 B CN111242304 B CN 111242304B CN 202010147497 A CN202010147497 A CN 202010147497A CN 111242304 B CN111242304 B CN 111242304B
- Authority
- CN
- China
- Prior art keywords
- real
- processing unit
- time
- intelligent processing
- performance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请公开了一种O‑RAN系统中基于联邦学习的人工智能模型处理方法和装置,方法包括:基于人工智能模型的性能,非实时智能处理单元针对特定应用触发联邦学习模式,包括以下步骤:(1)非实时智能处理单元请求实时智能处理单元对特定应用在本地进行学习,然后反馈学习后的模型参数以及学习后的性能统计结果;(2)非实时智能处理单元进行性能比对,基于性能差值的最大比算法和模型的反馈时延对模型参数进行合并;(3)非实时智能处理单元将合并后的模型参数传输给实时智能处理单元,进行实时推理应用;(4)重复上述过程直到非实时智能处理单元判断人工智能模型的性能达到目标。
Description
技术领域
本发明涉及数据处理技术,更具体的说,是涉及O-RAN系统中的基于联邦学习的人工智能模型处理方法和装置。
背景技术
O-RAN的全称是开放的无线接入网络,其意指在于设计和开发开放式的、智能化的无线接入设备。在O-RAN系统中,能体现智能化的功能主要有2个模块:非实时无线接入网智能控制器(Non Real Time Radio Intelligent Controller,Non-RT RIC;也可称为非实时RIC)和近实时无线接入网智能控制器(Near Real Time Radio Intelligent Controller,Near-RT RIC;也可称为近实时RIC)。其中:
非实时RIC和近实时RIC具有智能化的特点,可以利用人工智能技术进行预测、推理等服务;
联邦学习的原理是进行局部训练,将局部训练的模型参数在中心节点进行合并。这样可以最大可能地优化人工智能模型的性能;
目前,在O-RAN标准化组织中,关于非实时RIC和近实时RIC的讨论没有涉及联邦学习的课题,无相关公开的技术资料。
发明内容
有鉴于此,本发明提供如下技术方案:
1. 一种O-RAN系统中的基于联邦学习的人工智能模型处理方法,应用于O-RAN系统中的智能处理单元,其特征包括:
非实时智能处理单元请求实时智能处理单元对特定应用在本地进行学习,然后反馈学习后的人工智能模型参数以及学习后的性能统计结果;
非实时智能处理单元将自己评估的性能和实时智能处理单元反馈的性能进行比对,基于性能差值的最大比算法和反馈时延对模型参数进行合并;
非实时智能处理单元将合并后的模型参数传输给实时智能处理单元,进行实时推理应用。
2. 根据权利要求1所述的性能统计包括以下量纲之一或者任意组合:
时延,吞吐量,可靠性,连接密度,业务体验满意度。
3. 根据权利要求1所述的特定应用,包括:
波束优化、负载均衡、业务体验水平、无线资源管理。
4. 根据权利要求1所述的基于性能差值的最大比算法,包括:按照实时智能处理单元反馈的性能和非实时智能处理单元评估的性能的差值,确定合并的权重,差值越大,合并的权重越大。
5. 根据权利要求1所述的反馈时延,包括:如果模型反馈的时延大于特定门限,不合并此模型参数。
6. 根据权利要求1所述的在本地进行学习,包括:
利用本地采集的数据进行加强学习。
7. 根据权利要求1所述的智能处理单元为利用人工智能技术处理数据的单元,包括O-RAN定义的非实时RIC和近实时RIC。
8. 一种O-RAN系统中的基于联邦学习的人工智能模型处理装置,应用于O-RAN系统中的智能处理单元,其特征包括:
非实时智能处理单元请求实时智能处理单元对特定应用在本地进行学习,然后反馈学习后的人工智能模型参数以及学习后的性能统计结果;
非实时智能处理单元将自己评估的性能和实时智能处理单元反馈的性能进行比对,基于性能差值的最大比算法和反馈时延对模型参数进行合并;
非实时智能处理单元将合并后的模型参数传输给实时智能处理单元,进行实时推理应用。
9. 根据权利要求8所述的性能统计包括以下量纲之一或者任意组合:
时延,吞吐量,可靠性,连接密度,业务体验满意度。
10. 根据权利要求8所述的特定应用,包括:
波束优化、负载均衡、业务体验水平、无线资源管理。
11. 根据权利要求8所述的基于性能差值的最大比算法,包括:按照实时智能处理单元反馈的性能和非实时智能处理单元评估的性能的差值,确定合并的权重,差值越大,合并的权重越大。
12. 根据权利要求8所述的反馈时延,包括:如果模型反馈的时延大于特定门限,不合并此模型参数。
13. 根据权利要求8所述的在本地进行学习,包括:
利用本地采集的数据进行加强学习。
14. 根据权利要求8所述的智能处理单元为利用人工智能技术处理数据的单元,包括O-RAN定义的非实时RIC和近实时RIC。
经由上述技术方案可知,与现有技术相比,本发明实施例公开了一种O-RAN系统中基于联邦学习的人工智能模型处理方法和装置,方法包括:
基于人工智能模型的性能,非实时智能处理单元针对特定应用触发联邦学习模式,包括以下几个步骤:
1) 非实时智能处理单元请求实时智能处理单元对特定应用在本地进行学习,然后反馈学习后的模型参数以及学习后的性能统计;
2) 非实时智能处理单元进行性能比对,基于性能差值的最大比算法和模型的反馈时延对模型参数进行合并;
3) 非实时智能处理单元将合并后的模型参数传输给实时智能处理单元,进行实时推理应用;
4) 重复上述过程直到非实时智能处理单元判断人工智能模型的性能达到目标。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图做简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1 为本发明实施例公开的一种O-RAN系统中基于联邦学习的人工智能模型处理方法流程图;
图2 为本发明实施例公开的基于联邦学习的人工智能模型的架构图和利用最大比和时延进行模型参数合并的示意图;
图 3为本发明实施例公开的一种O-RAN系统中基于联邦学习的人工智能模型处理装置的结构示意图(应用于近实时RIC);
图 4为本发明实施例公开的一种O-RAN系统中基于联邦学习的人工智能模型处理装置的结构示意图(应用于非实时RIC)。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1 为本发明实施例公开的一种O-RAN系统中基于联邦学习的人工智能模型处理方法流程图,图1所示方法应用于O-RAN系统中的无线智能控制单元,例如RIC。在此实施例中,非实时RIC作为中心节点,近实时RIC作为局部节点。由于安全性或者处理能力的限制,非实时RIC没有全局的训练数据或者没有能力进行全局的训练。使用联邦学习可以逼近模型训练的全局最优,提高模型应用的性能。参见图1所示,该方法可以包括:
步骤101:非实时智能处理单元评估人工智能模型对特定应用的性能;
其中,所述智能处理单元可以为O-RAN系统中已有的,或未来可能出现的智能单元,该智能单元可以是利用人工智能技术实时地处理数据的单元,为O-RAN系统中定义的具备智能功能的单元,例如RIC (Radio Intelligence Controller,无线智能控制器)等;
步骤102:非实时智能处理单元请求实时智能处理单元进行本地学习,然后反馈学习后的模型参数和性能统计结果;
步骤103:基于性能差值的最大比算法和模型的反馈时延,非实时智能处理单元进行模型参数的合并;
所述性能差值的最大比算法,包括根据性能差值,差值越大,合并的权重越大;
所述模型的反馈时延,包括进行合并的模型参数反馈时延必须要小于或者等于特定门限。此门限可以通过信令配置,或者预先设置;
步骤104:非实时智能处理单元将合并后的模型参数传输给实时智能处理单元,进行实时推理应用。
本实施例所述的O-RAN系统中基于联邦学习的人工智能模型处理方法,主要基于人工智能模型的性能,由非实时智能处理单元针对特定应用触发联邦学习模式,包括以下几个步骤:
1) 非实时智能处理单元请求实时智能处理单元对特定应用在本地进行学习,然后反馈学习后的模型参数以及学习后的性能统计结果;
2) 非实时智能处理单元进行性能比对,基于性能差值的最大比算法和模型的反馈时延对模型参数进行合并;
3) 非实时智能处理单元将合并后的模型参数传输给实时智能处理单元,进行实时推理应用;
4) 重复上述过程直到非实时智能处理单元判断人工智能模型的性能达到目标。
通过上述操作,可以最大程度优化O-RAN系统的性能,并且排除由于反馈不及时导致的性能下降问题。上述实施例中,以近实时RIC/非实时RIC作为实时智能处理单元/非实时智能处理单元的一个例子,非实时RIC基于采集的无线参数评估人工模型的性能,如果性能较差(例如小于特定门限),将触发联邦学习模式。具体步骤参照以上描述。
图2为本发明实施例公开的基于联邦学习的人工智能模型的架构图和利用最大比和时延进行模型参数合并的示意图,结合图2所示,非实时RIC与三个近实时RIC (X1, X2,X3)进行通信,X1/X2/X3与各自的无线通信单元例如CU/DU/RU(集中式处理单元/分布式处理单元/射频单元)通信。非实时RIC采集无线通信单元的数据,然后通过分析无线网络性能判断X1/X2/X3中人工智能模型的性能。如果性能较差,例如吞吐量小于某个门限,非实时RIC将启动联邦学习模式。详细过程如下所示:
1) 非实时RIC向近实时RIC发送联邦学习请求;
2) 收到请求后,近实时RIC在本地进行学习。并且向非实时RIC反馈训练好的模型参数和最新的性能统计结果;
3) 非实时RIC根据性能差别和时延合并模型参数。例如针对X1,计算的性能差别为 B1 = (Z1-Z1’),针对X2, 计算的性能差别为 B2 = (Z2-Z2’),针对X3,计算的性能差别为 B3 = (Z3-Z3’) 。其中Z1/Z2/Z3为近实时RIC反馈的性能,Z1’/Z2’/Z3’为非实时RIC自己评估的性能。模型参数合并的公式为:
M = B1/(B1+B2+B3) × Y1 + B2/(B1+B2+B3) × Y2 + B3/(B1+B2+B3) × Y3;
如果将模型参数合并的时延门限设为30ms,非实时RIC的模型参数合并公式为M =B1/(B1+B2+B3) × Y1 + B2/(B1+B2+B3) × Y2;其中模型参数Y3由于时延太大,不进行合并;
如果将模型参数合并的时延门限设为15ms,非实时RIC的模型参数合并公式将为M= B1/(B1+B2+B3) × Y1;其中模型参数Y2和Y3由于时延太大,不进行合并;
4) 非实时RIC将合并后的模型参数部署给近实时RIC,近实时RIC利用新部署的模型进行推理应用;
5)重复上述过程直到非实时RIC检测到模型的性能达到特定目标。
对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。
上述本发明公开的实施例中详细描述了方法,对于本发明的方法可采用多种形式的装置实现,因此本发明还公开了一种装置,下面给出具体的实施例进行详细说明。
图3为本发明实施例公开的一种O-RAN系统中的基于联邦学习的人工智能模型处理装置的结构示意图,本装置可应用于O-RAN系统中的近实时RIC。
参见图3所示, O-RAN系统中的人工智能模型处理装置30可以包括:
数据接收模块301,用于接收来自不同无线通信单元、非实时智能控制单元的数据或者信令;
信息获取模块302,用于基于数据接收模块301采集的数据获取无线网络性能、信令信息;
数据确定模块303,用于本地训练、推理,确定发送给非实时智能控制单元的状态信令内容以及相关的操作;
操作执行模块304,用于依据模块303的决定执行相应的操作。
图4为本发明实施例公开的一种O-RAN系统中的基于联邦学习的人工智能模型处理装置的结构示意图,本装置可应用于O-RAN系统中的非实时RIC。
参见图4所示, O-RAN系统中的人工智能模型处理装置40可以包括:
数据接收模块401,用于接收来自不同无线通信单元、近实时智能控制单元的数据或者信令;
信息获取模块402,用于基于数据接收模块401采集的数据获取无线网络性能、信令信息;
数据确定模块403,用于评估近实时智能单元的无线性能,决定是否启动联邦学习,并且将近实时智能单元反馈的模型参数进行合并,确定发送给近实时智能处理单元的状态信令内容以及相关的操作;
操作执行模块404,用于依据模块403的决定执行相应的操作。
本实施例所述的一种O-RAN系统中基于联邦学习的人工智能模型处理方法和装置,方法包括:基于人工智能模型的性能,非实时智能处理单元针对特定应用触发联邦学习模式,包括以下几个步骤:
1)非实时智能处理单元请求实时智能处理单元对特定应用在本地进行学习,然后反馈学习后的模型参数以及学习后的性能统计结果;
2)非实时智能处理单元进行性能比对,基于性能差值的最大比算法和模型的反馈时延对模型参数进行合并;
3)非实时智能处理单元将合并后的模型参数传输给实时智能处理单元,进行实时推理应用;
重复上述过程直到非实时智能处理单元判断人工智能模型的性能达到目标。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (5)
1.一种O-RAN系统中的基于联邦学习的人工智能模型处理方法,应用于O-RAN系统中的智能处理单元,其特征包括:
非实时智能处理单元请求实时智能处理单元对特定应用在本地进行学习,然后反馈学习后的人工智能模型参数以及学习后的性能统计结果;
特定应用包括:波束优化、负载均衡、业务体验水平、无线资源管理;
性能统计包括以下量纲之一或者任意组合:时延,吞吐量,可靠性,连接密度,业务体验满意度;
非实时智能处理单元将自己评估的性能和实时智能处理单元反馈的性能进行比对,基于性能差值的最大比算法和反馈时延对模型参数进行合并;
最大比算法包括:按照实时智能处理单元反馈的性能和非实时智能处理单元评估的性能的差值,确定合并的权重,差值越大,合并的权重越大;
非实时智能处理单元将合并后的模型参数传输给实时智能处理单元,进行实时推理应用。
2.根据权利要求1所述的人工智能模型处理方法,其特征在于,所述的反馈时延包括:如果模型反馈的时延大于特定门限,不合并此模型参数。
3.根据权利要求1所述的人工智能模型处理方法,其特征在于,所述的在本地进行学习包括:利用本地采集的数据进行加强学习。
4.根据权利要求1所述的人工智能模型处理方法,其特征在于,所述的智能处理单元为利用人工智能技术处理数据的单元,包括O-RAN定义的非实时RIC和近实时RIC。
5.一种O-RAN系统中的基于联邦学习的人工智能模型处理装置,应用于O-RAN系统中的智能处理单元,其特征包括:
非实时智能处理单元请求实时智能处理单元对特定应用在本地进行学习,然后反馈学习后的人工智能模型参数以及学习后的性能统计结果;
特定应用包括:波束优化、负载均衡、业务体验水平、无线资源管理;
性能统计包括以下量纲之一或者任意组合:时延,吞吐量,可靠性,连接密度,业务体验满意度;
非实时智能处理单元将自己评估的性能和实时智能处理单元反馈的性能进行比对,基于性能差值的最大比算法和反馈时延对模型参数进行合并;
最大比算法包括:按照实时智能处理单元反馈的性能和非实时智能处理单元评估的性能的差值,确定合并的权重,差值越大,合并的权重越大;非实时智能处理单元将合并后的模型参数传输给实时智能处理单元,进行实时推理应用。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010147497.5A CN111242304B (zh) | 2020-03-05 | 2020-03-05 | O-ran系统中基于联邦学习的人工智能模型处理方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010147497.5A CN111242304B (zh) | 2020-03-05 | 2020-03-05 | O-ran系统中基于联邦学习的人工智能模型处理方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111242304A CN111242304A (zh) | 2020-06-05 |
CN111242304B true CN111242304B (zh) | 2021-01-29 |
Family
ID=70870115
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010147497.5A Active CN111242304B (zh) | 2020-03-05 | 2020-03-05 | O-ran系统中基于联邦学习的人工智能模型处理方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111242304B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111565418B (zh) * | 2020-07-13 | 2020-12-11 | 网络通信与安全紫金山实验室 | 一种o-ran与mec的通信方法及系统 |
CN114125886B (zh) * | 2020-09-01 | 2023-08-11 | 大唐移动通信设备有限公司 | 一种网元内部功能的开放方法及装置 |
WO2022060777A1 (en) * | 2020-09-17 | 2022-03-24 | Intel Corporation | Online reinforcement learning |
TWI800297B (zh) * | 2022-03-09 | 2023-04-21 | 緯創資通股份有限公司 | 人工智慧計劃方法及實時網路智慧控制器 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120296845A1 (en) * | 2009-12-01 | 2012-11-22 | Andrews Sarah L | Methods and systems for generating composite index using social media sourced data and sentiment analysis |
CN105188091B (zh) * | 2015-09-17 | 2018-07-17 | 山东财经大学 | 异构无线网络系统中基于强制切换的负载均衡方法 |
CN106358238A (zh) * | 2016-11-24 | 2017-01-25 | 重庆邮电大学 | 一种lte‑a与wlan基于双连接技术的数据分流方法 |
CN108123783B (zh) * | 2016-11-29 | 2020-12-04 | 华为技术有限公司 | 数据传输方法、装置及系统 |
CN108737009B (zh) * | 2017-04-13 | 2020-02-11 | 电信科学技术研究院 | 一种干扰抑制方法和装置 |
WO2019183020A1 (en) * | 2018-03-19 | 2019-09-26 | Mavenir Networks, Inc. | System and method for reduction in fronthaul interface bandwidth for cloud ran |
US11514354B2 (en) * | 2018-04-20 | 2022-11-29 | Accenture Global Solutions Limited | Artificial intelligence based performance prediction system |
US11610165B2 (en) * | 2018-05-09 | 2023-03-21 | Volvo Car Corporation | Method and system for orchestrating multi-party services using semi-cooperative nash equilibrium based on artificial intelligence, neural network models,reinforcement learning and finite-state automata |
US20200031370A1 (en) * | 2018-07-25 | 2020-01-30 | Continental Powertrain USA, LLC | Driver Behavior Based Propulsion Control Strategy Using Artificial Intelligence |
US10560759B1 (en) * | 2018-10-23 | 2020-02-11 | At&T Intellectual Property I, L.P. | Active network support on adaptive virtual reality video transmission |
CN109783216A (zh) * | 2019-01-17 | 2019-05-21 | 广东石油化工学院 | 一种混合云环境下多工作流负载均衡方法及系统 |
CN110796270A (zh) * | 2019-10-25 | 2020-02-14 | 深圳市超算科技开发有限公司 | 一种机器学习模型选择方法 |
-
2020
- 2020-03-05 CN CN202010147497.5A patent/CN111242304B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN111242304A (zh) | 2020-06-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111242304B (zh) | O-ran系统中基于联邦学习的人工智能模型处理方法和装置 | |
US20200364571A1 (en) | Machine learning-based data processing method and related device | |
Wang et al. | Cellular traffic load prediction with LSTM and Gaussian process regression | |
US20200401945A1 (en) | Data Analysis Device and Multi-Model Co-Decision-Making System and Method | |
US20160381580A1 (en) | Association rule analysis and data visualization for mobile networks | |
Mulvey et al. | Cell fault management using machine learning techniques | |
EP3286878B1 (en) | Fault diagnosis in networks | |
CN111612153A (zh) | 训练模型的方法和装置 | |
CN111294812B (zh) | 一种资源扩容规划的方法及系统 | |
CN110891283A (zh) | 一种基于边缘计算模型的小基站监控装置及方法 | |
CN105379412A (zh) | 一种控制多个无线接入节点的系统和方法 | |
CN115345212A (zh) | 一种基于机器学习模型的控制方法和装置 | |
CN111831445A (zh) | 边缘服务器优化部署方法 | |
EP4156631A1 (en) | Reinforcement learning (rl) and graph neural network (gnn)-based resource management for wireless access networks | |
CN113869521A (zh) | 构建预测模型的方法、装置、计算设备和存储介质 | |
Barco et al. | Learning of model parameters for fault diagnosis in wireless networks | |
Bazrafkan et al. | An MADM network selection approach for next generation heterogeneous networks | |
Donatti et al. | Survey on machine learning-enabled network slicing: covering the entire life cycle | |
Islam et al. | Software-Defined Network-Based Proactive Routing Strategy in Smart Power Grids Using Graph Neural Network and Reinforcement Learning | |
CN106406082B (zh) | 一种系统控制方法、装置,控制器及控制系统 | |
CN115843050A (zh) | 网络切片配置方法及系统、计算机可存储介质 | |
WO2009082042A1 (en) | Nonlinear time series prediction method for weighted average defuzzification based on newfm | |
CN111835548B (zh) | O-ran系统中的人工智能模型处理方法和装置 | |
CN116804964A (zh) | 数据处理方法、装置、电子设备及可读存储介质 | |
JP2019092125A (ja) | 無線リソース設計装置、無線リソース設計方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |