CN114302422A - 利用学习模型进行业务处理的方法以及装置 - Google Patents

利用学习模型进行业务处理的方法以及装置 Download PDF

Info

Publication number
CN114302422A
CN114302422A CN202111437886.2A CN202111437886A CN114302422A CN 114302422 A CN114302422 A CN 114302422A CN 202111437886 A CN202111437886 A CN 202111437886A CN 114302422 A CN114302422 A CN 114302422A
Authority
CN
China
Prior art keywords
smart
aggregation
intelligent layer
model
learning model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111437886.2A
Other languages
English (en)
Other versions
CN114302422B (zh
Inventor
崔琪楣
梁盛源
赵博睿
任崇万
陶小峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Posts and Telecommunications
Original Assignee
Beijing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Posts and Telecommunications filed Critical Beijing University of Posts and Telecommunications
Priority to CN202111437886.2A priority Critical patent/CN114302422B/zh
Publication of CN114302422A publication Critical patent/CN114302422A/zh
Priority to PCT/CN2022/119866 priority patent/WO2023093238A1/zh
Application granted granted Critical
Publication of CN114302422B publication Critical patent/CN114302422B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W24/00Supervisory, monitoring or testing arrangements
    • H04W24/02Arrangements for optimising operational condition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

本申请公开了一种利用学习模型进行业务处理的方法以及装置。通过应用本申请的技术方案,可以利用基站设备的分布式单元DU与集中式单元CU,并与边缘节点共同组成通信网络架构。以使后续还可以利用该通信网络聚合网络中各个设备节点的模型参数,并利用该聚合模型参数构建部署在用户设备端或基站设备端的分层联邦学习模型。进而实现利用分层联邦学习模型进行业务处理的目的。

Description

利用学习模型进行业务处理的方法以及装置
技术领域
本申请中涉及数据处理技术,尤其是一种利用学习模型进行业务处理的方法以及装置。
背景技术
现有通信网络的架构是指“云-边-端”三层智能架构,其中边缘智能通常代指边缘服务器,用于处理用户数据面上的计算等任务。但是其未考虑在边缘实现网络控制面和管理面的智能化。此外,现有的网络架构也未充分体现基站设备的智能化特点。
因此,如何设计一种可以充分利用各个节点设备以组成的通信网络架构实现业务处理,成为了本领域人员需要解决的问题。
发明内容
本申请实施例提供一种利用学习模型进行业务处理的方法以及装置,其中,根据本申请实施例的一个方面,提供的一种利用学习模型进行业务处理的方法,应用于基站设备,包括:
获取由第一智能层、第二智能层以及第三智能层所组成的通信网络架构,其中所述第一智能层以及第二智能层部署在基站设备,第三智能层部署在边缘节点中;
利用分层联邦学习算法以及所述通信网络架构,生成部署在用户设备端或基站设备端的分层联邦学习模型;
利用所述分层联邦学习模型进行业务处理。
可选地,在基于本申请上述方法的另一个实施例中,在所述获取由第一智能层、第二智能层以及第三智能层所组成的通信网络架构之后,还包括:
获取部署在云端服务器中的第四智能层;
按照预设配置策略,对所述第四智能层进行功能配置;
当检测到对第四智能层的功能配置完成后,确定生成由所述第一智能层、所述第二智能层、所述第三智能层以及第四智能层所组成的通信网络架构。
可选地,在基于本申请上述方法的另一个实施例中,所述利用分层联邦学习算法以及所述通信网络架构,生成部署在用户设备端或基站设备端的分层联邦学习模型,包括:
利用各所述第一智能层获取初始模型参数,所述初始模型参数为所述用户设备或所述第一智能层利用本地数据进行模型训练而得到的模型参数;
利用所述第二智能层接收各所述第一智能层传送的初始模型参数之后,对所述初始模型参数进行第一层级聚合,得到第一聚合模型参数;
所述第二智能层将所述第一聚合模型参数发送给所述第一智能层,直至达到第一次数后确定所述第一层级聚合完成。
可选地,在基于本申请上述方法的另一个实施例中,在所述直至达到第一次数后确定所述第一层级聚合完成之后,包括:
所述第一智能层将所述第一聚合模型参数发送给用户设备,以使所述用户设备根据所述第一聚合模型参数对初始学习模型进行训练;或,
所述第一智能层根据所述第一聚合模型参数对初始学习模型进行训练。
可选地,在基于本申请上述方法的另一个实施例中,在所述确定所述第一层级聚合完成之后,包括:
由各所述第二智能层将第一聚合模型参数发送给所述第三智能层;
由所述第三智能层对各所述第一聚合模型参数进行第二层级聚合,得到第二聚合模型参数;
所述第三智能层将所述第二聚合模型参数发送给所述第二智能层,直至达到第二次数后确定所述第二层级聚合完成。
可选地,在基于本申请上述方法的另一个实施例中,在所述达到第二次数后确定所述第二层级聚合完成之后,包括:
所述第二智能层将所述第二聚合模型参数发送给所述第一智能层;以及,
所述第一智能层将所述第二聚合模型参数发送给用户设备,以使所述用户设备根据所述第二聚合模型参数对初始学习模型进行训练,得到所述分层联邦学习模型;或,
所述第一智能层根据所述第二聚合模型参数对初始学习模型进行训练,得到所述分层联邦学习模型。
可选地,在基于本申请上述方法的另一个实施例中,在所述第三智能层将所述第二聚合模型参数发送给所述第二智能层之后,包括:
若确定存在第四智能层,由各所述第三智能层将所述第二聚合模型参数发送给所述第四智能层,以使所述第四智能层对所述第二聚合模型参数进行第三层级聚合后,得到第三聚合模型参数;
所述第四智能层将所述第三聚合模型参数逐级下发至所述第一智能层,以使所述第一智能层根据所述第一聚合模型参数对初始学习模型进行训练;或,
所述第一智能层将所述第三聚合模型参数发送给用户设备,以使所述用户设备根据所述第三聚合模型参数对初始学习模型进行训练,得到所述分层联邦学习模型。
可选地,在基于本申请上述方法的另一个实施例中,所述利用所述分层联邦学习模型进行业务处理,包括:
由用户设备利用所述分层联邦学习模型进行第一业务处理;或,
由基站设备利用所述分层联邦学习模型进行第二业务处理。
可选地,在基于本申请上述方法的另一个实施例中,所述第一智能层以及第二智能层部署在基站设备,包括:
所述第一智能层部署在所述基站设备的分布式单元DU中,以及所述第二智能层部署在所述基站设备的集中式单元CU中;或,
所述第一智能层部署在小基站设备,以及所述第二智能层部署在宏基站设备中。
其中,根据本申请实施例的又一个方面,提供的一种利用学习模型进行业务处理的装置,包括:
获取模块,被配置为获取由第一智能层、第二智能层以及第三智能层所组成的通信网络架构,其中所述第一智能层以及第二智能层部署在基站设备,第三智能层部署在边缘节点中;
生成模块,被配置为利用分层联邦学习算法以及所述通信网络架构,生成部署在用户设备端或基站设备端的分层联邦学习模型;
处理模块,被配置为利用所述分层联邦学习模型进行业务处理。
根据本申请实施例的又一个方面,提供的一种电子设备,包括:
存储器,用于存储可执行指令;以及
显示器,用于与所述存储器显示以执行所述可执行指令从而完成上述任一所述利用学习模型进行业务处理的方法的操作。
根据本申请实施例的还一个方面,提供的一种计算机可读存储介质,用于存储计算机可读取的指令,所述指令被执行时执行上述任一所述利用学习模型进行业务处理的方法的操作。
本申请中,可以获取由第一智能层、第二智能层以及第三智能层所组成的通信网络架构,其中第一智能层以及第二智能层部署在基站设备,第三智能层部署在边缘节点中;利用分层联邦学习算法以及通信网络架构,生成部署在用户设备端或基站设备端的分层联邦学习模型;并利用分层联邦学习模型进行业务处理。通过应用本申请的技术方案,可以利用基站设备的分布式单元DU与集中式单元CU,并与边缘节点共同组成通信网络架构。以使后续还可以利用该通信网络聚合网络中各个设备节点的模型参数,并利用该聚合模型参数构建部署在用户设备端或基站设备端的分层联邦学习模型。进而实现利用分层联邦学习模型进行业务处理的目的。
下面通过附图和实施例,对本申请的技术方案做进一步的详细描述。
附图说明
构成说明书的一部分的附图描述了本申请的实施例,并且连同描述一起用于解释本申请的原理。
参照附图,根据下面的详细描述,可以更加清楚地理解本申请,其中:
图1为本申请提出的一种利用学习模型进行业务处理的方法示意图;
图2为本申请提出的应用于利用学习模型进行业务处理方法的系统架构示意图;
图3为本申请提出的利用学习模型进行业务处理的电子装置的结构示意图;
图4为本申请提出的利用学习模型进行业务处理的电子设备结构示意图。
具体实施方式
现在将参照附图来详细描述本申请的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本申请的范围。
同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,不作为对本申请及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
另外,本申请各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本申请要求的保护范围之内。
需要说明的是,本申请实施例中所有方向性指示(诸如上、下、左、右、前、后……)仅用于解释在某一特定姿态(如附图所示)下各部件之间的相对位置关系、运动情况等,如果该特定姿态发生改变时,则该方向性指示也相应地随之改变。
下面结合图1-图2来描述根据本申请示例性实施方式的用于进行利用学习模型进行业务处理的方法。需要注意的是,下述应用场景仅是为了便于理解本申请的精神和原理而示出,本申请的实施方式在此方面不受任何限制。相反,本申请的实施方式可以应用于适用的任何场景。
本申请还提出一种利用学习模型进行业务处理的方法以及装置。
图1示意性地示出了根据本申请实施方式的一种利用学习模型进行业务处理的方法的流程示意图。如图1所示,该方法,包括:
S101,获取由第一智能层、第二智能层以及第三智能层所组成的通信网络架构,其中第一智能层以及第二智能层部署在基站设备,第三智能层部署在边缘节点中。
如图2所示,为本申请提出的一种通信网络架构的系统示意图。其中包括部署在基站设备的分布式单元DU中的第一智能层、部署在基站设备的集中式单元CU中的第二智能层以及部署在边缘节点中的第三智能层。一种方式中,还包括部署在云端服务器中的第四智能层。
其中,第四智能层是高层管理智能组件,负责各个子网络之间的管理。第三智能层是基站之上的网络智能编排组件,负责各个基站之间的功能编排管理。第二智能层是基站内部的集中式智能组件,负责对传统无线资源管理(Wireless Resource management,RRM)进行智能增强与实现。第一智能层是基站内部的分布式智能组件,负责对调度周期短的参数进行进一步优化。
进一步的,本申请中提及的第一智能层和第二智能层可以有多种部署方式,例如第一智能层可以部署在基站设备的分布式单元DU中,以及第二智能层可以部署在基站设备的集中式单元CU中。
另一种方式中,第一智能层可以部署在小基站设备上。而第二智能层可以部署在宏基站设备上。
相关技术中,由于传统分布式机器学习模型的流程通常包括步骤:
1.中央(集中式)服务器收集各个分布式的零散数据汇合;
2.汇合后由中央服务器对各个分布式节点进行学习任务(和训练数据)分配;
3.各个分布式节点收到分配的学习任务(和训练数据)并开启学习;
4.各个分布式节点学习结束,将学习结果返回给中央服务器;
5.中央服务器将各个节点的学习结果汇合;
6.重复流程3~5,直至汇合后的学习结果达到预设训练条件,其中预设条件包括训练至模型收敛,训练次数达到最大迭代次数以及训练时长达到最长训练时间的其中一种。
然而,相关技术中的传统分布式机器学习模型的方式并没有考虑大量数据传输对无线链路带来的巨大传输压力,并且其也没有考虑分布式节点的数据直接传输带来的数据隐私保护的问题。因此本申请可以采用利用多个智能层所构建的通信网络架构来实现对各个客户端设备节点上传的模型参数的聚合,得到聚合模型参数,以使后续利用该聚合后的模型参数对初始学习模型进行分层学习训练,得到用于在用户设备端或基站端进行业务处理的分层联邦学习模型。
需要说明的是,本申请实施例中的边缘节点可以为边缘服务器,也可以为边缘网元等边缘设备。
S102,利用分层联邦学习算法以及通信网络架构,生成部署在用户设备端或基站设备端的分层联邦学习模型。
其中,本申请提出的通信网络架构可以具备聚合参数的功能,以使利用分层联邦学习算法对网络架构中,各个节点上传的模型参数进行聚合后发送给用户设备。以使用户设备利用聚合后的模型参数对部署在自身的初始学习模型进行训练,进而得到分层联邦学习模型。以使后续通过该模型进行业务处理。
S103,利用分层联邦学习模型进行业务处理。
需要说明的是,本申请中可以由用户设备利用分层联邦学习模型进行第一业务处理;和/或,由基站设备利用分层联邦学习模型进行第二业务处理。
其中第一业务处理可以包括驾驶路线规划,人脸识别,键盘输入预测等等。可以理解的,该种方式下,训练好的分层联邦学习模型是交由用户进行业务处理的。
可选的,第二业务处理可以包括由基站执行的传统RRM的AI增强业务,例如为移动性管理,负载均衡,动态资源分配,干扰协同,MAC实时调度,波束管理等等。其中,RRM的目的为提高无线资源的利用率,满足移动业务对于无线资源的需求。可以理解的,该种方式下,训练好的分层联邦学习模型是交由基站进行业务处理。
本申请中,可以获取由第一智能层、第二智能层以及第三智能层所组成的通信网络架构,其中第一智能层以及第二智能层部署在基站设备,第三智能层部署在边缘节点中;利用分层联邦学习算法以及通信网络架构,生成部署在用户设备端或基站设备端的分层联邦学习模型;并利用分层联邦学习模型进行业务处理。通过应用本申请的技术方案,可以利用基站设备的分布式单元DU与集中式单元CU,并与边缘节点共同组成通信网络架构。以使后续还可以利用该通信网络聚合网络中各个设备节点的模型参数,并利用该聚合模型参数构建部署在用户设备端或基站设备端的分层联邦学习模型。进而实现利用分层联邦学习模型进行业务处理的目的。
可选地,在基于本申请上述方法的另一个实施例中,在所述获取由第一智能层、第二智能层以及第三智能层所组成的通信网络架构之后,还包括:
获取部署在云端服务器中的第四智能层;
按照预设配置策略,对所述第四智能层进行功能配置;
当检测到对第四智能层的功能配置完成后,确定生成由所述第一智能层、所述第二智能层、所述第三智能层以及第四智能层所组成的通信网络架构。
可选地,在基于本申请上述方法的另一个实施例中,所述利用分层联邦学习算法以及所述通信网络架构,生成部署在用户设备端或基站设备端的分层联邦学习模型,包括:
利用各所述第一智能层获取初始模型参数,所述初始模型参数为所述用户设备或所述第一智能层利用本地数据进行模型训练而得到的模型参数;
利用所述第二智能层接收各所述第一智能层传送的初始模型参数之后,对所述初始模型参数进行第一层级聚合,得到第一聚合模型参数;
所述第二智能层将所述第一聚合模型参数发送给所述第一智能层,直至达到第一次数后确定所述第一层级聚合完成。
可选地,在基于本申请上述方法的另一个实施例中,在所述直至达到第一次数后确定所述第一层级聚合完成之后,包括:
所述第一智能层将所述第一聚合模型参数发送给用户设备,以使所述用户设备根据所述第一聚合模型参数对初始学习模型进行训练;或,
所述第一智能层根据所述第一聚合模型参数对初始学习模型进行训练。
可选地,在基于本申请上述方法的另一个实施例中,在所述确定所述第一层级聚合完成之后,包括:
由各所述第二智能层将第一聚合模型参数发送给所述第三智能层;
由所述第三智能层对各所述第一聚合模型参数进行第二层级聚合,得到第二聚合模型参数;
所述第三智能层将所述第二聚合模型参数发送给所述第二智能层,直至达到第二次数后确定所述第二层级聚合完成。
可选地,在基于本申请上述方法的另一个实施例中,在所述达到第二次数后确定所述第二层级聚合完成之后,包括:
所述第二智能层将所述第二聚合模型参数发送给所述第一智能层;以及,
所述第一智能层将所述第二聚合模型参数发送给用户设备,以使所述用户设备根据所述第二聚合模型参数对初始学习模型进行训练,得到所述分层联邦学习模型;或,
所述第一智能层根据所述第二聚合模型参数对初始学习模型进行训练,得到所述分层联邦学习模型。
可选地,在基于本申请上述方法的另一个实施例中,在所述第三智能层将所述第二聚合模型参数发送给所述第二智能层之后,包括:
若确定存在第四智能层,由各所述第三智能层将所述第二聚合模型参数发送给所述第四智能层,以使所述第四智能层对所述第二聚合模型参数进行第三层级聚合后,得到第三聚合模型参数;
所述第四智能层将所述第三聚合模型参数逐级下发至所述第一智能层,以使所述第一智能层根据所述第一聚合模型参数对初始学习模型进行训练;或,
所述第一智能层将所述第三聚合模型参数发送给用户设备,以使所述用户设备根据所述第三聚合模型参数对初始学习模型进行训练,得到所述分层联邦学习模型。
可选地,在基于本申请上述方法的另一个实施例中,所述利用所述分层联邦学习模型进行业务处理,包括:
由用户设备利用所述分层联邦学习模型进行第一业务处理;或,
由基站设备利用所述分层联邦学习模型进行第二业务处理。
可选地,在基于本申请上述方法的另一个实施例中,所述第一智能层以及第二智能层部署在基站设备,包括:
所述第一智能层部署在所述基站设备的分布式单元DU中,以及所述第二智能层部署在所述基站设备的集中式单元CU中;或,
所述第一智能层部署在小基站设备,以及所述第二智能层部署在宏基站设备中。
进一步的,本申请中可以获取部署在基站设备的分布式单元DU中的第一智能层,以及部署在基站设备的集中式单元CU中的第二智能层;在此方式下,基站设备中可以有一个或多个CU以及一个或多个DU。其中,一个CU可以连接一个或多个DU。或,
获取部署在小基站设备的第一智能层,以及部署在宏基站设备的第二智能层。
其中,小基站设备SBS(small base station)是一种信号发射覆盖半径小,适用于小范围精确覆盖的基站。其可以为用户提供高速数据服务。而对于宏基站设备(MBS,macrobase station),是一种通信覆盖范围广,但是单一用户可以分享到的容量较小,仅能提供低速数据服务和通信服务的基站。
在此方式下,无论是MSB或SBS均包括一个或多个的CU和DU。另外,一个MBS可以管理一个或多个SBS。
一种方式中,本申请实施例以通信网络架构包括三个智能层来进行举例说明:
步骤一:其中,第一智能层获取用户设备利用本地数据进行模型训练学习,以此产生初始模型参数,需要说明的是,本申请实施例中可以在此之前首先定义高层聚合器、低层聚合器以及构建数字孪生网络。
步骤二:由第一智能层上传初始模型参数更新至第二智能层,第二智能层将收到的所有模型参数更新基于聚合准则进行第一层级聚合,得到第一聚合模型参数。其中,聚合准则包括:分层联邦平均算法等等可用于聚合的算法或准则。
步骤三:第二智能层将聚合之后的第一聚合模型参数下发至其管理连接的第一智能层,完成一次低层联邦学习的过程。
步骤四:重复上述步骤至第一次数,直到确定第一层级聚合完成,第二智能层将聚合之后的第一聚合模型参数上传至第三智能层,第三智能层将收到的所有第一聚合模型参数更新基于聚合准则进行第二层级聚合,得到第二聚合模型参数。同样的,聚合准则包括:分层联邦平均算法等等可用于聚合的算法或准则。
步骤五:第三智能层将聚合之后的第二聚合模型参数下发至其管理连接的第二智能层,第二智能层将聚合之后的第二聚合模型参数下发至其管理连接的第一智能层,并选择性的将该聚合模型参数发送给用户设备。完成一次高层联邦学习的过程。
步骤六:用户设备接收到聚合后的模型参数之后,利用该各个聚合后的模型参数进行初始学习模型训练,直至当确定训练后的业务网络模型达到预设条件后,确定生成分层联邦学习模型,其中预设条件包括训练至模型收敛,训练次数达到最大迭代次数以及训练时长达到最长训练时间的其中一种。
可选的一种方式中,本申请实施例以通信网络架构包括四个智能层,且由用户设备利用分层联邦学习模型进行第一业务处理的情况来进行举例说明:
步骤一:其中,第一智能层获取用户设备利用本地数据进行模型训练学习,以此产生初始模型参数,需要说明的是,本申请实施例中可以在此之前首先定义高层聚合器、低层聚合器以及构建数字孪生网络。
步骤二:由第一智能层上传初始模型参数更新至第二智能层,第二智能层将收到的所有模型参数更新基于聚合准则进行第一层级聚合,得到第一聚合模型参数。其中,聚合准则包括:分层联邦平均算法等等可用于聚合的算法或准则。
步骤三:第二智能层将聚合之后的第一聚合模型参数下发至其管理连接的第一智能层,完成一次低层联邦学习的过程。
步骤四:重复上述步骤至第一次数,直到确定第一层级聚合完成,第二智能层将聚合之后的第一聚合模型参数上传至第三智能层,第三智能层将受到的所有第一聚合模型参数更新基于聚合准则进行第二层级聚合,得到第二聚合模型参数。同样的,聚合准则包括:分层联邦平均算法等等可用于聚合的算法或准则。
步骤五:第三智能层将聚合之后的第二聚合模型参数下发至其管理连接的第二智能层,第二智能层将聚合之后的第二聚合模型参数下发至其管理连接的第一智能层,并后续发生给用户设备。完成一次高层联邦学习的过程。
步骤六:重复上述步骤至第二次数,第三智能层将聚合之后的第二聚合模型参数上传至第四智能层,第四智能层对第二聚合模型参数进行第三层级聚合后,得到第三聚合模型参数。
步骤七:第四智能层将聚合后的第三聚合模型参数逐级下发至第一智能层;以及,第一智能层将选择性的将第三聚合模型参数发送给用户设备。
步骤八:用户设备接收到聚合后的模型参数之后,利用该各个聚合后的模型参数进行初始学习模型训练,直至当确定训练后的业务网络模型达到预设条件后,确定生成分层联邦学习模型,其中预设条件包括训练至模型收敛,训练次数达到最大迭代次数以及训练时长达到最长训练时间的其中一种,需要说明的是,模型训练以及后续的推理过程可以在本地上进行也可以在数字孪生网络体内进行。
可选的另一种方式中,本申请实施例以通信网络架构包括四个智能层,且由基站设备利用分层联邦学习模型进行第二业务处理的情况来进行举例说明:
步骤一:其中,第一智能层(即基站设备)利用本地数据进行模型训练学习,以此产生初始模型参数,需要说明的是,本申请实施例中可以在此之前首先定义高层聚合器、低层聚合器以及构建数字孪生网络。
步骤二:由第一智能层上传初始模型参数更新至第二智能层,第二智能层将收到的所有模型参数更新基于聚合准则进行第一层级聚合,得到第一聚合模型参数。其中,聚合准则包括:分层联邦平均算法等等可用于聚合的算法或准则。
步骤三:第二智能层将聚合之后的第一聚合模型参数下发至其管理连接的第一智能层,完成一次低层联邦学习的过程。
步骤四:重复上述步骤至第一次数,直到确定第一层级聚合完成,第二智能层将聚合之后的第一聚合模型参数上传至第三智能层,第三智能层将受到的所有第一聚合模型参数更新基于聚合准则进行第二层级聚合,得到第二聚合模型参数。同样的,聚合准则包括:分层联邦平均算法等等可用于聚合的算法或准则。
步骤五:第三智能层将聚合之后的第二聚合模型参数下发至其管理连接的第二智能层,第二智能层将聚合之后的第二聚合模型参数下发至其管理连接的第一智能层。完成一次高层联邦学习的过程。
步骤六:重复上述步骤至第二次数,第三智能层将聚合之后的第二聚合模型参数上传至第四智能层,第四智能层对第二聚合模型参数进行第三层级聚合后,得到第三聚合模型参数。
步骤七:第四智能层将聚合后的第三聚合模型参数逐级下发至第一智能层。
步骤八:第一智能层接收到聚合后的模型参数之后,利用该各个聚合后的模型参数进行初始学习模型训练,直至当确定训练后的业务网络模型达到预设条件后,确定生成分层联邦学习模型,其中预设条件包括训练至模型收敛,训练次数达到最大迭代次数以及训练时长达到最长训练时间的其中一种,需要说明的是,模型训练以及后续的推理过程可以在本地上进行也可以在数字孪生网络体内进行。
可选的,在本申请的另外一种实施方式中,如图3所示,本申请还提供一种利用学习模型进行业务处理的装置。其中,包括:
获取模块,被配置为获取由第一智能层、第二智能层以及第三智能层所组成的通信网络架构,其中所述第一智能层以及第二智能层部署在基站设备,第三智能层部署在边缘节点中;
生成模块,被配置为利用分层联邦学习算法以及所述通信网络架构,生成部署在用户设备端或基站设备端的分层联邦学习模型;
处理模块,被配置为利用所述分层联邦学习模型进行业务处理。
本申请中,可以获取由第一智能层、第二智能层以及第三智能层所组成的通信网络架构,其中第一智能层以及第二智能层部署在基站设备,第三智能层部署在边缘节点中;利用分层联邦学习算法以及通信网络架构,生成部署在用户设备端或基站设备端的分层联邦学习模型;并利用分层联邦学习模型进行业务处理。通过应用本申请的技术方案,可以利用基站设备的分布式单元DU与集中式单元CU,并与边缘节点共同组成通信网络架构。以使后续还可以利用该通信网络聚合网络中各个设备节点的模型参数,并利用该聚合模型参数构建部署在用户设备端或基站设备端的分层联邦学习模型。进而实现利用分层联邦学习模型进行业务处理的目的。
在本申请的另外一种实施方式中,获取模块201,还包括:
获取模块201,被配置为获取部署在云端服务器中的第四智能层;
获取模块201,被配置为按照预设配置策略,对所述第四智能层进行功能配置;
获取模块201,被配置为当检测到对第四智能层的功能配置完成后,确定生成由所述第一智能层、所述第二智能层、所述第三智能层以及第四智能层所组成的通信网络架构。
在本申请的另外一种实施方式中,获取模块201,还包括:
获取模块201,被配置为利用各所述第一智能层获取初始模型参数,所述初始模型参数为所述用户设备或所述第一智能层利用本地数据进行模型训练而得到的模型参数;
获取模块201,被配置为利用所述第二智能层接收各所述第一智能层传送的初始模型参数之后,对所述初始模型参数进行第一层级聚合,得到第一聚合模型参数;
获取模块201,被配置为所述第二智能层将所述第一聚合模型参数发送给所述第一智能层,直至达到第一次数后确定所述第一层级聚合完成。
在本申请的另外一种实施方式中,获取模块201,还包括:
获取模块201,被配置为所述第一智能层将所述第一聚合模型参数发送给用户设备,以使所述用户设备根据所述第一聚合模型参数对初始学习模型进行训练;或,
获取模块201,被配置为所述第一智能层根据所述第一聚合模型参数对初始学习模型进行训练。
在本申请的另外一种实施方式中,获取模块201,还包括:
获取模块201,被配置为由各所述第二智能层将第一聚合模型参数发送给所述第三智能层;
获取模块201,被配置为由所述第三智能层对各所述第一聚合模型参数进行第二层级聚合,得到第二聚合模型参数;
获取模块201,被配置为所述第三智能层将所述第二聚合模型参数发送给所述第二智能层,直至达到第二次数后确定所述第二层级聚合完成。
在本申请的另外一种实施方式中,获取模块201,还包括:
获取模块201,被配置为所述第二智能层将所述第二聚合模型参数发送给所述第一智能层;以及,
获取模块201,被配置为所述第一智能层将所述第二聚合模型参数发送给用户设备,以使所述用户设备根据所述第二聚合模型参数对初始学习模型进行训练,得到所述分层联邦学习模型;或,
获取模块201,被配置为所述第一智能层根据所述第二聚合模型参数对初始学习模型进行训练,得到所述分层联邦学习模型。
在本申请的另外一种实施方式中,获取模块201,还包括:
获取模块201,被配置为若确定存在第四智能层,由各所述第三智能层将所述第二聚合模型参数发送给所述第四智能层,以使所述第四智能层对所述第二聚合模型参数进行第三层级聚合后,得到第三聚合模型参数;
获取模块201,被配置为所述第四智能层将所述第三聚合模型参数逐级下发至所述第一智能层,以使所述第一智能层根据所述第一聚合模型参数对初始学习模型进行训练;或,
获取模块201,被配置为所述第一智能层将所述第三聚合模型参数发送给用户设备,以使所述用户设备根据所述第三聚合模型参数对初始学习模型进行训练,得到所述分层联邦学习模型。
在本申请的另外一种实施方式中,获取模块201,还包括:
获取模块201,被配置为由用户设备利用所述分层联邦学习模型进行第一业务处理;或,
获取模块201,被配置为由基站设备利用所述分层联邦学习模型进行第二业务处理。
在本申请的另外一种实施方式中,获取模块201,还包括:
获取模块201,被配置为所述第一智能层部署在所述基站设备的分布式单元DU中,以及所述第二智能层部署在所述基站设备的集中式单元CU中;或,
获取模块201,被配置为所述第一智能层部署在小基站设备,以及所述第二智能层部署在宏基站设备中。
图4是根据一示例性实施例示出的一种电子设备的逻辑结构框图。例如,电子设备300可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器,上述指令可由电子设备处理器执行以完成上述利用学习模型进行业务处理的方法,该方法包括:获取由第一智能层、第二智能层以及第三智能层所组成的通信网络架构,其中所述第一智能层以及第二智能层部署在基站设备,第三智能层部署在边缘节点中;利用分层联邦学习算法以及所述通信网络架构,生成部署在用户设备端或基站设备端的分层联邦学习模型;利用所述分层联邦学习模型进行业务处理。可选地,上述指令还可以由电子设备的处理器执行以完成上述示例性实施例中所涉及的其他步骤。例如,非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
在示例性实施例中,还提供了一种应用程序/计算机程序产品,包括一条或多条指令,该一条或多条指令可以由电子设备的处理器执行,以完成上述利用学习模型进行业务处理的方法,该方法包括:获取由第一智能层、第二智能层以及第三智能层所组成的通信网络架构,其中所述第一智能层以及第二智能层部署在基站设备,第三智能层部署在边缘节点中;利用分层联邦学习算法以及所述通信网络架构,生成部署在用户设备端或基站设备端的分层联邦学习模型;利用所述分层联邦学习模型进行业务处理。可选地,上述指令还可以由电子设备的处理器执行以完成上述示例性实施例中所涉及的其他步骤。
图4为计算机设备30的示例图。本领域技术人员可以理解,示意图4仅仅是计算机设备30的示例,并不构成对计算机设备30的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如计算机设备30还可以包括输入输出设备、网络接入设备、总线等。
所称处理器302可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器302也可以是任何常规的处理器等,处理器302是计算机设备30的控制中心,利用各种接口和线路连接整个计算机设备30的各个部分。
存储器301可用于存储计算机可读指令303,处理器302通过运行或执行存储在存储器301内的计算机可读指令或模块,以及调用存储在存储器301内的数据,实现计算机设备30的各种功能。存储器301可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据计算机设备30的使用所创建的数据等。此外,存储器301可以包括硬盘、内存、插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(Random Access Memory,RAM)或其他非易失性/易失性存储器件。
计算机设备30集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机可读指令来指令相关的硬件来完成计算机可读指令可存储于一计算机可读存储介质中,该计算机可读指令在被处理器执行时,可实现上述各个方法实施例的步骤。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本申请的真正范围和精神由下面的权利要求指出。
应当理解的是,本申请并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本申请的范围仅由所附的权利要求来限制。

Claims (12)

1.一种利用学习模型进行业务处理的方法,其特征在于,其中:
获取由第一智能层、第二智能层以及第三智能层所组成的通信网络架构,其中所述第一智能层以及第二智能层部署在基站设备,第三智能层部署在边缘节点中;
利用分层联邦学习算法以及所述通信网络架构,生成部署在用户设备端或基站设备端的分层联邦学习模型;
利用所述分层联邦学习模型进行业务处理。
2.如权利要求1所述的方法,其特征在于,在所述获取由第一智能层、第二智能层以及第三智能层所组成的通信网络架构之后,还包括:
获取部署在云端服务器中的第四智能层;
按照预设配置策略,对所述第四智能层进行功能配置;
当检测到对第四智能层的功能配置完成后,确定生成由所述第一智能层、所述第二智能层、所述第三智能层以及第四智能层所组成的通信网络架构。
3.如权利要求1或2所述的方法,其特征在于,所述利用分层联邦学习算法以及所述通信网络架构,生成部署在用户设备端或基站设备端的分层联邦学习模型,包括:
利用各所述第一智能层获取初始模型参数,所述初始模型参数为所述用户设备或所述第一智能层利用本地数据进行模型训练而得到的模型参数;
利用所述第二智能层接收各所述第一智能层传送的初始模型参数之后,对所述初始模型参数进行第一层级聚合,得到第一聚合模型参数;
所述第二智能层将所述第一聚合模型参数发送给所述第一智能层,直至达到第一次数后确定所述第一层级聚合完成。
4.如权利要求3所述的方法,其特征在于,在所述直至达到第一次数后确定所述第一层级聚合完成之后,包括:
所述第一智能层将所述第一聚合模型参数发送给用户设备,以使所述用户设备根据所述第一聚合模型参数对初始学习模型进行训练;或,
所述第一智能层根据所述第一聚合模型参数对初始学习模型进行训练。
5.如权利要求3所述的方法,其特征在于,在所述确定所述第一层级聚合完成之后,包括:
由各所述第二智能层将第一聚合模型参数发送给所述第三智能层;
由所述第三智能层对各所述第一聚合模型参数进行第二层级聚合,得到第二聚合模型参数;
所述第三智能层将所述第二聚合模型参数发送给所述第二智能层,直至达到第二次数后确定所述第二层级聚合完成。
6.如权利要求4所述的方法,其特征在于,在所述达到第二次数后确定所述第二层级聚合完成之后,包括:
所述第二智能层将所述第二聚合模型参数发送给所述第一智能层;以及,
所述第一智能层将所述第二聚合模型参数发送给用户设备,以使所述用户设备根据所述第二聚合模型参数对初始学习模型进行训练,得到所述分层联邦学习模型;或,
所述第一智能层根据所述第二聚合模型参数对初始学习模型进行训练,得到所述分层联邦学习模型。
7.如权利要求5所述的方法,其特征在于,在所述第三智能层将所述第二聚合模型参数发送给所述第二智能层之后,包括:
若确定存在第四智能层,由各所述第三智能层将所述第二聚合模型参数发送给所述第四智能层,以使所述第四智能层对所述第二聚合模型参数进行第三层级聚合后,得到第三聚合模型参数;
所述第四智能层将所述第三聚合模型参数逐级下发至所述第一智能层,以使所述第一智能层根据所述第一聚合模型参数对初始学习模型进行训练;或,
所述第一智能层将所述第三聚合模型参数发送给用户设备,以使所述用户设备根据所述第三聚合模型参数对初始学习模型进行训练,得到所述分层联邦学习模型。
8.如权利要求1所述的方法,其特征在于,所述利用所述分层联邦学习模型进行业务处理,包括:
由用户设备利用所述分层联邦学习模型进行第一业务处理;或,
由基站设备利用所述分层联邦学习模型进行第二业务处理。
9.如权利要求1所述的方法,其特征在于,所述第一智能层以及第二智能层部署在基站设备,包括:
所述第一智能层部署在所述基站设备的分布式单元DU中,以及所述第二智能层部署在所述基站设备的集中式单元CU中;或,
所述第一智能层部署在小基站设备,以及所述第二智能层部署在宏基站设备中。
10.一种利用学习模型进行业务处理的装置,其特征在于,应用于基站设备,包括:
获取模块,被配置为获取由第一智能层、第二智能层以及第三智能层所组成的通信网络架构,其中所述第一智能层以及第二智能层部署在基站设备,第三智能层部署在边缘节点中;
生成模块,被配置为利用分层联邦学习算法以及所述通信网络架构,生成部署在用户设备端或基站设备端的分层联邦学习模型;
处理模块,被配置为利用所述分层联邦学习模型进行业务处理。
11.一种电子设备,其特征在于,包括:
存储器,用于存储可执行指令;以及,
处理器,用于与所述存储器执行所述可执行指令从而完成权利要求1-9中任一所述利用学习模型进行业务处理的方法的操作。
12.一种计算机可读存储介质,用于存储计算机可读取的指令,其特征在于,所述指令被执行时执行权利要求1-9中任一所述利用学习模型进行业务处理的方法的操作。
CN202111437886.2A 2021-11-29 2021-11-29 利用学习模型进行业务处理的方法以及装置 Active CN114302422B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202111437886.2A CN114302422B (zh) 2021-11-29 2021-11-29 利用学习模型进行业务处理的方法以及装置
PCT/CN2022/119866 WO2023093238A1 (zh) 2021-11-29 2022-09-20 利用学习模型进行业务处理的方法以及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111437886.2A CN114302422B (zh) 2021-11-29 2021-11-29 利用学习模型进行业务处理的方法以及装置

Publications (2)

Publication Number Publication Date
CN114302422A true CN114302422A (zh) 2022-04-08
CN114302422B CN114302422B (zh) 2024-06-18

Family

ID=80966195

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111437886.2A Active CN114302422B (zh) 2021-11-29 2021-11-29 利用学习模型进行业务处理的方法以及装置

Country Status (2)

Country Link
CN (1) CN114302422B (zh)
WO (1) WO2023093238A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023093238A1 (zh) * 2021-11-29 2023-06-01 北京邮电大学 利用学习模型进行业务处理的方法以及装置
CN116996406A (zh) * 2023-09-22 2023-11-03 山东未来互联科技有限公司 基于省级sdn骨干网组网的数据交互管理系统及方法
WO2024000438A1 (en) * 2022-06-30 2024-01-04 Shenzhen Tcl New Technology Co., Ltd. Communication device and method for determining post-processing based on artificial intelligence/machine learning

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117076132B (zh) * 2023-10-12 2024-01-05 北京邮电大学 分层联邦学习系统的资源分配及聚合优化方法及装置

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190138934A1 (en) * 2018-09-07 2019-05-09 Saurav Prakash Technologies for distributing gradient descent computation in a heterogeneous multi-access edge computing (mec) networks
CN110891283A (zh) * 2019-11-22 2020-03-17 超讯通信股份有限公司 一种基于边缘计算模型的小基站监控装置及方法
US20200162348A1 (en) * 2018-11-15 2020-05-21 Cisco Technology, Inc. Automated provisioning of radios in a virtual radio access network
US20200272859A1 (en) * 2019-02-22 2020-08-27 Cisco Technology, Inc. Iot fog as distributed machine learning structure search platform
CN112181666A (zh) * 2020-10-26 2021-01-05 华侨大学 一种基于边缘智能的设备评估和联邦学习重要性聚合方法、系统、设备和可读存储介质
CN112673593A (zh) * 2018-09-11 2021-04-16 三星电子株式会社 在电信网络中的和与电信网络相关的改进
WO2021115480A1 (zh) * 2020-06-30 2021-06-17 平安科技(深圳)有限公司 联邦学习方法、装置、设备和存储介质
WO2021121029A1 (zh) * 2019-12-20 2021-06-24 深圳前海微众银行股份有限公司 训练模型的更新方法、系统、智能体、服务器及计算机可读存储介质
CN113163409A (zh) * 2021-03-16 2021-07-23 重庆邮电大学 基于人工智能的移动边缘计算服务放置策略
CN113238867A (zh) * 2021-05-19 2021-08-10 浙江凡双科技有限公司 一种基于网络卸载的联邦学习方法
CN113408746A (zh) * 2021-06-22 2021-09-17 深圳大学 一种基于区块链的分布式联邦学习方法、装置及终端设备
CN113435604A (zh) * 2021-06-16 2021-09-24 清华大学 一种联邦学习优化方法及装置
CN113490184A (zh) * 2021-05-10 2021-10-08 北京科技大学 一种面向智慧工厂的随机接入资源优化方法及装置
CN113537514A (zh) * 2021-07-27 2021-10-22 北京邮电大学 一种高能效的基于数字孪生的联邦学习框架

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11500929B2 (en) * 2019-11-07 2022-11-15 International Business Machines Corporation Hierarchical federated learning using access permissions
CN112804107B (zh) * 2021-01-28 2023-04-28 南京邮电大学 一种物联网设备能耗自适应控制的分层联邦学习方法
CN113268920B (zh) * 2021-05-11 2022-12-09 西安交通大学 一种基于联邦学习的无人机群感知数据安全共享方法
CN113504999B (zh) * 2021-08-05 2023-07-04 重庆大学 一种面向高性能分层联邦边缘学习的调度与资源分配方法
CN114302422B (zh) * 2021-11-29 2024-06-18 北京邮电大学 利用学习模型进行业务处理的方法以及装置
CN114302421B (zh) * 2021-11-29 2024-06-18 北京邮电大学 通信网络架构的生成方法、装置、电子设备及介质

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190138934A1 (en) * 2018-09-07 2019-05-09 Saurav Prakash Technologies for distributing gradient descent computation in a heterogeneous multi-access edge computing (mec) networks
CN112673593A (zh) * 2018-09-11 2021-04-16 三星电子株式会社 在电信网络中的和与电信网络相关的改进
US20200162348A1 (en) * 2018-11-15 2020-05-21 Cisco Technology, Inc. Automated provisioning of radios in a virtual radio access network
US20200272859A1 (en) * 2019-02-22 2020-08-27 Cisco Technology, Inc. Iot fog as distributed machine learning structure search platform
CN110891283A (zh) * 2019-11-22 2020-03-17 超讯通信股份有限公司 一种基于边缘计算模型的小基站监控装置及方法
WO2021121029A1 (zh) * 2019-12-20 2021-06-24 深圳前海微众银行股份有限公司 训练模型的更新方法、系统、智能体、服务器及计算机可读存储介质
WO2021115480A1 (zh) * 2020-06-30 2021-06-17 平安科技(深圳)有限公司 联邦学习方法、装置、设备和存储介质
CN112181666A (zh) * 2020-10-26 2021-01-05 华侨大学 一种基于边缘智能的设备评估和联邦学习重要性聚合方法、系统、设备和可读存储介质
CN113163409A (zh) * 2021-03-16 2021-07-23 重庆邮电大学 基于人工智能的移动边缘计算服务放置策略
CN113490184A (zh) * 2021-05-10 2021-10-08 北京科技大学 一种面向智慧工厂的随机接入资源优化方法及装置
CN113238867A (zh) * 2021-05-19 2021-08-10 浙江凡双科技有限公司 一种基于网络卸载的联邦学习方法
CN113435604A (zh) * 2021-06-16 2021-09-24 清华大学 一种联邦学习优化方法及装置
CN113408746A (zh) * 2021-06-22 2021-09-17 深圳大学 一种基于区块链的分布式联邦学习方法、装置及终端设备
CN113537514A (zh) * 2021-07-27 2021-10-22 北京邮电大学 一种高能效的基于数字孪生的联邦学习框架

Non-Patent Citations (10)

* Cited by examiner, † Cited by third party
Title
M. S. H. ABAD ET AL.: "Hierarchical Federated Learning ACROSS Heterogeneous Cellular Networks", 《ICASSP 2020 - 2020 IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS, SPEECH AND SIGNAL PROCESSING (ICASSP)》, pages 1 - 4 *
RITUPARNA SAHA ET AL.: "FogFL: Fog-Assisted Federated Learning for Resource-Constrained IoT Devices", 《 IEEE INTERNET OF THINGS JOURNAL 》 *
上海艾瑞市场咨询有限公司: "中国边缘云计算行业展望报告 2021年", 《中国会议》 *
侯延昭 等: "面向绿色无线通信的基站体系结构", 《中兴通讯技术》 *
刘炎培 等: "边缘环境下计算密集型应用的卸载技术研究", 计算机工程与应用 *
周晶 等: "AI赋能实现全流程业务的云边端智能闭环", 《电子世界》, pages 1 - 2 *
张依琳 等: "联邦学习在边缘计算场景中应用研究进展", 《小型微型计算机系统》, 6 September 2021 (2021-09-06) *
杜永生 等: "网络智能,以"智"赋"动"", 《中兴通讯技术》 *
王晓飞: "智慧边缘计算:万物互联到万物赋能的桥梁", 《人民论坛·学术前沿》, pages 6 *
肖哲: "人工智能在5G网络中的应用", 《中国电子科学研究院学报 》, pages 1 - 4 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023093238A1 (zh) * 2021-11-29 2023-06-01 北京邮电大学 利用学习模型进行业务处理的方法以及装置
WO2024000438A1 (en) * 2022-06-30 2024-01-04 Shenzhen Tcl New Technology Co., Ltd. Communication device and method for determining post-processing based on artificial intelligence/machine learning
CN116996406A (zh) * 2023-09-22 2023-11-03 山东未来互联科技有限公司 基于省级sdn骨干网组网的数据交互管理系统及方法
CN116996406B (zh) * 2023-09-22 2024-02-02 山东未来互联科技有限公司 基于省级sdn骨干网组网的数据交互管理系统及方法

Also Published As

Publication number Publication date
WO2023093238A1 (zh) 2023-06-01
CN114302422B (zh) 2024-06-18

Similar Documents

Publication Publication Date Title
CN114302422B (zh) 利用学习模型进行业务处理的方法以及装置
US20190123963A1 (en) Method and apparatus for managing resources of network slice
CN104869654B (zh) 一种资源调配系统、基站、设备及方法
CN114302421A (zh) 通信网络架构的生成方法、装置、电子设备及介质
WO2016161677A1 (zh) 一种业务卸载方法及系统
CN105893138A (zh) 基于配额的资源管理方法和装置
CN111222647A (zh) 联邦学习系统优化方法、装置、设备及存储介质
US20230281513A1 (en) Data model training method and apparatus
CN106856438A (zh) 一种网络业务实例化的方法、装置及nfv系统
CN115552933A (zh) 电信通信系统中的联邦学习
CN109819023A (zh) 分布式事务处理方法及相关产品
CN109451537A (zh) 网络分流方法及相关设备
CN114020455B (zh) 一种服务功能的编排方法、装置及计算机可读存储介质
CN106162634A (zh) 一种网关之间的数据交互方法及装置
Jere et al. Distributed learning meets 6G: A communication and computing perspective
CN107613500B (zh) 一种不确定环境下的无线频谱共享方法
CN113259145B (zh) 网络切片的端到端组网方法、组网装置及网络切片设备
CN108366102A (zh) 一种基于Consul的服务发现方法、装置及电子设备
Wu et al. How to allocate resources in cloud native networks towards 6g
CN114153593A (zh) 业务处理的方法、装置、电子设备及介质
CN113543160A (zh) 5g切片资源配置方法、装置、计算设备及计算机存储介质
CN114301907B (zh) 云计算网络中的业务处理方法、系统、装置及电子设备
CN115633041A (zh) 多集群的管理方法、装置、电子设备和可读存储介质
CN112738815B (zh) 一种可接入用户数的评估方法和装置
CN106506176A (zh) 一种策略和计费规则生成方法和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant