CN117642755A - 使用联邦学习的模型训练 - Google Patents
使用联邦学习的模型训练 Download PDFInfo
- Publication number
- CN117642755A CN117642755A CN202180100115.6A CN202180100115A CN117642755A CN 117642755 A CN117642755 A CN 117642755A CN 202180100115 A CN202180100115 A CN 202180100115A CN 117642755 A CN117642755 A CN 117642755A
- Authority
- CN
- China
- Prior art keywords
- model
- request
- network
- federal learning
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 136
- 230000006870 function Effects 0.000 claims abstract description 220
- 230000004044 response Effects 0.000 claims abstract description 78
- 238000004220 aggregation Methods 0.000 claims abstract description 25
- 230000002776 aggregation Effects 0.000 claims abstract description 25
- 230000004931 aggregating effect Effects 0.000 claims abstract description 8
- 238000004458 analytical method Methods 0.000 claims description 60
- 238000013480 data collection Methods 0.000 claims description 5
- 238000000034 method Methods 0.000 abstract description 82
- 238000004891 communication Methods 0.000 description 60
- 238000010586 diagram Methods 0.000 description 38
- 238000003860 storage Methods 0.000 description 21
- OUSLHGWWWMRAIG-FBCAJUAOSA-N (6r,7r)-7-[[(2z)-2-(furan-2-yl)-2-methoxyiminoacetyl]amino]-3-(hydroxymethyl)-8-oxo-5-thia-1-azabicyclo[4.2.0]oct-2-ene-2-carboxylic acid Chemical compound N([C@@H]1C(N2C(=C(CO)CS[C@@H]21)C(O)=O)=O)C(=O)\C(=N/OC)C1=CC=CO1 OUSLHGWWWMRAIG-FBCAJUAOSA-N 0.000 description 10
- 238000012545 processing Methods 0.000 description 10
- 238000007726 management method Methods 0.000 description 8
- 238000002955 isolation Methods 0.000 description 4
- GVVPGTZRZFNKDS-JXMROGBWSA-N geranyl diphosphate Chemical compound CC(C)=CCC\C(C)=C\CO[P@](O)(=O)OP(O)(O)=O GVVPGTZRZFNKDS-JXMROGBWSA-N 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- ORQBXQOJMQIAOY-UHFFFAOYSA-N nobelium Chemical compound [No] ORQBXQOJMQIAOY-UHFFFAOYSA-N 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013523 data management Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000010979 ruby Substances 0.000 description 1
- 229910001750 ruby Inorganic materials 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/34—Network arrangements or protocols for supporting network services or applications involving the movement of software or configuration parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L2101/00—Indexing scheme associated with group H04L61/00
- H04L2101/30—Types of network names
- H04L2101/375—Access point names [APN]
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Computer And Data Communications (AREA)
- Mobile Radio Communication Systems (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Stored Programmes (AREA)
Abstract
公开用于使用联邦学习的模型训练的设备、方法及系统。一种方法(1100)包含接收(1102)来自包含使用联邦学习从本地模型训练逻辑功能导出聚合的经训练模型的要求的网络功能的第一请求。所述方法(1100)包含基于所述第一请求中的所述第一要求而使用联邦学习来确定(1104)用于聚合的模型参数。所述方法(1100)包含发现(1106)能够基于所述要求而使用联邦学习来提供用于聚合的模型参数的本地模型训练逻辑功能。所述方法(1100)包含向所述本地模型训练逻辑功能发射(1108)接收所述模型参数的第二请求。所述方法(1100)包含使用联邦学习聚合(1110)所述模型参数。所述方法(1100)包含发射(1112)包含所述聚合的模型参数的响应。
Description
技术领域
本文公开的标的物大体上涉及无线通信,且更特定来说,涉及使用联邦学习的模型训练。
背景技术
在某些无线通信网络中,模型可能需要训练。模型所需的训练可能效率低下。
发明内容
公开用于使用联邦学习的模型训练的方法。设备及系统还执行方法的功能。一种方法的一个实施例包含在支持使用联邦学习聚合模型参数的模型训练逻辑功能处接收来自网络功能的第一请求。第一请求包含使用联邦学习来从至少一个本地模型训练逻辑功能导出聚合的经训练模型的第一要求。在一些实施例中,所述方法包含基于第一请求中的第一要求而使用联邦学习来确定用于聚合的模型参数。在某些实施例中,所述方法包含发现能够基于第一要求而使用联邦学习来提供用于聚合的模型参数的至少一个本地模型训练逻辑功能。在各种实施例中,所述方法包含向至少一个本地模型训练逻辑功能发射接收用于导出聚合的经训练模型的模型参数的第二请求。在一些实施例中,所述方法包含使用联邦学习来聚合模型参数。在某些实施例中,所述方法包含发射对第一请求的响应。所述响应包含聚合的模型参数。
一种用于使用联邦学习的模型训练的设备包含模型训练逻辑功能。在一些实施例中,所述设备包含接收来自网络功能的第一请求的接收器。模型训练逻辑功能支持使用联邦学习聚合模型参数,且第一请求包含使用联邦学习从至少一个本地模型训练逻辑功能导出聚合的经训练模型的第一要求。在各种实施例中,所述设备包含处理器,其:基于第一请求中的第一要求而使用联邦学习来确定用于聚合的模型参数;以及发现能够基于第一要求而使用联邦学习来提供用于聚合的模型参数的至少一个本地模型训练逻辑功能。在某些实施例中,所述设备包含发射器,其向至少一个本地模型训练逻辑功能发射接收用于导出聚合的经训练模型的模型参数的第二请求。在一些实施例中,处理器使用联邦学习来聚合模型参数,发射器发射对第一请求的响应,且所述响应包含聚合的模型参数。
一种用于使用联邦学习的模型训练的方法的另一实施例包含在第一网络功能处接收来自第二网络功能的第一请求。第一请求包含导出经训练模型的第一要求,第一要求包含标识模型的分析标识符及为特定区域提供经训练模型的要求、公共陆地移动网络、数据网络接入标识符、单个网络切片选择辅助信息、应用标识符、数据网络名称或其某种组合。在一些实施例中,所述方法包含确定第一请求使用联邦学习来训练对应于第一要求的模型。在某些实施例中,所述方法包含确定使用联邦学习支持模型聚合的网络功能。在各种实施例中,所述方法包含向使用联邦学习支持模型训练的第三网络功能发射第二请求。第二请求包含基于第一要求而使用联邦学习来提供经训练模型的请求。在一些实施例中,所述方法包含,响应于发射第二请求,接收聚合的模型参数。在某些实施例中,所述方法包含使用聚合的模型参数训练模型以生成经训练模型。在各种实施例中,所述方法包含发射对第一请求的第一响应。所述响应包含指示经训练模型可用的信息。
用于使用联邦学习的模型训练的另一设备包含第一网络功能。在一些实施例中,所述设备包含接收来自第二网络功能的第一请求的接收器。第一请求包含导出经训练模型的第一要求,第一要求包含标识模型的分析标识符及为特定区域提供经训练模型的要求、公共陆地移动网络、数据网络接入标识符、单个网络切片选择辅助信息、应用标识符、数据网络名称或其某种组合。在各种实施例中,所述设备包含处理器,其:确定第一请求使用联邦学习来训练对应于第一要求的模型;以及确定使用联邦学习支持模型聚合的网络功能。在某些实施例中,所述设备包含发射器,其向使用联邦学习支持模型训练的第三网络功能发射第二请求。第二请求包含基于第一要求而使用联邦学习来提供经训练模型的请求。在一些实施例中,响应于发射第二请求,接收器接收聚合的模型参数,处理器使用聚合的模型参数训练模型以生成经训练模型,发射器发射对第一请求的第一响应,且响应包含指示经训练模型可用的信息。
用于使用联邦学习的模型训练的方法的另一实施例包含在第二网络功能处接收提供分析报告的第一请求。在一些实施例中,所述方法包含在第二网络功能处确定经训练模型需要联邦学习。在某些实施例中,所述方法包含从第二网络功能向第一网络功能发射第二请求。第二请求包含导出经训练模型的第一要求,第一要求包含标识模型的分析标识符及为特定区域提供经训练模型的要求、公共陆地移动网络、数据网络接入标识符、单个网络切片选择辅助信息、应用标识符、数据网络名称或其某种组合。在各种实施例中,所述方法包含接收对第二请求的响应。所述响应包含指示经训练模型可用的信息。
用于使用联邦学习的模型训练的另一设备包含第二网络功能。在一些实施例中,所述设备包含接收提供分析报告的第一请求的接收器。在各种实施例中,所述设备包含确定经训练模型需要联邦学习的处理器。在某些实施例中,所述设备包含向第一网络功能发射第二请求的发射器。第二请求包含导出经训练模型的第一要求,第一要求包含标识模型的分析标识符及为特定区域提供经训练模型的要求、公共陆地移动网络、数据网络接入标识符、单个网络切片选择辅助信息、应用标识符、数据网络名称或其某种组合。在一些实施例中,接收器接收对第二请求的响应。响应包含指示经训练模型可用的信息。
附图说明
对以上简要描述的实施例的更特定描述将通过参考附图中所说明的特定实施例来呈现。应理解,这些图式仅描绘一些实施例,且因此不应被视为限制范围,将通过使用附图以额外特定性及细节来描述及解释所述实施例,其中:
图1是说明用于使用联邦学习的模型训练的无线通信系统的一个实施例的示意性框图;
图2是说明可用于使用联邦学习的模型训练的设备的一个实施例的示意性框图;
图3是说明可用于使用联邦学习的模型训练的设备的一个实施例的示意性框图;
图4是说明用于横向联邦学习的系统的一个实施例的示意框图;
图5是说明用于纵向联邦学习的系统的一个实施例的示意框图;
图6是说明包含用于联邦学习的3GPP架构的系统的一个实施例的示意框图;
图7是说明包含用于联邦学习的3GPP架构的系统的另一实施例的示意框图;
图8是说明用于联邦学习的程序的一个实施例的网络通信图;
图9是说明用于联邦学习的程序的另一实施例的网络通信图;
图10是说明MTLF聚合器基于联邦学习来聚合ML模型的程序的一个实施例的网络通信图。
图11是说明用于使用联邦学习的模型训练的方法的一个实施例的流程图;
图12是说明用于使用联邦学习的模型训练的方法的另一实施例的流程图;以及
图13是说明用于使用联邦学习的模型训练的方法的另外实施例的流程图。
具体实施方式
如所属领域的技术人员将了解,实施例的方面可体现为系统、设备、方法或程序产品。因此,实施例可采取完全硬件实施例、完全软件实施例(包含固件、驻留软件、微代码等)或组合软件及硬件方面的实施例的形式,其在本文中通常可称为“电路”、“模块”或“系统”。此外,实施例可采取程序产品的形式,所述程序产品体现在存储机器可读代码、计算机可读代码及/或程序代码(以下称为代码)的一或多个计算机可读存储装置中。存储装置可为有形、非暂时及/或非传输的。存储装置可不体现信号。在某些实施例中,存储装置仅采用用于存取代码的信号。
本说明书中描述的某些功能单元可标记为模块,以便更特定地强调其实施独立性。举例来说,模块可被实施为硬件电路,其包括定制的超大规模集成(“VLSI”)电路或门阵列、现成的半导体,例如逻辑芯片、晶体管或其它离散组件。模块还可在可编程硬件装置中实施,例如现场可编程门阵列、可编程阵列逻辑、可编程逻辑装置或类似者。
模块还可在代码及/或软件中实施以由各种类型的处理器执行。例如,所标识的代码模块可包含可执行代码的一或多个物理或逻辑块,其可例如被组织为对象、程序或函数。然而,所标识模块的可执行文件不需要物理地位于一起,而是可包含存储在不同位置中的不同指令,当逻辑地接合在一起时,所述指令包含模块且实现模块的所陈述目的。
事实上,代码模块可为单个指令,或多个指令,且甚至可分布在若干不同代码区段上方、在不同程序当中及跨越若干存储器装置。类似地,操作数据可在模块内被标识及说明,且可以任何合适形式体现并组织在任何合适类型的数据结构内。操作数据可作为单个数据集收集,或者可分布在不同位置上,其包含在不同计算机可读存储装置上。在模块或模块的部分以软件实施的情况下,软件部分存储在一或多个计算机可读存储装置上。
可利用一或多个计算机可读媒体的任一组合。计算机可读媒体可为计算机可读存储媒体。计算机可读存储媒体可为存储代码的存储装置。举例来说,存储装置可为(但不限于)电子、磁性、光学、电磁、红外、全息、微机械或半导体系统、设备或装置或前述的任一合适组合。
存储装置的更特定实例(非详尽列表)将包含以下:具有一或多个线的电气连接、便携式计算机磁盘、硬盘、随机存取存储器(“RAM”)、只读存储器(“ROM”)、可擦除可编程只读存储器(“EPROM”或快闪存储器)、便携式光盘只读存储器(“CD-ROM”)、光学存储装置、磁存储装置或前述内容的任一合适组合。在此文档的上下文中,计算机可读存储媒体可为含有或存储程序以供指令执行系统、设备或装置使用或与其结合使用的任何有形媒体。
用于实行实施例的操作的代码可为任何数目个线且可用一或多种编程语言的任一组合编写,包含面向对象的编程语言,例如Python、Ruby、Java、Smalltalk、C++或类似者,以及常规程序化编程语言,例如“C”编程语言或类似者,及/或机器语言,例如汇编语言。代码可完全在用户的计算机上执行、部分在用户的计算机上执行、作为独立软件包执行、部分在用户的计算机上执行且部分在远程计算机上执行,或完全在远程计算机或服务器上执行。在后一种情形下,远程计算机可通过任何类型的网络连接到用户的计算机,包含局域网(“LAN”)或广域网(“WAN”),或者可连接到外部计算机(例如,通过使用因特网服务提供商的因特网)。
在本说明书中,对“一个实施例”、“一实施例”或类似语言的参考意指示结合所述实施例描述的特定特征、结构或特性包含在至少一个实施例中。因此,除非另有明确规定,否则贯穿本说明书的短语“在一个实施例中”、“在实施例中”及类似语言的出现可(但不一定)都指同一实施例,而是意指“一或多个但并非所有实施例”。除非另有明确规定,术语“包含”、“包括”、“具有”及其变体意指“包含(但不限于)”。除非另有明确规定,否则列举的项目列表并不意味着任何或所有项目是相互排斥的。除非另有明确规定,否则术语“一”及“所述”也指“一或多个”。
此外,实施例的所描述特征、结构或特性可以任何合适方式组合。在以下描述中,提供众多特定细节,例如编程、软件模块、用户选择、网络事务、数据库查询、数据库结构、硬件模块、硬件电路、硬件芯片等的实例,以提供对实施例的透彻理解。然而,相关领域的技术人员将认识到,实施例可在没有特定细节中一或多者的情况下实践,或者用其它方法、组件、材料等。在其它情况下,未详细展示或描述众所周知的结构、材料或操作,以避免混淆实施例的方面。
下面参考根据实施例的方法、设备、系统及程序产品的示意流程图及/或示意框图来描述实施例的方面。将理解,示意流程图及/或示意框图的每一块以及示意流程图及/或示意框图中的块的组合可通过代码实施。所述代码可提供到通用计算机、专用计算机或其它可编程数据处理设备的处理器,以产生机器,使得经由计算机或其它可编程数据处理设备的处理器执行的指令创建实施示意性流程图及/或示意性框图框或若干框中指定的功能/动作的途径。
代码还可存储在存储装置中,所述存储装置可指导计算机、其它可编程数据处理设备或其它装置以特定方式起作用,使得存储在存储装置中的指令产生包含实施示意性流程图及/或示意性框图框或若干框中指定的功能/动作的指令的制品。
代码也可加载到计算机、其它可编程数据处理设备或其它装置上,以使一系列操作步骤在计算机、其它可编程设备或其它装置上执行以产生计算机实施的过程,使得在计算机或其它可编程设备上执行的代码提供用于实施示意性流程图及/或示意性框图框或若干框中指定的功能/动作的过程。
图式中的示意性流程图及/或示意性框图说明根据各种实施例的设备、系统、方法及程序产品的可能实施方案的架构、功能性及操作。在此方面,示意性流程图及/或示意性框图中的每一框可表示模块、区段或代码的部分,其包含用于实施指定逻辑功能的代码的一或多个可执行指令。
还应注意,在一些替代实施方案中,框中标注的功能可能与图式中标注的顺序不符。例如,取决于所涉及的功能性,连续展示的两个框事实上可大体上同时执行,或所述框有时可以相反顺序执行。可设想在功能、逻辑或效果上等同于所说明图式的一或多个块或其部分的其它步骤及方法。
尽管在流程图及/或框图中可采用各种箭头类型及线型,但应理解其并不限制对应实施例的范围。实际上,一些箭头或其它连接器可用于仅指示所描绘实施例的逻辑流。例如,箭头可指示所描绘实施例的枚举步骤之间的未指定持续时间的等待或监测时段。还将注意,框图及/或流程图的每一模块,以及框图及/或流程图中的块的组合可由执行指定功能或动作的基于专用硬件的系统或专用硬件及代码的组合来实施。
每一图式中元素的描述可指代前面图式中的元素。相似数字是指所有图式中的相似元素,包含相似元素的替代实施例。
图1描绘用于使用联邦学习的模型训练的无线通信系统100的实施例。在一个实施例中,无线通信系统100包含远程单元102及网络单元104。尽管图1中描绘特定数目个远程单元102及网络单元104,但所属领域的技术人员将认识到,任何数目个远程单元102及网络单元104可包含在无线通信系统100中。
在一个实施例中,远程单元102可包含计算装置,例如台式计算机、膝上型计算机、个人数字助理(“PDA”)、平板计算机、智能手机、智能电视(例如,连接到因特网的电视)、机顶盒、游戏机、安全系统(包含安全摄像机)、车载计算机、网络装置(例如,路由器、交换机、调制解调器)、飞行器、无人机或类似者。在一些实施例中,远程单元102包含可穿戴装置,例如智能手表、健身带、光学头戴式显示器或类似者。此外,用户单元102可被称为订户单元、移动电话、移动站、用户、终端、移动终端、固定终端、订户站、UE、用户终端、装置或通过所属领域中使用的其它术语来称呼。远程单元102可经由UL通信信号与网络单元104中的一或多者直接通信。在某些实施例中,远程单元102可经由侧链路通信直接与其它远程单元102通信。
网络单元104可分布在一个地理区域上。在某些实施例中,网络单元104还可被称为及/或可包含接入点、接入终端、基站地、基站、核心网络(“CN”)、无线电网络实体、节点B、演进节点B(“eNB”)、5G节点B(“gNB”)、归属节点B、中继节点、装置、核心网络、空中服务器、无线电接入节点、接入点(“AP”)、新无线电(“NR”)、网络实体、接入及移动性管理功能(“AMF”)、统一数据管理(“UDM”)、统一数据库(“UDR”)、UDM/UDR、策略控制功能(“PCF”)、无线电接入网络(“RAN”)、网络切片选择功能(“NSSF”)、操作、监管及管理(“OAM”)、会话管理功能(“SMF”)、用户平面功能(“UPF”)、应用功能、认证服务器功能(“AUSF”)、安全锚功能性(“SEAF”)、可信非3GPP网关功能(“TNGF”)、AnLF、MTLF、数据生产者NF、NRF、MTLF聚合器或所属领域使用的任何其它术语。网络单元104通常是无线电接入网络的部分,所述无线电接入网络包含可通信地耦合到一或多个对应网络单元104的一或多个控制器。无线电接入网络通常可通信地耦合到一或多个核心网络,其可耦合到其它网络,例如因特网及公共交换电话网络等其它网络。无线电接入及核心网络的这些及其它元件未说明,但为所属领域的一般技术人员所熟知。
在一个实施方案中,无线通信系统100符合第三代合作伙伴计划(“3GPP”)中标准化的NR协议,其中网络单元104在下行链路(“DL”)上使用OFDM调制方案来发射,且远程单元102在上行链路(“UL”)上使用单载波频分多址(“SC-FDMA”)方案或正交频分复用(“OFDM”)方案来发射。然而,更一般来说,无线通信系统100可实施一些其它开放或专有通信协议,例如WiMAX、电气及电子工程师协会(“IEEE”)802.11变体、全球移动通信系统(“GSM”)、通用分组无线电服务(“GPRS”)、通用移动电信系统(“UMTS”)、长期演进(“LTE”)变体、码分多址2000(“CDMA2000”)、紫蜂(ZigBee)、Sigfoxx等其它协议。本公开不希望限于任何特定无线通信系统架构或协议的实施方案。
网络单元104可经由无线通信链路服务于服务区域(例如,小区或小区扇区)内的数个远程单元102。网络单元104发射DL通信信号以在时域、频域及/或空间域中服务于远程单元102。
在各种实施例中,网络单元104可在支持使用联邦学习聚合模型参数的模型训练逻辑功能处接收来自网络功能的第一请求。第一请求包含使用联邦学习来从至少一个本地模型训练逻辑功能导出聚合的经训练模型的第一要求。在一些实施例中,网络单元104可基于第一请求中的第一要求而使用联邦学习来确定用于聚合的模型参数。在某些实施例中,网络单元104可发现能够基于第一要求而使用联邦学习来提供用于聚合的模型参数的至少一个本地模型训练逻辑功能。在各种实施例中,网络单元104可向至少一个本地模型训练逻辑功能发射接收用于导出聚合的经训练模型的模型参数的第二请求。在一些实施例中,网络单元104可使用联邦学习来聚合模型参数。在某些实施例中,网络单元104可发射对第一请求的响应。所述响应包含聚合的模型参数。因此,远程单元104可用于使用联邦学习的模型训练。
在某些实施例中,网络单元104可在第一网络功能处接收来自第二网络功能的第一请求。第一请求包含导出经训练模型的第一要求,第一要求包含标识模型的分析标识符及为特定区域提供经训练模型的要求、公共陆地移动网络、数据网络接入标识符、单个网络切片选择辅助信息、应用标识符、数据网络名称或其某种组合。在一些实施例中,网络单元104可确定第一请求使用联邦学习来训练对应于第一要求的模型。在某些实施例中,网络单元104可确定使用联邦学习支持模型聚合的网络功能。在各种实施例中,网络单元104可向使用联邦学习支持模型训练的第三网络功能发射第二请求。第二请求包含基于第一要求而使用联邦学习来提供经训练模型的请求。在一些实施例中,网络单元104可响应于发射第二请求,接收聚合的模型参数。在某些实施例中,网络单元104可使用聚合的模型参数训练模型以生成经训练模型。在各种实施例中,网络单元104可发射对第一请求的第一响应。响应包含指示经训练模型可用的信息。因此,远程单元104可用于使用联邦学习的模型训练。
在一些实施例中,网络单元104可在第二网络功能处接收提供分析报告的第一请求。在一些实施例中,网络单元104可在第二网络功能处确定经训练模型需要联邦学习。在某些实施例中,网络单元104可从第二网络功能向第一网络功能发射第二请求。第二请求包含导出经训练模型的第一要求,第一要求包含标识模型的分析标识符及为特定区域提供经训练模型的要求、公共陆地移动网络、数据网络接入标识符、单个网络切片选择辅助信息、应用标识符、数据网络名称或其某种组合。在各种实施例中,网络单元104可接收对第二请求的响应。响应包含指示经训练模型可用的信息。因此,远程单元104可用于使用联邦学习的模型训练。
图2描绘可用于使用联邦学习的模型训练的设备200的一个实施例。设备200包含远程单元102的一个实施例。此外,远程单元102可包含处理器202、存储器204、输入装置206、显示器208、发射器210及接收器212。在一些实施例中,输入装置206及显示器208被组合成单个装置,例如触摸屏。在某些实施例中,远程单元102可不包含任何输入装置206及/或显示器208。在各种实施例中,远程单元102可包含处理器202、存储器204、发射器210及接收器212中的一或多者,且可不包含输入装置206及/或显示器208。
在一个实施例中,处理器202可包含能够执行计算机可读指令及/或能够执行逻辑操作的任何已知控制器。举例来说,处理器202可为微控制器、微处理器、中央处理单元(“CPU”)、图形处理单元(“GPU”)、辅助处理单元、现场可编程门阵列(“FPGA”)或类似可编程控制器。在一些实施例中,处理器202执行存储在存储器204中的指令以执行本文描述的方法及例程。处理器202通信地耦合到存储器204、输入装置206、显示器208、发射器210及接收器212。
在一个实施例中,存储器204是计算机可读存储媒体。在一些实施例中,存储器204包含易失性计算机存储媒体。举例来说,存储器204可包含RAM,包含动态RAM(“DRAM”)、同步动态RAM(“SDRAM”)及/或静态RAM(“SRAM”)。在一些实施例中,存储器204包含非易失性计算机存储媒体。举例来说,存储器204可包含硬盘驱动器、快闪存储器或任何其它合适非易失性计算机存储装置。在一些实施例中,存储器204包含易失性及非易失性计算机存储媒体两者。在一些实施例中,存储器204还存储程序代码及相关数据,例如在远程单元102上操作的操作系统或其它控制器算法。
在一个实施例中,输入装置206可包含包含触摸面板、按钮、键盘、触笔、麦克风或类似者的任何已知计算机输入装置。在一些实施例中,举例来说,输入装置206可与显示器208集成,作为触摸屏或类似触敏显示器。在一些实施例中,输入装置206包含触摸屏,使得可使用显示在触摸屏上的虚拟键盘及/或通过在触摸屏上手写来输入文本。在一些实施例中,输入装置206包含两个或更多个不同装置,例如键盘及触摸面板。
在一个实施例中,显示器208可包含任何已知电子可控显示器或显示装置。显示器208可被设计成输出视觉、听觉及/或触觉信号。在一些实施例中,显示器208包含能够向用户输出视觉数据的电子显示器。举例来说,显示器208可包含(但不限于)液晶显示器(“LCD”)、发光二极管(“LED”)显示器、有机发光二极管(“OLED”)显示器、投影仪或能够向用户输出图像、文本或类似者的类似显示装置。作为另一非限制性实例,显示器208可包含可穿戴显示器,例如智能手表、智能眼镜、平视显示器或类似者。此外,显示器208可为智能手机、个人数字助理、电视、台式计算机、笔记本(膝上型)计算机、个人计算机、交通工具仪表板或类似者的组件。
在某些实施例中,显示器208包含用于产生声音的一或多个扬声器。举例来说,显示器208可产生声音警报或通知(例如,哔声或蜂鸣音)。在一些实施例中,显示器208包含用于产生振动、运动或其它触觉反馈的一或多个触觉装置。在一些实施例中,显示器208的全部或部分可与输入装置206集成。举例来说,输入装置206及显示器208可形成触摸屏或类似触敏显示器。在其它实施例中,显示器208可位于输入装置206附近。
尽管仅说明一个发射器210及一个接收器212,但远程单元102可具有任何合适数目个发射器210及接收器212。发射器210及接收器212可为任何合适类型的发射器及接收器。在一个实施例中,发射器210及接收器212可为收发器的部分。
图3描绘可用于使用联邦学习的模型训练的设备300的一个实施例。设备300包含网络单元104的一个实施例。此外,网络单元104可包含处理器302、存储器304、输入装置306、显示器308、发射器310及接收器312。如可了解,处理器302、存储器304、输入装置306、显示器308、发射器310及接收器312可分别大体上类似于远程单元102的处理器202、存储器204、输入装置206、显示器208、发射器210及接收器212。
在某些实施例中,接收器312接收来自网络功能的第一请求。模型训练逻辑功能支持使用联邦学习聚合模型参数,且第一请求包含使用联邦学习从至少一个本地模型训练逻辑功能导出聚合的经训练模型的第一要求。在各种实施例中,处理器302:基于第一请求中的第一要求而使用联邦学习来确定用于聚合的模型参数;以及发现能够基于第一要求而使用联邦学习来提供用于聚合的模型参数的至少一个本地模型训练逻辑功能。在某些实施例中,发射器310向至少一个本地模型训练逻辑功能发射接收用于导出聚合的经训练模型的模型参数的第二请求。在一些实施例中,处理器302使用联邦学习来聚合模型参数,发射器310发射对第一请求的响应,且所述响应包含聚合的模型参数。
在一些实施例中,接收器312接收来自第二网络功能的第一请求。第一请求包含导出经训练模型的第一要求,第一要求包含标识模型的分析标识符及为特定区域提供经训练模型的要求、公共陆地移动网络、数据网络接入标识符、单个网络切片选择辅助信息、应用标识符、数据网络名称或其某种组合。在各种实施例中,处理器302:确定第一请求使用联邦学习来训练对应于第一要求的模型;以及确定使用联邦学习支持模型聚合的网络功能。在某些实施例中,发射器310向使用联邦学习支持模型训练的第三网络功能发射第二请求。第二请求包含基于第一要求而使用联邦学习来提供经训练模型的请求。在一些实施例中,响应于发射第二请求,接收器312接收聚合的模型参数,处理器302使用聚合的模型参数训练模型以生成经训练模型,发射器310发射对第一请求的第一响应,且响应包含指示经训练模型可用的信息。
在各种实施例中,接收器312接收提供分析报告的第一请求。在各种实施例中,处理器302确定经训练模型需要联邦学习。在某些实施例中,发射器310向第一网络功能发射第二请求。第二请求包含导出经训练模型的第一要求,第一要求包含标识模型的分析标识符及为特定区域提供经训练模型的要求、公共陆地移动网络、数据网络接入标识符、单个网络切片选择辅助信息、应用标识符、数据网络名称或其某种组合。在一些实施例中,接收器312接收对第二请求的响应。响应包含指示经训练模型可用的信息。
在某些实施例中,联邦学习可在第三代合作伙伴计划(“3GPP”)网络数据分析功能(“NWDAF”)架构中被支持,且可执行以下:1)网络功能(“NF”)标识需要联邦学习;2)NF标识训练模型的哪个部分需要联邦学习;3)NF标识及/或发现支持联邦学习及来自支持模型训练功能的一或多个NF的训练模型的聚合的NF;及/或4)NF的程序,其支持经训练模型的联邦学习及聚合以从支持模型训练的NF收集模型参数。
如本文所使用,数据生产者NF对应于3GPP网络内的可提供与事件标识符(“ID”)相关的信息的任何NF。数据生产者NF也可为数据收集协调功能(“DCCF”)或分析数据存储库功能(“ADRF”)。
在一些实施例中,横向联邦学习在每一隔离网络(例如,特定切片)具有其自身的模型训练功能来产生特定分析ID的模型的情况下适用,且收集所需数据(例如,来自一或多个数据生产者NF的一或多个事件ID)以导出分析。每一切片可属于同一公共陆地移动网络(“PLMN”),但来自数据生产者的数据可能不共享。每一PLMN收集在不同样本空间(例如,在一天当中的不同时间收集的不同用户或样本)处为特定分析ID生成模型所需的数据(例如,事件ID),且创建本地经训练模型。图4中展示横向联邦学习的一个实施例。
图4是说明用于横向联邦学习的系统400的一个实施例的示意框图。系统400包含模型聚合器402、第一切片404、第二切片406及第三切片408。第一切片404包含数据生产者NF 410,其向本地训练模型414提供数据412,所述本地训练模型向模型聚合器402提供模型参数416。此外,第二切片406包含向本地训练模型422提供数据420的数据生产者NF 418,所述本地训练模型向模型聚合器402提供模型参数424。此外,第三切片408包含向本地训练模型430提供数据428的数据生产者NF 426,所述本地训练模型向模型聚合器402提供模型参数432。数据生产者NF 410、418及426提供含有等同特征(例如,事件ID)但含有不同样本(例如,不同用户、一天当中的不同时间)的数据。
与横向联邦学习相对照,在纵向联邦学习中,每一数据生产者NF在相同样本空间(例如,同一用户或在一天当中的同一时间收集的样本)处收集不同特征(例如,事件ID)的数据。例如,一个隔离网络中的接入及移动性管理功能(“AMF”)收集移动性信息,而不同隔离网络中的会话管理功能(“SMF”)收集会话管理信息。使用纵向联邦学习,每一隔离网络基于所收集的数据生成经部分训练模型,且将经部分训练模型的参数发送到模型聚合器。模型聚合器可在隔离网络内或之外。这在图5中展示。
图5是说明用于纵向联邦学习的系统500的一个实施例的示意框图。系统500包含模型聚合器502、第一切片504、第二切片506及第三切片508。第一切片504包含AMF 510,其向移动性数据的本地训练模型514提供移动性数据512,所述本地训练模型向模型聚合器502提供模型参数516。此外,第二切片506包含SMF 518,其向会话管理数据的本地训练模型522提供会话管理数据520,所述本地训练模型向模型聚合器502提供模型参数524。此外,第三切片508包含用户平面功能(“UPF”)526,其向用户平面数据的本地训练模型530提供用户平面数据528,所述本地训练模型向模型聚合器502提供模型参数532。数据生产者NF(例如,AMF 510、SMF 518及UPF 526)提供含有不同特征(例如,事件ID)但针对相同样本(例如,针对相同用户、针对一天当中的相同时间)的数据。
图6中展示3GPP中用以支持联邦学习的架构的一个实施例。
图6是说明包含用于联邦学习的3GPP架构的系统600的一个实施例的示意框图。系统600包含第一隔离网络602、第二隔离网络604、第三隔离网络606及模型训练逻辑功能(“MTLF”)聚合器608。在第一隔离网络602中,数据生产者NF 610向MTLF功能612提供数据,MTLF功能612向MTLF 616提供数据及/或模型参数集合614。MTLF 616与MTLF聚合器608执行模型参数交换618。此外,MTLF 616执行模型训练620,且向分析逻辑功能(“AnLF”)624提供经训练机器学习(“ML”)模型622。AnLF 624向消费者NF 628提供分析626。此外,在第二隔离网络604中,数据生产者NF 630向MTLF功能632提供数据,MTLF功能632向MTLF 636提供数据及/或模型参数集合634。MTLF 636与MTLF聚合器608执行模型参数交换638。此外,MTLF 636执行模型训练640,且向AnLF 644提供经训练ML模型642。AnLF 644向消费者NF 648提供分析646。此外,在第三隔离网络606中,数据生产者NF 650向MTLF功能652提供数据,MTLF功能652向MTLF 656提供数据及/或模型参数集合654。MTLF 656与MTLF聚合器608执行模型参数交换658。此外,MTLF 656执行模型训练660,且向AnLF 664提供经训练ML模型642。AnLF 664向消费者NF 668提供分析666。MTLF聚合器608聚合670ML模型。
事实上,图6展示其中每一网络彼此隔离的架构。每一隔离网络可为:1)PLMN网络中的特定网络切片;2)由PLMN网络或第三方托管的非专用网络(“NPN”)(或专用网络);3)来自不同PLMN运营商;及/或4)在不能够与核心网络共享数据的边缘处的特定网络。
在此架构中,支持模型训练的NF(例如,本地MTLF)确定由AnLF请求的经训练模型需要联邦学习。允许本地MTLF确定是否需要联邦学习的因素可基于以下因素:1)不能够直接从数据生产者NF收集的所收集的数据(例如,一或多个事件ID)-这可基于NF不提供事件ID或事件ID的数据内的数据的部分丢失(例如,丢失用户信息);2)为不同PLMN提供经训练模型的请求;3)为需要联邦学习的一或多个数据网络接入标识符(“DNAI”)提供经训练模型的请求;4)为需要联邦学习的一或多个服务区域提供经训练模型的请求;5)为需要联邦学习的由单个网络切片选择辅助信息(“S-NSSAI”)标识的一或多个网络切片提供经训练模型的请求;及/或6)为需要联邦学习的数据网络名称(“DNN”)提供经训练模型的请求。
在某些实施例中,一旦本地MTLF确定需要联邦学习,MTLF就会发现支持联邦学习的MTLF聚合器以接收更新模型参数并重新训练其本地经训练模型。在一个实施例中,本地MTLF不是发现MTLF聚合器,而是发现可提供更新模型参数以重新训练模型的MTLF(例如,发现可为特定服务区域(例如,PLMN、DNAI、DNN或S-NSSAI)提供模型参数的一或多个MTLF)。
图7展示其中每一PLMN运营商使用联邦学习来优化信令效率的架构。此类实施例避免具有从所有数据生产者NF收集数据的集中式功能,其中AnLF功能接收且使用一个经训练ML模型来向消费者NF提供分析。
具体来说,图7是说明包含用于联邦学习的3GPP架构的系统700的另一实施例的示意框图。系统700包含边缘网络702、漫游网络704及PLMN 706中的服务区域。边缘网络702包含向MTLF功能710提供数据的数据生产者NF 708,MTLF功能710向本地MTLF 714提供数据及/或模型参数集合712。本地MTLF 714与MTLF聚合器718执行模型参数交换716。此外,本地MTLF 714执行模型训练720。此外,漫游网络704包含数据生产者NF 722,其向MTLF功能724提供数据,MTLF功能724向本地MTLF 728提供数据及/或模型参数集合726。本地MTLF 728与MTLF聚合器718执行模型参数交换730。此外,本地MTLF 728执行模型训练732。PLMN 706中的服务区域包含数据生产者NF 734,其向MTLF功能736提供数据,MTLF功能736向本地MTLF740提供数据及/或模型参数集合738。本地MTLF 740与MTLF聚合器718执行模型参数交换742。此外,本地MTLF 740执行模型训练744。MTLF聚合器718聚合746个本地模型,然后与向消费者NF 754提供分析752的AnLF 750执行748经训练模型交换。
在图7中,支持分析产生的NF(例如,AnLF)确定所需的经训练模型需要联邦学习。允许AnLF确定是否需要联邦学习的因素可基于以下因素:1)所收集的数据(例如,一或多个事件ID)-不能够直接从数据生产者NF收集-这可基于NF不提供事件ID或事件ID的数据内的数据的部分丢失(例如,丢失用户信息);2)请求是针对用于不同PLMN的分析信息;3)请求是针对用于需要联邦学习的DNAI的分析信息或请求是针对不由当前AnLF支持的DNAI(例如,如果AnLF经配置以支持由DNAI标识的特定边缘网络);4)请求是针对用于需要联邦学习的服务区域的分析信息或请求是针对未由当前AnLF支持的服务区域(例如,如果AnLF经配置以支持特定服务区域);5)请求是针对用于需要联邦学习的网络切片的分析信息或请求是针对未由当前AnLF支持的网络切片(例如,如果AnLF经配置以支持特定网络切片);及/或6)请求是针对用于需要联邦学习的DNN的分析信息。
在一些实施例中,一旦AnLF确定需要联邦学习,AnLF就会发现支持联邦学习的MTLF聚合器以接收聚合的经训练模型。在一个实施例中,AnLF不是发现MTLF聚合器,而是发现可提供聚合的经训练模型的MTLF(例如,发现可为特定服务区域、PLMN、DNAI、DNN或S-NSSAI提供模型参数的一或多个MTLF)。
在各种实施例中,MTLF聚合器是PLMN网络内的NF。在某些实施例中,MTLF聚合器是位于PLMN中或通过第三方网络实现的应用功能(“AF”)。
在一些实施例中,如果MTLF聚合器是AF,那么MTLF聚合器可从装置接收与本地经训练模型相关的参数。在各种实施例中,MTLF聚合器可与MTLF NF并置(例如,分布式方法)。在某些实施例中,用于聚合模型的过程跨越多个MTLF分布。在此类实施例中,每一MTLF发现可提供用于生成聚合模型的更新模型参数的MTLF。
在各种实施例中,支持联邦学习的MTLF聚合器从每一本地MTLF功能收集模型参数(例如,ML模型的梯度及损失),且基于由每一MTLF提供的参数来生成聚合ML模型。在此类实施例中,每一本地MTLF可提供用于分析ID的经训练ML模型,或者可提供用于由数据生产者NF收集的数据的经部分训练模型。例如,经部分训练的ML模型可提供关于由AMF收集的用户装备(“UE”)移动性数据的信息。经部分训练模型的生成可由数据生产者NF及/或DCCF内支持MTLF能力的功能支持,或者可为MTLF的功能。MTLF及/或数据生产者NF可向网络存储库功能(“NRF”)注册其能力以生成经部分训练的ML模型。
在某些实施例中,MTLF聚合器将由MTLF用来生成新的经训练的ML模型的计算出的梯度及损失因子发送回到每一MTLF。
图8中给出用于支持联邦学习的一个实施例。
具体来说,图8是说明用于联邦学习的程序的一个实施例的网络通信图800。图800包含AnLF 802(例如,分析干扰NWDAF、消费者NF)、第一MTLF 804、数据生产者NF 806(例如,及/或DCCF)、NRF 808、MTLF聚合器810及第二MTLF 812。应注意,所说明通信可包含一或多个消息。
在NRF 808与MTLF聚合器810之间发射的第一通信814中,MTLF聚合器810可向NRF808注册其聚合模型(包含所支持的服务区域、DNAI、S-NSSAI、应用ID、DNN及/或事件ID)的能力。
在数据生产者NF 806与NRF 808之间发射的第二通信816中,数据生产者NF 806(例如,DCCF、ADRF、NF)可向NRF 808(或另一NF)注册由于各种要求(例如,隐私要求)而不能够收集一些事件ID的情况。
在发射到AnLF 802的第三通信818中,AnLF 802接收提供分析报告的请求。所述请求包含定义所请求的分析报告的分析ID,且可包含作为分析过滤器的服务区域信息列表、PLMN ID(例如,如果消费者NF来自不同PLMN)、DNAI(例如,如果消费者NF需要对由DNAI标识的特定边缘网络的分析)、由S-NSSAI标识的网络切片及/或DNN。
AnLF 802确定820需要经训练模型来推导此类分析。AnLF 802可基于内部触发器来确定需要经训练模型,而无需等待分析请求。
在从AnLF 802发射到第一MTLF 804的第四通信822中,如果AnLF 802不具有可用的经训练模型,那么AnLF 802从第一MTLF 804请求经训练模型。请求包含分析ID、分析过滤器服务区域、PLMN ID及/或DNAI。如果步骤818发生,那么AnLF 802包含步骤802中包含的分析过滤器作为分析过滤器。
第一MTLF 804确定824模型需要被训练。
在从第一MTLF 804发射到数据生产者NF 806的任选第五通信826中,第一MTLF804可从DCCF、ADRF或直接从数据生产者NF 806请求数据来训练模型。
在一些实施例中,数据生产者NF 806(例如,及/或DCCF及/或ADRF)确定828由于隐私要求而不能够提供数据。
在从数据生产者NF 806发射到第一MTLF 804的任选第六通信830中,数据生产者NF 806(例如,及/或DCCF及/或ADRF)向第一MTLF804提供不能够提供数据的指示。
第一MTLF 804确定832需要联邦学习来训练模型。第一MTLF 804可确定由于以下原因而需要联邦学习:1)不能够直接从数据生产者NF收集所收集的数据(例如,一或多个事件ID),或不包含所提供事件ID内的数据(例如,丢失用户信息)(由于步骤826到828、由于内部配置、由于来自NRF 808的信息或由于本地配置);2)所述请求是针对来自不同PLMN的分析信息;3)对分析信息的请求是针对需要联邦学习的一或多个DNAI;4)对分析信息的请求是针对需要联邦学习的一或多个服务区域;5)对分析信息的请求是针对需要联邦学习的由S-NSSAI标识的一或多个网络切片;及/或6)对分析信息的请求是针对需要联邦学习的DNN。
如果第一MTLF 804需要本地经训练模型,那么第一MTLF 804基于步骤826到830或基于内部配置根据训练模型所需的数据(例如,事件ID)确定834不能够直接从一或多个NF收集哪些数据(例如,事件ID)。
在从第一MTLF 804发射到NRF 808的第七通信836中,第一MTLF 804从NRF 808发现MTLF聚合器810。MTLF聚合器810可为PLMN中的MTLF,或可为第三方AF。到NRF 808的请求包含分析ID、服务区域、DNAI及PLMN(如果包含在步骤820中),且包含基于步骤826到830不能够直接从一或多个NF收集的事件ID。在一些实施例中,第一MTLF 804发现服务于所需要S-NSSAI、DNAI或服务区域的MTLF以接收经更新模型参数。在此实施例中,第一MTLF 804向所确定MTLF发送请求,而不是向MTLF聚合器发送请求。
在从NRF 808发射到第一MTLF 804的第八通信838中,NRF 808向第一MTLF 804提供MTLF聚合器810及/或MTLF NF ID。
在从第一MTLF 804发射到MTLF聚合器810的第九通信840中,第一MTLF 804向MTLF聚合器810发送针对经训练模型的请求,其包含需要联邦学习的指示、所需的模型的分析ID,以及用以允许MTLF聚合器810确定所需的模型的以下信息中的一或多者:不能够直接收集数据的事件ID、服务区域信息、DNAI、S-NSSAI、应用ID及/或DNN。
MTLF聚合器810确定842启动联邦学习所需的MTLF。确定是基于无法收集数据的事件ID、服务区域、DNAI、S-NSSAI及/或DNN信息。MTLF可为单独功能或可为数据生产者NF内支持的功能。
在从MTLF聚合器810发射到NRF 808的第十通信844中,MTLF聚合器810从NRF 808发现MTLF或本地MTLF。发现请求包含事件ID(如果需要本地经训练模型)、服务区域、DNAI、S-NSSAI及/或DNN。
在从NRF 808发射到MTLF聚合器810的第十一通信846中,NRF 808向MTLF聚合器810发送NF发现响应(例如,包含MTLF NF ID),且MTLF聚合器810使用所发现MTLF训练模型。
在第一MTLF 804之间发射的第十二通信848中,以及在从MTLF聚合器810发射到第一MTLF 804、NRF 808、MTLF聚合器810及第二MTLF 812的第十三通信850中,MTLF聚合器810向第一MTLF 804提供经重新训练模型参数。这可为对步骤822中消息或新消息的响应。
第一MTLF 804使用模型参数来更新852其经训练模型。
在从第一MTLF 804发射到AnLF 802的第十四通信854中,第一MTLF 804向AnLF802指示经训练模型可用。
图9是说明用于联邦学习的程序的另一实施例的网络通信图。图900包含AnLF 902(例如,分析干扰NWDAF、消费者NF)、数据生产者NF 904(例如,及/或DCCF)、NRF 906、MTLF聚合器908、第一MTLF 910及第二MTLF 912。应注意,所说明通信可包含一或多个消息。
图8的步骤814及816可作为图9的部分执行。
在由AnLF 902接收的第一通信914中,AnLF 902接收来自消费者NF的提供分析报告的请求。请求包含定义所请求的分析报告的分析ID,且可包含分析过滤器、服务区域信息、PLMN ID(例如,如果消费者NF来自不同PLMN)、DNAI(例如,如果消费者NF需要对由DNAI标识的特定边缘网络的分析)、S-NSSAI(例如,如果消费者需要对一或多个网络切片的分析)、应用ID及/或DNN。
在从AnLF 902发射到数据生产者NF 904的任选第二通信916中,AnLF 902可从数据生产者NF 904请求数据来训练模型。
数据生产者NF 904(及/或DCCF及/或ADRF)确定918由于各种要求(例如,隐私要求)而不能够提供数据。
在从数据生产者NF 904发射到AnLF 902的任选第三通信920中,数据生产者NF904(及/或DCCF及/或ADRF)向AnLF 902提供不能够提供数据的指示。
AnLF 902确定922需要联邦学习来训练模型。AnLF 902可确定由于以下原因而需要联邦学习:1)不能够直接从NF收集数据(例如,由于步骤916到920、由于内部配置,或由于来自NRF的信息);2)请求是针对来自不同PLMN的分析信息;3)针对分析信息的请求是针对需要联邦学习的DNAI;4)针对分析信息的请求是针对需要联邦学习的服务区域;5)针对分析信息的请求是针对需要联邦学习的网络切片;及/或6)针对分析信息请求是针对需要联邦学习的DNN。
在AnLF 902与NRF 906之间发射的第四通信924中,AnLF 902从NRF 906发现MTLF聚合器908。MTLF聚合器908可为PLMN中的MTLF,或可为第三方AF。AnLF 902通过提供分析ID、服务区域、DNAI或事件ID、S-NSSAI、应用ID及/或DNN来发现MTLF聚合器908。
AnLF 902根据训练模型所需的数据(例如,事件ID)确定926不能够从直接从一或多个NF收集哪些数据(例如,事件ID)。
在从AnLF 902发射到MTLF聚合器908的第五通信928中,AnLF 902向MTLF聚合器908发送针对经训练模型的请求,其包含需要联邦学习的指示、所需的模型的分析ID,以及以下中的一或多者:不能够直接收集数据的事件ID、服务区域信息、DNAI、S-NSSAI、应用ID及/或DNN。
MTLF聚合器908确定930启动联邦学习所需的MTLF。确定是基于无法收集数据的事件ID、服务区域信息及/或DNAI信息。
在NRF 906与MTLF聚合器908之间发射的第六通信932中,MTLF聚合器908从NRF906发现MTLF。发现请求包含事件ID、服务区域及/或DNAI。
在MTLF聚合器908、第一MTLF 910及第二MTLF 912之间的第七通信934中,MTLF聚合器908使用所发现MTLF来训练模型。
MTLF聚合器908使用模型参数来更新936其经训练模型。
在从MTLF聚合器908发射到AnLF 902的第八通信938中,MTLF聚合器908向AnLF902指示经训练模型可用。
图10是说明MTLF聚合器基于联邦学习来聚合ML模型的程序的一个实施例的网络通信图1000。图1000包含MTLF聚合器1002、第一MTLF 1004及第二MTLF 1006。应注意,所说明通信可包含一或多个消息。
MTLF聚合器1002确定1008用于联邦学习的MTLF。基于由NRF提供的信息,MTLF聚合器1002确定每一MTLF针对联邦学习所支持的事件ID、服务区域、DNAI、PLMN、S-NSSAI、应用ID及/或DNN。在此实例中,MTLF聚合器1002发现两个MTLF(例如,第一MTLF 1004及第二MTLF1006),其中每一MTLF支持不同服务区域、DNAI、S-NSSAI、应用ID、事件ID、PLMN及/或DNN。
在从MTLF聚合器1002发射到第一MTLF 1004的第一通信1010中,MTLF聚合器1002向第一MTLF 1004发送针对联邦学习的请求,其中所述请求包含所需的模型的分析ID、联邦学习指示及以下中的一或多者:所需的事件ID、服务区域及/或DNAI。MTLF聚合器1002包含用于加密数据的公钥,且可包含第二MTLF 1006的地址(例如,如果需要纵向联邦学习)。
在从MTLF聚合器1002发射到第二MTLF 1006的第二通信1012中,MTLF聚合器1002针对第二MTLF 1006重复步骤1010。所述请求包含以下中的一或多者:所需的事件ID、服务区域及/或DNAI。MTLF聚合器1002还包含在步骤1010中提供的公钥,以加密第一MTLF 1004的数据及地址(例如,如果需要纵向联邦学习)。第一通信1010及第二通信1012可分组在一起作为交换密钥以共享模型参数的通信1014。
在从第二MTLF 1006发射到第一MTLF 1004的第三通信1016中,以及在从第一MTLF1004发射到第二MTL 1006的第四通信1018中,第一MTLF 1004及第二MTLF 1006共享初始数据以标识初始模型参数。可使用MTLF聚合器1002提供的公钥来加密消息交换。第三通信1016及第四通信1018可分组在一起作为具有初始数据交换的通信1020。
在从第一MTLF 1004发射到MTLF聚合器1002的第五通信1022中,第一MTLF 1004向MTLF聚合器1002提供模型参数(例如,梯度及损失)。可使用由MTLF聚合器1002提供的公钥来加密消息交换。
在从第二MTLF 1006发射到MTLF聚合器1002的第六通信1024中,第二MTLF 1006向MTLF聚合器1002提供模型参数(例如,梯度及损失)。可使用由MTLF聚合器1002提供的公钥来加密消息交换。第五通信1022及第六通信1024可分组在一起作为交换模式参数及/或梯度的通信1026。
MTLF聚合器1002计算1028聚合的模型参数。
在各种实施例中,如果MTLF订阅来自数据生产者NF的原始数据,那么数据生产者NF可提供对应于所收集的原始数据的模型参数。然后,MTLF可在将由数据生产者NF提供的模型参数考虑在内的情况下构建经聚合模型,或者可发现MTLF聚合器以生成聚合模型。
在某些实施例中,如果MTLF聚合器及/或MTLF启动一或多个本地MTLF之间的联邦学习,那么MTLF聚合器及/或MTLF可为本地MTLF提供本地模型以启动训练。在一个实施例中,MTLF聚合器基于训练聚合模型需要收集的数据(例如,一或多个事件ID)来确定本地模型。本地MTLF可位于NF、AF或UE中。MTLF聚合器经由AF向UE提供本地模型。本地MTLF用从本地数据生产者NF(即,与本地MTLF处于同一隔离网络中的数据生产者NF)收集的数据来训练所提供本地模型。然后,本地MTLF向MTLF聚合器提供梯度及损失,以导出聚合的经训练模型。
图11是说明用于使用联邦学习的模型训练的方法1100的一个实施例的流程图。在一些实施例中,方法1100由例如网络单元104的设备执行。在某些实施例中,方法1100可由执行程序代码的处理器执行,例如微控制器、微处理器、CPU、GPU、辅助处理单元、FPGA或类似者。
在各种实施例中,方法1100包含在支持使用联邦学习聚合模型参数的模型训练逻辑功能处接收1102来自网络功能的第一请求。第一请求包含使用联邦学习来从至少一个本地模型训练逻辑功能导出聚合的经训练模型的第一要求。在一些实施例中,方法1100包含基于第一请求中的第一要求而使用联邦学习来确定1104用于聚合的模型参数。在某些实施例中,方法1100包含发现1106能够基于第一要求而使用联邦学习来提供用于聚合的模型参数的至少一个本地模型训练逻辑功能。在各种实施例中,方法1100包含向至少一个本地模型训练逻辑功能发射1108接收用于导出聚合的经训练模型的模型参数的第二请求。在一些实施例中,方法1100包含使用联邦学习来聚合1110模型参数。在某些实施例中,方法1100包含发射1112对第一请求的响应。所述响应包含聚合的模型参数。
在某些实施例中,至少一个本地模型训练逻辑功能包括至少一个网络功能或至少一个应用功能。在一些实施例中,网络功能包括分析逻辑功能、模型训练逻辑功能或其组合。在各种实施例中,方法1100进一步包括发现包括至少一个本地模型训练逻辑功能的第一列表。
在一个实施例中,第一要求包括使用联邦学习为特定区域提供聚合的经训练模型的要求、公共陆地移动网络、数据网络接入标识符、单个网络切片选择辅助信息、应用标识符、数据网络名称或其某种组合。在某些实施例中,方法1100进一步包括发现至少一个本地模型训练逻辑功能以从网络存储库功能检索用于联邦学习的模型参数。
在一些实施例中,方法1100进一步包括向网络存储库功能发射发现本地模型训练逻辑功能以检索用于联邦学习的模型参数的第三请求,其中第三请求包括特定区域、公共陆地移动网络、数据网络接入标识符、单个网络切片选择辅助信息、应用标识符、数据网络名称或其某种组合。在各种实施例中,模型训练逻辑功能将本地模型供应到本地模型训练逻辑功能以启动本地训练。在一个实施例中,本地模型训练逻辑功能用从本地数据生产者网络功能收集的数据来训练本地模型,且将与经训练本地模型相关的模型参数提供到模型训练逻辑功能。
图12是说明用于使用联邦学习的模型训练的方法1200的一个实施例的流程图。在一些实施例中,方法1200由例如网络单元104的设备执行。在某些实施例中,方法1200可由执行程序代码的处理器执行,例如微控制器、微处理器、CPU、GPU、辅助处理单元、FPGA或类似者。
在各种实施例中,方法1200包含在第一网络功能处接收1202来自第二网络功能的第一请求。第一请求包含导出经训练模型的第一要求,第一要求包含标识模型的分析标识符及为特定区域提供经训练模型的要求、公共陆地移动网络、数据网络接入标识符、单个网络切片选择辅助信息、应用标识符、数据网络名称或其某种组合。在一些实施例中,方法1200包含确定1204第一请求使用联邦学习来训练对应于第一要求的模型。在某些实施例中,方法1200包含确定1206使用联邦学习支持模型聚合的网络功能。在各种实施例中,方法1200包含使用联邦学习向支持模型训练的第三网络功能发射1208第二请求。第二请求包含基于第一要求而使用联邦学习来提供经训练模型的请求。在一些实施例中,方法1200包含,响应于发射第二请求,接收1210聚合模型参数。在某些实施例中,方法1200包含使用聚合的模型参数训练1212模型以生成经训练模型。在各种实施例中,方法1200包含发射1214对第一请求的第一响应。响应包含指示经训练模型可用的信息。
在某些实施例中,确定第一请求使用联邦学习来训练对应于第一要求的模型包括接收来自数据生产者网络功能的第二响应,且响应于针对数据收集的请求而接收第二响应。在一些实施例中,第二响应指示数据不可用。
图13是说明用于使用联邦学习的模型训练的方法1300的一个实施例的流程图。在一些实施例中,方法1300由例如网络单元104的设备执行。在某些实施例中,方法1300可由执行程序代码的处理器执行,例如微控制器、微处理器、CPU、GPU、辅助处理单元、FPGA或类似者。
在各种实施例中,方法1300包含在第二网络功能处接收1302提供分析报告的第一请求。在一些实施例中,所述方法1300包含在第二网络功能处确定1304经训练模型需要联邦学习。在某些实施例中,所述方法1300包含从第二网络功能向第一网络功能发射1306第二请求。第二请求包含导出经训练模型的第一要求,第一要求包含标识模型的分析标识符及为特定区域提供经训练模型的要求、公共陆地移动网络、数据网络接入标识符、单个网络切片选择辅助信息、应用标识符、数据网络名称或其某种组合。在各种实施例中,所述方法1300包含接收1308对第二请求的响应。响应包含指示经训练模型可用的信息。
在某些实施例中,方法1300进一步包括响应于第一请求而发射分析报告。
在一个实施例中,一种方法包括:在支持使用联邦学习聚合模型参数的模型训练逻辑功能处接收来自网络功能的第一请求,其中第一请求包括使用联邦学习从至少一个本地模型训练逻辑功能导出聚合的经训练模型的第一要求;基于第一请求中的第一要求而使用联邦学习来确定用于聚合的模型参数;发现能够基于第一要求而使用联邦学习来提供用于聚合的模型参数的至少一个本地模型训练逻辑功能;向至少一个本地模型训练逻辑功能发射接收用于导出聚合的经训练模型的模型参数的第二请求;使用联邦学习来聚合模型参数;以及发射对第一请求的响应,其中响应包括聚合的模型参数。
在某些实施例中,至少一个本地模型训练逻辑功能包括至少一个网络功能或至少一个应用功能。
在一些实施例中,网络功能包括分析逻辑功能、模型训练逻辑功能或其组合。
在各种实施例中,所述方法进一步包括发现包括至少一个本地模型训练逻辑功能的第一列表。
在一个实施例中,第一要求包括使用联邦学习为特定区域提供聚合的训练模型的要求、公共陆地移动网络、数据网络接入标识符、单个网络切片选择辅助信息、应用标识符、数据网络名称或其某种组合。
在某些实施例中,所述方法进一步包括发现至少一个本地模型训练逻辑功能以从网络存储库功能检索用于联邦学习的模型参数。
在一些实施例中,所述方法进一步包括向网络存储库功能发射发现本地模型训练逻辑功能以检索用于联邦学习的模型参数的第三请求,其中第三请求包括特定区域、公共陆地移动网络、数据网络接入标识符、单个网络切片选择辅助信息、应用标识符、数据网络名称或其某种组合。
在各种实施例中,模型训练逻辑功能将本地模型供应到本地模型训练逻辑功能以启动本地训练。
在一个实施例中,本地模型训练逻辑功能用从本地数据生产者网络功能收集的数据来训练本地模型,且将与经训练本地模型相关的模型参数提供到模型训练逻辑功能。
在一个实施例中,一种设备包括模型训练逻辑功能。所述设备进一步包括:接收器,其接收来自网络功能的第一请求,其中模型训练逻辑功能支持使用联邦学习聚合模型参数,且第一请求包括使用联邦学习从至少一个本地模型训练逻辑功能导出聚合的经训练模型的第一要求;处理器,其:基于第一请求中的第一要求而使用联邦学习来确定用于聚合的模型参数;以及发现能够基于第一要求而使用联邦学习来提供用于聚合的模型参数的至少一个本地模型训练逻辑功能;及发射器,其向至少一个本地模型训练逻辑功能发射接收用于导出聚合的经训练模型的模型参数的第二请求;其中处理器使用联邦学习来聚合模型参数,发射器发射对第一请求的响应,且响应包括聚合的模型参数。
在某些实施例中,至少一个本地模型训练逻辑功能包括至少一个网络功能或至少一个应用功能。
在一些实施例中,网络功能包括分析逻辑功能、模型训练逻辑功能或其组合。
在各种实施例中,处理器发现包括至少一个本地模型训练逻辑功能的第一列表。
在一个实施例中,第一要求包括使用联邦学习为特定区域提供聚合的训练模型的要求、公共陆地移动网络、数据网络接入标识符、单个网络切片选择辅助信息、应用标识符、数据网络名称或其某种组合。
在某些实施例中,处理器发现至少一个本地模型训练逻辑功能以从网络存储库功能检索用于联邦学习的模型参数。
在一些实施例中,发射器向网络存储库功能发射发现本地模型训练逻辑功能以检索用于联邦学习的模型参数的第三请求,且第三请求包括特定区域、公共陆地移动网络、数据网络接入标识符、单个网络切片选择辅助信息、应用标识符、数据网络名称或其某种组合。
在各种实施例中,模型训练逻辑功能将本地模型供应到本地模型训练逻辑功能以启动本地训练。
在一个实施例中,本地模型训练逻辑功能用从本地数据生产者网络功能收集的数据来训练本地模型,且将与经训练本地模型相关的模型参数提供到模型训练逻辑功能。
在一个实施例中,一种方法包括:在第一网络功能处接收来自第二网络功能的第一请求,其中第一请求包括导出经训练模型的第一要求,第一要求包括用于训练的模型的标识符及为特定区域提供经训练模型的要求、公共陆地移动网络、数据网络接入标识符、单个网络切片选择辅助信息、应用标识符、数据网络名称或其某种组合;确定第一请求使用联邦学习来训练对应于第一要求的模型;确定使用联邦学习支持模型聚合的网络功能;向使用联邦学习支持模型训练的第三网络功能发射第二请求,其中第二请求包括基于第一要求而使用联邦学习来提供经训练模型的请求;响应于发射第二请求,接收聚合的模型参数;使用聚合的模型参数训练模型以生成经训练模型;以及发射对第一请求的第一响应,其中响应包括指示经训练模型可用的信息。
在某些实施例中,确定第一请求使用联邦学习来训练对应于第一要求的模型包括接收来自数据生产者网络功能的第二响应,且响应于针对数据收集的请求而接收第二响应。
在一些实施例中,第二响应指示数据不可用。
在一个实施例中,一种设备包括第一网络功能。所述设备进一步包括:接收器,其接收来自第二网络功能的第一请求,其中第一请求包括导出经训练模型的第一要求,第一要求包括用于训练的模型的标识符及为特定区域提供经训练模型的要求、公共陆地移动网络、数据网络接入标识符、单个网络切片选择辅助信息、应用标识符、数据网络名称或其某种组合;处理器,其:确定第一请求使用联邦学习来训练对应于第一要求的模型;以及确定使用联邦学习支持模型聚合的网络功能;及发射器,其向使用联邦学习支持模型训练的第三网络功能发射第二请求,其中第二请求包括基于第一要求而使用联邦学习来提供经训练模型的请求;其中响应于发射第二请求,接收器接收聚合的模型参数,处理器使用聚合的模型参数训练模型以生成经训练模型,发射器发射对第一请求的第一响应,且响应包括指示经训练模型可用的信息。
在某些实施例中,确定第一请求使用联邦学习来训练对应于第一要求的模型的处理器包括接收来自数据生产者网络功能的第二响应的接收器,响应于针对数据收集的请求而接收第二响应。
在一些实施例中,第二响应指示数据不可用。
在一个实施例中,一种方法包括:在第二网络功能处接收提供分析报告的第一请求;在第二网络功能处确定经训练模型需要联邦学习;从第二网络功能向第一网络功能发射第二请求,其中第二请求包括导出经训练模型的第一要求,第一要求包括用于训练的模型的标识符及为特定区域提供经训练模型的要求、公共陆地移动网络、数据网络接入标识符、单个网络切片选择辅助信息、应用标识符、数据网络名称或其某种组合;以及接收对第二请求的响应,其中响应包括指示经训练模型可用的信息。
在某些实施例中,所述方法进一步包括响应于第一请求而发射分析报告。
在一个实施例中,一种设备包括第二网络功能。所述设备进一步包括:接收器,其接收提供分析报告的第一请求的;处理器,其确定经训练模型需要联邦学习;及发射器,其将向第一网络功能发射第二请求,其中所述第二请求包括导出所述经训练模型的第一要求,第一要求包括用于训练的模型的标识符及为特定区域提供经训练模型的要求、公共陆地移动网络、数据网络接入标识符、单个网络切片选择辅助信息、应用标识符、数据网络名称或其某种组合;其中接收器接收对第二请求的响应,其中响应包括指示经训练模型可用的信息。
在某些实施例中,发射器响应于第一请求而发射分析报告。
实施例可以其它特定形式实践。所描述实施例将在所有方面仅被视为说明性的而非约束性的。因此,本发明的范围由所附权利要求书而非由前述描述所指示。在权利要求书的等效含义及范围内的所有改变都应涵盖在其范围内。
Claims (15)
1.一种设备,其包括模型训练逻辑功能,所述设备进一步包括:
接收器,其接收来自网络功能的第一请求,其中所述模型训练逻辑功能支持使用联邦学习聚合模型参数,且所述第一请求包括使用联邦学习从至少一个本地模型训练逻辑功能导出聚合的经训练模型的第一要求;
处理器,其:
基于所述第一请求中的所述第一要求而使用联邦学习来确定用于聚合的模型参数;以及
发现能够基于所述第一要求而使用联邦学习来提供用于聚合的模型参数的至少一个本地模型训练逻辑功能;及
发射器,其向所述至少一个本地模型训练逻辑功能发射接收用于导出所述聚合的经训练模型的所述模型参数的第二请求;
其中所述处理器使用联邦学习来聚合所述模型参数,所述发射器发射对所述第一请求的响应,且所述响应包括所述聚合的模型参数。
2.根据权利要求1所述的设备,其中所述至少一个本地模型训练逻辑功能包括至少一个网络功能或至少一个应用功能。
3.根据权利要求1或2所述的设备,其中所述网络功能包括分析逻辑功能、模型训练逻辑功能或其组合。
4.根据任一前述权利要求所述的设备,其中使用联邦学习导出所述聚合的经训练模型的所述第一要求包括标识模型的分析标识符、对应于不能够被收集的数据的标识符、特定关注区域、公共陆地移动网络标识符、数据网络接入标识符、单个网络切片选择辅助信息标识符、应用标识符、数据网络名称标识符或其某种组合。
5.根据任一前述权利要求所述的设备,其中所述处理器发现至少一个本地模型训练逻辑功能以从网络存储库功能检索用于联邦学习的模型参数。
6.根据权利要求5所述的设备,其中所述发射器向所述网络存储库功能发射发现所述本地模型训练逻辑功能以检索用于联邦学习的模型参数的第三请求,且所述第三请求包括特定区域、公共陆地移动网络、数据网络接入标识符、单个网络切片选择辅助信息、应用标识符、数据网络名称或其某种组合。
7.根据任一前述权利要求所述的设备,其中所述模型训练逻辑功能将本地模型供应到所述本地模型训练逻辑功能以启动本地训练。
8.根据权利要求7所述的设备,其中所述本地模型训练逻辑功能用从本地数据生产者网络功能收集的数据来训练所述本地模型,且将与所述经训练本地模型相关的模型参数提供到所述模型训练逻辑功能。
9.一种包括第一网络功能的设备,所述设备进一步包括:
接收器,其接收来自第二网络功能的第一请求,其中所述第一请求包括导出经训练模型的第一要求,所述第一要求包括标识模型的分析标识符及为特定关注区域提供所述经训练模型的要求、公共陆地移动网络标识符、数据网络接入标识符、单个网络切片选择辅助信息标识符、应用标识符、数据网络名称标识符或其某种组合;
处理器,其:
确定所述第一请求使用联邦学习来训练对应于所述第一要求的所述模型;以及
确定使用联邦学习支持模型聚合的网络功能;及
发射器,其向使用联邦学习支持模型训练的第三网络功能发射第二请求,其中所述第二请求包括基于所述第一要求而使用联邦学习来提供经训练模型的请求;
其中响应于发射所述第二请求,所述接收器接收聚合的模型参数,所述处理器使用所述聚合的模型参数训练所述模型以生成经训练模型,所述发射器发射对所述第一请求的第一响应,且所述响应包括指示所述经训练模型可用的信息。
10.根据权利要求9所述的设备,其中所述处理器确定所述第一请求使用联邦学习来训练对应于所述第一要求的所述模型包括所述接收器接收来自数据生产者网络功能的第二响应,响应于针对数据收集的请求而接收所述第二响应,且所述第二响应指示数据不可用。
11.根据权利要求9或10所述的设备,其中所述处理器确定所述第一请求使用联邦学习来训练对应于所述第一要求的所述模型包括处理器确定将从至少一个数据生产者网络功能收集以训练所述模型的数据不可用。
12.根据权利要求9、10或11所述的设备,其中所述处理器确定所述第一请求使用联邦学习来训练所述模型是基于所述第一要求。
13.一种包括第二网络功能的设备,所述设备进一步包括:
接收器,其接收包括提供分析报告的第一要求的第一请求,其中所述第一要求包括标识模型的分析标识符及为特定关注区域提供经训练模型的要求、公共陆地移动网络、数据网络接入标识符、单个网络切片选择辅助信息、应用标识符、数据网络名称或其某种组合;
处理器,其确定所述训练模型使用联邦学习;及
发射器,其将向第一网络功能发射第二请求,其中所述第二请求包括导出所述经训练模型的第一要求;
其中所述接收器接收对所述第二请求的响应,其中所述响应包括指示所述经训练模型可用的信息。
14.根据权利要求13所述的设备,其中所述处理器通过确定需要从至少一个数据生产者网络功能收集以训练所述模型的数据不可用来确定所述第一请求使用联邦学习来训练对应于所述第一要求的所述模型。
15.根据权利要求13或14所述的设备,其中所述处理器确定所述第一请求使用联邦学习来训练所述模型是基于所述第一要求。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GR20210100488 | 2021-07-20 | ||
GR20210100488 | 2021-07-20 | ||
PCT/EP2021/073416 WO2023001393A1 (en) | 2021-07-20 | 2021-08-24 | Model training using federated learning |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117642755A true CN117642755A (zh) | 2024-03-01 |
Family
ID=77640689
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202180100115.6A Pending CN117642755A (zh) | 2021-07-20 | 2021-08-24 | 使用联邦学习的模型训练 |
Country Status (5)
Country | Link |
---|---|
KR (1) | KR20240037957A (zh) |
CN (1) | CN117642755A (zh) |
AU (1) | AU2021456833A1 (zh) |
CA (1) | CA3220898A1 (zh) |
WO (1) | WO2023001393A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024088580A1 (en) * | 2023-02-03 | 2024-05-02 | Lenovo (Singapore) Pte. Ltd | Assisting an analytics training function to select a machine learning model in a wireless communication network |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021032498A1 (en) * | 2019-08-16 | 2021-02-25 | Telefonaktiebolaget Lm Ericsson (Publ) | Methods, apparatus and machine-readable media relating to machine-learning in a communication network |
-
2021
- 2021-08-24 AU AU2021456833A patent/AU2021456833A1/en active Pending
- 2021-08-24 CN CN202180100115.6A patent/CN117642755A/zh active Pending
- 2021-08-24 WO PCT/EP2021/073416 patent/WO2023001393A1/en active Application Filing
- 2021-08-24 KR KR1020247001913A patent/KR20240037957A/ko unknown
- 2021-08-24 CA CA3220898A patent/CA3220898A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
KR20240037957A (ko) | 2024-03-22 |
AU2021456833A1 (en) | 2024-01-04 |
WO2023001393A1 (en) | 2023-01-26 |
CA3220898A1 (en) | 2023-01-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110506439B (zh) | 创建网络切片选择策略规则 | |
US10356838B2 (en) | Supporting network slicing in a wireless communication system | |
CN111434151A (zh) | 网络片选择辅助信息配置 | |
US11522623B2 (en) | Determining an encoding scheme for differential RSRP reporting | |
JP2023535892A (ja) | 通信用の不連続受信構成パラメータ | |
EP4136889A1 (en) | Target network slice information for target network slices | |
CN117642755A (zh) | 使用联邦学习的模型训练 | |
US20230254736A1 (en) | System information block sizing | |
US20230155771A1 (en) | Transmission and reception point reporting | |
CN116868541A (zh) | 对网络服务的认证 | |
US20240147265A1 (en) | Checking a feasibility of a goal for automation | |
US20230300729A1 (en) | User equipment radio capabilities | |
US20230276285A1 (en) | Disabling analytics information of a network analytics function | |
WO2023099039A1 (en) | Analyzing location measurement accuracy | |
WO2022208363A1 (en) | Including a serving cell identity in a discovery message | |
WO2024088590A1 (en) | Federated learning by discovering clients in a visited wireless communication network | |
CN117813806A (zh) | 域名系统确定 | |
WO2024088591A1 (en) | Federated learning by aggregating models in a visited wireless communication network | |
WO2023007406A1 (en) | Configuring a network function software version | |
CN117223275A (zh) | 允许uav与uav-c之间的连接性 | |
WO2023180988A1 (en) | Configuring closed loop components | |
WO2023072419A1 (en) | Communicating and storing aerial system security information | |
CN116569536A (zh) | 向网络的应用注册 | |
WO2024037727A1 (en) | Methods and apparatuses for providing user consent information for data collection services in a wireless communications network | |
WO2024051959A1 (en) | Ue apparatus selection in a wireless communications network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication |