CN117441176A - 用于通信网络中的协作机器学习的全局机器学习模型的选择 - Google Patents
用于通信网络中的协作机器学习的全局机器学习模型的选择 Download PDFInfo
- Publication number
- CN117441176A CN117441176A CN202280040334.4A CN202280040334A CN117441176A CN 117441176 A CN117441176 A CN 117441176A CN 202280040334 A CN202280040334 A CN 202280040334A CN 117441176 A CN117441176 A CN 117441176A
- Authority
- CN
- China
- Prior art keywords
- global
- computing device
- model
- local computing
- models
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000010801 machine learning Methods 0.000 title claims abstract description 280
- 238000004891 communication Methods 0.000 title claims abstract description 135
- 238000000034 method Methods 0.000 claims abstract description 122
- 238000011156 evaluation Methods 0.000 claims abstract description 13
- 230000015654 memory Effects 0.000 claims description 62
- 230000006870 function Effects 0.000 claims description 49
- 238000012549 training Methods 0.000 claims description 47
- 238000007667 floating Methods 0.000 claims description 10
- 238000005457 optimization Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 74
- 230000008569 process Effects 0.000 description 46
- 238000010586 diagram Methods 0.000 description 32
- 238000004422 calculation algorithm Methods 0.000 description 16
- 230000005540 biological transmission Effects 0.000 description 14
- 238000009826 distribution Methods 0.000 description 12
- 238000003860 storage Methods 0.000 description 12
- 230000008901 benefit Effects 0.000 description 11
- 238000005259 measurement Methods 0.000 description 10
- 238000004590 computer program Methods 0.000 description 9
- 230000004044 response Effects 0.000 description 9
- FFBHFFJDDLITSX-UHFFFAOYSA-N benzyl N-[2-hydroxy-4-(3-oxomorpholin-4-yl)phenyl]carbamate Chemical compound OC1=C(NC(=O)OCC2=CC=CC=C2)C=CC(=C1)N1CCOCC1=O FFBHFFJDDLITSX-UHFFFAOYSA-N 0.000 description 8
- 238000007726 management method Methods 0.000 description 8
- 230000011664 signaling Effects 0.000 description 8
- 238000012544 monitoring process Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 5
- 238000004138 cluster model Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 230000010365 information processing Effects 0.000 description 5
- 230000001537 neural effect Effects 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000001413 cellular effect Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- GVVPGTZRZFNKDS-JXMROGBWSA-N geranyl diphosphate Chemical compound CC(C)=CCC\C(C)=C\CO[P@](O)(=O)OP(O)(O)=O GVVPGTZRZFNKDS-JXMROGBWSA-N 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 230000003416 augmentation Effects 0.000 description 2
- 230000009977 dual effect Effects 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 238000005192 partition Methods 0.000 description 2
- 230000000737 periodic effect Effects 0.000 description 2
- 230000001953 sensory effect Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- SLXKOJJOQWFEFD-UHFFFAOYSA-N 6-aminohexanoic acid Chemical compound NCCCCCC(O)=O SLXKOJJOQWFEFD-UHFFFAOYSA-N 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000004378 air conditioning Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- QVFWZNCVPCJQOP-UHFFFAOYSA-N chloralodol Chemical compound CC(O)(C)CC(C)OC(O)C(Cl)(Cl)Cl QVFWZNCVPCJQOP-UHFFFAOYSA-N 0.000 description 1
- 230000001010 compromised effect Effects 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000013523 data management Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000003973 irrigation Methods 0.000 description 1
- 230000002262 irrigation Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000010248 power generation Methods 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000013515 script Methods 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 238000012384 transportation and delivery Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Abstract
提供了一种由本地计算设备执行的用于通信网络中的协作机器学习的计算机实现的方法。该方法包括从全局计算设备接收多个全局ML模型。该方法还包括针对来自多个全局ML模型中的每个相应全局ML模型评估本地计算设备的数据集合的度量。该评估包括(i)生成随机数,以及(ii)将该随机数与预定值进行比较。该方法还包括从多个全局ML模型中选择全局ML模型,其中该选择是(i)当随机数小于预定值时,从多个全局ML模型中选择随机全局ML模型,或(ii)当随机数大于预定值时,从多个全局ML模型中选择对本地计算设备的数据集合具有最好性能的全局ML模型。该方法还包括向全局计算设备发送所选择的全局ML模型或本地计算设备的梯度来自所选择的全局ML模型。
Description
技术领域
本发明涉及用于协作机器学习(ML)的全局机器学习模型的选择。本发明涉及用于通信网络中的协作机器学习的全局机器学习模型的选择的方法和计算设备。
背景技术
独立同分布(IID)数据包括独立事件的数据(例如,彼此不相关联的数据),并且缺少总体趋势(例如,数据分布不波动,并且数据取自相同的概率分布)。在许多现实世界的分布式应用中,在网络边缘生成的数据是非独立同分布的(非IID),例如在移动电话、物联网(IoT)设备和无线电基站中生成的数据在客户端与客户端组之间可能存在数据差异。如本文所使用,“客户端”是指本地计算设备(例如,用户设备(UE)、通信设备、移动电话、IoT设备、无线电基站、计算机等)。除非另有说明,否则术语“客户端”在本文可以与“本地计算设备”互换使用。
联合学习(FL)是一种分散式ML方法,其中客户端共同训练全局ML模型,而无需共享潜在的敏感私有数据。这种FL方法避免了数据的集中收集,而是在生成数据的本地执行ML模型的训练。由诸如无线电基站的客户端生成的本地ML模型更新然后被参数服务器或全局计算设备聚集到新的全局ML模型中。除非另有说明,否则术语“服务器”或“参数服务器”在本文可以与“全局计算设备”互换使用。
目前存在某些挑战。在分散式设置中,具有非IID数据是很常见的。该数据可以具有不相同的客户端分布,其可以进一步表征为:
·特征分布偏斜(协变偏移),其中特征分布在客户端之间不同,因此边际分布P(x)不同,但P(y|x)是共享的,其中P是概率,x是数据样本的特征,并且y是数据样本的目标。
·标签分布偏斜(先验概率偏移或类别不平衡),其中类别标签的分布在客户端之间不同,因此P(y)不同,但P(x|y)是共享的。
·相同的标签,不同的特征(概念偏移),其中条件分布P(x|y)在客户端之间变化,但是P(y)是共享的。
·相同的特征,不同的标签(概念偏移),其中条件分布P(y|x)在客户端之间变化,但是P(x)是共享的。
·数量偏斜(不平衡),客户端拥有不同数量的数据。
此外,客户端之间的数据独立性可能被破坏,而且经常被破坏。
在许多需要多个ML模型的非IID设置中,ML过程(诸如算法)可能无法产生可用的全局ML模型,这些全局ML模型可用作混合专家(MoE)中的专家模型。MoE是指ML模型的组合,诸如本地客户端ML模型和全局ML模型(例如,全局FL模型),如下面参考图2进一步讨论的。当数据是非IID时,使用多个ML模型的当前方法FL(诸如迭代联合集群算法(IFCA))的附加潜在问题可能包括客户端没有做出最佳或更好的全局ML模型选择,所选择的全局ML模型的性能不可接受或不是最佳的(例如,收敛慢、缺乏收敛等)。因此,需要处理分布式客户端之间的非IID数据分布,以改善或优化ML模型的性能,改善收敛,并且需要启动ML模型,使得客户端可以对集群身份进行改善的估计。
发明内容
本文实施例的目的是解决上述限制、问题和争论中的至少一些。更具体地,本公开的目的是提供用于通信网络中的协作机器学习的全局机器学习模型的选择的方法和计算设备。
如独立权利要求所定义的,本文实施例的这些和其他目的通过本公开的不同方面来实现。本公开的实施例的特征在于从属权利要求。
根据本文实施例的第一方面,提供了一种由本地计算设备执行的用于通信网络中的协作机器学习的计算机实现的方法。该方法包括从全局计算设备接收多个全局ML模型。该方法还包括针对来自多个全局ML模型中的每个相应全局ML模型,评估本地计算设备的数据集合的度量。该评估包括(i)生成随机数,以及(ii)将该随机数与预定值进行比较。该方法还包括从多个全局ML模型中选择全局ML模型,其中该选择是(i)当随机数小于预定值时,从多个全局ML模型中选择随机全局ML模型,或(ii)当随机数大于预定值时,从多个全局ML模型中选择对本地计算设备的数据集合具有最好性能的全局ML模型。该方法还包括向全局计算设备发送所选择的全局ML模型或本地计算设备的来自所选择的全局ML模型的梯度。
根据本文实施例的第二方面,提供了一种由全局计算设备执行的用于通信网络中的协作机器学习(ML)的计算机实现的方法。该方法包括初始化和训练多个全局ML模型。该方法还包括从多个计算设备中选择一组本地计算设备。该方法还包括向识别的一组本地计算设备中的每个相应本地计算设备发送多个全局ML模型。该方法还包括从识别的一组本地计算设备中的每个相应本地计算设备接收所选择的ML模型或相应本地计算设备的梯度。该方法还包括使用从识别的一组本地计算设备中的每个相应本地计算设备接收的所选择的ML模型或相应本地计算设备的梯度来训练多个全局ML模型。
根据本文实施例的第三方面,提供了一种用于通信网络中的协作机器学习的本地计算设备。该本地计算设备包括至少一个处理器和至少一个存储器,该至少一个存储器连接到至少一个处理器并且存储由至少一个处理器执行以执行包括以下操作的程序代码。所述操作包括从全局计算设备接收多个全局ML模型。所述操作还包括针对来自多个全局ML模型中的每个相应全局ML模型,评估本地计算设备的数据集合的度量。该评估包括(i)生成随机数,以及(ii)将随机数与预定值进行比较。所述操作还包括从多个全局ML模型中选择全局ML模型。该选择是(i)当随机数小于预定值时,从多个全局ML模型中选择随机全局ML模型,或(ii)当随机数大于预定值时,从多个全局ML模型中选择对本地计算设备的数据集合具有最好性能的全局ML模型。所述操作还包括向所述全局计算设备(104)发送所选择的全局ML模型或本地计算设备的来自所选择的全局ML模型的梯度。
根据本文实施例的第四方面,提供了一种用于通信网络中的协作机器学习的全局计算设备。该全局计算设备包括至少一个处理器和至少一个存储器,该至少一个存储器连接到至少一个处理器并且存储由至少一个处理器执行以执行包括以下操作的程序代码。所述操作包括初始化和训练多个全局ML模型。所述操作还包括从多个计算设备中选择一组本地计算设备。所述操作还包括向识别的一组本地计算设备中的每个相应本地计算设备发送多个全局ML模型。所述操作还包括从识别的一组本地计算设备中的每个相应本地计算设备接收所选择的ML模型或相应本地计算设备的梯度。该方法还包括使用从识别的一组本地计算设备中的每个相应本地计算设备接收的所选择的ML模型或相应本地计算设备的梯度来训练多个全局ML模型。
根据本文实施例的第五方面,提供了一种计算机可读介质,包括当在计算机上执行时使计算机执行第一方面的实施例中的任一个的方法的指令。
根据本文实施例的第六方面,提供了一种计算机可读介质,包括当在计算机上执行时使计算机执行第二方面的实施例中的任一个的方法的指令。
某些实施例可以提供一个或多个以下技术优点。可以通过适应性地学习用于MoE的专家模型、改善收敛和/或启动这些专家模型以便客户端对集群身份进行更好的估计,实现包括在非IID设置中的针对诸如FL和迭代联合集群算法(IFCA)之类的协作机器学习模型的ML性能的提高。
附图说明
附图被包括进来以提供对本发明的进一步理解,并且被并入并构成本申请的一部分,附图示出了发明概念的某些非限制性实施例。在附图中:
图1是根据本发明的一些实施例的通信网络环境的图示,示出了可以执行本地计算设备和服务器/全局计算设备的任务的设备;
图2是本地计算设备的示例ML模型的框图;
图3是示出根据本发明的各种实施例的用于训练为通信网络中的协作机器学习选择全局ML模型的计算机实现的方法的示例实施例的序列图;
图4是根据本发明的一些实施例的本地计算设备的框图;
图5是根据本发明的一些实施例的服务器/全局计算设备的框图;
图6和图7是根据本发明的一些实施例的本地计算设备的操作流程图;
图8和图9是根据本发明的一些实施例的服务器/全局计算设备的操作流程图;
图10是根据本发明的一些实施例的通信系统的框图;
图11是根据本发明的一些实施例的用户设备的框图;
图12是根据本发明的一些实施例的网络节点的框图;
图13是根据本发明的一些实施例的与用户设备通信的主机计算机的框图;
图14是根据本发明的一些实施例的虚拟化环境的框图;以及
图15是根据本发明的一些实施例的通过部分无线连接经由基站与用户设备通信的主机计算机的框图。
具体实施方式
现在将在下文中参考附图更全面地描述发明概念,附图中示出了发明概念的实施例的示例。然而,发明概念可以以许多不同的形式具体实施,并且不应该被解释为限于本文阐述的实施例。相反,提供这些实施例是为了使本发明全面和完整,并且将本发明概念的范围完全传达给本领域技术人员。还应该注意,这些实施例并不相互排斥。来自一个实施例的组件可以被默认为在另一个实施例中存在/使用。
以下描述呈现了所公开主题的各种实施例。这些实施例被呈现为教导示例,并且不应被解释为限制所公开的主题的范围。例如,在不脱离所述主题的范围的情况下,可以修改、省略或扩展所描述实施例的某些细节。参考包括K个客户端的分布式和分散式ML设置来描述本发明的各种实施例。每个客户端都可以访问本地数据分区。
在考虑多类分类问题的上下文中描述了一些实施例,其中存在多个被测数据样本,并且输出类标签在有限集合中。数据的每个客户端分区被进一步分成训练数据集合和数据的本地测试集合。一些实施例的方法涉及在非IID设置中的本地测试集合上的性能。图1是示出了示例性通信网络100的图,其示出了根据本发明的一些实施例的可以执行计算设备和服务器的任务的设备。在图1中,通信网络100包括本地计算设备1021至1026(诸如移动设备1021至1025或网络功能(NF)1026等)和全局计算设备或服务器104、106(诸如核心网络节点104或基站1061至10612等)。通信网络可以包括但不限于云本地网络(例如,开放式无线电接入网络(O-RAN))和/或云本地客户端和/或服务器(诸如作为客户端的网络功能(NF)和作为服务器的网络数据分析功能(NWDAF)等)。
现在将讨论集群FL。在许多真实的分布式用例中,数据自然是非IID的,并且此类用例中的客户端形成相似客户端的集群。对联合平均(FedAvg)的可能的改进是引入全局集群ML模型,但是识别这些集群的问题仍然存在。集群FL旨在找到一集群(即客户端群体的子集),该集群从在子集内一起训练(而不是与群体一起训练)中受益更多。
使用Ghosh,A.、Chung,J.、Yin,D.和Ramchandran,K.的Advances in NeuralInformation Processing Systems 33:Annual Conference on Neural InformationProcessing Systems 2020,NeurIPS2020,December 6-12,2020,virtual,2020中的Anefficient framework for clustered federated learning(神经信息处理系统进展33:2020年12月6日至12日的2020年神经信息处理系统年会,NeurIPS2020,virtual,2020中的集群式联合学习的有效框架)中描述的一种FL方法,可以将最大数量的预期集群设置为J,并且每个集群一个全局ML模型可以被初始化。在具有时间t的通信轮次中,每个所选择的客户端可以执行集群身份估计,其中它选择在本地训练集合上具有最低估计损失的全局ML模型。然后,可以通过仅使用来自选择了每个全局ML模型的客户端的梯度来更新全局ML模型。
另一种方法是采用使用MoE的FL。为了为每个客户端构建个人化的ML模型,可以添加仅在本地数据上训练的本地专家ML模型。可以定义门控ML模型来学习加权本地ML模型和全局ML模型。通过这种方式,即使当客户端的数据不同于群体的数据时,也可以执行个人化。
本公开的各种实施例包括由计算设备(例如,本地计算设备102)执行的计算机实现的方法,用于使用用于通信网络中的协作机器学习的ε贪婪探索过程从多个全局ML模型中选择全局ML模型。
由本公开的各种实施例提供的潜在优势可以包括:通过包括ε贪婪探索过程,可以改善全局ML模型的收敛性。该方法可以人为地增加通过ε贪婪探索过程选择全局ML模型的机会。这也可以允许全局ML模型使用更多的提高所选择的全局集群ML模型的性能的客户端梯度。包括ε贪婪探索过程的额外的潜在优势可以是:客户端可以使用全局ML模型来更好地估计集群身份,从而导致ML性能的改善,并进而改善系统性能。
如下面进一步讨论,本公开的各种实施例可以通过加权全局ML模型的探索和利用(例如,通过增加收敛速度)来改善全局ML模型的适应性,如本文参考ε贪婪探索过程进一步描述的。本文参考“过程3”进一步讨论ε贪婪探索过程的示例实施例。一些实施例包括随时间改变探索和利用的方式;并且一些实施例包括启动全局ML模型的方式,这可以使客户端中的集群身份估计更好。
图2是在该示例中被称为客户端k的计算设备(例如,本地计算设备102)的ML模型的示例的框图。ML模型包括本地专家ML模型和与其他客户端共享的J个专家全局ML模型/>其中/>是本地专家ML模型,/>是客户端k的本地ML模型权重,J是全局ML模型的数量,并且/>分别是具有索引j的全局ML模型和全局ML模型j权重。客户端k使用门控ML模型/>来加权ML专家模型并且产生个人化推断/>其中h是门控模型,/>是客户端k的门控模型权重,并且/>是估计目标(门控)。门控ML模型是学习加权其他ML模型的输出的ML模型(例如,神经网络)。作为输入,它获取数据x的样本(例如,图像,或在移动键盘上键入的几个词语)并试图将高权重给予门控ML模型确定将对该样本执行得最好的ML专家模型。在图2中,这些权重是“手臂”和等式中的g。
在本公开的一些实施例中,在每个通信轮次中,服务器(例如,全局计算设备104)选择一组客户端或本地计算设备102,如本文参考“过程1”进一步描述的。在另一个过程中(例如,本文描述的“过程2”),每个客户端或本地计算设备102将接收多个全局ML模型;并且使用ε贪婪过程(例如,下面进一步描述的过程3)评估本地计算设备的数据集合的度量(例如,训练数据集合的损失)。该评估包括(a)使用随机数生成器生成随机数r;以及(b)如果r<ε(其中ε是预定的浮点数),则从接收的多个全局ML模型中选择随机全局集群ML模型,否则,从接收的多个全局ML模型中选择在数据集合上具有最好性能(例如,在本地训练数据集合上具有最低损失)的全局ML模型。
在本公开的一些实施例中,在每个通信轮次中,服务器(例如,全局计算设备104)选择一组客户端或本地计算设备102(例如,参见本文描述的过程1)。在另一个过程(例如,过程2)中,每个客户端或本地计算设备102将:接收多个全局ML模型;以及使用具有衰减的ε贪婪过程(例如,下面进一步描述的过程3)评估本地计算设备的数据集合上的度量(例如,训练数据集合上的损失)。该评估包括(a)使用随机数生成器生成随机数r;以及(b)如果r<ε/t,其中ε是预定的浮点数,并且t是通信轮次的时间段,即,本地计算设备102与服务器或全局计算设备104之间的通信所花费的时间,则从接收的多个全局ML模型中选择随机全局ML模型,否则从接收的多个全局ML模型中选择在数据集合上具有最好性能(例如,在本地训练数据集合上具有最低损失)的全局ML模型。
在本公开的一些实施例中,在每个通信轮次中,服务器(例如,全局计算设备104)选择一组客户端或本地计算设备102(例如,参见本文描述的过程1)。在另一过程中,每个客户端或本地计算设备102将(参见例如过程2):接收多个全局ML模型;以及使用具有调整衰减的ε贪婪过程(例如,下面进一步描述的过程3)评估本地计算设备的数据集合上的度量(例如,训练数据集合上的损失)。该评估包括(a)使用随机数生成器生成随机数r;以及(b)如果r<ε/(t^b),其中ε是预定的浮点数,t是通信轮次的时间段,即,本地计算设备102与服务器或全局计算设备104之间的通信所花费的时间,并且J是集群的数量,从接收的多个全局ML模型中选择随机全局ML模型,否则从接收的多个全局ML模型中选择在数据集合上具有最好性能(例如,在本地训练数据集合上最低损失)的全局ML模型。b可以例如取决于集群的数量,例如b=2/J,其中J是集群的数量。b也可以是被调谐的超参数。例如,全局ML模型可以是但不限于卷积神经网络(CNN)模型。CNN模型的超参数可以被调谐,例如,多个卷积层中的滤波器数量、全连接层中的隐藏单元数量、丢失(dropout)、权重衰减等。对于ε贪婪过程,ε贪婪参数(ε)也可以被调谐。
虽然上面讨论的一些实施例是在评估训练数据集合的损失的非限制性上下文中解释的,但是本公开不限于此。相反,可以使用其他度量和数据,包括但不限于作为度量的准确度,以及在数据的验证集合或测试集合上进行评估。
在一些实施例中,进一步的操作包括使用选择的全局ML模型作为起始点,对数据集合(例如,本地训练数据)执行一轮或多轮训练。
在一些实施例中,进一步的操作包括向全局计算设备104提交新的ML模型或梯度,其中新的ML模型是基于度量的评估而选择的全局ML模型。
在其他实施例中,在每个通信轮次中,服务器(例如,全局计算设备104)选择一组客户端或本地计算设备102(参见本文描述的过程1)。每个客户端将在本文描述的过程2中:接收多个全局ML模型;以及使用下面进一步描述的过程3,在小于最大通信轮次数的时间Te的时间t内评估相应训练数据集合的损失,即Te是本地计算设备102与服务器或全局计算设备104之间执行ε-贪婪探索的总通信轮次数所花费的时间(即t<Te)。最大轮次数是评估包括(a)使用随机数生成器生成随机数r;以及(b)如果r<ε(其中ε是预定的浮点数),则从接收的多个全局ML模型中选择随机全局ML模型,否则从接收的多个全局ML模型中选择在本地训练数据集合上具有最低损失的全局ML模型。
在一些实施例中,进一步的操作包括在每个客户端或本地计算设备102处使用选择的全局ML模型作为起始点,对数据集合(例如,本地训练数据)执行一轮或多轮训练。
在一些实施例中,进一步的操作包括向全局计算设备104提交新的ML模型或梯度,其中新的ML模型是基于度量的评估而选择的全局ML模型,并且新的ML模型可以在数据集合上被训练。
在其他实施例中,在每个通信轮次中,服务器(例如,全局计算设备104)选择一组客户端或本地计算设备102(参见本文描述的过程1)。每个客户端将在本文描述的过程2中:接收多个全局ML模型;以及使用下面进一步描述的过程3,如在任何上述实施例中描述的那样,评估相应训练数据集合上的损失。因此,基于损失评估,从接收的多个全局ML模型中选择随机全局ML模型或在本地训练数据集合上具有最低损失的全局ML模型。在这些实施例中,操作还包括使用所选择的全局ML模型或随机选择的全局ML模型作为起始点,对数据集合(例如,本地训练数据)执行一轮或多轮训练。
在一些实施例中,进一步的操作包括向全局计算设备104提交新的ML模型或梯度,其中新的ML模型是随机全局ML模型或在本地训练数据集合上具有最低损失的全局ML模型,并且新的ML模型可以在数据集合上被训练。
上面讨论的过程1包括由服务器(例如,全局计算设备104)执行的用于利用MoE进行集群联合平均的算法。过程1可以包括以下示例算法:
算法1:利用混合专家的集群联合平均-服务器
1:程序服务器(C,K)
2:初始化 初始化全局集群ML模型
3: 要选择的客户端数量
4:对于t∈{1,2,...}进行直到收敛
5:|St|=Ks/>客户端选择-Ks个客户端的随机抽样
6:对于所有k∈St进行对于所有客户端,并行
7: 本地训练
8:对于所有j∈{1,2,...,J}进行对于所有全局集群模型
9: 来自客户端的全局集群模型j的样本总数,其中
10: 用客户端更新全局集群模型j,其中/>
上面讨论的过程2包括由客户端(例如,本地计算设备102)执行的用于利用MoE进行集群联合平均的算法。过程2可以包括以下示例算法:
算法2:利用混合专家的集群联合平均-客户端
11:程序客户端
12:nk=|ρk|该客户端的数据样本数
13:
14:wk(t+1)←更新
15:返回
上面讨论的过程3包括由客户端(例如,本地计算设备102)执行的用于利用MoE进行集群联合平均-集群分配的算法。过程3可以包括以下示例算法:
算法3:利用混合专家的集群联合平均-集群分配
15:程序
16:
17:返回 返回集群分配
上面讨论的用于向服务器(例如,全局计算设备104)提交新的ML模型或梯度的操作可以在另一个过程中执行,本文称为“过程4”。过程4可以包括由客户端(例如,本地计算设备102)执行的用于利用MoE进行集群联合平均-客户端本地更新的算法。过程4可以包括以下示例算法:
算法4:利用混合专家的集群联合平均-客户端本地更新
18:程序更新(wk(t),nk 小批量梯度下降
19:wk(t+1)←wk(t)
20:对于e∈{1,2,…,E}进行对于若干训练迭代次数(epoch)
21:对于大小为B的所有批量进行批量更新
22:
23:返回wk(t+1)
在上面的算法1-4中包括的本文所使用的符号是指:
B 批量大小
C 选择的客户端的比例
E 本地训练迭代次数
ε ε-贪婪参数
n 学习率
估计的
索引为j的全局ML模型
fg 全局ML模型fl 本地ML模型
fl k 客户端k的本地ML模型
fl k′ 客户端k’的本地ML模型
集群ML模型j和客户端k的门控ML模型权重
gl 本地ML模型的门控ML模型权重
客户端k的本地ML模型的门控ML模型权重
h 门控ML模型函数
hk 客户端k的门控ML模型
J 集群模型的数量
j 集群ML模型索引
集群ML模型身份估计
K 客户端数量
k 客户端索引
k’ 客户端索引,已启动
Ks 所选择的客户端的数量
l 损失函数
n 数据样本数量
nj 来自客户端的集群模型j的样本总数
nk 客户端k的样本总数
P 概率
p 多数类分数
ρk 客户端k可访问的数据集合的分区
{1,2,…,K} 客户端群体
St 在时间t选择的一组客户端
t 通信轮次的时间
w ML模型权重
wg 全局ML模型权重
全局ML模型j权重
在时间t处的全局ML模型权重/>
在时间0处的全局ML模型j权重
在时间t+1处的全局ML模型j权重
客户端k的门控ML模型权重
wk(t) 在时间t处的全局ML模型的全局ML模型权重
wl 本地ML模型权重
wk(t+1) 在时间t+1处来自全局ML模型的全局ML模型权重
x 数据样本的特征
xi 数据样本i的特征
y 数据样本的目标
估计目标(门控)
估计目标(门控)
估计目标(全局集群)
估计目标(本地)
yi 数据样本的目标
图3是示出根据本公开的各种实施例的用于训练用于选择全局ML模型的计算机实现的方法的示例实施例的序列图。图3包括服务器(例如,全局计算设备104)和计算设备(例如,本地计算设备102)。在操作301处,在服务器104和计算设备102处执行全局ML模型初始化。在操作303中,计算设备102训练本地ML模型。循环305包括操作307、309和311,它们发生在计算设备102与服务器104之间的迭代通信轮次中(例如,如本文参考过程1、过程2、过程3和过程4所描述的)。在操作307中,服务器104选择计算设备1 02。在操作309中执行过程3,并且服务器104向计算设备102发信号通知集群分配,即多个全局ML模型。在操作311中,计算设备102执行过程4,并且向服务器104发信号通知所选择的全局ML模型的本地更新。在操作313中,更新所选择的全局ML模型。在操作315中,计算设备102训练门控ML模型,以在由循环305的迭代产生的所选择的全局ML模型之间进行选择。门控ML模型是采用相同的输入x并且输出每个专家模型的(softmax)权重的ML模型。
本公开的各种实施例适用于许多分散式和分布式ML用例,诸如辅助载波预测、天线倾斜优化或改进等;以及物联网(IoT)用例与无线电接入网络(RAN)用例。
在一个示例中,各种实施例的方法与下一词语预测结合使用。下一词语预测在许多移动电话应用和键盘中用来预测用户接下来想要键入什么词语。词语当然可以是非常个人和隐私敏感的,所以FL可以应用于这个用例。然而,用户和他们的移动电话在地理上是分布式的,并且具有不同的语言,并且不同地使用语言。找到相似的用户可能具有使下一词语预测更加准确的优势。这里的数据按照许多不同方式是非IID的,这可能是个难题。例如,美国英语和英国英语之间有许多相似之处,但也有差异。这两种英语变体可以在集群中一起训练,但也可能与澳大利亚英语、印度英语等一起训练。本公开的各种实施例的方法可以更有效地发现此类语言集群。
在另一个示例中,结合辅助载波预测来使用各种实施例的方法。提供了一种用一个或多个ML模型来配置用户设备以执行无线电联网操作的方法,与ML模型输入位于设备侧的使用情况相比,该方法能够实现更少的信令。一个这样的用例是辅助载波预测用例。为了使用目标载波预测来检测另一频率上的节点,一种方法要求用户设备(UE)执行源载波信息的信令,其中移动UE周期性地发送源载波信息,以使得宏节点能够将UE切换到以更高频率操作的另一节点。使用目标载波预测,UE不需要执行频率间测量,从而节省了UE的能量。然而,能够预测辅助频率的源载波信息的频繁信令会导致额外的开销,因此应该被最小化。不执行频繁的周期性信令的风险是错过了进行向另一载波上负载较轻的小区的频率间切换的机会。而是,UE可以接收ML模型,并且使用源载波信息作为模型的输入,然后触发指示位置2处的另一频率节点上的覆盖范围的输出。这可以减少对频繁的源载波信息信令的需要,同时使UE能够在其模型输入改变时预测频率2上的覆盖范围。由于网络中的小区本质上在地理上是分布式的,因此在这些小区中生成的数据具有非IID特性。利用本公开的各种实施例的方法寻找相似的小区可以具有允许更少的ML模型、更好的或改进的性能的好处。
图4是示出本地计算设备400(也称为移动终端、移动通信终端、无线设备、无线通信设备、无线终端、移动设备、无线通信终端、用户设备UE、用户设备节点/终端/设备、计算机等)的元件的框图,该本地计算设备被配置为提供根据本发明概念的实施例的操作。(可以提供计算设备400,例如,如下面关于图10的无线设备UE 1012A、UE 1012B以及有线或无线设备UE 1012C、UE 1012D、图11的UE 1100、图14的虚拟化硬件1404和虚拟机1408A、1408B、以及图15的UE 1506所讨论的,所有这些在本文描述的示例和实施例中应该被认为是可互换的,并且在本公开的预期范围内,除非另外指出。)如图所示,本地计算设备可以包括收发机电路401(也称为收发机,例如,对应于图11的具有发射机1118和接收机1120的接口1112),该收发机电路401包括发射机和接收机,它们被配置为提供与通信网络(例如,无线电接入网络)的基站(例如,对应于图10的网络节点1010A、1010B、图12的网络节点1200和图15的网络节点1504,也称为RAN节点)的上行链路无线通信和下行链路无线通信。如图所示,本地计算设备可以包括用于实现网络连接的网络接口407。本地计算设备还可以包括耦接到收发机电路的处理电路403(也称为处理器,例如对应于图11的处理电路1102和图14的控制系统1412)、以及耦接到处理电路的存储器电路405(也称为存储器,例如对应于图10的存储器1110)。存储器电路405可以包括计算机可读程序代码,当该计算机可读程序代码由处理电路403执行时使处理电路执行根据本文公开的实施例的操作。根据其他实施例,处理电路403可以被定义为包括存储器,从而不需要单独的存储器电路。本地计算设备还可以包括与处理电路403耦接的接口(诸如用户接口),和/或本地计算设备可以包括在车辆中。
如本文所讨论的,本地计算设备的操作可以由处理电路403和/或收发机电路401来执行。例如,处理电路403可以控制收发机电路401通过收发机电路401经由无线电接口向通信网络(例如,无线电接入网络节点(也称为基站))发送通信,和/或通过收发机电路401从通信网络(例如,无线电接口上的RAN节点)接收通信。此外,模块可以存储在存储器电路405中,并且这些模块可以提供指令,使得当模块的指令被处理电路403执行时,处理电路403执行相应的操作(例如,下面关于涉及计算设备的示例实施例讨论的操作)。根据一些实施例,本地计算设备400和/或其元件/功能可以具体化为虚拟节点和/或虚拟机。
图5是示出通信网络的服务器或全局计算设备500(也称为NWDAF等)的元件的框图,其被配置为提供根据本发明概念的实施例的操作。(可以提供服务器500,例如,如下面关于图10的网络节点1010A、1010B、图3的网络节点1200、图10的核心网络节点1008、图14的硬件1404或虚拟机1408A、1408B、图14的硬件1404或虚拟机1408A、1408B,和/或图15的基站1504所讨论的,所有这些在本文描述的示例和实施例中应该被认为是可互换的,并且在本公开的预期范围内,除非另外指出。)如图所示,服务器或全局计算设备可以包括收发机电路501(也称为收发机,例如,对应于图12的RF收发机电路1212和无线电前端电路1218的部分),该收发机电路501包括发射机和接收机,它们被配置为提供与移动终端的上行链路无线通信和下行链路无线电通信。服务器或全局计算设备可以包括网络接口电路507(也称为网络接口,例如,对应于图12的通信接口1206的部分),其被配置为提供与通信网络的其他节点(例如,与其他服务器或计算设备)的通信。服务器或全局计算设备还可以包括耦接到收发机电路的处理电路503(也称为处理器,例如对应于图12的处理电路1202)、以及耦接到处理电路的存储器电路505(也称为存储器,例如对应于图12的存储器1204)。存储器电路505可以包括计算机可读程序代码,当该计算机可读程序代码由处理电路503执行时使处理电路执行根据本文公开的实施例的操作。根据其他实施例,处理电路503可以被定义为包括存储器,从而不需要单独的存储器电路。
如本文所讨论的,服务器或全局计算设备的操作可以由处理电路503、网络接口507和/或收发机501来执行。例如,处理电路503可以控制收发机501通过收发机501在无线电接口上向一个或多个服务器或计算设备发送下行链路通信,和/或通过收发机501在无线电接口上从一个或多个服务器或计算设备接收上行链路通信。类似地,处理电路503可以控制网络接口507通过网络接口507向一个或多个其他服务器或计算设备发送通信,和/或通过网络接口从一个或多个其他计算设备或服务器接收通信。此外,模块可以存储在存储器505中,并且这些模块可以提供指令,使得当模块的指令被处理电路503执行时,处理电路503执行相应的操作(例如,下面关于涉及服务器的示例实施例讨论的操作)。根据一些实施例,服务器或全局计算设备500和/或其元件/功能可以具体化为虚拟节点和/或虚拟机。
根据一些其他实施例,服务器或全局计算设备可以被实现为没有收发机的核心网络(CN)节点。在此类实施例中,到无线计算设备的传输可以由服务器发起,使得到无线计算设备的传输通过包括收发机的网络节点(例如,通过基站或RAN节点)来提供。根据服务器是包括收发机的RAN节点的实施例,发起传输可以包括通过收发机进行传输。
在以下描述中,尽管本地计算设备可以是计算设备400、无线设备1012A、1012B、有线或无线设备UE 1012C、UE 1012D、UE 1100、虚拟化硬件1404、虚拟机1408A、1408B或UE1506中的任何一个,但是本地计算设备102应用于描述本地计算设备的操作的功能。现在将参考根据本发明概念的一些实施例的图6和图7的流程图来讨论本地计算设备102的操作(使用图4的框图的结构来实现)。例如,模块可以存储在图4的存储器405中,并且这些模块可以提供指令,使得当模块的指令由相应的计算设备处理电路403执行时,处理电路403执行流程图的相应操作。
首先参考图6,提供了一种由本地计算设备(102、400)执行的用于为通信网络中的协作机器学习选择全局机器学习(ML)模型的计算机实现的方法。该方法包括从服务器接收(601)多个全局ML模型。该方法还包括针对来自多个全局ML模型中的每个相应全局ML模型评估(603)本地计算设备的数据集合的度量。该评估包括(i)生成随机数,以及(ii)将该随机数与预定值进行比较。该方法还包括从多个全局ML模型中选择(605)全局ML模型。该选择是(i)当随机数小于预定值时,从多个全局ML模型中选择随机全局ML模型,或(ii)当随机数大于预定值时,从多个全局集群ML模型中选择当随机数大于预定值时对本地计算设备的数据集合具有最好性能的全局集群ML模型。该方法还包括向全局计算设备(104)发送(607)所选择的全局ML模型或计算设备的来自所选择的全局ML模型的梯度。
在一些实施例中,通信网络包括具有非独立且同分布(非IID)数据的多个计算设备。在一些实施例中,预定值是在为评估(603)设置的时间段内变化的预定浮点值。在一些实施例中,预定值是与一轮评估(603)相对应的时间段的预定浮点值,并且通过取J的函数f“f(J)”来计算,其中J是多个全局集群ML模型的数量,或预定浮点值被离线调谐。在一些实施例中,评估(603)和选择(605)被执行一时间段,其中该时间段是小于在计算设备与服务器之间执行评估(603)和选择(605)的已定义最大通信轮次数的时间量。
在一些实施例中,数据集合是训练数据集合,度量是训练数据集合上的损失,并且最好性能是训练数据集合上的最低损失。
现在参考图7,在一些实施例中,该方法还包括基于所选择的全局ML模型的使用,对数据集合执行(701)至少一轮训练。在一些实施例中,评估(603)还包括对多个全局ML模型的探索和利用进行加权,以增加多个全局ML模型的收敛速度。
在一些实施例中,通信网络是无线电接入网络,并且所选择的全局ML模型是用于无线电接入网络中的小区集群的辅助载波预测的ML模型。在一些实施例中,通信网络是无线电接入网络,并且所选择的全局ML模型是用于无线电接入网络中的网络节点集群的天线倾斜优化或改进预测的ML模型。在一些实施例中,所选择的全局ML模型是用于使用多种语言变体的计算设备集群的下一词语预测的ML模型。
图7的流程图中的各种操作对于由本地计算设备执行的方法的一些实施例来说是可选的。例如,图7的框701的操作可以是可选的。
在以下描述中,尽管全局计算设备或服务器104可以是图10的网络节点1010A、1010B、图3的网络节点1200、图10的核心网络节点1008、图14的硬件1404或虚拟机1408A、1408B、图14的硬件1404或虚拟机1408A、1408B、和/或图15的基站1504中的任何计算设备500,但是全局计算设备104应用于描述服务器或全局计算设备的操作的功能。现在将参考根据本发明概念的一些实施例的图8和图9的流程图来讨论全局计算设备104(使用图5的框图的结构来实现)的操作。例如,模块可以存储在图5的存储器505中,并且这些模块可以提供指令,使得当模块的指令由相应的计算设备处理电路503执行时,处理电路503执行流程图的相应操作。
首先参考图8,提供了由全局计算设备104执行的用于通信网络中的协作机器学习(ML)的计算机实现的方法。该方法包括初始化和训练(801)多个全局ML模型。该方法还包括从多个计算设备中选择(803)一组本地计算设备,其中该组本地计算设备是以统一或随机的方式从多个计算设备中选择的。该方法还包括向识别的一组本地计算设备中的每个相应本地计算设备发送(805)多个全局ML模型。该方法还包括从识别的一组本地计算设备中的每个相应本地计算设备接收(807)所选择的ML模型或相应本地计算设备的梯度。该方法还包括使用从所识别的一组本地计算设备中的每个相应本地计算设备接收的所选择的ML模型或相应本地计算设备的梯度来训练(809)多个全局ML模型。
在一些实施例中,满足的收敛条件包括多个全局ML模型达到收敛速度。当ML模型的性能(损失)稳定在最佳值的某个误差范围内时,ML模型被认为已经收敛,即,更多的训练不会进一步改进ML模型。
现在参考图9,在一些实施例中,该方法还包括基于预定值或预定条件来确定(901)数值,其中该数值是正整数,其表示要在该组本地计算设备中选择的本地计算设备的数量。
在一些实施例中,该方法还包括重复执行(903)选择(803)、发送(805)、接收(807)和训练(809)的步骤,直到满足收敛条件为止。
图9的流程图中的各种操作对于由全局计算设备或服务器执行的方法的一些实施例来说是可选的。例如,图9的框901和903的操作可以是可选的。
尽管在图4和图5的示例性框图中示出了本地计算设备400和服务器或全局计算设备500,它们每个都可以表示包括所示出的硬件组件组合的设备,但是其他实施例可以包括具有组件或网络功能的不同组合的计算设备和服务器。应当理解,本地计算设备和服务器中的每一个都包括执行本文公开的任务、特征、功能和方法所需的硬件和/或软件的任何适合的组合。此外,虽然本地计算设备和服务器中的每一个的组件被描绘为位于较大框内或嵌套在多个框内的单个框,但是实际上,每个设备可以包括构成单个所示组件的多个不同的物理组件(例如,存储器可以包括多个单独的硬盘驱动器以及多个RAM模块)。
图10示出了根据一些实施例的通信系统1000的示例。
在该示例中,通信系统1000包括电信网络1002,该电信网络包括接入网络1004,诸如无线接入网络(RAN),以及核心网络1006,该核心网络包括一个或多个核心网络节点1008。接入网络1004包括一个或多个接入网络节点,诸如网络节点1010A和1010B(其中的一个或多个通常被称为网络节点1010),或任何其他类似的第三代合作伙伴计划(3GPP)接入节点或非3GPP接入点。网络节点1010促进用户设备(UE)的直接或间接连接,如通过一个或多个无线连接将UE 1012A、1012B、1012C和1012D(其中的一个或多个可以统称为UE 1012)连接到核心网络1006。
通过无线连接的示例性无线通信包括使用电磁波、无线电波、红外波和/或其他类型的适于传送信息的信号来发送和/或接收无线信号,而不使用电线、电缆或其他材料导体。此外,在不同的实施例中,通信系统1000可以包括任何数量的有线或无线网络、网络节点、UE和/或可以促进或参与数据和/或信号的通信(无论是经由有线还是无线连接)的任何其他组件或系统。通信系统1000可以包括任何类型的通信、电信、数据、蜂窝、无线电网络和/或其他类似类型的系统和/或与之相接。
UE 1012可以是多种通信设备中的任何一种,包括被布置、配置和/或可操作来与网络节点1010和其他通信设备进行无线通信的无线设备。类似地,网络节点1010被布置、能够、配置和/或可操作来直接或间接地与UE 1012和/或与电信网络1002中的其他网络节点或设备通信,以实现和/或提供网络接入,诸如无线网络接入,和/或执行其他功能,诸如电信网络1002中的管理。
在所描绘的示例中,核心网络1006将网络节点1010连接到一个或多个主机,诸如主机1016。这些连接可以是直接的,也可以是经由一个或多个中间网络或设备的间接连接。在其他示例中,网络节点可以直接耦接到主机。核心网络1006包括一个或多个由硬件和软件组件构成的核心网络节点(例如,核心网络节点1008)。这些组件的特征可以基本上类似于针对UE、网络节点和/或主机描述的那些特征,使得其描述通常适用于核心网络节点1008的相应组件。示例核心网络节点包括移动交换中心(MSC)、移动性管理实体(MME)、归属订户服务器(HSS)、接入和移动性管理功能(AMF)、会话管理功能(SMF)、认证服务器功能(AUSF)、订阅标识符去隐藏功能(SIDF)、统一数据管理(UDM)、安全边缘保护代理(SEPP)、网络暴露功能(NEF)和/或用户面功能(UPF)中的一个或多个的功能。
主机1016可以由除接入网络1004和/或电信网络1002的运营商或提供商之外的服务提供商拥有或控制,并且可以由服务提供商或代表服务提供商来操作。主机1016可以托管各种应用以提供一种或多种服务。此类应用的示例包括实况和预先录制的音频/视频内容、数据收集服务(诸如检索和编译关于由多个UE检测到的各种环境条件的数据)、分析功能、社交媒体、用于控制远程设备或以其他方式与远程设备交互的功能、用于报警和监视中心的功能,或由服务器执行的任何其他这种功能。
总体上,图10的通信系统1000实现了UE、网络节点和主机之间的连接。在这种意义上,通信系统可以被配置为根据预定义的规则或程序进行操作,诸如特定的标准,包括但不限于:全球移动通信系统(GSM);通用移动电信系统(UMTS);长期演进(LTE)和/或其他适合的2G、3G、4G、5G标准,或任何适用的下一代标准(例如,6G);无线局域网(WLAN)标准,诸如电气和电子工程师协会(IEEE)802.11标准(WiFi);和/或任何其他适合的无线通信标准,诸如微波接入全球互通(WiMax)、蓝牙、Z-Wave、近场通信(NFC)ZigBee、LiFi和/或任何低功率广域网络(LPWAN)标准,诸如LoRa和Sigfox。
在一些示例中,电信网络1002是实现3GPP标准化特征的蜂窝网络。因此,电信网络1002可以支持网络切片,以向连接到电信网络1002的不同设备提供不同的逻辑网络。例如,电信网络1002可以向一些UE提供超可靠低延迟通信(URLLC)服务,同时向其他UE提供增强移动宽带(eMBB)服务,和/或向另外的UE提供大规模机器类型通信(mMTC)/大规模IoT服务。
在一些示例中,UE 1012被配置为在没有直接人类交互的情况下发送和/或接收信息。例如,当由内部或外部事件触发时,或响应于来自接入网络1004的请求,UE可以被设计成按照预定调度向接入网络1004发送信息。此外,UE可以被配置为在单RAT或多RAT或多标准模式下操作。例如,UE可以以Wi-Fi、NR(新无线电)和LTE中的任何一个或组合一起操作,即,被配置用于多无线电双连接(MR-DC),如E-UTRAN(演进的UMTS陆地无线电接入网络)新无线电双连接(EN-DC)。
在该示例中,中枢1014与接入网络1004进行通信,以促进一个或多个UE(例如,UE1012c和/或1012d)与网络节点(例如,网络节点1010b)之间的间接通信。在一些示例中,中枢1014可以是控制器、路由器、内容源和分析设备,或本文描述的关于UE的任何其他通信设备。例如,中枢1014可以是针对UE的使得能够接入核心网络1006的宽带路由器。作为另一个示例,中枢1014可以是向UE中的一个或多个致动器发送命令或指令的控制器。可以从UE、网络节点1010接收命令或指令,或通过中枢1014中的可执行代码、脚本、进程或其他指令接收命令或指令。作为另一个示例,中枢1014可以是充当UE数据的临时存储器的数据收集器,并且在一些实施例中,可以执行数据的分析或其他处理。作为另一个示例,中枢1014可以是内容源。例如,对于作为VR头戴式耳机、显示器、扬声器或其他媒体传送设备的UE,中枢1014可以经由网络节点获取与感觉信息相关的VR资产、视频、音频或其他媒体或数据,然后中枢1014直接、在执行本地处理之后、和/或在添加附加本地内容之后将其提供给UE。在又一示例中,中枢1014充当UE的代理服务器或协调器,特别是在一个或多个UE是低能量IoT设备的情况下。
中枢1014可以具有到网络节点1010b的持续/持久或间歇连接。中枢1014还可以允许中枢1014与UE(例如,UE 1012C和/或1012D)之间以及中枢1014与核心网络1006之间的不同通信方案和/或调度。在其他示例中,中枢1014经由有线连接连接到核心网络1006和/或一个或多个UE。此外,中枢1014可以被配置为通过接入网络1004连接到M2M服务提供商和/或通过直接连接连接到另一个UE。在一些场景中,UE可以与网络节点1010建立无线连接,同时仍然经由有线或无线连接经由中枢1014连接。在一些实施例中,中枢1014可以是专用中枢,也就是说,其主要功能是从/向网络节点1010B向/从UE路由通信的中枢。在其他实施例中,中枢1014可以是非专用中枢,即,能够操作以在UE与网络节点1010B之间路由通信但另外能够作为某些数据信道的通信起点和/或终点的设备。
图11示出了根据一些实施例的UE 1100。如本文所使用的,UE是指能够、被配置、布置和/或可操作来与网络节点和/或其他UE进行无线通信的设备。UE的示例包括但不限于智能电话、移动电话、蜂窝电话、IP语音(VoIP)电话、无线本地环路电话、台式计算机、个人数字助理(PDA)、无线相机、游戏控制台或设备、音乐存储设备、回放装置、可佩戴终端设备、无线端点、移动站、平板电脑、膝上型电脑、膝上型电脑嵌入式设备(LEE)、膝上型电脑安装设备(LME)、智能设备、无线用户驻地设备(CPE)、车载或车载嵌入式/集成无线设备等。其他示例包括由第三代合作伙伴计划(3GPP)标识的任何UE,包括窄带物联网(NB-IoT)UE、机器类型通信(MTC)UE和/或增强型MTC(eMTC)UE。
UE可以支持设备到设备(D2D)通信,例如通过实现用于侧链路通信、专用短程通信(DSRC)、车辆到车辆(V2V)、车辆到基础设施(V2I)或车辆到一切(V2X)的3GPP标准。在其他示例中,UE可能不一定具有拥有和/或操作相关设备的人类用户意义上的用户。取而代之,UE可以表示旨在出售给人类用户或由人类用户操作的设备,但是该设备可能不与特定的人类用户相关联,或最初可能不与特定的人类用户相关联(例如,智能灌溉控制器)。替代地,UE可以表示不旨在出售给终端用户或由终端用户操作的设备,但是该设备可以与用户相关联或为用户的利益而操作(例如,智能电表)。
UE 1100包括处理电路1102,该处理电路1102经由总线1104可操作地耦接到输入/输出接口1106、电源1108、存储器1110、通信接口1112和/或任何其他组件或其任何组合。某些UE可以利用图11中所示的所有组件或组件的子集。组件之间的集成水平可能因UE而异。此外,某些UE可以包含组件的多个实例,诸如多个处理器、存储器、收发机、发射机、接收机等。
处理电路1102被配置为处理指令和数据,并且可以被配置为实现可操作来执行作为机器可读计算机程序存储在存储器1110中的指令的任何顺序状态机。处理电路1102可以被实现为一个或多个硬件实现的状态机(例如,在离散逻辑、现场可编程门阵列(FPGA)、专用集成电路(ASIC)等中);可编程逻辑以及适当的固件;一个或多个存储的计算机程序、通用处理器,诸如微处理器或数字信号处理器(DSP),以及适当的软件;或上述的任意组合。例如,处理电路1102可以包括多个中央处理单元(CPU)。
在该示例中,输入/输出接口1106可以被配置为向输入设备、输出设备或一个或多个输入和/或输出设备提供一个或多个接口。输出设备的示例包括扬声器、声卡、视频卡、显示器、监视器、打印机、致动器、发射机、智能卡、另一输出设备或其任意组合。输入设备可以允许用户将信息捕获到UE 1100中。输入设备的示例包括触敏或存在敏感显示器、相机(例如,数码相机、数码摄像机、网络相机等)、麦克风、传感器、鼠标、轨迹球、方向板、轨迹板、滚轮、智能卡等等。存在敏感显示器可以包括电容式或电阻式触摸传感器,以感测来自用户的输入。传感器可以是例如加速度计、陀螺仪、倾斜传感器、力传感器、磁力计、光学传感器、接近传感器、生物传感器等,或它们的任意组合。输出设备可以使用与输入设备相同类型的接口端口。例如,通用串行总线(USB)端口可以用于提供输入设备和输出设备。
在一些实施例中,电源1108被构造为电池或电池组。可以使用其他类型的电源,诸如外部电源(例如电源插座)、光伏器件或电池。电源1108还可以包括电源电路,用于经由输入电路或诸如电力电缆之类的接口将来自电源1108本身和/或外部电源的电力输送到UE1100的各个部分。输送电力可以例如用于电源1108的充电。电源电路可以对来自电源1108的电力执行任何格式化、转换或其他修改,以使电力适合于向其供电的UE 1100的各个组件。
存储器1110可以是或被配置为包括存储器,诸如随机存取存储器(RAM)、只读存储器(ROM)、可编程只读存储器(PROM)、可擦除可编程只读存储器(EPROM)、电可擦除可编程只读存储器(EEPROM)、磁盘、光盘、硬盘、可移动盒式磁带、闪存驱动器等。在一个示例中,存储器1110包括一个或多个应用程序1114,诸如操作系统、网络浏览器应用、窗口小部件、窗口小部件引擎或其他应用,以及对应的数据1116。存储器1110可以存储供UE 1100使用的任何各种操作系统或操作系统的组合。
存储器1110可以被配置为包括多个物理驱动单元,诸如独立磁盘冗余阵列(RAID)、闪存、USB闪存驱动器、外部硬盘驱动器、拇指驱动器、笔驱动器、密钥驱动器、高密度数字多功能光盘(HD-DVD)光盘驱动器、内部硬盘驱动器、蓝光光盘驱动器、全息数字数据存储(HDDS)光盘驱动器、外部迷你双列直插式存储器模块(DIMM)、同步动态随机存取存储器(SDRAM)、外部微型DIMM SDRAM、智能卡存储器(诸如通用集成电路卡(UICC)形式的防篡改模块,包括一个或多个用户识别模块(SIM)(诸如USIM和/或ISIM))、其他存储器或其任意组合。例如,UICC可以是嵌入式UICC(eUICC)、集成UICC(iUICC)或通常称为‘SIM卡’的可移动UICC。存储器1110可以允许UE 1100访问存储在暂时性或非暂时性存储介质上的指令、应用程序等,以卸载数据或上传数据。诸如利用通信系统的制品可以有形地具体实施为存储器1110或具体实施在存储器1110中,该存储器可以是或包括设备可读存储介质。
处理电路1102可以被配置为使用通信接口1112与接入网络或其他网络进行通信。通信接口1112可以包括一个或多个通信子系统,并且可以包括天线1122或通信耦接到天线1122。通信接口1112可以包括用于通信的一个或多个收发机,诸如通过与能够进行无线通信的另一设备(例如,接入网络中的另一UE或网络节点)的一个或多个远程收发机进行通信。每个收发机可以包括适于提供网络通信(例如,光、电、频率分配等)的发射机1118和/或接收机1120。此外,发射机1118和接收机1120可以耦接到一个或多个天线(例如,天线1122),并且可以共享电路组件、软件或固件,或替代地单独实现。
在示出的实施例中,通信接口1112的通信功能可以包括蜂窝通信、Wi-Fi通信、LPWAN通信、数据通信、语音通信、多媒体通信、诸如蓝牙的短程通信、近场通信、诸如使用全球定位系统(GPS)来确定位置的基于位置的通信、另一类似的通信功能或其任意组合。通信可以根据一个或多个通信协议和/或标准来实现,诸如IEEE 802.11、码分复用接入(CDMA)、宽带码分多址(WCDMA)、GSM、LTE、新无线电(NR)、UMTS、WiMax、以太网、传输控制协议/互联网协议(TCP/IP)、同步光网络(SONET)、异步传送模式(ATM)、QUIC、超文本传送协议(HTTP)等等。
不管传感器的类型如何,UE都可以通过其通信接口1112,经由到网络节点的无线连接,提供由其传感器捕获的数据的输出。由UE的传感器捕获的数据可以经由另一个UE通过无线连接传送到网络节点。输出可以是周期性的(例如,如果它报告所感测的温度,则每15分钟一次)、随机的(例如,使来自几个传感器的报告的负载均匀)、响应于触发事件(例如,当检测到湿气时,发送警报)、响应于请求(例如,用户发起的请求)、或连续流(例如,患者的实况视频馈送)。
作为另一个示例,UE包括与通信接口相关的致动器、马达或开关,该通信接口被配置为经由无线连接从网络节点接收无线输入。响应于接收到的无线输入,致动器、马达或开关的状态可以改变。例如,UE可以包括马达,该马达根据接收到的输入来调节飞行中的无人机的控制表面或旋翼,或根据接收到的输入来调节执行医疗程序的机器人手臂。
当呈物联网(IoT)设备的形式时,UE可以是在一个或多个应用领域中使用的设备,这些领域包括但不限于城市可穿戴技术、扩展的工业应用和医疗保健。这种IoT设备的非限制性示例是或嵌入以下设备中的设备:连接的冰箱或冰柜、TV、连接的照明设备、电表、机器人真空吸尘器、声控智能扬声器、家庭安全摄像机、运动检测器、恒温器、烟雾检测器、门/窗传感器、洪水/湿气传感器、电子门锁、连接的门铃、类似热泵的空调系统、自动驾驶车辆、监视系统、天气监视设备、车辆停放监视设备、电动车辆充电站、智能手表、健身追踪器、用于增强现实(AR)或虚拟现实(VR)的头戴式显示器、用于触觉增强或感觉增强的可穿戴设备、洒水器、动物或物品跟踪设备、用于监视植物或动物的传感器、工业机器人、无人驾驶飞行器(UAV)以及任何种类的医疗设备,如心率监视器或遥控手术机器人。除了关于图11中所示的UE 1100描述的其他组件之外,IoT设备形式的UE包括依赖于IoT设备的预期应用的电路和/或软件。
作为另一个具体示例,在IoT场景中,UE可以表示执行监视和/或测量并且将这种监视和/或测量的结果发送到另一个UE和/或网络节点的机器或其他设备。在这种情况下,UE可以是M2M设备,其在3GPP上下文中可以被称为MTC设备。作为一个特定示例,UE可以实现3GPP NB-IoT标准。在其他场景中,UE可以表示交通工具,诸如汽车、公共汽车、卡车、轮船和飞机,或能够监视和/或报告其操作状态或与其操作相关联的其他功能的其他设备。
实际上,对于单个用例,可以一起使用任意数量的UE。例如,第一UE可以是或集成在无人机中,并且向作为操作无人机的遥控器的第二UE提供无人机的速度信息(通过速度传感器获得)。当用户通过遥控器做出改变时,第一UE可以调整无人机上的油门(例如,通过控制致动器)以增加或降低无人机的速度。第一和/或第二UE还可以包括多于一个的上述功能。例如,UE可以包括传感器和致动器,并且处理速度传感器和致动器两者的数据通信。
图12示出了根据一些实施例的网络节点1200。如本文所使用的,网络节点是指能够、被配置、布置和/或可操作来与电信网络中的UE和/或其他网络节点或设备直接或间接通信的设备。网络节点的示例包括但不限于接入点(AP)(例如,无线电接入点)、基站(BS)(例如,无线电基站、节点B、演进节点B(eNB)和NR节点B(gNB))。
基站可以基于它们提供的覆盖量(或换句话说,它们的发射功率电平)来分类,因此,根据所提供的覆盖量,基站可以被称为毫微微基站、微微基站、微基站或宏基站。基站可以是中继节点或控制中继的中继施主节点。网络节点还可以包括分布式无线电基站的一个或多个(或所有)部分,诸如集中式数字单元和/或远程无线电单元(RRU),有时称为远程无线电头端(RRH)。此类远程无线电单元可以或可以不与天线集成为天线集成无线电。分布式无线电基站的部分也可以被称为分布式天线系统(DAS)中的节点。
网络节点的其他示例包括多传输点(多TRP)5G接入节点、诸如MSR BS的多标准无线电(MSR)设备、诸如无线电网络控制器(RNC)或基站控制器(BSC)的网络控制器、基站收发台(BTS)、传输点、传输节点、多小区/多播协调实体(MCE)、操作和维护(O&M)节点、操作支持系统(OSS)节点、自组织网络(SON)节点、定位节点(例如,演进服务移动定位中心(E-SMLC))和/或最小化路试(MDT)。
网络节点1200包括处理电路1202、存储器1204、通信接口1206和电源1208。网络节点1200可以由多个物理上分离的组件(例如,NodeB组件和RNC组件,或BTS组件和BSC组件等)组成,它们可以各自具有相应的组件。在网络节点1200包括多个独立组件(例如,BTS和BSC组件)的某些场景中,独立组件中的一个或多个可以在几个网络节点之间共享。例如,单个RNC可以控制多个NodeB。在这种场景下,每个唯一的NodeB和RNC对在一些情况下可以被认为是单个单独的网络节点。在一些实施例中,网络节点1200可以被配置为支持多种无线电接入技术(RAT)。在这样的实施例中,可以复制一些组件(例如,用于不同RAT的单独的存储器1204),并且可以重用一些组件(例如,不同RAT可以共享相同的天线1210)。网络节点1200还可以包括集成到网络节点1200中的不同无线技术的多组各种所示组件,例如GSM、WCDMA、LTE、NR、WiFi、Zigbee、Z-wave、LoRaWAN、射频识别(RFID)或蓝牙无线技术。这些无线技术可以集成到网络节点1200内的相同或不同的芯片或芯片组以及其他组件中。
处理电路1202可以包括微处理器、控制器、微控制器、中央处理单元、数字信号处理器、专用集成电路、现场可编程门阵列或任何其他合适的计算设备、资源或硬件、软件和/或编码逻辑的组合中的一个或多个的组合,它们可操作来单独地或结合诸如存储器1204的其他网络节点1200组件来提供网络节点1200的功能。
在一些实施例中,处理电路1202包括片上系统(SOC)。在一些实施例中,处理电路1202包括射频(RF)收发机电路1212和基带处理电路1214中的一个或多个。在一些实施例中,射频(RF)收发机电路1212和基带处理电路1214可以在单独的芯片(或芯片组)、电路板或单元上,诸如无线电单元和数字单元。在替代实施例中,RF收发机电路1212和基带处理电路1214的部分或全部可以在同一芯片或同一组芯片、电路板或单元上。
存储器1204可以包括任何形式的易失性或非易失性计算机可读存储器,包括但不限于永久存储器、固态存储器、远程安装的存储器、磁介质、光介质、随机存取存储器(RAM)、只读存储器(ROM)、大容量存储介质(例如,硬盘)、可移动存储介质(例如,闪存驱动器、光盘(CD)或数字视频盘(DVD))和/或存储可以由处理电路1202使用的信息、数据和/或指令的任何其他易失性或非易失性、非暂时性设备可读和/或计算机可执行存储设备。存储器1204可以存储任何合适的指令、数据或信息,包括计算机程序、软件、包括逻辑、规则、代码、表格和/或能够由处理电路1202执行并且由网络节点1200使用的其他指令中的一个或多个的应用。存储器1204可以用于存储由处理电路1202进行的任何计算和/或经由通信接口1206接收的任何数据。在一些实施例中,处理电路1202和存储器1204是集成的。
通信接口1206用于网络节点、接入网络和/或UE之间的信令和/或数据的有线或无线通信。如图所示,通信接口1206包括端口/终端1216,用于例如通过有线连接向网络发送数据和从网络接收数据。通信接口1206还包括无线电前端电路1218,其可以耦接到天线1210,或在某些实施例中是天线1210的一部分。无线电前端电路1218包括滤波器1220和放大器1222。无线电前端电路1218可以连接到天线1210和处理电路1202。无线电前端电路可以被配置为调节在天线1210与处理电路1202之间传送的信号。无线电前端电路1218可以接收要经由无线连接发送到其他网络节点或UE的数字数据。无线电前端电路1218可以使用滤波器1220和/或放大器1222的组合将数字数据转换成具有适当信道和带宽参数的无线电信号。无线电信号然后可以经由天线1210发送。类似地,当接收数据时,天线1210可以收集无线电信号,该无线电信号然后被无线电前端电路1218转换成数字数据。数字数据可以被传递到处理电路1202。在其他实施例中,通信接口可以包括不同的组件和/或组件的不同组合。
在某些替代实施例中,网络节点1200不包括单独的无线电前端电路1218,而是处理电路1202包括无线电前端电路并且连接到天线1210。类似地,在一些实施例中,RF收发机电路1212中的所有或一些是通信接口1206的一部分。在其他实施例中,通信接口1206包括一个或多个端口或终端1216、无线电前端电路1218和RF收发机电路1212,作为无线电单元(未示出)的一部分,并且通信接口1206与基带处理电路1214通信,该基带处理电路是数字单元(未示出)的一部分。
天线1210可以包括被配置为发送和/或接收无线信号的一个或多个天线或天线阵列。天线1210可以耦接到无线电前端电路1218,并且可以是能够无线发送和接收数据和/或信号的任何类型的天线。在某些实施例中,天线1210与网络节点1200分离,并且可通过接口或端口连接到网络节点1200。
天线1210、通信接口1206和/或处理电路1202可以被配置为执行本文描述为由网络节点执行的任何接收操作和/或某些获取操作。可以从UE、另一个网络节点和/或任何其他网络设备接收任何信息、数据和/或信号。类似地,天线1210、通信接口1206和/或处理电路1202可以被配置为执行本文描述为由网络节点执行的任何发送操作。任何信息、数据和/或信号可以被发送到UE、另一个网络节点和/或任何其他网络设备。
电源1208以适合于各个组件的形式(例如,以每个相应组件所需的电压和电流水平)向网络节点1200的各个组件供电。电源1208还可以包括或耦接到电源管理电路,以向网络节点1200的组件供电来执行本文描述的功能。例如,网络节点1200可以经由诸如电缆的输入电路或接口连接到外部电源(例如,电网、电源插座),由此外部电源向电源1208的电源电路供电。作为另一个示例,电源1208可以包括电池或电池组形式的电源,其连接到或集成在电源电路中。如果外部电源出现故障,电池可以提供备用电源。
网络节点1200的实施例可以包括除了图12中示出的组件之外的附加组件,用于提供网络节点功能的某些方面,包括本文描述的任何功能和/或支持本文描述的主题所必需的任何功能。例如,网络节点1200可以包括用户接口设备,以允许向网络节点1200输入信息,并且允许从网络节点1200输出信息。这可以允许用户对网络节点1200执行诊断、维护、修理和其他管理功能。
图13是根据本文描述的各个方面的主机1300的框图,该主机可以是图10的主机1016的实施例。如本文所用,主机1300可以是或包括硬件和/或软件的各种组合,包括独立服务器、刀片服务器、云实现的服务器、分布式服务器、虚拟机、容器或服务器场中的处理资源。主机1300可以向一个或多个UE提供一个或多个服务。
主机1300包括处理电路1302,其经由总线1304可操作地耦接到输入/输出接口1306、网络接口1308、电源1310和存储器1312。在其他实施例中可以包括其他组件。这些组件的特征可以基本上类似于关于先前附图(诸如图11和图12)的设备所描述的那些特征,使得其描述通常适用于主机1300的对应组件。
存储器1312可以包括一个或多个计算机程序,包括一个或多个主机应用程序1314和数据1316,该数据可以包括用户数据,例如由UE为主机1300生成的数据或由主机1300为UE生成的数据。主机1300的实施例可以仅利用所示组件的子集或全部。主机应用程序1314可以在基于容器的架构中实现,并且可以提供对视频编解码器(例如,通用视频编码(VVC)、高效视频编码(HEVC)、高级视频编码(AVC)、MPEG、VP9)和音频编解码器(例如,FLAC、高级音频编码(AAC)、MPEG、G.711)的支持,包括对多个不同类别、类型或实现的UE(例如,手机、台式计算机、可穿戴显示系统、平视显示系统)的代码转换。主机应用程序1314还可以提供用户认证和许可检查,并且可以周期性地向中央节点(诸如核心网络中或边缘上的设备)报告健康、路由和内容可用性。相应地,主机1300可以为UE选择和/或指示不同的主机用于超负荷服务。主机应用程序1314可以支持各种协议,诸如HTTP直播流(HLS)协议、实时消息协议(RTMP)、实时流协议(RTSP)、基于HTTP的动态自适应流(MPEG-DASH)等。
图14是示出虚拟化环境1400的框图,在该虚拟化环境中,由一些实施例实现的功能可以被虚拟化。在本上下文中,虚拟化意味着创建装置或设备的虚拟版本,这可以包括虚拟化硬件平台、存储设备和网络资源。如本文所使用的,虚拟化可以应用于本文描述的任何设备或其组件,并且涉及其中至少一部分功能被实现为一个或多个虚拟组件的实现。本文描述的一些或所有功能可以被实现为由一个或多个虚拟环境1400中实现的一个或多个虚拟机(VM)执行的虚拟组件,该虚拟环境由一个或多个硬件节点(诸如作为网络节点、UE、核心网络节点或主机操作的硬件计算设备)托管。此外,在虚拟节点不需要无线电连接(例如,核心网络节点或主机)的实施例中,节点可以被完全虚拟化。
应用1402(可以替代地称为软件实例、虚拟设备、网络功能、虚拟节点、虚拟网络功能等)在虚拟化环境1400中运行,以实现本文公开的一些实施例的一些特征、功能和/或益处。
硬件1404包括处理电路、存储可由硬件处理电路执行的软件和/或指令的存储器,和/或本文所述的其他硬件设备,诸如网络接口、输入/输出接口等。软件可以由处理电路执行以实例化一个或多个虚拟化层1406(也称为管理程序或虚拟机监视器(VMM)),提供VM1408a和1408b(其中一个或多个可以统称为VM 1408),和/或执行关于本文描述的一些实施例描述的任何功能、特征和/或益处。虚拟化层1406可以向VM 1408呈现看起来像网络硬件的虚拟操作平台。
VM 1408包括虚拟处理、虚拟存储器、虚拟网络或接口以及虚拟存储,并且可以由对应的虚拟化层1406运行。虚拟设备1402的实例的不同实施例可以在VM 1408中的一个或多个上实现,并且这些实现方式可以以不同的方式进行。硬件的虚拟化在一些上下文中被称为网络功能虚拟化(NFV)。NFV可以用于将多种类型的网络设备整合到行业标准的大容量服务器硬件、物理交换机和物理存储设备上,这些设备可以位于数据中心和客户驻地设备中。
在NFV的上下文中,VM 1408可以是运行程序的物理机器的软件实现,就像它们在物理的非虚拟化机器上执行一样。VM 1408中的每一个和执行该VM的硬件1404的一部分,无论是专用于该VM的硬件和/或该VM与其他VM共享的硬件,都形成单独的虚拟网络元件。仍然在NFV的上下文中,虚拟网络功能负责处理在硬件1404之上的一个或多个VM 1408中运行的特定网络功能,并且对应于应用1402。
硬件1404可以在具有通用或专用组件的独立网络节点中实现。硬件1404可以经由虚拟化实现一些功能。替代地,硬件1404可以是更大的硬件集群(例如,诸如在数据中心或CPE中)的一部分,其中许多硬件节点一起工作并且经由管理和协调1410来管理,该管理和协调尤其监督应用1402的生命周期管理。在一些实施例中,硬件1404耦接到一个或多个无线电单元,每个无线电单元包括可以耦接到一个或多个天线的一个或多个发射机和一个或多个接收机。无线电单元可以经由一个或多个适当的网络接口直接与其他硬件节点通信,并且可以与虚拟组件结合使用,以向虚拟节点提供无线电能力,诸如无线电接入节点或基站。在一些实施例中,可以使用控制系统1412来提供一些信令,该控制系统可以替代地用于硬件节点与无线电单元之间的通信。
图15示出了根据一些实施例的主机1502通过部分无线连接经由网络节点1504与UE 1506通信的通信图。根据各种实施例,现在将参考图15描述前面段落中讨论的UE(例如图10的UE 1012a和/或图11的UE 1100)、网络节点(例如图10的网络节点1010a和/或图12的网络节点1200)和主机(例如图10的主机1016和/或图13的主机1300)的示例性实现方式。
像主机1300一样,主机1502的实施例包括硬件,诸如通信接口、处理电路和存储器。主机1502还包括软件,该软件存储在主机1502中或可由主机1502访问,并且可由处理电路执行。该软件包括主机应用,该主机应用可操作以向远程用户提供服务,诸如经由在UE1506与主机1502之间延伸的过顶(OTT)连接1550连接的UE 1506。在向远程用户提供服务时,主机应用可以提供使用OTT连接1550发送的用户数据。
网络节点1504包括使其能够与主机1502和UE 1506通信的硬件。连接1560可以是直接的或通过核心网络(类似于图10的核心网络1006)和/或一个或多个其他中间网络,诸如一个或多个公共、私有或托管网络。例如,中间网络可以是主干网络或互联网。
UE 1506包括硬件和软件,其存储在UE 1506中或可由UE 1506访问,并且可由UE的处理电路执行。该软件包括客户端应用,诸如网络浏览器或运营商专用的“app”,其可操作以在主机1502的支持下经由UE 1506向人类或非人类用户提供服务。在主机1502中,正在执行的主机应用可以经由在UE 1506和主机1502处终止的OTT连接1550与正在执行的客户端应用进行通信。在向用户提供服务时,UE的客户端应用可以从主机的主机应用接收请求数据,并且响应于请求数据提供用户数据。OTT连接1550可以传送请求数据和用户数据。UE的客户端应用可以与用户交互以生成用户数据,该用户数据通过OTT连接1550提供给主机应用。
OTT连接1550可以经由主机1502与网络节点1504之间的连接1560以及经由网络节点1504与UE 1506之间的无线连接1570延伸,以提供主机1502与UE 1506之间的连接。可以在其上提供OTT连接1550的连接1560和无线连接1570已经被抽象地绘制,以示出主机1502与UE 1506之间经由网络节点1504的通信,而没有明确提及任何中间设备和经由这些设备的消息的精确路由。
作为经由OTT连接1 550发送数据的示例,在步骤1508中,主机1502提供用户数据,这可以通过执行主机应用来执行。在一些实施例中,用户数据与和UE 1506交互的特定人类用户相关联。在其他实施例中,用户数据与UE 1506相关联,该UE与主机1502共享数据,而无需明确的人工交互。在步骤1510中,主机1502向UE 1506发起携带用户数据的传输。主机1502可以响应于UE 1506发送的请求来发起传输。该请求可以由与UE 1506的人类交互或由在UE 1506上执行的客户端应用的操作引起。根据贯穿本公开描述的实施例的教导,传输可以经由网络节点1504传递。因此,在步骤1512中,根据贯穿本公开描述的实施例的教导,网络节点1504向UE 1506发送在主机1502发起的传输中携带的用户数据。在步骤1514中,UE1506接收传输中携带的用户数据,这可以由在UE 1506上执行的客户端应用来执行,该客户端应用与由主机1502执行的主机应用相关联。
在一些示例中,UE 1506执行向主机1502提供用户数据的客户端应用。用户数据可以在从主机1502接收的据的反应或响应中提供。因此,在步骤1516中,UE 1506可以提供用户数据,这可以通过执行客户端应用来执行。在提供用户数据时,客户端应用可以进一步考虑经由UE 1506的输入/输出接口从用户接收的用户输入。不管提供用户数据的具体方式如何,在步骤1518中,UE 1506经由网络节点1504向主机1502发起用户数据的传输。在步骤1520中,根据贯穿本公开描述的实施例的教导,网络节点1504从UE 1506接收用户数据,并且向主机1502发起接收到的用户数据的传输。在步骤1522中,主机1502接收由UE 1506发起的传输中携带的用户数据。
各种实施例中的一个或多个改进了使用OTT连接1550向UE 1506提供的OTT服务的性能,其中无线连接1570形成最后一段。更准确地说,这些实施例的教导可以提高数据速率和延迟,从而提供诸如减少用户等待时间、提高内容分辨率和更好的响应性之类的益处。
在示例性场景中,工厂状态信息可以由主机1502收集和分析。作为另一个示例,主机1502可以处理可能已经从UE获取的音频和视频数据,以用于创建地图。作为另一个示例,主机1502可以收集和分析实时数据以帮助控制车辆拥堵(例如,控制交通灯)。作为另一个示例,主机1502可以存储由UE上传的监控视频。作为另一个示例,主机1502可以存储或控制对媒体内容(诸如视频、音频、VR或AR)的访问,该主机可以向UE广播、多播或单播这些媒体内容。作为其他示例,主机1502可以用于能源定价、远程控制非时间关键的电力负载以平衡发电需求、定位服务、演示服务(诸如根据从远程设备收集的数据编译图表等),或收集、获取、存储、分析和/或发送数据的任何其他功能。
在一些示例中,可以出于监视数据速率、延迟和一个或多个实施例改进的其他因素的目的而提供测量过程。还可以有可选的网络功能,用于响应于测量结果的变化,重新配置主机1502与UE 1506之间的OTT连接1550。用于重新配置OTT连接的测量过程和/或网络功能可以在主机1502和/或UE 1506的软件和硬件中实现。在一些实施例中,传感器(未示出)可以部署在OTT连接1550通过的其他设备中或与其他设备相关联;传感器可以通过提供上面举例说明的被监视量的值或提供软件可以从中计算或估计被监视量的其他物理量的值来参与测量过程。OTT连接1550的重新配置可以包括消息格式、重传设置、优选路由等;重新配置不需要直接改变网络节点1504的操作。此类过程和功能在本领域中是已知的和可实践的。在某些实施例中,测量可以涉及专有UE信令,其利于由主机1502测量吞吐量、传播时间、延迟等。测量可以这样实现,即软件使用OTT连接1550传输消息,特别是空的或‘伪’消息,同时监视传播时间、错误等。
尽管本文描述的计算设备(例如,UE、网络节点、主机)可以包括所示的硬件组件的组合,但是其他实施例可以包括具有不同组件组合的计算设备。应当理解,这些计算设备可以包括执行本文公开的任务、特征、功能和方法所需的硬件和/或软件的任何合适的组合。本文描述的确定、计算、获得或类似操作可以由处理电路执行,该处理电路可以通过例如将获得的信息转换成其他信息、将获得的信息或转换的信息与存储在网络节点中的信息进行比较,和/或基于获得的信息或转换的信息执行一个或多个操作来处理信息,并且作为所述处理的结果做出确定。此外,虽然组件被描绘为位于较大框内或嵌套在多个框内的单个框,但是实际上,计算设备可以包括构成单个所示组件的多个不同的物理组件,并且可以在单独的组件之间划分功能。例如,通信接口可以被配置为包括本文描述的任何组件,和/或可以在处理电路和通信接口之间划分组件的功能。在另一个示例中,任何此类组件的非计算密集型功能可以在软件或固件中实现,而计算密集型功能可以在硬件中实现。
在某些实施例中,本文描述的功能中的一些或所有可以由执行存储在存储器中的指令的处理电路来提供,在某些实施例中,存储器可以是非暂时性计算机可读存储介质形式的计算机程序产品。在替代实施例中,所述功能中的一些或所有可以由处理电路提供,而不执行存储在单独或离散的设备可读存储介质上的指令,诸如以硬连线的方式。在这些特定实施例的任何一个中,无论是否执行存储在非暂时性计算机可读存储介质上的指令,处理电路都可以被配置为执行所描述的功能。由这种功能提供的益处不限于单独的处理电路或计算设备的其他组件,而是计算设备作为整体和/或终端用户和无线网络普遍享有。
在本公开的各种实施例的以上描述中,应当理解,本文使用的术语仅仅是为了描述特定实施例的目的,并不意图限制本公开的概念。除非另外定义,否则本文使用的所有术语(包括技术和科学术语)具有与本公开概念所属领域的普通技术人员通常理解的相同的含义。还应当理解,诸如在常用词典中定义的那些术语应当被解释为具有与它们在本说明书和相关领域的上下文中的含义一致的含义,并且不会被解释为理想化或过于正式的含义,除非在本文明确定义。
当一个元件被称为与另一个元件“连接”、“耦接”、“响应”或其变体时,它可以直接与另一个元件连接、耦接或响应,或可以存在中间元件。相反,当一个元件被称为与另一个元件“直接连接”、“直接耦接”、“直接响应”或其变体时,不存在中间元件。相同的数字始终指代相同的元件。此外,本文使用的“耦接”、“连接”、“响应”或其变体可以包括无线耦接、连接或响应。如本文所使用的,单数形式“一”、“一个”和“该”旨在也包括复数形式,除非上下文清楚地另外指出。为了简洁和/或清楚起见,可能不详细描述众所周知的功能或结构。术语“和/或”包括一个或多个相关列出项目的任何和所有组合。
应当理解,尽管术语第一、第二、第三等可能在本文被用来描述各种元件/操作,但是这些元件/操作不应该被这些术语所限制。这些术语仅用于区分一个元件/操作和另一个元件/操作。因此,在不脱离本公开概念的教导的情况下,一些实施例中的第一元件/操作在其他实施例中可以被称为第二元件/操作。在整个说明书中,相同的附图标记或相同的附图标记表示相同或相似的元件。
如本文所使用,术语“包括(comprise)”、“包括(comprising)”、“包括(comprises)”、“包括(include)”、“包括(including)”、“包括(includes)”、“具有(have)”、“具有(has)”、“具有(having)”或其变体是开放式的,并且包括一个或多个所述特征、整数、元件、步骤、组件或功能,但是不排除一个或多个其他特征、整数、元件、步骤、组件、功能或其组合的存在或添加。此外,如本文所使用,源自拉丁语短语“exempli gratia”的常见缩写“e.g.(例如)”可以用于介绍或指定前面提到的项目的一个或多个一般示例,并且不旨在限制这样的项目。源自拉丁语短语“id est”的常见缩写“i.e.(即)”可以用于指定更一般叙述中的特定项目。
本文参考计算机实现的方法、装置(系统和/或设备)和/或计算机程序产品的框图和/或流程图来描述示例实施例。应当理解,框图和/或流程图中的框以及框图和/或流程图中的框的组合可以通过由一个或多个计算机电路执行的计算机程序指令来实现。这些计算机程序指令可以被提供给通用计算机电路、专用计算机电路和/或其他可编程数据处理电路的处理器电路,以产生机器,使得经由计算机和/或其他可编程数据处理装置的处理器执行的指令转换和控制晶体管、存储在存储器位置中的值以及这种电路内的其他硬件组件,以实现框图和/或流程图的框中指定的功能/动作,从而创建用于实现框图和/或流程图的框中指定的功能/动作的装置(功能)和/或结构。
这些计算机程序指令也可以存储在有形的计算机可读介质中,其可以指导计算机或其他可编程数据处理装置以特定的方式运行,使得存储在计算机可读介质中的指令产生包括实现框图和/或流程图的一个或多个框中指定的功能/动作的指令的制品。因此,本公开概念的实施例可以具体实施在硬件和/或软件(包括固件、常驻软件、微代码等)中,其在诸如数字信号处理器的处理器上运行,它们可以统称为“电路”、“模块”或其变体。
还应注意,在一些替代实现方式中,方框中标注的功能/动作可以不按照流程图中标注的顺序发生。例如,连续示出的两个框实际上可以基本上同时执行,或这些框有时可以以相反的顺序执行,这取决于所涉及的功能/动作。此外,流程图和/或框图的给定框的功能可以分成多个框,和/或流程图和/或框图的两个或更多个框的功能可以至少部分集成。最后,在不脱离发明概念的范围的情况下,可以在所示的框之间添加/插入其他框,和/或可以省略框/操作。此外,尽管一些图包括通信路径上的箭头以示出通信的主要方向,但是应当理解,通信可以发生在与所示箭头相反的方向上。
在基本上不脱离本公开概念的原理的情况下,可以对实施例进行许多变更和修改。所有这些变更和修改都旨在包括在本公开概念的范围内。因此,以上公开的主题应被认为是说明性的,而不是限制性的,并且实施例的示例旨在覆盖所有这些修改、增强和其他实施例,它们都落入本公开概念的精神和范围内。因此,在法律允许的最大程度上,本公开概念的范围将由包括实施例及其等同物的示例在内的本公开的最广泛的可允许的解释来确定,并且不应受到前述详细描述的约束或限制。
参考文献
1.Ghosh,A.,Chung,J.,Yin,D.,and Ramchandran,K.An efficient frameworkfor clustered federated learning.In Advances in Neural Information ProcessingSystems 33:Annual Conference on Neural Information Processing Systems 2020,NeurIPS2020,December 6-12,2020,virtual,2020.URL https://proceedings.neurips.cc/paper/2020/hash/e32cc80bf07915058ce90722ee17bb71-Abstract.html。
Claims (23)
1.一种由本地计算设备(102、400)执行的用于通信网络中的协作机器学习(ML)的计算机实现的方法,所述方法包括:
从全局计算设备(104)接收(601)多个全局ML模型;
针对来自所述多个全局ML模型的每个相应全局ML模型,评估(603)所述本地计算设备的数据集合的度量,其中所述评估包括(i)生成随机数,以及(ii)将所述随机数与预定值进行比较;
从所述多个全局ML模型中选择(605)全局ML模型,其中所述选择是(i)当所述随机数小于所述预定值时,从所述多个全局ML模型中选择随机全局ML模型,或(ii)当所述随机数大于所述预定值时,从所述多个全局ML模型中选择对所述本地计算设备的所述数据集合具有最好性能的全局ML模型;以及
向所述全局计算设备(104)发送(607)所选择的全局ML模型或所述计算设备的来自所选择的全局ML模型的梯度。
2.根据权利要求1所述的方法,其中所述预定值是在一时间段内变化的预定浮点值。
3.根据权利要求1所述的方法,其中所述预定值是与一轮所述评估(603)相对应的时间段的预定浮点值,并且通过取J的函数f“f(J)”来计算,其中J是所述多个全局ML模型的数量,或所述预定浮点值被离线调谐。
4.根据权利要求1所述的方法,其中所述评估(603)和所述选择(605)被执行一时间段,其中所述时间段是小于在所述计算设备与所述服务器之间执行所述评估(603)和所述选择(605)的已定义最大通信轮次数的时间量。
5.根据权利要求1所述的方法,其中所述通信网络包括具有非独立且相同分布的非IID数据的多个计算设备。
6.根据权利要求1至5中任一项所述的方法,其中所述数据集合是训练数据集合,其中所述度量是所述训练数据集合上的损失,并且其中所述最好性能是所述训练数据集合上的最低损失。
7.根据权利要求1至6中任一项所述的方法,还包括:
使用所选择的全局ML模型对所述数据集合执行(701)至少一轮训练。
8.根据权利要求1至7中任一项所述的方法,其中所述评估(603)还包括对所述多个全局ML模型的探索和利用进行加权,以增加所述多个全局ML模型的收敛速度。
9.根据权利要求1至8中任一项所述的方法,其中所述通信网络是无线电接入网络,并且所选择的全局ML模型是用于所述无线电接入网络中的小区集群的辅助载波预测的ML模型。
10.根据权利要求1至8中任一项所述的方法,其中所述通信网络是无线电接入网络,并且所选择的全局ML模型是用于所述无线电接入网络中的网络节点集群的天线倾斜优化或改进预测的ML模型。
11.根据权利要求1至8中任一项所述的方法,其中所选择的全局ML模型是用于使用多种语言变体的本地计算设备集群的下一词语预测的ML模型。
12.一种由全局计算设备(104)执行的用于通信网络中的协作机器学习(ML)的计算机实现的方法,所述方法包括:
初始化(801)和训练多个全局ML模型;
从多个计算设备中选择(803)一组本地计算设备;
向识别的一组本地计算设备(104)中的每个相应本地计算设备发送所述多个全局ML模型;
从所述识别的一组本地计算设备中的每个相应本地计算设备接收(807)所选择的ML模型或相应本地计算设备的梯度;以及
使用从所述识别的一组本地计算设备中的每个相应本地计算设备接收的所选择的ML模型或相应本地计算设备的梯度来训练(809)所述多个全局ML模型。
13.根据权利要求12所述的方法,还包括:
重复执行(903)选择(803)、发送(805)、接收(807)和训练(809)的步骤,直到满足收敛条件为止。
14.根据权利要求12所述的方法,还包括:
基于预定义值或预定义条件来确定(901)数值,其中所述数值是正整数,其表示要在所述一组本地计算设备中选择的本地计算设备的数量。
15.根据权利要求13所述的方法,其中所满足的收敛条件包括所述多个全局ML模型达到收敛速度。
16.一种用于通信网络中的协作机器学习(ML)的本地计算设备(102、400),所述本地计算设备包括:
至少一个处理器(403);
至少一个存储器(405),其连接到所述至少一个处理器(403),并且存储由所述至少一个处理器执行以执行包括以下操作的程序代码:
从全局计算设备(104)接收多个全局ML模型;
针对来自所述多个全局ML模型中的每个相应全局ML模型,评估所述本地计算设备的数据集合的度量,其中所述评估包括(i)生成随机数,以及(ii)将所述随机数与预定值进行比较;
从所述多个全局ML模型中选择全局ML模型,其中所述选择是(i)当所述随机数小于所述预定值时,从所述多个全局ML模型中选择随机全局ML模型,或(ii)当所述随机数大于所述预定值时,从所述多个全局ML模型中选择对所述计算设备的所述数据集合具有最好性能的全局ML模型;以及
向所述全局计算设备(104)发送所选择的全局ML模型或所述本地计算设备的来自所选择的全局ML模型的梯度。
17.根据权利要求16所述的本地计算设备,所述至少一个存储器(405)连接到所述至少一个处理器(403),并且存储由所述至少一个处理器执行以执行根据权利要求2至11所述的操作的程序代码。
18.根据权利要求16所述的本地计算设备,适于执行根据权利要求2至11所述的操作。
19.一种用于通信网络中的协作机器学习(ML)的全局计算设备(104、500),所述全局计算设备包括:
至少一个处理器(503);
至少一个存储器(505),其连接到所述至少一个处理器(503),并且存储由所述至少一个处理器执行以执行包括以下操作的程序代码:
初始化(801)和训练多个全局ML模型;
从多个本地计算设备中选择(803)一组本地计算设备;
向识别的一组本地计算设备(102)中的每个相应本地计算设备发送所述多个全局ML模型;
从所述识别的一组本地计算设备中的每个相应本地计算设备接收(807)所选择的ML模型或相应本地计算设备的梯度;以及
使用从所述识别的一组本地计算设备中的每个相应本地计算设备接收的所选择的ML模型或相应本地计算设备的梯度来训练(809)所述多个全局ML模型。
20.根据权利要求19所述的全局计算设备,所述至少一个存储器(505)连接到所述至少一个处理器(503A),并且存储由所述至少一个处理器执行以执行根据权利要求13至15所述的操作的程序代码。
21.根据权利要求19所述的全局计算设备,适于执行根据权利要求13至15所述的操作。
22.一种计算机可读介质,包括当在计算机上执行时使所述计算机执行根据权利要求1至11中至少一项所述的方法的指令。
23.一种计算机可读介质,包括当在计算机上执行时使所述计算机执行根据权利要求12至15中至少一项所述的方法的指令。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202163209308P | 2021-06-10 | 2021-06-10 | |
US63/209,308 | 2021-06-10 | ||
PCT/SE2022/050571 WO2022260585A1 (en) | 2021-06-10 | 2022-06-10 | Selection of global machine learning models for collaborative machine learning in a communication network |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117441176A true CN117441176A (zh) | 2024-01-23 |
Family
ID=84425382
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202280040334.4A Pending CN117441176A (zh) | 2021-06-10 | 2022-06-10 | 用于通信网络中的协作机器学习的全局机器学习模型的选择 |
Country Status (3)
Country | Link |
---|---|
EP (1) | EP4352658A1 (zh) |
CN (1) | CN117441176A (zh) |
WO (1) | WO2022260585A1 (zh) |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170351969A1 (en) * | 2016-06-06 | 2017-12-07 | Microsoft Technology Licensing, Llc | Exploit-explore on heterogeneous data streams |
US20210125077A1 (en) * | 2019-10-25 | 2021-04-29 | The Governing Council Of The University Of Toronto | Systems, devices and methods for transfer learning with a mixture of experts model |
-
2022
- 2022-06-10 WO PCT/SE2022/050571 patent/WO2022260585A1/en active Application Filing
- 2022-06-10 EP EP22820663.7A patent/EP4352658A1/en active Pending
- 2022-06-10 CN CN202280040334.4A patent/CN117441176A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
EP4352658A1 (en) | 2024-04-17 |
WO2022260585A1 (en) | 2022-12-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230403573A1 (en) | Managing a radio access network operation | |
US20220369069A1 (en) | Modifying an event-based positioning procedure configured in a wireless device | |
CN117796127A (zh) | 随机接入划分与随机接入报告 | |
CN117693928A (zh) | 用于网络链路测量的方法和装置 | |
CN117441176A (zh) | 用于通信网络中的协作机器学习的全局机器学习模型的选择 | |
WO2024094176A1 (en) | L1 data collection | |
WO2024096805A1 (en) | Communicating based on network configuration identifier sharing | |
WO2023239287A1 (en) | Machine learning for radio access network optimization | |
WO2024040388A1 (en) | Method and apparatus for transmitting data | |
WO2023209577A1 (en) | Ml model support and model id handling by ue and network | |
WO2024099090A1 (en) | Method and apparatus for configuring event to terminal device | |
WO2023033687A1 (en) | Managing decentralized auotencoder for detection or prediction of a minority class from an imbalanced dataset | |
WO2024012799A1 (en) | Channel state information prediction using machine learning | |
WO2023066529A1 (en) | Adaptive prediction of time horizon for key performance indicator | |
WO2024096765A1 (en) | Scalable compressed sensing based beam identification | |
WO2023140767A1 (en) | Beam scanning with artificial intelligence (ai) based compressed sensing | |
WO2023211343A1 (en) | Machine learning model feature set reporting | |
CN117882324A (zh) | 无线通信网络中的探测参考信号传输 | |
CN117356037A (zh) | 无小区大规模多输入多输出的自适应混合预编码策略 | |
WO2024033905A1 (en) | Methods for activation and deactivation of sl prs | |
WO2024068891A1 (en) | Reduced user equipment uplink reporting overhead | |
WO2023191682A1 (en) | Artificial intelligence/machine learning model management between wireless radio nodes | |
WO2023211347A1 (en) | Inactive aperiodic trigger states for energy saving | |
CN118020278A (zh) | 5g核心网络中的机器学习(ml)模型重新训练 | |
WO2023192409A1 (en) | User equipment report of machine learning model performance |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication |