CN111967605A - 无线电接入网中的机器学习 - Google Patents

无线电接入网中的机器学习 Download PDF

Info

Publication number
CN111967605A
CN111967605A CN202010426387.2A CN202010426387A CN111967605A CN 111967605 A CN111967605 A CN 111967605A CN 202010426387 A CN202010426387 A CN 202010426387A CN 111967605 A CN111967605 A CN 111967605A
Authority
CN
China
Prior art keywords
model
data
common
local
endpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010426387.2A
Other languages
English (en)
Inventor
Z-C·洪卡萨洛
V·莱萨南
C·阿尔坎塔拉
A·舍哈塔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nokia Technologies Oy
Original Assignee
Nokia Technologies Oy
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nokia Technologies Oy filed Critical Nokia Technologies Oy
Publication of CN111967605A publication Critical patent/CN111967605A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/14Network analysis or design
    • H04L41/145Network analysis or design involving simulating, designing, planning or modelling of a network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/04Network management architectures or arrangements
    • H04L41/044Network management architectures or arrangements comprising hierarchical management structures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0803Configuration setting
    • H04L41/0823Configuration setting characterised by the purposes of a change of settings, e.g. optimising configuration for enhancing reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/16Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using machine learning or artificial intelligence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W16/00Network planning, e.g. coverage or traffic planning tools; Network deployment, e.g. resource partitioning or cells structures
    • H04W16/22Traffic simulation tools or models
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W24/00Supervisory, monitoring or testing arrangements
    • H04W24/02Arrangements for optimising operational condition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W24/00Supervisory, monitoring or testing arrangements
    • H04W24/04Arrangements for maintaining operational condition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Databases & Information Systems (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

根据本发明的示例方面,提供了一种方法,该方法包括,从无线电接入网的第一数据端点接收无线电接入网的第一数据端点的局部模型的表示,确定用于无线电接入网的多个共用模型,基于第一数据端点的局部模型的表示,选择多个共用模型中的、用于第一数据端点的一个共用模型,以及将所选择的共用模型传输给第一数据端点、利用所选择的所述共用模型的任何其他数据端点或任何其他外部系统。

Description

无线电接入网中的机器学习
技术领域
本发明的示例实施例总体上涉及通信网络,并且更具体地涉及无线电接入网中的机器学习。
背景技术
例如,可以在诸如5G网络等蜂窝通信网络中利用机器学习(ML)。在无线电接入网中利用ML可以支持针对各种用例使用适应性控制环,诸如,多输入多输出(MIMO)、波束控制和优化、调度、动态定位和/或各种无线电资源控制的闭环优化和分配决策算法。这种增强可以被用于改善频谱效率、网络资源利用和整体网络性能。此外,可以利用基于深度学习DL的算法来实现将统一的ML框架用于训练、应用和管理模型。
发明内容
根据一些方面,提供了独立权利要求的主题。在从属权利要求中定义了一些示例实施例。
根据第一方面,提供了第一方法,包括:从无线电接入网的第一数据端点接收无线电接入网的第一数据端点的局部模型的表示,确定用于无线电接入网的端点的多个共用模型,基于第一数据端点的局部模型的表示,选择所述多个共用模型中的、用于第一数据端点的一个共用模型,以及将所选择的共用模型传输给第一数据端点、利用所选择的共用模型的任何其他数据端点或任何其他外部系统。
根据第一方面,第一方法可以还包括:至少部分地基于第一数据端点的局部模型来确定所选择的共用模型。
根据第一方面,第一方法可以还包括:确定无线电接入网的第二数据端点的局部模型的表示,确定第一数据端点的局部模型相比于第二数据端点的局部模型是类似的,以及将第一和第二数据端点分组到一个组,其中该组可以与所选择的共用模型相关联。在一些实施例中,第一方法可以还包括:通过对第一数据端点的局部模型的参数以及第二数据端点的局部模型的参数进行平均,来确定所选择的共用模型。
根据第一方面,第一方法可以还包括:确定共用模型的数目M,确定N个数据端点的局部模型的表示,以及针对M个共用模型来对所述N个数据端点分组,使得所述N个数据端点中的每个数据端点与所述M个共用模型中的一个共用模型相关联。
根据第一方面,第一数据端点的局部模型的表示可以包括关于与第一数据端点的先前局部模型相比改变的参数的信息,并且所选择的共用模型基于改变的参数而被确定。
根据第二方面,提供了第二方法,该第二方法包括:从聚合单元接收无线电接入网的第一数据端点的共用模型,选择共用模型或无线电接入网的第一数据端点的局部模型,基于所选择的模型适配通信参数,以及使用通信参数通过空中接口来进行通信。
根据第二方面,第二方法可以还包括:确定使用局部模型而不是使用共用模型,以及基于该确定,使用局部模型来过空中接口来通信。
根据第二方面,第二方法可以还包括:将局部模型与共用模型进行比较,以及基于该比较,确定将使用局部模型还是使用共用模型。在一些实施例中,第二方法可以还包括:基于比较,确定局部模型比共用模型更准确,以及基于该确定,使用局部模型通过空中接口来通信。
根据本发明的第三方面,提供了一种装置,该装置包括至少一个处理核心以及包括计算机程序代码的至少一个存储器,该至少一个存储器和计算机程序代码被配置为与至少一个处理核心一起使该装置至少执行第一方法。
根据本发明的第四方面,提供了一种装置,该装置包括至少一个处理核心以及包括计算机程序代码的至少一个存储器,该至少一个存储器和计算机程序代码被配置为与至少一个处理核心一起使该装置至少执行第二方法。
根据本发明的第五方面,提供了一种装置,该装置包括用于执行第一方法的部件。根据本发明的第六方面,提供了一种装置,该装置包括用于执行第二方法的部件。
根据本发明的第七方面,提供了一种在其上存储有计算机可读指令集的非瞬态计算机可读介质,该计算机可读指令在由至少一个处理器执行时使装置至少执行第一方法。根据本发明的第八方面,提供了一种在其上存储有计算机可读指令集的非瞬态计算机可读介质,该计算机可读指令在由至少一个处理器执行时使装置至少执行第二方法。
根据本发明的第九方面,提供了一种计算机程序,该计算机程序被配置为执行第一方法。根据本发明的第十方面,提供了一种计算机程序,该计算机程序被配置为执行第二方法。
附图说明
图1图示了根据至少一些示例实施例的示例性网络场景;
图2图示了根据本发明的至少一些示例实施例的通信有效的、去中心化的学习系统的概述;
图3图示了根据本发明的至少一些示例实施例的模型的分组;
图4图示了根据本发明的至少一些示例实施例的模型的分布;
图5图示了能够支持本发明的至少一些示例实施例的示例装置;
图6图示了根据本发明的至少一些示例实施例的第一方法的流程图;以及
图7图示了根据本发明的至少一些示例实施例的第二方法的流程图。
具体实施方式
本发明的示例实施例涉及无线电接入网中的机器学习。更具体地,本发明的示例实施例使得能够通过使用多个共用模型来对无线电接入网(RAN)的端点进行分组,使得每个端点可以与所述多个共用模型中的一个共用模型相关联。与使用单个共用模型相比,使用多个共用模型支持较小的共用模型大小实现相同的准确度。备选地,如果所使用的共用模型大小与单个共用模型的大小相同,则可以改善所使用的共用模型的准确度,从而改善性能。当然,取决于所使用的共用模型的大小,各种均衡也是可能的。
另外,数据端点可以决定是否希望使用从聚合单元接收的共用模型或所讨论的数据端点的局部模型。即,数据端点可以选择在推理中是使用接收到的共用模型还是其局部模型,例如以基于所选择的模型来适配通信参数,然后使用所适配的通信参数通过空中接口来通信。
图1图示了根据至少一些示例实施例的示例性网络场景。根据图1的示例场景,可以存在蜂窝无线通信系统。蜂窝无线通信系统可以包括无线终端110、无线网络节点120和核心网130。无线终端110可以经由空中接口115连接至无线网络节点120,并且可能与无线网络节点120通信。
无线终端110可以是例如智能手机、蜂窝电话、用户设备UE、机器对机器M2M节点、机器类通信MTC节点、物联网IoT节点、汽车遥测单元、膝上型计算机、平板计算机,或者实际上是任何种类的合适的移动站或无线设备。可以根据第一无线电接入技术RAT来配置无线终端110和无线网络节点120之间的空中接口115或无线网络节点120的小区,无线终端110和无线网络节点120都被配置为支持该第一RAT。
蜂窝RAT的示例包括长期演进(LTE)、新无线电(NR,也可以称为第五代5G))无线电接入技术和MulteFire。另一方面,非蜂窝RAT的示例包括无线局域网(WLAN)和全球微波接入互操作性(WiMAX)。
在蜂窝RAT的情况下,无线网络节点120可以被称为BS或BS的小区。例如,在LTE的上下文中,BS可以被称为eNB,而在NR的上下文中,BS可以被称为gNB。在LTE和NR两者的情况下,无线终端110可以被称为UE。因此,关于图1,例如在NR的情况下,UE 110可以经由空中接口115与gNB 120或第一gNB 120的小区进行无线通信。而且,例如在WLAN的上下文中,无线网络节点110可以被称为接入点。无论如何,示例实施例不限于任何特定的无线技术。
在一些示例实施例中,无线网络节点120或无线网络节点120的小区可以被称为RAN的数据端点,其中,RAN包括无线终端110和无线网络节点120。
无线网络节点120可以经由接口125直接或经由至少一个中间节点与核心网130连接。聚合单元(未在图1中示出)可以或可以不驻留在核心网130中。实际上,在许多应用中,聚合可能不在核心网130中,但是聚合单元可以经由核心网130或经由直接连接至无线电接入网元件的网络操作、管理和其他操作支持系统接口连接至无线网络节点120。接口125可以是有线链路。核心网130可以继而经由接口135与另一网络(未在图1中示出)耦合,经由该另一网络,可以例如经由全球互连网络获得与其他网络的连接。
机器学习(ML)和深度学习(DL)可以在RAN中用于控制、优化、调度等。例如,可以在RAN中利用ML,以实现针对各种用例的高效且适应性的控制环,诸如,多输入多输出(MIMO)、波束控制和优化、调度、动态定位和/或各种无线电资源控制的闭环优化和分配决策算法。
与在RAN内使用ML和DL算法相关联的一个挑战是必须考虑产品平台的限制。例如,处理能力和存储器可能受到限制。而且,可能存在延迟要求,这可能会限制局部或共用模型的大小,从而限制该模型支持的输入参数的范围。此外,整个DL框架的实施方式需要考虑网络的拓扑,其中,RAN的诸如无线网络节点120等数据端点生成数据(例如,训练数据)或针对共用模型的局部模型。因此,一个挑战是如何获得训练数据和局部模型,以及如何以连续的方式确定共用模型并将其分配给类似的网络节点。
通常,在去中心化的数据系统中,诸如在蜂窝通信系统中,可能期望将增量学习任务分配给接近于数据源(诸如,无线终端110)的RAN的数据端点,因为数据总量可能太大而无法传输到中心位置(诸如,聚合单元)进行训练。而且,可能不希望将原始数据从RAN的数据端点传输到中心位置,因为原始数据可能是敏感的,例如,与接入控制UE属性或测量有关。
去中心化的数据系统可以包括类似的、但可能不相同的数据端点集合,其中每个数据端点可以具有其自己的系统状态行为,该行为通常由时间序列中的可测量属性集表示。例如,在蜂窝通信网络的情况下,RAN可以包括大量的无线网络节点120,诸如,小区,并且每个无线网络节点120可以具有其自己的行为状态,该行为状态由类如计数器和关键性能指标(KPI)等属性集来测量。在某种意义上说,例如,由于局部业务量的突然增加或无线网络节点120的配置的改变,无线网络节点120的状态可以随时间变化,所述蜂窝通信网络可以是生活系统。而且,无线网络节点120可能由于诸如不同的无线电传播环境等局部上下文而彼此不同。
无线网络节点120的局部上下文的可变性可能对训练DL模型构成挑战。例如,如果第二5G/NR小区的输入数据与第一5G/NR小区的输入数据相比有实质性差异,则利用来自第一5G/NR小区的输入数据训练的预测模型可能无法为第二5G/NR小区提供最佳结果。另一方面,如果使用单个小区的输入数据(即,局部数据)训练DL模型,则会将结果限制为潜在的次优状态,因为DL模型没有通过考虑其他小区的输入数据进行训练。因此模型无法从可能具有更好的性能水平的其他小区学习。另外,如果训练数据来自单个小区,则与使用多个小区的训练数据相比,参数空间的大小可能受到限制。因此,在一些示例实施例中,可以利用多个小区的训练数据。
在一些示例实施例中,ML方法可以被应用在蜂窝通信系统中,即,在使用局部和公共(即,全局)模型的通信有效的去中心化的学习系统中。例如,可以收集来自数据端点(即,无线网络节点120)的全部或子集的数据样本,并将其传输到中央训练单元,诸如,聚合单元。然后,中央训练单元可以基于从诸如无线网络节点120等数据端点接收的数据样本,例如通过批处理模式训练来创建一个或多个共用模型。接收到的数据可以例如基于领域专家(人类)定义的分组规则(诸如,无线网络节点120的配置参数和/或无线网络节点120的类似地理环境)而被静态地分组。然后可以针对每个组训练共用模型。因此,可以将共用模型应用于现有无线网络节点120的新时间序列,或者应用于新的无线网络节点120,以用于预测。
在这种情况下,可能需要将所有数据样本从无线网络节点120传输给中央训练单元,即,聚合单元,以用于训练。至少对于例如在5G时代中某些基于DL的系统来说,这可能是基本限制,其中闭环优化可以基于的是非常高分辨率的时间序列,诸如,百万秒级属性。因此,一些示例实施例进一步提供了一种用于高分辨率时间序列的新的、分布式的且通信有效的学习系统。
另一挑战是针对RAN的实际DL模型的实现需要实现对新无线网络节点120的模型初始化的优化处理。例如,可以希望新无线网络节点120以初始模型开始,为了避免从头开始,已经从具有类似条件的先前可操作的无线网络节点120集合训练该模型或针对该无线网络节点120集合训练过该模型。通常,应该避免从一开始就利用随机模型参数,因为这可能会阻止新的无线网络节点120在一段时间内正常运行。在最坏的情况下,由于不良的初始性能水平,从一开始就可能会阻止收敛。
此外,蜂窝RAN中利用ML可能需要使用无线终端110的特定行为属性或特定于端用户应用的行为属性,诸如,基于预测业务、移动性和/或带宽使用模型的无线电资源决策算法。可以通过监测和测量无线电协议的较低层中的每个无线电承载来获得特定于UE的行为属性,例如,通过驻留在无线网络节点120中的代理。
还可以通过驻留在无线网络节点120中的类似代理来测量特定于应用的行为属性,例如,监测不同网络接口和/或网关处的IP流。UE和特定于应用的行为属性可能太大而不能被传输给中央训练单元,并且更重要地,这种特定的行为属性可能被视为私有订户数据,应该格外小心地处理它们以符合隐私遵从性法规。一旦由每个无线网络节点120在局部学习到特定于UE的行为属性,就可以将其进一步聚合和分组,以便可以推理和应用UE组级别的无线电资源控制和优化策略。例如,无线网络节点120的局部模型的参数可以包括特定于UE的行为属性,诸如,活动时段、上行链路或下行链路业务量、经历的吞吐量和/或特定于应用的行为属性,诸如,每个IP流封装量、平均封装大小和标称比特率。
共用模型的参数因此可以包括特定于UE的行为属性和/或特定于应用的行为属性。通常,所述参数可以被用于控制通过空中接口(诸如,空中接口115)的传输和接收。因此,如果例如无线网络节点120使用所述参数分配用于无线终端110的无线电资源,则所述参数可以被用于通过空中接口传输和接收。
因此,本发明的示例实施例支持在诸如无线网络节点120的大量分布式数据端点之间进行通信有效的学习,并利用习得的模型来改善每个数据端点处的推理性能。在一些示例实施例中,数据端点可以是小区级算法单元,如无线网络节点120中的资源调度算法。而且,数据端点可以是无线终端110(诸如,UE)或UE组专用算法单元,如无线电承载准入控制单元或跨多个UE和多个小区的关联决策单元。
在一些示例实施例中,系统可以包括M个数据端点,其中每个数据端点可以包括局部学习单元和局部推理单元。例如,每个数据端点内的学习单元可以利用诸如多层感知器(MLP)、长短期记忆(LSTM)或卷积神经网络(CNN)等技术。
图2图示了根据本发明的至少一些示例实施例的通信有效的、去中心化的学习系统的概述。通信有效的、去中心化的学习系统可以包括M个数据端点2201–220M(诸如,无线网络节点120)和N个共用模型2101–210N。可以由聚合单元200确定共用模型2101–210N,并且可能将其存储和分布。在230中,所有数据端点2201–220M可以将经训练的数据模型或其表示传输给聚合单元200,并且在240中接收新的或更新的共用模型或其表示。经训练的数据模型可以被称为一个数据端点2201–220M的局部模型。
在一些示例实施例中,可以在每个数据端点2201–220M处执行推理和在线学习。例如,每个数据端点可以例如借助于反向传播(backpropagation)来执行在线学习,并且跟踪所讨论的数据端点2201–220M的局部模型的变化。来自数据端点2201–220M中的每个数据端点的局部模型可以例如周期性地或在局部模型的参数有足够的变化时被报告给聚合单元200。
可以在聚合期间由聚合单元200使用诸如x均值等算法动态推导多个共用模型N。多个共用模型N可以使用算法一次确定,或者可以定期地重新访问。
在一些示例实施例中,开始时聚合单元200中可以不存在共用模型。因此,每个数据端点2201–220M可以将关于其局部模型的信息传输给中央训练单元(例如,聚合单元200)以进行评估。关于局部模型的信息可以包括例如局部模型的表示。局部模型的表示可以是完整的局部模型。另外,关于局部模型的信息可以包括局部模型的估计准确度和/或用于生成局部模型的输入数据的统计特性。
备选地,在一些示例实施例中,可以收集来自所选数据端点2201–220M的输入数据样本的快照以用于离线特征调查,并且用于聚合单元200构建数据端点2201–220M的初始共用模型。
在一些示例实施例中,可以使用如网格搜索等标准技术来定义神经网络的架构,诸如,层数、每一层的类型和神经元的数量以及其他超参数(诸如,学习率)。例如,在机器学习中,可以使用所谓的超参数来定义有关模型的更高级别的概念,诸如,复杂性或学习能力。通常,超参数可以是预定义的。超参数的示例包括深层神经网络中的多个隐藏层以及k均值聚类(clustering)中的集群数。
在一些示例实施例中,聚合单元200可以确定共用模型的初始数目N。而且,聚合单元200还可以确定每个数据端点2201–220M的表示要被聚合到哪个共用模型,例如,通过比较局部模型和共用模型中矩阵的相似性。即,局部模型的相似性可以指的是在局部模型中具有类似的参数,即,第一数据端点2201的局部模型与第二数据端点2202的局部模型的参数之间的差异可以小于阈值。
在一些示例实施例中,可以确定模型拓扑。模型拓扑可以被称为由聚合单元200管理的每个数据端点2201–220M的局部模型与对应的共用模型2101–210N之间的关系或映射。模型拓扑可以使用例如聚类方法而被推导。在确定模型拓扑时,聚合单元200可以针对每个共用模型2101–210N来对数据端点2201–220M的局部模型的表示进行平均。模型拓扑可以是动态的,即,随时间变化。即,如果系统发生变化,则模型拓扑也可能发生变化。因此,在一些示例实施例中,可以在需要时更新模型拓扑。
在一些示例实施例中,可以至少部分地基于预定义的领域知识来得出多个共用模型N。例如,可以至少部分地基于每个业务量类型或每个小区配置类别的1个模型来得出多个共用模型N。在这种情况下,聚合单元200可以包括用于连续监测模型拓扑,标识是否应该添加(多个)新组和/或应该将任何给定的数据端点2201–220M更好地映射到不同组的功能。通过将自身数据模型的表示与现有组的数据模型的表示进行比较,数据端点可以参与合适映射的评估,并将评估结果告知聚合单元。
聚合单元200可以将从数据端点2201–220M接收的局部模型分组,即,聚合单元200可以基于接收到的局部模型对数据端点2201–220M进行分组。分组也可以被称为聚类。
图3图示了根据本发明的至少一些示例实施例的模型的分组。图3示出了共用模型2101–210N、平均单元2121–212N、组(即,集群2151–215N)以及来自数据端点2201–220M的数据。如图3所示,每个组2151–215N可以映射到一个共用模型2101–210N。即,一个共用模型与一个组(即,集群)相关联。
分组可以基于各种标准。例如,分组可以基于数据端点2201–220M的局部模型的矩阵元素。在这种情况下,矩阵元素的全部或子集可以被用于分组。备选地或另外,可以使用用于生成每个数据端点2201–220M的局部模型的输入数据的统计特性。为了分组,聚合单元200可以使用不同的算法,诸如,k均值、x均值或支持向量机SVM。
此外,在一些示例实施例中,数据端点2201–220M的相似性评定可以由聚合单元200执行以用于基于例如数据端点2201–220M的局部模型和/或局部模型的输入数据来分组。例如,针对基于模型的相似性评定,可以对可以在推理中使用的数据端点2201–220M的局部模型进行比较。作为示例,局部模型的第一层中的权重可以被用于将数据端点2201–220M的局部模型分组,并因此将数据端点2201–220M分组为共用模型2101–210N。在这种情况下,可能需要将权重发送到聚合单元200。
针对基于输入数据的相似性评定,共用模型2101–210N的输入数据的特性(诸如,数据指纹)可以由每个数据端点2201–220M发送给聚合单元200。例如,针对给定的采样间隔,输入数据的所述特性可以表示一个数据端点2201–220M的输入数据的特性的快照。
例如,数据端点2201–220M的局部模型的表示可以首先被映射到它们对应的共用模型2101–210N。然后,可以通过用于每个共用模型2101–210N的平均单元来执行平均。然后,经平均的共用模型2101–210N可以被传输给数据端点2201–220M,可以用于数据端点2201–220M处的下一次局部学习迭代。
在一些示例实施例中,可以将N个共用模型传回,即,被分布到数据端点2201–220M。而且,N个共用模型可以被用于新数据端点的初始化。
图4图示了根据本发明的至少一些示例实施例的模型的分布。如图4所示,每个集群(即,组2151–215N)可以与一个共用模型2101–210N相关联,并且每个共用模型2101–210N可以与一个或多个数据端点2201–220M相关联。例如,共用模型2101与数据端点2201–2203相关联,并且数据端点2201–2203位于组2151中。
可以将共用模型分布到数据端点2201–220M中的至少一个,以在下一迭代中改善局部模型的学习和收敛,和/或在至少一个数据端点2201–220M中对局部数据运行其推理和/或用作新部署的数据端点的初始模型,以便在新数据端点中进行推理并且进行增量学习。
因此,例如,第一数据端点2201可以从聚合单元200接收用于第一数据端点2201的共用模型。在接收到共用模型时,第一数据端点2201可以确定是使用其局部模型还是使用接收的共用模型,即,第一数据端点2201可以基于所选模型选择局部模型或接收的共用模型,例如以适配通信参数。然后,第一数据端点2201可以基于该确定使用局部模型或共用模型来执行无线通信算法计算,例如,进行系统负载的时间序列预测或者进行通信方案或系统参数组合的最优选择。因此,第一数据端点2201可以使用通信参数通过空中接口进行通信。所述通信参数可以包括例如传输功率、调制和编码方案等。
通常,局部模型和共用模型可以被用于控制通过空中接口(诸如,图1的空中接口115)的参数和接收。因此,例如,基于确定是使用RAN的第一数据端点的局部模型还是共用模型,第一数据端点2201可以控制通过空中接口的传输和接收。所述控制可以包括例如适应控制环、波束和/或无线电资源的分配。因此,发射器和接收器可以被配置用于基于所选择的局部模型或接收的共用模型通过空中接口进行通信。
也就是说,例如,第一数据端点2201可以基于由第一数据端点2201选择的模型(诸如,第一数据端点2201的局部模型或由第一数据端点2201接收的共用模型),分配用于通过空中接口传输和/或接收的无线电资源。在本发明的一些实施例中,通信被用来覆盖传输和接收两者。通常,可以使用图5的发射器530来执行参数,并且可以使用图5的接收器540来执行接收。因此,第一数据端点2201可以使用所选择的模型来通过空中接口进行通信。
在一些示例实施例中,第一数据端点2201可以确定将使用局部模型而不是使用接收的共用模型,并且在这种情况下,第一数据端点2201可以使用局部模型来执行无线通信。
而且,在一些示例实施例中,第一数据端点2201可以将其局部模型与接收到的共用模型进行比较。局部模型和共用模型的比较可以包括局部模型和共用模型的参数的比较。然后,第一数据端点2201可以基于比较确定是使用局部模型还是使用接收到的共用模型。例如,第一数据端点2201可以基于比较确定其局部模型比共用模型更准确,然后使用局部模型来执行无线通信。可以通过将预测值与数据端点中的实际接收值进行比较来获得这种准确度。因此,第一数据端点2201可以使用局部模型来适应通信参数并且使用该通信参数通过空中接口进行通信。
在一些示例实施例中,可以利用模型更新程序,使得在初始化共用模型2101–210N之后,系统可以以去中心化的方式继续学习。例如,可以例如基于模型拓扑在组内的表示之间执行平均,然后可以更新与所述组相关联的对应共用模型。
在一些示例实施例中,可以利用对每个数据端点2201–220M的先前局部模型的改变来更新共用模型2101–210N,从而避免将每个数据端点2201–220M的所有原始数据传输到中央训练单元,例如传输到图2的聚合单元200。
在一些示例实施例中,针对基于数据端点2201–220M的局部模型和输入数据进行分组的两种情况,如果从数据端点2201–220M到共用模型2101–210N的映射改变,则可能需要将数据端点2201–220M的局部模型发送到聚合单元200。然而,在一些示例实施例中,将数据端点2201–220M的局部模型的更新发送到聚合单元200可能就足够了。
在一些示例实施例中,每个数据端点2201–220M的局部模型的表示可以包括实际的推理模型或由于局部在线学习而对先前的局部模型的改变。如果局部模型的表示包括与先前的局部模型相比的变化,则可以对来自各种数据端点2201–220M的变化进行求和,并且可以基于求和的变化来确定共用模型。所确定的共用模型然后可以被传输到数据端点2201–220M。在一些示例实施例中,这可能需要同时更新所有共用模型。
可以以各种方式更新共用模型。在一些示例实施例中,可以在每个更新程序期间动态地确定模型拓扑。根据第一示例方法,数据端点2201–220M可以将整个局部模型发送到聚合单元200以进行聚合。然后,可以在每个组内的表示之间执行平均以确定更新的共用模型。例如,如果在聚合和分布之后未更新数据端点2201–220M的所有局部模型,则可以使用第一示例方法。
根据第二示例方法,可以在开始时定义单个基准模型。然后,数据端点2201–220M可以以分布式方式执行在线学习,并将对数据端点2201–220M的局部模型的更新发送到聚合单元200以用于聚合。对局部模型的所述更新可以包括相对于单个基准模型的更新,即,与单个基准模型相比的差异。
在接收到对局部模型的更新之后,聚合单元200可以针对更新执行分组和平均,并且针对与组相关联的每个共用模型,聚合单元200可以通过向单个基准模型添加一个组的更新的平均值来确定更新的共用模型。然后,聚合单元200可以将关于单个基准模型的每个共用模型的差异发送到数据端点2201–220M。然后,数据端点2201–220M可以通过将差异添加到单个基准模型来更新局部模型。在一些示例实施例中,可以以适当选择的速度来完成更新,例如,每个固定时间间隔或每一批或预定义的时间序列样本周期性地进行一次更新。
针对每个共用模型,可以对来自关联组的各个数据端点的更新求和,例如,可以针对共用模型2101对来自端点2201–2203的更新求和,因为端点2201–2203可以在组2151内,如图3所示。因此,作为结果,可以获取N个更新的共用模型。在一些示例实施例中,可以动态选择共用模型N的总数以及每个数据端点2201–220M与特定共用模型2101–210N的关联。在一些示例实施例中,模型聚类方法可以被用于对数据端点2201–220M进行分组。
在一些示例实施例中,如果从数据端点2201–220M映射到共用模型2101–210N,则来自数据端点2201–220M的更新可以被平均并应用于共用模型2101–210N中的每个共用模型。然而,如果至少一个数据端点2201–220M的映射已经改变,则可以相应地更新模型拓扑,并且可以将至少一个数据端点2201–220M添加到新组。
在一些示例实施例中,可以通过改变局部模型的超参数(hyperparameter)来提高数据端点2201–220M的局部模型的准确度。可以通过使用标准方法标识适当的超参数来执行所述改变。然后,可以使用与首次使用该系统时相同的步骤重新初始化系统。
在一些示例实施例中,可以在更新程序中使用相同的拓扑模型,并且可以将更新的共用模型2101–210N分布到相同的数据端点2201–220M,从中收集更新以更新共用模型2101–210N,以用于执行推理和/或用作下一学习迭代的基准。另一方面,在一些示例实施例中,可以将更新的共用模型分布到与数据端点2201–220M不同的数据端点,如果模型拓扑已改变,则从中收集更新以更新共用模型2101–210N。备选地或另外,在一些示例实施例中,如果当前局部模型的准确度足够高并且更新的共用模型针对端点特定数据具有较低的准确度,则可以不将至少一个数据端点2201–220M的局部模型替换为更新的共用模型。
在一些示例实施例中,可以将新的数据端点添加到系统。针对添加到系统中的每个新数据端点,可以使用确定性算法来选择要分派到新数据端点的最合适的共用模型,以由新数据端点用作初始局部模型。确定性选择算法可以位于诸如聚合单元200等中央实体中。而且,确定性选择算法可以基于例如最频繁分布的模型,或者基于数据端点配置参数、新数据端点的位置相似性、估计的业务和小区负载状况等。
在一些示例实施例中,可以利用对特定于无线终端110的模型的学习,诸如,无线终端110的应用业务的时间序列简档。模型拓扑从M到N的映射仍然可以应用,但是每个数据端点2201–220M的学习功能可以覆盖多于一个局部模型。例如,多个无线终端110可以被连接到一个无线网络节点120,并且所述多个无线终端110可以使用不同的应用。在这种情况下,聚合单元200可能需要将多于一个的共用模型2101–210N分布到一个数据端点,以用于下一次学习迭代。
示例实施例使所有数据端点2201–220M可以在本地执行连续学习,以捕获每个数据端点2201–220M的动态变化,并且聚合单元200可以利用所有数据进行对共用模型2101–210N的智能更新。此外,聚合单元200的使用(例如,在中央单元中)能够将类似的数据端点2201–220M分组为群组,从而与对模型参数执行简单的线性平均相比,可以获得更好匹配的共用模型2101–210N
而且,本发明的示例实施例为新数据端点提供了更优化的初始模型。可以使用共用模型来获得新数据端点的良好初始局部模型,从而使新数据端点可以比例如从局部模型初始中的随机位置开始更快地建立到最佳操作和性能状态。这对于立即实现良好的推理结果以及在新数据端点内训练局部模型都是有益的。
在一些示例实施例中,可以提供动态学习方法。动态学习方法可以包括使用多个共用模型2101–210N,与仅使用一个共用模型的情况相比,这可以使一个共用模型的大小保持较小。这加快了推理,并且在许多情况下,提高了局部模型的准确度,从而提高了性能。在一些示例实施例中,可以利用动态聚合来允许适应输入数据的变化,从而经常导致局部模型的参数的更快收敛。动态聚合还可以自动适应网络拓扑的变化。例如,如果添加了新的无线网络节点120,则不需要改变以在聚合和分布时使用它。
图5图示了能够支持至少一些示例实施例的示例装置。图示了设备500,其可以包括例如聚合单元200、第一数据端点2201或控制其功能的设备。设备500中包括处理器510,该处理器510可以包括例如单核或多核处理器,其中,单核处理器包括一个处理核心,而多核处理器包括一个以上的处理核心。处理器510通常可以包括控制设备。处理器510可以是用于执行设备500中的方法步骤的装置。处理器510可以至少部分地由计算机指令配置为执行动作。
处理器可以包括电路系统,或者被构成为一个或多个电路系统,该一个或多个电路系统被配置为执行根据本文描述的示例实施例的方法的阶段。如在本申请中所使用的,术语“电路系统”可以指代以下中的一个或多个或者所有:(a)仅硬件电路实施方式,诸如,仅模拟和/或数字电路系统中的实施方式,以及(b)硬件电路和软件的组合,诸如(如果适用的话):(i)(多个)模拟和/或数字硬件电路与软件/固件的组合,以及(ii)(多个)硬件处理器与软件(包括(多个)数字信号处理器、软件和(多个)存储器,其一起工作以使装置执行各种功能)的任何部分,以及(c)(多个)硬件电路和/或(多个)处理器,诸如,(多个)微处理器或(多个)微处理器的一部分,其要求软件(例如,固件)用于操作,但是当不需要用于操作时,可能不存在该软件。
电路系统的这种定义适用于本申请中该术语的所有使用,包括在任何权利要求中。作为又一示例,如在本申请中所使用的,术语电路系统也将覆盖仅硬件电路或处理器(或多个处理器)或者硬件电路或处理器的一部分及其(或它们的)伴随的软件和/或固件的实施方式。例如并且如果适用于特定权利要求元件的话,则术语电路系统还将覆盖用于服务器、蜂窝网络设备或者其他计算或网络设备中的移动电话或类似的集成电路的基带集成电路或处理器集成电路。
设备500可以包括存储器520。存储器520可以包括随机存取存储器和/或永久存储器。存储器520可以包括至少一个RAM芯片。存储器520可以包括例如固态、磁性、光学和/或全息存储器。存储器520可以至少部分地可被处理器510访问。存储器520可以至少部分地包括在处理器510中。存储器520可以是用于存储信息的装置。存储器520可以包括处理器510被配置为执行的计算机指令。当被配置为使处理器510执行某些动作的计算机指令被存储在存储器520中,并且设备500整体被配置为使用来自存储器520的计算机指令在处理器510的指导下运行,处理器510和/或其至少一个处理核心可以被认为被配置为执行所述某些动作。存储器520可以至少部分地包括在处理器510中。存储器520可以至少部分地在设备500外部但是设备500可以访问。
设备500可以包括发射器530。设备500可以包括接收器540。发射器530和接收器540可以被配置为分别进行传输和接收。
处理器510可以配备有发射器,该发射器被布置为经由设备500内部的电引线从处理器510向设备500中包括的其他设备输出信息。这种发射器可以包括串行总线发射器,例如,被布置为经由至少一根电引线将信息输出到存储器520以存储在其中。作为串行总线的替代,发射器可以包括并行总线发射器。同样地,处理器510可以包括接收器,该接收器被布置为经由设备500内部的电引线从设备500中包括的其他设备接收处理器510中的信息。这种接收器可以包括被布置为例如经由至少一根电引线从接收器540接收信息,以在处理器510中处理。作为串行总线的替代,该接收器可以包括并行总线接收器。
处理器510、存储器520、发射器530和接收器540可以通过设备500内部的电引线以多种不同方式互连。例如,每个前述设备可以分别连接至设备500内部的主总线,以允许设备交换信息。然而,如本领域技术人员将了解的,这仅是一个示例,并且取决于示例实施例,可以选择将至少两个前述设备互连的各种方式,而不脱离示例实施例的范围。
图6是根据本发明的至少一些示例实施例的第一方法的流程图。所图示的第一方法的阶段可以由聚合单元200或由被配置为控制其功能(可能在安装于其中时)的控制设备来执行。
第一方法可以包括:在步骤610中,从无线电接入网的第一数据端点接收无线电接入网的第一数据端点的局部模型的表示。第一方法还可以包括:在步骤620中,确定用于无线电接入网的端点的多个共用模型。另外,第一方法可以包括:在步骤630中,基于第一数据端点的局部模型的表示,选择所述多个共用模型中的、用于第一数据端点的一个共用模型。最终,第一方法可以包括:在步骤640中,将所选择的共用模型传输给第一数据端点、利用所选择的共用模型的任何其他数据端点或任何其他外部系统。
图7是根据本发明的至少一些示例实施例的第二方法的流程图。所图示的第二方法的阶段可以由第一数据端点2201或由被配置为控制其功能(可能在安装于其中时)的控制设备来执行。第一数据端点2201可以指例如无线终端110或无线网络节点120。
第二方法可以包括:在步骤710中,从聚合单元接收针对无线电接入网的第一数据端点的共用模型。第二方法还可以包括:在步骤720中,选择无线电接入网的第一数据端点的局部模型或共用模型。另外,第二方法可以包括:在步骤730中,基于所选择的模型来适配通信参数。最后,第二方法可以包括:在步骤740中,使用通信参数通过空中接口进行通信。
要理解,所公开的本发明的示例实施例不限于本文公开的特定结构、过程步骤或材料,而是被扩展至其等同物,如相关领域的普通技术人员将认识到的那样。还应该理解,本文采用的术语仅用于描述特定示例实施例的目的,并且不旨在是限制性的。
在整个说明书中对一个示例实施例或示例实施例的引用意味着结合该示例实施例描述的特定特征、结构或特性包括在本发明的至少一个示例实施例中。因此,在整个说明书中各处出现的短语“在一个示例实施例中”或“在示例性实施例中”不一定都指的是同一示例实施例。在使用诸如例如大约或大体上等术语来参考数值的情况下,也公开了确切的数值。
如本文使用的,为了方便起见,可以在共同的列表中呈现多个项目、结构元素、组成元素和/或材料。然而,这些列表应被解释为好像列表中的每个成员都被单独标识为单独且唯一的成员。因此,仅基于它们在共同组中的呈现而没有相反的指示,这种列表的任何单个成员都不应被解释为相同列表的任何其他成员的事实上的等同物。另外,本文中可以参考本发明的各种示例实施例和示例以及用于其各种组件的替代方案。要理解的是,这种示例实施例、示例和替代方案不应被理解为彼此的实际上的等同物,而应被认为是本发明的独立且自主的表示。
在示例性示例实施例中,诸如例如聚合单元200或第一数据端点2201等装置可以包括用于执行上述示例实施例及其任何组合的装置。
在示例性示例实施例中,计算机程序可以被配置为实现根据上述示例性实施例的方法及其任何组合。在示例性示例实施例中,体现在非瞬态计算机可读介质上的计算机程序产品可以被配置为控制处理器执行包括上述示例实施例及其任何组合的过程。
在示例性示例实施例中,诸如例如聚合单元200或第一数据端点2201的装置可以包括至少一个处理器以及包括计算机程序代码的至少一个存储器,其中,至少一个存储器和计算机程序代码被配置为与至少一个处理器一起使该装置至少执行上述示例实施例及其任何组合。
此外,所描述的特征、结构或特性可以在一个或多个实施例中以任何合适的方式组合。在前面的描述中,提供了许多具体细节,诸如,长度、宽度、形状等的示例,以提供对本发明的示例实施例的透彻理解。然而,相关领域的技术人员将认识到,可以在没有一个或多个特定细节的情况下或者在具有其他方法、组件、材料等的情况下实践本发明。在其他情况下,为了避免混淆本发明的各个方面,未详细示出或描述公知的结构、材料或操作。
尽管前述示例在一个或多个特定应用中说明了本发明的原理,但是对于本领域的普通技术人员而言显而易见的是,在不运用发明能力并且不脱离本发明的原理和概念的情况下,可以进行形式、使用和实施细节的多种修改。因此,除了由下面阐述的权利要求之外,无意限制本发明。
在本文档中使用动词“包括(to comprise)”和“包括(to include)”作为公开的限制,既不排除也不要求存在未叙述的特征。除非另有明确说明,否则在从属权利要求中列举的特征可以相互自由组合。此外,要理解的是,贯穿本文档使用“一”或者“一个”(即,单数形式)并不排除多个。
工业适用性
本发明的至少一些示例实施例在诸如例如5G/NR无线电接入网等蜂窝通信网络中找到了工业应用。
缩略词列表
BS 基站
CNN 卷积神经网络
DL 深度学习
GSM 全球移动通信系统
IoT 物联网
KPI 关键性能指标
LTE 长期演进
LTSM 长短期记忆
M2M 机器对机器
MIMO 多输入多输出
ML 机器学习
MLP 多层感知器
NR 新无线电
RAN 无线电接入网
RAT 无线电接入技术
SVM 支持向量机
UE 用户设备
UI 用户界面
WCDMA 宽带码分多址
WiMAX 全球微波接入互操作性
WLAN 无线局域网附图标记列表
Figure BDA0002498818350000221

Claims (10)

1.一种方法,包括:
-从无线电接入网的第一数据端点接收所述无线电接入网的所述第一数据端点的局部模型的表示;
-确定用于所述无线电接入网的端点的多个共用模型;
-基于所述第一数据端点的所述局部模型的所述表示,选择所述多个共用模型中的、用于所述第一数据端点的一个共用模型;以及
-将所选择的所述共用模型传输给所述第一数据端点、利用所选择的所述共用模型的任何其他数据端点或任何其他外部系统。
2.根据权利要求1的方法,还包括:
-至少部分地基于所述第一数据端点的所述局部模型来确定所选择的所述共用模型。
3.根据权利要求2的方法,还包括:
-确定所述无线电接入网的第二数据端点的局部模型的表示;
-确定所述第一数据端点的所述局部模型相比于所述第二数据端点的所述局部模型是类似的;以及
-将所述第一数据端点和所述第二数据端点分组为群组,其中所述群组与所选择的所述共用模型相关联。
4.根据权利要求3的方法,还包括:
-通过对所述第一数据端点的所述局部模型的参数和所述第二数据端点的所述局部模型的参数求平均,来确定所选择的所述共用模型。
5.根据权利要求1的方法,还包括:
-确定共用模型的数目M;
-确定N个数据端点的局部模型的表示;以及
-针对所述M个共用模型来对所述N个数据端点分组,使得所述N个数据端点中的每个数据端点与所述M个共用模型中的一个共用模型相关联。
6.根据权利要求1的方法,其中所述第一数据端点的所述局部模型的所述表示包括如下的信息,所述信息有关于与所述第一数据端点的先前局部模型相比改变的参数,并且所选择的所述共用模型基于所述改变的参数而被确定。
7.一种方法,包括:
-从聚合单元接收用于无线电接入网的第一数据端点的共用模型;
-选择所述共用模型或所述无线电接入网的所述第一数据端点的局部模型;
-基于所选择的所述模型来适配通信参数;以及
-使用所述通信参数通过空中接口来通信。
8.根据权利要求7的方法,还包括:
-确定所述局部模型将被使用,而不是所述共用模型将被使用;以及
-基于所述确定,使用所述局部模型通过所述空中接口来通信。
9.根据权利要求8的方法,其中选择所述局部模型或所述共用模型还包括:
-将所述局部模型与所述共用模型进行比较;以及
-基于所述比较,确定将使用所述局部模型还是所述共用模型。
10.根据权利要求9的方法,还包括:
-基于所述比较来确定所述局部模型比所述共用模型更准确;以及
-基于所述确定,使用所述局部模型通过所述空中接口来通信。
CN202010426387.2A 2019-05-20 2020-05-19 无线电接入网中的机器学习 Pending CN111967605A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP19175319.3A EP3742669B1 (en) 2019-05-20 2019-05-20 Machine learning in radio access networks
EP19175319.3 2019-05-20

Publications (1)

Publication Number Publication Date
CN111967605A true CN111967605A (zh) 2020-11-20

Family

ID=66676184

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010426387.2A Pending CN111967605A (zh) 2019-05-20 2020-05-19 无线电接入网中的机器学习

Country Status (3)

Country Link
US (1) US11617094B2 (zh)
EP (1) EP3742669B1 (zh)
CN (1) CN111967605A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022127867A1 (en) * 2020-12-17 2022-06-23 Telefonaktiebolaget Lm Ericsson (Publ) Method and apparatus for controlling training data
WO2022252140A1 (en) * 2021-06-02 2022-12-08 Qualcomm Incorporated Configuring multi-model machine learning application

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110139325B (zh) * 2018-02-09 2021-08-13 华为技术有限公司 一种网络参数调优方法及装置
GB2587355B (en) * 2019-09-24 2022-11-16 Withsecure Corp Method of data-efficient threat detection in a computer network
EP4252154A4 (en) * 2020-12-24 2024-01-17 Huawei Tech Co Ltd METHODS AND SYSTEMS FOR ARTIFICIAL INTELLIGENCE-BASED ARCHITECTURE IN A WIRELESS NETWORK
CN112396132B (zh) * 2021-01-19 2022-04-08 国网江苏省电力有限公司南京供电分公司 一种基于svm的无线终端安全接入方法
EP4292323A1 (en) * 2021-02-09 2023-12-20 Telefonaktiebolaget LM Ericsson (publ) Methods for determining a target network configuration
EP4305823A1 (en) * 2021-04-14 2024-01-17 Huawei Technologies Co., Ltd. Devices and methods for collaborative learning of a transmission policy in wireless networks
CN117981384A (zh) * 2021-09-28 2024-05-03 三菱电机株式会社 通信系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107006005A (zh) * 2014-12-02 2017-08-01 瑞典爱立信有限公司 用于处理无线电频谱中的信道的方法和模块
WO2018057302A1 (en) * 2016-09-26 2018-03-29 Google Llc Communication efficient federated learning
CN108351881A (zh) * 2015-10-16 2018-07-31 谷歌有限责任公司 分布式最优化的系统和方法
US20180373988A1 (en) * 2017-06-27 2018-12-27 Hcl Technologies Limited System and method for tuning and deploying an analytical model over a target eco-system
US20190102684A1 (en) * 2017-09-29 2019-04-04 Sony Interactive Entertainment Inc. Mobile and autonomous personal companion based on an artificial intelligence (ai) model for a user

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7203882B2 (en) 2004-08-31 2007-04-10 International Business Machines Corporation Clustering-based approach for coverage-directed test generation
US8437288B2 (en) * 2006-03-07 2013-05-07 Qualcomm Incorporated Network selection by wireless terminals
US9125146B1 (en) * 2013-04-09 2015-09-01 Amazon Technologies, Inc. Band scan optimization for an electronic device
US10536357B2 (en) 2015-06-05 2020-01-14 Cisco Technology, Inc. Late data detection in data center
TW201812646A (zh) * 2016-07-18 2018-04-01 美商南坦奧美克公司 分散式機器學習系統、分散式機器學習方法、以及產生代用資料之方法
US10270599B2 (en) 2017-04-27 2019-04-23 Factom, Inc. Data reproducibility using blockchains

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107006005A (zh) * 2014-12-02 2017-08-01 瑞典爱立信有限公司 用于处理无线电频谱中的信道的方法和模块
CN108351881A (zh) * 2015-10-16 2018-07-31 谷歌有限责任公司 分布式最优化的系统和方法
WO2018057302A1 (en) * 2016-09-26 2018-03-29 Google Llc Communication efficient federated learning
US20180373988A1 (en) * 2017-06-27 2018-12-27 Hcl Technologies Limited System and method for tuning and deploying an analytical model over a target eco-system
US20190102684A1 (en) * 2017-09-29 2019-04-04 Sony Interactive Entertainment Inc. Mobile and autonomous personal companion based on an artificial intelligence (ai) model for a user

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022127867A1 (en) * 2020-12-17 2022-06-23 Telefonaktiebolaget Lm Ericsson (Publ) Method and apparatus for controlling training data
WO2022252140A1 (en) * 2021-06-02 2022-12-08 Qualcomm Incorporated Configuring multi-model machine learning application

Also Published As

Publication number Publication date
US20200374711A1 (en) 2020-11-26
EP3742669B1 (en) 2023-11-08
US11617094B2 (en) 2023-03-28
EP3742669A1 (en) 2020-11-25

Similar Documents

Publication Publication Date Title
US11617094B2 (en) Machine learning in radio access networks
US20210345134A1 (en) Handling of machine learning to improve performance of a wireless communications network
US20210326701A1 (en) Architecture for machine learning (ml) assisted communications networks
CN112913274B (zh) 用于自组织网络的优化的过程
US20220051139A1 (en) Wireless device, a network node and methods therein for training of a machine learning model
US11228503B2 (en) Methods and systems for generation and adaptation of network baselines
WO2022015221A1 (en) Managing a wireless device that is operable to connect to a communication network
US20220230062A1 (en) Dynamic network configuration
Nguyen et al. DRL-based intelligent resource allocation for diverse QoS in 5G and toward 6G vehicular networks: a comprehensive survey
US20230262489A1 (en) Apparatuses and methods for collaborative learning
EP4156631A1 (en) Reinforcement learning (rl) and graph neural network (gnn)-based resource management for wireless access networks
CN116848828A (zh) 机器学习模型分布
Mei et al. Semi-decentralized network slicing for reliable V2V service provisioning: A model-free deep reinforcement learning approach
Zou et al. Resource multi-objective mapping algorithm based on virtualized network functions: RMMA
CN117044375A (zh) 通信网络中的方法和节点
Manzoor et al. An LSTM‐based cell association scheme for proactive bandwidth management in 5G fog radio access networks
CN115804074A (zh) 第一网络节点和在其中执行的用于处理通信网络中的数据的方法
WO2020136663A1 (en) Node, and method performed thereby, for predicting a behavior of users of a communications network
Amjad Development of deep reinforcement learning based resource allocation techniques in cloud radio access network
US11800458B2 (en) Selection of power control parameters
US20230385651A1 (en) Method of determining zone membership in zone-based federated learning
US20240135192A1 (en) Zone gradient diffusion (zgd) for zone-based federated learning
US20230325654A1 (en) Scalable deep learning design for missing input features
WO2023187793A1 (en) First node, second node, third node and methods performed thereby for handling predictive models
WO2023095150A1 (en) First node, second node, communications system and methods performed thereby for handling predictive models

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination