CN115804074A - 第一网络节点和在其中执行的用于处理通信网络中的数据的方法 - Google Patents

第一网络节点和在其中执行的用于处理通信网络中的数据的方法 Download PDF

Info

Publication number
CN115804074A
CN115804074A CN202080102241.0A CN202080102241A CN115804074A CN 115804074 A CN115804074 A CN 115804074A CN 202080102241 A CN202080102241 A CN 202080102241A CN 115804074 A CN115804074 A CN 115804074A
Authority
CN
China
Prior art keywords
model
network node
data
local
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202080102241.0A
Other languages
English (en)
Inventor
V·亚纳拉亚纳
A·P·穆朱姆达尔
S·K·莫哈利克
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Telefonaktiebolaget LM Ericsson AB
Original Assignee
Telefonaktiebolaget LM Ericsson AB
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Telefonaktiebolaget LM Ericsson AB filed Critical Telefonaktiebolaget LM Ericsson AB
Publication of CN115804074A publication Critical patent/CN115804074A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/16Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using machine learning or artificial intelligence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/098Distributed learning, e.g. federated learning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0803Configuration setting
    • H04L41/0813Configuration setting characterised by the conditions triggering a change of settings

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

本文的实施例涉及一种由被配置为在通信网络中操作的第一网络节点(111)执行的方法,其中,第一网络节点(111)被配置有第一机器学习ML模型并且被连接到第二网络节点(112),第二网络节点(112)被配置有与第一ML模型相关联的第二ML模型。第一网络节点从第二网络节点(112)获得与第二ML模型相关联的第一数据;以及在与所获得的第一数据相关的条件被满足时,第一网络节点(111)沿着第一演进分支保持第一ML模型不变,以及考虑所获得的第一数据,沿着第二演进分支创建第一ML模型的更新版本。

Description

第一网络节点和在其中执行的用于处理通信网络中的数据的 方法
技术领域
本文的实施例涉及第一网络节点和在其中执行的用于通信网络的方法。此外,本文还提供了一种计算机程序产品和计算机可读存储介质。特别地,本文的实施例涉及在通信网络中处理数据,例如更新机器学习(ML)模型。
背景技术
在典型的通信网络中,无线设备(也被称为无线通信设备、移动站、站(STA)和/或用户设备(UE))经由例如接入点与服务器通信或彼此通信。为了理解环境(例如图像、声音等),可以使用不同的方式来检测特定事件、对象等。一种学习的方式是使用机器学习(ML)算法来提高准确性。
计算图模型是ML模型的示例,这些模型当前被用于不同的应用中并且基于不同的技术。计算图模型是有向图模型,其中节点对应于运算或变量。变量可以将它们的值馈入运算,并且运算可以将它们的输出馈入其他运算。这样,图模型中的每个节点定义了变量的函数。这些计算图模型的训练通常是离线过程,这意味着它通常在数据中心内发生并且需要几分钟到几小时甚至几天,具体取决于底层技术、被用于训练的基础设施的能力以及计算图模型的复杂度(例如输入数据量、参数等)。另一方面,这些计算图模型的执行可在从通信网络的边缘(也被称为网络边缘,例如在设备、网关或无线电接入基础设施中)到集中式云(例如数据中心)的任何位置进行。
在许多情况下,执行时间至关重要,即,从计算图模型获得输出的时间,特别是对于需要低延迟反馈回路的实时应用。典型的场景是无线通信网络中从集中式ML模型执行环境请求决策的移动设备,例如利用对象检测或增强现实但资源有限的小型设备,例如眼镜或其他可穿戴设备、无人机之类的小型机器人等。
联合学习是一种分散学习技术,其中从多个客户端(例如移动电话、物联网(IoT)设备等)处的分散本地代理来构建优化的全局代理。这种分散的学习方法具有多个优点,包括确保隐私、数据本地化和节省连接成本。联合学习框架的典型结构如图1所示。因此,图1示出了典型的联合学习系统,其中顶部节点是全局模型,其从使用客户端模型(例如UE、支持IoT的设备等)来训练。在典型的联合学习系统中,每个本地代理在它的本地数据上执行学习。本地代理可以将它们的模型(在每个更新周期作为权重向量)发送到中央代理以用于更新全局模型。这些传输可以被表示为模型更新事务。在从每个本地代理接收到包括更新模型的这些消息时,考虑到所接收的客户端模型,对全局模型进行修改(通常基于加权平均方案)。在ML系统中,在不同的时间向中央代理发送更新消息,并且来自每个本地代理的本地模型的每个更新将实施对全局模型的更改。一旦全局模型在数轮更新之后已接近收敛,全局模型权重便被传输回多个本地代理,如图1所示。
随着每次本地代理(客户端)更新,全局模型平滑地朝向更好的估计和预测模型演进。但是,在这种联合学习架构中,不正确的客户端更新可能具有灾难性的后果,因为它将被用于全局模型的进一步演进。本文提出了一种解决该问题的方法和装置。在Bagdasaryan、Eugene、Andreas Veit、Yiqing Hua、Deborah Estrin和Vitaly Shmatikov的“How to backdoor federated learning(如何对联合学习进行后门处理)”(arXiv预印本arXiv:1807.00459(2018年)https://arxiv.org/pdf/1807.00459.pdf)中表明,仅仅在一个更新周期内在来自本地代理之一的一个模型中发送的单个攻击向量就能够导致全局模型立即中毒,攻击任务的准确率高达100%。这转而能够迅速使整个本地代理网络中毒,因为全局模型已中毒。
发明内容
本文的实施例的一个目的是提供一种用于以有效的方式改进通信网络的操作的机制。
根据一个方面,通过提供一种由被配置为在通信网络中操作的第一网络节点执行的方法来实现该目的,其中,所述第一网络节点被配置有第一ML模型并且被连接到第二网络节点,所述第二网络节点被配置有与所述第一ML模型相关联的第二ML模型。所述第一网络节点从所述第二网络节点获得与所述第二ML模型相关联的第一数据;以及在与所获得的第一数据相关的条件被满足时,所述第一网络节点沿着第一演进分支保持所述第一ML模型不变,以及考虑所获得的第一数据,沿着第二演进分支创建所述第一ML模型的更新版本。
根据另一个方面,通过提供一种被配置为在通信网络中操作的第一网络节点来实现该目的,其中,所述第一网络节点被配置有第一ML模型并且被连接到第二网络节点,所述第二网络节点被配置有与所述第一ML模型相关联的第二ML模型。所述第一网络节点被配置为从所述第二网络节点获得与所述第二ML模型相关联的第一数据。所述第一网络节点被配置为在与所获得的第一数据相关的条件被满足时,沿着第一演进分支保持所述第一ML模型不变,以及考虑所获得的第一数据,沿着第二演进分支创建所述第一ML模型的更新版本。
本文还提供了一种包括指令的计算机程序产品,所述指令当在至少一个处理器上被执行时使得所述至少一个处理器执行由所述第一网络节点执行的上述任何方法。附加地,本文提供了一种计算机可读存储介质,其上存储有包括指令的计算机程序产品,所述指令当在至少一个处理器上被执行时使得所述至少一个处理器执行由所述第一网络节点执行的上述任何方法。
本文的实施例提供了一种实现数据的隐私和本地化的分散学习。联合学习是实现这一点的方式之一,其中通过从多个客户端交换本地模型(例如第二ML模型)而不交换敏感用户数据,全局模型(也被称为集中式或聚合式ML模型,例如第一ML模型)得到更新。但是,客户端更新的不正确的本地模型可能具有灾难性的后果,因为不正确的本地模型将被用于全局模型的进一步演进。本文的实施例公开了一种解决该问题的方法和装置。第一网络节点处的ML模型可以被复制,并且在满足一个或多个条件时,第一ML模型的演进在树结构中(即,沿着至少两个分支)被执行。一个或多个条件可以指示模型中的设置的变化级别。每当所接收的第一数据存在显著变化(例如相对于第一ML模型当前数据),第一ML模型可以被分支,并且可以在树的两个分支上执行进一步更新。本文的演进分支指第一ML模型的不同更新版本。因此,随着多个客户端更新到来,第一ML模型在具有多个分支的树中以不同的版本被维护。可以周期性地执行协调或选择作为第一ML模型;第一网络节点可以通过利用分支的叶ML模型作为联合的候选版本来选择或构建例如全局ML模型。
本文的实施例还涉及客户端侧,即,本地网络节点,在本地网络节点中,来自全局网络节点的更新和从新近观察到的本地数据导出的新模型可以被有效地协调以确保特定策略。例如,通过在本地网络节点处保留从全局ML模型接收的更新和从本地网络节点处新近观察到的数据导出的本地ML模型,可以在本地网络节点处平滑地演进本地ML模型,这不同于其中全局ML模型替换本地ML模型的传统架构。
因此,本文的实施例能够提供稳健的联合,以防止在联合处理的传输过程中的ML模型损坏。此外,本文提供了安全性,以防止冒充本地代理的恶意网络节点或代理使全局ML模型中毒,和/或能够实现提高的联合学习性能。因此,本文的实施例实现以有效的方式改进通信网络的操作。
附图说明
现在将针对附图更详细地描述实施例,这些附图是:
图1示出了描绘联合学习框架的示意概览图;
图2是描绘根据本文的实施例的通信网络的示意概览图;
图3是描绘根据本文的实施例的由第一网络节点执行的方法的流程图;
图4是描绘根据本文的实施例的构建ML模型的方式的示意概览图;
图5是根据本文的实施例的组合流程图和信令方案;
图6是根据本文的实施例的组合流程图和信令方案;以及
图7是描绘根据本文的实施例的第一网络节点的实施例的框图。
具体实施方式
一般而言,本文的实施例涉及通信网络。图2是描绘通信网络1的示意概览图。通信网络1可以是任何种类的通信网络,例如有线通信网络或无线通信网络,包括例如无线电接入网络(RAN)和核心网络(CN)。通信网络可以服务一个或多个请求节点10,例如UE、远程无线电单元、无线电基站等。本文的实施例涉及通信网络1中用于处理操作(例如提供响应)的本地网络节点11。本地网络节点11可以是基带单元、无线电网络节点(例如基站)或接入节点(例如无线局域网节点)、用户设备、网关节点、核心网络节点或另一个网络节点。请求节点10通过在上行链路(UL)中向网络节点发送数据以及在下行链路(DL)中接收数据来与本地网络节点通信。本地网络节点11被配置为在通信网络中操作,例如在一个或多个请求节点与中央网络节点12(也被称为全局网络节点、云网络节点、聚合网络节点等)之间操作。中央网络节点12可以是中央云节点,例如集中式应用服务器、核心网络节点等,中央云节点包括全局ML模型(也被称为聚合ML模型、全局计算图模型),例如诸如神经网络模型之类的深度学习模型。根据本文的实施例,本地网络节点11被配置有本地ML模型,其中本地ML模型与全局ML模型相关,并且其中本地ML模型可以是与全局ML模型相比需要更少计算资源以收敛的模型。可以基于从由本地网络节点11服务的区域接收的输入数据而在本地训练本地模型。根据本文的实施例的方法由从第二网络节点112接收数据的第一网络节点111来执行,其中分别地,第一网络节点111可以是中央网络节点12或本地网络节点11,第二网络节点112可以是本地网络节点或中央网络节点。第一网络节点111被配置有第一ML模型(例如全局ML模型或本地ML模型),第二网络节点112被配置有与第一ML模型相关联的第二ML模型(例如本地ML模型或全局ML模型)。第一网络节点111例如从第二网络节点112接收与第二ML模型相关联的第一数据,例如用于本地ML模型的权重。在与所获得的第一数据相关的条件被满足时,执行复制过程,其中第一网络节点沿着第一演进分支保持第一ML模型不变,以及考虑到所获得的第一数据,沿着第二演进分支创建第一ML模型的更新版本。
本文提到的ML模型涵盖了诸如计算图模型之类的各种ML模型,包括使用深度学习(例如诸如卷积神经网络之类的人工神经网络)训练的模型,并且可以在不需要例如本地网络节点中的昂贵硬件设备的情况下减小执行延迟。通信网络1可以是任何分组交换分组网络和/或可以是具有对通信网络1的边缘处的所连接的请求节点的无线接入的通信网络,其中请求节点可以使用计算图模型执行从作为更集中的节点的中央网络节点12请求操作。
这些ML模型的输入可以包括一个或多个值,例如数字、字母数字和/或更复杂的数据结构(例如列表、数组等)。输出可以被发送到发起“模型执行”请求的请求节点10。
在典型的联合学习架构中,随着每次本地ML模型更新(其是所更新的数据,例如本地ML模型的权重),全局ML模型将演进成新的ML模型。因为更新被递增地应用于全局ML模型,所以由于恶意客户端而导致的不正确更新能够使全局ML模型中毒。另一方面,在本地网络节点11处,由于来自其他客户端模型的更新而导致的全局ML模型的巨大变化可能覆盖具有反映本地数据的更早权重的本地ML模型。因此,即使全局ML模型更新也不需要被直接应用于本地ML模型。
本文的实施例公开了一种用于在存在例如冒充本地代理以使全局ML模型中毒的恶意代理或真实客户端的模型在联合处理的传输过程中被损坏的情况下进行弹性和稳健联合的方案。在该方案中,全局ML模型和本地ML模型的演进在版本控制系统中被维护,因为来自本地ML模型的更新被应用于全局ML模型,而来自全局ML模型的更新被建议给本地ML模型。在与从第二网络节点获得的第一数据相关的条件被满足时,第一网络节点111沿着第一演进分支保持第一ML模型不变,以及考虑所获得的第一数据,沿着第二演进分支创建第一ML模型的更新版本。例如,当所获得的数据与先前接收的值的差高于阈值时,该条件可以被满足。因此,当接收到有毒数据时,有毒数据将被检测到,并且该分支可以在随后的阶段被修剪。
现在将参考图3所示的流程图来描述根据实施例的由通信网络1中的第一网络节点111执行的方法动作。这些动作不必按照下面所述的顺序进行,而是可以按照任何合适的顺序进行。在一些实施例中执行的动作使用虚线框来标记。第一网络节点111被配置为在通信网络中操作,并且第一网络节点111被配置有第一ML模型并且被连接到第二网络节点112,第二网络节点112被配置有与第一ML模型相关联的第二ML模型,例如第一ML模型可以是第二ML模型的相同或类似版本。第二网络节点可以是本地网络节点,并且第一网络节点可以是聚合来自多个本地网络节点的与第一ML模型相关联的数据的中央网络节点。第一网络节点可以是本地网络节点,并且第二网络节点可以是聚合来自多个本地网络节点的与第二ML模型相关联的数据的中央网络节点。
动作301。第一网络节点111从第二网络节点获得与第二ML模型相关联的第一数据。第一数据可以包括用于第二ML模型的权重值。
动作302。第一网络节点111可以将第一数据和与第一ML模型相关的第二数据进行比较,并且当第一数据与第二数据之间的差高于或等于阈值时,该条件被满足。
动作303。在与所获得的第一数据相关的条件被满足时,第一网络节点111沿着第一演进分支保持第一ML模型不变,以及考虑所获得的第一数据,沿着第二演进分支创建第一ML模型的更新版本。
动作304。在第二条件被满足时,第一网络节点111可以修剪演进分支的至少一个ML模型。第二条件可以包括与至少一个ML模型的数据相关的第一参数和/或第二参数。第一参数可以例如是公平度,公平度意味着表示本地网络节点在更新中的参与度的分布。参与度越均匀,公平度度量越好。第二参数可以例如是平滑度,其表示指定的更新历史的梯度变化率。如果存在突然的巨大变化,则分支的平滑度极低。第二条件可以定义当出现低的第二参数和低的第一参数(低意味着低于阈值)时,该ML模型被修剪。
动作305。第一网络节点111然后可以基于所比较的不同演进分支的第一ML模型的不同版本的数据值,选择沿着演进分支演进的ML模型。第一ML模型的不同版本的数据值可以与验证集进行比较。
动作306。第一网络节点111可以向第二网络节点112发送所选择的ML模型。
因此,更新方案可以被以树的形式表示,如图4所示。
图4是全局ML模型在每次更新期间的演进的图示。模型更新被版本化,并且当预测了显著的模型更新时,版本被分支。用于本地ML模型的版本树以类似的方式收缩。
本文公开了一种架构,其中全局ML模型由多个本地网络节点来更新。在每轮更新期间,全局ML模型演进成新模型,并且在N轮更新之后,全局ML模型可以被传输到新的本地网络节点和/或所有参与的网络节点。本文公开了ML模型的演进,其与版本控制系统相类似并且提出了用于通过模型变化标识和协调来进行弹性和稳健的联合的策略。图4进一步示出了这一点。当全局ML模型更新发生时,类似的数据结构和过程也可以被应用于本地ML模型。以下具体地描述了如何在版本树中维护全局(本地)ML模型更新,以及如何选择全局(本地)ML版本以被发送到本地(相应的全局)ML模型。
根据本文的实施例的分散学习实现了数据的隐私和本地化。联合学习是实现这一点的方式之一,其中例如通过从多个本地网络节点交换例如神经网络模型而不交换敏感用户数据,全局ML模型得到更新。但是,不正确的客户端更新可能具有灾难性的后果,因为它将被用于全局模型的进一步演进。为了克服这一点,提供了根据本文的实施例的方法以保持ML模型的演进。模型的演进使得每当存在ML模型的显著变化(其是第一条件的示例)时,演进树被分支,并且在树的两个分支上携带进一步的更新。在协调阶段,基于候选版本在精心设计的策略上的性能,选择合适的版本。
因此:基于“中毒”标准的用于联合ML模型的版本树和更新过程;版本树修剪以协调模型并且减少不必要的分叉;版本质量度量、更新过程;以及联合模型版本选择(基于质量度量和验证集的不同实施例)。
图5示出了由从一个或多个请求节点交换数据而触发的序列流。
动作501。本地网络节点11向中央网络节点12发送本地ML模型的更新,例如本地ML模型的权重。例如,当本地权重变化高于阈值时,即,差高于阈值或被改变或被周期性地发送。
动作502。全局网络节点12检查更新后的信息(例如本地ML模型的权重)与先前报告的值的差是否大于阈值。
动作503。在这种情况下,全局ML模型被复制成两个演进分支,即:第一演进分支,其包括第一版本,其中全局ML模型不被更新(即,保持不变);以及第二演进分支,其包括考虑所接收的更新的第二版本。中央网络节点还可以基于指示ML模型的质量的参数,修剪ML模型或分支。
动作504。全局网络节点12然后沿着更新树来选择全局ML模型。
动作505。中央网络节点12然后向本地网络节点11发送该选择的ML模型。
关于全局ML模型树:
从初始ML模型开始的模型树,该模型树具有从本地ML模型聚合的权重,即,第一ML模型和更新后的版本在满足特定条件的每次更新时被保持。
模型更新-全局。
在每轮更新中,针对潜在中毒检查树的叶节点处的所有ML模型。考虑表示叶处的全局模型和第i个客户端模型(被发送以用于更新)的两个参数集,它们分别由
Figure BDA0004005486030000101
Figure BDA0004005486030000102
表示。
本文构建了一个函数,其提供了关于这些模型的差异程度的试探法。这如等式(1)所示
Δ=f(Wg,Wi c) (1)
试探法Δ被用于量化ML模型的变化。在一个示例实施例中,这可以是ML模型参数之间的l2距离,如等式(2)所示
Figure BDA0004005486030000103
本文公开了一种策略,即,每当Δ的值大于阈值ρ(即Δ>ρ)时,模型的变化被认为是显著的,并且因此存在这可能是错误更新的可能性。在图4中示出了全局ML模型演进策略。随后,来自本地网络节点的所有更新将在两个线程上发生,如图4所示。
模型质量度量。
在每个叶ML模型处,维护用于表征对应分支的质量的特定参数或度量。在一个实施例中,参数可以是<公平度,平滑度>,其中:
1.公平度是表示本地代理在更新中的参与度的分布。参与度越均匀,公平度度量越好。
2.平滑度表示指定的(K)更新历史的梯度(二阶导数)的(负)变化率。对此进行设计以使得如果存在突然的巨大变化,则分支的平滑度极低。
在更新时,第一参数和第二参数两者根据更新代理的索引(i)和Δ被更新。使用用户针对两个参数定义的权重,以使得可以通过加权平均(k1*公平性+k2*平滑度)来比较两个参数元组。
模型修剪(动作304)。
在每次更新之后,模型树可以如下地被修剪。
1.如果叶的质量参数超出了特定预先规定的界限,则关闭分支,并且对该分支进行标记以便调查。
2.如果两个叶模型的权重彼此接近,则关闭质量更好的叶模型。本文的质量意味着例如第一参数和第二参数的值。
模型选择(动作305)。
在用户指定的规则间隔,系统需要将全局ML模型传播到本地代理。此时,
1.系统选择具有最佳质量的叶并且传播
2.系统重新初始化ML模型树
a.在一个实施例中,系统可以重新初始化ML模型树,其中将所选择的节点作为根节点。
b.在另一个实施例中,系统仅保留N个具有最佳质量的分支,它们的深度为d并且具有假设根。
c.在又一个实施例中,定制验证集可以被设计为选择版本树中的所有竞争版本之中的最佳版本。在标准ML应用中,验证集形成数据集的一部分,这些验证集在训练期间不被公开并且被用于评估性能。因为全局ML模型在实践中从未见过任何本地代理的数据,所以合并本地代理的数据的子集可以形成候选验证集
Figure BDA0004005486030000111
所选择的模型
Figure BDA0004005486030000112
是相对于专门设计的验证集
Figure BDA0004005486030000113
具有最小损失的模型。
这在等式(3)和等式(4)中进一步描述:
Figure BDA0004005486030000114
Figure BDA0004005486030000115
图6示出了由从一个或多个本地网络节点交换数据而触发的序列流。
动作601。中央网络节点12向本地网络节点11发送全局ML模型的更新,例如全局ML模型的权重。
动作602。本地网络节点11检查全局ML模型信息(例如全局ML模型的权重)与先前报告的值或本地ML模型值的差是否大于阈值。
动作603。在这种情况下,本地ML模型被复制成两个演进分支,即:第一演进分支,其包括第一版本,其中本地ML模型不被更新(即,保持不变);以及第二演进分支,其包括考虑所接收的更新的第二版本。本地网络节点还可以基于指示ML模型的质量的参数,修剪ML模型或分支。
动作604。全局网络节点12然后沿着更新树来选择要使用的本地ML模型。
关于更新本地模型:
ML模型更新-本地。
对于每个本地节点,与在全局ML模型中一样,在版本树中维护ML模型,其中不同的节点可能具有不同的阈值。在此,唯一的更新来自全局ML模型和本地训练。
模型质量度量。
在此仅具有平滑度参数,因为在这种情况下公平度没有意义。但是,其他参数,例如与版本树中当前最佳ML模型的距离(如在全局模型的情况下模型修剪的第3点)。
模型修剪(动作304)。
类似于全局ML模型,版本树中的分支被修剪。
版本选择(动作305)。
在全局ML模型的情况下,决定联合的事件是在更新事件(来自本地模型的更新)处。在本地ML模型的情况下,因为仅有的外部更新是来自全局ML模型,所以不同的事件被用于选择版本并且被发送到全局ML模型。注意,本地ML模型也通过对本地数据的训练而被周期性地更新。
1.最简单的替代方案是选择最新的全局版本并且完全修剪树。这在联合学习中完成。
2.更好的替代方案是选择最接近最新全局ML模型的本地版本,取平均值以及将新ML模型设置为当前版本。
3.由于全局ML模型更新的历史在客户端侧的可用性,可以预测未来的全局ML模型并且构建本地版本,以使得当更新最终被传输到中央网络节点时,该更新略微改变全局模型。
所选择的ML模型被发送到全局ML模型,并且在版本树中被标记为当前版本。这可以被用于修剪版本树。
注意,以这种方式,全局ML模型仅被用作用于更新本地ML模型的指导,并且不覆盖本地ML模型。
图7是描绘在两个实施例中被配置为在通信网络1中操作的第一网络节点的框图。第一网络节点111被配置有第一ML模型并且被连接到第二网络节点112,第二网络节点112被配置有与第一ML模型相关联的第二ML模型。这可以在云中的某处运行,并且第一网络节点111可以包括处理电路701(例如一个或多个处理器),其被配置为执行本文的方法。第二网络节点可以是本地网络节点,并且第一网络节点可以是聚合来自多个本地网络节点的与第一ML模型相关联的数据的中央网络节点。替代地,第一网络节点可以是本地网络节点,并且第二网络节点可以是聚合来自多个本地网络节点的与第二ML模型相关联的数据的中央网络节点。
第一网络节点111可以包括获得单元702,例如接收机、收发机或取得模块。第一网络节点111、处理电路701和/或获得单元702被配置为从第二网络节点获得与第二ML模型相关联的第一数据。第一数据可以包括用于第二ML模型的权重值。
第一网络节点111可以包括更新单元703。第一网络节点111、处理电路701和/或更新单元703被配置为在与所获得的第一数据相关的条件被满足时,沿着第一演进分支保持第一ML模型不变,以及考虑所获得的第一数据,沿着第二演进分支创建第一ML模型的更新版本。第一网络节点111、处理电路701和/或更新单元703可以被配置为将第一数据和与第一ML模型相关的第二数据进行比较,并且当第一数据与第二数据之间的差高于或等于阈值时,该条件被满足。
第一网络节点111可以包括修剪单元704。第一网络节点111、处理电路701和/或修剪单元704可以被配置为在第二条件被满足时,修剪(即,删除)演进分支的至少一个ML模型。第二条件包括与至少一个ML模型的数据相关的第一参数和/或第二参数。例如,当公平度低于阈值或低于其他ML模型第一参数时,和/或当平滑度高于阈值或低于其他ML模型第二参数时。
第一网络节点111可以包括选择单元705。第一网络节点111、处理电路701和/或选择单元705可以被配置为基于所比较的不同演进分支的第一ML模型的不同版本的数据值,选择沿着演进分支演进的ML模型。第一网络节点111、处理电路701和/或选择单元705可以被配置为将第一ML模型的不同版本的数据值与验证集进行比较。
第一网络节点111可以包括发送单元706,例如发射机、收发机或提供模块。第一网络节点111、处理电路701和/或发送单元706可以被配置为向第二网络节点112发送所选择的ML模型。计算图模型可以是神经网络和/或决策树。
第一网络节点111还包括存储器707。存储器包括被用于存储数据的一个或多个单元,这些数据例如是模型、输入参数、输出参数、条件、数据、用于处理数据的过程、分布集、用于在被执行时执行本文公开的方法的应用等。
根据本文描述的实施例的用于第一网络节点111的方法分别借助于包括指令(即,软件代码部分)的计算机程序产品708或计算机程序来实现,该指令当在至少一个处理器上被执行时使得至少一个处理器执行本文描述的由第一网络节点111执行的动作。计算机程序708可以被存储在计算机可读存储介质709(例如通用串行总线(USB)棒、光盘等)上。其上存储有计算机程序产品的计算机可读存储介质709可以包括指令,该指令当在至少一个处理器上被执行时使得至少一个处理器执行本文描述的由第一网络节点111执行的动作。在一些实施例中,计算机可读存储介质可以是非暂时性计算机可读存储介质。第一网络节点111可以包括通信接口,通信接口包括收发机、接收机、发射机和/或一个或多个天线。
如熟悉通信设计的人员将容易理解的,可以使用数字逻辑和/或一个或多个微控制器、微处理器或其他数字硬件来实现功能装置、单元或模块。在一些实施例中,各种功能中的几种功能或全部功能可以一起实现,例如在单个专用集成电路(ASIC)中或者在其间具有适当硬件和/或软件接口的两个或更多个单独的设备中实现。例如,这些功能中的几种功能可以在与中间网络节点的其他功能组件共享的处理器上实现。
替代地,可以通过使用专用硬件来提供所讨论的处理电路的数个功能元件,而其他的功能元件使用用于执行软件的硬件连同适当的软件或固件来提供。因此,本文使用的术语“处理器”或“控制器”不专门指能够执行软件的硬件,并且可以隐含地包括但不限于数字信号处理器(DSP)硬件、用于存储软件的只读存储器(ROM)、用于存储软件和/或程序或应用数据的随机存取存储器以及非易失性存储器。还可以包括其他常规的和/或定制的硬件。无线电网络节点的设计人员将理解这些设计选择中固有的成本、性能和维护权衡。
在一些实施例中,使用非限制性术语“UE”。本文的UE可以是能够通过无线电信号与网络节点或另一个UE通信的任何类型的UE。UE还可以是无线电通信设备、目标设备、设备对设备(D2D)UE、机器型UE或能够进行机器对机器通信(M2M)的UE、物联网(IoT)可操作设备、配备有UE的传感器、iPad、平板电脑、移动终端、智能电话、膝上型嵌入设备(LEE)、膝上型安装设备(LME)、USB适配器、客户端设备(CPE)等。
此外,在一些实施例中,使用通用术语“网络节点”。它可以是任何种类的网络节点,其可以包括服务器、无线电网络节点(例如基站、UE)、核心网络节点(例如网络运营中心(NOC)节点、移动性管理实体(MME)、运维(O&M)节点、自组织网络(SON)节点、协调节点、控制节点、最小化路测(MDT)节点等)或外部节点(例如第三方节点、当前网络外部的节点)或甚至无线电网络节点(例如基站、无线电基站、基站收发台、基站控制器、网络控制器、演进型节点B(eNB)、节点B、gNodeB、多RAT基站、多小区/多播协调实体(MCE)、中继节点、接入点、无线电接入点、远程无线电单元(RRU)远程无线电头(RRH)等)。
本文使用的术语“无线电节点”可以被用于表示无线设备或无线电网络节点。
本文使用的术语“信令”可以包括以下项中的任何一项:高层信令(例如经由无线电资源控制(RRC))、下层信令(例如经由物理控制信道或广播信道)或它们的组合。信令可以是隐式的或显式的。信令还可以被单播、多播或广播。信令还可以直接去往另一个节点或经由第三节点。
本文描述的实施例可以应用于任何RAT或其演进,例如LTE频分双工(FDD)、LTE时分双工(TDD)、具有帧结构3或非授权操作的LTE、UTRA、GSM、WiFi、短程通信RAT、窄带RAT、用于5G的RAT等。
将理解,上述描述和附图表示本文教导的方法和装置的非限制性示例。因此,本文教导的装置和技术不受上述描述和附图的限制。而是,本文的实施例仅受以下权利要求及其法律上的等同物的限制。

Claims (22)

1.一种由被配置为在通信网络中操作的第一网络节点(111)执行的方法,其中,所述第一网络节点(111)被配置有第一机器学习ML模型并且被连接到第二网络节点(112),所述第二网络节点(112)被配置有与所述第一ML模型相关联的第二ML模型;所述方法包括:
-从所述第二网络节点获得(301)与所述第二ML模型相关联的第一数据;以及
-在与所获得的第一数据相关的条件被满足时,沿着第一演进分支保持(303)所述第一ML模型不变,以及考虑所获得的第一数据,沿着第二演进分支创建(303)所述第一ML模型的更新版本。
2.根据权利要求1所述的方法,其中,所述第一数据包括用于所述第二ML模型的权重值。
3.根据权利要求1-2中任一项所述的方法,其中,所述第二网络节点是本地网络节点,并且所述第一网络节点是聚合来自多个本地网络节点的与所述第一ML模型相关联的数据的中央网络节点。
4.根据权利要求1-2中任一项所述的方法,其中,所述第一网络节点是本地网络节点,并且所述第二网络节点是聚合来自多个本地网络节点的与所述第二ML模型相关联的数据的中央网络节点。
5.根据权利要求1-4中任一项所述的方法,还包括:
-将所述第一数据和与所述第一ML模型相关的第二数据进行比较(302),并且当所述第一数据与所述第二数据之间的差高于或等于阈值时,所述条件被满足。
6.根据权利要求1-5中任一项所述的方法,还包括:
-在第二条件被满足时,修剪(304)演进分支的至少一个ML模型。
7.根据权利要求6所述的方法,其中,所述第二条件包括与所述至少一个ML模型的所述数据相关的第一参数和/或第二参数。
8.根据权利要求1-7中任一项所述的方法,还包括:
-基于所比较的不同演进分支的所述第一ML模型的不同版本的数据值,选择(305)沿着演进分支演进的ML模型。
9.根据权利要求8所述的方法,其中,所述第一ML模型的所述不同版本的所述数据值与验证集进行比较。
10.根据权利要求8-9中任一项所述的方法,还包括:
-向所述第二网络节点(112)发送(306)所选择的ML模型。
11.一种被配置为在通信网络中操作的第一网络节点(111),其中,所述第一网络节点(111)被配置有第一机器学习ML模型并且被连接到第二网络节点(112),所述第二网络节点(112)被配置有与所述第一ML模型相关联的第二ML模型;其中,所述第一网络节点被配置为:
从所述第二网络节点获得与所述第二ML模型相关联的第一数据;以及
在与所获得的第一数据相关的条件被满足时,沿着第一演进分支保持所述第一ML模型不变,以及考虑所获得的第一数据,沿着第二演进分支创建所述第一ML模型的更新版本。
12.根据权利要求11所述的第一网络节点(111),其中,所述第一数据包括用于所述第二ML模型的权重值。
13.根据权利要求11-12中任一项所述的第一网络节点(111),其中,所述第二网络节点是本地网络节点,并且所述第一网络节点是聚合来自多个本地网络节点的与所述第一ML模型相关联的数据的中央网络节点。
14.根据权利要求11-12中任一项所述的第一网络节点(111),其中,所述第一网络节点是本地网络节点,并且所述第二网络节点是聚合来自多个本地网络节点的与所述第二ML模型相关联的数据的中央网络节点。
15.根据权利要求11-14中任一项所述的第一网络节点(111),其中,所述第一网络节点还被配置为:
将所述第一数据和与所述第一ML模型相关的第二数据进行比较,并且当所述第一数据与所述第二数据之间的差高于或等于阈值时,所述条件被满足。
16.根据权利要求11-15中任一项所述的第一网络节点(111),其中,所述第一网络节点还被配置为:
-在第二条件被满足时,修剪演进分支的至少一个ML模型。
17.根据权利要求16所述的第一网络节点(111),其中,所述第二条件包括与所述至少一个ML模型的所述数据相关的第一参数和/或第二参数。
18.根据权利要求11-17中任一项所述的第一网络节点(111),其中,所述第一网络节点还被配置为:
基于所比较的不同演进分支的所述第一ML模型的不同版本的数据值,选择沿着演进分支演进的ML模型。
19.根据权利要求18所述的第一网络节点(111),其中,所述第一网络节点被配置为:将所述第一ML模型的所述不同版本的所述数据值与验证集进行比较。
20.根据权利要求18-19中任一项所述的第一网络节点(111),其中,所述第一网络节点还被配置为:向所述第二网络节点(112)发送所选择的ML模型。
21.一种包括指令的计算机程序产品,所述指令当在至少一个处理器上被执行时使得所述至少一个处理器执行由所述第一网络节点执行的根据权利要求1-10中任一项所述的方法。
22.一种计算机可读存储介质,其上存储有包括指令的计算机程序产品,所述指令当在至少一个处理器上被执行时使得所述至少一个处理器执行由所述第一网络节点执行的根据权利要求1-10中任一项所述的方法。
CN202080102241.0A 2020-04-20 2020-04-20 第一网络节点和在其中执行的用于处理通信网络中的数据的方法 Pending CN115804074A (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2020/061028 WO2021213626A1 (en) 2020-04-20 2020-04-20 First network node and method performed therein for handling data in a communication network

Publications (1)

Publication Number Publication Date
CN115804074A true CN115804074A (zh) 2023-03-14

Family

ID=70391127

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080102241.0A Pending CN115804074A (zh) 2020-04-20 2020-04-20 第一网络节点和在其中执行的用于处理通信网络中的数据的方法

Country Status (4)

Country Link
US (1) US20230188430A1 (zh)
EP (1) EP4140096A1 (zh)
CN (1) CN115804074A (zh)
WO (1) WO2021213626A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220156574A1 (en) * 2020-11-19 2022-05-19 Kabushiki Kaisha Toshiba Methods and systems for remote training of a machine learning model

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10460255B2 (en) * 2016-07-29 2019-10-29 Splunk Inc. Machine learning in edge analytics
US11170320B2 (en) * 2018-07-19 2021-11-09 Adobe Inc. Updating machine learning models on edge servers
RU2702980C1 (ru) * 2018-12-14 2019-10-14 Самсунг Электроникс Ко., Лтд. Распределённое обучение моделей машинного обучения для персонализации

Also Published As

Publication number Publication date
US20230188430A1 (en) 2023-06-15
WO2021213626A1 (en) 2021-10-28
EP4140096A1 (en) 2023-03-01

Similar Documents

Publication Publication Date Title
US20220150727A1 (en) Machine learning model sharing between wireless nodes
CN111466103B (zh) 用于网络基线的生成和适配的方法和系统
WO2020036521A1 (en) Apparatuses, devices and methods for performing beam management
CN111967605A (zh) 无线电接入网中的机器学习
US20240187906A1 (en) Data transmission configuration utilizing a state indication
US11968151B2 (en) Spatial inter-cell interference aware downlink coordination
CN116671068A (zh) 策略确定的方法和装置
WO2022206513A1 (zh) 模型处理的方法、通信装置和系统
WO2020192922A1 (en) Intermediate network node and method performed therein for handling data of communication networks
CN115804074A (zh) 第一网络节点和在其中执行的用于处理通信网络中的数据的方法
US12010571B2 (en) Spectral efficiency prediction with artificial intelligence for enhancing carrier aggregation and proactive radio resource management
US20230084883A1 (en) Group-common reference signal for over-the-air aggregation in federated learning
US20240152820A1 (en) Adaptive learning in distribution shift for ran ai/ml models
WO2023093725A1 (zh) 一种校准方法及装置
US20240135192A1 (en) Zone gradient diffusion (zgd) for zone-based federated learning
US20230325654A1 (en) Scalable deep learning design for missing input features
WO2024020993A1 (en) Machine learning based mmw beam measurement
WO2024032694A1 (zh) Csi预测处理方法、装置、通信设备及可读存储介质
WO2023118307A1 (en) Systems and methods to control aiml model re-training in communication networks
WO2023216043A1 (en) Identification of ue mobility states, ambient conditions, or behaviors based on machine learning and wireless physical channel characteristics
US20230385651A1 (en) Method of determining zone membership in zone-based federated learning
WO2024067281A1 (zh) Ai模型的处理方法、装置及通信设备
WO2023126468A1 (en) Systems and methods for inter-node verification of aiml models
WO2024027911A1 (en) Task specific models for wireless networks
CN117834427A (zh) 更新ai模型参数的方法、装置及通信设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination