CN115186833A - 联邦学习方法、系统、装置及存储介质 - Google Patents

联邦学习方法、系统、装置及存储介质 Download PDF

Info

Publication number
CN115186833A
CN115186833A CN202211087511.2A CN202211087511A CN115186833A CN 115186833 A CN115186833 A CN 115186833A CN 202211087511 A CN202211087511 A CN 202211087511A CN 115186833 A CN115186833 A CN 115186833A
Authority
CN
China
Prior art keywords
model
trained
parameters
aggregator
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211087511.2A
Other languages
English (en)
Inventor
吴飞
沈弢
吴超
况琨
王峰
纪络
杨红霞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alibaba China Co Ltd
Original Assignee
Alibaba China Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alibaba China Co Ltd filed Critical Alibaba China Co Ltd
Priority to CN202211087511.2A priority Critical patent/CN115186833A/zh
Publication of CN115186833A publication Critical patent/CN115186833A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Feedback Control In General (AREA)

Abstract

本申请提供一种联邦学习方法、系统、装置及存储介质。本申请的方法,在联邦学习中对各个参与方设备使用本地数据训练得到的模型进行聚合时,将多个训练后的模型的模型参数输入聚合器进行模型参数聚合,根据聚合后的模型参数更新待训练模型的参数,并使用公共数据集对更新后的待训练模型进行评估,根据模型评估结果更新聚合器的参数,通过使用具有训练参数的聚合器,能够隐式地根据不同的模型参数,实现模型参数的去偏聚合,并且参数化的聚合器可以利用聚合后的模型在公共数据集上的表现,反向传播更新聚合器的参数,使得聚合器可以直接学习到聚合偏差,缓解了数据异质性问题,提高了联邦学习训练的收敛性,训练后的模型具有更强的泛化能力。

Description

联邦学习方法、系统、装置及存储介质
技术领域
本申请涉及计算机技术,尤其涉及一种联邦学习方法、系统、装置及存储介质。
背景技术
对于深度学习等数据依赖性强的机器学习方法而言,数据本身的价值对模型表现起决定性作用,往往是模型的改进与算力的提升所难以代替的。但是在机器学习过程中需要对数据所有权进行确认和保护用户的私有数据,各个用户的私有数据存储在用户的本地设备上,形成“数据孤岛”。
联邦学习是解决数据孤岛问题的一种分布式机器学习范式,与传统分布式机器学习训练场景不同,联邦学习中的数据集分散且固定在各个参与方(也即数据拥有者)的设备中,各个参与方设备存储的数据不满足独立同分布的理论假设,存在数据的非独立同分布(Not Identically and Independently Distributed,简称Non-IID)的问题,导致在联邦学习中存在模型难以收敛的问题。
发明内容
本申请提供一种联邦学习方法、系统、装置及存储介质,用以解决在联邦学习中存在模型难以收敛的问题。
一方面,本申请提供一种联邦学习方法,应用于第一设备,所述第一设备与多个用于进行联邦学习的第二设备通信连接,所述方法包括:
在联邦学习的每一训练周期内,响应于接收到多个第二设备发送的训练后的模型,将多个所述训练后的模型的模型参数输入聚合器进行模型参数聚合,得到聚合后的模型参数,并根据所述聚合后的模型参数更新待训练模型的参数,其中,所述训练后的模型是第二设备使用本地数据对待训练模型进行本地训练后得到的;
使用公共数据集对更新后的待训练模型进行评估,根据模型评估结果更新所述聚合器的参数。
在一可选实施例中,所述响应于接收到多个第二设备发送的训练后的模型,将多个所述训练后的模型的模型参数输入聚合器进行模型参数聚合,得到聚合后的模型参数之前,还包括:
选择本训练周期内参与训练的多个第二设备,向所述多个第二设备下发本训练周期的待训练模型。
在一可选实施例中,所述根据所述聚合后的模型参数更新所述待训练模型的参数之后,还包括:
若迭代周期数未达到预设周期数,则将更新后的待训练模型作为下一训练周期的待训练模型,将更新后的聚合器作为下一训练周期使用的聚合器,进入下一训练周期的模型训练;若迭代周期数达到所述预设周期数,则将更新后的待训练模型作为训练好的目标模型。
在一可选实施例中,所述聚合器为具有参数的神经网络。
另一方面,本申请提供一种联邦学习系统,包括:第二设备,与所述第二设备通信连接的第一设备;
所述第一设备将待训练模型下发至多个第二设备;
所述多个第二设备使用本地数据对待训练模型进行本地训练,并将训练后的模型发送至所述第一设备;
所述第一设备响应于接收到所述多个第二设备发送的训练后的模型,将多个所述训练后的模型的模型参数输入聚合器进行模型参数聚合,得到聚合后的模型参数,根据所述聚合后的模型参数更新所述待训练模型的参数,并使用公共数据集对更新后的待训练模型进行评估,根据模型评估结果更新所述聚合器的参数。
在一可选实施例中,在将待训练模型下发至多个第二设备之前,所述第一设备选择本训练周期内参与训练的多个第二设备。
在一可选实施例中,在联邦学习的每一训练周期内,根据所述聚合后的模型参数更新所存储的待训练模型的参数,并使用所存储的公共数据集对更新后的待训练模型进行评估,根据模型评估结果更新所存储的聚合器的参数之后,所述第一设备判断迭代周期数是否达到预设周期数;若迭代周期数未达到预设周期数,则将更新后的待训练模型作为下一训练周期的待训练模型,将更新后的聚合器作为下一训练周期使用的聚合器,进行下一训练周期的模型训练;若迭代周期数达到所述预设周期数,则将更新后的待训练模型作为训练好的目标模型。
在一可选实施例中,所述聚合器为具有参数的神经网络。
另一方面,本申请提供一种联邦学习装置,应用于第一设备,所述第一设备与多个用于进行联邦学习的第二设备通信连接,所述装置包括:
参数聚合模块,用于在联邦学习的每一训练周期内,响应于接收到多个第二设备发送的训练后的模型,将多个所述训练后的模型的模型参数输入聚合器进行模型参数聚合,得到聚合后的模型参数,并根据所述聚合后的模型参数更新待训练模型的参数,其中,所述训练后的模型是第二设备使用本地数据对待训练模型进行本地训练后得到的;
聚合器训练模块,用于使用公共数据集对更新后的待训练模型进行评估,根据模型评估结果更新所述聚合器的参数。
在一可选实施例中,联邦学习装置还包括:
下发模块,用于选择本训练周期内参与训练的多个第二设备,向所述多个第二设备下发本训练周期的待训练模型。
在一可选实施例中,联邦学习装置还包括:
迭代控制模块,用于:若迭代周期数未达到预设周期数,则将更新后的待训练模型作为下一训练周期的待训练模型,将更新后的聚合器作为下一训练周期使用的聚合器,进入下一训练周期的模型训练;若迭代周期数达到所述预设周期数,则将更新后的待训练模型作为训练好的目标模型。
另一方面,本申请提供一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机执行指令,所述计算机执行指令被处理器执行时用于实现上述所述的联邦学习方法。
本申请提供的联邦学习方法、系统、装置及存储介质,通过在联邦学习的每一训练周期中对各个参与方设备使用本地数据训练得到的模型进行聚合时,将多个所述训练后的模型的模型参数输入聚合器进行模型参数聚合,得到聚合后的模型参数,根据所述聚合后的模型参数更新待训练模型的参数,并使用公共数据集对更新后的待训练模型进行评估,根据模型评估结果更新所述聚合器的参数,在训练待训练模型的同时,训练优化聚合器的参数,通过使用具有训练参数的聚合器,能够隐式地根据不同的模型参数,实现模型参数的去偏聚合,并且参数化的聚合器可以利用聚合后的模型在公共数据集上的表现,反向传播更新聚合器的参数,使得聚合器可以直接学习到聚合偏差,缓解了数据异质性问题,提高了联邦学习训练的收敛性,训练后的模型具有更强的泛化能力。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。
图1为本申请一示例实施例提供的联邦学习系统的框架图;
图2 为本申请一示例实施例提供的联邦学习方法流程图;
图3为本申请另一示例实施例提供的联邦学习方法流程图;
图4为本申请一示例实施例提供的联邦学习装置的结构示意图;
图5为本申请另一示例实施例提供的联邦学习装置的结构示意图;
图6为本申请一示例实施例提供的一种电子设备的结构示意图。
通过上述附图,已示出本申请明确的实施例,后文中将有更详细的描述。这些附图和文字描述并不是为了通过任何方式限制本申请构思的范围,而是通过参考特定实施例为本领域技术人员说明本申请的概念。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。
首先对本申请所涉及的名词进行解释:
联邦学习(Federated Learning,简称FL)是一种分布式机器学习技术,其核心思想是通过在多个拥有本地数据的数据源之间进行分布式模型训练,在不需要交换本地个体数据或样本数据的前提下,仅通过交换模型参数或中间结果的方式,构建基于虚拟融合数据下的全局模型,从而实现数据隐私保护和数据共享计算的平衡的一种应用新范式。
联邦学习中的数据集分散且固定在拥有者(也即联邦学习的参与方)的设备中,存在数据的非独立同分布(Non-IID)的问题,因此在模型聚合时会因模型参数差异而导致收敛性问题,如何聚合基于异质数据训练得到的模型参数,是解决联邦学习收敛性问题的关键。
传统的联邦学习中对于基于不同参与方设备的异质数据训练得到的模型参数,采用平均聚合策略聚合模型参数,缺乏有效的反馈机制,无法控制聚合模型的收敛和稳定性,无法解决联邦学习的收敛性问题。
针对联邦学习中的收敛性问题,本申请实施例中,通过在联邦学习的每一训练周期中对各个参与方设备使用本地数据训练得到的模型进行聚合时,将多个训练后的模型的模型参数输入聚合器进行模型参数聚合,得到聚合后的模型参数,并根据聚合后的模型参数更新待训练模型的参数,并使用公共数据集对更新后的待训练模型进行评估,根据模型评估结果更新聚合器的参数,在训练待训练模型的同时,训练优化聚合器的参数,通过使用具有训练参数的聚合器,能够隐式地根据不同的模型参数,实现模型参数的去偏聚合,并且参数化的聚合器可以利用聚合后的模型在公共数据集上的表现,反向传播更新聚合器的参数,使得聚合器可以直接学习到聚合偏差,缓解了数据异质性问题,极大地提高联邦学习训练的收敛性,训练后的模型具有更强的泛化能力。
本申请中,第一设备和第二设备是本方案具体描述时的代称。将拥有私有数据集且参与联邦学习的参与方设备作为第二设备,将负责聚合多个第二设备的中间数据的设备作为第一设备。在具体计算环境下,第一设备,第二设备可以是云端服务器,多个服务器,服务器与客户端,多个客户端的具体指代。
下面以具体地实施例对本申请的技术方案以及本申请的技术方案如何解决上述技术问题进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。下面将结合附图,对本申请的实施例进行描述。
图1为本申请一示例实施例提供的联邦学习系统的框架图。如图1所示,联邦学习系统包括:第一设备10和多个用于进行联邦学习的第二设备(如图1所示的21、22、23)。其中,第一设备10与第二设备通信连接。第一设备10和多个第二设备联合进行联邦学习实现模型训练。第一设备10上部署有具有可训练的参数的聚合器11,并存储有公共数据集12和待训练的模型13。第二设备上存储有私有的本地数据。
基于图1所示的联邦学习系统,在联邦学习的每一训练周期内,第一设备10向多个第二设备下发待训练模型13。各个第二设备独立地使用本地数据对待训练模型进行训练,并将训练后的模型发送至第一设备10。不同第二设备基于各自的本地数据训练后得到的有着不同的模型参数。第一设备10响应于接收到多个第二设备发送的训练后的模型,将多个训练后的模型的模型参数输入聚合器11,通过聚合器11对多个训练后的模型进行模型参数聚合,得到聚合后的模型参数,并根据聚合后的模型参数更新待训练模型的参数,得到更新后的待训练模型。进一步地,第一设备10利用公共数据集12对更新后的待训练模型进行评估,根据模型评估结果更新聚合器11的参数,从而实现聚合器11的训练。
经过多个上述训练周期的迭代训练之后,可以得到收敛的模型。
示例性地,第一设备可以是部署在云端或本地的电子设备,可以是集群集群或一台计算设备,此处不做具体限定。在本实施例中,并不限定聚合器、公共数据集和模型在服务器集群上的部署实现方式。可选地,聚合器、公共数据集和模型可以部署在同一服务器上。可选地,聚合器、公共数据集和模型可以进行分布式部署,并且借助云计算系统实现整体系统功能。如聚合器可以单独部署在一服务器上,用于实现模型参数聚合、聚合器参数更新的功能,公共数据集和待训练的模型部署在另一服务器上,用于实现模型下发、模型评估的功能。
其中,聚合器可以为具有参数的神经网络,聚合器的参数在模型训练过程中基于公共数据集进行更新。在联邦学习过程中利用元学习的框架,将第二设备的本地数据作为支撑集(support set),基于支撑集(第二设备的本地数据)的数据训练模型,并利用聚合器聚合训练后的模型的参数,得到聚合后的模型参数,从而确定聚合后的模型;进一步地,将第一设备的公共数据集作为查询集(query set),利用查询集(公共数据集)对聚合后的模型进行评估,并根据评估结果通过反向传播更新聚合器的参数,来训练聚合器,使得聚合器可以学习到聚合偏差,利用参数化的聚合器聚合模型参数,能够缓解数据异质性问题,极大地提高联邦学习训练的收敛性。
示例性地,利用查询集(公共数据集)对聚合后的模型进行评估时,可以将查询集中的样本数据输入聚合后的模型,并获取模型的输出结果,基于模型的数据结果,采用预先设置的损失函数计算损失值,得到评估结果。
另外,聚合器的参数的初始值可以通过随机初始化确定,或者,可以将与待训练模型具有相同网络结构的另一模型进行联邦学习完成后的聚合器的最终参数,作为对待训练模型进行联邦学习时使用的聚合器的初始参数。
示例性地,聚合器可以采用用于输出另一神经网络的参数的超网络(hypernetwork),具体采用的网络结构可以根据待训练模型的参数类型确定。
本实施例中,通过使用具有可训练的参数的聚合器,聚合器的参数在模型训练过程中基于公共数据集进行更新,能够隐式地根据不同的模型参数,实现模型参数的去偏聚合,并且参数化的聚合器可以利用聚合后的模型在公共数据集上的表现,反向传播更新聚合器的参数,使得聚合器可以直接学习到聚合偏差,缓解了数据异质性问题,极大地提高联邦学习训练的收敛性,训练后的模型具有更强的泛化能力。
在一可选实施例中,在联邦学习的每一训练周期内,第一设备可以选择本训练周期内参与训练的多个第二设备,不同训练周期内参与联邦学习的第二设备不完全相同。通过在不同训练周期内选择不同的第二设备参与训练,可以有效利用各个第二设备的本地数据进行模型训练,从而提高模型的泛化能力。
可选地,在联邦学习的每一训练周期内,第一设备可以随机选择第一数量的第二设备,作为本训练周期内参与联邦学习的第二设备。其中,选择的第二设备的第一数量可以根据第二设备的总数进行设置,此处不做具体限定。
示例性地,可以设置第一数量占第二设备的总数的百分比(如10%),根据该百分比和第二设备总数确定第一数量;或者,可以直接设置第一数量的具体数值。
可选地,在联邦学习的每一训练周期内,第一设备还可以根据每一训练周期内参与联邦学习的第二设备的固定数量,对第二设备进行分组,通过分组轮询的方式,依次选用一个分组内的第二设备作为当前训练周期内参与联邦学习的第二设备。
另外,第一设备还可以采用其他预先设置的策略来选择每一训练周期内参与联邦学习的第二设备,此处不做具体限定。
在一可选实施例中,在联邦学习的每一训练周期内,根据聚合后的模型参数更新所存储的待训练模型的参数,并使用所存储的公共数据集对更新后的待训练模型进行评估,根据模型评估结果更新所存储的聚合器的参数之后,第一设备确定当前的迭代周期数,判断迭代周期数是否达到预设周期数,将迭代周期数达到预设周期数作为停止迭代训练的条件。
示例性地,第一设备可以存储迭代周期数,迭代周期数的初始值可以为0,每一训练周期内,根据模型评估结果更新所存储的聚合器的参数之后,更新迭代周期数,将迭代周期数加1。如果迭代周期数小于预设周期数,则确定迭代周期数未达到预设周期数;如果迭代周期数等于预设周期数,则确定迭代周期数达到预设周期数。
示例性地,第一设备存储控制变量,该控制变量的初始值为预设周期数,每一训练周期内,根据模型评估结果更新所存储的聚合器的参数之后,更新迭代周期数,将迭代周期数减1。如果更新后的迭代周期数大于0,则确定迭代周期数未达到预设周期数;如果迭代周期数等于0,则确定迭代周期数达到预设周期数。
若迭代周期数未达到预设周期数,则将更新后的待训练模型作为下一训练周期的待训练模型,将更新后的聚合器作为下一训练周期使用的聚合器,进行下一训练周期的模型训练。
若迭代周期数达到预设周期数,则停止迭代训练,将更新后的待训练模型作为训练好的目标模型。
其中,预设周期数为预先设置的联邦学习的最大迭代周期数,预设周期数可以存储在第一设备上。预设周期数可以由相关人员通过命令或可视化界面的方式进行配置和调整,此处不做具体限定。
图2 为本申请一示例实施例提供的联邦学习方法流程图。本方法的执行主体为联邦学习系统中的第一设备。第一设备与多个用于进行联邦学习的第二设备通信连接。如图2所示,该方法具体步骤如下:
步骤S201、在联邦学习的每一训练周期内,响应于接收到多个第二设备发送的训练后的模型,将多个训练后的模型的模型参数输入聚合器进行模型参数聚合,得到聚合后的模型参数,并根据聚合后的模型参数更新待训练模型的参数,其中,训练后的模型是第二设备使用本地数据对待训练模型进行本地训练后得到的。
本实施例中基于图1所示的联邦学习的系统框架,在联邦学习过程中参与联邦学习的多个第二设备使用本地数据对待训练模型进行训练,并将训练后的模型发送至第一设备。第一设备在对各个第二设备发送的模型进行模型参数聚合时,将各个第二设备发送的模型的模型参数输入聚合器,通过聚合器聚合多组模型参数,得到聚合后的模型参数,并根据聚合后的模型参数更新待训练模型的参数,得到更新后的模型。
步骤S202、使用公共数据集对更新后的待训练模型进行评估,根据模型评估结果更新聚合器的参数。
在根据聚合后的模型参数更新待训练模型的参数,得到更新后的模型之后,利用公共数据集对更新后的模型进行评估,基于评估结果通过反向传播来更新聚合器的参数,实现聚合器的训练。
示例性地,利用查询集(公共数据集)对聚合后的模型进行评估时,可以将查询集中的样本数据输入聚合后的模型,并获取模型的输出结果,基于模型的数据结果,采用预先设置的损失函数计算损失值,得到评估结果。进一步地,根据损失值,通过反向传播来更新聚合器的参数。
本实施例中,通过使用具有可训练的参数的聚合器,能够隐式地根据不同的模型参数,实现模型参数的去偏聚合,并且参数化的聚合器可以利用聚合后的模型在公共数据集上的表现,反向传播更新聚合器的参数,使得聚合器可以直接学习到聚合偏差,缓解了数据异质性问题,极大地提高联邦学习训练的收敛性,训练后的模型具有更强的泛化能力。
图3为本申请另一示例实施例提供的联邦学习方法流程图。在上述方法实施例的基础上,本实施例中,在每一训练周期内,由第一设备选择本训练周期内参与训练的多个第二设备,并向多个第二设备下发本训练周期的待训练模型,通过在不同训练周期内选择不同的第二设备参与训练,可以有效利用各个第二设备的本地数据进行模型训练,从而提高模型的泛化能力。
如图3所示,该方法具体步骤如下:
步骤S301、第一设备选择本训练周期内参与训练的多个第二设备。
本实施例中,在联邦学习的每一训练周期内,第一设备可以选择本训练周期内参与训练的多个第二设备,使得不同训练周期内参与联邦学习的第二设备不完全相同。通过在不同训练周期内选择不同的第二设备参与训练,可以有效利用各个第二设备的本地数据进行模型训练,从而提高模型的泛化能力。
可选地,在联邦学习的每一训练周期内,第一设备可以随机选择第一数量的第二设备,作为本训练周期内参与联邦学习的第二设备。其中,选择的第二设备的第一数量可以根据第二设备的总数进行设置,此处不做具体限定。
示例性地,可以设置第一数量占第二设备的总数的百分比(如10%),根据该百分比和第二设备总数确定第一数量;或者,可以直接设置第一数量的具体数值。
可选地,在联邦学习的每一训练周期内,第一设备还可以根据每一训练周期内参与联邦学习的第二设备的固定数量,对第二设备进行分组,通过分组轮询的方式,依次选用一个分组内的第二设备作为当前训练周期内参与联邦学习的第二设备。
另外,第一设备还可以采用其他预先设置的策略来选择每一训练周期内参与联邦学习的第二设备,此处不做具体限定。
步骤S302、第一设备向多个第二设备下发本训练周期的待训练模型。
在联邦学习的第一个训练周期内,第一设备将所存储的初始的待训练模型下发至多个参与本周期联邦学习的多个第二设备。在联邦学习的后续各个训练周期内,第一设备将上一训练周期内得到的更新后的模型(也即具有聚合后的模型参数的模型)作为本训练周期内初始的待训练模型,向多个参与本周期联邦学习的多个第二设备下方本训练周期的初始的待训练模型。
步骤S303、第二设备使用本地数据对待训练模型进行本地训练,并将训练后的模型发送至第一设备。
第二设备在接收到待训练模型后,使用所存储的本地数据对该待训练模型进行本地训练,得到训练后的模型,并将训练后的模型上传至第一设备。
步骤S304、第一设备将多个训练后的模型的模型参数输入聚合器进行模型参数聚合,得到聚合后的模型参数,并根据聚合后的模型参数更新待训练模型的参数。
其中,聚合器可以部署在第一设备上。
第一设备接收参与联邦学习的各个第二设备发送的训练后的模型,将这些训练后的模型的模型参数输入聚合器,通过聚合器聚合各个训练后的模型的模型参数,得到聚合后的模型参数。
进一步地,第一设备根据聚合后的模型参数更新待训练模型的参数,得到更新后的模型,也即聚合后的模型。
步骤S305、第一设备使用公共数据集对更新后的待训练模型进行评估,根据模型评估结果更新聚合器的参数。
其中,第一设备存储有公共数据集。公共数据集作为用于聚合模型参数的聚合器的训练集,以训练聚合器的参数。
本实施例中,在根据聚合后的模型参数更新待训练模型的参数,得到更新后的模型之后,第一设备利用所存储的公共数据集对更新后的模型进行评估,基于评估结果通过反向传播来更新聚合器的参数,实现聚合器的训练。
示例性地,利用查询集(公共数据集)对聚合后的模型进行评估时,可以将查询集中的样本数据输入聚合后的模型,并获取模型的输出结果,基于模型的数据结果,采用预先设置的损失函数计算损失值,得到评估结果。进一步地,根据损失值,通过反向传播来更新聚合器的参数。
示例性地,聚合器可以为具有参数的神经网络。通过使用具有可训练的参数的神经网络作为聚合器,能够隐式地根据不同的模型参数,实现模型参数的去偏聚合,并且参数化的聚合器可以利用聚合后的模型在公共数据集上的表现,反向传播更新聚合器的参数,使得聚合器可以直接学习到聚合偏差,缓解了数据异质性问题,极大地提高联邦学习训练的收敛性,训练后的模型具有更强的泛化能力。
本实施例中,在联邦学习过程中,基于元学习的框架,将第二设备的本地数据作为支撑集(support set),将第一设备的公共数据集作为查询集(query set),来训练聚合器。
具体地,基于支撑集(第二设备的本地数据)的数据训练模型,并利用聚合器聚合训练后的模型的参数,得到聚合后的模型参数,从而确定聚合后的模型;进一步地,利用查询集(公共数据集)对聚合后的模型进行评估,并根据评估结果通过反向传播更新聚合器的参数,实现聚合器的训练,使得聚合器可以学习到聚合偏差,利用参数化的聚合器聚合模型参数,能够缓解数据异质性问题,极大地提高联邦学习训练的收敛性。
其中,聚合器的参数的初始值可以通过随机初始化确定,或者,可以将与待训练模型具有相同网络结构的另一模型进行联邦学习完成后的聚合器的最终参数,作为对待训练模型进行联邦学习时使用的聚合器的初始参数。
示例性地,聚合器可以采用用于输出另一神经网络的参数的超网络(hypernetwork),具体采用的网络结构可以根据待训练模型的参数类型确定。
另外,通过研究联邦学习中的收敛性的问题,发现联邦学习中不同第二设备间的本地数据不同,存储客户端漂移的问题。另外,不同训练周期间的使用训练数据存在差异,也即存在周期漂移的问题,这也是影响模型收敛的一个重要因素。通过利用公共数据集训练聚合器,能够缓解数据异质性的周期漂移问题,提高联邦学习训练的收敛速率。
步骤S306、判断迭代周期数是否达到预设周期数。
在联邦学习的每一训练周期内,根据聚合后的模型参数更新所存储的待训练模型的参数,并使用所存储的公共数据集对更新后的待训练模型进行评估,根据模型评估结果更新所存储的聚合器的参数之后,第一设备确定当前的迭代周期数,判断迭代周期数是否达到预设周期数,将迭代周期数达到预设周期数作为停止迭代训练的条件。
可选地,第一设备可以存储迭代周期数,迭代周期数的初始值可以为0,每一训练周期内,根据模型评估结果更新所存储的聚合器的参数之后,更新迭代周期数,将迭代周期数加1。如果迭代周期数小于预设周期数,则确定迭代周期数未达到预设周期数;如果迭代周期数等于预设周期数,则确定迭代周期数达到预设周期数。
可选地,第一设备存储控制变量,该控制变量的初始值为预设周期数,每一训练周期内,根据模型评估结果更新所存储的聚合器的参数之后,更新迭代周期数,将迭代周期数减1。如果更新后的迭代周期数大于0,则确定迭代周期数未达到预设周期数;如果迭代周期数等于0,则确定迭代周期数达到预设周期数。
其中,预设周期数为预先设置的联邦学习的最大迭代周期数,预设周期数可以存储在第一设备上。预设周期数可以由相关人员通过命令或可视化界面的方式进行配置和调整,此处不做具体限定。
若迭代周期数未达到预设周期数,则执行步骤S307,将更新后的待训练模型作为下一训练周期的待训练模型,将更新后的聚合器作为下一训练周期使用的聚合器,进行下一训练周期的模型训练。
若迭代周期数达到预设周期数,则执行步骤S308,将更新后的待训练模型作为训练好的目标模型。
步骤S307、若更新后的迭代周期数未达到预设周期数,则将更新后的待训练模型作为下一训练周期的待训练模型,将更新后的聚合器作为下一训练周期使用的聚合器,进入下一训练周期的模型训练。
步骤S308、若更新后的迭代周期数达到预设周期数,则将更新后的待训练模型作为训练好的目标模型。
本实施例中,在联邦学习的每一训练周期内,第一设备可以选择本训练周期内参与训练的多个第二设备,不同训练周期内参与联邦学习的第二设备不完全相同。通过在不同训练周期内选择不同的第二设备参与训练,可以有效利用各个第二设备的本地数据进行模型训练,从而提高模型的泛化能力。
通过使用具有可训练的参数的神经网络作为聚合器,能够隐式地根据不同的模型参数,实现模型参数的去偏聚合,并且基于元学习的框架,将第二设备的本地数据作为支撑集(support set),将第一设备的公共数据集作为查询集(query set),来训练聚合器,从而利用聚合后的模型在公共数据集上的表现,反向传播更新聚合器的参数,使得聚合器可以直接学习到聚合偏差,缓解了数据异质性问题,极大地提高联邦学习训练的收敛性,训练后的模型具有更强的泛化能力。
图4为本申请一示例实施例提供的联邦学习装置的结构示意图。本申请实施例提供的联邦学习装置应用于第一设备,第一设备与多个用于进行联邦学习的第二设备通信连接,本申请实施例提供的联邦学习装置可以执行联邦学习方法实施例提供的处理流程。如图4所示,联邦学习装置40包括:参数聚合模块41和聚合器训练模块41。
其中,参数聚合模块41用于在联邦学习的每一训练周期内,响应于接收到多个第二设备发送的训练后的模型,将多个训练后的模型的模型参数输入聚合器进行模型参数聚合,得到聚合后的模型参数,并根据聚合后的模型参数更新待训练模型的参数。其中,训练后的模型是第二设备使用本地数据对待训练模型进行本地训练后得到的。
聚合器训练模块42用于使用公共数据集对更新后的待训练模型进行评估,根据模型评估结果更新聚合器的参数。
在一可选实施例中,如图5所示,联邦学习装置40还包括:
下发模块43,用于选择本训练周期内参与训练的多个第二设备,向多个第二设备下发本训练周期的待训练模型。
在一可选实施例中,如图5所示,联邦学习装置40还包括:
迭代控制模块44,用于:若迭代周期数未达到预设周期数,则将更新后的待训练模型作为下一训练周期的待训练模型,将更新后的聚合器作为下一训练周期使用的聚合器,进入下一训练周期的模型训练;若迭代周期数达到预设周期数,则将更新后的待训练模型作为训练好的目标模型。
在一可选实施例中,聚合器为具有参数的神经网络,聚合器的参数在模型训练过程中基于公共数据集进行更新。
本申请实施例提供的装置可以具体用于执行上述任一实施例中第一设备所执行的处理流程,具体功能和所能实现的技术效果此处不再赘述。
本申请实施例中,在联邦学习的每一训练周期内,第一设备选择本训练周期内参与训练的多个第二设备,不同训练周期内参与联邦学习的第二设备不完全相同。通过在不同训练周期内选择不同的第二设备参与训练,可以有效利用各个第二设备的本地数据进行模型训练,从而提高模型的泛化能力。通过使用具有可训练的参数的神经网络作为聚合器,能够隐式地根据不同的模型参数,实现模型参数的去偏聚合,并且基于元学习的框架,将第二设备的本地数据作为支撑集(support set),将第一设备的公共数据集作为查询集(query set),来训练聚合器,从而利用聚合后的模型在公共数据集上的表现,反向传播更新聚合器的参数,使得聚合器可以直接学习到聚合偏差,缓解了数据异质性问题,极大地提高联邦学习训练的收敛性,训练后的模型具有更强的泛化能力。
另外,在上述实施例及附图中的描述的一些流程中,包含了按照特定顺序出现的多个操作,但是应该清楚了解,这些操作可以不按照其在本文中出现的顺序来执行或并行执行,仅仅是用于区分开各个不同的操作,序号本身不代表任何的执行顺序。另外,这些流程可以包括更多或更少的操作,并且这些操作可以按顺序执行或并行执行。需要说明的是,本文中的“第一”、“第二”等描述,是用于区分不同的消息、设备、模块等,不代表先后顺序,也不限定“第一”和“第二”是不同的类型。 “多个”的含义是两个以上,除非另有明确具体的限定。
图6为本申请一示例实施例提供的一种电子设备的结构示意图。该电子设备用于运行上述联邦学习方法中第一设备所执行的方法流程。如图6所示,该电子设备100包括:存储器104和处理器105。
存储器104,用于存储计算机程序,并可被配置为存储其它各种数据以支持在电子设备上的操作。该存储器104可以是对象存储(Object Storage Service,OSS)。
存储器104可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
处理器105,与存储器104耦合,用于执行存储器104中的计算机程序,以用于:在联邦学习的每一训练周期内,响应于接收到多个第二设备发送的训练后的模型,将多个训练后的模型的模型参数输入聚合器进行模型参数聚合,得到聚合后的模型参数,并根据聚合后的模型参数更新待训练模型的参数,其中,训练后的模型是第二设备使用本地数据对待训练模型进行本地训练后得到的;使用公共数据集对更新后的待训练模型进行评估,根据模型评估结果更新聚合器的参数。
在一可选实施例中,响应于接收到多个第二设备发送的训练后的模型,将多个训练后的模型的模型参数输入聚合器进行模型参数聚合,得到聚合后的模型参数之前,处理器105还可以选择本训练周期内参与训练的多个第二设备,向多个第二设备下发本训练周期的待训练模型。
在一可选实施例中,根据聚合后的模型参数更新待训练模型的参数之后,处理器105还可以执行如下处理:
若迭代周期数未达到预设周期数,则将更新后的待训练模型作为下一训练周期的待训练模型,将更新后的聚合器作为下一训练周期使用的聚合器,进入下一训练周期的模型训练;若迭代周期数达到预设周期数,则将更新后的待训练模型作为训练好的目标模型。
在一可选实施例中,聚合器可以为具有参数的神经网络,聚合器的参数在模型训练过程中基于公共数据集进行更新。
进一步,如图6所示,该电子设备还包括:防火墙101、负载均衡器102、通信组件106、电源组件108等其它组件。图6中仅示意性给出部分组件,并不意味着电子设备只包括图6所示组件。
本申请实施例提供的电子设备,在联邦学习的每一训练周期内,选择本训练周期内参与训练的多个第二设备,不同训练周期内参与联邦学习的第二设备不完全相同。通过在不同训练周期内选择不同的第二设备参与训练,可以有效利用各个第二设备的本地数据进行模型训练,从而提高模型的泛化能力。通过使用具有可训练的参数的神经网络作为聚合器,能够隐式地根据不同的模型参数,实现模型参数的去偏聚合,并且基于元学习的框架,将第二设备的本地数据作为支撑集(support set),将电子设备的公共数据集作为查询集(query set),来训练聚合器,从而利用聚合后的模型在公共数据集上的表现,反向传播更新聚合器的参数,使得聚合器可以直接学习到聚合偏差,缓解了数据异质性问题,极大地提高联邦学习训练的收敛性,训练后的模型具有更强的泛化能力。
相应地,本申请实施例还提供一种存储有计算机执行指令的计算机可读存储介质,当计算机执行指令/程序被处理器执行时,致使处理器实现上述任一方法实施例所提供的方案,具体功能和所能实现的技术效果此处不再赘述。
相应地,本申请实施例还提供一种计算机程序产品,包括计算机程序/指令,当计算机程序/指令被处理器执行时,致使处理器实现上述任一方法实施例所提供的方案,具体功能和所能实现的技术效果此处不再赘述。
上述图6中的通信组件被配置为便于通信组件所在设备和其他设备之间有线或无线方式的通信。通信组件所在设备可以接入基于通信标准的无线网络,如WiFi,2G、3G、4G/LTE、5G等移动通信网络,或它们的组合。在一个示例性实施例中,通信组件经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,通信组件还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
上述图6中的电源组件,为电源组件所在设备的各种组件提供电力。电源组件可以包括电源管理系统,一个或多个电源,及其他与为电源组件所在设备生成、管理和分配电力相关联的组件。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器 (CPU)、输入/输出接口、网络接口和内存。内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM) 和/或非易失性内存等形式,如只读存储器 (ROM) 或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存 (PRAM)、静态随机存取存储器 (SRAM)、动态随机存取存储器 (DRAM)、其他类型的随机存取存储器 (RAM)、只读存储器 (ROM)、电可擦除可编程只读存储器 (EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘 (DVD) 或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体 (transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括要素的过程、方法、商品或者设备中还存在另外的相同要素。
以上仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本申请的真正范围和精神由下面的权利要求书指出。
应当理解的是,本申请并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本申请的范围仅由所附的权利要求书来限制。

Claims (12)

1.一种联邦学习方法,其特征在于,应用于第一设备,所述第一设备与多个用于进行联邦学习的第二设备通信连接,所述方法包括:
在联邦学习的每一训练周期内,响应于接收到多个第二设备发送的训练后的模型,将多个所述训练后的模型的模型参数输入聚合器进行模型参数聚合,得到聚合后的模型参数,并根据所述聚合后的模型参数更新待训练模型的参数,其中,所述训练后的模型是第二设备使用本地数据对待训练模型进行本地训练后得到的;
使用公共数据集对更新后的待训练模型进行评估,根据模型评估结果更新所述聚合器的参数。
2.根据权利要求1所述的方法,其特征在于,所述响应于接收到多个第二设备发送的训练后的模型,将多个所述训练后的模型的模型参数输入聚合器进行模型参数聚合,得到聚合后的模型参数之前,还包括:
选择本训练周期内参与训练的多个第二设备,向所述多个第二设备下发本训练周期的待训练模型。
3.根据权利要求2所述的方法,其特征在于,所述根据所述聚合后的模型参数更新所述待训练模型的参数之后,还包括:
若迭代周期数未达到预设周期数,则将更新后的待训练模型作为下一训练周期的待训练模型,将更新后的聚合器作为下一训练周期使用的聚合器,进入下一训练周期的模型训练;
若迭代周期数达到所述预设周期数,则将更新后的待训练模型作为训练好的目标模型。
4.根据权利要求1-3中任一项所述的方法,其特征在于,所述聚合器为具有参数的神经网络,所述聚合器的参数在模型训练过程中基于公共数据集进行更新。
5.一种联邦学习系统,其特征在于,包括:第二设备,与所述第二设备通信连接的第一设备;
所述第一设备将待训练模型下发至多个第二设备;
所述多个第二设备使用本地数据对待训练模型进行本地训练,并将训练后的模型发送至所述第一设备;
所述第一设备响应于接收到所述多个第二设备发送的训练后的模型,将多个所述训练后的模型的模型参数输入聚合器进行模型参数聚合,得到聚合后的模型参数,根据所述聚合后的模型参数更新所述待训练模型的参数,并使用公共数据集对更新后的待训练模型进行评估,根据模型评估结果更新所述聚合器的参数。
6.根据权利要求5所述的系统,其特征在于,在将待训练模型下发至多个第二设备之前,所述第一设备选择本训练周期内参与训练的多个第二设备。
7.根据权利要求5所述的系统,其特征在于,在联邦学习的每一训练周期内,根据所述聚合后的模型参数更新所存储的待训练模型的参数,并使用所存储的公共数据集对更新后的待训练模型进行评估,根据模型评估结果更新所存储的聚合器的参数之后,所述第一设备判断迭代周期数是否达到预设周期数;若迭代周期数未达到预设周期数,则将更新后的待训练模型作为下一训练周期的待训练模型,将更新后的聚合器作为下一训练周期使用的聚合器,进行下一训练周期的模型训练;若迭代周期数达到所述预设周期数,则将更新后的待训练模型作为训练好的目标模型。
8.根据权利要求5-7中任一项所述的系统,其特征在于,所述聚合器为具有参数的神经网络,所述聚合器的参数在模型训练过程中基于公共数据集进行更新。
9.一种联邦学习装置,其特征在于,应用于第一设备,所述第一设备与多个用于进行联邦学习的第二设备通信连接,所述装置包括:
参数聚合模块,用于在联邦学习的每一训练周期内,响应于接收到多个第二设备发送的训练后的模型,将多个所述训练后的模型的模型参数输入聚合器进行模型参数聚合,得到聚合后的模型参数,并根据所述聚合后的模型参数更新待训练模型的参数,其中,所述训练后的模型是第二设备使用本地数据对待训练模型进行本地训练后得到的;
聚合器训练模块,用于使用公共数据集对更新后的待训练模型进行评估,根据模型评估结果更新所述聚合器的参数。
10.根据权利要求9所述的装置,其特征在于,还包括:
下发模块,用于选择本训练周期内参与训练的多个第二设备,向所述多个第二设备下发本训练周期的待训练模型。
11.根据权利要求9所述的装置,其特征在于,还包括:
迭代控制模块,用于:若迭代周期数未达到预设周期数,则将更新后的待训练模型作为下一训练周期的待训练模型,将更新后的聚合器作为下一训练周期使用的聚合器,进入下一训练周期的模型训练;若迭代周期数达到所述预设周期数,则将更新后的待训练模型作为训练好的目标模型。
12.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机执行指令,所述计算机执行指令被处理器执行时用于实现如权利要求1-4中任一项所述的方法。
CN202211087511.2A 2022-09-07 2022-09-07 联邦学习方法、系统、装置及存储介质 Pending CN115186833A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211087511.2A CN115186833A (zh) 2022-09-07 2022-09-07 联邦学习方法、系统、装置及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211087511.2A CN115186833A (zh) 2022-09-07 2022-09-07 联邦学习方法、系统、装置及存储介质

Publications (1)

Publication Number Publication Date
CN115186833A true CN115186833A (zh) 2022-10-14

Family

ID=83523843

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211087511.2A Pending CN115186833A (zh) 2022-09-07 2022-09-07 联邦学习方法、系统、装置及存储介质

Country Status (1)

Country Link
CN (1) CN115186833A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116246749A (zh) * 2023-05-11 2023-06-09 西南医科大学附属医院 集成电子病历的内分泌病人个性化健康管理系统

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116246749A (zh) * 2023-05-11 2023-06-09 西南医科大学附属医院 集成电子病历的内分泌病人个性化健康管理系统

Similar Documents

Publication Publication Date Title
Kang et al. Optimizing task assignment for reliable blockchain-empowered federated edge learning
US11461593B2 (en) Federated learning of clients
US20200050996A1 (en) High level workforce as a service delivery using a cloud-based platform
Huo et al. Discrete gbest-guided artificial bee colony algorithm for cloud service composition
CN104243405B (zh) 一种请求处理方法、装置及系统
US11676503B2 (en) Systems and methods for predictive modelling of digital assessment performance
CN113505520A (zh) 用于支持异构联邦学习的方法、装置和系统
CN116450312A (zh) 面向流水线并行训练的调度策略确定方法及系统
CN115186833A (zh) 联邦学习方法、系统、装置及存储介质
CN116957109A (zh) 基于联邦学习的模型构建方法、装置、设备及介质
CN113988310A (zh) 深度学习模型选择方法、装置、计算机设备和介质
Shamieh et al. Transaction throughput provisioning technique for blockchain-based industrial IoT networks
Hao et al. Optimal IoT service offloading with uncertainty in SDN-based mobile edge computing
Reiszadeh et al. Improving convergence properties of autonomous demand side management algorithms
CN117313832A (zh) 基于双向知识蒸馏的联合学习模型训练方法、装置及系统
Huang et al. Reinforcement learning for cost-effective IoT service caching at the edge
Qadeer et al. Hrl-edge-cloud: Multi-resource allocation in edge-cloud based smart-streetscape system using heuristic reinforcement learning
Liu et al. Resource allocation via edge cooperation in digital twin assisted Internet of Vehicle
Song et al. Distributed resource optimization with blockchain security for immersive digital twin in IIoT
CN114282750A (zh) 一种采用智能合约的配网负荷柔性调控方法及系统
Wang et al. Optimal energy efficiency for multi-mec and blockchain empowered iot: a deep learning approach
US20230394516A1 (en) Federated learning marketplace
CN115115064B (zh) 一种半异步联邦学习方法及系统
Fan et al. Mec network slicing: Stackelberg-game-based slice pricing and resource allocation with qos guarantee
CN106911739A (zh) 一种信息分发方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20221014