CN113435604B - 一种联邦学习优化方法及装置 - Google Patents

一种联邦学习优化方法及装置 Download PDF

Info

Publication number
CN113435604B
CN113435604B CN202110665601.4A CN202110665601A CN113435604B CN 113435604 B CN113435604 B CN 113435604B CN 202110665601 A CN202110665601 A CN 202110665601A CN 113435604 B CN113435604 B CN 113435604B
Authority
CN
China
Prior art keywords
local
gradient
model
federal learning
global
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110665601.4A
Other languages
English (en)
Other versions
CN113435604A (zh
Inventor
陈辉铭
李勇
金德鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN202110665601.4A priority Critical patent/CN113435604B/zh
Publication of CN113435604A publication Critical patent/CN113435604A/zh
Application granted granted Critical
Publication of CN113435604B publication Critical patent/CN113435604B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Computer And Data Communications (AREA)

Abstract

本发明提供一种联邦学习优化方法及装置,该方法包括:在当前轮次的联邦学习中,获取服务器端发送的全局模型和延迟全局梯度,延迟全局梯度是由上一轮次联邦学习中,每个客户端基于各自本地数据对上一轮次的全局梯度进行更新得到的;基于当前轮次的全局模型和延迟全局梯度,通过本地数据对本地模型进行更新,得到联邦学习更新量,联邦学习更新量包括本地模型的更新量和延迟全局梯度的更新量;将联邦学习更新量发送到服务器端,以供服务器端根据联邦学习更新量进行信息聚合,得到新的全局模型和全局梯度,并将新的全局模型和全局梯度发送到每个客户端,用于下一轮次的联邦学习。本发明有效地克服模型偏差问题,提升通信效率、降低计算复杂度。

Description

一种联邦学习优化方法及装置
技术领域
本发明涉及人工智能技术领域,尤其涉及一种联邦学习优化方法及装置。
背景技术
联邦学习(Federated Learning)是指在数据分布于多个客户端(例如边缘设备、移动终端和服务器等)且不共享的情况下,跨越多个分散的客户端进行联合,建立预测模型的一种分布式机器学习范式,因此成为打破“数据孤岛”、保障各参与方数据始终不出本地、能有效聚合各参与方信息的具有较大潜能的新方案。图1为本发明提供的联邦学习更新步骤的示意图,可参考图1所示,联邦学习可基于传统数据集中式云计算平台的改进升级得到,从而各参与方无需将数据上传至云端,仅将本地更新的模型上传到服务器,即可完成大数据挖掘等人工智能任务,大幅度降低因云端不可信等因素导致的数据隐私泄露问题。因此,联邦学习应用广泛,典型的应用场景包括各大医院在保障各自数据不出本地的基础上,联合进行医疗大数据挖掘等。在当前日趋严格的数据隐私保护法律法规背景下,联邦学习为实现高性能人工智能技术提供了十分有前景的解决方案。
联邦学习的核心技术为联邦优化算法,目前广泛采用联邦平均(FederatedAveraging,简称FedAvg)算法,完成大规模客户端联合学习数据的任务。该算法的核心思想是在本地进行多次随机梯度下降(Stochastic Gradient Descent,简称SGD)迭代,以实现本地模型的更新后,才将本地模型传输至中心服务器。因此,其相较传统分布式梯度下降算法,提高了收敛速度并在一定程度上降低了通信开销。但FedAvg算法存在模型偏差问题和通信开销大的问题等,导致在实际应用中性能损失严重。目前,业界针对FedAvg算法存在的问题展开研究。FedPaq从量化和压缩信息以减小过载的角度来提高通信效率,但该算法无法解决FedAvg算法存在的问题。而在FedProx算法中,从二次项约束的角度,限制本地模型与全局模型偏差较大等情况,但该算法在客户端采样和非独立同分布数据(non-IID)下,性能损失依然严重。VRL-SGD和MFL算法分别从减小梯度方差和动量加速的角度出发,但这些算法不支持客户端采样这一更实际的场景设置。利用SCAFFOLD、Mime等算法,结合控制变量来缓解模型偏差问题,可大幅度提升算法性能,但控制变量更新缓慢,依然有较大的性能提升空间。由此可知,现有联邦学习中模型偏差将会影响算法收敛速度,导致通信开销增大,通信效率较低。
因此,如何合理设计具有低计算复杂度、稳定快速收敛和具有较强的克服模型偏差能力的联邦优化算法是一个亟待解决的问题。
发明内容
针对现有技术存在的问题,本发明提供一种联邦学习优化方法及装置。
本发明提供一种联邦学习优化方法,包括:
在当前轮次的联邦学习中,获取服务器端发送的全局模型和延迟全局梯度,所述延迟全局梯度是由上一轮次联邦学习中,每个客户端基于各自本地数据对上一轮次的全局梯度进行更新得到的;
基于当前轮次的全局模型和延迟全局梯度,通过本地数据对本地模型进行更新,得到联邦学习更新量,所述联邦学习更新量包括本地模型的更新量和延迟全局梯度的更新量;
将所述联邦学习更新量发送到服务器端,以供服务器端根据所述联邦学习更新量进行信息聚合,得到新的全局模型和全局梯度,并将新的全局模型和全局梯度发送到每个客户端,用于下一轮次的联邦学习。
根据本发明提供的一种联邦学习优化方法,所述联邦学习的优化目标公式为:
其中,N表示总共有N个客户端进行联邦学习任务;fi(x)表示第i个客户端的本地损失函数,i∈[N],[N]表示集合{1,…,N};ni表示第i个客户端的数据集中包含有ni个数据,fi,j表示第i个客户端的数据集中第j个数据的损失函数,f表示全部客户端的平均损失函数,x表示服务器端的全局模型。
根据本发明提供的一种联邦学习优化方法,所述联邦学习更新量是通过本地随机平均控制算法计算得到的,所述本地随机平均控制算法的公式为:
其中,xi表示第i个客户端的本地模型,η表示学习步长,φi表示第i个客户端对全局梯度的估计,yi,j表示上一轮次联邦学习得到随机梯度,gi,j(xi)表示第i个客户端的本地模型中第j个数据的随机梯度,表示当前轮次更新xi前的随机梯度;Δφi表示当前轮次的联邦学习完成后,延迟全局梯度的更新量;/>表示本地客户端上的全局梯度估计在本地L次更新后的值,/>表示当前轮次的联邦学习中第i个客户端基于本地数据对应的梯度更新后的值,/>表示当前轮次的联邦学习中第i个客户端基于本地数据对应的梯度。
根据本发明提供的一种联邦学习优化方法,所述本地模型的更新公式为:
其中,表示第i个客户端的本地模型经过t+1次本地更新,/>表示联邦学习中第i个客户端的本地模型经过t次本地更新;/>表示经过t次本地更新后,得到延迟的本地模型序列;/>表示关于本地客户端所有数据的梯度,t表示本地更新的迭代次数。
本发明还提供一种联邦学习优化方法,包括:
在当前轮次的联邦学习中,获取每个客户端发送的联邦学习更新量,所述联邦学习更新量包括本地模型的更新量和延迟全局梯度的更新量;其中,所述延迟全局梯度是由每个客户端基于各自本地数据,对上一轮次联邦学习得到的全局梯度进行更新得到的;
根据所述联邦学习更新量进行信息聚合,得到新的全局模型和全局梯度,并将新的全局模型和全局梯度发送到每个客户端,用于下一轮次的联邦学习。
根据本发明提供的一种联邦学习优化方法,所述根据所述联邦学习更新量进行信息聚合,得到新的全局模型和全局梯度,包括:
通过信息聚合公式,对每个所述联邦学习更新量进行信息聚合,得到新的全局模型和全局梯度,所述信息聚合公式为:
其中,x表示服务器端的全局模型,N表示总共有N个客户端进行联邦学习任务,Δxi表示第i个客户端本地模型的更新量,φ表示服务器端的全局梯度,S表示本轮参与本地模型更新的客户端数量;Δφi表示在本轮次更新中,第i个客户端基于本地数据对延迟全局梯度的更新量。
本发明还提供一种联邦学习优化装置,包括:
第一获取模块,用于在当前轮次的联邦学习中,获取服务器端发送的全局模型和延迟全局梯度,所述延迟全局梯度是由上一轮次联邦学习中,每个客户端基于各自本地数据对上一轮次的全局梯度进行更新得到的;
更新模块,用于基于当前轮次的全局模型和延迟全局梯度,通过本地数据对本地模型进行更新,得到联邦学习更新量,所述联邦学习更新量包括本地模型的更新量和延迟全局梯度的更新量;
发送模块,用于将所述联邦学习更新量发送到服务器端,以供服务器端根据所述联邦学习更新量进行信息聚合,得到新的全局模型和全局梯度,并将新的全局模型和全局梯度发送到每个客户端,用于下一轮次的联邦学习。
本发明还提供一种联邦学习优化装置,包括:
第二获取模块,用于在当前轮次的联邦学习中,获取每个客户端发送的联邦学习更新量,所述联邦学习更新量包括本地模型的更新量和延迟全局梯度的更新量;其中,所述延迟全局梯度是由每个客户端基于各自本地数据,对上一轮次联邦学习得到的全局梯度进行更新得到的;
聚合模块,用于根据所述联邦学习更新量进行信息聚合,得到新的全局模型和全局梯度,并将新的全局模型和全局梯度发送到每个客户端,用于下一轮次的联邦学习。
本发明还提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述任一种所述联邦学习优化方法的步骤。
本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如上述任一种所述联邦学习优化方法的步骤。
本发明提供的一种联邦学习优化方法及装置,通过引入延迟全局梯度的概念,作为全局梯度的估计量,其旨在减小本地随机梯度与全局梯度的偏差,有效地克服模型偏差问题,从而提升通信效率、降低计算复杂度。
附图说明
为了更清楚地说明本发明或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明提供的联邦学习更新步骤的示意图;
图2为本发明提供的联邦学习优化方法的流程示意图之一;
图3为本发明提供的基于本地随机平均控制优化算法的流程示意图;
图4为本发明提供的延迟全局梯度的更新示意图;
图5为本发明提供的联邦学习优化方法的流程示意图之二;
图6为本发明提供的联邦学习优化装置的结构示意图图之一;
图7为本发明提供的联邦学习优化装置的结构示意图之二;
图8为本发明提供的基于联邦氮含量预测系统的联邦智慧农场架构示意图;
图9为本发明提供的基于联邦氮含量预测系统的联邦智慧农场的学习过程示意图;
图10为本发明提供的联邦油气开采平台灾害预测系统的示意图;
图11为本发明提供的联邦诊断系统的示意图;
图12为本发明提供的电子设备的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在现有的联邦学习中,针对其中的数据处理、模型训练以及模型参数更新等方法,采取了许多改进的方案,例如,对于数据采用分布式处理方案,通过使用差分隐私机制,将客户端学习所得到的机器学习模型直接以明文的方式进行聚合,实现了数据隐私保护基础上,扩展模型集成方式;对于模型训练,现有采用了一种边端云联邦学习方案,将边缘服务器负责所辖区域内的端设备数据进行学习,通过截断的方式完成模型的本地更新,并上传至云端服务器进一步进行阶段补偿处理,从而克服梯度偏差的问题;对于模型参数更新,现有的一种方案通过各参与方具有相同结构的待训练模型,获取梯度矩阵并更新一阶矩矩阵和二阶矩矩阵,分别从每层中提取部分元素获取稀疏一阶矩子矩阵和二阶矩子矩阵,形成稀疏矩阵,并逐层传输部分子矩阵给云中心服务器。
然而,现有的联邦学习存在以下两点局限:1、模型偏差问题,由于在联邦学习中,各个客户端的数据通常为非均匀独立,且在客户端采样(即与计算中心的每轮通信中,只有部分客户端参与更新)的设置下,导致在本地多次迭代更新时,在客户端采样的情况下,加剧了模型偏差问题,而模型偏差又制约了算法收敛性能,导致性能损失严重;2、通信开销与算法收敛问题,由于联邦学习中,客户端的数量较大,对通信带宽提出了较高的要求,导致硬件开销大,同时,一些客户端可能频繁“上线下线”,进一步地增加了通信开销。因此,在联邦学习苛刻的条件下,设计高通信效率的快速算法,对系统性能的提升至关重要。
图2为本发明提供的联邦学习优化方法的流程示意图之一,如图2所示,本发明提供了一种联邦学习优化方法,包括:
步骤201,在当前轮次的联邦学习中,获取服务器端发送的全局模型和延迟全局梯度,所述延迟全局梯度是由上一轮次联邦学习中,每个客户端基于各自本地数据对上一轮次的全局梯度进行更新得到的;
步骤202,基于当前轮次的全局模型和延迟全局梯度,通过本地数据对本地模型进行更新,得到联邦学习更新量,所述联邦学习更新量包括本地模型的更新量和延迟全局梯度的更新量;
步骤203,将所述联邦学习更新量发送到服务器端,以供服务器端根据所述联邦学习更新量进行信息聚合,得到新的全局模型和全局梯度,并将新的全局模型和全局梯度发送到每个客户端,用于下一轮次的联邦学习。
在本发明中,引入延迟全局梯度的概念,作为全局梯度的估计量,其旨在减小本地随机梯度与全局梯度的偏差,从而有效地克服模型偏差问题、提升通信效率和降低计算复杂度。
具体地,在联邦学习过程中,客户端接收到服务器端发送的全局模型与延迟全局梯度,然后客户端应用延迟全局梯度更新本地模型。在本发明中,客户端接收到的全局模型为上一轮次的联邦学习中,服务器端基于所有客户端上传的本地模型更新得到的,在当前轮次的联邦学习中,客户端将本轮次接收到的全局模型的参数,作为本地模型参数并结合本轮次接收到的延迟全局梯度,通过本地数据进行迭代训练,从而得到更新后的本地模型和延迟全局梯度。需要说明的是,在客户端上进行更新延迟全局梯度时,由于无法获取其他客户端的数据,因此,只能用本地数据信息来更新延迟全局梯度中对应的部分,而基于其他客户端数据信息的部分,则以加和形式保持不变,每个客户端将各自更新的延迟全局梯度上传到服务器端之后,服务器端将全局梯度估计量的更新进行聚合,从而使得延迟全局梯度的全部信息得到了更新。这一思路简单高效,不仅克服了模型偏差问题,且减小了梯度方差并加快了收敛速度。
本发明提供的联邦学习优化方法,通过引入延迟全局梯度的概念,作为全局梯度的估计量,其旨在减小本地随机梯度与全局梯度的偏差,有效地克服模型偏差问题,从而提升通信效率、降低计算复杂度。
在上述实施例的基础上,所述联邦学习的优化目标公式为:
其中,N表示总共有N个客户端进行联邦学习任务;fi(x)表示第i个客户端的本地损失函数,i∈[N],[N]表示集合{1,…,N};ni表示第i个客户端的数据集中包含有ni个数据,fi,j表示第i个客户端的数据集中第j个数据的损失函数,f表示全部客户端的平均损失函数,x表示服务器端的全局模型。
在现有联邦学习中,基于本地客户端数据所得的梯度,与全部客户端数据所得的梯度具有明显的偏差,当使用全局梯度进行模型更新时,将导致模型偏差问题。因此,本发明提供一种联邦学习中的高性能本地随机平均控制优化算法(An Efficient LocalStochastic Average Control Method for Federated Optimization,简称LoSAC),可缓解模型偏差问题并提高通信效率。具体地,联邦学习中的全局梯度为全部客户端基于其数据得到的整体梯度的平均值,但本地客户端仅能获取本地数据,因此无法对全局梯度进行全面的更新,如果保持其他客户端的梯度不变,而仅更新本客户端的梯度,所得到的梯度为延迟的全局梯度,实际上随着算法的收敛,该延迟全局梯度不断趋近于真实的全局梯度。因此,基于该思路,对全局梯度中对应本客户端的梯度进行更新,而保持其他客户端的梯度不变(其他客户端以加和形式保持不变),得到对全局梯度的估计量,可达到局部更新全局梯度估计的目的,此后将更新量在服务器端进行聚合,从而达到更大范围客户端针对全局梯度更新并精准估计的目的,且大幅度减小与实际全局梯度的差距,可解决由于本客户端无法获取其他客户端数据带来的难题。
基于上述对延迟全局梯度的描述,本发明中联邦学习的数学建模如下,假设有N个客户端进行联邦学习任务,第i个客户端的本地损失函数为fi(x),即:
其中,[N]表示客户端集合{1,…,N},每个客户端中的数据集包含了ni个数据,fi,j为关于数据集/>中第j个数据的损失函数,因此联邦优化的目标为N个客户端共同求解以下问题,即联邦学习的优化目标公式为:
其中,f为全部客户端的平均损失函数,模型x满足此外,以上函数满足
在上述实施例的基础上,所述联邦学习更新量是通过本地随机平均控制算法计算得到的,所述本地随机平均控制算法的公式为:
其中,xi表示第i个客户端的本地模型,η表示学习步长,φi表示第i个客户端对全局梯度的估计,yi,j表示上一轮次联邦学习得到随机梯度,gi,i(xi)表示第i个客户端的本地模型中第j个数据的随机梯度,表示当前轮次更新xi前的随机梯度;Δφi表示当前轮次的联邦学习完成后,延迟全局梯度的更新量;/>表示本地客户端上的全局梯度估计在本地L次更新后的值,/>表示当前轮次的联邦学习中第i个客户端基于本地数据对应的梯度更新后的值,/>表示当前轮次的联邦学习中第i个客户端基于本地数据对应的梯度。
在本发明中,图3为本发明提供的基于本地随机平均控制优化算法的流程示意图,可参考图3所示,在本地随机平均控制优化算法中,首先初始化服务器端和客户端,令客户端的本地模型和延迟全局梯度分别为xi和φi(其中,φi作为本地客户端i对全局梯度的估计,表示当前轮次的联邦学习过程中,客户端中在上一次更新后已保存的梯度),同时令服务器端的全局模型和延迟全局梯度为x和φ(其中,φ作为服务器对全局梯度的估计)。在新一轮通信中,服务器端先将(x,φ)传输至部分客户端即xi←x和φi←φ。客户端并行地执行更新公式:
其中,需要根据本地数据计算随机梯度gi,j(xi),数据j∈[ni]从{1,..,ni}中随机抽取,因此gi,j(xi)为fi(xi)的无偏估计,即:
yi,j存储过去(上一轮次的联邦学习)的随机梯度gi,j(zi,j)。因此,客户端i的延迟全局梯度φi可用gi,j(xi)来更新对应的过去随机梯度gi,j(zi,j),具体如下:
在更新之后,将此时的随机梯度存储起来,即用于下次对φi的更新。尽管φi是全局梯度的延迟版本,但在多次迭代更新后,其与全局梯度相差越来越小,且随着算法在理论上收敛,将有/>需要说明的是,延迟全局梯度φi虽包含了所有客户端的梯度信息,由于客户端i仅能获取本地数据/>因此在每次迭代中只能更新φi中的/>也就是说,客户端i基于本地数据,只对全局梯度中和自身梯度对应的那一部分进行更新,即:
图4为本发明提供的延迟全局梯度的更新示意图,如图4所示,在5个客户端的联邦学习更新延迟全局梯度中,以第一个客户端(以客户端1进行描述)更新过程进行说明,客户端1在接收到服务器端的延迟全局梯度之后,在本地进行梯度更新,从而得到延迟全局梯度的更新量Δφi。其中,基于梯度下降算法中全局梯度更新方式,对客户端中的本地模型进行t次迭代更新,可参考图4中的公式:
进一步地,在单个客户端上对延迟全局梯度进行更新,具体地,客户端1在本轮次的联邦学习中,从服务器端接收到的延迟全局梯度,其中,在该延迟全局梯度中,客户端1对应更新的部分为其他部分保持不变,具体可参考图4所示。
在本地模型多次进行迭代后,客户端将更新量(Δxi,Δφi)传输至服务器端进行信息聚合:
由此可看出,延迟全局梯度在服务器端进行了更大范围客户端的信息聚合,从而使得对全局梯度估计的准确度得到进一步提升。完成后,服务器端将(x,φ)传输至客户端进行下一轮通信的更新。
在上述实施例的基础上,所述本地模型的更新公式为:
其中,表示第i个客户端的本地模型经过t+1次本地更新,/>表示联邦学习中第i个客户端的本地模型经过t次本地更新;/>表示经过t次本地更新后,得到延迟的本地模型序列;/>表示关于本地客户端所有数据的梯度,t表示本地更新的迭代次数。
在本发明中,本地随机平均控制算法具有较强的克服模型偏差能力和较高的通信效率。由于对全局梯度进行两次精准估计,因此客户端大幅度减小了与全局模型的偏差,纠正了收敛的路径,理论上所提出的算法具有较强的克服模型偏差问题的能力。此外,在本地进行更新时,可将更新公式近似地表示为:其中,/>为延迟的本地模型,t为本地更新的次数。尽管该全局梯度的估计有部分延迟的信息,但与真实全局梯度相差不大,因此理论上模型的更新大幅度减少了偏差的存在。从另一个角度上看,1/Nφi-yi,j衡量了随机梯度/>与真实全局梯度的差距,加上这一项后,将弥补这一差距。同时,由于算法具有更快的收敛速度,因此,通信效率将大幅度提升。
此外,现有FedAvg算法在每次本地迭代中,由于随机梯度存在较大的方差,因此FedAvg可能存在不稳定收敛的问题,在客户端采样与non-IID数据的设置下,甚至可能导致算法无法收敛等问题。相比之下,本发明提供的本地随机平均控制算法具有收敛性,即xi→x*,因此,延迟的模型将满足此时更新公式可近似为:即标准的梯度下降算法,而在搜索方向上也将不存在方差。因此,从这些分析可以看出,在算法迭代更新时,搜索方向的方差不断地减小。因此,本地随机平均控制算法具有强鲁棒性。
在一实施例中,由于传统分布式算法传输梯度至云端的模式已被证明存在数据被深度梯度泄露(Deep Leakage from Gradient,简称DLG)算法获取,而导致隐私泄露的风险。为方便描述问题,本实施例令其中/>是本地客户端i的数据集合。假设攻击者在计算节点上传梯度的过程中获取了模型x与梯度/>则DLG算法将随机初始化的/>作为优化变量,在求解以下优化问题时:
不断逼近于/>时,则/>此时攻击者获取到数据/>因此,DLG算法实现梯度泄露的关键在于其需要获取模型与梯度的表达式。而本发明本地随机平均控制算法具有较强的对抗DLG算法的能力,这是由于本地客户端在更新全局梯度的估计量时,其已是延迟的版本,即/>攻击者已不可能获取梯度的延迟模型因此DLG算法难以从本地随机平均控制算法中获取数据。
图5为本发明提供的联邦学习优化方法的流程示意图之二,如图5所示,本发明提供了一种联邦学习优化方法,包括:
步骤501,在当前轮次的联邦学习中,获取每个客户端发送的联邦学习更新量,所述联邦学习更新量包括本地模型的更新量和延迟全局梯度的更新量;其中,所述延迟全局梯度是由每个客户端基于各自本地数据,对上一轮次联邦学习得到的全局梯度进行更新得到的;
步骤502,根据所述联邦学习更新量进行信息聚合,得到新的全局模型和全局梯度,并将新的全局模型和全局梯度发送到每个客户端,用于下一轮次的联邦学习。
在联邦学习过程中,服务器端发送全局模型与延迟全局梯度至客户端,以使得客户端应用延迟全局梯度更新本地模型。在本发明中,服务器端上一轮次的联邦学习中得到全局模型发送到客户端,该全局模型是服务器端基于所有客户端上传的本地模型更新得到的,在当前轮次的联邦学习中,客户端将本轮次接收到的全局模型的参数,作为本地模型参数并结合本轮次接收到的延迟全局梯度,通过本地数据进行迭代训练,从而得到更新后的本地模型和延迟全局梯度;然后,每个客户端将各自更新的延迟全局梯度上传到服务器端之后,服务器端将全局梯度估计量的更新进行聚合,从而使得延迟全局梯度的全部信息得到了更新。
本发明提供的联邦学习优化方法,通过引入延迟全局梯度的概念,作为全局梯度的估计量,其旨在减小本地随机梯度与全局梯度的偏差,有效地克服模型偏差问题,从而提升通信效率、降低计算复杂度。
在上述实施例的基础上,所述根据所述联邦学习更新量进行信息聚合,得到新的全局模型和全局梯度,包括:
通过信息聚合公式,对每个所述联邦学习更新量进行信息聚合,得到新的全局模型和全局梯度,所述信息聚合公式为:
其中,x表示服务器端的全局模型,N表示总共有N个客户端进行联邦学习任务,Δxi表示第i个客户端本地模型的更新量,φ表示服务器端的全局梯度,S表示本轮参与本地模型更新的客户端数量;Δφi表示在本轮次更新中,第i个客户端基于本地数据对延迟全局梯度的更新量。
图6为本发明提供的联邦学习优化装置的结构示意图之一,如图6所示,本发明提供了一种联邦学习优化装置,包括第一获取模块601、更新模块602和发送模块603,其中,第一获取模块601用于在当前轮次的联邦学习中,获取服务器端发送的全局模型和延迟全局梯度,所述延迟全局梯度是由上一轮次联邦学习中,每个客户端基于各自本地数据对上一轮次的全局梯度进行更新得到的;更新模块602用于基于当前轮次的全局模型和延迟全局梯度,通过本地数据对本地模型进行更新,得到联邦学习更新量,所述联邦学习更新量包括本地模型的更新量和延迟全局梯度的更新量;发送模块603用于将所述联邦学习更新量发送到服务器端,以供服务器端根据所述联邦学习更新量进行信息聚合,得到新的全局模型和全局梯度,并将新的全局模型和全局梯度发送到每个客户端,用于下一轮次的联邦学习。
本发明提供的联邦学习优化装置,通过引入延迟全局梯度的概念,作为全局梯度的估计量,其旨在减小本地随机梯度与全局梯度的偏差,有效地克服模型偏差问题,从而提升通信效率、降低计算复杂度。
图7为本发明提供的联邦学习优化装置的结构示意图之二,如图7所示,本发明提供了一种联邦学习优化装置,包括第二获取模块701和聚合模块702,其中,第二获取模块701用于在当前轮次的联邦学习中,获取每个客户端发送的联邦学习更新量,所述联邦学习更新量包括本地模型的更新量和延迟全局梯度的更新量;其中,所述延迟全局梯度是由每个客户端基于各自本地数据,对上一轮次联邦学习得到的全局梯度进行更新得到的;聚合模块702用于根据所述联邦学习更新量进行信息聚合,得到新的全局模型和全局梯度,并将新的全局模型和全局梯度发送到每个客户端,用于下一轮次的联邦学习。
本发明提供的联邦学习优化装置,通过引入延迟全局梯度的概念,作为全局梯度的估计量,其旨在减小本地随机梯度与全局梯度的偏差,有效地克服模型偏差问题,从而提升通信效率、降低计算复杂度。
本发明提供的装置是用于执行上述各方法实施例的,具体流程和详细内容请参照上述实施例,此处不再赘述。
进一步地,基于上述联邦学习优化装置,构建不同领域的联邦学习系统进行说明。
在一实施例中,以智慧农场中的联邦学习进行说明。在农业中,氮含量是反应土壤营养的重要指标之一,因此,根据多种传感器数据对土壤中氮含量进行准确估计和预测,将对农场主进行下一步的控制与决策起到至关重要的作用。目前智慧农场中普遍的方案为通过上传数据至云端进行信息挖掘的任务,但长距离传输数据将增加安全隐患。应用本发明提供的联邦学习优化装置,可改进现有智慧农场升级为基于联邦学习的土壤氮含量估计与预测智慧农场系统(以下简称联邦氮含量预测系统)。
图8为本发明提供的基于联邦氮含量预测系统的联邦智慧农场架构示意图,可参考图8所示,联邦氮含量预测系统由三层结构组成,即用户层、边缘层(物理层)和云计算层。用户层普遍由农场主应用软件组成;边缘层主要由物理传感器和边缘服务器组成,且部署在农场中,其中物理传感器主要对三类参数进行测量:土壤相关参数(如导电性、含盐量和土壤湿度等)、种植相关参数(如湿度、温度和二氧化碳浓度等)和环境相关参数(如天气湿度、降雨量和天气温度等)等;云计算层主要由云服务器组成,用于农场信息的汇总,常部署在云数据中心。由于传统智慧农场将物理传感器数据源源不断上传至云端进行数据挖掘,增加了数据服务和云服务的成本,之后云端完成更新后才将结果反馈给农场主进行决策。此时,等待时间较长,因此用户体验不佳。基于本发明的联邦氮含量预测系统,可处理大规模分布式地处理农场传感器数据,具体描述如下:
考虑分散的农场和云中心服务器形成的“星结构”,总体上,各农场在边缘服务器上使用其农场数据进行机器学习模型训练,完成更新后,将模型上传至云中心服务器进行模型聚合操作,将聚合后的全局模型下传至各农场。具体而言,用户层发出服务请求指令给边缘层中的服务器,需要预测下一时刻的农场土壤氮含量,尽管在边缘服务器上也可进行模型训练任务,从而达到预测的目的,但由于农场的本地数据量较少,且可能存在一些物理传感器坏损的情况,因此需要结合云中心服务器和其他农场的信息,在估计坏损物理传感器测量的数据后,再进行土壤氮含量的预测。接下来,以其中若干个农场中测量土壤含盐量的物理传感器均存在坏损的情况为例,这些农场的边缘服务器在接收到用户服务请求指令后,采用相关性理论,将本农场这些缺失数据预测后形成完整的数据,之后用这些数据在本农场的边缘服务器上进行训练,具体而言,在边缘服务器在接收到用户服务请求指令后,请求云中心服务器传输全局模型与延迟全局梯度,边缘服务器接收之后,将全局模型赋予给本地模型,将延迟全局梯度赋予给本地的延迟全局梯度。该本地的全局延迟梯度用于本地模型的更新,接下来根据最新的本地模型和数据计算随机梯度,用于更新对应延迟全局梯度中的部分。此时,在边缘服务器上完成了一次本地更新。需要说明的是,为加速算法收敛、提高通信效率,边缘服务器执行多次本地更新,之后将本地模型与本地延迟全局梯度的更新量传输至云中心服务器。云中心服务器将在本轮全局更新中参与的农场边缘服务器上的更新量进行汇总聚合。需注意的是,每轮云中心服务器进行全局更新时,各农场的边缘服务器计算力和带宽等各不相同,因此,云中心服务器在信息汇总时可能只有部分农场参与,此时,现有的联邦学习算法FedAvg将有较大的性能损失问题,而本发明由于在本地对全局梯度进行了估计且更新其中对应的部分子梯度,之后在云中心服务器上进行了更大范围的子梯度更新,因此全局梯度的估计更为精确。图9为本发明提供的基于联邦氮含量预测系统的联邦智慧农场的学习过程示意图,可参考图9所示,云中心在更新全局模型与延迟全局梯度后,传输给下一轮参与更新的农场边缘服务器上,进行下一轮的更新步骤。
基于本发明提供的联邦氮含量预测系统,其中的人工智能模型具有一定的普遍性,即可用逻辑回归、支持向量机、深度神经网络和卷积神经网络等,只需保证各农场的模型参数结构相同,可快速达到更精准的氮含量预测。
在另一实施例中,以智慧油气开采中的联邦学习进行说明。油井开采工业具有特殊性,其开采工作在距离城市较远的近海,是灾害多发的区域。因此,油井平台上和海中都安装了大量的物理传感器,对设计低成本、高效率、安全稳定和环保的智慧油气开采系统是至关重要的。目前智慧油气开采中普遍的方案为各物理传感器检测各项数据,并通过卫星通信上传数据至云端进行信息挖掘的任务,但长距离传输数据将增加安全隐患。应用本发明提供的联邦学习优化装置,可改进现有智慧油气开采系统升级为基于联邦学习的油气开采平台灾害预测系统(以下简称联邦油气开采平台灾害预测系统)。
图10为本发明提供的联邦油气开采平台灾害预测系统的示意图,如图10所示,联邦油气开采平台灾害预测系统由三层结构组成,即物理层(油井)、边缘层(边缘服务器,每个边缘服务器中包括有多个物理传感器C1、C2和C3等)和云层(云计算服务器)。物理层包含了大量的油气开采平台中的物理传感器,检测的数据包括油井温度、硫化氢气体量、管道压力、空气污染指数以及流动监测等,由于油气开采平台对安全有着极高的要求,这些物理传感器需要对油气开采平台连续监测,一天可产生TB级的数据,而在传统系统中,海量的数据需要通过卫星通信上传至云服务器端进行大数据信息挖掘,再将结果传输回来给平台。因此,无法实现实时监测并决策的效果,同时大量的数据对卫星通信带宽提出了极高的要求,带来较高的成本;边缘层主要由边缘服务器组成,且部署在平台中,其主要的作用为在油气开采平台本地上对本地数据进行学习并更新本地模型,而模型传输至云层是通过卫星通信的方式;云层主要由云服务器组成,用于各个油气开采平台信息的汇总,常部署在云数据中心。由于传统油气开采平台将物理传感器数据源源不断地通过卫星通信,上传至云端进行数据挖掘,大幅度增加了数据服务和云服务的成本,之后云端完成更新后才将结果反馈给油气开采平台进行决策。此时,等待时间较长,因此增加了油气开采的风险。基于本发明的联邦油气开采平台灾害预测系统,可处理大规模分布式地处理平台上的传感器数据。具体描述如下:
考虑分散的油气开采平台和云中心服务器形成的“星结构”,总体上,各油气开采平台在边缘服务器上使用其监测数据进行机器学习模型训练,完成更新后,将本地模型上传至云中心服务器进行模型聚合操作,将聚合后的全局模型下传至各油气开采平台。具体而言,油气开采平台发出服务请求指令给边缘层中的服务器,需要预测当前油气开采平台状态是否存在灾害的可能性,尽管在边缘服务器上也可进行模型训练任务,从而达到预测的目的,但由于油气开采平台的本地数据量比较单一,且可能存在一些物理传感器坏损的情况,因此需要结合云中心服务器和其他油气开采平台的信息,在估计坏损物理传感器测量的数据后,再进行平台存在灾害可能性的预测。接下来,以其中若干个油气开采平台中测量平台温度的物理传感器均存在坏损的情况为例,这些油气开采平台的边缘服务器,在接收到用户服务请求指令后,采用相关性理论将本平台这些缺失数据进行预测后,形成完整的数据,之后用这些数据在本平台的边缘服务器上进行训练,具体而言,在边缘服务器在接收到用户服务请求指令后,请求云中心服务器传输全局模型与延迟全局梯度,边缘服务器接收之后,将全局模型赋予给本地模型,将延迟全局梯度赋予给本地的延迟全局梯度。该本地的全局延迟梯度用于本地模型的更新,接下来根据最新的本地模型和数据计算随机梯度,用于更新对应延迟全局梯度中的部分。此时,在边缘服务器上完成了一次本地更新。需要说明的是,为加速算法收敛、提高通信效率,边缘服务器执行多次本地更新,之后将本地模型与本地延迟全局梯度的更新量传输至云中心服务器。云中心服务器将在本轮全局更新中参与的油井边缘服务器上的更新量进行汇总聚合。需注意的是,每轮云中心服务器进行全局更新时,各平台的边缘服务器计算力和带宽等各不相同,因此,云中心服务器在信息汇总时可能只有部分平台参与。云中心在更新全局模型与延迟全局梯度后,传输给下一轮参与更新的农场边缘服务器上,进行下一轮的更新步骤。
基于本发明的联邦油气开采平台灾害预测系统,其中的人工智能模型具有一定的普遍性,即可用逻辑回归、支持向量机、深度神经网络和卷积神经网络等,只需保证各平台的模型参数结构相同,可快速达到更精准的平台灾害预测。
在又一实施例中,以医疗大数据挖掘的联邦学习进行说明。在当前分级医疗体系下,不同级别医院的医疗水平差异巨大,实力较弱的医院无法积累足够的病例数据且数据质量差,无法独立完成人工智能任务。而通过将医学数据上传至云端的传统云计算方式,无法适用于医学高度敏感的数据挖掘。应用本发明提供的联邦学习优化装置,可实现在数据始终不出医院的条件下,多家医院联合完成医学大数据精准挖掘,从而大幅度提高疾病诊断率,缓解医疗资源紧张等。以下描述基于本发明提供的联邦学习优化装置所构建的智慧医疗辅助诊断系统进行说明(以下简称联邦诊断系统)。
图11为本发明提供的联邦诊断系统的示意图,可参考图11所示,该系统由三层结构组成,即用户层、物理层和云层。用户层普遍由多家医院的相关科室医生组成;物理层主要由本地医院的医疗诊断设备、服务器等组成,且部署在医院中,其中医疗诊断设备包括计算机断层扫描、医疗X光机和医用B超机等,这些医用设备将产生医学影像等重要数据,可通过人工智能技术进行图像识别等信息挖掘,从而提高疾病诊断率;云层主要由云服务器组成,用于医学信息的汇总,常部署在云数据中心。基于本发明的联邦诊断系统可处理大规模分布式的处理医疗数据。具体描述如下:
考虑分散的各家医院和云中心服务器形成的“星结构”,总体上,各家医院在本地服务器上使用其医学数据进行机器学习模型训练,完成更新后,将本地模型上传至云中心服务器进行模型聚合操作,将聚合后的全局模型下传至各家医院。具体而言,用户层发出服务请求指令给本地医院的服务器,需要对医学数据进行信息挖掘,如医学影像识别等,尽管在本地医院服务器上也可进行模型训练任务,从而达到数据挖掘的目的,但由于一些医院的本地数据量较少,且可能存在一些错误标签的情况,因此需要结合云中心服务器和其他医院的信息,对这些错误的数据进行预测并取代后形成完整的数据,之后用这些数据在本医院的服务器上进行训练。具体而言,本医院服务器在接收到用户服务请求指令后,请求云中心服务器传输全局模型与延迟全局梯度,本医院服务器接收之后,将全局模型赋予给本地模型,将延迟全局梯度赋予给本地的延迟全局梯度。该本地的全局延迟梯度用于本地模型的更新,接下来根据最新的本地模型和数据计算随机梯度,用于更新对应延迟全局梯度中的部分。此时,在本医院服务器上完成了一次本地更新。需注意,为加速算法收敛、提高通信效率,边缘服务器执行多次本地更新,之后将本地模型与本地延迟全局梯度的更新量传输至云中心服务器。云中心服务器将在本轮全局更新中参与的医院服务器上的更新量进行汇总聚合。需注意的是,每轮云中心服务器进行全局更新时,各医院的服务器计算力和带宽等各不相同,因此,云中心服务器在信息汇总时可能只有部分医院参与。云中心在更新全局模型与延迟全局梯度后,传输给下一轮参与更新的医院服务器上,进行下一轮的更新步骤。
基于本发明的联邦诊断系统,其中的人工智能模型具有一定的普遍性,即可用逻辑回归、支持向量机、深度神经网络和卷积神经网络等,只需保证各医院的模型参数结构相同,可达到更精准的疾病诊断等。
图12为本发明提供的电子设备的结构示意图,如图12所示,该电子设备可以包括:处理器(processor)1201、通信接口(CommunicationsInterface)1202、存储器(memory)1203和通信总线1204,其中,处理器1201,通信接口1202,存储器1203通过通信总线1204完成相互间的通信。处理器1201可以调用存储器1203中的逻辑指令,以执行联邦学习优化方法,该方法包括:在当前轮次的联邦学习中,获取服务器端发送的全局模型和延迟全局梯度,所述延迟全局梯度是由上一轮次联邦学习中,每个客户端基于各自本地数据对上一轮次的全局梯度进行更新得到的;基于当前轮次的全局模型和延迟全局梯度,通过本地数据对本地模型进行更新,得到联邦学习更新量,所述联邦学习更新量包括本地模型的更新量和延迟全局梯度的更新量;将所述联邦学习更新量发送到服务器端,以供服务器端根据所述联邦学习更新量进行信息聚合,得到新的全局模型和全局梯度,并将新的全局模型和全局梯度发送到每个客户端,用于下一轮次的联邦学习;
或,在当前轮次的联邦学习中,获取每个客户端发送的联邦学习更新量,所述联邦学习更新量包括本地模型的更新量和延迟全局梯度的更新量;其中,所述延迟全局梯度是由每个客户端基于各自本地数据,对上一轮次联邦学习得到的全局梯度进行更新得到的;根据所述联邦学习更新量进行信息聚合,得到新的全局模型和全局梯度,并将新的全局模型和全局梯度发送到每个客户端,用于下一轮次的联邦学习。
此外,上述的存储器1203中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,RandomAccessMemory)、磁碟或者光盘等各种可以存储程序代码的介质。
另一方面,本发明还提供一种计算机程序产品,所述计算机程序产品包括存储在非暂态计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,计算机能够执行上述各方法所提供的联邦学习优化方法,该方法包括:在当前轮次的联邦学习中,获取服务器端发送的全局模型和延迟全局梯度,所述延迟全局梯度是由上一轮次联邦学习中,每个客户端基于各自本地数据对上一轮次的全局梯度进行更新得到的;基于当前轮次的全局模型和延迟全局梯度,通过本地数据对本地模型进行更新,得到联邦学习更新量,所述联邦学习更新量包括本地模型的更新量和延迟全局梯度的更新量;将所述联邦学习更新量发送到服务器端,以供服务器端根据所述联邦学习更新量进行信息聚合,得到新的全局模型和全局梯度,并将新的全局模型和全局梯度发送到每个客户端,用于下一轮次的联邦学习;
或,在当前轮次的联邦学习中,获取每个客户端发送的联邦学习更新量,所述联邦学习更新量包括本地模型的更新量和延迟全局梯度的更新量;其中,所述延迟全局梯度是由每个客户端基于各自本地数据,对上一轮次联邦学习得到的全局梯度进行更新得到的;根据所述联邦学习更新量进行信息聚合,得到新的全局模型和全局梯度,并将新的全局模型和全局梯度发送到每个客户端,用于下一轮次的联邦学习。
又一方面,本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各实施例提供的联邦学习优化方法,该方法包括:在当前轮次的联邦学习中,获取服务器端发送的全局模型和延迟全局梯度,所述延迟全局梯度是由上一轮次联邦学习中,每个客户端基于各自本地数据对上一轮次的全局梯度进行更新得到的;基于当前轮次的全局模型和延迟全局梯度,通过本地数据对本地模型进行更新,得到联邦学习更新量,所述联邦学习更新量包括本地模型的更新量和延迟全局梯度的更新量;将所述联邦学习更新量发送到服务器端,以供服务器端根据所述联邦学习更新量进行信息聚合,得到新的全局模型和全局梯度,并将新的全局模型和全局梯度发送到每个客户端,用于下一轮次的联邦学习;
或,在当前轮次的联邦学习中,获取每个客户端发送的联邦学习更新量,所述联邦学习更新量包括本地模型的更新量和延迟全局梯度的更新量;其中,所述延迟全局梯度是由每个客户端基于各自本地数据,对上一轮次联邦学习得到的全局梯度进行更新得到的;根据所述联邦学习更新量进行信息聚合,得到新的全局模型和全局梯度,并将新的全局模型和全局梯度发送到每个客户端,用于下一轮次的联邦学习。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (6)

1.一种联邦学习优化方法,其特征在于,包括:
在当前轮次的联邦学习中,获取服务器端发送的全局模型和延迟全局梯度,所述延迟全局梯度是由上一轮次联邦学习中,每个客户端基于各自本地数据对上一轮次的全局梯度进行更新得到的;
基于当前轮次的全局模型和延迟全局梯度,通过本地数据对本地模型进行更新,得到联邦学习更新量,所述联邦学习更新量包括本地模型的更新量和延迟全局梯度的更新量;
将所述联邦学习更新量发送到服务器端,以供服务器端根据所述联邦学习更新量进行信息聚合,得到新的全局模型和全局梯度,并将新的全局模型和全局梯度发送到每个客户端,用于下一轮次的联邦学习;
所述联邦学习的优化目标公式为:
其中,N表示总共有N个客户端进行联邦学习任务;fi(x)表示第i个客户端的本地损失函数,i∈[N],[N]表示集合{1,…,N};ni表示第i个客户端的数据集中包含有ni个数据,fi,j表示第i个客户端的数据集中第j个数据的损失函数,f表示全部客户端的平均损失函数,x表示服务器端的全局模型;
所述联邦学习更新量是通过本地随机平均控制算法计算得到的,所述本地随机平均控制算法的公式为:
其中,xi表示第i个客户端的本地模型,η表示学习步长,φi表示第i个客户端对全局梯度的估计,yi,j表示上一轮次联邦学习得到随机梯度,gi,j(xi)表示第i个客户端的本地模型中第j个数据的随机梯度,表示当前轮次更新xi前的随机梯度;Δφi表示当前轮次的联邦学习完成后,延迟全局梯度的更新量;/>表示本地客户端上的全局梯度估计在本地L次更新后的值,/>表示当前轮次的联邦学习中第i个客户端基于本地数据对应的梯度更新后的值,/>表示当前轮次的联邦学习中第i个客户端基于本地数据对应的梯度;
所述本地模型的更新公式为:
其中,表示第i个客户端的本地模型经过t+1次本地更新,/>表示联邦学习中第i个客户端的本地模型经过t次本地更新;/>表示经过t次本地更新后,得到延迟的本地模型序列;/>表示关于本地客户端所有数据的梯度,t表示本地更新的迭代次数。
2.一种联邦学习优化方法,其特征在于,包括:
在当前轮次的联邦学习中,获取每个客户端发送的联邦学习更新量,所述联邦学习更新量包括本地模型的更新量和延迟全局梯度的更新量;其中,所述延迟全局梯度是由每个客户端基于各自本地数据,对上一轮次联邦学习得到的全局梯度进行更新得到的;
根据所述联邦学习更新量进行信息聚合,得到新的全局模型和全局梯度,并将新的全局模型和全局梯度发送到每个客户端,用于下一轮次的联邦学习;
所述根据所述联邦学习更新量进行信息聚合,得到新的全局模型和全局梯度,包括:
通过信息聚合公式,对每个所述联邦学习更新量进行信息聚合,得到新的全局模型和全局梯度,所述信息聚合公式为:
其中,x表示服务器端的全局模型,N表示总共有N个客户端进行联邦学习任务,Δxi表示第i个客户端本地模型的更新量,φ表示服务器端的全局梯度,S表示本轮参与本地模型更新的客户端数量;Δφi表示在本轮次更新中,第i个客户端基于本地数据对延迟全局梯度的更新量;
所述联邦学习更新量是通过本地随机平均控制算法计算得到的,所述本地随机平均控制算法的公式为:
其中,xi表示第i个客户端的本地模型,η表示学习步长,φi表示第i个客户端对全局梯度的估计,yi,j表示上一轮次联邦学习得到随机梯度,gi,j(xi)表示第i个客户端的本地模型中第j个数据的随机梯度,表示当前轮次更新xi前的随机梯度;Δφi表示当前轮次的联邦学习完成后,延迟全局梯度的更新量;/>表示本地客户端上的全局梯度估计在本地L次更新后的值,/>表示当前轮次的联邦学习中第i个客户端基于本地数据对应的梯度更新后的值,/>表示当前轮次的联邦学习中第i个客户端基于本地数据对应的梯度;
所述本地模型的更新公式为:
其中,表示第i个客户端的本地模型经过t+1次本地更新,/>表示联邦学习中第i个客户端的本地模型经过t次本地更新;/>表示经过t次本地更新后,得到延迟的本地模型序列;/>表示关于本地客户端所有数据的梯度,t表示本地更新的迭代次数。
3.一种联邦学习优化装置,其特征在于,包括:
第一获取模块,用于在当前轮次的联邦学习中,获取服务器端发送的全局模型和延迟全局梯度,所述延迟全局梯度是由上一轮次联邦学习中,每个客户端基于各自本地数据对上一轮次的全局梯度进行更新得到的;
更新模块,用于基于当前轮次的全局模型和延迟全局梯度,通过本地数据对本地模型进行更新,得到联邦学习更新量,所述联邦学习更新量包括本地模型的更新量和延迟全局梯度的更新量;
发送模块,用于将所述联邦学习更新量发送到服务器端,以供服务器端根据所述联邦学习更新量进行信息聚合,得到新的全局模型和全局梯度,并将新的全局模型和全局梯度发送到每个客户端,用于下一轮次的联邦学习;
所述联邦学习的优化目标公式为:
其中,N表示总共有N个客户端进行联邦学习任务;fi(x)表示第i个客户端的本地损失函数,i∈[N],[N]表示集合{1,…,N};ni表示第i个客户端的数据集中包含有ni个数据,fi,j表示第i个客户端的数据集中第j个数据的损失函数,f表示全部客户端的平均损失函数,x表示服务器端的全局模型;
所述联邦学习更新量是通过本地随机平均控制算法计算得到的,所述本地随机平均控制算法的公式为:
其中,xi表示第i个客户端的本地模型,η表示学习步长,φi表示第i个客户端对全局梯度的估计,yi,j表示上一轮次联邦学习得到随机梯度,gi,j(xi)表示第i个客户端的本地模型中第j个数据的随机梯度,表示当前轮次更新xi前的随机梯度;Δφi表示当前轮次的联邦学习完成后,延迟全局梯度的更新量;/>表示本地客户端上的全局梯度估计在本地L次更新后的值,/>表示当前轮次的联邦学习中第i个客户端基于本地数据对应的梯度更新后的值,/>表示当前轮次的联邦学习中第i个客户端基于本地数据对应的梯度;
所述本地模型的更新公式为:
其中,表示第i个客户端的本地模型经过t+1次本地更新,/>表示联邦学习中第i个客户端的本地模型经过t次本地更新;/>表示经过t次本地更新后,得到延迟的本地模型序列;/>表示关于本地客户端所有数据的梯度,t表示本地更新的迭代次数。
4.一种联邦学习优化装置,其特征在于,包括:
第二获取模块,用于在当前轮次的联邦学习中,获取每个客户端发送的联邦学习更新量,所述联邦学习更新量包括本地模型的更新量和延迟全局梯度的更新量;其中,所述延迟全局梯度是由每个客户端基于各自本地数据,对上一轮次联邦学习得到的全局梯度进行更新得到的;
聚合模块,用于根据所述联邦学习更新量进行信息聚合,得到新的全局模型和全局梯度,并将新的全局模型和全局梯度发送到每个客户端,用于下一轮次的联邦学习;
所述根据所述联邦学习更新量进行信息聚合,得到新的全局模型和全局梯度,包括:
通过信息聚合公式,对每个所述联邦学习更新量进行信息聚合,得到新的全局模型和全局梯度,所述信息聚合公式为:
其中,x表示服务器端的全局模型,N表示总共有N个客户端进行联邦学习任务,Δxi表示第i个客户端本地模型的更新量,φ表示服务器端的全局梯度,S表示本轮参与本地模型更新的客户端数量;Δφi表示在本轮次更新中,第i个客户端基于本地数据对延迟全局梯度的更新量;
所述联邦学习更新量是通过本地随机平均控制算法计算得到的,所述本地随机平均控制算法的公式为:
其中,xi表示第i个客户端的本地模型,η表示学习步长,φi表示第i个客户端对全局梯度的估计,yi,j表示上一轮次联邦学习得到随机梯度,gi,j(xi)表示第i个客户端的本地模型中第j个数据的随机梯度,表示当前轮次更新xi前的随机梯度;Δφi表示当前轮次的联邦学习完成后,延迟全局梯度的更新量;/>表示本地客户端上的全局梯度估计在本地L次更新后的值,/>表示当前轮次的联邦学习中第i个客户端基于本地数据对应的梯度更新后的值,/>表示当前轮次的联邦学习中第i个客户端基于本地数据对应的梯度;
所述本地模型的更新公式为:
其中,表示第i个客户端的本地模型经过t+1次本地更新,/>表示联邦学习中第i个客户端的本地模型经过t次本地更新;/>表示经过t次本地更新后,得到延迟的本地模型序列;/>表示关于本地客户端所有数据的梯度,t表示本地更新的迭代次数。
5.一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1或2所述联邦学习优化方法的步骤。
6.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1或2所述联邦学习优化方法的步骤。
CN202110665601.4A 2021-06-16 2021-06-16 一种联邦学习优化方法及装置 Active CN113435604B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110665601.4A CN113435604B (zh) 2021-06-16 2021-06-16 一种联邦学习优化方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110665601.4A CN113435604B (zh) 2021-06-16 2021-06-16 一种联邦学习优化方法及装置

Publications (2)

Publication Number Publication Date
CN113435604A CN113435604A (zh) 2021-09-24
CN113435604B true CN113435604B (zh) 2024-05-07

Family

ID=77756074

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110665601.4A Active CN113435604B (zh) 2021-06-16 2021-06-16 一种联邦学习优化方法及装置

Country Status (1)

Country Link
CN (1) CN113435604B (zh)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113919508B (zh) * 2021-10-15 2022-07-19 河南工业大学 一种基于移动式服务器的联邦学习系统及方法
CN113988308A (zh) * 2021-10-27 2022-01-28 东北大学 一种基于延迟补偿机制的异步联邦梯度平均算法
CN113792324B (zh) * 2021-11-16 2022-04-05 聊城高新生物技术有限公司 基于联邦学习的农产品数据交互方法、装置及电子设备
CN114093505B (zh) * 2021-11-17 2022-06-17 山东省计算中心(国家超级计算济南中心) 一种基于云边端架构的病理检测系统及方法
CN114302422A (zh) * 2021-11-29 2022-04-08 北京邮电大学 利用学习模型进行业务处理的方法以及装置
CN113869528B (zh) * 2021-12-02 2022-03-18 中国科学院自动化研究所 共识表征提取和多样性传播的解纠缠个性化联邦学习方法
CN114169243B (zh) * 2021-12-10 2022-07-29 浙江辰时科技集团有限公司 Mimo干扰信道下空中计算多任务联邦学习方法
CN114548426B (zh) * 2022-02-17 2023-11-24 北京百度网讯科技有限公司 异步联邦学习的方法、业务服务的预测方法、装置及系统
CN115208604B (zh) * 2022-02-22 2024-03-15 长沙理工大学 一种ami网络入侵检测的方法、装置及介质
CN114564746B (zh) * 2022-02-28 2024-05-14 浙江大学 基于客户端权重评价的联邦学习方法和系统
CN114465900B (zh) * 2022-03-01 2023-03-21 北京邮电大学 基于联邦边缘学习的数据共享时延优化方法及装置
CN114882335B (zh) * 2022-05-05 2023-07-28 河北工业大学 基于联邦学习框架面向感算云一体化的智能图像传感装置
CN114827289B (zh) * 2022-06-01 2023-06-13 深圳大学 一种通信压缩方法、系统、电子装置和存储介质
CN115081002B (zh) * 2022-06-28 2024-05-14 西安电子科技大学 用于去中心化联邦学习的聚合服务器选择方法
CN115174397B (zh) * 2022-07-28 2023-10-13 河海大学 联合梯度量化与带宽分配的联邦边缘学习训练方法及系统
CN117648981A (zh) * 2022-08-11 2024-03-05 华为技术有限公司 一种推理方法及相关装置
CN115145966B (zh) * 2022-09-05 2022-11-11 山东省计算中心(国家超级计算济南中心) 一种面向异构数据的对比联邦学习方法及系统
CN115829055B (zh) * 2022-12-08 2023-08-01 深圳大学 联邦学习模型训练方法、装置、计算机设备及存储介质
CN116049267B (zh) * 2022-12-26 2023-07-18 上海朗晖慧科技术有限公司 一种多维智能识别的化学物品搜索显示方法
CN116911403B (zh) * 2023-06-06 2024-04-26 北京邮电大学 联邦学习的服务器和客户端的一体化训练方法及相关设备
CN117151208B (zh) * 2023-08-07 2024-03-22 大连理工大学 基于自适应学习率的异步联邦学习参数更新方法、电子设备及存储介质
CN116842577B (zh) * 2023-08-28 2023-12-19 杭州海康威视数字技术股份有限公司 联邦学习模型投毒攻击检测及防御方法、装置及设备
CN117436515B (zh) * 2023-12-07 2024-03-12 四川警察学院 联邦学习方法、系统、装置以及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111553484A (zh) * 2020-04-30 2020-08-18 同盾控股有限公司 联邦学习的方法、装置及系统
CN112668726A (zh) * 2020-12-25 2021-04-16 中山大学 一种高效通信且保护隐私的个性化联邦学习方法
WO2021083276A1 (zh) * 2019-10-29 2021-05-06 深圳前海微众银行股份有限公司 横向联邦和纵向联邦联合方法、装置、设备及介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021083276A1 (zh) * 2019-10-29 2021-05-06 深圳前海微众银行股份有限公司 横向联邦和纵向联邦联合方法、装置、设备及介质
CN111553484A (zh) * 2020-04-30 2020-08-18 同盾控股有限公司 联邦学习的方法、装置及系统
CN112668726A (zh) * 2020-12-25 2021-04-16 中山大学 一种高效通信且保护隐私的个性化联邦学习方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Accelerating Federated Learning via Momentum Gradient Descent;Wei Liu 等;《IEEE》;20200219;31(8);全文 *
面向高效通信边缘学习网络的通信计算一体化设计;朱光旭;李航;;中兴通讯技术;20200810(第04期);全文 *

Also Published As

Publication number Publication date
CN113435604A (zh) 2021-09-24

Similar Documents

Publication Publication Date Title
CN113435604B (zh) 一种联邦学习优化方法及装置
Huong et al. Detecting cyberattacks using anomaly detection in industrial control systems: A federated learning approach
CN113408743B (zh) 联邦模型的生成方法、装置、电子设备和存储介质
WO2019034129A1 (zh) 神经网络结构的生成方法和装置、电子设备、存储介质
US20190221187A1 (en) System, apparatus and methods for adaptive data transport and optimization of application execution
CN112887145B (zh) 一种基于分布式的网络切片故障检测方法
CN110378488B (zh) 客户端变化的联邦训练方法、装置、训练终端及存储介质
WO2023124296A1 (zh) 基于知识蒸馏的联合学习训练方法、装置、设备及介质
WO2023093177A1 (zh) 设备故障诊断方法、装置、电子设备及存储介质
US20220318412A1 (en) Privacy-aware pruning in machine learning
CN113392919A (zh) 基于客户端选择的联邦注意力dbn协同检测系统
CN116187483A (zh) 模型训练方法、装置、设备、介质和程序产品
CN115051929A (zh) 基于自监督目标感知神经网络的网络故障预测方法及装置
CN109558436B (zh) 基于转移熵的机场航班延误因果关系挖掘方法
Chen et al. Federated meta-learning framework for few-shot fault diagnosis in industrial IoT
Chen et al. Resource-aware knowledge distillation for federated learning
US20230238156A1 (en) Method and system for detecting typical object of transmission line based on unmanned aerial vehicle (uav) federated learning
CN113110321B (zh) 基于事件触发的网络化工业控制系统的分布式估计方法
CN116151369A (zh) 一种公共审计的拜占庭鲁棒联邦学习系统及方法
CN115118591A (zh) 一种基于联盟博弈的簇联邦学习方法
CN115001937A (zh) 面向智慧城市物联网的故障预测方法及装置
CN116050557A (zh) 电力负荷预测方法、装置、计算机设备和介质
CN114503505A (zh) 从分布式网络中的有噪声的数值数据学习模式字典
Gkillas et al. Resource Efficient Federated Learning for Deep Anomaly Detection in Industrial IoT applications
Liu et al. FedAGL: A Communication-Efficient Federated Vehicular Network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant