CN115115064A - 一种半异步联邦学习方法及系统 - Google Patents

一种半异步联邦学习方法及系统 Download PDF

Info

Publication number
CN115115064A
CN115115064A CN202210808306.4A CN202210808306A CN115115064A CN 115115064 A CN115115064 A CN 115115064A CN 202210808306 A CN202210808306 A CN 202210808306A CN 115115064 A CN115115064 A CN 115115064A
Authority
CN
China
Prior art keywords
client
model
round
asynchronous
server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210808306.4A
Other languages
English (en)
Other versions
CN115115064B (zh
Inventor
余国先
康祥平
王峻
郭伟
崔立真
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong University
Original Assignee
Shandong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong University filed Critical Shandong University
Priority to CN202210808306.4A priority Critical patent/CN115115064B/zh
Publication of CN115115064A publication Critical patent/CN115115064A/zh
Application granted granted Critical
Publication of CN115115064B publication Critical patent/CN115115064B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

本发明涉及人工智能数据挖掘分类以及安全人工智能技术领域,提供了一种半异步联邦学习方法及系统,包括:在某一轮次开始时,选择若干个客户端参与当前轮次的训练,为每个客户端分配学习率,并将当前轮次的服务器模型和时间戳发送给选择的客户端,以使选择的客户端采用本地数据集对服务器模型进行优化,得到客户端模型并返回;周期性地对某一轮次客户端返回的客户端模型进行分组后,依次进行组内聚合和组间聚合,对服务器模型进行更新,得到下一轮次的服务器模型。有效地解决了现有异步联邦学习算法存在的通信瓶颈的问题,并实现了众包工人的隐私保护。

Description

一种半异步联邦学习方法及系统
技术领域
本发明属于人工智能数据挖掘分类以及安全人工智能技术领域,尤其涉及一种半异步联邦学习方法及系统。
背景技术
本部分的陈述仅仅是提供了与本发明相关的背景技术信息,不必然构成在先技术。
众包是一种流行且相对经济的计算范式,旨在利用人的智慧来解决计算机难以处理的问题,例如,实体对齐和文本情感分析。然而,现在大多数的众包平台需要利用工人的隐私信息来进行任务的分配和执行,这可能会导致工人隐私信息的严重泄露,进而阻碍众包项目的实施和普及。由于联邦学习在保护数据隐私安全上的有效性,提出了使用联邦学习技术来实现众包工人的隐私保护,并称之为联邦众包,在联邦众包中,众包工人将收集到的数据保留在本地并使用本地设备进行模型训练,然后众包服务器将训练好的客户端模型进行聚合得到共享的服务器模型,从而实现隐私保护并且保证众包项目高质量完成。
但是,由于工人所持的设备在计算能力、网络资源以及数据量上的差异性,所以各个工人的设备完成模型训练并上传的时间也大相径庭,并且各个客户端因为所处环境不同导致数据分布具有非独立同分布(Non-i.i.d.)的特性,如何在这种客户端设备和数据方面多异构场景下实现高效、稳定且有效的模型协同训练是当前将联邦学习应用到众包中亟待解决的难点。
目前,针对客户端设备响应时间差距较大的问题的解决方法有:采用完全异步的通信模式,即客户端完成训练之后就立即对服务器模型进行更新而无需等待其他速度慢的客户端;在训练开始之前,根据响应时间对客户端进行分组,采取组间异步但组内同步的训练模式;设定落后轮次阈值,当速度慢的客户端落后轮次超过阈值后,放弃当前训练进度并直接更新为最新的服务器模型;当上传到服务器的客户端模型达到指定数目之后再对服务器模型进行更新等方法。完全异步的联邦学习方法存在着通信阻塞并且落后的客户端模型会降低模型的收敛速率,而其他半异步的协同模式会导致在非独立同分布数据的情况下出现模型偏置的问题,这将严重限制他们在实际联邦众包场景中的应用。
发明内容
为了解决上述背景技术中存在的技术问题,本发明提供一种半异步联邦学习方法及系统,每隔固定的时间对接收到的客户端模型进行聚合,有效地解决了现有异步联邦学习算法存在的通信瓶颈的问题;并使得众包工人收集到的数据保留在本地,而无需上传到服务器,从而实现众包工人的隐私保护。
为了实现上述目的,本发明采用如下技术方案:
本发明的第一个方面提供一种半异步联邦学习方法,其包括:
在某一轮次开始时,选择若干个客户端参与当前轮次的训练,为每个客户端分配学习率,并将当前轮次的服务器模型和时间戳发送给选择的客户端,以使选择的客户端采用本地数据集对服务器模型进行优化,得到客户端模型并返回;
周期性地对某一轮次客户端返回的客户端模型进行分组后,依次进行组内聚合和组间聚合,对服务器模型进行更新,得到下一轮次的服务器模型。
进一步地,根据每个客户端的平均训练时间,为每个客户端分配学习率。
进一步地,所述客户端对服务器模型进行优化时,通过添加正则约束项的损失函数以及分配的学习率,使用梯度下降算法进行优化。
进一步地,将在同一轮次接收到服务器模型的客户端分为一组。
进一步地,所述组内聚合表示为:
Figure BDA0003739260700000031
其中,
Figure BDA0003739260700000032
是第i组中的客户端c返回的客户端模型,
Figure BDA0003739260700000033
为第t轮次第i组的组模型,
Figure BDA0003739260700000034
表示客户端c的本地数据集
Figure BDA0003739260700000035
中的样本数目,
Figure BDA0003739260700000036
表示在第i轮次接收到服务器模型并在第t轮次中将客户端模型返回的客户端集合。
进一步地,所述组间聚合表示为:
Figure BDA0003739260700000037
其中,α是超参数,
Figure BDA0003739260700000038
表示客户端c的本地数据集
Figure BDA0003739260700000039
中的样本数目,
Figure BDA00037392607000000310
表示在第i轮次接收到服务器模型并在第t轮次中将客户端模型返回的客户端集合,
Figure BDA00037392607000000311
为第t轮次中第i组的组模型,θt表示第t轮次的聚合模型。
进一步地,在某一轮次对服务器模型进行更新时,下一轮次的服务器模型为所述组间聚合后得到的聚合模型与当前轮次的服务器模型的加权和。
本发明的第二个方面提供一种半异步联邦学习系统,其包括:
客户端选择模块,其被配置为:在某一轮次开始时,选择若干个客户端参与当前轮次的训练,为每个客户端分配学习率,并将当前轮次的服务器模型和时间戳发送给选择的客户端,以使选择的客户端采用本地数据集对服务器模型进行优化,得到客户端模型并返回;
模型更新模块,其被配置为:周期性地对某一轮次客户端返回的客户端模型进行分组后,依次进行组内聚合和组间聚合,对服务器模型进行更新,得到下一轮次的服务器模型。
本发明的第三个方面提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上述所述的一种半异步联邦学习方法中的步骤。
本发明的第四个方面提供一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述所述的一种半异步联邦学习方法中的步骤。
与现有技术相比,本发明的有益效果是:
本发明提供了一种半异步联邦学习方法,其针对工人所持设备的响应时间差距较大的问题,使用周期性聚合的半异步联邦学习机制,即每隔固定的时间对接收到的客户端模型进行聚合,可以有效地解决现有异步联邦学习算法存在的通信瓶颈的问题。
本发明提供了一种半异步联邦学习方法,其使得众包工人收集到的数据保留在本地,而无需上传到服务器从而实现工人的隐私保护。
本发明提供了一种半异步联邦学习方法,其为解决在异步通信模式下,不同速度的客户端参与模型更新的频率不同导致服务器模型的偏置问题,特别是在客户端数据呈非独立同分布的情况下尤为突出,依据响应时间对客户端模型进行分组,并为速度慢的组别分配较大的聚合权重,从而有效缓解了模型偏置的问题。
本发明提供了一种半异步联邦学习方法,其使服务器根据客户端的训练速度慢的客户端分配较大的学习率,从而进一步缩小不同速度客户端之间模型训练速度的差异,平衡服务器模型的更新过程,加快模型的收敛速率。
附图说明
构成本发明的一部分的说明书附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。
图1是本发明实施例一的一种半异步联邦学习方法的整体流程图;
图2是本发明实施例一的一种半异步联邦学习方法的详细流程图。
具体实施方式
下面结合附图与实施例对本发明作进一步说明。
应该指出,以下详细说明都是例示性的,旨在对本发明提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本发明所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本发明的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
实施例一
本实施例提供了一种半异步联邦学习方法,在某一轮次开始时,选择若干个客户端参与当前轮次的训练,根据各个客户端的训练速度,为每个客户端分配学习率,并将当前轮次的服务器模型和时间戳发送给选择的客户端,以使选择的客户端采用本地数据集对服务器模型进行优化,得到客户端模型并返回;周期性地对某一轮次客户端返回的客户端模型进行分组后,依次进行组内聚合和组间聚合,对服务器模型进行更新。如图1和图2所示,包括如下步骤:
S101、发布联邦众包任务。即,任务发布者在服务器上发布待训练的初始模型和训练数据的要求。
即,服务器接收任务发布者端发布的初始模型(初始的服务器模型或初始的深度模型)和训练数据的要求,并将训练数据的要求发送至客户端。
S102、工人收集数据。即,客户端接收到训练数据的要求后,众包工人根据训练数据的要求收集到相应合适的数据,并上传至客户端。
S103、选择客户端训练,包括:选择部分客户端,发送模型和轮次,以及分配自适应学习率。服务器选择一定比例的客户端参与当前轮次的训练过程,若全部的客户端都参与训练,则可能会造成通信阻塞,然后服务器将当前最新的服务器模型以及当前轮次发送给选定的客户端,同时服务器根据客户端训练速度为其分配相应的学习率,从而提高模型收敛速率和减小模型偏置。
在每一轮次开始时,服务器首先随机选择固定比例C的客户端集合参与训练(若客户端设备正在训练模型则忽略),并将当前最新的服务器模型以及当前轮次(时间戳)发送给准备就绪的客户端(即选定的客户端),设当前轮次为第t轮,选择的客户端子集为St,发送的模型和时间戳为则记为
Figure BDA0003739260700000061
同时服务器将根据各个客户端的训练速度来分配相应的学习率,对于速度较慢的客户端分配较大的学习率来加速训练过程,而速度较快的客户端分配较大的学习率来抑制模型的偏置,具体而言,本发明将依据客户端的平均训练时间来分配学习率,对于客户端c,其在过去τ次参与训练所用的平均时间定义如下:
Figure BDA0003739260700000062
其中,
Figure BDA0003739260700000063
代表在第i次参与训练时所花费的轮次数目,即从接收全局模型开始训练,到成功将模型发送给服务器端所经历的时间,根据平均训练时间
Figure BDA0003739260700000071
客户端c的自适应学习率可定义为如下形式:
Figure BDA0003739260700000072
其中,η表示全局平均学习率,即:
Figure BDA0003739260700000073
其中,n表示与服务器连接的客户端的总数。公式(2)中表明,客户端的学习率与平均完成模型训练所需要的时间成正比,这样,速度慢的客户端要比速度快的客户端分配更大的学习率,从而加快模型收敛速度和减小模型的偏置。
S104、客户端训练模型,并返回模型。即,众包工人利用本地设备(客户端)、收集到的数据以及分配的自适应学习率对服务器发送的当前最新的服务器模型进行训练和优化,并将训练完成的模型发回给服务器端。
客户端利用收集到的数据以及分配的自适应学习率对发布的模型进行训练和优化,并将训练完成后的模型发回给服务器端,具体包括:首先计算模型在本地数据集上的损失,进而计算在正则化约束下的损失,然后利用计算得到的损失和服务器分配的自适应学习率,对模型采用梯度下降的方式进行模型的优化,最后在将优化后的模型发回给服务器端。
步骤104的具体实现方式如下:
S1041、每个客户端c(c=1,2,…,n)计算从服务器接收到的模型在本地数据集
Figure BDA0003739260700000074
上的损失,定义如下:
Figure BDA0003739260700000075
其中,
Figure BDA0003739260700000076
是客户端c对第t轮接收到的模型
Figure BDA0003739260700000077
进行训练优化过程中得到的深度模型,
Figure BDA0003739260700000078
为客户端c上的第i个样本,
Figure BDA0003739260700000079
是模型
Figure BDA00037392607000000710
预测样本
Figure BDA00037392607000000711
的类别为真值标签
Figure BDA0003739260700000081
的概率,Nc是客户端c上的样本数量。
由于客户端的数据呈Non-i.i.d.分布,所以在损失函数中添加一个约束正则项来限制客户端模型的优化更接近于全局模型,从而减少了各个客户端优化后的模型的分歧,添加正则约束项的损失函数定义如下:
Figure BDA0003739260700000082
其中,λ代表正则化约束的参数。
S1042、通过公式(2)计算得到的损失以及分配的自适应学习率,使用梯度下降算法对深度模型
Figure BDA0003739260700000083
进行优化,定义如下:
Figure BDA0003739260700000084
其中,
Figure BDA0003739260700000085
表示客户端c对模型
Figure BDA0003739260700000086
优化结束后的深度模型(即,客户端c最终得到的客户端模型),ηc表示自适应学习率。
S1043、模型通过公式(6)完成本地更新后,客户端会将优化得到的模型
Figure BDA0003739260700000087
发送给服务器端。
S105、模型分组:根据训练时间分组。服务器周期性地对某一轮次t接收到客户端模型根据训练时间进行分组(即,将在同一轮次接收到服务器模型的客户端分为一组),而无需等待所有客户端全部训练完毕。
步骤105的具体实现方式如下:
在第t轮,服务器将最新的服务器模型以及当前轮次t发送给随机选择的客户端子集St,在经过固定的时间周期Td后,服务器将客户端模型(客户端上传的优化后的深度模型)进行分组之后再进行聚合,分组方式如下:
Figure BDA0003739260700000088
代表在第t轮将训练完成的模型发送到服务器端的客户端集合,其中每一个客户端均是在之前的轮次i(1≤i≤t)中接收到全局模型,用符号
Figure BDA0003739260700000089
来表示在第i轮接收到全局模型(服务器模型)并在第t轮中成功地将更新后的模型发送到服务器端的客户端集合,这样可以将
Figure BDA0003739260700000091
划分为t组,具体表示为如下形式:
Figure BDA0003739260700000092
S106、模型聚合,包括:组内聚合、组间聚合和更新模型。服务器对模型分组完成之后,在每个组内根据客户端样本数目进行模型聚合得到各个组的模型;由于服务器和训练速度快的客户端通信更加频繁,服务器模型将不可避免地会偏向速度快的客户端的模型,尤其是在数据呈非独立同分布的情况下,据此,在根据训练时间对客户端进行分组的基础上,为速度慢的客户端组别分配更大的聚合权重以此来平衡训练更新过程,即,根据每个组的训练时间和总的样本数目对各个组模型进行聚合得到这一个周期的模型,再依据此模型对服务器模型进行更新。
步骤106的具体实现方式如下:
S1061、对于每个组,根据组内每个客户端的样本数目对各个模型进行聚合得到这一组的组模型,组内聚合方式如下:
Figure BDA0003739260700000093
其中,
Figure BDA0003739260700000094
是来自第i组中的客户端c返回的客户端模型,它是基于第i轮的服务器模型
Figure BDA0003739260700000095
训练更新得到的模型,组模型
Figure BDA0003739260700000096
代表着第t轮中第i组客户端模型的最新视图,即第t轮中第i组的组模型,
Figure BDA0003739260700000097
表示客户端c的本地数据集
Figure BDA0003739260700000098
中的样本数目。
S1062、由于较快的组比慢的组更频繁地上传客户端模型(返回的优化后的深度模型),这导致服务器模型会偏置地适应速度快的组的本地数据,造成较大的模型偏差,为了得到平衡且无偏差的服务器模型,本发明较大的权重分配给速度慢的组,即与服务器通信频率较低的组。对于这t组的组模型,即
Figure BDA0003739260700000101
使用基于训练时间和样本数目的组间聚合策略来得到第t轮次的聚合模型θt,聚合方式如下:
Figure BDA0003739260700000102
其中,α是调整训练时间所占比重的超参数,
Figure BDA0003739260700000103
表示客户端c的样本数目,组模型
Figure BDA0003739260700000104
的聚合权重为归一化的系数,与更新频率呈负相关,与相应组的数据样本总数成正相关。因此,样本越多、更新频率越少的组将被分配更大的聚合权重。
S1063、聚合得到这一轮次的模型θt后,本发明将对服务器模型进行更新。若直接采用同步联邦学习算法中用轮次模型θt对服务器模型进行替换的策略,则服务器模型会有较大的风险陷入局部最优点,因为在异步更新的模式下,某一轮上传的客户端模型可能较少,会导致聚合得到的模型是偏置或者局部最优的,若直接用聚合得到的模型对服务器模型进行替换,将使其陷入局部最优点且会严重影响收敛速率,因此,通过混合系数β对服务器模型进行更新,更新方式如下:
Figure BDA0003739260700000105
即,在某一轮次对服务器模型进行更新时,下一轮次的服务器模型为组间聚合后得到的聚合模型与当前轮次的服务器模型的加权和。
当混合系数β=0时,此更新方式等同于直接用轮次模型对服务器模型进行替换,随着更新过程的进行,混合系数将逐渐增大,在迭代过程的早期,较小的混合系数可以加速模型的收敛速度,而在后期,较大的混合系数可以保持模型的稳步增长。当第t轮结束时,服务器将进入到第t+1轮,并将选择新的客户端集合St+1参与训练,并将最新的服务器模型和时间戳
Figure BDA0003739260700000111
发送到这些客户端的设备。
本实施例的半异步联邦学习方法可以使得众包工人收集到的数据保留在本地,而无需上传到服务器从而实现工人的隐私保护。针对工人所持设备的响应时间差距较大的问题,本实施例使用周期性聚合的半异步联邦学习机制,即每隔固定的时间对上传的客户端模型进行聚合,可以有效地解决现有异步联邦学习算法存在的通信瓶颈的问题。同时,为解决在异步通信模式下,不同速度的客户端参与模型更新的频率不同导致服务器模型的偏置问题,特别是在客户端数据呈非独立同分布的情况下尤为突出,本实施例依据响应时间对客户端模型进行分组,并为速度慢的组别分配较大的聚合权重,从而有效缓解了模型偏置的问题,同时,服务器根据客户端的训练速度慢的客户端分配较大的学习率,从而进一步缩小不同速度客户端之间模型训练速度的差异,平衡服务器模型的更新过程,加快模型的收敛速率。
实施例二
本实施例提供了一种半异步联邦学习系统,其具体包括如下模块:
客户端选择模块,其被配置为:在某一轮次开始时,选择若干个客户端参与当前轮次的训练,为每个客户端分配学习率,并将当前轮次的服务器模型和时间戳发送给选择的客户端,以使选择的客户端采用本地数据集对服务器模型进行优化,得到客户端模型并返回;
模型更新模块,其被配置为:周期性地对某一轮次客户端返回的客户端模型进行分组后,依次进行组内聚合和组间聚合,对服务器模型进行更新,得到下一轮次的服务器模型。
此处需要说明的是,本实施例中的各个模块与实施例一中的各个步骤一一对应,其具体实施过程相同,此处不再累述。
实施例三
本实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上述实施例一所述的一种半异步联邦学习方法中的步骤。
实施例四
本实施例提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述实施例一所述的一种半异步联邦学习方法中的步骤。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用硬件实施例、软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器和光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(RandomAccessMemory,RAM)等。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种半异步联邦学习方法,其特征在于,包括:
在某一轮次开始时,选择若干个客户端参与当前轮次的训练,为每个客户端分配学习率,并将当前轮次的服务器模型和时间戳发送给选择的客户端,以使选择的客户端采用本地数据集对服务器模型进行优化,得到客户端模型并返回;
周期性地对某一轮次客户端返回的客户端模型进行分组后,依次进行组内聚合和组间聚合,对服务器模型进行更新,得到下一轮次的服务器模型。
2.如权利要求1所述的一种半异步联邦学习方法,其特征在于,根据每个客户端的平均训练时间,为每个客户端分配学习率。
3.如权利要求1所述的一种半异步联邦学习方法,其特征在于,所述客户端对服务器模型进行优化时,通过添加正则约束项的损失函数以及分配的学习率,使用梯度下降算法进行优化。
4.如权利要求1所述的一种半异步联邦学习方法,其特征在于,将在同一轮次接收到服务器模型的客户端分为一组。
5.如权利要求1所述的一种半异步联邦学习方法,其特征在于,所述组内聚合表示为:
Figure FDA0003739260690000011
其中,
Figure FDA0003739260690000012
是第i组中的客户端c返回的客户端模型,
Figure FDA0003739260690000013
为第t轮次第i组的组模型,
Figure FDA0003739260690000014
表示客户端c的本地数据集
Figure FDA0003739260690000015
中的样本数目,
Figure FDA0003739260690000016
表示在第i轮次接收到服务器模型并在第t轮次中将客户端模型返回的客户端集合。
6.如权利要求1所述的一种半异步联邦学习方法,其特征在于,所述组间聚合表示为:
Figure FDA0003739260690000021
其中,α是超参数,
Figure FDA0003739260690000022
表示客户端c的本地数据集
Figure FDA0003739260690000023
中的样本数目,
Figure FDA0003739260690000024
表示在第i轮次接收到服务器模型并在第t轮次中将客户端模型返回的客户端集合,
Figure FDA0003739260690000025
为第t轮次中第i组的组模型,θt表示第t轮次的聚合模型。
7.如权利要求1所述的一种半异步联邦学习方法,其特征在于,在某一轮次对服务器模型进行更新时,下一轮次的服务器模型为所述组间聚合后得到的聚合模型与当前轮次的服务器模型的加权和。
8.一种半异步联邦学习系统,其特征在于,包括:
客户端选择模块,其被配置为:在某一轮次开始时,选择若干个客户端参与当前轮次的训练,为每个客户端分配学习率,并将当前轮次的服务器模型和时间戳发送给选择的客户端,以使选择的客户端采用本地数据集对服务器模型进行优化,得到客户端模型并返回;
模型更新模块,其被配置为:周期性地对某一轮次客户端返回的客户端模型进行分组后,依次进行组内聚合和组间聚合,对服务器模型进行更新,得到下一轮次的服务器模型。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-7中任一项所述的一种半异步联邦学习方法中的步骤。
10.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1-7中任一项所述的一种半异步联邦学习方法中的步骤。
CN202210808306.4A 2022-07-11 2022-07-11 一种半异步联邦学习方法及系统 Active CN115115064B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210808306.4A CN115115064B (zh) 2022-07-11 2022-07-11 一种半异步联邦学习方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210808306.4A CN115115064B (zh) 2022-07-11 2022-07-11 一种半异步联邦学习方法及系统

Publications (2)

Publication Number Publication Date
CN115115064A true CN115115064A (zh) 2022-09-27
CN115115064B CN115115064B (zh) 2023-09-05

Family

ID=83331355

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210808306.4A Active CN115115064B (zh) 2022-07-11 2022-07-11 一种半异步联邦学习方法及系统

Country Status (1)

Country Link
CN (1) CN115115064B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117390448A (zh) * 2023-10-25 2024-01-12 西安交通大学 一种用于云际联邦学习的客户端模型聚合方法及相关系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110956202A (zh) * 2019-11-13 2020-04-03 重庆大学 基于分布式学习的图像训练方法、系统、介质及智能设备
CN111079977A (zh) * 2019-11-18 2020-04-28 中国矿业大学 基于svd算法的异构联邦学习矿井电磁辐射趋势跟踪方法
CN112988382A (zh) * 2021-03-12 2021-06-18 中国科学院自动化研究所 基于分布式深度学习的医学影像智能分析系统
CN113469340A (zh) * 2021-07-06 2021-10-01 华为技术有限公司 一种模型处理方法、联邦学习方法及相关设备
CN113642809A (zh) * 2021-09-01 2021-11-12 深圳供电局有限公司 一种用电量预测方法、装置、计算机设备和存储介质
CN114363911A (zh) * 2021-12-31 2022-04-15 哈尔滨工业大学(深圳) 一种部署分层联邦学习的无线通信系统及资源优化方法
CN114357067A (zh) * 2021-12-15 2022-04-15 华南理工大学 一种针对数据异构性的个性化联邦元学习方法
CN114629930A (zh) * 2020-12-10 2022-06-14 华为技术有限公司 半异步联邦学习的方法和通信装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110956202A (zh) * 2019-11-13 2020-04-03 重庆大学 基于分布式学习的图像训练方法、系统、介质及智能设备
CN111079977A (zh) * 2019-11-18 2020-04-28 中国矿业大学 基于svd算法的异构联邦学习矿井电磁辐射趋势跟踪方法
CN114629930A (zh) * 2020-12-10 2022-06-14 华为技术有限公司 半异步联邦学习的方法和通信装置
CN112988382A (zh) * 2021-03-12 2021-06-18 中国科学院自动化研究所 基于分布式深度学习的医学影像智能分析系统
CN113469340A (zh) * 2021-07-06 2021-10-01 华为技术有限公司 一种模型处理方法、联邦学习方法及相关设备
CN113642809A (zh) * 2021-09-01 2021-11-12 深圳供电局有限公司 一种用电量预测方法、装置、计算机设备和存储介质
CN114357067A (zh) * 2021-12-15 2022-04-15 华南理工大学 一种针对数据异构性的个性化联邦元学习方法
CN114363911A (zh) * 2021-12-31 2022-04-15 哈尔滨工业大学(深圳) 一种部署分层联邦学习的无线通信系统及资源优化方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117390448A (zh) * 2023-10-25 2024-01-12 西安交通大学 一种用于云际联邦学习的客户端模型聚合方法及相关系统
CN117390448B (zh) * 2023-10-25 2024-04-26 西安交通大学 一种用于云际联邦学习的客户端模型聚合方法及相关系统

Also Published As

Publication number Publication date
CN115115064B (zh) 2023-09-05

Similar Documents

Publication Publication Date Title
CN109754060A (zh) 一种神经网络机器学习模型的训练方法及装置
CN110968426B (zh) 一种基于在线学习的边云协同k均值聚类的模型优化方法
CN110570075B (zh) 一种电力业务边缘计算任务分配方法及装置
CN110717300A (zh) 面向电力物联实时在线监测业务的边缘计算任务分配方法
CN113691594B (zh) 一种基于二阶导数解决联邦学习中数据不平衡问题的方法
CN115374853A (zh) 基于T-Step聚合算法的异步联邦学习方法及系统
CN114169543A (zh) 一种基于模型陈旧性与用户参与度感知的联邦学习算法
CN116450312A (zh) 面向流水线并行训练的调度策略确定方法及系统
CN115115064A (zh) 一种半异步联邦学习方法及系统
CN114356544A (zh) 面向边缘集群的并行计算方法和系统
CN111343006B (zh) 一种cdn峰值流量预测方法、装置及存储介质
CN116681126A (zh) 一种自适应等待时长的异步加权联邦学习方法
CN115130683A (zh) 一种基于多代理模型的异步联邦学习方法及系统
CN110929885A (zh) 一种面向智慧校园的分布式机器学习模型参数聚合方法
CN114465900A (zh) 基于联邦边缘学习的数据共享时延优化方法及装置
CN113435125A (zh) 一种面向联邦物联网系统的模型训练加速方法与系统
CN113382066A (zh) 基于联邦边缘平台的车辆用户选择方法及系统
CN117202264A (zh) Mec环境中面向5g网络切片的计算卸载方法
CN116610144A (zh) 基于扩展一致性包算法的无人机协同动态任务分配方法
CN115695390B (zh) 一种基于移动边缘计算的矿山安全监控系统海量视频数据自适应流方法
CN116362327A (zh) 一种模型训练方法、系统及电子设备
CN116702881A (zh) 一种基于抽样聚合优化的多层联邦学习方案
CN110366210A (zh) 一种针对有状态数据流应用的计算卸载方法
Zhang et al. Optimizing federated edge learning on Non-IID data via neural architecture search
CN110928683B (zh) 基于两类密集型虚拟机的边缘计算资源分配方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant