CN111447083A - 动态带宽和不可靠网络下的联邦学习架构及其压缩算法 - Google Patents

动态带宽和不可靠网络下的联邦学习架构及其压缩算法 Download PDF

Info

Publication number
CN111447083A
CN111447083A CN202010163471.XA CN202010163471A CN111447083A CN 111447083 A CN111447083 A CN 111447083A CN 202010163471 A CN202010163471 A CN 202010163471A CN 111447083 A CN111447083 A CN 111447083A
Authority
CN
China
Prior art keywords
compression
dynamic bandwidth
bandwidth
client
compression algorithm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010163471.XA
Other languages
English (en)
Other versions
CN111447083B (zh
Inventor
朱晓敏
张雄涛
包卫东
梁文谦
周文
司悦航
王吉
吴冠霖
陈超
高雄
闫辉
张亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National University of Defense Technology
Original Assignee
National University of Defense Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National University of Defense Technology filed Critical National University of Defense Technology
Priority to CN202010163471.XA priority Critical patent/CN111447083B/zh
Publication of CN111447083A publication Critical patent/CN111447083A/zh
Application granted granted Critical
Publication of CN111447083B publication Critical patent/CN111447083B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0896Bandwidth or capacity management, i.e. automatically increasing or decreasing capacities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L69/00Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
    • H04L69/04Protocols for data compression, e.g. ROHC
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/50Reducing energy consumption in communication networks in wire-line communication networks, e.g. low power modes or reduced link rate

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer And Data Communications (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

本发明提出了一种动态带宽和不可靠网络下的联邦学习架构及其压缩算法,框架包括云端、客户端和边缘服务器,边缘服务器有若干个并能够相互之间进行数据交换,边缘服务器中一个作为协调器。客户端与边缘服务器之间的数据传输为数据块的传输,所采用的边缘服务器机制缩短了传统的客户端到云之间的传输距离,从而减少客户端与服务器之间的通信延迟;此外,由于引入了多个边缘服务器,并将经过训练的模型划分为相应的块数,从而通过避免丢失整个模型来减少数据包丢失对训练的影响。压缩算法自适应调整压缩率来适应动态带宽,用带宽进行自适应调整来代替固定压缩率,有效利用带宽资源,减少了冗余数据交换。

Description

动态带宽和不可靠网络下的联邦学习架构及其压缩算法
技术领域
本发明涉及联邦学习领域,具体公开了一种动态带宽和不可靠网络下的联邦学习架构及 其压缩算法。
背景技术
诸如隐私保护和终身学习之类的新兴问题给大数据和人工智能带来了许多新挑战,例如 信息泄漏,法律违规,模型不匹配以及资源限制。此外,通用数据保护条例(GDPR)和其他 相关法律进一步限制了此类数据的使用。这些因素在网络中创建了隔离的数据岛,这使得当 前的大数据不再庞大。同时,由通用数据集训练的模型无法适应用户的个性化要求(如词汇 外单词)和社会变化(如互联网词汇,新术语等)。为了满足这些要求,AI必须能够重新学 习最新生成的数据,从而具有终身学习的能力。根据思科最新的视觉网络指数(VNI),移动 数据流量将在2017年至2022年之间以46%的复合年增长率增长,到2022年将达到每月77.5 艾字节(exabytes)。将所有数据集中到云中将进一步增加网络负担。此外,诸如神经网络之 类的AI方法通常需要大量计算资源,这使得大多数针对移动设备的学习框架(例如 TensorFlowLite)无法在客户端上进行训练,而只能用于推理。同时,为了保护隐私,消除 数据孤岛,并使移动设备具有更强的学习能力,学术界和产业界先后提出了联邦学习技术。 由于能够在保护用户隐私的同时不断地在物联网和移动设备上学习新生成的数据,联邦学习 已被认为是解决这些挑战的可行方法。作为最有代表性的移动设备的学习技术之一,联邦学 习可以将数据保存在本地并协作执行训练任务,其中在客户端和服务器之间共享的信息是经 过训练的模型,而不是敏感数据。该方法避免了因直接传输敏感数据而造成的泄漏,并且符 合大多数政府隐私政策。此外,客户产生的数据可以继续参加培训,以便不断调整全局模型 以实现持续改进。
当前,联邦学习算法通常采用服务器-客户端体系结构,并通过减少通信回合数来减少网 络流量。但是,此类方法并未解决通信限制方面的许多挑战,包括:网络不可靠:由于许多 因素都会影响通信,并且随着流量的增加,通信中断的可能性也会增加。此外,参与的客户 (包括智能手机,笔记本电脑,自动驾驶汽车等)可能由于移动,电池电量耗尽或其他原因 而停止传输。然而,大多数现有的联邦学习工作并未对此挑战进行深入研究;网络吞吐量: 在传统的联邦学习算法中,所有选定的客户端将其本地模型发送到同一服务器。这些客户端 通常规模较大,将导致带宽峰值占用,对网络吞吐量提出了过于严格的要求。此外,网络的 承载能力也限制了客户端的规模,这可能导致新生成的数据无法正常运行;动态带宽:在动 态带宽下,联邦学习必须延长其全局共享时间,以等待那些带宽较低的客户端。这减慢了训 练和融合的速度。此外,互联网连接速度的不对称性(例如,2019年,美国移动下载速度为 33.88 Mbps,而上传速度为9.75 Mbps)也浪费了大量带宽资源;理论收敛性:联邦学习的 数据分布是不平衡且非IID(非独立且相同)的,而大多数分布式学习方法均以IID分布为 假设。此外,大多数联邦学习算法仅是经过验证的实验,很少在理论上分析不可靠的网络和 通信压缩的影响。
发明内容
本发明目的在提供一种动态带宽和不可靠网络下的联邦学习架构及其压缩算法,以解决 现有技术中存在的技术缺陷。
为实现上述目的,本发明提供了一种动态带宽和不可靠网络下的联邦学习架构,包括云 端、客户端和边缘服务器,边缘服务器有若干个并能够相互之间进行数据交换,边缘服务器 中一个作为协调器,训练时,本地模型存储于客户端中并划分为若干个数据块,客户端利用 空闲带宽将数据块上传至不同的边缘服务器中,边缘服务器将数据块进行聚合形成完整的本 地模型,通过相互之间的数据交换由协调器将本地模型上传至云端;更新时,云端选择客户 端并将本地模型划分为若干数据库发送至不同边缘服务器,被选择的客户端从边缘服务器中 下载数据库以更新本地模型。
优选地,云端还直接存储数据块。
依托于上述联邦学习框架,本发明还提出了一种动态带宽和不可靠网络下的联邦学习架 构的压缩算法,训练时,数据块在进行上传和/或数据交换前进行自适应通信压缩;更新时, 数据块在进行下载和/或数据交换前进行自适应通信压缩。
优选地,对数据库进行聚合的方式为采用FedAvg聚合算法进行聚合。
优选地,FedAvg聚合算法模型为:
Figure BDA0002406608520000021
其中,di是客户ni的本地训练中使用的样本数,w*为全局解,η为学习率,t为学习次数,
Figure BDA0002406608520000022
为梯度,
Figure BDA0002406608520000023
为云端选择的客户ni的集合。
优选地,动态带宽可描述为:
Figure BDA0002406608520000024
其中,b(t)为带宽限制;
不可靠网络可描述为:
p=(1-pb)M
其中,pb是每比特信息的丢失率,M是发送的数据包的总比特数。
优选地,压缩算法的压缩率和丢失率分别为:
Figure BDA0002406608520000031
其中,εi和ri分别为压缩算子C(x)的损失率和压缩率。
优选地,数据块更新规则为:
Figure BDA0002406608520000032
其中,γt为步长参数,
Figure BDA0002406608520000033
为中间变量。
优选地,本地模型的聚合模型为:
Figure BDA0002406608520000034
其中,
Figure BDA0002406608520000035
为第T次迭代后全局模型的第j块参数,
Figure BDA0002406608520000036
为第i个节点在t时刻的第j块 参数,
Figure BDA0002406608520000037
at为超参且满足
Figure BDA0002406608520000038
at对应的条件 中,δ为网络连通图概率矩阵到的第二大特征值,εt为t时刻因信息压缩和丢包导致的信息损 失,μ和L分别对应训练时目标函数在L-smooth条件和μ-strongly convex条件下的系数。
优选地,压缩算法的速率收敛速度为:
Figure BDA0002406608520000039
其中,T为全局迭代次数,
Figure BDA00024066085200000310
代表经过T次迭代后目标函数值
Figure BDA00024066085200000311
与实际最 优值f*之间的期望差距,
Figure BDA00024066085200000312
为σi的均值的平方,
Figure BDA00024066085200000313
为条件参数,μ和L分别对应训练时目标函数 在L-smooth条件和μ-strongly convex条件下的系数,n为节点总个数,εmax为训练过程 中每次迭代信息损失的最大值。
本发明具有以下有益效果:
1、本发明提出了一种云边缘客户端联邦学习架构,客户端与边缘服务器之间的数据陈述 为数据块的传输,缩短客户端与云端之间的传输距离,从而减少客户端与服务器之间的通信 延迟;此外,由于引入了多个边缘服务器,并将经过训练的模型划分为相应的块数,从而通 过避免丢失整个模型来减少数据包丢失对训练的影响。
2、本发明还提出了一种适用于云边缘客户端联邦学习框架的自适应通信压缩算法,本算 法自适应调整压缩率来适应动态带宽,用带宽进行自适应调整来代替固定压缩率,有效利用 带宽资源,减少了冗余数据交换。
3、本发明的压缩算法具有收敛性,可以在任何数据分布上实现训练的收敛,并且具备良 好的鲁棒性。
下面将参照附图,对本发明作进一步详细的说明。
附图说明
构成本申请的一部分的附图用来提供对本发明的进一步理解,本发明的示意性实施例及 其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1为本发明优选实施例提供的k位量化示意图;
图2为本发明优选实施例提供的体系结构示意图;
图3为本发明优选实施例提供的k位量化顶部稀疏化和随机稀疏化的时间开销示意图;
图4为本发明优选实施例提供的三种算法准确度对比图;
图5为本发明优选实施例提供的客户端中三种算法准确度对比图;
图6为本发明优选实施例提供的三种算法通信效率对比图;
图7为本发明优选实施例提供的压缩率对C-FedAvg的影响示意图;
图8为本发明优选实施例提供的不可靠网络的影响示意图;
图9为本发明优选实施例提供的客户端数量变化的影响示意图。
具体实施方式
以下结合附图对本发明的实施例进行详细说明,但是本发明可以由权利要求限定和覆盖 的多种不同方式实施。
实施例1
联邦学习是用于机器学习的联邦优化的一种特殊形式。因此,本实施例首先将联邦优化 定义为一种具有数据并行设置的分布式优化类型,其中数据分布在不同的计算设备上,如下 所示:
Figure BDA0002406608520000041
其中f是全局优化目标,fi:Rd→R是由每个节点上可用的本地数据定义的目标,wi∈Rd表示fi的解。
解决联邦优化问题时,每个计算设备都会根据其本地数据搜索fi的解决方案wi,然后服 务器使用聚合算法fagg将wi聚合到获得全局解w*
w*=fagg(w1,…wn) (2)
然后,服务器将全局解决方案w*作为其新wi分发给每个客户端。每个客户都以这个新wi为起点搜索更好的解决方案。客户端和服务器重复这些操作,直到wi收敛到w*
因此,wi之间的差异应尽可能小,以便式(1)可以快速收敛。本实施例使用L2正则化 来调整wi差异:
Figure BDA0002406608520000051
其中c∈R+表示wi和它们的平均值
Figure BDA0002406608520000052
的总差。本实施例将联邦优化的范围缩小到联邦设 置中的联邦学习中。在联邦学习中,每个节点中的目标fi可定义为:
Figure BDA0002406608520000053
对于损失函数Fi:Rd×w∈R和来自数据集Di的数据样本ξi
这时,解w是机器学习模型的参数。可以通过计算Fi的梯度并以学习率η更新当前解wi来 使用经典方法(例如SGD)(随机梯度下降)来搜索更好的解:
Figure BDA0002406608520000054
Figure BDA0002406608520000055
其中t∈{0,1,2,…}是联邦学习的迭代次数。此后,通过式(2)中的fagg(·)聚合搜索结果
Figure BDA0002406608520000056
然后以与联盟优化相同的方式解决联盟学习问题。
有限的带宽和不可靠的网络是将联邦学习部署到客户端时必须面对的重要挑战。本实施 例使用每个时隙的平均带宽来描述有限的网络资源,以便根据链接条件动态地调整联邦学习。
在不失一般性的前提下,假设时隙tj的带宽b(tj)在一段时间[ti,ti+1]内是稳定的,其中tj∈ [ti,ti+1]。使用此期间的带宽平均值
Figure BDA0002406608520000057
来表示带宽的限制,下式成立:
Figure BDA0002406608520000058
为了作出进一步的提升,从服务器下载参数的期限和上载客户端的模型参数的期限都可 以视为带宽为
Figure BDA0002406608520000059
的时间段.以下部分将在每一轮中记录带宽限制为b(t),t∈0,,1,…是联 邦学习的轮数。
在对不可靠网络的正式描述中,p为非零概率丢包率。这对于不可靠网络上的分布式学习 是普遍的,但是当节点之间传输的数据包的大小不同时,此描述有些不合理。在实际情况下, 对于同一链路,数据包传输的持续时间越长,被丢弃的可能性就越大。因此,本实施例通过 以下方式改进了对不可靠网络的描述:
p=(1-pb)M (7)
其中pb是每比特信息的丢失率,M是发送的数据包的总比特数。
由于普通聚合算法无法有效解决通信限制带来的挑战,因此FedAvg被提出并广泛用于联 邦学习中。FedAvg的动机是使用客户端保留的计算资源来缓解通信瓶颈。它执行本地训练τ次 (而不是1次,从而减少了通信回合的次数并提高了通信效率。本实施例还假设每一轮交流 都是以同步方式进行的。因此,FedAvg中的聚合算法fagg(·)为:
Figure BDA0002406608520000061
其中di是客户ni的本地训练中使用的样本数,
Figure BDA0002406608520000062
服务器将把合计的
Figure BDA0002406608520000063
作为
Figure BDA0002406608520000064
发送给客户端。由于
Figure BDA0002406608520000065
因此在聚合器和客户端之间传输的信息也 可以是梯度
Figure BDA0002406608520000066
而不是参数
Figure BDA0002406608520000067
然后可以将等式(8)替换为
Figure BDA0002406608520000068
为了进一步提高FedAvg的效率,τ的值也可以用于平衡计算资源和网络资源。但是,在 实际部署中,不同客户端的计算和通信资源状况是多种多样的,这意味着相同的τ将导致许多 节点等待下一轮指令。因此,服务对象根据时间限制调整本地培训次数(τ)更为合理。用时 间限制调整τ被视为联邦学习协议的一部分,本地训练的时间限制称为报告时间。在本实施例, 本地训练方法为算法1中所示的函数。
算法1
Figure BDA0002406608520000069
Figure BDA0002406608520000071
在使用保留的计算资源减少通信次数的同时,可以直接通信压缩可以达到相同的效果。 在本实施例中将它们标记为压缩算符C。
与其初始值x相比,压缩块C(x)具有信息丢失。为了指示压缩运算符的信息丢失,使用均 方误差(MSE)表示如下:
Figure BDA0002406608520000072
其中Lc(x)是压缩块C(x)的信息丢失。此信息损失的价值与x有关。但是,当压缩运算符 不同时,不同C(x)的Lc(x)是无法比拟的。因此,需要进一步的调整。
通常,C(x)信息的丢失将导致12-范数的减少。例如,稀疏运算符在x∈Rd中导致更多0。
因此,式(10)满足:
Figure BDA0002406608520000073
其中ε∈[0,+∞)可以视为压缩算子C(x)的信息丢失率,并且与x无关。当ε→0时,意味 着压缩向量C(x)与原始向量x几乎没有差异。否则,ε越大,丢失的信息越多。
另外,当将大小为B的x通过C(x)压缩为B′位时,C(x)的压缩率r为:
Figure BDA0002406608520000074
常见压缩算子C(x)及其信息丢失率ε和压缩率r如下:
稀疏化:典型的稀疏化方法是rankk和topk,其中rankk从向量x∈Rd随机选择k个元 素,并且topk选择k个最大幅度值进行保留。此处,
Figure BDA0002406608520000075
二次抽样:随机选择一部分客户发送完整的信息,而其他部分则不发送。有:
Figure BDA0002406608520000076
w.p.表示具有概率,p是概率。在此,ε=1-p,r=p。
k位量化:k位是1位SGD算法的扩展。对于精度较高的向量(例如float32),以k位(例 如int8)以较低的精度替换它。对于向量x=[x1,x2,…,xd]的k位量化如下:
Figure BDA0002406608520000077
其中ej+1是x值范围,j∈0,1,…,2k-1,的2k-1个等分点,ej+1≥xi≥ej,如果xi= min{x1,x2,…,xd}。更直观地,该量化过程可以由图1表示。其丢失率
Figure BDA0002406608520000081
压缩率
Figure BDA0002406608520000082
其中k0是原始精度所占用的比特数,d是向量x的维数。
图1中,k位量化。在用k划分x值的范围后,每个元素xi以概率p或1-p映射到两个端点ej和ej+1之一。
本实施例将这些方法结合起来,获得组合的损失率和压缩率。
Figure BDA0002406608520000083
其中εi和ri是这些组合压缩算子的损失率和压缩率。
基于上述说明,本发明提供了一种动态带宽和不可靠网络下的联邦学习架构,包括云端、 客户端和边缘服务器,边缘服务器有若干个并能够相互之间进行数据交换,边缘服务器中一 个作为协调器,训练时,本地模型存储于客户端中并划分为若干个数据块,客户端利用空闲 带宽将数据块上传至不同的边缘服务器中,边缘服务器将数据块进行聚合形成完整的本地模 型,通过相互之间的数据交换由协调器将本地模型上传至云端;更新时,云端选择客户端并 将本地模型划分为若干数据库发送至不同边缘服务器,被选择的客户端从边缘服务器中下载 数据库以更新本地模型。
将所有客户的模型上传到云进行聚合会给云和网络带来巨大负担。本实施例考虑在生成 数据的地方聚合参数以减少这些负担。为此,提出了一种云边缘客户端联邦学习架构Cecilia (塞西莉亚)。Cecilia的体系结构如图2所示。此体系结构由n个客户端(移动电话,便 携式计算机等)及其数据集进行本地处理,由m个聚合器(边缘服务器)进行聚合(其中一 个被选为协调器)组成。)和1个云用于任务初始化和训练结果存储。由于边缘服务器执行 参数聚合,因此不再需要将客户端更新的本地模型实时上传到云。此时,客户端可以使用空 闲带宽(例如本地培训期间的带宽)上传本地模型。为了减少不可靠网络造成的数据包丢失 的影响,在Cecilia中传输的参数将被分为多个块并发送到不同的边缘服务器。此外,参数 块在发送前将根据带宽进行动态压缩。客户端和边缘服务器之间共享的参数不一定是经过训 练的模型,而可以是其他生成的中间变量,其通信压缩算法如本实施例中算法2所示。
算法2 ACFL
Figure BDA0002406608520000084
Figure BDA0002406608520000091
当信息在网络边缘(边缘服务器和客户端之间)传输时,每个节点执行通信压缩。由于 通信限制和网络不可靠,聚合器和客户端之间的模型块传递可能会导致数据包丢失。
在进行迭代训练之前,云端首先将参数,即本地模型拆分为多个块,然后将其分配给每 个聚合器,然后选择一个聚合器ac作为协调器。之后,Cecilia将在每个回合中按照以下4 个步骤进行迭代,直到满足停止条件为止。
有时有必要在云中聚合模型以向用户提供更好的服务,例如疾病分析,跌倒检测等。
步骤1.选择:从客户集合N={n1,n2,…nn}中随机选择子集
Figure BDA0002406608520000101
然后由协调器ac将选择 信息发送给每个选定的客户端
步骤2.本地处理:选择后,每个选定的客户端都会根据本地数据执行本地处理。同时, 客户还将使用本地处理中的空闲带宽将部分或全部本地模型上载到云中。
步骤3.聚合:每个选定的客户端将本地处理的结果划分为m个块。这些块或由它们计算 出的中间变量用作参数块。之后,每个选定的客户端进行压缩并将参数块发送到相应的聚合 器。最后,聚合器聚合接收到的参数块。
步骤4.下载:每个选定的客户端从相应的聚合器下载聚合参数,然后根据下载的参数块 更新其本地模型。
在大多数联邦学习体系结构中,客户端在被选择后会从聚合器下载参数块。即第4步。 在第1步之后下载本文。在这些传统的联邦学习体系结构中进行选择。但是,在Cecilia中, 将参数块下载放在聚合之后,以匹配ACFL算法(算法2)。本质上,无论是哪种工作流程,选定客户端中的模型都会在迭代后进行更新。
Cecilia中的所有发送操作都可以压缩到不同的级别。此外,边缘服务器在执行聚合任 务时不知道全局参数,而仅知道一些离散的状态块,从而降低了从边缘服务器泄漏用户隐私 的风险。
根据Cecilia体系结构,所有参数都以划分的块方式进行聚合,以减少链路上的通信压 力和丢包率。本实施例将这些划分的块标记为
Figure BDA0002406608520000102
由Choco-Gossip推动, 得到了算法2。
与经典的联邦学习通信方法不同,它直接在客户端和边缘服务器之间发送模型或压缩模 型,本实施例引入中间变量
Figure BDA0002406608520000103
并压缩
Figure BDA0002406608520000104
使用
Figure BDA0002406608520000105
作为交换信息。
Figure BDA0002406608520000106
的更新规则如下:
Figure BDA0002406608520000111
其中
Figure BDA0002406608520000112
Figure BDA0002406608520000113
是局部训练后的模型块。
引入的中间变量
Figure BDA0002406608520000114
对应于每个客户端上的模型块
Figure BDA0002406608520000115
当客户端存储自己的
Figure BDA0002406608520000116
时,还让边缘服务器存储所连接客户端的中间变量
Figure BDA0002406608520000117
Figure BDA0002406608520000118
都以相同的初始值 开始。客户端在本地处理后将
Figure BDA0002406608520000119
发送到边缘服务器,然后执行式(16) 中的运算以更新
Figure BDA00024066085200001110
一旦边缘服务器接收到
Figure BDA00024066085200001111
它们还将执行式(16) 中的运算以更新
Figure BDA00024066085200001112
这样,
Figure BDA00024066085200001113
在接收到
Figure BDA00024066085200001114
并更新
Figure BDA00024066085200001115
之后,对于每个边缘服务器,只需将
Figure BDA00024066085200001116
一个就足够了。这不仅节省了边缘服务器的计算资源,而且避免了边缘服务器通过客 户端模型直接猜测客户端的原始数据。
Figure BDA00024066085200001117
其中di是在客户端ni的本地训练中使用的样本数量,d=∑idi
Figure BDA00024066085200001118
存储在 边缘服务器中。
在等式(17)聚合之后,边缘服务器将
Figure BDA00024066085200001119
发送给选定的客户端。在设计客户端模 型的更新规则时,请考虑网络不可靠和动态压缩率r(t)造成的信息丢失。引入步长参数γt
Figure BDA00024066085200001120
当γt=1并用等式(18)中的ω替换
Figure BDA00024066085200001121
对,等效于经典FedAvg中的
Figure BDA00024066085200001122
由于不可靠的网络的影响,每次发送信息时,都可能不会接收到该信息。此时,边缘服 务器仅需要聚合接收到的中间变量。丢包时,客户端中不同参数块的更新规则采用以下策略:
Figure BDA00024066085200001123
之后,可以使用算法1处理新的本地训练,即
Figure BDA00024066085200001124
最后,当达到终止条件时,例如t=T。可以通过平均和拼接每个客户的模型块来获得全 局模型
Figure BDA0002406608520000121
Figure BDA0002406608520000122
其中
Figure BDA0002406608520000123
式(20)在云中进行处理以避免模型泄漏,并且
Figure BDA0002406608520000124
与云同步由 客户端在执行本地培训时(带宽处于空闲状态)。
在不失一般性的前提下,本实施例对所有客户端的每个函数fi做出以下常用假设并定义 了
Figure BDA0002406608520000125
的值:
假设1:L-smooth:
Figure BDA0002406608520000126
假设2:strongly convex:
Figure BDA0002406608520000127
假设3:Bounded variance:
Figure BDA0002406608520000128
Figure BDA0002406608520000129
在假设1、2和3下,算法2的速率收敛可表示为:
Figure BDA00024066085200001210
Figure BDA00024066085200001211
为假设3中σi的均值的平方,
Figure BDA00024066085200001212
为假设3中第2项条件对应的参数。
从上式的收敛结果来看,当T足够大时,可以忽略第二和第三项收敛速率,即,随着迭代 次数的增加,不可靠网络和通信压缩的影响逐渐减小。
实施例2
本实施例将图像分类,情感分析和下一字符预测任务用作实验示例,以评估ACFL的有效 性。与典型机器学习模型相对应的所有这些任务包括卷积神经网络(CNN),单词袋逻辑回归 (Bag-Log-Reg)和长短期记忆(LSTM)。这些任务的数据集符合具有非IDD,不平衡和大规 模分布特征的联邦设置。对于图像分类任务,本实施例使用联邦扩展MNIST(FEMNIST),它 是根据作者在扩展MNIST中对数据进行分区而构建的。FEMNIST中有62个不同的类别(10 位数字,26个小写字母,26个大写字母)图像,具有3500个用户的28 x 28像素。对于情 感分析任务,本实施例使用Sentiment140,它是通过根据推文中存在的表情符号对推文进行 注释并根据660120 Twitter用户进行分区而构建的。对于下一个角色预测任务,本实施例使 用莎士比亚,它是通过将每个戏剧中的每个讲话角色都视为与《威廉·莎士比亚全集》不同 的装置而构建的。分割后,莎士比亚共有2288位用户。
基于这些数据集和模型,选择FedAvg和C-FedAvg(具有压缩通信的FedAvg)作为与ACFL 进行比较的基准。首先定义不可靠网络,动态带宽,通信压缩和学习速率的共享参数。同时, 压缩方法也根据的实验结果决定。之后,将在所有三种任务上验证ACFL的性能和准确性。此 外,通过描述发送字节的准确性提高来验证ACFL的通信有效性。然后,调整C-FedAvg的压 缩率以与ACFL进行比较。还通过观察这三种算法在不同丢包率下的性能来分析不可靠网络的 影响。最后,还评估了所选客户数量的影响。
共享参数:
共享参数包括不可靠网络和客户端有限带宽的设置,联邦学习中的常规参数,每种模型 的学习率以及C-FedAvg和ACFL中的压缩。
不可靠网络的设置被设置为每次传输中的丢失率。为了促进不同模型之间的比较,式(7) 中的pb值是通过其整个模型的相应下降率来计算的。例如,如果一个10MB的神经网络模型 在FedAvg中的丢包率为0.1,则pb的值为1-(1-0.1)110≈0.01。本实施例将式(7)中 的M的单位作为MB。如果没有特殊标记,则满足pb的值:没有压缩时,丢弃整个模型包的概率为0.1。此时,ACFL和C-FedAvg中的通信压缩将降低数据包的丢失率。
客户端的有限带宽由智能手机收集的数据设置。本实施例在长沙的一周的不同时间内收 集了15种类型的智能手机(华为P10,Mi6,魅族Pro7,vivo X27等),3家电信运营商(中 国移动,中国联通和中国电信)以及2种通信方式(WiFi和4G)的带宽。为了使这些收集的 数据更加合理,通过随机插值将其扩展为10,000条记录。然后,可以通过从这些记录中采 样来获得每个客户端的最大可用带宽。
对于联邦学习的设置,本实施例将所选客户端和边缘服务器的默认数量分别设置为10和 5。每个模型和数据集上三种算法的迭代次数和学习率都接近于LEAF中的给定值,即CNN迭 代的学习速率为0.01的120次,BagLog-Reg迭代的学习速率为0.005的40次和LSTM迭代 的40次学习率0.08。此外,联邦学习过程中的占用带宽由与其选择和聚合阶段相对应的时 间来描述。通常,为了确保有足够的时间来成功传输,FedAvg和C-FedAvg中每个迭代时间 都有一定的冗余。因此,本实施例通过将模型大小除以带宽的最小值来定义FedAvg中每个迭 代tre的时间,而C-FedAvg中的时间为「r×tre。
经典FedAvg选择阶段的子集本质上是一种子采样。在所有三种算法中,每轮培训都随机 选择20%的客户参加。对于自适应通信压缩,首先将时间开销作为计算成本和k位量化,顶 部稀疏化和随机稀疏化的能量进行测试。结果如图3(a)和图3(b)所示。根据该结果,当 压缩率低于232时,k位量化的时间开销小于顶部稀疏性。但是随着压缩率的增加,它呈指 数增长,而稀疏化方法没有明显变化。此外,稀疏化可以实现任何大小的通信压缩,而k位 量化只能压缩为一些固定值,例如1,8等。因此,k位量化不适合压缩的自适应调整率。同时,顶部稀疏化的时间开销大约是随机稀疏化的83倍,并且丢失率和压缩率相同。因此,本实施例在C-FedAvg和ACFL中使用随机稀疏性进行通信压缩。选择0.25作为C-FedAvg的压缩率。在随机稀疏化之后,传输的数据等效于稀疏矩阵。为了减少该稀疏矩阵占用的传输空间,在随机稀疏化时,使用随机种子作为掩码。
性能比较:
根据共享参数比较ACFL,FedAvg和C-FedAvg的性能。这些算法及其相应的通信带宽占 用,带宽利用率,每次迭代的平均时间成本,平均压缩率和准确性如表1所示。每次迭代中 所花费的时间由最小带宽和模型大小确定。由于CNN的模型大小比其他模型大得多,因此每 次迭代的时间成本最高。实验中的带宽占用定义为联邦学习过程分配的带宽,这意味着发送 的信息的大小通常小于占用的带宽。
表1:FedAvg,C-FedAvg和ACFL的总体性能
Figure BDA0002406608520000141
在表中,I,II和III分别是CNN,Bag-Log-Reg和LSTM的结果。在每个结果中,第一行与FedAvg相对应,第二行与C-FedAvg相对应,第三行与ACFL相对应。根据表2中的结果,ACFL的带宽利用率大于FedAvg和C-FedAvg。这是因为FedAvg和C-FedAvg设置了较大的迭代时间tre,以确保选定的客户端可以在动态带宽下上传本地模型,而ACFL可以自适应地调整模型压缩率以有效地利用可用带宽。这也允许ACFL以更少的带宽发送更多数据。另外,由于一次迭代的时间更少,因此在相同条件下,ACFL可以完成更多次训练,从而加快了联邦学习的速度。CNN中ACFL的平均压缩率为54.00%,而Bag-Log-Reg和LSTM中没有明显的压缩。这是因为CNN模型大于其他模型,并且当单次迭代时间仅为1秒时,大部分带宽无法完成。出于同样的原因,ACFL在较大的模型(例如CNN)中显示出93.12%的更高带宽利用率,在Bag-Log-Reg和LSTM中仅显示了20.00%和18.04%的带宽利用率。
准确性比较:
为了从准确性上比较这三种算法。通过CNN,Bag-Log-Reg和LSTM的典型模型分析ACFL, FedAvg和C-FedAvg算法的准确性。结果如图4和图5所示。
在图4(a)-(f)中,每条线周围的阴影表示不同客户的准确性或损失值的分布,而线 则表示这些客户的准确性或损失值的平均值。在训练过程中,ACFL可以在BagLog-Reg和LSTM 等小型模型上获得比FedAvg更好的训练效果。这是因为当模型较小时,ACFL几乎不需要执 行模型压缩,并且可以很好地保留基本信息。除了算法2,本申请还设计了更好的模型共享 机制,这使ACFL总体上可以获得更高的准确性,并且在模型较小时可以显示出更好的训练结 果。
从这些图中还可以看出,在所有类型的模型训练开始时,C-FedAvg的准确性相对较差。 这是因为参数需要在模型训练开始时进行较大的更新,并且在通信压缩期间C-FedAvg丢失的 信息会导致更新较少。当训练持续一会儿时,这种逐渐的变化就消失了,准确性开始迅速提 高。这是因为经过一段时间的训练后,模型中的参数已基本调整。尽管仍然存在一些信息丢 失,但微调足以提高模型的准确性。
从客户的模型分布的角度来看,Bag-Log-Reg的准确性差异最大,并且在培训过程中难 以有效控制,但是ACFL的分布更加集中。经过ACFL培训的客户在Bag-LogReg的上下四分位 数之间的距离最小,最大距离最大。对于CNN和LSTM等模型,尽管ACFL并不是最准确的分 布,但与FedAvg和CFedAvg相比,ACFL可以确保训练后的模型在一定范围内,从而确保更好的收敛性。
这三种算法分别执行了120或40次迭代,但是它们各自对应的迭代所需的时间有所不同, 如表1所示。ACFL算法的实际训练时间少于FedAvg,并且它们可以达到相似的效果训练结束 时的训练结果。因此,ACFL可以充分缩短通信所需的时间,从而加快训练过程。
图5(a)-图5(c)为客户端中三种算法准确度对比图。从三个数据集FEMNIST,Sentiment140和Shakespeare中随机选择了10个客户。用热图表示使用三种算法训练数据集中的每个客户的准确性结果。在此图中,精度越低,相应的像素颜色就越暗。注意,由于精度分布的差异,每个热图的精度颜色表也不同。在数据集中使用的LSTM模型中,C-FedAvg压缩过程中的信息丢失降低了模型更新的幅度,从而导致C-FedAvg之间存在客户端。精度差 异较小。但是ACFL和FedAvg也可以显示出更好的训练效果。在此数据集使用的模型(例如 LSTM)中,C-FedAvg中的信息丢失减少了模型更新的幅度,从而导致客户端之间的准确性差 异变小。但是ACFL和FedAvg也可以显示更好的训练结果和速度。
通信效率:
C-FedAvg致力于以较少的通信开销实现更高的准确性改进,通常以发送字节与准确性之 间的关系表示。为了比较ACFL和C-FedAvg的通信效率,本实施例绘制了准确性和发送字节 之间的关系,如图6所示。
从图6(a)-图6(c)中可以看出,CFedAvg的通信效率仅略高于FedAvg。尽管ACFL在各种模型中显示出更高的通信效率,尤其是在CNN和Bag-Log-Reg上。因此,ACFL除了有效减少带宽需求并加快训练速度外,还可以在相同数量的发送字节中获得更好的训练效果。C-FedAvg本质上切出了FedAvg中共享的一些参数,因此可以进行冗余的参数更新以实现较高的通信效率。但是,与使用中间变量C(w-w^)而不是直接发送压缩参数C(w)的方法相 比,这种消除通信冗余的方法效果较差。
压缩率对C-FedAvg的影响:
在先前的实验中,本实施例使用0.25作为CFedAvg的压缩率。实际上,可以直接调整该 压缩率。那么,如果只想减少网络带宽并提高通信效率,可以直接使用较低的压缩率。针对 此形式,本实施例调整了C-FedAvg的压缩率,并将其与FEMNIST中的ACFL和FedAvg进行了 比较。图8(a)和图8(b)分别使用不同颜色的线显示了C-FedAvg(压缩率从0.1到0.9),FedAvg和ACFL的准确性和损失值。其中,每条线周围相同颜色的阴影表示客户端的准确性分布。图7中的小提琴显示了每种通信压缩率的准确度数据分布。在图7中,每个小提琴中心的白点代表中位准确度,它反映了训练的速度。这些图中的实验结果表明,随着压缩率的持续降低,C-FedAvg表现出的训练效果越来越差。尤其是当压缩率仅为0.1时,与压缩率大于0.2的C-FedAvg相比,C-FedAvg训练速度有非常显着的下降。显然,这节省了通信资源,但牺牲了训练速度。但是,通信资源的值应与当前可用带宽相关,而不是直接与发送字节数相关。因此,在资源状况,训练速度和训练效果方面,ACFL表现出比降低C-FedAvg压缩率 更好的性能。
不可靠网络的影响:
为了比较不可靠的网络对ACFL的影响,本实施例对FEMNIST进行了附加测试。丢包率从 0.1调整到0.9,这部分的数据包丢失是由相同的随机数种子模拟的。具有这些下降率的精度 线如图9所示。在该图中,虚线“...”代表ACFL,虚线“--”代表C-FedAvg,实线代表FedAvg。每行颜色越深,下降率越大。
在ACFL,C-FedAvg和FedAvg对应的行中,存在明显的波动,这是由于丢包的影响所致。 其中,FedAvg受数据包丢失的影响最大。尤其是当丢包率达到0.9时,FedAvg升值显示出两 个非常明显的准确性下降。C-FedAvg最稳定。这是因为C-FedAvg的压缩率最高,因此每轮 发送的字节数最少,因此可能丢失的通信数据包也最少。但是C-FedAvg也显示出最慢的训练 速度。与C-FedAvg相比,尽管在训练过程中会有一些细微的波动,但ACFL的整体训练速度 要快于其他两个,并且没有像FedAvg那样明显的波动。因此,ACFL在不可靠的通信情况下 会很健壮,并且可以在确保快速训练速度的同时,确保相对稳定的训练效果。
被选中客户端数量的影响:
此外,本实施例还调整了参加FEMNIST每轮培训的客户数量,以观察ACFL的表现。该实 验总共进行了12次,选择的客户数量从4%增加到48%,增加了4%,其他参数与共享参数 相同。
随着所选客户数量的增加,当所选客户达到48%时,FedAvg的培训效果逐渐超过ACFL。 但是,这也带来了更多的通信开销,并且通常无法在实际系统中提供这么多的通信资源。 C-FedAvg性能受所选客户端数量的影响最大。当所选客户的数量仅为4%时,该模型在前80 个迭代中几乎没有明显的改进。此外,当选择的客户数量减少时,C-FedAvg在培训方面的差 异最为明显。当选定的客户端数量接近48%时,C-FedAvg的性能也开始接近FedAvg。但是, 具有48%选定客户端性能的C-FedAvg仅可与约12%选定客户端的ACFL准确性相媲美。在培 训期间,ACFL受所选客户数量变化的影响较小。这意味着ACFL也可以通过减少选定客户端 的数量来实现比C-FedAvg和FedAvg更高的通信效率。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员 来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等 同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种动态带宽和不可靠网络下的联邦学习架构,其特征在于,包括云端、客户端和边缘服务器,所述边缘服务器有若干个并能够相互之间进行数据交换,所述边缘服务器中一个作为协调器,训练时,本地模型存储于客户端中并划分为若干个数据块,所述客户端利用空闲带宽将所述数据块上传至不同的所述边缘服务器中,所述边缘服务器将所述数据块进行聚合形成完整的所述本地模型,通过相互之间的数据交换由所述协调器将所述本地模型上传至云端;更新时,所述云端选择所述客户端并将所述本地模型划分为若干数据库发送至不同所述边缘服务器,被选择的所述客户端从所述边缘服务器中下载所述数据库以更新本地模型。
2.根据权利要求1所述的一种动态带宽和不可靠网络下的联邦学习架构,其特征在于,所述云端还直接存储所述数据块。
3.一种基于权利要求1或2所述的动态带宽和不可靠网络下的联邦学习架构的压缩算法,其特征在于,训练时,所述数据块在进行上传和/或数据交换前进行自适应通信压缩;更新时,所述数据块在进行下载和/或数据交换前进行自适应通信压缩。
4.根据权利要求3所述的动态带宽和不可靠网络下的联邦学习架构的压缩算法,其特征在于,对所述数据库进行聚合的方式为采用FedAvg聚合算法进行聚合。
5.根据权利要求4所述的动态带宽和不可靠网络下的联邦学习架构的压缩算法,其特征在于,所述FedAvg聚合算法模型为:
Figure FDA0002406608510000011
其中,di是客户ni的本地训练中使用的样本数,w*为全局解,η为学习率,t为学习次数,
Figure FDA0002406608510000012
为梯度,
Figure FDA0002406608510000013
为所述云端选择的客户ni的集合。
6.根据权利要求3所述的动态带宽和不可靠网络下的联邦学习架构的压缩算法,其特征在于,动态带宽可描述为:
Figure FDA0002406608510000014
其中,b(t)为带宽限制;
不可靠网络可描述为:
p=(1-pb)M
其中,pb是每比特信息的丢失率,M是发送的数据包的总比特数。
7.根据权利要求3所述的动态带宽和不可靠网络下的联邦学习架构的压缩算法,其特征在于,所述压缩算法的压缩率和丢失率分别为:
Figure FDA0002406608510000021
其中,εi和ri分别为压缩算子C(x)的损失率和压缩率。
8.根据权利要求3所述的动态带宽和不可靠网络下的联邦学习架构的压缩算法,其特征在于,所述数据块更新规则为:
Figure FDA0002406608510000022
其中,γt为步长参数,
Figure FDA0002406608510000023
为中间变量。
9.根据权利要求3所述的动态带宽和不可靠网络下的联邦学习架构的压缩算法,其特征在于,所述本地模型的聚合模型为:
Figure FDA0002406608510000024
其中,
Figure FDA0002406608510000025
为第T次迭代后全局模型的第j块参数,
Figure FDA0002406608510000026
为第i个节点在t时刻的第j块参数,
Figure FDA0002406608510000027
at为超参且满足
Figure FDA0002406608510000028
at对应的条件中,δ为网络连通图概率矩阵到的第二大特征值,εt为t时刻因信息压缩和丢包导致的信息损失,μ和L分别对应训练时目标函数在L-smooth条件和μ-strongly convex条件下的系数。
10.根据权利要求3-9任一所述的动态带宽和不可靠网络下的联邦学习架构的压缩算法,其特征在于,所述压缩算法的速率收敛速度为:
Figure FDA0002406608510000029
其中,T为全局迭代次数,
Figure FDA00024066085100000210
代表经过T次迭代后目标函数值
Figure FDA00024066085100000211
与实际最优值f*之间的期望差距,
Figure FDA00024066085100000212
为σi的均值的平方,
Figure FDA00024066085100000213
为条件参数,μ和L分别对应训练时目标函数在L-smooth条件和μ-strongly convex条件下的系数,n为节点总个数,εmax为训练过程中每次迭代信息损失的最大值。
CN202010163471.XA 2020-03-10 2020-03-10 动态带宽和不可靠网络下的联邦学习架构及其压缩算法 Active CN111447083B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010163471.XA CN111447083B (zh) 2020-03-10 2020-03-10 动态带宽和不可靠网络下的联邦学习架构及其压缩算法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010163471.XA CN111447083B (zh) 2020-03-10 2020-03-10 动态带宽和不可靠网络下的联邦学习架构及其压缩算法

Publications (2)

Publication Number Publication Date
CN111447083A true CN111447083A (zh) 2020-07-24
CN111447083B CN111447083B (zh) 2022-10-21

Family

ID=71648892

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010163471.XA Active CN111447083B (zh) 2020-03-10 2020-03-10 动态带宽和不可靠网络下的联邦学习架构及其压缩算法

Country Status (1)

Country Link
CN (1) CN111447083B (zh)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112070240A (zh) * 2020-09-07 2020-12-11 清华大学 一种高效通信的分层联邦学习框架及其优化方法和系统
CN112101489A (zh) * 2020-11-18 2020-12-18 天津开发区精诺瀚海数据科技有限公司 一种联邦学习与深度学习融合驱动的设备故障诊断方法
CN112565331A (zh) * 2020-11-02 2021-03-26 中山大学 一种基于边缘计算的端-边协同联邦学习优化方法
CN112784718A (zh) * 2021-01-13 2021-05-11 上海电力大学 一种基于边缘计算与深度学习的绝缘子状态识别方法
CN113011602A (zh) * 2021-03-03 2021-06-22 中国科学技术大学苏州高等研究院 一种联邦模型训练方法、装置、电子设备和存储介质
CN113033082A (zh) * 2021-03-10 2021-06-25 中国科学技术大学苏州高等研究院 基于异构算力感知的去中心化联邦学习框架及建模方法
CN113033712A (zh) * 2021-05-21 2021-06-25 华中科技大学 一种基于联邦学习的多用户协同训练人流统计方法及系统
CN113098806A (zh) * 2021-04-16 2021-07-09 华南理工大学 一种联邦学习下边端协同的信道适应性梯度压缩方法
CN113139663A (zh) * 2021-04-23 2021-07-20 深圳市大数据研究院 联邦边缘学习配置信息获取方法、装置、设备及介质
CN113258935A (zh) * 2021-05-25 2021-08-13 山东大学 一种联邦学习中基于模型权值分布的通信压缩方法
CN113469367A (zh) * 2021-05-25 2021-10-01 华为技术有限公司 一种联邦学习方法、装置及系统
CN113919508A (zh) * 2021-10-15 2022-01-11 河南工业大学 一种基于移动式服务器的联邦学习系统及方法
CN113919511A (zh) * 2020-09-24 2022-01-11 京东科技控股股份有限公司 联邦学习方法及装置
WO2022089751A1 (en) * 2020-10-29 2022-05-05 Nokia Technologies Oy Sampling user equipments for federated learning model collection
US11468370B1 (en) 2022-03-07 2022-10-11 Shandong University Communication compression method based on model weight distribution in federated learning
CN116248607A (zh) * 2023-01-19 2023-06-09 北京邮电大学 自适应带宽的模型压缩方法及电子设备
WO2023157550A1 (ja) * 2022-02-21 2023-08-24 株式会社日立製作所 計算機システム、学習方法、及びエッジ装置
CN117221122A (zh) * 2023-09-12 2023-12-12 南京邮电大学 一种基于带宽预分配的异步分层联合学习训练方法
WO2024025444A1 (en) * 2022-07-25 2024-02-01 Telefonaktiebolaget Lm Ericsson (Publ) Iterative learning with adapted transmission and reception

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103457910A (zh) * 2012-05-29 2013-12-18 腾讯科技(深圳)有限公司 一种上传文件的方法及终端
CN110008696A (zh) * 2019-03-29 2019-07-12 武汉大学 一种面向深度联邦学习的用户数据重建攻击方法
US20190227980A1 (en) * 2018-01-22 2019-07-25 Google Llc Training User-Level Differentially Private Machine-Learned Models
CN110719158A (zh) * 2019-09-11 2020-01-21 南京航空航天大学 基于联合学习的边缘计算隐私保护系统及保护方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103457910A (zh) * 2012-05-29 2013-12-18 腾讯科技(深圳)有限公司 一种上传文件的方法及终端
US20190227980A1 (en) * 2018-01-22 2019-07-25 Google Llc Training User-Level Differentially Private Machine-Learned Models
CN110008696A (zh) * 2019-03-29 2019-07-12 武汉大学 一种面向深度联邦学习的用户数据重建攻击方法
CN110719158A (zh) * 2019-09-11 2020-01-21 南京航空航天大学 基于联合学习的边缘计算隐私保护系统及保护方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
LUMIN LIU: "Edge-Assisted Hierarchical Federated Learning with Non-IID Data", 《ARXIV》 *

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112070240A (zh) * 2020-09-07 2020-12-11 清华大学 一种高效通信的分层联邦学习框架及其优化方法和系统
CN113919511A (zh) * 2020-09-24 2022-01-11 京东科技控股股份有限公司 联邦学习方法及装置
WO2022089751A1 (en) * 2020-10-29 2022-05-05 Nokia Technologies Oy Sampling user equipments for federated learning model collection
CN112565331A (zh) * 2020-11-02 2021-03-26 中山大学 一种基于边缘计算的端-边协同联邦学习优化方法
CN112101489A (zh) * 2020-11-18 2020-12-18 天津开发区精诺瀚海数据科技有限公司 一种联邦学习与深度学习融合驱动的设备故障诊断方法
CN112784718A (zh) * 2021-01-13 2021-05-11 上海电力大学 一种基于边缘计算与深度学习的绝缘子状态识别方法
CN112784718B (zh) * 2021-01-13 2023-04-25 上海电力大学 一种基于边缘计算与深度学习的绝缘子状态识别方法
CN113011602B (zh) * 2021-03-03 2023-05-30 中国科学技术大学苏州高等研究院 一种联邦模型训练方法、装置、电子设备和存储介质
CN113011602A (zh) * 2021-03-03 2021-06-22 中国科学技术大学苏州高等研究院 一种联邦模型训练方法、装置、电子设备和存储介质
CN113033082B (zh) * 2021-03-10 2023-06-06 中国科学技术大学苏州高等研究院 基于异构算力感知的去中心化联邦学习框架及建模方法
CN113033082A (zh) * 2021-03-10 2021-06-25 中国科学技术大学苏州高等研究院 基于异构算力感知的去中心化联邦学习框架及建模方法
CN113098806A (zh) * 2021-04-16 2021-07-09 华南理工大学 一种联邦学习下边端协同的信道适应性梯度压缩方法
CN113139663A (zh) * 2021-04-23 2021-07-20 深圳市大数据研究院 联邦边缘学习配置信息获取方法、装置、设备及介质
CN113033712A (zh) * 2021-05-21 2021-06-25 华中科技大学 一种基于联邦学习的多用户协同训练人流统计方法及系统
WO2022247683A1 (zh) * 2021-05-25 2022-12-01 华为技术有限公司 一种联邦学习方法、装置及系统
CN113258935B (zh) * 2021-05-25 2022-03-04 山东大学 一种联邦学习中基于模型权值分布的通信压缩方法
CN113469367A (zh) * 2021-05-25 2021-10-01 华为技术有限公司 一种联邦学习方法、装置及系统
CN113258935A (zh) * 2021-05-25 2021-08-13 山东大学 一种联邦学习中基于模型权值分布的通信压缩方法
CN113469367B (zh) * 2021-05-25 2024-05-10 华为技术有限公司 一种联邦学习方法、装置及系统
CN113919508A (zh) * 2021-10-15 2022-01-11 河南工业大学 一种基于移动式服务器的联邦学习系统及方法
WO2023157550A1 (ja) * 2022-02-21 2023-08-24 株式会社日立製作所 計算機システム、学習方法、及びエッジ装置
US11468370B1 (en) 2022-03-07 2022-10-11 Shandong University Communication compression method based on model weight distribution in federated learning
WO2024025444A1 (en) * 2022-07-25 2024-02-01 Telefonaktiebolaget Lm Ericsson (Publ) Iterative learning with adapted transmission and reception
CN116248607A (zh) * 2023-01-19 2023-06-09 北京邮电大学 自适应带宽的模型压缩方法及电子设备
CN117221122A (zh) * 2023-09-12 2023-12-12 南京邮电大学 一种基于带宽预分配的异步分层联合学习训练方法
CN117221122B (zh) * 2023-09-12 2024-02-09 南京邮电大学 一种基于带宽预分配的异步分层联合学习训练方法

Also Published As

Publication number Publication date
CN111447083B (zh) 2022-10-21

Similar Documents

Publication Publication Date Title
CN111447083B (zh) 动态带宽和不可靠网络下的联邦学习架构及其压缩算法
CN112488322B (zh) 一种基于数据特征感知聚合的联邦学习模型训练方法
CN111563275B (zh) 一种基于生成对抗网络的数据脱敏方法
CN111382844B (zh) 一种深度学习模型的训练方法及装置
Zhang et al. Federated learning with adaptive communication compression under dynamic bandwidth and unreliable networks
WO2018218850A1 (zh) 文件大小异构的分布式编码缓存放置方法及系统
CN112637883A (zh) 电力物联网中对无线环境变化具有鲁棒性的联邦学习方法
CN113452676B (zh) 一种检测器分配方法和物联网检测系统
CN115374853A (zh) 基于T-Step聚合算法的异步联邦学习方法及系统
CN115633380B (zh) 一种考虑动态拓扑的多边缘服务缓存调度方法和系统
CN116050540B (zh) 一种基于联合双维度用户调度的自适应联邦边缘学习方法
CN107105043A (zh) 一种基于软件定义网络的内容中心网络缓存方法
CN113676357B (zh) 面向电力物联网中边缘数据处理的决策方法及其应用
CN110913239B (zh) 一种精细化的移动边缘计算的视频缓存更新方法
CN113810931A (zh) 一种面向移动边缘计算网络的自适应视频缓存方法
CN112836822A (zh) 基于宽度学习的联邦学习策略优化方法和装置
CN117875454A (zh) 一种基于多级智联的数据异构性联邦学习方法及存储介质
Xue et al. FedBIAD: Communication-Efficient and Accuracy-Guaranteed Federated Learning with Bayesian Inference-Based Adaptive Dropout
CN110381540B (zh) 基于dnn的实时响应时变文件流行度的动态缓存更新方法
WO2021147373A1 (zh) 实现模型更新的方法及其设备
Jiang et al. On higher-order moments in adam
CN115659212B (zh) 跨域异质场景下基于tdd通信的联邦学习效率评测方法
CN110365608A (zh) 一种容忍不完整数据传输的流组传输调度方法
Su et al. Expediting In-Network Federated Learning by Voting-Based Consensus Model Compression
US20240354589A1 (en) Systems and methods for quantized machine learning, federated learning and bidirectional network communication

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant