CN114219094A - 基于多任务联邦学习的通信成本和模型鲁棒性优化方法 - Google Patents

基于多任务联邦学习的通信成本和模型鲁棒性优化方法 Download PDF

Info

Publication number
CN114219094A
CN114219094A CN202111337548.1A CN202111337548A CN114219094A CN 114219094 A CN114219094 A CN 114219094A CN 202111337548 A CN202111337548 A CN 202111337548A CN 114219094 A CN114219094 A CN 114219094A
Authority
CN
China
Prior art keywords
model
client
task
layer
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111337548.1A
Other languages
English (en)
Other versions
CN114219094B (zh
Inventor
张幸林
欧昭婧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN202111337548.1A priority Critical patent/CN114219094B/zh
Publication of CN114219094A publication Critical patent/CN114219094A/zh
Application granted granted Critical
Publication of CN114219094B publication Critical patent/CN114219094B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/48Program initiating; Program switching, e.g. by interrupt
    • G06F9/4806Task transfer initiation or dispatching
    • G06F9/4843Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

本发明公开了一种基于多任务联邦学习的通信成本和模型鲁棒性优化方法,在联邦学习的场景下,单个客户机需要训练多个用户型任务,其中客户机的模型由单个共享层和多个任务特定层组成;包括:1)服务器挑选并邀请客户机参与通信;2)客户机回应并发送信息给服务;3)服务器分发共享层给所有客户机;4)客户机组合模型;5)客户机使用优化算法本地训练模型;6)客户机量化压缩共享层并发送给服务器;7)服务器对共享层进行聚合;8)重复步骤1)‑7)直到满足要求。本发明方法能够在单个客户机训练多个用户型任务的联邦学习场景下,同时最小化总体的通信成本和提高模型的鲁棒性。

Description

基于多任务联邦学习的通信成本和模型鲁棒性优化方法
技术领域
本发明涉及联邦学习的技术领域,尤其是指一种基于多任务联邦学习的通信成本和模型鲁棒性优化方法。
背景技术
联邦学习(Federated Learning,FL)是一种新兴的防止私人信息泄露的技术。它允许将训练数据分布保留在客户机的设备上,通过与服务器交互使得服务器能够获得一个良好的模型。每个客户机从服务器下载当前模型,并通过本地数据集训练模型,然后将模型上传回服务器的方式更新模型,而不是直接向服务器发送数据。通过避免共享本地私有数据,可以有效地保护用户的隐私。但与传统的集中式学习相比,联邦学习FL需要进行多次更新模型,所以需要大量的通信资源。因此,如何减少通信开销来提高通信效率也是当前联邦学习的研究热点。
目前大多数联邦学习的研究都并未考虑单个客户机需要训练多个相关的用户型任务的场景,而该类场景在实际中有广泛应用,例如向某个用户基于他听过的音乐训练推荐电影和书籍的模型,其中推荐电影可以看作是一个用户型任务,而推荐书籍可以看作是另一个用户型任务,并且都是基于听过的音乐进行推荐,所以这两个用户型任务存在相关性。随着移动设备在实际生活中的使用范围广大,在联邦学习的场景下训练多个相关的用户型任务是具有前景的。传统的方法解决FL下的通信效率,如压缩通信模型和减少通信次数并不能有效解决单个客户机训练多个任务的场景,因为传统的方法仍然需要针对每个任务训练单独的模型,而每个模型都需要在联邦学习中执行多次通信,耗费大量资源。并且随着任务数量的增加,通信的成本也会随之增加。
因此,考虑到在联邦学习场景中,考虑到客户机之间的数据集是非独立同分布并且数据集存在不平衡,传统优化通信效率和提高模型鲁棒性的方法在单个客户机需要训练多个相关的用户型任务的场景中不适用了,所以需要设计出新的联邦学习方法来解决这种情况。
发明内容
本发明的目的在于克服现有技术的不足,提出了一种基于多任务联邦学习的通信成本和模型鲁棒性优化方法,可同时最小化总体的通信成本和提高模型的鲁棒性。
为实现上述目的,本发明所提供的技术方案为:基于多任务联邦学习的通信成本和模型鲁棒性优化方法,该方法是在联邦学习的场景下单个客户机训练多个用户型任务,目标为最小化整体的通信成本和平均客户机的模型损失值,将联邦学习与多任务学习相结合,每个客户机的模型由一个共享层和多个任务特定层组成,客户机与服务器进行交互,其包括以下步骤:
1)服务器从客户机列表中挑选部分或所有的客户机邀请参与本轮通信和模型聚合;
2)受邀请的客户机中部分客户机回复接受并发送包含本地数据集大小的相关信息给服务器;
3)在客户机进行本地训练前,服务器会向所有的客户机都发送共享层;
4)若是首次进行通信,每个客户机将会根据收到的共享层和需要训练的用户型任务的数量和内容生成模型;若不是首次通信那么客户机会将收到的共享层进行反量化,与上一轮保留在本地的任务特定层组合成模型用于本地训练;
5)客户机使用本地的数据集使用SVRG优化算法进行模型训练;
6)本地训练结束后,参与本轮通信的客户机将训练后的共享层进行量化压缩,并将量化压缩后的共享层和量化压缩过程的缩放比例传递给服务器,所有客户机同步等待服务器返回聚合结果;
7)服务器收到参与本轮通信的客户机的共享层和缩放比例后,根据客户机的本地训练数据集的数量大小按照权重将共享层和缩放比例进行聚合,并将聚合后的结果返回给所有客户机;
8)重复步骤1)-7),直至达到预设通信次数或客户机的平均模型损失值小于设定值。
优选的,联邦学习的场景下单个客户机训练多个用户型任务,并需要同时优化通信成本和模型鲁棒性;考虑在联邦学习的场景下有M个客户机进行模型训练,其中第m个客户机一共训练Tm个用户型任务,θm为第m个客户机训练的模型且
Figure BDA0003346659910000034
其中θ1′为第1个用户型任务的模型,θ2′为第2个用户型任务的模型,
Figure BDA0003346659910000035
为第Tm个用户型任务的模型;每个客户机训练优化模型鲁棒性的目标为最小化平均用户型任务的损失值l(θm)如下:
Figure BDA0003346659910000031
式中,Tm为第m个客户机训练的用户型任务的数量,nm为第m个客户机本地的样本数量,
Figure BDA0003346659910000032
为第m个客户机的第j个样本的特征,θt′是第t个用户型任务的模型,
Figure BDA0003346659910000033
为第m个客户机的第j个样本中第t个用户型任务的标签,f(·)是根据模型参数进行预测的函数,l(·)是计算模型损失值的函数,λ为正则化惩罚系数,||θm||2为模型的参数平方和;
单个客户机与服务器之间的通信成本bm由上传模型的次数和单次上传的模型大小共同决定,上传通信成本bm如下:
bm=r×|θm|×H(θm)
式中,r为通信上传模型的次数,|θm|为第m个客户机的通信过程中模型的大小,H(θm)为第m个客户机通信过程中上传模型的熵;
综合考虑多个客户机与服务器,将联邦学习场景下训练多个用户型任务的目标函数设计如下:
Figure BDA0003346659910000041
目标为同时优化平均客户机的模型损失值和整体的通信成本。
优选的,将联邦学习与多任务学习相结合,每个客户机的模型由一个共享层和多个任务特定层组成;θm为第m个客户机训练的模型,传统的单个客户机训练多个用户型任务模型为
Figure BDA0003346659910000048
将转变成单个客户机训练单个模型,且模型由一个共享层和多个任务特定层组成,即
Figure BDA0003346659910000042
其中θsh是共享层,
Figure BDA0003346659910000043
是任务特定层,且任务特定层能够拆分为
Figure BDA0003346659910000044
其中θ1*为第1个用户型任务的任务特定层,θ2*为第2个用户型任务的任务特定层,
Figure BDA0003346659910000045
为第Tm个用户型任务的任务特定层。
优选的,在步骤5)中,使用SVRG优化算法进行模型训练,SVRG优化算法能够加快本地训练的收敛速度,在达到相同的精度的前提下,使用SVRG优化算法能够减少通信的次数;在客户机进行本地训练的过程中,该SVRG优化算法与多任务学习结合起来;客户机的单轮本地训练由外层循环和内层循环构成,并且在循环的过程中有两个模型,分别为模型θ和模型映像
Figure BDA0003346659910000046
对于第t个用户型任务,外层循环计算模型映像
Figure BDA0003346659910000047
的共享层和第t个任务特定层的全局平均梯度,分别为
Figure BDA0003346659910000051
Figure BDA0003346659910000052
其中
Figure BDA0003346659910000053
为模型映像
Figure BDA0003346659910000054
在共享层的全局平均梯度,
Figure BDA0003346659910000055
为模型映像
Figure BDA0003346659910000056
在第t个用户型任务的任务特定层的全局平均梯度;在内层循环中,随机挑选一批样本计算该样本在模型和模型映像中的梯度,并对模型进行更新,具体的更新公式如下:
Figure BDA0003346659910000057
Figure BDA0003346659910000058
式中,
Figure BDA0003346659910000059
是第j批样本在模型θ的共享层的梯度,
Figure BDA00033466599100000510
是第j批样本在模型映像
Figure BDA00033466599100000511
的共享层的梯度,
Figure BDA00033466599100000512
是第j批样本在第t个用户型任务中模型θ的任务特定层的梯度,
Figure BDA00033466599100000513
是第j批样本在第t个用户型任务中模型映像
Figure BDA00033466599100000514
的任务特定层的梯度,η是本地模型训练参数更新的学习率,并且在进行下一轮训练时将模型映像
Figure BDA00033466599100000515
的参数更新为模型θ的参数。
优选的,在步骤6)中,客户机与服务器进行通信时只上传共享层,多个任务特定层会保留在本地,并且在上传前会对共享层进行量化压缩,将量化压缩后的共享层和量化压缩过程的缩放比例传递给服务器;量化压缩在损失极少的模型精度的前提下,能够压缩通信消息的大小提高通信效率;在每次客户机与服务器进行通信前,将要上传的共享层从32比特浮点型小数转换成8比特整数,上传的共享层所占空间能够减少4倍;具体的量化过程如下:
Figure BDA00033466599100000516
式中,p为浮点型小数,q为整数,S为缩放比例,Z为零点值,round(·)函数为向下取整;
由于模型需要在服务器中进行聚合,聚合后返回给所有客户机进行反量化时原模型的缩放比例不再适用,因此在聚合模型的同时会将缩放比例也进行聚合。
本发明与现有技术相比,具有如下优点与有益效果:
本发明方法能够在联邦学习中考虑单个客户机训练多个用户型任务的场景,能够将联邦学习与多任务学习相结合,将传统的单个客户机训练多个用户型任务模型,变更为单个客户机训练单个模型,模型由共享层和任务特定层组成,该方法有效降低通信成本和提高模型的鲁棒性。
本发明方法能够通过使用SVRG优化算法进行模型训练,加快模型的收敛速度,从而降低通信成本。
本发明方法能够在客户机与服务器通信过程中,在客户机上传前对共享层进行量化压缩,减少上传的共享层大小,有效降低通信成本。
附图说明
图1为本发明方法的逻辑流程示意图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
如图1所示,本实施例所提供的基于多任务联邦学习的通信成本和模型鲁棒性优化方法,使用了多任务学习、SVRG优化算法和量化压缩,该方法是在联邦学习的场景下单个客户机训练多个用户型任务,目标为最小化整体的通信成本和平均客户机的模型损失值,将联邦学习与多任务学习相结合,每个客户机的模型由一个共享层和多个任务特定层组成,客户机与服务器进行交互;其包括以下步骤:
1)服务器从客户机列表中挑选部分或所有的客户机邀请参与本轮通信和模型聚合。
2)受邀请的客户机中部分客户机回复接受并发送包含本地数据集大小的相关信息给服务器。
3)在客户机进行本地训练前,服务器会向所有的客户机都发送共享层。将联邦学习与多任务学习相结合,每个客户机的模型由一个共享层和多个任务特定层组成,即
Figure BDA0003346659910000071
其中θsh是共享层,
Figure BDA0003346659910000072
是任务特定层,且任务特定层可以拆分为
Figure BDA0003346659910000073
其中θ1*为第1个用户型任务的任务特定层,θ2*为第2个用户型任务的任务特定层,
Figure BDA0003346659910000074
为第Tm个用户型任务的任务特定层。考虑到每个客户机的用户型任务的数量的具体任务内容都可能不同,因此服务器在聚合的过程中只会对共享层θsh进行聚合,并且初始化时分发共享层至所有客户机
4)若是首次进行通信,每个客户机将会根据收到的共享层和需要训练的用户型任务的数量和内容生成模型。若不是首次通信那么客户机会将收到的共享层进行反量化,与上一轮保留在本地的任务特定层组合成模型用于本地训练。反量化指的是从8比特整数转换成32比特浮点型小数,具体过程如下:
Figure BDA0003346659910000075
式中,p为浮点型小数,q为整数,S为缩放比例,Z为零点值,round(·)函数为向下取整。
5)客户机使用本地的数据集使用SVRG优化算法进行模型训练。其中每个客户机训练优化模型鲁棒性的目标为最小化平均用户型任务的损失值l(θm)如下:
Figure BDA0003346659910000081
式中,Tm为第m个客户机训练的用户型任务的数量,nm为第m个客户机的样本数量,
Figure BDA0003346659910000082
为第m个客户机的第j个样本的特征,θt′是第t个用户型任务的模型,
Figure BDA0003346659910000083
为第m个客户机的第j个样本中第t个用户型任务的标签,f(·)是根据模型进行预测的函数,l(·)是计算模型损失值的函数,λ为正则化惩罚系数,||θm||2为模型的参数平方和。
进行本地训练的过程中,使用SVRG优化算法进行模型训练。SVRG优化算法能够加快本地训练的收敛速度,在达到相同的精度的前提下,使用SVRG优化算法能够减少通信的次数。在客户机进行本地训练的过程中,该优化算法与多任务学习结合起来。客户机的单轮本地训练由外层循环和内层循环构成,并且在循环的过程中有两个模型,分别为模型θ和模型映像
Figure BDA0003346659910000084
对于第t个用户型任务,外层循环计算模型映像
Figure BDA0003346659910000085
的共享层和第t个任务特定层的全局平均梯度,分别为
Figure BDA0003346659910000086
Figure BDA0003346659910000087
其中
Figure BDA0003346659910000088
为模型映像
Figure BDA0003346659910000089
在共享层的全局平均梯度,
Figure BDA00033466599100000810
为模型映像
Figure BDA00033466599100000811
在第t个用户型任务的任务特定层的全局平均梯度。在内层循环中,随机挑选一批样本j计算该样本在模型和模型映像中的梯度,并对模型进行更新,具体的更新公式如下:
Figure BDA00033466599100000812
Figure BDA00033466599100000813
式中,
Figure BDA00033466599100000814
是第j批样本在模型θ的共享层的梯度,
Figure BDA00033466599100000815
是第j批样本在模型映像
Figure BDA00033466599100000816
的共享层的梯度,
Figure BDA00033466599100000817
是第j批样本在第t个用户型任务中模型θ的任务特定层的梯度,
Figure BDA00033466599100000818
是第j批样本在第t个用户型任务中模型映像
Figure BDA00033466599100000819
的任务特定层的梯度,η是本地模型训练参数更新的学习率。并且在进行下一轮训练时将模型映像
Figure BDA0003346659910000091
的参数更新为模型θ的参数。
6)本地训练结束后,参与本轮通信的客户机将训练后的共享层进行量化压缩,并将量化压缩后的共享层和量化压缩过程的缩放比例传递给服务器。所有客户机同步等待服务器返回聚合结果。客户机与服务器进行通信时只上传共享层,多个任务特定层会保留在本地,并且在上传前会对共享层进行量化压缩,将量化压缩后的共享层和量化压缩过程的缩放比例传递给服务器。量化压缩在损失极少的模型精度的前提下,能够压缩通信消息的大小提高通信效率。在每次客户机与服务器进行通信前,将要上传的共享层从32比特浮点型小数转换成8比特整数,上传的共享层所占空间能够减少4倍。具体的量化过程如下:
Figure BDA0003346659910000092
式中,p为浮点型小数,q为整数,S为缩放比例,Z为零点值,round(·)函数为向下取整。
由于模型需要在服务器中进行聚合,聚合后返回给所有客户机进行反量化时原模型的缩放比例不再适用,因此在上传共享层的同时会将缩放比例也进行上传用于下一步的聚合。
7)服务器收到参与本轮通信的客户机的共享层和缩放比例后,根据客户机的本地训练数据集的数量大小按照权重将共享层和缩放比例进行聚合,并将聚合后的结果返回给所有客户机。
8)重复步骤1)-7),直至达到一定通信次数或客户机的平均模型损失值小于设定值。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (5)

1.基于多任务联邦学习的通信成本和模型鲁棒性优化方法,其特征在于,该方法是在联邦学习的场景下单个客户机训练多个用户型任务,目标为最小化整体的通信成本和平均客户机的模型损失值,将联邦学习与多任务学习相结合,每个客户机的模型由一个共享层和多个任务特定层组成,客户机与服务器进行交互,其包括以下步骤:
1)服务器从客户机列表中挑选部分或所有的客户机邀请参与本轮通信和模型聚合;
2)受邀请的客户机中部分客户机回复接受并发送包含本地数据集大小的相关信息给服务器;
3)在客户机进行本地训练前,服务器会向所有的客户机都发送共享层;
4)若是首次进行通信,每个客户机将会根据收到的共享层和需要训练的用户型任务的数量和内容生成模型;若不是首次通信那么客户机会将收到的共享层进行反量化,与上一轮保留在本地的任务特定层组合成模型用于本地训练;
5)客户机使用本地的数据集使用SVRG优化算法进行模型训练;
6)本地训练结束后,参与本轮通信的客户机将训练后的共享层进行量化压缩,并将量化压缩后的共享层和量化压缩过程的缩放比例传递给服务器,所有客户机同步等待服务器返回聚合结果;
7)服务器收到参与本轮通信的客户机的共享层和缩放比例后,根据客户机的本地训练数据集的数量大小按照权重将共享层和缩放比例进行聚合,并将聚合后的结果返回给所有客户机;
8)重复步骤1)-7),直至达到预设通信次数或客户机的平均模型损失值小于设定值。
2.根据权利要求1所述的基于多任务联邦学习的通信成本和模型鲁棒性优化方法,其特征在于,联邦学习的场景下单个客户机训练多个用户型任务,并需要同时优化通信成本和模型鲁棒性;考虑在联邦学习的场景下有M个客户机进行模型训练,其中第m个客户机一共训练Tm个用户型任务,θm为第m个客户机训练的模型且
Figure FDA0003346659900000021
其中θ1′为第1个用户型任务的模型,θ2′为第2个用户型任务的模型,
Figure FDA0003346659900000022
为第Tm个用户型任务的模型;每个客户机训练优化模型鲁棒性的目标为最小化平均用户型任务的损失值l(θm)如下:
Figure FDA0003346659900000023
式中,Tm为第m个客户机训练的用户型任务的数量,nm为第m个客户机本地的样本数量,
Figure FDA0003346659900000024
为第m个客户机的第j个样本的特征,θt′是第t个用户型任务的模型,
Figure FDA0003346659900000025
为第m个客户机的第j个样本中第t个用户型任务的标签,f(·)是根据模型参数进行预测的函数,l(·)是计算模型损失值的函数,λ为正则化惩罚系数,||θm||2为模型的参数平方和;
单个客户机与服务器之间的通信成本bm由上传模型的次数和单次上传的模型大小共同决定,上传通信成本bm如下:
bm=r×|θm|×H(θm)
式中,r为通信上传模型的次数,|θm|为第m个客户机的通信过程中模型的大小,H(θm)为第m个客户机通信过程中上传模型的熵;
综合考虑多个客户机与服务器,将联邦学习场景下训练多个用户型任务的目标函数设计如下:
Figure FDA0003346659900000031
目标为同时优化平均客户机的模型损失值和整体的通信成本。
3.根据权利要求1所述的基于多任务联邦学习的通信成本和模型鲁棒性优化方法,其特征在于,将联邦学习与多任务学习相结合,每个客户机的模型由一个共享层和多个任务特定层组成;θm为第m个客户机训练的模型,传统的单个客户机训练多个用户型任务模型为
Figure FDA0003346659900000032
将转变成单个客户机训练单个模型,且模型由一个共享层和多个任务特定层组成,即
Figure FDA0003346659900000033
其中θsh是共享层,
Figure FDA0003346659900000034
是任务特定层,且任务特定层能够拆分为
Figure FDA0003346659900000035
其中θ1*为第1个用户型任务的任务特定层,θ2*为第2个用户型任务的任务特定层,
Figure FDA0003346659900000036
为第Tm个用户型任务的任务特定层。
4.根据权利要求1所述的基于多任务联邦学习的通信成本和模型鲁棒性优化方法,其特征在于,在步骤5)中,使用SVRG优化算法进行模型训练,SVRG优化算法能够加快本地训练的收敛速度,在达到相同的精度的前提下,使用SVRG优化算法能够减少通信的次数;在客户机进行本地训练的过程中,该SVRG优化算法与多任务学习结合起来;客户机的单轮本地训练由外层循环和内层循环构成,并且在循环的过程中有两个模型,分别为模型θ和模型映像
Figure FDA0003346659900000037
对于第t个用户型任务,外层循环计算模型映像
Figure FDA0003346659900000038
的共享层和第t个任务特定层的全局平均梯度,分别为
Figure FDA0003346659900000039
Figure FDA00033466599000000310
其中
Figure FDA00033466599000000311
为模型映像
Figure FDA00033466599000000312
在共享层的全局平均梯度,
Figure FDA00033466599000000313
为模型映像
Figure FDA00033466599000000314
在第t个用户型任务的任务特定层的全局平均梯度;在内层循环中,随机挑选一批样本计算该样本在模型和模型映像中的梯度,并对模型进行更新,具体的更新公式如下:
Figure FDA0003346659900000041
Figure FDA0003346659900000042
式中,
Figure FDA0003346659900000043
是第j批样本在模型θ的共享层的梯度,
Figure FDA0003346659900000044
是第j批样本在模型映像
Figure FDA0003346659900000045
的共享层的梯度,
Figure FDA0003346659900000046
是第j批样本在第t个用户型任务中模型θ的任务特定层的梯度,
Figure FDA0003346659900000047
是第j批样本在第t个用户型任务中模型映像
Figure FDA0003346659900000048
的任务特定层的梯度,η是本地模型训练参数更新的学习率,并且在进行下一轮训练时将模型映像
Figure FDA0003346659900000049
的参数更新为模型θ的参数。
5.据权利要求1所述的基于多任务联邦学习的通信成本和模型鲁棒性优化方法,其特征在于,在步骤6)中,客户机与服务器进行通信时只上传共享层,多个任务特定层会保留在本地,并且在上传前会对共享层进行量化压缩,将量化压缩后的共享层和量化压缩过程的缩放比例传递给服务器;量化压缩在损失极少的模型精度的前提下,能够压缩通信消息的大小提高通信效率;在每次客户机与服务器进行通信前,将要上传的共享层从32比特浮点型小数转换成8比特整数,上传的共享层所占空间能够减少4倍;具体的量化过程如下:
Figure FDA00033466599000000410
式中,p为浮点型小数,q为整数,S为缩放比例,Z为零点值,round(·)函数为向下取整;
由于模型需要在服务器中进行聚合,聚合后返回给所有客户机进行反量化时原模型的缩放比例不再适用,因此在聚合模型的同时会将缩放比例也进行聚合。
CN202111337548.1A 2021-11-10 2021-11-10 基于多任务联邦学习的通信成本和模型鲁棒性优化方法 Active CN114219094B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111337548.1A CN114219094B (zh) 2021-11-10 2021-11-10 基于多任务联邦学习的通信成本和模型鲁棒性优化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111337548.1A CN114219094B (zh) 2021-11-10 2021-11-10 基于多任务联邦学习的通信成本和模型鲁棒性优化方法

Publications (2)

Publication Number Publication Date
CN114219094A true CN114219094A (zh) 2022-03-22
CN114219094B CN114219094B (zh) 2024-03-19

Family

ID=80696989

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111337548.1A Active CN114219094B (zh) 2021-11-10 2021-11-10 基于多任务联邦学习的通信成本和模型鲁棒性优化方法

Country Status (1)

Country Link
CN (1) CN114219094B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117035123A (zh) * 2023-10-09 2023-11-10 之江实验室 一种并行训练中的节点通信方法、存储介质、设备
GB2624957A (en) * 2022-11-04 2024-06-05 Samsung Electronics Co Ltd Multi model functionality FL training of an AI/ML learning model for multiple model functionalities

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113222179A (zh) * 2021-03-18 2021-08-06 北京邮电大学 一种基于模型稀疏化与权重量化的联邦学习模型压缩方法
CN113268920A (zh) * 2021-05-11 2021-08-17 西安交通大学 一种基于联邦学习的无人机群感知数据安全共享方法
CN113326947A (zh) * 2021-05-28 2021-08-31 山东师范大学 一种联合学习模型训练方法及系统
CN113591145A (zh) * 2021-07-28 2021-11-02 西安电子科技大学 基于差分隐私和量化的联邦学习全局模型训练方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113222179A (zh) * 2021-03-18 2021-08-06 北京邮电大学 一种基于模型稀疏化与权重量化的联邦学习模型压缩方法
CN113268920A (zh) * 2021-05-11 2021-08-17 西安交通大学 一种基于联邦学习的无人机群感知数据安全共享方法
CN113326947A (zh) * 2021-05-28 2021-08-31 山东师范大学 一种联合学习模型训练方法及系统
CN113591145A (zh) * 2021-07-28 2021-11-02 西安电子科技大学 基于差分隐私和量化的联邦学习全局模型训练方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2624957A (en) * 2022-11-04 2024-06-05 Samsung Electronics Co Ltd Multi model functionality FL training of an AI/ML learning model for multiple model functionalities
CN117035123A (zh) * 2023-10-09 2023-11-10 之江实验室 一种并行训练中的节点通信方法、存储介质、设备
CN117035123B (zh) * 2023-10-09 2024-01-09 之江实验室 一种并行训练中的节点通信方法、存储介质、设备

Also Published As

Publication number Publication date
CN114219094B (zh) 2024-03-19

Similar Documents

Publication Publication Date Title
CN112492626B (zh) 一种移动用户计算任务的卸载方法
CN109947545B (zh) 一种基于用户移动性的任务卸载及迁移的决策方法
Dai et al. A view synthesis-based 360° VR caching system over MEC-enabled C-RAN
CN105263050B (zh) 基于云平台的移动终端实时渲染系统及其方法
CN114219094A (zh) 基于多任务联邦学习的通信成本和模型鲁棒性优化方法
CN111918339B (zh) 移动边缘网络中基于强化学习的ar任务卸载和资源分配方法
CN111382844B (zh) 一种深度学习模型的训练方法及装置
CN114595632A (zh) 一种基于联邦学习的移动边缘缓存优化方法
CN109388492A (zh) 一种在多个边缘计算服务器场景下基于模拟退火的移动区块链优化算力分配方法
CN114745383A (zh) 一种移动边缘计算辅助多层联邦学习方法
CN114584581A (zh) 面向智慧城市物联网信物融合的联邦学习系统及联邦学习训练方法
CN113873534B (zh) 一种雾计算中区块链协助的联邦学习主动内容缓存方法
CN115796271A (zh) 基于客户端选择和梯度压缩的联邦学习方法
Chen et al. Wireless multiplayer interactive virtual reality game systems with edge computing: Modeling and optimization
CN107040771A (zh) 一种针对全景视频的编码优化方法
CN112540845A (zh) 一种基于移动边缘计算的协作系统及方法
CN115761378B (zh) 基于联邦学习的电力巡检图像分类和检测方法及系统
Sun et al. Edge learning with timeliness constraints: Challenges and solutions
CN114866545B (zh) 一种基于空中计算的半异步分层联邦学习方法及系统
CN113132497A (zh) 一种移动边缘运算的负载平衡和调度方法
CN115633143A (zh) 一种边端协同超分的自适应视频流传输系统
Liu et al. Rendered tile reuse scheme based on FoV prediction for MEC-assisted wireless VR service
CN110418143A (zh) 一种车联网中svc视频的传输方法
Guo et al. Federated learning for multi-view synthesizing in wireless virtual reality networks
CN109874154B (zh) 一种基于深度强化学习的c-ran用户关联和计算资源分配方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant