CN114219094A - 基于多任务联邦学习的通信成本和模型鲁棒性优化方法 - Google Patents
基于多任务联邦学习的通信成本和模型鲁棒性优化方法 Download PDFInfo
- Publication number
- CN114219094A CN114219094A CN202111337548.1A CN202111337548A CN114219094A CN 114219094 A CN114219094 A CN 114219094A CN 202111337548 A CN202111337548 A CN 202111337548A CN 114219094 A CN114219094 A CN 114219094A
- Authority
- CN
- China
- Prior art keywords
- model
- client
- task
- layer
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000006854 communication Effects 0.000 title claims abstract description 71
- 238000004891 communication Methods 0.000 title claims abstract description 66
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000005457 optimization Methods 0.000 title claims abstract description 29
- 238000004220 aggregation Methods 0.000 claims abstract description 11
- 230000002776 aggregation Effects 0.000 claims abstract description 10
- 238000012549 training Methods 0.000 claims description 49
- 238000013139 quantization Methods 0.000 claims description 26
- 238000007906 compression Methods 0.000 claims description 17
- 230000006870 function Effects 0.000 claims description 12
- 238000013507 mapping Methods 0.000 claims description 12
- 230000006835 compression Effects 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 11
- 238000007667 floating Methods 0.000 claims description 7
- 150000001875 compounds Chemical class 0.000 claims description 3
- 101150064138 MAP1 gene Proteins 0.000 claims 1
- 101150077939 mapA gene Proteins 0.000 claims 1
- 238000013459 approach Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/48—Program initiating; Program switching, e.g. by interrupt
- G06F9/4806—Task transfer initiation or dispatching
- G06F9/4843—Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Information Transfer Between Computers (AREA)
Abstract
本发明公开了一种基于多任务联邦学习的通信成本和模型鲁棒性优化方法,在联邦学习的场景下,单个客户机需要训练多个用户型任务,其中客户机的模型由单个共享层和多个任务特定层组成;包括:1)服务器挑选并邀请客户机参与通信;2)客户机回应并发送信息给服务;3)服务器分发共享层给所有客户机;4)客户机组合模型;5)客户机使用优化算法本地训练模型;6)客户机量化压缩共享层并发送给服务器;7)服务器对共享层进行聚合;8)重复步骤1)‑7)直到满足要求。本发明方法能够在单个客户机训练多个用户型任务的联邦学习场景下,同时最小化总体的通信成本和提高模型的鲁棒性。
Description
技术领域
本发明涉及联邦学习的技术领域,尤其是指一种基于多任务联邦学习的通信成本和模型鲁棒性优化方法。
背景技术
联邦学习(Federated Learning,FL)是一种新兴的防止私人信息泄露的技术。它允许将训练数据分布保留在客户机的设备上,通过与服务器交互使得服务器能够获得一个良好的模型。每个客户机从服务器下载当前模型,并通过本地数据集训练模型,然后将模型上传回服务器的方式更新模型,而不是直接向服务器发送数据。通过避免共享本地私有数据,可以有效地保护用户的隐私。但与传统的集中式学习相比,联邦学习FL需要进行多次更新模型,所以需要大量的通信资源。因此,如何减少通信开销来提高通信效率也是当前联邦学习的研究热点。
目前大多数联邦学习的研究都并未考虑单个客户机需要训练多个相关的用户型任务的场景,而该类场景在实际中有广泛应用,例如向某个用户基于他听过的音乐训练推荐电影和书籍的模型,其中推荐电影可以看作是一个用户型任务,而推荐书籍可以看作是另一个用户型任务,并且都是基于听过的音乐进行推荐,所以这两个用户型任务存在相关性。随着移动设备在实际生活中的使用范围广大,在联邦学习的场景下训练多个相关的用户型任务是具有前景的。传统的方法解决FL下的通信效率,如压缩通信模型和减少通信次数并不能有效解决单个客户机训练多个任务的场景,因为传统的方法仍然需要针对每个任务训练单独的模型,而每个模型都需要在联邦学习中执行多次通信,耗费大量资源。并且随着任务数量的增加,通信的成本也会随之增加。
因此,考虑到在联邦学习场景中,考虑到客户机之间的数据集是非独立同分布并且数据集存在不平衡,传统优化通信效率和提高模型鲁棒性的方法在单个客户机需要训练多个相关的用户型任务的场景中不适用了,所以需要设计出新的联邦学习方法来解决这种情况。
发明内容
本发明的目的在于克服现有技术的不足,提出了一种基于多任务联邦学习的通信成本和模型鲁棒性优化方法,可同时最小化总体的通信成本和提高模型的鲁棒性。
为实现上述目的,本发明所提供的技术方案为:基于多任务联邦学习的通信成本和模型鲁棒性优化方法,该方法是在联邦学习的场景下单个客户机训练多个用户型任务,目标为最小化整体的通信成本和平均客户机的模型损失值,将联邦学习与多任务学习相结合,每个客户机的模型由一个共享层和多个任务特定层组成,客户机与服务器进行交互,其包括以下步骤:
1)服务器从客户机列表中挑选部分或所有的客户机邀请参与本轮通信和模型聚合;
2)受邀请的客户机中部分客户机回复接受并发送包含本地数据集大小的相关信息给服务器;
3)在客户机进行本地训练前,服务器会向所有的客户机都发送共享层;
4)若是首次进行通信,每个客户机将会根据收到的共享层和需要训练的用户型任务的数量和内容生成模型;若不是首次通信那么客户机会将收到的共享层进行反量化,与上一轮保留在本地的任务特定层组合成模型用于本地训练;
5)客户机使用本地的数据集使用SVRG优化算法进行模型训练;
6)本地训练结束后,参与本轮通信的客户机将训练后的共享层进行量化压缩,并将量化压缩后的共享层和量化压缩过程的缩放比例传递给服务器,所有客户机同步等待服务器返回聚合结果;
7)服务器收到参与本轮通信的客户机的共享层和缩放比例后,根据客户机的本地训练数据集的数量大小按照权重将共享层和缩放比例进行聚合,并将聚合后的结果返回给所有客户机;
8)重复步骤1)-7),直至达到预设通信次数或客户机的平均模型损失值小于设定值。
优选的,联邦学习的场景下单个客户机训练多个用户型任务,并需要同时优化通信成本和模型鲁棒性;考虑在联邦学习的场景下有M个客户机进行模型训练,其中第m个客户机一共训练Tm个用户型任务,θm为第m个客户机训练的模型且其中θ1′为第1个用户型任务的模型,θ2′为第2个用户型任务的模型,为第Tm个用户型任务的模型;每个客户机训练优化模型鲁棒性的目标为最小化平均用户型任务的损失值l(θm)如下:
式中,Tm为第m个客户机训练的用户型任务的数量,nm为第m个客户机本地的样本数量,为第m个客户机的第j个样本的特征,θt′是第t个用户型任务的模型,为第m个客户机的第j个样本中第t个用户型任务的标签,f(·)是根据模型参数进行预测的函数,l(·)是计算模型损失值的函数,λ为正则化惩罚系数,||θm||2为模型的参数平方和;
单个客户机与服务器之间的通信成本bm由上传模型的次数和单次上传的模型大小共同决定,上传通信成本bm如下:
bm=r×|θm|×H(θm)
式中,r为通信上传模型的次数,|θm|为第m个客户机的通信过程中模型的大小,H(θm)为第m个客户机通信过程中上传模型的熵;
综合考虑多个客户机与服务器,将联邦学习场景下训练多个用户型任务的目标函数设计如下:
目标为同时优化平均客户机的模型损失值和整体的通信成本。
优选的,将联邦学习与多任务学习相结合,每个客户机的模型由一个共享层和多个任务特定层组成;θm为第m个客户机训练的模型,传统的单个客户机训练多个用户型任务模型为将转变成单个客户机训练单个模型,且模型由一个共享层和多个任务特定层组成,即其中θsh是共享层,是任务特定层,且任务特定层能够拆分为其中θ1*为第1个用户型任务的任务特定层,θ2*为第2个用户型任务的任务特定层,为第Tm个用户型任务的任务特定层。
优选的,在步骤5)中,使用SVRG优化算法进行模型训练,SVRG优化算法能够加快本地训练的收敛速度,在达到相同的精度的前提下,使用SVRG优化算法能够减少通信的次数;在客户机进行本地训练的过程中,该SVRG优化算法与多任务学习结合起来;客户机的单轮本地训练由外层循环和内层循环构成,并且在循环的过程中有两个模型,分别为模型θ和模型映像对于第t个用户型任务,外层循环计算模型映像的共享层和第t个任务特定层的全局平均梯度,分别为和其中为模型映像在共享层的全局平均梯度,为模型映像在第t个用户型任务的任务特定层的全局平均梯度;在内层循环中,随机挑选一批样本计算该样本在模型和模型映像中的梯度,并对模型进行更新,具体的更新公式如下:
式中,是第j批样本在模型θ的共享层的梯度,是第j批样本在模型映像的共享层的梯度,是第j批样本在第t个用户型任务中模型θ的任务特定层的梯度,是第j批样本在第t个用户型任务中模型映像的任务特定层的梯度,η是本地模型训练参数更新的学习率,并且在进行下一轮训练时将模型映像的参数更新为模型θ的参数。
优选的,在步骤6)中,客户机与服务器进行通信时只上传共享层,多个任务特定层会保留在本地,并且在上传前会对共享层进行量化压缩,将量化压缩后的共享层和量化压缩过程的缩放比例传递给服务器;量化压缩在损失极少的模型精度的前提下,能够压缩通信消息的大小提高通信效率;在每次客户机与服务器进行通信前,将要上传的共享层从32比特浮点型小数转换成8比特整数,上传的共享层所占空间能够减少4倍;具体的量化过程如下:
式中,p为浮点型小数,q为整数,S为缩放比例,Z为零点值,round(·)函数为向下取整;
由于模型需要在服务器中进行聚合,聚合后返回给所有客户机进行反量化时原模型的缩放比例不再适用,因此在聚合模型的同时会将缩放比例也进行聚合。
本发明与现有技术相比,具有如下优点与有益效果:
本发明方法能够在联邦学习中考虑单个客户机训练多个用户型任务的场景,能够将联邦学习与多任务学习相结合,将传统的单个客户机训练多个用户型任务模型,变更为单个客户机训练单个模型,模型由共享层和任务特定层组成,该方法有效降低通信成本和提高模型的鲁棒性。
本发明方法能够通过使用SVRG优化算法进行模型训练,加快模型的收敛速度,从而降低通信成本。
本发明方法能够在客户机与服务器通信过程中,在客户机上传前对共享层进行量化压缩,减少上传的共享层大小,有效降低通信成本。
附图说明
图1为本发明方法的逻辑流程示意图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
如图1所示,本实施例所提供的基于多任务联邦学习的通信成本和模型鲁棒性优化方法,使用了多任务学习、SVRG优化算法和量化压缩,该方法是在联邦学习的场景下单个客户机训练多个用户型任务,目标为最小化整体的通信成本和平均客户机的模型损失值,将联邦学习与多任务学习相结合,每个客户机的模型由一个共享层和多个任务特定层组成,客户机与服务器进行交互;其包括以下步骤:
1)服务器从客户机列表中挑选部分或所有的客户机邀请参与本轮通信和模型聚合。
2)受邀请的客户机中部分客户机回复接受并发送包含本地数据集大小的相关信息给服务器。
3)在客户机进行本地训练前,服务器会向所有的客户机都发送共享层。将联邦学习与多任务学习相结合,每个客户机的模型由一个共享层和多个任务特定层组成,即其中θsh是共享层,是任务特定层,且任务特定层可以拆分为其中θ1*为第1个用户型任务的任务特定层,θ2*为第2个用户型任务的任务特定层,为第Tm个用户型任务的任务特定层。考虑到每个客户机的用户型任务的数量的具体任务内容都可能不同,因此服务器在聚合的过程中只会对共享层θsh进行聚合,并且初始化时分发共享层至所有客户机
4)若是首次进行通信,每个客户机将会根据收到的共享层和需要训练的用户型任务的数量和内容生成模型。若不是首次通信那么客户机会将收到的共享层进行反量化,与上一轮保留在本地的任务特定层组合成模型用于本地训练。反量化指的是从8比特整数转换成32比特浮点型小数,具体过程如下:
式中,p为浮点型小数,q为整数,S为缩放比例,Z为零点值,round(·)函数为向下取整。
5)客户机使用本地的数据集使用SVRG优化算法进行模型训练。其中每个客户机训练优化模型鲁棒性的目标为最小化平均用户型任务的损失值l(θm)如下:
式中,Tm为第m个客户机训练的用户型任务的数量,nm为第m个客户机的样本数量,为第m个客户机的第j个样本的特征,θt′是第t个用户型任务的模型,为第m个客户机的第j个样本中第t个用户型任务的标签,f(·)是根据模型进行预测的函数,l(·)是计算模型损失值的函数,λ为正则化惩罚系数,||θm||2为模型的参数平方和。
进行本地训练的过程中,使用SVRG优化算法进行模型训练。SVRG优化算法能够加快本地训练的收敛速度,在达到相同的精度的前提下,使用SVRG优化算法能够减少通信的次数。在客户机进行本地训练的过程中,该优化算法与多任务学习结合起来。客户机的单轮本地训练由外层循环和内层循环构成,并且在循环的过程中有两个模型,分别为模型θ和模型映像对于第t个用户型任务,外层循环计算模型映像的共享层和第t个任务特定层的全局平均梯度,分别为和其中为模型映像在共享层的全局平均梯度,为模型映像在第t个用户型任务的任务特定层的全局平均梯度。在内层循环中,随机挑选一批样本j计算该样本在模型和模型映像中的梯度,并对模型进行更新,具体的更新公式如下:
式中,是第j批样本在模型θ的共享层的梯度,是第j批样本在模型映像的共享层的梯度,是第j批样本在第t个用户型任务中模型θ的任务特定层的梯度,是第j批样本在第t个用户型任务中模型映像的任务特定层的梯度,η是本地模型训练参数更新的学习率。并且在进行下一轮训练时将模型映像的参数更新为模型θ的参数。
6)本地训练结束后,参与本轮通信的客户机将训练后的共享层进行量化压缩,并将量化压缩后的共享层和量化压缩过程的缩放比例传递给服务器。所有客户机同步等待服务器返回聚合结果。客户机与服务器进行通信时只上传共享层,多个任务特定层会保留在本地,并且在上传前会对共享层进行量化压缩,将量化压缩后的共享层和量化压缩过程的缩放比例传递给服务器。量化压缩在损失极少的模型精度的前提下,能够压缩通信消息的大小提高通信效率。在每次客户机与服务器进行通信前,将要上传的共享层从32比特浮点型小数转换成8比特整数,上传的共享层所占空间能够减少4倍。具体的量化过程如下:
式中,p为浮点型小数,q为整数,S为缩放比例,Z为零点值,round(·)函数为向下取整。
由于模型需要在服务器中进行聚合,聚合后返回给所有客户机进行反量化时原模型的缩放比例不再适用,因此在上传共享层的同时会将缩放比例也进行上传用于下一步的聚合。
7)服务器收到参与本轮通信的客户机的共享层和缩放比例后,根据客户机的本地训练数据集的数量大小按照权重将共享层和缩放比例进行聚合,并将聚合后的结果返回给所有客户机。
8)重复步骤1)-7),直至达到一定通信次数或客户机的平均模型损失值小于设定值。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (5)
1.基于多任务联邦学习的通信成本和模型鲁棒性优化方法,其特征在于,该方法是在联邦学习的场景下单个客户机训练多个用户型任务,目标为最小化整体的通信成本和平均客户机的模型损失值,将联邦学习与多任务学习相结合,每个客户机的模型由一个共享层和多个任务特定层组成,客户机与服务器进行交互,其包括以下步骤:
1)服务器从客户机列表中挑选部分或所有的客户机邀请参与本轮通信和模型聚合;
2)受邀请的客户机中部分客户机回复接受并发送包含本地数据集大小的相关信息给服务器;
3)在客户机进行本地训练前,服务器会向所有的客户机都发送共享层;
4)若是首次进行通信,每个客户机将会根据收到的共享层和需要训练的用户型任务的数量和内容生成模型;若不是首次通信那么客户机会将收到的共享层进行反量化,与上一轮保留在本地的任务特定层组合成模型用于本地训练;
5)客户机使用本地的数据集使用SVRG优化算法进行模型训练;
6)本地训练结束后,参与本轮通信的客户机将训练后的共享层进行量化压缩,并将量化压缩后的共享层和量化压缩过程的缩放比例传递给服务器,所有客户机同步等待服务器返回聚合结果;
7)服务器收到参与本轮通信的客户机的共享层和缩放比例后,根据客户机的本地训练数据集的数量大小按照权重将共享层和缩放比例进行聚合,并将聚合后的结果返回给所有客户机;
8)重复步骤1)-7),直至达到预设通信次数或客户机的平均模型损失值小于设定值。
2.根据权利要求1所述的基于多任务联邦学习的通信成本和模型鲁棒性优化方法,其特征在于,联邦学习的场景下单个客户机训练多个用户型任务,并需要同时优化通信成本和模型鲁棒性;考虑在联邦学习的场景下有M个客户机进行模型训练,其中第m个客户机一共训练Tm个用户型任务,θm为第m个客户机训练的模型且其中θ1′为第1个用户型任务的模型,θ2′为第2个用户型任务的模型,为第Tm个用户型任务的模型;每个客户机训练优化模型鲁棒性的目标为最小化平均用户型任务的损失值l(θm)如下:
式中,Tm为第m个客户机训练的用户型任务的数量,nm为第m个客户机本地的样本数量,为第m个客户机的第j个样本的特征,θt′是第t个用户型任务的模型,为第m个客户机的第j个样本中第t个用户型任务的标签,f(·)是根据模型参数进行预测的函数,l(·)是计算模型损失值的函数,λ为正则化惩罚系数,||θm||2为模型的参数平方和;
单个客户机与服务器之间的通信成本bm由上传模型的次数和单次上传的模型大小共同决定,上传通信成本bm如下:
bm=r×|θm|×H(θm)
式中,r为通信上传模型的次数,|θm|为第m个客户机的通信过程中模型的大小,H(θm)为第m个客户机通信过程中上传模型的熵;
综合考虑多个客户机与服务器,将联邦学习场景下训练多个用户型任务的目标函数设计如下:
目标为同时优化平均客户机的模型损失值和整体的通信成本。
4.根据权利要求1所述的基于多任务联邦学习的通信成本和模型鲁棒性优化方法,其特征在于,在步骤5)中,使用SVRG优化算法进行模型训练,SVRG优化算法能够加快本地训练的收敛速度,在达到相同的精度的前提下,使用SVRG优化算法能够减少通信的次数;在客户机进行本地训练的过程中,该SVRG优化算法与多任务学习结合起来;客户机的单轮本地训练由外层循环和内层循环构成,并且在循环的过程中有两个模型,分别为模型θ和模型映像对于第t个用户型任务,外层循环计算模型映像的共享层和第t个任务特定层的全局平均梯度,分别为和其中为模型映像在共享层的全局平均梯度,为模型映像在第t个用户型任务的任务特定层的全局平均梯度;在内层循环中,随机挑选一批样本计算该样本在模型和模型映像中的梯度,并对模型进行更新,具体的更新公式如下:
5.据权利要求1所述的基于多任务联邦学习的通信成本和模型鲁棒性优化方法,其特征在于,在步骤6)中,客户机与服务器进行通信时只上传共享层,多个任务特定层会保留在本地,并且在上传前会对共享层进行量化压缩,将量化压缩后的共享层和量化压缩过程的缩放比例传递给服务器;量化压缩在损失极少的模型精度的前提下,能够压缩通信消息的大小提高通信效率;在每次客户机与服务器进行通信前,将要上传的共享层从32比特浮点型小数转换成8比特整数,上传的共享层所占空间能够减少4倍;具体的量化过程如下:
式中,p为浮点型小数,q为整数,S为缩放比例,Z为零点值,round(·)函数为向下取整;
由于模型需要在服务器中进行聚合,聚合后返回给所有客户机进行反量化时原模型的缩放比例不再适用,因此在聚合模型的同时会将缩放比例也进行聚合。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111337548.1A CN114219094B (zh) | 2021-11-10 | 2021-11-10 | 基于多任务联邦学习的通信成本和模型鲁棒性优化方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111337548.1A CN114219094B (zh) | 2021-11-10 | 2021-11-10 | 基于多任务联邦学习的通信成本和模型鲁棒性优化方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114219094A true CN114219094A (zh) | 2022-03-22 |
CN114219094B CN114219094B (zh) | 2024-03-19 |
Family
ID=80696989
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111337548.1A Active CN114219094B (zh) | 2021-11-10 | 2021-11-10 | 基于多任务联邦学习的通信成本和模型鲁棒性优化方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114219094B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117035123A (zh) * | 2023-10-09 | 2023-11-10 | 之江实验室 | 一种并行训练中的节点通信方法、存储介质、设备 |
GB2624957A (en) * | 2022-11-04 | 2024-06-05 | Samsung Electronics Co Ltd | Multi model functionality FL training of an AI/ML learning model for multiple model functionalities |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113222179A (zh) * | 2021-03-18 | 2021-08-06 | 北京邮电大学 | 一种基于模型稀疏化与权重量化的联邦学习模型压缩方法 |
CN113268920A (zh) * | 2021-05-11 | 2021-08-17 | 西安交通大学 | 一种基于联邦学习的无人机群感知数据安全共享方法 |
CN113326947A (zh) * | 2021-05-28 | 2021-08-31 | 山东师范大学 | 一种联合学习模型训练方法及系统 |
CN113591145A (zh) * | 2021-07-28 | 2021-11-02 | 西安电子科技大学 | 基于差分隐私和量化的联邦学习全局模型训练方法 |
-
2021
- 2021-11-10 CN CN202111337548.1A patent/CN114219094B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113222179A (zh) * | 2021-03-18 | 2021-08-06 | 北京邮电大学 | 一种基于模型稀疏化与权重量化的联邦学习模型压缩方法 |
CN113268920A (zh) * | 2021-05-11 | 2021-08-17 | 西安交通大学 | 一种基于联邦学习的无人机群感知数据安全共享方法 |
CN113326947A (zh) * | 2021-05-28 | 2021-08-31 | 山东师范大学 | 一种联合学习模型训练方法及系统 |
CN113591145A (zh) * | 2021-07-28 | 2021-11-02 | 西安电子科技大学 | 基于差分隐私和量化的联邦学习全局模型训练方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2624957A (en) * | 2022-11-04 | 2024-06-05 | Samsung Electronics Co Ltd | Multi model functionality FL training of an AI/ML learning model for multiple model functionalities |
CN117035123A (zh) * | 2023-10-09 | 2023-11-10 | 之江实验室 | 一种并行训练中的节点通信方法、存储介质、设备 |
CN117035123B (zh) * | 2023-10-09 | 2024-01-09 | 之江实验室 | 一种并行训练中的节点通信方法、存储介质、设备 |
Also Published As
Publication number | Publication date |
---|---|
CN114219094B (zh) | 2024-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112492626B (zh) | 一种移动用户计算任务的卸载方法 | |
CN109947545B (zh) | 一种基于用户移动性的任务卸载及迁移的决策方法 | |
Dai et al. | A view synthesis-based 360° VR caching system over MEC-enabled C-RAN | |
CN105263050B (zh) | 基于云平台的移动终端实时渲染系统及其方法 | |
CN114219094A (zh) | 基于多任务联邦学习的通信成本和模型鲁棒性优化方法 | |
CN111918339B (zh) | 移动边缘网络中基于强化学习的ar任务卸载和资源分配方法 | |
CN111382844B (zh) | 一种深度学习模型的训练方法及装置 | |
CN114595632A (zh) | 一种基于联邦学习的移动边缘缓存优化方法 | |
CN109388492A (zh) | 一种在多个边缘计算服务器场景下基于模拟退火的移动区块链优化算力分配方法 | |
CN114745383A (zh) | 一种移动边缘计算辅助多层联邦学习方法 | |
CN114584581A (zh) | 面向智慧城市物联网信物融合的联邦学习系统及联邦学习训练方法 | |
CN113873534B (zh) | 一种雾计算中区块链协助的联邦学习主动内容缓存方法 | |
CN115796271A (zh) | 基于客户端选择和梯度压缩的联邦学习方法 | |
Chen et al. | Wireless multiplayer interactive virtual reality game systems with edge computing: Modeling and optimization | |
CN107040771A (zh) | 一种针对全景视频的编码优化方法 | |
CN112540845A (zh) | 一种基于移动边缘计算的协作系统及方法 | |
CN115761378B (zh) | 基于联邦学习的电力巡检图像分类和检测方法及系统 | |
Sun et al. | Edge learning with timeliness constraints: Challenges and solutions | |
CN114866545B (zh) | 一种基于空中计算的半异步分层联邦学习方法及系统 | |
CN113132497A (zh) | 一种移动边缘运算的负载平衡和调度方法 | |
CN115633143A (zh) | 一种边端协同超分的自适应视频流传输系统 | |
Liu et al. | Rendered tile reuse scheme based on FoV prediction for MEC-assisted wireless VR service | |
CN110418143A (zh) | 一种车联网中svc视频的传输方法 | |
Guo et al. | Federated learning for multi-view synthesizing in wireless virtual reality networks | |
CN109874154B (zh) | 一种基于深度强化学习的c-ran用户关联和计算资源分配方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |