CN114065863B - 联邦学习的方法、装置、系统、电子设备及存储介质 - Google Patents
联邦学习的方法、装置、系统、电子设备及存储介质 Download PDFInfo
- Publication number
- CN114065863B CN114065863B CN202111372708.6A CN202111372708A CN114065863B CN 114065863 B CN114065863 B CN 114065863B CN 202111372708 A CN202111372708 A CN 202111372708A CN 114065863 B CN114065863 B CN 114065863B
- Authority
- CN
- China
- Prior art keywords
- model
- training
- current
- global
- devices
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 56
- 238000012549 training Methods 0.000 claims abstract description 129
- 230000002776 aggregation Effects 0.000 claims abstract description 54
- 238000004220 aggregation Methods 0.000 claims abstract description 54
- 230000006870 function Effects 0.000 claims description 26
- 238000013473 artificial intelligence Methods 0.000 abstract description 3
- 238000013135 deep learning Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 12
- 238000004590 computer program Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 9
- 238000012545 processing Methods 0.000 description 8
- 230000007423 decrease Effects 0.000 description 6
- 230000006978 adaptation Effects 0.000 description 5
- 238000000605 extraction Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000033228 biological regulation Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000012512 characterization method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/54—Interprogram communication
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/098—Distributed learning, e.g. federated learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本公开提供了一种联邦学习方法、装置、系统、电子设备及存储介质,涉及人工智能技术领域,尤其涉及计算机视觉和深度学习技术领域。具体实现方案为:对全局模型执行多轮训练,直到满足训练结束条件,得到经训练的全局模型;以及向多个设备发布经训练的全局模型。所述多轮训练中的每轮训练包括:向所述多个设备中的至少一部分设备发送当前全局模型;接收来自所述至少一部分设备的针对所述当前全局模型的经训练参数;对接收到的参数执行聚合,以获得当前聚合模型;以及基于全局共享数据集对所述当前聚合模型进行调整,并将调整后的聚合模型更新作为新的当前全局模型,以用于下轮训练。
Description
技术领域
本公开涉及人工智能技术领域,尤其涉及分布式数据处理和深度学习技术领域,具体涉及一种联邦学习方法、装置、系统、电子设备、存储介质及计算机程序产品。
背景技术
联邦学习(Federated learning)是一种分布式机器学习技术。联邦学习无需收集用户的数据,而是让这些数据留存在本地,由用户设备自己原地训练机器学习模型,并将训练好的模型上传给服务器。通过这种方式,数据不离开本地,保障了用户的数据隐私安全。此外,由于只需要传输模型的参数,可以减少通信的压力。
发明内容
本公开提供了一种联邦学习方法、装置、系统、电子设备、存储介质及计算机程序产品。
根据本公开的一方面,提供了一种用于训练全局模型的联邦学习方法,包括:执行多轮训练,直到满足训练结束条件,得到经训练的全局模型;以及向多个设备发布经训练的全局模型,
其中,多轮训练中的每轮训练包括:向多个设备中的至少一部分设备发送当前全局模型;接收来自至少一部分设备的针对当前全局模型的经训练参数;对接收到的参数执行聚合,以获得当前聚合模型;以及基于全局共享数据集对当前聚合模型进行调整,并将调整后的聚合模型更新作为新的当前全局模型,以用于下轮训练。
根据本公开的另一方面,提供了一种用于训练全局模型的联邦学习装置,包括:训练模块,被配置为:执行多轮训练,直到满足训练结束条件,得到经训练的全局模型;以及全局模型发布模块,被配置为向多个设备发布经训练的全局模型,
其中,训练模块进一步包括:发送子模块,被配置为向多个设备中的至少一部分设备发送当前全局模型;接收子模块,被配置为接收来自至少一部分设备的针对当前全局模型的经训练参数;聚合子模块,被配置为对接收到的参数执行聚合,以获得当前聚合模型;以及调整子模块,被配置为:基于全局共享数据集对当前聚合模型进行调整,并将调整后的聚合模型更新作为新的当前全局模型,以用于下轮训练。
根据本公开的另一方面,提供了一种用于训练全局模型的联邦学习系统,包括:服务器;以及多个设备,与服务器通信连接;其中,服务器被配置为:执行多轮训练,直到满足训练结束条件,得到经训练的全局模型;以及向多个设备发布经训练的全局模型,
其中,多轮训练中的每轮训练包括:向多个设备中的至少一部分设备发送当前全局模型;接收来自至少一部分设备的针对当前全局模型的经训练参数;对接收到的参数执行聚合,以获得当前聚合模型;以及基于全局共享数据集对当前聚合模型进行调整,并将调整后的聚合模型更新作为新的当前全局模型,以用于下轮训练。
根据本公开的另一方面,提供了一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,该指令被至少一个处理器执行,以使至少一个处理器能够执行根据本公开的任一示例实施例所述的方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,该计算机指令用于使计算机执行根据本公开的任一示例实施例所述的方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,该计算机程序在被处理器执行时实现根据本公开的任一示例实施例所述的方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开示例实施例的联邦学习方法和装置的系统架构示意图;
图2是根据本公开示例实施例的联邦学习方法的流程图;
图3A是根据本公开示例实施例的联邦学习方法中的用于基于全局共享数据集对当前聚合模型进行调整的子操作的示意图;
图3B是根据本公开示例实施例的在使用全局共享数据集对参数执行调整的每次训练迭代期间的操作的流程图;
图4是根据本公开示例实施例的联邦学习装置的一个示例的结构框图;
图5是根据本公开示例实施例的联邦学习装置的另一示例的结构框图;
图6是根据本公开示例实施例的联邦学习系统的信号流的图;以及
图7是用来实现本公开实施例的电子设备的示例的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
本公开的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供和公开等处理,均符合相关法律法规的规定,且不违背公序良俗。
以下将结合图1对本公开提供的联邦学习方法和装置的系统架构进行描述。
图1是根据本公开实施例的联邦学习方法和装置的系统架构示意图。
如图1所示,根据该实施例的系统架构100可以包括多个设备101a、101b和101c、网络102和服务器103。网络102是用以在多个设备和服务器103之间提供通信链路的介质。网络102可以包括各种连接类型,例如有线和/或无线通信链路等等。
用户可以使用多个设备101a、101b和101c中的至少一个,并经由网络102与服务器103进行交互,从而接收或发送消息等。多个设备101a、101b和101c可以是各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机等等,并且能够长期存储或临时存储用户在使用该设备时产生的数据。
在本公开中,服务器103也可以被互换地称为中心设备,且多个设备101a至101c也可以被互换地称为边缘设备。
出于数据安全考虑,当前的联邦学习方法中,服务器仅执行与学习任务相关的调度,而不参与训练。这种联邦学习方法尽管具有较高的数据安全性,但是学习效率较差。这是因为边缘设备之间可能存在地域差异、使用时间差异和用户差异等,使得各边缘设备使用各自数据训练而成的模型难以在整个系统上快速收敛,从而导致学习效率较差。
为此,本公开提出了一种利用全局共享数据集来训练全局模型的联邦学习方法,使得能够在保证数据安全的情况下加速全局模型的收敛。
应理解,本公开实施例所提供的联邦学习方法一般可以由服务器103执行。相应地,本公开实施例所提供的联邦学习装置一般可以设置于服务器103中。本公开实施例所提供的联邦学习方法也可以由不同于服务器103且能够与多个设备101a、101b和101c和/或服务器103通信的服务器或服务器集群执行。相应地,本公开实施例所提供的联邦学习装置也可以设置于不同于服务器103且能够与多个设备101a、101b和101c和/或服务器103通信的服务器或服务器集群中。
此外,图1中的多个设备101a、101b和101c和服务器103的数目和类型仅仅是示意性的。根据实现需要,可以具有任意数据和类型的终端、道路、车辆和通信基站。
以下将结合图2、图3A和图3B来详细描述本公开提供的联邦学习方法。
应注意,以下方法中各个操作的序号仅作为该操作的表示以便描述,而不应被看作表示该各个操作的执行顺序。除非明确指出,否则该方法不需要完全按照所示顺序来执行。
图2是根据本公开示例实施例的联邦学习方法的流程图。
如图2所示,联邦学习方法200包括操作S210和操作S220。
在操作S210,对待训练的全局模型执行多轮训练,直到满足训练结束条件,得到经训练的全局模型。
根据本公开的实施例,全局模型的类型不做限定,例如,其可以是以图像作为输入数据的图像检索模型、以图像作为输入数据的对象识别模型、以音频作为输入数据的语音识别模型、或者以文本作为输入数据的文本识别模型等。训练结束条件可以是模型收敛和达到指定训练次数中的至少一个。
在操作S220,向多个设备发布经训练的全局模型。
例如,当通过多轮训练获得经训练的全局模型时,向如图1所示的多个设备101a、101b和101c发布经训练的全局模型,以供多个设备101a、101b和101c用于执行例如语音识别、图像识别、文本分析等。
对于多轮训练中的每轮训练,该联合学习方法还可以包括子操作S211至子操作S214。
在子操作S211,向多个设备中的至少一部分设备发送当前全局模型。例如,可以从多个设备中选择至少一部分设备作为本轮训练的参与方(以下称为边缘设备),并向所选择的边缘设备发送当前全局模型。每个边缘设备能够依据本地数据对当前全局模型进行多次训练迭代,从而得到经训练参数。作为一个示例,在接收到当前全局模型后,边缘设备从本地数据选出执行训练所需的训练数据,将该训练数据输入接收到的当前全局模型,以进行训练。边缘设备可以根据经训练的当前全局模型是否收敛或根据训练次数是否已达到指定迭代次数,来确定是否结束训练。当训练结束时,边缘设备向服务器返回针对当前全局模型的经训练参数。
在子操作S212,接收来自至少一部分设备的针对当前全局模型的经训练参数。例如,从作为训练参与方的设备接收针对当前全局模型的经训练参数。
在子操作S213,对接收到的参数执行聚合,以获得当前聚合模型。
在接收到来自各设备的针对当前全局模型的经训练参数后,可以对接收到的参数执行聚合。例如,可以通过对接收到的参数执行平均或加权平均,来实现聚合并获得聚合参数。通过用聚合参数更新当前全局模型的参数,来获得当前聚合模型。
在子操作S214,基于全局共享数据集对当前聚合模型进行调整,并将调整后的聚合模型更新作为新的当前全局模型,以用于下轮训练。
全局共享数据集可以是通过由自愿分享数据的设备上传数据而形成的数据集,其可以是服务器本地存储的,也可以是分布存储在网络中的。全局共享数据往往与网络中存在的总的设备数据是独立同分布的。在一个示例中,可以通过使用全局共享数据集对当前聚合模型进行训练,来调整当前聚合模型。
以上描述了根据本公开的示例实施例的联邦学习方法,该方法通过用独立同分布的全局共享数据对当前聚合模型进行调整,能够加快当前聚合模型的收敛速度。此外,当每个设备处的本地数据是非独立同分布的数据时,根据本公开示例实施例的联邦学习方法还能够通过用全局共享数据对当前聚合模型进行调整,来减少非独立同分布的本地数据对模型性能损失的影响。
以下将参考图3A和图3B来描述基于全局共享数据集对当前聚合模型进行调整的示例操作。图3A是根据本公开示例实施例的联邦学习方法中,基于全局共享数据集对当前聚合模型进行调整的子操作的示意图。
如图3A所示,以目标对象检测模型作为全局模型的示例,描述了基于全局共享数据集30a对当前聚合模型进行调整的示例操作。通常,模型可以由模型参数来表征。
本领域技术人员应认识到,根据本公开示例实施例的全局模型不限于上述目标对象检测模型,其可以是任何其他类型的模型。
本示例中采用的目标对象检测模型从结构上包括两个部分,即,特征提取层321和预测部分322。特征提取层321可以获取数据30a,例如,包括图像的数据,并对获取的数据执行特征提取,以产生多个特征图P1、P2和P3。预测部分322可以使用特征图P1、P2和P3中的至少一个来检测目标对象,以得到目标对象的信息,即,预测结果30b。
在本公开的示例中,在对全局模型的第t轮训练期间,当接收到来自各边缘设备的经训练参数w1,w2,w3......时,可以对接收到的参数执行聚合,例如,对接收到的参数进行平均,以便获得聚合参数wt-,并根据聚合参数wt-对当前全局模型执行参数更新,如附图标记310所示。
当完成对当前全局模型的参数的更新时,可以获得当前聚合模型,其中当前聚合模型可以由聚合参数wt-表征。可以通过使用全局共享数据集对当前聚合模型执行训练迭代,来实现对模型参数的调整,如附图标记320所示。例如,通过使用全局共享数据集中的数据30a对当前聚合模型进行多次迭代训练,并通过确定是否满足迭代停止条件来确定是否停止迭代,其中迭代停止条件可以包括损失变得收敛和/或迭代达到指定次数(下文中称为服务器侧迭代次数),如附图标记323和326所示。在本公开的示例实施例中,通过用全局共享数据对当前聚合模型进行调整,能够加快当前聚合模型的收敛速度。
图3B示出了在使用全局共享数据集对参数执行调整的每次训练迭代期间的操作的流程图。
在每次训练迭代期间,将全局共享数据集中的全局共享数据30a作为训练数据输入当前聚合模型。在步骤S321,通过经由特征提取层对全局共享数据执行特征提取,并在步骤S322,经由预测部分对提取的特征图执行预测,从而获得针对该全局共享数据30a的预测结果30b。
当获得预测结果30b时,在步骤S323,能够依据预测结果30b和与之对应的全局共享数据30a执行损失计算。在步骤S324,可以确定是否停止迭代,例如,可以通过确定是否满足迭代停止条件来确定是否停止迭代,其中迭代停止条件可以是模型的损失变得收敛和/或迭代达到指定次数(下文中称为服务器侧迭代次数),如附图标记323和326所示。
当确定没有满足迭代停止条件时(S324-否),可以根据计算出的损失对模型参数进行调整,如步骤S325所示,否则(S324-是),结束本次迭代。当达到指定迭代次数或损失收敛时,可以将调整后的聚合模型作为新的当前全局模型,以用于第t+1轮训练,其中新的当前全局模型由新的模型参数w来表征。
在本公开的示例实施例中,全局共享数据集D0上存在数量为n0的数据对{x0,j,y0,j},其中x0,j表示第j个数据,且y0,j表示x0,j的预测结果。
模型训练的目标往往是为了寻找能够使数据集上的损失函数最小的模型参数w,其中,损失函数F0(w)可以被表示为:
其中,f(w,x0,j,y0,j)是用于衡量模型参数w对数据{x0,j,y0,j}的误差。
然而,对于根据本公开的联邦学习方法而言,如果利用全局共享数据进行调整的程度过大,则调整后的模型就会向全局共享数据过度偏移,并丢失由边缘设备先前训练得到的个性化特征,因此,很难给个性化数据丰富的边缘设备带来性能提升。另一方面,如果利用全局共享数据执行的调整过少,则说明全局共享数据没有得到充分利用,因此无法为整个联邦学习过程带来速度上的提升。
为此,本公开提出了通过控制利用全局共享数据的调整程度,使得能够在确保服务器侧的调整不会大幅向全局共享数据偏移的情况下,充分利用全局共享数据,从而加快模型收敛。
在一个示例中,本公开提出了通过在损失函数中引入惩罚项,来实现对调整程度的控制。
在当前训练轮次为第t轮的情况下,引入了惩罚项的损失函数可以被表示为:
其中,F0(w)是调整后的聚合模型在全局共享数据集D0上的损失函数,f(w,x0,j,y0,j)是调整后的聚合模型针对数据{x0,j,y0,j}的损失函数,且μ是正则权重参数。
在上述示例中,公式2中的第二项使用2范数作为惩罚项来对调整后的聚合模型进行约束。惩罚项限制了在利用全局共享数据对模型参数执行调整的过程中的参数调整程度,使得由新模型参数w表征的新当前全局模型接近由聚合参数wt-表征的当前聚合模型,这样将减少过度训练的可能,让模型收敛更加平稳。
在另一示例中,本公开还提出了通过动态控制服务器侧迭代次数和/或设备侧迭代次数,来实现对调整程度的控制。
例如,可以动态控制使用全局共享数据集对当前聚合模型进行训练的服务器侧迭代次数,使得服务器侧迭代次数随着训练轮次的增加而减小。
在第t轮的联邦学习过程中,服务器通过使用设备调度算法选择了多个边缘设备而形成设备集合所选的边缘设备各自使用自己的本地数据对由服务器发送的当前全局模型进行训练,以获得经训练参数,其中设备集合/>中的边缘设备k可以具有nk个本地数据。
当接收到来自各边缘设备的经训练参数时,服务器可以对接收到的参数执行聚合,以获得当前聚合模型。响应于获得当前聚合模型,可以基于全局共享数据集多次迭代地对当前聚合模型进行调整,服务器侧迭代次数server_itert可以表示为:
server_itert=αt*local_itert (3)
其中,local_itert是设备集合中的边缘设备的平均迭代次数(以下称为设备侧迭代次数),且αt表示迭代系数,下面将对设备侧迭代次数local_itert和迭代系数αt进行详细描述。
设备侧迭代次数local_itert可以进一步地被表示为:
其中,
-m表示设备集合中边缘设备的数量;且
-表示设备集合/>中的边缘设备k的迭代次数,其中,B表示本地数据的批大小(Batch size),即,一次训练所选取的样本数;E是边缘设备的迭代周期。
此外,迭代系数αt可以进一步被表示为:
αt=(1-acc)*p*decayt (5)
其中,
-acc是以聚合参数wt-表征的当前聚合模型在全局共享数据集D0上评估的正确率;当acc较低时,往往希望增大利用全局共享数据的调整程度,使得调整后的聚合模型快速到达一定的准确率;当acc较高时,将减少中心数据的影响,让模型能够更多地从边缘数据上获益。
-p表示全局共享数据集的样本量n0与参与本轮训练的所选边缘设备的总样本量n的比例,即,或/>以及
-decay是超参数,表示衰减率,是为了在联邦学习后期减少全局共享数据的参与程度。通常情况下,decay为介于0到1之间的值,值越小意味着衰减越快。由于decay的值是小于1且at与decayt是成正比,因此at会随着轮次t的增大而迅速减小。
这样,通过设备侧迭代次数和迭代系数的共同作用,能够实现在联邦学习的前期,采用全局共享数据集执行较多次迭代,从而加速模型收敛。在联邦学习的中后期,减少采用全局共享数据集执行的迭代次数,从而能够更多地利用边缘设备的数据,使得经训练的模型能够与用户具有较高的适配度。
以上描述了动态控制服务器侧迭代次数,使得服务器侧迭代次数随着训练轮次的增加而减小,从而在加速模型收敛的同时保证该模型能够与用户具有较高的适配度。
应注意,除了动态控制服务器侧迭代次数之外,还可以通过动态控制每个边缘设备在每轮训练中执行迭代的设备侧迭代次数,使得设备侧迭代次数随着训练轮次的增加而增加,来实现上述相同的效果。此外,本领域技术人员还应认识到,可以通过动态控制服务器侧迭代次数和设备侧迭代次数二者,使得服务器侧迭代次数随着训练轮次的增加而减小且设备侧迭代次数随着训练轮次的增加而增加,来在加速模型收敛的同时保证该模型能够与用户具有较高的适配度。
以上参考图2至图3B描述了根据本公开示例实施例的联邦学习方法,其中通过控制使用全局共享数据集对当前聚合模型进行训练的过程,能够减少过度训练的可能,并在加速模型收敛的同时保证训练好的模型能够与用户具有较高的适配度。
以下结合图4和图5描述了根据本公开示例实施例的联邦学习装置的示例。
图4是根据本公开示例实施例的联邦学习装置的一个示例的结构框图。
如图4所示,联邦学习装置400可以包括训练模块410和全局模型发布模块420。训练模块410可以被配置为执行多轮训练,直到满足训练结束条件,得到经训练的全局模型。全局模型发布模块420可以被配置为向多个设备发布经训练的全局模型。根据本公开的实施例,全局模型的类型不做限定,例如,其可以是以图像作为输入数据的图像检索模型、以图像作为输入数据的对象识别模型、以音频作为输入数据的语音识别模型、或者以文本作为输入数据的文本识别模型等。训练结束条件可以是模型收敛和达到指定训练次数中的至少一个。
训练模块410进一步包括:发送子模块411、接收子模块412、聚合子模块413和调整子模块414。
发送子模块411可以被配置为向多个设备中的至少一部分设备发送当前全局模型。例如,联邦学习装置400可以从多个设备中选择至少一部分设备作为本轮训练的参与方(也被称为边缘设备),并向所选择的边缘设备发送当前全局模型。每个边缘设备能够依据本地数据对当前全局模型进行多次训练,从而得到经训练参数。
接收子模块412可以被配置为接收来自至少一部分设备的针对当前全局模型的经训练参数。
聚合子模块413可以被配置为对接收到的参数执行聚合,以获得当前聚合模型。例如,可以通过对接收到的参数执行平均或加权平均,来实现聚合并获得聚合参数。通过用聚合参数更新当前全局模型的参数,来获得当前聚合模型。
调整子模块414可以被配置为:基于全局共享数据集对当前聚合模型进行调整,并将调整后的聚合模型更新作为新的当前全局模型,以用于下轮训练。
根据本公开的实施例,调整子模块414还可以被配置为:通过使用全局共享数据集对当前聚合模型进行训练,来调整当前聚合模型。例如,调整子模块414还可以被配置为:通过使用全局共享数据集对当前聚合模型进行训练,以使调整后的聚合模型在全局共享数据集上的损失函数最小,并且使调整后的聚合模型接近当前聚合模型。
在一个示例中,调整子模块414还被配置为:通过用如下损失函数来对当前聚合模型进行训练,使调整后的聚合模型在全局共享数据集上的损失函数最小,并且使调整后的聚合模型接近当前聚合模型:
其中,F0(w)是调整后的聚合模型w在全局共享数据集D0上的损失函数,f(w,x0,j,y0,j)是调整后的聚合模型w针对数据{x0,j,y0,j}的损失函数,wt-表示当前轮的聚合模型,且μ是正则权重参数。
为此,本公开提出了一种联邦学习装置,其中通过优化损失函数以限制利用全局共享数据对模型参数执行调整的程度,使得减少过度训练的可能,让模型收敛更加平稳。
图5是根据本公开示例实施例的联邦学习装置的另一示例的结构框图。
类似于图4,图5的联邦学习装置500可以包括训练模块510和全局模型发布模块520,其中相同或相似的附图标记用以表示相同或相似的元件。
为了简化说明,下面仅针对图4和图5的不同之处进行详细描述。
在图5中,除了包括发送子模块511、接收子模块512、聚合子模块513和调整子模块514之外,联邦学习装置500还附加包括迭代次数控制子模块515。
迭代次数控制子模块515可以被配置为动态控制使用全局共享数据集对当前聚合模型进行训练的服务器侧迭代次数,使得服务器侧迭代次数随着训练轮次的增加而减小。例如,对于第t轮训练,服务器侧迭代次数server_itert可以表示为:
server_itert=αt*local_itert (7)
其中,local_itert是设备集合中的边缘设备的平均迭代次数,且αt表示迭代系数。
此外,应注意,除了动态控制服务器侧迭代次数之外,迭代次数控制子模块515还可以通过动态控制每个边缘设备在每轮训练中执行迭代的设备侧迭代次数,使得设备侧迭代次数随着训练轮次的增加而增加,来实现上述相同的效果。本领域技术人员还应认识到,迭代次数控制子模块515也可以通过动态控制服务器侧迭代次数和设备侧迭代次数二者,使得服务器侧迭代次数随着训练轮次的增加而减小且设备侧迭代次数随着训练轮次的增加而增加,来在加速模型收敛的同时保证该模型能够与用户具有较高的适配度。
由此可见,本公开提出的联邦学习装置通过动态控制服务器侧迭代次数和/或设备侧迭代次数,能够实现在联邦学习的前期,采用全局共享数据集执行较多次迭代,从而加速模型收敛;而在联邦学习的中后期,减少采用全局共享数据集执行的迭代次数,从而能够更多地利用边缘设备的数据,使得经训练的模型能够与用户具有较高的适配度。
以上结合图4和图5描述了根据本公开示例实施例的联邦学习装置,其中通过控制使用全局共享数据集对当前聚合模型进行训练的过程,能够减少过度训练的可能,并在加速模型收敛的同时保证训练好的模型能够与用户具有较高的适配度。
图6是根据本公开示例实施例的联邦学习系统的信号流的图。
如图6所示,联邦学习系统600可以包括多个设备以及服务器603。多个设备与服务器603通信连接。
服务器603可以被配置为:执行多轮训练,直到满足训练结束条件,得到经训练的全局模型;以及向多个设备发布经训练的全局模型。服务器603可以是使用以上参考图2至图3B所述的根据本公开示例实施例的联邦学习方法的任意装置,或者可以是参考图4和图5所述的根据本公开示例实施例的联邦学习装置。
在每轮学习过程期间,服务器603从多个设备中选择设备601a和设备601b作为本轮训练的参与方,并向设备601a和设备601b发送当前全局模型,如附图标记611所示。
设备601a/601b基于各自的本地数据对接收到的当前全局模型进行模型参数训练,如附图标记612a和612b所示。
在经过多次训练迭代之后,设备601a/601b可以训练得到经训练参数w1/w2,并将经训练参数传送至服务器603,如附图标记613a和613b所示。
服务器603接收来自各设备的经训练参数,并对接收到的参数执行聚合,例如,对接收到的参数执行平均或加权平均。随后,用聚合参数更新当前全局模型的参数,以获得当前聚合模型,如附图标记614所示。
当获得当前聚合模型时,服务器603可以基于全局共享数据对当前聚合模型进行调整,如附图标记615所示。例如,可以参考图3A和图3B所示的过程来执行多次迭代训练,以进行参数调整。
当达到迭代停止条件时,结束本轮训练。此时,可以获得能够用于下轮训练的新的当前全局模型,如附图标记616所示。
以上描述了在一轮训练期间的服务器与边缘设备执行的操作。实际上,由于联邦学习往往需要执行多轮训练,因此,上述操作通常被执行N次,直到满足训练结束条件为止。此时,将获得经训练的全局模型,如附图标记617所示。
服务器603可以将经训练的全局模型发布给联邦学习系统600中包括的全部多个设备,以供多个设备使用模型,如附图标记618所示。
以上描述了根据本公开示例实施例的联邦学习系统,其中通过控制使用全局共享数据集对当前聚合模型进行训练的过程,能够减少过度训练的可能,并在加速模型收敛的同时保证训练好的模型能够与用户具有较高的适配度。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图7示出了可以用来实施本公开的实施例的示例电子设备700的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图7所示,电子设备700包括计算单元701,其可以根据存储在只读存储器(ROM)702中的计算机程序或者从存储单元708加载到随机访问存储器(RAM)703中的计算机程序,来执行各种适当的动作和处理。在RAM 703中,还可存储设备700操作所需的各种程序和数据。计算单元701、ROM 702以及RAM 703通过总线704彼此相连。输入/输出(I/O)接口705也连接至总线704。
设备700中的多个部件连接至I/O接口705,包括:输入单元706,例如键盘、鼠标等;输出单元707,例如各种类型的显示器、扬声器等;存储单元708,例如磁盘、光盘等;以及通信单元709,例如网卡、调制解调器、无线通信收发机等。通信单元709允许设备700通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元701可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元701的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元701执行上文所描述的各个方法和步骤,例如,如图2至图3B所示的方法和步骤。例如,在一些实施例中,图2至图3B所示的方法和步骤可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元708。在一些实施例中,计算机程序的部分或者全部可以经由ROM 702和/或通信单元709而被载入和/或安装到设备700上。当计算机程序加载到RAM 703并由计算单元701执行时,可以执行上文描述的方法的一个或多个步骤。备选地,在其他实施例中,计算单元701可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行如上所述的方法和步骤。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (9)
1.一种用于在服务器侧训练全局模型的联邦学习方法,包括:
执行多轮训练,直到满足训练结束条件,得到经训练的全局模型;以及
向多个设备发布经训练的全局模型,
其中,所述多轮训练中的每轮训练包括:
向所述多个设备中的至少一部分设备发送当前全局模型;
接收来自所述至少一部分设备的针对所述当前全局模型的经训练参数;
对接收到的参数执行聚合,以获得当前聚合模型;以及
通过在服务器侧使用全局共享数据集对所述当前聚合模型进行训练,来调整所述当前聚合模型,并将调整后的聚合模型更新作为新的当前全局模型,以用于下轮训练,
其中,所述通过在服务器侧使用全局共享数据集对所述当前聚合模型进行训练,来调整所述当前聚合模型包括:
通过基于如下损失函数来使用所述全局共享数据集对所述当前聚合模型进行训练,以使调整后的聚合模型在所述全局共享数据集上的损失函数最小,并且使所述调整后的聚合模型接近所述当前聚合模型,
其中,wt-表示当前聚合模型,F0(w)是所述调整后的聚合模型w在全局共享数据集D0上的损失函数,n0是所述全局共享数据集D0上的数据的数量,f(w,x0,j,y0,j)是所述调整后的聚合模型w针对数据{x0,j,y0,j}的损失函数,且μ是正则权重参数。
2.根据权利要求1所述的联邦学习方法,还包括:
动态控制使用所述全局共享数据集对所述当前聚合模型进行训练的服务器侧迭代次数,使得所述服务器侧迭代次数随着训练轮次的增加而减小。
3.根据权利要求1所述的联邦学习方法,还包括:
动态控制所述至少一部分设备中的每个设备在每轮训练中执行迭代的设备侧迭代次数,使得所述设备侧迭代次数随着训练轮次的增加而增加。
4.一种用于在服务器侧训练全局模型的联邦学习装置,包括:
训练模块,被配置为:执行多轮训练,直到满足训练结束条件,得到经训练的全局模型;以及
全局模型发布模块,被配置为向多个设备发布经训练的全局模型,
其中,所述训练模块进一步包括:
发送子模块,被配置为向所述多个设备中的至少一部分设备发送当前全局模型;
接收子模块,被配置为接收来自所述至少一部分设备的针对所述当前全局模型的经训练参数;
聚合子模块,被配置为对接收到的参数执行聚合,以获得当前聚合模型;以及
调整子模块,被配置为:通过在服务器侧使用全局共享数据集对所述当前聚合模型进行训练,来调整所述当前聚合模型,并将调整后的聚合模型更新作为新的当前全局模型,以用于下轮训练,
其中,所述调整子模块还被配置为:
通过基于如下损失函数来使用所述全局共享数据集对所述当前聚合模型进行训练,以使调整后的聚合模型在所述全局共享数据集上的损失函数最小,并且使所述调整后的聚合模型接近所述当前聚合模型,
其中,wt-表示当前聚合模型,F0(w)是所述调整后的聚合模型w在全局共享数据集D0上的损失函数,n0是所述全局共享数据集D0上的数据的数量,f(w,x0,j,y0,j)是所述调整后的聚合模型w针对数据{x0,j,y0,j}的损失函数,且μ是正则权重参数。
5.根据权利要求4所述的联邦学习装置,其中,所述训练模块还包括:
迭代次数控制子模块,被配置为动态控制使用所述全局共享数据集对所述当前聚合模型进行训练的服务器侧迭代次数,使得所述服务器侧迭代次数随着训练轮次的增加而减小。
6.根据权利要求4所述的联邦学习装置,其中,所述训练模块还包括:
迭代次数控制子模块,被配置为动态控制所述至少一部分设备中的每个设备在每轮训练中执行迭代的设备侧迭代次数,使得所述设备侧迭代次数随着训练轮次的增加而增加。
7.一种用于训练全局模型的联邦学习系统,包括:
服务器;以及
多个设备,与所述服务器通信连接;
其中所述服务器被配置为:
执行多轮训练,直到满足训练结束条件,得到经训练的全局模型;以及
向多个设备发布经训练的全局模型,
其中,所述多轮训练中的每轮训练包括:
向所述多个设备中的至少一部分设备发送当前全局模型;
接收来自所述至少一部分设备的针对所述当前全局模型的经训练参数;
对接收到的参数执行聚合,以获得当前聚合模型;以及
通过在服务器侧使用全局共享数据集对所述当前聚合模型进行训练,来调整所述当前聚合模型,并将调整后的聚合模型更新作为新的当前全局模型,以用于下轮训练,
其中,所述通过在服务器侧使用全局共享数据集对所述当前聚合模型进行训练,来调整所述当前聚合模型包括:
通过基于如下损失函数来使用所述全局共享数据集对所述当前聚合模型进行训练,以使调整后的聚合模型在所述全局共享数据集上的损失函数最小,并且使所述调整后的聚合模型接近所述当前聚合模型,
其中,wt-表示当前聚合模型,F0(w)是所述调整后的聚合模型w在全局共享数据集D0上的损失函数,n0是所述全局共享数据集D0上的数据的数量,f(w,x0,j,y0,j)是所述调整后的聚合模型w针对数据{x0,j,y0,j}的损失函数,且μ是正则权重参数。
8.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1~3中任一项所述的方法。
9.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1~3中任一项所述的方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111372708.6A CN114065863B (zh) | 2021-11-18 | 2021-11-18 | 联邦学习的方法、装置、系统、电子设备及存储介质 |
US17/988,264 US20230083116A1 (en) | 2021-11-18 | 2022-11-16 | Federated learning method and system, electronic device, and storage medium |
EP22208157.2A EP4113394A3 (en) | 2021-11-18 | 2022-11-17 | Federated learning method, apparatus and system, electronic device, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111372708.6A CN114065863B (zh) | 2021-11-18 | 2021-11-18 | 联邦学习的方法、装置、系统、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114065863A CN114065863A (zh) | 2022-02-18 |
CN114065863B true CN114065863B (zh) | 2023-08-29 |
Family
ID=80278395
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111372708.6A Active CN114065863B (zh) | 2021-11-18 | 2021-11-18 | 联邦学习的方法、装置、系统、电子设备及存储介质 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230083116A1 (zh) |
EP (1) | EP4113394A3 (zh) |
CN (1) | CN114065863B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114844889B (zh) * | 2022-04-14 | 2023-07-07 | 北京百度网讯科技有限公司 | 视频处理模型的更新方法、装置、电子设备及存储介质 |
CN115456194B (zh) * | 2022-08-25 | 2023-09-01 | 北京百度网讯科技有限公司 | 基于异步联邦学习的模型训练控制方法、装置及系统 |
CN116187473B (zh) * | 2023-01-19 | 2024-02-06 | 北京百度网讯科技有限公司 | 联邦学习方法、装置、电子设备和计算机可读存储介质 |
CN116204793B (zh) * | 2023-04-28 | 2023-07-04 | 北京航空航天大学 | 一种基于联邦学习的工业互联网云边模型聚合方法 |
CN116610958A (zh) * | 2023-06-20 | 2023-08-18 | 河海大学 | 面向无人机群水库水质检测的分布式模型训练方法及系统 |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111754000A (zh) * | 2020-06-24 | 2020-10-09 | 清华大学 | 质量感知的边缘智能联邦学习方法及系统 |
CN112181971A (zh) * | 2020-10-27 | 2021-01-05 | 华侨大学 | 一种基于边缘的联邦学习模型清洗和设备聚类方法、系统、设备和可读存储介质 |
CN112181666A (zh) * | 2020-10-26 | 2021-01-05 | 华侨大学 | 一种基于边缘智能的设备评估和联邦学习重要性聚合方法、系统、设备和可读存储介质 |
CN112235062A (zh) * | 2020-10-10 | 2021-01-15 | 中国科学技术大学 | 一种对抗通信噪声的联邦学习方法和系统 |
CN112257873A (zh) * | 2020-11-11 | 2021-01-22 | 深圳前海微众银行股份有限公司 | 机器学习模型的训练方法、装置、系统、设备及存储介质 |
CN112862011A (zh) * | 2021-03-31 | 2021-05-28 | 中国工商银行股份有限公司 | 基于联邦学习的模型训练方法、装置及联邦学习系统 |
CN113011602A (zh) * | 2021-03-03 | 2021-06-22 | 中国科学技术大学苏州高等研究院 | 一种联邦模型训练方法、装置、电子设备和存储介质 |
CN113095513A (zh) * | 2021-04-25 | 2021-07-09 | 中山大学 | 双层公平联邦学习方法、装置和存储介质 |
CN113139662A (zh) * | 2021-04-23 | 2021-07-20 | 深圳市大数据研究院 | 联邦学习的全局及局部梯度处理方法、装置、设备和介质 |
CN113191503A (zh) * | 2021-05-20 | 2021-07-30 | 清华大学深圳国际研究生院 | 一种非共享数据的去中心化的分布式学习方法及系统 |
CN113221470A (zh) * | 2021-06-10 | 2021-08-06 | 南方电网科学研究院有限责任公司 | 一种用于电网边缘计算系统的联邦学习方法及其相关装置 |
CN113408743A (zh) * | 2021-06-29 | 2021-09-17 | 北京百度网讯科技有限公司 | 联邦模型的生成方法、装置、电子设备和存储介质 |
CN113469325A (zh) * | 2021-06-09 | 2021-10-01 | 南京邮电大学 | 一种边缘聚合间隔自适应控制的分层联邦学习方法、计算机设备、存储介质 |
CN113467952A (zh) * | 2021-07-15 | 2021-10-01 | 北京邮电大学 | 一种分布式联邦学习协同计算方法及系统 |
CN113516250A (zh) * | 2021-07-13 | 2021-10-19 | 北京百度网讯科技有限公司 | 一种联邦学习方法、装置、设备以及存储介质 |
CN113645197A (zh) * | 2021-07-20 | 2021-11-12 | 华中科技大学 | 一种去中心化的联邦学习方法、装置及系统 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10677881B2 (en) * | 2016-03-29 | 2020-06-09 | Government of the United States as represented by Director National Security Agency | Map assisted inertial navigation |
US11593634B2 (en) * | 2018-06-19 | 2023-02-28 | Adobe Inc. | Asynchronously training machine learning models across client devices for adaptive intelligence |
US11188791B2 (en) * | 2019-11-18 | 2021-11-30 | International Business Machines Corporation | Anonymizing data for preserving privacy during use for federated machine learning |
-
2021
- 2021-11-18 CN CN202111372708.6A patent/CN114065863B/zh active Active
-
2022
- 2022-11-16 US US17/988,264 patent/US20230083116A1/en not_active Abandoned
- 2022-11-17 EP EP22208157.2A patent/EP4113394A3/en active Pending
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111754000A (zh) * | 2020-06-24 | 2020-10-09 | 清华大学 | 质量感知的边缘智能联邦学习方法及系统 |
CN112235062A (zh) * | 2020-10-10 | 2021-01-15 | 中国科学技术大学 | 一种对抗通信噪声的联邦学习方法和系统 |
CN112181666A (zh) * | 2020-10-26 | 2021-01-05 | 华侨大学 | 一种基于边缘智能的设备评估和联邦学习重要性聚合方法、系统、设备和可读存储介质 |
CN112181971A (zh) * | 2020-10-27 | 2021-01-05 | 华侨大学 | 一种基于边缘的联邦学习模型清洗和设备聚类方法、系统、设备和可读存储介质 |
CN112257873A (zh) * | 2020-11-11 | 2021-01-22 | 深圳前海微众银行股份有限公司 | 机器学习模型的训练方法、装置、系统、设备及存储介质 |
CN113011602A (zh) * | 2021-03-03 | 2021-06-22 | 中国科学技术大学苏州高等研究院 | 一种联邦模型训练方法、装置、电子设备和存储介质 |
CN112862011A (zh) * | 2021-03-31 | 2021-05-28 | 中国工商银行股份有限公司 | 基于联邦学习的模型训练方法、装置及联邦学习系统 |
CN113139662A (zh) * | 2021-04-23 | 2021-07-20 | 深圳市大数据研究院 | 联邦学习的全局及局部梯度处理方法、装置、设备和介质 |
CN113095513A (zh) * | 2021-04-25 | 2021-07-09 | 中山大学 | 双层公平联邦学习方法、装置和存储介质 |
CN113191503A (zh) * | 2021-05-20 | 2021-07-30 | 清华大学深圳国际研究生院 | 一种非共享数据的去中心化的分布式学习方法及系统 |
CN113469325A (zh) * | 2021-06-09 | 2021-10-01 | 南京邮电大学 | 一种边缘聚合间隔自适应控制的分层联邦学习方法、计算机设备、存储介质 |
CN113221470A (zh) * | 2021-06-10 | 2021-08-06 | 南方电网科学研究院有限责任公司 | 一种用于电网边缘计算系统的联邦学习方法及其相关装置 |
CN113408743A (zh) * | 2021-06-29 | 2021-09-17 | 北京百度网讯科技有限公司 | 联邦模型的生成方法、装置、电子设备和存储介质 |
CN113516250A (zh) * | 2021-07-13 | 2021-10-19 | 北京百度网讯科技有限公司 | 一种联邦学习方法、装置、设备以及存储介质 |
CN113467952A (zh) * | 2021-07-15 | 2021-10-01 | 北京邮电大学 | 一种分布式联邦学习协同计算方法及系统 |
CN113645197A (zh) * | 2021-07-20 | 2021-11-12 | 华中科技大学 | 一种去中心化的联邦学习方法、装置及系统 |
Non-Patent Citations (1)
Title |
---|
FedCav: Contribution-aware Model Aggregation on Distributed Heterogeneous Data in Federated Learning;Hui Zeng等;《Proceedings of the 50th International Conference on Parallel Processing》;第1-10页 * |
Also Published As
Publication number | Publication date |
---|---|
US20230083116A1 (en) | 2023-03-16 |
EP4113394A2 (en) | 2023-01-04 |
EP4113394A3 (en) | 2023-05-31 |
CN114065863A (zh) | 2022-02-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114065863B (zh) | 联邦学习的方法、装置、系统、电子设备及存储介质 | |
KR102358554B1 (ko) | 시맨틱 분할 모델을 위한 훈련 방법 및 장치, 전자 기기, 저장 매체 | |
EP4350572A1 (en) | Method, apparatus and system for generating neural network model, devices, medium and program product | |
CN112560996A (zh) | 用户画像识别模型训练方法、设备、可读存储介质及产品 | |
CN113627536B (zh) | 模型训练、视频分类方法,装置,设备以及存储介质 | |
CN112511336A (zh) | 一种边缘计算系统中的在线服务放置方法 | |
CN114581868A (zh) | 基于模型通道剪枝的图像分析方法和装置 | |
CN114020950A (zh) | 图像检索模型的训练方法、装置、设备以及存储介质 | |
CN114494747A (zh) | 模型的训练方法、图像处理方法、装置、电子设备及介质 | |
CN114049516A (zh) | 训练方法、图像处理方法、装置、电子设备以及存储介质 | |
CN116310356B (zh) | 深度学习模型的训练方法、目标检测方法、装置及设备 | |
CN115170919B (zh) | 图像处理模型训练及图像处理方法、装置、设备和存储介质 | |
CN115600693A (zh) | 机器学习模型训练方法、识别方法、相关装置及电子设备 | |
CN114758130B (zh) | 图像处理及模型训练方法、装置、设备和存储介质 | |
CN114707638A (zh) | 模型训练、对象识别方法及装置、设备、介质和产品 | |
CN114067415A (zh) | 回归模型的训练方法、对象评估方法、装置、设备和介质 | |
CN113887630A (zh) | 图像分类方法、装置、电子设备和存储介质 | |
CN112949850A (zh) | 超参数确定方法、装置、深度强化学习框架、介质及设备 | |
CN113705513B (zh) | 模型训练和车道线预测方法、电子设备和自动驾驶车辆 | |
CN112507197B (zh) | 模型搜索方法、装置、电子设备、存储介质和程序产品 | |
CN116187473B (zh) | 联邦学习方法、装置、电子设备和计算机可读存储介质 | |
CN113963433B (zh) | 运动搜索方法、装置、电子设备及存储介质 | |
CN115294396B (zh) | 骨干网络的训练方法以及图像分类方法 | |
CN115482422B (zh) | 深度学习模型的训练方法、图像处理方法和装置 | |
CN115310590A (zh) | 图结构学习方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |