CN111709534A - 基于演化计算的联邦学习方法、装置、设备及介质 - Google Patents
基于演化计算的联邦学习方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN111709534A CN111709534A CN202010567731.XA CN202010567731A CN111709534A CN 111709534 A CN111709534 A CN 111709534A CN 202010567731 A CN202010567731 A CN 202010567731A CN 111709534 A CN111709534 A CN 111709534A
- Authority
- CN
- China
- Prior art keywords
- hyper
- parameters
- parameter
- sub
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004364 calculation method Methods 0.000 title claims abstract description 72
- 238000000034 method Methods 0.000 title claims abstract description 44
- 238000004891 communication Methods 0.000 claims description 15
- 238000012549 training Methods 0.000 claims description 9
- 230000000717 retained effect Effects 0.000 claims description 6
- 230000003190 augmentative effect Effects 0.000 claims 1
- 238000005457 optimization Methods 0.000 abstract description 4
- 239000013598 vector Substances 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007786 learning performance Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种基于演化计算的联邦学习方法、装置、设备及可读存储介质,所述方法包括:在超参数集中确定所述第一设备对应的第一分组的超参数,以供第一分组中的设备基于第一分组的超参数进行联邦学习,得到第一分组对应的第一子目标模型,接收多个第二设备发送的第二子目标模型的性能指标,基于第一子目标模型的性能指标、所述多个第二子目标模型的性能指标以及超参数集进行迭代演化计算,得到目标超参数,第一设备和多个第二设备基于目标超参数确定各自的初始模型参数,第一设备和多个第二设备基于各自的初始模型参数进行联邦学习得到目标模型。在提升联邦学习中超参数优化效率的同时,显著提升了联邦学习模型的性能。
Description
技术领域
本发明涉及金融科技领域,尤其涉及一种基于演化计算的联邦学习方法、装置、设备及可读存储介质。
背景技术
在联邦学习中,往往使用到诸如神经网络等复杂的模型。此类模型有大量的超参数,如学习率,网络层数,每层卷积核维度等,现有的联邦学习算法只能在设定好的确定的超参数上训练神经网络。由于人为设定的固定的超参数往往不是最优的超参数,因此在人为给定的超参数下训练的联邦学习模型往往不能达到最好的效果。为了得到好的联邦学习模型,需要不断人为凭经验调整超参数,并重新进行联邦学习。整个过程费时费力,成本高昂,且最终的性能指标难以保证。
上述内容仅用于辅助理解本发明的技术方案,并不代表承认上述内容是现有技术。
发明内容
本发明的主要目的在于提供一种基于演化计算的联邦学习方法、装置、设备及可读存储介质,旨在解决现有的联邦学习中确定超参数效率较低,影响联邦学习性能指标的技术问题。
为实现上述目的,本发明提供一种基于演化计算的联邦学习方法,所述的基于演化计算的联邦学习方法包括以下步骤:
在超参数集中确定所述第一设备对应的第一分组的超参数,以供所述第一分组中的设备基于所述第一分组的超参数进行联邦学习,得到所述第一分组对应的第一子目标模型;
接收多个第二设备发送的第二子目标模型的性能指标,基于所述第一子目标模型的性能指标、所述多个第二子目标模型的性能指标以及所述超参数集进行迭代演化计算,得到目标超参数,其中,所述第二子目标模型是所述第二设备对应的第二分组中的设备进行联邦学习得到的;
所述第一设备和多个第二设备基于所述目标超参数确定各自的初始模型参数,所述第一设备和多个第二设备基于各自的所述初始模型参数进行联邦学习得到目标模型。
进一步地,所述接收所述多个第二设备发送的第二子目标模型的性能指标,基于所述第一子目标模型的性能指标、所述多个第二子目标模型的性能指标以及所述超参数集进行迭代演化计算,得到目标超参数的步骤包括:
基于所述第一子目标模型的性能指标、所述多个第二子目标模型的性能指标以及所述超参数集进行演化计算,得到更新后的超参数集,且以供所述第一设备调整所述第一分组、所述多个第二设备调整所述第二分组;
基于调整后第一分组、多个第二分组以及更新后的超参数集进行迭代演化计算,直到检测到迭代停止条件,得到所述目标超参数。
进一步地,所述基于所述第一子目标模型的性能指标、所述多个第二子目标模型的性能指标以及所述超参数集进行演化计算,得到更新后的超参数集的步骤包括:
基于所述第一子目标模型的性能指标、所述多个第二子目标模型的性能指标,对所述超参数集中的超参数进行排序,在排序后的各个超参数中得到待保留的超参数;
基于所述待保留的超参数更新所述超参数集。
进一步地,所述基于所述待保留的超参数更新所述超参数集的步骤包括:
在所述待保留的超参数中选取第一待转换超参数,以对所述待转换超参数的预设位置的数值进行更新,获得所述扩充超参数;和/或,
在所述待保留的超参数中选取第二待转换超参数和第三待转换超参数,将所述第二待转换超参数与所述第三待转换超参数进行数值交换,以获得所述扩充超参数;
基于所述待保留的超参数以及所述扩充超参数,更新所述超参数集。
进一步地,所述基于所述待保留的超参数以及所述扩充超参数,更新所述超参数集的步骤包括:
获取随机超参数,并将所述待保留的超参数、所述扩充超参数以及所述随机超参数作为更新后的所述超参数集;
所述在超参数集中确定第一分组对应的超参数的步骤包括:
在更新后的所述超参数集中确定第一分组对应的超参数。
进一步地,所述得到更新后的超参数集,以供所述第一设备调整所述第一分组、所述多个第二设备调整所述第二分组的步骤包括:
基于所述第一子目标模型的性能指标、所述多个第二子目标模型的性能指标,对所述超参数集中的超参数进行排序,在排序后的各个超参数中得到待淘汰超参数;
将所述待淘汰超参数对应的多个设备重新进行分组,以更新所述第一分组以及所述多个第二分组。
进一步地,所述直到检测到迭代停止条件,得到所述目标超参数的步骤包括:
当检测到当前分组数量等于预设数量时,停止迭代演化计算;
基于第一子目标模型的性能指标和多个第二子目标模型的性能指标,在当前超参数集中确定所述目标超参数。
进一步地,所述在超参数集中确定所述第一设备对应的第一分组的超参数,以供所述第一分组中的设备基于所述第一分组的超参数进行联邦学习,得到所述第一分组对应的第一子目标模型的步骤之前,包括:
获取参与联邦学习的所述第一设备和所述多个第二设备之间的通信性能数据,并基于所述通信性能数据确定所述第一设备对应的第一分组以及所述多个第二设备各自对应的第二分组。
进一步地,所述基于演化计算的联邦学习装置包括:
联邦学习模块,用于在超参数集中确定所述第一设备对应的第一分组的超参数,以供所述第一分组中的设备基于所述第一分组的超参数进行联邦学习,得到所述第一分组对应的第一子目标模型;
迭代演化计算模块,用于接收多个第二设备发送的第二子目标模型的性能指标,基于所述第一子目标模型的性能指标、所述多个第二子目标模型的性能指标以及所述超参数集进行迭代演化计算,得到目标超参数,其中,所述第二子目标模型是所述第二设备对应的第二分组中的设备进行联邦学习得到的;
训练模块,用于所述第一设备和多个第二设备基于所述目标超参数确定各自的初始模型参数,所述第一设备和多个第二设备基于各自的所述初始模型参数进行联邦学习得到目标模型。
此外,为实现上述目的,本发明还提供一种设备,所述设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的基于演化计算的联邦学习程序,所述基于演化计算的联邦学习程序被所述处理器执行时实现上述任一项所述的基于演化计算的联邦学习方法的步骤。
此外,为实现上述目的,本发明还提供一种可读存储介质,所述可读存储介质上存储有基于演化计算的联邦学习程序,所述基于演化计算的联邦学习程序被处理器执行时实现上述任一项所述的基于演化计算的联邦学习方法的步骤。
本发明在超参数集中确定所述第一设备对应的第一分组的超参数,以供所述第一分组中的设备基于所述第一分组的超参数进行联邦学习,得到所述第一分组对应的第一子目标模型,而后接收多个第二设备发送的第二子目标模型的性能指标,基于所述第一子目标模型的性能指标、所述多个第二子目标模型的性能指标以及所述超参数集进行迭代演化计算,得到目标超参数,其中,所述第二子目标模型是所述第二设备对应的第二分组中的设备进行联邦学习得到的,接下来所述第一设备和多个第二设备基于所述目标超参数确定各自的初始模型参数,所述第一设备和多个第二设备基于各自的所述初始模型参数进行联邦学习得到目标模型。通过演化计算实现在联邦学习优化模型参数的基础上,同步优化联邦学习的模型超参数,从而避免人为手动调整超参数,在提升联邦学习中超参数优化效率的同时,显著提升了联邦学习模型的性能。
附图说明
图1是本发明实施例方案涉及的硬件运行环境中设备的结构示意图;
图2为本发明基于演化计算的联邦学习方法第一实施例的流程示意图;
图3为本发明基于演化计算的联邦学习装置实施例的功能模块示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
如图1所示,图1是本发明实施例方案涉及的硬件运行环境中设备的结构示意图。
如图1所示,该设备可以包括:处理器1001,例如CPU,网络接口1004,用户接口1003,存储器1005,通信总线1002。其中,通信总线1002用于实现这些组件之间的连接通信。用户接口1003可以包括显示屏(Display)、输入单元比如键盘(Keyboard),可选用户接口1003还可以包括标准的有线接口、无线接口。网络接口1004可选的可以包括标准的有线接口、无线接口(如WI-FI接口)。存储器1005可以是高速RAM存储器,也可以是稳定的存储器(non-volatile memory),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储装置。
本领域技术人员可以理解,图1中示出的目标检测系统结构并不构成对设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
如图1所示,作为一种存储介质的存储器1005中可以包括操作系统、网络通信模块、用户接口模块以及基于演化计算的联邦学习程序。
在图1所示的设备中,网络接口1004主要用于连接后台服务器,与后台服务器进行数据通信;用户接口1003主要用于连接用户端,与用户端进行数据通信;而处理器1001可以用于调用存储器1005中存储的基于演化计算的联邦学习程序。
在本实施例中,设备包括:存储器1005、处理器1001及存储在所述存储器1005上并可在所述处理器1001上运行的基于演化计算的联邦学习程序,其中,处理器1001调用存储器1005中存储的基于演化计算的联邦学习程序时,执行本申请各个实施例提供的基于演化计算的联邦学习方法的步骤。
本发明还提供一种基于演化计算的联邦学习方法,参照图2,图2为本发明基于演化计算的联邦学习方法第一实施例的流程示意图。
本发明实施例提供了基于演化计算的联邦学习方法的实施例,需要说明的是,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
在本实施例中,该基于演化计算的联邦学习方法包括:
步骤S100,在超参数集中确定所述第一设备对应的第一分组的超参数,以供所述第一分组中的设备基于所述第一分组的超参数进行联邦学习,得到所述第一分组对应的第一子目标模型;
在本实施例中,有多个联邦学习参与方,假设有n个参与方,用设备用S表示。每一个参与方有自己的本地私有训练数据,所有的私有训练数据满足独立同分布。所有的参与方随机选取自身的一小部分,例如10%的隐私不敏感数据,作为公开的验证数据集,用于验证训练好的联邦学习模型的性能。所有的参与方互相发送交换自身的公开验证数据集,从而使得每个参与方都持有所有参与方的验证数据集。
具体地,步骤S100之前包括:获取参与联邦学习的所述第一设备和所述多个第二设备之间的通信性能数据,并基于所述通信性能数据确定所述第一设备对应的第一分组以及所述多个第二设备各自对应的第二分组。
对联邦学习的所有参与方进行分组,即确定各个分组中包括哪些参与方。首次进行分组时,将所有n个参与方平均分组,假设分为k组,每一组有t=n/k个参与方。第一设备为联邦学习的所有参与方中的任一参与方,第二设备为除第一设备外的其他参与方。分组依据可以是所有参与方与其它每个参与方通信多次,如3次,记录和各个参与方的平均通信时间(网络传输时间)α和网络带宽β,得到网路延迟σ
根据值σ从小到大,对所有参与方排序,其中,a,b是人为设定的系数。从第一个参与方P1开始,P1选取前t-1个σ值最小的参与方,组成一组。下一个未成组的参与方,选取前t-1个未成组的σ值最小的参与方,组成第二组。以此类推,知道所有的参与方都成组。联邦学习参与方被分为容量为t的k个小组,其中k=n/t。需要说明的是,当n个参与方无法平均分配时,余下的参与方分别随机分配到多个分组中。
需要说明的是,首次获取的这些超参数是根据历史经验预先设置好的。超参数进行向量转化,神经网络的超参数包括学习率,网络层数,每层卷积核维度等,在进行向量转化前,可以进行简单处理,如把学习率l取log对数,用l的对数logl来间接存储学习率,这样便于向量转化。向量转化采用现有技术,如进行Gray编码,得到多个超参数ω向量,第j组参与方超参数向量记为ωj。
具体地,在超参数集中确定第一分组对应的超参数,利用超参数初始化本地机器学习模型参数,参与方之间进行联邦学习,直至模型收敛,停止联邦学习,输出第一分组的联邦学习的模型,记为第一子目标模型。
需要说明的是,第一分组中的t个参与方互相传输自身的计算性能以及本地训练数据数量大小,其中,计算性能可以用CPU频率和核心数量得到,计算性能=CPU频率*核心数量,根据计算性能ξ和训练数据数量大小λ,得到参数μ,
选取第一分组中μ值最大的参与方,作为第一分组进行联邦训练的主导方。这样,选定的主导方计算性能较好,训练数据数量较小。
步骤S200,接收多个第二设备发送的第二子目标模型的性能指标,基于所述第一子目标模型的性能指标、所述多个第二子目标模型的性能指标以及所述超参数集进行迭代演化计算,得到目标超参数,其中,所述第二子目标模型是所述第二设备对应的第二分组中的设备进行联邦学习得到的;
具体地,步骤S200包括:
步骤S210,基于所述第一子目标模型的性能指标、所述多个第二子目标模型的性能指标以及所述超参数集进行演化计算,得到更新后的超参数集,且以供所述第一设备调整所述第一分组、所述多个第二设备调整所述第二分组;
在本实施例中,多个第二分组分别确定各组的主导方,采用与第一分组确定主导方的相同方法,在此不再赘述。在超参数集中确定第二分组对应的超参数,利用超参数初始化第二分组中各个设备(参与方)的本地机器学习模型参数,参与方之间进行联邦学习,直至模型收敛,停止联邦学习,输出第二分组的联邦学习的模型,记为第二子目标模型。
利用演化计算的原理根据第一子目标模型以及多个第二子目标模型的性能指标,在超参数集中确定待保留的超参数,并根据待保留的超参数优化超参数集,得到更新后的超参数集,同时根据各个子目标模型的性能指标对超参数进行筛选从而调整第一分组和多个第二分组。
具体地,步骤S210包括:
步骤S211,基于所述第一子目标模型的性能指标、所述多个第二子目标模型的性能指标,对所述超参数集中的超参数进行排序,在排序后的各个超参数中得到待保留的超参数;
在本实施例中,依据子目标模型的性能指标由优到劣,将各个子目标模型对应的超参数排序,根据排序后的超参数确定待保留的超参数。待保留的超参数包括两部分,第一部分:在排序后的超参数中,选取一定数量性能最优的超参数;第二部分,在排序后的超参数中,随机选取一定数量性能较优的超参数。其中,保留的具体数量根据实际情况确定。举例说明,在排序后的超参数中,选取性能最好的20%超参数保留下来,然后在性能排名20%-60%的超参数中,随机选取一半的超参数保留下来,那么在这个例子中,第一预设数量等于超参数的总数量的40%,超参数的总数量与分组数量相等,即超参数的总数量的40%也就是分组数量的40%。。
步骤S212,基于所述待保留的超参数更新所述超参数集。
具体地,步骤S212包括:
步骤a,在所述待保留的超参数中选取第一待转换超参数,以对所述待转换超参数的预设位置的数值进行更新,获得所述扩充超参数;和/或,
步骤b,在所述待保留的超参数中选取第二待转换超参数和第三待转换超参数,将所述第二待转换超参数与所述第三待转换超参数进行数值交换,以获得所述扩充超参数;
步骤c,基于所述待保留的超参数以及所述扩充超参数,更新所述超参数集;
在本实施例中,使用交叉,变异的方法,根据待保留的超参数生成扩充超参数。其中,演化计算的交叉是一种根据两个个体通过交叉生成新的个体的方法。在待保留的超参数中选取两个超参数,随机交换超参数相应位置的数值,将交换数值之后得到的一个超参数输出,作为一个扩充超参数。演化计算的变异为对一个超参向量随机选取几个位置,将数值随机改变,生成变异后的新超参数。第二预设数量为扩充超参数的个数,根据实际情况指定,如超参数的总数量的40%,超参数的总数量与分组数量相等,即超参数的总数量的40%也就是分组数量的40%。
进一步地,步骤c包括:获取随机超参数,并将所述待保留的超参数、所述扩充超参数以及所述随机超参数作为更新后的所述超参数集;
在本实施例中,计算分组的数量,并求分组的数量与待保留的超参数对应的第一预设数量以及扩充超参数对应的第二预设数量的差值,该差值作为第三预设数量,也就是说,第一预设值、第二预设值和第三预设值的和等于分组的数量。例如,第一预设值等于分组数量的40%,第二预设值等于分组数量的40%,则第三预设值等于分组数量的20%.。接下来,获取与第三预设数量相等的随机超参数。
进一步地,待保留的超参数是本轮演化计算中保留下来的相对性能较优的超参数,扩充超参数是根据待保留的超参数进行交叉和/或变异操作得到的,随机超参数是根据历史经验值预先设置的,将待保留的超参数、扩充超参数以及随机超参数作为新一轮演化计算中各分组所需的超参数,即更新所述超参数集。再次利用更新后的超参数集进行新一轮的联邦学习及演化计算。
进一步地,步骤S210还包括:
步骤S213,基于所述第一子目标模型的性能指标、所述多个第二子目标模型的性能指标,对所述超参数集中的超参数进行排序,在排序后的各个超参数中得到待淘汰超参数;
步骤S214,将所述待淘汰超参数对应的多个设备重新进行分组,以更新所述第一分组以及所述多个第二分组。
在本实施例中,第一设备接收多个第二设备发送的第二子目标模型的性能指标,根据第一子目标模型的性能指标、多个第二子目标模型的性能指标,在超参数集中确定待淘汰超参数。其中,第一子目标模型的性能指标是将第一子目标模型在验证数据集上测试得到的,如准确率,F1分数等。依据第一子目标模型和多个第二子目标模型的性能指标由优到劣,将各个子目标模型对应的超参数排序,其中,每次可以选择一个性能指标,也可以选择多个性能指标参考。将模型的性能指标最差的子目标模型对应的超参数确定为待淘汰超参数。待淘汰超参数对应的分组中的设备将被随机重新平均分配到其它组中,从而多个第二设备调整其对应的第二分组,第一设备调整第一分组,此时的分组总数量减1。需要说明的是,待淘汰超参数对应的分组可能是第一分组,也可能是任意一个第二分组。
步骤S220,基于调整后第一分组、多个第二分组以及更新后的超参数集进行迭代演化计算,直到检测到迭代停止条件,得到目标超参数。
具体地,步骤S220包括:
步骤S221,当检测到当前分组数量等于预设数量时,停止迭代演化计算;
步骤S222,基于第一子目标模型的性能指标和多个第二子目标模型的性能指标,在当前超参数集中确定所述目标超参数。
在本实施例中,将待保留的超参数、扩充超参数以及随机超参数作为新一轮演化计算中各组所需的超参数,继续执行步骤S100,进行迭代演化计算。在迭代演化计算的过程中,每一轮迭代后分组数量减少1组,当检测到当前分组只剩下2组时,则停止迭代演化计算,即预设数量等于2。
依据最后这2分组联邦学习得到的2子目标模型的性能指标进行比较,模型性能好的子目标模型对应的超参数作为目标超参数。
本实施例将联邦学习的众多参与方分为多个组,每一组在一个超参数定义的模型上进行联邦学习。不同组之间的超参数不同,通过验证集测试,比较不同超参数的优劣,并且可以筛选保留优质的超参数,同时随机生成新的超参数。不断演化计算迭代过程中,不同组逐渐合并,最终所有分组的参与方合并为一个大组,且超参数优胜劣汰,最终得到合适的超参数。
步骤S300,所述第一设备和多个第二设备基于所述目标超参数确定各自的初始模型参数,所述第一设备和多个第二设备基于各自的所述初始模型参数进行联邦学习得到目标模型。
在本实施例中,通过演化计算实现在联邦学习优化模型参数的基础上,同步优化联邦学习的模型超参数,从而确定了目标超参数,第一设备和多个第二设备基于利用目标超参数初始化本地机器学习模型参数,所有参与方之间联合进行联邦学习,直至模型收敛,停止联邦学习,输出联邦学习的目标模型。
本发明在超参数集中确定所述第一设备对应的第一分组的超参数,以供所述第一分组中的设备基于所述第一分组的超参数进行联邦学习,得到所述第一分组对应的第一子目标模型,而后接收多个第二设备发送的第二子目标模型的性能指标,基于所述第一子目标模型的性能指标、所述多个第二子目标模型的性能指标以及所述超参数集进行迭代演化计算,得到目标超参数,其中,所述第二子目标模型是所述第二设备对应的第二分组中的设备进行联邦学习得到的,接下来所述第一设备和多个第二设备基于所述目标超参数确定各自的初始模型参数,所述第一设备和多个第二设备基于各自的所述初始模型参数进行联邦学习得到目标模型。通过演化计算实现在联邦学习优化模型参数的基础上,同步优化联邦学习的模型超参数,从而避免人为手动调整超参数,在提升联邦学习中超参数优化效率的同时,显著提升了联邦学习模型的性能。
本发明进一步提供一种基于演化计算的联邦学习装置,参照图3,图3为本发明基于演化计算的联邦学习装置实施例的功能模块示意图。
联邦学习模块10,用于在超参数集中确定所述第一设备对应的第一分组的超参数,以供所述第一分组中的设备基于所述第一分组的超参数进行联邦学习,得到所述第一分组对应的第一子目标模型;
迭代演化计算模块20,用于接收多个第二设备发送的第二子目标模型的性能指标,基于所述第一子目标模型的性能指标、所述多个第二子目标模型的性能指标以及所述超参数集进行迭代演化计算,得到目标超参数,其中,所述第二子目标模型是所述第二设备对应的第二分组中的设备进行联邦学习得到的;
训练模块30,用于所述第一设备和多个第二设备基于所述目标超参数确定各自的初始模型参数,所述第一设备和多个第二设备基于各自的所述初始模型参数进行联邦学习得到目标模型。
进一步地,所述迭代演化计算模块20还用于:
基于所述第一子目标模型的性能指标、所述多个第二子目标模型的性能指标以及所述超参数集进行演化计算,得到更新后的超参数集,且以供所述第一设备调整所述第一分组、所述多个第二设备调整所述第二分组;
基于调整后第一分组、多个第二分组以及更新后的超参数集进行迭代演化计算,直到检测到迭代停止条件,得到所述目标超参数。
进一步地,所述迭代演化计算模块20还用于:
基于所述第一子目标模型的性能指标、所述多个第二子目标模型的性能指标,对所述超参数集中的超参数进行排序,在排序后的各个超参数中得到待保留的超参数;
基于所述待保留的超参数更新所述超参数集。
进一步地,所述迭代演化计算模块20还用于:
在所述待保留的超参数中选取第一待转换超参数,以对所述待转换超参数的预设位置的数值进行更新,获得所述扩充超参数;和/或,
在所述待保留的超参数中选取第二待转换超参数和第三待转换超参数,将所述第二待转换超参数与所述第三待转换超参数进行数值交换,以获得所述扩充超参数;
基于所述待保留的超参数以及所述扩充超参数,更新所述超参数集。
进一步地,所述迭代演化计算模块20还用于:
获取随机超参数,并将所述待保留的超参数、所述扩充超参数以及所述随机超参数作为更新后的所述超参数集;
所述在超参数集中确定第一分组对应的超参数的步骤包括:
在更新后的所述超参数集中确定第一分组对应的超参数。
进一步地,所述迭代演化计算模块20还用于:
基于所述第一子目标模型的性能指标、所述多个第二子目标模型的性能指标,对所述超参数集中的超参数进行排序,在排序后的各个超参数中得到待淘汰超参数;
将所述待淘汰超参数对应的多个设备重新进行分组,以更新所述第一分组以及所述多个第二分组。
进一步地,所述迭代演化计算模块20还用于:
当检测到当前分组数量等于预设数量时,停止迭代演化计算;
基于第一子目标模型的性能指标和多个第二子目标模型的性能指标,在当前超参数集中确定所述目标超参数。
进一步地,所述基于演化计算的联邦学习装置还包括:
分组模块,用于获取参与联邦学习的所述第一设备和所述多个第二设备之间的通信性能数据,并基于所述通信性能数据确定所述第一设备对应的第一分组以及所述多个第二设备各自对应的第二分组。
此外,本发明实施例还提出一种可读存储介质,所述可读存储介质上存储有基于演化计算的联邦学习程序,所述基于演化计算的联邦学习程序被处理器执行时实现上述各个实施例中基于演化计算的联邦学习方法的步骤。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者系统中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个可读存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台系统设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (11)
1.一种基于演化计算的联邦学习方法,其特征在于,应用于第一设备,所述联邦学习方法包括:
在超参数集中确定所述第一设备对应的第一分组的超参数,以供所述第一分组中的设备基于所述第一分组的超参数进行联邦学习,得到所述第一分组对应的第一子目标模型;
接收多个第二设备发送的第二子目标模型的性能指标,基于所述第一子目标模型的性能指标、所述多个第二子目标模型的性能指标以及所述超参数集进行迭代演化计算,得到目标超参数,其中,所述第二子目标模型是所述第二设备对应的第二分组中的设备进行联邦学习得到的;
所述第一设备和多个第二设备基于所述目标超参数确定各自的初始模型参数,所述第一设备和多个第二设备基于各自的所述初始模型参数进行联邦学习得到目标模型。
2.如权利要求1所述的基于演化计算的联邦学习方法,其特征在于,所述接收所述多个第二设备发送的第二子目标模型的性能指标,基于所述第一子目标模型的性能指标、所述多个第二子目标模型的性能指标以及所述超参数集进行迭代演化计算,得到目标超参数的步骤包括:
基于所述第一子目标模型的性能指标、所述多个第二子目标模型的性能指标以及所述超参数集进行演化计算,得到更新后的超参数集,且以供所述第一设备调整所述第一分组、所述多个第二设备调整所述第二分组;
基于调整后第一分组、多个第二分组以及更新后的超参数集进行迭代演化计算,直到检测到迭代停止条件,得到所述目标超参数。
3.如权利要求2所述的基于演化计算的联邦学习方法,其特征在于,所述基于所述第一子目标模型的性能指标、所述多个第二子目标模型的性能指标以及所述超参数集进行演化计算,得到更新后的超参数集的步骤包括:
基于所述第一子目标模型的性能指标、所述多个第二子目标模型的性能指标,对所述超参数集中的超参数进行排序,在排序后的各个超参数中得到待保留的超参数;
基于所述待保留的超参数更新所述超参数集。
4.如权利要求3所述的基于演化计算的联邦学习方法,其特征在于,所述基于所述待保留的超参数更新所述超参数集的步骤包括:
在所述待保留的超参数中选取第一待转换超参数,以对所述待转换超参数的预设位置的数值进行更新,获得所述扩充超参数;和/或,
在所述待保留的超参数中选取第二待转换超参数和第三待转换超参数,将所述第二待转换超参数与所述第三待转换超参数进行数值交换,以获得所述扩充超参数;
基于所述待保留的超参数以及所述扩充超参数,更新所述超参数集。
5.如权利要求4所述的基于演化计算的联邦学习方法,其特征在于,所述基于所述待保留的超参数以及所述扩充超参数,更新所述超参数集的步骤包括:
获取随机超参数,并将所述待保留的超参数、所述扩充超参数以及所述随机超参数作为更新后的所述超参数集;
所述在超参数集中确定第一分组对应的超参数的步骤包括:
在更新后的所述超参数集中确定第一分组对应的超参数。
6.如权利要求2所述的基于演化计算的联邦学习方法,其特征在于,所述得到更新后的超参数集,以供所述第一设备调整所述第一分组、所述多个第二设备调整所述第二分组的步骤包括:
基于所述第一子目标模型的性能指标、所述多个第二子目标模型的性能指标,对所述超参数集中的超参数进行排序,在排序后的各个超参数中得到待淘汰超参数;
将所述待淘汰超参数对应的多个设备重新进行分组,以更新所述第一分组以及所述多个第二分组。
7.如权利要求2所述的基于演化计算的联邦学习方法,其特征在于,所述直到检测到迭代停止条件,得到所述目标超参数的步骤包括:
当检测到当前分组数量等于预设数量时,停止迭代演化计算;
基于第一子目标模型的性能指标和多个第二子目标模型的性能指标,在当前超参数集中确定所述目标超参数。
8.如权利要求1至7中任一项所述的基于演化计算的联邦学习方法,其特征在于,所述在超参数集中确定所述第一设备对应的第一分组的超参数,以供所述第一分组中的设备基于所述第一分组的超参数进行联邦学习,得到所述第一分组对应的第一子目标模型的步骤之前,包括:
获取参与联邦学习的所述第一设备和所述多个第二设备之间的通信性能数据,并基于所述通信性能数据确定所述第一设备对应的第一分组以及所述多个第二设备各自对应的第二分组。
9.一种基于演化计算的联邦学习装置,其特征在于,所述基于演化计算的联邦学习装置包括:
联邦学习模块,用于在超参数集中确定所述第一设备对应的第一分组的超参数,以供所述第一分组中的设备基于所述第一分组的超参数进行联邦学习,得到所述第一分组对应的第一子目标模型;
迭代演化计算模块,用于接收多个第二设备发送的第二子目标模型的性能指标,基于所述第一子目标模型的性能指标、所述多个第二子目标模型的性能指标以及所述超参数集进行迭代演化计算,得到目标超参数,其中,所述第二子目标模型是所述第二设备对应的第二分组中的设备进行联邦学习得到的;
训练模块,用于所述第一设备和多个第二设备基于所述目标超参数确定各自的初始模型参数,所述第一设备和多个第二设备基于各自的所述初始模型参数进行联邦学习得到目标模型。
10.一种设备,其特征在于,所述设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的基于演化计算的联邦学习程序,所述基于演化计算的联邦学习程序被所述处理器执行时实现如权利要求1至8中任一项所述的基于演化计算的联邦学习方法的步骤。
11.一种可读存储介质,其特征在于,所述可读存储介质上存储有所述基于演化计算的联邦学习程序,所述基于演化计算的联邦学习程序被处理器执行时实现如权利要求1至8中任一项所述的基于演化计算的联邦学习方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010567731.XA CN111709534A (zh) | 2020-06-19 | 2020-06-19 | 基于演化计算的联邦学习方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010567731.XA CN111709534A (zh) | 2020-06-19 | 2020-06-19 | 基于演化计算的联邦学习方法、装置、设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111709534A true CN111709534A (zh) | 2020-09-25 |
Family
ID=72541552
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010567731.XA Pending CN111709534A (zh) | 2020-06-19 | 2020-06-19 | 基于演化计算的联邦学习方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111709534A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112598138A (zh) * | 2020-12-22 | 2021-04-02 | 百度在线网络技术(北京)有限公司 | 数据处理方法、装置、联邦学习系统和电子设备 |
CN112862057A (zh) * | 2021-04-07 | 2021-05-28 | 京东数字科技控股股份有限公司 | 一种建模方法、装置、电子设备和可读介质 |
CN112884164A (zh) * | 2021-03-18 | 2021-06-01 | 中国地质大学(北京) | 面向智能移动终端实现的联邦机器学习迁移方法与系统 |
CN112884163A (zh) * | 2021-03-18 | 2021-06-01 | 中国地质大学(北京) | 基于联邦机器学习算法与云端反馈的组合服务评估方法与系统 |
CN112884165A (zh) * | 2021-03-18 | 2021-06-01 | 中国地质大学(北京) | 面向联邦机器学习的全流程服务迁移方法与系统 |
CN113159279A (zh) * | 2021-03-18 | 2021-07-23 | 中国地质大学(北京) | 基于神经网络与深度学习的跨域知识协助方法与系统 |
CN113312180A (zh) * | 2021-06-07 | 2021-08-27 | 北京大学 | 一种基于联邦学习的资源分配优化方法及系统 |
WO2022267870A1 (zh) * | 2021-06-24 | 2022-12-29 | 中兴通讯股份有限公司 | 指标优化方法及服务器、计算机可读存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109492420A (zh) * | 2018-12-28 | 2019-03-19 | 深圳前海微众银行股份有限公司 | 基于联邦学习的模型参数训练方法、终端、系统及介质 |
US20190227980A1 (en) * | 2018-01-22 | 2019-07-25 | Google Llc | Training User-Level Differentially Private Machine-Learned Models |
CN110503207A (zh) * | 2019-08-28 | 2019-11-26 | 深圳前海微众银行股份有限公司 | 联邦学习信用管理方法、装置、设备及可读存储介质 |
CN110633806A (zh) * | 2019-10-21 | 2019-12-31 | 深圳前海微众银行股份有限公司 | 纵向联邦学习系统优化方法、装置、设备及可读存储介质 |
CN111178524A (zh) * | 2019-12-24 | 2020-05-19 | 中国平安人寿保险股份有限公司 | 基于联邦学习的数据处理方法、装置、设备及介质 |
-
2020
- 2020-06-19 CN CN202010567731.XA patent/CN111709534A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190227980A1 (en) * | 2018-01-22 | 2019-07-25 | Google Llc | Training User-Level Differentially Private Machine-Learned Models |
CN109492420A (zh) * | 2018-12-28 | 2019-03-19 | 深圳前海微众银行股份有限公司 | 基于联邦学习的模型参数训练方法、终端、系统及介质 |
CN110503207A (zh) * | 2019-08-28 | 2019-11-26 | 深圳前海微众银行股份有限公司 | 联邦学习信用管理方法、装置、设备及可读存储介质 |
CN110633806A (zh) * | 2019-10-21 | 2019-12-31 | 深圳前海微众银行股份有限公司 | 纵向联邦学习系统优化方法、装置、设备及可读存储介质 |
CN111178524A (zh) * | 2019-12-24 | 2020-05-19 | 中国平安人寿保险股份有限公司 | 基于联邦学习的数据处理方法、装置、设备及介质 |
Non-Patent Citations (3)
Title |
---|
HANGYU ZHU等: "Multi-Objective Evolutionary Federated Learning", IEEE TRANSACTIONS ON NEURAL NETWORKS AND LEARNING SYSTEMS, vol. 31, no. 4, 24 June 2019 (2019-06-24), pages 1310, XP011781504, DOI: 10.1109/TNNLS.2019.2919699 * |
吴佳;陈森朋;陈修云;周瑞;: "基于强化学习的模型选择和超参数优化", 电子科技大学学报, no. 02, 30 March 2020 (2020-03-30), pages 98 - 104 * |
陈性元等: "大数据安全技术研究进展", 中国科学:信息科学, vol. 50, no. 1, 31 January 2020 (2020-01-31), pages 25 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112598138A (zh) * | 2020-12-22 | 2021-04-02 | 百度在线网络技术(北京)有限公司 | 数据处理方法、装置、联邦学习系统和电子设备 |
CN112598138B (zh) * | 2020-12-22 | 2023-07-21 | 百度在线网络技术(北京)有限公司 | 数据处理方法、装置、联邦学习系统和电子设备 |
CN113159279B (zh) * | 2021-03-18 | 2023-06-23 | 中国地质大学(北京) | 基于神经网络与深度学习的跨域知识协助方法与系统 |
CN112884163A (zh) * | 2021-03-18 | 2021-06-01 | 中国地质大学(北京) | 基于联邦机器学习算法与云端反馈的组合服务评估方法与系统 |
CN112884165A (zh) * | 2021-03-18 | 2021-06-01 | 中国地质大学(北京) | 面向联邦机器学习的全流程服务迁移方法与系统 |
CN113159279A (zh) * | 2021-03-18 | 2021-07-23 | 中国地质大学(北京) | 基于神经网络与深度学习的跨域知识协助方法与系统 |
CN112884163B (zh) * | 2021-03-18 | 2023-06-23 | 中国地质大学(北京) | 基于联邦机器学习算法与云端反馈的组合服务评估方法与系统 |
CN112884164A (zh) * | 2021-03-18 | 2021-06-01 | 中国地质大学(北京) | 面向智能移动终端实现的联邦机器学习迁移方法与系统 |
CN112884164B (zh) * | 2021-03-18 | 2023-06-23 | 中国地质大学(北京) | 面向智能移动终端实现的联邦机器学习迁移方法与系统 |
CN112862057A (zh) * | 2021-04-07 | 2021-05-28 | 京东数字科技控股股份有限公司 | 一种建模方法、装置、电子设备和可读介质 |
CN112862057B (zh) * | 2021-04-07 | 2023-11-03 | 京东科技控股股份有限公司 | 一种建模方法、装置、电子设备和可读介质 |
CN113312180A (zh) * | 2021-06-07 | 2021-08-27 | 北京大学 | 一种基于联邦学习的资源分配优化方法及系统 |
WO2022267870A1 (zh) * | 2021-06-24 | 2022-12-29 | 中兴通讯股份有限公司 | 指标优化方法及服务器、计算机可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111709534A (zh) | 基于演化计算的联邦学习方法、装置、设备及介质 | |
US11295208B2 (en) | Robust gradient weight compression schemes for deep learning applications | |
CN111723948A (zh) | 基于演化计算的联邦学习方法、装置、设备及介质 | |
CN108197652B (zh) | 用于生成信息的方法和装置 | |
CN113762530B (zh) | 面向隐私保护的精度反馈联邦学习方法 | |
CN112465043B (zh) | 模型训练方法、装置和设备 | |
CN111563275A (zh) | 一种基于生成对抗网络的数据脱敏方法 | |
CN110874648A (zh) | 联邦模型的训练方法、系统和电子设备 | |
CN111709535A (zh) | 基于演化计算的联邦学习方法、装置、中心服务器及介质 | |
JP2023523029A (ja) | 画像認識モデル生成方法、装置、コンピュータ機器及び記憶媒体 | |
CN114943345B (zh) | 基于主动学习和模型压缩的联邦学习全局模型训练方法 | |
CN113379042B (zh) | 保护数据隐私的业务预测模型训练方法及装置 | |
CN112436992B (zh) | 基于图卷积网络的虚拟网络映射方法及装置 | |
CN117236421B (zh) | 一种基于联邦知识蒸馏的大模型训练方法 | |
CN110969243A (zh) | 防止隐私泄漏的对抗生成网络的训练方法及装置 | |
WO2022252694A1 (zh) | 神经网络优化方法及其装置 | |
CN113592078A (zh) | 一种基于人工智能的深度学习网络训练方法 | |
CN106776925A (zh) | 一种移动终端用户性别的预测方法、服务器和系统 | |
CN115660116A (zh) | 基于稀疏适配器的联邦学习方法及系统 | |
CN115775026A (zh) | 一种基于组织相似度的联邦学习方法 | |
CN116645130A (zh) | 基于联邦学习与gru结合的汽车订单需求量预测方法 | |
CN109871942B (zh) | 神经网络的训练方法和装置、系统、存储介质 | |
CN114492742A (zh) | 神经网络结构搜索、模型发布方法、电子设备和存储介质 | |
Tembine | Mean field stochastic games: Convergence, Q/H-learning and optimality | |
CN116976461A (zh) | 联邦学习方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |