CN110263921B - 一种联邦学习模型的训练方法及装置 - Google Patents

一种联邦学习模型的训练方法及装置 Download PDF

Info

Publication number
CN110263921B
CN110263921B CN201910579324.8A CN201910579324A CN110263921B CN 110263921 B CN110263921 B CN 110263921B CN 201910579324 A CN201910579324 A CN 201910579324A CN 110263921 B CN110263921 B CN 110263921B
Authority
CN
China
Prior art keywords
terminal
parameters
network layers
local
learning model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910579324.8A
Other languages
English (en)
Other versions
CN110263921A (zh
Inventor
黄安埠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
WeBank Co Ltd
Original Assignee
WeBank Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by WeBank Co Ltd filed Critical WeBank Co Ltd
Priority to CN201910579324.8A priority Critical patent/CN110263921B/zh
Publication of CN110263921A publication Critical patent/CN110263921A/zh
Application granted granted Critical
Publication of CN110263921B publication Critical patent/CN110263921B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

本发明涉及人工智能领域,公开了一种联邦学习模型的训练方法及装置,其中方法包括:服务器在下发第k+1个训练周期的全局参数之前,根据参与联邦学习模型的终端的连接状态,确定第一终端和第二终端;第一终端为无法连接的终端;第二终端为连接正常的终端;服务器确定第一终端中贡献度满足设定条件的M个网络层的第二局部参数;服务器根据第k个训练周期的第一终端的M个网络层的第二局部参数和第二终端上传的N个网络层的第一局部参数,确定第k+1个训练周期下发至第二终端的N个网络层的全局参数,用以降低由于终端掉线导致对模型的训练效果的影响的问题。

Description

一种联邦学习模型的训练方法及装置
技术领域
本发明涉及人工智能领域,尤其涉及一种联邦学习模型的训练方法及装置。
背景技术
随着计算机技术的发展,越来越多的技术应用在金融领域,传统金融业正在逐步向科技金融(Fintech)转变,联邦学习模型的技术也不例外,但由于金融行业的安全性、实时性要求,也对技术提出的更高的要求。
在深度学习技术领域中,用户可以通过训练模型得到预测效果较好的深度学习网络模型,然而,预测效果较好的深度学习网络模型通常具有较为复杂的网络结构,从而占据较大的存储空间。相应地,在使用深度学习网络模型对待预测数据进行预测时,由于深度学习网络模型的结构较为复杂,可能会造成计算资源的浪费,使得预测的效率较差。
通常对于复杂的网络模型都有数千万甚至上亿的模型参数,可以通过分布式的联邦学习模型进行计算,以提高模型的训练效率。但是,当前的联邦学习产品场景中,由于受到设备带宽、网络等因素的影响,参与联邦训练的设备经常出现掉线的情况。
发明内容
本发明实施例提供一种联邦学习模型的训练方法及装置,用以降低由于终端掉线导致对模型的训练效果的影响的问题。
第一方面,本发明实施例提供了一种联邦学习模型的训练方法,所述方法包括:
服务器在下发第k+1个训练周期的全局参数之前,根据参与联邦学习模型的终端的连接状态,确定第一终端和第二终端;所述第一终端为无法连接的终端;所述第二终端为连接正常的终端;所述联邦学习模型包括N个网络层;
所述服务器确定所述第一终端在第k个训练周期上传的N个网络层的第一局部参数对应所述联邦学习模型的N个网络层的全局参数的贡献度;所述贡献度用于表征所述第一局部参数在所述联邦学习模型的N个网络层的提取特征的有效程度;M、N、k为正整数;
所述服务器确定所述第一终端中贡献度满足设定条件的M个网络层的第二局部参数;M小于或等于N;
所述服务器根据第k个训练周期的第一终端的M个网络层的第二局部参数和第二终端上传的N个网络层的第一局部参数,确定第k+1个训练周期下发至第二终端的N个网络层的全局参数,以使所述第二终端根据所述第k+1个训练周期的N个网络层的全局参数更新所述第二终端的本地模型。
一种可能的实现方式,所述服务器确定所述第一终端在第k个训练周期上传的所述N个网络层的第一局部参数对应所述联邦学习模型的N个网络层的全局参数的贡献度,包括:
所述服务器将所有终端在第k个训练周期上传的N个网络层的第一局部参数的加权平均值,确定为所述联邦学习模型的N个网络层的第一全局参数;
所述服务器根据所述第一终端在第k个训练周期上传的第i个网络层的第一局部参数与所述第i个网络层的第一全局参数的差的绝对值,确定为所述第一终端在第k个训练周期上传的第i个网络层的第一局部参数对应所述联邦学习模型第i个网络层的全局参数的贡献度;所述i小于或等于N。
一种可能的实现方式,所述服务器确定所述第一终端在第k个训练周期上传的所述N个网络层的第一局部参数对应所述联邦学习模型的N个网络层的全局参数的贡献度,包括:
所述服务器将所有第二终端在第k个训练周期上传的所述N个网络层的第一局部参数的加权平均值,确定为所述联邦学习模型的N个网络层的第一全局参数;
所述服务器将所述第一终端在第k个训练周期上传的第i个网络层的第一局部参数与所述第i个网络层的第一全局参数的差的绝对值,确定为在第k个训练周期上传的第i个网络层的第一局部参数对应所述联邦学习模型第i个网络层的全局参数的贡献度;所述i小于或等于N。
一种可能的实现方式,所述设定条件为所述第一终端的贡献度大于预设阈值;所述贡献度是根据所述第i个网络层的第一局部参数与所述第i个网络层的第一全局参数的差的绝对值大小进行排序。
第二方面,本发明实施例提供了一种联邦学习模型的训练装置,所述装置包括:
监控单元,用于在下发第k+1个训练周期的全局参数之前,根据参与联邦学习模型的终端的连接状态,确定第一终端和第二终端;所述第一终端为无法连接的终端;所述第二终端为连接正常的终端;所述联邦学习模型包括N个网络层;
处理单元,用于确定所述第一终端在第k个训练周期上传的N个网络层的第一局部参数对应所述联邦学习模型的N个网络层的全局参数的贡献度;所述贡献度用于表征所述第一局部参数在所述联邦学习模型的N个网络层的提取特征的有效程度;k为正整数;所述服务器确定所述第一终端中贡献度满足设定条件的M个网络层的第二局部参数;M小于或等于N;所述服务器根据第k个训练周期的第一终端的M个网络层的第二局部参数和第二终端上传的N个网络层的第一局部参数,确定第k+1个训练周期下发至第二终端的N个网络层的全局参数,以使所述第二终端根据所述第k+1个训练周期的N个网络层的全局参数更新所述第二终端的本地模型。
一种可能的实现方式,所述处理单元,具体用于:将所有终端在第k个训练周期上传的N个网络层的第一局部参数的加权平均值,确定为所述联邦学习模型的N个网络层的第一全局参数;根据所述第一终端在第k个训练周期上传的第i个网络层的第一局部参数与所述第i个网络层的第一全局参数的差的绝对值,确定为所述第一终端在第k个训练周期上传的第i个网络层的第一局部参数对应所述联邦学习模型第i个网络层的全局参数的贡献度;所述i小于或等于N。
一种可能的实现方式,所述处理单元,具体用于:将所有第二终端在第k 个训练周期上传的所述N个网络层的第一局部参数的加权平均值,确定为所述联邦学习模型的N个网络层的第一全局参数;将所述第一终端在第k个训练周期上传的第i个网络层的第一局部参数与所述第i个网络层的第一全局参数的差的绝对值,确定为在第k个训练周期上传的第i个网络层的第一局部参数对应所述联邦学习模型第i个网络层的全局参数的贡献度;所述i小于或等于N。
一种可能的实现方式,所述设定条件为所述第一终端的贡献度大于预设阈值;所述贡献度是根据所述第i个网络层的第一局部参数与所述第i个网络层的第一全局参数的差的绝对值大小进行排序。
第三方面,本发明实施例还提供了一种计算机可读存储介质,包括指令,当其在计算机上运行时,使得计算机执行如上述第一方面或第二方面所述的联邦学习模型的训练方法。
第四方面,本发明实施例还提供了一种计算机程序产品,当其在计算机上运行时,使得计算机执行如上述第一方面或第二方面所述的联邦学习模型的训练方法。
本发明实施例中,针对第一终端掉线导致第一终端无法继续参与模型训练的问题,通过评估第一终端上传的第一局部参数对整个模型的贡献度,保留贡献度高的第一局部参数,以保证第一终端训练的第一局部参数可以加入至第二终端的模型训练,有效降低了由于第一终端掉线导致的对模型训练效果的影响。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简要介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种联邦学习模型的训练方法对应的架构示意图;
图2为本发明实施例提供的一种联邦学习模型的训练方法对应的流程示意图;
图3为本发明实施例提供的一种联邦学习模型的训练方法示意图;
图4为本发明实施例提供的一种联邦学习模型的训练装置的结构示意图;
图5为本发明实施例提供的一种服务器的结构示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步地详细描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
应理解,本申请实施例中“至少一个”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B的情况,其中A、B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一(项)个”或其类似表达,是指的这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a、b或c中的至少一项(个),可以表示:a,b,c,a和b,a和c,b和c,或a、b和c,其中a、b、c可以是单个,也可以是多个。
下面结合附图对本申请实施例进行详细说明。首先,介绍本申请实施例提供的系统,之后介绍实施本申请实施例提供的方法的装置,最后介绍本申请实施例提供的方法的具体实现方式。
如图1所示,本发明实施例提供一种联邦学习模型的训练方法,包括:
步骤101、服务器选择一部分的终端1-3,利用联邦学习进行模型训练;终端从服务器中下载全局模型文件;
其中,以下以选择终端1和2为例,其他终端可以参考终端1和2的实施方式。其中,全局模型文件包括模型的全局参数;终端1、终端2为利用联邦学习进行模型训练的任一终端。
步骤102、终端1根据全局模型参数更新本地模型的参数;终端1通过本地的数据集对模型进行训练,将训练后的本地模型参数作为终端1的第一局部参数。终端2根据全局模型参数更新本地模型的参数;终端2通过本地的数据集对模型进行训练,将训练后的本地模型参数作为终端2的第一局部参数。
步骤103、终端1将训练后的第一局部参数上传到服务器。终端2将训练后的第一局部参数上传到服务器。
步骤104、服务器获取到终端1和终端2上传的第一局部参数后聚合更新,确定为当前训练周期的全局参数。
重复上面的步骤,直到全局模型收敛为止。
可以看到整个过程中,模型参数的传输是制约着训练效率的一个非常重要的因素,由于多个终端参与模型的训练,因此,终端的掉线导致模型在该终端无法继续进行,如图1所示,有三台终端1-3进行联邦学习模型的训练,如果此时由于终端2出现网络中断的情况,通常的做法是直接把这些中断的设备从联邦学习模型的训练中移除。但这样做,也会去除了终端中的参与训练的数据,而该数据正是联邦学习模型训练非常重要的元素,导致模型训练的效果不佳。因此,如何在保证准确度的前提下,有效提高模型训练效率,是联邦学习的场景需要考虑的问题。
基于上述问题,在联邦学习的场景下,本发明实施例提供一种联邦学习模型的训练的方法,包括:
步骤一、服务器在第k+1个训练周期下发全局参数之前,根据参与联邦学习模型的终端的连接状态,确定第一终端和第二终端;所述第一终端为无法连接的终端;所述第二终端为连接正常的终端;k为正整数;
具体的,服务器可以在每个训练周期下发新的全局参数时,检测当前的客户端状态,确定第一终端和第二终端,仅针对第二终端下发该训练周期的全局参数。
步骤二、服务器根据第k个训练周期的第一终端上传的局部参数和第二终端上传的第一局部参数,确定第k+1个训练周期下发至第二终端的全局参数;
步骤三、服务器将确定的全局参数下发至第二终端;
步骤四、第二终端根据所述第k+1个训练周期的全局参数更新所述第二终端的本地模型,并上传第k+1个训练周期的第一局部参数。
通过上述方案,可以利用掉线的第一终端上传的第一局部参数,在第k+1 个训练周期中,通过第二终端进行模型的训练,有效降低了由于第一终端掉线导致的对模型训练效果的影响。
进一步的,在联邦学习中,每一个本地模型学习到的特征会有所不同,如果某一层变化不大,那么这一层的参数更新并没有对整体性能有提升,因为联邦学习的数据分布通常都是非独立同分布的,也就是说,每一个本地模型学习到的特征会有所不同,如果某一层与服务器的模型相比变化不大,那么这一层的参数更新并没有对整体性能有提升,并没有考虑每一个训练层对结果的贡献度。即,对于某一些训练层来说,该层的参数对其贡献度低,是指将这一训练层上的参数去掉对输出的特征图像的结果的影响不大;反之,称为贡献度高。
基于上述问题,本发明实施例提供一种下面如图2所示,以执行主体为存储有联邦学习模型的训练装置为例,说明本申请实施例提供的联邦学习模型的训练方法,该方法可包括以下步骤:
步骤201:服务器在下发第k+1个训练周期的全局参数之前,根据参与联邦学习模型的终端的连接状态,确定第一终端和第二终端;
其中,所述第一终端为无法连接的终端;所述第二终端为连接正常的终端;需要说明的是,服务器可以在每个训练周期开始之前,检测第一终端和第二终端的连接状态,以确定是否可以正常发送第k+1个训练周期的全局参数。因此,每个训练周期的第一终端和第二终端可能不同,可以根据实际的终端在每个训练周期的连接状态确定。
具体的,可以设置服务端下发第k+1个训练周期的全局参数之前,先检测当前终端的连接状态,设确定第k个训练周期的全局参数下发时,与服务端连接的集合为C1,下发第k+1个训练周期的全局参数之前的连接集合为C2,故本次被移除的终端的集合为:C3=C1-C2
步骤202:服务器确定所述第一终端在第k个训练周期上传的N个网络层的第一局部参数对应所述联邦学习模型的N个网络层的全局参数的贡献度;
其中,所述联邦学习模型包括N个网络层;所述贡献度用于表征所述第一局部参数在所述联邦学习模型的N个网络层的提取特征的有效程度;M、N、k 为正整数;
步骤203:服务器确定所述第一终端中贡献度满足设定条件的M个网络层的第二局部参数;M小于或等于N;
步骤204:服务器根据第k个训练周期的第一终端的M个网络层的第二局部参数和第二终端上传的N个网络层的第一局部参数,确定第k+1个训练周期下发至第二终端的N个网络层的全局参数,以使所述第二终端根据所述第k+1个训练周期的N个网络层的全局参数更新所述第二终端的本地模型。
针对第一终端掉线导致第一终端无法继续参与模型训练的问题,通过评估第一终端上传的第一局部参数对整个模型的贡献度,保留贡献度高的第一局部参数,以保证第一终端训练的第一局部参数可以加入至第二终端的模型训练,有效降低了由于第一终端掉线导致的对模型训练效果的影响。
一种实施例中,所述服务器确定所述第一终端在第k个训练周期上传的所述N个网络层的第一局部参数对应所述联邦学习模型的N个网络层的全局参数的贡献度,包括:
所述服务器将所有终端在第k个训练周期上传的N个网络层的第一局部参数的加权平均值,确定为所述联邦学习模型的N个网络层的第一全局参数;
所述服务器根据所述第一终端在第k个训练周期上传的第i个网络层的第一局部参数与所述第i个网络层的第一全局参数的差的绝对值,确定为所述第一终端在第k个训练周期上传的第i个网络层的第一局部参数对应所述联邦学习模型第i个网络层的全局参数的贡献度;所述i小于或等于N。
具体的,可以包括:
对于任意c∈C3,设第一终端在第k个训练周期训练的第一局部参数的模型为modelc,服务器在第k+1个训练周期确定全局参数后的模型为model。
举例来说,设modelc的第i层为
Figure GDA0003003302760000091
model的第i层为layeri,则贡献度可以为同一层的模型参数的差的绝对值,i为正整数;即,可以表示为以下公式:
Figure GDA0003003302760000092
举例来说,以卷积神经网络为例,第i层网络中,通过卷积核在第i训练层的参数,与卷积核在model的第i层的参数的差的绝对值之和,作为该层的贡献度。
另一种实施例中,所述服务器确定所述第一终端在第k个训练周期上传的所述N个网络层的第一局部参数对应所述联邦学习模型的N个网络层的全局参数的贡献度,包括:
所述服务器将所有第二终端在第k个训练周期上传的所述N个网络层的第一局部参数的加权平均值,确定为所述联邦学习模型的N个网络层的第一全局参数;
所述服务器将所述第一终端在第k个训练周期上传的第i个网络层的第一局部参数与所述第i个网络层的第一全局参数的差的绝对值,确定为在第k个训练周期上传的第i个网络层的第一局部参数对应所述联邦学习模型第i个网络层的全局参数的贡献度;所述i小于或等于N。
具体的,可以包括:
对于任意c∈C3,设第一终端在第k个训练周期更新的模型为modelc,服务器根据上传的所有终端确定的全局参数对应的模型为modelk。设modelc的第i 层的参数为
Figure GDA0003003302760000101
modelk的第i层的参数为
Figure GDA0003003302760000102
则将同一层的模型参数的差的绝对值,确定为贡献度,可以表示为以下公式:
Figure GDA0003003302760000103
举例来说,若训练模型为卷积神经网络模型,则第i层的参数可以为第i 层的卷积核的权重值。以卷积神经网络为例,第i层网络中,通过卷积核在第 i训练层的参数,与卷积核在modelk的第i层的参数的差的绝对值之和,作为该层的贡献度。
另一种可能的实现方式,参数在训练层的贡献度还可以通过激活函数值确定,即第i层网络中,通过参数在第i训练层的激活函数值,对其所有参数的激活函数值与modelk的第i层的参数的激活函数值的差的绝对值之和,从高到低排序,排序小于预设阈值的参数不参与全局参数的聚合。其中,激活函数值用于表征该参数在该训练层的作用,因此,根据激活函数值,也可以表征参数在训练层的贡献度。
一种可能的实现方式,参数在训练层的贡献度还可以通过参数作用在该训练层的参数和输出的特征图像的互信息值确定。互信息值就是衡量这个参数对该训练层输出的特征图像的重要性,参数的互信息值越低就说明去掉该参数对该训练层的输出的特征图像的结果影响较小。
应理解,根据公式确定训练层的参数的贡献度的方式仅仅是举例说明,本申请并不限制通过其他方法或公式确定训练层对应的参数的贡献度。
一种可能的实现方式,所述设定条件为所述第一终端的贡献度大于预设阈值;所述贡献度是根据所述第i个网络层的第一局部参数与所述第i个网络层的第一全局参数的差的绝对值大小进行排序。
其中,贡献度越大,说明其学习到的特征变化越大,对模型的贡献越高,对其所有参数层按贡献度从高到低排序,排序小于预设阈值的参数不参与全局参数的合并。例如,将排序最低的20%的网络层对应的第一局部参数删除。
具体的,可以包括:
步骤一、分别计算每一个模型c∈C3的每一层的贡献度,对每一个模型c,按
Figure GDA0003003302760000111
的值从大到小排序。
步骤二、对被删除的设备c,我们保留该模型最重要的前K层,即贡献度
Figure GDA0003003302760000112
最大的前K层。
结合上述实施例,如图3所示,为服务器获取的3个终端上传的第k个训练周期训练的本地模型的第一局部参数,包括:modelk 1发送的第二层的参数二的参数值c1 2,第五层的参数五的参数值c1 5;modelk 2发送的第三层的参数三的参数值c2 3,第五层的参数五的参数值c2 5;modelk 3发送的第一层的参数一的参数值c3 1,第二层的参数二的参数值c3 2;第四层的参数四的参数值c3 4。若确定第一终端为终端1,且确定终端1贡献度大的层为第二层,则确定第二局部参数为终端1的参数二。
服务器通过聚合第一局部参数和第二局部参数,确定出全局参数;即,第 k+1个周期的全局参数为:参数一的参数值为c3 1,参数二的参数值为c1 2+c3 2,参数三的参数值为c2 3,参数四的参数值为c3 4,参数五的参数值为c2 5
当然,还可以通过其他聚合方式确定出全局参数,在此不做限定。
因此,在下一周期的模型的训练时,被删除的终端c不再参与训练,但其模型中贡献度
Figure GDA0003003302760000113
最大的前K层仍然保留在服务器中的全局参数中,以提高模型的训练效果,加快模型的训练速度,并避免增加不必要的模型的传输负担。
一种可能的实现方式,服务器可以在训练周期内,向第一终端发送连接请求;若确定所述第一终端连接恢复正常,向所述第一终端下发当前训练周期的全局参数,以将所述第一终端重新加入联邦学习模型的训练。
通过上述实施例,可以充分利用被删除的终端的训练数据和模型,通过保留最重要的网络层来参与到下一个周期的模型的训练,有效降低了由于第一终端掉线导致的对模型训练效果的影响,提高了模型的训练效率和训练精度。
基于相同的发明构思,本申请实施例提供一种联邦学习模型的训练装置,可存储网络模型,并通过执行本申请实施例提供的联邦学习模型的训练方法,对存储的网络模型进行压缩,其中,网络模型包括训练层,用于对训练层的输入特征图像进行卷积操作。该联邦学习模型的训练装置可以是具备存储和计算功能的装置,如服务器、终端设备(如手机、平板电脑等)或计算机等设备,或芯片等。
在一种可能的设计中,联邦学习模型的训练装置还可用于通过网络模型对输入图像进行图像处理,例如,在通过本申请实施例提供的联邦学习模型的训练方法对网络模型进行压缩后,联邦学习模型的训练装置还使用训练后的网络模型识别输入图像,例如,联邦学习模型的训练装置可识别输入图像中包含的门牌号码,或识别输入图像中的动物的种类。
需要说明的是,一种可能的实现方式,联邦学习模型的训练装置可仅用于根据本申请实施例提供的方法对网络模型进行训练,而不需要对输入特征图像进行识别等处理。还可以包括图像处理单元,用于根据网络模型传输的输入图像进行图像处理,如进行图像识别。
本申请实施例中,图像输入的装置可以是图像通过拍照等方式获取输入图像,并将输入图发送至联邦学习模型的训练装置,或者,可以是图像存储装置,可通过一定的存储空间进行输入图像的存储,并在需要对输入图像进行处理时将输入图像发送至联邦学习模型的训练装置,此时输入装置可以是通用串行总线闪存盘(universal serial bus flashdisk,USB flash disk)、移动硬盘、安全数码卡(SD卡)、硬盘(hard disk drive,HDD)或固态硬盘 (solid-statedrive,SSD)等存储设备,应理解,输入装置可以是与联邦学习模型的训练装置相分离的移动存储设备,也可以是与联邦学习模型的训练装置固定连接的各式存储器。
应理解,以上联邦学习模型的训练装置的结构仅仅是举例说明,本申请并不限制联邦学习模型的训练装置具有其他的结构。
如图4所示,为本申请实施例提供的的一种联邦学习模型的训练装置的示意图,该装置可适用于如图1,用于实现本申请实施例中联邦学习模型的训练装置的功能。如图4所示,所述装置包括:
监控单元401,用于在下发第k+1个训练周期的全局参数之前,根据参与联邦学习模型的终端的连接状态,确定第一终端和第二终端;所述第一终端为无法连接的终端;所述第二终端为连接正常的终端;
处理单元402,用于确定所述第一终端在第k个训练周期上传的N个网络层的第一局部参数对应所述联邦学习模型的N个网络层的全局参数的贡献度;所述联邦学习模型包括N个网络层;所述贡献度用于表征所述第一局部参数在所述联邦学习模型的N个网络层的提取特征的有效程度;k为正整数;所述服务器确定所述第一终端中贡献度满足设定条件的M个网络层的第二局部参数;M小于或等于N;所述服务器根据第k个训练周期的第一终端的M个网络层的第二局部参数和第二终端上传的N个网络层的第一局部参数,确定第k+1个训练周期下发至第二终端的N个网络层的全局参数,以使所述第二终端根据所述第k+1个训练周期的N个网络层的全局参数更新所述第二终端的本地模型。
一种可能的实现方式,处理单元402,具体用于:将所有终端在第k个训练周期上传的N个网络层的第一局部参数的加权平均值,确定为所述联邦学习模型的N个网络层的第一全局参数;根据所述第一终端在第k个训练周期上传的第 i个网络层的第一局部参数与所述第i个网络层的第一全局参数的差的绝对值,确定为所述第一终端在第k个训练周期上传的第i个网络层的第一局部参数对应所述联邦学习模型第i个网络层的全局参数的贡献度;所述i小于或等于N。
一种可能的实现方式,处理单元402,具体用于:将所有第二终端在第k个训练周期上传的所述N个网络层的第一局部参数的加权平均值,确定为所述联邦学习模型的N个网络层的第一全局参数;将所述第一终端在第k个训练周期上传的第i个网络层的第一局部参数与所述第i个网络层的第一全局参数的差的绝对值,确定为在第k个训练周期上传的第i个网络层的第一局部参数对应所述联邦学习模型第i个网络层的全局参数的贡献度;所述i小于或等于N。
一种可能的实现方式,所述设定条件为所述第一终端的贡献度排序大于预设阈值;所述排序是根据所述第i个网络层的第一局部参数与所述第i个网络层的第一全局参数的差的绝对值大小进行排序。
应理解,图4仅示出了装置的一种模块化的划分方式,本申请并不限制装置具有其他模块划分方式,例如,装置可模块化为处理单元、存储单元,其中,存储单元可用于存储处理单元执行上述功能所需的应用程序、指令和相应数据,从而处理单元与存储单元相互配合,令装置实现本申请实施例提供的联邦学习模型的训练装置所具有的功能。
如图5所示,本申请实施例提供的一种联邦学习模型的训练装置的结构包括处理器601、存储器602以及通信接口603,其中,存储器602用于存储应用程序、指令和数据(如存储本申请实施例涉及的网络模型);通信接口603 可用于支持联邦学习模型的训练装置进行通信,如,通信接口603可用于接收输入图像,或接收其他消息、数据,通信接口603可以是光纤链路接口,以太网接口或者铜线接口等;处理器601可调用存储器602中的应用程序和/或指令,实现本申请实施例提供的联邦学习模型的训练方法。
应理解,处理器601、存储器602以及通信接口603可以是两两之间相互分离的结构,并通过连接介质实现两两之间的相互连接;或者,处理器601、存储器602以及通信接口603,或处理器601、存储器602或者通信接口603 中的部分也可以集成为一体。本申请实施例中并不限制处理器601、存储器602 以及通信接口603之间的连接介质,处理器601、存储器602以及通信接口603 之间可以通过总线连接,也可以通过其他连接介质实现连接。
还应理解,联邦学习模型的训练装置可以是具有如图5所示结构的服务器、计算机或终端设备,也可以是芯片或其他装置。
示例性的,如图5所示装置及装置的各模块,也可由具有如图5所示结构的联邦学习模型的训练装置实现。具体的,可以由处理器601实现如图4所示的处理单元402 的功能。
应理解,处理器601可以是中央处理单元(CPU),处理器601还可以是其他通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。其中,通用处理器可以是微处理器或者是任何常规的处理器等。
存储器602可以包括只读存储器和随机存取存储器,并向处理器提供指令和数据。存储器602还可以是易失性存储器或非易失性存储器,或可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(read-only memory,ROM)、可编程只读存储器(programmable ROM,PROM)、可擦除可编程只读存储器(erasable PROM,EPROM)、电可擦除可编程只读存储器 (electrically EPROM,EEPROM)或闪存。易失性存储器可以是随机存取存储器(random access memory,RAM),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用,例如静态随机存取存储器(static RAM, SRAM)、动态随机存取存储器(DRAM)、同步动态随机存取存储器 (synchronous DRAM,SDRAM)、双倍数据速率同步动态随机存取存储器 (double data date SDRAM,DDR SDRAM)、增强型同步动态随机存取存储器 (enhanced SDRAM,ESDRAM)、同步连接动态随机存取存储器(synchlink DRAM,SLDRAM)和直接内存总线随机存取存储器(direct rambus RAM, DR RAM)。
以上主要从联邦学习模型的训练装置所执行的操作的角度对本申请实施例提供的方案进行了介绍。可以理解的是,联邦学习模型的训练装置为了实现上述功能,可包含执行各个功能相应的硬件结构和/或软件模块。本领域技术人员应该很容易意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,本申请能够以硬件、计算机软件或硬件和计算机软件的结合形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用和设计约束条件。

Claims (10)

1.一种联邦学习模型的训练方法,其特征在于,所述方法包括:
服务器在下发第k+1个训练周期的全局参数之前,根据参与联邦学习模型的终端的连接状态,确定第一终端和第二终端;所述第一终端为无法连接的终端;所述第二终端为连接正常的终端;所述联邦学习模型包括N个网络层;
所述服务器确定所述第一终端在第k个训练周期上传的N个网络层的第一局部参数对应所述联邦学习模型的N个网络层的全局参数的贡献度;所述贡献度用于表征所述第一局部参数在所述联邦学习模型的N个网络层的提取特征的有效程度;M、N、k为正整数;
所述服务器确定所述第一终端中贡献度满足设定条件的M个网络层的第二局部参数;M小于或等于N;
所述服务器根据第k个训练周期的第一终端的M个网络层的第二局部参数和第二终端上传的N个网络层的第一局部参数,确定第k+1个训练周期下发至第二终端的N个网络层的全局参数,以使所述第二终端根据所述第k+1个训练周期的N个网络层的全局参数更新所述第二终端的本地模型。
2.根据权利要求1所述的方法,其特征在于,所述服务器确定所述第一终端在第k个训练周期上传的所述N个网络层的第一局部参数对应所述联邦学习模型的N个网络层的全局参数的贡献度,包括:
所述服务器将所有终端在第k个训练周期上传的N个网络层的第一局部参数的加权平均值,确定为所述联邦学习模型的N个网络层的第一全局参数;
所述服务器根据所述第一终端在第k个训练周期上传的第i个网络层的第一局部参数与所述第i个网络层的第一全局参数的差的绝对值,确定为所述第一终端在第k个训练周期上传的第i个网络层的第一局部参数对应所述联邦学习模型第i个网络层的全局参数的贡献度;所述i小于或等于N。
3.根据权利要求1所述的方法,其特征在于,所述服务器确定所述第一终端在第k个训练周期上传的所述N个网络层的第一局部参数对应所述联邦学习模型的N个网络层的全局参数的贡献度,包括:
所述服务器将所有第二终端在第k个训练周期上传的所述N个网络层的第一局部参数的加权平均值,确定为所述联邦学习模型的N个网络层的第一全局参数;
所述服务器将所述第一终端在第k个训练周期上传的第i个网络层的第一局部参数与所述第i个网络层的第一全局参数的差的绝对值,确定为在第k个训练周期上传的第i个网络层的第一局部参数对应所述联邦学习模型第i个网络层的全局参数的贡献度;所述i小于或等于N。
4.根据权利要求2或3所述的方法,其特征在于,所述设定条件为所述第一终端的贡献度大于预设阈值。
5.一种联邦学习模型的训练装置,其特征在于,所述装置包括:
监控单元,用于在下发第k+1个训练周期的全局参数之前,根据参与联邦学习模型的终端的连接状态,确定第一终端和第二终端;所述第一终端为无法连接的终端;所述第二终端为连接正常的终端;
处理单元,用于确定所述第一终端在第k个训练周期上传的N个网络层的第一局部参数对应所述联邦学习模型的N个网络层的全局参数的贡献度;所述联邦学习模型包括N个网络层;所述贡献度用于表征所述第一局部参数在所述联邦学习模型的N个网络层的提取特征的有效程度;k为正整数;确定所述第一终端中贡献度满足设定条件的M个网络层的第二局部参数;M小于或等于N;根据第k个训练周期的第一终端的M个网络层的第二局部参数和第二终端上传的N个网络层的第一局部参数,确定第k+1个训练周期下发至第二终端的N个网络层的全局参数,以使所述第二终端根据所述第k+1个训练周期的N个网络层的全局参数更新所述第二终端的本地模型。
6.根据权利要求5所述的装置,其特征在于,所述处理单元,具体用于:将所有终端在第k个训练周期上传的N个网络层的第一局部参数的加权平均值,确定为所述联邦学习模型的N个网络层的第一全局参数;根据所述第一终端在第k个训练周期上传的第i个网络层的第一局部参数与所述第i个网络层的第一全局参数的差的绝对值,确定为所述第一终端在第k个训练周期上传的第i个网络层的第一局部参数对应所述联邦学习模型第i个网络层的全局参数的贡献度;所述i小于或等于N。
7.根据权利要求5所述的装置,其特征在于,所述处理单元,具体用于:将所有第二终端在第k个训练周期上传的所述N个网络层的第一局部参数的加权平均值,确定为所述联邦学习模型的N个网络层的第一全局参数;将所述第一终端在第k个训练周期上传的第i个网络层的第一局部参数与所述第i个网络层的第一全局参数的差的绝对值,确定为在第k个训练周期上传的第i个网络层的第一局部参数对应所述联邦学习模型第i个网络层的全局参数的贡献度;所述i小于或等于N。
8.根据权利要求6或7所述的装置,其特征在于,所述设定条件为所述第一终端的贡献度大于预设阈值。
9.一种计算机可读存储介质,其特征在于,包括指令,当其在计算机上运行时,使得计算机执行如权利要求1至4任一项所述的方法。
10.一种计算机程序产品,其特征在于,当其在计算机上运行时,使得计算机执行如权利要求1至4任一项所述的方法。
CN201910579324.8A 2019-06-28 2019-06-28 一种联邦学习模型的训练方法及装置 Active CN110263921B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910579324.8A CN110263921B (zh) 2019-06-28 2019-06-28 一种联邦学习模型的训练方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910579324.8A CN110263921B (zh) 2019-06-28 2019-06-28 一种联邦学习模型的训练方法及装置

Publications (2)

Publication Number Publication Date
CN110263921A CN110263921A (zh) 2019-09-20
CN110263921B true CN110263921B (zh) 2021-06-04

Family

ID=67923287

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910579324.8A Active CN110263921B (zh) 2019-06-28 2019-06-28 一种联邦学习模型的训练方法及装置

Country Status (1)

Country Link
CN (1) CN110263921B (zh)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112907309A (zh) * 2019-11-19 2021-06-04 阿里巴巴集团控股有限公司 模型更新方法、资源推荐方法、装置、设备及系统
US11379727B2 (en) * 2019-11-25 2022-07-05 Shanghai United Imaging Intelligence Co., Ltd. Systems and methods for enhancing a distributed medical network
CN113128528A (zh) * 2019-12-27 2021-07-16 无锡祥生医疗科技股份有限公司 超声影像深度学习分布式训练系统和训练方法
CN111210003B (zh) * 2019-12-30 2021-03-19 深圳前海微众银行股份有限公司 纵向联邦学习系统优化方法、装置、设备及可读存储介质
EP4089549A4 (en) * 2020-01-14 2023-01-25 Guangdong Oppo Mobile Telecommunications Corp., Ltd. METHOD AND DEVICE FOR RESOURCE PLANNING AND READABLE STORAGE MEDIUM
CN111275188B (zh) * 2020-01-20 2021-04-13 深圳前海微众银行股份有限公司 横向联邦学习系统优化方法、设备及可读存储介质
CN111369042B (zh) * 2020-02-27 2021-09-24 山东大学 一种基于加权联邦学习的无线业务流量预测方法
CN111768008B (zh) * 2020-06-30 2023-06-16 平安科技(深圳)有限公司 联邦学习方法、装置、设备和存储介质
CN111950740B (zh) * 2020-07-08 2022-05-24 光之树(北京)科技有限公司 联邦学习模型的训练方法及装置
CN112052938A (zh) * 2020-08-14 2020-12-08 同盾控股有限公司 基于知识联邦的多端模型压缩方法、任务预测方法、装置及电子设备
CN112001502B (zh) * 2020-08-24 2022-06-21 平安科技(深圳)有限公司 高延时网络环境鲁棒的联邦学习训练方法及装置
CN112101528B (zh) * 2020-09-17 2023-10-24 上海交通大学 基于反向传播的终端贡献度量方法
CN112101568A (zh) * 2020-09-17 2020-12-18 上海交通大学 消除终端动态可用偏差的模型更新量聚合方法
CN112116103A (zh) * 2020-09-17 2020-12-22 北京大学 基于联邦学习的个人资质评估方法、装置及系统及存储介质
CN112598150B (zh) * 2020-11-09 2024-03-08 西安君能清洁能源有限公司 一种在智能电厂中基于联邦学习提升火灾检测效果的方法
CN112217706B (zh) * 2020-12-02 2021-03-19 腾讯科技(深圳)有限公司 数据处理方法、装置、设备及存储介质
CN112814854B (zh) * 2020-12-31 2022-04-29 新智数字科技有限公司 基于联合学习的涡轮风机维护方法和装置
CN113315978B (zh) * 2021-05-13 2022-03-15 江南大学 一种基于联邦学习的协作式在线视频边缘缓存方法
CN113222031B (zh) * 2021-05-19 2022-04-12 浙江大学 基于联邦个性化学习的光刻热区检测方法
CN113344131A (zh) * 2021-06-30 2021-09-03 商汤国际私人有限公司 网络训练方法及装置、电子设备和存储介质
CN113902134A (zh) * 2021-09-29 2022-01-07 光大科技有限公司 一种贡献评估处理方法及装置
CN115049011A (zh) * 2022-06-27 2022-09-13 支付宝(杭州)信息技术有限公司 确定联邦学习的训练成员模型贡献度的方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107633242A (zh) * 2017-10-23 2018-01-26 广州视源电子科技股份有限公司 网络模型的训练方法、装置、设备和存储介质
CN109165515A (zh) * 2018-08-10 2019-01-08 深圳前海微众银行股份有限公司 基于联邦学习的模型参数获取方法、系统及可读存储介质
CN109635462A (zh) * 2018-12-17 2019-04-16 深圳前海微众银行股份有限公司 基于联邦学习的模型参数训练方法、装置、设备及介质
CN109754060A (zh) * 2017-11-06 2019-05-14 阿里巴巴集团控股有限公司 一种神经网络机器学习模型的训练方法及装置
CN109886417A (zh) * 2019-03-01 2019-06-14 深圳前海微众银行股份有限公司 基于联邦学习的模型参数训练方法、装置、设备及介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7610264B2 (en) * 2005-02-28 2009-10-27 International Business Machines Corporation Method and system for providing a learning optimizer for federated database systems
US9946799B2 (en) * 2015-04-30 2018-04-17 Microsoft Technology Licensing, Llc Federated search page construction based on machine learning
CN105046366B (zh) * 2015-07-29 2018-06-08 腾讯科技(深圳)有限公司 模型训练方法及装置
US10270599B2 (en) * 2017-04-27 2019-04-23 Factom, Inc. Data reproducibility using blockchains
CN109271870B (zh) * 2018-08-21 2023-12-26 平安科技(深圳)有限公司 行人重识别方法、装置、计算机设备及存储介质
CN109756873A (zh) * 2019-01-28 2019-05-14 哈尔滨工业大学(深圳) 非等局部域的可修复喷泉码设计方法
CN109934512B (zh) * 2019-03-28 2024-02-09 努比亚技术有限公司 一种预测模型的训练方法及系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107633242A (zh) * 2017-10-23 2018-01-26 广州视源电子科技股份有限公司 网络模型的训练方法、装置、设备和存储介质
CN109754060A (zh) * 2017-11-06 2019-05-14 阿里巴巴集团控股有限公司 一种神经网络机器学习模型的训练方法及装置
CN109165515A (zh) * 2018-08-10 2019-01-08 深圳前海微众银行股份有限公司 基于联邦学习的模型参数获取方法、系统及可读存储介质
CN109635462A (zh) * 2018-12-17 2019-04-16 深圳前海微众银行股份有限公司 基于联邦学习的模型参数训练方法、装置、设备及介质
CN109886417A (zh) * 2019-03-01 2019-06-14 深圳前海微众银行股份有限公司 基于联邦学习的模型参数训练方法、装置、设备及介质

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Applied Federated Learning: Improving Google Keyboard Query Suggestions;Timothy Yang 等;《arXiv:1812.02903v1》;20181207;第1-9页 *
Federated Machine Learning: Concept and Applications;Qiang Yang 等;《ACM Transactions on Intelligent Systems and Technology》;20190228;第10卷(第2期);第1-19页 *
网络人工智能关键技术与应用研究;俆晓青 等;《广东通信技术》;20190415;第2-6页 *
踏踏实实地研究人工智能;郭毅可;《自然杂志》;20190425;第41卷(第2期);第79-84页 *

Also Published As

Publication number Publication date
CN110263921A (zh) 2019-09-20

Similar Documents

Publication Publication Date Title
CN110263921B (zh) 一种联邦学习模型的训练方法及装置
CN110309847B (zh) 一种模型压缩方法及装置
CN112052948B (zh) 一种网络模型压缩方法、装置、存储介质和电子设备
CN110969198A (zh) 深度学习模型的分布式训练方法、装置、设备及存储介质
CN109615058A (zh) 一种神经网络模型的训练方法
US20200394448A1 (en) Methods for more effectively moderating one or more images and devices thereof
CN111353591A (zh) 一种计算装置及相关产品
CN116452810A (zh) 一种多层次语义分割方法、装置、电子设备及存储介质
CN115600691A (zh) 联邦学习中的客户端选择方法、系统、装置和存储介质
CN109783033B (zh) 一种适用于异构系统的数据存储方法和电子设备
CN111079930A (zh) 数据集质量参数的确定方法、装置及电子设备
CN111324725B (zh) 一种话题获取方法、终端、计算机可读存储介质
WO2023124654A1 (zh) 一种数据标准化处理方法、装置、电子设备及存储介质
WO2023051035A1 (zh) 机器人的数据传输方法及装置、电子设备、存储介质
US9418343B2 (en) Multistage learner for efficiently boosting large datasets
DE102023103798A1 (de) Automatische fehlervorhersage in rechenzentren
CN113505861B (zh) 基于元学习和记忆网络的图像分类方法及系统
CN116187310A (zh) 一种文档级关系抽取方法、装置、设备及存储介质
CN111382874B (zh) 实现线上机器学习模型的更新迭代的方法和装置
CN114528893A (zh) 机器学习模型训练方法、电子设备及存储介质
CN110717503A (zh) 一种分类方法、装置、电子设备及计算机存储介质
US20230043584A1 (en) Optimization of memory use for efficient neural network execution
US20230143568A1 (en) Intelligent table suggestion and conversion for text
WO2023125521A1 (zh) 一种深度学习模型训练方法、装置及相关设备
WO2024001870A1 (zh) 一种人工智能模型的训练方法及相关设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant