CN116029390A - 一种模型聚合训练方法及装置 - Google Patents
一种模型聚合训练方法及装置 Download PDFInfo
- Publication number
- CN116029390A CN116029390A CN202211712039.7A CN202211712039A CN116029390A CN 116029390 A CN116029390 A CN 116029390A CN 202211712039 A CN202211712039 A CN 202211712039A CN 116029390 A CN116029390 A CN 116029390A
- Authority
- CN
- China
- Prior art keywords
- model
- privacy
- training
- data
- cooperator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种模型聚合训练方法及装置,该方法为:将初始化后的机器学习模型下发给至少一个协作方设备,分别获得至少一个协作方设备发送的模型梯度更新参数,并构建模型梯度更新集合;使用预设测试集进行联邦学习训练任务的全局模型预测,获得本轮模型准确率,对本轮模型准确率进行准确率审查,根据获得的审查结果和模型梯度更新集合,进行基于贝叶斯差分隐私的全局模型更新,获得更新后的全局模型;通过第一隐私会计对全局模型的本轮训练过程进行追踪,获得本轮隐私成本;汇总本轮前的所有训练轮分别对应的最大隐私成本,获得合并隐私消耗;如果合并隐私消耗大于第一预设隐私预算,确定结束联邦训练,获得目标机器学习模型。
Description
技术领域
本发明涉及数据安全领域,尤其涉及一种模型聚合训练方法及装置。
背景技术
目前,在基于大数据技术的数据识别模型、数据分级分类模型、数据操作行为画像模型、数据流转分析模型、数据风险分析模型、数据接口风险分析模型等模型训练中,均需要从海量数据中构建准确又强大的模型。然而,前述基于大数据技术的各种模型依赖于对应基础场景中所分布的数据,因此需要进行多方数据收集。
在汇集多方数据进行模型训练时,不可以收集所有数据到一台服务器进行集中式模型训练,一是因为数据提供方不期望暴露源数据所造成的数据孤岛,二是因为数据集中化会带来单点故障问题,不但会消耗大量计算资源和存储资源,也会遭到大量的外部攻击以致隐私数据泄露。
因此,如何在隐私保护下实现通信资源消耗的降低且实现模型的训练,成为亟待解决的问题。
发明内容
本发明实施例提供一种模型聚合训练方法及装置,用于在隐私保护下实现通信资源消耗的降低且实现模型的训练。
第一方面,提供一种模型聚合训练方法,应用于主训练设备,所述方法包括:
将初始化后的机器学习模型下发给至少一个协作方设备,分别获得所述至少一个协作方设备发送的模型梯度更新参数,并根据获得的至少一个所述模型梯度更新参数,构建模型梯度更新集合;其中,模型梯度更新参数为协作方设备基于本地数据对所述初始化后的机器学习模型进行训练后所获得的;
使用预设测试集进行联邦学习训练任务的全局模型预测,获得本轮模型准确率,并对所述本轮模型准确率进行准确率审查,并根据获得的审查结果和所述模型梯度更新集合,进行基于贝叶斯差分隐私的全局模型更新,获得更新后的全局模型,所述全局模型包括在所述至少一个协作方设备上训练的所有初始化后的机器学习模型;
通过第一隐私会计对所述全局模型的本轮训练过程进行追踪,获得本轮隐私成本;汇总所述本轮前的所有训练轮分别对应的最大隐私成本,获得合并隐私消耗;
如果所述合并隐私消耗大于第一预设隐私预算,确定结束联邦训练,获得目标机器学习模型。
在一种可能的实施方式中,在将所述初始化后的机器学习模型下发给至少一个协作方设备之前,所述方法还包括:
使用贝叶斯差分隐私技术,创建第一隐私会计。
在一种可能的实施方式中,在将所述初始化后的机器学习模型下发给至少一个协作方设备之前,所述方法还包括:
将打包后的联邦学习应用以及依赖包发送给所述至少一个协作方设备中的可移植的轻量容器中,以使所述至少一个协作方设备创建所述初始化后的机器学习模型的本地训练环境;以及,
根据预设联邦学习训练参数中经过认证的协作方集合,确定下发所述初始化后的机器学习模型的至少一个协作方设备。
在一种可能的实施方式中,根据获得的审查结果和所述模型梯度更新集合,进行基于贝叶斯差分隐私的全局模型更新,获得更新后的全局模型,包括:
如果确定所述模型任务预测结果处于预设准确率审查范围,基于动态准确率审查随机率的互斥概率和所述模型梯度更新集合,进行基于贝叶斯差分隐私的全局模型更新,获得更新后的全局模型。
在一种可能的实施方式中,进行基于贝叶斯差分隐私的全局模型更新,包括:
使用次采样高斯噪声机制,结合预设采样估计器,在所述全局模型更新中,进行基于学习机器模型的分层加噪扰动,消除来自所述至少一个协作方设备中的数据的非独立同分布特性。
第二方面,一种模型聚合训练方法,应用于协作方设备,所述方法包括:
响应于接收到的主训练设备发送的初始化后的机器学习模型,对本地数据进行数据预处理,根据获得的预处理后的数据构建本地训练数据集,并创建第二隐私会计;
根据所述本地数据训练集,对所述初始化后的机器学习模型进行本地模型训练,获得模型梯度更新数据;
根据所述模型梯度更新数据和预设发送策略,将所述模型梯度更新数据发送给所述主训练设备;所述预设发送策略用于确定是否跳过梯度检查,直接将所述模型梯度更新数据发送;
根据所述第二隐私会计,进行本地隐私度检查,并根据检查结果确定是否参与联邦训练。
在一种可能的实施方式中,响应于接收到的主训练设备发送的初始化后的机器学习模型,对本地数据进行数据预处理,根据获得的预处理后的数据构建本地训练数据集,并创建第二隐私会计,包括:
在可移植的轻量容器中解包联邦学习应用以及依赖包,并根据所述联邦学习应用以及依赖包构建模型本地训练环境;
对本地源数据进行数据预处理,获得本地训练数据集;所述数据预处理包括区分特征矩阵、处理缺失数据、编码分类数据以及特征缩放中的一项或多项;
使用切片采样或随机采样对预设隐私数据进行隐私放大,获得初始化后的第二隐私会计。
在一种可能的实施方式中,根据所述模型梯度更新数据和预设发送策略,将所述模型梯度更新数据发送给所述主训练设备,包括:
对所述模型梯度更新数据进行数据质量分析,获得免检权重;
如果所述免检权重符合预设范围,则跳过梯度检查,向所述主训练设备上传所述模型梯度更新数据;
如果所述免检权重不符合所述预设范围,则不跳过所述梯度检查,并根据本轮前的全局模型参数值与本轮中的所有协作方设备对应的平均模型参数以及差分校正函数,获得本轮训练后产生的第一贡献值;当所述第一贡献值不小于平均贡献值时,则向主训练设备传递所述模型梯度更新数据。
在一种可能的实施方式中,根据所述第二隐私会计,进行本地隐私度检查,并根据检查结果确定是否参与联邦训练,包括:
使用所述第二隐私会计更新本地隐私消耗,使用中心极限定理进行隐私合并,获得目标隐私成本;
如果所述目标隐私成本超过第二预设隐私成本,确定不参与联邦训练。
第三方面,提供一种模型聚合训练装置,应用于主训练设备,所述装置包括:
第一处理单元,用于将初始化后的机器学习模型下发给至少一个协作方设备,分别获得所述至少一个协作方设备发送的模型梯度更新参数,并根据获得的至少一个所述模型梯度更新参数,构建模型梯度更新集合;其中,模型梯度更新参数为协作方设备基于本地数据对所述初始化后的机器学习模型进行训练后所获得的;
第二处理单元,用于使用预设测试集进行联邦学习训练任务的全局模型预测,获得本轮模型准确率,并对所述本轮模型准确率进行准确率审查,并根据获得的审查结果和所述模型梯度更新集合,进行基于贝叶斯差分隐私的全局模型更新,获得更新后的全局模型,所述全局模型包括在所述至少一个协作方设备上训练的所有初始化后的机器学习模型;
第一获得单元,用于通过第一隐私会计对所述全局模型的本轮训练过程进行追踪,获得本轮隐私成本;汇总所述本轮前的所有训练轮分别对应的最大隐私成本,获得合并隐私消耗;
第二获得单元,用于如果所述合并隐私消耗大于第一预设隐私预算,确定结束联邦训练,获得目标机器学习模型。
在一种可能的实施方式中,在将所述初始化后的机器学习模型下发给至少一个协作方设备之前,所述第一处理单元还用于:
使用贝叶斯差分隐私技术,创建第一隐私会计。
在一种可能的实施方式中,在将所述初始化后的机器学习模型下发给至少一个协作方设备之前,所述第一处理单元还用于:
将打包后的联邦学习应用以及依赖包发送给所述至少一个协作方设备中的可移植的轻量容器中,以使所述至少一个协作方设备创建所述初始化后的机器学习模型的本地训练环境;以及,
根据预设联邦学习训练参数中经过认证的协作方集合,确定下发所述初始化后的机器学习模型的至少一个协作方设备。
在一种可能的实施方式中,所述第二处理单元,用于:
如果确定所述模型任务预测结果处于预设准确率审查范围,基于动态准确率审查随机率的互斥概率和所述模型梯度更新集合,进行基于贝叶斯差分隐私的全局模型更新,获得更新后的全局模型。
在一种可能的实施方式中,所述第二处理单元,用于:
使用次采样高斯噪声机制,结合预设采样估计器,在所述全局模型更新中,进行基于学习机器模型的分层加噪扰动,消除来自所述至少一个协作方设备中的数据的非独立同分布特性。
第四方面,提供一种模型聚合训练装置,应用于协作方设备,所述装置包括:
响应单元,用于响应于接收到的主训练设备发送的初始化后的机器学习模型,对本地数据进行数据预处理,根据获得的预处理后的数据构建本地训练数据集,并创建第二隐私会计;
获得单元,用于根据所述本地数据训练集,对所述初始化后的机器学习模型进行本地模型训练,获得模型梯度更新数据;
发送单元,用于根据所述模型梯度更新数据和预设发送策略,将所述模型梯度更新数据发送给所述主训练设备;所述预设发送策略用于确定是否跳过梯度检查,直接将所述模型梯度更新数据发送;
处理单元,用于根据所述第二隐私会计,进行本地隐私度检查,并根据检查结果确定是否参与联邦训练。
在一种可能的实施方式中,所述响应单元,具体用于:
在可移植的轻量容器中解包联邦学习应用以及依赖包,并根据所述联邦学习应用以及依赖包构建模型本地训练环境;
对本地源数据进行数据预处理,获得本地训练数据集;所述数据预处理包括区分特征矩阵、处理缺失数据、编码分类数据以及特征缩放中的一项或多项;
使用切片采样或随机采样对预设隐私数据进行隐私放大,获得初始化后的第二隐私会计。
在一种可能的实施方式中,所述发送单元,用于:
对所述模型梯度更新数据进行数据质量分析,获得免检权重;
如果所述免检权重符合预设范围,则跳过梯度检查,向所述主训练设备上传所述模型梯度更新数据;
如果所述免检权重不符合所述预设范围,则不跳过所述梯度检查,并根据本轮前的全局模型参数值与本轮中的所有协作方设备对应的平均模型参数以及差分校正函数,获得本轮训练后产生的第一贡献值;当所述第一贡献值不小于平均贡献值时,则向主训练设备传递所述模型梯度更新数据。
在一种可能的实施方式中,所述处理单元,用于:
使用所述第二隐私会计更新本地隐私消耗,使用中心极限定理进行隐私合并,获得目标隐私成本;
如果所述目标隐私成本超过第二预设隐私成本,确定不参与联邦训练。
第五方面,提供一种主训练设备,所述主训练设备包括:
存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如第一方面中的任一方法包括的步骤。
第六方面,提供一种协作方设备,所述协作方设备包括:
存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如第二方面中的任一方法包括的步骤。
第七方面,提供一种存储介质,该存储介质存储有计算机可执行指令,所述计算机可执行指令用于使主训练设备执行第一方面中的任一方法包括的步骤或使协作方设备执行第二方面中的任一方法包括的步骤。
第八方面,提供一种计算机程序产品,当所述计算机程序产品在主训练设备运行时,使主训练设备执行第一方面中的任一方法包括的步骤或使协作方设备执行第二方面中的任一方法包括的步骤。
本发明的实施例提供的技术方案至少带来以下有益效果:
在本发明实施例中,主训练设备可以将初始化后的机器学习模型下发给至少一个协作方设备,分别获得至少一个协作方设备发送的模型梯度更新参数,并根据获得的至少一个模型梯度更新参数,构建模型梯度更新集合;其中,模型梯度更新参数为协作方设备基于本地数据对初始化后的机器学习模型进行训练后所获得的;使用预设测试集进行联邦学习训练任务的全局模型预测,获得本轮模型准确率,并对本轮模型准确率进行准确率审查,并根据获得的审查结果和模型梯度更新集合,进行基于贝叶斯差分隐私的全局模型更新,获得更新后的全局模型,全局模型包括在至少一个协作方设备上训练的所有初始化后的机器学习模型;通过第一隐私会计对全局模型的本轮训练过程进行追踪,获得本轮隐私成本;汇总本轮前的所有训练轮分别对应的最大隐私成本,获得合并隐私消耗;如果合并隐私消耗大于第一预设隐私预算,确定结束联邦训练,获得目标机器学习模型,这样,可以实现在隐私保护下实现通信资源消耗的降低且实现模型的训练。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或通过实施而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本发明。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理,并不构成对本发明的不当限定。
图1为本发明实施例中的应用场景示意图;
图2为本发明实施例中一种模型聚合训练方法的流程图;
图3为本发明实施例中另一种模型聚合训练方法的流程图;
图4为本发明实施例中一种模型聚合训练方法的交互流程图;
图5为本发明实施例中一种模型聚合训练装置的结构框图;
图6为本发明实施例中另一种模型聚合训练装置的结构框图;
图7为本发明实施例中主训练设备的结构示意图;
图8为本发明实施例中协作方设备的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互任意组合。并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
本发明的说明书和权利要求书及上述附图中的术语“第一”和“第二”仅用于区分描述的目的,而不能理解为明示或暗示相对重要性,也不能理解为明示或暗示顺序。此外,术语“包括”以及它们任何变形,意图在于覆盖不排他的保护。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。
目前,如前所述,基于大数据技术的各种模型依赖于对应基础场景中所分布的数据,因此需要进行多方数据收集,但是,在汇集多方数据进行模型训练时,存在多种数据安全问题。
这些数据安全问题限制了对源数据的访问,联邦学习可以在没有源数据共享和集中数据存储的情况下,进行多方数据协作训练,只传递模型训练参数。但联邦学习本身并没有提供理论上的隐私保证,仅交换梯度数据仍然有隐私泄露的风险。例如:在中央服务器侧,可以通过成员推理攻击分析出参与训练的协作方信息;在协作方侧,攻击者可通过梯度分析将训练源数据完全还原,所以需要隐私保护机制进行训练中的隐私跟踪。
常用的隐私保护方法是差分隐私机制,差分隐私机制通过在训练过程中添加噪声达到结果扰乱的目的,从而抵抗差分攻击。但传统的差分隐私机制的隐私组合方式无法提供精确的隐私定义,这样,会导致在同一隐私保护级别上,采用传统的差分隐私机制会需要加噪更多,允许的联邦训练轮会更少,因此最终训练成的全局模型准确率会大幅降低。
同时,在联邦学习训练中,中央服务器作为聚合方所造成的单点局限会造成严重的通信瓶颈,数据传输能力直接受中央服务器带宽的影响,一般可以通过梯度压缩的方式解决梯度通信负载问题,但在隐私保护措施下(如差分隐私机制)的联邦学习架构中,进行如梯度量化、梯度稀疏化的针对传输目标比特大小的梯度模型压缩优化时,需要统计的相关方式,根据数据确定并学习压缩方案,没有办法与协作方对应的差分隐私机制相结合。
因此,如何在隐私保护下实现通信资源消耗的降低且实现模型的训练,成为亟待解决的问题。
鉴于此,本发明提供一种模型聚合训练方法及装置,通过该方法将初始化后的机器学习模型下发给至少一个协作方设备,分别获得至少一个协作方设备发送的模型梯度更新参数,并构建模型梯度更新集合;使用预设测试集进行联邦学习训练任务的全局模型预测,获得本轮模型准确率,对本轮模型准确率进行准确率审查,根据获得的审查结果和模型梯度更新集合,进行基于贝叶斯差分隐私的全局模型更新,获得更新后的全局模型;通过第一隐私会计对全局模型的本轮训练过程进行追踪,获得本轮隐私成本;汇总本轮前的所有训练轮分别对应的最大隐私成本,获得合并隐私消耗;如果合并隐私消耗大于第一预设隐私预算,确定结束联邦训练,获得目标机器学习模型,这样,可以在隐私保护下实现通信资源消耗的降低且实现模型的训练。
介绍完本发明实施例的设计思想之后,下面对本发明实施例中的技术方案适用的应用场景做一些简单介绍,需要说明的是,本发明实施例描述的应用场景是为了更加清楚的说明本发明实施例的技术方案,并不构成对于本发明实施例提供的技术方案的限定,本领域普通技术人员可知,随着新应用场景的出现,本发明实施例提供的技术方案对于类似的技术问题,同样适用。
在具体实施过程中,本发明实施例提供的方案,可以在多个场景下实施并应用,下面举例说明。
1、数据安全场景
在大数据资源存储、应用和开放等环节需要关注数据安全保护,特别是大数据共享过程中要求保护数据安全和共享成本。本发明提供的技术方案可以在数据分级分类场景下,联合统一行业的多方数据共同构建非结构化的分级分类模型,提高分级分类的准确性。
2、金融信用场景
在该场景下,不同的金融机构希望可以综合多方数据提高对用户信用判断的准确度。如果各方拥有不同用户的相同特征,这样就可以采用本发明实施例提供的技术方案,选用中央服务器进行联邦学习。例如,金融应用场景中,会存在一个用户具有多方借贷的情况,例如该用户从一家金融机构借钱支付另外一家金融机构的贷款。为了准确识别出存在前述情况的用户,且不泄露各金融机构的用户列表,可以采用本发明实施例提供的技术方案,并结合一些联邦学习的加密机制,在每一个金融机构中对用户列表进行加密,在联邦中取加密列表的交集,最终解密结果可以获得包含存在前述情况的名单,且不会暴露诚信用户的信息。
请参见图1所示,为发明实施例能够适用的一种场景示意图,该场景中包括多个协作方设备101和主训练设备102,可选的,协作方设备101也可以理解为包含用户数据的设备,主训练设备102可以理解为前述的中央服务器。其中,图1中以3个协作方设备(例如协作方设备101-1、协作方设备101-2、以及协作方设备101-3)与一个主训练设备102进行交互为例进行说明。实际实施时,还可以是多个协作方设备101的个数可以是4个、16个等等,本发明实施例中对此不做限定。
协作方设备101与主训练设备102之间可以通过网络103进行通信连接。该网络103可以是有线网络,也可以是无线网络,例如无线网络可以是移动蜂窝网络,或者可以是无线保真(WIreless-Fidelity,WIFI)网络,当然还可以是其他可能的网络,本发明实施例对此不做限制。
其中,协作方设备101和主训练设备102可以理解为独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是以提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(Content Delivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器,或者云服务器集群,但并不局限于此。
在具体的实施过程中,主训练设备102可以将初始化后的机器学习模型下发给至少一个协作方设备,然后获得至少一个协作方设备101发送的模型梯度更新参数,并构建模型梯度更新集合;使用预设测试集进行联邦学习训练任务的全局模型预测,获得本轮模型准确率,对本轮模型准确率进行准确率审查,根据获得的审查结果和模型梯度更新集合,进行基于贝叶斯差分隐私的全局模型更新,获得更新后的全局模型;通过第一隐私会计对全局模型的本轮训练过程进行追踪,获得本轮隐私成本;汇总本轮前的所有训练轮分别对应的最大隐私成本,获得合并隐私消耗;如果合并隐私消耗大于第一预设隐私预算,确定结束联邦训练,获得目标机器学习模型。
为进一步说明本发明实施例提供的模型聚合训练方法的方案,下面结合附图以及具体实施方式对此进行详细的说明。虽然本发明实施例提供了如下述实施例或附图所示的方法操作步骤,但基于常规或者无需创造性的劳动在所述方法中可以包括更多或者更少的操作步骤。在逻辑上不存在必要因果关系的步骤中,这些步骤的执行顺序不限于本发明实施例提供的执行顺序。所述方法在实际的处理过程中或者装置执行时,可以按照实施例或者附图所示的方法顺序执行或者并行执行(例如并行处理器或者多线程处理的应用环境)。
以下结合图2所示的方法流程图对本发明实施例中模型聚合训练方法进行说明,图2所示的各步骤可以由如图1所示的主训练设备执行。
步骤201:将初始化后的机器学习模型下发给至少一个协作方设备,分别获得至少一个协作方设备发送的模型梯度更新参数,并根据获得的至少一个模型梯度更新参数,构建模型梯度更新集合;其中,模型梯度更新参数为协作方设备基于本地数据对初始化后的机器学习模型进行训练后所获得的。
在本发明实施例中,主训练设备使用贝叶斯差分隐私(bayesian differentialprivacy,BDP)技术,创建第一隐私会计。可选的,第一隐私会计可以称作Bayesian隐私会计,Bayesiany隐私会计可以理解为由Bayesian差分隐私技术构造的隐私追踪用的工具。主训练设备可以使用Bayesian隐私会计实现对全局模型聚合时的隐私跟踪。
在本发明实施例中,主训练设备可以将打包后的联邦学习应用以及依赖包发送给至少一个协作方设备中的可移植的轻量容器中,以使至少一个协作方设备创建初始化后的机器学习模型的本地训练环境。
可选的,主训练设备还可以初始化模型管理服务,由模型管理服务完成持久化存储,分组等操作,从而可以确定预设联邦学习训练参数中下发初始化后的机器学习模型的至少一个协作方设备。这样,主训练设备可以根据预设联邦学习训练参数中经过认证的协作方集合,确定下发初始化后的机器学习模型的至少一个协作方设备,然后,主训练设备可以将初始化后的机器学习模型,下发给至少一个协作方设备。
可选的,前述的联邦学习训练参数还可以包括暴露相关gPRC接口以及超文本传输协议(HTTP,HyperText Transfer Protocol)接口,外部系统的所有请求都将委托给网关服务进行请求转发、设定联邦训练任务最大通信轮数、动态准确率审查随机率等。
在本发明实施例中,主训练设备可以分别获得至少一个协作方设备发送的模型梯度更新参数。然后,主训练设备可以分别对获得的一个模型梯度更新参数进行格式化以及数据解析处理,获得处理后的模型梯度更新参数,再根据获得的所有处理后的模型梯度更新参数,构建模型梯度更新集合。
步骤202:使用预设测试集进行联邦学习训练任务的全局模型预测,获得本轮模型准确率,并对本轮模型准确率进行准确率审查,并根据获得的审查结果和模型梯度更新集合,进行基于贝叶斯差分隐私的全局模型更新,获得更新后的全局模型,全局模型包括在至少一个协作方设备上训练的所有初始化后的机器学习模型。
在本发明实施例中,考虑到在协作方设备训练模型的梯度下降期间和主训练设备中的聚合阶段添加噪声会导致联邦学习算法的缓慢收敛或完全发散。因此,主训练设备可以使用预设测试集进行联邦学习训练任务的全局模型预测,获得本轮模型准确率,并对本轮模型准确率进行准确率审查。
可选的,如果确定模型任务预测结果处于预设准确率审查范围,基于动态准确率审查随机率的互斥概率和模型梯度更新集合,进行基于贝叶斯差分隐私的全局模型更新,获得更新后的全局模型。具体的,主训练设备可以以审查随机率参数为概率使用审查重聚策略,收集本轮各协作方交互的梯度更新数据到模型梯度更新数据集中,同时减小审查随机率参数值,降低下次进行审查重聚的概率,进而扩大训练随机性。其中,审查重聚策略可以理解为以审查随机率参数的互斥概率直接更新全局模型,增加审查随机率参数值,提高下次进行审查重聚的概率,如果确定模型任务预测结果未处于预设准确率审查范围,直接进行全局模型更新。
在本发明实施例中,主训练设备可以使用处理后的模型梯度更新数据集,进行基于贝叶斯差分隐私的全局模型更新,使用次采样高斯噪声机制,结合采样估计器,应用于全局模型更新中,进行基于训练模型的分层加噪扰动,消除来自不同协作方设备的数据的非独立同分布特性。
步骤203:通过第一隐私会计对全局模型的本轮训练过程进行追踪,获得本轮隐私成本;汇总本轮前的所有训练轮分别对应的最大隐私成本,获得合并隐私消耗。
步骤204:如果合并隐私消耗大于第一预设隐私预算,确定结束联邦训练,获得目标机器学习模型。
在本发明实施例中,主训练设备可以使用Bayesian隐私会计计算本轮隐私成本,但由于同时协作方设备也使用本地差分隐私训练,因此总隐私消耗核算需要结合协作方设备对应的噪声参数,再重新计算隐私成本,从而获得合并隐私消耗。
可见,在本发明实施例中,在全局模型聚合中,使用了次采样高斯噪声机制,在全局模型更新中基于训练模型实现分层加噪扰动,在隐私跟踪时,结合协作方的噪声进行隐私合并,可以实现更精确的全局隐私跟踪,防止在联邦任务完成之前提前结束训练。以及,在进行隐私保护与通信压缩的基础上提出了动态准确率检查,动态监测模型训练任务的紊乱现象并进行相应处理,无需人工进行训练任务重设。
以下结合图3所示的方法流程图对本发明实施例中模型聚合训练方法进行说明,图3所示的各步骤可以由如图1所示的协作方设备执行。
步骤301:响应于接收到的主训练设备发送的初始化后的机器学习模型,对本地数据进行数据预处理,根据获得的预处理后的数据构建本地训练数据集,并创建第二隐私会计。
在本发明实施例中,协作方设备可以在可移植的轻量容器中解包联邦学习应用以及依赖包,并根据联邦学习应用以及依赖包构建模型本地训练环境;对本地源数据进行数据预处理,获得本地训练数据集;数据预处理包括区分特征矩阵、处理缺失数据、编码分类数据以及特征缩放中的一项或多项。
在本发明实施例中,协作方设备可以使用切片采样或随机采样对预设隐私数据进行隐私放大,获得初始化后的第二隐私会计。其中,初始化后的第二隐私会计可以理解为初始化后的高斯隐私会计。其中,协作方设备可以通过高斯差分隐私技术即以假设检验方式的来衡量隐私输出,获得预设高斯隐私会计,f可以理解为前述衡量时使用的权衡函数,因此,可以将初始化后的第二隐私会计简称为f-隐私会计。由于使用切片采样和随机采样对预设隐私数据进行二次放大,从而实现了隐私消耗的细粒度刻画,进而可以保证在同样的隐私保护级别下,达到更高的模型预测准确率。
步骤302:根据本地数据训练集,对初始化后的机器学习模型进行本地模型训练,获得模型梯度更新数据。
步骤303:根据模型梯度更新数据和预设发送策略,将模型梯度更新数据发送给主训练设备;预设发送策略用于确定是否跳过梯度检查,直接将模型梯度更新数据发送。
在本发明实施例中,协作方设备可以对模型梯度更新数据进行数据质量分析,获得免检权重;如果免检权重符合预设范围,则跳过梯度检查,向主训练设备上传模型梯度更新数据;如果免检权重不符合预设范围,则不跳过梯度检查,并根据本轮前的全局模型参数值与本轮中的所有协作方设备对应的平均模型参数以及差分校正函数,获得本轮训练后产生的第一贡献值;当第一贡献值不小于平均贡献值时,则向主训练设备传递模型梯度更新数据。
这样,在差分隐私机制下拓展使用前述两种方式进行梯度交换压缩,自适应地计算、跳过部分交互通信,通过差分校正函数和免检权重实现检查松弛,防止差分隐私机制下因为噪声过大引起的训练任务崩溃,有效解决隐私保护下协作方设备与主训练设备之间的单点通信瓶颈问题。
步骤304:根据第二隐私会计,进行本地隐私度检查,并根据检查结果确定是否参与联邦训练。
在本发明实施例中,协作方设备可以使用第二隐私会计更新本地隐私消耗,使用中心极限定理进行隐私合并,获得目标隐私成本;如果目标隐私成本超过第二预设隐私成本,确定不参与联邦训练。
在本发明实施例中,为了更清楚的介绍本发明实施例提供的模型聚合训练方法,请参见图4,下面以一个主训练设备和一个协作方设备进行交互为例进行说明。
步骤401:主训练设备构建机器学习模型,初始化机器学习模型参数、联邦训练参数以及Bayesian隐私会计,将初始化后的机器学习模型下发给至少一个协作方设备。
步骤402:协作方设备响应于接收到的主训练设备发送的初始化后的机器学习模型,对本地数据进行数据预处理,根据获得的预处理后的数据构建本地训练数据集。
步骤403:协作方设备根据本地数据训练集,对初始化后的机器学习模型进行本地模型训练,获得模型梯度更新数据,并根据模型梯度更新数据和预设发送策略,将模型梯度更新数据发送给主训练设备;其中,预设发送策略用于确定是否跳过梯度检查,直接将模型梯度更新数据发送。
可选的,在本发明实施例中,协作方设备可以先创建f-隐私会计,并根据f-隐私会计,进行本地隐私度检查,再根据检查结果确定是否参与联邦训练。具体的,协作方设备可以使用第二隐私会计更新本地隐私消耗,使用中心极限定理进行隐私合并,获得目标隐私成本;如果目标隐私成本超过第二预设隐私成本,确定不参与联邦训练。如果目标隐私成本未超过第二预设隐私成本,则协作方设备反复执行本地训练直到训练任务结束,不再接收主训练设备下发的最新的机器学习模型。
步骤404:主训练设备获得至少一个协作方设备发送的模型梯度更新参数,并根据获得的至少一个模型梯度更新参数,构建模型梯度更新集合。
步骤405:主训练设备使用预设测试集进行联邦学习训练任务的全局模型预测,获得本轮模型准确率,并对本轮模型准确率进行准确率审查,并根据获得的审查结果和模型梯度更新集合,进行基于贝叶斯差分隐私的全局模型更新,获得更新后的全局模型。
步骤406:主训练设备通过第一隐私会计对全局模型的本轮训练过程进行追踪,获得本轮隐私成本;汇总本轮前的所有训练轮分别对应的最大隐私成本,获得合并隐私消耗;如果合并隐私消耗大于第一预设隐私预算,确定结束联邦训练,获得目标机器学习模型。
可见,在本发明实施例中,使用双重隐私跟踪,利用贝叶斯差分隐私可以有效进行噪声校准的特性实现主训练设备侧的差分隐私保护,利用f-差分隐私的严格性隐私定义实现协作方设备侧的差分隐私保护。同时,协作方设备侧可以设定本地隐私策略,在超出自定义隐私预算(即第二预设隐私成本)时不再参与联邦训练,有利于协作方本地隐私的自控。并且,结合前述两种隐私跟踪方式,同时实现了联邦学习协作方级别和数据记录级别的隐私保证,可以有效抵抗成员推理攻击和模型分析攻击。
基于同一发明构思,本发明实施例提供了一种模型聚合训练装置,该模型聚合训练装置能够实现前述应用于主训练设备的模型聚合训练方法对应的功能。该模型聚合训练装置可以是硬件结构、软件模块、或硬件结构加软件模块。该模型聚合训练装置可以由芯片系统实现,芯片系统可以由芯片构成,也可以包含芯片和其他分立器件。请参见图5所示,该模型聚合训练装置包括:
第一处理单元501,用于将初始化后的机器学习模型下发给至少一个协作方设备,分别获得所述至少一个协作方设备发送的模型梯度更新参数,并根据获得的至少一个所述模型梯度更新参数,构建模型梯度更新集合;其中,模型梯度更新参数为协作方设备基于本地数据对所述初始化后的机器学习模型进行训练后所获得的;
第二处理单元502,用于使用预设测试集进行联邦学习训练任务的全局模型预测,获得本轮模型准确率,并对所述本轮模型准确率进行准确率审查,并根据获得的审查结果和所述模型梯度更新集合,进行基于贝叶斯差分隐私的全局模型更新,获得更新后的全局模型,所述全局模型包括在所述至少一个协作方设备上训练的所有初始化后的机器学习模型;
第一获得单元503,用于通过第一隐私会计对所述全局模型的本轮训练过程进行追踪,获得本轮隐私成本;汇总所述本轮前的所有训练轮分别对应的最大隐私成本,获得合并隐私消耗;
第二获得单元504,用于如果所述合并隐私消耗大于第一预设隐私预算,确定结束联邦训练,获得目标机器学习模型。
在一种可能的实施方式中,在将所述初始化后的机器学习模型下发给至少一个协作方设备之前,所述第一处理单元501还用于:
使用贝叶斯差分隐私技术,创建第一隐私会计。
在一种可能的实施方式中,在将所述初始化后的机器学习模型下发给至少一个协作方设备之前,所述第一处理单元501还用于:
将打包后的联邦学习应用以及依赖包发送给所述至少一个协作方设备中的可移植的轻量容器中,以使所述至少一个协作方设备创建所述初始化后的机器学习模型的本地训练环境;以及,
根据预设联邦学习训练参数中经过认证的协作方集合,确定下发所述初始化后的机器学习模型的至少一个协作方设备。
在一种可能的实施方式中,所述第二处理单元502,用于:
如果确定所述模型任务预测结果处于预设准确率审查范围,基于动态准确率审查随机率的互斥概率和所述模型梯度更新集合,进行基于贝叶斯差分隐私的全局模型更新,获得更新后的全局模型。
在一种可能的实施方式中,所述第二处理单元502,用于:
使用次采样高斯噪声机制,结合预设采样估计器,在所述全局模型更新中,进行基于学习机器模型的分层加噪扰动,消除来自所述至少一个协作方设备中的数据的非独立同分布特性。
基于同一发明构思,本发明实施例提供了一种模型聚合训练装置,该模型聚合训练装置能够实现前述应用于协作方设备的模型聚合训练方法对应的功能。该模型聚合训练装置可以是硬件结构、软件模块、或硬件结构加软件模块。该模型聚合训练装置可以由芯片系统实现,芯片系统可以由芯片构成,也可以包含芯片和其他分立器件。请参见图6所示,该模型聚合训练装置包括:
响应单元601,用于响应于接收到的主训练设备发送的初始化后的机器学习模型,对本地数据进行数据预处理,根据获得的预处理后的数据构建本地训练数据集,并创建第二隐私会计;
获得单元602,用于根据所述本地数据训练集,对所述初始化后的机器学习模型进行本地模型训练,获得模型梯度更新数据;
发送单元603,用于根据所述模型梯度更新数据和预设发送策略,将所述模型梯度更新数据发送给所述主训练设备;所述预设发送策略用于确定是否跳过梯度检查,直接将所述模型梯度更新数据发送;
处理单元604,用于根据所述第二隐私会计,进行本地隐私度检查,并根据检查结果确定是否参与联邦训练。
在一种可能的实施方式中,所述响应单元601,具体用于:
在可移植的轻量容器中解包联邦学习应用以及依赖包,并根据所述联邦学习应用以及依赖包构建模型本地训练环境;
对本地源数据进行数据预处理,获得本地训练数据集;所述数据预处理包括区分特征矩阵、处理缺失数据、编码分类数据以及特征缩放中的一项或多项;
使用切片采样或随机采样对预设隐私数据进行隐私放大,获得初始化后的第二隐私会计。
在一种可能的实施方式中,所述发送单元603,用于:
对所述模型梯度更新数据进行数据质量分析,获得免检权重;
如果所述免检权重符合预设范围,则跳过梯度检查,向所述主训练设备上传所述模型梯度更新数据;
如果所述免检权重不符合所述预设范围,则不跳过所述梯度检查,并根据本轮前的全局模型参数值与本轮中的所有协作方设备对应的平均模型参数以及差分校正函数,获得本轮训练后产生的第一贡献值;当所述第一贡献值不小于平均贡献值时,则向主训练设备传递所述模型梯度更新数据。
在一种可能的实施方式中,所述处理单元604,用于:
使用所述第二隐私会计更新本地隐私消耗,使用中心极限定理进行隐私合并,获得目标隐私成本;
如果所述目标隐私成本超过第二预设隐私成本,确定不参与联邦训练。
前述的模型聚合训练方法的实施例涉及的各步骤的所有相关内容均可以援引到本发明实施例中的模型聚合训练装置所对应的功能模块的功能描述,在此不再赘述。
本发明实施例中对模块的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,另外,在本发明各个实施例中的各功能模块可以集成在一个控制器中,也可以是单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。
基于同一发明构思,本发明实施例提供一种主训练设备,请参见图7所示,该主训练设备包括至少一个处理器701,以及与至少一个处理器连接的存储器702,本发明实施例中不限定处理器701与存储器702之间的具体连接介质,图7中是以处理器701和存储器702之间通过总线700连接为例,总线700在图7中以粗线表示,其它部件之间的连接方式,仅是进行示意性说明,并不引以为限。总线700可以分为地址总线、数据总线、控制总线等,为便于表示,图7中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。此外,模型聚合训练装置还包括通信接口703,用于接收或发送数据。
在本发明实施例中,存储器702存储有可被至少一个处理器701执行的指令,至少一个处理器701通过执行存储器702存储的指令,可以执行前述的模型聚合训练方法中所包括的步骤。
其中,处理器701是主训练设备的控制中心,可以利用各种接口和线路连接整个主训练设备的各个部分,通过运行或执行存储在存储器702内的指令以及调用存储在存储器702内的数据,主训练设备的各种功能和处理数据,从而对主训练设备进行整体监控。
可选的,处理器701可包括一个或多个处理单元,处理器701可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器701中。在一些实施例中,处理器701和存储器702可以在同一芯片上实现,在一些实施例中,它们也可以在独立的芯片上分别实现。
处理器701可以是通用处理器,例如中央处理器(CPU)、数字信号处理器、专用集成电路、现场可编程门阵列或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件,可以实现或者执行本发明实施例中公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者任何常规的处理器等。结合本发明实施例所公开的方法的步骤可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。
存储器702作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块。存储器702可以包括至少一种类型的存储介质,例如可以包括闪存、硬盘、多媒体卡、卡型存储器、随机访问存储器(Random AccessMemory,RAM)、静态随机访问存储器(Static Random Access Memory,SRAM)、可编程只读存储器(Programmable Read Only Memory,PROM)、只读存储器(Read Only Memory,ROM)、带电可擦除可编程只读存储器(Electrically Erasable Programmable Read-Only Memory,EEPROM)、磁性存储器、磁盘、光盘等等。存储器702是能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。本发明实施例中的存储器702还可以是电路或者其它任意能够实现存储功能的装置,用于存储程序指令和/或数据。
通过对处理器701进行设计编程,可以将前述实施例中介绍的模型聚合训练方法所对应的代码固化到芯片内,从而使芯片在运行时能够执行前述的模型聚合训练方法的步骤,如何对处理器701进行设计编程为本领域技术人员所公知的技术,这里不再赘述。
基于同一发明构思,本发明实施例提供一种协作方设备,请参见图8所示,该协作方设备包括至少一个处理器801,以及与至少一个处理器连接的存储器802,本发明实施例中不限定处理器801与存储器802之间的具体连接介质,图8中是以处理器801和存储器802之间通过总线800连接为例,总线800在图8中以粗线表示,其它部件之间的连接方式,仅是进行示意性说明,并不引以为限。总线800可以分为地址总线、数据总线、控制总线等,为便于表示,图8中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。此外,模型聚合训练装置还包括通信接口803,用于接收或发送数据。
在本发明实施例中,存储器802存储有可被至少一个处理器801执行的指令,至少一个处理器801通过执行存储器802存储的指令,可以执行前述的模型聚合训练方法中所包括的步骤。
其中,处理器801是协作方设备的控制中心,可以利用各种接口和线路连接整个协作方设备的各个部分,通过运行或执行存储在存储器802内的指令以及调用存储在存储器802内的数据,协作方设备的各种功能和处理数据,从而对协作方设备进行整体监控。
可选的,处理器801可包括一个或多个处理单元,处理器801可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器801中。在一些实施例中,处理器801和存储器802可以在同一芯片上实现,在一些实施例中,它们也可以在独立的芯片上分别实现。
处理器801可以是通用处理器,例如中央处理器(CPU)、数字信号处理器、专用集成电路、现场可编程门阵列或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件,可以实现或者执行本发明实施例中公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者任何常规的处理器等。结合本发明实施例所公开的方法的步骤可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。
存储器802作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块。存储器802可以包括至少一种类型的存储介质,例如可以包括闪存、硬盘、多媒体卡、卡型存储器、随机访问存储器(Random AccessMemory,RAM)、静态随机访问存储器(Static Random Access Memory,SRAM)、可编程只读存储器(Programmable Read Only Memory,PROM)、只读存储器(Read Only Memory,ROM)、带电可擦除可编程只读存储器(Electrically Erasable Programmable Read-Only Memory,EEPROM)、磁性存储器、磁盘、光盘等等。存储器802是能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。本发明实施例中的存储器802还可以是电路或者其它任意能够实现存储功能的装置,用于存储程序指令和/或数据。
通过对处理器801进行设计编程,可以将前述实施例中介绍的模型聚合训练方法所对应的代码固化到芯片内,从而使芯片在运行时能够执行前述的模型聚合训练方法的步骤,如何对处理器801进行设计编程为本领域技术人员所公知的技术,这里不再赘述。
基于同一发明构思,本发明实施例还提供一种存储介质,该存储介质存储有计算机指令,当该计算机指令在计算机上运行时,使得计算机执行如前述的图2、图3所示的模型聚合训练方法的步骤。
在一些可能的实施方式中,本发明提供的模型聚合训练方法的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在控制主训练设备或协作方设备上运行时,所述程序代码用于使该控制主训练设备或协作方设备执行本说明书上述描述的根据本发明各种示例性实施方式的模型聚合训练方法中的步骤。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器和光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (21)
1.一种模型聚合训练方法,其特征在于,应用于主训练设备,所述方法包括:
将初始化后的机器学习模型下发给至少一个协作方设备,分别获得所述至少一个协作方设备发送的模型梯度更新参数,并根据获得的至少一个所述模型梯度更新参数,构建模型梯度更新集合;其中,模型梯度更新参数为协作方设备基于本地数据对所述初始化后的机器学习模型进行训练后所获得的;
使用预设测试集进行联邦学习训练任务的全局模型预测,获得本轮模型准确率,并对所述本轮模型准确率进行准确率审查,并根据获得的审查结果和所述模型梯度更新集合,进行基于贝叶斯差分隐私的全局模型更新,获得更新后的全局模型,所述全局模型包括在所述至少一个协作方设备上训练的所有初始化后的机器学习模型;
通过第一隐私会计对所述全局模型的本轮训练过程进行追踪,获得本轮隐私成本;汇总所述本轮前的所有训练轮分别对应的最大隐私成本,获得合并隐私消耗;
如果所述合并隐私消耗大于第一预设隐私预算,确定结束联邦训练,获得目标机器学习模型。
2.如权利要求1所述的方法,其特征在于,在将所述初始化后的机器学习模型下发给至少一个协作方设备之前,所述方法还包括:
使用贝叶斯差分隐私技术,创建第一隐私会计。
3.如权利要求2所述的方法,其特征在于,在将所述初始化后的机器学习模型下发给至少一个协作方设备之前,所述方法还包括:
将打包后的联邦学习应用以及依赖包发送给所述至少一个协作方设备中的可移植的轻量容器中,以使所述至少一个协作方设备创建所述初始化后的机器学习模型的本地训练环境;以及,
根据预设联邦学习训练参数中经过认证的协作方集合,确定下发所述初始化后的机器学习模型的至少一个协作方设备。
4.如权利要求1-3任一所述的方法,其特征在于,根据获得的审查结果和所述模型梯度更新集合,进行基于贝叶斯差分隐私的全局模型更新,获得更新后的全局模型,包括:
如果确定所述模型任务预测结果处于预设准确率审查范围,基于动态准确率审查随机率的互斥概率和所述模型梯度更新集合,进行基于贝叶斯差分隐私的全局模型更新,获得更新后的全局模型。
5.如权利要求4所述的方法,其特征在于,进行基于贝叶斯差分隐私的全局模型更新,包括:
使用次采样高斯噪声机制,结合预设采样估计器,在所述全局模型更新中,进行基于学习机器模型的分层加噪扰动,消除来自所述至少一个协作方设备中的数据的非独立同分布特性。
6.一种模型聚合训练方法,其特征在于,应用于协作方设备,所述方法包括:
响应于接收到的主训练设备发送的初始化后的机器学习模型,对本地数据进行数据预处理,根据获得的预处理后的数据构建本地训练数据集,并创建第二隐私会计;
根据所述本地数据训练集,对所述初始化后的机器学习模型进行本地模型训练,获得模型梯度更新数据;
根据所述模型梯度更新数据和预设发送策略,将所述模型梯度更新数据发送给所述主训练设备;所述预设发送策略用于确定是否跳过梯度检查,直接将所述模型梯度更新数据发送;
根据所述第二隐私会计,进行本地隐私度检查,并根据检查结果确定是否参与联邦训练。
7.如权利要求6所述的方法,其特征在于,响应于接收到的主训练设备发送的初始化后的机器学习模型,对本地数据进行数据预处理,根据获得的预处理后的数据构建本地训练数据集,并创建第二隐私会计,包括:
在可移植的轻量容器中解包联邦学习应用以及依赖包,并根据所述联邦学习应用以及依赖包构建模型本地训练环境;
对本地源数据进行数据预处理,获得本地训练数据集;所述数据预处理包括区分特征矩阵、处理缺失数据、编码分类数据以及特征缩放中的一项或多项;
使用切片采样或随机采样对预设隐私数据进行隐私放大,获得初始化后的第二隐私会计。
8.如权利要求7所述的方法,其特征在于,根据所述模型梯度更新数据和预设发送策略,将所述模型梯度更新数据发送给所述主训练设备,包括:
对所述模型梯度更新数据进行数据质量分析,获得免检权重;
如果所述免检权重符合预设范围,则跳过梯度检查,向所述主训练设备上传所述模型梯度更新数据;
如果所述免检权重不符合所述预设范围,则不跳过所述梯度检查,并根据本轮前的全局模型参数值与本轮中的所有协作方设备对应的平均模型参数以及差分校正函数,获得本轮训练后产生的第一贡献值;当所述第一贡献值不小于平均贡献值时,则向主训练设备传递所述模型梯度更新数据。
9.如权利要求6-8任一所述的方法,其特征在于,根据所述第二隐私会计,进行本地隐私度检查,并根据检查结果确定是否参与联邦训练,包括:
使用所述第二隐私会计更新本地隐私消耗,使用中心极限定理进行隐私合并,获得目标隐私成本;
如果所述目标隐私成本超过第二预设隐私成本,确定不参与联邦训练。
10.一种模型聚合训练装置,其特征在于,应用于主训练设备,所述装置包括:
第一处理单元,用于将初始化后的机器学习模型下发给至少一个协作方设备,分别获得所述至少一个协作方设备发送的模型梯度更新参数,并根据获得的至少一个所述模型梯度更新参数,构建模型梯度更新集合;其中,模型梯度更新参数为协作方设备基于本地数据对所述初始化后的机器学习模型进行训练后所获得的;
第二处理单元,用于使用预设测试集进行联邦学习训练任务的全局模型预测,获得本轮模型准确率,并对所述本轮模型准确率进行准确率审查,并根据获得的审查结果和所述模型梯度更新集合,进行基于贝叶斯差分隐私的全局模型更新,获得更新后的全局模型,所述全局模型包括在所述至少一个协作方设备上训练的所有初始化后的机器学习模型;
第一获得单元,用于通过第一隐私会计对所述全局模型的本轮训练过程进行追踪,获得本轮隐私成本;汇总所述本轮前的所有训练轮分别对应的最大隐私成本,获得合并隐私消耗;
第二获得单元,用于如果所述合并隐私消耗大于第一预设隐私预算,确定结束联邦训练,获得目标机器学习模型。
11.如权利要求10所述的装置,其特征在于,在将所述初始化后的机器学习模型下发给至少一个协作方设备之前,所述第一处理单元还用于:
使用贝叶斯差分隐私技术,创建第一隐私会计。
12.如权利要求11所述的装置,其特征在于,在将所述初始化后的机器学习模型下发给至少一个协作方设备之前,所述第一处理单元还用于:
将打包后的联邦学习应用以及依赖包发送给所述至少一个协作方设备中的可移植的轻量容器中,以使所述至少一个协作方设备创建所述初始化后的机器学习模型的本地训练环境;以及,
根据预设联邦学习训练参数中经过认证的协作方集合,确定下发所述初始化后的机器学习模型的至少一个协作方设备。
13.如权利要求10-12任一所述的装置,其特征在于,所述第二处理单元,用于:
如果确定所述模型任务预测结果处于预设准确率审查范围,基于动态准确率审查随机率的互斥概率和所述模型梯度更新集合,进行基于贝叶斯差分隐私的全局模型更新,获得更新后的全局模型。
14.如权利要求13所述的装置,其特征在于,所述第二处理单元,用于:
使用次采样高斯噪声机制,结合预设采样估计器,在所述全局模型更新中,进行基于学习机器模型的分层加噪扰动,消除来自所述至少一个协作方设备中的数据的非独立同分布特性。
15.一种模型聚合训练装置,其特征在于,应用于协作方设备,所述装置包括:
响应单元,用于响应于接收到的主训练设备发送的初始化后的机器学习模型,对本地数据进行数据预处理,根据获得的预处理后的数据构建本地训练数据集,并创建第二隐私会计;
获得单元,用于根据所述本地数据训练集,对所述初始化后的机器学习模型进行本地模型训练,获得模型梯度更新数据;
发送单元,用于根据所述模型梯度更新数据和预设发送策略,将所述模型梯度更新数据发送给所述主训练设备;所述预设发送策略用于确定是否跳过梯度检查,直接将所述模型梯度更新数据发送;
处理单元,用于根据所述第二隐私会计,进行本地隐私度检查,并根据检查结果确定是否参与联邦训练。
16.如权利要求15所述的装置,其特征在于,所述响应单元,具体用于:
在可移植的轻量容器中解包联邦学习应用以及依赖包,并根据所述联邦学习应用以及依赖包构建模型本地训练环境;
对本地源数据进行数据预处理,获得本地训练数据集;所述数据预处理包括区分特征矩阵、处理缺失数据、编码分类数据以及特征缩放中的一项或多项;
使用切片采样或随机采样对预设隐私数据进行隐私放大,获得初始化后的第二隐私会计。
17.如权利要求16所述的装置,其特征在于,所述发送单元,用于:
对所述模型梯度更新数据进行数据质量分析,获得免检权重;
如果所述免检权重符合预设范围,则跳过梯度检查,向所述主训练设备上传所述模型梯度更新数据;
如果所述免检权重不符合所述预设范围,则不跳过所述梯度检查,并根据本轮前的全局模型参数值与本轮中的所有协作方设备对应的平均模型参数以及差分校正函数,获得本轮训练后产生的第一贡献值;当所述第一贡献值不小于平均贡献值时,则向主训练设备传递所述模型梯度更新数据。
18.如权利要求15-17任一所述的装置,其特征在于,所述处理单元,用于:
使用所述第二隐私会计更新本地隐私消耗,使用中心极限定理进行隐私合并,获得目标隐私成本;
如果所述目标隐私成本超过第二预设隐私成本,确定不参与联邦训练。
19.一种主训练设备,其特征在于,所述主训练设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至5中任一项所述的模型聚合训练方法的步骤。
20.一种协作方设备,其特征在于,所述协作方设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求6至9中任一项所述的模型聚合训练方法的步骤。
21.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至5中任一项或权利要求6至9中任一项所述的模型聚合训练方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211712039.7A CN116029390A (zh) | 2022-12-29 | 2022-12-29 | 一种模型聚合训练方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211712039.7A CN116029390A (zh) | 2022-12-29 | 2022-12-29 | 一种模型聚合训练方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116029390A true CN116029390A (zh) | 2023-04-28 |
Family
ID=86077341
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211712039.7A Pending CN116029390A (zh) | 2022-12-29 | 2022-12-29 | 一种模型聚合训练方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116029390A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117390448A (zh) * | 2023-10-25 | 2024-01-12 | 西安交通大学 | 一种用于云际联邦学习的客户端模型聚合方法及相关系统 |
-
2022
- 2022-12-29 CN CN202211712039.7A patent/CN116029390A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117390448A (zh) * | 2023-10-25 | 2024-01-12 | 西安交通大学 | 一种用于云际联邦学习的客户端模型聚合方法及相关系统 |
CN117390448B (zh) * | 2023-10-25 | 2024-04-26 | 西安交通大学 | 一种用于云际联邦学习的客户端模型聚合方法及相关系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Liu et al. | Blockchain and machine learning for communications and networking systems | |
Chai et al. | A hierarchical blockchain-enabled federated learning algorithm for knowledge sharing in internet of vehicles | |
CN110084377B (zh) | 用于构建决策树的方法和装置 | |
US10839395B2 (en) | Techniques for expediting processing of blockchain transactions | |
TWI815443B (zh) | 用於物聯網之非暫時性機器可讀取媒體 | |
CN111681091B (zh) | 基于时间域信息的金融风险预测方法、装置及存储介质 | |
CN113159327A (zh) | 基于联邦学习系统的模型训练方法、装置、电子设备 | |
CN113505882B (zh) | 基于联邦神经网络模型的数据处理方法、相关设备及介质 | |
CN111770073A (zh) | 一种基于区块链技术的雾网络卸载决策和资源分配方法 | |
CN111340614A (zh) | 基于联邦学习的样本采样方法、设备及可读存储介质 | |
CN109842563A (zh) | 内容分发网络流量调度方法、装置和计算机可读存储介质 | |
Douch et al. | Edge computing technology enablers: A systematic lecture study | |
CN110991789B (zh) | 置信区间的确定方法和装置、存储介质及电子装置 | |
CN116627970A (zh) | 一种基于区块链和联邦学习的数据共享方法及装置 | |
CN116029390A (zh) | 一种模型聚合训练方法及装置 | |
US11720900B1 (en) | Systems and methods for adaptive learning to replicate peak performance of human decision making | |
CN110874638B (zh) | 面向行为分析的元知识联邦方法、装置、电子设备及系统 | |
CN116186629B (zh) | 基于个性化联邦学习的金融客户分类及预测方法、装置 | |
CN107395663A (zh) | 数据获取方法及装置 | |
CN117216736A (zh) | 异常账号的识别方法、数据调度平台及图计算平台 | |
Liu et al. | PPEFL: An Edge Federated Learning Architecture with Privacy‐Preserving Mechanism | |
Zhang et al. | Research on resource allocation technology in highly trusted environment of edge computing | |
Liu et al. | [Retracted] Mutual‐Supervised Federated Learning and Blockchain‐Based IoT Data Sharing | |
Bandara et al. | Lightweight, geo-scalable deterministic blockchain design for 5G networks sliced applications with hierarchical CFT/BFT consensus groups, IPFS and novel hardware design | |
Yang et al. | FLM-ICR: a federated learning model for classification of internet of vehicle terminals using connection records |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |