CN112257873A - 机器学习模型的训练方法、装置、系统、设备及存储介质 - Google Patents
机器学习模型的训练方法、装置、系统、设备及存储介质 Download PDFInfo
- Publication number
- CN112257873A CN112257873A CN202011255038.5A CN202011255038A CN112257873A CN 112257873 A CN112257873 A CN 112257873A CN 202011255038 A CN202011255038 A CN 202011255038A CN 112257873 A CN112257873 A CN 112257873A
- Authority
- CN
- China
- Prior art keywords
- training
- machine learning
- learning model
- participant
- loss function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请提供了一种机器学习模型的训练方法、装置、系统、电子设备及计算机可读存储介质;方法包括:服务方设备将机器学习模型发送给多个训练参与方设备,以使多个训练参与方设备基于各自所存储的训练样本独立训练机器学习模型;其中,训练参与方设备训练机器学习模型所使用的第一损失函数用于:均衡多个训练参与方设备训练后的所述机器学习模型的参数的分布;接收多个训练参与方设备分别返回的训练结果;对多个训练参与方设备分别返回的训练结果进行聚合处理,得到全局机器学习模型;根据服务方设备存储的训练样本训练全局机器学习模型。通过本申请,能够在实现训练机器学习模型的资源集约利用的基础上,实现分布式学习的预测稳定性。
Description
技术领域
本申请涉及人工智能技术,尤其涉及一种机器学习模型的训练方法、装置、系统、电子设备及计算机可读存储介质。
背景技术
人工智能(Artificial Intelligence,AI)涉及领域广泛,并发挥越来越重要的价值。机器学习作为人工智能的技术子集,在多个应用领域取得了突破性成果,尤其是在金融领域,能够基于有限的用户数据来预测用户信用,从而为相关业务的开展提供重要依据,以规避金融风险。
相关技术提供了分布式学习方案,以解决单个设备难以满足训练大规模机器学习模型的存储空间和运算能力的需求的问题,从而实现资源的集约利用,特别地,联邦学习作为分布式学习的技术子集,还能够进一步提供数据的隐私保护功能。
然而,申请人在实施本申请实施例的过程中发现,参与分布式学习的各方设备出于节约资源和数据安全的需求,各自基于持有的训练数据训练机器学习模型,由于训练数据的分布的差异性,导致出现机器学习模型对不同参与方数据的预测结果悬殊的情况,即机器学习模型的预测稳定性无法满足实用需求,从而,导致分布式学习的设备的资源节约需求与机器学习模型的预测稳定性之间出现矛盾。
发明内容
本申请实施例提供一种机器学习模型的训练方法、装置、系统、电子设备及计算机可读存储介质,能够在实现训练机器学习模型的资源集约利用的基础上,实现多方训练机器学习模型的预测结果的一致性。
本申请实施例的技术方案是这样实现的:
本申请实施例提供一种机器学习模型的训练方法,包括:
服务方设备将机器学习模型发送给多个训练参与方设备,以使所述多个训练参与方设备基于各自所存储的训练样本独立训练所述机器学习模型;
其中,所述训练参与方设备训练所述机器学习模型所使用的第一损失函数用于:均衡所述多个训练参与方设备训练后的所述机器学习模型的参数的分布;
接收所述多个训练参与方设备分别返回的训练结果;
对所述多个训练参与方设备分别返回的训练结果进行聚合处理,得到全局机器学习模型的参数;
根据所述服务方设备存储的训练样本训练所述全局机器学习模型。
在上述方案中,所述服务方设备存储的训练样本的数量大于任一所述训练参与方设备存储的训练样本的数量,或者所述服务方设备的计算能力大于任一所述训练参与方设备的计算能力。
在上述方案中,所述当所述全局机器学习模型满足收敛条件时,所述方法还包括:将满足所述收敛条件的所述全局机器学习模型发送给至少一个所述训练参与方设备。
在上述方案中,所述将机器学习模型发送给多个训练参与方设备之前,所述方法还包括:对所述机器学习模型进行加密,以使所述训练参与方设备在训练之前对加密的所述机器学习模型进行解密。
在上述方案中,所述训练参与方设备发送的所述训练结果是加密的;所述对所述多个训练参与方设备分别发送的训练结果进行聚合处理之前,所述方法还包括:对接收到的加密的所述训练结果进行解密。
本申请实施例提供一种机器学习模型的训练方法,包括:
训练参与方设备接收服务方设备发送的机器学习模型;
基于所述训练参与方设备存储的训练样本训练所述机器学习模型,得到训练结果;
其中,训练所述机器学习模型所使用的第一损失函数用于:均衡多个所述训练参与方设备训练后的所述机器学习模型的参数的分布;
将所述训练结果返回给所述服务方设备,以使所述服务方设备聚合多个所述训练参与方设备返回的训练结果得到全局机器学习模型的参数。
在上述方案中,所述接收服务方设备发送的机器学习模型时,所述方法还包括:接收所述服务方设备发送的用于训练所述机器学习模型的所述第一损失函数;其中,所述第一损失函数是由所述服务方设备优化所述训练方设备训练所述机器学习时所使用的原始损失函数得到的;所述基于所述训练参与方设备存储的训练样本训练所述机器学习模型,得到训练结果,包括:在所述机器学习模型的训练过程中,将基于所述第一损失函数均衡所述机器学习模型的参数的分布作为训练目标,以得到所述机器学习模型的训练结果;其中,所述原始损失函数用于最小化第一差异因子,所述第一差异因子表征:所述机器学习模型针对所述训练样本的预测结果与所述训练样本的标注数据之间的差异;其中,所述第一损失函数用于最小化所述第一差异因子与第二差异因子的加权求和结果;所述第二差异因子用于表征:所述机器学习模型的参数与所述全局机器学习模型的参数之间的差异。
在上述方案中,所述在所述机器学习模型的训练过程中,将基于所述第一损失函数均衡所述机器学习模型的参数的分布作为训练目标,以得到所述机器学习模型的训练结果,包括:将所存储的训练样本输入到所述机器学习模型,获取所述机器学习模型针对所存储的训练样本的预测结果;将所述预测结果、所存储的训练样本的标注数据、所述机器学习模型的参数以及所述全局机器学习模型的参数输入到所述第一损失函数,以获取误差信息;根据所述误差信息更新所述机器学习模型的参数;当所述第一损失函数收敛时,确定多个所述训练参与方设备各自训练的机器学习模型的参数形成均衡的分布,并将所述机器学习模型的更新梯度作为所述训练结果。
在上述方案中,所述接收服务方设备发送的机器学习模型,包括:从区块链网络中获取所述服务方设备存储的所述机器学习模型;其中,从所述区块链网络中获取所述机器学习模型的获取方式包括:调用所述区块链网络的智能合约执行以下处理:从所述区块链网络的区块链中读取所述机器学习模型,并对所读取的机器学习模型进行共识验证;接收所述智能合约在共识验证通过后发送的所述机器学习模型。
本申请实施例提供一种机器学习模型的训练装置,包括:
发送模块,用于将机器学习模型发送给多个训练参与方设备,以使所述多个训练参与方设备基于各自所存储的训练样本独立训练所述机器学习模型;
其中,所述训练参与方设备训练所述机器学习模型所使用的第一损失函数用于:均衡所述多个训练参与方设备训练后的所述机器学习模型的参数的分布;
接收模块,用于接收所述多个训练参与方设备分别返回的训练结果;
聚合模块,用于对所述多个训练参与方设备分别返回的训练结果进行聚合处理,得到全局机器学习模型;
训练模块,用于根据服务方设备存储的训练样本训练所述全局机器学习模型。
在上述方案中,所述发送模块,还用于优化所述训练方设备训练所述机器学习模型时所使用的原始损失函数,以得到所述第一损失函数;向所述多个训练参与方设备发送所述第一损失函数,以使多个所述训练参与方设备在所述机器学习模型的训练过程中,将基于所述第一损失函数均衡所述机器学习模型的参数的分布作为训练目标,以得到所述机器学习模型的训练结果。
在上述方案中,所述原始损失函数用于最小化第一差异因子,所述第一差异因子用于表征:所述机器学习模型针对所述训练样本的预测结果与所述训练样本的标注数据之间的差异;所述发送模块,还用于确定第二差异因子,所述第二差异因子用于表征:所述机器学习模型的参数与所述全局机器学习模型的参数之间的差异;通过对所述第一差异因子和所述第二差异因子进行加权求和,得到用于最小化加权求和结果的所述第一损失函数。
在上述方案中,所述第一损失函数用于供每个所述训练参与方设备执行以下处理:所述训练参与方设备将各自所存储的训练样本输入到所述机器学习模型,以获取所述机器学习模型针对所存储的训练样本的预测结果;将所述预测结果、所存储的训练样本的标注数据、所述机器学习模型的参数以及所述全局机器学习模型的参数输入到所述第一损失函数,以获取误差信息;根据所述误差信息更新所述机器学习模型的参数;当所述第一损失函数收敛时,确定多个所述训练参与方设备各自训练的机器学习模型的参数形成均衡的分布,并将所述机器学习模型的更新梯度作为所述训练结果。
在上述方案中,当所述训练结果包括所述机器学习模型的更新梯度时,所述聚合模块,还用于确定每个所述训练参与方设备的权重;根据每个所述训练参与方设备的权重,对每个所述训练参与方设备发送的更新梯度进行加权求和处理,以得到聚合梯度;根据所述聚合梯度更新所述机器学习模型的参数。
在上述方案中,所述聚合模块,还用于将每个所述训练参与方设备存储的训练样本的数量与总数量之间的比值,确定为相应训练参与方设备的权重,其中,所述总数量为每个所述训练参与方设备存储的训练样本的数量的加和;或者,将每个所述训练参与方设备的计算能力与总计算能力之间的比值,确定为相应训练参与方设备的权重,其中,所述总计算能力为每个所述训练参与方设备的计算能力的加和。
在上述方案中,所述服务方设备训练所述全局机器学习模型时,使用第二损失函数,所述第二损失函数用于最小化以下参数:所述全局机器学习模型针对所述服务方设备存储的训练样本的预测结果与对应的标注数据之间的差异。
在上述方案中,所述训练机器学习模型的装置还包括:发送模块,用于将满足所述收敛条件的所述全局机器学习模型发送给至少一个所述训练参与方设备。
在上述方案中,所述发送模块,还用于确定每个所述训练参与方设备的训练贡献参数,对每个所述训练参与方设备的训练贡献参数进行降序排序;针对所述降序排序在前的设定数量或设定比例的训练参与方设备,发送满足所述收敛条件的所述全局机器学习模型;其中,所述训练参与方设备的训练贡献参数是根据以下维度至少之一确定的:所述训练参与方设备存储的训练样本的数量,所述训练参与方设备向所述服务方设备提交的训练结果的数据量,所述训练参与方设备存储的训练样本的数据时效性,所述训练参与方设备存储的训练样本的数据完整性。
在上述方案中,所述发送模块,包括上链子模块,用于将所述机器学习模型存储到区块链网络中,以使所述多个训练参与方设备从所述区块链网络中获取所述机器学习模型;其中,所述机器学习模型的上链方式包括:调用所述区块链网络的智能合约执行以下处理:对所述机器学习模型进行共识验证,以使所述智能合约在共识验证通过后,将所述机器学习模型存储至所述区块链网络的区块链中。
本申请实施例提供一种机器学习模型的训练装置,包括:
接收模块,用于训练参与方设备接收服务方设备发送的机器学习模型;
训练模块,用于基于所述训练参与方设备存储的训练样本训练所述机器学习模型,得到训练结果;
其中,所述训练参与方设备训练所述机器学习模型所使用的第一损失函数用于:均衡多个所述训练参与方设备训练后的所述机器学习模型的参数的分布;
发送模块,用于将所述训练结果返回给所述服务方设备,以使所述服务方设备聚合多个所述训练参与方设备返回的训练结果得到全局机器学习模型的参数。
在上述方案中,所述接收模块,还用于接收所述服务方设备发送的用于训练所述机器学习模型的所述第一损失函数;其中,所述第一损失函数是由所述服务方设备优化所述训练方设备训练所述机器学习时所使用的原始损失函数得到的;所述训练模块,还用于在所述机器学习模型的训练过程中,将基于所述第一损失函数均衡所述机器学习模型的参数的分布作为训练目标,以得到所述机器学习模型的训练结果;其中,所述原始损失函数用于最小化第一差异因子,所述第一差异因子表征:所述机器学习模型针对所述训练样本的预测结果与所述训练样本的标注数据之间的差异;其中,所述第一损失函数用于最小化所述第一差异因子与第二差异因子的加权求和结果;所述第二差异因子用于表征:所述机器学习模型的参数与所述全局机器学习模型的参数之间的差异。
在上述方案中,所述训练模块,还用于将所存储的训练样本输入到所述机器学习模型,获取所述机器学习模型针对所存储的训练样本的预测结果;将所述预测结果、所存储的训练样本的标注数据、所述机器学习模型的参数以及所述全局机器学习模型的参数输入到所述第一损失函数,以获取误差信息;根据所述误差信息更新所述机器学习模型的参数;当所述第一损失函数收敛时,确定多个所述训练参与方设备各自训练的机器学习模型的参数形成均衡的分布,并将所述机器学习模型的更新梯度作为所述训练结果。
在上述方案中,所述接收模块,包括获取子模块,用于从区块链网络中获取所述服务方设备存储的所述机器学习模型;其中,从所述区块链网络中获取所述机器学习模型的获取方式包括:调用所述区块链网络的智能合约执行以下处理:以从所述区块链网络的区块链中读取所述机器学习模型,并对所读取的机器学习模型进行共识验证;接收所述智能合约在共识验证通过后发送的所述机器学习模型。
本申请实施例提供一种机器学习模型的训练系统,包括:服务方设备和多个训练参与方设备;其中,
所述服务方设备,用于:
将机器学习模型发送给多个训练参与方设备;
对所述多个训练参与方设备分别发送的训练结果进行聚合处理,得到全局机器学习模型;
根据所述服务方设备存储的训练样本训练所述全局机器学习模型;
所述训练参与方设备,用于:
基于所述训练参与方设备存储的训练样本训练接收所述训练方设备发送的所述机器学习模型,得到训练结果;
其中,所述训练参与方设备训练所述机器学习模型所使用的第一损失函数用于:均衡多个训练参与方设备训练后的所述机器学习模型的参数的分布;
将所述训练结果发送给所述服务方设备。
本申请实施例提供一种电子设备,包括:
存储器,用于存储计算机可执行指令;
处理器,用于执行所述存储器中存储的计算机可执行指令时,实现本申请实施例提供的机器学习模型的训练方法。
本申请实施例提供一种计算机可读存储介质,存储有计算机可执行指令,所述计算机可执行指令被执行时用于实现本申请实施例提供的机器学习模型的训练方法。
本申请实施例具有以下有益效果:
通过第一损失函数使参与方设备训练后的机器学习模型的机器学习参数的分布均衡,并使得全局机器学习模型对不同参与方的数据的预测结果稳定,从而训练参与方设备仍然可以基于各自持有的训练样本来训练模型,保证了数据安全性并节约了设备资源,提升设备的资源利用和模型训练效率。
附图说明
图1A是本申请实施例提供的机器学习模型训练系统100结构示意图;
图1B是本申请实施例提供的机器学习模型训练系统100结构示意图;
图1C是本申请实施例提供的机器学习模型的训练方法的流程示意图;
图2A是本申请实施例提供的服务方设备200的结构示意图;
图2B是本申请实施例提供的训练参与方设备400的结构示意图;
图3是本申请实施例提供的机器学习模型的训练方法的流程示意图;
图4是本申请实施例提供的机器学习模型的训练方法的流程示意图;
图5是本申请实施例提供的联邦学习模型提升效果示意图;
图6A是本申请实施例提供的纵向联邦学习模型架构示意图;
图6B是本申请实施例提供的横向联邦学习模型架构示意图;
图7A是本申请实施例提供的联邦学习训练示意图;
图7B是本申请实施例提供的联邦学习训练示意图;
图8是本申请实施例提供的模型参数的不同优化方式的比较示意图。
具体实施方式
为了使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请作进一步地详细描述,所描述的实施例不应视为对本申请的限制,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
在以下的描述中,涉及到“一些实施例”,其描述了所有可能实施例的子集,但是可以理解,“一些实施例”可以是所有可能实施例的相同子集或不同子集,并且可以在不冲突的情况下相互结合。
如果申请文件中出现“第一\第二”的类似描述则增加以下的说明,在以下的描述中,所涉及的术语“第一\第二\第三”仅仅是是区别类似的对象,不代表针对对象的特定排序,可以理解地,“第一\第二\第三”在允许的情况下可以互换特定的顺序或先后次序,以使这里描述的本申请实施例能够以除了在这里图示或描述的以外的顺序实施。
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本申请实施例的目的,不是旨在限制本申请。
对本申请实施例进行进一步详细说明之前,对本申请实施例中涉及的名词和术语进行说明,本申请实施例中涉及的名词和术语适用于如下的解释。
1)服务方,是分布式学习中的一种特殊的参与方,是一种管理者角色,负责与其他参与方之间的机器学习模型的同步,服务方用于训练机器学习模型的设备称为服务方设备。
2)训练参与方,是分布式学习中为基于自身存储的训练样本来训练模型,为服务方整合得到全局机器学习模型做出贡献的一方,训练参与方用于训练机器学习模型的设备称为训练参与方设备。
3)区块链(Blockchain),是由区块(Block)形成的加密的、链式的交易的存储结构。区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链,本质上是一个去中心化的数据库,同时作为比特币的底层技术,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次比特币网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。
4)区块链网络(Blockchain Network),通过共识的方式将新区块纳入区块链的一系列的节点的集合。
5)智能合约(Smart Contracts),也称为链码(Chaincode)或应用代码,是一种旨在以信息化方式传播、验证或执行合同的计算机协议。智能合约允许在没有第三方的情况下进行可信交易,这些交易可追踪且不可逆转。
6)分布式学习,是由一组计算机设备通过网络进行通信、为了训练机器学习模型而协调工作的技术,能够解决单个计算设备的计算能力和存储空间无法满足训练机器学习模型的需求的问题。
7)联邦学习,是一种分布式学习的机器学习框架,在保障数据交换时的信息安全、保护终端数据和个人数据隐私、保证合法合规的前提下,在多参与方的计算设备之间开展高效率的机器学习。
8)参数,即机器学习模型的参数,包括模型参数和超参数,模型参数在机器学习的训练过程中被不断更新,例如权重参数和偏置参数,超参数在机器学习模型训练前已经被设定的,例如学习率。
分布式学习在多个应用领域取得了突破性成果,然而申请人在实施本申请实施例的过程中发现,由于参与分布式学习的各方持有的训练数据分布的差异性,导致机器学习模型的预测稳定性无法满足实用需求。对于以上技术问题,本申请实施例提供一种机器学习模型的训练方法,通过联合多个训练参与方设备基于各自所存储的训练样本独立训练机器学习模型;并且,将各参与方的数据特征迁移,使各参与方的机器学习模型的机器学习参数分布均衡;进而,根据服务方设备存储的训练样本训练全局机器学习模型,直至全局机器学习模型满足收敛条件,使得全局机器学习模型对不同参与方的数据的预测结果稳定,解决了分布式学习中各方数据分布差异带来的模型稳定性差的问题。
本申请实施例提供的机器学习模型的训练方法可以由各种类型的电子设备实现,例如终端、服务器或者二者的组合。
下面以服务器和服务器协同实施本申请实施例提供的机器学习模型训练方法为例进行说明一个示例性的机器学习模型的训练系统。参见图1A,图1A是本申请实施例提供的机器学习模型训练系统结构示意图。
如图1A所示,机器学习模型训练系统100的结构示意图中,训练参与方设备(示例性示出了训练参与方设备400-1和400-2)通过网络300连接服务方设备200,网络300可以是广域网或者局域网,又或者是二者的组合。
作为示例,服务方设备200将初始化的机器学习模型发送给训练参与方设备400-1和400-2,训练参与方设备400-1和400-2基于存储的训练样本训练接收的服务方设备200发送的机器学习模型,得到训练结果,随后将训练结果发送给服务方设备200,服务方设备200对多个训练参与方设备分别发送的训练结果进行聚合处理,得到全局机器学习模型,并根据服务方设备200存储的训练样本训练全局机器学习模型,直至全局机器学习模型满足收敛条件。在一些实施例中,服务方设备200可以将满足收敛条件的全局机器学习模型返回给训练参与方设备400-1和400-2。需要说明的是,服务方设备和训练参与方设备存储的训练样本可以存储在各自本地或者第三方数据库中。
本申请实施例还可以通过区块链技术来实现,参见图1B,服务方设备200以及训练参与方设备400-1和400-2都可以加入区块链网络500而成为其中的一个共识节点。区块链网络500的类型是灵活多样的,例如可以为公有链、私有链或联盟链中的任意一种。
以区块链网络500为联盟链为例,服务方设备和训练参与方设备在获得授权后可以接入区块链网络500以作为区块链网络500的共识节点,例如服务方设备200成为区块链网络500中的共识节点500-0,训练参与方设备400-1成为区块链网络500中的共识节点500-1,训练参与方设备400-2成为区块链网络500中的共识节点500-2。任一共识节点在接收到服务方设备200发送的机器学习模型时,可以通过调用智能合约的方式对机器学习模型进行审核操作(例如,机器学习模型的版本号是否比区块链中存储的机器学习模型的版本号高),审核操作通过后将对机器学习模型签署数字签名(即背书),当一个机器学习模型有足够的背书时,例如超过数目阈值的节点的背书时,表示共识通过,机器学习模型将被存储在区块链网络500或服务方设备200中,也可以是存储在独立于区块链网络500和服务方设备200而部署的存储服务中。随后,训练参与方设备400-1和训练参与方设备400-2都可以调用区块链网络的智能合约,以从区块链网络的区块链中读取机器学习模型,并对所读取的机器学习模型进行共识验证(例如,是否与区块链中最新的机器学习模型的版本号一致),接收智能合约在共识验证通过后发送的机器学习模型。
示例性的,参见图1C,图1C示出的是本申请实施例提供的机器学习模型的训练方法的流程示意图,在步骤S101中,服务方设备将机器学习模型发送给多个训练参与方设备;在步骤S102中,服务方设备接收多个训练参与方设备分别返回的训练结果;在步骤S103中,服务方设备对多个训练参与方设备分别返回的训练结果进行聚合处理,得到全局机器学习模型;在步骤S104中,根据服务方设备存储的训练样本训练全局机器学习模型。
本申请实施例可以借助于云技术(Cloud Technology)实现,云技术是指在广域网或局域网内将硬件、软件、网络等系列资源统一起来,实现数据的计算、储存、处理和共享的一种托管技术。
云技术是基于云计算商业模式应用的网络技术、信息技术、整合技术、管理平台技术、以及应用技术等的总称,可以组成资源池,按需所用,灵活便利。云计算技术将变成重要支撑。技术网络系统的后台服务需要大量的计算、存储资源。
在一些实施例中,服务方设备和训练参与方设备可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统。服务方设备和训练参与方设备可以通过有线或无线通信方式进行直接或间接地连接,本申请实施例中不做限制。
接下来说明图2A中服务方设备200的结构。参见图2A,图2A是本申请实施例提供的服务方设备200的结构示意图,图2A所示的服务方设备200包括:至少一个处理器210、至少一个网络接口220和存储器230。服务方设备200中的各个组件通过总线系统240耦合在一起。可理解,总线系统240用于实现这些组件之间的连接通信。总线系统240除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。但是为了清楚说明起见,在图2A中将各种总线都标为总线系统240。
处理器210可以是一种集成电路芯片,具有信号的处理能力,例如通用处理器、数字信号处理器(DSP,Digital Signal Processor),或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等,其中,通用处理器可以是微处理器或者任何常规的处理器等。
存储器230可以是可移除的,不可移除的或其组合。示例性的硬件设备包括固态存储器,硬盘驱动器,光盘驱动器等。存储器230可选地包括在物理位置上远离处理器210的一个或多个存储设备。
存储器230包括易失性存储器或非易失性存储器,也可包括易失性和非易失性存储器两者。非易失性存储器可以是只读存储器(ROM,Read Only Memory),易失性存储器可以是随机存取存储器(RAM,Random Access Memory)。本申请实施例描述的存储器230旨在包括任意适合类型的存储器。
在一些实施例中,存储器230能够存储数据以支持各种操作,这些数据的示例包括程序、模块和数据结构或者其子集或超集,下面示例性说明。
操作系统231,包括用于处理各种基本系统服务和执行硬件相关任务的系统程序,例如框架层、核心库层、驱动层等,用于实现各种基础业务以及处理基于硬件的任务;
网络通信模块232,用于经由一个或多个(有线或无线)网络接口220到达其他计算设备,示例性的网络接口220包括:蓝牙、无线相容性认证(WiFi)、和通用串行总线(USB,Universal Serial Bus)等;
在一些实施例中,本申请实施例提供的机器学习模型的训练装置可以在服务方设备200中采用软件方式实现,图2A示出了存储在存储器230中的机器学习模型的训练装置233,其可以是计算机程序和插件等形式的软件。机器学习模型训练装置233包括以下软件模块:发送模块2331、接收模块2332、聚合模块2333和训练模块2334。这些模块是可以是逻辑功能模块,因此根据所实现的功能可以进行任意的组合或进一步拆分。将在下文中说明各个模块的功能。
参见图2B,图2B是本申请实施例提供的训练参与方设备400的结构示意图(在图1A和图1B中示例性示出了400-1和400-2),图2B所示的训练参与方设备400包括:至少一个处理器410、存储器450、至少一个网络接口420。训练参与方设备400中的各个组件通过总线系统440耦合在一起。可理解,总线系统440用于实现这些组件之间的连接通信。
训练参与方设备400中的操作系统451、网络通信模块452、处理器410、网络接口420以及总线系统440与图2A中示出的服务方设备200中的操作系统231、网络通信模块232、处理器210、网络接口220以及总线系统240的实现方式相似,在此处将不再进行赘述。
在一些实施例中,本申请实施例提供的机器学习模型的训练装置可以在训练参与方设备400中采用软件方式实现,图2B示出了存储在存储器450中的机器学习模型的训练装置455,其可以是计算机程序和插件等形式的软件。机器学习模型的训练装置455包括以下软件模块:接收模块4551、训练模块4552和发送模块4553,这些模块是逻辑上的,因此根据所实现的功能可以进行任意的组合或进一步拆分,将在下文中说明各个模块的功能。
下面,以服务方设备(例如图1A中的服务设备200)和训练参与方设备(例如图1A中的训练参与方设备400-1和训练参与方设备400-2)协同执行本申请实施例提供的机器学习模型的训练方法为例说明。参见图3,图3是本申请实施例提供的机器学习模型训练的方法的流程示意图,将结合图3示出的步骤进行说明。
在步骤S201中,服务方设备将机器学习模型发送给多个训练参与方设备。
在一些实施例中,服务方设备存储的训练样本的数量大于任一训练参与方设备存储的训练样本的数量,或者服务方设备的计算能力大于任一训练参与方设备的计算能力。
示例性的,服务方设备可以是由多个参与训练的设备通过选举得到的,而未被选举为服务方设备的设备成为训练参与方设备,其中,选举的因素可以包括:各设备存储的训练样本的数量、训练样本的数据质量以及设备的计算能力等,选举的方式可以是将选举的因素进行加权求和,将排序在首位的设备作为服务方设备,其余的设备作为训练参与方设备。
举例来说,通过使用多家客户的数据来以分布式学习的方式训练风控模型,风控模型是机器学习模型的一种,风控模型可以基于用户数据(用户个人信息、银行账号流水数据以及征信记录等)预测用户的信用评分、评级,或者进行用户还贷是否会逾期的二分类判断。其中,参与训练风控模型的不同客户的数据量不同,例如大型银行等大客户的用户数据量,远大于例如小型证券公司等的用户数据量,当使用大客户方和小客户方的数据来训练风控模型时,通过选举可以将数据量最大的客户作为服务方,将其余客户作为训练参与方,使用服务方设备和参与方设备分布式训练风控模型。通过将大客户方作为服务方设备,可以节约在分布式学习过程中的数据通信资源的消耗,也可以避免不同参与方数据量差异大导致的不同参与方训练耗时差距过大,进而使得训练进程难以控制的问题。
示例性的,参与机器学习模型的各参与方设备的计算能力有所差别,通过选举可以将设备计算能力大于其余任一参与方设备计算能力的参与方设备,作为机器学习模型训练中的服务方设备,其余的参与方设备作为训练参与方设备。这里,将计算能力最强的设备选举为服务方设备,使得计算量大的训练管理、模型聚合等任务可以在服务方设备更快速的处理,可以减少训练耗时,提升模型分布式训练效率。
在一些实施例中,服务方设备发送给多个训练参与方设备的机器学习模型可以是待训练的全局模型,待训练的全局模型可以是初始化的全局模型,也可以是更新过的全局模型。示例性的,服务方设备首次向训练参与方设备发送机器学习模型时,包括预先设定的机器学习模型超参数以及随机初始化的模型参数,之后的训练过程中再向训练参与方设备发送机器学习模型时,可以只发送更新后的模型参数,不再需要进行模型参数初始化和发送模型超参数,从而节约通信资源。
在一些实施例中,为了得到均衡多个训练参与方设备训练后的机器学习模型的参数分布的第一损失函数,当服务方设备将机器学习模型发送给多个训练参与方设备时,服务方设备可以优化训练方设备训练机器学习模型时所使用的原始损失函数,以得到第一损失函数;向多个训练参与方设备发送第一损失函数,以使多个训练参与方设备在机器学习模型的训练过程中,将基于第一损失函数均衡机器学习模型的参数的分布作为训练目标,以得到机器学习模型的训练结果。
示例性的,原始损失函数用于最小化第一差异因子,第一差异因子用于表征:机器学习模型针对训练样本的预测结果与训练样本的标注数据之间的差异;为了通过优化原始损失函数得到第一损失函数时,服务方设备可以确定第二差异因子,第二差异因子用于表征:机器学习模型的参数与全局机器学习模型的参数之间的差异;服务方设备通过对第一差异因子和第二差异因子进行加权求和,得到用于最小化加权求和结果的第一损失函数。
其中,第一损失函数用于供每个训练参与方设备执行以下处理:训练参与方设备将各自所存储的训练样本输入到机器学习模型,以获取机器学习模型针对所存储的训练样本的预测结果;将预测结果、所存储的训练样本的标注数据、机器学习模型的参数以及全局机器学习模型的参数输入到第一损失函数,以获取误差信息;根据误差信息更新机器学习模型的参数;当第一损失函数收敛时,确定多个训练参与方设备各自训练的机器学习模型的参数形成均衡的分布,并将机器学习模型的更新梯度作为训练结果。
通过使训练参与方设备在训练时使用第一损失函数最小化第一差异因子和第二差异因子的加权求和结果,实现对训练参与方设备的训练样本数据进行特征迁移的效果,使得多个训练参与方设备训练后的机器学习模型的参数分布均衡,解决了分布式学习中各方数据分布差异带来的模型稳定性差的问题。
在一些实施例中,将机器学习模型发送给多个训练参与方设备之前,还可以包括:对机器学习模型进行加密,以使训练参与方设备在训练之前对加密的机器学习模型进行解密,从而保证机器学习模型的机器学习参数在传输过程中不被窃取。
示例性的,加密的方式可以是对称加密,也可以是非对称加密。其中,对称加密方式中的密钥可以是通过密钥协商算法协商的,例如通过超文本传输安全协议(Hyper TextTransfer Protocol over SecureSocket Layer,HTTPS)的密钥协商过程来协商对称加密算法的密钥;对于非对称加密方式,通信双方服务方设备和训练参与方设备可以通过密钥协商算法向对方同步自己持有的非对称密钥对中的公钥,一方向另一方发送数据时,使用另一方的公钥加密,以使另一方可以使用持有的公钥对应的私钥解密。另外,服务方设备和训练参与方设备可以使用数字签名保证传输数据的正确性,数字签名方案与加密方案可以是独立的,例如,一方发送的数据携带数字签名,另一方验证数字签名,若数字签名验证通过则继续处理,验证失败则丢弃数据并重新请求;数字签名和加密方案也可以是结合的,例如,一方在加密数据的基础上再对加密的数据进行数字签名,另一方先验证数字签名,如果验证数字签名失败则不再解密,并重新请求,直至验证数字签名成功后再解密,从而保证传输的数据的正确性。
在另外一些实施例中,将机器学习模型发送给多个训练参与方设备之前,还可以包括:可以使用同态加密或者添加噪音的方式对机器学习模型进行加密,使训练参与方设备基于加密后的机器学习模型进行处理,而无法获取真实的机器学习模型的机器学习参数,以保障机器学习模型的参机器学习数不被训练参与方感知,当训练参与方设备返回训练结果后,服务方设备再对其进行解密,以获取经过参与方设备更新后的训练结果。
在一些实施例中,为了将机器学习模型安全的发送给多个训练参与方设备,可以将机器学习模型存储到区块链网络中,以使多个训练参与方设备从区块链网络中获取机器学习模型;其中,机器学习模型的上链方式包括:调用区块链网络的智能合约对机器学习模型进行共识验证,以使智能合约在共识验证通过后,将机器学习模型存储至区块链网络的区块链中。
在步骤S202中,训练参与方设备接收服务方设备发送的机器学习模型。
在一些实施例中,为了保证数据传输的安全性,服务方设备可以将机器学习模型存储到区块链网络中,相应的训练参与方设备可以从区块链网络中获取服务方设备存储的机器学习模型;从区块链网络中获取机器学习模型的获取方式包括:调用区块链网络的智能合约,以从区块链网络的区块链中读取机器学习模型,并对所读取的机器学习模型进行共识验证;接收智能合约在共识验证通过后发送的机器学习模型。
在步骤S203中,训练参与方设备基于训练参与方设备存储的训练样本训练机器学习模型,得到训练结果。
其中,训练参与方设备训练机器学习模型所使用的第一损失函数用于:均衡多个训练参与方设备训练后的机器学习模型的机器学习参数的分布。
承接上述示例,训练参与方存储的训练样本数据可以是用于风控模型的用户数据,记载了脱敏后的用户信息,举例来说,训练样本数据可以包括用户的ID、年龄、性别、职业、收入信息、交易记录、银行账号的流水数据,以及征信信息等,可以用于训练风控模型,以预测用户的信用评分、评级,或者进行用户还贷是否会逾期的二分类判断等。其中,风控模型的风控参数可以包括风控模型的超参数和模型参数。超参数是在开始学习过程之前设置的参数,而不是通过训练得到的参数,例如当风控模型为神经网络时,超参数可以包括网络的层数、每一层网络的节点数量,以及节点的激活函数等,当风控模型为树模型时,超参数可以包括树的数量,树的深度等,超参数也可以是风控模型的训练设置参数,可以包括学习率、梯度寻优方式、迭代次数等。风控模型的模型参数用于实现从所述用户数据到所述用户信用的映射,模型参数可以是模型内部的配置变量,模型参数的值可以根据数据进行估计,例如特征的权重及系数等。
在一些实施例中,以训练参与方设备存储的训练样本作为模型的输入,得到针对训练样本的预测结果;根据预测结果与训练样本对应的标注数据确定误差;获取训练更新过程中机器学习模型的参数与接收到的机器学习模型的参数的空间距离,可以理解的是,训练参与方设备使用存储的训练样本训练机器学习模型时,模型参数是不断更新迭代的,此时的模型参数已经与接收到的服务方设备发送的机器学习模型的参数不同,因此以空间距离来表示机器学习模型的参数与全局机器学习模型的参数之间的差异,可以通过计算二范数来获取空间距离;根据误差和空间距离构建损失函数,示例性的,在构建损失函数时可以将误差和参数差异进行加和,也可以相乘;根据损失函数更新模型参数,直至损失函数收敛;将损失函数收敛时的模型的训练结果,确定为训练结果。
在一些实施例中,为了使用第一损失函数训练机器学习模型,训练参与方设备将各自所存储的训练样本输入到机器学习模型,以获取机器学习模型针对所存储的训练样本的预测结果;将预测结果、所存储的训练样本的标注数据、机器学习模型的参数以及全局机器学习模型的参数输入到第一损失函数,以获取误差信息;根据误差信息更新机器学习模型的参数;当第一损失函数收敛时,确定多个训练参与方设备各自训练的机器学习模型的参数形成均衡的分布,并将机器学习模型的更新梯度作为训练结果。
在步骤S204中,训练参与方设备将训练结果发送给服务方设备。
在一些实施例中,训练参与方设备将训练结果发送给服务方设备,以使服务方设备对多个训练参与方设备发送的训练结果进行聚合,得到全局机器学习模型的参数。
在步骤S205中,服务方设备接收多个训练参与方设备分别发送的训练结果。
在步骤S206中,服务方设备对多个训练参与方设备分别发送的训练结果进行聚合处理,得到全局机器学习模型。
在一些实施例中,当训练结果包括机器学习模型的参数时,对多个训练参与方设备分别发送的训练结果进行聚合处理,得到全局机器学习模型,可以包括:确定每个训练参与方设备的权重;根据每个训练参与方设备的权重,对每个训练参与方设备发送的参数进行加权求和处理,将加权平均的结果作为全局机器学习模型的参数。
在一些实施例中,当训练结果包括机器学习模型的更新梯度时,为了聚合多个训练参与方设备发送的训练结果得到全局机器学习模型,可以确定每个训练参与方设备的权重;根据每个训练参与方设备的权重,对每个训练方设备发送的更新梯度进行加权平均处理,以得到聚合梯度;根据聚合梯度更新机器学习模型的参数。
通过聚合梯度更新机器学习模型的参数,使得训练参与方设备在训练机器学习模型时,只需要获取模型更新的梯度,而不需要进一步的使用梯度来更新模型参数,特别的,当服务方设备是通过计算能力选举确定的时候,将模型的更新梯度发送至服务方设备以用于更新全局机器学习模型,可以进一步的依靠服务方的计算能力来快速处理,降低了训练参与方计算量,提升了训练效率。并且,由于训练参与方只传输了机器学习模型的更新梯度,而未传输机器学习模型的参数,进一步保证了机器学习模型的安全性。
在一些实施例中,确定每个训练参与方设备的权重,可以包括:将每个训练参与方设备存储的训练样本的数量与总数量之间的比值,确定为相应训练参与方设备的权重,其中,总数量为每个训练参与方设备存储的训练样本的数量的加和;或者,将每个训练参与方设备的计算能力与总计算能力之间的比值,确定为相应训练参与方设备的权重,其中,总计算能力为每个训练参与方设备的计算能力的加和。
在步骤S207中,根据服务方设备存储的训练样本训练全局机器学习模型,直至全局机器学习模型满足收敛条件。
示例性的,服务方设备存储的训练样本可以是与训练参与方设备存储的训练样本数据包含相同特征维度的信息,但是训练样本可以不完全重和,服务方设备可以使用不与参与方重合的部分训练样本数据训练模型。
在一些实施例中,服务方设备训练全局机器学习模型时使用第二损失函数,第二损失函数用于最小化第二差异因子,第二差异因子表征:全局机器学习模型针对服务方设备存储的训练样本的预测结果与对应的标注数据之间的差异。
需要说明的是,服务方设备使用存储的训练样本训练全局机器学习模型后,如果全局机器学习模型不满足收敛条件,可以将更新后的全局机器学习模型发送给训练参与方设备,继而重复上述步骤S201至步骤S207,直至全局机器学习模型满足收敛条件。这里,收敛条件可以是模型收敛,或迭代训练次数到达预设迭代训练次数限制。
参见图4,图4是本申请实施例提供的机器学习模型的训练方法的流程示意图,基于图3,在步骤S207之后还可以包括步骤S208。
在步骤S208中,将满足收敛条件的全局机器学习模型发送给至少一个训练参与方设备。
当全局机器学习模型满足收敛条件时,可以将满足收敛条件的全局机器学习模型发送给至少一个训练参与方设备,以使训练参与方设备可以使用训练完成的全局机器学习模型。
在一些实施例中,将满足收敛条件的全局机器学习模型发送给至少一个训练参与方设备时,可以确定每个训练参与方设备的训练贡献参数,对每个训练参与方设备的训练贡献参数进行降序排序;针对降序排序在前的设定数量或设定比例的训练参与方设备,发送满足收敛条件的全局机器学习模型;其中,训练参与方设备的训练贡献参数是根据以下维度至少之一确定的:训练参与方设备存储的训练样本的数量,训练参与方设备提交的训练结果的数据量,训练参与方设备存储的训练样本的数据时效性,训练参与方设备存储的训练样本的数据完整性。训练样本的数据时效性可以是指,训练样本生成时间与机器学习模型训练时间的间隔,间隔越小训练样本的数据时效性越强。训练样本的数据完整性可以是指,训练样本中各维度特征的信息是否完整。
本申请实施例提供的机器学习模型的训练方法中,不同的训练参与方设备可能具有不同的训练样本数量或计算能力,拥有的训练样本的数据质量也不相同。例如有的训练参与设备的训练样本量大,训练样本质量高(例如特征完整,缺失值少,时效性强等),这样导致不同的训练参与方设备在全局模型训练过程中的贡献不同。
可以结合训练参与方设备存储的训练样本的数量,训练参与方设备提交的训练结果的数据量,训练参与方设备存储的训练样本的数据时效性,训练参与方设备存储的训练样本的数据完整性等影响模型训练效果的因素来评估每个训练参与方设备的训练贡献参数,其中,训练样本的数量大、提交的训练结果的数据量大、数据时效性强、数据完整的训练参与方的贡献参数高。然后根据贡献参数来判定是否向该参与方发送训练完成的全局机器学习模型,例如当贡献参数大于贡献阈值时,发送训练完成的全局机器学习模型,也可以根据贡献参数来选择不同训练阶段的全局机器学习模型发送给训练参与方设备,举例来说,对于贡献参数大于贡献阈值的训练参与方设备,可以发送完全收敛或近似收敛的全局模型,而对于贡献参数小于贡献阈值的训练参与方设备,可以发送训练过程中的未收敛或者收敛情况不佳时的模型。
下面,以应用场景是通过联邦学习训练风控模型为例说明本申请实施例提供的风控模型的训练方法。
在机器学习模型为风控模型的场景中,为了使模型效果得到提升,一种有效的方法是联合其他公司进行联邦建模,在合法合规、且数据隐私不泄露的前提下,利用其他公司的数据来提升模型的效果。
在很多实际的应用场景中,遇到的实际问题是:会有一个大客户数据方S,同时有很多小客户Ti,期望通过大客户的数据来提升每一个小客户的风控模型的质量。但在现实的落地应用中,发现不同的小客户Ti提升的效果并不一致,也就是说有一些客户的提升效果可能很好,但有一些客户提升效果不明显。如图5所示,图5中柱状图的指标可以是风控模型进行用户信用预测的准确率、召回率和F1值等,可见,大客户的数据对于T1的提升最明显,但对于T2则几乎没有提升。
这里,大客户参与方即产生的数据量很大的参与方,比如一间大银行。大客户虽然数据量丰富,但基本是巨头银行,因此数量少。小客户参与方即数据量少的参与方,通常是体量小的信贷公司,小银行等。与大客户参与方相反,小客户数据量不丰富,但是绝大部分的金融机构都属于小客户参与方。
这种不稳定性,导致很难判断大客户的数据S是否真的能有效提升小客户风控模型效果,在帮助客户建模时,如果没有稳定的结果,可能会导致业务开发人员对模型和数据的不信任。
参见图6A、图6B,图6A、图6B是分布式学习中联邦学习的两种架构示意图。
图6A是纵向联邦学习架构示意图,在纵向联邦的场景下,公司A有特征数据;公司B既有特征数据,又有标签数据。纵向联邦本质上是通过扩展公司B的训练数据的特征维度来提升模型效果。在前面提到的风控场景下,公司A相当于大客户数据方,公司B相当于是其中一个小客户数据方。公司A的数据能丰富公司B的特征维度。在训练过程中,第一步,协同方C向参与方A和B发送公钥,用来加密需要传输的数据;第二步,参与方A与B分别计算和自己相关的特征中间结果,并加密交互,用来求得各自梯度和损失;第三步、参与方A与B分别计算各自加密后的梯度并添加掩码发送给协同方C,同时B计算加密后的损失发送给协同方C;第四步,协同方C解密梯度和损失后回传给参与方A和B,参与方A和B去除掩码并更新模型。
图6B是横向联邦学习架构示意图,在横向联邦的场景下,多家公司的数据在不出本地的前提下,相互之间进行联合建模。横向联邦相当于增加了每一个客户方的样本数据来提升模型效果,即不同的客户方之间的样本数据不完全重合(样本数据对应的用户或者交易等,有重合的部分,也有各自不同的部分),但样本数据的特征相同。在风控模型的建模过程中,可以将大客户方S和各个小客户方Ti,看成是单独的客户端进行联合训练,从而帮助提升各参与方的效果。参与方各自从作为服务方设备的聚合服务器下载最新模型,在训练过程中,第一步,每个参与方利用本地数据训练模型,加密梯度上传给聚合服务器;第二步,聚合服务器聚合各用户的梯度更新模型参数;第三步,聚合服务器返回更新后的梯度给各参与方;第四步,各参与方解密梯度并在本地更新各自模型。
但不管是横向联邦还是纵向联邦,正如之前所提到的,在风控建模中都会遇到不稳定性问题,导致某一个参与方的效果很好,但是在另一个参与方的效果很差。
利用普通的联邦方案建模如图7A所示,即把每一个参与方都看成是客户端,包括大客户参与方S,小客户参与方T1…Tm,这种做法会导致最后的结果偏向于大客户方,如果某一个小客户方的数据分布与大客户方相近,那么效果提升比较明显,但是如果小客户方的分布与大客户方不一致时,那么效果可能就会很差。本申请实施例中,利用一种基于横向联邦特征迁移的方案,来提升联邦学习在训练之后的模型稳定性,如图7B所示。可见,不是将大客户S与其他小客户Ti同等看待为客户端。而是将大客户方S作为服务端(服务方设备),其他小客户方Ti作为客户端(训练参与方设备)。这样联邦学习流程,最终的目的不是训练一个全局模型,而是将各参与方Ti数据特征迁移,从而达到各小客户参与方Ti的特征分布更为均衡,这样大客户方S的数据对各小客户方Ti的提升也就比较稳定。具体的步骤如下,假设当前进行的是第t轮迭代。
第一:服务端的全局风控模型为Mt,将Mt分发给小客户方所在的客户端。
第二:每一个小客户方Ti接收到Mt后,开始使用自己的训练样本进行模型训练,其中,训练样本包括用户数据,例如用户的ID、年龄、性别、职业、收入信息、交易记录、银行账号的流水数据,以及征信信息等;
为了使模型更加稳定,修改每一个小客户方Ti的损失函数,假设原始的损失函数为min{L(θi)},其中,L(θi)是基于模型预测值和真实标签构建的误差,那么修改后的损失函数就是:min{L(θi)+‖θi-Mt‖2}。
该损失函数的目标是,一方面能保持模型的性能,即最小化L(θi);另一方面,模型经过训练之后,与全局模型的距离Mt尽量接近,则最小化‖θi-Mt‖2。
参见图8,这样每一个小客户方经过训练之后,它们的本地模型参数θi(图8中示例性示出了θ1至θ6)将与Mt的距离都比较接近。左边的(a)表示只优化min{L(θi)}的效果,可见每一个小客户方的模型参数θi与Mt的方差都很大;右边(b)则是本申请实施例中提出的优化min{L(θi)+‖θi-Mt‖2}之后的效果,相比左边的结果,各小客户方与全局模型的方差更小,相互之间差距不大,因此模型更稳定。
第三:将每一个小客户方模型参数θi上传给服务端,服务端利用联邦聚合方法,聚合成新的模型或者使用联邦平均算法进行聚合,根据各客户端的样本数据量加权平均来进行聚合,由于服务端包括了大客户数据,因此,利用这部分大客户数据,从M再进行训练(此时训练使用的损失函数基于模型预测值和真实标签构建损失函数),将模型从M变为Mt+1,Mt+1就是新的全局模型。
第四:重复上面的三个步骤,直到模型收敛为止,服务端和所有客户端可以使用训练完成的全局模型。
举例说明训练完成后的全局风控模型的应用场景,服务方设备或者训练参与方设备获取风控模型的输入用户数据,通过风控模型的风控参数将用户数据映射为用户信用。
下面结合图2A和图2B说明本申请实施例提供的服务方设备200和训练参与方设备(400-1和400-2)实施为软件模块的示例性结构。
在一些实施例中,如图2A所示,图2A示出的是是本申请实施例提供的服务方设备200的结构示意图,存储在存储器230的机器学习模型的训练装置233中的软件模块可以包括:
发送模块2331,用于将机器学习模型发送给多个训练参与方设备,以使多个训练参与方设备基于各自所存储的训练样本独立训练机器学习模型;
其中,训练参与方设备训练机器学习模型所使用的第一损失函数用于:均衡多个训练参与方设备训练后的机器学习模型的参数的分布;
接收模块2332,用于接收多个训练参与方设备分别返回的训练结果;
聚合模块2333,用于对多个训练参与方设备分别返回的训练结果进行聚合处理,得到全局机器学习模型;
训练模块2334,用于根据服务方设备存储的训练样本训练全局机器学习模型。
在上述方案中,发送模块2331,还用于优化训练方设备训练机器学习模型时所使用的原始损失函数,以得到第一损失函数;向多个训练参与方设备发送第一损失函数,以使多个训练参与方设备在机器学习模型的训练过程中,将基于第一损失函数均衡机器学习模型的参数的分布作为训练目标,以得到机器学习模型的训练结果。
在上述方案中,原始损失函数用于最小化第一差异因子,第一差异因子用于表征:机器学习模型针对训练样本的预测结果与训练样本的标注数据之间的差异;发送模块2331,还用于确定第二差异因子,第二差异因子用于表征:机器学习模型的参数与全局机器学习模型的参数之间的差异;通过对第一差异因子和第二差异因子进行加权求和,得到用于最小化加权求和结果的第一损失函数。
在上述方案中,第一损失函数用于供每个训练参与方设备执行以下处理:训练参与方设备将各自所存储的训练样本输入到机器学习模型,以获取机器学习模型针对所存储的训练样本的预测结果;将预测结果、所存储的训练样本的标注数据、机器学习模型的参数以及全局机器学习模型的参数输入到第一损失函数,以获取误差信息;根据误差信息更新机器学习模型的参数;当第一损失函数收敛时,确定多个训练参与方设备各自训练的机器学习模型的参数形成均衡的分布,并将机器学习模型的更新梯度作为训练结果。
在上述方案中,当训练结果包括机器学习模型的更新梯度时,聚合模块2333,还用于确定每个训练参与方设备的权重;根据每个训练参与方设备的权重,对每个训练参与方设备发送的更新梯度进行加权求和处理,以得到聚合梯度;根据聚合梯度更新机器学习模型的参数。
在上述方案中,聚合模块2333,还用于将每个训练参与方设备存储的训练样本的数量与总数量之间的比值,确定为相应训练参与方设备的权重,其中,总数量为每个训练参与方设备存储的训练样本的数量的加和;或者,将每个训练参与方设备的计算能力与总计算能力之间的比值,确定为相应训练参与方设备的权重,其中,总计算能力为每个训练参与方设备的计算能力的加和。
在上述方案中,服务方设备训练全局机器学习模型时,使用第二损失函数,第二损失函数用于最小化以下参数:全局机器学习模型针对服务方设备存储的训练样本的预测结果与对应的标注数据之间的差异。
在上述方案中,发送模块2331,还用于将满足收敛条件的全局机器学习模型发送给至少一个训练参与方设备。
在上述方案中,发送模块2331,还用于确定每个训练参与方设备的训练贡献参数,对每个训练参与方设备的训练贡献参数进行降序排序;针对降序排序在前的设定数量或设定比例的训练参与方设备,发送满足收敛条件的全局机器学习模型;其中,训练参与方设备的训练贡献参数是根据以下维度至少之一确定的:训练参与方设备存储的训练样本的数量,训练参与方设备向服务方设备提交的训练结果的数据量,训练参与方设备存储的训练样本的数据时效性,训练参与方设备存储的训练样本的数据完整性。
在上述方案中,发送模块2331,包括上链子模块,用于将机器学习模型存储到区块链网络中,以使多个训练参与方设备从区块链网络中获取机器学习模型;其中,机器学习模型的上链方式包括:调用区块链网络的智能合约执行以下处理:对机器学习模型进行共识验证,以使智能合约在共识验证通过后,将机器学习模型存储至区块链网络的区块链中。
在一些实施例中,如图2B所示,图2A示出的是是本申请实施例提供的训练参与方设备400的结构示意图,存储在存储器450的机器学习模型的训练装置455中的软件模块可以包括:
接收模块4551,用于训练参与方设备接收服务方设备发送的机器学习模型;
训练模块4552,用于基于训练参与方设备存储的训练样本训练机器学习模型,得到训练结果;
其中,训练参与方设备训练机器学习模型所使用的第一损失函数用于:均衡多个训练参与方设备训练后的机器学习模型的参数的分布;
发送模块4553,用于将训练结果返回给服务方设备,以使服务方设备聚合多个训练参与方设备返回的训练结果得到全局机器学习模型的参数。
在上述方案中,接收模块4551,还用于接收服务方设备发送的用于训练机器学习模型的第一损失函数;其中,第一损失函数是由服务方设备优化训练方设备训练机器学习时所使用的原始损失函数得到的;训练模块,还用于在机器学习模型的训练过程中,将基于第一损失函数均衡机器学习模型的参数的分布作为训练目标,以得到机器学习模型的训练结果;其中,原始损失函数用于最小化第一差异因子,第一差异因子表征:机器学习模型针对训练样本的预测结果与训练样本的标注数据之间的差异;其中,第一损失函数用于最小化第一差异因子与第二差异因子的加权求和结果;第二差异因子用于表征:机器学习模型的参数与全局机器学习模型的参数之间的差异。
在上述方案中,训练模块4552,还用于将所存储的训练样本输入到机器学习模型,获取机器学习模型针对所存储的训练样本的预测结果;将预测结果、所存储的训练样本的标注数据、机器学习模型的参数以及全局机器学习模型的参数输入到第一损失函数,以获取误差信息;根据误差信息更新机器学习模型的参数;当第一损失函数收敛时,确定多个训练参与方设备各自训练的机器学习模型的参数形成均衡的分布,并将机器学习模型的更新梯度作为训练结果。
在上述方案中,接收模块4551,包括获取子模块,用于从区块链网络中获取服务方设备存储的机器学习模型;其中,从区块链网络中获取机器学习模型的获取方式包括:调用区块链网络的智能合约执行以下处理:以从区块链网络的区块链中读取机器学习模型,并对所读取的机器学习模型进行共识验证;接收智能合约在共识验证通过后发送的机器学习模型。
本申请实施例提供一种存储有计算机可执行指令的计算机可读存储介质,其中存储有计算机可执行指令,当计算机可执行指令被处理器执行时,将引起处理器执行本申请实施例提供的机器学习模型的训练方法。
在一些实施例中,计算机可读存储介质可以是FRAM、ROM、PROM、EP ROM、EEPROM、闪存、磁表面存储器、光盘、或CD-ROM等存储器;也可以是包括上述存储器之一或任意组合的各种设备。
在一些实施例中,计算机可执行指令可以采用程序、软件、软件模块、脚本或代码的形式,按任意形式的编程语言(包括编译或解释语言,或者声明性或过程性语言)来编写,并且其可按任意形式部署,包括被部署为独立的程序或者被部署为模块、组件、子例程或者适合在计算环境中使用的其它单元。
作为示例,计算机可执行指令可被部署为在一个计算设备上执行,或者在位于一个地点的多个计算设备上执行,又或者,在分布在多个地点且通过通信网络互连的多个计算设备上执行。
本申请实施例提供一种机器学习模型的训练方法,通过联合多个训练参与方设备基于各自所存储的训练样本独立训练机器学习模型;并且,将各参与方的数据特征迁移,使各参与方的机器学习模型的机器学习参数特征分布均衡;进而,根据服务方设备存储的训练样本训练全局机器学习模型,直至全局机器学习模型满足收敛条件,使得能够联合多个参与方设备来训练稳定的机器学习模型,使得全局机器学习模型对不同参与方的用户数据的预测结果稳定,解决了分布式学习中各方数据分布差异带来的模型稳定性差的问题,在实现训练机器学习模型的资源集约利用的基础上,实现分布式学习的预测稳定性,并且,保证了数据安全性,也提升设备的资源利用和模型训练效率。
以上,仅为本申请的实施例而已,并非用于限定本申请的保护范围。凡在本申请的精神和范围之内所作的任何修改、等同替换和改进等,均包含在本申请的保护范围之内。
Claims (15)
1.一种机器学习模型的训练方法,其特征在于,包括:
服务方设备将机器学习模型发送给多个训练参与方设备,以使所述多个训练参与方设备基于各自所存储的训练样本独立训练所述机器学习模型;
其中,所述训练参与方设备训练所述机器学习模型所使用的第一损失函数用于:均衡所述多个训练参与方设备训练后的所述机器学习模型的参数的分布;
接收所述多个训练参与方设备分别返回的训练结果;
对所述多个训练参与方设备分别返回的训练结果进行聚合处理,得到全局机器学习模型的参数;
根据服务方设备存储的训练样本训练所述全局机器学习模型。
2.根据权利要求1所述的方法,其特征在于,当所述服务方设备将机器学习模型发送给多个训练参与方设备时,所述方法还包括:
所述服务方设备优化所述训练方设备训练所述机器学习模型时所使用的原始损失函数,以得到所述第一损失函数;
向所述多个训练参与方设备发送所述第一损失函数,以使
多个所述训练参与方设备在所述机器学习模型的训练过程中,将基于所述第一损失函数均衡所述机器学习模型的参数的分布作为训练目标,以得到所述机器学习模型的训练结果。
3.根据权利要求2所述的方法,其特征在于,
所述原始损失函数用于最小化第一差异因子,所述第一差异因子用于表征:所述机器学习模型针对所述训练样本的预测结果与所述训练样本的标注数据之间的差异;
所述服务方设备优化所述训练方设备训练所述机器学习模型时所使用的原始损失函数,以得到所述第一损失函数,包括:
确定第二差异因子,所述第二差异因子用于表征:所述机器学习模型的参数与所述全局机器学习模型的参数之间的差异;
通过对所述第一差异因子和所述第二差异因子进行加权求和,得到用于最小化加权求和结果的所述第一损失函数。
4.根据权利要求3所述的方法,其特征在于,所述第一损失函数用于供每个所述训练参与方设备执行以下处理:
所述训练参与方设备将各自所存储的训练样本输入到所述机器学习模型,以获取所述机器学习模型针对所存储的训练样本的预测结果;
将所述预测结果、所存储的训练样本的标注数据、所述机器学习模型的参数以及所述全局机器学习模型的参数输入到所述第一损失函数,以获取误差信息;
根据所述误差信息更新所述机器学习模型的参数;
当所述第一损失函数收敛时,确定多个所述训练参与方设备各自训练的机器学习模型的参数形成均衡的分布,并将所述机器学习模型的更新梯度作为所述训练结果。
5.根据权利要求1所述的方法,其特征在于,
当所述训练结果包括所述机器学习模型的更新梯度时,所述对所述多个训练参与方设备分别发送的训练结果进行聚合处理,得到全局机器学习模型,包括:
确定每个所述训练参与方设备的权重;
根据每个所述训练参与方设备的权重,对每个所述训练方设备发送的更新梯度进行加权平均处理,以得到聚合梯度;
根据所述聚合梯度更新所述机器学习模型的参数。
6.根据权利要求5所述的方法,其特征在于,所述确定每个所述训练参与方设备的权重,包括:
将每个所述训练方设备存储的训练样本的数量与总数量之间的比值,确定为相应训练方设备的权重,其中,所述总数量为每个所述训练方设备存储的训练样本的数量的加和;或者,
将每个所述训练方设备的计算能力与总计算能力之间的比值,确定为相应训练方设备的权重,其中,所述总计算能力为每个所述训练方设备的计算能力的加和。
7.根据权利要求1所述的方法,其特征在于,
所述服务方设备训练所述全局机器学习模型时使用第二损失函数,所述第二损失函数用于最小化第二差异因子,所述第二差异因子表征:
所述全局机器学习模型针对所述服务方设备存储的训练样本的预测结果与对应的标注数据之间的差异。
8.根据权利要求1至7任一项所述的方法,其特征在于,所述当所述全局机器学习模型满足收敛条件时,所述方法还包括:
确定每个所述训练参与方设备的训练贡献参数,对每个所述训练参与方设备的训练贡献参数进行降序排序;
针对所述降序排序在前的设定数量或设定比例的训练参与方设备,发送满足所述收敛条件的所述全局机器学习模型;
其中,所述训练参与方设备的训练贡献参数是根据以下维度至少之一确定的:
所述训练参与方设备存储的训练样本的数量,所述训练参与方设备向所述服务方设备提交的训练结果的数据量,所述训练参与方设备存储的训练样本的数据时效性,所述训练参与方设备存储的训练样本的数据完整性。
9.根据权利要求1至7任一项所述的方法,其特征在于,所述将机器学习模型发送给多个训练参与方设备,包括:
将所述机器学习模型存储到区块链网络中,以使所述多个训练参与方设备从所述区块链网络中获取所述机器学习模型;
其中,所述机器学习模型的上链方式包括:
调用所述区块链网络的智能合约执行以下处理:对所述机器学习模型进行共识验证,在共识验证通过后,将所述机器学习模型存储至所述区块链网络的区块链中。
10.一种机器学习模型的训练方法,其特征在于,包括:
训练参与方设备接收服务方设备发送的机器学习模型;
基于所述训练参与方设备存储的训练样本训练所述机器学习模型,得到训练结果;
其中,训练所述机器学习模型所使用的第一损失函数用于:均衡多个所述训练参与方设备训练后的所述机器学习模型的参数的分布;
将所述训练结果返回给所述服务方设备,以使所述服务方设备聚合多个所述训练参与方设备返回的训练结果得到全局机器学习模型的参数。
11.一种机器学习模型的训练装置,其特征在于,所述装置包括:
发送模块,用于将机器学习模型发送给多个训练参与方设备,以使所述多个训练参与方设备基于各自所存储的训练样本独立训练所述机器学习模型;
其中,所述训练参与方设备训练所述机器学习模型所使用的第一损失函数用于:均衡所述多个训练参与方设备训练后的所述机器学习模型的参数的分布;
接收模块,用于接收所述多个训练参与方设备分别返回的训练结果;
聚合模块,用于对所述多个训练参与方设备分别返回的训练结果进行聚合处理,得到全局机器学习模型;
训练模块,用于根据服务方设备存储的训练样本训练所述全局机器学习模型。
12.一种机器学习模型的训练装置,其特征在于,所述装置包括:
接收模块,用于接收服务方设备发送的机器学习模型;
训练模块,用于基于存储的训练样本训练所述机器学习模型,得到训练结果;
其中,训练所述机器学习模型所使用的第一损失函数用于:均衡多个训练参与方设备训练后的所述机器学习模型的参数的分布;
发送模块,用于将所述训练结果发送给所述服务方设备,以使所述服务方设备聚合多个所述训练参与方设备发送的训练结果得到全局机器学习模型。
13.一种机器学习模型的训练系统,其特征在于,包括:服务方设备和多个训练参与方设备;其中,
所述服务方设备,用于:
将机器学习模型发送给多个训练参与方设备;
对所述多个训练参与方设备分别发送的训练结果进行聚合处理,得到全局机器学习模型;
根据所述服务方设备存储的训练样本训练所述全局机器学习模型;
所述训练参与方设备,用于:
基于所述训练参与方设备存储的训练样本训练接收所述训练方设备发送的所述机器学习模型,得到训练结果;
其中,所述训练参与方设备训练所述机器学习模型所使用的第一损失函数用于:均衡多个训练参与方设备训练后的所述机器学习模型的参数的分布;
将所述训练结果发送给所述服务方设备。
14.一种电子设备,其特征在于,包括:
存储器,用于存储计算机可执行指令;
处理器,用于执行所述存储器中存储的计算机可执行指令时,实现权利要求1至9任一项所述的机器学习模型的训练方法。
15.一种计算机可读存储介质,其特征在于,存储有计算机可执行指令,所述计算机可执行指令被执行时用于实现权利要求1至9任一项所述的机器学习模型的训练方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011255038.5A CN112257873A (zh) | 2020-11-11 | 2020-11-11 | 机器学习模型的训练方法、装置、系统、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011255038.5A CN112257873A (zh) | 2020-11-11 | 2020-11-11 | 机器学习模型的训练方法、装置、系统、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112257873A true CN112257873A (zh) | 2021-01-22 |
Family
ID=74265309
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011255038.5A Pending CN112257873A (zh) | 2020-11-11 | 2020-11-11 | 机器学习模型的训练方法、装置、系统、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112257873A (zh) |
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112507372A (zh) * | 2021-02-05 | 2021-03-16 | 支付宝(杭州)信息技术有限公司 | 实现隐私保护的多方协同更新模型的方法及装置 |
CN112734568A (zh) * | 2021-01-29 | 2021-04-30 | 深圳前海微众银行股份有限公司 | 信用评分卡模型构建方法、装置、设备及可读存储介质 |
CN112800178A (zh) * | 2021-01-28 | 2021-05-14 | 平安科技(深圳)有限公司 | 答案生成方法、装置、电子设备及可读存储介质 |
CN112801307A (zh) * | 2021-04-13 | 2021-05-14 | 深圳索信达数据技术有限公司 | 基于区块链的联邦学习方法、装置和计算机设备 |
CN112801780A (zh) * | 2021-03-19 | 2021-05-14 | 中国工商银行股份有限公司 | 基于联邦学习的境内外风险客户识别方法、装置及系统 |
CN112819177A (zh) * | 2021-01-26 | 2021-05-18 | 支付宝(杭州)信息技术有限公司 | 一种个性化的隐私保护学习方法、装置以及设备 |
CN112836765A (zh) * | 2021-03-01 | 2021-05-25 | 深圳前海微众银行股份有限公司 | 分布式学习的数据处理方法、装置、电子设备 |
CN113128700A (zh) * | 2021-03-23 | 2021-07-16 | 同盾控股有限公司 | 安全多方计算的联邦模型训练加速的方法和系统 |
CN113159327A (zh) * | 2021-03-25 | 2021-07-23 | 深圳前海微众银行股份有限公司 | 基于联邦学习系统的模型训练方法、装置、电子设备 |
CN113205135A (zh) * | 2021-04-30 | 2021-08-03 | 平安科技(深圳)有限公司 | 课程预测模型的更新方法、装置、计算机设备及存储介质 |
CN113269232A (zh) * | 2021-04-25 | 2021-08-17 | 北京沃东天骏信息技术有限公司 | 模型训练方法、向量化召回方法、相关设备及存储介质 |
CN113435537A (zh) * | 2021-07-16 | 2021-09-24 | 同盾控股有限公司 | 基于Soft GBDT的跨特征联邦学习方法、预测方法 |
CN113435398A (zh) * | 2021-07-13 | 2021-09-24 | 傲雄在线(重庆)科技有限公司 | 基于掩码预训练模型的签名特征识别方法、系统、设备及存储介质 |
CN113435534A (zh) * | 2021-07-09 | 2021-09-24 | 新智数字科技有限公司 | 一种基于相似度度量的数据异构处理方法、装置、计算机设备及计算机可读存储介质 |
CN113658689A (zh) * | 2021-08-25 | 2021-11-16 | 深圳前海微众银行股份有限公司 | 多智能体模型的训练方法、装置、电子设备及存储介质 |
CN113704779A (zh) * | 2021-07-16 | 2021-11-26 | 杭州医康慧联科技股份有限公司 | 加密的分布式机器学习训练方法 |
CN113778966A (zh) * | 2021-09-15 | 2021-12-10 | 深圳技术大学 | 高校教学与课程成绩的跨学校信息共享方法及相关装置 |
CN113821827A (zh) * | 2021-02-19 | 2021-12-21 | 支付宝(杭州)信息技术有限公司 | 保护多方数据隐私的联合建模方法及装置 |
CN113849805A (zh) * | 2021-09-23 | 2021-12-28 | 国网山东省电力公司济宁供电公司 | 移动用户可信认证方法及装置、电子设备、存储介质 |
CN113935826A (zh) * | 2021-10-21 | 2022-01-14 | 阿尔法时刻科技(深圳)有限公司 | 一种基于用户隐私的信贷账户管理方法及系统 |
CN114065863A (zh) * | 2021-11-18 | 2022-02-18 | 北京百度网讯科技有限公司 | 联邦学习的方法、装置、系统、电子设备及存储介质 |
CN114254588A (zh) * | 2021-12-16 | 2022-03-29 | 马上消费金融股份有限公司 | 数据标签处理方法和装置 |
CN114330882A (zh) * | 2021-12-29 | 2022-04-12 | 马上消费金融股份有限公司 | 数据处理方法、装置、计算机设备及存储介质 |
CN114676845A (zh) * | 2022-02-18 | 2022-06-28 | 支付宝(杭州)信息技术有限公司 | 模型训练方法和装置、业务预测方法和装置 |
CN114707606A (zh) * | 2022-04-11 | 2022-07-05 | 中国电信股份有限公司 | 基于联邦学习的数据处理方法及装置、设备、存储介质 |
WO2022193173A1 (zh) * | 2021-03-17 | 2022-09-22 | 深圳技术大学 | 一种基于区块链的金融数据信息联邦迁移学习系统及方法 |
WO2022236469A1 (en) * | 2021-05-08 | 2022-11-17 | Asiainfo Technologies (China), Inc. | Customer experience perception based on federated learning |
CN116415687A (zh) * | 2022-12-29 | 2023-07-11 | 江苏东蓝信息技术有限公司 | 一种基于深度学习的人工智能网络优化训练系统及方法 |
-
2020
- 2020-11-11 CN CN202011255038.5A patent/CN112257873A/zh active Pending
Cited By (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112819177A (zh) * | 2021-01-26 | 2021-05-18 | 支付宝(杭州)信息技术有限公司 | 一种个性化的隐私保护学习方法、装置以及设备 |
CN112800178A (zh) * | 2021-01-28 | 2021-05-14 | 平安科技(深圳)有限公司 | 答案生成方法、装置、电子设备及可读存储介质 |
CN112734568A (zh) * | 2021-01-29 | 2021-04-30 | 深圳前海微众银行股份有限公司 | 信用评分卡模型构建方法、装置、设备及可读存储介质 |
CN112734568B (zh) * | 2021-01-29 | 2024-01-12 | 深圳前海微众银行股份有限公司 | 信用评分卡模型构建方法、装置、设备及可读存储介质 |
CN112507372B (zh) * | 2021-02-05 | 2021-05-14 | 支付宝(杭州)信息技术有限公司 | 实现隐私保护的多方协同更新模型的方法及装置 |
CN112507372A (zh) * | 2021-02-05 | 2021-03-16 | 支付宝(杭州)信息技术有限公司 | 实现隐私保护的多方协同更新模型的方法及装置 |
CN113821827A (zh) * | 2021-02-19 | 2021-12-21 | 支付宝(杭州)信息技术有限公司 | 保护多方数据隐私的联合建模方法及装置 |
CN113821827B (zh) * | 2021-02-19 | 2024-04-19 | 支付宝(杭州)信息技术有限公司 | 保护多方数据隐私的联合建模方法及装置 |
CN112836765A (zh) * | 2021-03-01 | 2021-05-25 | 深圳前海微众银行股份有限公司 | 分布式学习的数据处理方法、装置、电子设备 |
CN112836765B (zh) * | 2021-03-01 | 2023-12-22 | 深圳前海微众银行股份有限公司 | 分布式学习的数据处理方法、装置、电子设备 |
WO2022193173A1 (zh) * | 2021-03-17 | 2022-09-22 | 深圳技术大学 | 一种基于区块链的金融数据信息联邦迁移学习系统及方法 |
CN112801780A (zh) * | 2021-03-19 | 2021-05-14 | 中国工商银行股份有限公司 | 基于联邦学习的境内外风险客户识别方法、装置及系统 |
CN113128700A (zh) * | 2021-03-23 | 2021-07-16 | 同盾控股有限公司 | 安全多方计算的联邦模型训练加速的方法和系统 |
CN113159327A (zh) * | 2021-03-25 | 2021-07-23 | 深圳前海微众银行股份有限公司 | 基于联邦学习系统的模型训练方法、装置、电子设备 |
CN113159327B (zh) * | 2021-03-25 | 2024-04-09 | 深圳前海微众银行股份有限公司 | 基于联邦学习系统的模型训练方法、装置、电子设备 |
CN112801307B (zh) * | 2021-04-13 | 2021-07-06 | 深圳索信达数据技术有限公司 | 基于区块链的联邦学习方法、装置和计算机设备 |
CN112801307A (zh) * | 2021-04-13 | 2021-05-14 | 深圳索信达数据技术有限公司 | 基于区块链的联邦学习方法、装置和计算机设备 |
CN113269232B (zh) * | 2021-04-25 | 2023-12-08 | 北京沃东天骏信息技术有限公司 | 模型训练方法、向量化召回方法、相关设备及存储介质 |
CN113269232A (zh) * | 2021-04-25 | 2021-08-17 | 北京沃东天骏信息技术有限公司 | 模型训练方法、向量化召回方法、相关设备及存储介质 |
CN113205135B (zh) * | 2021-04-30 | 2023-08-18 | 平安科技(深圳)有限公司 | 课程预测模型的更新方法、装置、计算机设备及存储介质 |
CN113205135A (zh) * | 2021-04-30 | 2021-08-03 | 平安科技(深圳)有限公司 | 课程预测模型的更新方法、装置、计算机设备及存储介质 |
WO2022236469A1 (en) * | 2021-05-08 | 2022-11-17 | Asiainfo Technologies (China), Inc. | Customer experience perception based on federated learning |
CN113435534A (zh) * | 2021-07-09 | 2021-09-24 | 新智数字科技有限公司 | 一种基于相似度度量的数据异构处理方法、装置、计算机设备及计算机可读存储介质 |
CN113435398A (zh) * | 2021-07-13 | 2021-09-24 | 傲雄在线(重庆)科技有限公司 | 基于掩码预训练模型的签名特征识别方法、系统、设备及存储介质 |
CN113435537A (zh) * | 2021-07-16 | 2021-09-24 | 同盾控股有限公司 | 基于Soft GBDT的跨特征联邦学习方法、预测方法 |
CN113704779A (zh) * | 2021-07-16 | 2021-11-26 | 杭州医康慧联科技股份有限公司 | 加密的分布式机器学习训练方法 |
CN113658689A (zh) * | 2021-08-25 | 2021-11-16 | 深圳前海微众银行股份有限公司 | 多智能体模型的训练方法、装置、电子设备及存储介质 |
CN113778966B (zh) * | 2021-09-15 | 2024-03-26 | 深圳技术大学 | 高校教学与课程成绩的跨学校信息共享方法及相关装置 |
CN113778966A (zh) * | 2021-09-15 | 2021-12-10 | 深圳技术大学 | 高校教学与课程成绩的跨学校信息共享方法及相关装置 |
CN113849805A (zh) * | 2021-09-23 | 2021-12-28 | 国网山东省电力公司济宁供电公司 | 移动用户可信认证方法及装置、电子设备、存储介质 |
CN113935826A (zh) * | 2021-10-21 | 2022-01-14 | 阿尔法时刻科技(深圳)有限公司 | 一种基于用户隐私的信贷账户管理方法及系统 |
CN114065863A (zh) * | 2021-11-18 | 2022-02-18 | 北京百度网讯科技有限公司 | 联邦学习的方法、装置、系统、电子设备及存储介质 |
CN114065863B (zh) * | 2021-11-18 | 2023-08-29 | 北京百度网讯科技有限公司 | 联邦学习的方法、装置、系统、电子设备及存储介质 |
CN114254588B (zh) * | 2021-12-16 | 2023-10-13 | 马上消费金融股份有限公司 | 数据标签处理方法和装置 |
CN114254588A (zh) * | 2021-12-16 | 2022-03-29 | 马上消费金融股份有限公司 | 数据标签处理方法和装置 |
CN114330882A (zh) * | 2021-12-29 | 2022-04-12 | 马上消费金融股份有限公司 | 数据处理方法、装置、计算机设备及存储介质 |
CN114676845A (zh) * | 2022-02-18 | 2022-06-28 | 支付宝(杭州)信息技术有限公司 | 模型训练方法和装置、业务预测方法和装置 |
CN114707606B (zh) * | 2022-04-11 | 2023-12-22 | 中国电信股份有限公司 | 基于联邦学习的数据处理方法及装置、设备、存储介质 |
CN114707606A (zh) * | 2022-04-11 | 2022-07-05 | 中国电信股份有限公司 | 基于联邦学习的数据处理方法及装置、设备、存储介质 |
CN116415687B (zh) * | 2022-12-29 | 2023-11-21 | 江苏东蓝信息技术有限公司 | 一种基于深度学习的人工智能网络优化训练系统及方法 |
CN116415687A (zh) * | 2022-12-29 | 2023-07-11 | 江苏东蓝信息技术有限公司 | 一种基于深度学习的人工智能网络优化训练系统及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112257873A (zh) | 机器学习模型的训练方法、装置、系统、设备及存储介质 | |
CN110990871B (zh) | 基于人工智能的机器学习模型训练方法、预测方法及装置 | |
Qiao et al. | Trustworthy edge storage orchestration in intelligent transportation systems using reinforcement learning | |
Kang et al. | Communication-efficient and cross-chain empowered federated learning for artificial intelligence of things | |
Doku et al. | Towards federated learning approach to determine data relevance in big data | |
US20230028606A1 (en) | Method and apparatus for vertical federated learning | |
Ou et al. | A homomorphic-encryption-based vertical federated learning scheme for rick management | |
CN112347500B (zh) | 分布式系统的机器学习方法、装置、系统、设备及存储介质 | |
Pasdar et al. | Blockchain oracle design patterns | |
Filatovas et al. | A MCDM-based framework for blockchain consensus protocol selection | |
EP3869376B1 (en) | System and method for blockchain based decentralized storage with dynamic data operations | |
US20210377310A1 (en) | Method, system, apparatus and program for secure distributed data management using collaborative artificial intelligence | |
US11792010B2 (en) | Distributed machine learning via secure multi-party computation and ensemble learning | |
CN112905187B (zh) | 编译方法、装置、电子设备及存储介质 | |
WO2022156594A1 (zh) | 联邦模型训练方法、装置、电子设备、计算机程序产品及计算机可读存储介质 | |
CN116128051A (zh) | 一种激励驱动的链上半异步联邦学习方法 | |
Wang et al. | Blockchain-based federated learning in mobile edge networks with application in internet of vehicles | |
US10970180B2 (en) | Methods and apparatus for verifying processing results and/or taking corrective actions in response to a detected invalid result | |
Smahi et al. | BV-ICVs: A privacy-preserving and verifiable federated learning framework for V2X environments using blockchain and zkSNARKs | |
Yan et al. | Blockchain-based verifiable and dynamic multi-keyword ranked searchable encryption scheme in cloud computing | |
Alexander et al. | Cybersecurity, information assurance, and big data based on blockchain | |
Yu et al. | Deep learning personalized recommendation-based construction method of hybrid blockchain model | |
RU2686818C1 (ru) | Способ масштабирования распределенной информационной системы | |
Yu et al. | MeHLDT: A multielement hash lock data transfer mechanism for on-chain and off-chain | |
Benjamin Franklin et al. | Machine learning-based trust management in cloud using blockchain technology |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |