CN112232518A - 一种轻量级分布式联邦学习系统及方法 - Google Patents

一种轻量级分布式联邦学习系统及方法 Download PDF

Info

Publication number
CN112232518A
CN112232518A CN202011102138.4A CN202011102138A CN112232518A CN 112232518 A CN112232518 A CN 112232518A CN 202011102138 A CN202011102138 A CN 202011102138A CN 112232518 A CN112232518 A CN 112232518A
Authority
CN
China
Prior art keywords
model
cooperative
control end
interface
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011102138.4A
Other languages
English (en)
Other versions
CN112232518B (zh
Inventor
顾见军
邓旭宏
周宇峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu Digital Technology Co ltd
Original Assignee
Chengdu Digital Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu Digital Technology Co ltd filed Critical Chengdu Digital Technology Co ltd
Priority to CN202011102138.4A priority Critical patent/CN112232518B/zh
Publication of CN112232518A publication Critical patent/CN112232518A/zh
Application granted granted Critical
Publication of CN112232518B publication Critical patent/CN112232518B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种轻量级分布式联邦学习系统及方法,包括主控制端节点和多个协同端节点,特征处理模块:用于主控制端通过特征预处理接口,调度各协同端节点进行联合特征处理;模型训练模块:用于主控制端通过模型训练接口,调度各协同端节点进行联邦学习的模型训练;模型评估模块:用于主控制端通过模型评估接口,聚合各协同端节点的预测结果并评估模型性能。本发明的有益效果在于:本发明通过特征处理、模型训练、模型评估模块,快速集成各类开源机器学习库;无论联邦学习模型是否使用梯度训练,都可使用此框架,针对不同业务,开发周期和开发成本低,能迅速落地,且能保障各参与方的数据安全。

Description

一种轻量级分布式联邦学习系统及方法
技术领域
本发明涉及机器学习领域,尤其涉及一种轻量级分布式联邦学习系统及方法。
背景技术
随着大数据时代的发展,数据安全越来越被重视,法规也在不断完善。由于联邦学习技术能保障数据隐私和安全,因此也越来越被重视。联邦学习是指多个客户端进行联合建模(机器学习或者深度学习模型),并且在整个学习过程中,客户端的数据并未将本地数据暴露给其他方,能够保证数据隐私和安全。
现有联邦学习技术中,模型训练大多是基于梯度值训练,也就是说会依赖能进行梯度训练的模型,对于不满足梯度训练的模型,每次需要重新定制联邦学习流程,效率有待提高;对于不同业务,定制联邦学习算法流程的效率也有待提高。并且,现有技术需要重新实现底层、无法重用现有大量开源库。
发明内容
本发明提供一种轻量级分布式联邦学习框架及实现方法,用以解决现有联邦学习需要重新实现底层、无法重用现有大量开源库,不满足梯度训练的模型定制联邦学习效率低以及不同业务定制联邦学习效率低的问题。
本发明通过以下技术方案实现:
一种轻量级分布式联邦学习系统,包括主控制端节点和多个协同端节点,其中,还包括:
特征处理模块:用于主控制端节点通过特征预处理接口,调度各协同端节点进行联合特征处理;
模型训练模块:用于主控制端节点通过模型训练接口,调度各协同端节点进行联邦学习的模型训练;
模型评估模块:用于主控制端节点通过模型评估接口,聚合各协同端节点的预测结果并评估模型性能;
所述主控制端节点通过加密通信通道与多个协同端节点进行通信。
进一步的,所述特征预处理接口具体包括:
预处理中间接口:主控制端将联邦学习配置信息分发至协同端,调度协同端根据配置信息分割数据集,对本地样本的局部特征预处理中间指标进行计算,并返回计算的中间指标;
聚合预处理中间指标接口:主控制端通过对各协同端的特征预处理中间指标进行聚合处理,得到聚合的特征预处理指标;
预处理同步接口:主控制端将聚合的特征预处理指标分发至协同端,调度协同端根据聚合特征预处理指标,在本地构建预处理器;
预处理接口:协同端通过构建的预处理器,分别对本地训练数据和测试数据进行数据预处理。
进一步的,所述模型训练接口具体包括:
协同节点模型训练接口:主控制端将模型训练参数分发至协同端,协同端通过预处理器进行预处理,按模型训练参数的要求训练单模型或者交叉验证的多模型,并返回训练后的模型参数;
联邦模型训练接口:主控制端配置模型训练参数,动态调度各协同端节点的模型训练接口;各协同端节点都完成一次训练后,主控制端节点完成协同训练,得到最终的联邦模型参数。
进一步的,所述模型评估接口具体包括:
模型同步接口:主控制端把联邦模型参数分发至协同端,要求协同端同步使用统一的联邦模型;
模型预测接口:主控制端要求协同端利用联邦模型对本地训练数据和测试数据分别进行预测,并返回预测结果;
模型交叉验证接口:主控制端调用协同端的模型训练接口,要求每个协同端按固定方式切割数据集,并同时训练多个模型;主控制端调用协同端的模型同步接口,要求协同端同步多个模型;主控制端调用协同端的模型预测接口,要求协同端利用多个模型,基于对应的测试数据集进行预测,并返回预测结果;主控制端汇总计算各协同端的交叉验证预测结果,得到交叉验证指标;
模型报告接口:主控制端调用模型交叉验证接口,完成交叉验证指标的计算;主控制端调用模型同步接口,要求协同端同步使用联邦模型;主控制端调用模型预测接口,聚合各协同端返回的预测结果,并完成模型评估报告指标的计算;
模型选择接口:主控制端节点通过调参算法迭代更新模型超参数组合,基于每个参数组合,调用模型交叉验证接口,得到交叉验证指标;主控制端节点根据多个超参数组合的交叉验证结果,选定最优参数组合。
一种轻量级分布式联邦学习方法,包括以下步骤:
S1.主控制端将联邦学习配置文件的训练信息下发至各协同端;
S2.主控制端调用各协同端进行联合特征处理;
S3.主控制端调用各协同端进行协同模型训练;
S4.主控制端调用各协同端进行协同模型评估。
进一步的,所述步骤S2联合特征处理具体包括以下子步骤:
S201.主控制端调用各协同端的预处理中间接口,要求协同端利用本地数据切分训练测试集,计算并返回特征中间指标;
S202.主控制端将各协同端的特征中间指标进行聚合处理;
S203.主控制端将聚合的特征预处理指标发送至各协同端,并发起预处理信息同步指令,在各协同端完成预处理器的构建。
进一步的,所述步骤S3协同模型训练具体包括以下子步骤:
S301.控制端配置模型初始化参数以及交叉验证的参数,动态调度各协同端节点的模型训练接口,要求协同端首先利用预处理器进行预处理,然后根据模型训练参数训练单模型或者交叉验证的多模型;
S302.各协同端节点都完成一次训练后,主控端节点完成协同训练,得到最终的联合模型参数。
进一步的,所述步骤S4协同模型评估具体包括以下子步骤:
S401.主控制端调用模型交叉验证接口,完成交叉验证指标的计算;
S402.主控制端向各协同端发起模型同步指令;
S403.主控制端发起模型预测指令;
S404.主控制端调用模型报告接口,聚合各协同端的预测结果,并计算模型评估报告的指标,得到模型评估报告。
本发明的有益效果:
(1)本发明提出了轻量级通用的框架,包括特征处理、模型训练、模型评估多个环节,能快速集成各类开源机器学习库;
(2)无论联邦学习模型是否使用梯度训练,都可使用此框架,针对不同业务,开发周期和开发成本低,能迅速落地,且能保障各参与方的数据安全。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简要介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明的系统结构框图;
图2为本发明的框架结构示意图;
图3为本发明实施例的一种轻量级分布式联邦学习框架的机器学习任务交互示意图;
图4为本发明实施例的一种轻量级分布式联邦学习框架的接口交互示意图;
图5为本发明实施例的一种轻量级分布式联邦学习框架的标准化特征处理示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,下面结合实施例和附图,对本发明作进一步的详细说明,本发明的示意性实施方式及其说明仅用于解释本发明,并不作为对本发明的限定。
实施例1
如图1,图2所所示,一种轻量级分布式联邦学习系统,包括主控制端节点和多个协同端节点,还包括:
特征处理模块:用于主控制端节点通过特征预处理接口,调度各协同端节点进行联合特征处理;
模型训练模块:用于主控制端节点通过模型训练接口,调度各协同端节点进行联邦学习的模型训练;
模型评估模块:用于主控制端节点通过模型评估接口,聚合各协同端节点的预测结果并评估模型性能。
在本实施例中,节点间交互不涉及具体隐私数据,只涉及不可逆的中间数据,有效保障数据安全。在机器学习任务生命周期中,主控制端负责任务管理,流程控制,配置管理,节点管理,会话管理等功能。协同端负责本地隐私数据的样本训练,指标计算,和主控制端通信等功能。主控制端和协同端采用SSL加密通道,通过定义的接口进行通信,实现分布式环境下的机器学习标准任务。在本申请实施例中,主控制端存储有联合训练的训练配置文件,配置信息中包括各协同端的端口信息和联邦学习的训练信息,端口信息用以连接实现通信,训练信息用以下发至各协同端节点,以达到各协同端获取公用模型以及参数等信息。
如图3,图4所示,在本申请实施例中,各协同端都拥有自己的本地样本数据,且联合机器学习任务的训练过程中,这些业务隐私数据并不会泄露。
进一步的,所述分布式多节点下的联合特征预处理方法,定义的接口包括:
(1)预处理中间接口:主控制端把联邦学习配置信息分发至协同端,要求协同端根据配置信息分割数据集,完成本地样本的局部特征预处理中间指标计算,并返回计算的中间指标;
(2)聚合预处理中间指标接口:主控制端聚合处理各协同端的特征预处理中间指标,得到聚合的特征预处理指标;
(3)预处理同步接口:主控制端把聚合的特征预处理指标分发至协同端,要求协同端根据聚合特征预处理指标在本地构建预处理器;
(4)预处理接口:协同端基于预处理器,分别对本地训练数据和测试数据进行数据预处理。
进一步的,所述分布式多节点下的协同训练方法,定义的接口包括:
(1)协同节点模型训练接口:主控制端把模型训练参数分发至协同端,协同端首先利用预处理器进行预处理,然后按模型训练参数的要求训练单模型或者交叉验证的多模型,并返回训练后的模型参数;
(2)联邦模型训练接口:主控制端配置模型训练参数,动态调度各协同端节点的模型训练接口;各协同端节点都完成一次训练后,主控制端节点完成协同训练,得到最终的联邦模型参数。
进一步的,所述分布式多节点下的模型评估和选择方法,定义的接口包括:
(1)模型同步接口:主控制端把联邦模型参数分发至协同端,要求协同端同步使用统一的联邦模型;
(2)模型预测接口:主控制端要求协同端利用联邦模型对本地训练数据和测试数据分别进行预测,并返回预测结果;
(3)模型交叉验证接口:主控制端调用协同端的模型训练接口,要求每个协同端按固定方式切割数据集,并同时训练多个模型;主控制端调用协同端的模型同步接口,要求协同端同步多个模型;主控制端调用协同端的模型预测接口,要求协同端利用多个模型,基于对应的测试数据集进行预测,并返回预测结果;主控制端汇总计算各协同端的交叉验证预测结果,得到交叉验证指标;
(4)模型报告接口:主控制端调用模型交叉验证接口,完成交叉验证指标的计算;主控制端调用模型同步接口,要求协同端同步使用联邦模型;主控制端调用模型预测接口,聚合各协同端返回的预测结果,并完成模型评估报告指标的计算;
(5)模型选择接口:主控制端节点通过调参算法迭代更新模型超参数组合,基于每个参数组合,调用模型交叉验证接口,得到交叉验证指标;主控制端节点根据多个超参数组合的交叉验证结果,选定最优参数组合。
具体方法步骤为:
主控制端将联邦学习配置文件的训练信息下发至各协同端。
主控制端调用各协同端进行联合特征处理,处理过程包括:主控制端调用各协同端的预处理中间接口,要求协同端利用本地数据切分训练测试集,计算并返回特征中间指标;主控制端将各协同端的特征中间指标进行聚合处理;主控制端将聚合的特征预处理指标发送至各协同端,并发起预处理信息同步指令,在各协同端完成预处理器的构建。
主控制端调用各协同端进行协同模型训练,训练过程包括:主控制端配置模型初始化参数以及交叉验证的参数,动态调度各协同端节点的模型训练接口,要求协同端首先利用预处理器进行预处理,然后根据模型训练参数训练单模型或者交叉验证的多模型;各协同端节点都完成一次训练后,主控端节点完成协同训练,得到最终的联合模型参数。
主控制端调用各协同端进行协同模型评估,评估过程包括:主控制端调用模型交叉验证接口,完成交叉验证指标的计算;主控制端向各协同端发起模型同步指令;主控制端发起模型预测指令;主控制端调用模型报告接口,聚合各协同端的预测结果,并计算模型评估报告的指标,得到模型评估报告。
实施例2
在本实施例中,联合特征处理包括但不限于缺失值处理、异常值处理、标准化、归一化、二值化、数值化、独热编码、多项式特征构建等。一种可选的实施方式中,训练参数中含交叉验证方式,则各协同端训练本地模型时,不再只训练单模型,而是固定交叉验证切分数据集的方式,各协同端同时训练多个模型,和主控端节点通信时也同时传递多模型的参数,实现交叉验证的同时减小节点间的通信次数。
一种可选实施方式中,主控制端可实现模型选择,选择过程包括:主控制端节点通过调参算法迭代更新模型超参数组合,基于每个参数组合,调用模型交叉验证接口,得到交叉验证指标;主控制端节点根据多个超参数组合的交叉验证结果,选定最优参数组合。
实施例3
在本实施例中,各协同端都拥有自己的本地样本数据,特征重叠很多,但特征重叠的样本用户重叠较少,基于重叠特征进行联邦学习,这种训练方式称为横向联邦学习。一种可选的实施方式中,各协同端的数据的特征不完全相同,基于重叠样本用户进行联邦学习,这种训练方式称为纵向联邦学习。
为辅助理解,现列举一实例:如图5所示,协同端节点1和协同端节点2的样本维度和特征都有部分重叠,首先确定各协同端的交集特征数据X1和X2,然后进行横向联邦学习。如图4,对于共有特征来说,在联合特征处理,两个协同端节点分别在本地进行特征处理得到本地的样本均值和标准差,并将其加密发送给主控制端。主控制端解密并聚合得到总体数据的均值和标准差,本实施例中,聚合映射为:
Figure BDA0002725737520000071
Figure BDA0002725737520000072
其中,n1表示同端节点1的样本数;
Figure BDA0002725737520000073
表示样本均值为;s1表示标准差;n2表示协同端节点1的样本数;
Figure BDA0002725737520000081
表示样本均值;s2表示标准差。
主控制端将总体数据的均值和标准差进行加密发送至两个协同端节点,两个协同端节点解密得到总体数据的均值和标准差,并基于此进行标准化,也就是说通过联合特征处理,各协同端节点利用整体数据的特性进行特征处理。
以上显示和描述了本发明的基本原理和主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。

Claims (8)

1.一种轻量级分布式联邦学习系统,包括主控制端节点和多个协同端节点,其特征在于,还包括:
特征处理模块:用于主控制端节点通过特征预处理接口,调度各协同端节点进行联合特征处理;
模型训练模块:用于主控制端节点通过模型训练接口,调度各协同端节点进行联邦学习的模型训练;
模型评估模块:用于主控制端节点通过模型评估接口,聚合各协同端节点的预测结果并评估模型性能;
所述主控制端节点通过加密通信通道与协同端节点进行通信。
2.根据权利要求1所述的一种轻量级分布式联邦学习系统,其特征在于,所述特征预处理接口具体包括:
预处理中间接口:主控制端将联邦学习配置信息分发至协同端,调度协同端根据配置信息分割数据集,对本地样本的局部特征预处理中间指标进行计算,并返回计算的中间指标;
聚合预处理中间指标接口:主控制端通过对各协同端的特征预处理中间指标进行聚合处理,得到聚合的特征预处理指标;
预处理同步接口:主控制端将聚合的特征预处理指标分发至协同端,调度协同端根据聚合特征预处理指标,在本地构建预处理器;
预处理接口:协同端通过构建的预处理器,分别对本地训练数据和测试数据进行数据预处理。
3.根据权利要求1所述的一种轻量级分布式联邦学习系统,其特征在于,所述模型训练接口具体包括:
协同节点模型训练接口:主控制端将模型训练参数分发至协同端,协同端通过预处理器进行预处理,按模型训练参数的要求训练单模型或者交叉验证的多模型,并返回训练后的模型参数;
联邦模型训练接口:主控制端配置模型训练参数,动态调度各协同端节点的模型训练接口;当各协同端节点都完成一次训练,主控制端节点完成协同训练,得到联邦模型参数。
4.根据权利要求1所述的一种轻量级分布式联邦学习系统,其特征在于,所述模型评估接口具体包括:
模型同步接口:主控制端将联邦模型参数分发至协同端,要求协同端同步使用统一的联邦模型;
模型预测接口:主控制端要求协同端利用联邦模型对本地训练数据和测试数据分别进行预测,并返回预测结果;
模型交叉验证接口:主控制端调用协同端的模型训练接口,要求每个协同端按固定方式切割数据集,并同时训练多个模型;主控制端调用协同端的模型同步接口,要求协同端同步多个模型;主控制端调用协同端的模型预测接口,要求协同端利用多个模型,基于对应的测试数据集进行预测,并返回预测结果;主控制端汇总计算各协同端的交叉验证预测结果,得到交叉验证指标;
模型报告接口:主控制端调用模型交叉验证接口,完成交叉验证指标的计算;主控制端调用模型同步接口,要求协同端同步使用联邦模型;主控制端调用模型预测接口,聚合各协同端返回的预测结果,并完成模型评估报告指标的计算;
模型选择接口:主控制端节点通过调参算法迭代更新模型超参数组合,基于每个参数组合,调用模型交叉验证接口,得到交叉验证指标;主控制端节点根据多个超参数组合的交叉验证结果,选定最优参数组合。
5.一种轻量级分布式联邦学习方法,其特征在于,包括以下步骤:
S1. 主控制端将联邦学习配置文件的训练信息下发至各协同端;
S2. 主控制端调用各协同端进行联合特征处理;
S3. 主控制端调用各协同端进行协同模型训练;
S4. 主控制端调用各协同端进行协同模型评估。
6.根据权利要求5所述的一种轻量级分布式联邦学习方法,其特征在于,所述步骤S2联合特征处理具体包括以下子步骤:
S201. 主控制端调用各协同端的预处理中间接口,要求协同端利用本地数据切分训练测试集,计算并返回特征中间指标;
S202. 主控制端将各协同端的特征中间指标进行聚合处理;
S203. 主控制端将聚合的特征预处理指标发送至各协同端,并发起预处理信息同步指令,在各协同端完成预处理器的构建。
7.根据权利要求5所述的一种轻量级分布式联邦学习方法,其特征在于,所述步骤S3协同模型训练具体包括以下子步骤:
S301. 主控制端配置模型初始化参数以及交叉验证的参数,动态调度各协同端节点的模型训练接口,要求协同端通过预处理器进行预处理,并根据模型训练参数训练单模型或者交叉验证的多模型;
S302. 当各协同端节点都完成一次训练后,主控端节点完成协同训练,得到联合模型参数。
8.根据权利要求5所述的一种轻量级分布式联邦学习方法,其特征在于,所述步骤S4协同模型评估具体包括以下子步骤:
S401. 主控制端通过调用模型交叉验证接口,完成交叉验证指标的计算;
S402. 主控制端向各协同端发起模型同步指令;
S403. 主控制端发起模型预测指令;
S404. 主控制端调用模型报告接口,聚合各协同端的预测结果,并计算模型评估报告的指标,得到模型评估报告。
CN202011102138.4A 2020-10-15 2020-10-15 一种轻量级分布式联邦学习系统及方法 Active CN112232518B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011102138.4A CN112232518B (zh) 2020-10-15 2020-10-15 一种轻量级分布式联邦学习系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011102138.4A CN112232518B (zh) 2020-10-15 2020-10-15 一种轻量级分布式联邦学习系统及方法

Publications (2)

Publication Number Publication Date
CN112232518A true CN112232518A (zh) 2021-01-15
CN112232518B CN112232518B (zh) 2024-01-09

Family

ID=74113121

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011102138.4A Active CN112232518B (zh) 2020-10-15 2020-10-15 一种轻量级分布式联邦学习系统及方法

Country Status (1)

Country Link
CN (1) CN112232518B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112818369A (zh) * 2021-02-10 2021-05-18 中国银联股份有限公司 一种联合建模方法及装置
CN113271221A (zh) * 2021-04-28 2021-08-17 北京邮电大学 网络能力开放方法、系统及电子设备
CN113361598A (zh) * 2021-06-04 2021-09-07 重庆大学 基于分布式学习的模型训练方法、服务器及分布式系统
CN113537597A (zh) * 2021-07-16 2021-10-22 上海大学 一种基于隐私保护的材料性能预测方法及系统

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109189825A (zh) * 2018-08-10 2019-01-11 深圳前海微众银行股份有限公司 横向数据切分联邦学习建模方法、服务器及介质
CN110490738A (zh) * 2019-08-06 2019-11-22 深圳前海微众银行股份有限公司 一种混合联邦学习方法及架构
WO2020029585A1 (zh) * 2018-08-10 2020-02-13 深圳前海微众银行股份有限公司 基于迁移学习的神经网络联邦建模方法、设备及存储介质
US20200050951A1 (en) * 2018-08-09 2020-02-13 International Business Machines Corporation Collaborative distributed machine learning
CN111178408A (zh) * 2019-12-19 2020-05-19 中国科学院计算技术研究所 基于联邦随机森林学习的健康监护模型构建方法、系统
CN111222647A (zh) * 2020-01-09 2020-06-02 深圳前海微众银行股份有限公司 联邦学习系统优化方法、装置、设备及存储介质
CN111275207A (zh) * 2020-02-10 2020-06-12 深圳前海微众银行股份有限公司 基于半监督的横向联邦学习优化方法、设备及存储介质
CN111428881A (zh) * 2020-03-20 2020-07-17 深圳前海微众银行股份有限公司 识别模型的训练方法、装置、设备及可读存储介质
CN111477290A (zh) * 2020-03-05 2020-07-31 上海交通大学 保护用户隐私的联邦学习和图像分类方法、系统及终端
CN111538598A (zh) * 2020-04-29 2020-08-14 深圳前海微众银行股份有限公司 联邦学习建模方法、装置、设备及可读存储介质
CN111553484A (zh) * 2020-04-30 2020-08-18 同盾控股有限公司 联邦学习的方法、装置及系统
AU2020101613A4 (en) * 2020-08-02 2020-09-10 B.P.R.V.S, Priyatham MR Collaborative federative learning approach for internet of vehicles traffic prediction

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200050951A1 (en) * 2018-08-09 2020-02-13 International Business Machines Corporation Collaborative distributed machine learning
CN109189825A (zh) * 2018-08-10 2019-01-11 深圳前海微众银行股份有限公司 横向数据切分联邦学习建模方法、服务器及介质
WO2020029585A1 (zh) * 2018-08-10 2020-02-13 深圳前海微众银行股份有限公司 基于迁移学习的神经网络联邦建模方法、设备及存储介质
CN110490738A (zh) * 2019-08-06 2019-11-22 深圳前海微众银行股份有限公司 一种混合联邦学习方法及架构
CN111178408A (zh) * 2019-12-19 2020-05-19 中国科学院计算技术研究所 基于联邦随机森林学习的健康监护模型构建方法、系统
CN111222647A (zh) * 2020-01-09 2020-06-02 深圳前海微众银行股份有限公司 联邦学习系统优化方法、装置、设备及存储介质
CN111275207A (zh) * 2020-02-10 2020-06-12 深圳前海微众银行股份有限公司 基于半监督的横向联邦学习优化方法、设备及存储介质
CN111477290A (zh) * 2020-03-05 2020-07-31 上海交通大学 保护用户隐私的联邦学习和图像分类方法、系统及终端
CN111428881A (zh) * 2020-03-20 2020-07-17 深圳前海微众银行股份有限公司 识别模型的训练方法、装置、设备及可读存储介质
CN111538598A (zh) * 2020-04-29 2020-08-14 深圳前海微众银行股份有限公司 联邦学习建模方法、装置、设备及可读存储介质
CN111553484A (zh) * 2020-04-30 2020-08-18 同盾控股有限公司 联邦学习的方法、装置及系统
AU2020101613A4 (en) * 2020-08-02 2020-09-10 B.P.R.V.S, Priyatham MR Collaborative federative learning approach for internet of vehicles traffic prediction

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
陈涛等: "面向大数据隐私保护的联邦学习算法航空应用模型研究", 信息安全与通信保密, pages 75 - 84 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112818369A (zh) * 2021-02-10 2021-05-18 中国银联股份有限公司 一种联合建模方法及装置
CN112818369B (zh) * 2021-02-10 2024-03-29 中国银联股份有限公司 一种联合建模方法及装置
CN113271221A (zh) * 2021-04-28 2021-08-17 北京邮电大学 网络能力开放方法、系统及电子设备
US11632713B2 (en) 2021-04-28 2023-04-18 Beijing University Of Posts And Telecommunications Network capability exposure method and device thereof
CN113361598A (zh) * 2021-06-04 2021-09-07 重庆大学 基于分布式学习的模型训练方法、服务器及分布式系统
CN113361598B (zh) * 2021-06-04 2022-10-11 重庆大学 基于分布式学习的模型训练方法、服务器及分布式系统
CN113537597A (zh) * 2021-07-16 2021-10-22 上海大学 一种基于隐私保护的材料性能预测方法及系统

Also Published As

Publication number Publication date
CN112232518B (zh) 2024-01-09

Similar Documents

Publication Publication Date Title
CN112232518A (zh) 一种轻量级分布式联邦学习系统及方法
CN110879902B (zh) 一种基于可信标识和ipfs的粮油食品全供应链信息安全管理系统及方法
CN110189192B (zh) 一种信息推荐模型的生成方法及装置
CN112631605B (zh) 联邦学习模型的代码编译方法、装置、设备及存储介质
CN111461874A (zh) 一种基于联邦模式的信贷风险控制系统及方法
CN112270597A (zh) 业务处理、信用评价模型训练方法、装置、设备及介质
WO2021094879A1 (en) Secure federation of distributed stochastic gradient descent
WO2020199785A1 (zh) 私有数据的处理方法、计算方法及所适用的设备
US11410081B2 (en) Machine learning with differently masked data in secure multi-party computing
Ouyang et al. The next decade of telecommunications artificial intelligence
CN113992360A (zh) 一种基于区块链跨链的联邦学习方法及设备
Singh et al. Federated learning: Challenges, methods, and future directions
Zuo et al. A survey of blockchain and artificial intelligence for 6G wireless communications
CN113515760A (zh) 横向联邦学习方法、装置、计算机设备和存储介质
CN109194628A (zh) 制造业人员信息管理方法、系统及电子设备和存储介质
CN113505520A (zh) 用于支持异构联邦学习的方法、装置和系统
CN112818369B (zh) 一种联合建模方法及装置
CN113761067A (zh) 基于区块链和可信执行环境的去中心化联合建模系统
Monga et al. Software-defined network for end-to-end networked science at the exascale
CN105956077B (zh) 基于语义需求匹配的流程挖掘系统
Davoli et al. A fog computing orchestrator architecture with service model awareness
CN114021017A (zh) 信息推送方法、装置及存储介质
CN111522882A (zh) 一种基于区块链的内模管理系统及方法
Lu et al. Towards a decentralized digital engineering assets marketplace: empowered by model-based systems engineering and distributed ledger technology
CN115913656A (zh) 银行跨境数据平台、任务处理方法及部署方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant