CN112232519A - 一种基于联邦学习的联合建模方法 - Google Patents
一种基于联邦学习的联合建模方法 Download PDFInfo
- Publication number
- CN112232519A CN112232519A CN202011102678.2A CN202011102678A CN112232519A CN 112232519 A CN112232519 A CN 112232519A CN 202011102678 A CN202011102678 A CN 202011102678A CN 112232519 A CN112232519 A CN 112232519A
- Authority
- CN
- China
- Prior art keywords
- joint
- model
- node
- control node
- participating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 238000012549 training Methods 0.000 claims abstract description 44
- 238000011156 evaluation Methods 0.000 claims abstract description 41
- 238000002790 cross-validation Methods 0.000 claims abstract description 35
- 238000007781 pre-processing Methods 0.000 claims abstract description 26
- 238000005457 optimization Methods 0.000 claims description 16
- 238000004891 communication Methods 0.000 claims description 8
- 238000012360 testing method Methods 0.000 claims description 7
- 238000012545 processing Methods 0.000 abstract description 7
- 238000010801 machine learning Methods 0.000 abstract description 4
- 238000000638 solvent extraction Methods 0.000 abstract description 4
- 238000012935 Averaging Methods 0.000 abstract 1
- 230000008569 process Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Feedback Control In General (AREA)
Abstract
本发明涉及一种基于联邦学习的联合建模方法,属于机器学习技术领域,包括以下步骤;主控节点根据目标任务定制联邦学习策略,控制建模步骤及组合;各参与节点进行联合数据预处理;各参与节点进行联合训练,以得到最终的联合模型;主控节点将联合模型分发至各参与节点,完成各节点模型同步;各参与节点联合评估联合模型的性能。本发明通过主控端聚合各协同端的特征中间指标,利用了整体数据的特性,解决了特征处理无法了解数据全貌,无法利用完整的数据特性的问题;本发明通过交叉验证评估,得到多种数据划分方式下的联合模型的性能,对多模型的结果进行平均来减小方差,解决模型性能对数据集划分方式敏感的问题。
Description
技术领域
本发明涉及机器学习技术领域,尤其涉及一种基于联邦学习的联合建模方法。
背景技术
联邦学习是一种新兴的基于机器学习的技术,近几年得到各界的广泛关注。所谓联邦学习,是指多参与方在不暴露本地数据的前提下,进行联合训练机器学习模型,解决数据孤岛问题的同时保障了数据隐私安全。
在已有联邦学习技术中,特征处理方式是分别在各个客户端进行特征处理,由于客户端之间不会进行原始数据交互,因此联邦模型的特征处理无法了解数据全貌以及利用完整的数据特性;对于模型评估部分,解决方案是各参与方使用本地训练数据训练模型,测试数据用于评估模型的泛化能力。
但是,此种方法下不同的数据集划分方式会得到不同的模型,也就是的说,存在模型性能对数据集划分方式敏感的问题。
此外,对于调参,现有技术是先固定好模型的超参数组合,训练得到联邦模型,然后手动更换一组超参数组合,继续训练得到模型,最后对比不同参数得到的模型效果,得到最优的参数组合。即需要多次手动运行联邦学习,因而还存在模型优化困难及效率较低的问题。
发明内容
本发明为了解决上述技术问题提供一种基于联邦学习的联合建模方法。
本发明通过下述技术方案实现:
一种基于联邦学习的联合建模方法,包括以下步骤;
步骤101,主控节点根据目标任务定制联邦学习策略,控制建模步骤及组合;
步骤102,各参与节点进行联合数据预处理;
步骤103,各参与节点进行联合训练,以得到最终的联合模型;
步骤104,主控节点将联合模型分发至各参与节点,完成各节点模型同步;
步骤105,各参与节点联合评估联合模型的性能。
进一步的,所述联邦学习策略包括联合数据预处理方法、联合模型训练参数、联合模型评估指标、联合优化中的至少一个。
进一步的,所述联合数据预处理方法,具体包括:
主控节点获取并聚合各参与节点计算的本地数据的中间信息,得到联合特征工程的预处理信息,并将其下发至各参与节点;各参与节点在本地对数据进行预处理。
进一步的,所述联合训练,具体包括:
主控节点利用联合训练参数初始化联合模型;
主控节点按顺序向参与节点发送模型训练请求以及联合模型参数,每迭代一个参与节点的训练,主控节点更新一次联合模型,更新为此参与节点训练的中间模型;
迭代完成后,主控节点得到最终的联合模型。
进一步的,所述步骤105包括:
参与节点基于本地测试数据和联合模型进行预测,并将本地预测结果发送至主控节点;主控节点聚合所有参与节点的预测结果,计算联合模型的评估指标。
进一步的,所述步骤105还包括交叉验证评估,交叉验证评估具体包括;
主控节点控制参与节点进行交叉验证训练、预测,并聚合处理各节点的预测结果,计算模型的交叉验证指标。
进一步的,各参与节点交叉验证评估时,同时训练多模型,并发送至主控节点。这样可减少常规交叉验证方法的通信次数。
进一步的,基于联邦学习的联合建模方法还包括联合优化,联合优化包括以下步骤:
主控节点初始化模型参数组合,利用所述交叉验证评估方法,得到此参数组合对应的联合模型的交叉验证评估结果;
主控节点利用调参算法迭代更新参数组合,进行联合交叉验证评估,直至达到迭代次数;主控节点对比所有的交叉验证评估结果,得到最优的参数组合。通过模型优化,可提高调参的效率,避免手动调参存在的模型优化困难问题。
进一步的,所述步骤102,具体包括:
参与节点基于数据预处理方法计算本地数据的中间信息;
主控节点分析并聚合所有参与节点的中间信息,得到联合特征工程的预处理信息;
各参与节点获取主控节点的联合特征工程预处理信息,再本地对数据进行预处理。
优选地,主控节点和参与节点之间采用SSL加密通道通信以保证数据的隐私安全。
与现有技术相比,本发明具有以下有益效果:
1,本发明通过主控端聚合各协同端的特征中间指标,利用了整体数据的特性,解决了特征处理无法了解数据全貌,无法利用完整的数据特性的问题;
2,本发明通过交叉验证评估,得到多种数据划分方式下的联合模型的性能,对多模型的结果进行平均来减小方差,解决模型性能对数据集划分方式敏感的问题;
3,本发明中各参与节点交叉验证评估时,同时训练多模型,并发送至主控端,减少常规交叉验证方法的通信次数;
4,本发明通过模型优化,可提高调参的效率,避免手动调参存在的模型优化困难问题。
附图说明
此处所说明的附图用来提供对本发明实施例的进一步理解,构成本申请的一部分,并不构成对本发明实施例的限定。
图1为实施例中的基于联邦学习的联合建模方法的流程图;
图2为实施例中的模型训练的流程图;
图3为实施例中的模型评估交叉验证流程图;
图4为实施例中的联合优化的流程图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,下面结合实施例和附图,对本发明作进一步的详细说明,本发明的示意性实施方式及其说明仅用于解释本发明,并不作为对本发明的限定。
本发明公开的基于联邦学习的联合建模方法,应用于多个参与节点,以及控制各参与节点进行联邦学习的主控节点,主控节点和参与节点之间采用SSL加密通道通信以保证数据的隐私安全。
如图1所示,本发明方法包括以下步骤;
步骤101,主控节点根据目标任务定制联邦学习策略,控制建模步骤及组合;
步骤102,各参与节点进行联合数据预处理;
步骤103,各参与节点进行联合训练,以得到最终的联合模型;
步骤104,主控节点将联合模型分发至各参与节点,完成各节点模型同步;
步骤105,各参与节点联合评估联合模型的性能。
具体的,步骤101中的联邦学习策略包括:联合数据预处理方法、联合模型训练参数、联合优化、联合模型评估指标。
联合数据预处理方法:主控节点获取并聚合各参与节点计算的本地数据的中间信息,得到联合特征工程的预处理信息,并将其下发至各参与节点;各参与节点在本地对数据进行预处理。
联合训练:主控节点利用联合训练参数初始化联合模型;主控节点按顺序向参与节点发送模型训练请求以及联合模型参数,每迭代一个参与节点的训练,主控节点更新一次联合模型,更新为此参与节点训练的中间模型;迭代完成后,主控节点得到最终的联合模型。
联合模型评估指标:评估指标因目标任务的不同而不同,分类任务的评估指标不限于准确率、精确度、召回率等;回归任务的评估指标不限于均分误差、R2。在实施例中,联合模型评估指标还包含交叉验证评估,以评估模型的稳定性。
具体的,步骤102包括:参与节点基于数据预处理方法计算本地数据的中间信息;主控节点分析并聚合所有参与节点的中间信息,得到联合特征工程的预处理信息;各参与节点获取主控节点的联合特征工程预处理信息,在本地对数据进行预处理。
在本实施例中,参与节点的数据预处理包括:缺失值处理、标准化、二值化、数值化、独热编码、多项式特征构建、分箱。
如图2所示,步骤103具体包括以下步骤:
步骤1031,主控节点利用联合训练信息初始化联合模型;
迭代下述过程:
步骤1032,主控节点向参与节点1发送模型训练请求以及联合模型参数;
步骤1033,参与节点获取主控节点发送的联合模型参数;
步骤1034,参与节点在本地进行数据集划分;
步骤1035,参与节点基于本地训练数据进行模型训练;
步骤1036,参与节点将训练后的中间模型参数发送至主控节点;
步骤1037,主控节点获取参与节点发送的中间模型参数;
步骤1038,主控节点将获取的中间联合模型更新为最新的联合模型;
接下来,主控节点判断是否遍历完参与节点,若没有,则转入步骤1032,主控节点继续向下一参与节点发送模型训练请求;若遍历完参与节点,各参与节点都完成本地中间模型的训练后,主控节点得到最终的联合模型参数。
本发明中的联合评估,是指主控节点聚合所有参与节点的测试集预测结果,计算联合模型的评估指标,以衡量联合模型的性能。
具体的,步骤105包括:主控节点同时向各参与节点发送预测请求,各参与节点接收请求后,基于本地测试数据进行预测,并将本地预测结果发送至主控节点;主控节点聚合所有参与节点的预测结果,计算联合模型的评估指标。
由于数据集分割比例以及分割方式都会对评估结果造成影响,即单次分割数据集得到的评估结果往往不够稳定可靠。在本实施例中,联合评估还包括交叉验证评估。
下面结合图3,详细说明本实施例的模型评估交叉验证流程示意图。
为辅助理解,现列举一实例,参与联邦学习建模的有两个参与节点A和B,其中参与节点A的本地数据为DA,参与节点B的本地数据为DB,主控节点的联邦学习策略已预设定好固定的5折交叉验证数据集分割方式。
参考图3,主控节点初始化5个联合模型;主控节点先将多个联合模型参数发送给参与节点A;参与节点A获取5个联合模型参数后,在本地按固定的5折交叉验证数据集分割方法分割数据集,也就是说,将数据集划分为k个大小相似的互斥子集,每次选择4份子集(图3的黑色数据)作为训练集进行模型训练,得到一个本地模型,经过5次训练后,得到5个中间模型,然后将5个中间模型参数发送给主控节点;
主控节点获取5个中间模型参数后,更新为最新的5个联合模型参数;主控节点将5个联合模型参数发送给参与节点B;参与节点B获取联合模型参数后,和节点A做一样的训练操作,此处不再赘述;主控节点获取节点B返回的5个中间模型参数后,更新为最新的5个联合模型;参与节点的训练过程迭代完成,联合训练结束;
主控节点将5个联合模型发送至节点A和B,实现模型同步;节点B和A同样预测操作:基于本地划分的5个测试集(图3的白色数据)和5个联合模型,得到5个模型在5个测试集的预测结果,并发送给主控节点;主控节点聚合节点A和B的预测结果,将节点A的第一份预测结果和节点B的第一份预测结果进行聚合,最终得到5个模型对应的5份预测结果,最后计算交叉验证指标。
需要注意的是,交叉验证训练过程中,每个参与节点同时训练5个模型,再同时发送至主控节点,这样做是可以减小通信次数,主控节点和同一参与节点仅需一次通信即可完成训练,否则要得到交叉验证的5个模型,需要和同一参与节点进行5次通信。
在另一个实施例中,本发明方法还包括联合优化。如图4所示,联合优化具体包括以下步骤:
主控节点初始化模型参数组合,基于参数利用所述交叉验证评估方法,得到此参数组合对应的联合模型的交叉验证评估结果;
如果未达到迭代次数,主控节点利用调参算法迭代更新参数组合,进行联合交叉验证评估;
如果达到迭代次数,则主控节点对比各参数组合的联合模型交叉验证评估结果,得到最优的参数组合。调参算法包括但不限于网格调参、贝叶斯调参。
本发明通过定制联邦学习策略,可实现基于联邦学习的联合建模,还解决了特征处理无法利用完整的数据特性、模型性能对数据集划分方式敏感、模型优化困难的问题。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于联邦学习的联合建模方法,其特征在于:包括以下步骤;
步骤101,主控节点根据目标任务定制联邦学习策略,控制建模步骤及组合;
步骤102,各参与节点进行联合数据预处理;
步骤103,各参与节点进行联合训练,以得到最终的联合模型;
步骤104,主控节点将联合模型分发至各参与节点,完成各节点模型同步;
步骤105,各参与节点联合评估联合模型的性能。
2.根据权利要求1所述的基于联邦学习的联合建模方法,其特征在于:所述联邦学习策略包括联合数据预处理方法、联合模型训练参数、联合模型评估指标、联合优化中的至少一个。
3.根据权利要求2所述的基于联邦学习的联合建模方法,其特征在于:所述联合数据预处理方法,具体包括:
主控节点获取并聚合各参与节点计算的本地数据的中间信息,得到联合特征工程的预处理信息,并将其下发至各参与节点;各参与节点在本地对数据进行预处理。
4.根据权利要求1或2所述的基于联邦学习的联合建模方法,其特征在于:所述联合训练,具体包括:
主控节点利用联合训练参数初始化联合模型;
主控节点按顺序向参与节点发送模型训练请求以及联合模型参数,每迭代一个参与节点的训练,主控节点更新一次联合模型,更新为此参与节点训练的中间模型;
迭代完成后,主控节点得到最终的联合模型。
5.根据权利要求1所述的基于联邦学习的联合建模方法,其特征在于:所述步骤105包括:
参与节点基于本地测试数据和联合模型进行预测,并将本地预测结果发送至主控节点;主控节点聚合所有参与节点的预测结果,计算联合模型的评估指标。
6.根据权利要求1、2或5所述的基于联邦学习的联合建模方法,其特征在于:所述步骤105还包括交叉验证评估,交叉验证评估具体包括;
主控节点控制参与节点进行交叉验证训练、预测,并聚合处理各节点的预测结果,计算模型的交叉验证指标。
7.根据权利要求6所述的基于联邦学习的联合建模方法,其特征在于:各参与节点交叉验证评估时,同时训练多模型,并发送至主控节点。
8.根据权利要求6所述的基于联邦学习的联合建模方法,其特征在于:它还包括联合优化,联合优化包括以下步骤:
主控节点初始化模型参数组合,利用所述交叉验证评估方法,得到此参数组合对应的联合模型的交叉验证评估结果;
主控节点利用调参算法迭代更新参数组合,进行联合交叉验证评估,直至达到迭代次数;主控节点对比所有的交叉验证评估结果,得到最优的参数组合。
9.根据权利要求1或2所述的基于联邦学习的联合建模方法,其特征在于:所述步骤102,具体包括:
参与节点基于数据预处理方法计算本地数据的中间信息;
主控节点分析并聚合所有参与节点的中间信息,得到联合特征工程的预处理信息;
各参与节点获取主控节点的联合特征工程预处理信息,再本地对数据进行预处理。
10.根据权利要求1或2所述的基于联邦学习的联合建模方法,其特征在于:主控节点和参与节点之间采用SSL加密通道通信。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011102678.2A CN112232519B (zh) | 2020-10-15 | 2020-10-15 | 一种基于联邦学习的联合建模方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011102678.2A CN112232519B (zh) | 2020-10-15 | 2020-10-15 | 一种基于联邦学习的联合建模方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112232519A true CN112232519A (zh) | 2021-01-15 |
CN112232519B CN112232519B (zh) | 2024-01-09 |
Family
ID=74111808
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011102678.2A Active CN112232519B (zh) | 2020-10-15 | 2020-10-15 | 一种基于联邦学习的联合建模方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112232519B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112785144A (zh) * | 2021-01-18 | 2021-05-11 | 深圳前海微众银行股份有限公司 | 基于联邦学习的模型构建方法、设备及存储介质 |
CN113222169A (zh) * | 2021-03-18 | 2021-08-06 | 中国地质大学(北京) | 结合大数据分析反馈的联邦机器组合服务方法与系统 |
CN113542352A (zh) * | 2021-06-08 | 2021-10-22 | 支付宝(杭州)信息技术有限公司 | 节点联合建模的方法和节点 |
CN113610318A (zh) * | 2021-08-19 | 2021-11-05 | 成都数融科技有限公司 | 基于横向联邦学习的风险决策系统及方法 |
CN113609785A (zh) * | 2021-08-19 | 2021-11-05 | 成都数融科技有限公司 | 基于贝叶斯优化的联邦学习超参数选择系统及方法 |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109189825A (zh) * | 2018-08-10 | 2019-01-11 | 深圳前海微众银行股份有限公司 | 横向数据切分联邦学习建模方法、服务器及介质 |
CN110263936A (zh) * | 2019-06-14 | 2019-09-20 | 深圳前海微众银行股份有限公司 | 横向联邦学习方法、装置、设备及计算机存储介质 |
CN110442457A (zh) * | 2019-08-12 | 2019-11-12 | 北京大学深圳研究生院 | 基于联邦学习的模型训练方法、装置及服务器 |
WO2020029585A1 (zh) * | 2018-08-10 | 2020-02-13 | 深圳前海微众银行股份有限公司 | 基于迁移学习的神经网络联邦建模方法、设备及存储介质 |
US20200050951A1 (en) * | 2018-08-09 | 2020-02-13 | International Business Machines Corporation | Collaborative distributed machine learning |
CN111046433A (zh) * | 2019-12-13 | 2020-04-21 | 支付宝(杭州)信息技术有限公司 | 一种基于联邦学习的模型训练方法 |
EP3660754A1 (en) * | 2016-09-26 | 2020-06-03 | Google LLC | Communication efficient federated learning |
CN111275207A (zh) * | 2020-02-10 | 2020-06-12 | 深圳前海微众银行股份有限公司 | 基于半监督的横向联邦学习优化方法、设备及存储介质 |
CN111477290A (zh) * | 2020-03-05 | 2020-07-31 | 上海交通大学 | 保护用户隐私的联邦学习和图像分类方法、系统及终端 |
CN111538598A (zh) * | 2020-04-29 | 2020-08-14 | 深圳前海微众银行股份有限公司 | 联邦学习建模方法、装置、设备及可读存储介质 |
CN111539731A (zh) * | 2020-06-19 | 2020-08-14 | 支付宝(杭州)信息技术有限公司 | 基于区块链的联邦学习方法及装置和电子设备 |
CN111553484A (zh) * | 2020-04-30 | 2020-08-18 | 同盾控股有限公司 | 联邦学习的方法、装置及系统 |
WO2020168761A1 (zh) * | 2019-02-22 | 2020-08-27 | 华为技术有限公司 | 训练模型的方法和装置 |
AU2020101613A4 (en) * | 2020-08-02 | 2020-09-10 | B.P.R.V.S, Priyatham MR | Collaborative federative learning approach for internet of vehicles traffic prediction |
CN111754000A (zh) * | 2020-06-24 | 2020-10-09 | 清华大学 | 质量感知的边缘智能联邦学习方法及系统 |
-
2020
- 2020-10-15 CN CN202011102678.2A patent/CN112232519B/zh active Active
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3660754A1 (en) * | 2016-09-26 | 2020-06-03 | Google LLC | Communication efficient federated learning |
US20200050951A1 (en) * | 2018-08-09 | 2020-02-13 | International Business Machines Corporation | Collaborative distributed machine learning |
WO2020029585A1 (zh) * | 2018-08-10 | 2020-02-13 | 深圳前海微众银行股份有限公司 | 基于迁移学习的神经网络联邦建模方法、设备及存储介质 |
CN109189825A (zh) * | 2018-08-10 | 2019-01-11 | 深圳前海微众银行股份有限公司 | 横向数据切分联邦学习建模方法、服务器及介质 |
WO2020168761A1 (zh) * | 2019-02-22 | 2020-08-27 | 华为技术有限公司 | 训练模型的方法和装置 |
CN110263936A (zh) * | 2019-06-14 | 2019-09-20 | 深圳前海微众银行股份有限公司 | 横向联邦学习方法、装置、设备及计算机存储介质 |
CN110442457A (zh) * | 2019-08-12 | 2019-11-12 | 北京大学深圳研究生院 | 基于联邦学习的模型训练方法、装置及服务器 |
CN111046433A (zh) * | 2019-12-13 | 2020-04-21 | 支付宝(杭州)信息技术有限公司 | 一种基于联邦学习的模型训练方法 |
CN111275207A (zh) * | 2020-02-10 | 2020-06-12 | 深圳前海微众银行股份有限公司 | 基于半监督的横向联邦学习优化方法、设备及存储介质 |
CN111477290A (zh) * | 2020-03-05 | 2020-07-31 | 上海交通大学 | 保护用户隐私的联邦学习和图像分类方法、系统及终端 |
CN111538598A (zh) * | 2020-04-29 | 2020-08-14 | 深圳前海微众银行股份有限公司 | 联邦学习建模方法、装置、设备及可读存储介质 |
CN111553484A (zh) * | 2020-04-30 | 2020-08-18 | 同盾控股有限公司 | 联邦学习的方法、装置及系统 |
CN111539731A (zh) * | 2020-06-19 | 2020-08-14 | 支付宝(杭州)信息技术有限公司 | 基于区块链的联邦学习方法及装置和电子设备 |
CN111754000A (zh) * | 2020-06-24 | 2020-10-09 | 清华大学 | 质量感知的边缘智能联邦学习方法及系统 |
AU2020101613A4 (en) * | 2020-08-02 | 2020-09-10 | B.P.R.V.S, Priyatham MR | Collaborative federative learning approach for internet of vehicles traffic prediction |
Non-Patent Citations (1)
Title |
---|
陈涛等: "面向大数据隐私保护的联邦学习算法航空应用模型研究", 信息安全与通信保密, pages 75 - 84 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112785144A (zh) * | 2021-01-18 | 2021-05-11 | 深圳前海微众银行股份有限公司 | 基于联邦学习的模型构建方法、设备及存储介质 |
CN113222169A (zh) * | 2021-03-18 | 2021-08-06 | 中国地质大学(北京) | 结合大数据分析反馈的联邦机器组合服务方法与系统 |
CN113222169B (zh) * | 2021-03-18 | 2023-06-23 | 中国地质大学(北京) | 结合大数据分析反馈的联邦机器组合服务方法与系统 |
CN113542352A (zh) * | 2021-06-08 | 2021-10-22 | 支付宝(杭州)信息技术有限公司 | 节点联合建模的方法和节点 |
CN113542352B (zh) * | 2021-06-08 | 2024-04-09 | 支付宝(杭州)信息技术有限公司 | 节点联合建模的方法和节点 |
CN113610318A (zh) * | 2021-08-19 | 2021-11-05 | 成都数融科技有限公司 | 基于横向联邦学习的风险决策系统及方法 |
CN113609785A (zh) * | 2021-08-19 | 2021-11-05 | 成都数融科技有限公司 | 基于贝叶斯优化的联邦学习超参数选择系统及方法 |
CN113609785B (zh) * | 2021-08-19 | 2023-05-09 | 成都数融科技有限公司 | 基于贝叶斯优化的联邦学习超参数选择系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112232519B (zh) | 2024-01-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112232519A (zh) | 一种基于联邦学习的联合建模方法 | |
CN111104731A (zh) | 一种用于联邦学习的图形化模型全生命周期建模方法 | |
CN113222179B (zh) | 一种基于模型稀疏化与权重量化的联邦学习模型压缩方法 | |
Hendrickx et al. | Open multi-agent systems: Gossiping with random arrivals and departures | |
CN109635748B (zh) | 高分辨率影像中道路特征的提取方法 | |
CN110222830B (zh) | 一种基于自适应遗传算法优化的深度前馈网络故障诊断方法 | |
CN111211893B (zh) | 一种应用区块链的自动驾驶汽车模型共享方法 | |
CN105574191B (zh) | 在线社会网络多源点信息溯源系统及其方法 | |
CN111104291B (zh) | 基于物联网的环境监测方法、装置、系统及监测服务器 | |
CN107682117A (zh) | 一种基于改进鸡群优化算法的短码长lt码度分布的设计方法 | |
US11288414B2 (en) | Artificial intelligence-based manufacturing part design | |
CN115796271A (zh) | 基于客户端选择和梯度压缩的联邦学习方法 | |
CN114462509A (zh) | 一种分布式物联网设备异常检测方法 | |
CN115577797B (zh) | 一种基于本地噪声感知的联邦学习优化方法及系统 | |
Chen et al. | Federated meta-learning framework for few-shot fault diagnosis in industrial IoT | |
KR20190105947A (ko) | 네트워크의 이동성 관련 파라미터를 최적화하는 방법 및 장치 | |
CN107862129B (zh) | 一种基于moead的偏差区间偏好引导多目标决策优化方法 | |
CN116155393A (zh) | 一种基于自动编码器的几何-概率成形光信号产生方法 | |
CN110278108B (zh) | 一种基于模拟退火算法的多自主体网络容侵能力评估方法 | |
CN112822743B (zh) | 链路切换方法及装置 | |
Sylla | Reflected backward stochastic differential equation with jumps and viscosity solution of second order integro-differential equation without monotonicity condition: Case with the measure of levy infinite | |
CN115150246B (zh) | 基于新型嵌套链架构的面向海量实时物联网的上链方法 | |
CN111860618B (zh) | 用于病理数据转换的双向gan模型及其构建和应用方法 | |
CN115065955B (zh) | 高铁5g无线通信网络覆盖规划方法、装置、设备和介质 | |
Dinani et al. | Poster: Mobile gossip learning for trajectory prediction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |