CN114372516A - 基于XGBoost的联邦学习训练及预测方法以及装置 - Google Patents

基于XGBoost的联邦学习训练及预测方法以及装置 Download PDF

Info

Publication number
CN114372516A
CN114372516A CN202111596095.4A CN202111596095A CN114372516A CN 114372516 A CN114372516 A CN 114372516A CN 202111596095 A CN202111596095 A CN 202111596095A CN 114372516 A CN114372516 A CN 114372516A
Authority
CN
China
Prior art keywords
initiator
sample space
node sample
feature
decision tree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111596095.4A
Other languages
English (en)
Inventor
王丽
孟庆树
张新访
董逢华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan Tianyu Information Industry Co Ltd
Original Assignee
Wuhan Tianyu Information Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan Tianyu Information Industry Co Ltd filed Critical Wuhan Tianyu Information Industry Co Ltd
Priority to CN202111596095.4A priority Critical patent/CN114372516A/zh
Publication of CN114372516A publication Critical patent/CN114372516A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明提供了一种基于XGBoost的联邦学习训练及预测方法以及装置,应用于一个发起方和多个合作方,该方法包括以下步骤:发起方利用自己持有的特征数据创建第一棵决策树;发起方和合作方协作依次建立第m棵决策树,m=2,3,...,M,其中M为训练的决策树总数,训练得到基于XGBoost的联邦学习模型;建立第m棵决策树的过程中,发起方计算每个真实结点样本空间的最优特征及特征阈值,同时为每组最优特征及特征阈值额外匹配一个结点样本空间作为假结点样本空间,发送给对应特征持有方,特征持有方根据收到的特征及特征阈值划分当前结点样本空间,并将结果通知发起方;利用上述训练得到的联邦学习模型对待预测对象的标签进行预测。本发明降低了模型泄露的风险,模型预测速度快。

Description

基于XGBoost的联邦学习训练及预测方法以及装置
技术领域
本发明涉及计算机技术领域,尤其涉及一种基于XGBoost的联邦学习训练及预测方法以及装置。
背景技术
随着大数据和人工智能的不断发展,人们对数据隐私保护的需求日益提升。传统场景下,整个数据集均存储在同一组织或设备中,通过集中式训练的方式获得结果。然而在现实场景中,大量有用数据分布在不同组织或设备中。若能在满足数据隐私和安全的前提下汇聚不同设备或组织的敏感数据,训练一个全局模型,便能解决“数据孤岛”问题,获得更好的体验。联邦学习主要分为三类:横向联邦、纵向联邦和联邦迁移,其中当不同机构或组织拥有的数据特征重合较少但用户ID重合较多时,使用纵向联邦进行学习。
在纵向联邦建模过程中,只有发起方可以拥有全局模型和标签,而仅利用自身数据配合训练而无法拥有全局模型和标签的一方称为合作方。纵向联邦学习常用于风控及营销领域。在传统的集中式学习中,机器学习算法以其良好的精确度和效率被广泛应用,其中决策树是用于分类和回归的经典有效方法,XGBoost算法是以决策树为基函数的梯度提升算法,凭借其良好的性能被广泛应用。将集中式学习的机器学习算法XGBoost算法融入联邦学习场景中,通过分布式学习便可以在保护数据隐私安全的前提下训练一个全局模型,其中Scureboost就是一种将XGBoost算法融入联邦学习场景的先进方案。
在Scureboost模型训练阶段,由发起方计算当前损失函数梯度并将梯度密文下发给所有合作方,合作方依据自身持有特征聚合结点样本梯度密文,发起方解密聚合梯度密文后计算结点样本空间最优分割并通知最优分割特征持有方划分结点样本空间,被选择的合作方执行划分任务后将划分结果发送给发起方,由发起方将结点样本空间划分结果同步给其他合作方。迭代上述结点样本空间划分过程构建单棵决策树,并通过梯度提升方法训练模型。
在实际生产中,不仅需要考虑到模型的精度和安全性,如何优化模型推理性能是模型落地、工程化的一大难点。目前基于树形结构的模型预测方法中,发起方依据训练模型并通过与合作方进行多轮通信来获取预测对象标签是一种经典方法,但实际中多轮通信会带来严重的通信负担。另外,参与方首先利用本地模型进行推理后再交由发起方求交也可以获得对象标签,虽然这种方式仅需要发起方和合作方进行一轮通信,但通信量和合作方的计算量会有明显增加。
现有的模型主要存在以下缺陷:
1、在模型训练阶段,发起方将结点样本空间与合作方共享,会造成模型信息泄露。
2、在模型预测阶段,模型预测性能不佳,若通过发起方和合作方多轮通信的方式获取标签则会带来通信次数负担,若通过一次通信求交的方式获取标签会带来计算量和通信量负担。
发明内容
为解决现有技术存在的至少部分缺陷,本发明提供一种基于XGBoost的联邦学习训练及预测方法以及装置。
本发明是这样实现的:
第一方面,本发明提供一种基于XGBoost的联邦学习训练及预测方法,应用于一个发起方和多个合作方,该方法包括以下步骤:
发起方利用自己持有的特征数据创建第一棵决策树;
发起方和合作方协作依次建立第m棵决策树,m=2,3,...,M,其中M为训练的决策树总数,训练得到基于XGBoost的联邦学习模型;建立第m棵决策树的过程中,发起方计算每个真实结点样本空间的最优特征及特征阈值,同时为每组最优特征及特征阈值额外匹配一个结点样本空间作为假结点样本空间,将每组最优特征及特征阈值及其对应的两个结点样本空间发送给对应特征持有方,特征持有方根据收到的特征及特征阈值划分当前结点样本空间,并将结果通知发起方;
利用上述训练得到的联邦学习模型对待预测对象的标签进行预测。
进一步地,发起方拥有公钥PK和私钥SK,将公钥PK共享给合作方。
进一步地,所述发起方和合作方协作建立第m棵决策树的创建过程如下:
步骤1:发起方从自己持有的特征中选择最优特征作为树的根结点,并划分子结点样本空间;使用公钥PK加密训练样本损失函数梯度,将样本损失函数梯度密文和子结点样本空间发送给各合作方;
步骤2:合作方依据自身特征对当前结点样本空间进行分区,聚合同一分区内样本的梯度密文并将各聚合结果发送给发起方;
步骤3:发起方计算每个真实结点样本空间的最优特征及特征阈值,同时为每组最优特征及特征阈值额外匹配一个结点样本空间作为假结点样本空间,将每组最优特征及特征阈值及其对应的两个结点样本空间发送给对应特征持有方;
步骤4:特征持有方根据收到的特征及特征阈值划分当前结点样本空间,将划分结果发送给发起方,并本地存储特征及特征阈值;
步骤5:发起方利用真实划分结果更新模型,并将所有划分结果发送给所有合作方;
重复步骤2-步骤5,直到达到预设的停止条件,完成第m棵树的创建。
进一步地,当发起方为最优特征及特征阈值随机匹配结点样本空间时,优先选择假结点样本空间。
进一步地,所述利用上述训练得到的联邦学习模型对待预测对象的标签进行预测具体包括:
步骤1:合作方获取待预测对象ID,使用己方训练所得最优特征及特征阈值与该对象相应特征值进行比较,并将结果发送给发起方;
步骤2:发起方利用来自合作方的比较结果集合及训练得到的联邦学习模型,预测对象标签。
第二方面,本发明提供一种基于XGBoost的联邦学习训练及预测装置,应用于一个发起方和多个合作方,该装置包括:
第一棵决策树建立模块,用于发起方利用自己持有的特征数据创建第一棵决策树;
第m棵决策树建立模块,用于发起方和合作方协作依次建立第m棵决策树,m=2,3,...,M,其中M为训练的决策树总数,训练得到基于XGBoost的联邦学习模型;建立第m棵决策树的过程中,发起方计算每个真实结点样本空间的最优特征及特征阈值,同时为每组最优特征及特征阈值额外匹配一个结点样本空间作为假结点样本空间,将每组最优特征及特征阈值及其对应的两个结点样本空间发送给对应特征持有方,特征持有方根据收到的特征及特征阈值划分当前结点样本空间,并将结果通知发起方;
标签预测模块,用于利用上述训练得到的联邦学习模型对待预测对象的标签进行预测。
第三方面,本发明提供一种电子设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上任一所述方法的步骤。
第四方面,本发明提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如上任一所述方法的步骤。
与现有技术相比,本发明具有以下有益效果:
本发明提供的这种基于XGBoost的联邦学习训练及预测方法以及装置,在模型训练阶段,合作方获取的是盲化后的结点样本空间,降低模型泄露风险;在模型预测阶段,给出一种快速预测方案,即在不增加额外计算量和通信量的基础上发起方仅需要与每个合作方进行一轮通信即可获得待预测对象标签。
附图说明
图1为本发明实施例提供的一种基于XGBoost的联邦学习训练及预测方法的流程图;
图2为本发明实施例提供的建立第m棵决策树的流程图;
图3为本发明实施例提供的发起方所得决策树的示意图;
图4为本发明实施例提供的模型预测流程图;
图5为本发明实施例提供的一种基于XGBoost的联邦学习训练及预测装置的方框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
如图1所示,本发明实施例提供一种基于XGBoost的联邦学习训练及预测方法,设有C+1个参与方,其中1个发起方A,C个合作方B1,...BC,其中只有发起方拥有样本标签信息,合作方Bi拥有pi个特征,发起方A拥有p0个特征,则p0+p1+…+pc=n。训练之前输入:训练数据集T={(x1,y1),(x2,y2),...,(xN,yN)},
Figure BDA0003431191170000061
Figure BDA0003431191170000062
损失函数L(y,f(x)),训练样本ID集合G={1,2,...,N}。
该方法包括以下步骤:
S101、发起方A利用自己持有的p0个特征数据创建第一棵决策树;
S102、发起方和合作方协作依次建立第m棵决策树,m=2,3,...,M,其中M为训练的决策树总数,训练得到基于XGBoost的联邦学习模型;建立第m棵决策树的过程中,发起方计算每个真实结点样本空间的最优特征及特征阈值,同时为每组最优特征及特征阈值额外匹配一个结点样本空间作为假结点样本空间,该假结点样本空间为盲化项,将每组最优特征及特征阈值及其对应的两个结点样本空间发送给对应特征持有方,特征持有方根据收到的特征及特征阈值划分当前结点样本空间,并将结果通知发起方;
细化上述步骤,发起方拥有公钥PK和私钥SK,将公钥PK共享给合作方。
如图2所示,所述发起方和合作方协作建立第m棵决策树的创建过程如下:
步骤1:发起方A从自己持有的p0个特征中选择最优特征作为第m棵决策树的根结点,并将N个样本划分到两个子结点,形成两个子节点样本空间G1,G2,满足G1∪G2=G;使用公钥PK加密训练样本损失函数梯度[[gi]],[[hi]],i=1,2,...,N.(gi,hi分别表示损失函数函数L关于f(x)的一阶偏导和2阶偏导,[[]]表示同态加密),将样本损失函数梯度密文和子结点样本空间发送给各合作方;
步骤2:合作方依据自身特征对当前结点样本空间进行分区,聚合同一分区(特征k,特征值v)内样本的梯度密文并将各聚合结果[[Gkv]],[[Hkv]]发送给发起方;
步骤3:发起方计算每个真实结点样本空间Gi的最优特征kopt及特征阈值vopt,同时为每组最优特征及特征阈值(kopt,vopt)额外匹配一个结点样本空间Gi'作为假结点样本空间,将每组最优特征及特征阈值及其对应的两个结点样本空间(kopt,vopt,Gi,Gi')发送给持有特征kopt的合作方,即对应特征持有方;
步骤4:特征持有方根据收到的(kopt,vopt,Gi,Gi'),,使用特征及特征阈值(kopt,vopt)划分当前结点样本空间Gi,Gi',将划分结果发送给发起方,并本地存储特征及特征阈值,记录ID,特征属性,特征阈值;
步骤5:发起方利用真实划分结果更新模型,并将所有划分结果发送给所有合作方;
重复步骤2-步骤5,直到达到预设的停止条件,完成第m棵树的创建。其中预设的停止条件可以是树的深度、预期收敛值、训练时间等等。具体依据XGboost算法依次完成所有决策树的创建。
进一步地,当发起方为最优特征及特征阈值随机匹配结点样本空间时,优先选择假结点样本空间。
该方法在模型训练阶段,发起方通过为最优特征及特征阈值匹配虚假结点样本空间使得合作方在训练阶段无法获取真实的结点样本空间,降低模型泄露风险。
上述方法中,发起方所得决策树如图3所示。
其中发起方提供2组特征及特征阈值[A,1],[A,2]划分结点样本空间,合作方B1提供3组特征及特征阈值[B1,1],[B1,2],[B1,3]划分结点样本空间,合作方B2提供3组特征及特征阈值[B2,1],[B2,2],[B2,3]划分结点样本空间。
合作方B1获得特征及特征阈值信息表如下所示:
Figure BDA0003431191170000081
S103、利用上述训练得到的联邦学习模型对待预测对象的标签进行预测。
具体地,如图4所示,所述利用上述训练得到的联邦学习模型对待预测对象的标签进行预测具体包括:
步骤1:合作方获取待预测对象ID,使用己方训练所得最优特征及特征阈值与该对象相应特征值进行比较,并将结果发送给发起方;
步骤2:发起方利用来自合作方的比较结果集合及训练得到的联邦学习模型,预测对象标签。
该方法在模型预测阶段,由于各合作方被选择的特征和特征阈值均为真实的,那么合作方所作的计算均为有效且必须的,未产生多余的计算任务和通信任务,合作方在预测阶段的效率达到最大化,又因为发起方仅需要与各合作方进行一轮通信即可获得预测对象标签,因此这种预测方式拥有良好的性能。
合作方B1对于样本X的比较结果表如下所示:
Figure BDA0003431191170000082
Figure BDA0003431191170000091
如图5所示,本发明实施例还提供一种基于XGBoost的联邦学习训练及预测装置,应用于一个发起方和多个合作方,该装置包括:
第一棵决策树建立模块11,用于发起方利用自己持有的特征数据创建第一棵决策树;
第m棵决策树建立模块12,用于发起方和合作方协作依次建立第m棵决策树,m=2,3,...,M,其中M为训练的决策树总数,训练得到基于XGBoost的联邦学习模型;建立第m棵决策树的过程中,发起方计算每个真实结点样本空间的最优特征及特征阈值,同时为每组最优特征及特征阈值额外匹配一个结点样本空间作为假结点样本空间,将每组最优特征及特征阈值及其对应的两个结点样本空间发送给对应特征持有方,特征持有方根据收到的特征及特征阈值划分当前结点样本空间,并将结果通知发起方;
标签预测模块13,用于利用上述训练得到的联邦学习模型对待预测对象的标签进行预测。
本发明实施例还提供一种电子设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述方法实施例的步骤。
本发明实施例还提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述方法实施例的步骤。
由于上述装置、电子设备以及计算机可读存储介质实施例解决技术的原理与上述方法实施例是类似的,因此该装置、电子设备以及计算机可读存储介质的实施可以参照上述方法实施例,重复之处不再赘述。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种基于XGBoost的联邦学习训练及预测方法,应用于一个发起方和多个合作方,其特征在于,该方法包括以下步骤:
发起方利用自己持有的特征数据创建第一棵决策树;
发起方和合作方协作依次建立第m棵决策树,m=2,3,...,M,其中M为训练的决策树总数,训练得到基于XGBoost的联邦学习模型;建立第m棵决策树的过程中,发起方计算每个真实结点样本空间的最优特征及特征阈值,同时为每组最优特征及特征阈值额外匹配一个结点样本空间作为假结点样本空间,将每组最优特征及特征阈值及其对应的两个结点样本空间发送给对应特征持有方,特征持有方根据收到的特征及特征阈值划分当前结点样本空间,并将结果通知发起方;
利用上述训练得到的联邦学习模型对待预测对象的标签进行预测。
2.如权利要求1所述的基于XGBoost的联邦学习训练及预测方法,其特征在于,发起方拥有公钥PK和私钥SK,将公钥PK共享给合作方。
3.如权利要求2所述的基于XGBoost的联邦学习训练及预测方法,其特征在于,所述发起方和合作方协作建立第m棵决策树的创建过程如下:
步骤1:发起方从自己持有的特征中选择最优特征作为树的根结点,并划分子结点样本空间;使用公钥PK加密训练样本损失函数梯度,将样本损失函数梯度密文和子结点样本空间发送给各合作方;
步骤2:合作方依据自身特征对当前结点样本空间进行分区,聚合同一分区内样本的梯度密文并将各聚合结果发送给发起方;
步骤3:发起方计算每个真实结点样本空间的最优特征及特征阈值,同时为每组最优特征及特征阈值额外匹配一个结点样本空间作为假结点样本空间,将每组最优特征及特征阈值及其对应的两个结点样本空间发送给对应特征持有方;
步骤4:特征持有方根据收到的特征及特征阈值划分当前结点样本空间,将划分结果发送给发起方,并本地存储特征及特征阈值;
步骤5:发起方利用真实划分结果更新模型,并将所有划分结果发送给所有合作方;
重复步骤2-步骤5,直到达到预设的停止条件,完成第m棵树的创建。
4.如权利要求1所述的基于XGBoost的联邦学习训练及预测方法,其特征在于:当发起方为最优特征及特征阈值随机匹配结点样本空间时,优先选择假结点样本空间。
5.如权利要求1所述的基于XGBoost的联邦学习训练及预测方法,其特征在于,所述利用上述训练得到的联邦学习模型对待预测对象的标签进行预测具体包括:
步骤1:合作方获取待预测对象ID,使用己方训练所得最优特征及特征阈值与该对象相应特征值进行比较,并将结果发送给发起方;
步骤2:发起方利用来自合作方的比较结果集合及训练得到的联邦学习模型,预测对象标签。
6.一种基于XGBoost的联邦学习训练及预测装置,应用于一个发起方和多个合作方,其特征在于,该装置包括:
第一棵决策树建立模块,用于发起方利用自己持有的特征数据创建第一棵决策树;
第m棵决策树建立模块,用于发起方和合作方协作依次建立第m棵决策树,m=2,3,...,M,其中M为训练的决策树总数,训练得到基于XGBoost的联邦学习模型;建立第m棵决策树的过程中,发起方计算每个真实结点样本空间的最优特征及特征阈值,同时为每组最优特征及特征阈值额外匹配一个结点样本空间作为假结点样本空间,将每组最优特征及特征阈值及其对应的两个结点样本空间发送给对应特征持有方,特征持有方根据收到的特征及特征阈值划分当前结点样本空间,并将结果通知发起方;
标签预测模块,用于利用上述训练得到的联邦学习模型对待预测对象的标签进行预测。
7.一种电子设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1-5任一所述方法的步骤。
8.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-5任一所述方法的步骤。
CN202111596095.4A 2021-12-24 2021-12-24 基于XGBoost的联邦学习训练及预测方法以及装置 Pending CN114372516A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111596095.4A CN114372516A (zh) 2021-12-24 2021-12-24 基于XGBoost的联邦学习训练及预测方法以及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111596095.4A CN114372516A (zh) 2021-12-24 2021-12-24 基于XGBoost的联邦学习训练及预测方法以及装置

Publications (1)

Publication Number Publication Date
CN114372516A true CN114372516A (zh) 2022-04-19

Family

ID=81141870

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111596095.4A Pending CN114372516A (zh) 2021-12-24 2021-12-24 基于XGBoost的联邦学习训练及预测方法以及装置

Country Status (1)

Country Link
CN (1) CN114372516A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116127531A (zh) * 2023-01-14 2023-05-16 北京惠企易点通科技有限公司 一种多数据方参与且各方数据不出域的安全计算方法及系统
CN116521952A (zh) * 2023-07-04 2023-08-01 北京富算科技有限公司 使用联邦学习模型进行人群包统计的方法及装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116127531A (zh) * 2023-01-14 2023-05-16 北京惠企易点通科技有限公司 一种多数据方参与且各方数据不出域的安全计算方法及系统
CN116127531B (zh) * 2023-01-14 2023-08-29 北京惠企易点通科技有限公司 一种多数据方参与且各方数据不出域的安全计算方法及系统
CN116521952A (zh) * 2023-07-04 2023-08-01 北京富算科技有限公司 使用联邦学习模型进行人群包统计的方法及装置
CN116521952B (zh) * 2023-07-04 2023-09-05 北京富算科技有限公司 使用联邦学习模型进行人群包统计的方法及装置

Similar Documents

Publication Publication Date Title
Tang et al. Computational intelligence and deep learning for next-generation edge-enabled industrial IoT
Yang et al. BrainIoT: Brain-like productive services provisioning with federated learning in industrial IoT
CN114372516A (zh) 基于XGBoost的联邦学习训练及预测方法以及装置
WO2021128805A1 (zh) 一种基于生成对抗强化学习的无线网络资源分配方法
CN104408149A (zh) 基于社交网络分析的犯罪嫌疑人挖掘关联方法及系统
CN110995488B (zh) 一种基于分层参数服务器的多机构协同学习系统及方法
CN113657607B (zh) 一种面向联邦学习的连续学习方法
EP4350572A1 (en) Method, apparatus and system for generating neural network model, devices, medium and program product
CN108062243A (zh) 执行计划的生成方法、任务执行方法及装置
Yang et al. Application of information transmission control strategy based on incremental community division in IoT platform
Zhao et al. Stability-based analysis and defense against backdoor attacks on edge computing services
CN116708009A (zh) 一种基于联邦学习的网络入侵检测方法
CN114580011B (zh) 基于联邦隐私训练的电力设施安全态势感知方法及系统
CN116186782A (zh) 联邦图计算方法、装置及电子设备
Kim et al. Reducing model cost based on the weights of each layer for federated learning clustering
Cheng et al. GFL: Federated learning on non-IID data via privacy-preserving synthetic data
CN109685675A (zh) 基于标签传播自然启发式的动态网络社团结构识别方法
CN113282933B (zh) 联邦学习方法、装置和系统、电子设备、存储介质
Shen et al. Dynamic generation of internet of things organizational structures through evolutionary computing
CN105373804B (zh) 一种基于多维空间快速聚类的人体部位定位方法与系统
Ghesmoune et al. Clustering over data streams based on growing neural gas
CN114372517A (zh) 基于树形结构的纵向联邦学习训练及预测方法以及装置
Liu et al. General decentralized federated learning for communication-computation tradeoff
Cao et al. Layered model aggregation based federated learning in mobile edge networks
CN114580661A (zh) 基于联邦学习的数据处理方法、装置和计算机设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination