CN113689003B - 一种安全的去除第三方的混合联邦学习框架及方法 - Google Patents

一种安全的去除第三方的混合联邦学习框架及方法 Download PDF

Info

Publication number
CN113689003B
CN113689003B CN202110913459.0A CN202110913459A CN113689003B CN 113689003 B CN113689003 B CN 113689003B CN 202110913459 A CN202110913459 A CN 202110913459A CN 113689003 B CN113689003 B CN 113689003B
Authority
CN
China
Prior art keywords
federal learning
model
data
edge
participants
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110913459.0A
Other languages
English (en)
Other versions
CN113689003A (zh
Inventor
何道敬
杜润萌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
East China Normal University
Original Assignee
East China Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by East China Normal University filed Critical East China Normal University
Priority to CN202110913459.0A priority Critical patent/CN113689003B/zh
Publication of CN113689003A publication Critical patent/CN113689003A/zh
Application granted granted Critical
Publication of CN113689003B publication Critical patent/CN113689003B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/602Providing cryptographic facilities or services

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Bioethics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种安全的去除第三方的混合联邦学习框架及方法,其混合学习框架包括:多个分布式计算节点,从数个分布式计算节点中选取数个边缘聚合器;其混合联邦学习方法具体为:设有m个小组,每个小组里有n个组员:每个小组i,1≤i≤m;首先根据数据集进行混合联邦学习,最终每一个小组都得到一个混合联邦学习模型Mi;将每一个小组的联邦学习模型Mi再次进行混合联邦学习,得到一个全新的联邦学习模型Mi’,将Mi’作为新一轮的模型参数的输入,以此迭代更新模型Mi’,直至联邦学习模型收敛。本发明的方法与现有方法的区别是:混合联邦学习去除第三方,安全而且高效;其混合联邦学习方法适用于数据不规则的情形,可以提升联邦建模精度。

Description

一种安全的去除第三方的混合联邦学习框架及方法
技术领域
本发明属于联邦学习建模领域,特别涉及去除第三方的大规模分布式边缘智能框架以及基于安全多方计算的横向联邦建模方式和纵向联邦建模方式。
背景技术
机器学习技术在实践中被广泛用于生成用于医疗、银行、推荐服务、威胁分析和认证技术的预测模型。随着时间的推移,收集到的大量网络边缘数据为很多问题提供了新的解决方案,而深度学习的进展导致了语音、图像和文本识别方面的突破。
大型互联网公司收集用户的在线活动,培训预测用户未来兴趣的推荐系统。来自不同医院和政府机构的健康数据可以用来建立新的诊断模型,而金融公司和支付网络可以结合交易历史、商户数据和账户持有人信息,以训练更准确的欺诈检测引擎。
然而,在不同的行业中,大多数应用程序只能访问小的或低质量的数据集。标签数据是非常昂贵的,特别是在需要人力专长和领域知识的领域。此外,特定任务所需的数据可能不会全部存储在一个地方。许多组织可能只有未标记的数据,而其他一些组织可能只有非常有限的标签。而且,在GDPR的限制下,各组织也越来越难以合并它们的数据。
为了解决这一挑战,某歌公司引入了联邦学习(FL)系统,其中全球机器学习模型由分布式参与者的联邦更新,同时将其数据存储在本地。他们的框架要求所有贡献者共享相同的特性空间。另一方面,还研究了在特征空间中划分数据的安全机器学习。这些方法只适用于具有共同特征或联合下的共同样本的数据。
然而,在目前应用的两方联邦学习的场景中,参与者Guest和参与者Host进行隐私求交后的联邦建模数据量非常小导致模型的性能和精度也不够高。例如,双方的样本数量有10万条数据,求交后的数据可能只有5000条数据,然后双方利用这5000条数据进行建模,这样的数据量想要得到高质量的模型是远远不够的。因此,如何提高联合模型的精度是一个急需解决的问题。
在最近的一些工作中,已经有相关工作研究混合联邦学习方法,具体方法为:针对每个组,根据组内参与者的数据集联合训练每组的联邦学习模型;对各组的得到联邦学习模型进行融合得到新的一个联邦学习模型,并将新的联邦学习模型发送给每个组内参与者,以此方式进行迭代,直至模型训练结束。但这个方案存在两个问题。第一,该方案仅仅适用于具有多组参与者的联邦学习模型训练,而且要求每个组内进行相同的联邦学习模式,即要求数据特征值完全一致,不适用于数据特征值不规则的情况。第二,每个组内都存在一个协调者,即可信的第三方。在实践中,是很难找到一个权威的第三方,可以被所有参与者信任。另外,方案中但凡涉及到第三方,就增加了数据泄漏的风险。如果设计的协议中去掉了第三方,就可以大大降低系统的复杂性和任意双方建立联合模型的成本。
发明内容
本发明的目的是提供一种安全的去除第三方的混合联邦学习框架和方法,该方法是在混合联邦学习上的另一个努力;提出了针对的各组内如何进行混合联邦学习并且构建了相对应的混合联邦学习框架;不仅可以简化系统部署,而且大大提升了联邦建模的安全性。
一种安全的去除第三方的混合联邦学习框架,包括数个分布式计算节点,从数个分布式计算节点中选取数个边缘聚合器;数个边缘聚合器中随机选择一个边缘聚合器定做中心聚合器,每个边缘聚合器与至少一个分布式计算节点相关联,具体构成如下:
1)每轮随机选择的其中一个聚合器作为中心聚合器,其余边缘聚合器首先从选定的中心聚合器下载全局学习模型,每个分布式计算节点从其关联的边缘聚合器下载全局模型,每个分布式计算节点训练好子模型后再上传到关联的边缘聚合器;边缘聚合器接收子模型后得到一个更新的边缘模型,再将边缘模型返回给关联的分布式计算节点,经过多次更新迭代,每个边缘聚合器得到一个边缘模型;
2)每个边缘聚合器将边缘模型更新至中心聚合器;中心聚合器接收边缘模型后对全局模型进行更新返回其余的边缘聚合器,以此迭代,直至全局模型达到预期的精度为止。
一种安全的去除第三方的混合联邦学习方法,包括下述步骤:
步骤1:设有m个小组,每个小组中有n个参与者,每个参与者手中拥有一个数据集,且每个参与者初始化一个模型参数,部分参与者的数据集仅包括特征数据,部分参与者的数据集包括特征数据和标签数据;其中每个参与者对应一个分布式计算节点,每个小组对应一个边缘聚合器,数个小组随机选择一个小组做中心聚合器;
步骤2:每个小组i,1≤i≤m各自组内参与者基于选定的同态加密方案利用数据集和模型参数进行混合联邦学习,即组内参与者首先进行纵向联邦学习,然后再进行横向联邦学习,或者,首先组内参与者进行横向联邦学习,再进行纵向联邦学习,最终每一个小组的组内成员都得到一个混合联邦学习模型Mi,该混合联邦学习模型Mi就是边缘模型;
步骤3:联合所有小组的混合联邦学习模型Mi再进行混合联邦学习,即所有小组首先进行横向联邦学习,再进行纵向联邦学习,或者,所有小组首先进行纵向联邦学习,再进行横向联邦学习,最终,每个小组得到一个全新的联邦学习模型Mi’,且模型Mi’参数分布在对应的各个小组之间的参与者手中;
步骤4:将得到一个全新的联邦学习模型Mi’作为新一轮的模型参数的输入,重复步骤2-步骤4,以此迭代更新模型Mi’,直至联邦学习模型收敛至某一阈值或者达到最大迭代次数。
步骤2或3中所述横向联邦学习具体为:在两个数据集的用户特征重叠较多而用户重叠较少的情况下,把数据集按照横向切分;即用户维度切分,并取出双方用户特征相同而用户不完全相同的那部分数据进行训练,具体包括下述步骤:
步骤A1:参与方首先各自在本地进行建模;
步骤A2:对所有参与方建模结果进行加权平均,再返回给各个参与方;
步骤A3:以此方式进行迭代,直至横向联邦学习模型收敛至某一阈值或者达到最大迭代次数。
步骤2或3中所述纵向联邦学习具体为:在两个数据集的用户重叠较多而用户特征重叠较少的情况下,把数据集按照纵向即特征维度切分,并取出双方用户相同而用户特征不完全相同的那部分数据进行训练,具体包括下述步骤:
步骤B1:无标签数据的参与方提供加密特征数据协助有标签数据的参与方进行梯度更新和模型参数更新;
步骤B2:有标签数据的参与方提供加密标签数据协助无标签数据的参与方进行梯度更新和模型参数更新;
步骤B3:B1-B2步骤进行迭代,直至纵向联邦学习模型收敛至某一阈值或者达到最大迭代次数。
步骤2或3所述进行混合联邦学习,具体为:
两个表格的纵坐标代表用户ID实例,横坐标x代表特征数据,y代表标签数据:
组内参与者进行混合联邦学习,设定小组中仅有两个参与者;设定为首先进行纵向联邦学习,然后再进行横向联邦学习;第一个参与者拥有左表格对应的数据集,第二个参与者拥有右表格对应的数据集;利用第一个参与者数据集中的用户ID(1,2)、特征数据(x1,x2,x3,x4,x3,x4)以及标签数据y和第二个参与者数据集中的用户ID(1,2)和特征值(x7,x8)进行纵向联邦学习,然后利用第一个参与者数据集中的用户ID(1,2,3,4,5)、特征数据(x1,x2)和第二个参与者数据集中的用户ID(8,9)、特征数据(x7,x8)以及标签数据y进行横向联邦学习。
步骤4中所述阈值具体为:模型参数变化量小于设定的某个数值。
所述B1和步骤B2所述进行梯度更新采用全量梯度下降、小批量梯度下降或随机梯度下降方式。
本发明的有益效果在于:
首先,本发明的混合联邦学习方法不仅适用于组内进行混合联邦学习,而且适用于不同组进行混合联邦学习,大大提升了联邦建模的精确度。
第二,本发明的混合联邦学习框架不要求各组之间的特征值一定完全相同,适用于数据不规则的情形。
第三,本发明的混合联邦学习框架是去除第三方协调的架构,这种模式不仅可以简化系统部署,而且大大提升了联邦建模的安全性。
附图说明
图1为本发明框架示意图;
图2为本发明方法流程图;
图3为本发明实施例横向联邦学习示意图;
图4为本发明实施例纵向联邦学习示意图。
具体实施方式
结合以下具体实施例和附图,对本发明作进一步的详细说明。实施本发明的过程、条件、实验方法等,除以下专门提及的内容之外,均为本领域的普遍知识和公知常识,本发明没有特别限制内容。
本发明提供的一种安全的去除第三方的混合联邦学习框架,包括数个分布式计算节点和数个边缘聚合器;数个边缘聚合器中随机选择一个边缘聚合器定做中心聚合器,每个边缘聚合器与至少一个分布式计算节点相关联,具体构成为:
1)每轮随机选择的其中一个聚合器作为中心聚合器,其余边缘聚合器首先从选定的中心聚合器下载全局学习模型,每个分布式计算节点从其关联的边缘聚合器下载全局模型,每个分布式计算节点训练好子模型后再上传到关联的边缘聚合器;边缘聚合器接收子模型后得到一个更新的边缘模型,再将边缘模型返回给关联的分布式计算节点,经过多次更新迭代,每个边缘聚合器得到一个边缘模型;
2)每个边缘聚合器将边缘模型更新至中心聚合器;中心聚合器接收边缘模型后对全局模型进行更新返回其余的边缘聚合器,以此迭代,直至全局模型达到预期的精度为止。
本发明提供的一种安全的去除第三方的混合联邦学习方法,包括下述步骤:
步骤1:现有m个小组,每个小组中有n个参与者,每个参与者手中拥有一个数据集,且每个参与者初始化一个模型参数。
步骤2:每个小组i,1≤i≤m各自组内参与者基于选定的同态加密方案利用数据集和模型参数进行混合联邦学习,即组内参与者首先进行纵向联邦学习,然后再进行横向联邦学习,或者,首先组内参与者进行横向联邦学习,再进行纵向联邦学习,最终每一个小组的组内成员都得到一个混合联邦学习模型Mi
步骤3:联合所有小组的混合联邦学习模型Mi再进行混合联邦学习,即所有小组首先进行横向联邦学习,再进行纵向联邦学习,或者,所有小组首先进行纵向联邦学习,再进行横向联邦学习,最终,每个小组得到一个全新的联邦学习模型Mi’,且模型Mi’参数分布在对应的各个小组之间的参与者手中;
步骤4:将得到一个全新的联邦学习模型Mi’作为新一轮的模型参数的输入,返回步骤2-步骤4,以此迭代更新模型Mi’,直至联邦学习模型收敛至某一阈值或者达到最大迭代次数。
本发明的步骤2、步骤3中横向联邦学习具体定义为在两个数据集的用户特征重叠较多而用户重叠较少的情况下,把数据集按照横向(即用户维度)切分,并取出双方用户特征相同而用户不完全相同的那部分数据进行训练。比如有两家不同地区银行,它们的用户群体分别来自各自所在的地区,相互的交集很小。但是,它们的业务很相似,因此,记录的用户特征是相同的。此时,使用横向联邦学习来构建联合模型。
本发明的步骤2、步骤3中纵向联邦学习具体定义为在两个数据集的用户重叠较多而用户特征重叠较少的情况下,把数据集按照纵向(即特征维度)切分,并取出双方用户相同而用户特征不完全相同的那部分数据进行训练。
本发明的步骤2、步骤3中的混合联邦学习方式,具体参看以下面表格以及以下表述:
两个表格的纵坐标代表用户ID实例,横坐标x代表特征数据,y代表标签数据:
组内参与者进行混合联邦学习,设定小组中仅有两个参与者;设定为首先进行纵向联邦学习,然后再进行横向联邦学习;第一个参与者拥有左表格对应的数据集,第二个参与者拥有右表格对应的数据集;利用第一个参与者数据集中的用户ID(1,2)、特征数据(x1,x2,x3,x4,x3,x4)以及标签数据y和第二个参与者数据集中的用户ID(1,2)和特征数据(x7,x8)进行纵向联邦学习,然后利用第一个参与者数据集中的用户ID(1,2,3,4,5)、特征数据(x1,x2)和第二个参与者数据集中的用户ID(8,9)、特征数据(x7,x8)以及标签数据y进行横向联邦学习。
本发明的步骤1、步骤2中的横向联邦方式,具体参看下述步骤:
步骤A1:参与方首先各自在本地进行建模;
步骤A2:对所有参与方建模结果进行加权平均,再返回给各个参与方;
步骤A3:以此方式进行迭代,直至横向联邦学习模型收敛至某一阈值或者达到最大迭代次数。
本发明的步骤1、步骤2中的纵向联邦方式,具体参看下述步骤:
步骤B1:数据集中无y标签数据的参与方提供加密特征数据协助有y标签的参与方进行梯度更新和模型参数更新;
步骤B2:数据集中有y标签数据的参与方提供加密标签数据协助无y标签的参与方进行梯度更新和模型参数更新;
步骤B3:以此方式进行迭代,直至纵向联邦学习模型收敛至某一阈值或者达到最大迭代次数。
本发明的步骤B1、步骤B2中的梯度更新的方法采用全量梯度下降方式,小批量梯度下降方式或随机梯度下降。
本发明设计的去除第三方的安全混合联邦学习框架方法,具体实施过程中采用的加密方案可以替换成秘密分享技术、不经意传输技术以及混肴电路技术。
实施例
以多家银行联邦训练逻辑回归算法为例,安全的去除第三方的混合联邦学习方法步骤作具体说明:
安全的去除第三方的混合联邦学习方法具体流程如图2所示。
首先,多个银行内部进行首先根据数据集进行混合联邦学习,即每个银行各个部门首先联合进行纵向联邦学习,然后再联合进行横向联邦学习(也可以首先进行纵向联邦学习,再进行联邦学习),最终每一个银行都得到一个混合联邦学习模型Mi;
其次,将每一个银行得到的混合联邦学习模型Mi部分进行横向联邦学习,即加权平均,部分进行纵向联邦学习,得到一个全新的联邦学习模型Mi’,该模型参数分布在对应的每个银行的各个部门手中;最后得到一个全新的联邦学习模型Mi’作为新一轮的模型参数的输入,以此迭代更新模型Mi’,直至联邦学习模型收敛至某一阈值或者达到最大迭代次数,模型训练接收。
第一阶段:横向联邦学习
综合用户属性信息,定义模型逻辑回归算法,初始模型参数θ,学习率μ,最大迭代次数r,获取特征对齐信息,进行横向联邦学习,流程图如图3所示。
逻辑回归的计算方法是下面的Sigmoid函数:
其中θ=(θ012,...,θn)是一组模型参数。当有测试样本输入时,这组模型参数与特征数据进行内积计算
hθ(x)=θ01x12x2+…+θnxn
这里的x1,x2,x3,……,xn就是每个测试样本的n个特征数据。之后再按照Sigmoid函数的形式求出y,从而去判断每个测试样本所属的类别。
第二阶段:纵向联邦学习
综合用户属性信息,定义模型逻辑回归算法,初始模型参数θ,学习率μ,最大迭代次数r,获取样本对齐信息,进行纵向联邦学习,流程图如图4所示。
样本对齐即对样本的特征值进行隐私求交算法,以两方为例,具体计算方法为:Bob生成公钥对,将公钥发给Alice,Alcie对自己的id进行加密,然后将加密的发送给Bob,Bob将Alice加密后的值进行第二次加密得到ZA,Bob也将自己的id进行加密得到ZB。Bob将ZA和ZB发送给Bob,Alice对ZB进行加密得到DB,将DB和ZA进行求交,得到交集结果发送给Bob。
第三阶段:混合联邦学习
将每一个银行的联邦学习模型Mi部分进行横向联邦学习,即加权平均,部分进行纵向联邦学习,得到一个全新的联邦学习模型Mi’,该模型参数分布在对应的各个银行之间的部门手中;最后得到一个全新的联邦学习模型Mi’作为新一轮的模型参数的输入,返回第一阶段和第二阶段,以此迭代更新模型Mi’,直至联邦学习模型收敛至某一阈值或者达到最大迭代次数。

Claims (7)

1.一种安全的去除第三方的混合联邦学习框架构建方法,其特征在于,所述的混合联邦学习框架包括数个分布式计算节点,从数个分布式计算节点中选取数个边缘聚合器;数个边缘聚合器中随机选择一个边缘聚合器定做中心聚合器,每个边缘聚合器与至少一个分布式计算节点相关联,具体构建如下:
1)每轮随机选择的其中一个聚合器作为中心聚合器,其余边缘聚合器首先从选定的中心聚合器下载全局学习模型,每个分布式计算节点从其关联的边缘聚合器下载全局模型,每个分布式计算节点训练好子模型后再上传到关联的边缘聚合器;边缘聚合器接收子模型后得到一个更新的边缘模型,再将边缘模型返回给关联的分布式计算节点,经过多次更新迭代,每个边缘聚合器得到一个边缘模型;
2)每个边缘聚合器将边缘模型更新至中心聚合器;中心聚合器接收边缘模型后对全局模型进行更新返回其余的边缘聚合器,以此迭代,直至全局模型达到预期的精度为止。
2.一种安全的去除第三方的混合联邦学习方法,其特征在于,包括下述步骤:
步骤1:设有m个小组,每个小组中有n个参与者,每个参与者手中拥有一个数据集,且每个参与者初始化一个模型参数,部分参与者的数据集仅包括特征数据,部分参与者的数据集包括特征数据和标签数据;其中每个参与者对应一个分布式计算节点,每个小组对应一个边缘聚合器,数个小组随机选择一个小组做中心聚合器;
步骤2:每个小组i,1≤i≤m各自组内参与者基于选定的同态加密方案利用数据集和模型参数进行混合联邦学习,即组内参与者首先进行纵向联邦学习,然后再进行横向联邦学习,或者,首先组内参与者进行横向联邦学习,再进行纵向联邦学习,最终每一个小组的组内成员都得到一个混合联邦学习模型Mi,该混合联邦学习模型Mi就是边缘模型;
步骤3:联合所有小组的混合联邦学习模型Mi再进行混合联邦学习,即所有小组首先进行横向联邦学习,再进行纵向联邦学习,或者,所有小组首先进行纵向联邦学习,再进行横向联邦学习,最终,每个小组得到一个全新的联邦学习模型Mi’,且模型Mi’参数分布在对应的各个小组之间的参与者手中;
步骤4:将得到一个全新的联邦学习模型Mi’作为新一轮的模型参数的输入,重复步骤2-步骤4,以此迭代更新模型Mi’,直至联邦学习模型收敛至某一阈值或者达到最大迭代次数。
3.根据权利要求2所述安全的去除第三方的混合联邦学习方法,其特征在于,步骤2或步骤3中所述横向联邦学习具体为:在两个数据集的用户特征重叠较多而用户重叠较少的情况下,把数据集按照横向切分;即用户维度切分,并取出双方用户特征相同而用户不完全相同的那部分数据进行训练,具体包括下述步骤:
步骤A1:参与方首先各自在本地进行建模;
步骤A2:对所有参与方建模结果进行加权平均,再返回给各个参与方;
步骤A3:以此方式进行迭代,直至横向联邦学习模型收敛至某一阈值或者达到最大迭代次数。
4.根据权利要求2所述安全的去除第三方的混合联邦学习方法,其特征在于,步骤2或步骤3中所述纵向联邦学习具体为:在两个数据集的用户重叠较多而用户特征重叠较少的情况下,把数据集按照纵向即特征维度切分,并取出双方用户相同而用户特征不完全相同的那部分数据进行训练,具体包括下述步骤:
步骤B1:无标签数据的参与方提供加密特征数据协助有标签数据的参与方进行梯度更新和模型参数更新;
步骤B2:有标签数据的参与方提供加密标签数据协助无标签数据的参与方进行梯度更新和模型参数更新;
步骤B3:B1-B2步骤进行迭代,直至纵向联邦学习模型收敛至某一阈值或者达到最大迭代次数。
5.根据权利要求2所述安全的去除第三方的混合联邦学习方法,其特征在于,步骤2或步骤3所述进行混合联邦学习,具体为:
两个表格的纵坐标代表用户ID实例,横坐标x代表特征数据,y代表标签数据:
组内参与者进行混合联邦学习,设定小组中仅有两个参与者;设定为首先进行纵向联邦学习,然后再进行横向联邦学习;第一个参与者拥有左表格对应的数据集,第二个参与者拥有右表格对应的数据集;利用第一个参与者数据集中的用户ID1,2、特征数据x1,x2,x3,x4以及标签数据y和第二个参与者数据集中的用户ID1,2和特征数据x7,x8进行纵向联邦学习,然后利用第一个参与者数据集中的用户ID1,2,3,4,5、特征数据x1,x2和第二个参与者数据集中的用户ID8,9、特征数据x7,x8以及标签数据y进行横向联邦学习。
6.根据权利要求2所述安全的去除第三方的混合联邦学习方法,其特征在于,步骤4中所述阈值具体为:模型参数变化量小于设定的某个数值。
7.根据权利要求4所述安全的去除第三方的混合联邦学习方法,所述B1和步骤B2所述进行梯度更新采用全量梯度下降、小批量梯度下降或随机梯度下降方式。
CN202110913459.0A 2021-08-10 2021-08-10 一种安全的去除第三方的混合联邦学习框架及方法 Active CN113689003B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110913459.0A CN113689003B (zh) 2021-08-10 2021-08-10 一种安全的去除第三方的混合联邦学习框架及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110913459.0A CN113689003B (zh) 2021-08-10 2021-08-10 一种安全的去除第三方的混合联邦学习框架及方法

Publications (2)

Publication Number Publication Date
CN113689003A CN113689003A (zh) 2021-11-23
CN113689003B true CN113689003B (zh) 2024-03-22

Family

ID=78579298

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110913459.0A Active CN113689003B (zh) 2021-08-10 2021-08-10 一种安全的去除第三方的混合联邦学习框架及方法

Country Status (1)

Country Link
CN (1) CN113689003B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114328432A (zh) * 2021-12-02 2022-04-12 京信数据科技有限公司 一种大数据联邦学习处理方法及系统
CN114330759B (zh) * 2022-03-08 2022-08-02 富算科技(上海)有限公司 一种纵向联邦学习模型的训练方法及系统
CN115169576B (zh) * 2022-06-24 2024-02-09 上海富数科技有限公司 基于联邦学习的模型训练方法、装置及电子设备
CN115018087B (zh) * 2022-07-26 2023-05-09 北京融数联智科技有限公司 一种多方纵向逻辑回归算法模型的训练方法及系统
CN115796309A (zh) * 2022-09-20 2023-03-14 天翼电子商务有限公司 一种联邦学习横纵向结合算法
CN115238065B (zh) * 2022-09-22 2022-12-20 太极计算机股份有限公司 一种基于联邦学习的公文智能推荐方法
CN115759248B (zh) * 2022-11-07 2023-06-13 吉林大学 基于去中心混合联邦学习的金融系统分析方法及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110490738A (zh) * 2019-08-06 2019-11-22 深圳前海微众银行股份有限公司 一种混合联邦学习方法及架构
CN111754000A (zh) * 2020-06-24 2020-10-09 清华大学 质量感知的边缘智能联邦学习方法及系统
CN112613618A (zh) * 2021-01-04 2021-04-06 神谱科技(上海)有限公司 一种安全联邦学习逻辑回归算法
CN112926897A (zh) * 2021-04-12 2021-06-08 平安科技(深圳)有限公司 基于联邦学习的客户端贡献计算方法和装置
CN113052326A (zh) * 2021-03-26 2021-06-29 天津大学 一种基于分层联邦学习的轻量级激励模型的训练方法
EP3848838A1 (en) * 2018-08-10 2021-07-14 Webank Co.,Ltd Model parameter acquisition method and system based on federated learning, and readable storage medium

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210042645A1 (en) * 2019-08-06 2021-02-11 doc.ai, Inc. Tensor Exchange for Federated Cloud Learning

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3848838A1 (en) * 2018-08-10 2021-07-14 Webank Co.,Ltd Model parameter acquisition method and system based on federated learning, and readable storage medium
CN110490738A (zh) * 2019-08-06 2019-11-22 深圳前海微众银行股份有限公司 一种混合联邦学习方法及架构
CN111754000A (zh) * 2020-06-24 2020-10-09 清华大学 质量感知的边缘智能联邦学习方法及系统
CN112613618A (zh) * 2021-01-04 2021-04-06 神谱科技(上海)有限公司 一种安全联邦学习逻辑回归算法
CN113052326A (zh) * 2021-03-26 2021-06-29 天津大学 一种基于分层联邦学习的轻量级激励模型的训练方法
CN112926897A (zh) * 2021-04-12 2021-06-08 平安科技(深圳)有限公司 基于联邦学习的客户端贡献计算方法和装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
联邦学习模型在涉密数据处理中的应用;贾延延;张昭;冯键;王春凯;;中国电子科学研究院学报(第01期);全文 *

Also Published As

Publication number Publication date
CN113689003A (zh) 2021-11-23

Similar Documents

Publication Publication Date Title
CN113689003B (zh) 一种安全的去除第三方的混合联邦学习框架及方法
CN110189192B (zh) 一种信息推荐模型的生成方法及装置
WO2022206510A1 (zh) 联邦学习的模型训练方法、装置、设备及存储介质
CN110472745B (zh) 一种联邦学习中的信息传输方法及装置
CN114936650A (zh) 基于隐私保护的联合训练业务模型的方法及装置
CN113179158B (zh) 一种控制带宽的多方联合数据处理方法及装置
CN114362948B (zh) 一种联邦衍生特征逻辑回归建模方法
CN114372871A (zh) 信用评分值的确定方法及其装置、电子设备及存储介质
CN116204773A (zh) 一种因果特征的筛选方法、装置、设备及存储介质
CN110610098A (zh) 数据集生成方法及装置
CN114742239A (zh) 基于联邦学习的金融保险理赔风险模型训练方法及装置
Koenaite et al. Attitudes towards utilising mobile banking applications among Generation Z consumers in South Africa
Khan et al. Vertical federated learning: A structured literature review
CN116468132A (zh) 用户数据处理的系统、方法以及装置
CN112507372B (zh) 实现隐私保护的多方协同更新模型的方法及装置
CN116703553B (zh) 金融反欺诈风险监控方法、系统及可读存储介质
CN113240461A (zh) 基于纵向联邦学习的潜在客户的识别方法、系统及介质
CN110175283B (zh) 一种推荐模型的生成方法及装置
CN114462626B (zh) 联邦模型训练方法、装置、终端设备以及存储介质
CN116402159A (zh) 联邦学习方法、预测方法、装置、电子设备及存储介质
CN114547684A (zh) 一种保护隐私数据的多方联合训练树模型的方法及装置
CN114065641A (zh) 多分类梯度提升树的构建方法、装置及电子设备
CN113962286A (zh) 一种基于分段函数的去中心化逻辑回归分类预测方法
Chaudhary et al. Autoencoder model using edge enhancement to detect communities in complex networks
Zhou et al. Hgena: A hyperbolic graph embedding approach for network alignment

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant