CN113515760B - 横向联邦学习方法、装置、计算机设备和存储介质 - Google Patents
横向联邦学习方法、装置、计算机设备和存储介质 Download PDFInfo
- Publication number
- CN113515760B CN113515760B CN202110593362.6A CN202110593362A CN113515760B CN 113515760 B CN113515760 B CN 113515760B CN 202110593362 A CN202110593362 A CN 202110593362A CN 113515760 B CN113515760 B CN 113515760B
- Authority
- CN
- China
- Prior art keywords
- data
- node
- participant
- model
- machine learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 65
- 238000003860 storage Methods 0.000 title claims abstract description 16
- 238000010801 machine learning Methods 0.000 claims abstract description 84
- 238000012545 processing Methods 0.000 claims abstract description 25
- 238000012935 Averaging Methods 0.000 claims abstract description 24
- 238000012549 training Methods 0.000 claims description 61
- 238000003066 decision tree Methods 0.000 claims description 17
- 238000004364 calculation method Methods 0.000 claims description 13
- 239000011159 matrix material Substances 0.000 claims description 7
- 230000008569 process Effects 0.000 abstract description 22
- 230000005540 biological transmission Effects 0.000 abstract description 18
- 230000006854 communication Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 9
- 238000004590 computer program Methods 0.000 description 8
- 230000001105 regulatory effect Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 230000001186 cumulative effect Effects 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/602—Providing cryptographic facilities or services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/70—Protecting specific internal or peripheral components, in which the protection of a component leads to protection of the entire computer
- G06F21/71—Protecting specific internal or peripheral components, in which the protection of a component leads to protection of the entire computer to assure secure computing or processing of information
- G06F21/72—Protecting specific internal or peripheral components, in which the protection of a component leads to protection of the entire computer to assure secure computing or processing of information in cryptographic circuits
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computer Hardware Design (AREA)
- Computer Security & Cryptography (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Bioethics (AREA)
- General Health & Medical Sciences (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及一种横向联邦学习方法、装置、计算机设备和存储介质。该方法包括:参与者节点利用本地数据对机器学习模型进行训练,对训练后的模型参数进行同态加密,将加密数据发送给主节点;主节点对加密数据进行同态求平均处理,把经过处理的数据发送给各参与者节点;参与者节点对经过处理的数据进行解密,基于预设规则对解密后数据进行运算,并根据运算结果去除干扰数据,得到模型更新参数;参与者节点利用模型更新参数更新机器学习模型。本申请的方法,各节点之间进行数据加密传输,主节点不对接收到的加密数据进行解密,在整个横向联邦学习过程中数据传输都是在加密状态下进行的,提高了数据传输过程中的安全性,避免了数据泄露问题。
Description
技术领域
本发明涉及人工智能领域,特别是涉及横向联邦学习方法、装置、计算机设备和存储介质。
背景技术
随着信息科技的发展,人们的数据越来越多地上传到通信网络上。在分布式系统应用场景中,在每一个端设备上,每一步的操作都有数据埋点。在数据上传通信网络给人们生活带来极大便利的同时,隐私数据保密也称为一个越来越引起人们关注的问题。隐私数据泄漏会导致极大的数据安全风险。然而应用数据来解决场景下的分析挖掘问题又不得不用到大量的隐私数据,如何有效确保隐私数据在网络传输过程中的安全称为一个亟待解决的问题。
还有其它的场景中需要训练大规模的分布式训练,分布在不同节点上的数据集可以进行合并,符合同一个特征空间下的数据。分布式集群系统包括大量的节点,各节点与主节点之间进行数据通信。黑客通常会通过截取节点与主节点之间地通信获得数据,造成数据泄漏。数据窃取者只需要对一个节点与主节点之间的通信进行数据窃取即可造成数据泄漏。
另外,在分布式系统应用场景中,需要把数据进行拷贝,每一个节点上存储同样大小的源数据,这样的存储方式需要耗费大量的存储空间存储同样的数据,造成了存储空间的浪费。
发明内容
基于此,有必要针对在分布式机器学习场景中,在进行数据传输时数据容易泄露导致数据传输安全性不佳的问题,提供一种横向联邦学习方法、装置、计算机设备和存储介质。
一种横向联邦学习方法,基于横向联邦学习系统实现,所述横向联邦学习系统包括主节点以及与所述主节点相连接的至少两个参与者节点,所述横向联邦学习方法包括:
所述参与者节点从所述主节点上下载机器学习模型,利用本地数据对所述机器学习模型进行训练,得到训练后的模型参数;
所述参与者节点对所述训练后的模型参数进行同态加密,将加密数据发送给所述主节点;
所述主节点对所述加密数据进行同态求平均处理,把经过所述同态求平均处理的数据发送给各所述参与者节点;
所述参与者节点对所述经过同态求平均处理的数据进行解密,得到解密后数据;
所述参与者节点基于预设规则对所述解密后数据进行运算,并根据运算结果去除干扰数据,得到模型更新参数;
所述参与者节点利用所述模型更新参数更新所述机器学习模型。
在其中一个实施例中,所述机器学习模型为梯度提升决策树模型,所述梯度提升决策树模型包括树节点,所述利用本地数据对所述机器学习模型进行训练包括:
每个所述参与者节点分别获取所述树节点的节点训练特征集以及所述梯度提升决策树模型的特征矩阵的梯度数据;
每个所述参与者节点分别针对所述树节点,根据所述节点训练特征集和所述梯度数据确定出局部最佳分裂规则并发送给所述主节点。
在其中一个实施例中,所述利用本地数据对所述机器学习模型进行训练包括:
将所述机器学习模型转换为计算图;
将所述本地数据输入到所述计算图中进行训练操作;
将训练完成的计算图转换为训练完成的机器学习模型。
在其中一个实施例中,所述参与者节点对训练后的模型参数进行同态加密,包括:
所述参与者节点利用自身的随机噪声对需要进行加密的训练后的模型参数进行编码,得到编码数据;其中,所述编码数据中包括所述随机噪声以及添加了干扰数据的训练后的模型参数,所述干扰数据是基于预设规则对所述随机噪声进行运算后获得的。
在其中一个实施例中,所述参与者节点对训练后的模型参数进行同态加密,包括:
所述参与者节点利用自身的随机噪声对需要进行加密的训练后的模型参数进行编码,得到编码数据;其中,所述编码数据中包括所述随机噪声以及添加了干扰数据的训练后的模型参数,所述干扰数据是基于预设规则对所述随机噪声进行运算后获得的;
所述参与者节点利用对称密钥对所述编码数据进行加密,得到加密数据。
在其中一个实施例中,所述干扰数据是基于预设规则对所述随机噪声进行运算后获得的,包括:
以各所述参与者节点共享的预设数据对所述随机噪声进行乘运算后获得所述干扰数据。
在其中一个实施例中,所述参与者节点利用自身的随机噪声对需要进行加密的训练后的模型参数进行编码,得到编码数据,包括:
当所述随机噪声的个数为一个时,将所述预设数据与所述随机噪声相乘得到干扰数据,利用所述干扰数据以及添加了所述干扰数据的训练后的模型参数组成编码数据;
当所述随机噪声的个数至少为两个时,将所述预设数据与至少两个所述随机噪声分别相乘,得到至少两个干扰数据;
将所述至少两个干扰数据作为第一数据部分;
在所述训练后的模型参数中添加所述第一数据部分,得到第二数据部分;
利用所述第一数据部分以及所述第二数据部分组成编码数据。
一种横向联邦学习装置,包括:
训练模块,用于参与者节点从主节点上下载机器学习模型,利用本地数据对所述机器学习模型进行训练,得到训练后的模型参数;
加密模块,用于所述参与者节点对所述训练后的模型参数进行同态加密,将加密数据发送给所述主节点;
计算模块,用于所述主节点对所述加密数据进行同态求平均处理,把经过所述同态求平均处理的数据发送给各所述参与者节点;
解密模块,用于所述参与者节点对所述经过同态求平均处理的数据进行解密,得到解密后数据;
运算模块,用于所述参与者节点基于预设规则对所述解密后数据进行运算,并根据运算结果去除干扰数据,得到模型更新参数;
更新模块,用于所述参与者节点利用所述模型更新参数更新所述机器学习模型。
一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述计算机可读指令被所述处理器执行时,使得所述处理器执行上述所述横向联邦学习方法的步骤。
一种存储有计算机可读指令的存储介质,所述计算机可读指令被一个或多个处理器执行时,使得一个或多个处理器执行上述所述横向联邦学习方法的步骤。
上述横向联邦学习方法、装置、计算机设备和存储介质,参与者节点将训练机器学习模型得到的模型参数进行同态加密后发送给主节点,主节点对加密数据进行同态求平均处理后将处理后的数据发送给各参与者节点,参与者节点解密处理后的数据,基于预设规则处理解密后的数据得到模型更新参数,更新机器学习模型,参与者节点与主节点之间进行数据加密传输,主节点不对接收到的加密数据进行解密,在整个横向联邦学习过程中数据传输都是在加密状态下进行的,提高了数据传输过程中的安全性,避免了数据泄露问题。
附图说明
图1为一个实施例中横向联邦学习系统的结构示意图;
图2为一个实施例中横向联邦学习方法的流程图;
图3为图2所示实施例中步骤S10的一个实施方式的流程图;
图4为图2所示实施例中步骤S10的另一实施方式的流程图;
图5为图2所示实施例中步骤S20的一个实施方式的流程图;
图6为一个实施方式中横向联邦学习系统的结构示意图;
图7为一个实施例中横向联邦学习装置的结构框图;
图8为一个实施例中计算机设备的结构框图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
可以理解,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。还应理解的是,虽然术语“第一”、“第二”、“第三”等在文本中在一些本申请实施例中用来描述各种元素,但是这些元素不应该受到这些术语的限制。这些术语仅用于区分各种元素。
联邦学习的提出是为了解决基于不同网络域下的机器学习模型训练问题。主要优化方向为大规模分发的通信成本,不平衡的数据分布,加密规则等。在联邦学习中,数据是按照用户ID和设备ID进行划分的。所以不同的用户ID和设备ID在数据空间是相对独立的。
联邦学习具备不同的隐私保护技术,比如安全多方计算,差异隐私,同态加密。在政府场景下在不同机构的合作项目中,采用了同态加密的方法。具体方法是采用同样的加密机制对数据进行了处理。同态加密的好处是在不同机构侧都可以得到模型运算的结果。而加密则伴随着全流程。包括机器学习中的训练和数据处理。解密后可以直接得到训练和预测结果。中间过程在未解密前均不可见。
在横向联邦学习解决方案中,单个设备在本地更新模型参数,并且上传到云端,从而与其它设备共同训练一个中心化模型。而这个中心化模型在多个设备都有存储,只不过模型的参数在不同设备上会有不同。其实横向联邦学习架构相当于汇聚各个不同节点的设备创建了一个数据集共享特征空间。
在一个实施例中,提出了一种横向联邦学习方法,基于横向联邦学习系统实现,横向联邦学习系统包括主节点以及与该主节点相连接的至少两个参与者节点,横向联邦学习系统如图1所示。
如图2所示,本实施例的横向联邦学习方法,具体可以包括以下步骤:
S10、参与者节点从主节点上下载机器学习模型,利用本地数据对该机器学习模型进行训练,得到训练后的模型参数。
参与者节点可以为各个用户端,可以是各种机构的计算机终端,例如监管部门端的计算机终端,保险公司的计算机终端等。主节点可以是中心服务器。
在保险公司的计算机终端的数据库中的数据可以包括个人赔付数据、个人赔付账户、个人参保险种、保险机构核损金额、赔保案件发生的地点、收款账户相关联的账户、参与赔付中的维修机构以及查勘人员信息等。
如图3所示,在某些实施方式中,机器学习模型为梯度提升决策树模型,利用本地数据对该机器学习模型进行训练包括:
S101、每个参与者节点分别针对机器学习模型的树节点,获取树节点的节点训练特征集和梯度数据,其中,梯度数据为机器学习模型的特征矩阵的梯度数据,节点训练特征集是预先训练好的树节点的分裂规则和参与者节点的特征子集确定的,特征子集中包含多个特征列,特征列中包含所有样本的特征的特征值,各参与者节点各自的特征子集组成特征矩阵,且各参与者节点的特征子集互不相交;
S102、每个参与者节点分别针对机器学习模型的树节点,根据获取的节点训练特征集和梯度数据确定出局部最佳分裂规则并发送给主节点,局部最佳分裂规则包括使目标函数的增益最大的特征和特征值。
如图4所示,在某些实施方式中,参与者节点利用各自数据库的数据对机器学习模型进行训练,包括以下步骤:
1)将机器学习模型转换为计算图。
机器学习模型包括多个层,每个层包含至少一个计算逻辑,各个计算逻辑之间存在数据输入或输出关系。将每个计算逻辑用一个算子(operator,OP)来表示,计算逻辑中通常包括多个模型参数,将各个计算逻辑之间的输入关系和/或输出关系用边的形式表示,从而将机器学习模型转换为包括多个算子和若干条边的计算图,其中,每条边用于连接两个不同的算子。
2)将本地数据作为训练数据输入到计算图中进行训练操作。
机器学习模型中包括多个模型参数,模型参数例如可以为权重,模型训练的过程就是通过不断训练更新权重的过程。其中,梯度通常是权重的导数。每个权重都会有一个梯度,每个算子输出的梯度可以有一个也可以有多个,具体数量依据算子上所包含权重的数量来确定。
3)将训练完成的计算图转换为训练完成的机器学习模型。
将训练完成的计算图转换为训练完成的机器学习模型的转换方法是步骤1) 中的逆转换。
S20、参与者节点对训练后的模型参数进行同态加密,将加密数据发送给主节点。
如图5所示,在某些实施方式中,步骤S20包括:
S201、参与者节点利用自身的随机噪声对需要进行加密的训练后的模型参数(训练后的模型参数为明文数据)进行编码,得到编码数据;其中,编码数据中包括自身的随机噪声以及添加了干扰数据的训练后的模型参数,干扰数据是基于预设规则对自身的随机噪声进行运算后获得的。
S202、参与者节点利用对称密钥对编码数据进行加密并将加密得到的加密数据发送给主节点。
干扰数据是基于预设规则对自身的随机噪声进行运算后获得的,获得干扰数据的步骤包括:
以各个参与者节点共享的预设数据对自身的随机噪声进行乘运算后获得干扰数据。
自身的随机噪声的个数为一个;参与者节点利用自身的随机噪声对需要加密的训练后的模型参数进行编码,得到编码数据,包括:
将预设数据与随机噪声相乘,得到干扰数据;
将干扰数据以及添加了该干扰数据的训练后的模型参数组成编码数据。
在某些实施方式中,自身的随机噪声的个数为至少两个;
将预设数据与至少两个随机噪声分别相乘,得到至少两个干扰数据;
将至少两个干扰数据作为第一数据部分;
在训练后的模型参数中添加至少两个干扰数据,得到第二数据部分;
利用第一数据部分和第二数据部分组成编码数据。
S30、主节点对加密数据进行同态求平均处理,把经过同态求平均处理后的数据发送给各个参与者节点。
参与者节点接收主节点返回的密文汇聚数据,密文汇聚数据为主节点对参与同态加密的各个参与者节点分别发送的加密数据执行同态求平均处理得到的第一密文数据和第二密文数据,第一密文数据为各个参与者节点各自的随机噪声的同态求平均处理结果,第二密文数据为各个参与者节点各自添加了干扰数据的明文数据的同态求平均处理结果。
在某些实施方式中,机器学习模型在权重初始化时设定的权重通常都较大,所以权重更新的过程通常使用汇聚后的梯度来更新权重,具体地,可用本轮当前的权重减去本轮该权重的汇聚梯度,得到更新后的权重,该更新后的权重用于下一轮训练。
对加密数据进行同态求平均处理的过程,以四个参与者节点为例,每个参与者节点生成对应的随机噪声,进而运算得到干扰数据,例如参与者节点B1对应的随机噪声为R1,参与者节点B2对应的随机噪声为R2,参与者节点B3对应的随机噪声为R3,参与者节点B4对应的随机噪声为R4,将某梯度值作为明文数据。
每个参与者节点基于预设规则对随机噪声运算后得到干扰数据,预设规则假设为将随机噪声乘以预设数据m得到干扰数据,将干扰数据加入明文数据中进行编码再加密,得到加密数据。
四个参与者节点所获得的某梯度值分别为0.16,0.45,0.15和0.34。参与者节点B1得到加密数据分别为[S(R1),S(0.16+mR1)],参与者节点B2得到加密数据分别为[S(R2),S(0.45+mR2)],参与者节点B3得到加密数据分别为 [S(R3),S(0.15+mR3)],参与者节点B4得到加密数据为[S(R4),S(0.34+mR4)]。
主节点接收到每个参与者节点发送的加密数据后,对加密数据进行同态求平均运算,得到密文汇聚数据为 [S(0.25(R1+R2+R3+R4)),S(0.25(0.16+0.45+0.15+0.34+mR1+mR2+mR3+mR4))]。
S40、参与者节点利用对称密钥对经过同态求平均处理后的数据进行解密,得到解密后数据。
参与者节点利用对称密钥将密文汇聚数据解密,得到第一密文数据的第一解密数据和第二密文数据的第二解密数据;第一解密数据中包括各个参与者节点的随机噪声执行同态求平均处理得到的噪声结果数据,第二解密结果包括对各个参与者节点添加了干扰数据的明文数据执行同态求平均处理得到的码文结果数据。
例如,仍以密文汇聚数据为 [S(0.25(R1+R2+R3+R4)),S(0.25(0.16+0.45+0.15+0.34+mR1+mR2+mR3+mR4))]为例,主节点将密文汇聚数据发送回各个参考节点,各个参考节点解密后得到码文数据为[0.25(R1+R2+R3+R4),0.25(1.1+mR1+mR2+mR3+mR4)]。
S50、参与者节点基于预设规则对解密后数据进行运算,并根据运算结果去除干扰数据,得到模型更新参数。
参与者节点利用预设规则对噪声结果数据进行运算,并根据运算结果去除码文结果数据中各个参与者节点添加的干扰数据,得到明文结果数据。
例如,利用预设规则,根据运算结果去除码文结果数据中的干扰数据,得到明文结果数据,即
0.25(1.1+mR1+mR2+mR3+mR4)-0.25m(R1+R2+R3+R4)=0.275,即该更新后的权重为0.275。
S60、参与者节点利用模型更新参数,更新机器学习模型。
解密接收到的数据,得到训练后的模型参数,对来自各参与者节点的训练后的模型参数进行参数汇聚操作,得到汇聚后的参数,利用汇聚后的参数更新机器学习模型。
参数可以包括梯度。参数汇聚操作可以为梯度汇聚操作。该过程并不需要了解各个参与者节点的信息;梯度汇聚的过程通常是将各参与者节点结算得到的梯度相加然后再求平均值的过程。
本申请的改进在于解决在需要联合训练机器学习模型的需求下,联邦学习的应用可以解决传输数据等繁琐步骤,并且也可以解决政府机构之间数据泄漏的担忧。各个节点之间完全不需要除自己节点之外的数据,就可以获取全域特征空间的机器学习训练结果。
在传统的机器学习建模中,通常是把机器学习模型训练需要的数据集合到一个数据中心然后再机器学习模型,然后进行预测。而在本申请实施例的横向联邦学习,是基于样本的分布式模型训练,分发全部数据到不同的机器,每台机器从服务器下载模型,然后利用本地数据机器学习模型,之后返回给服务器需要更新的参数;服务器汇聚各机器上的返回的参数,更新模型,再把最新的模型反馈到每台机器。
在这个过程中,每台机器下都是相同且完整的模型,且机器之间互相不交流、互不依赖,在预测时每台机器也可以独立预测,可以把这个过程看作成基于样本的分布式模型训练。
在某些实施方式中,机器学习模型可以采用梯度提升决策树模型。梯度提升决策树模型包括若干决策树。
在某些实施方式中,机器学习模型可以采用深度神经网络模型。
如图6所示,在某些实施方式中,以监管部门数据服务器和保险公司数据服务器作为参与者节点,以中心服务器作为主节点,监管部门数据服务器和中心服务器位于信赖域内,信赖域即可信赖的网络区域。在训练过程中,参数更新并不发生在保险公司数据服务器,而是保险公司数据服务器贡献梯度的变化,梯度汇集之后(平均梯度)传输到监管部门数据服务器,以监管部门端和保险公司的数据服务器都信赖的中心服务器作为主节点,由该中心服务器进行随机梯度下降的训练。每一轮训练后参数有所更新,再把相关参数同步到保险公司数据服务器,保险公司数据服务器进行计算,更新梯度。形成一个这个流程的循环操作,直到参数不在更新则意味着训练结束。
因为在训练的过程中可能存在大量的网络通信消耗,如果是保险公司数据服务器和监管部门数据服务器仅仅做一次梯度更新就进行参数更新的话,需要大量的通信。所以累积梯度可以有效较少网络通信消耗。具体步骤为在等待的过程中更新的梯度进行累加,这样传输给到训练服务器端就是多次累加更新的梯度,而不是依次。同样,在监管部门数据服务器也是这么操作。
在某具体实施方式中,在实际中应用联邦学习,在监管部门数据服务器与保险公司数据服务器上联合开发反欺诈模型。在监管部门数据服务器和保险公司数据服务器之间数据不互通,而在两者之间有专线做数据传输使用,这条专线仅有2M/s,并且与其它场景共同占用该专线。所以是一个传输慢,需要在各个节点上异步训练的流程。
在监管部门数据服务器与保险公司数据服务器合作场景下应用联邦学习。在首次机器学习模型的方法上做了以下几点的改进和创新。
采用累积梯度更新方法。在保险公司数据服务器的数据可以视为一个批梯度更新的数据集,在监管部门数据服务器的数据可以视为另外一个批梯度更新的数据集。在保险公司数据服务器上先进行训练,仅仅在保险公司业务上的参数。在固定的时间窗口内将参数以加密形式,通过HTTPS传输到监管部门数据服务器,监管部门数据服务器获得参数后在监管部门数据服务器的数据集上进行训练,在固定的时间窗口内再批量将参数传回到保险公司数据服务器。这个过程循环多轮,知道参数和损失不在更新位置认为是累积梯度更新方法结束。以上梯度更新方法都是通过加密传输的。
在保险公司数据服务器累积梯度计算的过程中,这个时候监管部门数据服务器是处于等待请求的状态。当监管部门数据服务器收到保险公司数据服务器累积梯度计算的结果时,会告知保险公司数据服务器现在监管部门数据服务器已经在累积梯度的计算过程中。保险公司数据服务器会暂定梯度更新直到监管部门数据服务器反馈其业务数据的累积梯度。
在最后更新完参数之后,会有一个一致性方法去检验最终的模型,保证保险公司数据服务器的模型和监管部门数据服务器的模型一致。每当模型进行变更时,都会以时间戳的方式去命名模型文件。
在某些实施方式中,在训练步骤中需要保证模型的唯一性,还要保证模型是最新的。利用时间戳更新可以在对比的时候选取最新的模型,方便在程序中用时间的规则来更新模型。时间戳构成的模型名的组成为年月日小时分_任务 Id+训练轮数+学习率.model。
等待到模型参数没有更新,模型文件名也相应的不变更。在一致性检验模型名不变更后便在监管部门数据服务器和保险公司数据服务器进行模型拷贝和复制。这样保证模型一致性。
在得到一个初始的模型之后,这个模型可以在监管部门数据服务器的对方接口被请求,也可以在保险公司数据服务器的接口被请求。
在现有技术中,黑客和数据窃取者倾向于在节点传输过程中窃取数据,这样给分布式机器学习造成了极大的不安全性。本申请实施例的技术方案中,横向联邦学习过程中,节点与节点之间的加密传输使得分布式机器学习系统安全性更高,大大降低了被攻击的可能性。
现有技术中,在不同机构之间进行分布式机器学习合作总会牵扯到数据传输、数据安全的问题。本申请实施例中横向联邦学习的架构中不需要各个机构之间互相进行数据传输,各个机构仍然能够保留自身数据的私密性。这样在合作时即解决了数据隐私泄漏问题。
本申请实施例的方法加强了数据隐私性,横向联邦学习侧重于对隐私的强调。在学习训练、预测的过程中,联邦学习保证全过程中数据是加密状态的,只有在结果阶段用户能够拿到结果对应的预测数据,用户只能看到加密的模型参数和加密的数据训练、数据处理过程。联邦学习地引入,使得数据窃取者即使破解了网络节点之间的通信过程,仍然不会造成数据泄漏。另外,本申请实施例的横向联邦学习方法不需要每个节点都存储全部的源数据,只需要存储自身的数据就可以了,因而克服了现有存储方式耗费大量的存储空间存储同样的数据导致存储空间的浪费的缺陷,大大节省了存储空间。
本申请实施例的横向联邦学习方法,参与者节点将训练机器学习模型得到的模型参数进行同态加密后发送给主节点,主节点对加密数据进行同态求平均处理后将处理后的数据发送给各参与者节点,参与者节点解密处理后的数据,基于预设规则处理解密后的数据得到模型更新参数,更新机器学习模型,参与者节点与主节点之间进行数据加密传输,主节点不对接收到的加密数据进行解密,在整个横向联邦学习过程中数据传输都是在加密状态下进行的,提高了数据传输过程中的安全性,避免了数据泄露问题。
如图7所示,在一个实施例中,提出了一种横向联邦学习装置,包括:
训练模块10,用于参与者节点从主节点上下载机器学习模型,利用本地数据对所述机器学习模型进行训练,得到训练后的模型参数;
加密模块20,用于所述参与者节点对所述训练后的模型参数进行同态加密,将加密数据发送给所述主节点;
计算模块30,用于所述主节点对所述加密数据进行同态求平均处理,把经过所述同态求平均处理的数据发送给各所述参与者节点;
解密模块40,用于所述参与者节点对所述经过同态求平均处理的数据进行解密,得到解密后数据;
运算模块50,用于所述参与者节点基于预设规则对所述解密后数据进行运算,并根据运算结果去除干扰数据,得到模型更新参数;
更新模块60,用于所述参与者节点利用所述模型更新参数更新所述机器学习模型。
在某些实施方式中,所述机器学习模型为梯度提升决策树模型,所述梯度提升决策树模型包括树节点,所述利用本地数据对该机器学习模型进行训练的步骤包括:
每个所述参与者节点分别获取所述树节点的节点训练特征集以及所述梯度提升决策树模型的特征矩阵的梯度数据;
每个所述参与者节点分别针对所述树节点,根据所述节点训练特征集和所述梯度数据确定出局部最佳分裂规则并发送给所述主节点。
在某些实施方式中,所述利用本地数据对该机器学习模型进行训练的步骤包括:
将所述机器学习模型转换为计算图;
将所述本地数据输入到计算图中进行训练操作;
将训练完成的计算图转换为训练完成的机器学习模型。
在某些实施方式中,对训练后的模型参数进行同态加密的步骤,包括:
所述参与者节点利用自身的随机噪声对需要进行加密的训练后的模型参数进行编码,得到编码数据;其中,所述编码数据中包括所述随机噪声以及添加了干扰数据的训练后的模型参数,所述干扰数据是基于预设规则对所述随机噪声进行运算后获得的。
在某些实施方式中,对训练后的模型参数进行同态加密的步骤,包括:
所述参与者节点利用自身的随机噪声对需要进行加密的训练后的模型参数进行编码,得到编码数据;其中,所述编码数据中包括所述随机噪声以及添加了干扰数据的训练后的模型参数,所述干扰数据是基于预设规则对所述随机噪声进行运算后获得的;
所述参与者节点利用对称密钥对所述编码数据进行加密,得到加密数据。
在某些实施方式中,所述干扰数据是基于预设规则对所述随机噪声进行运算后获得的,包括:
以各所述参与者节点共享的预设数据对所述随机噪声进行乘运算后获得所述干扰数据。
在某些实施方式中,利用自身的随机噪声对需要进行加密的训练后的模型参数进行编码,得到编码数据的步骤,包括:
当所述随机噪声的个数为一个时,将所述预设数据与所述随机噪声相乘得到干扰数据,利用所述干扰数据以及添加了所述干扰数据的训练后的模型参数组成编码数据;
当所述随机噪声的个数至少为两个时,将所述预设数据与至少两个所述随机噪声分别相乘,得到至少两个干扰数据;
将所述至少两个干扰数据作为第一数据部分;
在所述训练后的模型参数中添加所述第一数据部分,得到第二数据部分;
利用所述第一数据部分以及所述第二数据部分组成编码数据。
如图8所示,在一个实施例中,提出了一种计算机设备,所述计算机设备包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
所述参与者节点从所述主节点上下载机器学习模型,利用本地数据对所述机器学习模型进行训练,得到训练后的模型参数;
所述参与者节点对所述训练后的模型参数进行同态加密,将加密数据发送给所述主节点;
所述主节点对所述加密数据进行同态求平均处理,把经过所述同态求平均处理的数据发送给各所述参与者节点;
所述参与者节点对所述经过同态求平均处理的数据进行解密,得到解密后数据;
所述参与者节点基于预设规则对所述解密后数据进行运算,并根据运算结果去除干扰数据,得到模型更新参数;
所述参与者节点利用所述模型更新参数更新所述机器学习模型。
在一个实施例中,所述机器学习模型为梯度提升决策树模型,所述梯度提升决策树模型包括树节点,所述处理器执行所述计算机程序时所执行的利用本地数据对该机器学习模型进行训练包括:
每个所述参与者节点分别获取所述树节点的节点训练特征集以及所述梯度提升决策树模型的特征矩阵的梯度数据;
每个所述参与者节点分别针对所述树节点,根据所述节点训练特征集和所述梯度数据确定出局部最佳分裂规则并发送给所述主节点。
在一个实施例中,所述处理器执行所述计算机程序时所执行的利用本地数据对该机器学习模型进行训练包括:
将所述机器学习模型转换为计算图;
将所述本地数据输入到计算图中进行训练操作;
将训练完成的计算图转换为训练完成的机器学习模型。
在一个实施例中,所述处理器执行所述计算机程序时所执行的参与者节点对训练后的模型参数进行同态加密,包括:
所述参与者节点利用自身的随机噪声对需要进行加密的训练后的模型参数进行编码,得到编码数据;其中,所述编码数据中包括所述随机噪声以及添加了干扰数据的训练后的模型参数,所述干扰数据是基于预设规则对所述随机噪声进行运算后获得的。
在一个实施例中,所述处理器执行所述计算机程序时所执行的参与者节点对训练后的模型参数进行同态加密,包括:
所述参与者节点利用自身的随机噪声对需要进行加密的训练后的模型参数进行编码,得到编码数据;其中,所述编码数据中包括所述随机噪声以及添加了干扰数据的训练后的模型参数,所述干扰数据是基于预设规则对所述随机噪声进行运算后获得的;
所述参与者节点利用对称密钥对所述编码数据进行加密,得到加密数据。
所述干扰数据是基于预设规则对所述随机噪声进行运算后获得的,包括:
以各所述参与者节点共享的预设数据对所述随机噪声进行乘运算后获得所述干扰数据。
在一个实施例中,所述处理器执行所述计算机程序时所执行的所述参与者节点利用自身的随机噪声对需要进行加密的训练后的模型参数进行编码,得到编码数据,包括:
当所述随机噪声的个数为一个时,将所述预设数据与所述随机噪声相乘得到干扰数据,利用所述干扰数据以及添加了所述干扰数据的训练后的模型参数组成编码数据;
当所述随机噪声的个数至少为两个时,将所述预设数据与至少两个所述随机噪声分别相乘,得到至少两个干扰数据;
将所述至少两个干扰数据作为第一数据部分;
在所述训练后的模型参数中添加所述第一数据部分,得到第二数据部分;
利用所述第一数据部分以及所述第二数据部分组成编码数据。
在一个实施例中,提出了一种存储有计算机可读指令的存储介质,该计算机可读指令被一个或多个处理器执行时,使得一个或多个处理器执行以下步骤:
所述参与者节点从所述主节点上下载机器学习模型,利用本地数据对所述机器学习模型进行训练,得到训练后的模型参数;
所述参与者节点对所述训练后的模型参数进行同态加密,将加密数据发送给所述主节点;
所述主节点对所述加密数据进行同态求平均处理,把经过所述同态求平均处理的数据发送给各所述参与者节点;
所述参与者节点对所述经过同态求平均处理的数据进行解密,得到解密后数据;
所述参与者节点基于预设规则对所述解密后数据进行运算,并根据运算结果去除干扰数据,得到模型更新参数;
所述参与者节点利用所述模型更新参数更新所述机器学习模型。
在一个实施例中,所述机器学习模型为梯度提升决策树模型,所述梯度提升决策树模型包括树节点,所述一个或多个处理器所执行的利用本地数据对该机器学习模型进行训练包括:
每个所述参与者节点分别获取所述树节点的节点训练特征集以及所述梯度提升决策树模型的特征矩阵的梯度数据;
每个所述参与者节点分别针对所述树节点,根据所述节点训练特征集和所述梯度数据确定出局部最佳分裂规则并发送给所述主节点。
在一个实施例中,所述一个或多个处理器所执行的利用本地数据对该机器学习模型进行训练包括:
将所述机器学习模型转换为计算图;
将所述本地数据输入到计算图中进行训练操作;
将训练完成的计算图转换为训练完成的机器学习模型。
在一个实施例中,所述一个或多个处理器所执行的参与者节点对训练后的模型参数进行同态加密,包括:
所述参与者节点利用自身的随机噪声对需要进行加密的训练后的模型参数进行编码,得到编码数据;其中,所述编码数据中包括所述随机噪声以及添加了干扰数据的训练后的模型参数,所述干扰数据是基于预设规则对所述随机噪声进行运算后获得的。
在一个实施例中,所述一个或多个处理器所执行的参与者节点对训练后的模型参数进行同态加密,包括:
所述参与者节点利用自身的随机噪声对需要进行加密的训练后的模型参数进行编码,得到编码数据;其中,所述编码数据中包括所述随机噪声以及添加了干扰数据的训练后的模型参数,所述干扰数据是基于预设规则对所述随机噪声进行运算后获得的;
所述参与者节点利用对称密钥对所述编码数据进行加密,得到加密数据。
所述干扰数据是基于预设规则对所述随机噪声进行运算后获得的,包括:
以各所述参与者节点共享的预设数据对所述随机噪声进行乘运算后获得所述干扰数据。
在一个实施例中,所述一个或多个处理器所执行的所述参与者节点利用自身的随机噪声对需要进行加密的训练后的模型参数进行编码,得到编码数据,包括:
当所述随机噪声的个数为一个时,将所述预设数据与所述随机噪声相乘得到干扰数据,利用所述干扰数据以及添加了所述干扰数据的训练后的模型参数组成编码数据;
当所述随机噪声的个数至少为两个时,将所述预设数据与至少两个所述随机噪声分别相乘,得到至少两个干扰数据;
将所述至少两个干扰数据作为第一数据部分;
在所述训练后的模型参数中添加所述第一数据部分,得到第二数据部分;
利用所述第一数据部分以及所述第二数据部分组成编码数据。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,该计算机程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,前述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory, ROM)等非易失性存储介质,或随机存储记忆体(Random Access Memory,RAM) 等。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (9)
1.一种横向联邦学习方法,其特征在于,所述横向联邦学习方法基于横向联邦学习系统实现,所述横向联邦学习系统包括主节点以及与所述主节点相连接的至少两个参与者节点,包括:
所述参与者节点从所述主节点上下载机器学习模型,利用本地数据对所述机器学习模型进行训练,得到训练后的模型参数;
所述参与者节点对所述训练后的模型参数进行同态加密,将加密数据发送给所述主节点;
所述主节点对所述加密数据进行同态求平均处理,把经过同态求平均处理的数据发送给各所述参与者节点;
所述参与者节点对所述经过同态求平均处理的数据进行解密,得到解密后数据;
所述参与者节点基于预设规则对所述解密后数据进行运算,并根据运算结果去除干扰数据,得到模型更新参数;
所述参与者节点利用所述模型更新参数更新所述机器学习模型;
所述参与者节点对所述训练后的模型参数进行同态加密,包括:
所述参与者节点利用自身的随机噪声对需要进行加密的训练后的模型参数进行编码,得到编码数据;
所述参与者节点利用自身的随机噪声对需要进行加密的训练后的模型参数进行编码,得到编码数据,包括:
当所述随机噪声的个数为一个时,将预设数据与所述随机噪声相乘得到干扰数据,利用所述干扰数据以及添加了所述干扰数据的训练后的模型参数组成编码数据;当所述随机噪声的个数至少为两个时,将所述预设数据与至少两个所述随机噪声分别相乘,得到至少两个干扰数据;将所述至少两个干扰数据作为第一数据部分;在所述训练后的模型参数中添加所述第一数据部分,得到第二数据部分;利用所述第一数据部分以及所述第二数据部分组成编码数据。
2.如权利要求1所述的横向联邦学习方法,其特征在于,所述机器学习模型为梯度提升决策树模型,所述梯度提升决策树模型包括树节点,所述利用本地数据对所述机器学习模型进行训练包括:
每个所述参与者节点分别获取所述树节点的节点训练特征集以及所述梯度提升决策树模型的特征矩阵的梯度数据;
每个所述参与者节点分别针对所述树节点,根据所述节点训练特征集和所述梯度数据确定出局部最佳分裂规则并发送给所述主节点。
3.如权利要求1所述的横向联邦学习方法,其特征在于,所述利用本地数据对所述机器学习模型进行训练包括:
将所述机器学习模型转换为计算图;
将所述本地数据输入到所述计算图中进行训练操作;
将训练完成的计算图转换为训练完成的机器学习模型。
4.如权利要求1所述的横向联邦学习方法,其特征在于,所述编码数据中包括所述随机噪声以及添加了干扰数据的训练后的模型参数,所述干扰数据是基于预设规则对所述随机噪声进行运算后获得的。
5.如权利要求4所述的横向联邦学习方法,其特征在于,所述参与者节点对训练后的模型参数进行同态加密,还包括:
所述参与者节点利用对称密钥对所述编码数据进行加密,得到加密数据。
6.如权利要求5所述的横向联邦学习方法,其特征在于,所述干扰数据是基于预设规则对所述随机噪声进行运算后获得的,包括:
以各所述参与者节点共享的预设数据对所述随机噪声进行乘运算后获得所述干扰数据。
7.一种横向联邦学习装置,其特征在于,包括:
训练模块,用于参与者节点从主节点上下载机器学习模型,利用本地数据对所述机器学习模型进行训练,得到训练后的模型参数;
加密模块,用于所述参与者节点对所述训练后的模型参数进行同态加密,将加密数据发送给所述主节点;
计算模块,用于所述主节点对所述加密数据进行同态求平均处理,把经过所述同态求平均处理的数据发送给各所述参与者节点;
解密模块,用于所述参与者节点对所述经过同态求平均处理的数据进行解密,得到解密后数据;
运算模块,用于所述参与者节点基于预设规则对所述解密后数据进行运算,并根据运算结果去除干扰数据,得到模型更新参数;
更新模块,用于所述参与者节点利用所述模型更新参数更新所述机器学习模型;
所述加密模块,进一步用于所述参与者节点利用自身的随机噪声对需要进行加密的训练后的模型参数进行编码,得到编码数据;
所述加密模块,进一步用于当所述随机噪声的个数为一个时,将预设数据与所述随机噪声相乘得到干扰数据,利用所述干扰数据以及添加了所述干扰数据的训练后的模型参数组成编码数据;当所述随机噪声的个数至少为两个时,将所述预设数据与至少两个所述随机噪声分别相乘,得到至少两个干扰数据;将所述至少两个干扰数据作为第一数据部分;在所述训练后的模型参数中添加所述第一数据部分,得到第二数据部分;利用所述第一数据部分以及所述第二数据部分组成编码数据。
8.一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述计算机可读指令被所述处理器执行时,使得所述处理器执行如权利要求1至6中任一项权利要求所述横向联邦学习方法的步骤。
9.一种存储有计算机可读指令的存储介质,所述计算机可读指令被一个或多个处理器执行时,使得一个或多个处理器执行如权利要求1至6中任一项权利要求所述横向联邦学习方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110593362.6A CN113515760B (zh) | 2021-05-28 | 2021-05-28 | 横向联邦学习方法、装置、计算机设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110593362.6A CN113515760B (zh) | 2021-05-28 | 2021-05-28 | 横向联邦学习方法、装置、计算机设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113515760A CN113515760A (zh) | 2021-10-19 |
CN113515760B true CN113515760B (zh) | 2024-03-15 |
Family
ID=78065191
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110593362.6A Active CN113515760B (zh) | 2021-05-28 | 2021-05-28 | 横向联邦学习方法、装置、计算机设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113515760B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113935469B (zh) * | 2021-10-26 | 2022-06-24 | 城云科技(中国)有限公司 | 基于去中心化联邦学习的模型训练方法 |
CN114282691A (zh) * | 2021-10-27 | 2022-04-05 | 腾讯科技(深圳)有限公司 | 一种联邦学习方法、装置、设备、存储介质及计算机程序 |
CN113836587B (zh) * | 2021-11-29 | 2022-02-22 | 南京可信区块链与算法经济研究院有限公司 | 一种保护数据隐私的金融机构联合风控方法及系统 |
CN114386533B (zh) * | 2022-01-28 | 2022-09-16 | 华控清交信息科技(北京)有限公司 | 一种gbdt模型的横向训练方法、装置、电子设备及系统 |
CN114118641B (zh) * | 2022-01-29 | 2022-04-19 | 华控清交信息科技(北京)有限公司 | 风电场功率预测方法、gbdt模型纵向训练方法及装置 |
CN114444106B (zh) * | 2022-02-07 | 2023-03-17 | 百度在线网络技术(北京)有限公司 | 相关系数获取方法、装置、电子设备和存储介质 |
CN114548429B (zh) * | 2022-04-27 | 2022-08-12 | 蓝象智联(杭州)科技有限公司 | 一种安全高效的横向联邦神经网络模型训练方法 |
WO2024069871A1 (ja) * | 2022-09-29 | 2024-04-04 | 日本電気株式会社 | 評価システム、情報処理システム、評価方法、及び記録媒体 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110263936A (zh) * | 2019-06-14 | 2019-09-20 | 深圳前海微众银行股份有限公司 | 横向联邦学习方法、装置、设备及计算机存储介质 |
CN110263908A (zh) * | 2019-06-20 | 2019-09-20 | 深圳前海微众银行股份有限公司 | 联邦学习模型训练方法、设备、系统及存储介质 |
CN110728376A (zh) * | 2019-10-21 | 2020-01-24 | 深圳前海微众银行股份有限公司 | 一种基于树状拓扑结构的联邦学习方法及装置 |
CN111355739A (zh) * | 2020-03-06 | 2020-06-30 | 深圳前海微众银行股份有限公司 | 横向联邦学习的数据传输方法、装置、终端设备及介质 |
CN112199702A (zh) * | 2020-10-16 | 2021-01-08 | 鹏城实验室 | 一种基于联邦学习的隐私保护方法、存储介质及系统 |
CN112232527A (zh) * | 2020-09-21 | 2021-01-15 | 北京邮电大学 | 安全的分布式联邦深度学习方法 |
-
2021
- 2021-05-28 CN CN202110593362.6A patent/CN113515760B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110263936A (zh) * | 2019-06-14 | 2019-09-20 | 深圳前海微众银行股份有限公司 | 横向联邦学习方法、装置、设备及计算机存储介质 |
CN110263908A (zh) * | 2019-06-20 | 2019-09-20 | 深圳前海微众银行股份有限公司 | 联邦学习模型训练方法、设备、系统及存储介质 |
CN110728376A (zh) * | 2019-10-21 | 2020-01-24 | 深圳前海微众银行股份有限公司 | 一种基于树状拓扑结构的联邦学习方法及装置 |
CN111355739A (zh) * | 2020-03-06 | 2020-06-30 | 深圳前海微众银行股份有限公司 | 横向联邦学习的数据传输方法、装置、终端设备及介质 |
CN112232527A (zh) * | 2020-09-21 | 2021-01-15 | 北京邮电大学 | 安全的分布式联邦深度学习方法 |
CN112199702A (zh) * | 2020-10-16 | 2021-01-08 | 鹏城实验室 | 一种基于联邦学习的隐私保护方法、存储介质及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN113515760A (zh) | 2021-10-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113515760B (zh) | 横向联邦学习方法、装置、计算机设备和存储介质 | |
CN110380844B (zh) | 一种量子密钥分发方法、设备及存储介质 | |
CN112714106B (zh) | 一种基于区块链的联邦学习搭便车攻击防御方法 | |
CN111553483A (zh) | 基于梯度压缩的联邦学习的方法、装置及系统 | |
CN109698822A (zh) | 基于公有区块链和加密神经网络的联合学习方法及系统 | |
CN114254386B (zh) | 基于层次聚合和区块链的联邦学习隐私保护系统及方法 | |
DE112019001441T5 (de) | Vergessliche pseudozufallsfunktion in einem schlüsselverwaltungssystem | |
CN105103487A (zh) | 用于基于矩阵分解的到评级贡献用户的隐私保护推荐的方法和系统 | |
CN112347500B (zh) | 分布式系统的机器学习方法、装置、系统、设备及存储介质 | |
CN111163036B (zh) | 一种数据共享方法、装置、客户端、存储介质及系统 | |
CN110611662B (zh) | 一种基于属性基加密的雾协同云数据共享方法 | |
Murugesan et al. | Analysis on homomorphic technique for data security in fog computing | |
CN110933093A (zh) | 一种基于差分隐私保护技术的区块链数据共享平台及方法 | |
Wu et al. | Towards efficient secure aggregation for model update in federated learning | |
CN115765965A (zh) | 基于联邦学习和双联盟区块链的医疗数据安全共享方法 | |
CN106326666A (zh) | 一种健康档案信息管理服务系统 | |
CN111143862A (zh) | 数据处理方法、查询方法、装置、电子设备和系统 | |
CN113792890B (zh) | 一种基于联邦学习的模型训练方法及相关设备 | |
CN114760023A (zh) | 基于联邦学习的模型训练方法、装置及存储介质 | |
CN117034287A (zh) | 基于隐私计算互联互通技术的多方联合建模安全增强方法 | |
CN111277406A (zh) | 一种基于区块链的安全两方向量优势比较方法 | |
US20220164712A1 (en) | Systems and methods for federated learning using distributed messaging with entitlements for anonymous computation and secure delivery of model | |
CN116340986A (zh) | 一种基于区块链的抗联邦学习梯度攻击的隐私保护方法及系统 | |
Guo et al. | B 2 sfl: A bi-level blockchained architecture for secure federated learning-based traffic prediction | |
Bose et al. | A Fully Decentralized Homomorphic Federated Learning Framework |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |