CN113221183B - 实现隐私保护的多方协同更新模型的方法、装置及系统 - Google Patents
实现隐私保护的多方协同更新模型的方法、装置及系统 Download PDFInfo
- Publication number
- CN113221183B CN113221183B CN202110657041.8A CN202110657041A CN113221183B CN 113221183 B CN113221183 B CN 113221183B CN 202110657041 A CN202110657041 A CN 202110657041A CN 113221183 B CN113221183 B CN 113221183B
- Authority
- CN
- China
- Prior art keywords
- participant
- gradient vector
- current
- server
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 56
- 239000013598 vector Substances 0.000 claims abstract description 171
- 230000002776 aggregation Effects 0.000 claims abstract description 39
- 238000004220 aggregation Methods 0.000 claims abstract description 39
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 22
- 238000012545 processing Methods 0.000 claims abstract description 22
- 230000006870 function Effects 0.000 claims description 33
- 230000000875 corresponding effect Effects 0.000 claims description 27
- 230000035945 sensitivity Effects 0.000 claims description 15
- 230000001186 cumulative effect Effects 0.000 claims description 14
- 238000005315 distribution function Methods 0.000 claims description 14
- 230000004931 aggregating effect Effects 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 6
- 238000006116 polymerization reaction Methods 0.000 claims description 6
- 230000002596 correlated effect Effects 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims description 3
- 238000004891 communication Methods 0.000 description 14
- 230000003993 interaction Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000003094 perturbing effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6218—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
- G06F21/6245—Protecting personal data, e.g. for financial or medical purposes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/098—Distributed learning, e.g. federated learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Bioethics (AREA)
- Medical Informatics (AREA)
- Computer Security & Cryptography (AREA)
- Databases & Information Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本说明书实施例提供一种实现隐私保护的多方协同更新模型的方法及装置,在协同更新模型的方法中,每个参与方i根据本地样本集以及当前模型参数,确定对应的局部梯度向量,并利用满足差分隐私的随机化算法,对局部梯度向量中的各元素进行随机二值化处理,得到扰动梯度向量。每个参与方i将各自确定的扰动梯度向量发送给服务器。服务器聚合n份扰动梯度向量,并根据当前聚合结果中各元素的正负号,对各元素进行二值化表示,得到目标梯度向量。每个参与方i从服务器接收目标梯度向量,并根据目标梯度向量更新当前模型参数,以用于下一轮迭代。在多轮迭代后,每个参与方i将其得到的当前模型参数,作为其与其它参与方协同更新的业务预测模型。
Description
技术领域
本说明书一个或多个实施例涉及计算机技术领域,尤其涉及一种实现隐私保护的多方协同更新模型的方法、装置及系统。
背景技术
联邦学习(也称联合学习)的出现革新了传统的集中式机器学习,使得参与方在不需要上传本地数据的情况下,就可以协同构建更精确的模型。
目前,联邦学习往往是通过在各参与方之间共享模型参数或梯度来实现,然而由于模型参数或梯度通常为高维度的隐私数据,因此传统的联邦学习一定程度的伴随着通信开销大、隐私泄露等问题。
发明内容
本说明书一个或多个实施例描述了一种实现隐私保护的多方协同更新模型的方法、装置及系统,可有效降低多方协同建模引起的通信资源消耗,同时起到隐私保护作用。
第一方面,提供了一种实现隐私保护的多方协同更新模型的方法,包括:
每个参与方i根据本地样本集以及当前模型参数,确定对应的局部梯度向量;
每个参与方i利用满足差分隐私的随机化算法,对所述局部梯度向量中的各元素进行随机二值化处理,得到扰动梯度向量;
每个参与方i将各自确定的扰动梯度向量发送给所述服务器;
所述服务器聚合所述n个参与方发送的n份扰动梯度向量,并根据当前聚合结果中各元素的正负号,对各元素进行二值化表示,得到目标梯度向量;
每个参与方i从所述服务器接收所述目标梯度向量,并根据所述目标梯度向量更新当前模型参数,以用于下一轮迭代;
在所述多轮迭代后,每个参与方i将其得到的当前模型参数,作为其与其它参与方协同更新的业务预测模型。
第二方面,提供了一种实现隐私保护的多方协同更新模型的方法,包括:
根据本地样本集以及当前模型参数,确定对应的局部梯度向量;
利用满足差分隐私的随机化算法,对所述局部梯度向量中的各元素进行随机二值化处理,得到扰动梯度向量;
将所述扰动梯度向量发送给所述服务器;
从所述服务器接收目标梯度向量;其中,所述目标梯度向量,是所述服务器在聚合所述n个参与方发送的n份扰动梯度向量后,再根据当前聚合结果中各元素的正负号,对各元素进行二值化表示得到;
根据所述目标梯度向量更新当前模型参数,以用于下一轮迭代;
在所述多轮迭代后,将其得到的当前模型参数,作为其与其它参与方协同更新的业务预测模型。
第三方面,提供了一种实现隐私保护的多方协同更新模型的系统,包括:
每个参与方i,用于根据本地样本集以及当前模型参数,确定对应的局部梯度向量;
每个参与方i,还用于利用满足差分隐私的随机化算法,对所述局部梯度向量中的各元素进行随机二值化处理,得到扰动梯度向量;
每个参与方i,还用于将各自确定的扰动梯度向量发送给所述服务器;
所述服务器,用于聚合所述n个参与方发送的n份扰动梯度向量,并根据当前聚合结果中各元素的正负号,对各元素进行二值化表示,得到目标梯度向量;
每个参与方i,还用于从所述服务器接收所述目标梯度向量,并根据所述目标梯度向量更新当前模型参数,以用于下一轮迭代;
每个参与方i,还用于在所述多轮迭代后,将其得到的当前模型参数,作为其与其它参与方协同更新的业务预测模型。
第四方面,提供了一种实现隐私保护的多方协同更新模型的装置,包括:
确定单元,用于根据本地样本集以及当前模型参数,确定对应的局部梯度向量;
处理单元,用于利用满足差分隐私的随机化算法,对所述局部梯度向量中的各元素进行随机二值化处理,得到扰动梯度向量;
发送单元,用于将所述扰动梯度向量发送给所述服务器;
接收单元,用于从所述服务器接收目标梯度向量;其中,所述目标梯度向量,是所述服务器在聚合所述n个参与方发送的n份扰动梯度向量后,再根据当前聚合结果中各元素的正负号,对各元素进行二值化表示得到;
更新单元,用于根据所述目标梯度向量更新当前模型参数,以用于下一轮迭代;
所述确定单元,还用于在所述多轮迭代后,将其得到的当前模型参数,作为其与其它参与方协同更新的业务预测模型。
第五方面,提供了一种计算机存储介质,其上存储有计算机程序,当所述计算机程序在计算机中执行时,令计算机执行第一方面或第二方面的方法。
第六方面,提供了一种计算设备,包括存储器和处理器,所述存储器中存储有可执行代码,所述处理器执行所述可执行代码时,实现第一方面或第二方面的方法。
本说明书一个或多个实施例提供的实现隐私保护的多方协同更新模型的方法、装置及系统,各参与方只向服务器发送扰动梯度向量,由于该扰动梯度向量是利用满足差分隐私的随机化算法,对原始的局部梯度向量进行扰动得到,从而本方案可以平衡各参与方数据的有效性和隐私保护。此外,服务器只向各参与方下发当前聚合结果中各元素的二值化表示,可解决传统技术中需要向各参与方下发高维的模型参数或梯度而占用通信资源的问题。
附图说明
为了更清楚地说明本说明书实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1为基于集中式差分隐私的联邦学习示意图;
图2为基于本地差分隐私的联邦学习示意图;
图3为本说明书提供的一个实施例的实施场景示意图;
图4为本说明书一个实施例提供的实现隐私保护的多方协同更新模型的方法交互图;
图5为本说明书一个实施例提供的实现隐私保护的多方协同更新模型的系统示意图;
图6为本说明书一个实施例提供的实现隐私保护的多方协同更新模型的装置示意图。
具体实施方式
下面结合附图,对本说明书提供的方案进行描述。
如前所述,传统的联邦学习通过在各参与方之间共享模型参数或梯度来实现。其中,主流的方案主要分为两种:第一种,基于集中式差分隐私(Central DifferentialPrivacy,CDP)的联邦学习;第二种,基于本地差分隐私(Local Differential Privacy,LDP)的联邦学习。以下结合附图对该两种方法进行说明。
图1为基于集中式差分隐私的联邦学习示意图。图1中,首先,各参与方向可信的第三方服务器(以下简称服务器)上传各自的模型梯度:Δw1、Δw2、…、Δwn。之后,服务器聚合各参与方上传的模型梯度:aggregate(Δw1+Δw2+…+Δwn),并在聚合的模型梯度中通过差分隐私机制M添加噪声:M(aggregate(…)),最后,服务器将添加噪声后的模型梯度w’下发给各参与方,以供各参与方基于其更新各自本地的模型。然而,由于目前受信任的第三方在实际场景中很少见,而且容易遭受窃听者的攻击,因此,该方法的适用性较差。此外,由于模型梯度的维数通常较高,因此服务器与各参与方之间交互梯度会造成较大的通信开销。
图2为基于本地差分隐私的联邦学习示意图。图2中,各参与方在上传之前,先在各自的模型梯度上通过差分隐私机制M执行本地差分隐私,之后将经过本地差分隐私的模型梯度(M(Δw1)、M(Δw2)、…、M(Δwn))上传至服务器。最后,服务器聚合各参与方的经过本地差分隐私的模型梯度:aggregate(M(Δw1)+M(Δw2)+…+M(Δwn)),并将聚合的模型梯度w’下发至各参与方,以供各参与方基于其更新各自本地的模型。在该方案中,同样会造成较大的通信开销。
可见,上述两种联邦学习均会造成较大的通信开销。基于此,本申请提出了一种实现隐私保护的多方协同构建模型的方法,服务器与各参与方需要进行两次交互,其中一次交互是,各参与方向服务器上传各自通过对对应的局部梯度向量进行扰动而得到的扰动梯度向量,以实现对各参与方各自的局部梯度向量进行本地差分隐私(Local DifferentialPrivacy,LDP)处理。另一次交互是,服务器向各参与方下发n份扰动梯度向量的聚合结果中各元素的二值化表示。其中的扰动梯度向量和各元素的二值化表示的数据量,远远小于高精度的真实的模型梯度,从而本申请的方案可以有效降低多方协同建模引起的通信资源消耗。
图3为本说明书提供的一个实施例的实施场景示意图。图3中,多方协同更新模型的场景涉及服务器和n个参与方,n为正整数。其中,各参与方可以实现为任何具有计算、处理能力的设备、平台、服务器或设备集群。在一个具体例子中,各参与方可以为具有不同规模样本集的机构。需要说明,服务器和各参与方要在保护数据隐私的情况下,协同更新各参与方各自本地的模型。这里的模型可以是用于执行针对业务对象的预测任务的业务预测模型。其中的业务对象例如可以为图片、音频或文本等。
图3中,各参与方各自在本地维护有相同的当前模型参数w[t],并拥有各自不同的本地样本集Di。具体地,本申请的方法包括多轮迭代,其中在第t轮迭代中,每个参与方i根据本地样本集Di以及当前模型参数w[t],确定对应的局部梯度向量gi,并利用满足差分隐私的随机化算法,对局部梯度向量gi中的各元素进行随机二值化处理,得到扰动梯度向量g’i。之后,每个参与方i将各自确定的扰动梯度向量g’i发送给服务器。服务器聚合n个参与方发送的n份扰动梯度向量,并根据当前聚合结果中各元素的正负号,对各元素进行二值化表示,得到目标梯度向量G。每个参与方i从服务器接收目标梯度向量G,并根据目标梯度向量更新当前模型参数w[t],得到w[t+1]以用于下一轮迭代。
在多轮迭代后,每个参与方i将其得到的当前模型参数,作为其与其它参与方协同更新的业务预测模型。
以下以图3示出的实施场景为例,对本说明书提供的实现隐私保护的多方协同更新模型的方法进行说明。
图4为本说明书一个实施例提供的实现隐私保护的多方协同更新模型的方法交互图。需要说明,该方法涉及多轮迭代,图4中示出其中第t(t为正整数)轮迭代包括的交互步骤,并且,因参与第t轮迭代的各个参与方与服务器的交互过程相近,所以图4中主要示出参与该第t轮迭代的任意一个参与方(为便于描述,称作第一参与方)与服务器的交互步骤,参与该轮迭代的其它参与方与服务器的交互步骤,可以参见该第一参与方与服务器的交互步骤。可以理解,通过重复执行其中示出的交互步骤,可以实现对各参与方各自维护的模型的多轮迭代更新,进而将最后一轮迭代更新得到的模型,作为各自最终使用的模型。如图4所示,该方法可以包括如下步骤:
步骤402,每个参与方i根据本地样本集以及当前模型参数,确定对应的局部梯度向量。
以任一参与方为例来说,其维护的本地样本集中的样本可以包括以下中的任一种:图片、文本以及音频等。
此外,上述当前模型参数可以为神经网络模型的模型参数。
需要说明,当第t轮迭代为首轮迭代时,上述当前模型参数可以是由服务器在多轮迭代开始之前,对神经网络模型进行初始化,然后将初始化的模型参数下发或提供给各参与方,从而各参与方可以将上述初始化的模型参数作为其当前模型参数。当然,在实际应用中,也可以是由各参与方先约定好模型的结构(例如采用何种模型,模型的层数,每层的神经元的数目等等),之后再进行相同的初始化,以得到各自的当前模型参数。
当第t轮迭代为非首轮迭代时,上述当前模型参数可以是在第t-1轮迭代中更新得到。
对于局部梯度向量的确定可参考现有技术。举例来说,可以先根据本地样本集以及当前模型参数,确定预测结果,再根据预测结果以及样本标签,确定预测损失。最后,再根据预测损失,并利用反向传播法,确定当前模型参数对应的局部梯度向量。
步骤404,每个参与方i利用满足差分隐私的随机化算法,对局部梯度向量中的各元素进行随机二值化处理,得到扰动梯度向量。
上述步骤404的随机二值化处理过程,旨在基于差分隐私的要求,将局部梯度向量中各元素的值随机地转换为-1或1。该随机化算法具体可以采用多种方式实现。在多个实施例中,对于任意一个特定的元素,其对应的值越大,转换为1的概率越大;其对应的值越小,转换为-1的概率越大。
也就是说,本说明书实施例所述的扰动梯度向量,只是用于反映局部梯度向量总体特性的低精度向量(只包括-1和1),其在传输过程中所占用的通信资源远远小于高精度的局部梯度向量。
具体地,任取局部梯度向量中的元素i,简单起见称为第一元素。上述步骤404中针对第一元素的随机二值化处理过程包括,以第一概率(Pr)将第一元素的值转换为1,以第二概率(1-Pr)将其转换为-1,并且第一概率与第一元素的值的大小正相关。
在一个示例中,上述第一概率的确定方法可以包括:在第一元素的值上添加噪声值。根据添加噪声值后的第一元素的值,利用高斯分布的累积分布函数,确定第一概率。
在一个例子中,上述随机二值化处理过程可以表示为:
其中,t表示第t轮迭代,i表示参与方i,1≤i≤n,j表示第j个向量元素。表示参与方i的第t轮局部梯度向量中的第j个元素,Z表示噪声值。表示参与方i的第t轮扰动梯度向量中的第j个元素。Φ()为高斯分布的累计分布函数。
需要说明,本说明书实施例的噪声值可以是从期望值为0、方差为σ2的高斯分布中随机采样得到。
在一个实施例中,σ至少根据局部梯度向量的全局敏感度与两个差分隐私参数的比例的乘积确定。其中的全局敏感度可以是指与本地样本集的数据分布以及复杂度等相关的参数,上述两个差分隐私参数分别为(ε,δ)-差分隐私算法的隐私预算ε和松弛项δ(即暴露真实隐私数据的概率)。
在一个例子中,σ的计算公式具体可以表示为:
其中,σ表示高斯分布的标准差,Δ表示局部梯度向量的全局敏感度,ε和δ分别表示(ε,δ)-差分隐私算法的两个隐私参数。具体地,ε的取值范围可以大于等于0,δ的取值范围可以为[0,1]。
在另一个实施例中,σ可以根据如下约束条件来设定:利用累积分布函数针对至少基于σ确定的函数最大边界值计算的第三概率,与利用累积分布函数针对至少基于σ确定的函数最小边界值计算的第四概率相接近。
其中,函数最大边界值可以是根据全局敏感度与σ确定的第一比例,与根据隐私预算ε和σ的乘积与全局敏感度确定的第二比例的差值。函数最小边界值可以是第一比例的相反数与第二比例的差值。
在一个具体例子中,上述约束条件可以表示为:
其中,σ表示高斯分布的标准差,Δ表示局部梯度向量的全局敏感度,ε和δ分别表示(ε,δ)-差分隐私算法的两个隐私参数(即隐私预算ε和松弛项δ),Φ()为高斯分布的累计分布函数。
需要说明,公式3中的隐私预算ε越小,意味着针对函数最大边界值计算得到的概率,接近于针对函数最小边界值计算得到的概率,从而隐私保护程度越高。
应理解,在其它例子中,还可以采用其它形式的第一比例和第二比例,进而得到其它形式的约束条件,只需要从基于该约束条件下的σ所限定的高斯分布中采样的噪声值满足差分隐私的要求即可。
步骤406,每个参与方i将各自确定的扰动梯度向量发送给服务器。
需要说明,由于每个参与方i对应的扰动梯度向量,通过利用满足差分隐私的随机化算法得到,从而其既可以实现对各参与方数据的隐私保护,又可以保证一定的可用性。此外,由于扰动梯度向量是用于反映局部梯度向量总体特性的低精度向量,从而可以大大节约通信资源。
步骤408,服务器聚合n个参与方发送的n份扰动梯度向量,并根据当前聚合结果中各元素的正负号,对各元素进行二值化表示,得到目标梯度向量。
比如,服务器可以对n个参与方发送的n份扰动梯度向量进行求平均或者求加权平均,得到当前聚合结果。
关于上述二值化表示的过程,在一个示例中,可以利用符号函数,直接基于当前聚合结果中各元素的正负号,对各元素进行二值化表示,得到目标梯度向量。由于这里的目标梯度向量可以是用于反映当前聚合结果总体特性的低精度向量(只包括-1和1),其在传输过程中所占用的通信资源通常也比较少。
在一个例子中,该二值化表示的过程具体可以表示为如下:
在另一个示例中,也可以先在当前聚合结果上叠加当前误差补偿向量,得到叠加结果,再利用符号函数,基于叠加结果中各元素的正负号,对各元素进行二值化表示。
其中,上述当前误差补偿向量,通过在前一轮误差补偿向量上,叠加前一轮聚合结果与前一轮聚合结果对应的二值化表示结果(即前一轮目标梯度向量)之间的差值得到。
在一个例子中,该二值化表示的过程具体可以表示如下:
其中,t和t-1分别表示第t轮和第t-1轮迭代,n表示参数方的数目,e(t-1)表示第t-1轮误差补偿向量,表示第t-1轮聚合结果,G(t-1)表示第t-1轮聚合结果对应的二值化表示结果(即第t-1轮目标梯度向量),e(t)表示第t轮误差补偿向量,λ表示误差衰减率。
在该示例中,通过在当前聚合结果上叠加当前误差补偿向量,可以对当前聚合结果进行误差补偿,从而提高二值化表示结果的准确性,进而可以提升所构建的业务预测模型的精度。
步骤410,每个参与方i从服务器接收目标梯度向量,并根据目标梯度向量更新当前模型参数,以用于下一轮迭代。
比如,可以将当前模型参数减去目标梯度向量与学习步长之间的乘积,得到更新后的当前模型参数。
需要说明,在本说明书实施例中,步骤402-步骤410是重复多次执行的,由此可以实现对各参与方各自维护的当前模型参数的多轮迭代更新。且每次迭代所使用的当前模型参数是上一轮更新后的模型参数。该迭代的终止条件可以为迭代次数达到预定轮次或者模型参数收敛。
在多轮迭代后,每个参与方i将其得到的当前模型参数,作为其与其它参与方协同更新的业务预测模型。
以任意的参与方i为例来说,在其本地样本集中的样本为图片的情况下,那么其与其它参与方协同更新的业务预测模型可以为图片识别模型。在其本地样本集中的样本为音频的情况下,那么其与其它参与方协同更新的业务预测模型可以为音频识别模型。在其本地样本集中的样本为文本的情况下,那么其与其它参与方协同更新的业务预测模型可以为文本识别模型等等。
综合以上,本说明书实施例中,各参与方只向服务器发送扰动梯度向量,由于该扰动梯度向量是利用满足差分隐私的随机化算法,对原始的局部梯度向量进行扰动得到,从而本方案可以平衡各参与方数据的有效性和隐私保护。另外,服务器只向各参与方下发当前聚合结果中各元素的二值化表示。由于上述扰动梯度向量和二值化表示结果的数据量,远远小于高精度的真实的模型梯度,从而本申请的方案可以有效降低多方协同建模引起的通信资源消耗。
与上述实现隐私保护的多方协同更新模型的方法对应地,本说明书一个实施例还提供的一种实现隐私保护的多方协同更新模型的系统,如图5所示,该系统包括:服务器502和n个参与方504。
每个参与方504,用于根据本地样本集以及当前模型参数,确定对应的局部梯度向量。
每个参与方504,还用于利用满足差分隐私的随机化算法,对局部梯度向量中的各元素进行随机二值化处理,得到扰动梯度向量。
其中,上述局部梯度向量包括第一元素;每个参与方504具体用于:
根据第一元素的值确定第一概率,该第一概率与第一元素的值大小正相关;
以第一概率将第一元素的值转换为1,以第二概率将第一元素的值转换为-1,其中,第一概率和第二概率之和为1。
其中,每个参与方504还具体用于:
在第一元素的值上添加噪声值;
根据添加噪声值后的第一元素的值,利用高斯分布的累积分布函数,确定第一概率。
在一个例子中,上述噪声值可以是从期望值为0、方差为σ2的高斯分布中随机采样得到,这里的σ至少根据全局敏感度与两个差分隐私参数的比例的乘积确定。这里的两个差分隐私参数为隐私预算ε和松弛项δ。
在另一个例子中,上述噪声值是从期望值为0、方差为σ2的高斯分布中随机采样得到,这里的σ满足如下约束条件:
利用累积分布函数针对至少基于σ确定的函数最大边界值计算的第三概率,与利用所述累积分布函数针对至少基于σ确定的函数最小边界值计算的第四概率相接近。
其中,上述函数最大边界值是根据全局敏感度与σ确定的第一比例,与根据隐私预算ε和所述σ的乘积与全局敏感度确定的第二比例的差值;上述函数最小边界值是上述第一比例的相反数与第二比例的差值。
每个参与方504,还用于将各自确定的扰动梯度向量发送给服务器。
服务器502,用于聚合n个参与方发送的n份扰动梯度向量,并根据当前聚合结果中各元素的正负号,对各元素进行二值化表示,得到目标梯度向量。
在一个示例中,服务器502具体用于:
利用符号函数,基于当前聚合结果中各元素的正负号,对各元素进行二值化表示。
在另一个示例中,服务器502还具体用于:
在当前聚合结果上叠加当前误差补偿向量,得到叠加结果;
利用符号函数,基于叠加结果中各元素的正负号,对各元素进行二值化表示;
其中,上述当前误差补偿向量,通过在前一轮误差补偿向量上,叠加前一轮聚合结果与前一轮聚合结果对应的二值化表示结果之间的差值得到。
每个参与方504,还用于从服务器502接收目标梯度向量,并根据目标梯度向量更新当前模型参数,以用于下一轮迭代。
每个参与方504,还用于在多轮迭代后,将其得到的当前模型参数,作为其与其它参与方协同更新的业务预测模型。
其中,任意的参与方i本地样本集中的样本为图片,其与其它参与方协同更新的业务预测模型为图片识别模型;或者,
任意的参与方i本地样本集中的样本为音频,其与其它参与方协同更新的业务预测模型为音频识别模型;或者,
任意的参与方i本地样本集中的样本为文本,其与其它参与方协同更新的业务预测模型为文本识别模型。
说明书上述实施例系统的各功能模块的功能,可以通过上述方法实施例的各步骤来实现,因此,本说明书一个实施例提供的系统的具体工作过程,在此不复赘述。
本说明书一个实施例提供的实现隐私保护的多方协同更新模型的系统,可有效降低多方协同建模引起的通信资源消耗,同时起到隐私保护作用。
与上述实现隐私保护的多方协同更新模型的方法对应地,本说明书一个实施例还提供的一种实现隐私保护的多方协同更新模型的装置。这里的多方包括服务器和n个参与方。该装置设置于n个参与方中任意的参与方i,用于执行多轮迭代。如图6所示,该装置通过其包括的以下单元执行其中任意的第t轮迭代:
确定单元602,用于根据本地样本集以及当前模型参数,确定对应的局部梯度向量。
处理单元604,用于利用满足差分隐私的随机化算法,对局部梯度向量中的各元素进行随机二值化处理,得到扰动梯度向量。
发送单元606,用于将扰动梯度向量发送给服务器。
接收单元608,用于从服务器接收目标梯度向量,其中,该目标梯度向量,是服务器在聚合n个参与方发送的n份扰动梯度向量后,再根据当前聚合结果中各元素的正负号,对各元素进行二值化表示得到。
更新单元610,用于根据目标梯度向量更新当前模型参数,以用于下一轮迭代。
确定单元602,还用于在所述多轮迭代后,将其得到的当前模型参数,作为其与其它参与方协同更新的业务预测模型。
本说明书上述实施例装置的各功能模块的功能,可以通过上述方法实施例的各步骤来实现,因此,本说明书一个实施例提供的装置的具体工作过程,在此不复赘述。
本说明书一个实施例提供的实现隐私保护的多方协同更新模型的装置,可有效降低多方协同建模引起的通信资源消耗,同时起到隐私保护作用。
根据另一方面的实施例,还提供一种计算机可读存储介质,其上存储有计算机程序,当所述计算机程序在计算机中执行时,令计算机执行结合图4所描述的方法。
根据再一方面的实施例,还提供一种计算设备,包括存储器和处理器,所述存储器中存储有可执行代码,所述处理器执行所述可执行代码时,实现结合图4所述的方法。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
结合本说明书公开内容所描述的方法或者算法的步骤可以硬件的方式来实现,也可以是由处理器执行软件指令的方式来实现。软件指令可以由相应的软件模块组成,软件模块可以被存放于RAM存储器、闪存、ROM存储器、EPROM存储器、EEPROM存储器、寄存器、硬盘、移动硬盘、CD-ROM或者本领域熟知的任何其它形式的存储介质中。一种示例性的存储介质耦合至处理器,从而使处理器能够从该存储介质读取信息,且可向该存储介质写入信息。当然,存储介质也可以是处理器的组成部分。处理器和存储介质可以位于ASIC中。另外,该ASIC可以位于服务器中。当然,处理器和存储介质也可以作为分立组件存在于服务器中。
本领域技术人员应该可以意识到,在上述一个或多个示例中,本发明所描述的功能可以用硬件、软件、固件或它们的任意组合来实现。当使用软件实现时,可以将这些功能存储在计算机可读介质中或者作为计算机可读介质上的一个或多个指令或代码进行传输。计算机可读介质包括计算机存储介质和通信介质,其中通信介质包括便于从一个地方向另一个地方传送计算机程序的任何介质。存储介质可以是通用或专用计算机能够存取的任何可用介质。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
以上所述的具体实施方式,对本说明书的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本说明书的具体实施方式而已,并不用于限定本说明书的保护范围,凡在本说明书的技术方案的基础之上,所做的任何修改、等同替换、改进等,均应包括在本说明书的保护范围之内。
Claims (20)
1.一种实现隐私保护的多方协同更新模型的方法,所述多方包括服务器和n个参与方;所述方法包括多轮迭代,其中任意的第t轮迭代包括:
每个参与方i根据本地样本集以及当前模型参数,确定对应的局部梯度向量;
每个参与方i利用满足差分隐私的随机化算法,对所述局部梯度向量中的各元素进行随机二值化处理,得到扰动梯度向量;
每个参与方i将各自确定的扰动梯度向量发送给所述服务器;
所述服务器聚合所述n个参与方发送的n份扰动梯度向量,并根据当前聚合结果中各元素的正负号,对各元素进行二值化表示,得到目标梯度向量;
每个参与方i从所述服务器接收所述目标梯度向量,并根据所述目标梯度向量更新当前模型参数,以用于下一轮迭代;
在所述多轮迭代后,每个参与方i将其得到的当前模型参数,作为其与其它参与方协同更新的业务预测模型;
其中,所述根据当前聚合结果中各元素的正负号,对各元素进行二值化表示,包括:
在当前聚合结果上叠加当前误差补偿向量,得到叠加结果;
利用符号函数,基于所述叠加结果中各元素的正负号,对各元素进行二值化表示;
其中,所述当前误差补偿向量,通过在前一轮误差补偿向量上,叠加前一轮聚合结果与前一轮聚合结果对应的二值化表示结果之间的差值得到。
2.根据权利要求1所述的方法,其中,所述局部梯度向量包括第一元素;每个参与方i利用满足差分隐私的随机化算法,对所述局部梯度向量中的各元素进行随机二值化处理,包括:
根据第一元素的值确定第一概率,所述第一概率与所述第一元素的值大小正相关;
以所述第一概率将所述第一元素的值转换为1,以第二概率将所述第一元素的值转换为-1,其中,所述第一概率和第二概率之和为1。
3.根据权利要求2所述的方法,其中,所述根据第一元素的值确定第一概率,包括:
在所述第一元素的值上添加噪声值;
根据添加噪声值后的第一元素的值,利用高斯分布的累积分布函数,确定第一概率。
4.根据权利要求3所述的方法,其中,所述噪声值是从期望值为0、方差为σ2的高斯分布中随机采样得到;所述σ至少根据全局敏感度与两个差分隐私参数的比例的乘积确定。
5.根据权利要求4所述的方法,其中,所述两个差分隐私参数为隐私预算ε和松弛项δ。
6.根据权利要求3所述的方法,其中,所述噪声值是从期望值为0、方差为σ2的高斯分布中随机采样得到,所述σ满足如下约束条件:
利用所述累积分布函数针对至少基于所述σ确定的函数最大边界值计算的第三概率,与利用所述累积分布函数针对至少基于所述σ确定的函数最小边界值计算的第四概率相接近。
7.根据权利要求6所述的方法,其中,所述函数最大边界值是根据全局敏感度与所述σ确定的第一比例,与根据隐私预算ε和所述σ的乘积与全局敏感度确定的第二比例的差值;所述函数最小边界值是所述第一比例的相反数与所述第二比例的差值。
8.根据权利要求1所述的方法,其中,
任意的参与方i本地样本集中的样本为图片,所述业务预测模型为图片识别模型;或者,
任意的参与方i本地样本集中的样本为音频,所述业务预测模型为音频识别模型;或者,
任意的参与方i本地样本集中的样本为文本,所述业务预测模型为文本识别模型。
9.一种实现隐私保护的多方协同更新模型的方法,所述多方包括服务器和n个参与方;所述方法通过所述n个参与方中任意的参与方i执行;所述方法包括多轮迭代,其中任意的第t轮迭代包括:
根据本地样本集以及当前模型参数,确定对应的局部梯度向量;
利用满足差分隐私的随机化算法,对所述局部梯度向量中的各元素进行随机二值化处理,得到扰动梯度向量;
将所述扰动梯度向量发送给所述服务器;
从所述服务器接收目标梯度向量;其中,所述目标梯度向量,是所述服务器在聚合所述n个参与方发送的n份扰动梯度向量后,再根据当前聚合结果中各元素的正负号,对各元素进行二值化表示得到;
根据所述目标梯度向量更新当前模型参数,以用于下一轮迭代;
在所述多轮迭代后,将其得到的当前模型参数,作为其与其它参与方协同更新的业务预测模型;
其中,所述根据当前聚合结果中各元素的正负号,对各元素进行二值化表示,包括:
在当前聚合结果上叠加当前误差补偿向量,得到叠加结果;
利用符号函数,基于所述叠加结果中各元素的正负号,对各元素进行二值化表示;
其中,所述当前误差补偿向量,通过在前一轮误差补偿向量上,叠加前一轮聚合结果与前一轮聚合结果对应的二值化表示结果之间的差值得到。
10.一种实现隐私保护的多方协同更新模型的系统,包括服务器和n个参与方;
每个参与方i,用于根据本地样本集以及当前模型参数,确定对应的局部梯度向量;
每个参与方i,还用于利用满足差分隐私的随机化算法,对所述局部梯度向量中的各元素进行随机二值化处理,得到扰动梯度向量;
每个参与方i,还用于将各自确定的扰动梯度向量发送给所述服务器;
所述服务器,用于聚合所述n个参与方发送的n份扰动梯度向量,并根据当前聚合结果中各元素的正负号,对各元素进行二值化表示,得到目标梯度向量;
每个参与方i,还用于从所述服务器接收所述目标梯度向量,并根据所述目标梯度向量更新当前模型参数,以用于下一轮迭代;
每个参与方i,还用于在所述多轮迭代后,将其得到的当前模型参数,作为其与其它参与方协同更新的业务预测模型;
其中,所述服务器还具体用于:
在当前聚合结果上叠加当前误差补偿向量,得到叠加结果;
利用符号函数,基于所述叠加结果中各元素的正负号,对各元素进行二值化表示;
其中,所述当前误差补偿向量,通过在前一轮误差补偿向量上,叠加前一轮聚合结果与前一轮聚合结果对应的二值化表示结果之间的差值得到。
11.根据权利要求10所述的系统,其中,所述局部梯度向量包括第一元素;每个参与方i具体用于:
根据第一元素的值确定第一概率,所述第一概率与所述第一元素的值大小正相关;
以所述第一概率将所述第一元素的值转换为1,以第二概率将所述第一元素的值转换为-1,其中,所述第一概率和第二概率之和为1。
12.根据权利要求11所述的系统,其中,每个参与方i还具体用于:
在所述第一元素的值上添加噪声值;
根据添加噪声值后的第一元素的值,利用高斯分布的累积分布函数,确定第一概率。
13.根据权利要求12所述的系统,其中,所述噪声值是从期望值为0、方差为σ2的高斯分布中随机采样得到;所述σ至少根据全局敏感度与两个差分隐私参数的比例的乘积确定。
14.根据权利要求13所述的系统,其中,所述两个差分隐私参数为隐私预算ε和松弛项δ。
15.根据权利要求12所述的系统,其中,所述噪声值是从期望值为0、方差为σ2的高斯分布中随机采样得到,所述σ满足如下约束条件:
利用所述累积分布函数针对至少基于所述σ确定的函数最大边界值计算的第三概率,与利用所述累积分布函数针对至少基于所述σ确定的函数最小边界值计算的第四概率相接近。
16.根据权利要求15所述的系统,其中,所述函数最大边界值是根据全局敏感度与所述σ确定的第一比例,与根据隐私预算ε和所述σ的乘积与全局敏感度确定的第二比例的差值;所述函数最小边界值是所述第一比例的相反数与所述第二比例的差值。
17.根据权利要求10所述的系统,其中,
任意的参与方i本地样本集中的样本为图片,所述业务预测模型为图片识别模型;或者,
任意的参与方i本地样本集中的样本为音频,所述业务预测模型为音频识别模型;或者,
任意的参与方i本地样本集中的样本为文本,所述业务预测模型为文本识别模型。
18.一种实现隐私保护的多方协同更新模型的装置,所述多方包括服务器和n个参与方;所述装置设置于所述n个参与方中任意的参与方i,用于执行多轮迭代,所述装置通过其包括的以下单元执行其中任意的第t轮迭代:
确定单元,用于根据本地样本集以及当前模型参数,确定对应的局部梯度向量;
处理单元,用于利用满足差分隐私的随机化算法,对所述局部梯度向量中的各元素进行随机二值化处理,得到扰动梯度向量;
发送单元,用于将所述扰动梯度向量发送给所述服务器;
接收单元,用于从所述服务器接收目标梯度向量;其中,所述目标梯度向量,是所述服务器在聚合所述n个参与方发送的n份扰动梯度向量后,再根据当前聚合结果中各元素的正负号,对各元素进行二值化表示得到;
更新单元,用于根据所述目标梯度向量更新当前模型参数,以用于下一轮迭代;
所述确定单元,还用于在所述多轮迭代后,将其得到的当前模型参数,作为其与其它参与方协同更新的业务预测模型;
其中,所述根据当前聚合结果中各元素的正负号,对各元素进行二值化表示,包括:
在当前聚合结果上叠加当前误差补偿向量,得到叠加结果;
利用符号函数,基于所述叠加结果中各元素的正负号,对各元素进行二值化表示;
其中,所述当前误差补偿向量,通过在前一轮误差补偿向量上,叠加前一轮聚合结果与前一轮聚合结果对应的二值化表示结果之间的差值得到。
19.一种计算机可读存储介质,其上存储有计算机程序,其中,当所述计算机程序在计算机中执行时,令计算机执行权利要求1-9中任一项所述的方法。
20.一种计算设备,包括存储器和处理器,其中,所述存储器中存储有可执行代码,所述处理器执行所述可执行代码时,实现权利要求1-9中任一项所述的方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110657041.8A CN113221183B (zh) | 2021-06-11 | 2021-06-11 | 实现隐私保护的多方协同更新模型的方法、装置及系统 |
PCT/CN2022/094020 WO2022257730A1 (zh) | 2021-06-11 | 2022-05-20 | 实现隐私保护的多方协同更新模型的方法、装置及系统 |
US18/535,061 US20240112091A1 (en) | 2021-06-11 | 2023-12-11 | Methods, apparatuses, and systems for multi-party collaborative model updating for privacy protection |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110657041.8A CN113221183B (zh) | 2021-06-11 | 2021-06-11 | 实现隐私保护的多方协同更新模型的方法、装置及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113221183A CN113221183A (zh) | 2021-08-06 |
CN113221183B true CN113221183B (zh) | 2022-09-16 |
Family
ID=77081483
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110657041.8A Active CN113221183B (zh) | 2021-06-11 | 2021-06-11 | 实现隐私保护的多方协同更新模型的方法、装置及系统 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20240112091A1 (zh) |
CN (1) | CN113221183B (zh) |
WO (1) | WO2022257730A1 (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113221183B (zh) * | 2021-06-11 | 2022-09-16 | 支付宝(杭州)信息技术有限公司 | 实现隐私保护的多方协同更新模型的方法、装置及系统 |
CN116415676A (zh) * | 2021-12-29 | 2023-07-11 | 新智我来网络科技有限公司 | 联合学习中的预测方法及装置 |
CN117112186A (zh) * | 2022-05-13 | 2023-11-24 | 抖音视界(北京)有限公司 | 用于模型性能评估的方法、装置、设备和介质 |
CN115081642B (zh) * | 2022-07-19 | 2022-11-15 | 浙江大学 | 一种多方协同更新业务预测模型的方法及系统 |
CN115859367B (zh) * | 2023-02-16 | 2023-05-16 | 广州优刻谷科技有限公司 | 一种多模态联邦学习的隐私保护方法及系统 |
CN115860789B (zh) * | 2023-03-02 | 2023-05-30 | 国网江西省电力有限公司信息通信分公司 | 一种基于frl的ces日前调度方法 |
CN117056979B (zh) * | 2023-10-11 | 2024-03-29 | 杭州金智塔科技有限公司 | 基于用户隐私数据的业务处理模型更新方法及装置 |
CN118094635A (zh) * | 2024-04-23 | 2024-05-28 | 国网智能电网研究院有限公司 | 一种隐私保护的数据交互关系图结构计算方法和系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111325417A (zh) * | 2020-05-15 | 2020-06-23 | 支付宝(杭州)信息技术有限公司 | 实现隐私保护的多方协同更新业务预测模型的方法及装置 |
WO2020257264A1 (en) * | 2019-06-18 | 2020-12-24 | Google Llc | Scalable and differentially private distributed aggregation |
CN112182633A (zh) * | 2020-11-06 | 2021-01-05 | 支付宝(杭州)信息技术有限公司 | 保护隐私的模型联合训练方法及装置 |
CN112541592A (zh) * | 2020-12-06 | 2021-03-23 | 支付宝(杭州)信息技术有限公司 | 基于差分隐私的联邦学习方法、装置及电子设备 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10565524B2 (en) * | 2017-01-31 | 2020-02-18 | Hewlett Packard Enterprise Development Lp | Performing privacy-preserving multi-party analytics on horizontally partitioned local data |
US11449639B2 (en) * | 2019-06-14 | 2022-09-20 | Sap Se | Differential privacy to prevent machine learning model membership inference |
US11443240B2 (en) * | 2019-09-06 | 2022-09-13 | Oracle International Corporation | Privacy preserving collaborative learning with domain adaptation |
CN111611610B (zh) * | 2020-04-12 | 2023-05-30 | 西安电子科技大学 | 联邦学习信息处理方法、系统、存储介质、程序、终端 |
CN112232401A (zh) * | 2020-10-12 | 2021-01-15 | 南京邮电大学 | 一种基于差分隐私及随机梯度下降的数据分类方法 |
CN112100642B (zh) * | 2020-11-13 | 2021-06-04 | 支付宝(杭州)信息技术有限公司 | 在分布式系统中保护隐私的模型训练方法及装置 |
CN112541593B (zh) * | 2020-12-06 | 2022-05-17 | 支付宝(杭州)信息技术有限公司 | 基于隐私保护的联合训练业务模型的方法及装置 |
CN112818394A (zh) * | 2021-01-29 | 2021-05-18 | 西安交通大学 | 具有本地隐私保护的自适应异步联邦学习方法 |
CN113221183B (zh) * | 2021-06-11 | 2022-09-16 | 支付宝(杭州)信息技术有限公司 | 实现隐私保护的多方协同更新模型的方法、装置及系统 |
-
2021
- 2021-06-11 CN CN202110657041.8A patent/CN113221183B/zh active Active
-
2022
- 2022-05-20 WO PCT/CN2022/094020 patent/WO2022257730A1/zh active Application Filing
-
2023
- 2023-12-11 US US18/535,061 patent/US20240112091A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020257264A1 (en) * | 2019-06-18 | 2020-12-24 | Google Llc | Scalable and differentially private distributed aggregation |
CN111325417A (zh) * | 2020-05-15 | 2020-06-23 | 支付宝(杭州)信息技术有限公司 | 实现隐私保护的多方协同更新业务预测模型的方法及装置 |
CN112182633A (zh) * | 2020-11-06 | 2021-01-05 | 支付宝(杭州)信息技术有限公司 | 保护隐私的模型联合训练方法及装置 |
CN112541592A (zh) * | 2020-12-06 | 2021-03-23 | 支付宝(杭州)信息技术有限公司 | 基于差分隐私的联邦学习方法、装置及电子设备 |
Non-Patent Citations (2)
Title |
---|
MapReduce框架下支持差分隐私保护的随机梯度下降算法;俞艺涵等;《通信学报》;20180125(第01期);全文 * |
面向深度神经网络训练的数据差分隐私保护随机梯度下降算法;李英等;《计算机应用与软件》;20200412(第04期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
US20240112091A1 (en) | 2024-04-04 |
CN113221183A (zh) | 2021-08-06 |
WO2022257730A1 (zh) | 2022-12-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113221183B (zh) | 实现隐私保护的多方协同更新模型的方法、装置及系统 | |
US20210158216A1 (en) | Method and system for federated learning | |
US11176469B2 (en) | Model training methods, apparatuses, and systems | |
US11341411B2 (en) | Method, apparatus, and system for training neural network model | |
CN110427969B (zh) | 数据处理方法、装置和电子设备 | |
CN111428887B (zh) | 一种基于多个计算节点的模型训练控制方法、装置及系统 | |
CN111144576A (zh) | 模型训练方法、装置和电子设备 | |
CN110414567A (zh) | 数据处理方法、装置和电子设备 | |
CN114936650A (zh) | 基于隐私保护的联合训练业务模型的方法及装置 | |
CN113505882A (zh) | 基于联邦神经网络模型的数据处理方法、相关设备及介质 | |
CN112948885A (zh) | 实现隐私保护的多方协同更新模型的方法、装置及系统 | |
US11843587B2 (en) | Systems and methods for tree-based model inference using multi-party computation | |
CN111523556A (zh) | 模型训练方法、装置及系统 | |
Long et al. | Three Nontrivial Solutions for Second‐Order Partial Difference Equation via Morse Theory | |
CN110874481B (zh) | 一种基于gbdt模型的预测方法和装置 | |
Kuznetsova et al. | Solving blockchain scalability problem using zK-SNARK | |
CN111523674A (zh) | 模型训练方法、装置及系统 | |
CN112507323A (zh) | 基于单向网络的模型训练方法、装置和计算设备 | |
CN111915689A (zh) | 用于生成目标函数的方法、装置、电子设备和计算机可读介质 | |
CN111967584A (zh) | 生成对抗样本的方法、装置、电子设备及计算机存储介质 | |
WO2023038940A1 (en) | Systems and methods for tree-based model inference using multi-party computation | |
CN113111254B (zh) | 推荐模型的训练方法、拟合方法、装置和电子设备 | |
CN112511361A (zh) | 模型训练方法、装置和计算设备 | |
CN111581455A (zh) | 文本生成模型的生成方法、装置和电子设备 | |
US20240202357A1 (en) | Differentially Private Synthetic Data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40056865 Country of ref document: HK |
|
GR01 | Patent grant | ||
GR01 | Patent grant |