CN116415267A - 一种联合学习模型迭代更新方法、装置、系统及存储介质 - Google Patents
一种联合学习模型迭代更新方法、装置、系统及存储介质 Download PDFInfo
- Publication number
- CN116415267A CN116415267A CN202111656939.XA CN202111656939A CN116415267A CN 116415267 A CN116415267 A CN 116415267A CN 202111656939 A CN202111656939 A CN 202111656939A CN 116415267 A CN116415267 A CN 116415267A
- Authority
- CN
- China
- Prior art keywords
- value
- model
- encryption
- party
- participant
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000003860 storage Methods 0.000 title claims abstract description 13
- 238000012549 training Methods 0.000 claims abstract description 67
- 238000004590 computer program Methods 0.000 claims description 16
- 238000004364 calculation method Methods 0.000 claims description 14
- 238000004891 communication Methods 0.000 claims description 4
- 238000010801 machine learning Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000002776 aggregation Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/602—Providing cryptographic facilities or services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Security & Cryptography (AREA)
- Data Mining & Analysis (AREA)
- Computer Hardware Design (AREA)
- General Health & Medical Sciences (AREA)
- Bioethics (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Storage Device Security (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本公开涉及机器学习技术领域,提供了一种联合学习模型迭代更新方法、装置、系统及存储介质。该方法包括:接收第一参与方发送的第一密钥和第一加密参数,以及第二参与方发送的第二加密参数;根据第一加密参数、第二加密参数和第一密钥,计算加密概率值;将加密概率值发送给第一参与方,以使第一参与方根据加密概率值和样本标签值,计算得到训练目标损失值;接收训练目标损失值,根据训练目标损失值和第一加密参数、第二加密参数,计算更新梯度;获取第一参与方发送的模型预测值和学习率,根据更新梯度、模型预测值和学习率,迭代更新其全局模型,能够实现灵活高效且安全的模型参数更新,从而满足每一参与方的数据安全需求。
Description
技术领域
本公开涉及机器学习技术领域,尤其涉及一种联合学习模型迭代更新方法、装置、系统及存储介质。
背景技术
纵向联合学习能够利用样本分散于多个参与方的多样化特征来建立一个健壮的共享模型。在纵向联合学习体系中,每个参与方都拥有与其特征相关联的共享模型中的一部分,因此,纵向联邦学习中各参与方彼此间有更紧密的共生关系。
但是,在现有技术中,大部分的防止信息泄露或者对抗恶意攻击的研究都是针对横向联合学习的场景,而针对纵向联合学习场景的信息/数据安全交换/传输的研究非常少。由于纵向联合学习通常需要参与方之间进行更加紧密的交互,因此,亟需提供一种灵活高效且安全的模型参数更新方法,以保证每一参与方的数据安全需求。
发明内容
有鉴于此,本公开实施例提供了一种联合学习模型迭代更新方法、装置、系统及存储介质,以提供一种灵活高效且安全的模型参数更新方法,以保证每一参与方的数据安全需求。
本公开实施例的第一方面,提供了一种联合学习模型迭代更新方法,包括:
接收第一参与方发送的第一密钥和第一加密参数,以及第二参与方发送的第二加密参数;
根据第一加密参数、第二加密参数和第一密钥,计算得到加密概率值;
将加密概率值发送给第一参与方,以使第一参与方根据加密概率值和样本标签值,计算得到训练目标损失值;
接收训练目标损失值,根据训练目标损失值和第一加密参数、第二加密参数,计算更新梯度;
获取第一参与方发送的模型预测值和学习率,根据更新梯度、模型预测值和学习率,迭代更新其全局模型。
本公开实施例的第二方面,提供了一种联合学习模型迭代更新装置,包括:
参数接收模块,被配置为接收第一参与方发送的第一密钥和第一加密参数,以及第二参与方发送的第二加密参数;
概率计算模块,被配置为根据第一加密参数、第二加密参数和第一密钥,计算得到加密概率值;
损失计算模块,被配置为将加密概率值发送给第一参与方,以使第一参与方根据加密概率值和样本标签值,计算得到训练目标损失值;
梯度计算模块,被配置为接收训练目标损失值,根据训练目标损失值和第一加密参数、第二加密参数,计算更新梯度;
迭代更新模块,被配置为获取第一参与方发送的模型预测值和学习率,根据更新梯度、模型预测值和学习率,迭代更新其全局模型。
本公开实施例的第三方面,提供了一种联合学习模型迭代更新系统,包括:
第三方,分别与第三方通信连接的第一参与方;
第一参与方,被配置为向第三方发送第一密钥和第一加密参数;
第三方,被配置为接收第一参与方发送的第一密钥和第一加密参数,以及第二参与方发送的第二加密参数,根据第一加密参数、第二加密参数和第一密钥,计算得到加密概率值,将加密概率值发送给第一参与方;
第一参与方,还被配置为根据加密概率值和样本标签值,计算得到训练目标损失值,并将训练目标损失值返回第三方;
第三方,还被配置为根据训练目标损失值和第一加密参数、第二加密参数,计算更新梯度;
第一参与方,还被配置为接收第二参与方发送的预测阶段的加密参数,根据训练目标损失值对其模型参数进行更新,获得更新模型,并使用更新模型对其样本进行预测,得到预测结果,根据加密参数和预测结果,计算得到模型预测值,并将模型预测值和学习率发送给第三方;
第三方,还被配置为根据更新梯度、模型预测值和学习率,迭代更新其全局模型。
本公开实施例的第四方面,提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,该计算机程序被处理器执行时实现上述方法的步骤。
本公开实施例与现有技术相比存在的有益效果至少包括:通过接收第一参与方发送的第一密钥和第一加密参数,以及第二参与方发送的第二加密参数;根据第一加密参数、第二加密参数和第一密钥,计算得到加密概率值;将加密概率值发送给第一参与方,以使第一参与方根据加密概率值和样本标签值,计算得到训练目标损失值;接收训练目标损失值,根据训练目标损失值和第一加密参数、第二加密参数,计算更新梯度;获取第一参与方发送的模型预测值和学习率,根据更新梯度、模型预测值和学习率,迭代更新其全局模型,能够实现灵活高效且安全的模型参数更新,从而满足每一参与方的数据安全需求。
附图说明
为了更清楚地说明本公开实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本公开实施例提供的一种联合学习模型迭代更新方法的流程示意图;
图2是本公开实施例提供的一种联合学习模型迭代更新装置的结构示意图;
图3是本公开实施例提供的一种联合学习模型迭代更新系统的结构示意图;
图4是本公开实施例提供的一种电子设备的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本公开实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本公开。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本公开的描述。
联合学习是指在确保数据安全及用户隐私的前提下,综合利用多种AI(Artificial Intelligence,人工智能)技术,联合多方合作共同挖掘数据价值,催生基于联合建模的新的智能业态和模式。联合学习至少具有以下特点:
(1)参与节点控制自有数据的弱中心化联合训练模式,确保共创智能过程中的数据隐私安全。
(2)在不同应用场景下,利用筛选和/或组合AI算法、隐私保护计算,建立多种模型聚合优化策略,以获取高层次、高质量的模型。
(3)在确保数据安全及用户隐私的前提下,基于多种模型聚合优化策略,获取提升联合学习引擎的效能方法,其中效能方法可以是通过解决包括计算架构并行、大规模跨域网络下的信息交互、智能感知、异常处理机制等,提升联合学习引擎的整体效能。
(4)获取各场景下多方用户的需求,通过互信机制,确定合理评估各联合参与方的真实贡献度,进行分配激励。
基于上述方式,可以建立基于联合学习的AI技术生态,充分发挥行业数据价值,推动垂直领域的场景落地。
图1是本公开实施例提供的一种联合学习模型迭代更新方法的流程示意图。如图1所示,该联合学习模型迭代更新方法包括:
步骤S101,接收第一参与方发送的第一密钥和第一加密参数,以及第二参与方发送的第二加密参数。
其中,第一参与方,是指拥有特征数据以及样本标签的参与方。第二参与方,是指拥有特征数据但没有样本标签的参与方。第三方,可以是中央服务器,可对第一参与方和第二参与方的模型参数进行全局聚合。
作为一示例,第一参与方可以预先通过初始化生成第一密钥(公钥)和第二密钥(私钥),并将第一密钥发送给第三方。
在每轮训练时,第一参与方,可根据下述公式(1)计算本轮训练的批次样本中的各个样本的yi值。
yi=ωai*xai (1)。
式(1)中的yi表示本批次样本中的第i个样本的参数值,ωai表示本批次样本中的第i个样本的特征重要性矢量,xai表示本批次样本中的第i个样本的特征矢量。
将本批次的所有样本的yi值处理成一维数组[y1,y2,y3…yi],并使用第一密钥对该一维数组进行加密,即得到第一加密参数,并发送给第三方。
在一实施例中,第三方可先将第一密钥发送给第二参与方,使得第二参与方可根据其样本计算得到第二参数,再使用第一密钥对第二参数进行加密,得到第二加密参数。
具体的,第二参与方,可以根据下述公式(2)计算本轮训练的批次样本中的各个样本的zi值(即第二参数)。
zi=ωbi*xbi (2)。
式(2)中的zi表示本批次样本中的第i个样本的参数值,ωbi表示本批次样本中的第i个样本的特征重要性矢量,xbi表示本批次样本中的第i个样本的特征矢量。
将本批次的所有样本的zi值处理成一维数组[z1,z2,z3…zi],并使用第一密钥对该一维数组进行加密,即得到第二加密参数,并发送给第三方。
步骤S102,根据第一加密参数、第二加密参数和第一密钥,计算得到加密概率值。
在一实施例中,可先根据第一加密参数和第二加密参数,计算得到模型预测概率值;再使用第一密钥对模型预测概率值进行加密,得到加密概率值。
具体地,第三方在接收到第一加密参数、第二加密参数和第一密钥时,可通过下述公式(3)计算得到模型预测概率值。
式(3)中,h(xi)表示第i个对齐样本的模型预测概率值,Yi表示第一参与方和第二参与方的第i个对齐样本的参数总和;m表示批次样本数量,ωbi表示第二参与方的本批次样本中第i个样本的特征重要性矢量,xbi表示参与方的本批次样本中第i个样本的特征矢量。
接着,再使用第一密钥对上述模型预测概率值进行加密,得到加密概率值。
步骤S103,将加密概率值发送给第一参与方,以使第一参与方根据加密概率值和样本标签值,计算得到训练目标损失值。
在一实施例中,第一参与方,可使用第二密钥对加密概率值进行解密,得到解密概率值;再根据解密概率值和样本标签值,计算得到训练目标损失值。
具体而言,第三方将上述步骤得到的加密概率值发送给第一参与方,此时,第一参与方可先使用上述第二密钥(私钥)对上述加密概率值进行解密,得到解密概率值,然后,再根据下述公式(3)计算得到训练目标损失值J(ω)。
式(4)中,p属于[0,1],表示样本标签值;hω(x(i))≈0.5+1.15(ωx)-0.0015(ωx)3;p(i)表示第i个样本的标签值;x(i)表示第i个样本的特征矢量。
步骤S104,接收训练目标损失值,根据训练目标损失值和第一加密参数、第二加密参数,计算更新梯度。
在一实施例中,第一参与方在根据上述步骤计算得到训练目标损失值后,将该训练目标损失值发送给第三方。第三方,在接收到该训练目标损失值后,可先计算第一加密参数和第二加密参数的总和;再计算训练目标损失值对总和的偏导数,得到更新梯度。
具体地,第三方可根据上述公式(3)计算第一加密参数和第二加密参数的总和,即Yi。然后,再根据下述公式(5)计算训练目标损失值对总和的偏导数,得到更新梯度。
式(5)中,ωj表示上述的模型预测概率值Yi。
需要说明的是,若是计算第一参与方更新梯度,则式(5)中的ωj对应第一参与方的样本的特征矢量及其特征重要性矢量(例如,为上述式(1)中的yi)。若是计算第二参与方更新梯度,则式(5)中的ωj对应第二参与方的样本的特征矢量及其特征重要性矢量(例如,为上述式(2)中的zi)。
步骤S105,获取第一参与方发送的模型预测值和学习率,根据更新梯度、模型预测值和学习率,迭代更新其全局模型。
在一实施例中,第三方在接收到第一参与方发送的模型预测值和学习率后,可先根据更新梯度、模型预测值和学习率,计算更新模型参数;再使用更新模型参数,迭代更新其全局模型。
第二参与方,在获得第一参与方发送的训练目标损失值后,可根据该训练目标损失值及其样本的特征矢量及其特征重要性矢量计算出其模型更新梯度,以及权值更新值,再根据该权值更新值对其模型进行更新,得到更新模型。然后,再使用其更新模型对其样本数据进行预测,得到第一预测结果,并使用第一密钥对该预测结果进行加密,得到预测阶段的加密参数。最后,将该加密参数发送给第一参与方。
第一参与方,类似地,可利用其计算出来的训练目标损失值及其样本的特征矢量及其特征重要性矢量计算出其模型更新梯度,以及权值更新值,再根据该权值更新值对其模型进行更新,得到更新模型。然后,再使用其更新模型对其样本数据进行预测,得到第二预测结果。之后,再使用第二密钥对第二参与方发送过来的加密参数进行解密,再根据解密后的参数以及上述第二预测结果,计算出模型预测值,并将该模型预测值发送给第三方。
第三方,在接收到第一参与方发送的模型预测值以及学习率,并结合其之前计算出来的更新梯度,计算更新模型参数(即权重更新值)。具体的,更新模型参数的计算公式如下式(6)所示。
式(6)中,α表示学习率,等式右边的ωj为第三方的全局模型的未更新前的权重值(例如,初始权重值),等式左边为更新模型参数。
本公开实施例提供的技术方案,通过接收第一参与方发送的第一密钥和第一加密参数,以及第二参与方发送的第二加密参数;根据第一加密参数、第二加密参数和第一密钥,计算得到加密概率值;将加密概率值发送给第一参与方,以使第一参与方根据加密概率值和样本标签值,计算得到训练目标损失值;接收训练目标损失值,根据训练目标损失值和第一加密参数、第二加密参数,计算更新梯度;获取第一参与方发送的模型预测值和学习率,根据更新梯度、模型预测值和学习率,迭代更新其全局模型,能够实现灵活高效且安全的模型参数更新,从而满足每一参与方的数据安全需求。
上述所有可选技术方案,可以采用任意结合形成本申请的可选实施例,在此不再一一赘述。
下述为本公开装置实施例,可以用于执行本公开方法实施例。对于本公开装置实施例中未披露的细节,请参照本公开方法实施例。
图2是本公开实施例提供的一种联合学习模型迭代更新装置的示意图。如图2所示,该联合学习模型迭代更新装置包括:
参数接收模块201,被配置为接收第一参与方发送的第一密钥和第一加密参数,以及第二参与方发送的第二加密参数;
概率计算模块202,被配置为根据第一加密参数、第二加密参数和第一密钥,计算得到加密概率值;
损失计算模块203,被配置为将加密概率值发送给第一参与方,以使第一参与方根据加密概率值和样本标签值,计算得到训练目标损失值;
梯度计算模块204,被配置为接收训练目标损失值,根据训练目标损失值和第一加密参数、第二加密参数,计算更新梯度;
迭代更新模块205,被配置为获取第一参与方发送的模型预测值和学习率,根据更新梯度、模型预测值和学习率,迭代更新其全局模型。
本公开实施例提供的技术方案,通过参数接收模块201接收第一参与方发送的第一密钥和第一加密参数,以及第二参与方发送的第二加密参数;概率计算模块202根据第一加密参数、第二加密参数和第一密钥,计算得到加密概率值;损失计算模块203将加密概率值发送给第一参与方,以使第一参与方根据加密概率值和样本标签值,计算得到训练目标损失值;梯度计算模块204接收训练目标损失值,根据训练目标损失值和第一加密参数、第二加密参数,计算更新梯度;迭代更新模块205获取第一参与方发送的模型预测值和学习率,根据更新梯度、模型预测值和学习率,迭代更新其全局模型,能够实现灵活高效且安全的模型参数更新,从而满足每一参与方的数据安全需求。
在一些实施例中,上述步骤,根据第一加密参数、第二加密参数和第一密钥,计算得到加密概率值,包括:
根据第一加密参数和第二加密参数,计算得到模型预测概率值;
使用第一密钥对模型预测概率值进行加密,得到加密概率值。
在一些实施例中,上述步骤,第一参与方根据加密概率值和样本标签值,计算得到训练目标损失值,包括:
第一参与方,使用第二密钥对加密概率值进行解密,得到解密概率值;
根据解密概率值和样本标签值,计算得到训练目标损失值。
在一些实施例中,上述步骤,根据训练目标损失值和第一加密参数、第二加密参数,计算更新梯度,包括:
计算第一加密参数和第二加密参数的总和;
计算训练目标损失值对总和的偏导数,得到更新梯度。
在一些实施例中,上述步骤,根据更新梯度、模型预测值和学习率,更新其全局模型,包括:
根据更新梯度、模型预测值和学习率,计算更新模型参数;
使用更新模型参数,迭代更新其全局模型。
在一些实施例中,上述步骤,接收第二参与方发送的第二加密参数之前,还包括:
向第二参与方发送第一密钥,以使第二参与方根据其样本计算得到第二参数,并使用第一密钥对第二参数进行加密,得到第二加密参数。
在一些实施例中,上述步骤,第一参与方发送的模型预测值之前,还包括:
接收第二参与方发送的预测阶段的加密参数;
根据训练目标损失值对其模型参数进行更新,获得更新模型,并使用更新模型对其样本进行预测,得到预测结果;
根据加密参数和预测结果,计算得到模型预测值。
图3是本公开实施例提供的一种联合学习模型迭代更新系统的示意图。如图3所示,该联合学习模型迭代更新系统,包括:
第三方301,分别与第三方通信连接的第一参与方302、第二参与方303,第一参与方302和第二参与方303通信连接;
第一参与方,被配置为向第三方发送第一密钥和第一加密参数;
第三方,被配置为接收第一参与方发送的第一密钥和第一加密参数,以及第二参与方发送的第二加密参数,根据第一加密参数、第二加密参数和第一密钥,计算得到加密概率值,将加密概率值发送给第一参与方;
第一参与方,还被配置为根据加密概率值和样本标签值,计算得到训练目标损失值,并将训练目标损失值返回第三方;
第三方,还被配置为根据训练目标损失值和第一加密参数、第二加密参数,计算更新梯度;
第一参与方,还被配置为接收第二参与方发送的预测阶段的加密参数,根据训练目标损失值对其模型参数进行更新,获得更新模型,并使用更新模型对其样本进行预测,得到预测结果,根据加密参数和预测结果,计算得到模型预测值,并将模型预测值和学习率发送给第三方;
第三方,还被配置为根据更新梯度、模型预测值和学习率,迭代更新其全局模型。
本公开实施例提供的技术方案,能够实现灵活高效且安全的模型参数更新,从而满足每一参与方的数据安全需求。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本公开实施例的实施过程构成任何限定。
图4是本公开实施例提供的电子设备400的示意图。如图4所示,该实施例的电子设备400包括:处理器401、存储器402以及存储在该存储器402中并且可在处理器401上运行的计算机程序403。处理器401执行计算机程序403时实现上述各个方法实施例中的步骤。或者,处理器401执行计算机程序403时实现上述各装置实施例中各模块/单元的功能。
示例性地,计算机程序403可以被分割成一个或多个模块/单元,一个或多个模块/单元被存储在存储器402中,并由处理器401执行,以完成本公开。一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述计算机程序403在电子设备400中的执行过程。
电子设备400可以是桌上型计算机、笔记本、掌上电脑及云端服务器等电子设备。电子设备400可以包括但不仅限于处理器401和存储器402。本领域技术人员可以理解,图4仅仅是电子设备400的示例,并不构成对电子设备400的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如,电子设备还可以包括输入输出设备、网络接入设备、总线等。
处理器401可以是中央处理单元(Central Processing Unit,CPU),也可以是其它通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器402可以是电子设备400的内部存储单元,例如,电子设备400的硬盘或内存。存储器402也可以是电子设备400的外部存储设备,例如,电子设备400上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,存储器402还可以既包括电子设备400的内部存储单元也包括外部存储设备。存储器402用于存储计算机程序以及电子设备所需的其它程序和数据。存储器402还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本公开的范围。
在本公开所提供的实施例中,应该理解到,所揭露的装置/电子设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/电子设备实施例仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本公开各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。基于这样的理解,本公开实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,计算机程序可以存储在计算机可读存储介质中,该计算机程序在被处理器执行时,可以实现上述各个方法实施例的步骤。计算机程序可以包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。计算机可读介质可以包括:能够携带计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、电载波信号、电信信号以及软件分发介质等。需要说明的是,计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如,在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上实施例仅用以说明本公开的技术方案,而非对其限制;尽管参照前述实施例对本公开进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本公开各实施例技术方案的精神和范围,均应包含在本公开的保护范围之内。
Claims (10)
1.一种联合学习模型迭代更新方法,其特征在于,包括:
接收第一参与方发送的第一密钥和第一加密参数,以及第二参与方发送的第二加密参数;
根据所述第一加密参数、第二加密参数和所述第一密钥,计算得到加密概率值;
将所述加密概率值发送给所述第一参与方,以使所述第一参与方根据所述加密概率值和样本标签值,计算得到训练目标损失值;
接收所述训练目标损失值,根据所述训练目标损失值和所述第一加密参数、第二加密参数,计算更新梯度;
获取所述第一参与方发送的模型预测值和学习率,根据所述更新梯度、模型预测值和学习率,迭代更新其全局模型。
2.根据权利要求1所述的方法,其特征在于,所述根据所述第一加密参数、第二加密参数和所述第一密钥,计算得到加密概率值,包括:
根据所述第一加密参数和第二加密参数,计算得到模型预测概率值;
使用所述第一密钥对所述模型预测概率值进行加密,得到加密概率值。
3.根据权利要求1所述的方法,其特征在于,所述第一参与方根据所述加密概率值和样本标签值,计算得到训练目标损失值,包括:
所述第一参与方,使用第二密钥对所述加密概率值进行解密,得到解密概率值;
根据所述解密概率值和所述样本标签值,计算得到训练目标损失值。
4.根据权利要求1所述的方法,其特征在于,所述根据所述训练目标损失值和所述第一加密参数、第二加密参数,计算更新梯度,包括:
计算所述第一加密参数和第二加密参数的总和;
计算所述训练目标损失值对所述总和的偏导数,得到更新梯度。
5.根据权利要求1所述的方法,其特征在于,所述根据所述更新梯度、模型预测值和学习率,更新其全局模型,包括:
根据所述更新梯度、模型预测值和学习率,计算更新模型参数;
使用所述更新模型参数,迭代更新其全局模型。
6.根据权利要求1所述的方法,其特征在于,所述接收第二参与方发送的第二加密参数之前,还包括:
向所述第二参与方发送第一密钥,以使所述第二参与方根据其样本计算得到第二参数,并使用所述第一密钥对所述第二参数进行加密,得到第二加密参数。
7.根据权利要求1所述的方法,其特征在于,所述第一参与方发送的模型预测值之前,还包括:
接收第二参与方发送的预测阶段的加密参数;
根据所述训练目标损失值对其模型参数进行更新,获得更新模型,并使用所述更新模型对其样本进行预测,得到预测结果;
根据所述加密参数和预测结果,计算得到模型预测值。
8.一种联合学习模型迭代更新装置,其特征在于,包括:
参数接收模块,被配置为接收第一参与方发送的第一密钥和第一加密参数,以及第二参与方发送的第二加密参数;
概率计算模块,被配置为根据所述第一加密参数、第二加密参数和所述第一密钥,计算得到加密概率值;
损失计算模块,被配置为将所述加密概率值发送给所述第一参与方,以使所述第一参与方根据所述加密概率值和样本标签值,计算得到训练目标损失值;
梯度计算模块,被配置为接收所述训练目标损失值,根据所述训练目标损失值和所述第一加密参数、第二加密参数,计算更新梯度;
迭代更新模块,被配置为获取所述第一参与方发送的模型预测值和学习率,根据所述更新梯度、模型预测值和学习率,迭代更新其全局模型。
9.一种联合学习模型迭代更新系统,其特征在于,包括:第三方,分别与所述第三方通信连接的第一参与方、第二参与方,所述第一参与方和第二参与方通信连接;
所述第一参与方,被配置为向第三方发送第一密钥和第一加密参数;
所述第三方,被配置为接收第一参与方发送的第一密钥和第一加密参数,以及第二参与方发送的第二加密参数,根据所述第一加密参数、第二加密参数和所述第一密钥,计算得到加密概率值,将所述加密概率值发送给所述第一参与方;
所述第一参与方,还被配置为根据所述加密概率值和样本标签值,计算得到训练目标损失值,并将所述训练目标损失值返回所述第三方;
所述第三方,还被配置为根据所述训练目标损失值和所述第一加密参数、第二加密参数,计算更新梯度;
所述第一参与方,还被配置为接收第二参与方发送的预测阶段的加密参数,根据所述训练目标损失值对其模型参数进行更新,获得更新模型,并使用所述更新模型对其样本进行预测,得到预测结果,根据所述加密参数和预测结果,计算得到模型预测值,并将所述模型预测值和学习率发送给所述第三方;
所述第三方,还被配置为根据所述更新梯度、模型预测值和学习率,迭代更新其全局模型。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111656939.XA CN116415267A (zh) | 2021-12-30 | 2021-12-30 | 一种联合学习模型迭代更新方法、装置、系统及存储介质 |
PCT/CN2022/117818 WO2023124219A1 (zh) | 2021-12-30 | 2022-09-08 | 一种联合学习模型迭代更新方法、装置、系统及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111656939.XA CN116415267A (zh) | 2021-12-30 | 2021-12-30 | 一种联合学习模型迭代更新方法、装置、系统及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116415267A true CN116415267A (zh) | 2023-07-11 |
Family
ID=86997383
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111656939.XA Pending CN116415267A (zh) | 2021-12-30 | 2021-12-30 | 一种联合学习模型迭代更新方法、装置、系统及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN116415267A (zh) |
WO (1) | WO2023124219A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117675411A (zh) * | 2024-01-31 | 2024-03-08 | 智慧眼科技股份有限公司 | 一种基于纵向XGBoost算法的全局模型获取方法及系统 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109165725B (zh) * | 2018-08-10 | 2022-03-29 | 深圳前海微众银行股份有限公司 | 基于迁移学习的神经网络联邦建模方法、设备及存储介质 |
CN109165515A (zh) * | 2018-08-10 | 2019-01-08 | 深圳前海微众银行股份有限公司 | 基于联邦学习的模型参数获取方法、系统及可读存储介质 |
CN111125735B (zh) * | 2019-12-20 | 2021-11-02 | 支付宝(杭州)信息技术有限公司 | 一种基于隐私数据进行模型训练的方法及系统 |
CN111178547B (zh) * | 2020-04-10 | 2020-07-17 | 支付宝(杭州)信息技术有限公司 | 一种基于隐私数据进行模型训练的方法及系统 |
CN112926073A (zh) * | 2021-03-17 | 2021-06-08 | 深圳前海微众银行股份有限公司 | 联邦学习建模优化方法、设备、介质及计算机程序产品 |
-
2021
- 2021-12-30 CN CN202111656939.XA patent/CN116415267A/zh active Pending
-
2022
- 2022-09-08 WO PCT/CN2022/117818 patent/WO2023124219A1/zh unknown
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117675411A (zh) * | 2024-01-31 | 2024-03-08 | 智慧眼科技股份有限公司 | 一种基于纵向XGBoost算法的全局模型获取方法及系统 |
CN117675411B (zh) * | 2024-01-31 | 2024-04-26 | 智慧眼科技股份有限公司 | 一种基于纵向XGBoost算法的全局模型获取方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
WO2023124219A1 (zh) | 2023-07-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112183730B (zh) | 一种基于共享学习的神经网络模型的训练方法 | |
US20210409191A1 (en) | Secure Machine Learning Analytics Using Homomorphic Encryption | |
CN112380578A (zh) | 一种基于区块链和可信执行环境的边缘计算框架 | |
US20200372394A1 (en) | Machine learning with differently masked data in secure multi-party computing | |
CN112818374A (zh) | 一种模型的联合训练方法、设备、存储介质及程序产品 | |
Lyu et al. | Towards fair and decentralized privacy-preserving deep learning with blockchain | |
WO2024093426A1 (zh) | 基于联邦机器学习的模型训练方法和装置 | |
CN111581648B (zh) | 在不规则用户中保留隐私的联邦学习的方法 | |
CN113420886B (zh) | 纵向联邦学习模型的训练方法、装置、设备及存储介质 | |
CN107659579A (zh) | 一种现场存证方法、设备及相关存证系统 | |
Bandaru et al. | Block chain enabled auditing with optimal multi‐key homomorphic encryption technique for public cloud computing environment | |
CN113051586B (zh) | 联邦建模系统及方法、联邦模型预测方法、介质、设备 | |
CN116415267A (zh) | 一种联合学习模型迭代更新方法、装置、系统及存储介质 | |
CN116502732B (zh) | 基于可信执行环境的联邦学习方法以及系统 | |
CN117540426A (zh) | 基于同态加密和联邦学习的能源电力数据共享方法及装置 | |
CN117034287A (zh) | 基于隐私计算互联互通技术的多方联合建模安全增强方法 | |
CN117349685A (zh) | 一种通信数据的聚类方法、系统、终端及介质 | |
CN117150550A (zh) | 隐私保护联邦学习方法、装置、电子设备及存储介质 | |
CN116865938A (zh) | 基于秘密共享和同态加密的多服务器联邦学习方法 | |
CN113992393B (zh) | 用于纵向联邦学习的模型更新的方法、设备、系统和介质 | |
CN116384461A (zh) | 基于联合学习的模型优化训练方法及装置 | |
CN116108505A (zh) | 一种基于联盟链的教育资源共享安全屋方法 | |
Saraswathy et al. | Secure data storage and access for fish monitoring in cloud environment | |
CN113362168A (zh) | 一种风险预测方法及装置、存储介质及电子设备 | |
CN115580496B (zh) | 无需第三方的隐私计算下逻辑回归训练方法、系统及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |