CN113516256B - 基于秘密共享、同态加密的无第三方联邦学习方法及系统 - Google Patents

基于秘密共享、同态加密的无第三方联邦学习方法及系统 Download PDF

Info

Publication number
CN113516256B
CN113516256B CN202111071812.1A CN202111071812A CN113516256B CN 113516256 B CN113516256 B CN 113516256B CN 202111071812 A CN202111071812 A CN 202111071812A CN 113516256 B CN113516256 B CN 113516256B
Authority
CN
China
Prior art keywords
secret
local gradient
calculator
regression
local
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111071812.1A
Other languages
English (en)
Other versions
CN113516256A (zh
Inventor
黄一珉
王湾湾
冯新宇
何浩
姚明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Dongjian Intelligent Technology Co ltd
Original Assignee
Shenzhen Dongjian Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Dongjian Intelligent Technology Co ltd filed Critical Shenzhen Dongjian Intelligent Technology Co ltd
Priority to CN202111071812.1A priority Critical patent/CN113516256B/zh
Publication of CN113516256A publication Critical patent/CN113516256A/zh
Application granted granted Critical
Publication of CN113516256B publication Critical patent/CN113516256B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/602Providing cryptographic facilities or services

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Bioethics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本申请实施例提供了一种基于秘密共享、同态加密的无第三方联邦学习方法及系统,在训练模型过程中,各参与方通过秘密分享模型训练的中间结果,并将本方获得的秘密以同态加密的形式交互给其他参与方,进行模型训练,最终指定结果方获得模型训练的最终结果,实现了无可信第三方机构的联邦学习中模型的训练。并且,由于仅秘密分享模型训练的中间结果,相比于基于MPC的无可信第三方联邦学习方案中将原始样本数据和模型参数进行拆分并秘密共享的方式,大大降低了系统资源的消耗,以及通信复杂度。

Description

基于秘密共享、同态加密的无第三方联邦学习方法及系统
技术领域
本申请涉及机器学习技术领域,特别是涉及一种基于秘密共享、同态加密的无第三方联邦学习方法及系统。
背景技术
当今,大数据驱动的人工智能技术已经广泛应用于金融、零售、医疗等领域。为了得到更好效果的模型,往往需要大量数据的支撑,而现实中数据往往分布于不同的机构。
不同领域的数据往往存在着很大的互补性,不同组织间有很大的数据融合需求。然而基于隐私保护、自身利益和政策监管等因素考虑,各组织间很难将数据进行直接聚合。
在传统的联合建模方式中,样本数据需要被归集到某一方或第三方特定环境中,在这个过程中,多方数据有脱离私域的安全合规风险。
如何解决第三方可信风险问题,是隐私计算在实际落地应用的新挑战,业界已有的解决方案通常是基于MPC(Secure Muti-party Computation,安全多方计算)底层协议,设计无可信第三方方案。MPC协议在理论上只需要计算参与方之间的信息交互,不需要第三方介入,因此可以在MPC基础算子和函数算子之上实现协同机器学习,达成联邦学习效果,并规避第三方可信风险问题。
目前基于MPC的方案中,通常采用秘密共享协议,将原始样本数据和模型参数进行拆分并秘密共享给其他参与方,秘态下进行模型训练。因为样本数据量的巨大,其导致资源消耗和通讯消耗也会巨大,且会破坏原始数据的稀疏性(例如,原始数据如果是0的话,拆分为两个随机数a、b,满足a+b=0,则a和b都不会是0了)。这也会增加很多没必要的计算。
可见,受限于MPC协议的复杂度和性能瓶颈,基于MPC的无可信第三方联邦学习方案所消耗的系统资源较多、通信复杂度较高。
发明内容
本申请实施例的目的在于提供一种基于秘密共享、同态加密的无第三方联邦学习方法及系统,以实现在不依赖第三方机构,保护参与方隐私数据的前提下,完成纵向联邦学习中回归模型的训练,且降低了系统资源的消耗和通信复杂度。具体技术方案如下:
为实现上述目的,本申请实施例提供了一种基于秘密共享、同态加密的无第三方联邦学习方法,所述方法包括:
各个数据提供方基于本方存储的第一特征、第一特征参数进行第一内积运算,将运算得到的第一内积秘密共享至第一计算方和第二计算方;其中,所述第一特征是预先从样本用户的第一行为数据中提取的;所述第一计算方为数据需求方;所述第二计算方是预先从多个数据提供方中选取的;
所述数据需求方基于本方存储的第二特征、第二特征参数进行第二内积运算,将运算得到的第二内积,以及本方存储的目标标签秘密共享至所述第一计算方和所述第二计算方;其中,所述第二特征是预先从所述样本用户的第二行为数据中提取的;
所述第一计算方基于第一内积的第一秘密、第二内积的第一秘密和目标标签的第一秘密,按照预设回归模型的回归算法计算第一回归结果,基于本方生成的公钥对所述第一回归结果进行同态加密,将同态加密的第一回归结果发送至其他参与方;
所述第二计算方基于第一内积的第二秘密、第二内积的第二秘密和目标标签的第二秘密,按照预设回归模型的回归算法计算第二回归结果,基于本方生成的公钥对所述第二回归结果进行同态加密,将同态加密的第二回归结果发送至其他参与方;
所述第一计算方基于所述第一回归结果和本方存储的数据特征,计算本方梯度的第一秘密,并基于所接收的同态加密的第二回归结果、本方存储的数据特征,加密计算本方梯度的第二秘密;
所述第二计算方基于所述第二回归结果和本方存储的数据特征,计算本方梯度的第一秘密,并基于所接收的同态加密的第一回归结果、本方存储的数据特征,加密计算本方梯度的第二秘密;
除所述第二计算方之外的其他数据提供方,基于接收的同态加密的第一回归结果、同态加密的第二回归结果和本方存储的数据特征,加密计算本方梯度的第一秘密和第二秘密;
所述第一计算方在本方梯度的第一秘密基础上增加第一随机掩码,得到本方梯度的新的第一秘密,将同态加密下本方梯度的第二秘密减去所述第一随机掩码,得到同态加密下本方梯度的新的第二秘密,将同态加密下本方梯度的新的第二秘密发送至所述第二计算方;
所述第二计算方在本方梯度的第一秘密基础上增加第二随机掩码,得到本方梯度的新的第一秘密,将同态加密下本方梯度的第二秘密减去所述第二随机掩码,得到同态加密下本方梯度的新的第二秘密,将同态加密下本方梯度的新的第二秘密发送至所述第一计算方;
除所述第二计算方之外的其他数据提供方,在本方梯度的第一秘密基础上增加第三随机掩码,得到同态加密下本方梯度的第一秘密,并将同态加密下本方梯度的第一秘密发送至所述第一计算方;在本方梯度的第二秘密基础上增加第四随机掩码,得到同态加密下本方梯度的第二秘密,将同态加密下本方梯度的第二秘密发送至所述第二计算方;基于所述第三随机掩码和所述第四随机掩码生成本方梯度的第三秘密;
所述第一计算方对其他参与方发送的同态加密下的秘密进行同态解密,并将同态解密结果反馈至对应的参与方;所述第二计算方对其他参与方发送的同态加密下的秘密进行同态解密,并将同态解密结果反馈至对应的参与方;
所述第一计算方基于本方梯度的新的第一秘密,以及所述第二计算方反馈的同态解密后本方梯度的第二秘密,恢复本方梯度,并基于本方梯度更新本方特征参数;
所述第二计算方基于本方梯度的新的第一秘密,以及所述第一计算方反馈的同态解密后的本方梯度的第二秘密,恢复本方梯度,并基于本方梯度更新本方特征参数;
除所述第二计算方之外的其他数据提供方,基于所述第一计算方反馈的同态解密后本方梯度的第一秘密、所述第二计算方反馈的同态解密后本方梯度的第二秘密、以及本方梯度的第三秘密,恢复本方梯度,并基于本方梯度更新本方特征参数;
判断是否满足模型训练的终止条件,若满足,则将各参与方当前的特征参数确定为训练完成后的特征参数;若不满足,返回所述各个数据提供方基于本方存储的第一特征、第一特征参数进行第一内积运算的步骤。
可选的,所述第一内积包括各个数据提供方的第一额外内积结果;
所述第二内积包括各个数据需求方的第二额外内积结果;
所述方法还包括:
所述第一计算方基于同态解密恢复的第一额外内积结果、第二额外内积结果和预设损失计算公式,计算模型损失值。
可选的,所述判断是否满足模型训练的终止条件的步骤,包括:
判断模型训练的迭代次数是否达到阈值,或者所述模型损失值是否小于预设损失值;
若模型训练的迭代次数达到阈值,或者所述模型损失值小于预设损失值,则满足模型训练的终止条件。
可选的,所述预设回归模型为广义线性回归,所述回归模型包括:
线性回归、逻辑回归、泊松回归、伽马回归或Tweedie回归。
为实现上述目的,本申请实施例提供了一种基于秘密共享、同态加密的无第三方联邦学习系统,所述系统包括:一个数据需求方和多个数据提供方;
各个数据提供方,用于基于本方存储的第一特征、第一特征参数进行第一内积运算,将运算得到的第一内积秘密共享至第一计算方和第二计算方;其中,所述第一特征是预先从样本用户的第一行为数据中提取的;所述第一计算方为数据需求方;所述第二计算方是预先从多个数据提供方中选取的;
所述数据需求方,用于基于本方存储的第二特征、第二特征参数进行第二内积运算,将运算得到的第二内积,以及本方存储的目标标签秘密共享至所述第一计算方和所述第二计算方;其中,所述第二特征是预先从所述样本用户的第二行为数据中提取的;
所述第一计算方,用于基于第一内积的第一秘密、第二内积的第一秘密和目标标签的第一秘密,按照预设回归模型的回归算法计算第一回归结果,基于本方生成的公钥对所述第一回归结果进行同态加密,将同态加密的第一回归结果发送至其他参与方;
所述第二计算方,用于基于第一内积的第二秘密、第二内积的第二秘密和目标标签的第二秘密,按照预设回归模型的回归算法计算第二回归结果,基于本方生成的公钥对所述第二回归结果进行同态加密,将同态加密的第二回归结果发送至其他参与方;
所述第一计算方,还用于基于所述第一回归结果和本方存储的数据特征,计算本方梯度的第一秘密,并基于所接收的同态加密的第二回归结果、本方存储的数据特征,加密计算本方梯度的第二秘密;
所述第二计算方,还用于基于所述第二回归结果和本方存储的数据特征,计算本方梯度的第一秘密,并基于所接收的同态加密的第一回归结果、本方存储的数据特征,加密计算本方梯度的第二秘密;
除所述第二计算方之外的其他数据提供方,还用于基于接收的同态加密的第一回归结果、同态加密的第二回归结果和本方存储的数据特征,加密计算本方梯度的第一秘密和第二秘密;
所述第一计算方,还用于在本方梯度的第一秘密基础上增加第一随机掩码,得到本方梯度的新的第一秘密,将同态加密下本方梯度的第二秘密减去所述第一随机掩码,得到同态加密下本方梯度的新的第二秘密,将同态加密下本方梯度的新的第二秘密发送至所述第二计算方;
所述第二计算方,还用于在本方梯度的第一秘密基础上增加第二随机掩码,得到本方梯度的新的第一秘密,将同态加密下本方梯度的第二秘密减去所述第二随机掩码,得到同态加密下本方梯度的新的第二秘密,将同态加密下本方梯度的新的第二秘密发送至所述第一计算方;
除所述第二计算方之外的其他数据提供方,还用于在本方梯度的第一秘密基础上增加第三随机掩码,得到同态加密下本方梯度的第一秘密,并将同态加密下本方梯度的第一秘密发送至所述第一计算方;在本方梯度的第二秘密基础上增加第四随机掩码,得到同态加密下本方梯度的第二秘密,将同态加密下本方梯度的第二秘密发送至所述第二计算方;基于所述第三随机掩码和所述第四随机掩码生成本方梯度的第三秘密;
所述第一计算方,还用于对其他参与方发送的同态加密下的秘密进行同态解密,并将同态解密结果反馈至对应的参与方;所述第二计算方对其他参与方发送的同态加密下的秘密进行同态解密,并将同态解密结果反馈至对应的参与方;
所述第一计算方,还用于基于本方梯度的新的第一秘密,以及所述第二计算方反馈的同态解密后本方梯度的第二秘密,恢复本方梯度,并基于本方梯度更新本方特征参数;
所述第二计算方,还用于基于本方梯度的新的第一秘密,以及所述第一计算方反馈的同态解密后的本方梯度的第二秘密,恢复本方梯度,并基于本方梯度更新本方特征参数;
除所述第二计算方之外的其他数据提供方,还用于基于所述第一计算方反馈的同态解密后本方梯度的第一秘密、所述第二计算方反馈的同态解密后本方梯度的第二秘密、以及本方梯度的第三秘密,恢复本方梯度,并基于本方梯度更新本方特征参数;
所述第一计算方,还用于判断是否满足模型训练的终止条件,若满足,则将各参与方当前的特征参数确定为训练完成后的特征参数;若不满足,返回所述各个数据提供方基于本方存储的第一特征、第一特征参数进行第一内积运算的步骤。
可选的,所述第一内积包括各个数据提供方的第一额外内积结果;
所述第二内积包括各个数据需求方的第二额外内积结果;
所述第一计算方,还用于基于秘密共享状态下的第一额外内积结果、第二额外内积结果和预设损失计算公式,计算模型损失值。
可选的,所述预设回归模型为广义线性回归,所述回归模型包括:
线性回归、逻辑回归、泊松回归、伽马回归或Tweedie回归。
本申请实施例有益效果:
采用本申请实施例提供的基于秘密共享、同态加密的无第三方联邦学习方法及系统,在训练模型过程中,各参与方通过秘密分享模型训练的中间结果,如特征数据与特征参数的内积,而非原始样本数据,并将本方获得的秘密以同态加密的形式交互给其他参与方,进行后续的模型训练,最终指定结果方获得模型训练的最终结果,实现了无可信第三方机构的联邦学习中模型的训练。并且,由于仅秘密分享模型训练的中间结果,相比于基于MPC的无可信第三方联邦学习方案中将原始样本数据和模型参数进行拆分并秘密共享的方式,大大降低了系统资源的消耗,以及通信复杂度。
当然,实施本申请的任一产品或方法并不一定需要同时达到以上所述的所有优点。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的实施例。
图1为本申请实施例提供的基于秘密共享、同态加密的无第三方联邦学习方法的一种流程示意图;
图2为本申请实施例提供的基于秘密共享、同态加密的无第三方联邦学习方法的一种示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员基于本申请所获得的所有其他实施例,都属于本申请保护的范围。
为了解决现有技术中基于MPC的无可信第三方联邦学习方案消耗系统资源较多、通信复杂度较高的技术问题,本申请实施例提供了一种基于秘密共享、同态加密的无第三方联邦学习方法及系统。
参见图1,图1为本申请实施例提供的基于秘密共享、同态加密的无第三方联邦学习方法的一种流程示意图,方法可以包括以下步骤:
S101:各个数据提供方基于本方存储的第一特征、第一特征参数进行第一内积运算,将运算得到的第一内积秘密共享至第一计算方和第二计算方;其中,第一特征是预先从样本用户的第一行为数据中提取的;第一计算方为数据需求方;第二计算方是预先从多个数据提供方中选取的。
本申请实施例提供的基于秘密共享、同态加密的无第三方联邦学习方法涉及数据需求方和一个或多个数据提供方。其中,数据提供方表示持有样本用户的一部分特征的电子设备,数据需求方表示持有样本用户的另一部分特征以及样本用户的目标标签的电子设备。数据提供方和数据需求方通常属于不同的机构。
本申请实施例中,每个数据提供方可以预先从样本用户的第一行为数据中提取第一特征。第一行为数据可以表示样本用户在数据提供方所属机构的行为所产生的数据,例如在电商公司交易产生的交易类数据。并且,数据提供方持有第一特征对应的第一特征参数。
数据需求方也可以预先从样本用户的第二行为数据中提取第二特征。第二行为数据可以表示样本用户在数据需求方所属机构的行为所产生的数据,例如在银行贷款所产生的贷款类数据。数据需求方也持有第二特征对应的第二特征参数,此外,数据需求方还持有样本用户的目标标签。
本申请实施例提供的基于秘密共享、同态加密的无第三方联邦学习方法可以应用于金融、推荐、广告等领域。
作为一个示例,在金融领域,银行与电商公司合作进行金融欺诈行为的识别。电商公司作为数据提供方,银行作为数据需求方,样本用户是电商公司和银行公有的用户,例如可以是小微企业。电商公司可以持有样本用户的交易类数据,例如订单量等数据,并根据交易类数据提取出第一特征;银行可以持有样本用户的贷款类数据,例如贷款金额,或者持有样本用户的企业数据,例如成立年限、企业规模等,并从贷款类数据、企业数据中提取出第二特征。并且,银行作为数据需求方,还持有样本用户的目标标签,该目标标签可以为该样本用户是否存在金融欺诈行为等数据。
则采用本申请实施例提供的基于秘密共享、同态加密的无第三方联邦学习方法,可以根据第一特征、第二特征以及样本用户的标签训练回归模型,即更新回归模型中的特征参数,训练好的回归模型可用于预测。
承接上例,本申请提供的基于秘密共享、同态加密的无第三方联邦学习方法可以训练用于预测用户是否存在金融欺诈行为的联邦学习模型,该联邦学习模型的输入为数据提供方持有的样本用户的交易类数据、数据需求方持有的样本用户的贷款类数据或企业数据、以及数据需求方持有的样本用户的目标标签,该目标标签可以为该样本用户是否存在金融欺诈行为。则模型的每一轮训练过程中,各参与方在加密机制下计算联邦学习模型中参数的梯度,根据梯度更新模型参数。当达到模型训练的终止条件后,联邦学习模型可以根据目标用户的交易类数据、目标用户的贷款类数据或企业数据,预测目标用户是否存在金融欺诈行为。
本步骤中,各个数据提供方可以基于本方存储的第一特征、第一特征参数进行第一内积运算。
本申请实施例中,回归模型可以是线性回归、逻辑回归、泊松回归、伽马回归、Tweedie回归等。
其中,内积运算的具体运算方法,可以根据回归模型确定。例如,对于线性回归,第一特征和第一特征参数的乘积作为第一内积运算结果;对于泊松回归,在第一特征与第一特征参数的乘积基础上,进行指数运算,作为第一内积运算结果。
本申请实施例中,各数据提供方运算得到第一内积后,将其秘密共享至第一计算方和第二计算方。其中,第一计算方是数据需求方,第二计算方是预先从多个数据提供方中选取的。
S102:数据需求方基于本方存储的第二特征、第二特征参数进行第二内积运算,将运算得到的第二内积,以及本方存储的目标标签秘密共享至第一计算方和第二计算方;其中,第二特征是预先从样本用户的第二行为数据中提取的。
S103:第一计算方基于第一内积的第一秘密、第二内积的第一秘密和目标标签的第一秘密,按照预设回归模型的回归算法计算第一回归结果,基于本方生成的公钥对第一回归结果进行同态加密,将同态加密的第一回归结果发送至其他参与方。
本申请实施例中,回归结果用d表示,由于第一计算方仅持有第一内积的第一秘密、第二内积的第一秘密和目标标签的第一秘密,因此只能计算得到回归结果的第一部分秘密,记为第一回归结果,用d1表示。
其中,不同回归模型的回归算法也有所区别。
作为一个示例,以A、B和C三方作为参与方为例,下面列出了不同回归模型的回归算法,其中,d表示回归结果,A方的特征参数为
Figure 950868DEST_PATH_IMAGE001
,模型参数为
Figure 997322DEST_PATH_IMAGE002
;B方的特征参数为
Figure 310491DEST_PATH_IMAGE003
,模型参数为
Figure 682567DEST_PATH_IMAGE004
;C方的特征参数为
Figure 331721DEST_PATH_IMAGE005
,模型参数为
Figure 650707DEST_PATH_IMAGE006
;目标标签记为y。
Figure 552804DEST_PATH_IMAGE007
在计算第一回归结果后,基于本方生成的公钥对第一回归结果进行同态加密,将同态加密的第一回归结果发送至其他参与方。本申请中,不存在额外的第三方,即数据需求方和各个数据提供方构成所有的参与方,则对于第一计算方,其他参与方也就是各个数据提供方。
S104:第二计算方基于第一内积的第二秘密、第二内积的第二秘密和目标标签的第二秘密,按照预设回归模型的回归算法计算第二回归结果,基于本方生成的公钥对第二回归结果进行同态加密,将同态加密的第二回归结果发送至其他参与方。
相应的,由于第二计算方仅持有第一内积的第二秘密、第二内积的第二秘密和目标标签的第二秘密,因此只能计算得到回归结果的第二部分秘密,记为第二回归结果,用d2表示。
第二计算方在计算第二回归结果后,基于本方生成的公钥对第二回归结果进行同态加密,将同态加密的第二回归结果发送至其他参与方。对于第二计算方,其他参与方也就是数据需求方和除第二计算方之外的其他数据提供方。
S105:第一计算方基于第一回归结果和本方存储的数据特征,计算本方梯度的第一秘密,并基于所接收的同态加密的第二回归结果、本方存储的数据特征,加密计算本方梯度的第二秘密。
本申请实施例中,回归结果与数据特征的乘积即为梯度,由于第一计算方持有的第一回归结果为明文数据,而第二回归结果是基于第二计算方的公钥加密的密文数据,因此第一计算方可以基于第一回归结果计算本方梯度的第一部分的明文秘密,记为本方梯度的第一秘密,同时可以在同态加密下计算本方梯度的第二部分的密文秘密,记为本方梯度的第二秘密。
S106:第二计算方基于第二回归结果和本方存储的数据特征,计算本方梯度的第一秘密,并基于所接收的同态加密的第一回归结果、本方存储的数据特征,加密计算本方梯度的第二秘密。
相应的,由于第二计算方持有的第二回归结果为明文数据,而第一回归结果是基于第一计算方的公钥加密的密文数据,因此第二计算方可以基于第二回归结果计算本方梯度的第一部分的明文秘密,记为本方梯度的第一秘密,同时可以在同态加密下计算本方梯度的第二部分的密文秘密,记为本方梯度的第二秘密。
S107:除第二计算方之外的其他数据提供方,基于接收的同态加密的第一回归结果、同态加密的第二回归结果和本方存储的数据特征,加密计算本方梯度的第一秘密和第二秘密。
本申请实施例中,除第二计算方之外的其他数据提供方也就是非计算方。对于每一非计算方,接收第一计算方发送的同态加密下的第一回归结果,并接收第二计算方发送的同态加密下的第二回归结果。对于非计算方,第一回归结果和第二回归结果均为密文数据,因此非计算方基于同态加密下的第一回归结果,加密计算本方梯度的第一秘密;且基于同态加密下第二回归结果,加密计算本方梯度的第二秘密。
S108:第一计算方在本方梯度的第一秘密基础上增加第一随机掩码,得到本方梯度的新的第一秘密,将同态加密下本方梯度的第二秘密减去第一随机掩码,得到同态加密下本方梯度的新的第二秘密,将同态加密下本方梯度的新的第二秘密发送至第二计算方。
本申请实施例中,为了保护梯度的秘密不被其他参与方获知,第一计算方可以在本方梯度的第一秘密基础上增加第一随机掩码,得到本方梯度的新的第一秘密。
其中,第一随机掩码可以是随机数。
同时,将同态加密下本方梯度的第二秘密减去第一随机掩码,得到同态加密下本方梯度的新的第二秘密,将其发送至第二计算方。
S109:第二计算方在本方梯度的第一秘密基础上增加第二随机掩码,得到本方梯度的新的第一秘密,将同态加密下本方梯度的第二秘密减去第二随机掩码,得到同态加密下本方梯度的新的第二秘密,将同态加密下本方梯度的新的第二秘密发送至第一计算方。
相应的,本申请实施例中,为了保护梯度的秘密不被其他参与方获知,第二计算方可以在本方梯度的第一秘密基础上增加第二随机掩码,得到本方梯度的新的第一秘密。
同时,将同态加密下本方梯度的第二秘密减去第二随机掩码,得到同态加密下本方梯度的新的第二秘密,将其发送至第一计算方。
S110:除第二计算方之外的其他数据提供方,在本方梯度的第一秘密基础上增加第三随机掩码,得到同态加密下本方梯度的第一秘密,并将同态加密下本方梯度的第一秘密发送至第一计算方;在本方梯度的第二秘密基础上增加第四随机掩码,得到同态加密下本方梯度的第二秘密,将同态加密下本方梯度的第二秘密发送至第二计算方;基于第三随机掩码和第四随机掩码生成本方梯度的第三秘密。
本申请实施例中,除第二计算方之外的其他数据提供方也就是非计算方。对于每一非计算方,为了保护梯度的秘密不被其他参与方获知,在本方梯度的第一秘密基础上增加第三随机掩码,得到同态加密下本方梯度的第一秘密,由于该第一秘密是基于第一计算方的公钥加密的,因此将其发送至第一计算方;
在本方梯度的第二秘密基础上增加第四随机掩码,得到同态加密下本方梯度的第二秘密,由于该第二秘密是基于第二计算方的公钥加密的,因此将其发送至第二计算方。
此外,基于第三随机掩码和第四随机掩码生成本方梯度的第三秘密。例如,将第三随机掩码和第四随机掩码之和取相反数,作为本方梯度的第三秘密,以保证同态解密后本方梯度的第一秘密、同态解密后本方梯度的第二秘密和本方梯度的第三秘密之和为本方梯度。
S111:第一计算方对其他参与方发送的同态加密下的秘密进行同态解密,并将同态解密结果反馈至对应的参与方;第二计算方对其他参与方发送的同态加密下的秘密进行同态解密,并将同态解密结果反馈至对应的参与方。
本申请实施例中,第一计算方收到的其他参与方发送的同态加密下的秘密,均是基于第一计算方的公钥加密的,因此第一计算方可以基于本方持有的同态加密的私钥,对收到的其他参与方发送的同态加密下的秘密进行同态解密,并将解密结果反馈至对应的参与方。
相应的,第二计算方收到的其他参与方发送的同态加密下的秘密,均是基于第二计算方的公钥加密的,因此第二计算方可以基于本方持有的同态加密的私钥,对收到的其他参与方发送的同态加密下的秘密进行同态解密,并将解密结果反馈至对应的参与方。
S112:第一计算方基于本方梯度的新的第一秘密,以及第二计算方反馈的同态解密后本方梯度的第二秘密,恢复本方梯度,并基于本方梯度更新本方特征参数。
具体的,第一计算方将本方梯度的新的第一秘密,与第二计算方反馈的同态解密后本方梯度的第二秘密相加,即可得到本方梯度,进而根据本方梯度更新本方特征参数。其中,根据梯度更新模型中特征参数的过程,可以参见相关技术,例如采用梯度下降法更新特征参数。
S113:第二计算方基于本方梯度的新的第一秘密,以及第一计算方反馈的同态解密后的本方梯度的第二秘密,恢复本方梯度,并基于本方梯度更新本方特征参数。
相应的,第二计算方将本方梯度的新的第一秘密,与第一计算方反馈的同态解密后本方梯度的第二秘密相加,即可得到本方梯度,进而根据本方梯度更新本方特征参数。
S114:除第二计算方之外的其他数据提供方,基于第一计算方反馈的同态解密后本方梯度的第一秘密、第二计算方反馈的同态解密后本方梯度的第二秘密、以及本方梯度的第三秘密,恢复本方梯度,并基于本方梯度更新本方特征参数。
本申请实施例中,除第二计算方之外的其他数据提供方,将第一计算方反馈的同态解密后本方梯度的第一秘密、第二计算方反馈的同态解密后本方梯度的第二秘密以及本方梯度的第三秘密相加,即可得到本方梯度,进而根据本方梯度更新本方特征参数。
S115:判断是否满足模型训练的终止条件,若满足,则将各参与方当前的特征参数确定为训练完成后的特征参数;若不满足,返回各个数据提供方基于本方存储的第一特征、第一特征参数进行第一内积运算的步骤。
本申请实施例中,在每轮迭代训练后,判断是否满足模型训练的终止条件,若满足,则认为模型训练完成,将各参与方当前的特征参数确定为训练完成后的特征参数。
若不满足,返回S101步骤,即进入下一轮迭代训练。
可见,采用本申请实施例提供的基于秘密共享、同态加密的无第三方联邦学习方法,在训练模型过程中,各参与方秘密共享模型训练的中间结果,如特征数据与特征参数的内积,而非原始样本数据,并将本方获得的秘密以同态加密的形式交互给其他参与方,进行后续的模型训练,直到模型训练完成,实现了无可信第三方机构的联邦学习中模型的训练。并且,由于仅秘密分享模型训练的中间结果,相比于基于MPC的无可信第三方联邦学习方案中将原始样本数据和模型参数进行拆分并秘密共享的方式,大大降低了系统资源的消耗,大大降低了通信复杂度。
在本申请的一种实施例中,第一内积包括各个数据提供方的第一额外内积结果;第二内积包括各个数据需求方的第二额外内积结果,其中第一额外内积和第二额外内积均是用于计算模型损失值的内积。
也就是说,各个数据提供方基于本方存储的第一特征、第一特征参数进行内积运算时,还计算得到第一额外内积结果,并将其秘密共享至第一计算方和第二计算方;数据需求方基于本方存储的第二特征、第二特征参数进行第二内积运算时,还计算得到第二额外内积结果,并将其秘密共享至第一计算方和第二计算方。从而结合预设损失计算公式,进行秘密共享状态下的模型损失值计算,并恢复损失值明文至第一计算方。
对于不同的回归模型,模型损失值的计算方式有所不同,上述额外内积结果也不相同。
作为一个示例,以A、B和C三方作为参与方为例,下面列出了不同回归模型的模型损失值的计算公式,其中,loss表示模型损失值,A方的特征参数为
Figure 361360DEST_PATH_IMAGE008
,模型参数为
Figure 217583DEST_PATH_IMAGE009
;B方的特征参数为
Figure 340260DEST_PATH_IMAGE010
,模型参数为
Figure 96863DEST_PATH_IMAGE011
;C方的特征参数为
Figure 76320DEST_PATH_IMAGE012
,模型参数为
Figure 183954DEST_PATH_IMAGE013
;目标标签记为y,m表示样本数量,p为tweedie回归中的超参数。
Figure 343277DEST_PATH_IMAGE014
为了便于理解,下面结合图2对本申请实施例提供的基于秘密共享、同态加密的无第三方联邦学习方法进行进一步说明。
作为一个示例,A、B和C三方作为参与方,A和B为数据提供方,C为数据需求方,即C方是第一计算方,预先选择B方作为第二计算方。
则如图2所示,本申请实施例提供的基于秘密共享、同态加密的无第三方联邦学习方法可以包括以下细化步骤:
首先,A、B、C三方初始化本方模型参数,并各自本地计算本方模型参数和本方特征数据的内积。其中,A方的特征参数为
Figure 954387DEST_PATH_IMAGE008
,模型参数为
Figure 370325DEST_PATH_IMAGE009
;B方的特征参数为
Figure 902937DEST_PATH_IMAGE010
,模型参数为
Figure 164155DEST_PATH_IMAGE011
;C方的特征参数为
Figure 396815DEST_PATH_IMAGE012
,模型参数为
Figure 718075DEST_PATH_IMAGE013
;C方作为数据需求方,额外持有目标标签,记为y。
随后,A方将本方的第一内积秘密共享至两个计算方,即C方和B方,C方得到第一内积的第一秘密,B方得到第一内积的第二秘密;同时B方将本方的第一内积秘密共享至两个计算方,C方得到第一内积的第一秘密,B方得到第一内积的第二秘密。同时,C方将本方的第二内积和目标标签秘密共享至两个计算方,即C方和B方,C方得到第二内积和目标标签的第一秘密,B方得到第二内积和目标标签的第二秘密。
随后,B、C两个计算方各自本地计算各方参数内积秘密和标签秘密的数学运算结果,也就是回归结果。
由于B方和C方各自持有第一内积、第二内积和目标标签的一部分秘密,因此只能分别计算得到回归结果的一部分秘密,将回归结果的两部分秘密分别记为第一回归结果和第二回归结果。设C方计算的第一回归结果为d1,B方计算的第二回归结果为d2。
随后,B、C两个计算方各自生成同态加密的公私钥,并用公钥将本地计算的回归结果进行同态加密,将加密后的结果发送给其他参与方。
其中,
Figure 737984DEST_PATH_IMAGE015
表示采用C方的公钥进行同态加密的第一回归结果,
Figure 802891DEST_PATH_IMAGE016
表示采用B方的公钥进行同态加密的第二回归结果。
随后,各计算方(B方和C方)本地明文计算本方梯度的秘密,并接收另一计算方的加密中间结果,加密计算本方梯度的另一秘密,获得加密后的本方梯度的另一秘密。
其中,
Figure 591856DEST_PATH_IMAGE017
表示C方梯度的第一部分秘密,是明文形式的。
Figure 588412DEST_PATH_IMAGE018
表示基于B方公钥进行同态加密下的C方梯度的第二部分秘密。
Figure 892354DEST_PATH_IMAGE019
表示B方梯度的第二部分秘密,是明文形式的。
Figure 698636DEST_PATH_IMAGE020
表示基于C方公钥进行同态加密下的B方梯度的第一部分秘密。
Figure 404424DEST_PATH_IMAGE021
表示基于C方公钥进行同态加密下的A方梯度的第一部分秘密,
Figure 568951DEST_PATH_IMAGE022
表示基于B方公钥进行同态加密下的A方梯度的第二部分秘密。
随后,各计算方
Figure 360190DEST_PATH_IMAGE022
分别生成随机数,将本方梯度的秘密加上该随机数作为本方梯度的新秘密,并将加密后的另一秘密减去该随机数后的结果作为本方梯度的另一新秘密,将该另一新秘密发送至另一计算方。
如图2所示,C方生成的随机数为
Figure 704583DEST_PATH_IMAGE023
,则
Figure 264878DEST_PATH_IMAGE017
+
Figure 98842DEST_PATH_IMAGE023
表示C方梯度的新秘密,
Figure 875911DEST_PATH_IMAGE024
表示基于B方公钥进行同态加密的C方梯度的另一新秘密,由于该部分是基于B方公钥加密的密文数据,因此,将其发送至B方。
相应的,B方生成的随机数为
Figure 23996DEST_PATH_IMAGE025
,则
Figure 704376DEST_PATH_IMAGE019
+
Figure 709241DEST_PATH_IMAGE025
表示B方梯度的新秘密,
Figure 412755DEST_PATH_IMAGE026
表示基于C方公钥进行同态加密的B方梯度的另一新秘密,由于该部分是基于C方公钥加密的密文数据,因此,将其发送至C方。
此外,非计算方(A)方在同态加密下计算本方梯度的秘密,
Figure 662733DEST_PATH_IMAGE021
表示基于C方公钥进行同态加密的A方梯度的第一秘密,
Figure 197619DEST_PATH_IMAGE022
表示基于B方公钥进行同态加密的A方梯度的第二秘密。
随后,A方生成两个随机数,将本方梯度的两个秘密分别减去这两个随机数,获得本方梯度的两个加密新秘密,将其分别发送至两个拥有其解密私钥的计算方,即B方和C方,并将两个随机数的和作为本方梯度的本方秘密。
如图2所示,A方生成两个随机数分别为
Figure 311069DEST_PATH_IMAGE027
Figure 564196DEST_PATH_IMAGE028
,则
Figure 343496DEST_PATH_IMAGE027
+
Figure 936152DEST_PATH_IMAGE028
表示A方梯度的新的一部分秘密,是明文形式的,
Figure 548399DEST_PATH_IMAGE029
表示基于B方公钥进行同态加密下A方梯度的新的第二部分秘密,A方将其发送至B方;
Figure 23242DEST_PATH_IMAGE030
表示基于C方公钥进行同态加密下A方梯度的新的第一部分秘密,A方将其发送至C方。
各计算方(B方和C方)基于本方持有的私钥对其他参与方发送的加密秘密进行同态解密,并将解密结果反馈至各参与方,该解密结果为参与方的梯度与该参与方生成的随机数之差。
从而,各参与方可以基于本方生成的随机数,以及计算方反馈的解密结果,恢复出本方梯度,并利用恢复出的梯度进行本方的特征参数更新。
如图2所示,C方基于
Figure 51241DEST_PATH_IMAGE013
=
Figure 62185DEST_PATH_IMAGE013
Figure 579754DEST_PATH_IMAGE031
,更新C方特征参数;B方基于
Figure 745156DEST_PATH_IMAGE011
=
Figure 639163DEST_PATH_IMAGE011
Figure 737569DEST_PATH_IMAGE032
,更新B方特征参数;A方基于
Figure 127836DEST_PATH_IMAGE009
=
Figure 842851DEST_PATH_IMAGE009
Figure 9391DEST_PATH_IMAGE033
,更新A方特征参数。其中α表示梯度下降法中的学习率,可以理解为沿着梯度方向一次下降的步长。
可见,在训练模型过程中,各参与方通过秘密分享模型训练的中间结果,如特征数据与特征参数的内积,而非原始样本数据,并将本方获得的秘密以同态加密的形式交互给其他参与方,进行后续的模型训练,最终指定结果方获得模型训练的最终结果,实现了无可信第三方机构的联邦学习中模型的训练。并且,由于仅秘密分享模型训练的中间结果,相比于基于MPC的无可信第三方联邦学习方案中将原始样本数据和模型参数进行拆分并秘密共享的方式,大大降低了系统资源的消耗,以及通信复杂度。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于基于秘密共享、同态加密的无第三方联邦学习系统实施例而言,由于其基本相似于基于秘密共享、同态加密的无第三方联邦学习方法实施例,所以描述的比较简单,相关之处参见基于秘密共享、同态加密的无第三方联邦学习方法实施例的部分说明即可。
以上所述仅为本申请的较佳实施例,并非用于限定本申请的保护范围。凡在本申请的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本申请的保护范围内。

Claims (7)

1.一种基于秘密共享、同态加密的无第三方联邦学习方法,其特征在于,所述方法包括:
各个数据提供方基于本方存储的第一特征、第一特征参数进行第一内积运算,将运算得到的第一内积秘密共享至第一计算方和第二计算方;其中,所述第一特征是预先从样本用户的第一行为数据中提取的;所述第一计算方为数据需求方;所述第二计算方是预先从多个数据提供方中选取的;
所述数据需求方基于本方存储的第二特征、第二特征参数进行第二内积运算,将运算得到的第二内积,以及本方存储的目标标签秘密共享至所述第一计算方和所述第二计算方;其中,所述第二特征是预先从所述样本用户的第二行为数据中提取的;
所述第一计算方基于第一内积的第一秘密、第二内积的第一秘密和目标标签的第一秘密,按照预设回归模型的回归算法计算第一回归结果,基于本方生成的公钥对所述第一回归结果进行同态加密,将同态加密的第一回归结果发送至其他参与方;
所述第二计算方基于第一内积的第二秘密、第二内积的第二秘密和目标标签的第二秘密,按照预设回归模型的回归算法计算第二回归结果,基于本方生成的公钥对所述第二回归结果进行同态加密,将同态加密的第二回归结果发送至其他参与方;
所述第一计算方基于所述第一回归结果和本方存储的数据特征,计算本方梯度的第一秘密,并基于所接收的同态加密的第二回归结果、本方存储的数据特征,加密计算本方梯度的第二秘密;
所述第二计算方基于所述第二回归结果和本方存储的数据特征,计算本方梯度的第一秘密,并基于所接收的同态加密的第一回归结果、本方存储的数据特征,加密计算本方梯度的第二秘密;
除所述第二计算方之外的其他数据提供方,基于接收的同态加密的第一回归结果、同态加密的第二回归结果和本方存储的数据特征,加密计算本方梯度的第一秘密和第二秘密;
所述第一计算方在本方梯度的第一秘密基础上增加第一随机掩码,得到本方梯度的新的第一秘密,将同态加密下本方梯度的第二秘密减去所述第一随机掩码,得到同态加密下本方梯度的新的第二秘密,将同态加密下本方梯度的新的第二秘密发送至所述第二计算方;
所述第二计算方在本方梯度的第一秘密基础上增加第二随机掩码,得到本方梯度的新的第一秘密,将同态加密下本方梯度的第二秘密减去所述第二随机掩码,得到同态加密下本方梯度的新的第二秘密,将同态加密下本方梯度的新的第二秘密发送至所述第一计算方;
除所述第二计算方之外的其他数据提供方,在本方梯度的第一秘密基础上增加第三随机掩码,得到同态加密下本方梯度的第一秘密,并将同态加密下本方梯度的第一秘密发送至所述第一计算方;在本方梯度的第二秘密基础上增加第四随机掩码,得到同态加密下本方梯度的第二秘密,将同态加密下本方梯度的第二秘密发送至所述第二计算方;基于所述第三随机掩码和所述第四随机掩码生成本方梯度的第三秘密;
所述第一计算方对其他参与方发送的同态加密下的秘密进行同态解密,并将同态解密结果反馈至对应的参与方;所述第二计算方对其他参与方发送的同态加密下的秘密进行同态解密,并将同态解密结果反馈至对应的参与方;
所述第一计算方基于本方梯度的新的第一秘密,以及所述第二计算方反馈的同态解密后本方梯度的第二秘密,恢复本方梯度,并基于本方梯度更新本方特征参数;
所述第二计算方基于本方梯度的新的第一秘密,以及所述第一计算方反馈的同态解密后的本方梯度的第二秘密,恢复本方梯度,并基于本方梯度更新本方特征参数;
除所述第二计算方之外的其他数据提供方,基于所述第一计算方反馈的同态解密后本方梯度的第一秘密、所述第二计算方反馈的同态解密后本方梯度的第二秘密、以及本方梯度的第三秘密,恢复本方梯度,并基于本方梯度更新本方特征参数;
判断是否满足模型训练的终止条件,若满足,则将各参与方当前的特征参数确定为训练完成后的特征参数;若不满足,返回所述各个数据提供方基于本方存储的第一特征、第一特征参数进行第一内积运算的步骤。
2.根据权利要求1所述的方法,其特征在于,
所述第一内积包括各个数据提供方的第一额外内积结果;
所述第二内积包括各个数据需求方的第二额外内积结果;
所述方法还包括:
所述第一计算方基于秘密共享状态下的第一额外内积结果、第二额外内积结果和预设损失计算公式,计算模型损失值。
3.根据权利要求1或2所述的方法,其特征在于,所述判断是否满足模型训练的终止条件的步骤,包括:
判断模型训练的迭代次数是否达到阈值,或者所述模型损失值是否小于预设损失值;
若模型训练的迭代次数达到阈值,或者所述模型损失值小于预设损失值,则满足模型训练的终止条件。
4.根据权利要求1所述的方法,其特征在于,所述预设回归模型为广义线性回归,所述回归模型包括:
线性回归、逻辑回归、泊松回归、伽马回归或Tweedie回归。
5.一种基于秘密共享、同态加密的无第三方联邦学习系统,其特征在于,所述系统包括:一个数据需求方和多个数据提供方;
各个数据提供方,用于基于本方存储的第一特征、第一特征参数进行第一内积运算,将运算得到的第一内积秘密共享至第一计算方和第二计算方;其中,所述第一特征是预先从样本用户的第一行为数据中提取的;所述第一计算方为数据需求方;所述第二计算方是预先从多个数据提供方中选取的;
所述数据需求方,用于基于本方存储的第二特征、第二特征参数进行第二内积运算,将运算得到的第二内积,以及本方存储的目标标签秘密共享至所述第一计算方和所述第二计算方;其中,所述第二特征是预先从所述样本用户的第二行为数据中提取的;
所述第一计算方,用于基于第一内积的第一秘密、第二内积的第一秘密和目标标签的第一秘密,按照预设回归模型的回归算法计算第一回归结果,基于本方生成的公钥对所述第一回归结果进行同态加密,将同态加密的第一回归结果发送至其他参与方;
所述第二计算方,用于基于第一内积的第二秘密、第二内积的第二秘密和目标标签的第二秘密,按照预设回归模型的回归算法计算第二回归结果,基于本方生成的公钥对所述第二回归结果进行同态加密,将同态加密的第二回归结果发送至其他参与方;
所述第一计算方,还用于基于所述第一回归结果和本方存储的数据特征,计算本方梯度的第一秘密,并基于所接收的同态加密的第二回归结果、本方存储的数据特征,加密计算本方梯度的第二秘密;
所述第二计算方,还用于基于所述第二回归结果和本方存储的数据特征,计算本方梯度的第一秘密,并基于所接收的同态加密的第一回归结果、本方存储的数据特征,加密计算本方梯度的第二秘密;
除所述第二计算方之外的其他数据提供方,还用于基于接收的同态加密的第一回归结果、同态加密的第二回归结果和本方存储的数据特征,加密计算本方梯度的第一秘密和第二秘密;
所述第一计算方,还用于在本方梯度的第一秘密基础上增加第一随机掩码,得到本方梯度的新的第一秘密,将同态加密下本方梯度的第二秘密减去所述第一随机掩码,得到同态加密下本方梯度的新的第二秘密,将同态加密下本方梯度的新的第二秘密发送至所述第二计算方;
所述第二计算方,还用于在本方梯度的第一秘密基础上增加第二随机掩码,得到本方梯度的新的第一秘密,将同态加密下本方梯度的第二秘密减去所述第二随机掩码,得到同态加密下本方梯度的新的第二秘密,将同态加密下本方梯度的新的第二秘密发送至所述第一计算方;
除所述第二计算方之外的其他数据提供方,还用于在本方梯度的第一秘密基础上增加第三随机掩码,得到同态加密下本方梯度的第一秘密,并将同态加密下本方梯度的第一秘密发送至所述第一计算方;在本方梯度的第二秘密基础上增加第四随机掩码,得到同态加密下本方梯度的第二秘密,将同态加密下本方梯度的第二秘密发送至所述第二计算方;基于所述第三随机掩码和所述第四随机掩码生成本方梯度的第三秘密;
所述第一计算方,还用于对其他参与方发送的同态加密下的秘密进行同态解密,并将同态解密结果反馈至对应的参与方;所述第二计算方对其他参与方发送的同态加密下的秘密进行同态解密,并将同态解密结果反馈至对应的参与方;
所述第一计算方,还用于基于本方梯度的新的第一秘密,以及所述第二计算方反馈的同态解密后本方梯度的第二秘密,恢复本方梯度,并基于本方梯度更新本方特征参数;
所述第二计算方,还用于基于本方梯度的新的第一秘密,以及所述第一计算方反馈的同态解密后的本方梯度的第二秘密,恢复本方梯度,并基于本方梯度更新本方特征参数;
除所述第二计算方之外的其他数据提供方,还用于基于所述第一计算方反馈的同态解密后本方梯度的第一秘密、所述第二计算方反馈的同态解密后本方梯度的第二秘密、以及本方梯度的第三秘密,恢复本方梯度,并基于本方梯度更新本方特征参数;
所述第一计算方,还用于判断是否满足模型训练的终止条件,若满足,则将各参与方当前的特征参数确定为训练完成后的特征参数;若不满足,返回所述各个数据提供方基于本方存储的第一特征、第一特征参数进行第一内积运算的步骤。
6.根据权利要求5所述的系统,其特征在于,
所述第一内积包括各个数据提供方的第一额外内积结果;
所述第二内积包括各个数据需求方的第二额外内积结果;
所述第一计算方,还用于基于秘密共享状态下的第一额外内积结果、第二额外内积结果和预设损失计算公式,计算模型损失值。
7.根据权利要求5所述的系统,其特征在于,所述预设回归模型为广义线性回归,所述回归模型包括:
线性回归、逻辑回归、泊松回归、伽马回归或Tweedie回归。
CN202111071812.1A 2021-09-14 2021-09-14 基于秘密共享、同态加密的无第三方联邦学习方法及系统 Active CN113516256B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111071812.1A CN113516256B (zh) 2021-09-14 2021-09-14 基于秘密共享、同态加密的无第三方联邦学习方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111071812.1A CN113516256B (zh) 2021-09-14 2021-09-14 基于秘密共享、同态加密的无第三方联邦学习方法及系统

Publications (2)

Publication Number Publication Date
CN113516256A CN113516256A (zh) 2021-10-19
CN113516256B true CN113516256B (zh) 2021-12-03

Family

ID=78063225

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111071812.1A Active CN113516256B (zh) 2021-09-14 2021-09-14 基于秘密共享、同态加密的无第三方联邦学习方法及系统

Country Status (1)

Country Link
CN (1) CN113516256B (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111428276B (zh) * 2020-03-19 2022-08-02 腾讯科技(深圳)有限公司 一种数据处理的方法、装置、设备和介质
CN114726496B (zh) * 2022-03-07 2023-10-03 电子科技大学 一种安全的应用于纵向联邦学习的特征选择方法
CN114282257B (zh) * 2022-03-08 2022-07-15 富算科技(上海)有限公司 联邦学习代码生成方法、装置、电子设备及存储介质
CN114330759B (zh) * 2022-03-08 2022-08-02 富算科技(上海)有限公司 一种纵向联邦学习模型的训练方法及系统
CN114584285B (zh) * 2022-05-05 2022-07-29 深圳市洞见智慧科技有限公司 安全多方处理方法及相关设备
CN115225264A (zh) * 2022-06-17 2022-10-21 上海富数科技有限公司广州分公司 一种安全多方计算方法、装置、电子设备及存储介质
CN115409095B (zh) * 2022-08-17 2023-04-07 北京融数联智科技有限公司 多方泊松回归隐私计算模型训练方法、装置和存储介质
CN115632761B (zh) * 2022-08-29 2023-06-23 哈尔滨工业大学(深圳) 基于秘密共享的多用户分布式隐私保护回归方法及装置
CN115510466B (zh) * 2022-09-28 2024-03-05 北京瑞莱智慧科技有限公司 密文预测方法、相关装置及存储介质
CN116187433B (zh) * 2023-04-28 2023-09-29 蓝象智联(杭州)科技有限公司 基于秘密分享的联邦拟牛顿训练方法、装置及存储介质
CN116886271B (zh) * 2023-09-07 2023-11-21 蓝象智联(杭州)科技有限公司 一种用于纵向联邦XGboost模型训练的梯度聚合方法
CN117648999B (zh) * 2024-01-30 2024-04-23 上海零数众合信息科技有限公司 联邦学习回归模型损失函数评估方法、装置及电子设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111241567A (zh) * 2020-01-16 2020-06-05 深圳前海微众银行股份有限公司 基于秘密共享的纵向联邦学习方法、系统及存储介质
CN111600707A (zh) * 2020-05-15 2020-08-28 华南师范大学 一种在隐私保护下的去中心化联邦机器学习方法
US11017322B1 (en) * 2021-01-28 2021-05-25 Alipay Labs (singapore) Pte. Ltd. Method and system for federated learning
CN113037460A (zh) * 2021-03-03 2021-06-25 北京工业大学 基于同态加密和秘密共享的联邦学习隐私保护方法
CN113239391A (zh) * 2021-07-13 2021-08-10 深圳市洞见智慧科技有限公司 一种无第三方的逻辑回归联邦学习模型训练系统及方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112182595B (zh) * 2019-07-03 2024-03-26 北京百度网讯科技有限公司 基于联邦学习的模型训练方法及装置
CN111860829A (zh) * 2020-06-19 2020-10-30 光之树(北京)科技有限公司 联邦学习模型的训练方法及装置
CN112906912A (zh) * 2021-04-01 2021-06-04 深圳市洞见智慧科技有限公司 纵向联邦学习中无可信第三方的回归模型训练方法及系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111241567A (zh) * 2020-01-16 2020-06-05 深圳前海微众银行股份有限公司 基于秘密共享的纵向联邦学习方法、系统及存储介质
CN111600707A (zh) * 2020-05-15 2020-08-28 华南师范大学 一种在隐私保护下的去中心化联邦机器学习方法
US11017322B1 (en) * 2021-01-28 2021-05-25 Alipay Labs (singapore) Pte. Ltd. Method and system for federated learning
CN113037460A (zh) * 2021-03-03 2021-06-25 北京工业大学 基于同态加密和秘密共享的联邦学习隐私保护方法
CN113239391A (zh) * 2021-07-13 2021-08-10 深圳市洞见智慧科技有限公司 一种无第三方的逻辑回归联邦学习模型训练系统及方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Model Optimization Method Based on Vertical Federated Learning;Kuihe Yang et.al;《2021 IEEE International Symposium on Circuits and Systems (ISCAS)》;IEEE;20210427;第1-5页 *
基于秘密共享与同态加密的纵向联邦学习方案研究;夏家骏 等;《信息通信技术与政策》;20210615;第19-26页 *

Also Published As

Publication number Publication date
CN113516256A (zh) 2021-10-19

Similar Documents

Publication Publication Date Title
CN113516256B (zh) 基于秘密共享、同态加密的无第三方联邦学习方法及系统
Perifanis et al. Federated neural collaborative filtering
WO2021197037A1 (zh) 双方联合进行数据处理的方法及装置
Li et al. Privacy-preserving-outsourced association rule mining on vertically partitioned databases
WO2020015478A1 (zh) 基于模型的预测方法和装置
Azad et al. PrivBox: Verifiable decentralized reputation system for online marketplaces
CN114401079B (zh) 多方联合信息价值计算方法、相关设备及存储介质
CN105103487A (zh) 用于基于矩阵分解的到评级贡献用户的隐私保护推荐的方法和系统
CN111723404A (zh) 联合训练业务模型的方法及装置
CN109214201A (zh) 一种数据共享方法、终端设备及计算机可读存储介质
CN113221153B (zh) 图神经网络训练方法、装置、计算设备及存储介质
WO2022156594A1 (zh) 联邦模型训练方法、装置、电子设备、计算机程序产品及计算机可读存储介质
CN114186263B (zh) 一种基于纵向联邦学习的数据回归方法及电子装置
Pennekamp et al. Revisiting the privacy needs of real-world applicable company benchmarking
Kumar et al. Overview of information security using genetic algorithm and chaos
CN114462626B (zh) 联邦模型训练方法、装置、终端设备以及存储介质
Sumaryanti et al. Improvement security in e-business systems using hybrid algorithm
Wang et al. A flexible and privacy-preserving federated learning framework based on logistic regression
CN115580496B (zh) 无需第三方的隐私计算下逻辑回归训练方法、系统及装置
CN113378198B (zh) 一种保护用户标识的模型的联邦训练系统、方法及装置
Venkatesh Kumar et al. A privacy preservation data collection and access control using entropy-based conic curve
CN115426206B (zh) 一种基于同态加密技术的图反欺诈能力赋能的方法及系统
Ren et al. Application: Privacy, Security, Robustness and Trustworthiness in Edge AI
Mishra et al. Management Information Systems
Kumar et al. Help Me Invest: Investment Tools and Security Risks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant