CN112818369A - 一种联合建模方法及装置 - Google Patents
一种联合建模方法及装置 Download PDFInfo
- Publication number
- CN112818369A CN112818369A CN202110185478.6A CN202110185478A CN112818369A CN 112818369 A CN112818369 A CN 112818369A CN 202110185478 A CN202110185478 A CN 202110185478A CN 112818369 A CN112818369 A CN 112818369A
- Authority
- CN
- China
- Prior art keywords
- modeling
- modeling node
- encryption
- node
- evaluation result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 79
- 238000011156 evaluation Methods 0.000 claims abstract description 171
- 238000012549 training Methods 0.000 claims abstract description 47
- 230000008569 process Effects 0.000 claims abstract description 41
- 238000004422 calculation algorithm Methods 0.000 claims description 12
- 238000012804 iterative process Methods 0.000 claims description 8
- 230000004044 response Effects 0.000 claims description 6
- 238000003860 storage Methods 0.000 claims description 2
- 239000000126 substance Substances 0.000 claims description 2
- 238000012512 characterization method Methods 0.000 claims 1
- 238000010801 machine learning Methods 0.000 abstract description 3
- 239000003999 initiator Substances 0.000 description 22
- 238000004364 calculation method Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 238000012545 processing Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 6
- 238000004590 computer program Methods 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 230000004931 aggregating effect Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/602—Providing cryptographic facilities or services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Bioethics (AREA)
- Computer Hardware Design (AREA)
- Medical Informatics (AREA)
- Computer Security & Cryptography (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Machine Translation (AREA)
Abstract
本发明实施例涉及机器学习领域,尤其涉及一种联合建模方法及装置,用以在保护多方计算过程中数据安全性的基础上,提高模型训练效率和准确性。本发明实施例包括:第一建模节点基于联邦学习模型,确定第一特征数据的第一输出结果,并将第一输出结果加密后得到的第一加密输出结果向各第二建模节点发送;第一建模节点接收各第二建模节点发送的第二加密评估结果;第一建模节点根据第一标签数据以及各第二加密评估结果,确定联邦学习模型的总加密评估结果,并将总加密评估结果解密得到总模型评估结果;第一建模节点将总加密评估结果解密后得到总评估结果,确定更新梯度值,并基于更新梯度值更新该迭代过程中第一建模节点的第一模型参数。
Description
技术领域
本发明涉及机器学习领域,尤其涉及一种联合建模方法及装置。
背景技术
联邦学习是一个机器学习框架,能帮助不同机构在满足用户隐私保护、数据安全和政府法规的要求下,进行数据联合使用和建模。具体地说,联邦学习要解决这样一个问题:在企业各自数据不出本地的前提下,通过加密机制下的参数交换与优化,建立一个虚拟的共有模型。这个共有模型的性能类似于将各方数据聚合到一块训练出来的模型。该数据联合建模方案不泄露用户隐私且符合数据安全保护的原则。
现有方案中,只能由建模发起方提供标签数据并发起建模,数据参与方只提供特征数据,建模发起方时常因标签数据(Y值)数量不足导致难以建立有效的模型,需要其他参与方补充标签数据(Y值)以扩充样本数量,而这些标签信息往往具有较高的商业价值,各参与方并不愿意直接将Y值明文共享。
这样,当建模发起方标签信息较少时,无法有效地补充其他参与方的标签信息,造成数据中的样本数量偏少,难以建立有效的联邦学习模型,影响建模效果。
发明内容
本申请提供一种联合建模方法及装置,用以解决联合建模的过程中样本数量偏少,难以建立有效的联邦学习模型的问题,提高联邦学习模型的准确性。
本发明实施例提供的一种联合建模方法,其中,多个建模节点包括第一建模节点以及至少一个第二建模节点,所述第一建模节点存有联邦学习模型的第一特征数据和第一标签数据,所述第二建模节点拥有各自的第二特征数据和各自的第二标签数据;
所述第一建模节点以及每个第二建模节点经过至少一次迭代训练过程训练所述联邦学习模型,直至迭代终止条件到达时,所述第一建模节点获得所述联邦学习模型的第一模型参数以及各第二建模节点分别获得各自的所述联邦学习模型的第二模型参数,其中每次迭代训练过程,包括:
所述第一建模节点基于所述联邦学习模型,确定所述第一特征数据的第一输出结果,并将所述第一输出结果加密后得到的第一加密输出结果向各第二建模节点发送;
所述第一建模节点接收各第二建模节点发送的第二加密评估结果;各第二加密评估结果是各第二建模节点至少将各自加密后的第二输出结果、各自加密后的第二标签数据、以及所述第一加密输出结果进行同态运算得到,所述第二输出结果为各第二建模节点将基于所述联邦学习模型以及各自的第二特征数据确定的;
所述第一建模节点根据所述第一标签数据以及各第二加密评估结果,确定所述联邦学习模型的总加密评估结果,并将所述总加密评估结果解密得到总模型评估结果;
所述第一建模节点将所述总加密评估结果解密后得到总评估结果,根据所述总评估结果和所述第一特征数据确定该次迭代训练过程的更新梯度值,并基于所述更新梯度值更新该迭代过程中所述第一建模节点的所述第一模型参数。
可选的,所述第一建模节点基于所述联邦学习模型,确定所述第一特征数据的第一输出结果之后,还包括:
所述第一建模节点接收各第二建模节点发送的第二加密输出结果;第二加密输出结果为各第二建模节点将基于所述联邦学习模型以及各自的第二特征数据确定的第二输出结果进行加密得到的;
所述第一建模节点将加密后的第一输出结果、加密后的第一标签数据、以及各第二加密输出结果进行同态运算,得到第一加密评估结果;
所述第一建模节点将所述第一加密评估结果向各第二建模节点发送,以使各第二建模节点至少基于所述第一加密评估结果以及各自的第二标签数据确定所述联邦学习模型的总加密评估结果。
可选的,所述第一建模节点基于所述联邦学习模型,确定所述第一特征数据的第一输出结果,并对所述第一输出结果加密得到第一加密输出结果之前,还包括:
所述第一建模节点生成用于同态加密的第一私钥和第一公钥;
所述第一建模节点向各第二建模节点发送所述第一公钥,并接收各第二建模节点发送的各第二公钥。
可选的,所述将所述第一输出结果加密后得到的第一加密输出结果向各第二建模节点发送,包括:
所述第一建模节点利用所述第一私钥加密所述第一输出结果,得到所述第一加密输出结果,并将所述第一加密输出结果向各第二建模节点发送;
所述第一建模节点根据所述第一标签数据以及各第二加密评估结果,确定所述联邦学习模型的总加密评估结果,包括:
所述第一建模节点利用所述第一私钥对所述第一标签数据进行加密;
所述第一建模节点对加密后的第一标签数据以及各第二加密评估结果进行同态运算,得到所述联邦学习模型的总加密评估结果;
所述第一建模节点将所述总加密评估结果解密后得到总评估结果,包括:
所述第一建模节点利用所述第一私钥对所述总加密评估结果进行解密后得到总评估结果。
可选的,所述第一建模节点接收各第二建模节点发送的第二加密输出结果之后,所述第一建模节点将加密后的第一输出结果、加密后的第一标签数据、以及各第二加密输出结果进行同态运算,得到第一加密评估结果之前,包括:
所述第一建模节点利用各第二公钥分别加密所述第一输出结果以及所述第一标签数据。
可选的,所述第一建模节点基于所述联邦学习模型,确定所述第一特征数据的第一输出结果,并对所述第一输出结果加密得到第一加密输出结果之前,还包括:
所述第一建模节点向各第二建模节点发送联邦学习模型训练请求,所述联邦学习模型训练请求中包含所述联邦学习模型的算法以及初始模型参数;
所述第一建模节点接收各第二建模节点反馈的联邦学习模型训练响应。
本发明实施例还提供一种联合建模装置,多个建模节点包括第一建模节点以及至少一个第二建模节点,所述第一建模节点存有联邦学习模型的第一特征数据和第一标签数据,所述第二建模节点拥有各自的第二特征数据和各自的第二标签数据;
所述第一建模节点以及每个第二建模节点经过至少一次迭代训练过程训练所述联邦学习模型,直至迭代终止条件到达时,所述第一建模节点获得所述联邦学习模型的第一模型参数以及各第二建模节点分别获得各自的所述联邦学习模型的第二模型参数,所述装置部署于所述第一计算节点,所述联合建模装置包括确定单元、收发单元、评估单元以及更新单元;
其中每次迭代训练过程,所述确定单元用于:基于所述联邦学习模型,确定所述第一特征数据的第一输出结果;
所述收发单元用于:将所述第一输出结果加密后得到的第一加密输出结果向各第二建模节点发送;接收各第二建模节点发送的第二加密评估结果;各第二加密评估结果是各第二建模节点至少将各自加密后的第二输出结果、各自加密后的第二标签数据、以及所述第一加密输出结果进行同态运算得到,所述第二输出结果为各第二建模节点将基于所述联邦学习模型以及各自的第二特征数据确定的;
所述评估单元用于:根据所述第一标签数据以及各第二加密评估结果,确定所述联邦学习模型的总加密评估结果,并将所述总加密评估结果解密得到总模型评估结果;
所述更新单元用于:将所述总加密评估结果解密后得到总评估结果,根据所述总评估结果和所述第一特征数据确定该次迭代训练过程的更新梯度值,并基于所述更新梯度值更新该迭代过程中所述第一建模节点的所述第一模型参数。
可选的,所述收发单元还用于:接收各第二建模节点发送的第二加密输出结果;第二加密输出结果为各第二建模节点将基于所述联邦学习模型以及各自的第二特征数据确定的第二输出结果进行加密得到的;
所述评估单元还用于:将加密后的第一输出结果、加密后的第一标签数据、以及各第二加密输出结果进行同态运算,得到第一加密评估结果;
所述收发单元还用于:将所述第一加密评估结果向各第二建模节点发送,以使各第二建模节点至少基于所述第一加密评估结果以及各自的第二标签数据确定所述联邦学习模型的总加密评估结果。
可选的,所述确定单元还用于:生成用于同态加密的第一私钥和第一公钥;
所述收发单元还用于:向各第二建模节点发送所述第一公钥,并接收各第二建模节点发送的各第二公钥。
可选的,所述确定单元,还用于:利用所述第一私钥加密所述第一输出结果,得到所述第一加密输出结果;
所述收发单元还用于:将所述第一加密输出结果向各第二建模节点发送;
所述评估单元具体用于:利用所述第一私钥对所述第一标签数据进行加密;对加密后的第一私钥以及各第二加密评估结果进行同态运算,得到所述联邦学习模型的总加密评估结果;利用所述第一私钥对所述总加密评估结果进行解密后得到总评估结果。
可选的,所述评估单元具体用于:利用各第二公钥分别加密所述第一输出结果以及所述第一标签数据。
可选的,所述收发单元还用于:
向各第二建模节点发送联邦学习模型训练请求,所述联邦学习模型训练请求中包含所述联邦学习模型的算法以及初始模型参数;
接收各第二建模节点反馈的联邦学习模型训练响应。
本发明实施例还提供一种电子设备,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如上所述的方法。
本发明实施例还提供一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令用于使所述计算机执行如上所述的方法。
本发明实施例的联合建模系统的多个建模节点中包括第一建模节点以及至少一个第二建模节点,其中,第一建模节点为多个建模节点中的任一节点,第一建模节点存有联邦学习模型的第一特征数据和第一标签数据,第二建模节点拥有各自的第二特征数据和各自的第二标签数据。第一建模节点以及每个第二建模节点经过至少一次迭代训练过程训练联邦学习模型,直至迭代终止条件到达时,第一建模节点获得所述联邦学习模型的第一模型参数以及各第二建模节点分别获得各自的联邦学习模型的第二模型参数。
其中每次迭代训练过程,包括:第一建模节点基于联邦学习模型,确定第一特征数据的第一输出结果,并将第一输出结果加密后得到的第一加密输出结果向各第二建模节点发送。第一建模节点接收各第二建模节点发送的第二加密评估结果。其中,各第二加密评估结果是各第二建模节点至少将各自加密后的第二输出结果、各自加密后的第二标签数据、以及第一加密输出结果进行同态运算得到;第二输出结果为各第二建模节点将基于联邦学习模型以及各自的第二特征数据确定的。第一建模节点根据第一标签数据以及各第二加密评估结果,确定联邦学习模型的总加密评估结果,并将总加密评估结果解密得到总模型评估结果。第一建模节点将总加密评估结果解密后得到总评估结果,根据总评估结果和第一特征数据确定该次迭代训练过程的更新梯度值,并基于更新梯度值更新该迭代过程中第一建模节点的第一模型参数。
本发明实施例中的第一建模节点接收的第二加密评估结果,为各第二建模节点将各自加密后的第二输出结果、各自加密后的第二标签数据以及第一加密输出结果进行同态运算得到的。也就是说,第二建模节点对第二标签数据加密后进行同态运算并发送至第一建模节点,可以在保证标签数据安全的前提下,有效补充第一建模节点的标签信息,从而增加了节点中数据中正样本数量,改善了联邦模型的训练效果。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简要介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为现有技术中一种联合建模方法的流程示意图;
图2为本发明实施例提供的一种可能的系统构架的结构示意图;
图3为本发明实施例提供的一种联合建模方法的流程示意图;
图4为本发明具体实施例提供的一种联合建模方法的流程示意图;
图5为本发明实施例提供的一种联合建模装置的结构示意图;
图6为本发明实施例提供的电子设备的结构示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步地详细描述,显然,所描述的实施例仅仅是本发明一部份实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
近些年来,金融机构希望融合各方的数据资源优化自身的应用模型,然而考虑到数据隐私泄露风险一直无法展开数据合作。为了打破数据孤岛,机构在进行跨机构数据合作时开始采用一种基于联邦学习技术的解决方案,其主要实现如下:数据提供方将自身特征数据(X值)加密后传送给建模发起方,在密文状态下进行计算,各参与方之间交互中间结果,计算出最终梯度后再发回给每个参与方进行模型更新,不断循环直到模型收敛。
现有的技术方案的流程如图1所示,包括:
唯一建模发起方创建建模任务请求,各参与方按照算法协议传递数据加密所需的秘钥,一般地采用同态加密等隐私计算加密算法进行数据处理。
各数据提供方按照算法协议将数据进行加密处理后传递给建模发起方,建模发起方基于密文进行数据计算,并将计算结果返还给各数据提供方。
各数据提供方对传递回来的中间结果基于密文进行计算,得到密文状态下的梯度信息,添加随机掩码后发送给梯度整合方。
梯度整合方接收数据后将数据进行解密,将梯度进行整合后返回给建模发起方和数据提供方,并更根据损失信息判断模型是否收敛,一般地梯度整合方可以由建模发起方或者可信第三方担任。
现有方案只能由建模发起方提供标签信息并发起建模,数据参与方只能提供特征信息,当建模发起方标签信息较少时,无法有效地补充其他参与方的标签信息,造成数据中的正样本数量偏少,难以建立有效的联邦模型,影响建模效果。
为了解决上述问题,本发明实施例提供了一种联合建模方法,如图2所示,为本发明实施例中联合建模方法所适用的一种系统架构,包括第一建模节点服务器101以及多个第二建模节点服务器102。
第一建模节点服务器101可以是计算机等网络设备。第一建模节点服务器101可以是一个独立的设备,也可以是多个服务器所形成的服务器集群。优选地,第一建模节点服务器101可以采用云计算技术进行信息处理。第二建模节点服务器102可以是一个独立的设备,也可以是多个服务器所形成的服务器集群。优选地,第一建模节点服务器101可以采用云计算技术进行信息处理。
第二建模节点服务器102可以通过INTERNET网络与第一建模节点服务器101进行通信,也可以通过全球移动通信系统(Global System for Mobile Communications,简称GSM)、长期演进(long term evolution,简称LTE)系统等移动通信系统与第一建模节点服务器101进行通信。
基于上述架构,本发明实施例提供了一种联合建模方法,应用于多个建模节点组成的系统,多个建模节点包括第一建模节点以及至少一个第二建模节点,第一建模节点存有联邦学习模型的第一特征数据和第一标签数据,第二建模节点拥有各自的第二特征数据和各自的第二标签数据。
第一建模节点以及每个第二建模节点经过至少一次迭代训练过程训练联邦学习模型,直至迭代终止条件到达时,第一建模节点获得联邦学习模型的第一模型参数以及各第二建模节点分别获得各自的联邦学习模型的第二模型参数,其中每次迭代训练过程,如图3所示,包括:
步骤301、所述第一建模节点基于所述联邦学习模型,确定所述第一特征数据的第一输出结果,并将所述第一输出结果加密后得到的第一加密输出结果向各第二建模节点发送。
步骤302、所述第一建模节点接收各第二建模节点发送的第二加密评估结果;各第二加密评估结果是各第二建模节点至少将各自加密后的第二输出结果、各自加密后的第二标签数据、以及所述第一加密输出结果进行同态运算得到,所述第二输出结果为各第二建模节点将基于所述联邦学习模型以及各自的第二特征数据确定的。
步骤303、所述第一建模节点根据所述第一标签数据以及各第二加密评估结果,确定所述联邦学习模型的总加密评估结果,并将所述总加密评估结果解密得到总模型评估结果。
步骤304、所述第一建模节点将所述总加密评估结果解密后得到总评估结果,根据所述总评估结果和所述第一特征数据确定该次迭代训练过程的更新梯度值,并基于所述更新梯度值更新该迭代过程中所述第一建模节点的所述第一模型参数。
上述第一建模节点接收的第二加密评估结果,为各第二建模节点将各自加密后的第二输出结果、各自加密后的第二标签数据以及第一加密输出结果进行同态运算得到的。也就是说,第二建模节点对第二标签数据加密后进行同态运算并发送至第一建模节点,可以在保证标签数据安全的前提下,有效补充第一建模节点的标签信息,从而增加了节点中数据中正样本数量,改善了联邦模型的训练效果。
进一步地,所述第一建模节点基于所述联邦学习模型,确定所述第一特征数据的第一输出结果之后,还包括:
所述第一建模节点接收各第二建模节点发送的第二加密输出结果;第二加密输出结果为各第二建模节点将基于所述联邦学习模型以及各自的第二特征数据确定的第二输出结果进行加密得到的;
所述第一建模节点将加密后的第一输出结果、加密后的第一标签数据、以及各第二加密输出结果进行同态运算,得到第一加密评估结果;
所述第一建模节点将所述第一加密评估结果向各第二建模节点发送,以使各第二建模节点至少基于所述第一加密评估结果以及各自的第二标签数据确定所述联邦学习模型的总加密评估结果。
具体实施过程中,第一建模节点和第二建模节点均需根据特征数据和标签数据进行模型训练。上述步骤301至304中,第一建模节点接收第二建模节点发送的第二加密评估结果,由于第二加密评估结果是利用第二标签数据进行同态运算得到的,因此,第一建模节点对联邦学习模型进行训练的过程中,可以利用第二标签数据从而丰富了建模的正样本数量和种类,且传输的过程中以及建模的过程中,第二标签数据的具体内容均处于加密状态,因此,保证了数据安全。另一方面,第二建模节点接收第一建模节点发送的第一加密评估结果,由于第一加密评估结果是利用第一标签数据进行同态运算得到的,因此,第二建模节点对联邦学习模型进行训练的过程中,可以利用第一标签数据从而丰富了建模的正样本数量和种类,且传输的过程中以及建模的过程中,第一标签数据的具体内容均处于加密状态,因此,保证了数据安全。
进一步地,所述第一建模节点基于所述联邦学习模型,确定所述第一特征数据的第一输出结果,并对所述第一输出结果加密得到第一加密输出结果之前,还包括:
所述第一建模节点生成用于同态加密的第一私钥和第一公钥;
所述第一建模节点向各第二建模节点发送所述第一公钥,并接收各第二建模节点发送的各第二公钥。
本发明实施例中的同态加密是基于数学难题的计算复杂性理论的密码学技术。对经过同态加密的数据进行处理得到一个输出,将这一输出进行解密,其结果与用同一方法处理未加密的原始数据得到的输出结果是一样的。也就是说,其他人可以对加密数据进行处理,但是处理过程不会泄露任何原始内容。同时,拥有密钥的用户对处理过的数据进行解密后,得到的正好是处理后的结果。
第一建模节点和各第二建模节点之间可以预先交换公钥,从而在同态加密的过程中,可以利用公钥进行加密,保证了数据安全。
进一步地,所述将所述第一输出结果加密后得到的第一加密输出结果向各第二建模节点发送,包括:
所述第一建模节点利用所述第一私钥加密所述第一输出结果,得到所述第一加密输出结果,并将所述第一加密输出结果向各第二建模节点发送;
所述第一建模节点根据所述第一标签数据以及各第二加密评估结果,确定所述联邦学习模型的总加密评估结果,包括:
所述第一建模节点利用所述第一私钥对所述第一标签数据进行加密;
所述第一建模节点对加密后的第一标签数据以及各第二加密评估结果进行同态运算,得到所述联邦学习模型的总加密评估结果;
所述第一建模节点将所述总加密评估结果解密后得到总评估结果,包括:
所述第一建模节点利用所述第一私钥对所述总加密评估结果进行解密后得到总评估结果。
具体实施过程中,第一建模节点利用第一私钥分别加密第一输出结果、第一标签数据,另外,第一建模节点接收的第二建模节点发送的第二输出结果以及第二标签数据均为用第一公钥加密的,从而第一输出结果、第一标签数据、第二输出结果以及第二标签数据之间可以进行同态运算。
进一步地,所述第一建模节点接收各第二建模节点发送的第二加密输出结果之后,所述第一建模节点将加密后的第一输出结果、加密后的第一标签数据、以及各第二加密输出结果进行同态运算,得到第一加密评估结果之前,包括:
所述第一建模节点利用各第二公钥分别加密所述第一输出结果以及所述第一标签数据。
另一方面,第一建模节点利用第二公钥加密第一输出结果以及第一标签数据,则第二建模节点中也可以将加密后的第一输出结果和第一标签数据进行同态运算。
进一步地,所述第一建模节点基于所述联邦学习模型,确定所述第一特征数据的第一输出结果,并对所述第一输出结果加密得到第一加密输出结果之前,还包括:
所述第一建模节点向各第二建模节点发送联邦学习模型训练请求,所述联邦学习模型训练请求中包含所述联邦学习模型的算法以及初始模型参数;
所述第一建模节点接收各第二建模节点反馈的联邦学习模型训练响应。
本发明实施例中的第一建模节点可以是系统中的任一节点,该第一建模节点可以为建模发起方,也可以为数据提供方。本发明实施例中的联邦学习系统中的建模节点数量可以为2个,也可以为多个,当建模节点的数量为多个时,每个建模节点均按照上述步骤301至304进行联邦学习模型的训练,则此时该建模节点为第一建模节点,其余建模节点为第二建模节点。本发明实施例中仅以建模节点的数量为2进行说明。
为了更清楚地理解本发明,下面以具体实施例对上述流程进行详细描述,具体实施例的过程如图4所示,包括:
以建模发起方A和数据提供方B双方进行联邦建模为例,具体实施例的具体过程如下:
建模发起方A根据发起联邦建模任务,确定建模所需的数据及建模算法,建模数据包括特征数据及标签数据建模算法包括逻辑回归、XGboost等建模算法。数据提供方B收到建模任务后如果同意参与该任务则准备相应的特征数据及标签数据式中的i表示双方建模过程中使用的用户数目。
建模双方生成同态加密的私钥及公钥,私钥保留,公钥分别传递给对方。
计算完成后双方交互各自一侧的模型评估值di A′和di B′。
建模发起方A接收到数据提供方B方传递过来的B方一侧模型评估值di A′后计算全局模型评估值di A,计算方法如下所示:
使用A方私钥解密后获得模型评估值di。
数据提供方B接收到建模发起方A传递过来的A方一侧模型评估值di B′后计算全局模型评估值di B,计算方法如下所示:
使用B方私钥解密后获得模型评估值di。
根据计算获得的A方模型梯度信息更新A方模型的参数,更新方式如下:
式中ηA为A方学习率。
根据计算获得的A方模型梯度信息更新A方模型的参数,更新方式如下:
式中ηB为B方学习率。
建模发起方A方根据模型评估di判断模型是否收敛,如果收敛则建模结束,如果没有收敛则回到第一步进入下一轮建模。
本发明实施例还提供了一种联合建模装置,多个建模节点包括第一建模节点以及至少一个第二建模节点,所述第一建模节点存有联邦学习模型的第一特征数据和第一标签数据,所述第二建模节点拥有各自的第二特征数据和各自的第二标签数据;
所述第一建模节点以及每个第二建模节点经过至少一次迭代训练过程训练所述联邦学习模型,直至迭代终止条件到达时,所述第一建模节点获得所述联邦学习模型的第一模型参数以及各第二建模节点分别获得各自的所述联邦学习模型的第二模型参数,所述装置部署于所述第一计算节点,所述联合建模装置如图5所示,包括确定单元501、收发单元502、评估单元503以及更新单元504:
其中每次迭代训练过程,所述确定单元用于:基于所述联邦学习模型,确定所述第一特征数据的第一输出结果;
所述收发单元用于:将所述第一输出结果加密后得到的第一加密输出结果向各第二建模节点发送;接收各第二建模节点发送的第二加密评估结果;各第二加密评估结果是各第二建模节点至少将各自加密后的第二输出结果、各自加密后的第二标签数据、以及所述第一加密输出结果进行同态运算得到,所述第二输出结果为各第二建模节点将基于所述联邦学习模型以及各自的第二特征数据确定的;
所述评估单元用于:根据所述第一标签数据以及各第二加密评估结果,确定所述联邦学习模型的总加密评估结果,并将所述总加密评估结果解密得到总模型评估结果;
所述更新单元用于:将所述总加密评估结果解密后得到总评估结果,根据所述总评估结果和所述第一特征数据确定该次迭代训练过程的更新梯度值,并基于所述更新梯度值更新该迭代过程中所述第一建模节点的所述第一模型参数。
可选的,所述收发单元还用于:接收各第二建模节点发送的第二加密输出结果;第二加密输出结果为各第二建模节点将基于所述联邦学习模型以及各自的第二特征数据确定的第二输出结果进行加密得到的;
所述评估单元还用于:将加密后的第一输出结果、加密后的第一标签数据、以及各第二加密输出结果进行同态运算,得到第一加密评估结果;
所述收发单元还用于:将所述第一加密评估结果向各第二建模节点发送,以使各第二建模节点至少基于所述第一加密评估结果以及各自的第二标签数据确定所述联邦学习模型的总加密评估结果。
可选的,所述确定单元还用于:生成用于同态加密的第一私钥和第一公钥;
所述收发单元还用于:向各第二建模节点发送所述第一公钥,并接收各第二建模节点发送的各第二公钥。
可选的,所述确定单元,还用于:利用所述第一私钥加密所述第一输出结果,得到所述第一加密输出结果;
所述收发单元还用于:将所述第一加密输出结果向各第二建模节点发送;
所述评估单元具体用于:利用所述第一私钥对所述第一标签数据进行加密;对加密后的第一私钥以及各第二加密评估结果进行同态运算,得到所述联邦学习模型的总加密评估结果;利用所述第一私钥对所述总加密评估结果进行解密后得到总评估结果。
可选的,所述评估单元具体用于:利用各第二公钥分别加密所述第一输出结果以及所述第一标签数据。
可选的,所述收发单元还用于:
向各第二建模节点发送联邦学习模型训练请求,所述联邦学习模型训练请求中包含所述联邦学习模型的算法以及初始模型参数;
接收各第二建模节点反馈的联邦学习模型训练响应。
基于相同的原理,本发明还提供一种电子设备,如图6所示,包括:
包括处理器601、存储器602、收发机603、总线接口604,其中处理器601、存储器602与收发机603之间通过总线接口604连接;
所述处理器601,用于读取所述存储器602中的程序,执行下列方法:
基于所述联邦学习模型,确定所述第一特征数据的第一输出结果,并将所述第一输出结果加密后得到的第一加密输出结果向各第二建模节点发送;
接收各第二建模节点发送的第二加密评估结果;各第二加密评估结果是各第二建模节点至少将各自加密后的第二输出结果、各自加密后的第二标签数据、以及所述第一加密输出结果进行同态运算得到,所述第二输出结果为各第二建模节点将基于所述联邦学习模型以及各自的第二特征数据确定的;
根据所述第一标签数据以及各第二加密评估结果,确定所述联邦学习模型的总加密评估结果,并将所述总加密评估结果解密得到总模型评估结果;
将所述总加密评估结果解密后得到总评估结果,根据所述总评估结果和所述第一特征数据确定该次迭代训练过程的更新梯度值,并基于所述更新梯度值更新该迭代过程中所述第一建模节点的所述第一模型参数。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包括这些改动和变型在内。
Claims (14)
1.一种联合建模方法,其特征在于,多个建模节点包括第一建模节点以及至少一个第二建模节点,所述第一建模节点存有联邦学习模型的第一特征数据和第一标签数据,所述第二建模节点拥有各自的第二特征数据和各自的第二标签数据;
所述第一建模节点以及每个第二建模节点经过至少一次迭代训练过程训练所述联邦学习模型,直至迭代终止条件到达时,所述第一建模节点获得所述联邦学习模型的第一模型参数以及各第二建模节点分别获得各自的所述联邦学习模型的第二模型参数,其中每次迭代训练过程,包括:
所述第一建模节点基于所述联邦学习模型,确定所述第一特征数据的第一输出结果,并将所述第一输出结果加密后得到的第一加密输出结果向各第二建模节点发送;
所述第一建模节点接收各第二建模节点发送的第二加密评估结果;各第二加密评估结果是各第二建模节点至少将各自加密后的第二输出结果、各自加密后的第二标签数据、以及所述第一加密输出结果进行同态运算得到,所述第二输出结果为各第二建模节点将基于所述联邦学习模型以及各自的第二特征数据确定的;
所述第一建模节点根据所述第一标签数据以及各第二加密评估结果,确定所述联邦学习模型的总加密评估结果,并将所述总加密评估结果解密得到总模型评估结果;
所述第一建模节点将所述总加密评估结果解密后得到总评估结果,根据所述总评估结果和所述第一特征数据确定该次迭代训练过程的更新梯度值,并基于所述更新梯度值更新该迭代过程中所述第一建模节点的所述第一模型参数。
2.如权利要求1所述的方法,其特征在于,所述第一建模节点基于所述联邦学习模型,确定所述第一特征数据的第一输出结果之后,还包括:
所述第一建模节点接收各第二建模节点发送的第二加密输出结果;第二加密输出结果为各第二建模节点将基于所述联邦学习模型以及各自的第二特征数据确定的第二输出结果进行加密得到的;
所述第一建模节点将加密后的第一输出结果、加密后的第一标签数据、以及各第二加密输出结果进行同态运算,得到第一加密评估结果;
所述第一建模节点将所述第一加密评估结果向各第二建模节点发送,以使各第二建模节点至少基于所述第一加密评估结果以及各自的第二标签数据确定所述联邦学习模型的总加密评估结果。
3.如权利要求1或2所述的方法,其特征在于,所述第一建模节点基于所述联邦学习模型,确定所述第一特征数据的第一输出结果,并对所述第一输出结果加密得到第一加密输出结果之前,还包括:
所述第一建模节点生成用于同态加密的第一私钥和第一公钥;
所述第一建模节点向各第二建模节点发送所述第一公钥,并接收各第二建模节点发送的各第二公钥。
4.如权利要求3所述的方法,其特征在于,所述将所述第一输出结果加密后得到的第一加密输出结果向各第二建模节点发送,包括:
所述第一建模节点利用所述第一私钥加密所述第一输出结果,得到所述第一加密输出结果,并将所述第一加密输出结果向各第二建模节点发送;
所述第一建模节点根据所述第一标签数据以及各第二加密评估结果,确定所述联邦学习模型的总加密评估结果,包括:
所述第一建模节点利用所述第一私钥对所述第一标签数据进行加密;
所述第一建模节点对加密后的第一标签数据以及各第二加密评估结果进行同态运算,得到所述联邦学习模型的总加密评估结果;
所述第一建模节点将所述总加密评估结果解密后得到总评估结果,包括:
所述第一建模节点利用所述第一私钥对所述总加密评估结果进行解密后得到总评估结果。
5.如权利要求3所述的方法,其特征在于,所述第一建模节点接收各第二建模节点发送的第二加密输出结果之后,所述第一建模节点将加密后的第一输出结果、加密后的第一标签数据、以及各第二加密输出结果进行同态运算,得到第一加密评估结果之前,包括:
所述第一建模节点利用各第二公钥分别加密所述第一输出结果以及所述第一标签数据。
6.如权利要求1所述的方法,其特征在于,所述第一建模节点基于所述联邦学习模型,确定所述第一特征数据的第一输出结果,并对所述第一输出结果加密得到第一加密输出结果之前,还包括:
所述第一建模节点向各第二建模节点发送联邦学习模型训练请求,所述联邦学习模型训练请求中包含所述联邦学习模型的算法以及初始模型参数;
所述第一建模节点接收各第二建模节点反馈的联邦学习模型训练响应。
7.一种联合建模装置,其特征在于,多个建模节点包括第一建模节点以及至少一个第二建模节点,所述第一建模节点存有联邦学习模型的第一特征数据和第一标签数据,所述第二建模节点拥有各自的第二特征数据和各自的第二标签数据;
所述第一建模节点以及每个第二建模节点经过至少一次迭代训练过程训练所述联邦学习模型,直至迭代终止条件到达时,所述第一建模节点获得所述联邦学习模型的第一模型参数以及各第二建模节点分别获得各自的所述联邦学习模型的第二模型参数,所述装置部署于所述第一计算节点,所述联合建模装置包括确定单元、收发单元、评估单元以及更新单元;
其中每次迭代训练过程,所述确定单元用于:基于所述联邦学习模型,确定所述第一特征数据的第一输出结果;
所述收发单元用于:将所述第一输出结果加密后得到的第一加密输出结果向各第二建模节点发送;接收各第二建模节点发送的第二加密评估结果;各第二加密评估结果是各第二建模节点至少将各自加密后的第二输出结果、各自加密后的第二标签数据、以及所述第一加密输出结果进行同态运算得到,所述第二输出结果为各第二建模节点将基于所述联邦学习模型以及各自的第二特征数据确定的;
所述评估单元用于:根据所述第一标签数据以及各第二加密评估结果,确定所述联邦学习模型的总加密评估结果,并将所述总加密评估结果解密得到总模型评估结果;
所述更新单元用于:将所述总加密评估结果解密后得到总评估结果,根据所述总评估结果和所述第一特征数据确定该次迭代训练过程的更新梯度值,并基于所述更新梯度值更新该迭代过程中所述第一建模节点的所述第一模型参数。
8.如权利要求7所述的装置,其特征在于,所述收发单元还用于:接收各第二建模节点发送的第二加密输出结果;第二加密输出结果为各第二建模节点将基于所述联邦学习模型以及各自的第二特征数据确定的第二输出结果进行加密得到的;
所述评估单元还用于:将加密后的第一输出结果、加密后的第一标签数据、以及各第二加密输出结果进行同态运算,得到第一加密评估结果;
所述收发单元还用于:将所述第一加密评估结果向各第二建模节点发送,以使各第二建模节点至少基于所述第一加密评估结果以及各自的第二标签数据确定所述联邦学习模型的总加密评估结果。
9.如权利要求7或8所述的装置,其特征在于,所述确定单元还用于:生成用于同态加密的第一私钥和第一公钥;
所述收发单元还用于:向各第二建模节点发送所述第一公钥,并接收各第二建模节点发送的各第二公钥。
10.如权利要求9所述的装置,其特征在于,所述确定单元,还用于:利用所述第一私钥加密所述第一输出结果,得到所述第一加密输出结果;
所述收发单元还用于:将所述第一加密输出结果向各第二建模节点发送;
所述评估单元具体用于:利用所述第一私钥对所述第一标签数据进行加密;对加密后的第一标签数据以及各第二加密评估结果进行同态运算,得到所述联邦学习模型的总加密评估结果;利用所述第一私钥对所述总加密评估结果进行解密后得到总评估结果。
11.如权利要求9所述的装置,其特征在于,所述评估单元具体用于:利用各第二公钥分别加密所述第一输出结果以及所述第一标签数据。
12.如权利要求7所述的装置,其特征在于,所述收发单元还用于:
向各第二建模节点发送联邦学习模型训练请求,所述联邦学习模型训练请求中包含所述联邦学习模型的算法以及初始模型参数;
接收各第二建模节点反馈的联邦学习模型训练响应。
13.一种电子设备,其特征在于,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-6任一所述的方法。
14.一种非暂态计算机可读存储介质,其特征在于,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令用于使所述计算机执行权利要求1~6任一所述方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110185478.6A CN112818369B (zh) | 2021-02-10 | 2021-02-10 | 一种联合建模方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110185478.6A CN112818369B (zh) | 2021-02-10 | 2021-02-10 | 一种联合建模方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112818369A true CN112818369A (zh) | 2021-05-18 |
CN112818369B CN112818369B (zh) | 2024-03-29 |
Family
ID=75865291
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110185478.6A Active CN112818369B (zh) | 2021-02-10 | 2021-02-10 | 一种联合建模方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112818369B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113657615A (zh) * | 2021-09-02 | 2021-11-16 | 京东科技信息技术有限公司 | 联邦学习模型的更新方法和装置 |
CN114021464A (zh) * | 2021-11-09 | 2022-02-08 | 京东科技信息技术有限公司 | 数据处理方法、装置和存储介质 |
WO2023016170A1 (zh) * | 2021-08-10 | 2023-02-16 | 支付宝(杭州)信息技术有限公司 | 基于容器集群对联合计算多方进行服务校验的方法及系统 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170039487A1 (en) * | 2014-04-11 | 2017-02-09 | Hitachi, Ltd. | Support vector machine learning system and support vector machine learning method |
CN110704860A (zh) * | 2019-11-18 | 2020-01-17 | 深圳前海微众银行股份有限公司 | 提升安全性的纵向联邦学习方法、设备、系统及存储介质 |
CN110837653A (zh) * | 2019-11-07 | 2020-02-25 | 深圳前海微众银行股份有限公司 | 标签预测方法、装置以及计算机可读存储介质 |
CN111428887A (zh) * | 2020-03-19 | 2020-07-17 | 腾讯云计算(北京)有限责任公司 | 一种基于多个计算节点的模型训练控制方法、装置及系统 |
CN111428884A (zh) * | 2020-03-30 | 2020-07-17 | 深圳前海微众银行股份有限公司 | 基于向前法的联邦建模方法、设备和可读存储介质 |
US20200252198A1 (en) * | 2019-02-06 | 2020-08-06 | International Business Machines Corporation | Secure Multi-Party Learning and Inferring Insights Based on Encrypted Data |
CN111582505A (zh) * | 2020-05-14 | 2020-08-25 | 深圳前海微众银行股份有限公司 | 联邦建模方法、装置、设备及计算机可读存储介质 |
CN111860829A (zh) * | 2020-06-19 | 2020-10-30 | 光之树(北京)科技有限公司 | 联邦学习模型的训练方法及装置 |
WO2020233260A1 (zh) * | 2019-07-12 | 2020-11-26 | 之江实验室 | 一种基于同态加密的隐私保护多机构数据分类方法 |
CN112183730A (zh) * | 2020-10-14 | 2021-01-05 | 浙江大学 | 一种基于共享学习的神经网络模型的训练方法 |
CN112232518A (zh) * | 2020-10-15 | 2021-01-15 | 成都数融科技有限公司 | 一种轻量级分布式联邦学习系统及方法 |
CN112241549A (zh) * | 2020-05-26 | 2021-01-19 | 中国银联股份有限公司 | 安全的隐私计算方法、服务器、系统以及存储介质 |
-
2021
- 2021-02-10 CN CN202110185478.6A patent/CN112818369B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170039487A1 (en) * | 2014-04-11 | 2017-02-09 | Hitachi, Ltd. | Support vector machine learning system and support vector machine learning method |
US20200252198A1 (en) * | 2019-02-06 | 2020-08-06 | International Business Machines Corporation | Secure Multi-Party Learning and Inferring Insights Based on Encrypted Data |
WO2020233260A1 (zh) * | 2019-07-12 | 2020-11-26 | 之江实验室 | 一种基于同态加密的隐私保护多机构数据分类方法 |
CN110837653A (zh) * | 2019-11-07 | 2020-02-25 | 深圳前海微众银行股份有限公司 | 标签预测方法、装置以及计算机可读存储介质 |
CN110704860A (zh) * | 2019-11-18 | 2020-01-17 | 深圳前海微众银行股份有限公司 | 提升安全性的纵向联邦学习方法、设备、系统及存储介质 |
CN111428887A (zh) * | 2020-03-19 | 2020-07-17 | 腾讯云计算(北京)有限责任公司 | 一种基于多个计算节点的模型训练控制方法、装置及系统 |
CN111428884A (zh) * | 2020-03-30 | 2020-07-17 | 深圳前海微众银行股份有限公司 | 基于向前法的联邦建模方法、设备和可读存储介质 |
CN111582505A (zh) * | 2020-05-14 | 2020-08-25 | 深圳前海微众银行股份有限公司 | 联邦建模方法、装置、设备及计算机可读存储介质 |
CN112241549A (zh) * | 2020-05-26 | 2021-01-19 | 中国银联股份有限公司 | 安全的隐私计算方法、服务器、系统以及存储介质 |
CN111860829A (zh) * | 2020-06-19 | 2020-10-30 | 光之树(北京)科技有限公司 | 联邦学习模型的训练方法及装置 |
CN112183730A (zh) * | 2020-10-14 | 2021-01-05 | 浙江大学 | 一种基于共享学习的神经网络模型的训练方法 |
CN112232518A (zh) * | 2020-10-15 | 2021-01-15 | 成都数融科技有限公司 | 一种轻量级分布式联邦学习系统及方法 |
Non-Patent Citations (1)
Title |
---|
许心炜;蔡斌;向宏;桑军;: "基于同态加密的多分类Logistic回归模型", 密码学报, no. 02 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023016170A1 (zh) * | 2021-08-10 | 2023-02-16 | 支付宝(杭州)信息技术有限公司 | 基于容器集群对联合计算多方进行服务校验的方法及系统 |
CN113657615A (zh) * | 2021-09-02 | 2021-11-16 | 京东科技信息技术有限公司 | 联邦学习模型的更新方法和装置 |
CN113657615B (zh) * | 2021-09-02 | 2023-12-05 | 京东科技信息技术有限公司 | 联邦学习模型的更新方法和装置 |
CN114021464A (zh) * | 2021-11-09 | 2022-02-08 | 京东科技信息技术有限公司 | 数据处理方法、装置和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112818369B (zh) | 2024-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110572253B (zh) | 一种联邦学习训练数据隐私性增强方法及系统 | |
CN112288097A (zh) | 联邦学习数据处理方法、装置、计算机设备及存储介质 | |
CN112818369B (zh) | 一种联合建模方法及装置 | |
US20230108682A1 (en) | Data processing method and apparatus, device, and computer-readable storage medium | |
CN114730420A (zh) | 用于生成签名的系统和方法 | |
CN112347500B (zh) | 分布式系统的机器学习方法、装置、系统、设备及存储介质 | |
CN107196919B (zh) | 一种匹配数据的方法和装置 | |
WO2021106077A1 (ja) | ニューラルネットワークの更新方法、端末装置、計算装置及びプログラム | |
CN114003950A (zh) | 基于安全计算的联邦机器学习方法、装置、设备及介质 | |
CN114691167A (zh) | 机器学习模型更新的方法和装置 | |
CN113591097A (zh) | 业务数据处理方法、装置、电子设备及存储介质 | |
CN114429223B (zh) | 异构模型建立方法及装置 | |
CN116527279A (zh) | 工控网络中安全数据聚合的可验证联邦学习装置及方法 | |
CN113645294B (zh) | 消息获取方法、装置、计算机设备和消息传输系统 | |
CN114760023A (zh) | 基于联邦学习的模型训练方法、装置及存储介质 | |
US11943210B2 (en) | System and method for distributed, keyless electronic transactions with authentication | |
CN117171779B (zh) | 基于交集保护的数据处理装置 | |
CN107196918A (zh) | 一种匹配数据的方法和装置 | |
CN114301677A (zh) | 秘钥协商方法、装置、电子设备及存储介质 | |
CN116502732B (zh) | 基于可信执行环境的联邦学习方法以及系统 | |
CN114386069A (zh) | 一种基于条件隐私集合求交的联邦学习模型训练方法 | |
CN116681141A (zh) | 隐私保护的联邦学习方法、终端及存储介质 | |
CN114547684A (zh) | 一种保护隐私数据的多方联合训练树模型的方法及装置 | |
CN115361196A (zh) | 一种基于区块链网络的业务交互方法 | |
CN112637233B (zh) | 一种基于多用户数据的安全求均值方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |