CN110580409A - 模型参数确定方法、装置和电子设备 - Google Patents

模型参数确定方法、装置和电子设备 Download PDF

Info

Publication number
CN110580409A
CN110580409A CN201910734784.3A CN201910734784A CN110580409A CN 110580409 A CN110580409 A CN 110580409A CN 201910734784 A CN201910734784 A CN 201910734784A CN 110580409 A CN110580409 A CN 110580409A
Authority
CN
China
Prior art keywords
share
matrix
product
partner
shares
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910734784.3A
Other languages
English (en)
Other versions
CN110580409B (zh
Inventor
周亚顺
李漓春
殷山
王华忠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Advanced New Technologies Co Ltd
Advantageous New Technologies Co Ltd
Original Assignee
Alibaba Group Holding Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alibaba Group Holding Ltd filed Critical Alibaba Group Holding Ltd
Priority to CN201910734784.3A priority Critical patent/CN110580409B/zh
Publication of CN110580409A publication Critical patent/CN110580409A/zh
Priority to PCT/CN2020/106254 priority patent/WO2021027598A1/zh
Application granted granted Critical
Publication of CN110580409B publication Critical patent/CN110580409B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/602Providing cryptographic facilities or services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Bioethics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Storage Device Security (AREA)

Abstract

本说明书实施例提供一种模型参数确定方法、装置和电子设备。所述方法包括:根据第一乘积的份额和激励函数对应的混淆电路与合作方进行通信,得到激励函数取值的份额;根据特征数据和激励函数取值的份额与合作方秘密分享损失函数的梯度,得到损失函数梯度的份额;根据特征数据和激励函数取值的份额与合作方秘密分享海森矩阵,得到海森矩阵的份额;根据海森矩阵的份额与合作方秘密分享第一逆矩阵,得到第一逆矩阵的份额;根据原始模型参数的份额、第一逆矩阵的份额和损失函数梯度的份额与合作方秘密分享新的模型参数,得到新的模型参数的份额。本说明实施例可以在保护数据隐私的前提下,由多方协作确定数据处理模型的模型参数。

Description

模型参数确定方法、装置和电子设备
技术领域
本说明书实施例涉及计算机技术领域,特别涉及一种模型参数确定方法、装置和电子设备。
背景技术
大数据时代,存在非常多的数据孤岛。数据通常分散存于不同的企业中,企业与企业之间由于竞争关系和隐私保护的考虑,并不是完全的互相信任。在一些情况下,企业与企业之间需要进行合作安全建模,以便在充分保护企业数据隐私的前提下,使用各方的数据对数据处理模型进行协作训练。
在对数据处理模型进行协作训练的过程中,可以使用模型参数优化方法对数据处理模型的模型参数进行多次优化调整。由于用于对数据处理模型进行训练的数据是分散在合作建模的各方的,因此如何在保护数据隐私的条件下,协作确定数据处理模型的模型参数,是当前亟需解决的技术问题。
发明内容
本说明书实施例的目的是提供一种模型参数确定方法、装置和电子设备,以在保护数据隐私的前提下,由多方协作确定数据处理模型的模型参数。
为实现上述目的,本说明书中一个或多个实施例提供的技术方案如下。
根据本说明书一个或多个实施例的第一方面,提供了一种模型参数确定方法,应用于第一数据方,包括:根据第一乘积的份额和激励函数对应的混淆电路与合作方进行通信,得到激励函数取值的份额,所述第一乘积为特征数据和原始模型参数的乘积;根据特征数据和激励函数取值的份额与合作方秘密分享损失函数的梯度,得到损失函数梯度的份额;根据特征数据和激励函数取值的份额与合作方秘密分享海森矩阵,得到海森矩阵的份额;根据海森矩阵的份额与合作方秘密分享第一逆矩阵,得到第一逆矩阵的份额,所述第一逆矩阵为海森矩阵的逆矩阵;根据原始模型参数的份额、第一逆矩阵的份额和损失函数梯度的份额与合作方秘密分享新的模型参数,得到新的模型参数的份额。
根据本说明书一个或多个实施例的第二方面,提供了一种模型参数确定方法,应用于第二数据方,包括:根据第一乘积的份额和激励函数对应的混淆电路与合作方进行通信,得到激励函数取值的份额,所述第一乘积为特征数据和原始模型参数的乘积;根据标签和激励函数取值的份额与合作方秘密分享损失函数的梯度,得到损失函数梯度的份额;根据激励函数取值的份额与合作方秘密分享海森矩阵,得到海森矩阵的份额;根据海森矩阵的份额与合作方秘密分享第一逆矩阵,得到第一逆矩阵的份额,所述第一逆矩阵为海森矩阵的逆矩阵;根据原始模型参数的份额、第一逆矩阵的份额和损失函数梯度的份额与合作方秘密分享新的模型参数,得到新的模型参数的份额。
根据本说明书一个或多个实施例的第三方面,提供了一种模型参数确定装置,应用于第一数据方,包括:激励函数取值份额获取单元,用于根据第一乘积的份额和激励函数对应的混淆电路与合作方进行通信,得到激励函数取值的份额,所述第一乘积为特征数据和原始模型参数的乘积;损失函数梯度份额获取单元,用于根据特征数据和激励函数取值的份额与合作方秘密分享损失函数的梯度,得到损失函数梯度的份额;海森矩阵份额获取单元,用于根据特征数据和激励函数取值的份额与合作方秘密分享海森矩阵,得到海森矩阵的份额;第一逆矩阵份额获取单元,用于根据海森矩阵的份额与合作方秘密分享第一逆矩阵,得到第一逆矩阵的份额,所述第一逆矩阵为海森矩阵的逆矩阵;模型参数份额获取单元,用于根据原始模型参数的份额、第一逆矩阵的份额和损失函数梯度的份额与合作方秘密分享新的模型参数,得到新的模型参数的份额。
根据本说明书一个或多个实施例的第四方面,提供了一种模型参数确定装置,应用于第二数据方,包括:激励函数取值份额获取单元,用于根据第一乘积的份额和激励函数对应的混淆电路与合作方进行通信,得到激励函数取值的份额,所述第一乘积为特征数据和原始模型参数的乘积;损失函数梯度份额获取单元,用于根据标签和激励函数取值的份额与合作方秘密分享损失函数的梯度,得到损失函数梯度的份额;海森矩阵份额获取单元,用于根据激励函数取值的份额与合作方秘密分享海森矩阵,得到海森矩阵的份额;第一逆矩阵份额获取单元,用于根据海森矩阵的份额与合作方秘密分享第一逆矩阵,得到第一逆矩阵的份额,所述第一逆矩阵为海森矩阵的逆矩阵;模型参数份额获取单元,用于根据原始模型参数的份额、第一逆矩阵的份额和损失函数梯度的份额与合作方秘密分享新的模型参数,得到新的模型参数的份额。
根据本说明书一个或多个实施例的第五方面,提供了一种电子设备,包括:存储器,用于存储计算机指令;处理器,用于执行所述计算机指令以实现如第一方面所述的方法步骤。
根据本说明书一个或多个实施例的第六方面,提供了一种电子设备,包括:存储器,用于存储计算机指令;处理器,用于执行所述计算机指令以实现如第二方面所述的方法步骤。
由以上本说明书实施例提供的技术方案可见,本说明书实施例中,第一数据方和第二数据方可以采用秘密分享和混淆电路相结合的方式,在不泄漏自身所持有数据的前提下,协作确定数据处理模型的模型参数。另外,由于使用了牛顿法,因而本实施例的模型参数确定方法有较快的收敛速度,可以减少模型参数优化调整的次数,提高数据处理模型的训练效率。
附图说明
为了更清楚地说明本说明书实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本说明书实施例一种逻辑电路的示意图;
图2为本说明书实施例一种模型参数确定系统的示意图;
图3为本说明书实施例一种模型参数确定方法的流程图;
图4为本说明书实施例一种基于混淆电路进行计算的示意图;
图5为本说明书实施例一种模型参数确定方法的流程图;
图6为本说明书实施例一种模型参数确定方法的流程图;
图7为本说明书实施例一种模型参数确定装置的功能结构示意图;
图8为本说明书实施例一种模型参数确定装置的功能结构示意图;
图9为本说明书实施例一种电子设备的功能结构示意图。
具体实施方式
下面将结合本说明书实施例中的附图,对本说明书实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都应当属于本说明书保护的范围。应当理解,尽管在本说明书可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本说明书范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。
多方安全计算(Secure Muti-Party Computation,MPC)是一种保护数据隐私安全的算法。多方安全计算能让参与计算的多个数据方在不暴露自身数据的前提下进行协作计算。
秘密分享(SS,Secret Sharing)是一种保护数据隐私安全的算法,可以用于实现多方安全计算。具体地,多个数据方可以在不泄漏自身数据的前提下,使用秘密分享算法进行协作计算,得到秘密信息。每个数据方可以获得该秘密信息的一份份额。单个数据方无法恢复该秘密信息。只有多个数据方一同协作才能恢复该秘密信息。例如数据方P1持有数据x1,数据方P2持有数据x2。采用秘密分享算法,数据方P1和数据方P2可以进行协作计算,得到秘密信息y=y1+y2=x1x2。数据方P1在计算后可以获得秘密信息y的份额y1,数据方P2在计算后可以获得秘密信息y的份额y2
混淆电路(Garbled Circuit)是一种保护数据隐私的安全计算协议,可以用于实现多方安全计算。具体地,可以将给定的计算任务(例如函数)转换为逻辑电路,所述逻辑电路可以由至少一个运算门构成,所述运算门可以包括与门、或门、异或门等等。所述逻辑电路可以包括至少两个输入线和至少一个输出线,通过对所述逻辑电路的输入线和/或输出线进行加密便可以得到混淆电路。多个数据方可以在不泄漏自身数据的前提下,使用所述混淆电路进行协作计算,得到所述计算任务的执行结果。
不经意传输(Oblivious Transfer,OT),又称为茫然传输,是一种可以保护隐私的双方通信协议,能够使通信双方以一种选择模糊化的方式传递数据。发送方可以具有多个数据。经由不经意传输接收方能够获得所述多个数据中的一个或多个数据。在此过程中,发送方不知晓接收方接收的是哪些数据;而接收方不能够获得其所接收数据之外的其它任何数据。不经意传输协议是混淆电路的基础协议。在使用混淆电路进行协作计算的过程中,通常会使用到不经意传输协议。
以下介绍混淆电路的一个应用场景示例。
数据方P1持有数据x1和数据x3,数据方P2持有数据x2。函数y=f(x1,x2,x3)=x1x2x3可以表示为如图1所示的逻辑电路。所述逻辑电路由与门1和与门2构成。所述逻辑电路可以包括输入线a、输入线b、输入线d、输出线c和输出线s。
以下介绍数据方P1生成与门1的混淆真值表的过程。
与门1对应的真值表可以如表1所示。
表1
a b c
0 0 0
0 1 0
1 0 0
1 1 1
数据方P1可以生成两个随机数分别对应输入线a的两个输入值0和1;可以生成两个随机数分别对应输入线b的两个输入值0和1;可以生成两个随机数分别对应输出线c的两个输出值0和1。由此可以得到如表2所示的随机化真值表。
表2
数据方P1可以分别将随机数作为密钥,对随机数进行加密,得到随机数密文可以分别将随机数作为密钥,对随机数进行加密,得到随机数密文可以分别将随机数作为密钥,对随机数进行加密,得到随机数密文可以分别将随机数作为密钥,对随机数进行加密,得到随机数密文由此可以得到如表3所示的加密的随机化真值表。
表3
数据方P1可以打乱表3中各行的排列顺序,得到如表4所示的混淆真值表。
表4
数据方P1还可以生成与门2的混淆真值表,具体过程与生成与门1的混淆真值表的过程相类似,在此不再详述。
数据方P1可以分别将与门1的混淆真值表和与门2的混淆真值表发送给数据方P2。数据方P2可以接收与门1的混淆真值表和与门2的混淆真值表。
数据方P1可以将数据x1的各个比特(bit)在输入线a对应的随机数发送给数据方P2;可以将数据x3的各个比特(bit)在输入线d对应的随机数发送给数据方P2。数据方P2可以接收数据x1和数据x3的各个比特对应的随机数。例如,数据x1=b0×20+b1×21+...+bi×2i+...。对于数据x1的第i个比特bi,当bi的值为0时,数据方P1可以将bi在输入线a对应的随机数发送给数据方P2;当bi的值为1时,数据方P1可以将bi在输入线a对应的随机数发送给数据方P2
数据方P1可以以随机数作为输入,数据方P2可以以数据x2的各个比特作为输入,二者进行不经意传输。数据方P2可以获得数据x2的各个比特对应的随机数。具体地,数据方P1可以生成两个随机数分别对应输入线d的两个输入值0和1。如此针对数据x2的每个比特,数据方P1可以以随机数作为在不经意传输过程中输入的秘密信息,数据方P2可以以该比特作为在不经意传输过程中输入的选择信息,进行不经意传输。通过不经意传输,数据方P2可以获得该比特在输入线d对应的随机数。具体地,当该比特的值为0时,数据方P2可以获得随机数当该比特的值为1时,数据方P2可以获得随机数根据不经意传输的特性,数据方P1并不知晓数据方P2具体选择的是哪个随机数,数据方P2也不能够知晓除了所选择的随机数以外的其它随机数。
通过以上过程,数据方P2获得了数据x1、数据x2和数据x3的各个比特对应的随机数。如此数据方P2可以使用数据x1的每个比特在输入线a对应的随机数、以及数据x2的相应比特在输入线b对应的随机数,尝试对与门1的混淆真值表中的4个随机数密文进行解密;数据方P2仅能够成功解密其中的一个随机数密文,从而得到输出线c的一个随机数。接下来,数据方P2可以使用数据x3的相应比特在输入线d对应的随机数、以及解密出的输出线c的随机数,尝试对与门2的混淆真值表中的4个随机数密文进行解密;数据方P2仅能够成功解密其中的一个随机数密文,得到输出线s的一个随机数。数据方P2可以将解密出的输出线s的随机数发送给数据方P1。数据方P1可以接收输出线s的随机数;可以根据输出线s的随机数、以及随机数和输出值的对应关系,获得输出线s的输出值。
输出线s的每个输出值可以视作函数y=f(x1,x2,x3)=x1x2x3取值的一个比特。如此数据方P1可以根据输出线s的多个输出值,确定出函数y=f(x1,x2,x3)=x1x2x3的取值。
损失函数(Loss Function)可以用于衡量数据处理模型的预测值与真实值之间不一致的程度。损失函数的值越小,表示数据处理模型的鲁棒性越好。所述损失函数包括但不限于对数损失函数(Logarithmic Loss Function)、平方损失函数(Square Loss)等。
海森矩阵(Hessian Matrix),又称为黑塞矩阵、海瑟矩阵或海塞矩阵等,是损失函数的二阶偏导数所构成的方阵,用于表示损失函数的局部曲率。
激励函数(Activation Function),又称为激活函数,可以用于构建数据处理模型。激励函数定义了在给定输入下的输出。激励函数通常为非线性函数。通过激励函数可以在所述数据处理模型中加入非线性因素,提高所述数据处理模型的表达能力。所述激励函数可以包括Sigmoid函数、Tanh函数和ReLU函数等。所述数据处理模型可以包括逻辑回归模型和神经网络模型等。
在合作安全建模的场景中,出于保护数据隐私的考虑,多个数据方可以在不泄漏自身所持有的数据的前提下,基于自身持有的数据,对数据处理模型进行协作训练。所述数据处理模型包括但不限于逻辑回归模型和神经网络模型等。在对数据处理模型进行训练的过程中,可以使用模型参数优化方法对数据处理模型的模型参数进行优化调整。模型参数优化方法可以包括梯度下降法、牛顿法等等。所述牛顿法可以包括原始牛顿法以及基于原始牛顿法的各种变形方法(诸如阻尼牛顿法、正则化牛顿法等等;正则化牛顿法是指附带了正则化项的牛顿法;正则化可以降低模型的复杂度和不稳定程度,从而降低过拟合的危险)。相较于梯度下降法,牛顿法有着更快的收敛速度。因此若合作建模各方通过多方安全计算,使用牛顿法协作确定数据处理模型的模型参数,则不仅可以保护合作建模各方的数据隐私,还可以减少模型参数优化调整的次数,提高数据处理模型的训练效率。
多方安全计算可以采用秘密分享来实现,也可以采用混淆电路来实现。由于数据处理模型中的激励函数通常为非线性函数,涉及的运算为非线性运算,导致其取值无法直接使用秘密分享算法进行计算。因此若仅通过秘密分享,使用牛顿法协作确定数据处理模型的模型参数,则需要使用多项式来拟合所述激励函数。使用多项式来拟合激励函数存在越界的问题(多项式的输入超过一定范围时,其输出会变得很大或者很小),有可能造成数据处理模型无法完成训练。另外由于混淆电路的复杂程度较高,因此若仅通过混淆电路,使用牛顿法协作确定数据处理模型的模型参数,会造成数据处理模型的训练过程变得复杂。基于以上考虑,若通过秘密分享和混淆电路相结合的方式,不仅可以避免越界的问题,还可以降低数据处理模型训练过程的复杂程度。
本说明书提供一种模型参数确定系统的实施例。
请参阅图2。在该实施例中,所述模型参数确定系统可以包括第一数据方、第二数据方和可信任的第三方(TTP,Trusted Third Party)。
所述第三方可以为一个服务器;或者,还可以为包括多个服务器的服务器集群。所述第三方用于向所述第一数据方和所述第二数据方提供随机数。具体地,所述第三方可以生成随机数矩阵,可以将所述随机数矩阵中的各个随机数拆分为两个份额,可以将其中一个份额作为第一份额,将其中另一个份额作为第二份额。所述第三方可以将所述随机数矩阵中各个随机数的第一份额形成的矩阵作为所述随机数矩阵的第一份额,将所述随机数矩阵中各个随机数的第二份额形成的矩阵作为所述随机数矩阵的第二份额;可以向所述第一数据方发送所述随机数矩阵的第一份额,可以向所述第二数据方发送所述随机数矩阵的第二份额。其中,所述随机数矩阵的第一份额和所述随机数矩阵的第二份额的和等于所述随机数矩阵。另外,鉴于所述第一数据方和所述第二数据方在基于混淆电路进行计算的过程中涉及到不经意传输,所述第三方还可以生成第一OT随机数和第二OT随机数;可以向所述第一数据方发送所述第一OT随机数;可以向所述第二数据方发送所述第二OT随机数。OT随机数可以为在不经意传输过程中所使用到的随机数。
所述第一数据方和所述第二数据方分别为合作安全建模的双方。所述第一数据方可以为持有特征数据的数据方,所述第二数据方可以为持有标签的数据方。例如,所述第一数据方可以持有完整的特征数据,所述第二数据方可以持有特征数据的标签。或者,所述第一数据方可以持有特征数据的一部分数据项,所述第二数据方可以持有特征数据的另一部分数据项和特征数据的标签。具体地,例如,特征数据可以包括用户的储蓄金额和借贷金额。所述第一数据方可以持有用户的储蓄金额,所述第二数据方可以持有用户的借贷金额和特征数据的标签。所述标签可以用于区分不同类型的特征数据,具体数值例如可以取自0和1。值得说明的是,这里的数据方可以为电子设备。所述电子设备可以包括个人计算机、服务器、手持设备、便携式设备、平板型设备、多处理器装置;或者,还可以包括由以上任何多个装置或设备所构成的集群等。另外,特征数据及其对应的标签共同构成了样本数据,样本数据可以用于对数据处理模型进行训练。
在合作安全建模的场景中,所述第一数据方和所述第二数据方可以分别获得原始模型参数的一份份额。这里可以将所述第一数据方获得份额作为原始模型参数的第一份额,可以将所述第二数据方获得份额作为原始模型参数的第二份额。原始模型参数的第一份额和原始模型参数的第二份额的和等于原始模型参数。
所述第一数据方可以接收随机数矩阵的第一份额和第一OT随机数。所述第二数据方可以接收随机数矩阵的第二份额和第二OT随机数。如此所述第一数据方可以基于原始模型参数的第一份额、特征数据、随机数矩阵的第一份额和第一OT随机数,所述第二数据方可以基于原始模型参数的第二份额、标签值、随机数矩阵的第二份额和第二OT随机数,采用秘密分享和混淆电路相结合的方式,协作确定新的模型参数。所述第一数据方和所述第二数据方可以分别获得新的模型参数的一份份额。具体过程可以参见后面的模型参数确定方法实施例。
本说明书还提供一种模型参数确定方法的实施例。
该实施例可以使用牛顿法来确定模型参数。请参阅图3。该实施例可以包括以下步骤。
步骤S11:第一数据方根据第一乘积的第一份额,第二数据方根据第一乘积的第二份额,基于激励函数对应的混淆电路进行通信。第一数据方获得激励函数取值的第一份额,第二数据方获得激励函数取值的第二份额。
步骤S13:第一数据方根据特征数据和激励函数取值的第一份额,第二数据方根据标签和激励函数取值的第二份额,秘密分享损失函数的梯度。第一数据方获得损失函数梯度的第一份额,第二数据方获得损失函数梯度的第二份额。
步骤S15:第一数据方根据特征数据和激励函数取值的第一份额,第二数据方根据激励函数取值的第二份额,秘密分享海森矩阵。第一数据方获得海森矩阵的第一份额,第二数据方获得海森矩阵的第二份额。
步骤S17:第一数据方根据海森矩阵的第一份额,第二数据方根据海森矩阵的第二份额,秘密分享第一逆矩阵。第一数据方获得第一逆矩阵的第一份额,第二数据方获得第一逆矩阵的第二份额。第一逆矩阵为海森矩阵的逆矩阵。
步骤S19:第一数据方根据原始模型参数的第一份额、第一逆矩阵的第一份额和损失函数梯度的第一份额,第二数据方根据原始模型参数的第二份额、第一逆矩阵的第二份额和损失函数梯度的第二份额,秘密分享新的模型参数。第一数据方获得新的模型参数的第一份额,第二数据方获得新的模型参数的第二份额。
下面介绍在实施例中涉及的一些术语。
(一)、第一乘积、第二乘积和第三乘积。所述第一乘积可以为原始模型参数和特征数据之间的乘积。所述第二乘积可以为随机数矩阵和海森矩阵之间的乘积。所述第三乘积可以为海森矩阵的逆矩阵和损失函数梯度之间的乘积。
在一些场景示例中,所述第一乘积可以表示为XW;其中,W表示原始模型参数,具体为原始模型参数构成的向量;X表示特征数据,具体为特征数据构成的矩阵。
所述第二乘积可以表示为HR,其中,H表示海森矩阵,R表示随机数矩阵。
所述第三乘积可以表示为H-1dW,其中,H-1表示海森矩阵的逆矩阵,dW表示损失函数的梯度,dW为向量。
(二)、第一逆矩阵和第二逆矩阵。鉴于海森矩阵为方阵,因而可以对海森矩阵进行求逆处理,可以将海森矩阵的逆矩阵作为第一逆矩阵。所述第二乘积可以为方阵,因而可以对所述第二乘积进行求逆处理,可以将所述第二乘积的逆矩阵作为第二逆矩阵。
延续前面的场景示例,所述第一逆矩阵可以表示为H-1,所述第二逆矩阵可以表示为(HR)-1
在一些实施例中,在步骤S11之前,所述第一数据方可以根据持有的特征数据和原始模型参数的第一份额,所述第二数据方可以根据持有的原始模型参数的第二份额,秘密分享第一乘积。所述第一数据方和所述第二数据方可以分别获得所述第一乘积的一份份额。为了便于描述,可以将所述第一数据方获得的份额作为第一乘积的第一份额,可以将所述第二数据方获得的份额作为第一乘积的第二份额。第一乘积的第一份额和第一乘积的第二份额的和等于第一乘积。
延续前面的场景示例,原始模型参数的第一份额可以表示为<W>0,原始模型参数的第二份额可以表示为<W>1,<W>0+<W>1=W。所述第一数据方可以根据X和<W>0,所述第二数据方可以根据<W>1,秘密分享第一乘积XW。所述第一数据方可以获得第一乘积的第一份额<XW>0,所述第二数据方可以获得第一乘积的第二份额<XW>1
<XW>0+<XW>1=XW。
在一些实施例中,可以根据所述激励函数构建相应的逻辑电路。所述逻辑电路可以由所述第一数据方构建;或者,也可以由所述第二数据方构建;又或者,还可以由其它设备(例如可信任的第三方)构建。所述逻辑电路可以由至少一个运算门构成,所述运算门可以包括与门、或门、异或门等等。所述逻辑电路可以包括至少两个输入线和至少一个输出线,通过对所述逻辑电路的输入线和/或输出线进行加密便可以得到混淆电路。所述混淆电路可以包括所述逻辑电路中各个运算门的混淆真值表。值得说明的是,这里可以直接根据激励函数构建逻辑电路;或者,也可以对激励函数进行各种适当的变形,可以根据变形后的激励函数构建逻辑电路;又或者,还可以以所述激励函数为基础生成其它函数,可以根据其它函数构建逻辑电路。相应地,这里激励函数与混淆电路相对应可以理解为:混淆电路是根据激励函数的逻辑电路生成的,或者,混淆电路是根据变形后的激励函数的混淆电路生成的,又或者,混淆电路是根据其它函数的逻辑电路生成的。
所述第一数据方和所述第二数据方均可以持有激励函数对应的混淆电路。在一些实施方式中,所述混淆电路可以由所述第一数据方生成。所述第一数据方可以将生成的混淆电路发送给所述第二数据方。所述第二数据方可以接收所述混淆电路。在另一些实施方式中,所述混淆电路也可以由所述第二数据方生成。所述第二数据方可以将生成的混淆电路发送给所述第一数据方。所述第一数据方可以接收所述混淆电路。
在步骤S11中,第一数据方可以根据第一乘积的第一份额,第二数据方可以根据第一乘积的第二份额,基于激励函数对应的混淆电路进行通信。所述第一数据方和所述第二数据方可以分别获得激励函数取值的一份份额。为了便于描述,可以将所述第一数据方获得的份额作为激励函数取值的第一份额,可以将所述第二数据方获得的份额作为激励函数取值的第二份额。激励函数取值的第一份额和激励函数取值的第二份额的和等于激励函数的取值。
请参阅图4。以下介绍第一数据方和第二数据方基于混淆电路进行计算的一个场景示例。
可以根据激励函数f(x1,x2)构建函数y=f1(x1,x2,x3)=f(x1,x2)-x3。其中,x1用于表示第一乘积的第一份额,x2用于表示第一乘积的第二份额,x3用于表示激励函数取值的一份份额(以下称为激励函数取值的第二份额),f1(x1,x2,x3)的取值用于表示激励函数取值的另一份份额(以下称为激励函数取值的第一份额)。
可以构建与函数f1(x1,x2,x3)=f(x1,x2)-x3相对应的逻辑电路,通过对该逻辑电路的输入线和/或输出线进行加密便可以得到混淆电路。所述第一数据方和所述第二数据方均可以持有该混淆电路。值得说明的是,函数y=f1(x1,x2,x3)=f(x1,x2)-x3及其对应的逻辑电路可以由所述第一数据方构建;或者,也可以由所述第二数据方构建;又或者,还可以由其它设备(例如可信任的第三方)构建。
所述第二数据方可以生成激励函数取值的一份份额作为第二份额。如此所述第一数据方可以以第一乘积的第一份额作为该混淆电路的输入,所述第二数据方可以以第一乘积的第二份额以及激励函数取值的第二份额作为该混淆电路的输入,进行通信。所述第一数据方可以基于该混淆电路计算得到激励函数取值的另一份份额作为第一份额。具体的计算过程可以参见前面有关介绍混淆电路的场景示例,在此不再详述。
在一些实施方式中,为了降低混淆电路的复杂程度,还可以使用分段线性函数拟合所述激励函数。这样便可以根据所述分段线性函数构建相应的逻辑电路,通过对该逻辑电路的输入线和/或输出线进行加密便可以得到混淆电路。所述第一数据方和所述第二数据方均可以持有该混淆电路。例如,所述激励函数可以为Sigmoid函数,所述分段线性函数可以为k表示分段线性函数的系数。
第一数据方可以根据第一乘积的第一份额,第二数据方可以根据第一乘积的第二份额,基于该混淆电路进行通信。所述第一数据方和所述第二数据方可以分别获得分段线性函数取值的一份份额。为了便于描述,可以将所述第一数据方获得的份额作为分段线性函数取值的第一份额,可以将所述第二数据方获得的份额作为分段线性函数取值的第二份额。分段线性函数取值的第一份额和分段线性函数取值的第二份额的和等于分段线性函数的取值。如此所述第一数据方可以将分段线性函数取值的第一份额作为激励函数取值的第一份额。所述第二数据方可以将分段线性函数取值的第二份额作为激励函数取值的第二份额。
在一些实施例中,在步骤S13中,所述第一数据方可以根据特征数据和激励函数取值的第一份额,所述第二数据方还可以根据标签和激励函数取值的第二份额,秘密分享损失函数的梯度。所述第一数据方和所述第二数据方可以分别获得所述损失函数梯度的一份份额。为了便于描述,可以将所述第一数据方获得的份额作为损失函数梯度的第一份额,可以将所述第二数据方获得的份额作为损失函数梯度的第二份额。损失函数梯度的第一份额和损失函数梯度的第二份额的和等于损失函数的梯度。
延续前面的场景示例,所述第一数据方可以根据X和<a>0,所述第二数据方可以根据标签Y和<a>1,秘密分享损失函数的梯度dW(具体为向量)。所述第一数据方可以获得损失函数梯度的第一份额<dW>0,所述第二数据方可以获得损失函数梯度的第二份额<dW>1。下面介绍所述第一数据方和所述第二数据方秘密分享损失函数dW的详细过程。
所述第一数据方可以根据X,所述第二数据方可以根据<a>1,秘密分享XT<a>1。所述第一数据方可以获得<[XT<a>1]>0,所述第二数据方可以获得<[XT<a>1]>1。<[XT<a>1]>0+<[XT<a>1]>1=XT<a>1
所述第一数据方还可以根据X,所述第二数据方还可以根据标签Y(具体为标签构成的向量),秘密分享XTY。所述第一数据方可以获得<XTY>0,所述第二数据方可以获得<XTY>1。<XTY>0+<XTY>1=XTY。
所述第一数据方可以计算XT<a>0;可以计算XT<a>0+<[XT<a>1]>0-<XTY>0作为损失函数梯度dW的第一份额<dW>0。所述第二数据方可以计算<[XT<a>1]>1-<XTY>1作为损失函数梯度dW的第二份额<dW>1
在一些实施例中,在步骤S15中,所述第一数据方可以根据特征数据和激励函数取值的第一份额,所述第二数据方可以根据激励函数取值的第二份额,秘密分享海森矩阵。所述第一数据方和所述第二数据方可以分别获得所述海森矩阵的一份份额。为了便于描述,可以将所述第一数据方获得的份额作为所述海森矩阵的第一份额,可以将所述第二数据方获得的份额作为所述海森矩阵的第二份额。海森矩阵的第一份额和海森矩阵的第二份额的和等于海森矩阵。
具体地,所述第一数据方可以根据激励函数取值的第一份额,所述第二数据方可以根据激励函数取值的第二份额,秘密分享对角矩阵。所述第一数据方和所述第二数据方可以分别获得所述对角矩阵的一份份额。为了便于描述,可以将所述第一数据方获得的份额作为所述对角矩阵的第一份额,可以将所述第二数据方获得的份额作为所述对角矩阵的第二份额。对角矩阵的第一份额和对角矩阵的第二份额的和等于对角矩阵。如此所述第一数据方可以根据特征数据和所述对角矩阵的第一份额,所述第二数据方可以根据所述对角矩阵的第二份额,秘密分享海森矩阵。所述第一数据方可以获得所述海森矩阵的第一份额,所述第二数据方可以获得所述海森矩阵的第二份额。
延续前面的场景示例,所述第一数据方可以根据<a>0,所述第二数据方可以根据<a>1,秘密分享对角矩阵RNN。所述第一数据方可以获得对角矩阵的第一份额RNN0,所述第二数据方可以获得对角矩阵的第二份额RNN1。下面介绍所述第一数据方和所述第二数据方秘密分享对角矩阵RNN的详细过程。
所述第一数据方可以根据<a>0,所述第二数据方可以根据<a>1,秘密分享<a>0·<a>1。所述第一数据方可以获得<[<a>0·<a>1]>0,所述第二数据方可以获得<[<a>0·<a>1]>1。<[<a>0·<a>1]>0+<[<a>0·<a>1]>1=<a>0·<a>1。其中,·表示按位相乘运算。例如,向量m=(m1,m2,m3),向量n=(n1,n2,n3)。那么,m·n=(m1n1,m2n2,m3n3)。
所述第一数据方可以计算<r>0=<a>0-<[<a>0·<a>1]>0-<a>0·<a>0,所述第二数据方可以计算<r>1=<a>1-<[<a>0·<a>1]>0-<a>1·<a>1
<r>0、<r>1和r分别为向量。因而所述第一数据方可以根据<r>0生成对角矩阵RNN=diag(r)的第一份额RNN0=diag(<r>0),所述第二数据方可以根据<r>1生成对角矩阵RNN=diag(r)的第二份额RNN1=diag(<r>1)。RNN0+RNN1=RNN。其中,对角矩阵RNN的第一份额RNN0和第二份额RNN1均可以为一个对角矩阵。在实际处理过程中,所述第一数据方可以将<r>0中的数据元素作为RNN0主对角线上的数据元素,这样便实现了根据<r>0生成RNN0;可以将<r>1中的数据元素作为RNN1主对角线上的数据元素,这样便实现了根据<r>1生成RNN1
所述第一数据方可以根据X和RNN0,所述第二数据方可以根据RNN1,秘密分享海森矩阵H。所述第一数据方可以获得海森矩阵的第一份额<H>0,所述第二数据方可以获得海森矩阵的第二份额<H>1。下面介绍所述第一数据方和所述第二数据方秘密分享海森矩阵H的详细过程。
所述第一数据方可以根据X,所述第二数据方可以根据RNN1,秘密分享XTRNN1。所述第一数据方可以获得<XTRNN10,所述第二数据方可以获得<XTRNN11。<XTRNN10+<XTRNN11=XTRNN1
所述第一数据方还可以根据X,所述第二数据方还可以根据<XTRNN11,秘密分享<XTRNN11X。所述第一数据方可以获得<[<XTRNN11X]>0,所述第二数据方可以获得<[<XTRNN11X]>1。<[<XTRNN11X]>0+<[<XTRNN11X]>1=<XTRNN11X。
所述第一数据方可以计算XTRNN0X+<XTRNN10X+<[<XTRNN11X]>0作为海森矩阵H的第一份额<H>0。所述第二数据方可以将<[<XTRNN11X]>1作为海森矩阵H的第二份额<H>0
在一些实施例中,第三方可以向第一数据方下发随机数矩阵的第一份额;可以向第二数据方下发随机数矩阵的第二份额。随机数矩阵的第一份额和随机数矩阵的第二份额的和等于随机数矩阵。所述第一数据方可以接收随机数矩阵的第一份额,所述第二数据方可以接收随机数矩阵的第二份额。如此在步骤S17中,所述第一数据方可以根据随机数矩阵的第一份额和海森矩阵的第一份额,所述第二数据方可以根据随机数矩阵的第二份额和海森矩阵的第二份额,秘密分享第二乘积。所述第一数据方和所述第二数据方可以分别获得所述第二乘积的一份份额。为了便于描述,可以将所述第一数据方获得的份额作为第二乘积的第一份额,可以将所述第二数据方获得的份额作为第二乘积的第二份额。第二乘积的第一份额和第二乘积的第二份额的和等于第二乘积。
在本实施例的一些实施方式中,可以由所述第二数据方对所述第二乘积进行求逆处理。具体地,所述第一数据方可以向所述第二数据方发送第二乘积的第一份额。所述第二数据方可以接收第二乘积的第一份额;可以将第二乘积的第一份额与自身持有的第二乘积的第二份额相加,得到第二乘积。鉴于所述第二乘积为方阵,因而所述第二数据方可以对所述第二乘积进行求逆处理,得到所述第二乘积的逆矩阵作为第二逆矩阵;可以向所述第一数据方发送所述第二逆矩阵。所述第一数据方可以接收所述第二逆矩阵。或者,在本实施例的另一些实施方式中,还可以由所述第一数据方对所述第二乘积进行求逆处理。具体地,所述第二数据方可以向所述第一数据方发送第二乘积的第二份额。所述第一数据方可以接收第二乘积的第二份额;可以将第二乘积的第二份额与自身持有的第二乘积的第一份额相加,得到第二乘积。鉴于所述第二乘积为方阵,因而所述第一数据方可以对所述第二乘积进行求逆处理,得到所述第二乘积的逆矩阵作为第二逆矩阵;可以向所述第二数据方发送所述第二逆矩阵。所述第二数据方可以接收所述第二逆矩阵。
所述第一数据方可以将随机数矩阵的第一份额与所述第二逆矩阵相乘,得到第一逆矩阵的第一份额。所述第二数据方可以将随机数矩阵的第二份额与所述第二逆矩阵相乘,得到第一逆矩阵的第二份额。第一逆矩阵的第一份额和第一逆矩阵的第二份额的和等于第一逆矩阵。
延续前面的场景示例,随机数矩阵的第一份额可以表示为<R>0,随机数矩阵的第二份额可以表示为<R>1,<R>0+<R>1=R。所述第一数据方可以根据<R>0和<H>0,所述第二数据方可以根据<R>1和<H>1,秘密分享第二乘积HR。所述第一数据方可以获得第二乘积的第一份额<HR>0,所述第二数据方可以获得第二乘积第二份额<HR>1。下面介绍所述第一数据方和所述第二数据方秘密分享第二乘积HR的详细过程。
所述第一数据方可以根据<H>0,所述第二数据方可以根据<R>1,秘密分享<H>0<R>1。所述第一数据方可以获得<[<H>0<R>1]>0,所述第二数据方可以获得<[<H>0<R>1]>1。<[<H>0<R>1]>0+<[<H>0<R>1]>1=<H>0<R>1
所述第一数据方还可以根据<R>0,所述第二数据方还可以根据<H>1,秘密分享<H>1<R>0。所述第一数据方可以获得<[<H>1<R>0]>0,所述第二数据方可以获得<[<H>1<R>0]>1。<[<H>1<R>0]>0+<[<H>1<R>0]>1=<H>1<R>0
所述第一数据方可以计算<H>0<R>0+<[<H>0<R>1]>0+<[<H>1<R>0]>0作为第二乘积的第一份额<HR>0。所述第二数据方可以计算<H>1<R>1+<[<H>0<R>1]>1+<[<H>1<R>0]>1作为第二乘积的第二份额<HR>1
这里由所述第二数据方对第二乘积HR进行求逆处理。具体地,所述第一数据方可以向所述第二数据方发送第二乘积的第一份额<HR>0。所述第二数据方可以接收第二乘积的第一份额<HR>0;可以将第二乘积的第一份额<HR>0与自身持有的第二乘积的第二份额<HR>1相加,得到第二乘积HR;可以对第二乘积HR进行求逆处理,得到第二逆矩阵(HR)-1;可以向所述第一数据方发送第二逆矩阵(HR)-1。所述第一数据方可以接收第二逆矩阵(HR)-1
所述第一数据方可以将第二逆矩阵(HR)-1与随机数矩阵的第一份额<R>0相乘,得到第一逆矩阵H-1的第一份额<H-10。所述第二数据方可以将第二逆矩阵(HR)-1与随机数矩阵的第二份额<R>1相乘,得到第一逆矩阵H-1的第一份额<H-11。H-1=<H-10+<H-11=<R>0(HR)-1+<R>1(HR)-1=R×(HR)-1
在一些实施例中,在步骤S19中,所述第一数据方可以根据第一逆矩阵的第一份额和损失函数梯度的第一份额,所述第二数据方可以根据第一逆矩阵的第二份额和损失函数梯度的第二份额,秘密分享第三乘积。所述第一数据方和所述第二数据方可以分别获得所述第三乘积的一份份额。为了便于描述,可以将所述第一数据方获得的份额作为第三乘积的第一份额,可以将所述第二数据方获得的份额作为第三乘积的第二份额。第三乘积的第一份额和第三乘积的第二份额的和等于第三乘积。
所述第一数据方可以将原始模型参数的第一份额与第三乘积的第一份额相减,得到新的模型参数的第一份额。所述第二数据方可以将原始模型参数的第二份额与第三乘积的第二份额相减,得到新的模型参数的第二份额。
值得说明的是,在实际应用中,可以将新的模型参数作为新的原始模型参数,重复执行步骤S11、步骤S13、步骤S15、步骤S17和步骤S19。通过重复执行本实施例的模型参数确定方法,可以实现对数据处理模型的模型参数进行迭代优化调整。
延续前面的场景示例,所述第一数据方可以根据<H-10和<dW>0,所述第二数据方可以根据<H-11和<dW>1,秘密分享第三乘积H-1×dW。所述第一数据方可以获得第三乘积的第一份额<H-1×dW>0,所述第二数据方可以获得第三乘积的第二份额<H-1×dW>1。下面介绍所述第一数据方和所述第二数据方秘密分享第三乘积H-1×dW的详细过程。
所述第一数据方可以根据<H-10,所述第二数据方可以根据<dW>1,秘密分享<H-10<dW>1。所述第一数据方可以获得<[<H-10<dW>1]>0,所述第二数据方可以获得<[<H-10<dW>1]>1。<[<H-10<dW>1]>0+<[<H-10<dW>1]>1=<H-10<dW>1
所述第一数据方还可以根据<dW>0,所述第二数据方还可以根据<H-11,秘密分享<H-11<dW>0。所述第一数据方可以获得<[<H-11<dW>0]>0,所述第二数据方可以获得<[<H-11<dW>0]>1。<[<H-11<dW>0]>0+<[<H-11<dW>0]>1=<H-11<dW>0
所述第一数据方可以计算<H-10<dW>0+<[<H-10<dW>1]>0+<[<H-11<dW>0]>0作为第三乘积的第一份额<H-1×dW>0。所述第二数据方可以计算<H-11<dW>1+<[<H-10<dW>1]>1+<[<H-11<dW>0]>1作为第三乘积的第二份额<H-1×dW>1
H-1×dW=<H-1×dW>0+<H-1×dW>1
=<H-10<dW>0+<[<H-10<dW>1]>0+<[<H-11<dW>0]>0+
<H-11<dW>1+<[<H-10<dW>1]>1+<[<H-11<dW>0]>1
=<H-10<dW>0+<H-10<dW>1+<H-11<dW>0+<H-11<dW>1
=(<H-10+<H-11)(<dW>0+<dW>1)
所述第一数据方可以计算<W'>0=<W>0-<H-1×dW>0,所述第二数据方可以计算<W'>1=<W>1-<H-1×dW>1,<W'>0表示新的模型参数的第一份额,<W'>1表示新的模型参数的第二份额,W'表示新的模型参数。
W'=<W'>0+<W'>1=<W>0-<H-1×dW>0+<W>1-<H-1×dW>1=W-H-1×dW。
在本实施例中,第一数据方和第二数据方可以采用秘密分享和混淆电路相结合的方式,在不泄漏自身所持有的数据的前提下,协作确定数据处理模型的模型参数。另外,由于使用了牛顿法,因而本实施例的模型参数确定方法有较快的收敛速度,可以减少模型参数优化调整的次数,提高数据处理模型的训练效率。
基于同样的发明构思,本说明书还提供另一种模型参数确定方法的实施例。该实施例以第一数据方为执行主体,所述第一数据方可以持有特征数据和原始模型参数的份额。请参阅图5。该实施例可以包括以下步骤。
步骤S21:根据第一乘积的份额和激励函数对应的混淆电路与合作方进行通信,得到激励函数取值的份额,所述第一乘积为特征数据和原始模型参数的乘积。
在一些实施例中,所述合作方可以理解为与所述第一数据方进行合作安全建模的数据方,具体可以为前面的第二数据方。具体地,所述第一数据方可以根据特征数据和原始模型参数的份额与合作方秘密分享第一乘积,得到第一乘积的份额;可以根据第一乘积的份额和激励函数对应的混淆电路与合作方通信,得到激励函数取值的份额。具体过程可以参见前面步骤S11的相关描述,在此不再赘述。
步骤S23:根据特征数据和激励函数取值的份额与合作方秘密分享损失函数的梯度,得到损失函数梯度的份额。
在一些实施例中,所述第一数据方可以根据特征数据和激励函数取值的份额与合作方秘密分享损失函数的梯度,得到损失函数梯度的份额。具体过程可以参见前面步骤S13的相关描述,在此不再赘述。
步骤S25:根据特征数据和激励函数取值的份额与合作方秘密分享海森矩阵,得到海森矩阵的份额。
在一些实施例中,所述第一数据方可以根据激励函数取值的份额与合作方秘密分享对角矩阵,得到对角矩阵的份额;可以根据特征数据和对角矩阵的份额与合作方秘密分享海森矩阵,得到海森矩阵的份额。具体过程可以参见前面步骤S15的相关描述,在此不再赘述。
步骤S27:根据海森矩阵的份额与合作方秘密分享第一逆矩阵,得到第一逆矩阵的份额,所述第一逆矩阵为海森矩阵的逆矩阵。
在一些实施例中,所述第一数据方可以根据随机数矩阵的份额和海森矩阵的份额与合作方秘密分享第二乘积,得到第二乘积的份额。所述第二乘积可以为随机数矩阵和海森矩阵之间的乘积。所述第一数据方可以向合作方发送第二乘积的份额;可以接收合作方反馈的第二逆矩阵,所述第二逆矩阵为所述第二乘积的逆矩阵;可以将第二逆矩阵与随机数矩阵的份额相乘,得到第一逆矩阵的份额。具体过程可以参见前面步骤S17的相关描述,在此不再赘述。
或者,在另一些实施例中,所述第一数据方可以根据随机数矩阵的份额和海森矩阵的份额与合作方秘密分享第二乘积,得到第二乘积的第一份额。所述第二乘积可以为随机数矩阵和海森矩阵之间的乘积。所述第一数据方可以接收合作方发来的第二乘积的第二份额;可以根据第二乘积的第一份额和第二乘积的第二份额确定第二逆矩阵,所述第二逆矩阵为所述第二乘积的逆矩阵;可以将第二逆矩阵与随机数矩阵的份额相乘,得到第一逆矩阵的份额。具体过程可以参见前面步骤S17的相关描述,在此不再赘述。
步骤S29:根据原始模型参数的份额、第一逆矩阵的份额和损失函数梯度的份额与合作方秘密分享新的模型参数,得到新的模型参数的份额。
在一些实施例中,所述第一数据方可以根据第一逆矩阵的份额和损失函数梯度的份额与合作方秘密分享第三乘积,得到第三乘积的份额。所述第三乘积可以为第一逆矩阵和损失函数梯度之间的乘积。所述第一数据方可以将原始模型参数的份额与第三乘积的份额相减,得到新的模型参数的份额。具体过程可以参见前面步骤S19的相关描述,在此不再赘述。
在本实施例中,第一数据方可以采用秘密分享和混淆电路相结合的方式,在不泄漏自身所拥有的数据的前提下,与合作方协作确定数据处理模型的模型参数,得到新的模型参数的份额。
基于同样的发明构思,本说明书还提供另一种模型参数确定方法的实施例。该实施例以第二数据方为执行主体,所述第二数据方可以持有标签和原始模型参数的份额。请参阅图6。该实施例可以包括以下步骤。
步骤S31:根据第一乘积的份额和激励函数对应的混淆电路与合作方进行通信,得到激励函数取值的份额,所述第一乘积为特征数据和原始模型参数的乘积。
在一些实施例中,所述合作方可以理解为与所述第二数据方进行合作安全建模的数据方,具体可以为前面的第一数据方。具体地,所述第二数据方可以根据原始模型参数的份额与合作方秘密分享第一乘积,得到第一乘积的份额;可以根据第一乘积的份额和激励函数对应的混淆电路与合作方通信,得到激励函数取值的份额。具体过程可以参见前面步骤S11的相关描述,在此不再赘述。
步骤S33:根据标签和激励函数取值的份额与合作方秘密分享损失函数的梯度,得到损失函数梯度的份额。
在一些实施例中,所述第二数据方可以根据标签和激励函数取值的份额与合作方秘密分享损失函数的梯度,得到损失函数梯度的份额。具体过程可以参见前面步骤S13的相关描述,在此不再赘述。
步骤S35:根据激励函数取值的份额与合作方秘密分享海森矩阵,得到海森矩阵的份额。
在一些实施例中,所述第二数据方可以根据激励函数取值的份额与合作方秘密分享对角矩阵,得到对角矩阵的份额;可以根据对角矩阵的份额与合作方秘密分享海森矩阵,得到海森矩阵的份额。具体过程可以参见前面步骤S15的相关描述,在此不再赘述。
步骤S37:根据海森矩阵的份额与合作方秘密分享第一逆矩阵,得到第一逆矩阵的份额,所述第一逆矩阵为海森矩阵的逆矩阵。
在一些实施例中,所述第二数据方可以根据随机数矩阵的份额和海森矩阵的份额与合作方秘密分享第二乘积,得到第二乘积的份额。所述第二乘积可以为随机数矩阵和海森矩阵之间的乘积。所述第二数据方可以向合作方发送第二乘积的份额;可以接收合作方反馈的第二逆矩阵,所述第二逆矩阵为所述第二乘积的逆矩阵;可以将第二逆矩阵与随机数矩阵的份额相乘,得到第一逆矩阵的份额。具体过程可以参见前面步骤S17的相关描述,在此不再赘述。
或者,在另一些实施例中,所述第二数据方可以根据随机数矩阵的份额和海森矩阵的份额与合作方秘密分享第二乘积,得到第二乘积的第一份额。所述第二乘积可以为随机数矩阵和海森矩阵之间的乘积。所述第二数据方可以接收合作方发来的第二乘积的第二份额;可以根据第二乘积的第一份额和第二乘积的第二份额确定第二逆矩阵,所述第二逆矩阵为所述第二乘积的逆矩阵;可以将第二逆矩阵与随机数矩阵的份额相乘,得到第一逆矩阵的份额。具体过程可以参见前面步骤S17的相关描述,在此不再赘述。
步骤S39:根据原始模型参数的份额、第一逆矩阵的份额和损失函数梯度的份额与合作方秘密分享新的模型参数,得到新的模型参数的份额。
在一些实施例中,所述第二数据方可以根据第一逆矩阵的份额和损失函数梯度的份额与合作方秘密分享第三乘积,得到第三乘积的份额。所述第三乘积可以为第一逆矩阵和损失函数梯度之间的乘积。所述第二数据方可以将原始模型参数的份额与第三乘积的份额相减,得到新的模型参数的份额。具体过程可以参见前面步骤S19的相关描述,在此不再赘述。
在本实施例中,第二数据方可以采用秘密分享和混淆电路相结合的方式,在不泄漏自身所拥有的数据的前提下,与合作方协作确定数据处理模型的模型参数,得到新的模型参数的份额。
基于同样的发明构思,本说明书还提供一种模型参数确定装置的实施例。请参阅图7。该实施例可以应用于第一数据方,可以包括以下单元。
激励函数取值份额获取单元41,用于根据第一乘积的份额和激励函数对应的混淆电路与合作方进行通信,得到激励函数取值的份额,所述第一乘积为特征数据和原始模型参数的乘积;
损失函数梯度份额获取单元43,用于根据特征数据和激励函数取值的份额与合作方秘密分享损失函数的梯度,得到损失函数梯度的份额;
海森矩阵份额获取单元45,用于根据特征数据和激励函数取值的份额与合作方秘密分享海森矩阵,得到海森矩阵的份额;
第一逆矩阵份额获取单元47,用于根据海森矩阵的份额与合作方秘密分享第一逆矩阵,得到第一逆矩阵的份额,所述第一逆矩阵为海森矩阵的逆矩阵;
模型参数份额获取单元49,用于根据原始模型参数的份额、第一逆矩阵的份额和损失函数梯度的份额与合作方秘密分享新的模型参数,得到新的模型参数的份额。
基于同样的发明构思,本说明书还提供一种模型参数确定装置的实施例。请参阅图8。该实施例可以应用于第二数据方,可以包括以下单元。
激励函数取值份额获取单元51,用于根据第一乘积的份额和激励函数对应的混淆电路与合作方进行通信,得到激励函数取值的份额,所述第一乘积为特征数据和原始模型参数的乘积;
损失函数梯度份额获取单元53,用于根据标签和激励函数取值的份额与合作方秘密分享损失函数的梯度,得到损失函数梯度的份额;
海森矩阵份额获取单元55,用于根据激励函数取值的份额与合作方秘密分享海森矩阵,得到海森矩阵的份额;
第一逆矩阵份额获取单元57,用于根据海森矩阵的份额与合作方秘密分享第一逆矩阵,得到第一逆矩阵的份额,所述第一逆矩阵为海森矩阵的逆矩阵;
模型参数份额获取单元59,用于根据原始模型参数的份额、第一逆矩阵的份额和损失函数梯度的份额与合作方秘密分享新的模型参数,得到新的模型参数的份额。
下面介绍本说明书电子设备的一个实施例。图9是该实施例中一种电子设备的硬件结构示意图。如图9所示,所述电子设备可以包括一个或多个(图中仅示出一个)处理器、存储器和传输模块。当然,本领域普通技术人员可以理解,图9所示的硬件结构仅为示意,其并不对上述电子设备的硬件结构造成限定。在实际中所述电子设备还可以包括比图9所示更多或者更少的组件单元;或者,具有与图9所示不同的配置。
所述存储器可以包括高速随机存储器;或者,还可以包括非易失性存储器,例如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。当然,所述存储器还可以包括远程设置的网络存储器。所述远程设置的网络存储器可以通过诸如互联网、企业内部网、局域网、移动通信网等网络连接至所述电子设备。所述存储器可以用于存储应用软件的程序指令或模块,例如本说明书图5所对应实施例的程序指令或模块;和/或,本说明书图6所对应实施例的程序指令或模块。
所述处理器可以按任何适当的方式实现。例如,所述处理器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific IntegratedCircuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式等等。所述处理器可以读取并执行所述存储器中的程序指令或模块。
所述传输模块可以用于经由网络进行数据传输,例如经由诸如互联网、企业内部网、局域网、移动通信网等网络进行数据传输。
需要说明的是,本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同或相似的部分互相参见即可,每个实施例重点说明的都是与其它实施例的不同之处。尤其,对于装置实施例和电子设备实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。另外,可以理解的是,本领域技术人员在阅读本说明书文件之后,可以无需创造性劳动想到将本说明书列举的部分或全部实施例进行任意组合,这些组合也在本说明书公开和保护的范围内。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field ProgrammableGateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog2。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到本说明书可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本说明书的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本说明书各个实施例或者实施例的某些部分所述的方法。
本说明书可用于众多通用或专用的计算机系统环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、置顶盒、可编程的消费电子设备、网络PC、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
虽然通过实施例描绘了本说明书,本领域普通技术人员知道,本说明书有许多变形和变化而不脱离本说明书的精神,希望所附的权利要求包括这些变形和变化而不脱离本说明书的精神。

Claims (18)

1.一种模型参数确定方法,应用于第一数据方,包括:
根据第一乘积的份额和激励函数对应的混淆电路与合作方进行通信,得到激励函数取值的份额,所述第一乘积为特征数据和原始模型参数的乘积;
根据特征数据和激励函数取值的份额与合作方秘密分享损失函数的梯度,得到损失函数梯度的份额;
根据特征数据和激励函数取值的份额与合作方秘密分享海森矩阵,得到海森矩阵的份额;
根据海森矩阵的份额与合作方秘密分享第一逆矩阵,得到第一逆矩阵的份额,所述第一逆矩阵为海森矩阵的逆矩阵;
根据原始模型参数的份额、第一逆矩阵的份额和损失函数梯度的份额与合作方秘密分享新的模型参数,得到新的模型参数的份额。
2.如权利要求1所述的方法,所述根据第一乘积的份额和激励函数对应的混淆电路与合作方进行通信,得到激励函数取值的份额,包括:
根据第一乘积的份额和分段线性函数对应的混淆电路与合作方进行通信,得到分段线性函数取值的份额作为激励函数取值的份额,所述分段线性函数用于拟合所述激励函数。
3.如权利要求1所述的方法,所述根据特征数据和激励函数取值的份额与合作方秘密分享海森矩阵,得到海森矩阵的份额,包括:
根据激励函数取值的份额与合作方秘密分享对角矩阵,得到对角矩阵的份额;
根据特征数据和对角矩阵的份额与合作方秘密分享海森矩阵,得到海森矩阵的份额。
4.如权利要求1所述的方法,所述根据海森矩阵的份额与合作方秘密分享第一逆矩阵,得到第一逆矩阵的份额,包括:
根据随机数矩阵的份额和海森矩阵的份额与合作方秘密分享第二乘积,得到第二乘积的份额,所述第二乘积为随机数矩阵和海森矩阵之间的乘积;
向合作方发送第二乘积的份额;
接收合作方反馈的第二逆矩阵,所述第二逆矩阵为所述第二乘积的逆矩阵;
将第二逆矩阵与随机数矩阵的份额相乘,得到第一逆矩阵的份额。
5.如权利要求1所述的方法,所述根据海森矩阵的份额与合作方秘密分享第一逆矩阵,得到第一逆矩阵的份额,包括:
根据随机数矩阵的份额和海森矩阵的份额与合作方秘密分享第二乘积,得到第二乘积的第一份额,所述第二乘积为随机数矩阵和海森矩阵之间的乘积;
接收合作方发来的第二乘积的第二份额;
根据第二乘积的第一份额和第二乘积的第二份额确定第二逆矩阵,所述第二逆矩阵为所述第二乘积的逆矩阵;
将第二逆矩阵与随机数矩阵的份额相乘,得到第一逆矩阵的份额。
6.如权利要求1所述的方法,所述根据原始模型参数的份额、第一逆矩阵的份额和损失函数梯度的份额与合作方秘密分享新的模型参数,得到新的模型参数的份额,包括:
根据第一逆矩阵的份额和损失函数梯度的份额与合作方秘密分享第三乘积,得到第三乘积的份额,所述第三乘积为第一逆矩阵和损失函数梯度之间的乘积;
将原始模型参数的份额与第三乘积的份额相减,得到新的模型参数的份额。
7.如权利要求1所述的方法,还包括:
根据特征数据和原始模型参数的份额与合作方秘密分享第一乘积,得到第一乘积的份额。
8.一种模型参数确定方法,应用于第二数据方,包括:
根据第一乘积的份额和激励函数对应的混淆电路与合作方进行通信,得到激励函数取值的份额,所述第一乘积为特征数据和原始模型参数的乘积;
根据标签和激励函数取值的份额与合作方秘密分享损失函数的梯度,得到损失函数梯度的份额;
根据激励函数取值的份额与合作方秘密分享海森矩阵,得到海森矩阵的份额;
根据海森矩阵的份额与合作方秘密分享第一逆矩阵,得到第一逆矩阵的份额,所述第一逆矩阵为海森矩阵的逆矩阵;
根据原始模型参数的份额、第一逆矩阵的份额和损失函数梯度的份额与合作方秘密分享新的模型参数,得到新的模型参数的份额。
9.如权利要求8所述的方法,所述根据第一乘积的份额和激励函数对应的混淆电路与合作方进行通信,得到激励函数取值的份额,包括:
根据第一乘积的份额和分段线性函数对应的混淆电路与合作方进行通信,得到分段线性函数取值的份额作为激励函数取值的份额,所述分段线性函数用于拟合所述激励函数。
10.如权利要求8所述的方法,所述根据激励函数取值的份额与合作方秘密分享海森矩阵,得到海森矩阵的份额,包括:
根据激励函数取值的份额与合作方秘密分享对角矩阵,得到对角矩阵的份额;
根据对角矩阵的份额与合作方秘密分享海森矩阵,得到海森矩阵的份额。
11.如权利要求8所述的方法,所述根据海森矩阵的份额与合作方秘密分享第一逆矩阵,得到第一逆矩阵的份额,包括:
根据随机数矩阵的份额和海森矩阵的份额与合作方秘密分享第二乘积,得到第二乘积的份额,所述第二乘积为随机数矩阵和海森矩阵之间的乘积;
向合作方发送第二乘积的份额;
接收合作方反馈的第二逆矩阵,所述第二逆矩阵为所述第二乘积的逆矩阵;
将第二逆矩阵与随机数矩阵的份额相乘,得到第一逆矩阵的份额。
12.如权利要求8所述的方法,所述根据海森矩阵的份额与合作方秘密分享第一逆矩阵,得到第一逆矩阵的份额,包括:
根据随机数矩阵的份额和海森矩阵的份额与合作方秘密分享第二乘积,得到第二乘积的第一份额,所述第二乘积为随机数矩阵和海森矩阵之间的乘积;
接收合作方发来的第二乘积的第二份额;
根据第二乘积的第一份额和第二乘积的第二份额确定第二逆矩阵,所述第二逆矩阵为所述第二乘积的逆矩阵;
将第二逆矩阵与随机数矩阵的份额相乘,得到第一逆矩阵的份额。
13.如权利要求8所述的方法,所述根据原始模型参数的份额、第一逆矩阵的份额和损失函数梯度的份额与合作方秘密分享新的模型参数,得到新的模型参数的份额,包括:
根据第一逆矩阵的份额和损失函数梯度的份额与合作方秘密分享第三乘积,得到第三乘积的份额,所述第三乘积为第一逆矩阵和损失函数梯度之间的乘积;
将原始模型参数的份额与第三乘积的份额相减,得到新的模型参数的份额。
14.如权利要求8所述的方法,还包括:
根据原始模型参数的份额与合作方秘密分享第一乘积,得到第一乘积的份额。
15.一种模型参数确定装置,应用于第一数据方,包括:
激励函数取值份额获取单元,用于根据第一乘积的份额和激励函数对应的混淆电路与合作方进行通信,得到激励函数取值的份额,所述第一乘积为特征数据和原始模型参数的乘积;
损失函数梯度份额获取单元,用于根据特征数据和激励函数取值的份额与合作方秘密分享损失函数的梯度,得到损失函数梯度的份额;
海森矩阵份额获取单元,用于根据特征数据和激励函数取值的份额与合作方秘密分享海森矩阵,得到海森矩阵的份额;
第一逆矩阵份额获取单元,用于根据海森矩阵的份额与合作方秘密分享第一逆矩阵,得到第一逆矩阵的份额,所述第一逆矩阵为海森矩阵的逆矩阵;
模型参数份额获取单元,用于根据原始模型参数的份额、第一逆矩阵的份额和损失函数梯度的份额与合作方秘密分享新的模型参数,得到新的模型参数的份额。
16.一种电子设备,包括:
存储器,用于存储计算机指令;
处理器,用于执行所述计算机指令以实现如权利要求1-7中任一项所述的方法步骤。
17.一种模型参数确定装置,应用于第二数据方,包括:
激励函数取值份额获取单元,用于根据第一乘积的份额和激励函数对应的混淆电路与合作方进行通信,得到激励函数取值的份额,所述第一乘积为特征数据和原始模型参数的乘积;
损失函数梯度份额获取单元,用于根据标签和激励函数取值的份额与合作方秘密分享损失函数的梯度,得到损失函数梯度的份额;
海森矩阵份额获取单元,用于根据激励函数取值的份额与合作方秘密分享海森矩阵,得到海森矩阵的份额;
第一逆矩阵份额获取单元,用于根据海森矩阵的份额与合作方秘密分享第一逆矩阵,得到第一逆矩阵的份额,所述第一逆矩阵为海森矩阵的逆矩阵;
模型参数份额获取单元,用于根据原始模型参数的份额、第一逆矩阵的份额和损失函数梯度的份额与合作方秘密分享新的模型参数,得到新的模型参数的份额。
18.一种电子设备,包括:
存储器,用于存储计算机指令;
处理器,用于执行所述计算机指令以实现如权利要求8-14中任一项所述的方法步骤。
CN201910734784.3A 2019-08-09 2019-08-09 模型参数确定方法、装置和电子设备 Active CN110580409B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201910734784.3A CN110580409B (zh) 2019-08-09 2019-08-09 模型参数确定方法、装置和电子设备
PCT/CN2020/106254 WO2021027598A1 (zh) 2019-08-09 2020-07-31 模型参数确定方法、装置和电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910734784.3A CN110580409B (zh) 2019-08-09 2019-08-09 模型参数确定方法、装置和电子设备

Publications (2)

Publication Number Publication Date
CN110580409A true CN110580409A (zh) 2019-12-17
CN110580409B CN110580409B (zh) 2023-05-30

Family

ID=68810719

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910734784.3A Active CN110580409B (zh) 2019-08-09 2019-08-09 模型参数确定方法、装置和电子设备

Country Status (1)

Country Link
CN (1) CN110580409B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111738361A (zh) * 2020-07-31 2020-10-02 支付宝(杭州)信息技术有限公司 业务模型的联合训练方法及装置
US10803184B2 (en) 2019-08-09 2020-10-13 Alibaba Group Holding Limited Generation of a model parameter
WO2021027259A1 (zh) * 2019-08-09 2021-02-18 创新先进技术有限公司 模型参数确定方法、装置和电子设备
WO2021027254A1 (zh) * 2019-08-09 2021-02-18 创新先进技术有限公司 模型参数确定方法、装置和电子设备
WO2021027598A1 (zh) * 2019-08-09 2021-02-18 创新先进技术有限公司 模型参数确定方法、装置和电子设备
US10936960B1 (en) 2019-08-09 2021-03-02 Advanced New Technologies Co., Ltd. Determining model parameters using secret sharing
CN113111254A (zh) * 2021-03-08 2021-07-13 支付宝(杭州)信息技术有限公司 推荐模型的训练方法、拟合方法、装置和电子设备
CN113591146A (zh) * 2021-07-29 2021-11-02 北京航空航天大学 基于合作的高效安全两方计算系统及计算方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5957120B1 (ja) * 2015-05-12 2016-07-27 日本電信電話株式会社 秘密分散方法、秘密分散システム、分散装置、およびプログラム
CN109426861A (zh) * 2017-08-16 2019-03-05 阿里巴巴集团控股有限公司 数据加密、机器学习模型训练方法、装置及电子设备
WO2019046651A2 (en) * 2017-08-30 2019-03-07 Inpher, Inc. EVALUATION OF REAL-VALUE FUNCTION PRESERVING HIGH PRECISION CONFIDENTIALITY
CN109977694A (zh) * 2019-03-11 2019-07-05 暨南大学 一种基于协作深度学习的数据共享方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5957120B1 (ja) * 2015-05-12 2016-07-27 日本電信電話株式会社 秘密分散方法、秘密分散システム、分散装置、およびプログラム
CN109426861A (zh) * 2017-08-16 2019-03-05 阿里巴巴集团控股有限公司 数据加密、机器学习模型训练方法、装置及电子设备
WO2019046651A2 (en) * 2017-08-30 2019-03-07 Inpher, Inc. EVALUATION OF REAL-VALUE FUNCTION PRESERVING HIGH PRECISION CONFIDENTIALITY
CN109977694A (zh) * 2019-03-11 2019-07-05 暨南大学 一种基于协作深度学习的数据共享方法

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10803184B2 (en) 2019-08-09 2020-10-13 Alibaba Group Holding Limited Generation of a model parameter
WO2021027259A1 (zh) * 2019-08-09 2021-02-18 创新先进技术有限公司 模型参数确定方法、装置和电子设备
WO2021027254A1 (zh) * 2019-08-09 2021-02-18 创新先进技术有限公司 模型参数确定方法、装置和电子设备
WO2021027598A1 (zh) * 2019-08-09 2021-02-18 创新先进技术有限公司 模型参数确定方法、装置和电子设备
US10936960B1 (en) 2019-08-09 2021-03-02 Advanced New Technologies Co., Ltd. Determining model parameters using secret sharing
US11113613B2 (en) 2019-08-09 2021-09-07 Advanced New Technologies Co., Ltd. Determining model parameters using secret sharing
CN111738361A (zh) * 2020-07-31 2020-10-02 支付宝(杭州)信息技术有限公司 业务模型的联合训练方法及装置
CN111738361B (zh) * 2020-07-31 2020-12-08 支付宝(杭州)信息技术有限公司 业务模型的联合训练方法及装置
CN113111254A (zh) * 2021-03-08 2021-07-13 支付宝(杭州)信息技术有限公司 推荐模型的训练方法、拟合方法、装置和电子设备
CN113111254B (zh) * 2021-03-08 2023-04-07 支付宝(杭州)信息技术有限公司 推荐模型的训练方法、拟合方法、装置和电子设备
CN113591146A (zh) * 2021-07-29 2021-11-02 北京航空航天大学 基于合作的高效安全两方计算系统及计算方法
CN113591146B (zh) * 2021-07-29 2024-02-13 北京航空航天大学 基于合作的高效安全两方计算系统及计算方法

Also Published As

Publication number Publication date
CN110580409B (zh) 2023-05-30

Similar Documents

Publication Publication Date Title
CN110569227B (zh) 模型参数确定方法、装置和电子设备
CN110555525B (zh) 模型参数确定方法、装置和电子设备
CN110580409A (zh) 模型参数确定方法、装置和电子设备
CN110555315B (zh) 基于秘密分享算法的模型参数更新方法、装置和电子设备
CN110580410A (zh) 模型参数确定方法、装置和电子设备
CN110472439B (zh) 模型参数确定方法、装置和电子设备
US20200177364A1 (en) Determining data processing model parameters through multiparty cooperation
CN113239404B (zh) 一种基于差分隐私和混沌加密的联邦学习方法
CN110414567B (zh) 数据处理方法、装置和电子设备
CN111125727B (zh) 混淆电路生成方法、预测结果确定方法、装置和电子设备
CN110569228B (zh) 模型参数确定方法、装置和电子设备
CN110427969B (zh) 数据处理方法、装置和电子设备
CN110457936B (zh) 数据交互方法、装置和电子设备
CN111967035B (zh) 模型训练方法、装置和电子设备
US11113613B2 (en) Determining model parameters using secret sharing
CN110460435B (zh) 数据交互方法、装置、服务器和电子设备
CN110391895B (zh) 数据预处理方法、密文数据获取方法、装置和电子设备
CN112507323A (zh) 基于单向网络的模型训练方法、装置和计算设备
CN112511361B (zh) 模型训练方法、装置和计算设备
CN115085897A (zh) 用于保护隐私的数据处理方法、装置和计算机设备
US10735189B2 (en) Data exchange for multi-party computation
WO2021027598A1 (zh) 模型参数确定方法、装置和电子设备
CN113011459B (zh) 模型训练方法、装置和计算设备
CN111460514B (zh) 数据匹配方法、装置和电子设备
CN115994369A (zh) 数据处理方法和数据处理装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40018911

Country of ref document: HK

TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20201012

Address after: Cayman Enterprise Centre, 27 Hospital Road, George Town, Grand Cayman Islands

Applicant after: Innovative advanced technology Co.,Ltd.

Address before: Cayman Enterprise Centre, 27 Hospital Road, George Town, Grand Cayman Islands

Applicant before: Advanced innovation technology Co.,Ltd.

Effective date of registration: 20201012

Address after: Cayman Enterprise Centre, 27 Hospital Road, George Town, Grand Cayman Islands

Applicant after: Advanced innovation technology Co.,Ltd.

Address before: Greater Cayman, British Cayman Islands

Applicant before: Alibaba Group Holding Ltd.

GR01 Patent grant
GR01 Patent grant