CN110569227A - 模型参数确定方法、装置和电子设备 - Google Patents

模型参数确定方法、装置和电子设备 Download PDF

Info

Publication number
CN110569227A
CN110569227A CN201910734791.3A CN201910734791A CN110569227A CN 110569227 A CN110569227 A CN 110569227A CN 201910734791 A CN201910734791 A CN 201910734791A CN 110569227 A CN110569227 A CN 110569227A
Authority
CN
China
Prior art keywords
share
product
data
function
gradient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910734791.3A
Other languages
English (en)
Other versions
CN110569227B (zh
Inventor
周亚顺
李漓春
殷山
王华忠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Advanced New Technologies Co Ltd
Advantageous New Technologies Co Ltd
Original Assignee
Alibaba Group Holding Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alibaba Group Holding Ltd filed Critical Alibaba Group Holding Ltd
Priority to CN201910734791.3A priority Critical patent/CN110569227B/zh
Publication of CN110569227A publication Critical patent/CN110569227A/zh
Priority to PCT/CN2020/072079 priority patent/WO2021027258A1/zh
Priority to US16/779,524 priority patent/US20200177364A1/en
Priority to TW109106898A priority patent/TWI724809B/zh
Application granted granted Critical
Publication of CN110569227B publication Critical patent/CN110569227B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/21Design, administration or maintenance of databases
    • G06F16/211Schema design and management
    • G06F16/212Schema design and management with details for data modelling support
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Bioethics (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Software Systems (AREA)
  • Storage Device Security (AREA)

Abstract

本说明书实施例提供一种模型参数确定方法、装置和电子设备。所述方法包括:根据特征数据和原始模型参数的份额与合作方秘密分享第一乘积,得到第一乘积的份额,所述第一乘积为特征数据和原始模型参数的乘积;根据第一乘积的份额和激励函数对应的混淆电路与合作方进行通信,得到激励函数取值的份额;根据特征数据和激励函数取值的份额与合作方秘密分享损失函数的梯度,得到损失函数梯度的份额;根据原始模型参数的份额、损失函数梯度的份额和预设步长,计算新的模型参数的份额。本说明实施例可以在保护数据隐私的前提下,由多方协作确定数据处理模型的模型参数。

Description

模型参数确定方法、装置和电子设备
技术领域
本说明书实施例涉及计算机技术领域,特别涉及一种模型参数确定方法、装置和电子设备。
背景技术
大数据时代,存在非常多的数据孤岛。数据通常分散存于不同的企业中,企业与企业之间由于竞争关系和隐私保护的考虑,并不是完全的互相信任。在一些情况下,企业与企业之间需要进行合作安全建模,以便在充分保护企业数据隐私的前提下,使用各方的数据对数据处理模型进行协作训练。
在对数据处理模型进行协作训练的过程中,可以使用模型参数优化方法对数据处理模型的模型参数进行多次优化调整。由于用于对数据处理模型进行训练的数据是分散在合作建模的各方的,因此如何在保护数据隐私的条件下,协作确定数据处理模型的模型参数,是当前亟需解决的技术问题。
发明内容
本说明书实施例的目的是提供一种模型参数确定方法、装置和电子设备,以在保护数据隐私的前提下,由多方协作确定数据处理模型的模型参数。
为实现上述目的,本说明书中一个或多个实施例提供的技术方案如下。
根据本说明书一个或多个实施例的第一方面,提供了一种模型参数确定方法,应用于第一数据方,包括:根据特征数据和原始模型参数的份额与合作方秘密分享第一乘积,得到第一乘积的份额,所述第一乘积为特征数据和原始模型参数的乘积;根据第一乘积的份额和激励函数对应的混淆电路与合作方进行通信,得到激励函数取值的份额;根据特征数据和激励函数取值的份额与合作方秘密分享损失函数的梯度,得到损失函数梯度的份额;根据原始模型参数的份额、损失函数梯度的份额和预设步长,计算新的模型参数的份额。
根据本说明书一个或多个实施例的第二方面,提供了一种模型参数确定方法,应用于第二数据方,包括:根据原始模型参数的份额与合作方秘密分享第一乘积,得到第一乘积的份额,所述第一乘积为特征数据和原始模型参数的乘积;根据第一乘积的份额和激励函数对应的混淆电路与合作方进行通信,得到激励函数取值的份额;根据标签和激励函数取值的份额与合作方秘密分享损失函数的梯度,得到损失函数梯度的份额;根据原始模型参数的份额、损失函数梯度的份额和预设步长,计算新的模型参数的份额。
根据本说明书一个或多个实施例的第三方面,提供了一种模型参数确定装置,应用于第一数据方,包括:第一乘积份额获取单元,用于根据特征数据和原始模型参数的份额与合作方秘密分享第一乘积,得到第一乘积的份额,所述第一乘积为特征数据和原始模型参数的乘积;激励函数取值份额获取单元,用于根据第一乘积的份额和激励函数对应的混淆电路与合作方进行通信,得到激励函数取值的份额;损失函数梯度份额获取单元,用于根据特征数据和激励函数取值的份额与合作方秘密分享损失函数的梯度,得到损失函数梯度的份额;模型参数份额计算单元,用于根据原始模型参数的份额、损失函数梯度的份额和预设步长,计算新的模型参数的份额。
根据本说明书一个或多个实施例的第四方面,提供了一种模型参数确定装置,应用于第二数据方,包括:第一乘积份额获取单元,用于根据原始模型参数的份额与合作方秘密分享第一乘积,得到第一乘积的份额,所述第一乘积为特征数据和原始模型参数的乘积;激励函数取值份额获取单元,用于根据第一乘积的份额和激励函数对应的混淆电路与合作方进行通信,得到激励函数取值的份额;损失函数梯度份额获取单元,用于根据标签和激励函数取值的份额与合作方秘密分享损失函数的梯度,得到损失函数梯度的份额;模型参数份额计算单元,用于根据原始模型参数的份额、损失函数梯度的份额和预设步长,计算新的模型参数的份额。
根据本说明书一个或多个实施例的第五方面,提供了一种电子设备,包括:存储器,用于存储计算机指令;处理器,用于执行所述计算机指令以实现如第一方面所述的方法步骤。
根据本说明书一个或多个实施例的第六方面,提供了一种电子设备,包括:存储器,用于存储计算机指令;处理器,用于执行所述计算机指令以实现如第二方面所述的方法步骤。
由以上本说明书实施例提供的技术方案可见,本说明书实施例中,第一数据方和第二数据方可以采用秘密分享和混淆电路相结合的方式,在不泄漏自身所持有的数据的前提下,使用梯度下降法,协作确定数据处理模型的模型参数。
附图说明
为了更清楚地说明本说明书实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本说明书实施例一种逻辑电路的示意图;
图2为本说明书实施例一种模型参数确定系统的示意图;
图3为本说明书实施例一种模型参数确定方法的流程图;
图4为本说明书实施例一种基于混淆电路进行计算的示意图;
图5为本说明书实施例一种模型参数确定方法的流程图;
图6为本说明书实施例一种模型参数确定方法的流程图;
图7为本说明书实施例一种模型参数确定装置的功能结构示意图;
图8为本说明书实施例一种模型参数确定装置的功能结构示意图;
图9为本说明书实施例一种电子设备的功能结构示意图。
具体实施方式
下面将结合本说明书实施例中的附图,对本说明书实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都应当属于本说明书保护的范围。
多方安全计算(Secure Muti-Party Computation,MPC)是一种保护数据隐私安全的算法。多方安全计算能让参与计算的多个数据方在不暴露自身数据的前提下进行协作计算。
秘密分享(SS,Secret Sharing)是一种保护数据隐私安全的算法,可以用于实现多方安全计算。具体地,多个数据方可以在不泄漏自身数据的前提下,使用秘密分享算法进行协作计算,得到秘密信息。每个数据方可以获得该秘密信息的一份份额。单个数据方无法恢复该秘密信息。只有多个数据方一同协作才能恢复该秘密信息。例如数据方P1持有数据x1,数据方P2持有数据x2。采用秘密分享算法,数据方P1和数据方P2可以进行协作计算,得到秘密信息y=y1+y2=x1x2。数据方P1在计算后可以获得秘密信息y的份额y1,数据方P2在计算后可以获得秘密信息y的份额y2
混淆电路(Garbled Circuit)是一种保护数据隐私的安全计算协议,可以用于实现多方安全计算。具体地,可以将给定的计算任务(例如函数)转换为逻辑电路,所述逻辑电路可以由至少一个运算门构成,所述运算门可以包括与门、或门、异或门等等。所述逻辑电路可以包括至少两个输入线和至少一个输出线,通过对所述逻辑电路的输入线和/或输出线进行加密便可以得到混淆电路。多个数据方可以在不泄漏自身数据的前提下,使用所述混淆电路进行协作计算,得到所述计算任务的执行结果。
不经意传输(Oblivious Transfer,OT),又称为茫然传输,是一种可以保护隐私的双方通信协议,能够使通信双方以一种选择模糊化的方式传递数据。发送方可以具有多个数据。经由不经意传输接收方能够获得所述多个数据中的一个或多个数据。在此过程中,发送方不知晓接收方接收的是哪些数据;而接收方不能够获得其所接收数据之外的其它任何数据。不经意传输协议是混淆电路的基础协议。在使用混淆电路进行协作计算的过程中,通常会使用到不经意传输协议。
以下介绍混淆电路的一个应用场景示例。
数据方P1持有数据x1和数据x3,数据方P2持有数据x2。函数y=f(x1,x2,x3)=x1x2x3可以表示为如图1所示的逻辑电路。所述逻辑电路由与门1和与门2构成。所述逻辑电路可以包括输入线a、输入线b、输入线d、输出线c和输出线s。
以下介绍数据方P1生成与门1的混淆真值表的过程。
与门1对应的真值表可以如表1所示。
表1
a b c
0 0 0
0 1 0
1 0 0
1 1 1
数据方P1可以生成两个随机数分别对应输入线a的两个输入值0和1;可以生成两个随机数分别对应输入线b的两个输入值0和1;可以生成两个随机数分别对应输出线c的两个输出值0和1。由此可以得到如表2所示的随机化真值表。
表2
数据方P1可以分别将随机数作为密钥,对随机数进行加密,得到随机数密文可以分别将随机数作为密钥,对随机数进行加密,得到随机数密文可以分别将随机数作为密钥,对随机数进行加密,得到随机数密文可以分别将随机数作为密钥,对随机数进行加密,得到随机数密文由此可以得到如表3所示的加密的随机化真值表。
表3
数据方P1可以打乱表3中各行的排列顺序,得到如表4所示的混淆真值表。
表4
数据方P1还可以生成与门2的混淆真值表,具体过程与生成与门1的混淆真值表的过程相类似,在此不再详述。
数据方P1可以分别将与门1的混淆真值表和与门2的混淆真值表发送给数据方P2。数据方P2可以接收与门1的混淆真值表和与门2的混淆真值表。
数据方P1可以将数据x1的各个比特(bit)在输入线a对应的随机数发送给数据方P2;可以将数据x3的各个比特(bit)在输入线d对应的随机数发送给数据方P2。数据方P2可以接收数据x1和数据x3的各个比特对应的随机数。例如,数据x1=b0×20+b1×21+...+bi×2i+...。对于数据x1的第i个比特bi,当bi的值为0时,数据方P1可以将bi在输入线a对应的随机数发送给数据方P2;当bi的值为1时,数据方P1可以将bi在输入线a对应的随机数发送给数据方P2
数据方P1可以以随机数作为输入,数据方P2可以以数据x2的各个比特作为输入,二者进行不经意传输。数据方P2可以获得数据x2的各个比特对应的随机数。具体地,数据方P1可以生成两个随机数分别对应输入线d的两个输入值0和1。如此针对数据x2的每个比特,数据方P1可以以随机数作为在不经意传输过程中输入的秘密信息,数据方P2可以以该比特作为在不经意传输过程中输入的选择信息,进行不经意传输。通过不经意传输,数据方P2可以获得该比特在输入线d对应的随机数。具体地,当该比特的值为0时,数据方P2可以获得随机数当该比特的值为1时,数据方P2可以获得随机数根据不经意传输的特性,数据方P1并不知晓数据方P2具体选择的是哪个随机数,数据方P2也不能够知晓除了所选择的随机数以外的其它随机数。
通过以上过程,数据方P2获得了数据x1、数据x2和数据x3的各个比特对应的随机数。如此数据方P2可以使用数据x1的每个比特在输入线a对应的随机数、以及数据x2的相应比特在输入线b对应的随机数,尝试对与门1的混淆真值表中的4个随机数密文进行解密;数据方P2仅能够成功解密其中的一个随机数密文,从而得到输出线c的一个随机数。接下来,数据方P2可以使用数据x3的相应比特在输入线d对应的随机数、以及解密出的输出线c的随机数,尝试对与门2的混淆真值表中的4个随机数密文进行解密;数据方P2仅能够成功解密其中的一个随机数密文,得到输出线s的一个随机数。数据方P2可以将解密出的输出线s的随机数发送给数据方P1。数据方P1可以接收输出线s的随机数;可以根据输出线s的随机数、以及随机数和输出值的对应关系,获得输出线s的输出值。
输出线s的每个输出值可以视作函数y=f(x1,x2,x3)=x1x2x3取值的一个比特。如此数据方P1可以根据输出线s的多个输出值,确定出函数y=f(x1,x2,x3)=x1x2x3的取值。
损失函数(Loss Function)可以用于衡量数据处理模型的预测值与真实值之间不一致的程度。损失函数的值越小,表示数据处理模型的鲁棒性越好。所述损失函数包括但不限于对数损失函数(Logarithmic Loss Function)、平方损失函数(Square Loss)等。
激励函数(Activation Function),又称为激活函数,可以用于构建数据处理模型。激励函数定义了在给定输入下的输出。激励函数通常为非线性函数。通过激励函数可以在所述数据处理模型中加入非线性因素,提高所述数据处理模型的表达能力。所述激励函数可以包括Sigmoid函数、Tanh函数和ReLU函数等。所述数据处理模型可以包括逻辑回归模型和神经网络模型等。
在合作安全建模的场景中,出于保护数据隐私的考虑,多个数据方可以在不泄漏自身所持有的数据的前提下,基于自身持有的数据,对数据处理模型进行协作训练。所述数据处理模型包括但不限于逻辑回归模型、神经网络模型等。在对数据处理模型进行训练的过程中,可以使用模型参数优化方法对数据处理模型的模型参数进行优化调整。模型参数优化方法可以包括梯度下降法。所述梯度下降法可以包括原始梯度下降法以及基于原始梯度下降法的各种变形方法(诸如批量梯度下降法、正则化梯度下降法等等;正则化梯度下降法是指附带了正则化项的梯度下降法;正则化可以降低模型的复杂度和不稳定程度,从而降低过拟合的危险)。因此若合作建模各方通过多方安全计算,使用梯度下降法协作确定数据处理模型的模型参数,则可以在保护合作建模各方数据隐私的前提下,实现对所述数据处理模型进行训练。
多方安全计算可以采用秘密分享来实现,也可以采用混淆电路来实现。由于数据处理模型中的激励函数通常为非线性函数,涉及的运算为非线性运算,导致其取值无法直接使用秘密分享算法进行计算。因此若仅通过秘密分享,使用梯度下降法协作确定数据处理模型的模型参数,则需要使用多项式来拟合所述激励函数。使用多项式来拟合激励函数存在越界的问题(多项式的输入超过一定范围时,其输出会变得很大或者很小),有可能造成数据处理模型无法完成训练。另外由于混淆电路的复杂程度较高,因此若仅通过混淆电路,使用梯度下降法协作确定数据处理模型的模型参数,会造成数据处理模型的训练过程变得复杂。基于以上考虑,若通过秘密分享和混淆电路相结合的方式,不仅可以避免越界的问题,还可以降低数据处理模型训练过程的复杂程度。
本说明书提供一种模型参数确定系统的实施例。
请参阅图2。在该实施例中,所述模型参数确定系统可以包括第一数据方、第二数据方和可信任的第三方(TTP,Trusted Third Party)。
所述第三方可以为一个服务器;或者,还可以为包括多个服务器的服务器集群。所述第三方用于向所述第一数据方和所述第二数据方提供随机数。具体地,所述第三方可以生成随机数矩阵,可以将所述随机数矩阵中的各个随机数拆分为两个份额,可以将其中一个份额作为第一份额,将其中另一个份额作为第二份额。所述第三方可以将所述随机数矩阵中各个随机数的第一份额形成的矩阵作为所述随机数矩阵的第一份额,将所述随机数矩阵中各个随机数的第二份额形成的矩阵作为所述随机数矩阵的第二份额;可以向所述第一数据方发送所述随机数矩阵的第一份额,可以向所述第二数据方发送所述随机数矩阵的第二份额。其中,所述随机数矩阵的第一份额和所述随机数矩阵的第二份额的和等于所述随机数矩阵。另外,鉴于所述第一数据方和所述第二数据方在基于混淆电路进行计算的过程中涉及到不经意传输,所述第三方还可以生成第一OT随机数和第二OT随机数;可以向所述第一数据方发送所述第一OT随机数;可以向所述第二数据方发送所述第二OT随机数。OT随机数可以为在不经意传输过程中所使用到的随机数。
所述第一数据方和所述第二数据方分别为合作安全建模的双方。所述第一数据方可以为持有特征数据的数据方,所述第二数据方可以为持有标签的数据方。例如,所述第一数据方可以持有完整的特征数据,所述第二数据方可以持有特征数据的标签。或者,所述第一数据方可以持有特征数据的一部分数据项,所述第二数据方可以持有特征数据的另一部分数据项和特征数据的标签。具体地,例如,特征数据可以包括用户的储蓄金额和借贷金额。所述第一数据方可以持有用户的储蓄金额,所述第二数据方可以持有用户的借贷金额和特征数据对应的标签。所述标签可以用于区分不同类型的特征数据,具体数值例如可以取自0和1。值得说明的是,这里的数据方可以为电子设备。所述电子设备可以包括个人计算机、服务器、手持设备、便携式设备、平板型设备、多处理器装置;或者,还可以包括由以上任何多个装置或设备所构成的集群等。另外,特征数据及其对应的标签共同构成了样本数据,样本数据可以用于对数据处理模型进行训练。
在合作安全建模的场景中,所述第一数据方和所述第二数据方可以分别获得原始模型参数的一份份额。这里可以将所述第一数据方获得份额作为原始模型参数的第一份额,可以将所述第二数据方获得份额作为原始模型参数的第二份额。原始模型参数的第一份额和原始模型参数的第二份额的和等于原始模型参数。
所述第一数据方可以接收随机数矩阵的第一份额和第一OT随机数。所述第二数据方可以接收随机数矩阵的第二份额和第二OT随机数。如此所述第一数据方可以基于原始模型参数的第一份额、特征数据、随机数矩阵的第一份额和第一OT随机数,所述第二数据方可以基于原始模型参数的第二份额、标签值、随机数矩阵的第二份额和第二OT随机数,采用秘密分享和混淆电路相结合的方式,协作确定新的模型参数。所述第一数据方和所述第二数据方可以分别获得新的模型参数的一份份额。具体过程可以参见后面的模型参数确定方法实施例。
本说明书还提供一种模型参数确定方法的实施例。该实施例可以使用梯度下降法来确定模型参数。请参阅图3。该实施例可以包括以下步骤。
步骤S11:第一数据方根据特征数据和原始模型参数的第一份额,第二数据方根据原始模型参数的第二份额,秘密分享第一乘积。第一数据方获得第一乘积的第一份额,第二数据方获得第一乘积的第二份额。
步骤S13:第一数据方根据第一乘积的第一份额,第二数据方根据第一乘积的第二份额,基于激励函数对应的混淆电路进行通信。第一数据方获得激励函数取值的第一份额,第二数据方获得激励函数取值的第二份额。
步骤S15:第一数据方根据特征数据和激励函数取值的第一份额,第二数据方根据标签和激励函数取值的第二份额,秘密分享损失函数的梯度。第一数据方获得损失函数梯度的第一份额,第二数据方获得损失函数梯度的第二份额。
步骤S17:第一数据方根据原始模型参数的第一份额、损失函数梯度的第一份额和预设步长,计算新的模型参数的第一份额。
步骤S19:第二数据方根据原始模型参数的第二份额、损失函数梯度的第二份额和预设步长,计算新的模型参数的第二份额。
在一些实施例中,所述第一乘积可以为原始模型参数和特征数据之间的乘积。在一些场景示例中,所述第一乘积可以表示为XW;其中,W表示原始模型参数,具体为原始模型参数构成的向量;X表示特征数据,具体为特征数据构成的矩阵。
在步骤S11中,所述第一数据方可以根据持有的特征数据和原始模型参数的第一份额,所述第二数据方可以根据持有的原始模型参数的第二份额,秘密分享第一乘积。所述第一数据方和所述第二数据方可以分别获得所述第一乘积的一份份额。为了便于描述,可以将所述第一数据方获得的份额作为第一乘积的第一份额,可以将所述第二数据方获得的份额作为第一乘积的第二份额。原始模型参数的第一份额和原始模型参数的第二份额的和等于原始模型参数。第一乘积的第一份额和第一乘积的第二份额的和等于第一乘积。
延续前面的场景示例,原始模型参数的第一份额可以表示为<W>0,原始模型参数的第二份额可以表示为<W>1,<W>0+<W>1=W。所述第一数据方可以根据X和<W>0,所述第二数据方可以根据<W>1,秘密分享第一乘积XW。所述第一数据方可以获得第一乘积的第一份额<XW>0,所述第二数据方可以获得第一乘积的第二份额<XW>1。<XW>0+<XW>1=XW。
在一些实施例中,可以根据所述激励函数构建相应的逻辑电路。所述逻辑电路可以由所述第一数据方构建;或者,也可以由所述第二数据方构建;又或者,还可以由其它设备(例如可信任的第三方)构建。所述逻辑电路可以由至少一个运算门构成,所述运算门可以包括与门、或门、异或门等等。所述逻辑电路可以包括至少两个输入线和至少一个输出线,通过对所述逻辑电路的输入线和/或输出线进行加密便可以得到混淆电路。所述混淆电路可以包括所述逻辑电路中各个运算门的混淆真值表。值得说明的是,这里可以直接根据激励函数构建逻辑电路;或者,也可以对激励函数进行各种适当的变形,可以根据变形后的激励函数构建逻辑电路;又或者,还可以以所述激励函数为基础生成其它函数,可以根据其它函数构建逻辑电路。相应地,这里激励函数与混淆电路相对应可以理解为:混淆电路是根据激励函数的逻辑电路生成的,或者,混淆电路是根据变形后的激励函数的混淆电路生成的,又或者,混淆电路是根据其它函数的逻辑电路生成的。
所述第一数据方和所述第二数据方均可以持有激励函数对应的混淆电路。在一些实施方式中,所述混淆电路可以由所述第一数据方生成。所述第一数据方可以将生成的混淆电路发送给所述第二数据方。所述第二数据方可以接收所述混淆电路。在另一些实施方式中,所述混淆电路也可以由所述第二数据方生成。所述第二数据方可以将生成的混淆电路发送给所述第一数据方。所述第一数据方可以接收所述混淆电路。
在步骤S13中,第一数据方可以根据第一乘积的第一份额,第二数据方可以根据第一乘积的第二份额,基于激励函数对应的混淆电路进行通信。所述第一数据方和所述第二数据方可以分别获得激励函数取值的一份份额。为了便于描述,可以将所述第一数据方获得的份额作为激励函数取值的第一份额,可以将所述第二数据方获得的份额作为激励函数取值的第二份额。激励函数取值的第一份额和激励函数取值的第二份额的和等于激励函数的取值。
请参阅图4。以下介绍第一数据方和第二数据方基于混淆电路进行计算的一个场景示例。
可以根据激励函数f(x1,x2)构建函数y=f1(x1,x2,x3)=f(x1,x2)-x3。其中,x1用于表示第一乘积的第一份额,x2用于表示第一乘积的第二份额,x3用于表示激励函数取值的一份份额(以下称为激励函数取值的第二份额),f1(x1,x2,x3)的取值用于表示激励函数取值的另一份份额(以下称为激励函数取值的第一份额)。
可以构建与函数f1(x1,x2,x3)=f(x1,x2)-x3相对应的逻辑电路,通过对该逻辑电路的输入线和/或输出线进行加密便可以得到混淆电路。所述第一数据方和所述第二数据方均可以持有该混淆电路。值得说明的是,函数y=f1(x1,x2,x3)=f(x1,x2)-x3及其对应的逻辑电路可以由所述第一数据方构建;或者,也可以由所述第二数据方构建;又或者,还可以由其它设备(例如可信任的第三方)构建。
所述第二数据方可以生成激励函数取值的一份份额作为第二份额。如此所述第一数据方可以以第一乘积的第一份额作为该混淆电路的输入,所述第二数据方可以以第一乘积的第二份额以及激励函数取值的第二份额作为该混淆电路的输入,进行通信。所述第一数据方可以基于该混淆电路计算得到激励函数取值的另一份份额作为第一份额。具体的计算过程可以参见前面有关介绍混淆电路的场景示例,在此不再详述。
在一些实施方式中,为了降低混淆电路的复杂程度,还可以使用分段线性函数拟合所述激励函数。这样便可以根据所述分段线性函数构建相应的逻辑电路,通过对该逻辑电路的输入线和/或输出线进行加密便可以得到混淆电路。所述第一数据方和所述第二数据方均可以持有该混淆电路。例如,所述激励函数可以为Sigmoid函数,所述分段线性函数可以为
第一数据方可以根据第一乘积的第一份额,第二数据方可以根据第一乘积的第二份额,基于该混淆电路进行通信。所述第一数据方和所述第二数据方可以分别获得分段线性函数取值的一份份额。为了便于描述,可以将所述第一数据方获得的份额作为分段线性函数取值的第一份额,可以将所述第二数据方获得的份额作为分段线性函数取值的第二份额。分段线性函数取值的第一份额和分段线性函数取值的第二份额的和等于分段线性函数的取值。如此所述第一数据方可以将分段线性函数取值的第一份额作为激励函数取值的第一份额。所述第二数据方可以将分段线性函数取值的第二份额作为激励函数取值的第二份额。
在一些实施例中,在步骤S15中,所述第一数据方可以根据特征数据和激励函数取值的第一份额,所述第二数据方还可以根据标签和激励函数取值的第二份额,秘密分享损失函数的梯度。所述第一数据方和所述第二数据方可以分别获得所述损失函数梯度的一份份额。为了便于描述,可以将所述第一数据方获得的份额作为损失函数梯度的第一份额,可以将所述第二数据方获得的份额作为损失函数梯度的第二份额。损失函数梯度的第一份额和损失函数梯度的第二份额的和等于损失函数的梯度。
延续前面的场景示例,所述第一数据方可以根据X和<a>0,所述第二数据方可以根据标签Y和<a>1,秘密分享损失函数的梯度dW(具体为向量)。所述第一数据方可以获得损失函数梯度的第一份额<dW>0,所述第二数据方可以获得损失函数梯度的第二份额<dW>1。下面介绍所述第一数据方和所述第二数据方秘密分享损失函数dW的详细过程。
所述第一数据方可以根据X,所述第二数据方可以根据<a>1,秘密分享XT<a>1。所述第一数据方可以获得<[XT<a>1]>0,所述第二数据方可以获得<[XT<a>1]>1。<[XT<a>1]>0+<[XT<a>1]>1=XT<a>1
所述第一数据方还可以根据X,所述第二数据方还可以根据标签Y(具体为标签构成的向量),秘密分享XTY。所述第一数据方可以获得<XTY>0,所述第二数据方可以获得<XTY>1。<XTY>0+<XTY>1=XTY。
所述第一数据方可以计算XT<a>0;可以计算XT<a>0+<[XT<a>1]>0-<XTY>0作为损失函数梯度dW的第一份额<dW>0。所述第二数据方可以计算<[XT<a>1]>1-<XTY>1作为损失函数梯度dW的第二份额<dW>1
在一些实施例中,所述预设步长可以用于控制梯度下降法的迭代速度。所述预设步长可以为任意适当正实数。例如,当预设步长过大时,迭代速度会过快,导致有可能无法获得最优模型参数。当预设步长过小时,导致迭代速度会过慢,导致花费的时间较长。所述预设步长具体可以为经验值;或者,也可以采用机器学习的方式得到。当然,所述预设步长还可以采用其它方式得到。所述第一数据方和所述第二数据方均可以持有所述预设步长。
在步骤S17中,所述第一数据方可以将损失函数梯度的第一份额与预设步长相乘,得到第二乘积;可以将原始模型参数的第一份额与第二乘积相减,得到新的模型参数的第一份额。
在步骤S19中,所述第二数据方可以将损失函数梯度的第二份额与预设步长相乘,得到第三乘积;可以将原始模型参数的第二份额与第三乘积相减,得到新的模型参数的第二份额。新的模型参数的第一份额和新的模型参数的第二份额的和等于新的模型参数。
延续前面的场景示例,所述第一数据方可以将损失函数梯度的第一份额<dW>0(具体为向量)与预设步长G相乘(具体为向量的数乘),得到第二乘积G<dW>0;可以将原始模型参数的第一份额<W>0与第二乘积G<dW>0相减,得到新的模型参数的第一份额<W'>0=<W>0-G<dW>0
所述第二数据方可以将损失函数梯度的第二份额<dW>1(具体为向量)与预设步长G相乘(具体为向量的数乘),得到第二乘积G<dW>1;可以将原始模型参数的第二份额<W>1与第二乘积G<dW>1相减,得到新的模型参数的第二份额<W'>1=<W>1-G<dW>1。其中,<W'>0+<W'>1=W',W'表示新的模型参数。
值得说明的是,在实际应用中,还可以将新的模型参数作为新的原始模型参数,重复执行步骤S11、步骤S13、步骤S15、步骤S17和步骤S19。通过重复执行本实施例的模型参数确定方法,可以实现对数据处理模型的模型参数进行迭代优化调整。
在本实施例中,第一数据方和第二数据方可以采用秘密分享和混淆电路相结合的方式,在不泄漏自身所持有的数据的前提下,使用梯度下降法,协作确定数据处理模型的模型参数。
基于同样的发明构思,本说明书还提供另一种模型参数确定方法的实施例。该实施例以第一数据方为执行主体,所述第一数据方可以持有特征数据和原始模型参数的份额。请参阅图5。该实施例可以包括以下步骤。
步骤S21:根据特征数据和原始模型参数的份额与合作方秘密分享第一乘积,得到第一乘积的份额。
在一些实施例中,所述合作方可以理解为与所述第一数据方进行合作安全建模的数据方,具体可以为前面的第二数据方。所述第一乘积可以为特征数据和原始模型参数的乘积。具体地,所述第一数据方可以根据特征数据和原始模型参数的份额与合作方秘密分享第一乘积,得到第一乘积的份额。具体过程可以参见前面步骤S11的相关描述,在此不再赘述。
步骤S23:根据第一乘积的份额和激励函数对应的混淆电路与合作方进行通信,得到激励函数取值的份额。
在一些实施例中,所述第一数据方可以根据第一乘积的份额和激励函数对应的混淆电路与合作方通信,得到激励函数取值的份额。具体过程可以参见前面步骤S13的相关描述,在此不再赘述。
步骤S25:根据特征数据和激励函数取值的份额与合作方秘密分享损失函数的梯度,得到损失函数梯度的份额。
在一些实施例中,所述第一数据方可以根据特征数据和激励函数取值的份额与合作方秘密分享损失函数的梯度,得到损失函数梯度的份额。具体过程可以参见前面步骤S15的相关描述,在此不再赘述。
步骤S27:根据原始模型参数的份额、损失函数梯度的份额和预设步长,计算新的模型参数的份额。
在一些实施例中,所述预设步长可以用于控制梯度下降法的迭代速度。所述预设步长可以为任意适当正实数。例如,当预设步长过大时,迭代速度会过快,导致有可能无法获得最优模型参数。当预设步长过小时,导致迭代速度会过慢,导致花费的时间较长。所述预设步长具体可以为经验值;或者,也可以采用机器学习的方式得到。当然,所述预设步长还可以采用其它方式得到。所述第一数据方可以将损失函数梯度的份额与预设步长相乘,得到第二乘积;可以将原始模型参数的份额与第二乘积相减,得到新的模型参数的份额。具体过程可以参见前面步骤S17的相关描述,在此不再赘述。
在本实施例中,第一数据方可以采用秘密分享和混淆电路相结合的方式,在不泄漏自身所拥有的数据的前提下,与合作方协作确定数据处理模型的模型参数,得到新的模型参数的份额。
基于同样的发明构思,本说明书还提供另一种模型参数确定方法的实施例。该实施例以第二数据方为执行主体,所述第二数据方可以持有标签和原始模型参数的份额。请参阅图6。该实施例可以包括以下步骤。
步骤S31:根据原始模型参数的份额与合作方秘密分享第一乘积,得到第一乘积的份额。
在一些实施例中,所述合作方可以理解为与所述第二数据方进行合作安全建模的数据方,具体可以为前面的第一数据方。所述第一乘积可以为特征数据和原始模型参数的乘积。具体地,所述第二数据方可以根据原始模型参数的份额与合作方秘密分享第一乘积,得到第一乘积的份额。具体过程可以参见前面步骤S11的相关描述,在此不再赘述。
步骤S33:根据第一乘积的份额和激励函数对应的混淆电路与合作方进行通信,得到激励函数取值的份额。
在一些实施例中,所述第二数据方可以根据第一乘积的份额和激励函数对应的混淆电路与合作方通信,得到激励函数取值的份额。具体过程可以参见前面步骤S13的相关描述,在此不再赘述。
步骤S35:根据标签和激励函数取值的份额与合作方秘密分享损失函数的梯度,得到损失函数梯度的份额。
在一些实施例中,所述第二数据方可以根据标签和激励函数取值的份额与合作方秘密分享损失函数的梯度,得到损失函数梯度的份额。具体过程可以参见前面步骤S15的相关描述,在此不再赘述。
步骤S37:根据原始模型参数的份额、损失函数梯度的份额和预设步长,计算新的模型参数的份额。
在一些实施例中,所述预设步长可以用于控制梯度下降法的迭代速度。所述预设步长可以为任意适当正实数。例如,当预设步长过大时,迭代速度会过快,导致有可能无法获得最优模型参数。当预设步长过小时,导致迭代速度会过慢,导致花费的时间较长。所述预设步长具体可以为经验值;或者,也可以采用机器学习的方式得到。当然,所述预设步长还可以采用其它方式得到。所述第二数据方可以将损失函数梯度的份额与预设步长相乘,得到第二乘积;可以将原始模型参数的份额与第二乘积相减,得到新的模型参数的份额。具体过程可以参见前面步骤S17的相关描述,在此不再赘述。
在本实施例中,第二数据方可以采用秘密分享和混淆电路相结合的方式,在不泄漏自身所拥有的数据的前提下,与合作方协作确定数据处理模型的模型参数,得到新的模型参数的份额。
基于同样的发明构思,本说明书还提供一种模型参数确定装置的实施例。请参阅图7。该实施例可以应用于第一数据方,可以包括以下单元。
第一乘积份额获取单元41,用于根据特征数据和原始模型参数的份额与合作方秘密分享第一乘积,得到第一乘积的份额,所述第一乘积为特征数据和原始模型参数的乘积;
激励函数取值份额获取单元43,用于根据第一乘积的份额和激励函数对应的混淆电路与合作方进行通信,得到激励函数取值的份额;
损失函数梯度份额获取单元45,用于根据特征数据和激励函数取值的份额与合作方秘密分享损失函数的梯度,得到损失函数梯度的份额;
模型参数份额计算单元47,用于根据原始模型参数的份额、损失函数梯度的份额和预设步长,计算新的模型参数的份额。
基于同样的发明构思,本说明书还提供一种模型参数确定装置的实施例。请参阅图8。该实施例可以应用于第二数据方,可以包括以下单元。
第一乘积份额获取单元51,用于根据原始模型参数的份额与合作方秘密分享第一乘积,得到第一乘积的份额,所述第一乘积为特征数据和原始模型参数的乘积;
激励函数取值份额获取单元53,用于根据第一乘积的份额和激励函数对应的混淆电路与合作方进行通信,得到激励函数取值的份额;
损失函数梯度份额获取单元55,用于根据标签和激励函数取值的份额与合作方秘密分享损失函数的梯度,得到损失函数梯度的份额;
模型参数份额计算单元57,用于根据原始模型参数的份额、损失函数梯度的份额和预设步长,计算新的模型参数的份额。
下面介绍本说明书电子设备的一个实施例。图9是该实施例中一种电子设备的硬件结构示意图。如图9所示,所述电子设备可以包括一个或多个(图中仅示出一个)处理器、存储器和传输模块。当然,本领域普通技术人员可以理解,图9所示的硬件结构仅为示意,其并不对上述电子设备的硬件结构造成限定。在实际中所述电子设备还可以包括比图9所示更多或者更少的组件单元;或者,具有与图9所示不同的配置。
所述存储器可以包括高速随机存储器;或者,还可以包括非易失性存储器,例如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。当然,所述存储器还可以包括远程设置的网络存储器。所述远程设置的网络存储器可以通过诸如互联网、企业内部网、局域网、移动通信网等网络连接至所述电子设备。所述存储器可以用于存储应用软件的程序指令或模块,例如本说明书图5所对应实施例的程序指令或模块;和/或,本说明书图6所对应实施例的程序指令或模块。
所述处理器可以按任何适当的方式实现。例如,所述处理器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific IntegratedCircuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式等等。所述处理器可以读取并执行所述存储器中的程序指令或模块。
所述传输模块可以用于经由网络进行数据传输,例如经由诸如互联网、企业内部网、局域网、移动通信网等网络进行数据传输。
需要说明的是,本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同或相似的部分互相参见即可,每个实施例重点说明的都是与其它实施例的不同之处。尤其,对于装置实施例和电子设备实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。另外,可以理解的是,本领域技术人员在阅读本说明书文件之后,可以无需创造性劳动想到将本说明书列举的部分或全部实施例进行任意组合,这些组合也在本说明书公开和保护的范围内。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog2。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到本说明书可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本说明书的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本说明书各个实施例或者实施例的某些部分所述的方法。
本说明书可用于众多通用或专用的计算机系统环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、置顶盒、可编程的消费电子设备、网络PC、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
虽然通过实施例描绘了本说明书,本领域普通技术人员知道,本说明书有许多变形和变化而不脱离本说明书的精神,希望所附的权利要求包括这些变形和变化而不脱离本说明书的精神。

Claims (10)

1.一种模型参数确定方法,应用于第一数据方,包括:
根据特征数据和原始模型参数的份额与合作方秘密分享第一乘积,得到第一乘积的份额,所述第一乘积为特征数据和原始模型参数的乘积;
根据第一乘积的份额和激励函数对应的混淆电路与合作方进行通信,得到激励函数取值的份额;
根据特征数据和激励函数取值的份额与合作方秘密分享损失函数的梯度,得到损失函数梯度的份额;
根据原始模型参数的份额、损失函数梯度的份额和预设步长,计算新的模型参数的份额。
2.如权利要求1所述的方法,所述根据第一乘积的份额和激励函数对应的混淆电路与合作方进行通信,得到激励函数取值的份额,包括:
根据第一乘积的份额和分段线性函数对应的混淆电路与合作方进行通信,得到分段线性函数取值的份额作为激励函数取值的份额,所述分段线性函数用于拟合所述激励函数。
3.如权利要求1所述的方法,所述根据原始模型参数的份额、损失函数梯度的份额和预设步长,计算新的模型参数的份额,包括:
将损失函数梯度的份额与预设步长相乘,得到第二乘积;
将原始模型参数的份额与第二乘积相减,得到新的模型参数的份额。
4.一种模型参数确定方法,应用于第二数据方,包括:
根据原始模型参数的份额与合作方秘密分享第一乘积,得到第一乘积的份额,所述第一乘积为特征数据和原始模型参数的乘积;
根据第一乘积的份额和激励函数对应的混淆电路与合作方进行通信,得到激励函数取值的份额;
根据标签和激励函数取值的份额与合作方秘密分享损失函数的梯度,得到损失函数梯度的份额;
根据原始模型参数的份额、损失函数梯度的份额和预设步长,计算新的模型参数的份额。
5.如权利要求4所述的方法,所述根据第一乘积的份额和激励函数对应的混淆电路与合作方进行通信,得到激励函数取值的份额,包括:
根据第一乘积的份额和分段线性函数对应的混淆电路与合作方进行通信,得到分段线性函数取值的份额作为激励函数取值的份额,所述分段线性函数用于拟合所述激励函数。
6.如权利要求4所述的方法,所述根据原始模型参数的份额、损失函数梯度的份额和预设步长,计算新的模型参数的份额,包括:
将损失函数梯度的份额与预设步长相乘,得到第二乘积;
将原始模型参数的份额与第二乘积相减,得到新的模型参数的份额。
7.一种模型参数确定装置,应用于第一数据方,包括:
第一乘积份额获取单元,用于根据特征数据和原始模型参数的份额与合作方秘密分享第一乘积,得到第一乘积的份额,所述第一乘积为特征数据和原始模型参数的乘积;
激励函数取值份额获取单元,用于根据第一乘积的份额和激励函数对应的混淆电路与合作方进行通信,得到激励函数取值的份额;
损失函数梯度份额获取单元,用于根据特征数据和激励函数取值的份额与合作方秘密分享损失函数的梯度,得到损失函数梯度的份额;
模型参数份额计算单元,用于根据原始模型参数的份额、损失函数梯度的份额和预设步长,计算新的模型参数的份额。
8.一种电子设备,包括:
存储器,用于存储计算机指令;
处理器,用于执行所述计算机指令以实现如权利要求1-3中任一项所述的方法步骤。
9.一种模型参数确定装置,应用于第二数据方,包括:
第一乘积份额获取单元,用于根据原始模型参数的份额与合作方秘密分享第一乘积,得到第一乘积的份额,所述第一乘积为特征数据和原始模型参数的乘积;
激励函数取值份额获取单元,用于根据第一乘积的份额和激励函数对应的混淆电路与合作方进行通信,得到激励函数取值的份额;
损失函数梯度份额获取单元,用于根据标签和激励函数取值的份额与合作方秘密分享损失函数的梯度,得到损失函数梯度的份额;
模型参数份额计算单元,用于根据原始模型参数的份额、损失函数梯度的份额和预设步长,计算新的模型参数的份额。
10.一种电子设备,包括:
存储器,用于存储计算机指令;
处理器,用于执行所述计算机指令以实现如权利要求4-6中任一项所述的方法步骤。
CN201910734791.3A 2019-08-09 2019-08-09 模型参数确定方法、装置和电子设备 Active CN110569227B (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201910734791.3A CN110569227B (zh) 2019-08-09 2019-08-09 模型参数确定方法、装置和电子设备
PCT/CN2020/072079 WO2021027258A1 (zh) 2019-08-09 2020-01-14 模型参数确定方法、装置和电子设备
US16/779,524 US20200177364A1 (en) 2019-08-09 2020-01-31 Determining data processing model parameters through multiparty cooperation
TW109106898A TWI724809B (zh) 2019-08-09 2020-03-03 模型參數確定方法、裝置和電子設備

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910734791.3A CN110569227B (zh) 2019-08-09 2019-08-09 模型参数确定方法、装置和电子设备

Publications (2)

Publication Number Publication Date
CN110569227A true CN110569227A (zh) 2019-12-13
CN110569227B CN110569227B (zh) 2020-08-14

Family

ID=68775063

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910734791.3A Active CN110569227B (zh) 2019-08-09 2019-08-09 模型参数确定方法、装置和电子设备

Country Status (3)

Country Link
CN (1) CN110569227B (zh)
TW (1) TWI724809B (zh)
WO (1) WO2021027258A1 (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10803184B2 (en) 2019-08-09 2020-10-13 Alibaba Group Holding Limited Generation of a model parameter
WO2021027259A1 (zh) * 2019-08-09 2021-02-18 创新先进技术有限公司 模型参数确定方法、装置和电子设备
WO2021027258A1 (zh) * 2019-08-09 2021-02-18 创新先进技术有限公司 模型参数确定方法、装置和电子设备
WO2021027254A1 (zh) * 2019-08-09 2021-02-18 创新先进技术有限公司 模型参数确定方法、装置和电子设备
US10936960B1 (en) 2019-08-09 2021-03-02 Advanced New Technologies Co., Ltd. Determining model parameters using secret sharing
WO2021179720A1 (zh) * 2020-10-12 2021-09-16 平安科技(深圳)有限公司 基于联邦学习的用户数据分类方法、装置、设备及介质
CN117114059A (zh) * 2023-05-16 2023-11-24 华为云计算技术有限公司 神经网络中激活函数的计算方法、装置以及计算设备

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI776760B (zh) * 2021-12-27 2022-09-01 財團法人工業技術研究院 神經網路之處理方法及其伺服器與電子裝置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102648471A (zh) * 2008-11-24 2012-08-22 塞尔蒂卡姆公司 用于基于硬件的安全的系统和方法
CN107612675A (zh) * 2017-09-20 2018-01-19 电子科技大学 一种隐私保护下的广义线性回归方法
US20180373834A1 (en) * 2017-06-27 2018-12-27 Hyunghoon Cho Secure genome crowdsourcing for large-scale association studies
CN109194508A (zh) * 2018-08-27 2019-01-11 联想(北京)有限公司 基于区块链的数据处理方法和装置
CN109919318A (zh) * 2018-12-14 2019-06-21 阿里巴巴集团控股有限公司 数据处理方法、装置和设备
CN110084063A (zh) * 2019-04-23 2019-08-02 中国科学技术大学 一种保护隐私数据的梯度下降计算方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3602422B1 (en) * 2017-03-22 2022-03-16 Visa International Service Association Privacy-preserving machine learning
CN109416878B (zh) * 2017-06-13 2022-04-12 北京嘀嘀无限科技发展有限公司 用于推荐预计到达时间的系统和方法
CN109756442B (zh) * 2017-11-01 2020-04-24 清华大学 基于混淆电路的数据统计方法、装置以及设备
CN108717568B (zh) * 2018-05-16 2019-10-22 陕西师范大学 一种基于三维卷积神经网络的图像特征提取与训练方法
CN109977694A (zh) * 2019-03-11 2019-07-05 暨南大学 一种基于协作深度学习的数据共享方法
CN110032893B (zh) * 2019-03-12 2021-09-28 创新先进技术有限公司 基于秘密分享的安全模型预测方法和装置
CN110569227B (zh) * 2019-08-09 2020-08-14 阿里巴巴集团控股有限公司 模型参数确定方法、装置和电子设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102648471A (zh) * 2008-11-24 2012-08-22 塞尔蒂卡姆公司 用于基于硬件的安全的系统和方法
US20180373834A1 (en) * 2017-06-27 2018-12-27 Hyunghoon Cho Secure genome crowdsourcing for large-scale association studies
CN107612675A (zh) * 2017-09-20 2018-01-19 电子科技大学 一种隐私保护下的广义线性回归方法
CN109194508A (zh) * 2018-08-27 2019-01-11 联想(北京)有限公司 基于区块链的数据处理方法和装置
CN109919318A (zh) * 2018-12-14 2019-06-21 阿里巴巴集团控股有限公司 数据处理方法、装置和设备
CN110084063A (zh) * 2019-04-23 2019-08-02 中国科学技术大学 一种保护隐私数据的梯度下降计算方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
孙溢: "安全多方计算中若干应用协议的研究", 《中国博士学位论文全文数据库 信息科技辑》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10803184B2 (en) 2019-08-09 2020-10-13 Alibaba Group Holding Limited Generation of a model parameter
WO2021027259A1 (zh) * 2019-08-09 2021-02-18 创新先进技术有限公司 模型参数确定方法、装置和电子设备
WO2021027258A1 (zh) * 2019-08-09 2021-02-18 创新先进技术有限公司 模型参数确定方法、装置和电子设备
WO2021027254A1 (zh) * 2019-08-09 2021-02-18 创新先进技术有限公司 模型参数确定方法、装置和电子设备
US10936960B1 (en) 2019-08-09 2021-03-02 Advanced New Technologies Co., Ltd. Determining model parameters using secret sharing
US11113613B2 (en) 2019-08-09 2021-09-07 Advanced New Technologies Co., Ltd. Determining model parameters using secret sharing
WO2021179720A1 (zh) * 2020-10-12 2021-09-16 平安科技(深圳)有限公司 基于联邦学习的用户数据分类方法、装置、设备及介质
CN117114059A (zh) * 2023-05-16 2023-11-24 华为云计算技术有限公司 神经网络中激活函数的计算方法、装置以及计算设备

Also Published As

Publication number Publication date
TWI724809B (zh) 2021-04-11
CN110569227B (zh) 2020-08-14
WO2021027258A1 (zh) 2021-02-18
TW202107305A (zh) 2021-02-16

Similar Documents

Publication Publication Date Title
CN110569227B (zh) 模型参数确定方法、装置和电子设备
CN110555525B (zh) 模型参数确定方法、装置和电子设备
CN110580409B (zh) 模型参数确定方法、装置和电子设备
CN110555315B (zh) 基于秘密分享算法的模型参数更新方法、装置和电子设备
CN110472439B (zh) 模型参数确定方法、装置和电子设备
CN110457912B (zh) 数据处理方法、装置和电子设备
CN110580410A (zh) 模型参数确定方法、装置和电子设备
CN110414567B (zh) 数据处理方法、装置和电子设备
CN113239404B (zh) 一种基于差分隐私和混沌加密的联邦学习方法
US20200177364A1 (en) Determining data processing model parameters through multiparty cooperation
CN110427969B (zh) 数据处理方法、装置和电子设备
CN111125727B (zh) 混淆电路生成方法、预测结果确定方法、装置和电子设备
CN110569228B (zh) 模型参数确定方法、装置和电子设备
CN110457936B (zh) 数据交互方法、装置和电子设备
CN110460435B (zh) 数据交互方法、装置、服务器和电子设备
CN110391895B (zh) 数据预处理方法、密文数据获取方法、装置和电子设备
CN111967035B (zh) 模型训练方法、装置和电子设备
CN111428887A (zh) 一种基于多个计算节点的模型训练控制方法、装置及系统
CN112507323A (zh) 基于单向网络的模型训练方法、装置和计算设备
CN112511361B (zh) 模型训练方法、装置和计算设备
US10924273B2 (en) Data exchange for multi-party computation
CN113011459B (zh) 模型训练方法、装置和计算设备
WO2021027598A1 (zh) 模型参数确定方法、装置和电子设备
CN111460514B (zh) 数据匹配方法、装置和电子设备
CN115994369A (zh) 数据处理方法和数据处理装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40018826

Country of ref document: HK

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20201012

Address after: Cayman Enterprise Centre, 27 Hospital Road, George Town, Grand Cayman Islands

Patentee after: Innovative advanced technology Co.,Ltd.

Address before: Cayman Enterprise Centre, 27 Hospital Road, George Town, Grand Cayman Islands

Patentee before: Advanced innovation technology Co.,Ltd.

Effective date of registration: 20201012

Address after: Cayman Enterprise Centre, 27 Hospital Road, George Town, Grand Cayman Islands

Patentee after: Advanced innovation technology Co.,Ltd.

Address before: Greater Cayman, British Cayman Islands

Patentee before: Alibaba Group Holding Ltd.