CN111144576A - 模型训练方法、装置和电子设备 - Google Patents

模型训练方法、装置和电子设备 Download PDF

Info

Publication number
CN111144576A
CN111144576A CN201911282429.3A CN201911282429A CN111144576A CN 111144576 A CN111144576 A CN 111144576A CN 201911282429 A CN201911282429 A CN 201911282429A CN 111144576 A CN111144576 A CN 111144576A
Authority
CN
China
Prior art keywords
value ciphertext
characteristic value
masked
ciphertext
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911282429.3A
Other languages
English (en)
Inventor
李漓春
赵原
周亚顺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alipay Hangzhou Information Technology Co Ltd
Original Assignee
Alipay Hangzhou Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alipay Hangzhou Information Technology Co Ltd filed Critical Alipay Hangzhou Information Technology Co Ltd
Priority to CN201911282429.3A priority Critical patent/CN111144576A/zh
Publication of CN111144576A publication Critical patent/CN111144576A/zh
Priority to PCT/CN2020/094664 priority patent/WO2021114585A1/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/602Providing cryptographic facilities or services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Bioethics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Hardware Design (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本说明书提供模型训练方法、装置和电子设备的实施例。所述方法包括:根据特征数据,将样本标识集分割为多个子集,接收样本标识所对应的第一梯度值密文和第二梯度值密文;在子集内,将多个样本标识的第一梯度值密文同态相加,得到该子集的第一特征值密文,将多个样本标识的第二梯度值密文同态相加,得到该子集的第二特征值密文;利用随机数对第一特征值密文和第二特征值密文进行掩盖,得到掩盖后的第一特征值密文和掩盖后的第二特征值密文;向第二方发送子集所对应的掩盖后的第一特征值密文、以及掩盖后的第二特征值密文。本说明书的实施例,通过根据同态加密算法,利用随机数对特征值密文进行掩盖,可以增强在多方合作建模过程中数据的隐私保护。

Description

模型训练方法、装置和电子设备
技术领域
本说明书实施例涉及计算机技术领域,特别涉及一种模型训练方法、装置和电子设备。
背景技术
在业务实际中,单个数据方拥有的数据并不完备,通常需要借助其它数据方的数据,共同完成数据处理模型的训练。在多方合作建模的过程中,往往存在隐私泄漏的问题。
发明内容
本说明书实施例提供一种模型训练方法、装置和电子设备,以增强在多方合作建模过程中数据的隐私保护。
为实现上述目的,本说明书中一个或多个实施例提供的技术方案如下。
根据本说明书一个或多个实施例的第一方面,提供了一种模型训练方法,应用于第一方,所述第一方持有样本的特征数据,该方法包括:根据特征数据,将样本标识集分割为多个子集,所述样本标识集包括多个样本标识;接收每个样本标识所对应的第一梯度值密文和第二梯度值密文,所述第一梯度值密文和所述第二梯度值密文由同态加密算法计算得到;在每个子集内,将多个样本标识的第一梯度值密文同态相加,得到该子集的第一特征值密文,将多个样本标识的第二梯度值密文同态相加,得到该子集的第二特征值密文;利用随机数分别对第一特征值密文和第二特征值密文进行掩盖,得到掩盖后的第一特征值密文和掩盖后的第二特征值密文;向第二方发送每个子集所对应的掩盖后的第一特征值密文、以及掩盖后的第二特征值密文,以便于对数据处理模型的非叶子节点进行训练。
根据本说明书一个或多个实施例的第二方面,提供了一种模型训练方法,应用于第二方,所述第二方持有样本的标签数据,该方法包括:接收子集所对应的掩盖后的第一特征值密文、以及掩盖后的第二特征值密文,所述子集通过对样本标识集进行分割得到,所述样本标识集包括多个样本标识;分别对掩盖后的第一特征值密文和掩盖后的第二特征值密文进行解密,得到掩盖后的第一特征值和掩盖后的第二特征值;利用掩盖后的第一特征值和掩盖后的第二特征值,计算分割增益因子,所述分割增益因子用于计算该子集的分割增益,所述分割增益用于对数据处理模型的非叶子节点进行训练。
根据本说明书一个或多个实施例的第三方面,提供了一种模型训练装置,应用于第一方,所述第一方持有样本的特征数据,该装置包括:分割单元,用于根据特征数据,将样本标识集分割为多个子集,所述样本标识集包括多个样本的标识;接收单元,用于接收每个样本标识所对应的第一梯度值密文和第二梯度值密文,所述第一梯度值密文和所述第二梯度值密文由同态加密算法计算得到;相加单元,用于在每个子集内,将多个样本标识的第一梯度值密文同态相加,得到该子集的第一特征值密文,将多个样本标识的第二梯度值密文同态相加,得到该子集的第二特征值密文;掩盖单元,用于利用随机数分别对第一特征值密文和第二特征值密文进行掩盖,得到掩盖后的第一特征值密文和掩盖后的第二特征值密文;发送单元,用于向第二方发送每个子集所对应的掩盖后的第一特征值密文、以及掩盖后的第二特征值密文,以便于对数据处理模型的非叶子节点进行训练。
根据本说明书一个或多个实施例的第四方面,提供了一种模型训练装置,应用于第二方,所述第二方持有样本的标签数据,该装置包括:接收单元,用于接收子集所对应的掩盖后的第一特征值密文、以及掩盖后的第二特征值密文,所述子集通过对样本标识集进行分割得到,所述样本标识集包括多个样本标识;解密单元,用于分别对掩盖后的第一特征值密文和掩盖后的第二特征值密文进行解密,得到掩盖后的第一特征值和掩盖后的第二特征值;计算单元,用于利用掩盖后的第一特征值和掩盖后的第二特征值,计算分割增益因子,所述分割增益因子用于计算该子集的分割增益,所述分割增益用于对数据处理模型的非叶子节点进行训练。
根据本说明书一个或多个实施例的第五方面,提供了一种电子设备,包括存储器和处理器;存储器,用于存储计算机指令;处理器,用于执行如第一方面所述的方法步骤。
根据本说明书一个或多个实施例的第六方面,提供了一种电子设备,包括存储器和处理器;存储器,用于存储计算机指令;处理器,用于执行如第二方面所述的方法步骤。
由以上本说明书实施例提供的技术方案可见,本说明书实施例中,通过根据同态加密算法,利用随机数对特征值密文进行掩盖,可以增强在多方合作建模过程中数据的隐私保护。
附图说明
为了更清楚地说明本说明书实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,下面描述中的附图仅仅是本说明书中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本说明书一实施例的决策树模型示意图;
图2为本说明书一实施例的模型训练方法的流程图;
图3为本说明书一实施例的模型训练方法的流程图;
图4为本说明书一实施例的模型训练方法的流程图;
图5为本说明书一实施例的模型训练装置的功能结构图;
图6为本说明书一实施例的模型训练方法的功能结构图;
图7为本说明书一实施例的电子设备的功能结构图。
具体实施方式
下面将结合本说明书实施例中的附图,对本说明书实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都应当属于本说明书保护的范围。此外,应当理解,尽管在本说明书可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本说明书范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。
下面对本说明书实施例的技术术语进行说明。
树模型:一种有监督的机器学习模型。所述树模型例如可以为二叉树等。所述树模型可以包括决策树模型,所述决策树模型可以包括回归决策树和分类决策树等。所述树模型包括了多个节点。每个节点可以对应有位置标识,所述位置标识可以用于标识该节点在树模型中的位置,具体例如可以为该节点的编号等。所述多个节点能够形成多个预测路径。所述预测路径的起始节点为所述树模型的根节点,终止节点为所述树模型的叶子节点。
叶子节点:当树模型中的一个节点不能够向下分裂时,可以将该节点称为叶子节点。所述叶子节点对应有叶子值。树模型的不同叶子节点所对应的叶子值可以相同或不同。每个叶子值可以表示一种预测结果。所述叶子值可以为数值或向量等。
非叶子节点:当树模型中的一个节点能够向下分裂时,可以将该节点称为非叶子节点。所述非叶子节点具体可以包括根节点、以及除去叶子节点和根节点以外的其它节点(以下称为内部节点)。所述非叶子节点对应有分裂条件,所述分裂条件可以用于选择预测路径。
一个或多个树模型可以构成森林模型。所述森林模型可以为一种有监督的机器学习模型,具体可以包括回归决策森林和分类决策森林。用于实现将多个树模型集成为森林模型的算法可以包括随机森林(Random Forest)、极值梯度提升(Extreme GradientBoosting,XGBoost)、梯度提升决策树(Gradient Boosting Decision Tree,GBDT)等算法。
以下介绍树模型一个场景示例。
请参阅图1。在本场景示例中,树模型Tree1可以包括节点1、2、3、4、5、6、7、8、9、10、11等11个节点。其中,节点1为根节点;节点2、3、4和5为内部节点;节点6、7、8、9、10和11为叶子节点。节点1、2、4、8可以形成一个预测路径,节点1、2、4、9可以形成一个预测路径;节点1、2、5、10可以形成一个预测路径;节点1、2、5、11可以形成一个预测路径;节点1、3、6可以形成一个预测路径;节点1、3、7可以形成一个预测路径。
节点1、2、3、4和5对应的分裂条件可以如下表1所示。
表1
节点 分裂条件
节点1 年龄大于30岁
节点2 年收入大于5万
节点3 有房
节点4 有车
节点5 已婚
分裂条件“年龄大于20岁”、“年收入大于5万”、“有房”、“有车”、“已婚”可以用于选择预测路径。当不满足分裂条件(即判断结果为0)时,可以选择左边的预测路径;当满足分裂条件(即判断结果为0)时,可以选择右边的预测路径。
节点6、7、8、9、10和11对应的叶子值如下表2所示。
表2
节点 叶子值
节点6 20
节点7 40
节点8 80
节点9 100
节点10 200
节点11 250
损失函数(Loss Function)可以用于衡量数据处理模型的预测值与真实值之间不一致的程度。损失函数的值越小,表示数据处理模型的鲁棒性越好。所述损失函数包括但不限于对数损失函数(Logarithmic Loss Function)、平方损失函数(Square Loss)等。
本说明书提供一种模型训练系统的实施例。
所述模型训练系统可以包括第一方和第二方。所述第一方可以为服务器、手机、平板电脑、或个人电脑等设备;或者,也可以为由多台设备组成的系统,例如由多个服务器组成的服务器集群。所述第二方可以为服务器、手机、平板电脑、或个人电脑等设备;或者,也可以为由多台设备组成的系统,例如由多个服务器组成的服务器集群。
在一些实施例中,所述第一方持有样本的特征数据,但不持有样本的标签数据。所述第二方持有样本的标签数据。所述第二方可以不持有样本的特征数据,或者,也可以持有样本的部分特征数据。所述第一方和所述第二方可以进行合作安全建模。在合作安全建模的过程中,出于保护数据隐私的考虑,所述第一方不能够向所述第二方泄漏样本的特征数据,所述第二方不能够向所述第一方泄漏样本的标签数据。
通过合作安全建模得到的模型可以包括森林模型,所述森林模型可以包括至少一个树模型。在实际应用中,所述第一方和所述第二方可以对森林模型中的节点进行递归训练。用于对进行递归训练的算法包括但不限于XGBoost算法、ID3算法、C4.5算法、C5.0算法等等。
以图1所示的树模型为例,非叶节点1可以对应有样本标识集,所述样本标识集中各个样本标识所对应的样本用于对非叶节点1进行训练。所述第一方可以持有所述各个样本标识所对应样本的特征数据,所述第二方可以持有所述各个样本标识所对应样本的标签数据。所述第一方可以根据自身持有的特征数据,所述第二方可以根据自身持有的标签数据,对非叶节点1进行训练,得到非叶节点1的分裂条件。在对非叶节点1训练完成后,便可以得到非叶节点1对应的分裂条件,并且所述样本标识集被分割为了第一子集和第二子集。
所述第一子集可以与非叶节点2相对应。所述第一子集中各个样本标识所对应的样本用于对非叶节点2进行训练。所述第一方可以持有所述各个样本标识所对应样本的特征数据,所述第二方可以持有所述各个样本标识所对应样本的标签数据。所述第一方可以根据自身持有的特征数据,所述第二方可以根据自身持有的标签数据,对非叶节点2进行训练,得到非叶节点2的分裂条件。在对非叶节点2训练完成后,便可以得到非叶节点2对应的分裂条件,所述第一子集进一步被分割为了两个子集,以便于进一步对非叶节点4和非叶节点5进行训练。后续的过程不再赘述。
所述第二子集可以与非叶节点3相对应。所述第二子集中各个样本标识所对应的样本用于对非叶节点3进行训练。所述第一方可以持有所述各个样本标识所对应样本的特征数据,所述第二方可以持有所述各个样本标识所对应样本的标签数据。所述第一方可以根据自身持有的特征数据,所述第二方可以根据自身持有的标签数据,对非叶节点3进行训练,得到非叶节点3的分裂条件。在对非叶节点3训练完成后,便可以得到非叶节点3对应的分裂条件,所述第二子集进一步被分割为了两个子集,以便于进一步对叶子节点6和叶子节点7进行训练,得到叶子节点6的叶子值和叶子节点7的叶子值。
在一些实施例中,样本标识可以用于标识样本。例如,样本可以为业务对象的数据,样本标识可以为业务对象的标识。具体地,例如,样本可以为用户数据,样本标识可以为用户的身份标识。又例如,样本可以为商品数据,样本标识可以为商品的标识。
样本可以包括特征数据和标签数据,所述特征数据可以包括P个维度上的P个子数据,P为正整数。例如,样本x1可以表示为向量[x11,x12,...,x1i,...,x1p,Y1]。x11、x12、...、x1i、...、x1p为特征数据,包括P个维度上的P个子数据。Y1为标签数据。例如,针对样本x1,特征数据包括:在借贷金额维度上的借贷金额数据、在社保基数维度上的社保基数数据、在婚姻维度上的是否已婚数据、在房产维度上的是否有房数据,标签数据包括:用户是否为失信者。
以下介绍一个场景示例。在本场景示例中,所述第一方为大数据公司,所述第二方为征信机构。所述大数据公司持有用户的借贷金额、用户缴纳社保的基数、用户是否已婚、以及用户是否有房等数据,所述征信机构持有用户是否为失信者等数据。所述大数据公司和所述征信机构可以基于各自持有的用户数据,进行合作安全建模,得到森林模型。所述森林模型可以用于预测用户是否为失信者。在合作安全建模的过程中,出于保护数据隐私的考虑,所述大数据公司不能够向所述征信机构泄漏自身持有的数据,所述征信机构不能够向所述大数据公司泄漏自身持有的数据。
本说明书提供模型训练方法的一个实施例。
所述模型训练方法可以用于对森林模型中的一个非叶子节点进行训练,所述非叶子节点可以为根节点或内部节点。在实际应用中,利用所述模型训练方法,采用递归的方式,可以实现对森林模型中的各个非叶子节点进行训练,从而实现合作安全建模。
请参阅图2。所述模型训练方法可以包括以下步骤。
步骤S101:第一方根据特征数据,将样本标识集分割为多个子集。
在一些实施例中,所述样本标识集可以包括多个样本标识。所述样本标识集中各个样本标识所对应的样本用于对非叶子节点进行训练。具体地,在所述非叶子为根节点时,所述样本标识集可以为原始的样本标识集,所述原始的样本标识集可以包括用于对森林模型进行训练的样本的样本标识。在所述非叶子节点为内部节点时,所述样本标识集可以为对上一个非叶子节点进行训练后所分割得到的子集。
在一些实施例中,所述第一方可以持有所述样本标识集中各个样本标识所对应样本的特征数据。所述特征数据可以包括P个维度上的P个子数据,P为正整数。第一方可以根据至少一个维度上的子数据,将样本标识集分割为多个子集。在实际应用中,根据每个维度上的子数据,第一方可以将所述样本标识集分割为多个子集。
例如,所述样本标识集可以包括x1,x2,...,xi,...,xN等N个样本的样本标识,每个样本的特征数据可以包括在P个维度上的P个子数据。样本x1,x2,...,xi,...,xN在第i个维度上的子数据分别为x1i,x2i,...,xii,...,xNi。那么,根据子数据x1i,x2i,...,xii,...,xNi,第一方可以将样本x1,x2,...,xi,...,xN的样本标识划分至多个子集。具体地,例如,第i个维度可以为年龄。样本x1,x2,...,xi,...,xN在年龄维度上的子数据分别为x1i=30,x2i=35,...,xii=20,...,xNi=50。那么,第一方可以将样本x1,x2,...,xi,...,xN的样本标识划分至T1、T2、T3等3个子集。子集T1中各个样本标识所对应的样本在年龄维度上的子数据为0-20岁,子集T2中各个样本标识所对应的样本在年龄维度上的子数据为21-30岁,子集T3中各个样本标识所对应的样本在年龄维度上的子数据为31-50岁。
步骤S103:第二方计算样本标识所对应的第一梯度值密文和第二梯度值密文。
在一些实施例中,所述第一梯度值密文和第二梯度值密文可以由所述森林模型的损失函数计算得到。具体地,所述第二方可以持有所述样本标识集中各个样本标识所对应样本的标签数据。根据标签数据,所述第二方可以计算所述样本标识集中每个样本标识所对应的第一梯度值和第二梯度值。所述第一梯度值可以为损失函数的一阶梯度值,所述第二梯度值可以为损失函数的二阶梯度值。值得说明的是,所述第二方可以持有样本的标签数据,但不持有样本的特征数据。因此所述第二方可以仅根据标签数据计算所述样本标识集中每个样本标识所对应的第一梯度值和第二梯度值。或者,所述第二方可以持有样本的标签数据和部分特征数据。因此所述第二方可以根据标签数据和部分特征数据计算所述样本标识集中每个样本标识所对应的第一梯度值和第二梯度值。
以XGBoost算法为例,所述第二方可以根据
Figure BDA0002317126500000071
计算样本标识所对应的第一梯度值;可以根据
Figure BDA0002317126500000072
计算样本标识所对应的第二梯度值。其中,g表示第一梯度值,h表示第二梯度值,l表示损失函数,表示标签数据,
Figure BDA0002317126500000073
表示标签数据的预测值,t表示当前迭代轮次,
Figure BDA0002317126500000074
表示第t-1轮迭代后的预测值。本领域技术人员应当能够理解,这里用于计算第一梯度值和第二梯度值的公式仅为示例,在实际中还可以有其它的变形或变化。另外,这里的XGBoost算法也仅为示例,在实际中还可以采用其它的训练算法。
在一些实施例中,所述第二方可以对第一梯度值和第二梯度值进行加密,得到所述样本标识集中各个样本标识所对应的第一梯度值密文和第二梯度值密文。具体地,所述第二方可以采用同态加密算法对第一梯度值和第二梯度值进行加密。所述同态加密算法可以包括Paillier算法、Okamoto-Uchiyama算法、Damgard-Jurik算法等。同态加密(Homomorphic Encryption)是一种加密技术。它允许直接对密文数据进行运算得到仍是加密的结果,将其解密所得到的结果与对明文数据进行同样运算的结果相同。所述同态加密算法可以包括加法同态加密算法和乘法同态加密算法等。例如,所述第二方可以生成用于进行同态加密的公私钥对;可以利用所述公私钥对中的公钥对第一梯度值和第二梯度值进行加密。
步骤S105:第二方向第一方发送每个样本标识所对应的第一梯度值密文和第二梯度值密文。
步骤S107:第一方接收每个样本标识所对应的第一梯度值密文和第二梯度值密文。
步骤S109:第一方在每个子集内,将多个样本标识的第一梯度值密文同态相加,得到该子集的第一特征值密文,将多个样本标识的第二梯度值密文同态相加,得到该子集的第二特征值密文。
在一些实施例中,经过步骤S101,所述第一方可以获得多个子集,每个子集可以包括多个样本标识。针对每个子集,所述第一方可以将该子集内多个样本标识所对应的第一梯度值密文同态相加,得到该子集的第一特征值密文;可以将该子集内多个样本标识所对应的第二梯度值密文同态相加,得到该子集的第二特征值密文。
例如,某一子集可以包括样本标识x1,x2,...,xi,...,xm等m个样本标识。样本标识x1,x2,...,xi,...,xm对应的第一梯度值密文分别为E(g(x1)),E(g(x2)),...,E(g(xi)),...,E(g(xm)),样本标识x1,x2,...,xi,...,xm对应的第二梯度值密文分别为E(h(x1)),E(h(x2)),...,E(h(xi)),...,E(h(xm))。那么,第一方可以计算E(g(x1))+E(g(x2))+,...,+E(g(xi))+,...,+E(g(xm))=E(g(x1)+g(x2)+,...,+g(xi)+,...,+g(xm))作为该子集的第一特征值密文;可以计算E(h(x1))+E(h(x2))+,...,+E(h(xi))+,...,+E(h(xm))=E(h(x1)+h(x2)+,...,+h(xi)+,...,+h(xm))作为该子集的第二特征值密文。
步骤S111:第一方利用随机数分别对第一特征值密文和第二特征值密文进行掩盖,得到掩盖后的第一特征值密文和掩盖后的第二特征值密文。
在一些实施例中,通过对第一特征值密文和第二特征值密文进行掩盖,可以避免第二方获得第一特征值密文和第二特征值密文,进而避免第二方由第一特征值密文和第二特征值密文获得第一特征值和第二特征值,增强了隐私保护。
在一些实施例中,针对每个子集的第一特征值密文和第二特征值密文,所述第一方可以采用以下任意一种方式进行掩盖,得到该子集所对应的掩盖后的第一特征值密文和掩盖后的第二特征值密文。
方式一:
仅利用随机数对第一特征值密文进行掩盖,得到掩盖后的第一特征值密文;仅利用随机数对第二特征值密文进行掩盖,得到掩盖后的第二特征值密文。这样在后续的步骤S119中第二方可以计算得到分割增益因子。
第一方可以利用同态加密算方法对随机数进行态加密,得到随机数密文;可以将所述随机数密文分别与第一特征值密文和第二特征值密文进行同态运算,得到掩盖后的第一特征值密文和掩盖后的第二特征值密文。所述同态运算可以包括同态加法运算、同态乘法运算及其任意组合。其中,例如,第一方可以利用第二方的公钥对随机数进行同态加密。
例如,所述第一特征值密文可以为E(g),所述掩盖后的第一特征值密文可以为E(gr)。所述第二特征值密文可以为E(h),所述掩盖后的第二特征值密文可以为E((h+λ)×r2)。r表示随机数,λ表示正则项系数。
方式二:
利用随机数和第一噪声数据对第一特征值密文进行掩盖,得到掩盖后的第一特征值密文;利用随机数对第二特征值密文进行掩盖,得到掩盖后的第二特征值密文。所述第一噪声数据可以为数值较小的随机数。这样在后续的步骤S119中第二方可以计算得到精度受限的分割增益因子。值得说明的是,由于所述第一噪声数据为数值较小的随机数,使得精度受限的分割增益因子能够满足业务需求。
具体掩盖过程与前面的方式一相类似,在此不再赘述。
方式三:
利用随机数和第一噪声数据对第一特征值密文进行掩盖,得到掩盖后的第一特征值密文;利用随机数和第二噪声数据对第二特征值密文进行掩盖,得到掩盖后的第二特征值密文。所述第一噪声数据可以为数值较小的一个随机数,所述第二噪声数据可以为数值较小的另一个随机数。这样在后续的步骤S119中第二方可以计算得到精度受限的分割增益因子。值得说明的是,由于所述第一噪声数据为数值较小的随机数,所述第二噪声数据为数值较小的另一个随机数,使得精度受限的分割增益因子能够满足业务需求。
具体掩盖过程与前面的方式一相类似,在此不再赘述。
例如,所述第一特征值密文可以为E(g),所述掩盖后的第一特征值密文可以为E(gr+s1)。所述第二特征值密文可以为E(h),所述掩盖后的第二特征值密文可以为E((h+λ)×r2+s2)。r表示随机数,λ表示正则项系数,s1表示第一噪声数据,s2表示第一噪声数据。
方式四:
利用随机数对第一特征值密文进行掩盖,得到掩盖后的第一特征值密文;利用随机数和第二噪声数据对第二特征值密文进行掩盖,得到掩盖后的第二特征值密文。所述第二噪声数据可以为数值较小的随机数。这样在后续的步骤S119中第二方可以计算得到精度受限的分割增益因子。值得说明的是,由于所述第一噪声数据为数值较小的随机数,使得精度受限的分割增益因子能够满足业务需求。
具体掩盖过程与前面的方式一相类似,在此不再赘述。
步骤S113:第一方向第二方发送每个子集所对应的掩盖后的第一特征值密文、以及掩盖后的第二特征值密文。
步骤S115:第二方接收每个子集所对应的掩盖后的第一特征值密文、以及掩盖后的第二特征值密文。
步骤S117:第二方分别对掩盖后的第一特征值密文和掩盖后的第二特征值密文进行解密,得到掩盖后的第一特征值和掩盖后的第二特征值。
在一些实施例中,所述第二方可以对每个子集所对应的掩盖后的第一特征值密文和掩盖后的第二特征值密文进行解密,得到该子集所对应的掩盖后的第一特征值和掩盖后的第二特征值。例如,所述第二方可以利用私钥对掩盖后的第一特征值密文和掩盖后的第二特征值密文进行解密。
步骤S119:第二方利用掩盖后的第一特征值和掩盖后的第二特征值,计算分割增益因子,所述分割增益因子用于计算分割增益,所述分割增益用于对数据处理模型的非叶子节点进行训练。
在一些实施例中,针对每个子集,所述第二方可以将该子集所对应的对掩盖后的第一特征值和掩盖后的第二特征值按照预设算法进行运算,得到该子集的分割增益因子。所述分割增益因子可以用于计算分割增益,所述分割增益用于可以用于度量多个特定样本的有序程度,所述多个特定样本可以包括子集内的样本标识所对应的样本。所述分割增益可以包括以下至少之一:信息增益、信息增益率、基尼系数。本领域技术人员应当能够理解,所述分割增益并不限于以上所列举的信息增益、信息增益率和基尼系数,在实际中根据训练算法的不同,所述分割增益也可以不同。
例如,某一子集所对应的掩盖后的第一特征值密文可以为E(gr),该子集所对应的掩盖后的第二特征值密文可以为E((h+λ)×r2)。通过进行解密,该子集所对应的掩盖后的第一特征值可以为gr,该子集所对应的掩盖后的第二特征值可以为(h+λ)×r2。所述第二方可以计算分割增益因子
Figure BDA0002317126500000101
又例如,某一子集所对应的掩盖后的第一特征值密文可以为E(gr+s1),该子集所对应的掩盖后的第二特征值密文可以为E((h+λ)×r2+s2)。通过进行解密,该子集所对应的掩盖后的第一特征值可以为gr+s1,该子集所对应的掩盖后的第二特征值可以为(h+λ)×r2+s2。所述第二方可以计算分割增益因子
Figure BDA0002317126500000111
由于第一噪声数据s1和第二噪声数据s2均为数值较小的随机数,因而
Figure BDA0002317126500000112
Figure BDA0002317126500000113
近似相等。
在一些实施例中,所述第二方还可以根据每个子集的分割增益因子计算该子集的分割增益。所述第二方可以根据各个子集的分割增益来选取子集,进而可以根据选取的子集确定非叶子节点的分裂条件。例如,所述第二方可以选取分割增益最大的子集。当然,所述第二方也可以根据每个子集的分割增益因子,与所述第一方共同计算该子集的分割增益。
本说明书一些实施例的模型训练方法,通过利用随机数对特征值密文进行掩盖,可以增强在多方合作建模过程中数据的隐私保护。
本说明书提供模型训练方法的另一个实施例。
所述模型训练方法可以用于对森林模型中的一个非叶子节点进行训练,所述非叶子节点可以为根节点或内部节点。在实际应用中,利用所述模型训练方法,采用递归的方式,可以实现对森林模型中的各个非叶子节点进行训练,从而实现合作安全建模。所述模型训练方法可以应用于第一方,所述第一方可以持有样本的特征数据。
请参阅图3。所述模型训练方法可以包括以下步骤。
步骤S21:根据特征数据,将样本标识集分割为多个子集。
步骤S23:接收每个样本标识所对应的第一梯度值密文和第二梯度值密文。
步骤S25:在每个子集内,将多个样本标识的第一梯度值密文同态相加,得到该子集的第一特征值密文,将多个样本标识的第二梯度值密文同态相加,得到该子集的第二特征值密文。
步骤S27:利用随机数分别对第一特征值密文和第二特征值密文进行掩盖,得到掩盖后的第一特征值密文和掩盖后的第二特征值密文;
步骤S29:向第二方发送每个子集所对应的掩盖后的第一特征值密文、以及掩盖后的第二特征值密文,以便于对数据处理模型的非叶子节点进行训练。
本说明书一些实施例的模型训练方法,通过根据同态加密算法,利用随机数对特征值密文进行掩盖,可以增强在多方合作建模过程中数据的隐私保护。
本说明书提供模型训练方法的另一个实施例。所述模型训练方法可以用于对森林模型中的一个非叶子节点进行训练,所述非叶子节点可以为根节点或内部节点。在实际应用中,利用所述模型训练方法,采用递归的方式,可以实现对森林模型中的各个非叶子节点进行训练,从而实现合作安全建模。所述模型训练方法可以应用于第二方,所述第二方可以持有样本的标签数据。
请参阅图4。所述模型训练方法可以包括以下步骤。
步骤S31:接收子集所对应的掩盖后的第一特征值密文、以及掩盖后的第二特征值密文,所述子集通过对样本标识集进行分割得到,所述样本标识集包括多个样本标识。
步骤S33:分别对掩盖后的第一特征值密文和掩盖后的第二特征值密文进行解密,得到掩盖后的第一特征值和掩盖后的第二特征值。
步骤S35:利用掩盖后的第一特征值和掩盖后的第二特征值,计算分割增益因子,所述分割增益因子用于计算该子集的分割增益,所述分割增益用于对数据处理模型的非叶子节点进行训练。
本说明书一些实施例的模型训练方法,通过根据同态加密算法,利用随机数对特征值密文进行掩盖,可以增强在多方合作建模过程中数据的隐私保护。
本说明书提供模型训练装置的一个实施例,应用于第一方,所述第一方持有样本的特征数据。请参阅图5。该装置可以包括以下单元。
分割单元41,用于根据特征数据,将样本标识集分割为多个子集,所述样本标识集包括多个样本的标识;
接收单元43,用于接收每个样本标识所对应的第一梯度值密文和第二梯度值密文,所述第一梯度值密文和所述第二梯度值密文由同态加密算法分别对损失函数的第一梯度值和第二梯度值加密得到;
相加单元45,用于在每个子集内,将多个样本标识的第一梯度值密文同态相加,得到该子集的第一特征值密文,将多个样本标识的第二梯度值密文同态相加,得到该子集的第二特征值密文;
掩盖单元47,用于利用随机数分别对第一特征值密文和第二特征值密文进行掩盖,得到掩盖后的第一特征值密文和掩盖后的第二特征值密文;
发送单元49,用于向第二方发送每个子集所对应的掩盖后的第一特征值密文、以及掩盖后的第二特征值密文,以便于对数据处理模型的非叶子节点进行训练。
本说明书提供模型训练装置的一个实施例,应用于第二方,所述第二方持有样本的标签数据。请参阅图6。该装置可以包括以下单元。
接收单元51,用于接收子集所对应的掩盖后的第一特征值密文、以及掩盖后的第二特征值密文,所述子集通过对样本标识集进行分割得到,所述样本标识集包括多个样本标识;
解密单元53,用于分别对掩盖后的第一特征值密文和掩盖后的第二特征值密文进行解密,得到掩盖后的第一特征值和掩盖后的第二特征值;
计算单元55,用于利用掩盖后的第一特征值和掩盖后的第二特征值,计算分割增益因子,所述分割增益因子用于计算该子集的分割增益,所述分割增益用于对数据处理模型的非叶子节点进行训练。
下面介绍本说明书电子设备的一个实施例。图7是该实施例中电子设备的硬件结构示意图。如图7所示,该电子设备可以包括一个或多个(图中仅示出一个)处理器、存储器和传输模块。当然,本领域普通技术人员可以理解,图7所示的硬件结构仅为示意,其并不对上述电子设备的硬件结构造成限定。在实际中该电子设备还可以包括比图7所示更多或者更少的组件单元;或者,具有与图7所示不同的配置。
所述存储器可以包括高速随机存储器;或者,还可以包括非易失性存储器,例如一个或者多个磁性存储装置、闪存或者其他非易失性固态存储器。当然,所述存储器还可以包括远程设置的网络存储器。所述远程设置的网络存储器可以通过诸如互联网、企业内部网、局域网、移动通信网等网络连接至所述区块链客户端。所述存储器可以用于存储应用软件的程序指令或模块,例如本说明书图3或图4所对应实施例的程序指令或模块。
所述处理器可以按任何适当的方式实现。例如,所述处理器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific IntegratedCircuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式等等。所述处理器可以读取并执行所述存储器中的程序指令或模块。
所述传输模块可以用于经由网络进行数据传输,例如经由诸如互联网、企业内部网、局域网、移动通信网等网络进行数据传输。
本说明书还提供计算机存储介质的一个实施例。所述计算机存储介质包括但不限于随机存取存储器(Random Access Memory,RAM)、只读存储器(Read-Only Memory,ROM)、缓存(Cache)、硬盘(Hard Disk Drive,HDD)、存储卡(Memory Card)等等。所述计算机存储介质存储有计算机程序指令。在所述计算机程序指令被执行时实现:本说明书图3或图4所对应实施例的程序指令或模块。
需要说明的是,本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同或相似的部分互相参见即可,每个实施例重点说明的都是与其它实施例的不同之处。尤其,对于单侧实施的方法实施例(例如图3和图4所对应的实施例)、装置实施例、电子设备实施例、以及计算机存储介质实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。另外,可以理解的是,本领域技术人员在阅读本说明书文件之后,可以无需创造性劳动想到将本说明书列举的部分或全部实施例进行任意组合,这些组合也在本说明书公开和保护的范围内。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog2。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到本说明书可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本说明书的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本说明书各个实施例或者实施例的某些部分所述的方法。
本说明书可用于众多通用或专用的计算机系统环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、置顶盒、可编程的消费电子设备、网络PC、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
虽然通过实施例描绘了本说明书,本领域普通技术人员知道,本说明书有许多变形和变化而不脱离本说明书的精神,希望所附的权利要求包括这些变形和变化而不脱离本说明书的精神。

Claims (14)

1.一种模型训练方法,应用于第一方,所述第一方持有样本的特征数据,该方法包括:
根据特征数据,将样本标识集分割为多个子集,所述样本标识集包括多个样本标识;
接收每个样本标识所对应的第一梯度值密文和第二梯度值密文,所述第一梯度值密文和所述第二梯度值密文由同态加密算法分别对损失函数的第一梯度值和第二梯度值加密得到;
在每个子集内,将多个样本标识的第一梯度值密文同态相加,得到该子集的第一特征值密文,将多个样本标识的第二梯度值密文同态相加,得到该子集的第二特征值密文;
利用随机数分别对第一特征值密文和第二特征值密文进行掩盖,得到掩盖后的第一特征值密文和掩盖后的第二特征值密文;
向第二方发送每个子集所对应的掩盖后的第一特征值密文、以及掩盖后的第二特征值密文,以便于对数据处理模型的非叶子节点进行训练。
2.如权利要求1所述的方法,所述数据处理模型包括森林模型,所述森林模型包括至少一个树模型,所述树模型包括至少两个非叶子节点;
所述第一梯度值为一阶梯度值,所述第二梯度值为二阶梯度值。
3.如权利要求1所述的方法,样本的特征数据包括多个子数据,每个子数据对应一个维度;所述将样本标识集分割为多个子集,包括:
根据至少一个维度的子数据,将样本标识集分割为多个子集。
4.如权利要求1所述的方法,所述利用随机数分别对第一特征值密文和第二特征值密文进行掩盖,包括:
对随机数进行同态加密,得到随机数密文;将随机数密文分别与第一特征值密文和第二特征值密文进行同态运算,得到掩盖后的第一特征值密文和掩盖后的第二特征值密文;
所述同态运算包括以下之一或任意组合:同态加法运算、同态乘法运算。
5.如权利要求1所述的方法,采用以下任意一种方式,利用随机数分别对第一特征值密文和第二特征值密文进行掩盖:
方式一:
仅利用随机数对第一特征值密文进行掩盖,得到掩盖后的第一特征值密文;仅利用随机数对第二特征值密文进行掩盖,得到掩盖后的第二特征值密文;
方式二:
利用随机数和第一噪声数据对第一特征值密文进行掩盖,得到掩盖后的第一特征值密文;利用随机数对第二特征值密文进行掩盖,得到掩盖后的第二特征值密文;
方式三:
利用随机数和第一噪声数据对第一特征值密文进行掩盖,得到掩盖后的第一特征值密文;利用随机数和第二噪声数据对第二特征值密文进行掩盖,得到掩盖后的第二特征值密文;
方式四:
利用随机数对第一特征值密文进行掩盖,得到掩盖后的第一特征值密文;利用随机数和第二噪声数据对第二特征值密文进行掩盖,得到掩盖后的第二特征值密文。
6.如权利要求1所述的方法,所述第一特征值密文为E(g),所述掩盖后的第一特征值密文为E(gr);所述第二特征值密文为E(h),所述掩盖后的第二特征值密文为E((h+λ)×r2);
r为随机数,λ为正则项系数。
7.如权利要求1所述的方法,所述第一特征值密文为E(g),所述掩盖后的第一特征值密文为E(gr+s1);所述第二特征值密文为E(h),所述掩盖后的第二特征值密文为E((h+λ)×r2+s2);
r为随机数,λ为正则项系数,s1为第一噪声数据,s2为第一噪声数据。
8.一种模型训练方法,应用于第二方,所述第二方持有样本的标签数据,该方法包括:
接收子集所对应的掩盖后的第一特征值密文、以及掩盖后的第二特征值密文,所述子集通过对样本标识集进行分割得到,所述样本标识集包括多个样本标识;
分别对掩盖后的第一特征值密文和掩盖后的第二特征值密文进行解密,得到掩盖后的第一特征值和掩盖后的第二特征值;
利用掩盖后的第一特征值和掩盖后的第二特征值,计算分割增益因子,所述分割增益因子用于计算子集的分割增益,所述分割增益用于对数据处理模型的非叶子节点进行训练。
9.如权利要求8所述的方法,所述数据处理模型包括森林模型,所述森林模型包括至少一个树模型,所述树模型包括至少两个非叶子节点。
10.如权利要求8所述的方法,子集所对应的掩盖后的第一特征值密文根据该子集内样本标识的第一梯度值密文计算得到,子集所对应的掩盖后的第二特征值密文根据该子集内样本标识的第二梯度值密文计算得到;所述第一梯度值密文和所述第二梯度值密文由同态加密算法分别对损失函数的第一梯度值和第二梯度值加密得到;损失函数的第一梯度值和第二梯度值根据样本的标签数据计算得到。
11.如权利要求8所述的方法,所述分割增益用于度量多个特定样本的有序程度,所述特定样本包括子集内的样本标识所对应的样本。
12.一种模型训练装置,应用于第一方,所述第一方持有样本的特征数据,该装置包括:
分割单元,用于根据特征数据,将样本标识集分割为多个子集,所述样本标识集包括多个样本的标识;
接收单元,用于接收每个样本标识所对应的第一梯度值密文和第二梯度值密文,所述第一梯度值密文和所述第二梯度值密文由同态加密算法分别对损失函数的第一梯度值和第二梯度值加密得到;
相加单元,用于在每个子集内,将多个样本标识的第一梯度值密文同态相加,得到该子集的第一特征值密文,将多个样本标识的第二梯度值密文同态相加,得到该子集的第二特征值密文;
掩盖单元,用于利用随机数分别对第一特征值密文和第二特征值密文进行掩盖,得到掩盖后的第一特征值密文和掩盖后的第二特征值密文;
发送单元,用于向第二方发送每个子集所对应的掩盖后的第一特征值密文、以及掩盖后的第二特征值密文,以便于对数据处理模型的非叶子节点进行训练。
13.一种模型训练装置,应用于第二方,所述第二方持有样本的标签数据,该装置包括:
接收单元,用于接收子集所对应的掩盖后的第一特征值密文、以及掩盖后的第二特征值密文,所述子集通过对样本标识集进行分割得到,所述样本标识集包括多个样本标识;
解密单元,用于分别对掩盖后的第一特征值密文和掩盖后的第二特征值密文进行解密,得到掩盖后的第一特征值和掩盖后的第二特征值;
计算单元,用于利用掩盖后的第一特征值和掩盖后的第二特征值,计算分割增益因子,所述分割增益因子用于计算子集的分割增益,所述分割增益用于对数据处理模型的非叶子节点进行训练。
14.一种电子设备,包括:
至少一个处理器;
存储有程序指令的存储器,其中,所述程序指令被配置为适于由所述至少一个处理器执行,所述程序指令包括用于执行如权利要求1-11中任一项所述方法的指令。
CN201911282429.3A 2019-12-13 2019-12-13 模型训练方法、装置和电子设备 Pending CN111144576A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201911282429.3A CN111144576A (zh) 2019-12-13 2019-12-13 模型训练方法、装置和电子设备
PCT/CN2020/094664 WO2021114585A1 (zh) 2019-12-13 2020-06-05 模型训练方法、装置和电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911282429.3A CN111144576A (zh) 2019-12-13 2019-12-13 模型训练方法、装置和电子设备

Publications (1)

Publication Number Publication Date
CN111144576A true CN111144576A (zh) 2020-05-12

Family

ID=70518163

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911282429.3A Pending CN111144576A (zh) 2019-12-13 2019-12-13 模型训练方法、装置和电子设备

Country Status (2)

Country Link
CN (1) CN111144576A (zh)
WO (1) WO2021114585A1 (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111930948A (zh) * 2020-09-08 2020-11-13 平安国际智慧城市科技股份有限公司 一种信息收集和分级方法、装置、计算机设备及存储介质
CN112700031A (zh) * 2020-12-12 2021-04-23 同济大学 一种保护多方数据隐私的XGBoost预测模型训练方法
WO2021114585A1 (zh) * 2019-12-13 2021-06-17 支付宝(杭州)信息技术有限公司 模型训练方法、装置和电子设备
CN113088359A (zh) * 2021-03-30 2021-07-09 重庆大学 一种工艺参数驱动的三甘醇脱水装置三甘醇损耗量在线预测方法
WO2021203980A1 (zh) * 2020-11-20 2021-10-14 平安科技(深圳)有限公司 一种气象事件预测方法、装置及相关设备
CN113824546A (zh) * 2020-06-19 2021-12-21 百度在线网络技术(北京)有限公司 用于生成信息的方法和装置
CN113824677A (zh) * 2020-12-28 2021-12-21 京东科技控股股份有限公司 联邦学习模型的训练方法、装置、电子设备和存储介质
WO2022143987A1 (zh) * 2020-12-31 2022-07-07 华为技术有限公司 树模型训练方法、装置和系统
CN115021900A (zh) * 2022-05-11 2022-09-06 电子科技大学 分布式梯度提升决策树实现全面隐私保护的方法

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109002861A (zh) * 2018-08-10 2018-12-14 深圳前海微众银行股份有限公司 联邦建模方法、设备及存储介质
CN109165725A (zh) * 2018-08-10 2019-01-08 深圳前海微众银行股份有限公司 基于迁移学习的神经网络联邦建模方法、设备及存储介质
CN109165515A (zh) * 2018-08-10 2019-01-08 深圳前海微众银行股份有限公司 基于联邦学习的模型参数获取方法、系统及可读存储介质
CN109299728A (zh) * 2018-08-10 2019-02-01 深圳前海微众银行股份有限公司 联邦学习方法、系统及可读存储介质
CN109325584A (zh) * 2018-08-10 2019-02-12 深圳前海微众银行股份有限公司 基于神经网络的联邦建模方法、设备及可读存储介质
CN109492420A (zh) * 2018-12-28 2019-03-19 深圳前海微众银行股份有限公司 基于联邦学习的模型参数训练方法、终端、系统及介质
CN109886417A (zh) * 2019-03-01 2019-06-14 深圳前海微众银行股份有限公司 基于联邦学习的模型参数训练方法、装置、设备及介质
CN110276210A (zh) * 2019-06-12 2019-09-24 深圳前海微众银行股份有限公司 基于联邦学习的模型参数的确定方法及装置
CN110414567A (zh) * 2019-07-01 2019-11-05 阿里巴巴集团控股有限公司 数据处理方法、装置和电子设备
CN110427969A (zh) * 2019-07-01 2019-11-08 阿里巴巴集团控股有限公司 数据处理方法、装置和电子设备
CN110457912A (zh) * 2019-07-01 2019-11-15 阿里巴巴集团控股有限公司 数据处理方法、装置和电子设备
CN110535622A (zh) * 2019-08-01 2019-12-03 阿里巴巴集团控股有限公司 数据处理方法、装置和电子设备

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9787647B2 (en) * 2014-12-02 2017-10-10 Microsoft Technology Licensing, Llc Secure computer evaluation of decision trees
US10726153B2 (en) * 2015-11-02 2020-07-28 LeapYear Technologies, Inc. Differentially private machine learning using a random forest classifier
US10198399B1 (en) * 2018-03-06 2019-02-05 KenSci Inc. Cryptographically secure machine learning
CN111144576A (zh) * 2019-12-13 2020-05-12 支付宝(杭州)信息技术有限公司 模型训练方法、装置和电子设备

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109002861A (zh) * 2018-08-10 2018-12-14 深圳前海微众银行股份有限公司 联邦建模方法、设备及存储介质
CN109165725A (zh) * 2018-08-10 2019-01-08 深圳前海微众银行股份有限公司 基于迁移学习的神经网络联邦建模方法、设备及存储介质
CN109165515A (zh) * 2018-08-10 2019-01-08 深圳前海微众银行股份有限公司 基于联邦学习的模型参数获取方法、系统及可读存储介质
CN109299728A (zh) * 2018-08-10 2019-02-01 深圳前海微众银行股份有限公司 联邦学习方法、系统及可读存储介质
CN109325584A (zh) * 2018-08-10 2019-02-12 深圳前海微众银行股份有限公司 基于神经网络的联邦建模方法、设备及可读存储介质
CN109492420A (zh) * 2018-12-28 2019-03-19 深圳前海微众银行股份有限公司 基于联邦学习的模型参数训练方法、终端、系统及介质
CN109886417A (zh) * 2019-03-01 2019-06-14 深圳前海微众银行股份有限公司 基于联邦学习的模型参数训练方法、装置、设备及介质
CN110276210A (zh) * 2019-06-12 2019-09-24 深圳前海微众银行股份有限公司 基于联邦学习的模型参数的确定方法及装置
CN110414567A (zh) * 2019-07-01 2019-11-05 阿里巴巴集团控股有限公司 数据处理方法、装置和电子设备
CN110427969A (zh) * 2019-07-01 2019-11-08 阿里巴巴集团控股有限公司 数据处理方法、装置和电子设备
CN110457912A (zh) * 2019-07-01 2019-11-15 阿里巴巴集团控股有限公司 数据处理方法、装置和电子设备
CN110535622A (zh) * 2019-08-01 2019-12-03 阿里巴巴集团控股有限公司 数据处理方法、装置和电子设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
杨强: "AI与数据隐私保护:联邦学习的破解之道", 《信息安全研究》 *
王亚珅: "面向数据共享交换的联邦学习技术发展综述", 《无人系统技术》 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021114585A1 (zh) * 2019-12-13 2021-06-17 支付宝(杭州)信息技术有限公司 模型训练方法、装置和电子设备
CN113824546A (zh) * 2020-06-19 2021-12-21 百度在线网络技术(北京)有限公司 用于生成信息的方法和装置
CN113824546B (zh) * 2020-06-19 2024-04-02 百度在线网络技术(北京)有限公司 用于生成信息的方法和装置
CN111930948A (zh) * 2020-09-08 2020-11-13 平安国际智慧城市科技股份有限公司 一种信息收集和分级方法、装置、计算机设备及存储介质
WO2021203980A1 (zh) * 2020-11-20 2021-10-14 平安科技(深圳)有限公司 一种气象事件预测方法、装置及相关设备
CN112700031A (zh) * 2020-12-12 2021-04-23 同济大学 一种保护多方数据隐私的XGBoost预测模型训练方法
CN113824677A (zh) * 2020-12-28 2021-12-21 京东科技控股股份有限公司 联邦学习模型的训练方法、装置、电子设备和存储介质
WO2022143987A1 (zh) * 2020-12-31 2022-07-07 华为技术有限公司 树模型训练方法、装置和系统
CN113088359A (zh) * 2021-03-30 2021-07-09 重庆大学 一种工艺参数驱动的三甘醇脱水装置三甘醇损耗量在线预测方法
CN115021900A (zh) * 2022-05-11 2022-09-06 电子科技大学 分布式梯度提升决策树实现全面隐私保护的方法
CN115021900B (zh) * 2022-05-11 2024-05-03 电子科技大学 分布式梯度提升决策树实现全面隐私保护的方法

Also Published As

Publication number Publication date
WO2021114585A1 (zh) 2021-06-17

Similar Documents

Publication Publication Date Title
CN110457912B (zh) 数据处理方法、装置和电子设备
CN111144576A (zh) 模型训练方法、装置和电子设备
CN109002861B (zh) 联邦建模方法、设备及存储介质
CN110414567B (zh) 数据处理方法、装置和电子设备
JP7095140B2 (ja) 特徴抽出に基くマルチモデルトレーニング方法及び装置、電子機器と媒体
CN111125727B (zh) 混淆电路生成方法、预测结果确定方法、装置和电子设备
US11176469B2 (en) Model training methods, apparatuses, and systems
CN110427969B (zh) 数据处理方法、装置和电子设备
CN111008709A (zh) 联邦学习、资料风险评估方法、装置和系统
CN113221183B (zh) 实现隐私保护的多方协同更新模型的方法、装置及系统
CN111428887B (zh) 一种基于多个计算节点的模型训练控制方法、装置及系统
CN110569227B (zh) 模型参数确定方法、装置和电子设备
CN110391895B (zh) 数据预处理方法、密文数据获取方法、装置和电子设备
CN111737279B (zh) 基于区块链的业务处理方法、装置、设备及存储介质
WO2020011200A1 (zh) 跨域数据融合方法、系统以及存储介质
CN110457936B (zh) 数据交互方法、装置和电子设备
CN113505882A (zh) 基于联邦神经网络模型的数据处理方法、相关设备及介质
CN110460435B (zh) 数据交互方法、装置、服务器和电子设备
CN111061720B (zh) 数据筛选方法、装置和电子设备
CN112507323A (zh) 基于单向网络的模型训练方法、装置和计算设备
CN111046431B (zh) 数据处理方法、查询方法、装置、电子设备和系统
CN111159730B (zh) 数据处理方法、查询方法、装置、电子设备和系统
US20200167665A1 (en) Performing data processing based on decision tree
CN111046408A (zh) 判断结果处理方法、查询方法、装置、电子设备和系统
CN113849837A (zh) 一种安全模型的训练方法、装置、设备以及数据处理方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40029915

Country of ref document: HK