CN112183730A - 一种基于共享学习的神经网络模型的训练方法 - Google Patents

一种基于共享学习的神经网络模型的训练方法 Download PDF

Info

Publication number
CN112183730A
CN112183730A CN202011099902.7A CN202011099902A CN112183730A CN 112183730 A CN112183730 A CN 112183730A CN 202011099902 A CN202011099902 A CN 202011099902A CN 112183730 A CN112183730 A CN 112183730A
Authority
CN
China
Prior art keywords
provider
sample
neural network
data
calculation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011099902.7A
Other languages
English (en)
Other versions
CN112183730B (zh
Inventor
郑小林
郑非
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN202011099902.7A priority Critical patent/CN112183730B/zh
Publication of CN112183730A publication Critical patent/CN112183730A/zh
Application granted granted Critical
Publication of CN112183730B publication Critical patent/CN112183730B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/602Providing cryptographic facilities or services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Abstract

本发明涉及机器学习技术领域,旨在提供一种基于共享学习的神经网络模型的训练方法。该方法是由多个共享学习参与方通过秘密分享进行混合安全多方计算和中心节点本地计算,实现神经网络模型训练;具体包括:数据准备;数据加载和初始化;载入当前训练批次;计算第一层线性输出;计算模型预测值;计算模型输出梯度;更新模型及计算;更新本地共享权重;在测试集上评估。本发明结合多方安全计算和本地计算,提高了共享学习的效率。通过在线的加密乘法三元组提供方,提高了秘密共享的安全多方计算的效率,相比同态加密、混淆电路等方案极大地降低了开销。适用于纵向共享学习场景,能够使得各方在没有任何重合特征的情况下进行联邦建模。

Description

一种基于共享学习的神经网络模型的训练方法
技术领域
本发明涉及机器学习技术领域,特别涉及一种基于共享学习的神经网络模型的训练方法。
背景技术
随着机器学习算法的广泛应用,许多数据被用于机器学习模型的训练。比如银行通过训练一部分客户的数据来预测其他客户的信用。共享学习方法,是一种融合本地计算和多方安全计算等手段的隐私保护的机器学习方法,广泛应用于需要隐私保护的机器学习场景。比如一家银行拥有用户的贷款数据,另一家银行有用户的交易数据,两家银行想要共享数据进行建模,预测用户的信用水平。但如果直接将数据放在一起用神经网络模型训练会使得数据离开至少一家银行,因此带来数据泄露风险。
现有的支持神经网络训练的联邦保护机器学习技术有基于安全梯度聚合的联邦学习方法的和基于同态加密、多方安全计算的密码学方法。但是安全梯度聚合的适用范围较窄,只能用于不同样本、相同特征的情况。现在学术界和业界广泛使用的支持纵向分割数据的隐私保护机器学习的方案有:同态加密、安全多方计算,混淆电路以及他们的混合方案。比如ABY框架混合了秘密分享、安全多方计算、混淆电路。但是各种方案均有比较大的计算开销,同态加密方案不能用于模型训练,仅可用于模型推断。混淆电路会产生巨大的网络通讯信息以及加解密的开销。基于线下产生的矩阵乘法三元组生成方案导致线下的运算开销很大,不适用于模型训练。
中国发明专利申请“基于联邦学习的模型参数训练方法、终端、系统及介质”(申请号201811620130.X),该发明通过采用同态加密和迁移学习的方法,通过利用两方的特征交集用迁移学习进行补全,用同态加密将模型在参与方之间互相传递以保护隐私。该模型首先通过把两方特征并集中的缺失特征进行加密补全,然后再使用同态加密算法对模型进行训练。该发明只适用于横向联邦学习,即,不同的样本拥有方的样本需要有共同特征,并且需要使用开销巨大的同态加密算法。如果共同特征的数量少,训练效果将会很差。对样本特征进行补全的过程的开销也巨大。而在实际情况中,各个参与方可能没有足够多的共同特征。而且现阶段同态加密带来的开销使得其无法在生产情况使用。
中国发明专利申请“一种混合联邦学习方法及架构”(申请号201910720373.9),该发明设计了一种混合联邦学习的架构,通过参与方之间的交互运算来实现横向联邦学习和纵向联邦学习模型训练的目的。该方法需要把模型分发给各个参与方,参与方计算后得到更新的模型再由协调者进行聚合。该发明适用于横向、纵向以及混合分割的数据集进行联合建模的场景,但是采用的传统联邦学习方法需要所有的数据持有方都对模型进行计算并且发送模型到协调者中,此方法的通讯成本较大,且需要所有的数据持有方有一定的计算能力。
中国发明专利申请“数据共享的机器学习方法和机器学习装置”(申请号201911102002.0),该发明设计了一种使用可信执行环境的共享学习方法,通过参与方将数据加密发送到可信执行环境中进行训练来保护数据隐私。但是可信执行环境存在成本高昂、运行的程序存在诸多限制等问题,不能很好地支持多种算法。
还有其它一些现有技术,虽然在一定程度上解决了隐私保护机器学习的具体实现问题,但是依然存在适用范围小、运算和通讯开销大、模型收敛不稳定以及理论基础缺乏等问题。因此,在现有技术中,如何保护隐私地进行神经网络训练是一个亟待解决的问题。
发明内容
本发明要解决的技术问题是,克服现有技术中的不足,提供一种基于共享学习的神经网络模型的训练方法。
为解决上述技术问题,本发明采用的解决方案是:
提供一种基于共享学习的神经网络模型的训练方法,是由多个共享学习参与方通过秘密分享进行混合安全多方计算和中心节点本地计算,实现神经网络模型训练;所述共享学习参与方包括样本特征提供方、样本标签提供方、加密乘法三元组提供方和主计算方;
所述训练方法具体包括以下步骤:
(1)数据准备
样本特征提供方和样本标签提供方按照相同的样本集合准备好数据文件,各方样本集合中的数据具有规定的格式和排列顺序;
(2)数据加载和初始化
样本标签提供方和样本特征提供方同步执行载入数据文件的操作,各样本特征提供方初始化其神经网络第一层权重的分享值W,b,主计算方初始化其本地神经网络F;
(3)载入当前训练批次
各个样本特征提供方载入其样本特征数据X1,X2,...,并组成矩阵X;该矩阵的行数为该训练批次的样本数目,列数为样本特征的总数(即各个样本特征提供方的特征数目之和);样本标签提供方载入该批次的样本标签Y;
(4)计算第一层线性输出
通过使用加密乘法三元组提供方提供的辅助矩阵,各个样本特征提供方计算出第一层神经网络的线性输出值Wx+b的矩阵;该矩阵的行数为该训练批次的样本数目,列数为预设的神经网络第一层神经元数目;获得计算结果后,各个样本特征提供方以加法分享的形式进行存储;
(5)计算模型预测值
主计算方接收来自各个样本特征提供方向的计算结果,并将其输入本地神经网络模型,得到模型预测值yp=F(Wx+b);
(6)计算模型输出梯度
样本标签提供方接收主计算方发送的模型预测值yb,并根据损失函数L和该训练批次的样本标签Y,计算出模型输出梯度
Figure BDA0002724674980000031
后回传给主计算方;
(7)更新模型及计算
主计算方获得模型输出梯度
Figure BDA0002724674980000032
之后,根据链式法则计算出本地神经网络模型的参数梯度
Figure BDA0002724674980000033
在利用该值更新神经网络模型后,进一步根据链式法则计算出第一层线性输出的梯度
Figure BDA0002724674980000034
并将其发送给各样本特征提供方;
(8)更新本地共享权重:
各样本特征提供方在接收第一层线性输出的梯度
Figure BDA0002724674980000035
后,利用交互计算的方法在秘密分享的状态下更新其共享的神经网络第一层权重的分享值W,b;
(9)在测试集上评估
样本特征提供方和样本标签提供方载入测试集的样本特征和样本标签,利用神经网络模型进行在测试集上的评估;样本标签提供方根据预设的评估函数对神经网络模型输出结果进行评估,并且写入日志文件中。
本发明中,在步骤(9)的测试轮次中,样本标签提供方不提供梯度值,主计算方和样本特征提供方不进行参数的更新。
本发明中,共享学习各参与方相互之间通过基于远程过程调用的传输协议和RSA公钥加密算法,在普通的网络环境下实现安全地交换数据。
本发明中,共享学习各参与方相互之间传输的数据包含消息头和消息主体;其中,消息头用于标识消息的类别,消息主体包含了序列化的信息;任何一个参与方均能将共享学习过程中的信息序列化为消息主体用于对外传输,并能够解析收到的消息主体,获得发送方实际发送的信息。
与现有技术相比,本发明的技术效果是:
1、本发明提供了一种结合多方安全计算和本地计算的共享学习神经网络模型,提高了共享学习的效率。
2、本发明通过在线的加密乘法三元组提供方,提高了秘密共享的安全多方计算的效率,相比同态加密、混淆电路等方案极大地降低了开销。
3、本发明适用于纵向共享学习场景,能够使得各方在没有任何重合特征的情况下进行联邦建模。
4、本发明分离了通讯模块、数据载入和同步模块、日志记录模块、安全矩阵乘法模块,具备可拓展性。
5、本发明通过将主要的计算放置在主计算方上本地进行,能够使得神经网络的深度提高但基本不增加任何开销。
6、本发明不需要开销巨大的同态加密、混淆电路方案,极大地提高了实用性。
7、本发明的安全多方计算方案有严格的密码学理论作为支撑,在各个参与方半可信(半可信:Semi-honest,指的是参与方仅仅会利用从自身遵循协议的情况下接收到的信息,不会破坏协议的执行流程,比如与其他参与方合谋等)、不互相勾结的情况下,能够保证隐私数据没有任何泄露,保证模型效果和本地模型几乎没有任何损失。
8、本发明适用于多个数据提供方参与的纵向共享学习场景,并不只局限于两方。
附图说明
图1为本发明实现方式流程图。
图2为本发明中各参与方的交互示意图。
具体实施方式
首先需要说明的是,本发明涉及大数据技术,是计算机技术在一种信贷风险控制领域的一种应用。在本发明的实现过程中,会涉及到多个软件功能模块的应用。申请人认为,如在仔细阅读申请文件、准确理解本发明的实现原理和发明目的以后,在结合现有公知技术的情况下,本领域技术人员完全可以运用其掌握的软件编程技能实现本发明。前述软件功能模块包括但不限于:用于共享学习的神经网络模型、数据载入和同步模块、通讯模块、日志记录模块以及安全乘法模块等,凡本发明申请文件提及的均属此范畴,申请人不再一一列举。
下面结合附图,对本发明的具体实施方式进行详细描述。
共享学习,是共享学习的一种特殊场景,其方法主要是通过秘密分享来进行安全多方计算,以达到安全、高效的目的。
神经网络,是基础的深度学习模型,其基本构成包含多个线性变换+非线性激活函数的组合。一层的神经网络是线性模型,包括逻辑回归、线性回归。多层神经网络具有很强的表达能力,因此广泛应用于图像识别、序列预测、回归分析、多分类等领域。
本发明提出一种基于共享学习的神经网络模型,通过混合安全多方计算和中心节点本地计算,提高了共享学习的效率,保证了共享学习过程中各方隐私的安全性,并且支持任意深度的神经网络模型及神经网络模型的变体。本发明通过严格的安全多方计算方法在模型第一层进行秘密分享计算,来实现隐私保护,同时把较大开销的模型后续运算部分集中统一计算,从而实现共享学习下神经网络算法;能够有效降低计算开销,使得在共享学习场景下的计算资源消耗与本地直接计算相当。
一、共享学习各个参与方介绍
1、样本特征提供方:
样本特征提供方是拥有样本特征的一个共享学习参与方。比如一家银行拥有用户的交易数据,这些数据需要作为特征来预测用户的信用值,因此该银行属于样本特征提供方。
2、样本标签提供方:
样本标签提供方是拥有样本标签的一个共享学习参与方。比如一家银行拥有用户是否拖欠信用卡的数据,这个数据便可以作为用户信用值的标签,比如:拖欠=1,不拖欠=0,因此该银行属于样本标签提供方。
3、加密乘法三元组提供方:
假设两个共享学习参与方各自拥有一个矩阵,记作A,B,且A,B可以进行矩阵相乘。加密乘法三元组提供方通过提供给两个共享学习参与方一些辅助的矩阵,能够使得两个参与方之间交互计算出A,B的乘积,且该乘积一开始是加法分享的方式保存在两方中。比如一方拥有X,一方拥有Y,X+Y=AB。在整个交互计算的过程中,两方无法获得对方的矩阵的任何信息,加密乘法三元组提供方也无法获得两方的任何信息。
加密乘法三元组提供方可以是现实中的利益不相关的第三方公司,比如专门提供加密计算服务的第三方公司。该提供方只需要提供API接口根据输入(双方矩阵的形状)产生随机的输出,不会获取任何有意义的信息。
4、主计算方:
主计算方是拥有较强计算能力的一个共享学习参与方。在样本特征提供方在加密乘法三元组提供方的辅助下得到一个样本特征输入的线性变换之后,可以再将其输入一个较深的神经网络,前向传播得到模型预测值。然后根据样本标签提供方传回的梯度进行反向传播,再将对应的梯度值传输给样本特征提供方。
主计算方可以是可以是标签提供方,或是建模的需求方,或是提供加密计算的第三方公司,或是计算能力较强的某个私有云服务器。
二、本发明训练过程中所用软件模块
1、通讯模块:
共享学习各参与方相互之间通过基于远程过程调用(RPC)的传输协议、利用RSA公钥加密算法,在普通的网络环境下能够使得各个参与方安全地交换数据。任何一个参与方都可以安全地向另一参与方发送大小不超过某个限定值的数据,也可以安全地接收某一参与方发送的大小不超过某个限定值的数据。
各参与方传输的消息包含如下部分:消息头、消息主体。消息头用于标识消息的类别,消息主体包含了序列化的信息,任何一个参与方可以将共享学习过程中相关的信息序列化为消息主体用于对外传输。任何一个参与方能够解析收到的消息主体,获得发送方实际发送的信息。
2、数据载入和同步模块:
该模块用于将数据从本地文件中读入,并提供基于随机种子分享的数据加载,能够使得各方的数据加载同步。在每一轮加载训练数据时,每一方都加载同样的样本并且按照同样的顺序排列。
3、安全乘法模块:
基于消息模块,通过建立一个加密乘法三元组提供方,该模块能实现安全地矩阵乘法功能,能够使得任意两个参与方安全地计算他们的矩阵的乘积,同时不暴露任何信息。
4、日志记录模块:
各个参与方都具有一个日志记录模块。该模块时刻检查在共享学习计算过程中的程序运行状况,如果出现了任何错误,日志记录模块都会将其输出到指定输出流之中,包括但不限于:打印到某终端屏幕上;写入参与方的主机磁盘的日志文件中。日志记录模块可以使得在共享学习计算过程中出现问题时,各个参与方迅速找到问题根源,从而高效地排查问题,解决问题,提高该模型的整体运行效率,降低其调试成本。
三、基于共享学习的神经网络模型的训练方法
本发明所述训练方法,是由多个共享学习参与方通过秘密分享以及混合安全多方计算和中心节点本地计算,实现神经网络模型训练;所述共享学习参与方包括样本特征提供方、样本标签提供方、加密乘法三元组提供方和主计算方;
该训练方法具体包括以下步骤:
(1)数据准备:
样本特征提供方和样本标签提供方需要事先准备好数据文件,按照一定的格式存储,并且各方拥有同样的样本集合,以同样的顺序排列。如:样本特征提供方1的数据文件为[用户1特征1:,用户1特征2,用户1特征3;用户2特征1,用户2特征2,用户2特征3;...],则样本特征提供方2的数据文件为[用户1特征4,用户1特征5;用户2特征4,用户2特征5;...],样本标签提供方的数据文件为[用户1标签1,用户2标签1;...]。训练开始之前,样本特征提供方和样本标签提供方需要将数据文件载入其数据载入和同步程序内存中。
(2)数据加载和初始化
各个样本标签提供方和样本特征提供方的数据载入何同步程序执行同步;各个样本特征提供方初始化其第一层权重的分享值W,b;主计算方初始化其神经网络F。
(3)载入当前训练批次
各个样本特征提供方载入其样本特征数据X1,X2,...,并组成矩阵X。矩阵X的行数为该训练批次的样本数目,列数为样本特征的总数,即各个样本特征提供方的特征数目之和。样本标签提供方载入该批次的样本标签Y。
(4)计算第一层线性输出
各个样本特征提供方在加密乘法三元组提供方的辅助下,计算出第一层神经网络的线性输出值Wx+b。该结果以加法分享的形式存储于各个样本特征提供方中。该结果的行数为该训练批次的样本数目,列数为预设的神经网络第一层神经元数目。
(5)计算模型预测值
主计算方通过接收各个样本特征提供方发送的数据并且相加,将其输入其神经网络,得到模型预测值yp=F(Wx+b)。
(6)计算模型输出梯度
样本标签提供方得到了主计算方发送的yp之后,根据损失函数L和该训练批次的样本标签Y,计算出模型输出梯度
Figure BDA0002724674980000081
然后回传给主计算方;
(7)更新模型及计算
主计算方获得模型输出梯度
Figure BDA0002724674980000082
之后,根据链式法则计算出主计算方本地神经网络模型的参数梯度
Figure BDA0002724674980000083
然后根据该值更新其神经网络模型。再根据链式法则计算出第一层线性输出的梯度
Figure BDA0002724674980000084
并将其发送给各样本特征提供方;
(8)更新本地共享权重
样本特征提供方都得到第一层线性输出的梯度
Figure BDA0002724674980000085
后,采用交互计算的方法在秘密分享的状态下更新其共享的神经网络第一层权重的分享值W,b。
(9)在测试集上评估
通过预设测试轮次,该模型可以进行在测试集上的评估功能。在测试轮次中,样本特征提供方和样本标签提供方分别载入测试集的样本特征和样本标签。在测试轮次中,样本标签提供方不提供梯度值,主计算方和样本特征提供方也不进行参数的更新。而样本标签提供方会根据预设的几种评估函数对模型输出结果进行评估,并且写入日志文件中。
基于上述内容描述,图1对应展示了本发明实现方式流程图。
图2为本发明中各参与方的交互示意图。图中,黑实线表示模型第一层的输出值。黑虚线表示各个样本特征提供方向加密乘法三元组提供方发出三元组请求,然后获取计算好的三元组。点虚线表示样本特征提供方在多方安全计算的协议下交互计算矩阵乘法产生模型第一层输出。

Claims (4)

1.一种基于共享学习的神经网络模型的训练方法,其特征在于,是由多个共享学习参与方通过秘密分享进行混合安全多方计算和中心节点本地计算,实现神经网络模型训练;所述共享学习参与方包括样本特征提供方、样本标签提供方、加密乘法三元组提供方和主计算方;
所述训练方法具体包括以下步骤:
(1)数据准备
样本特征提供方和样本标签提供方按照相同的样本集合准备好数据文件,各方样本集合中的数据具有规定的格式和排列顺序;
(2)数据加载和初始化
样本标签提供方和样本特征提供方同步执行载入数据文件的操作,各样本特征提供方初始化其神经网络第一层权重的分享值W,b,主计算方初始化其本地神经网络F;
(3)载入当前训练批次
各个样本特征提供方载入其样本特征数据X1,X2,...,并组成矩阵X;该矩阵的行数为该训练批次的样本数目,列数为样本特征的总数(即各个样本特征提供方的特征数目之和);样本标签提供方载入该批次的样本标签Y;
(4)计算第一层线性输出
通过使用加密乘法三元组提供方提供的辅助矩阵,各个样本特征提供方计算出第一层神经网络的线性输出值Wx+b的矩阵;该矩阵的行数为该训练批次的样本数目,列数为预设的神经网络第一层神经元数目;获得计算结果后,各个样本特征提供方以加法分享的形式进行存储;
(5)计算模型预测值
主计算方接收来自各个样本特征提供方向的计算结果,并将其输入本地神经网络模型,得到模型预测值yp=F(Wx+b);
(6)计算模型输出梯度
样本标签提供方接收主计算方发送的模型预测值yp,并根据损失函数L和该训练批次的样本标签Y,计算出模型输出梯度
Figure FDA0002724674970000011
后回传给主计算方;
(7)更新模型及计算
主计算方获得模型输出梯度
Figure FDA0002724674970000021
之后,根据链式法则计算出本地神经网络模型的参数梯度
Figure FDA0002724674970000022
在利用该值更新神经网络模型后,进一步根据链式法则计算出第一层线性输出的梯度
Figure FDA0002724674970000023
并将其发送给各样本特征提供方;
(8)更新本地共享权重:
各样本特征提供方在接收第一层线性输出的梯度
Figure FDA0002724674970000024
后,利用交互计算的方法在秘密分享的状态下更新其共享的神经网络第一层权重的分享值W,b;
(9)在测试集上评估
样本特征提供方和样本标签提供方载入测试集的样本特征和样本标签,利用神经网络模型进行在测试集上的评估;样本标签提供方根据预设的评估函数对神经网络模型输出结果进行评估,并且写入日志文件中。
2.根据权利要求1所述的方法,其特征在于,在步骤(9)的测试轮次中,样本标签提供方不提供梯度值,主计算方和样本特征提供方不进行参数的更新。
3.根据权利要求1所述的方法,其特征在于,共享学习各参与方相互之间通过基于远程过程调用的传输协议和RSA公钥加密算法,在普通的网络环境下实现安全地交换数据。
4.根据权利要求1所述的方法,其特征在于,共享学习各参与方相互之间传输的数据包含消息头和消息主体;其中,消息头用于标识消息的类别,消息主体包含了序列化的信息;任何一个参与方均能将共享学习过程中的信息序列化为消息主体用于对外传输,并能够解析收到的消息主体,获得发送方实际发送的信息。
CN202011099902.7A 2020-10-14 2020-10-14 一种基于共享学习的神经网络模型的训练方法 Active CN112183730B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011099902.7A CN112183730B (zh) 2020-10-14 2020-10-14 一种基于共享学习的神经网络模型的训练方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011099902.7A CN112183730B (zh) 2020-10-14 2020-10-14 一种基于共享学习的神经网络模型的训练方法

Publications (2)

Publication Number Publication Date
CN112183730A true CN112183730A (zh) 2021-01-05
CN112183730B CN112183730B (zh) 2022-05-13

Family

ID=73950170

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011099902.7A Active CN112183730B (zh) 2020-10-14 2020-10-14 一种基于共享学习的神经网络模型的训练方法

Country Status (1)

Country Link
CN (1) CN112183730B (zh)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112818369A (zh) * 2021-02-10 2021-05-18 中国银联股份有限公司 一种联合建模方法及装置
CN112818406A (zh) * 2021-04-16 2021-05-18 北京瑞莱智慧科技有限公司 一种评分卡模型的预测方法及装置
CN112989399A (zh) * 2021-05-18 2021-06-18 杭州金智塔科技有限公司 数据处理系统及方法
CN113240184A (zh) * 2021-05-21 2021-08-10 浙江大学 一种基于联邦学习的楼宇空间单元冷负荷预测方法及系统
CN113254996A (zh) * 2021-05-31 2021-08-13 平安科技(深圳)有限公司 图神经网络训练方法、装置、计算设备及存储介质
CN113344120A (zh) * 2021-06-28 2021-09-03 陕西数盾慧安数据科技有限公司 一种基于联邦学习的分类方法
CN113542228A (zh) * 2021-06-18 2021-10-22 腾讯科技(深圳)有限公司 基于联邦学习的数据传输方法、装置以及可读存储介质
CN113792337A (zh) * 2021-09-09 2021-12-14 浙江数秦科技有限公司 一种基于隐私计算的资质审核系统
CN113792339A (zh) * 2021-09-09 2021-12-14 浙江数秦科技有限公司 一种双向隐私保密的神经网络模型共享方法
CN113987255A (zh) * 2021-12-30 2022-01-28 南湖实验室 基于联邦学习与秘密分享的多源密文图像检索方法
CN114003939A (zh) * 2021-11-16 2022-02-01 蓝象智联(杭州)科技有限公司 一种用于纵向联邦场景的多重共线性分析方法
CN114048804A (zh) * 2021-11-05 2022-02-15 光大科技有限公司 一种分类模型训练方法及装置
CN114282652A (zh) * 2021-12-22 2022-04-05 哈尔滨工业大学 一种隐私保护的纵向深度神经网络模型构建方法、计算机及存储介质
CN114418830A (zh) * 2022-01-19 2022-04-29 百度在线网络技术(北京)有限公司 安全计算方法、装置、设备以及存储介质
WO2023050778A1 (zh) * 2021-09-30 2023-04-06 中兴通讯股份有限公司 模型训练方法、系统、电子设备和计算机可读存储介质
CN116561787A (zh) * 2023-07-04 2023-08-08 北京数牍科技有限公司 视觉图像分类模型的训练方法、装置及电子设备
CN117171779A (zh) * 2023-11-02 2023-12-05 闪捷信息科技有限公司 基于交集保护的数据处理装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110537191A (zh) * 2017-03-22 2019-12-03 维萨国际服务协会 隐私保护机器学习
CN111143894A (zh) * 2019-12-24 2020-05-12 支付宝(杭州)信息技术有限公司 一种提升安全多方计算效率的方法及系统
CN111324870A (zh) * 2020-01-22 2020-06-23 武汉大学 一种基于安全双方计算的外包卷积神经网络隐私保护系统
US20200304293A1 (en) * 2017-08-30 2020-09-24 Inpher, Inc. High-Precision Privacy-Preserving Real-Valued Function Evaluation

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110537191A (zh) * 2017-03-22 2019-12-03 维萨国际服务协会 隐私保护机器学习
US20200304293A1 (en) * 2017-08-30 2020-09-24 Inpher, Inc. High-Precision Privacy-Preserving Real-Valued Function Evaluation
CN111143894A (zh) * 2019-12-24 2020-05-12 支付宝(杭州)信息技术有限公司 一种提升安全多方计算效率的方法及系统
CN111324870A (zh) * 2020-01-22 2020-06-23 武汉大学 一种基于安全双方计算的外包卷积神经网络隐私保护系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
PAYMAN MOHASSEL等: "《SecureML: A System for Scalable Privacy-Preserving Machine Learning》", 《 2017 IEEE SYMPOSIUM ON SECURITY AND PRIVACY》 *

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112818369B (zh) * 2021-02-10 2024-03-29 中国银联股份有限公司 一种联合建模方法及装置
CN112818369A (zh) * 2021-02-10 2021-05-18 中国银联股份有限公司 一种联合建模方法及装置
CN112818406A (zh) * 2021-04-16 2021-05-18 北京瑞莱智慧科技有限公司 一种评分卡模型的预测方法及装置
CN112989399A (zh) * 2021-05-18 2021-06-18 杭州金智塔科技有限公司 数据处理系统及方法
CN113240184A (zh) * 2021-05-21 2021-08-10 浙江大学 一种基于联邦学习的楼宇空间单元冷负荷预测方法及系统
CN113240184B (zh) * 2021-05-21 2022-06-24 浙江大学 一种基于联邦学习的楼宇空间单元冷负荷预测方法及系统
CN113254996A (zh) * 2021-05-31 2021-08-13 平安科技(深圳)有限公司 图神经网络训练方法、装置、计算设备及存储介质
CN113254996B (zh) * 2021-05-31 2022-12-27 平安科技(深圳)有限公司 图神经网络训练方法、装置、计算设备及存储介质
CN113542228A (zh) * 2021-06-18 2021-10-22 腾讯科技(深圳)有限公司 基于联邦学习的数据传输方法、装置以及可读存储介质
CN113542228B (zh) * 2021-06-18 2022-08-12 腾讯科技(深圳)有限公司 基于联邦学习的数据传输方法、装置以及可读存储介质
CN113344120A (zh) * 2021-06-28 2021-09-03 陕西数盾慧安数据科技有限公司 一种基于联邦学习的分类方法
CN113792337A (zh) * 2021-09-09 2021-12-14 浙江数秦科技有限公司 一种基于隐私计算的资质审核系统
CN113792339A (zh) * 2021-09-09 2021-12-14 浙江数秦科技有限公司 一种双向隐私保密的神经网络模型共享方法
CN113792337B (zh) * 2021-09-09 2023-08-11 浙江数秦科技有限公司 一种基于隐私计算的资质审核系统
WO2023050778A1 (zh) * 2021-09-30 2023-04-06 中兴通讯股份有限公司 模型训练方法、系统、电子设备和计算机可读存储介质
CN114048804A (zh) * 2021-11-05 2022-02-15 光大科技有限公司 一种分类模型训练方法及装置
CN114048804B (zh) * 2021-11-05 2024-04-16 光大科技有限公司 一种分类模型训练方法及装置
CN114003939A (zh) * 2021-11-16 2022-02-01 蓝象智联(杭州)科技有限公司 一种用于纵向联邦场景的多重共线性分析方法
CN114003939B (zh) * 2021-11-16 2024-03-15 蓝象智联(杭州)科技有限公司 一种用于纵向联邦场景的多重共线性分析方法
CN114282652A (zh) * 2021-12-22 2022-04-05 哈尔滨工业大学 一种隐私保护的纵向深度神经网络模型构建方法、计算机及存储介质
CN113987255B (zh) * 2021-12-30 2022-04-01 南湖实验室 基于联邦学习与秘密分享的多源密文图像检索方法
CN113987255A (zh) * 2021-12-30 2022-01-28 南湖实验室 基于联邦学习与秘密分享的多源密文图像检索方法
CN114418830A (zh) * 2022-01-19 2022-04-29 百度在线网络技术(北京)有限公司 安全计算方法、装置、设备以及存储介质
CN116561787A (zh) * 2023-07-04 2023-08-08 北京数牍科技有限公司 视觉图像分类模型的训练方法、装置及电子设备
CN117171779A (zh) * 2023-11-02 2023-12-05 闪捷信息科技有限公司 基于交集保护的数据处理装置
CN117171779B (zh) * 2023-11-02 2024-02-27 闪捷信息科技有限公司 基于交集保护的数据处理装置

Also Published As

Publication number Publication date
CN112183730B (zh) 2022-05-13

Similar Documents

Publication Publication Date Title
CN112183730B (zh) 一种基于共享学习的神经网络模型的训练方法
CN113159327B (zh) 基于联邦学习系统的模型训练方法、装置、电子设备
CN112085159B (zh) 一种用户标签数据预测系统、方法、装置及电子设备
CN112182649A (zh) 一种基于安全两方计算线性回归算法的数据隐私保护系统
CN114595835B (zh) 基于联邦学习的模型训练方法及装置、设备、存储介质
CN112347500B (zh) 分布式系统的机器学习方法、装置、系统、设备及存储介质
CN112989399B (zh) 数据处理系统及方法
CN112818369B (zh) 一种联合建模方法及装置
CN113065145A (zh) 一种基于秘密共享和随机扰动的隐私保护线性回归方法
CN113836556A (zh) 面向联邦学习的去中心化函数加密隐私保护方法及系统
CN114650134A (zh) 一种基于秘密共享的纵向隐私保护逻辑回归方法
CN113591097A (zh) 业务数据处理方法、装置、电子设备及存储介质
CN114742239A (zh) 基于联邦学习的金融保险理赔风险模型训练方法及装置
CN113051608A (zh) 一种联邦学习的虚拟化共享模型传输方法
CN115130568A (zh) 支持多参与方的纵向联邦Softmax回归方法及系统
CN115564447A (zh) 一种信用卡交易风险检测方法及装置
CN115361196A (zh) 一种基于区块链网络的业务交互方法
CN114844635A (zh) 一种对数据安全地进行Shuffle的方法
CN114723068A (zh) 联邦模型训练方法及装置
Zhou et al. VDFChain: Secure and verifiable decentralized federated learning via committee-based blockchain
CN113887740A (zh) 联合更新模型的方法、装置及系统
CN113657616A (zh) 联邦学习模型的更新方法和装置
CN113362168A (zh) 一种风险预测方法及装置、存储介质及电子设备
CN115580496B (zh) 无需第三方的隐私计算下逻辑回归训练方法、系统及装置
CN117675411B (zh) 一种基于纵向XGBoost算法的全局模型获取方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant