CN112395643B - 一种神经网络的数据隐私保护方法及系统 - Google Patents

一种神经网络的数据隐私保护方法及系统 Download PDF

Info

Publication number
CN112395643B
CN112395643B CN202011319485.2A CN202011319485A CN112395643B CN 112395643 B CN112395643 B CN 112395643B CN 202011319485 A CN202011319485 A CN 202011319485A CN 112395643 B CN112395643 B CN 112395643B
Authority
CN
China
Prior art keywords
data
encryption
training
module
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011319485.2A
Other languages
English (en)
Other versions
CN112395643A (zh
Inventor
秦波
张诗童
胡晟
唐文易
石文昌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renmin University of China
Original Assignee
Renmin University of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renmin University of China filed Critical Renmin University of China
Priority to CN202011319485.2A priority Critical patent/CN112395643B/zh
Publication of CN112395643A publication Critical patent/CN112395643A/zh
Application granted granted Critical
Publication of CN112395643B publication Critical patent/CN112395643B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/602Providing cryptographic facilities or services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioethics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Hardware Design (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明涉及一种神经网络的数据隐私保护方法及系统,其包括:对数据进行预处理,产生相应的加密数据,并在分离后发送给不合谋的机器学习服务提供商;构建神经网络模型,根据具体情况设置相关参数,并设计卷积网络神经模型;对预处理后的数据进行特征提取;构建加密预测模块和加密训练模块;将数据输入神经网络模型,利用加密预测模块和加密训练模块进行训练或预测。本发明采用了保序/保分布性质的加密算法以及分离策略来处理用户的原始数据,同时,利用秘密共享和隐私保护的策略处理模型训练和预测的流程,使得方案中训练与预测的效率较高,拥有极高的安全性保障和较好的可扩展性。

Description

一种神经网络的数据隐私保护方法及系统
技术领域
本发明涉及一种数据安全技术领域,特别是关于一种机器学习中神经网络的数据隐私保护方法及系统。
背景技术
随着算力的提升,神经网络在多个领域得到推广与应用。规模较大的公司依据其海量数据、成熟算法、强大算力训练出具有及时性效果的神经网络模型,并提出MLaaS(Machine Learning as a Service)框架,为其它公司和个人提供机器学习的云端服务。然而,因为模型托管在云端,用户需要上传个人数据,并调取预测接口得到预测结果,用户在数据上传后会失去对数据的控制,并担心自己的数据隐私在上传与预测时被窃取,或者服务端将会滥用数据甚至于买卖数据。同时,高精度的模型依赖大规模数据,但模型可能会暴露这些数据的隐私信息,存储在云端的模型时公司的重要资产,模型的隐私安全也需要得到保护。实际上,在神经网络模型预测过程中,训练数据于模型本身于预测数据的隐私保护问题是一个亟待解决的问题。
目前,已有国内外研究机构和企业对神经网络的隐私保护问题进行了深入的研究,所采取的隐私保护方法可以分为五类:差分隐私,同态加密,安全多方计算,基于可信硬件的隐私保护技术以及联邦学习技术。但它们都存在一定的问题:1、差分隐私技术使得模型的精度下降,预测结果的质量下降。2、同态加密技术运算开销过大,且能够实现的运算有限。而且同态加密生成的密文长度远远大于明文长度,导致训练效率严重下降,因此同态加密在实用性方面较差。3、基于可信硬件的隐私保护技术要求服务提供商,使用专门的设备,部署困难同时难以保障服务提供商按要求部署了设备。4、联邦学习方案采用参数交换的方式,难以抵御推理攻击,从而存在泄露模型使用的训练数据的可能。
发明内容
针对上述问题,本发明的目的是提供一种神经网络的数据隐私保护方法及系统,其具有极高的通用性,能有效保障数据的隐私性,
为实现上述目的,本发明采取以下技术方案:
一种神经网络的数据隐私保护方法,其包括以下步骤:1)对数据进行预处理,产生相应的加密数据,并在分离后发送给不合谋的机器学习服务提供商;2)根据具体情况设置相关参数,并设计卷积神经网络模型;3)对步骤1)中预处理后的数据进行特征提取;4)构建加密预测模块和加密训练模块;5)将数据输入神经网络模型,利用加密预测模块和加密训练模块进行训练或预测。
进一步,所述数据预处理包括以下步骤:
1.1)根据需要选择保序及保分布的加密算法,对用户上传的原始数据进行处理;
1.2)根据计算的需要,将加密后的数据做分离处理;
1.3)将分离好的加密数据传输给不合谋的机器学习服务提供商。
进一步,所述神经网络模型的构建方法包括以下步骤:
2.1)根据用户需求,设定超参数并构建结构层;
2.2)根据步骤2.1)中设定的参数及结构层构建模型;
2.3)将步骤1)中预处理后的数据输入模型,并对模型进行评估。
进一步,所述特征提取包括以下步骤:
3.1)利用get_layer函数获取层对象,并提取flatten层输出的特征,并标
注flatten_layer层;
3.2)构建抽取器,设置flatten_layer层的输出为抽取器输入;
3.3)准备预测数据,并对预测数据做与步骤3.1)相同的预处理;
3.4)运行模型,提供信息和非冗余的派生值,从而提取预测数据特征。
进一步,所述加密预测模块的构建方法包括以下步骤:
4.1.1)将预测问题转化为矩阵乘法和加法问题;
4.1.2)将矩阵加法过程和矩阵乘法过程通过秘密共享的方式实现;
4.1.3)将激活函数进行隐私保护的转换。
进一步,将乘法与加法通过秘密共享的方式实现,加法转化的方法为:首先需要对输出y的数据类型做判断,然后服务器S0与服务器S1分别计算各自拥有共享值与y的加和,最终share0与share1的和便是要的秘密x与秘密y的和;
乘法转化的方法为:首先判断y的数据类型,是PublicTensor还是PrivacyTensor;如果y是PublicTensor,则需要像加法一样,服务器S0与服务器S1分别乘上y的值,如果y是PrivacyTensor,则需要在线下生成乘法三元体,并利用乘法三元体快速构建点乘加密原语。
进一步,所述加密训练模块的构建方法包括以下步骤:
4.2.1)将所有运算通过秘密共享的方式进行加密转换;
4.2.2)将卷积网络神经模型中的所有层中的所有运算替换为步骤4.2.1)中加密转换后的运算,从而使得整个训练过程都能保障数据的安全。
一种神经网络的数据隐私保护系统,其包括用户端和机器学习服务端;所述用户端设置有数据处理系统,用于将用户上传的原始数据,根据计算的需要将数据加密和分离,从而保护数据中的个人信息,并将处理好的数据发送给不合谋的机器学习服务端;所述机器学习服务端设置有机器学习服务系统,用于对用户的数据进行训练与预测服务,并将训练和预测的结果返回给用户。
进一步,所述数据处理系统包括数据加密模块和数据分离模块;所述数据加密模块,用于对数据的加密,通过保序及保分布的加密算法实现;所述数据分离模块是将用户上传的数据根据计算的需要分为两个以上的部分,传给不共谋的机器学习服务系统。
进一步,所述机器学习服务系统包括加密预测模块和加密训练模块;所述加密预测模块将预测过程中所有的计算转化为矩阵加法与乘法,同时矩阵加法过程和乘法过程通过秘密共享的方式实现,同时,将激活函数用隐私保护的方法进行转化;所述加密训练模块用于对神经网络模型参数的训练:将模型中的所有运算通过秘密共享的方式进行加密转换,并将模型中的所有层中的所有运算替换加密转换后的运算。
本发明由于采取以上技术方案,其具有以下优点:1、本发明具有极高的通用性,可以对深度神经网络的卷积层、全连接层、激活函数层等提供隐私保护转化。2、本发明通过实现数据处理过程的隐私计算,保护数据公司的动态数据隐私,使得大数据计算公司能够在符合条例的标准下处理数据,提取数据特征。3、本发明使用秘密共享隐私保护协议,使得神经网络参数生成过程在两个服务器之间交互进行,训练数据与预测数据被两个服务器共享,任意一个服务器无法还原训练与预测数据。从而保障了数据的隐私性。
综上,本发明可以广泛在机器学习领域的数据隐私安全保护中应用。
附图说明
图1是本发明的系统用例图。
图2是本发明的系统架构实例图。
图3是本发明的数据处理流程示意图。
图4是本发明的加密训练模块的结构图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例的附图,对本发明实施例的技术方案进行清楚、完整地描述。显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。基于所描述的本发明的实施例,本领域普通技术人员所获得的所有其他实施例,都属于本发明保护的范围。
在本发明的第一实施方式中,如图1所示,提供一种神经网络的数据隐私保护系统,其包括用户端和机器学习服务端;用户端设置有数据处理系统,用于将用户上传的原始数据,根据计算的需要将数据加密和分离,从而保护数据中的个人信息,并将处理好的数据发送给不合谋的机器学习服务端;机器学习服务端设置有机器学习服务系统,用于对用户的数据进行训练与预测服务,并将训练和预测的结果返回给用户,整个训练与预测过程都是在加密的状况下进行的。
数据处理系统包括数据加密模块和数据分离模块。其中,数据加密模块,用于对数据的加密,主要通过保序及保分布的加密算法实现;数据分离模块是将用户上传的数据根据计算的需要分为两个以上的部分,传给不共谋的机器学习服务系统。
机器学习服务系统包括加密预测模块和加密训练模块。其中,加密预测模块将预测过程中所有的计算转化为矩阵加法与乘法,同时矩阵加法过程和乘法过程通过秘密共享的方式实现,同时,将激活函数用隐私保护的方法进行转化;加密训练模块用于对神经网络模型参数的训练:将模型中的所有运算通过秘密共享的方式进行加密转换,并将模型中的所有层中的所有运算替换加密转换后的运算。
在本发明的第二实施方式中,如图2所示,提供一种神经网络的数据隐私保护方法,其包括以下步骤:
1)对数据进行预处理,产生相应的加密数据,并在分离后发送给不合谋的机器学习服务提供商;
2)根据具体情况设置相关参数,并设计卷积神经网络模型;
3)对步骤1)中预处理后的数据进行特征提取;
4)构建加密预测模块和加密训练模块;
5)将数据输入神经网络模型,利用加密预测模块和加密训练模块进行训练或预测。
上述步骤1)中,如图3所示,数据预处理包括以下步骤:
1.1)根据需要选择保序及保分布的加密算法,对用户上传的原始数据进行处理;
具体为:根据需求,将各类数据转化为数字;将数据标准化,使数据都处于同一设定的范围内。
1.2)根据计算的需要,将加密后的数据做分离处理;
1.3)将分离好的加密数据传输给不合谋的机器学习服务提供商。
上述步骤2)中,卷积神经网络模型的构建方法包括以下步骤:
2.1)根据用户需求,设定超参数并构建结构层;
2.2)根据步骤2.1)中设定的参数及结构层构建模型;
2.3)将步骤1)中预处理后的数据输入模型,并对模型进行评估。
上述步骤3)中,特征提取包括以下步骤:
3.1)利用get_layer函数获取层对象,并提取flatten层输出的特征,并标
注flatten_layer层;
3.2)构建抽取器,设置flatten_layer层的输出为抽取器输入;
该抽取器可以从flatten层后面添加一层;
3.3)准备预测数据,并对预测数据做与步骤3.1)相同的预处理;
3.4)运行模型,提供信息和非冗余的派生值,从而提取预测数据特征。
如图4所示,上述步骤4)中,构建加密预测模块和加密训练模块的方法如下:
构建加密预测模块包括以下步骤:
4.1.1)将预测问题转化为矩阵乘法和加法问题;
4.1.2)将矩阵加法过程和矩阵乘法过程通过秘密共享的方式实现;
4.1.3)将激活函数进行隐私保护的转换。
构建加密训练模块包括以下步骤:
4.2.1)将所有运算通过秘密共享的方式进行加密转换;
4.2.2)将神经网络模型中的所有层中的所有运算替换为步骤4.2.1)中加密转换后的运算,从而使得整个训练过程都能保障数据的安全。
在一个优选的实例中,将乘法与加法通过秘密共享的方式实现,加法转化的具体流程为:首先需要对输出y的数据类型做判断,而后服务器S0与服务器S1只需要分别计算各自拥有共享值与y的加和,最终share0与share1的和便是要的秘密x与秘密y的和。乘法转化的具体流程为:首先判断y的数据类型,是PublicTensor还是PrivacyTensor;如果y是PublicTensor,只需要像加法一样,服务器S0与服务器S1分别乘上y的值,如果y是PrivacyTensor,就需要在线下生成乘法三元体(a,b,ab)。并利用乘法三元体快速构建点乘加密原语。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。

Claims (6)

1.一种神经网络的数据隐私保护方法,其特征在于,包括以下步骤:
1)对数据进行预处理,产生相应的加密数据,并在分离后发送给不合谋的机器学习服务提供商;
数据预处理包括以下步骤:
1.1)根据需要选择保序及保分布的加密算法,对用户上传的原始数据进行处理;
1.2)根据计算的需要,将加密后的数据做分离处理;
1.3)将分离好的加密数据传输给不合谋的机器学习服务提供商;
2)根据具体情况设置相关参数,并设计卷积神经网络模型;
3)对步骤1)中预处理后的数据进行特征提取;
4)构建加密预测模块和加密训练模块;
所述加密预测模块的构建方法包括以下步骤:
4.1.1)将预测问题转化为矩阵乘法和加法问题;
4.1.2)将矩阵加法过程和矩阵乘法过程通过秘密共享的方式实现;
4.1.3)将激活函数进行隐私保护的转换;
将乘法与加法通过秘密共享的方式实现,加法转化的方法为:首先需要对输出y的数据类型做判断,然后服务器S0与服务器S1分别计算各自拥有共享值与y的加和,最终share0与share1的和便是要的秘密x与秘密y的和;
乘法转化的方法为:首先判断y的数据类型,是PublicTensor还是PrivacyTensor;如果y是PublicTensor,则需要像加法一样,服务器S0与服务器S1分别乘上y的值,如果y是PrivacyTensor,则需要在线下生成乘法三元体,并利用乘法三元体快速构建点乘加密原语;
所述加密训练模块的构建方法包括以下步骤:
4.2.1)将所有运算通过秘密共享的方式进行加密转换;
4.2.2)将卷积网络神经模型中的所有层中的所有运算替换为步骤4.2.1)中加密转换后的运算,从而使得整个训练过程都能保障数据的安全;
5)将数据输入神经网络模型,利用加密预测模块和加密训练模块进行训练或预测。
2.如权利要求1所述数据隐私保护方法,其特征在于,所述神经网络模型的构建方法包括以下步骤:
2.1)根据用户需求,设定超参数并构建结构层;
2.2)根据步骤2.1)中设定的参数及结构层构建模型;
2.3)将步骤1)中预处理后的数据输入模型,并对模型进行评估。
3.如权利要求1所述数据隐私保护方法,其特征在于,所述特征提取包括以下步骤:
3.1)利用get_layer函数获取层对象,并提取flatten层输出的特征,并标注flatten_layer层;
3.2)构建抽取器,设置flatten_layer层的输出为抽取器输入;
3.3)准备预测数据,并对预测数据做与步骤3.1)相同的预处理;
3.4)运行模型,提供信息和非冗余的派生值,从而提取预测数据特征。
4.一种用于实现如权利要求1所述数据隐私保护方法的神经网络的数据隐私保护系统,其特征在于包括:用户端和机器学习服务端;所述用户端设置有数据处理系统,用于将用户上传的原始数据,根据计算的需要将数据加密和分离,从而保护数据中的个人信息,并将处理好的数据发送给不合谋的机器学习服务端;所述机器学习服务端设置有机器学习服务系统,用于对用户的数据进行训练与预测服务,并将训练和预测的结果返回给用户。
5.如权利要求4所述数据隐私保护系统,其特征在于,所述数据处理系统包括数据加密模块和数据分离模块;所述数据加密模块,用于对数据的加密,通过保序及保分布的加密算法实现;所述数据分离模块是将用户上传的数据根据计算的需要分为两个以上的部分,传给不共谋的机器学习服务系统。
6.如权利要求4所述数据隐私保护系统,其特征在于,所述机器学习服务系统包括加密预测模块和加密训练模块;所述加密预测模块将预测过程中所有的计算转化为矩阵加法与乘法,同时矩阵加法过程和乘法过程通过秘密共享的方式实现,同时,将激活函数用隐私保护的方法进行转化;所述加密训练模块用于对神经网络模型参数的训练:将模型中的所有运算通过秘密共享的方式进行加密转换,并将模型中的所有层中的所有运算替换加密转换后的运算。
CN202011319485.2A 2020-11-23 2020-11-23 一种神经网络的数据隐私保护方法及系统 Active CN112395643B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011319485.2A CN112395643B (zh) 2020-11-23 2020-11-23 一种神经网络的数据隐私保护方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011319485.2A CN112395643B (zh) 2020-11-23 2020-11-23 一种神经网络的数据隐私保护方法及系统

Publications (2)

Publication Number Publication Date
CN112395643A CN112395643A (zh) 2021-02-23
CN112395643B true CN112395643B (zh) 2023-06-20

Family

ID=74606941

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011319485.2A Active CN112395643B (zh) 2020-11-23 2020-11-23 一种神经网络的数据隐私保护方法及系统

Country Status (1)

Country Link
CN (1) CN112395643B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113051587B (zh) * 2021-03-10 2024-02-02 中国人民大学 一种隐私保护智能交易推荐方法、系统和可读介质
CN113190858B (zh) * 2021-04-20 2024-02-02 中国人民大学 一种基于隐私保护的图像处理方法、系统、介质和设备
CN113222707B (zh) * 2021-05-25 2024-02-27 中国人民大学 一种智能服务交易推荐方法和系统
CN113420232B (zh) * 2021-06-02 2022-05-10 杭州电子科技大学 一种面向隐私保护的图神经网络联邦推荐方法
CN113271319B (zh) * 2021-07-19 2021-09-14 广州市威士丹利智能科技有限公司 一种基于区块链的通讯数据加密方法及系统
CN114491629A (zh) * 2022-01-25 2022-05-13 哈尔滨工业大学(深圳) 一种隐私保护的图神经网络训练方法及系统
CN117202168A (zh) * 2022-06-01 2023-12-08 维沃移动通信有限公司 业务处理方法、装置、网络设备及存储介质
CN115065463B (zh) * 2022-06-10 2023-04-07 电子科技大学 一种隐私保护的神经网络预测系统
CN115186831B (zh) * 2022-09-09 2022-12-13 之江实验室 一种高效隐私保护的深度学习方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108717514A (zh) * 2018-05-21 2018-10-30 中国人民大学 一种机器学习中的数据隐私保护方法和系统
CN109194507A (zh) * 2018-08-24 2019-01-11 曲阜师范大学 非交互式的保护隐私神经网络预测方法
CN110825955A (zh) * 2019-06-27 2020-02-21 安徽师范大学 基于位置服务的分布式差分隐私推荐方法
CN111079939A (zh) * 2019-11-28 2020-04-28 支付宝(杭州)信息技术有限公司 基于数据隐私保护的机器学习模型特征筛选方法及装置
CN111324870A (zh) * 2020-01-22 2020-06-23 武汉大学 一种基于安全双方计算的外包卷积神经网络隐私保护系统
CN111857649A (zh) * 2020-06-22 2020-10-30 复旦大学 一种用于隐私保护机器学习的定点数编码及运算系统
CN111898145A (zh) * 2020-07-22 2020-11-06 苏州浪潮智能科技有限公司 一种神经网络模型训练方法、装置、设备及介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10721070B2 (en) * 2018-03-07 2020-07-21 Private Identity Llc Systems and methods for privacy-enabled biometric processing

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108717514A (zh) * 2018-05-21 2018-10-30 中国人民大学 一种机器学习中的数据隐私保护方法和系统
CN109194507A (zh) * 2018-08-24 2019-01-11 曲阜师范大学 非交互式的保护隐私神经网络预测方法
CN110825955A (zh) * 2019-06-27 2020-02-21 安徽师范大学 基于位置服务的分布式差分隐私推荐方法
CN111079939A (zh) * 2019-11-28 2020-04-28 支付宝(杭州)信息技术有限公司 基于数据隐私保护的机器学习模型特征筛选方法及装置
CN111324870A (zh) * 2020-01-22 2020-06-23 武汉大学 一种基于安全双方计算的外包卷积神经网络隐私保护系统
CN111857649A (zh) * 2020-06-22 2020-10-30 复旦大学 一种用于隐私保护机器学习的定点数编码及运算系统
CN111898145A (zh) * 2020-07-22 2020-11-06 苏州浪潮智能科技有限公司 一种神经网络模型训练方法、装置、设备及介质

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
基于哈希锁定的多方跨链协议研究;张诗童 等;《网络空间安全》;第9卷(第11期);57-62+67 *
神经网络中的隐私保护研究;程琼;《中国优秀硕士学位论文全文数据库 信息科技辑》(第01期);I138-216 *
隐私保护下的数据处理;王启正;《中国优秀硕士学位论文全文数据库 信息科技辑》(第09期);I138-75 *

Also Published As

Publication number Publication date
CN112395643A (zh) 2021-02-23

Similar Documents

Publication Publication Date Title
CN112395643B (zh) 一种神经网络的数据隐私保护方法及系统
CN110008717B (zh) 支持隐私保护的决策树分类服务系统及方法
CN111324870B (zh) 一种基于安全双方计算的外包卷积神经网络隐私保护系统
CN113553610B (zh) 基于同态加密和可信硬件的多方隐私保护机器学习方法
CN105608388B (zh) 一种基于相关性去除的差分隐私数据发布方法及系统
Qiu et al. Toward practical privacy-preserving frequent itemset mining on encrypted cloud data
CN109474594B (zh) 船端数据轻量化装置、岸端数据还原装置、船岸一体化数据轻量化传输系统及传输方法
CN113542228B (zh) 基于联邦学习的数据传输方法、装置以及可读存储介质
CN114218322B (zh) 基于密文传输的数据展示方法、装置、设备及介质
CN114696990A (zh) 基于全同态加密的多方计算方法、系统及相关设备
CN112766495A (zh) 一种基于混合环境的深度学习模型隐私保护方法及装置
CN114614983B (zh) 一种基于安全多方计算的特征融合隐私保护方法
CN116882524A (zh) 一种满足参与方的个性化隐私保护需求的联邦学习方法和系统
CN115102699A (zh) 数据安全去重及数据恢复方法、系统、介质、设备及终端
CN113792890B (zh) 一种基于联邦学习的模型训练方法及相关设备
CN113055153B (zh) 一种基于全同态加密算法的数据加密方法、系统和介质
CN115994559A (zh) 一种高效的不经意神经网络转化方法
CN112398861B (zh) web组态化系统中敏感数据的加密系统及方法
Duy et al. A secure and privacy preserving Federated Learning approach for IoT intrusion detection system
CN117034287A (zh) 基于隐私计算互联互通技术的多方联合建模安全增强方法
CN113537516B (zh) 分布式机器学习模型的训练方法、装置、设备和介质
Zhou et al. A survey of security aggregation
CN113051587B (zh) 一种隐私保护智能交易推荐方法、系统和可读介质
CN113472770A (zh) 一种适用于电网大数据的安全外包计算架构
CN116663064B (zh) 一种隐私保护神经网络预测方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant