CN108763954B - 线性回归模型多维高斯差分隐私保护方法、信息安全系统 - Google Patents

线性回归模型多维高斯差分隐私保护方法、信息安全系统 Download PDF

Info

Publication number
CN108763954B
CN108763954B CN201810475546.0A CN201810475546A CN108763954B CN 108763954 B CN108763954 B CN 108763954B CN 201810475546 A CN201810475546 A CN 201810475546A CN 108763954 B CN108763954 B CN 108763954B
Authority
CN
China
Prior art keywords
linear regression
noise
regression model
privacy protection
calculating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810475546.0A
Other languages
English (en)
Other versions
CN108763954A (zh
Inventor
李效光
李晖
李凤华
朱辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN201810475546.0A priority Critical patent/CN108763954B/zh
Publication of CN108763954A publication Critical patent/CN108763954A/zh
Application granted granted Critical
Publication of CN108763954B publication Critical patent/CN108763954B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • G06F21/6254Protecting personal data, e.g. for financial or medical purposes by anonymising data, e.g. decorrelating personal data from the owner's identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Bioethics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Computational Mathematics (AREA)
  • Medical Informatics (AREA)
  • Computer Security & Cryptography (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Operations Research (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Algebra (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明属于保密或匿名技术领域,公开了一种线性回归模型多维高斯差分隐私保护方法、信息安全系统,对训练数据的不同属性定义不同的安全级别,在不同维度生成合适的噪声;计算线性回归模型的全局敏感度;根据定义的安全级别和全局敏感度生成高维高斯噪声的协方差矩阵;生成高维高斯噪声,加到输入和输出实现隐私保护。本发明给出量化隐私泄露的方法,根据不同维度的隐私需求生成合适的噪声,比已知的线性回归隐私保护方法在同样的隐私预算的情况下精度提高30%以上。本发明的时间开销仅仅是生成噪声的时间,不会因为数据维度的增加而有显著的变化,对于数据维度有较好的鲁棒性。本发明的加噪方式可以更灵活的根据隐私需求调整噪声的大小。

Description

线性回归模型多维高斯差分隐私保护方法、信息安全系统
技术领域
本发明属于保密或匿名技术领域,尤其涉及一种线性回归模型多维高斯差分隐私保护方法、信息安全系统。
背景技术
目前,业内常用的现有技术是这样的:进入21世纪以来,互联网行业发展十分的迅速,随之而来的是人们通讯与数据共享的便利与快捷。然而,由此引发的隐私泄露风险也随之日益增长。近年来,隐私泄露事件时有发生;随着计算机技术的发展与网络攻击手段的不断丰富,保护隐私数据已远远不再是隐藏数据中敏感属性这么简单。随着近几年来数据挖掘等数据分析技术的快速发展,使得攻击者可以从海量数据中发掘出与用户隐私相关的信息,对隐私保护提出了新的挑战。而在数据挖掘中,线性回归是一个简单而又有效的技术,通过线性拟合训练数据集以得到一个机器学习模型。但是攻击者可以通过访问线性回归模型提供的接口来还原出来线性回归模型,获得训练数据集的数据分布。因此我们需要设计一种方案来抵御这种攻击。目前很多的隐私保护技术,但是并不能满足要求。目前已知的最好的保护线性回归的方案是在2011年被提出来的函数机制,该方案是通过在线性回归的代价函数中,给每个变量的系数加入拉普拉斯噪声,再通过优化方法求得最优的参数值来实现差分隐私保护,但是这样做的缺点在于,因为求解最优的参数值的过程是不可逆的,而且通常求解最优值的迭代算法都比较耗时,甚至有时加入噪声的代价函数不能收敛,这就导致了每次训练出来的模型都是一次性的,如果要更改噪声大小,就得重新训练模型,需要较大的时间开销。而且目前的方案里,没有定量的提出隐私预算参数如何选取。另外,在已有的一些方案中,没有考虑不同维度的隐私程度不同,因此加入了很多不必要的噪声。
综上所述,现有技术存在的问题是:目前的保护线性回归的方法把噪声加入线性回归的代价函数,导致每次训练出来的模型是一次性,重新训练模型耗时较长。
解决上述技术问题的难度和意义:导致了加入噪声后模型的不可逆,因此需要重新设计新的模型来实现可控的差分隐私保护,但是难点在于,不同的用户对数据的精度和隐私保护的程度不同,因此如何度量加入噪声的量与用户隐私的保护力度,以及用户能得到的数据精度的关系是一个难点。
解决上述问题的意义在于,通过给出度量加入噪声的量与用户隐私的保护力度,以及用户能得到的数据精度的关系的方法,能实现在线性回归模型中的隐私泄露的度量,根据度量结果就可以设计合适的参数,满足不同用户对于查询结果的不同需求。另外,有了隐私泄露的度量,就可以有效避免“过保护”情况,避免加入过多的噪声导致数据精度下降。
发明内容
针对现有技术存在的问题,本发明提供了一种线性回归模型多维高斯差分隐私保护方法、信息安全系统。
本发明是这样实现的,一种线性回归模型多维高斯差分隐私保护方法,所述线性回归模型多维高斯差分隐私保护方法对训练数据的不同属性定义不同的安全级别,在不同维度生成合适的噪声;计算线性回归模型的全局敏感度;根据定义的安全级别和全局敏感度生成高维高斯噪声的协方差矩阵;生成高维高斯噪声,加到输入和输出实现隐私保护。
进一步,所述对训练数据的不同属性定义不同的安全级别,在不同维度生成合适的噪声具体包括:
步骤一,对于训练数据集的每个维度,在每个输入维度i上设置一个合适的相似度si,用于限制攻击者能得到的模型和原始模型在这个维度上的最小相似度;
步骤二,将训练数据集中训练属性构成一个N维向量X,输出属性为N维向量Y;
步骤三,X与Y之间关系:
Y=aX+b;
其中a和b为N维的向量,利用上N维向量X和Y,利用梯度下降法估计出模型参数a和b的值。
进一步,所述计算线性回归模型的全局敏感度具体包括:
步骤一,在值域范围内遍历所有可能的相邻数据集,记录所有遍历结果;
步骤二,计算所有遍历结果中能使线性回归模型的1范数变化范围最大的一对相邻数据集,记为D和D';
步骤三,f为线性回归模型,D和D'为使得模型变化范围最大的相邻数据集,||f(D)-f(D')||1为全局敏感度。
进一步,所述根据定义的安全级别和全局敏感度生成高维高斯噪声的协方差矩阵具体包括:
步骤一,随机生成一个和线性回归模型维数相同的方阵;
步骤二,计算矩阵的行列式d,以及行列式中最接近的正项和负项之差记作M;
Figure GDA0003167172720000031
以及
Figure GDA0003167172720000032
其中n为训练数据集的维度,根据设置的每个维度的相似度si,计算参数
Figure GDA0003167172720000033
步骤三,计算
Figure GDA0003167172720000034
Figure GDA0003167172720000035
求解多项式Pn×a+b-∈×Pn-1=0,其中∈为系统的隐私预算总和;
步骤四,计算
Figure GDA0003167172720000036
输出属性上的隐私预算为
Figure GDA0003167172720000037
步骤五,计算每个维度的方差
Figure GDA0003167172720000038
生成协方差矩阵。
进一步,所述生成高维高斯噪声,加到输入和输出以实现隐私保护具体包括:
步骤一,根据协方差矩阵生成高维高斯噪声;
步骤二,在输入和输出上加上高维高斯噪声实现隐私保护,输入为一N维向量X,生成的加在输入上的噪声为Ninput,加在输出上的噪声为Noutput,机器学习模型为f,返回给用户的结果为f(X+Ninput)+Noutput
本发明的另一目的在于提供一种应用所述线性回归模型多维高斯差分隐私保护方法的信息安全系统。
本发明的另一目的在于提供一种应用所述线性回归模型多维高斯差分隐私保护方法的机器学习控制系统。
综上所述,本发明的优点及积极效果为:通过比较原始线性回归模型中各个属性的系数和隐私保护模型中各个属性的系数的变化,给出量化隐私泄露的方法和参数选取的指导。根据隐私度量的结果,可以根据不同维度的隐私需求生成合适的噪声,这就有效的避免了盲目加入过多噪声导致的“过保护”的情况,这不仅可以根据不同的用户需求来生成噪声,还可以有效避免加入不必要的噪声,提高数据精度。通过实验比较,我们发明的算法比已知一些其他的线性回归隐私保护方法在同样的隐私预算的情况下精度提高30%以上。另外,本发明的算法和不提供隐私保护的线性回归模型相比,多余的时间开销仅仅是生成噪声的时间开销,而一般情况下生成噪声仅仅花费毫秒级的时间开销,不会因为数据维度的增加而有显著的变化,所以我们的算法对于数据维度有较好的鲁棒性。综上,本发明设计的算法给出了线性回归模型中隐私泄露的度量,并且可以更灵活的根据隐私需求调整噪声的大小。
附图说明
图1是本发明实施例提供的线性回归模型多维高斯差分隐私保护方法流程图。
图2是本发明实施例提供的计算协方差矩阵的流程图。
图3是本发明实施例提供的在实验数据集上攻击者能求解的模型和真实模型的差距示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
如图1所示,本发明实施例提供的线性回归模型多维高斯差分隐私保护方法包括以下步骤:
S101:对训练数据的不同属性定义不同的安全级别,用以在不同维度生成合适的噪声;
S102:计算线性回归模型的全局敏感度;
S103:根据定义的安全级别和全局敏感度生成高维高斯噪声的协方差矩阵;
S104:生成高维高斯噪声,加到输入和输出以实现隐私保护。
下面结合附图对本发明的应用原理做进一步的描述。
本发明实施例提供的线性回归模型多维高斯差分隐私保护方法具体包括以下步骤:
步骤一:对训练数据的不同属性定义不同的相似度,用以在不同维度生成合适的噪声;
(1)对于训练数据集的每个维度,根据需要在每个输入维度i上设置一个合适的相似度si,用于限制攻击者能得到的模型和原始模型在这个维度上的最小相似度;
(2)将训练数据集中训练属性构成一个N维向量X,输出属性为N维向量Y;
(3)假设X与Y之间有如下关系:
Y=aX+b;
其中a和b均为N维的向量,利用上述N维向量X和Y,利用梯度下降法估计出模型参数a和b的值。
步骤二,根据所述模型计算线性回归模型的全局敏感度;
(1)在值域范围内遍历所有可能的相邻数据集,记录所有遍历结果。
(2)计算所有遍历结果中能使线性回归模型的1范数变化范围最大的一对相邻数据集,记为D和D',要求每对相邻数据集之间只能相差一个元素;
(3)设f为线性回归模型,D和D'为使得模型变化范围最大的相邻数据集,则||f(D)-f(D')||1即为全局敏感度。
步骤三,根据定义的相似度和全局敏感度生成高维高斯噪声的协方差矩阵;
(1)随机生成一个和线性回归模型维数相同的方阵,要求矩阵中每个元素的值远大于训练数据集中的元素;
(2)计算矩阵的行列式d,以及行列式中最接近的正项和负项之差记作M,记
Figure GDA0003167172720000061
以及
Figure GDA0003167172720000062
其中n为训练数据集的维度,根据之前设置好的每个维度的相似度si,计算参数
Figure GDA0003167172720000063
(3)计算
Figure GDA0003167172720000064
Figure GDA0003167172720000065
求解多项式Pn×a+b-∈×Pn-1=0,其中∈为系统的隐私预算总和;
(4)计算
Figure GDA0003167172720000066
输出属性上的隐私预算为
Figure GDA0003167172720000067
(5)计算每个维度的方差
Figure GDA0003167172720000068
生成协方差矩阵。因为各个维度是独立的,所以除了对角线上,其余数值为0。
步骤四,生成高维高斯噪声,加到输入和输出以实现隐私保护;
(1)根据协方差矩阵生成高维高斯噪声;
(2)在输入和输出上加上高维高斯噪声实现隐私保护。设输入为一N维向量X,生成的加在输入上的噪声为Ninput,加在输出上的噪声为Noutput,机器学习模型为f,那么返回给用户的结果即为f(X+Ninput)+Noutput
下面结合测试对本发明的应用效果做详细的描述。
以一个公开数据集为例,使用本发明对模型隐私的保护情况,该数据集中数据有11维,属性分别是:年龄,性别,婚姻状况,受教育程度,是否残疾,是否在本地出生,每周工作时间,在本地的居住时间,拥有住房情况,家庭成员人数,孩子个数,拥有汽车数量和收入情况。本发明选择输入情况为预测属性,随机选取了数据集中75%的样本用于训练,剩下25%用于测试。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (4)

1.一种线性回归模型多维高斯差分隐私保护方法,其特征在于,所述线性回归模型多维高斯差分隐私保护方法对训练数据的不同属性定义不同的安全级别,在不同维度生成合适的噪声;计算线性回归模型的全局敏感度;根据定义的安全级别和全局敏感度生成高维高斯噪声的协方差矩阵;生成高维高斯噪声,加到输入和输出实现隐私保护;
所述对训练数据的不同属性定义不同的安全级别,在不同维度生成合适的噪声具体包括:
步骤一,对于训练数据集的每个维度,在每个输入维度i上设置一个合适的相似度si,用于限制攻击者能得到的模型和原始模型在这个维度上的最小相似度;
步骤二,将训练数据集中训练属性构成一个N维向量X,输出属性为N维向量Y;
步骤三,X与Y之间关系:
Y=aX+b;
其中a和b为N维的向量,利用上N维向量X和Y,利用梯度下降法估计出模型参数a和b的值。
2.如权利要求1所述的线性回归模型多维高斯差分隐私保护方法,其特征在于,所述计算线性回归模型的全局敏感度具体包括:
步骤一,在值域范围内遍历所有可能的相邻数据集,记录所有遍历结果;
步骤二,计算所有遍历结果中能使线性回归模型的1范数变化范围最大的一对相邻数据集,记为D和D';
步骤三,f为线性回归模型,D和D'为使得模型变化范围最大的相邻数据集,||f(D)-f(D')||1为全局敏感度。
3.如权利要求1所述的线性回归模型多维高斯差分隐私保护方法,其特征在于,所述根据定义的安全级别和全局敏感度生成高维高斯噪声的协方差矩阵具体包括:
步骤一,随机生成一个和线性回归模型维数相同的方阵;
步骤二,计算矩阵的行列式d,以及行列式中最接近的正项和负项之差记作M;
Figure FDA0003167172710000021
以及
Figure FDA0003167172710000022
其中n为训练数据集的维度,根据设置的每个维度的相似度si,计算参数
Figure FDA0003167172710000023
步骤三,计算
Figure FDA0003167172710000024
求解多项式Pn×a+b-∈×Pn-1=0,其中∈为系统的隐私预算总和;
步骤四,计算
Figure FDA0003167172710000025
输出属性上的隐私预算为
Figure FDA0003167172710000026
步骤五,计算每个维度的方差
Figure FDA0003167172710000027
生成协方差矩阵。
4.如权利要求1所述的线性回归模型多维高斯差分隐私保护方法,其特征在于,所述生成高维高斯噪声,加到输入和输出以实现隐私保护具体包括:
步骤一,根据协方差矩阵生成高维高斯噪声;
步骤二,在输入和输出上加上高维高斯噪声实现隐私保护,输入为一N维向量X,生成的加在输入上的噪声为Ninput,加在输出上的噪声为Noutput,机器学习模型为f,返回给用户的结果为f(X+Ninput)+Noutput
CN201810475546.0A 2018-05-17 2018-05-17 线性回归模型多维高斯差分隐私保护方法、信息安全系统 Active CN108763954B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810475546.0A CN108763954B (zh) 2018-05-17 2018-05-17 线性回归模型多维高斯差分隐私保护方法、信息安全系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810475546.0A CN108763954B (zh) 2018-05-17 2018-05-17 线性回归模型多维高斯差分隐私保护方法、信息安全系统

Publications (2)

Publication Number Publication Date
CN108763954A CN108763954A (zh) 2018-11-06
CN108763954B true CN108763954B (zh) 2022-03-01

Family

ID=64007092

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810475546.0A Active CN108763954B (zh) 2018-05-17 2018-05-17 线性回归模型多维高斯差分隐私保护方法、信息安全系统

Country Status (1)

Country Link
CN (1) CN108763954B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111625572B (zh) * 2019-02-27 2023-01-06 第四范式(北京)技术有限公司 在数据隐私保护下执行机器学习的方法和系统
CN111091199B (zh) * 2019-12-20 2023-05-16 哈尔滨工业大学(深圳) 一种基于差分隐私的联邦学习方法、装置及存储介质
CN111475848B (zh) * 2020-04-30 2022-10-11 北京理工大学 保障边缘计算数据隐私的全局和局部低噪声训练方法
CN112182645B (zh) * 2020-09-15 2022-02-11 湖南大学 一种针对目的地预测的可量化隐私保护方法、设备及介质
CN112182649B (zh) * 2020-09-22 2024-02-02 上海海洋大学 一种基于安全两方计算线性回归算法的数据隐私保护系统
CN112269988B (zh) * 2020-09-27 2022-10-04 西安电子科技大学 模型提取攻击的动态防御方法、系统、介质、设备及应用
CN112269987B (zh) * 2020-09-27 2023-01-24 西安电子科技大学 一种智能模型信息泄漏程度评估方法、系统、介质、设备
CN112214733B (zh) * 2020-09-30 2022-06-21 中国科学院数学与系统科学研究院 面向隐私保护的分布式估计方法、系统与可读存储介质
CN112364380A (zh) * 2020-11-19 2021-02-12 陕西数盾慧安数据科技有限公司 一种基于差分隐私的网络结构学习方法
CN115659408B (zh) * 2022-12-05 2023-04-07 国网湖北省电力有限公司信息通信公司 一种电力系统敏感数据共享方法、系统及存储介质

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015026385A1 (en) * 2013-08-19 2015-02-26 Thomson Licensing Method and apparatus for utility-aware privacy preserving mapping in view of collusion and composition
CN105631360A (zh) * 2016-01-06 2016-06-01 西安交通大学 传感器网络中基于多维分解的隐私数据汇聚方法
CN106778314A (zh) * 2017-03-01 2017-05-31 全球能源互联网研究院 一种基于k‑means的分布式差分隐私保护方法
CN106991335A (zh) * 2017-02-20 2017-07-28 南京邮电大学 一种基于差分隐私保护的数据发布方法
CN107092837A (zh) * 2017-04-25 2017-08-25 华中科技大学 一种支持差分隐私的频繁项集挖掘方法和系统
KR101792520B1 (ko) * 2016-12-30 2017-11-03 한라대학교 산학협력단 비밀 분산 기법을 이용한 디퍼렌셜 프라이버시 방법
CN107368752A (zh) * 2017-07-25 2017-11-21 北京工商大学 一种基于生成式对抗网络的深度差分隐私保护方法
CN107609421A (zh) * 2017-09-25 2018-01-19 深圳大学 隐私保护协同Web服务质量预测的基于邻域的协同过滤方法
CN107862014A (zh) * 2017-10-31 2018-03-30 陕西师范大学 隐私保护加权网络发布数据集的构建方法
CN107871087A (zh) * 2017-11-08 2018-04-03 广西师范大学 分布式环境下高维数据发布的个性化差分隐私保护方法
CN107992769A (zh) * 2017-11-29 2018-05-04 广西师范大学 数据流关键模式挖掘的差分隐私保护方法
CN108280366A (zh) * 2018-01-17 2018-07-13 上海理工大学 一种基于差分隐私的批量线性查询方法
CN108595976A (zh) * 2018-03-27 2018-09-28 西安电子科技大学 基于差分隐私的安卓终端传感器信息保护方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8619984B2 (en) * 2009-09-11 2013-12-31 Microsoft Corporation Differential privacy preserving recommendation
US8145682B2 (en) * 2010-02-25 2012-03-27 Microsoft Corporation Differentially private data release
US9672364B2 (en) * 2013-03-15 2017-06-06 Microsoft Technology Licensing, Llc Differentially private linear queries on histograms
US9916472B2 (en) * 2015-07-22 2018-03-13 International Business Machines Corporation Obfuscation and protection of data rights
US10885467B2 (en) * 2016-04-28 2021-01-05 Qualcomm Incorporated Differentially private iteratively reweighted least squares

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015026385A1 (en) * 2013-08-19 2015-02-26 Thomson Licensing Method and apparatus for utility-aware privacy preserving mapping in view of collusion and composition
CN105631360A (zh) * 2016-01-06 2016-06-01 西安交通大学 传感器网络中基于多维分解的隐私数据汇聚方法
KR101792520B1 (ko) * 2016-12-30 2017-11-03 한라대학교 산학협력단 비밀 분산 기법을 이용한 디퍼렌셜 프라이버시 방법
CN106991335A (zh) * 2017-02-20 2017-07-28 南京邮电大学 一种基于差分隐私保护的数据发布方法
CN106778314A (zh) * 2017-03-01 2017-05-31 全球能源互联网研究院 一种基于k‑means的分布式差分隐私保护方法
CN107092837A (zh) * 2017-04-25 2017-08-25 华中科技大学 一种支持差分隐私的频繁项集挖掘方法和系统
CN107368752A (zh) * 2017-07-25 2017-11-21 北京工商大学 一种基于生成式对抗网络的深度差分隐私保护方法
CN107609421A (zh) * 2017-09-25 2018-01-19 深圳大学 隐私保护协同Web服务质量预测的基于邻域的协同过滤方法
CN107862014A (zh) * 2017-10-31 2018-03-30 陕西师范大学 隐私保护加权网络发布数据集的构建方法
CN107871087A (zh) * 2017-11-08 2018-04-03 广西师范大学 分布式环境下高维数据发布的个性化差分隐私保护方法
CN107992769A (zh) * 2017-11-29 2018-05-04 广西师范大学 数据流关键模式挖掘的差分隐私保护方法
CN108280366A (zh) * 2018-01-17 2018-07-13 上海理工大学 一种基于差分隐私的批量线性查询方法
CN108595976A (zh) * 2018-03-27 2018-09-28 西安电子科技大学 基于差分隐私的安卓终端传感器信息保护方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"Functional Mechanism: Regression Analysis under Differential Privacy";Jun Zhang et.al.;《Proceedings of VLDB Endowment》;20120831;第5卷(第11期);第1364-1375页 *
差分隐私综述;李效光等;《信息安全学报》;20180915;第92-104页 *

Also Published As

Publication number Publication date
CN108763954A (zh) 2018-11-06

Similar Documents

Publication Publication Date Title
CN108763954B (zh) 线性回归模型多维高斯差分隐私保护方法、信息安全系统
Vepakomma et al. NoPeek: Information leakage reduction to share activations in distributed deep learning
Zhang et al. The secret revealer: Generative model-inversion attacks against deep neural networks
El Ouadrhiri et al. Differential privacy for deep and federated learning: A survey
Li et al. Specae: Spectral autoencoder for anomaly detection in attributed networks
Wu Analysis of parameter selections for fuzzy c-means
Sanil et al. Privacy preserving regression modelling via distributed computation
Shi et al. Selective differential privacy for language modeling
Park et al. DP-EM: Differentially private expectation maximization
Zhang et al. Probabilistic matrix factorization with personalized differential privacy
CN111737743A (zh) 一种深度学习差分隐私保护方法
CN108470052B (zh) 一种基于矩阵补全的抗托攻击推荐算法
CN112885468A (zh) 一种基于随机响应差分隐私技术的教师共识聚集学习方法
CN107766742B (zh) 非独立同分布环境下的多相关性差分隐私矩阵分解方法
CN104484616A (zh) 一种MapReduce数据处理框架下的隐私保护方法
Chamikara et al. Local differential privacy for federated learning
Thakare et al. Classification of bioinformatics EEG data signals to identify depressed brain state using CNN Model
CN114662133A (zh) 一种基于差分隐私保护的积极防御方法及系统
Ni et al. Federated learning model with adaptive differential privacy protection in medical IoT
An et al. A new intrusion detection method based on SVM with minimum within‐class scatter
Zheng et al. A matrix factorization recommendation system-based local differential privacy for protecting users’ sensitive data
Xu et al. FLPM: A property modification scheme for data protection in federated learning
CN117521117A (zh) 一种医疗数据应用安全与隐私保护方法及系统
Zhou et al. A unified framework for testing high dimensional parameters: a data-adaptive approach
Cai et al. SVM learning for default prediction of credit card under differential privacy

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant