CN107862219A - 一种社交网络中需求隐私的保护方法 - Google Patents
一种社交网络中需求隐私的保护方法 Download PDFInfo
- Publication number
- CN107862219A CN107862219A CN201711122693.1A CN201711122693A CN107862219A CN 107862219 A CN107862219 A CN 107862219A CN 201711122693 A CN201711122693 A CN 201711122693A CN 107862219 A CN107862219 A CN 107862219A
- Authority
- CN
- China
- Prior art keywords
- mrow
- demand
- user
- privacy
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 16
- 230000007246 mechanism Effects 0.000 claims description 28
- 238000005516 engineering process Methods 0.000 claims description 15
- 238000005259 measurement Methods 0.000 claims description 5
- 238000002513 implantation Methods 0.000 claims 1
- 230000009286 beneficial effect Effects 0.000 abstract description 2
- 235000013405 beer Nutrition 0.000 description 6
- 238000011156 evaluation Methods 0.000 description 5
- 230000006872 improvement Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000004321 preservation Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000018199 S phase Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000003467 diminishing effect Effects 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 230000003862 health status Effects 0.000 description 1
- 238000013549 information retrieval technique Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 210000002700 urine Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6218—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
- G06F21/6245—Protecting personal data, e.g. for financial or medical purposes
- G06F21/6263—Protecting personal data, e.g. for financial or medical purposes during internet communication, e.g. revealing personal data from cookies
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/01—Social networking
Landscapes
- Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Bioethics (AREA)
- Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Strategic Management (AREA)
- Computing Systems (AREA)
- Tourism & Hospitality (AREA)
- Primary Health Care (AREA)
- General Business, Economics & Management (AREA)
- Marketing (AREA)
- Human Resources & Organizations (AREA)
- Economics (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Security & Cryptography (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提供了一种社交网络中需求隐私的保护方法,包括以下步骤:S1、用户查询需求服务;S2、结合关联规则和差分隐私技术保护用户查询的需求隐私;S3、发送给服务商,服务商把查询的结果返回给用户。本发明的有益效果是:可以保护需求隐私,避免需求隐私泄露。
Description
技术领域
本发明涉及隐私保护,尤其涉及一种社交网络中需求隐私的保护方法。
背景技术
社交网络中的隐私包括用户个人信息,用户分享信息,人际关系信息和数据挖掘信息等。在用户个人信息中位置隐私备受关注,位置隐私保护技术主要有空间模糊化、虚拟对象、隐私信息检索、差分隐私等。空间模糊化和虚拟对象技术相对成熟,能够较好的达到数据隐私性和实用性的平衡,实用性相对较好;隐私信息检索技术是基于密码学基础,能够提供高水平的隐私保护,但是计算代价很高,因此只适用于安全级别要求较高的场景;Andres等学者借鉴差分隐私思想,提出地理不可区分性来保护用户的位置隐私。尽管差分隐私技术能够提供可控和可以证明的隐私保护,但噪声过大也会对实用性产生不利影响。在2015年,Shokri等学者提出以用户为中心的最佳数据模糊机制,利用非零和博弈思想来使得攻击者和用户彼此都获得最好的结果,其应用场景仍然是用户的位置隐私。目前,在社交网络中,缺少保护用户的需求隐私的方案。
传统的隐私保护方案都是用来保护人们的位置隐私,位置隐私中包含用户的物理位置和用户的查询内容,传统方案都是来保护用户的当前位置,很少有技术来保护用户的查询内容,即人们的需求。当人们打开网页时,网页会自动向用户推荐一些信息,这些信息很多是基于人们上网记录产生的,究其原因是由于信息的泄露。因此,如何提供一种需求隐私的保护方案,是本领域技术人员所亟待解决的技术问题。
发明内容
为了解决现有技术中的问题,本发明提供了一种社交网络中需求隐私的保护方法。
本发明提供了一种社交网络中需求隐私的保护方法,包括以下步骤:
S1、用户查询需求服务;
S2、结合关联规则和差分隐私技术保护用户查询的需求隐私;
S3、发送给服务商,服务商把查询的结果返回给用户。
作为本发明的进一步改进,在步骤S2中,关联规则是指两种或者几种事物之间的关联度,即一种事物出现的同时另外一种事物出现的概率,关联规则的实现包括两个指标:支持度和置信度。通过在数据库中找到事物之间的关联程度,获得支持度和置信度,并对要查询的需求隐私进行替换,进而达到需求隐私保护的目的。
作为本发明的进一步改进,在步骤S2中,支持度是几个关联的数据在数据集中出现的次数在总数据集的占比,即几个数据关联出现的概率;例如分析数据X和数据Y关联度,则对应的支持度S为:
以此类推,分析数据X、数据Y和数据Z之间关联性,则对应的支持度S为:
置信度体现了一个数据出现后,另一个数据出现的概率,即数据的条件概率;例如分析数据X和数据Y之间的置信度,数据X对数据Y的置信度C为:
以此类推,数据X对于数据Y和数据Z的置信度C为:
作为本发明的进一步改进,通过差分隐私对信息的泄露设置一个边界约束信息的泄露程度。针对用户的多个需求,通过差分隐私使得多个需求隐私被替换后的概率相同,使得攻击者不能区分出用户的真实需求,差分隐私的度量为需求事物集合之间不同的数目,以上即为关联规则与差分隐私两种技术相结合来保护用户的需求隐私。
作为本发明的进一步改进,在步骤S2中,通过利用关联规则和差分隐私相结合共同建立需求隐私保护的模型,隐私保护的模型如下:
假设用户的隐私数据为s∈S,模糊后事物为o∈O(O=S),模糊机制的概率分布:
p(o|s)=Pr{O=o|S=s} (5)
需求替换机制可以看成在用户和观察者之间的信道,信道的噪声越大,用户的隐私越高;将先验知识ω定义为用户的需求的概率,即用户一段时间内对物品的需求的概率分布;由于将用户的真实需求替换成另一需求,将导致服务质量损失。定义c为置信度,c(o,s)为用户的需求s与o之间的置信度,服务质量损失函数为log2(1/c(o,s)),置信度越大,服务质量损失越小,反之亦然。定义期望的保护机制的服务质量损失为:
则保护机制的服务质量损失依赖于:(a)用户的先验知识ω;(b)提供给用户的服务p;(c)用户期望的损失函数log2(1/c(o,s))。
令dε(s,s')为需求之间不可区分的度量,定义为s与s'之间不同的需求数目,所以当满足不等式:
p(o|s)≤exp(ε·(dε(s,s')))·p(o|s') (7)
则认为一个机制满足差分隐私,即使得多个需求互相不可区分;
攻击者通过观察数据o并推断出估计值推断机制的概率分布为:
定义推断函数为置信度越大,对应的用户的隐私越小;用户的隐私是在给定的攻击模型(q)通过保护机制获得的,所以定义为:
对于所有的需求,计算期望的用户的隐私为:
本发明的有益效果是:通过上述方案,可以保护需求隐私,避免需求隐私泄露。
附图说明
图1是本发明一种社交网络中需求隐私的保护方法的保护体系框图。
图2是无差分隐私下需求隐私度与服务质量关系图。
图3是无差分隐私下保护机制概率分布图。
图4是有差分隐私下需求隐私度与服务质量关系图。
图5是有差分隐私下保护机制概率分布图。
图6是置信度较大情况下服务质量损失与隐私度关系图。
图7是置信度较小情况下服务质量损失与隐私度关系图。
具体实施方式
下面结合附图说明及具体实施方式对本发明作进一步说明。
一种社交网络中需求隐私的保护方法,包括以下步骤:
S1、用户查询需求服务;
S2、结合关联规则和差分隐私技术保护用户查询的需求隐私;
S3、发送给服务商,服务商把查询的结果返回给用户。
本发明的体系框架如图1所示,体系框架分为三大部分:实体层,策略层和评价层,具体如下:
(1)实体层,涉及参与系统服务的主要实体,包括用户、服务商和攻击者。用户请求需求服务,发送给服务商,服务商把查询的结果返回给用户。攻击者可以直接攻击服务商来获取用户的查询内容,或者认为服务商本身就是攻击者,攻击者还可以攻击用户和服务商之间的通信信道,截获用户的查询。
(2)策略层描述了主要使用的技术以及构建的数学模型,主要有差分隐私和关联规则两大技术。差分隐私技术主要的指标有噪声机制、隐私预算和欧式距离(这里不局限于标准的差分隐私);关联规则的量化主要有支持度和置信度这两个指标。
(3)评价层描述了采用具体方法来对整个系统性能进行评价,既要评价系统本身的隐私水平,又要评估系统的使用对用户的服务质量的影响。
关联规则是指两种或者几种事物之间的关联度,即一种事物出现的同时另外一种事物出现的概率。当人们的查询为敏感事物时(或者说不想被人知道事物),因此需要对其进行保护,同时还要得到一定的服务质量。例如在美国的沃尔玛超市,店家把啤酒与尿布放一起销售,既方便用户也增加彼此销量。像这种啤酒与尿布的关系就是商家通过大数据分析后发现一些年轻的父亲们经常在买尿布后又顺便为自己买啤酒这个事实。如果单身妈妈不想让别人知道自己有小孩的信息,当她想要知道哪些超市卖尿布时,就可以搜索哪些超市卖啤酒(因为大数据分析啤酒与尿布之间的关联度很高,即卖啤酒的超市几乎就会卖尿布),既保护了其隐私,也买到了需求的事物。关联规则的实现包括两个指标:支持度和置信度。通过在数据库中找到事物之间的关联程度,获得支持度和置信度,并对要查询的需求隐私进行替换,进而达到需求隐私保护的目的。例如分析数据X和数据Y关联度,则对应的支持度S为:
以此类推,例如分析数据X、数据Y和数据Z之间关联性,则对应的支持度S为:
置信度体现了一个数据出现后,另一个数据出现的概率,即数据的条件概率;例如分析数据X和数据Y之间的置信度,数据X对数据Y的置信度C为:
以此类推,数据X对于数据Y和数据Z的置信度C为:
一般来说,要选择一个数据集合中的频繁数据集,需要自定义评估标准。最常用的评估标准是用自定义的支持度大小,或者是自定义支持度和置信度的一个组合。当支持度达到一定值时,设置置信度才有意义。在本发明中,根据数据库中找到事物之间的关联度来预先设定支持度和置信度,然后对要查询“敏感”事物进行“替换”,达到需求隐私保护的目的。
差分隐私技术主要是想进一步保护用户的隐私信息,可以对信息的泄露设置一个边界约束信息的泄露程度,从而使得用户的隐私得到更好的保护。差分隐私的应用是针对用户的多个需求,使得多个需求被替换后的结果的概率(几乎)相同,攻击者不能区分出用户的真实需求值。在本发明中,差分隐私的度量用需求事物集合之间不同的数目表示,即关联规则与差分隐私两种技术相结合来保护用户的需求隐私。
具体方案如下:
假设用户的需求事物为s∈S,模糊后事物为o∈O(O=S),模糊机制概率分布:
p(o|s)=Pr{O=o|S=s} (5)
需求替换机制可以看成是在用户和观察者之间的一个信道,信道的噪声越大,用户的隐私越高。目前,简单的把先验知识ω定义为用户的需求的概率,即用户一段时间内对物品的需求的概率分布值(这里不要求概率和为1),先验知识是随着时间改变的,要以具体时间而定。因为把用户的真实需求替换成另外一种事物,这必然是有服务质量的损失的,这里定义一个服务质量损失函数(由于置信度越大,服务质量损失越小,反之亦然)为置信度倒数取对数,即log2(1/c(o,s))(c表示置信度,c(o,s)代表用户的需求s与o之间的置信度大小)表示用户期望的服务质量的损失(用户希望损失越小越好,对应的置信度越大),则保护机制的服务质量损失依赖于:(a)用户的先验知识ω;(b)提供给用户的服务p;(c)用户期望的损失函数log2(1/c(o,s)),则把期望的保护机制的服务质量损失定义为:
当s与o的置信度为1时,即自己代替自己,服务质量没有损失。
差分隐私可以被应用在测量信息泄露,已经证明差分隐私对信息的泄露有一定的限制,所以在本模型中想加入差分隐私的概念。其核心为对于多个需求,产生相同的结果的概率(几乎)相同,这样就不能区分需求。令dε(s,s')为需求之间不可区分的度量,定义为s与s'之间不同的需求数目,所以当满足不等式:
p(o|s)≤exp(ε·(dε(s,s')))·p(o|s') (7)
则认为一个机制满足差分隐私,即使得多个需求互相不可区分;
攻击者通过观察数据o并推断出估计值推断机制的概率分布为:
定义推断函数为置信度越大,对应的用户的隐私越小;用户的隐私是在给定的攻击模型(q)通过保护机制获得的,所以定义为:
对于所有的需求,计算期望的用户的隐私为:
以上是需求隐私保护的基本模型,通过利用关联规则技术和差分隐私相结合技术共同来实现。
实验(一):在不同的隐私约束下,最大化用户的服务质量:
实验(二):当攻击者进行攻击时,一方面攻击者最小化用户的隐私,另一方面用户要最大化自己隐私——零-和博弈思想:
这里需要对目标函数进行处理,因为q*是攻击者在最佳保护机制p*下的推断概率,但要进一步优化p,这就需要在一个目标函数中只出现一个变量,所以证明目标函数等价于(15)式。
实验场景:随机选择5个用户,每个用户有10种日常需求物品,假设攻击者知道用户在一段时间内对这10种需求物品的概率(先验知识)。用户的每一种需求都有对应的关联事物,设定它们之间的置信度,为了保证用户的服务质量,人为的约束替换的事物与原事物之间的置信度在一定范围内(可以动态的改变置信度和选取的代替事物,以及代替事物的个数),太小的置信度计算起来也没有了实际意义。采用差分隐私保护机制,设置差分隐私预算参数ε和dε(s,s')以及至少要达到的最小的隐私度,进行实验。
结果分析:
1、根据图2和图4显示,随着用户对隐私的要求越来越大,用户的服务质量损失也越来越大,这是符合实际的(横坐标表示用户要求的隐私级别,纵坐标表示用户的服务质量的损失,均无单位)。纵坐标的值依赖于用户对事物需求的概率(先验知识)、用户的服务以及损失函数。当隐私度为0时,即用户不关心隐私,则不对需求模糊(用需求本身来替代),在没有加入差分隐私的保护机制中不会产生服务质量的损失,因为用需求本身来替代置信度为1,损失函数为0,也可以从服务质量损失表达式可以看出,服务质量的损失为0;但在有差分隐私机制中,即使隐私度为0,仍然有服务质量的损失,这是因为在差分隐私的约束,当代替矩阵比较大时,不能使得所有的保护机制在用本身替代时概率为1,导致置信度就不全为1,所以损失的最小值不为0。
2、图2中没有加入差分隐私机制,对比图2和图4,同样的隐私级别,差分隐私机制下服务质量的损失要大些,这是因为差分隐私保护机制要求比较严格,使得一个观察值对应多需求的概率是几乎一样的,所以攻击者不知道用户的真实需求(差分隐私保护的更好,见图5);
3、图3和图5分别是没有差分隐私和有差分隐私情况下保护机制的概率分布图。从图3可知,同一个模糊需求对应的用户真实需求概率相差很大,导致攻击者从模糊需求的概率能以较大概率推断出用户的真实需求。图5显示,同一个模糊需求对应的用户的多个真实需求概率几乎相同(或者部分概率相同),所以攻击者从模糊需求很难推断出用户的真实需求,用户的需求隐私可以得到保护。
4、图6是利用零和博弈的方法实现用户的隐私度与服务质量之间的关系,开始阶段随着服务质量损失的增加,用户的隐私不断增加。当隐私达到一定的值时,再增加损失,隐私度并不会增加,这是因为达到了博弈的平衡点,即用户和攻击者双方的利益都最大化了。
5、图7是通过改变置信度,研究置信度对隐私的影响(实验的其他条件不变)。当替换事物与用户的需求事物之间的置信度变小,由图6和图7对比可以看出,当置信度变小,用户的隐私整体变大,因为置信度变小,从隐私的定义式(10)可以知道隐私变大。
攻击者根据人们的需求可能推断出用户的身份信息、个人爱好甚至健康状况等,这将严重泄露人们的隐私。本发明提供了一种社交网络中需求隐私的保护方法,可以保证人们在查询事物时,隐私得到较好的保护。通过使用关联规则和差分隐私结合的技术,既保护了用户的隐私又保证了用户的服务质量。本发明不仅保护了人们的需求内容,同时也避免了由于需求泄露而导致的其他隐私的泄露问题。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。
Claims (5)
1.一种社交网络中需求隐私的保护方法,其特征在于,包括以下步骤:
S1、用户查询需求服务;
S2、结合关联规则和差分隐私技术保护用户查询的需求隐私;
S3、发送给服务商,服务商把查询的结果返回给用户。
2.根据权利要求1所述的社交网络中需求隐私的保护方法,其特征在于:
在步骤S2中,关联规则是指两种或者几种事物之间的关联关系,即一种事物出现的同时另外一种事物出现的概率,关联规则的实现包括两个指标:支持度和置信度;通过设定支持度和置信度,在数据库中找到事物之间的关联关系,然后对要查询的需求隐私进行替换,达到需求隐私保护的目的。
3.根据权利要求2所述的社交网络中需求隐私的保护方法,其特征在于:
在步骤S2中,支持度是几个关联的数据在数据集中出现的次数占总数据集的比重,即几个数据关联出现的概率;例如分析数据X和数据Y关联度,则对应的支持度S为:
<mrow>
<mi>S</mi>
<mrow>
<mo>(</mo>
<mi>X</mi>
<mo>,</mo>
<mi>Y</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>P</mi>
<mrow>
<mo>(</mo>
<mi>X</mi>
<mi>Y</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mrow>
<mi>n</mi>
<mi>u</mi>
<mi>m</mi>
<mi>b</mi>
<mi>e</mi>
<mi>r</mi>
<mrow>
<mo>(</mo>
<mi>X</mi>
<mi>Y</mi>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mi>n</mi>
<mi>u</mi>
<mi>m</mi>
<mrow>
<mo>(</mo>
<mi>A</mi>
<mi>l</mi>
<mi>l</mi>
<mi>S</mi>
<mi>a</mi>
<mi>m</mi>
<mi>p</mi>
<mi>l</mi>
<mi>e</mi>
<mi>s</mi>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
以此类推,分析数据X、数据Y和数据Z之间关联性,则对应的支持度S为:
<mrow>
<mi>S</mi>
<mrow>
<mo>(</mo>
<mi>X</mi>
<mo>,</mo>
<mi>Y</mi>
<mo>,</mo>
<mi>Z</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>P</mi>
<mrow>
<mo>(</mo>
<mi>X</mi>
<mi>Y</mi>
<mi>Z</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mrow>
<mi>n</mi>
<mi>u</mi>
<mi>m</mi>
<mi>b</mi>
<mi>e</mi>
<mi>r</mi>
<mrow>
<mo>(</mo>
<mi>X</mi>
<mi>Y</mi>
<mi>Z</mi>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mi>n</mi>
<mi>u</mi>
<mi>m</mi>
<mrow>
<mo>(</mo>
<mi>A</mi>
<mi>l</mi>
<mi>l</mi>
<mi>S</mi>
<mi>a</mi>
<mi>m</mi>
<mi>p</mi>
<mi>l</mi>
<mi>e</mi>
<mi>s</mi>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>2</mn>
<mo>)</mo>
</mrow>
</mrow>
置信度体现了一个数据出现后,另一个数据出现的概率,即数据的条件概率;例如分析数据X和数据Y之间的置信度,数据X对数据Y的置信度C为:
<mrow>
<mi>C</mi>
<mrow>
<mo>(</mo>
<mi>X</mi>
<mo>&DoubleLeftArrow;</mo>
<mi>Y</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>P</mi>
<mrow>
<mo>(</mo>
<mi>X</mi>
<mo>|</mo>
<mi>Y</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>P</mi>
<mrow>
<mo>(</mo>
<mi>X</mi>
<mi>Y</mi>
<mo>)</mo>
</mrow>
<mo>/</mo>
<mi>P</mi>
<mrow>
<mo>(</mo>
<mi>Y</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>3</mn>
<mo>)</mo>
</mrow>
</mrow>
以此类推,数据X对于数据Y和数据Z的置信度C为:
<mrow>
<mi>C</mi>
<mrow>
<mo>(</mo>
<mi>X</mi>
<mo>&DoubleLeftArrow;</mo>
<mi>Y</mi>
<mi>Z</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>P</mi>
<mrow>
<mo>(</mo>
<mi>X</mi>
<mo>|</mo>
<mi>Y</mi>
<mi>Z</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>P</mi>
<mrow>
<mo>(</mo>
<mi>X</mi>
<mi>Y</mi>
<mi>Z</mi>
<mo>)</mo>
</mrow>
<mo>/</mo>
<mi>P</mi>
<mrow>
<mo>(</mo>
<mi>Y</mi>
<mi>Z</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>4</mn>
<mo>)</mo>
</mrow>
<mo>.</mo>
</mrow>
4.根据权利要求1所述的社交网络中需求隐私的保护方法,其特征在于:通过差分隐私对信息的泄露设置一个边界约束信息的泄露程度;针对用户的多个需求,通过差分隐私使得多个需求隐私被替换后的概率相同,使得攻击者不能区分出用户的真实需求,差分隐私的度量为需求事物集合之间不同的数目,以上即为关联规则与差分隐私两种技术相结合来保护用户的需求隐私。
5.根据权利要求1所述的社交网络中需求隐私的保护方法,其特征在于:在步骤S2中,通过利用关联规则和差分隐私相结合共同建立需求隐私保护的模型,隐私保护的模型如下:
假设用户的隐私数据为s∈S,模糊后事物为o∈O(O=S),模糊机制概率分布:
p(o|s)=Pr{O=o|S=s} (5)
需求替换机制可以看成是在用户和观察者之间的一个信道,信道的噪声越大,用户的隐私越高;定义先验知识ω为用户的需求概率,即用户一段时间内对物品的需求的概率分布值;由于将用户的真实需求替换为另一需求,因此导致服务质量的损失;定义c为置信度,c(o,s)为用户的需求s与o之间的置信度,服务质量损失函数为log2(1/c(o,s)),置信度越大,服务质量损失越小,反之亦然;定义期望的保护机制的服务质量损失为:
<mrow>
<munder>
<mo>&Sigma;</mo>
<mi>s</mi>
</munder>
<mi>&omega;</mi>
<mrow>
<mo>(</mo>
<mi>s</mi>
<mo>)</mo>
</mrow>
<munder>
<mo>&Sigma;</mo>
<mi>o</mi>
</munder>
<mi>p</mi>
<mrow>
<mo>(</mo>
<mi>o</mi>
<mo>|</mo>
<mi>s</mi>
<mo>)</mo>
</mrow>
<mo>&CenterDot;</mo>
<msub>
<mi>log</mi>
<mn>2</mn>
</msub>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>/</mo>
<mi>c</mi>
<mo>(</mo>
<mrow>
<mi>o</mi>
<mo>,</mo>
<mi>s</mi>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>6</mn>
<mo>)</mo>
</mrow>
</mrow>
则保护机制的服务质量损失依赖于:(a)用户的先验知识ω;(b)提供给用户的服务p;(c)用户的期望的损失函数log2(1/c(o,s));
令dε(s,s')为需求之间不可区分的度量,定义为s与s'之间不同的需求数目,所以当满足不等式:
p(o|s)≤exp(ε·(dε(s,s')))·p(o|s') (7)
则认为一个机制满足差分隐私,即使得多个需求互相不可区分;
攻击者通过观察数据o并推断出估计值推断机制的概率分布为:
<mrow>
<mi>q</mi>
<mrow>
<mo>(</mo>
<mover>
<mi>s</mi>
<mo>^</mo>
</mover>
<mo>|</mo>
<mi>o</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>Pr</mi>
<mo>{</mo>
<mi>S</mi>
<mo>=</mo>
<mover>
<mi>s</mi>
<mo>^</mo>
</mover>
<mo>|</mo>
<mi>O</mi>
<mo>=</mo>
<mi>o</mi>
<mo>}</mo>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>8</mn>
<mo>)</mo>
</mrow>
</mrow>
定义推断函数为置信度越大,对应的用户的隐私越小;用户的隐私是在给定的攻击模型(q)通过保护机制获得的,所以定义为:
<mrow>
<munder>
<mo>&Sigma;</mo>
<mi>o</mi>
</munder>
<mi>p</mi>
<mrow>
<mo>(</mo>
<mi>o</mi>
<mo>|</mo>
<mi>s</mi>
<mo>)</mo>
</mrow>
<munder>
<mi>&Sigma;</mi>
<mover>
<mi>s</mi>
<mo>^</mo>
</mover>
</munder>
<mi>q</mi>
<mrow>
<mo>(</mo>
<mover>
<mi>s</mi>
<mo>^</mo>
</mover>
<mo>|</mo>
<mi>o</mi>
<mo>)</mo>
</mrow>
<mo>&CenterDot;</mo>
<msub>
<mi>log</mi>
<mn>2</mn>
</msub>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>/</mo>
<mi>c</mi>
<mo>(</mo>
<mrow>
<mover>
<mi>s</mi>
<mo>^</mo>
</mover>
<mo>,</mo>
<mi>s</mi>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>9</mn>
<mo>)</mo>
</mrow>
</mrow>
对于所有的需求,计算期望的用户的隐私为:
<mrow>
<munder>
<mo>&Sigma;</mo>
<mi>s</mi>
</munder>
<mi>&omega;</mi>
<mrow>
<mo>(</mo>
<mi>s</mi>
<mo>)</mo>
</mrow>
<munder>
<mo>&Sigma;</mo>
<mi>o</mi>
</munder>
<mi>p</mi>
<mrow>
<mo>(</mo>
<mi>o</mi>
<mo>|</mo>
<mi>s</mi>
<mo>)</mo>
</mrow>
<munder>
<mi>&Sigma;</mi>
<mover>
<mi>s</mi>
<mo>^</mo>
</mover>
</munder>
<mi>q</mi>
<mrow>
<mo>(</mo>
<mover>
<mi>s</mi>
<mo>^</mo>
</mover>
<mo>|</mo>
<mi>o</mi>
<mo>)</mo>
</mrow>
<mo>&CenterDot;</mo>
<msub>
<mi>log</mi>
<mn>2</mn>
</msub>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>/</mo>
<mi>c</mi>
<mo>(</mo>
<mrow>
<mover>
<mi>s</mi>
<mo>^</mo>
</mover>
<mo>,</mo>
<mi>s</mi>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>10</mn>
<mo>)</mo>
</mrow>
<mo>.</mo>
</mrow>
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711122693.1A CN107862219B (zh) | 2017-11-14 | 2017-11-14 | 一种社交网络中需求隐私的保护方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711122693.1A CN107862219B (zh) | 2017-11-14 | 2017-11-14 | 一种社交网络中需求隐私的保护方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107862219A true CN107862219A (zh) | 2018-03-30 |
CN107862219B CN107862219B (zh) | 2020-05-08 |
Family
ID=61701644
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711122693.1A Active CN107862219B (zh) | 2017-11-14 | 2017-11-14 | 一种社交网络中需求隐私的保护方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107862219B (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108520182A (zh) * | 2018-04-09 | 2018-09-11 | 哈尔滨工业大学深圳研究生院 | 一种基于差分隐私和关联规则的需求隐私保护方法 |
CN109194664A (zh) * | 2018-09-14 | 2019-01-11 | 石家庄铁道大学 | 一种基于博弈论的移动位置隐私保护访问控制方法 |
CN109241764A (zh) * | 2018-07-10 | 2019-01-18 | 哈尔滨工业大学(深圳) | 一种用户需求轨迹隐私保护方法 |
CN109299436A (zh) * | 2018-09-17 | 2019-02-01 | 北京邮电大学 | 一种满足本地差分隐私的偏好排序数据收集方法 |
CN109362032A (zh) * | 2018-12-11 | 2019-02-19 | 安徽大学 | 一种基于位置服务的用户位置个性化差分隐私保护方法 |
CN109815741A (zh) * | 2019-02-25 | 2019-05-28 | 孙明 | 一种半隔离式互联网隐私保护系统及方法 |
CN109858282A (zh) * | 2019-02-12 | 2019-06-07 | 北京信息科技大学 | 一种社交网络关系数据隐私保护方法及系统 |
CN109918939A (zh) * | 2019-01-25 | 2019-06-21 | 东华大学 | 基于hmm的用户查询风险评估和隐私保护方法 |
CN110825888A (zh) * | 2019-11-15 | 2020-02-21 | 海南大学 | 可定义隐私模糊度的多维度体系化交互机制 |
CN111768203A (zh) * | 2018-11-07 | 2020-10-13 | 阿里巴巴集团控股有限公司 | 一种构建梅克尔树、简单支付验证方法及装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104918214A (zh) * | 2015-04-16 | 2015-09-16 | 南京工业大学 | 一种位置服务中隐私保护量化分析方法 |
CN105303123A (zh) * | 2015-11-02 | 2016-02-03 | 山东大学 | 一种基于分块混淆的动态数据隐私保护系统及方法 |
CN106209813A (zh) * | 2016-07-05 | 2016-12-07 | 中国科学院计算技术研究所 | 一种基于位置匿名的隐私保护方法和装置 |
-
2017
- 2017-11-14 CN CN201711122693.1A patent/CN107862219B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104918214A (zh) * | 2015-04-16 | 2015-09-16 | 南京工业大学 | 一种位置服务中隐私保护量化分析方法 |
CN105303123A (zh) * | 2015-11-02 | 2016-02-03 | 山东大学 | 一种基于分块混淆的动态数据隐私保护系统及方法 |
CN106209813A (zh) * | 2016-07-05 | 2016-12-07 | 中国科学院计算技术研究所 | 一种基于位置匿名的隐私保护方法和装置 |
Non-Patent Citations (5)
Title |
---|
崔炜荣: "移动社交网络中可保护隐私的可信社交关系相似度检测协议", 《西北工业大学学报》 * |
廖勇: "满足差分隐私的关联规则挖掘算法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
张啸剑等: "面向数据发布和分析的差分隐私保护", 《计算机学报》 * |
林玉香: "社交网络中用户隐私信息优化保护仿真研究", 《计算机仿真》 * |
郭祥: "基于移动社交网络的隐私保护关键技术研究与应用", 《中国优秀硕士论文全文数据库 信息科技辑》 * |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108520182A (zh) * | 2018-04-09 | 2018-09-11 | 哈尔滨工业大学深圳研究生院 | 一种基于差分隐私和关联规则的需求隐私保护方法 |
CN109241764A (zh) * | 2018-07-10 | 2019-01-18 | 哈尔滨工业大学(深圳) | 一种用户需求轨迹隐私保护方法 |
CN109241764B (zh) * | 2018-07-10 | 2021-08-17 | 哈尔滨工业大学(深圳) | 一种用户需求轨迹隐私保护方法 |
CN109194664A (zh) * | 2018-09-14 | 2019-01-11 | 石家庄铁道大学 | 一种基于博弈论的移动位置隐私保护访问控制方法 |
CN109299436A (zh) * | 2018-09-17 | 2019-02-01 | 北京邮电大学 | 一种满足本地差分隐私的偏好排序数据收集方法 |
CN109299436B (zh) * | 2018-09-17 | 2021-10-15 | 北京邮电大学 | 一种满足本地差分隐私的偏好排序数据收集方法 |
CN111768203A (zh) * | 2018-11-07 | 2020-10-13 | 阿里巴巴集团控股有限公司 | 一种构建梅克尔树、简单支付验证方法及装置 |
CN109362032B (zh) * | 2018-12-11 | 2020-06-30 | 安徽大学 | 一种基于位置服务的用户位置个性化差分隐私保护方法 |
CN109362032A (zh) * | 2018-12-11 | 2019-02-19 | 安徽大学 | 一种基于位置服务的用户位置个性化差分隐私保护方法 |
CN109918939A (zh) * | 2019-01-25 | 2019-06-21 | 东华大学 | 基于hmm的用户查询风险评估和隐私保护方法 |
CN109918939B (zh) * | 2019-01-25 | 2023-08-11 | 东华大学 | 基于hmm的用户查询风险评估和隐私保护方法 |
CN109858282A (zh) * | 2019-02-12 | 2019-06-07 | 北京信息科技大学 | 一种社交网络关系数据隐私保护方法及系统 |
CN109815741A (zh) * | 2019-02-25 | 2019-05-28 | 孙明 | 一种半隔离式互联网隐私保护系统及方法 |
CN110825888A (zh) * | 2019-11-15 | 2020-02-21 | 海南大学 | 可定义隐私模糊度的多维度体系化交互机制 |
Also Published As
Publication number | Publication date |
---|---|
CN107862219B (zh) | 2020-05-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107862219A (zh) | 一种社交网络中需求隐私的保护方法 | |
Aghasian et al. | Scoring users’ privacy disclosure across multiple online social networks | |
Alaggan et al. | Heterogeneous differential privacy | |
Al-Oufi et al. | A group trust metric for identifying people of trust in online social networks | |
Joshi et al. | Security and privacy in online social networks: A survey | |
Ruan et al. | Measurement theory-based trust management framework for online social communities | |
CN108427891A (zh) | 基于差分隐私保护的邻域推荐方法 | |
Habegger et al. | Personalization vs. privacy in big data analysis | |
CN107895038A (zh) | 一种链路预测关系推荐方法及装置 | |
Li et al. | Itrust: interpersonal trust measurements from social interactions | |
Riboni et al. | Differentially-private release of check-in data for venue recommendation | |
Gundecha et al. | User vulnerability and its reduction on a social networking site | |
Wang et al. | Diffusion-based recommendation with trust relations on tripartite graphs | |
Mohsenzadeh et al. | Retracted article: A new trust evaluation algorithm between cloud entities based on fuzzy mathematics | |
Sui et al. | A privacy-preserving approach for multimodal transaction data integrated analysis | |
Aghasian et al. | User's Privacy in Recommendation Systems Applying Online Social Network Data, A Survey and Taxonomy | |
Lecuyer et al. | Enhancing selectivity in big data | |
De et al. | Differentially private link prediction with protected connections | |
Riboni et al. | Incremental release of differentially-private check-in data | |
Yan et al. | Towards privacy-preserving data mining in online social networks: distance-grained and item-grained differential privacy | |
Ali-Eldin | A cloud-based trust computing model for the social Internet of Things | |
Cui et al. | A trust-grained personalized privacy-preserving scheme for big social data | |
Yan et al. | DynaEgo: privacy-preserving collaborative filtering recommender system based on social-aware differential privacy | |
Gambhir et al. | Piecewise maximal similarity for ad-hoc social networks | |
Reza et al. | 3lp: Three layers of protection for individual privacy in facebook |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |