CN110097079B - 一种基于分类边界的用户隐私保护方法 - Google Patents
一种基于分类边界的用户隐私保护方法 Download PDFInfo
- Publication number
- CN110097079B CN110097079B CN201910247890.9A CN201910247890A CN110097079B CN 110097079 B CN110097079 B CN 110097079B CN 201910247890 A CN201910247890 A CN 201910247890A CN 110097079 B CN110097079 B CN 110097079B
- Authority
- CN
- China
- Prior art keywords
- node
- edge
- gradient information
- new
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种基于分类边界的用户隐私保护方法,包括:(1)将原始网络输入至GCN分类模型中,计算关键节点在真实类标下的损失函数,连边梯度信息;(2)更改关键节点的类标,计算新损失函数,新连边梯度信息;(3)根据关键节点的损失函数,连边梯度信息以及新损失函数,新连边梯度信息确定最容易被修改成的新类标;(4)根据关键节点在真实类标下的连边梯度信息,以及在容易被修改成的新类标下的新连边梯度信息,在原始网络中添加扰动,形成对抗网络;(5)利用对抗网络和原始网络训练GCN分类模型;(6)将添加有扰动的待测网络输入至训练好的GCN模型中,经计算输出正确的分类结果,实现对待测网络中用户隐私的保护。
Description
技术领域
本发明属于网络安全技术领域,具体涉及基于分类边界的用户隐私保护方法。
背景技术
在日常生活中,网络无处不在,如社交网络、交通网络、通信网络等。它们涉及人们生活的方方面面,但这也带来了一些安全隐患,比如在通信网络中,一些关键的路由器或服务器的损坏可能导致通信系统的瘫痪;社交网络中,处于社交中心的用户受到了恶意攻击,则有可能造成大范围的谣言传播;关键路口的红绿灯失灵则会导致交通拥塞的现象。因此,研究如何隐藏网络中的关键节点,保护关键节点原有的重要信息或隐私信息,对整体网络的安全性有着极为重要的作用。
深度学习的方法具有强大的特征学习和表达能力,它可以通过对大量数据的学习,从而取得比一般的机器学习更为准确的分类效果。但是深度模型也极易受到细微扰动的影响,这些扰动相对于整体网络而言太过微小,不足以被人识别,但是却可以使深度模型产生错误分类,导致了深度模型的整体性能下降并引发一系列的不利影响。
对于一些实现节点分类的检测模型来说,它的内部结构是已知的,因此,可以从中获得一些关键的信息,针对这些信息精心选择代价小、隐蔽性高的扰动,从而生成对抗网络,并将此类对抗网络用于训练,最终实现对该类对抗网络的一定程度上的防御,即是对网络中的关键节点隐私信息进行有效隐藏而不易受到灾难性攻击。
综上所述,如何选择代价最小的扰动,得到效果更好的对抗网络,并训练得到更好的分类器,在提升节点分类模型对对抗性攻击的防御效果方面上有着极其重要的理论与实践意义。
发明内容
本发明的目的是提供了一种基于分类边界的用户隐私保护方法,通过分类模型的边界信息添加代价最小且效果最好的扰动,以生成对抗网路,通过对抗网络与包含有用户隐私信息的原始网络对分类模型进行优化,提高分类器对该迭代识别效果,从而对对抗性网络进行防御,以实现对用户隐私信息的保护。
本发明的技术方案为:
一种基于分类边界的用户隐私保护方法,包括以下步骤:
(1)将包含有关键节点的原始网络输入至GCN分类模型中,计算关键节点在真实类标下的损失函数,连边梯度信息;
(2)更改关键节点的类标,计算关键节点的新类标下的新损失函数,新连边梯度信息;
(3)根据关键节点的损失函数,连边梯度信息以及新损失函数,新连边梯度信息确定最容易被修改成的新类标;
(4)根据关键节点在真实类标下的连边梯度信息,以及在容易被修改成的新类标下的新连边梯度信息,在原始网络中添加扰动,形成对抗网络;
(5)利用对抗网络和原始网络训练GCN分类模型,获得训练好的GCN分类模型;
(6)将添加有扰动的待测网络输入至GCN模型中,经计算输出正确的分类结果,实现对待测网络中用户隐私的保护。
本发明的有益效果主要表现在:利用了分类器的分类边界信息,在原有信息的基础上添加得到的分类边界信息。并计算样本到各分类边界的距离,求得扰动添加的最佳优化方向,生成了对抗网络。将对抗网络用于训练,使分类模型对这一类对抗网络产生防御效果,从而保护网络中用户节点的隐私。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图做简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动前提下,还可以根据这些附图获得其他附图。
图1是本发明提供的基于分类边界的用户隐私保护方法的流程图;
图2是本发明提供的对抗网络生成示意图;
图3是本发明提供的对抗网络的防御图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例对本发明进行进一步的详细说明。应当理解,此处所描述的具体实施方式仅仅用以解释本发明,并不限定本发明的保护范围。
在一些社交网络中,节点以及节点之间的连边往往隐藏着用户的隐私信息,处于社交中心的用户受到了恶意攻击,则有可能造成大范围的谣言传播。为了实现对用户隐私的保护,尤其是中心用户(关键节点)隐私的保护,本发明提供了一种基于分类边界的用户隐私保护方法。
如图1~3所示,本发明提供的基于分类边界的用户隐私保护方法包括以下步骤:
S101,将包含有关键节点的原始网络输入至GCN分类模型中,计算关键节点在真实类标下的损失函数,连边梯度信息。
在原始网络中,关键节点即为目标节点,包含有很多重要的信息,是指需要被隐藏的节点。本实施例的原始网络可以为社交网络。
具体地,将原始网络对应的邻接矩阵A以及节点的真实类标输入到GCN分类模型中,每层GCN分类模型表示为:
节点的损失函数f(x)为:
其中,l为节点的索引,k为节点对应类别的索引,Vl为带有类标的节点集合,F为节点类标集合,Ylk为第l个节点属于第k个类标的置信度,Zlk为将第l个节点分成第k个类别的分类结果;
两节点连边上的连边梯度信息为:
其中,wij表示第i个节点与第j个节点之间的连边梯度信息,Aij表示邻接矩阵A中第i个节点与第j个节点之间的连边。
S102,更改关键节点的类标,计算关键节点的新类标下的新损失函数,新连边梯度信息。
具体地,利用公式(2)和公式(3)计算节点的损失函数fk(x)和连边梯度信息wk(x),其中,k表示关键节点修改后的新类标。
该步骤中提取了不同新类标下相应的损失函数和梯度信息,为计算样本点到分类边界的距离提供基础。
S103,根据关键节点的损失函数,连边梯度信息以及新损失函数,新连边梯度信息确定最容易被修改成的新类标。
具体地,最容易被修改成的新类标的确定过程为:
(a)根据关键节点的损失函数,连边梯度信息以及新损失函数,新连边梯度信息计算关键节点到各分类边界的距离l:
(b)更改关键节点的新类标,重复步骤(a),直到遍历完关键节点除真实类标外的所有类标为止,获得最短距离l(x0),该最短l(x0)对应的新类标即为关键节点最容易被修改成的新类标。
针对一个原始网络,节点类标种类是固定的,假设一个原始网路的节点类标分为A,B,C,D,E,F六种,关节节点的真实类标是A,则更改关键节点类标时,可以将关键节点的类标修改为除A以外的B,C,D,E,F五种,在遍历的过程中,当关键节点的新类标为B,C,D,E,F都遍历到后,迭代终止,选择最短l(x0)对应的新类标即为关键节点最容易修改的类标。
在另外一种实施方式中,有目标地指定修改关键节点的新类标,该新类标为最容易被修改成的新类标,这样即可以提供指定的优化方向,例如指定修改关键节点的新类标为C,则C为最容易修改的类标,为后面建立对抗网络提供指定方向。
S104,根据关键节点在真实类标下的连边梯度信息,以及在容易被修改成的新类标下的新连边梯度信息,在原始网络中添加扰动,形成对抗网络。
对抗网络的构建过程为:
首先,根据关键节点在真实类标下的连边梯度信息,以及在容易被修改成的新类标下的新连边梯度信息计算需要进行修改的连边,具体地,根据公式(5)确定需要修改的连边:
其中,MAX(·)为最大值函数,最大值的wij即为需要修改的连边;
本发明中,在原有的梯度信息上添加改变节点类标后的梯度信息,即增加了分类边界信息,使扰动的添加更具有可行性和可信性。
然后,根据修改连边策略对需要修改的连边进行修改,形成对抗网络,其中,修改连边策略表示为:
其中,h表示当前迭代次数,θ(wij)=1表示需要添加连边,θ(wij)=-1表示需要删减连边。
修改连边分为两种情况:(a)选定的节点i,节点j之间原来不存在连边,此时若wij>0,则添加一条连边;若wij<0,则放弃修改,寻找下一个wij大的值,以此类推;(b)选定的节点i,节点j之间原来存在连边,此时若wij<0,则删去该连边;若wij>0,则放弃修改,寻找下一个wij大的值,以此类推。
修改的连边数为预设值K,采用迭代的方法进行修改,直到修改的连边数达到预设值K,其中每次仅修改一条连边,当连边修改好后,获得的网络即为对抗网络。
S105,利用对抗网络和原始网络训练GCN分类模型,获得训练好的GCN分类模型。
本发明利用添加扰动后生成的对抗网络训练模型,使其对现有攻击进行检测,并达到防御的效果,防止了关键节点的隐私信息泄露。
S106,将添加有扰动的干扰网络输入至GCN模型中,经计算输出正确的分类结果,实现对干扰网络中用户隐私的保护。
本发明利用生成的对抗网络训练GCN分类模型,这样实现了对对抗网络的分类的准确性,当输入添加有扰动的干扰网络时,还能够实现对干扰网络的正确分类,即可以理解为能够区分干扰网络对应的原始网络的网络结构,即实现了对原始网络中用户隐私的保护。
以上基于分类边界的用户隐私保护方法可以应用到社交网络、交通网络、通信网络中关键信息的保护中,即输入的原始网络可为社交网络、交通网络、通信网络。
以上所述的具体实施方式对本发明的技术方案和有益效果进行了详细说明,应理解的是以上所述仅为本发明的最优选实施例,并不用于限制本发明,凡在本发明的原则范围内所做的任何修改、补充和等同替换等,均应包含在本发明的保护范围之内。
Claims (4)
1.一种基于分类边界的用户隐私保护方法,包括以下步骤:
(1)将包含有关键节点的原始网络输入至GCN分类模型中,计算关键节点在真实类标下的损失函数,连边梯度信息;
(2)更改关键节点的类标,计算关键节点的新类标下的新损失函数,新连边梯度信息;
(3)根据关键节点的损失函数,连边梯度信息以及新损失函数,新连边梯度信息确定最容易被修改成的新类标,具体过程为:
(a)根据关键节点的损失函数,连边梯度信息以及新损失函数,新连边梯度信息计算关键节点到各分类边界的距离l:
其中,k(x0)表示关键节点x0的真实类标,表示关键节点x0在真实类标下的损失函数为表示关键节点x0在真实类标下的连边梯度信息,fk(x)表示关键节点在新类标k下的损失函数,wk(x)表示关键节点在新类标k下连边梯度信息;
(b)更改关键节点的新类标,重复步骤(a),直到遍历完关键节点除真实类标外的所有类标为止,获得最短距离l(x0),该最短l(x0)对应的新类标即为关键节点最容易被修改成的新类标;
(4)根据关键节点在真实类标下的连边梯度信息,以及在容易被修改成的新类标下的新连边梯度信息,在原始网络中添加扰动,形成对抗网络,具体过程为:
首先,根据关键节点在真实类标下的连边梯度信息,以及在容易被修改成的新类标下的新连边梯度信息计算需要进行修改的连边,具体地,根据公式(2)确定需要修改的连边:
其中,MAX(·)为最大值函数,最大值的连边梯度信息wij对应的连边即为需要修改的连边;
然后,根据修改连边策略对需要修改的连边进行修改,形成对抗网络,其中,修改连边策略表示为:
其中,h表示当前迭代次数,θ(wij)=1表示需要添加连边,θ(wij)=-1表示需要删减连边;
修改连边策略分为两种情况:(a)选定的节点i,节点j之间原来不存在连边,此时若wij>0,则添加一条连边;若wij<0,则放弃修改,寻找下一个wij大的值,以此类推;(b)选定的节点i,节点j之间原来存在连边,此时若wij<0,则删去该连边;若wij>0,则放弃修改,寻找下一个wij大的值,以此类推;
修改的连边数为预设值K,采用迭代的方法进行修改,直到修改的连边数达到预设值K,其中每次仅修改一条连边,当连边修改好后,获得的网络即为对抗网络;
(5)利用对抗网络和原始网络训练GCN分类模型,获得训练好的GCN分类模型;
(6)将添加有扰动的待测网络输入至GCN模型中,经计算输出正确的分类结果,实现对待测网络中用户隐私的保护。
2.如权利要求1所述的基于分类边界的用户隐私保护方法,其特征在于,步骤(1)中,将原始网络对应的邻接矩阵A以及节点的真实类标输入到GCN分类模型中,每层GCN分类模型表示为:
节点的损失函数f(x)为:
其中,l为节点的索引,Vl为带有类标的节点集合,F为节点类标集合,Ylk为第l个节点属于第k个类标的置信度,Zlk为将第l个节点分成第k个类别的分类结果;
两节点连边上的连边梯度信息为:
其中,wij表示第i个节点与第j个节点之间的连边梯度信息,Aij表示邻接矩阵A中第i个节点与第j个节点之间的连边;
3.如权利要求2所述的基于分类边界的用户隐私保护方法,其特征在于,步骤(2)中,利用公式(6)和公式(7)计算节点的损失函数fk(x)和连边梯度信息wk(x),其中,k表示关键节点修改后的新类标。
4.如权利要求1所述的基于分类边界的用户隐私保护方法,其特征在于,有目标地指定修改关键节点的新类标,该新类标为最容易被修改成的新类标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910247890.9A CN110097079B (zh) | 2019-03-29 | 2019-03-29 | 一种基于分类边界的用户隐私保护方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910247890.9A CN110097079B (zh) | 2019-03-29 | 2019-03-29 | 一种基于分类边界的用户隐私保护方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110097079A CN110097079A (zh) | 2019-08-06 |
CN110097079B true CN110097079B (zh) | 2021-03-30 |
Family
ID=67444068
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910247890.9A Active CN110097079B (zh) | 2019-03-29 | 2019-03-29 | 一种基于分类边界的用户隐私保护方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110097079B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110661696A (zh) * | 2019-08-30 | 2020-01-07 | 浙江工业大学 | 一种基于梯度信息的消息传播控制方法 |
CN111275079B (zh) * | 2020-01-13 | 2023-07-04 | 浙江大学 | 基于图神经网络的众包标签推测方法及系统 |
CN112364747B (zh) * | 2020-11-04 | 2024-02-27 | 重庆高新区飞马创新研究院 | 一种有限样本下的目标检测方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107368752A (zh) * | 2017-07-25 | 2017-11-21 | 北京工商大学 | 一种基于生成式对抗网络的深度差分隐私保护方法 |
CN108322349A (zh) * | 2018-02-11 | 2018-07-24 | 浙江工业大学 | 基于对抗式生成网络的深度学习对抗性攻击防御方法 |
CN108549940A (zh) * | 2018-03-05 | 2018-09-18 | 浙江大学 | 基于多种对抗样例攻击的智能防御算法推荐方法及系统 |
CN108776836A (zh) * | 2018-06-08 | 2018-11-09 | 电子科技大学 | 一种基于vhe的隐私保护神经网络的训练及预测方法 |
WO2019007417A1 (zh) * | 2017-07-07 | 2019-01-10 | 阿里巴巴集团控股有限公司 | 基于隐私保护的训练样本生成方法和装置 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11062215B2 (en) * | 2017-03-17 | 2021-07-13 | Microsoft Technology Licensing, Llc | Using different data sources for a predictive model |
CN108664687A (zh) * | 2018-03-22 | 2018-10-16 | 浙江工业大学 | 一种基于深度学习的工控系统时空数据预测方法 |
CN108648095A (zh) * | 2018-05-10 | 2018-10-12 | 浙江工业大学 | 一种基于图卷积网络梯度的节点信息隐藏方法 |
-
2019
- 2019-03-29 CN CN201910247890.9A patent/CN110097079B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019007417A1 (zh) * | 2017-07-07 | 2019-01-10 | 阿里巴巴集团控股有限公司 | 基于隐私保护的训练样本生成方法和装置 |
CN107368752A (zh) * | 2017-07-25 | 2017-11-21 | 北京工商大学 | 一种基于生成式对抗网络的深度差分隐私保护方法 |
CN108322349A (zh) * | 2018-02-11 | 2018-07-24 | 浙江工业大学 | 基于对抗式生成网络的深度学习对抗性攻击防御方法 |
CN108549940A (zh) * | 2018-03-05 | 2018-09-18 | 浙江大学 | 基于多种对抗样例攻击的智能防御算法推荐方法及系统 |
CN108776836A (zh) * | 2018-06-08 | 2018-11-09 | 电子科技大学 | 一种基于vhe的隐私保护神经网络的训练及预测方法 |
Non-Patent Citations (5)
Title |
---|
"An Optimized Algorithm for Protecting Privacy Based on Coordinates Mean Value for Cognitive Radio Networks";Ling Xing等;《IEEE Access》;20180404;第6卷;第21971-21979页 * |
"Can Adversarial Network Attack be Defended?";Jinyin Chen等;《http://arxiv.org/abs/1903.05994》;20190315;第1-10页 * |
"Fast Gradient Attack on Network Embedding";Jinyin Chen等;《http://arxiv.org/abs/1809.02797v2》;20180918;第1-12页 * |
"Link Prediction Adversarial Attack";Jinyin Chen等;《http://arxiv.org/abs/1810.01110v2》;20181009;第1-10页 * |
"基于DCGAN反馈的深度差分隐私保护方法";毛典辉等;《北京工业大学学报》;20180630;第44卷(第6期);第870-877页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110097079A (zh) | 2019-08-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110097079B (zh) | 一种基于分类边界的用户隐私保护方法 | |
CN105871882B (zh) | 基于网络节点脆弱性和攻击信息的网络安全风险分析方法 | |
CN107786575B (zh) | 一种基于dns流量的自适应恶意域名检测方法 | |
CN112738015B (zh) | 一种基于可解释卷积神经网络cnn与图检测的多步攻击检测方法 | |
CN106817248B (zh) | 一种apt攻击检测方法 | |
Gogoi et al. | MLH-IDS: a multi-level hybrid intrusion detection method | |
CN103858386B (zh) | 用于通过优化的决策树执行包分类的方法和装置 | |
CN104618377B (zh) | 基于NetFlow的僵尸网络检测系统与检测方法 | |
Li et al. | Seed-free graph de-anonymiztiation with adversarial learning | |
CN102685145A (zh) | 一种基于dns数据包的僵尸网络域名发现方法 | |
CN110138788A (zh) | 一种基于深度指标的脆弱性攻击代价定量评估方法 | |
CN110868404B (zh) | 一种基于tcp/ip指纹的工控设备自动识别方法 | |
CN109218304A (zh) | 一种基于攻击图和协同进化的网络风险阻断方法 | |
CN113821793B (zh) | 基于图卷积神经网络的多阶段攻击场景构建方法及系统 | |
CN107317756A (zh) | 一种基于q学习的最佳攻击路径规划方法 | |
CN107347069A (zh) | 一种基于Kohonen神经网络的最佳攻击路径规划方法 | |
Wang | Comparative study on different neural networks for network security situation prediction | |
CN116915450A (zh) | 基于多步网络攻击识别和场景重构的拓扑剪枝优化方法 | |
CN109842555B (zh) | 基于匿名的网络最短路径隐私保护方法 | |
CN110458209B (zh) | 一种针对集成树分类器的逃避攻击方法及装置 | |
Ionită et al. | Biologically inspired risk assessment in cyber security using neural networks | |
CN108111968B (zh) | 一种基于泛化的位置隐私保护方法 | |
Li et al. | LandmarkMiner: Street-level network landmarks mining method for IP geolocation | |
KR101863569B1 (ko) | 머신 러닝 기반의 취약점 정보를 분류하는 방법 및 장치 | |
CN114491563A (zh) | 一种获取信息安全事件的风险等级的方法及相关装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |