CN111460443A - 一种联邦学习中数据操纵攻击的安全防御方法 - Google Patents
一种联邦学习中数据操纵攻击的安全防御方法 Download PDFInfo
- Publication number
- CN111460443A CN111460443A CN202010473432.XA CN202010473432A CN111460443A CN 111460443 A CN111460443 A CN 111460443A CN 202010473432 A CN202010473432 A CN 202010473432A CN 111460443 A CN111460443 A CN 111460443A
- Authority
- CN
- China
- Prior art keywords
- model parameters
- user
- local model
- training
- users
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 230000007123 defense Effects 0.000 title claims abstract description 12
- 238000012549 training Methods 0.000 claims abstract description 126
- 230000004927 fusion Effects 0.000 claims abstract description 35
- 239000013598 vector Substances 0.000 claims description 29
- 238000004422 calculation algorithm Methods 0.000 claims description 19
- 238000003062 neural network model Methods 0.000 claims description 15
- 238000004220 aggregation Methods 0.000 claims description 6
- 230000006870 function Effects 0.000 claims description 5
- 230000002776 aggregation Effects 0.000 claims description 4
- 239000000126 substance Substances 0.000 claims description 3
- 230000008569 process Effects 0.000 description 17
- 238000004364 calculation method Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 8
- 230000008901 benefit Effects 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 241000700605 Viruses Species 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 230000006399 behavior Effects 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 241000282472 Canis lupus familiaris Species 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000005242 forging Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 231100000572 poisoning Toxicity 0.000 description 2
- 230000000607 poisoning effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000007621 cluster analysis Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010924 continuous production Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000011524 similarity measure Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/50—Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
- G06F21/55—Detecting local intrusion or implementing counter-measures
- G06F21/554—Detecting local intrusion or implementing counter-measures involving event detection and direct action
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/604—Tools and structures for managing or administering access control systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Computer Security & Cryptography (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Hardware Design (AREA)
- Health & Medical Sciences (AREA)
- Automation & Control Theory (AREA)
- Bioethics (AREA)
- Evolutionary Biology (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
- Computer And Data Communications (AREA)
Abstract
本发明公开一种联邦学习中数据操纵攻击的安全防御方法,包括以下几个步骤:步骤1,中心服务器接收用户上传的本地模型参数,计算每个用户上传的本轮本地模型参数的相似程度及每个用户对应的融合系数;所述本地模型参数为用户采用私有训练数据训练一轮后的本地模型参数;步骤2,中心服务器接收到本地用户一个周期的本地模型参数后,根据融合系数计算每个用户的本地模型参数的加权平均值得到全局模型参数,所述一个周期为预设的本地模型参数更新轮数;步骤3,将全局模型参数下发至对应的用户,用户收到全局模型参数后更新本地模型参数。
Description
技术领域
本发明涉及一种联邦学习的安全训练框架实现方法,更具体的说是涉及一种防御联邦学习中数据操纵攻击的安全训练框架的实现方法。
背景技术
联邦学习是一种新兴的深度学习框架。在传统的集中式深度学习中,中心服务器需要收集大量的用户数据用于训练神经网络模型(简称模型),但是由于数据传输的网络通信开销较大、用户数据归属权以及用户数据隐私性等问题,用于进行深度学习的用户数据往往难以获取。而联邦学习采取了另一种训练神经网络模型的方式:在一轮训练中,每一个用户利用其私有数据训练本地模型,然后将本地模型的参数上传至中心服务器,由中心服务器将所有用户的参数进行融合生成全局模型的参数,再将全局模型的参数下发至用户,用户根据全局模型参数对本地模型进行更新,如此循环若干轮训练直至全局模型收敛,训练结束。基于这种技术,联邦学习能够在用户的私有训练数据不离开本地的前提下实现多个用户共同进行深度学习,完成指定的学习任务,如:图像分类、文本预测等,解决了传统的集中式深度学习中用户数据难以获取的问题。
但是,在联邦学习中也存在着一些安全隐患。由于参与联邦学习的用户并非全都是正常用户,一些恶意用户能够通过发动数据操纵攻击威胁到用户数据隐私以及影响神经网络模型的训练结果,对参与联邦学习的正常用户的数据安全性和模型可用性造成巨大的危害。数据操纵攻击是指恶意用户通过训练恶意的神经网络模型对上传至中心服务器的本地模型参数进行伪造、篡改而实现的一种攻击方式。其中,生成式对抗网络攻击和模型投毒攻击是两种代表性的数据操纵攻击。
在生成式对抗网络攻击中,恶意用户通过在本地训练生成式对抗网络进而窃取其他用户数据隐私,获得其他用户的私有训练数据,威胁到正常用户的数据安全。生成式对抗网络是一种深度神经网络模型,由一个生成模型和一个判别模型构成。生成模型的目标是生成能够以假乱真的训练数据,而判别模型的目标则是能够正确的对训练数据进行分类,区分出伪造的训练数据和真实的训练数据。生成式对抗网络的训练过程就是生成模型和判别模型的博弈过程。而在联邦学习中,恶意用户为了窃取其他正常用户的训练数据,需要通过生成模型不断生成伪造的训练数据,并将其对作为正常的训练数据来训练本地模型,进而对其他参与联邦学习的正常用户的训练过程造成干扰,在联邦学习的过程中,恶意用户和正常用户不断博弈,使得恶意用户的生成模型能够产生的数据越来越接近于正常用户的正常训练数据,从而达到获取其他用户私有训练数据的目标。
在模型投毒攻击中,恶意用户能够影响神经网络模型的训练结果,威胁到模型安全和可用性。以图像分类任务为例,恶意用户的目标是使得全局模型的分类结果出现预期的错误,如:将猫的图片分类为狗,将鞋子的图片分类为衬衫等。恶意用户通过伪造训练数据,篡改正常训练数据的标签(如将猫的图片的标签改为狗),利用伪造的训练数据来训练本地模型,然后将本地模型参数上传至中心服务器,致使全局模型的分类结果受到影响。在联邦学习的过程中,恶意用户通过不断上传恶意的本地模型参数对全局模型施加影响,最终导致全局模型分类结果出现恶意用户预期的错误。
生成式对抗网络攻击和模型投毒攻击会对参与联邦学习的正常用户造成巨大的威胁。目前,针对联邦学习中存在的安全问题也有一些相关的研究,现有技术中主要考虑的是抵御恶意的中心服务器对于联邦学习过程产生的危害,主要的技术包括利用差分隐私、同态加密等算法来保护用户的本地模型参数,减小其中的信息泄露。然而,现有的研究工作中缺乏如何防御对来自参与联邦学习用户造成的威胁的分析。由于数据操纵攻击的威胁来自参与联邦学习的用户内部,恶意用户能够藏匿于正常用户之中,其攻击方式更为隐蔽,攻击手法也更加难以进行检测和排查,已有的针对联邦学习中安全问题的防御技术难以有效的对抗上述两种数据操纵攻击,这也给参与联邦学习的用户带来了巨大的安全隐患。
因此,针对联邦学习中的数据操纵攻击需要设计一种高效、可靠的防御方案,实现联邦学习的安全训练。
发明内容
发明目的:针对现有技术中存在的问题与不足,提供了一种高效的在防御联邦学习中数据操纵攻击的安全训练框架的实现方法,能够有效防御恶意用户发动的数据操纵攻击,减小恶意用户对正常的联邦学习过程的影响,保障参与联邦学习的正常用户的数据安全和模型安全。
技术方案:联邦学习中数据操纵攻击的安全防御方法,其特征在于,包括以下几个步骤:
步骤1,中心服务器接收用户上传的本地模型参数,计算每个用户上传的本轮本地模型参数的相似程度及每个用户对应的融合系数;所述本地模型参数为用户采用私有训练数据训练一轮后的本地模型参数;
步骤2,中心服务器接收到本地用户一个训练周期的本地模型参数后,根据融合系数计算每个用户的本地模型参数的加权平均值得到全局模型参数,所述一个训练周期为预设的本地模型参数更新轮数;
步骤3,将全局模型参数下发至对应的用户,用户收到全局模型参数后更新本地模型参数。
作为优选,所述步骤1具体包括:
作为优选,所述步骤2和步骤3分别为:
步骤2,判断t是否为τ的倍数,若是,转到步骤3;否则,转到步骤1;所述t为用户实际训练轮数,τ为一个训练周期内包含的本地模型参数训练轮数;;
步骤1051,对于给定的每一个中心点ci,搜索其在指定半径r范围内的邻近点集合P,其中,半径r通常设置为一个较小的数值;
步骤1055,若步骤1053所得的差值小于设定的阈值,则算法终止,返回中心点ci;否则,转到步骤1051;
作为优选,所述用户包括正常用户和恶意用户,所述正常用户持有若干正常训练数据用于训练正常的本地模型,所述恶意用户持有若干正常训练数据以及若干用于数据操纵攻击的恶意训练数据用于训练恶意的本地模型。
有益效果:与现有技术相比,本发明通过一种新型的基于相似度计算的方法,结合异步更新策略,能够以较低的计算开销来防御生成式对抗网络攻击和模型投毒攻击这两种对联邦学习有较大威胁的数据操纵攻击,并且在实际实验中取得了良好的效果,能够有效的保护参与联邦学习的用户的数据安全和神经网络模型安全,为解决联邦学习中安全训练问题提供了新的思路和解决方案,具有广泛的应用前景和研究价值。
附图说明
图1为本发明实施例中联邦学习数据操纵攻击示意图。
图2为本发明实施例防御联邦学习中数据操纵攻击的安全训练框架图。
图3为本发明实施例中余弦相似度示意图。
图4为本发明实施例恶意用户与正常用户的余弦相似度差异图。
具体实施方式
下面结合附图和具体实施例,进一步阐明本发明。
本发明实施例公开了一种防御联邦学习中数据操纵攻击的安全训练框架的实现方法。
本发明实施例提供的联邦学习数据操纵攻击,如图1所示:包括三种执行主体:若干正常用户,一个恶意用户以及一个中心服务器。所述正常用户、恶意用户和中心服务器共同进行联邦学习以完成指定的图像分类任务。所述正常用户均持有若干正常训练数据用于训练正常的本地模型,所述恶意用户持有若干正常训练数据以及若干用于数据操纵攻击的恶意训练数据用于训练恶意的本地模型,上述每一个用户的训练数据为其私有,不对外公开。所述中心服务器接收来自所述正常用户和所述恶意用户上传的本地模型参数(实线箭头),并根据本地模型参数计算全局模型参数,然后将全局模型参数下发至所述正常用户和恶意用户(虚线箭头)。所述正常用户利用正常训练数据训练本地模型,并将本地模型参数上传至所述中心服务器,并且根据中心服务器下发的全局模型参数更新本地模型参数。所述恶意用户利用伪造的恶意训练数据来训练本地模型,将篡改、操纵后的本地模型参数上传至所述中心服务器,从而实现数据操纵攻击,达到窃取其他正常用户的私有训练数据,影响模型训练结果等攻击目标,并且所述恶意用户能够通过训练所持有的若干正常训练数据伪装成正常用户,从而在达到攻击目标的前提下,尽可能的绕过所述安全训练框架的防御技术。
图2为本发明所述的防御联邦学习中数据操纵攻击的安全训练框架图。所述安全训练框架的实体以及数据传输方式等与图1所示的数据操纵攻击示意图相同。所述安全训练框架的核心部分为中心服务器,即利用所述中心服务器通过对所述正常用户和恶意用户上传的本地模型参数进行分析,利用一种新型的基于相似度的计算方式检测出所述恶意用户,并且通过降低所述恶意用户的本地模型参数在全局模型参数的权重(融合系数)来抵御数据操纵攻击,降低所述恶意用户的攻击成功率,从而保护所述正常用户的数据安全和神经网络模型安全。
下面具体解释图2中上述三种执行主体的动作流程。
本实施例中的安全训练框架的一轮训练表示所述正常用户或恶意用户利用持有的训练数据训练一次本地模型,所述安全训练框架采取异步更新策略,即所述安全训练框架以一个训练周期为单位进行全局模型更新,其中所述一个训练周期为预设的本地模型参数更新轮数τ。
正常用户和恶意用户在一个训练周期内执行的动作流程相同:用户周期性的训练本地模型,然后向中心服务器上传本地模型参数并根据中心服务器更新本地模型参数。t为正常用户或恶意用户实际训练轮数,i为正常用户或恶意用户对应的标识,为用户i在第t轮训练的本地模型参数,为第t轮中心服务器下发的全局模型参数,α为本地模型参数的更新率。具体流程如下:
具体的,每一轮训练之后本地模型参数计算公式为
其中,η为神经网络模型学习率,g为梯度函数,本发明实施例中采用随机梯度下降算法。随机梯度下降算法通过在小批量训练数据上计算损失函数的梯度来更新神经网络模型参数,适用于训练数据较多的场景。
正常用户和恶意用户所训练的神经网络模型结构相同。在实际操作中,根据恶意用户发动的数据操纵攻击类型的不同,其训练本地模型以及上传本地模型参数过程与正常用户有所差异。例如:在生成式对抗网络攻击中,恶意用户需要额外训练一个生成模型用以窃取其他正常用户的训练数据。在模型投毒攻击中,恶意用户为了影响全局模型的训练结果,提升攻击成功率,需要成倍的扩大所上传的本地模型参数。并且,恶意用户为了能够更好的伪装自身的攻击行为,欺骗中心服务器将其视为正常用户,会采取一些更为隐蔽的攻击方式,例如:通过训练一定数量的正常训练数据使得其本地模型参数与正常用户更为接近等。
本发明实施例采用异步更新策略,即在一个训练周期中,用户需要训练τ轮本地模型,并且在每一轮训练之后将本地模型参数上传至中心服务器,但是一个训练周期中心服务器只下发一轮全局模型参数。α为本地模型参数的更新率,取值介于0到1之间,α越大则表示本地模型受全局模型更新的影响越大,也即全局模型参数与本地模型参数的相似程度越高。
本发明所述安全训练框架的核心部分为中心服务器,即中心服务器通过分析用户上传的本地模型参数,检测出所述恶意用户,并且通过降低恶意用户的本地模型参数在在全局模型参数的权重即融合系数的方式,来抵御恶意用户发动的数据操纵攻击,降低恶意用户的攻击成功率,从而保护所述正常用户的数据安全和神经网络模型安全。由于所述恶意用户在发动数据操纵攻击时,需要不断的篡改、操纵其上传给所述中心服务器的本地模型参数,才能实现其攻击目标,因此,即使所述恶意用户通过训练一定量的正常训练数据来伪装成正常用户,从长期的训练过程来看,恶意用户与正常用户上传的本地模型参数依然有较为明显的差异。
本发明中心服务器周期性的使用一种新型的基于相似度的方法计算每个所述正常用户和恶意用户的本地模型参数的相似程度,用以计算每个用户对应的融合系数,并根据融合系数计算所有用户的本地模型参数的加权平均值得到全局模型参数,然后将全局模型参数下发至每一个用户。为用户i在第t轮训练时的融合系数,融合系数的初始值为1/n,n为所述正常用户和恶意用户的总数,β为融合系数的更新率,具体流程如下:
为了提高算法的效率,降低计算开销,以及减小极小的本地模型参数对于后续分析的影响,本发明选取绝对值较大的本地模型参数来计算相似度。索引是指向量或数组即一组数据中每一个元素的位置,本发明中的本地模型参数、全局模型参数、融合系数等都是数组。计算索引的并集是为了保证每一个用户选择的部分模型参数的数量相同,便于后续的相似度计算。具体的,选择本地模型参数的数量可以视实际情况而定,比如选择绝对值最大的前10%的本地模型参数。
本发明以中位数为基准,计算每一个用户的部分本地模型参数与中位数的相似度。中位数是顺序排列的一组数据中居于中间位置的数。
作为优选,本发明使用余弦相似度计算部分本地模型参数与中位数对应的相似度余弦相似度是一种基于向量内积的计算两个向量之间相似度的方法,是一种广泛应用于文本分析、推荐系统等的相似度计算方法。余弦相似度通过计算空间中两个向量的夹角余弦值来度量其相似度,余弦相似度的数值介于-1到1之间,越接近于1说明两个向量之间的相似度越大,反之相似度越小。向量X=(x1,x2)与向量Y=(y1,y2)的余弦相似度的计算公式为
在本发明的余弦相似度计算过程中,上述向量向量其中,为上一个训练周期的全局模型参数,即将上一个训练周期的全局模型参数作为向量X和Y起点,将部分本地模型参数和其中位数分别作为向量X和Y的终点,计算两个向量的余弦相似度。图3为余弦相似度的示意图,向量X和Y的余弦相似度即为图3中的夹角的余弦值。
本实施例中将相似度计算和异步更新策略相结合,以一种向前看的方式来计算相似度,即如果将训练模型的过程视为一个不断前进的过程,那么在计算相似度时相当于以上一个训练周期的全局模型参数为基准点观察后面几轮训练中本地模型参数变化的趋势。本发明采用向前看的相似度计算方式是为了减小在联邦学习过程中随机梯度下降算法的随机性对相似度计算造成的影响,以免对正常用户的训练产生干扰,由于在一个训练周期中全局模型参数只更新一次,而本地模型参数更新τ轮,相应的也要进行τ轮相似度计算,通过观察多轮本地模型参数的变化能够更好的分析不同用户之间本地模型参数的趋势,也更能区分出恶意用户和正常用户的本地模型参数的差别,避免因为随机性带来的扰动造成的负面影响。
本发明中,以模型参数中的元素为单位进行相似度计算,即需要对每一个用户的每一个部分模型参数计算对应的相似度,而非将部分模型参数作为一个向量进行计算。以元素为单位计算相似度,能够具体的分析每一个用户在对应索引上的参数,由于在训练神经网络模型的过程中,不同位置的模型参数具有不同的作用,表现出不同的数值变化,恶意用户的本地模型参数往往在某些位置具有较为明显的差异,对于模型参数逐一进行分析能够更加精确的检测出恶意用户的威胁,并且降低对正常用户训练模型的干扰。类似的,下述的中心点聚集度以及融合系数也均为以元素为单位进行计算。
均值漂移算法是一种常用的基于密度的聚类算法,对于给定一组的数据点,该算法试图找到这些数据点的密集区域,并且计算出每个密集区域(簇)的中心点作为聚类中心,也就是数据分布的质心(重心)。图4为本发明在实际实验中所得的恶意用户和正常用户在不同训练周期的余弦相似度差异的示意图,每一轮训练中,恶意用户与正常用户的余弦相似度差异明显,而正常用户之间的余弦相似度分布极为近似。本发明利用均值漂移算法,对步骤104所得余弦相似度进行聚类分析,计算出正常用户的余弦相似度分布的聚类中心(图4所示的三角形),从而检测出发动数据操纵攻击的恶意用户。
步骤1051,对于给定的每一个中心点ci,搜索其在指定半径r范围内的邻近点集合P,其中,半径r通常设置为一个较小的数值,具体可以视实际情况而定;
步骤1055,若步骤1053所得的差值小于设定的阈值,通常为0.001·r,则算法终止,返回中心点ci;否则,转到步骤1051;
聚集度表示表示相似度与中心点之间的差异程度,聚集度越接近于1表示越接近中心点,聚集度越小表示离中心点越远。由于正常用户的本地模型参数所得的相似度较为接近,而恶意用户则与其差异较大,因此,正常用户所得的聚集度更接近于1,而恶意用户会远小于1,甚至为负数。
融合系数根据聚集度计算而得,其中为归一化运算操作,能够保证对于同一个索引所有用户的融合系数之和为1。β为融合系数的更新率,表示以往的融合系数对更新的融合系数的影响,其取值在0到1之间,β越大表示上一轮计算得到的融合系数对本轮融合系数的影响越小。本实施例采用累积式的方式来计算融合系数,充分考虑了每一个用户在整个联邦学习的过程中本地模型参数的变化。这是由于在联邦学习中,恶意用户和正常用户需要进行若干训练周期才能最终达到全局模型收敛的状态,在训练的过程中,为了提高攻击成功率,恶意用户需要不断的上传恶意的本地模型参数以影响全局模型,长期来看,恶意用户的本地模型参数的数值变化趋势与正常用户相比呈现出较为明显的差异,只通过一次分析得到的结果会有较大的误差,而这种累积式的计算方式能够从更长远的角度综合分析每一个用户在联邦学习中的表现,有效的避免随机性带来的扰动,更符合实际的应用场景。
步骤2,判断t是否为0的倍数,若是,转到步骤3;否则,转到步骤101;所述t为用户实际训练轮数,τ为一个训练周期内包含的本地模型参数训练轮数;
循环上述训练过程直至训练轮数达到最大迭代次数,全局模型收敛,联邦学习训练结束。
本实施例中的融合系数即为计算全局模型参数时的每一个用户的本地模型参数对应的权重,融合系数的取值在0到1之间,某用户融合系数越大表示该用户的本地模型参数的权重越大。在联邦学习中,全局模型参数的计算公式也即所有用户的融合系数相等,均为1/n。在本发明所述的安全训练框架中,为了抵御恶意用户发动的数据操纵攻击,需要尽可能的减小恶意用户的融合系数,在理想状态下,恶意用户的融合系数接近于0,而正常用户的融合系数会远大于恶意用户,接近于1/(n-1)。
本发明将恶意用户和正常用户的共同进行联邦学习的过程视为不同用户之间的博弈过程,用户通过博弈获得一定的收益,所有用户的共同博弈目标是训练得到一个较好的全局模型,而恶意用户还需要实现其数据操纵攻击的目标,即恶意用户期望通过数据操纵攻击获得额外的收益。针对恶意用户的这种不良行为,本发明中所述中心服务器需要其进行一定的惩罚以保证博弈的公平性,即确保所有的用户的收益大致相同。本发明所述的安全训练框架通过对恶意用户的不良行为进行惩罚,降低其融合系数而达到防御数据操纵攻击的目标。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以作出若干改进,这些改进也应视为本发明的保护范围。
Claims (8)
1.一种联邦学习中数据操纵攻击的安全防御方法,其特征在于,包括以下几个步骤:
步骤1,中心服务器接收用户上传的本地模型参数,计算每个用户上传的本轮本地模型参数的相似程度及每个用户对应的融合系数;所述本地模型参数为用户采用私有训练数据训练一轮后的本地模型参数;
步骤2,中心服务器接收到本地用户一个训练周期的本地模型参数后,根据融合系数计算每个用户的本地模型参数的加权平均值得到全局模型参数,所述一个训练周期为预设的本地模型参数更新轮数;
步骤3,将全局模型参数下发至对应的用户,用户收到全局模型参数后更新本地模型参数。
3.根据权利要求1所述的联邦学习中数据操纵攻击的安全防御方法,其特征在于,所述步骤1具体包括:
7.根据权利要求6所述的联邦学习中数据操纵攻击的安全防御方法,其特征在于,在步骤105中,所述均值漂移算法的输入数据为步骤104所得的每一个用户的相似度算法初始阶段每一个数据点以自身为中心点对于每一个数据点,具体迭代步骤如下:
步骤1051,对于给定的每一个中心点ci,搜索其在指定半径r范围内的邻近点集合P,其中,半径r通常设置为一个较小的数值;
步骤1055,若步骤1053所得的差值小于设定的阈值,则算法终止,返回中心点ci;否则,转到步骤1051;
8.根据权利要求1所述的联邦学习中数据操纵攻击的安全防御方法,其特征在于,所述用户包括正常用户和恶意用户,所述正常用户持有若干正常训练数据用于训练正常的本地模型,所述恶意用户持有若干正常训练数据以及若干用于数据操纵攻击的恶意训练数据用于训练恶意的本地模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010473432.XA CN111460443B (zh) | 2020-05-28 | 2020-05-28 | 一种联邦学习中数据操纵攻击的安全防御方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010473432.XA CN111460443B (zh) | 2020-05-28 | 2020-05-28 | 一种联邦学习中数据操纵攻击的安全防御方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111460443A true CN111460443A (zh) | 2020-07-28 |
CN111460443B CN111460443B (zh) | 2022-09-23 |
Family
ID=71684860
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010473432.XA Active CN111460443B (zh) | 2020-05-28 | 2020-05-28 | 一种联邦学习中数据操纵攻击的安全防御方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111460443B (zh) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111882133A (zh) * | 2020-08-03 | 2020-11-03 | 重庆大学 | 一种基于预测的联邦学习通信优化方法及系统 |
CN112181971A (zh) * | 2020-10-27 | 2021-01-05 | 华侨大学 | 一种基于边缘的联邦学习模型清洗和设备聚类方法、系统、设备和可读存储介质 |
CN112257063A (zh) * | 2020-10-19 | 2021-01-22 | 上海交通大学 | 一种基于合作博弈论的联邦学习中后门攻击的检测方法 |
CN112329940A (zh) * | 2020-11-02 | 2021-02-05 | 北京邮电大学 | 一种结合联邦学习与用户画像的个性化模型训练方法及系统 |
CN112329009A (zh) * | 2020-10-12 | 2021-02-05 | 南京理工大学 | 一种针对联合学习中噪声攻击的防御方法 |
CN112434758A (zh) * | 2020-12-17 | 2021-03-02 | 浙江工业大学 | 基于聚类的联邦学习搭便车攻击防御方法 |
CN112446025A (zh) * | 2020-11-23 | 2021-03-05 | 平安科技(深圳)有限公司 | 联邦学习防御方法、装置、电子设备及存储介质 |
CN112749392A (zh) * | 2021-01-07 | 2021-05-04 | 西安电子科技大学 | 一种联邦学习中异常节点的检测方法及系统 |
CN112836829A (zh) * | 2021-01-26 | 2021-05-25 | 支付宝(杭州)信息技术有限公司 | 一种个性化的隐私保护学习方法、装置以及设备 |
CN113077056A (zh) * | 2021-03-29 | 2021-07-06 | 上海嗨普智能信息科技股份有限公司 | 基于横向联邦学习的数据处理系统 |
CN113179244A (zh) * | 2021-03-10 | 2021-07-27 | 上海大学 | 一种面向工业互联网边界安全的联邦深度网络行为特征建模方法 |
CN113301017A (zh) * | 2021-04-22 | 2021-08-24 | 西安电子科技大学 | 基于联邦学习的攻击检测与防御方法、装置及存储介质 |
CN113779563A (zh) * | 2021-08-05 | 2021-12-10 | 国网河北省电力有限公司信息通信分公司 | 联邦学习的后门攻击防御方法及装置 |
WO2022033579A1 (zh) * | 2020-08-13 | 2022-02-17 | 华为技术有限公司 | 一种联邦学习方法、设备及系统 |
WO2022037239A1 (en) * | 2020-08-21 | 2022-02-24 | Huawei Technologies Co.,Ltd. | System and methods for supporting artificial intelligence service in a network |
US11283609B2 (en) | 2020-08-21 | 2022-03-22 | Huawei Technologies Co., Ltd. | Method and apparatus for supporting secure data routing |
CN114330750A (zh) * | 2021-12-31 | 2022-04-12 | 西南民族大学 | 一种联邦学习毒化攻击检测方法 |
WO2022099512A1 (zh) * | 2020-11-11 | 2022-05-19 | 北京小米移动软件有限公司 | 数据处理方法及装置、通信设备和存储介质 |
CN115034333A (zh) * | 2022-06-29 | 2022-09-09 | 支付宝(杭州)信息技术有限公司 | 联邦学习方法、联邦学习装置及联邦学习系统 |
CN117151208A (zh) * | 2023-08-07 | 2023-12-01 | 大连理工大学 | 基于自适应学习率的异步联邦学习参数更新方法、电子设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110008696A (zh) * | 2019-03-29 | 2019-07-12 | 武汉大学 | 一种面向深度联邦学习的用户数据重建攻击方法 |
CN110399742A (zh) * | 2019-07-29 | 2019-11-01 | 深圳前海微众银行股份有限公司 | 一种联邦迁移学习模型的训练、预测方法及装置 |
CN110460600A (zh) * | 2019-08-13 | 2019-11-15 | 南京理工大学 | 可抵御生成对抗网络攻击的联合深度学习方法 |
US20200027033A1 (en) * | 2018-07-19 | 2020-01-23 | Adobe Inc. | Updating Machine Learning Models On Edge Servers |
-
2020
- 2020-05-28 CN CN202010473432.XA patent/CN111460443B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200027033A1 (en) * | 2018-07-19 | 2020-01-23 | Adobe Inc. | Updating Machine Learning Models On Edge Servers |
CN110008696A (zh) * | 2019-03-29 | 2019-07-12 | 武汉大学 | 一种面向深度联邦学习的用户数据重建攻击方法 |
CN110399742A (zh) * | 2019-07-29 | 2019-11-01 | 深圳前海微众银行股份有限公司 | 一种联邦迁移学习模型的训练、预测方法及装置 |
CN110460600A (zh) * | 2019-08-13 | 2019-11-15 | 南京理工大学 | 可抵御生成对抗网络攻击的联合深度学习方法 |
Cited By (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111882133B (zh) * | 2020-08-03 | 2022-02-01 | 重庆大学 | 一种基于预测的联邦学习通信优化方法及系统 |
CN111882133A (zh) * | 2020-08-03 | 2020-11-03 | 重庆大学 | 一种基于预测的联邦学习通信优化方法及系统 |
WO2022033579A1 (zh) * | 2020-08-13 | 2022-02-17 | 华为技术有限公司 | 一种联邦学习方法、设备及系统 |
US11588907B2 (en) | 2020-08-21 | 2023-02-21 | Huawei Technologies Co., Ltd. | System and methods for supporting artificial intelligence service in a network |
WO2022037239A1 (en) * | 2020-08-21 | 2022-02-24 | Huawei Technologies Co.,Ltd. | System and methods for supporting artificial intelligence service in a network |
US11283609B2 (en) | 2020-08-21 | 2022-03-22 | Huawei Technologies Co., Ltd. | Method and apparatus for supporting secure data routing |
CN112329009A (zh) * | 2020-10-12 | 2021-02-05 | 南京理工大学 | 一种针对联合学习中噪声攻击的防御方法 |
CN112329009B (zh) * | 2020-10-12 | 2022-12-06 | 南京理工大学 | 一种针对联合学习中噪声攻击的防御方法 |
CN112257063A (zh) * | 2020-10-19 | 2021-01-22 | 上海交通大学 | 一种基于合作博弈论的联邦学习中后门攻击的检测方法 |
CN112257063B (zh) * | 2020-10-19 | 2022-09-02 | 上海交通大学 | 一种基于合作博弈论的联邦学习中后门攻击的检测方法 |
CN112181971A (zh) * | 2020-10-27 | 2021-01-05 | 华侨大学 | 一种基于边缘的联邦学习模型清洗和设备聚类方法、系统、设备和可读存储介质 |
CN112329940A (zh) * | 2020-11-02 | 2021-02-05 | 北京邮电大学 | 一种结合联邦学习与用户画像的个性化模型训练方法及系统 |
WO2022099512A1 (zh) * | 2020-11-11 | 2022-05-19 | 北京小米移动软件有限公司 | 数据处理方法及装置、通信设备和存储介质 |
WO2021208721A1 (zh) * | 2020-11-23 | 2021-10-21 | 平安科技(深圳)有限公司 | 联邦学习防御方法、装置、电子设备及存储介质 |
CN112446025A (zh) * | 2020-11-23 | 2021-03-05 | 平安科技(深圳)有限公司 | 联邦学习防御方法、装置、电子设备及存储介质 |
CN112434758B (zh) * | 2020-12-17 | 2024-02-13 | 浙江工业大学 | 基于聚类的联邦学习搭便车攻击防御方法 |
CN112434758A (zh) * | 2020-12-17 | 2021-03-02 | 浙江工业大学 | 基于聚类的联邦学习搭便车攻击防御方法 |
CN112749392A (zh) * | 2021-01-07 | 2021-05-04 | 西安电子科技大学 | 一种联邦学习中异常节点的检测方法及系统 |
CN112749392B (zh) * | 2021-01-07 | 2022-10-04 | 西安电子科技大学 | 一种联邦学习中异常节点的检测方法及系统 |
CN112836829B (zh) * | 2021-01-26 | 2022-08-02 | 支付宝(杭州)信息技术有限公司 | 一种个性化的隐私保护学习方法、装置以及设备 |
CN112836829A (zh) * | 2021-01-26 | 2021-05-25 | 支付宝(杭州)信息技术有限公司 | 一种个性化的隐私保护学习方法、装置以及设备 |
CN113179244A (zh) * | 2021-03-10 | 2021-07-27 | 上海大学 | 一种面向工业互联网边界安全的联邦深度网络行为特征建模方法 |
CN113077056A (zh) * | 2021-03-29 | 2021-07-06 | 上海嗨普智能信息科技股份有限公司 | 基于横向联邦学习的数据处理系统 |
CN113301017B (zh) * | 2021-04-22 | 2022-04-08 | 西安电子科技大学 | 基于联邦学习的攻击检测与防御方法、装置及存储介质 |
CN113301017A (zh) * | 2021-04-22 | 2021-08-24 | 西安电子科技大学 | 基于联邦学习的攻击检测与防御方法、装置及存储介质 |
CN113779563A (zh) * | 2021-08-05 | 2021-12-10 | 国网河北省电力有限公司信息通信分公司 | 联邦学习的后门攻击防御方法及装置 |
CN114330750A (zh) * | 2021-12-31 | 2022-04-12 | 西南民族大学 | 一种联邦学习毒化攻击检测方法 |
CN115034333A (zh) * | 2022-06-29 | 2022-09-09 | 支付宝(杭州)信息技术有限公司 | 联邦学习方法、联邦学习装置及联邦学习系统 |
CN117151208A (zh) * | 2023-08-07 | 2023-12-01 | 大连理工大学 | 基于自适应学习率的异步联邦学习参数更新方法、电子设备及存储介质 |
CN117151208B (zh) * | 2023-08-07 | 2024-03-22 | 大连理工大学 | 基于自适应学习率的异步联邦学习参数更新方法、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111460443B (zh) | 2022-09-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111460443B (zh) | 一种联邦学习中数据操纵攻击的安全防御方法 | |
Cao et al. | Understanding distributed poisoning attack in federated learning | |
US11829879B2 (en) | Detecting adversarial attacks through decoy training | |
CN111914256B (zh) | 一种机器学习训练数据受投毒攻击的防御方法 | |
CN108549940B (zh) | 基于多种对抗样例攻击的智能防御算法推荐方法及系统 | |
Manimurugan et al. | Intrusion detection in networks using crow search optimization algorithm with adaptive neuro-fuzzy inference system | |
Shi et al. | Active deep learning attacks under strict rate limitations for online API calls | |
CN112487431B (zh) | 基于非完全信息的入侵检测系统最优稳态策略求解方法 | |
CN117272306A (zh) | 基于交替最小化的联邦学习半目标投毒攻击方法及系统 | |
Nguyen et al. | Backdoor attacks and defenses in federated learning: Survey, challenges and future research directions | |
Macas et al. | Adversarial examples: A survey of attacks and defenses in deep learning-enabled cybersecurity systems | |
Gangula et al. | Network intrusion detection system for Internet of Things based on enhanced flower pollination algorithm and ensemble classifier | |
Dai et al. | Chameleon: Adapting to peer images for planting durable backdoors in federated learning | |
Choi et al. | PIHA: Detection method using perceptual image hashing against query-based adversarial attacks | |
Liu et al. | An adaptive black-box defense against trojan attacks (trojdef) | |
Qiu et al. | MT-MTD: Muti-training based moving target defense trojaning attack in edged-AI network | |
Umer et al. | Vulnerability of covariate shift adaptation against malicious poisoning attacks | |
CN116738270A (zh) | 一种基于高维空间聚类的无监督联邦学习投毒防御方法 | |
CN114202397B (zh) | 基于神经元激活值聚类的纵向联邦学习后门防御方法 | |
CN116150745A (zh) | 基于多维指标动态识别联邦学习中的后门攻击防御方法 | |
CN115187789A (zh) | 基于卷积层激活差异的对抗图像检测方法及装置 | |
Saheed et al. | An efficient machine learning and deep belief network models for wireless intrusion detection system | |
Kwon et al. | Selective untargeted evasion attack: An adversarial example that will not be classified as certain avoided classes | |
CN114494771B (zh) | 一种可防御后门攻击的联邦学习图像分类方法 | |
Luo et al. | Defective Convolutional Networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
EE01 | Entry into force of recordation of patent licensing contract |
Application publication date: 20200728 Assignee: BEIJING SANKUAI ONLINE TECHNOLOGY Co.,Ltd. Assignor: NANJING University Contract record no.: X2023320000125 Denomination of invention: A Security Defense Method for Data Manipulation Attacks in Federated Learning Granted publication date: 20220923 License type: Common License Record date: 20230323 |
|
EE01 | Entry into force of recordation of patent licensing contract |