CN112257063B - 一种基于合作博弈论的联邦学习中后门攻击的检测方法 - Google Patents
一种基于合作博弈论的联邦学习中后门攻击的检测方法 Download PDFInfo
- Publication number
- CN112257063B CN112257063B CN202011118184.3A CN202011118184A CN112257063B CN 112257063 B CN112257063 B CN 112257063B CN 202011118184 A CN202011118184 A CN 202011118184A CN 112257063 B CN112257063 B CN 112257063B
- Authority
- CN
- China
- Prior art keywords
- user
- value
- federal learning
- shapley
- users
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 30
- 238000012549 training Methods 0.000 claims abstract description 24
- 238000000034 method Methods 0.000 claims abstract description 14
- 230000006870 function Effects 0.000 claims description 13
- 238000005259 measurement Methods 0.000 claims description 7
- 238000013450 outlier detection Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000005070 sampling Methods 0.000 claims description 5
- 230000006872 improvement Effects 0.000 claims description 3
- 238000000342 Monte Carlo simulation Methods 0.000 claims description 2
- 230000007246 mechanism Effects 0.000 abstract description 10
- 230000008569 process Effects 0.000 abstract description 7
- 238000010801 machine learning Methods 0.000 description 9
- 230000002776 aggregation Effects 0.000 description 8
- 238000004220 aggregation Methods 0.000 description 8
- 238000009825 accumulation Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000012614 Monte-Carlo sampling Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 239000002994 raw material Substances 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010219 correlation analysis Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000007123 defense Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 231100000572 poisoning Toxicity 0.000 description 1
- 230000000607 poisoning effect Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000005303 weighing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/50—Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
- G06F21/55—Detecting local intrusion or implementing counter-measures
- G06F21/552—Detecting local intrusion or implementing counter-measures involving long-term monitoring or reporting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Computer Security & Cryptography (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computer Hardware Design (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Computer And Data Communications (AREA)
Abstract
本发明属于隐私保护的技术领域,公开了一种基于合作博弈论的联邦学习中后门攻击的检测方法,通过联邦学习中央服务器采集各个用户上传的每一轮训练轮次的模型梯度数据,然后利用合作博弈论中的Shapley值改进算法对每个用户的模型梯度数据进行计算,获得其对整体全局模型贡献程度的度量值,最后基于绝对离差中位数的离群检测算法,定量对得到的度量值进行后门攻击异常检测,从而判断对应的用户是否为攻击者。本发明的方法能在可以接受的时间开销范围内,准确检测出各种攻击配置下的针对联邦学习的隐蔽后门攻击,消除其对于整个联邦学习机制训练的影响,从而保证训练过程的安全和鲁棒性。
Description
技术领域
本发明涉及隐私保护的技术领域,尤其涉及一种基于合作博弈论的联邦学习中后门攻击的检测方法。
背景技术
随着机器学习技术的普及与泛用化,机器学习模型所需要的数据成了对于其使用者至关重要的资源。在实际生活中,移动互联网企业的机器学习相关产品,常常面临着数据量不足、数据质量差等困境,为了解决这一问题,自然需要更多的用户数据获取与流动,然而用户数据的获取与流动,势必会带来相关的隐私保护问题。因此,一个能够解决数据的获取和流通问题,同时能够保护数据所有者的个人隐私的机器学习机制是多方的迫切需要。
联邦学习(Federated Learning)机制就是在这样的背景下产生的,是一种在保证训练数据去中心化的前提下,使多个用户(移动设备拥有者或者组织与企业)在一个中央服务器的协调下,共同训练一个机器学习模型的框架。与传统的机器学习框架相比,联邦学习能够有效地减少数据隐私的泄露并能降低获取数据的成本。
然而,由于联邦学习机制是一个分布式的机器学习框架,由多方来合作完成同一个机器学习任务,其所得到的机器学习模型的质量与安全性就应该得到我们的关注。事实上,由于联邦学习特有的分布式数据聚合操作的存在以及训练场景特点的影响,潜在的攻击者很有可能利用这种特有的去中心化,来对共同训练的模型进行破坏,手段包括但不限于对抗样本攻击、数据集污染毒化以及本文主要研究的针对联邦学习机制的后门攻击(backdoor attack),从而在联邦学习框架的场景下,利用一系列针对用户上传数据的运算与分析操作,最终检测出攻击者的存在性、数量等信息,从而保护联邦学习模型的质量与安全性的检测机制就显得尤为重要。
发明内容
本发明是为了在联邦学习框架的运行过程中及时发现并处理攻击者带来的数据异常,从而降低或去除异常带来的风险和危害,提供一种基于合作博弈论的联邦学习中后门攻击的检测方法。
本发明可通过以下技术方案实现:
一种基于合作博弈论的联邦学习中后门攻击的检测方法,通过联邦学习中央服务器采集各个用户上传的每一轮训练轮次的模型梯度数据,然后利用合作博弈论中的Shapley值改进算法对每个用户的模型梯度数据进行计算,获得其对整体全局模型贡献程度的度量值,最后基于绝对离差中位数的离群检测算法,定量对得到的度量值进行后门攻击异常检测,从而判断对应的用户是否为攻击者。
进一步,定义上传模型梯度数据的所有用户组成原始用户集合,判断所述原始用户集合内部的用户数量和是否大于阈值,若是,利用蒙特卡洛方法对原始用户集合进行采样,构成新集合M,计算所述新集合M中各个用户的边际贡献度,取其平均值作为Shapley估计值,再计算每一个用户从训练开始到当前轮次的Shapley估计值的累加值,以所述累加值作为其对整体全局模型贡献程度的度量值;
否则,利用合作博弈论中的Shapley值算法对各个用户进行Shapley值计算,再计算每一个用户从训练开始到当前轮次的Shapley值的累加值,以所述累加值作为其对整体全局模型贡献程度的度量值。
进一步,假设将联邦学习系统抽象建模成一个合作博弈系统(N,v),其中,N表示每一个参与联邦学习的用户集合,v表示效用函数,
其中,v表示效用函数,R表示所有参与联邦学习的用户的某一种排列,所有的排列共有π(N)=|N|!种,Pi R表示以i结尾的按R排列的用户集合;
从所有参与联邦学习的用户的所有排列集合π(N)中等概率地抽取m个样本,构成新集合M,利用如下方程式,计算新集合中各个用户的Shapley估计值,
进一步,所述阈值设置为五。
本发明有益的技术效果在于:
本发明首先通过在联邦学习中央服务器上部署的框架采集各个用户上传的每一轮训练轮次的模型梯度信息作为检测的原料,然后利用本发明提出的累加Shapley值对每个用户的梯度数据进行计算,从而得出其对整体全局模型贡献程度的科学的度量值,最后再基于绝对离差中位数的离群检测算法,定量对得到的度量值进行后门攻击的异常检测。如果异常程度在阈值范围之内,则判断不存在攻击者,继续进行正常的模型训练;若异常程度超出阈值,则报告攻击者的数量、攻击强度等信息,将攻击者的相关数据去除后再进行训练。同时本发明还对检测方法的时间性能进行了优化,使其更具实用性,能在可以接受的时间开销范围内,准确检测出各种攻击配置下的针对联邦学习的隐蔽后门攻击,消除其对于整个联邦学习机制训练的影响,从而保证训练过程的安全和鲁棒性。
附图说明
图1为本发明的总体流程框图;
图2为将本发明的异常检测方法应用于联邦学习系统中的架构示意图。
具体实施方式
下面结合附图及较佳实施例详细说明本发明的具体实施方式。
参加附图1和2,本发明提供了一种基于合作博弈论的联邦学习中后门攻击的检测方法,针对联邦学习系统框架的特点,利用一系列针对用户上传数据的运算与分析操作,最终检测出攻击者的存在性、数量等信息,向联邦学习中央服务器的管理人员及时报告攻击者的相关情况,从而保护联邦学习系统的质量与安全性。本方法通过分析联邦学习机制的特点,借助对各类后门攻击原理和性质的分析,提出用累加的长期Shapley值进行用户上传梯度数据的度量,从而科学而有效地衡量了每个参与用户对整体模型的贡献程度,再基于这种贡献度度量运行离群检测算法,从检测的结果判断模型受后门攻击的情况。
整个检测算法部署在联邦学习的中央服务器上,并通过采样估计算法进行了性能优化,能在有效检测出攻击者的同时对系统性能产生最小影响。
该检测方法主要由四个步骤,分别为数据采集、贡献度分析、异常检测和性能优化,具体如下:
数据采集:
由联邦学习中央服务器上算法接收到的各个用户上传的每一轮训练轮次的模型梯度数据,以此为基准,进行后续的相关分析。
后门攻击异常检测系统被设计为在每一个联邦学习轮次自动读取上传至中央服务器的用户梯度数据并且在中央服务器上进行分析和异常检测的系统。为了进行后续的分析综合,首先需要有效地取得作为分析原材料的模型梯度数据,通过部署在联邦学习中央服务器上的数据收集模块,能够在服务器还没有进行模型聚合的时刻提前取得各用户的数据。这部分取得的数据会首先进入本发明中提出的异常检测系统,进入异常检测系统之后,程序算法会依次进行贡献程度的度量和异常值检测的算法流程,最后根据得到的贡献度量值是否超过阈值来给出一个分析结果,连同用户的梯度数据一同发送给联邦学习中央服务器的聚合模块。联邦学习中央服务器会根据这个分析结果来确定是否有攻击者的存在以及攻击的方式和具体设置,从而调整模型聚合的策略,如此就能保证整体模型不受到攻击者的破坏和渗透。
贡献度分析:
对前期收集到的模型梯度数据利用合作博弈论中Shapley值以及相关的累加改进算法作为衡量贡献程度的指标,分析上传数据的历史性长期表现,构建出累加Shapley值随训练轮数变化的关系模型,并做出变化关系图。
贡献度分析基于的主要假设是将联邦学习系统抽象建模成一个合作博弈系统(N,v),其中,N指的是每一个联邦学习的参与者集合,包括正常的用户和潜在的攻击者,v则是效用函数,定义为一组用户S如果进行合作,联邦学习中央服务器单独只通过聚合算法将它们上传的参数权重即训练后本地模型数据进行聚合后更新整体模型时,整体模型在中央服务器的测试集上所取得的准确率数值,即
v(S)=accuracy(aggregate(S)), (2)
其中,accuracy代表模型的测试集准确率,而aggregate代表中央服务器的聚合操作。此处的效用函数v和合作学习初始定义中的要求有些许不同,因为此时空集的效用函数并不等于0,而我们采用这种效用函数的原因是联邦学习实际需要的要求。在联邦学习中,能够衡量用户对于整体模型贡献程度最直观的方式就是在整体模型测试集上所取得的准确率,而准确率的数值在系统运行起来之后整体会呈现出上升的趋势。因此,在开始联邦学习后,空集,也就是不进行模型聚合操作的整体模型准确率必然不可能为0,此时的效用函数就是一个根据实际需要引入了以初始准确率为基准的偏移量的效用函数。
同时,基于Shapley值的等价定义,也可以计算如下:
其中,v为式(2)中定义的效用函数,R是所有参与联邦学习的用户的某一种排列,所有的排列共有π(N)=|N|!种,而Pi R则是以i结尾的按R排列的用户集合。利用Shapley值和合作学习模型的优点是合理应用了联邦学习与合作学习之间的相似性和概念的类比,科学且公平地衡量了每个用户的贡献值,准确地表达出了在繁杂训练过程下隐藏的真正贡献程度。
随后,我们会计算每一个用户从训练开始到当前轮次的Shapley值的累加值,以这个累加值为衡量其贡献程度的指标。第i个用户在第t轮的累加Shapley值,假设累加开始轮次为t0,可以计算如下:
这种操作的优点在于,可以有效防止联邦学习中的随机性和不稳定性对贡献度量带来的影响。这种影响具体表现在,虽然直观的Shapley值虽然可以在某种程度上体现出每一个用户在该轮训练中对整体模型的贡献程度,但是数值会非常小,攻击者和正常用户彼此之间的差别也会很细微,同时在联邦学习刚刚开始的若干轮中,每个用户上传的梯度数据受到本身本地模型的初始化随机性的影响较大,所以在开始几轮中用户数据往往会呈现出很大的波动性,不是很有代表性,因此我们会在某一个特定轮次t0,一般为5到10轮后,再进行累加的操作。
经过这样的操作,我们就可以将微小的差异通过累加的方式加以放大,得到一个较为清晰的衡量指标。同时基于衡量值结果,此时我们会将每个用户的Shapley值的累加值关于训练轮次做一个折线图,在图中,我们可以直观地看出攻击者具有和正常用户完全不同的折线。
异常检测:
针对后门攻击的异常检测系统,使用前面步骤中计算所得的累加值来进行绝对离差中位数离群检测算法,得出一个基于该算法的异常度值,将该异常度值与设定好的异常阈值进行对比,通过是否超过阈值来判断联邦学习系统中是否有后门攻击者的存在。
异常检测模块的主要算法是绝对离差中位数离群检测算法即MAD算法。在统计学中,绝对离差中位数是对于量化数据的单变量样本变异性的一种稳健度量,在实际操作中,我们所用到的基于绝对离差中位数得到的样本点距中心度量距离值可以计算如下:
在特定的几个训练轮次(一般是训练后期的轮次)时,例如t=30,40,…时,我们以每个用户Shapley值的累加值作为输入样本,执行MAD离群检测,计算出公式(6)中的度量值。得到了这些距离值后,中央服务器就可以检测是否有在阈值(一般为2左右)之外的离群样本点,若发现有扎样的异常点存在,就可以将其标记为攻击者,从而将该用户的上传数据从之后的模型聚合操作中去除,以实现对于后门攻击的防御。
这种异常检测机制的优点在于,准确地、定量地给出了每个用户异常程度的度量值。在贡献度分析步骤中,我们只可以直观地从图中看出攻击者的存在,而在异常检测算法的加持下,攻击者的异常程度度量能够清晰地被检测出来,也为之后去除攻击者的影响提供了较为牢靠的理论依据,从而大大提升了异常检测的准确率和模型的鲁棒性。
性能优化:
在进行贡献度分析的过程中,我们会采取基于蒙特卡洛采样的方法对算法的时间复杂度进行优化,保证该算法能够在联邦学习的中央服务器上正常高效地运行并能有效地检测出攻击者的存在。
在贡献度分析步骤中,我们需要计算每一个用户的Shapley值,但是注意到式(4)中的Shapley值计算过程中需要用到阶乘和全排列操作,其中阶乘操作的结果会很大,而全排列操作会带来O(N!)的阶乘时间复杂度,这在对性能要求严格地联邦学习机制中是不可接受的,于是我们需要通过对Shapley值的运算加以改进,提出对Shapley值的近似计算方法,从而降低计算的时间复杂度。
在实际操作中,我们采用蒙特卡洛采样的方式来解决计算复杂度问题。对于合作博弈(N,v),我们首先准备好采样来源,即N个参与者的全排列集合π(N),从其中等概率地取m个样本,构成新集合M,然后对于每个样本O,计算每一个参与者i的边际贡献度最后对于所有的样本,将每个参与者的边际贡献度取平均,得到每个参与者近似的Shapley值:
可以证明,这种估计是无偏且一致的。通过这种方式,我们可以在较短的时间内(取决于取样数量),得到Shapley值的估计值。在我们的算法中,在用户数少于5个时,不进行取样,而是直接计算准确地Shapley值,而在用户数大于等于5个时,将取样数量设为用户数的平方根和100中较小的值,即
技术人员应当理解,这些仅是举例说明,在不背离本发明的原理和实质的前提下,可以对这些实施方式做出多种变更或修改,因此,本发明的保护范围由所附权利要求书限定。
Claims (2)
1.一种基于合作博弈论的联邦学习中后门攻击的检测方法,其特征在于:通过联邦学习中央服务器采集各个用户上传的每一轮训练轮次的模型梯度数据,然后利用合作博弈论中的Shapley值改进算法对每个用户的模型梯度数据进行计算,获得其对整体全局模型贡献程度的度量值,最后基于绝对离差中位数的离群检测算法,对得到的度量值进行后门攻击异常检测,从而判断对应的用户是否为攻击者;
定义上传模型梯度数据的所有用户组成原始用户集合,判断所述原始用户集合内部的用户数量和是否大于阈值,若是,利用蒙特卡洛方法对原始用户集合进行采样,构成新集合M,计算所述新集合M中各个用户的边际贡献度,取其平均值作为Shapley估计值,再计算每一个用户从训练开始到当前轮次的Shapley估计值的累加值,以所述累加值作为其对整体全局模型贡献程度的度量值;
否则,利用合作博弈论中的Shapley值算法对各个用户进行Shapley值计算,再计算每一个用户从训练开始到当前轮次的Shapley值的累加值,以所述累加值作为其对整体全局模型贡献程度的度量值。
其中,v表示效用函数,R表示所有参与联邦学习的用户的某一种排列,所有的排列共有π(N)=|N|!种,Pi R表示以i结尾的按R排列的用户集合;
从所有参与联邦学习的用户的所有排列集合π(N)中等概率地抽取m个样本,构成新集合M,利用如下方程式,计算新集合中各个用户的Shapley估计值:
2.根据权利要求1所述的基于合作博弈论的联邦学习中后门攻击的检测方法,其特征在于:所述阈值设置为五。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011118184.3A CN112257063B (zh) | 2020-10-19 | 2020-10-19 | 一种基于合作博弈论的联邦学习中后门攻击的检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011118184.3A CN112257063B (zh) | 2020-10-19 | 2020-10-19 | 一种基于合作博弈论的联邦学习中后门攻击的检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112257063A CN112257063A (zh) | 2021-01-22 |
CN112257063B true CN112257063B (zh) | 2022-09-02 |
Family
ID=74244896
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011118184.3A Active CN112257063B (zh) | 2020-10-19 | 2020-10-19 | 一种基于合作博弈论的联邦学习中后门攻击的检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112257063B (zh) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112990478B (zh) * | 2021-02-22 | 2022-08-26 | 上海嗨普智能信息科技股份有限公司 | 联邦学习数据处理系统 |
CN112926088B (zh) * | 2021-03-18 | 2024-03-19 | 之江实验室 | 一种基于博弈论的联邦学习隐私策略选择方法 |
CN113158251B (zh) * | 2021-04-30 | 2022-10-11 | 上海交通大学 | 应用程序隐私泄露检测方法、系统、终端及介质 |
CN113298404A (zh) * | 2021-06-03 | 2021-08-24 | 光大科技有限公司 | 联邦学习参与方工作量确定方法及装置 |
CN113221105B (zh) * | 2021-06-07 | 2022-09-30 | 南开大学 | 一种基于部分参数聚合的鲁棒性联邦学习算法 |
CN113642034A (zh) * | 2021-06-25 | 2021-11-12 | 合肥工业大学 | 基于横纵向联邦学习的医疗大数据安全共享方法和系统 |
CN113421251A (zh) * | 2021-07-05 | 2021-09-21 | 海南大学 | 一种基于肺部ct影像的数据处理方法及系统 |
CN113627619B (zh) * | 2021-07-07 | 2024-06-07 | 南京理工大学 | 基于伪噪声序列的保障联邦学习系统的公平性的方法 |
CN113553582A (zh) * | 2021-07-14 | 2021-10-26 | 中国人民解放军战略支援部队信息工程大学 | 恶意攻击检测方法、装置及电子设备 |
CN113554182B (zh) * | 2021-07-27 | 2023-09-19 | 西安电子科技大学 | 一种横向联邦学习系统中拜占庭节点的检测方法及系统 |
CN113779563A (zh) * | 2021-08-05 | 2021-12-10 | 国网河北省电力有限公司信息通信分公司 | 联邦学习的后门攻击防御方法及装置 |
CN113704768A (zh) * | 2021-08-10 | 2021-11-26 | 深圳致星科技有限公司 | 联邦学习执行流程的安全审计方法、装置及系统 |
CN113947213A (zh) * | 2021-10-19 | 2022-01-18 | 中国电信股份有限公司 | 联邦学习参与方贡献度量方法、装置、存储介质及设备 |
CN114091356B (zh) * | 2022-01-18 | 2022-05-20 | 北京邮电大学 | 一种联邦学习方法及装置 |
CN114663730B (zh) * | 2022-04-01 | 2023-04-18 | 中国工程物理研究院计算机应用研究所 | 一种基于博弈交互的对抗样本检测方法及系统 |
CN116245172B (zh) * | 2023-03-14 | 2023-10-17 | 南京航空航天大学 | 跨孤岛联邦学习中优化个体模型性能的联盟组建方法 |
CN117892843B (zh) * | 2024-03-18 | 2024-06-04 | 中国海洋大学 | 基于博弈论与密码学的机器学习数据遗忘方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110008696A (zh) * | 2019-03-29 | 2019-07-12 | 武汉大学 | 一种面向深度联邦学习的用户数据重建攻击方法 |
KR20190096872A (ko) * | 2019-07-31 | 2019-08-20 | 엘지전자 주식회사 | 연합학습(Federated learning)을 통한 필기체 인식방법 및 이를 위한 장치 |
CN110276210A (zh) * | 2019-06-12 | 2019-09-24 | 深圳前海微众银行股份有限公司 | 基于联邦学习的模型参数的确定方法及装置 |
CN110633570A (zh) * | 2019-07-24 | 2019-12-31 | 浙江工业大学 | 面向恶意软件汇编格式检测模型的黑盒攻击的防御方法 |
CN111262887A (zh) * | 2020-04-26 | 2020-06-09 | 腾讯科技(深圳)有限公司 | 基于对象特征的网络风险检测方法、装置、设备及介质 |
CN111460443A (zh) * | 2020-05-28 | 2020-07-28 | 南京大学 | 一种联邦学习中数据操纵攻击的安全防御方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11194910B2 (en) * | 2018-11-02 | 2021-12-07 | Microsoft Technology Licensing, Llc | Intelligent system for detecting multistage attacks |
CN110647918B (zh) * | 2019-08-26 | 2020-12-25 | 浙江工业大学 | 面向深度学习模型对抗攻击的拟态防御方法 |
CN110503207A (zh) * | 2019-08-28 | 2019-11-26 | 深圳前海微众银行股份有限公司 | 联邦学习信用管理方法、装置、设备及可读存储介质 |
CN113268776B (zh) * | 2019-12-09 | 2023-03-07 | 支付宝(杭州)信息技术有限公司 | 基于区块链的模型联合训练方法及装置 |
CN111445031B (zh) * | 2020-03-31 | 2021-07-27 | 深圳前海微众银行股份有限公司 | 一种应对攻击的方法及联邦学习装置 |
CN111625820A (zh) * | 2020-05-29 | 2020-09-04 | 华东师范大学 | 一种基于面向AIoT安全的联邦防御方法 |
-
2020
- 2020-10-19 CN CN202011118184.3A patent/CN112257063B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110008696A (zh) * | 2019-03-29 | 2019-07-12 | 武汉大学 | 一种面向深度联邦学习的用户数据重建攻击方法 |
CN110276210A (zh) * | 2019-06-12 | 2019-09-24 | 深圳前海微众银行股份有限公司 | 基于联邦学习的模型参数的确定方法及装置 |
CN110633570A (zh) * | 2019-07-24 | 2019-12-31 | 浙江工业大学 | 面向恶意软件汇编格式检测模型的黑盒攻击的防御方法 |
KR20190096872A (ko) * | 2019-07-31 | 2019-08-20 | 엘지전자 주식회사 | 연합학습(Federated learning)을 통한 필기체 인식방법 및 이를 위한 장치 |
CN111262887A (zh) * | 2020-04-26 | 2020-06-09 | 腾讯科技(深圳)有限公司 | 基于对象特征的网络风险检测方法、装置、设备及介质 |
CN111460443A (zh) * | 2020-05-28 | 2020-07-28 | 南京大学 | 一种联邦学习中数据操纵攻击的安全防御方法 |
Non-Patent Citations (3)
Title |
---|
An Ensemble Approach for Suspicious Traffic Detection from High Recall Network Alerts;Peilin Wu;《2019 IEEE International Conference on Big Data》;20191212;全文 * |
Matthew Joslin ; Haojin Zhu.Measuring and Analyzing Search Engine Poisoning of Linguistic Collisions.《2019 IEEE Symposium on Security and Privacy (SP)》.2019, * |
面向图计算的内存系统优化技术综述;王靖,朱浩瑾;《中国科学: 信息科学》;20191231;第295-312页 * |
Also Published As
Publication number | Publication date |
---|---|
CN112257063A (zh) | 2021-01-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112257063B (zh) | 一种基于合作博弈论的联邦学习中后门攻击的检测方法 | |
CN111163057B (zh) | 一种基于异构信息网络嵌入算法的用户识别系统及方法 | |
CN108965055B (zh) | 一种基于历史时间取点法的网络流量异常检测方法 | |
WO2018076571A1 (zh) | Lte网络中的异常值检测方法及系统 | |
CN107493277B (zh) | 基于最大信息系数的大数据平台在线异常检测方法 | |
CN104036360B (zh) | 一种基于磁卡考勤行为的用户数据处理系统及处理方法 | |
CN112132233A (zh) | 一种基于有效影响因子的服刑人员危险行为预测方法及系统 | |
CN101645884A (zh) | 基于相对熵理论的多测度网络异常检测方法 | |
CN117439827B (zh) | 一种网络流量大数据分析方法 | |
CN112217650B (zh) | 网络阻塞攻击效果评估方法、装置及存储介质 | |
CN116627707A (zh) | 一种用户异常操作行为的检测方法及系统 | |
CN116957049B (zh) | 基于对抗自编码器的无监督内部威胁检测方法 | |
CN109767351A (zh) | 一种电力信息系统日志数据的安全态势感知方法 | |
CN111726350B (zh) | 基于vae和bpnn的内部威胁检测方法 | |
CN113542236A (zh) | 一种基于核密度估计和指数平滑算法的异常用户检测方法 | |
CN110290101B (zh) | 智能电网环境中基于深度信任网络的关联攻击行为识别方法 | |
Neshenko et al. | A behavioral-based forensic investigation approach for analyzing attacks on water plants using GANs | |
CN117407880A (zh) | 基于合成生物安全数据库的风险评估平台 | |
CN114679310A (zh) | 一种网络信息安全检测方法 | |
CN110737890B (zh) | 一种基于异质时序事件嵌入学习的内部威胁检测系统及方法 | |
CN117749409A (zh) | 一种大规模网络安全事件分析系统 | |
CN111865899B (zh) | 威胁驱动的协同采集方法及装置 | |
US20230409422A1 (en) | Systems and Methods for Anomaly Detection in Multi-Modal Data Streams | |
Gao et al. | The prediction role of hidden markov model in intrusion detection | |
CN116128690B (zh) | 一种碳排放量成本值计算方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |