CN116015788A - 一种基于主动探测的恶意流量防护方法及系统 - Google Patents
一种基于主动探测的恶意流量防护方法及系统 Download PDFInfo
- Publication number
- CN116015788A CN116015788A CN202211606900.1A CN202211606900A CN116015788A CN 116015788 A CN116015788 A CN 116015788A CN 202211606900 A CN202211606900 A CN 202211606900A CN 116015788 A CN116015788 A CN 116015788A
- Authority
- CN
- China
- Prior art keywords
- malicious
- sample
- model
- flow
- discriminator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 51
- 238000000034 method Methods 0.000 title claims abstract description 37
- 238000012549 training Methods 0.000 claims abstract description 49
- 238000006467 substitution reaction Methods 0.000 claims description 13
- 230000006399 behavior Effects 0.000 abstract description 2
- 239000000523 sample Substances 0.000 description 88
- 238000010801 machine learning Methods 0.000 description 20
- 230000003042 antagnostic effect Effects 0.000 description 10
- 238000012360 testing method Methods 0.000 description 10
- 238000013527 convolutional neural network Methods 0.000 description 6
- 238000002474 experimental method Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000008485 antagonism Effects 0.000 description 4
- 238000003066 decision tree Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 4
- 238000007477 logistic regression Methods 0.000 description 4
- 238000007637 random forest analysis Methods 0.000 description 4
- 238000012706 support-vector machine Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 208000009119 Giant Axonal Neuropathy Diseases 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 201000003382 giant axonal neuropathy 1 Diseases 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000013112 stability test Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Landscapes
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
本发明涉及一种基于主动探测的恶意流量防护方法及系统,其方法包括:S1:攻击者输入原始流量样本到恶意流量防护模型,在黑盒攻击场景下攻击恶意流量防护模型,输出原始流量样本的标签;S2:构建替代模型,包括:生成器G和鉴别器D;提取原始流量样本的时间序列和长度序列构建具有时空特征流量样本,输入鉴别器D,输出原始流量样本的类别:恶意或良性;S3:对替代模型进行训练,使得生成器G生成对抗样本,鉴别器D识别对抗样本是恶意还是良性;S4:将对抗样本输入恶意流量防护模型,如果输出对抗样本的类别不正确,则重复执行步骤S2~S4,直到防护模型无法识别生成的对抗样本。本发明提供的方法可有效检测恶意行为,提高防护模型的鲁棒性。
Description
技术领域
本发明涉及网络安全技术领域,具体涉及一种基于主动探测的恶意流量防护方法及系统。
背景技术
恶意流量防护模型是网络管理和网络安全中必不可少的技术。传统的基于规则的检测方法用于识别已知的恶意流量,但它们不适应不断变化的攻击模式。近年来,机器学习尤其是深度学习算法推动了恶意流量检测的发展。通常,会提取网络流量特征,并基于机器学习算法离线训练检测模型。然后将训练好的模型部署用于在线恶意流量检测。基于机器学习的模型可以根据时空流量特征准确识别恶意流量,相对于传统基于规则的检测方法,具有更强的泛化性。
尽管基于机器学习的模型具有很好的检测能力,但机器学习仍有一些缺点。一些研究人员已经证明,基于机器学习的模型极易受到对抗样本攻击。在计算机视觉中,Szegedy首先提出了对抗样本的概念。他们发现原始图像上的小扰动会误导机器学习系统对图像进行错误分类。近年来,关于对抗样本攻击的研究越来越多,许多学者生成对抗样本来评估机器学习模型,进而提高模型的鲁棒性。攻击者可以通过向恶意样本中添加精心制造的微小扰动,即可实现对机器学习模型的欺骗。但是防御方也可以提前生成对抗样本,并重训练防护模型,以抵御对抗样本的攻击。对抗样本攻击目前已经成为一项重要的机器学习稳定性测试。
实现针对恶意流量防护模型的对抗样本攻击比其他领域更具挑战性,有两个主要原因。首先,只能在特征空间中生成对抗样本来欺骗检测模型,但很难将对抗样本映射到流量空间。例如,某些统计特征(流的平均长度,每秒传输的字节数)无法映射到原始流量。其次,攻击应确保修改后的恶意流量不会破坏通信协议规则。例如,每个协议层都包含协议头和有效载荷,协议头具有固定的格式。
现有的一些针对恶意流量防护模型的对抗样本攻击已经可以检测模型的鲁棒性,但是这些方法在实际场景中存在着一些问题。首先,尽管一些攻击方法声称它们是没有先验知识的黑盒攻击,但对抗性攻击是在目标模型的知识下使用的,例如基于机器学习的模型的参数、使用的特征和训练的数据集。这些方法包含不切实际的假设,导致不真实的攻击场景。其次,一些方法通过修改交通特征来混淆基于机器学习的模型。但是,仅仅修改特征是没有意义的,特征很难映射到原始流量。最后,一些方法可以产生对抗性的恶意流量,但这种流量可能不实用。不是用的流量意味着它破坏了通信规则或失去了恶意。比如修改了TCP流量的前几个包的方向,导致三次握手失败,不符合TCP协议规则。另一个例子是Botnet流量的payload中含有大量的通讯恶意指令,如果篡改了这部分payload,将会使得恶意指令无效,Botnet流量失去其恶意性质。因此,关于对抗攻击的探测场景不实际、生成的样本不实用成为一个亟待解决的问题。
发明内容
为了解决上述技术问题,本发明提供一种基于主动探测的恶意流量防护方法及系统。
本发明技术解决方案为:一种基于主动探测的恶意流量防护方法,包括:
步骤S1:攻击者输入原始流量样本到恶意流量防护模型,在黑盒攻击场景下攻击所述恶意流量防护模型,输出所述原始流量样本的标签;
步骤S2:构建替代模型,包括:生成器G和鉴别器D;提取所述原始流量样本的时间序列和长度序列构建具有时空特征流量样本,输入所述鉴别器D,输出所述原始流量样本的类别:恶意或良性;
步骤S3:对所述替代模型进行训练,使得所述生成器G生成对抗样本,所述鉴别器D识别所述对抗样本是恶意的还是良性的;
步骤S4:将所述对抗样本输入所述恶意流量防护模型,如果输出所述对抗样本的类别不正确,则重复执行步骤S2~S4,直到所述恶意流量防护模型无法识别生成的所述对抗样本是恶意的还是良性的,将生成的所述对抗样本与所述原始流量样本混合后,重训练所述恶意流量防护模型。
本发明与现有技术相比,具有以下优点:
1、本发明公开了一种基于主动探测的恶意流量防护方法,所需要的先验知识较少,在无需知道防护模型的模型架构、模型参数情况下之外,也不需要知道防护模型使用的训练集、使用的特征,就可完成主动攻击探测。
2、本发明公开的方法基于WGAN模型设计了替代模型以及对应的损失函数。利用替代模型的生成器与鉴别器的对抗性训练,可以生成更加具有对抗性的样本,能够发现防护模型的更多漏洞;且生成的对抗样本具有实用性,生成对抗样本只需要符合通信协议规则,即可正常传输。
3、本发明公开的方法能够通过主动探测的方法,使用生成的对抗样本重训练防护模型,可以有效提高防护模型的鲁棒性,提高检测对抗性流量与变种恶意流量的能力。
附图说明
图1为本发明实施例中一种基于主动探测的恶意流量防护方法的流程图;
图2为本发明实施例中一种基于主动探测的恶意流量防护方法的框架示意图;
图3为本发明实施例中9种防护模型在使用Random攻击、DIGFuPas攻击和本发明方法生成对抗样本攻击后的检测率;
图4为本发明实施例中一种基于主动探测的恶意流量防护系统的结构框图。
具体实施方式
本发明提供了一种基于主动探测的恶意流量防护方法,有效检测变种恶意流量、对抗样本流量等恶意行为,提高了防护模型的鲁棒性。
为了使本发明的目的、技术方案及优点更加清楚,以下通过具体实施,并结合附图,对本发明进一步详细说明。
实施例一
如图1所示,本发明实施例提供的一种基于主动探测的恶意流量防护方法,包括下述步骤:
步骤S1:攻击者输入原始流量样本到恶意流量防护模型,在黑盒攻击场景下攻击恶意流量防护模型,输出原始流量样本的标签;
步骤S2:构建替代模型,包括:生成器G和鉴别器D;提取原始流量样本的时间序列和长度序列构建具有时空特征流量样本,输入鉴别器D,输出原始流量样本的类别:恶意或良性;
步骤S3:对替代模型进行训练,使得生成器G生成对抗样本,鉴别器D识别对抗样本是恶意的还是良性的;
步骤S4:将对抗样本输入恶意流量防护模型,如果输出对抗样本的类别不正确,则重复执行步骤S2~S4,直到恶意流量防护模型无法识别生成的对抗样本是恶意的还是良性的,将生成的对抗样本与原始流量样本混合后,重训练恶意流量防护模型。
在一个实施例中,上述步骤S1:攻击者输入原始流量样本到恶意流量防护模型,在黑盒攻击场景下攻击恶意流量防护模型,输出原始流量样本的标签,具体包括:
由于攻击者不知道作为目标模型的恶意流量防护模型及其参数,因此,攻击者输入原始流量样本到恶意流量防护模型,盲目地向恶意流量防护模型进行黑盒攻击。而且攻击者不知道目标模型使用的训练集。因此,所使用的恶意流量很有可能是与训练集不同的数据源,同时,目标模型所提取的特征和所使用的模型对攻击者是不可见的。这意味着攻击者不能专门攻击目标。攻击者只能获得的是每个输入流的标签。在实际场景中是可以得到这个标签,因为防火墙会屏蔽流量检测检测到的恶意流量,而忽略未检测到的恶意流量。
在一个实施例中,上述步骤S2:构建替代模型,包括:生成器G和鉴别器D;提取原始流量样本的时间序列和长度序列构建具有时空特征流量样本,输入鉴别器D,输出原始流量样本的类别:恶意或良性,具体包括:
步骤S21:基于原始流量样本的时间序列和长度序列作构建具有时空特征流量样本;
本发明分别选择原始流量样本的数据包时间序列和长度序列构建时空特征,主要基于以下两方面原因:
首先,时空特征是大多数基于机器学习的流量检测模型所使用的特征。大多数时空特征,如某些统计特征(每秒字节数、流量持续时间),都是基于时间序列和长度序列进行抽象的。因此,基于时间序列和长度序列的替代模型可以更好地模拟恶意流量防护模型。其次,时间序列和空间序列更容易映射到实际的交通空间。
步骤S22:基于WGAN模型构建替代模型,包括生成器G和鉴别器D;将具有时空特征流量样本输入本鉴别器D,输出为其类别:恶意或良性;同时,构建鉴别器D的损失函数LD用于训练鉴别器D:
表示良性样本集合;D(·)表示鉴别器。
本发明基于WGAN模型构建替代模型,因为该替代模型可以在后续步骤S3的对抗训练中再次训练,而不是静止不动。作为替代模型中的鉴别器首先在本步骤进行预训练,以模拟防护模型的决策边界,可以驱动生成器在对抗训练中生成更多的对抗样本,从而促进后续的对抗训练。
在一个实施例中,上述步骤S3:对替代模型进行训练,使得生成器G生成对抗样本,鉴别器D识别对抗样本是恶意的还是良性的,具体包括:
步骤S31:将随机序列seed输入生成器G,输出恶意样本,在加入扰动后生成对抗样本:
构建生成器G的损失函数LG用于训练生成器G:
步骤S32:将对抗样本输入鉴别器D进行鉴别,输出为其类别:恶意或良性,构建损失函数L'D用于训练鉴别器D:
本发明的替代模型中的生成器G用于生成具有对抗性时空特征的对抗样本。如图2所示,G的输入采用的是随机序列seed,通过不断变化的seed来提高G生成样本的多样性,在G输出基础上加上扰动,再与原始恶意流量的时空特征进行结合,最终生成具有对抗性时空特征的对抗样本。鉴别器D用于识别对抗样本是恶意/对抗还是良性的。鉴别器D的输入是对抗样本和良性样本,输出是二元分类。本步骤对鉴别器D的训练与步骤S2的预训练不同的是,使用对抗样本取代了恶意样本作为鉴别器D的输入,而且构建了与步骤S2不同的损失函数L'D来训练鉴别器D。由于经过预训练,鉴别器D此时可以更快地收敛,对于对抗样本更加敏感。然后反馈给G和D进行相应的训练。G的目标是生成高度对抗性的样本来混淆D。本发明实施例通过10轮次的训练,保存对替代模型影响最大的模型。
在一个实施例中,上述步骤S4:将对抗样本输入恶意流量防护模型,如果输出对抗样本的类别不正确,则重复执行步骤S2~S4,直到恶意流量防护模型无法识别生成的对抗样本是恶意的还是良性的,将生成的对抗样本与原始流量样本混合后,重训练恶意流量防护模型,具体包括:
在实际应用中,为了生成真实的对抗性恶意流量,需要将对抗性时空特征映射至流量空间,因此本发明实施例设计了一套真实交通空间中的特征映射方法,使得长度和时间特征序列都受到限制,由此生成的对抗样本可以确保它们是实用的,使用生成的具有威胁性的对抗样本,与之前的原始恶意样本混合,组成新的恶意样本集,对防护模型重新训练,如果输出对抗样本的类别不正确,则重复执行步骤S2~S4,直到防护模型无法识别生成的对抗样本是恶意的还是良性的。最后将生成的对抗样本与原始流量样本混合后,重训练防护模型。使用本发明生成的对抗样本进行训练,可以弥补防护模型的漏洞,增强防护模型的泛化性。经过重训练的防护模型可以有效抵抗对抗性流量与变种恶意流量的攻击。
为了证明本发明的创新性,与已有的DIGFuPas攻击和随机扰动攻击进行了实验对比,实验显示本发明生成的对抗样本对抗性更强。本发明基于检测率(DR)、逃避增长率(EIR)共2个评估指标对对抗攻击模型的方法进行了评估。数据集的构建和实验结果的评估内容如下:
1)数据集和实验配置:
防护模型训练集选择:本发明选择众所周知的ISCX-Botnet数据集来训练防护模型。它是从真实的网络设备中捕获的,包括各种僵尸网络流量和良性流量。有两个独立的ISCX-Botnet子集可以用来训练和测试机器学习模型,称为ISCX-Botnet训练和测试。在本发明中只使用了ISCX-Botnet训练集。
防护模型特征选择:本发明使用NFStream作为目标模型的特征提取。NFStream是一个Python框架,提供快速、灵活和富有表现力的数据结构,旨在使用于网络流量管理的机器学习方法可再现和可部署。NFStream提供了基于流的统计特征提取的最新技术。它包含时间统计特征(最小、平均、最大的到达间隔时间)和空间统计特征(最小、平均、最大的报文大小)。即使攻击者知道这些统计特征并生成相应的对抗特征,也不可能将这些特征映射到真实的流量。在本发明中不关注黑箱模型使用了哪些特性,只需要修改报文长度和时间间隔就可以实现攻击。
防护模型架构选择:为了更全面地检测对抗攻击的性能,选取了目前主流的9个机器学习模型作为黑盒防护模型,包括逻辑回归(LR)、支持向量机(SVM)、朴素贝叶斯(NB)、决策树(DT)、随机森林(RF)、k-最近邻(KNN)、多层感知器(机器学习P)、卷积神经网络(CNN)、循环神经网络(RNN)模型。总之,本发明使用ISCX-Botnet数据集来训练防护模型。防护模型的输入是来自NFStream的统计特征,这是重新映射的挑战。九种不同的型号,以确保多功能性。攻击者只能使用来自训练集以外的其他来源的CTU-13数据集来测试黑匣子目标。然后,攻击者通过标签在本地建立替代模型,进行对抗攻击,生成对抗性流量。最后,将对抗流量作为黑盒模型的输入,输出结果来测试攻击效果。
主动探测数据集选择:本发明选择CTU-13数据集作为对抗性攻击数据。CTU-13数据集对混合了正常流量和后台流量的真实僵尸网络流量进行了大量捕获。这里主要选择了两个主要的僵尸网络(Rbot和Neris)来测试和生成对抗样本。选择这两个僵尸网络的原因是训练集主要由这两个僵尸网络组成。经过训练的检测器可以更好地检测出这两种恶意流量,便于进行对抗性攻击。此外,测试集与训练集不相交。测试集和训练集的流量来源完全不同。通过这种方式,模拟了攻击者对目标模型的训练集完全不可知的场景。
2)实验评估指标:
对于评估指标,本发明使用检测率(DR)和逃避增长率(EIR)。如下所示,检测率DR为防护模型正确检测到的恶意流量记录Ndetected占所有攻击记录N的比例,直接反映了对抗样本的逃逸能力和防护模型的鲁棒性。
如下面公式所示,逃避增长率EIR是对抗样本的检测率(DRadv)与原始恶意样本检测率(DRo)相比的增长率,用来衡量的规避攻击对于防护模型的干扰程度。
较低的DR表示更多恶意或对抗样本可以逃脱防护模型。相反,更高的EIR表示比原始恶意样本更多的对抗样本可以逃脱防护模型。因此,对抗攻击的目标是获得较低的DR和较高的EIR。
3)参数分析:
实验超参数:根据经验和以往的实验,确定了攻击模型的一些基本参数。对于替代模型,训练轮次epoch大小为50,批大小batch_size为128,鉴别器和生成器的学习率均lr为0.0001,鉴别器训练的切割权阈值为0.01。实验随机使用一半的数据进行对抗训练,另一半用于测试。替代模型每10个epoch测试一次结果,保存对替代模型干扰最大的攻击模型。和最基本的GANs一样,生成器和鉴别器是多层神经网络,其中生成的层数为5层,鉴别器为4层。
4)实验结果:
如图3,输入CTU-13原始恶意流量至已经训练好的防护模型中,获得每条流量的标签,针对两种不同的恶意流量,实验结果如下表所示。本发明评估了9种机器学习的防护模型的检测能力。如表1所示,在Neris僵尸网络的各种模型上,检测率可以达到90.69%-99.48%。对于Rbot僵尸网络,DR的检测率达91.13%-99.88%。总体而言,基于机器学习的防护模型能够很好地识别出原始恶意流量。
表1:9种防护模型的检测率
类型 | 指标 | LR | SVM | NB | DT | RF | KNN | MLP | CNN | RNN | 平均 |
Neris | DR(%) | 90.69 | 98.65 | 99.60 | 97.69 | 98.13 | 99.48 | 91.65 | 97.54 | 96.92 | 96.71 |
RBOT | DR(%) | 91.13 | 97.33 | 98.35 | 99.81 | 99.88 | 99.78 | 91.89 | 95.98 | 94.51 | 96.51 |
根据CTU13流量和防护模型反馈的标签训练替代模型。随机选择50%的流量用于训练替代模型,其余50%的流量用于下一阶段的攻击。从每一条流当中,获得报文的时间序列和长度序列,提取出特征向量。训练5epochs,保存检测率结果最高的模型作为替代模型。攻击需要模拟目标模型的特征,以尽可能接近地模拟目标模型的决策边界。
如表2所示,对抗性攻击可以强烈干扰防护模型。对于Neris僵尸网络,防护模型的平均DR从96.71%下降到37.47%。对抗样本平均可以得到61.53%的EIR。对于防护模型KNN和NB的对抗性攻击效应不明显。这是因为KNN和NB模型的原始DR非常高,因此用于构建替代模型的信息非常少。此外,CNN和RNN模型的EIR也很低。这是因为CNN和RNN模型更加复杂,泛化能力更强,所以相对来说比较难被攻击。对于Rbot僵尸网络,防护模型的平均DR从96.51%下降到29.94%。样本平均可以得到69.53%的EIR。同样,很难攻击具有高原始DR的模型,如RFC、NB和KNN模型。总的来说,该对抗攻击对基于机器学习的防护模型具有显著的对抗效果。
表2:使用对抗样本攻击的9种防护模型的检测率
对比实验:在本发明中比较了两种攻击实验:Random攻击和优秀的对抗流量攻击方法DIGFuPas攻击。
Random攻击是一种简单而直接的攻击方法。攻击者试图通过对原始流量随机添加扰动来攻击黑盒模型。在本发明中,随机修改流量的包长度和时间间隔。如图3所示,大多数模型的DR仍然高于80%,甚至有些模型的DR比原来样本更高。这说明基于机器学习的流量防护模型具有较强的鲁棒性,盲目扰动对防护模型不会产生很大的干扰。
DIGFuPas攻击是一种使用WGAN生成流量特征的强大流量对抗攻击方法,取得了良好的对抗效果。原始的DIGFuPas攻击不能直接用于生成真正的对抗流量。在本发明中,通过攻击替代模型,使用DIGFuPas生成流量的包长度和时间间隔,间接实现攻击。
图3展示了9种防护模型在使用Random攻击、DIGFuPas攻击和本发明方法生成对抗样本攻击后的检测率。DIGFuPas在一些防护模型中有很好的EIR。但是在9种检测模型中,DIGFuPas的DR平均值比本发明低15.71%,EIR比本发明低16.48%。结果证明了本发明的优越性。这是因为本发明的替代模型可以与攻击模型一起训练,而DIGFuPAS方法则不能。
最后,重训练防护模型并测试重训练后的防护模型。使用生成的具有威胁性的对抗样本,与之前的原始恶意样本混合,组成新的恶意样本集,重新训练旧的防护模型,对于对抗样本的检测率如表3所示,可以看出,经过重训练后,防护模型对于对抗样本的检测率大幅提高,具有更强的鲁棒性。
表3:经过重训练的9种防护模型的检测率
类型 | 指标 | LR | SVM | NB | DT | RF | KNN | MLP | CNN | RNN | 平均 |
Neris | DR(%) | 90.92 | 91.23 | 92.32 | 91.44 | 93.51 | 90.80 | 91.85 | 92.10 | 91.27 | 91.71 |
RBOT | DR(%) | 89.63 | 90.48 | 94.21 | 89.32 | 92.87 | 95.59 | 94.67 | 92.49 | 95.74 | 92.78 |
本发明公开了一种基于主动探测的恶意流量防护方法,所需要的先验知识较少,在无需知道防护模型的模型架构、模型参数情况下之外,也不需要知道防护模型使用的训练集、使用的特征,就可完成主动攻击探测。本发明公开的方法基于WGAN模型设计了替代模型以及对应的损失函数。利用替代模型的生成器与鉴别器的对抗性训练,可以生成更加具有对抗性的样本,能够发现防护模型的更多漏洞;且生成的对抗样本具有实用性,生成对抗样本只需要符合通信协议规则,即可正常传输。本发明公开的方法能够通过主动探测的方法,使用生成的对抗样本重训练防护模型,可以有效提高防护模型的鲁棒性,提高检测对抗性流量与变种恶意流量的能力。
实施例二
如图4所示,本发明实施例提供了一种基于主动探测的恶意流量防护系统,包括下述模块:
探测防护模型模块51,用于攻击者输入原始流量样本到恶意流量防护模型,在黑盒攻击场景下攻击恶意流量防护模型,输出原始流量样本的标签;
构建替代模型及训练鉴别器模块52,用于构建替代模型,包括:生成器G和鉴别器D;提取原始流量样本的时间序列和长度序列构建具有时空特征流量样本,输入鉴别器D,输出原始流量样本的类别:恶意或良性;
训练替代模型模块53,用于对替代模型进行训练,使得生成器G生成对抗样本,鉴别器D识别对抗样本是恶意的还是良性的;
重训练防护模型模块54,用于将对抗样本输入恶意流量防护模型,如果输出对抗样本的类别不正确,则重复执行构建替代模型及训练鉴别器模型、训练替代模型模块和重训练防护模型模块,直到恶意流量防护模型无法识别生成的对抗样本是恶意的还是良性的,将生成的对抗样本与原始流量样本混合后,重训练恶意流量防护模型。
提供以上实施例仅仅是为了描述本发明的目的,而并非要限制本发明的范围。本发明的范围由所附权利要求限定。不脱离本发明的精神和原理而做出的各种等同替换和修改,均应涵盖在本发明的范围之内。
Claims (5)
1.一种基于主动探测的恶意流量防护方法,其特征在于,包括:
步骤S1:攻击者输入原始流量样本到恶意流量防护模型,在黑盒攻击场景下攻击所述恶意流量防护模型,输出所述原始流量样本的标签;
步骤S2:构建替代模型,包括:生成器G和鉴别器D;提取所述原始流量样本的时间序列和长度序列构建具有时空特征流量样本,输入所述鉴别器D,输出所述原始流量样本的类别:恶意或良性;
步骤S3:对所述替代模型进行训练,使得所述生成器G生成对抗样本,所述鉴别器D识别所述对抗样本是恶意的还是良性的;
步骤S4:将所述对抗样本输入所述恶意流量防护模型,如果输出所述对抗样本的类别不正确,则重复执行步骤S2~S4,直到所述恶意流量防护模型无法识别生成的所述对抗样本是恶意的还是良性的,将生成的所述对抗样本与所述原始流量样本混合后,重训练所述恶意流量防护模型。
2.根据权利要求1所述的基于主动探测的恶意流量防护方法,其特征在于,所述步骤S2:构建替代模型,包括:生成器G和鉴别器D;提取所述原始流量样本的时间序列和长度序列构建具有时空特征流量样本,输入所述鉴别器D,输出所述原始流量样本的类别:恶意或良性,具体包括:
步骤S21:基于所述原始流量样本的时间序列和长度序列作构建具有时空特征流量样本;
步骤S22:基于WGAN模型构建替代模型,包括生成器G和鉴别器D;将所述具有时空特征流量样本输入所述鉴别器D,输出为其类别:恶意或良性;同时,构建所述鉴别器D的损失函数LD用于训练鉴别器D:
3.根据权利要求2所述的基于主动探测的恶意流量防护方法,其特征在于,所述步骤S3:对所述替代模型进行训练,使得所述生成器G生成对抗样本,所述鉴别器D识别所述对抗样本是恶意的还是良性的,具体包括:
步骤S31:将随机序列seed输入所述生成器G,输出恶意样本,在加入扰动后生成对抗样本:
构建所述生成器G的损失函数LG用于训练生成器G:
步骤S32:将所述对抗样本输入所述鉴别器D进行鉴别,输出为其类别:恶意或良性,构建损失函数L'D用于训练鉴别器D:
4.根据权利要求3所述的基于主动探测的恶意流量防护方法,其特征在于,所述步骤S4:将所述对抗样本输入所述恶意流量防护模型,如果输出所述对抗样本的类别不正确,则重复执行步骤S2~S4,直到所述恶意流量防护模型无法识别生成的所述对抗样本是恶意的还是良性的,将生成的所述对抗样本与所述原始流量样本混合后,重训练所述恶意流量防护模型,具体包括:
将所述替代模型生成的对抗样本与所述原始流量样本一起构建新的样本集,重新训练所述恶意流量防护模型。
5.一种基于主动探测的恶意流量防护系统,其特征在于,包括下述模块:
探测防护模型模块,用于攻击者输入原始流量样本到恶意流量防护模型,在黑盒攻击场景下攻击所述恶意流量防护模型,输出所述原始流量样本的标签;
构建替代模型及训练鉴别器模块,用于构建替代模型,包括:生成器G和鉴别器D;提取所述原始流量样本的时间序列和长度序列构建具有时空特征流量样本,输入所述鉴别器D,输出所述原始流量样本的类别:恶意或良性;
训练替代模型模块,用于对所述替代模型进行训练,使得所述生成器G生成对抗样本,所述鉴别器D识别所述对抗样本是恶意的还是良性的;
重训练防护模型模块,用于将所述对抗样本输入所述恶意流量防护模型,如果输出所述对抗样本的类别不正确,则重复执行构建替代模型及训练鉴别器模型、训练替代模型模块和重训练防护模型模块,直到所述恶意流量防护模型无法识别生成的所述对抗样本是恶意的还是良性的,将生成的所述对抗样本与所述原始流量样本混合后,重训练所述恶意流量防护模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211606900.1A CN116015788A (zh) | 2022-12-13 | 2022-12-13 | 一种基于主动探测的恶意流量防护方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211606900.1A CN116015788A (zh) | 2022-12-13 | 2022-12-13 | 一种基于主动探测的恶意流量防护方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116015788A true CN116015788A (zh) | 2023-04-25 |
Family
ID=86030872
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211606900.1A Pending CN116015788A (zh) | 2022-12-13 | 2022-12-13 | 一种基于主动探测的恶意流量防护方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116015788A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117240624A (zh) * | 2023-11-14 | 2023-12-15 | 长春大学 | 一种基于黑盒场景的对抗攻击样本生成及测试方法及装置 |
-
2022
- 2022-12-13 CN CN202211606900.1A patent/CN116015788A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117240624A (zh) * | 2023-11-14 | 2023-12-15 | 长春大学 | 一种基于黑盒场景的对抗攻击样本生成及测试方法及装置 |
CN117240624B (zh) * | 2023-11-14 | 2024-01-23 | 长春大学 | 一种基于黑盒场景的对抗攻击样本生成及测试方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Novaes et al. | Adversarial Deep Learning approach detection and defense against DDoS attacks in SDN environments | |
Mishra et al. | A detailed investigation and analysis of using machine learning techniques for intrusion detection | |
Jamalipour et al. | A taxonomy of machine-learning-based intrusion detection systems for the internet of things: A survey | |
Sethi et al. | Deep reinforcement learning based intrusion detection system for cloud infrastructure | |
Sowah et al. | Detection and prevention of man-in-the-middle spoofing attacks in MANETs using predictive techniques in Artificial Neural Networks (ANN) | |
Zhang et al. | Adversarial attacks against deep learning-based network intrusion detection systems and defense mechanisms | |
Liang et al. | A long short-term memory enabled framework for DDoS detection | |
Abdelaty et al. | Gadot: Gan-based adversarial training for robust ddos attack detection | |
Haq et al. | Botnet detection using machine learning | |
Jiang et al. | FGMD: A robust detector against adversarial attacks in the IoT network | |
Zhang et al. | Dual generative adversarial networks based unknown encryption ransomware attack detection | |
Aamir et al. | Machine learning classification of port scanning and DDoS attacks: A comparative analysis | |
Alatwi et al. | Adversarial machine learning in network intrusion detection domain: A systematic review | |
Azam et al. | Comparative analysis of intrusion detection systems and machine learning based model analysis through decision tree | |
Mohammadian et al. | A gradient-based approach for adversarial attack on deep learning-based network intrusion detection systems | |
Mohammadi et al. | End-to-end adversarial learning for intrusion detection in computer networks | |
Manhas et al. | Implementation of intrusion detection system for internet of things using machine learning techniques | |
Quincozes et al. | An extended evaluation on machine learning techniques for Denial-of-Service detection in Wireless Sensor Networks | |
Lunardi et al. | Arcade: Adversarially regularized convolutional autoencoder for network anomaly detection | |
CN116015788A (zh) | 一种基于主动探测的恶意流量防护方法及系统 | |
Shah et al. | Intelligent intrusion detection system through combined and optimized machine learning | |
Liu et al. | NetSentry: A deep learning approach to detecting incipient large-scale network attacks | |
Gangula et al. | A comprehence study of DDoS attack detecting algorithm using GRU-BWFA classifier | |
Anushiya et al. | A comparative study on intrusion detection systems for secured communication in internet of things | |
Shi et al. | Adversarial machine learning for network security |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |