CN112100614A - 一种基于cnn_lstm的网络流量异常检测方法 - Google Patents
一种基于cnn_lstm的网络流量异常检测方法 Download PDFInfo
- Publication number
- CN112100614A CN112100614A CN202010951195.3A CN202010951195A CN112100614A CN 112100614 A CN112100614 A CN 112100614A CN 202010951195 A CN202010951195 A CN 202010951195A CN 112100614 A CN112100614 A CN 112100614A
- Authority
- CN
- China
- Prior art keywords
- cnn
- lstm
- data set
- data
- door
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/50—Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
- G06F21/55—Detecting local intrusion or implementing counter-measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Computer Security & Cryptography (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Hardware Design (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
本发明公开了一种基于CNN_LSTM的网络流量异常检测方法,对数据集进行预处理,处理结束后针对样本数量采用分布不均问题,使用Smote技术过采样,然后采用一维卷积神经网络(CNN)的方法进行特征提取,利用深度学习中长短期记忆网络(LSTM)来训练数据,当损失函数满足条件时终止训练,得到训练好的模型,本发明采用的一维卷积神经网络对网络流量这种序列数据进行特征提取,实用性较,同时对恶意流量检测有较好的效果,准确率高,误报率较低。
Description
技术领域
本发明涉及一种基于CNN_LSTM的网络流量异常检测方法,属于机器学习技术领域。
背景技术
通过监控网络流量包或系统日志,自动高效检测恶意流量是网络安全的重要保障,目前国内外已经有很多工作来检测恶意流量。主要有传统的方法和基于机器学习的方法,这两种方法都有特征提取这一阶段。传统的方法主要是安全专家研究不同攻击类别的特点,为特征设定一个较为合理的阈值;机器学习的方法是基于给定的模型从数据集中自动学习恶意流量的模式。随着深度学习在语音识别、文本分析等方面的广泛应用,深度学习模型在从大规模数据集中的学习潜力受到了越来越多的关注,有很多安全人员将其应用到网络入侵检测的研究中,取得了不错的效果。
CNN一般由卷积层、池化层、全连接层组成,卷积神经网路中每层卷积层由若干卷积单元组成,每个卷积单元的参数都是通过反向传播算法优化得到的。卷积运算的目的是提取输入的不同特征,第一层卷积层可能只能提取一些低级的特征如边缘、线条和角等层级,更多层的网络能从低级特征中迭代提取更复杂的特征。通常在卷积层之后会得到维度很大的特征,将特征切成几个区域,取其最大值或平均值,得到新的、维度较小的特征。把所有局部特征结合变成全局特征,用来计算最后每一类的得分。
RNN(包括但不限于LSTM)在时序数据中性能较好的原因是其全局化处理和memory(hidden)cell。全局化表示完整的输入才能包含所有信息,只看一部分(局部化)可能丢失信息从而导致建模失效;memory cell保留每一步的信息来动态调整下一步。BLSTM由于有双向信息全局化优势更加明显,所以很多非因果的系统里BLSTM性能常常能达到非常好的性能。全局化处理在例如翻译之类的任务里非常重要,因为少了一个词意思可能就完全不一样了,CNN等局部化或感受野不够大的结构可能会直接失效。
发明内容
发明目的:为了克服普通机器学习的方法在复杂网络中由于其结构较为单一无法使用,本发明提供一种基于CNN_LSTM的网络流量异常检测方法,选用复杂网络结构更加复杂的深度学习方法。CNN在特征提取方面有很好的特性,LSTM在序列数据方面有较为成熟的应用,通过将CNN和LSTM结合,解决了卷积神经网络只能学习局部特征但无法处理较长信息的长期依赖问题,加入LSTM可以利用网络流量的时序性,对恶意流量检测有较好的效果。
技术方案:为实现上述目的,本发明采用的技术方案为:
一种基于CNN_LSTM的网络流量异常检测方法,对NSL_KDD数据集进行预处理,采用卷积神经网络(CNN)的方法进行特征提取,利用深度学习中长短期记忆网络(LSTM)来训练数据,当损失函数满足条件时终止训练,将训练好的模型在测试集进行测试,具体包括以下步骤:
步骤1:采集网络流量相关数据形成数据集,并对数据集进行预处理:
步骤1-1:数据集中有些字段是非数值的形式,如协议类型字段(TCP,UDP,ICMP)、目标主机的网络服务类型(http,Telnet,whois,ftp,netstat等等),模型的输入只接受数值型的输入,因此将数据集中非数值的字段通过机器学习模块sklearn中LabelEncoder()函数将非数值型的数据处理成数值型的形式。
步骤1-2:数据集中有缺失值时要补上,要不会导致算法不收敛,训练没有意义。
步骤1-3:数据集中涉及到的攻击类型,比如Dos攻击、SQL注入攻击、僵尸网络、恶意软件、暴力破解等等,本发明做的是二分类,因此将数据集中的攻击流量和正常流量分别标记为1和0。将标签和其他特征属性分开存放。
步骤1-4:数据集中数值属性有较大的量级差异,经常导致机器学习模型表现不佳,为了更好更快的让模型收敛,需要对数据进行标准化,在这里通过sklearn模块中的Normalizer函数对数据集中的数据进行正则化处理。
步骤1-5:将数据集中的数据采用reshape()方法转变为模型的输入维度。
步骤2:Smote过采样
步骤2-1:首先从步骤1得到的数据集中少数类的全部样本中找到样本的k个近邻。
步骤2-2:从这k个近邻中随机选择一个样本,生成一个0到1之间的随机数,从而生成一个新的样本。
步骤2-3:重复步骤2-2,合成多个样本。
步骤3:通过合成的多个样本对CNN_LSTM模型进行训练:
步骤3-1:CNN在特征提取方面有良好特性,循环神经网络CNN包括依次连接的输入层、卷积层、池化层、全连接层,用relu函数作为激活函数,池化层的主要目的是在保留有用信息的基础上减少数据处理量,加快模型的训练速度,这里将池化层大小设置为2。这里区别于其他文献所用的地方在于,本发明采用的是一维卷积,这样更好的利用网络流量的时序特性。为了防止模型过拟合,加入dropout层。
步骤3-2:循环神经网络(RNN)擅长处理序列数据,为了防止模型训练过程中出现梯度消失和梯度爆炸问题,选用LSTM模型,LSTM模型是紧跟在循环神经网络CNN后面,LSTM和RNN相比,其隐藏层加入了门机制和一个细胞状态的更新,门机制包括遗忘门、输入门、输出门,遗忘门、输入门、输出门结合当前输入信息和上一状态的输出到一个sigmoid函数中,sigmoid函数会输出0到1之间的值,0表示不许通过,1表示允许任意值通过。输入门决定当前时刻的输入信息哪些需要保留到记忆单元中。遗忘门决定从记忆单元中丢弃哪些信息。输出门决定需要输出的信息。
步骤4:通过sigmoid函数进行分类。
步骤5:训练阶段用binary_crossentropy作为损失函数,优化算法选用adam。
步骤6:测试集测试,评估模型性能。
优选的:步骤1-2对于缺失值采用取众数的方法进行填充。
优选的:步骤3-1中循环神经网络CNN采用一维卷积,滤镜个数设置为48个,滤镜的大小为3。
优选的:LSTM模型输出大小为70。
本发明相比现有技术,具有以下有益效果:
1、网络流量正常流量的数量明显多于异常流量,为了更好地训练模型,本文对正负样本不平衡问题,采用smote过采样技术增加了负样本的数量,这样解决了类不平衡的问题。
2、利用卷积神经网络进行特征提取,比凭人工经验进行特征选择要靠谱,CNN能够从低级特征中迭代提取更复杂的特征,网络流量更适合用一维卷积去处理;
3、网络流量这种序列数据可以利用LSTM的时序特性。
附图说明
图1是模型图。
图2是流程图。
图3是模型评估图,横坐标是模型预测label,纵坐标是实际的label。
图4是LSTM的内部结构图。
具体实施方式
下面结合附图和具体实施例,进一步阐明本发明,应理解这些实例仅用于说明本发明而不用于限制本发明的范围,在阅读了本发明之后,本领域技术人员对本发明的各种等价形式的。
一种过采样的CNN_LSTM的网络流量异常检测方法,如图1、2所示,包括数据预处理、过采样、模型训练和测试阶段,在NSL_KDD数据集上进行了训练和测试。具体步骤如下:
步骤1:数据预处理,将数据集处理成模型能接受的输入形式。
步骤1-1:NSL_KDD数据集中有些字段是非数值的形式,如协议类型字段(TCP,UDP,ICMP)、目标主机的网络服务类型(http,Telnet,whois,ftp,netstat等等),模型的输入只接受数值型的输入,通过机器学习模块sklearn中LabelEncoder()函数将非数值型的数据处理成数值型的形式。
步骤1-2:NSL_KDD数据集中共有4种攻击类型,包括Dos、Probe、R2L、U2R,本发明做的是二分类,将攻击流量和正常流量分别标记为1和0。将标签和其他特征属性分开存放。
步骤1-3:数据集中数值属性有较大的量级差异,经常导致机器学习模型表现不佳,为了更好更快的让模型收敛,需要对数据进行标准化,在这里依旧借助sklearn模块中的Normalizer对数据正则化处理。
步骤1-4:将待输入数据采用reshape()方法转变为模型的输入维度。
步骤2:Smote过采样
步骤2-1:通过Smote过采样扩充R2L样本的数量。
步骤2-2:通过Smote过采样扩充U2R样本的数量。
步骤3:CNN_LSTM模型训练。
步骤3-1:CNN在特征提取方面有良好特性,典型的CNN模型由输入层、卷积层、池化层、全连接层组成。网络流量是时序性的,故采用一维卷积,滤镜个数设置为48个,滤镜的大小为3,用relu函数作为激活函数。池化层的主要目的是在保留有用信息的基础上减少数据处理量,加快模型的训练速度,这里将池化层大小设置为2。为了防止模型过拟合,加入dropout层。
步骤3-2:循环神经网络(RNN)擅长处理序列数据,为了防止模型训练过程中出现梯度消失和梯度爆炸问题,选用LSTM模型,该模型在RNN模型的隐藏层加入了门(遗忘门,输入门、输出门)机制和一个细胞状态的更新,这3个门结合当前输入信息和上一状态的输出到一个sigmoid函数中,sigmoid函数会输出0到1之间的值,0表示不许通过,1表示允许任意值通过。输入门决定当前时刻的输入信息哪些需要保留到记忆单元中。遗忘门决定从记忆单元中丢弃哪些信息。输出门决定需要输出的信息,如图4所示,⊙是操作矩阵中对应元素相乘,代表矩阵相加。xt表示当前输入,ht-1代表上一个传递状态,zf表示遗忘门,zi表示输入门,zo表示输出门。通过门控状态来控制传输状态,记住需要长时间记忆的,忘记不重要的信息。LSTM模型是紧跟在CNN后面的,因此只需设置输出大小,这里将其设置为70。
步骤4:sigmoid函数分类。
步骤5:模型训练阶段用binary_crossentropy作为损失函数,优化算法选用adam。
步骤6:测试集测试,评估模型性能。。
通过查看训练集中的各项性能指标来判断模型的好坏,如图3所示,实验结果表明,该模型准确率高,误报率较低。
本发明比传统的机器学习方法更为复杂,采用Smote过采样技术解决样本分布不平衡的问题,采用一维卷积神经网络对网络流量这种序列数据进行特征提取,也利用了网络流量的时序性,实用性较强。
以上所述仅是本发明的优选实施方式,应当指出:对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (5)
1.一种基于CNN_LSTM的网络流量异常检测方法,其特征在于,包括以下步骤:
步骤1:采集网络流量相关数据形成数据集,并对数据集进行预处理:
步骤1-1:将数据集中非数值的字段通过机器学习模块sklearn中LabelEncoder()函数将非数值型的数据处理成数值型的形式;
步骤1-2:对数据集中有缺失值数据进行填充补上;
步骤1-3:将数据集中的攻击流量和正常流量分别标记为1和0;将标签和其他特征属性分开存放;
步骤1-4:通过机器学习模块sklearn中的Normalizer()函数对数据集中的数据进行正则化处理;
步骤1-5:将数据集中的数据采用reshape()函数转变输入维度;
步骤2:Smote过采样
步骤2-1:首先从步骤1得到的数据集中少数类的全部样本中找到样本的k个近邻;
步骤2-2:从这k个近邻中随机选择一个样本,生成一个0到1之间的随机数,从而生成一个新的样本;
步骤2-3:重复步骤2-2,合成多个样本;
步骤3:通过合成的多个样本对CNN_LSTM模型进行训练:
步骤3-1:循环神经网络CNN包括依次连接的输入层、卷积层、池化层、全连接层,卷积层采用一维卷积,用relu函数作为激活函数;
步骤3-2:选用LSTM模型,LSTM模型是紧跟在卷积神经网络CNN后面,LSTM模型相比RNN,其隐藏层加入了门机制和一个细胞状态的更新,门机制包括遗忘门、输入门、输出门,遗忘门、输入门、输出门结合当前输入信息和上一状态的输出到一个sigmoid函数中,sigmoid函数会输出0到1之间的值,0表示不许通过,1表示允许任意值通过;输入门决定当前时刻的输入信息哪些需要保留到记忆单元中;遗忘门决定从记忆单元中丢弃哪些信息;输出门决定需要输出的信息;
步骤4:通过sigmoid函数进行分类;
步骤5:训练阶段用binary_crossentropy作为损失函数,优化算法选用adam;
步骤6:测试集测试,评估模型性能。
2.根据权利要求1所述基于CNN_LSTM的网络流量异常检测方法,其特征在于:步骤1-2对于缺失值采用取众数的方法进行填充。
3.根据权利要求2所述基于CNN_LSTM的网络流量异常检测方法,其特征在于:步骤3-1中循环神经网络CNN采用一维卷积,滤镜个数设置为48个,滤镜的大小为3。
4.根据权利要求3所述基于CNN_LSTM的网络流量异常检测方法,其特征在于:步骤3-1循环神经网络CNN的池化层大小设置为2。
5.根据权利要求4所述基于CNN_LSTM的网络流量异常检测方法,其特征在于:LSTM模型输出大小为70。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010951195.3A CN112100614A (zh) | 2020-09-11 | 2020-09-11 | 一种基于cnn_lstm的网络流量异常检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010951195.3A CN112100614A (zh) | 2020-09-11 | 2020-09-11 | 一种基于cnn_lstm的网络流量异常检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112100614A true CN112100614A (zh) | 2020-12-18 |
Family
ID=73752090
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010951195.3A Withdrawn CN112100614A (zh) | 2020-09-11 | 2020-09-11 | 一种基于cnn_lstm的网络流量异常检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112100614A (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113194094A (zh) * | 2021-04-29 | 2021-07-30 | 哈尔滨工程大学 | 一种基于神经网络的异常流量检测方法 |
CN113242259A (zh) * | 2021-05-27 | 2021-08-10 | 苏州联电能源发展有限公司 | 网络异常流量检测方法及装置 |
CN113259332A (zh) * | 2021-04-29 | 2021-08-13 | 上海电力大学 | 一种基于端到端的多类型网络流量异常检测方法及系统 |
CN113328986A (zh) * | 2021-04-09 | 2021-08-31 | 国网浙江省电力有限公司金华供电公司 | 基于卷积神经网络与lstm结合的网络流量异常检测方法 |
CN113364792A (zh) * | 2021-06-11 | 2021-09-07 | 奇安信科技集团股份有限公司 | 流量检测模型的训练方法、流量检测方法、装置及设备 |
CN113469247A (zh) * | 2021-06-30 | 2021-10-01 | 广州天懋信息系统股份有限公司 | 网络资产异常检测方法 |
CN113518063A (zh) * | 2021-03-01 | 2021-10-19 | 广东工业大学 | 基于数据增强和BiLSTM的网络入侵检测方法及系统 |
CN115086082A (zh) * | 2022-08-16 | 2022-09-20 | 四川公众项目咨询管理有限公司 | 基于深度学习的网络安全评估方法、系统、设备及介质 |
CN116232761A (zh) * | 2023-05-04 | 2023-06-06 | 华东交通大学 | 基于shapelet的网络异常流量检测方法及系统 |
CN116668198A (zh) * | 2023-07-31 | 2023-08-29 | 南京争锋信息科技有限公司 | 基于深度学习的流量回放测试方法、装置、设备及介质 |
-
2020
- 2020-09-11 CN CN202010951195.3A patent/CN112100614A/zh not_active Withdrawn
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113518063A (zh) * | 2021-03-01 | 2021-10-19 | 广东工业大学 | 基于数据增强和BiLSTM的网络入侵检测方法及系统 |
CN113328986A (zh) * | 2021-04-09 | 2021-08-31 | 国网浙江省电力有限公司金华供电公司 | 基于卷积神经网络与lstm结合的网络流量异常检测方法 |
CN113194094A (zh) * | 2021-04-29 | 2021-07-30 | 哈尔滨工程大学 | 一种基于神经网络的异常流量检测方法 |
CN113259332A (zh) * | 2021-04-29 | 2021-08-13 | 上海电力大学 | 一种基于端到端的多类型网络流量异常检测方法及系统 |
CN113194094B (zh) * | 2021-04-29 | 2022-07-15 | 哈尔滨工程大学 | 一种基于神经网络的异常流量检测方法 |
CN113242259A (zh) * | 2021-05-27 | 2021-08-10 | 苏州联电能源发展有限公司 | 网络异常流量检测方法及装置 |
CN113364792B (zh) * | 2021-06-11 | 2022-07-12 | 奇安信科技集团股份有限公司 | 流量检测模型的训练方法、流量检测方法、装置及设备 |
CN113364792A (zh) * | 2021-06-11 | 2021-09-07 | 奇安信科技集团股份有限公司 | 流量检测模型的训练方法、流量检测方法、装置及设备 |
CN113469247A (zh) * | 2021-06-30 | 2021-10-01 | 广州天懋信息系统股份有限公司 | 网络资产异常检测方法 |
CN113469247B (zh) * | 2021-06-30 | 2022-04-01 | 广州天懋信息系统股份有限公司 | 网络资产异常检测方法 |
CN115086082A (zh) * | 2022-08-16 | 2022-09-20 | 四川公众项目咨询管理有限公司 | 基于深度学习的网络安全评估方法、系统、设备及介质 |
CN115086082B (zh) * | 2022-08-16 | 2022-11-01 | 四川公众项目咨询管理有限公司 | 基于深度学习的网络安全评估方法、系统、设备及介质 |
CN116232761A (zh) * | 2023-05-04 | 2023-06-06 | 华东交通大学 | 基于shapelet的网络异常流量检测方法及系统 |
CN116668198A (zh) * | 2023-07-31 | 2023-08-29 | 南京争锋信息科技有限公司 | 基于深度学习的流量回放测试方法、装置、设备及介质 |
CN116668198B (zh) * | 2023-07-31 | 2023-10-20 | 南京争锋信息科技有限公司 | 基于深度学习的流量回放测试方法、装置、设备及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112100614A (zh) | 一种基于cnn_lstm的网络流量异常检测方法 | |
CN109768985B (zh) | 一种基于流量可视化与机器学习算法的入侵检测方法 | |
CN110730140B (zh) | 基于时空特性相结合的深度学习流量分类方法 | |
CN110084610B (zh) | 一种基于孪生神经网络的网络交易欺诈检测系统 | |
CN112995150B (zh) | 一种基于cnn-lstm融合的僵尸网络检测方法 | |
CN113489674A (zh) | 一种面向物联网系统的恶意流量智能检测方法及应用 | |
CN113901448A (zh) | 基于卷积神经网络和轻量级梯度提升机的入侵检测方法 | |
CN116684877A (zh) | 一种基于gyac-lstm的5g网络流量异常检测方法及系统 | |
CN111600878A (zh) | 一种基于maf-adm的低速率拒绝服务攻击检测方法 | |
CN113109782B (zh) | 一种直接应用于雷达辐射源幅度序列的分类方法 | |
Hagar et al. | Deep Learning for Improving Attack Detection System Using CSE-CICIDS2018 | |
CN115664804B (zh) | 一种基于径向基函数神经网络的LDoS攻击检测方法 | |
CN116545733A (zh) | 一种电网入侵检测方法及系统 | |
CN113887633B (zh) | 基于il的闭源电力工控系统恶意行为识别方法及系统 | |
Ikhwan et al. | Intrusion detection using deep neural network algorithm on the internet of things | |
TWI780411B (zh) | 基於長短期記憶模型之異常網路流量偵測系統及方法 | |
CN112434716B (zh) | 一种基于条件对抗神经网络的水下目标数据扩增方法及系统 | |
CN114330504A (zh) | 基于Sketch的网络恶意流量检测方法 | |
Wang et al. | Semi-supervised malicious traffic detection with improved wasserstein generative adversarial network with gradient penalty | |
Erokhin et al. | The Dataset Features Selection for Detecting and Classifying Network Attacks | |
CN117614742B (zh) | 一种蜜点感知增强的恶意流量检测方法 | |
CN117896176B (zh) | 面向工业物联网欺骗攻击的学习驱动物理层认证方法 | |
CN113609480B (zh) | 基于大规模网络流的多路学习入侵检测方法 | |
CN112232436B (zh) | 一种融合集成决策树与层次注意力机制的可解释网络攻击检测方法 | |
CN114615056B (zh) | 一种基于对抗鲁棒性学习的Tor恶意流量检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20201218 |
|
WW01 | Invention patent application withdrawn after publication |