CN116781346A - 基于数据增强的卷积双向长短期记忆网络入侵检测方法 - Google Patents
基于数据增强的卷积双向长短期记忆网络入侵检测方法 Download PDFInfo
- Publication number
- CN116781346A CN116781346A CN202310734584.4A CN202310734584A CN116781346A CN 116781346 A CN116781346 A CN 116781346A CN 202310734584 A CN202310734584 A CN 202310734584A CN 116781346 A CN116781346 A CN 116781346A
- Authority
- CN
- China
- Prior art keywords
- intrusion detection
- data set
- detection data
- feature
- attention
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 146
- 230000007787 long-term memory Effects 0.000 title claims description 17
- 230000006403 short-term memory Effects 0.000 title claims description 12
- 239000013598 vector Substances 0.000 claims abstract description 60
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 41
- 238000012545 processing Methods 0.000 claims abstract description 41
- 238000000034 method Methods 0.000 claims abstract description 33
- 238000007637 random forest analysis Methods 0.000 claims abstract description 31
- 230000015654 memory Effects 0.000 claims abstract description 28
- 238000000605 extraction Methods 0.000 claims abstract description 14
- 238000004458 analytical method Methods 0.000 claims abstract description 9
- 238000011176 pooling Methods 0.000 claims description 46
- 238000013527 convolutional neural network Methods 0.000 claims description 22
- 238000013528 artificial neural network Methods 0.000 claims description 21
- 239000011159 matrix material Substances 0.000 claims description 20
- 238000004364 calculation method Methods 0.000 claims description 19
- 238000012549 training Methods 0.000 claims description 19
- 230000006870 function Effects 0.000 claims description 13
- 230000003044 adaptive effect Effects 0.000 claims description 12
- 238000010606 normalization Methods 0.000 claims description 10
- 238000007781 pre-processing Methods 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 2
- 238000005259 measurement Methods 0.000 claims description 2
- 230000004927 fusion Effects 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 13
- 238000005516 engineering process Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 9
- 230000002159 abnormal effect Effects 0.000 description 6
- 230000008034 disappearance Effects 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 6
- 230000007246 mechanism Effects 0.000 description 6
- 210000004027 cell Anatomy 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 5
- 230000006399 behavior Effects 0.000 description 4
- 238000009826 distribution Methods 0.000 description 4
- 210000002569 neuron Anatomy 0.000 description 3
- 125000004122 cyclic group Chemical group 0.000 description 2
- 238000003066 decision tree Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000013138 pruning Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 239000002699 waste material Substances 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000008485 antagonism Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L63/00—Network architectures or network communication protocols for network security
- H04L63/14—Network architectures or network communication protocols for network security for detecting or protecting against malicious traffic
- H04L63/1408—Network architectures or network communication protocols for network security for detecting or protecting against malicious traffic by monitoring network traffic
- H04L63/1416—Event detection, e.g. attack signature detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L63/00—Network architectures or network communication protocols for network security
- H04L63/14—Network architectures or network communication protocols for network security for detecting or protecting against malicious traffic
- H04L63/1408—Network architectures or network communication protocols for network security for detecting or protecting against malicious traffic by monitoring network traffic
- H04L63/1425—Traffic logging, e.g. anomaly detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Computer Security & Cryptography (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Hardware Design (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了基于数据增强的卷积双向长短期记忆网络入侵检测方法,该方法包括:获取入侵检测数据集;通过改进的DBSCAN聚类算法与改进的WGAN对预处理后的入侵检测数据集进行样本扩充处理;通过随机森林算法结合皮尔逊相关系数分析对扩充后的入侵检测数据集进行特征选择处理后再进行特征提取处理;通过特征关注增强模型对入侵检测数据集的特征向量进行赋予权重处理;通过CNN‑BiLSTM对赋予权重后的入侵检测数据集特征进行分类处理。本发明通过构建一种融合数据增强和卷积双向长短期记忆网络,提高模型的多分类的准确率和对于稀有类攻击样本的检测准确率。本发明作为基于数据增强的卷积双向长短期记忆网络入侵检测方法,可广泛应用于信息安全技术领域。
Description
技术领域
本发明涉及信息安全技术领域,尤其涉及基于数据增强的卷积双向长短期记忆网络入侵检测方法。
背景技术
网络攻击已经成为当前互联网安全面临的一个重要问题,越来越多的组织和企业需要采取措施来保护自己的信息系统和网络资源不受攻击,入侵检测技术作为一种重要的网络安全技术,可以对网络中的异常流量进行实时监控和分析,帮助组织和企业及时发现和应对网络攻击事件;入侵检测技术的发展可以追溯到上世纪80年代,当时主要是基于规则的入侵检测技术。这种技术主要是通过预先定义一些规则来识别和报告攻击行为,但是这种技术只能检测到已知的攻击类型,对于未知的攻击行为无法有效应对;随着互联网用户数量急剧增加,促进了各类新兴互联网应用蓬勃发展,网络流量爆发式增长,使得当前网络环境变得复杂而多变,依靠传统方法规则更新数据仓库难以适应多变的网络环境,无法保障网络安全;
传统机器学习和深度学习是目前入侵检测领域中主要的两种技术手段,它们都可以用于分析网络流量和系统日志等数据,从而识别网络中的异常流量,发现潜在的攻击行为,传统机器学习技术通常采用一些经典的分类器算法,如KNN、贝叶斯网络模型、支持向量机、人工神经网络、随机森林和决策树算法等等,这些算法需要通过对历史数据进行训练,建立模型,并使用该模型来对新数据进行分类,在入侵检测中,这些算法通常需要使用数据预处理技术来提取网络流量和系统日志中的特征,如数据包的大小、协议类型、源地址等,通过这些特征,机器学习算法可以识别出正常和异常流量,并将异常流量分类为攻击或非攻击流量,然而,传统机器学习算法对于高维度和复杂数据的处理效果有限,且需要大量的手工特征工程,存在特征选取和模型泛化能力不足等问题,深度学习通过构建多层神经网络来学习复杂的特征表示,具有较强的自动化特征学习能力,在入侵检测中,深度学习可以直接处理原始的网络流量和系统日志数据,通过多层卷积神经网络、循环神经网络等模型进行学习和分类,识别出潜在的攻击行为,深度学习技术可以克服传统机器学习算法中需要手工设计特征的问题,大大降低了特征工程的复杂度和人工成本,不少研究人员就将其引入到入侵检测领域中,其中的模型主要包括循环神经网络、自编码器、深度神经网络、深度置信网络、卷积神经网络和长短期记忆等等,尽管使用深度学习在入侵检测领域取得了长足的进步,但现有的深度学习技术也存在以下问题,一是关于特征冗余,更多的特征维度不仅会增加模型的训练时间,还会降低模型的检测效果,二是用于评估模型有效性的数据集存在正负类样本不平衡的问题,三是当前模型单一,提取各类型攻击的特征困难,导致对于入侵的多分类检测准确率低的问题,四是对于稀有类攻击样本的检测准确率低的问题。
发明内容
为了解决上述技术问题,本发明的目的是提供基于数据增强的卷积双向长短期记忆网络入侵检测方法,通过构建一种融合数据增强和卷积双向长短期记忆网络,提高模型的多分类的准确率和对于稀有类攻击样本的检测准确率。
本发明所采用的第一技术方案是:基于数据增强的卷积双向长短期记忆网络入侵检测方法,包括以下步骤:
获取入侵检测数据集,进行非数值特征转换为数值特征处理,并进行独热编码和最小最大值归一化处理,得到预处理后的入侵检测数据集;
通过改进的基于密度的噪声应用空间聚类算法与改进的生成对抗网络对预处理后的入侵检测数据集进行样本扩充处理,得到扩充后的入侵检测数据集;
通过随机森林算法结合皮尔逊相关系数分析对扩充后的入侵检测数据集进行特征选择处理后再进行特征提取处理,得到入侵检测数据集的特征向量;
引入改进的DBSCAN模块,通过特征关注增强模型对入侵检测数据集的特征向量进行赋予权重处理,得到赋予权重后的入侵检测数据集特征;
通过卷积双向长短期记忆网络对赋予权重后的入侵检测数据集特征进行分类处理,得到分类结果,所述分类结果包括正常流量样本与攻击类型流量样本。
进一步,所述通过改进的基于密度的噪声应用空间聚类算法与改进的生成对抗网络对预处理后的入侵检测数据集进行样本扩充处理,得到扩充后的入侵检测数据集这一步骤,其具体包括:
引入带权的曼哈顿距离,构建改进的基于密度的噪声应用空间聚类算法并对预处理后的入侵检测数据集进行计算处理,得到预处理后的入侵检测数据集对应的聚类簇和离群点;
所述预处理后的入侵检测数据集中的聚类簇包括少数类簇样本与多数类簇样本;
通过改进的生成对抗网络WGAN对预处理后的入侵检测数据集中的少数类簇样本进行过采样处理,通过Wasserstein距离度量WGAN中的生成器和判别器之间的距离,得到扩充的少数类簇样本;
将扩充的少数类簇样本添加至预处理后的入侵检测数据集,得到扩充后的入侵检测数据集。
进一步,所述引入带权的曼哈顿距离,构建改进的基于密度的噪声应用空间聚类算法并对预处理后的入侵检测数据集进行计算处理,得到预处理后的入侵检测数据集对应的聚类簇和离群点这一步骤,其具体包括:
对于预处理后的入侵检测数据集中的每一个特征,计算其与目标变量之间的Pearson相关系数,所述目标变量为攻击流量样本;
对获取到的Pearson相关系数进行最小-最大归一化处理并映射至[0,1]的范围内,得到归一化的相关系数;
将归一化的相关系数作为预处理后的入侵检测数据集中的特征权重;
基于预处理后的入侵检测数据集中的特征权重计算流量数据之间的加权曼哈顿距离,并对距离值大于预设阈值的流量数据进行舍弃,选取满足预设距离值的流量数据对应的距离值进行存储,得到距离矩阵;
确定邻域半径,计算距离矩阵中处于邻域半径内的流量数据样本个数,若计算得到的流量数据样本个数大于或等于预设数目,定义该流量数据样本为核心点;
循环上述确定核心点步骤,直至遍历所有流量数据样本,将得到的核心点进行归类处理,得到聚类簇;
对非核心点进行标记处理为噪声点,并归类为离群点。
进一步,所述通过随机森林算法结合皮尔逊相关系数分析对扩充后的入侵检测数据集进行特征选择处理后再进行特征提取处理,得到入侵检测数据集的特征向量这一步骤,其具体包括:
对扩充后的入侵检测数据集进行选取,得到特征集与目标变量;
计算特征集中每个特征与目标变量之间的皮尔逊系数,并按照取绝对值降序排序处理,得到排序序列;
根据排序序列选择与目标变量相关性最强的前K个特征作为候选特征集,其中所述K为人为预设条件数;
将候选特征集输入至随机森林模型进行训练,得到每个特征在随机森林模型中的重要性得分;
选取重要性得分中最高的前N个特征作为最终的特征集对随机森林模型进行训练,并评估训练后的随机森林模型的性能;
若所述训练后的随机森林模型的性能不满足预设要求,则重新设置K值进行随机森林模型训练步骤,直至随机森林模型的性能满足预设要求,输出最终的随机森林模型;
基于最终的随机森林模型对扩充后的入侵检测数据集进行特征选择,得到入侵检测数据集的特征数据;
对入侵检测数据集的特征数据进行预处理,得到入侵检测数据集的特征向量。
进一步,所述对入侵检测数据集的特征数据进行预处理,得到入侵检测数据集的特征向量这一步骤,其具体包括:
对入侵检测数据集的特征数据进行灰度转换处理,得到转换后的入侵检测数据集的特征数据;
基于二维卷积神经网络对转换后的入侵检测数据集的特征数据进行空间特征提取,得到入侵检测数据集的空间特征;
基于最大池化层对入侵检测数据集的空间特征进行整合处理,得到入侵检测数据集的特征向量。
进一步,所述引入改进的DBSCAN模块,通过特征关注增强模型对入侵检测数据集的特征向量进行赋予权重处理,得到赋予权重后的入侵检测数据集特征这一步骤,其具体包括:
引入改进的DBSCAN模块,构建特征关注增强模型,所述特征关注增强模型包括卷积层、池化层、改进的DBSCAN模块、全连接层、重塑层、通道注意力模块和空间注意力模块;
基于特征关注增强模型的卷积层和池化层,对入侵检测数据集的特征向量进行卷积池化处理,得到入侵检测数据的特征图;
基于特征关注增强模型的改进的DBSCAN模块,对入侵检测数据的特征图进行簇的注意力计算,得到簇注意力向量矩阵;
基于特征关注增强模型的全连接层与重塑层,对簇注意力向量矩阵依次进行全连接处理与重塑处理,得到第一注意力向量和第二注意力向量;
将第一注意力向量和第二注意力向量分别输入至通道注意力模块和空间注意力模块,得到对应的通道注意力向量和空间注意力向量;
将通道注意力向量和空间注意力向量进行相乘再与簇注意力向量矩阵进行相乘,得到赋予权重后的入侵检测数据集特征。
进一步,所述改进的DBSCAN模块具体包括自适应加权平均池化层、自适应加权最大池化层、全连接层、卷积层、空间注意力层和跳跃连接,其中:
基于改进的DBSCAN模块的自适应加权平均池化层和自适应加权最大池化层,对输入的数据分别进行加权平均池化操作和加权最大池化操作;
基于改进的DBSCAN模块的全连接层,对加权平均池化操作结果与加权最大池化操作结果进行加权拼接计算,得到加权结果;
基于改进的DBSCAN模块的卷积层对加权结果进行卷积操作,得到对应的卷积结果;
基于改进的DBSCAN模块的跳跃连接直接将输入的数据与对应的卷积结果进行加权,得到最终的加权结果;
基于改进的DBSCAN模块的空间注意力层对最终的加权结果进行特征提取。
进一步,所述通过卷积双向长短期记忆网络对赋予权重后的入侵检测数据集特征进行分类处理,得到分类结果这一步骤,其具体包括:
将赋予权重后的入侵检测数据集特征输入至卷积双向长短期记忆网络,所述卷积双向长短期记忆网络包括CNN神经网络、双向长短期记忆神经网络和softmax函数;
基于卷积双向长短期记忆网络的CNN神经网络,对赋予权重后的入侵检测数据集特征进行数据流量特征的空间提取处理,得到入侵检测数据集的空间特征;
基于卷积双向长短期记忆网络的双向长短期记忆神经网络,对赋予权重后的入侵检测数据集特征进行数据流量特征的时间提取处理,得到入侵检测数据集的时间特征;
将入侵检测数据集的空间特征与入侵检测数据集的时间特征进行结合并通过softmax函数进行分类,得到分类结果。
本发明方法的有益效果是:本发明通过基于密度的噪声应用空间聚类算法和改进的生成对抗网络结合对各稀有类数据样本中的簇内样本进行数据扩充,最终实现平衡的数据集,解决数据集中存在正负类样本不平衡的问题,引入随机森林算法结合皮尔逊相关系数分析来进行特征选择,解决特征冗余问题,进一步使用卷积神经网络从网络数据流量中提取空间特征,利用其权值共享特性提高速度;引入双向长短期记忆网络提取时间特征,学习特征之间的依赖关系,避免过拟合问题,提高模型的多分类的准确率;引入改进的注意力机制CBAM-AS来对特征赋予不同的权重,从而减少开销并提高模型性能,提高模型检测精度和泛化能力,本发明解决了现有的数据集中存在正负类样本不平衡、特征冗余、提高模型的多分类的准确率和对于稀有类攻击样本的检测准确率低的问题,缓解模型的梯度消失问题,有更高的计算效率,增强了模型的泛化能力和鲁棒性。
附图说明
图1是本发明基于数据增强的卷积双向长短期记忆网络入侵检测方法的步骤流程图;
图2是本发明DB-WGANS算法生成数据样本的步骤流程图;
图3是现有的DBSCAN算法步骤流程示意图;
图4是现有的注意力模块的结构示意图;
图5是现有的空间注意力模块的结构示意图;
图6是本发明改进的空间注意力模块的结构示意图;
图7是本发明构建的CBAMAS-DBSCAN模型结构示意图;
图8是本发明CNN神经网络结构的示意图;
图9是本发明LSTM单元的结构示意图;
图10是本发明双向长短期记忆神经网络的结构示意图。
具体实施方式
下面结合附图和具体实施例对本发明做进一步的详细说明。对于以下实施例中的步骤编号,其仅为了便于阐述说明而设置,对步骤之间的顺序不做任何限定,实施例中的各步骤的执行顺序均可根据本领域技术人员的理解来进行适应性调整。
参照图1,本发明提供了基于数据增强的卷积双向长短期记忆网络入侵检测方法,该方法包括以下步骤:
S1、对于原始数据集,将非数值特征转换为数值特征,并且进行独热编码和最小最大值归一化处理;
S2、对预处理过的数据集使用提出的DB-WGAN方法对少数类样本进行样本生成,经过数据增强后得到新的数据集;
具体地,目前入侵检测的数据集如KDD99、NSL-KDD、UNSW-NB15、CIC-IDS 2017数据集等,它们中的正常流量数量远远大于异常流量数据,数据样本分类极其不平衡,这就容易导致过拟合现象;
本发明使用基于密度的噪声应用空间聚类(DBSCAN)和改进的生成对抗网络(WGAN)结合进行样本扩充,生成稀有类攻击样本,平衡数据集;
DBSCAN是一种基于密度的聚类算法,它能够自动识别具有高密度区域的数据点,并将它们划分为一个簇,DBSCAN能够处理任意形状的簇,并且能够有效地识别和过滤掉噪声点;
在DBSCAN中,通过两个参数来定义密度,分别是Eps和最小点数MinPts,Eps表示邻域半径,指定一个数据点的邻域半径为Eps,如果在该半径内的点数大于等于MinPts,则该数据点为核心点;如果在该半径内的点数小于MinPts,则该数据点为噪声点;如果在该半径内的点数大于等于MinPts,但是该点不是核心点,则该点为边界点;
现有的DBSCAN算法的过程如下,参照图3:
(1)随机选择一个未访问的数据点p;
(2)计算数据点p的邻域内的所有点,如果邻域内的点的数量大于等于MinPts;
(3)则标记为核心点,并将邻域内的所有点加入到一个新的簇中;
(4)如果邻域内的点的数量小于MinPts,则将p标记为噪声点;如果邻域内的点的数量大于等于MinPts,但是p不是核心点,则将p标记为边界点;
(5)对于一个新的簇,继续扩展该簇,直到邻域内的所有点都被访问过;
(6)重复上述步骤,直到所有的数据点都被访问过。
本发明改进的DBSCAN算法如下;
使用带权的曼哈顿距离计算每个样本和其他样本的距离,并基于权重距离进行剪枝存储在距离矩阵中,通过计算样本在eps半径内的样本个数来判断是否为核心点,这样避免对每个样本都进行重复邻域搜索,从而提高计算效率;
传统的计算距离公式通常使用欧式距离或曼哈顿距离,本发明通过在计算曼哈顿距离时引入每个特征的权重,可以有效避免噪声对聚类精度的影响,特征权重通过Pearson系数计算并归一化处理得到,其具体步骤为:
(1)对于数据集中的每一个特征,计算其与目标变量(即是否为攻击)之间的Pearson相关系数ρ;
(2)将相关系数使用最小-最大归一化处理将其映射到[0,1]的范围内,将每个归一化的相关系数作为该特征的权重Wi;
(3)计算每个样本和其他样本之间的加权曼哈顿距离,可以通过设定距离阈值,将距离大于域值的数据点剪去,最后将距离存储在一个距离矩阵中;
加权的曼哈顿距离公式为:
上式中,Wi为第i个特征的权重,|xi-yi|是两个样本在第i个特征上差值的绝对值;
(4)对于每个样本,从距离矩阵中统计其在eps半径内的样本个数,如果个数大于或等于Minpts,则该样本标记为核心点;
(5)对于每个核心点,找到所有在eps半径内的样本,将它们添加到该核心点的邻域中,所有位于核心点邻域内的样本被归类为同一簇;
(6)重复步骤(5),直到找不到新的样本可以添加到邻域中;
(7)非核心点被标记为噪声点。
本发明改进的DBSCAN算法相较于传统DBSCAN方法能够更好的反映数据点之间的相似度,传统的距离计算没有考虑到不同样本之间的权重差异,使用加权的曼哈顿距离可以为不同样本引入不同的权重系数,更好的考虑不同特征之间的重要性,可以有效避免噪声对聚类精度的影响,每个簇都是由样本相关性高的样本聚集在一起,提高聚类的准确性;
传统DBSCAN方法需要计算每一个核心点,并且搜索所有点判断是否在邻域内,每一次找到核心点都要进行重复的计算所有的点,效率低并且浪费计算机资源。本方法计算距离并剪枝存储在矩阵中,当一个样本与其他样本的加权距离小于阈值时,才被视为邻居点,提高效率和准确性。判断是否为核心点,只需要从距离矩阵中找到样本并统计数目,无需再次计算遍历找邻域点,可以快速寻找到核心点,避免了传统方法中对每个样本都进行邻域搜索,从而有效的减少计算量,提高聚类的速度,并且对于已经确定核心点的样本,在搜索邻域时只需考虑邻域内的样本,也可以加快计算速度,减少资源浪费,提高聚类效率;
本发明改进的DBSCAN算法使用加权的曼哈顿距离计算距离,能够提高聚类的精准度,通过基于距离阈值的剪枝并将其结果存入距离矩阵,减少了相关距离计算,加快聚类收敛时间,从而提高聚类效率,
生成性对抗网络(GAN)是一类强大的生成性模型,它将生成性建模转化为两个网络之间的博弈:生成器(G)网络产生给定的噪声源的合成数据,而鉴别器(D)网络区分生成器的输出和真实数据,生成器和鉴别器之间的博弈作为模型的目标函数,其表达式如下:
minGmaxDV(D,G)=Ex~pdata(x)[logD(x)]-Ez~pz(z)[log(1-D(G(z)))]
上式中,P_data(x)表示真实样本分布,P_z表示噪声变量分布,G(z)表示将噪声映射到数据空间的函数,x~~G(z),以及D(x)表示样本x是真实数据的概率;
本发明使用的是WGAN,即Wasserstein GAN,是一种生成对抗网络(GAN)的改进版本,旨在克服传统GAN中存在的一些问题,WGAN通过引入一种新的目标函数,即Wasserstein距离,来改进GAN的训练和性能;
在传统的GAN中,生成器和判别器之间的训练是通过最小化Jensen-Shannon散度(JS散度)来完成的,然而,JS散度在训练过程中存在一些问题,例如梯度消失和模式崩溃等问题,相比之下,Wasserstein距离更加稳定,能够避免这些问题的发生;
Wasserstein距离是一种用于衡量两个分布之间差异的距离指标,它可以更好地描述分布之间的几何特征,因此在GAN中使用Wasserstein距离可以更准确地度量生成器和判别器之间的距离,从而提高GAN的训练稳定性和生成质量;
WGAN的训练过程与传统GAN类似,但是它使用的是Wasserstein距离来度量生成器和判别器之间的距离,在WGAN中,判别器不再输出0到1之间的概率值,而是输出一个实数,表示生成器生成的样本与真实数据之间的距离,然后,生成器被更新以最小化这个距离,而不是最小化JS散度,Wasserstein距离又叫Earth-Mover(EM)距离,定义如下:
minGmaxDV(D,G)=Ex~pdata(x)[D(x)]-Ez~pz(z)[D(G(z))]-λ·penalty
上式中,D(x)表示判别器对真实样本的输出,D(G(z))表示判别器对生成器生成的样本G(z)的输出,penalty表示梯度惩罚项,λ为超参数,用于控制梯度惩罚项的影响程度;
判别器的目标是尽可能地提高D(x)的输出值,同时尽可能地降低D(G(z))的输出值,使得能够准确地区分真实样本和生成样本,梯度惩罚项用于强制使得判别器的输出函数满足Lipschitz连续性条件,从而保证Wasserstein距离的可导性和有界性;
参照图2,DB-WGANS算法生成数据样本具体步骤如下:
(1)首先需要对原始数据集进行预处理,包括独热编码、最小-最大值归一化等操作;
(2)对预处理过的数据集应用DBSCAN算法,得到聚类簇和离群点;
(3)对于少数类簇中的样本,使用WGAN进行过采样,生成更多的少数类样本。WGAN使用生成器网络来生成新的数据样本;
(4)将生成的新数据样本添加到原始数据集中,以扩充数据集,平衡数据集。
S3、使用PRF算法,随机森林算法结合皮尔逊(Pearson)相关系数分析来计算特征的重要性并进行特征选择,之后将得到的特征数据转换为灰度图;
具体地,特征选择是指从原始数据中选择最具有代表性的特征子集,以便构建高效的机器学习模型,本发明使用随机森林算法结合皮尔逊(Pearson)相关系数分析来进行特征选择,降低数据维度,解决特征冗余的问题,提高模型的泛化能力和预测性能,同时减少模型的计算量和存储空间,减少了模型训练时间;
皮尔逊相关系数用于衡量两个变量X和Y之间的相关性,取值范围为(-1,1),皮尔逊相关系数是通过计算两个特征值之间的协方差和标准差并通过以下公式引用得到的:
皮尔逊相关系数在-1到1之间变化,如果皮尔逊相关系数接近于±1,则表明两个特征之间的相关性很高,并且这种关系可以很好地用线性方程表示,如果皮尔逊相关系数接近于零,则说明两个特征之间不存在线性关系;
随机森林算法(RF)是一种使用决策树作为基础学习器的集成学习算法。在特征工程中,RF算法可以从大量的样本特征中识别出重要的特征。该算法的本质是分析计算样本的每个特征在树中的贡献度,然后计算其平均值并比较特征之间的贡献度来识别重要特征..本发明以袋外数据错误率作为评估指标进行评估;
所述随机森林算法步骤为:
(1)对每个基础学习器,选择对应的袋外数据(剩余的一些未被选择的样本),计算其误差,记为error_a;
(2)对袋外数据全样本随机加入扰动,计算其误差,记为error_b;
(3)假设森林中有M棵树,则某个特征的Importance值如下:
因此,本发明的特征选择具体步骤为:
(1)从原始数据中选取出特征集和目标变量;
(2)计算特征集中每个特征与目标变量之间的皮尔逊系数,并将它们按照绝对值从大到小排序;
(3)选择与目标变量相关性最强的前K个特征作为候选特征集,其中K可以根据实际情况设置;
(4)使用候选特征集训练一个随机森林模型,并计算每个特征在模型中的重要性得分;
(5)按照重要性得分从高到低排序,选择得分最高的前N个特征作为最终的特征集,其中N可以根据实际情况设置;
(6)使用最终的特征集训练模型,并评估模型的性能。如果性能仍然不够好,可以回到步骤(3),调整K值,重新选择候选特征集;
S4、通过二维卷积神经网络对输入的数据进行空间特征的提取,然后通过最大池化层(MaxPooling)对空间特征进行整合,数据经过本层的处理,大大减少了数据量的计算,提高模型的效率;
S5、DB-CBAM-AS更高效和精准的聚类数据,进一步提取关键的空间特征,使得特征表达的更加准确,可以使得模型更加注重重要的簇,对于噪声点或者较小的簇则降低其注意力权重,从而使得模型的注意力更加精细化,并且缓解梯度消失的问题;
具体地,CBAM是一种注意力机制,可以被添加到卷积神经网络(CNN)中,以提高其在图像识别任务上的性能,CBAM模块包括两种类型的注意机制:空间注意和通道注意。空间注意力集中在输入图像的哪些区域对进行预测是重要的,而通道注意力则集中在特征图的哪些通道对进行预测是重要的,如图4和图5所示为传统的注意力模块;
参照图6,为本发明改进的空间注意力模块,其表达式为:
其中,跳跃连接是一种从一个层直接连接到后续层的技术,它可以传递来自上一层的信息,有助于缓解梯度消失或梯度爆炸的问题;自适应池化是一种池化操作,它可以根据输入特征图对不同位置的重要性对不同位置的特征进行不同的加权;
本发明提出将自适应加权池化和跳跃连接应用于在CBAM的空间注意力通道中,更好的适应不同维度的输入,使用自适应加权平均池化和自适应加权最大池化来计算每个通道的权重,具体实现如下,空间注意力模块中:在前向传播中,先对输入特征图进行自适应平均池化和自适应最大池化操作,然后在全连接层使用相应的权重进行加权,最后将加权的结果拼接输出到卷积层进行卷积和加权操作,在最后引入跳跃连接,使网络更加深层,使得网络可以捕捉更加抽象和复杂的特征,提高了特征提取能力,从而提高模型的准确率和鲁棒性,缓解了传统的CBAM中训练时出现梯度消失的问题。加权自适应池化可以更好捕获空间特征,且进一步提高模型的性能,获得更高的计算效率,增强了模型的泛化能力。
本发明创造性的提出一种通过特征关注增强模型的方法:DB-CBAM-AS,将CBAM-AS模型进行改进,添加改进的DBSCAN模块处理输入的特征,经过全连接层得到每个簇的权重并将其转化为向量矩阵,随后将权重矩阵作为CBAM的注意力输入,在通道注意力中簇权重作为全局权重与输入特征图进行加权,从而改变每个通道的重要性,在空间注意力中作为空间注意力权重与输入特征图进行加权,不同空间位置的重要性,实现更好的特征提取并行计算通道注意力和空间注意力,参照图7为本发明的DB-CBAM-AS模型示意图;
本发明的DB-CBAM-AS模型的控制方法具体如下所示:
(1)输入特征图经过卷积层和池化层,得到特征图F;
(2)将F输入到改进的DBSCAN聚类模块中,计算得到每个簇的注意力向量Ai,将簇注意力向量可以视为簇的注意力权重,将所有簇注意力向量Ai连接起来得到一个簇注意力向量矩阵A,公式如下:
假设第i个簇有ni个数据点,特征维度为d,xij表示第i簇的第j个数据点的特征向量,ci表示第i个簇的特征向量,sij表示该簇的第j个数据点与特征向量的余弦相似度,Ai表示该第i个簇的注意力向量,其中使用softmax对向量进行归一化,将归一化后的相似度向量作为簇的注意力向量;
(3)将A输入到一个全连接层,按照聚类簇的顺序,与输入数据的顺序对应起来,得到一个注意力向量A′并将经过重塑层,重塑为A′_c和A′_s;
(4)将A′_c和A′_s分别输入到通道注意力模块和空间注意力模块,得到对应的通道注意力向量C和空间注意力向量S,其表达式为;
上式中,表示逐元素相乘,+是特征相加;
(5)将C和S进行相乘得到最终的注意力向量f,其表达式为:
(6)将改进的DBSCAN中得到的注意力权重与CBAM-AS得到的注意力权重f相乘,得到加权后的特征图F′,其表达式为:
在最终的输入数据中,不同簇的数据点被赋予了不同的权重,同时CBAM-AS模型中的注意力机制也对输入数据进行了加权处理,该方法具有更好的特征表达,改进的DBSCAN可以更高效和精准的聚类数据,在CBAM中结合改进的空间注意力,能够进一步提取关键的空间特征,使得特征表达的更加准确,可以使得模型更加注重重要的簇,对于噪声点或者较小的簇则降低其注意力权重,从而使得模型的注意力更加精细化,提高了入侵检测的准确性和鲁棒性。同时这个模型结构可以自适应调整聚类的参数,对于不同的数据集可以进行有效的聚类,使得模型的适应性更强并且缓解梯度消失的问题。
S6、最大池化层(MaxPooling)之后是批量归一化层(Batch Normalization),它可以对中间层之间的参数进行归一化,以防止训练时间变慢;
S7、接着使用Bi-LSTM层对数据的时间特征进行提取,CNN结构在提取数据流量的空间特征方面更为有效,但其对长距离相关信息的提取能力一般;BiLSMT结构在提取长距离依赖信息方面更有效,将两者结合起来,提高模型学习特征的能力,可以从空间和时间两个维度充分提取特征,从而达到更高的分类检测精度;
具体地,卷积神经网络(Convolutional Neural Network,简称CNN)是一种常用的神经网络结构,特别适用于处理图像和视频数据,CNN的主要思想是通过卷积操作提取图像中的特征,然后通过池化操作减小特征图的尺寸,最终通过全连接层实现分类或回归等任务,CNN具有局部连接和权值共享的特点,可以大大减少网络的参数量,提高网络的训练速度和泛化能力,近年来,CNN已经在图像分类、目标检测、人脸识别、自然语言处理等领域取得了很多成功应用;
参照图8,在本发明中使用Conv2D层,优点如下:首先是参数共享,在卷积神经网络中,每个卷积核权重都与整个图像的每个部分共享,这种参数共享减少了需要学习的参数数量,同时可以有效地提高模型的泛化能力,其次Conv2D层能够在输入图像的不同区域之间共享信息,保留输入图像的空间结构,而不是将其视为一维数据。这种空间信息保留有助于卷积神经网络捕捉图像中的局部模式和特征,Conv2D层使用的卷积操作具有局部性质,即输出中的每个元素只取决于输入中对应的局部区域,这种局部性质使得Conv2D层的计算可以高度并行化,从而提高了模型训练和推理的速度,最后是数据增强,Conv2D层通常与其他层(如池化层和归一化层)一起使用,这些层可以通过随机缩放、旋转和平移等方法来增加训练数据的多样性,从而防止过拟合并提高模型的泛化能力;
Pooling是最大池化层,池化层(Pooling Layer)是神经网络中的一种常见层类型,它通常紧接在卷积层后面,用于对卷积层输出的特征图进行下采样操作,池化层的主要作用是减小特征图的尺寸,并提取出特征图中的主要特征。常见的池化操作包括最大池化(Max Pooling)和平均池化(Average Pooling)等,它们可以分别取特征图中每个小区域的最大值或平均值作为输出,本发明选用最大池化;
全连接层是神经网络中的一种常见层类型,它将前一层的所有神经元与当前层的所有神经元相连接,每个连接都有一个可学习的权重参数,全连接层的主要作用是将前一层的特征信息转化为当前层的更高层次的特征表示,进而提取出更抽象、更复杂的特征信息。在训练过程中,全连接层的权重参数会根据损失函数进行反向传播,使得模型能够自适应地学习到合适的特征表示。
Dropout是一种在神经网络中常用的正则化方法,每次训练时都会以一定的概率随机丢弃一些神经元,Dropout可以帮助减少过拟合风险,提高模型的泛化能力,并且不需要增加额外的参数或者计算量。
典型的LSTM单元由三个门控单元组成:遗忘门(forget gate)、输入门(inputgate)和输出门(output gate),以及一个记忆单元。遗忘门和输入门根据当前输入和上一时刻的隐藏状态来决定哪些信息需要遗忘或者输入到记忆单元中,输出门则根据当前输入和记忆单元来计算输出值,整个过程可以表示为如图9所示;
其表达式为:
ft=(Wf·[ht-1,xt]+bf)
it=tanh(Wi·[ht-1,xt]+bi)
Ct=tanh(WC·[ht-1,xt]+bC)
Ct=ft*Ct-1+it*Ctot=(Wo[ht-1,xt]+bo)
ht=ot*tanh(Ct)
上式中,f、i、t、o、h、C、W、b分别表示遗忘、输入、时间步长、输出层、隐藏层、细胞状态、权重矩阵、偏差;
参照图10,双向长短期记忆神经网络(BiLSTM)是一种常用的循环神经网络结构,特别适用于处理序列数据。它在LSTM的基础上加入了一个反向层,使得网络可以同时考虑序列的过去和未来信息。在传统的LSTM中,信息的流动是单向的,即从输入序列的前向到后向,而BiLSTM则将一个序列分别从前向后和后向前两个方向进行处理,将两个方向的输出拼接在一起作为最终输出,这样可以更全面地捕捉到序列中的信息。BiLSTM的主要思想是通过前向LSTM和后向LSTM两个方向的信息流,捕捉序列数据中的长期依赖关系。LSTM通过门控机制(遗忘门、输入门和输出门)实现对序列数据的记忆和遗忘,能够有效地解决长期依赖问题。BiLSTM将前向LSTM和后向LSTM的输出连接起来,形成一个全局的表示,可以更好地捕捉序列数据中的语义信息,提高序列数据的建模能力。
S8、最后使用softmax函数作为激活函数,对攻击类型进行分类,softmax分类适用于多类别分类问题,可以对多个类别进行分类。
综上所述,本发明提供了一种融合数据增强和卷积双向长短期记忆网络(CNN-BiLSTM)的网络异常流量检测方法,通过基于密度的噪声应用空间聚类(DBSCAN)算法和改进的生成对抗网络(WGAN)结合对各稀有类数据样本中的簇内样本进行数据扩充,最终实现平衡的数据集,解决数据集中存在正负类样本不平衡的问题。引入随机森林算法结合皮尔逊(Pearson)相关系数分析来进行特征选择,解决特征冗余问题,本发明使用卷积神经网络(CNN)从网络数据流量中提取空间特征,利用其权值共享特性提高速度;引入双向长短期记忆网络(BiLSTM)提取时间特征,学习特征之间的依赖关系,避免过拟合问题,提高模型的多分类的准确率;引入改进的注意力机制CBAM-AS来对特征赋予不同的权重,从而减少开销并提高模型性能,提高模型检测精度和泛化能力;
本发明相较于现有的技术相比,解决了数据集中存在正负类样本不平衡的问题、特征冗余问题、提高模型的多分类的准确率和对于稀有类攻击样本的检测准确率低的问题,缓解模型的梯度消失问题,有更高的计算效率,增强了模型的泛化能力和鲁棒性。
以上是对本发明的较佳实施进行了具体说明,但本发明创造并不限于所述实施例,熟悉本领域的技术人员在不违背本发明精神的前提下还可做作出种种的等同变形或替换,这些等同的变形或替换均包含在本申请权利要求所限定的范围内。
Claims (8)
1.基于数据增强的卷积双向长短期记忆网络入侵检测方法,其特征在于,包括以下步骤:
获取入侵检测数据集,进行非数值特征转换为数值特征处理,并进行独热编码和最小最大值归一化处理,得到预处理后的入侵检测数据集;
通过改进的基于密度的噪声应用空间聚类算法与改进的生成对抗网络对预处理后的入侵检测数据集进行样本扩充处理,得到扩充后的入侵检测数据集;
通过随机森林算法结合皮尔逊相关系数分析对扩充后的入侵检测数据集进行特征选择处理后再进行特征提取处理,得到入侵检测数据集的特征向量;
引入改进的DBSCAN模块,通过特征关注增强模型对入侵检测数据集的特征向量进行赋予权重处理,得到赋予权重后的入侵检测数据集特征;
通过卷积双向长短期记忆网络对赋予权重后的入侵检测数据集特征进行分类处理,得到分类结果,所述分类结果包括正常流量样本与攻击类型流量样本。
2.根据权利要求1所述基于数据增强的卷积双向长短期记忆网络入侵检测方法,其特征在于,所述通过改进的基于密度的噪声应用空间聚类算法与改进的生成对抗网络对预处理后的入侵检测数据集进行样本扩充处理,得到扩充后的入侵检测数据集这一步骤,其具体包括:
引入带权的曼哈顿距离,构建改进的基于密度的噪声应用空间聚类算法并对预处理后的入侵检测数据集进行计算处理,得到预处理后的入侵检测数据集对应的聚类簇和离群点;
所述预处理后的入侵检测数据集中的聚类簇包括少数类簇样本与多数类簇样本;
通过改进的生成对抗网络WGAN对预处理后的入侵检测数据集中的少数类簇样本进行过采样处理,通过Wasserstein距离度量WGAN中的生成器和判别器之间的距离,得到扩充的少数类簇样本;
将扩充的少数类簇样本添加至预处理后的入侵检测数据集,得到扩充后的入侵检测数据集。
3.根据权利要求2所述基于数据增强的卷积双向长短期记忆网络入侵检测方法,其特征在于,所述引入带权的曼哈顿距离,构建改进的基于密度的噪声应用空间聚类算法并对预处理后的入侵检测数据集进行计算处理,得到预处理后的入侵检测数据集对应的聚类簇和离群点这一步骤,其具体包括:
对于预处理后的入侵检测数据集中的每一个特征,计算其与目标变量之间的Pearson相关系数,所述目标变量为攻击流量样本;
对获取到的Pearson相关系数进行最小-最大归一化处理并映射至[0,1]的范围内,得到归一化的相关系数;
将归一化的相关系数作为预处理后的入侵检测数据集中的特征权重;
基于预处理后的入侵检测数据集中的特征权重计算流量数据之间的加权曼哈顿距离,并对距离值大于预设阈值的流量数据进行舍弃,选取满足预设距离值的流量数据对应的距离值进行存储,得到距离矩阵;
确定邻域半径,计算距离矩阵中处于邻域半径内的流量数据样本个数,若计算得到的流量数据样本个数大于或等于预设数目,定义该流量数据样本为核心点;
循环上述确定核心点步骤,直至遍历所有流量数据样本,将得到的核心点进行归类处理,得到聚类簇;
对非核心点进行标记处理为噪声点,并归类为离群点。
4.根据权利要求3所述基于数据增强的卷积双向长短期记忆网络入侵检测方法,其特征在于,所述通过随机森林算法结合皮尔逊相关系数分析对扩充后的入侵检测数据集进行特征选择处理后再进行特征提取处理,得到入侵检测数据集的特征向量这一步骤,其具体包括:
对扩充后的入侵检测数据集进行选取,得到特征集与目标变量;
计算特征集中每个特征与目标变量之间的皮尔逊系数,并按照取绝对值降序排序处理,得到排序序列;
根据排序序列选择与目标变量相关性最强的前K个特征作为候选特征集,其中所述K为人为预设条件数;
将候选特征集输入至随机森林模型进行训练,得到每个特征在随机森林模型中的重要性得分;
选取重要性得分中最高的前N个特征作为最终的特征集对随机森林模型进行训练,并评估训练后的随机森林模型的性能;
若所述训练后的随机森林模型的性能不满足预设要求,则重新设置K值进行随机森林模型训练步骤,直至随机森林模型的性能满足预设要求,输出最终的随机森林模型;
基于最终的随机森林模型对扩充后的入侵检测数据集进行特征选择,得到入侵检测数据集的特征数据;
对入侵检测数据集的特征数据进行预处理,得到入侵检测数据集的特征向量。
5.根据权利要求4所述基于数据增强的卷积双向长短期记忆网络入侵检测方法,其特征在于,所述对入侵检测数据集的特征数据进行预处理,得到入侵检测数据集的特征向量这一步骤,其具体包括:
对入侵检测数据集的特征数据进行灰度转换处理,得到转换后的入侵检测数据集的特征数据;
基于二维卷积神经网络对转换后的入侵检测数据集的特征数据进行空间特征提取,得到入侵检测数据集的空间特征;
基于最大池化层对入侵检测数据集的空间特征进行整合处理,得到入侵检测数据集的特征向量。
6.根据权利要求5所述基于数据增强的卷积双向长短期记忆网络入侵检测方法,其特征在于,所述引入改进的DBSCAN模块,通过特征关注增强模型对入侵检测数据集的特征向量进行赋予权重处理,得到赋予权重后的入侵检测数据集特征这一步骤,其具体包括:
引入改进的DBSCAN模块,构建特征关注增强模型,所述特征关注增强模型包括卷积层、池化层、改进的DBSCAN模块、全连接层、重塑层、通道注意力模块和空间注意力模块;
基于特征关注增强模型的卷积层和池化层,对入侵检测数据集的特征向量进行卷积池化处理,得到入侵检测数据的特征图;
基于特征关注增强模型的改进的DBSCAN模块,对入侵检测数据的特征图进行簇的注意力计算,得到簇注意力向量矩阵;
基于特征关注增强模型的全连接层与重塑层,对簇注意力向量矩阵依次进行全连接处理与重塑处理,得到第一注意力向量和第二注意力向量;
将第一注意力向量和第二注意力向量分别输入至通道注意力模块和空间注意力模块,得到对应的通道注意力向量和空间注意力向量;
将通道注意力向量和空间注意力向量进行相乘再与簇注意力向量矩阵进行相乘,得到赋予权重后的入侵检测数据集特征。
7.根据权利要求6所述基于数据增强的卷积双向长短期记忆网络入侵检测方法,其特征在于,所述改进的DBSCAN模块具体包括自适应加权平均池化层、自适应加权最大池化层、全连接层、卷积层、空间注意力层和跳跃连接,其中:
基于改进的DBSCAN模块的自适应加权平均池化层和自适应加权最大池化层,对输入的数据分别进行加权平均池化操作和加权最大池化操作;
基于改进的DBSCAN模块的全连接层,对加权平均池化操作结果与加权最大池化操作结果进行加权拼接计算,得到加权结果;
基于改进的DBSCAN模块的卷积层对加权结果进行卷积操作,得到对应的卷积结果;
基于改进的DBSCAN模块的跳跃连接直接将输入的数据与对应的卷积结果进行加权,得到最终的加权结果;
基于改进的DBSCAN模块的空间注意力层对最终的加权结果进行特征提取。
8.根据权利要求7所述基于数据增强的卷积双向长短期记忆网络入侵检测方法,其特征在于,所述通过卷积双向长短期记忆网络对赋予权重后的入侵检测数据集特征进行分类处理,得到分类结果这一步骤,其具体包括:
将赋予权重后的入侵检测数据集特征输入至卷积双向长短期记忆网络,所述卷积双向长短期记忆网络包括CNN神经网络、双向长短期记忆神经网络和softmax函数;
基于卷积双向长短期记忆网络的CNN神经网络,对赋予权重后的入侵检测数据集特征进行数据流量特征的空间提取处理,得到入侵检测数据集的空间特征;
基于卷积双向长短期记忆网络的双向长短期记忆神经网络,对赋予权重后的入侵检测数据集特征进行数据流量特征的时间提取处理,得到入侵检测数据集的时间特征;
将入侵检测数据集的空间特征与入侵检测数据集的时间特征进行结合并通过softmax函数进行分类,得到分类结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310734584.4A CN116781346A (zh) | 2023-06-20 | 2023-06-20 | 基于数据增强的卷积双向长短期记忆网络入侵检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310734584.4A CN116781346A (zh) | 2023-06-20 | 2023-06-20 | 基于数据增强的卷积双向长短期记忆网络入侵检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116781346A true CN116781346A (zh) | 2023-09-19 |
Family
ID=88010955
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310734584.4A Pending CN116781346A (zh) | 2023-06-20 | 2023-06-20 | 基于数据增强的卷积双向长短期记忆网络入侵检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116781346A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117579324A (zh) * | 2023-11-14 | 2024-02-20 | 湖北华中电力科技开发有限责任公司 | 基于门控时间卷积网络与图的入侵检测方法 |
CN117579400A (zh) * | 2024-01-17 | 2024-02-20 | 国网四川省电力公司电力科学研究院 | 一种基于神经网络的工控系统网络安全监测方法及系统 |
CN117743611A (zh) * | 2024-02-19 | 2024-03-22 | 长春大学 | 一种数字媒体内容自动分类系统 |
-
2023
- 2023-06-20 CN CN202310734584.4A patent/CN116781346A/zh active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117579324A (zh) * | 2023-11-14 | 2024-02-20 | 湖北华中电力科技开发有限责任公司 | 基于门控时间卷积网络与图的入侵检测方法 |
CN117579324B (zh) * | 2023-11-14 | 2024-04-16 | 湖北华中电力科技开发有限责任公司 | 基于门控时间卷积网络与图的入侵检测方法 |
CN117579400A (zh) * | 2024-01-17 | 2024-02-20 | 国网四川省电力公司电力科学研究院 | 一种基于神经网络的工控系统网络安全监测方法及系统 |
CN117579400B (zh) * | 2024-01-17 | 2024-03-29 | 国网四川省电力公司电力科学研究院 | 一种基于神经网络的工控系统网络安全监测方法及系统 |
CN117743611A (zh) * | 2024-02-19 | 2024-03-22 | 长春大学 | 一种数字媒体内容自动分类系统 |
CN117743611B (zh) * | 2024-02-19 | 2024-04-26 | 长春大学 | 一种数字媒体内容自动分类系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Obulesu et al. | Machine learning techniques and tools: a survey | |
CN109639739B (zh) | 一种基于自动编码器网络的异常流量检测方法 | |
Kulkarni et al. | Random forest classifiers: a survey and future research directions | |
CN116781346A (zh) | 基于数据增强的卷积双向长短期记忆网络入侵检测方法 | |
Wang et al. | Tensor deep learning model for heterogeneous data fusion in Internet of Things | |
JP5591178B2 (ja) | テスト画像内のオブジェクトを分類するための方法 | |
CN112668688A (zh) | 一种入侵检测方法、系统、设备及可读存储介质 | |
CN112801059A (zh) | 图卷积网络系统和基于图卷积网络系统的3d物体检测方法 | |
EP3874412A1 (en) | Computer architecture for multiplier-less machine learning | |
Han et al. | L-Net: lightweight and fast object detector-based ShuffleNetV2 | |
Devi et al. | A review of image classification and object detection on machine learning and deep learning techniques | |
Yeganejou et al. | Improved deep fuzzy clustering for accurate and interpretable classifiers | |
Ji et al. | A network intrusion detection approach based on asymmetric convolutional autoencoder | |
Pandey et al. | A metaheuristic autoencoder deep learning model for intrusion detector system | |
Jeyalakshmi et al. | Accurate liver disease prediction system using convolutional neural network | |
Jafar et al. | Comparative Performance Evaluation of State-of-the-Art Hyperparameter Optimization Frameworks | |
CN115208651B (zh) | 基于逆习惯化机制的流聚类异常检测方法及系统 | |
CN115174263A (zh) | 攻击路径动态决策方法与装置 | |
Patsei et al. | Multi-class object classification model based on error-correcting output codes | |
Gurunath et al. | Insights Into Deep Steganography: A Study of Steganography Automation and Trends | |
Zhao et al. | Coarse-fine surrogate model driven preference-based multi-objective evolutionary fuzzy clustering algorithm for color image segmentation | |
Qiu et al. | Graph convolutional networks and attention-based outlier detection | |
US20040064425A1 (en) | Physics based neural network | |
KR102421987B1 (ko) | 깊은 신경망 내에서의 강화된 배치 정규화를 위한 전자 장치, 방법, 및 컴퓨터 판독가능 매체 | |
CN116015967B (zh) | 基于改进鲸鱼算法优化delm的工业互联网入侵检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |