CN111130942B - 一种基于消息大小分析的应用流量识别方法 - Google Patents
一种基于消息大小分析的应用流量识别方法 Download PDFInfo
- Publication number
- CN111130942B CN111130942B CN201911381969.7A CN201911381969A CN111130942B CN 111130942 B CN111130942 B CN 111130942B CN 201911381969 A CN201911381969 A CN 201911381969A CN 111130942 B CN111130942 B CN 111130942B
- Authority
- CN
- China
- Prior art keywords
- message
- stream
- vector
- message size
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 238000004458 analytical method Methods 0.000 title abstract description 5
- 239000013598 vector Substances 0.000 claims abstract description 37
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 15
- 230000007246 mechanism Effects 0.000 claims abstract description 9
- 238000012549 training Methods 0.000 claims abstract description 9
- 238000007781 pre-processing Methods 0.000 claims abstract description 6
- 239000000284 extract Substances 0.000 claims abstract description 3
- 238000013528 artificial neural network Methods 0.000 claims description 9
- 230000004913 activation Effects 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 7
- 230000003993 interaction Effects 0.000 claims description 5
- 238000000605 extraction Methods 0.000 claims description 4
- 238000011176 pooling Methods 0.000 claims description 4
- 230000000306 recurrent effect Effects 0.000 claims description 4
- 210000002569 neuron Anatomy 0.000 claims description 3
- 210000004027 cell Anatomy 0.000 description 14
- 230000006870 function Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 230000015654 memory Effects 0.000 description 5
- 238000013507 mapping Methods 0.000 description 3
- 125000004122 cyclic group Chemical group 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000000523 sample Substances 0.000 description 2
- 241001377894 Trias Species 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L43/00—Arrangements for monitoring or testing data switching networks
- H04L43/08—Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Environmental & Geological Engineering (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
本发明属于应用流量识别技术领域,具体涉及一种基于消息大小分析的应用流量识别方法。本发明具体操作为从局域网络环境中选取适当长度的数据流,截取长度为m比特大小的流,提取流中完整的消息;将消息进行嵌入处理,通过将消息的每一字节嵌入到向量中的数据预处理,使用卷积神经网络提取数据流中的消息的特征;生成消息大小特征,对第三个卷积神经网络层的输出做平坦化处理;通过使用LSTM来编码特征矢量Vi来获取流中消息的上下文信息;引入注意机制,将每个流中重要的消息大小特征加权表示,突出比较明显且重要的特征;应用流量识别,通过给定的矢量f,训练出一个二进制分类器来进行应用流量识别。
Description
技术领域
本发明属于应用流量识别技术领域,具体涉及一种基于消息大小分析的应用流量识别方法。
背景技术
目前识别网络应用手段主要有四种:(1)传统的基于端口的识别;(2)基于数据包有效负荷的识别;(3)基于数据流统计特征的识别;(4)基于机器学习的识别。随着计算机网络技术的快速发展,应用程序的种类增多且许多应用程序使用不同的混淆方法,传统的应用识别技术面临着巨大的挑战。基于端口的分类方法早已经过时,而采用基于数据包有效载荷的识别有侵犯用户隐私规则的风险,同时对于分析网络中每个包的整个有效载荷所要付出的工作量也是巨大的。基于数据流统计特征的识别对数据流属性的选取有较高的要求,对整个交互流进行统计以获取一些属性需要投入一定资源,且由于网络环境的复杂性,这种识别方式往往存在误识别的风险。基于机器学习的分类方法被认为是最具有前景的,一经提出就引起的广泛关注并且发展迅速,近年来更多的在文献中被提到,Huang等人利用KNN算法(Huang S,Chen K,Liu C,Liang A.A statistical-feature-based approach tointernet traffic classification using machine learning.)克服了传统方法中端口号不可靠以及对有效载荷解释困难的弊端,然而在训练上的高投入以及模型的高复杂性意味着可伸缩性较低且缺乏对于临时流量演变的应变能力。深度学习广泛的应用中取得了巨大的成功,如计算机视觉,语音识别,自然语言处理等,这让深度学习技术在网络安全领域被采用。Radford等人提出的探测器利用长短期记忆神经网络(LSTM)对序列的处理能力,将网络流量压缩、标记并进行建模,以检测异常流量(B.J.Radford,L.M.Apolonio,A.J.Trias,and J.A.Simpson.Network traffic anomaly detection using recurrentneural networks.),然而这需要将网络流量转化为现有深度学习模型的充分形式。Liu等人提出基于卷积神经网络和递归神经网络的有效载荷分类方法,采用端到端的方式进行攻击检测(H.Liu,B.Lang,M.Liu,and H.Yan.CNN and RNN based payload classificationmethods for attack detection.)。Wang等人提出了一种分层的深度学习模型,卷积神经网络和长短期记忆神经网络分别学习低层空间特征和高层时间特征,该方法获得了较高的准确性和检测率(W.Wang,Y.Sheng,J.Wang,X.Zeng,X.Ye,Y.Huang,and M.Zhu.HAST-IDS:Learning hierarchical spatial-temporal features using deep neural networks toimprove intrusion detection.)。然而,流中大量的包限制了它们的方法对网络流量的表示能力。
发明内容
针对上述问题,本发明提供了一种基于消息大小分析的应用流量识别方法。
为了达到上述目的,本发明采用了下列技术方案:
一种基于消息大小的应用流量识别方法,包括以下步骤:
步骤1,从局域网络环境中选取数据流提取消息;
步骤2,将消息进行预处理;
步骤3,用卷积神经网络提取数据流中的消息的特征;
步骤4,生成消息大小特征;
步骤5,通过LSTM编码特征矢量来获取流中消息的上下文信息;
步骤6,引入注意机制;
步骤7,应用流量识别。
进一步,所述步骤1从局域网络环境中选取数据流提取消息的具体操作为:不同应用之间的流量交互所发送的数据流长度不同,聚合消息数据的大小差异非常大,截取长度为m比特大小的流,提取流中完整的消息。
进一步,所述步骤2将消息进行预处理的具体操作为:将提取所得消息的每一字节根据每一消息的二进制表示,嵌入到一个8维向量中,嵌入后的数据表示为X8×m;利用这样的方法避免产生稀疏的向量且更容易保存,达到提高内存利用率和减小计算复杂度的目的。
进一步,所述步骤3用卷积神经网络提取数据流中的消息的特征的具体操作为:
首先,所提出的特征提取器由一系列带有128个核尺寸为3的滤波器的一维卷积层组成,通过多层连续卷积从所得到的消息中迭代提取消息数据的局部语义,卷积运算为:其中,代表卷积层提取到的维度较高的特征,σ为激活函数,xj代表嵌入数据第j个重叠模块,wi代表第i个卷积过滤器,where xj∈X8×m表示x来自经过预处理的嵌入数据第j个重叠模块,第i个特征映射的第j列,卷积层的输出由线性整流层的活性化函数进行激活;为了降低卷积后的维度,还执行了大小为2的池化层。利用卷积神经网络多核连续卷积以更小的代价提取了消息大小特征,且有效降低了所提取特征的单一性,池化层聚合并降低了特征的维度,减少了运算量,同时,线性整流层对卷积层的输出进行激活后提高了网络的表达能力。
进一步,所述步骤4生成消息大小特征的具体操作为:对第三个卷积神经网络层的输出做平坦化处理;在步骤3的基础上,加入256个具有全连接层的神经细胞;每一段流量中的消息大小都有一个特征矢量V与之对应。在所做的平坦化处理中,通过设置阈值并与某些隐含层节点的权重对比,让特定的权重不工作,这样做的好处除了加速运算外,还有效地防止了过拟合。
进一步,所述步骤5通过LSTM编码特征矢量来获取流中消息的上下文信息的具体操作为:通过LSTM递归神经网络编码特征矢量V,编码后输出结果;LSTM主要用于长短时顺序数据的处理,核心思想是循环记忆阵列;
其中,f表示忘记门,i表示输入,o:表示输出,c表示单元状态,h表示隐藏状态,tanh表示激活函数,k表示细胞个数,t表示时刻,Wfk表示遗忘门的循环权重,Wok输出门的循环权重,Wck表示单元状态的循环权重,X表示当前输入的向量,U表示输入权重,b表示偏执,⊙表示同或运算,表示更新后的单元状态;
a式:在忘记门f中读取Xt和ht-1,输出一个细胞状态ct-1的值;
b式:决定什么样的新信息被放入细胞中;
c式:决定输出什么值;
d式:使用tanh生成新候选值向量;
e式:更新的候选值;
f式:将细胞状态通过tanh处理,与o的输出相乘得到最终结果。
其中LSTM(Vi)表示使用LSTM处理特征矢量Vi,n表示多个网络数据流,hi表示用LSTM编码后的输出结果。利用LSTM拟合序列数据的能力,通过遗忘门和输出门忘记部分信息来解决了梯度反传过程由于逐步缩减而产生的梯度消失问题。且LSTM更能分析输入信息之间的整体逻辑序列,在解决信息彼此间复杂的关联性方面有优势。
进一步,所述步骤6引入注意机制的具体操作为:为了突出明显且重要的特征表示,将每个流中重要的消息大小特征加权表示,其重要性权重表示为αi;
引入注意机制,将输出结果hi用来生成重要性流矢量,其反映了所有数据流中每一个消息大小的重要性,再对重要性权重αi进行标准化训练,最后生成流的矢量f,
ui=tanh(Wthi+bt)
其中,Wt为权重值,bt为偏移值,ut代表上下文矢量的可训练变量,ui表示权重的训练变量。由于网络流中的所有消息对流表示的贡献并不相同,所以在这一步骤引入注意力机制,通过将输出结果重新加权,提取给定网络流中的优势消息的大小。
进一步,所述步骤7应用流量识别的具体操作为:通过给定的矢量f,训练出一个二进制分类器进行应用流量识别;先使用一个完全连接层来额外压缩注意力层的输出;加入另一个具有softmax函数的全连通层来计算条件概率分布,进行分类完成识别。全连接层在整个卷积神经网络中起到“分类器”的作用,本方法采用的两个全连接层,分别起着不同的作用,共同完成消息大小特征表示到样本标记空间的映射。
与现有技术相比本发明具有以下优点:
1、本发明相比传统的基于端口的识别方法,识别的准确性更高,识别粒度更细,减小了识别的局限性;
2、本发明通过分析消息序列进行应用识别,在不检查有效载荷的情况下,保护了用户的隐私,减少了分析有效载荷所需的工作量;
3、本发明通过利用卷积神经网络在特征提取方面的优势以及长短期记忆神经网络在处理消息序列方面出色的能力,减少了模型的开销,提高了应用识别的效率。
附图说明
图1为抓包器部署以及发明系统部署图;
图2为应用流量交互模型图;
图3为分类器数据预处理模型图;
图4为本发明应用流量识别模型图。
具体实施方式
实施例1
本实施例一种基于消息大小的应用流量识别方法,包括以下步骤:
步骤1,如图1为抓包器部署以及发明系统部署图所示,在局域网路由器内部署数据流抓取软件,收集了小型校园局域网内PC用户和无线上网的数据流,本实例中收集的数据流分为请求和响应两个方向,历时3天共235GB的数据流。
步骤2,如图2应用流量交互模型图,应用A与应用B之间的数据流交互分为请求流和响应流,每个方向的数据流由若干个消息组成,将消息个数少于2的数据流丢弃,细节如下:
每一种应用数据流都有一个矢量f与之相对应,矢量中包含它本身的类别信息和其他一些有用信息,例如开始时间、IP地址、传输层端口号等信息。
进行分类器分类时,分类器必须使用至少2个消息来判别应用类别
为了避免过拟合和不平衡性,每个应用所对应的数据流条数在4000条到8000条之间。
步骤3,特征提取器由一系列带有128个核尺寸为3的滤波器的一维卷积层组成,通过多层连续卷积从所得到的消息中迭代提取消息数据的局部语义,卷积运算为:其中,代表卷积层提取到的维度较高的特征,σ为激活函数,xj代表嵌入数据第j个重叠模块,wi代表第i个卷积过滤器,where xj∈X8×m表示X来自经过预处理的嵌入数据第j个重叠模块,第i个特征映射的第j列,卷积层的输出由线性整流层的活性化函数进行激活,为了降低卷积后的维度,还执行了大小为2的池化层。
步骤4,为了避免过拟合的问题出现,对第三个卷积神经网络层的输出做平坦化处理;在步骤3的基础上,加入256个具有全连接层的神经细胞;每一段流量中的消息大小都有一个特征矢量V与之对应。
步骤5,通过LSTM递归神经网络编码特征矢量V,编码后输出结果;LSTM主要用于长短时顺序数据的处理,核心思想是循环记忆阵列;
其中,f表示忘记门,i表示输入,o:表示输出,c表示单元状态,h表示隐藏状态,tanh表示激活函数,k表示细胞个数,t表示时刻,Wfk表示遗忘门的循环权重,Wok输出门的循环权重,Wck表示单元状态的循环权重,X表示当前输入的向量,U表示输入权重,b表示偏执,⊙表示同或运算,表示更新后的单元状态;
a式:在忘记门f中读取Xt和ht-1,输出一个细胞状态ct-1的值;
b式:决定什么样的新信息被放入细胞中;
c式:决定输出什么值;
d式:使用tanh生成新候选值向量;
e式:更新的候选值;
f式:将细胞状态通过tanh处理,与o的输出相乘得到最终结果。
其中LSTM(Vi)表示使用LSTM处理特征矢量Vi,n表示多个网络数据流,hi表示用LSTM编码后的输出结果。
步骤6,为了突出明显且重要的特征表示,将每个流中重要的消息大小特征加权表示,其重要性权重表示为αi;
引入注意机制,将输出结果hi来生成重要性流矢量,再对重要性权重αi进行标准化训练,最后生成流的矢量f,
ui=tanh(Wthi+bt)
其中,Wt为权重值,bt为偏移值,ut代表上下文矢量的可训练变量。
步骤7,过给定的矢量f,训练出一个二进制分类器进行应用流量识别;使用一个完全连接层来额外压缩注意力层的输出;加入另一个具有softmax函数的全连通层来计算条件概率分布,进行分类完成识别。
上述内容对实施例做了详细的说明,但本发明不受上述实施方式和实施例的限制,在不脱离本发明宗旨的前提下,在本领域技术人员所具备的知识范围内还可以对其进行各种变化和改进,这些变化和改进均落入本发明要保护的范围之内。
Claims (6)
1.一种基于消息大小的应用流量识别方法,其特征在于:包括以下步骤:
步骤1,从局域网络环境中选取数据流提取消息;
步骤2,将消息进行预处理;
步骤3,用卷积神经网络提取数据流中的消息的特征;
步骤4,生成消息大小特征;
步骤5,通过LSTM编码特征矢量来获取流中消息的上下文信息;
步骤6,引入注意机制;
步骤7,应用流量识别;
所述步骤3用卷积神经网络提取数据流中的消息的特征的具体操作为:
所提出的特征提取器由一系列带有128个核尺寸为3的滤波器的一维卷积层组成,通过多层连续卷积从所得到的消息中迭代提取消息数据的局部语义,卷积运算为:其中,代表卷积层提取到的维度较高的特征,σ为激活函数,xj代表嵌入数据第j个重叠模块,wi代表第i个卷积过滤器,where xj∈X8×m表示X来自经过预处理的嵌入数据第j个重叠模块,第i个特征映射的第j列,卷积层的输出由线性整流层的活性化函数进行激活,为了降低卷积后的维度,还执行了大小为2的池化层;
所述步骤7应用流量识别的具体操作为:通过给定的矢量f,训练出一个二进制分类器进行应用流量识别;使用一个完全连接层来额外压缩注意力层的输出;加入另一个具有softmax函数的全连通层来计算条件概率分布,进行分类完成识别。
2.根据权利要求1所述的一种基于消息大小的应用流量识别方法,其特征在于:所述步骤1从局域网络环境中选取数据流提取消息的具体操作为:不同应用之间的流量交互所发送的数据流长度不同,聚合消息数据的大小差异非常大,截取长度为m比特大小的流,提取流中完整的消息。
3.根据权利要求1所述的一种基于消息大小的应用流量识别方法,其特征在于:所述步骤2将消息进行预处理的具体操作为:将提取所得消息的每一字节根据每一消息的二进制表示,嵌入到一个8维向量中,嵌入后的数据表示为X8×m。
4.根据权利要求1所述的一种基于消息大小的应用流量识别方法,其特征在于:所述步骤4生成消息大小特征的具体操作为:为了避免过拟合的问题出现,对第三个卷积神经网络层的输出做平坦化处理;在步骤3的基础上,加入256个具有全连接层的神经细胞;每一段流量中的消息大小都有一个特征矢量V与之对应。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911381969.7A CN111130942B (zh) | 2019-12-27 | 2019-12-27 | 一种基于消息大小分析的应用流量识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911381969.7A CN111130942B (zh) | 2019-12-27 | 2019-12-27 | 一种基于消息大小分析的应用流量识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111130942A CN111130942A (zh) | 2020-05-08 |
CN111130942B true CN111130942B (zh) | 2021-09-14 |
Family
ID=70504994
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911381969.7A Active CN111130942B (zh) | 2019-12-27 | 2019-12-27 | 一种基于消息大小分析的应用流量识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111130942B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111737371B (zh) * | 2020-08-24 | 2020-11-13 | 上海飞旗网络技术股份有限公司 | 可动态预测的数据流量检测分类方法及装置 |
CN114221992A (zh) * | 2021-11-12 | 2022-03-22 | 国网山西省电力公司电力科学研究院 | 一种基于跨层指纹的细粒度设备识别方法 |
CN116760727A (zh) * | 2023-05-30 | 2023-09-15 | 南京南瑞信息通信科技有限公司 | 一种异常流量识别方法、设备、系统及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109063777A (zh) * | 2018-08-07 | 2018-12-21 | 北京邮电大学 | 网络流量分类方法、装置及实现装置 |
CN109714322A (zh) * | 2018-12-14 | 2019-05-03 | 中国科学院声学研究所 | 一种检测网络异常流量的方法及其系统 |
CN110138681A (zh) * | 2019-04-19 | 2019-08-16 | 上海交通大学 | 一种基于tcp报文特征的网络流量识别方法及装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10033686B2 (en) * | 2016-05-23 | 2018-07-24 | Oath Inc. | Computerized system and method for automatically creating and communicating media streams of digital content |
-
2019
- 2019-12-27 CN CN201911381969.7A patent/CN111130942B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109063777A (zh) * | 2018-08-07 | 2018-12-21 | 北京邮电大学 | 网络流量分类方法、装置及实现装置 |
CN109714322A (zh) * | 2018-12-14 | 2019-05-03 | 中国科学院声学研究所 | 一种检测网络异常流量的方法及其系统 |
CN110138681A (zh) * | 2019-04-19 | 2019-08-16 | 上海交通大学 | 一种基于tcp报文特征的网络流量识别方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN111130942A (zh) | 2020-05-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112508085B (zh) | 基于感知神经网络的社交网络链路预测方法 | |
Yoshihashi et al. | Classification-reconstruction learning for open-set recognition | |
CN111130942B (zh) | 一种基于消息大小分析的应用流量识别方法 | |
Wang et al. | App-net: A hybrid neural network for encrypted mobile traffic classification | |
CN113806746B (zh) | 基于改进cnn网络的恶意代码检测方法 | |
CN109831422B (zh) | 一种基于端到端序列网络的加密流量分类方法 | |
Lai et al. | Industrial anomaly detection and attack classification method based on convolutional neural network | |
CN109902740B (zh) | 一种基于多算法融合并行的再学习工业控制入侵检测方法 | |
CN104700100A (zh) | 面向高空间分辨率遥感大数据的特征提取方法 | |
CN115277888B (zh) | 一种移动应用加密协议报文类型解析方法及系统 | |
CN115037805B (zh) | 一种基于深度聚类的未知网络协议识别方法、系统、装置及存储介质 | |
Yang et al. | One-class classification using generative adversarial networks | |
CN116192523A (zh) | 一种基于神经网络的工控异常流量监测方法和系统 | |
CN117082118B (zh) | 基于数据推导及端口预测的网络连接方法 | |
Han et al. | A packet-length-adjustable attention model based on bytes embedding using flow-wgan for smart cybersecurity | |
Li et al. | Network traffic classification based on deep learning | |
CN114330469A (zh) | 一种快速、准确的加密流量分类方法及系统 | |
CN113887642B (zh) | 一种基于开放世界的网络流量分类方法及系统 | |
Shahraki et al. | Internet traffic classification using an ensemble of deep convolutional neural networks | |
Chen et al. | WFF-EGNN: Encrypted Traffic Classification based on Weaved Flow Fragment via Ensemble Graph Neural Networks | |
Han et al. | A novel transfer learning based on albert for malicious network traffic classification | |
CN114358177B (zh) | 一种基于多维度特征紧凑决策边界的未知网络流量分类方法及系统 | |
Zhang et al. | Semi-supervised deep learning based network intrusion detection | |
Li et al. | Deep convolutional neural network for real and fake face discrimination | |
Han et al. | XA-GANomaly: An explainable adaptive semi-supervised learning method for intrusion detection using GANomaly |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |