CN109194498A - 一种基于lstm的网络流量预测方法 - Google Patents
一种基于lstm的网络流量预测方法 Download PDFInfo
- Publication number
- CN109194498A CN109194498A CN201810845915.0A CN201810845915A CN109194498A CN 109194498 A CN109194498 A CN 109194498A CN 201810845915 A CN201810845915 A CN 201810845915A CN 109194498 A CN109194498 A CN 109194498A
- Authority
- CN
- China
- Prior art keywords
- network flow
- package
- lstm
- data
- parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/14—Network analysis or design
- H04L41/147—Network analysis or design for predicting network behaviour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/14—Network analysis or design
- H04L41/142—Network analysis or design using statistical or mathematical methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/14—Network analysis or design
- H04L41/145—Network analysis or design involving simulating, designing, planning or modelling of a network
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Algebra (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Probability & Statistics with Applications (AREA)
- Pure & Applied Mathematics (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种基于LSTM的网络流量预测方法,方法为:利用封包嗅探工具抓取网络流量数据,在路由节点上部署封包嗅探工具,抓取网络流量数据,将单位时间内所有封包作为一个样本,每个样本中的所有封包分开保存;进行数据预处理,提取特征,并标注标签,提取的特征包括总封包数、出境/入境封包比例、出境/入境封包总长度、出境/入境封包平均长度、出境/入境封包长度方差、总/平均传输时间;使用LSTM对数据进行建模;使用模型预测新的数据,得到网络流量的预测值。本方法将长短时记忆模型与人工神经网络相结合,提升了网络流量的预测精确度。
Description
技术领域
本发明涉及网络流量预测技术领域,特别是一种基于LSTM的网络流量预测方法。
背景技术
当前,基于TCP/IP技术的互联网飞速发展,新的网络技术不断出现,网络基础设施的规模不断扩大,网络交互日益活跃。网络作为工作,生活和学习的重要工具,已经在交通、医疗、互联网服务、教育等多方面影响公众的生活,成为日常社会中越来越重要的组成部分。在互联网飞速发展的背后,愈加复杂的网络环境也给网络研究人员提出了越来越多的问题。其中,一个非常重要的问题在于,作为网络的服务提供商或者网络的管理人员,如何有效地通过对网络流信息的获取和分析,来了解、管理、检测、优化现有的网络环境。
面对如此复杂的网络环境,对于网络流量分析的研究就应运而生了。网络流量是所有网络行为的载体,它是记录和反映互联网发展的重要依据,几乎所有网络相关的活动都是与网络流量相联系。作为网络行为的重要组成部分,通过对网络流量数据的抓取和分析,可以间接掌握网络的行为。根据既定的网络协议,多种不相同的网络服务、网络行为都可以格式化为统一的网络流量格式,让网络管理者可以从更高的角度来了解和管理网络。通过对网络流量的统计,研究者可以了解到过去网络中用户的使用情况,实现业务统计、网络计费等功能;通过应用网络流量的预测,能更好的规划网络资源,保证网络的服务正常,并且通过识别网络流量中的恶意流量,更好地保护正常业务不受影响。
近几年来,基于特征提取和机器学习的自动分类技术在网络流量识别领域逐渐得到重视。常见的网络流量分类算法基于一种假设:常规流量分别具有某种相似的、异于其他流量的统计特征,使用机器学习的网络流量分类技术大多是基于网络流量中若干特征的提取,比如说数据包传输的间隔、数据包大小、端口号等等,将这些特征作为一些分类器的输入,例如朴素贝叶斯、决策树或者人工神经网络,来进行网络流量的分类。2005年Moore等人从数据流中提取出248个统计特征(如流数据包平均达到时间等),并将朴素贝叶斯模型及其改进算法用于网络流分类之中,得到很好的分类结果。这些方法的训练过程通常是离线并且耗时较多的,但在分类过程中效率较高,可以达到实时进行,该方法与上面的方法一样,需要网络专家先从网络数据中提取大量的特征信息,极度依赖专家经验,难以让学习模型准确地自动从网络流量数据中提取有用的特征。
发明内容
本发明的目的在于提供一种基于LSTM的网络流量预测方法,从而提升网络流量的预测精确度。
实现本发明目的的技术解决方案为:一种基于LSTM的网络流量预测方法,包括以下步骤:
步骤1,利用封包嗅探工具抓取网络流量数据;
步骤2,进行数据预处理,提取特征,并标注标签;
步骤3,使用LSTM对数据进行建模;
步骤4,使用模型预测新的数据,得到网络流量的预测值。
进一步地,步骤1中所述的利用封包嗅探工具抓取网络流量数据,具体如下:
在路由节点上部署封包嗅探工具,抓取网络流量数据,将单位时间内所有封包作为一个样本,每个样本中的所有封包分开保存。
进一步地,步骤2中所述的进行数据预处理,提取特征,并标注标签,具体如下:
提取的特征包括:
(1)总封包数
(2)出境/入境封包比例
(3)出境/入境封包总长度
(4)出境/入境封包平均长度
(5)出境/入境封包长度方差
(6)总/平均传输时间
根据预测的目标,提取以上特征中的一个或几个,并标注标签。
进一步地,步骤3中所述的使用LSTM对数据进行建模,具体如下:
(1)整个神经网络分为输入层、循环层、全连接层三层,全连接层同时也作为输出层;神经网络的训练由多个迭代组成,每个迭代中都要进行正向传播和反向传播两个步骤;
(2)在循环层的正向传播过程中,使用当前时间步骤的输入和上个时间步骤的输出进行运算,得出当前时间步骤的输出,来建模输入与输出之间的关系,以及输出之间的历史相关性;
其中循环层的正向传播过程如下:
f(t)=σ(Wfx(t)+Ufh(t-1)+Bf)
i(t)=σ(Wix(t)+Uih(t-1)+Bi)
o(t)=σ(Wox(t)+Uoh(t-1)+Bo)
h(t)=o(t)*C(t)
其中,x是循环层的输入,h和C是两个隐藏状态,同时h也是循环层的输出;上角标t代表某个时间步骤的值,σ为Sigmoid函数;W、U和B是参数,一共有四组,W为输入和输出之间的关系,U为输出的历史相关性,B为偏移;所有参数初始化为随机值,隐藏状态初始化为零;
(3)在循环层的反向传播过程中,依次计算每个参数和隐藏状态的梯度;首先计算最后一个时间步骤的隐藏状态,然后计算最后一个时间步骤的参数,再计算倒数第二个时间步骤的隐藏状态,以此类推;得到每个参数的梯度后,使用每个参数减去其梯度的设定倍数,来完成反向传播;
(4)全连接层执行普通的线性仿射运算,将循环层的输出维度进行压缩,使其和标签一致;
(5)循环层采用Dropout机制,在训练过程中让一部分神经元不工作,其中每个神经元不工作的概率为10%;
(6)训练参数如下:
Dropout比例:10%
时间步骤:10
LSTM单元数:200
LSTM层数:1
全连接单元数:[10,10]
批量大小:10
进一步地,步骤4中所述的使用模型预测新的数据,得到网络流量的预测值,具体如下:
对于每个新的样本,首先按照步骤2提取特征,处理为LSTM所需的格式;然后使用训练所得的LSTM参数,将样本和参数代入步骤3的循环层的正向传播过程公式中,即可得到网络流量的预测结果。
本发明与现有技术相比,其显著优点在于:本发明将长短时记忆模型与人工神经网络相结合,提升了在粗粒度网络流量上的预测精确度。
附图说明
图1是本发明基于LSTM的网络流量预测方法的流程示意图。
图2是本发明中神经网络的整体结构图。
图3是本发明中循环层的内部结构图。
具体实施方式
结合图1,本发明基于LSTM的网络流量预测方法,包括以下步骤:
步骤1,利用封包嗅探工具抓取网络流量数据;
步骤2,进行数据预处理,提取特征,并标注标签;
步骤3,使用LSTM对数据进行建模;
步骤4,使用模型预测新的数据,得到网络流量的预测值。
进一步地,步骤1中所述的利用封包嗅探工具抓取网络流量数据,具体如下:
在路由节点上部署封包嗅探工具,抓取网络流量数据,将单位时间内所有封包作为一个样本,每个样本中的所有封包分开保存。
进一步地,步骤2中所述的进行数据预处理,提取特征,并标注标签,具体如下:
提取的特征包括:
(1)总封包数
(2)出境/入境封包比例
(3)出境/入境封包总长度
(4)出境/入境封包平均长度
(5)出境/入境封包长度方差
(6)总/平均传输时间
根据预测的目标,提取以上特征中的一个或几个,并标注标签。
进一步地,步骤3中所述的使用LSTM对数据进行建模,具体如下:
(1)整个神经网络分为输入层、循环层、全连接层三层,全连接层同时也作为输出层;神经网络的训练由多个迭代组成,每个迭代中都要进行正向传播和反向传播两个步骤;
(2)在循环层的正向传播过程中,使用当前时间步骤的输入和上个时间步骤的输出进行运算,得出当前时间步骤的输出,来建模输入与输出之间的关系,以及输出之间的历史相关性;
其中循环层的正向传播过程如下:
f(t)=σ(Wfx(t)+Ufh(t-1)+Bf)
i(t)=σ(Wix(t)+Uih(t-1)+Bi)
o(t)=σ(Wox(t)+Uoh(t-1)+Bo)
h(t)=o(t)*C(t)
其中,x是循环层的输入,h和C是两个隐藏状态,同时h也是循环层的输出;上角标t代表某个时间步骤的值,σ为Sigmoid函数;W、U和B是参数,一共有四组,W为输入和输出之间的关系,U为输出的历史相关性,B为偏移;所有参数初始化为随机值,隐藏状态初始化为零;
(3)在循环层的反向传播过程中,依次计算每个参数和隐藏状态的梯度;首先计算最后一个时间步骤的隐藏状态,然后计算最后一个时间步骤的参数,再计算倒数第二个时间步骤的隐藏状态,以此类推;得到每个参数的梯度后,使用每个参数减去其梯度的设定倍数,来完成反向传播;
(4)全连接层执行普通的线性仿射运算,将循环层的输出维度进行压缩,使其和标签一致;
(5)循环层采用Dropout机制,在训练过程中让一部分神经元不工作,其中每个神经元不工作的概率为10%;
(6)训练参数如下:
Dropout比例:10%
时间步骤:10
LSTM单元数:200
LSTM层数:1
全连接单元数:[10,10]
批量大小:10
进一步地,步骤4中所述的使用模型预测新的数据,得到网络流量的预测值,具体如下:
对于每个新的样本,首先按照步骤2提取特征,处理为LSTM所需的格式;然后使用训练所得的LSTM参数,将样本和参数代入步骤3的循环层的正向传播过程公式中,即可得到网络流量的预测结果。
下面结合附图及具体实施方式对本发明的内容做进一步的说明。
实施例1
本发明基于LSTM的网络流量预测方法,使用长短时记忆模型来预测网络流量,并考察了网络流量的自相关性,结合网络流量自相关的特点,将长短时记忆模型与人工神经网络相结合,进一步提升在粗粒度网络流量上的预测精确度。
结合图1,一种基于LSTM的网络流量预测方法,包括如下步骤:
步骤1,利用封包嗅探工具抓取网络流量数据。
在大型路由节点上部署封包嗅探工具,抓取网络流量数据,将单位时间内所有封包作为一个样本,每个样本中的所有封包分开保存,以便数据预处理。
步骤2,进行数据预处理,提取特征,并标注标签。
提取的特征包括:
(2a)总封包数
(2b)出境/入境封包比例
(2c)出境/入境封包总长度
(2d)出境/入境封包平均长度
(2e)出境/入境封包长度方差
(2f)总/平均传输时间
根据预测的目标,在标签选用后一个时间步骤,在以上特征中选择的一个或几个进行特征提取。
步骤3,结合图2,使用LSTM对数据进行建模。
(3a)整个神经网络分为输入层、循环层、全连接层三层,全连接层同时也作为输出层;神经网络的训练由多个迭代组成,每个迭代中都要进行正向传播和反向传播两个步骤。
(3b)结合图3,在循环层的正向传播过程中,使用当前时间步骤的输入和上个时间步骤的输出进行运算,得出当前时间步骤的输出,来建模输入与输出之间的关系,以及输出之间的历史相关性,其中循环层的正向传播过程如下:
f(t)=σ(Wfx(t)+Ufh(t-1)+Bf)
i(t)=σ(Wix(t)+Uih(t-1)+Bi)
o(t)=σ(Wox(t)+Uoh(t-1)+Bo)
h(t)=o(t)*C(t)
其中x是循环层的输入,h和C是两个隐藏状态,同时h也是循环层的输出。上角标t代表某个时间步骤的值,σ为Sigmoid函数。W、U和B是参数,一共有四组,W表示输入和输出之间的关系,U表示输出的历史相关性,B是偏移。所有参数初始化为随机值,隐藏状态初始化为零。
(3c)在循环层的反向传播过程中,依次计算每个参数和隐藏状态的梯度;首先计算最后一个时间步骤的隐藏状态,然后计算最后一个时间步骤的参数,再计算倒数第二个时间步骤的隐藏状态,以此类推;得到每个参数的梯度后,使用每个参数减去其梯度的一定倍数,来完成反向传播。
(3d)全连接层执行普通的线性仿射运算,将循环层的输出维度进行压缩,使其和标签一致。
(3e)循环层采用了Dropout机制,在训练过程中让一部分神经元不工作,以防止过拟合,提高模型泛化能力。其中每个神经元不工作的概率为10%。
(3f)训练参数如下:
Dropout比例:10%
时间步骤:10
LSTM单元数:200
LSTM层数:1
全连接单元数:[10,10]
批量大小:10
步骤4,使用模型预测新的数据,得到网络流量的预测值。
对于每个新的样本,首先按照步骤2提取特征,处理为LSTM所需的格式,然后使用训练所得的LSTM参数,将样本和参数代入步骤3的公式中,即可得到网络流量的预测结果。
综上所述,本发明将长短时记忆模型与人工神经网络相结合,提升了在粗粒度网络流量上的预测精确度。
Claims (5)
1.一种基于LSTM的网络流量预测方法,其特征在于,包括以下步骤:
步骤1,利用封包嗅探工具抓取网络流量数据;
步骤2,进行数据预处理,提取特征,并标注标签;
步骤3,使用LSTM对数据进行建模;
步骤4,使用模型预测新的数据,得到网络流量的预测值。
2.根据权利要求1所述的基于LSTM的网络流量预测方法,其特征在于,步骤1中所述的利用封包嗅探工具抓取网络流量数据,具体如下:
在路由节点上部署封包嗅探工具,抓取网络流量数据,将单位时间内所有封包作为一个样本,每个样本中的所有封包分开保存。
3.根据权利要求1所述的基于LSTM的网络流量预测方法,其特征在于,步骤2中所述的进行数据预处理,提取特征,并标注标签,具体如下:
提取的特征包括:
(1)总封包数
(2)出境/入境封包比例
(3)出境/入境封包总长度
(4)出境/入境封包平均长度
(5)出境/入境封包长度方差
(6)总/平均传输时间
根据预测的目标,提取以上特征中的一个或几个,并标注标签。
4.根据权利要求1所述的基于LSTM的网络流量预测方法,其特征在于,步骤3中所述的使用LSTM对数据进行建模,具体如下:
(1)整个神经网络分为输入层、循环层、全连接层三层,全连接层同时也作为输出层;神经网络的训练由多个迭代组成,每个迭代中都要进行正向传播和反向传播两个步骤;
(2)在循环层的正向传播过程中,使用当前时间步骤的输入和上个时间步骤的输出进行运算,得出当前时间步骤的输出,来建模输入与输出之间的关系,以及输出之间的历史相关性;
其中循环层的正向传播过程如下:
f(t)=σ(Wfx(t)+Ufh(t-1)+Bf)
i(t)=σ(Wix(t)+Uih(t-1)+Bi)
o(t)=σ(Wox(t)+Uoh(t-1)+Bo)
h(t)=o(t)*C(t)
其中,x是循环层的输入,h和C是两个隐藏状态,同时h也是循环层的输出;上角标t代表某个时间步骤的值,σ为Sigmoid函数;W、U和B是参数,一共有四组,W为输入和输出之间的关系,U为输出的历史相关性,B为偏移;所有参数初始化为随机值,隐藏状态初始化为零;
(3)在循环层的反向传播过程中,依次计算每个参数和隐藏状态的梯度;首先计算最后一个时间步骤的隐藏状态,然后计算最后一个时间步骤的参数,再计算倒数第二个时间步骤的隐藏状态,以此类推;得到每个参数的梯度后,使用每个参数减去其梯度的设定倍数,来完成反向传播;
(4)全连接层执行普通的线性仿射运算,将循环层的输出维度进行压缩,使其和标签一致;
(5)循环层采用Dropout机制,在训练过程中让一部分神经元不工作,其中每个神经元不工作的概率为10%;
(6)训练参数如下:
Dropout比例:10%
时间步骤:10
LSTM单元数:200
LSTM层数:1
全连接单元数:[10,10]
批量大小:10。
5.根据权利要求1或4所述的基于LSTM的网络流量预测方法,其特征在于,步骤4中所述的使用模型预测新的数据,得到网络流量的预测值,具体如下:
对于每个新的样本,首先按照步骤2提取特征,处理为LSTM所需的格式;然后使用训练所得的LSTM参数,将样本和参数代入步骤3的循环层的正向传播过程公式中,即可得到网络流量的预测结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810845915.0A CN109194498B (zh) | 2018-07-27 | 2018-07-27 | 一种基于lstm的网络流量预测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810845915.0A CN109194498B (zh) | 2018-07-27 | 2018-07-27 | 一种基于lstm的网络流量预测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109194498A true CN109194498A (zh) | 2019-01-11 |
CN109194498B CN109194498B (zh) | 2021-10-08 |
Family
ID=64937307
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810845915.0A Active CN109194498B (zh) | 2018-07-27 | 2018-07-27 | 一种基于lstm的网络流量预测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109194498B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109508544A (zh) * | 2018-10-19 | 2019-03-22 | 南京理工大学 | 一种基于mlp的入侵检测方法 |
CN110175711A (zh) * | 2019-05-17 | 2019-08-27 | 北京市天元网络技术股份有限公司 | 一种基于联合lstm基站小区流量预测方法以及装置 |
CN110798365A (zh) * | 2020-01-06 | 2020-02-14 | 支付宝(杭州)信息技术有限公司 | 基于神经网络的流量预测方法及装置 |
CN110830303A (zh) * | 2019-11-13 | 2020-02-21 | 大连大学 | 一种基于双向长短期记忆循环神经网络的网络流量预测方法 |
CN111292525A (zh) * | 2019-12-30 | 2020-06-16 | 南京艾特斯科技有限公司 | 基于神经网络的交通流预测方法 |
CN112116381A (zh) * | 2020-08-31 | 2020-12-22 | 北京基调网络股份有限公司 | 基于lstm神经网络的月活预测方法、存储介质和计算机设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105389980A (zh) * | 2015-11-09 | 2016-03-09 | 上海交通大学 | 基于长短时记忆递归神经网络的短时交通流预测方法 |
US20180137412A1 (en) * | 2016-11-16 | 2018-05-17 | Cisco Technology, Inc. | Network traffic prediction using long short term memory neural networks |
CN108062561A (zh) * | 2017-12-05 | 2018-05-22 | 华南理工大学 | 一种基于长短时记忆网络模型的短时数据流预测方法 |
CN108234496A (zh) * | 2018-01-05 | 2018-06-29 | 宝牧科技(天津)有限公司 | 一种基于神经网络的流量预测方法 |
-
2018
- 2018-07-27 CN CN201810845915.0A patent/CN109194498B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105389980A (zh) * | 2015-11-09 | 2016-03-09 | 上海交通大学 | 基于长短时记忆递归神经网络的短时交通流预测方法 |
US20180137412A1 (en) * | 2016-11-16 | 2018-05-17 | Cisco Technology, Inc. | Network traffic prediction using long short term memory neural networks |
CN108062561A (zh) * | 2017-12-05 | 2018-05-22 | 华南理工大学 | 一种基于长短时记忆网络模型的短时数据流预测方法 |
CN108234496A (zh) * | 2018-01-05 | 2018-06-29 | 宝牧科技(天津)有限公司 | 一种基于神经网络的流量预测方法 |
Non-Patent Citations (1)
Title |
---|
QINZHENG ZHUO ET AL.: "Long Short-term Memory Neural Network for Network Traffic Prediction", 《2017 12TH INTERNATIONAL CONFERENCE ON INTELLIGENT SYSTEMS AND KNOWLEDGE ENGINEERING (ISKE)》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109508544A (zh) * | 2018-10-19 | 2019-03-22 | 南京理工大学 | 一种基于mlp的入侵检测方法 |
CN109508544B (zh) * | 2018-10-19 | 2022-12-06 | 南京理工大学 | 一种基于mlp的入侵检测方法 |
CN110175711A (zh) * | 2019-05-17 | 2019-08-27 | 北京市天元网络技术股份有限公司 | 一种基于联合lstm基站小区流量预测方法以及装置 |
CN110830303A (zh) * | 2019-11-13 | 2020-02-21 | 大连大学 | 一种基于双向长短期记忆循环神经网络的网络流量预测方法 |
CN110830303B (zh) * | 2019-11-13 | 2022-04-01 | 大连大学 | 一种基于双向长短期记忆循环神经网络的网络流量预测方法 |
CN111292525A (zh) * | 2019-12-30 | 2020-06-16 | 南京艾特斯科技有限公司 | 基于神经网络的交通流预测方法 |
CN111292525B (zh) * | 2019-12-30 | 2023-01-13 | 南京艾特斯科技有限公司 | 基于神经网络的交通流预测方法 |
CN110798365A (zh) * | 2020-01-06 | 2020-02-14 | 支付宝(杭州)信息技术有限公司 | 基于神经网络的流量预测方法及装置 |
CN112116381A (zh) * | 2020-08-31 | 2020-12-22 | 北京基调网络股份有限公司 | 基于lstm神经网络的月活预测方法、存储介质和计算机设备 |
Also Published As
Publication number | Publication date |
---|---|
CN109194498B (zh) | 2021-10-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109194498A (zh) | 一种基于lstm的网络流量预测方法 | |
CN108900432B (zh) | 一种基于网络流行为的内容感知方法 | |
Wang et al. | Machine learning for networking: Workflow, advances and opportunities | |
CN109981691B (zh) | 一种面向SDN控制器的实时DDoS攻击检测系统与方法 | |
CN110784481B (zh) | SDN网络中基于神经网络的DDoS检测方法及系统 | |
CN109871948A (zh) | 一种基于二维卷积神经网络的应用层协议识别方法 | |
CN101399672B (zh) | 一种多神经网络融合的入侵检测方法 | |
US20130013542A1 (en) | Scalable traffic classifier and classifier training system | |
CN107683586A (zh) | 用于异常检测中的计算基于小区密度的稀有度的方法和装置 | |
CN107786388B (zh) | 一种基于大规模网络流数据的异常检测系统 | |
CN111756634A (zh) | 一种基于强化学习的舰载网络性能自优化方法 | |
CN111711545A (zh) | 一种软件定义网络中基于深度包检测技术的加密流量智能识别方法 | |
CN110532564A (zh) | 一种基于cnn和lstm混合模型的应用层协议在线识别方法 | |
CN108289125A (zh) | 基于流式处理的tcp会话重组与统计数据提取方法 | |
Yan et al. | TL-CNN-IDS: transfer learning-based intrusion detection system using convolutional neural network | |
CN116684877A (zh) | 一种基于gyac-lstm的5g网络流量异常检测方法及系统 | |
Shanbhogue et al. | Survey of data mining (DM) and machine learning (ML) methods on cyber security | |
Xian et al. | A novel intrusion detection method based on clonal selection clustering algorithm | |
CN104468276B (zh) | 基于随机抽样多分类器的网络流量识别方法 | |
CN113850282A (zh) | 一种基于动态分类的流量管理方法、系统及装置 | |
Gupta et al. | Genetic algorithm technique used to detect intrusion detection | |
CN112491627A (zh) | 一种网络质量实时分析方法及装置 | |
CN114979017B (zh) | 基于工控系统原始流量的深度学习协议识别方法及系统 | |
CN116522260A (zh) | 基于极限学习机算法的网络流量在线分类的学习模型 | |
CN101674192B (zh) | 一种基于流量统计的VoIP识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB03 | Change of inventor or designer information | ||
CB03 | Change of inventor or designer information |
Inventor after: Li Qianmu Inventor after: Hou Jun Inventor after: Zhang Zichen Inventor before: Zhang Zichen Inventor before: Li Qianmu Inventor before: Hou Jun |
|
GR01 | Patent grant | ||
GR01 | Patent grant |