CN114168655B - 基于周期性的网络流量预测方法 - Google Patents
基于周期性的网络流量预测方法 Download PDFInfo
- Publication number
- CN114168655B CN114168655B CN202111499857.9A CN202111499857A CN114168655B CN 114168655 B CN114168655 B CN 114168655B CN 202111499857 A CN202111499857 A CN 202111499857A CN 114168655 B CN114168655 B CN 114168655B
- Authority
- CN
- China
- Prior art keywords
- neural network
- lstm
- training
- sequence
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 238000013528 artificial neural network Methods 0.000 claims abstract description 94
- 238000012549 training Methods 0.000 claims abstract description 65
- 230000000737 periodic effect Effects 0.000 claims abstract description 16
- 210000002569 neuron Anatomy 0.000 claims description 17
- 230000006870 function Effects 0.000 claims description 10
- 230000001131 transforming effect Effects 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000015654 memory Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012512 characterization method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/24—Querying
- G06F16/245—Query processing
- G06F16/2458—Special types of queries, e.g. statistical queries, fuzzy queries or distributed queries
- G06F16/2474—Sequence data queries, e.g. querying versioned data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/14—Network analysis or design
- H04L41/147—Network analysis or design for predicting network behaviour
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Artificial Intelligence (AREA)
- Probability & Statistics with Applications (AREA)
- Fuzzy Systems (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Feedback Control In General (AREA)
Abstract
本发明公开了一种基于周期性的网络流量预测方法,主要解决现有方法构建网络流量预测模型不准确、无法准确预测网络流量的问题。其实现方案是:获取已知序列周期;根据已知序列和周期构建周期序列;构建两个结构相同的神经网络;根据已知序列构建第一训练集P1,根据周期序列构建第二训练集P2;用第一训练集P1和第二训练集P2分别训练两个网络,得到每个网络对下一时刻的预测值F1和F2;根据每个网络训练后的误差E1和E2,确定网络偏差系数G1和G2;将F1、F2与其对应网络的偏差系数G1、G2相乘后加权求和,得到下一时刻的最终预测值。本发明提高了网络流量预测结果的准确性,能准确表征流量特征,可用于网络安全和网络管理。
Description
技术领域
本发明属于通信技术领域,尤其涉及一种网络流量预测方法,可用于表征网络流量序列的时间特性。
背景技术
随着网络的迅猛发展,网络中存在着日益丰富的承载业务类型与更加复杂的应用数据类型,运营商们迫切的想要实施更加高效的网络管理方案,网络流量预测是有效提高网络运行速率和利用率的关键。预测是对根据过去和现在的信息,对未来的信息进行预先的估计和推测。
现有对网络流量预测的方法主要包括两类:传统的线性预测方法和基于神经网络LSTM的预测方法。
传统的线性预测方法,是统计学中处理时间序列的常用方法,此类方法认为时间序列的前后数据之间存在线性的递推关系,通过对过去和现在的数据进行线性组合,得到未来时刻的数据。比如基于二阶自回归模型AR的预测方法,针对已知流量序列(X1,X2…Xi…Xk),预测k+1时刻的流量值Xk+1,采用如下的递推公式:
Xk+1=f1*Xk+f2*Xk-1+c
其中Xi表示第i时刻的流量数据,i=1,2…k,c是常数,f1、f2是系数,f1、f2和c通过已知的流量序列(X1,X2…Xi…Xk)来确定。
然而由于真实的网络流量是随机的,大多数都不符合这种线性关系的假设,所以传统的线性预测方法无法准确表征网络流量时间序列的特征。目前主要采用基于神经网络LSTM的网络流量时间序列预测方法。
基于长短期记忆神经网络LSTM的流量预测方法主要分为以下四步:
第一步,对长短期记忆神经网络LSTM模型进行初始化:
所述LSTM神经网络,其每一个神经元主要三个门单元组成,分别为遗忘门、输入门和输出门。遗忘门对上一时刻的状态信息进行过滤,输入门对当前时刻的输入进行过滤,输出门则对当前时刻的输出信息进行过滤。
初始化LSTM神经网络的层数、每一层的神经元个数和神经网络的训练次数。
第二步,对LSTM模型进行训练,
首先根据LSTM的初始化信息构建训练集,训练集由一组对应的输入和输出构成。针对已知流量序列(X1,X2…Xi…Xk),假设当前LSTM每层有m个神经元,则输入是一个m维向量,输出是一个数值,开始时刻的输入是(X1,X2…Xi…Xm),输出是Xm+1,以此类推,第r时刻的输入是(Xr,Xr+1…Xr+i…Xr+m-1),输出是Xr+m,所有的输入输出构成训练集。LSTM神经网络在每一个时刻进行如下四个阶段的训练:
遗忘阶段,主要是通过遗忘门对上一时刻传的信息进行选择性忘记,遗忘不重要的信息,留下重要的信息;
输入阶段,主要是通过输入门对当前时刻t的输入(Xt,Xt+1…Xt+i…Xt+m-1)进行过滤,即有选择性地进行记忆,将重要信息记录下来,不重要的过滤掉;将遗忘门与输入门保留的信息总和,作为下一时刻遗忘门的输入;
输出阶段,主要是通过输出门对当前时刻t的输出信息进行选择性过滤,重要的信息将会被当成当前状态的输出;
反馈阶段,完成对当前状态的输出值与训练集中t时刻输出值Xt+m的偏差计算,通过反向传播算法调整LSTM神经网络中的参数。
第三步,预测k+1时刻的流量值Xk+1,
完成神经网络LSTM的训练后,输入m维向量(Xk-m+1,Xk-m+2…Xk-m+i…Xk),得到LSTM的输出值O,将其作为k+1时刻的流量预测值Xk+1。
该方法对神经网络LSTM进行训练时,由于遗忘阶段会遗忘之前的信息,会造成在网络流量时间序列较长时其久远的历史信息几乎全部被遗忘,导致预测误差变大。
发明内容
本发明目的针对上述现有技术的不足,提出一种基于周期性的网络流量预测方法,以减小预测误差,提高网络流量预测的准确率。
本发明的技术方案是:在现有LSTM时间序列预测方法的基础上,增加一个LSTM神经网络学习流量序列的周期特性,通过对两个LSTM预测的结果进行加权求和,得到最终的预测结果。其实现步骤包括如下:
(1)对已知网络流量时间序列X=(X1,X2…Xi…Xk)进行傅里叶变换,得到该时间序列的周期m,其中Xi表示第i时刻的流量数据,i=1,2…k;
(2)根据已知网络流量时间序列X和其周期m,从该序列中的第一个数据X1开始,每隔m个数选取一个数据,第二个数据为X1+m,第三个数据为X1+2m,以此类推,用选取的所有数据构成周期序列A:
A=(X1,X1+m…X1+jm…X1+(k/m-1)m),
其中,X1+jm表示周期序列A中的第j个数据,j=0,1…k/m-1;
(3)选取两个结构相同的神经网络LSTM,并设置第一神经网络LSTM-1层数为3,每层神经元的个数为5;第二神经网络LSTM-2的层数为3,每层神经元的个数为5;
(4)选取训练集:
(4a)根据第一神经网络LSTM-1的每层神经元的个数,按照时间顺序每6个一组从周期序列A中选取第一训练集P1;
(4b)根据第二神经网络LSTM-2的每层神经元的个数,按照时间顺序每6个一组从已知网络流量序列X中选取第二训练集P2;
(5)利用训练集对神经网络进行训练:
(5a)利用第一训练集P1,采用反向传播法对第一神经网络LSTM-1迭代训练100次,得到训练好的第一神经网络LSTM-1;
(5b)利用第二训练集P2,采用反向传播法对第二神经网络LSTM-2迭代训练1000次,得到训练好的第二神经网络LSTM-2;
(6)确定训练好的第一神经网络LSTM-1的偏差系数G1和训练好的第二神经网络LSTM-2的偏差系数G2:
G1=E2/(E1+E2),G2=E1/(E1+E2),
其中,E1第一神经网络LSTM-1训练完成时产生的均方误差,E2为第二神经网络LSTM-2训练完成时产生的均方误差;
(7)根据训练好的第一神经网络LSTM-1、第二神经网络LSTM-2及其对应的偏差系数G1、G2和已知流量序列X,预测下一时刻的网络流量数据Xk+1:
(7a)在网络流量时间序列X中,选取第一序列X1=(Xk+1-5m,Xk+1-4m,Xk+1-3m,Xk+1-2m,Xk+1-m),将其输入到训练好的第一神经网络LSTM-1中,输出该第一神经网络网络的预测值F1;
(7b)在网络流量时间序列X中,选取第二序列X2=(Xk-4,Xk-3,Xk-2,Xk-1,Xk),将其输入到训练好的第二神经网络LSTM-2中,输出该第二神经网络的预测值F2;输出值为F2;
(7c)将LSTM-1和LSTM-2这两个神经网络的输出值F1、F2分别与其对应网络的偏差系数G1、G2相乘后进行加权求和,得到k+1时刻的流量预测结果:
Xk+1=G1F1+G2F2。
本发明与现有技术相比具有如下优点:
1.本发明由于在现有LSTM时间序列预测方法的基础上,增加一个长短期记忆神经网络LSTM,以学习网络流量时间序列的周期特性,提高了对时间序列特征的表征准确性。
2.本发明由于由于将两个LSTM预测的结果进行加权求和得到最终的预测结果,从而减小预测误差,使得对网络流量序列预测的结果更准确。
附图说明
图1是本发明的实现流程图;
图2是本发明中的神经网络结构图;
图3是本发明中的神经元结构图。
具体实施方式
以下结合附图和具体实施例,对本发明作进一步详细描述:
参照图1,本发明的实现步骤包括如下:
步骤1,获取时间序列X的周期m。
对已知网络流量时间序列X=(X1,X2…Xi…Xk)进行傅里叶变换,即将序列X中的数据展开成三角函数的线性组合,每个三角函数的系数为傅里叶系数,傅里叶系数最大值所对应的三角函数的周期,即为时间序列X的周期m,其中Xi表示第i时刻的流量数据,i=1,2…k。
本实施例中,所输入的流量序列X,是从英国核心骨干网的公开流量数据集中选取的数据,包含700个数据,即X=(X1,X2…Xi…X700),i=1,2…700,对X进行傅里叶变换得到其周期m为7。
步骤2,从已知网络流量时间序列X中选取数据构成周期序列A。
2.1)根据已知网络流量时间序列X和其周期m,从该序列中的第一个数据X1开始,每隔m个数选取一个数据,即第二个数据为X1+m,第三个数据为X1+2m,以此类推,得到最后一个数据X1+(k/m-1)m;
2.2)用选取的所有数据构成周期序列A:
A=(X1,X1+m…X1+jm…X1+(k/m-1)m),
其中,X1+jm表示周期序列A中的第j个数据,j=0,1…k/m-1。
本实施例中,m为7,k为700,周期序列A=(X1,X8…X1+7j…X694),其中,X1+7j表示周期序列A中的第j个数据,j=0,1…99。
步骤3,构建两个结构相同的神经网络。
参照图2,本实例构建的两个神经网络LSTM-1和LSTM-2结构相同,即设置第一神经网络LSTM-1层数为3,每层神经元的个数为5;设置第二神经网络LSTM-2的层数也为3,每层神经元的个数也为5。
每个神经元由三个门单元和一个细胞单元组成,三个门单元分别是输入门、遗忘门和输出门,如图3所示。
步骤4,选取训练集。
4.1)根据第一神经网络LSTM-1的每层神经元的个数,按照时间顺序每6个一组从周期序列A中选取由k+1-6m组输入和输出对应数据构成的第一训练集P1:
P1=(I1,X1+5m;I2,X1+6m…Ik+1-6m,Xk+1-m),
其中,I1为第一组输入序列,表示为:I1=(X1,X1+m,X1+2m,X1+3m,X1+4m),X1+5m为第一组输出值;
I2为第二组输入序列,表示为:I2=(X1+m,X1+2m,X1+3m,X1+4m,X1+5m),X1+6m为第二组输出值;
以此类推,Ik+1-6m为最后一组输入序列,表示为:Ik+1-6m=(Xk+1-6m,Xk+1-5m,Xk+1-4m,Xk+1-3m,Xk+1-2m),Xk+1-m为最后一组输出值;
4.2)根据第二神经网络LSTM-2的每层神经元的个数,按照时间顺序每6个一组从已知网络流量序列X中选取由k-5组输入和输出对应数据构成的第二训练集P2;
P2=(W1,X6;W2,X7…Wk-5,Xk),
其中,W1为第一组输入序列,表示为:W1=(X1,X2,X3,X4,X5),X6为第一组输出值,
W2为第二组输入序列,表示为:W2=(X2,X3,X4,X5,X6),X7为第二组输出值;
以此类推,Wk-5为最后一组输入序列,表示为:Wk-5=(Xk-5,Xk-4,Xk-3,Xk-2,Xk-1),Xk为最后一组输出值。
本实施例中,
训练集P1的第一组输入序列I1=(X1,X8,X15,X22,X29),X36为第一组输出值;
训练集P1的第二组输入序列I2=(X8,X15,X22,X29,X36),X43为第二组输出值;
以此类推,训练集P1的最后一组输入序列I659=(X659,X666,X673,X680,X687),X694为最后一组输出值;
训练集P2的第一组输入序列W1=(X1,X2,X3,X4,X5),X6为第一组输出值,
训练集P2的第二组输入序列W2=(X2,X3,X4,X5,X6),X7为第二组输出值;
以此类推,训练集P2的最后一组输入序列W695=(X695,X696,X697,X698,X699),X700为最后一组输出值。
步骤5,分别对两个神经网络LSTM-1和LSTM-2进行训练。
5.1)利用第一训练集P1,采用反向传播法对第一神经网络LSTM-1迭代训练100次,得到训练好的第一神经网络LSTM-1:
5.1.1)将P1中的k+1-6m组输入序列依次输入到第一神经网络LSTM-1中,该神经网络输出相对应的k+1-6m组预测值,通过第一神经网络LSTM-1中的损失函数计算这些预测值与P1中k+1-6m组输出值的误差E1;
5.1.2)第一神经网络LSTM-1从第三层开始,根据误差E1逐层调整网络中的参数,当第一层的参数调整完之后,完成一次训练;
5.1.3)重复(5.1.1)至(5.1.2)共100次,结束训练;
5.2)利用第二训练集P2,采用反向传播法对第二神经网络LSTM-2迭代训练1000次,得到训练好的第二神经网络LSTM-2:
5.2.1)将P2中的k-5组输入序列依次输入到第二神经网络LSTM-2中,该神经网络输出相对应的k-5组预测值,通过第二神经网络LSTM-2中的损失函数计算这些预测值与P2中k-5组输出值的误差E2;
5.2.2)第二神经网络LSTM-2从第三层开始,根据误差E2逐层调整网络中的参数,待第一层的参数调整完之后,完成一次训练;
5.2.3)重复(5.2.1)至(5.2.2)共1000次,结束训练。
步骤6,确定LSTM-1的偏差系数G1和LSTM-2的偏差系数G2。
第一神经网络LSTM-1在训练完成时会产生均方误差为E1,第二神经网络LSTM-2在训练完成时会产生均方误差为E2;
6.1)根据两个神经网络的误差E1和E2,确定第一神经网络LSTM-1的偏差系数G1:
G1=E2/(E1+E2);
6.2)根据两个神经网络的误差E1和E2,确定第二神经网络LSTM-2偏差系数G2:
G2=E1/(E1+E2)。
步骤7,预测下一时刻的网络流量数据Xk+1。
7.1)在网络流量时间序列X中,选取第一序列X1=(Xk+1-5m,Xk+1-4m,Xk+1-3m,Xk+1-2m,Xk+1-m),将其输入到训练好的第一神经网络LSTM-1中,输出该第一神经网络的预测值F1;
本实施例中,第一序列X1=(X666,X673,X680,X687,X694);
7.2)在网络流量时间序列X中,选取第二序列X2=(Xk-4,Xk-3,Xk-2,Xk-1,Xk),将其输入到训练好的第二神经网络LSTM-2中,输出该第二神经网络的预测值F2;
本实施例中,第二序列X2=(X696,X697,X698,X699,X700);
7.3)将LSTM-1和LSTM-2这两个神经网络的输出值F1、F2分别与其对应网络的偏差系数G1、G2相乘后进行加权求和,得到k+1时刻的流量预测结果:
Xk+1=G1F1+G2F2。
以上描述仅是本发明的一个具体实例,并未构成对本发明的任何限制,显然对于本领域的专业人员来说,在了解了本发明内容和原理后,都可能在不背离本发明原理、结构的情况下,进行形式和细节上的各种修改和改变,但是这些基于本发明思想的修正和改变仍在本发明的权利要求保护范围之内。
Claims (4)
1.一种基于周期性的网络流量预测方法,其特征在于,包括:
(1)对已知网络流量时间序列X=(X1,X2…Xi…Xk)进行傅里叶变换,得到该时间序列的周期m,其中Xi表示第i时刻的流量数据,i=1,2…k;
(2)根据已知网络流量时间序列X和其周期m,从该序列中的第一个数据X1开始,每隔m个数选取一个数据,第二个数据为X1+m,第三个数据为X1+2m,以此类推,用选取的所有数据构成周期序列A:
A=(X1,X1+m…X1+jm…X1+(k/m-1)m),
其中,X1+jm表示周期序列A中的第j个数据,j=0,1…k/m-1;
(3)选取两个结构相同的神经网络LSTM,并设置第一神经网络LSTM-1层数为3,每层神经元的个数为5;第二神经网络LSTM-2的层数为3,每层神经元的个数为5;
(4)选取训练集:
(4a)根据第一神经网络LSTM-1的每层神经元的个数,按照时间顺序每6个一组从周期序列A中选取第一训练集P1;
所述从周期序列A中选取第一训练集P1,是由k+1-6m组输入和输出对应的数据构成,表示如下:
P1=(I1,X1+5m;I2,X1+6m…Ik+1-6m,Xk+1-m),
其中,I1为第一组输入序列,表示为:I1=(X1,X1+m,X1+2m,X1+3m,X1+4m),
X1+5m为第一组输出值;
I2为第二组输入序列,表示为:I2=(X1+m,X1+2m,X1+3m,X1+4m,X1+5m),
X1+6m为第二组输出值;
以此类推,Ik+1-6m为最后一组输入序列,表示为:Ik+1-6m=(Xk+1-6m,Xk+1-5m,Xk+1-4m,Xk+1-3m,Xk+1-2m),Xk+1-m为最后一组输出值;
(4b)根据第二神经网络LSTM-2的每层神经元的个数,按照时间顺序每6个一组从已知网络流量序列X中选取第二训练集P2;
所述从已知序列X中选取第一训练集P2,是由k-5组输入和输出对应的数据构成,表示如下:
P2=(W1,X6;W2,X7…Wk-5,Xk),
其中,W1为第一组输入序列,表示为:W1=(X1,X2,X3,X4,X5),
X6为第一组输出值,
W2为第二组输入序列,表示为:W2=(X2,X3,X4,X5,X6),
X7为第二组输出值;
以此类推,Wk-5为最后一组输入序列,表示为:Wk-5=(Xk-5,Xk-4,X k-3,Xk-2,Xk-1),Xk为最后一组输出值;
(5)利用训练集对神经网络进行训练:
(5a)利用第一训练集P1,采用反向传播法对第一神经网络LSTM-1迭代训练100次,得到训练好的第一神经网络LSTM-1;
(5b)利用第二训练集P2,采用反向传播法对第二神经网络LSTM-2迭代训练1000次,得到训练好的第二神经网络LSTM-2;
(6)确定训练好的第一神经网络LSTM-1的偏差系数G1和训练好的第二神经网络LSTM-2的偏差系数G2:
G1=E2/(E1+E2),G2=E1/(E1+E2),
其中,E1第一神经网络LSTM-1训练完成时产生的均方误差,E2为第二神经网络LSTM-2训练完成时产生的均方误差;
(7)根据训练好的第一神经网络LSTM-1、第二神经网络LSTM-2及其对应的偏差系数G1、G2和已知流量序列X,预测下一时刻的网络流量数据Xk+1:
(7a)在网络流量时间序列X中,选取第一序列X1=(Xk+1-5m,Xk+1-4m,Xk+1-3m,Xk+1-2m,Xk+1-m),将其输入到训练好的第一神经网络LSTM-1中,输出该第一神经网络网络的预测值F1;
(7b)在网络流量时间序列X中,选取第二序列X2=(Xk-4,Xk-3,Xk-2,Xk-1,Xk),将其输入到训练好的第二神经网络LSTM-2中,输出该第二神经网络的预测值F2;输出值为F2;
(7c)将LSTM-1和LSTM-2这两个神经网络的输出值F1、F2分别与其对应网络的偏差系数G1、G2相乘后进行加权求和,得到k+1时刻的流量预测结果:
Xk+1=G1F1+G2F2。
2.根据权利要求1所述的方法,其中(1)中对已知网络流量时间序列X,进行傅里叶变换,得到该时间序列的周期为m,是将序列X中的数据展开成三角函数的线性组合,每个三角函数的系数为傅里叶系数,傅里叶系数最大值所对应的三角函数的周期,即为时间序列X的周期。
3.根据权利要求1所述的方法,其中(5a)中利用第一训练集P1,采用反向传播法对第一神经网络LSTM-1迭代训练100次,实现如下:
(5a1)将P1中的k+1-6m组输入序列依次输入到第一神经网络LSTM-1中,该神经网络输出相对应的k+1-6m组预测值,通过第一神经网络LSTM-1中的损失函数计算这些预测值与P1中k+1-6m组输出值的偏差E1;
(5a2)第一神经网络LSTM-1从第三层开始,根据偏差E1逐层调整网络中的参数,当第一层的参数调整完之后,完成一次训练;
(5a3)重复(5a1)至(5a2)共100次,结束训练。
4.根据权利要求1所述的方法,其中(5b)中利用第一训练集P2,采用反向传播法对第二神经网络LSTM-2迭代训练1000次,实现如下:
(5b1)将P2中的k-5组输入序列依次输入到第二神经网络LSTM-2中,该神经网络输出相对应的k-5组预测值,通过第二神经网络LSTM-2中的损失函数计算这些预测值与P2中k-5组输出值的偏差E2;
(5b2)第二神经网络LSTM-2从第三层开始,根据偏差E2逐层调整网络中的参数,待第一层的参数调整完之后,完成一次训练;
(5b3)重复(5b1)至(5b2)共1000次,结束训练。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111499857.9A CN114168655B (zh) | 2021-12-09 | 2021-12-09 | 基于周期性的网络流量预测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111499857.9A CN114168655B (zh) | 2021-12-09 | 2021-12-09 | 基于周期性的网络流量预测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114168655A CN114168655A (zh) | 2022-03-11 |
CN114168655B true CN114168655B (zh) | 2024-02-13 |
Family
ID=80484906
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111499857.9A Active CN114168655B (zh) | 2021-12-09 | 2021-12-09 | 基于周期性的网络流量预测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114168655B (zh) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109859469A (zh) * | 2019-02-15 | 2019-06-07 | 重庆邮电大学 | 一种基于集成lstm神经网络的车流量预测方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10855550B2 (en) * | 2016-11-16 | 2020-12-01 | Cisco Technology, Inc. | Network traffic prediction using long short term memory neural networks |
-
2021
- 2021-12-09 CN CN202111499857.9A patent/CN114168655B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109859469A (zh) * | 2019-02-15 | 2019-06-07 | 重庆邮电大学 | 一种基于集成lstm神经网络的车流量预测方法 |
Non-Patent Citations (1)
Title |
---|
党小超 ; 郝占军 ; .基于改进Elman神经网络的网络流量预测.计算机应用.2010,(10),全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN114168655A (zh) | 2022-03-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113905391B (zh) | 集成学习网络流量预测方法、系统、设备、终端、介质 | |
CN112350899B (zh) | 一种基于图卷积网络融合多特征输入的网络流量预测方法 | |
CN110851782A (zh) | 一种基于轻量级时空深度学习模型的网络流量预测方法 | |
CN112468326A (zh) | 基于时间卷积神经网络的访问流量预测方法 | |
CN116362398A (zh) | 基于模态分解和重构及lstm-mlr混合模型的电力负荷预测方法 | |
CN115206092B (zh) | 一种基于注意力机制的BiLSTM和LightGBM模型的交通预测方法 | |
CN113852432A (zh) | 基于rcs-gru模型的频谱预测感知方法 | |
CN114118375A (zh) | 一种基于时序图Transformer的连续动态网络表征学习方法 | |
Cardoso et al. | Adaptive estimation of Haar wavelet transform parameters applied to fuzzy prediction of network traffic | |
CN114358389A (zh) | 结合vmd分解和时间卷积网络的短期电力负荷预测方法 | |
CN111355633A (zh) | 一种基于pso-delm算法的比赛场馆内手机上网流量预测方法 | |
CN110322342B (zh) | 借贷风险预测模型的构建方法、系统及借贷风险预测方法 | |
WO2023113729A1 (en) | High performance machine learning system based on predictive error compensation network and the associated device | |
CN115691652A (zh) | 一种基于多样本数据的因果关系预测方法 | |
CN117880871A (zh) | 基于时空图多注意力机制的网络流量预测方法 | |
Wang et al. | Optimizing deep belief echo state network with a sensitivity analysis input scaling auto-encoder algorithm | |
CN111105005A (zh) | 一种风电功率预测方法 | |
CN114694379A (zh) | 一种基于自适应动态图卷积的交通流预测方法及系统 | |
TWI452529B (zh) | Combined with the system equivalent model of the system and its computer program products | |
CN114168655B (zh) | 基于周期性的网络流量预测方法 | |
Peng et al. | Hmm-lstm for proactive traffic prediction in 6g wireless networks | |
Fry | Observer-participant models of neural processing | |
Gui et al. | Analysis of animal-related outages in overhead distribution systems with wavelet decomposition and immune systems-based neural networks | |
CN115907000A (zh) | 一种用于电力系统最优潮流预测的小样本学习方法 | |
CN115984025A (zh) | 基于深度学习图网络模型的影响力传播估计方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |