CN112910690A - 基于神经网络模型的网络流量预测方法、装置及设备 - Google Patents

基于神经网络模型的网络流量预测方法、装置及设备 Download PDF

Info

Publication number
CN112910690A
CN112910690A CN202110062867.XA CN202110062867A CN112910690A CN 112910690 A CN112910690 A CN 112910690A CN 202110062867 A CN202110062867 A CN 202110062867A CN 112910690 A CN112910690 A CN 112910690A
Authority
CN
China
Prior art keywords
neural network
network model
data
network
attention mechanism
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110062867.XA
Other languages
English (en)
Inventor
金从元
余晗
周箴
严灵毓
王春枝
胡翔
胡记伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hubei University of Technology
Fiberhome Telecommunication Technologies Co Ltd
Wuhan Fiberhome Technical Services Co Ltd
Original Assignee
Hubei University of Technology
Fiberhome Telecommunication Technologies Co Ltd
Wuhan Fiberhome Technical Services Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hubei University of Technology, Fiberhome Telecommunication Technologies Co Ltd, Wuhan Fiberhome Technical Services Co Ltd filed Critical Hubei University of Technology
Priority to CN202110062867.XA priority Critical patent/CN112910690A/zh
Publication of CN112910690A publication Critical patent/CN112910690A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/14Network analysis or design
    • H04L41/142Network analysis or design using statistical or mathematical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/14Network analysis or design
    • H04L41/147Network analysis or design for predicting network behaviour

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Algebra (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Probability & Statistics with Applications (AREA)
  • Pure & Applied Mathematics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Traffic Control Systems (AREA)

Abstract

本申请涉及一种基于神经网络模型的网络流量预测方法、装置及设备,涉及流量预测技术领域,由于注意力机制可从与句子内容相关的标记序列中捕获信息,因此将注意力机制引入Seq2Seq神经网络模型中,可挖掘出网络流量序列数据之间的潜在关系,从而能够提升Seq2Seq神经网络模型的预测性能,且通过Seq2Seq神经网络模型可解决网络流量预测过程中输入的序列长度和模型输出的序列长度为不等长的问题,因此,直接将网络流量数据作为Seq2Seq神经网络模型的输入数据并经过Seq2Seq神经网络模型的处理后,即可得到准确的网络流量预测值,有效提高了网络流量值预测的效率,并降低了网络数据分析的成本。

Description

基于神经网络模型的网络流量预测方法、装置及设备
技术领域
本申请涉及流量预测技术领域,特别涉及基于神经网络模型的网络流量预测方法、装置及设备。
背景技术
伴随经济的飞速发展和通信技术的日益更新,我国的通信网络规模不断扩张。大量先进技术的采用,带来了网络规模庞大、通信业务种类复杂多样、通信质量需求逐步提高等等一系列发展问题。面对这些复杂的问题,面对日益加剧的竞争,为了更加高效地利用目前的通信网络资源,降低当前运行成本,增加后续运营收入,就必须加强网络设备的分析力度和日常维护,不断调整和优化网络相关参数,以满足用户日益增加的需求。
通信网络优化是通过对现有网络资源产生的数据进行采集和分析,通过分析结果来指导网络资源的调整,使网络的质量不断提高最终达到规划的最优要求。网络优化包括对网络的分析和对网络配置与性能的改善,即分析网络中的资源变化趋势,以便通过参数调整和采取某些技术手段,使网络达到最佳运行状态,使现有网络资源获得最佳利用,同时也对网络今后的维护及规划建设提出合理建议。
通信网络优化的首要工作是数据采集,需要消耗大量的人力和物力来对数据进行收集和整理,有时还会获得一些非正常的数据;其次是数据分析,由分析人员对前期收集整理的数据进行细致的分析,综合判断;接着是优化方案的提出,网络分析人员通过对网络数据的分析给出一套合理的优化方案;最后是评估,对优化后的网络再分析,看是否达到预期目的,若未达目的,则再进行网络优化,直到达到要求。这是一个不断重复的过程,其最大的工作量在数据采集阶段,而最大的难度是数据分析阶段。
目前,网络的优化主要依赖于有经验的网络技术人员,但是在我国拥有网优经验的专家是稀缺资源,且通信网络覆盖范围十分广阔,单纯的靠人力对这些复杂的网络数据进行收集整理并分析作出合理的优化方案,或者是将经验复制到所有区域是不现实的,其具有效率低、成本高的缺陷。此外,一些技术人员通常依据单一的网络数据属性或者他们从业多年保留的经验作出判断,而实际上网络数据的属性(数据维度)可能是数十维甚至上百维,即使是经验十分丰富的工作人员,在面对十到百甚至上千维度的网络数据时很难做出准确的判断,经常会产生非正常的数据,因此使用人工收集分析网络数据这一方法显然具有局限性和缺陷性。
发明内容
本申请实施例提供一种基于神经网络模型的网络流量预测方法、装置及设备,以解决相关技术中通过人工进行网络数据分析而存在的准确性差、效率低以及成本高的问题。
第一方面,提供了一种基于神经网络模型的网络流量预测方法,包括以下步骤:
采集历史网络流量数据;
将所述网络流量数据输入基于注意力机制的Seq2Seq神经网络模型,所述网络流量数据分别经过所述基于注意力机制的Seq2Seq神经网络模型的编码层、注意力机制层、解码层处理后得到输出结果,所述输出结果为网络流量的预测值。
一些实施例中,所述基于注意力机制的Seq2Seq神经网络模型包括:编码层、注意力机制层和解码层,所述编码层和所述解码层均为双向长短期记忆网络模型。
在所述采集历史网络流量数据之前,创建基于注意力机制的Seq2Seq神经网络模型,包括:
采集建模用网络流量数据,将所述建模用网络流量数据按照预设比例划分为训练集数据、验证集数据和测试集数据;
将所述基于注意力机制的Seq2Seq神经网络模型的超参数进行初始化处理;
将训练集数据中的各个网络流量数据分别以双向长短期记忆网络单元的形式输入所述编码层,并输出所述双向长短期记忆网络单元的输出向量;
通过所述注意力机制层计算所述双向长短期记忆网络单元的输出向量的权重;
根据所述权重计算出相邻两所述双向长短期记忆网络单元之间的时间步长的上下文变量;
所述解码层根据所述上下文变量和所述解码层的隐藏状态计算网络流量的预测值,完成所述基于注意力机制的Seq2Seq神经网络模型的训练。
在所述解码层根据所述上下文变量和所述解码层的隐藏状态计算网络流量的预测值,完成所述基于注意力机制的Seq2Seq神经网络模型的训练之后,还包括:
通过所述验证集数据对所述基于注意力机制的Seq2Seq神经网络模型进行验证计算,得到验证结果;
将所述验证结果与预设的评估指标进行比较,判断所述基于注意力机制的Seq2Seq神经网络模型的质量。
在所述解码层根据所述上下文变量和所述解码层的隐藏状态计算网络流量的预测值,完成所述基于注意力机制的Seq2Seq神经网络模型的训练之后,还包括:
通过所述测试集数据对所述基于注意力机制的Seq2Seq神经网络模型进行测试计算,得到测试结果;
将所述测试结果进行反归一化处理,得到反归一化测试结果;
将所述反归一化测试结果与实际的网络流量数据进行比较,判断所述基于注意力机制的Seq2Seq神经网络模型的预测性能。
所述Seq2Seq神经网络模型的超参数包括学习率、批处理、迭代次数和优化器。
所述学习率的初始值通过蜻蜓优化算法计算得到。
在所述采集网络流量数据之后,还包括:
对所述历史网络流量数据中缺失的数据进行插值预处理,得到预处理后的网络流量数据。
第二方面,提供了一种基于神经网络模型的网络流量预测装置,包括:
数据采集单元,其用于采集历史网络流量数据;
流量预测单元,其用于将所述网络流量数据输入所述基于注意力机制的Seq2Seq神经网络模型,所述网络流量数据分别经过所述基于注意力机制的Seq2Seq神经网络模型的编码层、注意力机制层、解码层处理后得到输出结果,所述输出结果为网络流量的预测值。
第三方面,提供了一种基于神经网络模型的网络流量预测设备,包括:存储器和处理器,所述存储器中存储有至少一条指令,所述至少一条指令由所述处理器加载并执行,以实现前述的基于神经网络模型的网络流量预测方法。
本申请提供的技术方案带来的有益效果包括:可提高网络流量值预测的准确度和效率,并降低了网络数据分析的成本。
本申请实施例提供了一种基于神经网络模型的网络流量预测方法、装置及设备,由于注意力机制可从与句子内容相关的标记序列中捕获信息,因此将注意力机制引入Seq2Seq神经网络模型中,可挖掘出网络流量序列数据之间的潜在关系,从而能够提升Seq2Seq神经网络模型的预测性能,且通过Seq2Seq神经网络模型可解决网络流量预测过程中输入的序列长度和模型输出的序列长度为不等长的问题,因此,无需通过人工进行网络数据分析,直接将网络流量数据作为Seq2Seq神经网络模型的输入数据并分别经过Seq2Seq神经网络模型的编码层、注意力机制层、解码层处理后,即可得到准确的网络流量预测值,有效提高了网络流量值预测的效率,并降低了网络数据分析的成本。因此本申请实施例可提高网络流量值预测的准确度和效率,并降低网络数据分析的成本。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种基于神经网络模型的网络流量预测方法的流程示意图;
图2为本申请实施例提供的基于注意力机制的Seq2Seq神经网络模型的结构示意图;
图3为本申请实施例提供的一种基于神经网络模型的网络流量预测装置的结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请的一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请实施例提供了一种基于神经网络模型的网络流量预测方法、装置及设备,其能解决相关技术中通过人工进行网络数据分析而存在的准确性差、效率低以及成本高的问题。
图1是本申请实施例提供的一种基于神经网络模型的网络流量预测方法的流程示意图,包括以下步骤:
S1:采集历史网络流量数据。
S2:将网络流量数据输入基于注意力机制的Seq2Seq神经网络模型,网络流量数据分别经过基于注意力机制的Seq2Seq神经网络模型的编码层、注意力机制层、解码层处理后得到输出结果,输出结果为网络流量的预测值。
其中,在本申请实施例中,基于注意力机制的Seq2Seq神经网络模型包括:编码层、注意力机制层和解码层,编码层和解码层均为双向长短期记忆网络模型。
Seq2Seq(Sequence to Sequence,编码器-解码器)神经网络模型是循环神经网络中的一种,它可以用来处理序列预测问题的模型,常常被广泛的应用在机器翻译、语音识别、文本摘要、问答系统等领域,由于网络流量预测问题输入的序列长度和模型的输出序列的长度可能是不等长的,可能是输入80天的流量数据,期望模型能够预测未来7天或者14天的流量,而Seq2Seq神经网络模型恰恰适合处理模型输入数据长度和输出数据长度不对等的情况。
网络流量预测是一个基于时间序列的预测,标准的循环神经网络在时序上处理问题时常常忽略了来自未来上下文信息,如果网络能访问过去或未来时间步长的上下文信息,这对于提升网络流量预测的性能是有益处的;而双向长短期记忆网络的特殊之处是能够在不保留冗余上下文信息的情况下使得网络预测模型拥有长期依赖性,其有两个在两个平行方向上进行前向传播的网络层,同时这两个网络层承载着序列前后两个方向上的所有信息,因此,本申请实施例中的编码和解码阶段使用的是双向长短期记忆网络,以此可以访问过去或未来时间步长的上下文信息,进而可以有效提升网络流量预测的性能。
Seq2Seq神经网络模型在对时间序列数据进行处理的时候,会通过计算得到序列中各个元素的特征,如果需要在序列数据上进行信息提取时,需要关注整个序列的特征,而简单地将各个元素的特征相加或者是说求平均,则会导致模型的输入序列中每一个元素对于模型的输出序列中的每一个元素的影响力相同;此外,Seq2Seq神经网络模型在编码阶段需要将整个序列的信息压缩到一固定长度的语意向量中,但是该方法存在固定长度的向量不能完整的表示整个序列信息和输入到模型的信息容易被后面输入到模型的信息给覆盖掉的问题。
而本申请将注意力机制引入Seq2Seq神经网络模型中形成基于注意力机制的Seq2Seq神经网络模型,该注意力机制作为模型的编码层和解码层之间的中间层,其可从与句子内容相关的标记序列中捕获信息,即在基于注意力机制的Seq2Seq神经网络模型中首先计算一组注意力权重,通过乘上编码层输出的向量来创建权重的组合,该计算结果包含了有关输入序列特定部分的信息,从而帮助解码层选择正确的表征进行输出,使得解码层可以使用编码层序列的不同部分作为上下文变量,直到解码完所有序列。
因此,将注意力机制引入到Seq2Seq神经网络模型中能够挖掘出序列数据之间的潜在关系,从而能够提升网络预测模型的预测性能;具体的,基于注意力机制的Seq2Seq神经网络模型的结构,参见图2所示:包括编码层、注意力机制层(Attention层)和解码层,编码层的最下面是一个有长度为Tx个双向长短期记忆网络单元堆叠而成的模型,本申请将其中的每一个双向长短期记忆网络单元称作为Pre-attention Bi-LSTM,将输入值
Figure BDA0002903378960000071
(输入值的初始值
Figure BDA0002903378960000072
)输入Pre-attention Bi-LSTM中,它的输出用a<t>(即图2中的a<1>)来表示,代表的含义是指
Figure BDA0002903378960000073
其是将双向长短期记忆网络的前向传播的激活值和后向传播的激活值结合起来,然后将a<t>和上一个时间步长解码层的输出一起进行Attention机制的计算,从而求出每个时间步长的上下文变量context<t>,其中t为1至Ty;然后再通过输入上一个时间步长的隐藏层状态s<0>和此次时间步长的上下文变量context<t>给解码层的双向长短期记忆网络单元(Post-attention LSTM),最后通过逻辑回归函数Softmax和一个激活函数得到候选的输出值
Figure BDA0002903378960000074
从候选的输出值当中选择概率最大的一个作为当前时间步长的输出值,以求出此次时间步长的预测结果。
由于注意力机制可从与句子内容相关的标记序列中捕获信息,因此将注意力机制引入Seq2Seq神经网络模型中,可挖掘出网络流量序列数据之间的潜在关系,从而能够提升Seq2Seq神经网络模型的预测性能,且通过Seq2Seq神经网络模型可解决网络流量预测过程中输入的序列长度和模型输出的序列长度为不等长的问题,因此,无需通过人工进行网络数据分析,直接将网络流量数据作为Seq2Seq神经网络模型的输入数据并分别经过Seq2Seq神经网络模型的编码层、注意力机制层、解码层处理后,即可得到准确的网络流量预测值,有效提高了网络流量值预测的效率,并降低了网络数据分析的成本。因此本申请实施例可提高网络流量值预测的准确度和效率,并降低网络数据分析的成本。
更进一步的,在本申请实施例中,在采集历史网络流量数据之前,创建基于注意力机制的Seq2Seq神经网络模型,包括:
采集建模用网络流量数据,将建模用网络流量数据按照预设比例划分为训练集数据、验证集数据和测试集数据;
将基于注意力机制的Seq2Seq神经网络模型的超参数进行初始化处理;
将训练集数据中的各个网络流量数据分别以双向长短期记忆网络单元的形式输入编码层,并输出双向长短期记忆网络单元的输出向量;
通过注意力机制层计算双向长短期记忆网络单元的输出向量的权重;
根据权重计算出相邻两双向长短期记忆网络单元之间的时间步长的上下文变量;
解码层根据上下文变量和解码层的隐藏状态计算网络流量的预测值,完成基于注意力机制的Seq2Seq神经网络模型的训练。
更进一步的,在本申请实施例中,在解码层根据上下文变量和解码层的隐藏状态计算网络流量的预测值,完成基于注意力机制的Seq2Seq神经网络模型的训练之后,还包括:
通过验证集数据对基于注意力机制的Seq2Seq神经网络模型进行验证计算,得到验证结果;
将验证结果与预设的评估指标进行比较,判断基于注意力机制的Seq2Seq神经网络模型的质量。
更进一步的,在本申请实施例中,在解码层根据上下文变量和解码层的隐藏状态计算网络流量的预测值,完成基于注意力机制的Seq2Seq神经网络模型的训练之后,还包括:
通过测试集数据对基于注意力机制的Seq2Seq神经网络模型进行测试计算,得到测试结果;
将测试结果进行反归一化处理,得到反归一化测试结果;
将反归一化测试结果与实际的网络流量数据进行比较,判断基于注意力机制的Seq2Seq神经网络模型的预测性能。
更进一步的,在本申请实施例中,Seq2Seq神经网络模型的超参数包括学习率、批处理、迭代次数和优化器,其中,学习率的初始值通过蜻蜓优化算法计算得到。
其中,本申请实施例中选择tanh函数(即双曲正切函数)和Sigmoid函数(即S型函数)作为网络模型神经元的激活函数;
学习率:代表了本申请实施例搭建出来的网络模型随着时间的推移,信息累计的速度,选择最优学习率决定了构建出来的网络模型能否收敛到全局最小值,学习率值一旦设置的过大,可能使网络模型不会收敛到全局最小值;而如果设置的过小,虽然能够帮助网络模型收敛到全局的最小值,但是会花费很多时间来让网络模型收敛到全局最小值,本申请实施例使用蜻蜓优化算法来寻找一个合适的学习率来作为网络模型训练的初始学习率;
批处理(batch_size):将训练数据集按照设定的大小分批输入到网络模型来训练网络模型,目前存在着将全部数据集一次性传入网络模型进行训练的方式和选择一个适中大小的batch_size传入到网络模型里面去训练的方式;如果batch_size选用的比较小,网络模型将会非常难以收敛,而选用的batch_size如果太大的话,虽然模型的收敛速度能够得到提升,但同时增加了内存的消耗,因此选择一个合适大小的batch_size对于网络模型的训练显得尤其重要,本申请实施例选择的是设置不同batch_size大小,将数据集按照每次设定的大小分批传入到网络进行训练的方法来选择最符合本申请实施例研究问题的batch_size;
模型训练迭代次数(epochs):其是指数据集在网络模型中前向传播和反向传播后更新参数的过程,每一个epochs迭代过程是可以优化网络模型的训练过程的,但是epochs如果设置的太大,网络模型的权重的更新次数也在增加,从而导致模型从欠拟合到过拟合,模型泛化能力下降,由此看出选择一个合适的迭代次数,对于问题的求解也非常重要;
优化器:本申请实施例搭建的网络模型使用的优化器是adam优化器(即自适应矩估计优化器),adam优化器的优点是有很高的计算效率和对计算内存有较低的需要。
更进一步的,在本申请实施例中,在采集网络流量数据之后,还包括:对历史网络流量数据中缺失的数据进行插值预处理,得到预处理后的网络流量数据。由于在现实生活中,通常获得历史数据并不总是完整的或者准确的,例如网络拥塞、大事件冲击等,也会影响到流量并产生与流量的固有规律不同的异常值,这些错误数据通常具有比较明显的特点,即错误数据的值远远大于或者小于正常数据的值,通过分析错误数据的特征,可以发现,如果历史流量数据中存在错误数据,那么错误的数据会在一定的程度上破坏网络流量历史数据的规律性,进而会造成预测误差变得比较大,因此,网络流量数据在使用前进行预处理,可降低错误数据所造成的影响,减少误差,提高网络预测模型的精准性。
在本申请的实际数据预处理的过程中,对于历史网络流量数据采用下面的方法对缺失的数据进行插值补充:对于数据表格中数值为NA的单元格,本申请使用0值对其单元格进行填充,删除掉表格中值全为0的列(本申请认为这种情况属于在这个网元节点上没有进行流量监控,属于无效数据),分别计算出每一列中含有0值的数量百分比,本申请假定不能超过含有0值的数量百分比从1%~10%进行枚举,判断0值超过枚举的不能超过规定百分比的节点有多少个,经过合理验证分析,最终决定删除表格中每列含0值百分比高于7%的列。
经过初步筛选,对于筛选过后的数据,本申请采取如下的策略进行插值:当该列第一个值为0时,赋值为从头开始数第一个不是0的值;如果该列最后一个值为0时,则赋值为从尾开始数第一个不是0的值;如果当前单元格值为0,但是它前后相邻的两个单元格的数字不为0,那么就对前后相邻的两个单元格的数字求和取平均值赋予当前单元格;如果当前单元格的前一个单元格值不为0,而当前单元格的后一个单元格的值为0时,那么就把当前单元格前一个单元格的值赋值给当前单元格;如果当前单元格的前一个单元格的值为0,而后一个单元格的值不为0时,就把后一个单元格的值赋值给当前单元格。
具体的,本申请实施例以某市2万多个网元和168天的网络流量数据进行基于注意力机制的Seq2Seq神经网络模型的训练,主要流程如下:
输入:某市2万多个网元的161天网络流量数据,即输入神经元的个数为161;将网络流量数据按照双向长短期记忆网络模型的输入的要求进行一定的转换,重点是将基于时间序列的网络流量数据转换成一个监督序列,具体说来通过设定一个长度为M天的窗口,通过前面M天的流量数据用作预测未来流量数据的依据,即该条监督序列的输入是前面M天的流量数据,输出的是当前预测的网络流量数据;
输出:某市未来一周每天的网络流量数据,即输出神经元的个数为7;
将2万多个网元的161天网络流量数据按照预设比例划分为训练集数据、验证集数据和测试集数据;
其中,训练集数据和测试集数据是相互独立的数据集,测试集数据不参与网络模型训练的过程,目的是避免预测模型在测试集数据上产生过拟合的现象(模型过拟合是指模型可以很好的拟合训练集,却不能很好的拟合测试集),因此为了提升模型的预测效果,在本申请实施例的网络流量预测问题中,将原始网络流量数据的85%作为网络模型的训练集数据,剩下15%的数据作为网络模型的测试集数据,再将训练集数据中的一部分数据作为模型训练过程中的验证集数据,验证集数据不参加模型训练的过程,仅仅是用来客观衡量模型的训练效果;
将基于注意力机制的Seq2Seq神经网络模型的超参数进行初始化处理,其中,将batch_size设为4096,epochs设为50,初始学习率设为0.045913361;
将训练集数据中的各个网络流量数据分别以双向长短期记忆网络单元的形式输入编码层,并输出双向长短期记忆网络单元的输出向量;
通过注意力机制层计算双向长短期记忆网络单元的输出向量的权重;
根据权重计算出相邻两双向长短期记忆网络单元之间的时间步长的上下文变量;
解码层根据上下文变量和解码层的隐藏状态计算网络流量的预测值,完成基于注意力机制的Seq2Seq神经网络模型的训练;
通过验证集数据对基于注意力机制的Seq2Seq神经网络模型进行验证计算,得到验证结果;
将验证结果与预设的评估指标进行比较,判断基于注意力机制的Seq2Seq神经网络模型的质量;
通过测试集数据对基于注意力机制的Seq2Seq神经网络模型进行测试计算,得到测试结果;
将测试结果进行反归一化处理,得到反归一化测试结果;
将反归一化测试结果与实际的网络流量数据进行比较,判断基于注意力机制的Seq2Seq神经网络模型的预测性能。
为了体现网络模型优化前后在预测指标上的差异,选择将Seq2Seq神经网络模型和使用优化算法优化后的基于注意力机制的Seq2Seq神经网络模型进行预测对比实验,实验采取了k组交叉验证(此次实验k=1),batch_size均取值为4096,epochs均取值为50,对比实验结果参见表1所示:
表1 Seq2Seq模型与基于注意力机制的Seq2Seq模型的预测对比结果
Figure BDA0002903378960000131
由表1可以看出,对于MAPE(平均绝对百分比误差)指标来说,基于注意力机制的Seq2Seq神经网络模型比Seq2Seq神经网络模型减少了0.59%的误差;对于MSE(均方误差)指标来说,基于注意力机制的Seq2Seq神经网络模型比Seq2Seq神经网络模型降低了791.53,而MSE指标的值越小,说明预测模型的精确度更高;对于MAE(平均绝对误差)指标来说,基于注意力机制的Seq2Seq神经网络模型比Seq2Seq神经网络模型降低了0.71;对于RMSE(均方根误差)指标来说,基于注意力机制的Seq2Seq神经网络模型比Seq2Seq神经网络模型降低了3.83,而RMSE越小,则说明模型描述实验数据具有更好的精确度;对于R2(决定系数)指标来说,其值越靠近1,说明模型的预测性能越好,模型的拟合性也越好,而基于注意力机制的Seq2Seq神经网络模型比Seq2Seq神经网络模型在模型预测准确性上提升了0.004,通过对以上的各个指标进行分析,证实了基于注意力机制的Seq2Seq神经网络模型在预测性能上是优于Seq2Seq神经网络模型。
本申请实施例使用上述已完成训练的基于注意力机制的Seq2Seq网络模型来预测某市未来7天的网元节点的网络流量值,为了更加清晰的展示7天2863个网元节点的具体的流量预测准确情况,对每一天2863个网元节点流量值整体预测结果和前80个网元节点,中间80个网元节点和最后80个网元节点流量预测结果展示如下表2所示,评估网元节点整体预测效果的指标是决定系数R2,决定系数越接近1,模型预测效果也就越好。
表2用于判定网元节点流量值预测效果的决定系数值结果
Figure BDA0002903378960000141
由表2可以看出,这7天的预测中,第六天模型的预测效果最好,这一天的决定系数值为0.98001,第7天模型的预测效果相对差一点,决定系数为0.886736;而造成第7天模型预测效果差的因素是基于注意力机制的Seq2Seq神经网络模型的解码层的每一个时间步长的解码值又会作为下一个时间步长解码的输入,如果解码部分某一个神经单元解码出现了误差,那么这个误差将会被传递到下一个神经单元,误差的产生主要是因为数据集中存在异常值的情况,并不是算法需要调优,同时从表2中可以发现模型在其余天数的预测准确度表现较优,由此可说明本申请实施例通过基于注意力机制的Seq2Seq神经网络模型可以进行网络流量的有效和准确的预测。
参见图3所示,本申请实施例还提供一种基于神经网络模型的网络流量预测装置,包括:
数据采集单元,其用于采集历史网络流量数据;
流量预测单元,其用于将网络流量数据输入基于注意力机制的Seq2Seq神经网络模型,网络流量数据分别经过基于注意力机制的Seq2Seq神经网络模型的编码层、注意力机制层、解码层处理后得到输出结果,输出结果为网络流量的预测值。
由于注意力机制可从与句子内容相关的标记序列中捕获信息,因此将注意力机制引入Seq2Seq神经网络模型中,可挖掘出网络流量序列数据之间的潜在关系,从而能够提升Seq2Seq神经网络模型的预测性能,且通过Seq2Seq神经网络模型可解决网络流量预测过程中输入的序列长度和模型输出的序列长度为不等长的问题,因此,无需通过人工进行网络数据分析,直接将网络流量数据作为Seq2Seq神经网络模型的输入数据并分别经过Seq2Seq神经网络模型的编码层、注意力机制层、解码层处理后,即可得到准确的网络流量预测值,有效提高了网络流量值预测的效率,并降低了网络数据分析的成本。因此本申请实施例可提高网络流量值预测的准确度和效率,并降低网络数据分析的成本。
更进一步的,在本申请实施例中,网络流量预测装置还包括模型创建单元,其用于创建基于注意力机制的Seq2Seq神经网络模型,具体包括:
采集建模用网络流量数据,将建模用网络流量数据按照预设比例划分为训练集数据、验证集数据和测试集数据;
将基于注意力机制的Seq2Seq神经网络模型的超参数进行初始化处理;
将训练集数据中的各个网络流量数据分别以双向长短期记忆网络单元的形式输入编码层,并输出双向长短期记忆网络单元的输出向量;
通过注意力机制层计算双向长短期记忆网络单元的输出向量的权重;
根据权重计算出相邻两所述双向长短期记忆网络单元之间的时间步长的上下文变量;
解码层根据上下文变量和解码层的隐藏状态计算网络流量的预测值,完成所述基于注意力机制的Seq2Seq神经网络模型的训练。
更进一步的,在本申请实施例中,模型创建单元还用于:
通过验证集数据对基于注意力机制的Seq2Seq神经网络模型进行验证计算,得到验证结果;
将验证结果与预设的评估指标进行比较,判断基于注意力机制的Seq2Seq神经网络模型的质量。
更进一步的,在本申请实施例中,在解码层根据上下文变量和解码层的隐藏状态计算网络流量的预测值,模型创建单元还用于:
通过测试集数据对基于注意力机制的Seq2Seq神经网络模型进行测试计算,得到测试结果;
将测试结果进行反归一化处理,得到反归一化测试结果;
将反归一化测试结果与实际的网络流量数据进行比较,判断基于注意力机制的Seq2Seq神经网络模型的预测性能。
本申请实施例还提供了一种基于神经网络模型的网络流量预测设备,包括:存储器和处理器,存储器中存储有至少一条指令,至少一条指令由处理器加载并执行,以实现前述的基于神经网络模型的网络流量预测方法的全部步骤或部分步骤。
其中,处理器可以是CPU,还可以是其他通用处理器、数字信号处理器(DigitalSignal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(FieldProgrammable GateArray,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件分立硬件组件等。通用处理器可以是微处理器,或者该处理器也可以是任何常规的处理器等,处理器是计算机装置的控制中心,利用各种接口和线路连接整个计算机装置的各个部分。
存储器可用于存储计算杋程序和/或模块,处理器通过运行或执行存储在存储器内的计算机程序和/或模块,以及调用存储在存储器内的数据,实现计算机装置的各种功能。存储器可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如视频播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如视频数据、图像数据等)等。此外,存储器可以包括高速随存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(SmartMediacard,SMC),安全数字(Secure digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件或其他易失性固态存储器件。
本申请施例还提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现前述的基于神经网络模型的网络流量预测方法的全部步骤或部分步骤。
本申请实施例实现前述的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法的步骤。其中,计算机程序包括计算机程序代码,计算杋程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。计算机可读介质可以包括:能够携带计算机程序代码的仼何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(Read-Only memory,ROM)、随机存取存储器(RandomAccessmemory,RAM)、电载波信号、电信信号以及软件分发介质等。需要说明的是,计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、服务器或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器和光学存储器等)上实施的计算机程序产品的形式。
以上所述仅是本申请的具体实施方式,使本领域技术人员能够理解或实现本申请。对这些实施例的多种修改对本领域的技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所申请的原理和新颖特点相一致的最宽的范围。
本发明是参照根据本发明实施例的方法、设备(系统)和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。

Claims (10)

1.一种基于神经网络模型的网络流量预测方法,其特征在于,包括以下步骤:
采集历史网络流量数据;
将所述网络流量数据输入基于注意力机制的Seq2Seq神经网络模型,所述网络流量数据分别经过所述基于注意力机制的Seq2Seq神经网络模型的编码层、注意力机制层、解码层处理后得到输出结果,所述输出结果为网络流量的预测值。
2.如权利要求1所述的一种基于神经网络模型的网络流量预测方法,其特征在于,所述基于注意力机制的Seq2Seq神经网络模型包括:编码层、注意力机制层和解码层,所述编码层和所述解码层均为双向长短期记忆网络模型。
3.如权利要求2所述的一种基于神经网络模型的网络流量预测方法,其特征在于,在所述采集历史网络流量数据之前,创建基于注意力机制的Seq2Seq神经网络模型,包括:
采集建模用网络流量数据,将所述建模用网络流量数据按照预设比例划分为训练集数据、验证集数据和测试集数据;
将所述基于注意力机制的Seq2Seq神经网络模型的超参数进行初始化处理;
将训练集数据中的各个网络流量数据分别以双向长短期记忆网络单元的形式输入所述编码层,并输出所述双向长短期记忆网络单元的输出向量;
通过所述注意力机制层计算所述双向长短期记忆网络单元的输出向量的权重;
根据所述权重计算出相邻两所述双向长短期记忆网络单元之间的时间步长的上下文变量;
所述解码层根据所述上下文变量和所述解码层的隐藏状态计算网络流量的预测值,完成所述基于注意力机制的Seq2Seq神经网络模型的训练。
4.如权利要求3所述的一种基于神经网络模型的网络流量预测方法,其特征在于,在所述解码层根据所述上下文变量和所述解码层的隐藏状态计算网络流量的预测值,完成所述基于注意力机制的Seq2Seq神经网络模型的训练之后,还包括:
通过所述验证集数据对所述基于注意力机制的Seq2Seq神经网络模型进行验证计算,得到验证结果;
将所述验证结果与预设的评估指标进行比较,判断所述基于注意力机制的Seq2Seq神经网络模型的质量。
5.如权利要求3所述的一种基于神经网络模型的网络流量预测方法,其特征在于,在所述解码层根据所述上下文变量和所述解码层的隐藏状态计算网络流量的预测值,完成所述基于注意力机制的Seq2Seq神经网络模型的训练之后,还包括:
通过所述测试集数据对所述基于注意力机制的Seq2Seq神经网络模型进行测试计算,得到测试结果;
将所述测试结果进行反归一化处理,得到反归一化测试结果;
将所述反归一化测试结果与实际的网络流量数据进行比较,判断所述基于注意力机制的Seq2Seq神经网络模型的预测性能。
6.如权利要求3所述的一种基于神经网络模型的网络流量预测方法,其特征在于:所述Seq2Seq神经网络模型的超参数包括学习率、批处理、迭代次数和优化器。
7.如权利要求6所述的一种基于神经网络模型的网络流量预测方法,其特征在于:所述学习率的初始值通过蜻蜓优化算法计算得到。
8.如权利要求1所述的一种基于神经网络模型的网络流量预测方法,其特征在于,在所述采集网络流量数据之后,还包括:
对所述历史网络流量数据中缺失的数据进行插值预处理,得到预处理后的网络流量数据。
9.一种基于神经网络模型的网络流量预测装置,其特征在于,包括:
数据采集单元,其用于采集历史网络流量数据;
流量预测单元,其用于将所述网络流量数据输入所述基于注意力机制的Seq2Seq神经网络模型,所述网络流量数据分别经过所述基于注意力机制的Seq2Seq神经网络模型的编码层、注意力机制层、解码层处理后得到输出结果,所述输出结果为网络流量的预测值。
10.一种基于神经网络模型的网络流量预测设备,其特征在于,包括:存储器和处理器,所述存储器中存储有至少一条指令,所述至少一条指令由所述处理器加载并执行,以实现权利要求1至8中任一项所述的基于神经网络模型的网络流量预测方法。
CN202110062867.XA 2021-01-18 2021-01-18 基于神经网络模型的网络流量预测方法、装置及设备 Pending CN112910690A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110062867.XA CN112910690A (zh) 2021-01-18 2021-01-18 基于神经网络模型的网络流量预测方法、装置及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110062867.XA CN112910690A (zh) 2021-01-18 2021-01-18 基于神经网络模型的网络流量预测方法、装置及设备

Publications (1)

Publication Number Publication Date
CN112910690A true CN112910690A (zh) 2021-06-04

Family

ID=76115021

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110062867.XA Pending CN112910690A (zh) 2021-01-18 2021-01-18 基于神经网络模型的网络流量预测方法、装置及设备

Country Status (1)

Country Link
CN (1) CN112910690A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113419868A (zh) * 2021-08-23 2021-09-21 南方科技大学 基于众包的温度预测方法、装置、设备和存储介质
CN113568954A (zh) * 2021-08-02 2021-10-29 湖北工业大学 网络流量预测数据预处理阶段的参数最优化方法及系统
CN113595798A (zh) * 2021-08-02 2021-11-02 湖北工业大学 改进闪电连接过程优化算法的网络流量预测方法及系统
CN113905391A (zh) * 2021-09-27 2022-01-07 湖北工业大学 集成学习网络流量预测方法、系统、设备、终端、介质
CN114374617A (zh) * 2021-12-13 2022-04-19 中电信数智科技有限公司 一种可用于确定性网络的容错预制方法
CN115442246A (zh) * 2022-08-31 2022-12-06 武汉烽火技术服务有限公司 数据平面网络的流量预测方法、装置、设备及存储介质
CN115720212A (zh) * 2022-11-11 2023-02-28 吉林大学 一种基于多源数据融合的网络流量预测及自动优化均衡方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180137412A1 (en) * 2016-11-16 2018-05-17 Cisco Technology, Inc. Network traffic prediction using long short term memory neural networks
CN109902880A (zh) * 2019-03-13 2019-06-18 南京航空航天大学 一种基于Seq2Seq生成对抗网络的城市人流预测方法
CN110119765A (zh) * 2019-04-18 2019-08-13 浙江工业大学 一种基于Seq2seq框架的关键词提取方法
CN110798365A (zh) * 2020-01-06 2020-02-14 支付宝(杭州)信息技术有限公司 基于神经网络的流量预测方法及装置
CN110830303A (zh) * 2019-11-13 2020-02-21 大连大学 一种基于双向长短期记忆循环神经网络的网络流量预测方法
CN111553543A (zh) * 2020-05-18 2020-08-18 润联软件系统(深圳)有限公司 基于TPA-Seq2Seq的电力负荷预测方法及相关组件

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180137412A1 (en) * 2016-11-16 2018-05-17 Cisco Technology, Inc. Network traffic prediction using long short term memory neural networks
CN109902880A (zh) * 2019-03-13 2019-06-18 南京航空航天大学 一种基于Seq2Seq生成对抗网络的城市人流预测方法
CN110119765A (zh) * 2019-04-18 2019-08-13 浙江工业大学 一种基于Seq2seq框架的关键词提取方法
CN110830303A (zh) * 2019-11-13 2020-02-21 大连大学 一种基于双向长短期记忆循环神经网络的网络流量预测方法
CN110798365A (zh) * 2020-01-06 2020-02-14 支付宝(杭州)信息技术有限公司 基于神经网络的流量预测方法及装置
CN111553543A (zh) * 2020-05-18 2020-08-18 润联软件系统(深圳)有限公司 基于TPA-Seq2Seq的电力负荷预测方法及相关组件

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113568954A (zh) * 2021-08-02 2021-10-29 湖北工业大学 网络流量预测数据预处理阶段的参数最优化方法及系统
CN113595798A (zh) * 2021-08-02 2021-11-02 湖北工业大学 改进闪电连接过程优化算法的网络流量预测方法及系统
CN113595798B (zh) * 2021-08-02 2023-06-30 湖北工业大学 改进闪电连接过程优化算法的网络流量预测方法及系统
CN113568954B (zh) * 2021-08-02 2024-03-19 湖北工业大学 网络流量预测数据预处理阶段的参数最优化方法及系统
CN113419868A (zh) * 2021-08-23 2021-09-21 南方科技大学 基于众包的温度预测方法、装置、设备和存储介质
WO2023024213A1 (zh) * 2021-08-23 2023-03-02 南方科技大学 基于众包的温度预测方法、装置、设备和存储介质
CN113905391A (zh) * 2021-09-27 2022-01-07 湖北工业大学 集成学习网络流量预测方法、系统、设备、终端、介质
CN113905391B (zh) * 2021-09-27 2023-05-23 湖北工业大学 集成学习网络流量预测方法、系统、设备、终端、介质
CN114374617A (zh) * 2021-12-13 2022-04-19 中电信数智科技有限公司 一种可用于确定性网络的容错预制方法
CN115442246A (zh) * 2022-08-31 2022-12-06 武汉烽火技术服务有限公司 数据平面网络的流量预测方法、装置、设备及存储介质
CN115442246B (zh) * 2022-08-31 2023-09-26 武汉烽火技术服务有限公司 数据平面网络的流量预测方法、装置、设备及存储介质
CN115720212A (zh) * 2022-11-11 2023-02-28 吉林大学 一种基于多源数据融合的网络流量预测及自动优化均衡方法

Similar Documents

Publication Publication Date Title
CN112910690A (zh) 基于神经网络模型的网络流量预测方法、装置及设备
CN109587713B (zh) 一种基于arima模型的网络指标预测方法、装置及存储介质
CN107169628B (zh) 一种基于大数据互信息属性约简的配电网可靠性评估方法
CN112000771B (zh) 一种面向司法公开服务的句子对智能语义匹配方法和装置
CN110689368B (zh) 一种移动应用内广告点击率预测系统设计方法
CN111369299A (zh) 识别的方法、装置、设备及计算机可读存储介质
CN110599766A (zh) 一种基于sae-lstm-sad的道路交通拥堵传播预测方法
CN113255844B (zh) 基于图卷积神经网络交互的推荐方法及系统
CN109787821B (zh) 一种大规模移动客户流量消费智能预测方法
CN112819523B (zh) 结合内/外积特征交互和贝叶斯神经网络的营销预测方法
WO2021035412A1 (zh) 一种自动机器学习AutoML系统、方法及设备
CN111178585A (zh) 基于多算法模型融合的故障接报量预测方法
CN110941964A (zh) 双语语料筛选方法、装置及存储介质
CN110990718A (zh) 一种公司形象提升系统的社会网络模型构建模块
CN116932384A (zh) 一种基于特征融合和特征选择的软件缺陷预测方法
CN116340726A (zh) 一种能源经济大数据清洗方法、系统、设备及存储介质
CN113033898A (zh) 基于k均值聚类与bi-lstm神经网络的电负荷预测方法及系统
CN115713044B (zh) 一种多工况切换下的机电设备剩余寿命分析方法和装置
CN115438190B (zh) 一种配电网故障辅助决策知识抽取方法及系统
CN116347504A (zh) 基于emd-mwoa-lstm的通信基站流量预测方法
CN115081609A (zh) 一种智能决策中的加速方法、终端设备及存储介质
CN115936763A (zh) 一种基于特征衍生与特征筛选的车机用户流失预测方法
CN112488805B (zh) 基于多元回归时间序列分析的长租市场预警方法
CN112581177B (zh) 结合自动特征工程及残差神经网络的营销预测方法
CN114492552A (zh) 宽带用户真实性判断模型的训练方法、装置及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20210604