CN116668321A - 网络流量预测方法、装置、设备和存储介质 - Google Patents
网络流量预测方法、装置、设备和存储介质 Download PDFInfo
- Publication number
- CN116668321A CN116668321A CN202310738956.0A CN202310738956A CN116668321A CN 116668321 A CN116668321 A CN 116668321A CN 202310738956 A CN202310738956 A CN 202310738956A CN 116668321 A CN116668321 A CN 116668321A
- Authority
- CN
- China
- Prior art keywords
- layer
- network
- output
- moment
- flow
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 238000012549 training Methods 0.000 claims abstract description 64
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 47
- 230000007246 mechanism Effects 0.000 claims abstract description 21
- 230000007787 long-term memory Effects 0.000 claims abstract description 12
- 230000015654 memory Effects 0.000 claims description 46
- 230000006870 function Effects 0.000 claims description 45
- 239000013598 vector Substances 0.000 claims description 35
- 238000011176 pooling Methods 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 9
- 230000004913 activation Effects 0.000 claims description 7
- 238000012935 Averaging Methods 0.000 claims description 6
- 238000004891 communication Methods 0.000 description 8
- 238000000605 extraction Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 230000006403 short-term memory Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000013136 deep learning model Methods 0.000 description 4
- 230000007547 defect Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000007774 longterm Effects 0.000 description 3
- 238000004321 preservation Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 208000013409 limited attention Diseases 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000013468 resource allocation Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/14—Network analysis or design
- H04L41/147—Network analysis or design for predicting network behaviour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/14—Network analysis or design
- H04L41/145—Network analysis or design involving simulating, designing, planning or modelling of a network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/16—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using machine learning or artificial intelligence
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L43/00—Arrangements for monitoring or testing data switching networks
- H04L43/08—Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
- H04L43/0876—Network utilisation, e.g. volume of load or congestion level
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Environmental & Geological Engineering (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Traffic Control Systems (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请公开了一种网络流量预测方法、装置、设备和存储介质,涉及网络流量预测领域,该网络流量预测方法,包括:将实时采集的网络流量数据输入预设网络流量预测模型进行网络流量预测,输出预测的网络流量数据;其中,预设网络流量模型的通过如下步骤训练:获取训练数据,训练数据包括历史时段和历史时段中各时刻对应的历史网络流量数据;将训练数据输入原始模型进行模型训练,得到预设网络流量模型;原始模型包括依次连接的输入层、卷积神经网络层、长短期记忆网络层、注意力机制层、以及输出层;提升了网络流量的预测准确率。
Description
技术领域
本申请涉及网络流量预测领域,尤其涉及网络流量预测方法、装置、设备和存储介质。
背景技术
进入二十一世纪以来,随着通信技术的高速发展,各行各业产生的网络流量与日俱增,也使得人们对网络流量的需求明显增长。精确的预测出网络流量对于运营商维护网络和保障用户体验起着关键作用。
现已有利用深度学习模型预测网络流量的方法,但深度学习模型在网络流量预测领域的研究起步较晚,实际应用中网络流量的预测准确率还有待提升。
发明内容
本申请提供网络流量预测方法、装置、设备和存储介质,提升了网络流量的预测准确率。
为实现上述技术目的,本申请采用如下技术方案:
第一方面,本申请提供一种网络流量预测方法,包括:
将实时采集的网络流量数据输入预设网络流量预测模型进行网络流量预测,输出预测的网络流量数据;
其中,预设网络流量模型的通过如下步骤训练:
获取训练数据,训练数据包括历史时段和历史时段中各时刻对应的历史网络流量数据;
将训练数据输入原始模型进行模型训练,得到预设网络流量模型;原始模型包括依次连接的输入层、卷积神经网络层、长短期记忆网络层、注意力机制层、以及输出层;
输入层用于将训练数据输入卷积神经网络层;
卷积神经网络层用于根据训练数据确定历史时段中各时刻对应的流量特征向量;
长短期记忆网络层用于根据第一时刻的流量特征向量和第二时刻的隐含层状态信息输出第一时刻的隐含层状态信息;第一时刻为历史时段中的任一时刻,第二时刻为第一时刻的前一刻;
注意力机制层用于对各时刻的隐含层状态信息分配注意力系数,以确定流量预测值;
输出层用于输出流量预测值。
第一方面中,应用训练得到的预设网络流量模型进行网络流量数据预测,而该预设网络流量预测模型中,首先通过卷积神经网络层确定历史时段中各时刻对应的流量特征向量,实现了历史网络流量数据的时序特征提取,克服了单一长短期记忆网络层特征提取能力不足的缺陷。然后将卷积神经网络层输出的流量特征向量输入长短期记忆网络层,由长短期记忆网络层输出隐含层状态信息,实现了网络流量中存在的长期时序数据特征的保存。并且在长短期记忆网络层输出隐含层状态信息的过程中对隐含层状态信息分配注意力系数,以确定流量预测值,能够将更大比例的注意力系数分配给关键的流量特征向量,进而提高预设网络流量模型的准确性和可靠性。
在一种实现中,卷积神经网络层包括一维卷积层和平均池化层;
卷积层的输出Yconv具备如下关系:
Yconv=ReLU(w1×X+b1)
其中,ReLU表示线性整流函数,w1为卷积层的权重,b1为卷积层的偏置;
平均池化层输出的流量特征向量Ypool具备如下关系:
Ypool=avg(Yconv)+b2
其中,avg表示求平均值函数,b2为池化层的偏置。
在一种实现中,长短期记忆网络层在t时刻输出的隐含层状态信息Yt具备如下关系:
Yt=LSTM(Ypool,t-1,Ypool,t)
其中,Ypool,t-1为t-1时刻下长短期记忆网络层输出的隐含层状态信息,Ypool,t为t时刻下卷积神经网络层输出的流量特征向量。
在一种实现中,注意力模块层在t时刻的输出Ct具备如下关系:
Et=w2 tanh(w3Yt+b3)
其中,l为长短期记忆网络层输出第一个隐含层状态信息的时刻,n为长短期记忆网络层输出最后一个隐含层状态信息的时刻,exp表示指数函数,tanh表示双曲正切函数,w2和w3为注意力模块层的权重,b3为注意力模块层的偏置,At为t时刻下对隐含层状态信息分配的注意力系数,Yt表示长短期记忆网络层在t时刻输出的隐含层状态信息,Et为t时刻下注意力模块层的概率分布。
在一种实现中,输出层输出的流量预测值yt具备如下关系:
yt=Sigmoid(w5Ct+b4)
其中,Sigmoid表示输出层的激活函数,w5为输出层的权重,b4为输出层的偏置。
第二方面,本申请提供一种网络流量预测系统,该装置包括:
训练模块,用于训练预设网络流量模型;
预测模块,用于将实时采集的网络流量数据输入预设网络流量预测模型进行网络流量预测,输出预测的网络流量数据;
训练模块,具体用于:获取训练数据,训练数据包括历史时段和历史时段中各时刻对应的历史网络流量数据;以及将训练数据输入原始模型进行模型训练,得到预设网络流量模型;
其中,原始模型包括依次连接的输入层、卷积神经网络层、长短期记忆网络层、注意力机制层、以及输出层;
输入层用于将训练数据输入卷积神经网络层;
卷积神经网络层用于根据训练数据确定历史时段中各时刻对应的流量特征向量;
长短期记忆网络层用于根据第一时刻的流量特征向量和第二时刻的隐含层状态信息输出当前时刻的隐含层状态信息;第一时刻为历史时段中的任一时刻,第二时刻为第一时刻的前一刻;
注意力机制层用于对各时刻的隐含层状态信息分配注意力系数,以确定流量预测值;
输出层用于输出流量预测值。
在一种实现中,卷积神经网络层包括一维卷积层和平均池化层;
卷积层的输出Yconv具备如下关系:
Yconv=ReLU(w1×X+b1)
其中,ReLU表示线性整流函数,w1为卷积层的权重,b1为卷积层的偏置;
平均池化层输出的流量特征向量Ypool具备如下关系:
Ypool=avg(Yconv)+b2
其中,avg表示求平均值函数,b2为池化层的偏置。
在一种实现中,长短期记忆网络层在t时刻输出的隐含层状态信息Yt具备如下关系:
Yt=LSTM(Ypool,t-1,Ypool,t)
其中,Ypool,t-1为t-1时刻下长短期记忆网络层输出的隐含层状态信息,Ypool,t为t时刻下卷积神经网络层输出的流量特征向量。
在一种实现中,注意力模块层在t时刻的输出Ct具备如下关系:
Et=w2 tanh(w3Yt+b3)
其中,l为长短期记忆网络层输出第一个隐含层状态信息的时刻,n为长短期记忆网络层输出最后一个隐含层状态信息的时刻,exp表示指数函数,tanh表示双曲正切函数,w2和w3为注意力模块层的权重,b3为注意力模块层的偏置,At为t时刻下对隐含层状态信息分配的注意力系数,Yt表示长短期记忆网络层在t时刻输出的隐含层状态信息,Et为t时刻下注意力模块层的概率分布。
在一种实现中,输出层输出的流量预测值yt具备如下关系:
yt=Sigmoid(w5Ct+b4)
其中,Sigmoid表示输出层的激活函数,w5为输出层的权重,b4为输出层的偏置。
第三方面,本申请提供一种电子设备,包括:处理器,以及用于存储处理器可执行指令的存储器;其中,处理器被配置为执行指令,以实现如上述第一方面提供的网络流量预测方法。
第四方面,本申请提供一种计算机可读存储介质,存储有信息传递的实现程序,该程序被处理器执行时实现如第一方面提供的网络流量预测方法。
第五方面,本申请提供一种计算机程序产品,当计算机程序产品在计算机上运行时,使得计算机执行如上述第一方面提供的方法。
本申请中第二方面、第三方面、第四方面和第五方面描述的有益效果,可以参考第一方面的有益效果分析,此处不再赘述。
附图说明
图1为本申请实施例提供的一种预设网络流量模型的训练方法的流程示意图;
图2为本申请实施例提供的一种原始模型的结构示意图;
图3为本申请实施例提供的一种网络流量预测方法的流程示意图;
图4为本申请实施例提供的一种网络流量预测系统的结构示意图;
图5为本申请实施例提供的一种电子设备的结构示意图。
具体实施方式
下面将详细描述本申请的各个方面的特征和示例性实施例,为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及具体实施例,对本申请进行进一步详细描述。应理解,此处所描述的具体实施例仅被配置为解释本申请,并不被配置为限定本申请。对于本领域技术人员来说,本申请可以在不需要这些具体细节中的一些细节的情况下实施。下面对实施例的描述仅仅是为了通过示出本申请的示例来提供对本申请更好的理解。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序;也不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本实施例的描述中,除非另有说明,“多个”的含义是两个或两个以上。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
近年来,深度学习模型的出现为网络流量预测提供了更为理想的解决方法,其中长短期记忆网络(Long Short-Term Memory,LSTM)是一种适合于处理和预测时间序列中间隔和延迟非常长的重要事件的深度学习模型,因此,其在网络流量预测领域展现出了良好的性能。但是由于网络流量预测较为复杂,实际应用LSTM进行网络流量预测的预测准确率还有待提升。
为了解决上述问题,本申请实施例提供一种网络流量预测方法,该方法应用训练得到的预设网络流量模型进行网络流量数据预测,而该预设网络流量预测模型中,首先通过卷积神经网络层确定历史时段中各时刻对应的流量特征向量,实现了历史网络流量数据的时序特征提取,克服了单一LSTM层特征提取能力不足的缺陷。然后将卷积神经网络层输出的流量特征向量输入LSTM层,由LSTM层输出隐含层状态信息,实现了网络流量中存在的长期时序数据特征的保存。并且在LSTM层输出隐含层状态信息的过程中对隐含层状态信息分配注意力系数,以确定流量预测值,能够将更大比例的注意力系数分配给关键的流量特征向量,进而提高预设网络流量模型的准确性和可靠性。
本申请实施例提供的网络流量预测方法的执行主体可以是计算机、服务器等具有数据处理能力的电子设备。其中,服务器可以是单独的一个服务器,或者,也可以是由多个服务器构成的服务器集群。部分实施方式中,服务器集群还可以是分布式集群。本申请对该网络流量预测方法的执行主体不作限制。
下面首先对本申请实施例提供的网络流量预测方法中应用的预设网络流量模型的训练方法进行介绍,图1示出了本申请一个实施例提供的预设网络流量模型的训练方法的流程示意图。如图1所示,该方法可以包括以下步骤:
S110,获取训练数据。
其中,训练数据包括历史时段和历史时段中各时刻对应的历史网络流量数据。训练数据可以根据从运营商服务器获取到的历史网络流量数据构建。训练数据的数据类型为时序数据。训练数据可以表示为X=[X1,X2,……,Xn-1,Xn]T。序列(X1,X2,……,Xn-1,Xn)的顺序根据历史网络流量数据对应的时刻先后确定,靠前的历史网络流量数据对应的时刻靠前,靠后的历史网络流量数据对应的时刻靠后。
S120,将训练数据输入原始模型进行模型训练,得到预设网络流量模型。
其中,如图2所示,原始模型包括依次连接的输入层、卷积神经网络(Convolutional Neural Networks,CNN)层、LSTM层、注意力机制层、以及输出层。在训练预设网络流量模型时,可以调用训练数据中第T时刻前的m个序列(即XT-m~XT-1)来预测第T时刻的序列值XT’。m的值可以根据实际需求自定义,但满足m<T。预设网络流量模型的收敛条件可以灵活设置,
例如,训练轮次达到预设阈值,或者,预测的XT’与实际的XT之间的误差预先设定的误差值等。在未满足收敛条件的情况下,可以调整CNN层、LSTM层、注意力机制层中的部分参数或者全部参数,直至满足收敛条件。
输入层用于将训练数据输入卷积神经网络层。
其中,输入层是原始模型的第一层,其作用是接收输入数据,并将其传递到下一层,也就是卷积神经网络层。
卷积神经网络层用于根据训练数据确定历史时段中各时刻对应的流量特征向量,卷积神经网络层可以采用一维的卷积神经网络层(1D-CNN)。卷积神经网络具有表征学习(representation learning)能力,能够按其阶层结构对输入信息进行平移不变分类(shift-invariant classification)。例如,将训练数据中历史时段中各时刻对应的流量特征向量提取出来,实现了时序特征的提取。
在一种实施例中,卷积神经网络层包括一维卷积层和平均池化层;卷积层的输出Yconv具备如下关系:
Yconv=ReLU(w1×X+b1)
其中,ReLU表示线性整流函数,w1为卷积层的权重,b1为卷积层的偏置;平均池化层输出的流量特征向量Ypool具备如下关系:
Ypool=avg(Yconv)+b2
其中,avg表示求平均值函数,b2为池化层的偏置。
LSTM层用于根据第一时刻的流量特征向量和第二时刻的隐含层状态信息输出第一时刻的隐含层状态信息。
其中,第一时刻为历史时段中的任一时刻,第二时刻为第一时刻的前一刻。LSTM也称长短时记忆结构,能够有效捕捉长序列(训练数据中历史时段中各时刻对应的流量特征)之间的语义关联。
在一种实施例中,LSTM层在t时刻输出的隐含层状态信息Yt具备如下关系:
Yt=LSTM(Ypool,t-1,Ypool,t)
其中,Ypool,t-1为t-1时刻下LSTM层输出的隐含层状态信息,Ypool,t为t时刻下卷积神经网络层输出的流量特征向量。
注意力机制层用于对各时刻的隐含层状态信息分配注意力系数,以确定流量预测值。
其中,神经网络中的注意力机制(Attention Mechanism)是在计算能力有限的情况下,将计算资源分配给更重要的任务,同时解决信息超载问题的一种资源分配方案。在神经网络学习中,一般而言模型的参数越多则模型的表达能力越强,模型所存储的信息量也越大,但这会带来信息过载的问题。那么通过引入注意力机制,在众多的输入信息中聚焦于对当前任务更为关键的信息,降低对其他信息的关注度,甚至过滤掉无关信息,就可以解决信息过载问题,并提高任务处理的效率和准确性。
这就类似于人类的视觉注意力机制,通过扫描全局图像,获取需要重点关注的目标区域,而后对这一区域投入更多的注意力资源,获取更多与目标有关的细节信息,而忽视其他无关信息。通过这种机制可以利用有限的注意力资源从大量信息中快速筛选出高价值的信息。
在本申请实施例的应用中,注意力机制层能够将更大比例的注意力系数分配给关键的流量特征向量,进而提高预设网络流量模型的准确性和可靠性。
在一种实施例中,注意力模块层在t时刻的输出Ct具备如下关系:
Et=w2 tanh(w3Yt+b3)
其中,l为LSTM层输出第一个隐含层状态信息的时刻,n为LSTM层输出最后一个隐含层状态信息的时刻,exp表示指数函数,tanh表示双曲正切函数,w2和w3为注意力模块层的权重,b3为注意力模块层的偏置,At为t时刻下对隐含层状态信息分配的注意力系数,Yt表示LSTM层在t时刻输出的隐含层状态信息,Et为t时刻下注意力模块层的概率分布。
输出层用于输出流量预测值。
其中,输出层能够对注意力机制层输入的高维数据进行降维,进而得到一维数据作为流量预测值。
在一种实施例中,输出层输出的流量预测值yt具备如下关系:
yt=Sigmoid(w5Ct+b4)
其中,Sigmoid表示输出层的激活函数,Sigmoid函数是一个在生物学中常见的S型函数,也称为S型生长曲线。由于其单增以及反函数单增等性质,Sigmoid函数常被用作神经网络的激活函数,将变量映射到0-1之间。w5为输出层的权重,b4为输出层的偏置。
本申请实施例应用训练得到的预设网络流量模型进行网络流量数据预测,而该预设网络流量预测模型中,首先通过CNN层确定历史时段中各时刻对应的流量特征向量,实现了历史网络流量数据的时序特征提取,克服了单一LSTM层特征提取能力不足的缺陷。然后将CNN层输出的流量特征向量输入LSTM层,由LSTM层输出隐含层状态信息,实现了网络流量中存在的长期时序数据特征的保存。并且在LSTM层输出隐含层状态信息的过程中对隐含层状态信息分配注意力系数,以确定流量预测值,能够将更大比例的注意力系数分配给关键的流量特征向量,进而提高预设网络流量模型的准确性和可靠性。
上面介绍了预设网络流量模型的训练方法,基于训练得到的预设网络流量模型,可以实现网络流量预测方法。下面对本申请实施例提供的网络流量预测方法进行介绍,图3示出了本申请一个实施例提供的网络流量预测方法的流程示意图,如图3所示,该方法可以包括以下步骤:
S310,将实时采集的网络流量数据输入预设网络流量预测模型进行网络流量预测,输出预测的网络流量数据。
其中,实时采集的网络流量数据可以从运营商服务器获取。预设网络流量预测模型通过本申请实施例介绍的S110-S120训练得到。该预设网络流量预测模型预测可靠性较高,使得输出预测的网络流量数据也较为准确。
图1-图3描述了网络流量预测方法,下面结合附图4和附图5描述本申请实施例提供的系统。为了实现上述功能,网络流量预测系统包含了执行各个功能相应的硬件结构和/或软件模块。本领域技术人员应该很容易意识到,结合本文中所公开的实施例描述的各示例的算法步骤,本申请能够以硬件或硬件和计算机软件的结合形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
本申请实施例可以根据上述方法,示例性的对网络流量预测系统进行功能模块的划分。网络流量预测系统可以对应各个功能划分各个功能模块,也可以将两个或两个以上的功能集成在一个处理模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。需要说明的是,本申请实施例中对模块的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
图4示出了本申请一个实施例提供的网络流量预测系统的结构示意图,图4所示装置中各模块具有实现图1-图3中各个步骤的功能,并能达到其相应技术效果。如图4所示,该系统可以包括:
训练模块410,用于训练预设网络流量模型。
预测模块420,用于将实时采集的网络流量数据输入预设网络流量预测模型进行网络流量预测,输出预测的网络流量数据。
训练模块410,具体用于:获取训练数据,训练数据包括历史时段和历史时段中各时刻对应的历史网络流量数据。以及将训练数据输入原始模型进行模型训练,得到预设网络流量模型。
其中,原始模型包括依次连接的输入层、卷积神经网络层、长短期记忆网络层、注意力机制层、以及输出层。
输入层用于将训练数据输入卷积神经网络层。
卷积神经网络层用于根据训练数据确定历史时段中各时刻对应的流量特征向量。
长短期记忆网络层用于根据第一时刻的流量特征向量和第二时刻的隐含层状态信息输出当前时刻的隐含层状态信息。第一时刻为历史时段中的任一时刻,第二时刻为第一时刻的前一刻。
注意力机制层用于对各时刻的隐含层状态信息分配注意力系数,以确定流量预测值。
输出层用于输出流量预测值。
在一种实施例中,卷积神经网络层包括一维卷积层和平均池化层。
卷积层的输出Yconv具备如下关系:
Yconv=ReLU(w1×X+b1)
其中,ReLU表示线性整流函数,w1为卷积层的权重,b1为卷积层的偏置。
平均池化层输出的流量特征向量Ypool具备如下关系:
Ypool=avg(Yconv)+b2
其中,avg表示求平均值函数,b2为池化层的偏置。
在一种实施例中,长短期记忆网络层在t时刻输出的隐含层状态信息Yt具备如下关系:
Yt=LSTM(Ypool,t-1,Ypool,t)
其中,Ypool,t-1为t-1时刻下长短期记忆网络层输出的隐含层状态信息,Ypool,t为t时刻下卷积神经网络层输出的流量特征向量。
在一种实施例中,注意力模块层在t时刻的输出Ct具备如下关系:
Et=w2 tanh(w3Yt+b3)
其中,l为长短期记忆网络层输出第一个隐含层状态信息的时刻,n为长短期记忆网络层输出最后一个隐含层状态信息的时刻,exp表示指数函数,tanh表示双曲正切函数,w2和w3为注意力模块层的权重,b3为注意力模块层的偏置,At为t时刻下对隐含层状态信息分配的注意力系数,Yt表示长短期记忆网络层在t时刻输出的隐含层状态信息,Et为t时刻下注意力模块层的概率分布。
在一种实施例中,输出层输出的流量预测值yt具备如下关系:
yt=Sigmoid(w5Ct+b4)
其中,Sigmoid表示输出层的激活函数,w5为输出层的权重,b4为输出层的偏置。
图5示出了本申请一个实施例提供的电子设备的结构示意图。如图5所示,该设备可以包括处理器501以及存储有计算机程序指令的存储器502。
具体地,上述处理器501可以包括中央处理器(Central Processing Unit,CPU),或者特定集成电路(Application Specific Integrated Circuit,ASIC),或者可以被配置成实施本申请实施例的一个或多个集成电路。
存储器502可以包括用于数据或指令的大容量存储器。举例来说而非限制,存储器502可包括硬盘驱动器(Hard Disk Drive,HDD)、软盘驱动器、闪存、光盘、磁光盘、磁带或通用串行总线(Universal Serial Bus,USB)驱动器或者两个或更多个以上这些的组合。在一个实例中,存储器502可以包括可移除或不可移除(或固定)的介质,或者存储器502是非易失性固态存储器。存储器502可在综合网关容灾设备的内部或外部。
在一个实例中,存储器502可以是只读存储器(Read Only Memory,ROM)。在一个实例中,该ROM可以是掩模编程的ROM、可编程ROM(PROM)、可擦除PROM(EPROM)、电可擦除PROM(EEPROM)、电可改写ROM(EAROM)或闪存或者两个或更多个以上这些的组合。
处理器501通过读取并执行存储器502中存储的计算机程序指令,以实现图1-图3所示实施例中的方法,并达到图1-图3所示实例执行其方法达到的相应技术效果,为简洁描述在此不再赘述。
在一个示例中,该电子设备还可包括通信接口503和总线510。其中,如图3所示,处理器501、存储器502、通信接口503通过总线510连接并完成相互间的通信。
通信接口503,主要用于实现本申请实施例中各模块、装置、单元和/或设备之间的通信。
总线510包括硬件、软件或两者,将在线数据流量计费设备的部件彼此耦接在一起。举例来说而非限制,总线可包括加速图形端口(Accelerated Graphics Port,AGP)或其他图形总线、增强工业标准架构(Extended Industry Standard Architecture,EISA)总线、前端总线(Front Side Bus,FSB)、超传输(Hyper Transport,HT)互连、工业标准架构(Industry Standard Architecture,ISA)总线、无限带宽互连、低引脚数(LPC)总线、存储器总线、微信道架构(MCA)总线、外围组件互连(PCI)总线、PCI-Express(PCI-X)总线、串行高级技术附件(SATA)总线、视频电子标准协会局部(VLB)总线或其他合适的总线或者两个或更多个以上这些的组合。在合适的情况下,总线510可包括一个或多个总线。尽管本申请实施例描述和示出了特定的总线,但本申请考虑任何合适的总线或互连。
该电子设备可以执行本申请实施例中的网络流量预测方法,从而实现图1-图3描述的方法的相应技术效果。
另外,结合上述实施例中的网络流量预测方法,本申请实施例可提供一种计算机存储介质来实现。该计算机存储介质上存储有计算机程序指令;该计算机程序指令被处理器执行时实现上述实施例中的任意一种网络流量预测方法。
在示例性的实施例中,本申请实施例还提供了一种计算机程序产品,当计算机程序产品在计算机上运行时,使得计算机实现上述实施例中的网络流量预测方法。
通过以上实施方式的描述,所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个装置,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是一个物理单元或多个物理单元,即可以位于一个地方,或者也可以分布到多个不同地方。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个可读取存储介质中。基于这样的理解,本申请实施例的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该软件产品存储在一个存储介质中,包括若干指令用以使得一个设备(可以是单片机,芯片等)或处理器(processor)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
以上内容,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何在本申请揭露的技术范围内的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。
Claims (12)
1.一种网络流量预测方法,其特征在于,包括:
将实时采集的网络流量数据输入预设网络流量预测模型进行网络流量预测,输出预测的网络流量数据;
其中,所述预设网络流量模型的通过如下步骤训练:
获取训练数据,所述训练数据包括历史时段和历史时段中各时刻对应的历史网络流量数据;
将所述训练数据输入原始模型进行模型训练,得到所述预设网络流量模型;所述原始模型包括依次连接的输入层、卷积神经网络层、长短期记忆网络层、注意力机制层、以及输出层;
所述输入层用于将所述训练数据输入所述卷积神经网络层;
所述卷积神经网络层用于根据所述训练数据确定所述历史时段中各时刻对应的流量特征向量;
所述长短期记忆网络层用于根据第一时刻的所述流量特征向量和第二时刻的隐含层状态信息输出所述第一时刻的所述隐含层状态信息;所述第一时刻为所述历史时段中的任一时刻,所述第二时刻为所述第一时刻的前一刻;
所述注意力机制层用于对所述各时刻的所述隐含层状态信息分配注意力系数,以确定流量预测值;
所述输出层用于输出所述流量预测值。
2.如权利要求1所述的网络流量预测方法,其特征在于,所述卷积神经网络层包括一维卷积层和平均池化层;
所述卷积层的输出Yconv具备如下关系:
Yconv=ReLU(w1×X+b1)
其中,ReLU表示线性整流函数,w1为所述卷积层的权重,b1为所述卷积层的偏置;
所述平均池化层输出的流量特征向量Ypool具备如下关系:
Ypool=avg(Yconv)+b2
其中,avg表示求平均值函数,b2为池化层的偏置。
3.如权利要求1所述的网络流量预测方法,其特征在于,所述长短期记忆网络层在t时刻输出的所述隐含层状态信息Yt具备如下关系:
Yt=LSTM(Ypool,t-1,Ypool,t)
其中,Ypool,t-1为t-1时刻下所述长短期记忆网络层输出的所述隐含层状态信息,Ypool,t为t时刻下所述卷积神经网络层输出的所述流量特征向量。
4.如权利要求1所述的网络流量预测方法,其特征在于,所述注意力模块层在t时刻的输出Ct具备如下关系:
Et=w2 tanh(w3Yt+b3)
其中,l为所述长短期记忆网络层输出第一个所述隐含层状态信息的时刻,n为所述长短期记忆网络层输出最后一个所述隐含层状态信息的时刻,exp表示指数函数,tanh表示双曲正切函数,w2和w3为所述注意力模块层的权重,b3为所述注意力模块层的偏置,At为t时刻下对所述隐含层状态信息分配的所述注意力系数,Yt表示所述长短期记忆网络层在t时刻输出的所述隐含层状态信息,Et为t时刻下所述注意力模块层的概率分布。
5.如权利要求1-4任一项所述的网络流量预测方法,其特征在于,所述输出层输出的所述流量预测值yt具备如下关系:
yt=Sigmoid(w5Ct+b4)
其中,Sigmoid表示所述输出层的激活函数,w5为所述输出层的权重,b4为所述输出层的偏置。
6.一种网络流量预测系统,其特征在于,包括:
训练模块,用于训练预设网络流量模型;
预测模块,用于将实时采集的网络流量数据输入所述预设网络流量预测模型进行网络流量预测,输出预测的网络流量数据;
所述训练模块,具体用于:获取训练数据,所述训练数据包括历史时段和历史时段中各时刻对应的历史网络流量数据;以及将所述训练数据输入原始模型进行模型训练,得到所述预设网络流量模型;
其中,所述原始模型包括依次连接的输入层、卷积神经网络层、长短期记忆网络层、注意力机制层、以及输出层;
所述输入层用于将所述训练数据输入所述卷积神经网络层;
所述卷积神经网络层用于根据所述训练数据确定所述历史时段中各时刻对应的流量特征向量;
所述长短期记忆网络层用于根据第一时刻的所述流量特征向量和第二时刻的隐含层状态信息输出当前时刻的所述隐含层状态信息;所述第一时刻为所述历史时段中的任一时刻,所述第二时刻为所述第一时刻的前一刻;
所述注意力机制层用于对所述各时刻的所述隐含层状态信息分配注意力系数,以确定流量预测值;
所述输出层用于输出所述流量预测值。
7.如权利要求6所述的网络流量预测系统,其特征在于,所述卷积神经网络层包括一维卷积层和平均池化层;
所述卷积层的输出Yconv具备如下关系:
Yconv=ReLU(w1×X+b1)
其中,ReLU表示线性整流函数,w1为所述卷积层的权重,b1为所述卷积层的偏置;
所述平均池化层输出的流量特征向量Ypool具备如下关系:
Ypool=avg(Yconv)+b2
其中,avg表示求平均值函数,b2为池化层的偏置。
8.如权利要求6所述的网络流量预测系统,其特征在于,所述长短期记忆网络层在t时刻输出的所述隐含层状态信息Yt具备如下关系:
Yt=LSTM(Ypool,t-1,Ypool,t)
其中,Ypool,t-1为t-1时刻下所述长短期记忆网络层输出的所述隐含层状态信息,Ypool,t为t时刻下所述卷积神经网络层输出的所述流量特征向量。
9.如权利要求6所述的网络流量预测系统,其特征在于,所述注意力模块层在t时刻的输出Ct具备如下关系:
Et=w2 tanh(w3Yt+b3)
其中,l为所述长短期记忆网络层输出第一个所述隐含层状态信息的时刻,n为所述长短期记忆网络层输出最后一个所述隐含层状态信息的时刻,exp表示指数函数,tanh表示双曲正切函数,w2和w3为所述注意力模块层的权重,b3为所述注意力模块层的偏置,At为t时刻下对所述隐含层状态信息分配的所述注意力系数,Yt表示所述长短期记忆网络层在t时刻输出的所述隐含层状态信息,Et为t时刻下所述注意力模块层的概率分布。
10.如权利要求6-9任一项所述的网络流量预测系统,其特征在于,所述输出层输出的所述流量预测值yt具备如下关系:
yt=Sigmoid(w5Ct+b4)
其中,Sigmoid表示所述输出层的激活函数,w5为所述输出层的权重,b4为所述输出层的偏置。
11.一种电子设备,其特征在于,包括:存储器,处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至5中任一项所述的网络流量预测方法。
12.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至5中任一项所述的网络流量预测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310738956.0A CN116668321A (zh) | 2023-06-20 | 2023-06-20 | 网络流量预测方法、装置、设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310738956.0A CN116668321A (zh) | 2023-06-20 | 2023-06-20 | 网络流量预测方法、装置、设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116668321A true CN116668321A (zh) | 2023-08-29 |
Family
ID=87711727
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310738956.0A Pending CN116668321A (zh) | 2023-06-20 | 2023-06-20 | 网络流量预测方法、装置、设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116668321A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117201334A (zh) * | 2023-11-08 | 2023-12-08 | 之江实验室 | 一种多模态网络流量预测方法及装置 |
-
2023
- 2023-06-20 CN CN202310738956.0A patent/CN116668321A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117201334A (zh) * | 2023-11-08 | 2023-12-08 | 之江实验室 | 一种多模态网络流量预测方法及装置 |
CN117201334B (zh) * | 2023-11-08 | 2024-01-26 | 之江实验室 | 一种多模态网络流量预测方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109344908B (zh) | 用于生成模型的方法和装置 | |
CN108960090B (zh) | 视频图像处理方法及装置、计算机可读介质和电子设备 | |
Chow et al. | Estimating optimal feature subsets using efficient estimation of high-dimensional mutual information | |
CN110309874B (zh) | 负样本筛选模型训练方法、数据筛选方法和数据匹配方法 | |
CN108172213B (zh) | 娇喘音频识别方法、装置、设备及计算机可读介质 | |
CN108197652B (zh) | 用于生成信息的方法和装置 | |
CN110211119B (zh) | 图像质量评估方法、装置、电子设备及可读存储介质 | |
US11687761B2 (en) | Improper neural network input detection and handling | |
CN111738351A (zh) | 模型训练方法、装置、存储介质及电子设备 | |
CN116668321A (zh) | 网络流量预测方法、装置、设备和存储介质 | |
CN110210006A (zh) | 一种数据筛选方法及数据筛选装置 | |
CN111159481B (zh) | 图数据的边预测方法、装置及终端设备 | |
CN111461445A (zh) | 短期风速预测方法、装置、计算机设备及存储介质 | |
CN112770112A (zh) | 流量数据异常检测方法、装置、电子设备及存储介质 | |
CN110766184A (zh) | 订单量预测方法和装置 | |
CN107728772B (zh) | 应用程序的处理方法、装置、存储介质及电子设备 | |
CN112633074B (zh) | 行人信息的检测方法和装置、存储介质及电子设备 | |
CN110704614B (zh) | 对应用中的用户群类型进行预测的信息处理方法及装置 | |
CN112308282A (zh) | 数据处理方法、装置、电子设备和计算机存储介质 | |
CN110705889A (zh) | 一种企业筛选方法、装置、设备及存储介质 | |
CN112434717B (zh) | 一种模型训练方法及装置 | |
CN112149833B (zh) | 基于机器学习的预测方法、装置、设备和存储介质 | |
CN109614854B (zh) | 视频数据处理方法及装置、计算机装置及可读存储介质 | |
CN113190429A (zh) | 服务器性能预测方法、装置及终端设备 | |
CN111754050A (zh) | 配送对象配送画像的预测方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |