CN114124554B - 一种虚拟网络服务链吞吐量预测方法 - Google Patents
一种虚拟网络服务链吞吐量预测方法 Download PDFInfo
- Publication number
- CN114124554B CN114124554B CN202111435813.XA CN202111435813A CN114124554B CN 114124554 B CN114124554 B CN 114124554B CN 202111435813 A CN202111435813 A CN 202111435813A CN 114124554 B CN114124554 B CN 114124554B
- Authority
- CN
- China
- Prior art keywords
- throughput
- encoder
- network service
- service chain
- prediction model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L43/00—Arrangements for monitoring or testing data switching networks
- H04L43/08—Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
- H04L43/0876—Network utilisation, e.g. volume of load or congestion level
- H04L43/0888—Throughput
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L63/00—Network architectures or network communication protocols for network security
- H04L63/02—Network architectures or network communication protocols for network security for separating internal from external traffic, e.g. firewalls
- H04L63/0272—Virtual private networks
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Environmental & Geological Engineering (AREA)
- Computer Hardware Design (AREA)
- Computer Security & Cryptography (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
本发明公开了一种虚拟网络服务链吞吐量预测方法,属于网络通信技术领域,包括提取虚拟网络服务链承载硬件设施的状态参数,归一化、标准化处理、构建基于长短期记忆LSTM网络的编码器和解码器架构吞吐量预测模型输入时序序列,根据输入时序序列经由编码器提取其特征向量,解码器根据编码器获取的特征向量及监测值进行解码并输出预测值,预测值评估,利用预测模型进行在线预测。本发明通过对网络服务链吞吐量的实时预测,为灵活、高效的利用网络服务资源及为网络用户提供安全、快速、稳定并且满足特定网络吞吐量需求的网络服务提供基础。
Description
技术领域
本发明涉及网络通信技术领域,尤其是一种虚拟网络服务链吞吐量预测方法。
背景技术
数据通信网络系统中,应用数据在网络中需要通过各种各样的网络服务节点所提供的网络服务,才能实现网络用户最终的业务需求,因此,网络服务节点的目标是为网络用户提供安全、快速、稳定并且满足特定网络吞吐量需求的网络服务。随着网络用户服务需求的日益复杂,网络用户的数据需要按照用户业务逻辑所要求的既定的顺序,经过特定的网络服务节点(如防火墙、负载均衡、各种第三方网络服务等),这种形式的复杂网络服务就构成了网络服务链。近年随着软件定义网络(SDN)及网络功能虚拟化(NFV)技术的快速发展,为了灵活、高效的利用网络服务资源,服务链开始以虚拟网络服务组合的方式进行调度和管理,这种方式能够提高网络服务资源的动态分配,最大化网络服务收益。
虚拟网络服务链克服了传统网络服务链与网络拓扑紧密耦合、部署复杂僵化的问题,但也对网络服务链动态变化的网络资源调度需求提出了更高的要求,以保证其所承载的网络服务能够满足网络用户不同的网络吞吐量需求。因此,准确理解虚拟网络服务链所承载的各种网络服务的动态特性,可靠的分析网络服务数据动态变化的规律,进而对虚拟网络服务链的吞吐量变化进行精准预测,成为虚拟网络服务链技术发展和落实的迫切需求,并能够为虚拟网络服务资源的动态调度提供可信的技术支撑。
发明内容
本发明需要解决的技术问题是提供一种虚拟网络服务链吞吐量预测方法,能够解决影响虚拟网络服务链吞吐量的各变量间的耦合问题,从而实现对虚拟网络服务链在下一时刻的吞吐量进行准确预测。
为解决上述技术问题,本发明所采用的技术方案是:
一种虚拟网络服务链吞吐量预测方法,包括以下步骤:
步骤1,提取虚拟网络服务链承载硬件设施的状态参数;
步骤2,对步骤1提取的状态参数进行归一化、标准化处理,进行时间序列处理得到时序序列;
步骤3,构建基于长短期记忆LSTM网络的编码器和解码器架构吞吐量预测模型,输入时序序列,实现虚拟网络服务链吞吐量预测;
步骤4,吞吐量预测模型训练;
步骤5,重复执行步骤3与步骤4的迭代更新过程,直到损失函数不再降低则吞吐量预测模型训练过程结束;
步骤6,利用训练好的吞吐量预测模型对虚拟网络服务链能够提供的吞吐量进行实时预测。
本发明技术方案的进一步改进在于:步骤1中,将承载虚拟网络服务链的各种硬件资源的与网络服务能力密切相关的状态监测数据作为系统变量,同时将网络服务吞吐量作为系统目标变量。
本发明技术方案的进一步改进在于:
步骤2中,基于虚拟网络服务链与其物理承载网络系统的映射关系,构建虚拟网络服务链承载能力与吞吐量之间的数据关联,进而构建基于编码解码器架构的吞吐量预测模型的输入数据结构。
本发明技术方案的进一步改进在于:步骤3中,所述吞吐量预测模型包括编码器和解码器;模型将一个长短期记忆LSTM网络作为编码器,完成系统监测变量编码,将输入的系统监测变量转换为包含各变量间非线性关系的特征码;然后,将编码器的特征码和虚拟网络服务链吞吐量的历史数据一同输入到由另一个独立的长短期记忆网络构成的解码器中,经过解码得到未来下一时刻的吞吐量预测值。
本发明技术方案的进一步改进在于:步骤3的具体过程如下:
3.1首先将虚拟网络服务链的系统监测变量输入到一个由具有记忆能力的动态模型长短期记忆LSTM网络构成的编码器中;输入数据经过长短期记忆LSTM网络循环单元中遗忘门、输入门和输出门的共同抉择,完成输入数据的特征提取,挖掘系统监测变量之间的非线性关系,并将输入数据转换为特征码;编码器所形成的特征码获取了输入变量的时间特性和不同变量间的非线性关系;
3.2编码完成后,得到的特征码与虚拟网络服务链的历史吞吐量数据一同输入到由另一个独立的长短期记忆LSTM网络构成的解码器中;解码器通过挖掘历史吞吐量数据与特征码之间的规律,输出未来下一时刻的吞吐量预测值。
本发明技术方案的进一步改进在于:吞吐量预测模型的初始参数至少包括权值W、偏置b和学习率。
本发明技术方案的进一步改进在于:3.1中,吞吐量预测模型中编码器长短期记忆LSTM网络的输入门、输出门、遗忘门的状态根据t-1时刻的特征ht-1以及t时刻的输入xt按下述方式进行更新:
it=σ(Wixt+Uiht-1+bi) (3)
ot=σ(Woxt+Uoht-1+bo) (4)
ft=σ(Wfxt+Utht-1+bf) (5)
然后,按下述方式更新长短期记忆LSTM单元在t时刻的候选状态:
式(7)中,⊙为哈达玛积;
经过上述状态更新过程,编码器长短期记忆LSTM网络在t时刻的输出为:
ht=ot⊙tanh(ct) (8)
因此,对于编码器的输入序列XT,由式(3)-(8)可以得到在一个完整的时间区间T,编码器长短期记忆LSTM网络的最终输出序列:
C=[h1,h2,…,hT] (9)
预测模型编码器对输入数据XT的编码过程完成,进入预测模型的解码阶段。
本发明技术方案的进一步改进在于:3.2中,在吞吐量预测模型中解码器同样由一个长短期记忆LSTM网络所构成,因此解码器的内部状态更新和运算方式与编码器基本相同;与编码器不同的是,解码器的输入由吞吐量历史数据向量YT=(Y1,…,Yt,…,YT)和编码器的输出特征序列C拼接而成,,在解码器的长短期记忆LSTM网络中,各门控单元以及单元状态的更新方式分别如下:
解码器的记忆单元更新方式为:
解码器的输出为:
式中,WY,bY为预测模型需要学习的权重参数;
本发明技术方案的进一步改进在于:步骤4中,采用监督学习的方式对步骤3中所建立的吞吐量预测模型参数进行迭代训练;根据样本标签,采用反向传播技术对预测模型的编码器和解码器中的参数进行修正,提高吞吐量预测精度。
本发明技术方案的进一步改进在于:步骤5中,采用反向传播技术对模型参数进行更新迭代;在预测模型训练过程中,根据模型预测结果和训练样本标签的均方误差,利用反向传播机制对模型参数进行更新,当误差小于设定的阈值时,预测模型训练结束。
由于采用了上述技术方案,本发明取得的技术进步是:
1、本发明考虑到虚拟网络服务链系统复杂、各变量间具有强耦合性等特点,采用基于长短期记忆网络的编码器-解码器架构建立的网络吞吐量预测模型,准确理解虚拟网络服务链所承载的各种网络服务的动态特性,可靠的分析网络服务数据动态变化的规律,进而对虚拟网络服务链的吞吐量变化进行精准预测,能够为虚拟网络服务资源的动态调度提供可信的技术支撑,更加适用于复杂网络环境下的吞吐量预测。
2、本发明能有效预测NFV网络环境中虚拟网络服务链的吞吐量,进而能够为虚拟网络服务链(物理)承载资源分配的合理决策和动态规划提供可信的依据,并为优化网络服务效率和提高网络服务吞吐量提供必要的支撑。
3、本发明通过对网络服务链吞吐量的实时预测,为灵活、高效的利用网络服务资源及为网络用户提供安全、快速、稳定并且满足特定网络吞吐量需求的网络服务提供基础。
附图说明
图1是本发明中基于长短期记忆网络的虚拟网络服务链吞吐量预测方法的系统流程图;
图2是本发明中网络功能虚拟化(NFV)环境中的虚拟网络服务链构成示意图;
图3是本发明中基于长短期记忆LSTM的虚拟网络服务吞吐量预测模型工作流程示意图。
具体实施方式
本发明是针对虚拟网络服务链吞吐量难以预测的问题而研发的一种基编码器-解码器架构的虚拟网络服务链吞吐量在线预测方法。
下面结合附图及实施例对本发明做进一步详细说明:
如图1~3所示,一种虚拟网络服务链吞吐量预测方法,基于编码器-解码器架构,首先提取与虚拟网络服务链吞吐量密切相关的网络状态信息作为输入变量数据,即承载该虚拟网络服务链的所有硬件设备的工作状态信息,然后根据获取的输入变量与输出变量间的时序关系构建时间序列输入层,对虚拟网络服务链吞吐量预测模型进行前向训练,并在训练过程中利用反向传播技术对模型中的各个权值进行微调。
具体包括以下步骤:
步骤1:如图2所示,虚拟网络服务链吞吐量预测模型采用编码器-解码器模型进行架构,编码器和解码器分别由独立的长短期记忆LSTM网络构成。假设预测模型的输入为长度为T的时间序列XT,则t=[1,2,···,T]时刻模型中编码器的输入向量则为xt。
本发明选取与虚拟网络服务链吞吐量密切相关的所有硬件承载设备的工作状态监测数据作为吞吐量预测模型的输入变量,如图1所示,假定当前虚拟网络服务链由N个物理网络服务承载节点及M条物理网络服务连接链路所组成(图1下部所示),则t时刻编码器的输入变量xt为由归一化和标准化处理后的N个物理网络服务承载节点的CPU利用率、内存利用率,和M条连接物理网络服务节点的物理链路的带宽利用率所构成的具有2N+M个有序数据的向量,即:
因此,在整个时间区间T,吞吐量预测模型的输入变量XT则为由按时间顺序排列的xt所构成的时间序列向量,表示为:
步骤2:在采用编码器-解码器架构的吞吐量预测模型中,输入时间序列xt后编码器的长短期记忆LSTM网络将可以得到与输入序列相应的t时刻的输出特征码序列ht。
首先,吞吐量预测模型中编码器长短期记忆LSTM网络的输入门、输出门、遗忘门的状态根据t-1时刻的特征ht-1以及t时刻的输入xt按下述方式进行更新:
it=σ(Wixt+Uiht-1+bi) (3)
ot=σ(Woxt+Uoht-1+bo) (4)
ft=σ(Wfxt+Utht-1+bf) (5)
然后,按下述方式更新长短期记忆LSTM单元在t时刻的候选状态:
式(7)中,⊙为哈达玛积;
经过上述状态更新过程,编码器长短期记忆LSTM网络在t时刻的输出为:
ht=ot⊙tanh(ct) (8)
因此,对于编码器的输入序列XT,由式(3)-(8)可以得到在一个完整的时间区间T,编码器长短期记忆LSTM网络的最终输出序列:
C=[h1,h2,…,hT] (9)
预测模型编码器对输入数据XT的编码过程完成,进入预测模型的解码阶段。
在吞吐量预测模型中解码器同样由一个长短期记忆LSTM网络所构成,因此解码器的内部状态更新和运算方式与编码器基本相同。与编码器不同的是,解码器的输入由吞吐量历史数据向量YT=(Y1,…,Yt,…,YT)和编码器的输出特征序列C拼接而成,如图2中解码器部分所示。在解码器的长短期记忆LSTM网络中,各门控单元以及单元状态的更新方式分别如下:
解码器的记忆单元更新方式为:
解码器的输出为:
式中,WY,bY为预测模型需要学习的权重参数。
步骤3:对吞吐量预测模型进行训练,采用反向传播技术对模型参数进行修正。在预测模型训练过程中,选择吞吐量预测模型获得的预测值与真实监测值之间的均方误差作为目标函数。
吞吐量预测模型中,编码器与解码器内部优选的均采用长短期记忆LSTM网络,因此结构相同,反向传播过程中的计算方式亦基本相同,仅输入的数据存在差异,因此,可以对编码器和解码器中长短期记忆LSTM网络的反向传播过程统一进行描述。
可得:
δct=δht⊙ot⊙(1-tanh2(ct))+δct+1⊙ft+1 (24)
式中,xt为已知的t时刻的输入向量。
根据所求得的梯度对权重W进行更新:
Wt=Wt-1-μ·ΔWt-1 (27)
式(27)中,μ为网络学习率。
至此,一次完整的长短期记忆LSTM网络参数迭代更新完成。
步骤4:重复执行步骤2与步骤3的迭代更新过程,直到损失函数不再降低,则吞吐量预测模型训练过程结束。
步骤5:利用训练好的吞吐量预测模型对虚拟网络服务链能够提供的吞吐量进行实时预测,并为虚拟网络服务计算资源和带宽资源调度策略提供所需的技术支撑。
以上所述的实例仅是对本发明的优选实施方式进行描述,并非对本发明的范围进行限定,在不脱离本发明设计精神的前提下,本领域普通技术人员对本发明的技术方案做出的各种变形和改进,均应落入本发明权利要求书所确定的保护范围之内。
Claims (5)
1.一种虚拟网络服务链吞吐量预测方法,其特征在于:包括以下步骤:
步骤1,提取虚拟网络服务链承载硬件设施的状态参数;
步骤2,对步骤1提取的状态参数进行归一化、标准化处理,进行时间序列处理得到时序序列;
步骤3,构建基于长短期记忆LSTM网络的编码器和解码器架构吞吐量预测模型,输入时序序列,实现虚拟网络服务链吞吐量预测;
所述吞吐量预测模型包括编码器和解码器;模型将一个长短期记忆LSTM网络作为编码器,完成系统监测变量编码,将输入的系统监测变量转换为包含各变量间非线性关系的特征码;然后,将编码器的特征码和虚拟网络服务链吞吐量的历史数据一同输入到由另一个独立的长短期记忆网络构成的解码器中,经过解码得到未来下一时刻的吞吐量预测值;吞吐量预测模型的初始参数至少包括权值W、偏置b和学习率;
具体过程如下:
3.1首先将虚拟网络服务链的系统监测变量输入到一个由具有记忆能力的动态模型长短期记忆LSTM网络构成的编码器中;输入数据经过长短期记忆LSTM网络循环单元中遗忘门、输入门和输出门的共同抉择,完成输入数据的特征提取,挖掘系统监测变量之间的非线性关系,并将输入数据转换为特征码;编码器所形成的特征码获取了输入变量的时间特性和不同变量间的非线性关系;
吞吐量预测模型中编码器长短期记忆LSTM网络的输入门、输出门、遗忘门的状态根据t-1时刻的特征ht-1以及t时刻的输入xt按下述方式进行更新:
it=σ(Wixt+Uiht-1+bi) (3)
ot=σ(Woxt+Uoht-1+bo) (4)
ft=σ(Wfxt+Ufht-1+bf) (5)
然后,按下述方式更新长短期记忆LSTM单元在t时刻的候选状态:
式(7)中,⊙为哈达玛积;
经过上述状态更新过程,编码器长短期记忆LSTM网络在t时刻的输出为:
ht=ot⊙tanh(ct) (8)
因此,对于编码器的输入序列XT,由式(3)-(8)可以得到在一个完整的时间区间T,编码器长短期记忆LSTM网络的最终输出序列:
C=[h1,h2,…,hT] (9)
预测模型编码器对输入数据XT的编码过程完成,进入预测模型的解码阶段;
3.2编码完成后,得到的特征码与虚拟网络服务链的历史吞吐量数据一同输入到由另一个独立的长短期记忆LSTM网络构成的解码器中;解码器通过挖掘历史吞吐量数据与特征码之间的规律,输出未来下一时刻的吞吐量预测值;
在吞吐量预测模型中解码器同样由一个长短期记忆LSTM网络所构成,因此解码器的内部状态更新和运算方式与编码器基本相同;与编码器不同的是,解码器的输入由吞吐量历史数据向量YT=(Y1,…,Yt,…,YT)和编码器的输出特征序列C拼接而成,在解码器的长短期记忆LSTM网络中,各门控单元以及单元状态的更新方式分别如下:
解码器的记忆单元更新方式为:
解码器的输出为:
式中,WY,bY为预测模型需要学习的权重参数;
步骤4,吞吐量预测模型训练;
步骤5,重复执行步骤3与步骤4的迭代更新过程,直到损失函数不再降低则吞吐量预测模型训练过程结束;
步骤6,利用训练好的吞吐量预测模型对虚拟网络服务链能够提供的吞吐量进行实时预测。
2.根据权利要求1所述的一种虚拟网络服务链吞吐量预测方法,其特征在于:步骤1中,将承载虚拟网络服务链的各种硬件资源的与网络服务能力密切相关的状态监测数据作为系统变量,同时将网络服务吞吐量作为系统目标变量。
3.根据权利要求1所述的一种虚拟网络服务链吞吐量预测方法,其特征在于:步骤2中,基于虚拟网络服务链与其物理承载网络系统的映射关系,构建虚拟网络服务链承载能力与吞吐量之间的数据关联,进而构建基于编码解码器架构的吞吐量预测模型的输入数据结构。
4.根据权利要求1所述的一种虚拟网络服务链吞吐量预测方法,其特征在于:步骤4中,采用监督学习的方式对步骤3中所建立的吞吐量预测模型参数进行迭代训练;根据样本标签,采用反向传播技术对预测模型的编码器和解码器中的参数进行修正,提高吞吐量预测精度。
5.根据权利要求1所述的一种虚拟网络服务链吞吐量预测方法,其特征在于:步骤5中,采用反向传播技术对模型参数进行更新迭代;在预测模型训练过程中,根据模型预测结果和训练样本标签的均方误差,利用反向传播机制对模型参数进行更新,当误差小于设定的阈值时,预测模型训练结束。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111435813.XA CN114124554B (zh) | 2021-11-29 | 2021-11-29 | 一种虚拟网络服务链吞吐量预测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111435813.XA CN114124554B (zh) | 2021-11-29 | 2021-11-29 | 一种虚拟网络服务链吞吐量预测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114124554A CN114124554A (zh) | 2022-03-01 |
CN114124554B true CN114124554B (zh) | 2022-08-30 |
Family
ID=80367693
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111435813.XA Active CN114124554B (zh) | 2021-11-29 | 2021-11-29 | 一种虚拟网络服务链吞吐量预测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114124554B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117494908B (zh) * | 2023-12-29 | 2024-03-22 | 宁波港信息通信有限公司 | 基于大数据的港口货物吞吐量预测方法及系统 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108427989A (zh) * | 2018-06-12 | 2018-08-21 | 中国人民解放军国防科技大学 | 一种用于雷达回波外推的深度时空预测神经网络训练方法 |
CN110210495A (zh) * | 2019-05-21 | 2019-09-06 | 浙江大学 | 基于并行LSTM自编码器动态特征提取的XGBoost软测量建模方法 |
CN110460463A (zh) * | 2019-07-24 | 2019-11-15 | 海南大学 | 基于深度神经网络的服务质量预测方法及其系统 |
CN110798365A (zh) * | 2020-01-06 | 2020-02-14 | 支付宝(杭州)信息技术有限公司 | 基于神经网络的流量预测方法及装置 |
CN111815053A (zh) * | 2020-07-09 | 2020-10-23 | 北京中超伟业信息安全技术股份有限公司 | 一种针对工业时序数据的预测方法及系统 |
CN112949902A (zh) * | 2021-01-25 | 2021-06-11 | 西北工业大学 | 一种基于lstm多状态向量序列到序列模型的径流预测方法 |
CN113112089A (zh) * | 2021-04-26 | 2021-07-13 | 燕山大学 | 水泥生料粉磨系统电耗预测方法及其预测系统 |
CN113220450A (zh) * | 2021-04-29 | 2021-08-06 | 南京邮电大学 | 面向云端多数据中心的负载预测方法、资源调度方法及装置 |
CN113362598A (zh) * | 2021-06-04 | 2021-09-07 | 重庆高速公路路网管理有限公司 | 一种高速公路服务区车流量预测方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11080587B2 (en) * | 2015-02-06 | 2021-08-03 | Deepmind Technologies Limited | Recurrent neural networks for data item generation |
US11061902B2 (en) * | 2018-10-18 | 2021-07-13 | Oracle International Corporation | Automated configuration parameter tuning for database performance |
-
2021
- 2021-11-29 CN CN202111435813.XA patent/CN114124554B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108427989A (zh) * | 2018-06-12 | 2018-08-21 | 中国人民解放军国防科技大学 | 一种用于雷达回波外推的深度时空预测神经网络训练方法 |
CN110210495A (zh) * | 2019-05-21 | 2019-09-06 | 浙江大学 | 基于并行LSTM自编码器动态特征提取的XGBoost软测量建模方法 |
CN110460463A (zh) * | 2019-07-24 | 2019-11-15 | 海南大学 | 基于深度神经网络的服务质量预测方法及其系统 |
CN110798365A (zh) * | 2020-01-06 | 2020-02-14 | 支付宝(杭州)信息技术有限公司 | 基于神经网络的流量预测方法及装置 |
CN111815053A (zh) * | 2020-07-09 | 2020-10-23 | 北京中超伟业信息安全技术股份有限公司 | 一种针对工业时序数据的预测方法及系统 |
CN112949902A (zh) * | 2021-01-25 | 2021-06-11 | 西北工业大学 | 一种基于lstm多状态向量序列到序列模型的径流预测方法 |
CN113112089A (zh) * | 2021-04-26 | 2021-07-13 | 燕山大学 | 水泥生料粉磨系统电耗预测方法及其预测系统 |
CN113220450A (zh) * | 2021-04-29 | 2021-08-06 | 南京邮电大学 | 面向云端多数据中心的负载预测方法、资源调度方法及装置 |
CN113362598A (zh) * | 2021-06-04 | 2021-09-07 | 重庆高速公路路网管理有限公司 | 一种高速公路服务区车流量预测方法 |
Non-Patent Citations (2)
Title |
---|
A novel approach to workload prediction using attention-based LSTM encoder-decoder network in cloud environment;Yonghua Zhu,Weilin Zhang,Yihai Chen,Honghao Gao;《SpringerLink》;20191217;全文 * |
基于深度学习的多变量时间序列预测算法与应用研究;万晨;《中国优秀硕士学位论文全文数据库》;20210228;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN114124554A (zh) | 2022-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2022083624A1 (zh) | 一种模型的获取方法及设备 | |
CN113361680B (zh) | 一种神经网络架构搜索方法、装置、设备及介质 | |
EP3805999A1 (en) | Resource-aware automatic machine learning system | |
CN113778648B (zh) | 分层边缘计算环境中基于深度强化学习的任务调度方法 | |
Bao et al. | Adaptive subset searching-based deep neural network method for structural reliability analysis | |
Chen et al. | Learning to solve network flow problems via neural decoding | |
CN110571792A (zh) | 一种电网调控系统运行状态的分析评估方法及系统 | |
CN113114722A (zh) | 一种基于边缘网络的虚拟网络功能迁移方法 | |
CN115686846B (zh) | 边缘计算中融合图神经网络和强化学习的容器集群在线部署方法 | |
CN114124554B (zh) | 一种虚拟网络服务链吞吐量预测方法 | |
Li et al. | Network topology optimization via deep reinforcement learning | |
CN108073442B (zh) | 基于深度模糊栈式自编码的仿真请求执行时间预测方法 | |
Zhou et al. | Deep learning-based intelligent multilevel predictive maintenance framework considering comprehensive cost | |
CN111008661B (zh) | 航空发动机备发需求量的Croston-XGBoost预测方法 | |
Ricardo et al. | Developing machine learning and deep learning models for host overload detection in cloud data center | |
Eban et al. | Learning the experts for online sequence prediction | |
CN112765894A (zh) | 一种基于k-lstm的铝电解槽状态预测方法 | |
CN110322342A (zh) | 借贷风险预测模型的构建方法、系统及借贷风险预测方法 | |
CN115238775A (zh) | 模型构建方法 | |
CN112667394B (zh) | 一种计算机资源利用率优化方法 | |
Lencione et al. | Online convex optimization of a multi-task fuzzy rule-based evolving system | |
CN115081609A (zh) | 一种智能决策中的加速方法、终端设备及存储介质 | |
CN112348275A (zh) | 一种基于在线增量学习的区域生态环境变化预测方法 | |
CN112070200A (zh) | 一种谐波群优化方法及其应用 | |
Chen et al. | Automated Machine Learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |