CN112866015B - 一种基于数据中心网络流量预测与学习的智能节能控制方法 - Google Patents
一种基于数据中心网络流量预测与学习的智能节能控制方法 Download PDFInfo
- Publication number
- CN112866015B CN112866015B CN202110018143.5A CN202110018143A CN112866015B CN 112866015 B CN112866015 B CN 112866015B CN 202110018143 A CN202110018143 A CN 202110018143A CN 112866015 B CN112866015 B CN 112866015B
- Authority
- CN
- China
- Prior art keywords
- network
- data center
- learning
- saving control
- ith
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/14—Network analysis or design
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/08—Configuration management of networks or network elements
- H04L41/0896—Bandwidth or capacity management, i.e. automatically increasing or decreasing capacities
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/14—Network analysis or design
- H04L41/147—Network analysis or design for predicting network behaviour
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
本发明公开了一种基于数据中心网络流量预测与学习的智能节能控制方法,其特点是采用混合叠加的神经网络模型预测数据中心网络中的网络流量,使用DDPG算法的深度强化学习,以优化网络中的带宽分配和路由选择,实现数据中心网络的节能控制和未来网络流量的准确预测。本发明与现有技术相比具有预测结果精确和智能节能控制,大大优化了网络中的带宽分配和路由选择,实现对未来网络流量的有效准确预测,方法简便,优化的网络结构更加节能,较好的解决了数据中心网络的多物网络流问题。
Description
技术领域
本发明涉及网络优化和流量预测技术领域,尤其是一种基于数据中心网络流量预测与学习的智能节能控制方法。
背景技术
随着云计算在搜索引擎、社交媒体、电子商务等方面的广泛应用,近年来数据中心网络(Data Center Networking,缩写为DCN)成为了一种重要的网络结构,其为大规模存储和高性能计算提供了仓库级的计算服务。云计算和数据中心网络的普遍使用,也相应地带来了能量消耗的同步增长,业界已经不能够再忽视其能量消耗问题,一些针对数据中心网络中节能的带宽分配和路由选择优化方法被相继提出。现有的带宽分配和路由选择优化方法大多为依据当前网络流情况的离线分析和优化算法,这些静态类型的方法显然具有诸多缺点。尤其是这些方法为了使得整个网络系统对将来的网络流保持较好的性能表现,导致了它们的带宽分配和路由选择结果往往是带有时间延迟的。因此为了实现对网络的无时延高效优化,需要对未来的网络流量进行准确的预测。
网络流量的预测可以被视为一个时间序列预测问题。该问题致力于分析在网络上已收集的时间序列数据,并以此来预测未来网络中的需求。在网络中使用深度神经网络进行学习和预测的动机是实现无监督训练,其可以在大量的数据中检测出隐藏的模式,这几乎不可能由人类手工制作出适合所有场景的特征。此外,许多新的研究表明,单一的模型不足以满足某些应用的需要,因此开发出一种具有不同模型优点和缺点的混合神经网络结构可以创造出一种新的高效的神经网络,从而提供更好的结果。传统方法如移动平均(MovingAverage)带有许多缺陷,适用性差。近些年来,循环神经网络(Recurrent Neural Network,缩写为RNN)被广泛应用于时间序列预测问题中并展现了其有效性。但是随着RNN中循环数目的增加,其导致的梯度消失问题(Vanishing Gradient)会造成网络参数的更新减慢。
基于对未来网络流量的预测结果,数据中心网络中的带宽分配和路由选择优化问题可以化归为多物网络流问题(Multi-Commodity Flow,缩写为MCF)。多物网络流问题是多个物品(或货物)在网络中从不同的源点流向不同的汇点的网络流问题。对于数据中心网络而言,不同的源点和目标点对可以通信不同数量的数据。如何找到一个可行的交换机和路由分配可以看作是一个具体的多物网络流问题。数据中心网络的MCF问题,可以通过添加一系列的约束:需求满足、容量约束以及流量守恒来表示为整数线性规划问题。针对该问题,已有的解决方法往往在路由选择过程中使用启发式策略尽可能地节约能量,但其效率和优化结果均不能得到有效保证。
发明内容
本发明的目的是针对现有技术的不足而设计的一种基于数据中心网络流量预测与学习的智能节能控制方法,采用混合叠加的神经网络模型预测数据中心网络中的网络流量,以及使用深度强化学习方法,优化网络中的带宽分配和路由选择,实现对未来网络流量的有效准确预测和数据中心网络的智能节能控制,方法简便,优化的网络结构更加节能,较好的解决了数据中心网络的多物网络流问题。
本发明的目的是这样实现的:一种基于数据中心网络流量预测与学习的智能节能控制方法,其特点是采用混合叠加的神经网络模型预测数据中心网络中的网络流量,使用DDPG算法的深度强化学习,以优化网络中的带宽分配和路由选择,实现数据中心网络的节能控制,所述DDPG算法的深度强化学习具体包括以下步骤:
a步骤:通过观察网络当前的拓扑结构以及流量需求得到环境的状态。
b步骤:根据当前状态和策略采取合适的动作,与环境进行交互,得到下一个状态和奖励,该动作将改变网络的拓扑和路由。
c步骤:对新的状态继续采取动作以改变环境,并根据得到的状态迁移和奖励,使用DDPG算法进行学习,以获得更多的奖励,使每一步所采取的动作不断优化。
d步骤:通过训练完成的模型对数据中心网络进行带宽分配和路由优化,以达到节能的目的。
所述混合叠加的神经网络模型基于已收集的网络信息,使用全连接层(FullConnection Layer)和长短期记忆网络(LSTM)模型混合叠加的神经网络架构,以预测未来的网络流量需求,所述长短期记忆网络(LSTM)模型的输入部分由两个叠加的LSTM层组成,模型的输出部分配置了一系列全连接层来调整模型输出的维度。LSTM模型通过在每个单元中引入单元状态和控制门来克服梯度消失问题。
所述状态为流量需求、候选路径分配、链路分配以及交换机节点状态组成的向量,记作分别表示第i条需求完成的百分比、第i条需求的规模、第i条需求是否占用第j条路径、第i条需求占用第j条路径的容量百分比、第i条链路的剩余容量和第i个交换机节点是否工作。
所述动作为选择的链路及其提供的链路容量组成的向量,记作(seli,flowi),分别表示第i条链路及第i条链路提供的链路容量的百分比。
所述奖励为执行动作后按对流量需求分为未满足需求、满足一条需求和满足所有需求。
所述下一个状态是根据动作中涉及的链路和容量进行更新。
所述DDPG算法是针对多物网络流问题设计的一套基于深度确定性策略梯度(DeepDeterministic Policy Gradient)算法,使用神经网络来模拟DDPG中的策略函数μ和价值函数Q,进行深度学习的网络训练。
本发明与现有技术相比具有数据中心网络的智能节能控制,大大优化了网络中的带宽分配和路由选择,实现对未来网络流量的有效准确预测,方法简便,优化的网络结构更加节能,较好的解决了数据中心网络的多物网络流问题。
附图说明
图1为本发明架构的系统图;
图2为深度强化学习中的状态和动作示意图;
图3为DDPG算法示意图;
图4为本发明对网络流量预测的结果对比图;
图5为本发明的网络能量消耗与传统方法的对比图。
具体实施方式
本发明提出了一种用于需求预测的混合叠加LSTM模型,模型的输入部分由两个叠加的LSTM层组成。为了匹配标签的维度,在模型的输出部分配置了一系列全连接层来调整模型输出的维度。LSTM模型通过在每个单元中引入单元状态和控制门来克服梯度消失问题。
参阅附图1,本发明针对多物网络流问题设计了一套基于深度确定性策略梯度(Deep Deterministic Policy Gradient)算法的深度强化学习方法,包括由流量预测模块(RNN)和流量交通优化模块(RL)与当前网络、网络拓扑、拓扑和路由架构的数据中心网络流量预测与学习系统,其深度强化学习和网络优化具体包括以下步骤:
a步骤:通过观察网络当前的拓扑结构以及流量需求得到环境的状态。
b步骤:根据当前状态和策略采取合适的动作,与环境进行交互,得到下一个状态和奖励,该动作将改变网络的拓扑和路由。
c步骤:对新的状态继续采取动作以改变环境,并根据得到的状态迁移和奖励,使用DDPG算法进行学习,以获得更多的奖励,使每一步所采取的动作不断优化。
d步骤:通过训练完成的模型对数据中心网络进行带宽分配和路由优化,以达到节能的目的。
所述a步骤中的状态定义为流量需求、候选路径分配、链路分配以及交换机节点状态组成的向量,记作分别表示第i条需求完成的百分比,第i条需求的规模,第i条需求是否占用第j条路径,第i条需求占用第j条路径的容量百分比,第i条链路的剩余容量,第i个交换机节点是否工作。
所述b步骤中的动作定义为选择的链路及其提供的链路容量组成的向量,记作(seli,flowi),分别表示第i条链路及第i条链路提供的链路容量的百分比。
所述b步骤中的下一个状态根据动作中涉及的链路和容量进行更新。
所述c步骤中使用神经网络来模拟DDPG中的策略函数μ和价值函数Q,然后使用深度学习方法训练以上网络。
所述a步骤的具体方法为:按照MCF的设定,网络状态应表示为环境的可观察状态。将四个主要因素编码到状态表示中,分别为流量需求、候选路径分配、链路分配以及交换机节点状态。
参阅附图2,本发明使用一个向量来表示所示的信息,每一条流量需求都包含三个要素,记作一个元组(souree,destination,scale),分别表示源点、目标点(汇点)以及发送的数据包大小。假设共有M条流量需求,对于其中的第i条流量需求来说,需要考虑它两个方面的特征,分别为已完成的百分比和总规模,记作finishedi和scalei。finishedi在[0,1]内取值,scalei表示第i条流量需求需要的带宽。
对于链路分配和交换机节点状态而言,lefti用来表示第i条链路的剩余容量,而usedj用来表示第j个交换机节点是否在网络路由中工作。lefti在[0,1]内取值,其表示链路容量剩余的百分比,而usedj是一个二进制变量。
参阅附图2,展示了动作的向量表示,DRL的智能体的动作将选择一条链路i,记作seli,其对当前选择的贡献表示为链路容量的比例,记作flowi,其与链路容量的剩余比例lefti相协调,因此对于第i条链路而言,flowi+lefti=1。
所述b步骤的具体方法为:通过向解决方案中不断添加链路及其支持集,根据反馈的结果分类定义奖励。
路径容量:路径p的容量定义为该路径中所有链路容量的最小值。Capacity(p)=mine∈pC(e),其中,C(e)是链路e的容量。
支持集:对于一条链路i,其支持集定义为它所分配到的路径,即其所在路径p上的链路的集合。同时,要求有Capacity(p)>C(i)。的支持集记作SS(i)。
所述b步骤中的奖励根据执行动作后对流量需求的满足情况分类定义:未满足需求、满足一条需求、满足所有需求。
1)未满足需求:添加一条链路及其支持集,在这种情况下,智能体将一条链路添加到解决方案中。该链路的支持集不为空,则可以将支持集添加到解决方案中。若仍然没有满足流量需求,假设at采用了第i条链路,则奖励函数由下述表1定义:
表1 奖励函数定义
其中,fresh(SS(i))是Ss(i)中lefti为100%的链路的数目。
2)有一条需求被满足:如果支持集SS(i)帮助满足了需求j,则奖励函数定义为:Reward(st,at)=scalej。
所述b步骤的具体方法为:状态转变的具体规则如下述表2所示:
表2 状态转变规则
参阅附图3,所述c步骤的具体方法为:一个DDPG架构通常由四个部分组成,它们分别是环境(Environment)、执行者(Actor)、评论者(Critic)、经验回放记忆区(ExperienceReplay Memory)。其中,执行者由在线策略网络和目标策略网络组成,评论者由在线Q网络和目标Q网络组成。在线策略网络用于拟合策略函数μ(st)。它的参数记作θμ。在训练中,通过Ornstein-Uhlenbeck过程(OU过程)给动作引入随机噪声,将动作从确定性过程转变成随机过程,然后对动作进行采样并交给环境执行。
在线Q网络用来近似价值函数Qμ(st,at),其生成动作的梯度并将它传递给在线策略网络训练。Q网络自身的参数依据随机梯度下降(Stochastic Gradient Descent,缩写为SGD)进行训练。目标策略网络和目标Q网络分别是Online Policy Network和Online QNetwork的备份,其参数按下述5式更新:
经验回放记忆区记录了环境中状态转变的数据(si,ai,ri,si+1),并为训练网络采样数据集。
所述c步骤中的DDPG算法运行如下:
①初始化在线网络的参数θQ和θμ;
②通过复制在线网络,创建目标网络;
③初始化回放记忆缓冲区;
④对每一个训练回合;
⑤初始化OU过程;
⑥初始化环境,生成新的需求;
⑦当t=1t≤T时;
⑧生成动作at=μ(st|θμ)+N
⑨对环境执行动作at,获得奖励rt,更新状态获得新状态st+1;
⑩将(si,ai,ri,si+1)存入回放记忆缓冲区;
采用移动平均、RNN和LSTM等不同方法对网络需求进行预测,其中,对比的标准为预测的均方误差(Mean Squared Error,缩写为MSE),可以看出相较于基线方法,神经网络具有更好的结果。此外,LSTM模型的性能优于RNN模型,本发明有益效果如下表3所示:
表3不同方法对网络需求预测的结果
参阅图4,LSTM模型预测值的趋势与真实值大致一致。
参阅图5,以网络的能量消耗为标准,DRL智能体的性能最高可超过启发式算法约7.8%,平均超过约4%。与Gurobi比较,Gurobi虽然能够在可接受的时间内为较小规模的问题提供更好的解决方案。然而,当网络中的节点数目超过70个时,Gurobi算法收敛所需的时间已经超出了可接受的范围,此时就能够凸显出本发明的优势。
在强化学习的每一步决策t中,智能体观察当前状态st,采取一个动作at,并收到相应的奖励rt。目标是找到一个从状态映射到动作(确定的)或从状态映射到动作的概率分布(随机的)的策略π(s),来最大化得到下述6式表示的折扣累计奖励R0::
式中:r(·)为奖励函数;at=π(st)为智能体依据策略所采取的动作;γ∈[0,1]是折扣因子。
在DDPG中,状态-动作策略会根据评论者网络返回的价值函数进行迭代修改。使用链式规则,将神经网络目标函数的参数梯度传递到执行者策略网络中。Q价值函数表示当智能体在第t步观察到状态st并采取动作时对未来折扣累计奖励的期望。奖励Rt的定义类似于R0。所述Q价值函数由下述1式表示:
Q(st,at)=E[Rt|st,at] (1);
对评论者的训练是最小化Q价值网络的损失函数由下述2式表示:
L(θQ)=E[yt-Q(st,at|θQ)] (2);
式中:θQ为DQN的权重参数;yt为目标价值,它可以通过另一个神经网络使用下述3式估算,这个神经网络即是目标网络。
yt=r(st,at)+γQ(st+1,π(st+1|θπ)|θQ) (3);
最终,在DDPG中通过对Q价值函数J使用下述4式表示的链式规则来训练执行者网络:
上述模型的输入是长度为20的随时间分布的需求数据片段,标签被设置为提前20个时间单位的值。通过这种方式,训练后的模型能够根据过去20个时间单位收集到的数据来预测接下来20个时间单位的网络需求。数据集的前70%用于训练,后30%用于测试和评估。为了便于LSTM模型的训练,输入数据采用z-score方法进行标准化。模型连续预测20个值,然后使用MSE评估其精确度。
参阅图4,LSTM模型预测值的趋势与真实值大致一致。本发明在网络流量需求预测方面,其预测结果相比传统方法移动平均(Moving Average)和循环神经网络(RNN)的预测结果更加精确。
参阅图5,以网络的能量消耗为标准,DRL智能体的性能最高可超过启发式算法约7.8%,平均超过约4%。与Gurobi比较,Gurobi虽然能够在可接受的时间内为较小规模的问题提供更好的解决方案。然而,当网络中的节点数目超过70个时,Gurobi算法收敛所需的时间已经超出了可接受的范围,此时就能够凸显出本发明的优势。本发明优化的网络结构相比传统的启发式方法(Heuristic)优化的网络结构更加节能,其实验结果可以看出网络能量消耗明显低于传统方法。本发明使用一个定制的问题生成器来生成一系列具有不同节点数目的问题,将每个问题的需求数保持在节点数的1/5左右,使用启发式算法、DRL方法以及Gurobi优化器求解了这些问题。
以上只是对本发明作进一步的说明,并非用以限制本专利,凡为本发明等效实施,均应包含于本专利的权利要求范围之内。
Claims (6)
1.一种基于数据中心网络流量预测与学习的智能节能控制方法,其特征在于采用混合叠加的神经网络模型预测数据中心网络中的网络流量,使用DDPG算法的深度强化学习,以优化网络中的带宽分配和路由选择,实现数据中心网络的节能控制,所述DDPG算法的深度强化学习具体包括以下步骤:
a步骤:通过观察网络当前的拓扑结构以及流量需求得到环境的状态;
b步骤:根据当前状态和策略采取动作与环境进行交互,改变网络的拓扑和路由,得到下一个状态和奖励;
c步骤:对新的状态继续采取动作以改变环境,并根据得到的状态迁移和奖励,使用DDPG算法进行学习,以获得更多的奖励,使每一步所采取的动作不断优化;
d步骤:通过训练完成的模型对数据中心网络进行带宽分配和路由优化,以达到节能的目的;
所述混合叠加的神经网络模型基于已收集的网络信息,使用全连接层(FullConnection Layer)和长短期记忆网络(LSTM)模型混合叠加的神经网络架构,以预测未来的网络流量需求,所述长短期记忆网络(LSTM)模型的输入部分由两个叠加的LSTM层组成,模型的输出部分配置了一系列全连接层来调整模型输出的维度。
3.根据权利要求1所述基于数据中心网络流量预测与学习的智能节能控制方法,其特征在于所述动作为选择的链路及其提供的链路容量组成的向量,记作(seli,flowi),分别表示第i条链路及第i条链路提供的链路容量的百分比。
4.根据权利要求1所述基于数据中心网络流量预测与学习的智能节能控制方法,其特征在于所述奖励为执行动作后按对流量需求分为未满足需求、满足一条需求和满足所有需求。
5.根据权利要求1所述基于数据中心网络流量预测与学习的智能节能控制方法,其特征在于所述下一个状态是根据动作中涉及的链路和容量进行更新。
6.根据权利要求1所述基于数据中心网络流量预测与学习的智能节能控制方法,其特征在于所述DDPG算法是针对多物网络流问题设计的一套基于深度确定性策略梯度算法,使用神经网络来模拟DDPG中的策略函数μ和价值函数Q,进行深度学习的网络训练。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110018143.5A CN112866015B (zh) | 2021-01-07 | 2021-01-07 | 一种基于数据中心网络流量预测与学习的智能节能控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110018143.5A CN112866015B (zh) | 2021-01-07 | 2021-01-07 | 一种基于数据中心网络流量预测与学习的智能节能控制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112866015A CN112866015A (zh) | 2021-05-28 |
CN112866015B true CN112866015B (zh) | 2021-10-12 |
Family
ID=76004778
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110018143.5A Active CN112866015B (zh) | 2021-01-07 | 2021-01-07 | 一种基于数据中心网络流量预测与学习的智能节能控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112866015B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113489654B (zh) * | 2021-07-06 | 2024-01-05 | 国网信息通信产业集团有限公司 | 一种路由选择方法、装置、电子设备及存储介质 |
CN113783720B (zh) * | 2021-08-20 | 2023-06-27 | 华东师范大学 | 一种基于参数化动作空间的网络能耗两级控制方法 |
CN114697225B (zh) * | 2021-11-26 | 2023-06-06 | 南开大学 | 一种保证传输截止期限和Rabin公平性的软件定义广域网带宽分配方法 |
CN115333961B (zh) * | 2022-06-30 | 2023-10-13 | 北京邮电大学 | 基于深度强化学习的无线通信网络管控方法及相关设备 |
CN115190049B (zh) * | 2022-07-07 | 2023-04-25 | 郑州轻工业大学 | 一种基于ddpg神经网络的网络流量预测方法 |
CN115632978B (zh) * | 2022-09-05 | 2024-05-14 | 鹏城实验室 | 一种多模态网络节点控制方法、装置、设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109670572A (zh) * | 2017-10-16 | 2019-04-23 | 优酷网络技术(北京)有限公司 | 神经网络预测方法及装置 |
CN110611619A (zh) * | 2019-09-12 | 2019-12-24 | 西安电子科技大学 | 一种基于ddpg强化学习算法的智能化路由决策方法 |
CN111277434A (zh) * | 2020-01-16 | 2020-06-12 | 北京工业大学 | 一种基于vmd和lstm的网络流量多步预测方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11108678B2 (en) * | 2017-12-18 | 2021-08-31 | Cisco Technology, Inc. | Inspired path computation in a network |
CN111988225B (zh) * | 2020-08-19 | 2022-03-04 | 西安电子科技大学 | 基于强化学习和迁移学习的多路径路由方法 |
-
2021
- 2021-01-07 CN CN202110018143.5A patent/CN112866015B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109670572A (zh) * | 2017-10-16 | 2019-04-23 | 优酷网络技术(北京)有限公司 | 神经网络预测方法及装置 |
CN110611619A (zh) * | 2019-09-12 | 2019-12-24 | 西安电子科技大学 | 一种基于ddpg强化学习算法的智能化路由决策方法 |
CN111277434A (zh) * | 2020-01-16 | 2020-06-12 | 北京工业大学 | 一种基于vmd和lstm的网络流量多步预测方法 |
Non-Patent Citations (2)
Title |
---|
"一种基于深度强化学习的动态路由算法";肖扬;《信息通信技术与政策》;20201104;全文 * |
"基于深度强化学习的数据中心网络流量优化技术研究";张学帅;《中国优秀硕士学位论文全文数据库信息科技辑》;20201015;第2.2-2.3节 * |
Also Published As
Publication number | Publication date |
---|---|
CN112866015A (zh) | 2021-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112866015B (zh) | 一种基于数据中心网络流量预测与学习的智能节能控制方法 | |
Gazori et al. | Saving time and cost on the scheduling of fog-based IoT applications using deep reinforcement learning approach | |
CN109818786B (zh) | 一种云数据中心应用可感知的分布式多资源组合路径最优选取方法 | |
CN112100392B (zh) | 一种基于强化学习和知识图谱的设备故障溯因方法 | |
Wang et al. | A hyperheuristic approach for location‐routing problem of cold chain logistics considering fuel consumption | |
Qu et al. | A hybrid MCDM method for route selection of multimodal transportation network | |
Jamil et al. | Adaptive traffic signal control system using composite reward architecture based deep reinforcement learning | |
CN114697229A (zh) | 一种分布式路由规划模型的构建方法及应用 | |
CN112990485A (zh) | 基于强化学习的知识策略选择方法与装置 | |
Xu et al. | Intelligent task allocation for mobile crowdsensing with graph attention network and deep reinforcement learning | |
Guo et al. | Traffic engineering in hybrid software defined network via reinforcement learning | |
CN116402002A (zh) | 一种用于芯片布局问题的多目标分层强化学习方法 | |
CN114710439A (zh) | 基于深度强化学习的网络能耗与吞吐量联合优化路由方法 | |
Dong et al. | A hybrid algorithm for workflow scheduling in cloud environment | |
Deng et al. | Solving the Food-Energy-Water Nexus Problem via Intelligent Optimization Algorithms | |
Mukhtar et al. | CCGN: Centralized collaborative graphical transformer multi-agent reinforcement learning for multi-intersection signal free-corridor | |
Hu et al. | A review of research on reinforcement learning algorithms for multi-agents | |
Gao et al. | Novel strategies based on a gradient boosting regression tree predictor for dynamic multi-objective optimization | |
Rao et al. | An intelligent routing method based on network partition | |
Dong et al. | An energy-saving path planning method using adaptive ant colony system for marine surface vehicles | |
Mao et al. | Online sequential classification of imbalanced data by combining extreme learning machine and improved SMOTE algorithm | |
Mughal et al. | An intelligent Hybrid‐Q Learning clustering approach and resource management within heterogeneous cluster networks based on reinforcement learning | |
Wei et al. | Modeling multilevel supplier selection problem based on weighted‐directed network and its solution | |
Heinen et al. | Dealing with continuous-state reinforcement learning for intelligent control of traffic signals | |
Peng et al. | Joint Optimization of Traffic Signal Control and Vehicle Routing in Signalized Road Networks using Multi-Agent Deep Reinforcement Learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |