CN113992520B - 一种虚拟网络资源的部署方法和系统 - Google Patents
一种虚拟网络资源的部署方法和系统 Download PDFInfo
- Publication number
- CN113992520B CN113992520B CN202111249185.6A CN202111249185A CN113992520B CN 113992520 B CN113992520 B CN 113992520B CN 202111249185 A CN202111249185 A CN 202111249185A CN 113992520 B CN113992520 B CN 113992520B
- Authority
- CN
- China
- Prior art keywords
- virtual network
- network resources
- action
- deployment
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 24
- 230000002787 reinforcement Effects 0.000 claims abstract description 23
- 238000004891 communication Methods 0.000 claims abstract description 16
- 238000005457 optimization Methods 0.000 claims abstract description 16
- 230000003044 adaptive effect Effects 0.000 claims abstract description 7
- 230000006870 function Effects 0.000 claims description 38
- 230000009471 action Effects 0.000 claims description 33
- 238000004590 computer program Methods 0.000 claims description 7
- 230000003993 interaction Effects 0.000 claims description 4
- 238000012549 training Methods 0.000 claims description 4
- 238000004422 calculation algorithm Methods 0.000 claims description 3
- 238000013135 deep learning Methods 0.000 claims description 3
- 238000012546 transfer Methods 0.000 claims description 3
- 230000008447 perception Effects 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 claims 1
- 239000003795 chemical substances by application Substances 0.000 description 14
- 238000011161 development Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000013468 resource allocation Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/08—Configuration management of networks or network elements
- H04L41/0803—Configuration setting
- H04L41/0823—Configuration setting characterised by the purposes of a change of settings, e.g. optimising configuration for enhancing reliability
- H04L41/0826—Configuration setting characterised by the purposes of a change of settings, e.g. optimising configuration for enhancing reliability for reduction of network costs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/08—Configuration management of networks or network elements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/08—Configuration management of networks or network elements
- H04L41/0893—Assignment of logical groups to network elements
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
本公开提供了一种虚拟网络资源的部署方法及系统,包括:获取虚拟网络资源相关数据;依据获取的虚拟网络资源相关数据和预设的虚拟网络资源部署模型,得到虚拟网络资源的部署方案;其中,所述虚拟网络资源部署模型在弹性通信网络中,以最小化部署成本和最小化信息年龄为优化目标,采用自适应的深度强化学习模型得到帕累托最优解,进行虚拟网络资源的部署;本公开利用多目标优化,能够得到部署成本和信息年龄同时较优的方案;利用自适应的深度强化学习模型,从而能够处理大量的数据,并且能够应对网络以及用户需求的动态变化。
Description
技术领域
本公开属于虚拟网络技术领域,尤其涉及一种虚拟网络资源的部署方法和系统。
背景技术
伴随着网络普及到人们生活的方方面面,网络的规模也呈现成指数增长的趋势,而各地的用户需求形形色色,网络的状态也是呈现动态变化的,因而不确定性和多变性可能会成为当下的通信网络所面临的最大的困难。在这样的时代背景下,弹性通信网络应运而生。
针对于当下一些轻型的新兴运营商给很多核心电信业务带来了巨大的冲击的情况,以及传统意义上的通信产业中坚持的“高成本、高性能、高可靠”的“三高”发展理念已经不适应当下时代的发展需求。传统的基础网络通信总是采用一种软硬件垂直一体化架构,所以尽管它给网络更好的可靠性和刚性,但也带来了网络的高复杂性、高成本性以及低创新性。最严重的一点是,这种传统的基础网络架构限制了云计算在灵活动态利用以及分配资源时的发展,这也使得基础网络通信成本大大增加。因而,急需一种“去电信化”的网络变革的出现。在此背景下,网络功能虚拟化(Network Functions Virtualization,NFV)应运而生。
因此,部署NFV中的虚拟网络功能模块(VNF)就成了需要解决的问题,而其中的主要挑战是在NFV基础设施中所需网络服务的最佳资源配置。虚拟网络的功能配置和路由可以表述为一个数学优化问题,它涉及一组表示网络基础设施和服务契约约束的可行性约束。该问题已被报道为一个NP_Hard的问题,因此该领域的大部分优化工作都集中在设计启发式算法和元启发式算法上。
本公开发明人发现,对上述问题大部分研究都使用监督学习模型进行资源分配,这导致了许多模型无法在没有显著性能下降的情况下进行推广,也无法跟上网络的动态变化。
发明内容
本公开为了解决上述问题,提出了一种虚拟网络资源的部署方法和系统,本公开利用多目标优化,能够得到部署成本和信息年龄(age of information)同时较优的方案;利用自适应的深度强化学习模型,从而能够处理大量的数据,并且能够应对网络以及用户需求的动态变化。
为了实现上述目的,本发明是通过如下的技术方案来实现:
第一方面,本公开提供了一种虚拟网络资源的部署方法,包括:
获取虚拟网络资源相关数据;
依据获取的虚拟网络资源相关数据和预设的虚拟网络资源部署模型,得到虚拟网络资源的部署方案;
其中,所述虚拟网络资源部署模型在弹性通信网络中,以最小化部署成本和最小化信息年龄为优化目标,采用自适应的深度强化学习模型得到帕累托最优解,进行虚拟网络资源的部署。
进一步的,所述的弹性通信网络包括环境可感知、万物可互联、能力可调整、属性可变化和容量可伸缩特征。
进一步的,所述信息年龄,指描述信息的新鲜度,是捕获状态更新随机性的指标。
进一步的,所述自适应的深度强化学习模型,将深度学习与强化学习结合,实现从感知到动作的端到端的算法。
进一步的,所述帕累托最优解,是指在最小化部署成本和最小化信息年龄多目标背景下,在变量空间中不存在其他解优于拍累托最优解。
进一步的,进行虚拟网络资源的部署包括:
获取网络拓扑图,确定虚拟网络节点和虚拟链路的数量;
初始化帕累托近似解为空集,初始化智能体的状态,根据虚拟网络节点上的部署成本、到达每个虚拟网络节点的信息年龄和定义的两个常量,确定优化目标函数;
采用自适应的深度强化学习模型得到帕累托最优解,进行虚拟网络资源的部署。
进一步的,采用自适应的深度强化学习模型得到帕累托最优解包括:
通过更新参数u来使Q函数逼近最优Q值,Q-Learning的更新公式如下:
Q*(s,a)=Q(s,a)+α(r+γmaxa′Q(s′,a′)-Q(s,a))
其中,u为网络参数;s为智能体的状态;a为智能体下一步所采取的动作,α为一个范围在(0,1)之间的常量,表示发生的概率;r为在s状态下采取a动作所带来的回报;γ为折扣因子;a′为智能体在s状态后的下一步的动作;s′为选择下一步动作a′得到新的一个状态;maxa′Q为采取动作a′后所能得到的最大动作价值;
损失函数如下:
L(u)=E[(TargetQ-Q(s,a;u))2]
目标为:
TargetQ=r+γmaxa′Q(s′,a′;u)
求L(u)关于u的梯度,更新网络参数u;把每个时间步智能体与环境交互得到的转移样本储存到回放记忆单元,用于训练;用Q(s,a;ui)表示当前网络MainNet的输出,用来评估当前状态动作对的值函数,ui为损失函数L(u)的自变量,是MainNet的网络参数,也是Q(s,a;u)函数中的自变量;Q(s,a;u- i)表示TargetNet的输出,代入求TargetQ值的公式中得到目标Q值,u- i为损失函数L(u)的自变量,是TargetNet的网络参数,也是Q(s,a;u)函数中的自变量;根据损失函数更新MainNet的参数,每经过k轮迭代,将MainNet的参数复制给TargetNet,最后再将结果给帕累托近似解NR,得到所需部署虚拟节点解集。
第二方面,本公开还提供了一种虚拟网络资源的部署系统,包括数据采集模块和方案生成模块;
所述数据采集模块,被配置为:获取虚拟网络资源相关数据;
所述方案生成模块,被配置为:依据获取的虚拟网络资源相关数据和预设的虚拟网络资源部署模型,得到虚拟网络资源的部署方案;
其中,所述虚拟网络资源部署模型在弹性通信网络中,以最小化部署成本和最小化信息年龄为优化目标,采用自适应的深度强化学习模型得到帕累托最优解,进行虚拟网络资源的部署。
第三方面,本公开还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现了第一方面所述的虚拟网络资源的部署方法的步骤。
第四方面,本公开还提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现了第一方面所述的虚拟网络资源的部署方法的步骤。
与现有技术相比,本公开的有益效果为:
本公开利用多目标优化,从而能够得到部署成本和信息年龄同时较优的方案;利用自适应的深度强化学习模型,从而能够处理大量的数据,并且能够应对网络以及用户需求的动态变化。
附图说明
构成本实施例的一部分的说明书附图用来提供对本实施例的进一步理解,本实施例的示意性实施例及其说明用于解释本实施例,并不构成对本实施例的不当限定。
图1为本公开实施例1的网络虚拟化的网络结构图;
图2为本公开实施例1的随机生成的网络拓扑图;
图3为本公开实施例1的深度强化学习模型。
具体实施方式:
下面结合附图与实施例对本公开作进一步说明。
应该指出,以下详细说明都是例示性的,旨在对本申请提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本申请所属技术领域的普通技术人员通常理解的相同含义。
实施例1:
提供了一种虚拟网络资源的部署方法,包括:
获取虚拟网络资源相关数据;
依据获取的虚拟网络资源相关数据和预设的虚拟网络资源部署模型,得到虚拟网络资源的部署方案;
其中,所述虚拟网络资源部署模型在弹性通信网络中,以最小化部署成本和最小化信息年龄为优化目标,采用自适应的深度强化学习模型得到帕累托最优解,进行虚拟网络资源的部署。
在本实施例中,所述的弹性通信网络包括环境可感知、万物可互联、能力可调整、属性可变化和容量可伸缩特征。
在本实施例中,所述信息年龄,指描述信息的新鲜度,是捕获状态更新随机性的指标。
在本实施例中,所述自适应的深度强化学习模型,将深度学习与强化学习结合,实现从感知到动作的端到端的算法。
在本实施例中,所述帕累托最优解,是指在最小化网络时延和最小化信息年龄多目标背景下,在变量空间中不存在其他解优于拍累托最优解。
在本实施例中,进行虚拟网络资源的部署包括:
获取网络拓扑图,确定虚拟网络节点和虚拟链路的数量;
初始化帕累托近似解为空集,初始化智能体的状态,根据虚拟网络节点上的部署成本、到达每个虚拟网络节点的信息年龄和定义的两个常量,确定优化目标函数;
采用自适应的深度强化学习模型得到帕累托最优解,进行虚拟网络资源的部署。
本实施例中,虚拟网络资源的部署方法的具体步骤如下:如图2所示,根据Waxman-Salama模型,确定生成的虚拟网络节点的数量为N,虚拟链路的数量为L,得到网络拓扑图,再用相邻矩阵或者链表等数据结构来存储图。
初始化帕累托近似解NR为空集,初始化智能体的状态,设定虚拟节点上Ni的部署成本为Ci,到达每个虚拟节点Ni的信息年龄为Ai,定义两个常量u1、u2,而用yi表示结果集是否选择虚拟节点Ni,则优化目标可以表示为:
本实施例中,输入数据为复杂的网络数据,深度神经网络自动提取复杂特征,设定s为智能体的状态,a为智能体下一步所采取的动作,r表示在s状态下采取a动作所带来的回报,γ表示折扣因子,通过更新参数u来使Q函数逼近最优Q值,Q-Learning的更新公式如下:
Q*(s,a)=Q(s,a)+α(r+γmaxa′Q(s′,a′)-Q(s,a))
其中,u为网络参数;s为智能体的状态;a为智能体下一步所采取的动作,α为一个范围在(0,1)之间的常量,表示发生的概率;r为在s状态下采取a动作所带来的回报;γ为折扣因子;a′为智能体在s状态后的下一步的动作;s′为选择下一步动作a′得到新的一个状态;maxa′Q为采取动作a′后所能得到的最大动作价值;
而损失函数如下:
L(u)=E[(TargetQ-Q(s,a;u))2]
其中u是网络参数,目标为:
TargetQ=r+γmaxa′Q(s′,a′;u)
显然损失函数是基于Q-Learning更新公式的第二项确定的,使当前的Q值逼近Target Q值。接下来,求L(u)关于u的梯度,使用SGD等方法更新网络参数u。即把每个时间步智能体与环境交互得到的转移样本(st,at,rt,st+1)储存到回放记忆单元,要训练时就随机拿出一些来训练。用Q(s,a;ui)表示当前网络MainNet的输出,用来评估当前状态动作对的值函数,ui为损失函数L(u)的自变量,是MainNet的网络参数,也是Q(s,a;u)函数中的自变量;Q(s,a;u- i)表示TargetNet的输出,代入上面求TargetQ值的公式中得到目标Q值,u- i为损失函数L(u)的自变量,是TargetNet的网络参数,也是Q(s,a;u)函数中的自变量。根据上面的损失函数更新MainNet的参数,每经过k轮迭代,将MainNet的参数复制给TargetNet,最后再将结果给帕累托近似解NR,得到所需部署虚拟节点解集。
实施例2:
本实施例提供了一种虚拟网络资源的部署系统,包括数据采集模块和方案生成模块;
所述数据采集模块,被配置为:获取虚拟网络资源相关数据;
所述方案生成模块,被配置为:依据获取的虚拟网络资源相关数据和预设的虚拟网络资源部署模型,得到虚拟网络资源的部署方案;
其中,所述虚拟网络资源部署模型在弹性通信网络中,以最小化部署成本和最小化信息年龄为优化目标,采用自适应的深度强化学习模型得到帕累托最优解,进行虚拟网络资源的部署。
实施例3:
本实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现了实施例1所述的虚拟网络资源的部署方法的步骤。
实施例4:
本实施例提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现了实施例1所述的虚拟网络资源的部署方法的步骤。
以上所述仅为本实施例的优选实施例而已,并不用于限制本实施例,对于本领域的技术人员来说,本实施例可以有各种更改和变化。凡在本实施例的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本实施例的保护范围之内。
Claims (8)
1.一种虚拟网络资源的部署方法,其特征在于,包括:
获取虚拟网络资源相关数据;
依据获取的虚拟网络资源相关数据和预设的虚拟网络资源部署模型,得到虚拟网络资源的部署方案;
其中,所述虚拟网络资源部署模型在弹性通信网络中,以最小化部署成本和最小化信息年龄为优化目标,采用自适应的深度强化学习模型得到帕累托最优解,进行虚拟网络资源的部署;
所述信息年龄,指描述信息的新鲜度,是捕获状态更新随机性的指标;
采用自适应的深度强化学习模型得到帕累托最优解包括:
通过更新参数u来使Q函数逼近最优Q值,Q-Learning的更新公式如下:
Q*(s,a)=Q(s,a)+α(r+γmaxa′Q(s′,a′)-Q(s,a))
其中,u为网络参数;s为智能体的状态;a为智能体下一步所采取的动作,α为一个范围在(0,1)之间的常量,表示发生的概率;r为在s状态下采取a动作所带来的回报;γ为折扣因子;a′为智能体在s状态后的下一步的动作;s′为选择下一步动作a′得到新的一个状态;maxa′Q为采取动作a′后所能得到的最大动作价值;
损失函数如下:
L(u)=E[(TargetQ-Q(s,a;u))2]
目标为:
TargetQ=r+γmaxa′Q(s′,a′;u)
求L(u)关于u的梯度,更新网络参数u;把每个时间步智能体与环境交互得到的转移样本储存到回放记忆单元,用于训练;用Q(s,a;ui)表示当前网络MainNet的输出,用来评估当前状态动作对的值函数,ui为损失函数L(u)的自变量,是MainNet的网络参数,也是Q(s,a;u)函数中的自变量;Q(s,a;u- i)表示TargetNet的输出,代入求TargetQ值的公式中得到目标Q值,u- i为损失函数L(u)的自变量,是TargetNet的网络参数,也是Q(s,a;u)函数中的自变量;根据损失函数更新MainNet的参数,每经过k轮迭代,将MainNet的参数复制给TargetNet,最后再将结果给帕累托近似解NR,得到所需部署虚拟节点解集。
2.如权利要求1所述的一种虚拟网络资源的部署方法,其特征在于,所述的弹性通信网络包括环境可感知、万物可互联、能力可调整、属性可变化和容量可伸缩特征。
3.如权利要求1所述的一种虚拟网络资源的部署方法,其特征在于,所述自适应的深度强化学习模型,将深度学习与强化学习结合,实现从感知到动作的端到端的算法。
4.如权利要求1所述的一种虚拟网络资源的部署方法,其特征在于,所述帕累托最优解,是指在最小化部署成本和最小化信息年龄多目标背景下,在变量空间中不存在其他解优于帕累托最优解。
5.如权利要求1所述的一种虚拟网络资源的部署方法,其特征在于,进行虚拟网络资源的部署包括:
获取网络拓扑图,确定虚拟网络节点和虚拟链路的数量;
初始化帕累托近似解为空集,初始化智能体的状态,根据虚拟网络节点上的部署成本、到达每个虚拟网络节点的信息年龄和定义的两个常量,确定优化目标函数;
采用自适应的深度强化学习模型得到帕累托最优解,进行虚拟网络资源的部署。
6.一种虚拟网络资源的部署系统,其特征在于,包括数据采集模块和方案生成模块;
所述数据采集模块,被配置为:获取虚拟网络资源相关数据;
所述方案生成模块,被配置为:依据获取的虚拟网络资源相关数据和预设的虚拟网络资源部署模型,得到虚拟网络资源的部署方案;
其中,所述虚拟网络资源部署模型在弹性通信网络中,以最小化部署成本和最小化信息年龄为优化目标,采用自适应的深度强化学习模型得到帕累托最优解,进行虚拟网络资源的部署;
所述信息年龄,指描述信息的新鲜度,是捕获状态更新随机性的指标;
采用自适应的深度强化学习模型得到帕累托最优解包括:
通过更新参数u来使Q函数逼近最优Q值,Q-Learning的更新公式如下:
Q*(s,a)=Q(s,a)+α(r+γmaxa′Q(s′,a′)-Q(s,a))
其中,u为网络参数;s为智能体的状态;a为智能体下一步所采取的动作,α为一个范围在(0,1)之间的常量,表示发生的概率;r为在s状态下采取a动作所带来的回报;γ为折扣因子;a′为智能体在s状态后的下一步的动作;s′为选择下一步动作a′得到新的一个状态;maxa′Q为采取动作a′后所能得到的最大动作价值;
损失函数如下:
L(u)=E[(TargetQ-Q(s,a;u))2]
目标为:
TargetQ=r+γmaxa′Q(s′,a′;u)
求L(u)关于u的梯度,更新网络参数u;把每个时间步智能体与环境交互得到的转移样本储存到回放记忆单元,用于训练;用Q(s,a;ui)表示当前网络MainNet的输出,用来评估当前状态动作对的值函数,ui为损失函数L(u)的自变量,是MainNet的网络参数,也是Q(s,a;u)函数中的自变量;Q(s,a;u- i)表示TargetNet的输出,代入求TargetQ值的公式中得到目标Q值,u- i为损失函数L(u)的自变量,是TargetNet的网络参数,也是Q(s,a;u)函数中的自变量;根据损失函数更新MainNet的参数,每经过k轮迭代,将MainNet的参数复制给TargetNet,最后再将结果给帕累托近似解NR,得到所需部署虚拟节点解集。
7.一种计算机可读存储介质,其上存储有计算机程序,用于指纹图谱相似度计算,其特征在于,该程序被处理器执行时实现了如权利要求1-5任一项所述的虚拟网络资源的部署方法的步骤。
8.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现了如权利要求1-5任一项所述的虚拟网络资源的部署方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111249185.6A CN113992520B (zh) | 2021-10-26 | 2021-10-26 | 一种虚拟网络资源的部署方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111249185.6A CN113992520B (zh) | 2021-10-26 | 2021-10-26 | 一种虚拟网络资源的部署方法和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113992520A CN113992520A (zh) | 2022-01-28 |
CN113992520B true CN113992520B (zh) | 2023-03-14 |
Family
ID=79741808
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111249185.6A Expired - Fee Related CN113992520B (zh) | 2021-10-26 | 2021-10-26 | 一种虚拟网络资源的部署方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113992520B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116614830B (zh) * | 2023-07-18 | 2023-10-31 | 中国电信股份有限公司 | 网元优化方法、装置、计算机设备、存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106130931A (zh) * | 2016-06-13 | 2016-11-16 | 西安电子科技大学 | 弹性光网络中基于进化多目标的路由频隙分配方法 |
CN109600251A (zh) * | 2018-11-13 | 2019-04-09 | 中国联合网络通信集团有限公司 | 一种虚拟网络部署方法、系统及装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6881586B2 (ja) * | 2017-01-18 | 2021-06-02 | 日本電気株式会社 | リソース割り当てシステム、方法、およびプログラム |
US11537386B2 (en) * | 2020-04-06 | 2022-12-27 | Johnson Controls Tyco IP Holdings LLP | Building system with dynamic configuration of network resources for 5G networks |
-
2021
- 2021-10-26 CN CN202111249185.6A patent/CN113992520B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106130931A (zh) * | 2016-06-13 | 2016-11-16 | 西安电子科技大学 | 弹性光网络中基于进化多目标的路由频隙分配方法 |
CN109600251A (zh) * | 2018-11-13 | 2019-04-09 | 中国联合网络通信集团有限公司 | 一种虚拟网络部署方法、系统及装置 |
Non-Patent Citations (1)
Title |
---|
《云计算下针对大数据的大规模任务处理关键问题研究》;吴春毅;《中国博士学位论文全文数据库 (信息科技辑)》;20191115;正文第3章至第4章 * |
Also Published As
Publication number | Publication date |
---|---|
CN113992520A (zh) | 2022-01-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Yao et al. | A novel reinforcement learning algorithm for virtual network embedding | |
CN114116198A (zh) | 一种移动车辆的异步联邦学习方法、系统、设备及终端 | |
CN108021451B (zh) | 一种雾计算环境下的自适应容器迁移方法 | |
JP2023510566A (ja) | ニューラル・ネットワークのための適応的探索方法および装置 | |
CN113794748B (zh) | 一种性能感知的服务功能链智能部署方法及装置 | |
CN113098714A (zh) | 一种基于深度强化学习的低时延网络切片的方法 | |
CN110428046A (zh) | 神经网络结构的获取方法及装置、存储介质 | |
CN111176820A (zh) | 一种基于深度神经网络的边缘计算任务的分配方法及装置 | |
CN113485826B (zh) | 一种边缘服务器负载均衡方法、系统 | |
CN115066694A (zh) | 计算图优化 | |
Rkhami et al. | Learn to improve: A novel deep reinforcement learning approach for beyond 5G network slicing | |
CN111385142B (zh) | 基于Kubernetes的自适应伸缩web容器的方法 | |
Rkhami et al. | On the use of graph neural networks for virtual network embedding | |
CN112436992B (zh) | 基于图卷积网络的虚拟网络映射方法及装置 | |
CN116962438B (zh) | 一种梯度数据同步方法、系统、电子设备及可读存储介质 | |
CN113992520B (zh) | 一种虚拟网络资源的部署方法和系统 | |
JP2023531538A (ja) | ニューラルネットワークの生成方法、機器及びコンピュータ可読記憶媒体 | |
CN114548416A (zh) | 数据模型训练方法及装置 | |
CN117061365B (zh) | 一种节点选择方法、装置、设备及可读存储介质 | |
CN118259923A (zh) | 微服务自适应部署方法、装置、计算机设备及存储介质 | |
CN114629767A (zh) | 电力调度网络仿真方法、装置、计算机设备和存储介质 | |
CN117436627A (zh) | 任务分配方法、装置、终端设备及介质 | |
CN115001978B (zh) | 一种基于强化学习模型的云租户虚拟网络智能映射方法 | |
CN104022937B (zh) | 一种基于细胞型p系统的虚拟网络映射方法 | |
CN111190711A (zh) | Bdd结合启发式a*搜索的多机器人任务分配方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20230314 |