CN113692021A - 一种基于亲密度的5g网络切片智能资源分配方法 - Google Patents
一种基于亲密度的5g网络切片智能资源分配方法 Download PDFInfo
- Publication number
- CN113692021A CN113692021A CN202110936885.6A CN202110936885A CN113692021A CN 113692021 A CN113692021 A CN 113692021A CN 202110936885 A CN202110936885 A CN 202110936885A CN 113692021 A CN113692021 A CN 113692021A
- Authority
- CN
- China
- Prior art keywords
- network
- reward
- slice
- action
- resources
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 62
- 238000013468 resource allocation Methods 0.000 title claims abstract description 24
- 230000002787 reinforcement Effects 0.000 claims abstract description 24
- 239000000872 buffer Substances 0.000 claims abstract description 10
- 230000009471 action Effects 0.000 claims description 44
- 230000008569 process Effects 0.000 claims description 28
- 239000003795 chemical substances by application Substances 0.000 claims description 25
- 238000012549 training Methods 0.000 claims description 21
- 230000006870 function Effects 0.000 claims description 18
- 230000007613 environmental effect Effects 0.000 claims description 5
- 238000011156 evaluation Methods 0.000 claims description 4
- 238000004088 simulation Methods 0.000 claims description 4
- 238000013528 artificial neural network Methods 0.000 claims description 2
- 230000006399 behavior Effects 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 claims description 2
- 230000008859 change Effects 0.000 claims description 2
- 230000003993 interaction Effects 0.000 claims description 2
- 230000007774 longterm Effects 0.000 claims description 2
- 230000007246 mechanism Effects 0.000 claims description 2
- 230000003247 decreasing effect Effects 0.000 claims 1
- 238000005516 engineering process Methods 0.000 abstract description 8
- 238000013135 deep learning Methods 0.000 abstract description 4
- 238000004422 calculation algorithm Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000004880 explosion Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W28/00—Network traffic management; Network resource management
- H04W28/16—Central resource management; Negotiation of resources or communication parameters, e.g. negotiating bandwidth or QoS [Quality of Service]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5061—Partitioning or combining of resources
- G06F9/5072—Grid computing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/08—Configuration management of networks or network elements
- H04L41/0893—Assignment of logical groups to network elements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W28/00—Network traffic management; Network resource management
- H04W28/16—Central resource management; Negotiation of resources or communication parameters, e.g. negotiating bandwidth or QoS [Quality of Service]
- H04W28/24—Negotiating SLA [Service Level Agreement]; Negotiating QoS [Quality of Service]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2209/00—Indexing scheme relating to G06F9/00
- G06F2209/50—Indexing scheme relating to G06F9/50
- G06F2209/508—Monitor
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Artificial Intelligence (AREA)
- Quality & Reliability (AREA)
- Signal Processing (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- Algebra (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
本发明涉及一种基于亲密度的5G网络切片智能资源分配方法,属于5G网络切片技术领域,旨在尽可能提高5G雾无线接入网络切片的资源利用率并减低延迟。本方法引入节点亲密度,并应用深度强化学习技术来优化5G网络中的切片资源分配,在保证服务质量的同时最大限度地提高资源利用率。首先应用深度学习技术来表示复杂的高维网络状态空间,并使用重放缓冲区来利用采样经验信息的相关性。然后,将获得的信息作为提出的智能决策模块的输入,以自适应地做出5G网络切片决策。本发明尤其适用于应用在动态复杂的、对切片的资源利用率和延迟都要求较高的场景。
Description
技术领域
本发明涉及一种深度强化学习和网络切片技术,具体涉及一种基于亲密度的5G网络切片智能资源分配方法,用于解决5G网络切片资源分配问题,属于5G网络切片技术领域。
背景技术
第五代移动网络,简称5G网络,实现了具有高容量、超低延迟和极其可靠的移动连接的物联网(IoT)。5G网络是支持多种应用的多种先进技术的动态和灵活架构。
网络切片技术是5G现实的关键推动因素之一。网络切片的实现,要求5G网络具有开放性、灵活性和可编程性。其中,虚拟化、软件化、网络功能是构建网络切片的第一步。网络功能虚拟化(NFV)将网络功能的软件实现和硬件功能解耦,在通用的标准化服务器上运行网络功能。
在设计网络切片时,可以将传统的网络功能映射到运行在容器或虚拟机中的虚拟化的网络功能,这些虚拟化的网络功能可以链接在一起,根据需要提供服务。软件定义网络技术(SDN)通过将转发平面与控制平面分离,简化了网络管理,引入了可编程特性,使网络更加开放和灵活。
通过SDN和NFV的结合,网络切片可以在单个物理网络基础设施上定义多个虚拟网络。网络切片通常由一组虚拟资源和与之关联的流量组成。通过按需提供必要的资源,网络切片有助于有效利用网络资源以满足多样化的业务需求。
此外,面对5G的能力需求,网络功能通过虚拟化进行集中,并提出云无线接入网络来应对物联网应用的大数据挑战。该架构将基带处理单元与远端射频头分离,将公共数据中心的基带处理和资源管理功能集中起来,提高资源利用率,节约成本。
然而,随着物联网设备部署的快速增长需求,云无线接入网络在远端射频头和云之间的链路中引入了巨大的前传开销,并且主要由高传输时间、有限容量的前传链路和集中式信号处理。因此,一种有前景的范式,基于雾无线电接入网络被引入到5G无线通信中,目的是将云扩展到更靠近雾的地方。
在雾无线电接入网络中,雾节点可以在边缘独立为用户提供网络功能,而无需云端解决低延迟需求。雾无线电接入网络通过在边缘设备上执行更多功能来克服对容量受限前传的影响,从而提高网络性能。但是,由于与云相比,FN(fog node,雾节点)的资源有限,无法满足物联网应用的所有请求。因此,应该智能地利用雾节点的资源并与云合作,以满足服务质量要求。
基于5G网络切片技术构建的新型网络具有高度复杂性,现有的5G网络切片资源分配方法都存在不同方面的不足。技术人员尝试通过各种启发式方法来解决该问题,但由于这个问题是NP(指无法在多项式的时间内解决的问题)难的,有些资源分配问题不是凸的,所以很难得到最优解。此外,环境中的交通状态是实时变化的,启发式方法也是静态分配资源的,其中为切片预留了固定数量的资源,这将导致资源利用不足,并且在满足不同移动业务的动态QoS需求方面面临巨大挑战。
深度强化学习在解决涉及高维感官输入的顺序决策问题上取得了巨大成功。这意味着,基于深度强化学习的方法可以用于解决NP-hard资源分配问题。但是,5G中的动态资源分配面临挑战,因为其必须处理具有预定义序列的相互依赖的虚拟化网络功能和具有各种服务质量要求的隔离切片。
此外,现有的技术并没有考虑周围节点资源的影响。
发明内容
本发明的目的是针对现有技术存在的不足,为了有效解决5G网络切片资源分配的技术问题,旨在尽可能提高5G雾无线接入网络切片的资源利用率并减低延迟,创造性地提出一种基于亲密度的5G网络切片智能资源分配方法。
本发明的创新点在于:引入节点亲密度并应用深度强化学习技术来优化5G网络中的切片资源分配,在保证服务质量的同时最大限度地提高资源利用率。首先应用深度学习技术来表示复杂的高维网络状态空间,并使用重放缓冲区来利用采样经验信息的相关性。然后,将获得的信息作为提出的智能决策模块的输入,以自适应地做出5G网络切片决策。
本发明的目的是通过下述技术方案实现的。
一种基于亲密度的5G网络切片智能资源分配方法,包括以下步骤:
步骤1:获取5G网络中每个切片的原始状态信息,包括切片服务器的资源状态等,然后,代理收集需要训练的环境历史样本,并将样本放入经验回放池中。
步骤2:设定深度强化学习参数。
步骤3:根据步骤1和步骤2,学习critic网络与actor网络,并设置强化学习参数值。
首先,初始化actor网络和critic网络中的所有参数和经验回放池,并构建一个深度强化网络拟合值函数,用于解决状态空间爆炸问题。
具体地,使用Actor-Critic网络结构。为提高Actor-Critic网络结构输入状态值的有效性,此处引入亲密度的概念来计算每个节点与其邻居之间的亲密度,使得代理能够更好地获取邻居节点的状态。此外,网络使用累积奖励作为目标值,将预期累积奖励作为预测值。
具体过程如图2所示,包括观察过程,训练过程和执行过程。
步骤4:根据步骤3学习到的actor网络,确定下一步切片资源的分配。
有益效果
本方法对比现有技术,具有以下优点:
1.现有的方法如启发式的方法静态地分配资源,为切片保留固定数量的资源,这将导致资源的未充分利用。
而本发明方法是一种在线的无模型的方法,可以利用深度强化学习的优势,以适应随时间变化的流量控制需求。
2.本发明方法引入了节点亲密度,并应用深度强化学习(DRL)技术对5G网络中的VNFs调度进行了优化,在保证服务质量(QoS)的同时最大限度地提高资源利用率。
3.本发明方法应用深度学习(DL)技术来表示复杂的高维网络状态空间,并使用重放缓冲区来利用采样经验信息的相关性。将得到的信息作为智能决策模块的输入,能够自适应地进行5G网络切片决策。
4.本发明既考虑了资源利用率也考虑了时延,时延是服务等级协议(SLA)中最重要的指标之一。本发明尤其适用于应用在动态复杂的、对切片的资源利用率和延迟都要求较高的场景。
附图说明
图1为F-RAN的系统结构图;
图2为基于亲密度的5G网络切片智能资源分配模型;
图3为本发明方法的流程示意图;
图4为本发明方法的Reward。
具体实施方式
下面结合附图和实施例对本发明的具体实施方式做进一步详细说明。
具体参数设置如表1所示:
表1参数设置
参数 | 取值 |
时间周期T | 200 |
episode | 5000 |
网络大小 | 21 |
学习率 | 10<sup>-2</sup> |
一种基于亲密度的5G网络切片智能资源分配方法,包括以下步骤:
步骤1:首先,获取5G网络中每个切片的原始状态信息,包括切片服务器的资源状态等。然后,代理收集需要训练的环境历史样本,并将样本放入经验回放记忆中。
步骤2:设定DRL(深度强化学习)参数,即,设定初始化actor网络和critic网络中所有参数和经验回放池。
在DRL(深度强化学习)模型中,基于马尔可夫决策过程的三个元素用元组(S;A;R)来描述,其中,S为状态、A为动作、R为奖励。
为应对5G切片引起的实时网络状态变化,要考虑离散时间段。从状态S在采取动作A后,代理转移到下一个状态,并产生一个回报(奖励或惩罚)指导深度强化学习代理。然后,代理做出新的决定并重复该过程。
此处,为网络切片的资源分配问题定义一个三元组(S;A;R)如下:
状态State:包括总节点资源、节点使用资源和资源利用率。
其中,总节点资源指可供调度的计算和容量资源量;节点使用资源指每个节点已经占用的资源量;资源利用率指已经使用的资源用于调度的比例。
动作Action:表示执行的动作集。
每次DRL代理获取状态后都会执行一次操作。针对多个切片之间动态资源调度的问题,动作操作是动态调整系统切片资源的比例。也就是说,智能DRL控制器对于资源的划分不是一成不变的,而是随着各业务的流量需求的变化进行动态调整。由于DRL代理仅选择离散动作空间中的动作,因此,需要对连续动作空间进行离散化。如果单切片场景的动作空间维度为M,场景中共存N个切片,则动作空间维度为M×N。动作空间对收敛速度影响较大。
奖励Reward:表示环境交互反馈的回报。
在每次迭代中,智能体代理首先根据当前环境状态选择并执行一个动作,然后环境移动到下一个状态并将奖励反馈给智能体。该奖励反映选择的动作是否正确。对于5G网络中的多切片共存场景,奖励与切片资源利用率有关。设切片资源利用率为奖励函数,总奖励为切片利用率之和。同时,为奖励更新函数添加内存和延迟约束,如果违反约束,奖励中将增加一个惩罚。
步骤3:根据步骤1和步骤2,学习critic网络与actor网络,设置强化学习参数值。
初始化actor网络和critic网络中所有参数和Replay Buffer,构建一个深度强化网络拟合值函数来解决状态空间爆炸问题。使用Actor-Critic网络结构,为提高Actor-Critic网络结构输入状态值的有效性,引入亲密度的概念来计算每个节点与其邻居之间的亲密度,这使得代理能够更好地获取邻居节点的状态。网络使用累积奖励作为目标值,将预期累积奖励作为预测值。
如图2所示,步骤3包括观察过程、训练过程和执行过程三个部分。
步骤3.1:观察过程。
从重放缓冲区开始收集样本,得到DRL训练所需的样本。
重放缓冲区的样本必须是独立同分布的,以便后续参数更新。但是,由于深度强化学习的相邻训练样本是相互关联的,因此,在网络中引入经验重放和目标网络,以打破相关性。
为提高效率,首先将样本分成相等的子集,并对每个样本的子集执行梯度下降。然后,更新神经网络的权重和其他参数。代理继续进行下一个子集样本的梯度下降。在遍历所有样本之后,在梯度下降中执行p步(迭代)。每个样本的子集下的梯度下降过程与不划分子集的方法相同,只是当前的训练数据是一个子集,而不是所有样本。因此,在子集的一个训练回合中执行n次梯度下降。最后,根据贪婪策略选择接下来要执行的动作。循环上述过程,直到迭代次数达到限制(限制取决于重放缓冲区的大小)。
步骤3.2:训练过程。
训练过程从重放缓冲区开始。
具体地,深度强化学习方法的训练过程具体流程如下:
S1:随机初始化critic网络与actor网络;
S2:初始化经验回放池和网络参数值,包括Reward、延迟、服务器内存、时间片t;
其中,Reward的值是指示行为正确的值。5G运营商的目的是为了尽可能地获取利润以及满足用户的网络请求。因此,将动作能否带来利润,以及是否满足延迟和内存的约束,作为影响Reward值的标准。
S3:接收经验回放池的状态,作为DRL的输入参数;
S4:根据环境,为每个节点选择动作:
S5:对于时间周期T内的每个时间片t,执行以下过程:
S5.1:通过actor网络生成动作,代理根据当前策略向所选动作添加探索噪声,以增加训练过程的随机性和学习的覆盖率;
S5.2:执行动作,并且更新环境和经验回放池;
S5.3:判断时间片t是否结束,如果为否,执行S5.4;
S5.4:更新包括资源利用率、延迟以及Reward的值;
S5.5:判断动作选择是否正确,以及是否有请求被完成;
如果动作选择正确,并且满足切片服务器的内存约束,则将Reward值增大;
如果动作选择不正确,则将Reward值减小;
S5.6:判断时间片是否结束;如果未结束,则返回S5.1;如果结束,则重置时间片t,并输出一个时间周期内的资源利用率、延迟以及Reward的值,然后返回S5.1;
步骤3.3:执行过程。
选择经步骤3.2训练好的critic网络与actor网络,输入当前状态,评估动作的长期累积奖励,统计选择能够获得最大资源利用率的操作,以优化解空间大小。根据模拟环境中的预测值,对优化后的解空间中每个动作的表现进行评估,以获得奖励。随后,将结果记录在数据库中,以进一步更新网络模型。最终,在物理网络中执行奖励最大的动作。
其中,具体的评估方法为:在网络结构中提前定义好服务器的最大内存,作为动作的评估阈值,阈值的作用是奖惩机制,在阈值以内则增加奖励,超出阈值则减奖励,目的是让代理更快找到满足最大资源利用率策略。
步骤4:根据步骤3学习到的actor网络,确定切片资源的分配。
根据步骤3的学习结果确定服务器网络整体收益,决定切片上的资源分配策略,如果a=1,则表示分配切片上的服务器资源给虚拟网络功能服务,若a=0,则表示切片资源未被成功分配,a表示强化学习代理采取的动作。利用actor网络的利润,实现将不同切片上的资源进行灵活的分配。
实施例验证
为验证本发明的有益效果,对本实施例进行仿真验证,仿真实验均在Intel(R)Core(TM)i7 Windows 10 64位系统上完成。为了评估系统性能,开发了一个包含三个切片的环境。切片的基本环境是构建一个由21台服务器组成的隔离的三层虚拟网络。假设切片1为800个资源单元的存储云切片,切片1为400个资源单元的计算云切片,切片3为200个资源单元的雾切片。这里假设存储云切片的容量足以容纳所有请求。对于每个切片,其延迟从范围[30,100]毫秒。模拟[10,100]请求,每个请求都需要一个由1到6个不同VNF(即防火墙、NAT、IDS、负载均衡器、WAN优化器和流量监控器)组成的SFC。在进行仿真实验后,得到了Reward的结果如图4所示。
图4表明,依照本发明的智能切片算法,在三个切片21和节点的网络拓扑中,随着训练集数的增加,平均报酬在训练2500次之后基本稳定,Reward的值逐渐收敛。显示了Q-Learning和智能切片算法的收敛趋势。从图中可以看出,智能切片和Q-learning算法分别在2500次、4000次左右收敛。智能切片具有更快的收敛速度和更高的奖励收敛值。分析其有两个可能的原因。一方面,奖励与请求的完成有关。智能切片是一种动态资源分配算法,可以处理更多请求。另一方面,智能切片考虑了邻居信息对决策的影响。它通过为邻居的状态分配亲密度权重,并将当前状态聚合到深层网络中来指导代理的决策。简而言之,智能切片在复杂的网络环境中通过采用自适应选择策略可以获得更高的奖励。
以上所述的具体实例是对本发明的进一步解释说明,并不用于限定本发明的保护范围,凡在本发明原则和精神之内,所做的更改和等同替换都应是本发明的保护范围之内。
Claims (3)
1.一种基于亲密度的5G网络切片智能资源分配方法,其特征在于,包括以下步骤:
步骤1:获取5G网络中每个切片的原始状态信息,然后代理收集需要训练的环境历史样本,并将样本放入经验回放池中;
步骤2:设定深度强化学习参数,即,设定初始化actor网络和critic网络中所有参数和经验回放池;
步骤3:根据步骤1和步骤2,学习critic网络与actor网络,并设置强化学习参数值,具体包括观察过程、训练过程和执行过程三个部分;
步骤3.1:观察过程;
从重放缓冲区开始收集样本,得到深度强化学习训练所需的样本;
首先,将样本分成相等的子集,并对每个样本的子集执行梯度下降;
然后,更新神经网络的权重和其他参数,代理继续进行下一个子集样本的梯度下降;在遍历所有样本之后,在梯度下降中执行p步;每个样本的子集下的梯度下降过程与不划分子集的方法相同,只是当前的训练数据是一个子集,而不是所有样本;因此,在子集的一个训练回合中执行n次梯度下降;
最后,根据贪婪策略选择接下来要执行的动作;
循环上述过程,直到迭代次数达到限制;
步骤3.2:训练过程,从重放缓冲区开始,包括以下步骤:
S1:随机初始化critic网络与actor网络;
S2:初始化经验回放池和网络参数值,包括Reward、延迟、服务器内存、时间片t;
其中,Reward的值是指示行为正确的值;将动作能否带来利润,以及是否满足延迟和内存的约束,作为影响Reward值的标准;
S3:接收经验回放池的状态,作为DRL的输入参数;
S4:根据环境,为每个节点选择动作:
S5:对于时间周期T内的每个时间片t,执行以下过程:
S5.1:通过actor网络生成动作,代理根据当前策略向所选动作添加探索噪声,以增加训练过程的随机性和学习的覆盖率;
S5.2:执行动作,并且更新环境和经验回放池;
S5.3:判断时间片t是否结束,如果为否,执行S5.4;
S5.4:更新包括资源利用率、延迟以及Reward的值;
S5.5:判断动作选择是否正确,以及是否有请求被完成;
如果动作选择正确,并且满足切片服务器的内存约束,则将Reward值增大;
如果动作选择不正确,则将Reward值减小;
S5.6:判断时间片是否结束;如果未结束,则返回S5.1;如果结束,则重置时间片t,并输出一个时间周期内的资源利用率、延迟以及Reward的值,然后返回S5.1;
步骤3.3:执行过程;
选择经步骤3.2训练好的critic网络与actor网络,输入当前状态,评估动作的长期累积奖励,统计选择能够获得最大资源利用率的操作,以优化解空间大小;根据模拟环境中的预测值,对优化后的解空间中每个动作的表现进行评估,以获得奖励;随后,将结果记录在数据库中,以进一步更新网络模型;最终,在物理网络中执行奖励最大的动作;
步骤4:根据步骤3学习到的actor网络,确定切片资源的分配;
根据步骤3的学习结果确定服务器网络整体收益,决定切片上的资源分配策略,如果a=1,则表示分配切片上的服务器资源给虚拟网络功能服务,若a=0,则表示切片资源未被成功分配,a表示强化学习代理采取的动作;利用actor网络的利润,实现将不同切片上的资源进行灵活的分配。
2.如权利要求1所述的一种基于亲密度的5G网络切片智能资源分配方法,其特征在于,步骤2的设定方法如下:
为网络切片的资源分配问题定义一个三元组(S;A;R)如下:
状态State:包括总节点资源、节点使用资源和资源利用率;
其中,总节点资源指可供调度的计算和容量资源量;节点使用资源指每个节点已经占用的资源量;资源利用率指已经使用的资源用于调度的比例;
动作Action:表示执行的动作集;
每次深度强化学习代理获取状态后都会执行一次操作,动作操作是动态调整系统切片资源的比例,即,智能深度强化学习控制器对于资源的划分是随着各业务的流量需求的变化进行动态调整;由于深度强化学习代理仅选择离散动作空间中的动作,因此,需要对连续动作空间进行离散化,如果单切片场景的动作空间维度为M,场景中共存N个切片,则动作空间维度为M×N;
奖励Reward:表示环境交互反馈的回报;
在每次迭代中,智能体代理首先根据当前环境状态选择并执行一个动作,然后环境移动到下一个状态并将奖励反馈给智能体,该奖励反映选择的动作是否正确;
设切片资源利用率为奖励函数,总奖励为切片利用率之和,同时,为奖励更新函数添加内存和延迟约束,如果违反约束,奖励中将增加一个惩罚。
3.一种基于亲密度的5G网络切片智能资源分配方法,其特征在于,步骤3.3中的评估方法为:
在网络结构中提前定义好服务器的最大内存,作为动作的评估阈值,阈值的作用是奖惩机制,在阈值以内则增加奖励,超出阈值则减奖励。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110936885.6A CN113692021B (zh) | 2021-08-16 | 2021-08-16 | 一种基于亲密度的5g网络切片智能资源分配方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110936885.6A CN113692021B (zh) | 2021-08-16 | 2021-08-16 | 一种基于亲密度的5g网络切片智能资源分配方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113692021A true CN113692021A (zh) | 2021-11-23 |
CN113692021B CN113692021B (zh) | 2023-11-28 |
Family
ID=78580262
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110936885.6A Active CN113692021B (zh) | 2021-08-16 | 2021-08-16 | 一种基于亲密度的5g网络切片智能资源分配方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113692021B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114500561A (zh) * | 2022-02-17 | 2022-05-13 | 中国电力科学研究院有限公司 | 电力物联网网络资源分配决策方法、系统、设备及介质 |
CN114520772A (zh) * | 2022-01-19 | 2022-05-20 | 广州杰赛科技股份有限公司 | 一种5g切片资源调度方法 |
CN114630441A (zh) * | 2022-05-16 | 2022-06-14 | 网络通信与安全紫金山实验室 | 资源调度的方法及装置 |
CN115016263A (zh) * | 2022-05-27 | 2022-09-06 | 福州大学 | 连续微流控生物芯片下基于drl的控制逻辑设计方法 |
CN115009291A (zh) * | 2022-05-23 | 2022-09-06 | 暨南大学 | 基于网络演化重放缓冲区的自动驾驶辅助决策方法及系统 |
WO2023184939A1 (zh) * | 2022-03-28 | 2023-10-05 | 福州大学 | 基于深度强化学习的云数据中心自适应高效资源分配方法 |
WO2023225322A1 (en) * | 2022-05-19 | 2023-11-23 | Nec Laboratories America, Inc. | Dynamic intent-based network computing job assignment using reinforcement learning |
CN115016263B (zh) * | 2022-05-27 | 2024-06-04 | 福州大学 | 连续微流控生物芯片下基于drl的控制逻辑设计方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7051066B1 (en) * | 1999-07-02 | 2006-05-23 | Cisco Technology, Inc. | Integrating service managers into a routing infrastructure using forwarding agents |
CN104579957A (zh) * | 2014-12-04 | 2015-04-29 | 北京理工大学 | 基于亲密度和时间约束转发的容迟网络路由方法 |
CN108632945A (zh) * | 2017-03-20 | 2018-10-09 | 华为技术有限公司 | 一种网络切片选择方法、用户设备及网络设备 |
CN109906636A (zh) * | 2018-02-06 | 2019-06-18 | 瑞典爱立信有限公司 | 用于网络功能的方法和装置 |
US20200241921A1 (en) * | 2019-01-28 | 2020-07-30 | EMC IP Holding Company LLC | Building neural networks for resource allocation for iterative workloads using reinforcement learning |
CN111669291A (zh) * | 2020-06-03 | 2020-09-15 | 北京理工大学 | 基于深度强化学习的虚拟化网络服务功能链部署方法 |
CN111683381A (zh) * | 2020-04-28 | 2020-09-18 | 南京邮电大学 | 基于深度强化学习的端到端网络切片资源分配算法 |
-
2021
- 2021-08-16 CN CN202110936885.6A patent/CN113692021B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7051066B1 (en) * | 1999-07-02 | 2006-05-23 | Cisco Technology, Inc. | Integrating service managers into a routing infrastructure using forwarding agents |
CN104579957A (zh) * | 2014-12-04 | 2015-04-29 | 北京理工大学 | 基于亲密度和时间约束转发的容迟网络路由方法 |
CN108632945A (zh) * | 2017-03-20 | 2018-10-09 | 华为技术有限公司 | 一种网络切片选择方法、用户设备及网络设备 |
CN109906636A (zh) * | 2018-02-06 | 2019-06-18 | 瑞典爱立信有限公司 | 用于网络功能的方法和装置 |
US20200241921A1 (en) * | 2019-01-28 | 2020-07-30 | EMC IP Holding Company LLC | Building neural networks for resource allocation for iterative workloads using reinforcement learning |
CN111683381A (zh) * | 2020-04-28 | 2020-09-18 | 南京邮电大学 | 基于深度强化学习的端到端网络切片资源分配算法 |
CN111669291A (zh) * | 2020-06-03 | 2020-09-15 | 北京理工大学 | 基于深度强化学习的虚拟化网络服务功能链部署方法 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114520772A (zh) * | 2022-01-19 | 2022-05-20 | 广州杰赛科技股份有限公司 | 一种5g切片资源调度方法 |
CN114520772B (zh) * | 2022-01-19 | 2023-11-14 | 广州杰赛科技股份有限公司 | 一种5g切片资源调度方法 |
CN114500561A (zh) * | 2022-02-17 | 2022-05-13 | 中国电力科学研究院有限公司 | 电力物联网网络资源分配决策方法、系统、设备及介质 |
CN114500561B (zh) * | 2022-02-17 | 2024-02-20 | 中国电力科学研究院有限公司 | 电力物联网网络资源分配决策方法、系统、设备及介质 |
WO2023184939A1 (zh) * | 2022-03-28 | 2023-10-05 | 福州大学 | 基于深度强化学习的云数据中心自适应高效资源分配方法 |
CN114630441A (zh) * | 2022-05-16 | 2022-06-14 | 网络通信与安全紫金山实验室 | 资源调度的方法及装置 |
WO2023225322A1 (en) * | 2022-05-19 | 2023-11-23 | Nec Laboratories America, Inc. | Dynamic intent-based network computing job assignment using reinforcement learning |
CN115009291A (zh) * | 2022-05-23 | 2022-09-06 | 暨南大学 | 基于网络演化重放缓冲区的自动驾驶辅助决策方法及系统 |
CN115016263A (zh) * | 2022-05-27 | 2022-09-06 | 福州大学 | 连续微流控生物芯片下基于drl的控制逻辑设计方法 |
CN115016263B (zh) * | 2022-05-27 | 2024-06-04 | 福州大学 | 连续微流控生物芯片下基于drl的控制逻辑设计方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113692021B (zh) | 2023-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113692021B (zh) | 一种基于亲密度的5g网络切片智能资源分配方法 | |
Wang et al. | Intelligent cognitive radio in 5G: AI-based hierarchical cognitive cellular networks | |
Zou et al. | A3C-DO: A regional resource scheduling framework based on deep reinforcement learning in edge scenario | |
CN111405569A (zh) | 基于深度强化学习的计算卸载和资源分配方法及装置 | |
CN111711666B (zh) | 一种基于强化学习的车联网云计算资源优化方法 | |
CN113992524B (zh) | 网络切片优化处理方法及系统 | |
CN115278708B (zh) | 一种面向联邦学习的移动边缘计算资源管理方法 | |
US20230104220A1 (en) | Radio resource allocation | |
EP4162721A1 (en) | Dynamic spectrum sharing based on machine learning | |
Ren et al. | Vehicular network edge intelligent management: A deep deterministic policy gradient approach for service offloading decision | |
CN111740925A (zh) | 一种基于深度强化学习的Coflow调度方法 | |
CN113315806B (zh) | 一种面向云网融合的多接入边缘计算架构 | |
CN113543160B (zh) | 5g切片资源配置方法、装置、计算设备及计算机存储介质 | |
Henna et al. | Distributed and collaborative high-speed inference deep learning for mobile edge with topological dependencies | |
CN112445617A (zh) | 一种基于移动边缘计算的负载策略选择方法及系统 | |
CN114173421B (zh) | 基于深度强化学习的LoRa逻辑信道及功率分配方法 | |
CN116149855A (zh) | 一种微服务架构下中性能资源成本优化方法及系统 | |
CN116418808A (zh) | 一种mec的联合计算卸载和资源分配方法及装置 | |
CN115250156A (zh) | 一种基于联邦学习的无线网络多信道频谱接入方法 | |
Ren et al. | End-to-End Network SLA Quality Assurance for C-RAN: A Closed-Loop Management Method Based on Digital Twin Network | |
Qi et al. | A task unloading strategy of IoT devices using deep reinforcement learning based on mobile cloud computing environment | |
CN112306641B (zh) | 一种用于虚拟机迁移模型的训练方法 | |
CN115878295B (zh) | 基于深度强化学习的软件定义安全中台调度方法 | |
WO2023100253A1 (ja) | 制御システム及び制御方法 | |
CN116451777B (zh) | 针对异构计算平台的神经网络异步训练方法、装置及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |