CN113783842A - 一种5g专网upf的计算存储资源分配方法 - Google Patents

一种5g专网upf的计算存储资源分配方法 Download PDF

Info

Publication number
CN113783842A
CN113783842A CN202110906758.1A CN202110906758A CN113783842A CN 113783842 A CN113783842 A CN 113783842A CN 202110906758 A CN202110906758 A CN 202110906758A CN 113783842 A CN113783842 A CN 113783842A
Authority
CN
China
Prior art keywords
resources
particle
private network
resource
calculation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110906758.1A
Other languages
English (en)
Other versions
CN113783842B (zh
Inventor
孙茜
冯晨
田霖
惠宁
王园园
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Computing Technology of CAS
Original Assignee
Institute of Computing Technology of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Computing Technology of CAS filed Critical Institute of Computing Technology of CAS
Priority to CN202110906758.1A priority Critical patent/CN113783842B/zh
Publication of CN113783842A publication Critical patent/CN113783842A/zh
Application granted granted Critical
Publication of CN113783842B publication Critical patent/CN113783842B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/02Network architectures or network communication protocols for network security for separating internal from external traffic, e.g. firewalls
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5077Logical partitioning of resources; Management or configuration of virtualized resources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/10Flow control; Congestion control
    • H04L47/29Flow control; Congestion control using a combination of thresholds
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/50Queue scheduling
    • H04L47/62Queue scheduling characterised by scheduling criteria
    • H04L47/629Ensuring fair share of resources, e.g. weighted fair queuing [WFQ]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/70Admission control; Resource allocation
    • H04L47/80Actions related to the user profile or the type of traffic
    • H04L47/805QOS or priority aware
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/45583Memory management, e.g. access or allocation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/45587Isolation or security of virtual machine instances

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Computing Systems (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

本发明提供一种用于5G网络专网所需UPF计算资源和存储资源的计算方法,对于每个专网,所述方法包括:步骤1:初始化所述专网的多个粒子的位置与初始速度,每个粒子的位置坐标由初始分配的计算资源与存储资源表示;步骤2:计算每个粒子的适应度;步骤3:更新每个粒子历史最好适应度及其相应的位置,更新当前全局最好适应度及其相应的位置;步骤4:更新每个粒子当前的速度和位置;步骤5:循环执行步骤2到步骤4,直到全局最好适应度位置连续未更新的轮数达到预定阈值。采用该方法可以有效地将基于共享资源的UPF进行安全隔离,并通过合理的分配映射资源,有效提升了资源利用率,降低企业成本。

Description

一种5G专网UPF的计算存储资源分配方法
技术领域
本发明涉及无线通信领域,尤其涉及5G专网UPF的安全隔离以及计算与存储资源分配。
背景技术
随着第五代移动通信技术(5th generation mobile networks,5G)更广泛的应用于工业生产、远程医疗、智能交通等对网络的服务质量和安全性要求极高的垂直行业,通信业界就更多的关注到了仅供私有实体使用的非公共网络(Non-Public Network,NPN),即专网。专网是相对于公网而言的,是企业或者政府部门专建专用的网络,可以为垂直行业提供更加安全的多样化网络服务能力[1]。目前3GPP组织将5G专网部署大致分为两大类:独立NPN(Stand-alone NPN,SNPN)和公共网络集成的NPN(Public network integrated NPN,PNI-NPN)。SNPN是基础结构完全独立于公网的部署形式。而PNI-NPN基础结构托管于公共陆地移动网(Public Land Mobile Network,PLMN),与公网共享部分或全部的网络资源,通过虚拟化容器等技术与公网隔离。
网络资源共享可有效提高设备资源的利用率,充分利用物理设备的空闲资源。面向企业专网部署,网络资源共享一方面可以降低企业的部署成本,另一方面后续功能模块的维护更多会交由运营商负责,维护费用以及事故的责任承担对企业来说都会大大减少。而专网部署采用资源共享的方式时,需要进行安全隔离,将专网内部与外网完全隔离开来,以保证专网在独立运行时不受其他网络性能变化的影响,可以相互独立运行。所以应在满足安全隔离条件下,尽量地共享网络资源。
共享的网络资源可以分为接入网资源、核心网控制面资源以及核心网用户面资源,搭建专网时企业可以根据自身需求选择每个部分的网络资源是否共享。其中核心网用户面(User Plane Function,UPF)主要用于连接外部网络,专门负责数据流量的处理和路由,决定着5G系统的转发效率,可靠、可管、可灵活部署的UPF已应用于多种行业场景。目前对于UPF部署的研究,有文献证明了基于SDN的虚拟UPF管理用户平面流量的可用性,并证明了UPF在靠近企业端的传输网络中灵活部署可以有效减少时延。还有文献提出了一个基于SoftBox的虚拟核心网络实例,其目的也是在网络边缘靠近移动用户的位置进行部署以减少延迟。另有文献将用户预期的移动行为加入UPF的放置中,提出主动程序预测的UPF管理。
目前的研究都是以减小网络时延为目标对UPF进行管理,但忽略了5G UPF是基于虚拟资源进行部署的,其安全隔离度应作为前提加入考量指标。专网应与外网安全隔离开来,以保证专网在独立运行时不受其他网络性能变化的影响,可以相互独立运行。另外,UPF的计算存储资源分配应考虑在满足安全隔离条件下,尽量地共享网络资源,以降低企业成本,提高资源利用率。
发明内容
本发明针对上述问题,根据本发明的第一方面,提出一种用于5G网络专网所需UPF计算资源和存储资源的计算方法,对于每个专网,所述方法包括:
步骤1:初始化所述专网的多个粒子的位置与初始速度,每个粒子的位置坐标由初始分配的计算资源与存储资源表示;
步骤2:根据每个粒子的坐标利用原目标函数与约束惩罚函数计算每个粒子的适应度;
步骤3:更新每个粒子历史最好适应度及其相应的位置,更新当前全局最好适应度及其相应的位置;
步骤4:根据惯性项、记忆项和社会项更新每个粒子当前的速度和位置;
步骤5:循环执行步骤2到步骤4,直到全局最好适应度位置连续未更新的轮数达到预定阈值,以全局最好适应度的粒子的位置坐标作为分配给所述专网的计算资源和存储资源。
在本发明的一个实施例中,其中步骤1包括:
初始化粒子的位置x0,i
Figure BDA0003201906590000021
和初始速度v0.i,其中,xk,i表示第k轮中粒子i的位置,vk,i表示第k轮中粒子i的速度,i=1,2,....,I,I为预定的粒子数。
在本发明的一个实施例中,其中步骤2包括:
利用以下公式计算第i个粒子
Figure BDA0003201906590000031
的适应度
Figure BDA0003201906590000032
Figure BDA0003201906590000033
其中,
Figure BDA0003201906590000034
其中
Figure BDA0003201906590000035
是原目标函数,k是迭代次数,用来动态更新惩罚系数,
Figure BDA0003201906590000036
是约束惩罚项,该项中
Figure BDA0003201906590000037
是相对约束惩罚函数,
Figure BDA0003201906590000038
是分段赋值函数,
Figure BDA0003201906590000039
是惩罚指数,取值如下:
Figure BDA00032019065900000310
Figure BDA00032019065900000311
Figure BDA00032019065900000312
,记录第k轮粒子i的适应度
Figure BDA00032019065900000313
在本发明的一个实施例中,步骤4包括:
利用下列公式更新第i个粒子
Figure BDA00032019065900000314
的速度和位置:
vk+1,i=ω·vk,i+c1·r1·(pbest,i-xk,i)+c2·r2·(gbest,i-xk,i)
xk+1,i=xk,i+vk+1,i
其中vk,i是惯性项,保持原速度不变的倾向;pbest,i是粒子i历史最好位置,pbest,i-xk,i是记忆项,回到历史最好位置的倾向;gbest,i是全局历史最好位置,gbest,i-xk,i是社会项,走向粒子群全局最好位置的倾向。ω、c1、c2权重参数,r1、r1是0和1之间的随机参数。
根据本发明的第二方面,提出一种用于5G网络的专网UPF的计算存储资源分配方法,所述5G网络包括多个专网,和多个UPF物理设备,所述方法包括:
步骤100:根据权利要求1-4之一的方法计算每个专网所需的计算资源和内存资源,计算所述计算资源和内存资源价格之和,将所有专网以计算资源和内存资源价格之和降序排列为队列Q;
步骤200:对每个已开启的物理设备,统计其剩余计算资源和剩余内存资源,选择剩余计算资源和内存资源都大于零的物理设备,组成集合Ω;
步骤300:对于所述队列Q中的每个专网,依次进行资源分配,从集合Ω中进行资源的搜索,找到一个物理设备的剩余计算和剩余内存资源都大于专网所需要的计算和内存资源,如果能找到,则将该专网映射到该物理设备上,同时更新该物理设备的剩余计算和内存资源,并将该专网从队列Q中移除。
在本发明的一个实施例中,还包括:
步骤400:若在集合中Ω找不到剩余计算内存资源大于专网所需要的计算内存资源的物理设备,则执行以下步骤:
步骤410:开启一个新的物理设备,将专网映射到该物理设备,将专网从Q中移除,并更新该物理设备的剩余计算和内存资源,计算其资源利用率;
步骤420:将专网分解成N个子任务,对于每个子任务,从Ω中搜索剩余计算资源大于该子任务的计算资源需求量,并且内存资源大于该子任务的内存资源需求量的物理设备,如果存在这样的物理设备,将该子任务映射到该物理设备上,同时更新该设备的剩余计算内存资源量,如果不存在这样的物理设备,则开启一个新的设备与该子任务进行匹配,对专网的每个子任务都进行以上方式的资源分配,直到专网的所有子任务都完成了与物理设备的匹配,计算其资源利用率;
步骤430:选择步骤420和步骤430中资源利用率最大的方法;
其中,资源利用率为实际用于专网UPF计算和存储的资源量与物理设备上已开启的计算和存储资源量的比值。
在本发明的一个实施例中,还包括:
步骤500:重复步骤400,直到所有待分配资源的专网都完成了与实际物理设备的匹配。
在本发明的一个实施例中,其中,所述资源利用率为
Figure BDA0003201906590000051
其中,其中M为专网数量,S为物理设备数量,
Figure BDA0003201906590000052
为专网m的计算资源,
Figure BDA0003201906590000053
为专网m的内存资源,
Figure BDA0003201906590000054
为物理设备s上的计算资源,
Figure BDA0003201906590000055
为物理设备s上的内存资源
Figure BDA0003201906590000056
根据本发明的第三方面,提出一种计算机可读存储介质,其中存储有一个或者多个计算机程序,所述计算机程序在被执行时用于实现本发明的用于5G网络专网所需UPF计算资源和存储资源的计算方法和/或本发明的用于5G网络的专网UPF的计算存储资源分配方法。
根据本发明的第四方面,提出一种计算系统,包括:存储装置、以及一个或者多个处理器;其中,所述存储装置用于存储一个或者多个计算机程序,所述计算机程序在被所述处理器执行时用于实现本发明的用于5G网络专网所需UPF计算资源和存储资源的计算方法和/或本发明的用于5G网络的专网UPF的计算存储资源分配方法。
与现有技术相比,本专利以满足企业专网中UPF的资源安全隔离为前提,在隔离评估结果满足的条件下,调节UPF计算和存储资源的需求设定,以最小化企业成本。进而通过合理的资源分配,将企业UPF的资源需求合理映射到物理设备上,使得资源利用率最大化。仿真结果表明,采用该方法可以有效地将基于共享资源的UPF进行安全隔离,并通过合理的分配映射资源,有效提升了资源利用率,降低企业成本。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1示出了本发明的流程图;
图2示出了根据本发明实施例的安全隔离度指标示意图;
图3(a)示出了本发明的粒子群算法初始状态示意图;
图3(b)示出了本发明的粒子群算法结果示意图;
图4(a)示出了性能和安全隔离程度要求高时的资源需求量示意图;
图4(b)示出了性能和安全隔离程度要求低时的资源需求量示意图;
图5(a)示出了资源分配算法的资源利用率的比较图;
图5(b)示出了资源分配算法的物理设备数量的比较图。
具体实施方式
针对背景技术中提出的问题,发明人进行了研究,面向基于虚拟资源进行部署的5G专网UPF,本发明首先根据企业本身对UPF的通信性能要求和实际的网络实现性能,定义了安全隔离度量化的评价指标。另外,为将企业成本降至最低,本发明建模了在安全隔离要求满足条件下,寻找UPF最低计算存储资源需求量问题。最后面向多个专网UPF共享5G系统资源,本发明设计了资源分配算法对多专网UPF的资源需求进行合理映射,以实现资源利用率最大化,其中资源利用率为实际用于专网UPF计算和存储的资源量与物理设备上已开启的计算和存储资源量的比值。
1.UPF安全隔离的计算
设X个QoS参数计算出的隔离度指标分别为isoi(i=1,2,3,...,X),各QoS参数隔离度指标的权重值wi(i=1,2,3,...,X),综合的UPF的安全隔离评价值iso为:
Figure BDA0003201906590000071
2.QoS参数安全隔离度的计算
利用QoS参数反应隔离性能,则网络性能可以要求不大于QoS参数指标(时延、丢包率),也可以要求网络的性能不能小于QoS参数指标(路由转发吞吐量)。
考虑上述因素,则QoS参数要求定义为PQ,i,网络部署实际的性能表现定义为PA,i,QoS参数隔离度计算指标isoi定义为。
Figure BDA0003201906590000072
3.QoS参数实际性能评估
分配到专网m中UPF的CPU计算资源量表示为
Figure BDA0003201906590000073
单位为每秒处理的比特数。内存资源量表示为
Figure BDA0003201906590000074
单位为可存储的比特数。
在观察时间窗口T秒内,用Qt表示在时间t秒内存中所存储的数据量:
Figure BDA0003201906590000075
其中st是t秒时网络向核心网UPF传输的数据量,dt表示在时间t秒CPU计算处理的数据量,为Qt-1除以1秒:
Figure BDA0003201906590000081
4.QoS参数安全隔离度权重的计算
相关性强的QoS参数隔离度指标应适当减少其指标权重。
则设τw时隙为一个观察窗口,一共测试τ时隙长度,则每个测试指标都可以得到k=τ/τw个值。则两个测试指标iso1和iso2间的相关系数为:
Figure BDA0003201906590000082
其中
Figure BDA0003201906590000083
为iso1的第j个测试值,因此一共有k个测试值,
Figure BDA0003201906590000084
是它们的平均值;
Figure BDA0003201906590000085
为iso2的第j个测试值,因此一共有k个测试值,
Figure BDA0003201906590000086
是它们的平均值。
第i(i=1,2,3,...,X)个QoS参数隔离度指标的冲突性可以表示为:
Figure BDA0003201906590000087
第i(i=1,2,3,...,X)个QoS参数隔离度指标的权重值w(i)为
Figure BDA0003201906590000088
5.UPF安全隔离计算实例
5.1 QoS参数实际性能评估
根据UPF的计算和存储资源量评估出的UPF在时间t秒内所计算的数据量dt,分别表示转发吞吐量、丢包率、时延三个QoS参数的实际性能。
实际路由转发吞吐量表示为:
Figure BDA0003201906590000091
实际丢包率可表示为:
Figure BDA0003201906590000092
实际排队处理时延可表示为:
Figure BDA0003201906590000093
其中Y表示需要传输的数据的大小,传输速率取观察时间窗口T秒内的平均值,st是t秒时网络向核心网UPF传输的数据量。
5.2 QoS参数安全隔离度计算
假设垂直行业要求UPF的转发吞吐量不少于thfwd,则反映核心网UPF数据路由转发能力的安全隔离指标可以表示为下式。
Figure BDA0003201906590000094
假设企业要求核心网UPF路由转发的丢包率不高于Ploss,则反映核心网UPF丢包率性能的安全隔离指标可以表示为下式。
Figure BDA0003201906590000095
假设垂直行业要求UPF的排队和处理时延不大于τ,则反映UPF时延性能的安全隔离指标可以表示为下式。
Figure BDA0003201906590000101
6.最低资源需求量的求解算法(PSA)
设UPF的单位计算资源的价格为α,单位内存资源的价格为β,则企业部署UPF资源的总成本为:
Figure BDA0003201906590000102
建模保证UPF隔离的前提下,最小化UPF的资源需求量,以将企业建设成本降至最低的问题,具体如下:
Figure BDA0003201906590000103
其中g函数表示UPF安全隔离度iso与计算存储资源量
Figure BDA0003201906590000104
之间的关系,
Figure BDA0003201906590000105
是各企业的安全隔离程度要求值。
Figure BDA0003201906590000106
根据各行业的不同和实际工程经验设置。
根据本发明的一个实施例,用带约束条件的粒子群算法(PSA)对基于隔离的单专网UPF资源需求问题进行了求解,粒子群算法包含多轮,在每一轮中粒子的位置都会被移动,位置由坐标表示,在本发明中粒子的坐标为分配的计算资源与存储资源,通过不断移动粒子的位置寻找最佳位置,最佳位置为适应度最好的位置,适应度为加入隔离程度约束的惩罚函数的目标函数,目标函数为分配的计算资源与存储资源,粒子移动时综合考虑本粒子的最佳位置与所有粒子的最佳位置,所有粒子的最佳位置为全局最佳位置,当全局最佳位置连续未更新的轮数达到预定阈值,计算结束,如图1所示,主要过程如下:
第一步:初始化粒子群,每个粒子i(i=1,2,....,I)的位置x0,i,即坐标
Figure BDA0003201906590000111
和初始速度v0.i,其中xk,i表示第k轮中粒子i的位置,vk,i表示第k轮中粒子i的速度,初始化时为第0轮,
Figure BDA0003201906590000112
为专网m在第k轮中粒子i的计算资源,
Figure BDA0003201906590000113
为专网m在第k轮中粒子i的存储资源,I为预定正整数。
第二步:计算每个粒子的适应度。由于添加了约束条件,类比拉格朗日乘子法给目标函数加入约束的惩罚函数。则粒子适应度
Figure BDA0003201906590000114
可以表示为:
Figure BDA0003201906590000115
Figure BDA0003201906590000116
其中
Figure BDA0003201906590000117
是原目标函数,k是迭代次数,用来动态更新惩罚系数,
Figure BDA0003201906590000118
是约束惩罚项,该项中
Figure BDA0003201906590000119
是相对约束惩罚函数,
Figure BDA00032019065900001110
是分段赋值函数,
Figure BDA00032019065900001111
是惩罚指数,具体取值如下:
Figure BDA00032019065900001112
Figure BDA00032019065900001113
Figure BDA0003201906590000121
记录第k轮粒子i的适应度
Figure BDA0003201906590000122
第三步:将每个粒子的本轮适应度与其历史最好适应度比较,如果本轮的更好,将该粒子的历史最好适应度及其相应的位置更新为本轮的最好适应度及其相应的位置;将本轮全局最好适应度与历史全局最好适应度比较,如果本轮的更好,将历史全局最好适应度及其相应的位置更新为本轮的全局最好适应度及其相应的位置。
第四步:更新每个粒子的速度和位置:
vk+1,i=ω·vk,i+c1·r1·(pbest,i-xk,i)+c2·r2·(gbest,i-xk,i) (21)
xk+1,i=xk,i+vk+1,i (22)
其中vk,i是惯性项,保持原速度不变的倾向;pbest,i是粒子i历史最好位置,pbest,i-xk,i是记忆项,回到历史最好位置的倾向;gbest,i是全局历史最好位置,gbest,i-xk,i是社会项,走向粒子群全局最好位置的倾向。ω、c1、c2权重参数,r1、r1是0和1之间的随机参数。
第五步:循环执行第二步到第四步,进行下一轮的计算,直到全局最佳位置连续未更新的轮数达到预定阈值。
7.最大资源利用率资源映射算法(MRURA)
假设共有S个UPF物理设备,每个物理设备上都具有固定的计算资源
Figure BDA0003201906590000123
和固定的内存资源
Figure BDA0003201906590000124
共有M个专网,每个专网的UPF请求计算资源为
Figure BDA0003201906590000125
请求的内存资源为
Figure BDA0003201906590000126
Figure BDA0003201906590000127
是通过上述最低资源需求量的求解算法(PSA)计算出来的。而每个专网UPF也可以分为N个子任务[14],则每个子任务的计算资源需求是
Figure BDA0003201906590000131
内存资源需求是
Figure BDA0003201906590000132
且为了保证上述计算和内存资源相互之间的影响关系不变,子任务中的计算和内存资源应保证:
Figure BDA0003201906590000133
另外虚拟专网m映射到UPF物理设备s的计算和存储资源分别是
Figure BDA0003201906590000134
Figure BDA0003201906590000135
但专网虚拟UPF被分解为多个子任务被映射到不同物理设备上时,这些物理设备之间的通信需要额外的计算资源,即设备间通信开销。设
Figure BDA0003201906590000136
是虚拟专网m与UPF物理设备s的设备间通信中消耗的附加计算资源:
Figure BDA0003201906590000137
则虚拟专网m映射到UPF物理设备s的计算资源应更新为:
Figure BDA0003201906590000138
在实际部署中应尽量减少不必要的设备间通信占用的计算资源,即使专网的各计算子任务都尽可能部署在同一物理设备上。但另一方面,也应尽可能将专网整体的资源需求量划分成多个小的资源需求量映射到物理设备上,以更加充分的利用各物理设备的碎片化资源。基于以上分析,对上述两个问题进行折中,使资源利用率最大化的资源分配问题可以表示为:
Figure BDA0003201906590000141
针对基于资源需求的多专网UPF资源分配问题,根据本发明的一个实施例,提供一种虚拟资源分配方法对该问题及进行求解,主要过程如下:
第一步:根据每个专网所需的虚拟UPF计算资源和内存资源价格之和,将所有专网降序排列为队列Q。
第二步:对每个已开启的物理设备s,统计其剩余计算资源
Figure BDA0003201906590000142
和剩余内存资源
Figure BDA0003201906590000143
选择剩余计算资源和内存资源都大于零的物理设备,组成集合
Figure BDA0003201906590000144
第三步:对于已排序好的专网队列Q中的每个专网,依次进行资源分配。从剩余计算内存资源大于零的物理设备集合Ω中进行资源的搜索,找到一个物理设备s的剩余计算和剩余内存资源都大于专网m所需要的计算内存资源。如果能找到,则将该专网m映射到该物理设备s上,同时更新该物理设备的剩余计算和剩余内存资源
Figure BDA0003201906590000145
并将专网m从待分配资源的队列Q中移除。
第四步:若在集合中Ω找不到剩余计算和剩余内存资源大于专网m所需要的计算内存资源的物理设备,则考虑以下两种可供选择的分配方案:
1)开启一个新的物理设备,将专网m映射到该物理设备,并更新该物理设备的剩余计算和内存资源
Figure BDA0003201906590000151
将专网m从待分配资源的队列Q中移除。最后计算出在该种方案下的
Figure BDA0003201906590000152
2)将专网m分解成N个子任务,对于每个子任务的计算资源需求量为
Figure BDA0003201906590000153
内存资源需求量为
Figure BDA0003201906590000154
从Ω中搜索剩余计算资源都大于
Figure BDA0003201906590000155
内存资源大于
Figure BDA0003201906590000156
的物理设备,如果Ω中存在这样的物理设备,将专网m的子任务n映射到该物理设备上,同时更新该设备的剩余计算内存资源量,如果Ω中不存在这样的物理设备,则开启一个新的设备与该子任务进行匹配。对专网m的每个子任务都进行以上方式的资源分配,直到专网m的所有子任务都完成了与物理设备的匹配,并且计算出在此种分配方案下的
Figure BDA0003201906590000157
比较以上两种分配方案,选择计算结果值较小的方案。
第五步:重复步骤四,直到所有待分配资源的专网都完成了与实际物理设备的匹配。
8.仿真结果
在仿真实验中,对单位计算资源的计算能力,计算资源和存储资源的单价,物理设备之间的通信需要额外的计算资源量以及算法参数等的设置如表1所示。
表1仿真参数设置
Figure BDA0003201906590000158
Figure BDA0003201906590000161
如图2所示,实验仿真了在企业要求专网吞吐量8Gbps、丢包率10^-5、时延2ms的性能前提下,网络实际性吞吐量从1Gbps到10Gbps、丢包率从10^-2到10^-6、时延从5ms-1ms变化时,隔离程度的量化指标的变化。从图2中可以看出在网络吞吐量、丢包率和时延性能达不到企业要求时,定义的安全隔离度的指标均小于1,并且实际网络性能与企业要求性能越接近,定义的安全隔离程度越接近1,在实际网络性能满足企业要求性能时,iso达到1。所以本文定义的安全隔离程度指标iso∈(0,1],可以无误地反映出UPF的通信安全性能满足程度。
如图3所示,反映了带约束条件的粒子群算法求解过程,可以看出该算法能准确地找出满足安全隔离要求且成本最低对应的计算和存储资源需求量,其中图3(a)示出了本发明的粒子群算法初始状态示意图,图3(b)示出了本发明的粒子群算法结果示意图。
如图4示出了两种情况下的资源需求量对比,图4(a)为在吞吐量15Gbps、丢包率10^-5,时延1ms和安全隔离度0.99的企业要求前提下的资源需求量,图4(b)为在吞吐量10Gbps,丢包率10^-2,时延5ms,安全隔离程度0.90的企业要求前提下的资源需求量。可以看出性能和安全隔离程度要求放宽时,给专网所需要分配的计算存储资源就会越小,部署成本也相应减小,与预想一致。
如图5所示,对比了本发明提出的最大资源利用率的资源分配算法(MRURA)和以解决装箱问题为模型的资源分配标准快速算法(FFD)。在图5(a)中可以看出本发明算法在处理较多的专网部署问题上资源利用率逐渐稳定于0.87,而FFD算法逐渐稳定于0.77。即在解决专网UPF数量大于10的资源分配问题时,本发明提出算法可提高资源利用率高达10%。在图5(b)中,当待被分配的专网UPF数量从2增长到30时,MRURA算法需要的物理设备的数量从2增加到21,而FFD算法需要的物理设备的数量从2增加到24,且待分配的专网数量越多,本文提出的算法可节省的物理设备数越多。
为使本领域任何普通技术人员能够实现或者使用本公开内容,上面围绕本公开内容进行了描述。对于本领域普通技术人员来说,对本公开内容进行各种修改是显而易见的,并且,本文定义的通用原理也可以在不脱离本公开内容的精神或保护范围的基础上适用于其它变型。此外,除非另外说明,否则任何方面和/或实施例的所有部分或一部分可以与任何其它方面和/或实施例的所有部分或一部分一起使用。因此,本公开内容并不限于本文所描述的例子和设计方案,而是与本文公开的原理和新颖性特征的最广范围相一致。

Claims (10)

1.一种用于5G网络专网所需UPF计算资源和存储资源的计算方法,对于每个专网,所述方法包括:
步骤1:初始化所述专网的多个粒子的位置与初始速度,每个粒子的位置坐标由初始分配的计算资源与存储资源表示;
步骤2:根据每个粒子的坐标利用原目标函数与约束惩罚函数计算每个粒子的适应度;
步骤3:更新每个粒子历史最好适应度及其相应的位置,更新当前全局最好适应度及其相应的位置;
步骤4:根据惯性项、记忆项和社会项更新每个粒子当前的速度和位置;
步骤5:循环执行步骤2到步骤4,直到全局最好适应度位置连续未更新的轮数达到预定阈值,以全局最好适应度的粒子的位置坐标作为分配给所述专网的计算资源和存储资源。
2.根据权利要求1所述的方法,其中步骤1包括:
初始化粒子的位置x0,i
Figure FDA0003201906580000011
和初始速度v0.i,其中,xk,i表示第k轮中粒子i的位置,vk,i表示第k轮中粒子i的速度,i=1,2,....,I,I为预定的粒子数。
3.根据权利要求2所述的方法,其中步骤2包括:
利用以下公式计算第i个粒子
Figure FDA0003201906580000012
的适应度
Figure FDA0003201906580000013
Figure FDA0003201906580000014
其中,
Figure FDA0003201906580000015
其中
Figure FDA0003201906580000021
是原目标函数,k是迭代次数,用来动态更新惩罚系数,
Figure FDA0003201906580000022
是约束惩罚项,该项中
Figure FDA0003201906580000023
是相对约束惩罚函数,
Figure FDA0003201906580000024
是分段赋值函数,
Figure FDA0003201906580000025
是惩罚指数,取值如下:
Figure FDA0003201906580000026
Figure FDA0003201906580000027
Figure FDA0003201906580000028
记录第k轮粒子i的适应度
Figure FDA0003201906580000029
4.根据权利要求2所述的方法,步骤4包括:
利用下列公式更新第i个粒子
Figure FDA00032019065800000210
的速度和位置:
vk+1,i=ω·vk,i+c1·r1·(pbest,i-xk,i)+c2·r2·(gbest,i-xk,i)
xk+1,i=xk,i+vk+1,i
其中vk,i是惯性项,保持原速度不变的倾向;pbest,i是粒子i历史最好位置,pbest,i-xk,i是记忆项,回到历史最好位置的倾向;gbest,i是全局历史最好位置,gbest,i-xk,i是社会项,走向粒子群全局最好位置的倾向。ω、c1、c2权重参数,r1、r1是0和1之间的随机参数。
5.一种用于5G网络的专网UPF的计算存储资源分配方法,所述5G网络包括多个专网,和多个UPF物理设备,所述方法包括:
步骤100:根据权利要求1-4之一的方法计算每个专网所需的计算资源和内存资源,计算所述计算资源和内存资源价格之和,将所有专网以计算资源和内存资源价格之和降序排列为队列Q;
步骤200:对每个已开启的物理设备,统计其剩余计算资源和剩余内存资源,选择剩余计算资源和内存资源都大于零的物理设备,组成集合Ω;
步骤300:对于所述队列Q中的每个专网,依次进行资源分配,从集合Ω中进行资源的搜索,找到一个物理设备的剩余计算和剩余内存资源都大于专网所需要的计算和内存资源,如果能找到,则将该专网映射到该物理设备上,同时更新该物理设备的剩余计算和内存资源,并将该专网从队列Q中移除。
6.根据权利要求5所述的方法,还包括:
步骤400:若在集合中Ω找不到剩余计算内存资源大于专网所需要的计算内存资源的物理设备,则执行以下步骤:
步骤410:开启一个新的物理设备,将专网映射到该物理设备,将专网从Q中移除,并更新该物理设备的剩余计算和内存资源,计算其资源利用率;
步骤420:将专网分解成N个子任务,对于每个子任务,从Ω中搜索剩余计算资源大于该子任务的计算资源需求量,并且内存资源大于该子任务的内存资源需求量的物理设备,如果存在这样的物理设备,将该子任务映射到该物理设备上,同时更新该设备的剩余计算内存资源量,如果不存在这样的物理设备,则开启一个新的设备与该子任务进行匹配,对专网的每个子任务都进行以上方式的资源分配,直到专网的所有子任务都完成了与物理设备的匹配,计算其资源利用率;
步骤430:选择步骤420和步骤430中资源利用率最大的方法;
其中,资源利用率为实际用于专网UPF计算和存储的资源量与物理设备上已开启的计算和存储资源量的比值。
7.根据权利要求6所述的方法,还包括:
步骤500:重复步骤400,直到所有待分配资源的专网都完成了与实际物理设备的匹配。
8.根据权利要求6所述的方法,其中,所述资源利用率为
Figure FDA0003201906580000041
其中,其中M为专网数量,S为物理设备数量,
Figure FDA0003201906580000042
为专网m的计算资源,
Figure FDA0003201906580000043
为专网m的内存资源,
Figure FDA0003201906580000044
为物理设备s上的计算资源,
Figure FDA0003201906580000045
为物理设备s上的内存资源
Figure FDA0003201906580000046
9.一种计算机可读存储介质,其中存储有一个或者多个计算机程序,所述计算机程序在被执行时用于实现如权利要求1-8任意一项所述的方法。
10.一种计算系统,包括:
存储装置、以及一个或者多个处理器;
其中,所述存储装置用于存储一个或者多个计算机程序,所述计算机程序在被所述处理器执行时用于实现如权利要求1-8任意一项所述的方法。
CN202110906758.1A 2021-08-09 2021-08-09 一种5g专网upf的计算存储资源分配方法 Active CN113783842B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110906758.1A CN113783842B (zh) 2021-08-09 2021-08-09 一种5g专网upf的计算存储资源分配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110906758.1A CN113783842B (zh) 2021-08-09 2021-08-09 一种5g专网upf的计算存储资源分配方法

Publications (2)

Publication Number Publication Date
CN113783842A true CN113783842A (zh) 2021-12-10
CN113783842B CN113783842B (zh) 2022-05-24

Family

ID=78837030

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110906758.1A Active CN113783842B (zh) 2021-08-09 2021-08-09 一种5g专网upf的计算存储资源分配方法

Country Status (1)

Country Link
CN (1) CN113783842B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111510334A (zh) * 2020-04-21 2020-08-07 中国电子科技集团公司第五十四研究所 一种基于粒子群算法的vnf在线调度方法
US20200259896A1 (en) * 2019-02-13 2020-08-13 Telefonaktiebolaget Lm Ericsson (Publ) Industrial Automation with 5G and Beyond
CN112738155A (zh) * 2020-12-11 2021-04-30 广东电力通信科技有限公司 一种基于5g mec电力物联网设备本地互联接入方法及系统
CN112788766A (zh) * 2020-12-31 2021-05-11 京信网络系统股份有限公司 下行控制信道资源分配方法、装置、通信设备和存储介质
CN112822050A (zh) * 2021-01-05 2021-05-18 北京信息科技大学 用于部署网络切片的方法和装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200259896A1 (en) * 2019-02-13 2020-08-13 Telefonaktiebolaget Lm Ericsson (Publ) Industrial Automation with 5G and Beyond
CN111510334A (zh) * 2020-04-21 2020-08-07 中国电子科技集团公司第五十四研究所 一种基于粒子群算法的vnf在线调度方法
CN112738155A (zh) * 2020-12-11 2021-04-30 广东电力通信科技有限公司 一种基于5g mec电力物联网设备本地互联接入方法及系统
CN112788766A (zh) * 2020-12-31 2021-05-11 京信网络系统股份有限公司 下行控制信道资源分配方法、装置、通信设备和存储介质
CN112822050A (zh) * 2021-01-05 2021-05-18 北京信息科技大学 用于部署网络切片的方法和装置

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CHIH-LIN I等: "A Perspective of O-RAN Integration with MEC, SON, and Network Slicing in the 5G Era", 《IEEE NETWORK》 *
CSABA ROTTER等: "A Queueing Model for Threshold-Based Scaling of UPF Instances in 5G Core", 《IEEE ACCESS》 *
孙茜等: "基于5G的专用网络安全研究现状", 《指挥与控制学报》 *
王晓雷: "5G网络切片的虚拟资源管理技术研究", 《中国博士学位论文全文数据库(电子期刊)》 *

Also Published As

Publication number Publication date
CN113783842B (zh) 2022-05-24

Similar Documents

Publication Publication Date Title
CN112286677B (zh) 一种面向资源受限边缘云的物联网应用优化部署方法
CN109684083A (zh) 一种面向边缘-云异构下的多级事务调度分配策略
CN107172166A (zh) 面向工业智能化服务的云雾计算系统
WO2019072162A1 (zh) 虚拟网络映射方法、设备和存储介质
Maia et al. A multi-objective service placement and load distribution in edge computing
Ullah et al. Optimizing task offloading and resource allocation in edge-cloud networks: a DRL approach
Yadav et al. An opposition-based hybrid evolutionary approach for task scheduling in fog computing network
CN112905312A (zh) 边缘计算环境中基于深度q神经网络的工作流调度方法
Li et al. Computation offloading strategy for improved particle swarm optimization in mobile edge computing
Aliyu et al. Dynamic partial computation offloading for the metaverse in in-network computing
Zhang et al. Multimodal optimization of edge server placement considering system response time
CN113783842B (zh) 一种5g专网upf的计算存储资源分配方法
Mekala et al. Asxc $^{2} $ approach: a service-x cost optimization strategy based on edge orchestration for iiot
Li et al. Energy–latency tradeoffs edge server selection and DQN-based resource allocation schemes in MEC
Chandrika et al. Edge resource slicing approaches for latency optimization in AI-edge orchestration
CN111541781B (zh) 一种密集网络中移动设备的分布式协同任务调度方法
Liu et al. Towards Efficient Task Offloading with Dependency Guarantees in Vehicular Edge Networks through Distributed Deep Reinforcement Learning
Masdari et al. Energy-aware computation offloading in mobile edge computing using quantum-based arithmetic optimization algorithm
Chekired et al. Multi-level fog based resource allocation model for EVs energy planning in smart grid
Ren et al. Learning-driven service caching in MEC networks with bursty data traffic and uncertain delays
CN111784029A (zh) 一种雾节点资源分配方法
Fang et al. Profit-driven Optimization of Server Deployment and Service Placement in Multi-User Mobile Edge Computing
Barros et al. Scheduling with Fully Compressible Tasks: Application to Deep Learning Inference with Neural Network Compression
Li et al. Energy-efficient offloading based on hybrid bio-inspired algorithm for edge–cloud integrated computation
Lu et al. A novel hybrid model for task dependent scheduling in container-based edge computing

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant