CN110532079B - 计算资源的分配方法及装置 - Google Patents

计算资源的分配方法及装置 Download PDF

Info

Publication number
CN110532079B
CN110532079B CN201910818114.XA CN201910818114A CN110532079B CN 110532079 B CN110532079 B CN 110532079B CN 201910818114 A CN201910818114 A CN 201910818114A CN 110532079 B CN110532079 B CN 110532079B
Authority
CN
China
Prior art keywords
processed
processor
tasks
type
task
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910818114.XA
Other languages
English (en)
Other versions
CN110532079A (zh
Inventor
马英矫
石晶林
田霖
张景辉
刘鸿飞
姚春雨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sylincom Technology Co ltd
Original Assignee
Beijing Sylincom Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sylincom Technology Co ltd filed Critical Beijing Sylincom Technology Co ltd
Priority to CN201910818114.XA priority Critical patent/CN110532079B/zh
Publication of CN110532079A publication Critical patent/CN110532079A/zh
Application granted granted Critical
Publication of CN110532079B publication Critical patent/CN110532079B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/48Program initiating; Program switching, e.g. by interrupt
    • G06F9/4806Task transfer initiation or dispatching
    • G06F9/4843Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
    • G06F9/4881Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
    • G06F9/4893Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues taking into account power or heat criteria
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/08Access point devices
    • H04W88/085Access point devices with remote components
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

本申请公开了一种计算资源的分配方法及装置。其中,该方法包括:按照处理器类型将每个射频拉远头RRH服务的小区在当前时刻获取到的多个待处理任务分为由第一处理器处理的第一类待处理任务和由第二处理器处理的第二类待处理任务;根据每一类待处理任务的计算资源需求量和每一类处理器所提供的计算资源为每个待处理任务分配计算资源。本申请解决了由于现有超级基站结构下的BBU与RRH的调度策略没有考虑BBU的计算资源池的异构性和RRH的任务时延属性导致系统在处理任务时能耗较高的技术问题。

Description

计算资源的分配方法及装置
技术领域
本申请涉及通信技术领域,具体而言,涉及一种计算资源的分配方法及装置。
背景技术
随着移动互联网、物联网、云计算、大数据和人工智能的发展,越来越多的终端加入到通信领域中,不仅类型呈现多样化,从非实时智能抄表终端,到数据量大、交互延时要求严的移动AR/VR终端,且数量将以爆炸式增长的速度达到千亿级量级。而现有基站架构是垂直封闭的,4G、5G、卫星等各种各样的网络高速发展,不同基站之间面临多层次的壁垒,是一种管道化、封闭式的架构。这种基站架构无法满足层出不穷、千差万别的新业务需求以及爆炸式的数据增长,亟需发展新一代的基站架构。
为了满足上述要求,研究人员提出了新的集中式基站架构。典型的集中式基站结构主要包括集中式无线接入网,无线网络云,以及超级基站结构计算技术。与其他集中式基站架构相比,超级基站的最大特点是开放性,主要体现在基于异构的硬件平台,支持软件、接口、网络协议开放,根据需求灵活配置相应的功能以及不同的网络制式。
图1是根据本申请实施例的一种超级基站架构示意图,如图1所示,在超级基站架构下,基带处理单元(Building Base band Unit,BBU)与射频拉远头(Remote Radio Head,RRH)可以动态切换,资源可以实时共享,且可以根据RRH的动态负载来匹配不同的BBU进行处理。超级基站架构包含集中式的BBU池,拉远的RRH,BBU与RRH之间的动态高速交换机。其中,动态高速交换机的动态映射策略是资源调度的重要环节。以接收链路为例,射频资源池经过下变频、数模变换后,输出基带信号通过高速光纤连接至射频交换机,由其根据管控系统指令要求路由分配至对应的基带处理单元。
目前,相关科研人员提出了很多种BBU与RRH的调度策略,但是未考虑实际情况,未考虑RRH的任务时延属性,且物理层计算资源池是基于同构平台进行评估。在超级基站架构下,一方面,由于RRH所服务的小区接入的终端类型不同,RRH的任务所需处理时延也是不一样的,例如自动驾驶业务比传统话音业务的实时性要求高;另一方面,RRH所服务的小区可以分成多个任务,如信号编码Coding(C)、信号调制Modulation(M)、信号的快速傅里叶变化Fast Fourier Transform(FFT),且不同任务对处理器平台的倾好性不一样,这样BBU的计算资源是异构的。
针对上述的问题,目前尚未提出有效的解决方案。
发明内容
本申请实施例提供了一种计算资源的分配方法及装置,以至少解决由于现有超级基站结构下的BBU与RRH的调度策略没有考虑BBU的计算资源池的异构性和RRH的任务时延属性导致系统在处理任务时能耗较高的技术问题。
根据本申请实施例的一个方面,提供了一种计算资源的分配方法,包括:按照处理器类型将每个射频拉远头RRH服务的小区在当前时刻获取到的多个待处理任务分为由第一处理器处理的第一类待处理任务和由第二处理器处理的第二类待处理任务;根据每一类待处理任务的计算资源需求量和每一类处理器所提供的计算资源为每个待处理任务分配计算资源。
可选地,在按照处理器类型将多个待处理任务分为由第一类待处理任务和第二类待处理任务之前,上述方法还包括:通过确定多个待处理任务中每个待处理任务在预设主频下对第一处理器的计算资源需求量,设置第一处理器所提供的计算资源上限值;通过确定多个待处理任务中每个待处理任务在预设主频下对第二处理器的计算资源需求量,设置第二处理器所提供的计算资源上限值。
可选的,根据每一类待处理任务的计算资源需求量和每一类处理器所提供的计算资源为每个待处理任务分配计算资源,包括:按照第一类待处理任务中每个待处理任务的计算资源需求量进行降序排列,得到第一排序结果,以及按照第二类待处理任务中每个待处理任务的计算资源需求量进行降序排列,得到第二排序结果;根据第一排序结果,采用第一处理器从计算资源需求量最大的待处理任务开始依次处理第一类待处理任务中每个待处理任务,并且在第一处理器的剩余计算资源低于当前待处理任务的计算资源需求量的情况下,开启新的第一处理器继续处理第一类待处理任务中剩余的待处理任务;根据第二排序结果,采用第二处理器从计算资源需求量最大的待处理任务开始依次处理第二类待处理任务中每个待处理任务,并且在第二处理器的剩余计算资源低于当前待处理任务的计算资源需求量的情况下,开启新的第二处理器继续处理第二类待处理任务中剩余的待处理任务。
可选地,在根据每一类待处理任务的计算资源需求量和每一类处理器所提供的计算资源为每个待处理任务分配计算资源之前,上述方法还包括:确定第一处理器处理处理第一类待处理任务的第一时间;确定第二处理器处理处理第二类待处理任务的第二时间;确定第一时间与第二时间的和小于或者等于预设时间值。
可选地,设置第一处理器所提供的计算资源上限值,包括:设置第一处理器所提供的计算资源上限值大于或者等于多个待处理任务对第一处理器的计算资源需求量总和;设置第二处理器所提供的计算资源上限值,包括:设置第二处理器所提供的计算资源上限值大于或者等于多个待处理任务对第二处理器的计算资源需求量总和。
可选地,设置第一处理器所提供的计算资源上限值以及设置第二处理器所提供的计算资源上限值,包括:确定第一处理器与第二处理器所提供的计算资源的总和大于多个待处理任务的计算资源需求量总和;确定第一处理器或者第二处理器中每个处理器所提供的计算资源大于每个待处理任务的计算资源需求量。
可选地,上述方法还包括:在第一处理器未处理待处理任务时,控制第一处理器关闭;以及在第二处理器未处理待处理任务时,控制第二类处理器关闭。
可选地,上述第一处理器为基带处理单元BBU集合中的中央处理器CPU,第二处理器为BBU集合中的可重构配置专用处理器RASP,BBU集合中包括多个带处理单元BBU,基带处理单元BBU包括CPU和RASP,射频拉远RRH与基带处理单元BBU通信连接。
根据本申请实施例的另一方面,还提供了一种计算资源的分配装置,包括:设置模块,用于按照处理器类型将射频拉远头RRH服务的小区在当前时刻获取到的多个待处理任务分为由第一处理器处理的第一类待处理任务和由第二处理器处理的第二类待处理任务;分配模块,用于根据每一类待处理任务的计算资源需求量和每一类处理器所提供的计算资源为每个待处理任务分配计算资源。
根据本申请实施例的再一方面,还提供了一种存储介质,存储介质包括存储的程序,其中,程序运行时控制存储介质所在的设备执行以上的计算资源的分配方法。
根据本申请实施例的再一方面,还提供了一种处理器,处理器用于运行程序,其中,程序运行时执行以上的计算资源的分配方法。
在本申请实施例中,采用按照处理器类型将每个射频拉远头RRH服务的小区在当前时刻获取到的多个待处理任务分为由第一处理器处理的第一类待处理任务和由第二处理器处理的第二类待处理任务;根据每一类待处理任务的计算资源需求量和每一类处理器所提供的计算资源为每个待处理任务分配计算资源的方式,通过根据RRH的负载需求,结合BBU池的计算资源的异构性,动态分配BBU与RRH之间的映射关系,从而实现了降低BBU池内的总能耗的技术效果,进而解决了由于现有超级基站结构下的BBU与RRH的调度策略没有考虑BBU的计算资源池的异构性和RRH的任务时延属性导致系统在处理任务时能耗较高的技术问题。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是根据本申请实施例的一种超级基站架构示意图;
图2是根据本申请实施例的一种计算组员的分配方法的流程图;
图3是根据本申请实施例的一种BBU与RRH的映射方案的示意图;
图4是根据本申请实施例的一种计算资源的分配装置的结构图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
根据本申请实施例,提供了一种计算资源的分配方法实施例,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
首先,在对本申请实施例进行描述的过程中出现的部分名词或术语适用于如下解释:
BBU:基带处理单元BBU和射频拉远单元(Remote Radio Unit,RRU)之间需要光线连接,一个BBU可以支持多个RRU,采用BBU+RRU多通道方案,可以很好地解决大型场馆的室内覆盖。
RRH:射频拉远头,用于移动宽带网络基站中的新技术设备,主要效益在于提升既有信号传输效率,并且在更容易建置的网络架构下,扩大其网络覆盖率。RRH和RRU都是射频拉远单元,只是使用的覆盖方式不同,RRU是针对宏站的室外覆盖,RRH是针对室内分布系统的室内覆盖。
图2是根据本申请实施例的一种计算组员的分配方法的流程图,如图1所示,该方法包括如下步骤:
步骤S202,按照处理器类型将每个射频拉远头RRH服务的小区在当前时刻获取到的多个待处理任务分为由第一处理器处理的第一类待处理任务和由第二处理器处理的第二类待处理任务。
根据本申请的一个可选的实施例,上述第一处理器为基带处理单元BBU集合中的中央处理器CPU,第二处理器为BBU集合中的可重构配置专用处理器RASP,BBU集合中包括多个带处理单元BBU,基带处理单元BBU包括CPU和RASP,射频拉远RRH与基带处理单元BBU通信连接。
根据本申请的一个可选的实施例,步骤S202中的处理器包括BBU池内的中央处理器(Central Processing Unit,CPU)和可重构配置专用处理器(ReconfigurableApplication Specified Processor,RASP),其中RASP包括但不限于现场可编程门阵列(Field-Programmable Gate Array,FPGA)。由于不同任务对处理器平台的倾好性不同,因此需要根据任务与处理器类型的映射策略,将相关任务进行分类。
步骤S204,根据每一类待处理任务的计算资源需求量和每一类处理器所提供的计算资源为每个待处理任务分配计算资源。
通过上述步骤,通过根据RRH的负载需求,结合BBU池的计算资源的异构性,动态分配BBU与RRH之间的映射关系,从而实现了降低BBU池内的总能耗的技术效果。
在本申请的一些实施例中,在执行步骤S202之前,通过确定多个待处理任务中每个待处理任务在预设主频下对第一处理器的计算资源需求量,设置第一处理器所提供的计算资源上限值;通过确定多个待处理任务中每个待处理任务在预设主频下对第二处理器的计算资源需求量,设置第二处理器所提供的计算资源上限值。
对系统内所有RRHn=1,2,...,N的任务i=1,2,...,I,设置对CPU的计算资源需求
Figure BDA0002186825840000061
和对RASP的计算资源需求
Figure BDA0002186825840000062
对系统基带池CPUc=1,2,...,C、RASP r=1,2,...,R设置其最大计算资源LC和LR
根据本申请的一个可选的实施例,步骤S204通过以下方法实现:按照第一类待处理任务中每个待处理任务的计算资源需求量进行降序排列,得到第一排序结果,以及按照第二类待处理任务中每个待处理任务的计算资源需求量进行降序排列,得到第二排序结果;根据第一排序结果,采用第一处理器从计算资源需求量最大的待处理任务开始依次处理第一类待处理任务中每个待处理任务,并且在第一处理器的剩余计算资源低于当前待处理任务的计算资源需求量的情况下,开启新的第一处理器继续处理第一类待处理任务中剩余的待处理任务;根据第二排序结果,采用第二处理器从计算资源需求量最大的待处理任务开始依次处理第二类待处理任务中每个待处理任务,并且在第二处理器的剩余计算资源低于当前待处理任务的计算资源需求量的情况下,开启新的第二处理器继续处理第二类待处理任务中剩余的待处理任务。
将对应CPU的所有任务、对应RASP的所有任务按照其计算资源需求大小
Figure BDA0002186825840000063
Figure BDA0002186825840000064
进行降序排列,表示为集合ΓCPU和ΓRASP;从计算资源请求量最大的任务开始,直至CPU或者RASP剩余资源不满足任务的计算资源需求,则开启新的CPU或者RASP。直至全部任务映射完成。
下面以一个具体实施例来对上述BBU与RRH的动态映射算法进行说明。
假设超级基站系统物理层基带处理过程由BBU池完成,共有M个BBU节点,其集合为
Figure BDA0002186825840000065
BBU池由CPU、RASP组成,即CPU集合为
Figure BDA0002186825840000066
RASP集合为
Figure BDA0002186825840000067
假设区域由RRH集合
Figure BDA0002186825840000068
覆盖,这里N代表连接至BBU池的RRH的总数,逻辑小区的个数与RRH的个数相同,即N个RRH服务N个小区。在本申请实施例中,不考虑RRH间的干扰。RRHn服务的小区的基带处理任务可以分为多个任务,其任务集合为
Figure BDA0002186825840000069
(例如Coding(C)、Modulation(M)、Fast Fourier Transform(FFT)可以分配在不同的BBU节点上处理)。每个任务i对在固定主频下的CPU的计算资源需求为
Figure BDA00021868258400000610
对在固定主频下的RASP的计算资源需求为
Figure BDA00021868258400000611
图3是根据本申请实施例的一种BBU与RRH的映射方案的示意图,如图3所示,RRH的不同任务可以映射至计算资源池的不同BBU上,最终目标是通过动态更新BBU与RRH的映射,来降低BBU池内的总能耗。
本申请实施例考虑如何根据超级基站系统不同RRH负载需求,动态分配BBU与RRH之间的映射关系,最小化系统BBU池总能耗。在满足时延约束和资源约束的情况下,该优化问题可以用以下数学表达式表示:
Figure BDA0002186825840000071
其中,C为BBU池中CPU的数量,R为BBU池中RASP的数量,Pstat,c为CPU的静态功耗,所谓静态功耗是由泄露电流引起的功耗,Pstat,r为RASP的静态功耗,αc为与CPU主频相关的能耗因子,αr为与RASP主频相关的能耗因子。
Figure BDA0002186825840000072
其中,约束条件C1、C2限制任务所请求的计算资源不超过主处理CPU和RASP的最大计算资源能力LC和LR,βn,i,c=1表示RRHn的任务i由CPU c处理,其他情况下,βn,i,c=0,βn,i,r=1表示RRHn的任务i由RASP r处理,其他情况下,βn,i,r=0;约束条件C3保证RRHn的I个任务均能被BBU池内的一个或者多个RASP、CPU执行;约束条件C4确保RRH n的任务i只能被分配至一个RASP或者CPU处理;约束条件C5、C6中ηc和ηr表示CPU与RASP的开关状态,若没有任务分配,则关掉处理器;约束条件C7是确保计算资源池处理任意一个RRH的任务处理的时延约束要小于一个常量,其中RRH的任务处理时延与计算资源、主处理器的频率有关,其中,fc为CPU的频率,fr为RASP的频率。
从上述约束条件可以看出,BBU-RRH的映射问题是一个基于线性整数的约束优化问题,求解复杂度高,通过穷举搜索所有可能的任务映射方案,也可使用分之界定法通过数字优化技术CPLEX解决。但是这两种方法的计算量均是指数级,是非确定性多项式的难题。因此,本申请提出了超级基站系统BBU-RRH动态映射算法,并与现有算法进行比较分析。
经典的装箱算法是将不同大小的物体放入容量一定的箱子中,同时使用的箱子个数要最少。BBU与RRH的动态映射问题与装箱算法相似,这里BBU池所用的CPU和RASP是箱子,RRH对应的任务是放到背包里的目标,目标是使得使用的CPU和RASP最少。装箱问题是非确定性多项式NP难解问题,这意味着该问题不存在求得精确解的算法,因此装箱问题的算法均是近似算法。其中适应性算法是没目前时间复杂性比较低的近似算法,有下次适应算法next fit(NF),首次适应First fit(FF),降序首次适应算法First fit decreasing(FFD),Cross Fit(CF)等。
上述步骤S202至步骤S204正是根据超级基站系统不同RRH对应的各项任务计算资源需求和各项任务与异构平台的映射机制,提出一种基于异构平台的降序首次适应映射算法(Heterogeneous First Fit Decreasing,HFFD)。
HFFD算法主要思想为:对于系统中每个待分配计算资源的任务i,首先按照任务在CPU或者RASP上的映射方案区分两类箱子应该装配的任务;其次针对分配在CPU、RASP的所有任务进行降序排序;最后,检查系统当前正在运行的CPU、RASP是否存在能够满足任务i计算资源需求的CPU、RASP,选取使得系统基带池能耗最小的BBU-RRH映射方案,重复上述过程直至完成所有任务的计算资源分配为止。
在本申请的一个可选的实施例中,在执行步骤S204之前,还需要确定第一处理器处理处理第一类待处理任务的第一时间;确定第二处理器处理处理第二类待处理任务的第二时间;确定第一时间与第二时间的和小于或者等于预设时间值。
在动态分配BBU与RRH之间的映射关系之前,还需要考虑RRH的任务的所需的时延要求,如果处理器的利用率过高,虽然处理器的计算资源请求量满足要求,然仍然不可将任务分配至该处理器进行处理。即满足上述约束条件C7的要求。
根据本申请的一个可选的实施例,设置第一处理器所提供的计算资源上限值,包括:设置第一处理器所提供的计算资源上限值大于或者等于多个待处理任务对第一处理器的计算资源需求量总和;设置第二处理器所提供的计算资源上限值,包括:设置第二处理器所提供的计算资源上限值大于或者等于多个待处理任务对第二处理器的计算资源需求量总和。
BBU池内的CPU提供的计算资源的上限值应该大于其处理的任务的计算资源需求量;同样地,BBU池内的RASP提供的计算资源的上限值也应该大于其处理的任务的计算资源需求量,即需要满足上述约束条件C1、C2的要求。
在本申请的一些可选的实施例中,设置第一处理器所提供的计算资源上限值以及设置第二处理器所提供的计算资源上限值,包括:确定第一处理器与第二处理器所提供的计算资源的总和大于或者等于多个待处理任务的计算资源需求量总和;
例如,总共有编号1-10共10个任务,5个CPU和5个RASP,满足这10个任务可以被1个或多个CPU处理,1个或多个RASP处理,或者这5个CPU和5个RASP中任意数量的CPU和RASP组合共同处理这10个任务。即满足上述约束条件C3的要求。
确定第一处理器或者第二处理器中每个处理器所提供的计算资源大于或者等于每个待处理任务的计算资源需求量。
例如,总共有编号1-10共10个任务,5个CPU和5个RASP,这10个任务中任意一个任务只能被这5个CPU和5个RASP任意一个CPU或任意一个RASP单独处理,避免两个处理器对同一个任务做处理。即满足上述约束条件C4的要求。
在本申请的一些实施例中,在第一处理器未处理待处理任务时,控制第一处理器关闭;以及在第二处理器未处理待处理任务时,控制第二类处理器关闭。在CPU和RASP没有处理任务时控制其处于关闭状态,即满足上述约束条件C5和C6的要求。通过该方法可以进一步降低BBU池的总能耗。
图4是根据本申请实施例的一种计算资源的分配装置的结构图,如图4所示,该装置包括:
设置模块40,用于按照处理器类型将射频拉远头RRH服务的小区在当前时刻获取到的多个待处理任务分为由第一处理器处理的第一类待处理任务和由第二处理器处理的第二类待处理任务。
根据本申请的一个可选的实施例,上述第一处理器为基带处理单元BBU集合中的中央处理器CPU,第二处理器为BBU集合中的可重构配置专用处理器RASP,BBU集合中包括多个带处理单元BBU,基带处理单元BBU包括CPU和RASP,射频拉远RRH与基带处理单元BBU通信连接。其中RASP包括但不限于现场可编程门阵列(Field-Programmable Gate Array,FPGA)。由于不同任务对处理器平台的倾好性不同,因此需要根据任务与处理器类型的映射策略,将相关任务进行分类。
分配模块42,用于根据每一类待处理任务的计算资源需求量和每一类处理器所提供的计算资源为每个待处理任务分配计算资源。
根据本申请的一个可选的实施例,上述装置还包括设置模块,用于通过确定多个待处理任务中每个待处理任务在预设主频下对第一处理器的计算资源需求量,设置第一处理器所提供的计算资源上限值;通过确定多个待处理任务中每个待处理任务在预设主频下对第二处理器的计算资源需求量,设置第二处理器所提供的计算资源上限值。
上述分配模块42还用于按照第一类待处理任务中每个待处理任务的计算资源需求量进行降序排列,得到第一排序结果,以及按照第二类待处理任务中每个待处理任务的计算资源需求量进行降序排列,得到第二排序结果;根据第一排序结果,采用第一处理器从计算资源需求量最大的待处理任务开始依次处理第一类待处理任务中每个待处理任务,并且在第一处理器的剩余计算资源低于当前待处理任务的计算资源需求量的情况下,开启新的第一处理器继续处理第一类待处理任务中剩余的待处理任务;根据第二排序结果,采用第二处理器从计算资源需求量最大的待处理任务开始依次处理第二类待处理任务中每个待处理任务,并且在第二处理器的剩余计算资源低于当前待处理任务的计算资源需求量的情况下,开启新的第二处理器继续处理第二类待处理任务中剩余的待处理任务。
需要说明的是,图4所示实施例的优选实施方式可以参见图1所示实施例的相关描述,此处不再赘述。
本申请实施例还提供了一种存储介质,存储介质包括存储的程序,其中,程序运行时控制存储介质所在的设备执行以上的计算资源的分配方法。
存储介质用于存储执行以下功能的程序:按照处理器类型将每个射频拉远头RRH服务的小区在当前时刻获取到的多个待处理任务分为由第一处理器处理的第一类待处理任务和由第二处理器处理的第二类待处理任务;根据每一类待处理任务的计算资源需求量和每一类处理器所提供的计算资源为每个待处理任务分配计算资源。
本申请实施例还提供了一种处理器,处理器用于运行程序,其中,程序运行时执行以上的任务的分配方法。
处理器用于运行执行以下功能的程序:按照处理器类型将每个射频拉远头RRH服务的小区在当前时刻获取到的多个待处理任务分为由第一处理器处理的第一类待处理任务和由第二处理器处理的第二类待处理任务;根据每一类待处理任务的计算资源需求量和每一类处理器所提供的计算资源为每个待处理任务分配计算资源。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
在本申请的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,可以为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅是本申请的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本申请的保护范围。

Claims (7)

1.一种计算资源的分配方法,其特征在于,包括:
按照处理器类型将每个射频拉远头RRH服务的小区在当前时刻获取到的多个待处理任务分为由第一处理器处理的第一类待处理任务和由第二处理器处理的第二类待处理任务;
根据每一类待处理任务的计算资源需求量和每一类处理器所提供的计算资源为每个待处理任务分配计算资源;
在按照处理器类型将所述多个待处理任务分为由所述第一类待处理任务和所述第二类待处理任务之前,所述方法还包括:
通过确定所述多个待处理任务中每个待处理任务在预设主频下对所述第一处理器的计算资源需求量,设置所述第一处理器所提供的计算资源上限值;
通过确定所述多个待处理任务中每个待处理任务在预设主频下对所述第二处理器的计算资源需求量,设置所述第二处理器所提供的计算资源上限值;
在根据每一类待处理任务的计算资源需求量和每一类处理器所提供的计算资源为每个待处理任务分配计算资源之前,所述方法还包括:
确定所述第一处理器处理处理所述第一类待处理任务的第一时间;
确定所述第二处理器处理处理所述第二类待处理任务的第二时间;
确定所述第一时间与所述第二时间的和小于或者等于预设时间值,所述第一时间与所述第二时间的和为所述RRH的任务处理的时延约束;
根据每一类待处理任务的计算资源需求量和每一类处理器所提供的计算资源为每个待处理任务分配计算资源,包括:
按照所述第一类待处理任务中每个待处理任务的计算资源需求量进行降序排列,得到第一排序结果,以及按照所述第二类待处理任务中每个待处理任务的计算资源需求量进行降序排列,得到第二排序结果;
根据所述第一排序结果,采用所述第一处理器从计算资源需求量最大的待处理任务开始依次处理所述第一类待处理任务中每个待处理任务,并且在所述第一处理器的剩余计算资源低于当前待处理任务的计算资源需求量的情况下,开启新的第一处理器继续处理所述第一类待处理任务中剩余的待处理任务;
根据所述第二排序结果,采用所述第二处理器从计算资源需求量最大的待处理任务开始依次处理所述第二类待处理任务中每个待处理任务,并且在所述第二处理器的剩余计算资源低于当前待处理任务的计算资源需求量的情况下,开启新的第二处理器继续处理所述第二类待处理任务中剩余的待处理任务。
2.根据权利要求1所述的方法,其特征在于,
设置所述第一处理器所提供的计算资源上限值,包括:设置所述第一处理器所提供的计算资源上限值大于或者等于所述多个待处理任务对所述第一处理器的计算资源需求量总和;
设置所述第二处理器所提供的计算资源上限值,包括:设置所述第二处理器所提供的计算资源上限值大于或者等于所述多个待处理任务对所述第二处理器的计算资源需求量总和。
3.根据权利要求1所述的方法,其特征在于,设置所述第一处理器所提供的计算资源上限值以及设置所述第二处理器所提供的计算资源上限值,包括:
确定所述第一处理器与所述第二处理器所提供的计算资源的总和大于或者等于所述多个待处理任务的计算资源需求量总和;
确定所述第一处理器或者所述第二处理器中每个处理器所提供的计算资源大于或者等于所述每个待处理任务的计算资源需求量。
4.根据权利要求1所述的方法,其特征在于,所述方法还包括:
在所述第一处理器未处理所述待处理任务时,控制所述第一处理器关闭;
以及在所述第二处理器未处理所述待处理任务时,控制所述第二处理器关闭。
5.根据权利要求1至4中任意一项所述的方法,其特征在于,所述第一处理器为基带处理单元BBU集合中的中央处理器CPU,所述第二处理器为所述BBU集合中的可重构配置专用处理器RASP,所述BBU集合中包括多个带处理单元BBU,所述基带处理单元BBU包括所述CPU和所述RASP,所述射频拉远RRH与所述基带处理单元BBU通信连接。
6.一种计算资源的分配装置,其特征在于,包括:
设置模块,用于按照处理器类型将射频拉远头RRH服务的小区在当前时刻获取到的多个待处理任务分为由第一处理器处理的第一类待处理任务和由第二处理器处理的第二类待处理任务;
分配模块,用于根据每一类待处理任务的计算资源需求量和每一类处理器所提供的计算资源为每个待处理任务分配计算资源;
第一确定模块,用于通过确定所述多个待处理任务中每个待处理任务在预设主频下对所述第一处理器的计算资源需求量,设置所述第一处理器所提供的计算资源上限值;
第二确定模块,用于通过确定所述多个待处理任务中每个待处理任务在预设主频下对所述第二处理器的计算资源需求量,设置所述第二处理器所提供的计算资源上限值;
所述分配模块,包括:
排序单元,用于按照所述第一类待处理任务中每个待处理任务的计算资源需求量进行降序排列,得到第一排序结果,以及按照所述第二类待处理任务中每个待处理任务的计算资源需求量进行降序排列,得到第二排序结果;
第一处理单元,用于根据所述第一排序结果,采用所述第一处理器从计算资源需求量最大的待处理任务开始依次处理所述第一类待处理任务中每个待处理任务,并且在所述第一处理器的剩余计算资源低于当前待处理任务的计算资源需求量的情况下,开启新的第一处理器继续处理所述第一类待处理任务中剩余的待处理任务;
第二处理单元,用于根据所述第二排序结果,采用所述第二处理器从计算资源需求量最大的待处理任务开始依次处理所述第二类待处理任务中每个待处理任务,并且在所述第二处理器的剩余计算资源低于当前待处理任务的计算资源需求量的情况下,开启新的第二处理器继续处理所述第二类待处理任务中剩余的待处理任务;
所述分配模块,还包括:
第一确定单元,用于确定所述第一处理器处理处理所述第一类待处理任务的第一时间;
第二确定单元,用于确定所述第二处理器处理处理所述第二类待处理任务的第二时间;
第三确定单元,用于确定所述第一时间与所述第二时间的和小于或者等于预设时间值,所述第一时间与所述第二时间的和为所述RRH的任务处理的时延约束。
7.一种存储介质,其特征在于,所述存储介质包括存储的程序,其中,所述程序运行时控制存储介质所在的设备执行权利要求1至5中任意一项所述的计算资源的分配方法。
CN201910818114.XA 2019-08-30 2019-08-30 计算资源的分配方法及装置 Active CN110532079B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910818114.XA CN110532079B (zh) 2019-08-30 2019-08-30 计算资源的分配方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910818114.XA CN110532079B (zh) 2019-08-30 2019-08-30 计算资源的分配方法及装置

Publications (2)

Publication Number Publication Date
CN110532079A CN110532079A (zh) 2019-12-03
CN110532079B true CN110532079B (zh) 2022-11-08

Family

ID=68665763

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910818114.XA Active CN110532079B (zh) 2019-08-30 2019-08-30 计算资源的分配方法及装置

Country Status (1)

Country Link
CN (1) CN110532079B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112437163A (zh) * 2020-05-29 2021-03-02 郁健兰 基于区块链及大数据的通信处理方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104540234A (zh) * 2015-01-19 2015-04-22 西安电子科技大学 一种C-RAN架构下基于CoMP同步约束的关联任务调度机制
CN104619029A (zh) * 2015-01-22 2015-05-13 中国科学院计算技术研究所 一种集中式蜂窝网络架构下的基带池资源分配方法和装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102932208A (zh) * 2012-11-20 2013-02-13 华为技术有限公司 站点监控方法及装置
CN104684099B (zh) * 2013-11-28 2018-05-22 中国科学院声学研究所 一种基于基带集中处理架构的动态资源分配方法及系统
CN103686750B (zh) * 2013-12-12 2016-08-31 中国科学技术大学 一种云无线接入网架构下的动态频率复用方法
CN103841647B (zh) * 2014-03-07 2017-04-12 北京邮电大学 基于基站资源池的多粒度可伸缩封装装置和方法
CN107135512B (zh) * 2016-02-29 2022-05-31 中兴通讯股份有限公司 一种射频拉远单元合并小区上行容量提升方法和系统
CN108494612B (zh) * 2018-01-19 2021-06-08 西安电子科技大学 一种提供移动边缘计算服务的网络系统及其服务方法
CN109819478B (zh) * 2019-03-13 2023-06-06 北京中科晶上科技股份有限公司 一种数据交换方法及装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104540234A (zh) * 2015-01-19 2015-04-22 西安电子科技大学 一种C-RAN架构下基于CoMP同步约束的关联任务调度机制
CN104619029A (zh) * 2015-01-22 2015-05-13 中国科学院计算技术研究所 一种集中式蜂窝网络架构下的基带池资源分配方法和装置

Also Published As

Publication number Publication date
CN110532079A (zh) 2019-12-03

Similar Documents

Publication Publication Date Title
Fan et al. Application aware workload allocation for edge computing-based IoT
CN109951821B (zh) 基于移动边缘计算的最小化车辆能耗任务卸载方案
Chen et al. ThriftyEdge: Resource-efficient edge computing for intelligent IoT applications
CN104619029B (zh) 一种集中式蜂窝网络架构下的基带池资源分配方法和装置
Qian et al. Baseband processing units virtualization for cloud radio access networks
CN105009475B (zh) 考虑到用户设备(ue)移动性的用于准入控制和资源可用性预测的方法和系统
Zhang et al. Cost efficient scheduling for delay-sensitive tasks in edge computing system
CN106341893B (zh) 一种资源分配的方法及装置
CN110719641B (zh) 边缘计算中用户卸载与资源分配联合优化方法
CN107666448B (zh) 一种时延感知下的5g虚拟接入网映射方法
CN108684075B (zh) 集中式基站架构下的处理资源分配方法
CN111835849B (zh) 增强接入网服务能力的方法和装置
Ma et al. A cyclic game for service-oriented resource allocation in edge computing
CN113950081A (zh) 一种多单元移动边缘计算中面向微服务的动态服务迁移和请求路由方法
CN116700993B (zh) 一种负载均衡方法、装置、设备及可读存储介质
Al-Zubaedi et al. A parameterized and optimized BBU pool virtualization power model for C-RAN architecture
Yao et al. Cost-efficient tasks scheduling for smart grid communication network with edge computing system
Wang et al. An energy saving based on task migration for mobile edge computing
CN110008015A (zh) 边缘计算系统中有带宽限制的在线任务分派调度方法
CN110780986B (zh) 一种基于移动边缘计算的物联网任务调度方法及系统
CN110532079B (zh) 计算资源的分配方法及装置
Mharsi et al. Scalable and cost-efficient algorithms for baseband unit (BBU) function split placement
CN115278779A (zh) Mec网络中基于渲染感知的vr服务模块动态放置方法
CN113159539B (zh) 多层边缘计算系统中联合绿色能量调度和动态任务分配方法
CN108513304B (zh) 一种资源分配方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant