CN113709817B - 多基站多服务器场景下的任务卸载和资源调度方法及装置 - Google Patents

多基站多服务器场景下的任务卸载和资源调度方法及装置 Download PDF

Info

Publication number
CN113709817B
CN113709817B CN202110931472.9A CN202110931472A CN113709817B CN 113709817 B CN113709817 B CN 113709817B CN 202110931472 A CN202110931472 A CN 202110931472A CN 113709817 B CN113709817 B CN 113709817B
Authority
CN
China
Prior art keywords
base station
computing
resource allocation
task
result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110931472.9A
Other languages
English (en)
Other versions
CN113709817A (zh
Inventor
陈昕
郭东超
卢阳光
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Information Science and Technology University
Original Assignee
Beijing Information Science and Technology University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Information Science and Technology University filed Critical Beijing Information Science and Technology University
Priority to CN202110931472.9A priority Critical patent/CN113709817B/zh
Publication of CN113709817A publication Critical patent/CN113709817A/zh
Application granted granted Critical
Publication of CN113709817B publication Critical patent/CN113709817B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W28/00Network traffic management; Network resource management
    • H04W28/02Traffic management, e.g. flow control or congestion control
    • H04W28/08Load balancing or load distribution
    • H04W28/09Management thereof
    • H04W28/0925Management thereof using policies
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

本发明提供了一种多基站多服务器场景下的任务卸载和资源调度方法及装置,包括:边缘服务器接收由用户设备发送的需要卸载到基站处理的计算任务;基于所述计算任务,所述边缘服务器将分配与所述计算任务相应的计算资源;基于计算资源分配的结果采用遗传算法得到信道资源分配结果和基站选择结果;根据所述计算资源分配结果确定任务卸载和计算资源调度策略,根据信道资源分配结果和基站选择结果确定信道资源调度策略。本发明利用内点法和遗传算法可以得到计算资源分配的结果、信道资源分配结果和基站选择结果,从而得到相应的任务卸载策略和资源调度策略,有利于应用在多基站多服务器及多用户设备的密集部署场景下节约资源。

Description

多基站多服务器场景下的任务卸载和资源调度方法及装置
技术领域
本发明涉及计算机技术领域,尤其涉及一种多基站多服务器场景下的任务卸载和资源调度方法及装置。
背景技术
随着5G通信技术和移动智能设备的不断发展,各类时延敏感型和计算密集型任务不断增加。移动边缘计算将计算资源转移到靠近移动终端的网路边缘,缓解了网络拥塞,延长了终端设备的续航能力,有效地降低了任务执行时间和终端能耗,超密集网络也是解决数据流量爆炸和设备计算能力有限等问题的一种有效方法。移动边缘计算和超密集网络的结合,在增加了网络容量的同时,提高了移动终端设备的计算能力,有效满足了任务的传输和计算要求。
计算卸载可分为本地计算,完全卸载和部分卸载三种情况:本地计算是所有计算任务都在本地执行。完全卸载是将所有计算任务卸载到边缘服务器中进行处理。部分卸载通常是最有效和最复杂的,因为它需要根据具体计算任务的情况来区分卸载到服务器以及在本地计算的数据。时延和能量消耗是移动系统的两个主要方面,因此,在进行计算卸载时,这将是考虑的重点。
信息时代能源消耗的不断增长,使得通信设备和基础设施在全球温室气体排放中发挥着重要作用。因此,绿色5G网络的发展已成为未来无线通讯领域重要的研究方向。而移动边缘计算和超密集网络是5G网络的关键组成部分,因此能源消耗问题已经成为热点问题。另一方面,网络基础设施的密集部署使得网络环境变得十分复杂,虽然增强了终端设备的有效信号接收,但也增加了终端设备间的传输干扰,影响传输和通信效率,对于一些时延敏感型应用,保证应用任务的快速传输和执行也是一个研究重点。
现有研究没有考虑网络基站与边缘服务器同时密集部署的情况,从而无法满足实际场景中的应用场景和用户需求。在基站和边缘服务器同时密集部署的超密集网络下,移动边缘计算的任务卸载和资源调度面临严峻的挑战。
发明内容
针对现有技术中存在的问题,本发明实施例提供一种多基站多服务器场景下的任务卸载和资源调度方法及装置。
第一方面,本发明实施例提供一种多基站多服务器场景下的任务卸载和资源调度方法,包括:
边缘服务器接收由用户设备发送的需要卸载到基站处理的计算任务;其中,所述基站与所述边缘服务器具有一一对应的关系;
基于所述计算任务,所述边缘服务器将分配与所述计算任务相应的计算资源;其中,所述计算资源为通过设置惩罚因子、容忍误差和惩罚因子递减系数,并使用牛顿内点法进行迭代求解直至满足预设结束迭代条件时确定的计算资源分配结果;
基于计算资源分配的结果采用遗传算法得到信道资源分配结果和基站选择结果;
根据所述计算资源分配结果确定任务卸载和计算资源调度策略,根据信道资源分配结果和基站选择结果确定信道资源调度策略。
进一步地,还包括:
基于所述计算资源确定所述计算任务在所述边缘服务器上的执行时间和能量消耗。
进一步地,预设结束迭代条件为:所述基站能够提供的用户设备总量与惩罚因子的积小于预设的容忍误差。
进一步地,所述基于计算资源分配的结果采用遗传算法得到信道资源分配结果和基站选择结果,具体包括:
基于计算资源分配的结果采用遗传算法进行不少于一千次迭代得到信道资源分配结果和基站选择结果。
第二方面,本发明实施例提供了一种多基站多服务器场景下的任务卸载和资源调度装置,包括:
接收模块,用于边缘服务器接收由用户设备发送的需要卸载到基站处理的计算任务;其中,所述基站与所述边缘服务器具有一一对应的关系;
第一计算模块,用于基于所述计算任务,所述边缘服务器将分配与所述计算任务相应的计算资源;其中,所述计算资源为通过设置惩罚因子、容忍误差和惩罚因子递减系数,并使用牛顿内点法进行迭代求解直至满足预设结束迭代条件时确定的计算资源分配结果;
第二计算模块,用于基于计算资源分配的结果采用遗传算法得到信道资源分配结果和基站选择结果;
确定模块,用于根据所述计算资源分配结果确定任务卸载和计算资源调度策略,根据信道资源分配结果和基站选择结果确定信道资源调度策略。
进一步地,还包括:
确定执行时间和能耗模块,用于基于所述计算资源确定所述计算任务在所述边缘服务器上的执行时间和能量消耗。
进一步地,所述第一计算模块中的预设结束迭代条件为:所述基站能够提供的用户设备总量与惩罚因子的积小于预设的容忍误差。
进一步地,所述第二计算模块,具体用于:
基于计算资源分配的结果采用遗传算法进行不少于一千次迭代得到信道资源分配结果和基站选择结果。
第三方面,本发明实施例还提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上第一方面所述的多基站多服务器场景下的任务卸载和资源调度方法的步骤。
第四方面,本发明实施例还提供了一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如上第一方面所述的多基站多服务器场景下的任务卸载和资源调度方法的步骤。
由上述技术方案可知,本发明实施例提供的多基站多服务器场景下的任务卸载和资源调度方法及装置,通过边缘服务器接收由用户设备发送的需要卸载到基站处理的计算任务;其中,所述基站与所述边缘服务器具有一一对应的关系;基于所述计算任务,所述边缘服务器将分配与所述计算任务相应的计算资源;其中,所述计算资源为通过设置惩罚因子、容忍误差和惩罚因子递减系数,并使用牛顿内点法进行迭代求解直至满足预设结束迭代条件时确定的计算资源分配结果;基于计算资源分配的结果采用遗传算法得到信道资源分配结果和基站选择结果;根据所述计算资源分配结果确定任务卸载和计算资源调度策略,根据信道资源分配结果和基站选择结果确定信道资源调度策略。本发明利用内点法和遗传算法可以得到计算资源分配的结果、信道资源分配结果和基站选择结果,从而得到相应的任务卸载策略和资源调度策略,有利于应用在多基站多服务器及多用户设备的密集部署场景下节约资源。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一实施例提供的多基站多服务器场景下的任务卸载和资源调度方法的流程示意图;
图2为本发明一实施例提供的多基站多服务器多用户设备的场景示意图;
图3为本发明一实施例提供的多基站多服务器场景下的任务卸载和资源调度装置的结构示意图;
图4为本发明一实施例提供的电子设备的实体结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。下面将通过具体的实施例对本发明提供的多基站多服务器场景下的任务卸载和资源调度方法进行详细解释和说明。
图1为本发明一实施例提供的多基站多服务器场景下的任务卸载和资源调度方法的流程示意图;如图1所示,该方法包括:
步骤101:边缘服务器接收由用户设备发送的需要卸载到基站处理的计算任务;其中,所述基站与所述边缘服务器具有一一对应的关系。
步骤102:基于所述计算任务,所述边缘服务器将分配与所述计算任务相应的计算资源;其中,所述计算资源为通过设置惩罚因子、容忍误差和惩罚因子递减系数,并使用牛顿内点法进行迭代求解直至满足预设结束迭代条件时确定的计算资源分配结果。
步骤103:基于计算资源分配的结果采用遗传算法得到信道资源分配结果和基站选择结果。
步骤104:根据所述计算资源分配结果确定任务卸载和计算资源调度策略,根据信道资源分配结果和基站选择结果确定信道资源调度策略。
本发明实施例提供的多基站多服务器场景下的任务卸载和资源调度方法基于多基站多服务器场景下的任务卸载和资源调度系统实现,该系统是由多用户设备、多基站、多边缘服务器组成的移动边缘计算系统,多用户设备、多基站、多边缘服务器的场景如图2所示。
在本实施例中,需要说明的是,本发明实施例提供的多基站多服务器场景下的任务卸载和资源调度方法,在网络基础设施和移动终端设备密集部署的场景下,研究任务卸载过程中的基站选择、信道资源分配和计算资源分配等问题。目标是在保证用户服务质量的同时,减少用户设备和边缘服务器的运行负担,降低包括系统能耗和时延在内的系统成本。具体内容为:在多基站、多边缘服务器和多用户设备密集分布的场景下,以最小化系统成本为目标。针对边缘服务器,对各服务器上所卸载的设备任务进行计算资源分配;在此基础上,针对用户设备,进行信道资源的分配和基站选择,从而获得最优的任务卸载和资源调度策略。本发明考虑了用户设备和边缘服务器中计算资源的有限性以及用户设备在卸载过程中相互之间的干扰问题,从而更适用于实际情况。
本发明实施例提供的多基站多服务器场景下的任务卸载和资源调度方法的应用场景中存在多个服务器基站N={1,2,...,n,...,N},服务器和基站具有一一对应的关系,以及处于基站服务范围内的多个用户设备U={1,2,...,u,...,U},服务器基站与用户设备之间存在平均划分的无线信道M={1,2,...,m,...,M}。用户设备通过正交频分复用技术进行任务卸载,每个传输信道是正交的。因此,在上行通信过程中,每个用户设备占用一个信道,占用不同信道的设备之间不存在干扰,而复用同一个信道的多个设备之间存在干扰。当用户设备u通过信道m与服务器基站n建立通信时,其信噪比(SINR)可以表示为
Figure BDA0003211070310000061
其中pu表示用户设备u的传输功率,gu,n表示设备u到服务器基站n的信道增益,σ2是高斯白噪声方差。/>
Figure BDA0003211070310000071
是信道占用状态的二进制变量,当用户设备i占用信道m时,/>
Figure BDA0003211070310000072
否则/>
Figure BDA0003211070310000073
针对用户设备i需要说明的是:用户设备i表示同一信道中除用户设备u之外的所有用户设备。根据设备的传输带宽B和香农公式可以求得用户设备u通过信道m到服务器基站n的上行传输速率为/>
Figure BDA0003211070310000074
进一步地,针对系统能耗和时延函数进行解释说明:
每个用户设备包含一个计算任务元组Qu={suu},其中su表示用户设备u中任务Qu的数据量大小,ωu表示完成任务Qu所需要的CPU周期数。用户可以选择将计算任务在本地执行,或者卸载到边缘服务基站处理。当设备u选择将任务Qu在本地执行时,
Figure BDA0003211070310000075
定义为设备u的CPU频率,则本地执行时间为:
Figure BDA0003211070310000076
本地执行能耗为:
Figure BDA0003211070310000077
/>
ωu是与设备CPU硬件结构相关的常数。当设备u将任务Qu卸载到边缘服务基站进行处理时,任务Qu的传输时间表示为:
Figure BDA0003211070310000078
Figure BDA0003211070310000079
表示设备u对信道m的资源分配指标,βu,n∈{0,1}表示设备u到达基站n的基站选择指标,任务Qu的传输能耗表示为:
Figure BDA00032110703100000710
任务Qu卸载到服务器基站n后,边缘服务器将分配相应的计算资源用于任务处理,
Figure BDA0003211070310000081
表示服务器n分配给设备u的计算资源,则任务Qu在边缘服务器上的执行时间为:
Figure BDA0003211070310000082
与本地执行相同,边缘服务器执行能耗为:
Figure BDA0003211070310000083
ρe是取决于边缘服务器芯片架构的系数。为了更适用于实际情况和节约能耗,考虑在服务器基站开启时的能耗
Figure BDA0003211070310000084
包括与发送结果数据无关的恒定能耗/>
Figure BDA0003211070310000085
和与之相关的动态能耗Ed。因为相比于服务器基站运行的恒定能耗,返回任务执行结果的传输时间和能耗特别小,所以服务器基站开启时的能耗看作只有恒定能耗,即/>
Figure BDA0003211070310000086
为了节约能源,在没有用户设备与服务器基站通信时,基站是关闭的,不会产生能耗,定义Dn表示服务器基站n的开关状态函数,表示为:
Figure BDA0003211070310000087
当Dn=1时,表示服务器基站处于ON运行状态,反之,处于OFF关闭状态。定义xu为用户设备u的卸载状态函数,表示为:
Figure BDA0003211070310000088
当xu=1时,表示设备u将卸载计算任务到边缘服务器处理,反之,则在本地进行处理。根据以上描述,系统总能耗表示为:
Figure BDA0003211070310000091
同时,所有任务的执行时间可以表示为:
Figure BDA0003211070310000092
本发明实施例的研究目标是优化包括系统能耗和时延在内的系统成本,通过设置权衡参数ξ来权衡任务执行过程产生的系统能耗和时延,其中0≤ξ≤1。目标函数可以形式化表示为
Figure BDA0003211070310000093
目标函数中的三个变量指标分别为基站选择指标(即基站选择结果)、信道资源分配指标(即信道资源分配结果)和计算资源分配指标(即计算资源分配结果)。
针对计算资源分配,进行解释说明:
当用户设备u选择将计算任务卸载到服务器基站进行处理时,即任务卸载指标xu=1,边缘服务器n将会对分配到本服务器上的设备u分配相应的计算资源
Figure BDA0003211070310000094
由于每个边缘服务器都是独立处理任务,最小化每一个边缘服务器的成本就是最小化系统成本(即通过牛顿内点法和遗传算法最小化每一个边缘服务器对应的任务卸载策略和资源调度策略)。因此,本实施考虑单个边缘服务器基站n,假设卸载到服务器基站n的用户任务集合Un={1,2,...,un,...,Un}。为了便于求解,本实施例对变量/>
Figure BDA0003211070310000095
进行归一化处理,定义
Figure BDA0003211070310000096
其中/>
Figure BDA0003211070310000097
表示边缘服务器n中总的计算资源。因此,目标函数中关于计算资源分配的子问题可以表示为
Figure BDA0003211070310000101
通过对子问题(12)可以建立相关变量c的Hessian矩阵,易证明子问题(12)为凸优化问题。本实施例运用牛顿内点法依据变量计算资源c的约束条件,定义对数惩罚函数φ(c),从而将子问题(12)转化为无约束优化问题
Figure BDA0003211070310000102
τ(k)为牛顿内点法中定义的惩罚因子,对(13)进行关于c求导可以得到
Figure BDA0003211070310000103
初始化惩罚因子τ(0),定义容许误差ε和惩罚因子的递减系数μ,迭代循环求解(14)得到
Figure BDA0003211070310000104
并在每次循环中通过τ(k+1)=τ(k)×μ更新惩罚因子,直至(Un+1)τ(k)<ε结束迭代,其中,(Un+1)表示基站n能够提供的用户设备总量。针对n,得到用户设备u在服务器n上的计算资源分配策略集。
针对信道资源分配和基站选择进行解释说明:
因为信道资源分配指标和基站选择指标是相互耦合的,需要对其进行同时求解,在获得计算资源分策略集(即计算资源分配的结果)的基础上,将(11)转化为整数规划问题
Figure BDA0003211070310000105
问题(11)与问题(15)的区别在于变量与约束条件的简化,因为系统能耗和时延与信道资源分配指标和基站选择指标相关联,因此问题表述形式保持不变。本发明实施例运用遗传算法对(15)进行求解:
第一步:进行染色体编码和初始化种群。种群是由染色体定义的多个个体组成,群体中个体数量为服务器基站数量(信道资源与服务器基站一一对应),每条染色体都是子问题(15)的潜在解,染色体上的每一个基因对应一个选择指标。设置初始种群中个体染色体为
Figure BDA0003211070310000111
其中,
Figure BDA0003211070310000112
表示分配给用户设备u的信道资源,/>
Figure BDA0003211070310000113
表示用户设备u选择的服务器基站。对于第g代种群,染色体基因与信道资源分配指标/>
Figure BDA0003211070310000114
和基站选择指标βu,n存在如下映射关系
Figure BDA0003211070310000115
第二步:定义适应度函数,执行选择操作。子问题(15)是优化目标,所以定义适应度函数为Fitness=(1-ξ)T+ξE,并结合得到的计算资源分配的结果,得到每个个体的个体适应度,并选择一定数量个体适应度最高的个体直接进去下一代。
第三步:执行交叉和变异操作。首先定义交叉概率Pc和变异概率Pm,对种群中个体两两分组,对于个体i和个体j:
Figure BDA0003211070310000116
以交叉概率Pc交换两个个体对应的染色体片段,产生因后代个体
Figure BDA0003211070310000121
对于
Figure BDA0003211070310000122
和/>
Figure BDA0003211070310000123
基因根据Pm进行概率变异,下一代基因表示为
Figure BDA0003211070310000124
其中
Figure BDA0003211070310000125
和/>
Figure BDA0003211070310000126
分别是基因/>
Figure BDA0003211070310000127
和/>
Figure BDA0003211070310000128
的突变因子。
以上过程迭代gmax次,预设为至少一千次,根据第gmax代种群中的个体
Figure BDA0003211070310000129
针对卸载任务的用户设备,得到最优信道资源分配和基站选择策略集。
综上,可以得到最优任务卸载和资源调度策略集。
为了更好的理解本发明,下面结合实施例进一步阐述本发明的内容,但本发明不仅仅局限于下面的实施例。
本发明实施例考虑基站和边缘服务器同时密集部署的超密集场景,设计基于牛顿内点法和遗传算法的任务卸载和资源调度策略:具体地,对于场景内的基站、边缘服务器和用户设备,以最小化系统成本为目标,首先针对各个边缘服务器上所卸载的设备任务进行计算资源的分配决策;在此基础上,针对用户设备,选择使系统成本更低的服务器基站及信道进行卸载;最后获得最小系统成本的任务卸载和资源调度决策方案。
举例来说,计算资源分配:
第一步:对计算资源分配变量
Figure BDA00032110703100001210
归一化处理为/>
Figure BDA00032110703100001211
针对计算资源分配策略集c定义子问题/>
Figure BDA0003211070310000131
第二步:构建关于P1问题的Hessian矩阵,证明P1问题是凸优化问题。
第三步:通过牛顿内点法迭代求解问题P1,得到用户设备u在服务器n上的计算资源分配策略集(即确定计算资源分配结果)。
第四步:在获得计算资源分策略集的基础上,将公式(11)转化为整数规划问题
Figure BDA0003211070310000132
第五步:进行染色体编码和初始化种群,设置初始种群中个体染色体
Figure BDA0003211070310000133
第六步:定义适应度函数Fitness=(1-ξ)T+ξE,并根据第三步中得到的计算资源分配策略集计算种群中的个体适应度,进行选择操作。
第七步:执行交叉和变异操作。得到个体i和个体j的交叉后代
Figure BDA0003211070310000134
和基因/>
Figure BDA0003211070310000135
和/>
Figure BDA0003211070310000136
的变异后代
Figure BDA0003211070310000137
第八步:迭代第六步和第七步gmax次,得到第gmax代中个体染色体
Figure BDA0003211070310000138
针对卸载任务的用户设备,根据个体染色体编码得到最优信道资源分配和基站选择策略集。
第九步:综上,可以得到最优任务卸载和资源调度策略集
由上面技术方案可知,本发明实施例提供的多基站多服务器场景下的任务卸载和资源调度方法,通过边缘服务器接收由用户设备发送的需要卸载到基站处理的计算任务;其中,所述基站与所述边缘服务器具有一一对应的关系;基于所述计算任务,所述边缘服务器将分配与所述计算任务相应的计算资源;其中,所述计算资源为通过设置惩罚因子、容忍误差和惩罚因子递减系数,并使用牛顿内点法进行迭代求解直至满足预设结束迭代条件时确定的计算资源分配结果;基于计算资源分配的结果采用遗传算法得到信道资源分配结果和基站选择结果;根据所述计算资源分配结果确定任务卸载和计算资源调度策略,根据信道资源分配结果和基站选择结果确定信道资源调度策略。本发明利用内点法和遗传算法可以得到计算资源分配的结果、信道资源分配结果和基站选择结果,从而得到相应的任务卸载策略和资源调度策略,有利于应用在多基站多服务器及多用户设备的密集部署场景下节约资源。
在上述实施例的基础上,在本实施例中,还包括:
基于所述计算资源确定所述计算任务在所述边缘服务器上的执行时间和能量消耗。
在本实施例中,可以理解的是,任务Qu卸载到服务器基站n后,边缘服务器将分配相应的计算资源用于任务处理,
Figure BDA0003211070310000141
表示服务器n分配给设备u的计算资源,则任务Qu在边缘服务器上的执行时间为:
Figure BDA0003211070310000142
在上述实施例的基础上,在本实施例中,预设结束迭代条件为:所述基站能够提供的用户设备总量与惩罚因子的积小于预设的容忍误差。
在本实施例中,可以理解的是,本实施例运用牛顿内点法依据变量计算资源c的约束条件,定义对数惩罚函数φ(c),从而将子问题(12)转化为无约束优化问题
Figure BDA0003211070310000151
τ(k)为牛顿内点法中定义的惩罚因子,对(13)进行关于c求导可以得到
Figure BDA0003211070310000152
初始化惩罚因子τ(0),定义容忍误差ε和惩罚因子的递减系数μ,迭代循环求解(14)得到
Figure BDA0003211070310000153
并在每次循环中通过τ(k+1)=τ(k)×μ更新惩罚因子,直至(Un+1)τ(k)<ε结束迭代,其中,(Un+1)表示基站n能够提供服务的用户设备总量。针对n,得到用户设备u在服务器n上的计算资源分配策略集。
在上述实施例的基础上,在本实施例中,所述基于计算资源分配的结果采用遗传算法得到信道资源分配结果和基站选择结果,具体包括:
基于计算资源分配的结果采用遗传算法进行不少于一千次迭代得到信道资源分配结果和基站选择结果。
图3为本发明一实施例提供的多基站多服务器场景下的任务卸载和资源调度装置的结构示意图,如图3所示,该装置包括:接收模块201、第一计算模块202、第二计算模块203和确定模块204,其中:
其中,接收模块201,用于边缘服务器接收由用户设备发送的需要卸载到基站处理的计算任务;其中,所述基站与所述边缘服务器具有一一对应的关系;
第一计算模块202,用于基于所述计算任务,所述边缘服务器将分配与所述计算任务相应的计算资源;其中,所述计算资源为通过设置惩罚因子、容忍误差和惩罚因子递减系数,并使用牛顿内点法进行迭代求解直至满足预设结束迭代条件时确定的计算资源分配结果;
第二计算模块203,用于基于计算资源分配的结果采用遗传算法得到信道资源分配结果和基站选择结果;
确定模块204,用于根据所述计算资源分配结果确定任务卸载和计算资源调度策略,根据信道资源分配结果和基站选择结果确定信道资源调度策略。
本发明实施例提供的多基站多服务器场景下的任务卸载和资源调度装置具体可以用于执行上述实施例的多基站多服务器场景下的任务卸载和资源调度方法,其技术原理和有益效果类似,具体可参见上述实施例,此处不再赘述。
基于相同的发明构思,本发明实施例提供一种电子设备,参见图4电子设备具体包括如下内容:处理器301、通信接口303、存储器302和通信总线304;
其中,处理器301、通信接口303、存储器302通过通信总线304完成相互间的通信;通信接口303用于实现各建模软件及智能制造装备模块库等相关设备之间的信息传输;处理器301用于调用存储器302中的计算机程序,处理器执行计算机程序时实现上述各方法实施例所提供的方法,例如,处理器执行计算机程序时实现下述步骤:边缘服务器接收由用户设备发送的需要卸载到基站处理的计算任务;其中,所述基站与所述边缘服务器具有一一对应的关系;基于所述计算任务,所述边缘服务器将分配与所述计算任务相应的计算资源;其中,所述计算资源为通过设置惩罚因子、容忍误差和惩罚因子递减系数,并使用牛顿内点法进行迭代求解直至满足预设结束迭代条件时确定的计算资源分配结果;基于计算资源分配的结果采用遗传算法得到信道资源分配结果和基站选择结果;根据所述计算资源分配结果确定任务卸载和计算资源调度策略,根据信道资源分配结果和基站选择结果确定信道资源调度策略。
基于相同的发明构思,本发明又一实施例还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各方法实施例提供的方法,例如,边缘服务器接收由用户设备发送的需要卸载到基站处理的计算任务;其中,所述基站与所述边缘服务器具有一一对应的关系;基于所述计算任务,所述边缘服务器将分配与所述计算任务相应的计算资源;其中,所述计算资源为通过设置惩罚因子、容忍误差和惩罚因子递减系数,并使用牛顿内点法进行迭代求解直至满足预设结束迭代条件时确定的计算资源分配结果;基于计算资源分配的结果采用遗传算法得到信道资源分配结果和基站选择结果;根据所述计算资源分配结果确定任务卸载和计算资源调度策略,根据信道资源分配结果和基站选择结果确定信道资源调度策略。
以上所描述的装置实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分的方法。
此外,在本发明中,诸如“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
此外,在本发明中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括要素的过程、方法、物品或者设备中还存在另外的相同要素。
此外,在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (10)

1.一种多基站多服务器场景下的任务卸载和资源调度方法,其特征在于,包括:
边缘服务器接收由用户设备发送的需要卸载到基站处理的计算任务;其中,所述基站与所述边缘服务器具有一一对应的关系;
基于所述计算任务,所述边缘服务器将分配与所述计算任务相应的计算资源;其中,所述计算资源为通过设置惩罚因子、容忍误差和惩罚因子递减系数,并使用牛顿内点法进行迭代求解直至满足预设结束迭代条件时确定的计算资源分配结果;
基于计算资源分配的结果采用遗传算法得到信道资源分配结果和基站选择结果;
根据所述计算资源分配结果确定任务卸载和计算资源调度策略,根据信道资源分配结果和基站选择结果确定信道资源调度策略;
其中,所述基站选择结果、信道资源分配结果和计算资源分配结果作为三个变量指标,进行系统成本优化,系统成本优化的目标函数的形式化表达为:
Figure FDA0004148899150000011
ξ表示权衡参数,0≤ξ≤1,T表示所有任务的执行时间,E表示系统总能耗;
所述目标函数中关于计算资源分配的子问题表示为:
Figure FDA0004148899150000012
其中,
Figure FDA0004148899150000013
表示完成卸载至基站n上所有计算任务un所需要的CPU周期数,/>
Figure FDA0004148899150000014
表示用户设备n的CPU频率,ρe表示与基站服务器硬件结构相关的一定值参数;
运用牛顿内点法依据变量计算资源c的约束条件,定义对数惩罚函数φ(c),从而将子问题转化为无约束优化问题:
Figure FDA0004148899150000015
τ(k)为牛顿内点法中定义的惩罚因子,对所述无约束优化问题进行关于c求导可以得到
Figure FDA0004148899150000021
初始化惩罚因子τ(0),定义容许误差ε和惩罚因子的递减系数μ,迭代循环求解(14)得到
Figure FDA0004148899150000022
并在每次循环中通过τ(k+1)=τ(k)×μ更新惩罚因子,直至(Un+1)τ(k)<ε结束迭代,其中,(Un+1)表示基站n能够提供的用户设备总量;针对n,得到用户设备在服务器n上的计算资源分配策略集;
所述遗传算法的步骤包括:进行染色体编码和初始化种群;定义适应度函数,执行选择操作;执行交叉和变异操作。
2.根据权利要求1所述的多基站多服务器场景下的任务卸载和资源调度方法,其特征在于,还包括:
基于所述计算资源确定所述计算任务在所述边缘服务器上的执行时间和能量消耗。
3.根据权利要求1所述的多基站多服务器场景下的任务卸载和资源调度方法,其特征在于,预设结束迭代条件为:所述基站能够提供的用户设备总量与惩罚因子的积小于预设的容忍误差。
4.根据权利要求1所述的多基站多服务器场景下的任务卸载和资源调度方法,其特征在于,所述基于计算资源分配的结果采用遗传算法得到信道资源分配结果和基站选择结果,具体包括:
基于计算资源分配的结果采用遗传算法进行不少于一千次迭代得到信道资源分配结果和基站选择结果。
5.一种多基站多服务器场景下的任务卸载和资源调度装置,其特征在于,包括:
接收模块,用于边缘服务器接收由用户设备发送的需要卸载到基站处理的计算任务;其中,所述基站与所述边缘服务器具有一一对应的关系;
第一计算模块,用于基于所述计算任务,所述边缘服务器将分配与所述计算任务相应的计算资源;其中,所述计算资源为通过设置惩罚因子、容忍误差和惩罚因子递减系数,并使用牛顿内点法进行迭代求解直至满足预设结束迭代条件时确定的计算资源分配结果;
第二计算模块,用于基于计算资源分配的结果采用遗传算法得到信道资源分配结果和基站选择结果;
确定模块,用于根据所述计算资源分配结果确定任务卸载和计算资源调度策略,根据信道资源分配结果和基站选择结果确定信道资源调度策略;
其中,所述基站选择结果、信道资源分配结果和计算资源分配结果作为三个变量指标,进行系统成本优化,系统成本优化的目标函数的形式化表达为:
Figure FDA0004148899150000031
ξ表示权衡参数,0≤ξ≤1,T表示所有任务的执行时间,E表示系统总能耗;
所述目标函数中关于计算资源分配的子问题表示为:
Figure FDA0004148899150000032
其中,
Figure FDA0004148899150000036
表示完成卸载至基站n上所有计算任务un所需要的CPU周期数,/>
Figure FDA0004148899150000033
表示用户设备n的CPU频率,ρe表示与基站服务器硬件结构相关的一定值参数;
运用牛顿内点法依据变量计算资源c的约束条件,定义对数惩罚函数φ(c),从而将子问题转化为无约束优化问题:
Figure FDA0004148899150000034
τ(k)为牛顿内点法中定义的惩罚因子,对所述无约束优化问题进行关于c求导可以得到
Figure FDA0004148899150000035
初始化惩罚因子τ(0),定义容许误差ε和惩罚因子的递减系数μ,迭代循环求解(14)得到
Figure FDA0004148899150000041
并在每次循环中通过τ(k+1)=τ(k)×μ更新惩罚因子,直至(Un+1)τ(k)<ε结束迭代,其中,(Un+1)表示基站n能够提供的用户设备总量;针对n,得到用户设备在服务器n上的计算资源分配策略集;
所述遗传算法的步骤包括:进行染色体编码和初始化种群;定义适应度函数,执行选择操作;执行交叉和变异操作。
6.根据权利要求5所述的多基站多服务器场景下的任务卸载和资源调度装置,其特征在于,还包括:
确定执行时间和能耗模块,用于基于所述计算资源确定所述计算任务在所述边缘服务器上的执行时间和能量消耗。
7.根据权利要求5所述的多基站多服务器场景下的任务卸载和资源调度装置,其特征在于,所述第一计算模块中的预设结束迭代条件为:所述基站能够提供的用户设备总量与惩罚因子的积小于预设的容忍误差。
8.根据权利要求5所述的多基站多服务器场景下的任务卸载和资源调度装置,其特征在于,所述第二计算模块,具体用于:
基于计算资源分配的结果采用遗传算法进行不少于一千次迭代得到信道资源分配结果和基站选择结果。
9.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1~4任一项所述的多基站多服务器场景下的任务卸载和资源调度方法。
10.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1~4任一项所述的多基站多服务器场景下的任务卸载和资源调度方法。
CN202110931472.9A 2021-08-13 2021-08-13 多基站多服务器场景下的任务卸载和资源调度方法及装置 Active CN113709817B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110931472.9A CN113709817B (zh) 2021-08-13 2021-08-13 多基站多服务器场景下的任务卸载和资源调度方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110931472.9A CN113709817B (zh) 2021-08-13 2021-08-13 多基站多服务器场景下的任务卸载和资源调度方法及装置

Publications (2)

Publication Number Publication Date
CN113709817A CN113709817A (zh) 2021-11-26
CN113709817B true CN113709817B (zh) 2023-06-06

Family

ID=78652637

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110931472.9A Active CN113709817B (zh) 2021-08-13 2021-08-13 多基站多服务器场景下的任务卸载和资源调度方法及装置

Country Status (1)

Country Link
CN (1) CN113709817B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114727336B (zh) * 2022-04-21 2024-04-12 中国联合网络通信集团有限公司 一种卸载策略确定方法、装置、电子设备及存储介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107734558A (zh) * 2017-10-26 2018-02-23 北京邮电大学 一种基于多服务器的移动边缘计算控制及资源调度方法
CN107846704A (zh) * 2017-10-26 2018-03-27 北京邮电大学 一种基于移动边缘计算的资源分配及基站服务部署方法
CN109089272A (zh) * 2018-09-21 2018-12-25 浙江工业大学 在多基站场景中的基于非正交多址接入的移动边缘计算布伦特式时延优化方法
CN109814951A (zh) * 2019-01-22 2019-05-28 南京邮电大学 移动边缘计算网络中任务卸载及资源分配的联合优化方法
CN110062026A (zh) * 2019-03-15 2019-07-26 重庆邮电大学 移动边缘计算网络中资源分配和计算卸载联合优化方案
CN110446217A (zh) * 2019-07-26 2019-11-12 浙江大学 一种基于laa蜂窝系统的分布式资源分配方法
CN111372314A (zh) * 2020-03-12 2020-07-03 湖南大学 基于移动边缘计算场景下的任务卸载方法及任务卸载装置
CN111836283A (zh) * 2020-07-03 2020-10-27 重庆邮电大学 一种基于mec多服务器的车联网资源分配方法
CN111930436A (zh) * 2020-07-13 2020-11-13 兰州理工大学 一种基于边缘计算的随机型任务排队卸载优化方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10440096B2 (en) * 2016-12-28 2019-10-08 Intel IP Corporation Application computation offloading for mobile edge computing
US10757757B2 (en) * 2018-09-28 2020-08-25 Intel Corporation MEC-based distributed computing environment with multiple edge hosts and user devices

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107734558A (zh) * 2017-10-26 2018-02-23 北京邮电大学 一种基于多服务器的移动边缘计算控制及资源调度方法
CN107846704A (zh) * 2017-10-26 2018-03-27 北京邮电大学 一种基于移动边缘计算的资源分配及基站服务部署方法
CN109089272A (zh) * 2018-09-21 2018-12-25 浙江工业大学 在多基站场景中的基于非正交多址接入的移动边缘计算布伦特式时延优化方法
CN109814951A (zh) * 2019-01-22 2019-05-28 南京邮电大学 移动边缘计算网络中任务卸载及资源分配的联合优化方法
CN110062026A (zh) * 2019-03-15 2019-07-26 重庆邮电大学 移动边缘计算网络中资源分配和计算卸载联合优化方案
CN110446217A (zh) * 2019-07-26 2019-11-12 浙江大学 一种基于laa蜂窝系统的分布式资源分配方法
CN111372314A (zh) * 2020-03-12 2020-07-03 湖南大学 基于移动边缘计算场景下的任务卸载方法及任务卸载装置
CN111836283A (zh) * 2020-07-03 2020-10-27 重庆邮电大学 一种基于mec多服务器的车联网资源分配方法
CN111930436A (zh) * 2020-07-13 2020-11-13 兰州理工大学 一种基于边缘计算的随机型任务排队卸载优化方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
陈昕, 温向明, 王鲁晗, 路兆铭."5G 中多接入边缘计算的联合部署架构设计".《北京邮电大学学报》.2018,第第41卷卷(第第5期期),全文. *

Also Published As

Publication number Publication date
CN113709817A (zh) 2021-11-26

Similar Documents

Publication Publication Date Title
CN107995660B (zh) 支持d2d-边缘服务器卸载的联合任务调度及资源分配方法
CN111372314A (zh) 基于移动边缘计算场景下的任务卸载方法及任务卸载装置
CN111586720A (zh) 一种多小区场景下的任务卸载和资源分配的联合优化方法
CN109756912B (zh) 一种多用户多基站联合任务卸载及资源分配方法
CN112105062B (zh) 时敏条件下移动边缘计算网络能耗最小化策略方法
CN111182570A (zh) 提高运营商效用的用户关联和边缘计算卸载方法
WO2012145192A1 (en) Method of scheduling and admission control for guaranteed bit rate and/or maximum bit rate services
CN111200831B (zh) 一种融合移动边缘计算的蜂窝网络计算卸载方法
CN112272102B (zh) 边缘网络业务卸载和调度方法及装置
CN112204913B (zh) 多路访问通信系统中对子带的用户分发
CN104509019A (zh) 无线通信网络传输的基于表的链路自适应
Jiang et al. Brain storm optimization-based edge caching in fog radio access networks
CN114885418A (zh) 5g超密集网络中任务卸载及资源分配的联合优化方法、装置及介质
CN113709817B (zh) 多基站多服务器场景下的任务卸载和资源调度方法及装置
CN115396953A (zh) 移动边缘计算中一种基于改进粒子群算法的计算卸载方法
CN114697333A (zh) 一种能量队列均衡的边缘计算方法
CN116089091A (zh) 基于物联网边缘计算的资源分配和任务卸载方法
Ye et al. Balanced multi-access edge computing offloading strategy in the Internet of things scenario
Ye et al. Genetic algorithm based spectrum assignment model in cognitive radio networks
CN113342504A (zh) 基于缓存的智能制造边缘计算任务调度方法及系统
KR20150069496A (ko) 다중 라디오 환경에서 에너지 효율이 높은 파라미터 선택 방법 및 장치
CN110809893A (zh) 用于无线通信的电子设备和方法
Moallemi et al. An evolutionary-based algorithm for smart-living applications placement in fog networks
Zhou et al. Context-aware learning-based resource allocation for ubiquitous power IoT
Ye et al. Genetic spectrum assignment model with constraints in cognitive radio networks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant