CN115551105B - 基于5g网络边缘计算的任务调度方法、装置和存储介质 - Google Patents

基于5g网络边缘计算的任务调度方法、装置和存储介质 Download PDF

Info

Publication number
CN115551105B
CN115551105B CN202211130620.8A CN202211130620A CN115551105B CN 115551105 B CN115551105 B CN 115551105B CN 202211130620 A CN202211130620 A CN 202211130620A CN 115551105 B CN115551105 B CN 115551105B
Authority
CN
China
Prior art keywords
network
training
energy consumption
data
working
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211130620.8A
Other languages
English (en)
Other versions
CN115551105A (zh
Inventor
屈定春
林维超
顾新华
吴颖康
潘文晓
王栋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Gongcheng Management Consulting Co ltd
Original Assignee
Gongcheng Management Consulting Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gongcheng Management Consulting Co ltd filed Critical Gongcheng Management Consulting Co ltd
Priority to CN202211130620.8A priority Critical patent/CN115551105B/zh
Publication of CN115551105A publication Critical patent/CN115551105A/zh
Application granted granted Critical
Publication of CN115551105B publication Critical patent/CN115551105B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W72/00Local resource management
    • H04W72/12Wireless traffic scheduling
    • H04W72/1263Mapping of traffic onto schedule, e.g. scheduled allocation or multiplexing of flows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5072Grid computing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

本发明涉及一种基于5G网络边缘计算的任务调度方法、装置和存储介质,包括:获取设定网络的工作数据;根据所述工作数据构造训练样本集,其中所述训练样本集包括输入样本和输出样本,所述输入样本包括与可用资源量和能耗相关的工作参数,所述输出样本为网络的服务质量达到理想条件时的任务调度的控制参数的目标值;利用所述训练样本集训练神经网络,即可根据训练好的神经网络和实际的工作参数确定控制参数,进而将所述控制参数用于对5G网络边缘计算的任务调度。

Description

基于5G网络边缘计算的任务调度方法、装置和存储介质
技术领域
本发明一般地涉及通信领域。更具体地,本发明涉及一种基于5G网络边缘计算的任务调度方法、装置和存储介质。
背景技术
随着物联网、5G通信以及人工智能的快速发展,在终端设备呈现爆发式增长的同时,大量新型应用、服务也涌现出来,比如在线游戏、超高清视频及增强现实。一方面,这些应用以及设备产生的大量各式各样的数据需要大量资源来处理;另一方面,终端设备由于物理尺寸及能量开销的限制,资源有限。为了缓解该矛盾,移动云计算被提出。移动云计算允许终端设备将计算繁重的计算任务卸载到资源丰富的云端服务器。但由于云端服务器一般距离终端设备较远,加之不稳定的无线连接和匮乏的频谱资源等因素,移动云计算无法满足很多应用所必需的高可靠、低时延的要求。
有人提出将移动设备(本地终端)的计算任务卸载(offloading)到核心网进行处理,即移动云计算(MCC),此处的卸载指的是将移动设备的计算任务分配给MEC或核心网进行处理。移动云计算可以帮助移动终端解决无法处理的任务,并且降低了移动用户的能量消耗,延长了电池的使用寿命。移动边缘计算就是将MEC服务器部署在基站的(BS)的附近,为用户提供数据缓存和计算卸载等业务,MEC是5G通信网络的关键技术之一。
由于边缘服务器的资源也是有限的,当多个任务竞争使用边缘服务器的资源时,则需要对多个任务所需要的资源进行合理分配。为此,需要对任务进行调度,将任务分配到本地节点、MEC服务器或者核心网,以保证任务的执行效率和网络延迟符合要求。现有的任务调度方法,一般需要根据推导出的物理模型计算出用于调度的控制参数,而这些物理模型则需要将其中的物理量进行取舍和解耦,而进行物理建模则是较为困难的,而且网络的实际工作环境非常复杂,而不同的工作环境所需要的控制参数可能并不相同,因此如何获取控制参数以实现良好的网络质量成为一个需要解决的问题。
发明内容
本发明提供一种基于5G网络边缘计算的任务调度方法,用于解决现有技术中用于调度的控制参数不易获取的问题。同时本发明还提供了一种基于5G网络边缘计算的任务调度装置和存储介质。
为解决上述问题,根据本发明的第一方面,提供了如下技术方案:一种基于5G网络边缘计算的任务调度方法,获取设定网络的工作数据;根据所述工作数据构造训练样本集,其中所述训练样本集包括输入样本和输出样本,所述输入样本包括与可用资源量和能耗相关的工作参数,所述输出样本为网络的服务质量达到理想条件时的任务调度的控制参数的目标值;利用所述训练样本集训练神经网络,并且输出与所述输出样本匹配的训练结果,以得到训练好的神经网络;实时采集网络的工作数据,输入到所述训练好的神经网络,从而确定用于任务调度的控制参数。
在一个实施例中,所述输入样本包括:在给定的可用资源量下,一个或者多个节点的能耗数据。
在一个实施例中,所述节点的能耗数据通过在设定网络中采集以获取,节点的能耗数据在最大值和最小值之间周期性地变化,以呈现出多个工作循环。
在一个实施例中,获取设定网络的工作数据包括:在一个工作循环中获取工作数据,或者从多个工作循环中获取工作数据并且拼接到一个工作循环中。
在一个实施例中,所述输入样本还包括:一个或者多个节点的剩余资源,以及一种或者多种环境参数,其中所述环境参数包括网络延迟。
在一个实施例中,所述输入样本为达到预设条件的数据点,其中所述预设条件包括:在指定的资源量下,总能耗最大;或者,在指定的资源量下,总能耗比例达到预定值;或者,在指定的资源量下,时间消耗增量与总能耗增量之比达到最大值。
在一个实施例中,所述控制参数包括:每个节点的本地计算量、MEC服务器计算量和核心网计算量的权重比。
在一个实施例中,利用所述训练样本集训练神经网络包括:将所述输入样本输入到所述神经网络,得到所述神经网络的训练输出值,以完成一次正向训练;响应于正向训练完成,更新所述神经网络的网络权重,以完成一次反向训练;迭代地进行正向训练和反向训练;响应于所述训练输出值与输出样本之间的误差不大于所述设定误差阈值,或者正向训练次数不小于设定次数,则所述训练完成。
根据本申请的第二方面,提供了一种基于5G网络边缘计算的任务调度装置,包括处理器和存储器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现本发明第一方面任一项所述的方法。
根据本申请的第三方面,提供了一种计算机可读存储介质,其中存储有计算机程序,所述计算机程序被执行时实现本发明第一方面任一项所述的方法。
根据本发明的方法,不论网络的实际工作环境多么复杂,通过收集数据工作数据和理想状态下的控制参数,并且进行神经网络训练,最终得到一个训练好的神经网络;根据训练结果,即可由实际工作参数得到合适的用于调度的控制参数,从而保证了在任何工作环境下的网络质量,解决了现有技术中用于调度的控制参数难以获取的问题。
附图说明
通过参考附图阅读下文的详细描述,本发明示例性实施方式的上述以及其他目的、特征和优点将变得易于理解。在附图中,以示例性而非限制性的方式示出了本发明的若干实施方式,并且相同或对应的标号表示相同或对应的部分,其中:
图1展示了根据本发明的方法的场景示意图;
图2展示了根据本发明的基于5G网络边缘计算的任务调度方法流程图;
图3展示了某个节点的工作数据示意图;
图4展示了根据本发明方法的示意图;
图5展示了根据本发明的神经网络训练方法流程示意图;
图6展示了根据训练好的神经网络获取控制参数的流程示意图;
图7展示了根据本发明实施方式的装置的示意框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,本领域技术人员应知,下面所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1展示了根据本发明的方法的场景示意图如图1所示,在基站A的覆盖范围内,存在移动节点a、移动节点b以及移动节点c。移动节点a、移动节点b以及移动节点c与基站A建立通讯连接后,可以将计算任务全部或部分卸载到基站A所属的MEC服务器进行计算,并接受MEC服务器的计算结果。同理,图1还示出了,移动节点a、移动节点b还位于基站B的覆盖范围,因此,也可以与基站B建立通讯连接。移动节点a还位于基站C的覆盖范围,因此,也可以与基站C建立通讯连接。其中,基站A、基站B、基站C可以连接的移动节点的最大数量为Q,基站A、基站B、基站C共用带宽为B,假设所有移动节点已完成上行发射功率分配。
下面具体阐述本发明的方法。如图2所示,本发明的方法包括步骤S201至步骤S204,下面具体进行说明。
在步骤S201中,获取网络的工作数据。其中所述工作数据包括网络运行中产生的运行数据,也包括根据运行数据加工、统计得到的数据(下文具体进行说明)。
在步骤S202中,根据工作数据构造训练样本集,其中所述训练样本集包括输入样本和输出样本,所述输入样本包括与一个或者多个节点的能耗相关的工作参数,所述输出样本包括任务调度的控制参数的目标值。
下面具体说明步骤S201和步骤S202中涉及的输入样本和输出样本。首先介绍获取输入样本的方法。
在一个实施例中,可以在如图1所示的网络中进行,例如在网络中不断增加任务,以验证网络的处理能力,进而从网络的工作数据中采集多个数据点,并得到每个数据点所对应的输入样本。图3展示了一个节点的工作数据。其中的节点是指例如图1中的移动节点a、移动节点b或者移动节点c。
对于一个节点而言,一开始任务量较少,该节点可以自行处理,不需要进行计算任务卸载。这是由于,如果进行计算任务卸载,还会产生网络延迟(本发明实施例中可以包括无线传输延迟和光纤传输延迟)和其他消耗,影响网络整体性能。随着该节点能耗逐渐增加,节点会将计算任务逐渐转移(节点可以依照一般算法进行处理),例如将计算任务卸载到核心网和MEC服务器;此时本地节点的能耗将会逐渐减少。其中,如图3所示,可以给本地节点设置上限能耗pmax和下限能耗pmin。也就是说,本地节点的能耗不能低于下限能耗pmin,同时不能高于上限能耗pmax;因此本地节点的工作数据波形在上限能耗pmax和下限能耗pmin之间不断往复变化。
作为举例,图3展示了I、II和III三个工作循环,从图3中可以看到,每个工作循环的波形呈现尖峰状,即在一个工作循环中,能耗从下限能耗pmin逐渐增加,在达到上限能耗pmax后再下降到下限能耗pmin。工作数据呈现这种变化的原因是在处理任务的过程中,随着任务量不断增加,本地节点的运算能力和网络的运算能力达到平衡。上述工作循环是不断呈现的,例如图3中依次出现了I、II和III三个工作循环。需要说明的是,每个工作循环的波形仅仅是类似,而不是相同,因此工作循环的说法不应理解为严格的数学周期,本发明中采用工作循环的说法仅是为了方便表达以下意思:波形呈现周期性变化并且具有相类似的特征。
如图3所示,其中横轴表示时间t,纵轴表示本节点的能耗,工作数据波形表示在整个网络处理计算任务时一个节点的能耗随着时间往复变化的过程。一个节点可以是图1中的移动节点a、移动节点b或者移动节点c。需要注意的是,图3中仅示出了能耗参数,而实际上,整个网络所包含的工作数据还可以包含更多类型的工作参数。
具体地,可以在一个或者多个工作循环中按照设定的时间间隔采集数据点。如表1所示为一种输入样本的例子。
表1
表1中包括四个条目,每个条目表示一个数据点,对应于一个输入样本。其中每个数据点包括两个工作参数,即资源量z和能耗p。其中,z1、z2、z3和z4表示可用资源量的数据,z1、z2、z3和z4的顺序表示的资源量大小是单调变化的。其中,可用资源量可以是当前整个网络可供支配的运算能力,例如,可用资源量可用通过总的资源量减去已经使用的资源量进行计算。所述资源量可以通过现有技术的标准来测定(例如根据CPU使用占比),本发明不再赘述。p(I-1)、p(I-2)、p(I-3)和p(I-4)表示某个节点能耗数据(例如当前对象为移动节点a,则能耗则表示为移动节点a的能耗数据)。表1中p(I-1)、p(I-2)、p(I-3)和p(I-4)中括号内用“I”表示工作循环I,也就是说,表1中的数据点全部来自于工作循环I。
同理,表2表示从工作循环II所对应的工作数据中采集了多个数据点,并得到每个数据点所对应的输入样本。表2中p(II-1)、p(II-2)、p(II-3)和p(II-4)中括号内用“II”表示工作循环II。表3表示从工作循环III所对应的工作数据中采集了多个数据点,并得到每个数据点所对应的输入样本。表3中p(III-1)、p(III-2)、p(III-3)和p(III-4)中括号内用“III”表示工作循环III。
表2
z1 p(II-1)
z2 p(II-2)
z3 p(II-3)
z4 p(II-4)
表3
z1 p(III-1)
z2 p(III-2)
z3 p(III-3)
z4 p(III-4)
总结来说,表1表示工作循环I的一组数据点,表2表示工作循环II的一组数据点,表3表示工作循环III的一组数据点,进而得到多个数据点所对应的输入样本。也就是说,在本发明的一个实施例中,可以从一个工作循环所对应的工作数据中采集多个数据点,并得到每个数据点所对应的输入样本。
可替换地,在本发明的另一实施例中,除了在同一个工作循环中采集数据点以得到输入样本,还可以从多个工作循环中选取多个数据点,并将这些工作数据点拼接到一个工作循环内,得到一个工作循环所对应的多个数据点。
表4
z1 p(I-1)
z2 p(I-2)
z3 p(II-3)
z4 p(III-4)
例如,表4所示的每个条目对应一个数据点。第一条目和第二条目对应的数据点来自于工作循环I,第三条目对应的数据点来自于工作循环II,第四条目对应的数据点来自于工作循环III。也就是说,可以在工作循环I中选取了两个数据点[z1,p(I-1)]和[z2,p(I-2)],在工作循环II中选取了一个数据点[z3,p(II-3)],在工作循环III中选取了一个数据点[z4,p(III-4)],这四个数据点在资源量的维度上看是连续的,因此可以理解为:这四个数据点被拼接到一个工作循环内,从而得到一个工作循环所对应的多个数据点。
下面说明输入样本的选取规则,即图3中数据点的选取规则。所述选取规则包括:输入样本为满足预设条件的数据点,即工作参数达到预设条件的数据点。例如,表1中,[z1,p(I-1)]、[z2,p(I-2)]、[z3,p(I-3)]、[z4,p(I-4)]为符合预设条件的数据点。同理,表2中,[z1,p(II-1)]、[z2,p(II-2)]、[z3,p(II-3)]、[z4,p(II-4)]为符合预设条件的数据点。表3中,[z1,p(III-1)]、[z2,p(III-2)]、[z3,p(III-3)]、[z4,p(III-4)]为符合预设条件的数据点。
然而,在另一些应用场景中,可能出现一种情况,即一个单独的工作循环中,没有符合要求的数据点。例如,在工作循环I中,可用资源量z1对应的能耗数据可能无法达到预设条件。然而,在工作循环II中,可用资源量z1对应的能耗数据却可以达到预设条件。故而,可以考虑将不同的工作循环中的工作数据组合起来;这即是表4所示实施方式的由来。也就是说,在工作循环I中选取两个数据点[z1,p(I-1)]和[z2,p(I-2)],在工作循环II中选取一个数据点[z3,p(II-3)],在工作循环III中选取一个数据点[z4,p(III-4)],这四个数据点均达到预设条件。
作为举例,预设条件可以包括如下情况,第一、在指定的资源量下,总能耗最大;其中,总能耗可以表示为节点能耗、MEC服务器能耗和核心网的能耗之和;而且所述节点能耗既可以是单个节点能耗,也可以是多个节点能耗。第二、在指定的资源量下,总能耗比例达到预定值,总能耗比例可以表示为(节点实际能耗+MEC服务器实际能耗+核心网实际能耗)/(节点最大能耗+MEC服务器最大能耗+核心网最大能耗)。第三、在指定的资源量下,时间消耗增量与总能耗增量之比达到最大值(相当于边际收益达到最大,对所有用户的体验最佳),其中,时间消耗包括节点的运算时间、MEC服务器运算时间与网络总延迟(由于核心网的运算时间极快,本实施例中忽略不计)。
例如表4中,选择工作数据点[z1,p(I-1)]的原因可以是工作数据点[z1,p(I-1)]对应的总资源能耗最大;或者是工作数据点[z1,p(I-1)]对应的总能耗比例达到预定值;或者是与周围的工作数据点相比,工作数据点[z1,p(I-1)]的边际收益最大。
以上实施例中,输入样本包括资源量数据和能耗数据。在其他实施例中,输入样本也可以包括更多类型的参数。作为举例,输入样本还可以包括:网络延迟和一个节点的剩余资源。例如,输入样本包括:网络的可用资源量、节点能耗、网络延迟和节点剩余资源量。
在另一个实施例中,考虑到网络中涉及多个节点,因此还可以在输入样本中其他节点的相关工作数据,例如,输入样本可以包括:网络的可用资源量、节点1的能耗、节点2的能耗……网络延迟。又如,输入样本还可以包括:网络的可用资源量、节点1的能耗、节点2的能耗……网络延迟、节点1的剩余资源量、节点2的剩余资源量……
总结来说,由于网络中还包括核心网和MEC服务器,因此也可以加入核心网和MEC服务器的能耗数据等工作参数。需要说明的是,由于从任意一个节点出发,均能够反映整个网络的情况,而增加不同节点、核心网和MEC服务器的工作参数,会导致整个输入样本的维度不断增加,降低后续的训练效率,因此本发明建议选取若干个节点的工作数据加入到输入样本中即可,即可以保证训练效果,也可以保证训练效率。
再者,输入样本中可以加入环境参数,例如上述网络延迟即可以理解为一种环境参数。进一步地,输入样本中还可以加入其他类型的环境参数。
以上详细介绍了输入样本,下面详细介绍输出样本。所述输出样本为理想条件下的控制参数,即控制参数目标值。其中理想条件为网络的服务质量较为理想的情况,例如,可以利用网络延迟情况作为衡量服务质量的标准,理想状态也可以以其他因素作为标准,例如以带宽作为标准,或者以总能耗比例作为标准,或者是以这些因素综合到一起作为标准。
作为举例,总能耗比例可以表示为(节点实际能耗+MEC服务器实际能耗+核心网实际能耗)/(节点最大能耗+MEC服务器最大能耗+核心网最大能耗)达到预定比例,所述预定比例可以是既能够保证网络内的设备充分运转,又能够保证网络具有一定的裕量。例如,预定比例可以是78%(该预定比例可以根据实际需要进行设定),从而保证网络设备较为充分地运转,以保证资源利用的效率,同时还能够在网络中出现流量尖峰时提供可靠地保障。
上文在介绍输入样本时指出,输入样本为符合预设条件的数据点。因此所述理想条件与上述预设条件可以是一致的(也可以不一致)。例如,理想条件也可以是在指定的可用资源量下,时间消耗增量与总能耗增量之比达到最大值。
在一个实施例中,所述输出样本包括任务调度的一个或多个控制参数的目标值。例如,所述控制参数可以是每个节点的本地计算量、MEC服务器计算量和核心网计算量的权重比。作为举例,对于每个节点而言,可能产生三种调度操作,第一是由本地计算,第二是卸载到MEC服务器,第三是卸载到核心网。
表5
本地计算 卸载到MEC服务器 卸载到核心网
权重比 30% 50% 20%
总任务量(20) 6 10 4
如表5所示,假设为某个节点分配的权重比为30%:50%:20%,也就是说,本地计算、卸载到MEC服务器,卸载到核心网的任务量的比率是30%:50%:20%。其中,任务量是按照所消耗资源的量来衡量的,例如,假设一个消耗资源量为A的任务量为1,那么消耗资源量为2A的任务量定为2,依次类推。因此,在表5中,对于总任务量20,按照权重比,将为本地计算、卸载到MEC服务器,卸载到核心网分配的任务量分别为6、10和4。其中,总任务量可用是一个时间片内的总任务量。
上述技术方案中,采用权重比作为任务调度的控制参数,在其他实施例中,也可以采用其他类型的控制参数。
进一步地,在步骤S202中,在构建测试数据集的同时还可以构建验证数据集。从而可以在得到训练好的神经网络后,还可以利用所述验证数据集对得到的已训练神经网络进行验证。如图5所示出的,最右侧的框体即表示对训练结果进行检验;在本实施例中,即可通过验证数据集对训练结果进行验证。
在步骤S203中,利用所述训练样本集训练神经网络,并且输出与所述输出样本匹配的训练结果,以便根据所述训练结果确定所述任务调度的控制参数。
其中,训练好的神经网络主要包括训练好的神经网络的网络权重。而网络权重则可以在训练好的神经网络中提取得到,神经网络的结构则可以参考现有技术进行构建,而且神经网络的结构是预先确定的。一般地,神经网络模型包含三个部分:input layer(输入层)、hidden layer(中间层或隐藏层)、output layer(输出层)。
本发明可选择的神经网络模型很多,例如常见的BP神经网络(属于多层前馈网络),RBF网络(径向基函数网络,也属于多层前馈网络),Hopfield网络(联想记忆网络,属于单层反馈非线性网络,是一种全连接型的神经网络)等。另外,本发明的神经网络模型还可以选择RNN循环神经网络,递归神经网络和CNN卷积神经网络等。
图4展示了根据本发明的神经网络训练方法流程示意图。下面具体进行说明。首先,构建出训练样本集。然后,可以在其中选取部分样本构建测试数据集(在构建测试数据集的同时还可以构建验证数据集,可以对得到的已训练神经网络进行验证)。接着根据输入样本和对应的输出样本对神经网络进行训练。将所述输入样本输入到所述神经网络,得到所述神经网络的训练输出值,以完成一次正向训练。判断所述训练输出值与对应的输出样本之间的误差值是否不大于设定误差阈值,或者正向训练次数是否不小于设定次数。判断训练是否完成(训练输出值与对应的输出样本之间的误差值和正向训练次数都可以作为训练是否完成的标准),则更新神经网络的网络权重,以完成一次反向训练。若训练输出值与对应的输出样本之间的误差值小于设定误差阈值,或者正向训练次数达标,则已达到训练目标,完成神经网络的训练过程,得到训练结果。
图5展示了根据本发明方法的示意图。如图5所示,在网络的运行过程中,采集网络的工作参数,然后根据采集到的工作参数(例如各种时间消耗和能量消耗),以及控制参数的目标值(例如调度目标,该调度目标可以是设定好的,所对应的总成本最小),构造训练样本集。根据训练样本集训练神经网络,最终获得训练过的神经网络。另外,还可以对训练结果不断进行评估,进而可以持续地调整神经网络的网络权重,该神经网络即可直接用于控制参数的推断。
在步骤S204中,实时采集网络的工作数据,输入到所述训练好的神经网络,从而确定用于任务调度的控制参数。
具体地,图6展示了在实际工作中进行任务调度的方法。其中包括步骤S601至步骤S603。
在步骤S601中,采集网络的实时工作参数。
在步骤S602中,根据训练结果(例如上述已经训练好的神经网络)得到对应的用于任务调度的控制参数,例如,网络可以为每个移动节点分配相应的权重比作为所述控制参数。
表6
移动节点a 本地计算 卸载到MEC服务器 卸载到核心网
权重比 20% 50% 30%
总任务量(10) 2 5 3
表7
移动节点b 本地计算 卸载到MEC服务器 卸载到核心网
权重比 10% 50% 40%
总任务量(20) 2 10 8
如图表6所示,在一个时间片中,移动节点a分配的权重比为20%:50%:30%,也就是说,本地计算、卸载到MEC服务器,卸载到核心网的任务量的比率是20%:50%:30%。因此,在该时间片中,若接收到的总任务量为10,那么按照表6所示的权重比,将为本地计算、卸载到MEC服务器,卸载到核心网分配的任务量分别为2、5和3。
如图表7所示,在一个时间片中,移动节点b分配的权重比为10%:50%:40%,也就是说,本地计算、卸载到MEC服务器,卸载到核心网的任务量的比率是10%:50%:40%。因此,在该时间片中,若接收到的总任务量为20,那么按照表7所示的权重比,将为本地计算、卸载到MEC服务器,卸载到核心网分配的任务量分别为2、10和6。
其中,可以在每个时间片分别为各个节点分配控制参数(即上述权重比),也可以每隔若干个时间片为各个节点分配控制参数(例如,每10个时间片为各个节点重新分配一次权重比)。
再者,每个时间片的长度可以是相同的,例如每个时间片设置为100ms,200ms或者250ms。或者可以设置一组时间片进行循环,一组时间片内的每个时间片的长度可以不同,例如可以分配一组共五个时间片,该组时间片的长度依次为100ms,120ms,140ms,160ms和180ms。
综上所述,根据本发明的方法,不论网络的实际工作环境多么复杂,通过收集数据工作数据和理想状态下的控制参数,并且进行神经网络训练,最终得到一个训练好的神经网络;根据训练结果,即可由实际工作参数得到合适的用于调度的控制参数,从而保证了在任何工作环境下的网络质量,解决了现有技术中用于调度的控制参数难以获取的问题。
根据本发明的第二方面,本发明还提供了一种基于5G网络边缘计算的任务调度装置。图7展示了根据本发明实施方式的装置的示意框图。如图5所示,装置可以包括处理器701和存储器702。其中存储器702存储有执行本发明实施方式所述方法的计算机指令。所述计算机指令由处理器701运行时,使得装置执行前文所描述的方法。
根据本发明的第三方面,本发明又提供了一种计算机可读存储介质,其中存储计算机指令,所述计算机指令由处理器运行时,实现前文所描述的方法。
应当注意,尽管在上文详细描述中提及了基于指示物的指点信息匹配目标的方法的若干步骤,但是这种划分仅仅并非强制性的。实际上,根据本发明的实施方式,上文描述的两个或更多步骤的特征和功能可以在一个步骤中具体化。反之,上文描述的一个步骤的特征和功能可以进一步划分为由多个步骤来具体化。
在本说明书的上述描述中,除非另有明确的规定和限定,术语“固定”、“安装”、“相连”或“连接”等术语应该做广义的理解。例如,就术语“连接”来说,其可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,或者可以是两个元件内部的连通或两个元件的相互作用关系。因此,除非本说明书另有明确的限定,本领域技术人员可以根据具体情况理解上述术语在本发明中的具体含义。
虽然本说明书已经示出和描述了本发明的多个实施例,但对于本领域技术人员显而易见的是,这样的实施例只是以示例的方式提供的。本领域技术人员会在不偏离本发明思想和精神的情况下想到许多更改、改变和替代的方式。应当理解的是在实践本发明的过程中,可以采用本文所描述的本发明实施例的各种替代方案。所附权利要求书旨在限定本发明的保护范围,并因此覆盖这些权利要求保护范围内的模块组成、等同或替代方案。

Claims (9)

1.一种基于5G网络边缘计算的任务调度方法,其特征在于,包括:
获取设定网络的工作数据;
根据所述工作数据构造训练样本集,其中所述训练样本集包括输入样本和输出样本,所述输入样本包括与可用资源量和能耗相关的工作参数,所述输出样本为网络的服务质量达到理想条件时的任务调度的控制参数的目标值;
利用所述训练样本集训练神经网络,并且输出与所述输出样本匹配的训练结果,以得到训练好的神经网络;
实时采集网络的工作数据,输入到所述训练好的神经网络,从而确定用于任务调度的控制参数;
所述输入样本为达到预设条件的数据点,其中所述预设条件包括:在指定的资源量下,总能耗最大;或者,在指定的资源量下,总能耗比例达到预定值;或者,在指定的资源量下,时间消耗增量与总能耗增量之比达到最大值。
2.根据权利要求1所述的方法,其特征在于,所述输入样本包括:
在给定的可用资源量下,一个或者多个节点的能耗数据。
3.根据权利要求2所述的方法,其特征在于,所述节点的能耗数据通过在所述设定网络中采集以获取,节点的能耗数据在最大值和最小值之间周期性地变化,以呈现出多个工作循环。
4.根据权利要求3所述的方法,其特征在于,获取设定网络的工作数据包括:在一个工作循环中获取工作数据,或者从多个工作循环中获取工作数据并且拼接到一个工作循环中。
5.根据权利要求4所述的方法,其特征在于,所述输入样本还包括:一个或者多个节点的剩余资源,以及一种或者多种环境参数,其中所述环境参数包括网络延迟。
6.根据权利要求5所述的方法,其特征在于,所述控制参数包括:每个节点的本地计算量、MEC服务器计算量和核心网计算量的权重比。
7.根据权利要求1所述的方法,其特征在于,利用所述训练样本集训练神经网络包括:
将所述输入样本输入到所述神经网络,得到所述神经网络的训练输出值,以完成一次正向训练;
响应于正向训练完成,更新所述神经网络的网络权重,以完成一次反向训练;
迭代地进行正向训练和反向训练;
响应于所述训练输出值与输出样本之间的误差不大于设定误差阈值,或者正向训练次数不小于设定次数,则所述训练完成。
8.一种基于5G网络边缘计算的任务调度装置,其特征在于,包括处理器和存储器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至7中任一项所述的方法。
9.一种计算机可读存储介质,其特征在于,其中存储有计算机程序,所述计算机程序被执行时实现如权利要求1至7任一项所述的方法。
CN202211130620.8A 2022-09-15 2022-09-15 基于5g网络边缘计算的任务调度方法、装置和存储介质 Active CN115551105B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211130620.8A CN115551105B (zh) 2022-09-15 2022-09-15 基于5g网络边缘计算的任务调度方法、装置和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211130620.8A CN115551105B (zh) 2022-09-15 2022-09-15 基于5g网络边缘计算的任务调度方法、装置和存储介质

Publications (2)

Publication Number Publication Date
CN115551105A CN115551105A (zh) 2022-12-30
CN115551105B true CN115551105B (zh) 2023-08-25

Family

ID=84728482

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211130620.8A Active CN115551105B (zh) 2022-09-15 2022-09-15 基于5g网络边缘计算的任务调度方法、装置和存储介质

Country Status (1)

Country Link
CN (1) CN115551105B (zh)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111158912A (zh) * 2019-12-30 2020-05-15 天津大学 云雾协同计算环境下一种基于深度学习的任务卸载决策方法
CN112668912A (zh) * 2020-12-31 2021-04-16 广东中科能睿信息科技有限公司 人工神经网络的训练方法、动态计算切分调度方法、存储介质及系统
CN113407249A (zh) * 2020-12-29 2021-09-17 重庆邮电大学 一种面向位置隐私保护的任务卸载方法
CN114124955A (zh) * 2021-11-12 2022-03-01 华南师范大学 一种基于多智能体博弈的计算卸载方法
CN114189892A (zh) * 2021-12-15 2022-03-15 北京工业大学 一种基于区块链和集体强化学习的云边协同物联网系统资源分配方法
CN114340016A (zh) * 2022-03-16 2022-04-12 北京邮电大学 一种电网边缘计算卸载分配方法及系统
EP3982299A1 (en) * 2020-10-09 2022-04-13 Naver Corporation Superloss: a generic loss for robust curriculum learning
CN114490057A (zh) * 2022-01-24 2022-05-13 电子科技大学 一种基于深度强化学习的mec已卸载任务资源分配方法
CN114546608A (zh) * 2022-01-06 2022-05-27 上海交通大学 一种基于边缘计算的任务调度方法
CN114567895A (zh) * 2022-02-23 2022-05-31 重庆邮电大学 一种mec服务器集群的智能协同策略的实现方法
CN114585006A (zh) * 2022-03-16 2022-06-03 东北大学 基于深度学习的边缘计算任务卸载和资源分配方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11544498B2 (en) * 2020-03-05 2023-01-03 Google Llc Training neural networks using consistency measures

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111158912A (zh) * 2019-12-30 2020-05-15 天津大学 云雾协同计算环境下一种基于深度学习的任务卸载决策方法
EP3982299A1 (en) * 2020-10-09 2022-04-13 Naver Corporation Superloss: a generic loss for robust curriculum learning
CN113407249A (zh) * 2020-12-29 2021-09-17 重庆邮电大学 一种面向位置隐私保护的任务卸载方法
CN112668912A (zh) * 2020-12-31 2021-04-16 广东中科能睿信息科技有限公司 人工神经网络的训练方法、动态计算切分调度方法、存储介质及系统
CN114124955A (zh) * 2021-11-12 2022-03-01 华南师范大学 一种基于多智能体博弈的计算卸载方法
CN114189892A (zh) * 2021-12-15 2022-03-15 北京工业大学 一种基于区块链和集体强化学习的云边协同物联网系统资源分配方法
CN114546608A (zh) * 2022-01-06 2022-05-27 上海交通大学 一种基于边缘计算的任务调度方法
CN114490057A (zh) * 2022-01-24 2022-05-13 电子科技大学 一种基于深度强化学习的mec已卸载任务资源分配方法
CN114567895A (zh) * 2022-02-23 2022-05-31 重庆邮电大学 一种mec服务器集群的智能协同策略的实现方法
CN114340016A (zh) * 2022-03-16 2022-04-12 北京邮电大学 一种电网边缘计算卸载分配方法及系统
CN114585006A (zh) * 2022-03-16 2022-06-03 东北大学 基于深度学习的边缘计算任务卸载和资源分配方法

Also Published As

Publication number Publication date
CN115551105A (zh) 2022-12-30

Similar Documents

Publication Publication Date Title
CN113242568B (zh) 一种不确定网络环境中的任务卸载和资源分配方法
Li et al. Deep reinforcement learning based computation offloading and resource allocation for MEC
CN110928654B (zh) 一种边缘计算系统中分布式的在线任务卸载调度方法
CN112105062B (zh) 时敏条件下移动边缘计算网络能耗最小化策略方法
CN107682443A (zh) 联合考虑延迟和能量消耗的移动边缘计算系统计算任务的高效卸载方法
CN109002358A (zh) 基于深度强化学习的移动终端软件自适应优化调度方法
CN110708713B (zh) 一种采用多维博弈的移动边缘计算移动端能效优化方法
CN113342409B (zh) 多接入边缘计算系统时延敏感型任务卸载决策方法及系统
CN112988285B (zh) 任务卸载方法和装置、电子设备及存储介质
CN111836284B (zh) 基于移动边缘计算的能耗优化计算、卸载方法和系统
CN111988787B (zh) 一种任务的网络接入和服务放置位置选择方法及系统
KR20230007941A (ko) 에지 컴퓨팅 기반 산업용 사물 인터넷 환경에서 강화학습을 활용한 태스크 오프로딩 방법
Badri et al. A sample average approximation-based parallel algorithm for application placement in edge computing systems
CN113590279A (zh) 一种面向多核边缘计算服务器的任务调度和资源分配方法
Dong et al. Content caching-enhanced computation offloading in mobile edge service networks
CN114025359B (zh) 基于深度强化学习的资源分配与计算卸载方法、系统、设备及介质
CN111158893B (zh) 应用于雾计算网络的任务卸载方法、系统、设备及介质
Li Optimization of task offloading problem based on simulated annealing algorithm in MEC
CN115408072A (zh) 基于深度强化学习的快速适应模型构建方法及相关装置
Li et al. A multi-objective task offloading based on BBO algorithm under deadline constrain in mobile edge computing
Engidayehu et al. Deep reinforcement learning-based task offloading and resource allocation in MEC-enabled wireless networks
CN115551105B (zh) 基于5g网络边缘计算的任务调度方法、装置和存储介质
CN114615705B (zh) 一种基于5g网络下单用户资源分配策略方法
CN114217881B (zh) 任务卸载方法及相关装置
Liu et al. Computation offloading and task scheduling with fault-tolerance for minimizing redundancy in edge computing

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant