CN112511336B - 一种边缘计算系统中的在线服务放置方法 - Google Patents

一种边缘计算系统中的在线服务放置方法 Download PDF

Info

Publication number
CN112511336B
CN112511336B CN202011222597.6A CN202011222597A CN112511336B CN 112511336 B CN112511336 B CN 112511336B CN 202011222597 A CN202011222597 A CN 202011222597A CN 112511336 B CN112511336 B CN 112511336B
Authority
CN
China
Prior art keywords
service
task
time
network
base station
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011222597.6A
Other languages
English (en)
Other versions
CN112511336A (zh
Inventor
刘通
揭潇淦
童维勤
李卫民
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Shanghai for Science and Technology
Original Assignee
University of Shanghai for Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Shanghai for Science and Technology filed Critical University of Shanghai for Science and Technology
Priority to CN202011222597.6A priority Critical patent/CN112511336B/zh
Publication of CN112511336A publication Critical patent/CN112511336A/zh
Application granted granted Critical
Publication of CN112511336B publication Critical patent/CN112511336B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/14Network analysis or design
    • H04L41/145Network analysis or design involving simulating, designing, planning or modelling of a network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/14Network analysis or design
    • H04L41/142Network analysis or design using statistical or mathematical methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/51Discovery or management thereof, e.g. service location protocol [SLP] or web services

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Algebra (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Physics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

本发明涉及一种边缘计算系统中的在线服务放置方法,在一个考虑异构计算任务随机实时到来的边缘计算系统中,将时间分成等长时间片,在考虑边缘服务器有限的存储空间和计算资源的限制下,决定在边缘服务器上放置哪些服务来服务相应的任务,从而最小化完成所有任务的总时延。本发明采用算法包含两个交替的阶段,第一个阶段为服务放置动作的产生,即基站利用深度神经网络选择出最佳的服务放置决策,然后存储下基站和网络的交互过程作为经验。第二阶段为网络训练部分,利用经验回放技术和一个与在线网络结构相同但参数不同的目标网络来训练在线网络的参数。本发明保证在无法获取未来动态信息的和基站资源受限情况下,计算任务的总完成时延最小。

Description

一种边缘计算系统中的在线服务放置方法
技术领域
本发明涉及一种边缘计算系统中的在线服务放置方法,是一种边缘计算系统中最小化到达该系统的任务完成时延的在线服务放置方法,在一个考虑异构计算任务随机实时到来的边缘计算系统中,由于边缘服务器的存储空间和计算资源均有限,无法缓存所有的服务,处理所有的任务,通过决策是否在边缘端即基站缓存每种服务,使得到来的计算任务的总完成时延最小化。
背景技术
随着物联网和5G移动通信技术的发展,各种移动终端设备,诸如智能手机、手表等呈爆发式增长。进而涌现了大批新的网络服务和计算密集型的终端应用,如增强现实、视频流分析等应用。这些新型应用给人们的生活带来了巨大的变化,这些新型应用对数据处理和网络性能的要求越来越高,而且这些应用可能需要非常低的延迟。传统的云计算虽然有丰富的资源和计算能力,然而对于用户来说,云中心距离边缘设备距离较远,大量密集型任务的卸载,可能会造成网络的拥塞以及不小的传输时延使得用户的体验度下降。为了有效解决这些挑战,移动边缘计算(MEC)作为一种新的计算范式被提出,通过将云中心的计算资源和存储资源下沉到边缘服务器,移动基站作为MEC的一种主要形式,具有云计算和存储能力,能够代替云服务器处理终端用户的计算请求。如图1所示,一个5G支持的边缘计算系统由随机到来的大量异构任务、边缘服务器和云服务器组成。由于在边缘服务器上缓存哪些服务决定了可以卸载哪些任务到边缘服务器上执行,且边缘服务器的存储资源和计算资源均有限,不同的服务放置决策会显著影响边缘计算系统的性能。
对于服务放置问题而言,尽量降低所有任务的完成时延提高用户的服务质量是首要目标。不同的服务放置决策会引起不同的服务切换时延,任务处理时延,任务卸载时延。然而,服务放置的决策除了考虑任务完成的总时延外,还考虑边缘服务器存储资源和计算资源的制约。首先,边缘服务器的存储空间和计算能力是有限的。与此同时,考虑到计算任务的异构性(即不同应用产生的计算任务在数据量、计算量等方面具有较大差异)以及在没有完整的未来信息,如随机任务到达和动态网络条件的情况下,很难获得最优的服务放置策略。近年来,虽然有一些相关的工作对边缘计系统中的服务放置问题进行了研究,并提出了一些优化算法,但是它们大多考虑静态环境下离线的服务放置策略设计,或者考虑动态环境下未来的动态信息作为先验知识,去设计一个在线服务放置方法。
发明内容
本发明的目的是针对已有技术的不足,提供一种边缘计算系统中的在线服务放置方法,以实现在边缘计算系统中最小化所有计算任务的完成时延。该方法考虑不同服务提供服务的异构任务的随机到达,网络环境动态变化,没有未来动态信息作为先验知识,以及边缘服务器有限的存储空间和计算能力。
为了达到这个目标,本发明是通过以下技术方案来解决其技术问题的:
一种边缘计算系统中的在线服务放置决策方法,操作步骤如下:
步骤一,为边缘计算系统进行建模;
步骤二,为服务放置决策进行建模;
步骤三,卸载决策问题建模成马尔可夫决策过程;
步骤四,设计基于深度强化学习的在线服务放置算法。
优选地,在所述步骤一中,为边缘计算系统进行建模,考虑一个支持5g的移动边缘计算系统,其中附带服务器的基站充当边缘计算系统中的边缘节点;时间被划分为等长时间片
Figure BDA0002762573220000021
Figure BDA0002762573220000022
大量的异构计算密集型任务实时到达基站
Figure BDA0002762573220000023
云服务器拥有丰富的计算资源且存储所有类型的服务;基站的最大存储空间为smax,最大的CPU频率为fmax;所有的服务类型L={1,2,3…,L},且每种服务的放置需要消耗不同的存储空间sl和不同的CPU频率fl去处理请求该服务的任务。
优选地,在所述步骤二中,为服务放置决策进行建模,每种服务放置决策会导致不同的任务完成总时延,即不同的服务切换时延,任务处理时延,任务卸载时延:
使用一个二进制变量
Figure BDA0002762573220000024
来标示在时间片t内,边缘服务器是否放置服务l;在时间片t内,总的服务放置决策可以用一个向量表示为
Figure BDA0002762573220000025
如果在时间片t内,服务l放置在边缘服务器上,则
Figure BDA0002762573220000026
否则,
Figure BDA0002762573220000027
由于边缘服务器有限的存储空间和计算能力;考虑由不同的服务放置决策引起的服务切换时延、任务处理时延和任务卸载时延,下面对此进行详细描述:
(1)服务切换时延:要将特定服务从远程云服务器迁移到边缘服务器,要花费一定的时间去传输与该服务相关联的数据,它称为服务切换时延;对于服务l,假定其在时间片t内的切换时延为
Figure BDA0002762573220000028
该时间主要取决于放置服务l所需要传输的数据大小和在时间片t时,基站和云服务器之间的网络状况;依据上一个时间片的服务放置决策
Figure BDA0002762573220000029
将当前服务放置决策
Figure BDA00027625732200000210
所引起的服务切换时延表示为如下公式:
Figure BDA00027625732200000211
其中,1{·}是一个指示函数;如果大括号中的条件为真,则指示函数的值为1;否则,它等于零;只有未放置在上一个时间片中但在当前时间片中需要的服务才会引起服务切换时延;
(2)任务处理时延:只有在边缘服务器上有放置对应的服务,该服务对应的任务才在基站得到处理,而其他任务即边缘服务器未放置其对应的服务,只能卸载到远程云服务器上执行;首先分析在边缘服务器上完成一个任务所引起的时延,即任务处理时延;任务的处理时延被定义为从任务到达基站到任务完成的一段时间,包括等待时延和计算时延;对于服务l,因为任务的到达时间和计算时间都服从指数分布,用一个特定的M/M/1队列模型来模拟边缘服务器上任务的执行过程;任务的平均处理时延,在排队论中称为逗留时间用公式表示为:
Figure BDA0002762573220000031
为了使得公式始终有意义,通过卸载额外的任务到远程云服务器来确保任务的服务率即fl/cl大于任务的到达率
Figure BDA0002762573220000032
在时间片t内,由服务放置决策It所引起的总的任务处理时延用公式表示为:
Figure BDA0002762573220000033
(3)任务卸载时延:云服务器拥有所有足够的存储资源存放所有的服务和足够的计算资源处理到达的任务,忽略卸载到云上的任务的处理时延;假设一个任务请求的服务l未放置在边缘服务器上,假设将任务的输入数据传输到云服务器的预期时间定义为任务卸载时延为
Figure BDA0002762573220000034
它取决于输入数据的大小以及在时间片t中基站与云服务器之间的网络状况;在时间片t内,由服务放置决策It所引起的总的任务卸载时延可以用公式表示为:
Figure BDA0002762573220000035
服务放置的目标是在考虑的边缘服务器的存储空间和计算资源限制的情况下,在这个边缘计算系统中,大量实时、异构、计算密集的任务请求实时到达;为基站找到一个最优的服务放置决策,去最小化长期的所有任务的处理时延;
Figure BDA0002762573220000036
Figure BDA0002762573220000037
Figure BDA0002762573220000038
第一个约束意味着放置的服务的存储空间不能超过基站的存储空间大小,第二个约束意味着放置的服务需要的计算能力受到基站计算资源的限制。
优选地,在所述步骤三中,根据上述系统模型,卸载决策问题可建模成马尔可夫决策过程
Figure BDA0002762573220000039
其中
Figure BDA00027625732200000310
为状态空间,
Figure BDA00027625732200000311
为动作空间,
Figure BDA00027625732200000312
为转移概率,
Figure BDA00027625732200000313
为奖励函数,γ∈[0,1]为折扣因子;在每个时间片下,状态表示为
Figure BDA00027625732200000314
这里,Bt表示时间片t时,基站和云服务器之间的网络状况,
Figure BDA0002762573220000041
因此
Figure BDA0002762573220000047
在状态st下采取动作at,基站会收到一个即时奖励rt,定义为在时间片t时,所有任务的总时延,即:rt=-(Ψttt);所述马尔科夫决策模型,原问题转换为策略决策问题,即选择一个最优策略π最大化累计折扣奖励:
Figure BDA0002762573220000042
Figure BDA0002762573220000043
Figure BDA0002762573220000044
优选地,在所述步骤四中,根据上述建模过程,采用基于深度强化学习的在线服务放置算法,其详细步骤如下:
1)服务放置动作的产生:在每个时间片t下,基站首先观察当前边缘计算系统的状态为st,然后把它输入到一个参数记为θ的全连接神经网络中,称为在线网络;该网络输出每个动作的动作价值,最后采用∈-贪心策略以∈的概率随机选择一个动作,以1-∈的概率选择具有最大值的动作,选择的动作at处理完计算任务得到由环境反馈的奖励rt和下一个状态st+1;这一交互过程作为一条经验(st,at,rt,st+1)存放到经验池中;
2)网络训练:根据经验池中的历史经验对在线网络进行训练,更新参数;首先,随机从经验池中采样一批经验,然后把它们输入到在线网络中和另一个与在线网络具有相同结构但参数不同的网络中,称为目标网络;目标网络是用来估计Q值的,帮助在线网络训练参数;拿一个采样的经验sj,aj,rj,sj+1作为一个例子去解释这个训练过程;得到Q值通过像在线网络输入sj和aj,即Qsj,aj;θ;然后向目标网络输入sj+1,然后目标Q值通过贝尔曼方程获得,即:
Figure BDA0002762573220000045
为了降低Q^和Qsj,aj;θ之间的误差,定义一个Loss函数去训练在线网络,即:
Figure BDA0002762573220000046
利用梯度下降算法最小化Loss函数,即对在线网络的参数θ进行更新;为了保持算法的稳定性,对在线网络和目标网络的参数进行异步更新;在线网络在每个训练过程中都进行更新,而目标网络的参数是在在线网络更新后的一段时间片后进行更新。
本发明与现有技术相比较,具有如下显而易见的突出实质性特点和显著的技术进步:
1.本发明在考虑异构计算任务随机实时到来的边缘计算系统中,将时间分成等长时间片,在考虑边缘服务器有限的存储空间和计算资源的限制下,决定在边缘服务器上放置哪些服务来服务相应的任务,从而最小化完成所有任务的总时延;
2.本发明采用算法包含两个交替的阶段,第一个阶段为服务放置动作的产生,即基站利用深度神经网络选择出最佳的服务放置决策,然后存储下基站和网络的交互过程作为经验。第二阶段为网络训练部分,利用经验回放技术和一个与在线网络结构相同但参数不同的目标网络来训练在线网络的参数;
3.本发明保证在无法获取未来动态信息的和基站资源受限情况下,计算任务的总完成时延最小。
附图说明
图1是本发明的程序框图。
图2是一个5G支持的边缘计算系统的示意图。
图3是基于深度强化学习的在线服务放置算法的流程图。
图4是五种算法任务完成的总奖励变化图。
图5是五种算法任务完成的总时延变化图。
具体实施方式
本发明的优选实施例结合附图详述如下:
实施例一
参见图1,一种边缘计算系统中的在线服务放置方法,操作步骤如下:
步骤一,为边缘计算系统进行建模。
步骤二,为服务放置决策进行建模。
步骤三,卸载决策问题建模成马尔可夫决策过程。
步骤四,设计基于深度强化学习的在线服务放置算法。
本实施例通过建模和算法设计,实现在边缘计算系统中最小化所有计算任务的完成时延。
实施例二
本实施例与实施例一基本相同,特别之处如下:
在本实施例中,参加图1和图2,在所述步骤一中,为边缘计算系统进行建模,考虑一个支持5g的移动边缘计算系统,其中附带服务器的基站充当边缘计算系统中的边缘节点;时间被划分为等长时间片
Figure BDA0002762573220000051
大量的异构计算密集型任务实时到达基站
Figure BDA0002762573220000052
Figure BDA0002762573220000053
云服务器拥有丰富的计算资源且存储所有类型的服务;基站的最大存储空间为smax,最大的CPU频率为fmax;所有的服务类型L={1,2,3…,L},且每种服务的放置需要消耗不同的存储空间sl和不同的CPU频率fl去处理请求该服务的任务。
在本实施例中,在所述步骤二中,为服务放置决策进行建模,每种服务放置决策会导致不同的任务完成总时延,即不同的服务切换时延,任务处理时延,任务卸载时延:
使用一个二进制变量
Figure BDA0002762573220000061
来标示在时间片t内,边缘服务器是否放置服务l;在时间片t内,总的服务放置决策可以用一个向量表示为
Figure BDA0002762573220000062
如果在时间片t内,服务l放置在边缘服务器上,则
Figure BDA0002762573220000063
否则,
Figure BDA0002762573220000064
由于边缘服务器有限的存储空间和计算能力;考虑由不同的服务放置决策引起的服务切换时延、任务处理时延和任务卸载时延,下面对此进行详细描述:
(1)服务切换时延:要将特定服务从远程云服务器迁移到边缘服务器,要花费一定的时间去传输与该服务相关联的数据,它称为服务切换时延;对于服务l,假定其在时间片t内的切换时延为
Figure BDA0002762573220000065
该时间主要取决于放置服务l所需要传输的数据大小和在时间片t时,基站和云服务器之间的网络状况;依据上一个时间片的服务放置决策
Figure BDA0002762573220000066
将当前服务放置决策
Figure BDA0002762573220000067
所引起的服务切换时延表示为如下公式:
Figure BDA0002762573220000068
其中,1{·}是一个指示函数;如果大括号中的条件为真,则指示函数的值为1;否则,它等于零;只有未放置在上一个时间片中但在当前时间片中需要的服务才会引起服务切换时延;
(2)任务处理时延:只有在边缘服务器上有放置对应的服务,该服务对应的任务才在基站得到处理,而其他任务即边缘服务器未放置其对应的服务,只能卸载到远程云服务器上执行;首先分析在边缘服务器上完成一个任务所引起的时延,即任务处理时延;任务的处理时延被定义为从任务到达基站到任务完成的一段时间,包括等待时延和计算时延;对于服务l,因为任务的到达时间和计算时间都服从指数分布,用一个特定的M/M/1队列模型来模拟边缘服务器上任务的执行过程;任务的平均处理时延,在排队论中称为逗留时间用公式表示为:
Figure BDA0002762573220000069
为了使得公式始终有意义,通过卸载额外的任务到远程云服务器来确保任务的服务率即fl/cl大于任务的到达率
Figure BDA00027625732200000610
在时间片t内,由服务放置决策It所引起的总的任务处理时延用公式表示为:
Figure BDA00027625732200000611
(3)任务卸载时延:云服务器拥有所有足够的存储资源存放所有的服务和足够的计算资源处理到达的任务,忽略卸载到云上的任务的处理时延;假设一个任务请求的服务l未放置在边缘服务器上,假设将任务的输入数据传输到云服务器的预期时间定义为任务卸载时延为
Figure BDA0002762573220000071
它取决于输入数据的大小以及在时间片t中基站与云服务器之间的网络状况;在时间片t内,由服务放置决策It所引起的总的任务卸载时延可以用公式表示为:
Figure BDA0002762573220000072
服务放置的目标是在考虑的边缘服务器的存储空间和计算资源限制的情况下,在这个边缘计算系统中,大量实时、异构、计算密集的任务请求实时到达;为基站找到一个最优的服务放置决策,去最小化长期的所有任务的处理时延;
Figure BDA0002762573220000073
Figure BDA0002762573220000074
Figure BDA0002762573220000075
第一个约束意味着放置的服务的存储空间不能超过基站的存储空间大小,第二个约束意味着放置的服务需要的计算能力受到基站计算资源的限制。
在本实施例中,在所述步骤三中,根据上述系统模型,卸载决策问题可建模成马尔可夫决策过程
Figure BDA0002762573220000076
其中
Figure BDA0002762573220000077
为状态空间,
Figure BDA0002762573220000078
为动作空间,
Figure BDA0002762573220000079
为转移概率,
Figure BDA00027625732200000710
为奖励函数,γ∈[0,1]为折扣因子;在每个时间片下,状态表示为
Figure BDA00027625732200000711
这里,Bt表示时间片t时,基站和云服务器之间的网络状况,
Figure BDA00027625732200000712
因此
Figure BDA00027625732200000713
在状态st下采取动作at,基站会收到一个即时奖励rt,定义为在时间片t时,所有任务的总时延,即:rt=-(tttt);所述马尔科夫决策模型,原问题转换为策略决策问题,即选择一个最优策略π最大化累计折扣奖励:
Figure BDA00027625732200000714
Figure BDA00027625732200000715
Figure BDA00027625732200000716
在本实施例中,在所述步骤四中,根据上述建模过程,采用基于深度强化学习的在线服务放置算法,其详细步骤如下:
1)服务放置动作的产生:在每个时间片t下,基站首先观察当前边缘计算系统的状态为st,然后把它输入到一个参数记为θ的全连接神经网络中,称为在线网络;该网络输出每个动作的动作价值,最后采用∈-贪心策略以∈的概率随机选择一个动作,以1-∈的概率选择具有最大值的动作,选择的动作at处理完计算任务得到由环境反馈的奖励rt和下一个状态st+1;这一交互过程作为一条经验(st,at,rt,st+1)存放到经验池中;
2)网络训练:根据经验池中的历史经验对在线网络进行训练,更新参数;首先,随机从经验池中采样一批经验,然后把它们输入到在线网络中和另一个与在线网络具有相同结构但参数不同的网络中,称为目标网络;目标网络是用来估计Q值的,帮助在线网络训练参数;拿一个采样的经验(sj,aj,rj,sj+1)作为一个例子去解释这个训练过程;得到Q值通过像在线网络输入sj和aj,即Q(sj,aj;θ)j然后向目标网络输入sj+1,然后目标Q值通过贝尔曼方程获得,即:
Figure BDA0002762573220000081
为了降低Q^和Q(sj,aj;θ)之间的误差,定义一个Loss函数去训练在线网络,即:
Figure BDA0002762573220000082
利用梯度下降算法最小化Loss函数,即对在线网络的参数θ进行更新;为了保持算法的稳定性,对在线网络和目标网络的参数进行异步更新;在线网络在每个训练过程中都进行更新,而目标网络的参数是在在线网络更新后的一段时间片后进行更新。
实施例三:
在本实施例中,参见图3,一种边缘计算系统中的在线服务放置方法,操作步骤为:
步骤一,为边缘计算系统进行建模,考虑一个支持5g的移动边缘计算系统,其中附带服务器的基站充当边缘计算系统中的边缘节点;时间被划分为等长时间片
Figure BDA0002762573220000083
大量的异构计算密集型任务实时到达基站
Figure BDA0002762573220000084
云服务器拥有丰富的计算资源且可以存储所有类型的服务。基站的最大存储空间为smax,最大的CPU频率为fmax;所有的服务类型L={1,2,3...,L},且每种服务的放置需要消耗不同的存储空间s1和不同的CPU频率f1去处理请求该服务的任务;
步骤二,为服务放置决策进行建模,每种服务放置决策会导致不同的任务完成总时延,即不同的服务切换时延,任务处理时延,任务卸载时延;
步骤三,根据上述系统模型,卸载决策问题可以建模成马尔可夫决策过程
Figure BDA0002762573220000085
其中
Figure BDA0002762573220000086
为状态空间,
Figure BDA0002762573220000087
为动作空间,
Figure BDA0002762573220000088
为转移概率,
Figure BDA0002762573220000089
为奖励函数,γ∈[0,1]为折扣因子;在每个时间片下,状态表示为
Figure BDA00027625732200000810
这里,Bt表示时间片t时,基站和云服务器之间的网络状况,
Figure BDA00027625732200000811
因此
Figure BDA00027625732200000812
在状态st下采取动作at,基站会收到一个即时奖励rt,定义为在时间片t时,所有任务的总时延,即:rt=-(Ψttt);上述马尔科夫决策模型,原问题转换为策略决策问题,即选择一个最优策略π最大化累计折扣奖励;
步骤四,根据上述建模过程,设计了基于深度强化学习的在线服务放置算法;如附图2所示,其详细细节如下:
1)服务放置动作的产生:在每个时间片t下,基站首先观察当前边缘计算系统的状态为st,然后把它输入到一个参数记为θ的全连接神经网络中,称为在线网络;该网络输出每个动作的动作价值,最后采用∈-贪心策略以∈的概率随机选择一个动作,以1-∈的概率选择具有最大值的动作,选择的动作at处理完计算任务得到由环境反馈的奖励rt和下一个状态st+1。这一交互过程会作为一条经验(st,at,rt,st+1)存放到经验池中;
2)网络训练:根据经验池中的历史经验对在线网络进行训练,更新参数;首先,随机从经验池中采样一批经验,然后输入到在线网络中和另一个与在线网络具有相同结构但参数不同的网络中,称为目标网络,如附图3所示。目标网络是用来估计Q值的,帮助在线网络训练参数。拿一个采样的经验(sj,aj,rj,sj+1)作为一个例子去解释这个训练过程;得到Q值通过像在线网络输入sj和aj,即Q(sj,aj;θ);然后向目标网络输入sj+1,然后目标Q值通过贝尔曼方程获得,即:
Figure BDA0002762573220000091
为了降低Q^和Q(sj,aj;θ)之间的误差,定义了一个Loss函数去训练在线网络,即:
Figure BDA0002762573220000092
利用梯度下降算法最小化Loss函数,即对在线网络的参数θ进行更新;为了保持算法的稳定性,对在线网络和目标网络的参数进行异步更新;在线网络在每个训练过程中都进行更新,而目标网络的参数是在在线网络更新后的一段时间片后进行更新。
为了更清晰的阐述本发明的目的、技术方案和优点。本是实施例通过模拟实验对比的方式进一步说明本发明实施的边缘计算系统中分布式的在线服务放置方法的技术效果。
在下面的模拟实验对比过程中,系统参数的默认设置如下。考虑4种不同类型的服务,将每个服务的关联数据大小s1和所需的CPU频率f1分别设置在[30,40]GB和[2,3]GHz以内,将边缘服务器的最大存储空间和最大CPU频率分别设置为100GB和5GHZ。此外,每种服务的任务所需要的CPU周期数服从一个指数分布且均值在[0.02,0.03]GHZ之间。每种服务的从云服务器迁移服务到基站的转换时延在[0.1,0.4]秒之间,将一个任务从基站卸载到云服务器的卸载时延属于[0.5,1]秒之间。设置每种服务在每个时间片内到达的任务数量服从均匀分布,且数量在[50,100]之间。每个时间片的时间间隔设置为1s。另外,在的训练过程中,将一个阶段设置为250个时间片,在强化学习中,一个阶段即一个完整的交互过程。
本实施例采用作为比较标准的四个对比方法,Cloud Processing OnlyApproach、Stochastic Approach、Service-prior Greedy Approach、Task-prior GreedyApproach。在Cloud Processing Only Approach中,将所有的任务都被直接卸载到远程云,拥有所有的服务和足够的计算资源;在Stochastic Approach中,在考虑存储空间和CPU频率约束的前提下,每个服务被随机决定是否放在边缘服务器上;在Service-prior GreedyApproach中,在考虑存储空间和CPU频率约束的前提下,将尽可能多的服务放置在基站上;在Task-prior Greedy Approach中,服务被一个接一个地放置在边缘服务器上。除非不能满足资源约束,否则每次都选择当前时间段内能够服务最多任务的服务。
根据上述方法与具体参数设置,通过改变时间片和总服务数量来评估五种算法的总时延性能。每组实验重复10次,取10次实验的平均值作为实验的结果。下文的实验对比图中将本发明实施例的边缘计算系统中的在线服务放置方法简称为:Our Approach。
如图4所示,对比五种算法在改变时间片数量时,任务完成的总奖励变化情况。可见随着时间片的增大,各算法就有更大的时延导致奖励值不断降低。显然,无论经过多少个时间片,本实施例算法相比于四个对比方法都有更好的性能。特别是在250个时间片时,本实施例算法中任务完成的时延分别比两个对比方法低10.91%、19.82%、28.11%和36.86%。
图5对比将总服务数量从2到6变化时五种算法中任务完成总时延的变化情况。当只有两个服务时,本实施例方法的性能与Service-prior Greedy Approach和Task-priorGreedy Approach相似,因为两个服务可以同时放在边缘服务器上。随着服务数量的增加,本实施例方法显著优于基线,这表明本实施例的方法适合于复杂的服务放置场景。特别是,当有六个服务时,完成所有任务的总时延分别比四个基线低14.96%,21.17%,28.48%,36.47%。
综上所述,本发明提供的一种边缘计算系统中在线服务放置方法,通过同时考虑边缘计算存储资源和计算资源的限制,解决了边缘计算系统中的在线服务放置问题,,大大减少完成到达边缘计算系统的计算任务的总时延。
所属领域的普通技术人员应当理解:以上所述实施例仅作为本发明的示例性讨论,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (1)

1.一种边缘计算系统中的在线服务放置方法,其特征在于操作步骤如下:
步骤一,为边缘计算系统进行建模;
步骤二,为服务放置决策进行建模;
步骤三,卸载决策问题建模成马尔可夫决策过程;
步骤四,设计基于深度强化学习的在线服务放置算法;
在所述步骤一中,为边缘计算系统进行建模,考虑一个支持5g的移动边缘计算系统,其中附带服务器的基站充当边缘计算系统中的边缘节点;时间被划分为等长时间片
Figure FDA00038222993800000110
Figure FDA00038222993800000111
大量的异构计算密集型任务实时到达基站
Figure FDA0003822299380000011
云服务器拥有丰富的计算资源且存储所有类型的服务;基站的最大存储空间为smax,最大的CPU频率为fmax;所有的服务类型L={1,2,3…,L},且每种服务的放置需要消耗不同的存储空间sl和不同的CPU频率fl去处理请求该服务的任务;
在所述步骤二中,为服务放置决策进行建模,每种服务放置决策会导致不同的任务完成总时延,即不同的服务切换时延,任务处理时延,任务卸载时延:
使用一个二进制变量
Figure FDA0003822299380000012
来标示在时间片t内,边缘服务器是否放置服务l;在时间片t内,总的服务放置决策可以用一个向量表示为
Figure FDA0003822299380000013
如果在时间片t内,服务l放置在边缘服务器上,则
Figure FDA0003822299380000014
否则,
Figure FDA0003822299380000015
由于边缘服务器有限的存储空间和计算能力;考虑由不同的服务放置决策引起的服务切换时延、任务处理时延和任务卸载时延,下面对此进行详细描述:
(1)服务切换时延:要将特定服务从远程云服务器迁移到边缘服务器,要花费一定的时间去传输与该服务相关联的数据,它称为服务切换时延;对于服务l,假定其在时间片t内的切换时延为
Figure FDA0003822299380000016
该时间主要取决于放置服务l所需要传输的数据大小和在时间片t时,基站和云服务器之间的网络状况;依据上一个时间片的服务放置决策
Figure FDA0003822299380000017
将当前服务放置决策
Figure FDA0003822299380000019
所引起的服务切换时延表示为如下公式:
Figure FDA0003822299380000018
其中,1{·}是一个指示函数;如果大括号中的条件为真,则指示函数的值为1;否则,它等于零;只有未放置在上一个时间片中但在当前时间片中需要的服务才会引起服务切换时延;
(2)任务处理时延:只有在边缘服务器上有放置对应的服务,该服务对应的任务才在基站得到处理,而其他任务即边缘服务器未放置其对应的服务,只能卸载到远程云服务器上执行;首先分析在边缘服务器上完成一个任务所引起的时延,即任务处理时延;任务的处理时延被定义为从任务到达基站到任务完成的一段时间,包括等待时延和计算时延;对于服务l,因为任务的到达时间和计算时间都服从指数分布,用一个特定的M/M/1队列模型来模拟边缘服务器上任务的执行过程;任务的平均处理时延,在排队论中称为逗留时间用公式表示为:
Figure FDA0003822299380000021
为了使得公式始终有意义,通过卸载额外的任务到远程云服务器来确保任务的服务率即fl/cl大于任务的到达率
Figure FDA0003822299380000022
在时间片t内,由服务放置决策It所引起的总的任务处理时延用公式表示为:
Figure FDA0003822299380000023
(3)任务卸载时延:云服务器拥有所有足够的存储资源存放所有的服务和足够的计算资源处理到达的任务,忽略卸载到云上的任务的处理时延;假设一个任务请求的服务l未放置在边缘服务器上,假设将任务的输入数据传输到云服务器的预期时间定义为任务卸载时延为
Figure FDA0003822299380000024
它取决于输入数据的大小以及在时间片t中基站与云服务器之间的网络状况;在时间片t内,由服务放置决策It所引起的总的任务卸载时延可以用公式表示为:
Figure FDA0003822299380000025
服务放置的目标是在考虑的边缘服务器的存储空间和计算资源限制的情况下,在这个边缘计算系统中,大量实时、异构、计算密集的任务请求实时到达;为基站找到一个最优的服务放置决策,去最小化长期的所有任务的处理时延;
Figure FDA0003822299380000026
Figure FDA0003822299380000027
Figure FDA0003822299380000028
第一个约束意味着放置的服务的存储空间不能超过基站的存储空间大小,第二个约束意味着放置的服务需要的计算能力受到基站计算资源的限制;
在所述步骤三中,根据上述建模,卸载决策问题可建模成马尔可夫决策过程
Figure FDA0003822299380000029
其中
Figure FDA00038222993800000210
为状态空间,
Figure FDA00038222993800000211
为动作空间,
Figure FDA00038222993800000212
为转移概率,
Figure FDA00038222993800000213
为奖励函数,γ∈[0,1]为折扣因子;在每个时间片下,状态表示为
Figure FDA00038222993800000214
这里,Bt表示时间片t时,基站和云服务器之间的网络状况,
Figure FDA00038222993800000215
因此
Figure FDA00038222993800000217
在状态st下采取动作at,基站会收到一个即时奖励rt,定义为在时间片t时,所有任务的总时延,即:rt=-(Ψttt);所述马尔可夫决策模型,原问题转换为策略决策问题,即选择一个最优策略π最大化累计折扣奖励:
Figure FDA00038222993800000216
Figure FDA0003822299380000031
Figure FDA0003822299380000032
在所述步骤四中,根据上述建模,采用基于深度强化学习的在线服务放置算法,其详细步骤如下:
1)服务放置动作的产生:在每个时间片t下,基站首先观察当前边缘计算系统的状态为st,然后把它输入到一个参数记为θ的全连接神经网络中,称为在线网络;该网络输出每个动作的动作价值,最后采用∈-贪心策略以∈的概率随机选择一个动作,以1-∈的概率选择具有最大值的动作,选择的动作at处理完计算任务得到由环境反馈的奖励rt和下一个状态st+1;这一交互过程作为一条经验(st,at,rt,st+1)存放到经验池中;
2)网络训练:根据经验池中的历史经验对在线网络进行训练,更新参数;首先,随机从经验池中采样一批经验,然后把它们输入到在线网络中和另一个与在线网络具有相同结构但参数不同的网络中,称为目标网络;目标网络是用来估计Q值的,帮助在线网络训练参数;得到Q值通过像在线网络输入sj和aj,即Q(sj,aj;θ);然后向目标网络输入sj+1,然后目标Q值通过贝尔曼方程获得,即:
Figure FDA0003822299380000033
为了降低Q^和Q(sj,aj;θ)之间的误差,定义一个Loss函数去训练在线网络,即:
Figure FDA0003822299380000034
利用梯度下降算法最小化Loss函数,即对在线网络的参数θ进行更新;为了保持算法的稳定性,对在线网络和目标网络的参数进行异步更新;在线网络在每个训练过程中都进行更新,而目标网络的参数是在在线网络更新后的一段时间片后进行更新。
CN202011222597.6A 2020-11-05 2020-11-05 一种边缘计算系统中的在线服务放置方法 Active CN112511336B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011222597.6A CN112511336B (zh) 2020-11-05 2020-11-05 一种边缘计算系统中的在线服务放置方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011222597.6A CN112511336B (zh) 2020-11-05 2020-11-05 一种边缘计算系统中的在线服务放置方法

Publications (2)

Publication Number Publication Date
CN112511336A CN112511336A (zh) 2021-03-16
CN112511336B true CN112511336B (zh) 2022-11-18

Family

ID=74955871

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011222597.6A Active CN112511336B (zh) 2020-11-05 2020-11-05 一种边缘计算系统中的在线服务放置方法

Country Status (1)

Country Link
CN (1) CN112511336B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113094159B (zh) * 2021-03-22 2024-04-05 西安交通大学 一种数据中心作业调度方法、系统、存储介质及计算设备
CN113778691B (zh) * 2021-11-10 2022-03-25 清华大学 一种任务迁移决策的方法、装置及系统
CN115022188B (zh) * 2022-05-27 2024-01-09 国网经济技术研究院有限公司 一种电力边缘云计算网络中的容器放置方法及系统
CN115190135B (zh) * 2022-06-30 2024-05-14 华中科技大学 一种分布式存储系统及其副本选择方法
CN116055490B (zh) * 2023-01-31 2023-09-26 烟台大学 一种边缘云服务稳定的控制方法、系统及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110798849A (zh) * 2019-10-10 2020-02-14 西北工业大学 一种超密网边缘计算的计算资源分配与任务卸载方法
CN111479238A (zh) * 2020-04-14 2020-07-31 东华大学 一种车联网信息处理时延优化方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111367657B (zh) * 2020-02-21 2022-04-19 重庆邮电大学 一种基于深度强化学习的计算资源协同合作方法
CN111666149B (zh) * 2020-05-06 2023-04-07 西北工业大学 基于深度强化学习的超密边缘计算网络移动性管理方法
CN111726826B (zh) * 2020-05-25 2024-03-19 上海大学 一种基站密集型边缘计算网络中的在线任务卸载方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110798849A (zh) * 2019-10-10 2020-02-14 西北工业大学 一种超密网边缘计算的计算资源分配与任务卸载方法
CN111479238A (zh) * 2020-04-14 2020-07-31 东华大学 一种车联网信息处理时延优化方法

Also Published As

Publication number Publication date
CN112511336A (zh) 2021-03-16

Similar Documents

Publication Publication Date Title
CN112511336B (zh) 一种边缘计算系统中的在线服务放置方法
CN113242568B (zh) 一种不确定网络环境中的任务卸载和资源分配方法
CN107450982B (zh) 一种基于系统状态的任务调度方法
CN110557732B (zh) 一种车辆边缘计算网络任务卸载负载均衡系统及均衡方法
CN113612843A (zh) 一种基于深度强化学习的mec任务卸载和资源分配方法
CN112817653A (zh) 一种基于云边端的联邦学习计算卸载计算系统及方法
US11831708B2 (en) Distributed computation offloading method based on computation-network collaboration in stochastic network
CN114065863B (zh) 联邦学习的方法、装置、系统、电子设备及存储介质
CN113286329B (zh) 基于移动边缘计算的通信和计算资源联合优化方法
CN111988787B (zh) 一种任务的网络接入和服务放置位置选择方法及系统
CN115809147B (zh) 多边缘协作缓存调度优化方法、系统及模型训练方法
CN116489708B (zh) 面向元宇宙的云边端协同的移动边缘计算任务卸载方法
CN114938381B (zh) 一种基于深度强化学习的d2d-mec卸载方法
CN112214301B (zh) 面向智慧城市基于用户偏好的动态计算迁移方法及装置
CN113626104A (zh) 边云架构下基于深度强化学习的多目标优化卸载策略
CN114116061B (zh) 一种移动边缘计算环境下的工作流任务卸载方法及系统
CN116366576A (zh) 算力网络资源调度方法、装置、设备及介质
CN116233927A (zh) 一种在移动边缘计算中负载感知的计算卸载节能优化方法
CN116185523A (zh) 一种任务卸载和部署的方法
CN117354934A (zh) 一种多时隙mec系统双时间尺度任务卸载和资源分配方法
CN116954866A (zh) 基于深度强化学习的边缘云下任务调度方法及系统
CN116880923A (zh) 一种基于多智能体强化学习的动态任务卸载方法
CN115499875B (zh) 一种卫星互联网任务卸载方法、系统以及可读存储介质
CN115413044A (zh) 一种工业无线网络的计算和通信资源联合分配方法
CN115129447A (zh) 一种工业互联网中计及条件风险价值的边缘计算任务卸载方法及计算机设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant