CN110972147B - 一种数据驱动的边缘响应时间优化方法 - Google Patents

一种数据驱动的边缘响应时间优化方法 Download PDF

Info

Publication number
CN110972147B
CN110972147B CN201911030918.XA CN201911030918A CN110972147B CN 110972147 B CN110972147 B CN 110972147B CN 201911030918 A CN201911030918 A CN 201911030918A CN 110972147 B CN110972147 B CN 110972147B
Authority
CN
China
Prior art keywords
response time
edge
base station
arrival rate
task arrival
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201911030918.XA
Other languages
English (en)
Other versions
CN110972147A (zh
Inventor
魏同权
张润泽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
East China Normal University
Original Assignee
East China Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by East China Normal University filed Critical East China Normal University
Priority to CN201911030918.XA priority Critical patent/CN110972147B/zh
Publication of CN110972147A publication Critical patent/CN110972147A/zh
Application granted granted Critical
Publication of CN110972147B publication Critical patent/CN110972147B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W16/00Network planning, e.g. coverage or traffic planning tools; Network deployment, e.g. resource partitioning or cells structures
    • H04W16/18Network planning tools
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0893Assignment of logical groups to network elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • H04L67/1008Server selection for load balancing based on parameters of servers, e.g. available memory or workload
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W16/00Network planning, e.g. coverage or traffic planning tools; Network deployment, e.g. resource partitioning or cells structures
    • H04W16/22Traffic simulation tools or models
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W24/00Supervisory, monitoring or testing arrangements
    • H04W24/02Arrangements for optimising operational condition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W28/00Network traffic management; Network resource management
    • H04W28/02Traffic management, e.g. flow control or congestion control
    • H04W28/08Load balancing or load distribution
    • H04W28/082Load balancing or load distribution among bearers or channels

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

本发明公开了一种数据驱动的边缘响应时间优化方法,其特点是采用异构边缘服务器计算离线任务到达率的最优离线解,以及基于移动性感知博弈论的方法,计算在基站的任务到达率有波动时的最优解,具体包括:离线阶段计算离线任务到达率的最优离线解;运行时阶段的任务到达率没有波动时,直接利用基站分配的方案;在线阶段计算在基站的任务到达率有波动时的最优解。本发明与现有技术相比具有提高整个系统和个人移动用户的预期响应时间,以及移动用户的响应时间公平性,有效解决了由用户移动的动态特性引起的基站工作负载波动问题,系统预期响应时间缩短了54.55%,移动用户的响应时间公平性提高了72.50%,方法简单,使用方便,效率高。

Description

一种数据驱动的边缘响应时间优化方法
技术领域
本发明涉及云服务器技术领域,尤其是一种基于移动性感知博弈论处理用户移动动态特性的数据驱动边缘响应时间优化方法。
背景技术
随着新兴移动应用的普及,移动用户的计算要求如今不断增加。在移动云计算的传统体系结构中,移动用户可以通过基站向远程云服务器发送他们的请求,并要求云服务器代表他们自己执行任务执行,然而,这种模式导致移动用户在物联网时代不可避免地遭受高服务延迟。作为替代解决方案,因此提出在移动用户和云服务器之间部署边缘服务器的移动边缘云计算为众多移动用户提供低延迟服务。在过去几年中,人们对用于移动边缘云计算系统的延迟感知边缘服务器部署的研究产生了广泛的兴趣。
现有技术由于边缘服务器与云服务器没有协作,系统的预期响应时间和移动用户的响应时间公平性较差,用户移动的动态特性容易引起基站的工作负载波动。
发明内容
本发明的目的是针对现有技术的不足而设计的一种数据驱动的边缘响应时间优化方法,采用异构边缘服务器的最优布局策略,计算离线任务到达率的最优离线解,以及基于移动性感知博弈论的方法,处理用户移动的动态特性,计算在基站的任务到达率有波动时的最优解,有效解决了用户移动动态特性引起的基站工作负载波动,大大提高整个系统和个人移动用户的预期响应时间,将系统预期响应时间缩短了54.55%,移动用户的响应时间公平性提高了72.50%,方法简单,使用方便,效率高。
本发明的目的是这样实现的:一种数据驱动的边缘响应时间优化方法,其特点是采用异构边缘服务器计算离线任务到达率的最优离线解,以及基于移动性感知博弈论的方法,计算在基站的任务到达率有波动时的最优解,优化系统的预期响应时间和移动用户的响应时间公平性,其具体优化包括以下步骤:
步骤1:定义云计算系统中的用户、基站、云服务器、边缘服务器,以及基站与服务器的拓扑关系和基站与系统的预期响应时间。
步骤2:离线阶段,利用整数线性规划(ILP)技术计算离线任务到达率的最优离线解。
步骤3:当运行时所有基站的任务到达率没有波动时,直接利用上述步骤2的方案;否则,使用启发式算法,以重新确定具有改变的任务到达率的基站的最佳边缘/云服务器。
步骤4:在线阶段,通过转换为凸优化问题来解决合作博弈问题,计算在基站的任务到达率有波动时的最优解。
步骤5:分配结束。
所述步骤1的实现过程按下述步骤进行:
步骤A1:表示出移动边缘云计算系统中K个移动用户:U= {U1,U2,…,UK};M个基站:B={B1,B2,…,BM};N个边缘服务器SE= {S1,S2,…,SN}以及一个云服务器S0,令S={S0,SE}是由云服务器和边缘服务器集组成的服务器集。
步骤A2:满足约束任何基站Bm∈B(1≤m≤M)不允许同时连接到两个不同的边缘/云服务器Si∈S和Sj∈S(0≤i,j≤N,i≠j);用无向图 G=(V,E)表示M个基站和(N+1)和边缘/云服务器的拓扑;其中:集合V表示 M个基站和云服务器S0 的固定放置位置的集合,以及N个边缘服务器的可能放置位置;集合E表示基站和边缘/云服务器之间的通信链路集。
步骤A3:基站Bm响应时间模型的构建:
通信延迟W(1) m,n由下述a式计算:
Figure GDA0002957566620000021
任务执行延迟W(2) m,n由下述b式定义:
Figure GDA0002957566620000022
基站Bm预期响应时间Wm由下述c式定义:
Figure GDA0002957566620000031
系统的预期响应时间
Figure GDA0002957566620000032
由下述d式定义:
Figure GDA0002957566620000033
所述步骤2的实现过程按下述步骤进行:
步骤B1:最小化整个系统和各个基站的预期响应时间的基站分配策略,并如下定义Pi,j和Am,n
Figure GDA0002957566620000034
Figure GDA0002957566620000035
从整个系统的角度来看,性能函数可以用步骤1的A3中定义的预期响应时间
Figure GDA0002957566620000036
表征;从各个基站的角度来看,性能函数可以用预期响应时间 {W1,W2,…,WM}的标准偏差
Figure GDA0002957566620000037
描述,并由下述e式定义:
Figure GDA0002957566620000038
其中,标准偏差
Figure GDA0002957566620000039
由下述f式计算:
Figure GDA00029575666200000310
步骤B2:为确保系统中的每个任务都得到可行的处理,必须满足每个边缘服务器Sj与一个基站完全位于同一位置,其约束条件如下述g式定义:
Figure GDA00029575666200000311
步骤B3:每个基站Bm都被精确分配给一个边缘/云服务器,由下述h 式定义:
Figure GDA00029575666200000312
步骤B4:发送到每个边缘/云服务器Sj的总任务到达率不超过边缘/云服务器可以处理任务的速率,由下述i式定义:
Figure GDA00029575666200000313
步骤B5:输入无向图G=(V,E)、基站的离线任务到达率
Figure GDA0002957566620000041
以及边缘/云服务器的计算能力{p0,p1,…,pN}。
步骤B6:在上述步骤B2的约束条件下计算预期响应时间的最小值,找到边缘服务器的最佳放置策略
Figure GDA0002957566620000042
和分配策略
Figure GDA0002957566620000043
从而获得离线任务到达率的最优离线解Ω=(P*,A*)。所述步骤3的实现过程按下述步骤进行:
步骤C1:用
Figure GDA0002957566620000044
表示改变任务到达率的Q个基站的集合, Q个基站彼此合作和竞争,使得不仅最小化他们各自的预期响应时间,而且最小化系统预期响应时间,经几轮迭代后,将得到最优解。
步骤C2:使用最大化与Q个改变任务到达率的基站的相关效用函数的乘积作为合作博弈的目标函数,且由下述j式定义基站的效用函数:
Figure GDA0002957566620000045
其中:响应时间
Figure GDA0002957566620000046
被归一化到[0,1]的范围内。
步骤C3:由下述k式定义重新分配问题:
Figure GDA0002957566620000047
s.t.Aq,n=0,1
Figure GDA0002957566620000048
Figure GDA0002957566620000049
其中:剩余计算能力Δpn由下述l式计算:
Figure GDA00029575666200000410
所述步骤4的实现过程按下述步骤进行:
步骤D1:输入离线任务到达率的最优离线解Ω=(P*,A*)、离线任务到达率
Figure GDA00029575666200000411
在线任务到达率
Figure GDA00029575666200000412
边缘/云服务器的计算能力{p0,p1,…,pN}和初始化任务到达率为0。
步骤D2检查基站的任务到达率是否在运行时改变,如果答案为否,则返回上述步骤B6的最优解;如果答案为是,则算法将任务到达率的标记设置为1并用启发式算法重新分配。
步骤D3:构建改变了任务到达率基站的集合B′={B1,B2,…,BQ}。
步骤D4:计算每个边缘/云服务器的剩余计算能力Δpn
步骤D5:重新确定每个基站的最佳边缘/云服务器,并相应地更新分配策略。
本发明与现有技术相比具有优化整个系统的预期响应时间,以及移动用户的响应时间公平性,有效解决了由用户移动的动态特性引起的基站工作负载波动问题,大大提高整个系统和个人移动用户的预期响应时间,将系统预期响应时间缩短了54.55%,移动用户的响应时间公平性提高了72.50%,方法简单,使用方便,效率高。
附图说明
图1为上海电信的3233个基站的地理分布;
图2为本发明离线时系统预期响应时间;
图3为本发明离线时预期响应时间的标准偏差;
图4为本发明在线时系统预期响应时间;
图5为本发明在线时预期响应时间的标准偏差;
图6为本发明在线时运行时间和基准测试。
具体实施方式
为了更加清楚的描述发明的目的、技术方案及优点,以下结合附图和具体实施例,对本发明进行进一步详细说明。
实施例1
参阅附图1,本发明基于仿真的实验,以验证在减少整个系统和各个基站的预期响应时间方面的有效性。模拟中采用了由上海电信的3233个基站组成的集合,其中基站的地理分布如图所示:平均任务到达率(每秒CPU周期数) 和每个基站的数据量分别为[4×106,6×108]和[1,100]Mb;每个链路的通信容量是在[100,1000]KB/s的范围内随机选择的;电磁波的传播速率设定为 2×105km/s。
假设云服务器的任务执行时间遵循正态分布,平均值为10ms,方差为 4。选择配备10核和每核3.6GHz工作频率的HPE ProLiant ML350 Gen10服务器作为云服务器S0。然后计算云服务器S0的计算容量p0为10×3.6GHz= 36.0GHz。此外,构建了基于HPE ProLiantMicroServer Gen10服务器,Dell R230服务器,Lenovo TS250服务器和浪潮NP3020服务器的边缘服务器集。本发明根据提出的离线和在线算法进行了两组对比实验:一组用于离线算法 PEAB,即本发明的步骤2(离线阶段,利用整数线性规划技术计算离线任务到达率的最优离线解),另一组用于在线算法RBEC,即本发明的步骤4(在线阶段,通过转换为凸优化问题来解决合作博弈问题,计算在基站的任务到达率有波动时的最优解)。在第一组模拟中,将离线算法PEAB与基准算法WRES, EPSO和DAPP进行了比较。在第二组仿真中,将在线算法RBEC与基准算法 RALL和DGEN进行了比较。WRES旨在联合优化边缘服务器的工作负载和响应时间,采用MILP技术进行边缘服务器的部署。EPSO旨在最小化边缘服务器的整体能耗,其中利用众所周知的粒子群优化技术(PSO)来执行边缘服务器的部署。DAPP将边缘服务器放置表示为图中的经典容量K中值问题,以便可以最小化系统响应时间。RALL尝试在运行时最小化整个系统和各个基站的响应时间。其主要思想是通过修改本发明步骤2的算法来重新分配所有基站,假设已经放置了所有边缘服务器。DGEN与方案RALL类似,也尝试在运行时最小化整个系统和各个基站的响应时间。它利用中引入的遗传算法技术,以改变任务到达率来重新分配基站。NAVE是一种天真的在线方法,直接采用我们提出的方法PEAB的输出,并且它不采取任何行动来处理基站的任务到达率在运行时已经改变的情况。上述算法均采用C++实现,两组仿真实验均在配备16GB内存和Intel i5双核3.5GHz处理器的台式计算机上进行。并且使用不同的基站工作负载设置执行3000次实验,以将建议的解决方案与基准测试方案进行比较,具体优化过程按下述步骤进行:
步骤1:定义云计算系统中的用户、基站以及服务器(包括云服务器和边缘服务器),基站与服务器的拓扑关系和基站与系统的预期响应时间。本实施例采用了由上海电信的3233个基站组成的集合,即: B={B1,B2,…,B3233},平均任务到达率(每秒CPU周期数)和每个基站的数据量分别为:[4×106,6×108]和[1,100]Mb。每个链路的通信容量是在 [100,1000]KB/s的范围内随机选择的。电磁波的传播速率设定为2×105km/s。并选择选择配备10核且每核工作频率为3.6GHz的HPE ProLiant ML350 Gen10 服务器作为云服务器S0,并假设云服务器的任务执行时间遵循正态分布,平均值为10ms,方差为4。云服务器S0的计算能力p0为10×3.6GHz=36.0GHz。此外,构建了HPE ProLiant MicroServer Gen10服务器,Dell R230服务器, Lenovo TS250服务器和浪潮NP3020服务器的边缘服务器集,其具体性能和参数见下表1:
表1 边缘服务器参数。
HPE ProLiant Dell R230 Lenovo TS250 Inspur NP3020
服务器数量 50 50 50 50
服务器每个核的频率 3.4GHz 3.0GHz 3.9GHz 3.0GHz
核心 4 6 2 4
每台服务器的计算能力 13.6GHz 18.0GHz 7.8GHz 12.0GHz
执行时间的正态分布(ms) N(20,5) N(14,8) N(35,15) N(17,10)
并表示出无向图G=(V,E),即3233个基站和边缘/云服务器的拓扑,并计算基站Bm和系统的响应时间:
基站Bm响应时间模型的构建,通信延迟W(1) m,n由下述a式计算:
Figure GDA0002957566620000071
任务执行延迟W(2) m,n由下述b式定义:
Figure GDA0002957566620000072
所以,基站Bm预期响应时间Wm由下述c式定义:
Figure GDA0002957566620000073
系统的预期响应时间
Figure GDA0002957566620000074
由下述d式定义:
Figure GDA0002957566620000075
步骤2:离线阶段,利用整数线性规划(ILP)技术计算离线任务到达率的最优离线解,并定义Pi,j和Am,n如下:
Figure GDA0002957566620000081
Figure GDA0002957566620000082
从各个基站的角度来看,性能函数可以用预期响应时间{W1,W2,…,WM} 的标准偏差
Figure GDA0002957566620000083
描述,即由下述e式定义:
Figure GDA0002957566620000084
其中,标准偏差
Figure GDA0002957566620000085
由下述f式计算:
Figure GDA0002957566620000086
除此之外还需确保系统中的每个任务都得到可行的处理,即满足下述g式描述的每个边缘服务器Sj与一个基站完全位于同一位置的约束条件:
Figure GDA0002957566620000087
每个基站Bm都被精确分配给一个由下述i式定义的边缘/云服务器:
Figure GDA0002957566620000088
发送到每个边缘/云服务器Sj的总任务到达率不能超过边缘/云服务器可以处理任务的速率,并由下述i式定义为:
Figure GDA0002957566620000089
其中,pj已在步骤1中给出。
输入无向图G=(V,E)、基站的离线任务到达率
Figure GDA00029575666200000810
以及边缘/云服务器的计算能力{p0,p1,…,pN},并在上述约束条件下计算预期响应时间的最小值,找到边缘服务器的最佳放置策略
Figure GDA00029575666200000811
和分配策略
Figure GDA00029575666200000812
使用ILP求解器求解得离线任务到达率的最优离线解Ω=(P*,A*)。
步骤3:当运行时所有基站的任务到达率没有波动时,直接利用上述步骤2的方案;否则,使用启发式算法,以重新确定具有改变的任务到达率的基站的最佳边缘/云服务器。用
Figure GDA0002957566620000091
表示改变任务到达率的Q个基站的集合。Q个基站彼此合作和竞争,使得不仅最小化他们各自的预期响应时间,而且最小化系统预期响应时间。经过几轮迭代后,将得到最优解。使用最大化与Q个改变任务到达率的基站的相关的效用函数的乘积作为合作博弈的目标函数,并由下述j式定义基站的效用函数:
Figure GDA0002957566620000092
其中:响应时间
Figure GDA0002957566620000093
被归一化到[0,1]的范围内。重新分配问题的定义按下述k式:
Figure GDA0002957566620000094
s.t.Aq,n=0,1
Figure GDA0002957566620000095
Figure GDA0002957566620000096
其中:剩余计算能力Δpn由下述l式计算:
Figure GDA0002957566620000097
对上式目标函数取对数,得到下述l-1式:
Figure GDA0002957566620000098
该目标函数等价于下述l-2式:
Figure GDA0002957566620000099
此外,放宽Aq,n=0,1的条件。使得Aq,n∈[0,1],综上上述优化问题等价于下述l-3式:
Figure GDA00029575666200000910
s.t.Cq,n≤0
Figure GDA00029575666200000911
Figure GDA00029575666200000912
其中:Cq,n+Aq,n=0。
对目标函数H求关于Cq,n的一阶导和二阶导,得到下述l-4式和l-5式导数:
Figure GDA0002957566620000101
Figure GDA0002957566620000102
所以目标函数H是凸函数,因为
Figure GDA0002957566620000103
因此,可以使用拉格朗日乘数法推导出目标函数的一个最优解。该问题的拉格朗日函数L(Cq,n,χ,ψq,nq,n) 由下述( l-5) (l-5a)式描述为:
Figure GDA0002957566620000104
其中:χ,ψq,nq,m为拉格朗日乘数。
对L(Cq,m,χ,ψq,nq,m)关于Cq,n求一阶偏导,得到下述l-6式导数:
Figure GDA0002957566620000105
并由
Figure GDA0002957566620000106
Figure GDA0002957566620000107
其中:χ*,
Figure GDA0002957566620000108
为最优拉格朗日乘数。
观察到Cq,n(χ,ψq,nq,n)的最优值
Figure GDA0002957566620000109
满足下述l-7式:
Figure GDA00029575666200001010
其中:
Figure GDA00029575666200001011
是Q个基站的最小预期响应时间,并由下述l-8式定义:
Figure GDA00029575666200001012
联立上述l-7式和述l-8式两式,由于等式左右两边均有
Figure GDA00029575666200001013
所以难以直接求得。为了化简该问题,用
Figure GDA0002957566620000111
去估计
Figure GDA0002957566620000112
即由下述l-9式计算:
Figure GDA0002957566620000113
因此,原问题可由下述l-10式表示:
Figure GDA0002957566620000114
s.t.ψq,nq,n≥0
Figure GDA0002957566620000115
考虑到优化过程中Cq,n取值范围被放宽到[-1,0],即任何基站都可以分配给多个边缘/云服务器,将违反约束。因此首先从数组
Figure GDA0002957566620000116
选择满足条件
Figure GDA0002957566620000117
的最小值
Figure GDA0002957566620000118
并令
Figure GDA0002957566620000119
即:
Figure GDA00029575666200001110
步骤4:在线阶段,通过转换为凸优化问题来解决合作博弈问题,计算在基站的任务到达率有波动时的最优解。输入离线任务到达率的最优离线解Ω=(P*,A*),离线任务到达率
Figure GDA00029575666200001111
在线任务到达率
Figure GDA00029575666200001112
以及边缘/云服务器的计算能力{p0,p1,…,pN},初始化任务到达率为0;检查基站的任务到达率是否在运行时改变。如果答案为否,则返回步骤2的离线最优解Ω=(P*,A*);如果答案为是,则算法将任务到达率的标记设置为1并用启发式算法重新分配;构建改变了任务到达率的基站的集合B′={B1,B2,…,BQ};计算每个边缘/云服务器的剩余计算能力Δpn;重新确定每个基站的最佳边缘/云服务器,并相应地更新分配策略。
参阅附图2,本发明的离线算法PEAB和基准算法EPSO,WRES,DAPP 实现的系统预期响应时间与测试中的三种基准测试方法相比,显着降低了系统的响应时间。系统预期响应时间分别比基准算法EPSO,WRES,DAPP平均小45.21%,36.61%和16.46%。此外,PEAB的最高改善率高达54.55%。例如,在第24个数据点中,PEAB和EPSO系统的预期响应时间的分别为0.10 和0.22,其图中的每个数据点是100次实验的平均值。
参阅附图3,本发明的离线算法PEAB和基准算法EPSO,WRES,DAPP 实现的预期响应时间的标准偏差与基准测试方法相比,极大地改善了基站之间的性能公平性。PEAB实现的预期响应时间的标准偏差分别比EPSO,WRES 和DAPP小61.23%,57.13%和42.41%。此外,PEAB实现的最高改善率高达80.77%。例如,在第5个数据点,PEAB和EPSO的预期响应时间的标准偏差分别为0.05和0.26。
参阅附图4,本发明的在线算法RBEC和基准算法NAVE,DGEN和RALL 实现的系统预期响应时间。任意选择1000个基站,并将这些基站的任务到达率提高5%-20%。符号“NF”表示由于违反约束
Figure GDA0002957566620000121
Figure GDA0002957566620000122
移动用户的任务无法可行地安排。如图所示,系统预期响应时间分别比基准算法NAVE和DGEN平均小41.87%和23.54%。此外,系统预期响应时间比方法RALL平均高12.11%。
参阅附图5,本发明的在线算法RBEC和基准算法NAVE,DGEN和RALL 实现的预期响应时间的标准偏差与基准测试方法相比,实现了惊人的公平性改进(高达72.50%)。同时,也可以看到算法RBEC不如方法RALL,平均性能差异为15.35%。
参阅附图6,本发明的在线算法RBEC的运行时间以及在线算法RALL 和DGEN的基准测试。方法NAVE的在线时间开销等于零,因为它在运行时不执行任何操作。结果清楚地表明,与方法RALL和DGEN相比,本发明的算法RBEC平均达到24.16和2.31倍的加速,加速计算为测试中的基准测试方法所消耗的运行时与本发明的算法RBEC所消耗的运行时间的比率。此外, RBEC方法的加速可达25.33,例如,在第9个数据点中,本发明的方法RBEC 和基准测试方法RALL的运行时间分别为0.79和20.01。
本发明采用两阶段方法来部署和分配异构边缘服务器,以便在移动边缘云计算系统中进行响应时间优化,离线阶段确定边缘服务器的最佳部署策略,在线阶段处理运行时用户移动的动态特性。更重要的是开发的方法共同考虑了边缘云协作和移动用户的性能公平性。仿真结果表明,本发明的算法可以大大提高整个系统和个人移动用户的预期响应时间。
以上只是对本发明作进一步的说明,旨在解读本发明的技术方案,并非用以限制本专利,凡为本发明等效实施,均应包含于本专利的权利要求范围之内。

Claims (1)

1.一种数据驱动的边缘响应时间优化方法,其特征在于采用异构边缘服务器计算离线任务到达率的最优离线解,以及基于移动性感知博弈论的方法,计算在基站的任务到达率有波动时的最优解,优化系统的预期响应时间和移动用户的响应时间公平性,其具体优化包括以下步骤:
步骤1:定义云计算系统中的用户、基站、云服务器和边缘服务器,以及基站与服务器的拓扑关系和基站与系统的预期响应时间;
步骤2:离线阶段,利用整数线性规划计算离线任务到达率的最优离线解;
步骤3:当运行时所有基站的任务到达率没有波动时,直接利用上述步骤2的方案;否则,使用启发式算法,以重新确定具有改变的任务到达率的基站的最佳边缘/云服务器;
步骤4:在线阶段,通过转换为凸优化问题来解决合作博弈问题,计算在基站的任务到达率有波动时的最优解;
步骤5:分配结束;
所述步骤1的实现过程按下述步骤进行:
步骤A1:表示出移动边缘云计算系统中K个移动用户:U={U1,U2,...,UK};M个基站:B={B1,B2,...,BM};N个边缘服务器SE={S1,S2,...,SN}以及一个云服务器S0,令S={S0,SE}是由云服务器和边缘服务器集组成的服务器集;
步骤A2:满足约束任何基站Bm∈B(1≤m≤M)不允许同时连接到两个不同的边缘/云服务器Si∈S和Sj∈S(0≤i,j≤N,i≠j),用无向图G=(V,E)表示M个基站和(N+1)和边缘/云服务器的拓扑,其中集合V表示M个基站和云服务器S0 的固定放置位置的集合,以及N个边缘服务器的可能放置位置;集合E表示基站和边缘/云服务器之间的通信链路集;
步骤A3:构建基站Bm响应时间模型:
通信延迟W(1) m,n由下述a式定义:
Figure FDA0002957566610000021
任务执行延迟W(2) m,n由下述b式定义:
Figure FDA0002957566610000022
基站Bm预期响应时间Wm由下述c式定义:
Figure FDA0002957566610000023
系统的预期响应时间
Figure FDA0002957566610000024
由下述d式定义:
Figure FDA0002957566610000025
所述步骤2的实现过程按下述步骤进行:
步骤B1:最小化整个系统和各个基站的预期响应时间的基站分配策略,并如下定义Pi,j和Am,n
Figure FDA0002957566610000026
Figure FDA0002957566610000027
以整个系统的角度来看,性能函数由A3步骤中的预期响应时间
Figure FDA0002957566610000028
表征;从各个基站的角度来看,性能函数可用预期响应时间{W1,W2,…,WM}的标准偏差
Figure FDA0002957566610000029
描述,并由下述e式定义:
Figure FDA00029575666100000210
其中,标准偏差
Figure FDA00029575666100000211
由下述f式计算:
Figure FDA00029575666100000212
步骤B2:为确保系统中的每个任务都得到可行的处理,必须满足每个边缘服务器Sj与一个基站完全位于同一位置,其约束条件为下述g式定义:
Figure FDA00029575666100000213
步骤B3:每个基站Bm都被分配给一个边缘/云服务器,并由下述h式定义:
Figure FDA0002957566610000031
步骤B4:发送到每个边缘/云服务器Sj的总任务到达率不超过边缘/云服务器可以处理任务的速率,并由下述i式定义:
Figure FDA0002957566610000032
步骤B5:输入无向图G=(V,E)、基站的离线任务到达率
Figure FDA0002957566610000033
以及边缘/云服务器的计算能力{p0,p1,…,pN};
步骤B6:在上述步骤B2的约束条件下计算预期响应时间的最小值,找到边缘服务器的最佳放置策略
Figure FDA0002957566610000034
和分配策略
Figure FDA0002957566610000035
从而获得离线任务到达率的最优离线解Ω=(P*,A*);
所述步骤3的实现过程按下述步骤进行:
步骤C1:用
Figure FDA0002957566610000036
表示改变任务到达率的Q个基站的集合,Q个基站彼此合作和竞争,使得不仅最小化他们各自的预期响应时间,而且最小化系统预期响应时间,经几轮迭代后,将得到最优解;
步骤C2:使用最大化与Q个改变任务到达率的基站的相关效用函数的乘积作为合作博弈的目标函数,且由下述j式定义基站的效用函数:
Figure FDA0002957566610000037
其中:响应时间
Figure FDA0002957566610000038
被归一化到[0,1]的范围内;
步骤C3:由下述k式定义重新分配问题:
Figure FDA0002957566610000039
s.t. Aq,n=0,1
Figure FDA0002957566610000041
Figure FDA0002957566610000042
其中:剩余计算能力Δpn由下述l式计算:
Figure FDA0002957566610000043
所述步骤4的实现过程按下述步骤进行:
步骤D1:输入离线任务到达率的最优离线解Ω=(P*,A*)、离线任务到达率
Figure FDA0002957566610000044
在线任务到达率为
Figure FDA0002957566610000045
边缘/云服务器的计算能力{p0,p1,…,pN}和初始化任务到达率为0;
步骤D2检查基站的任务到达率是否在运行时改变,如果答案为否,则返回上述步骤B6的最优解;如果答案为是,则算法将任务到达率的标记设置为1并用启发式算法重新分配;
步骤D3:构建改变了任务到达率基站的集合B′={B1,B2,…,B Q};
步骤D4:计算每个边缘/云服务器的剩余计算能力Δpn
步骤D5:重新确定每个基站的最佳边缘/云服务器,并相应地更新分配策略。
CN201911030918.XA 2019-10-28 2019-10-28 一种数据驱动的边缘响应时间优化方法 Expired - Fee Related CN110972147B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911030918.XA CN110972147B (zh) 2019-10-28 2019-10-28 一种数据驱动的边缘响应时间优化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911030918.XA CN110972147B (zh) 2019-10-28 2019-10-28 一种数据驱动的边缘响应时间优化方法

Publications (2)

Publication Number Publication Date
CN110972147A CN110972147A (zh) 2020-04-07
CN110972147B true CN110972147B (zh) 2021-05-25

Family

ID=70029926

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911030918.XA Expired - Fee Related CN110972147B (zh) 2019-10-28 2019-10-28 一种数据驱动的边缘响应时间优化方法

Country Status (1)

Country Link
CN (1) CN110972147B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112437449B (zh) * 2020-09-30 2023-02-21 国网安徽省电力有限公司信息通信分公司 联合资源分配方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018173916A (ja) * 2017-03-31 2018-11-08 日本電気株式会社 サーバ、端末、制御システム、制御方法及びプログラム
CN108874525A (zh) * 2018-06-22 2018-11-23 浙江大学 一种面向边缘计算环境的服务请求分配方法
CN110099384A (zh) * 2019-04-25 2019-08-06 南京邮电大学 基于边-端协同的多用户多mec任务卸载资源调度方法
CN110149401A (zh) * 2019-05-22 2019-08-20 湖南大学 一种用于优化边缘计算任务的方法和系统
CN110290539A (zh) * 2019-07-18 2019-09-27 武汉理工大学 基于用户移动感知和资源预留的移动增强现实应用的资源分配装置及其工作方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018173916A (ja) * 2017-03-31 2018-11-08 日本電気株式会社 サーバ、端末、制御システム、制御方法及びプログラム
CN108874525A (zh) * 2018-06-22 2018-11-23 浙江大学 一种面向边缘计算环境的服务请求分配方法
CN110099384A (zh) * 2019-04-25 2019-08-06 南京邮电大学 基于边-端协同的多用户多mec任务卸载资源调度方法
CN110149401A (zh) * 2019-05-22 2019-08-20 湖南大学 一种用于优化边缘计算任务的方法和系统
CN110290539A (zh) * 2019-07-18 2019-09-27 武汉理工大学 基于用户移动感知和资源预留的移动增强现实应用的资源分配装置及其工作方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Exploring Placement of Heterogeneous Edge Servers for Response Time Minimization in Mobile Edge-Cloud Computing;Kun Cao等;《IEEE TRANSACTIONS ON INDUSTRIAL INFORMATICS》;20210131;全文 *
Optimal Placement of Virtual Machines for Supporting Multiple Applications in Mobile Edge Networks;Lei Zhao等;《IEEE TRANSACTIONS ON VEHICULAR TECHNOLOGY》;20180731;全文 *
移动边缘计算中基于改进拍卖模型的计算卸载策略;盛津芳等;《计算机应用研究》;20190426;全文 *

Also Published As

Publication number Publication date
CN110972147A (zh) 2020-04-07

Similar Documents

Publication Publication Date Title
Eshraghi et al. Joint offloading decision and resource allocation with uncertain task computing requirement
CN112286677B (zh) 一种面向资源受限边缘云的物联网应用优化部署方法
CN111757354B (zh) 一种基于竞争博弈的多用户切片资源分配方法
Cui et al. A novel offloading scheduling method for mobile application in mobile edge computing
CN111182570B (zh) 提高运营商效用的用户关联和边缘计算卸载方法
Wu et al. An efficient offloading algorithm based on support vector machine for mobile edge computing in vehicular networks
CN111586720A (zh) 一种多小区场景下的任务卸载和资源分配的联合优化方法
CN111913723A (zh) 基于流水线的云-边-端协作卸载方法和系统
CN109600178A (zh) 一种边缘计算中能耗与时延和最小化的优化方法
CN112000481A (zh) 一种d2d-mec系统计算能力最大化的任务卸载方法
CN109040193B (zh) 基于无依赖子任务的移动设备云资源分配方法
CN112231085A (zh) 一种协同环境下基于时间感知的移动终端任务迁移方法
CN111556516A (zh) 面向时延和能效敏感业务的分布式无线网络任务协同分配方法
CN110972147B (zh) 一种数据驱动的边缘响应时间优化方法
CN115396953A (zh) 移动边缘计算中一种基于改进粒子群算法的计算卸载方法
CN106230528A (zh) 一种认知无线网络频谱分配方法及系统
Li et al. Nonlinear online incentive mechanism design in edge computing systems with energy budget
Tang et al. Distributed slice selection-based computation offloading for intelligent vehicular networks
Liu et al. Population game based energy and time aware task offloading for large amounts of competing users
Zhang et al. Improved vector evaluated genetic algorithm with archive for solving multiobjective pps problem
Cao et al. A resource allocation strategy in fog-cloud computing towards the Internet of Things in the 5G era
CN112994911B (zh) 计算卸载方法、装置及计算机可读存储介质
Krishna Priya et al. Crossover-based improved sine cosine algorithm for multimedia content distribution in cloud environment
CN114980216B (zh) 基于移动边缘计算的依赖型任务卸载系统及方法
CN113783801B (zh) 一种基于联盟博弈的带宽资源分配方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20210525