CN113608848B - 云-边协同的边缘计算任务分配方法、系统及存储介质 - Google Patents
云-边协同的边缘计算任务分配方法、系统及存储介质 Download PDFInfo
- Publication number
- CN113608848B CN113608848B CN202110855984.1A CN202110855984A CN113608848B CN 113608848 B CN113608848 B CN 113608848B CN 202110855984 A CN202110855984 A CN 202110855984A CN 113608848 B CN113608848 B CN 113608848B
- Authority
- CN
- China
- Prior art keywords
- server
- computing task
- computing
- edge
- task
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 238000012546 transfer Methods 0.000 claims abstract description 62
- 238000004364 calculation method Methods 0.000 claims description 73
- 238000004422 calculation algorithm Methods 0.000 claims description 31
- 230000005540 biological transmission Effects 0.000 claims description 27
- 238000004891 communication Methods 0.000 claims description 17
- 238000010276 construction Methods 0.000 claims description 8
- 238000013508 migration Methods 0.000 claims description 7
- 230000005012 migration Effects 0.000 claims description 7
- 125000003275 alpha amino acid group Chemical group 0.000 claims description 6
- 150000001875 compounds Chemical class 0.000 claims description 6
- 238000004088 simulation Methods 0.000 abstract description 4
- 230000008901 benefit Effects 0.000 description 6
- 230000007423 decrease Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/48—Program initiating; Program switching, e.g. by interrupt
- G06F9/4806—Task transfer initiation or dispatching
- G06F9/4843—Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
- G06F9/4881—Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
- G06F9/5038—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the execution order of a plurality of tasks, e.g. taking priority or time dependency constraints into consideration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5061—Partitioning or combining of resources
- G06F9/5072—Grid computing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2209/00—Indexing scheme relating to G06F9/00
- G06F2209/48—Indexing scheme relating to G06F9/48
- G06F2209/484—Precedence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2209/00—Indexing scheme relating to G06F9/00
- G06F2209/50—Indexing scheme relating to G06F9/50
- G06F2209/502—Proximity
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Computer And Data Communications (AREA)
- Multi Processors (AREA)
Abstract
本发明公开了云‑边协同的边缘计算任务分配方法、系统及存储介质,首先获得边缘节点的计算任务对服务器的偏好值列表以及服务器对边缘节点的计算任务的偏好值列表,然后对边缘节点的计算任务进行预匹配,最后对计算任务进行转移,获得更优的匹配结果;本发明基于计算任务与服务器间的偏好,第一阶段实现计算任务与服务器间的预匹配;基于预匹配结果,更新计算任务对服务器的偏好值,研判计算任务是否有更佳的匹配结果,若有,第二阶段实现计算任务在服务器间的转移,优化计算任务的QoS需求与完成质量。经仿真结果分析,本发明方法产生的匹配结果是稳定的,保障了任务的最优分配与资源的最佳配置。
Description
技术领域
本发明属于工业互联网的边缘计算技术领域,具体涉及一种云-边协同的边缘计算任务分配方法、系统及存储介质。
背景技术
工业互联网中海量终端设备(边缘节点)执行环境感知、数据采集与传输任务,由于边缘节点的存储资源与计算资源极其有限,通常需要将计算任务卸载到服务器。云服务器可为边缘节点提供高质量服务,但海量信息的传输却受制于工业互联网的有限带宽资源。若将数据处理从云中心转移到网络边缘,部署边缘服务器,计算任务可分散到工业互联网中靠近终端节点或数据源的边缘侧,不仅可缓解云带宽、计算资源受限等压力,还可以优化工业互联网的体系架构。异构边缘节点产生的计算任务有不同的QoS(Quality ofService,服务质量)需求,如完成截止时间需求。另一方面,不同计算成本的边缘服务器与云服务器可为计算任务提供不同质量的服务。
鉴于工业互联网应用的定制需求,计算任务可分为时延敏感类计算任务与时延非敏感类计算任务,每项计算任务的传输量与计算量不尽相同,时延敏感类计算任务更偏好高性能服务器。另一方面,边缘服务器采用无线通信方式,由于其功耗限制,边缘服务器仅能服务其覆盖范围内的边缘节点(覆盖范围为以边缘服务器为圆心、以通信半径为半径的圆盘)。由于其存储空间与计算性能限制,边缘服务器仅能为一定数量的边缘节点提供服务。云服务器可为所有边缘节点提供服务,但其传输带宽受限,且成本高于边缘服务器,服务器更偏好能给自己带来高收益的计算任务。如何将计算任务分配给服务器(包括边缘服务器与云服务器)是一个NP完全问题。
边缘计算任务分配面临的第一个挑战是如何在计算任务与服务器之间形成一个稳定的匹配结果,即所有的计算任务与服务器都没有动机偏离匹配结果。第二个挑战是如何最大化给定系统资源情况下的计算任务成功率(计算任务的实际完成时间早于其完成时间限制,则认为该任务被成功完成。成功率定义为成功的计算任务所占的比重)。
发明内容
为解决现有技术中存在的不足,本发明提供了一种云-边协同的边缘计算任务分配方法、系统及存储介质,实现了计算任务与计算资源间的最佳匹配,解决了工业互联网海量边缘节点的异质计算任务需求与受限计算资源间的矛盾。
为了解决上述技术问题,本发明采用如下技术方案予以实现:
本发明首先公开了一种云-边协同的边缘计算任务分配方法,包括以下步骤:
步骤1,计算边缘节点的计算任务与服务器在各自通信覆盖范围内对彼此的偏好值,获得边缘节点的计算任务对服务器的偏好值列表以及服务器对边缘节点的计算任务的偏好值列表;
步骤2,对边缘节点的计算任务进行预匹配
步骤201,将所有计算任务和服务器均初始化为自由者;
步骤202,随机选择一个边缘节点,该边缘节点需满足:在边缘节点的计算任务对服务器的偏好值列表中至少有一个服务器没有拒绝该边缘节点的计算任务;若无自由边缘节点可选,则算法结束,所述自由边缘节点指未匹配服务器的边缘节点;
步骤203,经步骤202选中的边缘节点的计算任务向其偏好列表中尚未拒绝自己且偏好值最小的服务器提出服务请求,若无服务器可选,则返回步骤202;否则执行步骤204;
步骤204,服务器从所有向自己提出请求的计算任务中选择偏好值排名靠前的不多于qs个计算任务,作为预匹配结果,同时拒绝其他计算任务;
其中,偏好值排名按照从小到大排列;qs表示每个服务器可支持的计算任务数量;
步骤205:重复上述步骤202至步骤204,直至完成所有边缘节点计算任务的预匹配;
步骤3,对计算任务进行转移,获得更优的匹配结果
步骤301,对于每一个计算任务,更新该计算任务对其偏好值列表中所有服务器的偏好值,获得更新后的计算任务对服务器的偏好值列表;
其中更新后的计算任务对服务器的偏好值为该计算任务在步骤1计算得到的偏好值与该计算任务的等待时间之和;
步骤302,根据步骤301更新后的计算任务对服务器的偏好值列表,确定每一个计算任务的转移候选服务器集合;
所述转移候选服务器集合为该计算任务对应的更新后的计算任务对服务器的偏好列表中,排名先于步骤2的预匹配阶段中该计算任务所匹配服务器的服务器集合;
步骤303,随机选择一个边缘节点,该边缘节点需满足:边缘节点的计算任务的转移候选服务器集合不为空;若无边缘节点可选,则算法结束;
步骤304,经步骤303选中的边缘节点的计算任务,选择其转移候选服务器集合中尚未拒绝转移且偏好值最小的候选服务器,若无候选服务器可选,则返回步骤303;否则执行步骤305;
步骤305,若选择的候选服务器同时满足条件1和条件2,则该计算任务可转移到候选服务器,否则该计算任务被拒绝,不发生转移,返回步骤304选择下一个候选服务器;
条件1:可转移的候选服务器当前服务的计算任务数量未达上限;
条件2:转移涉及的两个服务器在计算任务转移后的效用值之和大于计算任务转移前的效用值之和;
最后获得所有计算任务的匹配结果。
优选的,所述步骤1具体包括以下步骤:
步骤101,采用式(1)获得第i个边缘节点的计算任务vi对第m个服务器sm的偏好值
式(1)中,α、β、χ均表示系统参数,表示第i个边缘节点到第m个服务器sm的传输速率;/>表示计算任务vi的计算量;/>表示计算任务vi需要传输的数据量;/>表示计算任务vi的完成时间约束;/>表示服务器sm的计算能力;/>表示服务器sm的计算成本;m=1,2,…,M,M为服务器的总数量;i=1,2,…,N,N为计算任务的总数量;
按照公式(1),获得所有计算任务对其通信覆盖范围内所有服务器的偏好值;
步骤102,采用式(2)计算第m个服务器sm对第i个边缘节点计算任务vi的偏好值
式(2)中,为第m个服务器到第i个边缘节点的传输速率,/>
按照公式(2),获得所有服务器对其覆盖通信范围内所有计算任务的偏好值;
步骤103,构建边缘节点vi与服务器sm之间的偏好列表。
更优选的,所述步骤101中,传输速率其中,B为信道带宽,为第i个边缘节点到第m个服务器的传输功率,/>为第i个边缘节点到第m个服务器的传输距离、ε为噪声方差,K为关于信道的常数参数
优选的,所述步骤402中,服务器sm的效用值采用式(5)计算,
其中,U({μ(sm)})表示服务器sm的效用值;表示服务器sm对边缘节点计算任务vi的偏好值;μ(sm)表示服务器sm匹配的计算任务的集合。
本发明还公开了一种云-边协同的边缘计算任务分配系统,包括以下模块:
偏好列表构建模块,用于构建边缘节点的计算任务对服务器的偏好值列表以及服务器对边缘节点的计算任务的偏好值列表;
计算任务预匹配模块,用于对边缘节点的计算任务与服务器进行预匹配,具体包括以下子模块:
初始化子模块,用于将所有计算任务和服务器均初始化为自由者;
边缘节点随机选择子模块,用于根据以下条件挑选边缘节点,所述条件为:在边缘节点的计算任务对服务器的偏好值列表中至少有一个服务器没有拒绝该边缘节点的计算任务;
计算任务请求子模块,用于将边缘节点随机选择子模块挑选出的计算任务向该计算任务的偏好列表中尚未拒绝自己且偏好值最小的服务器提出服务请求;
判断子模块,用于判断计算任务请求子模块中是否有服务器可请求,若无,调用边缘节点随机选择子模块,否则调用服务器匹配子模块;
服务器匹配子模块,用于服务器选择合适的计算任务作为预匹配结果,同时拒绝其他计算任务;所述选择原则为:每个服务器从所有向自己提出请求的计算任务中选择偏好值排名靠前的不多于qs个计算任务;
计算任务转移模块,用于对计算任务非匹配库中的计算任务进行转移,获得更优的匹配结果,具体包括以下子模块:
偏好值更新子模块,用于每一个计算任务对其偏好值列表中所有服务器的偏好值,获得更新后的计算任务对服务器的偏好值列表;其中更新后的计算任务对服务器的偏好值为该计算任务在偏好列表构建模块得到的偏好值与该计算任务的等待时间之和;
转移候选服务器选取子模块,用于确定每一个计算任务的转移候选服务器集合;所述转移候选服务器集合为该计算任务对应的更新后的计算任务对服务器的偏好列表中,排名先于计算任务预匹配模块中该计算任务所匹配服务器的服务器集合;
被转移计算任务随机选择子模块,用于根据以下条件挑选被转移的边缘节点的计算任务,所述条件为:边缘节点的计算任务的移候选服务器集合不为空;
转移候选服务器选择子模块,用于选择计算任务可转移的候选服务器,具体选择原则为:首先,计算任务选择其转移候选服务器集合中尚未拒绝转移且偏好值最小的候选服务器;然后,选择的候选服务器需同时满足条件1和条件2,
条件1:可转移的候选服务器当前服务的计算任务数量未达上限;
条件2:转移涉及的两个服务器在计算任务转移后的效用值之和大于计算任务转移前的效用值之和;
计算任务转移子模块,用于将计算任务转移至转移候选服务器选择子模块确定的候选服务器;
计算任务匹配库,用于存储匹配成功的计算任务匹配结果。
优选的,所述偏好列表构建模块中,采用式(1)获得第i个边缘节点的计算任务vi对第m个服务器sm的偏好值
采用式(2)计算第m个服务器sm对第i个边缘节点计算任务vi的偏好值
式(2)中,为第m个服务器到第i个边缘节点的传输速率,/>
优选的,所述转移候选服务器选择子模块中,服务器sm的效用值采用式(5)计算,
其中,U({μ(sm)})表示服务器sm的效用值;表示服务器sm对边缘节点计算任务vi的偏好值;μ(sm)表示服务器sm匹配的计算任务的集合。
本发明还公开了一种计算机可读存储介质,所述计算机可读存储介质中存储有本发明所述的云-边协同的边缘计算任务分配方法程序,当本发明所述的云-边协同的边缘计算任务分配方法程序被处理器执行时,实现本发明所述的云-边协同的边缘计算任务分配方法的具体步骤。
与现有技术相比,本发明的有益效果是:
本发明方法主要采用两阶段计算任务分配策略:基于计算任务与服务器间的偏好,第一阶段实现计算任务与服务器间的预匹配;基于预匹配结果,更新计算任务对服务器的偏好值,研判计算任务是否有更佳的匹配结果,若有,第二阶段实现计算任务在服务器间的转移,优化计算任务的QoS需求与完成质量。经仿真结果分析,本发明方法产生的匹配结果是稳定的,保障了任务的最优分配与资源的最佳配置;
本发明的其他优点在具体实施方式中进行详细说明。
附图说明
图1是本发明的边缘服务器-云服务器协同任务分配系统示意图;
图2是本发明的方法流程图;
图3是边缘节点数量-计算任务成功率关系图;
图4是服务器数量-计算任务成功率关系图;
图5是边缘节点数量-执行时间关系图;
图6是边缘节点数量-计算任务完成时间关系图;
图7是边缘服务器数量-计算任务完成时间关系图;
图8是边缘节点数量-计算任务幸福指数关系图;
图9是边缘服务器数量-计算任务幸福指数关系图;
图10是边缘节点数量-服务器效用值关系图;
图11是边缘服务器数量-服务器效用值关系图。
具体实施方式
“边缘服务器”是指工业互联网为服务边缘节点而部署的、靠近物联网设备的承载边缘计算功能的实物载体。边缘服务器采用无线通信方式,由于其功耗限制,边缘服务器仅能服务其覆盖范围内的边缘节点(覆盖范围为以边缘服务器为圆心、以通信半径为半径的圆盘)。由于其存储空间与计算性能限制,边缘服务器仅能为一定数量的边缘节点提供服务。
“边缘节点”是指工业互联网中的物联网设备,具有环境感知、数据采集与传输能力,但计算能力较弱。边缘节点也有通信半径,仅能使用覆盖范围内的服务器(覆盖范围为以边缘节点为圆心、以通信半径为半径的圆盘)。
本发明中,一个边缘节点仅有一个需要执行的计算任务,若边缘节点有多个计算任务,则将该边缘节点虚拟为多个具有单计算任务的多个边缘节点。
本发明中“步骤201,将所有计算任务和服务器均初始化为自由者”中的“自由者”是指没有匹配对象的边缘节点和服务器。
以下给出本发明的具体实施例,需要说明的是,本发明并不局限于以下具体实施例,在下述具体实施例中所描述的各个具体技术特征,在不矛盾的情况下,可以通过任何合适的方式进行组合,只要其不违背本发明的思想,同样应当视其为本发明所公开的内容。
实施例1
本实施例公开了一种云-边协同的边缘计算任务分配方法,该方法主要采用两阶段计算任务分配策略,协同云服务器与边缘服务器,为边缘节点的计算任务提供计算支持:基于计算任务与服务器间的偏好,第一阶段实现计算任务与服务器间的预匹配;基于预匹配结果,更新计算任务对服务器的偏好值,研判计算任务是否有更佳的匹配结果,若有,第二阶段实现计算任务在服务器间的转移,优化计算任务的QoS需求与完成质量。
首先,构建系统模型,为边缘计算任务分配提供一个系统框架,如图1所示,具体为:
将边缘计算任务分配系统表示为三元组Γ=<W,S,P>,其中,
W为边缘节点的集合,N为边缘节点的数量,一个边缘节点仅有一个需要执行的计算任务,若边缘节点有多个计算任务,将该边缘节点虚拟为多个具有单计算任务的多个边缘节点,因此边缘节点的计算任务的数量也为N,本实施例仿真时计算任务数量N为25;计算任务用vi表示,i=1,2,...,N。
S为服务器sm的集合,即sm∈S,sm为第m个服务器,m=1,2,...,M,M为服务器的数量,包括多个边缘服务器和一个云服务器。边缘服务器可为覆盖范围内的边缘节点vi提供计算服务,且有可支持的计算任务数量上限,云服务器可为所有边缘节点服务且无服务数量限制;一个计算任务只能匹配一个服务器,一个服务器可以匹配多个计算任务。本实施例仿真时设置的服务器数量总数为10个,其中边缘服务器数量为9,云服务器数量为1。
为边缘节点计算任务vi与服务器sm之间的偏好值,/>为服务器sm对边缘节点计算任务vi的偏好值。
本实施例的物联网设备被随机分布在15×15(km2)的地区内,为保证每个设备通信半径内均有边缘服务器节点,边缘服务器被均匀的分布在地区内,每个边缘节点的通信半径设置为3.5km。
基于上述边缘计算任务分配模型,本实施例的具体分配方法包括以下步骤:
第一阶段:
步骤1,计算边缘节点的计算任务与服务器在各自通信覆盖范围内对彼此的偏好值,获得边缘节点的计算任务对服务器的偏好值列表以及服务器对边缘节点的计算任务的偏好值列表;具体步骤如下:
第i个边缘节点的计算任务表示为其中,/>表示计算任务的计算量,本实施例每个任务的计算量从(15,25)MB范围内随机取值,/>表示计算任务需要传输的数据量,本实施例每个任务的数据传输量从(10,25)MB范围内随机取值,/>表示任务的完成时间约束,即计算任务必须在/>之前完成,否则任务失败,本实施例/>秒。
服务器sm表示为其中/>表示服务器sm的计算能力,本实施例的边缘服务器的计算能力为(0,12]GHz,云服务器为(10,25)GHz;/>表示服务器sm的计算成本,计算成本/>与计算能力/>成正比,云服务器的计算成本=云服务器的计算能力*0.5千元,边缘服务器的计算成本=边缘服务器的计算能力*0.1千元;/>表示服务器sm可支持的计算任务数量,即最大可接入数,本实施例的边缘服务器的最大可接入数为4,云服务器无最大可接入数限制,故实现时设置为边缘节点的数量25。
步骤101,鉴于边缘节点vi倾向选择传输时间更短、计算能力更强、任务花费更低的服务器,综合考虑计算任务的传输数据量、计算量与服务器的计算能力、计算成本,采用式(1)获得第i个边缘节点的计算任务vi对服务器sm的偏好值
式(1)中,α、β、χ均为系统参数,具体实施例中,α、β、χ主要作为权重参数,取值均为1;为第i个边缘节点到第m个服务器sm的传输速率,/>B为信道带宽,本实施例B=50Mhz,/>为第i个边缘节点到第m个服务器的传输功率,本实施例的传输功率取值为100mW;/>为第i个边缘节点到第m个服务器的传输距离,本实施例中边缘节点被随机分布在15km*15km的地区内,为保证每个设备通信半径内均有边缘服务器节点,边缘服务器被均匀的分布在地区内,每个节点的通信半径设置为3.5km;ε为噪声方差,本实施例噪声方差的取值是-100dBm;K为关于信道的常数参数,本实施例中K=10-5;
按照公式(1),得到所有计算任务对各自覆盖范围内的服务器的偏好值。
步骤102,鉴于服务器sm倾向于服务能耗更小、收益更大的计算任务,综合考虑计算任务的传输数据量、计算量与服务器的计算能力、计算成本,采用式(2)计算服务器sm对边缘节点计算任务vi的偏好值
式(2)中,为第m个服务器到第i个边缘节点的传输速率,/>
按照公式(2),得到所有服务器对各自覆盖范围内的计算任务的偏好值。
步骤103,构建边缘节点vi与服务器sm之间的偏好列表:
任意边缘节点的偏好关系>可定义为服务器集合S或边缘节点集合V上的一个完整、自反和传递的二元关系。
对于任意两个服务器sm,sn,sm,sn∈S,m≠n,若边缘节点vi更偏好于服务器sm,则偏好关系>vi可表示为:
对于任意两个边缘节点vi,vj,vi,vj∈V,i≠j,若服务器sm更倾向于边缘节点vi,则其偏好关系>sm可表示为:
步骤2,基于匹配理论的边缘节点计算任务预匹配
边缘节点的计算任务和服务器之间的匹配结果μ是一个映射:V∪M→2v∪M,2v是V的所有子集的集合,M为服务器的数量,用μ(vi)表示计算任务vi所匹配的服务器,用μ(sm)表示服务器匹配的计算任务集合。例如,计算任务v1、v2被匹配到服务器s1,则μ(v1)=s1,μ(v2)=s1,μ(s1)={v1,v2}。计算任务和服务器之间的匹配结果必须是稳定的,即参与匹配的双方满意当前的匹配结果,无偏离当前匹配结果的动机。
具体实现步骤如下:
步骤201:将所有计算任务和服务器均初始化为自由者;
步骤202:随机选择一个边缘节点,该边缘节点满足:在边缘节点的计算任务对服务器的偏好值列表中至少有一个服务器没有拒绝该边缘节点的计算任务,即该边缘节点至少未被自己偏好列表中的一个服务器拒绝;
步骤203:经步骤202选中的边缘节点的计算任务向其偏好列表中尚未拒绝自己且偏好值(即)最小的服务器提出服务请求,若无服务器可选,则返回步骤202;否则执行步骤204;
步骤204:基于服务器可支持的计算任务数量限制,并结合自己的偏好列表,每个服务器从所有向自己提出请求的计算任务中选择偏好值(即)排名靠前的不多于qs个计算任务,作为预匹配结果,同时拒绝其他计算任务;其中偏好值/>是按照从小到大排列;qs表示每个服务器可支持的计算任务数量;
步骤205:重复上述步骤202至步骤204,直至完成所有边缘节点计算任务的匹配。
第二阶段:
步骤3,对计算任务进行转移,获得更优的匹配结果
步骤301,对于每一个计算任务,更新该计算任务对其偏好值列表(即步骤1中的偏好值列表)中所有服务器的偏好值,获得更新后的计算任务对服务器的偏好值列表;
其中更新后的计算任务对服务器的偏好值为该计算任务在步骤1计算得到的偏好值与该计算任务的等待时间之和,具体可表示为:
其中,为第i个边缘节点的计算任务vi对服务器sm的偏好值/>计算任务vi所匹配的服务器,μ(μ(vi))为计算任务vi当前匹配的服务器μ(vi)所匹配的计算任务集合;表示等待时间,vk为所有被匹配到vi所匹配服务器的计算任务,而且这些计算任务的偏好值大于vi;
步骤302,根据步骤301更新后的计算任务对服务器的偏好值列表,确定每一个计算任务的转移候选服务器集合;
其中,转移候选服务器集合为该计算任务对应的更新后的计算任务对服务器的偏好列表中,排名先于步骤2的预匹配阶段中该计算任务所匹配服务器的服务器集合;每一个计算任务的转移候选服务器可以有0个、1或多个。
步骤303,随机选择一个边缘节点,该边缘节点需满足:边缘节点的计算任务的移候选服务器集合不为空;若无边缘节点可选,则算法结束;
步骤304,经步骤303选中的边缘节点的计算任务,选择其转移候选服务器集合中尚未拒绝转移且偏好值最小的候选服务器,若无候选服务器可选,则返回步骤303;否则执行步骤305;
步骤305,若选择的候选服务器同时满足条件1和条件2,则该计算任务可转移到候选服务器,否则该计算任务被拒绝,不发生转移,返回步骤304选择下一个候选服务器;
条件1:可转移的候选服务器当前服务的计算任务数量未达上限;
条件2:转移涉及的两个服务器在计算任务转移后的效用值之和大于计算任务转移前的效用值之和,具体可表示为:
U({μ(sm)}\{vi})+U({μ(sm′)}∪{vi})>U({μ(sm)})+U({μ(sm′)})(4)
U({μ(sm)})表示计算任务转移前所匹配的服务器sm的效用值,U({μ(sm′)})表示计算任务转移后所匹配的服务器sm′的效用值,U({μ(sm)}\{vi})表示计算任务vi转移前所匹配的服务器sm在移除计算任务vi后的效用值,U({μ(sm′)}∪{vi})表示计算任务vi拟迁移的服务器sm′在接受vi后的效用值;
其中,服务器sm的效用值采用式(5)计算,
将U({μ(sj)})带入式(4)中,可得:
式(6)中,表示服务器sm对边缘节点计算任务vi的偏好值;/>表示计算任务转移后所匹配的服务器sm′对边缘节点计算任务vi的偏好值;
最后获得所有计算任务的匹配结果。
本实施例的方法在Matlab环境下仿真实现并评估本实施例方法的性能,计算机配置为Intel Core i5,8GB内存,从计算任务的完成时间、计算任务的成功率、计算任务的幸福指数、服务器的效用值等方面分析所提算法的有效性。
本发明还将本实施例的方法与以下常用基准算法(1)、(2)、(3)进行比较:
(1)不带转移的边缘计算任务卸载算法。该算法只执行计算任务与服务器间的第一阶段预匹配(即上述实施例中的第一阶段)。
(2)最短任务优先调度算法SJF(Shortest Job First)。该算法的主要思想为服务器优先执行处理时间较短的边缘计算任务。
(3)最短剩余时间优先调度算法SRTF(Shortest Remaining Time First)。该算法的核心思想为服务器优先执行截止日期较早的边缘计算任务。
以下对本发明方法与现有常用的方法的性能进行分析
(1)计算任务的成功率分析
若计算任务的实际完成时间早于完成时间限制,则该计算任务成功。所有成功完成的边缘计算任务在总计算任务中的占比,定义为系统中计算任务的成功率。实验基于任务的计算量与传输量、完成时限、任务收益占比来衡量任务价值,权值参数为(3:1:1),其中计算量与传输量越大、任务时限越短、任务收益占比越高的任务具有更高的价值,但完成难度也更高。
如图3所示,计算任务的成功率随着边缘节点的数量增加而降低,与三种常用基准算法相比,本发明方法能获得最高的成功率。其原因在于:1)随着边缘节点的增加,计算任务数量也随着增加,而服务器资源固定,因此计算任务的成功率会随着服务器的计算资源匮乏而逐渐减低;2)针对计算任务的实际完成时间是否满足完成时间需求,本发明方法对预匹配结果进行了调整,因此获得了最高的成功率。
如图4所示,计算任务的成功率随着服务器的数量增加而增加,与三种常用基准算法相比,本发明方法能获得最高的成功率。其原因在于:1)随着服务器数量的增加,而计算任务数量固定,因此计算任务的成功率会随着计算资源的增加而逐渐增加;2)由于本发明方法基于预匹配结果进行再调整,因此能获得最高的成功率。
(2)方法的复杂度分析
算法的时间复杂度取决于算法的运行时间。为了提升计算任务的成功率,本发明方法基于预匹配结果,对计算任务的偏好列表进行更新,并结合服务器的可支持计算任务数量与效用,基于更新后的偏好列表,将有更优匹配的计算任务转移到可用的新服务器。因此,与不带转移的边缘计算任务卸载算法相比,本发明的运行时间更长一些,但增加值在可接受范围内,如图5所示。
(3)计算任务的完成时间分析
计算任务的实际完成时间取决于该计算任务当前匹配的服务器性能,也与该计算任务的偏好排名相关。随着计算任务的增加,服务器匹配的计算任务队列也随之增加,偏好排名靠后的计算任务的等待时间也增加,因此,计算任务的完成时间也增加。由于本发明方法将计算任务的完成时间作为第一考虑要素,因此获得了最佳的完成时间,如图6所示。随着服务器数量的增加,计算任务的选择空间更大,因此计算任务的完成时间逐渐减小,如图7所示。值得注意的是,不带转移的边缘计算任务分配算法起初优于本发明方法,而后被本发明方法反超。原因在于:1)算法运行伊始,由于服务器数量不足,所提算法的时间复杂度高且不能实现实质性的转移,其优势大打折扣,因此不带转移的分配算法的实际平均完成时间低于所提算法;2)随着服务器数量的增加,所提算法的转移优势有了用武之地,因此所提算法的平均完成时间低于其他基准算法。
(4)计算任务的幸福指数分析
计算任务的幸福指数被定义为该计算任务被匹配的百分位。例如,给定5个服务器,若计算任务被匹配到其偏好列表中排名第一的服务器,则该计算任务的幸福指数为100%;若计算任务被匹配到其偏好列表中排名第二的服务器,则该计算任务的幸福指数为80%;若计算任务未被匹配到任何服务器,则该用户的幸福指数为0%。计算任务的幸福指数与边缘节点数量的关系见图8,随着边缘节点数量的增加,对应的计算任务被分配到最偏好的服务器概率逐渐降低,因此本发明方法的幸福指数缓慢下降。计算任务的幸福指数与服务器数量的关系见图9,随着服务器数量的增加,计算任务被分配到最偏好的服务器概率逐渐增加,因此本发明方法的幸福指数随之增加。
(5)服务器的效用值分析
服务器的效用值取决于其对所匹配计算任务的偏好值。服务器的效用值与边缘节点数量的关系见图10,随着边缘节点数量的增加,服务器的效用值随之增加,本发明方法获得最大的服务器效用值,原因在于:1)由于本发明方法具有再次匹配的机会,因而服务器更有可能匹配到自己更喜欢的计算任务,与三个常用基准算法相比,本发明方法的转移策略提升了服务器的效用值;2)转移条件规定,转移后的系统效用必须大于转移前的系统效用,因此,边缘计算任务的成功转移导致系统效用的增加。服务器的效用值与服务器数量的关系见图11,随着服务器数量的增加,服务器的效用值随之增加,与无转移的边缘计算任务分配算法、最短剩余时间优先调度算法SRTF相比,本发明方法获得的服务器效用值最佳,原因在于:1)随着服务器数量的增加,服务器匹配到偏好靠前的计算任务的概率增大,因此效用增加;
2)所提算法的转移策略将提升将偏好靠前的计算任务分配给服务器的机会,因而转移将进一步提高所提算法的效用。
实施例2
本实施例公开了云-边协同的边缘计算任务分配系统,该系统包括以下模块:
偏好列表构建模块,用于构建边缘节点的计算任务对服务器的偏好值列表以及服务器对边缘节点的计算任务的偏好值列表;
该模块具体采用式(1)获得第i个边缘节点的计算任务vi对服务器sm的偏好值
采用式(2)计算服务器sm对边缘节点计算任务vi的偏好值
计算任务预匹配模块,用于对边缘节点的计算任务与服务器进行预匹配,具体包括以下子模块:
初始化子模块,用于将所有计算任务和服务器均初始化为自由者;
边缘节点随机选择子模块,用于根据以下条件挑选边缘节点,条件为:在边缘节点的计算任务对服务器的偏好值列表中至少有一个服务器没有拒绝该边缘节点的计算任务;
计算任务请求子模块,用于将边缘节点随机选择子模块挑选出的计算任务向该计算任务的偏好列表中尚未拒绝自己且偏好值最大的服务器提出服务请求;
判断子模块,用于判断计算任务请求子模块中是否有服务器可请求,若无,调用边缘节点随机选择子模块,否则调用服务器匹配子模块;
服务器匹配子模块,用于服务器选择合适的计算任务作为预匹配结果,同时拒绝其他计算任务;所述选择原则为:每个服务器从所有向自己提出请求的计算任务中选择偏好值排名靠前的qs个计算任务;
计算任务转移模块,用于对计算任务非匹配库中的计算任务进行转移,获得更优的匹配结果,具体包括以下子模块:
偏好值更新子模块,用于每一个计算任务对其偏好值列表中所有服务器的偏好值,获得更新后的计算任务对服务器的偏好值列表;其中更新后的计算任务对服务器的偏好值为该计算任务在偏好列表构建模块得到的偏好值与该计算任务的等待时间之和;
转移候选服务器选取子模块,用于确定每一个计算任务的转移候选服务器集合;所述转移候选服务器集合为该计算任务对应的更新后的计算任务对服务器的偏好列表中,排名先于计算任务预匹配模块中该计算任务所匹配服务器的服务器集合;
被转移计算任务随机选择子模块,用于根据以下条件挑选被转移的边缘节点的计算任务,所述条件为:边缘节点的计算任务的移候选服务器集合不为空;
转移候选服务器选择子模块,用于选择计算任务可转移的候选服务器,具体选择原则为:首先,计算任务选择其转移候选服务器集合中尚未拒绝转移且偏好值最小的候选服务器;然后,选择的候选服务器需同时满足条件1和条件2,
条件1:可转移的候选服务器当前服务的计算任务数量未达上限;
条件2:转移涉及的两个服务器在计算任务转移后的效用值之和大于计算任务转移前的效用值之和,具体可表示为:
上式中,表示服务器sm对边缘节点计算任务vi的偏好值;μ(sm)表示服务器sm匹配的计算任务的集合;/>表示计算任务转移后所匹配的服务器sm′对边缘节点计算任务vi的偏好值;
计算任务转移子模块,用于将计算任务转移至转移候选服务器选择子模块确定的候选服务器;
计算任务匹配库,用于存储匹配成功的计算任务匹配结果。
实施例3
本实施例公开了一种计算机可读存储介质,该计算机可读存储介质中存储有实施例1记载的云-边协同的边缘计算任务分配方法的程序,当实施例1记载的云-边协同的边缘计算任务分配方法程序被处理器执行时,实现实施例1的云-边协同的边缘计算任务分配方法的具体步骤。
Claims (8)
1.云-边协同的边缘计算任务分配方法,其特征在于,包括以下步骤:
步骤1,计算边缘节点的计算任务与服务器在各自通信覆盖范围内对彼此的偏好值,获得边缘节点的计算任务对服务器的偏好值列表以及服务器对边缘节点的计算任务的偏好值列表;
步骤2,对边缘节点的计算任务进行预匹配
步骤201,将所有计算任务和服务器均初始化为自由者;
步骤202,随机选择一个边缘节点,该边缘节点需满足:在边缘节点的计算任务对服务器的偏好值列表中至少有一个服务器没有拒绝该边缘节点的计算任务;若无自由边缘节点可选,则算法结束,所述自由边缘节点指未匹配服务器的边缘节点;
步骤203,经步骤202选中的边缘节点的计算任务向其偏好列表中尚未拒绝自己且偏好值最小的服务器提出服务请求,若无服务器可选,则返回步骤202;否则执行步骤204;
步骤204,服务器从所有向自己提出请求的计算任务中选择偏好值排名靠前的不多于qs个计算任务,作为预匹配结果,同时拒绝其他计算任务;
其中,偏好值排名按照从小到大排列;qs表示每个服务器可支持的计算任务数量;
步骤205:重复上述步骤202至步骤204,直至完成所有边缘节点计算任务的预匹配;
步骤3,对计算任务进行转移,获得更优的匹配结果
步骤301,对于每一个计算任务,更新该计算任务对其偏好值列表中所有服务器的偏好值,获得更新后的计算任务对服务器的偏好值列表;
其中更新后的计算任务对服务器的偏好值为该计算任务在步骤1计算得到的偏好值与该计算任务的等待时间之和;
步骤302,根据步骤301更新后的计算任务对服务器的偏好值列表,确定每一个计算任务的转移候选服务器集合;
所述转移候选服务器集合为该计算任务对应的更新后的计算任务对服务器的偏好列表中,排名先于步骤2的预匹配阶段中该计算任务所匹配服务器的服务器集合;
步骤303,随机选择一个边缘节点,该边缘节点需满足:边缘节点的计算任务的转移候选服务器集合不为空;若无边缘节点可选,则算法结束;
步骤304,经步骤303选中的边缘节点的计算任务,选择其转移候选服务器集合中尚未拒绝转移且偏好值最小的候选服务器,若无候选服务器可选,则返回步骤303;否则执行步骤305;
步骤305,若选择的候选服务器同时满足条件1和条件2,则该计算任务可转移到候选服务器,否则该计算任务被拒绝,不发生转移,返回步骤304选择下一个候选服务器;
条件1:可转移的候选服务器当前服务的计算任务数量未达上限;
条件2:转移涉及的两个服务器在计算任务转移后的效用值之和大于计算任务转移前的效用值之和;
最后获得所有计算任务的匹配结果。
2.如权利要求1所述的云-边协同的边缘计算任务分配方法,其特征在于,所述步骤1具体包括以下步骤:
步骤101,采用式(1)获得第i个边缘节点的计算任务vi对第m个服务器sm的偏好值
式(1)中,α、β、χ均表示系统参数,表示第i个边缘节点到第m个服务器sm的传输速率;/>表示计算任务vi的计算量;/>表示计算任务vi需要传输的数据量;/>表示计算任务vi的完成时间约束;/>表示服务器sm的计算能力;/>表示服务器sm的计算成本;m=1,2,...,M,M为服务器的总数量;i=1,2,...,N,N为计算任务的总数量;
按照公式(1),获得所有计算任务对其通信覆盖范围内所有服务器的偏好值;
步骤102,采用式(2)计算第m个服务器sm对第i个边缘节点计算任务vi的偏好值
式(2)中,为第m个服务器到第i个边缘节点的传输速率,/>
按照公式(2),获得所有服务器对其覆盖通信范围内所有计算任务的偏好值;
步骤103,构建边缘节点vi与服务器sm之间的偏好列表。
3.如权利要求2所述的云-边协同的边缘计算任务分配方法,其特征在于,所述步骤101中,传输速率其中,B为信道带宽,/>为第i个边缘节点到第m个服务器的传输功率,/>为第i个边缘节点到第m个服务器的传输距离、ε为噪声方差,K为关于信道的常数参数。
4.如权利要求1所述的云-边协同的边缘计算任务分配方法,其特征在于,服务器sm的效用值采用式(5)计算,
其中,U({μ(sm)})表示服务器sm的效用值;表示服务器sm对边缘节点计算任务vi的偏好值;μ(sm)表示服务器sm匹配的计算任务的集合。
5.云-边协同的边缘计算任务分配系统,其特征在于,包括以下模块:
偏好列表构建模块,用于构建边缘节点的计算任务对服务器的偏好值列表以及服务器对边缘节点的计算任务的偏好值列表;
计算任务预匹配模块,用于对边缘节点的计算任务与服务器进行预匹配,具体包括以下子模块:
初始化子模块,用于将所有计算任务和服务器均初始化为自由者;
边缘节点随机选择子模块,用于根据以下条件挑选边缘节点,所述条件为:在边缘节点的计算任务对服务器的偏好值列表中至少有一个服务器没有拒绝该边缘节点的计算任务;
计算任务请求子模块,用于将边缘节点随机选择子模块挑选出的计算任务向该计算任务的偏好列表中尚未拒绝自己且偏好值最小的服务器提出服务请求;
判断子模块,用于判断计算任务请求子模块中是否有服务器可请求,若无,调用边缘节点随机选择子模块,否则调用服务器匹配子模块;
服务器匹配子模块,用于服务器选择合适的计算任务作为预匹配结果,同时拒绝其他计算任务;所述选择原则为:每个服务器从所有向自己提出请求的计算任务中选择偏好值排名靠前的不多于qs个计算任务;
计算任务转移模块,用于对计算任务非匹配库中的计算任务进行转移,获得更优的匹配结果,具体包括以下子模块:
偏好值更新子模块,用于每一个计算任务对其偏好值列表中所有服务器的偏好值,获得更新后的计算任务对服务器的偏好值列表;其中更新后的计算任务对服务器的偏好值为该计算任务在偏好列表构建模块得到的偏好值与该计算任务的等待时间之和;
转移候选服务器选取子模块,用于确定每一个计算任务的转移候选服务器集合;所述转移候选服务器集合为该计算任务对应的更新后的计算任务对服务器的偏好列表中,排名先于计算任务预匹配模块中该计算任务所匹配服务器的服务器集合;
被转移计算任务随机选择子模块,用于根据以下条件挑选被转移的边缘节点的计算任务,所述条件为:边缘节点的计算任务的移候选服务器集合不为空;
转移候选服务器选择子模块,用于选择计算任务可转移的候选服务器,具体选择原则为:首先,计算任务选择其转移候选服务器集合中尚未拒绝转移且偏好值最小的候选服务器;然后,选择的候选服务器需同时满足条件1和条件2,
条件1:可转移的候选服务器当前服务的计算任务数量未达上限;
条件2:转移涉及的两个服务器在计算任务转移后的效用值之和大于计算任务转移前的效用值之和;
计算任务转移子模块,用于将计算任务转移至转移候选服务器选择子模块确定的候选服务器;
计算任务匹配库,用于存储匹配成功的计算任务匹配结果。
6.如权利要求5所述的云-边协同的边缘计算任务分配系统,其特征在于,所述偏好列表构建模块中,采用式(1)获得第i个边缘节点的计算任务vi对第m个服务器sm的偏好值
采用式(2)计算第m个服务器sm对第i个边缘节点计算任务vi的偏好值
式(2)中,为第m个服务器到第i个边缘节点的传输速率,/>
7.如权利要求5所述的云-边协同的边缘计算任务分配系统,其特征在于,所述转移候选服务器选择子模块中,服务器sm的效用值采用式(5)计算,
其中,U({μ(sm)})表示服务器sm的效用值;表示服务器sm对边缘节点计算任务vi的偏好值;μ(sm)表示服务器sm匹配的计算任务的集合。
8.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有权利要求1至4任一项所述的云-边协同的边缘计算任务分配方法程序,当权利要求1至4任一项所述的云-边协同的边缘计算任务分配方法程序被处理器执行时,实现权利要求1至4任一项所述的云-边协同的边缘计算任务分配方法的具体步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110855984.1A CN113608848B (zh) | 2021-07-28 | 2021-07-28 | 云-边协同的边缘计算任务分配方法、系统及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110855984.1A CN113608848B (zh) | 2021-07-28 | 2021-07-28 | 云-边协同的边缘计算任务分配方法、系统及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113608848A CN113608848A (zh) | 2021-11-05 |
CN113608848B true CN113608848B (zh) | 2024-02-27 |
Family
ID=78338475
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110855984.1A Active CN113608848B (zh) | 2021-07-28 | 2021-07-28 | 云-边协同的边缘计算任务分配方法、系统及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113608848B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016045515A1 (zh) * | 2014-09-23 | 2016-03-31 | 同济大学 | 基于用户满意度的云任务调度算法 |
CN111182570A (zh) * | 2020-01-08 | 2020-05-19 | 北京邮电大学 | 提高运营商效用的用户关联和边缘计算卸载方法 |
CN112888002A (zh) * | 2021-01-26 | 2021-06-01 | 重庆邮电大学 | 一种基于博弈论的移动边缘计算任务卸载及资源分配方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10686891B2 (en) * | 2017-11-14 | 2020-06-16 | International Business Machines Corporation | Migration of applications to a computing environment |
-
2021
- 2021-07-28 CN CN202110855984.1A patent/CN113608848B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016045515A1 (zh) * | 2014-09-23 | 2016-03-31 | 同济大学 | 基于用户满意度的云任务调度算法 |
CN111182570A (zh) * | 2020-01-08 | 2020-05-19 | 北京邮电大学 | 提高运营商效用的用户关联和边缘计算卸载方法 |
CN112888002A (zh) * | 2021-01-26 | 2021-06-01 | 重庆邮电大学 | 一种基于博弈论的移动边缘计算任务卸载及资源分配方法 |
Non-Patent Citations (2)
Title |
---|
基于综合信任的边缘计算资源协同研究;邓晓衡;关培源;万志文;刘恩陆;罗杰;赵智慧;刘亚军;张洪刚;;计算机研究与发展;20180315(第03期);全文 * |
边缘计算的任务迁移机制研究;张伟;;软件导刊;20200915(第09期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113608848A (zh) | 2021-11-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113950066B (zh) | 移动边缘环境下单服务器部分计算卸载方法、系统、设备 | |
CN111262940B (zh) | 一种车载边缘计算应用缓存方法、装置及系统 | |
CN111182570B (zh) | 提高运营商效用的用户关联和边缘计算卸载方法 | |
Yi et al. | A queueing game based management framework for fog computing with strategic computing speed control | |
CN111614754B (zh) | 面向雾计算的成本效率优化的动态自适应任务调度方法 | |
CN114567895A (zh) | 一种mec服务器集群的智能协同策略的实现方法 | |
CN115629865B (zh) | 一种基于边缘计算的深度学习推理任务调度方法 | |
Matrouk et al. | Mobility aware-task scheduling and virtual fog for offloading in IoT-fog-cloud environment | |
Hosseinzadeh et al. | Optimal accuracy-time trade-off for deep learning services in edge computing systems | |
Zhang et al. | An Efficient Caching and Offloading Resource Allocation Strategy in Vehicular Social Networks | |
Zhu et al. | Computing offloading decision based on multi-objective immune algorithm in mobile edge computing scenario | |
Apinaya Prethi et al. | A multi-objective optimization of resource management and minimum batch VM migration for prioritized task allocation in fog-edge-cloud computing | |
CN113608848B (zh) | 云-边协同的边缘计算任务分配方法、系统及存储介质 | |
He et al. | A DDPG hybrid of graph attention network and action branching for multi-scale end-edge-cloud vehicular orchestrated task offloading | |
CN116321189A (zh) | 一种面向边缘计算中基于深度强化学习的服务器部署方法 | |
Cao et al. | Performance and stability of application placement in mobile edge computing system | |
CN115604853A (zh) | 边缘计算的车辆依赖任务卸载方法及系统 | |
CN115065683A (zh) | 基于车辆聚类的车辆边缘网络任务分配卸载方法 | |
Khansoltani et al. | A request redirection algorithm in content delivery network: Using promethee approach | |
CN115766478A (zh) | 一种空地协同边缘计算服务器的卸载方法 | |
CN114356585A (zh) | 一种移动边缘计算卸载的优化方法、装置及计算机设备 | |
Nour et al. | Unsupervised data splitting scheme for federated edge learning in iot networks | |
Luo et al. | Cost-efficient UAV deployment and content placement for cellular systems with D2D communications | |
Chauhan et al. | Adaptive application offloading for QoS maximization in cloud-fog environment with delay-constraint | |
Jangu et al. | Smart admission control strategy utilizing volunteer‐enabled fog‐cloud computing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |