WO2020216135A1 - 基于边-端协同的多用户多mec任务卸载资源调度方法 - Google Patents

基于边-端协同的多用户多mec任务卸载资源调度方法 Download PDF

Info

Publication number
WO2020216135A1
WO2020216135A1 PCT/CN2020/085258 CN2020085258W WO2020216135A1 WO 2020216135 A1 WO2020216135 A1 WO 2020216135A1 CN 2020085258 W CN2020085258 W CN 2020085258W WO 2020216135 A1 WO2020216135 A1 WO 2020216135A1
Authority
WO
WIPO (PCT)
Prior art keywords
task
mec
delay
time
user
Prior art date
Application number
PCT/CN2020/085258
Other languages
English (en)
French (fr)
Inventor
朱晓荣
吴柳青
朱洪波
唐思宇
朱振宇
Original Assignee
南京邮电大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 南京邮电大学 filed Critical 南京邮电大学
Priority to JP2021562894A priority Critical patent/JP7162385B2/ja
Publication of WO2020216135A1 publication Critical patent/WO2020216135A1/zh

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W16/00Network planning, e.g. coverage or traffic planning tools; Network deployment, e.g. resource partitioning or cells structures
    • H04W16/02Resource partitioning among network components, e.g. reuse partitioning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W28/00Network traffic management; Network resource management
    • H04W28/16Central resource management; Negotiation of resources or communication parameters, e.g. negotiating bandwidth or QoS [Quality of Service]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Definitions

  • the invention relates to a multi-user multi-MEC task offloading resource scheduling method based on side-to-end coordination, and belongs to the technical field of network resource allocation.
  • Mobile Edge Computing (MEC) technology is a kind of distributed computing, which places data processing, application operation and even the realization of some functional services on nodes at the edge of the network.
  • the mobile edge cloud is composed of one or more edge servers, that is, a server equipped with computing and storage functions on a traditional base station to update the traditional base station to a mobile edge computing base station. Since the MEC base station is close to the user terminal, it can help the mobile terminal to process tasks, reduce the task processing time delay, and reduce the energy consumption of the mobile terminal.
  • edge computing transfers data processing and other functions from the network center to the network edge nodes, processing data nearby, without uploading large amounts of data to the remote core management platform, which can reduce data going back and forth to the cloud Time and network bandwidth cost.
  • the complete edge computing offloading process is divided into the following three parts: 1) the mobile terminal sends a task offload request to the MEC service area (including some necessary information about the task calculation amount); 2) the task is offloaded to the MEC server for processing; 3) the MEC server sends offloading Response (including task processing results, etc.) to the mobile terminal.
  • Time is divided into frames, where the frame is divided into control subframes and calculation unloading subframes.
  • the MEC server and the mobile terminal exchange control information to determine the unloading schedule.
  • the workload is first sent to the MEC server, and the MEC server returns the result to the mobile terminal after completing the processing workload.
  • whether to offload tasks which MEC server to offload the tasks to for processing, and how to ensure that all mobile terminals and edge cloud servers can be allocated and efficiently adapt to changes in energy and user needs. It is an open question.
  • a multi-user and multi-MEC task offloading resource scheduling model is established.
  • the multi-user and multi-MEC task offloading resource scheduling has great practical significance.
  • the purpose of the present invention is to provide a multi-user and multi-MEC task offloading resource scheduling method based on side-to-end coordination to realize optimal multi-user and multi-MEC task offloading resource scheduling.
  • a multi-user and multi-MEC task offloading resource scheduling method based on side-to-end coordination includes the following steps:
  • Step 1 Task analysis: Analyze the time delay of task completion and determine the benefits of task completion;
  • Step 2 Problem formation: an optimization problem is formed with the goal of maximizing the total benefit of task completion;
  • Step 3 Ensure steady state: Ensure the stability of the task backlog queue to simplify the problem
  • Step 4 Channel allocation: Determine the optimal channel allocation for a given task offloading allocation strategy
  • Step 5 Task scheduling: Determine the optimal task scheduling for a given channel resource allocation strategy
  • Step 6 Joint optimization: Joint steps 4 and 5 to obtain the optimal channel allocation and task scheduling.
  • the benefit is determined by two factors: the expected return value generated by the task's own attributes, and the delay loss in the task processing process; the specific steps in the step 1 are:
  • the processing workload is D i (t)X i (CPU cycles), where X i represents the CPU cycles required to process 1bit data volume; set the spectrum bandwidth owned by MEC j to B j (t), and N j ( t) subcarriers, each subcarrier bandwidth is According to the Shannon formula, the data transmission rate on a subcarrier n m i is the task
  • N j (t) represents the number of sub-carriers
  • p i means the transmit power of the terminal where task mi is located;
  • the transmission delay of offloading to MEC j is
  • Step 12 When the user leaves the task locally for processing, the delay only includes the task processing time; considering that the CPU processing capacity of the mobile user terminal u i is f i l , the local execution delay is
  • Step 13 The execution delay of offloading tasks to the MEC server consists of the following three parts: a. Task offloading transmission time, b. When there are massive tasks that need to be offloaded to the edge cloud for processing, the load of the MEC server is exceeded, and the tasks may need to be in each MEC. The server is waiting in line, that is, the queue waiting time, c, task processing time;
  • the offload transmission time is Waiting time in line is Set the CPU processing capacity of MEC j to The processing time of the task is m i
  • the task to a total delay of m i unloaded MEC executed at server j is
  • V j (t) represents the speed at task MEC j, i.e., at time t length of time a process completion V j (t) task;
  • the average queue length is expressed as follows:
  • Step 15 set m i u i represents the task according to its priority in the development of expected return, L (T i) indicates that the task is completed delay the loss of m i paid within the time T i;
  • C is the proportional coefficient, which is determined according to the system's sensitivity to delay.
  • ⁇ i is the tolerance of loss to delay
  • the time delay is less than the tolerance
  • the user benefit value is introduced as an index to measure system performance, and an optimization problem is established with the goal of maximizing the total benefit of completing user-side tasks within a period of time; the specific steps are:
  • Step 21 the task m i offloaded to the processing proceeds MEC is generated
  • u i m i represents tasks according to their priority in the development of expected return
  • L (T i, j ( t)) is a m i offloaded to MEC task processing delay resulting loss
  • Step 22 the task execution proceeds m i locally generated
  • Step 23 by jointly optimizing the subcarrier allocator ⁇ i,n (t) and the task allocator s i,j (t), an optimization problem with the goal of maximizing the total revenue of the user-side task completion within a period of time is obtained:
  • C1 ensures that a task can only be processed locally or offloaded to an MEC server for execution;
  • C2 ensures that s i, j (t) are binary variables;
  • C3 ensures that ⁇ i, n (t) are binary variables;
  • C4 ensures A subcarrier can only be allocated to one user at most;
  • C5 ensures that the transmission power allocated by the base station to the user does not exceed the maximum transmission power of the base station, p max is the maximum transmission power of the base station;
  • step 3 the stability of the task backlog of each MEC server is ensured, and the problem is simplified to solve the optimal task offloading resource scheduling strategy under steady-state conditions based on Lyapunov's theory.
  • the specific steps are:
  • ⁇ j represents the set of weights. Different weights will cause different queues to occupy different positions in the task scheduling strategy. Set all ⁇ j to 1; obviously, the Lyapunov function is non-negative, if and only if all ⁇ When j (t) is 0, L( ⁇ (t)) is equal to 0;
  • Step 32 in order to predict the change of each queue state, define the mean value of the difference of the quadratic Lyapunov function at a time as the Lyapunov drift function ⁇ ( ⁇ (t)):
  • Step 33 at each time t, observe the current value of ⁇ (t) and take control actions. According to the consistent ⁇ (t), the greedy minimized drift plus penalty function expectation:
  • step 4 assuming that the task offloading allocation strategy is given, the optimization problem P3 is transformed into a channel resource allocation problem, and the KKT condition is used to solve the optimal channel allocation; the specific steps are:
  • Step 41 Set a given task offloading allocation strategy S'i,j (t), and the optimization problem P3 is a convex problem about R i,j (t).
  • S i the number of tasks that are offloaded to MEC for processing
  • the optimization objective function is transformed into the following formula:
  • f(R ij (t), S′ ij (t)) is a function of R ij (t);
  • Step 42 Since f(R i, j (t), S′ i, j (t)) is a convex function and all constraints are linear functions, the optimization problem is a convex optimization problem. According to the KKT condition, Obtain the optimal solution for R i,j (t)
  • Step 43 construct the Lagrangian function of the optimization problem, as shown below:
  • ⁇ i,j are undetermined coefficients of each constraint condition
  • the optimization problem P3 is transformed into a 0-1 integer programming problem; the specific steps are:
  • Step 51 Set a given channel resource allocation strategy, and the optimization problem P3 is transformed into a 0-1 integer programming problem, as shown below:
  • Step 52 At each time t, the task allocation strategy S(t) is solved with the goal of minimizing the total processing delay of all tasks, that is, the optimal MEC server corresponding to each task is solved, and each task is unloaded to the optimal MEC j * Latency of server processing
  • Step 53 Calculate the time delay T i (t) of the task left in the local processing, and offload it to the time delay of the MEC processing Compared with (T i (t)+ ⁇ ), ⁇ is the time delay tolerance, if Tasks are processed in MEC j * , and vice versa, the task allocation strategy S(t) is updated.
  • step 6 The specific steps of step 6 are:
  • Step 61 According to step 4, the optimal channel resource allocation under the fixed task offloading allocation is obtained.
  • Step 62 According to step 5, an optimal task offloading allocation strategy under the fixed channel is obtained.
  • Step 63 Repeat steps 61 and 62 until the optimal channel allocation and task scheduling strategy is obtained.
  • the purpose of the present invention is to comprehensively consider the user’s task load, the computing power of the MEC server, the computing power of the mobile terminal and the channel resource occupancy, and to maximize the benefit of task completion as the goal to allocate computing resources and channel resources,
  • a multi-user and multi-MEC computing offloading framework is established, and Lyapunov theory is used to ensure the stability of the MEC server task squeeze queue and the KKT conditions are solved to achieve optimal multi-user and multi-MEC task offloading resource scheduling.
  • the present invention fully considers the business diversity, divides the tasks by priority, so as to maximize the user-side profit, and realize the resource scheduling of multi-user and multi-MEC task offloading.
  • Figure 1 is a multi-user multi-MEC task offloading resource scheduling diagram based on side-to-end coordination
  • Figure 2 is a schematic diagram of a multi-user multi-MEC computing offloading scenario based on side-to-end collaboration.
  • the present invention comprehensively considers the user’s task volume, the computing power of the MEC server, the computing power of the mobile terminal, and the channel resource occupancy, with the goal of maximizing the benefit of task completion, the allocation of computing resources and channel resources, and the establishment of multi-user and multi-MEC
  • the computational offloading framework uses Lyapunov's theory to ensure the stability of the MEC server task squeeze queue and KKT conditions to solve it, and realize the optimal multi-user and multi-MEC task offloading resource scheduling.
  • the multi-user multi-MEC task offloading resource scheduling method based on side-to-end coordination of the present invention includes the following steps:
  • Step 1 Task analysis: For mobile terminals, completing different tasks can produce different benefits. The benefits are mainly determined by two factors: the expected return value generated by the task's own attributes (such as priority), and the value generated during the task processing. Delay loss; the specific steps are:
  • the processing workload is D i (t)X i (CPUcycles), where X i represents the CPU cycles required to process 1bit data volume; set the spectrum bandwidth owned by MEC j to B j (t), and N j (t ) Subcarriers, each subcarrier bandwidth is According to the Shannon formula, the data transmission rate on a subcarrier n m i is the task
  • N j (t) represents the number of sub-carriers
  • p i means the transmit power of the terminal where task mi is located;
  • the transmission delay of offloading to MEC j is
  • Step 12 When the user leaves the task locally for processing, the delay only includes the task processing time; considering that the CPU processing capacity of the mobile user terminal u i is f i l , the local execution delay is
  • Step 13 The execution delay of offloading tasks to the MEC server consists of the following three parts: a. Task offloading transmission time, b. When there are massive tasks that need to be offloaded to the edge cloud for processing, the load of the MEC server is exceeded, and the tasks may need to be in each MEC. The server is waiting in line, that is, the queue waiting time, c, task processing time;
  • the offload transmission time is Waiting time in line is Set the CPU processing capacity of MEC j to The processing time of the task is m i
  • the task to a total delay of m i unloaded MEC executed at server j is
  • V j (t) represents the speed at task MEC j, i.e., at time t length of time a process completion V j (t) task;
  • the average queue length is expressed as follows:
  • Step 15 set m i u i represents the task according to its priority in the development of expected return, L (T i) indicates that the task is completed delay the loss of m i paid within the time T i;
  • Step 2 Problem formation: Introduce user benefit value as an indicator to measure system performance, and establish an optimization problem with the goal of maximizing the total benefit of completing user-side tasks within a period of time; the specific steps are:
  • Step 21 the task m i offloaded to the processing proceeds MEC is generated
  • u i m i represents tasks according to their priority in the development of expected return
  • L (T i, j ( t)) is a m i offloaded to MEC task processing delay resulting loss
  • Step 22 the task execution proceeds m i locally generated
  • Step 23 by jointly optimizing the subcarrier allocator ⁇ i,n (t) and the task allocator s i,j (t), an optimization problem with the goal of maximizing the total revenue of the user-side task completion within a period of time is obtained:
  • C1 ensures that a task can only be processed locally or offloaded to an MEC server for execution;
  • C2 ensures that s i, j (t) are binary variables;
  • C3 ensures that ⁇ i, n (t) are binary variables;
  • C4 ensures A subcarrier can only be allocated to one user at most;
  • C5 ensures that the transmission power allocated by the base station to the user does not exceed the maximum transmission power of the base station, p max is the maximum transmission power of the base station;
  • Step 3 Ensure steady state: Ensure the stability of the task backlog of each MEC server. Based on Lyapunov's theory, the problem is simplified to solve the optimal task offloading resource scheduling strategy under steady state conditions; the specific steps are:
  • ⁇ j represents the set of weights. Different weights will lead to different positions of different queues in the task scheduling strategy. Set all ⁇ j to 1. Obviously, the Lyapunov function is non-negative, if and only if all ⁇ When j (t) is 0, L( ⁇ (t)) is equal to 0;
  • Step 32 in order to predict the change of each queue state, define the mean value of the difference of the quadratic Lyapunov function at a time as the Lyapunov drift function ⁇ ( ⁇ (t)):
  • Step 33 at each time t, observe the current value of ⁇ (t) and take control actions. According to the consistent ⁇ (t), the greedy minimized drift plus penalty function expectation:
  • Step 4 Channel allocation: assuming that the task offloading allocation strategy is given, the optimization problem P3 is transformed into a channel resource allocation problem, and the KKT condition is used to solve the optimal channel allocation; the specific steps are:
  • Step 41 Set a given task offloading allocation strategy S'i,j (t), and the optimization problem P3 is a convex problem about R i,j (t).
  • S i the number of tasks that are offloaded to MEC for processing
  • the optimization objective function is transformed into the following formula:
  • f(R ij (t), S′ ij (t)) is a function of R ij (t);
  • Step 42 Since f(R i, j (t), S′ i, j (t)) is a convex function and all constraints are linear functions, the optimization problem is a convex optimization problem. According to the KKT condition, Obtain the optimal solution for R i,j (t)
  • Step 43 construct the Lagrangian function of the optimization problem, as shown below:
  • ⁇ i,j are undetermined coefficients of each constraint condition
  • Step 5 Task scheduling: Set a given channel resource allocation strategy, the optimization problem P3 can be transformed into a 0-1 integer programming problem; the specific steps are:
  • Step 51 Set a given channel resource allocation strategy, and the optimization problem P3 is transformed into a 0-1 integer programming problem, as shown below:
  • Step 52 At each time t, the task allocation strategy S (t) is solved with the goal of minimizing the total processing delay of all tasks, that is, the optimal MEC server corresponding to each task is solved, and each task is unloaded to the optimal MEC j * Latency of server processing
  • Step 53 Calculate the time delay T i (t) of the task left in the local processing, and offload it to the time delay of the MEC processing Compared with (T i (t)+ ⁇ ), ⁇ is the time delay tolerance, if Tasks are processed in MEC j * , and vice versa, the task allocation strategy S(t) is updated.
  • Step 6 joint optimization: alternately iterate steps 4 and 5 until the user's revenue within a period of time is maximized.
  • the specific steps are:
  • Step 61 Obtain the optimal channel resource allocation under the fixed task offload allocation according to Step 4;
  • Step 62 Obtain the optimal task offloading allocation strategy under the fixed channel according to step 5;
  • Step 63 Repeat steps 61 and 62 until the optimal channel allocation and task scheduling strategy is obtained.

Abstract

本发明公开了一种基于边-端协同的多用户多MEC任务卸载资源调度方法,包括如下步骤:步骤1,任务分析:分析任务完成时延,确定任务完成效益;步骤2,问题形成:以最大化任务完成总效益为目标形成优化问题;步骤3,保证稳态:保证任务积压队列的稳定性以简化问题;步骤4,信道分配:给定任务卸载分配策略确定最优的信道分配;步骤5,任务调度:给定信道资源分配策略确定最优的任务调度;步骤6,联合优化:联合步骤4和5得到最优的信道分配和任务调度。本发明充分考虑到业务多样性,对任务进行优先级划分,以最大限度的提高用户侧收益,实现多用户多MEC任务卸载资源调度。

Description

基于边-端协同的多用户多MEC任务卸载资源调度方法 技术领域
本发明涉及一种基于边-端协同的多用户多MEC任务卸载资源调度方法,属于网络资源分配技术领域。
背景技术
移动边缘计算(Mobile Edge Computing,MEC)技术属于一种分布式计算,将数据的处理、应用程序的运行甚至一些功能服务的实现放到网络边缘的节点上。移动边缘云由一个或多个边缘服务器组成,即在传统基站上为其配备有计算存储功能的服务器,将传统基站更新为移动边缘计算基站。由于MEC基站靠近用户终端,可以帮助移动终端处理任务,减少任务处理时延,并且减少移动终端的能量消耗。与云计算(Cloud Computing)不同,边缘计算将数据处理等功能由网络中心下放到网络边缘节点上,就近处理数据,而不需要将大量数据上传到远端的核心管理平台,可以减少数据往返云端的时间及网络带宽成本。
完整的边缘计算卸载过程分为以下三部分:1)移动终端发送任务卸载请求给MEC服务区(包括任务计算量的一些必要信息);2)任务卸载至MEC服务器处理;3)MEC服务器发送卸载响应(包括任务处理结果等)给移动终端。时间被分成帧,其中帧被分为控制子帧和计算卸载子帧。在控制子帧中,MEC服务器和移动终端之间交换控制信息以确定卸载时间表。在计算卸载子帧中,工作负载首先被发送至MEC服务器,MEC服务器完成处理工作量后将结果返回到移动终端。对于由多个MEC服务器组成的边缘云来说,是否卸载任务,将任务卸载至哪个MEC服务器进行处理,如何确保所有移动终端和边缘云服务器都能够分配和高效的适应能源和用户需求的变化仍是个悬而未决的问题。
综合考虑用户的任务量、MEC服务器的计算能力、移动终端的计算能力和信道资源占用情况,以任务完成效益最大化为目标,建立多用户多MEC任务卸载资源调度模型,对于基于边-端协同的多用户多MEC任务卸载资源调度有很大的实用意义。
发明内容
本发明的目的是提供一种基于边-端协同的多用户多MEC任务卸载资源调度方法,以实现最优的多用户多MEC任务卸载资源调度。
为实现上述目的,本发明采用的技术方案为:
一种基于边-端协同的多用户多MEC任务卸载资源调度方法,包括如下步骤:
步骤1,任务分析:分析任务完成时延,确定任务完成效益;
步骤2,问题形成:以最大化任务完成总效益为目标形成优化问题;
步骤3,保证稳态:保证任务积压队列的稳定性以简化问题;
步骤4,信道分配:给定任务卸载分配策略确定最优的信道分配;
步骤5,任务调度:给定信道资源分配策略确定最优的任务调度;
步骤6,联合优化:联合步骤4和5得到最优的信道分配和任务调度。
所述步骤1中,效益由两方面因素决定:任务自身属性产生的期望收益值,任务处 理过程中产生的时延损失;所述步骤1的具体步骤为:
步骤11,考虑在K个时刻内,所有用户在时刻t时有I个任务需要本地执行或卸载至MEC处理,其中,MEC的集合J={1,2,3,...,j...,J},任务的集合为
Figure PCTCN2020085258-appb-000001
表示第i个任务,i=1,2,3,…,I;采用任务模型来描述任务m i大小:D i(t)(bit),即任务m i的数据包大小;任务m i需处理的工作量为D i(t)X i(CPU cycles),其中X i表示处理1bit数据量所需的CPU周期;设定MEC j拥有的频谱带宽为B j(t),有N j(t)个子载波,每个子载波带宽为
Figure PCTCN2020085258-appb-000002
根据香农公式,子载波n上任务m i的数据传输速率为
Figure PCTCN2020085258-appb-000003
任务m i的总数据传输速率为
Figure PCTCN2020085258-appb-000004
其中,N j(t)表示子载波数,π i,n(t)是信道分配指示符,当π i,n(t)=1时,表示子载波n分配给任务m i进行卸载;当π i,n(t)=0时,表示子载波n未分配给任务m i进行卸载;p i表示任务m i所在终端的发射功率;h n,j表示用户子载波n的信道增益,设定任务卸载期间用户的移动性不高,所以h n,j=127+logd i,j,d i,j表示任务m i所在用户终端与MEC j的距离;σ 2是信道噪声功率;任务m i卸载至MEC j的传输延迟为
Figure PCTCN2020085258-appb-000005
步骤12,用户将任务留在本地处理时,时延只包含任务处理时间;考虑移动用户终端u i的CPU处理能力为f i l,则本地执行时延为
Figure PCTCN2020085258-appb-000006
步骤13,将任务卸载至MEC服务器执行时延由以下三部分组成:a、任务卸载传输时间,b、当有海量任务需要卸载至边缘云处理时,超过MEC服务器负载,任务可能需要在各MEC服务器排队等待,即排队等待时间,c、任务处理时间;
其中,卸载传输时间为
Figure PCTCN2020085258-appb-000007
排队等待时间为
Figure PCTCN2020085258-appb-000008
设定MEC j的CPU处理能力为
Figure PCTCN2020085258-appb-000009
任务m i的处理时间为
Figure PCTCN2020085258-appb-000010
因此,任务m i卸载至MEC服务器j处执行的总时延是
Figure PCTCN2020085258-appb-000011
步骤14,对于任意一个MEC服务器来说,任务的到达过程被建模为伯努利过程,设定MEC服务器j的任务到达率为λ j;在队列中等待的任务数量假设为队列状态:Q j(t)={0,1,2,3,...},MEC j的队列Q j(t)更新公式是
Q j(t+1)=Q j(t)-V j(t)+A j(t)
其中,V j(t)表示MEC j处任务的处理速度,即在时刻t长度为1的时间内处理完成 了V j(t)个任务;A j(t)表示在时刻t任务是否到达,A j(t)∈{0,1};因此,有Pr{A j(t)=1}=λ j且Pr{A j(t)=0}=1-λ j;基于利特尔法则,考虑K个时刻内,包括排队等待时延和处理时延在内的执行延迟与任务缓冲区的平均队列长度成正比,平均队列长度如下式表示:
Figure PCTCN2020085258-appb-000012
步骤15,设u i表示任务m i在根据其优先级制定的期望收益,L(T i)表示任务m i在时间T i内完成所付出的时延损失;
Figure PCTCN2020085258-appb-000013
其中,C为比例系数,根据系统对时延的敏感度来确定,C越大,表示由时延造成的时延损失越大;ρ i为损耗对时延的容忍度,当时延小于容忍度时,时延对用户满意度不会造成影响,即不会损耗用户的收益,当时延大于ρ i,时延对用户满意度造成了影响,相应的产生了时延损耗。
所述步骤2中,引入用户效益值作为衡量系统性能的指标,以最大化一段时间内的用户侧任务完成总效益为目标建立优化问题;具体步骤为:
步骤21,任务m i卸载至MEC处理产生的收益为
Figure PCTCN2020085258-appb-000014
Figure PCTCN2020085258-appb-000015
其中,u i表示任务m i在根据其优先级制定的期望收益,L(T i,j(t))是任务m i卸载至MEC处理产生的时延损失;
步骤22,任务m i在本地执行产生的收益
Figure PCTCN2020085258-appb-000016
步骤23,通过联合优化子载波分配符π i,n(t)、任务分配符s i,j(t),得到以最大化一段时间内的用户侧任务完成总收益为目标的优化问题:
P1:
Figure PCTCN2020085258-appb-000017
s.t.C1:
Figure PCTCN2020085258-appb-000018
C2:
Figure PCTCN2020085258-appb-000019
C3:
Figure PCTCN2020085258-appb-000020
C4:
Figure PCTCN2020085258-appb-000021
C5:
Figure PCTCN2020085258-appb-000022
C6:
Figure PCTCN2020085258-appb-000023
C7:
Figure PCTCN2020085258-appb-000024
其中,C1确保一个任务只能选择在本地处理或卸载至一个MEC服务器执行;C2确保s i,j(t)是二元变量;C3确保π i,n(t)是二元变量;C4确保一个子载波最多只能分配给一个用户;C5确保基站为用户分配的发射功率不超过基站的最大发射功率,p max是基站的最大发射 功率;C6确保卸载传输能量不超过任务m i所在移动终端设备剩余能量
Figure PCTCN2020085258-appb-000025
C7确保任务执行时延满足最大时延要求
Figure PCTCN2020085258-appb-000026
由于优化问题P1的目标函数中每个任务的期望效益u i是固定的,不随时间t而变化,时延损失函数L(·)是线性函数,因此得到简化的优化问题P2:
P2:
Figure PCTCN2020085258-appb-000027
s.t.C1:
Figure PCTCN2020085258-appb-000028
C2:
Figure PCTCN2020085258-appb-000029
C3:
Figure PCTCN2020085258-appb-000030
C4:
Figure PCTCN2020085258-appb-000031
C5:
Figure PCTCN2020085258-appb-000032
C6:
Figure PCTCN2020085258-appb-000033
C7:
Figure PCTCN2020085258-appb-000034
所述步骤3中,保证各MEC服务器任务积压队列的稳定性,基于李雅普诺夫理论将问题简化为求解稳态条件下的最优任务卸载资源调度策略,具体步骤为:
步骤31,设各个队列的任务到达状态为伯努利过程,令Θ(t)=(Q 1(t),Q 2(t),...,Q j(t),...,Q J(t))表示队列状态,Θ(t)根据任务到达率λ j在时隙t∈{0,1,2,...}上演化;定义二次李雅普诺夫函数:
Figure PCTCN2020085258-appb-000035
ω j表示权重集合,不同的权重会导致不同队列在任务调度策略中所处的地位不同,设所有的ω j都为1;显然,该李雅普诺夫函数是非负的,当且仅当所有Θ j(t)为0时,L(Θ(t))等于0;
步骤32,为了预测各个队列状态的变化,定义一个时刻间的二次李雅普诺夫函数的差值的均值为李雅普诺夫漂移函数Δ(Θ(t)):
Figure PCTCN2020085258-appb-000036
其中,
Figure PCTCN2020085258-appb-000037
表示二次李雅普诺夫函数的差值的均值;
这种漂移是李雅普诺夫函数在一个时刻上的预期变化;
步骤33,每个时刻t,观察当前的Θ(t)值并采取控制动作,根据一致的Θ(t),贪婪的最小化式漂移加惩罚函数期望:
Figure PCTCN2020085258-appb-000038
步骤34,确定时延敏感参数v 0,设v 0=1,优化问题P2化简为:
P3:
Figure PCTCN2020085258-appb-000039
s.t.C1:
Figure PCTCN2020085258-appb-000040
C2:
Figure PCTCN2020085258-appb-000041
C3:
Figure PCTCN2020085258-appb-000042
C4:
Figure PCTCN2020085258-appb-000043
C5:
Figure PCTCN2020085258-appb-000044
C6:
Figure PCTCN2020085258-appb-000045
所述步骤4中,设任务卸载分配策略给定的情况下,将优化问题P3转化为信道资源分配问题,并利用KKT条件求解最优的信道分配;具体步骤为:
步骤41,设给定任务卸载分配策略S′ i,j(t),优化问题P3是一个关于R i,j(t)的凸问题,假设有l个任务卸载至MEC处理,即S i,j(t)=1的个数为l,优化目标函数转化为如下式所示:
Figure PCTCN2020085258-appb-000046
f(R ij(t),S′ ij(t))是关于R ij(t)的函数;
步骤42,由于f(R i,j(t),S′ i,j(t))是凸函数,且所有约束条件均为线性函数,所以最优化问题是凸优化问题,根据KKT条件,可获得关于R i,j(t)的最优解
Figure PCTCN2020085258-appb-000047
步骤43,构造优化问题的拉格朗日函数,如下所示:
Figure PCTCN2020085258-appb-000048
其中,μ i,j是各个约束条件的待定系数;
如果R i,j(t)和μ i,j在任意点都满足KKT条件,得到:
Figure PCTCN2020085258-appb-000049
通过求解上式,得到最优R i,j(t):
Figure PCTCN2020085258-appb-000050
由此可得固定任务卸载分配策略S′ i,j(t)的最优解:
Figure PCTCN2020085258-appb-000051
所述步骤5中,设给定信道资源分配策略,优化问题P3转化为0-1整数规划问题;具体步骤为:
步骤51,设给定信道资源分配策略,优化问题P3转化为0-1整数规划问题,如下所示:
P4:
Figure PCTCN2020085258-appb-000052
s.t.C1:
Figure PCTCN2020085258-appb-000053
C2:
Figure PCTCN2020085258-appb-000054
步骤52,每个时刻t以最小化所有任务处理总时延为目标求解出任务分配策略S(t),即求解出各个任务对应的最佳MEC服务器,并得到各个任务卸载至最佳MEC j *服务器处理的时延
Figure PCTCN2020085258-appb-000055
步骤53,计算任务留在本地处理的时延T i(t),将卸载至MEC处理的时延
Figure PCTCN2020085258-appb-000056
与(T i(t)+δ)比较,δ是时延容忍度,若
Figure PCTCN2020085258-appb-000057
任务则在MEC j *处理,反之在本地处理,更新任务分配策略S(t)。
所述步骤6的具体步骤为:
步骤61,根据步骤4得到固定任务卸载分配下的最优信道资源分配。
步骤62,根据步骤5得到固定信道下的最优任务卸载分配策略。
步骤63,重复步骤61和62直至得到最优的信道分配和任务调度策略。
有益效果:本发明的目的是综合考虑用户的任务量、MEC服务器的计算能力、移动终端的计算能力和信道资源占用情况,以任务完成效益最大化为目标,进行计算资源和信道资源的分配,建立多用户多MEC的计算卸载框架,利用李雅普诺夫理论保证MEC服务器任务挤压队列的稳定性和KKT条件进行求解,实现最优的多用户多MEC任务卸载资源调度。本发明充分考虑到业务多样性,对任务进行优先级划分,以最大限度的提高用户侧收益,实现多用户多MEC任务卸载资源调度。
附图说明
图1是基于边-端协同的多用户多MEC任务卸载资源调度图;
图2是基于边-端协同的多用户多MEC计算卸载场景示意图。
具体实施方式
下面结合附图对本发明作进一步描述。
本发明综合考虑用户的任务量、MEC服务器的计算能力、移动终端的计算能力和信道资源占用情况,以任务完成效益最大化为目标,进行计算资源和信道资源的分配,建立多用户多MEC的计算卸载框架,利用李雅普诺夫理论保证MEC服务器任务挤压队列的稳定性和KKT条件进行求解,实现最优的多用户多MEC任务卸载资源调度。
本发明的一种基于边-端协同的多用户多MEC任务卸载资源调度方法,包括如下步骤:
步骤1,任务分析:对移动终端来说,完成不同任务可产生不一样的效益,效益主要由两方面因素决定:任务自身属性(比如优先级)产生的期望收益值,任务处理过程中产生的时延损失;具体步骤为:
步骤11,如图2所示,考虑在K个时刻内,所有用户在时刻t时有I个任务需要本地执行或卸载至MEC处理,其中,MEC的集合J={1,2,3,...,j...,J},任务的集合为
Figure PCTCN2020085258-appb-000058
表示第i个任务,i=1,2,3,…,I;采用任务模型来描述任务m i大小:D i(t)(bit),即任务m i的数据包大小;任务m i需处理的工作量为D i(t)X i(CPUcycles),其中X i表示处理1bit数据量所需的CPU周期;设定MEC j拥有的频谱带宽为B j(t),有N j(t)个子载波,每个子载波带宽为
Figure PCTCN2020085258-appb-000059
根据香农公式,子载波n上任务m i的数据传输速率为
Figure PCTCN2020085258-appb-000060
任务m i的总数据传输速率为
Figure PCTCN2020085258-appb-000061
其中,N j(t)表示子载波数,π i,n(t)是信道分配指示符,当π i,n(t)=1时,表示子载波n分配给任务m i进行卸载;当π i,n(t)=0时,表示子载波n未分配给任务m i进行卸载;p i表示任务m i所在终端的发射功率;h n,j表示用户子载波n的信道增益,设定任务卸载期间用户的移动性不高,所以h n,j=127+logd i,j,d i,j表示任务m i所在用户终端与MEC j的距离;σ 2是信道噪声功率;任务m i卸载至MEC j的传输延迟为
Figure PCTCN2020085258-appb-000062
步骤12,用户将任务留在本地处理时,时延只包含任务处理时间;考虑移动用户终端u i的CPU处理能力为f i l,则本地执行时延为
Figure PCTCN2020085258-appb-000063
步骤13,将任务卸载至MEC服务器执行时延由以下三部分组成:a、任务卸载传输时间,b、当有海量任务需要卸载至边缘云处理时,超过MEC服务器负载,任务可能需要在各MEC服务器排队等待,即排队等待时间,c、任务处理时间;
其中,卸载传输时间为
Figure PCTCN2020085258-appb-000064
排队等待时间为
Figure PCTCN2020085258-appb-000065
设定MEC j的CPU处理能力为
Figure PCTCN2020085258-appb-000066
任务m i的处理时间为
Figure PCTCN2020085258-appb-000067
因此,任务m i卸载至MEC服务器j处执行的总时延是
Figure PCTCN2020085258-appb-000068
步骤14,对于任意一个MEC服务器来说,任务的到达过程被建模为伯努利过程,设定MEC服务器j的任务到达率为λ j;在队列中等待的任务数量假设为队列状态:Q j(t)={0,1,2,3,...},MEC j的队列Q j(t)更新公式是
Q j(t+1)=Q j(t)-V j(t)+A j(t)
其中,V j(t)表示MEC j处任务的处理速度,即在时刻t长度为1的时间内处理完成了V j(t)个任务;A j(t)表示在时刻t任务是否到达,A j(t)∈{0,1};因此,有Pr{A j(t)=1}=λ j且Pr{A j(t)=0}=1-λ j;基于利特尔法则,考虑K个时刻内,包括排队等待时延和处理时延在 内的执行延迟与任务缓冲区的平均队列长度成正比,平均队列长度如下式表示:
Figure PCTCN2020085258-appb-000069
步骤15,设u i表示任务m i在根据其优先级制定的期望收益,L(T i)表示任务m i在时间T i内完成所付出的时延损失;
Figure PCTCN2020085258-appb-000070
其中,C为比例系数,根据系统对时延的敏感度来确定,C越大,表示由时延造成的时延损失越大,本发明中设C=1;ρ i为损耗对时延的容忍度,当时延小于容忍度时,时延对用户满意度不会造成影响,即不会损耗用户的收益,当时延大于ρ i,时延对用户满意度造成了影响,相应的产生了时延损耗。
步骤2,问题形成:引入用户效益值作为衡量系统性能的指标,以最大化一段时间内的用户侧任务完成总效益为目标建立优化问题;具体步骤为:
步骤21,任务m i卸载至MEC处理产生的收益为
Figure PCTCN2020085258-appb-000071
Figure PCTCN2020085258-appb-000072
其中,u i表示任务m i在根据其优先级制定的期望收益,L(T i,j(t))是任务m i卸载至MEC处理产生的时延损失;
步骤22,任务m i在本地执行产生的收益
Figure PCTCN2020085258-appb-000073
步骤23,通过联合优化子载波分配符π i,n(t)、任务分配符s i,j(t),得到以最大化一段时间内的用户侧任务完成总收益为目标的优化问题:
P1:
Figure PCTCN2020085258-appb-000074
s.t.C1:
Figure PCTCN2020085258-appb-000075
C2:
Figure PCTCN2020085258-appb-000076
C3:
Figure PCTCN2020085258-appb-000077
C4:
Figure PCTCN2020085258-appb-000078
C5:
Figure PCTCN2020085258-appb-000079
C6:
Figure PCTCN2020085258-appb-000080
C7:
Figure PCTCN2020085258-appb-000081
其中,C1确保一个任务只能选择在本地处理或卸载至一个MEC服务器执行;C2确保s i,j(t)是二元变量;C3确保π i,n(t)是二元变量;C4确保一个子载波最多只能分配给一个用户;C5确保基站为用户分配的发射功率不超过基站的最大发射功率,p max是基站的最大发射功率;C6确保卸载传输能量不超过任务m i所在移动终端设备剩余能量
Figure PCTCN2020085258-appb-000082
C7确保任务执行时延满足最大时延要求
Figure PCTCN2020085258-appb-000083
由于优化问题P1的目标函数中每个任务的期望效益u i是固定的,不随时间t而变化,时延损失函数L(·)是线性函数,因此得到简化的优化问题P2:
P2:
Figure PCTCN2020085258-appb-000084
s.t.C1:
Figure PCTCN2020085258-appb-000085
C2:
Figure PCTCN2020085258-appb-000086
C3:
Figure PCTCN2020085258-appb-000087
C4:
Figure PCTCN2020085258-appb-000088
C5:
Figure PCTCN2020085258-appb-000089
C6:
Figure PCTCN2020085258-appb-000090
C7:
Figure PCTCN2020085258-appb-000091
步骤3,保证稳态:保证各MEC服务器任务积压队列的稳定性,基于李雅普诺夫理论将问题简化为求解稳态条件下的最优任务卸载资源调度策略;具体步骤为:
步骤31,设各个队列的任务到达状态为伯努利过程,令Θ(t)=(Q 1(t),Q 2(t),...,Q j(t),...,Q J(t))表示队列状态,Θ(t)根据任务到达率λ j在时隙t∈{0,1,2,...}上演化;定义二次李雅普诺夫函数:
Figure PCTCN2020085258-appb-000092
ω j表示权重集合,不同的权重会导致不同队列在任务调度策略中所处的地位不同,设所有的ω j都为1;显然,该李雅普诺夫函数是非负的,当且仅当所有Θ j(t)为0时,L(Θ(t))等于0;
步骤32,为了预测各个队列状态的变化,定义一个时刻间的二次李雅普诺夫函数的差值的均值为李雅普诺夫漂移函数Δ(Θ(t)):
Figure PCTCN2020085258-appb-000093
其中,
Figure PCTCN2020085258-appb-000094
表示二次李雅普诺夫函数的差值的均值;
这种漂移是李雅普诺夫函数在一个时刻上的预期变化;
步骤33,每个时刻t,观察当前的Θ(t)值并采取控制动作,根据一致的Θ(t),贪婪的最小化式漂移加惩罚函数期望:
Figure PCTCN2020085258-appb-000095
步骤34,确定时延敏感参数v 0,设v 0=1,优化问题P2化简为:
P3:
Figure PCTCN2020085258-appb-000096
s.t.C1:
Figure PCTCN2020085258-appb-000097
C2:
Figure PCTCN2020085258-appb-000098
C3:
Figure PCTCN2020085258-appb-000099
C4:
Figure PCTCN2020085258-appb-000100
C5:
Figure PCTCN2020085258-appb-000101
C6:
Figure PCTCN2020085258-appb-000102
步骤4,信道分配:设任务卸载分配策略给定的情况下,将优化问题P3转化为信道资源分配问题,并利用KKT条件求解最优的信道分配;具体步骤为:
步骤41,设给定任务卸载分配策略S′ i,j(t),优化问题P3是一个关于R i,j(t)的凸问题,假设有l个任务卸载至MEC处理,即S i,j(t)=1的个数为l,优化目标函数转化为如下式所示:
Figure PCTCN2020085258-appb-000103
f(R ij(t),S′ ij(t))是关于R ij(t)的函数;
步骤42,由于f(R i,j(t),S′ i,j(t))是凸函数,且所有约束条件均为线性函数,所以最优化问题是凸优化问题,根据KKT条件,可获得关于R i,j(t)的最优解
Figure PCTCN2020085258-appb-000104
步骤43,构造优化问题的拉格朗日函数,如下所示:
Figure PCTCN2020085258-appb-000105
其中,μ i,j是各个约束条件的待定系数;
如果R i,j(t)和μ i,j在任意点都满足KKT条件,得到:
Figure PCTCN2020085258-appb-000106
通过求解上式,得到最优R i,j(t):
Figure PCTCN2020085258-appb-000107
由此可得固定任务卸载分配策略S′ i,j(t)的最优解:
Figure PCTCN2020085258-appb-000108
步骤5,任务调度:设给定信道资源分配策略,优化问题P3可转化为0-1整数规划问题;具体步骤为:
步骤51,设给定信道资源分配策略,优化问题P3转化为0-1整数规划问题,如下所示:
P4:
Figure PCTCN2020085258-appb-000109
s.t.C1:
Figure PCTCN2020085258-appb-000110
C2:
Figure PCTCN2020085258-appb-000111
步骤52,每个时刻t以最小化所有任务处理总时延为目标求解出任务分配策略S (t),即求解出各个任务对应的最佳MEC服务器,并得到各个任务卸载至最佳MEC j *服务器处理的时延
Figure PCTCN2020085258-appb-000112
步骤53,计算任务留在本地处理的时延T i(t),将卸载至MEC处理的时延
Figure PCTCN2020085258-appb-000113
与(T i(t)+δ)比较,δ是时延容忍度,若
Figure PCTCN2020085258-appb-000114
任务则在MEC j *处理,反之在本地处理,更新任务分配策略S(t)。
步骤6,联合优化:交替迭代步骤4和步骤5直至最大化一段时间内的用户收益,具体步骤为:
步骤61,根据步骤4得到固定任务卸载分配下的最优信道资源分配;
步骤62,根据步骤5得到固定信道下的最优任务卸载分配策略;
步骤63,重复步骤61和62直至得到最优的信道分配和任务调度策略。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (7)

  1. 一种基于边-端协同的多用户多MEC任务卸载资源调度方法,其特征在于:包括如下步骤:
    步骤1,任务分析:分析任务完成时延,确定任务完成效益;
    步骤2,问题形成:以最大化任务完成总效益为目标形成优化问题;
    步骤3,保证稳态:保证任务积压队列的稳定性以简化问题;
    步骤4,信道分配:给定任务卸载分配策略确定最优的信道分配;
    步骤5,任务调度:给定信道资源分配策略确定最优的任务调度;
    步骤6,联合优化:联合步骤4和5得到最优的信道分配和任务调度。
  2. 根据权利要求1所述的基于边-端协同的多用户多MEC任务卸载资源调度方法,其特征在于:所述步骤1中,效益由两方面因素决定:任务自身属性产生的期望收益值,任务处理过程中产生的时延损失;所述步骤1的具体步骤为:
    步骤11,考虑在K个时刻内,所有用户在时刻t时有I个任务需要本地执行或卸载至MEC处理,其中,MEC的集合J={1,2,3,...,j...,J},任务的集合为
    Figure PCTCN2020085258-appb-100001
    Figure PCTCN2020085258-appb-100002
    表示第i个任务,i=1,2,3,…,I;采用任务模型来描述任务m i大小:D i(t)(bit),即任务m i的数据包大小;任务m i需处理的工作量为D i(t)X i(CPU cycles),其中X i表示处理1bit数据量所需的CPU周期;设定MEC j拥有的频谱带宽为B j(t),有N j(t)个子载波,每个子载波带宽为
    Figure PCTCN2020085258-appb-100003
    根据香农公式,子载波n上任务m i的数据传输速率为
    Figure PCTCN2020085258-appb-100004
    任务m i的总数据传输速率为
    Figure PCTCN2020085258-appb-100005
    其中,N j(t)表示子载波数,π i,n(t)是信道分配指示符,当π i,n(t)=1时,表示子载波n分配给任务m i进行卸载;当π i,n(t)=0时,表示子载波n未分配给任务m i进行卸载;p i表示任务m i所在终端的发射功率;h n,j表示用户子载波n的信道增益,设定任务卸载期间用户的移动性不高,所以h n,j=127+logd i,j,d i,j表示任务m i所在用户终端与MEC j的距离;σ 2是信道噪声功率;任务m i卸载至MEC j的传输延迟为
    Figure PCTCN2020085258-appb-100006
    步骤12,用户将任务留在本地处理时,时延只包含任务处理时间;考虑移动用户终端u i的CPU处理能力为
    Figure PCTCN2020085258-appb-100007
    则本地执行时延为
    Figure PCTCN2020085258-appb-100008
    步骤13,将任务卸载至MEC服务器执行时延由以下三部分组成:a、任务卸载传输时间,b、当有海量任务需要卸载至边缘云处理时,超过MEC服务器负载,任务可能需要在各MEC服务器排队等待,即排队等待时间,c、任务处理时间;
    其中,卸载传输时间为
    Figure PCTCN2020085258-appb-100009
    排队等待时间为
    Figure PCTCN2020085258-appb-100010
    设定MEC j的CPU处理能 力为
    Figure PCTCN2020085258-appb-100011
    任务m i的处理时间为
    Figure PCTCN2020085258-appb-100012
    因此,任务m i卸载至MEC服务器j处执行的总时延是
    Figure PCTCN2020085258-appb-100013
    步骤14,对于任意一个MEC服务器来说,任务的到达过程被建模为伯努利过程,设定MEC服务器j的任务到达率为λ j;在队列中等待的任务数量假设为队列状态:Q j(t)={0,1,2,3,...},MEC j的队列Q j(t)更新公式是
    Q j(t+1)=Q j(t)-V j(t)+A j(t)
    其中,V j(t)表示MEC j处任务的处理速度,即在时刻t长度为1的时间内处理完成了V j(t)个任务;A j(t)表示在时刻t任务是否到达,A j(t)∈{0,1};因此,有Pr{A j(t)=1}=λ j且Pr{A j(t)=0}=1-λ j;基于利特尔法则,考虑K个时刻内,包括排队等待时延和处理时延在内的执行延迟与任务缓冲区的平均队列长度成正比,平均队列长度如下式表示:
    Figure PCTCN2020085258-appb-100014
    步骤15,设u i表示任务m i在根据其优先级制定的期望收益,L(T i)表示任务m i在时间T i内完成所付出的时延损失;
    Figure PCTCN2020085258-appb-100015
    其中,C为比例系数,根据系统对时延的敏感度来确定,C越大,表示由时延造成的时延损失越大;ρ i为损耗对时延的容忍度,当时延小于容忍度时,时延对用户满意度不会造成影响,即不会损耗用户的收益,当时延大于ρ i,时延对用户满意度造成了影响,相应的产生了时延损耗。
  3. 根据权利要求1所述的基于边-端协同的多用户多MEC任务卸载资源调度方法,其特征在于:所述步骤2中,引入用户效益值作为衡量系统性能的指标,以最大化一段时间内的用户侧任务完成总效益为目标建立优化问题;具体步骤为:
    步骤21,任务m i卸载至MEC处理产生的收益为
    Figure PCTCN2020085258-appb-100016
    Figure PCTCN2020085258-appb-100017
    其中,u i表示任务m i在根据其优先级制定的期望收益,L(T i,j(t))是任务m i卸载至MEC处理产生的时延损失;
    步骤22,任务m i在本地执行产生的收益
    Figure PCTCN2020085258-appb-100018
    步骤23,通过联合优化子载波分配符π i,n(t)、任务分配符s i,j(t),得到以最大化一段时间内的用户侧任务完成总收益为目标的优化问题:
    Figure PCTCN2020085258-appb-100019
    Figure PCTCN2020085258-appb-100020
    Figure PCTCN2020085258-appb-100021
    Figure PCTCN2020085258-appb-100022
    Figure PCTCN2020085258-appb-100023
    Figure PCTCN2020085258-appb-100024
    Figure PCTCN2020085258-appb-100025
    Figure PCTCN2020085258-appb-100026
    其中,C1确保一个任务只能选择在本地处理或卸载至一个MEC服务器执行;C2确保s i,j(t)是二元变量;C3确保π i,n(t)是二元变量;C4确保一个子载波最多只能分配给一个用户;C5确保基站为用户分配的发射功率不超过基站的最大发射功率,p max是基站的最大发射功率;C6确保卸载传输能量不超过任务m i所在移动终端设备剩余能量
    Figure PCTCN2020085258-appb-100027
    C7确保任务执行时延满足最大时延要求
    Figure PCTCN2020085258-appb-100028
    由于优化问题P1的目标函数中每个任务的期望效益u i是固定的,不随时间t而变化,时延损失函数L(·)是线性函数,因此得到简化的优化问题P2:
    Figure PCTCN2020085258-appb-100029
    Figure PCTCN2020085258-appb-100030
    Figure PCTCN2020085258-appb-100031
    Figure PCTCN2020085258-appb-100032
    Figure PCTCN2020085258-appb-100033
    Figure PCTCN2020085258-appb-100034
    Figure PCTCN2020085258-appb-100035
    Figure PCTCN2020085258-appb-100036
  4. 根据权利要求1所述的基于边-端协同的多用户多MEC任务卸载资源调度方法,其特征在于:所述步骤3中,保证各MEC服务器任务积压队列的稳定性,基于李雅普诺夫理论将问题简化为求解稳态条件下的最优任务卸载资源调度策略,具体步骤为:
    步骤31,设各个队列的任务到达状态为伯努利过程,令Θ(t)=(Q 1(t),Q 2(t),...,Q j(t),...,Q J(t))表示队列状态,Θ(t)根据任务到达率λ j在时隙t∈{0,1,2,...}上演化;定义二次李雅普诺夫函数:
    Figure PCTCN2020085258-appb-100037
    ω j表示权重集合,不同的权重会导致不同队列在任务调度策略中所处的地位不同,设所有的ω j都为1;显然,该李雅普诺夫函数是非负的,当且仅当所有Θ j(t)为0时,L(Θ(t))等于0;
    步骤32,为了预测各个队列状态的变化,定义一个时刻间的二次李雅普诺夫函数的差值的均值为李雅普诺夫漂移函数Δ(Θ(t)):
    Figure PCTCN2020085258-appb-100038
    其中,
    Figure PCTCN2020085258-appb-100039
    表示二次李雅普诺夫函数的差值的均值;
    这种漂移是李雅普诺夫函数在一个时刻上的预期变化;
    步骤33,每个时刻t,观察当前的Θ(t)值并采取控制动作,根据一致的Θ(t),贪婪的最小化式漂移加惩罚函数期望:
    Figure PCTCN2020085258-appb-100040
    步骤34,确定时延敏感参数v 0,设v 0=1,优化问题P2化简为:
    Figure PCTCN2020085258-appb-100041
    Figure PCTCN2020085258-appb-100042
    Figure PCTCN2020085258-appb-100043
    Figure PCTCN2020085258-appb-100044
    Figure PCTCN2020085258-appb-100045
    Figure PCTCN2020085258-appb-100046
    Figure PCTCN2020085258-appb-100047
  5. 根据权利要求1所述的基于边-端协同的多用户多MEC任务卸载资源调度方法,其特征在于:所述步骤4中,设任务卸载分配策略给定的情况下,将优化问题P3转化为信道资源分配问题,并利用KKT条件求解最优的信道分配;具体步骤为:
    步骤41,设给定任务卸载分配策略S′ ij(t),优化问题P3是一个关于R i,j(t)的凸问题,假设有l个任务卸载至MEC处理,即S i,j(t)=1的个数为l,优化目标函数转化为如下式所示:
    Figure PCTCN2020085258-appb-100048
    f(R ij(t),S′ ij(t))关于R ij(t)的函数;
    步骤42,由于f(R i,j(t),S′ i,j(t))是凸函数,且所有约束条件均为线性函数,所以最优化问题是凸优化问题,根据KKT条件,可获得关于R i,j(t)的最优解
    Figure PCTCN2020085258-appb-100049
    步骤43,构造优化问题的拉格朗日函数,如下所示:
    Figure PCTCN2020085258-appb-100050
    其中,μ i,j是各个约束条件的待定系数;
    如果R i,j(t)和μ i,j在任意点都满足KKT条件,得到:
    Figure PCTCN2020085258-appb-100051
    通过求解上式,得到最优R i,j(t):
    Figure PCTCN2020085258-appb-100052
    由此可得固定任务卸载分配策略S′ i,j(t)的最优解:
    Figure PCTCN2020085258-appb-100053
  6. 根据权利要求1所述的基于边-端协同的多用户多MEC任务卸载资源调度方法,其特征在于:所述步骤5中,设给定信道资源分配策略,优化问题P3转化为0-1整数规划问题;具体步骤为:
    步骤51,设给定信道资源分配策略,优化问题P3转化为0-1整数规划问题,如下所示:
    Figure PCTCN2020085258-appb-100054
    Figure PCTCN2020085258-appb-100055
    Figure PCTCN2020085258-appb-100056
    步骤52,每个时刻t以最小化所有任务处理总时延为目标求解出任务分配策略S(t),即求解出各个任务对应的最佳MEC服务器,并得到各个任务卸载至最佳MEC j *服务器处理的时延
    Figure PCTCN2020085258-appb-100057
    步骤53,计算任务留在本地处理的时延T i(t),将卸载至MEC处理的时延
    Figure PCTCN2020085258-appb-100058
    与(T i(t)+δ)比较,δ是时延容忍度,若
    Figure PCTCN2020085258-appb-100059
    任务则在MEC j *处理,反之在本地处理,更新任务分配策略S(t)。
  7. 根据权利要求1所述的基于边-端协同的多用户多MEC任务卸载资源调度方法,其特征在于:所述步骤6的具体步骤为:
    步骤61,根据步骤4得到固定任务卸载分配下的最优信道资源分配。
    步骤62,根据步骤5得到固定信道下的最优任务卸载分配策略。
    步骤63,重复步骤61和62直至得到最优的信道分配和任务调度策略。
PCT/CN2020/085258 2019-04-25 2020-04-17 基于边-端协同的多用户多mec任务卸载资源调度方法 WO2020216135A1 (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021562894A JP7162385B2 (ja) 2019-04-25 2020-04-17 エッジと端末とのコラボレーションに基づくマルチユーザーマルチmecタスクアンロードリソーススケジュール方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201910337470.X 2019-04-25
CN201910337470.XA CN110099384B (zh) 2019-04-25 2019-04-25 基于边-端协同的多用户多mec任务卸载资源调度方法

Publications (1)

Publication Number Publication Date
WO2020216135A1 true WO2020216135A1 (zh) 2020-10-29

Family

ID=67445680

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2020/085258 WO2020216135A1 (zh) 2019-04-25 2020-04-17 基于边-端协同的多用户多mec任务卸载资源调度方法

Country Status (3)

Country Link
JP (1) JP7162385B2 (zh)
CN (1) CN110099384B (zh)
WO (1) WO2020216135A1 (zh)

Cited By (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112468547A (zh) * 2020-11-13 2021-03-09 广州中国科学院沈阳自动化研究所分所 一种基于区域化的工业边缘计算任务云协同卸载方法
CN112512056A (zh) * 2020-11-14 2021-03-16 北京工业大学 一种移动边缘计算网络中多目标优化的计算卸载方法
CN112559171A (zh) * 2020-12-02 2021-03-26 河海大学 一种移动边缘计算环境下基于延迟接受的多用户任务卸载方法
CN112738822A (zh) * 2020-12-25 2021-04-30 中国石油大学(华东) 移动边缘计算环境中基于noma的安全卸载和资源分配方法
CN112835708A (zh) * 2020-12-14 2021-05-25 浙大城市学院 一种面向边缘计算环境中移动群体感知系统的高质量任务分配与服务部署方法
CN112860337A (zh) * 2021-01-28 2021-05-28 山东师范大学 在多接入边缘计算中卸载依赖任务的方法及系统
CN112988346A (zh) * 2021-02-07 2021-06-18 中国联合网络通信集团有限公司 任务处理方法、装置、设备及存储介质
CN113179296A (zh) * 2021-04-08 2021-07-27 中国科学院计算技术研究所 一种用于车载边缘计算系统的任务卸载方法
CN113179482A (zh) * 2021-04-21 2021-07-27 中南大学 一种基于移动边缘计算的数据传输资源系统及方法
CN113296941A (zh) * 2021-05-12 2021-08-24 广州中国科学院沈阳自动化研究所分所 一种基于多边缘计算的缓存任务调度方法及装置
CN113326126A (zh) * 2021-05-28 2021-08-31 湘潭大学 任务处理方法、任务调度方法、装置及计算机设备
CN113347277A (zh) * 2021-07-15 2021-09-03 湘潭大学 一种边缘计算中基于任务切分的卸载分配方法
CN113364626A (zh) * 2021-06-08 2021-09-07 国网江苏省电力有限公司 面向边缘环境的视频分析应用的服务放置与带宽分配方法
CN113377531A (zh) * 2021-06-04 2021-09-10 重庆邮电大学 基于无线能量驱动的移动边缘计算分布式服务部署方法
CN113377533A (zh) * 2021-06-07 2021-09-10 重庆邮电大学 无人机协助移动边缘计算中的动态计算卸载和服务器部署方法
CN113395679A (zh) * 2021-05-25 2021-09-14 安徽大学 一种无人机边缘服务器的资源和任务分配优化系统
CN113411394A (zh) * 2021-06-16 2021-09-17 广东电网有限责任公司电力调度控制中心 一种超密集网络场景下卸载任务的处理的方法及装置
CN113423115A (zh) * 2021-07-01 2021-09-21 兰州理工大学 一种基于边缘计算的能量协作与任务卸载优化方法
CN113434206A (zh) * 2021-05-26 2021-09-24 国网河南省电力公司信息通信公司 智能电网计算卸载的方法及装置
CN113452956A (zh) * 2021-02-26 2021-09-28 深圳供电局有限公司 一种输电线路巡检任务智能分配方法及系统
CN113507712A (zh) * 2021-07-09 2021-10-15 中国传媒大学 一种基于交替方向乘子的资源分配与计算任务卸载方法
CN113535393A (zh) * 2021-07-12 2021-10-22 湖南工学院 异构边缘计算中卸载dag任务的计算资源分配方法
CN113590279A (zh) * 2021-07-08 2021-11-02 华中科技大学 一种面向多核边缘计算服务器的任务调度和资源分配方法
CN113590232A (zh) * 2021-08-23 2021-11-02 南京信息工程大学 一种基于数字孪生的中继边缘网络任务卸载方法
CN113709883A (zh) * 2021-08-30 2021-11-26 北京邮电大学 一种多无人机辅助工业场景下的动态资源分配方法及装置
CN113727371A (zh) * 2021-08-06 2021-11-30 北京科技大学 一种irs辅助的mec网络无线与计算资源分配方法及装置
CN113934534A (zh) * 2021-09-27 2022-01-14 苏州大学 异构边缘环境下多用户序列任务计算卸载方法及系统
CN114051266A (zh) * 2021-11-08 2022-02-15 首都师范大学 基于移动云-边缘计算的无线体域网任务卸载方法
CN114138373A (zh) * 2021-12-07 2022-03-04 吉林大学 一种基于强化学习的边缘计算任务卸载方法
CN114143355A (zh) * 2021-12-08 2022-03-04 华北电力大学 一种电力物联网低时延安全云边端协同方法
CN114172809A (zh) * 2021-12-13 2022-03-11 重庆邮电大学 一种基于目标追踪的视频计算云边协同任务调度方法
CN114189521A (zh) * 2021-12-15 2022-03-15 福州大学 在f-ran架构中协作计算卸载的方法
CN114301907A (zh) * 2021-11-18 2022-04-08 北京邮电大学 云计算网络中的业务处理方法、系统、装置及电子设备
CN114423021A (zh) * 2022-01-20 2022-04-29 重庆邮电大学 一种服务感知的资源优化方法
CN114650567A (zh) * 2022-03-17 2022-06-21 江苏科技大学 一种无人机辅助v2i网络任务卸载方法
CN114693141A (zh) * 2022-04-06 2022-07-01 长春理工大学 一种基于端边协同的变电站巡检方法
CN114844900A (zh) * 2022-05-05 2022-08-02 中南大学 一种基于不确定需求下的边云资源协作方法
CN114866548A (zh) * 2022-04-26 2022-08-05 中南大学 一种基于移动雾计算的任务卸载方法
CN115022331A (zh) * 2022-05-30 2022-09-06 中国电信股份有限公司 边缘计算资源分配方法、装置、存储介质及电子设备
CN115277789A (zh) * 2022-08-26 2022-11-01 中国长江三峡集团有限公司 一种梯级水电站安全防护系统及方法
CN115858048A (zh) * 2023-03-03 2023-03-28 成都信息工程大学 一种面向混合关键级任务动态到达边缘卸载方法
CN116320354A (zh) * 2023-01-16 2023-06-23 浙江大学 360度虚拟现实视频用户接入控制系统及控制方法
CN116366661A (zh) * 2023-06-02 2023-06-30 江西师范大学 一种基于区块链和拍卖理论的协作式边缘用户分配方法
EP3975596A4 (en) * 2019-08-13 2023-07-26 ZTE Corporation METHOD, DEVICE AND SYSTEM FOR IMPLEMENTING EDGE COMPUTING
CN116980982A (zh) * 2023-09-20 2023-10-31 山东高速信息集团有限公司 一种柔性组网架构下任务处理方法及系统
CN113590279B (zh) * 2021-07-08 2024-05-14 华中科技大学 一种面向多核边缘计算服务器的任务调度和资源分配方法

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110099384B (zh) * 2019-04-25 2022-07-29 南京邮电大学 基于边-端协同的多用户多mec任务卸载资源调度方法
CN110489176B (zh) * 2019-08-27 2022-05-10 湘潭大学 一种基于装箱问题的多接入边缘计算任务卸载方法
CN110557287B (zh) * 2019-09-10 2020-12-25 北京邮电大学 一种基于李雅普诺夫优化的资源分配方法及装置
CN110493360B (zh) * 2019-09-26 2022-08-19 重庆大学 多服务器下降低系统能耗的移动边缘计算卸载方法
CN110972147B (zh) * 2019-10-28 2021-05-25 华东师范大学 一种数据驱动的边缘响应时间优化方法
CN110647403B (zh) * 2019-10-31 2023-04-11 桂林电子科技大学 一种多用户mec系统中的云端计算资源分配方法
CN110856183B (zh) * 2019-11-18 2021-04-16 南京航空航天大学 基于异构负载互补的边缘服务器部署方法及应用
CN112835773B (zh) * 2019-11-25 2023-08-11 合肥欣奕华智能机器股份有限公司 一种操作系统中任务运行实时性的评估方法及装置
CN110958625B (zh) * 2019-12-05 2021-06-04 湖南师范大学 一种基于移动边缘智能的实时多模态语言分析系统和方法
CN111372268B (zh) * 2019-12-24 2022-07-08 中国石油大学(华东) 一种超密集网络中联合无线资源管理与任务卸载优化方法
CN111107566B (zh) * 2019-12-25 2023-09-26 国网冀北电力有限公司唐山供电公司 一种电力物联网场景中基于协同内容缓存的卸载方法
CN110928691B (zh) * 2019-12-26 2021-07-09 广东工业大学 一种面向交通数据的端边协同计算卸载方法
CN110764919A (zh) * 2019-12-26 2020-02-07 帷幄匠心科技(杭州)有限公司 一种基于多arm处理器的边缘计算架构
CN111258677B (zh) * 2020-01-16 2023-12-15 北京兴汉网际股份有限公司 面向异构网络边缘计算的任务卸载方法
CN111401744B (zh) * 2020-03-17 2023-04-28 重庆邮电大学 一种移动边缘计算中不确定性环境下的动态任务卸载方法
CN111511028B (zh) * 2020-04-13 2023-04-07 北京邮电大学 一种多用户资源分配方法、装置、系统及存储介质
CN111538595B (zh) * 2020-04-23 2023-05-02 电子科技大学中山学院 一种基于任务切割的mec服务器任务调度方法
CN112596910B (zh) * 2020-12-28 2024-02-20 广东电网有限责任公司电力调度控制中心 一种多用户mec系统中的云计算资源调度方法
CN112752302A (zh) * 2021-01-05 2021-05-04 全球能源互联网研究院有限公司 一种基于边缘计算的电力业务时延优化方法及系统
CN112996056A (zh) * 2021-03-02 2021-06-18 国网江苏省电力有限公司信息通信分公司 一种云边协同下时延最优化的计算任务卸载方法及装置
CN113114733B (zh) * 2021-03-24 2022-07-08 重庆邮电大学 基于能量收集的分布式任务卸载和计算资源的管理方法
CN113032120B (zh) * 2021-03-26 2023-06-30 重庆大学 一种基于边缘计算的工业现场大数据任务协同调度方法
CN113687924B (zh) * 2021-05-11 2023-10-20 武汉理工大学 一种基于边缘计算系统的智能动态任务计算卸载方法
CN113377447B (zh) * 2021-05-28 2023-03-21 四川大学 一种基于李雅普诺夫优化的多用户计算卸载方法
CN113360248B (zh) * 2021-06-15 2022-03-15 燕山大学 基于信息可见的mec系统任务调度策略的博弈优化方法
CN113452625B (zh) * 2021-06-28 2022-04-15 重庆大学 基于深度强化学习的卸载调度与资源分配方法
CN113778682B (zh) * 2021-09-13 2023-04-18 电子科技大学 一种mec系统资源分配方法
CN113905347B (zh) * 2021-09-29 2024-04-16 华北电力大学 一种空地一体化电力物联网云边端协同方法
CN114051205B (zh) * 2021-11-08 2022-09-13 南京大学 基于强化学习动态多用户无线通信场景下边缘优化方法
CN114448991B (zh) * 2021-12-28 2022-10-21 西安电子科技大学 一种多边缘服务器选择方法、系统、介质、设备及终端
CN114461299B (zh) * 2022-01-26 2023-06-06 中国联合网络通信集团有限公司 一种卸载决策确定方法、装置、电子设备及存储介质
CN114968404B (zh) * 2022-05-24 2023-11-17 武汉大学 一种位置隐私保护的计算任务分布式卸载方法
CN115022893A (zh) * 2022-05-31 2022-09-06 福州大学 多任务边缘计算系统中最小化总计算时间的资源分配方法
CN115665805A (zh) * 2022-12-06 2023-01-31 北京交通大学 一种面向点云分析任务的边缘计算资源调度方法和系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180183855A1 (en) * 2016-12-28 2018-06-28 Intel Corporation Application computation offloading for mobile edge computing
CN109067842A (zh) * 2018-07-06 2018-12-21 电子科技大学 面向车联网的计算任务卸载方法
CN109582448A (zh) * 2018-10-17 2019-04-05 中国电子科技集团公司第二十八研究所 一种面向关键度和时效性的边缘计算任务调度方法
CN110099384A (zh) * 2019-04-25 2019-08-06 南京邮电大学 基于边-端协同的多用户多mec任务卸载资源调度方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7085837B2 (en) * 2001-12-04 2006-08-01 International Business Machines Corporation Dynamic resource allocation using known future benefits
CN107995660B (zh) * 2017-12-18 2021-08-17 重庆邮电大学 支持d2d-边缘服务器卸载的联合任务调度及资源分配方法
CN109656703B (zh) * 2018-12-19 2022-09-30 重庆邮电大学 一种移动边缘计算辅助车辆任务卸载方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180183855A1 (en) * 2016-12-28 2018-06-28 Intel Corporation Application computation offloading for mobile edge computing
CN109067842A (zh) * 2018-07-06 2018-12-21 电子科技大学 面向车联网的计算任务卸载方法
CN109582448A (zh) * 2018-10-17 2019-04-05 中国电子科技集团公司第二十八研究所 一种面向关键度和时效性的边缘计算任务调度方法
CN110099384A (zh) * 2019-04-25 2019-08-06 南京邮电大学 基于边-端协同的多用户多mec任务卸载资源调度方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
FAN, WENHAO ET AL.: "IEEE Access", COMPUTATION OFFLOADING BASED ON COOPERATIONS OF MOBILE EDGE COMPUTING-ENABLED BASE STATIONS, vol. 6, 9 May 2018 (2018-05-09), pages 22622 - 22633, XP011683229 *
ZHANG, GUANGLIN ET AL.: "Energy-Delay Tradeoff for Dynamic Offloading in Mobile-Edge Computing System With Energy Harvesting Devices", IEEE TRANSACTIONS ON INDUSTRIAL INFORMATICS, vol. 14, no. 10, 31 October 2018 (2018-10-31), pages 4642 - 4655, XP055747311 *

Cited By (78)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3975596A4 (en) * 2019-08-13 2023-07-26 ZTE Corporation METHOD, DEVICE AND SYSTEM FOR IMPLEMENTING EDGE COMPUTING
CN112468547B (zh) * 2020-11-13 2023-04-07 广州中国科学院沈阳自动化研究所分所 一种基于区域化的工业边缘计算任务云协同卸载方法
CN112468547A (zh) * 2020-11-13 2021-03-09 广州中国科学院沈阳自动化研究所分所 一种基于区域化的工业边缘计算任务云协同卸载方法
CN112512056A (zh) * 2020-11-14 2021-03-16 北京工业大学 一种移动边缘计算网络中多目标优化的计算卸载方法
CN112512056B (zh) * 2020-11-14 2022-10-18 北京工业大学 一种移动边缘计算网络中多目标优化的计算卸载方法
CN112559171A (zh) * 2020-12-02 2021-03-26 河海大学 一种移动边缘计算环境下基于延迟接受的多用户任务卸载方法
CN112835708B (zh) * 2020-12-14 2023-11-10 浙大城市学院 一种面向边缘计算环境中移动群体感知系统的高质量任务分配与服务部署方法
CN112835708A (zh) * 2020-12-14 2021-05-25 浙大城市学院 一种面向边缘计算环境中移动群体感知系统的高质量任务分配与服务部署方法
CN112738822A (zh) * 2020-12-25 2021-04-30 中国石油大学(华东) 移动边缘计算环境中基于noma的安全卸载和资源分配方法
CN112860337A (zh) * 2021-01-28 2021-05-28 山东师范大学 在多接入边缘计算中卸载依赖任务的方法及系统
CN112988346A (zh) * 2021-02-07 2021-06-18 中国联合网络通信集团有限公司 任务处理方法、装置、设备及存储介质
CN112988346B (zh) * 2021-02-07 2024-02-23 中国联合网络通信集团有限公司 任务处理方法、装置、设备及存储介质
CN113452956A (zh) * 2021-02-26 2021-09-28 深圳供电局有限公司 一种输电线路巡检任务智能分配方法及系统
CN113179296A (zh) * 2021-04-08 2021-07-27 中国科学院计算技术研究所 一种用于车载边缘计算系统的任务卸载方法
CN113179296B (zh) * 2021-04-08 2022-10-25 中国科学院计算技术研究所 一种用于车载边缘计算系统的任务卸载方法
CN113179482B (zh) * 2021-04-21 2023-08-22 中南大学 一种基于移动边缘计算的数据传输资源系统及方法
CN113179482A (zh) * 2021-04-21 2021-07-27 中南大学 一种基于移动边缘计算的数据传输资源系统及方法
CN113296941B (zh) * 2021-05-12 2023-10-24 广州中国科学院沈阳自动化研究所分所 一种基于多边缘计算的缓存任务调度方法及装置
CN113296941A (zh) * 2021-05-12 2021-08-24 广州中国科学院沈阳自动化研究所分所 一种基于多边缘计算的缓存任务调度方法及装置
CN113395679B (zh) * 2021-05-25 2022-08-05 安徽大学 一种无人机边缘服务器的资源和任务分配优化系统
CN113395679A (zh) * 2021-05-25 2021-09-14 安徽大学 一种无人机边缘服务器的资源和任务分配优化系统
CN113434206A (zh) * 2021-05-26 2021-09-24 国网河南省电力公司信息通信公司 智能电网计算卸载的方法及装置
CN113326126B (zh) * 2021-05-28 2024-04-05 湘潭大学 任务处理方法、任务调度方法、装置及计算机设备
CN113326126A (zh) * 2021-05-28 2021-08-31 湘潭大学 任务处理方法、任务调度方法、装置及计算机设备
CN113377531A (zh) * 2021-06-04 2021-09-10 重庆邮电大学 基于无线能量驱动的移动边缘计算分布式服务部署方法
CN113377533A (zh) * 2021-06-07 2021-09-10 重庆邮电大学 无人机协助移动边缘计算中的动态计算卸载和服务器部署方法
CN113377533B (zh) * 2021-06-07 2023-11-21 重庆邮电大学 无人机协助移动边缘计算中的动态计算卸载和服务器部署方法
CN113364626A (zh) * 2021-06-08 2021-09-07 国网江苏省电力有限公司 面向边缘环境的视频分析应用的服务放置与带宽分配方法
CN113364626B (zh) * 2021-06-08 2022-09-30 国网江苏省电力有限公司 面向边缘环境的视频分析应用的服务放置与带宽分配方法
CN113411394A (zh) * 2021-06-16 2021-09-17 广东电网有限责任公司电力调度控制中心 一种超密集网络场景下卸载任务的处理的方法及装置
CN113411394B (zh) * 2021-06-16 2022-09-09 广东电网有限责任公司电力调度控制中心 一种超密集网络场景下卸载任务的处理的方法及装置
CN113423115B (zh) * 2021-07-01 2023-07-25 兰州理工大学 一种基于边缘计算的能量协作与任务卸载优化方法
CN113423115A (zh) * 2021-07-01 2021-09-21 兰州理工大学 一种基于边缘计算的能量协作与任务卸载优化方法
CN113590279B (zh) * 2021-07-08 2024-05-14 华中科技大学 一种面向多核边缘计算服务器的任务调度和资源分配方法
CN113590279A (zh) * 2021-07-08 2021-11-02 华中科技大学 一种面向多核边缘计算服务器的任务调度和资源分配方法
CN113507712A (zh) * 2021-07-09 2021-10-15 中国传媒大学 一种基于交替方向乘子的资源分配与计算任务卸载方法
CN113507712B (zh) * 2021-07-09 2023-07-28 中国传媒大学 一种基于交替方向乘子的资源分配与计算任务卸载方法
CN113535393B (zh) * 2021-07-12 2023-04-04 湖南工学院 异构边缘计算中卸载dag任务的计算资源分配方法
CN113535393A (zh) * 2021-07-12 2021-10-22 湖南工学院 异构边缘计算中卸载dag任务的计算资源分配方法
CN113347277A (zh) * 2021-07-15 2021-09-03 湘潭大学 一种边缘计算中基于任务切分的卸载分配方法
CN113727371A (zh) * 2021-08-06 2021-11-30 北京科技大学 一种irs辅助的mec网络无线与计算资源分配方法及装置
CN113590232A (zh) * 2021-08-23 2021-11-02 南京信息工程大学 一种基于数字孪生的中继边缘网络任务卸载方法
CN113590232B (zh) * 2021-08-23 2023-04-25 南京信息工程大学 一种基于数字孪生的中继边缘网络任务卸载方法
CN113709883A (zh) * 2021-08-30 2021-11-26 北京邮电大学 一种多无人机辅助工业场景下的动态资源分配方法及装置
CN113709883B (zh) * 2021-08-30 2023-12-05 北京邮电大学 一种多无人机辅助工业场景下的动态资源分配方法及装置
CN113934534A (zh) * 2021-09-27 2022-01-14 苏州大学 异构边缘环境下多用户序列任务计算卸载方法及系统
CN114051266B (zh) * 2021-11-08 2024-01-12 首都师范大学 基于移动云-边缘计算的无线体域网任务卸载方法
CN114051266A (zh) * 2021-11-08 2022-02-15 首都师范大学 基于移动云-边缘计算的无线体域网任务卸载方法
CN114301907A (zh) * 2021-11-18 2022-04-08 北京邮电大学 云计算网络中的业务处理方法、系统、装置及电子设备
CN114301907B (zh) * 2021-11-18 2023-03-14 北京邮电大学 云计算网络中的业务处理方法、系统、装置及电子设备
CN114138373A (zh) * 2021-12-07 2022-03-04 吉林大学 一种基于强化学习的边缘计算任务卸载方法
CN114138373B (zh) * 2021-12-07 2023-10-24 吉林大学 一种基于强化学习的边缘计算任务卸载方法
CN114143355A (zh) * 2021-12-08 2022-03-04 华北电力大学 一种电力物联网低时延安全云边端协同方法
CN114143355B (zh) * 2021-12-08 2022-08-30 华北电力大学 一种电力物联网低时延安全云边端协同方法
CN114172809B (zh) * 2021-12-13 2023-10-03 重庆邮电大学 一种基于目标追踪的视频计算云边协同任务调度方法
CN114172809A (zh) * 2021-12-13 2022-03-11 重庆邮电大学 一种基于目标追踪的视频计算云边协同任务调度方法
CN114189521B (zh) * 2021-12-15 2024-01-26 福州大学 在f-ran架构中协作计算卸载的方法
CN114189521A (zh) * 2021-12-15 2022-03-15 福州大学 在f-ran架构中协作计算卸载的方法
CN114423021B (zh) * 2022-01-20 2023-05-26 重庆邮电大学 一种服务感知的资源优化方法
CN114423021A (zh) * 2022-01-20 2022-04-29 重庆邮电大学 一种服务感知的资源优化方法
CN114650567B (zh) * 2022-03-17 2024-04-23 江苏科技大学 一种无人机辅助v2i网络任务卸载方法
CN114650567A (zh) * 2022-03-17 2022-06-21 江苏科技大学 一种无人机辅助v2i网络任务卸载方法
CN114693141B (zh) * 2022-04-06 2022-10-25 长春理工大学 一种基于端边协同的变电站巡检方法
CN114693141A (zh) * 2022-04-06 2022-07-01 长春理工大学 一种基于端边协同的变电站巡检方法
CN114866548A (zh) * 2022-04-26 2022-08-05 中南大学 一种基于移动雾计算的任务卸载方法
CN114844900A (zh) * 2022-05-05 2022-08-02 中南大学 一种基于不确定需求下的边云资源协作方法
CN114844900B (zh) * 2022-05-05 2022-12-13 中南大学 一种基于不确定需求下的边云资源协作方法
CN115022331A (zh) * 2022-05-30 2022-09-06 中国电信股份有限公司 边缘计算资源分配方法、装置、存储介质及电子设备
CN115022331B (zh) * 2022-05-30 2024-05-14 中国电信股份有限公司 边缘计算资源分配方法、装置、存储介质及电子设备
CN115277789A (zh) * 2022-08-26 2022-11-01 中国长江三峡集团有限公司 一种梯级水电站安全防护系统及方法
CN115277789B (zh) * 2022-08-26 2024-03-26 中国长江三峡集团有限公司 一种梯级水电站安全防护系统及方法
CN116320354B (zh) * 2023-01-16 2023-09-29 浙江大学 360度虚拟现实视频用户接入控制系统及控制方法
CN116320354A (zh) * 2023-01-16 2023-06-23 浙江大学 360度虚拟现实视频用户接入控制系统及控制方法
CN115858048A (zh) * 2023-03-03 2023-03-28 成都信息工程大学 一种面向混合关键级任务动态到达边缘卸载方法
CN115858048B (zh) * 2023-03-03 2023-04-25 成都信息工程大学 一种面向混合关键级任务动态到达边缘卸载方法
CN116366661A (zh) * 2023-06-02 2023-06-30 江西师范大学 一种基于区块链和拍卖理论的协作式边缘用户分配方法
CN116980982A (zh) * 2023-09-20 2023-10-31 山东高速信息集团有限公司 一种柔性组网架构下任务处理方法及系统
CN116980982B (zh) * 2023-09-20 2024-01-23 山东高速信息集团有限公司 一种柔性组网架构下任务处理方法及系统

Also Published As

Publication number Publication date
JP2022522057A (ja) 2022-04-13
JP7162385B2 (ja) 2022-10-28
CN110099384A (zh) 2019-08-06
CN110099384B (zh) 2022-07-29

Similar Documents

Publication Publication Date Title
WO2020216135A1 (zh) 基于边-端协同的多用户多mec任务卸载资源调度方法
Liu et al. Latency and reliability-aware task offloading and resource allocation for mobile edge computing
Xiao et al. QoE and power efficiency tradeoff for fog computing networks with fog node cooperation
Baccarelli et al. Energy-efficient dynamic traffic offloading and reconfiguration of networked data centers for big data stream mobile computing: review, challenges, and a case study
Huang et al. Efficient workload allocation and user-centric utility maximization for task scheduling in collaborative vehicular edge computing
Samanta et al. Latency-oblivious distributed task scheduling for mobile edge computing
Gao et al. Computation offloading with instantaneous load billing for mobile edge computing
WO2023040022A1 (zh) 一种在随机网络中基于算网协同的分布式计算卸载方法
Baccarelli et al. Q*: Energy and delay-efficient dynamic queue management in TCP/IP virtualized data centers
Panigrahi et al. EEOA: Improving energy efficiency of mobile cloudlets using efficient offloading approach
US11616702B2 (en) Method and apparatus for differentially optimizing quality of service QoS
CN111836284B (zh) 基于移动边缘计算的能耗优化计算、卸载方法和系统
Guan et al. A novel mobility-aware offloading management scheme in sustainable multi-access edge computing
Zhang et al. Theoretical analysis on edge computation offloading policies for IoT devices
Sun et al. Energy-efficient multimedia task assignment and computing offloading for mobile edge computing networks
CN113419867B (zh) 一种面向边云协同计算环境中节能的服务供应方法
CN113535393B (zh) 异构边缘计算中卸载dag任务的计算资源分配方法
CN114938372B (zh) 一种基于联邦学习的微网群请求动态迁移调度方法及装置
CN116366576A (zh) 算力网络资源调度方法、装置、设备及介质
CN113190342B (zh) 用于云-边协同网络的多应用细粒度卸载的方法与系统架构
Zhong et al. POTAM: A parallel optimal task allocation mechanism for large-scale delay sensitive mobile edge computing
Durga et al. Context-aware adaptive resource provisioning for mobile clients in intra-cloud environment
Berno et al. On the allocation of computing tasks under QoS constraints in hierarchical MEC architectures
Lyu et al. Multi-leader multi-follower Stackelberg game based resource allocation in multi-access edge computing
Kim et al. Profitable and energy-efficient resource optimization for heterogeneous cloud-based radio access networks

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20795206

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021562894

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20795206

Country of ref document: EP

Kind code of ref document: A1