WO2022027776A1 - 边缘计算网络任务调度与资源分配方法和边缘计算系统 - Google Patents

边缘计算网络任务调度与资源分配方法和边缘计算系统 Download PDF

Info

Publication number
WO2022027776A1
WO2022027776A1 PCT/CN2020/114304 CN2020114304W WO2022027776A1 WO 2022027776 A1 WO2022027776 A1 WO 2022027776A1 CN 2020114304 W CN2020114304 W CN 2020114304W WO 2022027776 A1 WO2022027776 A1 WO 2022027776A1
Authority
WO
WIPO (PCT)
Prior art keywords
task
server
network
unloading
edge
Prior art date
Application number
PCT/CN2020/114304
Other languages
English (en)
French (fr)
Inventor
李林峰
肖林松
余伟峰
陈永
Original Assignee
威胜信息技术股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 威胜信息技术股份有限公司 filed Critical 威胜信息技术股份有限公司
Publication of WO2022027776A1 publication Critical patent/WO2022027776A1/zh

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5072Grid computing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/60Scheduling or organising the servicing of application requests, e.g. requests for application data transmissions using the analysis and optimisation of the required network resources
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Definitions

  • the present invention relates to edge computing, in particular to a method for scheduling and resource allocation of edge computing network and an edge computing system.
  • the fifth generation of mobile communication technology is facing new challenges of explosive data traffic growth and massive device connectivity.
  • New 5G network services such as virtual reality, augmented reality, driverless cars, and smart grids place higher requirements on latency.
  • these computing-intensive applications consume a lot of energy.
  • User equipment cannot solve these problems by itself.
  • Mobile edge Computing came into being.
  • Mobile edge computing deploys computing and storage resources at the edge of the mobile network to meet the stringent latency requirements of certain applications.
  • the edge device can offload the whole or part of the computing tasks to the MEC server for computing through the wireless channel, reducing the delay and energy consumption, so as to obtain a good user experience.
  • the existing traditional optimization algorithms are feasible to solve the MEC computing offloading and resource allocation problems, but the traditional optimization algorithms are not very suitable for high real-time MEC systems.
  • Problem P1 can be solved by finding optimal offloading decisions and computing resource allocation for offloading.
  • the unloading decision vector X is a feasible set of binary variables and the objective function is a non-convex problem.
  • the difficulty of solving problem P1 will increase exponentially, so it is a non-convex problem extended from the knapsack problem and is an NP-hard problem.
  • the patent document with the application number of 201910959379.1 discloses a computing resource allocation and task offloading method for edge computing of an ultra-dense network, including the following steps: Step 1, establish a system model based on the edge computing network of an ultra-dense network of SDN, and obtain network parameters; step 2. Obtain the parameters required for edge computing: obtain the uplink data rate of the transmission computing task through local computing, offloading to the edge server of the macro base station, and offloading to the edge server connected to the small base station s in turn; step 3, using Q-learning According to the scheme, the optimal computing resource allocation and task offloading strategy are obtained; in step 4, the DQN scheme is adopted to obtain the optimal computing resource allocation and task offloading strategy.
  • DQN Deep Q Network
  • the purpose of the present invention is to provide an edge computing network task scheduling and resource allocation method and an edge computing system, which can solve the problem of mobile
  • the offloading decision-making and offloading scheduling problems are solved by using reinforcement learning method to solve the resource allocation problem on the server side.
  • An edge computing system is constructed by using an edge server and several mobile edge devices, an application Q network is constructed in the mobile edge device, and a target Q network is constructed in the edge server, comprising the steps of:
  • the edge server receives the independent task information of all the mobile edge devices, the device CPU frequency of the edge device, and the transmission power for transmitting all the independent task information; the independent task information includes the data amount and location of the independent task information.
  • steps S4-S5 determine whether the number of iterations is less than a predetermined value, if yes, execute step S4, if not, output the optimal server allocation frequency and optimal scheduling order.
  • step S3 specifically includes:
  • the calculation formula of the allocation weight is:
  • ⁇ i is the allocation weight of each mobile edge device
  • t i,ratio is the delay ratio of the local execution delay of the mobile edge device to the total system delay
  • f ratio,i is the resource ratio of the mobile edge device The resource ratio of the total system resources.
  • step S4 specifically includes:
  • the scheduling optimization specifically includes:
  • S423. Determine all the independent task information after the column in the array with a longer time according to the time difference to form a third array; use the processed first array as an unloading task set, and use the processed first array as an unloading task set.
  • the second array is used as a local task collection;
  • the edge server constructs a corresponding target Q network for each of the mobile edge devices.
  • step S5 specifically includes:
  • the reward formula for the reward iteration is:
  • r(s, a) is the reward result
  • tc is the system consumption
  • L is the local execution energy consumption of a single independent task.
  • the predetermined value is 100-200.
  • An edge computing system using the described edge computing network task scheduling and resource allocation method comprising an edge server and several mobile edge devices; using the joint task scheduling and resource allocation method between the edge server and several of the mobile edge devices working.
  • the edge computing network task scheduling and resource allocation method and the edge computing system provided by the present invention have beneficial effects:
  • the joint task scheduling and resource allocation method provided by the present invention uses the reinforcement learning method to train the target Q network in the edge server, synchronously updates the application Q network in the mobile edge device, and outputs the optimal server allocation frequency and optimal frequency at the same time.
  • the scheduling scheme can greatly reduce energy consumption and delay, thereby improving user experience and utilization of energy and network resources.
  • Fig. 1 is the flow chart of the edge computing network task scheduling and resource allocation method provided by the present invention
  • FIG. 2 is a structural diagram of an edge computing system provided by the present invention.
  • FIG. 3 is a structural diagram of the Q network adopted by the present invention.
  • the related concepts of the edge computing network joint task scheduling and resource allocation method provided by the present invention are as follows:
  • Offloading refers to uploading tasks from devices at the edge of the network to the edge server for execution
  • Offload scheduling refers to the task execution sequence of uploading tasks from devices at the edge of the network to the edge server for execution;
  • Offloading decision decide which tasks in the network edge device are uploaded to the edge server for execution
  • Convex optimization is a subfield of mathematical optimization that studies the problem of minimizing convex functions defined in convex sets;
  • Reinforcement learning It is one of the paradigms and methodologies of machine learning, which is used to describe and solve the problem that an agent (agent) learns strategies to maximize returns or achieve specific goals in the process of interacting with the environment.
  • the MEC server is the edge server
  • the eNB is the communication base station
  • the others are mobile edge devices (mobile phones or computers).
  • the invention provides a task scheduling and resource allocation method for an edge computing network.
  • An edge computing system is constructed by using an edge server and several mobile edge devices, an application Q network is constructed in the mobile edge device, and a target Q network is constructed in the edge server, including the steps:
  • the edge server receives the independent task information of all the mobile edge devices, the device CPU frequency of the edge device, and the transmission power for transmitting all the independent task information; the independent task information includes the data volume and location of the independent task information.
  • 1 ⁇ j ⁇ N,1 ⁇ i ⁇ K ⁇ , T i,j (D i,j ,C i,j ), where D i,j is the data size of the independent task of the mobile edge device U i , in bits; C i,j is the number of CPU cycles required by the edge device U i to process each unit of data, in cycles/bit.
  • steps S4-S5 determine whether the number of iterations is less than a predetermined value, if yes, execute step S4, if not, output the optimal server allocation frequency and optimal scheduling order.
  • epoch ⁇ M it is judged that epoch ⁇ M, if yes, go back to step 4, otherwise, output the optimal server allocation frequency f ser, best and the optimal scheduling order Val best .
  • the task scheduling and resource allocation method provided by the present invention solves the problems of offloading decision-making, offloading scheduling and server resource allocation in the mobile edge computing system.
  • Reinforcement learning algorithms are well suited for solving resource allocation problems, such as MEC server resource allocation. Reinforcement learning can create its own experience to learn and complete the optimization goal through a try-reward feedback mechanism that is different from traditional optimization algorithms.
  • the deep learning algorithm can learn the characteristics of historical data, and after the training is completed, the efficiency is greatly improved compared with the traditional optimization algorithm.
  • the joint task scheduling and resource allocation method is an offloading iterative algorithm that combines scheduling optimization and reinforcement learning: 1. First, fix the server frequency allocated to edge devices, and then find the task offloading sequence and offloading decision that can achieve the minimum completion time. . 2. Under the condition that the unloading order obtained in the previous step is fixed, the optimal server allocation frequency corresponding to each unloading task under the unloading order is obtained. Repeating these two steps of iteration finally obtains the optimal server allocation frequency and optimal scheduling order.
  • the step S3 specifically includes:
  • the execution time of the independent task T i,j of the mobile edge device U i in the edge server is expressed as
  • the local execution time of the independent task T i,j (that is, the execution time in the mobile edge device) is expressed as
  • the offload transmission speed of the independent task T i,j (that is, the time for the independent task to be uploaded from the mobile edge device to the edge server) is:
  • w is the transmission bandwidth
  • g 0 is the path loss constant
  • L 0 is the relative distance
  • Li is the actual distance between the mobile edge device and the edge server
  • is the path loss index
  • N 0 is the noise power spectral density
  • p represents the transmission power of the mobile edge device offloading the independent task Ti ,j to the edge server.
  • the unloading transfer time of the independent task T i,j is
  • the offload transmission energy consumption of independent task T i,j is e (i,j),S :
  • the local execution energy consumption of independent task Ti is e( i ,j),L :
  • ⁇ L is the energy consumption per CPU cycle of the mobile edge device, in joules/cycle.
  • the step S4 specifically includes:
  • the scheduling optimization specifically includes:
  • the unloading scheduling method based on flow shop job scheduling obtains the unloading decision vector
  • the steps of the unloading scheduling method based on flow shop job scheduling are as follows:
  • Input all independent task set G i of mobile edge device U i , CPU frequency f i ,user of mobile edge device U i , CPU frequency f i,ser allocated by server to mobile edge device U i .
  • offload task set S i ⁇ S i,1 ,S i,2 ,...,S i,Ns ⁇
  • local task set Li ⁇ L i ,1 ,L i,2 ,..., Li,Nl ⁇
  • unloading decision vector X i ⁇ x i,1 , xi,2 ,..., xi,K ⁇ .
  • step i Compare size, if Explain that the newly added task k0 in the local task pre-allocation set Li is executed first, then step i ) is executed, otherwise step ii) is executed, and the following two steps are executed in a loop until it jumps out of the loop:
  • step S5 the reinforcement learning method is used to perform multiple optimization iterations on the target Q network, and the target Q network is used synchronously for each optimization iteration to optimize the application Q network .
  • Input iteration step size T, sampling weight coefficient ⁇ , decay factor ⁇ , exploration rate ⁇ , currently applied Q network Q, target Q network Q', target Q network Q' parameter update frequency C, batch gradient descent sample number m, The number of leaf nodes V of SumTree.
  • Ns represents the number of all offload execution tasks.
  • Nl represents the number of locally executed tasks.
  • Indicates the total energy consumption of the edge server to perform all tasks. is the completion time of the jth unloading task after sorting, is the server execution time of the jth offload task in the set S. is the transmission time of the 1st to jth offloading tasks in the set S, and the calculation formula is shown in Equation (15).
  • F i,list is the value range in ( 0,2f i,base ), an arithmetic sequence composed of a total of sec numbers, where sec is the number of segments in the prediction range of the neural network.
  • the output layer neuron index corresponding to the action a can be directly output.
  • ac is the available computing capacity of the MEC server, calculated as follows:
  • ⁇ end is the convergence random rate
  • ⁇ init is the initial random rate
  • ⁇ const is the random rate constant.
  • sample priority update method is as follows:
  • loss y is the loss value of sample y
  • step%C 0, if yes, go to step 8), otherwise go to step 9).
  • the edge server constructs a corresponding target Q network for each of the mobile edge devices.
  • the predetermined value is 100.
  • the mobile edge computing scenario model shown in FIG. 2 uses the task scheduling and resource allocation method provided by the present invention to describe in detail.
  • the set of computing independent tasks is
  • the amount of data that each independent task Ti ,j needs to process is Di,j
  • the CPU cycle required for processing each unit of data for each independent task Ti ,j is C i,j
  • the maximum corresponding to each independent task is C i,j .
  • the data volume D i,j of the independent task T i, j and the required CPU cycle C i,j are shown in Table 1.
  • the energy consumption per CPU cycle of the mobile edge device ⁇ L 1.6541*10 -9 W/Hz
  • the transmission bandwidth of each mobile edge device is 5MHz, and the initial value of the initialization target value Val best is 100.
  • the neural network structure is shown in Figure 3.
  • the allocation frequency f i,base (1.15*10 9 , 8.49*10 8 ) of the mobile edge device can be calculated.
  • step S44-4 Comparison size, if Explain that the newly added task k0 in the local task pre-allocation set Li is executed first, then step S44-1 is executed, otherwise step S44-2 is executed, and the following two steps are executed cyclically until the loop is jumped out:
  • step S4-5 is executed, and the QN flag is set to 1, indicating that the second array Q i has been allocated in advance and the first array P
  • step S4-5 is executed, and the PN flag is set to 1, indicating that the first array Pi set has been allocated in advance and the second array
  • Completion time of independent tasks in the offload task pre-allocation set S i and the local task pre-allocation set Li are:
  • step S2-5 the independent tasks in the second array Q have been fetched, the flag bit QN is set to 1, and the process goes to step S2-5.
  • S4-7 compares the two sizes, if The task is added to the local task pre-allocation set L, otherwise, the task is added to the unloaded task pre-allocation set S.
  • S4-8 repeatedly executes steps S4-6 to S4-7 until the independent tasks in the third array M have been fetched.
  • the task completion time in the unloading task pre-allocation set S i and the local task pre-allocation set Li are:
  • step S5-5 judges whether step>V is satisfied, if not, it returns to step S4-2, and if it is satisfied, it goes to step S4-6.
  • S5-6 draws m samples from SumTree to train the target Q network Q, and updates the priority of each sample.
  • S1-6 judges whether epoch ⁇ M is established, and outputs Val best , f ser, best if it is established, and returns to step S1-4 if it is not established.
  • the M value is preferably 100-200, more preferably 100.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

本申请涉及边缘计算网络任务调度与资源分配方法以及边缘计算系统。一种边缘计算网络任务调度与资源分配方法,使用边缘服务器和若干个移动边缘设备构建边缘计算系统,在移动边缘设备中构建应用Q网络,边缘服务器中构建目标Q网络,包括步骤:S1、边缘服务器接收所有所述移动边缘设备的独立任务信息;S2、对所述移动边缘设备的应用Q网络进行初始化得到网络参数;S3、得到每个所述移动边缘设备在所述边缘服务器上的预分配频率;S4、得到卸载决策向量和卸载任务集合;S5、得到服务器分配频率和有序卸载集合;S6、输出最优服务器分配频率和最优调度顺序。在大幅度降低能量消耗的同时大幅度降低延迟,从而提高用户体验和能量、网络资源利用率。

Description

边缘计算网络任务调度与资源分配方法和边缘计算系统 技术领域
本发明涉及边缘计算,尤其涉及边缘计算网络任务调度与资源分配方法以及边缘计算系统。
背景技术
第五代移动通信技术(5G)正面临着爆炸式数据流量增长和大规模设备连接的新挑战。虚拟现实、增强现实、无人驾驶汽车和智能电网等5G网络新业务对延迟提出了更高的要求,同时这些计算密集型应用也会消耗大量的能量,用户设备自身无法解决这些问题,移动边缘计算应运而生。移动边缘计算把计算和存储资源部署在移动网络边缘,来满足某些应用的严苛的延迟要求。边缘设备可以通过无线信道将计算任务整体或部分卸载到MEC服务器进行计算,降低延迟和能耗,从而获得良好的用户体验。现有的传统优化算法对于解决MEC计算卸载与资源资源分配问题是可行的,但是传统优化算法并不是很适用于高实时性的MEC系统。
因现有技术主要采用凸优化方法求解移动边缘计算中的卸载决策和资源分配问题,但是凸优化无法解决非凸问题。问题P1可以通过寻找最优卸载决策和计算卸载的资源分配来解决。然而卸载决策向量X是二元变量的可行集并且目标函数是非凸问题。此外,当任务数增加时,问题P1的求解难度将会呈指数规模增加,因此其是一个从背包问题扩展而来的非凸问题,是NP难题。申请号为201910959379.1的专利文献公开了一种超密网边缘计算的计算资源分配与任务卸载方法,包括以下步骤:步骤1,基于SDN的超密网边缘计算网络建立系统模型,获取网络参数;步骤2,获取边缘计算所需参数:依次通过本地计算、卸载到宏基站的边缘服务器和卸载到连接小基站s的边缘服务器,得到传输计算任务的上行链路数据率;步骤3,采用Q-learning方案,得到最优计算资源分配以及任务卸载策略;步骤4,采用DQN方案,得到最优计算资源分配以及任务卸载策略。它通过在学习变量的基础上刺激智能体找到最优解而适用于动态系统。在强化学习(RL)算法中,Q-Learning在某些时变网络中表现良好。将深度学习技术与Q-learning相结合,提出一种基于深度Q网络(DQN)的学习方案,不仅在时变环境下实现同时优化移动设备和运营商的效益,而且比基于Q-learning的方法学习时间更短,收敛更快。但是依然没有解决上述问题。
因而现有的边缘计算中任务调度和资源分配上存在不足,还有待改进和提高。
发明内容
鉴于上述现有技术的不足之处,本发明的目的在于提供边缘计算网络任务调度与资源分配方法以及边缘计算系统,用针对多用户基于流水车间调度原理的部分卸载决策与调度算法解决移动设备上的卸载决策和卸载调度问题,用强化学习方法解决服务器端的资源分配问题。
为了达到上述目的,本发明采取了以下技术方案:
一种边缘计算网络任务调度与资源分配方法,使用边缘服务器和若干个移动边缘设备构建边缘计算系统,在移动边缘设备中构建应用Q网络,边缘服务器中构建目标Q网络,包括步骤:
S1、边缘服务器接收所有所述移动边缘设备的独立任务信息、边缘设备的设备CPU频率、传输所有所述独立任务信息的传输功率;所述独立任务信息包括所述独立任务信息的数据量和所在的所述移动边缘设备处理每单位数据量所需CPU周期;
S2、对所述移动边缘设备的应用Q网络进行初始化得到网络参数,并根据所述网络参数在所述边缘服务器同步目标Q网络;
S3、使用所述目标Q网络根据所述设备CPU频率、所述边缘服务器的服务CPU频率、所述传送功率、所述数据量、所述CPU周期和所述网络参数采用服务器频率分配预分类方法,分别得到每个所述移动边缘设备的在所述边缘服务器上的预分配频率;
S4、使用所述目标Q网络基于流水车间作业调度的卸载调度方法得到卸载决策向量和卸载任务集合;
S5、根据所述卸载决策向量和所述卸载任务集合利用强化学习方法对目标Q网络进行优化,同步优化应用Q网络,求解边缘设备的服务器资源分配,得到服务器分配频率和有序卸载集合;
S6、以步骤S4-S5为一次分配迭代,判定迭代次数是否小于预定值,若是,则执行步骤S4,若否,则输出最优服务器分配频率和最优调度顺序。
优选的所述的边缘计算网络任务调度与资源分配方法,所述步骤S3具体包括:
S31、分别计算每个移动边缘设备的所述设备CPU频率占所有所述移动边缘设备的所述设备CPU频率之和的主频比例;
S32、根据每个所述独立任务信息计算每个独立任务的本地执行时延,分别计算每个移动边缘设备的本地执行时延占所有所述移动边缘设备的所述本地执行时延之和的相对时延比例;
S33、根据所述主频比例和所述相对时延比例,分别计算每个所述移动边缘设备的分配权 重;
S34、根据所述分配权重和所述服务CPU频率分别计算每个所述移动边缘设备在边缘服务器中的分配频率。
优选的所述的边缘计算网络任务调度与资源分配方法,步骤S33中,所述分配权重的计算公式为:
Figure PCTCN2020114304-appb-000001
其中,η i为每个所述移动边缘设备的分配权重;t i,ratio为移动边缘设备的本地执行时延占系统总时延的时延比例;f ratio,i为移动边缘设备的资源占系统总资源的资源比例。
优选的所述的边缘计算网络任务调度与资源分配方法,所述步骤S4具体包括:
S41、将所有所述移动边缘设备的所述独立任务信息根据卸载时间和服务器执行时间进行分类,将卸载时间小于服务器执行时间的所述独立任务信息添加到第一数组,并将所述第一数组中的所有的所述独立任务信息按照所述卸载时间升序排列;将卸载时间大于或等于所述服务器执行时间的所述独立任务信息添加到第二数组,并将所述第二数组中的所有所述独立任务信息根据所述服务器执行时间降序排列;
S42、对所述第一数据组和所述第二数组中的独立任务信息进行调度优化,得到卸载决策向量和卸载任务集合。
优选的所述的边缘计算网络任务调度与资源分配方法,所述步骤S4中,所述调度优化具体包括:
S421、获取所述第一数组内每个所述独立任务信息的服务器执行时间和卸载时间,得到每个所述独立任务信息的服务器处理时间;获取所述第二数组内每个所述独立任务信息的本地执行时间;
S422、获取所述第一数组内所有所述独立任务信息的总服务器处理时间与所述第二数组内所有所述独立任务信息的总本地执行时间之间的时间差值;
S423、根据所述时间差值确定时间较长的数组内列后的所有所述独立任务信息,形成第 三数组;将处理后的所述第一数组作为卸载任务集合,将处理后的所述第二数组作为本地任务集合;
S424、将所述第三数组内的每个所述独立任务信息分别计算服务器处理时间和本地执行时间,将服务器处理时间大于所述本地执行时间的独立任务信息放入所述本地任务预分配集合,将服务器处理时间小于或等于所述本地执行时间的独立任务信息放入所述卸载任务预分配集合;
S425、将所述第三数组中的所述独立任务信息分配完毕后,得到卸载任务集合和本地任务集合,并根据所述最终卸载任务集合得到卸载决策向量。
优选的所述的边缘计算网络任务调度与资源分配方法,所述步骤S2中,在对所述目标Q网络初始化前,所述边缘服务器为每个所述移动边缘设备构建对应的目标Q网络。
优选的所述的边缘计算网络任务调度与资源分配方法,所述步骤S5具体包括:
S51、通过提出优化问题,根据优化问题使用强化学习方法对所述目标Q网络进行奖励迭代,同时构建奖励树;
S52、使用所述奖励树对目标Q网络进行训练,并根据所述目标Q网络的网络参数同步更新应用Q网络的网络参数;
S53、得到服务器的服务器资源分配。
优选的所述的边缘计算网络任务调度与资源分配方法,所述步骤S51中,所述奖励迭代的奖励公式为:
Figure PCTCN2020114304-appb-000002
其中,r(s,a)为奖励结果;tc为系统消耗;
Figure PCTCN2020114304-appb-000003
为单一独立任务的本地执行时间;e (i,j),L为单一独立任务的本地执行耗能。
优选的所述的边缘计算网络任务调度与资源分配方法,所述步骤S6中,所述预定值为100-200。
一种使用所述的边缘计算网络任务调度与资源分配方法的边缘计算系统,包括边缘服务器和若干移动边缘设备;边缘服务器与若干所述移动边缘设备之间使用所述联合任务调度和资源分配方法进行工作。
相较于现有技术,本发明提供的边缘计算网络任务调度与资源分配方法以及边缘计算系统,具有有益效果:
本发明提供的联合任务调度和资源分配方法,使用强化学习方法对边缘服务器中目标Q网络进行训练,同步对移动边缘设备中的应用Q网络进行更新,同时输出最佳的服务器分配频率和最优的调度方案,在大幅度降低能量消耗的同时大幅度降低延迟,从而提高用户体验和能量、网络资源利用率。
附图说明
图1是本发明提供的边缘计算网络任务调度与资源分配方法的流程图;
图2是本发明提供的边缘计算系统的结构图;
图3是本发明所采用的Q网络结构图。
具体实施方式
为使本发明的目的、技术方案及效果更加清楚、明确,以下参照附图并举实施例对本发明进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
本发明提供的边缘计算网络联合任务调度和资源分配方法的相关概念如下:
卸载:是指将网络边缘端的设备中的任务上传到边缘服务器执行;
卸载调度:是指将网络边缘端的设备中的任务上传到边缘服务器执行的任务执行顺序;
卸载决策:决定将网络边缘端设备中的哪些任务上传到边缘服务器执行;
系统延迟:组成边缘计算系统中的所有设备中的最后一个任务的完成时间即为卸载延迟;
系统能耗:完成边缘计算系统中所有设备的任务所需要消耗的能量;
凸优化:是数学最优化的一个子领域,研究定义于凸集中的凸函数最小化的问题;
强化学习:是机器学习的范式和方法论之一,用于描述和解决智能体(agent)在与环境的交互过程中通过学习策略以达成回报最大化或实现特定目标的问题。
请参阅图1和图2,图2中,MEC server为边缘服务器,eNB为通信基站,其他均为移动边缘设备(手机或计算机)。本发明提供一种边缘计算网络任务调度与资源分配方法,使用边缘服务器和若干个移动边缘设备构建边缘计算系统,在移动边缘设备中构建应用Q网络,边缘服务器中构建目标Q网络,包括步骤:
S1、边缘服务器接收所有所述移动边缘设备的独立任务信息、边缘设备的设备CPU频率、传输所有所述独立任务信息的传输功率;所述独立任务信息包括所述独立任务信息的数据量和所在的所述移动边缘设备处理每单位数据量所需CPU周期;相应的,首先将所有移动边缘设备U={U 1,U 2,…,U K}中移动边缘设备U i的所有独立任务抽象成包含两个特征的任务集合G={T i,j|1≤j≤N,1≤i≤K},T i,j=(D i,j,C i,j),其中D i,j为移动边缘设备U i的独立任务的数据量大小,单位为比特;C i,j为边缘设备U i处理每单位数据量所需CPU周期数,单位为周期/比特。边缘设备U i的CPU频率为f i,user,单位为Hz,边缘服务器分配给边缘设备U i的CPU频率为f i,ser,单位为Hz,边缘设备U i的所有任务传输功率为传输功率p,初始化目标值Val best=100;
S2、对所述移动边缘设备的应用Q网络进行初始化得到网络参数,并根据所述网络参数在所述边缘服务器同步目标Q网络;相应的,初始化所述应用Q网络参数w,并同步所述目标Q’网络的网络参数w’=w;初始化经验回放SumTree的默认数据结构,SumTree的V个叶子节点的优先级p V=1,step=0,epoch=0;
S3、使用所述目标Q网络根据所述设备CPU频率、所述边缘服务器的服务CPU频率、所述传送功率、所述数据量、所述CPU周期和所述网络参数采用服务器频率分配预分类方法,分别得到每个所述移动边缘设备的在所述边缘服务器上的预分配频率;
S4、使用所述目标Q网络基于流水车间作业调度的卸载调度方法得到卸载决策向量和卸载任务集合;
S5、根据所述卸载决策向量和所述卸载任务集合利用强化学习方法对所述预分配频率进行优化,求解边缘设备的服务器资源分配,得到服务器分配频率和调度顺序,同步优化应用Q网络;
S6、以步骤S4-S5为一次分配迭代,判定迭代次数是否小于预定值,若是,则执行步骤S4,若否,则输出最优服务器分配频率和最优调度顺序。相应的,判断epoch<M,若是则返回步骤4,否则输出最优服务器分配频率f ser,best和最优调度顺序Val best
具体的,本发明提供的任务调度和资源分配方法,基于强化学习的DQN算法,解决了移动边缘计算系统中的卸载决策、卸载调度、服务器资源分配问题,通过有效的卸载资源调度和服务器资源分配方法,提高计算资源的利用率并减小任务延迟。强化学习算法很适合解决资源分配问题,如MEC服务器资源分配。强化学习可以通过有别于传统优化算法的尝试-回报反馈机制,自己创造经验进行学习,完成优化目标。而深度学习算法可以学习历史数据特征,训练完成之后相比传统优化算法有极大的效率提升。联合任务调度和资源分配方法是一 种结合了调度优化和强化学习的一种卸载迭代算法:1、先固定分配给边缘设备的服务器频率,然后求能达到最小完成时间的任务卸载顺序和卸载决策。2、由上一步得到的卸载顺序固定不变的条件下求各个卸载任务在该卸载顺序下所对应的最优服务器分配频率。反复进行这两步迭代最终得到最优服务器分配频率和最优调度顺序。
作为优选方案,本实施例中,所述步骤S3具体包括:
S31、分别计算每个移动边缘设备的所述设备CPU频率占所有所述移动边缘设备的所述设备CPU频率之和的主频比例;
S32、根据每个所述独立任务信息计算每个独立任务的本地执行时延,分别计算每个移动边缘设备的本地执行时延占所有所述移动边缘设备的所述本地执行时延之和的相对时延比例;
S33、根据所述主频比例和所述相对时延比例,分别计算每个所述移动边缘设备的分配权重;
S34、根据所述分配权重和所述服务CPU频率分别计算每个所述移动边缘设备在边缘服务器中的分配频率。
具体的,求解服务器预分类分配频率f ser,base=f ser,best={f 1,ser,...,f K,ser}。
移动边缘设备U i的独立任务T i,j在边缘服务器的执行时间表示为
Figure PCTCN2020114304-appb-000004
Figure PCTCN2020114304-appb-000005
独立任务T i,j的本地执行时间(即在移动边缘设备中的执行时间)表示为
Figure PCTCN2020114304-appb-000006
Figure PCTCN2020114304-appb-000007
独立任务T i,j的卸载传输速度(即独立任务由移动边缘设备上传到边缘服务器的时间)为:
Figure PCTCN2020114304-appb-000008
其中,w为传输带宽,g 0为路径损耗常数,L 0为相对距离,L i为移动边缘设备到边缘服务器之间的实际距离,θ为路径损耗指数,N 0为噪声功率谱密度,p表示移动边缘设备卸载独立任务T i,j到边缘服务器的传输功率。
独立任务T i,j的卸载传输时间为
Figure PCTCN2020114304-appb-000009
Figure PCTCN2020114304-appb-000010
独立任务T i,j的卸载传输耗能为e (i,j),S
Figure PCTCN2020114304-appb-000011
独立任务T i的本地执行耗能为e (i,j),L
e (i,j),L=δ LC i,j      (6)
其中,δ L为移动边缘设备每CPU周期耗能,单位为焦耳/周期。
1)计算移动边缘设备U i的资源占系统总资源的比例f ratio,i
Figure PCTCN2020114304-appb-000012
2)计算移动边缘设备U i的本地执行时延占系统总时延的相对比例t i,ratio
Figure PCTCN2020114304-appb-000013
3)计算移动边缘设备U i的频率分配权重η i:
Figure PCTCN2020114304-appb-000014
4)计算移动边缘设备在所述边缘服务器中的分配频率f i,base
f i,base=η i*F       (10)
作为优选方案,本实施例中,所述步骤S4具体包括:
S41、将所有所述移动边缘设备的所述独立任务信息根据卸载时间和服务器执行时间进行分类,将卸载时间小于服务器执行时间的所述独立任务信息添加到第一数组P i,并将所述第一数组P i中的所有的所述独立任务信息按照所述卸载时间升序排列;将卸载时间大于或等于所述服务器执行时间的所述独立任务信息添加到第二数组Q i,并将所述第二数组Q i中的所有 所述独立任务信息根据所述服务器执行时间降序排列;
S42、对所述第一数据组P i和所述第二数组Q i中的独立任务信息进行调度优化,得到卸载决策向量和卸载任务集合。
作为优选方案,本实施例中,所述步骤S4中,所述调度优化具体包括:
S421、获取所述第一数组P i内每个所述独立任务信息的服务器执行时间和卸载时间,得到每个所述独立任务信息的服务器处理时间;获取所述第二数组Q i内每个所述独立任务信息的本地执行时间;
S422、获取所述第一数组P i内所有所述独立任务信息的总服务器处理时间与所述第二数组Q i内所有所述独立任务信息的总本地执行时间之间的时间差值;
S423、根据所述时间差值确定时间较长的数组内列后的所有所述独立任务信息,形成第三数组M;将处理后的所述第一数组P i作为卸载任务预分配集合S i,将处理后的所述第二数组Q i作为本地任务预分配集合L i
S424、将所述第三数组M内的每个所述独立任务信息分别计算服务器处理时间和本地执行时间,将服务器处理时间大于所述本地执行时间的独立任务信息放入所述本地任务预分配集合L i,将服务器处理时间小于或等于所述本地执行时间的独立任务信息放入所述卸载任务预分配集合S i
S425、将所述第三数组M中的所述独立任务信息分配完毕后,得到卸载任务集合S i和本地任务集合L i,并根据所述最终卸载任务集合S得到卸载决策向量X i={x i,1,x i,2,...,x i,K}。
具体的,基于流水车间作业调度的卸载调度方法求卸载决策向量,基于流水车间作业调度的卸载调度方法(通过所述目标Q网络实现)的步骤如下:
输入:移动边缘设备U i的所有独立任务集合G i,移动边缘设备U i的CPU频率f i,user,服务器分配给移动边缘设备U i的CPU频率f i,ser
输出:卸载任务集合S i={S i,1,S i,2,...,S i,Ns},本地任务集合L i={L i,1,L i,2,...,L i,Nl},卸载决策向量X i={x i,1,x i,2,...,x i,K}。
1)对所有独立任务T i,j进行分类,通过比较卸载传输时间
Figure PCTCN2020114304-appb-000015
和边缘服务器执行时间
Figure PCTCN2020114304-appb-000016
将卸载传输时间小于边缘服务器执行时间的独立任务加入所述第一数组P i
Figure PCTCN2020114304-appb-000017
将第一数组P i中所有独立任务根据卸载传输时间
Figure PCTCN2020114304-appb-000018
升序排 列。将卸载传输时间大于或等于边缘服务器执行时间的独立任务加入所述第二数组Q i
Figure PCTCN2020114304-appb-000019
将第二数组Q i中所有独立任务根据边缘服务器执行时间
Figure PCTCN2020114304-appb-000020
降序排列。将第二数组Q i加到第一数组P i后面得到新的任务顺序σ i=[P i Q i]。
2)设第一数组P i和第二数组Q i的初始下标值分别为hp=1和hq=1,从第一数组P i中取出独立任务P i[hp]放入卸载任务预分配集合S i,独立任务P i[hp]的卸载决策变量
Figure PCTCN2020114304-appb-000021
hp=hp+1。从第二数组Q i中取出独立任务Q i[hq]放入本地任务预分配集合L i,独立任务Q i[hq]的卸载决策变量
Figure PCTCN2020114304-appb-000022
hq=hq+1。
3)计算本地任务预分配集合L i中新加入的第一个任务k0=1的完成时间
Figure PCTCN2020114304-appb-000023
计算卸载任务预分配集合S i中新加入的第一个任务k1=1的完成时间
Figure PCTCN2020114304-appb-000024
分别如式(11)和式(12)所示。
Figure PCTCN2020114304-appb-000025
4)比较
Figure PCTCN2020114304-appb-000026
的大小,若
Figure PCTCN2020114304-appb-000027
说明本地任务预分配集合L i中新加入的任务k0先执行完,则执行步骤i),否则执行步骤ii),以下两步循环执行直至跳出循环:
ⅰ)从第二数组Q i中反复取独立任务Q i[hq]放入本地任务预分配集合L i,独立任务T i,j的卸载决策变量x i=0,hq=hq+1,k0=k0+1,根据式(11)计算新加入的独立任务k0的完成时间,比较
Figure PCTCN2020114304-appb-000028
Figure PCTCN2020114304-appb-000029
如果
Figure PCTCN2020114304-appb-000030
小于
Figure PCTCN2020114304-appb-000031
并且第二数组Q i中还有任务,则继续执行步骤ⅰ);如果
Figure PCTCN2020114304-appb-000032
大于
Figure PCTCN2020114304-appb-000033
并且第二数组Q i中还有独立任务,则执行步骤ii);如果
Figure PCTCN2020114304-appb-000034
小于
Figure PCTCN2020114304-appb-000035
并且第二数组Q i中没有独立任务了,则说明第二数组Q i中独立任务被取完且本地任务预分配集合L i中所有独立任务完成时间仍小于卸载任务预分配集合S i中所有独立任务的完成时间,则执行步骤5),并将QN标志位置1,表示第二数组Q集合被提前分配完且第一数组P i集合有剩余。
ii)从第一数组P中反复取独立任务P i[hp]放入卸载任务预分配集合S i,独立任务T i,j的卸载决策变量x i=1,hp=hp+1,k1=k1+1,根据式(12)计算新加入的任务k1的完成时间,比 较
Figure PCTCN2020114304-appb-000036
Figure PCTCN2020114304-appb-000037
如果
Figure PCTCN2020114304-appb-000038
小于
Figure PCTCN2020114304-appb-000039
并且第一数组P中还有独立任务,则继续执行步骤ii);如果
Figure PCTCN2020114304-appb-000040
大于
Figure PCTCN2020114304-appb-000041
并且第一数组P i中还有独立任务,则执行步骤ⅰ);如果
Figure PCTCN2020114304-appb-000042
小于
Figure PCTCN2020114304-appb-000043
并且第一数组P i中没有独立任务了,则说明第一数组P i中独立任务被取完且卸载任务预分配集合S i中所有独立任务完成时间仍小于本地任务预分配集合L i中所有独立任务的完成时间,则执行步骤5),并将PN标志位置1,表示第一数组P i集合被提前分配完且第二数组Q i集合有剩余。
Figure PCTCN2020114304-appb-000044
其中
Figure PCTCN2020114304-appb-000045
5)检测标志位PN、QN。若QN=1,则第一数组P i中独立任务仍有剩余,将第一数组P i中所有独立任务存入第三数组M;若PN=1,则第二数组Q i中独立任务仍有剩余,将第二数组Q i中所有独立任务存入第三数组M;
6)取出集合第三数组M中的独立任务,根据公式(13)、(14)分别求出若该独立任务加入本地任务预分配集合L、卸载任务预分配集合S中的完成时间
Figure PCTCN2020114304-appb-000046
7)比较两者大小,若
Figure PCTCN2020114304-appb-000047
则将独立任务加入本地任务预分配集合L,否则将独立任务加入卸载任务预分配集合S。
8)反复执行步骤6)到步骤7),直至第三数组M中独立任务被取完为止。
作为优选方案,本实施例中,所述步骤S5中,对所述目标Q网络使用所述强化学习方法进行多次优化迭代,每次优化迭代同步使用所述目标Q网络优化所述应用Q网络。
具体的,根据步骤4求得的卸载任务集合和卸载决策向量,利用强化学习的方法求解所有移动边缘设备U={U 1,U 2,…,U K}的服务器资源分配f ser,best={f 1,ser,...,f K,ser},的求解步骤如下:
输入:迭代步长T,采样权重系数β,衰减因子γ,探索率∈,当前应用Q网络Q,目标 Q网络Q’,目标Q网络Q’参数更新频率C,批量梯度下降的样本数m,SumTree的叶子节点数V。
输出:服务器资源分配:f ser,best={f 1,ser,...,f K,ser}
1)联合任务调度和服务器资源分配问题的目标是最小化能量消耗和所有任务的完成时间,优化问题的数学模型如(16)至(21)所示,记为原问题P1。其中式(16)为目标函数,式(17)至(21)为约束。
P1
Figure PCTCN2020114304-appb-000048
s.t.
Figure PCTCN2020114304-appb-000049
Figure PCTCN2020114304-appb-000050
Figure PCTCN2020114304-appb-000051
Figure PCTCN2020114304-appb-000052
Figure PCTCN2020114304-appb-000053
其中
Figure PCTCN2020114304-appb-000054
表示排序后所有卸载任务的完成时间,Ns表示所有卸载执行任务数。表示排序后所有卸载任务的完成时间,Nl表示本地执行任务数。
Figure PCTCN2020114304-appb-000055
表示边缘服务器执行所有任务的总耗能。
Figure PCTCN2020114304-appb-000056
为排序后第j个卸载任务的完成时间,
Figure PCTCN2020114304-appb-000057
为集合S中第j个卸载任务的服务器执行时间。
Figure PCTCN2020114304-appb-000058
为集合S中第1至第j个卸载任务的传输时间,计算公式如式(15)所示。
2)以ε的概率生成一个随机动作a={(f 1,ser,...f i,ser,...,f K,ser)|0≤f i,ser≤2f i,base,0≤i≤K},或以1-ε的概率将状态s=(tc,ac)输入目标网络Q',由神经网络预测出动作a。其中,tc为当前状态下整个系统的系统消耗,由式(16)可得。输出动作a对应的输出层神经元索引a id={a 1,id,...,a i,id,...a K,id},step=step+1。计算a id的方法如下:
ⅰ)对于随机动作a=(f 1,ser,...f i,ser,...,f K,ser),首先生成一个数组F i,list,F i,list为取值范围在(0,2f i,base)之间,共sec个数组成的等差数列,sec为神经网络预测范围的分段数。依次将a中的频率f i,ser插入F i,list,并对F i,list就地升序排列,f i,ser在F i,list中的顺序序号即为f i,ser在F i,list中的 索引idx,故f i,ser对应输出层神经元的索引a i,id为(i-1)*sec+idx。
ii)对于神经网络的预测动作a=(f 1,ser,...f i,ser,...,f K,ser),直接输出动作a对应的输出层神经元索引即可。
ac为MEC服务器的可用计算容量,计算方式如下:
Figure PCTCN2020114304-appb-000059
ε的计算方式如下:
Figure PCTCN2020114304-appb-000060
其中,ε end为收敛随机率,ε init为初始随机率,ε const为随机率常数。
3)根据动作a计算下一个状态s'=(tc,ac)。若ac<0则标志位end=True否则end=False,奖励r,将Sam=(s,s',r,a id,end)依次存入SumTree,并进行状态迭代:s=s'。
其中,奖励r的计算公式如下:
Figure PCTCN2020114304-appb-000061
4)如果tc<tc best,则tc best=tc,f ser,best=a。
5)判断step>V,若是则此时经验池已存满则进入下一步,若否返回2)
6)从SumTree中抽取m个样本训练神经网络Q,抽取方式如下:
ⅰ)令i=1,j=1。对SumTree中的所有叶子节点求和得到根节点的值,值为L 1,1。SumTree共有Floor=1+log 2V层。
ⅰi)将根节点值L 1,1平均分成
Figure PCTCN2020114304-appb-000062
个区间,在每个区间随机选取一个数,得到t=[t 1,...,t i,...,t y]。
ⅰii)按照t i从最顶上的根节点开始搜索。
iv)设此时左边叶子节点的值为left,右边叶子节点的值为right。若left>t i,则进入左边叶子节点,反之进入右边叶子节点;若进入右边叶子节点,则t i=t i-left。j=j+1。重复该步骤直到j>Floor。此时t i所对应的叶子节点所存储的样本为Sam i
v)重复上述步骤,直至选出Sam=[Sam 1,...,Sam m]共m个样本为止。
vi)并更新每个样本的优先级,样本优先级更新方式如下:
p y=loss y+0.0001,y∈V       (25)
其中,loss y为样本y的损失值,0.0001是为了防止求和后L 1,1=0。
7)判断step%C=0,若是则进入步骤8),否则进入步骤9)。
8)同步当前网络Q与目标网络Q’的权重:w’=w。
9)判断end=True or step%T=0,若是则epoch=epoch+1并进入步骤S6,否则返回步骤2)
作为优选方案,本实施例中,所述步骤S2中,在对所述目标Q网络初始化前,所述边缘服务器为每个所述移动边缘设备构建对应的目标Q网络。
作为优选方案,本实施例中,所述步骤S6中,所述预定值为100。
以下,请一并参阅图1-图3,同时以上述实施例中内容为基础,以图2所示的移动边缘计算场景模型使用本发明提供的任务调度和资源分配方法,进行详细说明。其中,本实施例中,边缘计算模型还有一个边缘服务器,2个移动边缘设备,每个所述移动边缘设备还有7个独立任务,即移动边缘设备的数量K=2,独立任务的数量N=7。相应的,以计算独立任务的集合为
Figure PCTCN2020114304-appb-000063
每个独立任务T i,j所需处理的数据量为D i,j,每个独立任务T i,j的处理每单位数据所需CPU周期为C i,j,每个独立任务对应的最大传输功率为p max=100mw,移动边缘设备到边缘服务器的传输距离为L={L 1,L 2}。
S1-1初始化任务集合,独立任务T i,j的数据量D i,j和所需CPU周期C i,j如表1所示,为了便于求解最优解,设两个移动边缘设备对应的传输功率分别为p=(64.248,59.039)mw,移动边缘设备每CPU周期的耗能δ L=1.6541*10 -9W/Hz,移动边缘设备的CPU频率为f user=(0.5,1)GHz,移动边缘设备U={U 1,U 2}到边缘服务器的距离为L=(154.881,171.518)m。边缘服务器的CPU频率为f ser=2GHz。每个移动边缘设备传输带宽为5MHz,初始化目标值Val best的初值为100。
表1各个任务的参数表
Figure PCTCN2020114304-appb-000064
系统参数如表2所示。
表2任务的执行时间和能耗表
Figure PCTCN2020114304-appb-000065
Figure PCTCN2020114304-appb-000066
S1-2初始化应用Q网络Q的网络参数w,并同步目标Q网络Q’的网络参数w’=w。初始化经验回放SumTree的默认数据结构,SumTree的V(V=64)个叶子节点的优先级p V=1,epoch=0。神经网络结构如图3所示。
S1-3求解服务器预分类分配频率:
计算各个独立任务的本地执行时间
Figure PCTCN2020114304-appb-000067
任务传输时间
Figure PCTCN2020114304-appb-000068
任务传输耗能e (i,j),S、本地执行耗能e (i,j),L,计算结果表3所示:
表3任务的执行时间和能耗表
Figure PCTCN2020114304-appb-000069
Figure PCTCN2020114304-appb-000070
由式(7)可算得移动边缘设备U={U 1,U 2}的本地执行时延占系统总时延的相对比例f ratio,i=(0.016,0.327)。
由式(8)可算得移动边缘设备U={U 1,U 2}的本地执行时延占系统总时延的相对比例t i,ratio=(0.063,0.936)
由式(9)可算得移动边缘设备U={U 1,U 2}的频率分配权重η i=(0.057,0.424)。
由式(10)可算得移动边缘设备的分配频率f i,base=(1.15*10 9,8.49*10 8)。
S1-4基于流水车间作业调度的卸载调度方法求卸载决策向量:
S4-1对所有独立任务T i,j进行分类,通过比较同一独立任务的卸载传输时间
Figure PCTCN2020114304-appb-000071
和边缘服务器执行时间
Figure PCTCN2020114304-appb-000072
将卸载传输时间小于边缘服务器执行时间的独立任务加入第一数组P i
Figure PCTCN2020114304-appb-000073
将第一数组P i中所有任务根据卸载传输时间
Figure PCTCN2020114304-appb-000074
升序排列。将卸载传输时间大于或等于边缘服务器执行时间的独立任务加入第二数组Q i
Figure PCTCN2020114304-appb-000075
将第二数组Q i中所有任务根据边缘服务器执行时间
Figure PCTCN2020114304-appb-000076
降序排列。将第二数组Q i加到第一数组P i后面得到新的任务顺序σ i=[P i Q i]。
任务第一数组P中所有独立任务的卸载时间
Figure PCTCN2020114304-appb-000077
边缘服务器执行时间
Figure PCTCN2020114304-appb-000078
如表4所示:
表4第一数组P中独立任务的卸载时间和执行时间
Figure PCTCN2020114304-appb-000079
任务第二数组Q中所有独立任务的卸载时间
Figure PCTCN2020114304-appb-000080
服务器执行时间
Figure PCTCN2020114304-appb-000081
如表5所示:
表5第二数组Q中独立任务的卸载时间和执行时间
Figure PCTCN2020114304-appb-000082
S4-2第二数组P i和第一数组Q i的初始下标值分别为hp=1和hq=1,从第一数组P i中取出P i[hp]放入卸载任务预分配集合S,独立任务P i[hp]的卸载决策变量
Figure PCTCN2020114304-appb-000083
hp=hp+1。从第二数组Q中取出Q i[hq]放入本地任务预分配集合L,独立任务Q i[hq]的卸载决策变量
Figure PCTCN2020114304-appb-000084
hq=hq+1。
S4-3由式(11)和式(12),计算本地任务预分配集合L i中新加入的第一个任务k0=1的完成时间
Figure PCTCN2020114304-appb-000085
计算卸载任务预分配集合S i中新加入的第一个任务k1=1的完成时间
Figure PCTCN2020114304-appb-000086
Figure PCTCN2020114304-appb-000087
S4-4比较
Figure PCTCN2020114304-appb-000088
的大小,若
Figure PCTCN2020114304-appb-000089
说明本地任务预分配集L i中新加入的任务k0先执行完,则执行步骤S44-1,否则执行步骤S44-2,以下两步循环执行直至跳出循环:
S44-1从第二数组Q i中反复取独立任务Q[hq]放入本地任务预分配集合L i,独立任务T i,j的卸载决策变量x i=0,hq=hq+1,k0=k0+1,根据式(13)计算新加入的独立任务k0的完成时间,比较
Figure PCTCN2020114304-appb-000090
Figure PCTCN2020114304-appb-000091
如果
Figure PCTCN2020114304-appb-000092
小于
Figure PCTCN2020114304-appb-000093
并且第二数组Q i中还有独立任务,则继续执行步骤S44-1;如果
Figure PCTCN2020114304-appb-000094
大于
Figure PCTCN2020114304-appb-000095
并且第二数组Q i中还有独立任务,则执行步骤S44-2;如果
Figure PCTCN2020114304-appb-000096
小于
Figure PCTCN2020114304-appb-000097
并且第二数组Q i中没有独立任务了,则说明第二数组Q i中任务被取完且本地任务预分配集合L i中所有任务完成时间仍小于卸载任务预分配集合S i中所有任务的完成时间,则执行步骤S4-5,并将QN标志位置1,表示第二数组Q i被提前分配完且第一数组P i集合有剩余。
S44-2从第一数组P中反复取独立任务P[hp]放入卸载任务预分配集合S i,任务T i,j的卸载决策变量x i=1,hp=hp+1,k1=k1+1,根据式(14)计算新加入的独立任务k1的完成时间,比较
Figure PCTCN2020114304-appb-000098
Figure PCTCN2020114304-appb-000099
如果
Figure PCTCN2020114304-appb-000100
小于
Figure PCTCN2020114304-appb-000101
并且第一数组P中还有独立任务,则继续执行步骤S44-2;如果
Figure PCTCN2020114304-appb-000102
大于
Figure PCTCN2020114304-appb-000103
并且第一数组P i中还有任务,则执行步骤S44-1;如果
Figure PCTCN2020114304-appb-000104
小于
Figure PCTCN2020114304-appb-000105
并且第一数组P i中没有任务了,则说明第一数组P i中任务被取完且卸载任务预分配集合S i中所有独立任务完成时间仍小于本地任务预分配集合L中所有独立任务的完成时间,则执行步骤S4-5,并将PN标志位置1,表示第一数组P i集合被提前分配完且第二数组Q i集合有剩余。
执行步骤S4-4后集合卸载任务预分配集合S i、本地任务预分配集合L i分布如表6所示:
表6卸载任务预分配集合S i、本地任务预分配集合L i中独立任务分布
S 1 T 1,1 T 1,2 T 1,3 T 1,7
L 1 T 1,4      
S 2 T 2,1      
L 2 T 2,2      
卸载任务预分配集合S i、本地任务预分配集合L i中独立任务完成时间
Figure PCTCN2020114304-appb-000106
Figure PCTCN2020114304-appb-000107
分别为:
Figure PCTCN2020114304-appb-000108
此时,第二数组Q中独立任务被取完,将标志位QN置1,进入步骤S2-5。
S4-5检测标志位PN、QN。此时,QN=1,则第一数组P中独立任务仍有剩余,将第一数组P中所有独立任务存入第三数组M;此时卸载任务预分配集合S i、本地任务预分配集合L i、第三数组M中的独立任务分布表7所示:
表7集合S、L、M中任务分布
S 1 T 1,1 T 1,2 T 1,3 T 1,7  
L 1 T 1,4        
S 2 T 2,1        
L 2 T 2,2        
M 1 T 1,5 T 1,6      
M 2 T 2,3 T 2,4 T 2,5 T 2,6 T 2,7
S4-6依次取出第三数组M中的独立任务,根据公式(13)、(14)分别求出若该独立任务存入本地任务预分配集合L i、卸载任务预分配集合S i中的完成时间
Figure PCTCN2020114304-appb-000109
S4-7比较两者大小,若
Figure PCTCN2020114304-appb-000110
则将任务加入本地任务预分配集合L,否则将任务加入卸载任务预分配集合S。
S4-8反复执行步骤S4-6-步骤S4-7,直至第三数组M中独立任务被取完为止。
此时卸载任务预分配集合S i、本地任务预分配集合L i中的独立任务分布表8所示:
表8集合S、L中任务分布
S 1 T 1,1 T 1,2 T 1,3 T 1,7 T 1,6
L 1 T 1,4 T 1,5      
S 2 T 2,1 T 2,3 T 2,5 T 2,6  
L 2 T 2,2 T 2,4 T 2,7    
卸载任务预分配集合S i、本地任务预分配集合L i中任务完成时间
Figure PCTCN2020114304-appb-000111
Figure PCTCN2020114304-appb-000112
分别为:
Figure PCTCN2020114304-appb-000113
计算给定卸载任务集合和卸载决策向量下的系统状态,s=(0.0226,0)。
S1-5根据步骤S1-4求得的卸载任务集合和卸载决策向量,利用强化学习的方法求解所有移动边缘设备U={U 1,U 2,…,U K}的服务器资源分配f ser,best={f 1,ser,...,f K,ser}:
S5-1构造优化问题P1。
S5-2随机生成一个在(0,1)之间的小数ε 0,若ε 0<ε则生成一个随机动作a,否则将状态s输入目标Q网络Q’,预测出动作a。计算动作a对应的输出层神经元索引a id,step=step+1。
此时,ε 0=0.388,ε=0.798,ε 0<ε,生成的随机动作为a=(1.046*10 9,9.5308*10 8),a id=(31,98)。
S5-3根据动作a计算下一个状态s'=(0.021,0),end=False,奖励r=0.85,将(s,s',r,a id,end)存入SumTree,状态迭代s=s',目标值Val=0.021。
S5-4判断tc<tc best是否成立,成立则tc best=tc,f ser,best=f ser。不成立则直接进入S4-5。
S5-5判断step>V是否满足,若不满足则返回步骤S4-2,满足则进入步骤S4-6。
S5-6从SumTree中抽取m个样本训练目标Q网络Q,并更新每个样本的优先级。
S5-7判断step%C=0是否成立,成立则同步应用Q网络Q与目标Q网络Q’的权重:w’=w,不成立则直接进入S4-8。
S5-8判断end=True or step%T=0是否成立,成立则epoch=epoch+1。不成立则返回步骤S4-2。
S1-6判断epoch<M是否成立,成立则输出Val best,f ser,best,不成立则返回步骤S1-4。优选的,M值优选为100-200,进一步优选为100。
以上未做详细说明的是,均是本领域的公知技术,本发明不做赘述,可以理解的是,对本领域普通技术人员来说,可以根据本发明的技术方案及其发明构思加以等同替换或改变,而所有这些改变或替换都应属于本发明所附的权利要求的保护范围。

Claims (10)

  1. 一种边缘计算网络任务调度与资源分配方法,其特征在于,使用边缘服务器和若干个移动边缘设备构建边缘计算系统,在移动边缘设备中构建应用Q网络,边缘服务器中构建目标Q网络,包括步骤:
    S1、边缘服务器接收所有所述移动边缘设备的独立任务信息、边缘设备的设备CPU频率、传输所有所述独立任务信息的传输功率;所述独立任务信息包括所述独立任务信息的数据量和所在的所述移动边缘设备处理每单位数据量所需CPU周期;
    S2、对所述移动边缘设备的应用Q网络进行初始化得到网络参数,并根据所述网络参数在所述边缘服务器同步目标Q网络;
    S3、使用所述目标Q网络根据所述设备CPU频率、所述边缘服务器的服务CPU频率、所述传送功率、所述数据量、所述CPU周期和所述网络参数采用服务器频率分配预分类方法,分别得到每个所述移动边缘设备的在所述边缘服务器上的预分配频率;
    S4、使用所述目标Q网络基于流水车间作业调度的卸载调度方法得到卸载决策向量和卸载任务集合;
    S5、根据所述卸载决策向量和所述卸载任务集合利用强化学习方法对目标Q网络进行优化,同步优化应用Q网络,求解边缘设备的服务器资源分配,得到服务器分配频率和有序卸载集合;
    S6、以步骤S4-S5为一次分配迭代,判定迭代次数是否小于预定值,若是,则执行步骤S4,若否,则输出最优服务器分配频率和最优调度顺序。
  2. 根据权利要求1所述的边缘计算网络任务调度与资源分配方法,其特征在于,所述步骤S3具体包括:
    S31、分别计算每个移动边缘设备的所述设备CPU频率占所有所述移动边缘设备的所述设备CPU频率之和的主频比例;
    S32、根据每个所述独立任务信息计算每个独立任务的本地执行时延,分别计算每个移动边缘设备的本地执行时延占所有所述移动边缘设备的所述本地执行时延之和的相对时延比例;
    S33、根据所述主频比例和所述相对时延比例,分别计算每个所述移动边缘设备的分配权重;
    S34、根据所述分配权重和所述服务CPU频率分别计算每个所述移动边缘设备在边缘服务器中的分配频率。
  3. 根据权利要求2所述的边缘计算网络任务调度与资源分配方法,其特征在于,步骤S33中,所述分配权重的计算公式为:
    Figure PCTCN2020114304-appb-100001
    其中,η i为每个所述移动边缘设备的分配权重;t i,ratio为移动边缘设备的本地执行时延占系统总时延的时延比例;f ratio,i为移动边缘设备的资源占系统总资源的资源比例。
  4. 根据权利要求1所述的边缘计算网络任务调度与资源分配方法,其特征在于,所述步骤S4具体包括:
    S41、将所有所述移动边缘设备的所述独立任务信息根据卸载时间和服务器执行时间进行分类,将卸载时间小于服务器执行时间的所述独立任务信息添加到第一数组,并将所述第一数组中的所有的所述独立任务信息按照所述卸载时间升序排列;将卸载时间大于或等于所述服务器执行时间的所述独立任务信息添加到第二数组,并将所述第二数组中的所有所述独立任务信息根据所述服务器执行时间降序排列;
    S42、对所述第一数据组和所述第二数组中的独立任务信息进行调度优化,得到卸载决策向量和卸载任务集合。
  5. 根据权利要求4所述的边缘计算网络任务调度与资源分配方法,其特征在于,所述步骤S4中,所述调度优化具体包括:
    S421、获取所述第一数组内每个所述独立任务信息的服务器执行时间和卸载时间,得到每个所述独立任务信息的服务器处理时间;获取所述第二数组内每个所述独立任务信息的本地执行时间;
    S422、获取所述第一数组内所有所述独立任务信息的总服务器处理时间与所述第二数组内所有所述独立任务信息的总本地执行时间之间的时间差值;
    S423、根据所述时间差值确定时间较长的数组内列后的所有所述独立任务信息,形成第三数组;将处理后的所述第一数组作为卸载任务集合,将处理后的所述第二数组作为本地任务集合;
    S424、将所述第三数组内的每个所述独立任务信息分别计算服务器处理时间和本地执行时间,将服务器处理时间大于所述本地执行时间的独立任务信息放入所述本地任务预分配集合,将服务器处理时间小于或等于所述本地执行时间的独立任务信息放入所述卸载任务预分配集合;
    S425、将所述第三数组中的所述独立任务信息分配完毕后,得到卸载任务集合和本地任务集合,并根据所述最终卸载任务集合得到卸载决策向量。
  6. 根据权利要求1所述的边缘计算网络任务调度与资源分配方法,其特征在于,所述步骤S2中,在对所述目标Q网络初始化前,所述边缘服务器为每个所述移动边缘设备构建对应的目标Q网络。
  7. 根据权利要求1所述的边缘计算网络任务调度与资源分配方法,其特征在于,所述步骤S5具体包括:
    S51、通过提出优化问题,根据优化问题使用强化学习方法对所述目标Q网络进行奖励迭代,同时构建奖励树;
    S52、使用所述奖励树对目标Q网络进行训练,并根据所述目标Q网络的网络参数同步更新应用Q网络的网络参数;
    S53、得到服务器的服务器资源分配。
  8. 根据权利要求7所述的边缘计算网络任务调度与资源分配方法,其特征在于,所述步骤S51中,所述奖励迭代的奖励公式为:
    Figure PCTCN2020114304-appb-100002
    其中,r(s,a)为奖励结果;tc为系统消耗;
    Figure PCTCN2020114304-appb-100003
    为单一独立任务的本地执行时间;e (i,j),L为单一独立任务的本地执行耗能。
  9. 根据权利要求1所述的边缘计算网络任务调度与资源分配方法,其特征在于,所述步骤S6中,所述预定值为100-200。
  10. 一种使用权利要求1-9任一所述的边缘计算网络任务调度与资源分配方法的边缘计算系统,其特征在于,包括边缘服务器和若干移动边缘设备;边缘服务器与若干所述移动边缘设备之间使用所述联合任务调度和资源分配方法进行工作。
PCT/CN2020/114304 2020-08-03 2020-09-10 边缘计算网络任务调度与资源分配方法和边缘计算系统 WO2022027776A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010766710.0A CN112039950B (zh) 2020-08-03 2020-08-03 边缘计算网络任务调度与资源分配方法和边缘计算系统
CN202010766710.0 2020-08-03

Publications (1)

Publication Number Publication Date
WO2022027776A1 true WO2022027776A1 (zh) 2022-02-10

Family

ID=73582157

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2020/114304 WO2022027776A1 (zh) 2020-08-03 2020-09-10 边缘计算网络任务调度与资源分配方法和边缘计算系统

Country Status (2)

Country Link
CN (1) CN112039950B (zh)
WO (1) WO2022027776A1 (zh)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114679451A (zh) * 2022-02-18 2022-06-28 北京邮电大学 面向边缘计算的服务调度系统及其调度方法
CN114786129A (zh) * 2022-04-18 2022-07-22 北京工业大学 基于深度学习的车联网计算资源分配与优化方法
CN114867039A (zh) * 2022-04-15 2022-08-05 河海大学 一种面向中间海域场景的边缘计算卸载方法
CN114928893A (zh) * 2022-06-20 2022-08-19 东北大学秦皇岛分校 一种基于智能反射面的架构及任务卸载方法
CN114928394A (zh) * 2022-04-06 2022-08-19 中国科学院上海微系统与信息技术研究所 一种能耗优化的低轨卫星边缘计算资源分配方法
CN114936078A (zh) * 2022-05-20 2022-08-23 天津大学 一种微网群边缘调度与智能体轻量化裁剪方法
CN114938381A (zh) * 2022-06-30 2022-08-23 西安邮电大学 一种基于深度强化学习的d2d-mec卸载方法、计算机程序产品
CN114938372A (zh) * 2022-05-20 2022-08-23 天津大学 一种基于联邦学习的微网群请求动态迁移调度方法及装置
CN115022322A (zh) * 2022-06-02 2022-09-06 湖南商务职业技术学院 一种车联网中基于群智进化的边云协作任务卸载方法
CN115016858A (zh) * 2022-05-24 2022-09-06 武汉大学 一种基于后决策状态深度强化学习的任务卸载方法
CN115065727A (zh) * 2022-05-19 2022-09-16 南京邮电大学 一种基于边缘计算场景的任务卸载方法
CN115208892A (zh) * 2022-07-19 2022-10-18 河海大学 基于动态资源需求的车路协同在线任务调度方法及系统
CN115242796A (zh) * 2022-06-15 2022-10-25 西安电子科技大学 一种面向云-边-端场景的任务调度方法
CN115766241A (zh) * 2022-11-21 2023-03-07 西安工程大学 基于dqn算法的分布式入侵检测系统任务调度卸载方法
CN115865914A (zh) * 2022-11-26 2023-03-28 福州大学 车辆边缘计算中基于联邦深度强化学习的任务卸载方法
CN116017472A (zh) * 2022-12-07 2023-04-25 中南大学 应急网络的无人机轨迹规划和资源分配方法
CN116009990A (zh) * 2023-02-01 2023-04-25 天津大学 基于宽注意力机制的云边协同元强化学习计算卸载方法
CN116166406A (zh) * 2023-04-25 2023-05-26 合肥工业大学智能制造技术研究院 个性化边缘卸载调度方法、模型训练方法和系统
CN116257361A (zh) * 2023-03-15 2023-06-13 北京信息科技大学 无人机辅助的易故障移动边缘计算资源调度优化方法
CN116366661A (zh) * 2023-06-02 2023-06-30 江西师范大学 一种基于区块链和拍卖理论的协作式边缘用户分配方法
CN116582873A (zh) * 2023-07-13 2023-08-11 湖南省通信建设有限公司 通过5g网络演算优化卸载任务降低延时和能耗的系统
CN117527590A (zh) * 2024-01-04 2024-02-06 湖北省楚天云有限公司 基于边缘网络的微服务部署与请求路由方法、系统及介质
CN117714446A (zh) * 2024-02-02 2024-03-15 南京信息工程大学 一种卫星云边协同计算的卸载方法及装置

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112788605B (zh) * 2020-12-25 2022-07-26 威胜信息技术股份有限公司 基于双延迟深度确定性策略边缘计算资源调度方法和系统
CN112667406A (zh) * 2021-01-10 2021-04-16 中南林业科技大学 一种云边融合异构网络中任务卸载与数据缓存方法
CN113132943B (zh) * 2021-04-18 2022-04-19 中南林业科技大学 一种车联网中车边协同的任务卸载调度及资源分配方法
CN113099410B (zh) * 2021-04-23 2022-09-13 广东电网有限责任公司江门供电局 一种5g电力边缘数据传输处理方法、装置、终端及介质
CN113326126B (zh) * 2021-05-28 2024-04-05 湘潭大学 任务处理方法、任务调度方法、装置及计算机设备
CN113806074B (zh) * 2021-08-11 2022-09-09 中标慧安信息技术股份有限公司 边缘计算的数据采集方法和装置
CN113747554B (zh) * 2021-08-11 2022-08-19 中标慧安信息技术股份有限公司 边缘计算网络任务调度与资源分配方法和装置
CN113835886B (zh) * 2021-09-14 2023-08-29 北京信息科技大学 物联网资源分配方法、装置、电子设备及存储介质
CN113934472B (zh) * 2021-12-16 2022-03-01 江西师范大学 任务卸载方法、装置、设备及存储介质
CN116805923B (zh) * 2023-08-25 2023-11-10 淳安华数数字电视有限公司 基于边缘计算的宽带通信方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019076315A1 (en) * 2017-10-18 2019-04-25 Huawei Technologies Co., Ltd. DYNAMIC ASSIGNMENT OF COMPUTER RESOURCES IN NETWORK PERIPHERY IN COMPUTER CENTERS IN NETWORK PERIPHERY
CN110798849A (zh) * 2019-10-10 2020-02-14 西北工业大学 一种超密网边缘计算的计算资源分配与任务卸载方法
CN111414252A (zh) * 2020-03-18 2020-07-14 重庆邮电大学 一种基于深度强化学习的任务卸载方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11315024B2 (en) * 2018-06-25 2022-04-26 Kyndryl, Inc. Cognitive computing systems and services utilizing internet of things environment
CN109767117B (zh) * 2019-01-11 2021-05-18 中南林业科技大学 移动边缘计算中联合任务调度的功率分配方法
CN111405568B (zh) * 2020-03-19 2023-01-17 三峡大学 基于q学习的计算卸载和资源分配方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019076315A1 (en) * 2017-10-18 2019-04-25 Huawei Technologies Co., Ltd. DYNAMIC ASSIGNMENT OF COMPUTER RESOURCES IN NETWORK PERIPHERY IN COMPUTER CENTERS IN NETWORK PERIPHERY
CN110798849A (zh) * 2019-10-10 2020-02-14 西北工业大学 一种超密网边缘计算的计算资源分配与任务卸载方法
CN111414252A (zh) * 2020-03-18 2020-07-14 重庆邮电大学 一种基于深度强化学习的任务卸载方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
GUO HONGZHI; LIU JIAJIA; ZHANG JIE: "Computation Offloading for Multi-Access Mobile Edge Computing in Ultra-Dense Networks", IEEE COMMUNICATIONS MAGAZINE., IEEE SERVICE CENTER, PISCATAWAY., US, vol. 56, no. 8, 1 August 2018 (2018-08-01), US , pages 14 - 19, XP011688626, ISSN: 0163-6804, DOI: 10.1109/MCOM.2018.1701069 *

Cited By (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114679451A (zh) * 2022-02-18 2022-06-28 北京邮电大学 面向边缘计算的服务调度系统及其调度方法
CN114928394A (zh) * 2022-04-06 2022-08-19 中国科学院上海微系统与信息技术研究所 一种能耗优化的低轨卫星边缘计算资源分配方法
CN114867039A (zh) * 2022-04-15 2022-08-05 河海大学 一种面向中间海域场景的边缘计算卸载方法
CN114786129A (zh) * 2022-04-18 2022-07-22 北京工业大学 基于深度学习的车联网计算资源分配与优化方法
CN114786129B (zh) * 2022-04-18 2024-04-26 北京工业大学 基于深度学习的车联网计算资源分配与优化方法
CN115065727A (zh) * 2022-05-19 2022-09-16 南京邮电大学 一种基于边缘计算场景的任务卸载方法
CN115065727B (zh) * 2022-05-19 2023-08-22 南京邮电大学 一种基于边缘计算场景的任务卸载方法
CN114936078A (zh) * 2022-05-20 2022-08-23 天津大学 一种微网群边缘调度与智能体轻量化裁剪方法
CN114938372A (zh) * 2022-05-20 2022-08-23 天津大学 一种基于联邦学习的微网群请求动态迁移调度方法及装置
CN114938372B (zh) * 2022-05-20 2023-04-18 天津大学 一种基于联邦学习的微网群请求动态迁移调度方法及装置
CN115016858B (zh) * 2022-05-24 2024-03-29 武汉大学 一种基于后决策状态深度强化学习的任务卸载方法
CN115016858A (zh) * 2022-05-24 2022-09-06 武汉大学 一种基于后决策状态深度强化学习的任务卸载方法
CN115022322A (zh) * 2022-06-02 2022-09-06 湖南商务职业技术学院 一种车联网中基于群智进化的边云协作任务卸载方法
CN115022322B (zh) * 2022-06-02 2024-02-02 湖南第一师范学院 一种车联网中基于群智进化的边云协作任务卸载方法
CN115242796A (zh) * 2022-06-15 2022-10-25 西安电子科技大学 一种面向云-边-端场景的任务调度方法
CN115242796B (zh) * 2022-06-15 2024-02-20 西安电子科技大学 一种面向云-边-端场景的任务调度方法
CN114928893A (zh) * 2022-06-20 2022-08-19 东北大学秦皇岛分校 一种基于智能反射面的架构及任务卸载方法
CN114928893B (zh) * 2022-06-20 2024-04-16 东北大学秦皇岛分校 一种基于智能反射面的架构及任务卸载方法
CN114938381A (zh) * 2022-06-30 2022-08-23 西安邮电大学 一种基于深度强化学习的d2d-mec卸载方法、计算机程序产品
CN114938381B (zh) * 2022-06-30 2023-09-01 西安邮电大学 一种基于深度强化学习的d2d-mec卸载方法
CN115208892A (zh) * 2022-07-19 2022-10-18 河海大学 基于动态资源需求的车路协同在线任务调度方法及系统
CN115208892B (zh) * 2022-07-19 2023-10-24 河海大学 基于动态资源需求的车路协同在线任务调度方法及系统
CN115766241A (zh) * 2022-11-21 2023-03-07 西安工程大学 基于dqn算法的分布式入侵检测系统任务调度卸载方法
CN115865914A (zh) * 2022-11-26 2023-03-28 福州大学 车辆边缘计算中基于联邦深度强化学习的任务卸载方法
CN116017472B (zh) * 2022-12-07 2024-04-19 中南大学 应急网络的无人机轨迹规划和资源分配方法
CN116017472A (zh) * 2022-12-07 2023-04-25 中南大学 应急网络的无人机轨迹规划和资源分配方法
CN116009990A (zh) * 2023-02-01 2023-04-25 天津大学 基于宽注意力机制的云边协同元强化学习计算卸载方法
CN116009990B (zh) * 2023-02-01 2024-03-29 天津大学 基于宽注意力机制的云边协同元强化学习计算卸载方法
CN116257361B (zh) * 2023-03-15 2023-11-10 北京信息科技大学 无人机辅助的易故障移动边缘计算资源调度优化方法
CN116257361A (zh) * 2023-03-15 2023-06-13 北京信息科技大学 无人机辅助的易故障移动边缘计算资源调度优化方法
CN116166406B (zh) * 2023-04-25 2023-06-30 合肥工业大学智能制造技术研究院 个性化边缘卸载调度方法、模型训练方法和系统
CN116166406A (zh) * 2023-04-25 2023-05-26 合肥工业大学智能制造技术研究院 个性化边缘卸载调度方法、模型训练方法和系统
CN116366661A (zh) * 2023-06-02 2023-06-30 江西师范大学 一种基于区块链和拍卖理论的协作式边缘用户分配方法
CN116582873B (zh) * 2023-07-13 2023-09-08 湖南省通信建设有限公司 通过5g网络演算优化卸载任务降低延时和能耗的系统
CN116582873A (zh) * 2023-07-13 2023-08-11 湖南省通信建设有限公司 通过5g网络演算优化卸载任务降低延时和能耗的系统
CN117527590A (zh) * 2024-01-04 2024-02-06 湖北省楚天云有限公司 基于边缘网络的微服务部署与请求路由方法、系统及介质
CN117527590B (zh) * 2024-01-04 2024-05-21 湖北省楚天云有限公司 基于边缘网络的微服务部署与请求路由方法、系统及介质
CN117714446A (zh) * 2024-02-02 2024-03-15 南京信息工程大学 一种卫星云边协同计算的卸载方法及装置
CN117714446B (zh) * 2024-02-02 2024-04-16 南京信息工程大学 一种卫星云边协同计算的卸载方法及装置

Also Published As

Publication number Publication date
CN112039950A (zh) 2020-12-04
CN112039950B (zh) 2021-11-30

Similar Documents

Publication Publication Date Title
WO2022027776A1 (zh) 边缘计算网络任务调度与资源分配方法和边缘计算系统
Chai et al. Joint multi-task offloading and resource allocation for mobile edge computing systems in satellite IoT
Yu et al. Toward resource-efficient federated learning in mobile edge computing
CN113242568B (zh) 一种不确定网络环境中的任务卸载和资源分配方法
CN109710336B (zh) 联合能量和延迟优化的移动边缘计算任务调度方法
CN112788605B (zh) 基于双延迟深度确定性策略边缘计算资源调度方法和系统
CN110427261A (zh) 一种基于深度蒙特卡洛树搜索的边缘计算任务分配方法
Cui et al. A novel offloading scheduling method for mobile application in mobile edge computing
CN109947545A (zh) 一种基于用户移动性的任务卸载及迁移的决策方法
CN108111335B (zh) 一种调度和链接虚拟网络功能的方法及系统
CN113286317A (zh) 一种基于无线供能边缘网络的任务调度方法
CN113590279A (zh) 一种面向多核边缘计算服务器的任务调度和资源分配方法
CN113573363A (zh) 基于深度强化学习的mec计算卸载与资源分配方法
CN116185523A (zh) 一种任务卸载和部署的方法
CN114936708A (zh) 基于边云协同任务卸载的故障诊断优化方法及电子设备
Tian et al. JMSNAS: Joint model split and neural architecture search for learning over mobile edge networks
Yang et al. A new look at AI-driven NOMA-F-RANs: Features extraction, cooperative caching, and cache-aided computing
CN113139639B (zh) 一种基于mombi面向智慧城市应用多目标计算迁移方法和装置
CN117459112A (zh) 基于图卷积网络的leo卫星网络中的移动边缘缓存方法及设备
CN113159539A (zh) 多层边缘计算系统中联合绿色能源调度和动态任务分配方法
CN114745386B (zh) 一种多用户边缘智能场景下的神经网络分割及卸载方法
CN115361453A (zh) 一种面向边缘服务网络的负载公平卸载与迁移方法
CN114186416A (zh) 一种边缘网络数据年龄优化方法及系统
Nour et al. Unsupervised data splitting scheme for federated edge learning in iot networks
Zhang et al. Double DQN Reinforcement Learning-Based Computational Offloading and Resource Allocation for MEC

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20948598

Country of ref document: EP

Kind code of ref document: A1