WO2024036909A1 - 一种面向边缘服务网络的负载公平卸载与迁移方法 - Google Patents

一种面向边缘服务网络的负载公平卸载与迁移方法 Download PDF

Info

Publication number
WO2024036909A1
WO2024036909A1 PCT/CN2023/077586 CN2023077586W WO2024036909A1 WO 2024036909 A1 WO2024036909 A1 WO 2024036909A1 CN 2023077586 W CN2023077586 W CN 2023077586W WO 2024036909 A1 WO2024036909 A1 WO 2024036909A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
edge
migration
task request
offloading
Prior art date
Application number
PCT/CN2023/077586
Other languages
English (en)
French (fr)
Inventor
邓水光
张城
尹建伟
Original Assignee
浙江大学中原研究院
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 浙江大学中原研究院 filed Critical 浙江大学中原研究院
Priority to US18/290,280 priority Critical patent/US12106158B2/en
Publication of WO2024036909A1 publication Critical patent/WO2024036909A1/zh

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0803Configuration setting
    • H04L41/0823Configuration setting characterised by the purposes of a change of settings, e.g. optimising configuration for enhancing reliability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5083Techniques for rebalancing the load in a distributed system
    • G06F9/5088Techniques for rebalancing the load in a distributed system involving task migration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/48Program initiating; Program switching, e.g. by interrupt
    • G06F9/4806Task transfer initiation or dispatching
    • G06F9/4843Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
    • G06F9/485Task life-cycle, e.g. stopping, restarting, resuming execution
    • G06F9/4856Task life-cycle, e.g. stopping, restarting, resuming execution resumption being on a different machine, e.g. task migration, virtual machine migration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/54Interprogram communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/16Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using machine learning or artificial intelligence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/509Offload
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/54Indexing scheme relating to G06F9/54
    • G06F2209/541Client-server

Definitions

  • the invention belongs to the technical field of edge computing network load balancing, and specifically relates to a fair load offloading and migration method for edge service networks.
  • Each user has individual needs, such as bandwidth-sensitive tasks (such as live broadcast services, video on demand services, etc.), and computing-sensitive tasks (such as AI algorithm calculation tasks, virtual reality graphics rendering tasks, etc.); existing Most of the research on service algorithms of edge computing networks for real-time task response requirements focuses on the overall efficiency of the task, analyzing network bandwidth and server resource usage, and rarely considers the Pareto solution of the utility requirements of multiple different individual users. . Due to the marginal effect of the user utility function, allocating different types and quantities of resources to users may not necessarily achieve the highest overall utility for a single user; in addition, in an edge network environment with limited overall resources, there are conflicts in resource allocation among multiple users, which makes users If individualized needs cannot be fully met, it is difficult to achieve a Pareto optimal solution.
  • bandwidth-sensitive tasks such as live broadcast services, video on demand services, etc.
  • computing-sensitive tasks such as AI algorithm calculation tasks, virtual reality graphics rendering tasks, etc.
  • edge network environment there are 5 users and 3 edge servers. Users can choose to offload tasks to any edge server in the overlapping area of edge server services; all users will get the maximum utility function. Under the premise, how to select the edge server for task execution for users and how to schedule tasks Migrating services between different servers is a more difficult problem.
  • Literature [Yao Zewei, Lin Jiawen, Hu Junqin, et al. Multi-edge load balancing method based on PSO-GA [J].
  • Computer Science, 2021, 48(S02):8] proposed a method to balance the load of edge environments to The goal is to minimize the maximum response time of user tasks, and a heuristic algorithm is used to make decisions on user tasks, so that multiple user tasks are assigned to different servers for execution.
  • Literature Liang Bing, Ji Wen. Edge-cloud collaborative multi-user computing task migration method based on submodular optimization [J].
  • the present invention provides a fair load offloading and migration method for edge service networks, which can greatly improve the overall utility requirements of all users.
  • the utility of all users can reach Pareto optimality.
  • a fair load offloading and migration method for edge service networks including the following steps:
  • step (2) For any user task request in step (2), the following three types of migration paths are enumerated:
  • E1 is the migration path set of edge servers directly connected to users
  • E2 is the migration path set of edge servers that are indirectly connected to the user in a single hop, and the edge servers that are directly connected to the user do not have processing capabilities;
  • E3 is a set of migration paths for edge servers that are indirectly connected to users in a single hop, and edge servers that are directly connected to users have processing capabilities.
  • the resource collection includes two types: bandwidth resources and computing resources.
  • Each edge server can perform several services, and each user can only perform one service.
  • step (4) the specific process of optimizing and solving the fair utility judgment function in step (4) is as follows:
  • the user-shared neural network layer includes a graph neural network and a nonlinear aggregation function, and N is the number of all users;
  • graph neural network is used to extract the information of nodes and edges, and the information is composed into a feature vector
  • the edge information includes the bandwidth occupied by each user task request on the transmission link between the mobile user and the edge server and the actual bandwidth limit of the transmission link;
  • the node information includes the computing resources required by the user task request. capacity and the actual maximum computing power of the edge server.
  • the task feasible migration path subgraph corresponds to the user task request one-to-one, and is composed of all user task migration paths corresponding to the request.
  • the user task migration path represents a certain path used when the user task request is executed and offloaded. Specific migration path.
  • the parameters ⁇ user i of the user decision model are obtained by optimizing the reward function
  • r i is the reward function of the i-th user decision-making model
  • U i (t+1) and U i (t) represent the execution of the i-th user task request during the t+1 iteration and the t-th iteration respectively.
  • the utility function of , eta is a given parameter
  • t is a natural number
  • T is the total number of iterations
  • is a positive smaller given parameter.
  • parameter ⁇ share of the user shared neural network layer is iterated through the following formula until the utility function of all user task requests reaches Pareto optimal;
  • ⁇ share (t+1) and ⁇ share (t) respectively represent the parameters of the user-shared neural network layer during the t+1 iteration and the t iteration process
  • ⁇ i is the reward function of the i-th user decision model.
  • weight value ⁇ i is obtained by solving the following loss function using the Frank-Wolfe algorithm.
  • ⁇ 2 represents the 2 norm.
  • step 4.6 for the selection probabilities of all migration paths for any user task request, the largest K selection probabilities are averaged and used as the priority of offloading of the user task request, and the maximum selection probability corresponding to The migration path is used as the uninstallation migration path requested by the user task, and K is a natural number greater than 1.
  • the present invention takes the Pareto optimality of the utility function of all user tasks executed by the edge system as the optimization goal.
  • This method not only takes into account the constraints of edge network resources, but also ensures the maximization of the utility function of all user tasks in the system.
  • a new quantitative measurement index is proposed to improve the quality of task utility under multi-user competition.
  • the present invention uses graph neural network and reinforcement learning algorithm to solve the final optimization target. This algorithm has high execution efficiency and returns relatively accurate approximate results. It is especially suitable for edge network system scenarios with complex multi-user tasks, making When multi-user tasks compete for network resources, the edge computing network system can efficiently obtain the Pareto optimal result of the multi-user utility function, greatly improving the service quality and user experience of the edge network environment.
  • Figure 1(a) is a schematic diagram of the network topology that user tasks can connect to.
  • Figure 1(b) is a schematic diagram of enumeration of feasible migration paths for user tasks.
  • Figure 2 is a schematic diagram of the neural network algorithm framework for calculating user migration path decisions.
  • FIG. 3 is a schematic diagram of the edge network system.
  • the fair load offloading and migration method for edge service networks of the present invention includes the following steps:
  • Parameters that characterize each user's personalized utility function for resource k k represents the type of user resource demand, w k represents the weight of the resource type, x i,k represents the number of resources k occupied by user i.
  • users and servers are regarded as the vertices of the graph, where the server set is represented by Indicates that the set of transmission links between the user to the server and the server is represented by represents, l i, j represents the transmission link from user i to server j, l jk represents the migration link from server j to server k, where i represents the user, j, k represents the edge server respectively, i, j, k belongs to gather l i,j and l jk belong to the set
  • Each link in has a bandwidth constraint, and the maximum number of user tasks it can transmit is where c l is the actual bandwidth parameter of the system network, is the set of all users using link l;
  • Each edge server in has computing bandwidth constraints, and the maximum number of user tasks it can carry is where c v is the actual performance parameter of the system edge server, The set of all users who perform task computation on edge server v.
  • server computing load in represents the number of users connected to server j
  • workloadi,j represents the amount of tasks offloaded by user i to server j
  • Task offloading means that users can send tasks to designated edge servers for execution within the service range of edge servers; task migration means that user tasks go through one hop of the offloading destination server (from one edge server to another edge server). transmission), migrating tasks to edge servers other than itself; through the above task offloading and task migration, the user's computing tasks can finally reach a certain server for task execution.
  • the above task transmission path search algorithm is: first, i represents the user index, m is the server index, and S m is defined as the set of adjacent servers within one hop of server m. Define For the set of servers whose service scope covers user i, the set of server indexes that can perform tasks for user i is Then use Represents a server that is directly connected to the user, but cannot perform tasks submitted by user i. use Indicates servers directly connected to user i, and these servers can perform tasks offloaded by user i.
  • the server index of denoted as z
  • the server index of denoted as j
  • the first part of the migration link set (the path consisting of the user node and the first server node that cannot perform the task and a server node with task service) is
  • the second part of the migration link set (the path from the user node to the server node that can execute the service) is From the above steps, we can get the set of migration paths that user i can transfer tasks to:
  • the feasible connection graph of each user i.e., Figure 1(a)
  • Figure 1(b) The feasible connection graph of each user
  • the subgraph performs feature learning of edges and fixed points, thereby obtaining the graph embedded feature information of each user's task migration path in Figure 1(b).
  • the current user priority is sorted, and users with high priority can perform task offloading execution; once the user performs offloading execution, according to the embedded feature information of the user subgraph, Select a feasible task execution plan, that is, allocate an edge server for the task to offload the task.
  • the optional execution strategy scheme of the user task consists of the possible migration paths of all tasks.
  • the task 4 of user 1 can have three migration strategies: subgraph 1, subgraph 2 and subgraph 3.
  • the task is transferred to the edge server for execution; let e i, s represent the tasks of user i
  • the graph encoding feature vector of task migration path s, the set of feasible execution migration paths for user i’s task is where s belongs to
  • the following describes in detail the two types of embedding coding information of the edge server network system, including the embedding coding information of each element node in the user's feasible migration subgraph and the embedding coding information of each element node in the edge network global graph.
  • Feasible migration subgraph embedding encoding information for user i
  • the server set is The feature vector of user nodes in the migration path is u i ; the feature vector of link l Indicates the bandwidth resources occupied by user n on link l, and the feature vector of server c is Indicates the computing resources occupied by user n on server c.
  • Use graph neural network g() to calculate the embedding encoding information of all element nodes (users, links, servers) in the migration subgraph of user i fea l ⁇ F l , fea c ⁇ F c , F l and F c respectively represent the set of feature vectors of all links and all servers in the feasible migration subgraph.
  • Encoding information for server embedding Encoding information for link embedding, Encoding information for user embedding, Represents the size of the set of links, Represents the size of the server's collection.
  • Characteristic vector of link l Indicates the bandwidth resources occupied by user n on link l.
  • the server c feature vector is Indicates the computing resources occupied by user n on server c.
  • Use graph neural network f() to calculate the embedding coding information of all element nodes (users, links, servers) in the migration subgraph of user i fea l ⁇ F l , fea c ⁇ F c , F l and F c respectively represent the set of feature vectors of all links and all servers in the feasible migration subgraph.
  • Encoding information for all server embeddings Indicates the size of the set of links;
  • Encoding information for link embedding, Encoding all user embeddings information Represents the size of the server's collection.
  • the output of the CNN network is in Represents the aggregated embedding encoding information of all users, Represents the embedding encoding information after aggregation of all links, Represents the embedding encoding information aggregated by all servers.
  • the system uses the fair utility function value generated by decision-making as the evaluation criterion; when the system makes a decision, if the fair utility of all users can increase, the system reward function The value is (U i (t+1)-U i (t))* ⁇ , eta is a constant, otherwise the reward function value for the user is 0, and the system is used to maximize the reward function value as the reinforcement learning model. Reward for modeling the system.
  • is a small positive number, which is a given parameter.
  • the goal of the reinforcement learning algorithm of the present invention is to maximize the reward function.
  • the system uses the policy gradient method to train user task offloading and migration decisions, and the parameters in the user decision model neural network are defined as ⁇ user i .
  • policy represents the probability that the system takes action a t in state s t , and its value is Action refers to the system's server selection and migration path selection for offloading user tasks.
  • the above-mentioned reinforcement learning algorithm ensures that the fair utility function value of all users is the largest, but it cannot guarantee that the utility of each user is the fairest state; in order to obtain the Pareto optimality of all users, the present invention proposes a neural network parameter calculation method A Pareto fair algorithm.
  • the parameters of the graph neural network f( ⁇ ), g( ⁇ ) tables and the CNN network are combined and defined as the shared parameter ⁇ share , R is the output of the user shared neural network layer, defined is the loss function corresponding to user i.
  • represents the accuracy requirement of the system and the set system parameters. After the solution process iterates the above algorithm steps for many rounds, the accuracy requirement of the above formula is still met, then the system considers that all users meet the Pareto fairness requirement. , the shared parameter at this time is ⁇ share .
  • the elements of the output vector of the neural network system shown in Figure 2 correspond to the task migration path decision vector Z i of each user i.
  • Each element in Z i is used to determine whether each task path of E i is selected. value, that is Indicates the decision value for user i to select the kth feasible task migration path in E i .
  • Backpropagation training is performed according to the neural network algorithm framework shown in Figure 2.
  • the edge network is simulated and trained on user task input until the system reward function tends to converge.
  • the neural network The parameters in the network serve as the final parameters of the load migration method for user task utility fairness in edge networks.

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer And Data Communications (AREA)
  • Multi Processors (AREA)

Abstract

本发明公开了一种面向边缘服务网络的负载公平卸载与迁移方法,以边缘系统执行的所有用户任务的效用函数帕累托最优为优化目标,这种方法不仅兼顾了边缘网络资源的约束,也同样保障了系统中所有用户任务的效用函数的最大化,对提升多用户竞争下的任务效用质量提出来一种新的量化衡量指标。此外,本发明采用了图神经网络与强化学习算法对最终优化目标求解,这种算法执行效率高,返回的近似结果较为准确,特别适合于多用户复杂任务下的边缘网络系统的场景,使得在多用户任务竞争网络资源的时候,边缘计算网络系统可以高效的得出多用户效用函数帕累托最优的结果,大大提高了边缘网络环境的服务质量和用户体验。

Description

一种面向边缘服务网络的负载公平卸载与迁移方法 技术领域
本发明属于边缘计算网络负载均衡技术领域,具体涉及一种面向边缘服务网络的负载公平卸载与迁移方法。
背景技术
近年来,随着边缘计算技术的日益普及,由此带来的用户计算负载卸载和迁移技术的快速发展,但是边缘环境下的服务器资源与链路资源往往比较紧缺,导致在边缘环境下的服务器不一定能够支持当前所有的服务种类;由于服务器部署的服务种类有限,一些用户的任务需要通过当前服务器进行迁移才能在别的服务器上执行。针对边缘网络环境下用户的移动性和服务器请求的多样性,所在区域边缘服务器计算资源有限的情况下,如何以公平执行这些用户计算卸载负载为基础,合理地为不同用户分配不同计算资源和网络带宽资源,从而保障所有用户的服务体验达到公平的状态为目标,是本领域技术人员值得去研究的。
每一个用户具有个性化需求,比如对于带宽敏感性的任务(如直播服务、视频点播服务等),再比如计算敏感性的任务(如AI算法计算任务、虚拟现实图形渲染任务等);现有的边缘计算网络对于实时任务响应需求的服务算法研究大多集中在任务的总体效率,从网络带宽和服务器资源使用率进行分析,比较少考虑对于多个不同用户个体自身的效用需求的帕累托解。由于用户效用函数的边际效应,为用户分配不同种类不同数量的资源,未必能够达到单个用户总体效用最高;此外,在总体资源有限的边缘网络环境下,多用户存在资源分配的冲突,从而使得用户个性化需求不能充分满足,较难达到帕累托优化解。如图3所示的边缘网络环境下,有5个用户,3个边缘服务器,用户在边缘服务器服务重叠区域可以选择向任意一台边缘服务器进行任务卸载;在所有用户都得到效用函数最大化的前提下,如何为用户选择任务执行的边缘服务器,如何调度任 务在不同服务器之间的迁移是一个较为困难的问题。
文献[姚泽玮,林嘉雯,胡俊钦,等.基于PSO-GA的多边缘负载均衡方法[J].计算机科学,2021,48(S02):8]提出了一种对边缘环境负载进行均衡的方法,以最小化用户任务最大的响应时间为目标,采用启发式算法对用户任务进行决策,使多个用户任务分配到不同的服务器上执行。文献[梁冰,纪雯.基于次模优化的边云协同多用户计算任务迁移方法[J].通信学报,2020,41(10):12]提出了最大化用户的效应函数的问题,该问题简单的将用户效用相加求和,以求解所有任务效益最大化为目标,对用户任务进行调度执行。以上两种策略并不能保证所有用户的任务都是被公平的执行,可能会出现为了总体性能提高,而牺牲某些个体用户的服务质量的情况,从而使某些用户任务的执行时间过度变大或者用户的效用函数降低。
发明内容
针对用户对于资源需求的边际效应和资源分配的非线性冲突,在网络运行情况下,本发明提供了一种面向边缘服务网络的负载公平卸载与迁移方法,可以大大提高用所有用户总体效用需求,在资源有限的边缘网络环境下,使得所有用户的效用都达到帕累托最优。
一种面向边缘服务网络的负载公平卸载与迁移方法,包括如下步骤:
(1)检测边缘网络中移动用户的任务请求,确定当前检测到的所有用户任务请求;
(2)枚举所有用户任务请求传输至边缘服务器的迁移路径;
(3)建立用于评价所有用户任务的公平效用优劣评判函数;
(4)对所述公平效用优劣评判函数进行优化求解,即可确定每个用户任务请求的迁移路径。
进一步地,所述步骤(2)中对于任一用户任务请求,枚举以下三类迁移路径:
E1为与用户直接连接的边缘服务器的迁移路径集合;
E2为与用户间接单跳连接的边缘服务器的迁移路径集合,且与用户直接连接的边缘服务器不具备处理能力;
E3为与用户间接单跳连接的边缘服务器的迁移路径集合,且与用户直接连接的边缘服务器具备处理能力。
进一步地,所述公平效用优劣评判函数的表达式如下:
max U=(U1,…,UN)T
其中:Ui为执行第i个用户任务请求的效用函数,若第i个用户任务请求无法被卸载执行则Ui=Il且Ul为常数,i为自然数且1≤i≤N,N为所有用户的数量,为执行第i个用户任务请求占用资源k的效用值,wk表示资源k的权重,为资源集合包括带宽资源和计算资源两种,表示第i个用户任务请求对资源k个性化效用函数的自定义参数,xi,k表示第i个用户任务请求占用资源k的数量值;l表示边缘网络中的任一传输链路,表示边缘网络中的传输链路集合,v表示边缘网络中的任一边缘服务器,表示边缘网络中的边缘服务器集合,为占用传输链路l的所有用户任务请求集合,为在边缘服务器v上进行计算的所有用户任务请求集合,il为集合中的任一用户任务请求,iv为集合中的任一用户任务请求,trans(il)为用户任务请求il占用传输链路l的带宽资源量,comp(iv)为用户任务请求iv占用边缘服务器v的计算资源量,cl为传输链路l的实际带宽上限,cv为边缘服务器v的实际最大算力。
每台边缘服务器可执行若干种服务,每个用户只能执行一种服务。
进一步地,所述步骤(4)对公平效用优劣评判函数进行优化求解的具体过程如下:
4.1建立包含一个用户共享神经网络层以及N个用户决策模型,所述用户共享神经网络层包含有图神经网络和非线性聚合函数,N为所有用户的数量;
4.2采用图神经网络提取边缘网络中节点与边的信息,并将这些信息组成特 征向量;其中节点对应为边缘网络中的移动用户和边缘服务器,边对应为移动用户与边缘服务器之间的传输链路以及边缘服务器之间的传输链路;
4.3采用图神经网络提取任务可行迁移路径子图中节点与边的信息,并将这些信息组成特征向量;
4.4对于任务可行迁移路径子图中的任一迁移路径,采用图神经网络提取其中节点与边的信息,并将这些信息组成特征向量;
4.5将上述提取到的所有特征向量输入到每个用户决策模型中,用户决策模型输出为对应用户任务请求各迁移路径的被选概率;
4.6先确定每个用户任务请求卸载的优先级,再确定每个用户任务请求的卸载迁移路径,进而根据优先级以及卸载迁移路径对各用户任务请求进行卸载。
进一步地,所述边的信息包括移动用户与边缘服务器之间传输链路上各用户任务请求占用的带宽以及传输链路的实际带宽上限;所述节点的信息包括用户任务请求所需的计算资源量以及边缘服务器的实际最大算力。
进一步地,所述任务可行迁移路径子图与用户任务请求一一对应,其由对应请求的所有用户任务迁移路径组成,所述用户任务迁移路径即表示用户任务请求执行卸载时所采用的某一条具体迁移路径。
进一步地,所述用户决策模型的参数θuser i通过奖励函数优化求解得到;
其中:ri为第i个用户决策模型的奖励函数,Ui(t+1)和Ui(t)分别表示第t+1次迭代和第t次迭代过程中执行第i个用户任务请求的效用函数,η为给定参数,t为自然数,T为总迭代次数,δ为一个正的较小的给定参数。
进一步地,所述用户共享神经网络层的参数θshare通过以下公式进行迭代,直至所有用户任务请求的效用函数达到帕累托最优;
其中:θshare(t+1)和θshare(t)分别表示第t+1次迭代和第t次迭代过程中用户共享神经网络层的参数,αi为第i个用户决策模型奖励函数的权重值,表示求偏导,
进一步地,所述权重值αi通过采用Frank-Wolfe算法求解以下损失函数得到;
其中:‖‖2表示2范数。
进一步地,所述步骤4.6中对于任一用户任务请求所有迁移路径的被选概率,取最大的前K个被选概率求平均后作为该用户任务请求卸载的优先级,取最大被选概率对应的迁移路径作为该用户任务请求的卸载迁移路径,K为大于1的自然数。
本发明以边缘系统执行的所有用户任务的效用函数帕累托最优为优化目标,这种方式不仅兼顾了边缘网络资源的约束,也同样保障了系统中所有用户任务的效用函数的最大化,对提升多用户竞争下的任务效用质量提出来一种新的量化衡量指标。此外,本发明采用了图神经网络与强化学习算法对最终优化目标求解,这种算法执行效率高,返回的近似结果较为准确,特别适合于多用户复杂任务的下的边缘网络系统的场景,使得在多用户任务竞争网络资源的时候,边缘计算网络系统可以高效的得出多用户效用函数帕累托最优的结果,大大提高了边缘网络环境的服务质量和用户体验。
附图说明
图1(a)为用户任务可连接的网络拓扑示意图。
图1(b)为用户任务可行的迁移路径枚举示意图。
图2为计算用户迁移路径决策的神经网络算法框架示意图。
图3为边缘网络系统示意图。
具体实施方式
为了更为具体地描述本发明,下面结合附图及具体实施方式对本发明的技术方案进行详细说明。
本发明面向边缘服务网络的负载公平卸载与迁移方法包括如下步骤:
(1)检测边缘网络中的移动用户任务的请求,确定当前时间的任务请求集 合Γ。
(2)枚举所有用户任务请求传输至边缘服务器的迁移路径。
(3)建立用于评价所有任务的公平效用优劣评判函数如下:
其中:为用户集合,i表示用户索引;若用户任务可以被边缘服务器执行,表征用户的公平效用函数定义如下公式;否则,Ui=δ且δ为一个很小的正常数,由边缘系统环境事先自定义,该常数表示当用户任务只能本地执行,不能被迁移到边缘服务器执行,用户效用将大大降低。
其中:表征每个用户对资源k的个性化效用函数的参数,k表示用户资源需求的类型,wk表示资源类型的权重,xi,k表示用户i占用的资源k的数量,本实施例中有两种取值,即k=1表示带宽资源,k=2表示计算资源。
如图1(b)所示,用户和服务器看作图的顶点,其中服务器集合用表示,用户到服务器传输链路与服务器之间的传输链路集合用表示,用li,j表示用户i到服务器j的传输链路,ljk表示服务器j到服务器k的迁移链路,其中i表示用户,j,k分别表示边缘服务器,i,j,k属于集合li,j与ljk属于集合中的每一条链路都具有带宽约束,所能传输用户任务的最大限度为其中cl为系统网络实际带宽参数,为使用链路l的所有用户集合;中的每一台边缘服务器具有计算带宽约束,所能承载计算的用户任务最大限度为其中cv为系统边缘服务器实际性能参数,为在边缘服务器v上进行任务计算的所有用户集合。
(4)根据上述的目标函数,采用图神经网络与强化学习算法求解,以确定出帕累托最优的用户资源分配策略,具体实现如下:
我们将服务器计算负载定义为: 其中表示服务器j连接的用户数集合,workloadi,j表示用户i向服务器j卸载的任务量,表示其余服务器向服务器j的任务量,表示服务器j向其余服务器迁移的任务量。
任务卸载是指用户在边缘服务器服务范围内,可以将任务发送给指定的边缘服务器进行执行;任务迁移是指用户任务经过卸载目的服务器一跳(从一台边缘服务器向另一台边缘服务器进行任务传输),将任务迁移给自身以外的边缘服务器;通过上述任务卸载和任务迁移,用户的计算任务可以最终到达某一台服务器进行任务执行。
上述任务传输路径搜索算法为:首先,i表示用户索引,m为服务器索引,定义Sm为服务器m一跳以内相邻的服务器集合,定义为服务范围覆盖用户i的服务器集合,能够执行用户i的任务的服务器索引集合为那么使用表示与用户直接连接的服务器,但是不能执行用户i所提交的任务。使用表示与用户i直接相连接的服务器,且这些服务器能够执行用户i所卸载的任务。
中的服务器与用户的直接链路添加到集合遍历的服务器索引,记作z,定义集合遍历的服务器索引,记作j,定义集合
迁移的第一部分链路集合(用户节点与第一台不能执行的任务的服务器节点以及一台具有任务服务的服务器节点组成的路径)即迁移的第二部分链路集合(用户节点到能够执行服务的服务器节点组成的路径)即由以上步骤,可以得到用户i可以进行任务传输的迁移路径集合为:
对每一个用户的可行连接图(即图1(a))进行分解得到用户的可行连接子图(即图1(b)),结合每一个用户的可行连接图的信息提取,对每一个用户的子图进行边和定点的特征学习,从而在图1(b)中得到每一个用户的任务迁迁移路径的图嵌入特征信息。在所有当前时间所有用户的连接可行图嵌入特征信息的基础上,进行当前用户优先级排序,优先级高的用户可以进行任务卸载执行;一旦用户进行卸载执行,根据用户子图的嵌入特征信息,选择可行的任务执行方案,即为该任务分配一台边缘服务器进行任务卸载,如果任务需要迁移,则同时指定任务迁移的边缘服务器。用户任务的可选的执行策略方案由所有任务可能的迁移路径组成,如图1(b)所示,用户1的任务4可以由迁移子图1、子图2以及子图3三种迁移策略最终将任务传输到边缘服务器上执行;用ei,s表示用户i的任 务迁移路径s的图编码特征向量,用户i的任务可行的执行迁移路径的集合为其中s属于
以下详细叙述边缘服务器网络系统的系统的两种embedding编码信息,包括用户可行迁移子图中每个元素节点的embedding编码信息以及边缘网络全局图中每个元素节点的embedding编码信息。
对于用户i的可行迁移子图embedding编码信息:
定义用户i的可行迁移子图中的所有链路的集合为服务器集合为移路径中的用户节点特征向量为ui;链路l的特征向量 表示用户n在链路l上占用的带宽资源,服务器c特征向量为表示用户n在服务器c上占用的计算资源。使用图神经网络g()计算出用户i的迁移子图中所有元素节点(用户、链路、服务器)的embedding编码信息feal∈Fl,feac∈Fc,Fl和Fc分别表示可行迁移子图中的所有链路和所有服务器的特征向量的集合。为服务器embedding编码信息,为链路embedding编码信息,为用户embedding编码信息,表示链路的集合的大小,表示服务器的集合的大小。
对于全局边缘网络embedding编码信息:
链路l的特征向量表示用户n在链路l上占用的带宽资源。服务器c特征向量为表示用户n在服务器c上占用的计算资源。使用图神经网络f()计算出用户i的迁移子图中所有元素节点(用户、链路、服务器)的embedding编码信息 feal∈Fl,feac∈Fc,Fl和Fc分别表示可行迁移子图中的所有链路和所有服务器的特征向量的集合。为所有服务器embedding编码信息,表示链路的集合的大小; 为链路embedding编码信息,为所有用户embedding编码 信息,表示服务器的集合的大小。
CNN网络聚合后的embedding编码信息:
将所有用户可行迁移子图的和全局边缘网络的作为CNN网络的输入,CNN网络的输出为其中表示所有用户聚合后的embedding编码信息,表示所有链路聚合后的embedding编码信息,表示所有服务器聚合后的embedding编码信息。
表示用户i的任务迁移路径的特征向量集合,迁移用户为起点,将用户、任务迁移链路、任务途径的边缘服务器节点以及任务最重到达的边缘服务器节点作为集合中的元素;如果用户i的任务迁移路径其特征向量为否则其特征向量为:
其中:表示用户i在迁移路径s上的embedding编码信息,分别表示属于用户i任务迁移路径s的服务器c和链路l的embedding编码信息,l′和c′分别表示用户i的任务迁移路径s的第二跳的链路与服务器。
如图2所示,定义为每个用户各自迁移路径特征向量集的集合,Z表示每个用户经过各自的决策模型输出后的结果,Z中的第i个用户分量Zi表示该用户的任务迁移路径决策向量。
我们以所有用户的公平性最大为目标,在本发明设计中系统以决策产生的公平效用函数值作为评价标准;当系统做出决策后,如果所有的用户公平效用都能上升,则系统奖励函数值为(Ui(t+1)-Ui(t))*η,η是一个常数,否则对该用户的奖励函数值为0,利用系统通过最大化奖励函数值作为强化学习模型中的奖励对系统进行建模。
系统奖励函数的具体描述为:
其中:δ是一个较小的正数,为给定参数。
本发明强化学习算法的目标是最大化奖励函数,系统采用policy gradient的方法对用户任务的卸载与迁移决策进行训练,将用户决策模型神经网络中的参数定义为θuser i。那么policy表示在状态st时,系统采取动作at的概率,其值为动作指系统对用户任务进行卸载的服务器选择与迁移的路径选择。在系统运行中,每一个用户决策模型采用公式: 对决策模型神经网络参数θuser i进行更新,α表示自定义的学习速率参数,bt表示为了降低决策产生的用户奖励平均值而定义的基准值bt=∑t′∈trt′
上述强化学习算法在保证所有用户的公平效用函数值最大,但是不能保证每一个用户的效用是最公平的状态;为了得到所有用户的帕累托最优,本发明对神经网络参数计算提出了一种帕累托公平算法。如图2所示,图神经网络f(·)、g(·)表与CNN网络的参数合并定义为共享参数θshare,R为用户共享神经网络层的输出,定义为用户i对应的损失函数,上述强化学习算法一旦更新完θuser i后,使用FRANK WOLFE SOLVER方法求解α12,…,αn,使得:
其中:ε表示的是系统的精度要求而与设定的系统参数,求解过程迭代上述算法步骤多轮后,上式精度要求仍旧满足,那么系统就认为所有用户都满足了帕累托公平性要求,此时的共享参数就是θshare
定义用户可行任务传输的迁移路径集合为 图2所示神经网络系统的输出向量的元素与每一个用户i的任务迁移路径决策向量Zi一一对应,Zi中的每一个元素用来作为Ei每一条任务路径是否被选择的判定值,即表示用户i选择Ei中第k个可行的任务迁移路径的判定值。
本发明设计了最优排序函数tpk(X)=X/k,该函数返回输入向量X中最大的前k个分量的平均值,定义系统每次迭代中优先选择任务迁移路径的用户为i=argmaxi{V1,V2,…,Vn},V=[tpk(Z1),tpk(Z2),tpk(Z3),…,tpk(ZN)],一旦用户i被选中,系统为其分配最优任务迁移路径,以每个用户决策向量中最大的分量作为每个用户的最终选择的任务迁移路径索引,即为用户 i选择其任务传输的迁移路径集合Ei中第k条迁移路径。
在满足约束条件的情况下下,重复上述选择,任意约束不满足为止,此时得到各个用户的路径选择决策向量,没有分配迁移路径的用户选择本地执行。
按照图2所示的神经网络算法框架进行反向传播训练,在满足精度要求ε的前提下,对该边缘网络进行用户任务输入的模拟训练,直到系统奖励函数趋于收敛为止,此时的神经网络中参数作为边缘网络用户任务效用公平化负载迁移方法的最终参数。
上述对实施例的描述是为便于本技术领域的普通技术人员能理解和应用本发明,熟悉本领域技术的人员显然可以容易地对上述实施例做出各种修改,并把在此说明的一般原理应用到其他实施例中而不必经过创造性的劳动。因此,本发明不限于上述实施例,本领域技术人员根据本发明的揭示,对于本发明做出的改进和修改都应该在本发明的保护范围之内。

Claims (10)

  1. 一种面向边缘服务网络的负载公平卸载与迁移方法,包括如下步骤:
    (1)检测边缘网络中移动用户的任务请求,确定当前检测到的所有用户任务请求;
    (2)枚举所有用户任务请求传输至边缘服务器的迁移路径;
    (3)建立用于评价所有用户任务的公平效用优劣评判函数;
    (4)对所述公平效用优劣评判函数进行优化求解,即可确定每个用户任务请求的迁移路径。
  2. 根据权利要求1所述的负载公平卸载与迁移方法,其特征在于:所述步骤(2)中对于任一用户任务请求,枚举以下三类迁移路径:
    E1为与用户直接连接的边缘服务器的迁移路径集合;
    E2为与用户间接单跳连接的边缘服务器的迁移路径集合,且与用户直接连接的边缘服务器不具备处理能力;
    E3为与用户间接单跳连接的边缘服务器的迁移路径集合,且与用户直接连接的边缘服务器具备处理能力。
  3. 根据权利要求1所述的负载公平卸载与迁移方法,其特征在于:所述公平效用优劣评判函数的表达式如下:
    max U=(U1,…,UN)T


    其中:Ui为执行第i个用户任务请求的效用函数,若第i个用户任务请求无法被卸载执行则Ui=Ul且Ul为常数,i为自然数且1≤i≤N,N为所有用户的数量,为执行第i个用户任务请求占用资源k的效用值,wk表示资源k的权重,为资 源集合包括带宽资源和计算资源两种,表示第i个用户任务请求对资源k个性化效用函数的自定义参数,xi,k表示第i个用户任务请求占用资源k的数量值;l表示边缘网络中的任一传输链路,ε表示边缘网络中的传输链路集合,v表示边缘网络中的任一边缘服务器,表示边缘网络中的边缘服务器集合,为占用传输链路l的所有用户任务请求集合,为在边缘服务器v上进行计算的所有用户任务请求集合,il为集合中的任一用户任务请求,iv为集合中的任一用户任务请求,trans(il)为用户任务请求il占用传输链路l的带宽资源量,comp(iv)为用户任务请求iv占用边缘服务器v的计算资源量,cl为传输链路l的实际带宽上限,cv为边缘服务器v的实际最大算力。
  4. 根据权利要求1所述的负载公平卸载与迁移方法,其特征在于:所述步骤(4)对公平效用优劣评判函数进行优化求解的具体过程如下:
    4.1建立包含一个用户共享神经网络层以及N个用户决策模型,所述用户共享神经网络层包含有图神经网络和非线性聚合函数,N为所有用户的数量;
    4.2采用图神经网络提取边缘网络中节点与边的信息,并将这些信息组成特征向量;其中节点对应为边缘网络中的移动用户和边缘服务器,边对应为移动用户与边缘服务器之间的传输链路以及边缘服务器之间的传输链路;
    4.3采用图神经网络提取任务可行迁移路径子图中节点与边的信息,并将这些信息组成特征向量;
    4.4对于任务可行迁移路径子图中的任一迁移路径,采用图神经网络提取其中节点与边的信息,并将这些信息组成特征向量;
    4.5将上述提取到的所有特征向量输入到每个用户决策模型中,用户决策模型输出为对应用户任务请求各迁移路径的被选概率;
    4.6先确定每个用户任务请求卸载的优先级,再确定每个用户任务请求的卸载迁移路径,进而根据优先级以及卸载迁移路径对各用户任务请求进行卸载。
  5. 根据权利要求4所述的负载公平卸载与迁移方法,其特征在于:所述边的信息包括移动用户与边缘服务器之间传输链路上各用户任务请求占用的带宽以及传输链路的实际带宽上限;所述节点的信息包括用户任务请求所需的计算资源量以及边缘服务器的实际最大算力。
  6. 根据权利要求4所述的负载公平卸载与迁移方法,其特征在于:所述任 务可行迁移路径子图与用户任务请求一一对应,其由对应请求的所有用户任务迁移路径组成,所述用户任务迁移路径即表示用户任务请求执行卸载时所采用的某一条具体迁移路径。
  7. 根据权利要求4所述的负载公平卸载与迁移方法,其特征在于:所述用户决策模型的参数θuser i通过奖励函数优化求解得到;
    其中:ri为第i个用户决策模型的奖励函数,Ui(t+1)和Ui(t)分别表示第t+1次迭代和第t次迭代过程中执行第i个用户任务请求的效用函数,η为给定参数,t为自然数,T为总迭代次数,δ为一个正的较小的给定参数。
  8. 根据权利要求7所述的负载公平卸载与迁移方法,其特征在于:所述用户共享神经网络层的参数θshare通过以下公式进行迭代,直至所有用户任务请求的效用函数达到帕累托最优;
    其中:θshare(t+1)和θshare(t)分别表示第t+1次迭代和第t次迭代过程中用户共享神经网络层的参数,αi为第i个用户决策模型奖励函数的权重值,表示求偏导,
  9. 根据权利要求8所述的负载公平卸载与迁移方法,其特征在于:所述权重值αi通过采用Frank-Wolfe算法求解以下损失函数得到;
    其中:‖‖2表示2范数。
  10. 根据权利要求4所述的负载公平卸载与迁移方法,其特征在于:所述步骤4.6中对于任一用户任务请求所有迁移路径的被选概率,取最大的前K个被选概率求平均后作为该用户任务请求卸载的优先级,取最大被选概率对应的迁移路径作为该用户任务请求的卸载迁移路径,K为大于1的自然数。
PCT/CN2023/077586 2022-08-17 2023-02-22 一种面向边缘服务网络的负载公平卸载与迁移方法 WO2024036909A1 (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US18/290,280 US12106158B2 (en) 2022-08-17 2023-02-22 Fair task offloading and migration method for edge service networks

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202210994286.4 2022-08-17
CN202210994286.4A CN115361453B (zh) 2022-08-17 2022-08-17 一种面向边缘服务网络的负载公平卸载与迁移方法

Publications (1)

Publication Number Publication Date
WO2024036909A1 true WO2024036909A1 (zh) 2024-02-22

Family

ID=84002133

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2023/077586 WO2024036909A1 (zh) 2022-08-17 2023-02-22 一种面向边缘服务网络的负载公平卸载与迁移方法

Country Status (3)

Country Link
US (1) US12106158B2 (zh)
CN (1) CN115361453B (zh)
WO (1) WO2024036909A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115361453B (zh) * 2022-08-17 2023-09-29 浙江大学中原研究院 一种面向边缘服务网络的负载公平卸载与迁移方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109362087A (zh) * 2018-11-05 2019-02-19 北京邮电大学 基于异构云无线接入网络的流量卸载协作方法及系统
CN110062026A (zh) * 2019-03-15 2019-07-26 重庆邮电大学 移动边缘计算网络中资源分配和计算卸载联合优化方案
CN111148174A (zh) * 2019-12-13 2020-05-12 北京邮电大学 一种移动边缘计算中服务迁移路径选择方法
US20200401938A1 (en) * 2019-05-29 2020-12-24 The Board Of Trustees Of The Leland Stanford Junior University Machine learning based generation of ontology for structural and functional mapping
CN115361453A (zh) * 2022-08-17 2022-11-18 浙江大学中原研究院 一种面向边缘服务网络的负载公平卸载与迁移方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110213097B (zh) * 2019-05-31 2020-06-05 浙江大学 一种基于资源动态分配的边缘服务供应优化方法
CN111586762B (zh) * 2020-04-29 2023-02-17 重庆邮电大学 一种基于边缘协作的任务卸载及资源分配联合优化方法
CN113015216B (zh) * 2021-02-05 2022-05-10 浙江大学 一种面向边缘服务网络的突发任务卸载与调度方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109362087A (zh) * 2018-11-05 2019-02-19 北京邮电大学 基于异构云无线接入网络的流量卸载协作方法及系统
CN110062026A (zh) * 2019-03-15 2019-07-26 重庆邮电大学 移动边缘计算网络中资源分配和计算卸载联合优化方案
US20200401938A1 (en) * 2019-05-29 2020-12-24 The Board Of Trustees Of The Leland Stanford Junior University Machine learning based generation of ontology for structural and functional mapping
CN111148174A (zh) * 2019-12-13 2020-05-12 北京邮电大学 一种移动边缘计算中服务迁移路径选择方法
CN115361453A (zh) * 2022-08-17 2022-11-18 浙江大学中原研究院 一种面向边缘服务网络的负载公平卸载与迁移方法

Also Published As

Publication number Publication date
US20240264883A1 (en) 2024-08-08
CN115361453B (zh) 2023-09-29
US12106158B2 (en) 2024-10-01
CN115361453A (zh) 2022-11-18

Similar Documents

Publication Publication Date Title
CN113778648B (zh) 分层边缘计算环境中基于深度强化学习的任务调度方法
CN111182570B (zh) 提高运营商效用的用户关联和边缘计算卸载方法
CN112888002B (zh) 一种基于博弈论的移动边缘计算任务卸载及资源分配方法
CN111641973B (zh) 一种雾计算网络中基于雾节点协作的负载均衡方法
CN112486690A (zh) 一种适用于工业物联网的边缘计算资源分配方法
WO2024036909A1 (zh) 一种面向边缘服务网络的负载公平卸载与迁移方法
CN113535393B (zh) 异构边缘计算中卸载dag任务的计算资源分配方法
CN113596868A (zh) 基于sdn和nfv的5g网络切片资源管理机制
Shukla et al. FAT-ETO: Fuzzy-AHP-TOPSIS-Based efficient task offloading algorithm for scientific workflows in heterogeneous fog–cloud environment
CN116939866A (zh) 一种基于协同计算和资源分配联合优化的无线联邦学习效率提升方法
CN104348695B (zh) 一种基于人工免疫系统的虚拟网络映射方法及其系统
Cheng et al. A Stackelberg Game Based Framework for Edge Pricing and Resource Allocation in Mobile Edge Computing
CN111245701B (zh) 一种基于最大加权匹配的链路优先虚拟网络映射方法
CN117608806A (zh) 智能电网云边协同机制下计算任务雾-雾-云优化方法
CN113190342A (zh) 用于云-边协同网络的多应用细粒度卸载的方法与系统架构
CN110119268B (zh) 基于人工智能的工作流优化方法
CN111148155A (zh) 一种基于移动边缘计算的任务卸载方法
Talha et al. A chaos opposition‐based dwarf mongoose approach for workflow scheduling in cloud
CN114385359B (zh) 一种物联网云边端任务时序协同方法
CN116319959A (zh) 一种协同服务平台中的服务组合优化方法
Han et al. Opportunistic coded distributed computing: An evolutionary game approach
CN111752707B (zh) 一种基于映射关系的电力通信网资源分配方法
CN114980216A (zh) 基于移动边缘计算的依赖型任务卸载系统及方法
CN110135747B (zh) 基于神经网络的流程定制方法
CN114666283A (zh) 一种应用感知的多租户Coflow调度方法和系统

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23853826

Country of ref document: EP

Kind code of ref document: A1