CN110287035B - 混合边缘计算的请求调度方法、装置、设备及存储介质 - Google Patents
混合边缘计算的请求调度方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN110287035B CN110287035B CN201910766489.6A CN201910766489A CN110287035B CN 110287035 B CN110287035 B CN 110287035B CN 201910766489 A CN201910766489 A CN 201910766489A CN 110287035 B CN110287035 B CN 110287035B
- Authority
- CN
- China
- Prior art keywords
- communication
- edge server
- hybrid edge
- hybrid
- resources
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/11—Complex mathematical operations for solving equations, e.g. nonlinear equations, general mathematical optimization problems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
- G06F9/5044—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering hardware capabilities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5061—Partitioning or combining of resources
- G06F9/5072—Grid computing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5061—Partitioning or combining of resources
- G06F9/5077—Logical partitioning of resources; Management or configuration of virtualized resources
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/08—Configuration management of networks or network elements
- H04L41/0803—Configuration setting
- H04L41/0823—Configuration setting characterised by the purposes of a change of settings, e.g. optimising configuration for enhancing reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/12—Discovery or management of network topologies
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/50—Network service management, e.g. ensuring proper service fulfilment according to agreements
- H04L41/5041—Network service management, e.g. ensuring proper service fulfilment according to agreements characterised by the time relationship between creation and deployment of a service
- H04L41/5051—Service on demand, e.g. definition and deployment of services in real time
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L43/00—Arrangements for monitoring or testing data switching networks
- H04L43/08—Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
- H04L43/0852—Delays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L45/00—Routing or path finding of packets in data switching networks
- H04L45/02—Topology update or discovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2209/00—Indexing scheme relating to G06F9/00
- G06F2209/50—Indexing scheme relating to G06F9/50
- G06F2209/502—Proximity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2209/00—Indexing scheme relating to G06F9/00
- G06F2209/50—Indexing scheme relating to G06F9/50
- G06F2209/503—Resource availability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/14—Network analysis or design
- H04L41/142—Network analysis or design using statistical or mathematical methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L47/00—Traffic control in data switching networks
- H04L47/10—Flow control; Congestion control
- H04L47/28—Flow control; Congestion control in relation to timing considerations
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Strategic Management (AREA)
- Data Mining & Analysis (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Operations Research (AREA)
- Computational Mathematics (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Quality & Reliability (AREA)
- Marketing (AREA)
- Entrepreneurship & Innovation (AREA)
- Development Economics (AREA)
- Algebra (AREA)
- Game Theory and Decision Science (AREA)
- Databases & Information Systems (AREA)
- Environmental & Geological Engineering (AREA)
- Computer And Data Communications (AREA)
- Mobile Radio Communication Systems (AREA)
Abstract
本发明公开了一种混合边缘计算的请求调度方法、装置及电子设备,其中,混合边缘计算的请求调度方法,包括:获取通信网络的拓扑结构、计算资源以及通信资源的情况;确定在所述通信网络中放置的混合边缘服务器的个数;根据所述网络的拓扑结构、所述个数、所述计算资源和所述通信资源的情况将所述混合边缘服务器的最优请求调度路径的问题划分为混合整数非线性规划模型MINLP的子问题;分别根据所述子问题建立MINLP模型;将所述MINLP模型转化为MILP方程;对所述MILP方程进行求解,得到所述混合边缘服务器的放置节点以及用于处理所述通信请求的目标服务器。本发明的请求调度方法可提高请求调度的效率。
Description
技术领域
本发明涉及通信技术领域,特别是指一种混合边缘计算的请求调度方法、装置、设备及存储介质。
背景技术
随着物联网设备的广泛使用和5G的到来,边缘计算已成为服务终端用户并提供更好服务质量的有效范例,特别是对于新兴的网络服务。目前的边缘服务通常是面向公众的。然而,在一些场景下,还存在特定的用户请求,例如那些涉及隐私和安全性的请求,也要求私有边缘服务。这就导致了边缘的混合服务环境,但对于如何在边缘混合服务环境中对用户请求进行调度,目前尚未存在有效措施。
发明内容
有鉴于此,本发明的目的在于提出一种混合边缘计算的请求调度方法、装置、设备及存储介质,该方法可在满足总通信延迟最小且处理的通信请求数量最多的要求下,提高了请求调度的效率。
根据本发明的第一个方面,提供了一种请求调度方法,包括:获取通信网络的拓扑结构、计算资源以及通信资源的情况;确定在所述通信网络中放置的混合边缘服务器的个数,所述混合边缘服务器为利用公有资源和私有资源提供服务的服务器;根据所述网络的拓扑结构、所述个数、所述计算资源和所述通信资源的情况将所述混合边缘服务器的最优请求调度路径的问题划分为混合整数非线性规划模型MINLP的子问题,其中,所述混合边缘服务器的最优请求调度路径的问题用于确定在满足在所述通信网络中的总通信延迟最小且处理的通信请求数量最多时,所述混合边缘服务器的放置节点以及用于处理所述通信请求的目标服务器,所述子问题包括以下任意一种:计算资源充足且通信资源充足的问题、计算资源不足且通信资源充足的问题、计算资源充足且通信资源不足的问题,以及计算资源不足且通信资源不足的问题;分别根据所述子问题建立MINLP模型;将所述MINLP模型转化为MILP方程;对所述MILP方程进行求解,得到所述混合边缘服务器的放置节点以及用于处理所述通信请求的目标服务器。
可选的,当所述计算资源充足且所述通信资源充足的情况下,根据所述子问题建立MINLP模型如下:
s.t.
其中,n为接入点的总数、i以及j为接入点索引、πi为AP vi与本地用户请求之间的固定通信延迟,AP vi为第i个接入点的混合边缘服务器,θi为AP vi本地的用户请求数,m为混合边缘服务器的总数、ξi,j为请求从AP vi调度到AP vj的通信延迟,AP vj为第j个接入点的混合边缘服务器,yi,j为从AP vi调度到本地有边缘服务器的AP vj的请求数量,xi为关于AP vi附近是否有混合边缘服务器的示性函数值,β为接入点附近的私有请求比率,α为混合边缘服务器中的私有资源比率,K为混合边缘服务器的计算能力,W为混合边缘服务器的通信能力。
可选的,当所述计算资源不足且所述通信资源充足的情况下,根据所述子问题建立MINLP模型如下:
s.t.
其中,i以及j为接入点索引、n为接入点的总数、λ为所述通信网络中任何混合边缘服务器和数据中心云之间的通信延迟,ζi为从AP vi卸载到数据中心云的请求数量,πi为APvi与本地用户请求之间的固定通信延迟,θi为AP vi本地的用户请求数,ξi,j为请求从AP vi调度到AP vj的通信延迟,yi,j为从AP vi调度到本地有边缘服务器的AP vj的请求数量,m为混合边缘服务器的总数,xi为关于AP vi附近是否有混合边缘服务器的示性函数值,β为接入点附近的私有请求比率,α为混合边缘服务器中的私有资源比率,K为混合边缘服务器的计算能力,W为混合边缘服务器的通信能力,AP vi为第i个接入点的混合边缘服务器,AP vj为第j个接入点的混合边缘服务器。
可选的,当所述计算资源充足且所述通信资源不足的情况下,根据所述子问题建立MINLP模型如下:
s.t.
其中,i以及j为接入点索引、n为接入点的总数、πi为AP vi与本地用户请求之间的固定通信延迟,为在AP vi附近进行通信的请求数量,θi为AP vi本地的用户请求数,ξi,j为请求从AP vi调度到AP vj的通信延迟,yi,j为从AP vi调度到本地有边缘服务器的AP vj的请求数量,m为混合边缘服务器的总数,xi为关于AP vi附近是否有混合边缘服务器的示性函数值,β为接入点附近的私有请求比率,α为混合边缘服务器中的私有资源比率,K为混合边缘服务器的计算能力,W为混合边缘服务器的通信能力,AP vi为第i个接入点的混合边缘服务器,AP vj为第j个接入点的混合边缘服务器。
可选的,当所述计算资源不足且所述通信资源不足的情况下,根据所述子问题建立MINLP模型如下:
s.t.
其中,n为接入点的总数、为所述通信网络中任何混合边缘服务器和数据中心云之间的通信延迟,ζi为从AP vi卸载到数据中心云的请求数量,i以及j为接入点索引、m为混合边缘服务器的总数、πi为AP vi与本地用户请求之间的固定通信延迟,θi为AP vi本地的用户请求数,ξi,j为请求从AP vi调度到AP vj的通信延迟,vi,j为从AP vi调度到本地有边缘服务器的AP vj的请求数量,xi为关于AP vi附近是否有混合边缘服务器的示性函数值,β为接入点附近的私有请求比率,α为混合边缘服务器中的私有资源比率,K为混合边缘服务器的计算能力,为在AP vi附近进行通信的请求数量,W为混合边缘服务器的通信能力,AP vi为第i个接入点的混合边缘服务器,AP vj为第j个接入点的混合边缘服务器。
根据本发明的第二个方面,提供了一种混合边缘计算的请求调度装置,包括:获取模块,用于获取通信网络的拓扑结构、计算资源以及通信资源的情况;确定模块,用于确定在所述通信网络中放置的混合边缘服务器的个数,所述混合边缘服务器为利用公有资源和私有资源提供服务的服务器;划分模块,用于根据所述网络的拓扑结构、所述个数、所述计算资源和所述通信资源的情况将所述混合边缘服务器的最优请求调度路径的问题划分为混合整数非线性规划模型MINLP的子问题,其中,所述混合边缘服务器的最优请求调度路径的问题用于确定在满足在所述通信网络中的总通信延迟最小且处理的通信请求数量最多时,所述混合边缘服务器的放置节点以及用于处理所述通信请求的目标服务器,所述子问题包括以下任意一种:计算资源充足且通信资源充足的问题、计算资源不足且通信资源充足的问题、计算资源充足且通信资源不足的问题,以及计算资源不足且通信资源不足的问题;建模模块,用于分别根据所述子问题建立MINLP模型;转化模块,用于将所述MINLP模型转化为MILP方程;求解模块,用于对所述MILP方程进行求解,得到所述混合边缘服务器的放置节点以及用于处理所述通信请求的目标服务器。
可选的,所述建模模块,用于当所述计算资源充足且所述通信资源充足的情况下,根据所述子问题建立MINLP模型如下:
s.t.
其中,n为接入点的总数、i以及j为接入点索引、πi为AP vi与本地用户请求之间的固定通信延迟,AP vi为第i个接入点的混合边缘服务器,θi为AP vi本地的用户请求数,m为混合边缘服务器的总数、ξi,j为请求从AP vi调度到AP vj的通信延迟,AP vj为第j个接入点的混合边缘服务器,yi,j为从AP vi调度到本地有边缘服务器的AP vj的请求数量,xi为关于AP vi附近是否有混合边缘服务器的示性函数值,β为接入点附近的私有请求比率,α为混合边缘服务器中的私有资源比率,K为混合边缘服务器的计算能力,W为混合边缘服务器的通信能力。
可选的,所述建模模块,用于当所述计算资源不足且所述通信资源充足的情况下,根据所述子问题建立MINLP模型如下:
s.t.
其中,i以及j为接入点索引、n为接入点的总数、λ为所述通信网络中任何混合边缘服务器和数据中心云之间的通信延迟,ζi为从AP vi卸载到数据中心云的请求数量,πi为APvi与本地用户请求之间的固定通信延迟,θi为AP vi本地的用户请求数,ξi,j为请求从AP vi调度到AP vj的通信延迟,yi,j为从AP vi调度到本地有边缘服务器的AP vj的请求数量,m为混合边缘服务器的总数,xi为关于AP vi附近是否有混合边缘服务器的示性函数值,β为接入点附近的私有请求比率,α为混合边缘服务器中的私有资源比率,K为混合边缘服务器的计算能力,W为混合边缘服务器的通信能力,AP vi为第i个接入点的混合边缘服务器,AP vj为第j个接入点的混合边缘服务器。
根据本发明的第三个方面,提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如本发明的第一个方面所述的任意一种混合边缘计算的请求调度方法。
根据本发明的第四个方面,提供了一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令用于使所述计算机执行根据本发明的第一个方面所述的任意一种混合边缘计算的请求调度方法。
从上面所述可以看出,本发明根据计算资源和通信资源的情况将混合边缘服务器的最优请求调度问题建模为MINLP的子问题,通过将MINLP模型转化为MILP方程,通过对MILP方程的求解,解决了混合边缘服务器放置的最优请求调度问题,在满足总通信延迟最小且处理的通信请求数量最多的要求下,提高了请求调度的效率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1智能家庭中的混合边缘服务环境的示意图;
图2是混合边缘计算的框架的示意图;
图3是根据一示例性实施例示出的一种混合边缘计算的请求调度方法的流程图;
图4是根据一示例性实施例示出的计算资源竞争的示意图;
图5a是根据一示例性实施例示出的一种通信资源竞争的示意图;
图5b是根据一示例性实施例示出的另一种通信资源竞争的示意图;
图6是根据一示例性实施例示出的请求调度过程中将选择延迟最小的路径的示意图;
图7是根据一示例性实施例示出的成都市打车订单请求数据的示意图;
图8-图11分别是在SKSW子问题、SKIW子问题、IKSW子问题以及IKIW子问题中网格划分规格对计算时间和迭代次数的影响的曲线图;
图12-图15分别是在SKSW子问题、SKIW子问题、IKSW子问题以及IKIW子问题中计算能力对计算时间和迭代次数的影响的曲线图;
图16是根据一示例性实施例示出的混合边缘计算的请求调度装置的框图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明进一步详细说明。
需要说明的是,本发明实施例中所有使用“第一”和“第二”的表述均是为了区分两个相同名称非相同的实体或者非相同的参量,可见“第一”“第二”仅为了表述的方便,不应理解为对本发明实施例的限定,后续实施例对此不再一一说明。在边缘计算的帮助下,大多数云服务可以卸载到边缘服务器以获得更好的QoS(Quality of Service,服务质量)。这些服务通常可以由公众访问(例如,通过开放的API(Application Programming Interface,应用程序编程接口))并服务于大量用户(例如,基于位置信息的服务)。在本发明中,将此类服务称为公有边缘服务。
目前,越来越多的企业寻求在通信网络边缘部署自己的服务,以进一步提高性能,延长稳定的正常运行时间,以及确保高级别的隐私安全。此外,以前在私有物联网设备中管理的大量个人数据预计将被转移到边缘服务器进行集中处理,以解决物联网设备缺乏充足计算资源和存储容量的问题。以上所述都在呼吁为企业或用户量身定制新型边缘服务。在本发明中,这类服务被命名为私有边缘服务。
可以预期边缘提供的服务应包括公有边缘服务和私有边缘服务。此外,随着服务部署的增加,公有边缘服务和私有边缘服务可能存在于公有的边缘服务器上,以提高边缘资源利用率,从而产生了混合边缘服务环境。
在本发明中,公有边缘服务、私有边缘服务以及混合边缘服务的定义如下:
公有边缘服务:公有边缘服务是政府或其他供应商为大众提供的服务,它利用有限的公有存储器和边缘设备上的计算资源来响应用户的请求。
私有边缘服务:为了更好地管理和控制用户体验和数据,甚至保护隐私,在本文中提出私有边缘服务作为使用私有资源和处理从云分散到用户附近端点处理的解决方案。
混合边缘服务:随着边缘计算和混合云的发展,可以实现资源整合和边缘的混合服务布局。在此前提下,充分利用公有资源和私有资源提供的服务称为混合边缘服务。
图1示出了一个例子来展示智能家庭中的混合边缘服务环境。智能家庭集成了各种边缘服务(例如,安全服务、视频流、家用机器人等)。作为公有边缘服务之一,许多智能家庭提供视频流,其中,视频副本缓存在它们附近的边缘服务器中。相比之下,一些其他边缘服务(例如智能家居中的数据分析)通常涉及居民的隐私,因此更可能由某些私有边缘服务提供。因此,为满足居民的多样化需求,智能家庭需要通过混合边缘服务来提供服务,基于此,本发明提供了基于混合边缘服务的请求调度方法。
图2示出了混合边缘计算的框架,如图2所示,在通信网络边缘部署混合边缘服务器,用于与数据中心云协同处理请求。首先,混合边缘服务器比普通混合云小得多,具有更好的灵活性和可扩展性,像移动边缘云(MEC)一样,并且与无线接入点位于同一位置;其次,存储在一个混合边缘服务器中的服务包括私有服务以及公有服务两种,其中,私有服务只能在公有服务可以服务本地或远程公有用户请求时服务于本地认证请求。再次,通信资源在AP处是可共享的,因为它可以接收各种服务,而计算资源在混合边缘服务器中是不可共享的,因为边缘云中存在严格的分区以处理不同类型的服务请求(即,私有服务请求和公有服务请求)。在本发明中,混合边缘服务器可被认为具有统一的计算能力和足够的用于存储服务的存储空间,而AP具有统一的通信能力。
以下对本发明实施例中涉及的网络模型进行说明。
本发明的网络模型是在无线城域网(WMAN)环境中形成的。在本发明中使用无向图G(V,E)来模拟网络的拓扑,其中V是表示n个接入点(AP)组成的顶点集合,E是表示由相应AP连接的所有通信链路的边的集合。设m是E的基数。假设AP vi与其本地服务请求之间存在平均通信延迟。假设在AP vi到AP vj之间也存在平均通信延,其中,AP vi为第i个接入点的混合边缘服务器,AP vj为第j个接入点的混合边缘服务器。
以下对本发明实施例中涉及的服务请求和响应进行说明。
本发明实施例中的用户或边缘设备对混合边缘服务器的服务请求分为公有请求和私有请求,它们分别请求混合边缘服务器上的公有服务和私有服务。在这种同构网络模型中,假设在任何AP的范围内公有请求与私有请求的比率是固定的。当用户请求被发送到本地AP时,如果本地有一个具有足够容量的混合边缘服务器,则将在本地处理该用户请求,否则,将其调度到具有足够容量的远程服务器。假设所有服务请求都需要相同的计算资源,并且如果计算资源足够则可以进行计算。此外,假设与需要调度的所有请求相比,网络模型中的所有链路都具有足够通信容量。在系统模型中,为了更好地满足混合服务请求,需要在有限资源的情况下进行调度。
图3是根据一示例性实施例示出的一种混合边缘计算的请求调度方法的流程图,如图3所示,该方法包括:
步骤301:获取通信网络的拓扑结构、计算资源以及通信资源的情况;
步骤302:确定在所述通信网络中放置的混合边缘服务器的个数,所述混合边缘服务器为利用公有资源和私有资源提供服务的服务器。
步骤303:根据所述网络的拓扑结构、所述个数、所述计算资源和所述通信资源的情况将所述混合边缘服务器的最优请求调度路径的问题划分为混合整数非线性规划模型MINLP的子问题,其中,所述混合边缘服务器的最优请求调度路径的问题用于确定在满足在所述通信网络中的总通信延迟最小且处理的通信请求数量最多时,所述混合边缘服务器的放置节点以及用于处理所述通信请求的目标服务器,所述子问题包括以下任意一种:
计算资源充足且通信资源充足的问题、计算资源不足且通信资源充足的问题、计算资源充足且通信资源不足的问题,以及计算资源不足且通信资源不足的问题;
在一种可实现方式中,当所述计算资源充足且所述通信资源充足的情况下,根据所述子问题建立MINLP模型如下:
s.t.
在另一种可实现方式中,当所述计算资源不足且所述通信资源充足的情况下,根据所述子问题建立MINLP模型如下:
s.t.
在一种可实现方式中,当所述计算资源充足且所述通信资源不足的情况下,根据所述子问题建立MINLP模型如下:
s.t.
在一种可实现方式中,当所述计算资源不足且所述通信资源不足的情况下,根据所述子问题建立MINLP模型如下:
s.t.
在以上各种可实现方式中,各参数的含义如下:
其中,n为接入点的总数、i以及j为接入点索引、πi为AP vi与本地用户请求之间的固定通信延迟,AP vi为第i个接入点的混合边缘服务器,θi为AP vi本地的用户请求数,m为混合边缘服务器的总数、ξi,j为请求从AP vi调度到AP vj的通信延迟,AP vj为第j个接入点的混合边缘服务器,yi,j为从AP vi调度到本地有边缘服务器的AP vj的请求数量,xi为关于AP vi附近是否有混合边缘服务器的示性函数值,β为接入点附近的私有请求比率,α为混合边缘服务器中的私有资源比率,K为混合边缘服务器的计算能力,W为混合边缘服务器的通信能力,λ为所述通信网络中任何混合边缘服务器和数据中心云之间的通信延迟,ζi为从APvi卸载到数据中心云的请求数量,为在AP vi附近进行通信的请求数量。
步骤304:分别根据所述子问题建立MINLP模型;
步骤305:将所述MINLP模型转化为MILP(Mixed-Integer Linear Programming,混合整数线性规划法)方程;
步骤306:对所述MILP方程进行求解,得到所述混合边缘服务器的放置节点以及用于处理所述通信请求的目标服务器。
在一种可实现方式中,在确定所述目标服务器后,将通信请求调度至该目标服务器。
在一种可实现方式中,当将私有服务从物联网设备转移到混合边缘服务器时,相关用户可以随时请求相应的服务。同时,数据中心云为相关用户在服务器上分配所需公有服务的副本。在这两种情况下,每个混合边缘服务器都有足够的存储空间,否则会导致服务器的失效。因此,当用户请求混合边缘服务时,可无需考虑服务器的存储竞争关系。由于混合边缘服务器具有足够的内存来存储混合服务,故可仅考虑混合通信网络的通信能力和计算能力的限制。当私有请求和公有边缘请求同时发送时,将存在竞争。因此,以下分别从本地请求调度的通信约束以及本地和远程请求调度的计算约束介绍通信网络中的资源限制。
本地请求调度的通信约束:通信约束决定了AP(接入点)覆盖的区域发送的总请求的数量。无论用户发送何种请求,私有请求或公有请求,用户都将共享通信资源。在此只考虑本地通信约束问题,因为不同AP之间的链路的通信容量是足够的。令W是可以一个时间片中在一个AP本地通信的请求的数量,以及任何给定AP的统一通信容量。然后将用户请求划分为公有请求和私有请求。让β作为AP的私有请求与总请求的比率,1-β是公有请求与总请求的比率。通常情况下,在任何AP的本地区域都有不超过W的服务请求,无论它们被调度到何处,这是一个必须满足的约束。因此,使θi为AP vi总的用户请求数量,为可通信的请求数,等于min {,W }。当请求在本地处理时,将从AP vi到其附近混合边缘服务器的通信延迟表示为πi。此外,如果AP vi的请求被调度到AP vj,则通信延迟将表示为ξi,j。
本地和远程请求调度的计算约束:设K是任何给定的混合边缘服务器的计算容量,这意味着服务器可以处理和响应的最大请求数。可将计算容量划分为私有部分和公有部分,它们分别代表服务器可以处理的私有请求和公有请求的最大数量。让α为私有部分的比例,1-α为公有部分的比例。通常,任何给定的混合边缘服务器的私有部分都可以处理一个时间片中的所有私有请求,因为可认为优先满足私有用户的请求非常重要。然而,当涉及公有部分时情况变得不同,因为本地计算资源不能总是满足需求,因此公有请求的多余部分将被调度到具有额外计算能力的混合边缘服务器上。此外,由于其有限的计算能力,混合边缘服务器可能需要将一些请求卸载到远程数据中心云。可将从AP vi卸载到中心云的请求数量表示为ζi。此处假设中心云完全具备处理所有卸载请求的能力,并且混合边缘服务器和中心云之间存在固定的延迟λ。
以下对基于混合边缘服务器放置的最优请求调度问题(ORS-HESP)进行分析。
在调度混合边缘服务的请求之前,首先可考虑混合边缘服务器的位置。在通信网络中布置混合边缘服务器时,可根据私有用户请求将混合边缘服务器部署到相应AP附近,再确定如何将用户请求调度到某些边缘服务器,以便在考虑计算资源和通信资源约束的情况下最小化通信总延迟。
由于通信网络中有m个AP,可引入一组变量X = {| 1 ≤ i ≤ m },每个xi= 1表示混合边缘服务器与一个AP vi相邻,否则 xi= 0。如果xj’ = 1,可使yi’,j’≥0表示被路由到混合边缘服务器AP vj’的来自
AP vi’的服务请求数量,否则yi’,j’= 0。
为了达到在考虑计算资源和通信资源约束的情况下最小化通信总延迟的目的,可将基于混合边缘服务器放置的最优请求调度问题建模为混合整数非线性规划(MINLP)模型,称为基于混合边缘服务器放置的最优请求调度(ORS-HESP)问题,模型如下(以下将该模型称为模型(1)):
(1a)
s.t.
(1b)
(1c)
(1d)
(1e)
(1f)
(1g)
(1h)
(1i)
(1j)
(1k)
其中,目标函数(1a)表示最小化通信网络的总延迟。约束(1k)指定参数i和j值的范围。约束(1b)确保AP上只有m个混合边缘服务器。约束(1c)和(1d)分别表示私有计算容量限制和公有计算容量限制。约束(1e)和(1f)规定,无论是否附近存在混合边缘服务器,都应该在任何AP上满足通信容量。约束(1g)和(1h)表明某AP可以在其他边缘服务器上处理的用户请求总数应该等于从该AP向其他临近服务器的AP指派的请求数之和。(1i)和(1j)分别给出了和的表达式。
以下对本发明提供的请求调度方法中的资源的竞争关系进行分析。
计算资源的竞争规则:假设在混合边缘服务器上只存在计算资源的竞争,并且存在竞争规则。用户从本地发送的本地请求将是第一个在与本地AP临近的混合边缘服务器处理的请求。本地公有请求和私有请求之间没有竞争,因为它们是在不同的部分(公有或私有)处理的。如果该边混合缘服务器上的公有计算资源仍然可以处理请求,则来自其他AP的远程公有请求可以排队在该混合边缘服务器处理。由于在此只将队列视为静态状态,因此将在一个时隙中计算请求。对于任何混合边缘服务器,接收的服务请求的数量不能超过计算资源限制,并且请求根据先来先服务的规则获得计算资源,即,基于路径的长度或延迟的大小。如图4所示,可以看出超出的请求将被分派到数据中心云,因为它具有无限的计算能力来处理所有请求。
通信资源的竞争规则:在考虑本地通信资源竞争时,意味着通过AP调度到服务器的本地请求的数量不得超过该AP的通信容量。需了解共享相同带宽的所有本地请求。然而,由于私有请求的安全性和重要性,首先在一个时隙中满足私有请求的通信,然后再考虑公有请求的通信。在通信资源足够的前提下,本地公有请求被平等对待并尽可能地服务。当本地公有请求的数量W超过通信资源限制时,如图5a以及图5b所示,额外请求将被延迟到另一个时间片中。AP之间或AP与数据中心云之间的通信资源没有竞争,因为带宽足以满足所有请求的通信需求。
调度路径选择:当接收到的公有请求来自没有混合边缘服务器或超过本地计算容量服务器的AP时,应该将请求调度到具有足够处理能力的其他边缘服务器。如图6所示,可将vi描述为没有边缘服务器的AP,vj1,vj2,vj3为临近边缘服务器的AP。当需要将vi的公有请求调度到边缘服务器时,可择具有最小延迟的路径。在这种情况下,可通过距离的长度来表示延迟的大小,然后可发现ξi,j<ξi,j<ξi,j,这意味着将选择从vi到vj2的路径,并且公有请求将在临近vj2的边缘服务器上处理。
在考虑WMAN中基于混合边缘服务器放置的最优请求调度问题时,可首先考虑混合边缘服务器的放置。混合边缘服务器可主要是为私人用户定制的服务器,该服务器可同时考虑公有用户请求的频率以及混合边缘服务器所选站点的受欢迎程度。
虽然在n个AP附近安排m个混合边缘服务器有种可能性,但仍然可以根据上述条件选择特定的方案。假设混合边缘服务器的放置问题是非确定性的并且是ORS-HESP问题的预先设置。即使忽略了计算资源和通信资源的限制,ORS-HESP问题也是一个非常棘手的问题。故在本发明中,可将上述问题划分为如下四个子问题:
通信网络中的计算资源充足且通信资源充足的ORS-HESP问题(SKSW-ORS-HESP):在这种情况下,计算资源和通信资源充足,意味着不会将任何请求分派到数据中心云,并且所有请求都将在混合边缘服务器中处理,也就是说,。混合边缘服务器和中心云之间不会有远程延迟,因此可将上述模型(1)重写如下:
(2a)
s.t.
(2b)
(2c)
(2d)
(2e)
(2f)
计算资源不足且通信资源充足的ORS-HESP问题(IKSW-ORS-HESP):在这种情况下,计算资源不足意味着总会存在某个服务器计算资源匮乏,即。通信资源充足意味着AP覆盖范围内的所有服务请求都将通过它调度到混合边缘服务器或者数据中心云来处理,而不必担心被延迟。基于此,可重写上述模型(1)如下:
(3a)
s.t.
(3b)
(3c)
(3d)
(3e)
(3f)
(3g)
计算资源充足且通信资源不足的ORS-HESP问题(SKIW-ORS-HESP):在这种情况下,意味着并非n个AP中的每一个都能够满足其所有本地请求的通信,并且多余部分将被延迟,故可将上述模型(1)重写如下:
(4a)
s.t.
(4b)
(4c)
(4d)
计算资源不足且通信资源不足的ORS-HESP问题(IKIW-ORS-HESP):在这种情况下,计算资源和通信资源都不足,意味着通信资源不足的AP覆盖范围内的一些请求将被延迟,然后所有公有请求的数量仍然超过总公有请求计算能力,这导致额外的部分调度到中心云。基于以上描述,需要引入约束(3c)(4d)。基于此,可将模型(1)重写如下:
(5a)
s.t.
(5b)
(5c)
(5d)
(5e)
综上,为了有效地解决ORS-HESP问题,将其分为四个子问题并转化为相应的MILP模型。给定通信网络G =(V,E),混合边缘服务器的放置将根据站点的服务请求情况或私有服务需求来决定。然后,通过检查每个AP处的通信资源约束来决定是否延迟部分请求,并通过检查每个混合边缘服务器的计算资源约束来确定是否有必要将部分请求调度到数据中心云。
以下通过引入实验环境并预先放置AP和混合边缘服务器来评估本发明提出的请求调度方法的性能。
实验数据设置:使用滴滴的成都出租车用户的订单数据集。为了满足数据集的一般适应性,从2017年7月到2018年5月每五天提取一天的数据,并根据经纬度划分城市区域。然后,在城市订单数据图上进行实验,如图7所示,通过热力图描述用户订单的分布。显然,订单集中在城市中部,呈现下降趋势。在图7中还分别通过水平轴和垂直轴的条形图显示用户订单随纬度和经度的变化。
混合边缘计算环境的设置:采取以下三个步骤来部署AP和混合边缘服务器,并设置实验数据。
网格划分:给定一个纬度和经度范围内的城市订单请求数据地图,将图表划分为不同规格的网格,并形成五种不同的尺寸标准(例如,12 * 10,24 * 20,36 * 30,48 * 40,60 * 50),其中,12 * 10意味着纬度范围被切割成12个区段,而经度范围被切割成10个区段,最终得到120个相同大小的网格,其余参考此法。
位置选择:选择每个网格的中心坐标作为每个AP的位置,并根据每个网格中包含的请求数来选择混合边缘服务器的位置,这意味着混合边缘服务器往往放置在人口密集或者请求较多的区域,因此选择最多一些区域进行部署。
数据预处理:基于用户订单的坐标,将每个用户订单定义为服务请求并给出请求的位置。当前,可以获得城域网中的请求,AP和混合边缘服务器的所有数据。计算到达每个网格中的本地AP的用户请求的平均距离作为每个用户到AP的通信延迟,并计算每对AP之间直线距离的均匀分布作为它们之间的通信延迟。并且AP之间的最大距离的十倍被认为是固定的远程调度延迟。在不失一般性的情况下,最终将每个网格每天生成的平均订单数量计算为每个AP的本地请求数。
通过上述实验设置,在表1中显示实验中使用的参数数据。
表1
以下对实验的设计进行说明:
本发明的请求调度方法在解决子问题模型时,使用了分支定界(BnB)的方法来解决MILP问题。实质上,分支定界方法是一种用于解决整数规划问题的启发式算法。如图8-图11和图12-图15所示,进行以下两组实验。
网格尺寸对计算时间和迭代次数的影响。如图8-图11所示,测试不同区域分割大小下的四个子问题的情况,获得最优解决方案并记录达到最优解决方案的迭代次数和计算时间。
计算能力对计算时间和迭代次数的影响。如图12-图15所示,测试了不同计算能力(K)下的四个子问题的情况,获得最优解决方案并记录达到最优解决方案的迭代次数和计算时间。
对每组实验进行五次计算并得到最终平均计算时间,并在图8-图11和图12-图15中给出最终结果。
图8-图11示出了计算最优解所需的计算时间和迭代次数如何受不同子问题的网格划分的影响。在这组实验中,根据用户请求和混合边缘服务器的总数确定计算能力(K)的值。此外,通过通信能力控制实验。
在图12-图15中,将划分的大小设置为36 * 30,并确定计算时间和迭代次数如何受到不同子问题的计算能力(K)的影响。根据K值的调整来记录结果。对于每个子问题,有必要根据每个子问题的约束以及用户请求和服务器的总数预先计算K值的上限和下限。
根据图8-图11的四个子图中的实线的趋势,可知计算时间随着数据大小的增加而增加。根据图12-图15的四个子图中实线的趋势,可知计算能力(K)几乎没有对计算时间产生影响。无论数据大小和混合边缘服务器的计算能力如何变化,仍然可以在很短的时间内找到子问题模型的最优解决方案。实际上,在图8-图11的20个实验中,最多花费不超过9秒,而在图12-图15的情况下,最多花费不过2秒。在这两组对比实验中,本发明的方法通过执行最多10次迭代就获得了最优解,这意味着分支定界方法能够快速有效地搜索子问题的最优解。通过将原始的ORS-HESP问题划分为四个子问题并使用分支定界方法,最终以更低的复杂度获得最优解。
通过对上述实验结果的分析和总结,可以很容易地看出本发明的请求调度方法运行良好。由于大规模运算的计算时间仍然很短,证明了本发明的请求调度方法可以非常有效地解决ORS-HESP问题。实验结果表明,该算法可以在一定程度上控制迭代次数,大大降低了问题的复杂性。它还证明该算法具有非常好的可扩展性。
图16是根据一示例性实施例示出的一种混合边缘计算的请求调度装置的框图,如图16所示,该装置10包括如下组成部分:
获取模块11,用于获取通信网络的拓扑结构、计算资源以及通信资源的情况;
确定模块12,用于确定在所述通信网络中放置的混合边缘服务器的个数,所述混合边缘服务器为利用公有资源和私有资源提供服务的服务器;
划分模块13,用于根据所述网络的拓扑结构、所述个数、所述计算资源和所述通信资源的情况将所述混合边缘服务器的最优请求调度路径的问题划分为混合整数非线性规划模型MINLP的子问题,其中,所述混合边缘服务器的最优请求调度路径的问题用于确定在满足在所述通信网络中的总通信延迟最小且处理的通信请求数量最多时,所述混合边缘服务器的放置节点以及用于处理所述通信请求的目标服务器,所述子问题包括以下任意一种:
计算资源充足且通信资源充足的问题、计算资源不足且通信资源充足的问题、计算资源充足且通信资源不足的问题,以及计算资源不足且通信资源不足的问题;
建模模块14,用于分别根据所述子问题建立MINLP模型;
转化模块15,用于将所述MINLP模型转化为MILP方程;
求解模块16,用于对所述MILP方程进行求解,得到所述混合边缘服务器的放置节点以及用于处理所述通信请求的目标服务器。
在一种可实现方式中,所述建模模块,用于当所述计算资源充足且所述通信资源充足的情况下,根据所述子问题建立MINLP模型如下:
s.t.
其中,n为接入点的总数、i以及j为接入点索引、πi为AP vi与本地用户请求之间的固定通信延迟,AP vi为第i个接入点的混合边缘服务器,θi为AP vi本地的用户请求数,m为混合边缘服务器的总数、ξi,j为请求从AP vi调度到AP vj的通信延迟,AP vj为第j个接入点的混合边缘服务器,yi,j为从AP vi调度到本地有边缘服务器的AP vj的请求数量,xi为关于AP vi附近是否有混合边缘服务器的示性函数值,β为接入点附近的私有请求比率,α为混合边缘服务器中的私有资源比率,K为混合边缘服务器的计算能力,W为混合边缘服务器的通信能力。
在一种可实现方式中,所述建模模块,用于当所述计算资源不足且所述通信资源充足的情况下,根据所述子问题建立MINLP模型如下:
s.t.
其中,i以及j为接入点索引、n为接入点的总数、λ为所述通信网络中任何混合边缘服务器和数据中心云之间的通信延迟,ζi为从AP vi卸载到数据中心云的请求数量,πi为APvi与本地用户请求之间的固定通信延迟,θi为AP vi本地的用户请求数,ξi,j为请求从AP vi调度到AP vj的通信延迟,yi,j为从AP vi调度到本地有边缘服务器的AP vj的请求数量,m为混合边缘服务器的总数,xi为关于AP vi附近是否有混合边缘服务器的示性函数值,β为接入点附近的私有请求比率,α为混合边缘服务器中的私有资源比率,K为混合边缘服务器的计算能力,W为混合边缘服务器的通信能力,AP vi为第i个接入点的混合边缘服务器,AP vj为第j个接入点的混合边缘服务器。上述实施例的装置用于实现前述实施例中相应的方法,并且具有相应的方法实施例的有益效果,在此不再赘述。
本发明还提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如本发明实施例所述的任意一种混合边缘计算的请求调度方法。
本发明还提供了一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令用于使所述计算机执行如本发明实施例所述的任意一种混合边缘计算的请求调度方法。
所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本公开的范围(包括权利要求)被限于这些例子;在本发明的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,步骤可以以任意顺序实现,并存在如上所述的本发明的不同方面的许多其它变化,为了简明它们没有在细节中提供。
另外,为简化说明和讨论,并且为了不会使本发明难以理解,在所提供的附图中可以示出或可以不示出与集成电路(IC)芯片和其它部件的公知的电源/接地连接。此外,可以以框图的形式示出装置,以便避免使本发明难以理解,并且这也考虑了以下事实,即关于这些框图装置的实施方式的细节是高度取决于将要实施本发明的平台的(即,这些细节应当完全处于本领域技术人员的理解范围内)。在阐述了具体细节(例如,电路)以描述本发明的示例性实施例的情况下,对本领域技术人员来说显而易见的是,可以在没有这些具体细节的情况下或者这些具体细节有变化的情况下实施本发明。因此,这些描述应被认为是说明性的而不是限制性的。
尽管已经结合了本发明的具体实施例对本发明进行了描述,但是根据前面的描述,这些实施例的很多替换、修改和变型对本领域普通技术人员来说将是显而易见的。例如,其它存储器架构(例如,动态RAM(DRAM))可以使用所讨论的实施例。
本发明的实施例旨在涵盖落入所附权利要求的宽泛范围之内的所有这样的替换、修改和变型。因此,凡在本发明的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种混合边缘计算的方法,其特征在于,包括:
获取通信网络的拓扑结构、计算资源以及通信资源的情况;
确定在所述通信网络中放置的混合边缘服务器的个数,所述混合边缘服务器为利用公有资源和私有资源提供服务的服务器;
根据所述网络的拓扑结构、所述个数、所述计算资源和所述通信资源的情况将所述混合边缘服务器的最优请求调度路径的问题划分为混合整数非线性规划模型MINLP的子问题,其中,所述混合边缘服务器的最优请求调度路径的问题用于确定在满足在所述通信网络中的总通信延迟最小且处理的通信请求数量最多时,所述混合边缘服务器的放置节点以及用于处理所述通信请求的目标服务器,所述子问题包括以下任意一种:
计算资源充足且通信资源充足的问题、计算资源不足且通信资源充足的问题、计算资源充足且通信资源不足的问题,以及计算资源不足且通信资源不足的问题;
分别根据所述子问题建立MINLP模型;
将所述MINLP模型转化为MILP方程;
对所述MILP方程进行求解,得到所述混合边缘服务器的放置节点以及用于处理所述通信请求的目标服务器;
当所述计算资源充足且所述通信资源充足的情况下,根据所述子问题建立MINLP模型如下:
s.t.
i,j∈{1,2,…,n}
其中,n为接入点的总数、i以及j为接入点索引、πi为AP vi与本地用户请求之间的固定通信延迟,AP vi为第i个接入点的混合边缘服务器,θi为AP vi本地的用户请求数,m为混合边缘服务器的总数、ξi,j为请求从AP vi调度到AP vj的通信延迟,AP vj为第j个接入点的混合边缘服务器,yi,j为从AP vi调度到本地有边缘服务器的AP vj的请求数量,xi为关于AP vi附近是否有混合边缘服务器的示性函数值,β为接入点附近的私有请求比率,α为混合边缘服务器中的私有资源比率,K为混合边缘服务器的计算能力,W为混合边缘服务器的通信能力。
2.根据权利要求1所述的方法,其特征在于,当所述计算资源不足且所述通信资源充足的情况下,根据所述子问题建立MINLP模型如下:
i,j∈{1,2,…,n}
其中,i以及j为接入点索引、n为接入点的总数、λ为所述通信网络中任何混合边缘服务器和数据中心云之间的通信延迟,ζi为从AP vi卸载到数据中心云的请求数量,πi为AP vi与本地用户请求之间的固定通信延迟,θi为AP vi本地的用户请求数,ξi,j为请求从AP vi调度到AP vj的通信延迟,yi,j为从AP vi调度到本地有边缘服务器的AP vj的请求数量,m为混合边缘服务器的总数,xi为关于AP vi附近是否有混合边缘服务器的示性函数值,β为接入点附近的私有请求比率,α为混合边缘服务器中的私有资源比率,K为混合边缘服务器的计算能力,W为混合边缘服务器的通信能力,AP vi为第i个接入点的混合边缘服务器,AP vj为第j个接入点的混合边缘服务器。
3.根据权利要求1所述的方法,其特征在于,当所述计算资源充足且所述通信资源不足的情况下,根据所述子问题建立MINLP模型如下:
s.t.
χi=min{θi,W}
i,j∈{1,2,…,n}
其中,i以及j为接入点索引、n为接入点的总数、πi为AP vi与本地用户请求之间的固定通信延迟,i为在AP vi附近进行通信的请求数量,θi为AP vi本地的用户请求数,ξi,j为请求从AP vi调度到AP vj的通信延迟,yi,j为从AP vi调度到本地有边缘服务器的AP vj的请求数量,m为混合边缘服务器的总数,xi为关于AP vi附近是否有混合边缘服务器的示性函数值,β为接入点附近的私有请求比率,α为混合边缘服务器中的私有资源比率,K为混合边缘服务器的计算能力,W为混合边缘服务器的通信能力,AP vi为第i个接入点的混合边缘服务器,AP vj为第j个接入点的混合边缘服务器。
4.根据权利要求1所述的方法,其特征在于,当所述计算资源不足且所述通信资源不足的情况下,根据所述子问题建立MINLP模型如下:
s.t.
χi=min{θi,W}
i,j∈{1,2,…,n}
其中,n为接入点的总数、λ为所述通信网络中任何混合边缘服务器和数据中心云之间的通信延迟,ζi为从AP vi卸载到数据中心云的请求数量,i以及j为接入点索引、m为混合边缘服务器的总数、πi为AP vi与本地用户请求之间的固定通信延迟,θi为AP vi本地的用户请求数,ξi,j为请求从AP vi调度到AP vj的通信延迟,vi,j为从AP vi调度到本地有边缘服务器的AP vj的请求数量,xi为关于AP vi附近是否有混合边缘服务器的示性函数值,β为接入点附近的私有请求比率,α为混合边缘服务器中的私有资源比率,K为混合边缘服务器的计算能力,χi为在AP vi附近进行通信的请求数量,W为混合边缘服务器的通信能力,AP vi为第i个接入点的混合边缘服务器,AP vj为第j个接入点的混合边缘服务器。
5.一种混合边缘计算的请求调度装置,其特征在于,包括:
获取模块,用于获取通信网络的拓扑结构、计算资源以及通信资源的情况;
确定模块,用于确定在所述通信网络中放置的混合边缘服务器的个数,所述混合边缘服务器为利用公有资源和私有资源提供服务的服务器;
划分模块,用于根据所述网络的拓扑结构、所述个数、所述计算资源和所述通信资源的情况将所述混合边缘服务器的最优请求调度路径的问题划分为混合整数非线性规划模型MINLP的子问题,其中,所述混合边缘服务器的最优请求调度路径的问题用于确定在满足在所述通信网络中的总通信延迟最小且处理的通信请求数量最多时,所述混合边缘服务器的放置节点以及用于处理所述通信请求的目标服务器,所述子问题包括以下任意一种:
计算资源充足且通信资源充足的问题、计算资源不足且通信资源充足的问题、计算资源充足且通信资源不足的问题,以及计算资源不足且通信资源不足的问题;
建模模块,用于分别根据所述子问题建立MINLP模型;
转化模块,用于将所述MINLP模型转化为MILP方程;
求解模块,用于对所述MILP方程进行求解,得到所述混合边缘服务器的放置节点以及用于处理所述通信请求的目标服务器;
所述建模模块,用于当所述计算资源充足且所述通信资源充足的情况下,根据所述子问题建立MINLP模型如下:
s.t.
i,j∈{1,2,…,n}
其中,n为接入点的总数、i以及j为接入点索引、πi为AP vi与本地用户请求之间的固定通信延迟,AP vi为第i个接入点的混合边缘服务器,θi为AP vi本地的用户请求数,m为混合边缘服务器的总数、ξi,j为请求从AP vi调度到AP vj的通信延迟,AP vj为第j个接入点的混合边缘服务器,yi,j为从AP vi调度到本地有边缘服务器的AP vj的请求数量,xi为关于AP vi附近是否有混合边缘服务器的示性函数值,β为接入点附近的私有请求比率,α为混合边缘服务器中的私有资源比率,K为混合边缘服务器的计算能力,W为混合边缘服务器的通信能力。
6.根据权利要求5所述的装置,其特征在于,所述建模模块,用于当所述计算资源不足且所述通信资源充足的情况下,根据所述子问题建立MINLP模型如下:
i,j∈{1,2,…,n}
其中,i以及j为接入点索引、n为接入点的总数、λ为所述通信网络中任何混合边缘服务器和数据中心云之间的通信延迟,ζi为从AP vi卸载到数据中心云的请求数量,πi为AP vi与本地用户请求之间的固定通信延迟,θi为AP vi本地的用户请求数,ξi,j为请求从AP vi调度到AP vj的通信延迟,yi,j为从AP vi调度到本地有边缘服务器的AP vj的请求数量,m为混合边缘服务器的总数,xi为关于AP vi附近是否有混合边缘服务器的示性函数值,β为接入点附近的私有请求比率,α为混合边缘服务器中的私有资源比率,K为混合边缘服务器的计算能力,W为混合边缘服务器的通信能力,AP vi为第i个接入点的混合边缘服务器,AP vj为第j个接入点的混合边缘服务器。
7.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至4任意一项所述的混合边缘计算的请求调度方法。
8.一种非暂态计算机可读存储介质,其特征在于,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令用于使所述计算机执行权利要求1至4任意一项所述的混合边缘计算的请求调度方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910766489.6A CN110287035B (zh) | 2019-08-20 | 2019-08-20 | 混合边缘计算的请求调度方法、装置、设备及存储介质 |
US16/887,930 US10866836B1 (en) | 2019-08-20 | 2020-05-29 | Method, apparatus, device and storage medium for request scheduling of hybrid edge computing |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910766489.6A CN110287035B (zh) | 2019-08-20 | 2019-08-20 | 混合边缘计算的请求调度方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110287035A CN110287035A (zh) | 2019-09-27 |
CN110287035B true CN110287035B (zh) | 2019-12-13 |
Family
ID=68025180
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910766489.6A Active CN110287035B (zh) | 2019-08-20 | 2019-08-20 | 混合边缘计算的请求调度方法、装置、设备及存储介质 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10866836B1 (zh) |
CN (1) | CN110287035B (zh) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112995289B (zh) * | 2021-02-04 | 2022-05-17 | 天津理工大学 | 一种基于非支配排序遗传策略的车联网多目标计算任务卸载调度方法 |
CN113015217B (zh) * | 2021-02-07 | 2022-05-20 | 重庆邮电大学 | 一种基于边云协同低成本的在线多功能业务的计算卸载方法 |
CN112896240B (zh) * | 2021-03-17 | 2022-04-22 | 北京交通大学 | 基于边缘计算的多传感器列车定位方法 |
CN113176936B (zh) * | 2021-05-11 | 2022-11-11 | 北京邮电大学 | QoE感知的分布式边缘任务调度和资源管理方法及系统 |
CN113286329B (zh) * | 2021-05-19 | 2022-12-09 | 南京邮电大学 | 基于移动边缘计算的通信和计算资源联合优化方法 |
US11201794B1 (en) * | 2021-06-04 | 2021-12-14 | National University Of Defense Technology | Edge federation system for an integrated service provisioning model and method thereof |
CN114301910B (zh) * | 2021-12-06 | 2023-05-26 | 重庆邮电大学 | 一种物联网环境下的云边协同计算任务卸载方法 |
CN115225496A (zh) * | 2022-06-28 | 2022-10-21 | 重庆锦禹云能源科技有限公司 | 一种基于边缘计算环境的移动感知服务卸载容错方法 |
TWI821038B (zh) * | 2022-11-22 | 2023-11-01 | 財團法人工業技術研究院 | 運算工作分派方法及應用其之終端電子裝置與運算系統 |
CN116170517B (zh) * | 2023-04-25 | 2023-06-27 | 中国人民解放军军事科学院系统工程研究院 | 一种基于优先级的水流态云边协同数据卸载方法 |
CN117132718B (zh) * | 2023-10-26 | 2023-12-26 | 环球数科集团有限公司 | 一种基于多模态大模型的景区虚拟模型构建系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108110804A (zh) * | 2018-01-25 | 2018-06-01 | 深圳供电局有限公司 | 一种含抽水蓄能机组的电网优化调度方法 |
CN108737569A (zh) * | 2018-06-22 | 2018-11-02 | 浙江大学 | 一种面向移动边缘计算环境的服务选择方法 |
CN109819030A (zh) * | 2019-01-22 | 2019-05-28 | 西北大学 | 一种基于边缘计算的数据资源预先调度方法 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013131042A1 (en) * | 2012-03-01 | 2013-09-06 | The Trustees Of Princeton University | Processes for producing synthetic hydrocarbons from coal, biomass, and natural gas |
US20160147712A1 (en) * | 2013-07-30 | 2016-05-26 | Bigwood Technology, Inc. | Dynamical methods for solving mixed-integer optimization problems |
US10310458B2 (en) * | 2015-12-22 | 2019-06-04 | Schneider Electric Software, Llc | Process optimization by grouping mixed integer nonlinear programming constraints |
US9606964B1 (en) * | 2015-12-30 | 2017-03-28 | International Business Machines Corporation | Visual modeller for mathematical optimization |
US11374409B2 (en) * | 2017-04-03 | 2022-06-28 | Savant Technologies Llc | Power system load flexibility forecasting |
US20190007258A1 (en) * | 2017-06-29 | 2019-01-03 | Cisco Technology, Inc. | Workload placement and resource allocation for media production data center |
US20190120640A1 (en) * | 2017-10-19 | 2019-04-25 | rideOS | Autonomous vehicle routing |
US11231715B2 (en) * | 2018-05-22 | 2022-01-25 | King Fahd University Of Petroleum And Minerals | Method and system for controlling a vehicle |
US10979531B2 (en) * | 2019-01-31 | 2021-04-13 | International Business Machines Corporation | Pessimistic scheduling for topology optimized workload placement |
-
2019
- 2019-08-20 CN CN201910766489.6A patent/CN110287035B/zh active Active
-
2020
- 2020-05-29 US US16/887,930 patent/US10866836B1/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108110804A (zh) * | 2018-01-25 | 2018-06-01 | 深圳供电局有限公司 | 一种含抽水蓄能机组的电网优化调度方法 |
CN108737569A (zh) * | 2018-06-22 | 2018-11-02 | 浙江大学 | 一种面向移动边缘计算环境的服务选择方法 |
CN109819030A (zh) * | 2019-01-22 | 2019-05-28 | 西北大学 | 一种基于边缘计算的数据资源预先调度方法 |
Also Published As
Publication number | Publication date |
---|---|
US10866836B1 (en) | 2020-12-15 |
CN110287035A (zh) | 2019-09-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110287035B (zh) | 混合边缘计算的请求调度方法、装置、设备及存储介质 | |
Wang et al. | Multi-agent imitation learning for pervasive edge computing: A decentralized computation offloading algorithm | |
Gasmi et al. | A survey on computation offloading and service placement in fog computing-based IoT | |
Ndikumana et al. | Joint communication, computation, caching, and control in big data multi-access edge computing | |
Tran et al. | Task placement on fog computing made efficient for IoT application provision | |
Zhou et al. | BEGIN: Big data enabled energy-efficient vehicular edge computing | |
Mseddi et al. | Joint container placement and task provisioning in dynamic fog computing | |
Fan et al. | Cost aware cloudlet placement for big data processing at the edge | |
Bitam et al. | Its-cloud: Cloud computing for intelligent transportation system | |
CN105471759A (zh) | 数据中心的网络流量调度方法和装置 | |
CN109947574B (zh) | 一种基于雾网络的车辆大数据计算卸载方法 | |
Martinez et al. | Scalable design and dimensioning of fog-computing infrastructure to support latency-sensitive IoT applications | |
KR102470712B1 (ko) | 피처 엔지니어링 오케스트레이션 방법 및 장치 | |
CN114500521A (zh) | 一种算力调度方法、装置、调度设备、系统和存储介质 | |
Meneguette et al. | A cooperative and adaptive resource scheduling for vehicular cloud | |
CN113259147B (zh) | 网元管理方法、装置、计算机设备、介质 | |
Shukla et al. | Software-defined network and cloud-edge collaboration for smart and connected vehicles | |
Yang et al. | EBI-PAI: Toward an efficient edge-based IoT platform for artificial intelligence | |
Kovalenko et al. | Robust resource allocation using edge computing for vehicle to infrastructure (v2i) networks | |
CN115134371A (zh) | 包含边缘网络算力资源的调度方法、系统、设备及介质 | |
Dustdar et al. | Towards distributed edge-based systems | |
Baresi et al. | PAPS: A serverless platform for edge computing infrastructures | |
CN113010317B (zh) | 联合服务部署与任务卸载方法、装置、计算机设备及介质 | |
Ma et al. | Mobility-aware delay-sensitive service provisioning for mobile edge computing | |
Laroui et al. | Virtual mobile edge computing based on IoT devices resources in smart cities |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |