CN114827142B - 一种确保容器化边缘服务请求实时性的调度方法 - Google Patents
一种确保容器化边缘服务请求实时性的调度方法 Download PDFInfo
- Publication number
- CN114827142B CN114827142B CN202210374826.9A CN202210374826A CN114827142B CN 114827142 B CN114827142 B CN 114827142B CN 202210374826 A CN202210374826 A CN 202210374826A CN 114827142 B CN114827142 B CN 114827142B
- Authority
- CN
- China
- Prior art keywords
- request
- service
- resource
- edge
- algorithm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
- H04L67/104—Peer-to-peer [P2P] networks
- H04L67/1074—Peer-to-peer [P2P] networks for supporting data block transmission mechanisms
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
一种确保容器化边缘服务请求实时性的调度方法,包括:(1)构建以减少服务的截止期错过率和有限开销为条件的最优化问题;(2)建立一个离线模型;(3)提出一种基于的轻量级在线调度算法,以快速提供请求级的执行计划;(4)提出一种瓶颈资源感知的渐进资源分配机制,提高自动扩展周期中的资源效率;(5)提出一个提供解决方案的算法,利用启发式算法在短时间内给出了一个次优但可接受的解决方案。本发明显著降低了请求截止期错失率,同时产生的开销是可接受的。
Description
技术领域
本发明涉及容器化边缘服务领域,具体地,涉及确保容器化边缘服务的实时性的调度方法。
背景技术
K8s是一个容器编排框架,用于管理云平台中多个主机上的容器化的应用,协调集群上的容器化工作负载。
容器由于其隔离和易于扩展的特性,已经成为边缘计算平台的流行技术。虽然K8s等容器编排框架为云基础设施提供了高可靠的服务,但确保容器边缘系统的实时服务仍然是一个挑战。
许多边缘服务都是单线程的,就像那些基于深度神经网络的服务一样。接下来的请求可以通过分配的资源利用率来执行,但当请求堆积时,将会遭受很高的等待延迟。然而,K8s只确保这个资源利用率低于阈值,而不保证请求的截止期错失率。K8s是为大规模分布式云系统设计的,其主要关注的是稳定性。较短的同步周期会导致不可靠的资源度量值和副本数的波动,这通常是不可接受的。因此,由于不匹配的时间尺度,请求可能会不断地错过截止期。K8s的自动标量器由于其高同步间隔而无法正确估计适当的资源。
问题和根本原因主要有两个:问题1):请求可能不断超时,但是度量监视器几乎不能发现这些超时的请求。问题2):当前K8s自动扩展机制的资源利用率较差。对于问题1):传统的基于模型的边缘系统和K8s的工作需要大量的离线分析,因此很难适应高度动态的上下文变化;对于问题2):现有的相关调度器通常以请求无意识方式工作,并以粗粒度(例如,副本数、CPU核)分配资源,这很难实现很高的资源利用率。
发明内容
本发明克服了现有技术的上述缺点,提出一种确保容器化边缘服务请求实时性的调度方法,包括以下步骤:
步骤1:构建以减少服务的截止期错失率和有限开销为条件的最优化问题。
步骤2:建立一个离线模型,包括默认可切换的工作负载模型和延迟模型。
步骤3:提出一种基于步骤2的轻量级在线调度算法,以快速提供请求级的执行计划。
步骤4:提出一种瓶颈资源感知的渐进资源分配机制,该机制提高自动扩展周期中的资源效率。
步骤5:提出一个提供解决方案的算法,该方法利用启发式算法在短时间内给出了一个次优但可接受的解决方案,本发明选择使用PSO作为决策算法。
具体地,步骤1包括:
步骤1.1:构造请求延迟,公式如下:
步骤1.2:构造服务的截止期错失率,公式如下:
式中Reqk表示sk的请求集,Tk表示一个服务的每个请求的截止期,我们的目标是尽量减少服务的截止期错失率(R)。
步骤1.3:构建制定和执行自动扩缩容的策略如下:
式中δkl是一个变量,表示如果rkl将被转发到执行(δkl=1)或(δkl=0).λkl是rkl的弹性扩缩容方案,其中包含两个参数:(1)sk,在每个节点|Cik|的复制数;(2)每个节点Q(Cikm)上的容器的资源配额。rkl表示Rk的一个请求,sk表示一个服务,Cik表示sk在节点i上的容器集,Cikm表示属于Cik的特定容器,S表示边缘服务的集合。
步骤1.4:将实时保证问题表述为问题P即查找Δ,Λ的值。
式中pri(sk)表示sk的优先级,Q(Cikm)表示分配给Cikm资源配额的集合,V表示网络中的节点的集合,μk反映了用户对具有不同优先级的服务的相对重要性。它提供了一个控制旋钮,由边缘操作员或用户进行调整,以优化不同的应用程序和场景。特别是,我们可以减少μ,以确保高优先级服务更快地响应,反之亦然。约束C1表示服务请求可以转发到执行或保留。约束C2确保节点vi在时间t内计算资源(例如,CPU和内存)不能超过资源容量
具体地,所述步骤2包括:
步骤2.1:根据容器化的边缘服务的请求率,将服务的工作负载分为长期服务和短期服务两种类型。该方法默认将所有服务的阈值设置为1分钟/请求,用户可以自由地更改阈值。
步骤2.2:对于长期服务:该方法提出了一个增量优化算法。该算法实现如下:当一个新服务被标记为长期服务时,该方法通过数据分布进行快速拟合,并利用成熟的工具(Fitter、fit、Gonum)选择最优的一个。随着请求的不断出现,该方法会周期性地选择在本地或云端运行更精细的拟合。
步骤2.3:对于短期服务:为了权衡预测时间敏感度和错误率,该方法实现了三个具有特定处理时间、错误率和资源占用的工作负载模型,包括:(1)一个统计模型,该模型将几个先前样本的平均值/最大值作为预测的工作量;(2)一个传统的ARIMA模型;(3)一个LSTM模型。
步骤2.4:对于权利要求1中的延迟模型本发明使用树外回归作为该方法的默认解决方案,并且该方法会定期更新或重新选择服务的延迟模型。
具体地,所述步骤3包括:
步骤3.1:先将具有相同优先级的请求分组在一起。
步骤3.2:计算每一组的公平性指数,并相应地对该组进行分类。该方法聚合已排序的组,并得到分配序列。
我们重新定义公平性指数如下:
其中xk的工作负载是和xk成比例的,xk典型的定义如下:
步骤3.3:迭代每个优先级组中的每个请求,以边缘直接处理、转发到云端处理、添加到队列等待处理、丢弃请求的顺序生成执行计划。具体来说,将检查请求所属的服务是否已分配给一个工作节点。
步骤3.4:当请求可以满足其截止期时,它将被在边缘直接处理。否则,尝试将请求转发到云端处理,因为转发到云端处理不需要对本地节点进行调整。
步骤3.5:如果当前的网络条件较差或传输数据太大,尝试将请求添加到队列等待处理。
步骤3.6:如果添加到队列等待处理不可行,那么将评估扩缩容服务的可行性。
步骤3.7:如果上述方法仍然不能执行请求以满足其截止时间,该请求将被拒绝。
具体地,所述步骤4包括:
步骤4.1:提出一种渐进的瓶颈度量建模方法,该方法测量延迟和资源之间的梯度。将资源划分为不同的级别,在此之后,该方法合并具有相似值的级别,并得到最终序列。
步骤4.2:提出一种可扩展的资源分配机制,该机制是以一种感知瓶颈的方式搜索资源分配空间,并利用离线模型获得反馈。
具体地,步骤5包括:对于请求执行计划的决策,该方法利用启发式算法在短时间内给出了一个次优但可接受的解决方案。目前有多种算法可供选择,如差分进化(DE)、遗传算法(GA)、模拟退火(SA)、免疫算法(IA)、粒子群优化(PSO)等,PSO在MAE、处理时间和内存占用等方面优于其他算法,所以该方法选择使用PSO作为决策者。
优选地,步骤1.4所述的时间t内计算资源是CPU或内存。
优选地,步骤2.2所述的成熟的工具是Fitter或fit或Gonum。
优选地,步骤5所述的启发式算法采用粒子群优化算法PSO。
本发明的优点:显著降低了请求截止期错失率,同时产生的开销是可接受的。
附图说明
图1是本发明的流程图。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变化和改进。这些都属于本发明的保护范围。
许多边缘服务都是单线程的,就像那些基于深度神经网络的服务一样。接下来的请求可以通过分配的资源利用率来执行,但当请求堆积时,将会遭受很高的等待延迟。然而,K8s只知道这个资源利用率低于阈值,而不担心请求的高最后期限错失率。K8s是为大规模分布式云系统设计的,其主要关注的是稳定性。较短的同步周期会导致不可靠的资源度量值和副本数的波动,这通常是不可接受的。因此,由于不匹配的时间尺度,请求可能会不断地错过截止期。K8s自动标量器由于其高同步间隔而无法正确估计适当的资源。
本实施例提出了K8s系统的确保容器化边缘服务请求实时性的调度方法的解决方案,该解决方案如下:
步骤1:构建以减少服务的截止期错失率和有限开销为条件的最优化问题。
步骤2:建立一个离线模型,包括默认可切换的工作负载模型和延迟模型。
步骤3:提出一种基于步骤2的轻量级在线调度算法,以快速提供请求级的执行计划。
步骤4:提出一种瓶颈资源感知的渐进资源分配机制,该机制提高自动扩展周期中的资源效率。
步骤5:提出一个提供解决方案的算法,该方法利用启发式算法在短时间内给出了一个次优但可接受的解决方案,本发明选择使用PSO作为决策算法。
步骤6:将步骤5得到的解决方案作为扩展组件部署。
首先,步骤1包括如下:
步骤1.1:构造服务的请求延迟,公式如下:
步骤1.2:构造服务的截止期错失率,公式如下:
式中Reqk表示sk的请求集,Tk表示一个服务的每个请求的截止期,我们的目标是尽量减少服务的截止期错失率(R)。
步骤1.3:构建制定和执行自动扩缩容的策略如下:
式中δkl是一个变量,表示如果rkl将被转发到执行(δkl=1)或(δkl=0).λkl是rkl的弹性扩缩容方案,其中包含两个参数:(1)sk,在每个节点|Cik|的复制数;(2)每个节点Q(Cikm)上的容器的资源配额。rkl表示Rk的一个请求,sk表示一个服务,Cik表示sk在节点i上的容器集,Cikm表示属于Cik的特定容器,S表示边缘服务的集合。
步骤1.4:将实时保证问题表述为问题P即查找Δ,Λ的值。
式中pri(sk)表示sk的优先级,Q(Cikm)表示分配给Cikm资源配额的集合,V表示网络中的节点的集合,μk反映了用户对具有不同优先级的服务的相对重要性。它提供了一个控制旋钮,由边缘操作员或用户进行调整,以优化不同的应用程序和场景。特别是,我们可以减少μ,以确保高优先级服务更快地响应,反之亦然。约束C1表示服务请求可以转发到执行或保留。约束C2确保节点vi在时间t内计算资源(例如,CPU和内存)不能超过资源容量
步骤2包括:
步骤2.1:根据容器化的边缘服务的请求率,将服务的工作负载分为长期服务和短期服务两种类型。该方法默认将所有服务的阈值设置为1分钟/请求,用户可以自由地更改阈值。
步骤2.2:对于长期服务:提出了一个增量优化算法。该算法实现如下:当一个新服务被标记为长期服务时,该方法通过数据分布进行快速拟合,并利用成熟的工具(Fitter、fit、Gonum)选择最优的一个。随着请求的不断出现,该方法会周期性地选择在本地或云端运行更精细的拟合。
步骤2.3:对于短期服务:提出了三个具有特定处理时间、错误率和资源占用的工作负载模型,包括:(1)一个统计模型,该模型将几个先前样本的平均值/最大值作为预测的工作量;(2)一个传统的ARIMA模型;(3)一个LSTM模型。
步骤2.4:对于步骤2中延迟模型本发明使用树外回归作为该方法的默认解决方案,并且该方法会定期更新或重新选择服务的延迟模型。
步骤3包括:
步骤3.1:先将具有相同优先级的请求分组在一起。
步骤3.2:计算每一组的公平性指数,并相应地对该组进行分类。聚合已排序的组,并得到分配序列,公平性指数计算公式如下:
其中xk的定义如下:
步骤3.3:迭代每个优先级组中的每个请求,以边缘直接处理、转发到云端处理、添加到队列等待处理、丢弃请求的顺序生成执行计划。具体来说,将检查请求所属的服务是否已分配给一个工作节点。
步骤3.4:当请求可以满足其截止期时,它将被在边缘直接处理。否则,首先尝试转发到云端处理,因为转发到云端处理不需要对本地节点进行调整。
步骤3.5:如果当前的网络条件较差或传输数据太大,会将请求添加到队列等待处理。
步骤3.6:如果添加到队列等待处理不可行,那么将评估是否进行扩缩容服务。
步骤3.7:如果上述方法仍然不能执行请求以满足其截止期,该请求将被拒绝。
步骤4:提出一种瓶颈资源感知的渐进资源分配机制,以提高自动扩展周期中的资源效率。包括:
步骤4.1:提出一种渐进的瓶颈度量建模方法,该方法测量延迟和资源之间的梯度。将资源划分为不同的级别,在此之后,该方法合并具有相似值的级别,并得到最终序列。
步骤4.2:提出一种可扩展的资源分配机制,该机制是以一种感知瓶颈的方式搜索资源分配空间,并利用离线模型获得反馈。
步骤5包括:对于请求执行计划的决策,该方法利用启发式算法在短时间内给出了一个次优但可接受的解决方案。目前有多种算法可供选择,如差分进化(DE)、遗传算法(GA)、模拟退火(SA)、免疫算法(IA)、粒子群优化(PSO)等,PSO在平均绝对无差(MAE)、处理时间和内存占用等方面优于其他算法,所以该方法选择使用PSO作为决策者。
步骤6包括:将已注册服务的所有请求接收到请求队列中,并等待本发明的执行计划。本发明返回的结果包括服务级别和请求级别。服务级别由服务分配计划、复制副本编号和资源配额组成。请求级别包括请求执行计划,即边缘直接处理、转发到云端处理、添加到队列等待处理、丢弃请求,结果将被发送到负责执行的相应模块。
然后,本发明构建了一个测试台,该平台安装了三个具有不同延迟敏感度的容器服务,以进行具体评估。此外,本发明采用阿里巴巴和Twitter的真实数据跟踪进行大规模仿真。大量实验证明,在CESs服务中,该方法显著降低了请求截止期错失率。
本发明以事件驱动的方式工作,具体地说,本发明的调度将由以下三种类型的内置信号触发:
1)请求-到达:每当有一个新的请求到达时。
2)分配资源更改:当典型的资源(例如,CPU、内存、带宽等时)变化很大(由用户定义的阈值决定)。
3)时间过期:用户可以定义定时器,定期执行本发明的调度工作;当定时器过期时,信号将触发本发明的调度工作。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变化或修改,这并不影响本发明的实质内容。在不冲突的情况下,本申请的实施例和实施例中的特征可以任意相互组合。
Claims (3)
1.一种确保容器化边缘服务请求实时性的调度方法,包括以下步骤:
步骤1:构建以减少服务的截止期错失率和有限开销为条件的最优化问题;
步骤1.1:构造请求延迟,公式如下:
步骤1.2:构造服务的截止期错失率,公式如下:
式中Reqk表示sk的请求集,sk表示一个服务,Tk表示一个服务的每个请求的截止期,目标是尽量减少服务的截止期错失率(R);
步骤1.3:构建制定和执行自动扩缩容的策略如下:
式中δkl是一个变量,表示如果rkl将被转发到执行(δkl=1)或(δkl=0).λkl是rkl的弹性扩缩容方案,其中包含两个参数:(1)sk,在每个节点|Cik|的复制数;(2)每个节点Q(Cikm)上的容器的资源配额;rkl表示Rk的一个请求,Cik表示sk在节点i上的容器集,Cikm表示属于Cik的特定容器,S表示边缘服务的集合;
步骤1.4:将实时保证问题表述为问题P即查找Δ,Λ的值;
C2:式中pri(sk)表示sk的优先级,Q(Cikm)表示分配给Cikm资源配额的集合,V表示网络中的节点的集合,μk反映了用户对具有不同优先级的服务的相对重要性;它提供了一个控制旋钮,由边缘操作员或用户进行调整,以优化不同的应用程序和场景;减少μ,以确保高优先级服务更快地响应,反之亦然;约束C1表示服务请求可以转发到执行或保留;约束C2确保节点vi在时间t内计算资源不能超过资源容量
步骤2:建立一个离线模型,包括默认可切换的工作负载模型和延迟模型;
步骤2.1:根据容器化的边缘服务的请求率,将服务的工作负载分为长期服务和短期服务两种类型;
步骤2.2:对于长期服务:提出了一个增量优化算法:当一个新服务被标记为长期服务时,通过数据分布进行快速拟合,并利用成熟的工具选择最优的一个;随着请求的不断出现,周期性地选择在本地或云端运行更精细的拟合;
步骤2.3:对于短期服务:为了权衡预测时间敏感度和错误率,实现了三个具有特定处理时间、错误率和资源占用的工作负载模型,包括:一个统计模型,该模型将几个先前样本的平均值/最大值作为预测的工作量;一个传统的ARIMA模型;一个LSTM模型;
步骤2.4:对于权利要求1中的延迟模型本发明使用树外回归作为该方法的默认解决方案,并且该方法会定期更新或重新选择服务的延迟模型;
步骤3:提出一种基于步骤2的轻量级在线调度算法,以快速提供请求级的执行计划;
步骤3.1:先将具有相同优先级的请求分组在一起;
步骤3.2:计算每一组的公平性指数,并相应地对该组进行分类;聚合已排序的组,并得到分配序列;
重新定义公平性指数如下:
其中xk的工作负载是和xk成比例的,xk典型的定义如下:
步骤3.3:迭代每个优先级组中的每个请求,以边缘直接处理、转发到云端处理、添加到队列等待处理、丢弃请求的顺序生成执行计划;具体来说,将检查请求所属的服务是否已分配给一个工作节点;
步骤3.4:当请求能满足其截止期时,将被在边缘直接处理;否则,尝试将请求转发到云端处理,因为转发到云端处理不需要对本地节点进行调整;
步骤3.5:如果当前的网络条件较差或传输数据太大,尝试将请求添加到队列等待处理;
步骤3.6:如果添加到队列等待处理不可行,那么将评估扩缩容服务的可行性;
步骤3.7:如果上述方法仍然不能执行请求以满足其截止时间,该请求将被拒绝;
步骤4:提出一种瓶颈资源感知的渐进资源分配机制,提高自动扩展周期中的资源效率;
步骤4.1:提出一种渐进的瓶颈度量建模方法,测量延迟和资源之间的梯度;将资源划分为不同的级别,在此之后,合并具有相似值的级别,并得到最终序列;
步骤4.2:提出一种可扩展的资源分配机制,以一种感知瓶颈的方式搜索资源分配空间,并利用离线模型获得反馈;
步骤5:提出一个提供解决方案的算法,利用启发式算法在短时间内给出了一个次优但可接受的解决方案,所述的启发式算法采用粒子群优化算法PSO。
2.根据权利要求1中的一种确保容器化边缘服务请求实时性的调度方法,其特征在于,步骤1.4所述的时间t内计算资源是CPU或内存。
3.根据权利要求1中的一种确保容器化边缘服务请求实时性的调度方法,其特征在于,步骤2.2所述的成熟的工具是Fitter或fit或Gonum。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210374826.9A CN114827142B (zh) | 2022-04-11 | 2022-04-11 | 一种确保容器化边缘服务请求实时性的调度方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210374826.9A CN114827142B (zh) | 2022-04-11 | 2022-04-11 | 一种确保容器化边缘服务请求实时性的调度方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114827142A CN114827142A (zh) | 2022-07-29 |
CN114827142B true CN114827142B (zh) | 2023-02-28 |
Family
ID=82535532
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210374826.9A Active CN114827142B (zh) | 2022-04-11 | 2022-04-11 | 一种确保容器化边缘服务请求实时性的调度方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114827142B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101340095A (zh) * | 2008-05-19 | 2009-01-07 | 安徽中兴继远信息技术有限公司 | 用于配电网的无功分层自适应控制方法 |
CN101377372A (zh) * | 2007-08-31 | 2009-03-04 | 财团法人工业技术研究院 | 多品温货物的陆空运送系统及方法 |
CN109815009A (zh) * | 2018-12-28 | 2019-05-28 | 周口师范学院 | 一种csp下的资源调度与优化方法 |
CN111491006A (zh) * | 2020-03-03 | 2020-08-04 | 天津大学 | 负载感知的云计算资源弹性分配系统及方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109684083B (zh) * | 2018-12-11 | 2020-08-28 | 北京工业大学 | 一种面向边缘-云异构下的多级事务调度分配策略 |
CN113778648B (zh) * | 2021-08-31 | 2023-07-11 | 重庆理工大学 | 分层边缘计算环境中基于深度强化学习的任务调度方法 |
-
2022
- 2022-04-11 CN CN202210374826.9A patent/CN114827142B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101377372A (zh) * | 2007-08-31 | 2009-03-04 | 财团法人工业技术研究院 | 多品温货物的陆空运送系统及方法 |
CN101340095A (zh) * | 2008-05-19 | 2009-01-07 | 安徽中兴继远信息技术有限公司 | 用于配电网的无功分层自适应控制方法 |
CN109815009A (zh) * | 2018-12-28 | 2019-05-28 | 周口师范学院 | 一种csp下的资源调度与优化方法 |
CN111491006A (zh) * | 2020-03-03 | 2020-08-04 | 天津大学 | 负载感知的云计算资源弹性分配系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114827142A (zh) | 2022-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110275758B (zh) | 一种虚拟网络功能智能迁移方法 | |
CN110297699B (zh) | 调度方法、调度器、存储介质及系统 | |
Li et al. | Efficient online coflow routing and scheduling | |
CN109617826B (zh) | 一种基于布谷鸟搜索的storm动态负载均衡方法 | |
CN104580396B (zh) | 一种任务调度方法、节点及系统 | |
CN112039965B (zh) | 一种时间敏感网络中的多任务卸载方法及系统 | |
CN103309738B (zh) | 用户作业调度方法及装置 | |
CN108268319A (zh) | 任务调度方法、装置及系统 | |
CN113033800A (zh) | 分布式深度学习方法、装置、参数服务器及主工作节点 | |
Gomathi et al. | An efficient data packet scheduling schemes in wireless sensor networks | |
CN111597043A (zh) | 一种全场景边缘计算方法、装置及系统 | |
CN116700993B (zh) | 一种负载均衡方法、装置、设备及可读存储介质 | |
CN112153153B (zh) | 一种协调分布式的网内资源调度方法及系统、存储介质 | |
Wen et al. | Load balancing job assignment for cluster-based cloud computing | |
CN108737268B (zh) | 软件定义工业物联网资源调度方法 | |
Mostafa | Cooperative fog communications using a multi-level load balancing | |
Cao et al. | A deep reinforcement learning approach to multi-component job scheduling in edge computing | |
CN112148381A (zh) | 一种基于软件定义的边缘计算优先级卸载决策方法及系统 | |
CN109298932B (zh) | 基于OpenFlow的资源调度方法、调度器及系统 | |
CN116302578B (zh) | 一种QoS约束的流应用延迟确保方法及系统 | |
CN114827142B (zh) | 一种确保容器化边缘服务请求实时性的调度方法 | |
CN116302404B (zh) | 面向资源解耦合数据中心的服务器无感知计算调度方法 | |
CN113656494B (zh) | 参数服务器的同步方法、系统及可读存储介质 | |
Wu | Joint coflow optimization for data center networks | |
Kumarasinghe et al. | Visiri-distributed complex event processing system for handling large number of queries |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |