CN113722076B - 基于QoS和能耗协同优化的实时工作流调度方法 - Google Patents

基于QoS和能耗协同优化的实时工作流调度方法 Download PDF

Info

Publication number
CN113722076B
CN113722076B CN202111274602.2A CN202111274602A CN113722076B CN 113722076 B CN113722076 B CN 113722076B CN 202111274602 A CN202111274602 A CN 202111274602A CN 113722076 B CN113722076 B CN 113722076B
Authority
CN
China
Prior art keywords
task
time
workflow
virtual machine
energy consumption
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111274602.2A
Other languages
English (en)
Other versions
CN113722076A (zh
Inventor
刘发贵
梁桥友
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN202111274602.2A priority Critical patent/CN113722076B/zh
Publication of CN113722076A publication Critical patent/CN113722076A/zh
Application granted granted Critical
Publication of CN113722076B publication Critical patent/CN113722076B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/48Program initiating; Program switching, e.g. by interrupt
    • G06F9/4806Task transfer initiation or dispatching
    • G06F9/4843Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
    • G06F9/4881Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5072Grid computing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种基于QoS和能耗协同优化的实时工作流调度方法。所述方法包括以下步骤:在随机到达的多个工作流中,计算工作流中各个任务的子截止时间,子截止时间越小的任务的优先级越高,每次调度选择优先级最高的任务进行调度;根据选取的任务,通过计算时间‑能耗效率因子,选择目标虚拟机,完成任务到虚拟机的映射。本发明采用任务子截止时间作为任务优先级高低的依据,并提出时间‑能耗权衡因子作为虚拟机选择依据,既解决了QoS中任务时间约束的问题,也保证了任务随机到达的实时应答,同时也兼顾了能耗问题。

Description

基于QoS和能耗协同优化的实时工作流调度方法
技术领域
本发明属于计算机云计算领域,具体涉及基于QoS和能耗协同优化的实时工作流调度方法。
背景技术
云计算技术的发展为并行应用,特别是科学工作流提供了良好的平台。这些平台通过网络为应用提供大量由高性能的分布式资源构成的资源池,使应用系统能够根据需要获取资源和服务。随着云计算的飞速发展,其规模越来越大,相应的能源消耗也越来越多,对环境的影响也越来越突出,在云计算的发展道路上,能耗问题得到了越来越多的关注。另外,用户可以在按需付费的基础上,基于其所需的服务质量(Quality of Service, QoS)参数的服务水平协议(SLA)来消费这些服务。有效地任务调度机制是影响云计算环境性能和用户满意度的关键因素。 然而,将工作流应用中的任务调度映射到处理机上是个复杂的问题,它不仅要考虑不同处理机的处理能力不同和处理机间的不同的网络通信速率,甚至需要考虑用户定义的 QoS。因此,任务调度问题一直是云计算环境的核心内容,也是人们一直研究的热点。
任务根据有无依赖关系分为独立任务和依赖任务,依赖任务又称为工作流任务。具有依赖关系的任务通常由一个有向无环图(Directed Acyclic Graph, DAG)表示,一个工作流也就是一个DAG图。
目前针对工作流调度的方法可以分为两类。一类是以离线的方式对多个工作流任务进行统一的调度。另一类是以在线的方式对工作流任务进行实时的调度。离线的工作流调度,包括使用传统的多阶段方式和进化算法方式。采用进化算法方式如使用多目标遗传算法的工作流调度方法(Rehman A, Hussain S S, ur Rehman Z, et al. Multi‐objective approach of energy efficient workflow scheduling in cloudenvironments[J]. Concurrency and Computation: Practice and Experience, 2019,31(8): e4949)。但是这样的方法只能适用于多个任务同时或者同一时间段内到达,需要事先获取全部的任务,且调度过程中不能有新的任务参与调度。然而,任务的提交到达是实时的、有序的和有QoS要求的。此外在线的方式对工作流进行调度就针对任务提交的实时性和QoS要求进行调度(Arabnejad V, Bubendorfer K, Ng B. Dynamic multi-workflowscheduling: A deadline and cost-aware approach for commercial clouds[J].Future Generation Computer Systems, 2019, 100: 98-108.)。但是这类算法,没有考虑到能耗问题。
发明内容
本发明的目的在于提供一种基于QoS和能耗协同优化的实时工作流调度方法,将基于QoS和能耗协同优化与在线调度的方式相结合,用以解决现有方法对具有实时、用户QoS要求和数量规模大的工作流任务调度时性能不稳定以及能耗高的问题。任务调度中服务质量QoS主要是指时间约束,即为工作流任务设置截止时间。
本发明的目的至少通过如下技术方案之一实现。
基于QoS和能耗协同优化的实时工作流调度方法,包括以下步骤:
S1、在随机到达的多个工作流中,计算工作流中各个任务的子截止时间,子截止时间越小的任务的优先级越高,每次调度选择优先级最高的任务进行调度;
S2、根据从步骤S1中选取的任务,通过计算时间-能耗效率因子,选择目标虚拟机,完成任务到虚拟机的映射;具体包括如下步骤:
S2.1、构建系统能耗模型,采用基于系统整体构建任务能耗模型;
所述系统能耗模型中,目标环境系统为云计算数据中心,采用
Figure DEST_PATH_IMAGE001
表示,其中H表示物理主机的集合
Figure DEST_PATH_IMAGE002
;VM表示虚拟机的集合,
Figure DEST_PATH_IMAGE003
,虚拟机运行于物理主机上,如果第
Figure DEST_PATH_IMAGE004
个虚拟机
Figure DEST_PATH_IMAGE005
运行在第
Figure DEST_PATH_IMAGE006
个物理主机
Figure DEST_PATH_IMAGE007
上,采用
Figure DEST_PATH_IMAGE008
表示;
针对物理主机能耗模型,主要根据CPU利用率,采用线性功耗模型,其计算如下:
Figure DEST_PATH_IMAGE009
(1)
其中,
Figure DEST_PATH_IMAGE010
Figure DEST_PATH_IMAGE011
分别表示第
Figure DEST_PATH_IMAGE012
个物理主机
Figure DEST_PATH_IMAGE013
的空闲功耗和满载功耗,
Figure DEST_PATH_IMAGE014
为第
Figure DEST_PATH_IMAGE015
个物理主机
Figure 325176DEST_PATH_IMAGE016
的CPU利用率,
Figure DEST_PATH_IMAGE017
是第
Figure DEST_PATH_IMAGE018
个物理主机
Figure DEST_PATH_IMAGE019
在CPU利用 率为
Figure DEST_PATH_IMAGE020
时的功耗;
由于工作负载的可变性,CPU的利用率可能会随着时间的推移而改变,因此CPU利 用率是关于时间的函数,可以表示为
Figure DEST_PATH_IMAGE021
Figure DEST_PATH_IMAGE022
是时间变量,因此,物理主机的总能耗,可 以定义为一段时间内的功率消耗的积分,如下表示:
Figure DEST_PATH_IMAGE023
(2)
其中,x0 、x1分别表示一段时间的起点和终点,
Figure DEST_PATH_IMAGE024
是第
Figure DEST_PATH_IMAGE025
个物理主机
Figure DEST_PATH_IMAGE026
的总 能耗,同时
Figure DEST_PATH_IMAGE027
的计算方式如下:
Figure DEST_PATH_IMAGE028
(3)
其中,
Figure DEST_PATH_IMAGE029
为第
Figure DEST_PATH_IMAGE030
个虚拟机
Figure DEST_PATH_IMAGE031
执行任务时的CPU利用率,由于采用的是线 性功耗模型,结合公式(1)和(3),第
Figure 739906DEST_PATH_IMAGE030
个虚拟机
Figure 940816DEST_PATH_IMAGE031
执行任务时的平均功耗为:
Figure DEST_PATH_IMAGE032
(4)。
S2.2、将从步骤S1中得到的任务,使用步骤S2.1中的任务能耗模型,计算时间-能耗效率权衡因子,选择可调度的目标虚拟机,完成任务到虚拟机的映射。
进一步地,步骤S1包括以下步骤:
S1.1、采用有向无环图(DirectedAcyclicGraph,DAG)表示工作流,并采用自底向上的方式对工作流进行分层;
S1.2、根据最早开始时间和最早完工时间计算工作流中各个任务的子截止时间 (Sub-Deadline,
Figure DEST_PATH_IMAGE033
),子截止时间
Figure 549740DEST_PATH_IMAGE033
越小,该任务的优先级越高。
进一步地,步骤S1.1中,所述工作流包括若干个任务,工作流中的任务具有数据依赖,在任务调度中,通常采用有向无环图(DirectedAcyclicGraph,DAG)来表示工作流;
有向无环图用一个二元组
Figure DEST_PATH_IMAGE034
来表示,其中,T表示所有节点组成的 集合,
Figure DEST_PATH_IMAGE035
,每个节点表示工作流中的一个任务,
Figure DEST_PATH_IMAGE036
Figure DEST_PATH_IMAGE037
是 节点之间有向边的集合,表示工作流中各个任务之间的依赖关系,即对
Figure DEST_PATH_IMAGE038
,任务
Figure DEST_PATH_IMAGE039
执行完成后任务
Figure DEST_PATH_IMAGE040
才能开始执行,
Figure DEST_PATH_IMAGE041
Figure DEST_PATH_IMAGE042
表示在给定的工作流中,任务
Figure 28297DEST_PATH_IMAGE039
的直接前驱任务集合,也称任务
Figure 40640DEST_PATH_IMAGE039
的父任务集合;
Figure DEST_PATH_IMAGE043
表示在给定的工作流中,任务
Figure 3611DEST_PATH_IMAGE039
的直接前驱任务集合,也称任务
Figure 315030DEST_PATH_IMAGE039
的子任务集合;
其中,
Figure DEST_PATH_IMAGE044
表示工作流的入口任务,满足
Figure DEST_PATH_IMAGE045
表示工作流的出口任务,满足
Figure DEST_PATH_IMAGE046
有向无环图中的每一条边的权值表示处于该条边两端的任务
Figure 759192DEST_PATH_IMAGE039
和任务
Figure 67070DEST_PATH_IMAGE040
之间的 通信时间;由于通信时间需要任务
Figure 870334DEST_PATH_IMAGE039
和任务
Figure 378983DEST_PATH_IMAGE040
被执行后才能获得,因此采用平均通信代价
Figure DEST_PATH_IMAGE047
来表示任务间的通信时间;任务
Figure 106897DEST_PATH_IMAGE039
和任务
Figure 274092DEST_PATH_IMAGE040
之间的平均通信时间
Figure 440019DEST_PATH_IMAGE047
具体如下:
Figure DEST_PATH_IMAGE048
(5)
其中,
Figure DEST_PATH_IMAGE049
表示任务
Figure 114144DEST_PATH_IMAGE039
发给任务
Figure 681916DEST_PATH_IMAGE040
的数据总量,
Figure DEST_PATH_IMAGE050
为物理主机之间的平均 带宽即平均数据传输速率;当任务
Figure 978600DEST_PATH_IMAGE039
和任务
Figure 631823DEST_PATH_IMAGE040
被分配到同一个物理机上时,
Figure 912236DEST_PATH_IMAGE047
= 0,这是 因为相对于物理机之间的通信,物理主机内的通信可以忽略;
对于任意的工作流,可以根据所属的各个任务的平行性将工作流分层,以达到同 一层的任务不具有依赖关系;同一层的任务共享层值,任务的层值表示着从出口任务到该 任务的最长路径,用
Figure DEST_PATH_IMAGE051
表示任务
Figure 371731DEST_PATH_IMAGE039
对应的层值,对于出口任务
Figure DEST_PATH_IMAGE052
来说
Figure 567481DEST_PATH_IMAGE053
;对于其它任务来说,其层值计算如下:
Figure DEST_PATH_IMAGE054
(6)
其中,任务
Figure 225776DEST_PATH_IMAGE040
属于任务
Figure 83181DEST_PATH_IMAGE039
的直接后继任务;同一层的任务组成任务层集合
Figure 687862DEST_PATH_IMAGE055
(Task level Set),任务层集合
Figure 363168DEST_PATH_IMAGE055
的定义如下:
Figure DEST_PATH_IMAGE056
(7)
Figure 898972DEST_PATH_IMAGE057
表示层值,其取值范围是[1,
Figure DEST_PATH_IMAGE058
]。
进一步地,在步骤S1.2中,工作流的每个任务的子截止时间的
Figure 126779DEST_PATH_IMAGE033
的计算过程 如下:
首先,为了按时处理完成给定的工作流,一种方法是将工作流的实际截止时间进行划分或分配,采用按层划分,每一层的任务拥有各自的子截止时间,同一层的任务共享子截止时间;
给定的工作流G中,对于任务
Figure 489364DEST_PATH_IMAGE039
来说,计算其最早开始时间EST、最早完工时间ECT 和初始的子截止时间
Figure 136901DEST_PATH_IMAGE059
,具体如下:
Figure DEST_PATH_IMAGE060
(8)
Figure 525114DEST_PATH_IMAGE061
(9)
Figure DEST_PATH_IMAGE062
表示工作流分层后第
Figure 298159DEST_PATH_IMAGE057
层初始的子截止时间,为了计算出工作流 分层后第
Figure 678763DEST_PATH_IMAGE057
层的子截止时间
Figure DEST_PATH_IMAGE063
而定义的中间值。
Figure DEST_PATH_IMAGE064
(10)
其中,
Figure 606241DEST_PATH_IMAGE044
表示工作流中的入口任务;
Figure DEST_PATH_IMAGE065
分别表示任务
Figure 104919DEST_PATH_IMAGE039
、任务
Figure 650694DEST_PATH_IMAGE040
在所有的虚拟机中的执行时间的最小值,具体如下:
Figure DEST_PATH_IMAGE066
(11)
Figure 207445DEST_PATH_IMAGE067
(12)
其中,
Figure DEST_PATH_IMAGE068
表示第k个虚拟机;
Figure 494987DEST_PATH_IMAGE069
表示任务
Figure 166447DEST_PATH_IMAGE039
的指令数;
Figure DEST_PATH_IMAGE070
表示第k个虚拟机
Figure 45409DEST_PATH_IMAGE068
的计算能力;
根据得到的最早开始时间EST、最早完工时间ECT和初始的子截止时间
Figure 818848DEST_PATH_IMAGE059
计算
Figure 967371DEST_PATH_IMAGE033
,其过程如下:
Figure DEST_PATH_IMAGE071
(13)
Figure DEST_PATH_IMAGE072
(14)
其中,
Figure 578260DEST_PATH_IMAGE073
为给定的工作流G的实际截止时间;
Figure DEST_PATH_IMAGE074
是截止时间因子(Deadline Factor)的英文缩写,表示实际截止时间与初始的子截止时间之间的剩余部分,跟初始的子 截止时间之间的比值;公式(13)和公式(14)表示将实际截止时间与初始的子截止时间之间 的剩余部分按比例分配到每层的子截止时间上。
进一步地,步骤S2.1中,任务能耗模型的构建方式如下:
Figure 863574DEST_PATH_IMAGE075
(15)
Figure DEST_PATH_IMAGE076
(16)
Figure 863758DEST_PATH_IMAGE077
(17)
其中,
Figure DEST_PATH_IMAGE078
分 别表示任务
Figure 961945DEST_PATH_IMAGE039
分配给第
Figure 873576DEST_PATH_IMAGE030
个虚拟机
Figure 564845DEST_PATH_IMAGE031
的传输能耗、执行能耗和总能耗;
Figure DEST_PATH_IMAGE079
表示为 数据中心网络通信所需的平均功耗,
Figure 153957DEST_PATH_IMAGE080
是所有空闲虚拟机的集合,K是虚拟机空闲时平 均功耗与执行任务时平均功耗的比值;
公式(16)中,任务执行能耗不仅考虑了载体虚拟机的能耗,同时考虑了其余空闲虚拟机的能耗,这是由于调度的目的是为了云数据中心的整体能耗优化。
进一步地,步骤S2.2 中,可调度的虚拟机指的是空闲虚拟机或任务等待队列为空的虚拟机;
对给定的虚拟机,为其添加一个任务等待队列,当新任务映射到该虚拟机且该虚拟机已有任务在运行,新任务放置于任务等待队列;当运行中的任务完成后,立刻执行任务等待队列的任务;将任务等待队列能放置的任务数设为1,保证任务的实时处理;空闲虚拟机指的是虚拟机上没有任务在运行,处于空载的状态。
进一步地,步骤S2.2 中,时间-能耗权衡因子的计算过程如下:
对于从步骤S1中获得的任务
Figure 905268DEST_PATH_IMAGE039
,选择可调度的第
Figure 773037DEST_PATH_IMAGE030
个虚拟机
Figure 940101DEST_PATH_IMAGE031
得出时间因子
Figure DEST_PATH_IMAGE081
和能耗因子
Figure 931189DEST_PATH_IMAGE082
Figure DEST_PATH_IMAGE083
(18)
Figure 625039DEST_PATH_IMAGE084
(19)
其中,
Figure DEST_PATH_IMAGE085
分别表示任务
Figure 916124DEST_PATH_IMAGE039
在所有虚拟 机中的能耗的最小值和最大值;
Figure DEST_PATH_IMAGE086
表示任务
Figure 72166DEST_PATH_IMAGE039
运行在第
Figure 371954DEST_PATH_IMAGE030
个虚拟机
Figure 718928DEST_PATH_IMAGE031
上的 完成时间,
Figure DEST_PATH_IMAGE087
计算如下:
Figure DEST_PATH_IMAGE088
(20)
根据公式(18)和公式(19)计算任务
Figure 167201DEST_PATH_IMAGE039
在第
Figure 207226DEST_PATH_IMAGE030
个虚拟机
Figure 287484DEST_PATH_IMAGE031
上的时间-能耗权衡 因子
Figure DEST_PATH_IMAGE089
(Time-Energy-ConsumptionTrade-offfactor,TETF),具体如下:
Figure DEST_PATH_IMAGE090
(21)
从公式(15)中可知,
Figure DEST_PATH_IMAGE091
的值可以为0,为防止分母为0导致的出错,选择
Figure 444444DEST_PATH_IMAGE091
+1作为分母;然后选择对于任务
Figure 582558DEST_PATH_IMAGE039
的时间-能耗权衡因子数值最高的虚拟机,进行 调度。
与现有技术相比,本发明具有如下的优点与技术效果:
1、采用自底向上分层和截止时间按比例分布,对任务子截止时间初始化进行了优化。
2、所提出的任务能耗模型,在执行能耗的基础上加入了传输能耗,由此考虑了传输成本,极大的减少了传输次数,再进一步的降低了能耗。
3、所提出的任务能耗模型是基于系统整体而不是基于载体虚拟机,使得所得结果更有全局性。
4、采用了为虚拟机添加任务等待队列,在任务执行的同时进行新任务的数据传输,能有效地减少虚拟机的空载时间,达到性能和能耗的优化;而长度设置为1,则有效地保证了任务处理的实时性。
5、所提出的时间-能耗权衡因子,保证了QoS中的时间约束的同时,能有效地降低系统能耗。
附图说明
图1为本发明实施例中基于QoS和能耗协同优化的实时工作流任务调度方法的流程图。
具体实施方式
为了使本发明的技术方案及优点更加清楚明白,以下结合附图,进行对本发明的具体实施进行详细说明,但本发明的实施和保护不限于此。
实施例:
基于QoS和能耗协同优化的实时工作流调度方法,如图1所示,包括以下步骤:
S1、在随机到达的多个工作流中,计算工作流中各个任务的子截止时间,子截止时间越小的任务的优先级越高,每次调度选择优先级最高的任务进行调度,包括以下步骤:
S1.1、采用有向无环图(DirectedAcyclicGraph,DAG)表示工作流,并采用自底向上的方式对工作流进行分层;
所述工作流包括若干个任务,工作流中的任务具有数据依赖,在任务调度中,通常采用有向无环图(DirectedAcyclicGraph,DAG)来表示工作流;
有向无环图用一个二元组
Figure 742451DEST_PATH_IMAGE034
来表示,其中,T表示所有节点组成的 集合,
Figure 751251DEST_PATH_IMAGE035
,每个节点表示工作流中的一个任务,
Figure 123851DEST_PATH_IMAGE036
Figure 964242DEST_PATH_IMAGE037
是 节点之间有向边的集合,表示工作流中各个任务之间的依赖关系,即对
Figure 673966DEST_PATH_IMAGE038
,任务
Figure 271694DEST_PATH_IMAGE039
执行完成后任务
Figure 662531DEST_PATH_IMAGE040
才能开始执行,
Figure 181761DEST_PATH_IMAGE041
Figure 378998DEST_PATH_IMAGE042
表示在给定的工作流中,任务
Figure 362391DEST_PATH_IMAGE039
的直接前驱任务集合,也称任务
Figure 935848DEST_PATH_IMAGE039
的父任务集合;
Figure 461815DEST_PATH_IMAGE043
表示在给定的工作流中,任务
Figure 716603DEST_PATH_IMAGE039
的直接前驱任务集合,也称任务
Figure 23344DEST_PATH_IMAGE039
的子任务集合;
其中,
Figure 45000DEST_PATH_IMAGE044
表示工作流的入口任务,满足
Figure 69982DEST_PATH_IMAGE045
表示工作流的出口任务,满足
Figure 925199DEST_PATH_IMAGE046
有向无环图中的每一条边的权值表示处于该条边两端的任务
Figure 668203DEST_PATH_IMAGE039
和任务
Figure 317883DEST_PATH_IMAGE040
之间的 通信时间;由于通信时间需要任务
Figure 767844DEST_PATH_IMAGE039
和任务
Figure 110574DEST_PATH_IMAGE040
被执行后才能获得,因此采用平均通信代价
Figure 923066DEST_PATH_IMAGE047
来表示任务间的通信时间;任务
Figure 212489DEST_PATH_IMAGE039
和任务
Figure 341289DEST_PATH_IMAGE040
之间的平均通信时间
Figure 7150DEST_PATH_IMAGE047
具体如下:
Figure DEST_PATH_IMAGE092
(1)
其中,
Figure 469223DEST_PATH_IMAGE049
表示任务
Figure 991864DEST_PATH_IMAGE039
发给任务
Figure 467015DEST_PATH_IMAGE040
的数据总量,
Figure 936567DEST_PATH_IMAGE050
为物理主机之间的平均 带宽即平均数据传输速率;当任务
Figure 926913DEST_PATH_IMAGE039
和任务
Figure 38700DEST_PATH_IMAGE040
被分配到同一个物理主机上时,
Figure 544024DEST_PATH_IMAGE047
= 0,这 是因为相对于物理机之间的通信,物理主机内的通信可以忽略;
对于任意的工作流,可以根据所属的各个任务的平行性将工作流分层,以达到同 一层的任务不具有依赖关系;同一层的任务共享层值,任务的层值表示着从出口任务到该 任务的最长路径,用
Figure 551687DEST_PATH_IMAGE051
表示任务
Figure 119242DEST_PATH_IMAGE039
对应的层值,对于出口任务
Figure 593473DEST_PATH_IMAGE052
来说
Figure 692203DEST_PATH_IMAGE053
; 对于其它任务来说,其层值计算如下:
Figure 237978DEST_PATH_IMAGE054
(2)
其中,任务
Figure 671758DEST_PATH_IMAGE040
属于任务
Figure 101910DEST_PATH_IMAGE039
的直接后继任务;同一层的任务组成任务层集合(Task level Set),用其英文缩写TLS表示,其定义如下:
Figure 785088DEST_PATH_IMAGE056
(3)
Figure 665713DEST_PATH_IMAGE057
表示层值,其取值范围是[1,
Figure 700139DEST_PATH_IMAGE058
]。
S1.2、根据最早开始时间和最早完工时间计算工作流中各个任务的子截止时间 (Sub-Deadline,
Figure 437544DEST_PATH_IMAGE033
),子截止时间
Figure 330721DEST_PATH_IMAGE033
越小,该任务的优先级越高;
工作流的每个任务的子截止时间的
Figure 15036DEST_PATH_IMAGE033
的计算过程如下:
首先,为了按时处理完成给定的工作流,一种方法是将工作流的实际截止时间进行划分或分配,采用按层划分,每一层的任务拥有各自的子截止时间,同一层的任务共享子截止时间。
给定的工作流G中,对于任务
Figure 485725DEST_PATH_IMAGE039
来说,计算其最早开始时间EST、最早完工时间ECT 和初始的子截止时间
Figure 281117DEST_PATH_IMAGE059
,具体如下:
Figure 735625DEST_PATH_IMAGE060
(4)
Figure 20370DEST_PATH_IMAGE061
(5)
Figure 271529DEST_PATH_IMAGE062
表示工作流分层后第
Figure 226103DEST_PATH_IMAGE057
层初始的子截止时间,为了计算出工作流 分层后第
Figure 902329DEST_PATH_IMAGE057
层的子截止时间
Figure 346690DEST_PATH_IMAGE063
而定义的中间值。
Figure DEST_PATH_IMAGE093
(6)
其中,
Figure 778590DEST_PATH_IMAGE044
表示工作流中的入口任务;满足
Figure DEST_PATH_IMAGE094
Figure 675702DEST_PATH_IMAGE065
分别表示任务
Figure 319784DEST_PATH_IMAGE039
、任务
Figure 87276DEST_PATH_IMAGE040
在所有的虚拟机中的执行时间的最小值,具体如下:
Figure 387064DEST_PATH_IMAGE066
(7)
Figure 468459DEST_PATH_IMAGE067
(8)
其中,
Figure 322539DEST_PATH_IMAGE068
表示第k个虚拟机;
Figure 487198DEST_PATH_IMAGE069
表示任务
Figure 653211DEST_PATH_IMAGE039
的指令数;
Figure 651647DEST_PATH_IMAGE070
表示第k个虚拟机
Figure 524181DEST_PATH_IMAGE068
的计算能力;
根据得到的最早开始时间EST、最早完工时间ECT和初始的子截止时间
Figure 418495DEST_PATH_IMAGE059
计算
Figure 692875DEST_PATH_IMAGE033
,其过程如下:
Figure 393371DEST_PATH_IMAGE071
(9)
Figure 764921DEST_PATH_IMAGE072
(10)
其中,
Figure 412327DEST_PATH_IMAGE073
为给定的工作流G的实际截止时间;
Figure 744476DEST_PATH_IMAGE074
是截止时间因子(Deadline Factor)的英文缩写,表示实际截止时间与初始的子截止时间之间的剩余部分,跟初始的子 截止时间之间的比值;公式(9)和公式(10)表示将实际截止时间与初始的子截止时间之间 的剩余部分按比例分配到每层的子截止时间上。
S2、根据从步骤S1中选取的任务,通过计算时间-能耗效率因子,选择目标虚拟机,完成任务到虚拟机的映射,包括如下步骤:
S2.1、构建系统能耗模型,采用基于系统整体构建任务能耗模型;
所述系统能耗模型中,目标环境系统为云计算数据中心,采用
Figure DEST_PATH_IMAGE095
表示,其中H表示物理主机的集合
Figure 184248DEST_PATH_IMAGE002
;VM表示虚拟机的集合,
Figure DEST_PATH_IMAGE096
,虚拟机运行于物理主机上,如果第
Figure 436236DEST_PATH_IMAGE004
个虚拟机
Figure 418492DEST_PATH_IMAGE005
运行在第
Figure 327849DEST_PATH_IMAGE006
个物理主机
Figure 370148DEST_PATH_IMAGE007
上,采用
Figure 438991DEST_PATH_IMAGE008
表示;
针对物理主机能耗模型,主要根据CPU利用率,采用线性功耗模型,其计算如下:
Figure 17998DEST_PATH_IMAGE009
(11)
Figure 59160DEST_PATH_IMAGE023
(12)
其中,
Figure DEST_PATH_IMAGE097
Figure DEST_PATH_IMAGE098
分别表示第
Figure 30615DEST_PATH_IMAGE006
个物理主机
Figure 67315DEST_PATH_IMAGE007
的空闲功耗和满载功耗,
Figure DEST_PATH_IMAGE099
为第
Figure 643571DEST_PATH_IMAGE006
个物理主机
Figure 324258DEST_PATH_IMAGE007
的CPU利用率,其计算方式如下:
Figure 973939DEST_PATH_IMAGE028
(13)
其中,
Figure 220637DEST_PATH_IMAGE029
为第
Figure 438733DEST_PATH_IMAGE030
个虚拟机
Figure 251225DEST_PATH_IMAGE031
执行任务时的CPU利用率,由于采用的是线 性功耗模型,结合公式(11)和(13),第
Figure 337386DEST_PATH_IMAGE030
个虚拟机
Figure 856399DEST_PATH_IMAGE031
执行任务时的平均功耗为:
Figure 53419DEST_PATH_IMAGE032
(14)。
任务能耗模型的构建方式如下:
Figure 454838DEST_PATH_IMAGE075
(15)
Figure 926881DEST_PATH_IMAGE076
(16)
Figure 413750DEST_PATH_IMAGE077
(17)
其中,
Figure 871584DEST_PATH_IMAGE078
分 别表示任务
Figure 861930DEST_PATH_IMAGE039
分配给第
Figure 227577DEST_PATH_IMAGE030
个虚拟机
Figure 151144DEST_PATH_IMAGE031
的传输能耗、执行能耗和总能耗;
Figure 627649DEST_PATH_IMAGE079
表示为 数据中心网络通信所需的平均功耗,
Figure 3660DEST_PATH_IMAGE080
是所有空闲虚拟机的集合,K是虚拟机空闲时平 均功耗与执行任务时平均功耗的比值;本实施例中,根据已有经验,K通常为0.3;
公式(16)中,任务执行能耗不仅考虑了载体虚拟机的能耗,同时考虑了其余空闲虚拟机的能耗,这是由于调度的目的是为了云数据中心的整体能耗优化。
S2.2、将从步骤S1中得到的任务,使用步骤S2.1中的任务能耗模型,计算时间-能耗效率权衡因子,选择可调度的目标虚拟机,完成任务到虚拟机的映射;
可调度的虚拟机指的是空闲虚拟机或任务等待队列为空的虚拟机;
对给定的虚拟机,为其添加一个任务等待队列,当新任务映射到该虚拟机且该虚拟机已有任务在运行,新任务放置于任务等待队列;当运行中的任务完成后,立刻执行任务等待队列的任务;将任务等待队列能放置的任务数设为1,保证任务的实时处理;空闲虚拟机指的是虚拟机上没有任务在运行,处于空载的状态。
时间-能耗权衡因子的计算过程如下:
对于从步骤S1中获得的任务
Figure 590807DEST_PATH_IMAGE039
,选择可调度的第
Figure 458793DEST_PATH_IMAGE030
个虚拟机
Figure 738989DEST_PATH_IMAGE031
得出时间因子
Figure 918909DEST_PATH_IMAGE081
和能耗因子
Figure 626358DEST_PATH_IMAGE082
Figure 94555DEST_PATH_IMAGE083
(18)
Figure 194754DEST_PATH_IMAGE084
(19)
其中,
Figure 14199DEST_PATH_IMAGE085
分别表示任务
Figure 435427DEST_PATH_IMAGE039
在所有虚拟 机中的能耗的最小值和最大值;
Figure 340322DEST_PATH_IMAGE086
表示任务
Figure 950602DEST_PATH_IMAGE039
运行在第
Figure 624554DEST_PATH_IMAGE030
个虚拟机
Figure 532860DEST_PATH_IMAGE031
上的 完成时间,
Figure 140033DEST_PATH_IMAGE087
计算如下:
Figure 831302DEST_PATH_IMAGE088
(20)
根据公式(18)和公式(19)计算任务
Figure 890918DEST_PATH_IMAGE039
在第
Figure 364932DEST_PATH_IMAGE030
个虚拟机
Figure 41157DEST_PATH_IMAGE031
上的时间-能耗权衡 因子
Figure 67275DEST_PATH_IMAGE089
(Time-Energy-ConsumptionTrade-offfactor,TETF),具体如下:
Figure 274458DEST_PATH_IMAGE090
(21)
从公式(15)中可知,
Figure 665513DEST_PATH_IMAGE091
的值可以为0,为防止分母为0导致的出错,选择
Figure 235559DEST_PATH_IMAGE091
+1作为分母;然后选择对于任务
Figure 522491DEST_PATH_IMAGE039
的时间-能耗权衡因子数值最高的虚拟机,进行 调度。
实验测试对比:
本实施例中,为验证本发明的有效性,进行消融实验,实验内容和结果如下:
实验所采用的方法名称以及简要描述如下:
“SubD-EDF”:任务选择子截止时间最小的,虚拟机选择空闲虚拟机中任务完成时间最小的。
“SubD-TETF”:本发明使用的调度方法。
“SubD-TETF-1”:任务选择子截止时间最小的,任务执行能耗计算方式有别于公式(16),除了载体虚拟机不考虑其余虚拟机,其计算方式如下:
Figure DEST_PATH_IMAGE100
(22)
“SubD-TETF-2”:任务选择子截止时间最小的,虚拟机没有任务等待队列,即新任务要在旧任务执行完成后根据调度方法得出目标虚拟机后才进行数据传输。
本实验是在模拟环境下进行的,模拟环境如下:
基于CloudSim提供的模拟工具包,构建一个云计算环境下多物理主机的仿真环境。其中:
物理主机之间通过网络互连。
每个物理主机任务执行与物理机之间通信可同时进行。
多个虚拟机运行于物理主机上,同一物理主机上的虚拟机通信时间忽略不计。
任务在虚拟机上执行是非抢占的。
物理主机之间是异构的,虚拟机之间的计算能力也是不相同的,也就是说同一任务在不同虚拟机上执行存在差异性。
衡量调度方法的指标,包括QoS指标-逾期率以及能耗值。
逾期率:当给定工作流任务的最后子任务完成时间大于工作流任务的截止时间,则称该工作流任务逾期。逾期率为逾期工作流任务数量与总工作流任务数量的比值。
能耗值:系统在完成云任务所消耗的能量。
针对工作流任务数量以及虚拟机数量的变化,进行实验,其实验结果如下表1和表2所示。
Figure DEST_PATH_IMAGE101
Figure DEST_PATH_IMAGE102
从消融实验中可以得出,基于系统整体的任务能耗建模方式、时间-能耗权衡因子和任务等待队列对于任务的逾期率以及系统能耗都有着积极的作用。
上述流程为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求的保护范围为准。

Claims (2)

1.基于QoS和能耗协同优化的实时工作流调度方法,其特征在于,包括以下步骤:
S1、在随机到达的多个工作流中,计算工作流中各个任务的子截止时间,子截止时间越小的任务的优先级越高,每次调度选择优先级最高的任务进行调度;包括以下步骤:
S1.1、采用有向无环图表示工作流,并采用自底向上的方式对工作流进行分层;所述工作流包括若干个任务,工作流中的任务具有数据依赖,在任务调度中,采用有向无环图来表示工作流;
有向无环图用一个二元组G=(T,E)来表示,其中,T表示所有节点组成的集合,T={t1,t2,...,tn},每个节点表示工作流中的一个任务,|T|=n;E是节点之间有向边的集合,表示工作流中各个任务之间的依赖关系,即对
Figure FDA0003461939650000011
任务ti执行完成后任务tj才能开始执行,i,j∈[1,n];
pred(ti)表示在给定的工作流中,任务ti的直接前驱任务集合,也称任务ti的父任务集合;
succ(ti)表示在给定的工作流中,任务ti的直接后继任务集合,也称任务ti的子任务集合;
其中,tentry表示工作流的入口任务,满足
Figure FDA0003461939650000012
texit表示工作流的出口任务,满足
Figure FDA0003461939650000013
有向无环图中的每一条边的权值表示处于该条边两端的任务ti和任务tj之间的通信时间;通信时间需要任务ti和任务tj被执行后才能获得;
S1.2、根据最早开始时间和最早完工时间计算工作流中各个任务的子截止时间,子截止时间SubD越小,该任务的优先级越高;
工作流的每个任务的子截止时间的SubD的计算过程如下:
首先,为了按时处理完成给定的工作流,将工作流的实际截止时间进行划分或分配,采用按层划分,每一层的任务拥有各自的子截止时间,同一层的任务共享子截止时间;
给定的工作流G中,对于任务ti来说,计算其最早开始时间EST、最早完工时间ECT和初始的子截止时间SubDinit,具体如下:
Figure FDA0003461939650000021
Figure FDA0003461939650000022
SubDinit(l)表示工作流分层后第l层初始的子截止时间,为了计算出工作流分层后第l层的子截止时间SubD(l)而定义的中间值;
ECT(ti)=max{SubDinit(pred(ti)),EST(ti)}+wi; (10)
其中,tentry表示工作流中的入口任务;wi、wj分别表示任务ti、任务tj在所有的虚拟机中的执行时间的最小值,具体如下:
Figure FDA0003461939650000023
wi=mink{w(i,k)}; (12)
其中,vmk表示第k个虚拟机;Insrution(ti)表示任务ti的指令数;Capacity(vmk)表示第k个虚拟机vmk的计算能力;
根据得到的最早开始时间EST、最早完工时间ECT和初始的子截止时间SubDinit计算SubD,其过程如下:
Figure FDA0003461939650000024
SubD(l)=(DF*SubDinit(l))+SubDinit(l); (14)
其中,DG为给定的工作流G的实际截止时间;DF表示实际截止时间与初始的子截止时间之间的剩余部分,跟初始的子截止时间之间的比值;公式(13)和公式(14)表示将实际截止时间与初始的子截止时间之间的剩余部分按比例分配到每层的子截止时间上;
S2、根据从步骤S1中选取的任务,通过计算时间-能耗权衡因子,选择目标虚拟机,完成任务到虚拟机的映射;具体包括如下步骤:
S2.1、构建系统能耗模型,采用基于系统整体构建任务能耗模型;
所述系统能耗模型中,目标环境系统为云计算数据中心,采用DC={H,VM}表示,其中H表示M个物理主机的集合H={h1,h2,...,hM};VM表示N个虚拟机的集合,VM={vm1,vm2,...,vmN},虚拟机运行于物理主机上,如果第n个虚拟机vmn运行在第m个物理主机hm上,采用vmn∈hm表示;
针对物理主机能耗模型,根据CPU利用率,采用线性功耗模型,物理主机能耗模型的计算如下:
Figure FDA0003461939650000031
其中,
Figure FDA0003461939650000032
Figure FDA0003461939650000033
分别表示第m个物理主机hm的空闲功耗和满载功耗,
Figure FDA0003461939650000034
为第m个物理主机hm的CPU利用率,
Figure FDA0003461939650000035
是第m个物理主机hm在CPU利用率为
Figure FDA0003461939650000036
时的功耗;
由于工作负载的可变性,CPU的利用率可能会随着时间的推移而改变,因此CPU利用率是关于时间的函数,可以表示为
Figure FDA0003461939650000037
x是时间变量,因此,物理主机的总能耗,定义为一段时间内的功率消耗的积分,如下表示:
Figure FDA0003461939650000038
其中,x0、x1分别表示一段时间的起点和终点;
Figure FDA0003461939650000039
是第m个物理主机hm的总能耗,同时
Figure FDA00034619396500000310
的计算方式如下:
Figure FDA00034619396500000311
其中,
Figure FDA00034619396500000312
为第k个虚拟机vmk执行任务时的CPU利用率,由于采用的是线性功耗模型,结合公式(1)和(3),第k个虚拟机vmk执行任务时的平均功耗为:
Figure FDA00034619396500000313
采用平均通信代价Ci,j来表示任务间的通信时间;任务ti和任务tj之间的平均通信时间Ci,j具体如下:
Figure FDA0003461939650000041
其中,datai,j表示任务ti发给任务tj的数据总量,
Figure FDA0003461939650000042
为物理机之间的平均带宽即平均数据传输速率;当任务ti和任务tj被分配到同一个物理机上时,Ci,j=0;
同一层的任务组成任务层集合TLS(Task level Set),任务层集合TLS的定义如下:
TLS(l)={ti|L(ti)=l}; (7)
l表示层值,其取值范围是[1,L(tentry)];
任务能耗模型的构建方式如下:
Figure FDA0003461939650000043
Figure FDA0003461939650000044
Energy(ti,vmk)=Energytransfer(ti)+Energyexec(ti,vmk); (17)
其中,Energytransfer(ti),Energyexec(ti,vmk)和Energy(ti,vmk)分别表示任务ti分配给第k个虚拟机vmk的传输能耗、执行能耗和总能耗;Pnet表示为数据中心网络通信所需的平均功耗,idle是所有空闲虚拟机的集合,K是虚拟机空闲时平均功耗与执行任务时平均功耗的比值;
S2.2、将从步骤S1中得到的任务,使用步骤S2.1中的任务能耗模型,计算时间-能耗权衡因子,选择可调度的目标虚拟机,完成任务到虚拟机的映射;
可调度的目标虚拟机指的是空闲虚拟机或任务等待队列为空的虚拟机;
空闲虚拟机指的是虚拟机上没有任务在运行,处于空载的状态;
对给定的虚拟机,为其添加一个任务等待队列,当新任务映射到该虚拟机且该虚拟机已有任务在运行,新任务放置于任务等待队列;当运行中的任务完成后,立刻执行任务等待队列的任务;将任务等待队列能放置的任务数设为1,保证任务的实时处理;
时间-能耗权衡因子的计算过程如下:
对于从步骤S1中获得的任务ti,选择可调度的第k个虚拟机vmk得出时间因子
Figure FDA0003461939650000051
和能耗因子
Figure FDA0003461939650000052
Figure FDA0003461939650000053
Figure FDA0003461939650000054
其中,Energy(min)和Energy(max)分别表示任务ti在所有虚拟机中的能耗的最小值和最大值;FT(i,k)表示任务ti运行在第k个虚拟机vmk上的完成时间,FT(i)表示FT(i,k)中的最小值,FT(i,k)计算如下:
Figure FDA0003461939650000055
根据公式(18)和公式(19)计算任务ti在第k个虚拟机vmk上的时间-能耗权衡因子
Figure FDA0003461939650000056
具体如下:
Figure FDA0003461939650000057
从公式(19)中可知,
Figure FDA0003461939650000058
的值可以为0,为防止分母为0导致的出错,选择
Figure FDA0003461939650000059
+1作为分母;然后选择对于任务ti的时间-能耗权衡因子数值最高的虚拟机,进行调度。
2.根据权利要求1所述的基于QoS和能耗协同优化的实时工作流调度方法,其特征在于,对于任意的工作流,根据所属的各个任务的平行性将工作流分层,以达到同一层的任务不具有依赖关系;同一层的任务共享层值,任务的层值表示着从出口任务到该任务的最长路径,用L(ti)表示任务ti对应的层值,对于出口任务texit来说L(texit)=1;对于其它任务来说,其层值计算如下:
Figure FDA00034619396500000510
其中,任务tj属于任务ti的直接后继任务。
CN202111274602.2A 2021-10-29 2021-10-29 基于QoS和能耗协同优化的实时工作流调度方法 Active CN113722076B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111274602.2A CN113722076B (zh) 2021-10-29 2021-10-29 基于QoS和能耗协同优化的实时工作流调度方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111274602.2A CN113722076B (zh) 2021-10-29 2021-10-29 基于QoS和能耗协同优化的实时工作流调度方法

Publications (2)

Publication Number Publication Date
CN113722076A CN113722076A (zh) 2021-11-30
CN113722076B true CN113722076B (zh) 2022-03-29

Family

ID=78686176

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111274602.2A Active CN113722076B (zh) 2021-10-29 2021-10-29 基于QoS和能耗协同优化的实时工作流调度方法

Country Status (1)

Country Link
CN (1) CN113722076B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105260005B (zh) * 2015-09-22 2018-09-14 浙江工商大学 面向能耗的云工作流调度优化方法
CN109445903A (zh) * 2018-09-12 2019-03-08 华南理工大学 基于QoS特征发现的云计算节能调度实现方法
CN109634742A (zh) * 2018-11-15 2019-04-16 华南理工大学 一种基于蚁群算法的时间约束科学工作流优化方法
CN110908772A (zh) * 2019-11-14 2020-03-24 北京理工大学 一种提高多工作流可靠性的节能调度方法
CN107168770B (zh) * 2017-04-14 2020-03-27 中国人民解放军国防科学技术大学 一种低能耗的云数据中心工作流调度与资源供给方法
CN113515351A (zh) * 2021-09-07 2021-10-19 华南理工大学 一种基于能耗与QoS协同优化的资源调度实现方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101290585B (zh) * 2007-04-19 2011-09-21 中兴通讯股份有限公司 一种嵌入式系统实时任务的调度方法
CN108021435B (zh) * 2017-12-14 2022-01-04 南京邮电大学 一种基于截止时间的具有容错能力的云计算任务流调度方法
US20190278714A1 (en) * 2018-03-09 2019-09-12 Nutanix, Inc. System and method for memory access latency values in a virtual machine

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105260005B (zh) * 2015-09-22 2018-09-14 浙江工商大学 面向能耗的云工作流调度优化方法
CN107168770B (zh) * 2017-04-14 2020-03-27 中国人民解放军国防科学技术大学 一种低能耗的云数据中心工作流调度与资源供给方法
CN109445903A (zh) * 2018-09-12 2019-03-08 华南理工大学 基于QoS特征发现的云计算节能调度实现方法
CN109634742A (zh) * 2018-11-15 2019-04-16 华南理工大学 一种基于蚁群算法的时间约束科学工作流优化方法
CN110908772A (zh) * 2019-11-14 2020-03-24 北京理工大学 一种提高多工作流可靠性的节能调度方法
CN113515351A (zh) * 2021-09-07 2021-10-19 华南理工大学 一种基于能耗与QoS协同优化的资源调度实现方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
云计算环境下科学工作流调度策略研究;徐永杰;《中国优秀硕士学位论文全文数据库信息科技辑》;20200215(第02期);I138-38 *
面向实时应用的虚拟机调度研究;丁晓波,;《中国博硕士学位论文全文数据库(博士)信息科技辑》;20180615(第06期);I137-1 *

Also Published As

Publication number Publication date
CN113722076A (zh) 2021-11-30

Similar Documents

Publication Publication Date Title
Xue et al. An ACO-LB Algorithm for Task Scheduling in the Cloud Environment.
Rekha et al. Efficient task allocation approach using genetic algorithm for cloud environment
Zhu et al. A cost-effective scheduling algorithm for scientific workflows in clouds
Sohani et al. A predictive priority-based dynamic resource provisioning scheme with load balancing in heterogeneous cloud computing
Chakravarthi et al. TOPSIS inspired budget and deadline aware multi-workflow scheduling for cloud computing
CN103701886A (zh) 一种云计算环境下的服务及资源分层调度方法
Saovapakhiran et al. Aggregated-DAG scheduling for job flow maximization in heterogeneous cloud computing
Zhou et al. Concurrent workflow budget-and deadline-constrained scheduling in heterogeneous distributed environments
CN106201681B (zh) Hadoop平台下基于预释放资源列表的任务调度方法
Li et al. Endpoint-flexible coflow scheduling across geo-distributed datacenters
Wang et al. Dynamic multiworkflow deadline and budget constrained scheduling in heterogeneous distributed systems
CN106407007B (zh) 面向弹性分析流程的云资源配置优化方法
CN112306642B (zh) 一种基于稳定匹配博弈理论的工作流调度方法
Dubey et al. QoS driven task scheduling in cloud computing
Li et al. Cost-aware scheduling for ensuring software performance and reliability under heterogeneous workloads of hybrid cloud
CN113722076B (zh) 基于QoS和能耗协同优化的实时工作流调度方法
Grigoras et al. Elastic management of reconfigurable accelerators
Zhou et al. Stability property of clouds and cooperative scheduling policies on multiple types of resources in cloud computing
Abba et al. Design, development and performance analysis of deadline based priority heuristic for job scheduling on a grid
Chandak et al. Heuristic task allocation strategies for computational grid
CN108958919A (zh) 一种云计算中有期限约束的多dag任务调度费用公平性评估模型
Wang et al. Maximize throughput scheduling and cost-fairness optimization for multiple dags with deadline constraint
CN111522637A (zh) 一种基于成本效益的storm任务调度方法
Venuthurumilli et al. An Energy and Deadline Aware Scheduling Using Greedy Algorithm for Cloud Computing.
Choudhary et al. A novel strategy for deterministic workflow scheduling with load balancing using modified min-min heuristic in cloud computing environment

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant