CN114911612A - 一种面向cpu-gpu异构资源的任务调度方法 - Google Patents
一种面向cpu-gpu异构资源的任务调度方法 Download PDFInfo
- Publication number
- CN114911612A CN114911612A CN202210465371.1A CN202210465371A CN114911612A CN 114911612 A CN114911612 A CN 114911612A CN 202210465371 A CN202210465371 A CN 202210465371A CN 114911612 A CN114911612 A CN 114911612A
- Authority
- CN
- China
- Prior art keywords
- gpu
- cpu
- subgraph
- computing
- program task
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 230000003068 static effect Effects 0.000 claims abstract description 19
- 238000012544 monitoring process Methods 0.000 claims abstract description 18
- 230000008569 process Effects 0.000 claims abstract description 15
- 238000004364 calculation method Methods 0.000 claims abstract description 14
- 238000013507 mapping Methods 0.000 claims abstract description 8
- 230000011218 segmentation Effects 0.000 claims description 18
- 238000012546 transfer Methods 0.000 claims description 7
- 238000011156 evaluation Methods 0.000 claims description 5
- 238000012545 processing Methods 0.000 claims description 3
- 239000002699 waste material Substances 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Stored Programmes (AREA)
Abstract
本申请一种面向CPU‑GPU异构资源的任务调度方法,其特征在于,所述方法包括:步骤1:根据算法应用,构建程序任务计算图;步骤2:根据预先定义的静态调度策略,将所述程序任务计算图,切分为适合CPU上执行的CPU程序任务计算子图,和适合GPU上执行的GPU程序任务计算子图;步骤3:将CPU程序任务计算子图映射到CPU上执行,将GPU程序任务计算子图映射到GPU上执行;步骤4:在CPU程序任务计算子图和GPU程序任务计算子图的执行过程中,实时监控CPU和GPU计算资源状态,根据计算单元资源状态,实时调整剩余的程序任务计算子图的调度策略,以实现计算单元负载均衡;步骤5:重复步骤4,实时调整子图执行策略,并在不同计算单元上依次完成剩余子图执行,输出计算结果。
Description
技术领域
本发明涉及异构计算资源任务调度技术领域,具体涉及一种面向CPU-GPU异构资源的任务调度方法。
背景技术
随着算法应用对计算资源算力需求的增长,CPU的计算能力无法满足算力需求,采用CPU-GPU异构计算系统可为计算密集型应用提供更加强大的计算能力,因此得到了广泛应用。CPU具有较大的缓存容量和大量数字逻辑运算单元,擅长逻辑运算,GPU是基于大吞吐量的设计,擅长大规模的并行计算。研究如何根据计算任务属性将其分配至合适的计算资源上执行以提升计算效率,同时考虑如何通过任务调度解决系统负载均衡问题变得更加有意义。典型任务调度方法分为静态调度和动态调度,静态调度指在程序运行前已确定好调度方案,其优点为调度开销小,容易实施,但是容易造成负载不均衡。动态调度是指根据计算资源的负载状态,实时调整任务分配,使得各计算单元负载均衡,但动态调度相比于静态调度内存和时间开销较大。
发明内容
本申请提供了一种面向CPU-GPU异构资源的任务调度方法,根据静态调度策略进行计算图切分,实现了算法应用计算任务在异构计算资源上的分配执行,同时通过对GPU资源状态的监控,调整子图调度策略,为解决计算单元负载不均问题提供了有效技术途径。
本发明的发明目的采用以下技术方案实现:
一种面向CPU-GPU异构资源的任务调度方法,其特征在于,所述方法包括:
步骤1:根据算法应用,构建程序任务计算图;
步骤2:根据预先定义的静态调度策略,将所述程序任务计算图,切分为适合CPU上执行的CPU程序任务计算子图,和适合GPU上执行的GPU程序任务计算子图;
步骤3:将CPU程序任务计算子图映射到CPU上执行,将GPU程序任务计算子图映射到GPU上执行;
步骤4:在CPU程序任务计算子图和GPU程序任务计算子图的执行过程中,实时监控CPU和GPU计算资源状态,根据计算单元资源状态,实时调整剩余的程序任务计算子图的调度策略,以实现计算单元负载均衡;
步骤5:重复步骤4,实时调整子图执行策略,并在不同计算单元上依次完成剩余子图执行,输出计算结果。
优选的,所述程序任务计算图为有向无环图,所述有向无环图为没有环的有向图,由节点和有向边构成的集合,节点与节点间通过有向边连接,具有单一方向。
优选的,所述静态调度策略为结合各计算节点在不同计算单元上执行完成的耗时,并预估数据在CPU和GPU间搬移造成的耗时,综合考虑节点执行和数据搬移耗时,进行子图的切分。
优选的,所述步骤3包括:
根据子图优先级,依次执行各个程序任务计算子图,并进行各个程序任务计算子图输入输出数据的搬移。
优选的,所述步骤4包括:
在子图执行过程中,对计算单元GPU的资源占用状态进行监控,若GPU无其他程序占用,则按照之前划分,将GPU程序任务计算子图依次分配至GPU端执行。
优选的,所述步骤4包括:
在子图执行过程中,对计算单元GPU的资源占用状态进行监控,若监控到GPU资源被占,则将GPU程序任务计算子图调度至CPU端执行,以减小程序等待时间。
优选的,所述步骤4还包括:
监控CPU计算单元资源状态,若处于空闲状态,可将后续GPU上的部分GPU程序任务计算子图分配到CPU端进行执行,从而保证各计算单元的负载均衡,减小计算资源的闲置浪费问题。
优选的,将所述程序任务计算图,切分为适合CPU上执行的CPU程序任务计算子图,和适合GPU上执行的GPU程序任务计算子图,具体包括:
根据代价评估函数实现子图的切分:
其中,Cop为节点的耗时,tCPU为在CPU执行该节点的耗时,tGPU为在GPU上执行该节点的耗时,tdata_t为在GPU上执行该子图时上传和下载数据所造成的数据搬移耗时;
Cb为子图在CPU或GPU计算单元上的总耗时,选择最终耗时最小的计算单元为该子图计算分配的计算后端,根据该策略,完成子图切分。
本发明具有以下技术效果:
1、本发明提供的一种面向CPU-GPU异构资源的任务调度方法,针对异构计算单元属性和算法应用计算属性,根据静态调度策略将构建出的计算图进行子图切分,并完成各子图在CPU和GPU端的分配,实现了算法应用在CPU和GPU计算单元上的异构运行。
2、本发明提供的一种面向CPU-GPU异构资源的任务调度方法,在算法执行过程中,通过实时监控计算单元CPU和GPU的资源状态,调整子图分配策略,尽可能实现各计算单元上的工作负载均衡,为消除异构计算资源负载不均问题提供了有效的解决思路。
附图说明
为进一步说明本发明的技术内容,以下结合附图及实施案例对本发明详细说明如下,其中:
图1是面向CPU-GPU异构资源的任务调度流程图。
图2是根据算法应用构建的计算图示意图。
图3是根据静态调度策略进行子图切分后的结果示意图。
图4是动态子图切分策略示意图。
具体实施方式
本发明的主要目的在于提供了一种面向CPU-GPU异构资源的任务调度方法,根据算法应用,构建程序任务计算图,结合计算资源各单元属性和任务节点属性,根据自定义的静态调度策略,将计算图切分为适合CPU或GPU上执行的两部分计算子图,在计算子图执行过程中,根据计算单元GPU资源监控状态,实时调整子图调度策略,以实现各计算单元的负载均衡。本发明提供的面向CPU-GPU异构资源的任务调度方法根据静态调度策略进行计算图切分,实现了算法应用计算任务在异构计算资源上的分配执行,同时通过对GPU资源状态的监控,调整子图调度策略,为解决计算单元负载不均问题提供了有效技术途径。
下面详细描述本发明的实施方式,所述实施方式的示例在附图中示出。
实施例一
一种面向CPU-GPU异构资源的任务调度方法,包括如下步骤:
步骤1:根据算法应用,构建程序任务计算图;
步骤2:将所述程序任务计算图,根据预先定义的静态调度策略,切分为适合CPU上执行的CPU程序任务计算子图,和适合GPU上执行的GPU程序任务计算子图;
步骤3:将CPU程序任务计算子图映射到CPU上执行,将GPU程序任务计算子图映射到GPU上执行;
步骤4:在CPU程序任务计算子图和GPU程序任务计算子图的执行过程中,实时监控CPU和GPU计算资源状态,根据计算单元资源状态,实时调整剩余的程序任务计算子图的调度策略,以实现计算单元负载均衡;
步骤5:重复步骤4,实时调整子图执行策略,并在不同计算单元上依次完成剩余子图执行,输出计算结果。
作为本发明的一种优选方案,所述步骤1中的程序任务计算图为有向无环图,即没有环的有向图,由节点和有向边构成的集合,节点与节点间通过有向边连接,具有单一方向。
作为本发明的一种优选方案,所述步骤2的静态调度策略结合各计算节点在不同计算单元上执行完成的耗时,并预估数据在CPU和GPU间搬移造成的耗时,综合考虑节点执行和数据搬移耗时,进行子图的切分。
需要说明的是,节点执行耗时主要是指在CPU或GPU单元上执行该节点的完成时间,数据搬移耗时是指将前一个节点的输出数据结果搬移到当前节点执行的计算单元上的耗时和当前节点输出结果搬移到下一个节点计算单元上的耗时之和。通过该策略评估后,可切分得到分别在CPU和GPU端最适合执行的子图。
作为本发明的一种优选方案,所述步骤3根据步骤2得到的CPU和GPU端计算子图,分别在计算单元上运行包括:根据子图优先级,依次执行各个程序任务计算子图,并进行各个程序任务计算子图输入输出数据的搬移。
需要说明的是,子图优先级为各子图执行的先后顺序,由步骤1中程序任务计算图决定,即计算图中最先执行的子图其优先级最高,后续执行的子图优先级依次降低。
作为本发明的一种优选方案,所述步骤4包括:
在子图执行过程中,对计算单元GPU的资源占用状态进行监控,若GPU无其他程序占用,则按照之前划分,将GPU程序任务计算子图依次分配至GPU端执行;若监控到GPU资源被占,则将GPU程序任务计算子图调度至CPU端执行,以减小程序等待时间。
同时可监控CPU计算单元资源状态,若处于空闲状态,可将后续GPU上的部分GPU程序任务计算子图分配到CPU端进行执行,从而保证各计算单元的负载均衡,减小计算资源的闲置浪费问题。通过动态调整CPU和GPU的工作负载,以最大限度平衡计算单元间工作负载,提高异构计算单元利用率。
所述步骤5重复步骤4,以实时动态调整剩余的程序任务计算子图分配方式,根据实时调整的分配策略,完成子图的执行并输出计算结果。
实施例二
一种面向CPU-GPU异构资源的任务调度方法,包括根据算法应用构建计算图、根据静态策略进行子图切分、子图执行、通过监控计算资源状态动态调整调度策略、执行调整后的子图、最后输出计算结果等过程,如图1所示。
面向CPU-GPU异构资源的任务调度过程中,根据算法应用采用有向无环图思想进行程序计算图的构建,采用广度搜索和深度搜索找到全部节点,构建得到的计算图。如图2所示,每个节点为程序任务的独立算子,即单个可分离功能计算块,每个节点拥有数据输入、输出流,节点间通过边连接,具有方向性,后方节点需要前方节点的结果输出作为数据输入。当数据从起点走完整个节点到输出时,由最终节点输出的数据即为程序任务计算图结果。如节点1输入,到节点11的输出即为最终计算结果。
根据静态调度策略,进行计算子图切分,得到适合在GPU和CPU上执行的子图。该策略具体如下。
根据所提出一种代价评估函数实现子图的切分,即
其中,Cop为节点的耗时,tCPU为在CPU执行该节点的耗时,tGPU为在GPU上执行该节点的耗时,tdata_t为在GPU上执行该子图时上传和下载数据所造成的数据搬移耗时。
Cb为子图在CPU或GPU计算单元上的总耗时,选择最终耗时最小的计算单元最为该子图计算分配的计算后端。根据该策略,完成子图切分,该切分过程具体为:首先根据各独立算子是否能在CPU或GPU上执行,构建所有可能的切分子图集合,每个切分后的子图集合,均可以实现整个计算图功能;然后根据代价评估函数计算每个子图集合的总耗时,比较后选择总耗时最小的子图集作为静态策略切分后的子图。如图3中所示,虚线部分为GPU端子图,实线部分为CPU端子图,CPU端子图分别为:节点1、节点2、节点7、节点10、节点11五个,GPU端子图为节点节点5、节点3-6-9、节点4-8三个。
对切分后的子图在对应计算单元上进行执行,运行过程中根据计算单元提供的状态获取接口,实时获取计算资源占用状态,如获取GPU当前的计算负载,当前子图计算完毕后,根据资源状态调整下一个子图的调度策略,如下一个子图,如虚框内所示子图,按照之前静态调度策略分配的计算后端为GPU,但通过资源监控发现GPU资源已被其他程序占用,此时将该子图由原来的GPU分配至空闲状态的CPU,以降低等待时间,提升整体执行效率,如图4所示。
在执行开始执行新的子图前,均进行计算单元资源状态监控,并根据监控结果,调整子图调度策略,尽可能实现计算单元计算负载均衡,直到所有子图计算完毕,得到计算最终结果。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种面向CPU-GPU异构资源的任务调度方法,其特征在于,所述方法包括:
步骤1:根据算法应用,构建程序任务计算图;
步骤2:根据预先定义的静态调度策略,将所述程序任务计算图,切分为适合CPU上执行的CPU程序任务计算子图,和适合GPU上执行的GPU程序任务计算子图;
步骤3:将CPU程序任务计算子图映射到CPU上执行,将GPU程序任务计算子图映射到GPU上执行;
步骤4:在CPU程序任务计算子图和GPU程序任务计算子图的执行过程中,实时监控CPU和GPU计算资源状态,根据计算单元资源状态,实时调整剩余的程序任务计算子图的调度策略,以实现计算单元负载均衡;
步骤5:重复步骤4,实时调整子图执行策略,并在不同计算单元上依次完成剩余子图执行,输出计算结果。
2.根据权利要求1所述的任务调度方法,其特征在于,所述程序任务计算图为有向无环图,所述有向无环图为没有环的有向图,由节点和有向边构成的集合,节点与节点间通过有向边连接,具有单一方向。
3.根据权利要求1所述的任务调度方法,其特征在于,所述静态调度策略为结合各计算节点在不同计算单元上执行完成的耗时,并预估数据在CPU和GPU间搬移造成的耗时,综合考虑节点执行和数据搬移耗时,进行子图的切分。
4.根据权利要求1所述的任务调度方法,其特征在于,所述步骤3包括:
根据子图优先级,依次执行各个程序任务计算子图,并进行各个程序任务计算子图输入输出数据的搬移。
5.根据权利要求1所述的任务调度方法,其特征在于,所述步骤4包括:
在子图执行过程中,对计算单元GPU的资源占用状态进行监控,若GPU无其他程序占用,则按照之前划分,将GPU程序任务计算子图依次分配至GPU端执行。
6.根据权利要求1所述的任务调度方法,其特征在于,所述步骤4包括:
在子图执行过程中,对计算单元GPU的资源占用状态进行监控,若监控到GPU资源被占,则将GPU程序任务计算子图调度至CPU端执行,以减小程序等待时间。
7.根据权利要求1所述的任务调度方法,其特征在于,所述步骤4还包括:
监控CPU计算单元资源状态,若处于空闲状态,可将后续GPU上的部分GPU程序任务计算子图分配到CPU端进行执行,从而保证各计算单元的负载均衡,减小计算资源的闲置浪费问题。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210465371.1A CN114911612A (zh) | 2022-04-29 | 2022-04-29 | 一种面向cpu-gpu异构资源的任务调度方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210465371.1A CN114911612A (zh) | 2022-04-29 | 2022-04-29 | 一种面向cpu-gpu异构资源的任务调度方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114911612A true CN114911612A (zh) | 2022-08-16 |
Family
ID=82763993
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210465371.1A Pending CN114911612A (zh) | 2022-04-29 | 2022-04-29 | 一种面向cpu-gpu异构资源的任务调度方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114911612A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116108764A (zh) * | 2023-04-14 | 2023-05-12 | 中国科学院长春光学精密机械与物理研究所 | 光学智能优化方法、装置、设备、介质 |
CN116594745A (zh) * | 2023-05-11 | 2023-08-15 | 阿里巴巴达摩院(杭州)科技有限公司 | 任务执行方法、系统、芯片及电子设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103124957A (zh) * | 2010-09-27 | 2013-05-29 | 三星电子株式会社 | 用于处理单元的动态资源分配的方法和设备 |
WO2016078008A1 (zh) * | 2014-11-19 | 2016-05-26 | 华为技术有限公司 | 调度数据流任务的方法和装置 |
CN107329828A (zh) * | 2017-06-26 | 2017-11-07 | 华中科技大学 | 一种面向cpu/gpu异构集群的数据流编程方法和系统 |
CN112596902A (zh) * | 2020-12-25 | 2021-04-02 | 中科星通(廊坊)信息技术有限公司 | 基于cpu-gpu协同计算的任务调度方法及装置 |
CN112650590A (zh) * | 2020-12-29 | 2021-04-13 | 北京奇艺世纪科技有限公司 | 任务的处理方法、装置及系统、分配方法和装置 |
CN113377540A (zh) * | 2021-06-15 | 2021-09-10 | 上海商汤科技开发有限公司 | 集群资源调度方法及装置、电子设备和存储介质 |
-
2022
- 2022-04-29 CN CN202210465371.1A patent/CN114911612A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103124957A (zh) * | 2010-09-27 | 2013-05-29 | 三星电子株式会社 | 用于处理单元的动态资源分配的方法和设备 |
WO2016078008A1 (zh) * | 2014-11-19 | 2016-05-26 | 华为技术有限公司 | 调度数据流任务的方法和装置 |
CN105900064A (zh) * | 2014-11-19 | 2016-08-24 | 华为技术有限公司 | 调度数据流任务的方法和装置 |
CN107329828A (zh) * | 2017-06-26 | 2017-11-07 | 华中科技大学 | 一种面向cpu/gpu异构集群的数据流编程方法和系统 |
CN112596902A (zh) * | 2020-12-25 | 2021-04-02 | 中科星通(廊坊)信息技术有限公司 | 基于cpu-gpu协同计算的任务调度方法及装置 |
CN112650590A (zh) * | 2020-12-29 | 2021-04-13 | 北京奇艺世纪科技有限公司 | 任务的处理方法、装置及系统、分配方法和装置 |
CN113377540A (zh) * | 2021-06-15 | 2021-09-10 | 上海商汤科技开发有限公司 | 集群资源调度方法及装置、电子设备和存储介质 |
Non-Patent Citations (2)
Title |
---|
NAILA FAROOQUI: "Affinity-aware work-stealing for integrated CPU-GPU processors", 《PPOPP \'16: PROCEEDINGS OF THE 21ST ACM SIGPLAN SYMPOSIUM ON PRINCIPLES AND PRACTICE OF PARALLEL PROGRAMMING》, pages 1 - 2 * |
方娟;章佳兴;: "基于负载均衡的CPU- GPU异构计算平台任务调度策略", 北京工业大学学报, no. 07, pages 68 - 73 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116108764A (zh) * | 2023-04-14 | 2023-05-12 | 中国科学院长春光学精密机械与物理研究所 | 光学智能优化方法、装置、设备、介质 |
CN116594745A (zh) * | 2023-05-11 | 2023-08-15 | 阿里巴巴达摩院(杭州)科技有限公司 | 任务执行方法、系统、芯片及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Al-Maytami et al. | A task scheduling algorithm with improved makespan based on prediction of tasks computation time algorithm for cloud computing | |
Li et al. | Map-Balance-Reduce: An improved parallel programming model for load balancing of MapReduce | |
CN114911612A (zh) | 一种面向cpu-gpu异构资源的任务调度方法 | |
Cui et al. | A novel offloading scheduling method for mobile application in mobile edge computing | |
Wang et al. | A three-phases scheduling in a hierarchical cloud computing network | |
Nabi et al. | DRALBA: Dynamic and resource aware load balanced scheduling approach for cloud computing | |
CN108270805B (zh) | 用于数据处理的资源分配方法及装置 | |
CN112817730B (zh) | 深度神经网络服务批处理调度方法、系统及gpu | |
CN110187960A (zh) | 一种分布式资源调度方法及装置 | |
CN111159859B (zh) | 一种云容器集群的部署方法及系统 | |
CN107360031B (zh) | 一种基于优化开销收益比的虚拟网络映射方法 | |
Boeres et al. | Hybrid task scheduling: Integrating static and dynamic heuristics | |
Fotohi et al. | A cluster based job scheduling algorithm for grid computing | |
Kaushik et al. | Run-time computation and communication aware mapping heuristic for NoC-based heterogeneous MPSoC platforms | |
Paul et al. | Adaptive task allocation and scheduling on NoC-based multicore platforms with multitasking processors | |
CN112612613B (zh) | 用于在虚拟分布式异构环境下实现多gpu调度的方法和系统 | |
Pham et al. | Incorporating energy and throughput awareness in design space exploration and run-time mapping for heterogeneous MPSoCs | |
CN111049900B (zh) | 一种物联网流计算调度方法、装置和电子设备 | |
CN115098240B (zh) | 一种多处理器应用调度方法和系统及存储介质 | |
Hu et al. | Requirement-aware strategies with arbitrary processor release times for scheduling multiple divisible loads | |
CN114980216A (zh) | 基于移动边缘计算的依赖型任务卸载系统及方法 | |
Manikandan et al. | Cost Effective Optimal Task Scheduling Model in Hybrid Cloud Environment. | |
Paul et al. | A hybrid adaptive strategy for task allocation and scheduling for multi-applications on NoC-based multicore systems with resource sharing | |
Menouer et al. | Towards a parallel constraint solver for cloud computing environments | |
CN106227600A (zh) | 一种基于能量感知的多维虚拟资源分配方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |