CN108509280B - 一种基于推送模型的分布式计算集群本地性调度方法 - Google Patents
一种基于推送模型的分布式计算集群本地性调度方法 Download PDFInfo
- Publication number
- CN108509280B CN108509280B CN201810367756.8A CN201810367756A CN108509280B CN 108509280 B CN108509280 B CN 108509280B CN 201810367756 A CN201810367756 A CN 201810367756A CN 108509280 B CN108509280 B CN 108509280B
- Authority
- CN
- China
- Prior art keywords
- resource request
- locality
- resource
- cluster
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
- G06F9/5038—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the execution order of a plurality of tasks, e.g. taking priority or time dependency constraints into consideration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2209/00—Indexing scheme relating to G06F9/00
- G06F2209/50—Indexing scheme relating to G06F9/50
- G06F2209/5021—Priority
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种基于推送模型的分布式计算集群本地性调度方法,包括以下步骤:第一步,各应用管理器为每个计算任务生成一个资源请求,发送给集群调度器;第二步,集群调度器对收到的资源请求进行分类;第三步,对分类好的资源请求进行剪枝处理;第四步,节点管理器通过心跳来触发调度;第五步,对于等待时间超过了最大延迟时间的资源请求,缓存到待推送的资源请求队列中;第六步,将待推送的资源请求主动推送到其数据所在的节点进行调度;第七步,降低推送失败的资源请求所要求的数据本地性。本发明可解决现有集群调度器在内存计算场景下本地性差的问题,提高数据本地性,同时解决长尾效应问题。
Description
技术领域
本发明涉及资源调度与并行计算技术领域,尤其涉及一种基于推送(Push)模型的分布式计算集群本地性调度方法。
背景技术
在当今大数据时代,数据密集型计算被应用在越来越多的场景下,而且随着以Apache Hadoop为代表的数据并行计算框架的出现和蓬勃发展,使得计算能力有了极大的提高,并且,Hadoop YARN成为了Hadoop生态系统中的资源管理器。与此同时,随着内存硬件价格的不断降低,基于磁盘存储的分布式文件系统HDFS逐渐不能满足分布式系统对数据获取速度的要求,因此,基于内存的分布式文件系统Alluxio开始兴起。数据本地性是影响分布式计算框架性能的一大重要指标,数据本地性就是将计算放置在数据所存放的节点上,可以有效的减少跨节点,甚至跨机架的数据传输所带来的网络开销,尤其是在基于内存的分布式文件系统中,数据本地性意味着以内存的速度来获取数据。但是,我们在实践中发现,在内存计算场景下,资源管理器YARN的数据本地性性能非常差。前人提出了一种延迟调度的方法来获取数据本地性:每次一个节点向调度器发送心跳触发一次调度时,如果调度器不能在该节点上分配一个满足数据本地性的任务,就放弃本次调度机会,让其他节点进行调度。这样的调度机制在HDFS这样的多副本文件系统中可以获得较好的性能,但是在Alluxio这样的单副本场景下,由于每次调度满足数据本地性的概率远低于多副本场景,从而导致需要跳过大量的调度机会才能获得数据本地性。我们通过实验发现,大量跳过的调度次数会带来长尾效应的问题,从而导致这些跳过大量调度次数的任务会成为应用的“拖累者”,影响应用的完成时间,与此同时,大量的延迟调度过程中,会带来很多不必要的计算,从而影响系统的吞吐量。但是,目前还没有方法旨在解决内存场景下的本地性调度问题。因此,如何设计一个调度机制,使得调度器在内存计算这样的单副本场景下依旧获得很好的数据本地性,成为了一个非常有挑战性的工作。
发明内容
发明目的:针对上述现有技术存在的问题和不足,本发明的目的是提供一种基于推送模型的分布式计算集群本地性调度方法,解决了现有方法在内存计算场景下本地性性能不高的问题,同时,解决延迟调度所带来的长尾效应问题。
技术方案:为实现上述发明目的,本发明采用的技术方案为一种基于推送模型的分布式计算集群本地性调度方法,包括以下步骤:
(1)每一个应用管理器(Application Master,AM)根据输入的数据块的数目,划分成多个任务,同时,各个应用管理器为每一个任务生成资源请求,发送给集群调度器,并缓存在第一资源请求队列中;
(2)集群调度器根据资源请求的优先级,将所述第一资源请求队列划分为四种不同任务的资源请求:1、Map任务;2、AM任务;3、Reduce任务;4、失败过的Map任务;
(3)集群调度器对所述步骤(2)中划分的不同任务的资源请求,作相应的剪枝处理,生成第二资源请求队列,具体如下:1、对于Map任务,只响应数据落在本地的资源请求;2、对于AM任务,由于AM任务中不存在数据,所以不做任何本地性检查;3、对于Reduce任务,由于所需要的数据在不同的节点上,所以不做任何本地性检查;4、对于失败过的Map任务,降低资源请求所要求的本地性等级;
(4)每次当节点管理器(Node Manager,NM)向集群调度器发送心跳时,集群调度器从第二资源请求队列中选取一个资源请求,进行资源分配;
(5)从所述第二资源请求队列中,筛选出等待时间超过设定的最大延迟时间的资源请求,缓存在第三资源请求队列中;
(6)集群调度器从所述第三资源请求队列中选取一个等待时间最长的资源请求,查找该资源请求的数据所在节点,主动触发该节点的调度;
(7)如果主动触发调度后仍然失败,则降低要求的本地性等级。
进一步地,所述步骤(1)中,资源管理器为每个提交的应用生成一个应用管理器,应用管理器将应用划分成一个个子任务,同时为每个子任务生成一个资源请求,并行的发送给资源管理器中的集群调度器。
进一步地,所述步骤(2)中,根据资源请求的不同优先级,判断资源请求的任务种类,将所有的资源请求划分为四种不同任务的资源请求。
进一步地,所述步骤(3)中,根据不同的任务的特点,设计相应的处理逻辑,对无法获得数据本地性的资源请求进行剪枝,同时减少不必要的本地性检查。
进一步地,所述步骤(4)中,每个节点管理器向集群调度器发送心跳时,会触发集群调度器进行一次调度,每一次调度会从第二资源请求队列中选择一个当前资源使用量/资源配额最低的资源请求进行调度。
进一步地,所述步骤(5)中,在最大延迟时间内,集群调度器等待节点发送心跳来触发调度而不主动触发调度,当一个资源请求的等待时间超过最大延迟时间后,将其缓存到第三资源请求队列中。
进一步地,所述步骤(6)中,在第三资源请求队列中,采用贪心算法,从队列中的所有资源请求中,选取一个等待时间最长的资源请求,主动推送到资源请求所需要的数据所在的节点,触发该节点的调度。
进一步地,所述步骤(7)中,对于主动触发调度后仍然调度失败的资源请求,降低其本地性要求。
有益效果:本发明能够在内存计算场景下,通过一种基于推送(Push)模型的分布式计算集群本地性调度方法,有效的解决数据本地性问题:第一,本发明针对现有调度机制在内存计算场景下本地性差的问题,通过过一种基于推送(Push)模型的分布式计算集群本地性调度方法,有效提高任务的数据本地性;第二,不同于以往方法需要通过大量的延迟来等待数据所在节点发送心跳来触发调度,本发明设计的调度方法在等待一小段时间后,主动寻找数据所在的节点,将资源请求推送到数据所在节点,从而解决了大量延迟带来的长尾效应问题;第三,本发明虽然实现在YARN(Yet Another Resource Manager)框架上,但总体设计思路并不依赖特定的数据并行计算框架,方便在任何上述系统上实现,具有良好的可移植性。
附图说明
图1为本发明的方法总体流程示意图;
图2为本发明中资源请求剪枝阶段的示意图。
具体实施方式
下面结合附图和具体实施例,进一步阐明本发明,应理解这些实施例仅用于说明本发明而不用于限制本发明的范围,在阅读了本发明之后,本领域技术人员对本发明的各种等价形式的修改均落于本申请所附权利要求所限定的范围。
本发明提出了一种基于Push模型的本地性调度方法,解决了内存计算场景下本地性差和长尾效应的问题,并且设计了一种针对不同任务的剪枝处理方法,从而降低了处理过程中的复杂度。
如图1所示,本发明的完整流程包括资源请求生成阶段、任务分类阶段、剪枝阶段、心跳处理阶段、筛选阶段、主动推送阶段、推送失败后的处理阶段7个部分。具体的实施方式分别说明如下:
资源请求生成阶段对应技术方案步骤(1)。具体实施方式为:首先将应用提交给资源管理器(Resource Manager,RM),然后资源管理器会为每一个应用创建一个应用管理器。应用管理器将应用根据输入数据的规模划分成一个个任务,其中,任务划分的依据是:每一个数据块会生成一个任务,该数据块作为任务的输入数据。任务划分完成后,AM为每一个任务生成一个资源请求,其中,资源请求以一个五元组的形式表示:<p,k,r,c,f>,其中p代表资源请求的优先级;k代表期望被调度的节点或机架;r代表所需要的资源量(包括cpu资源和内存资源);c代表需要的容器数目;f代表是否允许降低本地性。生成的资源请求会并发的发送给集群调度器。
任务分类阶段对应技术方案步骤(2)。具体实施方式为:由于不同种类的任务拥有不同的优先级,数值越低代表优先级越高,其中,AM任务的优先级为0,因为AM任务需要负责整个应用的管理,需要最先被分配。Map任务的优先级为20,Reduce任务的优先级为10,失败过的Map任务的优先级为15。集群调度器将收到的资源请求根据优先级划分为四种不同任务的资源请求。
剪枝阶段对应技术方案步骤(3)。具体实施方式为:对于不同任务的资源请求,集群调度器作相应的剪枝处理,如图2所示,具体如下:1、对于Map任务,只响应数据落在本地的资源请求:每次收到一个节点发送的心跳,集群调度器根据资源请求五元组的第二个元素k资源请求所期望的位置(即数据所在的位置),筛选出期望被调度到心跳节点的资源请求,其他MAP任务的资源请求不作任何响应;2、对于AM任务,由于AM任务中不存在数据,所以不做任何的本地性检查,直接完成调度;3、对于Reduce任务,由于所需要的数据在不同的节点上,所以不做任何的本地性检查,直接完成调度;4、对于失败过的Map任务,由于已经失败过一次,可能是数据所在的节点没有空闲资源或者宕机,因此降低资源请求所要求的本地性等级;
心跳处理阶段对应技术方案步骤(4)。具体实施方式为:每次节点管理器向集群调度器发送心跳时,会触发一个节点更新(NODE_UPDATE)事件,节点更新事件会触发一次集群调度器的调度,每一次调度会从第二资源请求队列中选择一个资源请求进行调度,其中,资源请求的选择依据是:选取当前资源使用量/资源配额最低的资源请求。
筛选阶段对应技术方案步骤(5)。具体实施方式为:在第二资源请求队列中,将当前等待时间超过设定的最大延迟时间的资源请求,缓存在第三资源请求队列中。
主动推送阶段对应技术方案步骤(6)。具体实施方式为:在第三资源请求队列中,采用贪心算法,从队列中的所有资源请求中,选取一个等待时间最长的资源请求,找到资源请求所需要的数据所在的节点,通知该数据所在节点向集群调度器发送一个节点更新事件,从而触发集群调度器在该节点上的调度。
推送失败后的处理阶段对应技术方案步骤(7)。具体实施方式为:主动触发调度后的资源请求,由于节点上没有空闲资源或者节点宕机等原因,使得调度失败。因此,将主动触发后仍然失败的资源请求,降低其本地性要求,具体来说,就是将资源请求中的k,从原来的某一个节点,改为节点所在的机架,这样,资源请求可以被调度到该机架上的任意一个节点,从而避免资源请求出现饥饿问题。
本发明基于在已有的开源软件YARN上实现了一个原型调度机制PSM(Push-basedScheduling Mechanism)。其中底层数据存储使用Alluxio,计算框架使用Apache Hadoop。在进行性能测试过程中,采用了学术界和工业界广泛采用的测试标准(benchmark):Big-Bench。
通过使用Big-Bench,对现有的调度方法与本发明实现的调度方法进行性能测试,表1是在相同的硬件条件下对比本方法和目前YARN原生的调度方法以及现有性能最好的延迟调度方法所获得的性能测试结果。性能测试从三个方面测试调度方法的性能:数据本地性、完成时间、吞吐量,其中,数据本地性从三方面进行衡量:节点本地性代表着资源请求被调度到数据所在的节点,数据本地性最佳,机架本地性代表资源请求被调度到与数据所在节点同机架的另一个节点,数据本地性效果次之,跨机架本地性效果最差,代表资源请求被调度到另一个机架上的节点;完成时间是应用从提交到全部完成所花费的总时间,时间越短,效果越好;吞吐量表示单位时间内被成功调度的资源请求的数量,吞吐量越高,性能越好。从表1中可以看出,YARN原生调度方法在本地性性能上非常差,只有20%的节点本地性,由于数据本地性差,数据需要从其他节点传输到被调度到的节点,从而导致完成时间最长(786s),但由于不需要做任何的本地性检查,所以在系统吞吐量上可以获得较好的性能。延迟调度方法通过大量的延迟次数,可以获得较高的节点本地性(88%),但由于大量延迟次数所带来的长尾效应问题,使得长尾任务称为整个应用的“拖累者”,增加了完成时间,同时,大量的调度机会被跳过使得系统的吞吐量降低。本发明提出的基于推送(Push)模型的调度方法可以获得最好的节点本地性(96%),同时完成时间最短,但为了获得数据本地性,仍需要少量的等待时间,所以在系统吞吐量方面,相较于原生调度机制,有小幅的降低(5%)。相较于原生调度方法,虽然在吞吐量上有小幅的下降,但是节点的数据本地性以及完成时间上有大幅的提高;而相较于目前本地性效果最好的延迟调度方法,本发明可以在实现更好的数据本地性的同时,降低10%的完成时间,同时提高20%左右的吞吐量。
表1:不同调度方法下的性能测试
Claims (3)
1.一种基于推送模型的分布式计算集群本地性调度方法,包括以下步骤:
(1)每一个应用管理器根据输入的数据块的数目,划分成多个任务,同时,各个应用管理器为每一个任务生成资源请求,发送给集群调度器,并缓存在第一资源请求队列中;
(2)集群调度器根据资源请求的优先级,将所述第一资源请求队列划分为四种不同任务的资源请求:1、Map任务;2、AM任务;3、Reduce任务;4、失败过的Map任务;
(3)集群调度器对所述步骤(2)中划分的不同任务的资源请求,作相应的剪枝处理,生成第二资源请求队列,具体如下:1、对于Map任务,只响应数据落在本地的资源请求;2、对于AM任务,由于AM任务中不存在数据,所以不做任何本地性检查;3、对于Reduce任务,由于所需要的数据在不同的节点上,所以不做任何本地性检查;4、对于失败过的Map任务,降低资源请求所要求的本地性等级;
(4)每次当节点管理器向集群调度器发送心跳时,集群调度器从所述第二资源请求队列中选取一个资源请求,进行资源分配;
(5)从所述第二资源请求队列中,筛选出等待时间超过设定的最大延迟时间的资源请求,缓存在第三资源请求队列中;
(6)集群调度器从所述第三资源请求队列中选取一个等待时间最长的资源请求,查找该资源请求的数据所在节点,主动触发该节点的调度;
(7)如果主动触发调度后仍然失败,则降低要求的本地性等级。
2.根据权利要求1所述一种基于推送模型的分布式计算集群本地性调度方法,其特征在于:所述步骤(1)中,各个应用管理器为每一个任务生成一个资源请求的过程为并行执行。
3.根据权利要求1所述一种基于推送模型的分布式计算集群本地性调度方法,其特征在于:所述步骤(4)中,节点管理器通过定时向集群调度器发送心跳来触发集群调度器的调度,同时,各个节点管理器并行的向集群调度器发送心跳。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810367756.8A CN108509280B (zh) | 2018-04-23 | 2018-04-23 | 一种基于推送模型的分布式计算集群本地性调度方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810367756.8A CN108509280B (zh) | 2018-04-23 | 2018-04-23 | 一种基于推送模型的分布式计算集群本地性调度方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108509280A CN108509280A (zh) | 2018-09-07 |
CN108509280B true CN108509280B (zh) | 2022-05-31 |
Family
ID=63383017
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810367756.8A Active CN108509280B (zh) | 2018-04-23 | 2018-04-23 | 一种基于推送模型的分布式计算集群本地性调度方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108509280B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109918181B (zh) * | 2019-01-12 | 2023-04-14 | 西北工业大学 | 基于最差响应时间的混合关键系统任务可调度性分析方法 |
CN110149368A (zh) * | 2019-04-19 | 2019-08-20 | 平安科技(深圳)有限公司 | 基于中间服务器的心跳包发送方法、装置和计算机设备 |
CN110262897B (zh) * | 2019-06-13 | 2023-01-31 | 东北大学 | 一种基于负载预测的Hadoop计算任务初始分配方法 |
CN113535333A (zh) * | 2021-08-12 | 2021-10-22 | 北京字节跳动网络技术有限公司 | Yarn集群资源调度方法、系统、介质和计算机设备 |
CN114466032B (zh) * | 2021-12-27 | 2023-11-03 | 天翼云科技有限公司 | 一种cdn系统合并回源方法、装置及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103336791A (zh) * | 2013-06-06 | 2013-10-02 | 湖州师范学院 | 基于Hadoop的粗糙集快速属性约简方法 |
CN103533514A (zh) * | 2012-07-06 | 2014-01-22 | 中兴通讯股份有限公司 | 一种集群业务优先级的实现方法和系统 |
CN105868008A (zh) * | 2016-03-23 | 2016-08-17 | 深圳大学 | 基于关键资源和数据预处理的资源调度方法及识别系统 |
CN107038069A (zh) * | 2017-03-24 | 2017-08-11 | 北京工业大学 | Hadoop平台下动态标签匹配DLMS调度方法 |
WO2017204620A1 (en) * | 2016-05-25 | 2017-11-30 | Moerli Jermaine Gré | Yarn and anti-slip water-sock |
-
2018
- 2018-04-23 CN CN201810367756.8A patent/CN108509280B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103533514A (zh) * | 2012-07-06 | 2014-01-22 | 中兴通讯股份有限公司 | 一种集群业务优先级的实现方法和系统 |
CN103336791A (zh) * | 2013-06-06 | 2013-10-02 | 湖州师范学院 | 基于Hadoop的粗糙集快速属性约简方法 |
CN105868008A (zh) * | 2016-03-23 | 2016-08-17 | 深圳大学 | 基于关键资源和数据预处理的资源调度方法及识别系统 |
WO2017204620A1 (en) * | 2016-05-25 | 2017-11-30 | Moerli Jermaine Gré | Yarn and anti-slip water-sock |
CN107038069A (zh) * | 2017-03-24 | 2017-08-11 | 北京工业大学 | Hadoop平台下动态标签匹配DLMS调度方法 |
Non-Patent Citations (2)
Title |
---|
Isard M等.Quincy: Fair Scheduling for Distributed Computing.《International Conference on Recent Trends in Information Systems.IEEE》.2009,第1-20页. * |
大数据处理技术与系统研究;顾荣;《中国优秀博硕士学位论文全文数据库(博士)信息科技辑》;20170315(第3期);第I138-17页 * |
Also Published As
Publication number | Publication date |
---|---|
CN108509280A (zh) | 2018-09-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108509280B (zh) | 一种基于推送模型的分布式计算集群本地性调度方法 | |
CN110704186B (zh) | 基于混合分布架构的计算资源分配方法、装置和存储介质 | |
CN107038069B (zh) | Hadoop平台下动态标签匹配DLMS调度方法 | |
US9442760B2 (en) | Job scheduling using expected server performance information | |
Cho et al. | Natjam: Design and evaluation of eviction policies for supporting priorities and deadlines in mapreduce clusters | |
US8689226B2 (en) | Assigning resources to processing stages of a processing subsystem | |
CN114741207B (zh) | 一种基于多维度组合并行的gpu资源调度方法和系统 | |
Pakize | A comprehensive view of Hadoop MapReduce scheduling algorithms | |
CN114610474B (zh) | 一种异构超算环境下多策略的作业调度方法及系统 | |
CN110990154B (zh) | 一种大数据应用优化方法、装置及存储介质 | |
WO2020125396A1 (zh) | 一种共享数据的处理方法、装置及服务器 | |
US20070195356A1 (en) | Job preempt set generation for resource management | |
CN112015765B (zh) | 基于缓存价值的Spark缓存淘汰方法及系统 | |
CN113296874B (zh) | 一种任务的调度方法、计算设备及存储介质 | |
CN115686805A (zh) | Gpu资源共享的方法和装置、调度gpu资源共享的方法和装置 | |
WO2016202153A1 (zh) | 一种gpu资源的分配方法及系统 | |
Qureshi et al. | Grid resource allocation for real-time data-intensive tasks | |
WO2020108337A1 (zh) | 一种cpu资源调度方法及电子设备 | |
US20210390405A1 (en) | Microservice-based training systems in heterogeneous graphic processor unit (gpu) cluster and operating method thereof | |
US11429299B2 (en) | System and method for managing conversion of low-locality data into high-locality data | |
WO2022026044A1 (en) | Sharing of compute resources between the virtualized radio access network (vran) and other workloads | |
CN113360577A (zh) | 一种mpp数据库数据处理方法、装置、设备及存储介质 | |
CN112114951A (zh) | 一种自下而上的分布式调度系统及方法 | |
EP4184324A1 (en) | Efficient accelerator offload in multi-accelerator framework | |
CN116360922A (zh) | 集群资源调度方法、装置、计算机设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |