CN111338782A - 面向共享式突发数据缓存的基于竞争感知的节点分配方法 - Google Patents
面向共享式突发数据缓存的基于竞争感知的节点分配方法 Download PDFInfo
- Publication number
- CN111338782A CN111338782A CN202010150503.2A CN202010150503A CN111338782A CN 111338782 A CN111338782 A CN 111338782A CN 202010150503 A CN202010150503 A CN 202010150503A CN 111338782 A CN111338782 A CN 111338782A
- Authority
- CN
- China
- Prior art keywords
- cache
- node
- job application
- burst data
- nodes
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/48—Program initiating; Program switching, e.g. by interrupt
- G06F9/4806—Task transfer initiation or dispatching
- G06F9/4843—Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
- G06F9/4881—Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5011—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
- G06F9/5016—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals the resource being the memory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/54—Interprogram communication
- G06F9/544—Buffers; Shared memory; Pipes
Abstract
本发明公开了一种面向共享式突发数据缓存的基于竞争感知的节点分配方法,包括:实时记录和分析当前运行的作业应用的I/O状态信息;实时监控当前运行的作业应用在突发数据缓存系统中的分布情况,并利用运行的作业应用的I/O状态信息计算缓存节点的负载量;利用缓存节点调度分配算法,根据突发数据缓存系统中缓存节点的I/O带宽竞争情况与的负载量,为即将运行的作业应用分配相应的缓存节点,然后,更新当前运行的作业应用的I/O状态信息与缓存节点的负载量。该方法能够高效地管理突发数据缓存系统中缓存节点的调度分配并协调同时来自不同用户的大量作业应用并发执行以优化应用和系统的性能。
Description
技术领域
本发明涉及计算机系统结构领域,尤其涉及一种面向共享式突发数据缓存的基于竞争感知的节点分配方法。
背景技术
高性能科学应用通常包含大量的I/O访问操作并且会产生大量数据。数据传输已成为许多大规模科学计算应用的性能瓶颈。Burst Buffer突发数据缓存技术是解决这一性能瓶颈问题的有潜力的方案。它是位于计算节点与并行文件系统之间的由高速存储介质(如SSD固态硬盘)组成的独立缓存节点。缓存节点可以快速利用其本地SSD的高带宽和低延迟特性来迅速吸收计算节点发出的I/O流量,从而达到提高应用程序I/O性能的目的。
目前针对此存储系统结构的研究主要集中在:1)基于新型存储硬件技术,致力于让硬盘的访问速度(尤其是随机访问的速度)追赶上内存的访问速度;2)如何通过在靠近数据存储的位置提供计算分析功能从而减少数据的传输量;3)通过在靠近计算节点的位置提供额外的快速缓存设备以减少数据的传输时间。但是现有的相关工作研究主要集中在提高单个应用在上述存储系统结构中的性能优化,没有考虑多应用并发访问时的存储资源分配、带宽竞争等问题。
突发数据缓存系统被设计为数百或数千个以上用户和应用程序共享的存储资源。以往的研究工作主要集中在研究如何通过直接减少I/O时间以及利用应用程序的计算和I/O阶段之间的重叠来提高应用程序性能。但是针对共享式突发数据缓存的存储资源管理仍未得到充分研究,现有的缓存节点调度分配策略只考虑用户的容量需求,这可能会导致多个并发运行的数据密集型应用程序之间会产生I/O竞争阻塞。
因此,亟需一种不仅能最大限度地提高存储资源利用率而且可以最大限度地减少应用之间的I/O带宽竞争的突发数据缓存节点分配算法。
发明内容
本发明的目的是提供一种面向共享式突发数据缓存的基于竞争感知的节点分配方法,能够高效地管理突发数据缓存系统中缓存节点的调度分配并协调同时来自不同用户的大量作业应用并发执行以优化应用和系统的性能。
本发明的目的是通过以下技术方案实现的:
一种面向共享式突发数据缓存的基于竞争感知的节点分配方法,包括:
实时记录和分析即将运行的作业应用的I/O状态信息;
实时监控当前运行的作业应用在突发数据缓存系统中的分布情况,从而计算缓存节点的负载量;
利用缓存节点调度分配算法,根据突发数据缓存系统中缓存节点的I/O带宽竞争情况与负载量以及即将运行的作业应用的I/O状态信息,为即将运行的作业应用分配相应的缓存节点,然后,更新即将运行的作业应用的I/O状态信息与缓存节点的负载量。
由上述本发明提供的技术方案可以看出,能够实现面向共享式突发数据缓存的节点动态分配。不仅能最大限度地提高存储资源利用率,而且可以最大限度地减少应用之间的I/O带宽竞争。通过动态分配当前负载较低的Burst Buffer节点来满足不同应用的存储需求,从而有效地提高应用程序的I/O性能和缓存系统的带宽利用率。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他附图。
图1为本发明实施例提供的一种面向共享式突发数据缓存的基于竞争感知的节点分配方法的流程图;
图2为本发明实施例提供的基于竞争感知的节点分配算法示意图。
具体实施方式
下面结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明的保护范围。
本发明实施例提供一种面向共享式突发数据缓存的基于竞争感知的节点分配方法,能够高效地管理突发数据缓存系统中缓存节点的调度分配并协调同时来自不同用户的大量作业应用并发执行以优化应用和系统的性能。实现的方法能够动态捕获任何在系统运行中的数据密集型应用的I/O状态信息并实时监视分析整个突发数据缓存系统的节点负载情况。根据实时收集的应用和系统的状态数据来采用相应的节点分配策略算法,算法将为每个即将要运行访问存储系统的应用动态分配最优的缓存节点来让每个应用尽可能获得最大的I/O性能。算法通过动态分配当前负载较低的缓存节点来满足不同应用的存储需求,从而提高应用程序的I/O性能和系统的带宽利用率。
如图1所示,为本发明实施例提供的一种面向共享式突发数据缓存的基于竞争感知的节点分配方法的流程图,其主要包括如下步骤:
步骤1、实时记录和分析即将运行的作业应用的I/O状态信息。
本步骤主要是进行应用的I/O特征分析,过程如下:
1)接收用户通过脚本提交的作业应用,并写入等待队列;接收用户通过脚本提交的作业应用时,还接收用户提供的作业应用的附加信息,包括:I/O进程的数量以及所需存储空间大小等。
2)作业调度程序将安排等待队列中的各个作业应用的执行顺序。
3)当从作业从等待队列中释放并开始运行访问突发数据缓存系统时,开始分析作业应用的I/O状态信息并实时记录更新在运行时数据库中。
本发明实施例中,I/O状态信息主要包括:I/O进程数量和作业应用所能得到的I/O带宽。
步骤2、实时监控当前运行的作业应用在突发数据缓存系统中的分布情况,从而计算缓存节点的负载量。
本步骤主要是进行缓存节点的负载分析,其中,作业应用的分布情况主要是指每个作业应用运行在哪个缓存节点。同时,对于当前运行的作业应用,根据相应的I/O状态信息,可以计算并使用并发I/O进程的数量来描述每个缓存节点的负载量。
系统会监控各个缓存节点的应用进程分布情况和每个缓存节点的负载情况。示例性的,可以以(节点名称,作业负载分布)的格式记录更新在运行时数据库以供其他模块需要。运行时维护的信息能够细粒度地显示了当前应用的I/O进程分布情况。
步骤3、利用缓存节点调度分配算法,根据突发数据缓存系统中缓存节点的I/O带宽竞争情况与负载量以及即将运行的作业应用的I/O状态信息,为即将运行的作业应用分配相应的缓存节点,然后,更新即将运行的作业应用的I/O状态信息与缓存节点的负载量。
本步骤主要是进行缓存节点的动态调度,当等待队列中的新作业准备开始运行时,根据缓存节点负载量,结合该作业应用的存储需求,并通过调用相应的调度分配算法(通过图1所示的节点调度模块实现)来确定将哪些缓存节点分配给新作业。在每给一个新作业动态分配完缓存节点资源后,作业跟踪模块和负载监控模块将相应地更新当前每个活跃作业的I/O状态信息和每个缓存节点上的负载情况。主要如下:
1)分析缓存节点的I/O带宽竞争情况:每个进程都能够直接访问每个缓存节点,并且能够通过互联网络以最大带宽bm将数据传输到突发数据缓存系统;如果K个进程同时访问同一个缓存节点时,K个进程的聚合带宽K×bm不超过缓存节点最大峰值带宽BM,则认为相应缓存节点未发生I/O带宽竞争情况;否则,认为相应缓存节点发生I/O带宽竞争情况。
缓存节点未发生I/O带宽竞争情况时,访问相应缓存节点上的每个I/O进程都能达到最大带宽bm的数据传输速率并且这K个进程可以实现最大的聚合带宽K×bm。在访问未发生I/O带宽竞争的节点中的应用都可以有效利用系统提供的带宽发挥最大的I/O性能。在许多情况下,并发的I/O进程数K非常大,当并发I/O进程的聚合带宽(即K×bm)超过单个缓存节点的峰值带宽BM时会发生I/O带宽竞争现象。在这种情况下,此缓存节点的I/O总带宽由访问它的所有作业的所有并发进程共享。因此,每个I/O进程的实际数据传输速率为BM/K。在产生I/O竞争的缓存节点中,每个正在访问的I/O进程可获得的数据传输带宽都小于bm。所以本发明实施例中,会跳过已经产生I/O带宽竞争的缓存节点选择没有产生I/O竞争的缓存节点分配给给新的应用。
2)根据上述逻辑,结合缓存节点的负载量选出未发生I/O带宽竞争情况的缓存节点,并根据即将运行的作业应用的I/O状态信息从未发生I/O带宽竞争情况的缓存节点中选出负载量最小的S个(具体数值可根据实际情况设定)缓存节点,按照即将运行的作业应用所需存储空间大小,在S个缓存节点上等量划分。
本发明实时中,根据作业应用的存储空间需求分配尽可能多的缓存节点来最大化应用的可用带宽。应用程序的请求存储空间将在多个缓存节点上等量划分,并且每个缓存节点包含至少一个最小分配容量单位(G)。因此,对于第i个作业应用的特定容量请求(ri),算法分配最多ri/G个缓存节点。
如之前所述,分配缓存节点时,可以根据运行时收集分析的信息计算出每个缓存节点上的I/O负载。如图2所示,当一个新作业开始运行并访问突发数据缓存系统,且当前系统中所有缓存节点均发生I/O带宽竞争情况时(一种极端情况),算法将为此新作业选择当前突发数据缓存系统中具有最低负载值的缓存节点。当根据即将运行的作业应用的I/O状态信息,判定只需要分配一个缓存节点时,如果存在多个缓存节点都具有相同的最小负载值,则算法将选择这些符合要求的节点中索引值最小的缓存节点。然后算法将更新最近被分配的缓存节点的负载值。当根据即将运行的作业应用的I/O状态信息,判定需要分配多个缓存节点,则算法需要按照上述方式运行所需节点数的迭代次数才能完成此新作业的资源分配过程。
图2中,算法的输入(Input)为:当前所有N个缓存节点的负载量A1~AN。输出(output)为为下一个新应用分配的节点列表(allocatedlist)。当新应用开始运行并访问缓存系统时,算法将为此新作业选择当前具有最小负载值minactive(第3行)的缓存节点。如果存在多个缓存节点都具有相同的最小负载值,则算法将选择这些符合要求的节点中索引值最小的那个节点mini(第4~5行)。然后算法将更新已分配的节点列表allocatedlist和最近被分配的节点Anewbb的负载值(第10~11行)。如果新应用需要使用n个缓存节点,则算法需要循环运行n次才能完成此新应用的节点分配过程。
当按照上述方式为即将运行的作业应用分配缓存节点后,如果当前运行的作业应用与即将运行的作业应用共享同一个缓存节点的,则它们各自的I/O带宽会重新分配,因此,此后还需要更新I/O状态信息。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例可以通过软件实现,也可以借助软件加必要的通用硬件平台的方式来实现。基于这样的理解,上述实施例的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明披露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求书的保护范围为准。
Claims (5)
1.一种面向共享式突发数据缓存的基于竞争感知的节点分配方法,其特征在于,包括:
实时记录和分析即将运行的作业应用的I/O状态信息;
实时监控当前运行的作业应用在突发数据缓存系统中的分布情况,从而计算缓存节点的负载量;
利用缓存节点调度分配算法,根据突发数据缓存系统中缓存节点的I/O带宽竞争情况与负载量以及即将运行的作业应用的I/O状态信息,为即将运行的作业应用分配相应的缓存节点,然后,更新即将运行的作业应用的I/O状态信息与缓存节点的负载量。
2.根据权利要求1所述的一种面向共享式突发数据缓存的基于竞争感知的节点分配方法,其特征在于,所述实时记录和分析即将运行的作业应用的I/O状态信息包括:
接收用户通过脚本提交的作业应用,并写入等待队列;
作业调度程序将安排等待队列中的各个作业应用的执行顺序;
当从作业从等待队列中释放并开始运行访问突发数据缓存系统时,开始分析作业应用的I/O状态信息并实时记录更新在运行时数据库中。
3.根据权利要求1所述的一种面向共享式突发数据缓存的基于竞争感知的节点分配方法,其特征在于,接收用户通过脚本提交的作业应用时,还接收用户提供的作业应用的附加信息,包括:I/O进程的数量以及所需存储空间大小。
4.根据权利要求1所述的一种面向共享式突发数据缓存的基于竞争感知的节点分配方法,其特征在于,所述利用缓存节点调度分配算法,根据当前突发数据缓存系统中缓存节点的负载量以及即将运行的作业应用的I/O状态信息,为即将运行的作业应用分配相应的缓存节点包括:
分析缓存节点的I/O带宽竞争情况:每个进程都能够直接访问每个缓存节点,并且能够通过互联网络以最大带宽bm将数据传输到突发数据缓存系统;如果K个进程同时访问同一个缓存节点时,K个进程的聚合带宽K×bm不超过缓存节点最大峰值带宽BM,则认为相应缓存节点未发生I/O带宽竞争情况;否则,认为相应缓存节点发生I/O带宽竞争情况;
根据上述逻辑,结合缓存节点的负载量选出未发生I/O带宽竞争情况的缓存节点,并根据即将运行的作业应用的I/O状态信息从未发生I/O带宽竞争情况的缓存节点中选出负载量最小的S个缓存节点,按照即将运行的作业应用所需存储空间大小,在S个缓存节点上等量划分。
5.根据权利要求4所述的一种面向共享式突发数据缓存的基于竞争感知的节点分配方法,其特征在于,如果所有缓存节点均发生I/O带宽竞争情况,则为即将运行的作业应用分配具有最低负载量的缓存节点;当根据即将运行的作业应用的I/O状态信息,判定只需要分配一个缓存节点时,如果存在多个缓存节点都具有相同的最小负载量,则从中选择索引值最小的缓存节点分配给即将运行的作业应用;
当根据即将运行的作业应用的I/O状态信息,判定作业应用需要分配多个缓存节点,则按照需要分配的缓存节点数,采用上一段介绍的方式迭代相应相应次数,完成缓存节点分配。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010150503.2A CN111338782A (zh) | 2020-03-06 | 2020-03-06 | 面向共享式突发数据缓存的基于竞争感知的节点分配方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010150503.2A CN111338782A (zh) | 2020-03-06 | 2020-03-06 | 面向共享式突发数据缓存的基于竞争感知的节点分配方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111338782A true CN111338782A (zh) | 2020-06-26 |
Family
ID=71186006
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010150503.2A Pending CN111338782A (zh) | 2020-03-06 | 2020-03-06 | 面向共享式突发数据缓存的基于竞争感知的节点分配方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111338782A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023124347A1 (zh) * | 2021-12-31 | 2023-07-06 | 华为云计算技术有限公司 | 一种存储节点的配置方法以及相关装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102081551A (zh) * | 2011-01-28 | 2011-06-01 | 中国人民解放军国防科学技术大学 | 一种感知微体系结构信息的操作系统线程调度方法 |
CN103279429A (zh) * | 2013-05-24 | 2013-09-04 | 浪潮电子信息产业股份有限公司 | 一种应用感知的分布式全局共享缓存分区方法 |
US20140068621A1 (en) * | 2012-08-30 | 2014-03-06 | Sriram Sitaraman | Dynamic storage-aware job scheduling |
CN104050043A (zh) * | 2014-06-17 | 2014-09-17 | 华为技术有限公司 | 基于共享缓存感知的虚拟机调度方法和装置 |
US20160246647A1 (en) * | 2015-02-19 | 2016-08-25 | Oracle International Corporation | Adaptive Contention-Aware Thread Placement for Parallel Runtime Systems |
WO2018019119A1 (zh) * | 2016-07-26 | 2018-02-01 | 北京理工大学 | 一种面向连续数据存储的动态局部并行数据布局方法及装置 |
CN109428827A (zh) * | 2017-08-21 | 2019-03-05 | 深圳市中兴微电子技术有限公司 | 一种流量自适应的缓存分配装置及方法、onu设备 |
-
2020
- 2020-03-06 CN CN202010150503.2A patent/CN111338782A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102081551A (zh) * | 2011-01-28 | 2011-06-01 | 中国人民解放军国防科学技术大学 | 一种感知微体系结构信息的操作系统线程调度方法 |
US20140068621A1 (en) * | 2012-08-30 | 2014-03-06 | Sriram Sitaraman | Dynamic storage-aware job scheduling |
CN103279429A (zh) * | 2013-05-24 | 2013-09-04 | 浪潮电子信息产业股份有限公司 | 一种应用感知的分布式全局共享缓存分区方法 |
CN104050043A (zh) * | 2014-06-17 | 2014-09-17 | 华为技术有限公司 | 基于共享缓存感知的虚拟机调度方法和装置 |
US20160246647A1 (en) * | 2015-02-19 | 2016-08-25 | Oracle International Corporation | Adaptive Contention-Aware Thread Placement for Parallel Runtime Systems |
WO2018019119A1 (zh) * | 2016-07-26 | 2018-02-01 | 北京理工大学 | 一种面向连续数据存储的动态局部并行数据布局方法及装置 |
CN109428827A (zh) * | 2017-08-21 | 2019-03-05 | 深圳市中兴微电子技术有限公司 | 一种流量自适应的缓存分配装置及方法、onu设备 |
Non-Patent Citations (2)
Title |
---|
周恩强等: "面向分层混合存储架构的协同式突发缓冲技术", 《国防科技大学学报》 * |
梁伟浩: "E级计算的存储系统突发数据缓存的I_O性能优化", 《中国博士学位论文全文数据库(电子期刊) 信息科技辑》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023124347A1 (zh) * | 2021-12-31 | 2023-07-06 | 华为云计算技术有限公司 | 一种存储节点的配置方法以及相关装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5744909B2 (ja) | アクセラレータ・リソースを動的に管理するための方法、情報処理システム、およびコンピュータ・プログラム | |
Guo et al. | Investigation of data locality in mapreduce | |
US8205205B2 (en) | Multi-objective allocation of computational jobs in client-server or hosting environments | |
EP1750200A2 (en) | System and method for executing job step, and computer product | |
US20070039002A1 (en) | Method and apparatus for dispatching tasks in a non-uniform memory access (NUMA) computer system | |
CN102541460B (zh) | 一种多磁盘场景下的磁盘管理方法和设备 | |
CN113821311A (zh) | 任务执行方法及存储设备 | |
Jiang et al. | Characterizing co-located workloads in alibaba cloud datacenters | |
JP7282823B2 (ja) | メモリアクセスリクエストスケジューリング方法、装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム | |
US7752623B1 (en) | System and method for allocating resources by examining a system characteristic | |
US8458719B2 (en) | Storage management in a data processing system | |
US20210117240A1 (en) | Cpu utilization for service level i/o scheduling | |
CN111597038B (zh) | 一种超级计算机i/o转发结点轮询映射方法 | |
Zhang et al. | Toward qos-awareness and improved utilization of spatial multitasking gpus | |
CN111625339A (zh) | 集群资源调度方法、装置、介质和计算设备 | |
CN114546587A (zh) | 一种在线图像识别服务的扩缩容方法及相关装置 | |
JP5810918B2 (ja) | スケジューリング装置、スケジューリング方法及びプログラム | |
Zhang et al. | Charm: Collaborative host and accelerator resource management for gpu datacenters | |
CN111338782A (zh) | 面向共享式突发数据缓存的基于竞争感知的节点分配方法 | |
CN116932156A (zh) | 一种任务处理方法、装置及系统 | |
Sharma et al. | A review on data locality in hadoop MapReduce | |
Ullah et al. | Task priority-based cached-data prefetching and eviction mechanisms for performance optimization of edge computing clusters | |
Lou et al. | ArkGPU: enabling applications’ high-goodput co-location execution on multitasking GPUs | |
CN114217733B (zh) | 一种面向io转发系统的io处理框架及io请求处理方法 | |
Pei et al. | Workflow scheduling using graph segmentation and reinforcement learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |