CN114930292A - 协作式工作窃取调度器 - Google Patents
协作式工作窃取调度器 Download PDFInfo
- Publication number
- CN114930292A CN114930292A CN202180008176.XA CN202180008176A CN114930292A CN 114930292 A CN114930292 A CN 114930292A CN 202180008176 A CN202180008176 A CN 202180008176A CN 114930292 A CN114930292 A CN 114930292A
- Authority
- CN
- China
- Prior art keywords
- task
- memory portion
- execution unit
- data
- worker thread
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 56
- 238000012545 processing Methods 0.000 claims abstract description 26
- 230000004888 barrier function Effects 0.000 claims description 17
- 230000007246 mechanism Effects 0.000 claims description 9
- 230000004044 response Effects 0.000 claims description 9
- 230000008569 process Effects 0.000 description 35
- 238000010586 diagram Methods 0.000 description 15
- 238000004590 computer program Methods 0.000 description 7
- 238000013507 mapping Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/48—Program initiating; Program switching, e.g. by interrupt
- G06F9/4806—Task transfer initiation or dispatching
- G06F9/4843—Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
- G06F9/4881—Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F15/00—Digital computers in general; Data processing equipment in general
- G06F15/76—Architectures of general purpose stored program computers
- G06F15/80—Architectures of general purpose stored program computers comprising an array of processing units with common control, e.g. single instruction multiple data processors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/30098—Register arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/38—Concurrent instruction execution, e.g. pipeline or look ahead
- G06F9/3836—Instruction issuing, e.g. dynamic instruction scheduling or out of order instruction execution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/38—Concurrent instruction execution, e.g. pipeline or look ahead
- G06F9/3877—Concurrent instruction execution, e.g. pipeline or look ahead using a slave processor, e.g. coprocessor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5011—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
- G06F9/5016—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals the resource being the memory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
- G06F9/5044—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering hardware capabilities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2209/00—Indexing scheme relating to G06F9/00
- G06F2209/50—Indexing scheme relating to G06F9/50
- G06F2209/509—Offload
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Computing Systems (AREA)
- Debugging And Monitoring (AREA)
- Multi Processors (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Financial Or Insurance-Related Operations Such As Payment And Settlement (AREA)
Abstract
一种在具有中央处理单元(CPU)和图形处理单元(GPU)的计算系统中使用的方法,该方法包括:将第一存储器部分和第二存储器部分指派给:工作窃取调度器的工作者线程以及作为GPU一部分的执行单元;从与工作者线程相关联的队列取回任务;由工作者线程检测是否满足任务的截止条件;当不满足截止条件时,将任务划分成两个或更多个附加任务,并将两个或更多个附加任务添加到队列;当满足截止条件时,将与任务相对应的第一数据存储在第二存储器部分中,发出存储器栅栏获取指令;以及将第一值存储在第一存储器部分中。
Description
背景技术
GPU设备针对计算吞吐量而不是响应时间(即,延时)进行了优化。GPU架构和相关联软件中的传统设计选择面向高持续吞吐量的算术运算。特别是,GPU具有相对较小且简单的高速缓存和软件管理的暂存存储器,其最大化了大量算术逻辑单元(ALU)的芯片空间,以用于并行处理海量数据集。但是,当前GPU的批量同步编程模型限制了它们在托管需要一定级别任务调度的灵活应用方面的适用性。已知的GPU调度策略是在硬件中定义的,并且不允许在GPU多处理器上的手动算法放置。例如,在相同的多处理器上运行需要多处理器同步的应用(例如,生产者-消费者模式)可能会导致死锁。在传统系统中,也很难为处理任务提供这样的环境:其中,类似的任务可以在同一多处理器上共同调度以从局部性中受益,例如更好地利用本地GPU高速缓存。
来自NVIDIA公司的计算统一设备架构(Compute Unified Device Architecture,CUDA)框架提供了在GPU上启动协作线程网格的能力,其可以通过GPU本身上的全局屏障进行同步(不必与CPU上的屏障同步)。此功能允许用户将内核流水线(即,GPU程序)调度到GPU。然而,现成的GPU调度器仍然以未定义的方式在整个GPU设备上调度线程块,这阻止了在GPU多处理器上手动放置线程块。此限制可能未充分利用GPU资源。
发明内容
在一个实施例中,提供了一种在具有中央处理单元(CPU)和图形处理单元(GPU)的计算系统中使用的方法,该方法包括:将第一存储器部分和第二存储器部分指派给:(i)在所述CPU上执行的工作窃取调度器的工作者线程和(ii)作为所述GPU的部分的执行单元;从与所述工作者线程相关联的队列取回任务;由所述工作者线程检测是否满足所述任务的截止条件(cutoff condition);当不满足所述截止条件时,将任务划分成两个或更多个附加任务,并将两个或更多个附加任务添加到所述队列中。
在一个实施例中,第一存储器部分包括门铃寄存器,并且第二存储器部分包括任务寄存器。
在一个实施例中,执行单元包括多个GPU核心和在多个GPU核心之间共享的同步机制。
在一个实施例中,第一数据包括与所述任务相对应的操作码和用于执行所述任务的实参(argument)中的一个或多个。
在一个实施例中,该方法还包括:当由执行单元将第二值存储在所述第一存储器部分中时,检测到所述任务已完成,所述检测由所述工作者线程执行。
在一个实施例中,该方法还包括:从所述第二存储器部分取回由所述执行单元作为执行所述任务的结果而生成的第二数据,所述第二数据由所述工作者线程响应于检测到第二值已被所述执行单元存储在所述第一存储器部分中而被取回。
在一个实施例中,该方法还包括:从所述第二存储器部分取回所述第一数据,所述第一数据由所述执行单元响应于检测到所述第一值已被所述工作者线程存储在所述第一存储器部分中而由执行单元取回;以及执行所述任务,所述任务由所述执行单元基于所述第一数据而执行。
在一个实施例中,该方法还包括:在所述第二存储器部分中存储由所述执行单元作为执行任务的结果而生成的第二数据;在所述第二数据存储在所述第二存储器部分后发出存储器栅栏释放指令(memory fence release instruction);以及在所述第一存储器部分中存储指示所述任务完成的第二值,所述第二值由所述执行单元在所述存储器栅栏释放指令被发出后存储。
在一个实施例中,提供了一种系统,包括:具有执行单元的图形处理单元(GPU);具有第一存储器部分和第二存储器部分的随机存取存储器;中央处理单元(CPU),被配置为执行工作窃取调度器,所述工作窃取调度器具有被配置为执行以下操作的工作者线程:从与所述工作者线程相关联的队列取回任务;检测是否满足所述任务的截止条件;当不满足所述截止条件时,将所述任务划分成两个或更多个附加任务,并将两个或更多个附加任务添加到所述队列中。
在一个实施例中,第一存储器部分包括门铃寄存器,并且第二存储器部分包括任务寄存器。
在一个实施例中,执行单元包括多个GPU核心和在多个GPU核心之间共享的同步机制。
在一个实施例中,第一数据包括与所述任务相对应的操作码和用于执行所述任务的实参中的一个或多个。
在一个实施例中,工作者线程还被配置为在由所述执行单元将第二值存储在所述第一存储器部分中时执行检测所述任务完成的操作。
在一个实施例中,工作者线程还被配置为执行从所述第二存储器部分取回作为执行任务的结果而生成的第二数据的操作,第二数据响应于检测到执行单元已将第二值存储在第一存储器部分中而被取回。
在一个实施例中,执行单元被配置为执行以下操作:从所述第二存储器部分取回所述第一数据,所述第一数据响应于由工作者线程检测到所述第一值已存储在所述第一存储器部分中而被取回;以及基于所述第一数据执行所述任务。
在一个实施例中,执行单元还被配置为执行以下操作:在所述第二存储器部分中存储由执行单元作为执行任务的结果而生成的第二数据;在所述第二数据存储在所述第二存储器部分后发出存储器栅栏释放指令;以及将指示所述任务完成的第二值存储在所述第一存储器部分中,在发出所述释放存储器栅栏指令之后所述第二值被存储。
根据本公开的方面,提供了一种非暂时性计算机可读介质,被配置为存储一个或多个处理器可执行指令,一个或多个处理器可执行指令在由至少一个处理器处理时,使处理器执行具有工作者线程的工作窃取调度器,所述工作者线程被布置成与作为图形处理单元(GPU)的一部分的执行单元共享第一存储器部分和第二存储器部分,所述工作者线程被布置成执行以下操作:从与所述工作者线程相关联的队列取回任务;检测是否满足所述任务的截止条件。
在一个实施例中,第一存储器部分包括门铃寄存器,并且第二存储器部分包括任务寄存器。
在一个实施例中,执行单元包括多个GPU核心和在所述多个GPU核心之间共享的同步机制。
在一个实施例中,第一数据包括与任务相对应的操作码和用于执行所述任务的实参中的一个或多个。
附图说明
从以下附图的描述中可以更充分地理解上述特征,其中:
图1是根据本公开的方面的计算系统的示例的图;
图2A是根据本公开的方面的工作窃取调度器的示例的图;
图2B是由根据本公开的方面的图2A的工作窃取调度器使用的队列的示例的图;
图3A是根据本公开的方面的图形处理单元(GPU)的示例的图;
图3B是根据本公开的方面的作为图3A的GPU的一部分的执行单元的示例的图;
图4A是根据本公开的方面的说明图2A的工作窃取调度器的操作的图;
图4B是根据本公开的方面的共享存储器部分的示例的图;
图5A是根据本公开的方面的过程的示例的流程图;
图5B是根据本公开的方面的过程的示例的流程图;
图6A是根据本公开的方面的过程的示例的流程图;
图6B是根据本公开的方面的过程的示例的流程图;以及
图6C是根据本公开的方面的过程的示例的流程图。
具体实施方式
工作窃取(work-stealing)是一种高效的动态调度策略,其广泛在中央处理单元(CPU)上采用。工作窃取调度器通过在一组双端队列(以下简称“deque”)上分布任务来在并行处理器上执行负载平衡,每个双端队列与在处理核心上运行的工作者线程相关联。每个双端队列可以支持推送和弹出操作,其允许与该双端队列相关联的本地线程以与串行执行相同的顺序(即,堆栈顺序)调度和取消调度工作(即,任务)。每个双端队列还可以支持非本地线程(也称为窃贼线程(thief thread))在其本地双端队列上执行的任务已耗尽时采用的窃取操作。窃取操作可能会从受害者的双端队列的相对端(相对于本地线程)移除一个任务,以供窃贼线程执行。当一个任务被执行时,该任务的执行可能会频繁地生成附加的任务,这些任务然后被放置在本地双端队列上。
工作窃取调度器生成和处理在运行时形成有向无环图(DAG)的任务。它们执行表示为分而治之递归的算法,其中,为每个父任务创建(即,分叉)一个或多个更细粒度的子任务。这些算法还指示线程必须在哪里等待(即,加入)分叉子任务才能完成执行。在递归的基本情况(称为顺序截止)中,要划分的任务太小而无法有收益地划分为子任务,此时执行顺序算法(即,叶任务)。收益性是对划分和调度子任务需要多少开销的度量。值得注意的是,所有算法工作都在叶任务中执行。
根据本公开,公开了一种改进的工作窃取调度器,其中,CPU执行工作窃取调度器的一部分,该部分递归地划分任务直到达到顺序截止,其中,调度器开销支配实际执行该任务的成本。此时,不是在CPU上执行顺序代码,而是改进的工作窃取调度器卸载任务以在可用的图形处理单元(GPU)上执行。举例来说,在一些实施方式中,本公开可以通过呈现支持GPU并保持现有的通用工作窃取调度器的执行语义的异构、协作的工作窃取调度器设计来提供对现有工作窃取调度器(其仅利用CPU)的增强。
图1是根据本公开的方面的计算系统100的示例的图。计算系统100可以包括中央处理单元(CPU)109、图形处理单元(GPU)120、存储器130和共享存储器140。CPU 109可以包括任何合适类型的处理器,例如x86处理器、精简指令集计算机(RISC)处理器、基于ARM的处理器等。根据本示例,CPU 109包括多个CPU核心110A-110D,它们被布置为并行执行工作窃取调度器200的不同的工作者线程220(如图2所示)。尽管在图1的示例中,CPU 109具有四个CPU核心,但其中CPU具有任意数量的核心(例如,1、8等)的替代实施方式是可能的
GPU 120可以包括任何合适类型的图形处理单元,其具有以下能力:将存储器范围从CPU 109的地址空间直接映射到GPU 120的地址空间,从而共享单个虚拟地址空间。在一些实施方式中,GPU 120可以包括支持计算统一设备架构(CUDA)框架的GPU。附加或可替代地,在一些实施方式中,GPU 120可以包括支持开放计算语言(OpenCL)框架的GPU。GPU 120可以包括多个GPU核心。根据本示例,GPU 120包括1024个GPU核心,然而应当理解,本公开不限于在GPU 120上提供任何特定数量的GPU核心132。
存储器130可以包括任何合适类型的随机存取存储器(RAM),例如双倍数据速率同步动态随机存取存储器(DDR SDRAM)。共享存储器140可以包括分别映射到GPU 120的存储器空间的存储器130的一部分。因为共享存储器140被映射到GPU 120的存储器空间,所以CPU 109和GPU 120中的每一个都可以直接访问共享存储器140。例如,在一些实施方式中,共享存储器140可以通过使用CUDA框架或OpenCL框架映射到GPU 120的存储器空间。在一些实施方式中,GPU 120可以被布置为接受指向共享存储器140的指针并且使用该指针从GPU内核内直接引用共享存储器140。类似地,至少一些CPU核心110也可以被布置为使用指针来直接引用共享存储器140。
图2A是在CPU 109上执行的工作窃取调度器200的示例的图。工作窃取调度器200可以是任何合适类型的并行计算软件和/或微代码的部分。工作窃取调度器200可以包括多个队列210和多个工作者线程220。工作者线程220中的每一个可以与不同的队列210相关联。根据本示例,工作者线程220A与队列210A相关联;工作者线程220B与队列210B相关联;工作者线程220C与队列210C相关联;并且工作者线程220D与队列210D相关联。如下面关于图2B进一步讨论的,线程220使用队列210来存储和取回任务。根据图2A的示例,每个队列210是一个双端队列。然而,替代实施方式是可能的,其中,另一种类型的队列和/或另一种类型的数据结构用于存储任务。尽管在本示例中,工作窃取调度器200以软件实现,但是其中工作窃取调度器200以硬件和/或作为软件(或微代码)或硬件的组合实现的替代实施方式也是可能的。
图2B是根据本公开的方面的队列210的图。如编号所示,队列210可以与作为工作窃取调度器200的一部分的队列210A-B中的任何一个相同或相似。如图所示,队列210可以被布置为存储一个或多个任务。每个任务可以表示被期望执行的特定操作。队列210中的任务一起可以是用于通过由工作窃取调度器200实现的并行计算算法执行的特定动作的有向无环图(DAG)的一部分。如在整个公开中使用的,并且取决于上下文,术语“任务”可以指操作或对应于操作的描述符。例如,在一些实施方式中,术语“任务”可以指代对于执行操作必要的任何合适类型的数据。举例来说,“任务”可以包括以下各项中的一个或多个:与操作相对应的操作码、用于执行操作的输入参数、与操作相关联的函数调用的实参、指向需要引用以便执行操作的其他数据的指针和/或执行操作所需的任何其他合适类型的数据。
图3A是根据本公开的方面的GPU 120的逻辑组织的示例的图。根据本示例,GPU300被布置为执行执行单元(或分片(tile))310A、执行单元(或分片)310B、执行单元310C(或分片)和执行单元(或分片)310D。尽管在图3A的示例中,GPU 120被布置为实现四个执行单元,但应当理解,本公开不限于在GPU 120上实现任何特定数量的执行单元。在一些实施方式中,任何执行单元310可以包括在NVIDIA CUDA(TM)框架中称为“块”或“束(wrap)”的事物。在一些实施方式中,每个执行单元310可以包括用于执行单元中的GPU核心的硬件屏障机制以用作同步点。可以根据本公开的原理和思想使用的执行单元的示例可以在标题为ACCELERATING DATAFLOW SIGNAL PROCESSING APPLICATIONS ACROSS HETEROGENEOUSCPU/GPU SYSTEMS(跨异构CPU/GPU系统的加速数据流信号处理应用)的美国专利申请16/372,618中找到,该申请全部内容通过引用并入本文。
图3B是根据本公开的方面的执行单元310的示例的图。如编号所指示的,执行单元310可以与以上关于图3A讨论的任何执行单元310A-D相同或相似。如图3B所示,执行单元310可以包括一组GPU核心132,以及在该组中的所有GPU核心132之间共享的同步屏障320。根据本示例,执行单元310包括32个GPU核心132,但是其中执行单元310包括任意数量的GPU核心132(例如,1、4、8、16、64等)的替代实施方式是可能的。尽管在图3B的示例中,执行单元310包括同步屏障,但其中替代地使用另一种类型的同步机制的替代实施方式是可能的。简言之,本公开不限于任何特定类型的同步机制在执行单元310中。
执行单元310可以用于代表工作窃取调度器200中的工作者线程220执行任务。执行单元310中的GPU核心132之一可以被指派主要状态并且在本文中被称为作为“执行单元310的主要GPU核心”。例如,在一些实施方式中,具有等级(rank)“0”的GPU核心(在执行单元310中)可以被指定为执行单元310的主要GPU核心。执行单元310中的所有剩余GPU核心132可以被指派次要状态,并且在本文中被称为“执行单元310的次要GPU核心”。执行单元310的主要GPU核心132可以被布置为:(i)从工作者线程220中的给定的一个工作者线程获得任务,(ii)将任务划分为任务部分,(iii)执行任务部分之一并将剩余的任务部分提供给次要GPU核心,以及(iv)在任务完成时通知工作者线程。
在一个特定示例中,同步屏障320可以以硬件实现,并且它可以被布置为充当执行单元310中的GPU核心132之间的共享同步点。更具体地,同步屏障320可以导致每个GPU核心132(例如,主要GPU核心132和/或次要GPU核心320中的每一个)在其已完成执行其相应的任务部分并到达屏障320后进入等待状态。进入等待状态可以有效地防止GPU核心132立即开始执行下一个任务的一部分,并可能在当前任务的完成数据被工作者线程220之一取回之前盖写正在存储当前任务的完成数据的任务寄存器(例如,参见图4B中所示的任务寄存器430)。虽然在本示例中同步屏障320以硬件实现,但同步屏障320以软件或作为硬件和软件的组合实现的替代实施方式是可能的。简言之,本公开不限于同步屏障320的任何具体实施方式。
图4A是示出根据本公开的方面的计算系统100的操作的示意图。根据本公开的多个方面,共享存储器被划分为M个部分410,其中,M是等于已分配给工作窃取调度器200的执行单元310的数量(即,在本示例中为四个)的正整数。共享存储器部分410可以用于在相应工作者线程220和相应执行单元310之间交换数据。如图4B所示,每个部分410包括门铃寄存器和任务寄存器430。门铃寄存器420可以是一个字宽,并且它可以用于在任务已经存储在任务寄存器430中时发出信号。任务寄存器430可以配置为存储特定任务。如上所述,贯穿本公开所使用的术语“任务”可以指代对于执行单元执行操作必要的任何数据。例如,存储在任务寄存器230中的“任务”可以包括以下各项中的一个或多个:与特定操作相关联的操作码、用于执行操作的输入参数、与操作相关联的函数调用的实参、指向为了执行操作而需要引用的其他数据的指针。
返回图4A,每个执行单元310可以被分配一个相应的共享存储器部分410。更具体地,执行单元310A可以被分配共享存储器部分410A,执行单元310A使用该共享存储器部分410A来发送和接收来自CPU核心110A(和/或工作者线程220A)的数据。执行单元310B可以被分配共享存储器部分410B,执行单元310B使用该共享存储器部分410B来发送和接收来自CPU核心110B(和/或工作者线程220B)的数据。执行单元310C可以被分配共享存储器部分410C,执行单元310C使用该共享存储器部分410C来发送和接收来自CPU核心110C(和/或工作者线程220C)的数据。并且执行单元310D可以被分配共享存储器部分410D,执行单元310使用该共享存储器部分410D来发送和接收来自CPU核心110D(和/或工作者线程220D)的数据。
此外,每个CPU核心110(和/或每个工作者线程220)可以被分配相应的一个共享存储器部分410。更具体地,CPU核心110A(和/或工作者线程220A)可以被分配共享存储器部分410A,CPU核心110A(和/或工作者线程220A)使用该共享存储器部分410A来发送或接收来自执行单元310A的数据。CPU核心110B(和/或工作者线程220B)可以被分配共享存储器部分410B,CPU核心110B(和/或工作者线程220B)使用该共享存储器部分410B来发送或接收来自执行单元310B的数据。CPU核心110C(和/或工作者线程220C)可以被分配共享存储器部分410C,CPU核心110C(和/或工作者线程220C)使用该共享存储器部分410C来发送或接收来自执行单元310C的数据。并且CPU核心110D(和/或工作者线程220D)可以被分配共享存储器部分410D,CPU核心110D(和/或工作者线程220D)使用该共享存储器部分410D来发送或接收来自执行单元310D的数据。
每个CPU核心110(和/或每个工作者线程220)可以映射到相应的执行单元310。根据图410A的示例,CPU核心110A(和/或工作者线程220A)被映射到执行单元310A;CPU核心110B(和/或工作者线程220B)被映射到执行单元310B;CPU核心110C(和/或工作者线程220C)被映射到执行单元310C;并且CPU核心110D(和/或工作者线程220A)被映射到执行单元310D。任何一个CPU核心110和对应的执行单元之间的映射可以通过将相同的共享存储器部分410分配给CPU核心和对应的执行单元310来实现。然而,应当理解,本公开不限于用于将CPU核心映射到相应执行单元的任何特定方法。
在一些实施方式中,每个CPU核心110(和/或工作者线程220)可以在映射到该CPU核心110和/或工作者线程220的执行单元310上执行任务。例如,CPU核心110A(和/或工作者线程220A)可以在执行单元310A上执行任务;CPU核心110B(和/或工作者线程220B)可以在执行单元310B上执行任务;CPU核心110C(和/或工作者线程220C)可以在执行单元310C上执行任务;并且CPU核心110D(和/或工作者线程220D)可以在执行单元310D上执行任务。例如,当任何给定的工作者线程220检测到满足用于任务的顺序截止条件时,给定的工作者线程220可以识别映射到给定的工作者线程220的相应的执行单元310。接下来,给定的工作者线程220可以通过使用被分配给给定工作者线程220和相应的执行单元310两者的共享存储器部分410来将任务提供给相应执行单元310。接下来,相应的执行单元310从共享存储器部分410取回任务。接下来,相应的执行单元310可以执行任务并将作为执行任务的结果而生成的数据放回共享存储器部分410。并且最后,给定的工作者线程可以从共享存储器部分取回作为执行任务的结果而生成的数据。
虽然在图4A的示例中,每个CPU核心110(和/或工作者线程220)被分配单个共享存储器部分410,但是其中任何CPU核心110被分配多个共享存储器部分410的替代实施方式是可能的。虽然在图4B的示例中,每个CPU核心110(和/或工作者线程220)被映射到单个执行单元310,但其中任何CPU核心110(和/或工作者线程220)被映射到多个执行单元的替代实施方式是可能的。在这样的实施方式中,每个CPU核心110(和/或工作者线程)可以映射到相同数量的执行单元310。如果执行单元310的数量没有被CPU核心110(和/或工作者线程220)的数量整除,则CPU核心110(和/或工作者线程220)之一可以映射到更少的执行单元310。
图5A是根据本公开的方面的用于开始工作窃取调度器200的操作的过程500A的示例的流程图。根据本示例,过程500A由CPU核心110A执行。然而,其中过程500A由另一个CPU核心110执行的替代实施方式是可能的。
在步骤502,CPU核心110A实例化工作窃取调度器200的队列210和工作者线程220。在步骤504,CPU核心110A分配共享存储器140和共享存储器140内的多个共享存储器部分410。在步骤506,CPU核心110A将每个工作者线程220A指派给CPU 109的CPU核心110中的不同的一个。如上所述,作为执行步骤506的结果,工作者线程220A被指派给CPU核心110A,工作者线程220B被指派给CPU核心110B,工作者线程220C被指派给CPU核心110C,并且工作者线程220D被指派给CPU核心110D。在步骤508,核心110A将每个工作者线程220映射到相应的一个执行单元310。如上所述,作为执行步骤508的结果,工作者线程220A(和/或CPU核心110A)被映射到执行单元310A。工作者线程220B(和/或CPU核心110B)被映射到执行单元310B。工作者线程220C(和/或CPU核心110C)被映射到执行单元310C。并且工作者线程220D(和/或CPU核心110D)被映射到执行单元310D。在一些实施方式中,可以通过将相同的共享存储器部分410指派给工作者线程220和执行单元310来执行任何工作者线程220和任何执行单元310之间的映射。在步骤510,CPU核心110A开始执行工作者线程220。在一些实施方式中,可以根据过程500B来执行任何工作者线程220,这将在下文关于图5B进一步讨论。
图5B是根据本公开的方面的用于执行如过程500A的步骤510所指定的工作窃取调度器的工作者线程的过程500B的示例的流程图。根据图5B的示例,过程500B由工作者线程220A执行,然而可替代地,将理解的是过程500B可以由任何工作者线程220执行。在步骤522,工作者线程220A从队列210A取回(和/或移除)任务。在步骤524,工作者线程220A确定是否满足预定的截止条件。如果满足条件,则过程500B进行到步骤526。否则,如果不满足条件,则过程500B进行到步骤528。在步骤526,过程500B将任务划分为附加任务并将任务添加回到队列210A。在步骤528,工作者线程220A通过使用GPU 120的执行单元310A来执行任务。执行任务的方式将在下面关于图6A-6C进一步讨论。具体来说,图6A提供了由工作者线程220A出于在执行单元310A上执行任务的目的而执行的过程的示例。图6B提供了由执行单元310A的主要GPU核心出于协调任务的不同部分的执行的目的而执行的过程600B的示例。并且图6C提供了由执行单元310A中的主要GPU核心和次要GPU核心中的任一个出于执行任务部分的目的而执行的过程600C的示例。
图6A是用于通过使用GPU执行如过程500B的步骤528所指定的任务的过程600A的流程图。在步骤602,工作者线程220A将任务(例如,在步骤522取回的任务)存储在共享存储器部分410A的任务寄存器430中。在步骤604,工作者线程220A发出存储器栅栏获取指令。在步骤606,工作者线程220A将第一值(例如,‘1’)存储在共享存储器部分410A的门铃寄存器420中。如下面关于图6B进一步讨论的,将第一值存储在门铃寄存器420中有效地通知执行单元310A:在任务寄存器430中存在等待执行的任务。在步骤608,工作者线程220A检测共享存储器部分410A的门铃寄存器420是否被设置为第二值(例如,‘0’)。如果门铃寄存器420被设置为第二值,则过程600A进行到步骤610。否则,如果门铃寄存器420没有被设置为第二值,则再次执行步骤608。换言之,在步骤606,工作者线程220A等待直到门铃寄存器420被设置为第二值(由执行单元310A),然后继续到步骤610。如下面关于图6B进一步讨论的,当门铃寄存器420被设置为第二值时,这有效地通知工作者线程220A:任务已被执行单元310A完成。在步骤610,工作者线程220A从共享存储器部分410A的任务寄存器430取回已经由执行单元310A中的一个或多个GPU核心存储在那里的完成状态字(和/或错误代码)。
图6B是用于执行如过程500B的步骤528所指定的任务的过程600B的示例的流程图。在步骤612,执行单元310A的主要GPU核心检测共享存储器部分410A的门铃寄存器420是否已被设置为第一值。如果门铃寄存器420被设置为第一值,则过程600B进行到步骤614。否则,再次重复步骤612。在步骤614,执行单元310A的主要GPU核心从共享存储器部分410A的任务寄存器430取回任务。在步骤616,执行单元310A的主要GPU核心将任务划分为多个任务部分。在步骤618,执行单元310A的主要GPU核心将多个任务部分中的每一个指派给执行单元310A中的GPU核心中的不同一个。例如,主要GPU核心可以将相应的任务部分指派给它自己和执行单元310A中的每个次要GPU核心。可替代地,当任务部分少于执行单元310A中的GPU核心时,主要GPU核心310A可以将相应的任务部分仅指派给执行单元310A中的一些GPU核心。在步骤620,执行单元310A的主要GPU核心132使执行单元310中的每个次要GPU核心132(其已被指派任务部分)开始执行其相应的任务部分。在步骤622,主要GPU核心132执行它已经指派给自己的任务部分。如可以容易地意识到的,在一些实施方式中,主要GPU核心132可以不向其自己指派任务部分,在这种情况下可以省略步骤622。在步骤622,执行单元310A的主要GPU核心检测执行单元310A中的每个GPU核心(其已被指派任务部分)是否已完成执行其相应任务部分。例如,检测每个GPU核心是否已经完成执行其相应的任务部分可以包括检测每个GPU核心是否已经到达执行单元310A的同步屏障320并且当前处于等待状态。如果每个GPU核心已经完成执行其相应的任务部分,则过程600B进行到步骤626。否则,重复步骤624。在步骤626,执行单元310A的主要GPU核心发出存储器栅栏释放指令。在步骤628,执行单元310A的主要GPU核心将共享存储器部分410A的门铃寄存器420设置为第二值(例如,‘0’)。
图6C是用于执行如过程500B的步骤506所指定的任务的过程600B的示例的流程图。在步骤642,执行单元310A的GPU核心132获得任务部分之一(在步骤618指派的)。在步骤644,GPU核心132执行任务部分。在步骤646,GPU核心132将完成指示符存储在共享存储器部分410A的任务寄存器中。例如,如果GPU核心132已成功执行任务,则GPU核心132可以将存储器部分410部分的任务寄存器中的位之一设置为“1”。作为另一个示例,如果GPU核心132未能成功执行任务,则GPU核心132可以将相同的位设置为“0”。另外或可替代地,在一些实施方式中,当GPU核心132未能成功执行任务时,GPU核心132可以在任务寄存器中存储错误码,该错误码识别任务部分不能成功完成的原因。尽管在本示例中完成指示符是1位宽,但其中完成状态指示符具有更大大小的替代实施方式也是可能的。在任务648,GPU核心132作为到达执行单元310A的屏障同步屏障320的结果而进入等待状态。
在一些实施方式中,当任务完成时,字可以被存储在(共享存储器部分410A的)任务寄存器430中,其识别任务的完成状态。该字可以包括多个位。每个位可以由执行单元310中的不同GPU核心存储在任务寄存器中,并且它可以指示GPU核心是否已经成功地完成了已经被GPU核心执行的任务的一部分。如果该位等于“1”,则这可能表明GPU核心已成功完成其任务部分。否则,如果该位设置为“0”,则这可能表明GPU核心未能完成其任务部分。因此,当该字包含所有“1”时,则这可能表明该任务已被执行单元310成功完成。相比之下,当该字包含至少一个“0”时,则这可能表明该任务不能由执行单元310成功完成。尽管图1-图6C将共享存储器部分410A显示为在执行单元310A和工作者线程220A之间共享的唯一存储器,但是其中在执行单元310A和工作者线程220A之间共享附加存储器的替代实施方式是可能的,这用于向工作者线程220A提供结果数据。
根据本公开的方面,存储器栅栏获取和存储器栅栏释放指令可以是屏障指令,其使CPU 109(和/或在CPU 109上运行的编译器)强制执行数据存储在共享存储器410的门铃寄存器420和任务寄存器430中的顺序。具体地,在步骤604发出获取存储器栅栏指令确保:在第一值存储在共享存储器部分410A的门铃寄存器420中(在步骤606)之前,任务将被存储在共享存储器部分410A的任务寄存器430中(在步骤602)。类似地,在步骤626发出存储器栅栏释放指令确保:在共享存储器部分410A的门铃寄存器420被设置为第二值(在步骤632)之前,与任务相关联的所有完成数据将被复制到共享存储器部分410A的任务寄存器430中(在步骤624)。根据本公开,已经观察到使用存储器栅栏指令(与原子操作相对)来同步写入(共享存储器部分410的)门铃和任务寄存器可以大大减少协议的开销(参考图6A-6C描述)并提高执行任务(在步骤614获得)的效率。
在一些实施方式中,当存储器栅栏指令已经被发出时,看到共享存储器部分410A的门铃寄存器420中的第一值(例如,'1')可以向执行单元310A保证:有效任务存在于存储器部分410的任务寄存器430中。类似地,当发出存储器栅栏释放指令时,看到共享存储器部分410A的门铃寄存器420中的第二值(例如,'0')可以向CPU核心110A(和/或工作者线程220A)保证有效任务存在于存储器部分410的任务寄存器430中。在一些实施方式中,当CPU核心110A(和/或工作者线程220A)被映射到多个执行单元310时,CPU核心110A(和/或工作者线程220A)可以将任务(在步骤522获得的)划分为多个任务(例如,任务部分),并且用不同的一个执行单元310来执行每个任务部分(以关于图6A讨论的方式)。
根据图5B和图6A的示例,在步骤522,从队列210A取回任务,并且在步骤602,将任务存储在共享存储器部分410A的任务寄存器中。然而,步骤522和602不一定意味着:从队列210A取回的相同数据也存储在共享存储器部分410A的任务寄存器430中。例如,在一些实施方式中,可以从队列210A取回一个或多个第一数据项(在步骤522),并且可以将一个或多个第二数据项存储在任务寄存器430中(在步骤602)。在这样的实施方式中,第二数据项可以与第一数据项相同或不同。另外或可替代地,在一些实施方式中,第二数据项中的至少一个可以至少部分是基于第一数据项而生成的。
在一些实施方式中,工作窃取调度器200可以断开一个或多个执行单元310(通过在该执行单元310的任务寄存器430中放置“断开”操作码)。在接收到“断开”操作码时,执行单元的主要GPU 132(和/或GPU 120中的其他硬件)可以将执行单元与工作窃取调度器200分离。
本公开不限于在工作窃取调度器200中使用任何特定的并行处理算法。在这方面,将理解本公开不限于评估任何特定的截止条件(在步骤524)。虽然图1-图6C的示例是在工作窃取调度器的上下文中呈现的,但是本公开不限于任何特定类型的调度器。
这里描述的过程不限于与图1的硬件和软件一起使用;它们可能适用于任何计算或处理环境以及任何类型的机器或能够运行计算机程序的机器组。这里描述的过程可以以硬件、软件或两者的组合来实现。此处描述的过程可以在可编程计算机/机器上执行的计算机程序中实现,每个可编程计算机/机器包括处理器、非暂时性机器可读介质或处理器可读的另一制品(包括易失性和非易失性存储器以及/或存储元件)、至少一个输入设备和一个或多个输出设备。程序代码可以应用于使用输入设备录入的数据以执行本文所述的任何过程并生成输出信息。
该系统可以至少部分地通过计算机程序产品来实现(例如,在非暂时性机器可读存储介质中,例如非暂时性计算机可读介质中),用于由数据处理装置(例如,可编程处理器、计算机或多台计算机)执行或用于控制它们的操作。每个这样的程序都可以用高级过程或面向对象的编程语言来实现,以与基于计算机的系统的其余部分一起工作。然而,程序可以用汇编、机器语言或硬件描述语言来实现。该语言可以是编译语言或解释语言,并且可以以任何形式部署,包括作为独立程序或作为模块、组件、子例程或适合在计算环境中使用的其他单元。计算机程序可以部署为在一个站点处的一台计算机或多台计算机上执行,或者跨多个站点分布并通过通信网络互连。计算机程序可以存储在可由通用或专用可编程计算机读取的非暂时性机器可读介质上,用于当计算机读取非暂时性机器可读介质以执行本文所描述的过程时配置和操作计算机。例如,本文描述的过程也可以实现为配置有计算机程序的非暂时性机器可读存储介质,其中在执行时,计算机程序中的指令使计算机根据过程进行操作。非暂时性机器可读介质可以包括但不限于硬盘驱动器、光盘、闪存、非易失性存储器、易失性存储器、磁盘等,但不包括瞬态信号本身。
已经描述了用于说明作为本专利的主题的各种概念、结构和技术的优选实施例,现在显而易见的是可以使用结合这些概念、结构和技术的其他实施例。因此,认为专利的范围不应限于所描述的实施例,而应仅受所附权利要求的精神和范围限制。
Claims (20)
1.一种用于在具有中央处理单元(CPU)和图形处理单元(GPU)的计算系统中使用的方法,所述方法包括:
将第一存储器部分和第二存储器部分指派给:(i)在所述CPU上被执行的工作窃取调度器的工作者线程,以及(ii)作为所述GPU的部分的执行单元;
从与所述工作者线程相关联的队列取回任务;
由所述工作者线程检测是否满足用于所述任务的截止条件;
当不满足所述截止条件时,将所述任务划分成两个或更多个附加任务,并且将所述两个或更多个附加任务添加到所述队列;
当满足所述截止条件时,将与所述任务相对应的第一数据存储在所述第二存储器部分中,所述第一数据由所述工作者线程存储在所述第二存储器部分中;
在所述第一数据被存储在所述第二存储器部分中之后,发出存储器栅栏获取指令;以及
将第一值存储在所述第一存储器部分中,所述第一值在所述存储器栅栏获取指令被发出之后由所述工作者线程存储,
其中,将所述第一值存储在所述第一存储器部分中使所述执行单元从第二存储器部分取回所述第一数据并且基于所述第一数据来执行所述任务。
2.根据权利要求1所述的方法,其中,所述第一存储器部分包括门铃寄存器,并且所述第二存储器部分包括任务寄存器。
3.根据权利要求1所述的方法,其中,所述执行单元包括多个GPU核心和在所述多个GPU核心之间共享的同步机制。
4.根据权利要求1所述的方法,其中,所述第一数据包括以下各项中的一项或多项:与所述任务相对应的操作码和用于执行所述任务的实参。
5.根据权利要求1所述的方法,还包括:当第二值由所述执行单元存储在所述第一存储器部分中时,检测到所述任务完成,所述检测由所述工作者线程执行。
6.根据权利要求1所述的方法,还包括:从所述第二存储器部分取回作为执行所述任务的结果而由所述执行单元生成的第二数据,所述第二数据是响应于检测到第二值已由所述执行单元存储在所述第一存储器部分中,而由所述工作者线程取回的。
7.根据权利要求1所述的方法,还包括:
从所述第二存储器部分取回所述第一数据,所述第一数据是响应于检测到所述第一值已由所述工作者线程存储在所述第一存储器部分中,而由所述执行单元取回的;以及
执行所述任务,所述任务由所述执行单元基于所述第一数据来执行。
8.根据权利要求7所述的方法,还包括:
将作为执行所述任务的结果而由所述执行单元生成的第二数据存储在所述第二存储器部分中;
在所述第二数据被存储在所述第二存储器部分中之后,发出存储器栅栏释放指令;以及
将指示所述任务完成的第二值存储在所述第一存储器部分中,在所述存储器栅栏释放指令被发出之后所述第二值由所述执行单元存储。
9.一种系统,包括:
具有执行单元的图形处理单元(GPU);
具有第一存储器部分和第二存储器部分的随机存取存储器;
中央处理单元(CPU),其被配置为执行工作窃取调度器,所述工作窃取调度器具有被配置为执行以下操作的工作者线程:
从与所述工作者线程相关联的队列取回任务;
检测是否满足用于所述任务的截止条件;
当不满足所述截止条件时,将所述任务划分成两个或更多个附加任务,并且将所述两个或更多个附加任务添加到所述队列;
当满足所述截止条件时,将与所述任务相对应的第一数据存储在所述第二存储器部分中;
在所述第一数据被存储在所述第二存储器部分中之后,发出存储器栅栏获取指令;以及
在所述存储器栅栏获取指令被发出之后,将第一值存储在所述第一存储器部分中,
其中,将所述第一值存储在所述第一存储器部分中使得所述执行单元从第二存储器部分取回所述第一数据并且基于所述第一数据来执行所述任务。
10.根据权利要求9所述的系统,其中,所述第一存储器部分包括门铃寄存器,并且所述第二存储器部分包括任务寄存器。
11.根据权利要求9所述的系统,其中,所述执行单元包括多个GPU核心和在所述多个GPU核心之间共享的同步机制。
12.根据权利要求9所述的系统,其中,所述第一数据包括以下各项中的一项或多项:与所述任务相对应的操作码和用于执行所述任务的实参。
13.根据权利要求9所述的系统,其中,所述工作者线程还被配置为:当第二值由所述执行单元存储在所述第一存储器部分中时,执行检测所述任务完成的操作。
14.根据权利要求9所述的系统,其中,所述工作者线程还被配置为:执行从所述第二存储器部分取回作为执行所述任务的结果而生成的第二数据的操作,所述第二数据响应于检测到第二值已由所述执行单元存储在所述第一存储器部分中而被取回。
15.根据权利要求9所述的系统,其中,所述执行单元被配置为执行以下操作:
从所述第二存储器部分取回所述第一数据,所述第一数据响应于由所述工作者线程检测到所述第一值已被存储在所述第一存储器部分中而被取回;以及
基于所述第一数据来执行所述任务。
16.根据权利要求15所述的系统,其中,所述执行单元还被配置为执行以下操作:
将作为执行所述任务的结果而由所述执行单元生成的第二数据存储在所述第二存储器部分中;
在所述第二数据被存储在所述第二存储器部分中之后,发出存储器栅栏释放指令;以及
将指示所述任务完成的第二值存储在所述第一存储器部分中,所述第二值在所述释放存储器栅栏指令被发出之后被存储。
17.一种非暂时性计算机可读介质,被配置为存储一个或多个处理器可执行指令,所述一个或多个处理器可执行指令在由至少一个处理器处理时,使得所述处理器执行具有工作者线程的工作窃取调度器,所述工作者线程被布置成与作为图形处理单元(GPU)的部分执行单元共享第一存储器部分和第二存储器部分,所述工作者线程被布置成执行以下操作:
从与所述工作者线程相关联的队列取回任务;
检测是否满足用于所述任务的截止条件;
当不满足所述截止条件时,将所述任务划分成两个或更多个附加任务,并且将所述两个或更多个附加任务添加到所述队列;
当满足所述截止条件时,将与所述任务相对应的第一数据存储在所述第二存储器部分中;
在所述第一数据被存储在所述第二存储器部分中之后,发出存储器栅栏获取指令;
在所述存储器栅栏获取指令被发出之后,将第一值存储在所述第一存储器部分中,
其中,将所述第一值存储在所述第一存储器部分中使得所述执行单元从第二存储器部分取回所述第一数据并且基于所述第一数据来执行所述任务。
18.根据权利要求17所述的非暂时性计算机可读介质,其中,所述第一存储器部分包括门铃寄存器,并且所述第二存储器部分包括任务寄存器。
19.根据权利要求17所述的非暂时性计算机可读介质,其中,所述执行单元包括多个GPU核心和在所述多个GPU核心之间共享的同步机制。
20.根据权利要求17所述的非暂时性计算机可读介质,其中,所述第一数据包括以下各项中的一项或多项:与所述任务相对应的操作码和用于执行所述任务的实参。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202062991871P | 2020-03-19 | 2020-03-19 | |
US62/991,871 | 2020-03-19 | ||
US17/152,021 | 2021-01-19 | ||
US17/152,021 US11340942B2 (en) | 2020-03-19 | 2021-01-19 | Cooperative work-stealing scheduler |
PCT/US2021/020192 WO2021188287A1 (en) | 2020-03-19 | 2021-03-01 | Cooperative work-stealing scheduler |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114930292A true CN114930292A (zh) | 2022-08-19 |
Family
ID=77748143
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202180008176.XA Pending CN114930292A (zh) | 2020-03-19 | 2021-03-01 | 协作式工作窃取调度器 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11340942B2 (zh) |
EP (1) | EP4121855A1 (zh) |
JP (1) | JP7450728B2 (zh) |
KR (1) | KR20220127326A (zh) |
CN (1) | CN114930292A (zh) |
WO (1) | WO2021188287A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116339944A (zh) * | 2023-03-14 | 2023-06-27 | 海光信息技术股份有限公司 | 任务处理方法、芯片、多芯片模块、电子设备和存储介质 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11790590B2 (en) * | 2021-03-31 | 2023-10-17 | Advanced Micro Devices, Inc. | Multi-accelerator compute dispatch |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8854381B2 (en) * | 2009-09-03 | 2014-10-07 | Advanced Micro Devices, Inc. | Processing unit that enables asynchronous task dispatch |
US9645854B2 (en) | 2010-12-15 | 2017-05-09 | Advanced Micro Devices, Inc. | Dynamic work partitioning on heterogeneous processing devices |
EP2972907B1 (en) * | 2013-03-15 | 2019-09-25 | Intel Corporation | Work stealing in heterogeneous computing systems |
US9361118B2 (en) * | 2013-05-13 | 2016-06-07 | Advanced Micro Devices, Inc. | Method for memory consistency among heterogeneous computer components |
KR101569093B1 (ko) * | 2013-08-13 | 2015-11-13 | 삼성에스디에스 주식회사 | 분산 시스템에서 데이터를 처리하는 방법 |
GB2524085B (en) * | 2014-03-14 | 2021-01-20 | Advanced Risc Mach Ltd | Exception handling in microprocessor systems |
US9342384B1 (en) | 2014-12-18 | 2016-05-17 | Intel Corporation | Function callback mechanism between a central processing unit (CPU) and an auxiliary processor |
EP3079060B1 (en) | 2015-04-08 | 2018-03-28 | Huawei Technologies Co., Ltd. | Load balancing for large in-memory databases |
US9703605B2 (en) * | 2015-09-04 | 2017-07-11 | Mediatek, Inc. | Fine-grained heterogeneous computing |
US10360063B2 (en) | 2015-09-23 | 2019-07-23 | Qualcomm Incorporated | Proactive resource management for parallel work-stealing processing systems |
DK3812900T3 (da) | 2016-12-31 | 2024-02-12 | Intel Corp | Systemer, fremgangsmåder og apparater til heterogen beregning |
US10545244B2 (en) * | 2017-06-15 | 2020-01-28 | Microsoft Technology Licensing, Llc | Cloud-offloaded position calculation with on-device acquisition |
US10474490B2 (en) | 2017-06-29 | 2019-11-12 | Advanced Micro Devices, Inc. | Early virtualization context switch for virtualized accelerated processing device |
-
2021
- 2021-01-19 US US17/152,021 patent/US11340942B2/en active Active
- 2021-03-01 CN CN202180008176.XA patent/CN114930292A/zh active Pending
- 2021-03-01 KR KR1020227029373A patent/KR20220127326A/ko unknown
- 2021-03-01 JP JP2022542128A patent/JP7450728B2/ja active Active
- 2021-03-01 WO PCT/US2021/020192 patent/WO2021188287A1/en unknown
- 2021-03-01 EP EP21713528.4A patent/EP4121855A1/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116339944A (zh) * | 2023-03-14 | 2023-06-27 | 海光信息技术股份有限公司 | 任务处理方法、芯片、多芯片模块、电子设备和存储介质 |
CN116339944B (zh) * | 2023-03-14 | 2024-05-17 | 海光信息技术股份有限公司 | 任务处理方法、芯片、多芯片模块、电子设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
US11340942B2 (en) | 2022-05-24 |
JP2023509780A (ja) | 2023-03-09 |
US20210294648A1 (en) | 2021-09-23 |
JP7450728B2 (ja) | 2024-03-15 |
WO2021188287A1 (en) | 2021-09-23 |
EP4121855A1 (en) | 2023-01-25 |
KR20220127326A (ko) | 2022-09-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5934094B2 (ja) | データ並列スレッドを有する処理論理の複数のプロセッサにわたるマッピング | |
EP3242210B1 (en) | Work stealing in heterogeneous computing systems | |
Chen et al. | Dynamic load balancing on single-and multi-GPU systems | |
JP6294586B2 (ja) | 命令スレッドを組み合わせた実行の管理システムおよび管理方法 | |
US9354892B2 (en) | Creating SIMD efficient code by transferring register state through common memory | |
US9710306B2 (en) | Methods and apparatus for auto-throttling encapsulated compute tasks | |
US20130247067A1 (en) | GPU Compute Optimization Via Wavefront Reforming | |
KR20210057184A (ko) | 이종 cpu/gpu 시스템에서 데이터 흐름 신호 처리 애플리케이션 가속화 | |
CN103809936A (zh) | 编译或运行时执行分叉-合并数据并行程序的系统和方法 | |
KR20130127480A (ko) | 이종 처리 디바이스의 동적 작업 분할 | |
US20220365782A1 (en) | Instructions for operating accelerator circuit | |
KR20110075296A (ko) | 멀티코어 시스템 상에서 단위 작업을 할당하는 방법 및 그 장치 | |
CN114930292A (zh) | 协作式工作窃取调度器 | |
EP2943877B1 (en) | Method and apparatus for exploiting data locality in dynamic task scheduling | |
EP3779673B1 (en) | Methods and apparatus to configure heterogenous components in an accelerator | |
JP2024500779A (ja) | アドレスマッピング認識型タスク処理機構 | |
US11875425B2 (en) | Implementing heterogeneous wavefronts on a graphics processing unit (GPU) | |
Hoffmann et al. | Dynamic task scheduling and load balancing on cell processors | |
TWI754310B (zh) | 純函數語言神經網路加速器系統及電路 | |
CN117501254A (zh) | 使用近存储器计算为复杂操作提供原子性 | |
US20230289189A1 (en) | Distributed Shared Memory | |
CN116610366A (zh) | 基于优先级的gpgpu分支处理架构及方法 | |
CN116775265A (zh) | 协作组阵列 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |