CN115699072A - 用于工作负载处理的任务图调度 - Google Patents

用于工作负载处理的任务图调度 Download PDF

Info

Publication number
CN115699072A
CN115699072A CN202180038949.9A CN202180038949A CN115699072A CN 115699072 A CN115699072 A CN 115699072A CN 202180038949 A CN202180038949 A CN 202180038949A CN 115699072 A CN115699072 A CN 115699072A
Authority
CN
China
Prior art keywords
channels
channel
task graph
processing device
resources
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202180038949.9A
Other languages
English (en)
Inventor
史蒂文·J·托维
陈卓
大卫·罗纳德·奥德柯恩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATI Technologies ULC
Advanced Micro Devices Inc
Original Assignee
ATI Technologies ULC
Advanced Micro Devices Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATI Technologies ULC, Advanced Micro Devices Inc filed Critical ATI Technologies ULC
Publication of CN115699072A publication Critical patent/CN115699072A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/5038Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the execution order of a plurality of tasks, e.g. taking priority or time dependency constraints into consideration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/30Creation or generation of source code
    • G06F8/34Graphical or visual programming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/48Program initiating; Program switching, e.g. by interrupt
    • G06F9/4806Task transfer initiation or dispatching
    • G06F9/4843Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
    • G06F9/4881Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5011Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
    • G06F9/5016Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals the resource being the memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/5044Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering hardware capabilities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/52Program synchronisation; Mutual exclusion, e.g. by means of semaphores
    • G06F9/522Barrier synchronisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/48Indexing scheme relating to G06F9/48
    • G06F2209/486Scheduler internals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/501Performance criteria
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Image Generation (AREA)

Abstract

本发明提供了用于在处理设备上针对任务图调度操作的技术。该技术包括:接收任务图,该任务图指定一个或多个通道、一个或多个资源,以及通道和资源之间的一个或多个有向边缘;识别该任务图的独立通道和相关通道;基于该处理设备的性能标准,调度命令以执行该通道;以及将已调度命令传输到该处理设备以用于按调度执行。

Description

用于工作负载处理的任务图调度
相关申请的交叉引用
本申请要求2020年5月29日提交的美国非临时专利申请号16/888,540的权益,该专利申请以引用方式并入,如同在本文完整阐述一样。
背景技术
三维(“3D”)图形处理管线执行一系列步骤以将输入几何形状转换成二维(“2D”)图像以用于在屏幕上显示。在一些示例中,这些步骤被指定为由主机(诸如运行应用程序的中央处理单元)执行的命令。许多渲染工作负载需要大命令序列,并且因此生成和处理这些序列是复杂任务。
附图说明
可以从以下描述中获得更详细的理解,通过示例结合附图给出,其中:
图1是可实现本公开的一个或多个特征的示例设备的框图;
图2示出了根据一个示例的图1的设备的细节;
图3是展示了图2所示的图形处理管线的另外细节的框图;
图4A至图4C示出了用于生成任务图并且在处理设备(诸如图2的加速处理设备)上调度工作负载的任务图指定处理器402和命令调度器404的配置;
图5示出了示例性任务图;
图6A至图6B示出了根据示例性技术的从任务图指定程序生成任务图;
图7A和图7B示出了根据另一个示例性技术的从任务图指定程序生成任务图;
图8A和图8B示出了根据任务图的在处理设备上调度任务;
图9是用于从任务图指定程序生成任务图的方法的流程图;并且
图10是用于根据任务图在处理设备上调度任务的方法的流程图。
具体实施方式
本发明提供了用于在处理设备上针对任务图调度操作的技术。该技术包括:接收任务图,该任务图指定一个或多个通道、一个或多个资源,以及通道和资源之间的一个或多个有向边缘;识别该任务图的独立通道和相关通道;基于该处理设备的性能标准,调度命令以执行该通道;以及将已调度命令传输到该处理设备以用于按调度执行。
图1是可实现本公开的一个或多个特征的示例设备100的框图。设备100可以是例如计算机、游戏设备、手持设备、机顶盒、电视、移动电话、平板计算机或其他计算设备中的一者但不限于这些项。设备100包括处理器102、存储器104、存储装置106、一个或多个输入设备108以及一个或多个输出设备110。设备100还包括一个或多个输入驱动器112和一个或多个输出驱动器114。输入驱动器112中的任一者具体体现为硬件、硬件与软件的组合或软件,并且用于控制输入设备112的目的(例如,控制操作、从输入驱动器112接收输入以及向输入驱动器提供数据)。类似地,输出驱动器114中的任一者具体体现为硬件、硬件与软件的组合或软件,并且用于控制输出设备114的目的(例如,控制操作、从输出驱动器114接收输入以及向输出驱动器提供数据)。应当理解,设备100可包括图1中未示出的另外部件。
在各种另选方案中,处理器102包括中央处理单元(CPU)、图形处理单元(GPU)、位于同一管芯上的CPU和GPU、或一个或多个处理器核心,其中每个处理器核心可为CPU或GPU。在各种另选方案中,存储器104位于与处理器102相同的管芯上,或与处理器102分开定位。存储器104包括易失性或非易失性存储器,例如随机存取存储器(RAM)、动态RAM或高速缓存。
存储器106包括固定或可移动存储器,例如但不限于硬盘驱动器、固态驱动器、光盘或闪存驱动器。输入设备108包括但不限于键盘、小键盘、触摸屏、触摸板、检测器、麦克风、加速度计、陀螺仪、生物扫描仪或网络连接(例如,用于发射和/或接收无线IEEE 802信号的无线局域网卡)。输出设备110包括但不限于显示器、扬声器、打印机、触觉反馈设备、一个或多个灯、天线或网络连接(例如,用于发射和/或接收无线IEEE802信号的无线局域网卡)。
输入驱动器112和输出驱动器114包括被配置为分别与输入设备108和输出设备110交接并驱动它们的一个或多个硬件、软件和/或固件部件。输入驱动器112与处理器102和输入设备108通信,并允许处理器102从输入设备108接收输入。输出驱动器114与处理器102和输出设备110通信,并允许处理器102向输出设备110发送输出。输出驱动器114包括耦接到显示设备118的加速处理设备(“APD”)116,在一些示例中,显示设备是使用远程显示协议来显示输出的物理显示设备或模拟设备。APD 116被配置为从处理器102接收计算命令和图形渲染命令,处理那些计算和图形渲染命令,并将像素输出提供给显示设备118用于显示。如下文所详述,APD 116包括被配置为根据单指令多数据(“SIMD”)范式来执行计算的一个或多个并行处理单元。因此,尽管这里将各种功能描述为由APD 116执行或与其结合执行,但在各种另选方案中,被描述为由APD 116执行的功能另外地或另选地由具有类似能力的其他计算设备执行,该其他计算设备不由主机处理器(例如,处理器102)驱动并且被配置为向显示设备118提供图形输出。例如,可以设想根据SIMD范式执行处理任务的任何处理系统都可被配置为执行本文所述的功能。另选地,可以设想不根据SIMD范式执行处理任务的计算系统执行本文所述的功能。
图2示出了根据一个示例的设备100和APD 116的细节。处理器102(图1)执行操作系统120、驱动器122和应用程序126,并且还可另选地或另外地执行其他软件。操作系统120控制设备100的各个方面,诸如管理硬件资源、处理服务请求、调度并控制进程执行以及执行其他操作。APD驱动器122控制APD 116的操作,向APD 116发送诸如图形渲染任务的任务或其他作业以进行处理。APD驱动器122还包括即时编译器,该即时编译器编译程序以供APD116的处理部件(诸如下文所详述的SIMD单元138)执行。
APD 116执行用于所选功能的命令和程序,诸如可适于并行处理的图形操作和非图形操作。APD 116可用于执行图形管线操作,诸如像素操作、几何计算和基于从处理器102接收的命令将图像呈现给显示设备118。APD 116还基于从处理器102接收的命令来执行与图形操作不直接相关的计算处理操作,诸如与视频、物理模拟、计算流体动力学或其他任务相关的操作。
APD 116包括计算单元132,该计算单元包括被配置为根据SIMD范式以并行方式在处理器102(另一单元)的请求下执行操作的一个或多个SIMD单元138。SIMD范式是这样一种范式,其中多个处理元件共用单个程序控制流单元和程序计数器并由此执行相同的程序,但能够执行具有不同数据的该程序。在一个示例中,每个SIMD单元138包括十六个通道,其中每个通道与SIMD单元138中的其他通道同时执行相同的指令,但可执行具有不同数据的该指令。如果不是所有通道都需要执行给定指令,则可通过预测来关闭通道。还可使用预测来执行具有发散控制流的程序。更具体地,对于具有条件分支或其中控制流基于由单个通道执行的计算的其他指令的程序,预测对应于当前未被执行的控制流路径的通道,并且不同控制流路径的串行执行可实现任意控制流。
计算单元132中的基本执行单元是工作项。每个工作项表示要在特定通道中并行执行的程序的单个实例。可在单个SIMD处理单元138上作为“波前”同时(或部分同时并且部分顺序)执行工作项。一个或多个波前包括在一个“工作组”中,该“工作组”包括被指定执行相同程序的工作项的集合。可通过执行构成工作组的波前中的每一者来执行工作组。在另选方案中,波前在单个SIMD单元138上执行,或在不同SIMD单元138上执行。波前可被视为可在单个SIMD单元138上同时(或伪同时)执行的工作项的最大集合。“伪同时”执行发生在波前大于SIMD单元138中的通道数的情况下。在这种情况下,波前在多个周期中执行,工作项的不同集合在不同周期中执行。APD调度器136被配置为执行涉及调度计算单元132和SIMD单元138上的各种工作组和波前的操作。
由计算单元132提供的并行性适合图形相关操作,诸如像素值计算、顶点变换和其他图形操作。因此,在一些实例中,接受来自处理器102的图形处理命令的图形管线134将计算任务提供给计算单元132以供并行执行。
计算单元132还用于执行不涉及图形或不作为图形管线134的“正常”操作(例如,所执行的用以补充针对图形管线134的操作执行的处理的自定义操作)的一部分而执行的计算任务。在处理器102上执行的应用程序126或其他软件将定义此类计算任务的程序发送到APD 116以供执行。
图3是展示了图2所示的图形处理管线134的另外细节的框图。图形处理管线134包括各自执行图形处理管线134的特定功能的阶段。每一阶段部分或全部实现为在可编程计算单元132中执行的着色器程序,或部分或全部实现为处于计算单元132外部且功能固定的不可编程硬件。
输入汇编器阶段302从用户填写型缓存(例如,在处理器102所执行的软件(诸如应用程序126)的请求下所填写的缓存)中读取图元数据,并且将该数据汇编成图元以供管线的其余部分使用。基于包括在用户填写型缓存中的图元数据,输入汇编器阶段302可以生成不同类型的图元。输入汇编器阶段302格式化所汇编的图元以供管线的其余部分使用。
顶点着色器阶段304处理由输入汇编器阶段302汇编的图元的顶点。顶点着色器阶段304执行各种逐顶点操作,诸如变换、去皮、变形和逐顶点光照。变换操作包括变换顶点坐标的各种操作。这些操作包括以下中的一者或多者:建模变换、观察变换、投影变换、透视除法和视区变换,其修改顶点坐标,以及修改非坐标属性的其他操作。
顶点着色器阶段304部分或完全实现为将在一个或多个计算单元132上执行的顶点着色器程序。顶点着色器程序由处理器102提供并且基于计算机程序员所预写的程序。驱动器122编译此类计算机程序以生成顶点着色器程序,该顶点着色器程序具有适合于在计算单元132内执行的格式。
外壳着色器阶段306、曲面细分器阶段308和域着色器阶段310一起工作以实现曲面细分,其通过细分图元而将简单图元转换成更复杂图元。基于输入图元,外壳着色器阶段306生成修补程式以供曲面细分。曲面细分器阶段308为修补程式生成一组样本。域着色器阶段310计算与修补程式的样本对应的顶点的顶点位置。外壳着色器阶段306和域着色器阶段310可被实现为将在计算单元132上执行的着色器程序,该计算单元由驱动器122编译(如通过顶点着色器阶段304)。
几何着色器阶段312逐个图元执行顶点操作。可以由几何着色器阶段312执行各种不同类型的操作,包括诸如以下操作:点精灵扩展、动态粒子系统操作、毛皮-鳍生成、阴影体积生成、单通道渲染到立方图、逐图元材料交换和逐图元材料设置。在一些实例中,由驱动器122编译并且在计算单元132上执行的几何着色器程序执行几何着色器阶段312的操作。
光栅化器阶段314接受光栅化器阶段314的上游生成的简单图元(三角形)并将其光栅化。光栅化由确定哪些屏幕像素(或子像素样本)被特定图元覆盖组成。光栅化由固定功能硬件来执行。
基于上游生成的图元和光栅化的结果,像素着色器阶段316计算屏幕像素的输出值。像素着色器阶段316可应用来自纹理存储器中的纹理。像素着色器阶段316的操作由像素着色器程序执行,该像素着色器程序由驱动器122编译并且在计算单元132上执行。
输出合并器阶段318接受来自像素着色器阶段316的输出并且将这些输出合并到帧缓存中,从而执行诸如z测试和α混合等操作,以确定屏幕像素的最终颜色。
通常,APD 116上的处理工作负载涉及执行多个“通道”。“通道”是接受一些输入(例如,从另一个通道或作为整个处理工作负载的输入)、处理输入并且生成输出的处理单元。一些输出包括到其他通道的输出,并且其他输出包括处理工作负载的最终输出,诸如要在屏幕上显示的图像。因此,通道的特定顺序、那些通道使用的输入和那些通道生成的输出指定整个处理工作负载。
通道的一个示例是通过以特定方式(例如,启用或禁用特定阶段,通过具有特定的选定着色器程序以用于执行的特定可编程阶段)配置的图形处理管线134处理数据。通过图形处理管线134的任何特定通道的输入或输出可基于图形处理管线134的指定操作来配置。示例性图形处理通道包括将网格绘制到渲染目标集和深度缓存的几何通道,以及通过顶点和像素着色器程序绘制屏幕空间四极的后处理通道。通道的另一个示例是执行特定计算着色器程序的计算工作负载。计算着色器程序是在计算单元132上执行但不作为图形处理管线134的一部分的着色器程序。计算工作负载是针对特定输入数据集执行计算着色器程序以生成特定输出数据集。
可以“手动”指定处理工作负载的通道的每个单独命令。更具体地,应用程序126(或其他实体诸如驱动器122)可向驱动器122和/或加速处理设备116发出命令以便以专门方式执行通道。然而,本公开提出了用于指定多通处理工作负载的更自动化方式的技术。
具体地,本公开提出了用于编程地指定处理工作负载作为任务组的技术。图4A示出了图2的APD调度器136,该APD调度器被配置为执行任务图指定程序以生成任务图并且基于所生成的任务图来调度用于在APD116上执行的操作。
APD调度器136包括任务图指定处理器402和命令调度器404。任务图指定处理器402接受任务图指定程序作为输入。任务图指定程序编程地指定如何生成描述处理工作负载的任务图。处理工作负载包括如本文将进一步描述(例如,相对于图5)的任务和资源的图。任务图指定处理器402执行任务图指定程序,该任务图指定程序在被执行时生成将处理工作负载指定为任务图的任务图。
命令调度器404接受任务图作为输入,执行操作的调度以执行由任务图指定的处理工作负载,并且引导APD 116执行那些操作。在一些具体实施中,命令调度器404接受APD反馈信息并且使用该反馈信息来调度APD116上的操作。APD反馈信息包括关于APD 116的状态的各种信息,诸如性能度量、占用度量、资源利用和其他类型的信息。关于APD 116的状态的一些示例性信息项包括当工作进入图形处理管线134以及由其完成时的时间戳、SIMD单元138的硬件性能计数器、各种硬件单元忙碌的时间百分比和存储器带宽利用率。命令调度器404利用时间戳来评估任务调度的总体有效性。此外,时间戳指示通道502的总持续时间。因此,在一些具体实施中,命令调度器404在调度时优先化较长通道。硬件块利用计数器用于帮助在不同硬件块处遇到瓶颈的组通道以一起实现较好的总利用率。在一些示例中,命令调度器404是APD 116的一部分,并且能够直接从APD的其他部件获得此类性能度量而无需由处理器102、应用程序、驱动器或操作系统进行干预。
在图4A的示例中,任务图指定处理器402和命令调度器404中的任一者或两者被实现为在处理器上执行的软件、被配置成执行本文描述的操作的硬件电路、或其组合。尽管被描述为两个单独单元,但在一些具体实施中,任务图指定处理器402和命令调度器404是相同单元。图4A示出了其中任务图指定处理器402和命令调度器404在APD 116内的示例。图4B示出了其中任务图指定处理器402是在处理器102上执行的软件,并且如相对于图4A所述,命令调度器404在APD 116内实现的示例。图4C示出了任务图指定处理器402和命令调度器404是在处理器102上执行的程序的示例。
尽管命令调度器404被描述为输出用于在APD 116上执行的命令,但应当理解,可应用本文描述的技术以生成用于在除APD 116之外的处理器(诸如中央处理单元(例如,处理器102)或另一个单元)上执行的命令。
图5示出了示例性任务图500。任务图500将处理工作负载指定为通道502和缓存504的有向无环图。如上所述,通道502包括特定工作单元,诸如通过以特定方式配置的图形处理管线134处理某些数据,或计算着色器程序。缓存504包括用作通道502的输入和/或用作通道502的输出的数据。缓存504可以是一个通道502的输入以及到另一个通道的输出,或可以是整个处理工作负载(其对应于单个任务图)的输入或输出。缓存的一些示例包括由特定通道502通道图形处理管线134产生的图像、由计算着色器程序生成的数据、或除了由通道502生成通过图形处理管线134生成的图像之外的数据。
任务图500包括通道502和缓存504之间的箭头。从缓存504到通道502的箭头意味着通道502接受该缓存504中的数据作为输入。从通道502到缓存504的箭头意味着通道502产生缓存504中的数据作为输出。因此,任务图500指定通道502之间的依赖性。更具体地,接受由另一个通道502生成的缓存504作为输入的通道502必须等待执行,直到已经实际生成缓存504。因此,接受缓存504作为输入的通道502取决于产生那些缓存504作为输出的其他通道502。如果第三通道502取决于第二通道502并且第一通道502取决于第三通道502,则第一通道502也被认为取决于第二通道502。换句话说,依赖性通过任务图500的箭头传播。如果一者不取决于另一者,则两个通道502是独立的。
如上所述,任务图指定程序是指定如何构建任务图500的程序。因此,任务图指定程序指示将进行哪些通道502以及哪些缓存504是通道502的输入和输出。在做出关于是否要在任务图500中包括某些通道502和/或缓存504以及通道502如何消耗和/或产生缓存504的决策时,任务图指定程序能够考虑运行时数据,诸如用户定义的运行时数据、由APD 116生成的数据或其他数据。因此,任务图指定程序不只是由任务图指定处理器402评估的任务图500的静态描述。相反,任务图指定程序能够基于运行时参数可变地构建任务图500。
图6A和图6B示出了一个示例性任务图指定程序格式,并且图7A和图7B示出了另选任务图指定程序格式。在图6A中,任务图指定程序包括通道定义605、通道调取606和程序控制流指令604。通道定义605定义在APD 116上执行通道所涉及的操作和方式。通道调取606表示使任务图指定处理器402生成输出的任务图500的通道502的指令。控制流指令604是用于控制何时和如何进行通道调取606的指令。如上文所描述,任务图指定处理器402执行控制流指令604和通道调取606以构建任务图500,该任务图用于命令调度器404进行的调度和APD 116进行的执行。
在一些具体实施中,通道定义605包括资源导入/导出指令608、状态指令610和通道命令612。在一些具体实施中,通道定义605省略状态指令610。资源导入/导出指令608指定当在APD 116上执行时由通道定义605导入(读取)和/或导出(写入)的一个或多个资源。术语“资源”具有与术语“缓存”(即,图5的缓存504)相同的含义。在一些具体实施中,状态指令610指示以下中的一者或两者:在APD 116上执行通道时哪些着色器将用于通道的图形或计算操作的,或者在APD 116上执行通道时哪些图形管线状态将用于通道,但也可考虑其他状态。通道命令612是针对通道606执行的实际工作。通道命令612从一个或多个导入资源输入,处理该一个或多个导入资源,并且输出到一个或多个导出资源。在一些具体实施中,通道命令612包括命令,诸如绘制命令(绘制几何形状,例如通过特定配置的图形处理管线134发送几何形状)、调度命令(调度通用计算工作负载以用于执行)、复制命令(将存储器的一个或多个部分复制到一个或多个其他位置)、清除命令(清除存储器的一个或多个部分)、资源布局转变(修改一个或多个资源的布局)、高速缓存动作(例如,刷新或预取高速缓存数据)、同步操作(诸如APD 116硬件或事件之间的同步;例如,绘制命令和调度命令可能为了存储器带宽竞争,因此尽管这些项目可在逻辑上并行地运行,但编程器有时插入用于迫使一者在另一者已经完成之后才启动的显式同步命令)或可由APD 116执行的其他命令。对于高速缓存动作和同步操作,命令调度器404能够并且有时自动生成此类动作/操作。然而,编程器还可显式地指定这些动作。
控制流指令604在由任务图指定处理器402执行期间控制任务图指定程序600的程序流。控制流指令604包括诸如条件语句(例如,如果语句)、循环等的控制流指令。控制流指令604允许任务图指定程序600在运行时基于运行时参数建立任务图500。循环允许从单通道定义605生成多个通道502,每一者具有可能不同的参数(导入/导出数据和着色器/管线配置)。条件能够指定特定节点定义605是否实际上被实例化为节点。
在一些情况下,通道调取606指定资源导入/导出指令608或状态指令610中的一者或多者的参数。在此类情况下,参数指定以下中的一者或多者:何种状态(例如,着色器程序、图形处理管线134配置)将用于由于通道调取606而生成的特定通道、将导入到由于通道调取606而生成的通道的一个或多个资源、或者用于从由于通道调取606而生成的通道导出的一个或多个资源。此外,在一些情况下,参数被指定为变量,这意味着参数的值是在运行时决定的(例如,基于可用于任务图指定程序600的数据和/或由于来自控制流指令604执行的特定结果)。总而言之,参数并且因此状态、导入数据和导出数据是可在运行时(也就是说,运行任务图指定程序600的时间,这意味着写入任务图指定程序600的编程器不需要对此类信息进行硬码)指定的元素。
图6B示出了基于图6A中描述的格式的任务图指定程序600生成的示例性任务图650。现在提供以代码示出的示例性任务图指定程序:
Figure BDA0003968761260000111
表1:示例性任务图指定程序
上述任务图指定程序指定两个通道定义:一个针对PassA,其调用Draw1(),并且一个针对通道PassB,其调用Draw2()和Draw3()。通道调取将图上的PassA实例化为输入资源r1和输出资源r2。基于某些条件,通道调取实例化PassB的零个、一个或两个实例,从而输入资源r2和输出r3。应当注意,Draw3()使用由Draw2()在内部生成的数据,但由于数据完全在PassB内生成和消耗,该数据不被指定为资源。
图6B示出了从表1的任务图指定的两个不同执行生成的两个不同任务图650。在第一任务图650(1)中,条件A和条件B均为真。因此,所生成的图包括从资源1 654(1)读取并输出到资源2 654(2)的PassA 652(1),并且从资源2 654(2)读取并输出到资源3 654(3)的PassB 652(2)的两个实例退出。对于任务图650(2),仅条件A为真。因此,仅生成PassB 652(2)的一个实例。
图7A和图7B示出了根据另一个格式的任务图指定程序700,以及由于任务图指定处理器402执行任务图指定程序700而生成的任务图750。
任务图指定程序700包括控制流指令702、资源导入/导出指令704、状态指令706和通道命令708。通道命令708是可由APD 116执行的单独命令。一些示例性通道命令708包括资源导入/导出指令704绘制命令(绘制几何形状,例如通过特定配置的图形处理管线134发送几何形状)、调度命令(调度通用计算工作负载以用于执行)、复制命令(将存储器的一个或多个部分复制到一个或多个其他位置)、清除命令(清除存储器的一个或多个部分)、资源布局转变(修改一个或多个资源的布局)、高速缓存动作(例如,刷新或预取高速缓存数据)、同步操作(诸如APD 116硬件或事件之间的同步;例如,绘制命令和调度命令可能为了存储器带宽竞争,因此尽管这些项目可在逻辑上并行地运行,但编程器有时插入用于迫使一者在另一者已经完成之后才启动的显式同步命令)或可由APD 116执行的其他命令。对于高速缓存动作和同步操作,命令调度器404能够并且有时自动生成此类动作/操作。然而,编程器还可显式地指定这些动作。
资源导入/导出命令704指定由通道命令708读取和/或写入的资源。状态指令706是定义和/或修改APD 116的状态(诸如图形处理管线134状态、哪些着色器程序用于图形处理管线134或计算着色器调度、或其他状态)的指令。当任务图指定处理器402执行任务图指定程序700时,控制流指令702控制程序流。
在执行期间,任务图指定处理器402遍历任务图指定程序700以识别通道块710,任务图指定程序700从其生成对应任务图的通道502。在一些示例中,通道块710是任务图指定程序700的一部分,其包括一个(或指定数量)的通道命令并且以通道命令终止,并且不包括用于由任务图指定处理器402执行的控制流指令。在其他示例中,通道块710包括不同固定数量的通道命令708,或可变数量的通道命令708。在一些示例中,通道块710不需要以通道命令708终止。在一些示例中,任务图指定处理器402识别任务图指定程序700的部分,该部分包括至少一个通道命令708并且以通道命令708终止并且基于通道命令708的位置将每个这样的部分划分成通道块710。更具体地,从部分中,任务图指定程序700根据指定数量的通道命令708生成一个通道块710。在一些示例中,每个此类通道块710包括从先前通道块710到通道块710中的最后通道命令708的所有指令,但没有控制流指令702。
在已识别通道块710的情况下,任务图指定处理器702如下生成任务图500。每个通道块710包括一个或多个导入资源和一个或多个输出资源的定义。这些资源构成任务图的缓存504。资源读取和写入构成任务图的有向边缘。从缓存504指向通道502的边缘是资源读取,并且从通道502指向缓存504的边缘是资源写入。
下表包括图7A所述的格式的任务图指定程序的示例性代码列表。图7B示出了从程序生成的示例性任务图750。
Figure BDA0003968761260000131
表2:示例性任务图指定程序
在此示例中,通道块仅包括一个通道命令。通道命令被识别为是指定为通道命令的命令集中的一者的命令,诸如本文其他地方描述的那些。换句话说,任务图指定处理器402能够访问被认为是通道命令的命令类型的列表并且识别在列表内发现的程序的所有命令作为通道命令。表2的示例性任务图指定程序包括三个不同的通道块。第一通道块是从SetState(State1)语句到第一通道命令Draw1()的部分。第二通道块是以SetState(State2)语句开始并在Draw2()通道命令处结束的如果语句中的部分。第三通道块是以SetResource(read:r5,write:r3)开始并以Draw3()结束的如果语句中的部分。
在表2的任务图指定程序的一个示例性执行(被示为任务图750(1))中,条件B为真。因此,任务图指定处理器402在任务图750(1)中生成通道,该通道包括:通道1,其输入资源1 754(1)并输出资源2 754(2);通道2,其输入资源2 754(2)并输出资源5 754(5);和通告3,其输入资源5754(5)并输出资源3 754(3)。
在表2的任务图指定程序的另一个示例性执行中,被示为任务图750(2),条件B为假。因此,任务图指定处理器402生成输入资源1 754(1)并输出资源2 754(2)754(2)的通道1,但不生成通道2或3。
如上所述,命令调度器404基于由任务图指定处理器402输出的任务图来调度用于在APD 116上执行的任务。命令调度器404基于某些考虑因素来确定通道的执行顺序。一个考虑因素集包括通道502的依赖性。更具体地,具有一个或多个依赖性的通道502不能相对于彼此重新排序。例如,如果第一通道502取决于第二通道502,则命令调度器404致使第一通道502在第二通道502已经完成之后执行。在一些示例中,命令调度器404插入适当的指令或标记(诸如屏障指令或图元)以实施通道502之间的排序。如果第一通道502不取决于第二通道502并且第二遍不取决于第一通道502,则命令调度器404自由地并且在一些情况下确实以任何技术上可行的方式将第一通道502和第二通道502的执行相对于彼此排序。例如,在一些实例中,命令调度器404致使独立通道一者接一者地执行,并且在其他情况下,命令调度器404致使独立通道在至少部分重叠的时间段期间执行。通常,命令调度器404选择要一起执行以优化某些期望资源(诸如存储器使用、处理单元资源、寄存器使用)或最小化执行时间的通道502。
图8A示出了根据一个示例的任务图800。第一通道802(1)读取资源1804(1)并输出资源2 804(2)。通道2 802(2)输入资源2 804(2)并输出资源3804(3)。通道3 802(3)输入资源2 804(2)并输出资源4 804(4)。通道4 802(4)输入资源2 804(2)并输出资源5 804(5)。通道5输入802(5)并输出资源6804(6)。
通道2 802(2),通道3 802(3)和通道4 802(4)是独立的并且取决于通道2 802(1)。通道5 802(5)取决于通道1 802(1)、通道2 804(2)、通道3 802(3)和通道4 802(4)。因为通道2 802(2)、通道3 802(3)和通道4 802(4)是独立的,所以命令调度器404能够将这些通道802的执行相对于彼此重新排序。然而,命令调度器404实施相关通道之间的排序,这意味着通道1402(1)在通道2 802(2)、通道3 802(3)和通道4 802(4)之前执行,并且通道2802(2),通道3 802(3)和通道4 802(4)在通道5 802(5)之前执行。
图8B示出了由命令调度器404调度的通道802的示例性执行顺序850。如图所示,时间向右侧前进。在示例1 850(1)中,通道1 802(1)在通道2 802(2)、通道3 802(3)和通道4802(4)之前执行,并且通道2 802(2)、通道3 802(3)和通道4 802(4)同时执行。在示例2850(2)中,通道1 802(1)在通道2 802(2)和通道3 802(3)之前执行。通道4 802(4)在通道2802(2)和通道3802(3)之后执行并且在通道5 802(5)之前执行。在示例3 850(3)中,通道802顺序执行。
在一些具体实施中,特定编程语言用于图7A和图7B的技术的整个任务图指定程序以及用于图6A和图6B的控制流指令604和通道调取606(但不用于通道定义605)。在此类具体实施中,在图6A和图6B的示例中,通道定义605以编译的不同编程语言写入。当执行对应通道时,这些通道定义605由APD 116调用。
为了确定如何调度独立通道802,命令调度器404考虑APD 116的状态和通道802的性能度量。存在构成APD 116的“状态”的多个不同信息项目。性能度量的一些示例包括资源使用和执行速度。资源包括存储器、寄存器和处理单元(诸如SIMD单元138)。在一些示例中,命令调度器404在执行期间记录通道802的性能度量以用于在将来调度相同通道802期间使用。更具体地,命令调度器404基于那些通道的先前见证的资源使用来更新特定通道的估计资源使用数据,并且利用此类更新的估计资源使用数据来进行将来的调度决定。
如上所述,命令调度器404有时调度独立通道502以用于在一个或多个计算单元132上同时执行。命令调度器404基于通道502的性质以及APD 116的能力和状态来确定是否同时调度不同通道502。更具体地,在一些情况下,有利的是同时调度独立通道502,并且在其他情况下,有利的是不同时调度独立通道502。术语“同时”意味着两个(或更多个)通道502在至少部分重叠的时间段内执行。
通道502消耗诸如存储器、处理单元(例如,SIMD单元138)、寄存器等的资源。因此,在APD 116在某些资源方面受到限制,并且同时执行通道502将超过可用资源的数量的情况下,命令调度器404不同时调度此类通道502。相反,在资源可用于同时执行的情况下,命令调度器404有时可同时调度此类通道502。此外,在操作中,命令调度器404确定是否强调诸如速度或资源使用的方面并且基于此类确定来调度独立通道502。在一个示例中,同时执行多个通道502减小了那些通道502的总执行时间,但在任何给定时间增加了总资源使用。连续地执行多个通道502增加了总执行时间,但在给定时间减小了总资源使用。相反,同时执行多个通道502减小了总执行时间,但在给定时间增加了总资源使用。
命令调度器404的另一个考虑因素是不同通道502是否使用不同资源。更具体地,如果不同通道502使用不同类型的资源,或者如果一个通道502使用少量的特定资源并且另一个通道502使用大量的资源,则调度这些通道将是有益的。在一个示例中,一个通道502具有SIMD单元138的非常重度使用,而另一个通道502具有SIMD单元138的轻度使用。在这种情况下,在一些实例中,命令调度器404调度这两个通道以用于同时执行。
此外,命令调度器404能够通过减小使用特定缓存504的时间段来减小在给定时间的存储器使用。更具体地,通过分析任务图500,命令调度器能够确定任何特定缓存504的寿命。缓存504的寿命是生成缓存504的通道502和消耗该缓存504的最后通道502之间的时间段。在一些具体实施中,并且在一些情况下,诸如在存储器使用较高的情况下,命令调度器404通过同时调度其完成趋向于结束该寿命的通道502来最小化缓存504的寿命。换句话说,为了减小缓存504的寿命,命令调度器404识别作为使用缓存504的可能最后通道502的通道502,并且命令调度器404识别可能最后通道502取决于的通道502。然后,命令调度器404尝试调度此类识别的通道502以用于在可能的情况下同时执行(例如,可调度独立通道502以用于同时执行)。“可能最后通道”是作为在拓扑排序次序中使用缓存504的最后通道的通道,或者可以是在拓扑排序次序中使用缓存504的最后通道的独立通道502中的一者。也可以使用这种技术来保持资源工作集处于存储器层级的特定部分中,诸如高速缓存或其他存储器。换句话说,可以使用上述技术来限制通道502的存储器利用,使得存储器利用配合在存储器层级的特定部分内(例如,全部处于0级高速缓存、全部处于1级高速缓存等)。
拓扑排序是一种技术,由此基于图形的有向边缘对有向无环图的节点进行排序。在排序中,在有向边缘开始处的节点始终在那些有向边缘结束处的节点之前。在其间没有有向边缘的节点的任何排序产生了有效拓扑排序。因此,如果多个通道502使用缓存504但为独立的,并且任何此类通道502可以是在有效拓扑排序次序中使用缓存504的最后一个通道,则每个此类通道502是可能最后通道502。
在一些具体实施中,在该寿命期间存在的通道502包括全部使用缓存504的多个独立通道502。通过积极地调度缓存504的消费者以早期执行,减小了缓存504的寿命。
在附加的调度技术中,命令调度器404自动地将大通道分解成几个较小通道并且独立地调度那些通道。
图9是根据一个示例的用于改造任务图以调度的方法900的流程图。尽管参照图1至图8B的系统进行了描述,但本领域的技术人员将认识到,被配置为按任何技术上可行的顺序执行方法900的步骤的任何系统都属于本公开的范围。
方法900开始于步骤902处,其中任务图指定处理器402接收用于执行的任务图指定程序902。任务图指定程序编程地指定如何生成用于在APD 116上调度和执行的任务图。在步骤904处,任务图指定程序902执行如任务图指定程序902中指定的控制流指令以遍历任务图指定程序902。这些控制流指令包括诸如条件指令、循环等的指令。应当注意,如图9内的步骤904在步骤906到910之前的排序不一定意味着步骤904以该顺序执行仅一次。相反,应当理解,步骤904指示控制流指令如任务图指定程序所指定的那样,以在该程序内发现它们的任何顺序执行。
在步骤906处,任务图指定处理器402基于任务图指定程序的通道指令来生成节点(其对应于通道502)。在图6A到图6B的格式中,通道指令是通道调取606。以控制流指令所指定的顺序执行通道调取生成了任务图的节点。对于图7A到图7B的格式,通道指令是通道块710。具体地,任务图指定处理器402以本文其他地方指定的方式识别这些通道块710,并且从这些通道块710生成节点。
在步骤908处,在所生成的任务图中,任务图指定处理器402来生成资源和基于每个节点的资源利用率的所生成的节点之间的有向边缘。对于由节点读取的资源,任务图指定处理器402生成从该资源指向节点的有向边缘。对于由节点写入的资源,任务图指定处理器402生成从节点指向该资源的有向边缘。在步骤910处,任务图指定处理器402将任务图输出到命令调度器404以用于在APD 116或其他设备上调度。
图10是根据一个示例的用于基于任务图在处理设备上调度操作的方法1000的流程图。尽管参照图1至图8B的系统进行了描述,但本领域的技术人员将认识到,被配置为按任何技术上可行的顺序执行方法1000的步骤的任何系统都属于本公开的范围。
方法1000开始于步骤1002,其中命令调度器404接收任务图。在一些示例中,任务图由任务图指定处理器402生成。在一些示例中,命令调度器404在与任务图指定处理器402相同的处理设备上或在与任务图指定处理器402的不同处理设备上。在图4A至图4C中示出了各种示例性配置。
在步骤1004处,命令调度器404识别任务图的独立和相关通道。用于识别此类通道的技术在本文其他地方描述。在步骤1006处,命令调度器404基于性能标准来确定如何调度用于在处理设备上执行的通道。本文其他地方(诸如在图9的描述之前,并且包括与图8A和图8B相关的描述)描述了用于调度通道的许多技术和考虑因素。调度步骤1006涉及执行这些技术中的任一者或多者。通常,命令调度器404调度独立通道以提供被认为是处理设备的特定资源(例如,存储器、寄存器、处理时间等)和/或其他因素(例如,硬件单元)的最佳利用的利用。此外,对于必须由于依赖性而连续进行的通道,命令调度器404致使此类通道连续进行。在一些示例中,命令调度器404致使此类通道经由屏障命令连续发生,该屏障命令致使一个通道的所有操作在相关通道可开始之前完成。在步骤1008处,命令调度器404将已调度命令传输到处理设备以用于在调度时执行。
在本文提供的本公开中,最终执行被调度以用于执行任务图的命令的设备是APD116。然而,应当理解,本说明书考虑了其中除具体描述的处理设备之外的处理设备执行这些命令的具体实施。在一些示例中,类似于APD 116但没有图形能力的设备(例如,没有图形处理管线134并且能够执行计算工作负载)是处理设备。在其他示例中,中央处理单元是处理设备。在其他示例中,任何其他处理单元是处理设备。
附图的任何单元(包括处理器102、存储装置106、存储器104、输入驱动器112、输入设备108、输出驱动器114、APD 116、显示设备118、输出设备110、驱动器122、操作系统120、应用程序126、图形处理管线134、计算单元132、SIMD单元138、APD调度器136以及图3的图形处理管线134的每个阶段)在适当的情况下可实现为被配置为执行所描述的操作的硬件电路,可实现为在处理器上执行的软件(该软件被配置为执行所描述的操作)、或者硬件和软件的组合。
应当理解,基于本文的公开内容,可能有许多变化。尽管上述特征和元素在特定组合中进行了描述,但每个特征或元素可以在没有其他特征和元素的情况下单独使用,或者在有或没有其他特征或元素的各种组合中使用。
所提供的方法可以在通用计算机、处理器或处理器核心中实现。举例来说,合适的处理器包括通用处理器、专用处理器、常规处理器、数字信号处理器(DSP)、多个微处理器、与DSP核相关联的一个或多个微处理器、控制器、微控制器、专用集成电路(ASIC)、现场可编程门阵列(FPGA)电路,任何其他类型的集成电路(IC)和/或状态机。可以通过使用处理的硬件描述语言(HDL)指令和包括网表的其他中间数据(能够存储在计算机可读介质上的此类指令)的结果来配置制造过程来制造此类处理器。这种处理的结果可以是掩码,然后在半导体制造过程中使用这些掩码来制造实现本公开的特征的处理器。
本文提供的方法或流程图可以在并入非暂态计算机可读存储介质中的计算机程序、软件或固件中实现,以供通用计算机或处理器执行。非暂态计算机可读存储介质的示例包括只读存储器(ROM)、随机存取存储器(RAM)、寄存器、高速缓存存储器、半导体存储器设备、磁性介质(例如内部硬盘和可移动磁盘)、磁光介质和光学介质(例如CD-ROM磁盘)以及数字多功能磁盘(DVD)。

Claims (20)

1.一种用于在处理设备上针对任务图调度操作的方法,所述方法包括:
接收任务图,所述任务图指定一个或多个通道、一个或多个资源,以及通道和资源之间的一个或多个有向边缘;
识别所述任务图的独立通道和相关通道;
基于所述处理设备的性能标准,调度命令以执行所述通道;以及
将已调度命令传输到所述处理设备以用于按调度执行。
2.根据权利要求1所述的方法,其中:
识别独立通道包括识别不具有对彼此的依赖性的通道的集合。
3.根据权利要求2所述的方法,其中调度命令以执行所述通道包括:
调度所述通道的集合中的至少两个通道以至少部分地同时执行。
4.根据权利要求3所述的方法,其中响应于确定所述两个通道中的一者利用所述处理设备的低数量的资源并且所述两个通道中的另一者利用所述处理设备的高数量的所述资源,执行至少部分地同时调度所述两个通道。
5.根据权利要求3所述的方法,其中所述性能标准包括减小所述处理设备的资源的利用的要求。
6.根据权利要求5所述的方法,其中所述资源包括存储器利用或寄存器利用中的一者。
7.根据权利要求5所述的方法,其中所述资源包括由所述两个通道读取的缓存的存储器利用,并且至少部分地同时调度所述两个通道减小所述缓存的寿命。
8.根据权利要求1所述的方法,还包括识别取决于所述一个或多个通道中的第二通道的所述一个或多个通道中的第一通道。
9.根据权利要求8所述的方法,还包括将屏障命令传输到所述处理设备以致使所述第一通道在所述第二通道完成之后执行。
10.根据权利要求1所述的方法,其中所述调度由所述处理设备内的调度器执行,所述调度器能够从所述处理设备获得处理度量而无需由操作系统进行的干预。
11.一种用于在处理设备上针对任务图调度操作的系统,所述系统包括:
命令调度器,所述命令调度器被配置为:
接收任务图,所述任务图指定一个或多个通道、一个或多个资源,以及通道和资源之间的一个或多个有向边缘;
识别所述任务图的独立通道和相关通道;
基于所述处理设备的性能标准,调度命令以执行所述通道;以及
将已调度命令传输到所述处理设备以用于按调度执行。
12.根据权利要求11所述的系统,其中:
识别独立通道包括识别不具有对彼此的依赖性的通道的集合。
13.根据权利要求12所述的系统,其中调度命令以执行所述通道包括:
调度所述通道的集合中的至少两个通道以至少部分地同时执行。
14.根据权利要求13所述的系统,其中响应于确定所述两个通道中的一者利用所述处理设备的低数量的资源并且所述两个通道中的另一者利用所述处理设备的高数量的所述资源,执行至少部分地同时调度所述两个通道。
15.根据权利要求13所述的系统,其中所述性能标准包括减小所述处理设备的资源的利用的要求。
16.根据权利要求15所述的系统,其中所述资源包括存储器利用或寄存器利用中的一者。
17.根据权利要求15所述的系统,其中所述资源包括由所述两个通道读取的缓存的存储器利用,并且至少部分地同时调度所述两个通道减小所述缓存的寿命。
18.根据权利要求11所述的系统,其中所述命令调度器被进一步配置为识别取决于所述一个或多个通道中的第二通道的所述一个或多个通道中的第一通道。
19.根据权利要求18所述的系统,其中所述命令调度器被进一步配置为将屏障命令传输到所述处理设备以致使所述第一通道在所述第二通道完成之后执行。
20.一种存储指令的非暂态计算机可读介质,所述指令在由处理器执行时使得所述处理器通过以下步骤在处理设备上针对任务图调度操作:
接收任务图,所述任务图指定一个或多个通道、一个或多个资源,以及通道和资源之间的一个或多个有向边缘;
识别所述任务图的独立通道和相关通道;
基于所述处理设备的性能标准,调度命令以执行所述通道;以及
将已调度命令传输到所述处理设备以用于按调度执行。
CN202180038949.9A 2020-05-29 2021-05-18 用于工作负载处理的任务图调度 Pending CN115699072A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/888,540 US11481256B2 (en) 2020-05-29 2020-05-29 Task graph scheduling for workload processing
US16/888,540 2020-05-29
PCT/US2021/033035 WO2021242577A1 (en) 2020-05-29 2021-05-18 Task graph scheduling for workload processing

Publications (1)

Publication Number Publication Date
CN115699072A true CN115699072A (zh) 2023-02-03

Family

ID=78704824

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202180038949.9A Pending CN115699072A (zh) 2020-05-29 2021-05-18 用于工作负载处理的任务图调度

Country Status (6)

Country Link
US (1) US11481256B2 (zh)
EP (1) EP4158584A4 (zh)
JP (1) JP2023527322A (zh)
KR (1) KR20230017212A (zh)
CN (1) CN115699072A (zh)
WO (1) WO2021242577A1 (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11797337B2 (en) * 2020-08-21 2023-10-24 Leica Microsystems Cms Gmbh Data processing management methods for imaging applications
CN115033373B (zh) * 2022-03-08 2024-07-02 西安电子科技大学 一种移动边缘计算网络中逻辑依赖性任务的调度卸载方法
CN117950866B (zh) * 2024-01-29 2024-07-05 维能(深圳)大数据技术有限公司 一种基于人工智能的算力运营管理系统及方法

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7496912B2 (en) 2004-02-27 2009-02-24 International Business Machines Corporation Methods and arrangements for ordering changes in computing systems
US8069446B2 (en) * 2009-04-03 2011-11-29 Microsoft Corporation Parallel programming and execution systems and techniques
US8887163B2 (en) * 2010-06-25 2014-11-11 Ebay Inc. Task scheduling based on dependencies and resources
US20130063460A1 (en) * 2011-09-08 2013-03-14 Microsoft Corporation Visual shader designer
US9996394B2 (en) 2012-03-01 2018-06-12 Microsoft Technology Licensing, Llc Scheduling accelerator tasks on accelerators using graphs
US20130332937A1 (en) 2012-05-29 2013-12-12 Advanced Micro Devices, Inc. Heterogeneous Parallel Primitives Programming Model
US9332083B2 (en) 2012-11-21 2016-05-03 International Business Machines Corporation High performance, distributed, shared, data grid for distributed Java virtual machine runtime artifacts
US9424079B2 (en) 2013-06-27 2016-08-23 Microsoft Technology Licensing, Llc Iteration support in a heterogeneous dataflow engine
US9652286B2 (en) 2014-03-21 2017-05-16 Oracle International Corporation Runtime handling of task dependencies using dependence graphs
US9442760B2 (en) * 2014-10-03 2016-09-13 Microsoft Technology Licensing, Llc Job scheduling using expected server performance information
US9984037B1 (en) 2015-04-27 2018-05-29 Synaptic Engines, Llc Scheduler for a fine grained graph processor
US10579341B2 (en) 2015-06-08 2020-03-03 Synopsys, Inc. Generation of workload models from execution traces
US20170109214A1 (en) * 2015-10-16 2017-04-20 Qualcomm Incorporated Accelerating Task Subgraphs By Remapping Synchronization
US10095482B2 (en) 2015-11-18 2018-10-09 Mastercard International Incorporated Systems, methods, and media for graphical task creation
US10331495B2 (en) 2016-02-05 2019-06-25 Sas Institute Inc. Generation of directed acyclic graphs from task routines
US10620994B2 (en) 2017-05-30 2020-04-14 Advanced Micro Devices, Inc. Continuation analysis tasks for GPU task scheduling
GB2569270B (en) * 2017-10-20 2020-02-19 Graphcore Ltd Parallel computing
US10713746B2 (en) 2018-01-29 2020-07-14 Microsoft Technology Licensing, Llc FIFO queue, memory resource, and task management for graphics processing
US10754709B2 (en) 2018-09-26 2020-08-25 Ciena Corporation Scalable task scheduling systems and methods for cyclic interdependent tasks using semantic analysis
US11080101B2 (en) * 2019-03-22 2021-08-03 Apple Inc. Dependency scheduling for control stream in parallel processor
US20200371843A1 (en) 2019-05-25 2020-11-26 Synopsys, Inc. Framework for application driven exploration and optimization of hardware engines
US10861126B1 (en) * 2019-06-21 2020-12-08 Intel Corporation Asynchronous execution mechanism
US11182207B2 (en) * 2019-06-24 2021-11-23 Nvidia Corporation Pre-fetching task descriptors of dependent tasks
US20210149734A1 (en) * 2019-11-15 2021-05-20 Nvidia Corporation Techniques for modifying an executable graph to perform a workload associated with a new task graph
WO2021178666A1 (en) 2020-03-04 2021-09-10 Mythic, Inc. Systems and methods for intelligently buffer tracking for optimized dataflow within an integrated circuit architecture
WO2021188672A1 (en) * 2020-03-20 2021-09-23 Nvidia Corporation Programming model for resource-constrained scheduling

Also Published As

Publication number Publication date
JP2023527322A (ja) 2023-06-28
US20210373957A1 (en) 2021-12-02
EP4158584A1 (en) 2023-04-05
WO2021242577A1 (en) 2021-12-02
KR20230017212A (ko) 2023-02-03
US11481256B2 (en) 2022-10-25
EP4158584A4 (en) 2024-04-24

Similar Documents

Publication Publication Date Title
CN101802874B (zh) 图形处理单元中的片段着色器旁路及其设备和方法
CN115699072A (zh) 用于工作负载处理的任务图调度
KR102510524B1 (ko) 조합된 월드-공간 파이프라인 셰이더 스테이지
KR102459322B1 (ko) 자동으로 컴파일되는 컴퓨트 셰이더를 사용하는 프리미티브 컬링
KR20140109431A (ko) 커맨드 프로세서를 갖는 그래픽 프로세싱 유닛
US10796483B2 (en) Identifying primitives in input index stream
CN110728616A (zh) 图形处理单元内处理核心的图块分配
KR102266962B1 (ko) 그래픽 파이프라인의 메모리 사용 감소를 위한 컴파일러 지원 기술
CN110192225B (zh) 无序像素着色器导出
US20200159581A1 (en) Variable latency request arbitration
US20200098169A1 (en) Method and system for depth pre-processing and geometry sorting using binning hardware
US20240045718A1 (en) Fine-grained conditional dispatching
US20210065441A1 (en) Machine learning-based technique for execution mode selection
US11061429B2 (en) Fine-grained speed binning in an accelerated processing device
US20230205608A1 (en) Hardware supported split barrier
US11275586B2 (en) Task graph generation for workload processing
US11741653B2 (en) Overlapping visibility and render passes for same frame
KR20200096767A (ko) 가속 처리 디바이스를 위한 대역폭을 증가시키기 위한 병렬 데이터 전송
US20230298261A1 (en) Distributed visibility stream generation for coarse grain binning
US20240070961A1 (en) Vertex index routing for two level primitive batch binning
US20230205584A1 (en) Control flow invariant resource identification
US20240169641A1 (en) Vertex index routing through culling shader for two level primitive batch binning
US11900499B2 (en) Iterative indirect command buffers
US20230206395A1 (en) Hardware support for convolution operations
JP2023532433A (ja) マルチサンプルアンチエイリアシングのためのロード命令

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination