CN109791527A - 延迟丢弃 - Google Patents
延迟丢弃 Download PDFInfo
- Publication number
- CN109791527A CN109791527A CN201780060184.2A CN201780060184A CN109791527A CN 109791527 A CN109791527 A CN 109791527A CN 201780060184 A CN201780060184 A CN 201780060184A CN 109791527 A CN109791527 A CN 109791527A
- Authority
- CN
- China
- Prior art keywords
- buffer
- cache
- processor
- rendering
- content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/08—Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
- G06F12/12—Replacement control
- G06F12/121—Replacement control using replacement algorithms
- G06F12/126—Replacement control using replacement algorithms with special data handling, e.g. priority of data or instructions, handling errors or pinning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/08—Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
- G06F12/0802—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
- G06F12/0891—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches using clearing, invalidating or resetting means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/08—Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
- G06F12/0802—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
- G06F12/0875—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches with dedicated cache, e.g. instruction or stack
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/08—Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
- G06F12/12—Replacement control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/10—Providing a specific technical effect
- G06F2212/1016—Performance improvement
- G06F2212/1021—Hit rate improvement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/30—Providing cache or TLB in specific location of a processing system
- G06F2212/302—In image processor or graphics adapter
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/45—Caching of specific data in cache memory
- G06F2212/455—Image or video data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/60—Details of cache memory
- G06F2212/608—Details relating to cache mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/72—Details relating to flash memory management
- G06F2212/7203—Temporary buffering, e.g. using volatile buffer or dedicated buffer blocks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/28—Indexing scheme for image data processing or generation, in general involving image processing hardware
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Image Generation (AREA)
- Memory System Of A Hierarchy Structure (AREA)
Abstract
简而言之,根据一个或多个实施例,一种设备包括:处理器,所述处理器用于在不知晓高速缓存的内容是否将会被丢弃的情况下构建命令缓冲器;以及存储器,所述存储器用于存储所述命令缓冲器。所述处理器用于在执行所述命令缓冲器之前确定所述高速缓存的丢弃状态,用于执行所述命令缓冲器,并且用于根据所述丢弃状态来丢弃或保留所述高速缓存的内容。
Description
相关申请的交叉引用
本申请要求于2016年10月28日提交的美国申请号15/337,128(P108549)的权益。所述申请号15/337,128由此通过引用以其全文结合在此。
技术领域
本公开总体上涉及电子设备领域。更具体地,一些实施例涉及用于将存储在高速缓存中的数据的延迟丢弃到存储器的技术。
背景技术
针对基于图块的渲染图形处理单元(GPU)的一种带宽优化是抑制将存储在高速缓存中的数据驱逐到存储器的能力。当任何未来操作都不需要高速缓存的内容时,这种优化是可能的。然而,在将命令缓冲器提交给GPU之前,GPU的驱动器可能缺少作出此确定所需要的足够信息。
先前的解决方案将要求驱动器延迟提交命令缓冲器,直到所述驱动器具有适当的信息。不幸的是,这种方法可能会导致GPU变得空闲。否则,驱动器必须在知道是否可以启用丢弃之前提交所述命令缓冲器。应用编程接口(API)尝试通过允许应用尽早指定此信息来解决此问题。然而,并非所有图形API都实施此特征、或者要求应用使用API、或者以驱动器需要时提供信息的方式使用API。
附图说明
参照附图提供了详细说明。在附图中,附图标记最左边的(多个)数字标识所述附图标记首次出现的附图。在不同的附图中使用相同的附图标记指示相似或完全相同的项。
图1和图10展示了计算系统的实施例的框图,所述计算系统可以用来实施本文讨论的各个实施例。
图2至图6、图8、图13和图14展示了根据一些实施例的处理器的各部件。
图7展示了根据一些实施例的图形核指令格式。
图9A和图9B分别展示了根据一些实施例的图形处理器命令格式和序列。
图11展示了根据实施例的IP核开发的简图。
图12展示了根据实施例的芯片上系统(SoC或SOC)集成电路的部件。
图15至图20展示了根据一些实施例的延迟丢弃的实施方式的简图。
具体实施方式
在以下描述中,阐述了许多特定细节以便提供对各实施例的透彻理解。然而,可以在没有特定细节的情况下实践各实施例。在其他实例中,未详细地描述熟知的方法、程序、部件以及电路,以便不使具体实施例模糊。此外,可以使用各种装置执行实施例的各方面,诸如集成半导体电路(“硬件”)、被组织到一个或多个程序(“软件”)中的计算机可读指令或硬件与软件的某种组合。就本公开内容的目的而言,对“逻辑”的引用将指硬件、软件、固件或其某种组合。
如上所述,每个样本测试(诸如模板印刷、深度、α、覆盖等)使用非平凡量的带宽,并且由于可能采用的测试的巨大数量而可能限制整体图形吞吐量。此外,模板印刷测试具有这样的属性,其中,可以利用任意位掩码来对这些模板印刷测试进行掩码,这使得它们与图形流水线中的大多数其他每个样本测试区分开来。这些问题通常可以使用粗糙测试来克服,其中描述每个样本数据的分块/部分的紧凑元数据(例如,其中元数据包括对应于一个或多个像素的数据)被单独存储并用于快速判定是否每个样本测试将对整个数据分块有一个已知的结果。如果是,可以省略单独的每个样本测试,从而产生提高的性能。然而,元数据的确切性质是特定于实施方式的。
为此,一些实施例提供用于基于最小(也称为“最小(min)”)或最大(也称为“最大(max)”)以及逐位逻辑AND或逻辑OR的粗糙模板印刷测试的技术。在一个或多个实施例中,使用两组可能的元数据。首先,每个样本数据分块的最小和/或最大模板印刷值可以存储为元数据。其次,每个样本数据分块的模板印刷值的逐位交集和/或并集(即,分别是逐位逻辑“AND”和/或逻辑“OR”)可以存储为元数据。
此外,一些实施例可以应用于包括一个或多个处理器(例如,具有一个或多个处理器核)的计算系统,诸如参照附图1至图20所讨论的那些,包括例如移动计算装置,例如智能手机、平板计算机、UMPC(超级移动个人计算机)、膝上型计算机、超级本TM计算装置、可穿戴装置(诸如,智能手表、或智能眼镜)等。
系统概述
图1是根据实施例的处理系统100的框图。在各实施例中,系统100包括一个或多个处理器102以及一个或多个图形处理器108,并且可以是单处理器台式系统、多处理器工作站系统或具有大量处理器102或处理器核107的服务器系统。在一个实施例中,系统100是被并入用于在移动装置、手持式装置或嵌入式装置内使用的芯片上系统(SoC)集成电路内的处理平台。
系统100的实施例可以包括基于服务器的游戏平台、游戏控制台,或被并入基于服务器的游戏平台、游戏控制台内,该游戏控制台包括游戏与媒体控制台、移动游戏控制台、手持式游戏控制台、或在线游戏控制台。在一些实施例中,系统100是移动电话、智能电话、平板计算装置或移动互联网装置。数据处理系统100还可以包括可穿戴装置、与可穿戴装置耦合、或者集成在可穿戴装置中,该可穿戴装置诸如智能手表可穿戴装置、智能眼镜装置、增强现实装置、或虚拟现实装置。在一些实施例中,数据处理系统100是电视或机顶盒装置,该电视或机顶盒装置具有一个或多个处理器102以及由一个或多个图形处理器108生成的图形界面。
在一些实施例中,一个或多个处理器102各自包括用于处理指令的一个或多个处理器核107,这些指令在被执行时执行系统和用户软件的操作。在一些实施例中,一个或多个处理器核107中的每个处理器核被配置成用于处理特定的指令集109。在一些实施例中,指令集109可促进复杂指令集计算(CISC)、精简指令集计算(RISC)、或经由超长指令字(VLIW)的计算。多个处理器核107可各自处理不同的指令集109,该指令集109可包括用于促进对其他指令集进行仿真的指令。处理器核107还可包括其他处理装置,诸如,数字信号处理器(DSP)。
在一些实施例中,处理器102包括高速缓存存储器104。取决于架构,处理器102可以具有单个内部高速缓存或多个层级的内部高速缓存。在一些实施例中,在处理器102的各部件之间共享高速缓存存储器。在一些实施例中,处理器102还使用外部高速缓存(例如,第3级(L3)高速缓存或末级高速缓存(LLC))(未示出),可使用已知的高速缓存一致性技术在处理器核107之间共享外部高速缓存。另外,寄存器堆106被包括在处理器102中,该处理器102可包括用于存储不同类型的数据的不同类型的寄存器(例如,整数寄存器、浮点寄存器、状态寄存器、以及指令指针寄存器)。一些寄存器可以是通用寄存器,而其他寄存器可特定于处理器102的设计。
在一些实施例中,处理器102与处理器总线110耦合,以在处理器102与系统100中的其他部件之间传输诸如地址、数据、或控制信号之类的通信信号。在一个实施例中,系统100使用示例性“中枢”系统架构,该示例性“中枢”系统架构包括存储器控制器中枢116和输入输出(I/O)控制器中枢130。存储器控制器中枢116促进存储器装置与系统100的其他部件之间的通信,而I/O控制器中枢(ICH)130提供经由本地I/O总线至I/O设备的连接。在一个实施例中,存储器控制器中枢116的逻辑被集成在处理器内。
存储器装置120可以是动态随机存取存储器(DRAM)装置、静态随机存取存储器(SRAM)装置、闪存装置、相变存储器装置、或具有合适的性能以充当进程存储器的某种其他存储器装置。在一个实施例中,存储器装置120可以作为系统100的系统存储器来进行操作,以存储数据122和指令121,以供在一个或多个处理器102执行应用或进程时使用。存储器控制器中枢116还与任选的外部图形处理器112耦合,该任选的外部图形处理器112可与处理器102中的一个或多个图形处理器108通信以执行图形和媒体操作。
在一些实施例中,ICH 130启用外围设备以经由高速I/O总线连接到存储器装置120和处理器102。I/O外围设备包括但不限于音频控制器146、固件接口128、无线收发机126(例如,Wi-Fi、蓝牙)、数据存储设备124(例如,硬盘驱动器、闪存等)以及用于将传统(legacy)(例如,个人系统2(PS/2))装置耦合至系统的传统I/O控制器。一个或多个通用串行总线(USB)控制器142连接输入装置,这些输入装置诸如键盘和鼠标144的组合。网络控制器134还可与ICH 130耦合。在一些实施例中,高性能网络控制器(未示出)与处理器总线110耦合。将会领会,所示的系统100是示例性的而非限制性的,因为也可使用以不同方式配置的其他类型的数据处理系统。例如,I/O控制器中枢130可被集成在一个或多个处理器102内,或者存储器控制器中枢116和I/O控制器中枢130可被集成到诸如外部图形处理器112之类的分立的外部图形处理器中。
图2是处理器200的实施例的框图,该处理器200具有一个或多个处理器核202A-202N、集成存储器控制器214、以及集成图形处理器208。图2的具有与本文中任何其他附图的元件相同的附图标记(或名称)的那些元件能以与在本文中其他地方描述的方式类似的任何方式进行操作或起作用,但不限于此。处理器200可包括附加核,这些附加核多达且包括由虚线框表示的附加核202N。处理器核202A-202N中的每一个都包括一个或多个内部高速缓存单元204A-204N。在一些实施例中,每个处理器核还可访问一个或多个共享高速缓存单元206。
内部高速缓存单元204A-204N和共享高速缓存单元206表示处理器200内的高速缓存存储器层级结构。高速缓存存储器层级结构可包括每个处理器核内的至少一个层级的指令和数据高速缓存、以及一个或多个层级的共享中级高速缓存,诸如,第2级(L2)、第3级(L3)、第4级(L4)、或其他层级的高速缓存,其中,在外部存储器之前的最高层级的高速缓存被分类为LLC。在一些实施例中,高速缓存一致性逻辑维持各高速缓存单元206与204A-204N之间的一致性。
在一些实施例中,处理器200还可包括一组一个或多个总线控制器单元216和系统代理核210。一个或多个总线控制器单元216管理一组外围总线,诸如,一个或多个外围部件互连总线(例如,PCI、PCI快速)。系统代理核210提供对各处理器部件的管理功能。在一些实施例中,系统代理核210包括一个或多个集成存储器控制器214,以管理对各外部存储器装置(未示出)的访问。
在一些实施例中,处理器核202A-202N中的一个或多个包括对同步多线程的支持。在此类实施例中,系统代理核210包括用于在多线程处理期间对核202A-202N进行协调和操作的部件。系统代理核210可附加地包括功率控制单元(PCU),该功率控制单元包括用于调节处理器核202A-202N以及图形处理器208的功率状态的逻辑和部件。
在一些实施例中,处理器200附加地包括用于执行图形处理操作的图形处理器208。在一些实施例中,图形处理器208与共享高速缓存单元的集合206以及系统代理核210耦合,该系统代理核210包括一个或多个集成存储器控制器214。在一些实施例中,显示控制器211与图形处理器208耦合,以将图形处理器输出驱动到一个或多个耦合的显示器。在一些实施例中,显示控制器211可以是经由至少一个互连与图形处理器耦合的分开的模块,或者可被集成在图形处理器208或系统代理核210内。
在一些实施例中,基于环的互连单元212用于耦合处理器200的内部部件。然而,可使用替代的互连单元,诸如,点对点互连、切换式互连、或其他技术,包括本领域公知的技术。在一些实施例中,图形处理器208经由I/O链路213与环形互连212耦合。
示例性I/O链路213表示各种各样的I/O互连中的至少一者,包括促进各处理器部件与高性能嵌入式存储器模块218(诸如,eDRAM模块)之间的通信的封装上I/O互连。在一些实施例中,处理器核202A-202N中的每个处理器核以及图形处理器208将嵌入式存储器模块218用作共享末级高速缓存。
在一些实施例中,处理器核202A-202N是执行同一指令集架构的同构核。在另一实施例中,处理器核202A-202N就指令集架构(ISA)而言是异构的,其中,处理器核202A-202N中的一者或多者执行第一指令集,而其他核中的至少一者执行第一指令集的子集或不同的指令集。在一个实施例中,处理器核202A-202N就微架构而言是同质的,其中,具有相对较高功耗的一个或多个核与具有较低功耗的一个或多个功率核耦合。另外,处理器200可被实现在一个或多个芯片上或者被实现为除其他部件之外还具有所图示的部件的SoC集成电路。
图3是图形处理器300的框图,该图形处理器300可以是分立的图形处理单元、或者可以是与多个处理核集成的图形处理器。在一些实施例中,图形处理器经由至图形处理器上的寄存器的存储器映射的I/O接口并且利用被置入处理器存储器中的命令进行通信。在一些实施例中,图形处理器300包括用于访问存储器的存储器接口314。存储器接口314可以是到本地存储器、一个或多个内部高速缓存、一个或多个共享外部高速缓存、和/或到系统存储器的接口。
在一些实施例中,图形处理器300还包括用于将显示输出数据驱动到显示装置320的显示控制器302。显示控制器302包括用于显示器的一个或多个重叠平面以及视频或用户接口元件的多个层的组合的硬件。在一些实施例中,图形处理器300包括视频编解码器引擎306,以将媒体编码、解码或转码为一种或多种媒体编码格式,从一种或多种媒体编码格式编码、解码或转码媒体,或在一种或多种媒体编码格式之间进行对媒体进行编码、解码或转码,这些媒体编码格式包括但不限于:运动图像专家组(MPEG)格式(诸如,MPEG-2)、高级视频译码(AVC)格式(诸如,H.264/MPEG-4AVC)、以及电影&电视工程师协会(SMPTE)421M/VC-1、和联合图像专家组(JPEG)格式(诸如,JPEG、以及运动JPEG(MJPEG)格式)。
在一些实施例中,图形处理器300包括用于执行包括例如位边界块传递的二维(2D)光栅化器操作的块图像传递(BLIT)引擎304。然而,在一个实施例中,使用图形处理引擎(GPE)310的一个或多个部件执行2D图形操作。在一些实施例中,GPE 310是用于执行图形操作的计算引擎,这些图形操作包括三维(3D)图形操作和媒体操作。
在一些实施例中,GPE 310包括用于执行3D操作的3D流水线312,3D操作诸如,使用作用于3D图元形状(例如,矩形、三角形等)的处理功能来渲染三维图像和场景。3D流水线312包括可编程的固定功能元件,这些可编程的固定功能元件执行元件内的各种任务和/或将执行线程生成(spawn)至3D/媒体子系统315。虽然3D流水线312可以用于执行媒体操作,但是GPE 310的实施例还包括专门用于执行诸如视频后处理和图像增强之类的媒体操作的媒体流水线316。
在一些实施例中,媒体流水线316包括固定功能或可编程逻辑单元以便代替、或代表视频编解码器引擎306来执行一种或多种专业的媒体操作,诸如,视频解码加速、视频解交织、以及视频编码加速。在一些实施例中,媒体流水线316附加地包括用于生成供在3D/媒体子系统315上执行的线程的线程生成单元。所生成的线程对3D/媒体子系统315中所包括的一个或多个图形执行单元执行对媒体操作的计算。
在一些实施例中,3D/媒体子系统315包括用于执行由3D流水线312和媒体流水线316生成的线程的逻辑。在一个实施例中,流水线向3D/媒体子系统315发送线程执行请求,该3D/媒体子系统包括用于仲裁并将各请求分派到可用的线程执行资源的线程分派逻辑。执行资源包括用于处理3D和媒体线程的图形执行单元阵列。在一些实施例中,3D/媒体子系统315包括用于线程指令和数据的一个或多个内部高速缓存。在一些实施例中,子系统还包括用于在线程之间共享数据并用于存储输出数据的共享存储器,包括寄存器和可寻址存储器。
图形处理引擎
图4是根据一些实施例的图形处理器的图形处理引擎410的框图。在一个实施例中,图形处理引擎(GPE)410是图3中所示GPE 310的一个版本。图4的具有与此处任何其他附图中的元件相同的附图标记(或名称)的那些元件可采用与在本文中其他地方描述的方式相类似的任何方式进行操作或起作用,但不限于这些。例如,展示了图3的3D流水线312和媒体流水线316。媒体流水线316在GPE 410的一些实施例中是可选的,并且可以不显式地包括在GPE 410内。例如以及在至少一个实施例中,单独的媒体和/或图像处理器被耦合至GPE410。
在一些实施例中,GPE 410与命令流转化器403耦合或包括所述命令流转化器,所述命令流转化器向3D流水线312和/或媒体流水线316提供命令流。在一些实施例中,命令流转化器403与存储器耦合,所述存储器可以是系统存储器、或者是内部高速缓存存储器和共享高速缓存存储器中的一个或多个。在一些实施例中,命令流转化器403从存储器接收命令并将这些命令发送至3D流水线312和/或媒体流水线316。所述命令是从环形缓冲器获取的指示,所述环形缓冲器存储用于3D流水线312和媒体流水线316的命令。在一个实施例中,环形缓冲器可以另外包括存储多批多命令的批命令缓冲器。用于3D流水线312的命令还可以包括对在存储器中存储的数据的引用,诸如但不限于用于3D流水线312的顶点数据和几何数据和/或用于媒体流水线316的图像数据和存储器对象。3D流水线312和媒体流水线316通过经由各自流水线内的逻辑执行操作或者通过将一个或多个执行线程分派至图形核阵列414来处理所述命令和数据。
在各个实施例中,3D流水线312可以通过处理指令并将执行线程分派给图形核阵列414来执行一个或多个着色器程序,诸如顶点着色器、几何着色器、像素着色器、片段着色器、计算着色器或其他着色器程序。图形核阵列414提供统一的执行资源块。图形核阵列414内的多用途执行逻辑(例如,执行单元)包括对各种3D API着色器语言的支持,并且可以执行与多个着色器相关联的多个同时执行线程。
在一些实施例中,图形核阵列414还包括用于执行诸如视频和/或图像处理的媒体功能的执行逻辑。在一个实施例中,除了图形处理操作之外,执行单元还包括可编程以执行并行通用计算操作的通用逻辑。通用逻辑可以与图1的(多个)处理器核107或如图2中的核202A至202N内的通用逻辑并行地或结合地执行处理操作。
由在图形核阵列414上执行的线程生成的输出数据可以将数据输出到统一返回缓冲器(URB)418中的存储器。URB 418可以存储多个线程的数据。在一些实施例中,URB 418可以用于在图形核阵列414上执行的不同线程之间发送数据。在一些实施例中,URB 418可以另外用于图形核阵列上的线程与共享功能逻辑420内的固定功能逻辑之间的同步。
在一些实施例中,图形核阵列414是可扩展的,使得所述阵列包括可变数量的图形核,这些图形核各自具有基于GPE 410的目标功率和性能等级的可变数量个执行单元。在一个实施例中,执行资源是动态可扩展的,从而可以根据需要启用或禁用执行资源。
图形核阵列414与共享功能逻辑420耦合,所述共享功能逻辑包括在图形核阵列中的图形核之间共享的多个资源。共享功能逻辑420内的共享功能是向图形核阵列414提供专用补充功能的硬件逻辑单元。在各个实施例中,共享功能逻辑420包括但不限于采样器421、数学422、和线程间通信(ITC)423逻辑。另外,一些实施例实施共享功能逻辑420内的一个或多个高速缓存425。在给定的专用功能的需求不足以包含在图形核阵列414中的情况下实施共享功能。相反,所述专用功能的单个实例被实施为共享功能逻辑420中的独立实体并且在图形核阵列414内的执行资源之间共享。在图形核阵列414之间共享并包括在图形核阵列414内的精确的一组功能在各实施例之间变化。
图5是图形处理器500的另一实施例的框图。图5的具有与本文中的任何其他附图的元件相同的附图标记(或名称)的元件能以与在本文中其他地方描述的方式类似的任何方式进行操作或起作用,但不限于此。
在一些实施例中,图形处理器500包括环形互连502、流水线前端504、媒体引擎537和图形核580A-580N。在一些实施例中,环形互连502将图形处理器耦合至其他处理单元,其他处理单元包括其他图形处理器或者一个或多个通用处理器核。在一些实施例中,图形处理器是集成在多核处理系统内的许多处理器中的一个。
在一些实施例中,图形处理器500经由环形互连502接收多批命令。传入的命令由流水线前端504中的命令流转化器503解释。在一些实施例中,图形处理器500包括用于经由(多个)图形核580A-580N来执行3D几何处理和媒体处理的可缩放执行逻辑。对于3D几何处理命令,命令流转化器503将命令供应至几何流水线536。对于至少一些媒体处理命令,命令流转化器503将命令供应至视频前端534,该视频前端534与媒体引擎537耦合。在一些实施例中,媒体引擎537包括用于视频和图像后处理的视频质量引擎(VQE)530以及用于提供硬件加速的媒体数据编码和解码的多格式编码/解码(MFX)533引擎。在一些实施例中,几何流水线536和媒体引擎537各自生成用于由至少一个图形核580A提供的线程执行资源的执行线程。
在一些实施例中,图形处理器500包括可缩放线程执行资源,这些可缩放线程执行资源以模块化核580A-580N(有时称为核片(core slice))为特征,这些模块化核各自具有多个子核550A-550N、560A-560N(有时称为核子片(core sub-slice))。在一些实施例中,图形处理器500可具有任何数量的图形核580A至580N。在一些实施例中,图形处理器500包括图形核580A,该图形核580A至少具有第一子核550A和第二子核560A。在其他实施例中,图形处理器是具有单个子核(例如,550A)的低功率处理器。在一些实施例中,图形处理器500包括多个图形核580A-580N,每一个图形核都包括第一子核550A-550N的集合以及第二子核560A-560N的集合。第一子核550A-550N的集合中的每个子核至少包括执行单元552A-552N和媒体/纹理采样器554A-554N的第一集合。第二子核560A-560N的集合中的每一个子核至少包括执行单元562A-562N和采样器564A-564N的第二集合。在一些实施例中,每个子核550A-550N、560A-560N共享共享资源570A-570N的集合。在一些实施例中,共享资源包括共享高速缓存存储器和像素操作逻辑。其他共享资源也可被包括在图形处理器的各实施例中。
执行单元
图6示出线程执行逻辑600,该线程执行逻辑600包括在GPE的一些实施例中采用的处理元件的阵列。图6的具有与本文中任何其他附图的元件相同的附图标记(或名称)的元件能以与在本文中其他地方描述的方式类似的任何方式进行操作或起作用,但不限于此。
在一些实施例中,线程执行逻辑600包括着色器处理器602、线程分派器604、指令高速缓存606、包括多个执行单元608A至608N的可扩展执行单元阵列、采样器610、数据高速缓存612、以及数据端口614。在一个实施例中,可扩展执行单元阵列可以通过基于工作负荷的计算需求来启用或禁用一个或多个执行单元(例如,执行单元608A、608B、608C、608D、一直到608N-1和608N中的任一个)来动态地扩展。在一个实施例中,所包括的部件经由互连结构而互连,所述互连结构链接到部件中的每个部件。在一些实施例中,线程执行逻辑600包括通过指令高速缓存606、数据端口614、采样器610、以及执行单元阵列608A至608N中的一者或多者到存储器(如系统存储器或高速缓存存储器)的一个或多个连接件。在一些实施例中,每个执行单元(例如,608A)是能够执行多个同步硬件线程同时针对每个线程并行地处理多个数据元素的独立可编程通用计算单元。在各个实施例中,执行单元608A至608N的阵列是可扩展的以包括任意数量个单独执行单元。
在一些实施例中,执行单元608A至608N主要用于执行着色器程序。着色器处理器602可以处理各种着色器程序并且经由线程分派器604分派与着色器程序相关联的执行线程。在一个实施例中,线程分派器包括用于对来自图形和媒体流水线的线程发起请求进行仲裁并且在一个或多个执行单元608A至608N上实例化所请求的线程的逻辑。例如,几何流水线(例如,图5的536)可以将顶点、曲面细分或几何着色器分派至线程执行逻辑600(图6)以进行处理。在一些实施例中,线程分派器604还可处理来自执行着色器程序的运行时间线程生成请求。
在一些实施例中,执行单元608A至608N支持指令集(所述指令集包括对许多标准3D图形着色器指令的本机支持),从而使得以最小的转换执行来自图形库(例如,Direct 3D和OpenGL)的着色器程序。这些执行单元支持顶点和几何处理(例如,顶点程序、几何程序、顶点着色器)、像素处理(例如,像素着色器、片段着色器)以及通用处理(例如,计算和媒体着色器)。执行单元608A至608N中的每一个都能够执行多发布单指令多数据(SIMD),并且多线程操作能够在面对较高等待时间的存储器访问时实现有效的执行环境。每个执行单元内的每个硬件线程都具有专用的高带宽寄存器堆和相关的独立线程状态。对于具有整数、单精度浮点运算和双精度浮点运算、SIMD分支功能、逻辑运算、超越运算和其他混杂运算的流水线,执行是每个时钟的多发布。在等待来自存储器或共享功能之一的数据时,执行单元608A至608N内的依赖性逻辑使等待线程休眠,直到所请求的数据已返回。当等待线程正在休眠时,硬件资源可能会专门用于处理其他线程。例如,在与顶点着色器操作相关联的延迟期间,执行单元可以执行像素着色器、片段着色器或包括不同顶点着色器的另一种类型的着色器程序的操作。
执行单元608A-608N中的每个执行单元对数据元素阵列进行操作。数据元素的数量是“执行大小”、或指令的通道数量。执行通道是执行数据元素访问、掩码、和指令内的流控制的逻辑单元。通道的数量可与针对特定的图形处理器的物理算术逻辑单元(ALU)或浮点单元(FPU)的数量无关。在一些实施例中,执行单元608A-608N支持整数和浮点数据类型。
执行单元指令集包括SIMD指令。各种数据元素可作为紧缩数据类型存储在寄存器中,并且执行单元将基于元素的数据大小来处理各种元素。例如,当对256位宽的向量进行操作时,该256位的向量被存储在寄存器中,并且执行单元作为四个单独的64位紧缩数据元素(四字(QW)大小的数据元素)、八个单独的32位紧缩数据元素(双字(DW)大小的数据元素)、十六个单独的16位紧缩数据元素(字(W)大小的数据元素)、或三十二个单独的8位数据元素(字节(B)大小的数据元素)对向量进行操作。然而,不同的向量宽度和寄存器大小是可能的。
一个或多个内部指令高速缓存(例如,606)被包括在线程执行逻辑600中,以对用于执行单元的线程指令进行高速缓存。在一些实施例中,一个或多个数据高速缓存(例如,612)被包括,以对在线程执行期间的线程数据进行高速缓存。在一些实施例中,采样器610被包括,从而为3D操作提供纹理采样并且为媒体操作提供媒体采样。在一些实施例中,采样器610包括专业的纹理或媒体采样功能,以在向执行单元提供所采样的数据之前在采样过程中处理纹理或媒体数据。
在执行期间,图形和媒体流水线经由线程生成和分派逻辑向线程执行逻辑600发送线程发起请求。一旦一组几何对象已经被处理并被光栅化成像素数据,着色器处理器602内的像素处理器逻辑(例如,像素着色器逻辑、片段着色器逻辑等)就被调用,以进一步计算输出信息并且使得结果被写入到输出表面(例如,颜色缓冲器、深度缓冲器、模板印刷(stencil)缓冲器等)。在一些实施例中,像素着色器或片段着色器计算各顶点属性的值,各顶点属性的这些值将跨光栅化的对象被内插。在一些实施例中,着色器处理器602内的像素处理器逻辑随后执行应用编程接口(API)供应的像素着色器程序或片段着色器程序。为了执行着色器程序,着色器处理器602经由线程分派器604将线程分派至执行单元(例如,608A)。在一些实施例中,像素着色器602使用采样器610中的纹理采样逻辑来访问存储器中所存储的纹理图中的纹理数据。对纹理数据和输入几何数据的算术运算计算每个几何片段的像素颜色数据,或丢弃一个或多个像素而不进行进一步处理。
在一些实施例中,数据端口614提供存储器访问机制,以供线程执行逻辑600将经处理的数据输出至存储器以便在图形处理器输出流水线上进行处理。在一些实施例中,数据端口614包括或耦合至一个或多个高速缓存存储器(例如,数据高速缓存612),从而对用于经由数据端口进行的存储器访问的数据进行高速缓存。
图7是图示出根据一些实施例的图形处理器指令格式700的框图。在一个或多个实施例中,图形处理器执行单元支持具有以多种格式的指令的指令集。实线框图示出一般被包括在执行单元指令中的组成部分,而虚线包括任选的或仅被包括在指令子集中的组成部分。在一些实施例中,所描述和图示的指令格式700是宏指令,因为它们是供应至执行单元的指令,这与从一旦指令被处理就进行的指令解码产生的微操作相对照。
在一些实施例中,图形处理器执行单元原生地支持采用128位指令格式710的指令。64位紧凑指令格式730可用于基于所选择的指令、多个指令选项和操作数数量的一些指令。原生的128位指令格式710提供对所有指令选项的访问,而一些选项和操作在64位格式730中受限。64位格式730中可用的原生指令根据实施例而不同。在一些实施例中,使用索引字段713中的一组索引值将指令部分地压缩。执行单元硬件基于索引值来引用一组压缩表,并使用压缩表输出来重构采用128位指令格式710的原生指令。
针对每种格式,指令操作码712限定执行单元要执行的操作。执行单元跨每个操作数的多个数据元素并行地执行每条指令。例如,响应于添加指令,执行单元跨标识纹理元素或图片元素的每个颜色通道执行同步添加操作。默认地,执行单元跨操作数的所有数据通道执行每条指令。在一些实施例中,指令控制字段714实现对某些执行选项的控制,这些执行选项诸如通道选择(例如,断言)以及数据通道排序(例如,混合)。针对按照128位指令格式710的指令,执行大小字段716限制了将并行地执行的数据通道的数量。在一些实施例中,执行大小字段716不可用于64位紧凑指令格式730。
一些执行单元指令具有多达三个操作数,包括两个源操作数src0 720、src1 722和一个目的地718。在一些实施例中,执行单元支持双目的地指令,其中这些目的地中的一个是隐式的。数据操纵指令可以具有第三源操作数(例如,SRC2 724),其中,指令操作码712确定源操作数的数量。指令的最后的源操作数可以是利用该指令传递的立即数(例如,硬编码的)值。
在一些实施例中,128位指令格式710包括访问/地址模式信息726,该访问/地址模式字段726指定例如是使用直接寄存器寻址模式还是间接寄存器寻址模式。当使用直接寄存器寻址模式时,由指令中的位直接提供一个或多个操作数的寄存器地址。
在一些实施例中,128位指令格式710包括访问/地址模式字段726,该访问/地址模式字段726指定针对指令的地址模式和/或访问模式。在一个实施例中,访问模式用于限定针对指令的数据访问对齐。一些实施例支持包括16字节对齐访问模式和1字节对齐访问模式的访问模式,其中,访问模式的字节对齐确定指令操作数的访问对齐。例如,当处于第一模式时,指令可将字节对齐的寻址用于源操作数和目的地操作数,并且当处于第二模式时,指令可将16字节对齐的寻址用于所有的源操作数和目的地操作数。
在一个实施例中,访问/地址模式字段726的地址模式部分确定指令要使用直接寻址还是间接寻址。当使用直接寄存器寻址模式时,指令中的位直接提供一个或多个操作数的寄存器地址。当使用间接寄存器寻址模式时,可基于指令中的地址寄存器值和地址立即数字段来计算一个或多个操作数的寄存器地址。
在一些实施例中,基于操作码712的位字段对指令进行分组从而简化操作码解码740。针对8位的操作码,位4、5、和6允许执行单元确定操作码的类型。所示出的确切的操作码分组仅为示例。在一些实施例中,移动和逻辑操作码组742包括数据移动和逻辑指令(例如,移动(mov)、比较(cmp))。在一些实施例中,移动和逻辑组742共享五个最高有效位(MSB),其中移动(mov)指令采用0000xxxxb的形式,并且逻辑指令采用0001xxxxb的形式。流控制指令组744(例如,调用(call)、跳转(jmp))包括采用0010xxxxb形式(例如,0x20)的指令。混杂指令组746包括指令的混合,包括采用0011xxxxb形式(例如,0x30)的同步指令(例如,等待(wait)、发送(send))。并行数学指令组748包括采用0100xxxxb形式(例如,0x40)的按分量的算术指令(例如,加(add)、乘(mul))。并行数学组748跨数据通道并行地执行算术运算。向量数学组750包括采用0101xxxxb形式(例如,0x50)的算术指令(例如,dp4)。向量数学组对向量操作数执行算术运算,诸如,点积计算。
图形流水线
图8是图形处理器800的另一实施例的框图。图8的具有与本文中任何其他附图中的元件相同的附图标记(或名称)的元件能以与在本文中其他地方描述的方式类似的任何方式进行操作或起作用,但不限于此。
在一些实施例中,图形处理器800包括图形流水线820、媒体流水线830、显示引擎840、线程执行逻辑850、以及渲染输出流水线870。在一些实施例中,图形处理器800是包括一个或多个通用处理核的多核处理系统内的图形处理器。图形处理器通过至一个或多个控制寄存器(未示出)的寄存器写入或者经由通过环形互连802发布至图形处理器800的命令而受控。在一些实施例中,环形互连802将图形处理器800耦合至其他处理部件,其他处理部件诸如其他图形处理器或通用处理器。来自环形互连802的命令由命令流转化器803解译,该命令流转化器803将指令供应至图形流水线820或媒体流水线830的单独部件。
在一些实施例中,命令流转化器803引导顶点获取器805的操作,该顶点获取器805从存储器读取顶点数据并执行由命令流转化器803提供的顶点处理命令。在一些实施例中,顶点获取器805将顶点数据提供给顶点着色器807,该顶点着色器807对每个顶点执行坐标空间变换和照明操作。在一些实施例中,顶点获取器805和顶点着色器807通过经由线程分派器831向执行单元852A-852B分派执行线程来执行顶点处理指令。
在一些实施例中,执行单元852A-852B是具有用于执行图形和媒体操作的指令集的向量处理器阵列。在一些实施例中,执行单元852A-852B具有专用于每个阵列或在多个阵列之间被共享的附加的L1高速缓存851。高速缓存可以被配置为数据高速缓存、指令高速缓存、或被分区以不同分区中包含数据和指令的单个高速缓存。
在一些实施例中,图形流水线820包括用于执行3D对象的硬件加速的曲面细分的曲面细分部件。在一些实施例中,可编程的外壳着色器811配置曲面细分操作。可编程域着色器817提供对曲面细分输出的后端评估。曲面细分器813在外壳着色器811的指示下进行操作,并且包含专用逻辑,该专用逻辑用于基于作为输入被提供至图形流水线820的粗糙的几何模型来生成详细的几何对象的集合。在一些实施例中,如果未使用曲面细分,则可以绕过曲面细分部件(例如,外壳着色器811、曲面细分器813和域着色器817)。
在一些实施例中,完整的几何对象可以由几何着色器819经由被分派至所述执行单元852A、852B的一个或多个线程来处理、或者可以直接行进至剪辑器829。在一些实施例中,几何着色器对整个几何对象进行操作,而不是如在图形流水线的先前级中那样对顶点或顶点补片(patch))进行操作。如果禁用曲面细分,则几何着色器819从顶点着色器807接收输入。在一些实施例中,几何着色器819是可由几何着色器程序编程的,以便在曲面细分单元被禁用时执行几何曲面细分。
在光栅化之前,剪辑器829处理顶点数据。剪辑器829可以是固定功能剪辑器或者具有剪辑和几何着色器功能的可编程剪辑器。在一些实施例中,渲染输出流水线870中的光栅化器和深度测试部件873分派像素着色器,以将几何对象转换为它们的每像素表示。在一些实施例中,像素着色器逻辑被包括在线程执行逻辑850中。在一些实施例中,应用可绕过光栅化器和深度测试部件873,并且经由流出单元823访问未光栅化的顶点数据。
图形处理器800具有允许数据和消息在处理器的主要部件之间传递的互连总线、互连结构或某个其他互连机制。在一些实施例中,执行单元852A、852B和(多个)相关联的高速缓存851、纹理和媒体采样器854、以及纹理/采样器高速缓存858经由数据端口856进行互连,以执行存储器访问并且与处理器的渲染输出流水线部件进行通信。在一些实施例中,采样器854、高速缓存851、858以及执行单元852A-852B各自都具有单独的存储器访问路径。
在一些实施例中,渲染输出流水线870包含光栅化器和深度测试部件873,该光栅化器和深度测试部件873将基于顶点的对象转换为相关联的基于像素的表示。在一些实施例中,光栅化器逻辑包括用于执行固定功能三角形和线光栅化的窗口器/掩蔽器单元。相关联的渲染高速缓存878和深度高速缓存879在一些实施例中也是可用的。像素操作部件877对数据执行基于像素的操作,然而在一些实例中,与2D操作(例如,利用混合的位块图像传递)相关联的像素操作由2D引擎841执行,或者在显示时间由显示控制器843使用重叠显示平面来代替。在一些实施例中,共享L3高速缓存875可用于所有的图形部件,从而允许在无需使用主系统存储器的情况下共享数据。
在一些实施例中,图形处理器媒体流水线830包括媒体引擎837和视频前端834。在一些实施例中,视频前端834从命令流转化器803接收流水线命令。在一些实施例中,媒体流水线830包括单独的命令流转化器。在一些实施例中,视频前端834在将命令发送至媒体引擎837之前处理媒体命令。在一些实施例中,媒体引擎837包括用于生成线程以用于经由线程分派器831分派至线程执行逻辑850的线程生成功能。
在一些实施例中,图形处理器800包括显示引擎840。在一些实施例中,显示引擎840在处理器800外部,并且经由环形互连802、或某个其他互连总线或结构与图形处理器耦合。在一些实施例中,显示引擎840包括2D引擎841和显示控制器843。在一些实施例中,显示引擎840包含能够独立于3D流水线而操作的专用逻辑。在一些实施例中,显示控制器843与显示装置(未示出)耦合,该显示装置可以是系统集成的显示装置(如在膝上型计算机中)、或者经由显示装置连接器附接的外部显示装置。
在一些实施例中,图形流水线820和媒体流水线830可被配置成用于基于多个图形和媒体编程接口执行操作,并且并非专用于任何一种应用编程接口(API)。在一些实施例中,图形处理器的驱动器软件将专用于特定图形或媒体库的API调用转换为可由图形处理器处理的命令。在一些实施例中,为开放图形库(OpenGL)、开放计算语言(OpenCL)和/或Vulkan图形和计算API提供支持,它们全都来自Khronos Group。在一些实施例中,还可为来自微软公司的Direct3D库提供支持在一些实施例中,可支持这些库的组合。还可为开源计算机视觉库(OpenCV)提供支持。如果可做出从未来API的流水线到图形处理器的流水线的映射,则具有兼容的3D流水线的未来API也将受到支持。
图形流水线编程
图9A是图示出根据一些实施例的图形处理器命令格式900的框图。图9B是图示出根据实施例的图形处理器命令序列910的框图。图9A中的实线框图示出一般被包括在图形命令中的组成成分,而虚线包括任选的或者仅被包括在图形命令的子集中的组成部分。图9A的示例性图形处理器命令格式900包括用于标识命令的目标客户端902、命令操作代码(操作码)904、以及用于命令的有关数据906的数据字段。一些命令中还包括子操作码905和命令大小908。
在一些实施例中,客户端902指定处理命令数据的图形装置的客户端单元。在一些实施例中,图形处理器命令解析器检查每个命令的客户端字段,以调整对命令的进一步处理,并将命令数据路由至合适的客户端单元。在一些实施例中,图形处理器客户端单元包括存储器接口单元、渲染单元、2D单元、3D单元、和媒体单元。每个客户端单元具有对命令进行处理的相应的处理流水线。一旦命令被客户端单元接收到,客户端单元就读取操作码904以及子操作码905(如果存在),从而确定要执行的操作。客户端单元使用数据字段906中的信息来执行命令。针对一些命令,期望显式的命令大小908来指定命令的大小。在一些实施例中,命令解析器基于命令操作码自动地确定命令中的至少一些命令的大小。在一些实施例中,经由双字的倍数使命令对齐。
图9B中的流程图示出了示例性图形处理器命令序列910。在一些实施例中,以图形处理器的实施例为特征的数据处理系统的软件或固件使用所示出的命令序列的版本来启动、执行并终止图形操作集合。仅出于示例性目的示出并描述了样本命令序列,因为实施例并不限于这些特定命令,也不限于此命令序列。而且,所述命令可以作为批量命令以命令序列被发布,以使得图形处理器将以至少部分同时的方式处理命令序列。
在一些实施例中,图形处理器命令序列910可开始于:流水线转储清除命令912,以使得任一活跃的图形流水线完成该流水线的当前未决的命令。在一些实施例中,3D流水线922和媒体流水线924不同时进行操作。执行流水线转储清除,以使得活跃的图形流水线完成任何未决的命令。响应于流水线转储清除,用于图形处理器的命令解析器将暂停命令处理,直到活跃的绘图引擎完成未决的操作并且相关的读高速缓存被无效。任选地,渲染高速缓存中被标记为‘脏’的任何数据可以被转储清除到存储器。在一些实施例中,流水线转储清除命令912可以用于流水线同步或者用在将图形处理器置于低功率状态之前。
在一些实施例中,当命令序列需要图形处理器在流水线之间显式地切换时,使用流水线选择命令913。在一些实施例中,除非上下文是发布用于这两条流水线的命令,否则在发布流水线命令之前,在执行上下文中仅需要一次流水线选择命令913。在一些实施例中,在经由流水线选择命令913的流水线切换之前正好需要流水线转储清除命令912。
在一些实施例中,流水线控制命令914配置用于操作的图形流水线,并且用于对3D流水线922和媒体流水线924进行编程。在一些实施例中,流水线控制命令914配置用于活跃流水线的流水线状态。在一个实施例中,流水线控制命令914用于流水线同步,并且用于在处理批量命令之前清除来自活跃的流水线内的一个或多个高速缓存存储器的数据。
在一些实施例中,返回缓冲器状态命令916用于配置返回缓冲器的集合以供相应的流水线写入数据。一些流水线操作需要分配、选择、或配置一个或多个返回缓冲器,在处理期间,所述操作将中间数据写入到该一个或多个返回缓冲器中。在一些实施例中,图形处理器还使用一个或多个返回缓冲器以存储输出数据并且执行跨线程通信。在一些实施例中,返回缓冲器状态916包括选择用于流水线操作集合的返回缓冲器的大小和数量。
命令序列中的剩余命令基于用于操作的活跃的流水线而不同。基于流水线判定920,命令序列被定制用于以3D流水线状态930开始的3D流水线922、或者开始于媒体流水线状态940的媒体流水线924。
用于配置3D流水线状态930的命令包括用于顶点缓冲器状态、顶点元素状态、常量颜色状态、深度缓冲器状态、以及有待在处理3D图元命令之前配置的其他状态变量的3D状态设置命令。这些命令的值至少部分地基于使用中的特定3D API来确定。在一些实施例中,如果将不使用某些流水线元件,则3D流水线状态930命令还能够选择性地禁用或绕过这些特定的流水线元件。
在一些实施例中,3D图元932命令用于提交待由3D流水线处理的3D图元。经由3D图元932命令传递给图形处理器的命令和相关联参数将被转发到图形流水线中的顶点获取功能。顶点获取功能使用3D图元932命令数据来生成顶点数据结构。顶点数据结构被存储在一个或多个返回缓冲器中。在一些实施例中,3D图元932命令用于经由顶点着色器对3D图元执行顶点操作。为了处理顶点着色器,3D流水线922将着色器执行线程分派至图形处理器执行单元。
在一些实施例中,经由执行934命令或事件来触发3D流水线922。在一些实施例中,寄存器写入触发命令执行。在一些实施例中,经由命令序列中的‘前进’(‘go’)或‘踢除’(‘kick’)命令来触发执行。在一个实施例中,使用流水线同步命令来触发命令执行,以对通过图形流水线的命令序列进行转储清除。3D流水线将针对3D图元来执行几何处理。一旦完成操作,则对所得到的几何对象进行光栅化,并且像素引擎对所得到的像素进行着色。对于那些操作,还可以包括用于控制像素着色和像素后端操作的附加命令。
在一些实施例中,当执行媒体操作时,图形处理器命令序列910跟随媒体流水线924路径。一般地,针对媒体流水线924进行编程的具体用途和方式取决于待执行的媒体或计算操作。在媒体解码期间,特定的媒体解码操作可被卸载到媒体流水线。在一些实施例中,还可绕过媒体流水线,并且可使用由一个或多个通用处理核提供的资源来整体地或部分地执行媒体解码。在一个实施例中,媒体流水线还包括用于通用图形处理器单元(GPGPU)操作的元件,其中,图形处理器用于使用计算着色器程序来执行SIMD向量运算,该计算着色器程序与渲染图形图元不是显式地相关的。
在一些实施例中,以与3D流水线922相似的方式对媒体流水线924进行配置。将用于配置媒体流水线状态940的一组命令分派或放置到命令队列中,在媒体对象命令942之前。在一些实施例中,媒体流水线状态命令940包括用于配置媒体流水线元件的数据,这些媒体流水线元件将用于处理媒体对象。这包括用于在媒体流水线内配置视频解码和视频编码逻辑的数据,诸如,编码或解码格式。在一些实施例中,媒体流水线状态命令940还支持将一个或多个指针用于包含批量的状态设置的“间接”状态元件。
在一些实施例中,媒体对象命令942将指针供应至媒体对象以用于由媒体流水线进行处理。媒体对象包括存储器缓冲器,该存储器缓冲器包含待处理的视频数据。在一些实施例中,在发布媒体对象命令942之前,所有的媒体流水线状态必须是有效的。一旦流水线状态被配置并且媒体对象命令942被排队,则经由执行944命令或等效的执行事件(例如,寄存器写入)来触发媒体流水线924。随后可通过由3D流水线922或媒体流水线924提供的操作对来自媒体流水线924的输出进行后处理。在一些实施例中,以与媒体操作类似的方式来配置和执行GPGPU操作。
图形软件架构
图10图示出根据一些实施例的用于数据处理系统1000的示例性图形软件架构。在一些实施例中,软件架构包括3D图形应用1010、操作系统1020、以及至少一个处理器1030。在一些实施例中,处理器1030包括图形处理器1032以及一个或多个通用处理器核1034。图形应用1010和操作系统1020各自在数据处理系统的系统存储器1050中执行。
在一些实施例中,3D图形应用1010包含一个或多个着色器程序,该一个或多个着色器程序包括着色器指令1012。着色器语言指令可以采用高级着色器语言,诸如,高级着色器语言(HLSL)或OpenGL着色器语言(GLSL)。应用还包括可执行指令1014,该可执行指令1014采用适合用于由通用处理器核1034执行的机器语言。应用还包括由顶点数据限定的图形对象1016。
在一些实施例中,操作系统1020是来自微软公司的 操作系统、专用类UNIX操作系统、或使用Linux内核的变体的开源类UNIX操作系统。操作系统1020可以支持图形API 1022,诸如,Direct3D API、OpenGL API或Vulkan API。当Direct3DAPI正在使用时,操作系统1020使用前端着色器编译器1024以将采用HLSL的任何着色器指令1012编译成较低级的着色器语言。编译可以是即时(JIT)编译,或者应用可以执行着色器预编译。在一些实施例中,在对3D图形应用1010进行编译期间,将高级着色器编译成低级着色器。在一些实施例中,以中间形式提供着色器指令1012,该中间形式诸如由Vulkan API使用的某个版本的标准便携式中间表示(SPIR)。
在一些实施例中,用户模式图形驱动器1026包含后端着色器编译器1027,该后端着色器编译器1027用于将着色器指令1012转换为硬件专用的表示。当OpenGL API正在使用时,将采用GLSL高级语言的着色器指令1012传递至用户模式图形驱动器1026以用于编译。在一些实施例中,用户模式图形驱动器1026使用操作系统内核模式功能1028来与内核模式图形驱动器1029进行通信。在一些实施例中,内核模式图形驱动器1029与图形处理器1032进行通信以分派命令和指令。
IP核实现
至少一个实施例的一个或多个方面可以由存储在机器可读介质上的表示性代码实现,该机器可读介质表示和/或限定集成电路(诸如,处理器)内的逻辑。例如,机器可读介质可包括表示处理器内的各个逻辑的指令。当由机器读取时,指令可使机器制造用于执行本文中所描述的技术的逻辑。此类表示(称为“IP核”)是集成电路的逻辑的可重复使用单元,这些可重复使用单元可以作为对集成电路的结构进行描述的硬件模型而被存储在有形的机器可读介质上。可将该硬件模型供应给各消费者或制造设施,这些消费者或制造设施将该硬件模型加载在制造集成电路的制造机器上。可制造集成电路,以使得电路执行与本文中所描述的实施例中的任一实施例相关联地描述的操作。
图11是图示出根据实施例的可以用于制造集成电路以执行操作的IP核开发系统1100的框图。IP核开发系统1100可用于生成可以并入到更大的设计中或用于构建整个集成电路(例如,SOC集成电路)的模块化、可重复使用的设计。设计设施1130可以采用高级编程语言(例如,C/C++)来生成对IP核设计的软件仿真1110。软件仿真1110可以用于使用仿真模型1112来设计、测试并验证IP核的行为。仿真模型1112可以包括功能、行为和/或时序仿真。然后可从仿真模型1112创建或合成寄存器传输级(RTL)设计1115。RTL设计1115是对硬件寄存器之间的数字信号的流动进行建模的集成电路(包括使用建模的数字信号执行的相关联的逻辑)的行为的抽象。除了RTL设计1115之外,还可以创建、设计或合成处于逻辑级或晶体管级的较低层级的设计。由此,初始设计和仿真的具体细节可有所不同。
可由设计设施将RTL设计1115或等效方案进一步合成为硬件模型1120,该硬件模型1120可采用硬件描述语言(HDL)或物理设计数据的某种其他表示。可以进一步仿真或测试HDL以验证IP核设计。可使用非易失性存储器1140(例如,硬盘、闪存、或任何非易失性存储介质)来存储IP核设计以用于递送至第3方制造设施1165。替代地,可以通过有线连接1150或无线连接1160来传输(例如,经由互联网)IP核设计。制造设施1165随后可制造至少部分地基于IP核设计的集成电路。所制造的集成电路可以被配置成用于执行根据本文中所描述的至少一个实施例的操作。
示例性芯片上系统集成电路
图12-图14图示出根据本文中所描述的各实施例的可使用一个或多个IP核来制造的示例性集成电路和相关联的图形处理器。除了所图示的之外,还可包括其他逻辑和电路,包括附加的图形处理器/核、外围接口控制器或通用处理器核。
图12是图示出根据实施例的可使用一个或多个IP核来制造的示例性芯片上系统集成电路1200的框图。示例性集成电路1200包括一个或多个应用处理器1205(例如,CPU)、至少一个图形处理器1210,并且可附加地包括图像处理器1215和/或视频处理器1220,其中的任一项都可以是来自相同的或多个不同的设计设施的模块化IP核。集成电路1200包括外围或总线逻辑,该外围或总线逻辑包括USB控制器1225、UART控制器1230、SPI/SDIO控制器1235和I2S/I2C控制器1240。另外,集成电路可以包括显示装置1245,该显示装置1245耦合至高清晰度多媒体接口(HDMI)控制器1250和移动产业处理器接口(MIPI)显示接口1255中的一个或多个。可由闪存子系统1260(包括闪存和闪存控制器)来提供存储。可经由存储器控制器1265来提供存储器接口以访问SDRAM或SRAM存储器装置。另外,一些集成电路附加地包括嵌入式安全引擎1270。
图13是图示出根据实施例的可使用一个或多个IP核来制造的芯片上系统集成电路的示例性图形处理器1310的框图。图形处理器1310可以是图12的图形处理器1210的变体。图形处理器1310包括顶点处理器1305以及一个或多个片段处理器1315A-1315N(例如,1315A、1315B、1315C、1315D至1315N-1和1315N)。图形处理器1310可以经由分开的逻辑执行不同的着色器程序,以使得顶点处理器1305被优化成执行用于顶点着色器程序的操作,而一个或多个片段处理器1315A-1315N执行用于片段或像素着色器程序的片段(例如,像素)着色操作。顶点处理器1305执行3D图形流水线的顶点处理级,并生成图元和顶点数据。(多个)片段处理器1315A-1315N使用由顶点处理器1305生成的图元和顶点数据来产生显示在显示装置上的帧缓冲器。在一个实施例中,(多个)片段处理器1315A-1315N被优化成执行如提供用于OpenGL API中的片段着色器程序,片段处理器1315A-1315N可用于执行与如提供用于Direct 3D API中的像素着色器程序类似的操作。
图形处理器1310附加地包括一个或多个存储器管理单元(MMU)1320A-1320B、(多个)高速缓存1325A-1325B和(多个)电路互连1330A-1330B。一个或多个MMU 1320A-1320B提供用于集成电路1310的虚拟到物理地址映射,包括用于顶点处理器1305和/或(多个)片段处理器1315A-1315N的虚拟到物理地址映射,除了存储在一个或多个高速缓存1325A-1325B中的顶点或图像/纹理数据之外,顶点处理器1305和/或(多个)片段处理器1315A-1315N还可引用存储在存储器中的顶点或图像/纹理数据。在一个实施例中,一个或多个MMU 1325A-1325B可与系统内的其他MMU同步,以使得每个处理器1205-1220可以参与共享或统一虚拟存储器系统,其他MMU包括与图12的一个或多个应用处理器1205、图像处理器1215和/或视频处理器1220相关联的一个或多个MMU。根据实施例,一个或多个电路互连1330A-1330B使得图形处理器1310能够经由SoC的内部总线或经由直接连接与SoC内的其他IP核接口连接。
图14是图示出根据实施例的可使用一个或多个IP核来制造的芯片上系统集成电路的附加示例性图形处理器1410的框图。图形处理器1410可以是图12的图形处理器1210的变体。图形处理器1410包括图13的集成电路1300的一个或多个MMU 1320A-1320B、高速缓存1325A-1325B和电路互连1330A-1330B。
图形处理器1410包括一个或多个着色器核1415A-1415N(例如,1415A、1415B、1415C、1415D、1415E、1415F至1415N-1和1415N),该一个或多个着色器核1415A-1415N提供统一着色器核架构,在该统一着色器核架构中,单个核或单类型的核可以执行所有类型的可编程着色器代码,包括用于实现顶点着色器、片段着色器和/或计算着色器的着色器程序代码。存在的着色器核的确切数量在各实施例和各实现方式之间可以有所不同。另外,图形处理器1410包括核间任务管理器1405和分块单元(tiling unit),该核间任务管理器1405充当线程分派器以将执行线程分派给一个或多个着色器核1415A-1415N,该分块单元1418用于加速用于基于图块的渲染的分块操作,在用于基于图块的渲染的分块操作中,对场景的渲染操作被细分在图像空间中,以便例如利用场景内的局部空间一致性,或优化内部高速缓存的使用。
延迟丢弃
图15至图20涉及允许GPU的驱动器在不知晓针对于一个或多个渲染轮次高速缓存的内容是否将会被丢弃的情况下构建和提交命令缓冲器的实施例。渲染轮次是对一组渲染目标的渲染操作序列。渲染目标可以是颜色缓冲器、深度缓冲器或模板印刷缓冲器。基于图块的渲染GPU将渲染轮次划分为更小的区域,称为图块。这些图块被适当地调整大小,使得渲染轮次的一个或多个渲染目标适配在GPU的管芯上图块高速缓存内。这样的安排允许渲染目标的所有存储器流量被限制在图块高速缓存中,显着地减少了带宽。此外,丢弃抑制了在渲染轮次结束时将高速缓存驱逐到存储器。丢弃可以应用于任何渲染目标。如本文所讨论的,代替将丢弃控制直接嵌入命令缓冲器中,命令缓冲器将在GPU执行命令缓冲器之前立即从存储器中对控制进行采样。然后,驱动器将具有在对命令缓冲器进行排队之后和在GPU执行所述命令缓冲器之前更新内存中的丢弃控制的能力。如本文所讨论的,在各实施例中,可以由参照图1至图14中任一个讨论的一个或多个部件(本文可互换地称为逻辑)来执行参照图15至图20讨论的一个或多个操作。
图15是用于整个帧的单个渲染轮次的实施例。对于安排1500,在第一帧(帧N)1510中,清除操作1512清除深度缓冲器1516的内容,并且然后渲染轮次操作1514使用深度缓冲器1516的内容进行渲染。在下一帧(帧N+1)1518中,清除操作1512再次清除深度缓冲器1516的内容。在此实施例中,驱动器在构建用于下一帧1518的命令缓冲器时获知深度缓冲器1516可能被丢弃,例如,针对下一帧1518的一个操作是经由清除命令1512清除深度缓冲器1516。在一个或多个实施例中,下一帧1518中的清除操作1516可以是第一或接近第一操作。在其他实施例中,清除操作1516不一定是第一操作,只要在GPU开始执行包含丢弃功能的渲染轮次之前操作被驱动器已知,并且所要求保护的主题的范围不限于此方面。
图16是整个帧的多个渲染轮次的实施例。在针对安排1600示出的实施例中,在第一帧1510中,清除操作1512清除深度缓冲器1516的内容,并且然后第一渲染轮次操作1514使用深度缓冲器1516进行渲染。在此同一帧中,第一帧1510、第二渲染轮次操作1610可以使用深度缓冲器1516的相同内容进行渲染,而不在第二渲染轮次操作1610之前清除深度缓冲器1516的内容。第一渲染轮次操作1514和第二渲染轮次操作1610两者都使用深度缓冲器1516的相同内容。尽管例如示出了两个渲染轮次操作,但是在单个帧中可以发生使用深度缓冲器1516的相同内容的两个以上渲染轮次操作。驱动器稍后获知用于最终渲染轮次的深度缓冲器1516的内容可能被丢弃。因此,在下一帧1518中,清除操作1512可以是清除深度缓冲器1516的内容的第一操作,尽管清除操作1512也可以不是第一操作,例如只要在GPU开始执行包含丢弃功能的渲染轮次之前操作被驱动器已知,并且所要求保护的主题的范围不限于此方面。
图17是整个帧的多个渲染轮次的另一个实施例。对于安排1700,在第一帧1510中,在第一渲染轮次操作1514期间,第一深度缓冲器1516被写入。在第二渲染轮次操作1610期间,采样器经由线1712读取同一深度缓冲器1516,而第二深度缓冲器1710用于渲染。
图18是用于整个帧的单个渲染轮次的另一个实施例。在针对安排1800示出的实施例中,在第一帧1510中,在渲染轮次操作1514期间,经由线1712既对同一颜色缓冲器1810进行渲染又从中进行采样。驱动器稍后获知颜色缓冲器1810可能被丢弃,因此可以经由下一帧1518中的清除操作1512清除颜色缓冲器1810。
对于上面的图15至图18的安排,安排1500仅要求驱动器跟踪将在下一帧期间被更新的单个存储器位置。安排1600增加了每个渲染轮次维护存储器位置的要求,并且仅对使用过缓冲器的最后一个轮次启用丢弃。安排1700增加了跟踪采样和跟踪多个缓冲器的要求。安排1800增加了在同一轮次内跟踪采样和渲染的要求。应该注意的是,图15至图18的安排1500、安排1600、安排1700和安排1800分别仅是在其中可以使用其他安排的示例,并且所要求保护的主题的范围不限于此方面。
图19是由驱动器实施的方法的实施例。应该注意的是,出于示例的目的示出了方法1900,并且可以实施具有更多或更少操作的方法1900的其他变化,并且所要求保护的主题的范围不限于这些方面。在方法1900的一个实施例中,驱动器分配包含一个或多个渲染轮次缓冲器的丢弃状态的丢弃缓冲器1912。丢弃缓冲器1912应该足够大,以用于多个帧的所有渲染轮次中的所有渲染目标。丢弃缓冲器1912将是命令缓冲器1910参照以在GPU执行渲染轮次之前立即对丢弃状态进行编程的缓冲器。
例如,命令缓冲器1910包括读取状态操作1914,用于针对当前渲染轮次操作从丢弃缓冲器1912中读取丢弃状态。接下来,执行渲染轮次操作1916执行第一渲染轮次操作。然后,驱动器执行另一个读取状态操作1914,用于在下一个执行渲染轮次操作1916之前读取丢弃缓冲器1012的状态。在一个或多个实施例中,可以针对每个渲染轮次操作更新丢弃缓冲器1912,但是所要求保护的主题的范围不限于此方面。
在一个或多个实施例中,驱动器将维护一个表,所述表将帧号、渲染轮次号、资源句柄和偏移量包含进每个条目的丢弃缓冲器1912中。以下如表1示出了这种表的示例。应该注意的是,以下表1的内容是出于示例的目的而提供的。表1可以包括其他内容,并且所要求保护的主题的范围不限于此方面。
帧 | 渲染轮次 | 资源句柄 | 偏移量 |
0 | 0 | 0xA | 0 |
0 | 0 | 0xB | 4 |
0 | 1 | 0xA | 8 |
… |
表1:驱动器表
每次资源被绑定为渲染目标时,都向表添加新条目,在丢弃缓冲器1912中保留新位置,并且将适当的命令添加到命令缓冲器1910,以基于丢弃缓冲器1912中的值设置丢弃状态。设置丢弃缓冲器1912中的默认值,从而使得丢弃被禁用。
每次资源被绑定用于采样,并且它可能在过去已经被绑定为渲染目标时,都向表添加新条目,并且在丢弃缓冲器1912中保留新位置。然而,没有命令被添加到命令缓冲器1910。虚拟条目可以用于简化搜索处理,如以下关于图20所示出和描述的。
当驱动器发现资源可能被丢弃时,它会在表中从最后一个条目到第一个条目搜索适当的条目。可以在表中搜索具有与可能被丢弃的资源的句柄相同的句柄的任何条目。如果找到句柄,则继续在表中搜索在同一帧和同一渲染轮次中出现的那个句柄。对于所找到的每个条目,它更新丢弃缓冲器1912的内容从而启用丢弃。
图20是启动丢弃的搜索和更新处理的方法。应该注意的是,出于示例的目的示出了方法2000,并且可以实施具有更多或更少操作的方法2000的其他变化,并且所要求保护的主题的范围不限于这些方面。方法2000在框(启动丢弃(OnDiscard))2010处以启动丢弃命令开始。启动丢弃指的是驱动器知道渲染目标的内容可能被丢弃的任何事件,例如作为许多示例之一的清除操作,并且所要求保护的主题的范围不限于此方面。可以在框2012处将找到的句柄(Handle Found)设置为假(找到的句柄=假),并且可以在框2014处将找到的帧(Frame Found)和找到的轮次(Pass Found)设置为零值(找到的帧=0,找到的轮次=0)。可以在决策框(表中的前一个条目)2016处判定是否在驱动器表中找到前一个条目。如果不存在前一个条目,则方法2000在框(完成)2030处停止。如果找到前一个条目,则可以在决策框(找到的句柄)2018处判定是否在表中找到资源句柄。如果未找到句柄,则在决策框(找到的帧==条目.帧,并且找到的轮次==条目.轮次)2022处,可以进行判定来识别表中的帧号和渲染轮次号是否针对当前帧以及目前的渲染轮次。若否,则方法2000在决策框2016处继续。如果为真,则方法2000在决策框2020处继续,如下所讨论的。
如果在决策框2018处未找到句柄,或者如果帧和渲染轮次号是如决策框2022处所判定的针对当前帧以及句柄轮次,则搜索此表直到在决策框(句柄==条目.句柄)2020处判定表中的条目是否具有与可被丢弃的资源的句柄相同的句柄。若否,则方法2000在决策框2016处继续。如果表中的条目具有与可被丢弃的资源相同的句柄,则可以在框(找到处置器=真)2024处将找到的句柄设置为真,并且在框(找到的帧=条目.帧,找到的轮次=条目.轮次)处设置帧号和渲染轮次号。可以在框(更新丢弃缓冲器)2028处更新丢弃缓冲器的内容以使得能够丢弃缓冲器内容。然后,方法2000可以在决策框2016处继续。
如下针对图15至图18的示例安排讨论方法2000。针对图15的安排1500,可以实施以下示例。
帧N
渲染轮次0——一个条目被添加到深度缓冲器的表中,具有句柄0xA
帧 | 渲染轮次 | 资源句柄 | 偏移量 |
N | 0 | 0xA | 0 |
帧N+1
清除——在表中执行针对0xA的搜索。
找到匹配句柄的条目;以偏移量0更新GPU丢弃缓冲器;继续。
没有前一个条目;停止。
针对图16的安排1600,可以实施以下示例。
帧N
渲染轮次0——一个条目被添加到深度缓冲器的表中,具有句柄0xA
帧 | 渲染轮次 | 资源句柄 | 偏移量 |
N | 0 | 0xA | 0 |
渲染轮次1——一个条目被添加到深度缓冲器的表中,具有句柄0xA
帧 | 渲染轮次 | 资源句柄 | 偏移量 |
N | 0 | 0xA | 0 |
N | 1 | 0xA | 4 |
帧N+1
清除——在表中针对0xA执行搜索。
为了帧N找到匹配句柄的条目,渲染轮次1;以偏移量4更新GPU丢弃缓冲器;继续。
表中的前一个条目针对不同的渲染轮次;停止。
针对图17的安排1700,可以实施以下示例。
帧N
渲染轮次0——一个条目被添加到深度缓冲器的表中,具有句柄0xA
帧 | 渲染轮次 | 资源句柄 | 偏移量 |
N | 0 | 0xA | 0 |
渲染轮次1——一个条目被添加到深度缓冲器的表中,具有句柄0xB。另一个条目被添加到表中,用于所采样的深度缓冲器,具有句柄0xA。(请记住,没有命令被添加到读取此值的命令缓冲器。)
帧 | 渲染轮次 | 资源句柄 | 偏移量 |
N | 0 | 0xA | 0 |
N | 1 | 0xB | 4 |
N | 1 | 0xA | 8 |
帧N+1
清除——在表中针对0xA执行搜索,
为了帧N找到匹配句柄的条目,渲染轮次1;以偏移量8更新GPU丢弃缓冲器;继续。
为同一帧和渲染轮次找到另一个条目,但是具有不同的句柄;继续。
表中的前一个条目针对不同的渲染轮次;停止。
针对图18的安排1800,可以实施以下示例。
帧N
渲染轮次0——一个条目被添加到颜色缓冲器的表中,具有句柄0xF。另一个条目被添加到表中,用于所采样的颜色缓冲器,具有句柄0xF。
帧 | 渲染轮次 | 资源句柄 | 偏移量 |
N | 0 | 0xF | 0 |
N | 0 | 0xF | 4 |
帧N+1
清除——在表中针对0xF执行搜索。
为了帧N找到匹配句柄的条目,渲染轮次0;以偏移量4更新GPU丢弃缓冲器;继续。
为同一帧和渲染轮次找到具有同一句柄另一个条目;以偏移量0更新GPU丢弃缓冲器;继续。
没有前一个条目;停止。
以下示例涉及进一步实施例。示例1可选地可以包括一种设备,所述设备包括处理器,所述处理器用于在不知晓高速缓存的内容是否将会被丢弃的情况下构建命令缓冲器;以及存储器,所述存储器用于存储所述命令缓冲器,其中,所述处理器用于在执行所述命令缓冲器之前确定所述高速缓存的丢弃状态,用于执行所述命令缓冲器,并且用于根据所述丢弃状态来丢弃或保留所述高速缓存的内容。示例2可选地可以包括如示例1所述的设备,其中,所述命令缓冲器是在所述命令缓冲器中没有丢弃控制的情况下被构建的。示例3可选地可以包括如示例1所述的设备,其中,所述处理器用于在丢弃缓冲器中存储所述丢弃状态。示例4可选地可以包括如示例3所述的设备,其中,所述处理器用于在构建所述命令缓冲器之后并且在执行所述命令缓冲器之前更新所述丢弃缓冲器中的所述丢弃状态。示例5可选地可以包括如示例3所述的设备,其中,在执行渲染轮次之前读取所述丢弃缓冲器的所述丢弃状态。示例6可选地可以包括如示例1所述的设备,其中,所述高速缓存包括渲染目标缓冲器,所述渲染目标缓冲器包括一个或多个深度缓冲器、一个或多个颜色缓冲器、或一个或多个模板印刷缓冲器、或其组合。示例7可选地可以包括如示例1所述的设备,其中,如果在当前帧中执行渲染轮次之后能够丢弃所述高速缓存的内容,则针对下一帧在所述命令缓冲器中的第一操作是清除所述高速缓存的内容。示例8可选地可以包括如示例1所述的设备,其中,如果在当前帧中执行两个或更多个渲染轮次之后能够丢弃所述高速缓存的内容,则针对下一帧在所述命令缓冲器中的第一操作是清除所述高速缓存的内容。示例9可选地可以包括如示例1所述的设备,其中,如果在当前帧中执行两个或更多个渲染轮次之后能够丢弃所述高速缓存的内容,则在第一渲染轮次期间,所述高速缓存的第一缓冲器被写入,并且在第二渲染轮次期间,所述第一缓冲器被读取,同时所述高速缓存的第二缓冲器被写入。示例10可选地可以包括如示例1所述的设备,其中,在当前帧中执行渲染轮次之后所述高速缓存的内容被丢弃,并且在所述渲染轮次期间所述高速缓存的缓冲器被读取和写入。示例11可选地可以包括如示例1所述的设备,其中,所述处理器包括以下各项中的一项或多项:图形处理单元(GPU)、或处理器核、或其组合。
示例12可选地可以包括一种方法,所述方法包括:在不知晓高速缓存的所述内容是否将会被丢弃的情况下构建命令缓冲器;将所述命令缓冲器存储在存储器中;在执行所述命令缓冲器之前确定所述高速缓存的丢弃状态;执行所述命令缓冲器;以及根据所述丢弃状态来丢弃或保留所述高速缓存的内容。示例13可选地可以包括如示例12所述的方法,其中,所述命令缓冲器是在所述命令缓冲器中没有丢弃控制的情况下被构建的。示例14可选地可以包括如示例12所述的方法,进一步包括:在丢弃缓冲器中存储所述丢弃状态。示例15可选地可以包括如示例12所述的方法,进一步包括:在所述构建所述命令缓冲器之后并且在所述执行所述命令缓冲器之前,在丢弃缓冲器中更新所述丢弃状态。示例16可选地可以包括如示例12所述的方法,进一步包括:在执行渲染轮次之前从丢弃缓冲器读取所述丢弃状态。示例17可选地可以包括如示例12所述的方法,进一步包括:如果在当前帧中执行渲染轮次之后能够丢弃所述高速缓存的内容,则在下一帧中清除所述高速缓存的内容。示例18可选地可以包括如示例12所述的方法,进一步包括:如果在当前帧中执行两个或更多个渲染轮次之后能够丢弃所述高速缓存的内容,则在下一帧中清除所述内容。示例19可选地可以包括如示例12所述的方法,进一步包括:如果在当前帧中执行两个或更多个渲染轮次之后能够丢弃所述高速缓存的内容,则在第一渲染轮次期间,向所述高速缓存的第一缓冲器写入,并且在第二渲染轮次期间,从所述第一缓冲器读取,同时向所述高速缓存的第二缓冲器写入。示例20可选地可以包括如示例12所述的方法,进一步包括:如果在当前帧中执行所述渲染轮次之后能够丢弃所述高速缓存的内容,则在渲染轮次期间向所述高速缓存的缓冲器读取并且向所述高速缓存的所述缓冲器写入。
示例21可选地可以包括一种或多种非暂态计算机可读介质,所述非暂态计算机可读介质包括一条或多条指令,所述一条或多条指令如果在至少一个处理器上被执行则配置所述至少一个处理器用于进行一个或多个操作以便:在不知晓高速缓存的内容是否将会被丢弃的情况下构建命令缓冲器,并且在执行所述命令缓冲器之前确定所述高速缓存的丢弃状态;执行所述命令缓冲器;并且根据所述丢弃状态来丢弃或保留所述高速缓存的内容。示例22可选地可以包括如示例21所述的一种或多种非暂态计算机可读介质,其中,所述命令缓冲器是在所述命令缓冲器中没有丢弃控制的情况下被构建的。示例23可选地可以包括如示例21所述的一种或多种非暂态计算机可读介质,其中,所述指令如果被执行则进一步配置所述至少一个处理器用于执行一个或多个操作以便在丢弃缓冲器中存储所述丢弃状态。示例24可选地可以包括如示例21所述的一种或多种非暂态计算机可读介质,其中,所述指令如果被执行则进一步配置所述至少一个处理器用于执行一个或多个操作以便在构建所述命令缓冲器之后并且在执行所述命令缓冲器之前在丢弃缓冲器中更新所述丢弃状态。示例25.如权利要求21所述的一种或多种非暂态计算机可读介质,其中,所述指令如果被执行则进一步配置所述至少一个处理器用于进行一个或多个操作以便在执行渲染轮次之前从丢弃缓冲器读取所述丢弃状态。
示例26可选地可以包括一种设备,所述设备包括:用于在不知晓高速缓存的内容是否将会被丢弃的情况下构建命令缓冲器的装置;用于将所述命令缓冲器存储在存储器中的装置;用于在执行所述命令缓冲器之前确定所述高速缓存的丢弃状态的装置;用于执行所述命令缓冲器的装置;以及用于根据所述丢弃状态来丢弃或保留所述高速缓存的内容的装置。示例27可选地可以包括如示例26所述的设备,其中,所述命令缓冲器是在所述命令缓冲器中没有丢弃控制的情况下被构建的。示例28可选地可以包括如示例26所述的设备,所述设备进一步包括用于在丢弃缓冲器中存储所述丢弃状态的装置。示例29可选地可以包括如示例26所述的设备,所述设备进一步包括用于进行以下操作的装置:在所述构建所述命令缓冲器之后并且在所述执行所述命令缓冲器之前在丢弃缓冲器中更新所述丢弃状态。示例30可选地可以包括如示例26所述的设备,进一步包括用于在执行渲染轮次之前从丢弃缓冲器读取所述丢弃状态的装置。示例31可选地可以包括如示例26所述的设备,进一步包括用于进行以下操作的装置:如果在当前帧中执行渲染轮次之后能够丢弃所述高速缓存的内容,则在下一帧中清除所述高速缓存的内容。示例32可选地可以包括如示例26所述的设备,进一步包括用于进行以下操作的装置:如果在当前帧中执行两个或更多个渲染轮次之后能够丢弃所述高速缓存的内容,则在下一帧中清除所述内容。示例33可选地可以包括如示例26所述的设备,进一步包括用于进行以下操作的装置:如果在当前帧中执行两个或更多个渲染轮次之后能够丢弃所述高速缓存的内容,则在第一渲染轮次期间,向所述高速缓存的第一缓冲器写入,并且在第二渲染轮次期间,从所述第一缓冲器读取,同时向所述高速缓存的第二缓冲器写入。示例34可选地可以包括如示例26所述的设备,进一步包括用于进行以下操作的装置:如果在当前帧中执行所述渲染轮次之后能够丢弃所述高速缓存的内容,则在渲染轮次期间向所述高速缓存的缓冲器读取并且向所述高速缓存的所述缓冲器写入。
示例35可选地可以包括一种机器可读介质,其包括代码,所述代码当被执行时使机器进行如权利要求12至20中任一项所述的方法。示例36可选地可以包括一种设备,所述设备包括用于进行如权利要求12至20中任一项所述的方法的装置。示例37可选地可以包括一种机器可读存储设备,其包括机器可读指令,所述机器可读指令当被执行时用于实施如任一前述示例所述的方法或实现如任一前述示例所述的设备。
在各实施例中,在此(例如,参照附图1至图20)所讨论的操作可以被实施为硬件(例如,逻辑电路系统)、软件、固件或其组合,其可以被提供为计算机程序产品,例如包括具有存储在其上用于对计算机编程以执行在此所讨论的过程的指令(或软件程序)的有形(例如,非暂态)机器可读或计算机可读介质。所述机器可读介质可以包括存储装置,诸如参照图1至图20所讨论的那些。
另外,这种计算机可读介质可以作为计算机程序产品被下载,其中,所述程序可以经由通信链路(例如,总线、调制解调器或网络连接)以载波或其他传播介质中所提供的数据信号的方式从远程计算机(例如,服务器)传送到进行请求的计算机(例如,客户端)。
本说明书中对“一个实施例”或“实施例”的引用意味着结合所述实施例所描述的具体特征、结构、和/或特性可以包括在至少一种实施方式中。短语“在一个实施例中”在本说明书中各地方的出现可以或可以不全都引用相同的实施例。
同样,在说明书和权利要求中,可以使用术语“耦合”和“连接”及其衍生词。在一些实施例中,“连接”可以用于指示两个或更多元件彼此进行直接物理或电气接触。“耦合”可以意指两个或更多个元件进行直接物理或电气接触。然而,“耦合”还可以意指两个或更多个元件可以并非彼此直接接触,但仍可以彼此合作或交互。
因此,虽然已经使用特定于结构特征和/或方法行为的语言描述了实施例,将理解的是,所要求保护的主题可以不限于所述的特定特征或行为。相反,所述特定特征和行为被作为实施所要求保护的主题的示例形式而公开。
Claims (25)
1.一种设备,包括:
处理器,所述处理器用于在不知晓高速缓存的内容是否将会被丢弃的情况下构建命令缓冲器;以及
存储器,所述存储器用于存储所述命令缓冲器;
其中,所述处理器用于:在执行所述命令缓冲器之前,确定所述高速缓存的丢弃状态;执行所述命令缓冲器;以及根据所述丢弃状态来丢弃或保留所述高速缓存的内容。
2.如权利要求1所述的设备,其中,所述命令缓冲器是在所述命令缓冲器中没有丢弃控制的情况下被构建的。
3.如权利要求1所述的设备,其中,所述处理器用于在丢弃缓冲器中存储所述丢弃状态。
4.如权利要求3所述的设备,其中,所述处理器用于:在构建所述命令缓冲器之后并且在执行所述命令缓冲器之前,更新所述丢弃缓冲器中的所述丢弃状态。
5.如权利要求3所述的设备,其中,在执行渲染轮次之前读取所述丢弃缓冲器的所述丢弃状态。
6.如权利要求1所述的设备,其中,所述高速缓存包括渲染目标缓冲器,所述渲染目标缓冲器包括一个或多个深度缓冲器、一个或多个颜色缓冲器、或一个或多个模板印刷缓冲器、或其组合。
7.如权利要求1所述的设备,其中,如果在当前帧中执行渲染轮次之后能够丢弃所述高速缓存的内容,则针对下一帧在命令缓冲器中的第一操作是清除所述高速缓存的内容。
8.如权利要求1所述的设备,其中,如果在当前帧中执行两个或更多个渲染轮次之后能够丢弃所述高速缓存的内容,则针对下一帧在所述命令缓冲器中的第一操作是清除所述高速缓存的内容。
9.如权利要求1所述的设备,其中,如果在当前帧中执行两个或更多个渲染轮次之后能够丢弃所述高速缓存的内容,则在第一渲染轮次期间,所述高速缓存的第一缓冲器被写入,并且在第二渲染轮次期间,所述第一缓冲器被读取,同时所述高速缓存的第二缓冲器被写入。
10.如权利要求1所述的设备,其中,在当前帧中在执行渲染轮次之后所述高速缓存的内容被丢弃,并且在所述渲染轮次期间所述高速缓存的缓冲器被读取和写入。
11.如权利要求1所述的设备,其中,所述处理器包括以下各项中的一项或多项:图形处理单元(GPU)、或处理器核、或其组合。
12.一种方法,包括:
在不知晓高速缓存的内容是否将会被丢弃的情况下构建命令缓冲器;
将所述命令缓冲器存储在存储器中;
在执行所述命令缓冲器之前,确定所述高速缓存的丢弃状态;
执行所述命令缓冲器;以及
根据所述丢弃状态来丢弃或保留所述高速缓存的内容。
13.如权利要求12所述的方法,其中,所述命令缓冲器是在所述命令缓冲器中没有丢弃控制的情况下被构建的。
14.如权利要求12所述的方法,进一步包括:在丢弃缓冲器中存储所述丢弃状态。
15.如权利要求12所述的方法,进一步包括:在所述构建所述命令缓冲器之后并且在所述执行所述命令缓冲器之前,在丢弃缓冲器中更新所述丢弃状态。
16.如权利要求12所述的方法,进一步包括:在执行渲染轮次之前,从丢弃缓冲器读取所述丢弃状态。
17.如权利要求12所述的方法,进一步包括:如果在当前帧中执行渲染轮次之后能够丢弃所述高速缓存的内容,则在下一帧中清除所述高速缓存的内容。
18.如权利要求12所述的方法,进一步包括:如果在当前帧中执行两个或更多个渲染轮次之后能够丢弃所述高速缓存的内容,则在下一帧中清除所述内容。
19.如权利要求12所述的方法,进一步包括:如果在当前帧中执行两个或更多个渲染轮次之后能够丢弃所述高速缓存的内容,则在第一渲染轮次期间,向所述高速缓存的第一缓冲器写入,并且在第二渲染轮次期间,从所述第一缓冲器读取,同时向所述高速缓存的第二缓冲器写入。
20.如权利要求12所述的方法,进一步包括:如果在当前帧中执行所述渲染轮次之后能够丢弃所述高速缓存的内容,则在渲染轮次期间向所述高速缓存的缓冲器读取并且向所述高速缓存的所述缓冲器写入。
21.一种或多种计算机可读介质,包括一条或多条指令,所述一条或多条指令如果在至少一个处理器上被执行则配置所述至少一个处理器用于执行一个或多个操作以便:
在不知晓高速缓存的内容是否将会被丢弃的情况下构建命令缓冲器,并且
在执行所述命令缓冲器之前,确定所述高速缓存的丢弃状态;
执行所述命令缓冲器;以及
根据所述丢弃状态来丢弃或保留所述高速缓存的内容。
22.如权利要求21所述的一种或多种计算机可读介质,其中,所述命令缓冲器是在所述命令缓冲器中没有丢弃控制的情况下被构建的。
23.如权利要求21所述的一种或多种计算机可读介质,其中,所述指令如果被执行则进一步配置所述至少一个处理器用于执行一个或多个操作以便在丢弃缓冲器中存储所述丢弃状态。
24.如权利要求21所述的一种或多种计算机可读介质,其中,所述指令如果被执行则进一步配置所述至少一个处理器用于执行一个或多个操作,以便在构建所述命令缓冲器之后并且在执行所述命令缓冲器之前,在丢弃缓冲器中更新所述丢弃状态。
25.如权利要求21所述的一种或多种计算机可读介质,其中,所述指令如果被执行则进一步配置所述至少一个处理器用于进行一个或多个操作,以便在执行渲染轮次之前,从丢弃缓冲器读取所述丢弃状态。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/337,128 US10402345B2 (en) | 2016-10-28 | 2016-10-28 | Deferred discard in tile-based rendering |
US15/337,128 | 2016-10-28 | ||
PCT/US2017/041461 WO2018080607A2 (en) | 2016-10-28 | 2017-07-11 | Deferred discard |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109791527A true CN109791527A (zh) | 2019-05-21 |
CN109791527B CN109791527B (zh) | 2023-08-22 |
Family
ID=62021484
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780060184.2A Active CN109791527B (zh) | 2016-10-28 | 2017-07-11 | 延迟丢弃 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10402345B2 (zh) |
CN (1) | CN109791527B (zh) |
DE (1) | DE112017004292T5 (zh) |
WO (1) | WO2018080607A2 (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10367639B2 (en) | 2016-12-29 | 2019-07-30 | Intel Corporation | Graphics processor with encrypted kernels |
CN113722248B (zh) * | 2021-07-28 | 2023-08-22 | 湖南国科微电子股份有限公司 | 命令处理方法及命令处理装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1610927A (zh) * | 2001-12-31 | 2005-04-27 | 英特尔公司 | 用于区域渲染的深度写禁止 |
CN102696010A (zh) * | 2009-09-08 | 2012-09-26 | 弗森-艾奥公司 | 用于将数据高速缓存在固态存储设备上的装置、系统和方法 |
US20150378920A1 (en) * | 2014-06-30 | 2015-12-31 | John G. Gierach | Graphics data pre-fetcher for last level caches |
CN105518742A (zh) * | 2013-09-10 | 2016-04-20 | 高通股份有限公司 | 用于图形处理的任意控制点处的容错抢占机制 |
US20160180488A1 (en) * | 2014-12-19 | 2016-06-23 | Intel Corporation | Exploiting frame-to-frame coherence for optimizing color buffer clear performance in graphics processing units |
US20160188491A1 (en) * | 2014-12-24 | 2016-06-30 | Intel Corporation | Apparatus and method for asynchronous tile-based rendering control |
CN106030520A (zh) * | 2014-03-27 | 2016-10-12 | 英特尔公司 | 用于软件预获取指令的过滤的指令和逻辑 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09319693A (ja) | 1996-05-28 | 1997-12-12 | Hitachi Ltd | データ転送装置および並列コンピュータシステム |
US7023437B1 (en) | 1998-07-22 | 2006-04-04 | Nvidia Corporation | System and method for accelerating graphics processing using a post-geometry data stream during multiple-pass rendering |
US8949541B2 (en) | 2008-12-08 | 2015-02-03 | Nvidia Corporation | Techniques for evicting dirty data from a cache using a notification sorter and count thresholds |
US10346941B2 (en) | 2014-05-30 | 2019-07-09 | Apple Inc. | System and method for unified application programming interface and model |
-
2016
- 2016-10-28 US US15/337,128 patent/US10402345B2/en active Active
-
2017
- 2017-07-11 CN CN201780060184.2A patent/CN109791527B/zh active Active
- 2017-07-11 WO PCT/US2017/041461 patent/WO2018080607A2/en active Application Filing
- 2017-07-11 DE DE112017004292.5T patent/DE112017004292T5/de active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1610927A (zh) * | 2001-12-31 | 2005-04-27 | 英特尔公司 | 用于区域渲染的深度写禁止 |
CN102696010A (zh) * | 2009-09-08 | 2012-09-26 | 弗森-艾奥公司 | 用于将数据高速缓存在固态存储设备上的装置、系统和方法 |
CN105518742A (zh) * | 2013-09-10 | 2016-04-20 | 高通股份有限公司 | 用于图形处理的任意控制点处的容错抢占机制 |
CN106030520A (zh) * | 2014-03-27 | 2016-10-12 | 英特尔公司 | 用于软件预获取指令的过滤的指令和逻辑 |
US20150378920A1 (en) * | 2014-06-30 | 2015-12-31 | John G. Gierach | Graphics data pre-fetcher for last level caches |
US20160180488A1 (en) * | 2014-12-19 | 2016-06-23 | Intel Corporation | Exploiting frame-to-frame coherence for optimizing color buffer clear performance in graphics processing units |
US20160188491A1 (en) * | 2014-12-24 | 2016-06-30 | Intel Corporation | Apparatus and method for asynchronous tile-based rendering control |
Non-Patent Citations (2)
Title |
---|
温蜀山等: "用于缓存管理的最高速流早期丢弃策略", 《电子学报》 * |
温蜀山等: "用于缓存管理的最高速流早期丢弃策略", 《电子学报》, no. 10, 25 October 2002 (2002-10-25) * |
Also Published As
Publication number | Publication date |
---|---|
CN109791527B (zh) | 2023-08-22 |
US10402345B2 (en) | 2019-09-03 |
DE112017004292T5 (de) | 2019-05-29 |
WO2018080607A3 (en) | 2018-07-26 |
US20180121368A1 (en) | 2018-05-03 |
WO2018080607A2 (en) | 2018-05-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109564700A (zh) | 用于取决于纹理的丢弃操作的分级式Z剔除(HiZ)优化 | |
CN109564699B (zh) | 用于经优化光线追踪的装置和方法 | |
CN108701368B (zh) | 用于经实施例化的几何结构的更有效的光线跟踪方法和装置 | |
CN109643291A (zh) | 用于在虚拟化执行环境中高效使用图形处理资源的方法和设备 | |
US11721059B2 (en) | Apparatus and method for cross-instance front-to-back traversal for ray tracing heavily-instanced scenes | |
CN109154990A (zh) | 卷积神经网络中的查找卷积层 | |
CN109923519A (zh) | 用于加速多核计算架构中的图形工作负荷的机制 | |
CN109643464A (zh) | 用于高效深度预过程的方法和装置 | |
CN108694684A (zh) | 共享本地存储器分块机制 | |
US20170372448A1 (en) | Reducing Memory Access Latencies During Ray Traversal | |
CN110187977A (zh) | 用于基于软件提示和硬件线程切换来降低寄存器区块冲突的系统和方法 | |
CN113253979A (zh) | 用于云游戏的系统架构 | |
CN109643461A (zh) | 用于在光线追踪架构内对多个连续光线-表面相交点进行正确排序和枚举的方法和设备 | |
CN107408210A (zh) | 基于边缘的覆盖掩码压缩 | |
CN109196550A (zh) | 用于针对虚拟现实和多视图系统进行交织光栅化和像素着色的架构 | |
CN109643463A (zh) | 预设图形处理器内的分级式深度逻辑 | |
CN108885796B (zh) | 利用平面重复使用的降低精度的光线遍历 | |
CN110352403A (zh) | 图形处理器寄存器重命名机制 | |
CN110111406A (zh) | 用于时间上稳定的保守形态抗混叠的装置和方法 | |
CN109791684A (zh) | 将内核执行转移到图形装置 | |
CN113052746A (zh) | 用于多适配器编码的装置和方法 | |
CN116339739A (zh) | 用于在图形处理单元上执行的内核源适配 | |
CN109844802A (zh) | 用于在图形处理器中提高线程并行性的机制 | |
CN109154892A (zh) | 用于在计算环境中对数据进行本地处理的寄存器堆扩展 | |
CN109155077B (zh) | 渐进渲染的体积光线追踪 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |