CN109313557B - 用于优化gpu线程共享本地存储器访问的装置 - Google Patents
用于优化gpu线程共享本地存储器访问的装置 Download PDFInfo
- Publication number
- CN109313557B CN109313557B CN201780035842.2A CN201780035842A CN109313557B CN 109313557 B CN109313557 B CN 109313557B CN 201780035842 A CN201780035842 A CN 201780035842A CN 109313557 B CN109313557 B CN 109313557B
- Authority
- CN
- China
- Prior art keywords
- request
- logic
- access
- bank
- slm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000015654 memory Effects 0.000 title claims abstract description 175
- 238000012545 processing Methods 0.000 claims description 80
- 238000000034 method Methods 0.000 claims description 52
- 230000008569 process Effects 0.000 claims description 27
- 238000013507 mapping Methods 0.000 claims description 5
- 230000000903 blocking effect Effects 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 37
- 230000006870 function Effects 0.000 description 34
- 239000000872 buffer Substances 0.000 description 21
- 238000013461 design Methods 0.000 description 19
- 239000012634 fragment Substances 0.000 description 15
- 238000004891 communication Methods 0.000 description 10
- 239000008186 active pharmaceutical agent Substances 0.000 description 7
- 239000003795 chemical substances by application Substances 0.000 description 7
- 230000002093 peripheral effect Effects 0.000 description 6
- 238000009877 rendering Methods 0.000 description 6
- 208000019300 CLIPPERS Diseases 0.000 description 5
- 238000003491 array Methods 0.000 description 5
- 230000004888 barrier function Effects 0.000 description 5
- 208000021930 chronic lymphocytic inflammation with pontine perivascular enhancement responsive to steroids Diseases 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 5
- 238000005070 sampling Methods 0.000 description 5
- 238000004088 simulation Methods 0.000 description 5
- 230000033001 locomotion Effects 0.000 description 4
- 230000001360 synchronised effect Effects 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 230000001960 triggered effect Effects 0.000 description 4
- 230000001413 cellular effect Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000000638 solvent extraction Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000000977 initiatory effect Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- HPTJABJPZMULFH-UHFFFAOYSA-N 12-[(Cyclohexylcarbamoyl)amino]dodecanoic acid Chemical compound OC(=O)CCCCCCCCCCCNC(=O)NC1CCCCC1 HPTJABJPZMULFH-UHFFFAOYSA-N 0.000 description 1
- 101000912503 Homo sapiens Tyrosine-protein kinase Fgr Proteins 0.000 description 1
- 102100026150 Tyrosine-protein kinase Fgr Human genes 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000007958 sleep Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/38—Concurrent instruction execution, e.g. pipeline or look ahead
- G06F9/3885—Concurrent instruction execution, e.g. pipeline or look ahead using a plurality of independent parallel functional units
- G06F9/3887—Concurrent instruction execution, e.g. pipeline or look ahead using a plurality of independent parallel functional units controlled by a single instruction for multiple data lanes [SIMD]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F13/00—Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
- G06F13/14—Handling requests for interconnection or transfer
- G06F13/16—Handling requests for interconnection or transfer for access to memory bus
- G06F13/1605—Handling requests for interconnection or transfer for access to memory bus based on arbitration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/08—Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
- G06F12/0802—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
- G06F12/0806—Multiuser, multiprocessor or multiprocessing cache systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/08—Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
- G06F12/0802—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
- G06F12/0806—Multiuser, multiprocessor or multiprocessing cache systems
- G06F12/084—Multiuser, multiprocessor or multiprocessing cache systems with a shared cache
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/38—Concurrent instruction execution, e.g. pipeline or look ahead
- G06F9/3824—Operand accessing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/31—Providing disk cache in a specific location of a storage system
- G06F2212/314—In storage network, e.g. network attached cache
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/30145—Instruction analysis, e.g. decoding, instruction word fields
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Image Generation (AREA)
Abstract
一个实施例提供了一种图形处理器,包括:第一逻辑,与第一执行单元耦合,所述第一逻辑用于接收来自所述第一执行单元的第一单指令多数据(SIMD)消息;第二逻辑,与第二执行单元耦合,所述第二逻辑用于接收来自所述第二执行单元的第二SIMD消息;以及第三逻辑,与共享本地存储器(SLM)的存储体耦合,所述第三逻辑用于接收来自所述第一逻辑的用于访问SLM的所述存储体的第一请求、来自所述第二逻辑的用于访问SLM的所述存储体的第二请求,并且用于在单个访问周期内针对所述第一请求将读取访问调度至读取端口以及针对所述第二请求将写入访问调度至写入端口。
Description
技术领域
实施例总体上涉及图形处理逻辑。更具体地,实施例涉及一种用于通过在图形处理器上执行的线程来优化共享本地存储器访问的装置。
背景技术
图形线程可以使用单指令多数据(SIMD)消息来访问共享本地存储器(SLM),其中,每个SIMD槽可以寻址SLM区域中的任意位置。为了提供高带宽,SLM已经通常使用多个存储体来实施,每个存储体具有双字(Dword)大小的数据总线。SLM中的每个存储体可以每周期提供高达一个Dword或者四个字节的数据。存储体可以被并行地访问,从而赋予能力以在一个访问周期内访问由SIMD消息中的所有SIMD槽所寻址的所有数据位置。然而,SIMD槽中“存储体冲突”的存在可能减小数据传输的有效带宽。当SIMD消息中的两个或更多个SIMD槽寻址同一SLM存储体时出现存储体冲突。如果每个存储体的访问端口数量小于存储体上冲突的槽数量,则存储体不能在同一周期内服务所有槽,并且需要串行化访问。
附图说明
通过阅读以下说明书和所附权利要求书,并且通过参考以下附图,实施例的各种优点对于本领域技术人员将变得显而易见,在附图中:
图1是具有处理器的计算机系统的实施例的框图,所述处理器具有一个或多个处理器核以及图形处理器;
图2是处理器的一个实施例的框图,所述处理器具有一个或多个处理器核、集成存储器控制器、以及集成图形处理器;
图3是图形处理器的一个实施例的框图,所述图形处理器可以是分立的图形处理单元、或者可以是集成有多个处理核的图形处理器;
图4是用于图形处理器的图形处理引擎的实施例的框图;
图5是图形处理器的另一实施例的框图;
图6是包括处理元件阵列的线程执行逻辑的框图;
图7展示了根据实施例的图形处理器执行单元指令格式;
图8是图形处理器的另一实施例的框图,所述图形处理器包括图形流水线、媒体流水线、显示引擎、线程执行逻辑、以及渲染输出流水线;
图9A是框图,展示了根据实施例的图形处理器命令格式;
图9B是框图,展示了根据实施例的图形处理器命令序列;
图10展示了根据实施例的数据处理系统的示例性图形软件架构;
图11是框图,展示了根据实施例的可以用于制造用于执行操作的集成电路的IP核开发系统;
图12是框图,展示了根据实施例的可以使用一个或多个IP核来制造的示例性芯片上系统集成电路;
图13是框图,展示了芯片上系统集成电路的示例性图形处理器;
图14是框图,展示了芯片上系统集成电路的附加示例性图形处理器;
图15是由不同执行单元对共享本地存储器进行时分复用共享的示例;
图16是根据实施例的共享本地存储器每端口存储体仲裁和调度系统的框图;
图17是根据实施例的针对图形处理器共享本地存储器的每端口存储体仲裁逻辑的流程图;
图18是根据实施例的访问合并逻辑的流程图;
图19A至图19C是根据实施例的访问优先级逻辑的流程图;
图20是与本文所描述的实施例相关联的包括用于执行运算的逻辑的图形核的框图;并且
图21是根据实施例的包括图形处理器的计算设备的框图。
具体实施方式
本文所描述的实施例通过在同一周期内同时检查来自多个线程的SIMD消息并使用最大化存储体端口利用率的每存储体(per-bank)端口仲裁方案而解决了现有SLM访问技术的局限性。在同一周期内检查来自多个线程的SIMD消息使得能够以减少存储体冲突的方式来配置SLM访问。由于所仲裁的SIMD消息来自不同的线程,因此除了针对同一地址的原子(Atomic)访问请求消息之外,不存在排序需求。
实施例还使得能够有更大机会合并/组合来自多个SIMD消息的请求。例如,如果两个SIMD消息的两个槽访问同一地址,则所述访问可以被组合成单个请求。此外,如果SIMD消息之一是读取而另一个是写入,则即使消息槽映射至同一存储体,用于存储体的仲裁控制逻辑也可以将这两个请求调度到一起。
出于解释的目的,阐述了许多具体的细节以便提供对以下所述的各实施例的透彻理解。然而,对于本领域技术人员而言,可以在不具有这些具体细节中的一些细节的情况下实践本实施例将是明显的。在其他情况下,以框图的形式示出公知的结构和设备以避免模糊基本原理并提供对实施例的更透彻的理解。尽管以下实施例中的一些引用图形处理器来描述,但是本文所描述的技术和教导可适用于各种类型的电路或半导体设备,包括通用处理设备或图形处理设备。本文对“一个实施例(one embodiment)”或“实施例(anembodiment)”的引用指示结合所述实施例或与所述实施例相关联地描述的具体特征、结构或特性可以被包括在这类实施例中的至少一个实施例中。然而,说明书中各种地方出现的短语“在一个实施例中(in one embodiment)”不一定全都指代相同的实施例。
在以下说明书和权利要求书中,可以使用术语“耦合”和“连接”及其衍生词。应当理解,这些术语并不意为彼此的同义词。“耦合”用于指示彼此协作或相互作用的彼此之间可能或可能不直接物理或电接触的两个或更多个元件。“连接”用于指示彼此耦合的两个或更多个元件之间的通信的建立。
在接下来的说明中,图1至图14提供了对结合各个实施例或与其相关的示例性数据处理系统和图形处理器逻辑的概述。图14至图21提供了各个实施例的具体细节。尽管以下实施例中的一些实施例是参照图形处理器来描述的,但是类似的技术和教导可以应用于其他类型的电路或半导体设备,因为这些教导可适用于操控或处理图像数据的任何处理器或机器。
系统概述
图1是根据实施例的处理系统100的框图。在各实施例中,系统100包括一个或多个处理器102以及一个或多个图形处理器108,并且可以是单处理器台式系统、多处理器工作站系统或具有大量处理器102或处理器核107的服务器系统。在一个实施例中,系统100是被纳入到用于在移动设备、手持式设备或嵌入式设备中使用的芯片上系统(SoC)集成电路内的处理平台。
系统100的实施例可以包括或并入基于服务器的游戏平台、游戏控制台,包括游戏与媒体控制台、移动游戏控制台、手持式游戏控制台、或在线游戏控制台。在一些实施例中,系统100是移动电话、智能电话、平板计算设备或移动互联网设备。数据处理系统100还可包括可穿戴设备(诸如智能手表可穿戴设备、智能眼镜设备、增强现实设备、或虚拟现实设备)、与所述可穿戴设备耦合、或者集成在所述可穿戴设备中。在一些实施例中,数据处理系统100是电视或机顶盒设备,所述电视或机顶盒设备具有一个或多个处理器102以及由一个或多个图形处理器108生成的图形界面。
在一些实施例中,一个或多个处理器102每个包括用于处理指令的一个或多个处理器核107,所述指令在被执行时执行系统和用户软件的操作。在一些实施例中,一个或多个处理器核107中的每个处理器核被配置成用于处理特定的指令集109。在一些实施例中,指令集109可以促进复杂指令集计算(CISC)、精简指令集计算(RISC)、或经由超长指令字(VLIW)的计算。多个处理器核107可以各自处理不同的指令集109,所述指令集可以包括用于促进对其他指令集进行仿真的指令。处理器核107还可以包括其他处理设备,如数字信号处理器(DSP)。
在一些实施例中,处理器102包括高速缓存存储器104。取决于架构,处理器102可以具有单个内部高速缓存或内部高速缓存的多个级。在一些实施例中,在处理器102的各部件当中共享高速缓存存储器。在一些实施例中,处理器102还使用外部高速缓存(例如,3级(L3)高速缓存或末级高速缓存(LLC))(未示出),可以使用已知的高速缓存一致性技术来在处理器核107当中共享外部高速缓存。另外地,寄存器堆106包括在处理器102中,所述处理器可以包括用于存储不同类型的数据的不同类型的寄存器(例如,整数寄存器、浮点寄存器、状态寄存器、和指令指针寄存器)。一些寄存器可以是通用寄存器,而其他寄存器可以特定于处理器102的设计。
在一些实施例中,处理器102与处理器总线110耦合,以在处理器102与系统100中的其他部件之间传输通信信号,诸如地址、数据、或控制信号。在一个实施例中,系统100使用示例性“中枢”系统架构,所述示例性“中枢”系统架构包括存储器控制器中枢116和输入输出(I/O)控制器中枢130。存储器控制器中枢116促进存储器设备与系统100的其他部件之间的通信,而I/O控制器中枢(ICH)130提供经由本地I/O总线至I/O设备的连接。在一个实施例中,存储器控制器中枢116的逻辑被集成在处理器内。
存储器设备120可以是动态随机存取存储器(DRAM)设备、静态随机存取存储器(SRAM)设备、闪存设备、相变存储器设备、或具有适当的性能以充当进程存储器的某个其他存储器设备。在一个实施例中,存储器设备120可以作为系统100的系统存储器操作,以存储数据122和指令121,以便在一个或多个处理器102执行应用或进程时使用。存储器控制器中枢116也与任选的外部图形处理器112耦合,所述任选的外部图形处理器112可与处理器102中的一个或多个图形处理器108通信以执行图形和媒体操作。
在一些实施例中,ICH 30启动外围设备以经由高速I/O总线连接到存储器设备120和处理器102。I/O外围设备包括但不限于音频控制器146、固件接口128、无线收发机126(例如,Wi-Fi、蓝牙)、数据存储设备124(例如,硬盘驱动器、闪存等)以及用于将传统(legacy)(例如,个人系统2(PS/2))设备耦合至系统的旧式传统I/O控制器。一个或多个通用串行总线(USB)控制器142连接输入设备(诸如,键盘和鼠标144的组合)。网络控制器134还可与ICH130耦合。在一些实施例中,高性能网络控制器(未示出)与处理器总线110耦合。应当理解,所示的系统100是示例性的而非限制性的,因为也可以使用不同方式配置的其他类型的数据处理系统。例如,I/O控制器总线130可以集成在一个或多个处理器102内,或者存储器控制器中枢116和I/O控制器中枢130可以集成在分立外部图形处理器中,例如外部图形处理器112。
图2是处理器200的实施例的框图,所述处理器具有一个或多个处理器核202A至202N、集成存储器控制器214、以及集成图形处理器208。图2的具有与此处任何其他附图中的元件相同的参考号(或名称)的那些元件可采用与在本文中其他地方描述的方式相类似的任何方式进行操作或起作用,但不限于这些。处理器200可包括多达且包括由虚线框表示的附加核202N的附加核。处理器核202A至202N各自包括一个或多个内部高速缓存单元204A至204N。在一些实施例中,每个处理器核还可以访问一个或多个共享的高速缓存单元206。
内部高速缓存单元204A至204N和共享高速缓存单元206表示处理器200内部的高速缓存存储器层级结构。高速缓存存储器层级结构可以包括每个处理器核内的至少一级指令和数据高速缓存以及一级或多级共享中级高速缓存,诸如2级(L2)、3级(L3)、4级(L4)、或其他级的高速缓存,其中,最高级的高速缓存在外部存储器之前被分类为LLC。在一些实施例中,高速缓存一致性逻辑维持各高速缓存单元206与204A至204N之间的一致性。
在一些实施例中,处理器200还可以包括一组一个或多个总线控制器单元216和系统代理核210。一个或多个总线控制器单元216管理一组外围总线,诸如一个或多个外围部件互连总线(例如,PCI、PCI快速)。系统代理核210提供对各处理器部件的管理功能。在一些实施例中,系统代理核210包括一个或多个集成存储器控制器214用于管理对各外部存储器设备(未示出)的访问。
在一些实施例中,处理器核202A至202N中的一个或多个包括对同步多线程的支持。在这种实施例中,系统代理核210包括用于在多线程处理过程中协调和操作核202A至202N的部件。另外,系统代理核210还可以包括功率控制单元(PCU),所述功率控制单元包括用于调节处理器核202A至202N的功率状态的逻辑和部件以及图形处理器208。
在一些实施例中,另外,处理器200还包括用于执行图形处理操作的图形处理器208。在一些实施例中,图形处理器208耦合至共享高速缓存单元206集以及系统代理核210,所述系统代理核包括一个或多个集成存储器控制器214。在一些实施例中,显示控制器211与图形处理器208耦合以便将图形处理器输出驱动到一个或多个耦合的显示器。在一些实施例中,显示控制器211可以是经由至少一个互连与图形处理器耦合的单独模块,或者可以集成在图形处理器208或系统代理核210内。
在一些实施例中,基于环的互连单元212用于耦合处理器200的内部部件。然而,可以使用替代性互连单元,比如点到点互连、切换式互连、或其他技术,包括本领域众所周知的技术。在一些实施例中,图形处理器208经由I/O链路213与环形互连212耦合。
示例性I/O链路213表示多个I/O互连中的多个品种中的至少一种,包括促进各处理器部件与高性能嵌入式存储器模块218(比如eDRAM模块)之间的通信的封装体I/O互连。在一些实施例中,处理器核202A至202N中的每个处理器核以及图形处理器208将嵌入式存储器模块218用作共享末级高速缓存。
在一些实施例中,处理器核202A至202N是执行相同指令集架构的同构核。在另一实施例中,处理器核202A至202N在指令集架构(ISA)方面是异构的,其中,处理器核202A至202N中的一者或多者执行第一指令集,而其他核中的至少一者执行所述第一指令集的子集或不同的指令集。在一个实施例中,处理器核202A至202N就微架构而言是同质的,其中,具有相对较高功耗的一个或多个核与具有较低功耗的一个或多个功率核耦合。另外,处理器200可以实现在一个或多个芯片上或者被实现为具有除其他部件之外的所展示的部件的SoC集成电路。
图3是图形处理器300的框图,所述图形处理器可以是分立式图形处理单元、或者可以是与多个处理核集成的图形处理器。在一些实施例中,图形处理器经由到图形处理器上的寄存器的映射I/O接口并且利用被放置在处理器存储器中的命令与存储器进行通信。在一些实施例中,图形处理器300包括用于访问存储器的存储器接口314。存储器接口314可以是到本地存储器、一个或多个内部高速缓存、一个或多个共享外部高速缓存、和/或到系统存储器的接口。
在一些实施例中,图形处理器300还包括显示控制器302,所述显示控制器用于将显示输出数据驱动到显示设备320。显示控制器302包括用于显示器的一个或多个重叠平面的硬件以及多层视频或用户接口元件的组成。在一些实施例中,图形处理器300包括用于编码、解码、或者向、从或在一个或多个媒体编码格式之间进行媒体代码转换的视频编解码器引擎306,包括但不限于:运动图像专家组(MPEG)格式(比如MPEG-2)、高级视频译码(AVC)格式(比如H.264/MPEG-4AVC)、以及电影&电视工程师协会(SMPTE)421M/VC-1、和联合图像专家组(JPEG)格式(比如JPEG、以及运动JPEG(MJPEG)格式)。
在一些实施例中,图形处理器300包括用于执行二维(2D)光栅化器操作包括例如位边界块传递的块图像传递(BLIT)引擎304。然而,在一个实施例中,使用图形处理引擎(GPE)310的一个或多个部件执行2D图形操作。在一些实施例中,GPE 310是用于执行图形操作的计算引擎,所述图形操作包括三维(3D)图形操作和媒体操作。
在一些实施例中,GPE 310包括用于执行3D操作的3D流水线312,比如使用作用于3D图元形状(例如,矩形、三角形等)的处理功能来渲染三维图像和场景。3D流水线312包括可编程且固定的功能元件,所述可编程且固定的功能元件在到3D/媒体子系统315的元件和/或生成的执行线程内执行各种任务。虽然3D流水线312可以用于执行媒体操作,但是GPE310的实施例还包括媒体流水线316,所述媒体流水线具体地用于执行媒体操作,诸如视频后处理和图像增强。
在一些实施例中,媒体流水线316包括固定功能或可编程逻辑单元以便代替、或代表视频编解码器引擎306来执行一种或多种专门的媒体操作,比如视频解码加速、视频解交织、以及视频编码加速。在一些实施例中,另外,媒体流水线316还包括线程生成单元以便生成用于在3D/媒体子系统315上执行的线程。所生成的线程对3D/媒体子系统315中所包括的一个或多个图形执行单元执行对媒体操作的计算。
在一些实施例中,3D/媒体子系统315包括用于执行3D流水线312和媒体流水线316生成的线程的逻辑。在一个实施例中,流水线向3D/媒体子系统315发送线程执行请求,所述3D/媒体子系统包括用于仲裁并将各请求分派到可用的线程执行资源的线程分派逻辑。执行资源包括用于处理3D和媒体线程的图形执行单元阵列。在一些实施例中,3D/媒体子系统315包括用于线程指令和数据的一个或多个内部高速缓存。在一些实施例中,所述子系统还包括共享存储器(包括寄存器和可寻址存储器)以便在线程之间共享数据并用于存储输出数据。
图形处理引擎
图4是根据一些实施例的图形处理器的图形处理引擎410的框图。在一个实施例中,图形处理引擎(GPE)410是图3所示的GPE 310的一个版本。图4的具有与此处任何其他附图中的元件相同的参考号(或名称)的那些元件可采用与在本文中其他地方描述的方式相类似的任何方式进行操作或起作用,但不限于这些。例如,展示了图3的3D流水线312和媒体流水线316。媒体流水线316在GPE 410的一些实施例中是可选的,并且可以不显式地地包括在GPE 410内。例如以及在至少一个实施例中,单独的媒体和/或图像处理器被耦合至GPE410。
在一些实施例中,GPE 410与命令流转化器403耦合或包括所述命令流转化器,所述命令流转化器向3D流水线312和/或媒体流水线316提供命令流。在一些实施例中,命令流转化器403与存储器耦合,所述存储器可以是系统存储器、或者是内部高速缓存存储器和共享高速缓存存储器中的一个或多个。在一些实施例中,命令流转化器403从存储器接收命令并将这些命令发送至3D流水线312和/或媒体流水线316。所述命令是从存储用于3D流水线312和媒体流水线316的环形缓冲器获取的指示。在一个实施例中,环形缓冲器可以另外包括存储多批多命令的批命令缓冲器。用于3D流水线312的命令还可以包括对在存储器中存储的数据的引用,诸如但不限于用于3D流水线312的顶点数据和几何数据和/或用于媒体流水线316的图像数据和存储器对象。3D流水线312和媒体流水线316通过经由各自流水线内的逻辑执行操作或者通过将一个或多个执行线程分派至执行图形核阵列414来处理所述命令和数据。
在各个实施例中,3D流水线312可以通过处理指令并将执行线程分派给图形核阵列414来执行一个或多个着色器程序,诸如顶点着色器、几何着色器、像素着色器、片段着色器、计算着色器或其他着色器程序。图形核阵列414提供了统一的执行资源块。图形核阵列414内的多用途执行逻辑(例如,执行单元)包括对各种3D API着色器语言的支持,并且可以执行与多个着色器相关联的多个同步执行线程。
在一些实施例中,图形核阵列414还包括用于执行诸如视频和/或图像处理的媒体功能的执行逻辑。在一个实施例中,除了图形处理操作之外,执行单元还包括可编程以执行并行通用计算操作的通用逻辑。通用逻辑可以与图1的(多个)处理器核107或图2中的核202A至202N内的通用逻辑并行地或结合地执行处理操作。
由在图形核阵列414上执行的线程生成的输出数据可以将数据输出到统一返回缓冲器(URB)418中的存储器。URB 418可以存储多个线程的数据。在一些实施例中,URB 418可以用于在图形核阵列414上执行的不同线程之间发送数据。在一些实施例中,URB 418可以另外用于图形核阵列上的线程与共享功能逻辑420内的固定功能逻辑之间的同步。
在一些实施例中,图形核阵列414是可缩放的,使得所述阵列包括可变数量的图形核,这些图形核各自具有基于GPE 410的目标功率和性能等级的可变数量的执行单元。在一个实施例中,执行资源是动态可缩放的,从而可以根据需要启用或禁用执行资源。
图形核阵列414与共享功能逻辑420耦合,所述共享功能逻辑包括在图形核阵列中的图形核之间共享的多个资源。共享功能逻辑420内的共享功能是向图形核阵列414提供专用补充功能的硬件逻辑单元。在各种实施例中,共享功能逻辑420包括但不限于采样器421、数学422和线程间通信(ITC)423逻辑。另外,一些实施例实现共享功能逻辑420内的一个或多个高速缓存425。在给定的专用功能的需求不足以包含在图形核阵列414中的情况下实施共享功能。相反,所述专用功能的单个实例被实施为共享功能逻辑420中的独立实体并且在图形核阵列414内的执行资源之间共享。在图形核阵列414之间共享并包括在图形核阵列414内的精确的一组功能在各实施例之间变化。
图5是图形处理器500的另一实施例的框图。图5的具有与本文中的任意其他附图的元件相同的附图标记(或名称)的元件能以类似于本文中其他地方描述的任何方式操作或运行,但不限于此。
在一些实施例中,图形处理器500包括环形互连502、流水线前端504、媒体引擎537和图形核580A-580N。在一些实施例中,环形互连502将图形处理器耦合至其他处理单元(包括其他图形处理器或一个或多个通用处理器核)。在一些实施例中,图形处理器是集成在多核处理系统内的许多处理器中的一个。
在一些实施例中,图形处理器500经由环形互连502接收批量的命令。传入的命令由流水线前端504中的命令流转化器503解释。在一些实施例中,图形处理器500包括用于经由(多个)图形核580A-580N来执行3D几何处理和媒体处理的可缩放执行逻辑。对于3D几何处理命令,命令流转化器503将命令供应至几何流水线536。对于至少一些媒体处理命令,命令流转化器503将命令供应至视频前端534,所述视频前端534与媒体引擎537耦合。在一些实施例中,媒体引擎537包括用于视频和图像后处理的视频质量引擎(VQE)530以及用于提供硬件加速的媒体数据编码和解码的多格式编码/解码(MFX)533引擎。在一些实施例中,几何流水线536和媒体引擎537各自都生成用于由至少一个图形核580A提供的线程执行资源的执行线程。
在一些实施例中,图形处理器500包括可缩放线程执行资源,所述可缩放线程执行单元特征为模块化核580A-580N(有时称为核片(core slice)),每一个模块化核都具有多个子核550A-550N、560A-560N(有时称为核子片(core sub-slice))。在一些实施例中,图形处理器500可具有任何数量的图形核580A至580N。在一些实施例中,图形处理器500包括图形核580A,所述图形核580A至少具有第一子核550A和第二核子核560A。在其他实施例中,图形处理器是具有单个子核(例如,550A)的低功率处理器。在一些实施例中,图形处理器500包括多个图形核580A-580N,每一个图形核都包括第一子核的集合550A-550N以及第二子核的集合560A-560N。第一子核的集合550A-550N中的每一个子核都至少包括执行单元552A-552N和媒体/纹理采样器554A-554N的第一集合。第二子核的集合560A-560N中的每一个子核都至少包括执行单元562A-562N和采样器564A-564N的第二集合。在一些实施例中,每一个子核550A-550N、560A-560N都共享一组共享资源570A-570N。在一些实施例中,共享资源包括共享高速缓存存储器和像素操作逻辑。其他共享资源也可包括在图形处理器的各种实施例中。
执行单元
图6示出线程执行逻辑600,所述线程执行逻辑600包括在GPE的一些实施例中采用的处理元件的阵列。图6的具有与本文中的任意其他附图的元件相同的附图标记(或名称)的元件能以类似于本文中其他地方描述的任何方式操作或运行,但不限于此。
在一些实施例中,线程执行逻辑600包括着色器处理器602、线程分派器604、指令高速缓存606、包括多个执行单元608A-608N的可缩放执行单元阵列、采样器610、数据高速缓存612和数据端口614。在一个实施例中,所包括的部件经由互连结构被互连,所述互连结构链接至部件中的每一个。在一些实施例中,线程执行逻辑600包括通过指令高速缓存606、数据端口614、采样器610和执行单元608A-608N中的一者或多者而至存储器(诸如,系统存储器或高速缓存存储器)的一个或多个连接。在一些实施例中,每个执行单元(例如,608A)是能够为每一个线程并行地执行多个同时硬件线程同时处理多个数据元素的独立的可编程通用计算单元。在各种实施例中,执行单元608A-608N的阵列是可缩放的以包括任何数量的单独的执行单元。
在一些实施例中,执行单元608A至608N主要用于执行着色器程序。着色器处理器602可以处理各种着色器程序并且经由线程分派器604分派与着色器程序相关联的执行线程。在一个实施例中,线程分派器包括用于对来自图形和媒体流水线的线程发起请求进行仲裁并且在一个或多个执行单元608A至608N上实例化所请求的线程的逻辑。例如,几何流水线(例如,图5的536)可以将顶点处理、曲面细分或几何着色器分派至线程执行逻辑600(图6)进行处理。在一些实施例中,线程分派器604还可处理来自执行着色器程序的运行时间线程生成请求。
在一些实施例中,执行单元608A至608N支持指令集(所述指令集包括对许多标准3D图形着色器指令的原生支持),从而使得以最小的转换执行来自图形库(例如,Direct 3D和OpenGL)的着色器程序。这些执行单元支持顶点和几何处理(例如,顶点程序、几何程序、顶点着色器)、像素处理(例如,像素着色器、片段着色器)以及通用处理(例如,计算和媒体着色器)。执行单元608A至608N中的每一个都能够执行多发布单指令多数据(SIMD),并且多线程操作能够在面对较高等待时间的存储器访问时实现高效的执行环境。每个执行单元内的每个硬件线程都具有专用的高带宽寄存器堆和相关的独立线程状态。对于具有整数、单精度浮点运算和双精度浮点运算、SIMD分支功能、逻辑运算、超越运算和其他混杂运算的流水线,执行是每个时钟的多发布。在等待来自存储器或共享功能之一的数据时,执行单元608A至608N内的依赖性逻辑使等待线程休眠,直到所请求的数据已返回。当等待线程正在休眠时,硬件资源可能会专门用于处理其他线程。例如,在与顶点着色器操作相关联的延迟期间,执行单元可以执行像素着色器、片段着色器或包括不同顶点着色器的另一种类型的着色器程序的操作。
执行单元608A至608N中的每个执行单元在数据元素阵列上进行操作。数据元素的数量是“执行大小”、或指令的信道数。执行通道是执行数据元素访问、掩蔽、和指令内的流控制的逻辑单元。通道的数量可以与针对特定图形处理器的物理算术逻辑单元(ALU)或浮点单元(FPU)的数量无关。在一些实施例中,执行单元608A至608N支持整数和浮点数据类型。
执行单元指令集包括SIMD指令。各种数据元素可作为压缩数据类型存储在寄存器中,并且执行单元将基于元素的数据大小来处理各种元素。例如,当在256位宽的向量上进行操作时,所述256位的向量存储在寄存器中,并且所述执行单元作为四个单独64位压缩数据元素(四倍字长(QW)大小的数据元素)、八个单独32位压缩数据元素(双倍字长(DW)大小的数据元素)、十六个单独16位压缩数据元素(字长(W)大小的数据元素)、或三十二个单独8位数据元素(字节(B)大小的数据元素)在所述向量上进行操作。然而,不同的向量宽度和寄存器大小是可能的。
一个或多个内部指令高速缓存(例如,606)包括在所述线程执行逻辑600中以便高速缓存所述执行单元的线程指令。在一些实施例中,一个或多个数据高速缓存(例如,612)被包括用于高速缓存在线程执行过程中的线程数据。在一些实施例中,采样器610被包括用于为3D操作提供纹理采样并且为媒体操作提供媒体采样。在一些实施例中,采样器610包括专门的纹理或媒体采样功能,以便在向执行单元提供采样数据之前在采样过程中处理纹理或媒体数据。
在执行过程中,图形和媒体流水线经由线程生成和分派逻辑向线程执行逻辑600发送线程发起请求。一旦一组几何对象已经被处理并被光栅化成像素数据,则着色器处理器602内的像素处理器逻辑(例如,像素着色器逻辑、片段着色器逻辑等)被调用以便进一步计算输出信息并且使得结果被写入到输出表面(例如,色彩缓冲器、深度缓冲器、模板印刷(stencil)缓冲器等)。在一些实施例中,像素着色器或片段着色器计算各顶点属性的值,所述各顶点属性跨光栅化对象被内插。在一些实施例中,着色器处理器602内的像素处理器逻辑然后执行应用编程接口(API)供应的像素或片段着色器程序。为了执行着色器程序,着色器处理器602经由线程分派器604将线程分派至执行单元(例如,608A)。在一些实施例中,像素着色器处理器602使用采样器610中的纹理采样逻辑来访问存储器中所存储的纹理图中的纹理数据。对纹理数据和输入几何数据的算术运算计算每个几何片段的像素颜色数据,或丢弃一个或多个像素而不进行进一步处理。
在一些实施例中,数据端口614提供存储器访问机制,供线程执行逻辑600将经处理的数据输出至存储器以便在图形处理器输出流水线上进行处理。在一些实施例中,数据端口614包括或耦合至一个或多个高速缓存存储器(例如,数据高速缓存612)从而经由数据端口来高速缓存数据以供存储器访问。
图7是展示了根据一些实施例的图形处理器指令格式700的框图。在一个或多个实施例中,图形处理器执行单元支持具有多种格式的指令的指令集。实线框展示了通常包括在执行单元指令中的部件,而虚线包括可选的部件或仅包括在指令子集中的部件。在一些实施例中,所描述和展示的指令格式700是宏指令,因为它们是供应至执行单元的指令,这与从指令解码产生的微操作相反(一旦所述指令被处理)。
在一些实施例中,图形处理器执行单元原生地支持采用128位指令格式710的指令。64位紧凑指令格式730可用于基于所选指令、多个指令选项和操作数数量的一些指令。原生128位指令格式710提供对所有指令选项的访问,而一些选项和操作限制在64位指令格式730中。64位指令格式730中可用的原生指令根据实施例而不同。在一些实施例中,使用索引字段713中的一组索引值将指令部分地压缩。执行单元硬件基于索引值来参考一组压缩表,并使用压缩表输出来重构采用128位指令格式710的原生指令。
针对每种格式,指令操作码712限定执行单元要执行的操作。执行单元跨每个操作数的多个数据元素来并行地执行每条指令。例如,响应于添加指令,执行单元跨每个颜色通道执行同步添加操作,所述颜色通道表示纹理元素或图片元素。默认地,执行单元跨操作数的所有数据通道执行每条指令。在一些实施例中,指令控制字段714使能控制某些执行选项,诸如通道选择(例如,预测)以及数据通道排序(例如,混合)。针对采用128位指令格式710的指令,执行大小字段716限制了将并行执行的数据通道的数量。在一些实施例中,执行大小字段716不可用于64位紧凑指令格式730。
一些执行单元指令具有多达三个操作数,包括两个源操作数(src0 720、src1722)和一个目的地718。在一些实施例中,执行单元支持双目的地指令,其中这些目的地之一是隐式的。数据操作指令可以具有第三源操作数(例如,SRC2 724),其中,指令操作码712确定源操作数的数量。指令的最后的源操作数可以是利用所述指令传递的即时(例如,硬编码)值。
在一些实施例中,128位指令格式710包括访问/地址模式字段726,所述访问/地址模式信息例如指定了是使用直接寄存器寻址模式还是间接寄存器寻址模式。当使用直接寄存器寻址模式时,直接由指令中的位来提供一个或多个操作数的寄存器地址。
在一些实施例中,128位指令格式710包括访问/地址模式字段726,所述访问/地址模式字段指定指令的地址模式和/或访问模式。在一个实施例中,访问模式用于限定针对指令的数据访问对齐。一些实施例支持访问模式,包括16字节对齐访问模式和1字节对齐访问模式,其中,访问模式的字节对齐确定了指令操作数的访问对齐。例如,当在第一模式中时,指令可以使用字节对齐寻址以用于源操作数和目的地操作数,并且当在第二模式中时,指令可以使用16字节对齐寻址以用于所有的源操作数和目的地操作数。
在一个实施例中,访问/地址模式字段726的地址模式部分确定指令是使用直接寻址还是间接寻址。当使用直接寄存器寻址模式时,指令中的位直接提供一个或多个操作数的寄存器地址。当使用间接寄存器寻址模式时,可以基于指令中的地址寄存器值和地址立即数字段来计算一个或多个操作数的寄存器地址。
在一些实施例中,基于操作码712位字段对指令进行分组从而简化操作码解码740。针对8位的操作码,第4、5、和6位允许执行单元确定操作码的类型。所示出的精确操作码分组仅是示例性的。在一些实施例中,移动和逻辑操作码组742包括数据移动和逻辑指令(例如,移动(mov)、比较(cmp))。在一些实施例中,移动和逻辑组742共享五个最高有效位(MSB),其中移动(mov)指令采用0000xxxxb的形式,而逻辑指令采用0001xxxxb的形式。流控制指令组744(例如,调用(call)、跳(jmp))包括采用0010xxxxb形式(例如,0x20)的指令。混杂指令组746包括指令的混合,包括采用0011xxxxb形式(例如,0x30)的同步指令(例如,等待(wait)、发送(send))。并行数学指令组748包括采用0100xxxxb形式(例如,0x40)的按分量的算术指令(例如,加(add)、乘(mul))。并行数学组748跨数据通道并行地执行算术运算。向量数学组750包括采用0101xxxxb形式(例如,0x50)的算术指令(例如,dp4)。向量数学组对向量操作数执行算术运算,诸如点积运算。
图形流水线
图8是图形处理器800的另一个实施例的框图。图8的具有与此处任何其他附图中的元件相同的参考号(或名称)的那些元件可采用与在本文中其他地方描述的方式相类似的任何方式进行操作或起作用,但不限于这些。
在一些实施例中,图形处理器800包括图形流水线820、媒体流水线830、显示引擎840、线程执行逻辑850、以及渲染输出流水线870。在一些实施例中,图形处理器800是包括一个或多个通用处理核的多核处理系统内的图形处理器。图形处理器受到至一个或多个控制寄存器(未示出)的寄存器写入的控制或者经由环形互连802经由发布至图形处理器800的命令被控制。在一些实施例中,环形互连802将图形处理器800耦合至其他处理部件,比如其他图形处理器或通用处理器。来自环形互连802的命令通过命令流转化器803被解译,所述命令流转化器将指令供应至图形流水线820或媒体流水线830的单独部件。
在一些实施例中,命令流转化器803引导顶点获取器805的操作,所述顶点获取器从存储器读取顶点数据并执行由命令流转化器803所提供的顶点处理命令。在一些实施例中,顶点获取器805将顶点数据提供给顶点着色器807,所述顶点着色器对每个顶点执行坐标空间变换和照明操作。在一些实施例中,顶点获取器805和顶点着色器807通过经由线程分派器831向执行单元852A、852B分派执行线程来执行顶点处理指令。
在一些实施例中,执行单元852A、852B是具有用于执行图形和媒体操作的指令集的向量处理器阵列。在一些实施例中,执行单元852A、852B具有附接的L1高速缓存851,所述高速缓存专用于每个阵列或在阵列之间共享。高速缓存可以被配置为数据高速缓存、指令高速缓存、或单个高速缓存,所述单个高速缓存被分区为包含不同分区中的数据和指令。
在一些实施例中,图形流水线820包括用于执行3D对象的硬件加速曲面细分的曲面细分部件。在一些实施例中,可编程的外壳着色器811配置曲面细分操作。可编程域着色器817提供对曲面细分输出的后端评估。曲面细分器813在外壳着色器811的方向上进行操作并且包含专用逻辑,所述专用逻辑用于基于粗糙几何模型来生成详细的几何对象集合,所述粗糙几何模型作为输入被提供至图形流水线820。在一些实施例中,如果未使用曲面细分,则可以对曲面细分部件(例如,外壳着色器811、曲面细分器813、域着色器817)进行旁路。
在一些实施例中,完整的几何对象可以由几何着色器819经由被分派至所述执行单元852A、852B的一个或多个线程来处理、或者可以直接行进至剪辑器829。在一些实施例中,几何着色器在整个几何对象(而非顶点或者如图形流水线的先前级中的顶点补片(patch))上进行操作。如果禁用曲面细分,则几何着色器819从顶点着色器807接收输入。在一些实施例中,几何着色器819可由几何着色器程序编程以便在曲面细分单元被禁用时执行几何曲面细分。
在光栅化之前,剪辑器829处理顶点数据。剪辑器829可以是固定功能的剪辑器或者具有剪辑和几何着色器功能的可编程剪辑器。在一些实施例中,渲染输出流水线870中的光栅化器和深度测试部件873分派像素着色器以将几何对象转换成它们的每像素表示。在一些实施例中,像素着色器逻辑包括在线程执行逻辑850中。在一些实施例中,应用可对光栅化器和深度测试部件873进行旁路并且经由流出单元823访问未光栅化的顶点数据。
图形处理器800具有互连总线、互连结构、或某个其他的互连机制,所述互连机制允许数据和消息在所述图形处理器的主要部件之中传递。在一些实施例中,执行单元852A、852B和相关联的(多个)高速缓存851、纹理和媒体采样器854、以及纹理/采样器高速缓存858经由数据端口856进行互连,以便执行存储器访问并且与处理器的渲染输出流水线部件进行通信。在一些实施例中,采样器854、高速缓存851、858以及执行单元852A、852B各自具有单独的存储器访问路径。
在一些实施例中,渲染输出流水线870包含光栅化器和深度测试部件873,所述光栅化器和深度测试部件将基于顶点的对象转换为相关联的基于像素的表示。在一些实施例中,光栅化器逻辑包括用于执行固定功能三角形和线光栅化的窗口器/掩蔽器单元。相关联的渲染高速缓存878和深度高速缓存879在一些实施例中也是可用的。像素操作部件877对数据进行基于像素的操作,然而在一些实例中,与2D操作(例如,利用混合的位块图像传递)相关联的像素操作由2D引擎841执行、或者在显示时间由显示控制器843使用重叠显示平面来代替。在一些实施例中,共享的L3高速缓存875可用于所有的图形部件,从而允许在无需使用主系统存储器的情况下共享数据。
在一些实施例中,图形处理器媒体流水线830包括媒体引擎837和视频前端834。在一些实施例中,视频前端834从命令流转化器803接收流水线命令。在一些实施例中,媒体流水线830包括单独的命令流转化器。在一些实施例中,视频前端834在将所述命令发送至媒体引擎837之前处理媒体命令。在一些实施例中,媒体引擎837包括用于生成线程以用于经由线程分派器831分派至线程执行逻辑850的线程生成功能。
在一些实施例中,图形处理器800包括显示引擎840。在一些实施例中,显示引擎840在处理器800外部并且经由环形互连802、或某个其他互连总线或机构与图形处理器耦合。在一些实施例中,显示引擎840包括2D引擎841和显示控制器843。在一些实施例中,显示引擎840包含能够独立于3D流水线而操作的专用逻辑。在一些实施例中,显示控制器843与显示设备(未示出)耦合,所述显示设备可以是系统集成显示设备(如在膝上型计算机中)、或者经由显示设备连接器附接的外部显示设备。
在一些实施例中,图形流水线820和媒体流水线830可被配置成用于基于多个图形和媒体编程接口执行操作并且并非专用于任何一种应用编程接口(API)。在一些实施例中,图形处理器的驱动器软件将专用于特定图形或媒体库的API调度转换成可由图形处理器处理的命令。在一些实施例中,为全部来自Khronos Group的开放图形库(OpenGL)、开放计算语言(OpenCL)和/或Vulkan图形和计算API提供了支持。在一些实施例中,也可以为微软公司的Direct3D库提供支持。在一些实施例中,可以支持这些库的组合。还可以为开源计算机视觉库(OpenCV)提供支持。如果可做出从未来API的流水线到图形处理器的流水线的映射,则具有兼容3D流水线的未来API也将受到支持。
图形流水线编程
图9A是展示了根据一些实施例的图形处理器命令格式900的框图。图9B是展示了根据实施例的图形处理器命令序列910的框图。图9A中的实线框展示了通常包括在图形命令中的部件,而虚线包括是可选的或者仅包括在所述图形命令的子集中的部件。图9A的示例性图形处理器命令格式900包括用于标识命令的目标客户端902、命令操作代码(操作码)904、以及用于命令的有关数据906的数据字段。一些命令中还包括子操作码905和命令大小908。
在一些实施例中,客户端902指定了处理命令数据的图形设备的客户端单元。在一些实施例中,图形处理器命令解析器检查每个命令的客户端字段以便调整对命令的进一步处理并将命令数据路由至合适的客户端单元。在一些实施例中,图形处理器客户端单元包括存储器接口单元、渲染单元、2D单元、3D单元、和媒体单元。每个客户端单元具有对命令进行处理的相应处理流水线。一旦命令被客户端单元接收到,客户端单元就读取操作码904以及子操作码905(如果存在的话)从而确定要执行的操作。客户端单元使用数据字段906内的信息来执行命令。针对一些命令,期望显式的命令大小908来指定命令的大小。在一些实施例中,命令解析器基于命令操作码自动地确定命令中的至少一些命令的大小。在一些实施例中,经由双倍字长的倍数对命令进行对齐。
图9B中的流程图示出了示例性图形处理器命令序列910。在一些实施例中,以图形处理器的实施例为特征的数据处理系统的软件或固件使用所示出的命令序列的版本来启动、执行并终止图形操作集合。仅出于示例性目的示出并描述了样本命令序列,如实施例并不限于这些特定命令或者此命令序列。而且,所述命令可以作为一批命令以命令序列被发布,从而使得图形处理器将以至少部分同时的方式处理命令序列。
在一些实施例中,图形处理器命令序列910可以以流水线转储清除命令912开始以便使得任一活跃图形流水线完成针对所述流水线的当前未决命令。在一些实施例中,3D流水线922和媒体流水线924不同时进行操作。执行流水线转储清除以使得活动图形流水线完成任何未决命令。响应于流水线转储清除,用于图形处理器的命令解析器将停止命令处理直到活跃绘画引擎完成未决操作并且使得相关的读高速缓存失效。可选地,渲染高速缓存中被标记为‘脏’的任何数据可以被转储清除到存储器中。在一些实施例中,流水线转储清除命令912可以用于流水线同步或者用在将图形处理器置于低功率状态之前。
在一些实施例中,当命令序列需要图形处理器在流水线之间显式地地切换时,使用流水线选择命令913。在一些实施例中,在发布流水线命令之前在执行情境中仅需要一次流水线选择命令913,除非所述情境要发布针对两条流水线的命令。在一些实施例中,在经由流水线选择命令913的流水线切换之前正好需要流水线转储清除命令912。
在一些实施例中,流水线控制命令914配置用于操作的图形流水线并且用于对3D流水线922和媒体流水线924进行编程。在一些实施例中,流水线控制命令914配置活跃流水线的流水线状态。在一个实施例中,流水线控制命令914用于流水线同步并且用于在处理一批命令之前清除来自活跃流水线内的一个或多个高速缓存存储器中的数据。
在一些实施例中,用于返回缓冲器状态916的命令用于配置返回缓冲器的集合以供相应的流水线写入数据。一些流水线操作需要分配、选择、或配置一个或多个返回缓冲器,在处理过程中所述操作将中间数据写入所述一个或多个返回缓冲器中。在一些实施例中,图形处理器还使用一个或多个返回缓冲器以便存储输出数据并且执行跨线程通信。在一些实施例中,配置返回缓冲器状态916包括选择返回缓冲器的大小和数量以用于流水线操作集合。
命令序列中的剩余命令基于用于操作的活跃流水线而不同。基于流水线判定920,所述命令序列被定制用于以3D流水线状态930开始的3D流水线922、或者在媒体流水线状态940处开始的媒体流水线924。
用于3D流水线状态930的命令包括用于顶点缓冲器状态、顶点元素状态、常量颜色状态、深度缓冲器状态、以及有待在处理3D图元命令之前配置的其他状态变量的3D状态设置命令。这些命令的值至少部分地基于使用中的特定3D API来确定。在一些实施例中,3D流水线状态930命令还能够选择性地禁用或旁路掉特定流水线元件(如果将不使用那些元件的话)。
在一些实施例中,3D图元932命令用于提交待由3D流水线处理的3D图元。经由3D图元932命令传递给图形处理器的命令和相关联参数将被转发到所述图形流水线中的顶点获取功能。顶点获取功能使用3D图元932命令数据来生成多个顶点数据结构。所述顶点数据结构被存储在一个或多个返回缓冲器中。在一些实施例中,3D图元932命令用于经由顶点着色器对3D图元执行顶点操作。为了处理顶点着色器,3D流水线922将着色器执行线程分派至图形处理器执行单元。
在一些实施例中,经由执行934命令或事件触发3D流水线922。在一些实施例中,寄存器写入触发命令执行。在一些实施例中,经由命令序列中的‘前进’(‘go’)或‘拣选’(‘kick’)命令来触发执行。在一个实施例中,使用流水线同步命令来触发命令执行以便通过图形流水线转储清除命令序列。3D流水线将针对3D图元来执行几何处理。一旦完成操作,则对所产生的几何对象进行光栅化,并且像素引擎对所产生的像素进行着色。对于这些操作,还可以包括用于控制像素着色和像素后端操作的附加命令。
在一些实施例中,当执行媒体操作时,图形处理器命令序列910跟随在媒体流水线924路径之后。一般地,针对媒体流水线924进行编程的具体用途和方式取决于待执行的媒体或计算操作。在媒体解码过程中,特定的媒体解码操作可以被卸载到所述媒体流水线。在一些实施例中,还可对媒体流水线进行旁路,并且可使用由一个或多个通用处理核提供的资源来整体地或部分地执行媒体解码。在一个实施例中,媒体流水线还包括用于通用图形处理器单元(GPGPU)操作的元件,其中,所述图形处理器用于使用计算着色器程序来执行SIMD向量运算,所述计算着色器程序与渲染图形图元不是显式地相关的。
在一些实施例中,以与3D流水线922相似的方式对媒体流水线924进行配置。将用于配置媒体流水线状态940的一组命令分派或放置到命令队列中,在媒体对象命令942之前。在一些实施例中,用于媒体流水线状态940的命令包括用于配置媒体流水线元件的数据,所述媒体流水线元件将用于处理媒体对象。这包括用于在媒体流水线内配置视频解码和视频编码逻辑的数据,诸如编码或解码格式。在一些实施例中,用于媒体流水线状态940的命令还支持将一个或多个指针用于包含一批状态设置的“间接”状态元件。
在一些实施例中,媒体对象命令942将指针供应至媒体对象以用于由媒体流水线进行处理。媒体对象包括存储器缓冲器,所述存储器缓冲器包含待处理的视频数据。在一些实施例中,在发布媒体对象命令942之前,所有的媒体流水线状态必须是有效的。一旦流水线状态被配置并且媒体对象命令942被排队,则经由执行944命令或等效的执行事件(例如,寄存器写入)来触发媒体流水线924。然后可以通过由3D流水线922或媒体流水线924提供的操作对来自媒体流水线924的输出进行后处理。在一些实施例中,以与媒体操作类似的方式来配置和执行GPGPU操作。
图形软件架构
图10展示了根据一些实施例的数据处理系统1000的示例性图形软件架构。在一些实施例中,软件架构包括3D图形应用1010、操作系统1020、以及至少一个处理器1030。在一些实施例中,处理器1030包括图形处理器1032以及一个或多个通用处理器核1034。图形应用1010和操作系统1020各自在数据处理系统的系统存储器1050中执行。
在一些实施例中,3D图形应用1010包含一个或多个着色器程序,所述一个或多个着色器程序包括着色器指令1012。着色器语言指令可以采用高级着色器语言,诸如高级着色器语言(HLSL)或OpenGL着色器语言(GLSL)。所述应用还包括可执行指令1014,所述可执行指令采用适合用于由通用处理器核1034执行的机器语言。所述应用还包括由顶点数据限定的图形对象1016。
在一些实施例中,操作系统1020是来自微软公司的 操作系统、专用UNIX式操作系统、或使用Linux内核变体的开源UNIX式操作系统。操作系统1020可以支持图形API 1022,诸如Direct3D API、OpenGL API或Vulkan API。当Direct3D API正在使用时,操作系统1020使用前端着色器编译器1024以将HLSL中的任何着色器指令1012编译成较低级的着色器语言。所述编译可以是即时(JIT)编译,或者所述应用可执行着色器预编译。在一些实施例中,在对3D图形应用1010进行编译的过程中,将高级着色器编译成低级着色器。在一些实施例中,着色器指令1012以中间形式提供,诸如由Vulkan API使用的标准便携式中间表示(SPIR)的版本。
在一些实施例中,用户模式图形驱动器1026包含后端着色器编译器1027,所述后端着色器编译器用于将着色器指令1012转换成硬件专用的表示。当在使用OpenGL API时,将采用GLSL高级语言的着色器指令1012传递至用户模式图形驱动器1026以用于编译。在一些实施例中,用户模式图形驱动器1026使用操作系统内核模式功能1028来与内核模式图形驱动器1029进行通信。在一些实施例中,内核模式图形驱动器1029与图形处理器1032进行通信以便分派命令和指令。
IP核实现
至少一个实施例的一个或多个方面可以由存储在机器可读介质上的代表性代码实现,所述机器可读介质表示和/或限定集成电路诸如处理器内的逻辑。例如,机器可读介质可以包括表示处理器内的各个逻辑的指令。当由机器读取时,所述指令可以使机器制造用于执行本文所述的技术的逻辑。这类表示(称为“IP核”)是集成电路的逻辑的可重复使用单元,所述可重复使用单元可以作为对集成电路的结构进行描述的硬件模型而存储在有形、机器可读介质上。可以将硬件模型供应至在制造集成电路的制造机器上加载硬件模型的各消费者或制造设施。可以制造集成电路,从而使得电路执行与本文所述的实施例中的任一实施例相关联地描述的操作。
图11是展示了根据实施例的可以用于制造集成电路以执行操作的IP核开发系统1100的框图。IP核开发系统1100可以用于生成可并入到更大的设计中或用于构建整个集成电路(例如,SOC集成电路)的模块化、可重复使用设计。设计设施1130可采用高级编程语言(例如,C/C++)生成对IP核设计的软件仿真1110。软件仿真1110可用于使用仿真模型1112来设计、测试并验证IP核的行为。仿真模型1112可以包括功能、行为和/或时序仿真。然后可由仿真模型1112来创建或合成寄存器传输级(RTL)设计1115。RTL设计1115是对硬件寄存器之间的数字信号的流动进行建模的集成电路(包括使用建模的数字信号执行的相关联逻辑)的行为的抽象。除了RTL设计1115之外,还可以创建、设计或合成逻辑电平或晶体管电平处的较低层次设计。由此,初始设计和仿真的具体细节可以发生变化。
可以由设计设施将RTL设计1115或等效方案进一步合成为硬件模型1120,所述硬件模型可以采用硬件描述语言(HDL)或物理设计数据的某种其他表示。可以进一步仿真或测试HDL以验证IP核设计。可使用非易失性存储器1140(例如,硬盘、闪存、或任何非易失性存储介质)来存储IP核设计以用于递送至第3方制造设施1165。可替代地,可以通过有线连接1150或无线连接1160来传输(例如,经由互联网)IP核设计。制造设施1165然后可以制造至少部分地基于IP核设计的集成电路。所制造的集成电路可被配置用于执行根据本文所述的至少一个实施例的操作。
示例性芯片上系统集成电路
图12至图14展示了根据本文所述的各种实施例的可以使用一个或多个IP核来制造的示例性集成电路和相关图形处理器。除了所展示的之外,还可以包括其他逻辑和电路,包括附加的图形处理器/核、外围接口控制器或通用处理器核。
图12是展示了根据实施例的可以使用一个或多个IP核来制造的示例性芯片上系统集成电路1200的框图。示例性集成电路1200包括一个或多个应用处理器1205(例如,CPU)、至少一个图形处理器1210,并且另外还可以包括图像处理器1215和/或视频处理器1220,其中的任一项都可以是来自相同或多个不同设计设施的模块化IP核。集成电路1200包括外围或总线逻辑,包括USB控制器1225、UART控制器1230、SPI/SDIO控制器1235和I2S/I2C控制器1240。另外,集成电路还可以包括显示设备1245,所述显示设备耦合至高清晰度多媒体接口(HDMI)控制器1250和移动行业处理器接口(MIPI)显示界面1255中的一项或多项。可以由闪存子系统1260(包括闪存和闪存控制器)来提供存储。可以经由存储器控制器1265来提供存储器接口以访问SDRAM或SRAM存储器设备。另外,一些集成电路还包括嵌入式安全引擎1270。
图13是示出了根据实施例的可以使用一个或多个IP核来制造的芯片上系统集成电路的示例性图形处理器1310的框图。图形处理器1310可以是图12的图形处理器1210的变体。图形处理器1310包括顶点处理器1305和一个或多个片段处理器1315A-1315N。图形处理器1310可以经由分开的逻辑执行不同的着色器程序,使得顶点处理器1305被优化成执行用于顶点着色器程序的操作,而一个或多个片段处理器1315A-1315N执行用于片段或像素着色器程序的片段(例如,像素)着色操作。顶点处理器1305执行3D图形流水线的顶点处理阶段,并生成图元和顶点数据。片段处理器1315A-1315N使用由顶点处理器1305生成的图元和顶点数据来产生显示在显示设备上的帧缓冲器。在一个实施例中,片段处理器1315A-1315N被优化成执行如提供用于OpenGL API中的片段着色器程序,片段处理器1315A-1315N可用于执行与如提供用于Direct 3D API中的像素着色器程序类似的操作。
图形处理器1310附加地包括一个或多个存储器管理单元(MMU)1320A-1320B、高速缓存1325A-1325B和电路互连1330A-1330B。一个或多个MMU 1320A-1320B提供用于图形处理器1310的虚拟到物理地址映射,包括用于顶点处理器1305和/或片段处理器1315A-1315N的虚拟到物理地址映射,除了存储在一个或多个高速缓存1325A-1325B中的顶点或图像/纹理数据之外,顶点处理器1305和/或片段处理器1315A-1315N还可以引用存储在存储器中的顶点或图像/纹理数据。在一个实施例中,一个或多个MMU1320A-1320B可以与系统内的其他MMU同步,使得每个处理器1205-1220可以参与共享或统一虚拟存储器系统,其他MMU包括与图12的一个或多个应用处理器1205、图像处理器1215和/或视频处理器1220相关联的一个或多个MMU。根据实施例,一个或多个电路互连1330A-1330B使得图形处理器1310能够经由SoC的内部总线或经由直接连接与SoC内的其他IP核接口连接。
图14是示出了根据实施例的可以使用一个或多个IP核来制造的芯片上系统集成电路的附加示例性图形处理器1410的框图。图形处理器1410可以是图12的图形处理器1210的变体。图形处理器1410包括图13的集成电路1300的一个或多个MMU 1320A-1320B、(多个)高速缓存1325A-1325B和(多个)电路互连1330A-1330B。
图形处理器1410包括一个或多个着色器核1415A-1415N(例如,1415A、1415B、1415C、1415D、1415E、1415F、到1315N-1,以及1315N),该一个或多个着色器核1415A-1415N提供统一着色器核架构,其中单个核或单类型的核可以执行所有类型的可编程着色器代码,包括用于实现顶点着色器、片段着色器和/或计算着色器的着色器程序代码。存在的着色器核的确切数量可以在各实施例和各实现方式之间变化。此外,图形处理器1410包括核间任务管理器1405和分块单元(tiling unit)1418,该核间任务管理器1405充当线程分派器以将执行线程分派给一个或多个着色器核1415A-1415N,该分块单元1418用于加速用于基于图块的渲染的分块操作,在用于基于图块的渲染的分块操作中,对场景的渲染操作被细分在图像空间中,例如,以此来利用场景内的局部空间一致性,或以此来优化内部高速缓存的使用。
优化GPU线程共享本地存储器访问
本文所描述的实施例提供了图形处理器中的GPGPU和3D着色器线程共享本地存储器(SLM)访问的改善性能。如本文所描述的,SLM是架构存储区域,例如,如在OpenCL规范中所使用的由GPGPU“线程组”中的线程所共享的“本地存储器”。每个线程组具有其自身的对其他线程组不可见的逻辑SLM区域。在图形处理器中,属于在不同执行单元(EU)上执行的线程组的多个线程可能需要同时访问SLM区域。在一个实施例中,八至十六或更多个EU之间可以共享同一SLM区域,这导致每个EU专用一个SLM端口是过于昂贵的。替代地,SLM实施每个存储体更少的端口以及“时分复用”端口共享方案。在此方案中,仲裁来自所有EU的SIMD消息并且每端口每周期选定仅仅一个SIMD消息来访问SLM。每端口给定周期内所选定的SIMD消息被允许在所述周期内访问所有SLM存储体。在所述SIMD消息中的所有槽都完成了对存储体的访问(在存在存储体冲突的情况下这可能耗费多于一个周期)之后,不同的SIMD消息被允许访问所述SLM存储体端口。
尽管在OpenCL规范中的GPGPU本地存储器方面描述了SLM,但是访问技术通常可适用于图形处理器上的SLM,包括3D图形处理器线程访问、以及诸如基于CUDA、C/C++或其他GPU感知编程语言的非OpenCL GPGPU线程访问。
图15是由不同执行单元对共享本地存储器进行时分复用共享1500的示例。如所展示的,两个执行单元1502A、1502B向共享SLM单元发送SIMD16消息1503A、1503B,所述SIMD16消息是具有十六个槽的SIMD消息。多路复用器1506选定两个SIMD16消息之一(例如,SIMD16消息1503A或SIMD16消息1503B)来处理,并且检查每个消息内的请求槽1504A、1504B。来自所选定的消息1508的十六个SIMD槽的十六个请求被发送至SLM前端(SLMFE)逻辑1510。SLMFE逻辑1510基于哈希函数将各个槽地址1512映射至相应的SLM存储体1514。
SLMFE逻辑1510还检查存储体冲突,当两个或更多个槽地址映射至同一存储体时出现所述存储体冲突。如果检测到存储体冲突,则串行化存储体访问以使得在访问周期内可以只将冲突请求之一转发至存储体端口。因此,存储体冲突可能导致流水线停滞直到来自SIMD16消息的所有十六个槽都被发送至存储体端口。
如图15中对共享本地存储器进行的时分复用共享1500尽管高效但是具有局限性。单个SIMD消息指定针对其所有槽的同一操作(例如,读取操作、写入操作或原子操作)。然而,每个SLM存储体至少具有一个读取端口和一个写入端口,从而导致未充分利用存储体端口。例如,如果由多路复用器1506选定的所选定的SIMD消息1508是读取操作,则在所述周期内将不会使用存储体的写入端口。同样,如果所选定SIMD消息1508是读取操作,则在所述周期内将不会使用存储体的读取端口。包括读取和写入的原子操作使用存储体的写入端口和读取端口两者。然而,在实际工作负荷下,对SIMD原子操作的使用趋向于受到限制。进一步地,当SIMD消息的槽之间出现存储体冲突时,在所述周期内,一个或多个存储体将不会被访问,从而可能未充分利用SLM存储体并且降低SLM的有效性能。
由本文所描述的实施例提供的改善的SLM访问技术通过在访问周期期间检查其他SIMD消息中的访问槽以填充未使用的存储体而避免了现有SLM访问技术的缺陷。在一个实施例中,此每存储体端口仲裁方案通过在同一周期内在来自多个线程的SIMD消息处同时检查而最大化了存储体端口利用率。
在一个实施例中,替代在整个SIMD消息水平上仲裁存储体访问,每存储体端口仲裁逻辑检查来自跨多个线程的多个可用SIMD消息的所有有效槽。可以在单个周期内检查多个线程。映射至同一存储体的SIMD消息槽被分组在一起,并且对存储体的访问在每端口水平上被仲裁。由于每存储体端口仲裁逻辑在同一周期内检查来自多个SIMD消息的槽,因此平均结果是存储体冲突减少。例如,对同一存储体的读取和写入请求可以在同一周期内调度,因为请求由不同端口服务,这导致更高的平均存储体利用率。更高的平均存储体利用率导致更高的SLM性能。
图16是根据实施例的共享本地存储器每端口存储体仲裁和调度系统1600的框图。在一个实施例中,系统1600包括多个执行单元1602A、1602B,其可以各自在单个周期内向SLM发送SIMD16消息1603A、1603B。可以由SLM前端1610A、1610B将每消息十六个槽映射至相应的存储体。在一个实施例中,如果槽请求越过Dword边界和/或访问大小大于一个Dword,则SIMD16消息槽可以映射至多于一个存储体。在这个实施例中,交叉检查所有槽是否存在存储体冲突。
当SLMFE 1610A、1610B处理传入SIMD消息1603A、1604B的槽请求1604A、1604B时,每存储体生成至多1个请求。在消息内存在存储体冲突的情况下,每周期将发送冲突请求中仅一个。在一个实施例中,每个EU 1602A、1602B具有相应的SLMFE 1610A、1610B,使得能够针对每个SIMD消息独立地处理槽请求1604A、1604B。在一些实施例中,根据图形处理器实施方式的吞吐量要求,执行单元1602A、1602B可以被复用至SLM前端(例如,SLMFE1610A或SLMFE 1610B)中的单个前端,并且共享的SLM前端可以处理多个执行单元的槽请求1604A、1604B。
来自每个SIMD消息1603A、1604B的槽请求1604A、1604B中的每一个的一组存储体请求1612由每存储体仲裁逻辑1614来处理。如图16中所展示的,针对每个存储体的仲裁逻辑接收来自每个SIMD消息1603A、1603B的存储体请求以及可能地针对存储体处的前一原子操作的回写请求作为输入。每个存储体处的仲裁逻辑1614在存储体的读取和写入端口处调度读取请求和写入请求。仲裁逻辑1614独立于可用请求器而仲裁读取和写入端口,并且通常被配置用于最大化每个存储体的端口的利用率。
在不同实施例中,利用用于执行仲裁的不同策略来配置仲裁逻辑。在一个实施例中,每个端口处的仲裁逻辑跟踪由于已经调度的原子操作的所有待决写入。
如果根据前一原子操作将回写调度至存储体,则此回写被赋予比新传入的写入请求更高的优先权。在一个实施例中,如果在同一周期内来自多个SIMD消息的传入请求属于同一类型(例如,读取或写入)并且是有效的,则使用轮询仲裁来处理跨多个周期的请求。在一个实施例中,如果多个传入请求是针对同一地址并且属于除了原子之外的同一类型,则这两个请求可以被合并为单个请求。如果这两个请求是针对同一地址并且是原子性的,则在单个周期内只服务一个请求,因为原子请求将占用读取端口和写入端口两者。在一个实施例中,仲裁逻辑确保到端口的请求在仲裁期间不会例如由于依赖性停滞而空等(starved)。如果检测到空等,则阻滞所有仲裁直到解决了对空等请求的依赖性并调度所述空等请求。
在一个实施例中,仲裁逻辑检查流水线中的真依赖性停滞(true dependencystall)。真依赖性停滞包括一种情境,在所述情境中,来自任何线程的新原子请求依赖于前一原子操作的结果,并且前一原子操作的结果还未被回写。真依赖性停滞还在来自线程的新读取请求依赖于还未被回写的该线程的原子操作结果的情况下出现。在真依赖性的情况下,依赖传入请求直到解决了依赖性才被选定用于执行。在一个实施例中,只跟踪真依赖性。例如,可能不会对到来自同一地址的不同线程的非原子(Non-Atomic)操作强加排序限制。
在一个实施例中,每个存储体处的仲裁逻辑将信号发送回到每个SLMFE1610A、1610B,以指示针对存储体的请求是否已经被仲裁逻辑选定用于调度。如果来自SLMFE的请求被调度,则SLMFE可以继续到来自同一SIMD消息的不同槽或者来自新SIMD消息的针对存储体的下一请求。如果未调度所述请求,则所述请求被保持为有效并且在下一周期内被处理。
由本文所描述的实施例提供的SLM访问方法可以使用利用以前的实施方式是不可能的技术来实现更高的SLM性能。通过在同一周期内检查消息槽多个SIMD消息,可以减少存储体冲突机会。此外,有更大的机会来合并或组合来自多个SIMD消息的请求。例如,如果来自多个消息的多个消息槽读取或写入同一地址,则在每存储体仲裁阶段,可以将SLM访问组合到单个存储体请求中。此外,当仲裁来自不同线程的SIMD消息时,除了针对同一地址的原子消息之外,不存在访问排序需求。进一步地,虽然在之前的SLM访问方案中,存储体仲裁每周期只处理一种类型的操作(读取操作、写入操作或原子操作),但是由本文所描述的实施例提供的仲裁控制逻辑通过尝试在每个访问周期期间使用存储体的读取端口和写入端口两者更高效地利用存储体读取和写入端口。
图17是根据实施例的针对图形处理器共享本地存储器的每端口存储体仲裁逻辑1700的流程图。在一个实施例中,每端口存储体仲裁逻辑可以与共享本地存储器的每个存储体耦合或相关联,如关于图16的仲裁控制逻辑1614所展示的。每端口存储体仲裁逻辑1700对到存储体的请求进行仲裁,并且将请求调度至共享本地存储器的存储体处的一个或多个读取和写入端口。
如1702处所示,每端口存储体仲裁逻辑1700可以在针对共享本地存储器的存储体的仲裁逻辑处接收第一访问请求。第一访问请求可以从图形处理器的第一执行单元上的第一线程接收。
如1704处所示,每端口存储体仲裁逻辑1700可以在针对共享本地存储器的存储体的仲裁逻辑处接收第二访问请求。第二访问请求可以从图形处理器的第二执行单元上的第二线程接收。
如1706处所示,每端口存储体仲裁逻辑1700在接收到至少第一访问请求和第二访问请求之后,可以将读取请求调度至共享本地存储器的存储体的读取端口。如1708处所示,所述逻辑然后可以在与调度读取请求的同一周期内将写入请求调度至共享本地存储器的存储体的写入端口,其中,第一请求和第二请求中的一个是读取请求并且另一请求是写入请求。
图18是根据实施例的访问合并逻辑1800的流程图。在一个实施例中,如图17中的每端口存储体仲裁逻辑1700可以根据访问合并逻辑1800来执行访问合并。访问合并逻辑1800可以用于将来自多个线程的读取请求或写入请求合并成属于同一类型并且针对同一地址的多个请求的单个访问。由于所仲裁的SIMD消息来自不同的线程,因此除了针对同一地址的原子消息之外,不存在排序需求。针对非原子访问请求,可以进行如下操作。
在一个实施例中,如1802处所示,访问合并逻辑1800可以在针对共享本地存储器的存储体的仲裁逻辑(如图17中的每端口存储体仲裁逻辑1700)处接收第一读取请求,其中,所述读取请求来自图形处理器的第一执行单元上的第一线程。
在1804处,访问合并逻辑1800可以在针对共享本地存储器的存储体的仲裁逻辑处接收第二读取请求,所述读取请求来自图形处理器的第二执行单元上的第二线程。
在1805处,访问合并逻辑1800可以判定第一读取请求与第二读取请求是否每个都针对同一地址。如果读取请求到同一地址,则在1806处,访问合并逻辑1800可以将第一读取请求与第二读取请求合并成组合读取请求。在1808处,将组合读取请求调度至共享本地存储器的存储体的读取端口。如果在1805处确定读取请求并非针对同一地址,则如1810处所示,访问合并逻辑1800可以将读取请求轮询调度至共享本地存储器的存储体的读取端口。
尽管访问合并逻辑1800被展示并描述为对来自多个线程的读取请求执行合并,但是合并操作不限于读取请求。在一个实施例中,可以以类似的方式来合并写入请求。
图19A至图19C是根据实施例的访问优先级逻辑1900、1910、1920的流程图。访问优先级逻辑1900、1910、1920可以由如图17中的每端口存储体仲裁逻辑1700实施为仲裁逻辑的一部分,通过所述仲裁逻辑在一个周期内服务针对共享本地存储器的存储体的多个传入请求的子集。
如图19A中所展示的,访问优先级逻辑1900可以赋予来自前一原子操作的回写操作优于新传入写入请求的优先级。在1902处,访问优先级逻辑1900可以处理在针对共享本地存储器的存储体的仲裁逻辑处所接收的非原子写入请求。在1904处,访问优先级逻辑1900可以在仲裁逻辑处处理针对共享本地存储器的存储体处的前一原子操作的回写请求。在此实例中,如在1906处所示,访问优先级逻辑1900确定处理原子回写请求并将非原子写入请求维持为有效以在后续访问周期内进行处理。
如在图19B中所展示的,访问优先级逻辑1910可以跟踪原子操作的依赖性以检查共享本地存储器流水线中的真依赖性停滞。如1912处所示,访问优先级逻辑1910可以处理在针对共享本地存储器的存储体的仲裁逻辑处接收的原子写入操作。
在1914处,访问优先级逻辑1910可以确定原子请求的一组依赖性。如果访问优先级逻辑1910在1905处确定从任何线程所接收的原子操作依赖于前一原子操作,则所述逻辑可以在1907处判定前一原子操作是否完成。例如,针对前一原子请求的回写操作可以是待决的,从而使得前一原子操作直到回写请求被处理才完成。如果访问优先级逻辑1910在1907处确定前一原子完成,则所述逻辑可以在1908处继续将原子请求调度到共享本地存储器的存储体的读取端口和写入端口。
如果在1907处确定前一原子操作在1907处未完成,则访问优先级逻辑1910确定在当前访问周期绕过所接收的原子请求。绕过原子请求可能导致将其他待决请求调度至共享本地存储器的存储体的读取端口和/或写入端口。
如在图19C中所展示的,访问优先级逻辑1920可以跟踪被停滞的操作,诸如等待解决依赖性的原子操作。例如并且在一个实施例中,如在1922处所示,访问优先级逻辑1920可以初始地判定在仲裁逻辑处所接收的任何访问请求是否被停滞。如1923处所示,访问优先级逻辑1920然后可以地判定访问请求是否已经被停滞达超过某一阈值的时间段。
如果在1923处,访问优先级逻辑1920确定访问请求未被停滞达超过阈值时间段,则如1928处所示,访问优先级逻辑1920可以引导每端口存储体仲裁逻辑继续标准仲裁过程。
如果在1923处,访问优先级逻辑1920确定访问请求被停滞超过阈值时间段,则访问优先级逻辑1920可以在1924处阻滞由每端口存储体仲裁逻辑所执行的所有仲裁逻辑。如1926处所示,访问优先级逻辑1920然后可以引导每端口存储体仲裁逻辑仅处理被停滞访问请求的依赖性。
尽管已经关于共享本地存储器的单个存储体处的仲裁逻辑描述了一些实施例,但本领域技术人员将认识到的是,每端口存储体仲裁逻辑可以包括在共享本地存储器的每个存储体处。此外,每个存储体将包括至少一个读取端口和至少一个写入端口。在一些实施例中,共享本地存储器的每个存储体可以包括多个读取端口和/或多个写入端口。
图20是与本文所描述的实施例相关联的包括用于执行运算的逻辑的图形核2000的框图。图形核2000包括足以执行通用图形和计算操作的执行资源。多个线程可以在图形核2000上同时执行。在一个实施例中,图形核2000(例如,切片)包括子核2006A、2006B、2006C的集群,所述子核集群可以是图5的子核550A至550N的变体。在一个实施例中,图形核包括共享资源2001,诸如图4的共享功能逻辑420。然而,在所展示的实施例中,子核2006A至2006C中的每一个包括采样器资源2003A至2003C和采样器高速缓存2013A、2013B、2013C。在一个实施例中,共享资源2001包括一组固定功能单元2002,例如以支持媒体、二维图形功能、以及用于图形和图形处理的像素后端操作。针对可编程图形和计算处理,线程分派器2004可以将执行线程分派至各个子核2006A至2006C,其中,本地分派单元2008A至2008C将执行线程分派至所述子核中的每一个的执行单元组2010A、2010B、2010C。执行单元组2010A至2010C中的每一个的执行单元的数量可以在实施例中变化。每个组2010A至2010C内的执行单元还可以基于工作负荷、功率或热状态而被动态地启用或禁用。
在一个实施例中,三级(L3)数据高速缓存2020在子核2006A至2006C中的每一个之间共享。L3数据高速缓存2020可以包括原子&屏障单元2022和共享本地存储器2024。原子&屏障单元2022包括用于支持跨线程组的屏障实施的专用逻辑,并且可用作基于纯编译器或软件的屏障实施的硬件替代方案。此外,原子&屏障单元2022实现对L3数据高速缓存2020或者共享本地存储器2024的一系列原子读取-修改-写入存储器操作。对全局存储器的原子操作可以经由L3数据高速缓存2020来支持。
在一个实施例中,共享本地存储器2024支持编程器管理的数据以用于硬件线程间共享,其访问等待时间类似于L3数据高速缓存2020的访问等待时间。在一个实施例中,共享本地存储器2024共享局限于同一子核2006A至2006C内的线程之间,不是所有实施例都共享这种局限性。
在图形核2000的执行资源上执行的线程可以使用本文所描述的访问技术来访问共享本地存储器2024。在一个实施例中,共享本地存储器2024包括十六个存储体,每个存储体包括至少一个读取端口和至少一个写入端口。其他实施例包括大于或小于十六个存储体,其中,每个存储体可以包括多个读取端口和/或多个写入端口。如图16中的仲裁控制逻辑1614可以耦合至共享本地存储器2024的每个存储体,以便通过在执行单元组2010A至2010C上执行的各线程来仲裁对存储器的访问。尽管关于所展示的图形核2000的共享本地存储器2024描述了每端口存储体仲裁,但是本文所描述的技术一般地适用于由图形处理器的多个线程所共享的多端口存储体存储器。
图21是根据实施例的包括图形处理器2104的计算设备2100的框图。计算设备2100可以是比如图1中的数据处理系统100的计算设备。计算设备2100还可以是比如机顶盒(例如,基于互联网的有线电视机顶盒等)、基于全球定位系统(GPS)的设备等通信设备,或者被包括在所述通信设备内。计算设备2100还可以是比如蜂窝电话、智能电话、个人数字助理(PDA)、平板计算机、膝上型计算机、电子阅读器、智能电视、电视平台、可穿戴设备(例如,眼镜、手表、手环、智能卡、珠宝、衣物等)、媒体播放器等移动计算设备,或者被包括在所述移动计算设备内。例如,在一个实施例中,计算设备2100包括移动计算设备,所述移动计算设备采用将计算设备2100的各种硬件部件和/或软件组件集成在单个芯片上的集成电路(“IC”),比如芯片上系统(“SoC”或“SOC”)。
计算设备2100包括图形处理器2104,所述图形处理器可以是本文所描述的任何图形处理器。图形处理器2104包括用于将数据本地地存储在图形处理器2104内以实现低等待时间访问的芯片上共享本地存储器2124。图形处理器2104还包括用于提供针对对共享本地存储器2124的访问请求的每端口仲裁的共享本地存储器(SLM)仲裁逻辑2144。在一个实施例中,诸如L3高速缓存或其他类型的高速缓存存储器等高速缓存存储器2114也可以包含共享本地存储器。在一个实施例中,高速缓存2114是诸如图2的嵌入式存储器模块218的嵌入式存储器模块,其一部分也可以使用本文所描述的每存储体仲裁技术来访问。
图形处理器还包括一个或多个图形引擎2154,所述图形引擎可以包括图20的图形核2000、或者本文所描述的图形执行逻辑(诸如图6的执行逻辑600)的一个或多个实例。(多个)图形引擎2154包括用于执行图形处理器线程的执行资源,所述图形处理器线程经由SLM仲裁逻辑2144来访问共享本地存储器2124。
图形处理器2104还包括显示引擎2134以将图形处理器耦合至显示设备。由图形处理器2104处理的数据被存储在硬件图形流水线内的缓冲器中,并且状态信息被存储在存储器2108中。所产生的图像然后被传送至显示引擎2134的显示控制器,以便经由比如图3的显示设备320等显示设备来输出。显示设备可以是各种类型的显示设备,比如,阴极射线管(CRT)、薄膜晶体管(TFT)、液晶显示器(LCD)、有机发光二极管(OLED)阵列等,并且可以被配置成向用户显示信息。
如所展示的,在一个实施例中,除了图形处理器2104之外,计算设备2100可以进一步包括任何数量和类型的硬件部件和/或软件组件,比如(但不限于)应用处理器2106、存储器2108、输入/输出(I/O)源2110。应用处理器2106可以如参照图3所展示的那样与硬件图形流水线交互,以共享图形流水线功能。应用处理器2106可以包括一个或多个处理器,比如图1的(多个)处理器102,并且可以是至少部分地用于执行计算设备2100的操作系统(OS)2102的中央处理单元(CPU)。OS 2102可以充当计算机设备2100的硬件资源和/或物理资源与用户之间的接口。OS 2102可以包括用于计算设备2100中的各种硬件设备的驱动器逻辑2122。驱动器逻辑2122可以包括图形驱动器逻辑2123,比如图10的用户模式图形驱动器1026和/或内核模式图形驱动器1029。在一个实施例中,图形驱动器逻辑2123被配置用于接收来自计算API的计算内核以在图形引擎2154上执行。
可以设想,在一些实施例中,图形处理器2104可以作为应用处理器2106的一部分(比如物理CPU封装体的一部分)而存在,在这种情况下,存储器2108的至少一部分可以由应用处理器2106和图形处理器2104来共享,但是存储器2108的至少一部分可以专用于图形处理器2104,或者图形处理器2104可以具有单独的存储器存储设备。存储器2108可以包括缓冲器(例如,帧缓冲器)的预分配区域;然而,本领域普通技术人员应当理解,实施例不限于此,并且可以使用低级图形流水线可访问的任何存储器。存储器2108可以包括各种形式的随机存取存储器(RAM)(例如,SDRAM、SRAM等),包括利用图形处理器2104来渲染桌面场景或3D图形场景的应用。比如图1的存储器控制器中枢116等存储器控制器中枢可以访问存储器2108中的数据并且将其转发到图形处理器2104以便进行图形流水线处理。可以使存储器2108对计算设备2100内的其他部件可用。例如,在实施软件程序或应用时由一个或多个处理器(例如,应用处理器2106)对从计算设备2100的各种I/O源2110接收的任何数据(例如,输入图形数据)进行操作之前,可以将所述数据临时排队到存储器2108中。类似地,软件程序确定应通过计算系统接口之一从计算设备2100发送到外部实体或存储到内部存储元件中的数据在其被传输或存储之前经常在存储器2108中临时排队。
I/O源可以包括比如触摸屏、触摸面板、触摸板、虚拟或常规键盘、虚拟或常规鼠标、端口、连接器、网络设备等设备,并且可以经由如图1所引用的输入/输出(I/O)控制中枢(ICH)130来附接。另外,I/O源2110可以包括一个或多个I/O设备,所述一个或多个I/O设备被实施为用于向和/或从计算设备2100(例如,网络适配器)传送数据;或者用于在计算设备2100(例如,硬盘驱动器)内进行大规模非易失性存储。包括字母数字及其他键的用户输入设备可以用于将信息和命令选择传达至图形处理器2104。另一类型的用户输入设备是用于将方向信息和命令选择传达至GPU并控制显示设备上的光标移动的光标控件,诸如鼠标、轨迹球、触摸屏、触摸板或光标方向键。可以采用计算机设备2100的相机和麦克风阵列来观察手势、记录音频和视频并接收和发射视觉命令和音频命令。
被配置为一个或多个网络接口的I/O源2110可以包括提供对网络的访问,诸如LAN、广域网(WAN)、城域网(MAN)、个域网(PAN)、蓝牙、云网络、蜂窝或移动网络(例如,第3代(3G)、第4代(4G)等)、内联网、互联网等。(多个)网络接口可以包括例如具有一个或多个天线的无线网络接口。(多个)网络接口还可以包括,例如,经由网络电缆与远程设备通信的有线网络接口,所述网络电缆可以是例如以太网电缆、同轴电缆、光缆、串行电缆或并行电缆。
(多个)网络接口可以例如通过遵循IEEE 802.11标准来提供对LAN的访问,和/或无线网络接口可以例如通过遵循蓝牙标准来提供对个域网的访问。还可以支持其他无线网络接口和/或协议,包括所述标准的先前的以及后续的版本。除了或代替经由无线LAN标准通信,(多个)网络接口可以使用例如以下协议来提供无线通信:时分多址(TDMA)协议、全球移动通信系统(GSM)协议、码分多址(CDMA)协议和/或任何其他类型的无线通信协议。
应当理解,对于某些实施方式,比在上文中所描述的示例更少或更多地配备的系统可以是优选的。因此,取决于众多因素,如价格约束、性能要求、技术改进或其他情况,计算设备2100的配置可以随着实施方式而改变。示例包括(但不限于):移动设备、个人数字助理、移动计算设备、智能电话、蜂窝电话、手持装置、单向寻呼机、双向寻呼机、消息收发设备、计算机、个人计算机(PC)、台式计算机、膝上型计算机、笔记本计算机、手持式计算机、平板计算机、服务器、服务器阵列或服务器场、web服务器、网络服务器、因特网服务器、工作站、小型计算机、大型计算机、超级计算机、网络装置、web装置、分布式计算系统、多处理器系统、基于处理器的系统、消费电子装置、可编程消费电子装置、电视、数字电视、机顶盒、无线接入点、基站、订户站、移动订户中心、无线电网络控制器、路由器、集线器、网关、桥接器、交换机、机器或上述各项的组合。
实施例可以被实施为以下各项中的任何一项或其组合:使用母板互连的一个或多个微芯片或集成电路、硬连线逻辑、由存储器设备存储且由微处理器执行的软件、固件、专用集成电路(ASIC)和/或现场可编程门阵列(FPGA)。以示例的方式,术语“逻辑”可以包括软件或硬件和/或软件和硬件的组合。
实施例可以被提供为例如计算机程序产品,所述计算机程序产品可以包括其上存储有机器可执行指令的一种或多种机器可读介质,所述机器可执行指令在由一个或多个机器(比如计算机、计算机网络或其他电子设备)执行时可以导致所述一个或多个机器执行根据在本文中所描述的实施例的操作。机器可读介质可以包括但不限于:软盘、光盘、CD-ROM(CD盘-只读存储器)以及磁光盘、ROM、RAM、EPROM(可擦除可编程只读存储器)、EEPROM(电可擦除可编程只读存储器)、磁卡或光卡、闪存、或者适合于存储机器可执行指令的其他类型的介质/机器可读介质。
此外,实施例可以作为计算机程序产品被下载,其中,可以经由通信链路(例如,调制解调器和/或网络连接),借助于在载波或其他传播介质中具体化和/或由载波或其他传播介质调制的一个或多个数据信号来将程序从远程计算机(例如,服务器)转移至请求计算机(例如,客户机)。
以下条款和/或示例涉及其特定实施例或示例。可在一个或多个实施例中的任何地方使用示例中的细节。可以以各种方式将不同的实施例或示例的各种特征与所包括的一些特征以及被排除的其他特征组合以适应各种不同的应用。示例可以包括主题,如,方法;用于执行方法的动作的装置;包括指令的至少一种机器可读介质,所述指令当由机器执行时使机器执行方法的动作;或根据本文中所述的实施例和示例的装置或系统。各组件可以是用于执行所描述的操作或功能的装置。
本领域技术人员将从以上描述中领会到,实施例的宽泛技术可以以各种形式实施。因此,虽然已经结合其特定示例描述了这些实施例,但是实施例的实际范围不应由此受限,因为其他的修改在本领域技术人员学习了附图、说明书和所附权利要求之后就将变得显而易见。
Claims (25)
1.一种图形处理器,包括:
第一逻辑,与第一执行单元耦合,所述第一逻辑用于接收来自所述第一执行单元的第一单指令多数据SIMD消息;
第二逻辑,与第二执行单元耦合,所述第二逻辑用于接收来自所述第二执行单元的第二单指令多数据SIMD消息;以及
第三逻辑,与共享本地存储器SLM的存储体耦合,所述第三逻辑用于接收来自所述第一逻辑的用于访问SLM的所述存储体的第一请求、来自所述第二逻辑的用于访问SLM的所述存储体的第二请求,并且用于在单个访问周期内针对所述第一请求将读取访问调度至读取端口以及针对所述第二请求将写入访问调度至写入端口。
2.如权利要求1所述的图形处理器,所述第三逻辑用于另外接收用于访问所述SLM的所述存储体的第三请求,其中,所述第三请求是对SLM的所述存储体的写入请求,所述第二请求是与在SLM的所述存储体处的前一原子操作相关联的回写请求,并且所述第三逻辑用于使所述第二请求优先于所述第三请求。
3.如权利要求2所述的图形处理器,其中,所述第三逻辑用于将所述第三请求维持为有效并且被配置用于在后续访问周期内处理所述第三请求。
4.如权利要求1-3中任一项所述的图形处理器,所述第三逻辑用于另外接收用于访问所述SLM的所述存储体的第三请求,其中,所述第三请求是来自所述第一逻辑的对SLM的所述存储体的写入请求,并且对所述写入端口的所述写入访问是针对所述第二请求和所述第三请求的组合写入。
5.如权利要求1所述的图形处理器,所述第三逻辑用于另外接收用于访问所述SLM的所述存储体的第三请求,其中,所述第三请求是来自所述第二逻辑的对SLM的所述存储体的读取请求,并且对所述读取端口的所述读取访问是针对所述第一请求和所述第三请求的组合读取。
6.如权利要求1所述的图形处理器,其中,所述第一请求来自所述第一执行单元上的第一线程,并且所述第二请求来自所述第二执行单元上的第二不同线程。
7.如权利要求6所述的图形处理器,其中,所述第一请求是来自所述第一线程的读取请求并且所述第二请求是来自所述第二不同线程的写入请求,所述读取请求被映射至SLM的所述存储体的第一端口并且所述写入请求被映射至SLM的所述存储体的第二端口。
8.如权利要求1所述的图形处理器,其中,所述第一逻辑用于检查所述SIMD消息内的每个槽并针对所述第一单指令多数据SIMD消息内的每个SLM访问请求确定相关联的SLM存储体,并且其中,所述第二逻辑用于检查所述SIMD消息内的每个槽并针对所述第二单指令多数据SIMD消息内的每个SLM访问请求确定相关联的SLM存储体。
9.如权利要求8所述的图形处理器,其中,所述第一逻辑用于检测所述第一单指令多数据SIMD消息内的存储体冲突并且所述第二逻辑用于检测所述第二单指令多数据SIMD消息内的存储体冲突,其中,用于访问SLM的所述存储体的第一端口的所述第一请求是在所述第一逻辑处所接收的一组冲突请求中的一个,并且用于访问SLM的所述存储体的第二端口的所述第二请求是在所述第二逻辑处所接收的一组冲突请求中的一个。
10.如权利要求1所述的图形处理器,另外包括所述第三逻辑的多个实例,其中,所述SLM的每个存储体与所述第三逻辑的实例耦合。
11.一种用于访问图形处理器内的共享本地存储器SLM的方法,所述方法包括:
在针对所述SLM的存储体的仲裁逻辑处接收第一访问请求,所述第一访问请求来自所述图形处理器的第一执行单元上的第一线程;
在针对所述SLM的所述存储体的仲裁逻辑处接收第二访问请求,所述第二访问请求来自所述图形处理器的第二执行单元上的第二线程;
将读取请求调度至所述SLM的所述存储体的读取端口;以及
在与所述读取请求同一周期内将写入请求调度至所述SLM的所述存储体的写入端口,其中,所述读取请求和所述写入请求中的每一个与所述第一访问请求或所述第二访问请求之一相关联。
12.如权利要求11所述的方法,另外包括:
接收来自图形处理器的第一电路处的所述第一执行单元的第一单指令多数据SIMD消息,所述第一单指令多数据SIMD消息包括针对所述SLM的多个访问请求;
在所述第一电路处针对于对所述SLM的所述多个访问请求中的每一个确定到所述SLM的一个或多个存储体的映射;以及
针对第一单指令多数据SIMD消息中的所述多个访问请求中的至少一个,将所述第一访问请求传输至针对所述SLM的所述存储体的所述仲裁逻辑。
13.如权利要求12所述的方法,另外包括:
接收来自图形处理器的第二电路处的所述第二执行单元的第二单指令多数据SIMD消息,所述第二单指令多数据SIMD消息包括针对所述SLM的多个访问请求;
在所述第二电路处针对于对所述SLM的所述多个访问请求中的每一个确定到所述SLM的一个或多个存储体的映射;
针对所述第二单指令多数据SIMD消息中的所述多个访问请求中的至少一个,将所述第二访问请求传输至针对所述SLM的所述存储体的所述仲裁逻辑;
在针对所述SLM的存储体的仲裁逻辑处接收第三访问请求,所述第三访问请求来自所述图形处理器的第一执行单元上的所述第一线程;以及
将所述第三访问请求与来自所述第二线程的所述第二访问请求合并。
14.如权利要求13所述的方法,另外包括:
在针对所述SLM的存储体的仲裁逻辑处接收第三访问请求,所述第三访问请求来自所述图形处理器的第一执行单元上的所述第二线程;以及
将所述第三访问请求与来自所述第二线程的所述第一访问请求合并。
15.如权利要求14所述的方法,另外包括:
在针对所述SLM的存储体的仲裁逻辑处接收第三访问请求,其中,所述第三访问请求是针对SLM的所述存储体的写入请求,所述第二访问请求是与在SLM的所述存储体处的前一原子操作相关联的回写请求;
针对所述第二访问请求,将所述写入请求调度至所述SLM的所述存储体的所述写入端口;
将所述第三访问请求维持为有效请求;以及
在后续访问周期内处理所述第三访问请求。
16.如权利要求11-15中任一项所述的方法,另外包括:
确定在针对所述SLM的存储体的仲裁逻辑处的第三访问请求由于未解决的依赖性而已经被停滞达超过某一阈值的时间段;
阻滞所述仲裁逻辑处的仲裁;以及
仅处理所述第三访问请求的依赖性。
17.一种数据处理系统,包括:
共享存储器,包括一个或多个存储体,所述一个或多个存储体中的每一个包括至少一个读取端口和至少一个写入端口;以及
图形处理器,所述图形处理器包括:第一逻辑,与第一执行单元耦合,所述第一逻辑用于接收来自所述第一执行单元的第一单指令多数据SIMD消息;第二逻辑,与第二执行单元耦合,所述第二逻辑用于接收来自所述第二执行单元的第二单指令多数据SIMD消息;以及第三逻辑,与共享存储器的所述一个或多个存储体中的存储体耦合,所述第三逻辑用于接收来自所述第一逻辑的用于访问共享存储器的所述存储体的第一请求、来自所述第二逻辑的用于访问共享存储器的所述存储体的第二请求,并且用于在单个访问周期内针对所述第一请求将读取访问调度至所述读取端口以及针对所述第二请求将写入访问调度至写入端口。
18.如权利要求17所述的数据处理系统,其中,所述图形处理器的所述第一逻辑用于检查所述SIMD消息内的每个槽并针对所述第一单指令多数据SIMD消息内对所述共享存储器的每个访问请求确定相关联的共享存储器存储体。
19.如权利要求18所述的数据处理系统,其中,所述图形处理器的所述第二逻辑用于检查所述SIMD消息内的每个槽并针对所述第二单指令多数据SIMD消息内对所述共享存储器的每个访问请求确定相关联的共享存储器存储体。
20.如权利要求19所述的数据处理系统,其中,所述图形处理器的所述第一逻辑用于检测所述第一单指令多数据SIMD消息内的存储体冲突,并且所述第二逻辑用于检测所述第二单指令多数据SIMD消息内的存储体冲突。
21.如权利要求20所述的数据处理系统,其中,用于访问共享存储器的所述存储体的第一端口的所述第一请求是在所述第一逻辑处所接收的一组冲突请求中的一个。
22.如权利要求21所述的数据处理系统,其中,用于访问共享存储器的所述存储体的第二端口的所述第二请求是在所述第二逻辑处所接收的一组冲突请求中的一个。
23.如权利要求17-22中任一项所述的数据处理系统,另外包括所述第三逻辑的多个实例,其中,所述共享存储器的每个存储体与所述第三逻辑的实例耦合。
24.如权利要求23所述的数据处理系统,其中,所述SIMD消息是SIMD16消息,并且所述共享存储器包括16个存储体。
25.如权利要求17所述的数据处理系统,其中,所述图形处理器的所述第三逻辑用于另外接收用于访问所述共享存储器的所述存储体的第三请求,其中,所述第三请求是对所述共享存储器的所述存储体的写入请求,所述第二请求是与在所述共享存储器的所述存储体处的前一原子操作相关联的回写请求,并且所述第三逻辑用于使所述第二请求优先于所述第三请求,以将所述第三请求维持为有效并且在后续访问周期内处理所述第三请求。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/203,907 US10089115B2 (en) | 2016-07-07 | 2016-07-07 | Apparatus to optimize GPU thread shared local memory access |
US15/203,907 | 2016-07-07 | ||
PCT/US2017/030900 WO2018009268A1 (en) | 2016-07-07 | 2017-05-03 | Apparatus to optimize gpu thread shared local memory access |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109313557A CN109313557A (zh) | 2019-02-05 |
CN109313557B true CN109313557B (zh) | 2023-07-11 |
Family
ID=60910773
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780035842.2A Active CN109313557B (zh) | 2016-07-07 | 2017-05-03 | 用于优化gpu线程共享本地存储器访问的装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10089115B2 (zh) |
CN (1) | CN109313557B (zh) |
WO (1) | WO2018009268A1 (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11372803B2 (en) * | 2018-04-03 | 2022-06-28 | Xilinx, Inc. | Data processing engine tile architecture for an integrated circuit |
US10970808B2 (en) * | 2019-06-24 | 2021-04-06 | Intel Corporation | Shared local memory read merge and multicast return |
CN110442389B (zh) * | 2019-08-07 | 2024-01-09 | 北京技德系统技术有限公司 | 一种多桌面环境共享使用gpu的方法 |
US11782713B1 (en) * | 2019-08-27 | 2023-10-10 | Amazon Technologies, Inc. | Security vulnerability mitigation using address space co-execution |
US11663043B2 (en) * | 2019-12-02 | 2023-05-30 | Meta Platforms, Inc. | High bandwidth memory system with dynamically programmable distribution scheme |
US20220197824A1 (en) * | 2020-12-15 | 2022-06-23 | Xsight Labs Ltd. | Elastic resource management in a network switch |
CN113553292B (zh) * | 2021-06-28 | 2022-04-19 | 睿思芯科(深圳)技术有限公司 | 一种向量处理器及相关数据访存方法 |
US11977496B1 (en) | 2022-09-29 | 2024-05-07 | Amazon Technologies, Inc. | Security vulnerability mitigation using hardware-supported context-dependent address space hiding |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4851995A (en) * | 1987-06-19 | 1989-07-25 | International Business Machines Corporation | Programmable variable-cycle clock circuit for skew-tolerant array processor architecture |
EP0671719A1 (en) * | 1994-03-08 | 1995-09-13 | Texas Instruments Incorporated | Transfer processor with transparency |
CN1784748A (zh) * | 2003-04-02 | 2006-06-07 | 反射公司 | 有选择地更新存储单元阵列的方法和设备 |
US7750915B1 (en) * | 2005-12-19 | 2010-07-06 | Nvidia Corporation | Concurrent access of data elements stored across multiple banks in a shared memory resource |
US8266382B1 (en) * | 2009-09-28 | 2012-09-11 | Nvidia Corporation | Cache interface protocol including arbitration and hints |
CN103927277A (zh) * | 2014-04-14 | 2014-07-16 | 中国人民解放军国防科学技术大学 | Cpu和gpu共享片上高速缓存的方法及装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7339592B2 (en) | 2004-07-13 | 2008-03-04 | Nvidia Corporation | Simulating multiported memories using lower port count memories |
US20080282034A1 (en) | 2005-09-19 | 2008-11-13 | Via Technologies, Inc. | Memory Subsystem having a Multipurpose Cache for a Stream Graphics Multiprocessor |
US8533435B2 (en) | 2009-09-24 | 2013-09-10 | Nvidia Corporation | Reordering operands assigned to each one of read request ports concurrently accessing multibank register file to avoid bank conflict |
US9286256B2 (en) | 2009-09-28 | 2016-03-15 | Nvidia Corporation | Sharing data crossbar for reads and writes in a data cache |
-
2016
- 2016-07-07 US US15/203,907 patent/US10089115B2/en active Active
-
2017
- 2017-05-03 WO PCT/US2017/030900 patent/WO2018009268A1/en active Application Filing
- 2017-05-03 CN CN201780035842.2A patent/CN109313557B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4851995A (en) * | 1987-06-19 | 1989-07-25 | International Business Machines Corporation | Programmable variable-cycle clock circuit for skew-tolerant array processor architecture |
EP0671719A1 (en) * | 1994-03-08 | 1995-09-13 | Texas Instruments Incorporated | Transfer processor with transparency |
CN1784748A (zh) * | 2003-04-02 | 2006-06-07 | 反射公司 | 有选择地更新存储单元阵列的方法和设备 |
US7750915B1 (en) * | 2005-12-19 | 2010-07-06 | Nvidia Corporation | Concurrent access of data elements stored across multiple banks in a shared memory resource |
US8266382B1 (en) * | 2009-09-28 | 2012-09-11 | Nvidia Corporation | Cache interface protocol including arbitration and hints |
CN103927277A (zh) * | 2014-04-14 | 2014-07-16 | 中国人民解放军国防科学技术大学 | Cpu和gpu共享片上高速缓存的方法及装置 |
Non-Patent Citations (2)
Title |
---|
A novel architecture of local memory for programmable SIMD vision chip;Zhe Chen;《2013 IEEE 10th International Conference on ASIC》;20140508;全文 * |
并行算法及其应用;戴波;《中国优秀硕士学位论文全文数据库》;20021215(第2期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
US20180011711A1 (en) | 2018-01-11 |
US10089115B2 (en) | 2018-10-02 |
WO2018009268A1 (en) | 2018-01-11 |
CN109313557A (zh) | 2019-02-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11803934B2 (en) | Handling pipeline submissions across many compute units | |
US10860468B2 (en) | Guaranteed forward progress mechanism | |
CN109313557B (zh) | 用于优化gpu线程共享本地存储器访问的装置 | |
US10430189B2 (en) | GPU register allocation mechanism | |
CN109196550B (zh) | 用于针对虚拟现实和多视图系统进行交织光栅化和像素着色的架构 | |
KR20190027367A (ko) | 멀티 코어 컴퓨팅 아키텍처에서 그래픽 작업부하를 가속화하기 위한 메커니즘 | |
US20180107602A1 (en) | Latency and Bandwidth Efficiency Improvement for Read Modify Write When a Read Operation is Requested to a Partially Modified Write Only Cacheline | |
EP3591519B1 (en) | Method and apparatus for simultaneously executing multiple contexts on a graphics engine | |
US20200258191A1 (en) | Thread prefetch mechanism | |
CN108604185B (zh) | 用于将工作负荷有效地提交到高性能图形子系统的方法和装置 | |
US11237993B2 (en) | Source synchronized signaling mechanism | |
US10409571B1 (en) | Apparatus and method for efficiently accessing memory when performing a horizontal data reduction | |
US11579878B2 (en) | Register sharing mechanism to equally allocate disabled thread registers to active threads | |
CN111798362A (zh) | 硬件索引映射机制 | |
US11354768B2 (en) | Intelligent graphics dispatching mechanism | |
US10909037B2 (en) | Optimizing memory address compression | |
CN109155077B (zh) | 渐进渲染的体积光线追踪 | |
US20200175643A1 (en) | High vertex count geometry work distribution for multi-tile gpus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |