CN108734634A - 用于图形的顺序独立异步计算和流传送 - Google Patents
用于图形的顺序独立异步计算和流传送 Download PDFInfo
- Publication number
- CN108734634A CN108734634A CN201810343745.6A CN201810343745A CN108734634A CN 108734634 A CN108734634 A CN 108734634A CN 201810343745 A CN201810343745 A CN 201810343745A CN 108734634 A CN108734634 A CN 108734634A
- Authority
- CN
- China
- Prior art keywords
- graphics
- memory
- processor
- data
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 claims abstract description 298
- 238000003860 storage Methods 0.000 claims abstract description 110
- 238000004364 calculation method Methods 0.000 claims abstract description 34
- 230000002085 persistent effect Effects 0.000 claims abstract description 6
- 238000000034 method Methods 0.000 claims description 165
- 238000009877 rendering Methods 0.000 claims description 72
- 238000005194 fractionation Methods 0.000 claims description 8
- 230000015654 memory Effects 0.000 description 255
- 230000008569 process Effects 0.000 description 67
- 239000000872 buffer Substances 0.000 description 57
- 230000006870 function Effects 0.000 description 52
- 238000010586 diagram Methods 0.000 description 43
- 230000001133 acceleration Effects 0.000 description 37
- 235000019587 texture Nutrition 0.000 description 37
- 238000004891 communication Methods 0.000 description 30
- 238000005516 engineering process Methods 0.000 description 25
- 238000013316 zoning Methods 0.000 description 23
- 238000004040 coloring Methods 0.000 description 22
- 238000007726 management method Methods 0.000 description 21
- 238000013461 design Methods 0.000 description 20
- 238000009826 distribution Methods 0.000 description 20
- 230000033001 locomotion Effects 0.000 description 16
- 239000013598 vector Substances 0.000 description 16
- 230000008859 change Effects 0.000 description 15
- 238000012805 post-processing Methods 0.000 description 15
- 238000013507 mapping Methods 0.000 description 14
- 230000007246 mechanism Effects 0.000 description 14
- 239000003795 chemical substances by application Substances 0.000 description 11
- 230000008878 coupling Effects 0.000 description 11
- 238000010168 coupling process Methods 0.000 description 11
- 238000005859 coupling reaction Methods 0.000 description 11
- 239000012634 fragment Substances 0.000 description 11
- 108091006146 Channels Proteins 0.000 description 9
- 238000002156 mixing Methods 0.000 description 9
- 230000036544 posture Effects 0.000 description 9
- 238000004458 analytical method Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 8
- 238000011156 evaluation Methods 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 7
- 230000006835 compression Effects 0.000 description 7
- 238000007906 compression Methods 0.000 description 7
- 238000001514 detection method Methods 0.000 description 7
- 230000014509 gene expression Effects 0.000 description 7
- 235000019580 granularity Nutrition 0.000 description 7
- 238000012360 testing method Methods 0.000 description 7
- 230000008901 benefit Effects 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 6
- 238000004590 computer program Methods 0.000 description 6
- 238000007667 floating Methods 0.000 description 6
- 238000004519 manufacturing process Methods 0.000 description 6
- 230000002093 peripheral effect Effects 0.000 description 6
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 6
- 230000006399 behavior Effects 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 5
- 239000013256 coordination polymer Substances 0.000 description 5
- 238000005538 encapsulation Methods 0.000 description 5
- 238000001914 filtration Methods 0.000 description 5
- 238000005457 optimization Methods 0.000 description 5
- 230000002829 reductive effect Effects 0.000 description 5
- 238000005070 sampling Methods 0.000 description 5
- 238000012546 transfer Methods 0.000 description 5
- 238000013519 translation Methods 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 102100031051 Cysteine and glycine-rich protein 1 Human genes 0.000 description 4
- 101000922020 Homo sapiens Cysteine and glycine-rich protein 1 Proteins 0.000 description 4
- 101001019104 Homo sapiens Mediator of RNA polymerase II transcription subunit 14 Proteins 0.000 description 4
- 238000000151 deposition Methods 0.000 description 4
- 238000011161 development Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 238000005192 partition Methods 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 230000001360 synchronised effect Effects 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 241001269238 Data Species 0.000 description 3
- 102100035964 Gastrokine-2 Human genes 0.000 description 3
- 101001075215 Homo sapiens Gastrokine-2 Proteins 0.000 description 3
- 230000009471 action Effects 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 3
- 230000005611 electricity Effects 0.000 description 3
- 230000001976 improved effect Effects 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 239000003973 paint Substances 0.000 description 3
- 238000007639 printing Methods 0.000 description 3
- 230000001737 promoting effect Effects 0.000 description 3
- 230000008707 rearrangement Effects 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 230000008093 supporting effect Effects 0.000 description 3
- 230000032258 transport Effects 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000000996 additive effect Effects 0.000 description 2
- 230000002153 concerted effect Effects 0.000 description 2
- 238000013501 data transformation Methods 0.000 description 2
- 230000006837 decompression Effects 0.000 description 2
- 238000007654 immersion Methods 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 230000014759 maintenance of location Effects 0.000 description 2
- 230000000873 masking effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- LKPZQKREAUELRB-UHFFFAOYSA-N 4,5-dihydroxy-3-methoxy-6-[(3,4,5,6-tetrahydroxyoxan-2-yl)methoxy]oxane-2-carboxylic acid Chemical compound COC1C(O)C(O)C(OCC2OC(O)C(O)C(O)C2O)OC1C(=O)O LKPZQKREAUELRB-UHFFFAOYSA-N 0.000 description 1
- 102100034112 Alkyldihydroxyacetonephosphate synthase, peroxisomal Human genes 0.000 description 1
- 101000799143 Homo sapiens Alkyldihydroxyacetonephosphate synthase, peroxisomal Proteins 0.000 description 1
- 101000912503 Homo sapiens Tyrosine-protein kinase Fgr Proteins 0.000 description 1
- 241001062009 Indigofera Species 0.000 description 1
- 230000018199 S phase Effects 0.000 description 1
- 102100026150 Tyrosine-protein kinase Fgr Human genes 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000000848 angular dependent Auger electron spectroscopy Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 238000000701 chemical imaging Methods 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 201000006549 dyspepsia Diseases 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 210000003414 extremity Anatomy 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 238000009415 formwork Methods 0.000 description 1
- 238000005469 granulation Methods 0.000 description 1
- 230000003179 granulation Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 229910052738 indium Inorganic materials 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012432 intermediate storage Methods 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000009608 myelography Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000001259 photo etching Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000002203 pretreatment Methods 0.000 description 1
- 238000011112 process operation Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 239000012536 storage buffer Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000010977 unit operation Methods 0.000 description 1
- 210000003462 vein Anatomy 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 238000005303 weighing Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/48—Program initiating; Program switching, e.g. by interrupt
- G06F9/4806—Task transfer initiation or dispatching
- G06F9/4843—Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
- G06F9/4881—Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F15/00—Digital computers in general; Data processing equipment in general
- G06F15/16—Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
- G06F15/163—Interprocessor communication
- G06F15/167—Interprocessor communication using a common memory, e.g. mailbox
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F15/00—Digital computers in general; Data processing equipment in general
- G06F15/16—Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
- G06F15/163—Interprocessor communication
- G06F15/17—Interprocessor communication using an input/output type connection, e.g. channel, I/O port
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/38—Concurrent instruction execution, e.g. pipeline or look ahead
- G06F9/3867—Concurrent instruction execution, e.g. pipeline or look ahead using instruction pipelines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/38—Concurrent instruction execution, e.g. pipeline or look ahead
- G06F9/3885—Concurrent instruction execution, e.g. pipeline or look ahead using a plurality of independent parallel functional units
- G06F9/3887—Concurrent instruction execution, e.g. pipeline or look ahead using a plurality of independent parallel functional units controlled by a single instruction for multiple data lanes [SIMD]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/60—Memory management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/80—Shading
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/10—Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Image Generation (AREA)
- Image Processing (AREA)
Abstract
一种电子处理系统的实施例可以包括应用处理器、通信地耦合到应用处理器的持久存储介质、以及通信地耦合到应用处理器的图形子系统。该系统可以包括以下一个或多个:通信地耦合到应用处理器和图形子系统以重排序两个或更多绘图调用的绘图调用重排序器;通信地耦合到应用处理器和图形子系统以采用顺序独立模式来重排序两个或更多工作项的工作负载重排序器;被包括在所述两个或更多绘图调用中的至少一个中的队列图元,其用于定义生产方阶段和消费方阶段;以及通信地耦合到应用处理器和图形子系统的顺序独立执行器,其用于提供计算阶段的基于图块的顺序独立执行。其他实施例被公开并要求权利。
Description
技术领域
实施例一般涉及经由图形处理单元的数据处理和图形处理。更具体地,实施例涉及用于图形的顺序独立异步计算和/或流传送。
背景技术
当前并行图形数据处理包含被开发以对图形数据执行特定操作的系统和方法,所述特定操作诸如例如,线性内插、曲面细分、光栅化、纹理映射、深度测试、等等。惯例地,图形处理器使用固定功能计算单元来处理图形数据;然而,最近,部分的图形处理器已经被作成可编程,使此类处理器能够支持用于处理顶点和片段数据的各种各样的操作。在一些系统中,可同步地或按照特定顺序来执行各种操作。
附图说明
实施例的各种优点将通过阅读以下说明书和所附权利要求以及通过参考以下附图而对本领域技术人员变得显而易见,在附图中:
图1是框图,其示出配置成实现本文描述的实施例的一个或多个方面的计算机系统;
图2A-2D示出了根据实施例的并行处理器部件;
图3A-3B是根据实施例的图形多处理器的框图;
图4A-4F示出了示例性架构,其中多个GPU通信地耦合至多个多核处理器;
图5示出了根据实施例的图形处理流水线;
图6是根据实施例的电子处理系统的示例的框图;
图7A是根据实施例的图形设备的示例的框图;
图7B至7C是根据实施例的重排序绘图调用的方法的示例的流程图;
图7D到7F是根据实施例的重排序的绘图调用的示例的说明图;
图8A是根据实施例的图形设备的另一示例的框图;
图8B至8C是根据实施例的重排序工作项的方法的示例的流程图;
图8D至8E是根据实施例的重排序的工作项的示例的说明图;
图8F是根据实施例的图形系统的示例的框图;
图8G是根据实施例的图形系统的另一示例的框图;
图9A是根据实施例的图形设备的另一示例的框图;
图9B至9C是根据实施例的处理图形工作负载的方法的示例的流程图;
图9D是根据实施例的图形系统的另一示例的框图;
图10A是根据实施例的图形设备的另一示例的框图;
图10B是根据实施例的处理图形工作负载的方法的示例的流程图;
图10C是根据实施例的图形系统的另一示例的框图;
图10D是根据实施例的工作调度器的示例的框图;
图10E是根据实施例的渲染目标的示例的说明图;
图10F是根据实施例的基于图块的异步计算的示例的说明图;
图10G到10H是根据实施例的基于图块的异步计算的另一示例的说明图;
图11是根据实施例的头戴式显示器(HMD)系统的示例的图示;
图12是根据实施例包括于图11的HMD系统中的功能部件的示例的框图;
图13是根据实施例包括于并行处理单元中的通用处理集群的示例的框图;
图14是根据实施例可在并行处理单元内实现的图形处理流水线的示例的概念图示;
图15是根据实施例的流传送多处理器的示例的框图;
图16-18是根据实施例的数据处理系统的概述的示例的框图;
图19是根据实施例的图形处理引擎的示例的框图;
图20-22是根据实施例的执行单元的示例的框图;
图23是根据实施例的图形流水线的示例的框图;
图24A-24B是根据实施例的图形流水线编程的示例的框图;
图25是根据实施例的图形软件架构的示例的框图;
图26是根据实施例的知识产权(IP)核开发系统的示例的框图;以及
图27是根据实施例的芯片上系统集成电路的示例的框图。
具体实施方式
在以下描述中,阐述了许多特定细节以提供对本公开的更全面理解。然而,对本领域技术人员之一显而易见的是,在没有一个或多个这些特定细节的情况下也可实践本发明。在其他实例中,尚未描述公知特征以便避免使本发明难以理解。
系统概述
图1是框图,其示出配置成实现本文描述的实施例的一个或多个方面的计算系统。计算系统100包括处理子系统101,所述处理子系统101具有一个或多个处理器102和系统存储器104,所述一个或多个处理器102与所述系统存储器104经由可包括存储器中枢105的互连路径来通信。存储器中枢105可以是芯片组部件内的单独部件,或可以集成在所述一个或多个处理器102内。存储器集线器105经由通信链路106与I/O子系统111耦合。I/O子系统111包括I/O中枢107,所述I/O中枢107可以使得计算系统100能够从一个或多个输入装置108接收输入。另外,I/O中枢107可以使得显示器控制器能够将输出提供给一个或多个显示装置110A,所述显示器控制器可被包括在所述一个或多个处理器102中。在一个实施例中,与I/O中枢107耦合的所述一个或多个显示装置110A可以包括局部、内部或嵌入式显示装置。
在一个实施例中,处理子系统101包括一个或多个并行处理器112,所述并行处理器112经由总线或其他通信链路113耦合至存储器中枢105。通信链路113可以是任何数量的基于标准的通信链路技术或协议之一(诸如但不限于,PCI快速),或可以是供应方特定的通信接口或通信结构。在一个实施例中,所述一个或多个并行处理器112形成计算上集中的并行或向量处理系统,所述系统包括大量处理核和/或处理集群(诸如,集成众核(MIC)处理器)。在一个实施例中,所述一个或多个并行处理器112形成图形处理子系统,所述图形处理子系统可以将像素输出到经由I/O中枢107耦合的所述一个或多个显示装置110A之一。所述一个或多个并行处理器112还可以包括显示器控制器和显示器接口(未示出)以能够实现到一个或多个显示装置110B的直接连接。
在I/O子系统111内,系统存储单元114可以连接到I/O中枢107以提供用于计算系统100的存储机制。I/O开关116可以用于提供接口机制以能够实现I/O中枢107与其他部件(诸如,可集成到平台中的网络适配器118和/或无线网络适配器119,以及可以经由一个或多个插入式装置120添加的各种其他装置)之间的连接。网络适配器118可以是以太网适配器或另一有线网络适配器。无线网络适配器119可以包括以下项中的一项或多项:Wi-Fi、蓝牙、近场通信(NFC)、或包括一个或多个无线无线电装置(wireless radio)的另一网络装置。
计算系统100可以包括未显式示出的其他部件,包括USB或其他端口连接件、光学存储驱动、视频捕获装置、和诸如此类,它们也可连接到I/O中枢107。使图1中的各种部件互连的通信路径可使用任何合适的协议来实现,诸如基于PCI(外围部件互连)的协议(例如,PCI快速)或任何其他总线或点对点通信接口和/或协议(诸如,NV-Link高速互连、或本领域中已知的互连协议)。
在一个实施例中,所述一个或多个并行处理器112合并针对图形和视频处理进行优化的电路(包括例如,视频输出电路),并且构成图形处理单元(GPU)。在另一个实施例中,所述一个或多个并行处理器112合并针对通用处理进行优化的电路,同时保持本文更详细地描述的底层计算架构。在又一个实施例中,计算系统100的部件可与一个或多个其他系统元件一起集成在单个集成电路上。例如,所述一个或多个并行处理器112、存储器中枢105、处理器102和I/O中枢107可以集成到芯片上系统(SoC)集成电路中。可替代地,计算系统100的部件可以集成到单个封装中以形成封装中系统(SIP)配置。在一个实施例中,计算系统100的部件的至少一部分可以集成到多芯片模块(MCM)中,所述MCM可以与其他多芯片模块一起互连到模块化计算系统中。
将认识到的是,本文示出的计算系统100是说明性的,并且变化和修改是有可能的。可如期望的来修改连接拓扑,包括桥的数量和布置、(一个或多个)处理器102的数量和(一个或多个)并行处理器112的数量。例如,在一些实施例中,系统存储器104直接而非通过桥而被连接到(一个或多个)处理器102,而其他装置经由存储器中枢105与(一个或多个)处理器102和系统存储器104通信。在其他替代性拓扑中,(一个或多个)并行处理器112连接到I/O中枢107或直接连接到所述一个或多个处理器102之一,而非连接到存储器中枢105。在其他实施例中,I/O中枢107和存储器中枢105可集成到单个芯片中。一些实施例可包括经由多个插口附连的两组或更多组处理器102,它们可以与(一个或多个)并行处理器112的两个或更多个实例耦合。
本文中示出的具体部件中的一些是可选的,并且可以不被包括在计算系统100的所有实现中。例如,可支持任何数量的插入式卡或外围装置,或可消除一些部件。此外,一些架构可对于与图1中示出的那些部件类似的部件使用不同的术语。例如,在一些架构中,存储器中枢105可称为北桥,而I/O中枢107可称为南桥。
图2A示出了根据实施例的并行处理器200。并行处理器200的各种部件可使用一个或多个集成电路装置(诸如可编程处理器、专用集成电路(ASIC)或现场可编程门阵列(FPGA))来实现。根据实施例,所示出的并行处理器200是图1中所示的一个或多个并行处理器112的变体。
在一个实施例中,并行处理器200包括并行处理单元202。所述并行处理单元包括I/O单元204,所述I/O单元204能够实现与其他装置(包括并行处理单元202的其他实例)的通信。I/O单元204可直接连接到其他装置。在一个实施例中,I/O单元204经由使用中枢或开关接口(诸如,存储器中枢105)来与其他装置连接。存储器中枢105与I/O单元204之间的连接形成通信链路113。在并行处理单元202内,I/O单元204与主机接口206和存储器交叉开关(memory crossbar)216连接,其中,主机接口206接收针对执行处理操作的命令,并且存储器交叉开关216接收针对执行存储器操作的命令。
当主机接口206经由I/O单元204接收命令缓冲器时,主机接口206可以将用于执行那些命令的工作操作导引至前端208。在一个实施例中,前端208与调度器210耦合,该调度器210配置成将命令或其他工作项分布至处理集群阵列212。在一个实施例中,调度器210确保在任务被分布至处理集群阵列212的处理集群之前,处理集群阵列212被适当地配置且处于有效状态。在一个实施例中,调度器210是经由在微控制器上执行的固件逻辑来实现的。微控制器实现的调度器210可配置成以粗糙粒度和精细粒度来执行复杂的调度和工作分布操作,从而能够实现在处理阵列212上执行的线程的上下文切换和快速抢占(rapidpreemption)。在一个实施例中,主机软件可以经由多个图形处理门铃(graphicsprocessing doorbell)之一来检验工作负荷在处理阵列212上调度。随后工作负荷可以由调度器微控制器内的调度器210逻辑来跨处理阵列212自动地分布。
处理集群阵列212可以包括多达“N”个处理集群(例如,集群214A、集群214B、直到集群214N)。处理集群阵列212的每一个集群214A-214N都可以执行大量的并发线程。调度器210可以使用各种调度和/或工作分布算法来将工作分配给处理集群阵列212的集群214A-214N,这可取决于针对每一种类型的程序或计算产生的工作负荷而变化。调度可以由调度器210动态地处置,或者可以在配置用于由处理集群阵列212执行的程序逻辑的编译期间部分地由编译器逻辑进行辅助。在一个实施例中,可以将处理集群阵列212的不同集群214A-214N分配用于处理不同类型的程序,或用于执行不同类型的计算。
可以将处理集群阵列212配置成执行各种类型的并行处理操作。在一个实施例中,将处理集群阵列212配置成执行通用并行计算操作。例如,处理集群阵列212可以包括用于执行处理任务的逻辑,所述处理任务包括过滤视频和/或音频数据、执行建模操作(包括物理操作)、以及执行数据变换。
在一个实施例中,处理集群阵列212配置成执行并行的图形处理操作。在其中并行处理器200配置成执行图形处理操作的实施例中,处理集群阵列212可以包括用于支持执行此类图形处理操作的附加逻辑,包括但不限于用于执行纹理操作的纹理采样逻辑、以及曲面细分逻辑和其他顶点处理逻辑。另外,处理集群阵列212可以配置成执行图形处理相关着色器程序,诸如但不限于顶点着色器、曲面细分着色器、几何着色器和像素着色器。并行处理单元202可以经由I/O单元204来转移来自系统存储器的数据以供处理。在处理期间,可以将所转移的数据在处理期间存储到芯片上存储器(例如,并行处理器存储器222),然后将其写回到系统存储器。
在一个实施例中,当并行处理单元202用于执行图形处理时,调度器210可以配置成将处理工作负荷划分成近似相等大小的任务,以更好地使得能够将图形处理操作分布到处理集群阵列212中的多个集群214A-214N。在一些实施例中,处理集群阵列212的多个部分可以配置成执行不同类型的处理。例如,第一部分可配置成执行顶点着色和拓扑生成,第二部分可配置成执行曲面细分和几何着色,并且第三部分可配置成执行像素着色或其他屏幕空间操作,以产生供显示的渲染图像。由集群214A-214N中的一者或多者所产生的中间数据可存储在缓冲器中以允许在集群214A-214N之间传送所述中间数据以供进一步处理。
在操作期间,处理集群阵列212可以经由调度器210来接收待执行的处理任务,所述调度器从前端208接收定义处理任务的命令。针对图形处理操作,处理任务可以包括定义要如何处理数据(例如,要执行什么程序)的命令和状态参数以及待处理的数据(例如,表面(补丁(patch))数据、图元数据(primitive data)、顶点数据和/或像素数据)的索引。调度器210可配置成获取与任务相对应的索引,或可从前端208接收索引。前端208可以配置成确保在发起由进入的命令缓冲器(例如,分批缓冲器、推动缓冲器等)所指定的工作负荷之前处理集群阵列212配置成有效状态。
并行处理单元202的一个或多个实例中的每一个都可以与并行处理器存储器222耦合。并行处理器存储器222可以经由存储器交叉开关216来访问,存储器交叉开关216可以从处理集群阵列212以及I/O单元204接收存储器请求。存储器交叉开关216可以经由存储器接口218访问并行处理器存储器222。存储器接口218可以包括多个分区单元(例如,分区单元220A、分区单元220B、直到分区单元220N),其可以各自耦合至并行处理器存储器222的一部分(例如,存储器单元)。在一种实现中,将分区单元220A-220N的数量配置成等于存储器单元的数量,使得第一分区单元220A具有对应的第一存储器单元224A,第二分区单元220B具有对应的存储器单元224B,并且第N分区单元220N具有对应的第N存储器单元224N。在其他实施例中,分区单元220A-220N的数量可以不等于存储器装置的数量。
在各种实施例中,存储器单元224A-224N可以包括各种类型的存储器装置,包括动态随机存取存储器(DRAM)或图形随机存取存储器,诸如,同步图形随机存取存储器(SGRAM),包括图形双数据速率(GDDR)存储器。在一个实施例中,存储器单元224A-224N还可包括3D堆叠式存储器,包括但不限于高带宽存储器(HBM)。本领域技术人员将认识到,存储器单元224A-224N的特定实现可以变化,并且可以选自各种常规设计之一。渲染目标(诸如,帧缓冲器或纹理映射)可跨存储器单元224A-224N存储,从而允许分区单元220A-220N并行写入每个渲染目标的多个部分以高效地使用并行处理器存储器222的可用带宽。在一些实施例中,可排除并行处理器存储器222的本地实例,以有利于连同本地高速缓存存储器来利用系统存储器的统一存储器设计。
在一个实施例中,处理集群阵列212的集群214A-214N中的任何一个都可以处理将被写入到并行处理器存储器222内的存储器单元224A-224N中的任何一个的数据。可以将存储器交叉开关216配置成将每一个集群214A-214N的输出转移到任何分区单元220A-220N或另一集群214A-214N,其可以对输出执行附加处理操作。每一个集群214A-214N都可以通过存储器交叉开关216与存储器接口218通信,以便从各种外部存储器装置读取或向各种外部存储器装置写入。在一个实施例中,存储器交叉开关216具有到存储器接口218的连接以与I/O单元204通信,以及到并行处理器存储器222的本地实例的连接,从而使不同处理集群214A-214N内的处理单元能够与系统存储器或不在并行处理单元202本地的其他存储器通信。在一个实施例中,存储器交叉开关216可以使用虚拟通道以分离集群214A-214N与分区单元220A-220N之间的业务流。
虽然在并行处理器200内示出了并行处理单元202的单个实例,但是可以包括并行处理单元202的任何数量的实例。例如,可以在单个插入式卡上提供并行处理单元202的多个实例,或可以将多个插入式卡互连。并行处理单元202的不同实例可以配置成即使所述不同实例具有不同数量的处理核、不同量的本地并行处理器存储器和/或其他配置差异也还互操作。例如且在一个实施例中,并行处理单元202的一些实例可以相对于其他实例包括更高精度浮点单元。合并并行处理单元202或并行处理器200的一个或多个实例的系统可以以多种配置和形状因子(form factor)来实现,包括但不限于桌上型、膝上型、或手持式个人计算机、服务器、工作站、游戏控制台和/或嵌入式系统。
图2B是根据实施例的分区单元220的框图。在一个实施例中,分区单元220是图2A的分区单元220A-220N之一的实例。如所示出,分区单元220包括L2高速缓存221、帧缓冲器接口225和ROP 226(光栅操作单元)。L2高速缓存221是读/写高速缓存,其配置成执行从存储器交叉开关216和ROP 226接收的加载和存储操作。由L2高速缓存221将读未命中(readmiss)和紧急回写请求输出到帧缓冲器接口225以供处理。也可以经由帧缓冲器接口225将更新发送到帧缓冲器以供处理。在一个实施例中,帧缓冲器接口225与并行处理器存储器中的存储器单元(诸如,图2的存储器单元224A-224N(例如,在并行处理器存储器222内))之一进行接口。
在图形应用中,ROP 226是执行诸如模板印刷(stencil)、z测试、混合、和诸如此类的光栅操作的处理单元。随后ROP 226输出存储在图形存储器中的处理的图形数据。在一些实施例中,ROP 226包括压缩逻辑,该压缩逻辑用于压缩写入到存储器的深度或颜色数据,并且解压缩从存储器读取的深度或颜色数据。压缩逻辑可以是利用多种压缩算法中的一种或多种压缩算法的无损压缩逻辑。由ROP 226所执行的压缩的类型可以基于待压缩的数据的统计特性而变化。例如,在一个实施例中,△颜色压缩逐图块地对深度和颜色数据来执行。
在一些实施例中,ROP 226被包括在每个处理集群(例如,图2的集群214A-214N)内而非包括在分区单元220内。在此类实施例中,通过存储器交叉开关216来传送针对像素数据的读和写请求而非像素片段数据。处理的图形数据可在显示装置(诸如,图1的所述一个或多个显示装置110之一)上显示、被路由以供由(一个或多个)处理器102进一步处理、或被路由以供由图2A的并行处理器200内的处理实体之一进一步处理。
图2C是根据实施例的并行处理单元内的处理集群214的框图。在一个实施例中,处理集群是图2的处理集群214A-214N之一的实例。处理集群214可以配置成并行执行许多线程,其中,术语“线程”是指在具体一组输入数据上执行的具体程序的实例。在一些实施例中,在不提供多个独立指令单元的情况下,使用单指令多数据(SIMD)指令发布技术以支持对大量线程的并行执行。在其他实施例中,使用配置成将指令发布到处理集群中的每一者内的一组处理引擎的公共指令单元,使用单指令多线程(SIMT)技术以支持大量一般同步的线程的并行执行。不同于SIMD执行制度(其中,所有处理引擎通常执行相同的指令),SIMT执行允许不同线程更容易沿着发散式(divergent)执行路径而通过给定线程程序。本领域技术人员将理解,SIMD处理制度表示SIMT处理制度的功能子集。
可以经由流水线管理器232来控制处理集群214的操作,所述流水线管理器将处理任务分布到SIMT并行处理器。流水线管理器232从图2的调度器210接收指令,并且经由图形多处理器234和/或纹理单元236来管理那些指令的执行。所示出的图形多处理器234是SIMT并行处理器的示例性实例。然而,不同架构的各种类型的SIMT并行处理器可被包括在处理集群214内。图形多处理器234的一个或多个实例可以被包括在处理集群214内。图形多处理器234可以处理数据,并且数据交叉开关(data crossbar)240可以用于将处理的数据分布到多个可能目的地(包括其他着色器单元)之一。流水线管理器232可以通过指定要经由数据交叉开关240来分布的处理的数据的目的地来促进处理的数据的分布。
处理集群214内的每一个图形多处理器234都可以包括相同一组功能执行逻辑(例如,算术逻辑单元、加载-存储单元等)。能以流水线方式(pipelined manner)来配置功能执行逻辑,在流水线方式中,在先前的指令完成之前,可发布新指令。功能执行逻辑支持多种多样的操作,包括整数和浮点算术、比较操作、布尔操作、位移位(bit-shifting)和各种代数函数的计算。在一个实施例中,可以利用相同功能单元硬件来执行不同操作,并且可以存在功能单元的任何组合。
传送至处理集群214的指令构成线程。跨一组并行处理引擎而执行的一组线程是线程群组。线程群组对不同的输入数据执行相同程序。可以将线程群组内的每一个线程分配给图形多处理器234内的不同处理引擎。线程群组可包括比图形多处理器234内的处理引擎的数量更少的线程。当线程群组包括比处理引擎的数量更少的线程时,处理引擎中的一个或多个在线程群组正在被处理的循环期间可以是空闲的。线程群组也可包括比图形多处理器234内的处理引擎的数量更多的线程。当线程群组包括比图形多处理器234内的处理引擎的数量更多的线程时,处理可以在连续时钟循环上执行。在一个实施例中,可在图形多处理器234上并发地执行多个线程群组。
在一个实施例中,图形多处理器234包括用于执行加载和存储操作的内部高速缓存存储器。在一个实施例中,图形多处理器234可以放弃内部高速缓存,并且使用处理集群214内的高速缓存存储器(例如,L1高速缓存308)。每个图形多处理器234还有权访问在所有处理集群214中共享并且可用于在线程之间转移数据的分区单元(例如,图2的分区单元220A-220N)内的L2高速缓存。图形多处理器234还可访问芯片外全局存储器,所述芯片外全局存储器可以包括本地并行处理器存储器和/或系统存储器中的一者或多者。可将在并行处理单元202外部的任何存储器用作全局存储器。实施例(其中处理集群214包括图形多处理器234的多个实例)可以共享公共指令和数据,所述公共指令和数据可存储在L1高速缓存308中。
每个处理集群214可包括MMU 245(存储器管理单元),所述MMU配置成将虚拟地址映射到物理地址中。在其他实施例中,MMU 245的一个或多个实例可驻留在图2的存储器接口218内。MMU 245包括:一组页表条目(PTE),用于将图块(更多地讨论分图块(tiling))的虚拟地址映射到物理地址;以及可选地高速缓存行索引。MMU 245可包括可驻留在图形多处理器234或L1高速缓存或处理集群214内的地址转换后备缓冲器(TLB)或高速缓存。物理地址经处理以分布表面数据访问局域性(locality),从而允许在分区单元中高效的请求交织。高速缓存行索引可用于确定针对高速缓存行的请求是命中还是未命中。
在图形和计算应用中,处理集群214可被配置使得每个图形多处理器234耦合至纹理单元236以用于执行纹理映射操作,例如确定纹理样本位置、读取纹理数据和过滤纹理数据。根据需要,从内部纹理L1高速缓存(未示出)或在一些实施例中从图形多处理器234内的L1高速缓存读取纹理数据,并且从L2高速缓存、本地并行处理器存储器或系统存储器获取所述纹理数据。每个图形多处理器234将处理的任务输出到数据交叉开关240以将处理的任务提供给另一个处理集群214,以供进一步处理或以经由存储器交叉开关216将处理的任务存储在L2高速缓存、本地并行处理器存储器或系统存储器中。preROP 242(例如,预光栅操作单元)配置成从图形多处理器234接收数据、将数据导引到ROP单元,所述ROP单元可与如本文描述的分区单元(例如,图2的分区单元220A-220N)位于一起。preROP 242单元可以执行针对颜色混合的优化、组织像素颜色数据和执行地址转换。
将认识到的是,本文描述的核架构是示出性的,并且变化和修改是有可能的。任何数量的处理单元(例如,图形多处理器234、纹理单元236、preROP 242等)可被包括在处理集群214内。此外,虽然仅示出了一个处理集群214,但是如本文描述的并行处理单元可以包括处理集群214的任何数量的实例。在一个实施例中,每个处理集群214可以配置成使用单独且截然不同的处理单元、L1高速缓存等独立于其他处理集群214来操作。
图2D示出了根据一个实施例的图形多处理器234。在此类实施例中,图形多处理器234与处理集群214的流水线管理器232耦合。图形多处理器234具有执行流水线,其包括但不限于:指令高速缓存252、指令单元254、地址映射单元256、寄存器堆258、一个或多个通用图形处理单元(GPGPU)核262和一个或多个加载/存储单元266。GPGPU核262和加载/存储单元266经由存储器和高速缓存互连268与高速缓存存储器272和共享存储器270耦合。
在一个实施例中,指令高速缓存252从流水线管理器232接收待执行的指令流。所述指令被高速缓存在指令高速缓存252中,并且由指令单元254分派以供执行。指令单元254可以将指令分派为线程群组(例如,线程束(warp)),其中线程群组的每个线程被指派给GPGPU核262内的一不同执行单元。指令可以通过指定统一地址空间内的地址来访问本地、共享或全局地址空间中的任一者。地址映射单元256可以用于将统一地址空间中的地址转换成可以由加载/存储单元266访问的截然不同的存储器地址。
寄存器堆258为图形多处理器324的功能单元提供一组寄存器。寄存器堆258为连接到图形多处理器324的功能单元(例如,GPGPU核262、加载/存储单元266)的数据路径的操作数提供临时存储。在一个实施例中,在所述功能单元中的每一者之间划分寄存器堆258,使得每个功能单元分配有寄存器堆258的专用部分。在一个实施例中,在由图形多处理器324执行的不同线程束之间划分寄存器堆258。
GPGPU核262可以各自包括浮点单元(FPU)和/或整数算术逻辑单元(ALU),所述FPU和整数ALU用于执行图形多处理器324的指令。根据实施例,GPGPU核262可以在架构上是类似的,或可以在架构上是不同的。例如且在一个实施例中,GPGPU核262的第一部分包括单精度FPU和整数ALU,而GPGPU核的第二部分包括双精度FPU。在一个实施例中,FPU可以针对浮点算术来实现IEEE 754-2008标准,或能够实现可变精度浮点算术。图形多处理器324可以另外包括一个或多个固定功能或特殊功能单元以执行特定功能(诸如,复制矩形或像素混合操作)。在一个实施例中,GPGPU核中的一者或多者也可以包括固定或特殊功能逻辑。
在一个实施例中,GPGPU核262包括能够对多组数据执行单指令的SIMD逻辑。在一个实施例中,GPGPU核262可以物理地执行SIMD4、SIMD8和SIMD16指令,并且逻辑地执行SIMD1、SIMD2和SIMD32指令。用于GPGPU核的SIMD指令可以由着色器编译器在编译时间生成,或者可以在执行为单程序多数据(SPMD)或SIMT架构编写和编译的程序时自动生成。为SIMT执行模型而配置的程序的多个线程可以经由单SIMD指令而执行。例如且在一个实施例中,执行相同或类似操作的八个SIMT线程可以经由单个SIMD8逻辑单元并行地执行。
存储器和高速缓存互连268是互连网络,其将图形多处理器234的功能单元中的每一个连接到寄存器堆258并连接到共享存储器270。在一个实施例中,存储器和高速缓存互连268是交叉开关互连,其允许加载/存储单元266在共享存储器270与寄存器堆258之间实现加载和存储操作。寄存器堆258能与GPGPU核262以相同频率来操作,由此在GPGPU核262与寄存器堆258之间的数据转移是非常低等待时间的。共享存储器270可以用来启用在图形多处理器234内的功能单元上执行的线程之间的通信。高速缓存存储器272可以用作例如数据高速缓存,以便对功能单元与纹理单元236之间通信的纹理数据进行高速缓存。共享存储器270也可以用作程序管理的高速缓存。在GPGPU核262上执行的线程能以程序方式将除了存储在高速缓存存储器272内的经自动高速缓存的数据之外的数据存储在共享存储器内。
图3A-图3B示出了根据实施例的附加图形多处理器。所示出的图形多处理器325、350是图2C的图形多处理器234的变体。所示出的图形多处理器325、350可以被配置为能够同时执行大量执行线程的流传送多处理器(SM)。
图3A示出了根据附加实施例的图形多处理器325。图形多处理器325相对于图2D的图形多处理器234包括执行资源单元的多个附加实例。例如,图形多处理器325可以包括指令单元332A-332B、寄存器堆334A-334B和纹理单元344A-344B的多个实例。图形多处理器325还包括多组图形或计算执行单元(例如,GPGPU核336A-336B、GPGPU核337A-337B、GPGPU核338A-338B)和多组加载/存储单元340A-340B。在一个实施例中,执行资源单元具有公共指令高速缓存330、纹理和/或数据高速缓存存储器342以及共享存储器346。
各种部件可以经由互连结构327通信。在一个实施例中,互连结构327包括一个或多个交叉开关(crossbar switch)以启用图形多处理器325的各种部件之间的通信。在一个实施例中,互连结构327是分开的高速网络结构层,图形多处理器325的每一个部件堆叠在该高速网络结构层上。图形多处理器325的部件经由互连结构327与远程部件通信。例如,GPGPU核336A-336B、337A-337B以及3378A-338B可以各自经由互连结构327与共享存储器346通信。互连结构327可以仲裁图形多处理器325内的通信以确保部件之间的公平带宽分配。
图3B示出了根据附加实施例的图形多处理器350。图形处理器包括多组执行资源356A-356D,其中,每一组执行资源包括多个指令单元、寄存器堆、GPGPU核和加载存储单元,如图2D和图3A中所示出。执行资源356A-356D可以与纹理单元360A-360D一致地工作以用于纹理操作,同时共享指令高速缓存354和共享存储器362。在一个实施例中,执行资源356A-356D可以共享指令高速缓存354和共享存储器362以及纹理和/或数据高速缓存存储器358A-358B的多个实例。各种部件可以经由类似于图3A的互连结构327的互连结构352来通信。
本领域技术人员将理解,图1、2A-2D以及3A-3B中所描述的架构就本实施例的范畴而言是描述性的而非限制性的。因此,在不背离本文描述的实施例的范畴的情况下,本文描述的技术可在任何正确配置的处理单元上实现,所述处理单元包括但不限于一个或多个移动应用处理器、一个或多个桌上型计算机或服务器中央处理单元(CPU)(包括多核CPU)、一个或多个并行处理单元(诸如,图2的并行处理单元202)以及一个或多个图形处理器或专用处理单元。
在一些实施例中,如本文描述的并行处理器或GPGPU通信地耦合至主机/处理器核以加速图形操作、机器学习操作、模式分析操作和各种通用GPU(GPGPU)功能。GPU可通过总线或另一互连(例如,诸如PCIe或NVLink的高速互连)通信地耦合至主机处理器/核。在其他实施例中,GPU可集成在与所述核相同的封装或芯片上,并且通过内部处理器总线/互连(即,在所述封装或芯片的内部)通信地耦合至所述核。不管连接GPU的方式,处理器核都可用工作描述符中所包含的命令/指令的序列的形式将工作分配给GPU。GPU然后使用专用的电路/逻辑来高效地处理这些命令/指令。
用于GPU至主机处理器互连的技术
图4A示出了示例性架构,其中多个GPU 410-413通过高速链路440-443(例如,总线、点对点互连等)通信地耦合至多个多核处理器405-406。在一个实施例中,取决于实现,高速链路440-443支持4GB/s、30GB/s、80GB/s或更高的通信吞吐量。可使用各种互连协议,包括但不限于PCIe 4.0或5.0以及NVLink2.0。然而,本发明的根本原理不限于任何具体通信协议或吞吐量。
另外,在一个实施例中,GPU 410-413中的两者或更多者通过高速链路444-445互连,所述高速链路可使用与用于高速链路440-443的协议/链路相同或不同的协议/链路来实现。类似地,多核处理器405-406中的两者或更多者可通过高速链路433相连接,所述高速链路433可以是以20GB/s、30GB/s、120GB/s或更高来操作的对称多处理器(SMP)总线。可替代地,图4A中所示的各种系统部件之间的所有通信可使用相同协议/链路(例如,通过公共互连结构)来取得。然而,如所提到,本发明的根本原理不限于任何具体类型的互连技术。
在一个实施例中,每个多核处理器405-406分别经由存储器互连430-431通信地耦合至处理器存储器401-402,并且每个GPU 410-413分别通过GPU存储器互连450-453通信地耦合至GPU存储器420-423。存储器互连430-431以及450-453可利用相同或不同的存储器访问技术。通过示例且非限制的方式,处理器存储器401-402和GPU存储器420-423可以是易失性存储器,诸如动态随机存取存储器(DRAM)(包括堆叠式DRAM)、图形DDR SDRAM(GDDR)(例如,GDDR5、GDDR6)或高带宽存储器(HBM),和/或可以是非易失性存储器,诸如3D XPoint或Nano-Ram。在一个实施例中,存储器的某一部分可以是易失性存储器,并且另一部分可以是非易失性存储器(例如,使用两级存储器(2LM)分层)。
如下文所描述,虽然各种处理器405-406和GPU 410-413可以分别物理地耦合至具体存储器401-402、420-423,但是可实现统一存储器架构,其中相同虚拟系统地址空间(也称为“有效地址”空间)被分布在所有各个物理存储器中。例如,处理器存储器401-402可各自包括64GB的系统存储器地址空间,并且GPU存储器420-423可各自包括32GB的系统存储器地址空间(在本示例中产生总共256GB的可寻址存储器)。
图4B示出了依照一个实施例的针对多核处理器407与图形加速模块446之间的互连的附加细节。图形加速模块446可包括集成在线卡上的一个或多个GPU芯片,所述线卡经由高速链路440耦合至处理器407。可替代地,图形加速模块446可集成在与处理器407相同的封装或芯片上。
所示出的处理器407包括多个核460A-460D,其各自具有转换后备缓冲器(translation lookaside buffer)461A-461D和一个或多个高速缓存462A-462D。所述核可包括用于执行指令和处理数据的各种其他部件(例如,指令获取单元、分支预测单元、解码器、执行单元、重排序缓冲器等),未示出所述其他部件以避免使本发明的根本原理难以理解。高速缓存462A-462D可包括1级(L1)和2级(L2)高速缓存。另外,一个或多个共享的高速缓存426可被包括在高速缓存分层中并且由多组核460A-460D共享。例如,处理器407的一个实施例包括24个核,其各自具有其自身的L1高速缓存、十二个共享的L2高速缓存和十二个共享的L3高速缓存。在本实施例中,L2和L3高速缓存中的一者由两个邻近的核共享。处理器407和图形加速器集成模块446与系统存储器441连接,所述系统存储器441可包括处理器存储器401-402。
通过一致性总线464经由核间通信来维持存储在各种高速缓存462A-462D、456和系统存储器441中的数据和指令的一致性。例如,每个高速缓存可具有与其相关联的高速缓存一致性逻辑/电路以响应于到具体高速缓存行的检测到的读或写来通过一致性总线464进行通信。在一个实现中,通过一致性总线464来实现高速缓存监听协议,以监听高速缓存访问。高速缓存监听/一致性技术是被本领域技术人员良好理解的,并且此处将不详细描述以避免使本发明的根本原理难以理解。
在一个实施例中,代理电路425将图形加速模块446通信地耦合至一致性总线464,从而允许图形加速模块446作为核的对等物来参与高速缓存一致性协议。具体而言,接口435提供通过高速链路440(例如,PCIe总线、NVLink等)至代理电路425的连接性,并且接口437将图形加速模块446连接到链路440。
在一个实现中,加速器集成电路436代表图形加速模块446的多个图形处理引擎431、432、N来提供高速缓存管理、存储器访问、上下文管理和中断管理服务。图形处理引擎431、432、N可各自包括单独的图形处理单元(GPU)。可替代地,图形处理引擎431、432、N可包括GPU内不同类型的图形处理引擎,诸如图形执行单元、媒体处理引擎(例如,视频编码器/解码器)、采样器和块图转移(blit)引擎。换句话说,图形加速模块可以是具有多个图形处理引擎431-432、N的GPU,或图形处理引擎431-432、N可以是集成在公共封装、线卡或芯片上的个别GPU。
在一个实施例中,加速器集成电路436包括存储器管理单元(MMU)439以用于执行各种存储器管理功能,诸如虚拟至物理存储器转换(也称为有效至真实存储器转换)和用于访问系统存储器441的存储器访问协议。MMU 439还可包括转换后备缓冲器(TLB)(未示出)以用于高速缓存虚拟/有效至物理/真实地址转换。在一个实现中,高速缓存438存储命令和数据以供由图形处理引擎431-432、N进行高效访问。在一个实施例中,存储在高速缓存438和图形存储器433-434、N中的数据与核高速缓存462A-462D、456以及系统存储器411保持一致。如所提到,这可经由代理电路425来取得,所述代理电路425代表高速缓存438和存储器433-434、N来参与高速缓存一致性机制(例如,将与处理器高速缓存462A-462D、456上的高速缓存行的修改/访问有关的更新发送到高速缓存438,以及从高速缓存438接收更新)。
一组寄存器445存储用于由图形处理引擎431-432、N执行的线程的上下文数据,并且上下文管理电路448管理线程上下文。例如,上下文管理电路448可在上下文切换期间执行保存和恢复操作以保存和恢复各种线程的上下文(例如,其中,第一线程被保存并且第二线程被存储,使得可以由图形处理引擎来执行第二线程)。例如,在上下文切换时,上下文管理电路448可将当前寄存器值存储到存储器中指派的区域(例如,由上下文指针标识的)。然后,其可在返回到上下文时恢复所述寄存器值。在一个实施例中,中断管理电路447接收并处理从系统装置接收的中断。
在一个实现中,由MMU 439将来自图形处理引擎431的虚拟/有效地址转换成系统存储器411中的真实/物理地址。加速器集成电路436的一个实施例支持多个(例如,4、8、16个)图形加速器模块446和/或其他加速器装置。图形加速器模块446可专用于在处理器407上执行的单个应用,或可在多个应用之间共享。在一个实施例中,呈现虚拟化的图形执行环境,其中与多个应用或虚拟机(VM)共享图形处理引擎431-432、N的资源。所述资源可被再分成“切片”,其基于与不同的VM和/或应用相关联的处理要求和优先级来被分配给所述VM和/或应用。
因此,加速器集成电路充当到图形加速模块446的系统的桥,并且提供地址转换和系统存储器高速缓存服务。另外,加速器集成电路436可为主机处理器提供虚拟化设施,以管理图形处理引擎的虚拟化、中断和存储器管理。
由于图形处理引擎431-432、N的硬件资源被显式映射到由主机处理器407所见的真实地址空间,所以任何主机处理器都可以使用有效地址值来直接寻址这些资源。在一个实施例中,加速器集成电路436的一个功能是图形处理引擎431-432、N的物理分离,使得它们对系统呈现为独立单元。
如所提到,在所示出的实施例中,一个或多个图形存储器433-434、M分别耦合至图形处理引擎431-432、N中的每一者。图形存储器433-434、M存储正由图形处理引擎431-432、N中的每一者处理的指令和数据。图形存储器433-434、M可以是易失性存储器,诸如DRAM(包括堆叠式DRAM)、GDDR存储器(例如,GDDR5、GDDR6)或HBM,和/或可以是非易失性存储器,诸如3D XPoint或Nano-Ram。
在一个实施例中,为减少链路440上的数据业务,使用偏置技术以确保存储在图形存储器433-434、M中的数据是将被图形处理引擎431-432、N使用最频繁并且优选地不被核460A-460D使用(至少不是频繁地)的数据。类似地,偏置机制试图将由核(且优选地不是图形处理引擎431-432、N)所需的数据保存在系统存储器411和所述核的高速缓存462A-462D、456内。
图4C示出了另一个实施例,其中加速器集成电路436被集成在处理器407内。在本实施例中,图形处理引擎431-432、N经由接口437和接口435(再次,其可利用任何形式的总线或接口协议)通过高速链路440来直接通信到加速器集成电路436。加速器集成电路436可执行与关于图4B所描述的那些操作相同的操作,但考虑到其与一致性总线462和高速缓存462A-462D、426的紧密接近性而潜在地处于更高的吞吐量。
一个实施例支持不同的编程模型,包括专用进程编程模型(没有图形加速模块虚拟化)和共享的编程模型(有虚拟化)。后者可包括由加速器集成电路436控制的编程模型和由图形加速模块446控制的编程模型。
在专用进程模型的一个实施例中,图形处理引擎431-432、N在单一操作系统下专用于单个应用或进程。单个应用可以将另一应用请求汇集(funnel)到图形引擎431-432、N,从而在VM/分区内提供虚拟化。
在专用进程编程模型中,可由多个VM/应用分区来共享图形处理引擎431-432、N。共享的模型需要系统管理程序来虚拟化图形处理引擎431-432、N,以允许由每个操作系统进行访问。针对无管理程序的单一分区系统,图形处理引擎431-432、N由操作系统所拥有。在两种情况下,操作系统可以虚拟化图形处理引擎431-432、N以提供对每个进程或应用的访问。
针对共享的编程模型,图形加速模块446或各个图形处理引擎431-432、N使用进程句柄来选择进程元素(process element)。在一个实施例中,进程元素存储在系统存储器411中,并且使用本文描述的有效地址至真实地址转换技术是可寻址的。进程句柄可以是在向图形处理引擎431-432、N登记其上下文(即,调用系统软件以将进程元素添加到进程元素链表)时被提供给主机进程的实现特定的值。进程句柄的较低的16位可以是进程元素链表内的进程元素的偏移。
图4D示出了示例性加速器集成切片490。如本文所使用,“切片”包括加速器集成电路436的处理资源的指定部分。系统存储器411内的应用有效地址空间482存储进程元素483。在一个实施例中,响应于来自处理器407上执行的应用480的GPU调用481来存储进程元素483。进程元素483包含对应的应用480的进程状态。包含在进程元素483中的工作描述符(WD)484可以是由应用请求的单个作业,或可包含指向作业队列的指针。在后一种情况下,WD 484是指向应用的地址空间482中的作业请求队列的指针。
图形加速模块446和/或个别图形处理引擎431-432、N可以由系统中的所有进程或进程子集共享。本发明的实施例包括用于设置进程状态并将WD 484发送到图形加速模块446以在虚拟化环境中开始作业的基础设施。
在一个实现中,专用进程编程模型是实现特定的。在这个模型中,单个进程拥有图形加速模块446或个别图形处理引擎431。由于图形加速模块446由单个进程所拥有,所以在指派图形加速模块446的时候,管理程序针对拥有的分区来初始化加速器集成电路436并且操作系统针对拥有的进程来初始化加速器集成电路436。
在操作中,加速器集成切片490中的WD获取单元491获取下一个WD 484,所述下一个WD 484包括待由图形加速模块446的图形处理引擎之一来完成的工作的指示。来自WD484的数据可存储在寄存器445中,并且由如所示出的MMU 439、中断管理电路447和/或上下文管理电路446使用。例如,MMU 439的一个实施例包括用于访问OS虚拟地址空间485内的段/页表486的段/页行走电路(walk circuitry)。中断管理电路447可处理从图形加速模块446接收的中断事件492。当执行图形操作时,由MMU 439将由图形处理引擎431-432、N所生成的有效地址493转换为真实地址。
在一个实施例中,针对每个图形处理引擎431-432、N和/或图形加速模块446复制相同一组寄存器445,并且其可由管理程序或操作系统来初始化。这些复制的寄存器中的每一者可被包括在加速器集成切片490中。表1中示出了可由管理程序来初始化的示例性寄存器。
表1-管理程序初始化的寄存器
1 | 切片控制寄存器 |
2 | 真实地址(RA)调度的进程区域指针 |
3 | 权限掩蔽覆盖寄存器 |
4 | 中断向量表条目偏移 |
5 | 中断向量表条目限制 |
6 | 状态寄存器 |
7 | 逻辑分区ID |
8 | 真实地址(RA)管理程序加速器利用记录指针 |
9 | 存储描述寄存器 |
表2中示出了可由操作系统来初始化的示例性寄存器。
表2-操作系统初始化的寄存器
1 | 进程和线程标识 |
2 | 有效地址(EA)上下文保存/恢复指针 |
3 | 虚拟地址(VA)加速器利用记录指针 |
4 | 虚拟地址(VA)存储段表指针 |
5 | 权限掩蔽 |
6 | 工作描述符 |
在一个实施例中,每个WD 484是特定于具体图形加速模块446和/或图形处理引擎431-432、N的。它包含图形处理引擎431-432、N完成其工作所需的全部信息,或它可以是对其中应用已设立待完成的工作的命令队列的存储器位置的指针。
图4E示出了共享模型的一个实施例的附加细节。本实施例包括其中存储有进程元素列表499的管理程序真实地址空间498。管理程序真实地址空间498可经由管理程序496来访问,所述管理程序496虚拟化用于操作系统495的图形加速模块引擎。
共享的编程模型允许来自系统中所有分区或分区子集的所有进程或进程子集使用图形加速模块446。存在两个编程模型,其中,图形加速模块446由多个进程和分区共享:时间切片共享和图形定向共享(graphics directed shared)。
在这个模型中,系统管理程序496拥有图形加速模块446,并且使其功能可用于所有操作系统495。为使图形加速模块446支持由系统管理程序496进行的虚拟化,图形加速模块446可遵守以下要求:1) 应用的作业请求必须是自主的(即,无需在作业之间保持状态),或图形加速模块446必须提供上下文保存和恢复机制。2) 由图形加速模块446保证在指定时间量内完成应用的作业请求(包括任何转换故障),或图形加速模块446提供抢占作业的处理的能力。3) 当在定向共享编程模型中操作时,必须保证图形加速模块446在进程之间的公平性。
在一个实施例中,针对共享模型,需要应用480用图形加速模块446类型、工作描述符(WD)、权限掩蔽寄存器(AMR)值和上下文保存/恢复区域指针(CSRP)来进行操作系统495系统调用。图形加速模块446类型描述了用于系统调用的针对的加速函数。图形加速模块446类型可以是系统特定的值。WD专门针对图形加速模块446被格式化,并且可以呈图形加速模块446命令、对用户定义的结构的有效地址指针、对命令队列的有效地址指针或用于描述待由图形加速模块446完成的工作的任何其他数据结构的形式。在一个实施例中,AMR值是待用于当前进程的AMR状态。被传递到操作系统的值类似于设定AMR的应用。如果加速器集成电路436和图形加速模块446实现不支持用户权限掩蔽覆盖寄存器(UAMOR),那么操作系统可将当前UAMOR值应用于AMR值,之后在管理程序调用中传递AMR。可选地,管理程序496可应用当前权限掩蔽覆盖寄存器(AMOR)值,之后将AMR放到进程元素483中。在一个实施例中,CSRP是寄存器445之一,其包含应用的地址空间482中的区域的有效地址以用于使图形加速模块446保存和恢复上下文状态。如果不需要在作业之间保存状态或当作业被抢占时,这个指针是可选的。上下文保存/恢复区域可以是固定的(pinned)系统存储器。
在接收到系统调用时,操作系统495可验证应用480已注册并且已被给予使用图形加速模块446的权限。然后,操作系统495用表3中所示的信息来调用管理程序496。
表3–OS至管理程序调用参数
1 | 工作描述符(WD) |
2 | 权限掩蔽寄存器(AMR)值(潜在地被掩蔽) |
3 | 有效地址(EA)上下文保存/恢复区域指针(CSRP) |
4 | 进程ID(PID)和可选线程ID(TID) |
5 | 虚拟地址(VA)加速器利用记录指针(AURP) |
6 | 存储段表指针(SSTP)的虚拟地址 |
7 | 逻辑中断服务号(LISN) |
在接收到管理程序调用时,管理程序496验证操作系统495已注册并且已被给予使用图形加速模块446的权限。然后,管理程序496将进程元素483放入对应的图形加速模块446类型的进程元素链表中。进程元素可包括表4中所示的信息。
表4-进程元素信息
1 | 工作描述符(WD) |
2 | 权限掩蔽寄存器(AMR)值(潜在地被掩蔽) |
3 | 有效地址(EA)上下文保存/恢复区域指针(CSRP) |
4 | 进程ID(PID)和可选线程ID(TID) |
5 | 虚拟地址(VA)加速器利用记录指针(AURP) |
6 | 存储段表指针(SSTP)的虚拟地址 |
7 | 逻辑中断服务号(LISN) |
8 | 从管理程序调用参数导出的中断向量表 |
9 | 状态寄存器(SR)值 |
10 | 逻辑分区ID(LPID) |
11 | 真实地址(RA)管理程序加速器利用记录指针 |
12 | 存储描述符寄存器(SDR) |
在一个实施例中,管理程序初始化多个加速器集成切片490寄存器445。
如图4F中所示出,本发明的一个实施例采用经由公共虚拟存储器地址空间可寻址的统一存储器,所述公共虚拟存储器地址用于访问物理处理器存储器401-402和GPU存储器420-423。在这种实现中,在GPU 410-413上执行的操作利用相同的虚拟/有效存储器地址空间来访问处理器存储器401-402且反之亦然,由此简化可编程性。在一个实施例中,虚拟/有效地址空间的第一部分被分配给处理器存储器401,第二部分被分配给第二处理器存储器402,第三部分被分配GPU存储器420,等等。由此跨处理器存储器401-402和GPU存储器420-423中的每一者来分布整个虚拟/有效存储器空间(有时称为有效地址空间),从而允许任何处理器或GPU来访问任一物理存储器(用被映射到该存储器的虚拟地址)。
在一个实施例中,在MMU 439A-439E中的一者或多者内的偏置/一致性管理电路494A-494E确保主机处理器(例如,405)与GPU 410-413的高速缓存之间的高速缓存一致性,并且实现指示其中应存储有某些类型的数据的物理存储器的偏置技术。虽然图4F中示出了偏置/一致性管理电路494A-494E的多个实例,但是可在一个或多个主机处理器405的MMU内和/或在加速器集成电路436内实现偏置/一致性电路。
一个实施例允许使用共享虚拟存储器(SVM)技术来访问GPU附连的存储器420-423并将其映射为系统存储器的一部分,而不用经受与完全系统高速缓存一致性相关联的典型性能缺陷。GPU附连的存储器420-423作为系统存储器来访问而无繁重的高速缓存一致性开销(overhead)的能力为GPU卸载提供了有益的操作环境。这种安排允许主机处理器405软件来设置操作数和访问计算结果,而没有传统I/O DMA数据拷贝的开销。此类传统拷贝涉及驱动器调用、中断和存储器映射I/O(MMIO)访问,其相对于简单的存储器访问来说全部都是低效的。同时,访问GPU附连的存储器420-423而无高速缓存一致性开销的能力对于卸载的计算的运行时间来说可以是关键的。在具有实质流传送写存储器业务的情况下,例如,高速缓存一致性开销可以显著减少由GPU 410-413所见的有效写带宽。操作数设置的效率、结果访问的效率和GPU计算的效率在确定GPU卸载的有效性中全部都起到一定的作用。
在一个实现中,由偏置跟踪器数据结构来驱动在GPU偏置与主机处理器偏置之间的选择。可使用偏置表,例如,其可以是每GPU附连的存储器页包括1或2位的页粒度结构(即,被控制在存储器页的粒度)。可以在一个或多个GPU附连的存储器420-423的被偷的(stolen)存储器范围中实现偏置表,其中在GPU 410-413中具有或不具有偏置高速缓存(例如,用于高速缓存偏置表的频繁/最近使用的条目)。可替代地,可将整个偏置表维持在GPU内。
在一个实现中,在实际访问GPU存储器之前访问与每一次访问GPU附连的存储器420-423相关联的偏置表条目,从而引起以下操作。首先,来自GPU 410-413的在主机偏置中寻找其页的本地请求被直接转发到对应的GPU存储器420-423。来自GPU的本地请求被转发到处理器405(例如,通过如上文所讨论的高速链路)。在一个实施例中,来自处理器405的请求(所述请求在主机处理器偏置中寻找请求的页)完成类似于正常存储器读取的请求。可替代地,可将针对GPU偏置的页的请求转发到GPU 410-413。然后,如果GPU当前未正使用该页,那么GPU可将该页转变到主机处理器偏置。
可以由基于软件的机制、硬件辅助的基于软件的机制抑或针对有限一组情况由纯粹基于硬件的机制来改变页的偏置状态。
用于改变偏置状态的一个机制采用API调用(例如,OpenCL),其进而调用GPU的装置驱动器,所述装置驱动器进而发送消息(或入队命令描述符)到GPU,从而指导其改变偏置状态并且针对一些转变在主机中执行高速缓存转储清除操作。高速缓存转储清除操作对于从主机处理器405偏置转变到GPU偏置来说是需要的,但对于反向转变来说是不需要的。
在一个实施例中,通过暂时渲染由主机处理器405不可高速缓存的GPU偏置页来维持高速缓存一致性。为了访问这些页,处理器405可请求来自GPU 410的访问,这取决于实现而可或可不立即授予访问权。因此,为减少处理器405与GPU 410之间的通信,确保GPU偏置页是被GPU所需但非被主机处理器405所需且反之亦然的那些页。
图形处理流水线
图5示出根据实施例的图形处理流水线500。在一个实施例中,图形处理器可以实现所示出的图形处理流水线500。所述图形处理器可以被包括在如本文描述的并行处理子系统(诸如图2的并行处理器200)内,在一个实施例中,其是图1的(一个或多个)并行处理器112的变体。各种并行处理系统可以经由如本文描述的并行处理单元(例如,图2的并行处理单元202)的一个或多个实例来实现图形处理流水线500。例如,着色器单元(例如,图3的图形多处理器234)可配置成执行顶点处理单元504、曲面细分控制处理单元508、曲面细分评估处理单元512、几何处理单元516和片段/像素处理单元524中的一者或多者的功能。数据组装器502,图元组装器506、514、518,曲面细分单元510,光栅化器522和光栅操作单元526的功能也可由处理集群(例如,图3的处理集群214)内的其他处理引擎和对应的分区单元(例如,图2的分区单元220A-220N)来执行。还可使用用于一个或多个功能的专用处理单元来实现图形处理流水线500。在一个实施例中,可以由通用处理器(例如,CPU)内的并行处理逻辑来执行图形处理流水线500的一个或多个部分。在一个实施例中,图形处理流水线500的一个或多个部分可以经由存储器接口528来访问芯片上存储器(例如,如图2中的并行处理器存储器222),所述存储器接口528可以是图2的存储器接口218的实例。
在一个实施例中,数据组装器502是收集表面和图元的顶点数据的处理单元。数据组装器502随后将包括顶点属性的顶点数据输出至顶点处理单元504。顶点处理单元504是可编程执行单元,其执行顶点着色器程序,如由顶点着色器程序所指定那样来调亮(lighting)并变换顶点数据。顶点处理单元504读取存储在高速缓存、本地或系统存储器中的数据以供在处理顶点数据时使用,并且顶点处理单元504可被编程为将顶点数据从基于对象的坐标表示变换到世界空间坐标空间或归一化装置坐标空间。
图元组装器506的第一实例从顶点处理单元504接收顶点属性。图元组装器506按需读取存储的顶点属性,并且构建图形图元以用于由曲面细分控制处理单元508来处理。图形图元包括如由各种图形处理应用编程接口(API)所支持的三角形、线段、点、补片等等。
曲面细分控制处理单元508将输入顶点视为用于几何补片的控制点。控制点是从来自补片(例如,补片的基)的输入表示变换到适合于由曲面细分评估处理单元512在表面评估中使用的表示。曲面细分控制处理单元508也可以计算几何补片的边缘的曲面细分因数。曲面细分因数应用于单个边缘,并且对与该边缘相关联的依赖于视图的细节等级进行量化。将曲面细分单元510配置成接收补片的边缘的曲面细分因数,并且将补片曲面细分成诸如线、三角形或四边形图元的多个几何图元,其被传送到曲面细分评估处理单元512。曲面细分评估处理单元512对再分的补片的参数化坐标进行操作以生成与几何图元相关联的每一个顶点的表面表示和顶点属性。
图元组装器514的第二实例从曲面细分评估处理单元512接收顶点属性,按需读取存储的顶点属性,并且构建图形图元以用于由几何处理单元516来处理。几何处理单元516是可编程执行单元,其执行几何着色器程序以按几何着色器程序所指定的来变换从图元组装器514所接收的图形图元。在一个实施例中,将几何处理单元516编程为将图形图元再分成一个或多个新图形图元,并且运算用于对新图形图元进行光栅化的参数。
在一些实施例中,几何处理单元516可在几何流中增加或删除元素。几何处理单元516将指定新图形图元的参数和顶点输出到图元组装器518。图元组装器518从几何处理单元516接收参数和顶点,并且构建图形图元以用于由视口缩放、拣选和剪辑单元520来处理。几何处理单元516读取存储在并行处理器存储器或系统存储器中的数据以供在处理几何数据时使用。视口缩放、拣选和剪辑单元520执行剪辑、拣选和视口缩放,并将处理的图形图元输出到光栅化器522。
光栅化器522可以执行深度拣选和其他基于深度的优化。光栅化器522还对新图形图元执行扫描转换以生成片段,并且将那些片段和相关联的覆盖数据输出到片段/像素处理单元524。片段/像素处理单元524是配置成执行片段着色器程序或像素着色器程序的可编程执行单元。片段/像素处理单元524按由片段或像素着色器程序所指定的来变换从光栅化器522所接收的片段或像素。例如,可将片段/像素处理单元524编程为执行以下操作以产生输出到光栅操作单元526的着色的片段或像素,所述操作包括但不限于纹理映射、着色、混合、纹理校正和透视校正。片段/像素处理单元524可以读取存储在并行处理器存储器或系统存储器中的数据以供在处理片段数据时使用。可将片段或像素着色器程序配置成在样本、像素、图块或其他粒度(取决于为处理单元所配置的采样率)着色。
光栅操作单元526是处理单元,其执行包括但不限于模板印刷、z测试、混合和诸如此类的光栅操作,并将像素数据作为处理的图形数据输出,以存储在图形存储器(例如,如图2中的并行处理器存储器222和/或如图1中的系统存储器104)中,以显示在所述一个或多个显示装置110上,或者供由(一个或多个)并行处理器112或所述一个或多个处理器102中的一个来进一步处理。在一些实施例中,将光栅操作单元526配置成压缩被写入到存储器的z或颜色数据,并且解压缩从存储器读取的z或颜色数据。
用于图形的顺序独立异步计算和/或流传送示例
现在转到图6,电子处理系统600的实施例可以包括应用处理器611、通信地耦合到应用处理器611的持久存储介质612、以及通信地耦合到应用处理器611的图形子系统613。系统600还可以包括以下一个或多个:绘图调用重排序器614,通信地耦合到应用处理器611和图形子系统613以重排序两个或更多绘图调用;工作负载重排序器615,通信地耦合到应用处理器611和图形子系统613以采用顺序独立模式来重排序两个或更多工作项;队列图元616(例如,包括在所述两个或更多绘图调用中的至少一个中),用于定义生产方阶段和消费方阶段;以及顺序独立执行器617,通信地耦合到应用处理器611和图形子系统613以提供计算阶段的基于图块的顺序独立执行(例如,如下面所分别更详细描述的)。
在系统600的一些实施例中,绘图调用重排序器614可进一步包括顺序依赖性分析器用以确定所述两个或更多绘图调用之间的顺序依赖性,其中绘图调用重排序器614可被进一步配置成基于所确定的顺序依赖性(例如,如下面更详细描述的)重排序所述两个或更多绘图调用。工作负载重排序器615可进一步包括工作负载分析器用以确定对于所述两个或更多工作项的工作拆分,其中工作负载重排序器615可以进一步被配置成基于所确定的工作拆分来重排序所述两个或更多工作项(例如,如下面更详细描述的)。例如,系统600还可以包括调度器,用以根据队列图元616来交替执行生产方阶段和消费方阶段(例如,如下面更详细描述的)。在一些实施例中,顺序独立执行器617可以包括:计算上下文;渲染上下文;以及工作调度器,用以在图块的基础上异步地将工作分派给渲染上下文和计算上下文(例如,如下面更详细描述的)。
以上的应用处理器611、持久存储介质612、图形子系统613、绘图调用重排序器614、工作负载重排序器615、队列图元616、顺序依赖性执行器617以及其他系统部件中的每个的实施例可以用硬件、软件、或其任何适合组合来实现。例如,硬件实现可包含可配置逻辑,诸如例如,可编程逻辑阵列(PLA)、FPGA、复杂可编程逻辑装置(CPLD)、或采用使用电路技术的固定功能性逻辑硬件,所述电路技术是诸如例如,ASIC、互补金属氧化物半导体(CMOS)或晶体管-晶体管逻辑(TTL)技术、或其任何组合。备选地,或附加地,这些部件可在一个或更多模块中被实现为要由处理器或计算装置来执行的、存储在机器或计算机可读存储介质中的一组逻辑指令,所述机器或计算机可读存储介质是诸如随机存取存储器(RAM)、只读存储器(ROM)、可编程ROM(PROM)、固件、闪速存储器、等等。例如,用于实行部件的操作的计算机程序代码可采用一种或多种操作系统适用/适当的编程语言的任何组合来写,所述编程语言包含面向对象编程语言(诸如PYTHON、PERL、JAVA、SMALLTALK、C++、C#或诸如此类)、以及常规程序性编程语言(诸如“C”编程语言或类似编程语言)。
例如,系统600可以包括与系统100类似的部件和/或特征,进一步配置成支持如本文所述的各种顺序独立处理。例如,图形子系统613可包括与并行处理器200类似的部件和/或特征,进一步配置成支持如本文所述的各种顺序独立处理。系统600还可以适配于与立体头戴式系统(诸如例如结合下图11-15所描述的系统)一起工作。
绘图调用重排序器示例
现在转到图7A,图形设备700的实施例可以包括:顺序依赖性分析器721,用以确定两个或更多绘图调用之间的顺序依赖性;以及绘图调用重排序器722,其通信地耦合到顺序依赖性分析器721以基于所确定的顺序依赖性来重排序所述两个或更多绘图调用。例如,顺序依赖性分析器721可配置成确定用于所述两个或更多绘图调用的资源要求和数据地址范围。在一些实施例中,绘图调用重排序器722可配置成对所述两个或更多绘图调用进行重排序以增加并行执行的利用。例如,绘图调用重排序器722也可以配置成确定当所述两个或更多绘图调用被重排序时没有违反数据依赖性。
设备700的一些实施例可选地还可以包括以下一个或多个:工作负载重排序器,其通信地耦合到顺序依赖性分析器721以采用顺序独立模式对两个或更多工作项进行重排序;队列图元,被包括在所述两个或更多绘图调用中的至少一个中,用以定义生产方阶段和消费方阶段;和/或顺序独立执行器,通信地耦合到顺序依赖性分析器721,用以提供计算阶段的基于图块的顺序独立执行。
上述顺序依赖性分析器721、绘图调用重排序器722以及设备700的其他部件中的每个的实施例可以用硬件,软件或其任何组合来实现。例如,装置700的部分或全部可以被实现为并行处理器200的一部分,进一步配置有如本文所描述的顺序依赖性分析器和/或绘图调用重排序器。设备700可还适配成与立体头戴式系统(诸如例如,连同下面图11-15所描述的系统)工作。例如,硬件实现可包含可配置逻辑,诸如例如,PLA、FPGA、CPLD、或采用使用电路技术的固定功能性逻辑硬件,所述电路技术诸如例如,ASIC、CMOS或TTL技术、或其任何组合。备选地,或附加地,这些部件可在一个或更多模块中被实现为要由处理器或计算装置来执行的、存储在机器或计算机可读存储介质中的一组逻辑指令,所述机器或计算机可读存储介质是诸如RAM、ROM、PROM、固件、闪速存储器、等等。例如,用于实行部件的操作的计算机程序代码可采用一种或多种操作系统适用/适当的编程语言的任何组合来写,所述编程语言包含面向对象的编程语言(诸如PYTHON、PERL、JAVA、SMALLTALK、C++、C#或诸如此类)、以及常规的过程编程语言(诸如“C”编程语言或类似编程语言)。
现在转到图7B至7C,重排序绘图调用的方法730的实施例可以包括在框731确定两个或更多绘图调用之间的顺序依赖性,并且在框732基于所确定的顺序依赖性来重排序所述两个或更多绘图调用。方法730还可以包括在框733确定用于所述两个或更多绘图调用的资源要求和数据地址范围。一些实施例还可以包括在框734对所述两个或更多绘图调用进行重排序以增加并行执行的利用和/或在框735确定在所述两个或更多绘图调用被重排序时没有违反数据依赖性。
在一些实施例中,方法730可以可选地进一步包括以下一个或多个:在框736采用顺序独立模式来重排序两个或更多工作项,在框737通过队列图元来定义生产方阶段和消费方阶段,和/或在框738提供计算阶段的基于图块的顺序独立执行。
方法730的实施例可被实现在系统、设备、GPU、并行处理单元(PPU)、或图形处理器流水线设备中,诸如例如本文所描述的那些。更具体地,方法730的硬件实现可包含可配置逻辑,诸如例如,PLA、FPGA、CPLD、或采用使用电路技术的固定功能性逻辑硬件,所述电路技术是诸如例如,ASIC、CMOS或TTL技术、或其任何组合。备选地,或附加地,方法730可在一个或更多模块中被实现为要由处理器或计算装置来执行的、存储在机器或计算机可读存储介质中的一组逻辑指令,所述机器或计算机可读存储介质是诸如RAM、ROM、PROM、固件、闪速存储器、等等。例如,用于实行部件的操作的计算机程序代码可采用一种或多种操作系统适用/适当的编程语言的任何组合来写,所述编程语言包含面向对象的编程语言(诸如PYTHON、PERL、JAVA、SMALLTALK、C++、C#或诸如此类)、以及常规的程序性编程语言(诸如“C”编程语言或类似编程语言)。例如,方法730可被实现在如连同下面的示例20至26所描述的计算机可读介质上。
例如,方法730的实施例或部分可采用应用(例如通过API)或驱动器软件来实现。方法730的其他实施例或部分可采用要在GPU上执行的专门的代码(例如着色器)来实现。方法730的其他实施例或部分可采用固定功能逻辑或专门的硬件(例如采用GPU)来实现。
有利地,一些实施例可以基于针对编程序列的试探法(heuristics)来重排序绘图调用。例如,一些实施例可以用编译器和/或驱动器来重排序由应用发出的绘图调用以提供更好的性能。在一些实施例中,绘图调用可以被重排序以有利地提供更好的利用。
例如,编译器可以检查由绘图调用所使用的资源要求和数据地址范围。编译器还可以确定绘图调用之间的任何顺序依赖性。编译器/驱动器然后可以重新布置绘图调用顺序以优化并行执行和/或提供对硬件3D/计算资源的更高效使用。在任何重新布置之前和/或在任何重新布置期间,驱动器可以确保不违反数据依赖性。
现在转到图7D至7E,应用程序可产生采用原始顺序(例如图7D)的一系列绘图调用(绘图1,绘图2,绘图3,绘图4等)。编译器/驱动器可以对绘图调用进行重排序,以便维持依赖性,但存在更好的硬件/资源的利用(例如图7E)。有利地,通过其他方式,空闲资源可以经由交叠执行绘图调用而被使用。一些实施例的另一个益处可以包括更好地使用高速缓存和转换后备缓冲器(TLB)。例如,使用相同数据范围的绘图调用可能会彼此相邻地被调度。由于更好的局域性,这种重排序可以提供更高的高速缓存命中率。例如,绘图1可能产生可被绘图3使用的大量数据,但在程序中,绘图2可能发生在绘图1和绘图3的中间。如果按原始顺序处理,绘图2可能会导致被存储在高速缓存中的由绘图1产生的信息从高速缓存中被移除并且所移除的数据将不得不被重新获取以用于绘图3。通过在绘图1之后重排序绘图3,可以保存所高速缓存的绘图1数据以用于由绘图3进行更高效利用。如果编译器无法确定重排序绘图调用将不会违反数据依赖性,那么该绘图调用将不会被重排序。
例如,在许多三维(3D)游戏中,编译器/驱动器可能能够确定对于每个绘图调用的输入和输出表面是什么样的。编译器/驱动器还可以能够确定绘图调用正工作于独立表面之上(例如,不由另一个绘图调用产生或耗用)。编译器/驱动器也可以能够确定绘图1的输出没有在被绘图2使用,而是在被绘图3使用,所以绘图1和绘图2之间不存在顺序依赖性,但是在绘图1和绘图3之间存在顺序依赖性。
现在转到图7F,一些实施例可以附加地或备选地并行发起一些绘图调用。例如,如果任何绘图调用独立于其余绘图调用,则它们可能不按顺序被发起和/或与其余绘图调用并行地被发起。在一些实施例中,编译器/驱动器可以首先确定哪些绘图调用是独立的,并且然后确定剩余绘图调用的顺序依赖性。例如,如果绘图2与其他绘图调用没有依赖性,则绘图2可以并行地被发起以更好地利用图形子系统(参见图7F)。
驱动器形成传递到硬件的命令队列,因此驱动器可以通过按照不同顺序将命令推送到命令队列中来有效地重排序绘图调用,以创建重排序的命令队列。如果驱动器无法解析依赖性,那么它可保留绘图调用的原始顺序。
工作负载重排序器示例
现在转到图8A,图形设备800的实施例可以包括:工作负载分析器821,用于采用顺序独立模式来确定针对两个或更多工作项的工作拆分;以及工作负载重排序器822,通信地耦合到工作负载分析器821以基于采用顺序独立模式所确定的工作拆分来重排序所述两个或更多工作项。例如,可以由应用(例如,通过API调用)来设置顺序独立模式。工作负载重排序器822可以被配置成对所述两个或更多工作项进行重排序以增加图形处理器的利用。例如,所述两个或更多工作项可以包括图形图元。
在一些实施例中,设备800可以可选地进一步包括以下一个或多个:被包括在所述两个或更多工作项中的至少一个工作项中的队列图元,用以定义生产方阶段和消费方阶段;和/或通信地耦合到工作负载分析器821的顺序独立执行器,用以提供计算阶段的基于图块的顺序独立执行。
上述工作负载分析器821、工作负载重排序器822、以及设备800的其他部件中的每一个的实施例可以用硬件,软件或其任何组合来实现。例如,设备800的部分或全部可以被实现为并行处理器200的一部分,进一步配置有如本文所述的工作负载分析器和/或工作负载重排序器。设备800可还适配成与立体头戴式系统(诸如例如,连同下面图11-15所描述的系统)工作。例如,硬件实现可包含可配置逻辑,诸如例如,PLA、FPGA、CPLD、或采用使用电路技术的固定功能性逻辑硬件,所述电路技术诸如例如,ASIC、CMOS或TTL技术、或其任何组合。备选地,或附加地,这些部件可在一个或更多模块中被实现为要由处理器或计算装置来执行的、存储在机器或计算机可读存储介质中的一组逻辑指令,所述机器或计算机可读存储介质是诸如RAM、ROM、PROM、固件、闪速存储器、等等。例如,用于实行部件的操作的计算机程序代码可采用一种或多种操作系统适用/适当的编程语言的任何组合来写,所述编程语言包含面向对象的编程语言(诸如PYTHON、PERL、JAVA、SMALLTALK、C++、C#或诸如此类)、以及常规的过程编程语言(诸如“C”编程语言或类似编程语言)。
现在转向图8B至8C,重排序工作项的方法830的实施例可以包括在框831采用顺序独立方式来确定对于两个或更多工作项的工作拆分,并且在框832基于采用顺序独立模式所确定的工作拆分来重排序所述两个或更多工作项。例如,方法830可以包括在框833通过应用来设置顺序独立模式。在一些实施例中,方法830还可以包括在框834重排序所述两个或更多工作项以增加图形处理器的利用。例如,在框835,所述两个或更多工作项可以包括图形图元。
在一些实施例中,方法830可以可选地进一步包括以下一项或多项:在框836通过队列基元来定义生产方阶段和消费方阶段,和/或在框837提供计算阶段的基于图块的顺序独立执行。
方法830的实施例可被实现在系统、设备、GPU、PPU、或图形处理器流水线设备中,诸如例如本文所描述的那些。更具体地,方法830的硬件实现可包含可配置逻辑,诸如例如,PLA、FPGA、CPLD、或采用使用电路技术的固定功能性逻辑硬件,所述电路技术是诸如例如,ASIC、CMOS或TTL技术、或其任何组合。备选地,或附加地,方法830可在一个或更多模块中被实现为要由处理器或计算装置来执行的、存储在机器或计算机可读存储介质中的一组逻辑指令,所述机器或计算机可读存储介质是诸如RAM、ROM、PROM、固件、闪速存储器、等等。例如,用于实行部件的操作的计算机程序代码可采用一种或多种操作系统适用/适当的编程语言的任何组合来写,所述编程语言包含面向对象的编程语言(诸如PYTHON、PERL、JAVA、SMALLTALK、C++、C#或诸如此类)、以及常规的程序性编程语言(诸如“C”编程语言或类似编程语言)。例如,方法830可被实现在如连同下面的示例46至51所描述的计算机可读介质上。
例如,方法830的实施例或部分可采用应用(例如通过API)或驱动器软件来实现。方法830的其他实施例或部分可采用要在GPU上执行的专门的代码(例如着色器)来实现。方法830的其他实施例或部分可采用固定功能逻辑或专门的硬件(例如采用GPU)来实现。
现在转到图8D,输入图形工作负载可以按照该顺序包括图元T0,T1和T2。根据一些实施例,工作重排序器可以重排序输出图形工作负载以按照该新的顺序包括图元T2,T0和T1。一些实施例可以有利地提供乱序渲染。在一些系统中,图元总是按顺序被处理,这可能无法有效地利用资源。一些实施例可以有利地提供其中支持图元的乱序执行的构造。随着资源变得可用,图形硬件和/或软件可随后对图元/分派进行分类/处理。例如,API可以向图形引擎提供信息以指示针对特定处理操作(例如,绘图调用)允许图元的乱序执行。在乱序模式中,各种改进和/或优化可用于图形引擎以通过属性(如深度(Z))来进行即时排序(sort-on-the-fly)以避开未分类的图元,并提高在以其他方式可能对此类处理不是很好地支持的应用中的早期Z的效率。例如,一些实施例可以支持按深度对三角形进行排序(例如,除了按图块排序)以提高遮蔽拣选的效率。乱序渲染也可以被采用于渲染不透明对象的几何缓冲器(G-缓冲器)传递。
通过背景而非限制的方式,一些3D API可以保证在处理提交给GPU的分组内的命令时的顺序。示例可以是调用流水线的多个绘图调用,该流水线随后处理多个图元以光栅化加性效应(additive effect),像如对于此类特征混合为透明。操作的严格排序要求在GPU内处理工作的同步。虽然这有时可能是一个好处(例如减少冗余着色,存储器获取,功能正确性),但它也可能导致GPU的潜在大部分未充分被利用,除非可以检测到非常特定的情景,其证明在调用之间没有依赖性。
一些实施例可以有利地在应用和驱动器之间(例如通过API或API扩展)创建存储器是唯一的依赖性的保证,并且应用将使用能够在处理中的某个稍后点解析顺序依赖性的技术。该保证可以作为由应用设置并由驱动器和/或图形引擎检查的状态或模式来实现。例如,保证可能是特定的渲染传递/阶段的本地特性,或者保证可能是应用的全局或静态保证。保证可以允许驱动器、GPU、GPU调度器等重排序或共同发布工作,而不会违反严格的API保证。有利地,当此类大粒度同步点对于有效的GPU利用将是有害的时,一些实施例可以提供更好的性能。
现在转到图8E,输入绘图调用851可以包括状态分组A和相关联的工作项A,随后是状态分组B和相关联的工作项B。工作重排序器可以重排序状态分组和相关联的工作项,使得输出绘图调用851'在状态分组A和相关联的工作项A之前具有状态分组B和相关联的工作项B。一些绘图调用包括关联的状态和工作负载(例如,应用发送状态,然后发送一些工作)。在乱序模式下,工作可能被认为是最小单位(atomic),并且可以被重排序,因为应用已经保证它能够处理未按顺序执行的工作。
现在转到图8F,图形系统860的实施例可以包括存储第一图元T0和第二图元T1的帧缓冲器861。在一些工作负载中,第二图元T1可在第一图元T0之后到达。系统860可以包括并行处理引擎863以处理帧缓冲器861。在常规模式中,如果在所述两个图元之间存在交迭的话,则可存在在写入用于第一图元T0的像素与用于第二图元T1的像素之间出现的间隔(例如为了获得功能的正确性)。在乱序模式中,可以为每个图元提供临时存储器分配,使得工作可以一起被发布(例如,没有间隔),并且全屏解析传递(full screen resolve pass)在稍后点可以处理任何乱序问题。应用可以确定是否设置常规模式或乱序模式。使应用指定乱序模式有利地可以消除对复杂的检测逻辑的需要,所述复杂的检测逻辑可能无法成功检测到条件适用的许多情况。在乱序模式下,驱动器和/或GPU可以自由地发布工作而无需同步,并且可以随着硬件资源变得可用(例如,像素、顶点、几何或任何流水线部分)而在流水线中共同发布任何工作。一些实施例也可以在单个图元上用于基础子图元(例如曲面细分的网格)。
现在转到图8G,图形系统870的实施例可以包括存储第一图元T0和第二图元T1的帧缓冲器871。在一些工作负载中,第二图元T1可能在第一图元T0之后到达。系统870可以包括第一并行处理引擎873和第二并行处理引擎875以处理帧缓冲器871。一些实施例可被扩展以利用多于两个引擎来执行乱序渲染。例如,GPU可以包括多个引擎,或者两个或更多GPU可以被链接在一起。乱序模式可打破在两个或更多引擎之间执行同步的要求。在乱序模式下,驱动器和/或GPU可以在没有同步的情况下自由地发布工作(除了在解析乱序工作时),并且可以共同发布跨多个并行处理装置(其将以其他方式要求同步)分布的工作。这可能允许多个GPU在同一帧上工作,而无需在内部同步应用资源。例如,工作重排序器可以跨GPU/引擎分发工作,而不必维持特殊寄存器、同步信息、或其他顺序依赖性检测(例如,因为应用保证它能够处理乱序处理)。
在一些实施例中,GPU调度器中可以包括工作分析器和/或工作重排序器。另外或备选地,工作分析器和/或工作重排序器可以被包括在更高级调度器中并且可以从与其当前利用有关的GPU接收指示。例如,当GPU未被充分利用时,调度器可以发送更多乱序/推测的工作。一些实施例可以有利地减少检测依赖性所需的CPU利用或GPU开销。一些实施例还可以通过基于应用确定的条件进入乱序模式来增加GPU利用。即使某些工作最终是冗余的,GPU的更好利用也可能会弥补产生的任何低效率。
队列图元示例
现在转到图9A,图形设备900的实施例可以包括用于定义生产方阶段和消费方阶段的队列图元921,以及用于根据队列图元921来交替执行生产方阶段和消费方阶段的调度器922。例如,队列图元921还用于定义在第一分派调用和第二分派调用与绘图调用之一之间的生产方和消费方关系。在一些实施例中,队列图元921可以被进一步配置成定义用来存储完整绘图调用的子集的结果的队列。例如,调度器922可以被进一步配置成管理队列的利用。在一些实施例中,设备900可选地还可以包括通信地耦合到调度器922的顺序独立执行器,用以提供计算阶段的基于图块的顺序独立执行。
上述队列图元921、调度器922、以及设备900的其他部件中的每个的实施例可以用硬件,软件或其任何组合来实现。例如,装置900的部分或全部可以被实现为并行处理器200的一部分,进一步配置有如本文所描述的队列图元和/或调度器。设备900可还适配成与立体头戴式系统(诸如例如,连同下面图11-15所描述的系统)工作。例如,硬件实现可包含可配置逻辑,诸如例如,PLA、FPGA、CPLD、或采用使用电路技术的固定功能性逻辑硬件,所述电路技术诸如例如,ASIC、CMOS或TTL技术、或其任何组合。备选地,或附加地,这些部件可在一个或更多模块中被实现为要由处理器或计算装置来执行的、存储在机器或计算机可读存储介质中的一组逻辑指令,所述机器或计算机可读存储介质是诸如RAM、ROM、PROM、固件、闪速存储器、等等。例如,用于实行部件的操作的计算机程序代码可采用一种或多种操作系统适用/适当的编程语言的任何组合来写,所述编程语言包含面向对象的编程语言(诸如PYTHON、PERL、JAVA、SMALLTALK、C++、C#或诸如此类)、以及常规的过程编程语言(诸如“C”编程语言或类似编程语言)。
现在转到图9B至9C,处理图形工作负载的方法930的实施例可以包括在框931通过队列图元来定义生产方阶段和消费方阶段,并且在框932根据队列图元来交替执行生产方阶段和消费方阶段。例如,方法930还可以包括在框933通过队列图元来定义第一分派调用和第二分派调用与绘图调用之一之间的生产方和消费方关系。一些实施例还可以包括在框934通过队列图元来定义用来存储完整绘图调用的子集的结果的队列,并且在框935管理对队列的利用。在一些实施例中,方法930可以可选地包括在框936提供计算阶段的基于图块的顺序独立执行。
方法930的实施例可被实现在系统、设备、GPU、PPU、或图形处理器流水线设备中,诸如例如本文所描述的那些。更具体地,方法930的硬件实现可包含可配置逻辑,诸如例如,PLA、FPGA、CPLD、或采用使用电路技术的固定功能性逻辑硬件,所述电路技术是诸如例如,ASIC、CMOS或TTL技术、或其任何组合。备选地,或附加地,方法930可在一个或更多模块中被实现为要由处理器或计算装置来执行的、存储在机器或计算机可读存储介质中的一组逻辑指令,所述机器或计算机可读存储介质是诸如RAM、ROM、PROM、固件、闪速存储器、等等。例如,用于实行部件的操作的计算机程序代码可采用一种或多种操作系统适用/适当的编程语言的任何组合来写,所述编程语言包含面向对象的编程语言(诸如PYTHON、PERL、JAVA、SMALLTALK、C++、C#或诸如此类)、以及常规的程序性编程语言(诸如“C”编程语言或类似编程语言)。例如,方法930可被实现在如连同下面的示例68至72所描述的计算机可读介质上。
例如,方法930的实施例或部分可采用应用(例如通过API)或驱动器软件来实现。方法930的其他实施例或部分可采用要在GPU上执行的专门的代码(例如着色器)来实现。方法930的其他实施例或部分可采用固定功能逻辑或专门的硬件(例如采用GPU)来实现。
有利地,一些实施例可以提供流传送绘图/分派间接处理。一些实施例可交替调度用于流传送处理的计算着色器(CS)/光栅阶段。例如,一些实施例可以通过附加/耗用缓冲器在各阶段之间流传送工作项。一些实施例可以有利地使用流传送而能够实现在GPU上更灵活的计算渲染。一些实施例可以提供促进计算阶段之间或计算阶段和光栅化阶段之间的通信的管理的缓冲器。编程模型可被扩展以支持队列图元,并且硬件调度器可管理缓冲器以与应用定义的队列(例如由队列图元定义)一起工作。
现在转到图9D中,图形系统950可以包括产生输出并将该输出附加到环形缓冲器952的计算着色器951(例如曲面细分)。光栅化器953可以从环形缓冲器952耗用计算着色器951的输出。调度器954可以在计算着色器951和光栅化器953之间交替工作,并且监视环形缓冲器952的缓冲器大小(例如,以基于环形缓冲器952的可用容量来控制将多少工作分派到计算着色器951)。在一些系统中,在进一步处理或光栅化之前,计算地生成的数据可能需要在全局存储器中被缓冲起来(be buffered up)。有利的是,一些实施例可针对流传送处理来交替CS和光栅阶段,并且渲染可以变得更加计算化。在一些实施例中,缓冲器(例如,环形缓冲器952)对于软件(例如应用和/或驱动器)可以是透明的。在一些实施例中,应用可以为附加/耗用缓冲器分配空间并且指定流水线阶段之间的生产方/消费方关系。
通过背景而非限制的方式,在一些GPU中实现的图形流水线可以使用流传送来高效地渲染复杂场景。这样的流传送可涉及通过一组流水线阶段来渲染图元的增量处理,其中图元首先从全局DRAM存储装置批量加载到快速(芯片上)本地存储器中。虽然全局DRAM允许存储复杂的场景定义(可能有数百万个图元和大型纹理),但其带宽有限,且存储器存取可能是功耗的主要来源。本地存储器可以提供在量级上更快和更功率高效的存取,但容量非常有限。使用流传送处理,渲染流水线保证只有一小部分渲染图元需要在流水线阶段同时出现。这是通过调度由队列连接的流水线阶段来实现的。这些流水线阶段可能处于生产方-消费方关系中。在工作负载扩展方面,某些类型的流水线阶段可以简单地从单个输入工作项(例如,D3D/OpenGL光栅流水线的大多数可编程着色器)生成单个输出,而其他类型的流水线阶段可以提供数据放大,其中单个工作项可能产生如果输出(例如,光栅化器从单个三角形生成如果片段)。硬件调度器的责任可以是按照避免队列溢出的顺序来执行流水线阶段。由于有限的可编程性,此架构可能被称为固定功能图形流水线。
随着图形架构向计算渲染演进,可能需要更灵活的渲染流水线,其中应用可以定义流水线中也允许可编程数据放大的定制阶段。在这种情景下,计算阶段(例如计算着色器)可以从需要以流传送方式处理的单个工作项生成可变数量的数据。在当前的图形架构上,这不能使用与固定功能流水线中所使用的硬件资源相同的硬件资源来实现,因为芯片上流传送不会暴露给程序员。一些系统可以通过在全局DRAM中分配大容量存储来实现计算流传送,其能够保存计算着色器分派的整个输出,并且在计算着色器处理了其整个输入之后显式调用下一个流水线阶段(计算或光栅化之类)。有利地,一些实施例可以在GPU上提供可编程流传送的高效和透明的实现。
一些实施例可以提供经由图形API而暴露给应用的队列图元。在高级别上,队列图元可以允许定义两个分派调用或分派调用和绘图调用之间的生产方-消费方关系。与当前的图形API不同,应用不必显式调用分派或绘图调用,而是转而将由监视队列图元状态的低级别调度器隐式地执行它们。通过链接多个分派调用,能够定义完整的可编程流水线。
在一些实施例中,队列图元可以在共享的芯片上存储器中或全局DRAM中被分配。如果在芯片上分配,则队列图元可能会对固定功能流水线产生类似的好处,但需要特别注意数据局域性。具体而言,可能需要在多个计算分派调用中保留芯片上存储器的内容。通过DRAM的队列图元的实现可能不会减少带宽,但它可以有利地减少对小型缓冲器的存储器占用空间,从而允许流传送处理。
在这两种情况下,队列图元的一种可能实现方式是环形缓冲器,其中头部和尾部指针的状态由调度器周期性地监视。调度器可以执行分派/光栅化循环,在每个循环中选择其中输入队列具有要耗用的数据并且输出队列具有足够空间来存储结果的流水线阶段(调度或绘图)。环形缓冲器实现可以类似于针对固定功能流水线中的其他处理所进行的调度,其中调度器的目标是最大化硬件的利用,同时避免流水线停顿(stall)(其中队列变满并且阻止执行其生产方阶段)。有利地,队列图元向流水线引入可编程功能。
队列图元可具有关于中间流水线阶段中的计算着色器的一些重要要求。首先,可以通过最小单位附加机制来写入输出数据,其中应用不知道数据的确切顺序和位置,因为这取决于对数据得以被写入的队列的裁断(discretion)。其次,调度器需要保证其执行的计算着色器线程(每个线程从输入队列中耗用一个工作项)在输出队列中有足够的空间用于其输出。本领域技术人员将认识到可能有多种机制来实现这些要求。作为示例,计算线程可能会限制它们从单个输入生成的输出项的最大数量(例如类似于几何着色器)。有了这个限制,调度器可以总是为最坏情况扩展来分派安全数量的线程。另一个示例可涉及如果输出缓冲器变满,则抢占计算着色器。
通过队列图元,根据一些实施例,代替每次显式地分派计算着色器,应用可以指定三角形的数量、计算着色器、以及队列大小,其可能远小于对于完整输出集所需的存储器占用空间。然后,调度器可以监视队列的状态并为队列的可用容量分派适当数量的计算着色器线程。计算着色器可以被认为是队列的生产方,并且还可能存在另一个计算着色器或光栅化器,其可以被认为是队列的消费方。调度器可以在执行生产方和消费方之间交替切换以管理队列并保持队列平衡。队列可以促进生产方阶段和消费方阶段之间的通信,其双方都可以在GPU上执行。应用可以定义该关系,并提供输入数据。流传送可以与有限的存储器占用空间一起工作而使它可能。缓冲器不需要一次在存储器中保存数百万个三角形。队列可利用三角形中的一些窗口(例如数千),并且调度器可以调度生产方和消费方一次一大块地解决三角形。实施例不一定是基于图块的,但是一些实施例能够与分图块系统一起实现。一些实施例可以有利地提供可编程流水线的透明调度。
顺序独立执行器示例
现在转到图10A中,图形设备1000的实施例可以包括:工作调度器1021,用于在图块的基础上异步地分派一个或多个渲染图块和一个或多个计算图块;渲染器1022,通信地耦合到工作调度器1021以渲染所述一个或多个渲染图块;以及执行器1023,通信地耦合到工作调度器1021以执行所述一个或多个计算图块。例如,渲染器1022可配置成与计算图块之一的执行并行地渲染渲染图块之一。例如,所述一个或多个计算图块可以被标识为独立的。在一些实施例中,第一计算图块的计算图块大小可以是第一渲染图块的渲染图块大小的子集。
上述工作调度器1021、渲染器1022、执行器1023、以及设备1000的其他部件中的每个的实施例可以用硬件,软件或其任何组合来实现。例如,装置1000的部分或全部可以被实现为并行处理器200的一部分,进一步配置有如本文所描述的工作调度器、渲染器1022、和/或执行器。设备1000可还适配成与立体头戴式系统(诸如例如,连同下面图11-15所描述的系统)工作。例如,硬件实现可包含可配置逻辑,诸如例如,PLA、FPGA、CPLD、或采用使用电路技术的固定功能性逻辑硬件,所述电路技术诸如例如,ASIC、CMOS或TTL技术、或其任何组合。备选地,或附加地,这些部件可在一个或更多模块中被实现为要由处理器或计算装置来执行的、存储在机器或计算机可读存储介质中的一组逻辑指令,所述机器或计算机可读存储介质是诸如RAM、ROM、PROM、固件、闪速存储器、等等。例如,用于实行部件的操作的计算机程序代码可采用一种或多种操作系统适用/适当的编程语言的任何组合来写,所述编程语言包含面向对象的编程语言(诸如PYTHON、PERL、JAVA、SMALLTALK、C++、C#或诸如此类)、以及常规的过程编程语言(诸如“C”编程语言或类似编程语言)。
现在转到图10B,处理图形工作负载的方法1030的实施例可以包括在框1031在图块的基础上异步地分派一个或多个渲染图块和一个或多个计算图块,在框1032渲染所述一个或多个渲染图块,以及在框1033执行所述一个或多个计算图块。例如,方法1030可包括在框1034与计算图块之一的执行并行地渲染渲染图块之一。一些实施例还可包括在框1035将所述一个或多个计算图块标识为独立的。例如,在框1036,第一计算图块的计算图块大小是第一渲染图块的渲染图块大小的子集。
方法1030的实施例可被实现在系统、设备、GPU、PPU、或图形处理器流水线设备中,诸如例如本文所描述的那些。更具体地,方法1030的硬件实现可包含可配置逻辑,诸如例如,PLA、FPGA、CPLD、或采用使用电路技术的固定功能性逻辑硬件,所述电路技术是诸如例如,ASIC、CMOS或TTL技术、或其任何组合。备选地,或附加地,方法1030可在一个或更多模块中被实现为要由处理器或计算装置来执行的、存储在机器或计算机可读存储介质中的一组逻辑指令,所述机器或计算机可读存储介质是诸如RAM、ROM、PROM、固件、闪速存储器、等等。例如,用于实行部件的操作的计算机程序代码可采用一种或多种操作系统适用/适当的编程语言的任何组合来写,所述编程语言包含面向对象的编程语言(诸如PYTHON、PERL、JAVA、SMALLTALK、C++、C#或诸如此类)、以及常规的程序性编程语言(诸如“C”编程语言或类似编程语言)。例如,方法1030可被实现在如连同下面的示例86至89所描述的计算机可读介质上。
例如,方法1030的实施例或部分可采用应用(例如通过API)或驱动器软件来实现。方法1030的其他实施例或部分可采用要在GPU上执行的专门的代码(例如着色器)来实现。方法1030的其他实施例或部分可采用固定功能逻辑或专门的硬件(例如采用GPU)来实现。
一些实施例可以有利地为基于图块的渲染器提供异步计算着色器传递。在一些系统中,计算着色器可能无法利用基于图块的渲染的益处(例如,纹理访问的空间局域性)。一旦计算工作开始,先前基于图块的工作就会结束,并且计算工作将按序列进行。一些实施例可以提供正被用于渲染和计算算法二者的单个渲染目标。例如,API可以指定渲染目标上有图块,并且它们彼此独立以用于特定渲染/计算传递。由于图块/线程群组是独立的,所以硬件和/或驱动器可以异步地调度渲染和计算部件。在一些实施例中,可以支持图块的并行执行和/或乱序执行。GPU可以在渲染目标图块内运行计算着色器线程群组。在一些实施例中,针对一个图块的计算工作可以与另一个图块的3D工作并行地执行。例如,后处理计算着色器可能在帧内更容易地被乱序调度。有利的是,对于一些VR应用来说可以减少等待时间。
现在转到图10C,图形系统1040的实施例可以包括支持渲染上下文1042和计算上下文1043的GPU 1041。GPU 1041还可以包括工作调度器1044,其支持对于渲染上下文1042和计算上下文1043两者的异步分派。API可以指定计算着色器并且还标识图块大小以及图块彼此是独立的。API还可以指示渲染图块大小如何映射到计算图块大小(例如,相同大小或者是计算图块大小的倍数的支持的子集)。工作调度器1044然后可以在图块的基础上对于渲染上下文1042和计算上下文1043进行分派。
现在转到图10D,工作调度器1050的实施例可以包括两个或更多图块队列,其至少包括第一图块队列1051和第二图块队列1052。工作调度器1050可以进一步包括渲染调度器1053和计算调度器1054。在一些系统中,所有工作将必须按顺序完成,其中在开始在另一个图块上工作之前,完成一个图块的所有渲染和所有计算。在两个上下文的情况下,一个上下文可处于空闲,而另一个上下文是忙碌的。有利地,一些实施例可以支持针对渲染和计算的不同上下文,并且使得能够同时在渲染上下文和计算上下文上执行工作。例如,可以在来自第二图块队列1052的图块1上正在执行计算阶段的同时在来自第一图块队列1051的图块0上执行渲染工作。工作可以被划分为基于图块的操作,并且单个渲染目标可以执行渲染传递,同时还进行计算工作。有利地,一些实施例可以提供更好的高速缓存局域性。
现在转到图10E至10F,渲染目标1060可以包括四个图块(图块A,图块B,图块C和图块D)。处理传递可以包括计算传递(CP),然后是渲染传递(RP)。在一些其他系统中,可能必须对于每个图块按顺序完成所有工作(对于A,B,C和D中的每个的CP,然后是渲染传递)。根据一些实施例,图块B的计算阶段可以在图块A正在渲染时开始(例如,一些计算工作和一些渲染工作可以同时进行)。计算传递可以包括一个或多个单独的计算着色器(例如CS0,CS1,至CSN)。计算图块大小可以是渲染图块大小的某一子集。例如,对于渲染图块A,计算图块子集可以包括计算图块A0,A1至AN。
一些实施例可以涉及标识能够独立完成的工作。例如,为了确定计算着色器序列内的独立性,应用可以确定是否到相同的图块中的所有输入映射来自传递之前,和/或所有输出进入该图块中(例如全部写入都是本地的,并且不需要将任何东西写入到图块之外的地址或图块)。有利地,当应用识别出这种处理是独立的时,它可以利用该识别(例如,通过将独立性通信给图形硬件以支持异步计算)。在一些实施例中,可以在驱动器或硬件级别确定独立性,但是通常可以在应用级别更容易地识别这种独立性。
现在转到图10G至10H,API扩展1071(例如,称为CreateTilesForComputePass{})可以允许应用指定可以独立处理的图块。对于特定的渲染传递/计算工作,API 1071可以识别图块、图块大小,并且识别图块独立于计算着色器序列的其他图块。对于基于图块的渲染,计算图块大小可以在渲染图块内部适配(例如,可以是相同的图块大小或某个倍数,诸如在一个渲染图块内适配四个计算图块)。
例如,对于基于图块的调亮阶段,API/应用1072可以指定渲染传递是基于图块并且独立的(例如,其允许驱动器/硬件(HW)1073)以执行调度。API/应用1072可以按照这个顺序来提交它们以用于渲染传递0,计算传递0,并且然后渲染传递1。对于计算传递0(例如,包括计算着色器CS0、CS1和CS3),API 1071可以指定计算传递0的图块大小以及图块是独立的。该信息可以被提供给驱动器/HW 1073(例如取决于调度完成的位置),并且工作可以被拆分成图块A和B并可以被调度,因此一些计算工作可以与某些渲染工作并行地运行。
例如,调度队列1074可以具有用于图块A和B中的每个图块的渲染传递0(RP0),计算传递0(CP0)和渲染传递1(RP1)的队列。调度队列可以首先将RP0-A提交给渲染上下文1075。调度队列然后可以将RP0-B提交给渲染上下文1075并且同时将CP0-A提交给计算上下文1076。调度队列然后可以将RP1提交给渲染上下文1075并且还将CP0-B提交给计算上下文1076。有利的是,一些实施例可以改进利用和高速缓存局域性。例如,各种图形处理技术可涉及渲染和计算阶段(例如,后处理或调亮)二者,其中计算阶段和渲染阶段二者都对相同输出进行操作。一些实施例可以在计算着色器中执行清除。例如,一些实施例可以从清除当前图块开始,并且然后可以通过另一个计算着色器来执行一些调亮操作(或其他工作),并且然后执行渲染操作以进行后处理操作。有利的是,一些实施例可以立即从计算进行到渲染而不必将任何东西写回到中间存储装置(例如,节省存储器、处理器带宽和/或功率)。
头戴式显示器系统概述
图11示出了正由用户在体验沉浸式环境时穿戴的头戴式显示器(HMD)系统1100,沉浸式环境诸如例如虚拟现实(VR)环境、增强现实(AR)环境、多玩家三维(3D)游戏等。在所示出的示例中,一个或多个带子1120将HMD系统1100的框架1102保持于用户的眼睛前面。相应地,放置左眼显示器1104以被用户的左眼查看并且放置右眼显示器1106以被用户的右眼查看。在诸如例如由用户穿戴的智能电话的某些示例中,可择一地将左眼显示器1104和右眼显示器1106集成进单个显示器中。在AR的情况中,显示器1104、1106可以是透视显示器,所述透视显示器允许用户查看实体环境而其他经渲染的内容(例如,虚拟角色、信息化注释、平视显示器/HUD)呈现于实体环境的实时馈送的上方。
在一个示例中,框架1102包括左下看摄像机1108以从一般位于用户前面和左眼下方的区域捕捉图像(例如,左手姿势)。此外,右下看摄像机1110可从一般位于用户前面和右眼下方的区域捕捉图像(例如,右手姿势)。所示出的框架1102还包括左前看摄像机1112和右前看摄像机1114以分别捕捉用户的左和右眼前面的图像。框架1102还可包括左侧看摄像机1116以从用户左侧的区域捕捉图像,并包括右侧看摄像机1118以从用户右侧的区域捕捉图像。
由可能有交叠视场的摄像机1108、1110、1112、1114、1116、1118捕捉的图像可用来检测由用户做出的姿势以及分析和/或在显示器1104、1106上再现外部环境。在一个示例中,所检测的姿势由(例如,内部的和/或外部的)图形处理架构用来渲染和/或控制3D游戏中用户的虚拟表示。事实上,交叠的视场可启用对由其他个体(例如,在多玩家游戏中)做出的姿势的捕捉,其中其他个体的姿势还可用来渲染/控制沉浸式体验。交叠的视场还可使HMD系统1100能够自动地检测用户附近的阻挡或其他危险。此类方法在高级驾驶员辅助系统(ADAS)应用中尤其有利。
在一个示例中,提供有交叠视场的左下看摄像机1108和右下看摄像机1110提供了具有增加的分辨率的立体视图。增加的分辨率可进而使非常相似的用户移动能够互相区分开来(例如,以亚-毫米的准确性)。结果可以是HMD系统1100关于可靠性的提高的性能。事实上,所示出的解决方案在各种各样的应用中是有用的,所述应用是诸如例如给AR设置中的信息上色、在多用户环境中的用户之间交换虚拟工具/装置、渲染虚拟项(例如,武器、剑、人员)等。其他对象、肢体和/或身体部分的姿势也可被检测并用于渲染/控制虚拟环境。例如,无论是从穿戴者还是从共享环境中的另一个体,都可以实时地跟踪脊髓造影信号、脑电波仪信号、眼睛跟踪、呼吸或喘气、手部运动等。由摄像机1108、1110、1112、1114、1116、1118捕捉的图像也可用作上下文输入。例如,可能确定用户正在指示文字处理应用中待编辑的具体词或待按的具体键,游戏中待部署的具体武器或行进方向等等。
此外,由摄像机1108、1110、1112、1114、1116、1118捕捉的图像可用来在装备操作、医疗训练和/或远程/远端操作指导应用中实施共享的通信或网络化的互动。任务特定的姿势库或神经网络机器学习可以启用工具标识和对任务的反馈。例如,可启用转换成远程、真实动作的虚拟工具。在又一个示例中,HMD系统1100将虚拟场景内的虚拟钻头的操纵转换成为搜索倒塌的建筑物而部署的机器人装置上的钻头的远程操作。而且,HMD系统1100可以在包括了例如使用户能够向与用户动作相关联的可标识姿势列表中添加新姿势的协议的程度是可编程的。
另外,HMD 1100中的各种摄像机可以是可配置的,以在光谱的可见波长之外检测光谱频率。输入摄像机中的多谱成像能力通过消除非必要的图像特征(例如,背景噪音)来允许对用户和/或对象的位置跟踪。例如,在诸如手术的增强现实(AR)应用中,仪器和装备通过它们的红外反射性而可被跟踪,而无需额外的跟踪辅助装备。而且,HMD 1100可以在低可见度的情形中被采用,其中来自各种摄像机的“实时馈送”可以通过计算机分析来提高或增强并作为视觉或音频线索显示给用户。
HMD系统1100还可放弃执行与远程计算系统或者需要功率线(例如,独立操作模式)的任何类型的数据通信。就此而言,HMD系统1100可以是具有使HMD系统1100独立于外部功率系统而操作的功率单元的“无绳”装置。相应地,用户可以玩全特性游戏而无需栓系到另一个装置(例如,游戏控制台)或功率供应。在文字处理示例中,HMD系统1100在显示器1104和1106上呈现虚拟键盘和/或虚拟鼠标以提供虚拟桌面或文字处理场景。因此,由摄像机中的一个或多个捕捉的姿势识别数据可表示虚拟键盘上的用户键入活动或虚拟鼠标的移动。优点包括但不限于:便携性和虚拟桌面隔绝附近个体的隐私性的自在。底层图形处理架构可支持视频和音频信号的压缩和/或解压缩。而且,对用户的左眼和右眼提供分开的图像可促进3D场景的渲染、生成和/或感知。左眼显示器1104和右眼显示器1106的相对位置也可以是可调整的,以匹配不同用户之间眼间隔的变化。
图11中所示出的摄像机的数量只是为了促进讨论。事实上,取决于环境,HMD系统1100可包括少于六个或多于六个摄像机。
HMD系统的功能部件
图12更详细地示出HMD系统。在所示出的示例中,框架1102包括应用向HMD系统提供功率的功率单元1200(例如,电池功率、适配器)。所示出的框架1102还包括运动跟踪模块1220(例如,加速度计、陀螺仪),其中运动跟踪模块1220向处理器系统1204提供运动跟踪数据、取向数据和/或位置数据。处理器系统1204可包括耦合至I/O桥1206的网络适配器1224。I/O桥1206可启用网络适配器1224和诸如例如音频输入模块1210、音频输出模块1208、显示装置1207、输入摄像机1202等等的各种部件之间的通信。
在所示出的示例中,音频输入模块1210包括右音频输入1218和左音频输入1216,该两个输入检测为了识别用户以及附近个体的语音命令而可被处理的声音。在所捕捉的音频信号中识别的语音命令可在模态切换和其他应用期间增强姿势识别。而且,所捕捉的音频信号可提供用来提高沉浸式体验的3D信息。
音频输出模块1208可包括右音频输出1214和左音频输出1212。音频输出模块1208可将声音递送给用户和/或其他附近个体的耳朵。音频输出模块1208可以是耳塞、贴耳式扬声器、盖耳式扬声器、扩音器等或其任何组合的形式,音频输出模块1208可将立体和/或3D音频内容递送给用户(例如,空间定位)。所示出的框架1102还包括无线模块1222,该无线模块1222可促进HMD系统和各种其他系统(例如,计算机、可穿戴式装置、游戏控制台)之间的通信。在一个示例中,无线模块1222经由网络适配器1224与处理器系统1204通信。
所示出的显示装置1207包括左眼显示器1104和右眼显示器1106,其中呈现在显示器1104、1106上的视觉内容可经由I/O桥1206从处理器系统1204获得。输入摄像机1202可包括已经讨论过的左侧看摄像机1116、右侧看摄像机1118、左下看摄像机1108、左前看摄像机1112、右前看摄像机1114和右下看摄像机1110。
现在转向图13,示出了通用处理集群(GPC)1300。所示出的GPC 1300可合并入诸如例如已经讨论过的处理器系统1204(图12)的处理系统中。GPC 1300可包括与调度器通信的流水线管理器1302。在一个示例中,流水线管理器1302从调度器接收任务并将任务分布给一个或多个流传送多处理器(SM)1304。每一个SM 1304可配置成处理线程群组,其中线程群组可以被看作是对不同输入数据执行相同或相似操作的多个相关线程。因此,可将线程群组中的每一个线程分配给具体SM 1304。在另一个示例中,线程的数量可大于SM 1304中执行单元的数量。就此而言,线程群组中的线程可并行操作。流水线管理器1302还可将经处理的数据目的地指定给工作分布交叉开关1308,该工作分布交叉开关1308与存储器交叉开关通信。
因此,在每一个SM 1304将经处理的任务传送给工作分布交叉开关1308时,经处理的任务可被提供给另一个GPC 1300供进一步处理。还可将SM 1304的输出发送到预光栅操作(preROP)单元1314,该预光栅操作单元1314进而将数据导引至一个或多个光栅操作单元,或者执行其他操作(例如,执行地址转换、组织图片颜色数据、混合颜色等等)。SM 1304可包括内部一级(L1)高速缓存(未示出),SM 1304可存储数据于其。SM 1304还可具有到一点五级(L1.5)高速缓存1306以及经由存储器管理单元(MMU)1310到二级(L2)高速缓存(未示出)的访问。MMU 1310可将虚拟地址映射到物理地址。就此而言,MMU 1310可包括页表条目(PTE),页表条目用来将虚拟地址映射到图块、存储器页和/或高速缓存线索引的物理地址。所示出的GPU 1300还包括纹理单元1312。
图形流水线架构
现在转向图14,示出了图形流水线1400。在所示出的示例中,世界空间流水线1420包括图元分布器(PD)1402。PD 1402可收集与高阶服务、图形图元、三角形等相关联的顶点数据,并将顶点数据传送给顶点属性获取单元(VAF)1404。VAF 1404可从共享存储器检索与每一个进入顶点相关联的顶点属性并将顶点数据和相关联的顶点属性一起存储到共享存储器中。
所示出的世界空间流水线1420还包括顶点、曲面细分、几何处理单元(VTG)1406。VTG 1406可包括例如顶点处理单元、曲面细分初始化处理单元、任务分布器、任务生成单元、拓扑生成单元、几何处理单元、曲面细分处理单元等或其任何组合。在一个示例中,VTG1406是配置成执行几何程序、曲面细分程序和顶点着色器程序的可编程执行单元。由VTG1406执行的程序可处理从VAF 1404接收到的顶点数据和顶点属性。而且,由VTG 1406执行的程序可产生图形图元、颜色值、表面归一因子和图形图元的每个顶点处的透明度值以供在图形处理流水线1400内进一步处理。
VTG 1406的顶点处理单元可以是执行顶点着色器程序的可编程执行单元,按顶点着色器程序所规定的调亮和变换顶点数据。例如,可将顶点处理单元编程为将顶点数据从基于对象的坐标表示(例如,对象空间)变换到诸如世界空间或归一化装置坐标(NDC)空间的备选地基于坐标系(alternatively based coordinate system)。此外,顶点处理单元可读取由VAF 1404存储在共享存储器中的顶点数据和顶点属性,并且处理顶点数据和顶点属性。在一个示例中,顶点处理单元将经处理的顶点存储在共享存储器中。
曲面细分初始化处理单元(例如,外壳着色器、曲面细分控制着色器)可执行曲面细分初始化着色器程序。在一个示例中,曲面细分初始化处理单元处理由顶点处理单元产生的顶点并生成有时称为“补片”的图形图元。曲面细分初始化处理单元还可生成各种补片属性,其中补片数据和补片属性被存储于共享存储器。VTG 1406的任务生成单元可从共享存储器检索顶点和补片的数据和属性。在一个示例中,任务生成单元生成用于处理顶点和补片的任务,以用于由图形处理流水线1400中的稍后级进行处理。
由任务生成单元产生的任务可由VTG 1406的任务分布器重分布。例如,由顶点着色器程序和曲面细分初始化程序的各种实例产生的任务可在一个图形处理流水线1400和另一个图形处理流水线之间显著变化。相应地,任务分布器可重分布这些任务使得每一个图形处理流水线1400在稍后流水线级期间有几乎相同的工作负荷。
如已经注释的,VTG 1406还可包括拓扑生成单元。在一个示例中,拓扑生成单元检索由任务分布器分布的任务,对包括与补片相关联的顶点在内的顶点进行索引,并计算连接曲面细分顶点用于形成图形图元的索引以及曲面细分顶点的坐标(UV)。经索引的顶点可由拓扑生成单元存储在共享存储器中。VTG 1406的曲面细分处理单元可配置成执行曲面细分着色器程序(例如,域着色器、曲面细分评估着色器)。曲面细分处理单元可从共享存储器读取输入数据并将输出数据写到共享存储器。输出数据可从共享存储器传递到几何处理单元(例如下一着色器级)作为输入数据。
VTG 1406的几何处理单元可执行几何着色器程序以变换图形图元(例如,三角形、线段、点等)。在一个示例中,将顶点分组以构建图形图元,其中几何处理单元将图形图元再分成一个或多个新图形图元。几何处理单元还可运算可用来光栅化新图形图元的参数,诸如例如平面方程系数(plain equation coefficient)。
所示出的世界空间流水线1420还包括从VTG 1406接收规定新图形图元的参数和顶点的视口缩放、拣选和剪辑单元(VPC)1408。在一个示例中,VPC 1408执行剪辑、翻边、透视校正和视口变换以标识在最终经渲染的图像中潜在可查看的图形图元。VPC 1408还可标识可能不可查看的图形图元。
图形处理流水线1400还可包括耦合至世界空间流水线1420的分图块单元1410。分图块单元1410可以是图形图元分类引擎,其中图形图元在世界空间流水线1420中被处理并且随后被传送给分图块单元1410。就此而言,图形处理流水线1400还可包括屏幕空间流水线1422,其中屏幕空间可被划分成高速缓存图块。每一个高速缓存图块可因此与屏幕空间的一部分相关联。对于每一个图形图元,分图块单元1410可标识与图形图元相交(例如,“分图块”)的一组高速缓存图块。在将多个图形图元分图块以后,分图块单元1410可逐高速缓存图块地处理图形图元。在一个示例中,与具体高速缓存图块相关联的图形图元每次一个图块地被传送给屏幕空间流水线1422中的设置单元1412。与多个高速缓存图块相交的图形图元可在世界空间流水线1420中被处理一次,同时被传送到屏幕空间流水线1422多次。
在一个示例中,设置单元1412经由分图块单元1410从VPC 1408接收顶点数据并且运算与图形图元相关联的参数。参数可以包括例如边方程、偏平面方程和深度平面方程。屏幕空间流水线1422还可包括耦合至设置单元1412的光栅化器1414。光栅化器可扫描转化新图形图元并将片段和覆盖数据传送到像素着色单元(PS)1416。光栅化器1414还可执行Z拣选和其他基于Z的优化。
可访问共享存储器的PS 1416可执行变换从光栅化器1414接收的片段的片段着色器程序。更具体地,片段着色器程序可以像素级粒度对片段着色(例如作为像素着色器程序工作)。在另一个示例中,片段着色器程序以样本级粒度对片段着色,其中每一个像素包括多个样本,且每一个样本表示像素的一部分。而且,取决于环境(例如采样率),片段着色器程序可以任何其他粒度对片段着色。PS 1416可执行混合、着色、透视校正、纹理映射等以生成经着色的片段。
所示出的屏幕空间流水线1422还包括光栅操作单元(ROP)1418,其可执行诸如例如模板印刷、Z测试、混合等等。ROP 1418随后可将像素数据作为经处理的图形数据传送给一个或多个经渲染的目标(例如,图形存储器)。ROP 1418可配置成压缩写到存储器的Z或颜色数据并且解压缩从存储器读取的Z或颜色数据。ROP 1418的位置可取决于环境而变化。
图形处理流水线1400可由一个或多个处理元件实现。例如,VTG 1406和/或PS1416可被实现于一个或多个SM中,PD 1402、VAF 1404、VPC 1408、分图块单元1410、设置单元1412、光栅化器1414和/或ROP 1418可在连同对应的分区单元的具体GPC的处理元件中被实现。图形处理流水线1400还可在固定功能性硬件逻辑中被实现。事实上,图形处理流水线1400可在PPU中被实现。
因此,所示出的世界空间流水线1420处理3D空间中的图形对象,其中已知每一个图形对象相对于其他图形对象以及相对于3D坐标系的位置。相反,屏幕空间流水线1422可处理已经从3D坐标系投射到表示显示装置的表面的2D平面表面上的图形对象。此外,可将世界空间流水线1420划分成阿尔法阶段流水线和贝塔阶段流水线,其中阿尔法阶段流水线包括从PD 1402直到任务生成单元的流水线级。贝塔阶段流水线可包括从拓扑生成单元直到VPC 1408的流水线级。在此类情况中,图形处理流水线1400可在阿尔法阶段流水线中执行第一组操作(例如,单个线程、线程群组、一致行动的多个线程群组)并在贝塔阶段流水线中执行第二组操作(例如,单个线程、线程群组、一致行动的多个线程群组)。
如果多个图形处理流水线1400在使用中,则可将与一组图形对象相关联的顶点数据和顶点属性划分使得每一个图形处理流水线1400贯穿阿尔法阶段有相似的工作负荷。相应地,阿尔法阶段处理可以实质地扩展顶点数据和顶点属性的数量,使得由任务生成单元产生的顶点数据和顶点属性的数量显著大于由PD 1402和VAF 1404处理的顶点数据和顶点属性的数量。而且,即使当用相同数量的属性开始阿尔法阶段时,与不同的图形处理流水线1400相关联的任务生成单元也可产生具有不同质量级别的顶点数据和顶点属性。在此类情况中,任务分布器可重分布由阿尔法阶段流水线产生的属性,使得每一个图形处理流水线1400在贝塔阶段流水线的开始有大致相同的工作负荷。
现在转向图15,示出了流传送多处理器(SM)1500。所示出的SM 1500包括耦合至指令高速缓存1502的K个调度器单元1504,其中每一个调度器单元1504从流水线管理器(未示出)接收线程块阵列,并管理每一个活动线程块阵列中的一个或多个线程块的指令调度。调度器单元1504可调度线程以用于在并行线程群组中执行,其中每一个群组可称为“线程束”。因此,每一个线程束可能包括例如六十四个线程。此外,调度器单元1504可管理多个不同的线程块,将线程块分配给线程束以用于执行。调度器单元可随后在每一个时钟周期期间在各种功能单元上调度来自多个不同线程束的指令。每一个调度器单元1504可包括一个或多个指令分派单元1522,其中每一个分派单元1522向功能单元中的一个或多个传送指令。分派单元1522的数量可取决于环境而变化。在所示出的示例中,调度器单元1504包括使来自同一线程束的两个不同指令在每个时钟周期期间能被分派的两个分派单元1522。
SM 1500还可以包括寄存器堆1506。寄存器堆1506可包括一组寄存器,该组寄存器在功能单元之间进行划分使得每一个功能单元被分配到寄存器堆1506的专用部分。寄存器堆1506还可在正由SM 1500执行的不同线程束之间进行划分。在一个示例中,寄存器堆1506为连接到功能单元的数据路径的操作数提供临时存储。所示出的SM 1500还包括L个处理核1508,其中L可以是相对较大的数(例如192)。每一个核1508都可以是包括浮点算术逻辑单元(例如,IEEE 754-2008)和整数算术逻辑单元的流水线的单精度处理单元。
所示出的SM 1500还包括M个双精度单元(DPU)1510、N个特殊功能单元(SFU)1512和P个加载/存储单元(LSU)1514。每一个DPU 1510都可实现双精度浮点算术且每一个SFU1512都可执行诸如例如矩形复制像素混合等的特殊功能。此外,每一个LSU 1514都可在共享存储器1518与寄存器堆1506之间实施加载和存储操作。在一个示例中,加载和存储操作是通过J个纹理单元/L1高速缓存1520和互连网络1516来实施的。在一个示例中,J个纹理单元/L1高速缓存1520还耦合至交叉开关(未示出)。因此,互连网络1516可将功能单元的每一个连接到寄存器堆1506和共享存储器1518。在一个示例中,互连网络1516担当将功能单元中的任何一个连接到寄存器堆1506中的任何寄存器的交叉开关。
SM 1500可在图形处理器(例如,图形处理单元/GPU)内实现,其中纹理单元/L1高速缓存1520可访问来自存储器的纹理映射并对纹理映射采样以产生经采样的纹理值以用于着色器程序中。由纹理单元/L1高速缓存1520执行的纹理操作包括但不限于基于mip图(mipmap)的抗锯齿。
附加系统概述示例
图16是根据实施例的处理系统1600的框图。在各种实施例中,系统1600包括一个或多个处理器1602和一个或多个图形处理器1608,并且可以是具有大数量的处理器1602或处理器核1607的服务器系统、单处理器桌上型系统或多处理器工作站系统。在一个实施例中,系统1600是合并在芯片上系统(SoC)集成电路内以供在移动、手持式或嵌入式装置中使用的处理平台。
系统1600的实施例可以包括以下各项或可以合并在以下各项内:基于服务器的游戏平台、游戏控制台(包括游戏和媒体控制台、移动游戏控制台、手持式游戏控制台或在线游戏控制台)。在一些实施例中,系统1600是移动电话、智能电话、平板计算装置或移动互联网装置。数据处理系统1600还可以包括以下各项、与以下各项耦合或被集成在以下各项内:可穿戴式装置,诸如智能手表可穿戴式装置、智能眼部穿戴式(eyewear)装置、增强现实装置或虚拟现实装置。在一些实施例中,数据处理系统1600是电视或机顶盒装置,其具有一个或多个处理器1602和由一个或多个图形处理器1608产生的图形界面。
在一些实施例中,所述一个或多个处理器1602各自包括用于处理指令的一个或多个处理器核1607,所述指令在被执行时执行系统和用户软件的操作。在一些实施例中,所述一个或多个处理器核1607中的每个配置成处理特定指令集1609。在一些实施例中,指令集1609可以促进复杂指令集计算(CISC)、精简指令集计算(RISC)、或经由超长指令字(VLIW)的计算。多个处理器核1607可以各自处理不同的指令集1609,所述指令集可以包括用于促进对其他指令集进行仿真的指令。处理器核1607还可包括其他处理装置,诸如数字信号处理器(DSP)。
在一些实施例中,处理器1602包括高速缓存存储器1604。取决于架构,处理器1602可以具有单个内部高速缓存或多个级别的内部高速缓存。在一些实施例中,在处理器1602的各种部件中共享高速缓存存储器。在一些实施例中,处理器1602还使用外部高速缓存(例如,3级(L3)高速缓存或末级高速缓存(LLC))(未示出),其可使用已知的高速缓存一致性技术在处理器核1607中被共享。寄存器堆1606被另外包括在处理器1602中,所述寄存器堆可包括用于存储不同类型的数据的不同类型的寄存器(例如,整数寄存器、浮点寄存器、状态寄存器和指令指针寄存器)。一些寄存器可以是通用寄存器,而其他寄存器可以特定于处理器1602的设计。
在一些实施例中,处理器1602耦合至用于在处理器1602与系统1600中的其他部件之间传送通信信号(诸如,地址、数据或控制信号)的处理器总线1610部件。在一个实施例中,系统1600使用示例性‘中枢’系统架构,包括存储器控制器中枢1616和输入输出(I/O)控制器中枢1630。存储器控制器中枢1616促进存储器装置与系统1600的其他部件之间的通信,而I/O控制器中枢(ICH)1630提供经由本地I/O总线到I/O装置的连接。在一个实施例中,存储器控制器中枢1616的逻辑被集成在处理器内。
存储器装置1620可以是动态随机存取存储器(DRAM)装置、静态随机存取存储器(SRAM)装置、闪速存储器装置、相变存储器装置或具有合适的性能以充当进程存储器的某一其他存储器装置。在一个实施例中,存储器装置1620可以作为系统1600的系统存储器来操作,以存储数据1622和指令1621,以供当所述一个或多个处理器1602执行应用或进程时使用。存储器控制器中枢1616也与可选的外部图形处理器1612耦合,所述外部图形处理器1612可与处理器1602中的一个或更多图形处理器1608通信,以执行图形和媒体操作。
在一些实施例中,ICH 1630使外围装置能够经由高速I/O总线连接到存储器装置1620和处理器1602。I/O外围装置包含但不限于:音频控制器1646、固件接口1628、无线收发器1626(例如,Wi-Fi、蓝牙)、数据存储装置1624(例如,硬盘驱动、闪速存储器等)和用于将传统(例如,个人系统2(PS/2))装置耦合至系统的传统I/O控制器1640。一个或多个通用串行总线(USB)控制器1642连接输入装置(诸如,键盘和鼠标1644组合)。网络控制器1634还可以耦合至ICH 1630。在一些实施例中,高性能网络控制器(未示出)耦合至处理器总线1610。将认识到的是,所示出的系统1600是示例性的而非限制性的,因为还可以使用以不同方式配置的其他类型的数据处理系统。例如,I/O控制器中枢1630可以集成在所述一个或多个处理器1602内,或者存储器控制器中枢1616和I/O控制器中枢1630可以集成到谨慎(discreet)外部图形处理器(诸如外部图形处理器1612)中。
图17是处理器1700的实施例的框图,所述处理器1700具有一个或多个处理器核1702A-1702N、集成式存储器控制器1714和集成式图形处理器1708。图17中具有与本文任何其他图的元件相同的参考数字(或名称)的那些元件可以以与本文别处描述的方式类似的任何方式来操作或运作,但并不限于此。处理器1700可包括多达且包括由虚线框表示的附加核1702N的附加核。处理器核1702A-1702N中的每个都包含一个或多个内部高速缓存单元1704A-1704N。在一些实施例中,每个处理器核还能够访问一个或多个共享高速缓存单元1706。
内部高速缓存单元1704A-1704N和共享高速缓存单元1706表示处理器1700内的高速缓存存储器分层。高速缓存存储器分层可包括每个处理器核内的指令和数据高速缓存的至少一个级别以及共享中间级高速缓存的一个或多个级别(诸如,2级(L2)、3级(L3)、4级(L4)或高速缓存的其他级别),其中,在外部存储器前面的最高级别高速缓存被归类为LLC。在一些实施例中,高速缓存一致性逻辑保持各种高速缓存单元1706和1704A-1704N之间的一致性。
在一些实施例中,处理器1700还可包括一组一个或多个总线控制器单元1716以及系统代理核1710。所述一个或多个总线控制器单元1716管理一组外围总线,诸如一个或多个外围部件互连总线(例如,PCI、PCI快速)。系统代理核1710提供对各种处理器部件的管理功能性。在一些实施例中,系统代理核1710包括一个或多个集成式存储器控制器1714以管理对各种外部存储器装置(未示出)的访问。
在一些实施例中,处理器核1702A-1702N中的一个或多个包括对同时多线程的支持。在此类实施例中,系统代理核1710包括用于在多线程处理期间协调和操作核1702A-1702N的部件。系统代理核1710可另外包括功率控制单元(PCU),所述PCU包括用于调节处理器核1702A-1702N和图形处理器1708的功率状态的逻辑和部件。
在一些实施例中,处理器1700另外包括用于执行图形处理操作的图形处理器1708。在一些实施例中,图形处理器1708与一组共享高速缓存单元1706和系统代理核1710(包括所述一个或多个集成式存储器控制器1714)耦合。在一些实施例中,显示器控制器1711与图形处理器1708耦合以将图形处理器输出驱动到一个或多个耦合的显示器。在一些实施例中,显示器控制器1711可以是经由至少一个互连与图形处理器耦合的单独模块,或者可以集成在图形处理器1708或系统代理核1710内。
在一些实施例中,使用基于环的互连单元1712来耦合处理器1700的内部部件。然而,可以使用备选互连单元,诸如点到点互连、切换式互连、或其他技术,包括本领域众所周知的技术。在一些实施例中,图形处理器1708经由I/O链路1713与环形互连1712耦合。
示例性I/O链路1713表示多种I/O互连中的至少一种,包括促进各种处理器部件与高性能嵌入式存储器模块1718(诸如eDRAM模块)之间的通信的封装上(on package)I/O互连。在一些实施例中,处理器核1702-1702N中的每个和图形处理器1708将嵌入式存储器模块1718用作共享末级高速缓存。
在一些实施例中,处理器核1702A-1702N是执行相同的指令集架构的同质核。在另一个实施例中,处理器核1702A-1702N在指令集架构(ISA)方面是异质的,其中,处理器核1702A-N中的一个或多个执行第一指令集,而另一些核中的至少一个执行第一指令集的子集或不同指令集。在一个实施例中,处理器核1702A-1702N在微架构方面是异质的,其中,具有相对更高功率耗用的一个或多个核与具有更低功率耗用的一个或多个功率核耦合。另外,处理器1700可以被实现在一个或多个芯片上或者被实现为具有除其他部件之外的所示出的部件的SoC集成电路。
图18是图形处理器1800的框图,所述图形处理器1800可以是分立式图形处理单元,或可以是与多个处理核集成的图形处理器。在一些实施例中,图形处理器经由到图形处理器上的寄存器的存储器映射的I/O接口并且用被放置到处理器存储器中的命令进行通信。在一些实施例中,图形处理器1800包括用于访问存储器的存储器接口1814。存储器接口1814可以是到本地存储器、一个或多个内部高速缓存、一个或多个共享外部高速缓存、和/或到系统存储器的接口。
在一些实施例中,图形处理器1800还包括用于将显示器输出数据驱动到显示装置1820的显示器控制器1802。显示器控制器1802包括用于显示器的一个或多个重叠平面的硬件以及多层视频或用户接口元件的组成。在一些实施例中,图形处理器1800包括用于向、从一个或多个媒体编码格式或在所述格式之间对媒体进行编码、解码、或者转码的视频编解码器引擎1806,所述格式包括但不限于:移动图像专家组(MPEG)格式(诸如MPEG-2)、高级视频译码(AVC)格式(诸如H.264/MPEG-4 AVC)、以及运动图像&电视工程师协会(SMPTE)421M/VC-1、和联合图像专家组(JPEG)格式(诸如JPEG、以及运动JPEG(MJPEG)格式)。
在一些实施例中,图形处理器1800包括用于执行二维(2D)光栅化器操作的块图转移(BLIT)引擎1804,所述2D光栅化器操作包括(例如)位边界块转移。然而,在一个实施例中,使用图形处理引擎(GPE)1810的一个或多个部件来执行2D图形操作。在一些实施例中,图形处理引擎1810是用于执行图形操作的计算引擎,所述图形操作包括三维(3D)图形操作和媒体操作。
在一些实施例中,GPE 1810包括用于执行3D操作的3D流水线1812,诸如使用作用于3D图元图元形状(例如矩形、三角形等)的处理功能来渲染三维图像和场景。3D流水线1812包含可编程和固定功能元件,所述元件执行元件内的各种任务和/或对3D/媒体子系统1815生成执行线程。虽然3D流水线1812可以用于执行媒体操作,但是GPE 1810的实施例还包括媒体流水线1816,所述媒体流水线1816特定地用于执行媒体操作,诸如视频后处理(video post-processing)和图像提高。
在一些实施例中,媒体流水线1816包括用于代替或代表视频编解码器引擎1806执行一个或多个专门的媒体操作(诸如视频解码加速、视频去交织和视频编码加速)的固定功能或可编程逻辑单元。在一些实施例中,媒体流水线1816另外包括线程生成单元以便生成用于在3D/媒体子系统1815上执行的线程。所生成的线程在3D/媒体子系统1815中所包括的一个或多个图形执行单元上执行对媒体操作的计算。
在一些实施例中,3D/媒体子系统1815包括用于执行由3D流水线1812和媒体流水线1816生成的线程的逻辑。在一个实施例中,流水线向3D/媒体子系统1815发送线程执行请求,所述3D/媒体子系统1815包括用于仲裁并分派对可用的线程执行资源的各种请求的线程分派逻辑。执行资源包括用于处理3D和媒体线程的图形执行单元的阵列。在一些实施例中,3D/媒体子系统1815包括用于线程指令和数据的一个或多个内部高速缓存。在一些实施例中,所述子系统还包括共享存储器(包括寄存器和可寻址存储器),以在线程之间共享数据并存储输出数据。
3D/媒体处理
图19是依照一些实施例的图形处理器的图形处理引擎1910的框图。在一个实施例中,GPE 1910是图18中所示的GPE 1810的一个版本。图19中具有与本文任何其他图的元件相同的参考数字(或名称)的元件可以以与本文别处描述的方式类似的任何方式来操作或运作,但并不限于此。
在一些实施例中,GPE 1910与命令流传送器1903耦合,所述命令流传送器将命令流提供给GPE 3D和媒体流水线1912、1916。在一些实施例中,命令流传送器1903耦合至存储器,所述存储器可以是系统存储器、或内部高速缓存存储器和共享高速缓存存储器中的一个或多个。在一些实施例中,命令流传送器1903从存储器接收命令,并且将命令发送给3D流水线1912和/或媒体流水线1916。所述命令是从存储3D和媒体流水线1912、1916的命令的环形缓冲器获取的指示。在一个实施例中,所述环形缓冲器可另外包括存储多批多个命令的批命令缓冲器。3D和媒体流水线1912、1916通过经由相应流水线内的逻辑来执行操作或者通过将一个或多个执行线程分派至执行单元阵列1914来处理所述命令。在一些实施例中,执行单元阵列1914是可缩放的,使得所述阵列基于GPE 1910的目标功率和性能级别而包括可变数量的执行单元。
在一些实施例中,采样引擎1930与存储器(例如,高速缓存存储器或系统存储器)以及执行单元阵列1914耦合。在一些实施例中,采样引擎1930为允许执行阵列1914从存储器读取图形和媒体数据的执行单元阵列1914提供了存储器存取机制。在一些实施例中,采样引擎1930包括用于执行针对媒体的专门图像采样操作的逻辑。
在一些实施例中,采样引擎1930中的专门的媒体采样逻辑包括去噪/去交织模块1932、运动估计模块1934以及图像缩放和过滤模块1936。在一些实施例中,去噪/去交织模块1932包括用于对经解码的视频数据执行去噪或去交织算法中的一个或更多的逻辑。去交织逻辑将经交织的视频内容的交替场(alternating field)组合到视频的单个帧中。去噪逻辑从视频和图像数据减少或去除数据噪声。在一些实施例中,所述去噪逻辑和去交织逻辑是运动自适应的并且基于在视频数据中检测到的运动量使用空间或时间过滤。在一些实施例中,去噪/去交织模块1932包括专用的运动检测逻辑(例如,在运动估计引擎1934内)。
在一些实施例中,运动估计引擎1934通过对视频数据执行视频加速功能(诸如,运动向量估计和预测)来提供对视频操作的硬件加速。运动估计引擎确定描述连续视频帧之间的图像数据的变换的运动向量。在一些实施例中,图形处理器媒体编解码器使用视频运动估计引擎1934在宏块级别对视频执行操作,否则对于其用通用处理器来执行可以是过于计算密集的。在一些实施例中,运动估计引擎1934一般可用于图形处理器部件以便辅助视频解码和处理功能,所述视频解码和处理功能对于视频数据内的运动的方向或幅度是敏感或自适应的。
在一些实施例中,图像缩放和过滤模块1936执行图像处理操作,以提高所产生的图像和视频的视觉质量。在一些实施例中,缩放和过滤模块1936在向执行单元阵列1914提供数据之前在采样操作期间处理图像和视频数据。
在一些实施例中,GPE 1910包括数据端口1944,所述数据端口1944为了图形子系统访问存储器提供附加机制。在一些实施例中,数据端口1944针对操作促进存储器访问,所述操作包括渲染目标写入、恒定缓冲器读取、暂存存储器空间读取/写入、和媒体表面访问。在一些实施例中,数据端口1944包括用于高速缓存对存储器的访问的高速缓存存储器空间。高速缓存存储器可以是单个数据高速缓存,或被分离成经由数据端口来访问存储器的多个子系统的多个高速缓存(例如,渲染缓冲器高速缓存、恒定缓冲器高速缓存等)。在一些实施例中,执行在执行单元阵列1914中的执行单元上的线程通过经由数据分布互连来交换消息而与数据端口通信,所述数据分布互连耦合GPE 1910的每个子系统。
执行单元
图20是图形处理器2000的另一实施例的框图。图20中具有与本文任何其他图的元件相同的参考数字(或名称)的元件可以以与本文别处描述的方式类似的任何方式来操作或运作,但并不限于此。
在一些实施例中,图形处理器2000包括环形互连2002、流水线前端2004、媒体引擎2037和图形核2080A-2080N。在一些实施例中,环形互连2002将图形处理器耦合至其他处理单元,包括其他图形处理器或者一个或多个通用处理器核。在一些实施例中,图形处理器是集成在多核处理系统内的许多处理器之一。
在一些实施例中,图形处理器2000经由环形互连2002接收多批命令。由流水线前端2004中的命令流传送器2003解译进入的命令。在一些实施例中,图形处理器2000包括用于经由图形核2080A-2080N来执行3D几何处理和媒体处理的可缩放执行逻辑。针对3D几何处理命令,命令流传送器2003将命令供应给几何流水线2036。针对至少一些媒体处理命令,命令流传送器2003将命令供应给视频前端2034,所述视频前端2034与媒体引擎2037耦合。在一些实施例中,媒体引擎2037包括用于视频和图像后处理的视频质量引擎(VQE)2030以及用于提供硬件加速的媒体数据编码和解码的多格式编码/解码(MFX)2033引擎。在一些实施例中,几何流水线2036和媒体引擎2037各自生成对于由至少一个图形核2080A所提供的线程执行资源的执行线程。
在一些实施例中,图形处理器2000包括以模块化核2080A-2080N(有时称为核切片)为特征的可缩放线程执行资源,每个模块化核具有多个子核2050A-2050N、2060A-2060N(有时称为核子切片)。在一些实施例中,图形处理器2000可以具有任意数量的图形核2080A至2080N。在一些实施例中,图形处理器2000包括图形核2080A,所述图形核2080A至少具有第一子核2050A和第二核子核2060A。在其他实施例中,图形处理器是具有单个子核(例如,2050A)的低功率处理器。在一些实施例中,图形处理器2000包括多个图形核2080A-2080N,每个图形核包括一组第一子核2050A-2050N和一组第二子核2060A-2060N。该组第一子核2050A-2050N中的每个子核至少包括第一组执行单元2052A-2052N和媒体/纹理采样器2054A-2054N。该组第二子核2060A-2060N中的每个子核至少包括第二组执行单元2062A-2062N和采样器2064A-2064N。在一些实施例中,每个子核2050A-2050N、2060A-2060N共享一组共享资源2070A-2070N。在一些实施例中,所述共享资源包括共享高速缓存存储器和像素操作逻辑。其他共享资源也可被包括在图形处理器的各种实施例中。
图21示出了线程执行逻辑2100,包括在GPE的一些实施例中所采用的处理元件的阵列。图21中具有与本文任何其他图的元件相同的参考数字(或名称)的那些元件可以以与本文别处描述的方式类似的任何方式来操作或运作,但并不限于此。
在一些实施例中,线程执行逻辑2100包括像素着色器2102、线程分派器2104、指令高速缓存2106、可缩放执行单元阵列(包括多个执行单元2108A-2108N)、采样器2110、数据高速缓存2112和数据端口2114。在一个实施例中,所包括的部件经由互连结构而互连,所述互连结构链接到所述部件中的每个。在一些实施例中,通过指令高速缓存2106、数据端口2114、采样器2110和执行单元阵列2108A-2108N中的一个或多个,线程执行逻辑2100包括到存储器(诸如,系统存储器或高速缓存存储器)的一个或多个连接。在一些实施例中,每个执行单元(例如,2108A)是单独向量处理器,其能够执行多个同时的线程并且针对每个线程来并行处理多个数据元素。在一些实施例中,执行单元阵列2108A-2108N包括任何数量的单独执行单元。
在一些实施例中,执行单元阵列2108A-2108N主要用于执行“着色器”程序。在一些实施例中,阵列2108A-2108N中的执行单元执行包括对许多标准3D图形着色器指令的原生支持的指令集,使得用最小转换来执行来自图形库(例如,Direct 3D和OpenGL)的着色器程序。执行单元支持顶点和几何处理(例如,顶点程序、几何程序、顶点着色器)、像素处理(例如,像素着色器、片段着色器)和通用处理(例如,计算和媒体着色器)。
执行单元阵列2108A-2108N中的每个执行单元对数据元素的阵列进行操作。数据元素的数量是“执行大小”或用于指令的通道的数量。执行通道是用于指令内的流控制、数据元素访问、和掩蔽的执行的逻辑单元。通道的数量可以独立于具体图形处理器的物理算术逻辑单元(ALU)或浮点单元(FPU)的数量。在一些实施例中,执行单元2108A-2108N支持整数和浮点数据类型。
执行单元指令集包括单指令多数据(SIMD)指令。可以将各种数据元素作为紧缩数据类型存储在寄存器中,并且执行单元将基于元素的数据大小来处理各种元素。例如,当在256位宽的向量上进行操作时,所述256位的向量存储在寄存器中,并且所述执行单元作为四个单独64位紧缩数据元素(四倍字长(QW)大小的数据元素)、八个单独32位紧缩数据元素(双倍字长(DW)大小的数据元素)、十六个单独16位紧缩数据元素(字长(W)大小的数据元素)、或三十二个单独8位数据元素(字节(B)大小的数据元素)在所述向量上进行操作。然而,不同的向量宽度和寄存器大小是可能的。
一个或多个内部指令高速缓存(例如,2106)被包括在线程执行逻辑2100中,以高速缓存执行单元的线程指令。在一些实施例中,一个或多个数据高速缓存(例如,2112)被包括以高速缓存在线程执行期间的线程数据。在一些实施例中,采样器2110被包括以为了3D操作提供纹理采样并且为了媒体操作提供媒体采样。在一些实施例中,采样器2110包括专门的纹理或媒体采样功能性,以在向执行单元提供所采样的数据之前在采样过程期间处理纹理或媒体数据。
在执行期间,图形和媒体流水线经由线程生成和分派逻辑将线程发起请求发送给线程执行逻辑2100。在一些实施例中,线程执行逻辑2100包括本地线程分派器2104,所述本地线程分派器2104仲裁来自图形和媒体流水线的线程发起请求并在一个或多个执行单元2108A-2108N上例示所请求的线程。例如,几何流水线(例如,图20的2036)将顶点处理、曲面细分或几何处理线程分派给线程执行逻辑2100(图21)。在一些实施例中,线程分派器2104还可以处理来自执行着色器程序的执行时间线程生成请求。
一旦几何对象的群组已被处理并被光栅化到像素数据中,调用像素着色器2102以进一步计算输出信息并促使结果被写到输出表面(例如,颜色缓冲器、深度缓冲器、模板印刷缓冲器等)。在一些实施例中,像素着色器2102运算要跨栅格化的对象被内插的各种顶点属性的值。在一些实施例中,像素着色器2102然后执行应用编程接口(API)供应的像素着色器程序。为了执行所述像素着色器程序,像素着色器2102经由线程分派器2104将线程分派给执行单元(例如,2108A)。在一些实施例中,像素着色器2102使用采样器2110中的纹理采样逻辑来访问存储器中所存储的纹理映射中的纹理数据。对纹理数据和输入几何数据进行的算术操作运算针对每个几何片段的像素颜色数据,或从进一步处理中丢弃一个或多个像素。
在一些实施例中,数据端口2114为了线程执行逻辑2100将处理的数据输出到存储器以便在图形处理器输出流水线上处理而提供存储器访问机制。在一些实施例中,数据端口2114包括或耦合至一个或多个高速缓存存储器(例如,数据高速缓存2112)以经由数据端口高速缓存用于存储器访问的数据。
图22是根据一些实施例图示了图形处理器指令格式2200的框图。在一个或多个实施例中,图形处理器执行单元支持具有采用多个格式的指令的指令集。实线框示出通常包括在执行单元指令中的分量,而虚线包括可选的或仅包括在指令的子集中的分量。在一些实施例中,所描述和示出的指令格式2200是宏指令,因为它们是供应至执行单元的指令,这与从指令解码得出的微操作相反(一旦所述指令被处理)。
在一些实施例中,图形处理器执行单元原生支持采用128位格式2210的指令。64位紧凑指令格式2230对于基于所选的指令、指令选项和操作数的数量的一些指令是可用的。原生128位格式2210提供对所有指令选项的访问,而一些选项和操作被限定于64位格式2230中。在64位格式2230中可用的原生指令随实施例而变化。在一些实施例中,使用索引字段2213中的一组索引值将指令部分地紧凑。执行单元硬件引用基于所述索引值的一组紧凑表,并且使用紧凑表输出来以128位格式2210重构原生指令。
对每个格式,指令操作码2212定义执行单元要执行的操作。执行单元跨每个操作数的多个数据元素并行执行每个指令。例如,响应于加法指令,执行单元跨表示纹理元素或图片元素的每个颜色通道来执行同时加法运算。默认情况下,执行单元跨操作数的所有数据通道执行每个指令。在一些实施例中,指令控制字段2214能够实现对某些执行选项(诸如通道选择(例如,预测)以及数据通道排序(例如,搅和)的控制。针对128位指令2210,执行大小字段2216限制将被并行执行的数据通道的数量。在一些实施例中,执行大小字段2216对于在64位紧凑指令格式2230中使用是不可用的。
一些执行单元指令具有多达三个操作数,包括两个源操作数src0 2220、src12222和一个目的地2218。在一些实施例中,执行单元支持双目的地指令,其中,所述目的地之一是隐式的。数据操纵指令可以具有第三源操作数(例如,SRC2 2224),其中,指令操作码2212确定源操作数的数量。指令的最后一个源操作数可以是通过所述指令传递的立即(例如,硬编码的)值。
在一些实施例中,128位指令格式2210包括访问/寻址模式信息2226,所述访问/寻址模式信息2226指定(例如)使用直接寄存器寻址模式还是间接寄存器寻址模式。当使用直接寄存器寻址模式时,直接通过指令2210中的位来提供一个或多个操作数的寄存器地址。
在一些实施例中,128位指令格式2210包括访问/寻址模式字段2226,所述访问/寻址模式字段2226指定针对所述指令的寻址模式和/或访问模式。在一个实施例中,访问模式用于定义针对所述指令的数据访问对齐。一些实施例支持包括16字节对齐的访问模式和1字节对齐的访问模式的访问模式,其中,访问模式的字节对齐确定指令操作数的访问对齐。例如,当处于第一模式中时,指令2210可针对源和目的地操作数使用字节对齐的寻址,并且当处于第二模式中时,指令2210可针对所有的源和目的地操作数使用16字节对齐的寻址。
在一个实施例中,访问/寻址模式字段2226的寻址模式部分确定指令将使用直接还是间接寻址。当使用直接寄存器寻址模式时,指令2210中的位直接提供一个或多个操作数的寄存器地址。当使用间接寄存器寻址模式时,可基于所述指令中的地址立即字段和地址寄存器值来计算一个或多个操作数的寄存器地址。
在一些实施例中,基于操作码2212位字段对指令进行分组,以简化操作码解码2240。针对8位操作码,位4、5和6允许执行单元确定操作码的类型。所示出的精确操作码分组仅仅是示例。在一些实施例中,移动和逻辑操作码群组2242包括数据移动和逻辑指令(例如,移动(mov)、比较(cmp))。在一些实施例中,移动和逻辑群组2242共享五个最高有效位(MSB),其中,移动(mov)指令采用0000xxxxb的形式,以及逻辑指令采用0001xxxxb的形式。流控制指令群组2244(例如,调用、跳(jmp))包括采用0010xxxxb形式(例如,0x20)的指令。混杂指令群组2246包括指令的混合,其包括采用0011xxxxb形式(例如,0x30)的同步指令(例如,等待、发送)。并行数学指令群组2248包括采用0100xxxxb形式(例如,0x40)的分量式算术指令(例如,加、乘(mul))。并行数学群组2248跨数据通道并行执行算术操作。向量数学群组2250包括采用0101xxxxb形式(例如,0x50)的算术指令(例如,dp4)。向量数学群组执行诸如对向量操作数的点积运算的算术。
图形流水线
图23是图形处理器2300的另一实施例的框图。图23中具有与本文任何其他图的元件相同的参考数字(或名称)的元件可以以与本文别处描述的方式类似的任何方式来操作或运作,但并不限于此。
在一些实施例中,图形处理器2300包括图形流水线2320、媒体流水线2330、显示器引擎2340、线程执行逻辑2350和渲染输出流水线2370。在一些实施例中,图形处理器2300是包括一个或多个通用处理核的多核处理系统内的图形处理器。图形处理器由到一个或多个控制寄存器(未示出)的寄存器写入控制或者经由借助环形互连2302发布至图形处理器2300的命令控制。在一些实施例中,环形互连2302将图形处理器2300耦合至其他处理部件,诸如其他图形处理器或通用处理器。来自环形互连2302的命令由命令流传送器2303解译,所述命令流传送器2303将指令供应给图形流水线2320或媒体流水线2330的单独部件。
在一些实施例中,命令流传送器2303指导顶点获取器2305的操作,所述顶点获取器2305从存储器读取顶点数据并执行由命令流传送器2303提供的顶点处理命令。在一些实施例中,顶点获取器2305将顶点数据提供给顶点着色器2307,所述顶点着色器2307对每个顶点执行坐标空间变换和调亮操作。在一些实施例中,顶点获取器2305和顶点着色器2307通过经由线程分派器2331将执行线程分派给执行单元2352A、2352B来执行顶点处理指令。
在一些实施例中,执行单元2352A、2352B是具有用于执行图形和媒体操作的指令集的向量处理器的阵列。在一些实施例中,执行单元2352A、2352B具有特定用于每个阵列或在阵列之间共享的附连的L1高速缓存2351。所述高速缓存可以被配置为数据高速缓存、指令高速缓存或单个高速缓存,其被分区以将数据和指令包含在不同的分区中。
在一些实施例中,图形流水线2320包括用于执行3D对象的硬件加速曲面细分的曲面细分部件。在一些实施例中,可编程的外壳着色器2311配置曲面细分操作。可编程的域着色器2317提供曲面细分输出的后端评估。曲面细分器2313在外壳着色器2311的方向进行操作并且包含专用逻辑,所述专用逻辑用于基于粗糙几何模型来生成一组详细的几何对象,所述粗糙几何模型作为输入被提供至图形流水线2320。在一些实施例中,如果未使用曲面细分,则可以对曲面细分部件2311、2313、2317进行旁路。
在一些实施例中,完整的几何对象可以由几何着色器2319经由被分派给执行单元2352A、2352B的一个或多个线程来处理,或可以直接继续进行至剪辑器2329。在一些实施例中,几何着色器在整个几何对象(而非如图形流水线的先前阶段中的顶点的补片或者顶点)上进行操作。如果曲面细分被禁用,则几何着色器2319从顶点着色器2307接收输入。在一些实施例中,如果曲面细分单元被禁用,则几何着色器2319可由几何着色器程序编程以执行几何曲面细分。
在光栅化之前,剪辑器2329处理顶点数据。剪辑器2329可以是具有剪辑和几何着色器功能的可编程剪辑器或者固定功能剪辑器。在一些实施例中,渲染输出流水线2370中的光栅化器2373(例如,深度测试部件)分派像素着色器以将几何对象转化成它们的按像素表示。在一些实施例中,像素着色器逻辑被包括在线程执行逻辑2350中。在一些实施例中,应用可以对光栅化器2373进行旁路,并且经由流出单元(stream out unit)2323来访问未光栅化的顶点数据。
图形处理器2300具有互连总线、互连结构或某种其他互连机制,其允许在处理器的主要部件中传递数据和消息。在一些实施例中,执行单元2352A、2352B和(一个或多个)关联的高速缓存2351、纹理和媒体采样器2354以及纹理/采样器高速缓存2358经由数据端口2356互连,以执行存储器访问并与处理器的渲染输出流水线部件进行通信。在一些实施例中,采样器2354、高速缓存2351、2358以及执行单元2352A、2352B各自具有单独的存储器访问路径。
在一些实施例中,渲染输出流水线2370包含光栅化器2373,所述光栅化器2373将基于顶点的对象转化成关联的基于像素的表示。在一些实施例中,光栅化器逻辑包括用于执行固定功能三角形和线光栅化的窗口器(windower)/掩蔽器单元。相关联的渲染高速缓存2378和深度高速缓存2379在一些实施例中也是可用的。像素操作部件2377对数据执行基于像素的操作,虽然在一些示例中,与2D操作相关联的像素操作(例如,位块图采用混合来转移)由2D引擎2341执行,或在显示时间由显示器控制器2343使用重叠显示平面来代替。在一些实施例中,共享的L3高速缓存2375可用于所有的图形部件,从而允许在无需使用主系统存储器的情况下共享数据。
在一些实施例中,图形处理器媒体流水线2330包括媒体引擎2337和视频前端2334。在一些实施例中,视频前端2334从命令流传送器2303接收流水线命令。在一些实施例中,媒体流水线2330包括单独的命令流传送器。在一些实施例中,视频前端2334在将媒体命令发送给媒体引擎2337之前处理所述命令。在一些实施例中,媒体引擎2337包括用于生成线程以用于经由线程分派器2331分派给线程执行逻辑2350的线程生成功能性。
在一些实施例中,图形处理器2300包括显示器引擎2340。在一些实施例中,显示器引擎2340在处理器2300外部并且经由环形互连2302、或某个其他互连总线或结构与图形处理器耦合。在一些实施例中,显示器引擎2340包括2D引擎2341和显示器控制器2343。在一些实施例中,显示器引擎2340包含能够独立于3D流水线而操作的专用逻辑。在一些实施例中,显示器控制器2343与显示装置(未示出)耦合,所述显示装置可以是系统集成式显示装置(如在膝上型计算机中),或可以是经由显示装置连接器所附连的外部显示装置。
在一些实施例中,图形流水线2320和媒体流水线2330可配置成基于多个图形和媒体编程接口来执行操作,并且不特定于任何一个应用编程接口(API)。在一些实施例中,用于图形处理器的驱动器软件将特定于具体图形或媒体库的API调用转换成可由图形处理器来处理的命令。在一些实施例中,为来自Khronos Group的开放图形库(OpenGL)和开放计算语言(OpenCL)、来自Microsoft Corporation的Direct3D库提供支持、或者可以向OpenGL和D3D两者提供支持。还可以为开源计算机视觉库(OpenCV)提供支持。如果可以进行从未来API的流水线至图形处理器的流水线的映射,则还将支持具有可兼容3D流水线的未来API。
图形流水线编程
图24A是根据一些实施例的图形处理器命令格式2400的框图。图24B是根据实施例的图形处理器命令序列2410的框图。图24A中的实线框示出一般被包括在图形命令中的分量,而虚线包括可选的或仅包括在图形命令的子集中的分量。图24A的示例性图形处理器命令格式2400包括用于标识命令的目标客户端2402、命令操作代码(操作码)2404和用于命令的相关数据2406的数据字段。在一些命令中还包括子操作码2405和命令大小2408。
在一些实施例中,客户端2402指定处理命令数据的图形装置的客户端单元。在一些实施例中,图形处理器命令解析器检查每个命令的客户端字段以调整对命令的进一步处理并将命令数据路由至合适的客户端单元。在一些实施例中,图形处理器客户端单元包括存储器接口单元、渲染单元、2D单元、3D单元、和媒体单元。每个客户端单元具有处理命令的对应的处理流水线。一旦命令被客户端单元接收,则客户端单元读取操作码2404以及(如果存在)子操作码2405以确定要执行的操作。客户端单元使用数据字段2406中的信息来执行命令。针对一些命令,期待显式命令大小2408以指定命令的大小。在一些实施例中,命令解析器基于命令操作码自动地确定命令中的至少一些命令的大小。在一些实施例中,经由双倍字长的倍数对命令进行对齐。
图24B中的流程图示出了示例性图形处理器命令序列2410。在一些实施例中,以图形处理器的实施例为特征的数据处理系统的软件或固件使用所示出的命令序列的一个版本来设立、执行并终止图形操作的集合。仅出于示例目的示出并描述了样本命令序列,因为实施例不限于这些特定命令或者此命令序列。此外,所述命令可以作为一批命令在命令序列中被发布,使得图形处理器将至少部分同时处理命令的序列。
在一些实施例中,图形处理器命令序列2410可以以流水线转储清除命令2412开始,以促使任何活动的图形流水线完成所述流水线的当前未决命令。在一些实施例中,3D流水线2422和媒体流水线2424不同时进行操作。执行流水线转储清除以促使活动的图形流水线完成任何未决命令。响应于流水线转储清除,用于图形处理器的命令解析器将暂停命令处理,直到活动的绘图引擎完成未决操作且相关的读取高速缓存无效。可选地,渲染高速缓存中被标记为‘脏’的任何数据可以被转储清除到存储器。在一些实施例中,可以针对流水线同步或在将图形处理器置于低功率状态中之前使用流水线转储清除命令2412。
在一些实施例中,当命令序列要求图形处理器在流水线之间进行显式切换时,使用流水线选择命令2413。在一些实施例中,在发布流水线命令之前在执行上下文内仅要求一次流水线选择命令2413,除非所述上下文要发布针对两条流水线的命令。在一些实施例中,在经由流水线选择命令2413的流水线切换之前立即要求流水线转储清除命令2412。
在一些实施例中,流水线控制命令2414配置用于操作的图形流水线,并用于对3D流水线2422和媒体流水线2424编程。在一些实施例中,流水线控制命令2414配置针对活动流水线的流水线状态。在一个实施例中,流水线控制命令2414被用于流水线同步,以及用于在处理一批命令之前将数据从活动的流水线内的一个或多个高速缓存存储器中清除。
在一些实施例中,使用返回缓冲器状态命令2416来配置用于使相应的流水线写入数据的一组返回缓冲器。一些流水线操作要求分配、选择或配置一个或多个返回缓冲器,所述操作在处理期间将中间数据写入到所述一个或多个返回缓冲器中。在一些实施例中,图形处理器还使用一个或多个返回缓冲器以存储输出数据并且执行横跨线程通信。在一些实施例中,返回缓冲器状态2416包括选择返回缓冲器的大小和数量以用于流水线操作的集合。
命令序列中的剩余命令基于用于操作的活动流水线而不同。基于流水线确定2420,针对3D流水线2422或媒体流水线2424来定制命令序列,所述3D流水线2422以3D流水线状态2430开始,所述媒体流水线2424始于媒体流水线状态2440。
用于3D流水线状态2430的命令包括用于以下各项的3D状态设置命令:顶点缓冲器状态、顶点元素状态、恒定颜色状态、深度缓冲器状态和将在处理3D图元图元命令之前配置的其他状态变量。至少部分地基于使用中的具体3D API来确定这些命令的值。在一些实施例中,3D流水线状态2430命令还能够选择性地禁用或旁路某些流水线元件(如果将不使用那些元件)。
在一些实施例中,3D图元图元2432命令用于提交要由3D流水线处理的3D图元图元。经由3D图元图元2432传递到图形处理器的命令和关联的参数被转发到图形流水线中的顶点获取功能。顶点获取功能使用3D图元图元2432命令数据来产生顶点数据结构。顶点数据结构被存储在一个或多个返回缓冲器中。在一些实施例中,3D图元图元2432命令用于经由顶点着色器对3D图元图元执行顶点操作。为了处理顶点着色器,3D流水线2422将着色器执行线程分派给图形处理器执行单元。
在一些实施例中,经由执行2434命令或事件来触发3D流水线2422。在一些实施例中,寄存器写入触发命令执行。在一些实施例中,经由命令序列中的‘走(go)’或‘踢(kick)’命令来触发执行。在一个实施例中,使用流水线同步命令来触发命令执行,以通过图形流水线来转储清除命令序列。3D流水线将执行针对3D图元图元的几何处理。一旦操作完成,对所得几何对象进行光栅化,并且像素引擎给所得像素上色。针对那些操作还可包括用于控制像素着色和像素后端操作的附加命令。
在一些实施例中,当执行媒体操作时,图形处理器命令序列2410沿媒体流水线2424路径。一般地,针对媒体流水线2424的编程的特定使用和方式取决于要执行的媒体或计算操作。在媒体解码期间,可将特定的媒体解码操作卸载到媒体流水线。在一些实施例中,还可以对媒体流水线进行旁路并且可以整体地或部分地执行媒体解码(使用由一个或多个通用处理核提供的资源)。在一个实施例中,媒体流水线还包括用于通用图形处理器单元(GPGPU)操作的元件,其中,图形处理器用于使用计算着色器程序来执行SIMD向量操作,所述计算着色器程序不显式涉及图形图元图元的渲染。
在一些实施例中,以与3D流水线2422类似的方式配置媒体流水线2424。在媒体对象命令2442之前将一组媒体流水线状态命令2440分派到或放置到命令队列中。在一些实施例中,媒体流水线状态命令2440包括用于配置媒体流水线元件的数据,所述媒体流水线元件将用于处理媒体对象。这包括用于配置媒体流水线内的视频解码和视频编码逻辑的数据(诸如编码或解码格式)。在一些实施例中,媒体流水线状态命令2440还支持将一个或多个指针用于包含一批状态设置的“间接”状态元件。
在一些实施例中,媒体对象命令2442将指针供应给用于由媒体流水线处理的媒体对象。媒体对象包括包含要处理的视频数据的存储器缓冲器。在一些实施例中,在发布媒体对象命令2442之前,所有的媒体流水线状态必须是有效的。一旦流水线状态被配置并且媒体对象命令2442被排队,则经由执行命令2444或等效的执行事件(例如,寄存器写入)来触发媒体流水线2424。然后可以通过由3D流水线2422或媒体流水线2424提供的操作对来自媒体流水线2424的输出进行后处理。在一些实施例中,以与媒体操作类似的方式来配置和执行GPGPU操作。
图形软件架构
图25示出根据一些实施例的用于数据处理系统2500的示例性图形软件架构。在一些实施例中,软件架构包括3D图形应用2510、操作系统2520、以及至少一个处理器2530。在一些实施例中,处理器2530包括图形处理器2532以及一个或多个通用处理器核2534。图形应用2510和操作系统2520各自在数据处理系统的系统存储器2550中执行。
在一些实施例中,3D图形应用2510包含一个或多个着色器程序,所述着色器程序包括着色器指令2512。着色器语言指令可以采用高级着色器语言,诸如高级着色器语言(HLSL)或OpenGL着色器语言(GLSL)。所述应用还包括采用适合于由通用处理器核2534执行的机器语言的可执行指令2514。所述应用还包括由顶点数据定义的图形对象2516。
在一些实施例中,操作系统2520是来自Microsoft Corporation的Microsoft®Windows®操作系统、专有类UNIX操作系统或开源类UNIX操作系统(使用Linux内核的变形)。当Direct3D API在使用时,操作系统2520使用前端着色器编译器2524以将采用HLSL的任何着色器指令2512编译成较低级着色器语言。所述编译可以是即时制(JIT)编译,或者所述应用可执行着色器预编译。在一些实施例中,在对3D图形应用2510进行编译期间,将高级着色器编译成低级着色器。
在一些实施例中,用户模式图形驱动器2526包含后端着色器编译器2527,所述后端着色器编译器2527用于将着色器指令2512转化成硬件特定表示。当OpenGL API在使用中时,采用GLSL高级语言的着色器指令2512被传递到用户模式图形驱动器2526以用于编译。在一些实施例中,用户模式图形驱动器2526使用操作系统内核模式功能2528来与内核模式图形驱动器2529进行通信。在一些实施例中,内核模式图形驱动器2529与图形处理器2532进行通信以分派命令和指令。
IP核实现
至少一个实施例的一个或多个方面可由存储在机器可读介质上的表示性代码来实现,所述机器可读介质表示和/或定义诸如处理器的集成电路内的逻辑。例如,机器可读介质可以包括表示处理器内的各种逻辑的指令。当由机器读取时,所述指令可以促使所述机器制作用于执行本文描述的技术的逻辑。此类表示(称为“IP核”)是用于集成电路的逻辑的可重复使用单元,其可以作为描述集成电路的结构的硬件模型而存储在有形的机器可读介质上。可以将硬件模型供应至各种消费者或制造设施,其在制造所述集成电路的制作机器上加载硬件模型。可以制作所述集成电路,使得所述电路执行与本文描述的任何实施例相关联地描述的操作。
图26是根据实施例的示出IP核开发系统2600的框图,所述IP核开发系统2600可用于制造集成电路以执行操作。IP核开发系统2600可以用于生成可合并到更大的设计中或用于构建整个集成电路(例如,SOC集成电路)的模块化、可重复使用设计。设计设施2630可采用高级编程语言(例如,C/C++)生成IP核设计的软件仿真2610。软件仿真2610可用于设计、测试并验证IP核的行为。然后可从仿真模型2600创建或合成寄存器转移级别(RTL)设计。RTL设计2615是对硬件寄存器之间的数字信号的流进行建模的集成电路(包括使用建模的数字信号来执行的相关联逻辑)的行为的提取(abstraction)。除了RTL设计2615之外,还可以创建、设计或合成在逻辑级别或晶体管级别的较低级设计。因此,初始设计和仿真的具体细节可以变化。
可由设计设施进一步将RTL设计2615或等效物合成到硬件模型2620中,所述硬件模型2620可以采用硬件描述语言(HDL)或物理设计数据的某一其他表示。可以进一步仿真或测试HDL以验证IP核设计。可以使用非易失性存储器2640(例如,硬盘、闪速存储器或任何非易失性存储介质)来存储IP核设计以便递送到第3方制作设施2665。备选地,可以通过有线连接2650或无线连接2660来传送(例如,经由互联网)IP核设计。制作设施2665然后可以制作至少部分地基于IP核设计的集成电路。所制作的集成电路可被配置成执行依照本文描述的至少一个实施例的操作。
图27是根据实施例的示出示例性芯片上系统集成电路2700的框图,可使用一个或多个IP核来制作所述芯片上系统集成电路2700。示例性集成电路包括一个或多个应用处理器2705(例如,CPU)、至少一个图形处理器2710,并且可以另外包括图像处理器2715和/或视频处理器2720,其中的任何可以是来自相同或多个不同设计设施的模块化IP核。集成电路包括外围或总线逻辑,其包括USB控制器2725、UART控制器2730、SPI/SDIO控制器2735、I2S/I2C控制器2740。另外,集成电路可以包括显示装置2745,所述显示装置2745耦合至高清晰度多媒体接口(HDMI)控制器2750和移动行业处理器接口(MIPI)显示器接口2755中一个或多个。可以由闪速存储器子系统2760(包括闪速存储器和闪速存储器控制器)来提供存储。可经由存储器控制器2765来提供存储器接口以用于访问SDRAM或SRAM存储器装置。一些集成电路另外包括嵌入式安全引擎2770。
另外,其他逻辑和电路可被包括在集成电路2700的处理器中,包括附加的图形处理器/核、外围接口控制器或通用处理器核。
本公开/申请提供了如下的技术方案:
1. 一种电子处理系统,包括:
应用处理器;
通信地耦合到所述应用处理器的持久存储介质;
通信地耦合到所述应用处理器的图形子系统;
通信地耦合到所述应用处理器和所述图形子系统的绘图调用重排序器,用于重排序两个或更多绘图调用;
通信地耦合到所述应用处理器和所述图形子系统的工作负载重排序器,用于采用顺序独立模式来重排序两个或更多工作项;
被包括在所述两个或更多绘图调用中的至少一个中的队列图元,用于定义生产方阶段和消费方阶段;以及
通信地耦合到所述应用处理器和所述图形子系统的顺序独立执行器,用于提供计算阶段的基于图块的顺序独立执行。
2. 如技术方案1所述的系统,其中所述绘图调用重排序器包括:
顺序依赖性分析器,用于确定所述两个或更多绘图调用之间的顺序依赖性,其中所述绘图调用重排序器进一步用于基于所确定的顺序依赖性对所述两个或更多绘图调用进行重排序。
3. 如技术方案1所述的系统,其中所述工作负载重排序器包括:
工作负载分析器,用于确定针对所述两个或更多工作项的工作拆分,其中,所述工作负载重排序器进一步用于基于所确定的工作拆分对所述两个或更多工作项进行重排序。
4. 如技术方案1所述的系统,进一步包括:
调度器,用于根据所述队列图元来交替执行所述生产方阶段和所述消费方阶段。
5. 如技术方案1所述的系统,其中所述顺序独立执行器包括:
计算上下文;
渲染上下文;和
工作调度器,用于在图块的基础上异步地将工作分派到所述渲染上下文和所述计算上下文。
6. 一种图形设备,包括:
顺序依赖性分析器,用于确定两个或更多绘图调用之间的顺序依赖性;以及
绘图调用重排序器,通信地耦合到所述顺序依赖性分析器,用于基于所确定的顺序依赖性对所述两个或更多绘图调用进行重排序。
7. 如技术方案6所述的设备,其中所述顺序依赖性分析器进一步用于确定对于所述两个或更多绘图调用的资源要求和数据地址范围。
8. 如技术方案6所述的设备,其中所述绘图调用重排序器进一步用于对所述两个或更多绘图调用进行重排序以增加并行执行的利用。
9. 如技术方案9所述的设备,其中所述绘图调用重排序器进一步用于确定当所述两个或更多绘图调用被重排序时没有违反数据依赖性。
10. 如技术方案6所述的设备,进一步包括:
工作负载重排序器,通信地耦合到所述顺序依赖性分析器,用于采用顺序独立模式来重排序两个或更多工作项。
11. 如技术方案6所述的设备,进一步包括:
被包含在所述两个或更多绘图调用中的至少一个中的队列图元,用于定义生产方阶段和消费方阶段。
12. 如技术方案6所述的设备,进一步包括:
通信地耦合到所述顺序依赖性分析器的顺序独立执行器,用于提供计算阶段的基于图块的顺序独立执行。
13. 一种重排序绘图调用的方法,包括:
确定两个或更多绘图调用之间的顺序依赖性;以及
基于所确定的顺序依赖性来重排序所述两个或更多绘图调用。
14. 如技术方案13所述的方法,进一步包括:
确定对于所述两个或更多绘图调用的资源要求和数据地址范围。
15. 如技术方案13所述的方法,进一步包括:
重排序所述两个或更多绘图调用以增加并行执行的利用。
16. 如技术方案15所述的方法,进一步包括:
确定当所述两个或更多绘图调用被重排序时没有违反数据依赖性。
17. 如技术方案13所述的方法,进一步包括:
采用顺序独立模式来重排序两个或更多工作项。
18. 如技术方案13所述的方法,进一步包括:
通过队列图元来定义生产方阶段和消费方阶段。
19. 如技术方案13所述的方法,进一步包括:
提供计算阶段的基于图块的顺序独立执行。
20. 至少一种计算机可读介质,包括一组指令,所述指令在由计算装置执行时促使所述计算装置:
确定两个或更多绘图调用之间的顺序依赖性;以及
基于所确定的顺序依赖性来重排序所述两个或更多绘图调用。
21. 如技术方案20所述的至少一种计算机可读介质,包括另一组指令,所述另一组指令在由计算装置执行时促使所述计算装置:
确定对于所述两个或更多绘图调用的资源要求和数据地址范围。
22. 如技术方案20所述的至少一种计算机可读介质,包括另一组指令,所述另一组指令在由计算装置执行时促使所述计算装置:
重排序所述两个或更多绘图调用以增加并行执行的利用。
23. 如技术方案22所述的至少一种计算机可读介质,包括另一组指令,所述另一组指令在由计算装置执行时促使所述计算装置:
确定在所述两个或更多绘图调用被重排序时没有违反数据依赖性。
24. 如技术方案20所述的至少一种计算机可读介质,包括另一组指令,所述另一组指令在由计算装置执行时促使所述计算装置:
采用顺序独立模式来重排序两个或更多工作项。
25. 如技术方案20所述的至少一种计算机可读介质,包括另一组指令,所述另一组指令在由计算装置执行时促使所述计算装置:
通过队列图元来定义生产方阶段和消费方阶段。
有利地,任何以上的系统、处理器、图形处理器、设备、和/或方法可与本文描述的各种实施例中的任何实施例被集成或被配置有本文描述的各种实施例中的任何实施例(例如或其部分),包含例如以下附加注释和示例中所描述的那些。
附加注释和示例
示例1可以包括电子处理系统,该电子处理系统包括应用处理器、通信地耦合到应用处理器的持久存储介质、通信地耦合到应用处理器的图形子系统、通信地耦合到应用处理器和图形子系统以重排序两个或更多绘图调用的绘图调用重排序器、通信地耦合到应用处理器和所形子系统以采用顺序独立模式来重排序两个或更多工作项的工作负载重排序器、被包括在所述两个或更多绘图调用的至少一个中用来定义生产方阶段和消费方阶段的队列图元、以及通信地耦合到应用处理器和图形子系统以提供计算阶段的基于图块的顺序独立执行的顺序独立执行器。
示例2可以包括示例1的系统,其中绘图调用重排序器包括顺序依赖性分析器,用于确定所述两个或更多绘图调用之间的顺序依赖性,其中绘图调用重排序器进一步基于所确定的顺序依赖性来重排序所述两个或更多绘图调用。
示例3可以包括示例1至2中任一项的系统,其中工作负载重排序器包括工作负载分析器,用于确定对于所述两个或更多工作项的工作拆分,其中工作负载重排序器进一步基于所确定的工作拆分对所述两个或更多工作项进行重排序。
示例4可以包括示例1至3中任一项的系统,其还包括调度器,用于根据队列图元来交替执行生产方阶段和消费方阶段。
示例5可以包括示例1至4中任一项的系统,其中顺序独立执行器包括计算上下文、渲染上下文以及工作调度器,该工作调度器用于以图块为基础异步地将工作分派给渲染上下文和计算上下文。
示例6可以包括图形设备,该图形设备包括用于确定两个或更多绘图调用之间的顺序依赖性的顺序依赖性分析器,以及通信地耦合到顺序依赖性分析器以基于所确定的顺序依赖性来重排序所述两个或更多绘图调用的绘图调用重排序器。
示例7可以包括示例6的设备,其中顺序依赖性分析器还用于确定对于所述两个或更多绘图调用的资源要求和数据地址范围。
示例8可以包括示例6的设备,其中绘图调用重排序器进一步用于对所述两个或更多绘图调用进行重排序以增加并行执行的利用。
示例9可以包括示例9的设备,其中绘图调用重排序器还用于确定当所述两个或更多绘图调用被重排序时没有违反数据依赖性。
示例10可以包括示例6至9中任一项的设备,其还包括工作负载重排序器,其通信地耦合到顺序依赖性分析器以采用顺序独立模式来重排序两个或更多工作项。
示例11可以包括示例6至9中任一项的设备,其还包括被包括在所述两个或更多绘图调用中的至少一个中的队列图元,其用于定义生产方阶段和消费方阶段。
示例12可以包括示例6至9中任一项的设备,其还包括通信地耦合到顺序依赖性分析器的顺序独立执行器,用于提供计算阶段的基于图块的顺序独立执行。
示例13可以包括重排序绘图调用的方法,包括确定两个或更多绘图调用之间的顺序依赖性,以及基于所确定的顺序依赖性对所述两个或更多绘图调用进行重排序。
示例14可以包括示例13的方法,还包括确定对于所述两个或更多绘图调用的资源要求和数据地址范围。
示例15可以包括示例13的方法,还包括对所述两个或更多绘图调用进行重排序以增加并行执行的利用。
示例16可以包括示例15的方法,还包括确定当所述两个或更多绘图调用被重排序时没有违反数据依赖性。
示例17可以包括示例13至16中任一项的方法,还包括采用顺序独立模式来重排序两个或更多工作项。
示例18可以包括示例13至16中任一项的方法,还包括通过队列图元来定义生产方阶段和消费方阶段。
示例19可以包括示例13至16中任一项的方法,还包括提供计算阶段的基于图块的顺序独立执行。
示例20可以包括至少一种计算机可读介质,该至少一种计算机可读介质包括一组指令,所述指令在由计算装置执行时促使所述计算装置确定两个或更多绘图调用之间的顺序依赖性,并且基于所确定的顺序依赖性来重排序所述两个或更多绘图调用。
示例21可以包括示例20的至少一种计算机可读介质,其包括另一组指令,所述指令在由计算装置执行时促使计算装置确定对于所述两个或更多绘图调用的资源要求和数据地址范围。
示例22可以包括示例20的至少一种计算机可读介质,其包括另一组指令,所述指令在由计算装置执行时促使计算装置重排序所述两个或更多绘图调用以增加并行执行的利用。
示例23可以包括示例22的至少一种计算机可读介质,其包括另一组指令,所述指令在由计算装置执行时促使计算装置确定在所述两个或更多绘图调用被重排序时没有违反数据依赖性。
示例24可以包括示例20至23中任一项的至少一种计算机可读介质,其包括另一组指令,所述指令在由计算装置执行时促使计算装置采用顺序独立模式来重排序两个或更多工作项。
示例25可以包括示例20至23中任一项的至少一种计算机可读介质,其包括另一组指令,所述指令在由计算装置执行时促使计算装置通过队列图元来定义生产方阶段和消费方阶段。
示例26可以包括示例20至23中任一项的至少一种计算机可读介质,其包括另一组指令,所述指令在由计算装置执行时促使计算装置提供计算阶段的基于图块的顺序独立执行。
示例27可以包括图形设备,其包括用于确定两个或更多绘图调用之间的顺序依赖性的组件,以及用于基于所确定的顺序依赖性对所述两个或更多绘图调用进行重排序的组件。
示例28可以包括示例27的设备,还包括用于确定对于所述两个或更多绘图调用的资源要求和数据地址范围的组件。
示例29可以包括示例27的设备,还包括用于对所述两个或更多绘图调用进行重排序以增加并行执行的利用的组件。
示例30可以包括示例29的设备,还包括用于确定当所述两个或更多绘图调用被重排序时没有违反数据依赖性的组件。
示例31可以包括示例27至30中任一项的设备,还包括用于采用顺序独立模式对两个或更多工作项进行重排序的组件。
示例32可以包括示例27至30中任一项的设备,其还包括用于通过队列图元来定义生产方阶段和消费方阶段的组件。
示例33可以包括示例27至30中任一项的设备,其还包括用于提供计算阶段的基于图块的顺序独立执行的组件。
示例34可以包括图形设备,该图形设备包括:工作负载分析器,用于采用顺序独立模式来确定针对两个或更多工作项的工作拆分;以及工作负载重排序器,通信地耦合到工作负载分析器以基于采用顺序独立模式所确定的工作拆分来重排序所述两个或更多工作项。
示例35可以包括示例34的设备,其中,顺序独立模式由应用来设置。
示例36可以包括示例34的设备,其中工作负载重排序器进一步用于重排序所述两个或更多工作项以增加图形处理器的利用。
示例37可以包括示例34至36中任一项的设备,其中,所述两个或更多工作项包括图形图元。
示例38可以包括示例34至36中任一项的设备,其还包括被包含在所述两个或更多工作项中的至少一个中的队列图元,用于定义生产方阶段和消费方阶段。
示例39可以包括示例34至36中任一项的设备,其还包括通信地耦合到工作负载分析器的顺序独立执行器,用于提供计算阶段的基于图块的顺序独立执行。
示例40可以包括重排序工作项的方法,其包括采用顺序独立模式来确定针对两个或更多工作项的工作拆分,以及基于采用顺序独立模式所确定的工作拆分来重排序所述两个或更多工作项。
示例41可以包括示例40的方法,其还包括通过应用来设置顺序独立模式。
示例42可以包括示例40的方法,其还包括对所述两个或更多工作项进行重排序以增加图形处理器的利用。
示例43可以包括示例40至42中任一项的方法,其中所述两个或更多工作项包括图形图元。
示例44可以包括示例40至42中任一项的方法,还包括通过队列图元来定义生产方阶段和消费方阶段。
示例45可以包括示例40至42中任一项的方法,还包括提供计算阶段的基于图块的顺序独立执行。
示例46可以包括至少一种计算机可读介质,该至少一种计算机可读介质包括一组指令,所述指令在由计算装置执行时促使所述计算装置采用顺序独立模式来确定针对两个或更多工作项的工作拆分,并基于采用顺序独立模式所确定的工作拆分对所述两个或更多工作项进行重排序。
示例47可以包括示例46的至少一种计算机可读介质,其包括另一组指令,所述指令在由计算装置执行时促使所述计算装置通过应用来设置顺序独立模式。
示例48可以包括示例46的至少一种计算机可读介质,其包括另一组指令,所述指令在由计算装置执行时促使所述计算装置重排序所述两个或更多工作项以增加图形处理器的利用。
示例49可以包括示例46至48中任一项的至少一种计算机可读介质,其中所述两个或更多工作项包括图形图元。
示例50可以包括示例46至48中任一项的至少一种计算机可读介质,其包括另一组指令,所述指令在由计算装置执行时促使所述计算装置通过队列图元来定义生产方阶段和消费方阶段。
示例51可以包括示例46至48中任一项的至少一种计算机可读介质,其包括另一组指令,所述指令在由计算装置执行时促使所述计算装置提供计算阶段的基于图块的顺序独立执行。
示例52可以包括图形设备,其包括用于采用顺序独立模式来确定针对两个或更多工作项的工作拆分的组件,以及用于基于采用顺序独立模式所确定的工作拆分来重排序所述两个或更多工作项的组件。
示例53可以包括示例52的设备,还包括用于通过应用来设置顺序独立模式的组件。
示例54可以包括示例52的设备,还包括用于对所述两个或更多工作项进行重排序以增加图形处理器的利用的组件。
示例55可以包括示例52至54中任一项的设备,其中所述两个或更多工作项包括图形图元。
示例56可以包括示例52至54中任一项的设备,还包括用于通过队列图元来定义生产方阶段和消费方阶段的组件。
示例57可以包括示例52至54中任一项的设备,还包括用于提供计算阶段的基于图块的顺序独立执行的组件。
示例58可以包括图形设备,包括用于定义生产方阶段和消费方阶段的队列图元,以及用于根据队列图元来交替执行生产方阶段和消费方阶段的调度器。
示例59可以包括示例58的设备,其中队列图元进一步用于定义在第一分派调用和第二分派调用与绘图调用之一之间的生产方和消费方关系。
示例60可以包括示例58的设备,其中队列图元进一步用于定义用于存储完整绘图调用的子集的结果的队列。
示例61可以包括示例60的设备,其中调度器进一步用于管理队列的利用。
示例62可以包括示例58至61中任一项的设备,还包括通信地耦合到调度器的顺序独立执行器,用于提供计算阶段的基于图块的顺序独立执行。
示例63可以包括处理图形工作负载的方法,包括通过队列图元来定义生产方阶段和消费方阶段,并且根据队列图元来交替执行生产方阶段和消费方阶段。
示例64可以包括示例63的方法,还包括通过队列图元来定义第一分派调用和第二分派调用与绘图调用之一之间的生产方和消费方关系。
示例65可以包括示例63的方法,还包括通过队列图元来定义用于存储完整绘图调用的子集的结果的队列。
示例66可以包括示例65的方法,还包括管理队列的利用。
示例67可以包括示例63至66中任一项的方法,还包括提供计算阶段的基于图块的顺序独立执行。
示例68可以包括至少一种计算机可读介质,该至少一种计算机可读介质包括一组指令,所述指令在由计算装置执行时促使所述计算装置通过队列图元来定义生产方阶段和消费方阶段,并且根据队列图元来交替执行生产方阶段和消费阶段。
示例69可以包括示例68的至少一种计算机可读介质,其包括另一组指令,所述指令在由计算装置执行时促使所述计算装置通过队列图元来定义在第一分派调用和第二分派调用与绘图调用之一之间的生产方和消费方关系。
示例70可以包括示例68的至少一种计算机可读介质,其包括另一组指令,所述指令在由计算装置执行时促使所述计算装置通过队列图元来定义用于存储完整绘图调用的子集的结果的队列。
示例71可以包括示例70的至少一种计算机可读介质,其包括另一组指令,所述指令在由计算装置执行时促使所述计算装置管理队列的利用。
示例72可以包括示例68至71中任一项的至少一种计算机可读介质,其包括另一组指令,所述指令在由计算装置执行时促使所述计算装置提供计算阶段的基于图块的顺序独立执行。
示例73可以包括图形设备,包括用于通过队列图元来定义生产方阶段和消费方阶段的组件,以及用于根据队列图元来交替执行生产方阶段和消费方阶段的组件。
示例74可以包括示例73的设备,还包括用于通过队列图元来定义第一分派调用和第二分派调用与绘图调用之一之间的生产方和消费方关系的组件。
示例75可以包括示例73的设备,还包括用于通过队列图元来定义用于存储完整绘图调用的子集的结果的队列的组件。
示例76可以包括示例75的设备,还包括用于管理队列利用的组件。
示例77可以包括示例73至76中任一项的设备,还包括用于提供计算阶段的基于图块的顺序独立执行的组件。
示例78可以包括图形设备,包括:工作调度器,用于在图块的基础上异步地分派一个或多个渲染图块和一个或多个计算图块;渲染器,通信地耦合到工作调度器以渲染所述一个或多个渲染图块;以及通信地耦合到工作调度器以执行所述一个或多个计算图块的执行器。
示例79可以包括示例78的设备,其中渲染器还用于与执行计算图块之一并行地渲染渲染图块之一。
示例80可以包括示例78的设备,其中所述一个或多个计算图块被标识为独立的。
示例81可以包括示例78的设备,其中第一计算图块的计算图块大小是第一渲染图块的渲染图块大小的子集。
示例82可以包括一种处理图形工作负载的方法,包括:在图块的基础上异步地分派一个或多个渲染图块和一个或多个计算图块,渲染所述一个或多个渲染图块,以及执行所述一个或多个计算图块。
示例83可以包括示例82的方法,还包括与执行计算图块之一并行地渲染渲染图块之一。
示例84可以包括示例82的方法,还包括将所述一个或多个计算图块标识为独立的。
示例85可以包括示例82的方法,其中第一计算图块的计算图块大小是第一渲染图块的渲染图块大小的子集。
示例86可以包括至少一种计算机可读介质,该至少一种计算机可读介质包括一组指令,所述指令在由计算装置执行时促使所述计算装置在图块的基础上异步地分派一个或多个渲染图块和一个或多个计算图块,渲染所述一个或多个渲染图块,以及执行所述一个或多个计算图块。
示例87可以包括示例86的至少一种计算机可读介质,其包括另一组指令,所述指令在由计算装置执行时促使所述计算装置与执行计算图块之一并行地渲染渲染图块之一。
示例88可以包括示例86的至少一种计算机可读介质,其包括另一组指令,所述指令在由计算装置执行时促使所述计算装置将所述一个或多个计算图块标识为独立的。
示例89可以包括示例86的至少一种计算机可读介质,其中第一计算图块的计算图块大小是第一渲染图块的渲染图块大小的子集。
示例90可以包括图形设备,包括用于在图块的基础上异步地分派一个或多个渲染图块和一个或多个计算图块的组件,用于渲染所述一个或多个渲染图块的组件,以及用于执行所述一个或多个计算图块的组件。
示例91可以包括示例90的设备,还包括用于与执行计算图块之一并行地渲染渲染图块之一的组件。
示例92可以包括示例90的设备,还包括用于将所述一个或多个计算图块标识为独立的组件。
示例93可以包括示例90的设备,其中第一计算图块的计算图块大小是第一渲染图块的渲染图块大小的子集。
实施例可适用于与所有类型的半导体集成电路(“IC”)芯片使用。这些IC芯片的示例包含但不限于处理器、控制器、芯片组部件、可编程逻辑阵列(PLA)、存储器芯片、网络芯片、芯片上系统(SoC)、SSD/NAND控制器ASIC、和诸如此类。另外,在一些附图中,信号导线用线表示。一些可不同以指示更多组成信号路径,具有号码标签以指示多个组成信号路径,和/或在一个或更多端具有箭头以指示主要信息流方向。然而,这不应以限制的方式来直译。相反,此类添加的细节可连同一个或更多示例性实施例来使用以促进电路的更简单理解。任何表示的信号线,无论是否具有附加信息,都可实际上包括可在多个方向中行进和可用任何适合类型的信号方案实现的一个或更多信号,例如,用差动对、光纤线、和/或单个端的线来实现的数字或模拟线。
示例大小/模型/值/范围可已经被给定,尽管实施例不限于是相同的。因为制造技术(例如,光刻法)随着时间而成熟,期望的是,更小大小的装置能被制造。另外,对IC芯片和其他组件的公知的功率/接地连接为了说明和讨论的简单性而可或可不被示出在附图内,并以致不模糊实施例的某些方面。另外,布置可采用框图形式被示出以便避免模糊实施例,并且还考虑到相对于此类框图布置的实现的细节是高度取决于平台(实施例要被实现于其内)的事实,即,此类细节应该充分在本领域技术人员的见识内。在特定细节(例如,电路)被阐明以便描述示例实施例之处,对本领域技术人员应显而易见的是,实施例能在没有或有这些特定细节的变化的情况下被实践。本描述因此被认为是说明性的而非限制性的。
术语“耦合”此处可以用来指所讨论的部件之间任何类型的直接或间接的关系,并可以应用于电学、机械、流体、光学、电磁、电机或其他连接。此外,术语“第一”、“第二”等此处可以仅用来促进讨论,并不带有任何具体的时间或时间顺序的显著性意义,除非另外指明。而且,应理解不定冠词“一”或“一个”带有“一个或多个”或“至少一个”的意思。
如在本申请和权利要求书中使用的,由术语“一个或多个”联接的项的列表可意指所列项的任何组合。例如,短语“A、B或C中的一个或多个”可意指A、B、C;A和B;A和C;B和C;或A、B和C。
上面已经参考特定实施例描述了实施例。然而,本领域内技术人员将理解,可以对其进行各种修改和改变而不偏离如在所附的权利要求书中所阐述的实施例的较宽精神和范围。因此认为前述描述和附图是说明性的而不是限制性的。
Claims (25)
1.一种电子处理系统,包括:
应用处理器;
通信地耦合到所述应用处理器的持久存储介质;
通信地耦合到所述应用处理器的图形子系统;
通信地耦合到所述应用处理器和所述图形子系统的绘图调用重排序器,用于重排序两个或更多绘图调用;
通信地耦合到所述应用处理器和所述图形子系统的工作负载重排序器,用于采用顺序独立模式来重排序两个或更多工作项;
被包括在所述两个或更多绘图调用中的至少一个中的队列图元,用于定义生产方阶段和消费方阶段;以及
通信地耦合到所述应用处理器和所述图形子系统的顺序独立执行器,用于提供计算阶段的基于图块的顺序独立执行。
2.如权利要求1所述的系统,其中所述绘图调用重排序器包括:
顺序依赖性分析器,用于确定所述两个或更多绘图调用之间的顺序依赖性,其中所述绘图调用重排序器进一步用于基于所确定的顺序依赖性对所述两个或更多绘图调用进行重排序。
3.如权利要求1至2中任一项所述的系统,其中所述工作负载重排序器包括:
工作负载分析器,用于确定针对所述两个或更多工作项的工作拆分,其中,所述工作负载重排序器进一步用于基于所确定的工作拆分对所述两个或更多工作项进行重排序。
4.如权利要求1至2中任一项所述的系统,进一步包括:
调度器,用于根据所述队列图元来交替执行所述生产方阶段和所述消费方阶段。
5.如权利要求1至2中任一项所述的系统,其中所述顺序独立执行器包括:
计算上下文;
渲染上下文;和
工作调度器,用于在图块的基础上异步地将工作分派到所述渲染上下文和所述计算上下文。
6. 一种图形设备,包括:
顺序依赖性分析器,用于确定两个或更多绘图调用之间的顺序依赖性;以及
绘图调用重排序器,通信地耦合到所述顺序依赖性分析器,用于基于所确定的顺序依赖性对所述两个或更多绘图调用进行重排序。
7.如权利要求6所述的设备,其中所述顺序依赖性分析器进一步用于确定对于所述两个或更多绘图调用的资源要求和数据地址范围。
8.如权利要求6所述的设备,其中所述绘图调用重排序器进一步用于对所述两个或更多绘图调用进行重排序以增加并行执行的利用。
9.如权利要求9所述的设备,其中所述绘图调用重排序器进一步用于确定当所述两个或更多绘图调用被重排序时没有违反数据依赖性。
10.如权利要求6至9中任一项所述的设备,进一步包括:
工作负载重排序器,通信地耦合到所述顺序依赖性分析器,用于采用顺序独立模式来重排序两个或更多工作项。
11.如权利要求6至9中任一项所述的设备,进一步包括:
被包含在所述两个或更多绘图调用中的至少一个中的队列图元,用于定义生产方阶段和消费方阶段。
12.如权利要求6至9中任一项所述的设备,进一步包括:
通信地耦合到所述顺序依赖性分析器的顺序独立执行器,用于提供计算阶段的基于图块的顺序独立执行。
13. 一种重排序绘图调用的方法,包括:
确定两个或更多绘图调用之间的顺序依赖性;以及
基于所确定的顺序依赖性来重排序所述两个或更多绘图调用。
14.如权利要求13所述的方法,进一步包括:
确定对于所述两个或更多绘图调用的资源要求和数据地址范围。
15.如权利要求13所述的方法,进一步包括:
重排序所述两个或更多绘图调用以增加并行执行的利用。
16.如权利要求15所述的方法,进一步包括:
确定当所述两个或更多绘图调用被重排序时没有违反数据依赖性。
17.如权利要求13至16中任一项所述的方法,进一步包括:
采用顺序独立模式来重排序两个或更多工作项。
18.如权利要求13至16中任一项所述的方法,进一步包括:
通过队列图元来定义生产方阶段和消费方阶段。
19.如权利要求13至16中任一项所述的方法,进一步包括:
提供计算阶段的基于图块的顺序独立执行。
20. 一种图形设备,包括:
用于确定两个或更多绘图调用之间的顺序依赖性的组件;以及
用于基于所确定的顺序依赖性来重排序所述两个或更多绘图调用的组件。
21.如权利要求20所述的设备,进一步包括:
用于确定对于所述两个或更多绘图调用的资源要求和数据地址范围的组件。
22.如权利要求20所述的设备,进一步包括:
用于重排序所述两个或更多绘图调用以增加并行执行的利用的组件。
23.如权利要求22所述的设备,进一步包括:
用于确定在所述两个或更多绘图调用被重排序时没有违反数据依赖性的组件。
24.如权利要求20至23中任一项所述的设备,进一步包括:
用于采用顺序独立模式来重排序两个或更多工作项的组件。
25.如权利要求20至23中任一项所述的设备,进一步包括:
用于通过队列图元来定义生产方阶段和消费方阶段的组件。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/489177 | 2017-04-17 | ||
US15/489,177 US10672175B2 (en) | 2017-04-17 | 2017-04-17 | Order independent asynchronous compute and streaming for graphics |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108734634A true CN108734634A (zh) | 2018-11-02 |
Family
ID=62152293
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810343745.6A Pending CN108734634A (zh) | 2017-04-17 | 2018-04-17 | 用于图形的顺序独立异步计算和流传送 |
Country Status (3)
Country | Link |
---|---|
US (3) | US10672175B2 (zh) |
EP (1) | EP3392764B1 (zh) |
CN (1) | CN108734634A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111476706A (zh) * | 2020-06-02 | 2020-07-31 | 长沙景嘉微电子股份有限公司 | 顶点并行处理方法、装置及计算机存储介质、电子设备 |
WO2020191925A1 (en) * | 2019-03-26 | 2020-10-01 | Huawei Technologies Co., Ltd. | Multiple named wait stations |
CN112506655A (zh) * | 2020-12-07 | 2021-03-16 | 深圳市安冠科技有限公司 | 一种绘图方法、存储介质及应用服务器 |
US20220246081A1 (en) * | 2021-01-05 | 2022-08-04 | Google Llc | Hidden display interfaces and associated systems and methods |
CN116703690A (zh) * | 2022-11-02 | 2023-09-05 | 荣耀终端有限公司 | 图像处理方法和设备 |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11436045B2 (en) | 2015-05-26 | 2022-09-06 | Blaize, Inc. | Reduction of a number of stages of a graph streaming processor |
US10437637B1 (en) | 2015-05-26 | 2019-10-08 | Thin CI, Inc. | Configurable scheduler for graph processing on multi-processor computing systems |
US11150961B2 (en) * | 2015-05-26 | 2021-10-19 | Blaize, Inc. | Accelerated operation of a graph streaming processor |
US11379262B2 (en) | 2015-05-26 | 2022-07-05 | Blaize, Inc. | Cascading of graph streaming processors |
US10846854B2 (en) * | 2017-10-13 | 2020-11-24 | Shenzhen Keya Medical Technology Corporation | Systems and methods for detecting cancer metastasis using a neural network |
GB2569269B (en) * | 2017-10-20 | 2020-07-15 | Graphcore Ltd | Synchronization in a multi-tile processing arrangement |
US10553013B2 (en) * | 2018-04-16 | 2020-02-04 | Facebook Technologies, Llc | Systems and methods for reducing rendering latency |
US10810064B2 (en) * | 2018-04-27 | 2020-10-20 | Nasdaq Technology Ab | Publish-subscribe framework for application execution |
US10901777B1 (en) * | 2018-09-26 | 2021-01-26 | Apple Inc. | Techniques for context switching using distributed compute workload parsers |
US11721307B1 (en) | 2018-11-02 | 2023-08-08 | Meta Platforms Technologies, Llc | Beam-racing pixel generation in a display engine |
US11295206B2 (en) | 2020-02-07 | 2022-04-05 | Google Llc | Interleaving memory requests to accelerate memory accesses |
US11948017B2 (en) * | 2020-06-08 | 2024-04-02 | Intel Corporation | Thread modification to reduce command conversion latency |
US11848980B2 (en) * | 2020-07-09 | 2023-12-19 | Boray Data Technology Co. Ltd. | Distributed pipeline configuration in a distributed computing system |
KR20220056729A (ko) * | 2020-10-28 | 2022-05-06 | 삼성전자주식회사 | 커맨드 스케줄링을 수행하는 컨트롤러, 컨트롤러를 포함하는 스토리지 장치 및 컨트롤러의 동작 방법 |
US11386034B2 (en) * | 2020-10-30 | 2022-07-12 | Xilinx, Inc. | High throughput circuit architecture for hardware acceleration |
GB2601354B8 (en) * | 2020-11-27 | 2024-06-12 | Arm Ltd | Apparatus and method |
US20220414967A1 (en) * | 2021-06-24 | 2022-12-29 | Intel Corporation | Out-of-order pixel shading and rasterization |
US11755336B2 (en) * | 2021-09-29 | 2023-09-12 | Advanced Micro Devices, Inc. | Distributed geometry |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6363441B1 (en) * | 1999-03-05 | 2002-03-26 | Silicon Graphics, Inc. | Timing controller having dependency memory, selection serialization component and reordering component for maintaining time dependencies in conversions between sequential and parallel operations using staging memory |
US20090303245A1 (en) * | 2008-04-30 | 2009-12-10 | Alexei Soupikov | Technique for performing load balancing for parallel rendering |
US20140237187A1 (en) * | 2013-02-20 | 2014-08-21 | Nvidia Corporation | Adaptive multilevel binning to improve hierarchical caching |
US20140354669A1 (en) * | 2013-05-30 | 2014-12-04 | Arm Limited | Graphics processing |
US20150070367A1 (en) * | 2013-09-09 | 2015-03-12 | Apple Inc. | Shader Program Profiler |
CN104951281A (zh) * | 2014-03-28 | 2015-09-30 | 英特尔公司 | 用于实现动态无序处理器流水线的方法和装置 |
US20150379661A1 (en) * | 2014-06-26 | 2015-12-31 | Prasoonkumar Surti | Efficient hardware mechanism to ensure shared resource data coherency across draw calls |
US20160055608A1 (en) * | 2014-08-21 | 2016-02-25 | Qualcomm Incorporated | Render target command reordering in graphics processing |
US20160093012A1 (en) * | 2014-09-26 | 2016-03-31 | Intel Corporation | Method and apparatus for a highly efficient graphics processing unit (gpu) execution model |
Family Cites Families (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8081181B2 (en) * | 2007-06-20 | 2011-12-20 | Microsoft Corporation | Prefix sum pass to linearize A-buffer storage |
US8294714B1 (en) | 2009-06-26 | 2012-10-23 | Nvidia Corporation | Accelerated rendering with temporally interleaved details |
US8533615B1 (en) | 2012-06-06 | 2013-09-10 | Google, Inc. | Systems and methods for order-independent rendering of graphical objects using operating system resources |
US9841537B2 (en) | 2012-07-02 | 2017-12-12 | Nvidia Corporation | Near-eye microlens array displays |
US9557565B2 (en) | 2012-07-02 | 2017-01-31 | Nvidia Corporation | Near-eye optical deconvolution displays |
US9165399B2 (en) | 2012-11-01 | 2015-10-20 | Nvidia Corporation | System, method, and computer program product for inputting modified coverage data into a pixel shader |
US9241146B2 (en) | 2012-11-02 | 2016-01-19 | Nvidia Corporation | Interleaved approach to depth-image-based rendering of stereoscopic images |
US9489763B2 (en) | 2012-12-18 | 2016-11-08 | Nvidia Corporation | Techniques for setting up and executing draw calls |
US9454843B2 (en) | 2013-02-05 | 2016-09-27 | Nvidia Corporation | Modulated and blended anti-aliasing |
US9947084B2 (en) | 2013-03-08 | 2018-04-17 | Nvidia Corporation | Multiresolution consistent rasterization |
US9633469B2 (en) | 2013-03-15 | 2017-04-25 | Nvidia Corporation | Conservative rasterization of primitives using an error term |
US9262797B2 (en) | 2013-03-15 | 2016-02-16 | Nvidia Corporation | Multi-sample surface processing using one sample |
US9342857B2 (en) | 2013-03-29 | 2016-05-17 | Nvidia Corporation | Techniques for locally modifying draw calls |
US9129443B2 (en) | 2013-05-21 | 2015-09-08 | Nvidia Corporation | Cache-efficient processor and method of rendering indirect illumination using interleaving and sub-image blur |
US9710894B2 (en) | 2013-06-04 | 2017-07-18 | Nvidia Corporation | System and method for enhanced multi-sample anti-aliasing |
US9177413B2 (en) | 2013-06-26 | 2015-11-03 | Nvidia Corporation | Unique primitive identifier generation |
US9232210B2 (en) | 2013-07-08 | 2016-01-05 | Nvidia Corporation | Mapping sub-portions of three-dimensional (3D) video data to be rendered on a display unit within a comfortable range of perception of a user thereof |
US9355483B2 (en) | 2013-07-19 | 2016-05-31 | Nvidia Corporation | Variable fragment shading with surface recasting |
US10269090B2 (en) | 2013-08-16 | 2019-04-23 | Nvidia Corporation | Rendering to multi-resolution hierarchies |
US20150130915A1 (en) | 2013-11-08 | 2015-05-14 | Nvidia Corporation | Apparatus and system for dynamic adjustment of depth for stereoscopic video content |
US9437040B2 (en) | 2013-11-15 | 2016-09-06 | Nvidia Corporation | System, method, and computer program product for implementing anti-aliasing operations using a programmable sample pattern table |
US20150138065A1 (en) | 2013-11-21 | 2015-05-21 | Nvidia Corporation | Head-mounted integrated interface |
US10733794B2 (en) | 2013-12-13 | 2020-08-04 | Nvidia Corporation. | Adaptive shading in a graphics processing pipeline |
US9552667B2 (en) | 2013-12-13 | 2017-01-24 | Nvidia Corporation | Adaptive shading in a graphics processing pipeline |
US9569885B2 (en) | 2014-01-02 | 2017-02-14 | Nvidia Corporation | Technique for pre-computing ambient obscurance |
US20150194128A1 (en) | 2014-01-07 | 2015-07-09 | Nvidia Corporation | Generating a low-latency transparency effect |
US10264211B2 (en) | 2014-03-14 | 2019-04-16 | Comcast Cable Communications, Llc | Adaptive resolution in software applications based on dynamic eye tracking |
US9547931B2 (en) | 2014-05-05 | 2017-01-17 | Nvidia Corporation | System, method, and computer program product for pre-filtered anti-aliasing with deferred shading |
US9754407B2 (en) | 2014-08-12 | 2017-09-05 | Nvidia Corporation | System, method, and computer program product for shading using a dynamic object-space grid |
US9747718B2 (en) | 2014-08-12 | 2017-08-29 | Nvidia Corporation | System, method, and computer program product for performing object-space shading |
US10096086B2 (en) | 2014-09-10 | 2018-10-09 | Nvidia Corporation | Enhanced anti-aliasing by varying sample patterns spatially and/or temporally |
US10147203B2 (en) | 2014-09-10 | 2018-12-04 | Nvidia Corporation | Enhanced anti-aliasing by varying sample patterns spatially and/or temporally |
US10437637B1 (en) * | 2015-05-26 | 2019-10-08 | Thin CI, Inc. | Configurable scheduler for graph processing on multi-processor computing systems |
US10108449B2 (en) * | 2016-09-13 | 2018-10-23 | Qualcomm Innovation Center, Inc. | Work item management among worker threads of a computing device |
-
2017
- 2017-04-17 US US15/489,177 patent/US10672175B2/en active Active
-
2018
- 2018-04-17 CN CN201810343745.6A patent/CN108734634A/zh active Pending
- 2018-04-17 EP EP18167853.3A patent/EP3392764B1/en active Active
-
2020
- 2020-05-29 US US16/887,439 patent/US11257274B2/en active Active
-
2022
- 2022-02-02 US US17/591,166 patent/US11688122B2/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6363441B1 (en) * | 1999-03-05 | 2002-03-26 | Silicon Graphics, Inc. | Timing controller having dependency memory, selection serialization component and reordering component for maintaining time dependencies in conversions between sequential and parallel operations using staging memory |
US20090303245A1 (en) * | 2008-04-30 | 2009-12-10 | Alexei Soupikov | Technique for performing load balancing for parallel rendering |
US20140237187A1 (en) * | 2013-02-20 | 2014-08-21 | Nvidia Corporation | Adaptive multilevel binning to improve hierarchical caching |
US20140354669A1 (en) * | 2013-05-30 | 2014-12-04 | Arm Limited | Graphics processing |
US20150070367A1 (en) * | 2013-09-09 | 2015-03-12 | Apple Inc. | Shader Program Profiler |
CN104951281A (zh) * | 2014-03-28 | 2015-09-30 | 英特尔公司 | 用于实现动态无序处理器流水线的方法和装置 |
US20150379661A1 (en) * | 2014-06-26 | 2015-12-31 | Prasoonkumar Surti | Efficient hardware mechanism to ensure shared resource data coherency across draw calls |
US20160055608A1 (en) * | 2014-08-21 | 2016-02-25 | Qualcomm Incorporated | Render target command reordering in graphics processing |
US20160093012A1 (en) * | 2014-09-26 | 2016-03-31 | Intel Corporation | Method and apparatus for a highly efficient graphics processing unit (gpu) execution model |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020191925A1 (en) * | 2019-03-26 | 2020-10-01 | Huawei Technologies Co., Ltd. | Multiple named wait stations |
CN111476706A (zh) * | 2020-06-02 | 2020-07-31 | 长沙景嘉微电子股份有限公司 | 顶点并行处理方法、装置及计算机存储介质、电子设备 |
CN112506655A (zh) * | 2020-12-07 | 2021-03-16 | 深圳市安冠科技有限公司 | 一种绘图方法、存储介质及应用服务器 |
CN112506655B (zh) * | 2020-12-07 | 2023-12-15 | 深圳市安冠科技有限公司 | 一种绘图方法、存储介质及应用服务器 |
US20220246081A1 (en) * | 2021-01-05 | 2022-08-04 | Google Llc | Hidden display interfaces and associated systems and methods |
CN116703690A (zh) * | 2022-11-02 | 2023-09-05 | 荣耀终端有限公司 | 图像处理方法和设备 |
CN116703690B (zh) * | 2022-11-02 | 2024-05-14 | 荣耀终端有限公司 | 图像处理方法和设备 |
Also Published As
Publication number | Publication date |
---|---|
US20220262059A1 (en) | 2022-08-18 |
EP3392764A1 (en) | 2018-10-24 |
US20180300933A1 (en) | 2018-10-18 |
EP3392764B1 (en) | 2021-07-28 |
US20200364921A1 (en) | 2020-11-19 |
US11688122B2 (en) | 2023-06-27 |
US11257274B2 (en) | 2022-02-22 |
US10672175B2 (en) | 2020-06-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108734634A (zh) | 用于图形的顺序独立异步计算和流传送 | |
CN108694738A (zh) | 去耦的多层渲染频率 | |
CN108711133A (zh) | 带有早期分层的z的基于图块的立即模式渲染 | |
CN113396439A (zh) | 基于小芯片配置启用产品sku | |
CN117853311A (zh) | SoC架构的分解 | |
CN108694688A (zh) | 用于在图形处理架构中管理数据偏置的设备和方法 | |
CN108733339A (zh) | 增强现实和虚拟现实反馈增强系统、设备和方法 | |
CN108734629A (zh) | 感官增强的增强现实和虚拟现实装置 | |
US11257180B2 (en) | Thread serialization, distributed parallel programming, and runtime extensions of parallel computing platform | |
CN108734647A (zh) | 增强现实虚拟现实声线追踪感觉加强系统、设备和方法 | |
US10991075B2 (en) | Display engine surface blending and adaptive texel to pixel ratio sample rate system, apparatus and method | |
CN108734633A (zh) | 具有附加上下文的图形系统 | |
CN108734638A (zh) | 自适应子分片的系统、设备和方法 | |
CN108694685A (zh) | 改进的图形处理器微架构内的多分辨率图像平面渲染 | |
US11461959B2 (en) | Positional only shading pipeline (POSH) geometry data processing with coarse Z buffer | |
US11302066B2 (en) | Anti-aliasing adaptive shader with pixel tile coverage raster rule system, apparatus and method | |
US10878528B2 (en) | Adaptive smart grid-client device computation distribution with grid guide optimization | |
CN108711181A (zh) | 拓扑着色器技术 | |
US10853995B2 (en) | Physically based shading via fixed-functionality shader libraries | |
CN108694697A (zh) | 从模板印刷缓冲器控制粗糙像素大小 | |
US20220165022A1 (en) | Adaptive multisampling based on vertex attributes | |
US20220076479A1 (en) | Write out stage generated bounding volumes | |
US20190066362A1 (en) | Method and apparatus for natural hand visualization |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |