CN115516421A - Gpu中基于gpr释放机制的gpr优化 - Google Patents

Gpu中基于gpr释放机制的gpr优化 Download PDF

Info

Publication number
CN115516421A
CN115516421A CN202180034206.4A CN202180034206A CN115516421A CN 115516421 A CN115516421 A CN 115516421A CN 202180034206 A CN202180034206 A CN 202180034206A CN 115516421 A CN115516421 A CN 115516421A
Authority
CN
China
Prior art keywords
gprs
shader
executable
gpu
deallocated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202180034206.4A
Other languages
English (en)
Inventor
A.E.格鲁伯
杜云
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of CN115516421A publication Critical patent/CN115516421A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/60Memory management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5011Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
    • G06F9/5022Mechanisms to release resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/40Transformation of program code
    • G06F8/41Compilation
    • G06F8/44Encoding
    • G06F8/441Register allocation; Assignment of physical memory space to logical memory space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/30Arrangements for executing machine instructions, e.g. instruction decode
    • G06F9/30098Register arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/30Arrangements for executing machine instructions, e.g. instruction decode
    • G06F9/30098Register arrangements
    • G06F9/3012Organisation of register space, e.g. banked or distributed register file
    • G06F9/30123Organisation of register space, e.g. banked or distributed register file according to context, e.g. thread buffers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Generation (AREA)
  • Image Processing (AREA)
  • Complex Calculations (AREA)
  • Advance Control (AREA)

Abstract

本公开提供了基于GPR释放机制在GPU中进行GPR优化的系统、设备、装置和方法,包括被编码在存储介质上的计算机程序。更具体地,GPU可以基于为可执行着色器定义的常量确定可执行着色器内的至少一个未使用的分支。基于至少一个未使用的分支,GPU可以进一步确定能够从先前分配的GPR中解除分配的GPR的数量。GPU可以为绘制调用内的后续线程基于所确定的要解除分配的GPR数量在可执行着色器的执行期间从先前分配的GPR中解除分配该数量的GPR。

Description

GPU中基于GPR释放机制的GPR优化
相关申请的交叉引用
本申请要求于2020年5月18日递交的题为“GPR OPTIMIZATION IN A GPU BASEDON A GPR RELEASE MECHANISM”的美国专利申请第16/877,367号的权益,该申请通过引用整体明确地并入本文。
技术领域
本公开通常涉及处理系统,更具体地涉及图形处理中使用释放机制的寄存器优化。
背景技术
计算设备经常执行图形处理(例如,利用图形处理单元(GPU))以渲染图形数据用于由计算设备进行显示。这样的计算设备可以包括例如计算机工作站、诸如智能电话的移动电话、嵌入式系统、个人计算机、平板计算机以及视频游戏控制台。GPU被配置为执行图形处理管线,该图形处理管线包括一起操作以执行图形处理命令并输出帧的一个或多个处理阶段。中央处理单元(CPU)可以通过向GPU发布一个或多个图形处理命令来控制GPU的操作。现如今CPU通常能够并发地执行多个应用,每个应用在执行期间可能需要利用GPU。为显示器上的视觉呈现提供内容的设备可以利用GPU。
通用寄存器(GPR)可以被分配给在GPU上执行的程序以暂时地存储信息。然而,随着更多的GPR被分配给程序,更少数量的线程可以同时驻留在GPU中。因此,需要减少分配给程序的GPR的数量。
发明内容
以下呈现了一个或多个方面的简化总结,以便提供对这些方面的基本理解。该总结不是对所有预期方面的广泛概述,并且既不旨在标识所有方面的重要或关键要素,也不旨在描绘任何或所有方面的范围。其唯一目的是以简化形式呈现一个或多个方面的一些概念,作为稍后呈现的更详细描述的前言。
GPR可以在着色器编译之后基于已编译着色器内的许多可能分支被可变地分配给着色器程序。更具体地,编译器可以在编译时间确定着色器的变量可以在整个绘制调用的持续时间中是恒定的,即使该变量的确切值可能在编译时间未由编译器确定。因此,已编译着色器内的可能分支的数量可以基于常量在着色器运行时可能采用的不同值来确定。结果,可能在编译时间将过多的GPR分配给着色器,以确保着色器有足够的GPR来执行即使是最复杂的着色器分支,而不管这样的分支是否会实际执行。
因此,可编程GPR释放机制可用于解除分配在编译时间分配给着色器的过多GPR。释放机制可以在由着色器确定常量的值之后在着色器的运行时被执行。更具体地,例如,可以使用需要更多GPR来执行的复杂分支和需要更少GPR来执行的简单分支来编译着色器。基于为常量定义的值,着色器可以确定在绘制调用期间将不会执行复杂分支,并且在编译时间分配给着色器的一些GPR超出了执行简单分支所需的数量。因此,释放机制可以被配置为从后续着色器线程中解除分配过多/不需要的GPR,使得更多的后续线程可以同时驻留在GPU中。
在本公开的方面中,提供了一种方法、一种计算机可读介质和一种装置。该装置可以包括存储器和耦接至存储器的至少一个处理器。至少一个处理器可以被配置为基于为可执行着色器定义的常量确定可执行着色器内的至少一个未使用的分支,并且进一步基于至少一个未使用的分支确定能够从已分配的GPR中解除分配的GPR的数量。至少一个处理器可以基于所确定的GPR的数量在绘制调用内的可执行着色器执行期间从已分配的GPR中解除分配该数量的GPR。
为了实现前述和相关目的,一个或多个方面包括在下文中充分描述并且在权利要求中特别指出的特征。以下描述和附图详细阐述了一个或多个方面的某些图示性特征。然而,这些特征仅表示可以采用各个方面的原理的各种方式中的几种,并且本描述旨在包括所有这样的方面及其等同物。
附图说明
图1是图示了根据本公开的一种或多种技术的示例性内容生成系统的框图。
图2是图示了根据本公开的一种或多种技术的用于处理数据的示例性组件的框图。
图3是根据本公开的一种或多种技术的对应于用于基于GPR分配来执行着色器的示例指令的框图。
图4是根据本公开的一种或多种技术的对应于用于基于可编程GPR释放机制来执行着色器的示例指令的框图。
图5是根据本公开的一种或多种技术的示例方法的流程图。
图6是图示了示例装置中不同部件/组件之间的数据流的概念数据流图。
具体实施方式
下文参照附图更充分地描述系统、装置、计算机程序产品和方法的各个方面。然而,本公开可以以许多不同的形式体现,并且不应被解释为限于贯穿本公开呈现的任何特定结构或功能。相反,提供这些方面是为了使本公开全面和完整,并将本公开的范围充分传达给本领域技术人员。基于本文中教导,本领域技术人员应当理解,本公开的范围旨在涵盖本文公开的系统、装置、计算机程序产品和方法的任何方面,无论是独立于本公开的任何其他方面实施还是与本公开的任意其他方面组合实施。例如,可以使用本文阐述的任何数量的方面来实施装置或实践方法。此外,本公开的范围旨在覆盖这样的装置或方法,该装置或方法除了使用本文阐述的本公开的各个方面之外还使用其他结构、功能、或结构和功能或使用本文阐述的本公开的各个方面之外的其他结构、功能、或结构和功能来实践。本文所公开的任何方面都可以通过权利要求的一个或多个元素来体现。
尽管本文描述了各个方面,但这些方面的许多变化和排列落入本公开的范围内。尽管提及了本公开的各方面的一些潜在益处和优点,但本公开的范围并不旨在限于特定的益处、用途或目标。相反,本公开的各方面旨在广泛适用于不同的无线技术、系统配置、网络和传输协议,其中一些在附图和以下描述中以示例的方式示出。详细描述和附图仅是对本公开的说明而非限制,本公开的范围由所附权利要求及其等同物限定。
参照各种装置和方法来呈现若干方面。这些装置和方法通过各种框、组件、电路、处理、算法等(统称为“元素”)在以下详细描述中被描述并在附图中被图示。这些元素可以使用电子硬件、计算机软件或它们的任何组合来实现。这样的元素是作为硬件还是软件实现取决于特定的应用和施加在整个系统上的设计约束。
举例来说,元素或元素的任何部分或元素的任何组合可以被实施为包括一个或多个处理器(也可以被称为处理单元)的“处理系统”。处理器的示例包括微处理器、微控制器、图形处理单元(GPU)、通用GPU(GPGPU)、中央处理单元(CPU)、应用处理器、数字信号处理器(DSP)、精简指令集计算(RISC)处理器、片上系统(SOC)、基带处理器、专用集成电路(ASIC)、现场可编程门阵列(FPGA)、可编程逻辑器件(PLD)、状态机、门控逻辑、分立硬件电路以及被配置为执行贯穿本公开所描述的各种功能的其他合适硬件。处理系统中的一个或多个处理器可以执行软件。软件可以广义地解释为指令、指令集、代码、代码段、程序代码、程序、子程序、软件组件、应用、软件应用、软件封装、例程、子例程、对象、可执行文件、执行线程、过程、函数等,无论被称为软件、固件、中间件、微码、硬件描述语言还是其他。
术语应用可以指代软件。如本文所描述的,一种或多种技术可以指代被配置为执行一个或多个功能的应用(例如,软件)。在这样的示例中,应用可以存储在存储器(例如,处理器的片上存储器、系统存储器或任何其他存储器)中。本文描述的硬件(诸如处理器)可以被配置为执行应用。例如,应用可以被描述为包括当由硬件执行时使硬件执行本文描述的一种或多种技术的代码。作为示例,硬件可以访问来自存储器的代码并且执行从存储器访问的代码以执行本文描述的一种或多种技术。在一些示例中,在本公开中标识了组件。在这样的示例中,组件可以是硬件、软件或其组合。组件可以是单独的组件或单个组件的子组件。
因此,在本文描述的一个或多个示例中,所描述的功能可以以硬件、软件或其任何组合来实现。如果以软件实现,则这些功能可以被存储在计算机可读介质上或被编码为计算机可读介质上的一个或多个指令或代码。计算机可读介质包括计算机存储介质。存储介质可以是计算机可以访问的任何可用介质。作为示例而非限制,这样的计算机可读介质可以包括随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程ROM(EEPROM)、光盘存储器、磁盘存储器、其他磁存储设备、上述类型的计算机可读介质的组合,或可被用于以可由计算机访问的指令或数据结构的形式存储计算机可执行代码的任何其他介质。
一般而言,本公开描述了用于在单个设备或多个设备中进行图形处理的技术,其可以改进图形内容的渲染和/或减少处理单元(例如,被配置为执行本文描述的一种或多种技术的任何处理单元,诸如GPU)的负载。例如,本公开描述了适用于利用图形处理器的任何设备中的图形处理的技术。这样的技术的其他潜在优点在本公开全文中进行了描述。
如本文所用,术语“内容”的实例可以指代“图形内容”、“图像”等,而不管这些术语是否用作形容词、名词或其他词性。在一些示例中,如本文所使用的术语“图形内容”可以指代由图形处理管线的一个或多个进程产生的内容。在进一步的示例中,如本文所用的术语“图形内容”可以指代由被配置为执行图形处理的处理单元产生的内容。在更进一步的示例中,如本文所使用的术语“图形内容”可以指代由图形处理单元产生的内容。
GPR可以在着色器编译之后基于已编译着色器内的许多可能分支被可变地分配给着色器程序。更具体地,编译器可以在编译时间确定着色器的变量可以在整个绘制调用的持续时间中是恒定的,即使该变量的确切值可能在编译时间未由编译器确定。因此,已编译着色器内的可能分支的数量可以基于常量在着色器运行时可能采用的不同值来确定。结果,可能在编译时间将过多的GPR分配给着色器,以确保着色器有足够的GPR来执行即使是最复杂的着色器分支,而不管这样的分支是否会实际执行。
因此,可编程GPR释放机制可用于解除分配在编译时间分配给着色器的过多GPR。释放机制可以在由着色器确定常量的值之后在着色器的运行时被执行。更具体地,例如,可以使用需要更多GPR来执行的复杂分支和需要更少GPR来执行的简单分支来编译着色器。基于为常量定义的值,着色器可以确定在绘制调用期间将不会执行复杂分支,并且在编译时间分配给着色器的一些GPR超出了执行简单分支所需的数量。因此,释放机制可以被配置为从着色器解除分配过多/不需要的GPR,使得过多的GPR可以被分配给GPU中的后续线程,从而允许更多的后续线程同时驻留在GPU中。
图1是图示了被配置为实现本公开的一种或多种技术的示例内容生成系统100的框图。内容生成系统100包括设备104,设备104可以是但不限于视频设备(例如,媒体播放器)、机顶盒、无线通信设备(例如,智能电话)、个人数字助理(PDA)、台式/笔记本电脑、游戏控制台、视频会议单元、平板计算设备等。设备104可以包括用于执行本文描述的各种功能的一个或多个组件或电路。在一些示例中,设备104的一个或多个组件可以是SOC的组件。设备104可以包括被配置为执行本公开的一种或多种技术的一个或多个组件。在所示示例中,设备104可以包括处理单元120和系统存储器124。在一些方面中,设备104可以包括多个可选组件(例如,通信接口126、收发器132、接收器128、发送器130、显示处理器127和一个或多个显示器131)。(多个)显示器131可以指一个或多个显示器131。例如,显示器131可以包括单个显示器或多个显示器,多个显示器可以包括第一显示器和第二显示器。第一显示器可以是左眼显示器,并且第二显示器可以是右眼显示器。在一些示例中,第一和第二显示器可以接收不同的帧以在其上呈现。在其他示例中,第一和第二显示器可以接收相同的帧以在其上呈现。在进一步的示例中,图形处理的结果可以不显示在设备上,例如,第一和第二显示器可能不会接收到任何用于在其上呈现的帧。相反,帧或图形处理结果可以被传送至另一设备。在一些方面,这可以被称为分割渲染。
处理单元120可以包括内部存储器121。处理单元120可以被配置为使用图形处理管线107来执行图形处理。在一些示例中,设备104可以包括显示处理器(诸如显示处理器127)以在由一个或多个显示器131显示之前对由处理单元120生成的一个或多个帧执行一种或多种显示处理技术。显示处理器127可以被配置为执行显示处理。例如,显示处理器127可以被配置为对由处理单元120生成的一个或多个帧执行一种或多种显示处理技术。一个或多个显示器131可以被配置为显示或以其他方式呈现由显示处理器127处理的帧。在一些示例中,一个或多个显示器131可以包括液晶显示器(LCD)、等离子显示器、有机发光二极管(OLED)显示器、投影显示设备、增强现实显示设备、虚拟现实显示设备、头戴式显示器或任何其他类型的显示设备中的一种或多种。
处理单元120外部的存储器(诸如系统存储器124)可以由处理单元120访问。例如,处理单元120可以被配置为从外部存储器(诸如系统存储器124)读取和/或向外部存储器(诸如系统存储器124)写入。处理单元120可以通过总线通信地耦接至系统存储器124。在一些示例中,处理单元120可以通过总线或经由不同的连接通信地耦接至内部存储器121。内部存储器121或系统存储器124可以包括一个或多个易失性或非易失性存储器或存储设备。在一些示例中,内部存储器121或系统存储器124可以包括RAM、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、可擦除可编程ROM(EPROM)、EEPROM、闪存、磁数据介质或光存储介质或任何其他类型的存储器。
根据一些示例,内部存储器121或系统存储器124可以是非暂时性存储介质。术语“非暂时性”可以表示存储介质不在载波或传播信号中体现。然而,术语“非暂时性”不应被解释为意味着内部存储器121或系统存储器124是不可移动的或其内容是静态的。作为一个示例,系统存储器124能够从设备104中移除并且移动到另一设备。作为另一个示例,系统存储器124可能不能从设备104中移除。
处理单元120可以是CPU、GPU、GPGPU或可以被配置为执行图形处理的任何其他处理单元。在一些示例中,处理单元120可以集成到设备104的主板中。在进一步的示例中,处理单元120可以呈现在安装于设备104的主板的端口中的图形卡上,或者可以以其他方式并入被配置为与设备104交互操作的外围设备内。处理单元120可以包括一个或多个处理器,诸如一个或多个微处理器、GPU、ASIC、FPGA、算术逻辑单元(ALU)、DSP、离散逻辑、软件、硬件、固件、其他等效的集成或分立逻辑电路或其任何组合。如果这些技术部分地以软件实现,则处理单元120可以将用于软件的指令存储在合适的非暂时性计算机可读存储介质(例如,内部存储器121)中,并且可以使用一个或多个处理器在硬件中执行指令以执行本公开的技术。上述中的任何一种,包括硬件、软件、硬件和软件的组合等,都可以被认为是一个或多个处理器。
在一些方面中,内容生成系统100可以包括可选的通信接口126。通信接口126可以包括接收器128和发送器130。接收器128可以被配置为执行本文关于设备104描述的任何接收功能。附加地,接收器128可以被配置为从另一设备接收信息,例如,眼睛或头部位置信息、渲染命令或位置信息。发送器130可以被配置为执行本文关于设备104描述的任何发送功能。例如,发送器130可以被配置为向另一设备发送信息,该信息可以包括对内容的请求。接收器128和发送器130可以组合成收发器132。在这样的示例中,收发器132可以被配置为执行本文关于设备104描述的任何接收功能和/或发送功能。
再次参照图1,在某些方面中,图形处理单元120可以包括GPR解除分配组件198,其被配置为基于为可执行着色器定义的常量确定可执行着色器内的至少一个未使用的分支;基于至少一个未使用的分支,确定能够从已分配的GPR中解除分配的GPR的数量;以及对于绘制调用中的后续线程,基于所确定的GPR数量在可执行着色器的执行期间从已分配的GPR中解除分配该数量的GPR。将解除分配组件198描述和引用为“组件”是为了便于解释并且不一定对应于处理单元120中的特定硬件组件。例如,解除分配组件198可以被配置为代码、逻辑等。
诸如设备104的设备可以指被配置为执行本文描述的一种或多种技术的任何设备、装置或系统。例如,设备可以是服务器、基站、用户设备、客户端设备、站、接入点、计算机(诸如个人计算机、台式计算机、膝上型计算机、平板计算机、计算机工作站或大型计算机)、终端产品、装置、电话、智能电话、服务器、视频游戏平台或控制台、手持设备(诸如便携式视频游戏设备或个人数字助理(PDA))、可穿戴计算设备(诸如智能手表、增强现实设备或虚拟现实设备)、非可穿戴设备、显示器或显示设备、电视机、电视机顶盒、中间网络设备、数字媒体播放器、视频流设备、内容流设备、车载计算机、任何移动设备、被配置为生成图形内容的任何设备、或被配置为执行本文描述的一种或多种技术的任何设备。本文中的过程可以被描述为由特定组件(例如,GPU)执行,但是在其他实施例中,可以使用与所公开的实施例一致的其他组件(例如,CPU)来执行。
图2是图示了如可以结合用于处理数据的示例性设备104标识的诸如处理单元120和系统存储器124的示例性组件的框图200。在各方面中,处理单元120可以包括CPU 202和GPU 212。GPU 212和CPU 202可以形成为集成电路(例如,SOC)和/或GPU 212可以并入到具有CPU 202的主板上。附加地,CPU 202和GPU 212可以被配置为通信地耦接至彼此的不同处理单元。例如,GPU 212可以并入安装于包括CPU 202的主板端口中的图形卡上。
CPU 202可以被配置为基于GPU 212的一个或多个操作来执行使图形内容被显示(例如,在设备104的(多个)显示器131上)的软件应用。软件应用可以发布指令到图形应用程序接口(API)204,图形API 204可以是运行时程序,其将从软件应用接收到的指令转换成GPU驱动器210可读的格式。在经由图形API 204从软件应用接收指令之后,GPU驱动器210可以基于指令控制GPU 212的操作。例如,GPU驱动器210可以生成一条或多条命令流,该命令流被放置到系统存储器124中,其中GPU 212被指示(例如,经由一个或多个系统调用)执行命令流。被包括在GPU 212中的命令引擎214被配置为检索存储在命令流中的一个或多个命令。命令引擎214可以提供来自命令流的命令以由GPU 212执行。命令引擎214可以是GPU212的硬件、在GPU 212上执行的软件/固件、或其组合。
虽然GPU驱动器210被配置为实现图形API 204,但GPU驱动器210不限于根据任何特定API进行配置。系统存储器124可以存储用于GPU驱动器210的代码,CPU 202可以检索该代码以用于执行。在示例中,GPU驱动器210可以被配置为允许CPU 202与GPU 212之间的通信,诸如当CPU 202经由GPU驱动器210将图形或非图形处理任务卸载到GPU 212时。
系统存储器124可以进一步存储用于前导着色器224或主着色器226中的一个或多个的源代码。在这样的配置中,在CPU 202上执行的着色器编译器208可以编译着色器224-226的源代码以创建GPU 212的着色器核心216在运行时(例如,当着色器224-226将在着色器核心216上执行时)可执行的目标代码或中间代码。在一些示例中,着色器编译器208可以预编译着色器224-226并将着色器程序的目标代码或中间代码存储在系统存储器124中。
在CPU 202上执行的着色器编译器208(或在另一示例中为GPU驱动器210)可以构建具有多个组件的着色器程序,多个组件包括前导着色器224和主着色器226。主着色器226可以对应于不包括前导着色器224的部分或全部着色器程序。着色器编译器208能够从在CPU 202上执行的程序接收指令以编译(多个)着色器224-226。着色器编译器208还可以标识着色器程序中的常量加载指令和公共操作,用于将公共操作包括在前导着色器224(而不是主着色器226)内。着色器编译器208可以例如基于(当前未确定的)要被包括在公共指令中的常量206来标识这样的公共指令。常量206可以在图形API 204内被定义为在整个绘制调用中是常量。着色器编译器208可以利用诸如前导着色器开始的指令来指示前导着色器224的开始并且利用前导着色器结束来指示前导着色器224的结束。类似的指令可以用于主着色器226。
GPU 212中所包括的着色器核心216可以包括GPR 218和常量存储器220。GPR 218可以对应于单个GPR、GPR文件和/或GPR库。GPR 218中的每个GPR可以存储单个线程可访问的数据。在GPU 212上执行的软件和/或固件可以是着色器程序224-226,其可以在GPU 212的着色器核心216上执行。着色器核心216可以被配置为并行执行相同着色器程序的相同指令的许多实例。例如,着色器核心216可以针对定义给定形状的每个像素执行主着色器226。
着色器核心216可以发送和接收来自在CPU 202上执行的应用的数据。在示例中,用于执行着色器224-226的常量206可以存储在常量存储器220(例如,读/写常量RAM)或GPR218中。着色器核心216可以将常量206加载到常量存储器220中。在进一步的示例中,前导着色器224的执行可以使常量值或常量值集合被存储在诸如常量存储器220(例如,常量RAM)、GPU存储器222或系统存储器124的片上存储器中。常量存储器220可以包括可由着色器核心216的所有方面访问的存储器,而不仅仅是为特定线程保留的特定部分(诸如GPR 218中保存的值)。
图3是对应于用于基于GPR分配执行着色器302的示例指令350的框图300。GPR可以在着色器编译时间被可变地分配给着色器。然而,随着分配给着色器302的GPR 218的数量增加,可以同时驻留在GPU中的相应线程数量减少。这样的由分配的GPR 218的数量增加造成的影响不仅可能限制延迟隐藏,而且还可能降低GPU的整体性能。为了平衡增加分配给着色器302的GPR 218的数量和增加可同时驻留在GPU中的线程的数量之间的折衷,可以仅基于着色器执行所需的最小数量的GPR 218来执行着色器302,使得着色器302没有未使用的已分配的GPR资源。
执行着色器302所需的GPR 218的最小数量可以基于在着色器302的运行时间期间对于单个绘制调用或内核不改变的恒定/统一值。假定编译器在编译着色器302时编译器可能不知道常量206的准确值,过多的GPR 218可能被分配给着色器302以确保GPR 218有足够的可用性来执行着色器302的更复杂的路径/分支(例如,复杂分支304)。如果在编译着色器302时常量206的值是已知的,则编译器可能能够通过消除来自需要更多GPR 218来执行的着色器302的某些分支来提高着色器性能,从而减少编译后需要分配给着色器302的GPR218的数量。替代地,如果GPU驱动器可以在着色器302被提交(例如,排队)到GPU时确定常量206的值,则编译器可以生成着色器302的多个版本,每个版本具有不同的GPR分配并允许GPU驱动器来选择将在提交时间使用的着色器302的版本。
通常,常量206的值不能由编译器在编译时间确定,也不能由GPU驱动器在提交时间确定。虽然编译的着色器302可以被配置为在运行时间识别常量206的值,但是到运行发生时,GPR 218的数量可能已经分配给着色器302,可能超过执行着色器302的某些分支所需的GPR 218的数量。因此,即使编译器可以被配置为在编译时间识别变量是常量,该常量206的确切值也可能在着色器编译期间保持未知,使得不能使用该常量值来减少GPR分配。
着色器可以具有基于常量206的某种组合的不同流控制路径/分支。可以在图形API中定义常量206以跨越整个绘制调用(例如,针对对应形状的整个生命周期)保持相同。也就是说,给定值的常量206不会跨绘制调用在每个像素的基础上从一个像素改变到下一个像素。对于执行相应形状的所有像素,常量206在整个着色器生命周期内保持不变。常量缓冲区(也可以被称为统一缓冲区)可以由图形API管理并驻留在存储器中(例如,类似于纹理缓冲区或帧缓冲区),其中常量缓冲区可以由着色器302访问以在绘制调用上提供常量/统一值。
可执行着色器程序可以包括着色器程序的前导部分和着色器程序的主要部分(或简称为“前导着色器”224和“主着色器”226)。前导着色器224可以是每个绘制调用或内核仅执行一次的着色器302的部分。可以在允许任何线程执行主着色器226之前执行前导着色器224。前导着色器224还可以将常量值预加载到GPU的本地存储器中,其中常量值可以由在主着色器226内执行的多个线程使用。因此,常量值可以由前导着色器每次绘制调用获取一次,而不是由主着色器为绘制调用内的每个线程(例如,像素)获取。
在示例中,前导着色器224能够从本地常量缓冲区中获取本地常量206。当本地常量206具有第一值(例如,常量值X)时,主着色器226可以使用第一数量的GPR 218(例如,20个GPR)来执行复杂分支304。当本地常量具有第二值(例如,常量值Y)时,主着色器226可以使用第二数量的GPR 218(例如,4个GPR)来执行简单分支306。然而,在针对绘制调用的本地常量为0并且不需要执行复杂分支304的情况下,着色器302仍然可以例如基于20个GPR的分配而不是基于4个GPR的分配被执行。结果,分配给着色器302的GPR 218中的一些可能是不必要的/过多的。
图4是对应于用于基于可编程GPR释放机制402执行着色器302的示例指令450的框图400。GPR释放机制402可以在运行时被执行以允许基于本地常量值和/或分配的GPR 218的数量的确定对GPR“足迹”进行修改。例如,当本地常量206为0时,着色器302可能能够执行用于绘制调用的简单分支306(例如,每个线程有4个GPR)并且可以释放与绘制调用内的后续线程/像素执行相关联的任何过多的GPR 218(例如,可以释放16个GPR)。与可能导致GPR分配基于复杂分支304的编译器(因为编译器可能没有办法在编译时间确定常量206的值)相反,着色器302可以在识别常量206的这些值之后经由GPR释放机制402确定着色器302执行实际需要的GPR 218的数量,使得能够从着色器302释放/解除分配任何不需要的GPR218。
因此,基于由GPR释放机制402所确定的常数206的值,着色器302可以基于需要更多数量的GPR 218的复杂分支304被执行,或者着色器302可以基于需要更少数量的GPR 218的简单分支306被执行。然而,当常量206的值被确定为对应于简单分支306的执行的值时,使得不需要执行复杂分支304,分配给着色器302的超过执行简单分支306所需的GPR 218能够从着色器302解除分配以用于后续的执行实例。因此,GPR释放机制402可以被配置为增加GPR 218的可用性以供在着色器302外部的GPU的其他线程使用,以通过使更多线程能够同时驻留来为GPU提供更有效的GPR资源分配。
经由GPR释放机制402对GPR 218解除分配可能不适用于前导着色器224(每次绘制调用仅执行一次)或主着色器226的第一个执行实例,而可能仅适用于尚未发出或尚未收到GPR分配的绘制调用内的后续线程。由于GPR释放机制402被配置为修改用于后续线程的GPR分配,因此与用于从已经分配有GPR 218的当前线程释放GPR的方法相比,用于从后续线程释放GPR 218的方法可以被简化。在一些情况下,为后续线程解除分配GPR 218的确切时间可能不太重要,因为以过量GPR分配执行的较早发布的线程仍将正确执行。这样,GPR释放机制402可以被并入前导着色器224(例如,为绘制调用的所有线程解除分配GPR)和/或主着色器226(例如,为绘制调用的线程子集解除分配GPR,诸如在不使用前导着色器224的配置中)之一或两者中。
可以访问常量206的命令处理器或其他可编程硬件单元可以被配置为执行与GPR释放机制402类似的操作。例如,命令处理器可以被配置为在着色器302由命令处理器启动之前基于常量206确定执行着色器302所需的GPR 218的数量。命令处理器然后可以基于所确定的GPR 218的数量使GPR 218被分配给着色器302。
可以同时编译前导着色器224和主着色器226。前导着色器224可用于从存储器获取常量206并将常量206存储在本地常量缓冲区中,其中常量206可以在绘制调用期间被更有效地访问。因为常量206在整个绘制调用中保持不变,所以前导着色器224提供了在绘制调用开始时获取一次常量206的方式,而不是由主着色器226为每个像素获取。虽然前导着色器224可以提供管理本地常量存储以便更有效地访问常量206的益处,但是前导着色器224并非实现GPR释放机制402的必要条件。例如,编译器可以替代编译主着色器226以用于从存储器中获取常量206,尽管是在每像素的基础上而不是每次绘制调用一次。可以由主着色器226的GPR释放机制402为每个单独的像素/线程确定关于执行像素/线程所需的GPR218的数量,从而可以为绘制调用中的后续着色器执行的实例解除分配过多的GPR 218。由于每个像素的确定是基于常量206的,因此为后续像素/线程确定的GPR 218的数量在整个绘制调用中保持不变。虽然前导着色器224可以允许在主着色器226一开始执行时就解除分配GPR 218,但GPR释放机制402可以类似地在绘制调用的第一部分以效率较低的GPR分配被执行之后由主着色器402执行,以为执行绘制调用的第二部分提供过多GPR的解除分配/更有效的GPR分配。
当编译器生成着色器302时,可以基于可以输入到着色器302的函数的不同的可能常量206来识别通过着色器302的多个唯一路径/分支。也就是说,编译器可以基于着色器302的函数和不同的可能常量206确定将被分配给着色器302的GPR 218的数量。由编译器在编译时间确定的GPR 218的数量通常足够灵活,甚至可以满足基于不同的可能常量206的通过着色器302的最复杂的路径/分支(例如,复杂分支304)。前导着色器224可以是并入用于确定着色器执行所需的GPR 218的数量的GPR释放机制402的自然位置,因为对任何不需要的GPR 218的解除分配发生在主着色器226的初始执行时间。然而,GPR释放机制402不限于并入前导着色器224内,用于降低GPR分配,从而允许同时执行更多线程/像素,改进延迟隐藏,和/或增加着色器302和系统存储器两者的效率。
图5是根据本公开的一种或多种技术的GPR解除分配的示例方法500的流程图。方法500可以由GPU、CPU、命令处理器、用于图形处理的装置、无线通信设备等执行,如结合图1-图4的示例使用的那样。
在502处,前导着色器可以获取定义的常量(例如,以执行GPR解除分配的方法)。例如,参照图2,在着色器核心216上执行的前导着色器224能够从图形API 204获取常量206。当由GPU执行时,GPR解除分配的方法可以由前导着色器在可执行着色器内并且在可执行着色器的主要部分之前被执行。附加地或替代地,当由GPU执行时,GPR解除分配的方法可以在可执行着色器的主要部分内执行,并应用于绘制调用内的可执行着色器的主要部分的后续调用。例如,参照图2,前导着色器224和/或主着色器226可以在GPU 212的着色器核心216上执行,以执行GPR解除分配的方法。在进一步的配置中,GPR解除分配的方法可以由GPU内的命令处理器执行。例如,参照图2,命令引擎214可以在GPU 212上执行来自命令流的命令以执行GPR解除分配方法。
在504处,所定义的常量可以被存储在可执行着色器内可访问的本地常量缓冲区中。例如,参照图2,常量206可以被存储在着色器核心216可访问的常量存储器220中。在进一步的方面中,常量206可以存储在GPU存储器222中。
在506处,可以确定可执行着色器内的分支的数量。例如,参照图2,可以由GPU 212基于可以用于执行前导着色器224和/或主着色器226的常量206的不同值来确定分支的数量。在编译可执行着色器时常量可能未定义。因此,可由可执行着色器使用的常量206可以采用着色器编译器208在编译时间未确定,但可由可执行着色器在运行时间确定的值。
在508处,可以基于所确定的分支数量来分配GPR。例如,参照图2,可以将GPR 218分配给着色器核心216以用于执行前导着色器224和/或主着色器226的分支。当要执行GPR的解除分配时,能够从已分配的GPR中解除分配多个GPR。
在510处,可以基于为可执行着色器定义的常量确定可执行着色器内的至少一个未使用的分支。例如,参照图2,由前导着色器224或主着色器226获取的常量206可以用于确定主着色器226中的至少一个未使用的分支。
在512处,可以基于至少一个未使用的分支来确定能够从已分配的GPR中解除分配的GPR的数量。例如,参照图4,指令400指示例如可以基于指示未使用分支的本地常量0,从20个已分配的GPR中解除分配16个GPR。基于至少一个未利用的分支来确定能够被解除分配的GPU的数量可以进一步包括确定在不存在至少一个未使用的分支的情况下执行可执行着色器所需的GPR的总数;以及基于分配的GPR数量超过确定的GPR总数,确定能够被解除分配的GPR数量。例如,参照图4,指令400指示在不存在复杂分支的情况下执行可执行着色器可能需要4个GPR。这样,指令400可以确定20个全部分配的GPR中的16个GPR超过了4个所需的GPR并且能够被解除分配。
在514处,可以为绘制调用内的后续线程基于确定的GPR数量在可执行着色器的执行期间从已分配的GPR中解除分配该数量的GPR。例如,参照图4,指令400指示对于绘制调用内的后续线程,可以在可执行着色器的执行期间从20个已分配的GPR中解除分配16个GPR。在各方面中,该数量的GPR可以在可执行着色器的执行之前被解除分配。例如,参照图2,GPR218可以在主着色器226执行之前由前导着色器224解除分配。
图6是图示了示例装置602中不同部件/组件之间的数据流的概念数据流图600。装置602可以是GPU、命令处理器、具有可执行着色器的装置、无线通信设备或其他类似装置。
装置602包括确定组件604,其可以在编译可执行着色器之后确定对于可执行着色器的分支未定义的常量。基于未定义的常量,被包括在装置602中的获取器组件606执行系统调用以从CPU 650获取定义的常量。例如,如结合502所描述的,获取器组件606可以经由前导着色器获取所定义的常量。装置602包括存储组件608,其从CPU 650接收常量并将常量存储在本地常量缓冲区中。例如,如结合504所描述的,存储组件608可以将定义的常量存储在可执行着色器内可访问的本地常量缓冲区中。
确定组件604可以基于从本地常量缓冲区检索的常量来确定可执行着色器内的分支的总数。例如,如结合506所描述的,确定组件604可以确定可执行着色器内的分支的数量。装置602还包括分配组件610,其可以将GPR分配给可执行着色器。例如,如结合508所描述的,分配组件610可以基于所确定的分支数量来分配GPR。
在接收到分配的GPR之后,确定组件604可以基于确定的未使用的分支确定可执行着色器的未使用分支以及要解除分配的已分配的GPR的数量。例如,如结合510所描述的,确定组件604可以基于为可执行着色器定义的常量来确定可执行着色器内的至少一个未使用的分支。如结合512所描述的,确定组件604可以进一步基于至少一个未使用的分支确定能够从已分配的GPR中解除分配的GPR的数量。
装置602包括解除分配组件612,其从可执行着色器解除分配GPR以用于绘制调用内的后续线程。例如,如结合514所描述的,解除分配组件612可以为绘制调用内的后续线程,基于所确定的GPR的数量在可执行着色器的执行期间从分配的GPR中解除分配该数量的GPR。
装置602可以包括执行上述图5的流程图中的算法的每个框的附加组件。这样,上述图5的流程图中的每个框可以由组件执行,并且装置602可以包括这些组件中的一个或多个。组件可以是一个或多个硬件组件,具体配置为执行所陈述的处理/算法,处理/算法由被配置为执行处理/算法的处理器实现(例如,由处理器执行的逻辑和/或代码),存储在计算机可读介质内用于由处理器实现、或其某种组合。
应当理解,所公开的处理/流程图中的框的特定顺序或层次结构是示例方法的说明。基于设计偏好,可以理解处理/流程图中框的特定顺序或层次结构可以被重新排列。此外,可以组合或省略一些框。所附方法权利要求以样本顺序呈现各种框的元素,但并不意味着限于所呈现的具体顺序或层次结构。
提供了前面的描述以使本领域任何技术人员能够实践本文描述的各个方面。对这些方面的各种修改对于本领域技术人员来说将是显而易见的,并且本文定义的一般原理可以应用于其他方面。因此,权利要求不旨在限于本文中所示的各方面,而是要符合与权利要求的语言一致的全部范围,其中除非特别说明,否则以单数形式提及的元素不旨在表示“一个且仅一个”,而是“一个或多个”。“示例性”一词在本文用于表示“作为示例、实例或说明”。本文中描述为“示例性”的任何方面不一定被解释为优于或优选于其他方面。
除非另有明确说明,否则术语“一些”是指一个或多个,并且在上下文没有另外指示的情况下,术语“或”可以被解释为“和/或”。诸如“A、B或C中的至少一个”、“A、B或C中的一个或多个”、“A、B和C中的至少一个”、“A、B和C中的一个或多个”以及“A、B、C或其任何组合”包括A、B和/或C的任何组合,并且可以包括多个A、多个B或多个C。具体地,诸如“A、B或C中的至少一个”、“A、B或C中的一个或多个”、“A、B和C中的至少一个”、“A、B和C中的一个或多个”、以及“A、B、C或其任何组合”的组合可以是仅A、仅B、仅C、A和B、A和C、B和C,或A和B和C,其中任何这样的组合可以包含A、B或C的一个或多个成员。贯穿本公开所描述的各个方面的元素的本领域普通技术人员已知的或以后将知道的所有结构和功能等同物通过引用明确地并入本文,并且旨在被权利要求所涵盖。此外,本文所公开的任何内容均不旨在献给公众,无论这样的公开内容是否在权利要求中明确记载。“模块”、“机制”、“元素”、“设备”等词不能代替“部件”一词。因此,任何权利要求元素均不得解释为部件加功能,除非该元素是使用短语“用于……的部件”明确引用的。
在一个或多个示例中,本文描述的功能可以在硬件、软件、固件或其任何组合中实现。例如,尽管贯穿本公开使用了术语“处理单元”,但是这样的处理单元可以在硬件、软件、固件或其任何组合中实现。如果本文描述的任何功能、处理单元、技术或其他模块在软件中实现,则本文描述的功能、处理单元、技术或其他模块可以作为一个或多个指令或代码在计算机可读介质上被存储或被传输。
计算机可读介质可以包括计算机数据存储介质或通信介质,该通信介质包括有助于将计算机程序从一个地方转移到另一个地方的任何介质。这样,计算机可读介质一般可以对应于:(1)非暂时性的有形的计算机可读存储介质;(2)诸如信号或载波的通信介质。数据存储介质可以是可由一台或多台计算机或一个或多个处理器访问以检索指令、代码和/或数据结构以用于实施本公开中描述的技术的任何可用介质。作为示例而非限制,这样的计算机可读介质可以包括RAM、ROM、EEPROM、致密盘只读存储器(CD-ROM)或其他光盘存储、磁盘存储或其他磁存储设备。如本文使用的磁盘和光盘包括致密盘(CD)、激光盘、光盘、数字多功能盘(DVD)、软盘和蓝光盘,其中磁盘通常磁性地再现数据,而光盘通常用激光光学地再现数据。上述的组合也应被包括在计算机可读介质的范围内。计算机程序产品可以包括计算机可读介质。
本公开的技术可在广泛多样的设备或装置中实施,这些设备或装置包括无线手持设备、集成电路(IC)或IC集(例如,芯片集)。在本公开中描述了各种组件、模块或单元以强调被配置为执行所公开的技术的设备的各功能方面,但不一定需要由不同的硬件单元来实现。相反,如上所述,各种单元可以结合在任何硬件单元中或由包括如上所述的一个或多个处理器的交互操作硬件单元的集合连同合适的软件和/或固件来提供。因此,如本文所用的术语“处理器”可以指任何前述结构或适用于实施本文描述的技术的任何其他结构。此外,这些技术可以在一个或多个电路或逻辑元素中完全实施。
已经描述了各种示例。这些和其他示例在以下权利要求的范围内。

Claims (20)

1.一种通用寄存器(GPR)解除分配的方法,包括:
基于为可执行着色器定义的常量确定所述可执行着色器内的至少一个未使用的分支;
基于所述至少一个未使用的分支确定能够从已分配的GPR中解除分配的GPR的数量;以及
对于绘制调用内的后续线程,基于所确定的GPR的数量在所述可执行着色器的执行期间从所述已分配的GPR中解除分配所述数量的GPR。
2.根据权利要求1所述的方法,其中,基于所述至少一个未使用的分支确定能够被解除分配的GPR的数量包括:
确定在缺少所述至少一个未使用的分支的情况下执行所述可执行着色器所需要的GPR总数量;以及
基于所分配的GPR的数量超出所确定的GPR总数量,确定能够被解除分配的GPR的所述数量。
3.根据权利要求1所述的方法,其中,所述数量的GPR在所述可执行着色器的执行之前被解除分配。
4.根据权利要求1所述的方法,其中,所述方法当由图形处理单元(GPU)执行时由所述可执行着色器内的前导着色器在所述可执行着色器的主部分之前执行。
5.根据权利要求4所述的方法,还包括:
由所述前导着色器获取所定义的常量;以及
将所定义的常量存储在所述可执行着色器内可访问的本地常量缓冲区中。
6.根据权利要求1所述的方法,其中,所述方法当由图形处理单元(GPU)执行时在所述可执行着色器的主部分内被执行,并且应用于所述绘制调用内的所述可执行着色器的所述主部分的后续调用。
7.根据权利要求1所述的方法,其中,所述方法由图形处理单元(GPU)内的命令处理器执行。
8.根据权利要求1所述的方法,还包括:
确定所述可执行着色器内的分支数量;以及
基于所确定的分支数量分配GPR,其中从所分配的GPR中解除分配所述数量的GPR。
9.根据权利要求1所述的方法,其中,所述常量在所述可执行着色器编译时未定义。
10.一种用于通用寄存器(GPR)解除分配的装置,包括:
存储器;以及
至少一个处理器,耦接至所述存储器并且被配置为:
基于为可执行着色器定义的常量确定所述可执行着色器内的至少一个未使用的分支;
基于所述至少一个未使用的分支确定能够从已分配的GPR中解除分配的GPR的数量;以及
对于绘制调用内的后续线程,基于所确定的GPR的数量在所述可执行着色器的执行期间从所述已分配的GPR中解除分配所述数量的GPR。
11.根据权利要求10所述的装置,其中,被配置为基于所述至少一个未使用的分支确定能够被解除分配的GPR的数量的所述至少一个处理器还被配置为:
确定在缺少所述至少一个未使用的分支的情况下执行所述可执行着色器所需要的GPR总数量;以及
基于所分配的GPR的数量超出所确定的GPR总数量,确定能够被解除分配的GPR的所述数量。
12.根据权利要求10所述的装置,其中,所述数量的GPR在所述可执行着色器的执行之前被解除分配。
13.根据权利要求10所述的装置,其中,所述至少一个处理器的动作当由图形处理单元(GPU)执行时由所述可执行着色器内的前导着色器在所述可执行着色器的主部分之前执行。
14.根据权利要求13所述的装置,其中,所述至少一个处理器还被配置为:
由所述前导着色器获取所定义的常量;以及
将所定义的常量存储在所述可执行着色器内可访问的本地常量缓冲区中。
15.根据权利要求10所述的装置,其中,所述至少一个处理器的动作当由图形处理单元(GPU)执行时在所述可执行着色器的主部分内执行,并且应用于所述绘制调用内的所述可执行着色器的所述主部分的后续调用。
16.根据权利要求10所述的装置,其中,所述至少一个处理器的动作由图形处理单元(GPU)内的命令处理器执行。
17.根据权利要求10所述的装置,其中,所述至少一个处理器还被配置为:
确定所述可执行着色器内的分支数量;以及
基于所确定的分支数量分配GPR,其中从所分配的GPR中解除分配所述数量的GPR。
18.根据权利要求10所述的装置,其中,所述常量在所述可执行着色器编译时未定义。
19.根据权利要求10所述的装置,其中,所述装置是无线通信设备。
20.一种存储计算机可执行代码的计算机可读介质,当所述代码由至少一个处理器执行时,使所述至少一个处理器:
基于为可执行着色器定义的常量确定所述可执行着色器内的至少一个未使用的分支;
基于所述至少一个未使用的分支确定能够从已分配的GPR中解除分配的GPR的数量;以及
对于绘制调用内的后续线程,基于所确定的GPR的数量在所述可执行着色器的执行期间从所述已分配的GPR中解除分配所述数量的GPR。
CN202180034206.4A 2020-05-18 2021-04-14 Gpu中基于gpr释放机制的gpr优化 Pending CN115516421A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/877,367 US11475533B2 (en) 2020-05-18 2020-05-18 GPR optimization in a GPU based on a GPR release mechanism
US16/877,367 2020-05-18
PCT/US2021/027337 WO2021236263A1 (en) 2020-05-18 2021-04-14 Gpr optimization in a gpu based on a gpr release mechanism

Publications (1)

Publication Number Publication Date
CN115516421A true CN115516421A (zh) 2022-12-23

Family

ID=75787307

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202180034206.4A Pending CN115516421A (zh) 2020-05-18 2021-04-14 Gpu中基于gpr释放机制的gpr优化

Country Status (7)

Country Link
US (2) US11475533B2 (zh)
EP (1) EP4154101A1 (zh)
KR (1) KR20230007377A (zh)
CN (1) CN115516421A (zh)
BR (1) BR112022022687A2 (zh)
TW (1) TW202145140A (zh)
WO (1) WO2021236263A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11475533B2 (en) 2020-05-18 2022-10-18 Qualcomm Incorporated GPR optimization in a GPU based on a GPR release mechanism
US20220092725A1 (en) * 2020-09-24 2022-03-24 Advanced Micro Devices, Inc. Register compaction with early release

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8581912B2 (en) 2008-06-27 2013-11-12 Microsoft Corporation Dynamic subroutine linkage optimizing shader performance
US8941676B2 (en) * 2012-10-26 2015-01-27 Nvidia Corporation On-chip anti-alias resolve in a cache tiling architecture
US20170371654A1 (en) 2016-06-23 2017-12-28 Advanced Micro Devices, Inc. System and method for using virtual vector register files
US10430912B2 (en) * 2017-02-14 2019-10-01 Qualcomm Incorporated Dynamic shader instruction nullification for graphics processing
US10650566B2 (en) 2017-02-15 2020-05-12 Microsoft Technology Licensing, Llc Multiple shader processes in graphics processing
US11475533B2 (en) 2020-05-18 2022-10-18 Qualcomm Incorporated GPR optimization in a GPU based on a GPR release mechanism

Also Published As

Publication number Publication date
BR112022022687A2 (pt) 2022-12-13
TW202145140A (zh) 2021-12-01
US11763419B2 (en) 2023-09-19
EP4154101A1 (en) 2023-03-29
US11475533B2 (en) 2022-10-18
US20230113415A1 (en) 2023-04-13
WO2021236263A1 (en) 2021-11-25
KR20230007377A (ko) 2023-01-12
US20210358076A1 (en) 2021-11-18

Similar Documents

Publication Publication Date Title
US9766938B2 (en) Application interface on multiple processors
US9436526B2 (en) Parallel runtime execution on multiple processors
KR101707289B1 (ko) 그래픽 병렬 처리 유닛에 대한 버퍼 관리
US8108633B2 (en) Shared stream memory on multiple processors
US11763419B2 (en) GPR optimization in a GPU based on a GPR release mechanism
US20210240524A1 (en) Methods and apparatus to facilitate tile-based gpu machine learning acceleration
CN114787785A (zh) 促进图形处理单元中的推测性页面故障处理的方法和装置
US20230290034A1 (en) Fast incremental shared constants
US11204765B1 (en) Deferred GPR allocation for texture/load instruction block
US11954758B2 (en) Dynamic wave pairing
US11836506B2 (en) Parallel runtime execution on multiple processors
US11790478B2 (en) Methods and apparatus for mapping source location for input data to a graphics processing unit
US20220004438A1 (en) Gpu program multi-versioning for hardware resource utilization
US20230377240A1 (en) Run-time mechanism for optimal shader
US20240046543A1 (en) Runtime mechanism to optimize shader execution flow
US20230019763A1 (en) Methods and apparatus to facilitate a dedicated bindless state processor

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination