CN109426519A - 线内数据检查以进行工作量简化 - Google Patents
线内数据检查以进行工作量简化 Download PDFInfo
- Publication number
- CN109426519A CN109426519A CN201810980508.0A CN201810980508A CN109426519A CN 109426519 A CN109426519 A CN 109426519A CN 201810980508 A CN201810980508 A CN 201810980508A CN 109426519 A CN109426519 A CN 109426519A
- Authority
- CN
- China
- Prior art keywords
- data
- load
- threshold value
- predicate
- instruction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000007689 inspection Methods 0.000 title claims abstract description 52
- 238000000034 method Methods 0.000 claims abstract description 33
- 238000012545 processing Methods 0.000 claims description 56
- 238000009826 distribution Methods 0.000 claims description 14
- 238000003860 storage Methods 0.000 description 21
- 239000000872 buffer Substances 0.000 description 13
- 238000013528 artificial neural network Methods 0.000 description 12
- 238000013316 zoning Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 11
- 238000001514 detection method Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 238000013500 data storage Methods 0.000 description 7
- 238000004040 coloring Methods 0.000 description 6
- 239000004065 semiconductor Substances 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 5
- 238000007726 management method Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 239000012634 fragment Substances 0.000 description 4
- 230000000977 initiatory effect Effects 0.000 description 4
- 241001269238 Data Species 0.000 description 3
- 230000004913 activation Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000001537 neural effect Effects 0.000 description 3
- 238000005192 partition Methods 0.000 description 3
- 238000009877 rendering Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000009966 trimming Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000005520 cutting process Methods 0.000 description 2
- 230000005611 electricity Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 238000010025 steaming Methods 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000005314 correlation function Methods 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000000151 deposition Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 230000010076 replication Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/30003—Arrangements for executing specific machine instructions
- G06F9/3004—Arrangements for executing specific machine instructions to perform operations on memory
- G06F9/30043—LOAD or STORE instructions; Clear instruction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/30003—Arrangements for executing specific machine instructions
- G06F9/30007—Arrangements for executing specific machine instructions to perform operations on data operands
- G06F9/3001—Arithmetic instructions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/30003—Arrangements for executing specific machine instructions
- G06F9/30007—Arrangements for executing specific machine instructions to perform operations on data operands
- G06F9/30021—Compare instructions, e.g. Greater-Than, Equal-To, MINMAX
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/30094—Condition code generation, e.g. Carry, Zero flag
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/30145—Instruction analysis, e.g. decoding, instruction word fields
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/30145—Instruction analysis, e.g. decoding, instruction word fields
- G06F9/3016—Decoding the operand specifier, e.g. specifier format
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/30181—Instruction operation extension or modification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/30181—Instruction operation extension or modification
- G06F9/30189—Instruction operation extension or modification according to execution mode, e.g. mode flag
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/30098—Register arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Advance Control (AREA)
- Executing Machine-Instructions (AREA)
Abstract
公开了一种用于线内数据检查的方法、计算机可读介质和系统。该方法包括以下步骤:由加载/存储单元接收加载指令,并通过耦合到加载/存储单元的检查电路获得由加载指令指定的数据。附加步骤包括确定数据等于零并将数据和谓词信号发送到加载/存储单元,其中谓词信号指示数据等于零。可选附加步骤包括基于数据和阈值之间的比较来计算谓词值,以及将数据和谓词值发送到加载/存储单元,其中当数据小于阈值时断言谓词值并且当数据不小于阈值时否定谓词值。
Description
技术领域
本发明涉及数据检查,并且更具体地,涉及程序指令执行期间的数据检查。
背景技术
对于深度学习应用程序,卷积核通常对稀疏的数据进行操作,这意味着数据中的许多值等于零。稀疏性可以在激活中或在权重中。激活中的稀疏性源自神经网络的前一层中的修正线性单元(ReLU)激活函数。当修剪神经网络以提高精确度或减小模型尺寸时,出现权重中的稀疏性。对具有零值的元素执行算术运算在处理时间和性能方面是浪费的,因为算术运算对输出没有贡献。需要解决与现有技术相关的这些问题和/或其他问题。
发明内容
公开了一种用于线内(inline)数据检查的方法、计算机可读介质和系统。该方法包括以下步骤:由加载/存储单元接收加载指令,并由耦合到加载/存储单元的检查电路获得由加载指令指定的数据。附加步骤包括确定数据等于零并将数据和谓词(predicate)信号发送到加载/存储单元,其中谓词信号指示数据等于零。可选的附加步骤包括基于数据和阈值之间的比较来计算谓词值,以及将数据和谓词值发送到加载/存储单元,其中当数据小于阈值时断言谓词值并且当数据不小于阈值时否定谓词值。
附图说明
图1A示出了根据一个实施例的用于线内数据检查的方法的流程图;
图1B示出了根据一个实施例的线内数据检查逻辑的框图;
图1C示出了根据一个实施例的用于线内数据检查的方法的另一流程图;
图2A示出了根据一个实施例的图1B中所示的检查电路的框图;
图2B示出了根据一个实施例的发起线内数据检查的指令的字段;
图2C示出了根据一个实施例的用于数据瓦片(a tile of data)的算术运算的概念图;
图2D示出了根据一个实施例的包括发起线内数据检查的指令的伪代码;
图3示出了根据一个实施例的并行处理单元;
图4A示出了根据一个实施例的图3的并行处理单元中的通用处理集群;
图4B示出了根据一个实施例的图3的并行处理单元的存储器分区单元;
图5示出了根据一个实施例的图4A的流式多处理器;
图6示出了示例性系统,其中可以实现各种先前实施例的各种体系架构和/或功能。
具体实施方式
避免对具有零值的操作数(即,元素)执行算术运算的一种解决方案是检查已从存储器加载并将用作算术运算的操作数的数据。然而,这种方法需要额外的指令来比较值并减少一些操作数上的比较结果。可用于存储指令的指令发布时隙(issue slots)的数量通常也限制了内核执行的性能,尤其是数学密集型内核。因此,如果执行算术运算,则额外指令可能损害内核的性能,并且如果不执行运算,则可实现的性能改进可能受到取指延迟的限制。
当输入数据等于零时,线内数据检查技术消除了算术运算(诸如乘法)的执行。因此,与现有技术相反,零检测指令不包括在程序中。在一个实施例中,当输入数据小于阈值时,线内数据检查技术消除了运算的执行。因此,与现有技术相比,比较指令不包括在程序中。如前所述,由于处理单元内的指令的存储是有限的,所以减少指令序列的指令占用(instruction footprint)是重要的。不需要额外的指令来执行零检测或输入数据的比较。
图1A示出了根据一个实施例的用于线内数据检查的方法的流程图100。尽管在处理单元的上下文中描述了方法100,但是方法100也可以由程序、定制电路或定制电路和程序的组合来执行。例如,方法100可以由GPU(图形处理单元)、CPU(中央处理单元)、深度学习加速器(DLA)或能够执行程序指令的任何处理器执行。此外,本领域普通技术人员将理解,执行方法100的任何系统都在本发明的实施例的范围和精神内。
在步骤110,加载/存储单元接收加载指令。线内数据检查可以通过各种指令实现,包括存储器加载(将数据从存储器移动到高速缓存或寄存器文件)。指令集中的每个指令不必都支持线内数据检查。在一个实施例中,通过指令启用和禁用每个指令的线内数据检查。例如,指令中的字段可以包括指示是否启用线内数据检查的至少一位。在一个实施例中,该字段可以指示在执行时是否启用、禁用或确定线内数据检查。
在步骤120,耦合到加载/存储单元的检查电路获得由加载指令指定的数据。在一个实施例中,高速缓存或存储器接口内的存储和/或传输电路可以被配置为检查数据。在步骤130,确定数据等于零。在一个实施例中,检查电路包括零检测电路,当没有任何位被断言时,该零检测电路确定数据等于零。在一个实施例中,检查电路将数据与零进行比较以确定数据是否等于零。
在步骤140,将数据和谓词信号被发送到加载/存储单元,其中谓词信号指示数据等于零。在一个实施例中,数据被存储在目的地寄存器中,并且根据谓词信号设置或清除与目的地寄存器相关联的谓词值。在另一实施例中,加载/存储单元存储谓词值并通过不将数据存储在目的地寄存器中而丢弃数据。数据可以包括用于后续指令的一个或更多个操作数。
实现数学内核的指令序列可以包括用于计算谓词值的加载指令,并且可以将谓词值作为操作数提供给后续分支指令,以控制分支指令的执行。当执行分支指令时,谓词值可以引起采用(take)分支,从而避免执行数学内核指令。换句话说,谓词信号可以用于在执行算术运算的程序指令集上分支,以便不执行该程序指令集。在一个实施例中,当至少一个操作数(例如,乘数或被乘数)等于零时,不执行乘法运算。
现在将根据用户的期望,阐述关于可以实现或不可以实现前述框架的各种可选体系架构和特征的更多说明性信息。应该特别注意的是,以下信息是出于说明性目的提出的,并且不应该被解释为以任何方式进行限制。以下特征中的任何一个可以选择性地合并或不排除所描述的其他特征。
线内数据检查技术的示例性应用程序是用于输入数据修剪,特别是对于具有稀疏数据的深度学习应用程序。用于输入数据修剪的传统方案需要包括用于检测输入数据具有等于零或小于阈值的值的指令。与传统方案相比,当采用线内数据检查技术时,当响应于加载指令的执行接收到输入数据时并且在输入数据被存储在寄存器中以完成加载指令的执行之前,自动执行对零和小于阈值的检测。重要的是,执行数据检查的程序中不包括附加指令,特别是显式零检测和比较指令。
图1B示出了根据一个实施例的包括线内数据检查逻辑的并行处理单元135的框图。并行处理单元135包括指令高速缓存105、加载/存储单元154、寄存器文件115和检查电路170。指令高速缓存105被配置为提取和缓冲程序指令,从而减少从存储器读取指令所引起的延迟。在一个实施例中,加载指令从指令高速缓存105输出到加载/存储单元154。加载指令由加载/存储单元154解码,并且信息被提供给数据存储器190以读取数据。在一个实施例中,该信息包括读地址、数据宽度和启用掩码中的一个或更多个。数据资源190可以是高速缓存、寄存器文件、可寻址存储器、随机存取存储器(RAM)、缓冲区等,其接收至少一个操作数的地址并输出至少一个操作数的数据。
检查电路170耦合在加载/存储单元154和数据存储器190之间。在一个实施例中,检查电路170包括在数据存储器190内。检查电路170从数据存储器190接收至少一个操作数的数据并计算谓词值。数据可以以浮点格式、整数格式、定点格式等表示。数据可以包括单个操作数值或多个操作数值。例如,数据可以包括表示4个单独的32位值的128位,并且在4个单独的32位值之间共享针对数据计算的谓词。
在一个实施例中,当数据等于零时断言谓词值,并且当谓词值不等于零时否定(negate)谓词值。在另一实施例中,当数据小于阈值时断言谓词值,当数据不小于阈值时(即,当数据大于或等于阈值时)否定谓词值。在又一个实施例中,当数据小于或等于阈值时断言谓词值,当数据大于阈值时否定谓词值。在一个实施例中,数据以浮点格式编码,并且检查电路170比较数据的一个或更多个指数以确定数据是否小于阈值。在一个实施例中,检查电路170计算与相对于阈值的数据分布相关联的统计数据并存储统计数据。然后可以使用统计数据来计算和/或更新阈值。
检查电路170经由谓词信号将谓词值返回到加载/存储单元154。检查电路170还返回数据。功能单元250接收至少一个操作数的数据,并且在一个实施例中,将数据存储在寄存器文件115中由加载指令指定的位置(例如,目的地地址)处。可选地,功能单元250接收至少一个操作数的数据,并丢弃数据而不是将数据存储在寄存器文件115中。加载/存储单元154可以将谓词值存储在加载/存储单元154内或寄存器文件115中。
可以使用两种不同的机制来启用线内数据检查。第一种机制使得能够基于每个指令中的操作码或启用字段对各个程序指令进行线内数据检查。第二种机制通过设置和清除一个或更多个程序指令序列的线内数据检查状态来启用和禁用线内数据检查。在一个实施例中,仅当启用线内数据检查时,检查电路170才输出谓词值。
图1C示出了根据一个实施例的用于线内数据检查的方法150的另一流程图。尽管在处理单元的上下文中描述了方法150,但是方法150还可以由程序、定制电路或定制电路和程序的组合来执行。例如,方法150可以由GPU、CPU、DLA或能够执行程序指令的任何处理器执行。此外,本领域普通技术人员应当理解,执行方法150的任何系统都在本发明的实施例的范围和精神内。
如先前结合图1A所描述的那样完成操作110和120。在步骤135,基于数据和阈值之间的比较来计算谓词值。阈值可以是固定值或编程值中的一个。固定值可以通过模拟确定,然后硬连线(hard-wired)到检查电路170中。在一个实施例中,可以向可编程阈值提供每个加载指令。在另一个实施例中,可编程阈值可以存储在配置寄存器中,并且可以由专用程序指令动态地编程。例如,在神经网络的情况下,可以在神经网络的训练阶段期间确定阈值。在神经网络的推断阶段期间,也可以由程序本身计算和/或更新阈值。在一个实施例中,计算阈值以使数据的预定部分小于阈值。例如,可以计算阈值以使10%的数据小于阈值,从而有效地移除10%的数据。在另一实施例中,计算阈值以使数据的预定部分大于阈值。在又一个实施例中,计算阈值以使数据的预定部分以阈值为中心。
在步骤145,将数据和谓词值发送到加载/存储单元154。在一个实施例中,检查电路170包括比较电路,当数据小于阈值时比较电路断言谓词值,并且当数据不小于阈值时比较电路否定谓词值。在一个实施例中,数据存储在寄存器文件115中的目的地寄存器中,并且根据谓词信号设置或清除与目的地寄存器相关联的谓词值。在另一实施例中,加载/存储单元存储谓词值并通过不将数据存储在目的地寄存器中来丢弃数据。
谓词值可以用于控制是否执行程序中的一个或更多个后续指令。因此,输入数据修剪可以由检查电路170自动执行,而不需要包含附加指令,特别是不需要程序中的显式指令来执行零检测或与阈值比较。
图2A示出了根据一个实施例的图1B中所示的检查电路170的框图。检查电路170包括零检测单元210、阈值比较单元和多工器220。零检测单元210接收数据并确定数据是否等于零。如果数据等于零,则断言零谓词,如果数据不等于零,则否定零谓词。
阈值比较单元215将数据与阈值进行比较,并且如果数据小于阈值则断言阈值谓词,并且如果数据不小于阈值则否定阈值谓词。可以从加载/存储单元154接收阈值以及数据。阈值可以是固定的,与加载指令一起被包括,或者可以向阈值提供不同的指令并存储在寄存器中。
在一个实施例中,数据以浮点格式编码,并且阈值比较单元215比较数据的一个或更多个指数以确定数据是否小于阈值并且不考虑一个或更多个尾数。例如,当指数在预定数量的最高有效位位置中具有零时,阈值比较单元215可以确定数据小于阈值。
基于模式,多工器220选择零谓词或阈值谓词用于输出为谓词。在一个实施例中,从加载/存储单元154接收模式以及数据。可以从加载/存储单元154接收模式以及数据。模式可以是固定的,与加载指令一起被包括,或者可以向模式提供不同的指令并存储在寄存器中。
在一个实施例中,检查电路170内的统计单元218计算与相对于阈值的数据分布相关联的统计数据。统计数据可以指示断言阈值谓词所针对的数据的一部分,并且统计数据可以存储在统计单元218中。在一个实施例中,统计数据由指令重置。可以针对神经网络的一层收集统计数据,然后可以基于所收集的统计数据计算后面层的阈值。在一个实施例中,可以针对层的一部分收集统计数据,并且所收集的统计数据可以用于计算该层的剩余部分的阈值。在一个实施例中,基于统计数据,统计单元218可以确定将使数据的预定部分小于阈值的阈值。在另一实施例中,基于统计数据,统计单元218可以确定将使数据的预定部分大于阈值的阈值。在又一个实施例中,基于统计数据,统计单元218可以确定将使数据的预定部分以阈值为中心的阈值。
图2B示出了根据一个实施例的发起线内数据检查的指令230的字段。该指令包括操作码字段235和至少目的地寄存器(dst reg)字段250,以及读地址字段265。读地址字段265指定存储数据的数据存储器中的位置。操作码字段235指定由指令230执行的操作。在一个实施例中,操作是加载操作。目的地寄存器字段250对寄存器文件115中的位置进行编码,其中当执行指令230时所读取的数据将被存储在该位置。在一个实施例中,指令230还包括谓词字段245,使得可以在执行指令230时选择性地启用或禁用线内数据检查。
在一个实施例中,宽度字段240指定数据的宽度(例如,32位、64位、128位等)。在一个实施例中,模式字段260指定线内数据检查是否检测到等于零的数据或者小于阈值的数据。在一个实施例中,当使用阈值启用线内数据检查时,阈值字段255指定阈值。在一个实施例中,启用字段270包括数据的启用掩码,其中掩码中的每个位指示是否可以忽略数据中的一个或更多个字节或者操作数来计算谓词。
在一个实施例中,为“标准(normal)”指令和同一指令的“线内数据检查”版本指定不同的操作码。提供两个不同版本的指令允许编译器或程序员简单地用线内数据检查指令替换各个标准指令以实现线内数据检查。
图2C示出了根据一个实施例的用于数据瓦片的算术运算的概念图。可以执行两个向量A和B(每个包括8个元素)的乘法运算,以计算8×8瓦片的乘积。寄存器P0和P2各存储A的4个元素,寄存器P1和P3各存储B的4个元素。如果断言谓词值,表示存储在P0中的数据等于零或小于阈值,然后可以避免8×8瓦片内的两个4×4部分的乘法运算。类似地,如果断言一个或更多个谓词值,表示存储在P2、P1和/或P3中的数据等于零或小于阈值,然后可以避免8×8瓦片内的两个4×4部分的乘法运算。在一个实施例中,可以针对神经网络层的一个或更多个瓦片收集统计数据,并且可以将神经网络层中的剩余瓦片夹持(clamp)到所计算的阈值。
图2D示出了根据一个实施例的包括发起线内数据检查的指令的伪代码。FLOP3.AND指令初始化存储在寄存器文件115中的寄存器P4和P5中的谓词值。寄存器P4存储具有存储在寄存器P0和P2中的元素的向量A的谓词值。寄存器P4中的值被计算为寄存器P0和P2的谓词值的与运算(AND)。寄存器P5存储具有存储在寄存器P1和P3中的元素的向量B的谓词值。寄存器P5中的值被计算为寄存器P1和P3的谓词值的AND。
LDS.128指令是128位数据的加载指令。当由加载/存储单元154执行时,四个加载指令从数据存储器190读取数据并将数据加载到寄存器文件115中的寄存器P0、P1、P2和P3中。当由检查电路170接收到四个加载指令时,为将要存储在寄存器P0、P1、P2和P3中的数据计算相应的谓词值。FLOP3.OR指令通过对向量A的谓词值(存储在寄存器P4中)和向量B的谓词值(存储在寄存器P5中)进行或(OR)运算来计算瓦片谓词值。瓦片谓词值存储在寄存器P4中。
基于存储在寄存器P4中的瓦片谓词值有条件地执行分支(BRANCH)指令。当断言瓦片谓词值时,采用到标签NextK的分支并且不执行指令290。因此,在向量A和B中的至少一个具有被断言的谓词值的情况下,采用分支并且不执行指令290。在一个实施例中,指令290包括在分支指令之后的一个或更多个指令,并且使用向量A和/或B作为输入操作数来执行算术运算。执行线内数据检查以计算操作数的谓词值,使得能够有条件执行指令290。避免执行不必要的算术运算的指令的执行提高了处理性能并降低了功耗。重要的是,程序中不包括用于执行线内数据检查的附加指令,并且没有用于执行线内数据检查的附加指令存储在指令高速缓存105中。
并行处理体系架构
图3示出了根据一个实施例的并行处理单元(PPU)300。PPU 300可以被配置为在执行指令时实现线内数据检查。在一个实施例中,PPU 300包括一个或更多个检查电路170。
在一个实施例中,PPU 300是在一个或更多个集成电路器件上实现的多线程处理器。PPU 300是设计用于并行处理许多线程的延迟隐藏体系架构。线程(即,执行线程)是被配置为由PPU 300执行的指令集的实例。在一个实施例中,PPU 300是图形处理单元(GPU),其被配置为实现用于处理三维(3D)图形数据的图形渲染管线,以便生成用于在显示装置(诸如液晶显示(LCD)设备)上显示的二维(2D)图像数据。在其他实施例中,PPU 300可以用于执行通用计算。尽管为了说明的目的本文提供了一个示例性并行处理器,但应特别指出的是,该处理器仅出于说明目的进行阐述,并且可使用任何处理器来补充和/或替代该处理器。
如图3所示,PPU 300包括输入/输出(I/O)单元305、主机接口单元310、前端单元315、调度器单元320、工作分配单元325、集线器330、交叉开关(Xbar)370、一个或更多个通用处理集群(GPC)350以及一个或更多个分区单元380。PPU 300可以经由系统总线302连接到主机处理器或其他外围设备。PPU 300还可以连接到包括多个存储器设备304的本地存储器。在一个实施例中,本地存储器可以包括多个动态随机存取存储器(DRAM)设备。
I/O单元305被配置为通过系统总线302从主机处理器(未示出)发送和接收通信(即命令、数据等)。I/O单元305可以经由系统总线302直接与主机处理器通信或通过一个或更多个中间设备(诸如内存桥)与主机处理器通信。在一个实施例中,I/O单元305实现外围组件互连高速(PCIe)接口,用于通过PCIe总线进行通信。在替代的实施例中,I/O单元305可以实现其他类型的已知接口,用于与外部设备进行通信。
I/O单元305耦合到主机接口单元310,其对经由系统总线302接收到的分组进行解码。在一个实施例中,分组表示被配置为使PPU 300执行各种操作的命令。主机接口单元310按照命令指定将解码的命令发送到PPU 300的各种其他单元。例如,一些命令可以被发送到前端单元315。其他命令可以被发送到集线器330或PPU 300的其他单元,诸如一个或更多个复制引擎、视频编码器、视频解码器、电源管理单元等(未明确示出)。换句话说,主机接口单元310被配置为在PPU 300的各种逻辑单元之间和之中路由通信。
在一个实施例中,由主机处理器执行的程序在缓冲器中对命令流进行编码,该缓冲区向PPU 300提供用于处理的工作量。工作量可以包括要由那些指令处理的许多指令和数据。缓冲器是存储器中可由主机处理器和PPU 300两者访问(即,读/写)的区域。例如,主机接口单元310可被配置为通过由I/O单元305在系统总线302上发送的存储器请求来访问连接到系统总线302的系统存储器中的缓冲器。在一个实施例中,主机处理器将命令流写入缓冲器,然后向PPU 300发送指向命令流开始的指针。主机接口单元310向前端单元315提供指向一个或更多个命令流的指针。前端单元315管理一个或更多个流,从流读取命令并将命令转发到PPU 300的各个单元。
前端单元315耦合到调度器单元320,其配置各种GPC 350以处理由一个或更多个流定义的任务。调度器单元320被配置为跟踪与由调度器单元320管理的各种任务相关的状态信息。状态可以指示任务被指派给哪个GPC 350,该任务是活动的还是不活动的,与该任务相关联的优先级等等。调度器单元320管理一个或更多个GPC 350上的多个任务的执行。
调度器单元320耦合到工作分配单元325,其被配置为分派任务以在GPC 350上执行。工作分配单元325可以跟踪从调度器单元320接收到的多个调度任务。在一个实施例中,工作分配单元325为每个GPC 350管理待处理(pending)任务池和活动任务池。待处理任务池可以包括多个时隙(例如,32个时隙),其包含被指派为由特定GPC 350处理的任务。活动任务池可以包括多个时隙(例如,4个时隙),用于正在由GPC 350主动处理的任务。当GPC350完成任务的执行时,该任务从GPC 350的活动任务池中逐出,并且来自待处理任务池的其他任务之一被选择和调度以在GPC 350上执行。如果GPC 350上的活动任务已经空闲,例如在等待数据依赖性被解决时,那么活动任务可以从GPC 350中逐出并返回到待处理任务池,而待处理任务池中的另一个任务被选择并调度以在GPC 350上执行。
工作分配单元325经由XBar 370与一个或更多个GPC 350通信。XBar370是将PPU300的许多单元耦合到PPU 300的其他单元的互连网络。例如,XBar370可以被配置为将工作分配单元325耦合到特定的GPC 350。虽然没有明确示出,但是PPU 300的一个或更多个其他单元被耦合到主机接口单元310。其他单元也可以经由集线器330连接到XBar 370。
任务由调度器单元320管理并由工作分配单元325分派给GPC 350。GPC 350被配置为处理任务并生成结果。结果可以由GPC 350内的其他任务消耗,经由XBar 370路由到不同的GPC 350,或者存储在存储器304中。结果可以经由分区单元380写入存储器304,分区单元380实现用于从存储器304读取数据和向存储器304写入数据的存储器接口。在一个实施例中,PPU 300包括数目为U的分区单元380,其等于耦合到PPU 300的独立且不同的存储器设备304的数目。下面将结合图4B更详细地描述分区单元380。
在一个实施例中,主机处理器执行实现应用程序编程接口(API)的驱动程序内核,其使得能够在主机处理器上执行一个或更多个应用程序以调度用于在PPU 300上执行的操作。应用程序可以生成指令(即API调用),其使得驱动程序内核生成一个或更多个任务以由PPU 300执行。驱动程序内核将任务输出到正在由PPU 300处理的一个或更多个流。每个任务可以包括一个或更多个相关线程组,本文称为线程束(warp)。线程块可以指包括用于执行任务的指令的多个线程组。同一线程组中的线程可以通过共享存储器交换数据。在一个实施例中,线程组包括32个相关线程。
图4A示出了根据一个实施例的图3的PPU 300内的GPC 350。如图4A所示,每个GPC350包括用于处理任务的多个硬件单元。在一个实施例中,每个GPC 350包括管线管理器410、预光栅操作单元(PROP)415、光栅引擎425、工作分配交叉开关(WDX)480、存储器管理单元(MMU)490以及一个或更多个纹理处理集群(TPC)420。应当理解,图4A的GPC 350可以包括代替图4A中所示单元的其他硬件单元或除图4A中所示单元之外的其他硬件单元。
在一个实施例中,GPC 350的操作由管线管理器410控制。管线管理器410管理用于处理分配给GPC 350的任务的一个或更多个TPC 420的配置。在一个实施例中,管线管理器410可以配置一个或更多个TPC 420中的至少一个来实现图形渲染管线的至少一部分。例如,TPC 420可以被配置为在可编程流式多处理器(SM)440上执行顶点着色程序。管线管理器410还可以被配置为将从工作分配单元325接收的分组路由到GPC 350中适当的逻辑单元。例如,一些分组可以被路由到PROP 415和/或光栅引擎425中的固定功能硬件单元,而其他分组可以被路由到TPC 420以供图元引擎435或SM 440处理。
PROP单元415被配置为将由光栅引擎425和TPC 420生成的数据路由到分区单元380中的光栅操作(ROP)单元,其将在下面更详细地描述。PROP单元415还可以被配置为执行颜色混合的优化,组织像素数据,执行地址转换等。
光栅引擎425包括被配置为执行各种光栅操作的多个固定功能硬件单元。在一个实施例中,光栅引擎425包括设置引擎、粗光栅引擎、剔除引擎、裁剪引擎、精细光栅引擎和瓦片聚合引擎。设置引擎接收变换后的顶点并生成与由顶点定义的几何图元关联的平面方程。平面方程被发送到粗光栅引擎以生成图元的覆盖信息(例如,用于瓦片的x、y覆盖掩码)。粗光栅引擎的输出被发送到剔除引擎,其中与未通过z-测试的图元相关联的片段被剔除,并被发送到裁剪引擎,其中位于视锥体之外的片段被裁剪掉。那些经过裁剪和剔除后留下来的片段可以被传递到精细光栅引擎,以基于由设置引擎生成的平面方程生成像素片段的属性。光栅引擎425的输出包括例如要由TPC 420内的片段着色器处理的片段。
包括在GPC 350中的每个TPC 420包括M管道控制器(MPC)430、图元引擎435、一个或更多个SM 440以及一个或更多个纹理单元445。MPC 430控制TPC 420的操作,将从管线管理器410接收到的分组路由到TPC 420中的适当单元。例如,与顶点相关联的分组可以被路由到图元引擎435,图元引擎435被配置为从存储器304提取与顶点相关联的顶点属性。相反,与着色程序相关联的分组可以被传输到SM 440。
在一个实施例中,纹理单元445被配置为从存储器304加载纹理映射(例如,纹理元素(texel)的2D阵列),并对纹理映射进行采样以产生经采样的纹理值,以用于在由SM 440执行的着色程序中使用。纹理单元445实施纹理操作,例如使用mip-map(即,不同细节层次的纹理映射)的滤波操作。纹理单元445还用作SM 440到MMU 490的加载/存储路径。在一个实施例中,每个TPC 420包括两个(2)纹理单元445。
SM 440包括被配置为处理由多个线程表示的任务的可编程流式处理器。每个SM440是多线程的并且被配置为同时执行来自特定线程组的多个线程(例如,32个线程)。在一个实施例中,SM 440实现SIMD(单指令、多数据)体系架构,其中线程组(即,warp)中的每个线程被配置为基于相同的指令集来处理不同的数据集。线程组中的所有线程都执行相同的指令。在另一个实施例中,SM 440实现SIMT(单指令、多线程)体系架构,其中线程组中的每个线程被配置为基于相同的指令集处理不同的数据集,但是其中线程组中的各个线程在执行期间被允许发散。换句话说,当针对该线程组的指令被分派用于执行时,该线程组中的一些线程可以是活动的,从而执行该指令,而该线程组中的其他线程可以是不活动的,从而执行空操作(NOP)而不是执行指令。下面结合图5更详细地描述SM 440。
MMU 490提供GPC 350和分区单元380之间的接口。MMU 490可以提供虚拟地址到物理地址的转换、存储器保护以及存储器请求的仲裁。在一个实施例中,MMU 490提供用于执行从虚拟地址到存储器304中的物理地址的转换的一个或更多个转换后备缓冲器(TLB)。
图4B示出了根据一个实施例的图3的PPU 300的存储器分区单元380。如图4B所示,存储器分区单元380包括光栅操作(ROP)单元450、二级(L2)高速缓存460、存储器接口470和L2交叉开关(XBar)465。存储器接口470耦合到存储器304。存储器接口470可以实现用于高速数据传输的16、32、64、128位数据总线等。在一个实施例中,PPU 300合并了U个存储器接口470,每个分区单元380有一个存储器接口470,其中每个分区单元380连接到对应的存储器设备304。例如,PPU 300可以连接到多达U个存储器设备304,诸如图形双数据速率版本5的同步动态随机存取存储器(GDDR5SDRAM)。在一个实施例中,存储器接口470实现DRAM接口并且U等于8。
在一个实施例中,PPU 300实现多级存储器分层结构。存储器304位于耦合到PPU300的SDRAM的片外。来自存储器304的数据可以被提取并存储在L2高速缓存460中,其位于片上并且在各个GPC 350之间共享。如图所示,每个分区单元380包括与对应的存储器设备304相关联的L2高速缓存460的一部分。然后可以在GPC 350内的各种单元中实现较低级别的高速缓存。例如,每个SM 440可以实现一级(L1)高速缓存。L1高速缓存是专用于特定SM440的专用存储器。来自L2高速缓存460的数据可以被提取并存储在每个L1高速缓存中,以在SM 440的功能单元中进行处理。L2高速缓存460被耦合到存储器接口470和XBar 370。
ROP单元450包括ROP管理器455、颜色ROP(CROP)单元452和Z ROP(ZROP)单元454。CROP单元452执行与像素颜色相关的光栅操作,诸如颜色压缩、像素混合等。ZROP单元454结合光栅引擎425执行深度测试。ZROP单元454从光栅引擎425的剔除引擎接收与像素片段相关联的样本位置的深度。ZROP单元454测试与片段相关联的样本位置相对深度缓冲区中的对应深度的深度。如果片段通过样本位置的深度测试,则ZROP单元454更新深度缓冲区并将深度测试的结果发送给光栅引擎425。ROP管理器455控制ROP单元450的操作。应该理解,分区单元380的数量可以不同于GPC 350的数量,并且因此每个ROP单元450可以耦合到GPC350中的每一个。因此,ROP管理器455跟踪从不同GPC 350接收到的分组并确定由ROP单元450生成的结果被路由到哪个GPC 350。CROP单元452和ZROP单元454经由L2XBar 465耦合到L2高速缓存460。
图5示出了根据一个实施例的图4A的流式多处理器440。如图5所示,SM 440包括指令高速缓存505、一个或更多个调度器单元510、寄存器文件520、一个或更多个处理核心550、一个或更多个特殊功能单元(SFU)552、一个或更多个加载/存储单元(LSU)554、互连网络580、共享存储器/L1高速缓存570。在一个实施例中,图1B中所示的指令高速缓存105、加载/存储单元154和寄存器文件115分别是指令高速缓存505、加载/存储单元(LSU)554和寄存器文件520。
如上所述,工作分配单元325分派用于在PPU 300的GPC 350上执行的任务。任务被分配给GPC 350内的特定TPC 420,并且如果任务与着色程序相关联,则该任务可以被分配给SM 440。调度器单元510从工作分配单元325接收任务并且管理用于指派给SM 440的一个或更多个线程组(即,线程束)的指令调度。调度器单元510调度线程以在并行线程组中执行,其中每个组称为线程束。在一个实施例中,每个线程束包括32个线程。调度器单元510可管理多个不同的线程束,调度线程束以执行,然后在每个时钟周期期间将来自多个不同线程束的指令分派到各个功能单元(即,核心550、SFU 552和LSU 554)。
每个调度单元515被配置为向一个或更多个功能单元传送指令。在图5所示的实施例中,调度器单元510包括两个调度单元515,其使得能够在每个时钟周期期间调度来自相同线程束的两个不同指令。在替代实施例中,每个调度器单元510可以包括单个调度单元515或附加调度单元515。
每个SM 440包括寄存器文件520,其提供用于SM 440的功能单元的一组寄存器。在一个实施例中,寄存器文件520在每个功能单元之间被划分,使得每个功能单元被分配寄存器文件520的专用部分。在另一个实施例中,寄存器文件520在由SM 440执行的不同的线程束之间被划分。寄存器文件520为连接到功能单元的数据路径的操作数提供临时存储。
每个SM 440包括L个处理核心550。在一个实施例中,SM 440包括大量(例如128个等)不同的处理核心550。每个核心550可以包括完全管线化的单精度处理单元,其包括浮点算术逻辑单元和整数算术逻辑单元。核心550还可以包括双精度处理单元,其包括浮点算术逻辑单元。在一个实施例中,浮点算术逻辑单元实现用于浮点算术的IEEE 754-2008标准。每个SM 440还包括执行特殊功能(例如,属性估计、倒数平方根等)的M个SFU 552,以及在共享存储器/L1高速缓存570和寄存器文件520之间实现加载和存储操作的N个LSU 554。在一个实施例中,SM 440包括128个核心550、32个SFU 552和32个LSU 554。
每个SM 440包括将每个功能单元连接到寄存器文件520并将LSU 554连接到寄存器文件520、共享存储器/L1高速缓存570的互连网络580。在一个实施例中,互连网络580是交叉开关,其可以配置为将任何功能单元连接到寄存器文件520中的任何寄存器,并将LSU554连接到寄存器文件和共享存储器/L1高速缓存570中的存储位置。
共享存储器/L1高速缓存570是片上存储器阵列,其允许SM 440与图元引擎435之间以及SM 440中的线程之间的数据存储和通信。在一个实施例中,共享存储器/L1高速缓存570包括64KB的存储容量并且处于从SM 440到分区单元380的路径中。共享存储器/L1高速缓存570可以用于高速缓存读取和写入。在一个实施例中,共享存储器/L1高速缓存570包括检查电路170以执行用于加载操作的线内数据检查。在一个实施例中,至少一个检查电路170位于共享存储器/L1高速缓存570和LSU 554之间。
上述PPU 300可以被配置为比传统CPU更快地执行高度并行计算。并行计算在图形处理、数据压缩、神经网络、深度学习、生物识别、流处理算法等方面具有优势。
当被配置用于通用并行计算时,可以使用更简单的配置。在这个模型中,如图3所示,固定功能图形处理单元被绕过,创建了一个更简单的编程模型。在该配置中,工作分配单元325将线程块直接指派并分配给TPC 420。块中的线程执行相同的程序,在计算中使用唯一线程ID来确保每个线程生成唯一结果,使用SM 440执行程序并执行计算,使用共享存储器/L1高速缓存570以在线程之间通信,并且使用LSU 554通过分区共享存储器/L1高速缓存570和分区单元380读取和写入全局存储器。当配置用于通用并行计算时,SM 440也可以写入调度器单元320可用于在TPC 420上启动新工作的命令。
在一个实施例中,PPU 300包括深度学习或机器学习处理器。PPU 300被配置为接收命令,该命令指定用于建模神经网络并根据神经网络处理数据的程序。
在一个实施例中,PPU 300包括图形处理单元(GPU)。PPU 300被配置为接收指定着色程序用于处理图形数据的命令。图形数据可以被定义为一组图元,例如点、线、三角形、四边形、三角形条等。典型地,图元包括指定图元的多个顶点(例如,在模型空间坐标系中)以及与图元的每个顶点相关联的属性的数据。PPU 300可以被配置为处理图形图元以生成帧缓冲器(即,用于显示器的每个像素的像素数据)。
应用程序将场景的模型数据(即,顶点和属性的集合)写入存储器(诸如系统存储器或存储器304)。模型数据定义可在显示器上可见的每个对象。然后应用程序对驱动程序内核进行API调用,其请求渲染和显示模型数据。驱动程序内核读取模型数据并将命令写入一个或更多个流以执行操作来处理模型数据。这些命令可以引用要在PPU 300的SM 440上实现的不同着色程序,包括顶点着色器、外壳着色器、域着色器、几何着色器和像素着色器中的一个或更多个。例如,SM 440中的一个或更多个可以被配置为执行顶点着色程序,其处理由模型数据定义的多个顶点。在一个实施例中,不同的SM 440可以被配置为同时执行不同的着色程序。例如,SM 440的第一子集可以被配置为执行顶点着色程序,而SM 440的第二子集可以被配置为执行像素着色程序。SM 440的第一子集处理顶点数据以产生经处理的顶点数据,并将经处理的顶点数据写入L2高速缓存460和/或存储器304。在经处理的顶点数据被光栅化(即,从三维数据变换成屏幕空间中的二维数据)以产生片段数据之后,SM 440的第二子集执行像素着色程序以产生经处理的片段数据,然后将其与其他经处理的片段数据混合并写入存储器304中的帧缓冲区。顶点着色程序和像素着色程序可以同时执行,以管线方式处理来自同一场景的不同数据,直到该场景的所有模型数据已经被渲染到帧缓冲器为止。然后,帧缓冲区的内容被发送到显示控制器用于在显示设备上显示。
PPU 300可以包括在台式计算机、膝上型计算机、平板电脑、智能电话(例如无线、手持设备)、个人数字助理(PDA)、数码相机、手持式电子装置等中。在一个实施例中,PPU300包含在单个半导体衬底上。在另一个实施例中,PPU 300与一个或更多个其他逻辑单元(例如精简指令集计算机(RISC)CPU、存储器管理单元(MMU)、数字-模拟转换器(DAC)等)一起被包括在片上系统(SoC)上。
在一个实施例中,PPU 300可以被包括在图形卡上,图形卡包括一个或更多个存储器设备304,诸如GDDR5 SDRAM。图形卡可以被配置为与台式计算机(包括例如北桥芯片集和南桥芯片集)的主板上的PCIe插槽接口。在又一个实施例中,PPU 300可以是包含在主板的芯片集(即,北桥)中的集成图形处理单元(iGPU)。
可以在PPU 300内执行各种程序,以便实现神经网络的各个层。例如,设备驱动程序可以启动PPU 300上的内核以实现一个SM 440(或多个SM 440)上的神经网络。设备驱动程序(或由PPU 300执行的初始内核)也可启动PPU 300上的其他内核以执行神经网络的其他层。另外,一些神经网络层可以在PPU 300内实现的固定单元硬件上实现。应当理解,在由后续内核在SM 440上处理之前,来自一个内核的结果可以由一个或更多个中间固定功能硬件单元处理。
示例性系统
图6示出了示例性系统600,其中可以实现各种先前实施例的各种体系架构和/或功能。示例性系统600可以被配置为支持线内数据检查。
如图所示,提供了系统600,其包括连接到通信总线602的至少一个中央处理器601。通信总线602可以使用任何合适的协议来实现,诸如PCI(外围组件互连)、PCI-Express、AGP(加速图形端口)、超级传输(HyperTransport)或任何其他总线或一个或更多个点对点通信协议。在一个实施例中,通信总线602是图3中所示的系统总线302。系统600还包括主存储器604。控制逻辑(软件)和数据存储在主存储器604中,主存储器604可以采用随机存取存储器(RAM)的形式。
系统600还包括输入设备612、图形处理器606和显示器608(即常规CRT(阴极射线管)、LCD(液晶显示器)、LED(发光二极管)、等离子显示器等)。用户输入可以从输入设备612接收,例如键盘、鼠标、触摸板、麦克风等。在一个实施例中,图形处理器606可以包括多个着色器模块、光栅化模块等。前述模块中的每一个甚至可以位于单个半导体平台上,以形成图形处理单元(GPU)。
在本说明书中,单个半导体平台可以指唯一的单一的基于半导体的集成电路或芯片。应该指出的是,术语单个半导体平台还可以指具有增加的连接性的多芯片模块,其模拟片上操作,并且相对于利用传统的中央处理单元(CPU)和总线实现而言有明显改进。当然,根据用户的需要,各种模块也可以单独地或以各种组合位于半导体平台。
系统600还可以包括辅助存储器610。辅助存储器610包括例如硬盘驱动器和/或可移除存储驱动器,其代表软盘驱动器、磁带驱动器、光盘驱动器、数字通用盘(DVD)驱动器、记录设备、通用串行总线(USB)闪存。可移除存储驱动器以众所周知的方式从可移除存储单元读取和/或写入可移除存储单元。
计算机程序或计算机控制逻辑算法可以存储在主存储器604和/或辅助存储器610中。这些计算机程序在被执行时使得系统600能够执行各种功能。存储器604、存储器610和/或任何其他存储器是计算机可读介质的可能示例。
在一个实施例中,可以在中央处理器601、图形处理器606、能够实现中央处理器601和图形处理器606两者的能力的至少一部分的集成电路(未示出)、芯片集(即,设计作为用于执行相关功能的单元工作和出售的一组集成电路)和/或用于此的任何其他集成电路的上下文中实现各种在先附图的体系架构和/或功能。
此外,各种先前附图的架构和/或功能可以在通用计算机系统、电路板系统、专用于娱乐目的的游戏控制台系统、专用系统和/或任何其他期望的系统的上下文中实现。例如,系统600可以采用台式计算机、膝上型计算机、服务器、工作站、游戏控制台、嵌入式系统和/或任何其他类型的逻辑的形式。此外,系统600可以采用各种其他设备的形式,包括但不限于个人数字助理(PDA)设备、移动电话设备、电视等。
此外,虽然未示出,但系统600可以耦合到网络(例如,电信网络、局域网(LAN)、无线网络、诸如因特网的广域网(WAN)、对等网络、线缆网络等)用于通信目的。
虽然上文已经描述了各种实施例,但应该理解,它们仅作为示例呈现,而不是限制。因此,优选实施例的宽度和范围不应被任何上述示例性实施例限制,而应仅根据所附权利要求及其等同物来限定。
Claims (20)
1.一种并行处理单元,包括:
加载/存储单元,被配置为执行加载指令;以及
检查电路,其耦合到所述加载/存储单元,并被配置为:
获取由所述加载指令指定的数据;
确定所述数据是否等于零;以及
将所述数据和谓词信号发送到所述加载/存储单元,其中当所述数据等于零时断言所述谓词信号,并且当所述数据不等于零时否定所述谓词信号。
2.如权利要求1所述的并行处理单元,其中所述加载/存储单元还被配置为将所述数据存储在由所述加载指令指定的寄存器中。
3.如权利要求1所述的并行处理单元,其中所述加载/存储单元还被配置为当断言所述谓词信号时丢弃所述数据。
4.如权利要求1所述的并行处理单元,其中所述数据包括用于算术运算的两个或更多个操作数。
5.如权利要求1所述的并行处理单元,其中分支指令在用于由所述并行处理单元执行的指令序列中跟随所述加载指令,并且所述谓词信号控制所述分支指令的执行。
6.如权利要求5所述的并行处理单元,其中当所述谓词信号指示所述数据等于零时,不执行紧接在所述分支指令之后的所述指令序列中的指令的一部分。
7.一种并行处理单元,包括:
加载/存储单元,被配置为执行加载指令;以及
检查电路,其耦合到所述加载/存储单元,并被配置为:
获取由所述加载指令指定的数据;
基于所述数据和阈值之间的比较来计算谓词值;以及
将所述数据和所述谓词值发送到所述加载/存储单元,其中当所述数据小于所述阈值时断言所述谓词值,并且当所述数据不小于所述阈值时否定所述谓词值。
8.如权利要求7所述的并行处理单元,其中所述阈值由所述加载指令指定。
9.如权利要求7所述的并行处理单元,其中所述阈值是可编程的并存储在寄存器中。
10.如权利要求7所述的并行处理单元,其中所述数据以浮点格式编码,并且所述检查电路被配置为比较所述数据的一个或更多个指数以确定所述数据是否小于所述阈值。
11.如权利要求7所述的并行处理单元,其中所述检查电路还被配置为计算与相对于所述阈值的所述数据分布相关联的统计数据并存储所述统计数据。
12.如权利要求7所述的并行处理单元,其中在执行包括所述加载指令的程序期间计算阈值。
13.如权利要求12所述的并行处理单元,其中计算所述阈值以使所述数据的预定部分小于所述阈值。
14.如权利要求12所述的并行处理单元,其中计算所述阈值以使所述数据的预定部分以所述阈值为中心。
15.一种计算机实现的方法,包括:
由加载/存储单元接收加载指令;
通过耦合到所述加载/存储单元的检查电路获得由所述加载指令指定的数据;
确定所述数据等于零;以及
将所述数据和谓词信号发送到所述加载/存储单元,其中所述谓词信号指示所述数据等于零。
16.如权利要求15所述的计算机实现的方法,其中所述加载/存储单元还被配置为将所述数据存储在由所述加载指令指定的寄存器中。
17.如权利要求15所述的计算机实现的方法,其中所述阈值由所述加载指令指定。
18.一种计算机实现的方法,包括:
由加载/存储单元接收加载指令;
通过耦合到所述加载/存储单元的检查电路获得由所述加载指令指定的数据;
基于所述数据和阈值之间的比较来计算谓词值;以及
将所述数据和所述谓词值发送到所述加载/存储单元,其中当所述数据小于阈值时断言所述谓词值,并且当所述数据不小于所述阈值时否定谓词值。
19.如权利要求18所述的计算机实现的方法,其中在执行包括所述加载指令的程序期间计算所述阈值。
20.如权利要求18所述的计算机实现的方法,其中分支指令在用于由所述并行处理单元执行的指令序列中跟随所述加载指令,并且所述谓词信号控制所述分支指令的执行。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310355151.8A CN116431216A (zh) | 2017-08-31 | 2018-08-27 | 线内数据检查以进行工作量简化 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/693,345 US10503507B2 (en) | 2017-08-31 | 2017-08-31 | Inline data inspection for workload simplification |
US15/693,345 | 2017-08-31 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310355151.8A Division CN116431216A (zh) | 2017-08-31 | 2018-08-27 | 线内数据检查以进行工作量简化 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109426519A true CN109426519A (zh) | 2019-03-05 |
CN109426519B CN109426519B (zh) | 2023-04-28 |
Family
ID=65434503
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310355151.8A Pending CN116431216A (zh) | 2017-08-31 | 2018-08-27 | 线内数据检查以进行工作量简化 |
CN201810980508.0A Active CN109426519B (zh) | 2017-08-31 | 2018-08-27 | 线内数据检查以进行工作量简化 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310355151.8A Pending CN116431216A (zh) | 2017-08-31 | 2018-08-27 | 线内数据检查以进行工作量简化 |
Country Status (3)
Country | Link |
---|---|
US (4) | US10503507B2 (zh) |
CN (2) | CN116431216A (zh) |
DE (1) | DE102018120859A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023151231A1 (zh) * | 2022-02-09 | 2023-08-17 | 海飞科(南京)信息技术有限公司 | 用于在单指令多线程计算系统中加载数据的方法和装置 |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10474458B2 (en) | 2017-04-28 | 2019-11-12 | Intel Corporation | Instructions and logic to perform floating-point and integer operations for machine learning |
CN112534405A (zh) | 2019-03-15 | 2021-03-19 | 英特尔公司 | 用于脉动阵列上的块稀疏操作的架构 |
US11934342B2 (en) | 2019-03-15 | 2024-03-19 | Intel Corporation | Assistance for hardware prefetch in cache access |
EP4130988A1 (en) | 2019-03-15 | 2023-02-08 | INTEL Corporation | Systems and methods for cache optimization |
US12007935B2 (en) | 2019-03-15 | 2024-06-11 | Intel Corporation | Graphics processors and graphics processing units having dot product accumulate instruction for hybrid floating point format |
US11403097B2 (en) * | 2019-06-26 | 2022-08-02 | Intel Corporation | Systems and methods to skip inconsequential matrix operations |
US11663746B2 (en) | 2019-11-15 | 2023-05-30 | Intel Corporation | Systolic arithmetic on sparse data |
US20220197634A1 (en) * | 2020-12-21 | 2022-06-23 | Intel Corporation | Efficient divide and accumulate instruction when an operand is equal to or near a power of two |
US11789736B2 (en) | 2020-12-29 | 2023-10-17 | Shanghai Zhaoxin Semiconductor Co., Ltd. | Method and system for executing new instructions |
US11914997B2 (en) | 2020-12-29 | 2024-02-27 | Shanghai Zhaoxin Semiconductor Co., Ltd. | Method and system for executing new instructions |
US20220206809A1 (en) * | 2020-12-29 | 2022-06-30 | Shanghai Zhaoxin Semiconductor Co., Ltd. | Method and system for executing new instructions |
US11803383B2 (en) | 2020-12-29 | 2023-10-31 | Shanghai Zhaoxin Semiconductor Co., Ltd. | Method and system for executing new instructions |
US11816487B2 (en) | 2020-12-29 | 2023-11-14 | Shanghai Zhaoxin Semiconductor Co., Ltd. | Method of converting extended instructions based on an emulation flag and retirement of corresponding microinstructions, device and system using the same |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100088257A1 (en) * | 2006-02-09 | 2010-04-08 | Yuan Lu | Systems and Methods for Generating Predicates and Assertions |
CN102053817A (zh) * | 2009-10-30 | 2011-05-11 | Arm有限公司 | 用于执行乘法累加运算的设备和方法 |
CN103353834A (zh) * | 2012-02-24 | 2013-10-16 | 苹果公司 | 对零谓词分支误预测的分支误预测行为抑制 |
CN104272248A (zh) * | 2012-05-02 | 2015-01-07 | 苹果公司 | 处理器指令集中的谓词计算 |
CN105745618A (zh) * | 2014-03-25 | 2016-07-06 | 克莱顿·吉莱斯皮 | 在无超高多项式成本的情况下求解np完全问题 |
US20170243320A1 (en) * | 2016-02-19 | 2017-08-24 | Qualcomm Incorporated | Uniform predicates in shaders for graphics processing units |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5287467A (en) | 1991-04-18 | 1994-02-15 | International Business Machines Corporation | Pipeline for removing and concurrently executing two or more branch instructions in synchronization with other instructions executing in the execution unit |
US5751983A (en) * | 1995-10-03 | 1998-05-12 | Abramson; Jeffrey M. | Out-of-order processor with a memory subsystem which handles speculatively dispatched load operations |
US6173366B1 (en) | 1996-12-02 | 2001-01-09 | Compaq Computer Corp. | Load and store instructions which perform unpacking and packing of data bits in separate vector and integer cache storage |
JP4101034B2 (ja) | 2002-11-14 | 2008-06-11 | 松下電器産業株式会社 | 符号化装置及び方法 |
US20040205326A1 (en) | 2003-03-12 | 2004-10-14 | Sindagi Vijay K.G. | Early predicate evaluation to reduce power in very long instruction word processors employing predicate execution |
US20040193849A1 (en) | 2003-03-25 | 2004-09-30 | Dundas James D. | Predicated load miss handling |
US7177876B2 (en) | 2004-03-04 | 2007-02-13 | Texas Instruments Incorporated | Speculative load of look up table entries based upon coarse index calculation in parallel with fine index calculation |
US7457940B2 (en) * | 2004-11-16 | 2008-11-25 | International Business Machines Corporation | System and method for managing data |
GB2457303A (en) | 2008-02-11 | 2009-08-12 | Linear Algebra Technologies | Randomly accessing elements of compressed matrix data by calculating offsets from non-zero values of a bitmap |
US9182959B2 (en) | 2008-08-15 | 2015-11-10 | Apple Inc. | Predicate count and segment count instructions for processing vectors |
WO2012107800A1 (en) * | 2011-02-11 | 2012-08-16 | Freescale Semiconductor, Inc. | Integrated circuit devices and methods for scheduling and executing a restricted load operation |
US9298456B2 (en) | 2012-08-21 | 2016-03-29 | Apple Inc. | Mechanism for performing speculative predicated instructions |
EP2725483A3 (en) | 2012-10-23 | 2015-06-17 | Analog Devices Global | Predicate counter |
US10216515B2 (en) * | 2016-10-18 | 2019-02-26 | Oracle International Corporation | Processor load using a bit vector to calculate effective address |
US11663001B2 (en) * | 2018-11-19 | 2023-05-30 | Advanced Micro Devices, Inc. | Family of lossy sparse load SIMD instructions |
US11922178B2 (en) * | 2021-06-25 | 2024-03-05 | Intel Corporation | Methods and apparatus to load data within a machine learning accelerator |
US20230102690A1 (en) * | 2021-09-30 | 2023-03-30 | Advanced Micro Devices, Inc. | Near-memory engine for reducing bandwidth utilization in sparse data applications |
-
2017
- 2017-08-31 US US15/693,345 patent/US10503507B2/en active Active
-
2018
- 2018-08-27 DE DE102018120859.6A patent/DE102018120859A1/de active Pending
- 2018-08-27 CN CN202310355151.8A patent/CN116431216A/zh active Pending
- 2018-08-27 CN CN201810980508.0A patent/CN109426519B/zh active Active
-
2019
- 2019-12-09 US US16/708,261 patent/US11609761B2/en active Active
-
2023
- 2023-02-22 US US18/112,923 patent/US11977888B2/en active Active
-
2024
- 2024-04-03 US US18/625,903 patent/US20240248718A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100088257A1 (en) * | 2006-02-09 | 2010-04-08 | Yuan Lu | Systems and Methods for Generating Predicates and Assertions |
CN102053817A (zh) * | 2009-10-30 | 2011-05-11 | Arm有限公司 | 用于执行乘法累加运算的设备和方法 |
CN103353834A (zh) * | 2012-02-24 | 2013-10-16 | 苹果公司 | 对零谓词分支误预测的分支误预测行为抑制 |
CN104272248A (zh) * | 2012-05-02 | 2015-01-07 | 苹果公司 | 处理器指令集中的谓词计算 |
CN105745618A (zh) * | 2014-03-25 | 2016-07-06 | 克莱顿·吉莱斯皮 | 在无超高多项式成本的情况下求解np完全问题 |
US20170243320A1 (en) * | 2016-02-19 | 2017-08-24 | Qualcomm Incorporated | Uniform predicates in shaders for graphics processing units |
Non-Patent Citations (1)
Title |
---|
朱玲等: "C程序精确形状分析中的规范语言设计", 《小型微型计算机系统》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023151231A1 (zh) * | 2022-02-09 | 2023-08-17 | 海飞科(南京)信息技术有限公司 | 用于在单指令多线程计算系统中加载数据的方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
US11977888B2 (en) | 2024-05-07 |
US20200125363A1 (en) | 2020-04-23 |
US20240248718A1 (en) | 2024-07-25 |
US20230221957A1 (en) | 2023-07-13 |
US11609761B2 (en) | 2023-03-21 |
CN116431216A (zh) | 2023-07-14 |
DE102018120859A1 (de) | 2019-03-21 |
US10503507B2 (en) | 2019-12-10 |
CN109426519B (zh) | 2023-04-28 |
US20190065195A1 (en) | 2019-02-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109426519A (zh) | 线内数据检查以进行工作量简化 | |
CN104050632B (zh) | 用于多样本像素数据处理的方法和系统 | |
US12045924B2 (en) | Real-time hardware-assisted GPU tuning using machine learning | |
CN108874744A (zh) | 矩阵乘积累加运算的广义加速 | |
CN109978751A (zh) | 多gpu帧渲染 | |
US20160019066A1 (en) | Execution of divergent threads using a convergence barrier | |
US20210158155A1 (en) | Average power estimation using graph neural networks | |
EP3726382A1 (en) | Deep learning thread communication | |
US11645533B2 (en) | IR drop prediction with maximum convolutional neural network | |
US10255075B2 (en) | System, method, and computer program product for managing out-of-order execution of program instructions | |
US9471307B2 (en) | System and processor that include an implementation of decoupled pipelines | |
US20200043228A1 (en) | System-generated stable barycentric coordinates and direct plane equation access | |
US11934867B2 (en) | Techniques for divergent thread group execution scheduling | |
US9235512B2 (en) | System, method, and computer program product for graphics processing unit (GPU) demand paging | |
CN113094298A (zh) | 对共享本地存储器进行分区的机制 | |
US10114755B2 (en) | System, method, and computer program product for warming a cache for a task launch | |
US9165396B2 (en) | Graphics processing unit with a texture return buffer and a texture queue | |
US9286659B2 (en) | Multi-sample surface processing using sample subsets | |
US20230305978A1 (en) | Chiplet architecture for late bind sku fungibility | |
US20140337569A1 (en) | System, method, and computer program product for low latency scheduling and launch of memory defined tasks | |
US20230305993A1 (en) | Chiplet architecture chunking for uniformity across multiple chiplet configurations | |
US20230115044A1 (en) | Software-directed divergent branch target prioritization | |
US20240296274A1 (en) | Logic cell placement mechanisms for improved clock on-chip variation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |