CN115702414A - 用于机器学习加速器的堆叠管芯 - Google Patents

用于机器学习加速器的堆叠管芯 Download PDF

Info

Publication number
CN115702414A
CN115702414A CN202180039797.4A CN202180039797A CN115702414A CN 115702414 A CN115702414 A CN 115702414A CN 202180039797 A CN202180039797 A CN 202180039797A CN 115702414 A CN115702414 A CN 115702414A
Authority
CN
China
Prior art keywords
memory
machine learning
die
apd
core die
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202180039797.4A
Other languages
English (en)
Inventor
马克西姆·V·卡扎科夫
斯瓦普尼尔·P·萨哈舍特
米林德·N·尼姆莱卡
维妮特·戈埃尔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Advanced Micro Devices Inc
Original Assignee
Advanced Micro Devices Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Advanced Micro Devices Inc filed Critical Advanced Micro Devices Inc
Publication of CN115702414A publication Critical patent/CN115702414A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/14Handling requests for interconnection or transfer
    • G06F13/16Handling requests for interconnection or transfer for access to memory bus
    • G06F13/1668Details of memory controller
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0893Caches characterised by their organisation or structure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/14Handling requests for interconnection or transfer
    • G06F13/20Handling requests for interconnection or transfer for access to input/output bus
    • G06F13/28Handling requests for interconnection or transfer for access to input/output bus using burst mode transfer, e.g. direct memory access DMA, cycle steal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/38Information transfer, e.g. on bus
    • G06F13/40Bus structure
    • G06F13/4004Coupling between buses
    • G06F13/4027Coupling between buses using bus bridges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L25/00Assemblies consisting of a plurality of individual semiconductor or other solid state devices ; Multistep manufacturing processes thereof
    • H01L25/03Assemblies consisting of a plurality of individual semiconductor or other solid state devices ; Multistep manufacturing processes thereof all the devices being of a type provided for in the same subgroup of groups H01L27/00 - H01L33/00, or in a single subclass of H10K, H10N, e.g. assemblies of rectifier diodes
    • H01L25/04Assemblies consisting of a plurality of individual semiconductor or other solid state devices ; Multistep manufacturing processes thereof all the devices being of a type provided for in the same subgroup of groups H01L27/00 - H01L33/00, or in a single subclass of H10K, H10N, e.g. assemblies of rectifier diodes the devices not having separate containers
    • H01L25/065Assemblies consisting of a plurality of individual semiconductor or other solid state devices ; Multistep manufacturing processes thereof all the devices being of a type provided for in the same subgroup of groups H01L27/00 - H01L33/00, or in a single subclass of H10K, H10N, e.g. assemblies of rectifier diodes the devices not having separate containers the devices being of a type provided for in group H01L27/00
    • H01L25/0657Stacked arrangements of devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Graphics (AREA)
  • Power Engineering (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Advance Control (AREA)
  • Image Generation (AREA)
  • Memory System (AREA)
  • Memory System Of A Hierarchy Structure (AREA)

Abstract

公开了一种设备。该设备包括机器学习管芯,该机器学习管芯包括存储器和一个或多个机器学习加速器;和与该机器学习管芯堆叠的处理核心管芯,该处理核心管芯被配置为执行着色器程序以控制机器学习管芯上的操作,其中该存储器能够被配置作为高速缓存和能够直接访问的存储器中的任一者或两者。

Description

用于机器学习加速器的堆叠管芯
相关申请的交叉引用
本申请要求于2020年5月29日提交的名称为“STACKED DIES FOR MACHINELEARNING ACCELERATOR”的美国临时申请第63/031,954号和2020年12月21日提交的名称为“STACKED DIES FOR MACHINE LEARNING ACCELERATOR”的美国非临时申请第17/129,739号的权益,这些申请如同在本文中充分阐述一样以引用的方式并入。
背景技术
处理器速度提高通常无法与存储器带宽速度提高相匹配。已经使用各种技术来补偿这一事实。
附图说明
可以从以下描述中获得更详细的理解,通过示例结合附图给出,其中:
图1是可实现本公开的一个或多个特征的示例设备的框图;
图2A示出了根据一个示例的图1的加速处理设备的细节;
图2B示出了根据一个示例的设备和加速器处理设备核心管芯的细节;
图3是根据一个示例示出图2B所示的图形处理流水线的附加细节的框图;
图4是根据一个示例的存储器和机器学习加速器管芯的示意图;
图5示出了根据一个示例的被配置作为高速缓存的存储器和被配置为能够直接访问的存储器之间的存储器的重新配置;
图6示出了存储器和机器学习加速器管芯的示例性布局;并且
图7是根据一个示例的用于使用堆叠式机器学习和加速器处理设备执行机器学习操作的方法的流程图。
具体实施方式
公开了一种设备。该设备包括机器学习管芯,该机器学习管芯包括存储器和一个或多个机器学习加速器;和与该机器学习管芯堆叠的处理核心管芯,该处理核心管芯被配置为执行着色器程序以控制机器学习管芯上的操作,其中该存储器能够被配置作为高速缓存和能够直接访问的存储器中的任一者或两者。
图1是可实现本公开的一个或多个特征的示例设备100的框图。设备100可以是例如计算机、游戏设备、手持设备、机顶盒、电视、移动电话、平板计算机或其他计算设备中的一者但不限于这些项。设备100包括处理器102、存储器104、存储装置106、一个或多个输入设备108以及一个或多个输出设备110。设备100还包括一个或多个输入驱动器112和一个或多个输出驱动器114。输入驱动器112中的任一者具体体现为硬件、硬件与软件的组合或软件,并且用于控制输入设备112的目的(例如,控制操作、从输入驱动器112接收输入以及向输入驱动器提供数据)。类似地,输出驱动器114中的任一者具体体现为硬件、硬件与软件的组合或软件,并且用于控制输出设备114的目的(例如,控制操作、从输出驱动器114接收输入以及向输出驱动器提供数据)。应当理解,设备100可包括图1中未示出的另外部件。
在各种另选方案中,处理器102包括中央处理单元(CPU)、图形处理单元(GPU)、位于同一管芯上的CPU和GPU、或一个或多个处理器核心,其中每个处理器核心可为CPU或GPU。在各种另选方案中,存储器104位于与处理器102相同的管芯上,或与处理器102分开定位。存储器104包括易失性或非易失性存储器,例如随机存取存储器(RAM)、动态RAM或高速缓存。
存储装置106包括固定或可移动存储装置,例如但不限于硬盘驱动器、固态驱动器、光盘或闪存驱动器。输入设备108包括但不限于键盘、小键盘、触摸屏、触摸板、检测器、麦克风、加速度计、陀螺仪、生物扫描仪或网络连接(例如,用于发射和/或接收无线IEEE802信号的无线局域网卡)。输出设备110包括但不限于显示器、扬声器、打印机、触觉反馈设备、一个或多个灯、天线或网络连接(例如,用于发射和/或接收无线IEEE802信号的无线局域网卡)。
输入驱动器112和输出驱动器114包括被配置为分别与输入设备108和输出设备110交接并驱动它们的一个或多个硬件、软件和/或固件部件。输入驱动器112与处理器102和输入设备108通信,并允许处理器102从输入设备108接收输入。输出驱动器114与处理器102和输出设备110通信,并允许处理器102向输出设备110发送输出。输出驱动器114包括加速处理设备(“APD”)116。在一些具体实施中,APD 116耦接到显示设备118,在一些示例中,该显示设备是使用远程显示协议来显示输出的物理显示设备或模拟设备。APD 116被配置为执行机器学习相关任务。在一些具体实施中,APD 116被配置为接受来自处理器102的通用计算命令和图形渲染命令中的一者或两者,处理那些计算命令和图形渲染命令,并且在一些具体实施中,将像素输出提供给显示设备118用于显示。
在一些具体实施中,APD 116包括被配置为根据单指令多数据(“SIMD”)范式来执行计算的一个或多个并行处理单元。尽管这里将各种功能描述为由APD 116执行或与其结合执行,但在各种另选方案中,被描述为由APD 116执行的功能另外地或另选地由具有类似能力的其他计算设备执行,该其他计算设备不由主机处理器(例如,处理器102)驱动并且被配置为向显示设备118提供图形输出。例如,可以设想根据SIMD范式执行处理任务的任何处理系统均可被配置为执行本文所述的功能。另选地,可以设想不根据SIMD范式执行处理任务的计算系统执行本文所述的功能。
图2A示出了根据一个示例的APD 116的细节。该APD 116具有堆叠管芯配置,包括APD核心管芯115,以及存储器和机器学习加速器管芯260。这些管芯物理地堆叠,其中一个管芯位于另一个管芯上。管芯经由允许传输数据和命令的互连件可操作地耦接。存储器和机器学习加速器管芯260包括存储器,诸如静态随机存取存储器,以及机器学习加速器,诸如矩阵乘法算术逻辑单元(“ALU”),该ALU被配置为执行可用于机器学习操作的矩阵乘法运算。在一些具体实施中或操作模式下,该存储器和机器学习加速器管芯260的存储器被APD核心管芯115用作高速缓存。
图2B示出了根据一个示例的设备100和APD核心管芯115的细节。处理器102(图1)执行操作系统120、驱动器122和应用程序126,并且另选地或除此之外,还可执行其他软件。操作系统120控制设备100的各个方面,诸如管理硬件资源、处理服务请求、调度并控制进程执行以及执行其他操作。驱动器122控制APD核心管芯115的操作,向APD核心管芯115发送诸如图形渲染任务的任务或其他作业以供处理。驱动器122还包括即时编译器,该即时编译器编译程序以供APD核心管芯115的处理部件(诸如下文所详述的SIMD单元138)执行。
APD核心管芯115执行用于所选功能的命令和程序,诸如可适于并行处理的图形操作和非图形操作。APD核心管芯115可用于执行图形流水线操作,诸如像素操作、几何计算和基于从处理器102接收的命令将图像渲染到显示设备118。APD核心管芯115还基于从处理器102接收的命令来执行与图形操作不直接相关的计算处理操作,诸如与视频、物理模拟、计算流体动力学或其他任务相关的操作。在一些示例中,通过在SIMD单元138上执行计算着色器来执行这些计算处理操作。
APD核心管芯115包括计算单元132,该计算单元包括被配置为根据SIMD范式以并行方式在处理器102(或另一单元)的请求下执行操作的一个或多个SIMD单元138。SIMD范式是这样一种范式,其中多个处理元件共用单个程序控制流单元和程序计数器并由此执行相同的程序,但能够执行具有不同数据的该程序。在一个示例中,每个SIMD单元138包括十六个通道,其中每个通道与SIMD单元138中的其他通道同时执行相同的指令,但可执行具有不同数据的该指令。如果不是所有通道都需要执行给定指令,则可通过预测来关闭通道。还可使用预测来执行具有发散控制流的程序。更具体地,对于具有条件分支或其中控制流基于由单个通道执行的计算的其他指令的程序,预测对应于当前未被执行的控制流路径的通道,并且不同控制流路径的串行执行可实现任意控制流。
计算单元132中的基本执行单元是工作项。每个工作项表示要在特定通道中并行执行的程序的单个实例。可在单个SIMD处理单元138上作为“波前”同时(或部分同时并且部分顺序)执行工作项。一个或多个波前包括在一个“工作组”中,该“工作组”包括被指定执行相同程序的工作项的集合。可通过执行构成工作组的波前中的每一者来执行工作组。在另选方案中,波前在单个SIMD单元138上执行,或在不同SIMD单元138上执行。波前可被视为可在单个SIMD单元138上同时(或伪同时)执行的工作项的最大集合。“伪同时”执行发生在波前大于SIMD单元138中的通道数的情况下。在这种情况下,波前在多个周期中执行,工作项的不同集合在不同周期中执行。APD调度器136被配置为执行涉及调度计算单元132和SIMD单元138上的各种工作组和波前的操作。
由计算单元132提供的并行性适合图形相关操作,诸如像素值计算、顶点变换和其他图形操作。因此,在一些实例中,接受来自处理器102的图形处理命令的图形流水线134将计算任务提供给计算单元132以供并行执行。
计算单元132还用于执行不涉及图形或不作为图形流水线134的“正常”操作(例如,所执行的用以补充针对图形流水线134的操作执行的处理的自定义操作)的一部分而执行的计算任务。在处理器102上执行的应用程序126或其他软件将定义此类计算任务的程序发送到APD 116以供执行。
在APD核心管芯115上执行的着色器程序(诸如计算着色器程序)能够请求存储器和机器学习加速器管芯260执行与机器学习相关的操作。此类操作的示例包括将数据移入或移出存储器和ML加速器管芯260的存储器的操作,或使用存储器和ML加速器管芯260的存储器中的数据作为操作数执行ALU运算(诸如矩阵乘法)的操作。
应注意,尽管图2B的APD核心管芯115包括图形处理流水线134并且执行图形操作,但应当理解,本公开的教导内容可以与不包括图形处理流水线134而包括计算单元132并因此能够执行着色器程序的APD核心管芯115结合使用。
图3是根据一个示例示出图2B所示的图形处理流水线134的附加细节的框图。图形处理流水线134包括各自执行图形处理流水线134的特定功能的阶段。每个阶段部分或全部地实现为在可编程计算单元132中执行的着色器程序,或部分或全部地实现为处于计算单元132外部的功能固定的不可编程硬件。
输入汇编器阶段302从用户填写型缓存(例如,在处理器102所执行的软件(诸如应用程序126)的请求下所填写的缓存)中读取图元数据,并且将该数据汇编成图元以供流水线的其余部分使用。基于包括在用户填写型缓存中的图元数据,输入汇编器阶段302可以生成不同类型的图元。输入汇编器阶段302格式化所汇编的图元以供流水线的其余部分使用。
顶点着色器阶段304处理由输入汇编器阶段302汇编的图元的顶点。顶点着色器阶段304执行各种逐顶点操作,诸如变换、去皮、变形和逐顶点光照。变换操作包括变换顶点坐标的各种操作。这些操作包括修改顶点坐标的建模变换、视点变换、投影变换、透视除法和视口变换,以及修改非坐标属性的其他操作中的一者或多者。
顶点着色器阶段304部分或完全实现为将在一个或多个计算单元132上执行的顶点着色器程序。顶点着色器程序由处理器102提供并且基于计算机程序员所预写的程序。驱动器122编译此类计算机程序以生成顶点着色器程序,该顶点着色器程序具有适合于在计算单元132内执行的格式。
外壳着色器阶段306、曲面细分器阶段308和域着色器阶段310一起工作以实现曲面细分,其通过细分图元而将简单图元转换成更复杂图元。基于输入图元,外壳着色器阶段306生成修补程式以供曲面细分。曲面细分器阶段308为修补程式生成一组样本。域着色器阶段310计算与修补程式的样本对应的顶点的顶点位置。外壳着色器阶段306和域着色器阶段310可以实现为将在计算单元132上执行的着色器程序,这些着色器程序如同顶点着色器阶段304的情况一样,由驱动器122编译。
几何着色器阶段312逐个图元执行顶点操作。可以由几何着色器阶段312执行各种不同类型的操作,包括诸如以下操作:点精灵扩展、动态粒子系统操作、毛皮-鳍生成、阴影体积生成、单通道渲染到立方图、逐图元材料交换和逐图元材料设置。在一些情况下,由驱动器122编译并在计算单元132上执行的几何着色器程序执行几何着色器阶段312的操作。
光栅化器阶段314接受从光栅化器阶段314的上游生成的简单图元(三角形)并将其光栅化。光栅化包括确定哪些屏幕像素(或子像素样本)被特定图元覆盖。光栅化由固定功能硬件来执行。
基于上游生成的图元和光栅化的结果,像素着色器阶段316计算屏幕像素的输出值。像素着色器阶段316可应用来自纹理存储器中的纹理。像素着色器阶段316的操作由像素着色器程序执行,该像素着色器程序由驱动器122编译并且在计算单元132上执行。
输出合并器阶段318接受来自像素着色器阶段316的输出并且将这些输出合并成目标表面,从而执行诸如z测试和α混合之类的操作,以确定屏幕像素的最终颜色。目标表面是图形处理流水线134内的渲染操作的帧的最终目标。目标表面可以位于存储器中的任何位置(诸如在APD 116的存储器内,或在存储器104中)。
图4是根据一个示例的存储器和机器学习加速器管芯260的示意图。存储器和机器学习加速器管芯260包括存储器402、机器学习加速器404、存储器互连件406、管芯间互连件408和控制器410。
在一些示例中,存储器402是用作APD核心管芯115(诸如用于计算单元132)的高速缓存的高速缓存存储器(诸如3级高速缓存存储器)。然而,在某些配置中,存储器402的至少一部分直接用于在机器学习加速器404上执行的操作。机器学习加速器404包括用于执行与机器学习相关联的操作的硬件加速器。此类操作的示例包括矩阵乘法运算。
在一些操作模式下,APD核心管芯115执行与机器学习相关联的着色器程序。着色器程序包括用于配置存储器402以直接用于在机器学习加速器404上执行的操作的指令。着色器程序还包括用于将数据存储到此类存储器中的指令。着色器程序还包括用于使机器学习加速器404对存储在存储器中的数据执行机器学习操作的指令。当APD核心管芯115遇到此类指令时,APD核心管芯115指示存储器402加载数据并且指示机器学习加速器404执行所请求的操作。
存储器互连件406将存储器402的不同部分耦接在一起并且耦接到机器学习加速器404,使得可以由机器学习加速器404对存储在整个存储器402中的数据执行机器学习操作。管芯间互连件408在存储器和机器学习加速器管芯260与APD核心管芯115以及处理器102之间传送数据和命令。在一些示例中,管芯间互连件408直接耦接到APD核心管芯115的计算单元132。控制器410控制存储器和机器学习加速器管芯260上的操作,诸如机器学习加速器404上的数据传输和机器学习操作。
图5示出了根据一个示例的被配置作为高速缓存的存储器502和被配置为能够直接访问的存储器504之间的存储器402的重新配置。在着色器程序或其他实体的请求下,存储器控制器410改变用作高速缓存502的存储器402的量和被配置为能够直接访问的存储器504的量。用作高速缓存502的存储器402的量和被配置为能够直接访问的存储器504的量是可重新配置的。在一些配置中,高速缓存存储器502用于图形操作(例如,在图形处理流水线134上),并且能够直接访问的存储器504用于机器学习操作。
图6示出了存储器和机器学习加速器管芯260的示例性布局600。示出的大矩形表示存储器的部分602。示出了多个机器学习算术逻辑单元(“ALU”)604。控制器(“Cnt”)606也被示出与机器学习ALU 604相邻。示出了耦接到控制器的多个管芯间互连件608。存储器互连件610将控制器606耦接在一起。
存储器部分602是存储器和机器学习加速器管芯260的存储器的部分。这些项目表示管芯260的总存储器中作为特定控制器606和ML ALU 604本地的并且因此由该特定控制器和该ML ALU直接控制的部分。管芯间互连件608提供来自控制器606的外部连接。在各种具体实施中,这些管芯间互连件608耦接到APD核心管芯115或处理器102中的任一者或两者。控制器606经由管芯间互连件608在存储器、ML ALU 604以及APD核心管芯115和处理器102中的任一者或两者之间通信。
存储器互连件610耦接到多个控制器606,并且在那些控制器606之间提供通信链路。该链路允许控制器606从除控制器606本地的存储器部分之外的存储器部分602读取或写入这些存储器部分。在一个示例中,ML ALU 604能够通过利用存储器互连件610对来自不同存储器部分602的数据执行操作。
尽管图6中示出了各种数量的元件,但应当理解,设想了具有不同数量的所示元件的多种具体实施。
尽管本公开描述了耦接到APD管芯的存储器和机器学习加速器管芯,但在另选具体实施中,APD管芯是微处理器管芯。
图7是根据一个示例的用于利用APD 116执行操作的方法700的流程图。尽管参照图1至图6的系统进行了描述,但本领域的技术人员将理解,被配置为按任何技术上可行的顺序执行方法700的步骤的任何系统都属于本公开的范围。
方法700开始于步骤702,其中APD核心管芯115执行着色器。该着色器包括使用一个或多个ML ALU 604执行机器学习操作的指令。
在步骤704处,根据该着色器的指令,APD核心管芯115指示一组机器学习ALU 604执行一组机器学习任务。经由一个或多个管芯间互连件608发生该指示。
在步骤706处,机器学习ALU 604执行该一组机器学习任务。在各种示例中,控制器606接收来自APD核心管芯115的通信,该通信包括指示要执行哪些操作的信息,并且控制器606指示一个或多个ML ALU 604执行这些操作。在一些示例中,控制器606经由存储器互连件610与另一控制器606通信,以协调执行操作。
附图中示出的功能单元中的每一者表示被配置为执行本文所述操作的硬件电路、被配置为执行本文所述操作的软件或被配置为执行本文所述步骤的软件和硬件的组合。此类单元的非排他性列表包括存储装置106、处理器102、输出驱动器114、APD 116、存储器104、输入驱动器112、输入设备106、输出设备110、显示设备118、操作系统120、驱动器122、应用程序126、APD调度器136、图形处理流水线134、计算单元132、SIMD单元138和图形处理流水线134的任何阶段。
应当理解,基于本文的公开内容,可能有许多变化。尽管上述特征和元素在特定组合中进行了描述,但每个特征或元素可以在没有其他特征和元素的情况下单独使用,或者在有或没有其他特征或元素的各种组合中使用。
所提供的方法可以在通用计算机、处理器或处理器核心中实现。举例来说,合适的处理器包括通用处理器、专用处理器、常规处理器、数字信号处理器(DSP)、多个微处理器、与DSP核相关联的一个或多个微处理器、控制器、微控制器、专用集成电路(ASIC)、现场可编程门阵列(FPGA)电路,任何其他类型的集成电路(IC)和/或状态机。可以通过使用处理的硬件描述语言(HDL)指令和包括网表的其他中间数据(能够存储在计算机可读介质上的此类指令)的结果来配置制造过程来制造此类处理器。这种处理的结果可以是掩码,然后在半导体制造过程中使用这些掩码来制造实现本公开的特征的处理器。
本文提供的方法或流程图可以在并入非暂态计算机可读存储介质中的计算机程序、软件或固件中实现,以供通用计算机或处理器执行。非暂态计算机可读存储介质的示例包括只读存储器(ROM)、随机存取存储器(RAM)、寄存器、高速缓存存储器、半导体存储器设备、磁性介质(例如内部硬盘和可移动磁盘)、磁光介质和光学介质(例如CD-ROM磁盘)以及数字多功能磁盘(DVD)。

Claims (20)

1.一种设备,包括:
机器学习管芯,所述机器学习管芯包括存储器和一个或多个机器学习加速器;以及
处理核心管芯,所述处理核心管芯与所述机器学习管芯堆叠,所述处理核心管芯被配置为执行着色器程序以控制所述机器学习管芯上的操作,
其中所述存储器能够被配置作为高速缓存和能够直接访问的存储器中的任一者或两者。
2.根据权利要求1所述的设备,其中所述机器学习加速器被配置为使用所述存储器中的数据执行矩阵乘法。
3.根据权利要求1所述的设备,其中所述机器学习管芯和所述处理核心管芯经由一个或多个管芯间互连件耦接。
4.根据权利要求1所述的设备,其中APD核心管芯被配置为将所述存储器的一部分从用于所述一个或多个机器学习加速器修改为用作所述APD核心管芯的高速缓存。
5.根据权利要求1所述的设备,其中所述APD核心管芯被配置为将所述存储器的一部分从用作所述APD核心管芯的高速缓存修改为用于所述一个或多个机器学习加速器。
6.根据权利要求1所述的设备,其中所述APD核心管芯被配置为执行着色器指令以将数据存储到所述存储器中。
7.根据权利要求1所述的设备,其中所述机器学习管芯还包括控制所述存储器和所述机器学习加速器的操作的一个或多个控制器。
8.根据权利要求1所述的设备,其中所述机器学习管芯还包括将所述一个或多个控制器耦接在一起的存储器互连件。
9.根据权利要求8所述的设备,其中所述存储器互连件被配置为将来自所述存储器的一部分的数据提供给所述存储器的不同部分本地的控制器。
10.一种方法,包括:
在加速处理设备(“APD”)核心管芯上执行着色器程序;
根据所述着色器程序的指令,经由一个或多个管芯间互连件指示机器学习(“ML”)加速器管芯的一组ML算术逻辑单元(“ALU”)执行一组机器学习任务,其中所述ML加速器管芯包括存储器,其中所述ML加速器管芯与所述APD核心管芯堆叠;
用ML ALU执行所述一组机器学习任务;以及
在第一时间段期间将所述存储器的至少一部分配置作为高速缓存,并且在第二时间段期间将所述存储器的至少一部分配置作为所述ML ALU的能够直接访问的存储器。
11.根据权利要求10所述的方法,其中所述机器学习加速器被配置为使用所述存储器中的数据执行矩阵乘法。
12.根据权利要求10所述的方法,其中所述机器学习管芯和所述处理核心管芯经由一个或多个管芯间互连件耦接。
13.根据权利要求10所述的方法,其中所述APD核心管芯被配置为将所述存储器的一部分从用于所述一个或多个机器学习加速器修改为用作所述APD核心管芯的高速缓存。
14.根据权利要求10所述的方法,其中所述APD核心管芯被配置为将所述存储器的一部分从用作所述APD核心管芯的高速缓存修改为用于所述一个或多个机器学习加速器。
15.根据权利要求10所述的方法,其中所述APD核心管芯被配置为执行着色器指令以将数据存储到所述存储器中。
16.根据权利要求10所述的方法,其中所述机器学习管芯还包括控制所述存储器和所述机器学习加速器的操作的一个或多个控制器。
17.根据权利要求10所述的方法,其中所述机器学习管芯还包括将所述一个或多个控制器耦接在一起的存储器互连件。
18.根据权利要求17所述的方法,其中所述存储器互连件被配置为将来自所述存储器的一部分的数据提供给所述存储器的不同部分本地的控制器。
19.一种设备,包括:
处理器;以及
加速处理设备(“APD”),所述APD包括:
机器学习管芯,所述机器学习管芯包括存储器和一个或多个机器学习加速器;和
处理核心管芯,所述处理核心管芯与所述机器学习管芯堆叠,所述处理核心管芯被配置为执行着色器程序以控制所述机器学习管芯上的操作,所述着色器程序中的一个或多个着色器程序由所述处理器来指定,
其中所述存储器能够被配置作为高速缓存和能够直接访问的存储器中的任一者或两者。
20.根据权利要求19所述的设备,其中所述机器学习加速器被配置为使用所述存储器中的数据执行矩阵乘法。
CN202180039797.4A 2020-05-29 2021-05-10 用于机器学习加速器的堆叠管芯 Pending CN115702414A (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US202063031954P 2020-05-29 2020-05-29
US63/031,954 2020-05-29
US17/129,739 US20210374607A1 (en) 2020-05-29 2020-12-21 Stacked dies for machine learning accelerator
US17/129,739 2020-12-21
PCT/US2021/031627 WO2021242511A1 (en) 2020-05-29 2021-05-10 Stacked dies for machine learning accelerator

Publications (1)

Publication Number Publication Date
CN115702414A true CN115702414A (zh) 2023-02-14

Family

ID=78705075

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202180039797.4A Pending CN115702414A (zh) 2020-05-29 2021-05-10 用于机器学习加速器的堆叠管芯

Country Status (6)

Country Link
US (1) US20210374607A1 (zh)
EP (1) EP4158467A1 (zh)
JP (1) JP2023527323A (zh)
KR (1) KR20230017220A (zh)
CN (1) CN115702414A (zh)
WO (1) WO2021242511A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11782757B2 (en) * 2021-05-07 2023-10-10 SiMa Technologies, Inc. Scheduling off-chip memory access for programs with predictable execution

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10990648B2 (en) * 2017-08-07 2021-04-27 Intel Corporation System and method for an optimized winograd convolution accelerator
CN107544926B (zh) * 2017-09-06 2020-04-07 上海兆芯集成电路有限公司 处理系统及其访存方法
US10936942B2 (en) * 2017-11-21 2021-03-02 Google Llc Apparatus and mechanism for processing neural network tasks using a single chip package with multiple identical dies
US11301951B2 (en) * 2018-03-15 2022-04-12 The Calany Holding S. À R.L. Game engine and artificial intelligence engine on a chip
US11249765B2 (en) * 2018-08-22 2022-02-15 Advanced Micro Devices, Inc. Performance for GPU exceptions
US11320883B2 (en) * 2018-09-28 2022-05-03 Intel Corporation Multi-die stacks with power management

Also Published As

Publication number Publication date
EP4158467A1 (en) 2023-04-05
WO2021242511A1 (en) 2021-12-02
JP2023527323A (ja) 2023-06-28
KR20230017220A (ko) 2023-02-03
US20210374607A1 (en) 2021-12-02

Similar Documents

Publication Publication Date Title
CN109690630B (zh) 一种执行着色器程序的方法和装置
US10474490B2 (en) Early virtualization context switch for virtualized accelerated processing device
US20210026686A1 (en) Chiplet-integrated machine learning accelerators
US20180033184A1 (en) Primitive culling using automatically compiled compute shaders
US20200159581A1 (en) Variable latency request arbitration
US20200167076A1 (en) Compressed memory access improvement through compression-aware partial writes
CN115702414A (zh) 用于机器学习加速器的堆叠管芯
US20230205608A1 (en) Hardware supported split barrier
US20220414950A1 (en) Per-pixel variable rate shading controls using stencil data
US20220058048A1 (en) Varying firmware for virtualized device
US20210089423A1 (en) Flexible multi-user graphics architecture
US11276135B2 (en) Parallel data transfer to increase bandwidth for accelerated processing devices
US11809902B2 (en) Fine-grained conditional dispatching
US10832465B2 (en) Use of workgroups in pixel shader
US11900499B2 (en) Iterative indirect command buffers
US20230206395A1 (en) Hardware support for convolution operations
US11656877B2 (en) Wavefront selection and execution
US20210407182A1 (en) Load instruction for multi sample anti-aliasing

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination