CN117313812A - 利用链接指令的神经网络处理 - Google Patents
利用链接指令的神经网络处理 Download PDFInfo
- Publication number
- CN117313812A CN117313812A CN202311336698.XA CN202311336698A CN117313812A CN 117313812 A CN117313812 A CN 117313812A CN 202311336698 A CN202311336698 A CN 202311336698A CN 117313812 A CN117313812 A CN 117313812A
- Authority
- CN
- China
- Prior art keywords
- instruction
- type
- unit
- result
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 53
- 238000013528 artificial neural network Methods 0.000 title abstract description 30
- 239000013598 vector Substances 0.000 claims abstract description 237
- 239000011159 matrix material Substances 0.000 claims abstract description 111
- 238000000034 method Methods 0.000 claims abstract description 58
- 230000008569 process Effects 0.000 claims description 19
- 230000015654 memory Effects 0.000 description 54
- 230000006870 function Effects 0.000 description 23
- 238000010586 diagram Methods 0.000 description 19
- 239000000047 product Substances 0.000 description 16
- 238000011156 evaluation Methods 0.000 description 13
- 230000001537 neural effect Effects 0.000 description 13
- 238000003062 neural network model Methods 0.000 description 9
- 238000007726 management method Methods 0.000 description 7
- 238000009825 accumulation Methods 0.000 description 5
- 210000002569 neuron Anatomy 0.000 description 5
- 238000003860 storage Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 238000000638 solvent extraction Methods 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 210000004027 cell Anatomy 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000036316 preload Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 208000033986 Device capturing issue Diseases 0.000 description 1
- 241000761456 Nops Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 239000008186 active pharmaceutical agent Substances 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000011065 in-situ storage Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 108010020615 nociceptin receptor Proteins 0.000 description 1
- 238000012856 packing Methods 0.000 description 1
- 239000012466 permeate Substances 0.000 description 1
- 238000012913 prioritisation Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000000946 synaptic effect Effects 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/30098—Register arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/38—Concurrent instruction execution, e.g. pipeline or look ahead
- G06F9/3836—Instruction issuing, e.g. dynamic instruction scheduling or out of order instruction execution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/38—Concurrent instruction execution, e.g. pipeline or look ahead
- G06F9/3867—Concurrent instruction execution, e.g. pipeline or look ahead using instruction pipelines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03K—PULSE TECHNIQUE
- H03K19/00—Logic circuits, i.e. having at least two inputs acting on one output; Inverting circuits
- H03K19/02—Logic circuits, i.e. having at least two inputs acting on one output; Inverting circuits using specified components
- H03K19/173—Logic circuits, i.e. having at least two inputs acting on one output; Inverting circuits using specified components using elementary logic circuits as components
- H03K19/177—Logic circuits, i.e. having at least two inputs acting on one output; Inverting circuits using specified components using elementary logic circuits as components arranged in matrix form
- H03K19/1778—Structural details for adapting physical parameters
- H03K19/17796—Structural details for adapting physical parameters for physical disposition of blocks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Neurology (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Databases & Information Systems (AREA)
- Algebra (AREA)
- Computer Hardware Design (AREA)
- Advance Control (AREA)
- Complex Calculations (AREA)
- Multi Processors (AREA)
- Logic Circuits (AREA)
Abstract
本公开涉及利用链接指令的神经网络处理。提供了用于神经网络处理的硬件和方法。提供了一种在包括流水线的硬件节点中的方法,该流水线具有:矩阵矢量单元(MVU);被连接以接收来自矩阵矢量单元的输入的第一多功能单元;被连接以接收来自第一多功能单元的输出的第二多功能单元;以及被连接以接收来自第二多功能单元的输出的第三多功能单元。该方法包括使用MVU执行第一类型指令,该第一类型指令只能由MVU执行以生成第一结果。该方法还包括执行第二类型指令,该第二类型指令只能由多功能单元之一执行,并且生成第二结果,并且在不将两个结果中的任何一个存储在全局寄存器中的情况下,将第二结果传递给第二多功能和第三多功能单元。
Description
本申请是申请日为2018年2月8日、申请号为201880013993.2、发明名称为“利用链接指令的神经网络处理”的中国发明专利申请的分案申请。
背景技术
神经网络技术被用来执行诸如阅读理解、语言转换或语音识别之类的复杂任务。虽然神经网络可以执行这样的任务,但是使用通用CPU或通用GPU来部署神经网络是很昂贵的。另外,虽然相对于CPU,GPU提供增加的吞吐量,但它们具有较差的延迟。
发明内容
在一个示例中,本公开涉及一种在包括全局寄存器和流水线的硬件节点中用于处理指令的方法,该流水线包括:矩阵矢量单元,该矩阵矢量单元包括至少一个累加器寄存器;第一多功能单元,其中第一多功能单元被连接以接收来自矩阵矢量单元的输入;第二多功能单元,其中第二多功能单元被连接以接收来自第一多功能单元的输出;以及第三多功能单元,其中第三多功能单元被连接以接收来自第二多功能单元的输出。该方法可以包括经由全局寄存器从输入队列接收第一类型指令,其中第一类型指令只能由矩阵矢量单元执行,并且由矩阵矢量单元执行第一类型指令并将第一类型指令的第一结果存储在至少一个累加器寄存器中。该方法还可以包括经由全局寄存器从输入队列接收第二类型指令,其中第二类型指令只能由第一多功能单元、第二多功能单元或第三多功能单元中的至少一个执行,并且使用第一多功能单元执行第二类型指令,其中该执行包括对至少第一类型指令的第一结果执行操作并生成第二结果。该方法可以进一步包括在不将第一结果或第二结果存储在全局寄存器中的情况下,将第二结果传递给第二多功能单元,并且在那之后将第二结果传递给第三多功能单元。
在另一示例中,本公开涉及一种硬件节点,包括全局寄存器和被配置为处理指令的流水线,该流水线包括:矩阵矢量单元,该矩阵矢量单元包括至少一个累加器寄存器;第一多功能单元,其中第一多功能单元被连接以接收来自矩阵矢量单元的输入;第二多功能单元,其中第二多功能单元被连接以接收来自第一多功能单元的输出;以及第三多功能单元,其中第三多功能单元被连接以接收第二多功能单元的输出。硬件还可以被配置为经由全局寄存器从输入队列接收第一类型指令,其中第一类型指令只能由矩阵矢量单元执行,并且由矩阵矢量单元执行第一类型指令并将第一类型指令的第一结果存储在至少一个累加器寄存器中,经由全局寄存器从输入队列接收第二类型指令,其中第二类型指令只能由第一多功能单元、第二多功能单元或第三多功能单元中的至少一个执行,并且使用第一多功能单元执行第二类型指令,其中该执行包括对至少第一类型指令的第一结果执行操作,并生成第二结果,并且在不将第一结果或第二结果存储在全局寄存器中的情况下,将第二结果传递给第二多功能单元并且在那之后将第二结果传递给第三多功能单元。
在又一示例中,本公开涉及一种硬件节点,包括全局寄存器和被配置为处理指令的流水线,该流水线包括:矩阵矢量单元,该矩阵矢量单元包括至少一个累加器寄存器;第一多功能单元,其中第一多功能单元多功能单元被连接以接收来自矩阵矢量单元的输入;第二多功能单元,其中第二多功能单元被连接以接收来自第一多功能单元的输出;以及第三多功能单元,其中第三多功能单元被连接以接收来自第二多功能单元的输出,其中第一多功能单元、第二多功能单元和第三多功能单元中的每一个还包括逐点加法和无操作块中的至少一个。硬件还可以被配置为经由全局寄存器从输入队列接收第一类型指令,其中第一类型指令只能由矩阵矢量单元执行,并且由矩阵矢量单元执行第一类型指令并将第一类型指令的第一结果存储在至少一个累加器寄存器中,经由全局寄存器从输入队列接收第二类型指令,其中第二类型指令只能由第一多功能单元、第二多功能单元或第三多功能单元中的至少一个执行,并使用第一多功能单元执行第二类型指令,其中该执行包括对至少第一类型指令的第一结果执行操作,并生成第二结果,并且在不将第一结果或第二结果存储在全局寄存器中的情况下,将第二结果传递给第二多功能单元并且在那之后将第二结果传递给第三多功能单元。
提供本发明内容是为了以简化的形式介绍一些概念,这些概念将在下面的具体实施方式中进一步描述。本发明内容不旨在标识所要求保护的主题内容的关键特征或必要特征,也不旨在用以限制所要求保护的主题内容的范围。
附图说明
通过示例说明了本公开,并且本公开不被附图所限制,其中相同的附图标记指示类似的元件。附图中的元件是为了简单和清楚起见而被图示,并且不一定被按比例绘制。
图1是根据一个示例的包括经由数据中心网络互连的节点的系统的框图;
图2是根据一个示例的包括分布式节点的系统的框图;
图3是根据一个示例的硬件节点的框图;
图4是根据一个示例的神经功能性单元的框图;
图5A和图5B示出了根据另一示例的神经功能单元的框图;
图6示出了根据一个示例的用于执行神经网络处理的硬件节点(例如,FPGA)的框图;
图7示出了根据一个示例的用于执行神经网络处理的区片(tile)布置的框图;
图8示出了根据一个示例的处理元件的框图;
图9示出了包括区片矩阵的节点的示例实现;
图10示出了根据一个示例的多功能单元的框图;
图11示出了根据一个示例的针对神经网络评估的数据流图形;
图12示出了根据一个示例的由神经功能单元对指令链的示例处理;
图13示出了根据一个示例的针对神经网络评估的数据流图形;
图14示出了根据一个示例的可以如何使用硬件节点(例如,FPGA)处理指令链的示意图;和
图15示出了根据一个示例的用于处理指令的方法的流程图。
具体实施方式
本公开中所公开的示例涉及使用用于实现基于神经网络的处理的系统、方法和组件。某些示例涉及深度神经网络(DNN)。DNN可以是用于深度学习的任何合适的神经网络。本公开中的附加示例涉及作为被用来实现DNN或类似神经网络的节点的一部分而被包括的功能单元。可以使用现场可编程门阵列(FPGA)、专用集成电路(ASIC)、可擦除和/或复杂可编程逻辑器件(PLD)、可编程阵列逻辑(PAL)器件和通用阵列逻辑(GAL)器件的部分或组合来实现节点。图像文件可以被用来配置或重新配置诸如FPGA之类的节点。可以经由网络链路或来自主机CPU的本地链路(例如,PCIe)来递送图像文件或类似文件或程序。包括在图像文件中的信息可以被用来对节点的硬件块(例如,FPGA的逻辑块和可重新配置的互连)进行编程以实现期望的功能性。可以实现期望的功能性以支持可以经由计算、联网和存储资源的组合来提供的任何服务,诸如经由数据中心或用于递送服务的其他基础设施。
在一个示例中,本公开涉及DNN,其包括经由低延迟网络彼此耦合的多个节点(例如,FPGA)或这样节点的群组。利用数百到数千个这样的节点(例如,FPGA)的聚合平台可以有利地提供:(1)通过利用跨数十万个节点的并行性而显著地减少训练时间,(2)实现新的训练场景,诸如对实时数据的原位在线学习,以及(3)前所未有的规模的训练模型,同时在跨越数十万个服务器的超大规模数据中心内利用灵活且可互换的同类FPGA资源。在一个示例中,可以通过利用非常规数据表示来获得这样的优点,该非常规数据表示可以利用诸如FPGA之类的节点的架构。
所描述的方面还可以在云计算环境中被实现。云计算可以是指用于实现对可配置计算资源的共享池的按需网络访问的模型。例如,可以在市场中使用云计算来提供对可配置计算资源的共享池的普遍且方便的按需访问。可配置计算资源的共享池可以经由虚拟化而被快速供应,并以低管理工作量或服务提供者交互而被发布,然后相应地被扩展。云计算模型可以由各种特性组成,诸如例如,按需自助服务、广泛的网络访问、资源池、快速弹性、测量的服务等。云计算模型可以被用来暴露各种服务模型,诸如例如,硬件即服务(“HaaS”)、软件即服务(“SaaS”)、平台即服务(“PaaS”)、以及基础架构即服务(“IaaS”)。还可以使用不同的部署模型来部署云计算模型,诸如私有云、社区云、公共云、混合云等。
可以使用本公开中描述的系统和节点来实现机器学习服务,诸如基于递归神经网络(RNN)、长短期记忆(LSTM)神经网络或门控递归单元(GRU)的那些机器学习服务。在一个示例中,可以将与服务相关的内容或其他信息(诸如单词、句子、图像、视频或其他此类内容/信息)转换成矢量表示。矢量表示可以对应于诸如RNN、LSTM或GRU之类的技术。可以在服务初始化之前离线训练深度学习模型,然后可以使用本公开中描述的系统和节点来部署深度学习模型。节点可以是硬件可编程逻辑设备,其可以被专门定制以执行在诸如DNN之类的神经网络的上下文中发生的操作的类型。在一个示例中,神经网络模型的状态和被用来控制模型的参数可以被固定到包括分布式硬件平台的节点的片上存储器。可以在服务启动时将神经网络模型固定(例如,预加载)到片上存储器,并且可以不更改片上存储器的内容,除非模型需要更改或需要用模型重新加载片上存储器的另一事件。因此,在该示例中,与其他布置相反,可以不从与硬件平台相关联的DRAM访问神经网络模型,而是将其直接加载到硬件节点的片上存储器(例如,SRAM)中。将模型固定在分布式可编程逻辑块集合(例如,FPGA资源)上可以允许节点(例如,FPGA)以全容量操作,并且可以有利地改进与服务相关联的吞吐量和延迟。作为示例,即使来自服务的单个请求也可以导致分布式节点集合以全容量操作,并且从而以非常低的延迟递送由服务的用户所请求的结果。
在一个示例中,神经网络模型可以包括许多层,并且每个层可以被编码为以经由神经网络的离线训练获得的系数或常数的形式表达的权重的矩阵或矢量。节点中的可编程硬件逻辑块可以处理矩阵或矢量以执行各种操作,包括针对表示与服务相关的编码信息的输入矢量的乘法、加法和其他操作。在一个示例中,可以通过使用诸如图形分区之类的技术,在多个节点上对权重的矩阵或矢量进行分区和固定。作为该过程的一部分,可以将大型神经网络转换为中间表示(例如,图形),然后可以将中间表示划分为较小的表示(例如,子图形),并且对应于每个子图形的每个权重矩阵可以被固定到节点的片上存储器。在一个示例中,可以将模型转换为固定大小的矩阵和矢量。这样,节点的资源可以并行地对固定大小的矩阵和矢量进行操作。
以LSTM为例,LSTM网络可以包括一系列重复的RNN层或其他类型的层。LSTM网络的每层可以在给定时间步长消耗输入,例如,来自前一时间步长的层状态,并且可以产生一组新的输出或状态。在使用LSTM的情况下,可以将单个内容组块编码成单个矢量或多个矢量。作为示例,可以将单词或单词的组合(例如,短语、句子或段落)编码为单个矢量。可以将每个组块编码到LSTM网络的个体层(例如,特定时间步长)中。可以使用一组方程式来描述LSTM层,诸如下面的方程式:
it=σ(Wxixt+Whiht-1+Wcict-1+bi
ft=σ(Wxfxt+Whfht-1+Wcfct-1+bf)
ct=ftct-1ittanh(Wxcxt+Whcht-1+bc)
ot=σ(Wxoxt+Whoht-1+Wcoct+bo)
ht=ottanh(ct)
在该示例中,在每个LSTM层内部,可以使用矢量操作(例如,点积、内积或矢量加法)和非线性函数(例如,S形、双曲线和切线)的组合来处理输入和隐藏状态。在某些情况下,大多数计算密集型操作可能来自点积,其可以使用密集矩阵-矢量和矩阵-矩阵乘法例程来实现。在一个示例中,可以并行执行矢量操作和非线性函数的处理。
图1是根据一个示例的包括经由数据中心网络110互连的节点的系统100的框图。例如,如图1中所示,多个节点102、104和106可以经由数据中心网络而耦合。这些节点可以被实例化并被用来并行化诸如LSTM网络之类的神经网络的多个层。在一个示例中,每个节点可以被实现为服务器并且还可以包括至少一个硬件节点(例如,FPGA)。因此,节点102可以包括FPGA 122,节点104可以包括FPGA 124,并且节点106可以包括FPGA 126。FPGA可以经由基于光运输层协议的系统而被互连。在一个示例中,FPGA 122的第一实例可以经由运输链路132与FPGA 124的第一实例耦合,并且FPGA 122的第一实例还可以经由运输链路134与FPGA 124的第二实例耦合。FPGA 124的第一实例可以经由运输链路136与FPGA 126的第一实例耦合,并且FPGA 124的第一实例还可以经由运输链路140与FPGA 126的第一实例耦合。类似地,FPGA 124的第二实例可以经由运输链路142与FPGA 126的第一实例耦合,并且FPGA124的第二实例还可以经由运输链路138与FPGA 126的第二实例耦合。光运输层协议可以为FPGA提供经由数据中心网络110彼此传递或接收分组或其他此类数据的能力。FPGA也可以在其他配置中互连。例如,FPGA 122的若干实例可以经由多个运输链路152被耦合到FPGA124的若干实例。类似地,FPGA 124的若干实例可以经由运输链路154被耦合到FPGA 126的若干实例。虽然图1示出了包括FPGA的特定数目和布置的节点,但是可以存在更多或更少数目的不同地布置的节点。
图2是根据一个示例的包括分布式节点的系统200的框图。在该示例中,多个节点可以被实现为数据中心中的服务器机架。每个服务器可以被耦合到架顶式(TOR)交换机。其他机架虽然未被示出,但是可以具有类似的配置。每个服务器可以包括至少一个节点或多个节点。每个节点可以包括服务器(例如,服务器204、服务器206或服务器208),并且每个服务器可以被耦合到TOR交换机(例如,TOR交换机210)。服务器204可以包括主机组件,主机组件包括诸如CPU 214和CPU 216之类的CPU,其可以经由本地链路(例如,PCIe)220而被耦合到硬件节点,例如FPGA 218。每个硬件节点还可以通过(例如,被用来跨针对数据中心的网络基础设施进行通信)网络接口控制器222而被耦合。图2中所示的系统可以允许节点对从TOR交换机或其他交换机接收(和/或发送到TOR交换机或其他交换机)的消息执行处理。使用该示例系统,各个节点可以直接向彼此发送包括分组的消息,并且因此这可以允许对甚至跨越多个FPGA的单个神经网络进行分区而不会引发不可接受的延迟。对于通信,节点可以使用轻量级协议,包括例如RDMA。虽然图2示出了以某种方式布置的系统的一定数目的组件,但是可以存在更多或更少数目的不同地布置的组件。
还可以通过跨多个节点分割神经权重来在神经网络的层内执行并行化。作为示例,可以跨多个节点对单个RNN模型(例如,包括LSTM权重矩阵)进行分区并固定。在该示例的实现中,RNN模型可以被分布在多个FPGA中的每个FPGA的存储器(例如,BRAM)上。在该示例配置中,多级流水线中的每个个体FPGA可以将一部分LSTM权重矩阵存储在快速片上存储器(例如,BRAM)中。这可以有利地导致高吞吐量和低延迟系统。在服务启动时,LSTM权重矩阵可以被分解成特定大小的矩阵(例如,N×M矩阵,其中N和M中的每一个是等于或大于8的整数),并且然后被加载到FPGA的片上存储器中。运行时管理层可以实现FPGA的分配、调度和管理。在一个示例中,每个节点可以被实现为基于一个或多个FPGA的HaaS附接的LSTM聚焦矢量处理器。每个节点可以被设计为运行神经网络评估——作为PCIe附接的FPGA或作为FPGA的HaaS池的一部分。
图3是根据一个示例的硬件节点300的框图。每个硬件节点300可以包括用于从其他节点接收消息的输入消息处理器(IMP)310和用于处理到其他节点或组件的传出消息的输出消息处理器(OMP)340。每个节点还可以包括控制/标量处理器(CSP)320和神经功能单元(NFU)330。虽然未被示出,但是节点接收的接收消息可以被存储在至少两个不同的队列中:(1)IMP到CSP辅助队列和(2)IMP到NFU数据队列。虽然未被示出,但是传出消息可以被存储在至少两个不同的队列中:(1)CSP到IMP辅助队列和(2)NFU到OMP数据队列。在该示例中,节点可以接受包含诸如控制和标量数据之类的辅助信息和有效负载数据(例如,矢量、矩阵或其他张量数据结构)两者的片外消息。辅助信息可以包括对有效负载执行计算密集型操作的请求,然后以输出消息的形式返回结果。在该示例中,传入消息由轻量输入消息处理器(IMP)310处理,其将辅助信息发送到控制/标量处理器(CSP)320(其可以是基于NIOS的控制处理器)并将有效负载数据(例如,输入张量)发送到神经功能单元(NFU)330,其可以被实现为矩阵-矢量处理器。作为示例,CSP 320然后可以解译该请求,并且基于其固件,可以向NFU330发送一系列指令。在一定的处理延迟之后,NFU可以产生请求的结果,其可以与由CSP320产生的辅助数据在轻量级输出消息处理器(OMP)340中结合,并且然后被片外发送。CSP固件可以向NFU 330提供指令。示例指令的进一步细节作为指令集架构(ISA)的一部分而被讨论。还可以执行用于CSP 320的固件的运行时重新加载。因此,在该示例中,架构主要是事件驱动的。输入消息可以从许多源(包括通过网络)到达。IMP可以检查消息队列的头部,并且它可以使任何需要被执行的指令出列并通过系统馈送它。虽然图3示出了以特定方式布置的示例节点的特定数目的组件,但是可以存在更多或更少数目的不同地布置的组件。
在一个示例中,NFU可以被实现为矩阵-矢量处理器,其被设计为扩展到FPGA的大部分资源。在该示例中,NFU的主要硬件加速目标是通过应用数千个乘法加法器利用其矩阵-矢量单元(MVU)以高吞吐量和低延迟执行矩阵-矢量乘法。NFU可以接收系数(例如,常数)的矩阵,并且可以被用于将这些系数与动态输入矢量数据相乘。因此,代替将系数存储在对应于CPU/GPU的DRAM中,系数可以在服务启动时被预加载到对应于NFU的片上存储器(例如,FPGA的块随机存取存储器(BRAM))中。在一个示例中,除非正在使用的神经网络模型被修改或服务被重新启动,否则系数一旦被加载就可能永远不会被再次加载。换言之,作为该示例的一部分,模型可以以分布式的方式被分区和固定到多个节点的片上存储器(例如,FPGA),这些节点以它们可以在不依赖来自CPU资源的协助的情况下直接彼此传递消息或分组的方式而被连接。
在一个示例中,MVU可以是完全流水线化的,并且可以能够在O(n)时间内执行O(n2)复杂度的矩阵-矢量乘法,其性能为每秒4000-18000亿次定点运算。虽然矩阵-矢量乘法可以表示评估LSTM层所需的绝大多数定点运算,但评估还可以包含各种矢量减少、超越(transcendental)和偏置矢量的添加。NFU还可以实现流水线多功能单元(MFU)以在O(n)时间内处理这些O(n)复杂度的矢量函数。这些MFU可以被组织成链式架构,其中MVU将数据传递到第一MFU,第一MFU将数据传递到第二MFU,等等。在NFU的一个示例实现中,可以使用1个MVU和5个MFU。
基于矢量函数在矢量和矩阵-矢量操作花费大约相同时间来进行计算的架构中可能潜在地支配LSTM评估时间的观察,链式架构可以允许NFU利用单个矩阵-矢量乘法和若干矢量函数之间的大规模流水线并行性。NFU的存储器子系统也可以被配置为支持高吞吐量。作为示例,存储器子系统可以支持高达1.8TB/s的矩阵值吞吐量,以及支持同时加载6个矢量和存储6个矢量。
图4示出了NFU 400的示例实现。NFU 400可以包括用于接收输入数据的输入队列(IQ)410和用于输出输出数据的输出队列(OQ)420。因此,NFU 400可以通过其输入队列(IQ)410引入外部矢量和矩阵数据,并通过其输出队列(OQ)420发出矢量数据。NFU 400可以包括用于提供可以被用来存储矢量数据的集中化位置的全局矢量寄存器文件(GVRF)430。NFU400可以包括矩阵-矢量单元(MVU)440和五个多功能单元(MFU)(例如,MFU#0 450、MFU#1460、MFU#2 470、MFU#3 480和MFU#4 490,如图4中所示)。MVU 440可以包括矩阵-寄存器文件442,用于存储可以在开始由节点支持的服务时被预加载的矩阵。每个MFU还可以包括本地矢量寄存器文件(LVRF)453,用于存储用于对应MFU的本地矢量数据(例如,LVRF 452、LVRF 462、LVRF 472、LVRF 482和LVRF 492)。指令可以由NFU 400按顺序执行。可以配置一系列指令,使得流水线(包括例如一个MVU 440和五个MFU)并行地执行指令链。作为示例,可以使用矩阵运算(其使用MVU 440)来对输入矢量数据相乘,然后可以通过流水线将其传递到输出队列420。NFU 400中的各种数据流可能性经由图4中的两条虚线路径和一条实线路径示出。稍后将提供指令链的进一步细节和示例。
示例NFU 400可以对矢量和矩阵进行操作。矢量是1D标量元素集合,矩阵是2D标量元素集合。可以使用下面的表1中的参数来设置元素、矢量和矩阵的大小。
表1
某些参数(例如,如表1中所示)可以被用来在设计时或之后配置NFU 400。在一个示例中,可以使用四个参数来配置NFU 400。第一参数可以是矩阵和矢量元素的数据类型,尤其是单个元素的宽度(ELEM_WIDTH)。作为示例,8位定点数据类型、16位定点数据类型、27位定点数据类型和32位浮点数据类型在一个示例中可以是数据类型集合。NFU 400中的每个数据总线的宽度可以被配置为ELEM_WIDTH*LANES个位;每个矢量可以在存储器中使用ELEM_WIDTH*HWVEC_ELEMS个位;并且每个矩阵可以在存储器中使用ELEM_WIDTH*HWVEC_ELEMS*HWVEC_ELEMS个位。
第二参数可以是硬件矢量大小(HWVEC_ELEMS)。在一个示例中,存储在NFU 400内的所有矢量可以具有等于HWVEC_ELEMS的固定数目的元素,并且所有矢量指令可以接受HWVEC_ELEMS个元素作为输入和/或产生HWVEC_ELEMS个元素作为输出。此外,所有矩阵可以具有等于HWVEC_ELEMS的固定数目的元素。
许多应用可以具有其自己的算法维度,其可以与硬件矢量大小不同。当是这种情况时,程序员(或编译器)可以使用诸如矩阵阻塞之类的技术将高级操作映射到硬件矢量大小。例如,下面的表2示出了具有500X500矩阵大小和500个元素矢量大小的应用;然而,NFU400的硬件矢量大小为250。表2中所示的函数可以被用于解决这种差异。
表2
第三参数可以是矢量通道(LANES)的数目,其描述了应当在每个MFU内并行操作多少元素。作为示例,矩阵-矢量单元(MVU)440内的并行操作的数目可以被定义为LANES*HWVEC_ELEMS,假设存在HWVEC_ELEMS个区片,每个区片具有LANES个乘法加法器。区片被进一步描述作为对应于示例矩阵-矢量单元(MVU)440的描述的一部分。此外,包括顶级端口在内的每个NFU数据总线可以每个周期携带LANES个矢量元素以用于LANES*ELEM_WIDTH个位的总宽度。在一个示例中,LANES是HWVEC_ELEMS的整数因子以避免位填充,因为矢量在LANES大小的组块中操作并且需要HWVEC_ELEMS/LANES个周期来处理矢量。
第四参数可以是矩阵寄存器文件的大小(NRF_SIZE),其在与NFU相对应的片上存储器(例如,快速片上BRAM(稍后参见描述))中存储给定数目的HWVEC_ELEMS x HWVEC_ELEMS个矩阵。在一个示例中,节点上的存储器资源需求(例如,FPGA上的BRAM资源的数目)可以通过下面的公式集导出(注意,ceil(x,y)将x四舍五入到y的最近倍数):
BRAMwidth=ceil(LANES*DATA_WIDTH,40)
关于存储器子系统,NFU 400可以将其内部存储装置分布在三种主要类型的存储器上。首先,矩阵寄存器文件可以被用来在一系列快速片上随机存取存储器(例如,FPGA中的BRAM)中存储MRF_SIZE HWVEC_ELEMS x HWVECS_ELEMS个矩阵。这些BRAM可以被分布在整个矩阵矢量单元中,并且每个周期可以各自提供LANES个矩阵元素,以获得HWVEC_ELEMS*LANES*ELEM_WIDTH位/周期的总的片上矩阵吞吐量。在这个示例中,可能需要O(HWVEC_ELEMS2)个周期来将矩阵存储到矩阵寄存器文件中;因为这样的矩阵存储可以在预加载步骤中被执行,然后针对许多矩阵-矢量乘法进行分摊。
接下来,如图4中所示,全局矢量寄存器文件(GVRF)430可以用作程序员可以用来存储矢量数据的集中化位置。用于GVRF的一个示例配置可以存储32个矢量,并且可以每个周期读取LANES个矢量元素,同时还每个周期写入LANES个矢量元素。此外,NFU中的每个多功能单元可以具有其自己的本地矢量寄存器文件(LVRF),其也可以每个周期读取和写入LANES个矢量元素。因此,在具有5个MFU的示例NFU中,总的矢量存储器带宽是每个周期12个分离的矢量的6*LANES个读取和6*LANES个写入。该矢量存储器架构被配置为支持将若干矢量函数链接在一起,其中一个可以从GVRF读取,其中每个可以读取和写入到一个LVRF,并且其中一个可以写回到GVRF。
NFU的矩阵-矢量单元(MVU)440可以执行流水线化的高吞吐量低延迟矩阵-矢量乘法。在一个示例中,MVU 440使用LANES*HWVEC_ELEMS个乘法器和加法器来实现该目标,并且其吞吐量可以被测量为每秒2*LANES*HWVEC_ELEMS*fmax个操作。在一个示例中,与依赖于矢量批处理的典型高吞吐量矩阵-矢量乘法器不同,MVU 440一次接受一个矢量到其流水线中。
图5A和图5B示出了根据另一示例的神经功能单元(NFU)500的框图。NFU 500可以包括输入队列单元510、全局矢量寄存器文件(VRF)520、矩阵矢量相乘530和N个多功能单元(MFU)。作为示例,NFU 500可以包括MFU 0 540、MFU 1 560和MFU N-1 580。在该示例中,可以以流水线的方式连接这些组件中的每个组件。NFU 500还可以包括复用器和解复用器的布置,其可以被用来通过NFU 500控制矢量、指令或其他数据的路由。例如,NFU 500可以包括复用器MUX 0 504、MUX 1 506、MUX 2 510和MUX 544,并且它还可以包括解复用器DEMUX502、DEMUX 508、DEMUX 512、DEMUX514和DEMUX 516。作为示例,解复用器DEMUX 502可以从输入队列单元510接收指令或数据,并且将它耦合到复用器MUX 0 504或复用器MUX 1 506。可以通过向解复用器提供控制信号来实现这些备选耦合。控制信号可以由与NFU 500相关联的解码器来生成。每个MFU可以包括局部矢量寄存器文件(LOCAL VRF)542、加法块(+)546、乘法块(X)548、双曲正切函数块(TANH)550、S形块(SIGM)552和无操作(NOP)块554、以及存储器管理功能性。虽然图5示出了以某种方式布置的NFU500的一定数目的组件,但是可以有更多或更少数目的不同地布置的组件。
图6示出了根据一个示例的用于执行神经网络处理的硬件节点(例如,FPGA)600的框图。硬件节点600可以包括处理逻辑块(例如,数字信号处理器(DSP))622和存储器元件(例如,块RAM)610的列。可以配置一小组BRAM和DSP以创建处理区片,例如,处理区片630。在图6的示例中,每个区片(例如,处理区片630)可以包括BRAM 632、634、636、638和640,其可以如图所示进行布置。每个处理区片630还可以包括处理逻辑块(例如,数字信号处理器(DSP))642、644、646、648、650和652,其可以如图6中所示进行布置。处理逻辑块可以被用来将输入矢量与一行权重相乘。可以使用加法器660来将处理逻辑块的输出相加。因此,在该示例中,每个区片可以执行逐点的点积运算。虽然图6示出了硬件节点600的以一定方式布置的一定数目的组件,但是可以存在更多或更少数目的不同地布置的组件。
图7示出了根据一个示例的用于执行神经网络处理的区片的布置700的框图。如图7中所示,在该示例中,通过树广播将这些矢量馈送到HWVEC_ELEMS个处理元件(例如,在图7中被称为区片)的阵列。因此,作为示例,经由矢量入口702接收的矢量可以被存储在图7中所示的入口树寄存器(REG)710中。接下来,矢量可以扇出到两个或更多个寄存器(例如,入口树寄存器712和入口树寄存器714)。可以使用附加参数(扇出)来描述从入口树中的每个节点扇出的连接的数目。处理元件(例如,区片722、724、726和728)可以处理矢量,并且每个区片可以向出口移位寄存器(REG)(例如,出口移位寄存器742和出口移位寄存器744)提供输出。来自MVU的输出可以通过矢量出口块750移出。处理元件(例如,区片)可以在每个周期执行LANES相乘和LANES相加。
MVU可以每个周期接受LANES个输入矢量元素,并且在流水线延迟之后,在对应的输出矢量的每个周期发出LANES个元素。针对单个输入矢量的该延迟可以被定义为logFANOUT(HWVEC_ELEMS)+2*HWVEC_ELEMS/LANES,因为需要logFANOUT(HWVEC_ELEMS)个周期来使数据通过入口树渗透,需要HWVEC_ELEMS/LANES个周期来计算输出,并且需要HWVEC_ELEMS/LANES个周期来通过出口流水线发出矢量。
每个处理元件(例如,区片)可以存储一行MRF_SIZE矩阵,并使用其处理元件针对所选矩阵的单行计算矢量的点积。图8示出了根据一个示例的处理元件800的框图。在该示例中,处理元件可以被实现为用于矢量(GEMV)区片810的通用矩阵乘法。每个处理元件800可以从入口树接收输入数据(例如,如图5中所示)并且将数据输出到出口流水线(例如,如图7中所示)。每个处理元件可以包括用于存储矢量数据的块RAM(例如,用于矩阵行1的BRAM820)。在该示例中,每个处理元件(例如,GEMV区片)可以包括BRAM,其可以存储矩阵的行1并且处理该行中的矢量数据。在一个示例中,处理元件可以使用处理块(例如,用于矩阵行1的PE 830)计算矢量数据和任何输入数据之间的点积(例如,经由路径“从入口树输入数据”接收)。可以经由路径“将数据输出到出口流水线”提供输出数据以供进一步处理。虽然图8示出了以一定方式布置的GEMV区片810的一定数目的组件,但是可以存在更多或更少数目的不同地布置的组件。
图9示出了在包括区片矩阵中的节点900的示例实现。在该示例实现中,使用具有252个区片的节点900处理252X252矩阵910的数据。示例节点900可以经由输入队列920接收数据,输入队列920可以使用总线922而被耦合到广播块930。在该示例中,总线922的总线宽度可以是192位。广播块930可以经由各个总线而被耦合到SRAM块,以允许将预先训练的神经网络模型快速加载到节点900中。作为示例,图9示出了区片0 940、区片1 950和区片251960。区片0 940可以经由192位总线932而被耦合到广播块930。区片1 950可以经由192位总线934而被耦合到广播块930。区片251 960可以经由192位总线936而被耦合到广播块930。每个区片可以包括对应的SRAM和点积单元。作为示例,区片0 940可以包括SRAM 942和点积单元944,其可以使用192位总线946彼此耦合。区片1 950可以包括SRAM 952和点积单元954,其可以使用192位总线956彼此耦合。区片251 960可以包括SRAM 962和点积单元964,其可以使用192位总线966彼此耦合。每个SRAM可以存储权重矩阵的一行,其可以基于图9中所示的寻址方案而被存储。每个点积单元可以被实现为12输入(12-INPUT)点积单元。在服务启动时,预训练的神经网络模型权重可以被流入到FPGA的片上存储器(例如,图9中的SRAM)中并被固定到特定的布置中,允许计算单元以非常高的吞吐量生成输出。在一个示例中,矩阵的每一行可以表示神经元,并且该行中的每列条目可以表示附接到该神经元的突触权重。以矩阵形式(例如,表示神经元)存储的系数可以被预加载到SRAM或与硬件节点相关联的其他存储器中。在神经元不适合单个硬件节点(例如,FPGA)的情况下,可以将一部分神经元加载到第二硬件节点中,依此类推。在一个示例中,可以使用图形分区技术来分布神经权重矩阵。使得表示神经权重矩阵的图形可以被分割成子图形,然后可以将其固定到不同硬件节点的存储器中,这些存储器可以使用轻量运输协议或其他类型的协议彼此通信。例如,使用经由图1和图2描述的架构和系统,硬件节点可以彼此直接通信。
广播块930可以包括如先前关于图5所讨论的入口树。这个示例示出了使用FPGA构建的架构,其在固定大小的矩阵和矢量上操作。在此示例中,所支持的原生大小为252乘252方形矩阵。在这些设计的其他参数化实例中,可以使用其他形状和大小的矩阵。在该示例中,存在24方形矩阵,其可以被存储在片上存储器(例如,SRAM)中。因此,在该示例中,存在252个区片的阵列,并且每个区片是计算单元。每个SRAM可以每个时钟周期从广播块接收192位并且输出192位到12输入点积单元。这转换为每个周期以每个元素16位馈送12个元素。作为示例,与地址0(ADDR 0)相对应的SRAM的行被配置为存储元素0-0到0-11,其是前12个元素。在ADDR 1,存储另外12个元素,依此类推。此示例示出了每个时钟周期为一行馈送多个元素的一种打包策略。在这个示例中,SRAM只使用21行,地址0到地址20,并且这足以存储整个方形矩阵。在该示例中,可以将多达二十四个252乘252方形矩阵打包到对应于节点900的片上存储器中。取决于权重的数值精度,可以打包更少或更多的矩阵。作为示例,8位模式可以被用来打包多达48个与16位模式相同大小的矩阵。实际上,也可以支持其他置换。
12输入点积单元执行计算,并且因此,在该示例中,节点900包括矢量乘法-加法树。作为示例,为了执行点积运算,可以执行在该行的每个元素与矢量的每个元素之间的元素成对相乘,然后将其求和为一个累加变量。在图9中所示的示例中,每个区片负责计算矩阵的一行。在每个时钟周期上,可以一次处理出自该矩阵中的12个元素。该示例对应于16位整数运算(例如,每个权重由16位表示),并且因此每个SRAM条目是512×192位。可以使用包括例如1位、2位、4位或8位在内的其他位大小来表示对应于神经网络模式的权重。
图10示出了根据一个示例的多功能单元(MFU)1000的框图,其对应于例如关于图4的先前描述的NFU。关于NFU的多功能单元(MFU),它们可以基于本地和/或外部数据执行若干矢量功能。示例MFU实现可以支持逐点加法、乘法、S形和双曲正切函数,以及传递和存储器管理功能性。在一个示例中,每个MFU可以以如下方式进行配置:在每个MFU中提供MFU可以处理的每个指令类型所需的每个操作符(例如,用于执行操作的硬件块),并且每个操作符沿着多个MFU的链式路径而被复制(例如,如图4中所示)。以这种方式,可以灵活地形成链式指令(稍后解释),而不必规定或提供指令在链中的位置。可以使用查找表来实现S形和双曲正切。对于所选择的功能,在一个示例中,单个MFU可以每个周期执行一定数目的操作(例如,由早先描述的LANES参数所指定的操作),同时分别为相加/相乘和S形/切线添加1到2个延迟周期。在该示例中,MFU 1000可以包括被配置为执行不同操作的硬件块。每个硬件块可以对从包括例如先前的MFU、MVU或GVRF的若干源接收的值或操作数执行操作。中间值可以被存储在本地矢量寄存器文件(LVRF)1010中。作为示例,一个硬件块1020可以执行加法操作。另一硬件块1030可以执行乘法操作。另一块1040可以执行切线(例如,TANH)操作。另一块1050可以执行S形(SIGM)操作。又一块1060可以执行无操作(NOP)。各种硬件块的输出可以被供应给复用器1060。基于来自各种队列控制器或其他控制逻辑的一个或多个控制信号,复用器(MUX)可以提供输出,该输出可以被耦合到流水线中的下一MFU或耦合到输出队列。在一个示例中,控制信号可以是从对应于神经功能单元(NFU)的指令解码器接收的信号。MUX的输出还可以被耦合到LVRF 1010,以用于存储与示例MFU所执行的各种操作相对应的中间值。在一个示例中,可以与流水线相邻的控制处理器可以具有指令队列,并且它可以将指令动态地写入到用于NFU的各种组件的相关队列中。在指令被执行时,它们可以扇出到独立的控制队列中,并且可以确定NFU的哪个部分得到激活。NFU的每个组件可以访问控制队列的头部并相应地执行操作,例如,加、乘、正切、S形或NOP。控制队列可能不会出列,直到所有矢量都已传递通过,然后控制队列可以传递到下一组件上。虽然图10示出了以特定方式布置的MFU1000的一定数目的组件,但是可以具有更多或更少数目的不同地布置的组件。作为示例,MFU 1000可以包括用以执行其他操作的附加硬件块,诸如softmax操作、整流线性单元(ReLU)操作、激活块操作等。
就与包括NFU的节点相关的一个示例指令集架构(ISA)而言,指令可以总是以程序顺序执行。另外,所有指令可以作用于原生大小HWVEC_ELEMS的矢量和/或矩阵。ISA可以被用来暴露分布式存储器系统和NFU流水线中可用的大规模流水线并行性两者。在一个示例中,可以通过将两个或更多个指令显式地标识为链的成员来利用这种并行性。示例链可以使用针对矩阵-矢量相乘、矢量-矢量相加和矢量S形函数的指令来配置跨越MVU和两个MFU的流水线以并行执行所有三个指令。在一个示例中,指令可以在以下情况下有资格成为链:最多一个输入并且最多一个输出的一系列相关指令需要全局存储器,所有其他自变量(argument)仅依赖于中间值和本地存储器的内容,以及每个功能单元按流水线顺序使用NFU最多一次。
在一个示例中,程序可以被编译或构造以尝试将尽可能多的指令链接在一起以将性能最大化。通过在第一指令的目的地自变量中声明转发标志并通过在第二指令中声明接收标志代替源地址自变量,可以将一对指令链接在一起。链继续,直到指令没有声明转发,或者NFU中的所有功能单元已经在链中被使用。因此,在这个示例中,在一条指令中声明转发然后在下一指令中不声明接收是违法的(反之亦然)。
可以通过其资源要求将指令映射到NFU的功能单元。例如,矩阵-矢量相乘只能在矩阵-矢量单元(MVU)中发生,而矢量-矢量相加只能在多功能单元(MFU)中发生。在该示例中,指令链必须以图4中所示的从左到右流水线顺序使用NFU的功能单元:输入队列(IQ)、MVU、然后是每个MFU、然后是输出队列(OQ)。然而,在一个示例中,链可以从IQ、MVU或第一MFU开始。最后,在这个示例中,需要MFU的链中的第一指令将被映射到MFU 0,下一指令将使用MFU 1,等等。在这个示例中,这很重要,因为MFU指令所使用的本地存储器是由链中的该指令的深度隐式地设置的,以同时用于存储和加载。
大多数指令可以采用相同的自变量的一般集合:源、目的地和可选的第二源。可能还存在可以具体标识目标MFU的一些存储器管理指令,但是通常从指令在链中的位置推断出将执行指令的MFU。每个源和目的地自变量可以使用下面表3中的强类型之一。例如,DST自变量意味着指令的输出可以被转发、全局存储或本地存储,而GDST自变量只能被全局存储。在此示例中,只有采取GSRC的指令才能被附加到链中,并且只有供应DST的指令才能将数据传递到链中。
通常,大多数指令可以在链中或以独立模式(全局源和全局目的地)被使用。然而,在此示例中,存储器管理指令(以VRF_开头的那些)不能在链中被使用,并且一些指令(V_PASS、V_STORE)只能在链内被使用。
/>
表3
节点服务可以使用应用编程接口(API)来与包括控制/标量处理器(CSP)和NFU的每个节点通信。API可以被用来向NFU发送指令并接受/制定对网络的请求/响应。节点服务可以从网络接收请求,利用来自请求的自变量启动子例程,然后通过网络发回响应。在该示例中,请求可以包括由CSP解译的节点报头以及被转发到NFU的有效负载。同样,传出响应可以具有节点报头和(可选的)有效负载。
用于节点的编程模型可以允许子例程采取最多30个运行时自变量。这些自变量可以通过节点报头作为“辅助数据”而被传递给子例程。在一个示例中,可以保留Aux[0]以用于选择子例程。在一个示例中,针对运行时自变量的一个常见用途是设置针对给定LSTM评估的迭代次数。每个子例程可以是执行矩阵和矢量操作的一系列API调用。这些API调用中的每一个可以对应于NFU指令,并且当CSP遇到这些API调用之一时,它可以将该指令发送到NFU。在一个示例中,所有指令可以作用于维度为HWVEC_ELEMS的矢量和维度为HWVEC_ELEMSx HWVECV_ELEMS的矩阵。一组辅助函数(如下面的表4中所示)可以被用来在自变量中设置适当的位字段:
表4
附加地,可以使用三个辅助常数,如下面的表5中所示:
NEXT | 仅设置DST的forward标志 |
PREV | 仅设置GSRC的receive标志 |
ACC | 仅设置DST的store标志(仅与mv_mul API一起使用) |
表5
子例程之一可以是环回(loopback),其将矢量从输入队列引入到NFU中并将其存储在全局存储器中,然后从全局存储器读取它并通过输出队列将其发送出NFU。示例环回子例程如下面的表6中所示:
表6
可以通过在发送回输入矢量之前对输入矢量执行逐个元素S形来扩展环回示例。实现此目的的一种方法是在独立模式下调用输入矢量、S形和输出矢量API,如下面的表7中所示:
表7
上面的表7中的示例不使用任何指令链接,然而可以通过将所有三个操作链接在一起来实现更高的性能。为了实现链接,输入队列、执行S形的MFU和输出队列之间的数据流被分析。关于图4中的示例NFU,链需要通过MVU和流水线中的其他4个MFU传递数据。链接使用较少的周期,因为,作为示例,它避免了通过全局存储器进行多次往返,这在时间消耗方面可能是昂贵的操作。下面的表8示出了已经使用链接进行了优化的子例程的一个示例。
表8
第二种方法使用更多指令,但也以明显更少的周期执行。注意,第二种方法在其初始使用后丢弃输入矢量和输出矢量二者。如果需要存储这些值以供以后使用,那么可以使用表9中的子例程4。
表9
用于相加两个矢量的过程建立在用于获取矢量的S形的过程上。主要区别在于相加需要第二输入矢量,在一个示例中,该第二输入矢量必须始终源自于执行相加的MFU的本地存储器。在该示例中,如果第二操作数尚未存在于本地存储器中,那么需要另一指令(例如,vrf_g_I_copy)将其放置在那里。假设表9的子例程4已经执行并且已经在全局地址0中存储了矢量,并且在MFU 0的本地地址中该矢量的S形是0,则下面的API调用将那两个矢量相加在一起并将结果存储回全局存储器中。
表10
如前所讨论的,由使用处理组件的程序所使用的任何矩阵在启动时被预加载,因为在该示例中,花费O(HWVEC_ELEMS2)个周期来存储来自节点外部的矩阵,而每个其他操作花费O(HWVEC_ELEMS)个周期。还可能期望预加载在整个执行期间保持恒定的偏置矢量集合。以下示例子例程将两个权重矩阵存储在矩阵存储器(MVU内的矩阵寄存器文件)中。然后它加载两个偏置矢量,一个放入到MFU 1的本地存储器中,一个放入到MFU 2中。
表11
通过使用具有指令链接的示例子例程,可以改进矢量加载的性能,如下面的表12中所示。
/>
表12
一旦矩阵和矢量已被预加载,表13是图示出执行如下的示例子例程的示例:v_out=(m[0]*v_in[2]+m[1]*v_in[3]+v_in[0])*v_in[1]。因此,在该示例中,假设已经调用子例程6来预加载m[0]、m[1]、v_in[0]和v_in[1]。
表13
在一个示例中,MVU特征可以被用来优化表13的子例程8的资源利用,其使用MFU 0来对两个mv_mul()结果求和。MVU允许矩阵-矢量乘法的结果被保持在其累加寄存器中而不是输出矢量。如果(通过声明store标志)为mv_mul启用了该特征,则下一个mv_mul的结果将与第一mv_mul的结果求和。在该示例中,为了进行该优化工作,如下面的表14中所示,可以调整子例程6以改为在MFU 0和MFU 1中存储v_in[0]和v_in[1]。下面的表15示出了使用链接的优化矩阵-矢量子例程。
表14
表15
通过使用避免硬编码的地址转而用具有良好命名的常量来暴露地址的意图的编码和编译器技术,可以对子例程进行附加的改进。此外,可以提供typedef以用于分别用VectorNum、Matrix和MFU来标识矢量、矩阵和MFU地址。为确保编码中的一致性,可以使用下面的表16中所示的样式:
表16
在该示例中,必须将在下面的表17中所示的某些地址设置为节点的分布式存储器中的物理地址:
表17
作为示例,用于具有CSP和NFU的节点的LSTM评估程序可以包括预加载步骤,之后是评估的若干次迭代,直到产生输出。因此,在该示例中,首先,预加载步骤存储跨NFU的分布式存储器进行评估所需的权重矩阵和偏置矢量。接下来,对于评估的每次迭代,输入矢量到达并通过越来越长的指令链进行处理,直到产生输出。
图11示出了根据一个示例的用于神经网络评估的数据流图形1100。在高级别处,在该示例中,加载一个输入矢量(IQ_V)并且将其与两个权重矩阵(MV_MUL 1和4)相乘。历史矢量也与两个其他权重矩阵(MV_MUL 2和3)相乘。接下来,将一对输入/历史结果的结果求和在一起,另一对输入/历史结果(VV_ADD 1和3)也是如此。在那之后,针对偏置矢量(VV_ADD 2和4)相加每个求和矢量,然后针对S形(V_SIGM 1和2)应用每个求和矢量。然后将S形结果相乘在一起,并且结果是最终输出(VV_MUL和OQ_V)。
该数据流图形的依赖性分析示出了对于4条指令链的机会。可以使用编译器或类似工具来执行依赖性分析。例如,链A(经由图11中的虚线示出)从输入队列获取其矢量输入,将该矢量存储在GVRF中,然后使用它来针对本地存储器中的矩阵执行MV_MUL1。MV_MUL的结果也被存储在本地存储器中。在该示例中,链B(经由图11中的虚线示出)可以立即跟随链A通过流水线,因为它从全局存储器获取一个输入(历史矢量),从本地存储器获取针对MV_MUL 2的矩阵,将针对VV_ADD 1的在本地存储器中的预加载的偏置矢量和针对VV_ADD 2的MV_MUL 1的本地存储结果相加,并且对VV_ADD 2的结果执行V_SIGM 1。V_SIGM的结果也被存储在本地存储器中,以便于链D(经由图11中的虚线示出)。
来自图11的示例数据流图形可以在以下示例子例程中以优化的方式被实现,该示例子例程包括用于LSTM初始化的子例程11和用于LSTM评估的子例程12。
表18
/>
表19
图12示出了根据一个示例的神经功能单元的指令链的示例处理1200。另外,参考图12,示出了用于子例程12的总执行时间的近似图形。如前所解释的,一旦指令链(链A-D)已经由控制处理器(例如,图3的控制/标量处理器)映射,就以流水线的方式从左到右处理指令(例如,流水线包括图4中所示的MVU和五个MFU)。因此,链A包括在将输入矢量加载到对应于MVU的矩阵寄存器文件之后对MV_MUL1指令的处理。链B包括由MVU和MFU0对指令MV_MUL2和W_ADD1的并行处理。同时,使用例如MFU1和MFU2处理W_ADD2和V_SIGM1。链C(其仅包括一个指令——MV_MUL3)由MVU处理。最后,链D由整个流水线处理。MVU同时处理MV_MUL4和W_ADD3两者,并且MFU并行处理链D中的剩余指令,包括两个指令V_PASS,其简单地将从先前MFU接收的输入传递到下一个MFU或输出队列(OQ)。在此示例中,总执行时间主要由MV_MUL指令驱动,而其他矢量操作全都通过流水线操作到MV_MUL。并且W_ADD 1和W_ADD3发生在MVU的累加寄存器内。
在另一LSTM实现中,在由NFU处理矢量数据和标量数据之前,执行两个附加步骤。首先,环路被用来针对每个请求所提供的多次迭代展开LSTM。其次,矩阵阻塞被用来将算法矩阵和矢量大小映射到可以具有不同原生大小的处理器。在此示例中,我们具有250的HWVEC_ELEMS,而算法输入矢量为大小200,其余算法矢量为大小500,算法输入矩阵为500x200,并且算法历史矩阵为500x500。因此,输入矩阵-矢量相乘被阻塞为两个MV_MUL()调用(使用一些零填充),而历史矩阵-矢量相乘被阻塞为四个MV_MUL()调用和两个VV_ADD()调用。
作为该示例的一部分,存在三个子例程:一个用以对矩阵集合进行初始化,一个用以对偏置矢量进行初始化,并且一个用以对矢量集合执行LSTM评估。作为示例,在启动时,一个使用场景将是在8个矩阵上各自调用矩阵初始化(例如,表20中的子例程13)3次,以加载24个矩阵,然后调用偏置矢量初始化(例如,表21中的子例程14))一次。然后,在运行时,在该示例中,将针对每个查询调用LSTM评估(例如,表22中的子例程15)。
表20
表21
/>
/>
/>
/>
/>
/>
表22
尽管上述子例程示例提供了用以说明各种实施例的相应指令集,但是相应指令集可以包括更多或更少的指令。另外,可以以不同的顺序执行这些指令。另外,尽管描述了用于配置或控制节点和节点的处理的各种方面的若干参数,但是这些参数仅是示例。附加的或更少的参数可以与本公开中讨论的示例的不同版本一起使用。
图13示出了根据一个示例的用于神经网络评估的数据流图形1300。数据流图形1300包括四个指令链:链1、链2、链3和链4。链1包括在对应于神经网络模型的权重(例如,W_xi,其可以对应于神经网络模型)和运行时输入矢量(例如,X)之间执行矩阵相乘操作。链1还包括在输入矢量的过去值(例如,H_PREV)和历史权重(例如,W_hi)之间执行矩阵相乘操作。可以使用矢量的逐点加法来相加乘法输出。接下来,作为链1的一部分,可以执行S形操作。作为链2的一部分,可以在遗忘门权重矩阵(例如,W_xf)和运行时输入矢量(例如,X)之间执行矩阵相乘操作。链2还包括在输入矢量的过去值(例如,H_PREV)和历史遗忘门权重矩阵(例如,W_hf)之间执行矩阵相乘操作。可以使用矢量的逐点加法来相加乘法输出。接下来,作为链2的一部分,可以将偏置输入矢量(例如,b_i)加到加法操作的输出。接下来,作为链2的一部分,可以执行S形操作。现在转向链3,作为链3的一部分,可以在单元门权重矩阵(例如,W_xc)和运行时输入矢量(例如,X)之间执行矩阵相乘操作。链3还包括在输入矢量的过去值(例如,H_PREV)和历史单元门权重矩阵(例如,W_hc)之间执行矩阵相乘操作。可以使用矢量的逐点加法来相加乘法输出。接下来,作为链3的一部分,可以将偏置单元门矢量(例如,b_c)加到加法操作的输出。接下来,作为链3的一部分,可以执行双曲线函数操作。关于链4,可以在输出门加权矩阵(例如,W_xo)和运行时输入矢量(例如,X)之间执行矩阵相乘操作。链4还包括在输入矢量的过去值(例如,H_PREV)和历史输出门权重矩阵(例如,W_ho)之间执行矩阵相乘操作。可以使用矢量的逐点加法来相加乘法输出。接下来,作为链4的一部分,可以将偏置输出门矢量(例如,b_o)加到加法操作的输出。接下来,作为链4的一部分,可以执行S形操作。可以对四个链的输出执行附加操作。虽然图13示出了使用一定数目的链执行的一定数目的操作,但是可以使用不同数目的链来执行附加的或更少的操作。
图14示出了根据一个示例的如何使用硬件节点(例如,FPGA)处理指令链的图。可以使用与先前描述的硬件节点相对应的架构来实现示例处理1400。如经由处理方面1410所示,控制处理器(例如,图3的控制/标量处理器320)可以被配置为接收和解码从队列接收的指令。作为处理方面1410的一部分,处理所接收的指令,使得它们扇出到独立控制队列中,诸如图14中所示的各种队列——作为块1410的一部分。在一个示例中,独立控制队列可以确定神经功能单元的哪个部分(例如,前面描述的任何NFU)得到激活。每个处理单元,包括MVU和MFU,将看到与该单元相关联的控制队列的头部。在该示例中,针对各种处理元件具有独立控制队列可以允许以到链的输入不依赖于来自另一链的输出的程度来并行处理指令链。另外,关于MFU,将基于由相应控制队列发出的相应控制信号来激活各种复用器、控制门或其他类似结构。作为示例,当允许控制对MFU的加法块的输入的复用器通过输入时,MFU的加法块可以经由被输入到硬件节点的比特流接收输入。在一个示例中,比特流可以表示查找表的内容及其连接。在所有矢量都已通过之前,可以不将对数据输入到加法块的队列进行出列。在相应链的执行期间生成的中间输出可以被存储在与相关MVU或MFU相对应的本地矢量寄存器文件中。然后,来自相应链的后续指令可以获取该值以供进一步消费。大多数指令可以包括自变量集合:源、目的地和可选的第二源。每个源和目的地自变量可以使用来自表4的自变量类型之一,如前所述。作为示例,DST自变量意味着指令的输出可以被转发、被全局存储或被本地存储,而GDST自变量意味着指令的输出只能被全局存储(例如,作为相关GVRF寄存器的一部分)。在一个示例中,只有那些可以从GSRC获取输入的指令可以被附加到链中,并且只有那些可以供应DST自变量的指令才能将数据下传到另一链。
参考图14中所示的示例,一旦与在判定块1420处的指令相关联的操作码被解码,那么可以确定该指令以哪个目标功能单元为目标。如果指令以输入队列(IQ_V(块1412))为目标,并且自变量是DST(块1422),那么硬件节点逻辑可以通过输入队列将下一个矢量移动到NFU中进入到DST中(块1424)。如果与指令相关联的自变量是GDST(全局DST),那么可以按照与GDST相关联的地址将下一个矢量移动到全局寄存器中。如果与指令相关联的自变量是LDST(本地DST),那么可以按照与LDST相关联的地址将下一个矢量移动到本地寄存器中。如果与指令相关联的自变量是FGDST,那么可以按照与FGDST相关联的地址将下一个矢量移动到全局寄存器中。
继续参考图14,如果指令以矩阵-矢量相乘单元(MVU)为目标(例如,MV_MUL(块1414)),则与硬件节点相关联的逻辑可以采取与从寄存器或指定地址获得的矩阵相乘相关联的步骤。MV_MUL指令可以包括将在MSRC处的矩阵乘以来自GSRC的矢量并将其递送给DST。本地存储可以在累积寄存器中发生,并且与转发互斥。关于矢量数据的源,作为块1432的一部分,与硬件节点相关联的逻辑可以确定数据源是GSRC还是来自另一矩阵相乘操作的输出(块1438)。取决于源,可以将矢量数据提供给MVU。备选地,如果矢量数据的源是特定地址(例如,OP#2X21(块1436)),那么可以从该源加载矢量数据并将其提供给MVU。另外,关于矢量数据的目的地,如果与指令相关联的自变量是GDST(全局DST),那么可以按照与GDST相关联的地址将下一个矢量移动到全局寄存器中。中间结果可以被本地存储在累加器(ACC)中。有利地,在一个示例中,可以不将结果存储为中间结果,而是可以将它们直接转发到下一个MVU(如块1440中所示)。如果与指令相关联的自变量是FGDST,那么可以按照与FGDST相关联的地址将下一个矢量移动到全局寄存器中。
仍然参考图14,如果指令是S形操作(V_SIGM(块1416))并且因此它以MFU中的一个为目标,则与硬件节点相关联的逻辑可以确定以MFU中的哪一个(例如,MFU#0、MFU#1、MFU#2、MFU#3或MFU#4)为目标(块1452)。在该示例中,如图14中所示,该指令针对S形操作以MFU#0为目标。作为块1460的一部分,可以通过与硬件节点相关联的逻辑来完成附加处理。作为示例,在块1462,与硬件节点相关联的逻辑可以确定数据源是GSRC还是来自另一源的输出(块1438)。取决于源,可以从GSRC或其他源提供矢量数据(块1466)。可以对(例如,从GSRC获得的)矢量数据执行逐点S形操作并将其递送到DST。在块1464处,与硬件节点相关联的逻辑可以确定输出的目的地。可以将数据提供给块1468中列出的任何目的地。虽然图14示出了以某种方式链接的与指令相关的某些系列动作,但是可以执行其他动作。另外,数据可以从除图14中描述的源以外的其他源获得,并且可以被提供给图14中描述的目的地以外的其他目的地。
图15示出了根据一个示例的用于处理指令的方法的流程图1500。在一个示例中,可以使用包括用于处理指令的流水线的硬件节点来执行该方法,其中流水线可以包括:矩阵矢量单元;第一多功能单元,其中第一多功能单元可以被连接以接收来自矩阵矢量单元的输入;第二多功能单元,其中第二多功能单元可以被连接以接收来自第一多功能单元的输出;以及第三多功能单元,其中第三多功能单元可以被连接以接收来自第二多功能单元的输出。该方法可以包括步骤(例如,步骤1520),包括:经由全局寄存器从输入队列接收第一类型指令,其中第一类型指令只能由矩阵矢量单元执行,并且由矩阵矢量单元执行第一类型指令并将第一类型指令的第一结果存储在至少一个累加器寄存器中。第一类型指令可以是矩阵操作,并且第二类型操作可以是辅助操作中的任何一种,诸如加法、乘法、正切或S形。辅助操作还可以包括NOP。硬件节点可以包括前面描述的任何神经功能单元。
该方法还可以包括步骤(例如,步骤1530),包括:经由全局寄存器从输入队列接收第二类型指令,其中第二类型指令只能由第一多功能单元、第二多功能单元或第三多功能单元中的至少一个执行,并且使用第一多功能单元执行第二类型指令,其中该执行包括对至少第一类型指令的第一结果执行操作并生成第二结果。在一个示例中,该步骤可以由先前描述的任何NFU执行。在执行指令时,它们可以扇出到独立的控制队列中,并且可以确定NFU的哪个部分得到激活。NFU的每个组件可以访问控制队列的头部并相应地执行操作,例如,相加、相乘、相切、S形或NOP。控制队列可以在所有矢量都通过之前不会出列,然后控制队列可以传递给下一个组件。
下一步骤(例如,步骤1540)可以包括:在不将第一结果或第二结果存储在全局寄存器中的情况下,将第二结果传递给第二多功能单元,并且在那之后将第二结果传递给第三多功能单元。在没有存储的情况下,传递结果可以包括以MFU为目标,但仅执行无操作。这可以由与硬件节点相关联的逻辑确定。由于不将结果存储在全局寄存器中,因此在执行某些链接指令期间可以消除诸如对全局寄存器的写入之类的昂贵操作。图12的链D是链接在一起的不同类型指令的示例,包括将结果通过两个MFU传递给输出队列。MVU同时处理MV_MUL4和W_ADD3,并且MFU并行处理链D中的剩余指令,包括简单地将从先前MFU接收的输入传递给下一个MFU或输出队列(OQ)的两个指令V_PASS。在此示例中,总执行时间主要由MV_MUL指令驱动,而其他矢量操作都通过流水线操作到MV_MUL。而且W_ADD 1和W_ADD3发生在MVU的累加寄存器内。
总之,本公开涉及一种在包括全局寄存器和流水线的硬件节点中用于处理指令的方法,该流水线包括:矩阵矢量单元,该矩阵矢量单元包括至少一个累加器寄存器;第一多功能单元,其中第一多功能单元被连接以接收来自矩阵矢量单元的输入;第二多功能单元,其中第二多功能单元被连接以接收来自第一多功能单元的输出;以及第三多功能单元,其中第三多功能单元被连接以接收来自第二多功能单元的输出。该方法可以包括经由全局寄存器从输入队列接收第一类型指令,其中第一类型指令只能由矩阵矢量单元执行,并且由矩阵矢量单元执行第一类型指令并将第一类型指令的第一结果存储在至少一个累加器寄存器中。该方法还可以包括经由全局寄存器从输入队列接收第二类型指令,其中第二类型指令只能由第一多功能单元、第二多功能单元或第三多功能单元中的至少一个执行,并且使用第一多功能单元执行第二类型指令,其中该执行包括对至少第一类型指令的第一结果执行操作并生成第二结果。该方法可以进一步包括在不将第一结果或第二结果存储在全局寄存器中的情况下,将第二结果传递给第二多功能单元,并且在那之后将第二结果传递给第三多功能单元。
在一个示例中,第一多功能单元、第二多功能单元和第三多功能单元中的每一个还可以包括逐点加法块、逐点乘法块、S形块、双曲正切块和无操作块。该方法还可以包括在将第二结果传递给第三多功能单元之后,将第二结果传递给被耦合到流水线的输出队列。第一类型指令可以是矢量类型的指令,第二类型指令可以是标量类型的指令。在该示例中,第一类型指令可以包括存储指示符,该存储指示符使得第一结果被存储在至少一个累加器寄存器中,并且第二类型指令可以包括前向指示符,该前向指示符使得第二结果被传递到流水线的下一个单元。第一类型指令和第二类型指令可以包括指令链。
在另一示例中,本公开涉及一种硬件节点,包括全局寄存器和被配置为处理指令的流水线,该流水线包括:矩阵矢量单元,该矩阵矢量单元包括至少一个累加器寄存器;第一多功能单元,其中第一多功能单元被连接以接收来自矩阵矢量单元的输入;第二多功能单元,其中第二多功能单元被连接以接收来自第一多功能单元的输出;以及第三多功能单元,其中第三多功能单元被连接以接收第二多功能单元的输出。硬件还可以被配置为经由全局寄存器从输入队列接收第一类型指令,其中第一类型指令只能由矩阵矢量单元执行,并且由矩阵矢量单元执行第一类型指令并将第一类型指令的第一结果存储在至少一个累加器寄存器中,经由全局寄存器从输入队列接收第二类型指令,其中第二类型指令只能由第一多功能单元、第二多功能单元或第三多功能单元中的至少一个执行,并使用第一多功能单元执行第二类型指令,其中该执行包括对至少第一类型指令的第一结果执行操作,并生成第二结果,并且在不将第一结果或第二个结果存储在全局寄存器中的情况下,将第二结果传递给第二多功能单元并且在那之后将第二结果传递给第三多功能单元。
在该示例中,第一多功能单元、第二多功能单元和第三多功能单元中的每一个还可以包括逐点加法块、逐点乘法块、S形块、双曲正切块和无操作块。硬件节点还可以被配置为在将第二结果传递给第三多功能单元之后,将第二结果传递给被耦合到流水线的输出队列。第一类型指令可以是矢量类型的指令,第二类型指令可以是标量类型的指令。在该示例中,第一类型指令可以包括存储指示符,该存储指示符使得第一结果被存储在至少一个累加器寄存器中,并且第二类型指令可以包括前向指示符,该前向指示符使得第二结果被传递给流水线的下一个单元。第一类型指令和第二类型指令可以包括指令链。
在又一示例中,本公开涉及一种硬件节点,包括全局寄存器和被配置为处理指令的流水线,该流水线包括:矩阵矢量单元,该矩阵矢量单元包括至少一个累加器寄存器;第一多功能单元,其中第一多功能单元多功能单元被连接以接收来自矩阵矢量单元的输入;第二多功能单元,其中第二多功能单元被连接以接收来自第一多功能单元的输出;以及第三多功能单元,其中第三多功能单元被连接以接收来自第二多功能单元的输出,其中第一多功能单元、第二多功能单元和第三多功能单元中的每一个还包括逐点加法和无操作块中的至少一个。硬件还可以被配置为经由全局寄存器从输入队列接收第一类型指令,其中第一类型指令只能由矩阵矢量单元执行,并且由矩阵矢量单元执行第一类型指令并将第一类型指令的第一结果存储在至少一个累加器寄存器中,经由全局寄存器从输入队列接收第二类型指令,其中第二类型指令只能由第一多功能单元、第二多功能单元或第三多功能单元中的至少一个执行,并使用第一多功能单元执行第二类型指令,其中该执行包括对至少第一类型指令的第一结果执行操作,并生成第二结果,并且在不将第一结果或第二结果存储在全局寄存器中的情况下,将第二结果传递给第二多功能单元并且在那之后将第二结果传递给第三多功能单元。
在该示例中,硬件节点还可以被配置为在将第二结果传递给第三多功能单元之后,将第二结果传递给被耦合到流水线的输出队列。第一类型指令可以是矢量类型的指令,第二类型指令可以是标量类型的指令。在该示例中,第一类型指令可以包括存储指示符,该存储指示符使得第一结果被存储在至少一个累加器寄存器中,并且第二类型指令可以包括前向指示符,该前向指示符使得第二结果被传递给流水线的下一个单元。第一类型指令和第二类型指令可以包括指令链。
应该理解,本文所描绘的方法、模块和组件仅是示例性的。备选地或另外,本文中功能性地描述的内容可以至少部分地由一个或多个硬件逻辑组件执行。例如但不限于,可以使用的说明性类型的硬件逻辑组件包括现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑器件(CPLD)等。在抽象但仍然明确的意义上,实现相同功能性的任何组件布置被有效地“关联”,使得实现期望的功能性。因此,本文组合以实现特定功能性的任何两个组件可以被视为彼此“相关联”,使得实现期望的功能性,而不管架构或中间组件如何。同样地,如此相关联的任何两个组件也可以被视为彼此“可操作地连接”或“耦合”以实现期望的功能性。
与本公开中描述的一些示例相关联的功能性还可以包括被存储在非瞬态介质中的指令。本文使用的术语“非瞬态介质”是指存储使机器以特定方式操作的数据和/或指令的任何介质。示例性非瞬态介质包括非易失性介质和/或易失性介质。非易失性介质包括例如硬盘、固态驱动器、磁盘或磁带、光盘或光带、闪存、EPROM、NVRAM、PRAM或其他此类介质、或这种介质的联网版本。易失性介质包括例如动态存储器诸如DRAM、SRAM、高速缓存或其他这样的介质。非瞬态介质不同于传输介质,但可以与传输介质结合使用。传输介质被用于向机器传递数据和/或从机器传递指令。示例性传输介质包括同轴电缆、光纤电缆、铜线和诸如无线电波之类的无线介质。
此外,本领域技术人员将认识到,上述操作的功能性之间的界限仅仅是说明性的。多个操作的功能性可以被组合成单个操作,和/或单个操作的功能性可以被分发在附加操作中。此外,备选实施例可以包括特定操作的多个实例,并且可以在各种其他实施例中更改操作的顺序。
尽管本公开提供了具体示例,但是在不脱离如下面的权利要求中阐述的本公开的范围的情况下,可以进行各种修改和改变。相应地,说明书和附图应被视为说明性而非限制性意义,并且所有这些修改旨在被包括在本公开的范围内。本文关于特定示例描述的对问题的任何益处、优点或解决方案不旨在被解释为任何或所有权利要求的关键的、必需的或必要的特征或元素。
此外,如本文所使用的术语“一”或“一个”被定义为一个或多于一个。而且,在权利要求中使用诸如“至少一个”和“一个或多个”之类的引入短语不应被解释为暗示:由不定冠词“一”或“一个”对另一权利要求元素的引入将包含这种引入的权利要求元素在内的任何特定权利要求限制为仅包含一个这样的元素的发明,即使相同的权利要求包括引入短语“一个或多个”或“至少一个”和诸如“一”或“一个”的不定冠词。对于使用定冠词的情况也是如此。
除非另有说明,否则诸如“第一”和“第二”之类的术语被用来在这些术语所描述的元素之间进行任意区分。因此,这些术语不一定旨在表示这些元素的时间或其他优先次序。
Claims (20)
1.一种在包括全局寄存器和流水线的硬件节点中用于处理指令的方法,所述流水线包括:矩阵矢量单元,所述矩阵矢量单元包括至少一个累加器寄存器;第一多功能单元,其中所述第一多功能单元被连接以接收来自所述矩阵矢量单元的输入;第二多功能单元,其中所述第二多功能单元被连接以接收来自所述第一多功能单元的输出;以及第三多功能单元,其中所述第三多功能单元被连接以接收来自所述第二多功能单元的输出,所述方法包括:
经由所述全局寄存器从输入队列接收第一类型指令,其中所述第一类型指令只能由所述矩阵矢量单元执行,并且由所述矩阵矢量单元执行所述第一类型指令并将所述第一类型指令的第一结果存储在所述至少一个累加器寄存器中;
经由所述全局寄存器从所述输入队列接收第二类型指令,其中所述第二类型指令只能由所述第一多功能单元、所述第二多功能单元或所述第三多功能单元中的至少一个执行,并且使用所述第一多功能单元执行所述第二类型指令,其中所述执行包括对至少所述第一类型指令的所述第一结果执行操作并生成第二结果;以及
在不将所述第一结果或所述第二结果存储在所述全局寄存器中的情况下,将所述第二结果传递给所述第二多功能单元并且之后将所述第二结果传递给所述第三多功能单元。
2.根据权利要求1所述的方法,其中所述第一多功能单元、所述第二多功能单元和所述第三多功能单元中的每一个还包括:逐点加法块、逐点乘法块、S型块、双曲正切块和无操作块。
3.根据权利要求1所述的方法,还包括:在将所述第二结果传递给所述第三多功能单元之后,将所述第二结果传递给被耦合到所述流水线的输出队列。
4.根据权利要求1所述的方法,其中所述第一类型指令包括矢量类型的指令,并且所述第二类型指令包括标量类型的指令。
5.根据权利要求1所述的方法,其中所述第一类型指令包括存储指示符,所述存储指示符使得所述第一结果被存储在所述至少一个累加器寄存器中。
6.根据权利要求1所述的方法,其中所述第二类型指令包括前向指示符,所述前向指示符使得所述第二结果被传递给所述流水线中的下一个单元。
7.根据权利要求1所述的方法,其中所述第一类型指令和所述第二类型指令包括指令链。
8.一种硬件节点,包括:
全局寄存器;
被配置为处理指令的流水线,所述流水线包括:矩阵矢量单元,所述矩阵矢量单元包括至少一个累加器寄存器;第一多功能单元,其中所述第一多功能单元被连接以接收来自所述矩阵矢量单元的输入;第二多功能单元,其中所述第二多功能单元被连接以接收来自所述第一多功能单元的输出;以及第三多功能单元,其中所述第三多功能单元被连接以接收来自所述第二多功能单元的输出;并且
其中所述硬件节点还被配置为:
经由所述全局寄存器从输入队列接收第一类型指令,其中所述第一类型指令只能由所述矩阵矢量单元执行,并且由所述矩阵矢量单元执行所述第一类型指令并将所述第一类型指令的第一结果存储在所述至少一个累加器寄存器中,
经由所述全局寄存器从所述输入队列接收第二类型指令,其中所述第二类型指令只能由所述第一多功能单元、所述第二多功能单元或所述第三多功能单元中的至少一个执行,并且使用所述第一多功能单元执行所述第二类型指令,其中所述执行包括对至少所述第一类型指令的所述第一结果执行操作并生成第二结果,以及
在不将所述第一结果或所述第二结果存储在所述全局寄存器中的情况下,将所述第二结果传递给所述第二多功能单元并且之后将所述第二结果传递给所述第三多功能单元。
9.根据权利要求8所述的硬件节点,其中所述第一多功能单元、所述第二多功能单元和所述第三多功能单元中的每一个还包括:逐点加法块、逐点乘法块、S型块、双曲正切块和无操作块。
10.根据权利要求8所述的硬件节点,其中所述硬件节点还被配置为:在将所述第二结果传递给所述第三多功能单元之后,将所述第二结果传递给被耦合到所述流水线的输出队列。
11.根据权利要求8所述的硬件节点,其中所述第一类型指令包括矢量类型的指令,并且所述第二类型指令包括标量类型的指令。
12.根据权利要求8所述的硬件节点,其中所述第一类型指令包括存储指示符,所述存储指示符使得所述第一结果被存储在所述至少一个累加器寄存器中。
13.根据权利要求8所述的硬件节点,其中所述第二类型指令包括前向指示符,所述前向指示符使得所述第二结果被传递给所述流水线中的下一个单元。
14.根据权利要求8所述的硬件节点,其中所述第一类型指令和所述第二类型指令包括指令链。
15.一种硬件节点,包括:
全局寄存器;
被配置为处理指令的流水线,所述流水线包括:矩阵矢量单元,所述矩阵矢量单元包括至少一个累加器寄存器;第一多功能单元,其中所述第一多功能单元被连接以接收来自所述矩阵矢量单元的输入;第二多功能单元,其中所述第二多功能单元被连接以接收来自所述第一多功能单元的输出;以及第三多功能单元,其中所述第三多功能单元被连接以接收来自所述第二多功能单元的输出,其中所述第一多功能单元、所述第二多功能单元和所述第三多功能单元中的每一个还包括逐点加法和无操作块中的至少一个;以及
其中所述硬件节点还被配置为:
经由所述全局寄存器从输入队列接收第一类型指令,其中所述第一类型指令只能由所述矩阵矢量单元执行,并且由所述矩阵矢量单元执行所述第一类型指令并将所述第一类型指令的第一结果存储在所述至少一个累加器寄存器中,
经由所述全局寄存器从所述输入队列接收第二类型指令,其中所述第二类型指令只能由所述第一多功能单元、所述第二多功能单元或所述第三多功能单元中的至少一个执行,并且使用所述第一多功能单元执行所述第二类型指令,其中所述执行包括对至少所述第一类型指令的所述第一结果执行操作并生成第二结果,以及
在不将所述第一结果或所述第二结果存储在所述全局寄存器中的情况下,将所述第二结果传递给所述第二多功能单元并且之后将所述第二结果传递给所述第三多功能单元。
16.根据权利要求15所述的硬件节点,其中所述硬件节点还被配置为:在将所述第二结果传递给所述第三多功能单元之后,将所述第二结果传递给被耦合到所述流水线的输出队列。
17.根据权利要求15所述的硬件节点,其中所述第一类型指令包括矢量类型的指令,并且所述第二类型指令包括标量类型的指令。
18.根据权利要求15所述的硬件节点,其中所述第一类型指令包括存储指示符,所述存储指示符使得所述第一结果被存储在所述至少一个累加器寄存器中。
19.根据权利要求15所述的硬件节点,其中所述第二类型指令包括前向指示符,所述前向指示符使得所述第二结果被传递给所述流水线中的下一个单元。
20.根据权利要求15所述的硬件节点,其中所述第一类型指令和所述第二类型指令包括指令链。
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762465063P | 2017-02-28 | 2017-02-28 | |
US62/465,063 | 2017-02-28 | ||
US15/637,495 US11663450B2 (en) | 2017-02-28 | 2017-06-29 | Neural network processing with chained instructions |
US15/637,495 | 2017-06-29 | ||
PCT/US2018/017309 WO2018160330A1 (en) | 2017-02-28 | 2018-02-08 | Neural network processing with chained instructions |
CN201880013993.2A CN110352435B (zh) | 2017-02-28 | 2018-02-08 | 利用链接指令的神经网络处理 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201880013993.2A Division CN110352435B (zh) | 2017-02-28 | 2018-02-08 | 利用链接指令的神经网络处理 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117313812A true CN117313812A (zh) | 2023-12-29 |
Family
ID=63245365
Family Applications (7)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201880013993.2A Active CN110352435B (zh) | 2017-02-28 | 2018-02-08 | 利用链接指令的神经网络处理 |
CN201880013987.7A Active CN110352433B (zh) | 2017-02-28 | 2018-02-08 | 用于神经网络处理的具有矩阵-向量相乘区块的硬件节点 |
CN202311336698.XA Pending CN117313812A (zh) | 2017-02-28 | 2018-02-08 | 利用链接指令的神经网络处理 |
CN201880013991.3A Active CN110352434B (zh) | 2017-02-28 | 2018-02-08 | 一种用于评估与系统中的服务相对应的神经网络模型的方法及系统 |
CN202310524179.XA Pending CN116562349A (zh) | 2017-02-28 | 2018-02-08 | 用于神经网络处理的针对可编程硬件节点的多功能单元 |
CN201880013989.6A Active CN110325963B (zh) | 2017-02-28 | 2018-02-08 | 用于神经网络处理的针对可编程硬件节点的多功能单元 |
CN201880013746.2A Active CN110326003B (zh) | 2017-02-28 | 2018-02-22 | 用于神经网络处理的具有位置依赖存储器的硬件节点 |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201880013993.2A Active CN110352435B (zh) | 2017-02-28 | 2018-02-08 | 利用链接指令的神经网络处理 |
CN201880013987.7A Active CN110352433B (zh) | 2017-02-28 | 2018-02-08 | 用于神经网络处理的具有矩阵-向量相乘区块的硬件节点 |
Family Applications After (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201880013991.3A Active CN110352434B (zh) | 2017-02-28 | 2018-02-08 | 一种用于评估与系统中的服务相对应的神经网络模型的方法及系统 |
CN202310524179.XA Pending CN116562349A (zh) | 2017-02-28 | 2018-02-08 | 用于神经网络处理的针对可编程硬件节点的多功能单元 |
CN201880013989.6A Active CN110325963B (zh) | 2017-02-28 | 2018-02-08 | 用于神经网络处理的针对可编程硬件节点的多功能单元 |
CN201880013746.2A Active CN110326003B (zh) | 2017-02-28 | 2018-02-22 | 用于神经网络处理的具有位置依赖存储器的硬件节点 |
Country Status (4)
Country | Link |
---|---|
US (8) | US11132599B2 (zh) |
EP (6) | EP3566134B1 (zh) |
CN (7) | CN110352435B (zh) |
WO (5) | WO2018160331A1 (zh) |
Families Citing this family (91)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11216722B2 (en) * | 2016-12-31 | 2022-01-04 | Intel Corporation | Hardware accelerator template and design framework for implementing recurrent neural networks |
US11132599B2 (en) | 2017-02-28 | 2021-09-28 | Microsoft Technology Licensing, Llc | Multi-function unit for programmable hardware nodes for neural network processing |
KR102414583B1 (ko) * | 2017-03-23 | 2022-06-29 | 삼성전자주식회사 | 머신 러닝을 수행하는 전자 장치 및 머신 러닝 수행 방법 |
WO2018176000A1 (en) | 2017-03-23 | 2018-09-27 | DeepScale, Inc. | Data synthesis for autonomous control systems |
US11138494B2 (en) * | 2017-05-02 | 2021-10-05 | International Business Machines Corporation | Storage controller acceleration for neural network training and inference |
US10606672B2 (en) | 2017-05-04 | 2020-03-31 | Microsoft Technology Licensing, Llc | Micro-service framework derived from third-party apps |
CN109213962B (zh) * | 2017-07-07 | 2020-10-09 | 华为技术有限公司 | 运算加速器 |
US11893393B2 (en) | 2017-07-24 | 2024-02-06 | Tesla, Inc. | Computational array microprocessor system with hardware arbiter managing memory requests |
US11157441B2 (en) | 2017-07-24 | 2021-10-26 | Tesla, Inc. | Computational array microprocessor system using non-consecutive data formatting |
US10671349B2 (en) | 2017-07-24 | 2020-06-02 | Tesla, Inc. | Accelerated mathematical engine |
US11409692B2 (en) | 2017-07-24 | 2022-08-09 | Tesla, Inc. | Vector computational unit |
TWI779069B (zh) | 2017-07-30 | 2022-10-01 | 埃拉德 希提 | 具有以記憶體為基礎的分散式處理器架構的記憶體晶片 |
US12020141B2 (en) * | 2017-08-17 | 2024-06-25 | Deepx Co., Ltd. | Deep learning apparatus for ANN having pipeline architecture |
US10963780B2 (en) | 2017-08-24 | 2021-03-30 | Google Llc | Yield improvements for three-dimensionally stacked neural network accelerators |
KR102477404B1 (ko) * | 2017-08-31 | 2022-12-13 | 캠브리콘 테크놀로지스 코퍼레이션 리미티드 | 칩 장치 및 관련 제품 |
US11114138B2 (en) | 2017-09-15 | 2021-09-07 | Groq, Inc. | Data structures with multiple read ports |
US11360934B1 (en) | 2017-09-15 | 2022-06-14 | Groq, Inc. | Tensor streaming processor architecture |
US11243880B1 (en) | 2017-09-15 | 2022-02-08 | Groq, Inc. | Processor architecture |
US11868804B1 (en) | 2019-11-18 | 2024-01-09 | Groq, Inc. | Processor instruction dispatch configuration |
US11170307B1 (en) | 2017-09-21 | 2021-11-09 | Groq, Inc. | Predictive model compiler for generating a statically scheduled binary with known resource constraints |
US10305766B1 (en) * | 2017-11-07 | 2019-05-28 | Amazon Technologies, Inc. | Coexistence-insensitive presence detection |
US10217346B1 (en) | 2017-11-07 | 2019-02-26 | Amazon Technologies, Inc. | Presence detection with neural networks |
CN111542826A (zh) * | 2017-12-29 | 2020-08-14 | 斯佩罗设备公司 | 支持模拟协处理器的数字架构 |
US10802489B1 (en) | 2017-12-29 | 2020-10-13 | Apex Artificial Intelligence Industries, Inc. | Apparatus and method for monitoring and controlling of a neural network using another neural network implemented on one or more solid-state chips |
CN110045960B (zh) * | 2018-01-16 | 2022-02-18 | 腾讯科技(深圳)有限公司 | 基于芯片的指令集处理方法、装置及存储介质 |
US11561791B2 (en) | 2018-02-01 | 2023-01-24 | Tesla, Inc. | Vector computational unit receiving data elements in parallel from a last row of a computational array |
US10795678B2 (en) * | 2018-04-21 | 2020-10-06 | Microsoft Technology Licensing, Llc | Matrix vector multiplier with a vector register file comprising a multi-port memory |
US10705892B2 (en) | 2018-06-07 | 2020-07-07 | Microsoft Technology Licensing, Llc | Automatically generating conversational services from a computing application |
US11215999B2 (en) | 2018-06-20 | 2022-01-04 | Tesla, Inc. | Data pipeline and deep learning system for autonomous driving |
US11361457B2 (en) | 2018-07-20 | 2022-06-14 | Tesla, Inc. | Annotation cross-labeling for autonomous control systems |
US11636333B2 (en) | 2018-07-26 | 2023-04-25 | Tesla, Inc. | Optimizing neural network structures for embedded systems |
CA3053665A1 (en) * | 2018-08-30 | 2020-02-29 | Element Ai Inc. | Complex valued gating mechanisms |
US11562231B2 (en) | 2018-09-03 | 2023-01-24 | Tesla, Inc. | Neural networks for embedded devices |
WO2020055921A1 (en) | 2018-09-10 | 2020-03-19 | GigaIO Networks, Inc. | Methods and apparatus for high-speed data bus connection and fabric management |
CN109308520B (zh) * | 2018-09-26 | 2022-05-13 | 创新先进技术有限公司 | 实现softmax函数计算的FPGA电路及方法 |
US10834024B2 (en) * | 2018-09-28 | 2020-11-10 | International Business Machines Corporation | Selective multicast delivery on a bus-based interconnect |
SG11202103493QA (en) | 2018-10-11 | 2021-05-28 | Tesla Inc | Systems and methods for training machine models with augmented data |
US11196678B2 (en) | 2018-10-25 | 2021-12-07 | Tesla, Inc. | QOS manager for system on a chip communications |
CN109460925A (zh) * | 2018-11-14 | 2019-03-12 | 江苏电力信息技术有限公司 | 一种基于bp神经网络的台区资产组绩效评价方法 |
US11537687B2 (en) | 2018-11-19 | 2022-12-27 | Groq, Inc. | Spatial locality transform of matrices |
CN109543834B (zh) * | 2018-11-30 | 2021-08-31 | 上海寒武纪信息科技有限公司 | 运算方法、装置及相关产品 |
CN109558565B (zh) * | 2018-11-30 | 2023-04-07 | 上海寒武纪信息科技有限公司 | 运算方法、装置及相关产品 |
CN109543835B (zh) * | 2018-11-30 | 2021-06-25 | 上海寒武纪信息科技有限公司 | 运算方法、装置及相关产品 |
CN111382390B (zh) * | 2018-12-28 | 2022-08-12 | 上海寒武纪信息科技有限公司 | 运算方法、装置及相关产品 |
CN109558564B (zh) * | 2018-11-30 | 2022-03-11 | 上海寒武纪信息科技有限公司 | 运算方法、装置及相关产品 |
CN109583580B (zh) * | 2018-11-30 | 2021-08-03 | 上海寒武纪信息科技有限公司 | 运算方法、装置及相关产品 |
CN109543833B (zh) * | 2018-11-30 | 2021-08-03 | 上海寒武纪信息科技有限公司 | 运算方法、装置及相关产品 |
CN109543836B (zh) * | 2018-11-30 | 2021-08-03 | 上海寒武纪信息科技有限公司 | 运算方法、装置及相关产品 |
CN109542837B (zh) * | 2018-11-30 | 2023-03-24 | 上海寒武纪信息科技有限公司 | 运算方法、装置及相关产品 |
US11816585B2 (en) | 2018-12-03 | 2023-11-14 | Tesla, Inc. | Machine learning models operating at different frequencies for autonomous vehicles |
US11537811B2 (en) | 2018-12-04 | 2022-12-27 | Tesla, Inc. | Enhanced object detection for autonomous vehicles based on field view |
US11610117B2 (en) | 2018-12-27 | 2023-03-21 | Tesla, Inc. | System and method for adapting a neural network model on a hardware platform |
US11321606B2 (en) * | 2019-01-15 | 2022-05-03 | BigStream Solutions, Inc. | Systems, apparatus, methods, and architectures for a neural network workflow to generate a hardware accelerator |
US10997461B2 (en) | 2019-02-01 | 2021-05-04 | Tesla, Inc. | Generating ground truth for machine learning from time series elements |
US11150664B2 (en) | 2019-02-01 | 2021-10-19 | Tesla, Inc. | Predicting three-dimensional features for autonomous driving |
US11567514B2 (en) | 2019-02-11 | 2023-01-31 | Tesla, Inc. | Autonomous and user controlled vehicle summon to a target |
US11410014B2 (en) * | 2019-02-11 | 2022-08-09 | Apple Inc. | Customizable chip for AI applications |
US10956755B2 (en) | 2019-02-19 | 2021-03-23 | Tesla, Inc. | Estimating object properties using visual image data |
US11748599B2 (en) * | 2019-02-21 | 2023-09-05 | Texas Instruments Incorporated | Super-tiling in neural network processing to enable analytics at lower memory speed |
US11475102B2 (en) | 2019-02-21 | 2022-10-18 | Samsung Electronics Co., Ltd. | Adaptive matrix multiplication accelerator for machine learning and deep learning applications |
WO2021012215A1 (zh) * | 2019-07-24 | 2021-01-28 | 华为技术有限公司 | 神经网络切分方法、预测方法及相关装置 |
US20220269645A1 (en) * | 2019-08-13 | 2022-08-25 | Neuroblade Ltd. | Memory mat as a register file |
US11403247B2 (en) | 2019-09-10 | 2022-08-02 | GigaIO Networks, Inc. | Methods and apparatus for network interface fabric send/receive operations |
US10915811B1 (en) | 2019-09-18 | 2021-02-09 | International Business Machines Corporation | Intercalation cells for multi-task learning |
US11593288B2 (en) | 2019-10-02 | 2023-02-28 | GigalO Networks, Inc. | Methods and apparatus for fabric interface polling |
US11392528B2 (en) | 2019-10-25 | 2022-07-19 | Cigaio Networks, Inc. | Methods and apparatus for DMA engine descriptors for high speed data systems |
CN112749784B (zh) * | 2019-10-31 | 2024-05-14 | 华为技术有限公司 | 一种计算设备及神经网络的加速方法 |
US11367290B2 (en) | 2019-11-26 | 2022-06-21 | Apex Artificial Intelligence Industries, Inc. | Group of neural networks ensuring integrity |
EP4066170A4 (en) | 2019-11-26 | 2024-01-17 | Groq, Inc. | LOADING OPERANDS AND DELIVERING RESULTS FROM A MULTI-DIMENSIONAL ARRAY USING ONLY ONE SIDE |
US10956807B1 (en) | 2019-11-26 | 2021-03-23 | Apex Artificial Intelligence Industries, Inc. | Adaptive and interchangeable neural networks utilizing predicting information |
US10691133B1 (en) * | 2019-11-26 | 2020-06-23 | Apex Artificial Intelligence Industries, Inc. | Adaptive and interchangeable neural networks |
US11366434B2 (en) | 2019-11-26 | 2022-06-21 | Apex Artificial Intelligence Industries, Inc. | Adaptive and interchangeable neural networks |
CN111047017B (zh) * | 2019-12-18 | 2023-06-23 | 北京安兔兔科技有限公司 | 一种神经网络算法的评估方法、装置及电子设备 |
CN111027018B (zh) * | 2019-12-20 | 2023-03-31 | 支付宝(杭州)信息技术有限公司 | 加速计算设备建模的方法、装置、计算设备及介质 |
CN111145076B (zh) * | 2019-12-27 | 2023-04-07 | 深圳鲲云信息科技有限公司 | 数据并行化处理方法、系统、设备及存储介质 |
US11669443B2 (en) * | 2020-01-17 | 2023-06-06 | Alibaba Group Holding Limited | Data layout optimization on processing in memory architecture for executing neural network model |
US20210312266A1 (en) * | 2020-04-01 | 2021-10-07 | Microsoft Technology Licensing, Llc | Deep neural network accelerator with independent datapaths for simultaneous processing of different classes of operations |
CN111813338B (zh) * | 2020-06-30 | 2024-06-14 | 飞诺门阵(北京)科技有限公司 | 一种网络存储设备 |
US20220051086A1 (en) * | 2020-08-17 | 2022-02-17 | Alibaba Group Holding Limited | Vector accelerator for artificial intelligence and machine learning |
US20210216318A1 (en) * | 2020-08-28 | 2021-07-15 | Martin Langhammer | Vector Processor Architectures |
TWI777231B (zh) * | 2020-08-28 | 2022-09-11 | 國立中正大學 | 向量內積計算裝置 |
US11347652B2 (en) | 2020-08-31 | 2022-05-31 | Microsoft Technology Licensing, Llc | Banked memory architecture for multiple parallel datapath channels in an accelerator |
US11244718B1 (en) * | 2020-09-08 | 2022-02-08 | Alibaba Group Holding Limited | Control of NAND flash memory for al applications |
CN112032578B (zh) * | 2020-10-05 | 2022-05-31 | 中国石油大学(华东) | 一种管道中腐蚀点的参数测量方法及其设备 |
WO2022164652A1 (en) * | 2021-02-01 | 2022-08-04 | Microsoft Technology Licensing, Llc | Semi-programmable and reconfigurable co-accelerator for a deep neural network with normalization or non-linearity |
US11734214B2 (en) | 2021-02-01 | 2023-08-22 | Microsoft Technology Licensing, Llc | Semi-programmable and reconfigurable co-accelerator for a deep neural network with normalization or non-linearity |
CN112906887B (zh) * | 2021-02-20 | 2023-03-24 | 上海大学 | 稀疏gru神经网络加速的实现方法和装置 |
CN113012689B (zh) * | 2021-04-15 | 2023-04-07 | 成都爱旗科技有限公司 | 一种电子设备和深度学习硬件加速方法 |
CN113554149B (zh) * | 2021-06-18 | 2022-04-12 | 北京百度网讯科技有限公司 | 神经网络处理单元npu、神经网络的处理方法及其装置 |
US20230252337A1 (en) * | 2022-02-04 | 2023-08-10 | Rima Al Shikh | Systems and methods for generating processable data for machine learning applications |
CN115426265B (zh) * | 2022-11-02 | 2023-04-18 | 之江实验室 | 一种多模态网络下交换资源分配优化方法及装置、介质 |
Family Cites Families (57)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5337395A (en) | 1991-04-08 | 1994-08-09 | International Business Machines Corporation | SPIN: a sequential pipeline neurocomputer |
US5216751A (en) | 1990-10-22 | 1993-06-01 | Motorola, Inc. | Digital processing element in an artificial neural network |
US5517596A (en) | 1991-05-17 | 1996-05-14 | International Business Machines Corporation | Learning machine synapse processor system apparatus |
US5471626A (en) | 1992-05-06 | 1995-11-28 | International Business Machines Corporation | Variable stage entry/exit instruction pipeline |
JP2572522B2 (ja) | 1992-05-12 | 1997-01-16 | インターナショナル・ビジネス・マシーンズ・コーポレイション | コンピューティング装置 |
US5630082A (en) * | 1993-10-29 | 1997-05-13 | Advanced Micro Devices, Inc. | Apparatus and method for instruction queue scanning |
US5930492A (en) * | 1997-03-19 | 1999-07-27 | Advanced Micro Devices, Inc. | Rapid pipeline control using a control word and a steering word |
US6249857B1 (en) * | 1997-10-20 | 2001-06-19 | Motorola, Inc. | Apparatus using a multiple instruction register logarithm based processor |
RU2131145C1 (ru) * | 1998-06-16 | 1999-05-27 | Закрытое акционерное общество Научно-технический центр "Модуль" | Нейропроцессор, устройство для вычисления функций насыщения, вычислительное устройство и сумматор |
US6292886B1 (en) | 1998-10-12 | 2001-09-18 | Intel Corporation | Scalar hardware for performing SIMD operations |
US6519683B2 (en) | 2000-12-29 | 2003-02-11 | Intel Corporation | System and method for instruction cache re-ordering |
US7302553B2 (en) * | 2003-01-23 | 2007-11-27 | International Business Machines Corporation | Apparatus, system and method for quickly determining an oldest instruction in a non-moving instruction queue |
US10572824B2 (en) | 2003-05-23 | 2020-02-25 | Ip Reservoir, Llc | System and method for low latency multi-functional pipeline with correlation logic and selectively activated/deactivated pipelined data processing engines |
US8443169B2 (en) | 2005-03-28 | 2013-05-14 | Gerald George Pechanek | Interconnection network connecting operation-configurable nodes according to one or more levels of adjacency in multiple dimensions of communication in a multi-processor and a neural processor |
US7299342B2 (en) | 2005-05-24 | 2007-11-20 | Coresonic Ab | Complex vector executing clustered SIMD micro-architecture DSP with accelerator coupled complex ALU paths each further including short multiplier/accumulator using two's complement |
US7533071B2 (en) | 2005-06-28 | 2009-05-12 | Neurosciences Research Foundation, Inc. | Neural modeling and brain-based devices using special purpose processor |
US8181003B2 (en) | 2008-05-29 | 2012-05-15 | Axis Semiconductor, Inc. | Instruction set design, control and communication in programmable microprocessor cores and the like |
DE102008036968A1 (de) | 2008-08-08 | 2010-02-11 | Endress + Hauser Gmbh + Co. Kg | Diagnoseverfahren eines Prozessautomatisierungssystem |
US8135941B2 (en) | 2008-09-19 | 2012-03-13 | International Business Machines Corporation | Vector morphing mechanism for multiple processor cores |
US8229209B2 (en) | 2008-12-26 | 2012-07-24 | Five Apes, Inc. | Neural network based pattern recognizer |
US9552206B2 (en) | 2010-11-18 | 2017-01-24 | Texas Instruments Incorporated | Integrated circuit with control node circuitry and processing circuitry |
WO2012138950A2 (en) | 2011-04-07 | 2012-10-11 | Via Technologies, Inc. | Conditional load instructions in an out-of-order execution microprocessor |
JP6120490B2 (ja) * | 2011-11-07 | 2017-04-26 | キヤノン株式会社 | 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム |
CN103226549B (zh) | 2012-01-31 | 2016-09-07 | 国际商业机器公司 | 对列车运行图的显示进行重构的方法和装置 |
US9075930B2 (en) | 2012-11-09 | 2015-07-07 | Xilinx, Inc. | Configurable embedded memory system |
US9477925B2 (en) | 2012-11-20 | 2016-10-25 | Microsoft Technology Licensing, Llc | Deep neural networks training for speech and pattern recognition |
CN103019656B (zh) | 2012-12-04 | 2016-04-27 | 中国科学院半导体研究所 | 可动态重构的多级并行单指令多数据阵列处理系统 |
US9507603B2 (en) * | 2013-03-09 | 2016-11-29 | Gerald George Pechanek | Methods and apparatus for signal flow graph pipelining that reduce storage of temporary variables |
US9747547B2 (en) | 2013-10-22 | 2017-08-29 | In2H2 | Hardware enhancements to radial basis function with restricted coulomb energy learning and/or k-Nearest Neighbor based neural network classifiers |
US10417554B2 (en) * | 2014-05-22 | 2019-09-17 | Lee J. Scheffler | Methods and systems for neural and cognitive processing |
US10032244B2 (en) | 2014-08-21 | 2018-07-24 | Intel Corporation | Method and apparatus for implementing a nearest neighbor search on a graphics processing unit (GPU) |
US10783900B2 (en) | 2014-10-03 | 2020-09-22 | Google Llc | Convolutional, long short-term memory, fully connected deep neural networks |
US20160124651A1 (en) * | 2014-11-03 | 2016-05-05 | Texas Instruments Incorporated | Method for performing random read access to a block of data using parallel lut read instruction in vector processors |
US11544214B2 (en) | 2015-02-02 | 2023-01-03 | Optimum Semiconductor Technologies, Inc. | Monolithic vector processor configured to operate on variable length vectors using a vector length register |
US20160267380A1 (en) | 2015-03-13 | 2016-09-15 | Nuance Communications, Inc. | Method and System for Training a Neural Network |
US10204301B2 (en) | 2015-03-18 | 2019-02-12 | International Business Machines Corporation | Implementing a neural network algorithm on a neurosynaptic substrate based on criteria related to the neurosynaptic substrate |
CN104915322B (zh) | 2015-06-09 | 2018-05-01 | 中国人民解放军国防科学技术大学 | 一种卷积神经网络硬件加速方法 |
EP3104309B1 (en) * | 2015-06-10 | 2020-04-01 | Samsung Electronics Co., Ltd. | Spiking neural network with reduced memory access and reduced in-network bandwidth consumption |
GB2539410B (en) * | 2015-06-15 | 2017-12-06 | Bluwireless Tech Ltd | Data processing |
US11755484B2 (en) | 2015-06-26 | 2023-09-12 | Microsoft Technology Licensing, Llc | Instruction block allocation |
US10540588B2 (en) | 2015-06-29 | 2020-01-21 | Microsoft Technology Licensing, Llc | Deep neural network processing on hardware accelerators with stacked memory |
US20160379109A1 (en) | 2015-06-29 | 2016-12-29 | Microsoft Technology Licensing, Llc | Convolutional neural networks on hardware accelerators |
US11275590B2 (en) | 2015-08-26 | 2022-03-15 | Huawei Technologies Co., Ltd. | Device and processing architecture for resolving execution pipeline dependencies without requiring no operation instructions in the instruction memory |
CN106485321B (zh) | 2015-10-08 | 2019-02-12 | 上海兆芯集成电路有限公司 | 具有架构神经网络执行单元的处理器 |
CN106127301B (zh) | 2016-01-16 | 2019-01-11 | 上海大学 | 一种随机神经网络硬件实现装置 |
CN109074845B (zh) * | 2016-03-23 | 2023-07-14 | Gsi 科技公司 | 存储器内矩阵乘法及其在神经网络中的使用 |
US10354168B2 (en) | 2016-04-11 | 2019-07-16 | A2Ia S.A.S. | Systems and methods for recognizing characters in digitized documents |
CN106156851B (zh) | 2016-06-24 | 2019-04-05 | 科大讯飞股份有限公司 | 面向深度学习业务的加速装置及方法 |
CN106228238B (zh) | 2016-07-27 | 2019-03-22 | 中国科学技术大学苏州研究院 | 现场可编程门阵列平台上加速深度学习算法的方法和系统 |
CN106250103A (zh) | 2016-08-04 | 2016-12-21 | 东南大学 | 一种卷积神经网络循环卷积计算数据重用的系统 |
US10175980B2 (en) * | 2016-10-27 | 2019-01-08 | Google Llc | Neural network compute tile |
US10362149B2 (en) * | 2016-12-30 | 2019-07-23 | Intel Corporation | Intelligent packet aggregation |
US11132599B2 (en) | 2017-02-28 | 2021-09-28 | Microsoft Technology Licensing, Llc | Multi-function unit for programmable hardware nodes for neural network processing |
US10127495B1 (en) | 2017-04-14 | 2018-11-13 | Rohan Bopardikar | Reducing the size of a neural network through reduction of the weight matrices |
US11113051B2 (en) * | 2017-04-28 | 2021-09-07 | Tenstorrent Inc. | Processing core with metadata actuated conditional graph execution |
CN107633842B (zh) * | 2017-06-12 | 2018-08-31 | 平安科技(深圳)有限公司 | 语音识别方法、装置、计算机设备及存储介质 |
US11593068B2 (en) | 2018-02-27 | 2023-02-28 | New York University | System, method, and apparatus for recurrent neural networks |
-
2017
- 2017-06-29 US US15/637,543 patent/US11132599B2/en active Active
- 2017-06-29 US US15/637,426 patent/US11144820B2/en active Active
- 2017-06-29 US US15/637,608 patent/US10140252B2/en active Active
- 2017-06-29 US US15/637,495 patent/US11663450B2/en active Active
- 2017-06-29 US US15/637,664 patent/US11157801B2/en active Active
-
2018
- 2018-02-08 WO PCT/US2018/017310 patent/WO2018160331A1/en unknown
- 2018-02-08 CN CN201880013993.2A patent/CN110352435B/zh active Active
- 2018-02-08 EP EP18706364.9A patent/EP3566134B1/en active Active
- 2018-02-08 CN CN201880013987.7A patent/CN110352433B/zh active Active
- 2018-02-08 EP EP18706932.3A patent/EP3566181B1/en active Active
- 2018-02-08 CN CN202311336698.XA patent/CN117313812A/zh active Pending
- 2018-02-08 WO PCT/US2018/017309 patent/WO2018160330A1/en unknown
- 2018-02-08 WO PCT/US2018/017311 patent/WO2018160332A1/en unknown
- 2018-02-08 WO PCT/US2018/017312 patent/WO2018160333A1/en unknown
- 2018-02-08 CN CN201880013991.3A patent/CN110352434B/zh active Active
- 2018-02-08 EP EP18709200.2A patent/EP3566183B1/en active Active
- 2018-02-08 EP EP22193457.3A patent/EP4120140A1/en active Pending
- 2018-02-08 CN CN202310524179.XA patent/CN116562349A/zh active Pending
- 2018-02-08 CN CN201880013989.6A patent/CN110325963B/zh active Active
- 2018-02-08 EP EP18706141.1A patent/EP3590077B1/en active Active
- 2018-02-22 WO PCT/US2018/019116 patent/WO2018160422A1/en unknown
- 2018-02-22 EP EP18709852.0A patent/EP3566184B1/en active Active
- 2018-02-22 CN CN201880013746.2A patent/CN110326003B/zh active Active
-
2021
- 2021-08-23 US US17/409,039 patent/US20210406657A1/en active Pending
- 2021-09-23 US US17/483,313 patent/US20220012577A1/en active Pending
-
2022
- 2022-08-08 US US17/883,283 patent/US20220391209A1/en active Pending
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110352435B (zh) | 利用链接指令的神经网络处理 | |
CN110998570B (zh) | 具有带有块浮点处理的矩阵矢量单元的硬件节点 | |
US20190325297A1 (en) | Neural network processor with a window expander circuit | |
CN115398395A (zh) | 具有用于同时处理不同类运算的独立数据路径的深度神经网络加速器 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |