CN110352433A - 用于神经网络处理的具有矩阵-向量相乘区块的硬件节点 - Google Patents

用于神经网络处理的具有矩阵-向量相乘区块的硬件节点 Download PDF

Info

Publication number
CN110352433A
CN110352433A CN201880013987.7A CN201880013987A CN110352433A CN 110352433 A CN110352433 A CN 110352433A CN 201880013987 A CN201880013987 A CN 201880013987A CN 110352433 A CN110352433 A CN 110352433A
Authority
CN
China
Prior art keywords
block
row
coefficient matrix
tree
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201880013987.7A
Other languages
English (en)
Other versions
CN110352433B (zh
Inventor
J·弗沃斯
E·S·钟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Technology Licensing LLC
Original Assignee
Microsoft Technology Licensing LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Technology Licensing LLC filed Critical Microsoft Technology Licensing LLC
Publication of CN110352433A publication Critical patent/CN110352433A/zh
Application granted granted Critical
Publication of CN110352433B publication Critical patent/CN110352433B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/30Arrangements for executing machine instructions, e.g. instruction decode
    • G06F9/30098Register arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/30Arrangements for executing machine instructions, e.g. instruction decode
    • G06F9/38Concurrent instruction execution, e.g. pipeline or look ahead
    • G06F9/3836Instruction issuing, e.g. dynamic instruction scheduling or out of order instruction execution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/30Arrangements for executing machine instructions, e.g. instruction decode
    • G06F9/38Concurrent instruction execution, e.g. pipeline or look ahead
    • G06F9/3867Concurrent instruction execution, e.g. pipeline or look ahead using instruction pipelines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • G06N3/0442Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03KPULSE TECHNIQUE
    • H03K19/00Logic circuits, i.e. having at least two inputs acting on one output; Inverting circuits
    • H03K19/02Logic circuits, i.e. having at least two inputs acting on one output; Inverting circuits using specified components
    • H03K19/173Logic circuits, i.e. having at least two inputs acting on one output; Inverting circuits using specified components using elementary logic circuits as components
    • H03K19/177Logic circuits, i.e. having at least two inputs acting on one output; Inverting circuits using specified components using elementary logic circuits as components arranged in matrix form
    • H03K19/1778Structural details for adapting physical parameters
    • H03K19/17796Structural details for adapting physical parameters for physical disposition of blocks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Neurology (AREA)
  • Mathematical Optimization (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Pure & Applied Mathematics (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Computer Hardware Design (AREA)
  • Advance Control (AREA)
  • Complex Calculations (AREA)
  • Multi Processors (AREA)
  • Logic Circuits (AREA)

Abstract

提供了用于神经网络处理的硬件和方法。提供了一种系统中的方法,系统包括多个节点,其中每个节点包括多个区块。方法包括接收N乘M系数矩阵,该N乘M系数矩阵被配置成控制神经网络模型。方法包括将N乘M系数矩阵的第一行和第二行存储在第一和第二片上存储器中,该第一和第二片上存储器被并入多个区块中的第一和第二区块内。方法包括使用第一计算单元来处理系数的第一行和第一组输入向量,该第一计算单元被并入多个区块中的第一区块内。方法包括使用第二计算单元来处理系数的第二行和第二组输入向量,该第二计算单元被并入多个区块中的第二区块内。

Description

用于神经网络处理的具有矩阵-向量相乘区块的硬件节点
背景技术
神经网络技术用于执行复杂的任务,诸如阅读理解、语言翻译或语音识别。虽然神经网络可以执行这种任务,但使用通用CPU或通用GPU进行部署是很昂贵的。另外,虽然GPU相对于CPU提供了增加的吞吐量,但它们具有较差的延时。
发明内容
在一个示例中,本公开涉及一种用于评估系统中的神经网络模型的方法,系统包括经由网络互连的多个节点,其中每个节点包括多个区块(tile)。方法可以包括经由入口树接收N乘M系数矩阵,其中N乘M系数矩阵被配置成控制神经网络模型,其中N是等于或大于8的整数并且M是等于或大于8整数。方法还可以包括:将N乘M系数矩阵的第一行存储在第一片上存储器中,并且将N乘M系数矩阵的第二行存储在第二片上存储器中,该第一片上存储器被并入多个区块中的第一区块内,该第二片上存储器被并入多个区块中的第二区块内。方法还可以包括:使用第一计算单元来处理经由入口树接收的N乘M系数矩阵的第一行和第一组输入向量,该第一计算单元被并入多个区块中的第一区块内。方法还可以包括:使用第二计算单元来处理经由入口树接收的N乘M系数矩阵的第二行和第二组输入向量,该第二计算单元被并入多个区块中的第二区块内。
在另一示例中,本公开涉及包括多个区块的硬件节点。硬件节点还可以包括入口树,该入口树被配置成接收N乘M系数矩阵,其中N乘M系数矩阵被配置成控制神经网络模型,其中N是等于或大于8的整数并且M是等于或大于8的整数。硬件节点还可以包括被并入多个区块中的第一区块内的第一片上存储器,其被配置成存储N乘M系数矩阵的第一行。硬件节点还可以包括被并入多个区块中的第二区块内的第二片上存储器,其被配置成存储N乘M系数矩阵的第二行。硬件节点还可以包括被并入多个区块中的第一区块内的第一计算单元,其被配置成处理经由入口树接收的N乘M系数矩阵的第一行和第一组输入向量。硬件节点还可以包括被并入多个区块中的第二区块内的第二计算单元,其被配置成处理经由入口树接收的N乘M系数矩阵的第二行和第二组输入向量。
在又一示例中,本公开涉及包括多个区块的硬件节点。硬件节点还可以包括入口树,入口树被配置成接收N乘M系数矩阵,其中N乘M系数矩阵被配置成控制神经网络模型,其中N是等于或大于8的整数并且M是等于或大于8的整数,并且其中入口树包括第一入口树寄存器,其扇出到第二入口树寄存器和第三入口树寄存器。硬件节点还可以包括被并入多个区块中的第一区块内的第一片上存储器,其被配置成存储N乘M系数矩阵的第一行。硬件节点还可以包括被并入多个区块中的第二区块内的第二片上存储器,其被配置成存储N乘M系数矩阵的第二行。硬件节点还可以包括被并入多个区块中的第一区块内的第一计算单元,其被配置成处理经由入口树接收的N乘M系数矩阵的第一行和第一组输入向量。硬件节点还可以包括被并入多个区块中的第二区块内的第二计算单元,其被配置成处理经由入口树接收的N乘M系数矩阵的第二行和第二组输入向量。
提供本发明内容是为了以简化的形式介绍一些构思,这些构思将在下面的具体实施方式中进一步描述。本发明内容不旨在标识所要求保护的主题的关键特征或必要特征,也不旨在用于限制所要求保护的主题的范围。
附图说明
本公开通过示例的方式说明,并且不限于附图,其中相同的附图标记指示类似的元件。附图中的元件是为了简单和清楚起见而图示的,并且不一定按比例绘制。
图1是根据一个示例的包括经由数据中心网络互连的节点的系统的框图;
图2是根据一个示例的包括分布式节点的系统的框图;
图3是根据一个示例的硬件节点的框图;
图4是根据一个示例的神经功能单元的框图;
图5A和图5B示出了根据另一示例的神经功能单元的框图;
图6示出了根据一个示例的用于执行神经网络处理的硬件节点(例如,FPGA)的框图;
图7示出了根据一个示例的用于执行神经网络处理的区块布置的框图;
图8示出了根据一个示例的处理元件的框图;
图9示出了包括区块矩阵的节点的示例实施方式;
图10示出了根据一个示例的多功能单元的框图;
图11示出了根据一个示例的神经网络评估的数据流图;
图12示出了根据一个示例的神经功能单元对指令链的示例处理;
图13示出了根据一个示例的用于神经网络评估的数据流图;
图14示出了根据一个示例的如何使用硬件节点(例如,FPGA)处理指令链的图;以及
图15示出了根据一个示例的用于评估神经网络的方法的流程图。
具体实施方式
本公开中公开的示例涉及使用用于实现基于神经网络的处理的系统、方法和组件。某些示例涉及深度神经网络(DNN)。DNN可以是用于深度学习的任何合适的神经网络。本公开中的附加示例涉及作为用于实现DNN或类似神经网络的节点的一部分而被包括的功能单元。可以使用现场可编程门阵列(FPGA)、专用集成电路(ASIC)、可擦除和/或复杂可编程逻辑器件(PLD)、可编程阵列逻辑(PAL)器件和通用阵列逻辑(GAL)的部分或组合来实现节点。图像文件可以用于配置或重新配置诸如FPGA的节点。可以经由网络链路或本地链路(例如,PCIe)从主机CPU递送图像文件或类似的文件或程序。被包括在图像文件中的信息可以用于编程节点的硬件块(例如,FPGA的逻辑块和可重新配置的互连)以实现期望的功能性。期望的功能性可以被实现以支持可以经由计算、联网和存储资源的组合(诸如经由数据中心或用于递送服务的其他基础设施)提供的任何服务。
在一个示例中,本公开涉及DNN,其包括多个节点(例如,FPGA)或这样的节点的组,这样的节点经由低延时网络彼此耦合。利用数百到数千个这种节点(例如,FPGA)的聚合平台可以有利地提供:(1)显著减少的、采用跨数十万节点的并行性的训练时间,(2)实现新的训练场景,诸如对实时数据的原位在线学习,以及(3)前所未有的尺度的训练模型,同时利用跨度数十万台服务器的超尺度数据中心中的、灵活且可互换的同类FPGA资源。在一个示例中,可以通过采用非常规的数据表示来获得这种优点,非常规的数据可以利用诸如FPGA的节点的架构。
所描述的各方面还可以在云计算环境中实现。云计算可以指用于实现对可配置计算资源的共享池的按需网络访问的模型。例如,可以在市场中采用云计算来提供对可配置计算资源的共享池的普遍且方便的按需访问。可配置计算资源的共享池可以经由虚拟化而被快速提供,并且以低管理工作量或低服务提供方交互而被发布,并且然后相应地被缩放。云计算模型可以包括各种特性,诸如,例如按需自助服务、广泛网络访问、资源池化、快速弹性、测量服务等。云计算模型可以用于暴露各种服务模型,诸如,例如硬件即服务(“HaaS”)、软件即服务(“SaaS”)、平台即服务(“PaaS”)和基础设施即服务(“IaaS”)。还可以使用不同的部署模型,诸如私有云、社区云、公共云、混合云等,来部署云计算模型。
可以使用本公开中描述的系统和节点来实现机器学习服务,诸如基于递归神经网络(RNN)、长短期存储器(LSTM)神经网络或门控递归单元(GRU)的机器学习服务。在一个示例中,可以将与服务相关的内容或其他信息(诸如单词、句子、图像、视频或其他这种内容/信息)转换成向量表示。向量表示可以对应于诸如RNN、LSTM或GRU的技术。可以在服务初始化之前离线训练深度学习模型,并且然后可以使用本公开中描述的系统和节点来部署深度学习模型。节点可以是硬件可编程逻辑器件,其可以被专门定制为执行在诸如DNN的神经网络的上下文中发生的操作类型。在一个示例中,神经网络模型的状态和用于控制模型的参数可以被固定到包括分布式硬件平台的节点的片上存储器。可以在服务启动时将神经网络模型固定(例如,预加载)到片上存储器,并且可以不改变片上存储器的内容,除非模型要求改变或者另一事件需要用模型重新加载片上存储器。因此,在该示例中,与其他布置不同,可以不从与硬件平台相关联的DRAM来访问神经网络模型,而是将其直接加载到硬件节点的片上存储器(例如,SRAM)中。跨分布式可编程逻辑块集(例如,FPGA资源)来固定模型可以允许节点(例如,FPGA)以全容量操作,并且这可以有利地改善与服务相关联的吞吐量和延时。作为示例,即使来自服务的单个请求也可以使得分布式节点集以全容量操作,并且从而以非常低的延时递送由服务的用户请求的结果。
在一个示例中,神经网络模型可以包括许多层,并且每个层可以被编码为权重的矩阵或向量,权重的矩阵或向量以经由神经网络的离线训练获得的系数或常数的形式表示。节点中的可编程硬件逻辑块可以处理矩阵或向量以执行各种运算,包括针对输入向量的相乘、相加和其他运算,该输入向量表示与服务有关的编码信息。在一个示例中,可以通过使用诸如图划分(partitioning)的技术来跨多个节点地划分和固定权重的矩阵或向量。作为该过程的一部分,大型神经网络可以被转换为中间表示(例如,图),并且然后中间表示可以被切分为较小的表示(例如,子图),并且与每个子图相对应的权重矩阵中的每个权重矩阵可以被固定到节点的片上存储器。在一个示例中,可以将模型转换为固定大小的矩阵和向量。以这种方式,节点的资源可以并行地对固定大小的矩阵和向量进行运算。
以LSTM为例,LSTM网络可以包括一系列重复的RNN层或其他类型的层。LSTM网络的每个层可以在给定的时间步长消耗输入,该输入例如是来自先前的时间步长的、层的状态,并且可以产生新的一组输出或状态。在使用LSTM的情况下,单个内容组块(chunk)可以被编码成单个向量或多个向量。作为示例,单词或单词的组合(例如,短语、语句或段落)可以被编码为单个向量。每个组块可以被编码到LSTM网络的单独层(例如,特定时间步长)中。可以使用一组等式来描述LSTM层,例如下面的等式:
it=σ(Wxixt+Whiht-1+Wcict-1+bi
ft=σ(Wxfxt+Whfht-1+Wcfct-1+bf)
ct=ftct-1ittanh(Wxcxt+Whcht-1+bc)
ot=σ(Wxoxt+Whoht-1+Wcoct+bo)
ht=ottanh(ct)
在该示例中,在每个LSTM层内部,可以使用向量运算(例如,点积、内积或向量加法)和非线性函数(例如,sigmoid、双曲线和正切)的组合来处理输入和隐藏状态。在某些情况下,大多数的计算密集的运算可能来自点积,其可以使用密集的矩阵-向量和矩阵-矩阵乘法例程来实现。在一个示例中,向量运算和非线性函数的处理可以并行执行。
图1是根据一个示例的包括经由数据中心网络110互连的节点的系统100的框图。例如,如图1中所示,多个节点102、104和106可以经由数据中心网络耦合。这样的节点可以被实例化并且用于使诸如LSTM网络的神经网络的多个层并行化。在一个示例中,每个节点可以被实现为服务器并且还可以包括至少一个硬件节点(例如,FPGA)。因此,节点102可以包括FPGA 122,节点104可以包括FPGA 124,并且节点106可以包括FPGA 126。FPGA可以经由基于光传输层协议的系统互连。在一个示例中,FPGA 122的第一实例可以经由传输链路132与FPGA 124的第一实例耦合,并且FPGA 122的第一实例还可以经由传输链路134与FPGA124的第二实例耦合。FPGA 124的第一实例可以经由传输链路136与FPGA 126的第一实例耦合,并且FPGA 124的第一实例还可以经由传输链路140与FPGA 126的第一实例耦合。类似地,FPGA 124的第二实例可以经由传输链路142与FPGA 126的第一实例耦合,并且FPGA 124的第二实例还可以经由传输链路138与FPGA 126的第二实例耦合。光传输层协议可以为FPGA提供经由数据中心网络110彼此传送或接收分组或其他这种数据的能力。FPGA也可以以其他配置互连。例如,FPGA 122的若干实例可以经由多个传输链路152耦合到FPGA 124的若干实例。类似地,FPGA 124的若干实例可以经由传输链路154耦合到FPGA 126的若干实例。虽然图1示出了包括FPGA的节点的特定数目和布置,但是可以存在更多或更少数目的、被不同地布置的节点。
图2是根据一个示例的包括分布式节点的系统200的框图。在该示例中,多个节点可以被实现为数据中心中的服务器机架。这些服务器中的每个服务器可以耦合到架顶式(TOR)交换机。虽然未被示出,但是其他机架也可以具有类似的配置。每个服务器可以包括至少一个节点或多个节点。每个节点可以包括服务器(例如,服务器204、服务器206或服务器208),并且每个服务器可以耦合到TOR交换机(例如,TOR交换机210)。服务器204可以包括主机组件,主机组件包括CPU,诸如CPU 214和CPU 216,CPU可以经由本地链路(例如,PCIe)220耦合到硬件节点(例如FPGA 218)。每个硬件节点也可以通过网络接口控制器222(例如,用于跨数据中心的网络基础设施进行通信)的方式进行耦合。图2中所示的系统可以允许节点对从TOR交换机或其他交换机接收(和/或发送到TOR交换机或其他交换机)的消息执行处理。使用该示例系统,各个节点可以直接向彼此发送包括分组的消息,并且因此这可以允许跨多个FPGA对甚至单个神经网络的划分,而不会引起不可接受的延时。对于通信,节点可以使用包括例如RDMA的轻量型协议。虽然图2示出了以特定方式布置的系统的特定数目的组件,但是可以存在更多或更少数目的、被不同地布置的组件。
还可以通过跨多个节点拆分神经权重来在神经网络的层内执行并行化。作为示例,单个RNN模型(例如,包括LSTM权重矩阵)可以被划分并且跨多个节点被固定。在该示例的实施方式中,RNN模型可以跨多个FPGA中的每个FPGA的存储器(例如,BRAM)分布。在该示例配置中,多级管线中的每个单独的FPGA可以将LSTM权重矩阵的一部分存储在快速片上存储器(例如,BRAM)中。这可以有利地得到高吞吐量和低延迟系统。在服务启动时,LSTM权重矩阵可以被分解成特定大小的矩阵(例如,N乘M矩阵,其中N和M中的每个是等于或大于8的整数),并且然后被加载到FPGA的片上存储器中。运行时管理层可以实现FPGA的分配、调度和管理。在一个示例中,每个节点可以被实现为基于一个或多个FPGA的附接有HaaS的、聚焦于LSTM的向量处理器。每个节点可以被设计为运行神经网络评估,作为附接有PCIe的FPGA或作为FPGA的HaaS池的一部分。
图3是根据一个示例的硬件节点300的框图。每个硬件节点300可以包括用于从其他节点接收消息的输入消息处理器(IMP)310和用于处理去往其他节点或组件的传出消息的输出消息处理器(OMP)340。每个节点还可以包括控制/标量处理器(CSP)320和神经功能单元(NFU)330。虽然未被示出,但是由节点接收的接收消息可以被存储在至少两个不同的队列中:(1)IMP到CSP辅助队列和(2)IMP到NFU数据队列。虽然未被示出,但是传出消息可以被存储在至少两个不同的队列中:(1)CSP到IMP辅助队列和(2)NFU到OMP数据队列。在该示例中,节点可以接受片外消息,片外消息包含诸如控制和标量数据的辅助信息和有效载荷数据(例如,向量、矩阵或其他张量数据结构)。辅助信息可以包括对有效载荷执行计算密集型运算的请求,并且然后以输出消息的形式返回结果。在该示例中,传入消息由轻量型输入消息处理器(IMP)310处置,其将辅助信息发送给控制/标量处理器(CSP)320(其可以是基于NIOS的控制处理器),并且将有效载荷数据(例如,输入张量)发送给神经功能单元(NFU)330,其可以被实施为矩阵-向量处理器。作为示例,CSP 320然后可以解释该请求,并且基于其固件,可以向NFU 330发送一系列指令。在一定的处理延时之后,NFU可以产生请求的结果,其可以在轻量型输出消息处理器(OMP)340中与由CSP 320产生的辅助数据组合,并且然后被发送到片外。CSP固件可以向NFU 330提供指令。示例指令的另外的细节作为指令集架构(ISA)的一部分被讨论。还可以执行针对CSP 320的固件的运行时重新加载。因此,在该示例中,架构主要是事件驱动的。输入消息可以从许多来源(包括通过网络)到达。IMP可以检查消息队列的头部,并且它可以使需要被执行的任何指令出列并且将其馈送通过系统。虽然图3示出了以特定方式布置的示例节点的特定数目的组件,但是可以存在更多或更少数目的、被不同地布置的组件。
在一个示例中,NFU可以被实现为矩阵-向量处理器,其被设计为向上缩放到大部分的FPGA的资源。在该示例中,NFU的主要硬件加速目标是:通过应用数千个乘法加法器,用其矩阵-向量单元(MVU)以高吞吐量和低延时执行矩阵-向量乘法。NFU可以接收系数矩阵(例如,常数),并且可以用于将这些系数与动态输入向量数据相乘。因此,代替将系数存储在对应于CPU/GPU的DRAM中,系数可以在服务启动时被预加载到对应于NFU的片上存储器(例如,FPGA的块随机存取存储器(BRAM))中。在一个示例中,除非正在被使用的神经网络模型被修改或服务被重新启动,否则系数一旦被加载就可能永远不会被重新加载。换言之,作为该示例的一部分,模型可以以分布式方式被划分并且被固定到多个节点(例如,FPGA)的片上存储器,这些节点以它们可以直接向彼此传送消息或分组而不依赖CPU资源的帮助的方式来连接。
在一个示例中,MVU可以是完全管线化的,并且可以能够在O(n)时间内执行O(n2)复杂度的矩阵-向量乘法,其性能为每秒4000-18000亿的定点运算。虽然矩阵-向量乘法可以表示评估LSTM层所需的绝大多数的定点运算,但评估还可以包含各种偏置向量的向量减缩、超越以及相加。NFU还可以实现经管线化的多功能单元(MFU),以在O(n)时间内处置这些O(n)复杂度的向量函数。这些MFU可以被组织成链式架构,其中MVU将数据传递给第一MFU,第一MFU将数据传递给第二MFU,等等。在NFU的一个示例实施方式中,可以使用1MVU和5个MFU。
基于观察到在向量和矩阵-向量运算花费大约相同的时间量来计算的架构中,向量函数可能潜在地支配LSTM评估时间,链式架构可以允许NFU采用单个矩阵-向量乘法和若干向量函数之间的大规模管线并行性。NFU的存储器子系统也可以被配置成支持高吞吐量。作为示例,存储器子系统可以支持高达1.8TB/s的矩阵值吞吐量,以及支持同时加载6个向量和存储6个向量。
图4示出了NFU 400的示例实施方式。NFU 400可以包括用于接收输入数据的输入队列(IQ)410和用于输出输出数据的输出队列(OQ)420。因此,NFU 400可以通过其输入队列(IQ)410引入外部向量和矩阵数据,并且通过其输出队列(OQ)420发出向量数据。NFU 400可以包括全局向量寄存器文件(GVRF)430,其用于提供集中位置,该集中位置可以用于存储向量数据。NFU 400可以包括矩阵-向量单元(MVU)440和5个多功能(MFU)(例如,MFU#0 450、MFU#1 460、MFU#2 470、MFU#3 480和MFU#4 490,如图4中所示)。MVU 440可以包括矩阵寄存器文件442,以用于存储可以在开始服务时被预加载的矩阵,该服务被节点支持。每个MFU还可以包括本地向量寄存器文件(LVRF)453,以用于存储针对对应的MFU的本地向量数据(例如,LVRF 452、LVRF 462、LVRF 472、LVRF 482和LVRF 492)。指令可以由NFU 400按顺序执行。一系列指令可以被配置成使得管线(包括例如一个MVU 440和5个MFU)并行地执行指令链。作为示例,输入向量数据可以使用MVU 440使用矩阵运算而被相乘,并且然后可以通过管线而被传递给输出队列420。经由图4中的两个虚线路径和一个实线路径,示出了NFU 400中的各种数据流可能性。稍后将提供链接指令的进一步的细节和示例。
示例NFU 400可以对向量和矩阵进行运算。向量是1D标量元素集,矩阵是2D标量元素集。可以使用下面的表1中的参数来设置元素、向量和矩阵的大小。
表1
某些参数(例如,如表1中所示)可以用于在设计时或之后配置NFU 400。在一个示例中,可以使用四个参数来配置NFU 400。第一参数可以是矩阵和向量元素的数据类型,尤其是单个元素的宽度(ELEM_WIDTH)。作为示例,在一个示例中,8位定点数据类型、16位定点数据类型、27位定点数据类型和32位浮点数据类型可以是数据类型集。NFU 400中的每个数据总线的宽度可以被配置为ELEM_WIDTH*LANES位;每个向量可以使用存储器中的ELEM_WIDTH*HWVEC_ELEMS位;并且每个矩阵可以使用存储器中的ELEM_WIDTH*HWVEC_ELEMS*HWVEC_ELEMS位。
第二参数可以是硬件向量大小(HWVEC_ELEMS)。在一个示例中,被存储在NFU 400内的所有向量可以具有等于HWVEC_ELEMS的固定数目的元素,并且所有向量指令可以接受HWVEC_ELEMS个元素作为输入和/或产生HWVEC_ELEMS个元素作为输出。另外,所有矩阵可以具有等于HWVEC_ELEMS的固定数目的元素。
许多应用可以具有其自己的算法维度,该算法维度可能与硬件向量大小不同。在这种情况下,程序员(或编译器)可以使用诸如矩阵分块的技术将高级别运算映射到硬件向量大小。作为示例,下面的表2示出了具有500×500矩阵大小和500元素向量大小的应用;但是,NFU 400的硬件向量大小为250。表2中所示的函数可以用于解决这种差异。
表2
第三参数可以是向量通道的数目(LANES),其描述了应当在每个MFU内并行运算多少元素。作为示例,假设存在HWVEC_ELEMS个区块,其中每个区块具有LANES个乘法加法器,则矩阵-向量单元(MVU)440内的并行运算的数目可以被定义为LANES*HWVEC_ELEMS。区块还被描述为与示例矩阵-向量单元(MVU)440相对应的描述的一部分。另外,对于LANES*ELEM_WIDTH位的总宽度,每个NFU数据总线(包括顶级别端口)可以每个周期携带LANES个向量元素。在一个示例中,LANES是HWVEC_ELEMS的整数因子以避免位填充,因为向量在LANES大小的组块中被运算并且它需要HWVEC_ELEMS/LANES周期来处理向量。
第四参数可以是矩阵寄存器文件的大小(NRF_SIZE),其在与NFU相对应的片上存储器(例如,快速片上BRAM(参见后面的描述))中存储给定数目的HWVEC_ELEMS×HWVEC_ELEMS矩阵。在一个示例中,节点上的存储器资源需求(例如,FPGA上的BRAM资源的数目)可以通过下面的一组公式导出(注意,ceil(x,y)将x舍入到最接近的y的倍数):
BRAMwidth=ceil(LANES*DATA_WIDTH,40)
关于存储器子系统,NFU 400可以将其内部存储装置跨三种主要类型的存储器分布。首先,矩阵寄存器文件可以用于在一系列快速片上随机存取存储器(例如,FPGA中的BRAM)中存储MRF_SIZE HWVEC_ELEMS×HWVECS_ELEMS矩阵。这些BRAM可以分布在整个矩阵向量单元中,并且每个BRAM可以每个周期提供LANES个矩阵元素,以获得HWVEC_ELEMS*LANES*ELEM_WIDTH位/周期的总片上矩阵吞吐量。在该示例中,可能需要O(HWVEC_ELEMS2)个周期来将矩阵存储到矩阵寄存器文件中;因为这种矩阵存储可以在预加载步骤中被执行,并且然后针对许多矩阵-向量乘法被分摊。
接下来,如图4中所示,全局向量寄存器文件(GVRF)430可以用作集中位置,程序员可以使用该集中位置来存储向量数据。GVRF的一个示例配置可以存储32个向量,并且可以在每个周期读取LANES个向量元素,同时还可以在每个周期写入LANES个向量元素。另外,NFU中的每个多功能单元可以具有其自己的本地向量寄存器文件(LVRF),其也可以在每个周期读取和写入LANES个向量元素。因此,在具有5个MFU的示例NFU中,总向量存储器带宽是12个单独的向量的、每个周期的6*LANES读取和6*LANES写入。该向量存储器架构被配置成支持将若干向量函数链接在一起,若干向量函数中一个向量函数可以从GVRF读取,若干向量函数中的每个向量函数可以读取和写入一个LVRF,并且若干向量函数中的一个向量函数可以写回GVRF。
NFU的矩阵-向量单元(MVU)440可以执行管线化的高吞吐量低延时矩阵-向量乘法。在一个示例中,MVU 440使用LANES*HWVEC_ELEMS个乘法器和加法器来实现该目标,并且其吞吐量可以被测量为每秒2*LANES*HWVEC_ELEMS*fmax个运算。在一个示例中,与依赖于向量批处理的通常的高吞吐量矩阵-向量乘法器不同,MVU 440一次接受一个向量到其管线中。
图5A和图5B示出了根据另一示例的神经功能单元(NFU)500的框图。NFU 500可以包括输入队列单元510、全局向量寄存器文件(VRF)520、矩阵向量相乘530和N个多功能单元(MFU)。作为示例,NFU 500可以包括MFU 0 540、MFU 1 560和MFU N-1 580.在该示例中,这些组件中的每个组件可以以管线方式连接。NFU 500还可以包括多路复用器和解多路复用器的布置,其可以用于控制通过NFU 500的向量、指令或其他数据的路由。例如,NFU 500可以包括多路复用器MUX 0 504、MUX 1 506、MUX 2 510和MUX 544,并且它还可以包括解多路复用器DEMUX 502、DEMUX 508、DEMUX 512、DEMUX 514和DEMUX 516。作为示例,解多路复用器DEMUX 502可以从输入队列单元510接收指令或数据,并且将其耦合到多路复用器MUX 0504或多路复用器MUX 1 506。这些备选耦合可以通过向解多路复用器提供控制信号来实现。控制信号可以由与NFU 500相关联的解码器生成。每个MFU可以包括局部向量寄存器文件(LOCAL VRF)542、加法块(+)546、乘法块(X)548、双曲正切函数块(TANH)550、sigmoid块(SIGM)552和无运算(NOP)块554,以及存储器管理功能性。虽然图5示出了以特定方式布置的特定数目的NFU 500的组件,但是可以存在以不同方式布置的、更多或更少数目的组件。
图6示出了根据一个示例的用于执行神经网络处理的硬件节点(例如,FPGA)600的框图。硬件节点600可以包括存储器元件(例如,块RAM)610的列和处理逻辑块(例如,数字信号处理器(DSP))622的列。可以配置小的BRAM和DSP的集以创建处理区块,例如,处理区块630。在图6的示例中,每个区块(例如,处理区块630)可以包括BRAM 632、634、636、638和640,其可以如图6所示地那样布置。每个处理区块630还可以包括处理逻辑块(例如,数字信号处理器(DSP))642、644、646、648、650和652,其可以如图6所示地那样布置。处理逻辑块可以用于将输入向量与一行权重相乘。可以使用加法器660将处理逻辑块的输出相加。因此,在该示例中,每个区块可以执行逐点点积运算。虽然图6示出了以特定方式布置的特定数目的硬件节点600的组件,但是可以存在更多或更少数目的、被不同地布置的组件。
图7示出了根据一个示例的用于执行神经网络处理的区块布置700的框图。如图7中所示,在该示例中,通过树广播将这些向量馈送到HWVEC_ELEMS个处理元件的阵列(例如,在图7中被称为区块)。因此,作为示例,经由向量入口702接收的向量可以被存储在图7中所示的入口树寄存器(REG)710中。接下来,向量可以扇出到两个或更多个寄存器(例如,入口树寄存器712和入口树寄存器714)。可以使用附加参数(FANOUT)来描述入口树中从每个节点扇出的连接的数目。处理元件(例如,区块722、724、726和728)可以处理向量,并且每个区块可以向出口移位寄存器(REG)(例如,出口移位寄存器742和出口移位寄存器744)提供输出。来自MVU的输出可以被移位出通过向量出口块750。处理元件(例如,区块)可以在每个周期执行LANES个乘法和LANES个加法。
MVU每个周期可以接受LANES个输入向量元素,并且在管线延时之后,每个周期发出对应的输出向量的LANES个元素。针对单个输入向量的延迟可以被定义为logFANOUT(HWVEC_ELEMS)+2*HWVEC_ELEMS/LANES,因为它需要logFANOUT(HWVEC_ELEMS)个周期来使数据渗透通过入口树,HWVEC_ELEMS/LANES个周期来计算输出,以及HWVEC_ELEMS/LANES个周期来发出向量通过出口管线。
每个处理元件(例如,区块)可以存储MRF_SIZE矩阵中的一行,并且使用其处理元件来计算向量和所选择的矩阵的单个行的点积。图8示出了根据一个示例的处理元件800的框图。在该示例中,处理元件可以被实现为针对向量的通用矩阵相乘(GEMV)区块810。每个处理元件800可以从入口树接收输入数据(例如,如图5中所示)并且将数据输出到出口管线(例如,如图7中所示)。每个处理元件可以包括用于存储向量数据的块RAM(例如,用于矩阵行1的BRAM 820)。在该示例中,每个处理元件(例如,GEMV区块)可以包括BRAM,该BRAM可以存储矩阵的行1并且处理该行中的向量数据。在一个示例中,处理元件可以使用处理块(例如,用于矩阵行1的PE 830)来计算向量数据和任何输入数据(例如,经由路径“来自入口树的输入数据”接收)之间的点积。可以经由路径“去往出口管线的输出数据”提供输出数据以用于进一步的处理。虽然图8示出了以特定方式布置的特定数目的GEMV区块810的组件,但是可以存在更多或更少数目的、被不同地布置的组件。
图9示出了包括区块矩阵的节点900的示例实施方式。在该示例实施方式中,使用具有252个区块的节点900处理252×252数据矩阵910。示例节点900可以经由输入队列920接收数据,输入队列920可以使用总线922耦合到广播块930。在该示例中,总线922的总线宽度可以是192位。广播块930可以经由各个总线耦合到SRAM块,以允许将经预训练的神经网络模型快速加载到节点900中。作为示例,图9示出了区块0 940、区块1 950和区块251 960。区块0 940可以经由192位总线932耦合到广播块930。区块1 950可以经由192位总线934耦合到广播块930。区块251 960可以经由192位总线936耦合到广播块930。每个区块可以包括对应的SRAM和点积单元。作为示例,区块0 940可以包括SRAM 942和点积单元944,它们可以使用192位总线946彼此耦合。区块1 950可以包括SRAM 952和点积单元954,它们可以使用192位总线956彼此耦合。区块251 960可以包括SRAM 962和点积单元964,它们可以使用192位总线966彼此耦合。每个SRAM可以存储权重矩阵的一行,其可以基于图9中所示的寻址方案而被存储。每个点积单元可以被实现为12输入点积单元。在服务启动时,经预训练的神经网络模型权重可以被流传输到FPGA的片上存储器(例如,图9中的SRAM)中并被固定成特定的布置,从而允许计算单元以非常高的吞吐量生成输出。在一个示例中,矩阵的每行可以表示一个神经元,并且该行中的每个列条目可以表示附接到该神经元的突触权重。以矩阵形式被存储的系数(例如,表示神经元)可以被预加载到与硬件节点相关联的SRAM或其他存储器中。在神经元不适合单个硬件节点(例如,FPGA)的情况下,可以将一部分神经元加载到第二硬件节点中,依此类推。在一个示例中,可以使用图划分技术来分布神经权重矩阵。使得表示神经权重矩阵的图可以被拆分成子图,然后可以将子图固定到不同的硬件节点的存储器中,不同的硬件节点可以使用轻量型传输协议或其他类型的协议彼此通信。硬件节点可以彼此直接通信,例如,使用经由图1和图2描述的架构和系统。
广播块930可以包括如之前关于图5所讨论的入口树。该示例示出了使用对固定大小的矩阵和向量进行运算的FPGA构建的架构。在该示例中,被支持的本机大小为252乘252方阵。在这些设计的其他参数化的实例中,可以使用其他形状和大小的矩阵。在该示例中,存在24个方阵,其可以被存储到片上存储器(例如,SRAM)中。因此,在该示例中,存在252个区块的阵列,并且每个区块是计算单元。每个SRAM可以在每个时钟周期从广播块接收192位,并且输出192位到12输入点积单元。这转换为以每个元素16位、在每个周期馈送12个元素。作为示例,对应于地址0(ADDR 0)的SRAM的行被配置成存储元素0-0到0-11,其是前12个元素。在ADDR 1存储另外12个元素,依此类推。该示例示出了在每个时钟周期馈送一行的多个元素的一种封装策略。在该示例中,SRAM仅使用21行(地址0到地址20),这足以存储整个方阵。在该示例中,可以将多达24个252乘252方阵封装到对应于节点900的片上存储器中。根据权重的数值精度,可以封装更少或更多的矩阵。作为示例,8位模式可以用于封装多达48个与16位模式相同大小的矩阵。实际上,还可以支持其他排列。
12-输入点积单元执行计算,因此,在该示例中,节点900包括向量乘法-加法树。作为示例,为了执行点积运算,可以在该行的每个元素与向量的每个元素之间执行逐元素对相乘,然后将其累加成一个累加变量。在图9中所示的示例中,区块中的每个区块负责计算矩阵的一行。在每个时钟周期,可以一次处理该矩阵中的12个元素。该示例对应于16位整数算术(例如,每个权重由16位表示),并且因此每个SRAM条目是512×192位。可以使用其他位大小,包括例如1位、2位、4位或8位,以表示对应于神经网络模式的权重。
图10示出了根据一个示例的多功能单元(MFU)1000的框图,其对应于例如之前关于图4描述的NFU。关于NFU的多功能单元(MFU),它们可以基于本地和/或外部数据执行若干向量函数。示例MFU实施方式可以支持逐点加法、乘法、sigmoid和双曲正切函数,以及传递和存储器管理功能性。在一个示例中,每个MFU可以以如下方式配置:MFU可以处置的每个指令类型所需的每个运算器(例如,用于执行运算的硬件块)被提供在每个MFU中,并且每个运算器沿着多个MFU的链接的路径被复制(例如,如图4中所示)。以这种方式链接的指令(稍后解释)可以被灵活地形成,而不必在链中规定或提供指令的位置。可以使用查找表来实现sigmoid和双曲正切。在一个示例中,对于所选择的函数,单个MFU可以在每个周期执行一定数目的运算(例如,由前面描述的LANES参数指定的运算),同时分别为加法/乘法和sigmoid/正切添加1到2个周期的延时。在该示例中,MFU 1000可以包括被配置成执行不同运算的硬件块。每个硬件块可以对值或操作数执行运算,该值或操作数从若干源(包括例如先前的MFU、MVU或GVRF)接收。中间值可以被存储在本地向量寄存器文件(LVRF)1010中。作为示例,一个硬件块1020可以执行加法运算。另一硬件块1030可以执行相乘运算。另一块1040可以执行正切(例如,TANH)运算。另一块1050可以执行sigmoid(SIGM)运算。又一块1060可以不执行运算(NOP)。各种硬件块的输出可以被提供给多路复用器1060。基于来自各种队列控制器或其他控制逻辑的一个控制信号或多个控制信号,多路复用器(MUX)可以提供输出,该输出可以耦合到管线中的下一MFU,或耦合到输出队列。在一个示例中,控制信号可以是从对应于神经功能单元(NFU)的指令解码器接收的信号。MUX的输出还可以耦合到LVRF 1010,以用于存储与示例MFU执行的各种运算相对应的中间值。在一个示例中,可以与管线相邻的控制处理器可以具有指令的队列,并且它可以将指令动态地写入NFU的各种组件的相关队列中。在执行指令时,它们可以扇出到独立的控制队列中,并且它们可以确定激活NFU的哪个部分。NFU的组件中的每个组件可以访问控制队列的头部,并且相应地执行例如相加、相乘、正切、sigmoid或NOP运算。控制队列可以不出列,直到所有向量已经穿过,并且然后控制队列可以传递到下一组件。虽然图10示出了以特定方式布置的特定数目的MFU1000的组件,但是可以存在更多或更少数目的、被不同地布置的组件。作为示例,MFU 1000可以包括用于执行其他运算的附加硬件块,其他运算诸如是softmax运算、整流线性单元(ReLU)运算、激活块运算等。
就与包括NFU的节点相关的一个示例指令集架构(ISA)而言,指令可以总是以程序顺序执行。另外,所有指令可以作用于本机大小HWVEC_ELEMS的向量和/或矩阵。ISA可以用于暴露分布式存储器系统和NFU管线中可用的大规模管线并行性。在一个示例中,可以通过将两个或更多个指令明确地标识为链的成员来利用该并行性。示例链可以使用矩阵-向量相乘、向量-向量相加和向量sigmoid的指令来配置跨度MVU和两个MFU的管线,以并行执行所有三个指令。在一个示例中,指令可以在以下情况下时具有作为链的资格:一系列相关指令;至多一个输入和至多一个输出需要全局存储器;所有其他参量仅依赖于中间值和本地存储器的内容,并且NFU的每个功能单元以管线顺序被使用并且最多被使用一次。
在一个示例中,程序可以被编译或构造成尝试将尽可能多的指令链接在一起以最大化性能。可以通过在第一指令的目的地参量中断言forward标志,并且通过在第二指令中断言接收标志代替源地址参量,来将一对指令链接在一起。链继续,直到指令没有断言forward,或者NFU中的所有功能单元已经在链中被使用。因此,在该示例中,以下是非法的:在一个指令中断言forward并且然后在下一指令中不断言接收(反之亦然)。
指令可以通过它们的资源要求而被映射到NFU的功能单元。例如,矩阵-向量相乘只能在矩阵-向量单元(MVU)中进行,而向量-向量相加只能在多功能单元(MFU)中进行。在该示例中,指令链必须以图4中所示的从左到右的管线顺序(输入队列(IQ)、MVU、然后是每个MFU、然后输出队列(OQ))使用NFU的功能单元。但是,在一个示例中,链可以从IQ、MVU或第一个MFU开始。最后,在该示例中,需要MFU的链中的第一指令将被映射到MFU 0,下一指令将使用MFU 1等。在该示例中,这很重要,因为由MFU指令使用的本地存储器由链中的该指令的深度来隐式设置,以用于存储和加载。
大多数指令可以采用相同的一般的一组参量:源、目的地和可选的第二源。可能还存在可以具体标识目标MFU的一些存储器管理指令,但是通常,从指令在链中的位置推断出将执行指令的MFU。每个源和目的地参量可以使用下面表3中的强类型中的一个。例如,DST参量意味着指令的输出可以被转发、全局存储或本地存储,而GDST参量只能被全局存储。在该示例中,只有采用GSRC的指令可以被附加到链中,并且只有提供DST的指令可以将数据在链中传递下去。
通常,大多数指令可以在链中被使用或以独立模式(全局源和全局目的地)被使用。但是,在该示例中,存储器管理指令(以VRF_开始的那些指令)不能在链内被使用,并且一些指令(V_PASS、V_STORE)只能在链内被使用。
表3
节点服务可以使用应用编程接口(API)与包括控制/标量处理器(CSP)和NFU的每个节点通信。API可以用于向NFU发送指令并且接受/制定对网络的请求/响应。节点服务可以从网络接收请求、利用来自请求的参量启动子例程,并且然后通过网络发送回响应。在该示例中,请求可以包括由CSP解释的节点报头以及被转发到NFU的有效载荷。同样,传出响应可以具有节点报头和(可选的)有效载荷。
针对节点的编程模型可以允许子例程占用多达30个运行时参量。这些参量可以通过节点报头作为“辅助数据”被传递到子例程中。在一个示例中,可以保留Aux[0]以用于选择子例程。在一个示例中,对于运行时参量的一个常见用途是针对给定LSTM评估设置迭代次数。每个子例程可以是执行矩阵和向量运算的一系列API调用。这些API调用中的每个API调用可以对应于NFU指令,并且当CSP遇到这些API调用中的一个API调用时,它可以将该指令发送到NFU。在一个示例中,所有指令可以作用于维度为HWVEC_ELEMS的向量和维度为HWVEC_ELEMS×HWVECV_ELEMS的矩阵。一组协助函数(如下面的表4所示)可以用于在参量中设置适当的位字段:
表4
另外,可以使用三个协助常数,如下面的表5中所示:
NEXT 仅设置DST的forward标志
PREV 仅设置GSRC的receive标志
ACC 仅设置DST的store标志(仅与mv_mul API一起使用)
表5
子例程中的一个子例程可以是环回,其将向量从输入队列取到NFU中并将其存储在全局存储器中,然后从全局存储器读取它并将其发送出NFU通过输出队列。示例环回子例程如下面的表6中所示:
表6
可以通过在将输入向量发送回之前,对输入向量执行逐元素的sigmoid来扩展环回示例。实现此的一种方式是在独立模式下调用输入向量、sigmoid和输出向量API,如下面的表7中所示:
表7
上面的表7中的示例没有使用任何指令链接,但是可以通过将所有三个运算链接在一起来实现更高的性能。为了实现链接,对输入队列、执行sigmoid的MFU和输出队列之间的数据流进行分析。关于图4中的示例NFU,链需要将数据传递通过管线中的MVU和其他4个MFU。链接使用较少的周期,因为,作为示例,它避免了进行通过全局存储器的多次往返,这在时间消耗方面可能是昂贵的操作。下面的表8示出了使用链接优化的子例程的一个示例。
表8
第二种方法使用更多的指令,但也以显著更少的周期执行。注意,第二种方法在初始使用后丢弃输入向量和输出向量。如果需要存储这些值以供之后的使用,则可以使用表9中的子例程4。
表9
用于将两个向量相加的过程建立在用于获取向量的sigmoid的过程上。主要区别在于相加需要第二输入向量,在一个示例中,该第二输入向量必须始终来源于执行该相加的MFU的本地存储器。在该示例中,如果第二操作数尚未存在于本地存储器中,则需要另一指令(例如,vrf_g_I_copy)将其放置在本地存储器中。假设表9的子例程4已经执行并且已经在全局地址0中存储了一个向量,并且在MFU 0的本地地址中的该向量的sigmoid是0,则下面的API调用会将这两个向量相加在一起,并将结果存储回全局存储器中。
表10
如前面所讨论的,被使用处理组件的程序使用的任何矩阵在启动时被预加载,因为在该示例中,需要O(HWVEC_ELEMS2)个周期来存储来自节点外部的矩阵,而每个其他运算需要O(HWVEC_ELEMS)个循环。还可能需要预加载一组偏置向量,其在整个执行期间保持恒定。以下示例子例程将两个权重矩阵存储在矩阵存储器(MVU内的矩阵寄存器文件)中。然后它加载两个偏置向量,一个放入MFU 1的本地存储器中,一个放入MFU 2中。
表11
通过使用具有指令链接的示例子例程,可以提高向量加载的性能,如下面的表12中所示。
表12
在预加载矩阵和向量之后,表13是说明执行v_out=(m[0]*v_in[2]+m[1]*v_in[3]+v_in[0])*v_in[1]的示例子例程的示例。因此,在该示例中,假设已经调用子例程6来预加载m[0]、m[1]、v_in[0]和v_in[1]。
表13
在一个示例中,MVU特征可以用于优化表13的子例程8的资源利用,其使用MFU 0对两个mv_mul()结果进行累加。MVU允许将矩阵-向量乘法的结果保持在其累加寄存器中而不是将向量输出。如果针对mv_mul启用了该特征(通过断言store标志),则下一mv_mul的结果将与第一个的结果累加。在该示例中,为了使该优化工作,如下面的表14中所示,可以调整子例程6以在MFU 0和MFU 1中存储v_in[0]和v_in[1]。下面的表15示出了使用链接的优化的矩阵-向量子例程。
表14
表15
通过使用编码和编译器技术,可以对子例程进行附加的改进,该编码和编译器技术避免经硬编码的地址,并且用具有良好命名的常量来暴露地址的意图。另外,可以提供typedef,以分别利用VectorNum、Matrix和MFU标识向量、矩阵和MFU地址。为确保编码的一致性,可以使用下面的表16中所示的样式:
表16
在该示例中,下面的表17中所示的某些地址必须被设置为节点的分布式存储器中的物理地址:
1. const VectorNum b_0=0;
2. const VectorNum b_1=1;
3. const VectorNum mfu0_b_0=0;
4. const VectorNum mfu0_b_1=1;
5. const Matrix m0=0;
6. const Matrix m1=1;
7. const MFU mfu0=0;
8. const MFU mfu1=1;
9. const MFU mfu2=2;
10. const MFU mfu3=3;
11. const MFU mfu4=4;
表17
作为示例,用于具有CSP和NFU的节点的LSTM评估程序可以包括预加载步骤,之后是评估的若干次迭代,直到输出被创建。因此,在该示例中,首先,预加载步骤跨NFU的分布式存储器存储评估所需的权重矩阵和偏置向量。接下来,对于评估的每次迭代,输入向量到达并且通过越来越长的指令链被处理,直到输出被创建。
图11示出了根据一个示例的用于神经网络评估的数据流图1100。在该示例中,在高级别,一个输入向量(IQ_V)被加载并且与两个权重矩阵相乘(MV_MUL 1和4)。历史向量也与另外两个权重矩阵相乘(MV_MUL 2和3)。接下来,将一对输入/历史结果累加在一起,另外一对输入/历史结果也是如此(VV_ADD 1和3)。之后,每个和向量与偏置向量相加(VV_ADD 2和4),然后被应用于sigmoid(V_SIGM 1和2)。然后将sigmoid结果相乘在一起,并且结果是最终的输出(VV_MUL和OQ_V)。
对该数据流图的依赖性分析示出了存在4条指令链的机会。可以使用编译器或类似的工具来执行依赖性分析。例如,链A(经由图11中的虚线示出)从输入队列获取其向量输入、将该向量存储在GVRF中、并且然后使用它与本地存储器中的矩阵执行MV_MUL 1。MV_MUL的结果也被存储在本地存储器中。在该示例中,链B(经由图11中的虚线示出)可以紧跟链A通过管线,因为它从全局存储器获取一个输入(历史向量)、从本地存储器获取矩阵以进行MV_MUL 2、与本地存储器中的预加载的偏置向量相加以进行VV_ADD 1,并且与被本地存储的MV_MUL 1的结果相加以进行VV_ADD 2,并且对VV_ADD 2的结果执行V_SIGM 1。V_SIGM的结果也被存储在本地存储器中,以有助于链D(经由图11中的虚线示出)。
来自图11的示例数据流图可以在以下的示例子例程中、以优化的方式实现,示例子例程包括用于LSTM初始化的子例程11和用于LSTM评估的子例程12。
表18
表19
图12示出了根据一个示例的神经功能单元对指令链的示例处理1200。另外,参考图12,其示出了子例程12的总执行时间的近似图。如前面所解释的,在指令链(链A-D)被控制处理器(例如,图3的控制/标量处理器)映射之后,指令以管线化方式从左到右地(例如,在图4中所示的包括MVU和5个MFU的管线)被处理。因此,链A包括在输入向量被加载到对应于MVU的矩阵寄存器文件之后对MV_MUL1指令的处理。链B包括MVU和MFU0对指令MV_MUL2和W_ADD1的并行处理。同时,使用例如MFU1和MFU2处理W_ADD2和V_SIGM1。链C(其仅包括一个指令MV_MUL3)由MVU处理。最后,链D由整个管线处理。MVU同时处理MV_MUL4和W_ADD3,并且MFU并行地处理链D中的其余指令,包括两个指令V_PASS,其仅将从先前的MFU接收到的输入传递到下一MFU或输出队列(OQ)。在该示例中,总执行时间主要由MV_MUL指令驱动,而其他向量运算都被管线化到MV_MUL。并且W_ADD 1和W_ADD3在MVU的累加寄存器内进行。
在另一LSTM实施方式中,在由NFU处理向量数据和标量数据之前执行两个附加步骤。第一,使用循环以针对由每个请求提供的迭代的次数展开LSTM。第二,使用矩阵分块以将算法矩阵和向量大小映射到可以具有不同的本机大小的处理器。在该示例中,我们具有250的HWVEC_ELEMS,而算法输入向量的大小为200,其余算法向量的大小为500,算法输入矩阵为500×200,并且算法历史矩阵为500×500。因此,输入矩阵-向量相乘被分块为两个MV_MUL()调用(使用一些零填充),而历史矩阵-向量相乘被分块为四个MV_MUL()调用和两个VV_ADD()调用。
作为该示例的一部分,存在三个子例程:一个用以初始化一组矩阵,一个用以初始化偏置向量,并且一个用以对一组向量执行LSTM评估。作为示例,在启动时,一个使用场景将是调用对8个矩阵的矩阵初始化(例如,表20中的子例程13)三次,以加载24个矩阵,然后调用偏置向量初始化(例如,表21中的子例程14)一次。然后,在该示例中,在运行时,将针对每个查询调用LSTM评估(例如,表22中的子例程15)。
表20
表21
表22
虽然上述子例程示例提供了用以说明各种实施例的相应的指令集,但是相应的指令集可以包括更多或更少的指令。另外,这些指令可以以不同的顺序执行。另外,虽然描述了用于配置或控制节点的各个方面和由节点进行的处理的若干参数,但是这些参数仅是示例。附加的或更少的参数可以与本公开中讨论的示例的不同版本一起使用。
图13示出了根据一个示例的用于神经网络评估的数据流图1300。数据流图1300包括四个指令链:链1、链2、链3和链4。链1包括在运行时输入向量(例如,X)和对应于神经网络模型的权重(例如,W_xi,其可以对应于神经网络模型)之间执行矩阵相乘运算。链1还包括在输入向量的过去值(例如,H_PREV)和历史权重(例如,W_hi)之间执行矩阵相乘运算。可以使用向量的逐点相加对乘法输出进行相加。接下来,作为链1的一部分,可以执行sigmoid运算。作为链2的一部分,可以在遗忘门权重矩阵(例如,W_xf)和运行时输入向量(例如,X)之间执行矩阵相乘运算。链2还包括在输入向量的过去值(例如,H_PREV)和历史遗忘门权重矩阵(例如,W_hf)之间执行矩阵相乘运算。可以使用向量的逐点相加对乘法输出进行相加。接下来,作为链2的一部分,偏置输入向量(例如,b_i)可以与加法运算的输出相加。接下来,作为链2的一部分,可以执行sigmoid运算。现在转向链3,作为链3的一部分,可以在单元门权重矩阵(例如,W_xc)和运行时输入向量(例如,X)之间执行矩阵相乘运算。链3还包括在输入向量的过去值(例如,H_PREV)和历史单元门权重矩阵(例如,W_hc)之间执行矩阵相乘运算。可以使用向量的逐点相加对乘法输出进行相加。接下来,作为链3的一部分,偏置单元门向量(例如,b_c)可以与加法运算的输出相加。接下来,作为链3的一部分,可以执行双曲线函数运算。关于链4,可以在输出门权重矩阵(例如,W_xo)和运行时输入向量(例如,X)之间执行矩阵相乘运算。链4还包括在输入向量的过去值(例如,H_PREV)和历史输出门权重矩阵(例如,W_ho)之间执行矩阵相乘运算。可以使用向量的逐点相加对乘法输出进行相加。接下来,作为链4的一部分,可以将偏置输出门向量(例如,b_o)与加法运算的输出相加。接下来,作为链4的一部分,可以执行sigmoid运算。可以对四个链的输出执行附加运算。尽管图13示出了使用特定数目的链执行的特定数目的运算,但是可以使用不同数目的链来执行附加的或更少的运算。
图14示出了根据一个示例的如何使用硬件节点(例如,FPGA)处理指令链的图。可以使用与前面描述的硬件节点相对应的架构来实现示例处理1400。如经由处理方面1410所示,控制处理器(例如,图3的控制/标量处理器320)可以被配置成接收和解码从队列接收的指令。作为处理方面1410的一部分,所接收的指令被处理,使得它们扇出到独立的控制队列中,诸如图14中所示的作为框1410的一部分的各种队列。在一个示例中,独立控制队列可以确定神经功能单元的哪个部分(例如,前面描述的NFU中的任一个)被激活。处理单元中的每个处理单元(包括MVU和MFU)将看到与该单元相关联的控制队列的头部。在该示例中,具有用于各种处理元件的独立控制队列可以允许在一个链的输入不依赖于来自另一链的输出的程度上并行地处理指令链。另外,关于MFU,将基于由相应的控制队列发起的相应的控制信号来激活各种多路复用器、控制门或其他类似结构。作为示例,当控制输入去往MFU的加法块的多路复用器被允许以传递通过输入时,MFU的加法块可以经由被输入到硬件节点的比特流来接收输入。在一个示例中,比特流可以表示查找表的内容及其连接。将数据输入到加法块的队列可以不被出列,直到所有向量都已通过。在执行相应的链期间生成的中间输出可以被存储在与相关的MVU或MFU相对应的本地向量寄存器文件中。然后,来自相应的链的后续指令可以获取该值以进行进一步消耗。大多数指令可以包括一组参量:源、目的地和可选的第二源。每个源和目的地参量可以使用前面描述的表4中的一种参量类型。作为示例,DST参量意味着指令的输出可以被转发、全局存储或本地存储,而GDST参量意味着指令的输出只能被全局存储(例如,作为相关的GVRF寄存器的一部分)。在一个示例中,只有可以从GSRC获取输入的那些指令才可以被附加到链,并且只有可以提供DST参量的那些指令可以将数据传递下去到另一链。
参考图14中所示的示例,在与决策框1420处的指令相关联的操作码被解码之后,则可以确定该指令是以哪个目标功能单元为目标。如果指令以输入队列(IQ_V(框1412))为目标,并且参量是DST(框1422),则硬件节点逻辑可以通过输入队列进入DST而将下一向量移动到NFU中(框1424)。如果与指令相关联的参量是GDST(全局DST),则可以根据与GDST相关联的地址将下一向量移动到全局寄存器中。如果与指令相关联的参量是LDST(本地DST),则可以根据与LDST相关联的地址将下一向量移动到本地寄存器中。如果与指令相关联的参量是FGDST,则可以根据与FGDST相关联的地址将下一向量移动到全局寄存器中。
继续参考图14,如果指令以矩阵-向量乘法单元(MVU)为目标(例如,MV_MUL(框1414)),则与硬件节点相关联的逻辑可以采取与矩阵相乘相关联的步骤,该矩阵从寄存器或指定地址获得。MV_MUL指令可以包括将在MSRC处的矩阵与来自GSRC的向量相乘并将其递送给DST。本地存储可以在累加寄存器中进行,并且与转发互斥。关于向量数据的源,作为框1432的一部分,与硬件节点相关联的逻辑可以确定数据的源是GSRC还是来自另一矩阵乘法运算的输出(框1438)。取决于源,可以将向量数据提供给MVU。备选地,如果向量数据的源是特定地址(例如,OP#2X21(框1436)),则可以从该源加载向量数据并将其提供给MVU。另外,关于向量数据的目的地,如果与指令相关联的参量是GDST(全局DST),则可以根据与GDST相关联的地址将下一向量移动到全局寄存器中。中间结果可以被本地存储在累加器(ACC)中。有利地,在一个示例中,结果不被存储为中间结果,而是它们可以被直接转发到下一MVU(如框1440中所示)。如果与指令相关联的参量是FGDST,则可以根据与FGDST相关联的地址将下一向量移动到全局寄存器中。
仍然参考图14,如果指令是sigmoid运算(V_SIGM(框1416))并且因此它以MFU中的一个MFU为目标,则与硬件节点相关联的逻辑可以确定以MFU中的哪一个MFU(例如,MFU#0、MFU#1、MFU#2、MFU#3或MFU#4)为目标(框1452)。在该示例中,如图14中所示,该指令以MFU#0为目标来进行sigmoid运算。作为框1460的一部分,可以通过与硬件节点相关联的逻辑来进行附加处理。作为示例,在框1462处,与硬件节点相关联的逻辑可以确定数据的源是GSRC还是来自另一源的输出(框1438)。取决于源,可以从GSRC或其他源提供向量数据(框1466)。可以对向量数据(例如,从GSRC获得的)执行逐点sigmoid运算并将其递送到DST。在框1464处,与硬件节点相关联的逻辑可以确定输出的目的地。可以向框1468中列出的目的地中的任一个提供数据。尽管图14示出了与以特定方式链接的指令有关的特定的一系列动作,但是可以执行其他动作。另外,数据可以从图14中描述的之外的其他源获得,并且可以被提供给图14中描述的之外的其他目的地。
图15示出了根据一个示例的用于评估神经网络的方法的流程图1500。在一个示例中,可以使用之前描述的系统和节点来执行该方法。作为示例,方法可以包括评估系统中的神经网络模型,该系统包括经由网络互连的多个节点,其中每个节点可以包括多个区块。在一个示例中,节点可以是之前描述的任何节点。例如,每个节点可以包括关于图1至图10描述的组件。区块可以是关于图8和图9描述的区块。作为示例,片上存储器可以对应于关于图6和图9描述的SRAM。计算单元可以对应于关于图6和图9描述的12-输入点积单元。方法可以包括以下步骤(例如,步骤1510):该步骤包括经由入口树接收N乘M系数矩阵,其中N乘M系数矩阵被配置成控制神经网络模型,其中N是等于或大于8的整数,并且M是等于或大于8的整数。作为示例,可以经由关于图1描述的数据中心网络和关于图2描述的接口来接收系数。
方法还可以包括以下步骤(例如,步骤1520):该步骤包括将N乘M系数矩阵的第一行存储在第一片上存储器中,并且将N乘M系数矩阵的第二行存储在第二片上存储器中,该第一片上存储器被并入多个区块中的第一区块内,该第二片上存储器被并入多个区块中的第二区块内。将系数存储到片上存储器中可以包括:将系数加载到之前关于图6和图9描述的SRAM(或BRAM)中。
下一步骤(例如,步骤1530)可以包括:使用第一计算单元来处理经由入口树接收的N乘M系数矩阵的第一行和第一组输入向量,该第一计算单元被并入多个区块中的第一区块内。计算单元可以是之前描述的点积单元。N乘M系数矩阵可以包括对应于神经网络模型的权重。第一组输入向量和第二组输入向量中的每组输入向量包括输入向量的运行时值和输入向量的过去值,如之前关于神经网络模型的评估所描述的。
下一步骤(例如,步骤1540)可以包括:使用第二计算单元来处理经由入口树接收的N乘M系数矩阵的第二行和第二组输入向量,该第二计算单元被并入多个区块中的第二区块内。计算单元可以是之前描述的点积单元。N乘M系数矩阵可以包括对应于神经网络模型的权重。第一组输入向量和第二组输入向量中的每组输入向量包括输入向量的运行时值和输入向量的过去值,如之前关于神经网络模型的评估所描述的。
总之,本公开涉及一种用于评估系统中的神经网络模型的方法,该系统包括经由网络互连的多个节点,其中每个节点包括多个区块。方法可以包括经由入口树接收N乘M系数矩阵,其中N乘M系数矩阵被配置成控制神经网络模型,其中N是等于或大于8的整数并且M是等于或大于8的整数。方法还可以包括将N乘M系数矩阵的第一行存储在第一片上存储器中,并且将N乘M系数矩阵的第二行存储在第二片上存储器中,该第一片上存储器被并入多个区块中的第一区块内,该第二片上存储器被并入多个区块中的第二区块内。方法还可以包括使用第一计算单元来处理经由入口树接收的N乘M系数矩阵的第一行和第一组输入向量,该第一计算单元被并入多个区块中的第一区块内。方法还可以包括:使用第二计算单元来处理经由入口树接收的N乘M系数矩阵的第二行和第二组输入向量,该第二计算单元被并入多个区块中的第二区块内。
在该示例中,处理第一行还可以包括:对N乘M系数矩阵的第一行和第一组输入向量执行第一逐点点积运算,并且处理第二行还可以包括:对N乘M系数矩阵的第二行和第二组输入向量执行第二逐点点积运算。方法可以包括:经由出口树输出由第一逐点点积运算生成的第一组输出值,该出口树耦合到多个区块中的每个区块,并且经由出口树输出由第二逐点点积运算生成的第二组输出值,该出口树耦合到多个区块中的每个区块。
在该示例中,N乘M系数矩阵包括对应于神经网络模型的权重。第一组输入向量和第二组输入向量中的每组输入向量可以包括输入向量的运行时值和输入向量的过去值。
在另一示例中,本公开涉及包括多个区块的硬件节点。硬件节点还可以包括入口树,该入口树被配置成接收N乘M系数矩阵,其中N乘M系数矩阵被配置成控制神经网络模型,其中N是等于或大于8的整数并且M是等于或大于8的整数。硬件节点还可以包括被并入多个区块中的第一区块内的第一片上存储器,其被配置成存储N乘M系数矩阵的第一行。硬件节点还可以包括被并入多个区块中的第二区块内的第二片上存储器,其被配置成存储N乘M系数矩阵的第二行。硬件节点还可以包括被并入多个区块中的第一区块内的第一计算单元,其被配置成处理经由入口树接收的N乘M系数矩阵的第一行和第一组输入向量。硬件节点还可以包括被并入多个区块中的第二区块内的第二计算单元,其被配置成处理经由入口树接收的N乘M系数矩阵的第二行和第二组输入向量。
第一计算单元还可以被配置成:对N乘M系数矩阵的第一行和第一组输入向量执行第一逐点点积运算,并且第二计算单元还被配置成:对N乘M系数矩阵的第二行和第二组输入向量执行第二逐点点积运算。硬件节点还可以包括耦合到多个树中的每个树并且还被配置成输出由第一逐点点积运算生成的第一组输出值的出口树,以及耦合到多个树中的每个树并且还被配置成输出由第二逐点点积运算生成的第二组输出值的出口树。
在该示例中,N乘M系数矩阵包括对应于神经网络模型的权重。第一组输入向量和第二组输入向量中的每组输入向量可以包括输入向量的运行时值和输入向量的过去值。
在又一示例中,本公开涉及包括多个区块的硬件节点。硬件节点还可以包括入口树,入口树被配置成接收N乘M系数矩阵,其中N乘M系数矩阵被配置成控制神经网络模型,其中N是等于或大于8的整数并且M是等于或大于8的整数,并且其中入口树包括第一入口树寄存器,其扇出到第二入口树寄存器和第三入口树寄存器。硬件节点还可以包括被并入多个区块中的第一区块内的第一片上存储器,其被配置成存储N乘M系数矩阵的第一行。硬件节点还可以包括被并入多个区块中的第二区块内的第二片上存储器,其被配置成存储N乘M系数矩阵的第二行。硬件节点还可以包括被并入多个区块中的第一区块内的第一计算单元,其被配置成处理经由入口树接收的N乘M系数矩阵的第一行和第一组输入向量。硬件节点还可以包括被并入多个区块中的第二区块内的第二计算单元,其被配置成处理经由入口树接收的N乘M系数矩阵的第二行和第二组输入向量。
第一计算单元还可以被配置成:对N乘M系数矩阵的第一行和第一组输入向量执行第一逐点点积运算,并且第二计算单元还被配置成:对N乘M系数矩阵的第二行和第二组输入向量执行第二逐点点积运算。硬件节点还可以包括耦合到多个树中的每个树并且还被配置成输出由第一逐点点积运算生成的第一组输出值的出口树,以及耦合到多个树中的每个树并且还被配置成输出由第二逐点点积运算生成的第二组输出值的出口树。在该示例中,N乘M系数矩阵包括对应于神经网络模型的权重。
应当理解,本文中所描绘的方法、模块和组件仅仅是示例性的。备选地或附加地,本文中所描述的功能性可以至少部分地由一个或多个硬件逻辑组件来执行。例如但不限于,可以被使用的说明性类型的硬件逻辑部件包括现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等。在抽象但明确的意义上,任何实现相同功能性的组件布置都被有效地“关联”,从而实现所需的功能性。因此,本文中被组合以实现特定功能性的任何两个组件都可以被视为彼此“相关联”,使得实现期望的功能性,而与架构或中间组件无关。同样,如此关联的任何两个组件还可以被视为彼此“可操作地连接”或“耦合”以实现期望的功能性。
与本公开中所描述的一些示例相关联的功能性还可以包括被存储在非暂态介质中的指令。如本文中所使用的术语“非暂态介质”是指存储数据和/或指令的任何介质,该指令使得机器以特定方式操作。示例性非暂态介质包括非易失性介质和/或易失性介质。非易失性介质例如包括硬盘、固态驱动器、磁盘或磁带、光盘或带、闪存、EPROM、NVRAM、PRAM或其他这样的介质、或者这样的介质的联网版本。易失性介质包括例如动态存储器,诸如DRAM、SRAM、高速缓存或其他这样的介质。非暂态介质不同于传输介质,但可以与传输介质一起使用。传输介质用于传送去往和/或来自机器的数据和/或指令。示例性传输介质包括同轴电缆、光纤电缆、铜线以及诸如无线电波的无线介质。
另外,本领域技术人员将认识到,上文所描述的操作的功能性之间的界限仅仅是说明性的。多个操作的功能性可以被组合成单个操作,和/或单个操作的功能性可以被分配在附加操作中。而且,备选实施例可以包括特定操作的多个实例,并且在各种其他实施例中可以更改操作的次序。
尽管本公开提供了具体示例,但是可以在不背离如权利要求中阐述的本公开的范围的情况下做出各种修改和改变。因而,说明书和附图被认为是说明性的而非限制性的,并且所有这种修改旨在被包括在本公开的范围内。本文中关于具体示例描述的任何益处、优点或问题的解决方案不旨在被解释为任何或所有权利要求的关键的、必需的或基本的特征或元素。
另外,如本文中使用的术语“一”或“一个”被定义为一个或多个。另外,在权利要求中使用诸如“至少一个”和“一个或多个”的介绍性短语不应当被解释为暗示由不定冠词“一”或“一个”对另一权利要求元素的引入将包含这种引入的权利要求元素的任何特定权利要求限制为仅包含一个这种元素的发明,即使当相同的权利要求包括介绍性短语“一个或多个”或“至少一个”以及诸如“一”或“一个”的不定冠词时。对于定冠词的使用也是如此。
除非另有说明,否则诸如“第一”和“第二”的术语被用于对这种术语所描述的元件之间的任意区分。因此,这些术语不一定旨在指示这些元素的时间或其他优先化。

Claims (15)

1.一种用于评估系统中的神经网络模型的方法,所述系统包括经由网络互连的多个节点,其中每个节点包括多个区块,所述方法包括:
经由入口树接收N乘M系数矩阵,其中所述N乘M系数矩阵被配置成控制所述神经网络模型,其中N是等于或大于8的整数,并且M是等于或大于8的整数;
将所述N乘M系数矩阵的第一行存储在第一片上存储器中,并且将所述N乘M系数矩阵的第二行存储在第二片上存储器中,所述第一片上存储器被并入所述多个区块中的第一区块内,所述第二片上存储器被并入所述多个区块中的第二区块内;
使用第一计算单元来处理经由所述入口树接收的所述N乘M系数矩阵的所述第一行和第一组输入向量,所述第一计算单元被并入所述多个区块中的所述第一区块内;以及
使用第二计算单元来处理经由所述入口树接收的所述N乘M系数矩阵的所述第二行和第二组输入向量,所述第二计算单元被并入所述多个区块中的所述第二区块内。
2.根据权利要求1所述的方法,其中处理所述第一行还包括:对所述N乘M系数矩阵的所述第一行和所述第一组输入向量执行第一逐点点积运算。
3.根据权利要求1所述的方法,其中处理所述第二行还包括:对所述N乘M系数矩阵的所述第二行和所述第二组输入向量执行第二逐点点积运算。
4.根据权利要求2所述的方法,还包括:经由出口树输出由所述第一逐点点积运算生成的第一组输出值,所述出口树被耦合到所述多个区块中的每个区块。
5.根据权利要求3所述的方法,还包括:经由出口树输出由所述第二逐点点积运算生成的第二组输出值,所述出口树被耦合到所述多个区块中的每个区块。
6.根据权利要求1所述的方法,其中所述N乘M系数矩阵包括与所述神经网络模型相对应的权重。
7.根据权利要求1所述的方法,其中所述第一组输入向量和所述第二组输入向量中的每组输入向量包括输入向量的运行时值和输入向量的过去值。
8.一种包括多个区块的硬件节点,所述硬件节点包括:
入口树,被配置成接收N乘M系数矩阵,其中所述N乘M系数矩阵被配置成控制神经网络模型,其中N是等于或大于8的整数,并且M是等于或大于8的整数;
第一片上存储器,被并入所述多个区块中的第一区块内,所述第一片上存储器被配置成存储所述N乘M系数矩阵的第一行;
第二片上存储器,被并入所述多个区块中的第二区块内,所述第二片上存储器被配置成存储所述N乘M系数矩阵的第二行;
第一计算单元,被并入所述多个区块中的所述第一区块内,所述第一计算单元被配置成处理经由所述入口树接收的所述N乘M系数矩阵的所述第一行和第一组输入向量;以及
第二计算单元,被并入所述多个区块中的所述第二区块内,所述第二计算单元被配置成处理经由所述入口树接收的所述N乘M系数矩阵的所述第二行和第二组输入向量。
9.根据权利要求8所述的硬件节点,其中所述第一计算单元还被配置成:对所述N乘M系数矩阵的所述第一行和所述第一组输入向量执行第一逐点点积运算。
10.根据权利要求8所述的硬件节点,其中所述第二计算单元还被配置成:对所述N乘M系数矩阵的所述第二行和所述第二组输入向量执行第二逐点点积运算。
11.根据权利要求9所述的硬件节点,还包括出口树,所述出口树耦合到所述多个树中的每个树,并且还被配置成输出由所述第一点逐点点积运算生成的第一组输出值。
12.根据权利要求10所述的硬件节点,还包括出口树,所述出口树耦合到所述多个树中的每个树,并且还被配置成输出由所述第二逐点点积运算生成的第二组输出值。
13.一种包括多个区块的硬件节点,所述硬件节点包括:
入口树,被配置成接收N乘M系数矩阵,其中所述N乘M系数矩阵被配置成控制神经网络模型,其中N是等于或大于8的整数,并且M是等于或大于8的整数,并且其中所述入口树包括第一入口树寄存器,所述第一入口树寄存器扇出到第二入口树寄存器和第三入口树寄存器;
第一片上存储器,被并入所述多个区块中的第一区块内,所述第一片上存储器被配置成存储所述N乘M系数矩阵的第一行;
第二片上存储器,被并入所述多个区块中的第二区块内,所述第二片上存储器被配置成存储所述N乘M系数矩阵的第二行;
第一计算单元,被并入所述多个区块中的所述第一区块内,所述第一计算单元被配置成处理经由所述入口树接收的所述N乘M系数矩阵的所述第一行和第一组输入向量;以及
第二计算单元,被并入所述多个区块中的所述第二区块内,所述第二计算单元被配置成处理经由所述入口树接收的所述N乘M系数矩阵的所述第二行和第二组输入向量。
14.根据权利要求13所述的硬件节点,其中所述第一计算单元还被配置成:对所述N乘M系数矩阵的所述第一行和所述第一组输入向量执行第一逐点点积运算。
15.根据权利要求13所述的硬件节点,其中所述第二计算单元还被配置成:对所述N乘M系数矩阵的所述第二行和所述第二组输入向量执行第二逐点点积运算。
CN201880013987.7A 2017-02-28 2018-02-08 用于神经网络处理的具有矩阵-向量相乘区块的硬件节点 Active CN110352433B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201762465063P 2017-02-28 2017-02-28
US62/465,063 2017-02-28
US15/637,608 2017-06-29
US15/637,608 US10140252B2 (en) 2017-02-28 2017-06-29 Hardware node with matrix-vector multiply tiles for neural network processing
PCT/US2018/017311 WO2018160332A1 (en) 2017-02-28 2018-02-08 Hardware node with matrix-vector multiply tiles for neural network processing

Publications (2)

Publication Number Publication Date
CN110352433A true CN110352433A (zh) 2019-10-18
CN110352433B CN110352433B (zh) 2023-07-18

Family

ID=63245365

Family Applications (7)

Application Number Title Priority Date Filing Date
CN201880013993.2A Active CN110352435B (zh) 2017-02-28 2018-02-08 利用链接指令的神经网络处理
CN201880013987.7A Active CN110352433B (zh) 2017-02-28 2018-02-08 用于神经网络处理的具有矩阵-向量相乘区块的硬件节点
CN201880013989.6A Active CN110325963B (zh) 2017-02-28 2018-02-08 用于神经网络处理的针对可编程硬件节点的多功能单元
CN201880013991.3A Active CN110352434B (zh) 2017-02-28 2018-02-08 一种用于评估与系统中的服务相对应的神经网络模型的方法及系统
CN202310524179.XA Pending CN116562349A (zh) 2017-02-28 2018-02-08 用于神经网络处理的针对可编程硬件节点的多功能单元
CN202311336698.XA Pending CN117313812A (zh) 2017-02-28 2018-02-08 利用链接指令的神经网络处理
CN201880013746.2A Active CN110326003B (zh) 2017-02-28 2018-02-22 用于神经网络处理的具有位置依赖存储器的硬件节点

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201880013993.2A Active CN110352435B (zh) 2017-02-28 2018-02-08 利用链接指令的神经网络处理

Family Applications After (5)

Application Number Title Priority Date Filing Date
CN201880013989.6A Active CN110325963B (zh) 2017-02-28 2018-02-08 用于神经网络处理的针对可编程硬件节点的多功能单元
CN201880013991.3A Active CN110352434B (zh) 2017-02-28 2018-02-08 一种用于评估与系统中的服务相对应的神经网络模型的方法及系统
CN202310524179.XA Pending CN116562349A (zh) 2017-02-28 2018-02-08 用于神经网络处理的针对可编程硬件节点的多功能单元
CN202311336698.XA Pending CN117313812A (zh) 2017-02-28 2018-02-08 利用链接指令的神经网络处理
CN201880013746.2A Active CN110326003B (zh) 2017-02-28 2018-02-22 用于神经网络处理的具有位置依赖存储器的硬件节点

Country Status (4)

Country Link
US (8) US10140252B2 (zh)
EP (6) EP3590077B1 (zh)
CN (7) CN110352435B (zh)
WO (5) WO2018160330A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113139648A (zh) * 2020-01-17 2021-07-20 阿里巴巴集团控股有限公司 执行神经网络模型的pim架构的数据布局优化
CN113554149A (zh) * 2021-06-18 2021-10-26 北京百度网讯科技有限公司 神经网络处理单元npu、神经网络的处理方法及其装置
CN113805940A (zh) * 2020-08-17 2021-12-17 阿里巴巴集团控股有限公司 用于人工智能和机器学习的向量加速器

Families Citing this family (87)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11216722B2 (en) * 2016-12-31 2022-01-04 Intel Corporation Hardware accelerator template and design framework for implementing recurrent neural networks
US10140252B2 (en) 2017-02-28 2018-11-27 Microsoft Technology Licensing, Llc Hardware node with matrix-vector multiply tiles for neural network processing
WO2018176000A1 (en) 2017-03-23 2018-09-27 DeepScale, Inc. Data synthesis for autonomous control systems
KR102414583B1 (ko) * 2017-03-23 2022-06-29 삼성전자주식회사 머신 러닝을 수행하는 전자 장치 및 머신 러닝 수행 방법
US11138494B2 (en) * 2017-05-02 2021-10-05 International Business Machines Corporation Storage controller acceleration for neural network training and inference
US10606672B2 (en) 2017-05-04 2020-03-31 Microsoft Technology Licensing, Llc Micro-service framework derived from third-party apps
CN112214727A (zh) * 2017-07-07 2021-01-12 华为技术有限公司 运算加速器
US10671349B2 (en) 2017-07-24 2020-06-02 Tesla, Inc. Accelerated mathematical engine
US11409692B2 (en) 2017-07-24 2022-08-09 Tesla, Inc. Vector computational unit
US11157441B2 (en) 2017-07-24 2021-10-26 Tesla, Inc. Computational array microprocessor system using non-consecutive data formatting
US11893393B2 (en) 2017-07-24 2024-02-06 Tesla, Inc. Computational array microprocessor system with hardware arbiter managing memory requests
CN113918481A (zh) 2017-07-30 2022-01-11 纽罗布拉德有限公司 一种存储器芯片
US20190095783A1 (en) * 2017-08-17 2019-03-28 Komosystem Co., Ltd. Deep learning apparatus for ann having pipeline architecture
US10963780B2 (en) 2017-08-24 2021-03-30 Google Llc Yield improvements for three-dimensionally stacked neural network accelerators
KR102477404B1 (ko) * 2017-08-31 2022-12-13 캠브리콘 테크놀로지스 코퍼레이션 리미티드 칩 장치 및 관련 제품
US11360934B1 (en) 2017-09-15 2022-06-14 Groq, Inc. Tensor streaming processor architecture
US11243880B1 (en) 2017-09-15 2022-02-08 Groq, Inc. Processor architecture
US11114138B2 (en) 2017-09-15 2021-09-07 Groq, Inc. Data structures with multiple read ports
US11868804B1 (en) 2019-11-18 2024-01-09 Groq, Inc. Processor instruction dispatch configuration
US11170307B1 (en) 2017-09-21 2021-11-09 Groq, Inc. Predictive model compiler for generating a statically scheduled binary with known resource constraints
US10217346B1 (en) 2017-11-07 2019-02-26 Amazon Technologies, Inc. Presence detection with neural networks
US10305766B1 (en) * 2017-11-07 2019-05-28 Amazon Technologies, Inc. Coexistence-insensitive presence detection
WO2019133829A1 (en) * 2017-12-29 2019-07-04 Spero Devices, Inc. Digital architecture supporting analog co-processor
US10802489B1 (en) 2017-12-29 2020-10-13 Apex Artificial Intelligence Industries, Inc. Apparatus and method for monitoring and controlling of a neural network using another neural network implemented on one or more solid-state chips
CN110045960B (zh) * 2018-01-16 2022-02-18 腾讯科技(深圳)有限公司 基于芯片的指令集处理方法、装置及存储介质
US11561791B2 (en) 2018-02-01 2023-01-24 Tesla, Inc. Vector computational unit receiving data elements in parallel from a last row of a computational array
US10795678B2 (en) * 2018-04-21 2020-10-06 Microsoft Technology Licensing, Llc Matrix vector multiplier with a vector register file comprising a multi-port memory
US10705892B2 (en) 2018-06-07 2020-07-07 Microsoft Technology Licensing, Llc Automatically generating conversational services from a computing application
US11215999B2 (en) 2018-06-20 2022-01-04 Tesla, Inc. Data pipeline and deep learning system for autonomous driving
US11361457B2 (en) 2018-07-20 2022-06-14 Tesla, Inc. Annotation cross-labeling for autonomous control systems
US11636333B2 (en) 2018-07-26 2023-04-25 Tesla, Inc. Optimizing neural network structures for embedded systems
US20200074290A1 (en) * 2018-08-30 2020-03-05 Element Ai Inc. Complex valued gating mechanisms
US11562231B2 (en) 2018-09-03 2023-01-24 Tesla, Inc. Neural networks for embedded devices
US11593291B2 (en) 2018-09-10 2023-02-28 GigaIO Networks, Inc. Methods and apparatus for high-speed data bus connection and fabric management
CN109308520B (zh) * 2018-09-26 2022-05-13 创新先进技术有限公司 实现softmax函数计算的FPGA电路及方法
US10834024B2 (en) * 2018-09-28 2020-11-10 International Business Machines Corporation Selective multicast delivery on a bus-based interconnect
CN113039556B (zh) 2018-10-11 2022-10-21 特斯拉公司 用于使用增广数据训练机器模型的系统和方法
US11196678B2 (en) 2018-10-25 2021-12-07 Tesla, Inc. QOS manager for system on a chip communications
CN109460925A (zh) * 2018-11-14 2019-03-12 江苏电力信息技术有限公司 一种基于bp神经网络的台区资产组绩效评价方法
US11455370B2 (en) 2018-11-19 2022-09-27 Groq, Inc. Flattened input stream generation for convolution with expanded kernel
CN109543833B (zh) * 2018-11-30 2021-08-03 上海寒武纪信息科技有限公司 运算方法、装置及相关产品
CN109543835B (zh) * 2018-11-30 2021-06-25 上海寒武纪信息科技有限公司 运算方法、装置及相关产品
CN109543836B (zh) * 2018-11-30 2021-08-03 上海寒武纪信息科技有限公司 运算方法、装置及相关产品
CN111382390B (zh) * 2018-12-28 2022-08-12 上海寒武纪信息科技有限公司 运算方法、装置及相关产品
CN109558564B (zh) * 2018-11-30 2022-03-11 上海寒武纪信息科技有限公司 运算方法、装置及相关产品
CN109543834B (zh) * 2018-11-30 2021-08-31 上海寒武纪信息科技有限公司 运算方法、装置及相关产品
CN109583580B (zh) * 2018-11-30 2021-08-03 上海寒武纪信息科技有限公司 运算方法、装置及相关产品
CN109558565B (zh) * 2018-11-30 2023-04-07 上海寒武纪信息科技有限公司 运算方法、装置及相关产品
CN109542837B (zh) * 2018-11-30 2023-03-24 上海寒武纪信息科技有限公司 运算方法、装置及相关产品
US11816585B2 (en) 2018-12-03 2023-11-14 Tesla, Inc. Machine learning models operating at different frequencies for autonomous vehicles
US11537811B2 (en) 2018-12-04 2022-12-27 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
US11610117B2 (en) 2018-12-27 2023-03-21 Tesla, Inc. System and method for adapting a neural network model on a hardware platform
US11321606B2 (en) * 2019-01-15 2022-05-03 BigStream Solutions, Inc. Systems, apparatus, methods, and architectures for a neural network workflow to generate a hardware accelerator
US10997461B2 (en) 2019-02-01 2021-05-04 Tesla, Inc. Generating ground truth for machine learning from time series elements
US11567514B2 (en) 2019-02-11 2023-01-31 Tesla, Inc. Autonomous and user controlled vehicle summon to a target
US11410014B2 (en) * 2019-02-11 2022-08-09 Apple Inc. Customizable chip for AI applications
US10956755B2 (en) 2019-02-19 2021-03-23 Tesla, Inc. Estimating object properties using visual image data
US11475102B2 (en) 2019-02-21 2022-10-18 Samsung Electronics Co., Ltd. Adaptive matrix multiplication accelerator for machine learning and deep learning applications
US11748599B2 (en) * 2019-02-21 2023-09-05 Texas Instruments Incorporated Super-tiling in neural network processing to enable analytics at lower memory speed
WO2021012215A1 (zh) * 2019-07-24 2021-01-28 华为技术有限公司 神经网络切分方法、预测方法及相关装置
US20220269645A1 (en) * 2019-08-13 2022-08-25 Neuroblade Ltd. Memory mat as a register file
US11403247B2 (en) 2019-09-10 2022-08-02 GigaIO Networks, Inc. Methods and apparatus for network interface fabric send/receive operations
US10915811B1 (en) 2019-09-18 2021-02-09 International Business Machines Corporation Intercalation cells for multi-task learning
US11593288B2 (en) 2019-10-02 2023-02-28 GigalO Networks, Inc. Methods and apparatus for fabric interface polling
WO2021081409A1 (en) 2019-10-25 2021-04-29 GigaIO Networks, Inc. Methods and apparatus for dma engine descriptors for high speed data systems
CN112749784B (zh) * 2019-10-31 2024-05-14 华为技术有限公司 一种计算设备及神经网络的加速方法
US10691133B1 (en) * 2019-11-26 2020-06-23 Apex Artificial Intelligence Industries, Inc. Adaptive and interchangeable neural networks
US11366434B2 (en) 2019-11-26 2022-06-21 Apex Artificial Intelligence Industries, Inc. Adaptive and interchangeable neural networks
US11367290B2 (en) 2019-11-26 2022-06-21 Apex Artificial Intelligence Industries, Inc. Group of neural networks ensuring integrity
US10956807B1 (en) 2019-11-26 2021-03-23 Apex Artificial Intelligence Industries, Inc. Adaptive and interchangeable neural networks utilizing predicting information
EP4066170A4 (en) 2019-11-26 2024-01-17 Groq Inc LOADING OPERANDS AND DELIVERING RESULTS FROM A MULTI-DIMENSIONAL ARRAY USING ONLY ONE SIDE
CN111047017B (zh) * 2019-12-18 2023-06-23 北京安兔兔科技有限公司 一种神经网络算法的评估方法、装置及电子设备
CN111027018B (zh) * 2019-12-20 2023-03-31 支付宝(杭州)信息技术有限公司 加速计算设备建模的方法、装置、计算设备及介质
CN111145076B (zh) * 2019-12-27 2023-04-07 深圳鲲云信息科技有限公司 数据并行化处理方法、系统、设备及存储介质
US20210312266A1 (en) * 2020-04-01 2021-10-07 Microsoft Technology Licensing, Llc Deep neural network accelerator with independent datapaths for simultaneous processing of different classes of operations
CN111813338A (zh) * 2020-06-30 2020-10-23 飞诺门阵(北京)科技有限公司 一种网络存储设备
TWI777231B (zh) * 2020-08-28 2022-09-11 國立中正大學 向量內積計算裝置
US20210216318A1 (en) * 2020-08-28 2021-07-15 Martin Langhammer Vector Processor Architectures
US11347652B2 (en) 2020-08-31 2022-05-31 Microsoft Technology Licensing, Llc Banked memory architecture for multiple parallel datapath channels in an accelerator
US11244718B1 (en) * 2020-09-08 2022-02-08 Alibaba Group Holding Limited Control of NAND flash memory for al applications
CN112032578B (zh) * 2020-10-05 2022-05-31 中国石油大学(华东) 一种管道中腐蚀点的参数测量方法及其设备
US11734214B2 (en) 2021-02-01 2023-08-22 Microsoft Technology Licensing, Llc Semi-programmable and reconfigurable co-accelerator for a deep neural network with normalization or non-linearity
EP4285286A1 (en) * 2021-02-01 2023-12-06 Microsoft Technology Licensing, LLC Semi-programmable and reconfigurable co-accelerator for a deep neural network with normalization or non-linearity
CN112906887B (zh) * 2021-02-20 2023-03-24 上海大学 稀疏gru神经网络加速的实现方法和装置
CN113012689B (zh) * 2021-04-15 2023-04-07 成都爱旗科技有限公司 一种电子设备和深度学习硬件加速方法
US20230252337A1 (en) * 2022-02-04 2023-08-10 Rima Al Shikh Systems and methods for generating processable data for machine learning applications
CN115426265B (zh) * 2022-11-02 2023-04-18 之江实验室 一种多模态网络下交换资源分配优化方法及装置、介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140133246A1 (en) * 2012-11-09 2014-05-15 Xilinx, Inc. Configurable embedded memory system
US20140307782A1 (en) * 2011-11-07 2014-10-16 Canon Kabushiki Kaisha Image coding apparatus, image coding method, image decoding apparatus, image decoding method, and storage medium
US20160124651A1 (en) * 2014-11-03 2016-05-05 Texas Instruments Incorporated Method for performing random read access to a block of data using parallel lut read instruction in vector processors
CN106127301A (zh) * 2016-01-16 2016-11-16 上海大学 一种随机神经网络硬件实现装置
CN106228238A (zh) * 2016-07-27 2016-12-14 中国科学技术大学苏州研究院 现场可编程门阵列平台上加速深度学习算法的方法和系统
EP3104309A2 (en) * 2015-06-10 2016-12-14 Samsung Electronics Co., Ltd. Spiking neural network with reduced memory access and reduced in-network bandwidth consumption
CN106447037A (zh) * 2015-10-08 2017-02-22 上海兆芯集成电路有限公司 具有多个可选择输出的神经网络单元

Family Cites Families (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5337395A (en) 1991-04-08 1994-08-09 International Business Machines Corporation SPIN: a sequential pipeline neurocomputer
US5216751A (en) 1990-10-22 1993-06-01 Motorola, Inc. Digital processing element in an artificial neural network
US5517596A (en) 1991-05-17 1996-05-14 International Business Machines Corporation Learning machine synapse processor system apparatus
US5471626A (en) 1992-05-06 1995-11-28 International Business Machines Corporation Variable stage entry/exit instruction pipeline
JP2572522B2 (ja) 1992-05-12 1997-01-16 インターナショナル・ビジネス・マシーンズ・コーポレイション コンピューティング装置
US5630082A (en) 1993-10-29 1997-05-13 Advanced Micro Devices, Inc. Apparatus and method for instruction queue scanning
US5930492A (en) * 1997-03-19 1999-07-27 Advanced Micro Devices, Inc. Rapid pipeline control using a control word and a steering word
US6249857B1 (en) 1997-10-20 2001-06-19 Motorola, Inc. Apparatus using a multiple instruction register logarithm based processor
RU2131145C1 (ru) * 1998-06-16 1999-05-27 Закрытое акционерное общество Научно-технический центр "Модуль" Нейропроцессор, устройство для вычисления функций насыщения, вычислительное устройство и сумматор
US6292886B1 (en) 1998-10-12 2001-09-18 Intel Corporation Scalar hardware for performing SIMD operations
US6519683B2 (en) 2000-12-29 2003-02-11 Intel Corporation System and method for instruction cache re-ordering
US7302553B2 (en) 2003-01-23 2007-11-27 International Business Machines Corporation Apparatus, system and method for quickly determining an oldest instruction in a non-moving instruction queue
US10572824B2 (en) * 2003-05-23 2020-02-25 Ip Reservoir, Llc System and method for low latency multi-functional pipeline with correlation logic and selectively activated/deactivated pipelined data processing engines
US8443169B2 (en) 2005-03-28 2013-05-14 Gerald George Pechanek Interconnection network connecting operation-configurable nodes according to one or more levels of adjacency in multiple dimensions of communication in a multi-processor and a neural processor
US7299342B2 (en) 2005-05-24 2007-11-20 Coresonic Ab Complex vector executing clustered SIMD micro-architecture DSP with accelerator coupled complex ALU paths each further including short multiplier/accumulator using two's complement
US7533071B2 (en) * 2005-06-28 2009-05-12 Neurosciences Research Foundation, Inc. Neural modeling and brain-based devices using special purpose processor
US8181003B2 (en) 2008-05-29 2012-05-15 Axis Semiconductor, Inc. Instruction set design, control and communication in programmable microprocessor cores and the like
DE102008036968A1 (de) 2008-08-08 2010-02-11 Endress + Hauser Gmbh + Co. Kg Diagnoseverfahren eines Prozessautomatisierungssystem
US8135941B2 (en) 2008-09-19 2012-03-13 International Business Machines Corporation Vector morphing mechanism for multiple processor cores
US8229209B2 (en) 2008-12-26 2012-07-24 Five Apes, Inc. Neural network based pattern recognizer
US9552206B2 (en) 2010-11-18 2017-01-24 Texas Instruments Incorporated Integrated circuit with control node circuitry and processing circuitry
EP2695077B1 (en) 2011-04-07 2018-06-06 VIA Technologies, Inc. Conditional store instructions in an out-of-order execution microprocessor
CN103226549B (zh) * 2012-01-31 2016-09-07 国际商业机器公司 对列车运行图的显示进行重构的方法和装置
US9477925B2 (en) 2012-11-20 2016-10-25 Microsoft Technology Licensing, Llc Deep neural networks training for speech and pattern recognition
CN103019656B (zh) 2012-12-04 2016-04-27 中国科学院半导体研究所 可动态重构的多级并行单指令多数据阵列处理系统
US9507603B2 (en) 2013-03-09 2016-11-29 Gerald George Pechanek Methods and apparatus for signal flow graph pipelining that reduce storage of temporary variables
US9747547B2 (en) 2013-10-22 2017-08-29 In2H2 Hardware enhancements to radial basis function with restricted coulomb energy learning and/or k-Nearest Neighbor based neural network classifiers
US10417554B2 (en) 2014-05-22 2019-09-17 Lee J. Scheffler Methods and systems for neural and cognitive processing
US10032244B2 (en) 2014-08-21 2018-07-24 Intel Corporation Method and apparatus for implementing a nearest neighbor search on a graphics processing unit (GPU)
US10783900B2 (en) 2014-10-03 2020-09-22 Google Llc Convolutional, long short-term memory, fully connected deep neural networks
US11544214B2 (en) 2015-02-02 2023-01-03 Optimum Semiconductor Technologies, Inc. Monolithic vector processor configured to operate on variable length vectors using a vector length register
US20160267380A1 (en) 2015-03-13 2016-09-15 Nuance Communications, Inc. Method and System for Training a Neural Network
US10204301B2 (en) 2015-03-18 2019-02-12 International Business Machines Corporation Implementing a neural network algorithm on a neurosynaptic substrate based on criteria related to the neurosynaptic substrate
CN104915322B (zh) 2015-06-09 2018-05-01 中国人民解放军国防科学技术大学 一种卷积神经网络硬件加速方法
GB2539410B (en) 2015-06-15 2017-12-06 Bluwireless Tech Ltd Data processing
US11755484B2 (en) * 2015-06-26 2023-09-12 Microsoft Technology Licensing, Llc Instruction block allocation
US10540588B2 (en) 2015-06-29 2020-01-21 Microsoft Technology Licensing, Llc Deep neural network processing on hardware accelerators with stacked memory
US20160379109A1 (en) 2015-06-29 2016-12-29 Microsoft Technology Licensing, Llc Convolutional neural networks on hardware accelerators
US11275590B2 (en) * 2015-08-26 2022-03-15 Huawei Technologies Co., Ltd. Device and processing architecture for resolving execution pipeline dependencies without requiring no operation instructions in the instruction memory
KR102458885B1 (ko) * 2016-03-23 2022-10-24 쥐에스아이 테크놀로지 인코포레이티드 인메모리 행렬 곱셈 및 뉴럴 네트워크에서 그것의 사용
US10354168B2 (en) * 2016-04-11 2019-07-16 A2Ia S.A.S. Systems and methods for recognizing characters in digitized documents
CN106156851B (zh) 2016-06-24 2019-04-05 科大讯飞股份有限公司 面向深度学习业务的加速装置及方法
CN106250103A (zh) 2016-08-04 2016-12-21 东南大学 一种卷积神经网络循环卷积计算数据重用的系统
US10175980B2 (en) * 2016-10-27 2019-01-08 Google Llc Neural network compute tile
US10362149B2 (en) 2016-12-30 2019-07-23 Intel Corporation Intelligent packet aggregation
US10140252B2 (en) 2017-02-28 2018-11-27 Microsoft Technology Licensing, Llc Hardware node with matrix-vector multiply tiles for neural network processing
US10127495B1 (en) 2017-04-14 2018-11-13 Rohan Bopardikar Reducing the size of a neural network through reduction of the weight matrices
US11113051B2 (en) 2017-04-28 2021-09-07 Tenstorrent Inc. Processing core with metadata actuated conditional graph execution
CN107633842B (zh) 2017-06-12 2018-08-31 平安科技(深圳)有限公司 语音识别方法、装置、计算机设备及存储介质
US11593068B2 (en) * 2018-02-27 2023-02-28 New York University System, method, and apparatus for recurrent neural networks

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140307782A1 (en) * 2011-11-07 2014-10-16 Canon Kabushiki Kaisha Image coding apparatus, image coding method, image decoding apparatus, image decoding method, and storage medium
US20140133246A1 (en) * 2012-11-09 2014-05-15 Xilinx, Inc. Configurable embedded memory system
US20160124651A1 (en) * 2014-11-03 2016-05-05 Texas Instruments Incorporated Method for performing random read access to a block of data using parallel lut read instruction in vector processors
EP3104309A2 (en) * 2015-06-10 2016-12-14 Samsung Electronics Co., Ltd. Spiking neural network with reduced memory access and reduced in-network bandwidth consumption
CN106447037A (zh) * 2015-10-08 2017-02-22 上海兆芯集成电路有限公司 具有多个可选择输出的神经网络单元
CN106127301A (zh) * 2016-01-16 2016-11-16 上海大学 一种随机神经网络硬件实现装置
CN106228238A (zh) * 2016-07-27 2016-12-14 中国科学技术大学苏州研究院 现场可编程门阵列平台上加速深度学习算法的方法和系统

Non-Patent Citations (8)

* Cited by examiner, † Cited by third party
Title
HARDIK SHARMA ET AL.: "From high-level deep neural models to FPGAs", 《 2016 49TH ANNUAL IEEE/ACM INTERNATIONAL SYMPOSIUM ON MICROARCHITECTURE (MICRO)》 *
HARDIK SHARMA ET AL.: "From high-level deep neural models to FPGAs", 《2016 49TH ANNUAL IEEE/ACM INTERNATIONAL SYMPOSIUM ON MICROARCHITECTURE (MICRO)》 *
SHASHI PAL ET AL.: "Machine Translation using Deep Learning:An Overview", 《2017 INTERNATIONAL CONFERENCE ON COMPUTER,COMMUNICATIONS AND ELECTRONICS》 *
SUSUMU YAMADA ET AL.: "High Performance Eigenvalue Solver in Exact-diagonalization Method for Hubbard Model on CUDA GPU", 《ADVANCES IN PARALLEL COMPUTING》 *
YAMAN UMUROGLU ET AL.: "《FINN:A Framework for Fast,Scalable Binarized Neural Network Inference》", 《ARXIV》 *
YONGMING SHEN ET AL.: "Maximizing CNN Accelerator Efficiency Through Resource Partitioning", 《ARXIV》 *
余奇: "基于FPGA的深度学习加速器设计与实现", 《中国优秀硕士学位论文全文数据库信息科技辑》 *
沈俊忠;肖涛;乔寓然;杨乾明;文梅;: "一种支持优化分块策略的矩阵乘加速器设计", 计算机工程与科学 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113139648A (zh) * 2020-01-17 2021-07-20 阿里巴巴集团控股有限公司 执行神经网络模型的pim架构的数据布局优化
CN113139648B (zh) * 2020-01-17 2024-04-05 阿里巴巴集团控股有限公司 执行神经网络模型的pim架构的数据布局优化
CN113805940A (zh) * 2020-08-17 2021-12-17 阿里巴巴集团控股有限公司 用于人工智能和机器学习的向量加速器
CN113554149A (zh) * 2021-06-18 2021-10-26 北京百度网讯科技有限公司 神经网络处理单元npu、神经网络的处理方法及其装置

Also Published As

Publication number Publication date
EP3590077A1 (en) 2020-01-08
EP3566181B1 (en) 2023-07-19
WO2018160333A1 (en) 2018-09-07
US11144820B2 (en) 2021-10-12
CN110352434B (zh) 2023-06-27
CN116562349A (zh) 2023-08-08
CN110352435A (zh) 2019-10-18
US20180247187A1 (en) 2018-08-30
US10140252B2 (en) 2018-11-27
CN110326003A (zh) 2019-10-11
CN117313812A (zh) 2023-12-29
CN110352435B (zh) 2023-10-27
US20180247185A1 (en) 2018-08-30
CN110326003B (zh) 2023-07-18
US20220012577A1 (en) 2022-01-13
EP4120140A1 (en) 2023-01-18
EP3566184B1 (en) 2023-10-18
WO2018160332A1 (en) 2018-09-07
US20180247190A1 (en) 2018-08-30
WO2018160330A1 (en) 2018-09-07
US20180246853A1 (en) 2018-08-30
EP3566134A1 (en) 2019-11-13
CN110352434A (zh) 2019-10-18
CN110325963A (zh) 2019-10-11
US11157801B2 (en) 2021-10-26
EP3566183B1 (en) 2023-05-03
EP3566134B1 (en) 2023-11-15
CN110325963B (zh) 2023-05-23
US11132599B2 (en) 2021-09-28
EP3566183A1 (en) 2019-11-13
US20210406657A1 (en) 2021-12-30
EP3566181A1 (en) 2019-11-13
EP3566184A1 (en) 2019-11-13
CN110352433B (zh) 2023-07-18
US20220391209A1 (en) 2022-12-08
WO2018160331A1 (en) 2018-09-07
WO2018160422A1 (en) 2018-09-07
EP3590077B1 (en) 2022-10-05
US20180247186A1 (en) 2018-08-30
US11663450B2 (en) 2023-05-30

Similar Documents

Publication Publication Date Title
CN110352433A (zh) 用于神经网络处理的具有矩阵-向量相乘区块的硬件节点
CN110998570B (zh) 具有带有块浮点处理的矩阵矢量单元的硬件节点
Ramacher et al. Design of a 1st Generation Neurocomputer
US11663491B2 (en) Allocation system, method and apparatus for machine learning, and computer device
KR20210002495A (ko) 다중 포트 메모리를 포함하는 벡터 레지스터 파일을 갖는 행렬 벡터 곱셈기
JP2021521539A (ja) ニューラル推論プロセッサのための中央スケジューラおよび命令ディスパッチャ
Jain et al. Sparse deep neural network acceleration on HBM-enabled FPGA platform
Chen et al. Exploring the programmability for deep learning processors: from architecture to tensorization

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant