CN110050256A - 用于神经网络实现的块浮点 - Google Patents

用于神经网络实现的块浮点 Download PDF

Info

Publication number
CN110050256A
CN110050256A CN201780076041.0A CN201780076041A CN110050256A CN 110050256 A CN110050256 A CN 110050256A CN 201780076041 A CN201780076041 A CN 201780076041A CN 110050256 A CN110050256 A CN 110050256A
Authority
CN
China
Prior art keywords
vector
matrix
output
mantissa
index
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201780076041.0A
Other languages
English (en)
Other versions
CN110050256B (zh
Inventor
R·比特纳
A·福林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Technology Licensing LLC
Original Assignee
Microsoft Technology Licensing LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Technology Licensing LLC filed Critical Microsoft Technology Licensing LLC
Priority to CN202310915210.2A priority Critical patent/CN116894145A/zh
Publication of CN110050256A publication Critical patent/CN110050256A/zh
Application granted granted Critical
Publication of CN110050256B publication Critical patent/CN110050256B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F7/00Methods or arrangements for processing data by operating upon the order or content of the data handled
    • G06F7/38Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
    • G06F7/48Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
    • G06F7/483Computations with numbers represented by a non-linear combination of denominational numbers, e.g. rational numbers, logarithmic number system or floating-point numbers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F5/00Methods or arrangements for data conversion without changing the order or content of the data handled
    • G06F5/01Methods or arrangements for data conversion without changing the order or content of the data handled for shifting, e.g. justifying, scaling, normalising
    • G06F5/012Methods or arrangements for data conversion without changing the order or content of the data handled for shifting, e.g. justifying, scaling, normalising in floating-point computations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F7/00Methods or arrangements for processing data by operating upon the order or content of the data handled
    • G06F7/38Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
    • G06F7/48Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
    • G06F7/52Multiplying; Dividing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F7/00Methods or arrangements for processing data by operating upon the order or content of the data handled
    • G06F7/38Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
    • G06F7/48Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
    • G06F7/544Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices for evaluating functions by calculation
    • G06F7/5443Sum of products
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computing Systems (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Nonlinear Science (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Neurology (AREA)
  • Complex Calculations (AREA)

Abstract

公开了包括在神经网络的实现中的用于执行块浮点(BFP)运算的装置和方法。一个或多个矩阵或向量的全部或一部分可以共用一个或多个共同指数。公开了用于选择共用的共同指数的技术。在所公开的技术的一些示例中,方法包括:产生矩阵或向量的BFP表示,相应矩阵或向量的至少两个元素共用共同指数;在多个矩阵或向量中的两个或更多个矩阵或向量上执行数学运算;以及产生输出矩阵或向量。基于输出矩阵或向量,选择一个或多个经更新的共同指数,并且产生经更新的矩阵或向量,其具有共用经更新的共同指数的一些元素。

Description

用于神经网络实现的块浮点
发明内容
公开了用于块浮点(BFP)实现的方法、装置和计算机可读存储设备,包括在人工神经网络(NN)中使用这种BFP实现。存储尾数值阵列的矩阵和向量可以共用针对两个或更多个元素的共同指数。例如,行中、列中或整个阵列中的所有元素可以具有不同的尾数并共用共同指数。在一些示例中,矩阵或向量的两个或更多个元素的指定组合和子组合可以共用共同指数。在一些示例中,矩阵或向量的两个或更多个元素的任意组合可以共用共同指数。在一些示例中,使用共同指数允许减少存储器使用、简化乘法器和其他浮点矩阵处理电路的硬件实现、减少能量和/或改进计算性能而几乎不损失或不损失精度。通过利用BFP表示执行数学运算而产生的输出矩阵和向量然后可以使用经更新的(多个)共同指数并使其尾数相应地移位。公开了用于选择经更新的共同指数的合适方法和装置的示例。
在所公开的技术的一些示例中,神经网络包括多个节点,这些节点具有相关联的值并且适于使用具有各自的尾数和一个或多个共用共同指数的BFP表示的运算来更新相关联的节点值的至少一部分。用于这种神经网络BFP实现的合适应用的示例包括但不限于:执行图像识别、执行语音识别、分类图像、将语音转换成文本和/或其他语言、面部或其他生物识别、自然语言处理、自动语言翻译、搜索引擎中的查询处理、自动内容选择、分析电子邮件和其他电子文档、关系管理、生物医学信息学、标识候选生物分子、提供推荐或其他分类任务。在所公开的技术的一些示例中,系统包括用于实现BFP神经网络的硬件。硬件可以包括但不限于通用处理器(包括实现向量指令集的处理器)、定制集成电路、专用集成电路(ASIC)、包括现场可编程门阵列(FPGA)的可编程逻辑器件、图形处理单元(GPU)、神经网络处理器和/或数字信号处理组件。
提供本发明内容是为了以简化的形式介绍一些概念,这些概念将在下面的具体实施方式中进一步描述。本发明内容不旨在标识所要求保护的主题的关键特征或必要特征,也不旨在用于限制所要求保护的主题的范围。此外,本文所使用的任何商标均为其各自所有者的产权。从通过参考附图进行的以下详细描述中,所公开的实施例的前述和其他目的、特征和优点将变得更加明显。
附图说明
图1是概述可以在所公开的技术的某些示例中执行的用于矩阵×向量乘法的块浮点实现的示例数据流的框图。
图2是概述可以在所公开的技术的某些示例中实现的包括多个神经网络核的示例多处理器的框图。
图3A和图3B是概述可以在所公开的技术的某些示例中执行的在脉动阵列矩阵乘法运算期间执行的运算的图。
图4是描绘根据所公开的技术的某些示例的用于执行矩阵乘法的硬件的框图。
图5是概述可以在所公开的技术的某些示例中使用的示例数字信号处理块的框图。
图6是概述可以在所公开的技术的某些示例中使用的用于图像处理的深度神经网络的示例实现的框图。
图7是概述可以在所公开的技术的某些示例中使用的示例FPGA的框图。
图8是进一步详述可以在所公开的技术的某些示例中使用的FPGA内的逻辑组件的图。
图9是图示可以在所公开的技术的某些示例中实现的用Altera FPGA实现的信号处理器的实现的示意图。
图10是图示可以在所公开的技术的某些示例中实现的用Altera FPGA实现的信号处理器的示例实现的示意图。
图11是概述可以在所公开的技术的某些示例中执行的使用一个或多个共用共同指数执行数学运算的示例方法的流程图。
图12是概述可以在所公开的技术的某些示例中执行的配置可重新配置的逻辑器件以利用神经网络执行数学运算的示例的流程图。
图13是图示其中可以实现所公开的技术的某些实现的示例计算环境的图。
具体实施方式
I.一般考虑
在代表性实施例的上下文中阐述本公开,代表性实施例不旨在以任何方式限制。
除非上下文另有明确规定,否则如本申请中所使用的,单数形式“一”、“一个”和“该”包括复数形式。另外,术语“包括”意指“包含”。此外,术语“耦合”涵盖将项目耦合或链接在一起的机械、电学、磁性、光学以及其他实际方式,并且不排除在耦合的项目之间的中间元件的存在。此外,如本文所使用的,术语“和/或”意指短语中的任何一个项目或项目的组合。
本文所描述的系统、方法和装置不应该被解释为以任何方式限制。相反,本公开涉及单独地以及以彼此的各种组合和子组合的方式的各种公开实施例的所有新颖和非显而易见的特征和方面。所公开的系统、方法和装置不限于任何特定方面或特征或其组合,所公开的内容和方法也不要求存在任何一个或多个特定优点或解决了问题。此外,所公开的实施例的任何特征或方面可以以彼此的各种组合和子组合而被使用。
尽管为了方便呈现,以特定的顺序次序描述了所公开方法中的一些的操作,但是应该理解,除非下面阐述的特定语言要求特定的排序,否则这种描述方式涵盖重新布置。例如,在一些情况下,顺序描述的操作可以被重新布置或同时执行。此外,为了简单起见,附图可能未示出所公开的内容和方法可以与其他内容和方法结合使用的各种方式。另外,描述有时使用如“产生”、“生成”、“执行”、“选择”、“接收”、“发射”、“验证”、“执行”和“发起”之类的术语来描述所公开的方法。这些术语是对所执行的实际操作的高级别描述。对应于这些术语的实际操作将取决于具体实现而变化,并且由受益于本公开的本领域普通技术人员容易地可辨别。
出于更好理解的目的,提供了本文中参考本公开的装置或方法呈现的运算理论、科学原理或其他理论描述,并且不旨在限制范围。所附权利要求中的装置和方法不限于以这种运算理论所描述的方式起作用的那些装置和方法。
可以将任何所公开的方法实现为存储在一个或多个计算机可读介质(例如,计算机可读介质,诸如一个或多个光学介质盘、易失性存储器组件(诸如DRAM或SRAM)、或非易失性存储器组件(诸如硬盘驱动器))上并且在计算机(例如,任何商业可用计算机,包括智能电话或包括计算硬件的其他移动设备)上执行的计算机可执行指令。可以将用于实现所公开的技术的任何计算机可执行指令以及在所公开的实施例的实现期间创建和使用的任何数据存储在一个或多个计算机可读介质(例如,计算机可读存储介质)上。计算机可执行指令可以是例如专用软件应用或经由web浏览器或其他软件应用(诸如远程计算应用)访问或下载的软件应用的一部分。例如,可以在单个本地计算机上(例如,利用在任何合适的商业可用计算机上执行的通用和/或专用处理器)或在网络环境中(例如,经由因特网、广域网、局域网、客户端-服务器网络(诸如云计算网络)、或其他这样的网络)使用一个或多个网络计算机来执行这样的软件。
为清楚起见,仅描述了基于软件的实现的某些所选择的方面。省略了本领域公知的其他细节。例如,应该理解,所公开的技术不限于任何特定的计算机语言或程序。例如,所公开的技术可以由用C、C++、Java或任何其他合适的编程语言所编写的软件来实现。同样地,所公开的技术不限于任何特定的计算机或硬件类型。合适的计算机和硬件的某些细节是公知的,并且不需要在本公开中详细阐述。
此外,可以通过合适的通信方式上载、下载或远程访问任何基于软件的实施例(包括例如用于使计算机执行任何所公开的方法的计算机可执行指令)。这种合适的通信方式例如包括因特网、万维网、内联网、软件应用、电缆(包括光纤电缆)、磁通信、电磁通信(包括RF、微波和红外通信)、电子通信、或其他这样的通信方式。
II.对所公开的技术的介绍
神经网络(NN)被应用于人工智能中的许多应用,包括图像识别、语音识别、搜索引擎和其他合适的应用。对于这些应用的处理可以在诸如个人计算机或手机之类的各个设备上进行,但是也可以在大型数据中心中执行。同时,现场可编程门阵列(FPGA)由于其灵活的性质和每单位计算的低功耗而被部署到数据中心中。
在FPGA设备上的计算的一个特性是:它通常缺乏硬件浮点支持。可以以使用灵活逻辑的代价来执行浮点运算,但是在FPGA实现中通常支持浮点所需的逻辑量是禁止的。已经开发了支持浮点计算的一些较新的FPGA,但即使在这些设备上,如果在整数模式下使用该较新的FPGA,则相同设备每单位时间也可以产生两倍那么多的计算输出。通常,NN是在考虑浮点计算的情况下创建的,但是当FPGA针对NN处理时,如果可以使用整数算术来表达神经网络,则将是有益的。所公开的技术的示例包括块浮点(BFP)的硬件实现,包括在NN、FPGA和其他硬件环境中的BFP的使用。
计算机系统中的典型浮点表示由三部分组成:符号(s)、指数(e)和尾数(m)。符号指示该数是正还是负。指数和尾数被用于科学记数法:
值=s×m×2e (等式1)
可以在尾数的精度限制内表示任何数。由于指数将尾数以2的幂进行缩放,就好像指数在科学记数法中以10的幂进行缩放,所以可以表示非常大的数的量级。表示的精度由尾数的精度确定。典型的浮点表示使用宽度为24或53位的尾数。量级大于253的整数可以以浮点格式被近似,但由于尾数中没有足够的位,因此它无法被准确表示。对于任意分数,可以发生类似的效果,其中分数由尾数的位来表示,其取2的负幂的值。存在许多无法被准确表示的分数,因为它们在二进制数系统中是无理的。在这两种情形下都可能有更准确的表示,但它们可能要求尾数包含更多位。最终,需要无限数目的尾数位来准确地表示一些数(例如,在通用计算机中,24位(单精度浮点数)和53位(双精度浮点数)尾数限制是尾数存储要求与表示精度的常见折衷。
出于本公开的目的,术语“块浮点”意指跨两个或更多个值共用单个指数的数系统,每个值由符号和尾数对表示(存在显式符号位或者尾数本身是带符号的)。在一些示例中,矩阵或向量的一个或多个行或列的所有值,或矩阵或向量的所有值,可以共用共同指数。在其他示例中,BFP表示可以是无符号的。在一些示例中,矩阵或向量BFP表示中的一些但不是所有元素可以包括被表示为整数、浮点数、定点数、代号(symbol)或与用符号、尾数和指数表示的数混合的其他数据格式的数。在一些示例中,矩阵或向量BFP表示中的一些或所有元素可以包括具有两个或更多个部分的复元素,例如:具有虚部的复数(a+bi,其中);包括分子和分母的分数,极坐标(r,θ)或其他多分量元素。
块浮点(BFP)可以被用来以在某些方面与普通浮点类似的方式权衡精度和存储要求。首先,不是针对每个浮点数存储指数,而是一组数可以共用相同的指数。为了在维持高准确度的同时共用指数,数应该具有接近相同的量级,因为在尾数中表达量级的差异。如果量级差异太大,则对于较大的值,尾数将上溢,或者对于较小的值,尾数可能为零(“下溢”)。取决于特定应用,一些量的上溢和/或下溢可能是可接受的。
可以调整尾数的大小以适合特定应用。这可能影响所表示的数的精度,但潜在的收益将来自减少的表示大小。例如,普通的单精度浮点数具有4字节的大小,但是对于所公开的技术的某些实现,仅使用2个字节来表示每个值的符号和尾数。
在所公开的技术的某些示例中,等式(1)中表达的表示被用来从表示中推导出原始数,但是针对一组数仅存储单个指数,每个数由带符号的尾数表示。每个带符号的尾数可以用2个字节或更少的字节表示,因此与四字节浮点相比,存储器存储节省约2倍。此外,加载和存储这些值的存储器带宽要求也大约是普通浮点的一半。
在所公开的技术的一些示例中,浮点硬件实现使用宽乘法器(24位×24位)、宽加法器(48位+48位)、移位器单元和指数处置硬件。对于BFP,每个并行实例采用更窄的乘法器(16位×16位)和加法器(16位+16位),所有这些都可以共用共同指数处置硬件。可以很容易地将这种类型的拓扑映射到FPGA硬件资源,以及向量指令集,诸如Intel SSE和AVX处理器指令。在一些示例中,甚至可以使用8位操作数或甚至更小的带符号的尾数表示以进行进一步改进。
神经网络运算被用于许多人工智能运算中。通常,在实现神经网络中执行的大部分处理运算是执行矩阵×矩阵或矩阵×向量乘法。这样的运算是计算密集和存储器带宽密集的,其中矩阵的大小例如可以是1000×1000个元素(例如,1000×1000个数,每个数包括符号、尾数和指数)或更大并且有很多矩阵被使用。如本文所讨论的,可以将BFP技术应用于这样的运算,以减少对于给定系统中的计算和存储器带宽的需求,无论该给定系统是FPGA、CPU还是其他硬件平台。如本文所使用的,术语“元素”在本文中的使用是指这样的矩阵或向量的成员。
在所公开的技术的某些示例中,用于神经网络的权重矩阵的所有值被编码为共用共同指数的BFP数。使用该共同指数,权重矩阵的每个值然后由带符号的尾数表示,该尾数占用存储器的2个字节。同样,向量的所有值可以与2字节带符号尾数共用共同指数。对于某些CPU和FPGA实现,这也是方便的大小,因为CPU通常支持向量指令(例如,由Intel和AMD处理器提供的AVX指令),它将以2字节整数运行。这些向量指令可以被用来执行乘法累加函数,该乘法累加函数被用来计算矩阵×向量乘法的每个输出元素所需的点积。例如,使用AVX-256指令,每个指令可以执行16次这样的16位乘法,并且随着AVX-512指令、以及甚至更大位宽度的指令被开发,可以执行甚至更多的并行乘法。在FPGA的情况下,对于FPGA内的数字信号处理器(DSP),通常在硬件以及宽累加器寄存器中支持16×16位或18×18位整数乘法。这些乘法器很容易接受2字节带符号尾数格式。当计算对于矩阵×向量乘法的输出向量时,输出向量的指数是矩阵的指数和对于输入向量的指数的和。由于指数本身是名义上的16位或更少,因此该计算在大多数硬件平台上是低开销运算。
III.矩阵×向量乘法的示例BFP实现
图1是图示矩阵×向量乘法的示例BFP实现100内的数据流的框图10。注意,向量输入也可以用矩阵输入来替换,以执行矩阵×矩阵乘法:
M×V=R
其中矩阵M由具有单个指数e1的带符号的整数尾数(m11...mij)的i×j矩阵表示,向量V是具有单个指数e2的带符号的整数尾数(v1...vj)的j长度向量,并且R是带符号的整数尾数(r1...ri)和单个指数e3的i长度结果向量。
在一些示例中,尾数可以是无符号的,并且在BFP实现之外考虑符号分量。
如图1中所示,矩阵输入110包括矩阵尾数M的集合和单个矩阵指数e1。向量输入120包括向量尾数V的集合和单个向量指数e2。将矩阵尾数M和向量尾数V发送到尾数乘法器单元140。在所公开的技术的一些示例中,矩阵输入110和/或向量输入120可以(临时地)存储在FPGA的RAM单元中。例如,根据所公开的示例,块RAM(Xilinx)或存储器块(Altera)可以被用来存储矩阵和向量或使矩阵和向量成队列,包括矩阵输入110和/或向量输入120。在一些示例中,以允许容易访问用于计算的连续元素的布置,例如通过用计数器生成地址,以在RAM中存储矩阵和向量的元素或使这些元素成队列。在一些示例中,其他FPGA存储器单元或外部存储器被用来存储用于矩阵和向量的数据。
尾数乘法器单元130将两个输入矩阵的尾数相乘并产生结果尾数R的矩阵。在一些FPGA示例中,利用FPGA的可编程查找表(LUT)中的逻辑来实现尾数乘法器单元130。在一些示例中,FPGA包括专用乘法器或算术和逻辑单元(ALU)逻辑,其可以被执行以执行乘法。在一些示例中,在FPGA中提供数字信号处理器(DSP)功能,其可以被配置为提供乘法运算。在一些示例中,尾数乘法器单元130包括用于从存储器中选择多个输入值以用于一系列乘法运算的逻辑。将单个指数e1和e2发送到指数加法器140,该指数加法器140将两个指数相加并产生结果指数e3。在一些FPGA示例中,利用FPGA的可编程查找表(LUT)中的逻辑来实现指数加法器140。在一些示例中,FPGA包括专用加法器或算术和逻辑单元(ALU)逻辑,其对指数加法器140执行加法。将结果指数e3发送到输出指数选择器145,产生所选择的结果指数e4,其被输入到输出尾数移位器150。输出尾数移位器150接受尾数乘法器的结果R,输出尾数移位器150可以在该结果R上执行附加函数(如下面进一步解释的)。结果矩阵R和所选择的结果指数e4形成向量结果155,其可以由BFP单元100输出。可以以与输入矩阵或向量类似的方式存储结果矩阵R。因此,在一些FPGA示例中,将向量结果155存储在提供BFP实现10的FPGA内的RAM中,而在其他示例中,将向量结果存储在耦合到FPGA的输出的外部RAM中。
在其他示例中,BFP实现使用通用处理器、数字信号处理器(DSP)、图形处理单元(GPU)、神经网络处理器(NNP)或其他合适的处理器。例如,可以提供用于这些合适处理器中的任何一个的计算机可执行指令,以实现用于浮点运算的BPU表示。在一些示例中,可以有利地提供专用指令,例如单指令多数据(SIMD)或诸如由英特尔高级向量扩展(AVX)指令提供的那些的其他向量指令,以改善用于合适处理器的BFP实现的性能。在一些示例中,制造专用集成电路(ASIC)以实现所公开的BFP运算。
在一些示例中,并且特别是在一些基于NN的示例中,通常可以通过偏置加法器单元160将偏置向量B与向量结果相加,从而产生R+B。在图1中以虚线描绘用于执行这种选项偏置向量加法运算的合适组件:160、170、180、185和/或190,以用结果R和指数e3执行附加运算。例如,为了执行偏置加法,使用可选组件160、170、180和185。为了计算附加函数,使用可选组件190。为了利用附加函数执行偏置加法,使用组件160、170、180、185和190。如受益于本公开的本领域普通技术人员将容易理解的,取决于正在执行的特定运算,可以修改诸如指数加法器140、输出指数选择器145和/或输出尾数移位器150的其他组件的运算。
在一个示例中,通过偏置尾数移位器180移位输入偏置向量B170的尾数以匹配中间结果向量R的尾数。可以由指数减法器185从偏置指数e5中减去由指数加法器140产生的指数e3以产生指数e6。偏置尾数移位器180使用指数e6以将偏置尾数B与中间结果向量尾数R对齐。偏置加法器单元160将经移位的偏置向量输入B与尾数乘法器130的输出相加。在这种情况下,将偏置加法器单元160的R+B输出发送到输出尾数移位器150,以便生成向量结果155而不是仅生成结果向量R,如在没有偏置加法的示例中所使用的那样。
在一些示例中,通过附加函数单元190将附加函数(诸如线性函数、非线性函数、激活函数、传递函数或针对特定应用选择的其他函数)应用于向量结果155。例如,在某些NN处理配置中,经常将sigmoid、双曲正切(tanh)或其他类似函数应用于向量结果155。附加函数单元还接受指数e3,因为用于部分结果R+B的指数使用R+B的元素和e3两者以相应地产生输出f(R+B)。(在没有偏置向量加法的示例中,产生输出f(R))。在神经网络处理示例中,附加函数可以是用于神经网络的节点的激活函数。部分结果指数e3和可选的结果元素f(R+B)进入输出指数选择器145以确定最终输出指数e4。输出指数e4可以是固定值或f(R+B)的元素的函数。输出尾数移位器150将部分结果向量f(R+B)的元素与输出指数e4对齐,并产生最终结果向量。在一些示例中,应用偏置向量B和附加函数两者。可以在应用附加函数之前或之后应用偏置向量B。在其他示例中,仅应用偏置向量B或附加函数中的一个。在其他示例中,既不应用偏置向量B也不应用附加函数。在一些示例中,可以以比输出精度更高的精度执行内部运算,以避免从使用较低位尾数和/或指数执行多个运算中引入精度损失。
被发送到乘法器单元130并作为向量结果输出的尾数的值不一定同时和并行地产生,但是可以以串行的方式产生。例如,乘法器单元130可以包括用于顺序选择输入矩阵和向量的元素的控制逻辑。向量结果由指数选择器单元190采样,该指数选择器单元190产生指数调整信号,该指数调整信号被用来调整用于向量输出的(多个)单个指数。在一些示例中,指数选择器190选择向量结果值的绝对最大值作为下面用于计算(多个)共用指数的等式2的绝对最大值。在一些示例中,指数选择器连续地从向量结果中采样平均值和标准偏差信息,以便生成指数调整信号。例如,可以对最后n个输入和/或输出值进行采样以提供平均值和标准偏差数据,其中n可以是任何合适的值,包括但不限于:512、1024或8192个值。在一些示例中,本文公开的表查找或其他技术可以被用来生成指数调整信号。
如受益于本公开的相关领域的普通技术人员将容易理解的,上面针对图1讨论的矩阵乘法运算是示例运算,其可以用BFP单元来执行并且可以容易地被修改以执行其他运算。例如,可以通过相应地修改所公开的运算来执行矩阵除法、加法或减法,例如通过在相除时执行指数减法或者在执行加法或减法运算时执行指数对齐。此外,可以使用所公开的BFP表示和硬件来执行附加的矩阵运算。例如,可以使用适于使用所公开的BFP表示和硬件的方法来执行矩阵求逆、矩阵转置、行列式计算以及其他矩阵和向量运算。下面的表1中总结了根据各种示例性运算(矩阵乘法M×V、矩阵除法M÷V、矩阵加法M+V和矩阵减法M-V)对BFP单元中的组件执行的函数的修改。
表1
表1示出了作为整体矩阵计算的一部分所执行的尾数和指数运算。例如,当执行矩阵乘法时,将所公开的BFP表示中的输入矩阵/向量的尾数元素相乘,并且(例如,通过将两个共同指数相加)调整输入的相关联的共同指数。在图1中将这些运算描绘为分别由尾数乘法器130和指数加法器140执行。对于矩阵加法,根据相加的两个矩阵之间的指数差异,移位输入矩阵/向量的尾数。输出指数相应增加。类似地,对于矩阵减法,对尾数进行移位和相减,并相应地调整输出指数。在一些示例中,并且如下面进一步详述的,可以以更复杂的方式选择输出指数,以增加得到的BFP表示的总体准确度。
如受益于本公开的相关领域的普通技术人员将容易理解的,图1的BFP实现示出了可选地使用偏置向量输入和可选附加函数的矩阵乘法的示例,其可以适于执行例如包括表1中描述的那些的其他矩阵运算。
应该注意,取决于矩阵或向量中的值,可以不执行一些运算。例如,当可以在不移位尾数或向量移位或相加的情况下表示中间值时,那么不会针对特定运算而移位那些值。在一些示例中,静态地选择被选择要被执行的运算和相关联组件的运算。在其他示例中,可以在各个运算或运算的集合之间动态地选择运算。
可以将用于矩阵和共用指数的值存储在任何合适的存储器存储设备中。例如,可以将矩阵和共用指数存储在可寻址存储器(例如,动态随机存取存储器(DRAM,包括DDR、DDR2等,DRAM)、嵌入式DRAM(eDRAM)或静态随机存取存储器(SRAM)、锁存器阵列、正反器阵列、寄存器文件、块随机存取存储器(block RAM)(有时称为“存储器块”)、先进先出(FIFO)缓冲器或移位寄存器中。在一些示例中,将用于矩阵的值存储在可寻址存储器或寄存器文件中,并且将用于共用指数的值存储在多个正反器或锁存器中。因此,可以避免分配完整的存储器来存储用于共用指数的数据。在一些示例中,诸如正反器或寄存器的存储器被分配以静态地存储用于共用指数的值(例如,一个寄存器存储BFP处理的特定级处的所有指数值,或者矩阵的每列/行分配一个寄存器)。在一些示例中,存储器被分配以动态地存储指数。在一些示例中,可以通过执行表查找来访问指数值(例如,通过使用矩阵的行、列对作为索引来标识共用指数存储位置)。
用图示的BFP实现解决的一个问题是共用共同指数的值的动态范围。如果被分组在共同指数下的所有值都在相对窄的动态范围内,则BFP表示适用,其中与理想的无限精度相比,很少或没有精度损失。如果值具有相对较宽的动态范围,则可能发生精度损失。神经网络中表示的值通常在量级上接近。例如,常用的sigmoid激活函数在[-1,1]之间变化,并且在使用sigmoid的层上,该层的每个输出的最终表示将落入该范围中。合适的sigmoid激活函数的一个示例是:
然而,如受益于本公开的本领域普通技术人员将容易理解的,可以使用其他合适的激活函数。神经网络的初始输入被归一化到小动态范围或来自具有小动态范围的数集合(诸如像素RGB值[0,255])也是常见的。存在窄动态范围假设对神经网络无效的一些情况,并且会发生一些精度损失。饱和度可以被用来减轻这种影响。
IV.共同指数选择的示例
对用于BFP表示中的一组数的指数的选择可以影响使用该组数的计算的精度。如果指数太大,则许多尾数值将下溢,只有少数低阶位为非零。例如,考虑一个BFP示例,其中表示了以下表2中的值:
十进制值 131072 256 1 0.5 0.125
理想十六进制值 0x20000.0 0x0100.0 0x0001.00 0x0000.8 0x0000.2
16位尾数(指数+3) 0x4000 0x0020 <u>0x0000</u> <u>0x0000</u> <u>0x0000</u>
16位尾数(指数-3) <u>0x0000</u> 0x0800 0x0008 0x0004 0x0001
表2
在该示例中,与尾数的动态范围相比,值的动态范围相对宽。在被标记为“十进制值”的行中示出了每个值的熟悉表示,并且在它下面的行(“理想十六进制值”)中示出了相同的数的准确十六进制表示形式。给出了针对表2中的数的16位BFP表示的两个示例。在以下两行中示出了指数的两个选择+3和-3以及它们的尾数等价物。当指数为+3时,两个最大值可以用完全精度明确地表示,但是三个较小的数字下溢并且简单地被表示为0(第三行中三个带下划线的尾数0x0000)。当指数为-3时,最大值上溢并被表示为0(第四行中带下划线的尾数0x0000),而所有较小的数字都被如实地表示。
因此,在该示例中,动态范围对于16位尾数来说太大而无法准确地捕获所有值。在许多情况下,优选下溢而不是上溢,因为下溢值小并且倾向于对结果具有较小的影响,尤其是在诸如神经网络之类的某些应用中。如前所述,在神经网络中,便于分组在单个指数下的值倾向于具有相当窄的动态范围。存在确实出现宽动态范围的情况,并且在那些情况下,指数选择可以考虑上溢和下溢。
存在计算用于BFP表示的(多个)最佳指数的若干不同的方式。当给出值的集合时,诸如对于神经网络的主要输入,通常已知最大和最小可能值。例如,这些值通常是具有范围为[0,1]的浮点数或范围为[0,255]的整数。如果使用16位尾数,则通过首先计算最大值中前导1的位位置可以简单地在尾数内将值左对齐:
其中x值xi∈{x1,x2,...,xn}并且内括号是绝对值。然后,前导一位置被计算如下,
其中外括号指示整数floor函数。然后将指数计算为前导一位置和尾数宽度的函数:
指数=前导一位置-(尾数宽度-2)(等式4)
使用用于指数的绝对最大值保留了用于数表示的最可能的位而不上溢,并允许用于符号位的空间。例如,假设尾数宽度=16,下面的表3示出了将等式2-4应用于各个值xi的结果:
绝对最大值 前导一位置 指数 带符号的16位尾数 被表示的值
1 0 -14 0x4000 1
255 7 -7 0x7F80 255
0.49 -2 -16 0x7D70 0.489990234
3.141593 1 -13 0x6487 3.14147949
表3
为了进一步解释表3:列1是根据等式2的值的绝对最大值(无符号值本身),列2是根据等式3的与二进制点(基数2“小数点”)相关的前导一的位位置,列3是根据等式4的指数值。例如,对于xi=255,二进制表示的前导一位置是二进制点(位7)左边的8位,指数为-7,并且得到的带符号的16位尾数为0x7F80。列4包含基于对应的指数、在转换列1中示出的准确数后的带符号尾数的十六进制值。列5包含由列4中的带符号尾数和来自列3的指数所表示的实际值。
应该注意,负指数对应于向右移位尾数,并且正指数对应于向左移位尾数。通过选择保留最大值的指数,丢失了一些精度,如针对最后两种情况的值表示的列中所示,但所表示的实际值接近起始值。
因此,公开了用于在给定预期的值的绝对最大值的情况下计算指数的方法。这种方法适用于神经网络输入,以及具有已知输出范围的层输出,诸如sigmoid()、双曲正切tanh()等。但是,存在函数的输出范围可能具有宽动态范围的情况,导致上面讨论的精度误差。例如,如果神经网络层的输出是纯线性的而没有应用激活函数,则可能发生这种情况。在这样的网络层中,输出是纯矩阵×向量乘积。
解决该问题的一种方式是假设给定已知矩阵的最坏情况输入向量值并计算可能的输出向量值的极值。在实践中,由于输出向量的动态范围仍然很宽,因此这给出差的结果。可以部分地基于对被建模的特定问题的理解来改进块浮点表示。例如,神经网络部分地基于统计产出来运算。因此,如果误差很少发生,则生成误差可能是可接受的。因此,经修改的方法涉及确定针对给定输出向量的指数,该指数在大多数时间捕获正确的结果。
这可以通过使用实际输入向量计算矩阵×向量乘积并记录有关可能输出的统计数据来实现。通过计算跨许多实际输入向量的输出的绝对值的平均值和方差,可以为输出向量的实际绝对最小值和最大值将统计置信度区间构建到期望置信度。通常用与平均值的标准偏差数来表达置信度区间。例如,如果我们假设输出向量具有平均值μ=10和标准偏差σ=0.5:
低范围 高范围 置信度
μ±1σ 10–0.5=9.5 10+0.5=10.5 68.27%
μ±2σ 10–1=9 10+1=11 95.45%
μ±3σ 10–1.5=8.5 10+1.5=11.5 99.73%
μ±4σ 10–2=8 10+2=12 99.99%
表4
表4图示了:对于高斯分布,取决于偏离平均值的标准偏差数,可以用已知的统计置信度建立多少值将落在该范围内。例如,在3σ处,我们知道99.73%的值的绝对值将落在8.5和11.5的范围内。
因此,跟踪输出向量值的绝对值的平均值和标准偏差允许通过选择动态范围的宽度与所引入的误差的影响来控制。较大的置信度值(较少的误差)对应于值中较宽的动态范围,较低的置信度值(较多的误差)对应于较窄的动态范围。在给定实例中的μ和σ的准确值将建立在动态范围宽度对置信度方面的选择。在选择了给定置信度之后,就可以将高范围值(μ加所选择的σ倍数)用作等式(3)中的绝对最大值以计算指数。
例如,如果从上面的表4中选择99.73%置信度区间(3σ),以及相同的平均值(10)和标准偏差(0.5)以及16位的尾数宽度,则将如下计算指数:
绝对最大值=μ+3σ=10+1.5=11.5
指数=3-(16-2)=-11
由于潜在地存在大量的输出向量要跟踪,因此可以以流的方式跟踪平均值和标准偏差。对于平均值,通过维持跨将要共用共同指数的统计相关的值的集合的累计和并除以值的数目,这很容易实现。在一些示例中,如果值的数目是2的幂,则可能是方便的,因为可以通过移位运算来执行除法。可以通过使用以下等式以累计的方式计算标准偏差:
X的期望值被标志为E(X),其是平均值μ。E(X2)是X2的期望值(或平均值),其可以使用与用于平均值的相同程序但是使用平方X2值来计算。在所公开的技术的一些示例中,维持值的两个累计和(例如,最近的512、1024、8192或其他数目的值),一个跨X值,并且另一个跨X值平方。例如,可以将两个累计和值维持在用链式锁存器、正反器或存储器实现的寄存器中。在累计结束时,X和除以值的数目(使用除法器或移位器),其给出平均值E(X)。以类似的方式对X2值的和进行除法,其给出E(X2)。可以使用E(X)、E(X2)和等式5来计算值σ(X)。
如受益于本公开的本领域普通技术人员将容易理解的,可以将类似的指数选择方法应用于矩阵×矩阵情况。此外,可以调整要在单个指数下被分组的值的数目。因此,虽然前述示例是根据共用相同指数的整个输出向量来构建的,但是对于可以使不同分组更有利的不同应用,存在许多考虑。例如,一个或多个矩阵的各个行可以与单个指数相关联。在其他示例中,矩阵的二维部分可以与单个指数、矩阵对角线相关联,或者可以实现用于将矩阵或矩阵的部分与指数相关联的其他合适的划界。
V.示例神经网络多处理器
图2是可以在所公开的技术的一些示例中实现的神经网络多处理器200的框图。多处理器200包括一个或多个神经处理核中的多个210,包括各个NN处理器核,其包括一个或多个BFP单元(例如,BFP单元100)。多处理器200可以作为定制或专用集成电路(例如,包括片上系统(SoC)集成电路)、现场可编程门阵列(FPGA)或其他可重新配置的逻辑、或作为由物理通用处理器主存的软处理器虚拟机而被实现。例如,支持向量指令的通用处理器,诸如支持SSE、SSE2或AVX指令集的x86_64处理器,可以被用来实现BFP单元。
如图2中所示,多个神经处理器核210经由互连220彼此连接。互连220承载各个核、存储器接口240和输入/输出(I/O)接口250之间的数据和控制信号。互连220可以使用电、光、磁或其他合适的通信技术来发射和接收信号,并且可以取决于特定的期望配置提供根据多种不同拓扑布置的通信连接。例如,互连220可以具有交叉开关、总线、点对点总线或其他合适的拓扑。在一些示例中,多个核210中的任何一个可以连接到任何其他核,而在其他示例中,一些核仅连接到其他核的子集。例如,每个核可以仅连接到最接近的4、8或20个相邻核。互连220可以被用来传输去往和来自核的输入/输出数据,以及传输去往和来自核的控制信号和其他信息信号。例如,每个核可以接收和发射信号量(semaphore),该信号量指示当前由每个相应核执行的运算的执行状态。此外,可以经由互连在核之间共用矩阵和向量值。在一些示例中,互连220被实现为连接核和存储器系统的线,而在其他示例中,核互连可以包括用于在(多个)互连线、开关和/或路由组件上复用数据信号的电路装置,包括活动信号驱动器和中继器,或其他合适的电路装置。在所公开的技术的一些示例中,在多处理器200内和/或去往/来自多处理器200的信号不限于全摆幅电数字信号,而是处理器可以被配置为包括差分信号、脉冲信号或用于发射数据和控制信号的其他适合信号。
在图2的示例中,多处理器的存储器接口240包括被用来连接到存储器245的接口逻辑,存储器245例如是位于除多处理器200之外的另一集成电路上的存储器(例如,存储器可以是静态RAM(SRAM)或动态RAM(DRAM))或嵌入在与处理器相同的集成电路上的存储器(例如,嵌入式SRAM或DRAM(eDRAM))。存储器接口240和/或主存储器可以包括高速缓存(例如,n路或关联高速缓存)以改善存储器访问性能。在一些示例中,使用静态RAM(SRAM)来实现高速缓存,并且使用动态RAM(DRAM)来实现主存储器245。在一些示例中,存储器接口240被包括在与多处理器200的其他组件相同的集成电路上。在一些示例中,存储器接口240包括允许在存储器中传送数据块的直接存储器访问(DMA)控制器。在一些示例中,存储器接口240管理虚拟存储器的分配,扩展可用主存储器245。在一些示例中,编程信息(例如,配置比特流)可以被存储在存储器245中,并且然后被应用以配置多个神经处理核210的可重新配置的逻辑资源。
I/O接口250包括用于接收和发送输入和输出信号到其他组件255的电路装置,诸如硬件中断、系统控制信号、外围接口、协处理器控制和/或数据信号(例如用于图形处理单元、浮点协处理器、物理处理单元、数字信号处理器或其他协处理组件的信号)、时钟信号、信号量或其他合适的I/O信号。I/O信号可以是同步的或异步的。在一些示例中,使用存储器映射的I/O技术结合存储器接口240来实现I/O接口的全部或一部分。在一些示例中,I/O信号实现不限于全摆幅电数字信号,而是I/O接口250可以被配置为提供差分信号、脉冲信号或用于发射数据和控制信号的其他合适信号。
多处理器200还可以包括控制单元260。控制单元260监督多处理器200的运算。可以由控制单元260执行的运算可以包括对用于执行运算的神经处理核的分配和解除分配,包括矩阵和向量乘法、任何核、对存储器接口240和/或I/O接口250之间的输入数据和输出数据的控制、对控制流中的执行流其他变化的修改。控制单元260可以包括用以实现控制单元260的一些或所有控制功能的通用中央处理单元265(例如,ARM、MIPS或x86-64处理器)。例如,被存储在存储器中的指令可以由CPU 265执行以分配、解除分配和发送数据到多个神经处理核210中的一个或多个。
在一些示例中,至少部分地使用以下中的一个或多个来实现控制单元260:硬连线有限状态机、可编程微代码、可编程门阵列或其他合适的控制电路。
VI.示例脉动阵列矩阵运算
图3A是图示了可以在所公开的技术的某些示例中执行的具有偏置向量加法的矩阵乘法的示例的图300。对于给定的输入矩阵I 310,矩阵W 320中的权重集合乘以输入矩阵,并且与偏置向量B 330相加,从而产生结果矩阵C 340。
图3B是描绘矩阵(C00...C12 360)的六个值的图350,其通过将来自权重矩阵W 370的六个值乘以来自输入矩阵I 380的九个值并且加上来自偏置向量B 390的六个值来产生。在实践中,在每个输出矩阵位置C00,C01,…,C12处存在乘法累加单元。针对每个的累加器被初始化为0。在每个时间步长上,I的行向下推进,并且W的列向右推进。当W和I元素中的每对在乘法器矩阵C中相遇时,在该位置中将它们相乘和累加。例如,要相遇的第一对元素将是在时间1处的在位置C00处的W00和I00。在时间2处,元素W01和I10将在C00处相遇,并且它们的乘积将被添加到累加器。在时间3处,对于W02和I20也会发生同样的情况。到时间4,计算C00所需的所有元素对乘法将都已发生,并且累加器将保持W的第一行和I的第一列的点积。类似地,所示出的C的其他5个元素将在它们相应的元素相遇并相乘时被计算出。在最后的元素对相乘(W12和I22)之后,权重矩阵W乘以列向量I的乘法完成,并且累加器保持输出矩阵。最后的步骤是将偏置向量B与矩阵的每列相加,以便产生C的最终值。
在不同通道中通过脉动阵列乘法器对输出矩阵C的子区域执行乘法是可能的。FPGA的资源限制了每个时钟周期可能发生的乘法数目,这迫使我们做出这种妥协。在我们的情况下,每列(如图4中420和422所示)对应于输出矩阵C的一列。这些列(420、422等)中的每列并行执行32次乘法,针对输出矩阵的16行中的每行执行两次。因此,实际上,通过示例性公开的实现的每个列(420、422)的每个通道正在计算输出矩阵C的16行×1列部分。
如受益于本公开的相关领域的普通技术人员将容易理解的,上面针对图3A和图3B讨论的矩阵乘法运算是示例应用并且可以容易地进行修改以执行其他运算。例如,可以通过相应地修改所公开的运算来执行矩阵除法、加法或减法,例如通过在相除时执行指数减法或者在执行加法或减法运算时执行指数对齐。此外,可以使用所公开的BFP表示和硬件来执行附加的矩阵运算。例如,可以使用适于使用所公开的BFP表示和硬件的方法来执行矩阵求逆、矩阵转置、行列式计算以及其他矩阵和向量运算。
VII.用于脉动阵列矩阵乘法器的示例硬件
图4是图示可以在所公开的技术的某些示例中使用的脉动阵列矩阵乘法器的架构视图的框图400。如图所示,定序器410被用来向第一乘法器列420提供权重和输入。第一乘法器列420计算来自先前示例的输出矩阵C的列的部分或全部。还可以复制乘法器列以并行地计算输出矩阵C的附加列的部分或全部。例如,第一乘法器列420从定序器410接收W矩阵的元素,并且可以将它们传递到第二乘法器列422。在一些示例中,仅提供单个乘法列420。乘法列包括:双输入16位输入缓冲器430,其包含I矩阵的单个列,形成脉动阵列列的16个DSP单元(M×V)的列,两个32位输入;16位乘法器单元432;偏置加法器单元434,其将偏置向量与乘法器结果相加;以及32位激活函数436。将激活函数436应用于M×V+B的结果。将激活函数436发送到中继器440,中继器440可以将输出值发送到下一列的中继单元。中继器还可以将一对16位输出发送到输出缓冲器450,然后可以将其重新输入回输入缓冲器430。如图所示,权重矩阵在专用512位路径上从左侧从定序器410进入而没有流量控制。用于脉动阵列矩阵乘法函数的I的每个输入列向量进入每列的顶部,并且如果存在更多层要处理,则所产生的输出可以被循环回顶部以用于计算神经网络中的下一层。如果已经计算了神经网络的最终层,则可以替代地将输出发送到下一列422的中继器440,其然后将它们转发到后续列,直到它们到达定序器410为止。单个32位中继路径可以被用来将输入、输出、偏置和其他相关联的值移入和移出乘法列。
在所公开的技术的一些示例中,通过配置图5中所示的Altera FPGA DSP基元来实现M×V脉动阵列乘法器列432。DSP单元在逻辑上被布置为垂直列,使得当输入数据垂直向下穿过列时,权重数据W可以水平地穿过列。在每个时钟周期上,每个DSP单元将两个16位尾数对相乘,并同时将前一时钟周期的乘法对的结果添加到64位累加器530。因此,在每个时钟周期上,每个DSP消耗权重矩阵W的两行元素和列向量I的两列元素,并且64位累加器530将在运算结束时包含输出矩阵的一个元素。由于存在垂直堆叠的16个DSP,所以存在每个时钟周期消耗的W矩阵的16×2=32个元素,每个时钟周期总共消耗W矩阵数据的32×16位=512位。在所选择的FPGA中,这与目标FPGA的本机外部DDR存储器带宽相匹配。
输入缓冲器430和输出缓冲器450都从Altera存储器块被构造。某些实现利用了双端口Altera存储器模块,这允许从两个源同时读取和写入存储器。因此,使用单个较大的存储器块结构来容纳输入缓冲器430和输出缓冲器450两者是可能的。使用单个较大的存储器块可以在存储器的使用中提供更大的灵活性,因为程序员可以然后在输入或输出数据较小的情况下更有效地使用存储器。结果是,实现相同功能总共需要更少的FPGA存储器块资源。
中继器440是芯片上的环形网络的示例。存在许多方式可以在定序器410和列420和422之间移动数据,但是具有单个环形网络比一些其他实现使用更少的资源。在一些示例中,环形网络通信带宽可以低于其他中继实现,但是在某些应用中,与经由环形网络传送去往/来自列420和422的数据所花费的时间相比,计算时间相对长。此外,可能的是,在从列中产生每个输出集合时,传输来自列420和422的输出数据,而不是等到整个计算完成。这允许了对输出数据传输和计算的管线化,并有效地减轻较长的数据传输时间。在必须将相同数据发送到所有列的一些示例中,诸如对于偏置数据,中继网络可以被配置为支持广播,使得可以利用来自定序器的单个传输将相同的数据发送到所有列,这进一步减少了通信延迟。
VIII.用于执行矩阵运算的示例数字信号处理瓦片
图5是概述可以被用来根据所公开的技术执行矩阵乘法运算的示例数字信号处理(DSP)瓦片的框图500。如图所示,第一16位输入i 510乘以第一16位权重输入w 515。第二16位输入i 520乘以第二16位权重w 525。两次乘法的结果相加并且可以可选地与附加偏置量相加并被存储在64位累加器Acc 530中。在利用DSP瓦片执行多次乘法迭代之后,将输出提供给输出递送器540,输出递送器540可以将输出发送到其他矩阵列或将结果作为矩阵乘法结果输出。图5中所示的所有功能都可以由FPGA或ASIC中的单个DSP瓦片提供,包括输出递送器540。在其他示例中,输出递送器540被提供为连接到DSP瓦片的输出的附加逻辑。应该注意,图5中所描绘的交叉线都不表示连接。
构造Altera DSP块使得乘法及其和都在单个时钟周期中执行,并且累加运算需要第二个时钟周期。因此,DSP相乘累加运算具有两个时钟周期的延迟。然而,乘法+求和运算可以与累加运算管线化,使得在每个时钟周期上可以接受两个输入-权重对以进行最大计算。
输出递送器540未在图4中示出,但是,它被包含在M×V块432内,并且是将16个累积输出结果的集合传递到偏置加法函数434的装置。
IX.示例神经网络实现
以上关于图1-图5讨论的BFP实现可以适于用神经网络执行运算。例如,图6图示了深度神经网络(DNN)600的简化拓扑,其可以被用来使用所公开的BFP实现来执行增强的图像处理。可以使用用于BFP矩阵/向量运算的所公开的技术来实现一个或多个处理层,包括在上述多处理器200中使用多个神经网络核210中的一个或多个。应该注意,本文公开的BFP实现的应用不限于DNN,而是还可以与其他类型的神经网络一起使用,诸如卷积神经网络(CNN),包括具有长短期存储器(LSTM)或门控再循环单元(GRU)的实现、或者可以适于使用本文公开的BFP方法和装置的其他合适的人工神经网络。
如图6中所示,第一节点集合610(包括节点615和616)形成输入层。集合610的每个节点连接到第一隐藏层中的每个节点,第一隐藏层由第二节点集合620(包括节点625和626)形成。第二隐藏层由包括节点635的第三节点集合630形成。输出层由第四节点集合640(包括节点645)形成。每个节点通过将权重应用到从前一节点生成的每个输入并收集权重以产生输出值来产生输出。在一些示例中,每个单独节点可以具有被应用的偏置和/或激活函数。可以使用BFP实现100的实例(例如,如针对隐藏节点635所示)来实现每个节点。例如,任何经适当编程的处理器或FPGA可以被配置为实现所描绘的神经网络600中的节点。
用于这种神经网络BFP实现的合适应用的示例包括但不限于:执行图像识别,执行语音识别,分类图像,将语音转换成文本和/或其他语言、面部或其他生物识别,自然语言处理,自动语言翻译,搜索引擎中的查询处理,自动内容选择,分析电子邮件和其他电子文档,关系管理,生物医学信息学,识别候选生物分子,提供建议或其他分类任务。
对于受益于本公开的相关领域的普通技术人员将显而易见的是,本文公开的BFP矩阵乘法技术,包括共同指数的选择以及一个或多个中间和最终输出级,可以被用来实现所图示的神经网络的一些或所有层。
在一些示例中,每个卷积层中的并行相乘-累加(MAC)单元的集合可以被用来加速计算。而且,并行乘法器单元可以被用在完全连接和密集矩阵乘法级中。也可以使用并行的分类器集合。这种并行化方法具有以增加的控制复杂性为代价进一步加速计算的潜力。对于受益于本公开的相关领域的普通技术人员将显而易见的是,本文公开的BFP矩阵乘法技术,包括共同指数的选择以及一个或多个中间和最终输出级,可以被用来实现所图示的神经网络的一些或所有层。
如受益于本公开的本领域普通技术人员将容易理解的,BFP实现的应用可以被用于使用神经网络的不同方面,无论是单独的还是彼此组合或子组合的。例如,所公开的BFP实现可以被用来经由用于神经网络的梯度下降和/或反向传播运算来实现神经网络训练。此外,所公开的BFP实现可以用于评估神经网络。
X.示例现场可编程门阵列架构
图7是描绘被配置为实现所公开的技术的某些示例的示例现场可编程门阵列(FPGA)架构的框图700。例如,可以将上面关于图2讨论的多处理器200映射到图7的FPGA架构。
FPGA包括以阵列布置的可重新配置的逻辑块阵列。例如,FPGA包括第一行逻辑块和第二行逻辑块,第一行逻辑块包括逻辑块710、711和719,第二行逻辑块包括逻辑块720、721和729。每个逻辑块包括可以被重新配置以实现任意逻辑函数的逻辑并且还可以包括顺序逻辑元件,诸如锁存器、正反器和存储器。使用包括多个互连开关的路由结构来彼此互连逻辑块,这些互连开关也可以是可编程的。例如,存在位于第一行可重新配置的逻辑块和第二行可重新配置的逻辑块之间的第一行开关块730、731、732等。开关可以被配置以便改变承载可重新配置的逻辑块之间的信号的线连接。
FPGA还包括许多更复杂的组件。例如,逻辑块包括多个块RAM,例如,块RAM 740和块RAM 749。块RAM通常包含更大数目的存储器位,例如,通过将地址应用到存储器并且从一个或多个读取端口进行读取来访问的几千个存储器位。在一些示例中,块RAM可以包括两个或更多个写入端口以及两个或更多个读取端口。在其他示例中,块RAM可以仅具有单个读取和/或单个写入端口。虽然通常通过应用地址并读取对应数据来访问块RAM,但是在一些示例中,块RAM可以被配置有附加电路装置,该附加电路装置允许实现更复杂的函数,包括移位寄存器和先进先出(FIFO)缓冲器。
所图示的FPGA还包括多个硬宏块,包括硬宏块750和硬宏块759。这些宏块可以包括更复杂的功能性,诸如处理器功能性、数字信号处理功能性、加速器或被认为是所期望的其他功能。例如,数字信号处理块,诸如上面关于图5所描述的那些,可以被实现为FPGA的一个或多个硬宏块。所图示的FPGA还包括配置端口760,其可以被用来对FPGA中的逻辑器件进行重新编程。在一些示例中,可以直接寻址和读取/写入存储用于逻辑器件的配置信息的配置存储器。在其他示例中,扫描链架构被用来以串行的方式存储配置信息。
FPGA进一步被I/O环770包围,I/O环770可以耦合到逻辑块,块ram和/或硬宏块,以便接收信号并将信号发送到远离FPGA的组件。在一些示例中,I/O信号是全轨电压信号,而其他示例使用差分信号。在一些示例中,I/O端口可以被多路复用(例如,时分复用),以便支持比FPGA上可用的引脚数目更多的信号的输入和输出。
虽然通常通过使用电可擦除存储器可以将FPGA的许多示例重新配置任意次数,但是在其他示例中,可以使用一次性可编程逻辑元件。例如,逻辑块和开关可以使用熔丝、反熔丝或ROM掩模被编程,以在逻辑函数不易求逆时对其进行编程。
在可重新配置的情况下,FPGA通常具有配置端口,该配置端口根据被称为比特流的文件或配置比特流来接收数据。比特流数据被读入到设备中并被用来对逻辑块、开关、块ram和/或硬宏进行编程和配置。当期望新设计时,可以擦除配置并将新设计配置在设备中。在一些示例中,可以部分地重新配置FPGA以便节省编程时间。例如,可以在现场动态地重新配置逻辑块、开关或块ram的子集,而无需重新编程整个设备。
使用所公开的技术,可以实现更高的性能和/或更高效的结构。此外,应该容易理解,虽然FPGA的一些示例是独立的集成电路,但是在其他示例中,FPGA可以被不同地封装,例如被封装在多芯片模块(MCM)中,或者作为定制或基本片上系统(SoC)被封装在相同的电路管芯上。
图8是图示可以被配置来形成示例FPGA集成电路的逻辑结构的一部分的四个可重新配置的逻辑块810、811、812和813的框图800。所示的可重新配置的逻辑块内部的组件是相同的或同类的,但是应该容易理解,在其他示例中,在单个FPGA上可以存在多于一种类型的可重新配置的逻辑块。
第一可重新配置的逻辑块810包括六输入查找表(LUT)820,其耦合到进位逻辑830、多个多路复用器840和845、以及存储元件(这里是D正反器)850。可以使用小存储器(例如,如图所示的具有六个地址位和两个输出位的存储器)来实现LUT 820。因此,任何六输入布尔函数都可以通过使用单个LUT来实现。在一些示例中,可以组合LUT的输出,或者可重新配置的逻辑块可以具有多个LUT,多个LUT可以连接在一起以便执行更复杂的逻辑函数。在一些示例中,除了LUT之外,还可以提供共同逻辑函数。例如,进位逻辑830可以被配置为执行用于加法器的进位传播逻辑。多路复用器被用来选择来自其他组件中的各种输出。例如,多路复用器840可以被用来选择LUT 820或进位逻辑830的输出,而多路复用器845可以被用来选择LUT 820或多路复用器840的另一输出。在一些示例中,多路复用器被用来选择状态元件(例如正反器850)的顺序输出或者查找表的组合输出。对于受益于本公开的本领域普通技术人员来说应该容易理解,可以在可重新配置的逻辑元件中采用不同的逻辑函数、LUT大小和顺序元件。因此,用于将神经网络映射到这种可重新配置的逻辑的技术可以取决于特定目标FPGA架构而变化。可以使用FPGA的配置端口对可重配置的逻辑块内部的逻辑的配置进行编程。在一些示例中,LUT不被编程一次,而是可以被配置为充当存储神经网络中使用的某些数据的小存储器。
在所公开的技术的一些示例中,逻辑综合工具(逻辑编译器)被用来将针对BFP函数的规范转换为配置比特流,该配置比特流可以被应用于FPGA的配置端口以配置用以实现多处理器200或神经网络的一部分的逻辑。在一些示例中,设计者可以使用RPM(经关系地放置的宏)方法来改善面积和互连延迟并实现可重复布局,以便于在模块组成和大规模复制下容易地路由和时序收敛。例如,通过包括结构RTL实例化模块并将它们平铺到调度器中,可以将用于指令调度器的逻辑锁定到单个LUT的集合,允许FPGA内的紧凑的集群和逻辑放置。
XI.到商业FPGA的示例映射
图9是来自用于Stratix V FPGA的Altera公司数据表的框示意图900,其图示了来自图5的DSP块及其数据路径。输入寄存器(510、515、520和525)被示出在左手侧,乘法器和求和运算位于中心,并且累加器寄存器530被示出在右侧。
图10是示例框示意图1000,其进一步详述了与Altera公司制造的示例FPGA中实现的相同DSP的资源的利用。输入寄存器(510、515、520和525)被示出在左侧,但是将权重从左到右传递并且将输入从上到下传递的数据路径未被示出。由于Altera Stratix V FPGA的实现细节,不可能在DSP中包含这些区域,并且它们是使用DSP外部的逻辑来实现的。
XII.利用共用共同指数的矩阵的示例运算方法
图11是概述用矩阵和/或向量执行数学运算的示例方法的流程图1100,该矩阵和/或向量的元素在它们相应的矩阵或向量的两个或更多个值之间共用共同指数。将尾数值存储在每个矩阵或向量中。
在过程框1110处,由矩阵或向量产生块浮点(BFP)表示,其中相应矩阵或向量的至少两个元素共用共同指数。例如,矩阵或阵列中的一个或多个可以包括16位尾数值并且引用共同指数。产生BFP表示可以包括对尾数移位,以便符合所选择的共同指数。在一些示例中,多个矩阵或向量中的每个包括带符号或无符号的尾数的阵列。在一些示例中,将共用共同指数存储在存储器中的单个位置处。在一些示例中,共同指数应用于被存储在相应矩阵或向量中的所有值。在其他示例中,可以将共同指数应用于相应矩阵或向量的多个行的集合。例如,每行可以具有其自己的相关联的共同指数。在一些示例中,矩阵的一部分与共同指数相关联。例如,可以将矩阵划分成四等分,并且矩阵的每个部分(例如,左上、右上、左下、右下)可以与不同的共同指数相关联。如受益于本公开的本领域普通技术人员将容易理解的,在一些示例中,向量矩阵的一些元素共用共同指数,而矩阵或向量的其他元素可以共用不同的共同指数,而另外的其他元素可以与唯一的指数相关联。在一些示例中,可以以不同的表示形式将矩阵或向量的一些元素例如表达为固定点数、整数、代号或其他形式。
在过程框1120处,在矩阵和/或向量上执行数学运算以产生输出矩阵或向量。例如,矩阵可以与矩阵相乘,矩阵可以与向量相乘,向量可以与向量相乘,或者向量可以与矩阵相乘。其他合适的运算,包括sigmoid函数、双曲正切、矩阵求逆、除法、加法、减法或其他合适的矩阵运算,可以作为数学运算的至少一部分而被执行。在一些示例中,执行数学运算包括将被存储在多个矩阵或向量中的第一矩阵或向量中的尾数与被存储在多个矩阵或向量中的第二矩阵或向量中的尾数相乘。执行数学运算的一些示例包括将用于多个矩阵或向量中的第一矩阵或向量的第一共同指数与用于多个矩阵或向量中的第二矩阵或向量的第二共同指数相加。在一些示例中,执行数学运算包括对第一矩阵或向量中的尾数与被存储在第二矩阵或向量中的尾数执行脉动阵列矩阵乘法。
在过程框1130处,选择用于在过程框1120处产生的输出矩阵或向量的全部或一部分的一个或多个经更新的指数。在一些示例中,基于跨输出矩阵或向量中的元素的每个子集的最大绝对值来选择一个或多个指数。在一些示例中,通过确定用于输出矩阵或向量的绝对值的平均值和标准偏差来选择经更新的(多个)共同指数。在一些示例中,基于用于跨矩阵或向量的每个相应子集的值的置信度区间来选择指数中的至少一个。在一些示例中,选择基于由针对输出矩阵或向量的相应部分的预期的所选择的经更新的共同指数所引入的经评估的误差值和/或动态范围的宽度。例如,可以在表示性的值的动态范围的宽度和输出矩阵与针对输出矩阵的所选择的经更新的(多个)共同指数所引入的误差之间进行折衷。在一些示例中,通过检查上溢条件并调整经更新的(多个)共同指数来选择(多个)共同指数,以避免或最小化这种上溢或下溢条件。在一些示例中,通过使用输出矩阵或向量的预定义的数目的先前元素值来确定(多个)经更新的(多个)共同指数。因此,当执行计算以生成输出矩阵或向量时,(多个)共同指数可以基于值的滚动(rolling)集合。在一些示例中,选择(多个)共同指数包括针对输出矩阵或向量所计算的元素值的一部分计算平均值、标准偏差和/或方差。例如,滚动数目的输出值可以被用于计算滚动平均值、标准偏差或方差。
在过程框1140处,针对经更新的矩阵或向量产生BFP表示,其中经更新的矩阵或向量的至少两个元素共用共同指数。在一些示例中,在产生经更新的矩阵或向量之后,可以执行附加的数学运算和/或可以针对数学运算的每次连续迭代更新共同指数。如受益于本公开的本领域普通技术人员将容易理解的,在一些示例中,向量矩阵的一些元素共用共同指数,而矩阵或向量的其他元素可以共用不同的共同指数,而另外的其他元素可以与唯一的指数相关联。在一些示例中,可以以不同的表示形式将矩阵或向量的一些元素例如表达为固定点数、整数、代号或其他形式。
在一些示例中,图11中概述的方法可以被用来更新用于神经网络内的节点的相关联的值。由于神经网络中的节点值或权重不一定需要100%准确,因此通过使用共用共同指数引起的舍入或其他误差对于特定神经网络应用可能是可接受的。例如,图11中概述的方法可以被用来更新包括卷积神经网络的神经网络内的一层节点值。对于后续运算,实现可以重复上述在过程框1120、1130和/或1140处的运算,以使用BFP表示来执行附加运算。例如,存储BFP表示的存储器可以重新用于后续运算。可以将过程框1140处的BFP表示乘积转换为另一表示以供其他应用使用。例如,可以将所产生的BFP表示转换为以浮点或定点格式表示的矩阵/向量。此外,在一些示例中,得到的和其他矩阵/向量可以保留在BFP表示中以被用作神经网络评估中的后续级的输入,而不转换为另一表示。
XIII.使用自定义功能块配置逻辑器件的示例方法
图12是概述如可以在所公开的技术的某些示例中执行的配置可重新配置的逻辑器件的示例方法的流程图1200。例如,上面关于图8和图9讨论的FPGA可以被配置为实现图2的多处理器200的全部或一部分,包括神经网络核的一些或全部。
在过程框1210处,映射对多处理器组件的描述以重新配置FPGA的逻辑器件组件。例如,过程设计者可以以硬件描述语言(诸如SystemVerilog、SystemC、VHDL、Verilog或任何其他合适的硬件描述语言的组合)指定对多处理器的描述。在一些示例中,以诸如C、C++或OpenCL的传统编程语言编写的描述被用来描述多处理器的至少一部分。对多处理器的描述可以包括上面讨论的任何组件。在一些示例中,设计者可以指定要由神经网络硬件的元件作为目标的特定FPGA单元。例如,设计者可以指定将脉动矩阵运算映射到FPGA的DSP资源。在一些示例中,程序员可以使用由FPGA供应商提供的可用宏来实现定制函数单元、FIFO缓冲器、移位寄存器以及使用针对该FPGA的经济映射的其他组件。在一些示例中,基于对应的FPGA结构的宽度来选择尾数的宽度或指数。这可以提高某些FPGA实现的效率(例如,通过选择对应于FPGA的16或32位宽结构的16位或32位宽格式。
在过程框1220处,产生配置比特流,以用于实现包括神经网络节点和层的多处理器200的电路。例如,可以编译以硬件描述语言表达的对多处理器的描述以生成网表,并且网表继而被用来生成比特流文件。可以将比特流文件中指示的信号应用于FPGA的配置接口,以便配置FPGA以执行用于根据所公开的技术实现多处理器的功能。
在过程框1230处,使用在过程框1220处生成的比特流来配置可重新配置的逻辑器件。例如,一些FPGA具有配置端口,其被用来将数据流式传输到FPGA的配置存储器中,从而配置FPGA。在一些示例中,通过并行或其他可寻址端口来寻址FPGA的配置存储器。在一些示例中,具有与FPGA类似的结构的可配置的逻辑器件可以被配置一次,但是不被重新配置。在其他示例中,可以电擦除并重写FPGA以便提供新配置。在一些示例中,每当集成电路被重新供电时就重新配置FPGA,而在其他示例中,FGPA配置维持跨重复的电力循环的状态。
XIV.示例计算环境
图13图示了合适的计算环境1300的一般化示例,其中可以实现所描述的实施例、技术和科技,包括配置多处理器。例如,计算环境1300可以实现所公开的技术,其用于配置处理器以实现所公开的多处理器架构和神经网络,和/或将代码编译成用于执行如本文所述的包括神经网络的这种运算的计算机可执行指令和/或配置比特流。
计算环境1300不旨在对技术的使用范围或功能性提出任何限制,因为技术可以在不同的通用或专用计算环境中实现。例如,所公开的技术可以用其他计算机系统配置来实现,包括手持设备、多处理器系统、可编程消费电子产品、网络PC、小型计算机、大型计算机等。所公开的技术还可以在分布式计算环境中实践,其中由通过通信网络链接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于本地和远程存储器存储设备中。
参考图13,计算环境1300包括至少一个处理单元1310和存储器1320。在图13中,该最基本配置1330被包括在虚线内。处理单元1310执行计算机可执行指令,并且可以是真实或虚拟处理器。在多处理系统中,多个处理单元执行计算机可执行指令以增加处理能力,并且如此,多个处理器可以同时运行。存储器1320可以是易失性存储器(例如,寄存器、高速缓存、RAM)、非易失性存储器(例如,ROM、EEPROM、闪速存储器等)、或两者的某种组合。存储器1320存储软件1380、图像和视频,其可以例如实现本文所描述的技术。计算环境可以具有附加特征。例如,计算环境1300包括存储装置1340、一个或多个输入设备1350、一个或多个输出设备1360、以及一个或多个通信连接1370。诸如总线、控制器或网络之类的互连机制(未示出)互连计算环境1300的组件。通常,操作系统软件(未示出)为在计算环境1300中执行的其他软件提供操作环境,并协调计算环境1300的组件的活动。
存储装置1340可以是可移除的或不可移除的,并且包括磁盘、磁带或盒、CD-ROM、CD-RW、DVD或可以被用来存储信息并且可以在计算环境1300内被访问的任何其他介质。存储装置1340存储用于软件1380的指令,其可以被用来实现本文所描述的技术。
(多个)输入设备1350可以是触摸输入设备,诸如键盘、小键盘、鼠标、触摸屏显示器、笔或轨迹球、声音输入设备、扫描设备或向计算环境1300提供输入的另一设备。对于音频,(多个)输入设备1350可以是接受模拟或数字形式的音频输入的声卡或类似设备,或者是向计算环境1300提供音频样本的CD-ROM读取器。(多个)输出设备1360可以是显示器、打印机、扬声器、CD刻录机或提供来自计算环境1300的输出的另一设备。
(多个)通信连接1370实现通过通信介质(例如,连接网络)与另一计算实体进行通信。通信介质递送诸如计算机可执行指令、压缩图形信息、视频或经调制的数据信号中的其他数据之类的信息。(多个)通信连接1370不限于有线连接(例如,兆位或千兆位以太网、Infiniband、电或光纤连接上的光纤信道),而是还包括无线技术(例如,经由蓝牙的RF连接、WiFi(IEEE 802.11a/b/n)、WiMax、蜂窝、卫星、激光、红外线)和用于为所公开的方法提供网络连接的其他合适的通信连接。在虚拟主机环境中,(多个)通信连接可以是由虚拟主机提供的虚拟化网络连接。
可以使用在计算云1390中实现所公开技术的全部或一部分的计算机可执行指令来执行所公开的方法的一些实施例。例如,利用位于计算环境中的服务器来实现所公开的编译器、处理器和/或神经网络,或者可以在位于计算云1390中的服务器上实现所公开的编译器、处理器和/或神经网络。在一些示例中,所公开的编译器在传统的中央处理单元(例如,RISC或CISC处理器)、扩展到包括向量处理指令的中央处理单元或向量处理器上执行。
计算机可读介质是可以在计算环境1300内访问的任何可用介质。作为示例而非限制,利用计算环境1300,计算机可读介质包括存储器1320和/或存储装置1340。如应该容易理解的,术语计算机可读存储介质包括用于数据存储的介质,诸如存储器1320和存储装置1340,而不是诸如经调制的数据信号之类的传输介质。
XV.所公开的技术的附加示例
如受益于本公开的本领域普通技术人员将显而易见的,取决于要被执行的期望应用或功能,所公开的方法、装置和计算机可读存储介质可以以各种组合和子组合彼此组合。例如,在所公开的技术的一些示例中,一种方法包括:产生多个矩阵或向量的块浮点(BFP)表示,其中相应矩阵或向量的至少两个元素共用共同指数;在多个矩阵或向量中的两个或多个矩阵或向量上执行数学运算;产生输出矩阵或向量;基于输出矩阵或向量,选择针对输出矩阵或向量的至少两个或更多个元素的经更新的共同指数;以及产生经更新的矩阵或向量的BFP表示,经更新的矩阵或向量的至少两个元素共用共同指数。在该方法的一些示例中,在两个矩阵上执行数学运算。在一些示例中,在矩阵和向量上执行数学运算。在一些示例中,在两个向量上执行数学运算。在一些示例中,数学运算是矩阵乘法、除法、加法或减法之一。在一些示例中,数学运算包括标量向量(例如,偏置向量)的加法或减法。在一些示例中,数学运算包括其他矩阵运算,诸如求逆、分解、转置或行列式的计算。
在所公开的技术的一些示例中,利用BFP实现执行的矩阵或向量运算包括:通过将针对两个矩阵(或矩阵和向量、或向量和向量)的尾数元素相乘并调整针对两个矩阵的输出共同指数来执行矩阵乘法,以产生输出的经相乘的矩阵(或向量)。例如,可以将两个共同指数相加。在其他示例中,采用选择共同指数的不同方式(例如,通过选择指数来减少输出BFP表示中的误差)。一些示例包括:通过除以针对两个矩阵的多个尾数元素中的每个尾数元素并且调整相应的共同指数来执行矩阵除法,从而产生输出的经相除的矩阵。例如,可以从一个共同指数中减去另一共同指数。在其他示例中,采用选择共同输出指数的不同方式(例如,通过选择指数来减少输出BFP表示中的误差)。一些示例包括将一个矩阵的尾数移位并将经移位的尾数与第二矩阵的尾数元素相加。选择经更新的共同指数来表示得到的输出矩阵(例如,通过相应地增大指数)。在一些示例中,通过将一个矩阵的尾数移位并减去尾数元素,从第二矩阵中减去一个矩阵,然后选择经更新的共同指数以表示得到的输出矩阵(例如,通过相应地减小指数)。在一些示例中,可以选择结果中的不同共同指数以提高结果矩阵的精度。
在所公开的技术的一些示例中,多个矩阵或向量包括带符号或无符号的尾数的阵列。在一些示例中,将共用共同指数存储在存储器中的单个位置处。在一些示例中,共同指数应用于被存储在相应矩阵或向量中的所有值。在其他示例中,可以针对相应矩阵或向量的多个行的集合应用共同指数。例如,每行可以具有其自己的相关联的共同指数。在一些示例中,矩阵的一部分与共同指数相关联。例如,可以将矩阵划分为四等份,并且矩阵的每个部分,例如,左上、右上、左下、右下,可以与不同的共同指数相关联。可以将用于矩阵和共用指数的值存储在任何合适的存储器存储设备中。例如,可以将矩阵和共用指数存储在可寻址存储器(例如,动态随机存取存储器(DRAM,包括DDR、DDR2等,DRAM)、嵌入式DRAM(eDRAM)或静态随机存取存储器(SRAM)、锁存器阵列、正反器阵列、寄存器文件、块随机存取存储器(block RAM)(有时称为“存储器块”)、先进先出(FIFO)缓冲器或移位寄存器中。在一些示例中,将用于矩阵的值存储在可寻址存储器或寄存器文件中,并且将用于共用指数的值存储在多个正反器或锁存器中。在一些示例中,诸如正反器或寄存器的存储装置被分配以静态地存储用于共用指数的值(例如,一个寄存器存储BFP处理的特定级处的所有指数值,或者矩阵的每列/行分配一个寄存器)。在一些示例中,存储装置被分配以动态地存储指数。在一些示例中,可以通过执行表查找来访问指数值(例如,通过使用矩阵的行、列对作为索引来标识共用指数存储位置)。
在所公开的技术的一些示例中,一种执行数学运算的方法还包括:将针对多个矩阵或向量中的第一矩阵或向量的第一共同指数与针对多个矩阵或向量中的第二矩阵或向量的第二共同指数相加。在一些示例中,执行数学运算还包括:对被存储在多个矩阵或向量中的第一矩阵或向量中的尾数与被存储在多个矩阵或向量中的第二矩阵或向量中的尾数执行脉动阵列矩阵乘法。在一些示例中,执行数学运算还包括:将偏置向量与多个矩阵或向量的乘积相加或相减。在一些示例中,执行数学运算还包括:对多个矩阵或向量的乘积执行附加函数。附加函数可以是线性函数、非线性函数、激活函数、传递函数或针对特定应用选择的其他函数。在用于神经网络处理的方法的示例中,经常将sigmoid、双曲正切(tanh)或其他类似函数应用于向量结果。
在所公开的技术的一些示例中,选择经更新的共同指数包括:计算针对输出矩阵或向量所计算的部分但不是所有输出元素值的平均值、标准偏差和/或方差。在示例中,选择经更新的共同指数包括:评估由针对输出矩阵向量的所选择的经更新的共同指数引入的误差。在所公开的技术的一些示例中,针对BFP表示中的矩阵或向量中的所有值选择单个共同指数。在一些示例中,共同指数被用于多个矩阵或向量中的相应矩阵或向量中的一些但不是所有值。在一些示例中,行中、列中或整个阵列中的所有元素可以具有不同的尾数并且共用共同指数。在一些示例中,矩阵或向量的两个或更多个元素的指定组合和子组合可以共用共同指数。在一些示例中,矩阵或向量的两个或更多个元素的任意组合可以共用共同指数。在一些示例中,诸如正反器或寄存器之类的存储装置被分配以静态地存储用于共用指数的值(例如,一个寄存器存储BFP处理的特定级处的所有指数值,或者矩阵的每列/行分配一个寄存器)。在一些示例中,存储装置被分配以动态地存储指数。在一些示例中,可以通过执行表查找来访问指数值(例如,通过使用矩阵的行、列对作为索引来标识共用指数存储位置)。
在一些示例中,所执行的数学运算包括:执行矩阵乘法,并且将针对多个矩阵或向量中的第一矩阵或向量的第一共同指数与针对多个矩阵或向量中的第二矩阵或向量的第二共同指数相加。在一些示例中,数学运算包括:执行矩阵除法,并且从针对多个矩阵或向量中的第二矩阵或向量的第二共同指数中减去针对多个矩阵或向量中的第一矩阵或向量的第一共同指数。在一些示例中,数学运算包括:执行矩阵加法或减法,并且对多个矩阵或向量中的至少一个矩阵或向量的尾数移位。在一些示例中,将偏置向量与数学运算的结果相加。在一些示例中,激活函数被应用于数学运算的结果。在一些示例中,将偏置向量与结果相加,并且将激活函数应用于具有经相加的偏置向量的结果。
在所公开的技术的一些示例中,该方法还包括:利用由执行数学运算所产生的元素值来更新用于神经网络的节点值。在一些示例中,神经网络是DNN、CNN、LSTM或GRU。在一些示例中,使用通用处理器来实现神经网络,通用处理器包括适于使用诸如SSE、SSE2或AVXx86_64指令的向量或SIMD指令的通用处理器。用于所公开的方法的神经网络硬件还可以包括向量处理器、定制集成电路、专用集成电路(ASIC)、现场可编程门阵列(FPGA)、图形处理单元(GPU)、神经网络处理器和/或数字信号处理组件。
在一些示例中,该方法还包括重复以下动作:执行数学运算,选择经更新的共同指数,以及利用经更新的共同指数产生经更新的矩阵或向量的BFP表示。
在该方法的一些示例中,使用用于矩阵乘法的装置,执行数学运算。在一些示例中,使用用于共同指数更新的装置,执行通过选择经更新的共同指数来执行数学运算。在一些示例中,使用用于产生矩阵或向量的BFP表示的装置,执行通过产生经更新的矩阵或向量的BFP表示来执行数学运算。在一些示例中,采用用于执行数学运算的前述技术中的任何两个或全部三个技术。
在一些示例中,该方法包括对可重新配置的逻辑器件和/或数字信号处理组件进行编程以执行所述方法动作中的一个或多个。例如,配置存储器可以被用来在发起所述方法动作的执行之前对FPGA进行编程。
在所公开的技术的一些示例中,一种方法包括在多个矩阵或向量中的两个或更多个矩阵或向量上执行数学运算;产生块浮点表示(BFP)输出矩阵或向量,相应矩阵或向量的至少两个尾数共用共同指数;以及针对输出矩阵或向量的两个或更多个值选择经更新的共同指数。在该方法的一些示例中,在两个矩阵上执行数学运算。在一些示例中,在矩阵和向量上执行数学运算。在一些示例中,在两个向量上执行数学运算。在一些示例中,数学运算是矩阵乘法、除法、加法或减法之一。在一些示例中,数学运算包括标量向量(例如,偏置向量)的加法或减法。在一些示例中,数学运算包括其他矩阵运算,例如求逆、分解、转置或行列式的计算。
在该方法的一些示例中,多个矩阵或向量包括带符号或无符号的尾数的阵列。在一些示例中,将共用共同指数存储在存储器中的单个位置处。在一些示例中,共同指数应用于被存储在相应矩阵或向量中的所有值。在其他示例中,可以将共同指数应用于相应矩阵或向量的多个行的集合。例如,每行可以具有其自己的相关联的共同指数。在一些示例中,矩阵的一部分与共同指数相关联。
在该方法的一些示例中,选择经更新的共同指数包括:确定针对输出矩阵或向量的平均值、标准偏差或绝对值的平均值和标准偏差。在一些示例中,该方法包括:基于针对输出矩阵或向量的值的置信度区间来选择指数。在一些示例中,选择经更新的共同指数基于针对输出矩阵或向量所计算的预定数目的先前输出元素值。对于该示例,预定数目可以是任何合适数目的值,包括:1、2、4、8、16、32、48、64、128、256、512、1024或8192。在一些示例中,先前的输出元素值不是动态地被计算的,而是在对BFP表示执行运算之前被静态地指派。在该方法的一些示例中,对于多个矩阵或向量中的相应矩阵或向量中的一些但不是所有值应用共同指数。在一些示例中,使用单个共同指数。在一些示例中,针对矩阵的每行或列指派共同指数。在一些示例中,选择经更新的共同指数包括:评估由针对输出矩阵向量的所选择的经更新的共同指数引入的误差。例如,可以计算误差量级并将其与预定值进行比较,以确定是否调整所选择的共同指数。
在所公开的技术的一些示例中,用于使用BFP表示来执行矩阵和/或向量运算的系统包括被配置为控制神经网络的运算的通用处理单元和存储器;以及
在所公开的技术的一些示例中,系统被配置为利用由执行数学运算所产生的元素值来更新用于神经网络的节点值。在一些示例中,神经网络是DNN、CNN、LSTM或GRU。在一些示例中,使用通用处理器来实现神经网络,通用处理器包括适于使用诸如SSE、SSE2或AVXx86_64指令的向量或SIMD指令的通用处理器。用于所公开的方法的神经网络硬件还可以包括向量处理器、定制集成电路、专用集成电路(ASIC)、现场可编程门阵列(FPGA)、图形处理单元(GPU)、神经网络处理器和/或数字信号处理组件。在不使用神经网络的其他应用的示例中,可以采用类似的硬件来对BFP表示进行运算,包括上述通用或专用处理器、ASIC、SoC、FPGA、和/或DSP。
在系统的一些示例中,可以将针对矩阵和共用指数的值存储在任何合适的存储器存储设备中。例如,可以将矩阵和共用指数存储在可寻址存储器(例如,动态随机存取存储器(DRAM,包括DDR、DDR2等,DRAM)、嵌入式DRAM(eDRAM)或静态随机存取存储器(SRAM)、锁存器阵列、正反器阵列、寄存器文件、块随机存取存储器(block RAM)(有时称为“存储器块”)、先进先出(FIFO)缓冲器或移位寄存器中。在一些示例中,将用于矩阵的值存储在可寻址存储器或寄存器文件中,并且将用于共用指数的值存储在多个正反器或锁存器中。在一些示例中,诸如正反器或寄存器的存储装置被分配以静态地存储用于共用指数的值(例如,一个寄存器存储BFP处理的特定级处的所有指数值,或者矩阵的每列/行分配一个寄存器)。在一些示例中,存储装置被分配以动态地存储指数。在一些示例中,可以通过执行表查找来访问指数值(例如,通过使用矩阵的行、列对作为索引来标识共用指数存储位置)。
在一些示例中,系统还被配置为执行运算,包括在多个矩阵或向量中的两个或更多个矩阵或向量上执行数学运算;产生输出矩阵或向量;基于输出矩阵或向量,选择经更新的共同指数;以及产生经更新的矩阵或向量的BFP表示,经更新的矩阵或向量的至少两个元素共用共同指数。在一些示例中,系统被配置为将多个共同指数中的一个共同指数指派给用于矩阵或向量中的每个元素的相应尾数。
在一些示例中,利用可重新配置的逻辑器件(包括例如FPGA)来执行运算。利用可重新配置的逻辑器件执行的运算可以包括:将针对一系列输出矩阵或向量的尾数和/或指数存储在存储器中,其中选择经更新的共同指数基于被存储在存储器中的尾数和/或指数。用于存储矩阵和/或向量的存储器可以包括以下中的任何一个或多个:可寻址存储器、寄存器文件、块随机存取存储器(RAM)、FIFO缓冲器或移位寄存器。在一些示例中,系统还执行:将针对多个矩阵或向量中的第一矩阵或向量的第一共同指数与针对多个矩阵或向量中的第二矩阵或向量的第二共同指数相加。
在一些示例中,数学运算是矩阵乘法、除法、加法或减法之一。在一些示例中,数学运算包括标量向量(例如,偏置向量)的加法或减法。在一些示例中,数学运算包括其他矩阵运算,诸如求逆、分解、转置或行列式的计算。在一些示例中,运算包括多个运算。
在所公开的技术的一些示例中,该系统包括具有多个神经处理核的多处理器。在一些示例中,该系统包括定序器。在一些示例中,该系统包括耦合到单个函数列(例如,乘法器列)的定序器。在其他示例中,两个或更多个函数列(例如,两个或更多个乘法器列)耦合到定序器并被用来执行BFP表示运算,包括脉动阵列乘法。在一些示例中,函数列包括输入缓冲器,其被配置为从被存储在存储器中的矩阵或向量接收操作数。在一些示例中,乘法器列包括乘法器和加法器。在其他示例中,代替乘法器和加法器或者除了乘法器和加法器之外还提供其他函数单元,包括减法器、除法器、加法器或移位器。在一些示例中,乘法器列包括被配置为对输入元素执行所选择的运算的一个或多个算术和逻辑单元(ALU)。在一些示例中,提供函数单元以将激活、传递或其他函数应用于列中的先前函数单元的输出。在使用两个或更多个函数列的示例中,可以使用中继将操作数从第一列发送到第二列,或者发送去往和来自耦合列的操作数。在一些示例中,函数列包括输出缓冲器,以用于将列的操作数输出到例如定序器。
在所公开的技术的一些示例中,一个或多个计算机可读存储设备或存储器存储计算机可读指令,该计算机可读指令在由计算机执行时使计算机执行所公开的方法中的至少任一个方法。在一些示例中,系统被配置为执行所公开的方法中的至少任一个方法。在一些示例中,系统耦合到存储计算机可读指令的计算机可读存储设备或存储器,该计算机可读指令在被执行时使系统执行所公开的方法中的至少任一个方法。
鉴于可以应用所公开的主题的原理的许多可能的实施例,应该认识到,所图示的实施例仅是优选的示例,并且不应被视为将权利要求的范围限制于那些优选的示例。而是,所要求保护的主题的范围由以下权利要求来限定。因此,我们将落在这些权利要求及其等同物的范围内的全部都要求保护为我们的发明。

Claims (15)

1.一种方法,包括:
配置电路以执行块浮点运算,所述电路包括可重新配置的逻辑器件、数字信号处理器组件或神经网络组件,所述运算包括:
产生多个矩阵或向量的块浮点(BFP)表示,相应的所述矩阵或向量的至少两个元素共用共同指数;
在所述多个矩阵或向量中的两个或更多个矩阵或向量上执行数学运算,产生输出矩阵或向量;
基于所述输出矩阵或向量,选择用于所述输出矩阵或向量的至少两个或更多个元素的经更新的共同指数;以及
产生经更新的矩阵或向量的BFP表示,经更新的所述矩阵或向量的至少两个元素共用共同指数。
2.根据权利要求1所述的方法,其中执行所述数学运算包括:
在针对所述多个矩阵或向量中的第一矩阵或向量的一个或多个尾数和/或指数上执行运算与在针对所述多个矩阵或向量中的第二矩阵或向量的一个或多个尾数和/或指数上执行运算相结合。
3.根据权利要求1或权利要求2所述的方法,其中执行所述数学运算包括:
针对被存储在所述多个矩阵或向量中的第一矩阵或向量中的尾数与被存储在所述多个矩阵或向量中的第二矩阵或向量中的尾数执行脉动阵列矩阵乘法。
4.根据权利要求1至3中任一项所述的方法,其中执行所述数学运算包括:
将偏置向量与所述多个矩阵或向量的乘积相加。
5.根据权利要求1至4中任一项所述的方法,其中执行所述数学运算包括:
对所述多个矩阵或向量的乘积执行附加函数。
6.根据权利要求1至5中任一项所述的方法,其中在所述多个矩阵或向量中的所述两个或更多个矩阵或向量上执行所述数学运算包括:
执行矩阵乘法,并且将针对所述多个矩阵或向量中的第一矩阵或向量的第一共同指数与针对所述多个矩阵或向量中的第二矩阵或向量的第二共同指数相加;
执行矩阵除法,并且从针对所述多个矩阵或向量中的第二矩阵或向量的第二共同指数中减去针对所述多个矩阵或向量中的第一矩阵或向量的第一共同指数;或
执行矩阵加法或减法,并且将所述多个矩阵或向量中的至少一个矩阵或向量的尾数移位。
7.根据权利要求1至6中任一项所述的方法,其中选择经更新的所述共同指数包括:计算针对所述输出矩阵或向量所计算的部分但不是所有输出元素值的平均值、标准偏差和/或方差。
8.根据权利要求1至7中任一项所述的方法,其中选择经更新的所述共同指数基于针对所述输出矩阵或向量的值的置信度区间而被选择。
9.根据权利要求1至8中任一项所述的方法,其中选择经更新的所述共同指数基于针对所述输出矩阵或向量所计算的预定数目的先前输出元素值而被选择。
10.根据权利要求1至9中任一项所述的方法,其中选择经更新的所述共同指数包括:评估由针对所述输出矩阵向量的所选择的经更新的所述共同指数引入的误差。
11.根据权利要求1至10中任一项所述的方法,还包括:利用由执行所述数学运算所产生的元素值来更新用于神经网络的节点值。
12.根据权利要求1至11中任一项所述的方法,其中所述方法还包括:
通过执行表查找来访问经更新的所述共同指数,在所述输出矩阵或向量上执行运算。
13.一种或多种计算机可读存储设备或存储器,其存储计算机可读指令,所述计算机可读指令在由计算机执行时使所述计算机执行权利要求1至12中任一项所述的方法。
14.一种系统,包括:
通用处理单元和存储器,被配置为控制神经网络的运算;以及
一个或多个可编程逻辑器件,包括所述神经网络,所述神经网络的多个节点利用所述可编程逻辑器件通过执行包括以下的运算而被实现:
在多个矩阵或向量中的两个或更多个矩阵或向量上执行数学运算,产生输出矩阵或向量;
基于所述输出矩阵或向量,选择经更新的共同指数并且将经更新的所述共同指数存储在所述可编程逻辑器件可访问的单个存储器位置处;以及
产生经更新的矩阵或向量的BFP表示,经更新的所述矩阵或向量的至少两个元素共用经更新的所述共同指数。
15.根据权利要求14所述的系统,其中由所述可编程逻辑器件执行的所述运算还包括:
将针对所述输出矩阵或向量中的一系列输出矩阵或向量的尾数和/或指数存储在存储器中;
其中选择经更新的所述共同指数基于被存储在所述存储器中的所述尾数和/或指数;以及
其中所述存储器是以下之一:可寻址存储器、寄存器文件、块随机存取存储器(RAM)、FIFO缓冲器或移位寄存器。
CN201780076041.0A 2016-12-07 2017-12-01 用于神经网络实现的块浮点 Active CN110050256B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310915210.2A CN116894145A (zh) 2016-12-07 2017-12-01 用于神经网络实现的块浮点

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201662431364P 2016-12-07 2016-12-07
US62/431,364 2016-12-07
US15/592,021 2017-05-10
US15/592,021 US10528321B2 (en) 2016-12-07 2017-05-10 Block floating point for neural network implementations
PCT/US2017/064150 WO2018106526A1 (en) 2016-12-07 2017-12-01 Block floating point for neural network implementations

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN202310915210.2A Division CN116894145A (zh) 2016-12-07 2017-12-01 用于神经网络实现的块浮点

Publications (2)

Publication Number Publication Date
CN110050256A true CN110050256A (zh) 2019-07-23
CN110050256B CN110050256B (zh) 2023-07-25

Family

ID=62243083

Family Applications (2)

Application Number Title Priority Date Filing Date
CN202310915210.2A Pending CN116894145A (zh) 2016-12-07 2017-12-01 用于神经网络实现的块浮点
CN201780076041.0A Active CN110050256B (zh) 2016-12-07 2017-12-01 用于神经网络实现的块浮点

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN202310915210.2A Pending CN116894145A (zh) 2016-12-07 2017-12-01 用于神经网络实现的块浮点

Country Status (5)

Country Link
US (2) US10528321B2 (zh)
EP (2) EP3552090B1 (zh)
CN (2) CN116894145A (zh)
ES (1) ES2871554T3 (zh)
WO (1) WO2018106526A1 (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110009099A (zh) * 2017-11-03 2019-07-12 畅想科技有限公司 用于深度神经网络的硬件实现的误差分配格式选择
CN111766505A (zh) * 2020-06-30 2020-10-13 山东云海国创云计算装备产业创新中心有限公司 一种集成电路的扫描测试装置
CN112557907A (zh) * 2020-12-17 2021-03-26 杭州六纪科技有限公司 一种基于gru-rnn的电动汽车锂离子电池的soc估计方法
WO2021118651A1 (en) * 2018-12-13 2021-06-17 Genghiscomm Holdings, LLC Artificial neural networks
CN113011578A (zh) * 2019-12-20 2021-06-22 辉达公司 使用神经网络选择计算内核变量
WO2021120851A1 (zh) * 2019-12-17 2021-06-24 深圳市中兴微电子技术有限公司 一种浮点处理装置和数据处理方法
CN113495716A (zh) * 2020-04-02 2021-10-12 美光科技公司 假定张量处理
CN114265575A (zh) * 2021-12-31 2022-04-01 上海阵量智能科技有限公司 浮点数处理方法、装置、电子设备及存储介质
US20220318473A1 (en) * 2019-08-07 2022-10-06 The University Of Hong Kong System and method for determining wiring network in multi-core processor, and related multi-core processor
CN117632081A (zh) * 2024-01-24 2024-03-01 沐曦集成电路(上海)有限公司 一种用于gpu的矩阵数据处理系统

Families Citing this family (78)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2549933B (en) * 2016-04-27 2018-08-01 Imagination Tech Ltd Verification of hardware designs to implement floating point power functions
US10528321B2 (en) 2016-12-07 2020-01-07 Microsoft Technology Licensing, Llc Block floating point for neural network implementations
KR102369209B1 (ko) 2017-02-23 2022-02-28 세레브라스 시스템즈 인코포레이티드 가속화된 심층 학습
US11037330B2 (en) 2017-04-08 2021-06-15 Intel Corporation Low rank matrix compression
US11568223B2 (en) * 2017-04-14 2023-01-31 Semiconductor Energy Laboratory Co., Ltd. Neural network circuit
WO2018193354A1 (en) 2017-04-17 2018-10-25 Cerebras Systems Inc. Wavelet representation for accelerated deep learning
US11157806B2 (en) 2017-04-17 2021-10-26 Cerebras Systems Inc. Task activating for accelerated deep learning
US11488004B2 (en) 2017-04-17 2022-11-01 Cerebras Systems Inc. Neuron smearing for accelerated deep learning
US11775313B2 (en) * 2017-05-26 2023-10-03 Purdue Research Foundation Hardware accelerator for convolutional neural networks and method of operation thereof
US11328037B2 (en) * 2017-07-07 2022-05-10 Intel Corporation Memory-size- and bandwidth-efficient method for feeding systolic array matrix multipliers
US10879904B1 (en) 2017-07-21 2020-12-29 X Development Llc Application specific integrated circuit accelerators
US10790828B1 (en) 2017-07-21 2020-09-29 X Development Llc Application specific integrated circuit accelerators
US10167800B1 (en) * 2017-08-18 2019-01-01 Microsoft Technology Licensing, Llc Hardware node having a matrix vector unit with block-floating point processing
GB2568230B (en) * 2017-10-20 2020-06-03 Graphcore Ltd Processing in neural networks
US11216250B2 (en) * 2017-12-06 2022-01-04 Advanced Micro Devices, Inc. Dynamic, variable bit-width numerical precision on field-programmable gate arrays for machine learning tasks
WO2019114842A1 (zh) * 2017-12-14 2019-06-20 北京中科寒武纪科技有限公司 一种集成电路芯片装置
US11636327B2 (en) * 2017-12-29 2023-04-25 Intel Corporation Machine learning sparse computation mechanism for arbitrary neural networks, arithmetic compute microarchitecture, and sparsity for training mechanism
US10459876B2 (en) * 2018-01-31 2019-10-29 Amazon Technologies, Inc. Performing concurrent operations in a processing element
US11769042B2 (en) 2018-02-08 2023-09-26 Western Digital Technologies, Inc. Reconfigurable systolic neural network engine
US11741346B2 (en) 2018-02-08 2023-08-29 Western Digital Technologies, Inc. Systolic neural network engine with crossover connection optimization
JP7056225B2 (ja) * 2018-02-26 2022-04-19 富士通株式会社 演算処理装置、情報処理装置、情報処理方法、およびプログラム
CN116866566A (zh) * 2018-03-21 2023-10-10 Lx 半导体科技有限公司 图像编码/解码方法、存储介质以及图像数据的传输方法
US10621489B2 (en) 2018-03-30 2020-04-14 International Business Machines Corporation Massively parallel neural inference computing elements
US10691413B2 (en) * 2018-05-04 2020-06-23 Microsoft Technology Licensing, Llc Block floating point computations using reduced bit-width vectors
US10579334B2 (en) * 2018-05-08 2020-03-03 Microsoft Technology Licensing, Llc Block floating point computations using shared exponents
US20190042944A1 (en) * 2018-06-08 2019-02-07 Intel Corporation Artificial neural network training using flexible floating point tensors
WO2020021395A1 (en) * 2018-07-25 2020-01-30 Cerebras Systems Inc. Numerical representation for neural networks
CN110794254B (zh) * 2018-08-01 2022-04-15 北京映翰通网络技术股份有限公司 一种基于强化学习的配电网故障预测方法及系统
US10956814B2 (en) * 2018-08-27 2021-03-23 Silicon Storage Technology, Inc. Configurable analog neural memory system for deep learning neural network
US11328207B2 (en) 2018-08-28 2022-05-10 Cerebras Systems Inc. Scaled compute fabric for accelerated deep learning
WO2020044208A1 (en) 2018-08-29 2020-03-05 Cerebras Systems Inc. Isa enhancements for accelerated deep learning
WO2020044238A1 (en) 2018-08-29 2020-03-05 Cerebras Systems Inc. Processor element redundancy for accelerated deep learning
US10705967B2 (en) * 2018-10-15 2020-07-07 Intel Corporation Programmable interface to in-memory cache processor
KR20200061164A (ko) * 2018-11-23 2020-06-02 삼성전자주식회사 뉴럴 네트워크 연산 수행을 위한 뉴럴 네트워크 장치, 뉴럴 네트워크 장치의 동작 방법 및 뉴럴 네트워크 장치를 포함하는 애플리케이션 프로세서
CN109558838B (zh) * 2018-11-29 2021-02-02 北京经纬恒润科技股份有限公司 一种物体识别方法及系统
CN111258935B (zh) * 2018-11-30 2022-01-25 上海寒武纪信息科技有限公司 数据传输装置和方法
US11893470B2 (en) 2018-12-06 2024-02-06 MIPS Tech, LLC Neural network processing using specialized data representation
US11615307B2 (en) 2018-12-06 2023-03-28 MIPS Tech, LLC Neural network data computation using mixed-precision
US11586883B2 (en) * 2018-12-14 2023-02-21 Microsoft Technology Licensing, Llc Residual quantization for neural networks
US11676003B2 (en) * 2018-12-18 2023-06-13 Microsoft Technology Licensing, Llc Training neural network accelerators using mixed precision data formats
US11138504B2 (en) * 2018-12-28 2021-10-05 Datalogic Ip Tech S.R.L. Deployment of deep neural networks (DNN) in embedded devices by means of peer-to-peer routing between computational points
US12045724B2 (en) 2018-12-31 2024-07-23 Microsoft Technology Licensing, Llc Neural network activation compression with outlier block floating-point
US11562247B2 (en) 2019-01-24 2023-01-24 Microsoft Technology Licensing, Llc Neural network activation compression with non-uniform mantissas
CN113678124A (zh) 2019-02-01 2021-11-19 光子智能股份有限公司 处理速率受限系统的矩阵操作
US10963219B2 (en) 2019-02-06 2021-03-30 International Business Machines Corporation Hybrid floating point representation for deep learning acceleration
US11475102B2 (en) 2019-02-21 2022-10-18 Samsung Electronics Co., Ltd. Adaptive matrix multiplication accelerator for machine learning and deep learning applications
US20200302284A1 (en) * 2019-03-18 2020-09-24 Nvidia Corporation Data compression for a neural network
US11783176B2 (en) 2019-03-25 2023-10-10 Western Digital Technologies, Inc. Enhanced storage device memory architecture for machine learning
US10929058B2 (en) 2019-03-25 2021-02-23 Western Digital Technologies, Inc. Enhanced memory device architecture for machine learning
DE102019107817A1 (de) * 2019-03-27 2020-10-01 Dspace Digital Signal Processing And Control Engineering Gmbh Verfahren zur Simulation eines dynamischen Systems
US11238557B2 (en) * 2019-03-29 2022-02-01 Intel Corporation Workload-based maximum current
US11556615B2 (en) * 2019-05-03 2023-01-17 Tesla, Inc. Data path for scalable matrix node engine with mixed data formats
US11907828B2 (en) 2019-09-03 2024-02-20 International Business Machines Corporation Deep neural network on field-programmable gate array
US11327923B2 (en) 2019-09-04 2022-05-10 SambaNova Systems, Inc. Sigmoid function in hardware and a reconfigurable data processor including same
US11327713B2 (en) * 2019-10-01 2022-05-10 SambaNova Systems, Inc. Computation units for functions based on lookup tables
KR20210052702A (ko) * 2019-10-30 2021-05-11 삼성전자주식회사 뉴럴 프로세싱 유닛 및 이를 포함하는 전자장치
US12015428B2 (en) * 2019-11-05 2024-06-18 Flex Logix Technologies, Inc. MAC processing pipeline using filter weights having enhanced dynamic range, and methods of operating same
US11836490B2 (en) * 2019-11-14 2023-12-05 Nvidia Corporation Kernel coefficient quantization
EP3841530B1 (en) 2019-11-15 2023-11-08 Kunlunxin Technology (Beijing) Company Limited Distributed ai training topology based on flexible cable connection
US11328038B2 (en) 2019-11-25 2022-05-10 SambaNova Systems, Inc. Computational units for batch normalization
US11520584B2 (en) * 2019-12-13 2022-12-06 Intel Corporation FPGA specialist processing block for machine learning
US11586889B1 (en) * 2019-12-13 2023-02-21 Amazon Technologies, Inc. Sensory perception accelerator
CN111178087B (zh) * 2019-12-20 2023-05-09 沈阳雅译网络技术有限公司 一种基于离散型注意力机制的神经机器翻译解码加速方法
US11829439B2 (en) * 2019-12-30 2023-11-28 Qualcomm Incorporated Methods and apparatus to perform matrix multiplication in a streaming processor
US11687778B2 (en) 2020-01-06 2023-06-27 The Research Foundation For The State University Of New York Fakecatcher: detection of synthetic portrait videos using biological signals
US11836629B2 (en) 2020-01-15 2023-12-05 SambaNova Systems, Inc. Computationally efficient softmax loss gradient backpropagation
JP6896306B1 (ja) * 2020-04-13 2021-06-30 LeapMind株式会社 ニューラルネットワーク回路、エッジデバイスおよびニューラルネットワーク演算方法
US11599334B2 (en) * 2020-06-09 2023-03-07 VeriSilicon Microelectronics Enhanced multiply accumulate device for neural networks
KR20210154502A (ko) * 2020-06-12 2021-12-21 삼성전자주식회사 부동 소수점 연산을 수행하는 뉴럴 네트워크 장치 및 그의 동작 방법
CN111753253B (zh) * 2020-06-28 2024-05-28 地平线(上海)人工智能技术有限公司 数据处理方法和装置
US11809908B2 (en) 2020-07-07 2023-11-07 SambaNova Systems, Inc. Runtime virtualization of reconfigurable data flow resources
US11782729B2 (en) 2020-08-18 2023-10-10 SambaNova Systems, Inc. Runtime patching of configuration files
US11915126B2 (en) 2020-09-04 2024-02-27 Recogni Inc. Low power hardware architecture for a convolutional neural network
US20220284273A1 (en) * 2021-03-04 2022-09-08 Samsung Electronics Co., Ltd. Neural processor and control method of neural processor
WO2022238325A1 (en) 2021-05-09 2022-11-17 Technische Universität Darmstadt Mitigating fpga related risks
WO2022271163A1 (en) * 2021-06-23 2022-12-29 Pqsecure Technologies, Llc Computer processing architecture and method for supporting multiple public-key cryptosystems based on exponentiation
US20210326111A1 (en) * 2021-06-25 2021-10-21 Intel Corporation FPGA Processing Block for Machine Learning or Digital Signal Processing Operations
US11829321B2 (en) * 2022-03-24 2023-11-28 Google Llc General-purpose systolic array

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040255284A1 (en) * 2001-09-18 2004-12-16 Shiro Kobayashi Compiler
CN1774709A (zh) * 2002-12-20 2006-05-17 英特尔公司 使用simd寄存器的小矩阵有效乘法
US20090113169A1 (en) * 2007-09-11 2009-04-30 Core Logic, Inc. Reconfigurable array processor for floating-point operations
US20090292750A1 (en) * 2008-05-22 2009-11-26 Videolq, Inc. Methods and apparatus for automatic accuracy- sustaining scaling of block-floating-point operands
US20100191939A1 (en) * 2009-01-27 2010-07-29 International Business Machines Corporation Trigonometric summation vector execution unit
CN102378960A (zh) * 2010-06-22 2012-03-14 日本电气株式会社 半导体集成电路和指数计算方法
CN102597948A (zh) * 2009-10-23 2012-07-18 信飞系统公司 信号数据的块浮点压缩

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6144977A (en) 1995-07-10 2000-11-07 Motorola, Inc. Circuit and method of converting a floating point number to a programmable fixed point number
US6675187B1 (en) * 1999-06-10 2004-01-06 Agere Systems Inc. Pipelined linear array of processor elements for performing matrix computations
EP2541431A1 (en) * 2005-10-07 2013-01-02 Altera Corporation Data input for systolic array processors
US20140289445A1 (en) 2013-03-22 2014-09-25 Antony Savich Hardware accelerator system and method
US9979413B2 (en) * 2014-09-25 2018-05-22 Nokia Solutions And Networks Oy Improving communication efficiency
US10373050B2 (en) 2015-05-08 2019-08-06 Qualcomm Incorporated Fixed point neural network based on floating point neural network quantization
US10528321B2 (en) 2016-12-07 2020-01-07 Microsoft Technology Licensing, Llc Block floating point for neural network implementations

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040255284A1 (en) * 2001-09-18 2004-12-16 Shiro Kobayashi Compiler
CN1774709A (zh) * 2002-12-20 2006-05-17 英特尔公司 使用simd寄存器的小矩阵有效乘法
US20090113169A1 (en) * 2007-09-11 2009-04-30 Core Logic, Inc. Reconfigurable array processor for floating-point operations
US20090292750A1 (en) * 2008-05-22 2009-11-26 Videolq, Inc. Methods and apparatus for automatic accuracy- sustaining scaling of block-floating-point operands
US20100191939A1 (en) * 2009-01-27 2010-07-29 International Business Machines Corporation Trigonometric summation vector execution unit
CN102597948A (zh) * 2009-10-23 2012-07-18 信飞系统公司 信号数据的块浮点压缩
CN102378960A (zh) * 2010-06-22 2012-03-14 日本电气株式会社 半导体集成电路和指数计算方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
SYED ZOHAIB GILANI ET AL: "Energy-efficient floating-point arithmetic for digital signal processors", 《2011 CONFERENCE RECORD OF THE FORTY FIFTH ASILOMAR CONFERENCE ON IEEE》 *
SYED ZOHAIB GILANI ET AL: "Energy-efficient floating-point arithmetic for digital signal processors", 《2011 CONFERENCE RECORD OF THE FORTY FIFTH ASILOMAR CONFERENCE ON IEEE》, 6 November 2011 (2011-11-06) *
刘沛华;鲁华祥;龚国良;刘文鹏;: "基于FPGA的全流水双精度浮点矩阵乘法器设计", 智能系统学报, no. 04, pages 302 - 306 *

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110009099B (zh) * 2017-11-03 2021-12-24 畅想科技有限公司 用于确定表示dnn的层的值的定点数格式的方法和系统
US11392823B2 (en) 2017-11-03 2022-07-19 Imagination Technologies Limited Error allocation format selection for hardware implementation of deep neural network
CN110009099A (zh) * 2017-11-03 2019-07-12 畅想科技有限公司 用于深度神经网络的硬件实现的误差分配格式选择
US11734553B2 (en) 2017-11-03 2023-08-22 Imagination Technologies Limited Error allocation format selection for hardware implementation of deep neural network
WO2021118651A1 (en) * 2018-12-13 2021-06-17 Genghiscomm Holdings, LLC Artificial neural networks
US11640522B2 (en) 2018-12-13 2023-05-02 Tybalt, Llc Computational efficiency improvements for artificial neural networks
US20220318473A1 (en) * 2019-08-07 2022-10-06 The University Of Hong Kong System and method for determining wiring network in multi-core processor, and related multi-core processor
WO2021120851A1 (zh) * 2019-12-17 2021-06-24 深圳市中兴微电子技术有限公司 一种浮点处理装置和数据处理方法
CN113011578A (zh) * 2019-12-20 2021-06-22 辉达公司 使用神经网络选择计算内核变量
CN113495716A (zh) * 2020-04-02 2021-10-12 美光科技公司 假定张量处理
US11928442B2 (en) 2020-04-02 2024-03-12 Micron Technology, Inc. Posit tensor processing
CN111766505A (zh) * 2020-06-30 2020-10-13 山东云海国创云计算装备产业创新中心有限公司 一种集成电路的扫描测试装置
CN112557907A (zh) * 2020-12-17 2021-03-26 杭州六纪科技有限公司 一种基于gru-rnn的电动汽车锂离子电池的soc估计方法
CN114265575A (zh) * 2021-12-31 2022-04-01 上海阵量智能科技有限公司 浮点数处理方法、装置、电子设备及存储介质
WO2023124362A1 (zh) * 2021-12-31 2023-07-06 上海商汤智能科技有限公司 浮点数处理方法、装置、电子设备及存储介质
CN117632081A (zh) * 2024-01-24 2024-03-01 沐曦集成电路(上海)有限公司 一种用于gpu的矩阵数据处理系统
CN117632081B (zh) * 2024-01-24 2024-04-19 沐曦集成电路(上海)有限公司 一种用于gpu的矩阵数据处理系统

Also Published As

Publication number Publication date
EP3552090A1 (en) 2019-10-16
EP3779669B1 (en) 2024-04-24
CN116894145A (zh) 2023-10-17
US20180157465A1 (en) 2018-06-07
WO2018106526A1 (en) 2018-06-14
US10528321B2 (en) 2020-01-07
EP3552090B1 (en) 2021-04-28
US11822899B2 (en) 2023-11-21
US20200159493A1 (en) 2020-05-21
ES2871554T3 (es) 2021-10-29
CN110050256B (zh) 2023-07-25
EP3779669A1 (en) 2021-02-17

Similar Documents

Publication Publication Date Title
CN110050256A (zh) 用于神经网络实现的块浮点
Mittal A survey of FPGA-based accelerators for convolutional neural networks
US20190286973A1 (en) Hardware accelerated neural network subgraphs
CN107025317A (zh) 用于实施卷积神经网络加速器上的层的方法和装置
US20190130268A1 (en) Tensor radix point calculation in a neural network
Liang et al. An efficient hardware design for accelerating sparse CNNs with NAS-based models
Mohaidat et al. A survey on neural network hardware accelerators
Hong et al. Multi-dimensional parallel training of winograd layer on memory-centric architecture
Nguyen et al. An FPGA-based hardware accelerator for energy-efficient bitmap index creation
Yan et al. FPGAN: an FPGA accelerator for graph attention networks with software and hardware co-optimization
Zhang et al. Graphagile: An fpga-based overlay accelerator for low-latency gnn inference
KR20240032039A (ko) 이중 지수 바운딩 박스 부동 소수점 프로세서
Yanamala et al. A high-speed reusable quantized hardware accelerator design for CNN on constrained edge device
Wan et al. Shift-BNN: Highly-efficient probabilistic Bayesian neural network training via memory-friendly pattern retrieving
Lian A framework for FPGA-based acceleration of neural network inference with limited numerical precision via high-level synthesis with streaming functionality
Odetola et al. 2l-3w: 2-level 3-way hardware–software co-verification for the mapping of convolutional neural network (cnn) onto fpga boards
WO2019089553A1 (en) Tensor radix point calculation in a neural network
Hong et al. Survey of convolutional neural network accelerators on field-programmable gate array platforms: architectures and optimization techniques
Yang A systematic framework to analyze the design space of DNN accelerators
Fox Specialised architectures and arithmetic for machine learning
US20240168915A1 (en) Graph Spatial Split
Zhang Hardware-Software Codesign for Accelerating Graph Neural Networks on FPGA
Sohrabizadeh Customized Computing and Machine Learning
Zhao Compiling Deep Learning Kernels to Locality-Aware Dataflow
Kan Multi-Grained Reconfigurable Architecture Powered by Elastic Neural Network for Approximate Computing

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant