CN115668229A - 用于经训练神经网络的低资源计算块 - Google Patents
用于经训练神经网络的低资源计算块 Download PDFInfo
- Publication number
- CN115668229A CN115668229A CN202080101532.8A CN202080101532A CN115668229A CN 115668229 A CN115668229 A CN 115668229A CN 202080101532 A CN202080101532 A CN 202080101532A CN 115668229 A CN115668229 A CN 115668229A
- Authority
- CN
- China
- Prior art keywords
- tensor
- integer
- binary
- weight
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/18—Extraction of features or characteristics of the image
- G06V30/1801—Detecting partial patterns, e.g. edges or contours, or configurations, e.g. loops, corners, strokes or intersections
- G06V30/18019—Detecting partial patterns, e.g. edges or contours, or configurations, e.g. loops, corners, strokes or intersections by matching or filtering
- G06V30/18038—Biologically-inspired filters, e.g. difference of Gaussians [DoG], Gabor filters
- G06V30/18048—Biologically-inspired filters, e.g. difference of Gaussians [DoG], Gabor filters with interaction between the responses of different filters, e.g. cortical complex cells
- G06V30/18057—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Biodiversity & Conservation Biology (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Neurology (AREA)
- Image Analysis (AREA)
Abstract
一种计算块,所述计算块用于通过以下方式执行推理任务:将多个低资源计算操作应用于二元输入特征张量,以生成整数特征张量,所述整数特征张量相当于对三元权重张量和所述二元输入特征张量执行的乘法累加运算的输出;将所述生成的整数特征张量与比较阈值进行比较运算,以生成二元输出特征张量。使用所述第一权重张量和所述第二权重张量将所述多个低资源计算操作应用于所述二元输入特征张量,所述第一权重张量和所述第二权重张量各自包括n个二元元素,并且共同表示所述三元权重张量的相应n个元素。
Description
相关申请的交叉引用
本申请要求于2020年6月12日提交的、发明名称为“用于经训练神经网络的低资源计算块(LOW RESOURCE COMPUTATIONAL BLOCK FOR A TRAINED NEURAL NETWORK)”的第16/900,658号美国专利申请的权益,该美国专利申请的内容以引用的方式并入本文中,如全文再现一般。
技术领域
本发明大体上涉及人工神经网络。更具体地,本申请涉及一种具有用于经训练神经网络的层的量化输入和参数的计算块。
背景技术
人工神经网络(neural network,NN)是模拟生物大脑的运作方式的计算系统。NN由多个层(例如,计算块)组成,每个层包括多个计算单元(称为神经元),不同层的计算单元之间具有连接。NN中的每个计算单元(例如,每个神经元)使用一系列计算来转换数据,这些计算包括每个相应的计算单元将初始值乘以一些权重,将结果与输入同一相应计算单元的其它值相加,通过计算单元的相应偏置调整结果数,然后用激活函数归一化输出。偏置是在处理所有连接之后调整相应计算单元的值的数,激活函数确保传递到后续计算单元的值在可调谐的预期范围内。重复一系列计算,直到NN的最终输出层生成与特定推理任务相关的分数或预测。NN可以学习执行推理任务,例如对象检测、图像分类、聚类、语音识别或模式识别。NN通常不需要使用任何任务特定的规则进行编程。相反,NN通常执行监督学习任务,从预先提供正确答案的数据集构建信息。然后,NN通过自身调谐来学习,以自己找到正确的答案,从而提高其预测的准确性。
NN变得更大(即,更深)和更复杂。这不可避免地增加了NN中层的数量和大小,以至于在软件或硬件中实现NN的成本可能很高。NN越来越依赖使用特别设计的、计算能力强大的硬件设备来执行NN的每一层的操作(以下通常称为NN操作),这些设备包括一个或多个处理单元、加速器(例如,设计用于执行NN的某些操作的加速器)和支持存储器。在一些示例中,专用处理单元、加速器和支持存储器封装在单个集成电路中。执行深度NN的NN操作所需的计算能力强大的硬件设备会增加经济成本,以及物理空间和热冷要求方面的辅助成本。
深度NN通常是使用由全精度计算单元组成的全精度层构建的全精度NN。全精度层对各自具有8位以上的值执行NN操作,例如矩阵乘法、加法、批归一化和乘积累加(multiply-accumulate,MAC)运算(例如,输入特征向量或特征图等特征张量中的单个元素是使用8位或更多位表示的每个实值,以及包括在权重张量中的权重等网络层参数也是使用8位或更多位表示的实值)。在全精度层上下文中执行的NN操作称为高位NN操作。具体地,NN层(例如,NN的第i层)中计算单元的每个元素输出是输入到计算单元的所有特征元素的加权和,这需要每个全精度层进行大量的乘积累加(multiply-accumulate,MAC)运算。因此,由全精度NN层执行的高位NN操作在计算上是密集型的。这对在计算受限的硬件设备中使用全精度NN施加了限制。
因此,对NN压缩技术的兴趣日益浓厚,这种NN压缩技术可以减少NN执行的用于特定推理任务所需的NN操作的数量,从而使NN能够部署在计算受限的硬件设备中,所述硬件设备例如可以使用与部署非压缩NN所需相比功能更弱的处理单元、功能更弱的(或没有)加速器、更少的内存和/或更少的功率。NN压缩技术可以例如应用于成本效益高的计算受限的硬件设备中,所述硬件设备可以被实现以解决机器人、自动驾驶、无人机和物联网(internet of things,IOT)等应用中的现实世界问题。神经网络量化是一种NN压缩技术,用于解决压缩经训练NN以使NN操作能够在资源受限的硬件设备上执行的挑战。除其它外,NN量化还可用于用按位运算取代在NN层执行的高位MAC运算。由于通用处理单元支持的最小位宽MAC运算符是8位MAC运算符,因此传统的量化技术将全精度矩阵乘法运算减少为8位矩阵乘法运算,由8位MAC运算符执行。将全精度矩阵乘法运算减少为位宽小于8位(即,位数小于8位)的矩阵乘法运算的任何NN量化技术都必须由使用按位运算符或使用特定硬件设备的计算单元执行。使用按位运算的NN层可以用作低位层,其中,使用表示为1位值或2位值的元素执行运算。
低位神经网络量化技术通常可分为两个不同的类别:(i)量化NN层接收的实值权重张量但在NN层的NN操作中使用实值输入特征图张量的权重量化技术;(ii)量化实值权重张量和输入特征图张量的权重和特征图量化技术。
低位量化技术的局限性在于,当已经压缩的经训练NN被部署用于推理(即,对新数据进行预测)时,压缩的经训练NN在计算成本和内存要求中的一个或多个方面存在缺陷。例如,压缩的经训练NN仍然需要大量的乘积累加(multiply-accumulate,MAC)运算,这些MAC运算可能是计算和内存密集型的。
因此,需要低位计算块,该低位计算块可用于实现NN的层,在训练后可以准确地生成NN的后续计算块(例如,NN的后续层)的二元特征图张量,与现有低位NN方案相比,计算成本和内存要求更低。
发明内容
本发明提供了用于在资源受限的硬件设备上有效地执行推理任务的方法和系统。在经训练NN中,推理阶段计算块使用低资源计算操作来取代大量资源密集型乘积累加(multiply-accumulate,MAC)运算。这些低资源计算操作可以包括基本逻辑和数学运算,例如与运算、POPCOUNT运算、减法运算和比较运算。本文公开的方法和系统在一些应用中可以使用较少的计算资源,例如处理功率和内存,来执行推理任务并生成特征向量。在示例性实施例中,推理阶段计算块使包括一个或多个推理阶段计算块的经训练NN能够部署在资源受限的硬件设备上,从而使得它使用比现有方案更少的处理器计算、更少的内存和/或更少的功率。
根据第一示例性方面,提供了一种计算机实现的方法,所述计算机实现的方法包括:应用多个低资源计算操作以生成整数特征张量,所述整数特征张量相当于对三元权重张量和所述二元输入特征张量执行的乘法累加运算的输出;将所述生成的整数特征张量与比较阈值进行比较运算,以生成二元输出特征张量。
在至少一些应用中,使用低资源计算操作来提供相当于一组乘法累加运算的输出,使得该方法能够在不使用计算和内存密集型乘积累加(multiply-accumulate,MAC)运算的情况下执行。这可以使得该方法能够使用计算受限的硬件设备来执行,这些计算受限的硬件设备具有有限处理功率、有限的内存或有限的电源中的一种或多种,包括例如边缘设备。所述方法例如可以使神经网络(neural network,NN)能够部署在计算受限的硬件设备中,所述计算受限的硬件设备例如可以使用与先前方案所需相比功能更弱的处理单元、功能更弱(或没有)加速器、更少的内存和/或更少的功率。
根据上述方面的一些示例,所述生成的整数特征张量包括m个整数元素的集合,每个整数元素具有一个值,所述值相当于所述三元权重张量的n个三元元素的集合和所述二元输入特征张量的n个二元元素的集合的点积。
根据上述方面中的一个或多个的示例,对于所述整数特征张量的每个整数元素:使用所述第一权重张量和所述第二权重张量应用所述多个低资源计算操作,所述第一权重张量和所述第二权重张量各自包括n个二元元素,并且共同表示所述三元权重张量的相应n个元素,应用所述多个低资源计算操作包括,对于所述整数特征张量的每个整数元素:在所述第一权重张量的所述n个二元元素与所述二元输入特征张量的所述n个二元元素之间应用第一按位逻辑与运算;在所述第二权重张量的所述n个二元元素与所述二元输入特征张量的所述n个二元元素之间应用第二按位逻辑与运算;基于包括在所述第一按位逻辑与运算的输出和所述第二按位逻辑与运算的输出中的预定值的位数生成所述整数元素。
根据上述方面中的一个或多个的示例,应用所述多个低资源计算操作包括,对于所述整数特征张量的每个整数元素:应用第一POPCOUNT运算以对包括在所述第一按位逻辑与运算的所述输出中的所述预定值的所述位数进行计数;应用第二POPCOUNT运算以对包括在所述第二按位逻辑与运算的所述输出中的所述预定值的所述位数进行计数;其中,生成所述整数元素包括在所述第一POPCOUNT运算的输出与所述第二POPCOUNT运算的输出之间应用减法运算,以输出所述整数元素。
根据上述方面中的一个或多个的示例,所述三元权重张量的n个元素被分解成n个二元元素对,以生成所述第一权重张量的所述n个二元元素和所述第二权重张量的所述n个二元元素。
根据上述方面中的一个或多个的示例,应用所述多个低资源计算操作和执行所述比较运算是在经训练以执行推理任务的第二神经网络的层中执行的,所述方法还包括通过学习包括所述三元权重张量的第一神经网络的网络参数来训练所述第一神经网络以执行所述推理任务。
根据上述方面中的一个或多个的示例,训练所述第一神经网络包括:使用所述网络参数为训练数据集的多个输入特征张量中的每个输入特征张量推断输出张量;基于所述推断确定所述网络参数的成本;使用梯度下降和反向传播更新所述网络参数,其中,重复所述推断、所述确定和所述更新,直到所述网络参数的所述成本达到优化阈值。
根据上述方面中的一个或多个的示例,所述第一神经网络的层对应于所述第二神经网络的所述层,所述第一神经网络的所述层用于:使用所述三元权重张量和所述训练数据集中的二元输入特征张量应用乘法累加运算,以生成训练整数特征张量;将批归一化操作、激活操作和二值化操作应用于所述生成的训练整数特征张量,以生成训练二元输出特征张量,所述批归一化基于批归一化参数集,其中,所述学习的网络参数包括所述批归一化参数,所述比较阈值是基于所述学习的批归一化参数计算的m个整数阈值的张量。
根据上述方面中的一个或多个的示例,所述批归一化参数包括缩放因子张量和偏置张量,并且训练所述第一神经网络包括初始化所述网络参数中的一个或多个网络参数,以将所述网络参数内的值的方差保持在目标方差范围内。
根据上述方面中的一个或多个的示例,在所述第一神经网络的训练期间,所述三元权重张量是通过使用不可微的三值化操作量化对应的实值权重张量的值而生成的,所述二值化操作应用不可微的二值化操作,并且在反向传播期间,所述不可微的三值化操作和所述不可微的二值化操作各自由相应的可微操作近似。
根据第二示例性方面,提供了一种处理单元,所述处理单元用于执行上述方面中的一个或多个的方法。
根据另一个示例性方面,提供了一种处理设备,所述处理设备包括存储器,所述存储器可操作地连接到所述处理设备,并存储可执行指令,所述可执行指令当由所述处理设备执行时,使处理单元实现用于执行推理任务的经训练神经网络的计算块。所述计算块用于:应用多个低资源计算操作,以生成整数特征张量,所述整数特征张量相当于对三元权重张量和所述二元输入特征张量执行的乘法累加运算的输出;将所述生成的整数特征张量与比较阈值进行比较运算,以生成二元输出特征张量。
根据另一个示例性方面,提供了一种计算机可读介质,所述计算机可读介质存储指令,所述指令用于使处理单元实现用于执行推理任务的经训练神经网络的计算块,所述计算块用于:应用多个低资源计算操作以生成整数特征张量,所述整数特征张量相当于对三元权重张量和所述二元输入特征张量执行的乘法累加运算的输出;将所述生成的整数特征张量与比较阈值进行比较运算,以生成二元输出特征张量。
根据另一个示例性方面,提供了一种计算机程序,所述计算机程序存储指令,所述指令用于使处理单元实现用于执行推理任务的经训练神经网络的计算块,所述计算块用于:应用多个低资源计算操作以生成整数特征张量,所述整数特征张量相当于对三元权重张量和所述二元输入特征张量执行的乘法累加运算的输出;将所述生成的整数特征张量与比较阈值进行比较运算,以生成二元输出特征张量。
附图说明
现在将通过示例参考示出本申请示例性实施例的附图,在附图中:
图1是示例性实施例提供的可用于在训练NN模型的同时实现NN的层的训练阶段计算块的计算图表示;
图2示出了图1的训练阶段计算块的进一步表示,以及示例性实施例提供的三元权重张量的示例;
图3是示例性实施例提供的可用于实现NN的训练层的推理阶段计算块的计算图表示;
图4是按位运算的真值表表示;
图5示出了表示三元权重张量的两个1位权重张量;
图6是用于实现图2的推理阶段计算块的低资源计算操作的框图;
图7示出了示例性实施例提供的使用图3B的低资源计算操作执行推理任务的示例性方法;
图8图形化地表示示例性实施例提供的具有三个不同参数的可微函数;
图9是可用于执行包括图1或图3所示的一个或多个计算块的NN的机器可读指令的示例性处理系统的框图。
不同的附图中使用了相似的附图标记来表示相似的组件。
具体实施方式
本发明涉及一种神经网络(neural network,NN),所述神经网络包括实现为推理阶段计算块的一个或多个层,所述推理阶段计算块使用一组低资源计算操作来替代在对应训练阶段计算块中使用的资源密集型运算。如本文所使用的,使用“低资源计算操作”的推理计算块是基于学习参数集对输入特征张量执行非线性推理函数而不应用乘积累加(multiplication and accumulate,MAC)运算的计算块。在示例性实施例中,低资源计算操作包括基本的逻辑和数学计算操作,例如与运算、POPCOUNT运算、减法运算和比较运算,并排除计算密集型运算,例如依赖于MAC运算的矩阵乘法运算。如本文所使用,“张量”是指元素数组,例如向量(例如,一维数组,例如包括多个标量特征元素的行数组或列数组)或矩阵或映射(例如,多维数组,每个维度包括多个标量特征元素)。“特征张量”是指表示正在处理的对象的特征的元素数组。例如,正在处理的对象可以是图像数据、音频数据、数字数据或其它形式的结构化或非结构化数据的实例。“权重张量”是指标量权重元素的数组,例如权重向量(例如,一维数组,例如包括多个标量权重元素的行数组或列数组)或权重矩阵(例如,多维数组,每个维度包括多个标量权重元素)。在示例性实施例中,“低位元素”是指使用1位或2位表示的标量元素。在一些示例性实施例中,“低位特征元素”由1位值表示,“低位权重元素”由2位值表示。在至少一些NN实现中,与依赖于乘法运算、累加运算和激活操作的全流程方案或按位方案相比,应用低资源计算操作的推理阶段计算块可能有助于通过简化计算操作和/或降低内存存储要求来降低计算成本。在至少一些应用中,降低计算成本可以改善硬件设备的性能延迟和功率效率。
在示例性实施例中,包括实现为相应推理阶段计算块的一个或多个层的经训练NN被部署用于在硬件设备上执行以执行特定推理任务。例如,推理任务可以是将对象分类为属于一组可能的候选类别中的一个类别。所公开的推理阶段计算块执行低资源计算操作以处理输入量化特征张量(即,输入张量的每个特征元素被表示为相应的1位值)。推理阶段计算块基于在2位宽度量化权重张量(即,权重张量的每个权重元素表示为2位值)中定义的经训练权重参数处理输入量化特征张量。在至少一些实施例中,包括一个或多个所公开的推理阶段计算块的经训练NN可以被部署以由计算受限的硬件设备(例如,具有有限处理能力、有限内存或有限电力供应中的一个或多个的设备)执行。在至少一些应用中,包括如本发明中描述的推理阶段计算块的NN可以以精确近似全精度NN性能的方式执行推理任务,并因此缓解了传统问题,例如MAC运算的广泛使用和/或当现有的按位NN结构用于提供全精度NN的离散近似时可能出现的准确性降低。
在示例性实施例中,包括本发明中描述的推理阶段计算块的NN层可以使用低资源计算操作(例如,1位与运算、1位POPCOUNT运算)(所述低资源计算操作可以使用低位内存存储来支持)以及其它低资源计算操作(例如基本的减法运算和比较(CMP)运算)来实现。这种方案可以使经训练NN模型(该经训练NN模型包括一个或多个层,每个层包括相应的推理计算块)加载到硬件设备的处理单元的高速缓冲存储器中,从而允许具有有限计算能力的处理单元(例如,资源受限设备(例如IoT设备、移动设备和其它边缘设备)中使用的微控制器)执行高速运算。
在一些示例性实施例中,当训练NN以学习一个或多个训练阶段计算块的参数时,使用特征张量和权重张量量化函数生成对应的低位特征和权重元素。在反向传播期间,量化函数由可微函数(例如梯度估计)近似。使用可微梯度估计可以减少NN训练期间反向传播中的梯度噪声。在至少一些示例性实施例中,当训练NN以学习参数时,初始化用于NN的批归一化(batch normalization,BN)操作的缩放因子,以提高训练部署的NN的参数的准确性。
用于训练目的的计算块
图1是示例性实施例提供的可用于在训练阶段期间实现NN的层的训练阶段计算块100的计算图表示。在本发明描述的实施例中,训练阶段计算块100表示NN的第i个全连接层。在正向传递期间,训练阶段计算块100的输入是量化特征张量Xi bin,在示例性实施例中,该量化特征张量可以被表示为n个1位元素的特征向量(例如,每个元素具有“0”或“1”的二进制值),使得在本发明中,大写字母(例如,“X”、“W”、“Z”)用于表示张量(例如,多元素向量或数组)且小写字母(例如,“x”、“w”、“z”)用于表示构成张量的单个标量元素。训练阶段计算块100用于执行一组低位计算操作,以处理量化特征张量并输出对应的量化特征张量在示例性实施例中,输出量化特征张量可以表示为m个1位元素的特征向量(例如,每个元素具有“0”或“1”的二进制值),使得如下面将更详细地解释,由训练阶段计算块100执行的低位计算操作包括矩阵乘法运算(MatMulbit)206、批归一化(batch normalization,BN)操作208、激活函数(例如PreLU)210和二值化操作212。
在一些情况下,层i训练阶段计算块100是NN中的第一计算块,例如,其中,i=1,并且训练阶段计算块100实现紧随NN输入层之后的第一隐藏层。在这种情况下,需要初始量化操作,即二值化操作202,该初始量化操作量化了包括在实值输入特征张量中的实值元素,以输出二元输入特征张量的相应1位元素。二值化操作202将实值输入特征张量Xi中的每个实值元素x量化为两个可能值(1,0)中的一个。
在一些实施例中,二值化操作202可以由以下等式(1)用数学表示:
将量化特征张量提供给矩阵乘法运算(MatMulbit)206。矩阵乘法运算(MatMulbit)206在三元权重张量与输入量化特征张量之间执行按位乘法累加运算,以生成m整数值元素张量Zi int。三元权重张量是在按位计算块100的训练期间学习的2位宽度权重参数的m×n集合。更具体地,三元权重张量从实值权重张量Wi导出,该实值权重张量是在训练阶段计算块100的训练期间学习的权重元素wi的m×n矩阵。如上所述,n是二元输入张量的大小(例如二元元素的数量)。在本发明描述中,m是由按位计算块100生成的二元输出张量的大小。
在这方面,三值化操作204将实值权重张量量化为三元权重张量具体地,三值化操作204将每个实值权重元素wa,b量化为对应的三元权重元素wter(a,b),该三元权重元素是三个可能值(1,0,–1)中的一个(其中,1≤a≤m,1≤b≤n)。
如下面更详细地解释,在一些示例中,在反向传播期间,使用可微函数(例如近似由等式(2)表示的不可微离散量化函数的梯度估计)来近似三值化操作204。
矩阵乘法运算206执行按位矩阵乘法累加运算,如等式(3A)和(3B)所示:
在示例性实施例中,将整数特征张量提供给BN操作208,该BN操作208可以根据已知的批归一化技术实现。BN操作208由可训练的BN参数配置,所述可训练的BN参数即可训练的偏置张量β和可训练的缩放因子张量γ。如本领域中已知,当使用批归一化来代替非批偏置向量加法运算时,批归一化可以改进NN的训练。BN操作208可以由等式(4)用数学表示:
其中,μB是X的迷你批平均值(X是用于BN操作的整数值向量的组或迷你批,和),σB是X的迷你批方差,γ是可训练的缩放因子张量,β是可训练的偏置张量,∈是非常小的数字,以避免除零错误。在示例性实施例中,按位计算块的m个输出中的每个输出将具有相应的缩放因子和偏置,使得γ和β是m个元素的每个张量(例如,向量)。
在一个示例性实施例中,激活函数σ210使用参数修正线性单元(parametricrectified linear unit,PReLU)实现。合适的参数ReLU的示例在以下文献中描述:KaimingHe、Xiangyu Zhang、Shaoqing Ren和Jian Sun的“深入研究整流器:在imagenet分类上超越人类水平的性能(Delving deep into rectifiers:Surpassing human-levelperformance on imagenet classification)”,CoRR,abs/1502.01852,2015。在另一个示例性实施例中,激活函数σ210使用Leaky ReLU实现。合适的Leaky ReLU的示例在以下文献中描述:Andrew L.Maas、Awni Y.Hannun和Andrew Y.Ng的“整流器非线性改善神经网络声学模型(Rectifier nonlinearities improve neural network acoustic models)”,ICML音频、语音和语言处理深度学习研讨会,2013年。在示例性实施例中,当按位NN块100处于训练阶段时,使用Leaky ReLU或参数ReLU作为激活函数σ210可以有助于提高反向传播的准确性。
参考图2,训练阶段计算块100可以被认为是一组“m”个神经元或计算单元250(1)至250(m),它们共同形成NN的第i个全连接层。如图2所示,矩阵乘法运算206包括m个点积运算252(1)到252(m)。在这方面,每个计算单元250(a)(其中a是从1到m的整数)计算相应的整数特征元素该相应的整数特征元素是由三元权重张量的“m”行中的一行定义的相应n元素权重向量与n元素量化输入特征张量的点积。因此,在全连接层中,在点积运算252(1)至252(m)中的每一个处将n个权重元素至的不同集合应用于n个1位二元输入特征元素至的相同集合。作为示例,如图2所示,整数特征元素是m行乘以n列三元权重张量的第一行216(1)与n元素量化特征张量的点积。整数特征元素是三元权重张量的最后一行216(m)与n元素量化特征张量的点积。整数特征张量包括m个整数元素至m个整数元素至中的每一个分别进行批归一化操作、激活操作和二值化操作,以得到输出二元向量二元特征元素中的每一个由相应的计算单元250(a)生成。
训练阶段计算块100的每个计算单元250(a)的前向传播通常可以由等式(6A)中所示的函数表示:
其中,BatchNorm是BN操作208,σ是激活函数210,Binarize是二值化操作202。
在示例性实施例中,使用监督训练对训练阶段计算块100进行训练以学习非线性函数具体地,包括权重张量Wi中的权重元素wi、可训练缩放因子张量γi中的缩放因子元素以及可训练偏置张量βi中的偏置元素的参数集是通过迭代训练过程学习的,该迭代训练过程测量关于参数集的训练数据集的NN性能,确定参数的成本,使用反向传播更新参数,并重复直到实现最佳参数集。进一步的训练细节将在下文描述。
用于推理目的的计算块
尽管如图1所示的训练阶段计算块100可以在NN训练期间免除一些高位计算,但训练阶段计算块100的结构仍然依赖于大量的MAC运算(例如,矩阵乘法运算),以及高位BN操作和激活函数,这些运算和操作可以是计算和内存密集型的。因此,当部署在边缘设备等计算受限设备上时,训练阶段计算块100可能不适合应用于关于新数据的持续推理操作。
因此,本发明的示例性实施例描述了可用于基于由训练阶段计算块100学习的参数实现非线性函数的替代计算块结构。在示例性实施例中,替代计算块结构用于用多个低资源计算操作取代训练阶段计算块100的计算操作。例如,在训练之后(即,当不再需要反向传播时),出于推理目的,矩阵乘法运算206可替换地表示为输入量化特征张量与三元权重张量之间的多个低资源计算操作的输出。具体地,可以应用多个低资源计算操作来生成整数特征张量该整数特征张量相当于矩阵乘法运算206对三元权重张量和二元输入特征张量执行的乘法累加运算的输出。
在这方面,图3示出了推理阶段计算块200的示例性实施例,该推理阶段计算块200可以与在训练阶段计算块100的训练期间学习的参数一起使用。推理阶段计算块200用下面描述的一组低资源计算操作256取代矩阵乘法运算206。此外,推理阶段计算块200用下面更详细地描述的简单布尔(Boolean)比较运算258取代BN操作208、激活操作210和二值化操作212。
在训练阶段计算块100的情况下,给定科图4示出了wi ter(a,b) (其中,1≤a≤m,1≤b≤n)的标量乘积的按元素真值表400。为了使用推理阶段计算块200的低资源计算操作256,使用映射函数260将三元权重张量的学习值各自分解为相应的二进制值对。在这方面,图5示出了映射函数260的操作,其中,每个权重元素wi ter(a,b)被分解成两个1位元素,表示为wi -1和wi +1。例如,wi ter=-1可以映射为wi -1=1和wi +1=0;wi ter=0可以映射为wi -1=0和wi +1=0;wi ter=1可以映射为wi -1=0和wi +1=1。1位正权重元素wi +1可以共同表示为1位正权重张量1位负权重元素wi -1可以共同表示为1位负权重张量因此,等式(3A)、(3B)可以等同于1位正权重张量与输入量化特征张量之间的推理阶段操作,以及1位负权重张量与输入量化特征张量之间的推理阶段操作。
因此,关于训练阶段计算块100学习的三元权重张量通过映射函数260操作分解为正权重张量和负权重张量它们被存储为用于推理阶段计算块200的经训练权重参数。低资源计算操作256在1位正权重张量与二元输入特征图张量之间执行一组按位逻辑和基本数学运算,并在1位负权重张量与二元输入特征图张量之间执行一组逻辑运算。
将参考图6更详细地解释低资源计算操作256。低资源计算操作256包括两个与运算302(1)、301(2)(一般称为与运算302)、两个POPCOUNT运算304(1)、304(2)(一般称为POPCOUNT运算304)和减法运算306。具体地,使用1位正权重张量和1位负权重张量来表示三元权重张量在与之间执行的矩阵乘法(Matmulbit)运算206可以由以下等式(7)中表示的多个低资源计算操作(与运算302、POPCOUNT运算304、减法运算306)替代。
其中:(i)每个AND()对应于图6的与运算302(1)和302(2)中的相应一个;(ii)每个POPCOUNT()对应于相应的按位popcount运算304(1)、304(2),其中,popcount运算304(1)对中1的数量进行计数,popcount运算304(2)对中1的数量进行计数,其中,是正权重张量,是负权重张量;(iii)是整数的输出张量(例如,m个整数元素的输出向量),由减法运算306产生。
如等式(7)所示,生成的整数特征张量包括m个整数元素的集合,每个整数元素具有一个值,所述值相当于所述三元权重张量的n个三元元素的集合和所述二元输入特征张量的n个二元元素的集合的点积。对于每个整数元素使用第一权重张量和第二权重张量应用多个低资源计算操作256,所述第一权重张量和所述第二权重张量各自包括n个二元元素,即正权重张量的n个二元元素(例如,第a行)和负权重张量的n个二元元素(例如,第a行),并且共同表示三元权重张量的相应n个元素(例如,第a行)。应用多个低资源计算操作256包括,对于每个整数元素(i)在正权重张量的n个二元元素与二元输入特征张量的n个二元元素之间应用第一按位逻辑与运算(例如,与运算302());(ii)在负权重张量的n个二元元素与二元输入特征张量的n个二元元素之间应用第二按位逻辑与运算(例如,与运算302(2));(iii)基于包括在第一与运算的输出和第二与运算的输出中的预定值的位数(例如“1”的数量)生成整数元素具体地,如图6和等式(7)所示,整数特征张量的每个整数元素的计算包括:应用第一POPCOUNT运算304(1)以对包括在第一与运算302(1)的输出中的预定值的位数(例如“1”的数量)进行计数;应用第二POPCOUNT运算304(2)以对包括在第二与运算302(2)的输出中的预定值的位数进行计数。然后,通过在第一POPCOUNT运算304()的输出与第二POPCOUNT运算304(2)的输出之间应用减法运算306来生成整数元素以得到整数元素在示例性实施例中,减法运算306执行简单的整数减法。与浮点减法相比,整数减法可能使用更少的计算能力和内存。在一些示例中,通过使用加法运算来将POPCOUNT运算304()的输出与POPCOUNT运算304(2)的输出的更改符号版本相加来实现减法运算306。分别对正权重张量和负权重张量的所有m行执行低资源计算操作256,以得到整数特征张量
为了说明目的,将在训练阶段计算块100和推理阶段计算块200的第a个神经元或计算单元的上下文中提供二元矩阵乘法运算206(例如,)和低资源计算操作256的操作比较示例。在所示的示例中,n=4,三元权重向量其中,三元权重向量对应于三元权重张量的第a行。因此,训练阶段计算块100的第a个神经元(例如,计算单元250(a))的整数特征元素是点积
在低资源计算操作256的情况下,将分解为:和 的结果为(0,0,0,0),的结果为(0,0,1,1)。的结果为0,的结果为2。因此,推理阶段计算块200的第a个神经元(例如,对应于单元250(a)的计算单元)的中间整数输出是
在推理阶段计算块200中,整数特征张量是m个整数的向量,然后通过比较运算308将其转换为二元输出特征向量在示例性实施例中,比较运算308可以例如使用CMP(x,y)指令来实现,该指令返回整数x是否小于整数y的布尔结果。例如,比较运算308可以用于将张量的整数值中的每一个转换为输出量化特征张量的相应二进制值元素如等式(8)所示:
如上所述,在推理阶段计算块200中,比较运算308取代训练阶段计算块100的BN操作208、激活操作210和二值化操作212。如现在将在以下段落中所解释,通过阈值计算函数310基于在训练阶段计算块100的训练期间学习的可训练缩放因子γi和可训练偏置βi参数值为推理阶段计算块200计算比较阈值的值。
激活函数σ210的输出是正的还是负的确定将基于BatchNorm(Zi)(例如,BN操作208)的输出是正的还是负的。因此,通过将上面讨论的BatchNorm等式(4)合并到等式(9)中,等式(9)可以转换为以下等式(10):
其中,如上所述,缩放因子张量γi和偏置张量βi是BN操作208的学习参数。BN操作208的参数μB(X的迷你批平均值,其中,X是提供给BN操作208的中间向量的组或迷你批)和参数σB(X的迷你批方差)也从按位计算块100的训练中已知。如上所述,ε的值被预定义为一个小常数,以避免在正向传播期间除零错误。
因此,等式定义了用于生成NN的第i个计算块的二元输出特征图张量的阈值张量(例如,thresholdi)。如等式(11)中所示,thresholdi的值可以基于在按位计算操作100的训练期间学习的BN操作208的参数μB、βi、σB、γi来计算。如上所述,ε的值被预定义为一个小常数,以避免在正向传播期间除零错误。
其中,缩放因子张量γi>0。
在示例性实施例中,为了确保缩放因子张量γi大于零,在缩放因子向量γi中的经训练缩放因子元素小于零(例如,)的情况下,在用于计算用于推理计算模型200的参数之前,缩放因子元素和三元权重张量的对应行至均乘以-1。
需要说明的是,在等式(8)中,向量的元素是整数。在这方面,参考图6,考虑第一缩放因子应用于负权重张量popcount运算304()的输出和第二缩放因子应用于负权重张量popcount运算304(2)的输出的情况,使得减法运算306的输出可以由等式(14)表示:
在等式(7)和(8)中,是m个整数的张量,而等式(14)中,Zi是m个实数的张量。但是,当和均等于1时,等式(14)的张量Zi等于等式(7)的张量使得减法运算306的输出是等式(7)的整数值张量在低资源计算操作256的情况下,和被认为等于1,因为的中间输出始终是整数的向量。因此,在示例性实施例中,thresholdi的值(以下面描述的方式计算)可以四舍五入为整数,使得相对于使用实值阈值,将整数值用于阈值可以减少执行比较运算308所需的计算能力和内存。
在一些实施例中,对形成训练阶段计算块100的m个计算单元中的每一个唯一地训练参数μB、βi、γi中的一个或多个,使得通过阈值计算函数310为推理阶段计算块200计算的是分别应用于推理阶段计算块200的m个神经元或计算单元的单个整数阈值的m维向量
训练和部署
图7是用于训练包括训练阶段计算块100的NN和部署包括推理阶段计算块200的经训练NN的示例性方法700的流程图。
如图7所示,方法700包括初始化用于训练阶段计算块100的网络参数(例如,初始权重张量Wi、缩放因子张量γi和偏置张量βi)的预训练动作(动作702)。在示例性实施例中,初始化网络参数以通过控制初始权重张量Wi、缩放因子张量γi和偏置张量βi的方差,将训练阶段计算块100的输出二元张量的方差和二元输入张量的方差保持在目标方差范围内。在NN包括具有BN操作208的计算块100的一些实施例中,BN操作208的缩放因子张量γ被初始化为以下等式(15):
其中,n是输入张量中的特征元素的数量(也等于包括在初始权重张量Wi的一行中的权重元素的数量)。因此,基于在按位计算块100的每个相应神经元(例如,计算单元)处发生的按元素乘法的数量,对缩放因子张量的初始元素进行缩放。
在使用ReLU激活函数来实现激活函数210的一些示例性实施例中,初始权重张量Wi的所有权重元素都使用在1.5与+1.5之间均匀分布的随机值进行初始化,因此对应的三元权重张量Wi ter将具有相同数量的-1、0和+1值。
三元权重张量Wi ter中的权重元素或/和缩放因子张量γi的缩放因子元素的初始化可以减少训练NN所需的时间,并且可以在训练后推理阶段期间提高经训练NN的性能。
在已经初始化网络参数之后,训练阶段计算块100和形成其层的NN使用监督训练来训练,以学习非线性函数(动作704)。具体地,通过迭代训练过程学习网络参数集,所述网络参数包括权重张量Wi中的权重元素w、缩放因子张量γi的可训练缩放因子元素和偏置张量βi的可训练偏置元素,该迭代训练过程包括:使用网络参数集为训练数据集的多个输入特征张量中的每一个推断输出张量;基于由NN执行的推断确定网络参数的成本;使用梯度下降和反向传播更新相应层的网络参数(包括按位计算块100的参数);重复推断、成本确定和参数更新,直到网络参数的成本达到优化阈值(例如,直到实现成本最小化的最佳网络参数集)。
如上所述,特征张量和权重张量量化操作(例如二值化操作212和三值化操作204)分别通过等式(1)和等式(2)用数学表示。等式(1)和等式(2)不是可微函数。这可能对按位计算块100的训练期间的后向传播构成挑战。因此,在一些实施例中,可微函数(即梯度估计函数)用于在反向传播期间近似二值化操作212和三值化操作204的离散函数。在一些实施例中,用于表示特征张量和权重张量量化操作的离散函数的可微函数可以近似于由以下等式(16)表示的高斯函数δε(x):
其中,ε是控制可微高斯函数δε(x)形状的超参数。由等式(16)表示的可微高斯函数δε(x)被称为零中心高斯分布密度函数。
图8示出了零中心高斯分布密度函数δε(x)(其中,c=1、0.5、0.25)的不同形状。如图8所示,三个不同形状的零中心高斯分布密度函数δε(x)中的每一个都关于y轴对称。
等式(16)和图8示出了可微函数的一个示例,该可微函数可在反向传播期间用于表示二值化操作212和三值化操作204的离散函数。在其它示例中,可以使用不同的可微函数来表示特征张量和权重张量量化操作的离散函数。在反向传播期间使用可微函数可以减轻反向传播期间引入的梯度噪声。
在训练阶段卷积块100的训练完成后,将学习的参数转换为用于推理阶段卷积块200的合适格式(动作706)。具体地,如上所述,关于训练阶段计算块100学习的三元权重张量通过映射函数260操作分解为正权重张量和负权重张量它们被存储为用于推理阶段计算块200的经训练权重参数。此外,基于在训练阶段计算操作100的训练期间学习的BN操作208的参数μB、βi、σB、γi,根据等式(11)计算阈值张量阈值张量被存储为推理阶段计算块200的经训练阈值参数。
如上所述,推理阶段计算块200不使用需要乘积累加函数来确定张量点积的矩阵乘法运算,而是依赖于低资源计算操作256,包括与运算、POPCOUNT运算和减法运算。此外,推理阶段计算块200依赖于简单的布尔比较运算258,以取代BN操作208、激活操作210和二值化操作212。
推理阶段计算块200的低资源计算操作256在一些应用中可以使硬件设备能够以比先前方案更低的计算成本和更高的效率执行给定的推理任务。包含由推理阶段计算块200实现的一个或多个层的NN可以适合部署在计算受限的硬件设备(例如,具有有限处理能力、有限内存或有限电力供应中的一个或多个的硬件设备)上。使用包含基于低资源计算操作256(例如,与运算、POPCOUNT运算、减法运算、比较运算)的层的经训练NN可以使经训练NN能够以较低的计算成本在处理系统上运行,从而更适合由通用CPU或微控制器执行。其它好处可能包括降低硬件成本、提高设备电池寿命以及使经训练NN能够部署到更广泛的硬件设备上。
尽管上面在实现全连接NN层的推理阶段计算块200的上下文中描述,但低资源计算操作256和比较运算258也可以应用于实现NN的非全连接层(例如卷积NN的卷积层)的推理阶段计算块中。如上所述,在全连接层的情况下,计算块的每个单独计算单元接收相同的输入特征元素集,但应用相应的权重元素集。在卷积层的情况下,计算块的每个单独计算单元接收不同的、可能重叠的输入特征元素集(由滤波器对输入特征量进行卷积产生),但应用相同的权重元素集(例如,滤波器)。在卷积计算块的卷积计算单元的情况下,点积是根据权重和特征元素的相似大小的矩阵(例如,集合)而不是如上关于全连接层所述的向量确定的;尽管如此,上述相同的低资源计算操作也可以应用于提供对应于两个矩阵的点积的整数特征元素输出。
在示例性实施例中,包括使用上述低资源计算操作256和比较运算258的推理阶段块的NN可以用于许多不同的推理任务,包括例如,提取用于面部或对象识别应用的视频图像的特征。
在一些实施例中,具有输入层、输出层以及输入层与输出层之间的一个或多个隐藏层的深度NN可以在训练阶段期间包括一个或多个训练阶段计算块100。当NN被部署用于推理目的时,一个或多个训练阶段计算块100被相应的推理阶段计算块200取代。使用训练阶段计算块100学习的训练参数被转换为适合于推理阶段计算块200的低资源计算操作256的格式。NN可以由使用张量处理单元或神经处理单元等处理单元执行的机器可读指令进行软件实现。或者,NN可以使用包括由专用硬件设备执行的机器可读指令的软件来实现,例如包括少量逻辑门的紧凑、节能的AI芯片(例如,专门设计用于更快地执行NN操作任务的微处理器,使用比传统微处理器更少的功率)。在示例性实施例中,使用比最终部署用于推理操作的经训练NN的处理系统更强大的处理单元来训练NN。
图9是包括处理单元900的示例性推理阶段硬件设备的框图,处理单元900可用于训练目的,以执行包括一个或多个训练阶段计算块100的NN的机器可执行指令,或在训练后推理期间执行包括一个或多个推理阶段计算块200的经训练NN的机器可执行指令。可以使用适合于实现本发明中描述的实施例的其它处理单元配置,这些处理单元配置可以包括与下面讨论的那些组件不同的组件。尽管图9示出了每个组件的单个实例,但在处理单元900中可以存在每个组件的多个实例。
处理单元900可以包括一个或多个处理设备902,例如处理器、微处理器、专用集成电路(application-specific integrated circuit,ASIC)、现场可编程门阵列(field-programmable gate array,FPGA)、专用逻辑电路或其组合。在示例性实施例中,用于训练目的的处理单元900可以包括连接到处理设备902的加速器906。处理单元900还可以包括一个或多个输入/输出(input/output,I/O)接口904,这些接口可以支持与一个或多个合适的输入设备914和/或输出设备916连接。处理单元900可以包括一个或多个网络接口906,用于与网络(例如内网、互连网、P2P网络、WAN和/或LAN)或其它节点进行有线或无线通信。网络接口906可以包括用于进行内网通信和/或网外通信的有线链路(例如以太网线)和/或无线链路(例如一个或多个天线)。
处理单元900还可以包括一个或多个存储单元908,所述一个或多个存储单元908可以包括大容量存储单元,例如固态驱动器、硬盘驱动器、磁盘驱动器和/或光盘驱动器。处理单元900可以包括一个或多个存储器910,所述一个或多个存储器910可以包括易失性或非易失性存储器(例如,闪存、随机存取存储器(random access memory,RAM)和/或只读存储器(read-only memory,ROM))。一个或多个非瞬时性存储器910可以存储由一个或多个处理设备902执行的指令,例如,以执行本发明中描述的示例。一个或多个存储器910可以包括其它软件指令,例如用于实现操作系统和其它应用/功能的软件指令。在一些示例中,存储器910可以包括用于由处理设备902执行的软件指令,以实现和训练包括本发明的按位计算块100的神经网络。在一些示例中,存储器910可以包括用于由处理设备902执行的软件指令和数据(例如,权重和阈值参数),以实现包括本发明的推理阶段计算块200的经训练神经网络。
在一些示例中,一个或多个数据集和/或模块可以由外部存储器(例如,与处理单元900进行有线通信或无线通信的外部驱动器)提供,也可以由瞬时性或非瞬时性计算机可读介质提供。非瞬时性计算机可读介质的示例包括RAM、ROM、可擦除可编程ROM(erasableprogrammable ROM,EPROM)、电可擦除可编程ROM(electrically erasable programmableROM,EEPROM)、闪存、CD-ROM或其它便携式存储器。
可以存在总线912,在处理单元900的组件之间提供通信,所述组件包括一个或多个处理设备902、一个或多个I/O接口904、一个或多个网络接口906、一个或多个存储单元908和/或一个或多个存储器910。总线912可以是任何合适的总线架构,例如包括存储器总线、外围总线或视频总线。
尽管本发明通过按照一定的顺序执行的步骤描述方法和过程,但是可以适当地省略或改变方法和过程中的一个或多个步骤。在适当情况下,一个或多个步骤可以按所描述的顺序以外的顺序执行。
尽管本发明在方法方面至少部分地进行了描述,但本领域普通技术人员将理解,本发明也针对用于执行所述方法的至少一些方面和特征的各种组件,无论是通过硬件组件、软件还是其任意组合。相应地,本发明的技术方案可以通过软件产品的形式体现。合适的软件产品可以存储在预先记录的存储设备或其它类似的非易失性或非瞬时性计算机可读介质中,包括DVD、CD-ROM、USB闪存盘、可移动硬盘或其它存储介质等。软件产品包括有形地存储在其上的指令,所述指令使得处理设备(例如,个人计算机、服务器或网络设备)能够执行本文中公开的方法的示例。
本发明可以其它特定形式体现,而不脱离权利要求的主题。所描述的示例性实施例在各方面都仅仅是示意性的,而不是限制性的。可以将上述一个或多个实施例中的选定特征组合以创建未明确描述的替代性实施例,理解适合此类组合的特征在本发明的范围内。
还公开了公开范围内的所有值和子范围。此外,尽管本文所公开和显示的系统、设备和流程可包括特定数量的元素/组件,但可以修改所述系统、设备和组合件,以包括此类元素/组件中的更多或更少的元素/组件。例如,尽管所公开的任何元件/组件可以引用为单个数量,但是可以修改本文所公开的实施例以包括多个此类元件/组件。本文所描述的主题旨在覆盖和涵盖所有适当的技术变更。
在本发明中识别的所有发表论文的内容通过引用的方式并入本文。
Claims (21)
1.一种计算机实现的方法,其特征在于,包括:
将多个低资源计算操作应用于二元输入特征张量,以生成整数特征张量,所述整数特征张量相当于对三元权重张量和所述二元输入特征张量执行的乘法累加运算的输出,其中,使用第一权重张量和第二权重张量将所述多个低资源计算操作应用于所述二元输入特征张量,所述第一权重张量和所述第二权重张量各自包括n个二元元素,并且共同表示所述三元权重张量的相应n个元素;
将所述生成的整数特征张量与比较阈值进行比较运算,以生成二元输出特征张量。
2.根据权利要求1所述的方法,其特征在于:
所述生成的整数特征张量包括m个整数元素的集合,每个整数元素具有一个值,所述值相当于所述三元权重张量的n个三元元素的集合和所述二元输入特征张量的n个二元元素的集合的点积。
3.根据权利要求2所述的方法,其特征在于,对于所述整数特征张量的每个整数元素:
应用所述多个低资源计算操作包括,对于所述整数特征张量的每个整数元素:
在所述第一权重张量的所述n个二元元素与所述二元输入特征张量的所述n个二元元素之间应用第一按位逻辑与运算;
在所述第二权重张量的所述n个二元元素与所述二元输入特征张量的所述n个二元元素之间应用第二按位逻辑与运算;
基于包括在所述第一按位逻辑与运算的输出和所述第二按位逻辑与运算的输出中的预定值的位数生成所述整数元素。
4.根据权利要求3所述的方法,其特征在于,应用所述多个低资源计算操作包括,对于所述整数特征张量的每个整数元素:
应用第一POPCOUNT运算以对包括在所述第一按位逻辑与运算的所述输出中的所述预定值的所述位数进行计数;
应用第二POPCOUNT运算以对包括在所述第二按位逻辑与运算的所述输出中的所述预定值的所述位数进行计数;
其中,生成所述整数元素包括在所述第一POPCOUNT运算的输出与所述第二POPCOUNT运算的输出之间应用减法运算,以输出所述整数元素。
5.根据权利要求3或4所述的方法,其特征在于,所述三元权重张量的n个元素被分解成n个二元元素对,以生成所述第一权重张量的所述n个二元元素和所述第二权重张量的所述n个二元元素。
6.根据权利要求5所述的方法,其特征在于,应用所述多个低资源计算操作和执行所述比较运算是在经训练以执行推理任务的第二神经网络的层中执行的,
所述方法还包括通过学习包括所述三元权重张量的第一神经网络的网络参数来训练所述第一神经网络以执行所述推理任务。
7.根据权利要求6所述的方法,其特征在于,训练所述第一神经网络包括:
使用所述网络参数为训练数据集的多个输入特征张量中的每个输入特征张量推断输出张量;
基于所述推断确定所述网络参数的成本;
使用梯度下降和反向传播更新所述网络参数,
其中,重复所述推断、所述确定和所述更新,直到所述网络参数的所述成本达到优化阈值。
8.根据权利要求7所述的方法,其特征在于,所述第一神经网络的层对应于所述第二神经网络的所述层,所述第一神经网络的所述层用于:
使用所述三元权重张量和所述训练数据集中的二元输入特征张量应用乘法累加运算,以生成训练整数特征张量;
将批归一化操作、激活操作和二值化操作应用于所述生成的训练整数特征张量,以生成训练二元输出特征张量,所述批归一化基于批归一化参数集,
其中,所述学习的网络参数包括所述批归一化参数,所述比较阈值是基于所述学习的批归一化参数计算的m个整数阈值的张量。
9.根据权利要求8所述的方法,其特征在于,所述批归一化参数包括缩放因子张量和偏置张量,并且训练所述第一神经网络包括初始化所述网络参数中的一个或多个网络参数,以将所述网络参数内的值的方差保持在目标方差范围内。
10.根据权利要求8或9所述的方法,其特征在于,在所述第一神经网络的训练期间,所述三元权重张量是通过使用不可微的三值化操作量化对应的实值权重张量的值而生成的,所述二值化操作应用不可微的二值化操作,并且在反向传播期间,所述不可微的三值化操作和所述不可微的二值化操作各自由相应的可微操作近似。
11.一种处理系统,其特征在于,包括:
处理设备;
存储器,可操作地连接到所述处理设备,并存储可执行指令,所述可执行指令当由所述处理设备执行时,使处理单元实现用于执行推理任务的经训练神经网络的计算块,所述计算块用于:
将多个低资源计算操作应用于二元输入特征张量,以生成整数特征张量,所述整数特征张量相当于对三元权重张量和所述二元输入特征张量执行的乘法累加运算的输出,其中,使用第一权重张量和第二权重张量将所述多个低资源计算操作应用于所述二元输入特征张量,所述第一权重张量和所述第二权重张量各自包括n个二元元素,并且共同表示所述三元权重张量的相应n个元素;
将所述生成的整数特征张量与比较阈值进行比较运算,以生成二元输出特征张量。
12.根据权利要求11所述的处理系统,其特征在于:
所述生成的整数特征张量包括m个整数元素的集合,每个整数元素具有一个值,所述值相当于所述三元权重张量的n个三元元素的集合和所述二元输入特征张量的n个二元元素的集合的点积。
13.根据权利要求12所述的处理系统,其特征在于,对于所述整数特征张量的每个整数元素,所述计算块用于:
通过以下方式对于所述整数特征张量的每个整数元素,应用所述多个低资源计算操作:
在所述第一权重张量的所述n个二元元素与所述二元输入特征张量的所述n个二元元素之间应用第一按位逻辑与运算;
在所述第二权重张量的所述n个二元元素与所述二元输入特征张量的所述n个二元元素之间应用第二按位逻辑与运算;
基于包括在所述第一按位逻辑与运算的输出和所述第二按位逻辑与运算的输出中的预定值的位数生成所述整数元素。
14.根据权利要求13所述的处理系统,其特征在于,所述计算块用于通过以下方式对于所述整数特征张量的每个整数元素,应用所述多个低资源计算操作:
应用第一POPCOUNT运算以对包括在所述第一按位逻辑与运算的所述输出中的所述预定值的所述位数进行计数;
应用第二POPCOUNT运算以对包括在所述第二按位逻辑与运算的所述输出中的所述预定值的所述位数进行计数;
其中,生成所述整数元素包括在所述第一POPCOUNT运算的输出与所述第二POPCOUNT运算的输出之间应用减法运算,以输出所述整数元素。
15.根据权利要求13所述的处理系统,其特征在于,所述第一权重张量的所述n个二元元素和所述第二权重张量的所述n个二元元素存储在所述存储器中,并对应于将所述三元权重张量的相应n个元素分解为n个二元元素对,以生成所述第一权重张量的所述n个二元元素和所述第二权重张量的所述n个二元元素。
16.根据权利要求15所述的处理系统,其特征在于,所述三元权重张量是通过训练训练神经网络以执行所述推理任务而学习的网络参数集的一部分。
17.根据权利要求15或16所述的处理系统,其特征在于,所述训练神经网络通过以下方式训练:
使用所述网络参数为训练数据集的多个输入特征张量中的每个输入特征张量推断输出张量;
基于所述推断确定所述网络参数的成本;
使用梯度下降和反向传播更新所述网络参数,
其中,重复所述推断、所述确定和所述更新,直到所述网络参数的所述成本达到优化阈值。
18.根据权利要求17所述的处理系统,其特征在于,所述训练神经网络的计算块对应于所述经训练神经网络的所述计算块,所述训练神经网络的所述计算块用于:
使用所述三元权重张量和所述训练数据集中的二元输入特征张量应用乘法累加运算,以生成训练整数特征张量;
将批归一化操作、激活操作和二值化操作应用于所述生成的训练整数特征张量,以生成训练二元输出特征张量,所述批归一化基于批归一化参数集,
其中,所述学习的网络参数包括所述批归一化参数,所述比较阈值是基于所述学习的批归一化参数计算的m个整数阈值的张量。
19.根据权利要求16至18中任一项所述的处理系统,其特征在于,结合另一处理单元,所述另一处理单元用于训练所述训练神经网络以执行所述推理任务。
20.一种计算机可读介质,其特征在于,存储指令,所述指令用于使处理单元实现用于执行推理任务的经训练神经网络的计算块,所述计算块用于执行权利要求1至10中任一项所述的方法。
21.一种计算机可读产品,其特征在于,存储指令,所述指令用于使处理单元实现用于执行推理任务的经训练神经网络的计算块,所述计算块用于执行权利要求1至10中任一项所述的方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/900,658 US20210390386A1 (en) | 2020-06-12 | 2020-06-12 | Low resource computational block for a trained neural network |
US16/900,658 | 2020-06-12 | ||
PCT/CN2020/096974 WO2021248544A1 (en) | 2020-06-12 | 2020-06-19 | Low resource computational block for trained neural network |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115668229A true CN115668229A (zh) | 2023-01-31 |
Family
ID=78825521
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202080101532.8A Pending CN115668229A (zh) | 2020-06-12 | 2020-06-19 | 用于经训练神经网络的低资源计算块 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20210390386A1 (zh) |
CN (1) | CN115668229A (zh) |
WO (1) | WO2021248544A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116402106A (zh) * | 2023-06-07 | 2023-07-07 | 深圳市九天睿芯科技有限公司 | 神经网络加速方法、神经网络加速器、芯片及电子设备 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108171323B (zh) * | 2016-12-28 | 2021-03-26 | 上海寒武纪信息科技有限公司 | 一种人工神经网络计算装置和方法 |
WO2018217863A1 (en) * | 2017-05-23 | 2018-11-29 | Intel Corporation | Methods and apparatus for enhancing a binary weight neural network using a dependency tree |
CN108304786A (zh) * | 2018-01-17 | 2018-07-20 | 东南大学 | 一种基于二值化卷积神经网络的行人检测方法 |
US10824943B2 (en) * | 2018-08-21 | 2020-11-03 | GM Global Technology Operations LLC | High precision low bit convolutional neural network |
US20200097818A1 (en) * | 2018-09-26 | 2020-03-26 | Xinlin LI | Method and system for training binary quantized weight and activation function for deep neural networks |
US11126402B2 (en) * | 2019-03-21 | 2021-09-21 | Qualcomm Incorporated | Ternary computation memory systems and circuits employing binary bit cell-XNOR circuits particularly suited to deep neural network (DNN) computing |
-
2020
- 2020-06-12 US US16/900,658 patent/US20210390386A1/en active Pending
- 2020-06-19 WO PCT/CN2020/096974 patent/WO2021248544A1/en active Application Filing
- 2020-06-19 CN CN202080101532.8A patent/CN115668229A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116402106A (zh) * | 2023-06-07 | 2023-07-07 | 深圳市九天睿芯科技有限公司 | 神经网络加速方法、神经网络加速器、芯片及电子设备 |
CN116402106B (zh) * | 2023-06-07 | 2023-10-24 | 深圳市九天睿芯科技有限公司 | 神经网络加速方法、神经网络加速器、芯片及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
WO2021248544A1 (en) | 2021-12-16 |
US20210390386A1 (en) | 2021-12-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210089925A1 (en) | Training method for quantizing the weights and inputs of a neural network | |
WO2020019236A1 (en) | Loss-error-aware quantization of a low-bit neural network | |
EP3543917B1 (en) | Dynamic adaptation of deep neural networks | |
US11657254B2 (en) | Computation method and device used in a convolutional neural network | |
US10789734B2 (en) | Method and device for data quantization | |
Kurbiel et al. | Training of deep neural networks based on distance measures using RMSProp | |
WO2022006919A1 (zh) | 基于激活定点拟合的卷积神经网络训练后量化方法及系统 | |
WO2021043294A1 (en) | Neural network pruning | |
Schilling | The effect of batch normalization on deep convolutional neural networks | |
KR20190034985A (ko) | 인공 신경망의 양자화 방법 및 장치 | |
Cai et al. | An optimal construction and training of second order RBF network for approximation and illumination invariant image segmentation | |
US11657285B2 (en) | Methods, systems, and media for random semi-structured row-wise pruning in neural networks | |
US11601134B2 (en) | Optimized quantization for reduced resolution neural networks | |
KR20200072588A (ko) | Cnn기반의 딥러닝 모델 학습장치 및 그 방법 | |
KR20190130443A (ko) | 뉴럴 네트워크의 양자화 방법 및 장치 | |
KR20200121497A (ko) | 가중치 신경망의 신경망 연산 방법 및 장치 | |
CN115398450A (zh) | 使用基于样本的正则化技术的迁移学习设备和方法 | |
CN112446888A (zh) | 图像分割模型的处理方法和处理装置 | |
Fedorov et al. | Udc: Unified dnas for compressible tinyml models for neural processing units | |
CN115668229A (zh) | 用于经训练神经网络的低资源计算块 | |
US20230306255A1 (en) | Method and system for smooth training of a quantized neural network | |
Ali et al. | High Accuracy Arabic Handwritten Characters Recognition Using Error Back Propagation Artificial Neural Networks | |
WO2022247368A1 (en) | Methods, systems, and mediafor low-bit neural networks using bit shift operations | |
US11699077B2 (en) | Multi-layer neural network system and method | |
Chin et al. | A high-performance adaptive quantization approach for edge CNN applications |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |