CN115668229A - 用于经训练神经网络的低资源计算块 - Google Patents

用于经训练神经网络的低资源计算块 Download PDF

Info

Publication number
CN115668229A
CN115668229A CN202080101532.8A CN202080101532A CN115668229A CN 115668229 A CN115668229 A CN 115668229A CN 202080101532 A CN202080101532 A CN 202080101532A CN 115668229 A CN115668229 A CN 115668229A
Authority
CN
China
Prior art keywords
tensor
integer
binary
weight
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202080101532.8A
Other languages
English (en)
Inventor
李忻林
瓦希德·帕托维·尼亚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Publication of CN115668229A publication Critical patent/CN115668229A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/18Extraction of features or characteristics of the image
    • G06V30/1801Detecting partial patterns, e.g. edges or contours, or configurations, e.g. loops, corners, strokes or intersections
    • G06V30/18019Detecting partial patterns, e.g. edges or contours, or configurations, e.g. loops, corners, strokes or intersections by matching or filtering
    • G06V30/18038Biologically-inspired filters, e.g. difference of Gaussians [DoG], Gabor filters
    • G06V30/18048Biologically-inspired filters, e.g. difference of Gaussians [DoG], Gabor filters with interaction between the responses of different filters, e.g. cortical complex cells
    • G06V30/18057Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Neurology (AREA)
  • Image Analysis (AREA)

Abstract

一种计算块,所述计算块用于通过以下方式执行推理任务:将多个低资源计算操作应用于二元输入特征张量,以生成整数特征张量,所述整数特征张量相当于对三元权重张量和所述二元输入特征张量执行的乘法累加运算的输出;将所述生成的整数特征张量与比较阈值进行比较运算,以生成二元输出特征张量。使用所述第一权重张量和所述第二权重张量将所述多个低资源计算操作应用于所述二元输入特征张量,所述第一权重张量和所述第二权重张量各自包括n个二元元素,并且共同表示所述三元权重张量的相应n个元素。

Description

用于经训练神经网络的低资源计算块
相关申请的交叉引用
本申请要求于2020年6月12日提交的、发明名称为“用于经训练神经网络的低资源计算块(LOW RESOURCE COMPUTATIONAL BLOCK FOR A TRAINED NEURAL NETWORK)”的第16/900,658号美国专利申请的权益,该美国专利申请的内容以引用的方式并入本文中,如全文再现一般。
技术领域
本发明大体上涉及人工神经网络。更具体地,本申请涉及一种具有用于经训练神经网络的层的量化输入和参数的计算块。
背景技术
人工神经网络(neural network,NN)是模拟生物大脑的运作方式的计算系统。NN由多个层(例如,计算块)组成,每个层包括多个计算单元(称为神经元),不同层的计算单元之间具有连接。NN中的每个计算单元(例如,每个神经元)使用一系列计算来转换数据,这些计算包括每个相应的计算单元将初始值乘以一些权重,将结果与输入同一相应计算单元的其它值相加,通过计算单元的相应偏置调整结果数,然后用激活函数归一化输出。偏置是在处理所有连接之后调整相应计算单元的值的数,激活函数确保传递到后续计算单元的值在可调谐的预期范围内。重复一系列计算,直到NN的最终输出层生成与特定推理任务相关的分数或预测。NN可以学习执行推理任务,例如对象检测、图像分类、聚类、语音识别或模式识别。NN通常不需要使用任何任务特定的规则进行编程。相反,NN通常执行监督学习任务,从预先提供正确答案的数据集构建信息。然后,NN通过自身调谐来学习,以自己找到正确的答案,从而提高其预测的准确性。
NN变得更大(即,更深)和更复杂。这不可避免地增加了NN中层的数量和大小,以至于在软件或硬件中实现NN的成本可能很高。NN越来越依赖使用特别设计的、计算能力强大的硬件设备来执行NN的每一层的操作(以下通常称为NN操作),这些设备包括一个或多个处理单元、加速器(例如,设计用于执行NN的某些操作的加速器)和支持存储器。在一些示例中,专用处理单元、加速器和支持存储器封装在单个集成电路中。执行深度NN的NN操作所需的计算能力强大的硬件设备会增加经济成本,以及物理空间和热冷要求方面的辅助成本。
深度NN通常是使用由全精度计算单元组成的全精度层构建的全精度NN。全精度层对各自具有8位以上的值执行NN操作,例如矩阵乘法、加法、批归一化和乘积累加(multiply-accumulate,MAC)运算(例如,输入特征向量或特征图等特征张量中的单个元素是使用8位或更多位表示的每个实值,以及包括在权重张量中的权重等网络层参数也是使用8位或更多位表示的实值)。在全精度层上下文中执行的NN操作称为高位NN操作。具体地,NN层(例如,NN的第i层)中计算单元的每个元素输出是输入到计算单元的所有特征元素的加权和,这需要每个全精度层进行大量的乘积累加(multiply-accumulate,MAC)运算。因此,由全精度NN层执行的高位NN操作在计算上是密集型的。这对在计算受限的硬件设备中使用全精度NN施加了限制。
因此,对NN压缩技术的兴趣日益浓厚,这种NN压缩技术可以减少NN执行的用于特定推理任务所需的NN操作的数量,从而使NN能够部署在计算受限的硬件设备中,所述硬件设备例如可以使用与部署非压缩NN所需相比功能更弱的处理单元、功能更弱的(或没有)加速器、更少的内存和/或更少的功率。NN压缩技术可以例如应用于成本效益高的计算受限的硬件设备中,所述硬件设备可以被实现以解决机器人、自动驾驶、无人机和物联网(internet of things,IOT)等应用中的现实世界问题。神经网络量化是一种NN压缩技术,用于解决压缩经训练NN以使NN操作能够在资源受限的硬件设备上执行的挑战。除其它外,NN量化还可用于用按位运算取代在NN层执行的高位MAC运算。由于通用处理单元支持的最小位宽MAC运算符是8位MAC运算符,因此传统的量化技术将全精度矩阵乘法运算减少为8位矩阵乘法运算,由8位MAC运算符执行。将全精度矩阵乘法运算减少为位宽小于8位(即,位数小于8位)的矩阵乘法运算的任何NN量化技术都必须由使用按位运算符或使用特定硬件设备的计算单元执行。使用按位运算的NN层可以用作低位层,其中,使用表示为1位值或2位值的元素执行运算。
低位神经网络量化技术通常可分为两个不同的类别:(i)量化NN层接收的实值权重张量但在NN层的NN操作中使用实值输入特征图张量的权重量化技术;(ii)量化实值权重张量和输入特征图张量的权重和特征图量化技术。
低位量化技术的局限性在于,当已经压缩的经训练NN被部署用于推理(即,对新数据进行预测)时,压缩的经训练NN在计算成本和内存要求中的一个或多个方面存在缺陷。例如,压缩的经训练NN仍然需要大量的乘积累加(multiply-accumulate,MAC)运算,这些MAC运算可能是计算和内存密集型的。
因此,需要低位计算块,该低位计算块可用于实现NN的层,在训练后可以准确地生成NN的后续计算块(例如,NN的后续层)的二元特征图张量,与现有低位NN方案相比,计算成本和内存要求更低。
发明内容
本发明提供了用于在资源受限的硬件设备上有效地执行推理任务的方法和系统。在经训练NN中,推理阶段计算块使用低资源计算操作来取代大量资源密集型乘积累加(multiply-accumulate,MAC)运算。这些低资源计算操作可以包括基本逻辑和数学运算,例如与运算、POPCOUNT运算、减法运算和比较运算。本文公开的方法和系统在一些应用中可以使用较少的计算资源,例如处理功率和内存,来执行推理任务并生成特征向量。在示例性实施例中,推理阶段计算块使包括一个或多个推理阶段计算块的经训练NN能够部署在资源受限的硬件设备上,从而使得它使用比现有方案更少的处理器计算、更少的内存和/或更少的功率。
根据第一示例性方面,提供了一种计算机实现的方法,所述计算机实现的方法包括:应用多个低资源计算操作以生成整数特征张量,所述整数特征张量相当于对三元权重张量和所述二元输入特征张量执行的乘法累加运算的输出;将所述生成的整数特征张量与比较阈值进行比较运算,以生成二元输出特征张量。
在至少一些应用中,使用低资源计算操作来提供相当于一组乘法累加运算的输出,使得该方法能够在不使用计算和内存密集型乘积累加(multiply-accumulate,MAC)运算的情况下执行。这可以使得该方法能够使用计算受限的硬件设备来执行,这些计算受限的硬件设备具有有限处理功率、有限的内存或有限的电源中的一种或多种,包括例如边缘设备。所述方法例如可以使神经网络(neural network,NN)能够部署在计算受限的硬件设备中,所述计算受限的硬件设备例如可以使用与先前方案所需相比功能更弱的处理单元、功能更弱(或没有)加速器、更少的内存和/或更少的功率。
根据上述方面的一些示例,所述生成的整数特征张量包括m个整数元素的集合,每个整数元素具有一个值,所述值相当于所述三元权重张量的n个三元元素的集合和所述二元输入特征张量的n个二元元素的集合的点积。
根据上述方面中的一个或多个的示例,对于所述整数特征张量的每个整数元素:使用所述第一权重张量和所述第二权重张量应用所述多个低资源计算操作,所述第一权重张量和所述第二权重张量各自包括n个二元元素,并且共同表示所述三元权重张量的相应n个元素,应用所述多个低资源计算操作包括,对于所述整数特征张量的每个整数元素:在所述第一权重张量的所述n个二元元素与所述二元输入特征张量的所述n个二元元素之间应用第一按位逻辑与运算;在所述第二权重张量的所述n个二元元素与所述二元输入特征张量的所述n个二元元素之间应用第二按位逻辑与运算;基于包括在所述第一按位逻辑与运算的输出和所述第二按位逻辑与运算的输出中的预定值的位数生成所述整数元素。
根据上述方面中的一个或多个的示例,应用所述多个低资源计算操作包括,对于所述整数特征张量的每个整数元素:应用第一POPCOUNT运算以对包括在所述第一按位逻辑与运算的所述输出中的所述预定值的所述位数进行计数;应用第二POPCOUNT运算以对包括在所述第二按位逻辑与运算的所述输出中的所述预定值的所述位数进行计数;其中,生成所述整数元素包括在所述第一POPCOUNT运算的输出与所述第二POPCOUNT运算的输出之间应用减法运算,以输出所述整数元素。
根据上述方面中的一个或多个的示例,所述三元权重张量的n个元素被分解成n个二元元素对,以生成所述第一权重张量的所述n个二元元素和所述第二权重张量的所述n个二元元素。
根据上述方面中的一个或多个的示例,应用所述多个低资源计算操作和执行所述比较运算是在经训练以执行推理任务的第二神经网络的层中执行的,所述方法还包括通过学习包括所述三元权重张量的第一神经网络的网络参数来训练所述第一神经网络以执行所述推理任务。
根据上述方面中的一个或多个的示例,训练所述第一神经网络包括:使用所述网络参数为训练数据集的多个输入特征张量中的每个输入特征张量推断输出张量;基于所述推断确定所述网络参数的成本;使用梯度下降和反向传播更新所述网络参数,其中,重复所述推断、所述确定和所述更新,直到所述网络参数的所述成本达到优化阈值。
根据上述方面中的一个或多个的示例,所述第一神经网络的层对应于所述第二神经网络的所述层,所述第一神经网络的所述层用于:使用所述三元权重张量和所述训练数据集中的二元输入特征张量应用乘法累加运算,以生成训练整数特征张量;将批归一化操作、激活操作和二值化操作应用于所述生成的训练整数特征张量,以生成训练二元输出特征张量,所述批归一化基于批归一化参数集,其中,所述学习的网络参数包括所述批归一化参数,所述比较阈值是基于所述学习的批归一化参数计算的m个整数阈值的张量。
根据上述方面中的一个或多个的示例,所述批归一化参数包括缩放因子张量和偏置张量,并且训练所述第一神经网络包括初始化所述网络参数中的一个或多个网络参数,以将所述网络参数内的值的方差保持在目标方差范围内。
根据上述方面中的一个或多个的示例,在所述第一神经网络的训练期间,所述三元权重张量是通过使用不可微的三值化操作量化对应的实值权重张量的值而生成的,所述二值化操作应用不可微的二值化操作,并且在反向传播期间,所述不可微的三值化操作和所述不可微的二值化操作各自由相应的可微操作近似。
根据第二示例性方面,提供了一种处理单元,所述处理单元用于执行上述方面中的一个或多个的方法。
根据另一个示例性方面,提供了一种处理设备,所述处理设备包括存储器,所述存储器可操作地连接到所述处理设备,并存储可执行指令,所述可执行指令当由所述处理设备执行时,使处理单元实现用于执行推理任务的经训练神经网络的计算块。所述计算块用于:应用多个低资源计算操作,以生成整数特征张量,所述整数特征张量相当于对三元权重张量和所述二元输入特征张量执行的乘法累加运算的输出;将所述生成的整数特征张量与比较阈值进行比较运算,以生成二元输出特征张量。
根据另一个示例性方面,提供了一种计算机可读介质,所述计算机可读介质存储指令,所述指令用于使处理单元实现用于执行推理任务的经训练神经网络的计算块,所述计算块用于:应用多个低资源计算操作以生成整数特征张量,所述整数特征张量相当于对三元权重张量和所述二元输入特征张量执行的乘法累加运算的输出;将所述生成的整数特征张量与比较阈值进行比较运算,以生成二元输出特征张量。
根据另一个示例性方面,提供了一种计算机程序,所述计算机程序存储指令,所述指令用于使处理单元实现用于执行推理任务的经训练神经网络的计算块,所述计算块用于:应用多个低资源计算操作以生成整数特征张量,所述整数特征张量相当于对三元权重张量和所述二元输入特征张量执行的乘法累加运算的输出;将所述生成的整数特征张量与比较阈值进行比较运算,以生成二元输出特征张量。
附图说明
现在将通过示例参考示出本申请示例性实施例的附图,在附图中:
图1是示例性实施例提供的可用于在训练NN模型的同时实现NN的层的训练阶段计算块的计算图表示;
图2示出了图1的训练阶段计算块的进一步表示,以及示例性实施例提供的三元权重张量的示例;
图3是示例性实施例提供的可用于实现NN的训练层的推理阶段计算块的计算图表示;
图4是按位运算的真值表表示;
图5示出了表示三元权重张量的两个1位权重张量;
图6是用于实现图2的推理阶段计算块的低资源计算操作的框图;
图7示出了示例性实施例提供的使用图3B的低资源计算操作执行推理任务的示例性方法;
图8图形化地表示示例性实施例提供的具有三个不同参数的可微函数;
图9是可用于执行包括图1或图3所示的一个或多个计算块的NN的机器可读指令的示例性处理系统的框图。
不同的附图中使用了相似的附图标记来表示相似的组件。
具体实施方式
本发明涉及一种神经网络(neural network,NN),所述神经网络包括实现为推理阶段计算块的一个或多个层,所述推理阶段计算块使用一组低资源计算操作来替代在对应训练阶段计算块中使用的资源密集型运算。如本文所使用的,使用“低资源计算操作”的推理计算块是基于学习参数集对输入特征张量执行非线性推理函数而不应用乘积累加(multiplication and accumulate,MAC)运算的计算块。在示例性实施例中,低资源计算操作包括基本的逻辑和数学计算操作,例如与运算、POPCOUNT运算、减法运算和比较运算,并排除计算密集型运算,例如依赖于MAC运算的矩阵乘法运算。如本文所使用,“张量”是指元素数组,例如向量(例如,一维数组,例如包括多个标量特征元素的行数组或列数组)或矩阵或映射(例如,多维数组,每个维度包括多个标量特征元素)。“特征张量”是指表示正在处理的对象的特征的元素数组。例如,正在处理的对象可以是图像数据、音频数据、数字数据或其它形式的结构化或非结构化数据的实例。“权重张量”是指标量权重元素的数组,例如权重向量(例如,一维数组,例如包括多个标量权重元素的行数组或列数组)或权重矩阵(例如,多维数组,每个维度包括多个标量权重元素)。在示例性实施例中,“低位元素”是指使用1位或2位表示的标量元素。在一些示例性实施例中,“低位特征元素”由1位值表示,“低位权重元素”由2位值表示。在至少一些NN实现中,与依赖于乘法运算、累加运算和激活操作的全流程方案或按位方案相比,应用低资源计算操作的推理阶段计算块可能有助于通过简化计算操作和/或降低内存存储要求来降低计算成本。在至少一些应用中,降低计算成本可以改善硬件设备的性能延迟和功率效率。
在示例性实施例中,包括实现为相应推理阶段计算块的一个或多个层的经训练NN被部署用于在硬件设备上执行以执行特定推理任务。例如,推理任务可以是将对象分类为属于一组可能的候选类别中的一个类别。所公开的推理阶段计算块执行低资源计算操作以处理输入量化特征张量(即,输入张量的每个特征元素被表示为相应的1位值)。推理阶段计算块基于在2位宽度量化权重张量(即,权重张量的每个权重元素表示为2位值)中定义的经训练权重参数处理输入量化特征张量。在至少一些实施例中,包括一个或多个所公开的推理阶段计算块的经训练NN可以被部署以由计算受限的硬件设备(例如,具有有限处理能力、有限内存或有限电力供应中的一个或多个的设备)执行。在至少一些应用中,包括如本发明中描述的推理阶段计算块的NN可以以精确近似全精度NN性能的方式执行推理任务,并因此缓解了传统问题,例如MAC运算的广泛使用和/或当现有的按位NN结构用于提供全精度NN的离散近似时可能出现的准确性降低。
在示例性实施例中,包括本发明中描述的推理阶段计算块的NN层可以使用低资源计算操作(例如,1位与运算、1位POPCOUNT运算)(所述低资源计算操作可以使用低位内存存储来支持)以及其它低资源计算操作(例如基本的减法运算和比较(CMP)运算)来实现。这种方案可以使经训练NN模型(该经训练NN模型包括一个或多个层,每个层包括相应的推理计算块)加载到硬件设备的处理单元的高速缓冲存储器中,从而允许具有有限计算能力的处理单元(例如,资源受限设备(例如IoT设备、移动设备和其它边缘设备)中使用的微控制器)执行高速运算。
在一些示例性实施例中,当训练NN以学习一个或多个训练阶段计算块的参数时,使用特征张量和权重张量量化函数生成对应的低位特征和权重元素。在反向传播期间,量化函数由可微函数(例如梯度估计)近似。使用可微梯度估计可以减少NN训练期间反向传播中的梯度噪声。在至少一些示例性实施例中,当训练NN以学习参数时,初始化用于NN的批归一化(batch normalization,BN)操作的缩放因子,以提高训练部署的NN的参数的准确性。
用于训练目的的计算块
图1是示例性实施例提供的可用于在训练阶段期间实现NN的层的训练阶段计算块100的计算图表示。在本发明描述的实施例中,训练阶段计算块100表示NN的第i个全连接层。在正向传递期间,训练阶段计算块100的输入是量化特征张量Xi bin,在示例性实施例中,该量化特征张量可以被表示为n个1位元素的特征向量(例如,每个元素具有“0”或“1”的二进制值),使得
Figure BDA0003969089130000061
在本发明中,大写字母(例如,“X”、“W”、“Z”)用于表示张量(例如,多元素向量或数组)且小写字母(例如,“x”、“w”、“z”)用于表示构成张量的单个标量元素。训练阶段计算块100用于执行一组低位计算操作,以处理量化特征张量
Figure BDA0003969089130000067
并输出对应的量化特征张量
Figure BDA0003969089130000062
在示例性实施例中,输出量化特征张量
Figure BDA0003969089130000068
可以表示为m个1位元素的特征向量(例如,每个元素具有“0”或“1”的二进制值),使得
Figure BDA0003969089130000063
如下面将更详细地解释,由训练阶段计算块100执行的低位计算操作包括矩阵乘法运算(MatMulbit)206、批归一化(batch normalization,BN)操作208、激活函数(例如PreLU)210和二值化操作212。
在一些情况下,层i训练阶段计算块100是NN中的第一计算块,例如,其中,i=1,并且训练阶段计算块100实现紧随NN输入层之后的第一隐藏层。在这种情况下,需要初始量化操作,即二值化操作202,该初始量化操作量化了包括在实值输入特征张量
Figure BDA0003969089130000064
中的实值元素,以输出二元输入特征张量
Figure BDA0003969089130000065
的相应1位元素。二值化操作202将实值输入特征张量Xi中的每个实值元素x量化为两个可能值(1,0)中的一个。
在一些实施例中,二值化操作202可以由以下等式(1)用数学表示:
Figure BDA0003969089130000066
其中,如上所述,Xi表示实值输入特征张量(例如,实值的n元素特征向量),
Figure BDA0003969089130000069
表示二值化张量版本(例如,1位二进制值的对应n元素特征向量)。
将量化特征张量
Figure BDA00039690891300000610
提供给矩阵乘法运算(MatMulbit)206。矩阵乘法运算(MatMulbit)206在三元权重张量
Figure BDA00039690891300000611
与输入量化特征张量
Figure BDA00039690891300000612
之间执行按位乘法累加运算,以生成m整数值元素张量Zi int。三元权重张量
Figure BDA00039690891300000613
是在按位计算块100的训练期间学习的2位宽度权重参数的m×n集合。更具体地,三元权重张量
Figure BDA00039690891300000614
从实值权重张量Wi导出,该实值权重张量是在训练阶段计算块100的训练期间学习的权重元素wi的m×n矩阵。如上所述,n是二元输入张量
Figure BDA00039690891300000615
的大小(例如二元元素的数量)。在本发明描述中,m是由按位计算块100生成的二元输出张量
Figure BDA0003969089130000079
的大小。
在这方面,三值化操作204将实值权重张量
Figure BDA00039690891300000710
量化为三元权重张量
Figure BDA0003969089130000071
具体地,三值化操作204将每个实值权重元素wa,b量化为对应的三元权重元素wter(a,b),该三元权重元素是三个可能值(1,0,–1)中的一个(其中,1≤a≤m,1≤b≤n)。
在一些实施例中,由三值化操作204生成的三元权重张量
Figure BDA00039690891300000711
由以下等式(2)用数学表示:
Figure BDA0003969089130000072
其中,如上所述,Wi表示实值权重张量,
Figure BDA00039690891300000712
表示三元权重张量。
如下面更详细地解释,在一些示例中,在反向传播期间,使用可微函数(例如近似由等式(2)表示的不可微离散量化函数的梯度估计)来近似三值化操作204。
矩阵乘法运算206执行按位矩阵乘法累加运算,如等式(3A)和(3B)所示:
Figure BDA0003969089130000073
Figure BDA0003969089130000074
Figure BDA0003969089130000075
Figure BDA0003969089130000076
如上所述,
Figure BDA00039690891300000713
是整数值特征张量
Figure BDA0003969089130000077
在全连接层的情况下,特征向量
Figure BDA00039690891300000714
的每个整数元素
Figure BDA00039690891300000715
是三元权重张量
Figure BDA00039690891300000716
的相应行的n个权重的集合和量化特征张量
Figure BDA00039690891300000717
的n个元素的点积。
在示例性实施例中,将整数特征张量
Figure BDA00039690891300000718
提供给BN操作208,该BN操作208可以根据已知的批归一化技术实现。BN操作208由可训练的BN参数配置,所述可训练的BN参数即可训练的偏置张量β和可训练的缩放因子张量γ。如本领域中已知,当使用批归一化来代替非批偏置向量加法运算时,批归一化可以改进NN的训练。BN操作208可以由等式(4)用数学表示:
Figure BDA0003969089130000078
其中,μB是X的迷你批平均值(X是用于BN操作的整数值向量
Figure BDA00039690891300000719
的组或迷你批,和),σB是X的迷你批方差,γ是可训练的缩放因子张量,β是可训练的偏置张量,∈是非常小的数字,以避免除零错误。在示例性实施例中,按位计算块的m个输出中的每个输出将具有相应的缩放因子和偏置,使得γ和β是m个元素的每个张量(例如,向量)。
在图1中,BN操作208的输出是实值特征张量
Figure BDA0003969089130000081
将该实值特征张量提供给激活函数210。矩阵乘法运算206、BN运算208和激活函数210的组合运算可以由等式(5)用数学表示,其中,σ表示激活函数210:
Figure BDA0003969089130000082
输出张量Xi+1是实值输出向量,
Figure BDA0003969089130000083
在一个示例性实施例中,激活函数σ210使用参数修正线性单元(parametricrectified linear unit,PReLU)实现。合适的参数ReLU的示例在以下文献中描述:KaimingHe、Xiangyu Zhang、Shaoqing Ren和Jian Sun的“深入研究整流器:在imagenet分类上超越人类水平的性能(Delving deep into rectifiers:Surpassing human-levelperformance on imagenet classification)”,CoRR,abs/1502.01852,2015。在另一个示例性实施例中,激活函数σ210使用Leaky ReLU实现。合适的Leaky ReLU的示例在以下文献中描述:Andrew L.Maas、Awni Y.Hannun和Andrew Y.Ng的“整流器非线性改善神经网络声学模型(Rectifier nonlinearities improve neural network acoustic models)”,ICML音频、语音和语言处理深度学习研讨会,2013年。在示例性实施例中,当按位NN块100处于训练阶段时,使用Leaky ReLU或参数ReLU作为激活函数σ210可以有助于提高反向传播的准确性。
如上所述,输出张量Xi+1是实值输出向量。为了提供二元输出,应用二值化操作212将实值输出向量
Figure BDA0003969089130000084
量化为1位二元元素的相应张量,即输出特征张量
Figure BDA0003969089130000085
二值化操作212可以与上述二值化操作202相同。
输出特征张量
Figure BDA0003969089130000089
可以用作使用另一计算块100实现的后续NN层(即,层i+1)的输入特征张量。
参考图2,训练阶段计算块100可以被认为是一组“m”个神经元或计算单元250(1)至250(m),它们共同形成NN的第i个全连接层。如图2所示,矩阵乘法运算206包括m个点积运算252(1)到252(m)。在这方面,每个计算单元250(a)(其中a是从1到m的整数)计算相应的整数特征元素
Figure BDA0003969089130000086
该相应的整数特征元素是由三元权重张量
Figure BDA00039690891300000810
的“m”行中的一行定义的相应n元素权重向量与n元素量化输入特征张量
Figure BDA00039690891300000811
的点积。因此,在全连接层中,在点积运算252(1)至252(m)中的每一个处将n个权重元素
Figure BDA00039690891300000812
Figure BDA00039690891300000813
的不同集合应用于n个1位二元输入特征元素
Figure BDA00039690891300000814
Figure BDA00039690891300000815
的相同集合。作为示例,如图2所示,整数特征元素
Figure BDA00039690891300000816
是m行乘以n列三元权重张量
Figure BDA00039690891300000817
的第一行216(1)与n元素量化特征张量
Figure BDA00039690891300000818
的点积。整数特征元素
Figure BDA00039690891300000819
是三元权重张量
Figure BDA00039690891300000820
的最后一行216(m)与n元素量化特征张量
Figure BDA00039690891300000821
的点积。整数特征张量包括m个整数元素
Figure BDA00039690891300000822
Figure BDA0003969089130000087
m个整数元素
Figure BDA00039690891300000823
Figure BDA00039690891300000824
中的每一个分别进行批归一化操作、激活操作和二值化操作,以得到输出二元向量
Figure BDA0003969089130000088
二元特征元素
Figure BDA00039690891300000825
中的每一个由相应的计算单元250(a)生成。
训练阶段计算块100的每个计算单元250(a)的前向传播通常可以由等式(6A)中所示的函数表示:
Figure BDA0003969089130000091
其中,“a”是1与m之间的整数,
Figure BDA0003969089130000097
是由三元权重张量
Figure BDA0003969089130000098
的第a行的n个权重元素组成的三元权重向量,
Figure BDA0003969089130000099
表示对应于计算单元250(a)的缩放因子张量γ和偏置张量β的元素。
如图1和图2中所示,当按位计算块100执行前向传播时,训练阶段计算块100的输出二元特征张量
Figure BDA00039690891300000910
可以由以下等式(6B)用数学表示:
Figure BDA0003969089130000092
Figure BDA0003969089130000093
其中,BatchNorm是BN操作208,σ是激活函数210,Binarize是二值化操作202。
在示例性实施例中,使用监督训练对训练阶段计算块100进行训练以学习非线性函数
Figure BDA0003969089130000094
具体地,包括权重张量Wi中的权重元素wi、可训练缩放因子张量γi中的缩放因子元素以及可训练偏置张量βi中的偏置元素的参数集是通过迭代训练过程学习的,该迭代训练过程测量关于参数集的训练数据集的NN性能,确定参数的成本,使用反向传播更新参数,并重复直到实现最佳参数集。进一步的训练细节将在下文描述。
在训练阶段计算块100被训练后,学习的参数张量Wi、γi、βi可以与具有与训练阶段计算块100相同结构的任何计算块一起使用,以实现非线性函数
Figure BDA0003969089130000095
用于推理目的的计算块
尽管如图1所示的训练阶段计算块100可以在NN训练期间免除一些高位计算,但训练阶段计算块100的结构仍然依赖于大量的MAC运算(例如,矩阵乘法运算),以及高位BN操作和激活函数,这些运算和操作可以是计算和内存密集型的。因此,当部署在边缘设备等计算受限设备上时,训练阶段计算块100可能不适合应用于关于新数据的持续推理操作。
因此,本发明的示例性实施例描述了可用于基于由训练阶段计算块100学习的参数实现非线性函数
Figure BDA00039690891300000911
的替代计算块结构。在示例性实施例中,替代计算块结构用于用多个低资源计算操作取代训练阶段计算块100的计算操作。例如,在训练之后(即,当不再需要反向传播时),出于推理目的,矩阵乘法运算206可替换地表示为输入量化特征张量
Figure BDA00039690891300000912
与三元权重张量
Figure BDA00039690891300000913
之间的多个低资源计算操作的输出。具体地,可以应用多个低资源计算操作来生成整数特征张量
Figure BDA0003969089130000096
该整数特征张量相当于矩阵乘法运算206对三元权重张量
Figure BDA00039690891300000914
和二元输入特征张量
Figure BDA00039690891300000915
执行的乘法累加运算的输出。
在这方面,图3示出了推理阶段计算块200的示例性实施例,该推理阶段计算块200可以与在训练阶段计算块100的训练期间学习的参数一起使用。推理阶段计算块200用下面描述的一组低资源计算操作256取代矩阵乘法运算206。此外,推理阶段计算块200用下面更详细地描述的简单布尔(Boolean)比较运算258取代BN操作208、激活操作210和二值化操作212。
在上述训练阶段计算块100中,将输入量化特征图张量
Figure BDA0003969089130000101
和三元权重张量
Figure BDA0003969089130000102
提供给矩阵乘法运算206,该矩阵乘法运算206应用乘法累加运算,以生成中间输出张量
Figure BDA0003969089130000103
由如上所述的等式(3A)、(3B)用数学表示。
在训练阶段计算块100的情况下,给定
Figure BDA0003969089130000104
Figure BDA0003969089130000105
图4示出了wi ter(a,b)
Figure BDA0003969089130000106
(其中,1≤a≤m,1≤b≤n)的标量乘积的按元素真值表400。为了使用推理阶段计算块200的低资源计算操作256,使用映射函数260将三元权重张量
Figure BDA0003969089130000107
的学习值各自分解为相应的二进制值对。在这方面,图5示出了映射函数260的操作,其中,每个权重元素wi ter(a,b)被分解成两个1位元素,表示为wi -1和wi +1。例如,wi ter=-1可以映射为wi -1=1和wi +1=0;wi ter=0可以映射为wi -1=0和wi +1=0;wi ter=1可以映射为wi -1=0和wi +1=1。1位正权重元素wi +1可以共同表示为1位正权重张量
Figure BDA0003969089130000108
1位负权重元素wi -1可以共同表示为1位负权重张量
Figure BDA0003969089130000109
因此,等式(3A)、(3B)可以等同于1位正权重张量
Figure BDA00039690891300001010
与输入量化特征张量
Figure BDA00039690891300001011
之间的推理阶段操作,以及1位负权重张量
Figure BDA00039690891300001012
与输入量化特征张量
Figure BDA00039690891300001013
之间的推理阶段操作。
因此,关于训练阶段计算块100学习的三元权重张量
Figure BDA00039690891300001014
通过映射函数260操作分解为正权重张量
Figure BDA00039690891300001015
和负权重张量
Figure BDA00039690891300001016
它们被存储为用于推理阶段计算块200的经训练权重参数。低资源计算操作256在1位正权重张量
Figure BDA00039690891300001017
与二元输入特征图张量
Figure BDA00039690891300001018
之间执行一组按位逻辑和基本数学运算,并在1位负权重张量
Figure BDA00039690891300001019
与二元输入特征图张量
Figure BDA00039690891300001020
之间执行一组逻辑运算。
将参考图6更详细地解释低资源计算操作256。低资源计算操作256包括两个与运算302(1)、301(2)(一般称为与运算302)、两个POPCOUNT运算304(1)、304(2)(一般称为POPCOUNT运算304)和减法运算306。具体地,使用1位正权重张量
Figure BDA00039690891300001021
和1位负权重张量
Figure BDA00039690891300001022
来表示三元权重张量
Figure BDA00039690891300001023
Figure BDA00039690891300001024
Figure BDA00039690891300001025
之间执行的矩阵乘法(Matmulbit)运算206可以由以下等式(7)中表示的多个低资源计算操作(与运算302、POPCOUNT运算304、减法运算306)替代。
Figure BDA00039690891300001026
其中:(i)每个AND()对应于图6的与运算302(1)和302(2)中的相应一个;(ii)每个POPCOUNT()对应于相应的按位popcount运算304(1)、304(2),其中,popcount运算304(1)对
Figure BDA00039690891300001027
中1的数量进行计数,popcount运算304(2)对
Figure BDA00039690891300001028
中1的数量进行计数,其中,
Figure BDA00039690891300001029
是正权重张量,
Figure BDA00039690891300001030
是负权重张量;(iii)
Figure BDA00039690891300001031
是整数的输出张量(例如,m个整数元素的输出向量),由减法运算306产生。
如等式(7)所示,生成的整数特征张量
Figure BDA00039690891300001032
包括m个整数元素
Figure BDA00039690891300001033
的集合,每个整数元素
Figure BDA00039690891300001034
具有一个值,所述值相当于所述三元权重张量
Figure BDA00039690891300001035
的n个三元元素
Figure BDA0003969089130000111
的集合和所述二元输入特征张量
Figure BDA0003969089130000112
的n个二元元素
Figure BDA0003969089130000113
的集合的点积。对于每个整数元素
Figure BDA0003969089130000114
使用第一权重张量和第二权重张量应用多个低资源计算操作256,所述第一权重张量和所述第二权重张量各自包括n个二元元素,即正权重张量
Figure BDA0003969089130000115
的n个二元元素(例如,第a行
Figure BDA0003969089130000116
)和负权重张量
Figure BDA0003969089130000117
的n个二元元素(例如,第a行
Figure BDA0003969089130000118
),并且共同表示三元权重张量
Figure BDA0003969089130000119
的相应n个元素(例如,第a行
Figure BDA00039690891300001110
)。应用多个低资源计算操作256包括,对于每个整数元素
Figure BDA00039690891300001111
(i)在正权重张量
Figure BDA00039690891300001112
的n个二元元素
Figure BDA00039690891300001113
与二元输入特征张量
Figure BDA00039690891300001114
的n个二元元素
Figure BDA00039690891300001115
之间应用第一按位逻辑与运算(例如,与运算302());(ii)在负权重张量
Figure BDA00039690891300001116
的n个二元元素
Figure BDA00039690891300001117
与二元输入特征张量
Figure BDA00039690891300001118
的n个二元元素
Figure BDA00039690891300001119
之间应用第二按位逻辑与运算(例如,与运算302(2));(iii)基于包括在第一与运算的输出和第二与运算的输出中的预定值的位数(例如“1”的数量)生成整数元素
Figure BDA00039690891300001120
具体地,如图6和等式(7)所示,整数特征张量
Figure BDA00039690891300001121
的每个整数元素
Figure BDA00039690891300001122
的计算包括:应用第一POPCOUNT运算304(1)以对包括在第一与运算302(1)的输出中的预定值的位数(例如“1”的数量)进行计数;应用第二POPCOUNT运算304(2)以对包括在第二与运算302(2)的输出中的预定值的位数进行计数。然后,通过在第一POPCOUNT运算304()的输出与第二POPCOUNT运算304(2)的输出之间应用减法运算306来生成整数元素
Figure BDA00039690891300001123
以得到整数元素
Figure BDA00039690891300001124
在示例性实施例中,减法运算306执行简单的整数减法。与浮点减法相比,整数减法可能使用更少的计算能力和内存。在一些示例中,通过使用加法运算来将POPCOUNT运算304()的输出与POPCOUNT运算304(2)的输出的更改符号版本相加来实现减法运算306。分别对正权重张量
Figure BDA00039690891300001125
和负权重张量
Figure BDA00039690891300001126
的所有m行执行低资源计算操作256,以得到整数特征张量
Figure BDA00039690891300001127
为了说明目的,将在训练阶段计算块100和推理阶段计算块200的第a个神经元或计算单元的上下文中提供二元矩阵乘法运算206(例如,
Figure BDA00039690891300001128
)和低资源计算操作256的操作比较示例。在所示的示例中,n=4,
Figure BDA00039690891300001129
三元权重向量
Figure BDA00039690891300001130
其中,三元权重向量
Figure BDA00039690891300001131
对应于三元权重张量
Figure BDA00039690891300001132
的第a行。因此,训练阶段计算块100的第a个神经元(例如,计算单元250(a))的整数特征元素
Figure BDA00039690891300001133
是点积
Figure BDA00039690891300001134
在低资源计算操作256的情况下,将
Figure BDA00039690891300001135
分解为:
Figure BDA00039690891300001136
Figure BDA00039690891300001142
Figure BDA00039690891300001137
的结果为(0,0,0,0),
Figure BDA00039690891300001138
的结果为(0,0,1,1)。
Figure BDA00039690891300001139
的结果为0,
Figure BDA00039690891300001140
的结果为2。因此,推理阶段计算块200的第a个神经元(例如,对应于单元250(a)的计算单元)的中间整数输出是
Figure BDA00039690891300001141
因此,上面的示例说明了二元矩阵乘法运算206和低资源计算操作256将生成相同的输出,整数特征张量
Figure BDA0003969089130000121
在推理阶段计算块200中,整数特征张量
Figure BDA0003969089130000122
是m个整数的向量,然后通过比较运算308将其转换为二元输出特征向量
Figure BDA0003969089130000123
在示例性实施例中,比较运算308可以例如使用CMP(x,y)指令来实现,该指令返回整数x是否小于整数y的布尔结果。例如,比较运算308可以用于将张量
Figure BDA0003969089130000124
的整数值
Figure BDA0003969089130000125
中的每一个转换为输出量化特征张量
Figure BDA0003969089130000126
的相应二进制值元素
Figure BDA0003969089130000127
如等式(8)所示:
Figure BDA0003969089130000128
如上所述,在推理阶段计算块200中,比较运算308取代训练阶段计算块100的BN操作208、激活操作210和二值化操作212。如现在将在以下段落中所解释,通过阈值计算函数310基于在训练阶段计算块100的训练期间学习的可训练缩放因子γi和可训练偏置βi参数值为推理阶段计算块200计算比较阈值
Figure BDA0003969089130000129
的值。
再次参考图1,在训练阶段,通过实现BN操作208、激活函数210和二值化操作212,计算训练阶段计算块100的输出张量
Figure BDA00039690891300001210
如下所示:
Figure BDA00039690891300001211
激活函数σ210的输出是正的还是负的确定将基于BatchNorm(Zi)(例如,BN操作208)的输出是正的还是负的。因此,通过将上面讨论的BatchNorm等式(4)合并到等式(9)中,等式(9)可以转换为以下等式(10):
Figure BDA00039690891300001212
其中,如上所述,缩放因子张量γi和偏置张量βi是BN操作208的学习参数。BN操作208的参数μB(X的迷你批平均值,其中,X是提供给BN操作208的中间向量
Figure BDA00039690891300001213
的组或迷你批)和参数σB(X的迷你批方差)也从按位计算块100的训练中已知。如上所述,ε的值被预定义为一个小常数,以避免在正向传播期间除零错误。
为了对
Figure BDA00039690891300001214
的阈值进行求解,Zi的值可以用以下等式(11)表示:
Figure BDA0003969089130000131
因此,等式
Figure BDA0003969089130000132
定义了用于生成NN的第i个计算块的二元输出特征图张量
Figure BDA0003969089130000133
的阈值张量(例如,thresholdi)。如等式(11)中所示,thresholdi的值可以基于在按位计算操作100的训练期间学习的BN操作208的参数μB、βi、σB、γi来计算。如上所述,ε的值被预定义为一个小常数,以避免在正向传播期间除零错误。
对于BN操作208的缩放因子张量γi的元素大于零的所有情况,由等式(11)表示的训练阶段计算块100的输出张量
Figure BDA0003969089130000134
可以通过以下等式(13)描述:
Figure BDA0003969089130000135
其中,缩放因子张量γi>0。
在示例性实施例中,为了确保缩放因子张量γi大于零,在缩放因子向量γi中的经训练缩放因子元素小于零(例如,
Figure BDA0003969089130000136
)的情况下,在用于计算用于推理计算模型200的参数之前,缩放因子元素
Figure BDA0003969089130000137
和三元权重张量
Figure BDA0003969089130000138
的对应行
Figure BDA0003969089130000139
Figure BDA00039690891300001310
均乘以-1。
需要说明的是,在等式(8)中,向量
Figure BDA00039690891300001311
的元素是整数。在这方面,参考图6,考虑第一缩放因子
Figure BDA00039690891300001312
应用于负权重张量popcount运算304()的输出和第二缩放因子
Figure BDA00039690891300001313
应用于负权重张量popcount运算304(2)的输出的情况,使得减法运算306的输出可以由等式(14)表示:
Figure BDA00039690891300001314
Figure BDA00039690891300001315
在等式(7)和(8)中,
Figure BDA00039690891300001316
是m个整数的张量,而等式(14)中,Zi是m个实数的张量。但是,当
Figure BDA00039690891300001317
Figure BDA00039690891300001318
均等于1时,等式(14)的张量Zi等于等式(7)的张量
Figure BDA00039690891300001319
使得减法运算306的输出是等式(7)的整数值张量
Figure BDA00039690891300001320
在低资源计算操作256的情况下,
Figure BDA00039690891300001321
Figure BDA00039690891300001322
被认为等于1,因为
Figure BDA00039690891300001323
的中间输出始终是整数
Figure BDA00039690891300001324
的向量。因此,在示例性实施例中,thresholdi的值(以下面描述的方式计算)可以四舍五入为整数,使得
Figure BDA00039690891300001325
相对于使用实值阈值,将整数值用于阈值可以减少执行比较运算308所需的计算能力和内存。
在一些实施例中,对形成训练阶段计算块100的m个计算单元中的每一个唯一地训练参数μB、βi
Figure BDA00039690891300001326
γi中的一个或多个,使得通过阈值计算函数310为推理阶段计算块200计算的
Figure BDA00039690891300001327
是分别应用于推理阶段计算块200的m个神经元或计算单元的单个整数阈值的m维向量
Figure BDA00039690891300001328
训练和部署
图7是用于训练包括训练阶段计算块100的NN和部署包括推理阶段计算块200的经训练NN的示例性方法700的流程图。
如图7所示,方法700包括初始化用于训练阶段计算块100的网络参数(例如,初始权重张量Wi、缩放因子张量γi和偏置张量βi)的预训练动作(动作702)。在示例性实施例中,初始化网络参数以通过控制初始权重张量Wi、缩放因子张量γi和偏置张量βi的方差,将训练阶段计算块100的输出二元张量
Figure BDA0003969089130000141
的方差和二元输入张量
Figure BDA0003969089130000142
的方差保持在目标方差范围内。在NN包括具有BN操作208的计算块100的一些实施例中,BN操作208的缩放因子张量γ被初始化为以下等式(15):
Figure BDA0003969089130000143
其中,n是输入张量
Figure BDA0003969089130000144
中的特征元素的数量(也等于包括在初始权重张量Wi的一行中的权重元素的数量)。因此,基于在按位计算块100的每个相应神经元(例如,计算单元)处发生的按元素乘法的数量,对缩放因子张量的初始元素进行缩放。
在使用ReLU激活函数来实现激活函数210的一些示例性实施例中,初始权重张量Wi的所有权重元素都使用在1.5与+1.5之间均匀分布的随机值进行初始化,因此对应的三元权重张量Wi ter将具有相同数量的-1、0和+1值。
三元权重张量Wi ter中的权重元素或/和缩放因子张量γi的缩放因子元素的初始化可以减少训练NN所需的时间,并且可以在训练后推理阶段期间提高经训练NN的性能。
在已经初始化网络参数之后,训练阶段计算块100和形成其层的NN使用监督训练来训练,以学习非线性函数
Figure BDA0003969089130000145
(动作704)。具体地,通过迭代训练过程学习网络参数集,所述网络参数包括权重张量Wi中的权重元素w、缩放因子张量γi的可训练缩放因子元素和偏置张量βi的可训练偏置元素,该迭代训练过程包括:使用网络参数集为训练数据集的多个输入特征张量中的每一个推断输出张量;基于由NN执行的推断确定网络参数的成本;使用梯度下降和反向传播更新相应层的网络参数(包括按位计算块100的参数);重复推断、成本确定和参数更新,直到网络参数的成本达到优化阈值(例如,直到实现成本最小化的最佳网络参数集)。
如上所述,特征张量和权重张量量化操作(例如二值化操作212和三值化操作204)分别通过等式(1)和等式(2)用数学表示。等式(1)和等式(2)不是可微函数。这可能对按位计算块100的训练期间的后向传播构成挑战。因此,在一些实施例中,可微函数(即梯度估计函数)用于在反向传播期间近似二值化操作212和三值化操作204的离散函数。在一些实施例中,用于表示特征张量和权重张量量化操作的离散函数的可微函数可以近似于由以下等式(16)表示的高斯函数δε(x):
Figure BDA0003969089130000146
其中,ε是控制可微高斯函数δε(x)形状的超参数。由等式(16)表示的可微高斯函数δε(x)被称为零中心高斯分布密度函数。
图8示出了零中心高斯分布密度函数δε(x)(其中,c=1、0.5、0.25)的不同形状。如图8所示,三个不同形状的零中心高斯分布密度函数δε(x)中的每一个都关于y轴对称。
等式(16)和图8示出了可微函数的一个示例,该可微函数可在反向传播期间用于表示二值化操作212和三值化操作204的离散函数。在其它示例中,可以使用不同的可微函数来表示特征张量和权重张量量化操作的离散函数。在反向传播期间使用可微函数可以减轻反向传播期间引入的梯度噪声。
在训练阶段卷积块100的训练完成后,将学习的参数转换为用于推理阶段卷积块200的合适格式(动作706)。具体地,如上所述,关于训练阶段计算块100学习的三元权重张量
Figure BDA0003969089130000151
通过映射函数260操作分解为正权重张量
Figure BDA0003969089130000152
和负权重张量
Figure BDA0003969089130000153
它们被存储为用于推理阶段计算块200的经训练权重参数。此外,基于在训练阶段计算操作100的训练期间学习的BN操作208的参数μB、βi、σB、γi,根据等式(11)计算阈值张量
Figure BDA0003969089130000154
阈值张量
Figure BDA0003969089130000155
被存储为推理阶段计算块200的经训练阈值参数。
正权重张量
Figure BDA0003969089130000156
负权重张量
Figure BDA0003969089130000157
和阈值张量
Figure BDA0003969089130000158
可以与用于实现包括推理阶段计算块200的NN的软件代码一起部署到用于推理操作的一个或多个硬件设备上(动作708)。
如上所述,推理阶段计算块200不使用需要乘积累加函数来确定张量点积的矩阵乘法运算,而是依赖于低资源计算操作256,包括与运算、POPCOUNT运算和减法运算。此外,推理阶段计算块200依赖于简单的布尔比较运算258,以取代BN操作208、激活操作210和二值化操作212。
推理阶段计算块200的低资源计算操作256在一些应用中可以使硬件设备能够以比先前方案更低的计算成本和更高的效率执行给定的推理任务。包含由推理阶段计算块200实现的一个或多个层的NN可以适合部署在计算受限的硬件设备(例如,具有有限处理能力、有限内存或有限电力供应中的一个或多个的硬件设备)上。使用包含基于低资源计算操作256(例如,与运算、POPCOUNT运算、减法运算、比较运算)的层的经训练NN可以使经训练NN能够以较低的计算成本在处理系统上运行,从而更适合由通用CPU或微控制器执行。其它好处可能包括降低硬件成本、提高设备电池寿命以及使经训练NN能够部署到更广泛的硬件设备上。
尽管上面在实现全连接NN层的推理阶段计算块200的上下文中描述,但低资源计算操作256和比较运算258也可以应用于实现NN的非全连接层(例如卷积NN的卷积层)的推理阶段计算块中。如上所述,在全连接层的情况下,计算块的每个单独计算单元接收相同的输入特征元素集,但应用相应的权重元素集。在卷积层的情况下,计算块的每个单独计算单元接收不同的、可能重叠的输入特征元素集(由滤波器对输入特征量进行卷积产生),但应用相同的权重元素集(例如,滤波器)。在卷积计算块的卷积计算单元的情况下,点积是根据权重和特征元素的相似大小的矩阵(例如,集合)而不是如上关于全连接层所述的向量确定的;尽管如此,上述相同的低资源计算操作也可以应用于提供对应于两个矩阵的点积的整数特征元素输出。
在示例性实施例中,包括使用上述低资源计算操作256和比较运算258的推理阶段块的NN可以用于许多不同的推理任务,包括例如,提取用于面部或对象识别应用的视频图像的特征。
在一些实施例中,具有输入层、输出层以及输入层与输出层之间的一个或多个隐藏层的深度NN可以在训练阶段期间包括一个或多个训练阶段计算块100。当NN被部署用于推理目的时,一个或多个训练阶段计算块100被相应的推理阶段计算块200取代。使用训练阶段计算块100学习的训练参数被转换为适合于推理阶段计算块200的低资源计算操作256的格式。NN可以由使用张量处理单元或神经处理单元等处理单元执行的机器可读指令进行软件实现。或者,NN可以使用包括由专用硬件设备执行的机器可读指令的软件来实现,例如包括少量逻辑门的紧凑、节能的AI芯片(例如,专门设计用于更快地执行NN操作任务的微处理器,使用比传统微处理器更少的功率)。在示例性实施例中,使用比最终部署用于推理操作的经训练NN的处理系统更强大的处理单元来训练NN。
图9是包括处理单元900的示例性推理阶段硬件设备的框图,处理单元900可用于训练目的,以执行包括一个或多个训练阶段计算块100的NN的机器可执行指令,或在训练后推理期间执行包括一个或多个推理阶段计算块200的经训练NN的机器可执行指令。可以使用适合于实现本发明中描述的实施例的其它处理单元配置,这些处理单元配置可以包括与下面讨论的那些组件不同的组件。尽管图9示出了每个组件的单个实例,但在处理单元900中可以存在每个组件的多个实例。
处理单元900可以包括一个或多个处理设备902,例如处理器、微处理器、专用集成电路(application-specific integrated circuit,ASIC)、现场可编程门阵列(field-programmable gate array,FPGA)、专用逻辑电路或其组合。在示例性实施例中,用于训练目的的处理单元900可以包括连接到处理设备902的加速器906。处理单元900还可以包括一个或多个输入/输出(input/output,I/O)接口904,这些接口可以支持与一个或多个合适的输入设备914和/或输出设备916连接。处理单元900可以包括一个或多个网络接口906,用于与网络(例如内网、互连网、P2P网络、WAN和/或LAN)或其它节点进行有线或无线通信。网络接口906可以包括用于进行内网通信和/或网外通信的有线链路(例如以太网线)和/或无线链路(例如一个或多个天线)。
处理单元900还可以包括一个或多个存储单元908,所述一个或多个存储单元908可以包括大容量存储单元,例如固态驱动器、硬盘驱动器、磁盘驱动器和/或光盘驱动器。处理单元900可以包括一个或多个存储器910,所述一个或多个存储器910可以包括易失性或非易失性存储器(例如,闪存、随机存取存储器(random access memory,RAM)和/或只读存储器(read-only memory,ROM))。一个或多个非瞬时性存储器910可以存储由一个或多个处理设备902执行的指令,例如,以执行本发明中描述的示例。一个或多个存储器910可以包括其它软件指令,例如用于实现操作系统和其它应用/功能的软件指令。在一些示例中,存储器910可以包括用于由处理设备902执行的软件指令,以实现和训练包括本发明的按位计算块100的神经网络。在一些示例中,存储器910可以包括用于由处理设备902执行的软件指令和数据(例如,权重和阈值参数),以实现包括本发明的推理阶段计算块200的经训练神经网络。
在一些示例中,一个或多个数据集和/或模块可以由外部存储器(例如,与处理单元900进行有线通信或无线通信的外部驱动器)提供,也可以由瞬时性或非瞬时性计算机可读介质提供。非瞬时性计算机可读介质的示例包括RAM、ROM、可擦除可编程ROM(erasableprogrammable ROM,EPROM)、电可擦除可编程ROM(electrically erasable programmableROM,EEPROM)、闪存、CD-ROM或其它便携式存储器。
可以存在总线912,在处理单元900的组件之间提供通信,所述组件包括一个或多个处理设备902、一个或多个I/O接口904、一个或多个网络接口906、一个或多个存储单元908和/或一个或多个存储器910。总线912可以是任何合适的总线架构,例如包括存储器总线、外围总线或视频总线。
尽管本发明通过按照一定的顺序执行的步骤描述方法和过程,但是可以适当地省略或改变方法和过程中的一个或多个步骤。在适当情况下,一个或多个步骤可以按所描述的顺序以外的顺序执行。
尽管本发明在方法方面至少部分地进行了描述,但本领域普通技术人员将理解,本发明也针对用于执行所述方法的至少一些方面和特征的各种组件,无论是通过硬件组件、软件还是其任意组合。相应地,本发明的技术方案可以通过软件产品的形式体现。合适的软件产品可以存储在预先记录的存储设备或其它类似的非易失性或非瞬时性计算机可读介质中,包括DVD、CD-ROM、USB闪存盘、可移动硬盘或其它存储介质等。软件产品包括有形地存储在其上的指令,所述指令使得处理设备(例如,个人计算机、服务器或网络设备)能够执行本文中公开的方法的示例。
本发明可以其它特定形式体现,而不脱离权利要求的主题。所描述的示例性实施例在各方面都仅仅是示意性的,而不是限制性的。可以将上述一个或多个实施例中的选定特征组合以创建未明确描述的替代性实施例,理解适合此类组合的特征在本发明的范围内。
还公开了公开范围内的所有值和子范围。此外,尽管本文所公开和显示的系统、设备和流程可包括特定数量的元素/组件,但可以修改所述系统、设备和组合件,以包括此类元素/组件中的更多或更少的元素/组件。例如,尽管所公开的任何元件/组件可以引用为单个数量,但是可以修改本文所公开的实施例以包括多个此类元件/组件。本文所描述的主题旨在覆盖和涵盖所有适当的技术变更。
在本发明中识别的所有发表论文的内容通过引用的方式并入本文。

Claims (21)

1.一种计算机实现的方法,其特征在于,包括:
将多个低资源计算操作应用于二元输入特征张量,以生成整数特征张量,所述整数特征张量相当于对三元权重张量和所述二元输入特征张量执行的乘法累加运算的输出,其中,使用第一权重张量和第二权重张量将所述多个低资源计算操作应用于所述二元输入特征张量,所述第一权重张量和所述第二权重张量各自包括n个二元元素,并且共同表示所述三元权重张量的相应n个元素;
将所述生成的整数特征张量与比较阈值进行比较运算,以生成二元输出特征张量。
2.根据权利要求1所述的方法,其特征在于:
所述生成的整数特征张量包括m个整数元素的集合,每个整数元素具有一个值,所述值相当于所述三元权重张量的n个三元元素的集合和所述二元输入特征张量的n个二元元素的集合的点积。
3.根据权利要求2所述的方法,其特征在于,对于所述整数特征张量的每个整数元素:
应用所述多个低资源计算操作包括,对于所述整数特征张量的每个整数元素:
在所述第一权重张量的所述n个二元元素与所述二元输入特征张量的所述n个二元元素之间应用第一按位逻辑与运算;
在所述第二权重张量的所述n个二元元素与所述二元输入特征张量的所述n个二元元素之间应用第二按位逻辑与运算;
基于包括在所述第一按位逻辑与运算的输出和所述第二按位逻辑与运算的输出中的预定值的位数生成所述整数元素。
4.根据权利要求3所述的方法,其特征在于,应用所述多个低资源计算操作包括,对于所述整数特征张量的每个整数元素:
应用第一POPCOUNT运算以对包括在所述第一按位逻辑与运算的所述输出中的所述预定值的所述位数进行计数;
应用第二POPCOUNT运算以对包括在所述第二按位逻辑与运算的所述输出中的所述预定值的所述位数进行计数;
其中,生成所述整数元素包括在所述第一POPCOUNT运算的输出与所述第二POPCOUNT运算的输出之间应用减法运算,以输出所述整数元素。
5.根据权利要求3或4所述的方法,其特征在于,所述三元权重张量的n个元素被分解成n个二元元素对,以生成所述第一权重张量的所述n个二元元素和所述第二权重张量的所述n个二元元素。
6.根据权利要求5所述的方法,其特征在于,应用所述多个低资源计算操作和执行所述比较运算是在经训练以执行推理任务的第二神经网络的层中执行的,
所述方法还包括通过学习包括所述三元权重张量的第一神经网络的网络参数来训练所述第一神经网络以执行所述推理任务。
7.根据权利要求6所述的方法,其特征在于,训练所述第一神经网络包括:
使用所述网络参数为训练数据集的多个输入特征张量中的每个输入特征张量推断输出张量;
基于所述推断确定所述网络参数的成本;
使用梯度下降和反向传播更新所述网络参数,
其中,重复所述推断、所述确定和所述更新,直到所述网络参数的所述成本达到优化阈值。
8.根据权利要求7所述的方法,其特征在于,所述第一神经网络的层对应于所述第二神经网络的所述层,所述第一神经网络的所述层用于:
使用所述三元权重张量和所述训练数据集中的二元输入特征张量应用乘法累加运算,以生成训练整数特征张量;
将批归一化操作、激活操作和二值化操作应用于所述生成的训练整数特征张量,以生成训练二元输出特征张量,所述批归一化基于批归一化参数集,
其中,所述学习的网络参数包括所述批归一化参数,所述比较阈值是基于所述学习的批归一化参数计算的m个整数阈值的张量。
9.根据权利要求8所述的方法,其特征在于,所述批归一化参数包括缩放因子张量和偏置张量,并且训练所述第一神经网络包括初始化所述网络参数中的一个或多个网络参数,以将所述网络参数内的值的方差保持在目标方差范围内。
10.根据权利要求8或9所述的方法,其特征在于,在所述第一神经网络的训练期间,所述三元权重张量是通过使用不可微的三值化操作量化对应的实值权重张量的值而生成的,所述二值化操作应用不可微的二值化操作,并且在反向传播期间,所述不可微的三值化操作和所述不可微的二值化操作各自由相应的可微操作近似。
11.一种处理系统,其特征在于,包括:
处理设备;
存储器,可操作地连接到所述处理设备,并存储可执行指令,所述可执行指令当由所述处理设备执行时,使处理单元实现用于执行推理任务的经训练神经网络的计算块,所述计算块用于:
将多个低资源计算操作应用于二元输入特征张量,以生成整数特征张量,所述整数特征张量相当于对三元权重张量和所述二元输入特征张量执行的乘法累加运算的输出,其中,使用第一权重张量和第二权重张量将所述多个低资源计算操作应用于所述二元输入特征张量,所述第一权重张量和所述第二权重张量各自包括n个二元元素,并且共同表示所述三元权重张量的相应n个元素;
将所述生成的整数特征张量与比较阈值进行比较运算,以生成二元输出特征张量。
12.根据权利要求11所述的处理系统,其特征在于:
所述生成的整数特征张量包括m个整数元素的集合,每个整数元素具有一个值,所述值相当于所述三元权重张量的n个三元元素的集合和所述二元输入特征张量的n个二元元素的集合的点积。
13.根据权利要求12所述的处理系统,其特征在于,对于所述整数特征张量的每个整数元素,所述计算块用于:
通过以下方式对于所述整数特征张量的每个整数元素,应用所述多个低资源计算操作:
在所述第一权重张量的所述n个二元元素与所述二元输入特征张量的所述n个二元元素之间应用第一按位逻辑与运算;
在所述第二权重张量的所述n个二元元素与所述二元输入特征张量的所述n个二元元素之间应用第二按位逻辑与运算;
基于包括在所述第一按位逻辑与运算的输出和所述第二按位逻辑与运算的输出中的预定值的位数生成所述整数元素。
14.根据权利要求13所述的处理系统,其特征在于,所述计算块用于通过以下方式对于所述整数特征张量的每个整数元素,应用所述多个低资源计算操作:
应用第一POPCOUNT运算以对包括在所述第一按位逻辑与运算的所述输出中的所述预定值的所述位数进行计数;
应用第二POPCOUNT运算以对包括在所述第二按位逻辑与运算的所述输出中的所述预定值的所述位数进行计数;
其中,生成所述整数元素包括在所述第一POPCOUNT运算的输出与所述第二POPCOUNT运算的输出之间应用减法运算,以输出所述整数元素。
15.根据权利要求13所述的处理系统,其特征在于,所述第一权重张量的所述n个二元元素和所述第二权重张量的所述n个二元元素存储在所述存储器中,并对应于将所述三元权重张量的相应n个元素分解为n个二元元素对,以生成所述第一权重张量的所述n个二元元素和所述第二权重张量的所述n个二元元素。
16.根据权利要求15所述的处理系统,其特征在于,所述三元权重张量是通过训练训练神经网络以执行所述推理任务而学习的网络参数集的一部分。
17.根据权利要求15或16所述的处理系统,其特征在于,所述训练神经网络通过以下方式训练:
使用所述网络参数为训练数据集的多个输入特征张量中的每个输入特征张量推断输出张量;
基于所述推断确定所述网络参数的成本;
使用梯度下降和反向传播更新所述网络参数,
其中,重复所述推断、所述确定和所述更新,直到所述网络参数的所述成本达到优化阈值。
18.根据权利要求17所述的处理系统,其特征在于,所述训练神经网络的计算块对应于所述经训练神经网络的所述计算块,所述训练神经网络的所述计算块用于:
使用所述三元权重张量和所述训练数据集中的二元输入特征张量应用乘法累加运算,以生成训练整数特征张量;
将批归一化操作、激活操作和二值化操作应用于所述生成的训练整数特征张量,以生成训练二元输出特征张量,所述批归一化基于批归一化参数集,
其中,所述学习的网络参数包括所述批归一化参数,所述比较阈值是基于所述学习的批归一化参数计算的m个整数阈值的张量。
19.根据权利要求16至18中任一项所述的处理系统,其特征在于,结合另一处理单元,所述另一处理单元用于训练所述训练神经网络以执行所述推理任务。
20.一种计算机可读介质,其特征在于,存储指令,所述指令用于使处理单元实现用于执行推理任务的经训练神经网络的计算块,所述计算块用于执行权利要求1至10中任一项所述的方法。
21.一种计算机可读产品,其特征在于,存储指令,所述指令用于使处理单元实现用于执行推理任务的经训练神经网络的计算块,所述计算块用于执行权利要求1至10中任一项所述的方法。
CN202080101532.8A 2020-06-12 2020-06-19 用于经训练神经网络的低资源计算块 Pending CN115668229A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/900,658 US20210390386A1 (en) 2020-06-12 2020-06-12 Low resource computational block for a trained neural network
US16/900,658 2020-06-12
PCT/CN2020/096974 WO2021248544A1 (en) 2020-06-12 2020-06-19 Low resource computational block for trained neural network

Publications (1)

Publication Number Publication Date
CN115668229A true CN115668229A (zh) 2023-01-31

Family

ID=78825521

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080101532.8A Pending CN115668229A (zh) 2020-06-12 2020-06-19 用于经训练神经网络的低资源计算块

Country Status (3)

Country Link
US (1) US20210390386A1 (zh)
CN (1) CN115668229A (zh)
WO (1) WO2021248544A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116402106A (zh) * 2023-06-07 2023-07-07 深圳市九天睿芯科技有限公司 神经网络加速方法、神经网络加速器、芯片及电子设备

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108171323B (zh) * 2016-12-28 2021-03-26 上海寒武纪信息科技有限公司 一种人工神经网络计算装置和方法
WO2018217863A1 (en) * 2017-05-23 2018-11-29 Intel Corporation Methods and apparatus for enhancing a binary weight neural network using a dependency tree
CN108304786A (zh) * 2018-01-17 2018-07-20 东南大学 一种基于二值化卷积神经网络的行人检测方法
US10824943B2 (en) * 2018-08-21 2020-11-03 GM Global Technology Operations LLC High precision low bit convolutional neural network
US20200097818A1 (en) * 2018-09-26 2020-03-26 Xinlin LI Method and system for training binary quantized weight and activation function for deep neural networks
US11126402B2 (en) * 2019-03-21 2021-09-21 Qualcomm Incorporated Ternary computation memory systems and circuits employing binary bit cell-XNOR circuits particularly suited to deep neural network (DNN) computing

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116402106A (zh) * 2023-06-07 2023-07-07 深圳市九天睿芯科技有限公司 神经网络加速方法、神经网络加速器、芯片及电子设备
CN116402106B (zh) * 2023-06-07 2023-10-24 深圳市九天睿芯科技有限公司 神经网络加速方法、神经网络加速器、芯片及电子设备

Also Published As

Publication number Publication date
WO2021248544A1 (en) 2021-12-16
US20210390386A1 (en) 2021-12-16

Similar Documents

Publication Publication Date Title
US20210089925A1 (en) Training method for quantizing the weights and inputs of a neural network
WO2020019236A1 (en) Loss-error-aware quantization of a low-bit neural network
EP3543917B1 (en) Dynamic adaptation of deep neural networks
US11657254B2 (en) Computation method and device used in a convolutional neural network
US10789734B2 (en) Method and device for data quantization
Kurbiel et al. Training of deep neural networks based on distance measures using RMSProp
WO2022006919A1 (zh) 基于激活定点拟合的卷积神经网络训练后量化方法及系统
WO2021043294A1 (en) Neural network pruning
Schilling The effect of batch normalization on deep convolutional neural networks
KR20190034985A (ko) 인공 신경망의 양자화 방법 및 장치
Cai et al. An optimal construction and training of second order RBF network for approximation and illumination invariant image segmentation
US11657285B2 (en) Methods, systems, and media for random semi-structured row-wise pruning in neural networks
US11601134B2 (en) Optimized quantization for reduced resolution neural networks
KR20200072588A (ko) Cnn기반의 딥러닝 모델 학습장치 및 그 방법
KR20190130443A (ko) 뉴럴 네트워크의 양자화 방법 및 장치
KR20200121497A (ko) 가중치 신경망의 신경망 연산 방법 및 장치
CN115398450A (zh) 使用基于样本的正则化技术的迁移学习设备和方法
CN112446888A (zh) 图像分割模型的处理方法和处理装置
Fedorov et al. Udc: Unified dnas for compressible tinyml models for neural processing units
CN115668229A (zh) 用于经训练神经网络的低资源计算块
US20230306255A1 (en) Method and system for smooth training of a quantized neural network
Ali et al. High Accuracy Arabic Handwritten Characters Recognition Using Error Back Propagation Artificial Neural Networks
WO2022247368A1 (en) Methods, systems, and mediafor low-bit neural networks using bit shift operations
US11699077B2 (en) Multi-layer neural network system and method
Chin et al. A high-performance adaptive quantization approach for edge CNN applications

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination