CN110674924A - 一种深度学习推理自动量化方法和装置 - Google Patents
一种深度学习推理自动量化方法和装置 Download PDFInfo
- Publication number
- CN110674924A CN110674924A CN201910780310.2A CN201910780310A CN110674924A CN 110674924 A CN110674924 A CN 110674924A CN 201910780310 A CN201910780310 A CN 201910780310A CN 110674924 A CN110674924 A CN 110674924A
- Authority
- CN
- China
- Prior art keywords
- quantization
- value
- inference
- activation
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种深度学习推理自动量化方法,包括以下步骤:从数据集的每个类别中各随机挑选一张图片,由量化工具量化后的权值对所述图片进行fp32推理并将推理所得激活值进行暂存;动态迭代以使得各层的各通道中激活值中每一个元素的绝对值为所有图片推理所得所述激活值中相应位置元素的最大值,并将所述迭代后的各通道激活值保存为激活值文件;对所述激活值文件中的激活值进行2的次幂膨胀量化,并统计每一层的量化指数直方图;根据所述每一层的量化指数直方图计算得到所述层量化指数的均值,并将所述均值设置为量化指数的上限。本发明的量化方法不指定量化阈值,不需要进行遍历寻找最佳阈值,能够加快运算速度,提高运算效率,节省运算开销。
Description
技术领域
本发明涉及深度学习领域,并且更具体地,涉及一种深度学习推理自动量化方法和装置。
背景技术
深度学习理论及其相关技术日新月异的今天,其相关的应用也越来越多地出现在大众的视野当中。优秀的深度学习及人工智能技术不断地被应用在我们的日常生活当中,如图片、视频处理、自动驾驶、人脸识别等等,但同时大量的浮点运算、内存、电量开销,使得目前这些应用仍然存在着运行成本高昂、速度缓慢、并行处理效率较低等问题。比如在这些应用中最常用的深度卷积神经网络模型ResNet50,其浮点运算量达到了4.14GFlops(每秒千兆次浮点运算)。一款定制的自动驾驶软件动辄几万甚至几十万,专业图片与视频的处理仍然需要远端强大的服务器处理,商场大流量的人脸检测与监控需要专门的机房用来运行相关的设备及软件等等。使用成本与运行效率等成为了人工智能技术在相关移动及嵌入式设备上部署和应用小型化的瓶颈和障碍。
目前解决运算开销和使用成本的方案有深度卷积网络模型的深度压缩和量化,针对卷积运算优化的低秩分解、网络模型蒸馏以及小型化网络的设计。在这些解决方案当中,共同的目标是尽量要保持数据集的测试精度,又能有效地降低计算量,提高计算效率,降低相应的开销。网络模型的深度压缩和量化作为简单且高效的解决方案,一直被人们研究和使用,其他几种解决方案因实现的复杂性,不同的网络结构需要深度定制,不能够很好地达到相关深度卷积网络模型地精度等原因而不被大家广泛使用。深度卷积网络模型的量化可将计算设备上的浮点运算转化为整数甚至移位计算,它不仅是网络模型压缩的关键同时可大幅降低网络计算的时间和开销。
一般的在深度卷积网络模型计算的权重和激活值都是浮点数,针对网络量化目前主要有相对熵量化、三值网络、二值网络、XNOR-Net(二值化卷积神经网络)等方面的研究。目前对于8-bit量化方案,一般对于权值和激活值都是线性量化,即按层或者通道将相应的权值或者激活值投影到8bit的范围即-127-127之间。对于分布较为均匀的数值来说,这一方法可以很好地满足量化的需求,能够较好地携带原始信息。但是如果数值分布差异较大,往往会使得部分数值压缩在极小地范围之内,从而丢失较多信息。其中解决这一问题的方案是相对熵量化方法,该方法旨在充分利用量化数值空间,最大化地携带原始数值信息。
其中,相对熵量化,主要是将权值或者激活值充分地线性投影到-127-127的8bit(比特)范围之内,其核心思想是确定量化的阈值,丢掉部分浮点数据,使得权值或者激活值能够更加均匀地映射,充分利用int8的数值范围,从而选择线性量化的最优解。相对熵量化的技术方案的具体实施步骤为:1)收集在标定集上用fp32推理得到的激活值的直方图;2)设定阈值列表,对阈值列表在相应的标定集激活层上进行遍历并产生得到不同的量化分布;3)然后计算每一个分布与原始分布的相对熵,然后取相对熵最少的那个阈值,作为阈值的最优值。按照这三个步骤可以找到较好的量化阈值,使得模型的表现精度能够保持在很高的水平。可以看到,该量化方案是在相应的标定集上进行操作,并收集整个标定集激活值的直方图,对于较大较深的模型来说,整个标定集在该网络上的激活值输出文件会异常巨大,不利于存储,对存储资源要求相对较高;另外就是该方法在寻找阈值这一问题上,虽然设计了相对熵作为阈值设定的好坏标准,但是仍然是利用循环遍历的方式来进行阈值的评估,比较耗时不够智能;由该量化方案最后得到的量化数值,在进行卷积计算时主要是8-bit的乘加运算,相比于移位计算来说其效率和开销相对来说还是较大的。
三值网络是将网络的权值根据经验设定的阈值,将权值取值为-1、0、+1,从而极大地减少参数的存储和卷积运算的开销;二值网络更进一步将权值取值为-1、+1;XNOR-Net则更进一步,不仅对网络的权值进行了二值量化,同时对输入也就行了量化,这意味中间的过程的卷积计算也是二值化移位计算的,在大幅减少存储空间的同时也降低了运算的开销,能够提高运算效率。但上述的几种量化方法,三值网络和二值网络只是对权值进行了量化,输入和激活值没有量化;XNOR-Net虽然将权值、输入都做了量化,但量化效率或者数据集上的精度又有很大的损失。
所以,一种能够既能将参数、输入、激活值同时量化,又能够极大地降低运算开销且不明显损失模型精度的方法是急需解决的技术问题。
发明内容
鉴于此,本发明实施例的目的在于提出一种量化所用的资源相对轻量化、并且可直接在移动或相关的嵌入式设备上进行移位运算的深度学习推理自动量化方法。
基于上述目的,本发明实施例的一方面提供了一种深度学习推理自动量化方法,包括以下步骤:
从数据集的每个类别中各随机挑选一张图片,由量化工具量化后的权值对所述图片进行fp32推理并将推理所得激活值进行暂存;
动态迭代以使得各层的各通道中激活值中每一个元素的绝对值为所有图片推理所得所述激活值中相应位置元素的最大值,并将所述迭代后的各通道激活值保存为激活值文件;
对所述激活值文件中的激活值进行2的次幂膨胀量化,并统计每一层的量化指数直方图;
根据所述每一层的量化指数直方图计算得到所述层量化指数的均值,并将所述均值设置为量化指数的上限。
在一些实施方式中,所述方法还包括:针对不同的深度卷积网络模型,基于所述量化后的激活值和权值进行基于移位的卷积计算。
在一些实施方式中,所述方法还包括:将所述移位计算所得的激活值与所述fp32推理所得激活值进行对比,计算得出曼哈顿距离,并验证推理精度。
在一些实施方式中,所述方法还包括:响应于所述推理精度比所述fp32推理精度低第一阈值,根据每层相应的所述曼哈顿距离对所述量化指数进行微调。
在一些实施方式中,所述从数据集的每个类别中各随机挑选一张图片,由量化工具量化后的权值对所述图片进行fp32推理,每次推理所得激活值进行暂存包括:
由量化工具将权值量化为2的n次幂大小,并进行模型训练以保证模型的精度不变。
在一些实施方式中,所述对所述激活值文件中的激活值进行2的次幂膨胀量化,并统计每一层的量化指数直方图包括:
取各通道元素中的绝对值的最大值乘以2的q次幂,并保证最后的乘积不超过相应比特量化的最大值,其中所述q为量化指数。
在一些实施方式中,所述根据所述每一层的量化指数直方图计算得到所述层量化指数的均值,并将所述均值设置为量化指数的上限包括:
将通道中大于所述均值的量化指数强制等于所述均值,将通道中不大于所述均值的量化指数保持不变。
在一些实施方式中,所述响应于所述推理精度比所述fp32推理精度低第一阈值,根据每层相应的所述曼哈顿距离对所述量化指数进行微调包括:
选择所述曼哈顿距离相对较大的层,以1为步长降低所述层内量化指数上限,将通道内的大于所述上限的量化指数强制等于所述上限、不大于所述上限的量化指数保持不变,直到所述推理精度达到要求。
在一些实施方式中,所述方法可用于ResNet50、SqueezeNet、GoogLeNet深度卷积网络。
本发明实施例的另一方面提供了一种深度学习推理自动量化装置,包括:
至少一个处理器;和
存储器,所述存储器存储有处理器可运行的程序代码,所述程序代码在被处理器运行时实施上述的方法。
本发明具有以下有益技术效果:本发明实施例提供的一种深度学习推理自动量化方法和装置随机挑选数据集中每个类别的一张图片作为量化数据集,不利用所谓的标定集,量化所用的资源相对轻量化,而且不人为罗列阈值列表,不存在遍历问题,可在移动或相关的嵌入式设备上直接进行移位运算,能够加快运算速度,提高运算效率,节省运算开销。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的实施例。
图1是根据本发明的一种深度学习推理自动量化方法的流程图;
图2是根据本发明实施例的一种深度学习推理自动量化方法流程示意图;
图3是根据本发明的一种深度学习推理自动量化装置的硬件结构示意图。
具体实施方式
以下描述了本发明的实施例。然而,应该理解,所公开的实施例仅仅是示例,并且其他实施例可以采取各种替代形式。附图不一定按比例绘制;某些功能可能被夸大或最小化以显示特定部件的细节。因此,本文公开的具体结构和功能细节不应被解释为限制性的,而仅仅是作为用于教导本领域技术人员以各种方式使用本发明的代表性基础。如本领域普通技术人员将理解的,参考任何一个附图所示出和描述的各种特征可以与一个或多个其他附图中所示的特征组合以产生没有明确示出或描述的实施例。所示特征的组合为典型应用提供了代表性实施例。然而,与本发明的教导相一致的特征的各种组合和修改对于某些特定应用或实施方式可能是期望的。
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明实施例进一步详细说明。
基于上述目的,本发明的实施例一方面提出了一种深度学习推理自动量化方法,如图1所示,包括以下步骤:
步骤S101:从数据集的每个类别中各随机挑选一张图片,由量化工具量化后的权值对所述图片进行fp32推理并将推理所得激活值进行暂存;
步骤S102:动态迭代以使得各层的各通道中激活值中每一个元素的绝对值为所有图片推理所得所述激活值中相应位置元素的最大值,并将所述迭代后的各通道激活值保存为激活值文件;
步骤S103:对所述激活值文件中的激活值进行2的次幂膨胀量化,并统计每一层的量化指数直方图;
步骤S104:根据所述每一层的量化指数直方图计算得到所述层量化指数的均值,并将所述均值设置为量化指数的上限。
在一些实施例中,所述从数据集的每个类别中各随机挑选一张图片,由量化工具量化后的权值对所述图片进行fp32推理,每次推理所得激活值进行暂存包括:由量化工具将权值量化为2的n次幂大小,并进行模型训练保证模型的精度基本不变。即,由现有的专业量化工具将权值量化为2的n次幂大小即1,-1,0.5,-0.5,0.25,-0.25,…,并进行模型训练保证模型的精度基本不变,其中权值设为Filter,可表示为:Filter=2n。如图2所示,从数据集的每个类别中各随机挑选一张图片,由量化后的权值进行fp32推理,每次推理所得激活值进行暂存,并将激活值的绝对值与下一张推理所得激活值的绝对值进行对比,如果下一张相应位置的元素绝对值较大则替换,否则保持不变。依此动态迭代使得各层各通道中激活值中每一个元素的绝对值为所有图片推理所得激活值中相应位置元素的最大值,将其保存为激活值文件,该文件包含了每个类别的信息。
在一些实施例中,所述对所述激活值文件中的激活值进行2的次幂膨胀量化,并统计每一层的量化指数直方图包括:取各通道元素中的绝对值的最大值乘以2的q次幂,并保证最后的乘积不超过相应比特量化的最大值,其中所述q为量化指数。如图2所示,对于8bit量化来说,对上述步骤得到的激活值进行2的次幂膨胀量化,即取各通道元素中的绝对值的最大值乘以2的q次幂,并保证最后的乘积不超过8bit的最大值127,记录该值q,并命名为量化指数。
在一些实施例中,所述根据所述每一层的量化指数直方图,计算得到所述层量化指数的均值,并将所述均值设置为量化指数的上限包括:将通道中大于所述均值的量化指数强制等于所述均值,将通道中不大于所述均值的量化指数保持不变。统计每一层的q值,并收集每一层的q值直方图;根据每一层的q值直方图,计算得到该层q的均值,并将该均值设置为q值的上限,对于通道中大于该均值的q强制等于该值,对于小于该值的q保持不变。则相应通道量化后的激活值可表示为:a=round(x*2q),其中round表示对括号内乘积取整,且该值绝对值不大于8bit整数最大值127,原激活值可以表示为a*2-q。
在一些实施例中,所述方法还包括:针对不同的深度卷积网络模型,基于所述量化后的激活值和权值进行基于移位的卷积计算。针对不同的深度卷积网络模型,搭建基于移位的量化框架,一般的,在卷积计算的过程中,卷积可以表示为:Fea2=∑Fea1*Filter。其中Fea1为上层激活值,Fea2为该层激活值,Filter为参与卷积计算的权值,根据上述步骤的描述,则卷积计算可表示为:其中a1,a2分别为上层和该层的8bit整数激活值,q1,q2分别为由上步所得的量化指数,由此可知该层网络的卷积计算可完全由移位完成。
在一些实施例中,所述方法还包括:将上述量化模型和移位计算所得的激活值与所述fp32推理所得激活值进行对比,计算得出曼哈顿距离(norm1误差),并在相应的数据集上验证推理精度,如果精度满足要求则输出量化指数q,完成量化。
在一些实施例中,所述方法还包括:响应于所述推理精度比所述fp32推理精度低第一阈值,根据每层相应的所述曼哈顿距离对所述量化指数进行微调。例如,如图2所示,如果推理精度比原始fp32推理精度低1%以上,则根据每层相应的曼哈顿距离对q值进行微调。
在一些实施例中,所述响应于所述推理精度比所述fp32推理精度低第一阈值,根据每层相应的所述曼哈顿距离对所述量化指数进行微调包括:选择所述曼哈顿距离相对较大的层,以1为步长降低所述层内量化指数上限,将通道内的大于所述上限的量化指数强制等于所述上限、不大于所述上限的量化指数保持不变,直到所述推理精度达到要求。
在一些实施例中,所述方法可用于ResNet50、SqueezeNet、GoogLeNet深度卷积网络。
在技术上可行的情况下,以上针对不同实施例所列举的技术特征可以相互组合,或者改变、添加以及省略等等,从而形成本发明范围内的另外实施例。
从上述实施例可以看出,本发明实施例提供的一种深度学习推理自动量化方法随机挑选数据集中每个类别的一张图片作为量化数据集,不利用所谓的标定集,量化所用的资源相对轻量化;对量化数据集中的图片进行联合采样,得到网络模型各激活层中对应元素的最大值,最后输出的用来求量化参数q的激活值文件只相当于该网络推理一张图片的激活值文件大小,相比于相对熵的方法可以节省大量的存储资源;直接利用联合采样得到的激活值文件求得相应的量化参数q,并由相应的量化参数的分布均值作为相应激活层量化参数的最大值进行参数压制和赋值,策略鲜明简单,不人为罗列阈值列表,不存在遍历问题;针对在深度卷积神经网络计算中的激活值进行2的n次幂的膨胀量化,旨在结合用现有的专业量化工具得到的可用2的次幂形式来表示的权值进行卷积移位计算,可在移动或相关的嵌入式设备上直接进行移位运算,能够加快运算速度,提高运算效率,节省运算开销。
基于上述目的,本发明实施例的另一个方面,提出了一种深度学习推理自动量化装置一个实施例。
所述深度学习推理自动量化装置包括存储器、和至少一个处理器,存储器存储有可在处理器上运行的计算机程序,处理器执行程序时执行上述任意一种方法。
如图3所示,为本发明提供的深度学习推理自动量化装置的一个实施例的硬件结构示意图。
以如图3所示的计算机设备为例,在该计算机设备中包括处理器301以及存储器302,并还可以包括:输入装置303和输出装置304。
处理器301、存储器302、输入装置303和输出装置304可以通过总线或者其他方式连接,图3中以通过总线连接为例。
存储器302作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块,如本申请实施例中的所述深度学习推理自动量化方法对应的程序指令/模块。处理器301通过运行存储在存储器302中的非易失性软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例的深度学习推理自动量化方法。
存储器302可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据深度学习推理自动量化方法所创建的数据等。此外,存储器302可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实施例中,存储器302可选包括相对于处理器301远程设置的存储器,这些远程存储器可以通过网络连接至本地模块。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
输入装置303可接收输入的数字或字符信息,以及产生与深度学习推理自动量化方法的计算机设备的用户设置以及功能控制有关的键信号输入。输出装置304可包括显示屏等显示设备。
所述一个或者多个深度学习推理自动量化方法对应的程序指令/模块存储在所述存储器302中,当被所述处理器301执行时,执行上述任意方法实施例中的深度学习推理自动量化方法。
所述执行所述深度学习推理自动量化方法的计算机设备的任何一个实施例,可以达到与之对应的前述任意方法实施例相同或者相类似的效果。
最后需要说明的是,本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关硬件来完成,所述的程序可存储于计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(ROM)或随机存储记忆体(RAM)等。
此外,典型地,本发明实施例公开所述的装置、设备等可为各种电子终端设备,例如手机、个人数字助理(PDA)、平板电脑(PAD)、智能电视等,也可以是大型终端设备,如服务器等,因此本发明实施例公开的保护范围不应限定为某种特定类型的装置、设备。本发明实施例公开所述的客户端可以是以电子硬件、计算机软件或两者的组合形式应用于上述任意一种电子终端设备中。
此外,根据本发明实施例公开的方法还可以被实现为由CPU执行的计算机程序,该计算机程序可以存储在计算机可读存储介质中。在该计算机程序被CPU执行时,执行本发明实施例公开的方法中限定的上述功能。
此外,上述方法步骤以及系统单元也可以利用控制器以及用于存储使得控制器实现上述步骤或单元功能的计算机程序的计算机可读存储介质实现。
此外,应该明白的是,本文所述的计算机可读存储介质(例如,存储器)可以是易失性存储器或非易失性存储器,或者可以包括易失性存储器和非易失性存储器两者。作为例子而非限制性的,非易失性存储器可以包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦写可编程ROM(EEPROM)或快闪存储器。易失性存储器可以包括随机存取存储器(RAM),该RAM可以充当外部高速缓存存储器。作为例子而非限制性的,RAM可以以多种形式获得,比如同步RAM(DRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据速率SDRAM(DDR SDRAM)、增强SDRAM(ESDRAM)、同步链路DRAM(SLDRAM)、以及直接Rambus RAM(DRRAM)。所公开的方面的存储设备意在包括但不限于这些和其它合适类型的存储器。
本领域技术人员还将明白的是,结合这里的公开所描述的各种示例性逻辑块、模块、电路和算法步骤可以被实现为电子硬件、计算机软件或两者的组合。为了清楚地说明硬件和软件的这种可互换性,已经就各种示意性组件、方块、模块、电路和步骤的功能对其进行了一般性的描述。这种功能是被实现为软件还是被实现为硬件取决于具体应用以及施加给整个系统的设计约束。本领域技术人员可以针对每种具体应用以各种方式来实现所述的功能,但是这种实现决定不应被解释为导致脱离本发明实施例公开的范围。
结合这里的公开所描述的各种示例性逻辑块、模块和电路可以利用被设计成用于执行这里所述功能的下列部件来实现或执行:通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或其它可编程逻辑器件、分立门或晶体管逻辑、分立的硬件组件或者这些部件的任何组合。通用处理器可以是微处理器,但是可替换地,处理器可以是任何传统处理器、控制器、微控制器或状态机。处理器也可以被实现为计算设备的组合,例如,DSP和微处理器的组合、多个微处理器、一个或多个微处理器结合DSP和/或任何其它这种配置。
结合这里的公开所描述的方法或算法的步骤可以直接包含在硬件中、由处理器执行的软件模块中或这两者的组合中。软件模块可以驻留在RAM存储器、快闪存储器、ROM存储器、EPROM存储器、EEPROM存储器、寄存器、硬盘、可移动盘、CD-ROM、或本领域已知的任何其它形式的存储介质中。示例性的存储介质被耦合到处理器,使得处理器能够从该存储介质中读取信息或向该存储介质写入信息。在一个替换方案中,所述存储介质可以与处理器集成在一起。处理器和存储介质可以驻留在ASIC中。ASIC可以驻留在用户终端中。在一个替换方案中,处理器和存储介质可以作为分立组件驻留在用户终端中。
在一个或多个示例性设计中,所述功能可以在硬件、软件、固件或其任意组合中实现。如果在软件中实现,则可以将所述功能作为一个或多个指令或代码存储在计算机可读介质上或通过计算机可读介质来传送。计算机可读介质包括计算机存储介质和通信介质,该通信介质包括有助于将计算机程序从一个位置传送到另一个位置的任何介质。存储介质可以是能够被通用或专用计算机访问的任何可用介质。作为例子而非限制性的,该计算机可读介质可以包括RAM、ROM、EEPROM、CD-ROM或其它光盘存储设备、磁盘存储设备或其它磁性存储设备,或者是可以用于携带或存储形式为指令或数据结构的所需程序代码并且能够被通用或专用计算机或者通用或专用处理器访问的任何其它介质。此外,任何连接都可以适当地称为计算机可读介质。例如,如果使用同轴线缆、光纤线缆、双绞线、数字用户线路(DSL)或诸如红外线、无线电和微波的无线技术来从网站、服务器或其它远程源发送软件,则上述同轴线缆、光纤线缆、双绞线、DSL或诸如红外线、无线电和微波的无线技术均包括在介质的定义。如这里所使用的,磁盘和光盘包括压缩盘(CD)、激光盘、光盘、数字多功能盘(DVD)、软盘、蓝光盘,其中磁盘通常磁性地再现数据,而光盘利用激光光学地再现数据。上述内容的组合也应当包括在计算机可读介质的范围内。
应当理解的是,在本文中使用的,除非上下文清楚地支持例外情况,单数形式“一个”旨在也包括复数形式。还应当理解的是,在本文中使用的“和/或”是指包括一个或者一个以上相关联地列出的项目的任意和所有可能组合。
上述本发明实施例公开实施例序号仅仅为了描述,不代表实施例的优劣。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器、磁盘或光盘等。
上述实施例是实施方式的可能示例,并且仅仅为了清楚理解本发明的原理而提出。所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本发明实施例公开的范围(包括权利要求)被限于这些例子;在本发明实施例的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,并存在如上所述的本发明实施例的不同方面的许多其它变化,为了简明它们没有在细节中提供。因此,凡在本发明实施例的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本发明实施例的保护范围之内。
Claims (10)
1.一种深度学习推理自动量化方法,其特征在于,包括以下步骤:
从数据集的每个类别中各随机挑选一张图片,由量化工具量化后的权值对所述图片进行fp32推理并将推理所得激活值进行暂存;
动态迭代以使得各层的各通道中激活值中每一个元素的绝对值为所有图片推理所得所述激活值中相应位置元素的最大值,并将所述迭代后的各通道激活值保存为激活值文件;
对所述激活值文件中的激活值进行2的次幂膨胀量化,并统计每一层的量化指数直方图;
根据所述每一层的量化指数直方图计算得到所述层量化指数的均值,并将所述均值设置为量化指数的上限。
2.根据权利要求1所述的方法,其特征在于,还包括:针对不同的深度卷积网络模型,基于所述量化后的激活值和权值进行基于移位的卷积计算。
3.根据权利要求2所述的方法,其特征在于,还包括:将所述移位计算所得的激活值与所述fp32推理所得激活值进行对比,计算得出曼哈顿距离,并验证推理精度。
4.根据权利要求3所述的方法,其特征在于,还包括:响应于所述推理精度比所述fp32推理精度低第一阈值,根据每层相应的所述曼哈顿距离对所述量化指数进行微调。
5.根据权利要求1所述的方法,其特征在于,所述从数据集的每个类别中各随机挑选一张图片,由量化工具量化后的权值对所述图片进行fp32推理,每次推理所得激活值进行暂存包括:
由量化工具将权值量化为2的n次幂大小,并进行模型训练以保证模型的精度不变。
6.根据权利要求1所述的方法,其特征在于,所述对所述激活值文件中的激活值进行2的次幂膨胀量化,并统计每一层的量化指数直方图包括:
取各通道元素中的绝对值的最大值乘以2的q次幂,并保证最后的乘积不超过相应比特量化的最大值,其中所述q为量化指数。
7.根据权利要求1所述的方法,其特征在于,所述根据所述每一层的量化指数直方图计算得到所述层量化指数的均值,并将所述均值设置为量化指数的上限包括:
将通道中大于所述均值的量化指数强制等于所述均值,将通道中不大于所述均值的量化指数保持不变。
8.根据权利要求4所述的方法,其特征在于,所述响应于所述推理精度比所述fp32推理精度低第一阈值,根据每层相应的所述曼哈顿距离对所述量化指数进行微调包括:
选择所述曼哈顿距离相对较大的层,以1为步长降低所述层内量化指数上限,将通道内的大于所述上限的量化指数强制等于所述上限、不大于所述上限的量化指数保持不变,直到所述推理精度达到要求。
9.根据权利要求1所述的方法,其特征在于,所述方法可用于ResNet50、SqueezeNet、GoogLeNet深度卷积网络。
10.一种深度学习推理自动量化装置,其特征在于,包括:
至少一个处理器;和
存储器,所述存储器存储有处理器可运行的程序代码,所述程序代码在被处理器运行时实施如权利要求1-9中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910780310.2A CN110674924B (zh) | 2019-08-22 | 2019-08-22 | 一种深度学习推理自动量化方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910780310.2A CN110674924B (zh) | 2019-08-22 | 2019-08-22 | 一种深度学习推理自动量化方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110674924A true CN110674924A (zh) | 2020-01-10 |
CN110674924B CN110674924B (zh) | 2022-06-03 |
Family
ID=69075479
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910780310.2A Active CN110674924B (zh) | 2019-08-22 | 2019-08-22 | 一种深度学习推理自动量化方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110674924B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112906883A (zh) * | 2021-02-04 | 2021-06-04 | 云从科技集团股份有限公司 | 用于深度神经网络的混合精度量化策略确定方法和系统 |
CN114386588A (zh) * | 2022-03-23 | 2022-04-22 | 杭州雄迈集成电路技术股份有限公司 | 神经网络量化方法和装置、神经网络推理方法和系统 |
CN116108896A (zh) * | 2023-04-11 | 2023-05-12 | 上海登临科技有限公司 | 模型量化方法、装置、介质及电子设备 |
WO2024031989A1 (zh) * | 2022-08-11 | 2024-02-15 | 山东浪潮科学研究院有限公司 | 用于嵌入式设备深度学习推理的内存优化方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109214509A (zh) * | 2017-07-05 | 2019-01-15 | 中国科学院沈阳自动化研究所 | 一种用于深度神经网络高速实时量化结构和运算实现方法 |
CN109472353A (zh) * | 2018-11-22 | 2019-03-15 | 济南浪潮高新科技投资发展有限公司 | 一种卷积神经网络量化电路及量化方法 |
US20190171927A1 (en) * | 2017-12-06 | 2019-06-06 | Facebook, Inc. | Layer-level quantization in neural networks |
CN109902745A (zh) * | 2019-03-01 | 2019-06-18 | 成都康乔电子有限责任公司 | 一种基于cnn的低精度训练与8位整型量化推理方法 |
-
2019
- 2019-08-22 CN CN201910780310.2A patent/CN110674924B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109214509A (zh) * | 2017-07-05 | 2019-01-15 | 中国科学院沈阳自动化研究所 | 一种用于深度神经网络高速实时量化结构和运算实现方法 |
US20190171927A1 (en) * | 2017-12-06 | 2019-06-06 | Facebook, Inc. | Layer-level quantization in neural networks |
CN109472353A (zh) * | 2018-11-22 | 2019-03-15 | 济南浪潮高新科技投资发展有限公司 | 一种卷积神经网络量化电路及量化方法 |
CN109902745A (zh) * | 2019-03-01 | 2019-06-18 | 成都康乔电子有限责任公司 | 一种基于cnn的低精度训练与8位整型量化推理方法 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112906883A (zh) * | 2021-02-04 | 2021-06-04 | 云从科技集团股份有限公司 | 用于深度神经网络的混合精度量化策略确定方法和系统 |
CN114386588A (zh) * | 2022-03-23 | 2022-04-22 | 杭州雄迈集成电路技术股份有限公司 | 神经网络量化方法和装置、神经网络推理方法和系统 |
WO2024031989A1 (zh) * | 2022-08-11 | 2024-02-15 | 山东浪潮科学研究院有限公司 | 用于嵌入式设备深度学习推理的内存优化方法及系统 |
CN116108896A (zh) * | 2023-04-11 | 2023-05-12 | 上海登临科技有限公司 | 模型量化方法、装置、介质及电子设备 |
CN116108896B (zh) * | 2023-04-11 | 2023-07-07 | 上海登临科技有限公司 | 模型量化方法、装置、介质及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN110674924B (zh) | 2022-06-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110674924B (zh) | 一种深度学习推理自动量化方法和装置 | |
US20210065002A1 (en) | Concepts for distributed learning of neural networks and/or transmission of parameterization updates therefor | |
CN103733257B (zh) | 音频编码方法和设备、音频解码方法和设备和采用音频编码方法和设备、音频解码方法和设备的多媒体装置 | |
AU2012218016B2 (en) | Methods and systems for generating filter coefficients and configuring filters | |
CN109819282B (zh) | 一种视频用户类别识别方法、装置和介质 | |
RU2762329C2 (ru) | Поиск формы пирамидального векторного квантователя | |
TWI615834B (zh) | 編碼裝置及方法、解碼裝置及方法、以及程式 | |
TW202042559A (zh) | 用以壓縮類神經網路參數之方法與裝置 | |
WO2021077744A1 (zh) | 一种图像分类方法、装置、设备及计算机可读存储介质 | |
EP3507799A1 (en) | Quantizer with index coding and bit scheduling | |
WO2022111490A1 (zh) | 模型压缩方法、装置、电子设备及可读存储介质 | |
CN117273165A (zh) | 一种适应社区场景的网络模型微调方法、系统及设备 | |
Xu et al. | Hybrid post-training quantization for super-resolution neural network compression | |
CN110874635A (zh) | 一种深度神经网络模型压缩方法及装置 | |
Chen et al. | CNN-optimized image compression with uncertainty based resource allocation | |
CN112906883A (zh) | 用于深度神经网络的混合精度量化策略确定方法和系统 | |
CN111263163A (zh) | 一种基于手机平台的深度视频压缩框架的实现方法 | |
CN115049055A (zh) | 基于动态双可训练界限的超分神经网络的量化方法 | |
Mahmoud et al. | Learning algorithm effect on multilayer feed forward artificial neural network performance in image coding | |
WO2016110125A1 (zh) | 高维向量的哈希方法、向量量化方法及装置 | |
CN109219960A (zh) | 视频编码质量平滑度的优化方法、装置、设备及存储介质 | |
EP2372699B1 (en) | Coding of audio or video samples using multiple quantizers | |
Kamal | Iteration free fractal image compression for color images using vector quantization, genetic algorithm and simulated annealing | |
CN111736845B (zh) | 一种编码方法和装置 | |
US11876969B2 (en) | Neural-network media compression using quantized entropy coding distribution parameters |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |