CN111401550A - 神经网络模型量化方法、装置及电子设备 - Google Patents
神经网络模型量化方法、装置及电子设备 Download PDFInfo
- Publication number
- CN111401550A CN111401550A CN202010164284.3A CN202010164284A CN111401550A CN 111401550 A CN111401550 A CN 111401550A CN 202010164284 A CN202010164284 A CN 202010164284A CN 111401550 A CN111401550 A CN 111401550A
- Authority
- CN
- China
- Prior art keywords
- layer
- quantization
- neural network
- merging
- network model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003062 neural network model Methods 0.000 title claims abstract description 131
- 238000000034 method Methods 0.000 title claims abstract description 54
- 238000011002 quantification Methods 0.000 title abstract description 6
- 238000013139 quantization Methods 0.000 claims abstract description 180
- 230000004913 activation Effects 0.000 claims abstract description 68
- 238000010606 normalization Methods 0.000 claims abstract description 61
- 238000012549 training Methods 0.000 claims description 18
- 238000012545 processing Methods 0.000 claims description 14
- 238000004422 calculation algorithm Methods 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 8
- 230000008569 process Effects 0.000 claims description 8
- 238000010801 machine learning Methods 0.000 abstract description 2
- 238000013527 convolutional neural network Methods 0.000 description 25
- 238000010586 diagram Methods 0.000 description 6
- 230000014509 gene expression Effects 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000006467 substitution reaction Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 241000764238 Isis Species 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000010845 search algorithm Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
Abstract
本发明提供了一种神经网络模型量化方法、装置及电子设备,涉及机器学习技术领域,该方法包括:获取神经网络模型;其中,神经网络模型包括卷积层、归一化层和量化激活层,量化激活层的输出特征为整数型特征;将所述卷积层的参数转换为整数型参数;对归一化层和所述量化激活层进行合并,得到合并层;将合并层的参数转换为整数型参数,得到量化后的神经网络模型。本发明降低了神经网络模型的运算复杂度,使得量化后的神经网络模型在只支持定点或低位宽运算的目标设备上可以加速运行。
Description
技术领域
本发明涉及机器学习技术领域,尤其是涉及一种神经网络模型量化方法、装置及电子设备。
背景技术
目前神经网络模型在语音识别、文字识别、以及图像视频识别等许多领域中已经有了广泛而成功的应用。在一些指定的目标任务中,训练好的神经网络模型需要进一步部署到目标设备进行加速,由于一般的神经网络模型都是双精度或单精度浮点数运算,为了使尽可能多地目标设备满足运算需求,研究人员对神经网络模型进行了量化,以降低神经网络模型的运算复杂度及运算单元开销。然而,现有的量化后的神经网络模型在归一化层依然存在浮点参数,所以仍需要浮点运算单元,无法运行在只支持定点或低位宽运算的目标设备上。因此,现有的量化后的神经网络模型,还存在因计算复杂度较高而无法运行在只支持定点或低位宽运算的目标设备上的问题。
发明内容
有鉴于此,本发明的目的在于提供一种神经网络模型量化方法、装置及电子设备,降低了神经网络模型的运算复杂度,使得量化后的神经网络模型在只支持定点或低位宽运算的目标设备上可以加速运行。
为了实现上述目的,本发明实施例采用的技术方案如下:
第一方面,本发明实施例提供了一种神经网络模型量化方法,包括:获取神经网络模型;其中,所述神经网络模型包括卷积层、归一化层和量化激活层,所述量化激活层的输出特征为整数型特征;将所述卷积层的参数转换为整数型参数;对所述归一化层和所述量化激活层进行合并,得到合并层;将所述合并层的参数转换为整数型参数,得到量化后的神经网络模型。
进一步,本发明实施例提供了第一方面的第一种可能的实施方式,其中,所述对所述归一化层和所述量化激活层进行合并的步骤,包括:将所述归一化层的输出特征作为所述量化激活层的输入特征,对所述归一化层和所述量化激活层进行合并,得到合并层的初始输出特征;对所述合并层的初始输出特征进行限值运算,得到所述合并层的目标输出特征。
进一步,本发明实施例提供了第一方面的第二种可能的实施方式,其中,所述对所述合并层的初始输出特征进行限值运算,得到所述合并层的目标输出特征的步骤,包括:将所述合并层的初始输出特征的大小限值在[0,2F-1]内,当所述合并层的初始输出特征小于0时,将所述合并层的目标输出特征设置为0,当所述合并层的初始输出特征大于2F-1时,将所述合并层的目标输出特征设置为2F-1。
进一步,本发明实施例提供了第一方面的第三种可能的实施方式,其中,所述合并层的初始输出特征为其中,N为所述归一化层的输入特征,b为所述合并层的偏移量,t为所述合并层的量化间隔,b和t均为浮点数,b和t均是基于所述归一化层和所述量化激活层的参数合并得到的。
进一步,本发明实施例提供了第一方面的第四种可能的实施方式,其中,所述将所述合并层的参数转换为整数型参数的步骤,包括:利用预设的运算等效算法确定所述合并层的公用正整数;基于所述公用正整数将所述合并层的参数b和t分别由浮点数转换为整数型参数,得到所述合并层的目标输出特征为其中,B为整数型偏移量,T为整数型量化间隔,K为所述公用正整数。
进一步,本发明实施例提供了第一方面的第五种可能的实施方式,其中,所述利用预设的运算等效算法确定所述合并层的公用正整数的步骤,包括:从预设范围中选取满足预设条件的各个候选序列;其中,所述预设范围为[1,2F-1];从各个所述候选序列中提取最小值,得到目标序列;将所述目标序列中的最大值作为所述合并层的公用正整数。
进一步,本发明实施例提供了第一方面的第六种可能的实施方式,其中,所述将所述卷积层的参数转存为整数型参数的步骤,包括:对所述卷积层的权重进行缩放和偏移处理,得到所述卷积层的整数型权重。
进一步,本发明实施例提供了第一方面的第七种可能的实施方式,其中,所述神经网络模型通过以下方式训练:在神经网络模型的迭代训练过程中,基于预设的量化位宽值确定所述卷积层的权重的候选取值,并根据所述候选取值和所述卷积层的原始权重确定所述卷积层的量化权重;其中,所述卷积层的量化权重为浮点数;将所述归一化层中的各个参数设置为浮点数;其中,各个所述参数包括均值、方差、缩放值和偏移量;基于所述预设的量化位宽值确定所述量化激活层的输出特征。
进一步,本发明实施例提供了第一方面的第八种可能的实施方式,其中,基于所述预设的量化位宽值确定所述卷积层的权重的候选取值,并根据所述候选取值和所述卷积层的原始权重确定所述卷积层的量化权重的步骤,包括:基于所述预设的量化位宽值确定所述卷积层的量化权重的候选取值为其中,F为所述预设的量化位宽值,所述卷积层的权重的取值范围为[0,1];从所述候选取值中选取满足预设条件的数值作为所述卷积层的量化权重。
进一步,本发明实施例提供了第一方面的第九种可能的实施方式,其中,所述基于所述预设的量化位宽值确定所述量化激活层的输出特征的步骤,包括:基于所述预设的量化位宽值对所述量化激活层的输出参数进行限值运算,得到所述量化激活层的输出特征;其中,所述限值运算的计算算式为:
其中,clip为限值运算符,为所述量化激活层的输出特征,当时,所述量化激活层的输出特征为0,当时,所述量化激活层的输出特征为2F-1,M为所述量化激活层的输入特征,s为所述量化激活层的量化间隔,F为所述预设的量化位宽值。
进一步,本发明实施例提供了第一方面的第十种可能的实施方式,其中,将所述量化后的神经网络模型发送至目标电子设备,以通过所述目标电子设备执行所述量化后的神经网络模型所对应的目标任务。
第二方面,本发明实施例还提供了一种神经网络模型量化装置,包括:获取模块,用于获取神经网络模型;其中,所述神经网络模型包括卷积层、归一化层和量化激活层;其中,所述量化激活层的输出特征为整数型特征;处理模块,用于将所述卷积层的参数转换为整数型参数;合并模块,用于对所述归一化层和所述量化激活层进行合并,得到合并层;量化模块,用于将所述合并层的参数转换为整数型参数,得到量化后的神经网络模型。
第三方面,本发明实施例提供了一种电子设备,包括:处理器和存储装置;所述存储装置上存储有计算机程序,所述计算机程序在被所述处理器运行时执行上述第一方面任一项所述的方法。
第四方面,本发明实施例提供了一种移动设备,与上述第一方面任一项所述的电子设备通信连接;所述移动设备用于获取所述电子设备运行得到的量化后的神经网络模型,并基于所述量化后的神经网络模型进行图像处理;其中,所述移动设备包括智能终端和/或智能相机。
第五方面,本发明实施例提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器运行时执行上述第一方面任一项所述的方法的步骤。
本发明实施例提供了一种神经网络模型量化方法、装置及电子设备,首先通过获取神经网络模型(包括卷积层、归一化层和量化激活层,量化激活层的输出特征为整数型特征);然后将卷积层的参数转换为整数型参数;再对归一化层和量化激活层进行合并,得到合并层;最后将合并层的参数转换为整数型参数,得到量化后的神经网络模型。通过将训练完成的神经网络模型的卷积层的权重转存为整数型权重,并基于预设的运算等效算法将归一化层和量化激活层合并得到的合并层中的参数转存为整数型参数,降低了神经网络模型的运算复杂度,使得量化后的神经网络模型在只支持定点或低位宽运算的目标设备上可以加速运行。
本发明实施例的其他特征和优点将在随后的说明书中阐述,或者,部分特征和优点可以从说明书推知或毫无疑义地确定,或者通过实施本发明实施例的上述技术即可得知。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了本发明实施例所提供的一种电子设备的结构示意图;
图2示出了本发明实施例所提供的一种神经网络模型量化方法流程图;
图3示出了本发明实施例所提供的一种卷积神经网络量化流程图;
图4示出了本发明实施例所提供的一种卷积神经网络的参数转存与部署流程图;
图5示出了本发明实施例所提供的一种神经网络模型量化装置结构示意图;
图6示出了本发明实施例所提供的另一种神经网络模型量化装置结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合附图对本发明的技术方案进行描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。
考虑到现有的量化后的神经网络模型,还存在因计算复杂度较高而无法运行在只支持定点或低位宽运算的目标设备上的问题,为改善此问题,本发明实施例提供的一种神经网络模型量化方法、装置及电子设备,可以应用于降低神经网络模型的运算复杂度,使得量化后的神经网络模型在只支持定点或低位宽运算的目标设备上可以加速运行。以下对本发明实施例进行详细介绍。
实施例一:
首先,参照图1来描述用于实现本发明实施例的一种神经网络模型量化方法、装置及电子设备的示例电子设备100。
如图1所示的一种电子设备的结构示意图,电子设备100包括一个或多个处理器102、一个或多个存储装置104、输入装置106、输出装置108以及图像采集装置110,这些组件通过总线系统112和/或其它形式的连接机构(未示出)互连。应当注意,图1所示的电子设备100的组件和结构只是示例性的,而非限制性的,根据需要,所述电子设备也可以具有其他组件和结构。
所述处理器102可以采用数字信号处理器(DSP)、现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)中的至少一种硬件形式来实现,所述处理器102可以是中央处理单元(CPU)、图形处理单元(GPU)或者具有数据处理能力和/或指令执行能力的其它形式的处理单元中的一种或几种的组合,并且可以控制所述电子设备100中的其它组件以执行期望的功能。
所述存储装置104可以包括一个或多个计算机程序产品,所述计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机程序指令,处理器102可以运行所述程序指令,以实现下文所述的本发明实施例中(由处理器实现)的客户端功能以及/或者其它期望的功能。在所述计算机可读存储介质中还可以存储各种应用程序和各种数据,例如所述应用程序使用和/或产生的各种数据等。
所述输入装置106可以是用户用来输入指令的装置,并且可以包括键盘、鼠标、麦克风和触摸屏等中的一个或多个。
所述输出装置108可以向外部(例如,用户)输出各种信息(例如,图像或声音),并且可以包括显示器、扬声器等中的一个或多个。
所述图像采集装置110可以拍摄用户期望的图像(例如照片、视频等),并且将所拍摄的图像存储在所述存储装置104中以供其它组件使用。
示例性地,用于实现根据本发明实施例的神经网络模型量化方法、装置及电子设备的示例电子设备可以被实现为诸如智能手机、平板电脑、计算机等智能终端。
实施例二:
本实施例提供了一种神经网络模型量化方法,该方法可以由诸如计算机等上述电子设备执行,参见图2所示的神经网络模型量化方法流程图,该方法主要包括以下步骤S202~步骤S208:
步骤S202,获取神经网络模型;其中,神经网络模型包括卷积层、归一化层和量化激活层,量化激活层的输出特征为整数型特征。
上述神经网络模型可以是完成量化神经网络模型训练的模型,该神经网络模型可以是卷积神经网络,其中,该卷积神经网络网络层中的卷积层、归一化层和量化激活层依次连接,由于完成量化神经网络模型训练的模型中依然存在浮点型参数,在需要将模型加载至目标设备的情况下,对模型的运算能力要求较高,因此,还需要对完成量化神经网络模型训练的模型进行进一步量化,在不影响神经网络模型精度的情况下,将神经网络模型中的浮点型参数等效转换为整数型参数,进而降低神经网络模型的运算复杂度,降低对于目标设备的硬件条件要求。
步骤S204,将卷积层的参数转换为整数型参数。
上述卷积层的参数可以是卷积层的权重,由于量化前上述神经网络模型的卷积层的权重为浮点型参数,在神经网络执行识别任务时,计算复杂度较大,通过对卷积层的权重进行缩放和偏移处理,得到卷积层的整数型权重,从而可以降低模型推导时的计算复杂度,还可以降低神经网络模型占用内存的大小。基于预设的量化位宽值将神经网络模型的卷积层的权重由浮点型参数转存为整数型参数,具体的,首先对上述卷积层的权重进行预设倍数的缩放,再减小或增加预设数值(诸如,该预设数值可以是0),从而得到整数型权重。上述预设倍数可以根据预设的量化位宽值确定,诸如,该预设倍数可以是2F-1,F为预设的量化位宽值,预设的量化位宽值的大小可以根据实际要适配的目标设备的硬件配置确定,诸如,该预设的量化位宽的大小可以是2、4或8。
步骤S206,对归一化层和量化激活层进行合并,得到合并层。
将神经网络模型的归一化层(也可以称为批归一化层)和量化激活层整合为一个合并的网络层,且该合并层包括了归一化层和量化激活层原有的运算,该合并层的输入特征与上述归一化层的输入特征相同,该合并层的输出特征与上述量化激活层的输出特征相同。
步骤S208,将合并层的参数转换为整数型参数,得到量化后的神经网络模型。
对合并层中的运算算式进行转换化简,使等效转换后的算式与转换前的算式相等,从而将合并层的运算算式中的浮点型参数转存为整数型参数。通过将神经网络模型的卷积层和合并层的参数均转换为整型参数,得到进一步量化后的神经网络模型,通过将该量化后的神经网络模型加载在目标设备,可以使该量化后的神经网络模型在目标设备上实现推理加速。
本实施例提供的上述神经网络模型量化方法,通过将训练完成的神经网络模型的卷积层的权重转存为整数型权重,并基于预设的运算等效算法将归一化层和量化激活层合并得到的合并层中的参数转存为整数型参数,降低了神经网络模型的运算复杂度,使得量化后的神经网络模型在只支持定点或低位宽运算的目标设备上可以加速运行。
为了降低神经网络模型的运算复杂度,本实施例提供了对归一化层和量化激活层进行合并的实施方式,具体可参照如下步骤(1)~步骤(2)执行:
步骤(1):将归一化层的输出特征作为量化激活层的输入特征,对归一化层和量化激活层进行合并,得到合并层的初始输出特征。
上述归一化层的算式为量化激活层的算式为其中,M为量化激活层的输入特征,s为量化激活层的量化间隔,上述量化激活层的算式中的[]为取整符号。将上述归一化层的输入特征N代入上述归一化层的算式中,得到上述归一化层的输出特征再将上述归一化层的输出特征作为量化激活层的输入特征M代入量化激活层的算式中,得到合并层的初始输出特征
其中,N为归一化层的输入特征,b为合并层的偏移量,t为合并层的量化间隔,b和t均为浮点数,b和t均是基于归一化层和量化激活层的参数合并得到的,mean为均值,variance为方差,γ为归一化层的缩放量,β为归一化层的偏移量,∈为人为设置的常量,诸如,该常量的值可以是一个远远小于1且不为0的数值,以防止∈所在分母的值为0。
步骤(2):对合并层的初始输出特征进行限值运算,得到合并层的目标输出特征。
其中,clip为限值运算,b为合并层的偏移量,t为合并层的量化间隔,b和t均为浮点数,F为预设的量化位宽值,为合并层的初始输出特征,[]为取整符号,为了使上述合并层的输出特征也为整数型参数,基于预设的量化位宽值及限值运算对合并层的输出特征进行定点限值,上述限制运算的目的是将合并层的目标输出特征限值在[0,2F-1]之间,当合并层的初始输出特征处于[0,2F-1]范围内时,合并层的目标输出特征为当合并层的初始输出特征时,合并层的目标输出特征为0,当合并层的初始输出特征时,合并层的目标输出特征为2F-1。
为了进一步降低神经网络模型的运算复杂度,本实施例提供了将合并层的参数转存为整数型参数的实施方式,具体可参照如下步骤1)~步骤2)执行:
步骤1):利用预设的运算等效算法确定合并层的公用正整数。
从预设范围中选取满足预设条件的各个候选序列;其中,预设范围为[1,2F-1]。从各个候选序列中提取最小值,得到目标序列。将目标序列中的最大值作为合并层的公用正整数。从预设范围为[1,2F-1]中选取满足预设条件的候选序列,该候选序列可以是一个或多个。上述预设条件可以根据实际情况确定,诸如,设上述候选序列S的中的元素S[i]=[it-b],b为合并层的偏移量,t为合并层的量化间隔,从预设范围[1,2F-1]中递推式选取数值i和j,将满足以下算式的i和j代入候选序列中:
上述不等式是将满足j>i的条件的i和j代入中,提取满足j>i条件时的最大值;将满足j<i的条件的i和j代入中,提取满足j<i条件时的最小值。搜索各个候选序列,并从每个候选序列中提取该序列的最小值,再从提取到的各个最小值中选取最大值作为合并层的运算算式中的公用正整数。在一种具体的实施方式中,还可以采用暴力搜索算法从上述预设范围中搜索可以将合并层中的运算算式等效转存为整型参数的公用正整数。
其中,B为整数型偏移量,T为整数型量化间隔,K为公用正整数。根据上述搜索得到的符合预设条件的公共正整数K确定与等效的从而将合并层的偏移量b由浮点型参数转存为整型参数B,将合并层的量化间隔由浮点型参数t转存为整型参数T。通过对转换整数型参数后的初始输出特征进行限制运算,可以得到转换整数型参数后合并成的目标输出特征
在一种具体的实施方式中,可以首先根据公共正整数K设定整数型量化间隔T,再根据公式转换关系得到整数型偏移量B。诸如,可以设T为与t×K相邻的两个整数,并对这两个整数进行逐一验证是否满足以下不等式:
maxi(iT-K[it-b])<mini(iT-K[it-b])+K
其中,上述i为预设范围[1,2F-1]中的任意一个整数,将预设范围[1,2F-1]中的整数逐一作为值代入上述不等式,当(iT-K[it-b])中的最大值小于(iT-K[it-b])+K的最小值时,即得到满足上述不等式的i和T。将满足上述不等式的i和T代入B=maxi(iT-K[it-b]),从而求解出整数型偏移量B和整数型量化间隔T。
在一种具体的实施方式中,上述神经网络模型的训练方式可参照如下步骤a~步骤c执行:
步骤a:在神经网络模型的迭代训练过程中,基于预设的量化位宽值确定卷积层的权重的候选取值,并根据候选取值和卷积层的原始权重确定卷积层的量化权重;其中,卷积层的量化权重为浮点数。
在神经网络模型训练的每一轮迭代中,基于预设的量化位宽值确定卷积层的量化权重的候选取值为 其中,F为预设的量化位宽值,卷积层的权重的取值范围为[0,1]。从候选取值中选取满足预设条件的数值作为卷积层的量化权重。上述预设的量化位宽值可以限制卷积层权重的值域范围和表达空间,使卷积层的权重转存为符合预设的量化位宽的浮点数。上述预设条件可以是与卷积层的权重之差的绝对值最小的数值,即与卷积层的权重最为接近的数值。诸如,当上述预设的量化位宽值为2时,上述卷积层的量化权重的候选取值的个数限制为2F=22=4个,这4个候选取值是从[0,1]中均匀获取到的,即这4个候选取值分别是 若上述卷积层的权重为0.6223,计算该卷积层的权重与各个候选取值之差的绝对值,将与卷积层权重之差的绝对值最小的0.67作为上述卷积层的量化权重。从而在神经网络模型训练中实现了对于卷积层参数的量化,使卷积层的权重转换成符合预设的量化位宽的浮点数。
步骤b:将归一化层中的各个参数设置为浮点数;其中,各个参数包括均值、方差、缩放值和偏移量。
步骤c:基于预设的量化位宽值确定量化激活层的输出特征。
基于预设的量化位宽值对量化激活层的输出参数进行限值运算,得到量化激活层的输出特征;其中,上述限值运算的计算算式为:
其中,clip为限值运算符,为量化激活层的输出特征,当时,量化激活层的输出特征为0,当时,量化激活层的输出特征为2F-1,M为量化激活层的输入特征,s为量化激活层的量化间隔,F为预设的量化位宽值。上述限值运算是将量化激活层的输出特征限制在[0,2F-1]之间,当在0到2F-1之间时,将量化激活层的运算算式计算得到的值作为量化激活层的输出特征输出,当时,将0作为量化激活层的输出特征输出,当时,将2F-1作为量化激活层的输出特征输出。
在一种具体的实施方式中,本实施例提供的神经网络模型量化方法,还包括:将量化后的神经网络模型发送至目标电子设备,以通过目标电子设备执行量化后的神经网络模型所对应的目标任务。将各个网络层均为整型参数的量化后的卷积神经网络发送至需要进行目标识别的目标电子设备,通过目标电子设备执行量化后的神经网络模型所对应的目标任务,可以实现目标任务的加速推理。该目标任务可以与神经网络模型的训练过程相关,诸如,目标任务为识别图像中的目标,神经网络模型是基于该目标训练得到的。
本实施例提供的上述神经网络模型量化方法,将神经网络模型中有浮点运算的归一化层和量化的激活函数整合成一个只用整型参数运算的网络层,使量化后的神经网络模型可以运行在只支持定点运算或整型运算的目标设备上,降低了神经网络模型的运算复杂度和资源开销。
实施例三:
在前述实施例的基础上,本实施例提供了一种应用前述神经网络模型量化方法对卷积神经网络进行量化的示例,参见如图3所示的卷积神经网络量化流程图,具体可参照如下步骤S302~步骤S306执行:
步骤S302:在卷积神经网络的迭代训练中,对卷积神经网络的目标网络层的参数进行量化,直至迭代训练结束,得到训练后的卷积神经网络。
上述目标网络层包括卷积层、归一化层和量化激活层,还可以包括其他网络层。在卷积神经网络的训练阶段,参见如图4所示的卷积神经网络的参数转存与部署流程图,在每一轮迭代训练中,基于预设的量化位宽值将目标网络层的参数转化为浮点型参数,并对量化激活层的输出特征进行限值运算,将目标网络层的输出限值在[0,2F-1]之间,以使目标网络层的输出特征符合预设的量化位宽值。
步骤S304:对上述训练后的卷积神经网络进行网络层合并和参数部署,基于预设的运算等效算法将训练后的卷积神经网络中的浮点型参数转存为整型参数,得到量化后的卷积神经网络。
如图4所示,在卷积神经网络的部署阶段,将卷积神经网络的归一化层和量化激活层进行合并,使用一个合并层进行合并运算。对卷积层的权重进行缩放、偏移,以将卷积层的参数转存为整型参数,然后将合并层的运算算式中的参数转存为整型参数。
步骤S306:将上述量化后的卷积神经网络加载进目标设备,以使量化后的卷积神经网络在目标设备中实现推理加速。
如图4所示,在卷积神经网络的加速阶段,将带有整型参数的量化后的卷积神经网络移植或加载至需要进行目标识别的目标设备,由于上述量化后的卷积神经网络降低了运算复杂度,因此量化后的卷积神经网络在目标设备中可以实现目标识别过程的加速推理。
本实施例提供的上述神经网络模型量化方法,可以使量化后的卷积神经网络可以运行在只支持定点运算或整型运算的目标设备上,降低了卷积神经网络的运算复杂度和资源开销。
实施例四:
对应于实施例二中所提供的神经网络模型量化方法,本发明实施例提供了一种神经网络模型量化装置,参见图5所示的一种神经网络模型量化装置结构示意图,该装置包括以下模块:
获取模块51,用于获取神经网络模型;其中,神经网络模型包括卷积层、归一化层和量化激活层;其中,量化激活层的输出特征为整数型特征。
处理模块52,用于将卷积层的参数转换为整数型参数。
合并模块53,用于对归一化层和量化激活层进行合并,得到合并层。
量化模块54,用于将合并层的参数转换为整数型参数,得到量化后的神经网络模型。
本实施例提供的上述神经网络模型量化装置,通过将训练完成的神经网络模型的卷积层的权重转存为整数型权重,并基于预设的运算等效算法将归一化层和量化激活层合并得到的合并层中的参数转存为整数型参数,降低了神经网络模型的运算复杂度,使得量化后的神经网络模型在只支持定点或低位宽运算的目标设备上可以加速运行。
在一种实施方式中,上述合并模块53,进一步用于将归一化层的输出特征作为量化激活层的输入特征,对归一化层和量化激活层进行合并,得到合并层的初始输出特征;对合并层的初始输出特征进行限值运算,得到合并层的目标输出特征。
在一种实施方式中,上述合并模块53,进一步用于将合并层的初始输出特征的大小限值在[0,2F-1]内,当合并层的初始输出特征小于0时,将合并层的目标输出特征设置为0,当合并层的初始输出特征大于2F-1时,将合并层的目标输出特征设置为2F-1。
在一种实施方式中,上述量化模块54,进一步用于利用预设的运算等效算法确定合并层的公用正整数;基于公用正整数将合并层的参数b和t分别由浮点数转换为整数型参数,得到合并层的初始输出特征为其中,B为整数型偏移量,T为整数型量化间隔,K为公用正整数。
在一种实施方式中,上述量化模块54,进一步用于从预设范围中选取满足预设条件的各个候选序列;其中,预设范围为[1,2F-1];从各个候选序列中提取最小值,得到目标序列;将目标序列中的最大值作为合并层的公用正整数。
在一种实施方式中,上述处理模块52,进一步用于对卷积层的权重进行缩放和偏移处理,得到卷积层的整数型权重。
在一种实施方式中,参见图6所示的另一种神经网络模型量化装置结构示意图,上述装置还包括:
训练模块60,用于在神经网络模型的迭代训练过程中,基于预设的量化位宽值确定卷积层的权重的候选取值,并根据候选取值和卷积层的原始权重确定卷积层的量化权重;其中,卷积层的量化权重为浮点数;将归一化层中的各个参数设置为浮点数;其中,各个参数包括均值、方差、缩放值和偏移量;基于预设的量化位宽值确定量化激活层的输出特征。
在一种实施方式中,上述训练模块60,进一步用于基于预设的量化位宽值确定卷积层的量化权重的候选取值为 其中,F为预设的量化位宽值,卷积层的权重的取值范围为[0,1];从候选取值中选取满足预设条件的数值作为卷积层的量化权重。
在一种实施方式中,上述训练模块60,进一步用于基于预设的量化位宽值对量化激活层的输出参数进行限值运算,得到量化激活层的输出特征;其中,限值运算的计算算式为:
在一种实施方式中,上述装置还包括:
发送模块,用于将量化后的神经网络模型发送至目标电子设备,以通过目标电子设备执行量化后的神经网络模型所对应的目标任务。
本实施例提供的上述神经网络模型量化装置,将神经网络模型中有浮点运算的归一化层和量化的激活函数整合成一个只用整型参数运算的网络层,使量化后的神经网络模型可以运行在只支持定点运算或整型运算的目标设备上,降低了神经网络模型的运算复杂度和资源开销。
本实施例所提供的装置,其实现原理及产生的技术效果和前述实施例相同,为简要描述,装置实施例部分未提及之处,可参考前述方法实施例中相应内容。
实施例五:
本发明实施例提供了一种移动设备,其中,该移动设备与上述实施例一提供的电子设备通信连接,该电子设备用于执行上述实施例二提供的神经网络模型量化方法。
上述移动设备用于获取电子设备运行得到的量化后的神经网络模型,并基于量化后的神经网络模型进行图像处理;其中,该移动设备包括智能终端和/或智能相机。
实施例六:
本发明实施例提供了一种计算机可读介质,其中,所述计算机可读介质存储有计算机可执行指令,所述计算机可执行指令在被处理器调用和执行时,所述计算机可执行指令促使所述处理器实现上述实施例所述的神经网络模型量化方法。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统具体工作过程,可以参考前述实施例中的对应过程,在此不再赘述。
本发明实施例所提供的神经网络模型量化方法、装置及电子设备的计算机程序产品,包括存储了程序代码的计算机可读存储介质,所述程序代码包括的指令可用于执行前面方法实施例中所述的方法,具体实现可参见方法实施例,在此不再赘述。
另外,在本发明实施例的描述中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
在本发明的描述中,需要说明的是,术语“中心”、“上”、“下”、“左”、“右”、“竖直”、“水平”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性。
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
Claims (15)
1.一种神经网络模型量化方法,其特征在于,包括:
获取神经网络模型;其中,所述神经网络模型包括卷积层、归一化层和量化激活层,所述量化激活层的输出特征为整数型特征;
将所述卷积层的参数转换为整数型参数;
对所述归一化层和所述量化激活层进行合并,得到合并层;
将所述合并层的参数转换为整数型参数,得到量化后的神经网络模型。
2.根据权利要求1所述的方法,其特征在于,
所述对所述归一化层和所述量化激活层进行合并的步骤,包括:
将所述归一化层的输出特征作为所述量化激活层的输入特征,对所述归一化层和所述量化激活层进行合并,得到合并层的初始输出特征;
对所述合并层的初始输出特征进行限值运算,得到所述合并层的目标输出特征。
3.根据权利要求2所述的方法,其特征在于,所述对所述合并层的初始输出特征进行限值运算,得到所述合并层的目标输出特征的步骤,包括:
将所述合并层的初始输出特征的大小限值在[0,2F-1]内,当所述合并层的初始输出特征小于0时,将所述合并层的目标输出特征设置为0,当所述合并层的初始输出特征大于2F-1时,将所述合并层的目标输出特征设置为2F-1。
6.根据权利要求5所述的方法,其特征在于,所述利用预设的运算等效算法确定所述合并层的公用正整数的步骤,包括:
从预设范围中选取满足预设条件的各个候选序列;其中,所述预设范围为[1,2F-1];
从各个所述候选序列中提取最小值,得到目标序列;
将所述目标序列中的最大值作为所述合并层的公用正整数。
7.根据权利要求1所述的方法,其特征在于,所述将所述卷积层的参数转存为整数型参数的步骤,包括:
对所述卷积层的权重进行缩放和偏移处理,得到所述卷积层的整数型权重。
8.根据权利要求1-7任一项所述的方法,其特征在于,所述神经网络模型通过以下方式训练:
在神经网络模型的迭代训练过程中,基于预设的量化位宽值确定所述卷积层的权重的候选取值,并根据所述候选取值和所述卷积层的原始权重确定所述卷积层的量化权重;其中,所述卷积层的量化权重为浮点数;
将所述归一化层中的各个参数设置为浮点数;其中,各个所述参数包括均值、方差、缩放值和偏移量;
基于所述预设的量化位宽值确定所述量化激活层的输出特征。
11.根据权利要求1-10任一项所述的方法,其特征在于,将所述量化后的神经网络模型发送至目标电子设备,以通过所述目标电子设备执行所述量化后的神经网络模型所对应的目标任务。
12.一种神经网络模型量化装置,其特征在于,包括:
获取模块,用于获取神经网络模型;其中,所述神经网络模型包括卷积层、归一化层和量化激活层;其中,所述量化激活层的输出特征为整数型特征;
处理模块,用于将所述卷积层的参数转换为整数型参数;
合并模块,用于对所述归一化层和所述量化激活层进行合并,得到合并层;
量化模块,用于将所述合并层的参数转换为整数型参数,得到量化后的神经网络模型。
13.一种电子设备,其特征在于,包括:处理器和存储装置;
所述存储装置上存储有计算机程序,所述计算机程序在被所述处理器运行时执行如权利要求1至11任一项所述的方法。
14.一种移动设备,其特征在于,与权利要求13所述的电子设备通信连接;
所述移动设备用于获取所述电子设备运行得到的量化后的神经网络模型,并基于所述量化后的神经网络模型进行图像处理;其中,所述移动设备包括智能终端和/或智能相机。
15.一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,其特征在于,所述计算机程序被处理器运行时执行上述权利要求1至11任一项所述的方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010164284.3A CN111401550A (zh) | 2020-03-10 | 2020-03-10 | 神经网络模型量化方法、装置及电子设备 |
PCT/CN2020/119608 WO2021179587A1 (zh) | 2020-03-10 | 2020-09-30 | 神经网络模型量化方法、装置、电子设备及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010164284.3A CN111401550A (zh) | 2020-03-10 | 2020-03-10 | 神经网络模型量化方法、装置及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111401550A true CN111401550A (zh) | 2020-07-10 |
Family
ID=71432331
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010164284.3A Pending CN111401550A (zh) | 2020-03-10 | 2020-03-10 | 神经网络模型量化方法、装置及电子设备 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN111401550A (zh) |
WO (1) | WO2021179587A1 (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112269595A (zh) * | 2020-10-28 | 2021-01-26 | 清华大学 | 图像处理方法、装置、计算机设备及存储介质 |
CN112766456A (zh) * | 2020-12-31 | 2021-05-07 | 平安科技(深圳)有限公司 | 浮点型深度神经网络的量化方法、装置、设备及存储介质 |
CN113011569A (zh) * | 2021-04-07 | 2021-06-22 | 开放智能机器(上海)有限公司 | 离线量化参数加注方法、装置、电子设备和存储介质 |
WO2021179587A1 (zh) * | 2020-03-10 | 2021-09-16 | 北京迈格威科技有限公司 | 神经网络模型量化方法、装置、电子设备及计算机可读存储介质 |
TWI741877B (zh) * | 2020-07-31 | 2021-10-01 | 大陸商星宸科技股份有限公司 | 網路模型量化方法、裝置及電子設備 |
CN113593538A (zh) * | 2021-09-02 | 2021-11-02 | 北京声智科技有限公司 | 语音特征的分类方法、相关设备及可读存储介质 |
CN114004352A (zh) * | 2021-12-31 | 2022-02-01 | 杭州雄迈集成电路技术股份有限公司 | 一种仿真实现方法、神经网络编译器以及计算机可读存储介质 |
WO2023000898A1 (zh) * | 2021-07-20 | 2023-01-26 | 腾讯科技(深圳)有限公司 | 图像分割模型量化方法、装置、计算机设备及存储介质 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113949592B (zh) * | 2021-12-22 | 2022-03-22 | 湖南大学 | 一种基于fpga的对抗攻击防御系统及方法 |
CN116432735A (zh) * | 2021-12-31 | 2023-07-14 | 杭州海康威视数字技术股份有限公司 | 一种数据处理方法、装置及边缘计算设备 |
CN114677548B (zh) * | 2022-05-26 | 2022-10-14 | 之江实验室 | 基于阻变存储器的神经网络图像分类系统及方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107292382A (zh) * | 2016-03-30 | 2017-10-24 | 中国科学院声学研究所 | 一种神经网络声学模型激活函数定点量化方法 |
US11755901B2 (en) * | 2017-12-28 | 2023-09-12 | Intel Corporation | Dynamic quantization of neural networks |
CN108537322A (zh) * | 2018-03-16 | 2018-09-14 | 新智认知数据服务有限公司 | 神经网络层间激活值量化方法及装置 |
CN108520299A (zh) * | 2018-03-16 | 2018-09-11 | 新智认知数据服务有限公司 | 级间激活值量化方法及装置 |
CN110059733A (zh) * | 2019-04-01 | 2019-07-26 | 苏州科达科技股份有限公司 | 卷积神经网络的优化及快速目标检测方法、装置 |
CN111401550A (zh) * | 2020-03-10 | 2020-07-10 | 北京迈格威科技有限公司 | 神经网络模型量化方法、装置及电子设备 |
-
2020
- 2020-03-10 CN CN202010164284.3A patent/CN111401550A/zh active Pending
- 2020-09-30 WO PCT/CN2020/119608 patent/WO2021179587A1/zh active Application Filing
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021179587A1 (zh) * | 2020-03-10 | 2021-09-16 | 北京迈格威科技有限公司 | 神经网络模型量化方法、装置、电子设备及计算机可读存储介质 |
TWI741877B (zh) * | 2020-07-31 | 2021-10-01 | 大陸商星宸科技股份有限公司 | 網路模型量化方法、裝置及電子設備 |
CN112269595A (zh) * | 2020-10-28 | 2021-01-26 | 清华大学 | 图像处理方法、装置、计算机设备及存储介质 |
CN112766456A (zh) * | 2020-12-31 | 2021-05-07 | 平安科技(深圳)有限公司 | 浮点型深度神经网络的量化方法、装置、设备及存储介质 |
CN112766456B (zh) * | 2020-12-31 | 2023-12-26 | 平安科技(深圳)有限公司 | 浮点型深度神经网络的量化方法、装置、设备及存储介质 |
CN113011569A (zh) * | 2021-04-07 | 2021-06-22 | 开放智能机器(上海)有限公司 | 离线量化参数加注方法、装置、电子设备和存储介质 |
WO2023000898A1 (zh) * | 2021-07-20 | 2023-01-26 | 腾讯科技(深圳)有限公司 | 图像分割模型量化方法、装置、计算机设备及存储介质 |
CN113593538A (zh) * | 2021-09-02 | 2021-11-02 | 北京声智科技有限公司 | 语音特征的分类方法、相关设备及可读存储介质 |
CN113593538B (zh) * | 2021-09-02 | 2024-05-03 | 北京声智科技有限公司 | 语音特征的分类方法、相关设备及可读存储介质 |
CN114004352A (zh) * | 2021-12-31 | 2022-02-01 | 杭州雄迈集成电路技术股份有限公司 | 一种仿真实现方法、神经网络编译器以及计算机可读存储介质 |
CN114004352B (zh) * | 2021-12-31 | 2022-04-26 | 杭州雄迈集成电路技术股份有限公司 | 一种仿真实现方法、神经网络编译器以及计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2021179587A1 (zh) | 2021-09-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111401550A (zh) | 神经网络模型量化方法、装置及电子设备 | |
US10929746B2 (en) | Low-power hardware acceleration method and system for convolution neural network computation | |
CN111105017B (zh) | 神经网络量化方法、装置及电子设备 | |
CN111488985B (zh) | 深度神经网络模型压缩训练方法、装置、设备、介质 | |
CN110490296A (zh) | 一种构造卷积神经网络(cnn)模型的方法和系统 | |
CN110413812B (zh) | 神经网络模型的训练方法、装置、电子设备及存储介质 | |
CN110610237A (zh) | 模型的量化训练方法、装置及存储介质 | |
WO2019050771A1 (en) | EXECUTION METHOD, EXECUTION DEVICE, LEARNING METHOD, LEARNING DEVICE, AND PROGRAM FOR DEEP NEURAL NETWORK | |
CN109284761B (zh) | 一种图像特征提取方法、装置、设备及可读存储介质 | |
EP4343616A1 (en) | Image classification method, model training method, device, storage medium, and computer program | |
CN113222813A (zh) | 图像超分辨率重建方法、装置、电子设备及存储介质 | |
CN110337636A (zh) | 数据转换方法和装置 | |
CN109523016B (zh) | 面向嵌入式系统的多值量化深度神经网络压缩方法及系统 | |
WO2022246986A1 (zh) | 数据处理方法、装置、设备及计算机可读存储介质 | |
CN109034176B (zh) | 辨识系统以及辨识方法 | |
CN112101543A (zh) | 神经网络模型确定方法、装置、电子设备及可读存储介质 | |
CN112686365A (zh) | 运行神经网络模型的方法、装置和计算机设备 | |
CN112446461A (zh) | 一种神经网络模型训练方法及装置 | |
CN115205157B (zh) | 图像处理方法和系统、电子设备和存储介质 | |
WO2023115814A1 (zh) | Fpga硬件架构及其数据处理方法、存储介质 | |
CN116090543A (zh) | 模型压缩方法及装置、计算机可读介质和电子设备 | |
CN114841325A (zh) | 神经网络模型的数据处理方法、介质及电子设备 | |
CN115936092A (zh) | 神经网络模型量化方法及装置、存储介质及电子设备 | |
CN113902928A (zh) | 图像特征的提取方法、装置及电子设备 | |
CN112561050B (zh) | 一种神经网络模型训练方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200710 |
|
RJ01 | Rejection of invention patent application after publication |