CN111260022B - 一种卷积神经网络全int8定点量化的方法 - Google Patents

一种卷积神经网络全int8定点量化的方法 Download PDF

Info

Publication number
CN111260022B
CN111260022B CN201911159756.XA CN201911159756A CN111260022B CN 111260022 B CN111260022 B CN 111260022B CN 201911159756 A CN201911159756 A CN 201911159756A CN 111260022 B CN111260022 B CN 111260022B
Authority
CN
China
Prior art keywords
scale
layer
quantization
threshold
network model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911159756.XA
Other languages
English (en)
Other versions
CN111260022A (zh
Inventor
郭晓伟
杜鑫
丁永林
毛泉涌
张永晋
李炜
周明政
怀宇
王铜铜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CETC 52 Research Institute
Original Assignee
CETC 52 Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CETC 52 Research Institute filed Critical CETC 52 Research Institute
Priority to CN201911159756.XA priority Critical patent/CN111260022B/zh
Publication of CN111260022A publication Critical patent/CN111260022A/zh
Application granted granted Critical
Publication of CN111260022B publication Critical patent/CN111260022B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

本发明公开了一种卷积神经网络全INT8定点量化的方法,包括:选取卷积神经网络模型,去除卷积神经网络模型中的上采样操作,保留多尺度特征输出,并训练得到浮点型网络模型;利用KL散度为所述浮点型网络模型中的每一个卷积层生成对应的权值量化阈值和激活值量化阈值;调整各卷积层对应的权值量化阈值,确定调整后的权值量化阈值;根据量化公式逐一量化各卷积层的权值,得到量化后的权值文件;基于权值文件,对所述浮点型网络模型中的residual结构增加阈值补偿操作,进行全INT8前向计算,获取较低精度损失的计算结果。本发明的方法得到的卷积神经网络模型中的所有运算均为定点运算,且量化后的模型精度损失小。

Description

一种卷积神经网络全INT8定点量化的方法
技术领域
本申请属于卷积神经网络的量化压缩技术领域,具体涉及一种卷积神经网络全INT8定点量化的方法。
背景技术
卷积神经网络在训练时,通常采用32位单精度浮点精度(Full Precise,简称FP32)的数据精度来表示网络权值、偏置、激活值等信息。因此将一个训练好的深层网络模型部署在计算能力和存储空间都相对有限的嵌入式平台时,需要进行低精度量化操作,即通过减少数据精度,比如用8位、6位甚至更极端的用2位或3位来代替float数据,在保证网络精度的前提下,减少模型对存储和计算资源的需求,降低网络推理延时。
模型量化主要包含两部分,分别为网络权值参数的量化以及网络激活值的量化。为了方便将网络部署在FPGA和ASIC芯片上,衍生出了很多低比特网络,比如二值化网络(Binarized Neural Networks,BNN)、三值化网络(Ternary Weight Networks,TWN)、XNOR-Net、DoReFaNet等,将权值、激活值用1bit或2bit来表示,继而将浮点乘除运算转换为位运算,但模型前向推理的精度跟浮点运算仍有一定差距,因此还处于研究阶段。
目前应用比较多的量化为INT8量化,利用8bit整数来表征权值和激活值,模型前向推理的精度几乎影响不大。对权值的量化很简单,由于预先知道每层网络层的权值数值范围,通过统计每层网络层权值最大值和最小值,将最小值~最大值的范围线性映射到0~256的范围。对激活值的量化,NVIDIA提出了利用KL散度来衡量FP32数据编码和INT8编码之间的差异,寻找使差异最小的阈值。目前开源框架TensorFlow以及用于移动端部署的NCNN框架均支持INT8定点化卷积运算,在每个网络层引入Quantize/Dequantize操作,完成FP32数据和INT8数据的相互转换。
以NCNN框架为例,在每层网络计算时,需要先对输入特征图进行Quantize操作,将预先通过校准数据集计算KL散度得到的scale乘以输入特征图的浮点像素值,然后将输入特征图压缩到INT8的数据范围;卷积计算完成后,需要对计算结果进行Dequantize操作,将卷积结果放大回FP32,再加上偏置输出。如果网络结构为连续的卷积层,则执行Requantize操作,合并了当前层的Dequantize以及下一层的Quantize操作,将当前卷积层输出重新量化为INT8。但是由于引入的Quantize/Dequantize/Requantize操作中均涉及到浮点运算,因此无法将量化后的网络直接部署在仅支持定点运算的设备,如FPGA端。
发明内容
本申请的目的在于提供一种卷积神经网络全INT8定点量化的方法,该方法得到的卷积神经网络模型中的所有运算均为定点运算,且量化后的模型精度损失小。
为实现上述目的,本申请所采取的技术方案为:
一种卷积神经网络全INT8定点量化的方法,用于将卷积神经网络中的所有操作涉及的参数进行INT8定点量化,所述卷积神经网络全INT8定点量化的方法,包括:
选取卷积神经网络模型,去除卷积神经网络模型中的上采样操作,保留多尺度特征输出,并训练得到浮点型网络模型;
利用KL散度为所述浮点型网络模型中的每一个卷积层生成对应的权值量化阈值和激活值量化阈值;
调整各卷积层对应的权值量化阈值,直至各卷积层的Requantize阈值Scale_req均为2的幂次方,确定调整后的权值量化阈值;
根据量化公式8-bit Tensor(t)=scale_factor(sf)*FP32 Tensor(t),其中Tensor(t)为权值,scale_factor(sf)为调整后的权值量化阈值,逐一量化各卷积层的权值,得到量化后的权值文件;
基于权值文件,对所述浮点型网络模型中的residual结构增加阈值补偿操作,进行全INT8前向计算,获取较低精度损失的计算结果。
作为优选,所述卷积神经网络模型为基于Darknet-53网络结构的YOLOv3改进网络模型。
作为优选,所述浮点型网络模型中若卷积层与Batchnorm层以及Scale层相连,则通过以下公式将Batchnorm层以及Scale层的权值合并至该卷积层的权值中:
其中,γ为BM层的缩放因子,β为BM层的偏移,x为卷积层输入,ε为预设的数,var为方差计算,mean为均值计算,w′为融合后的权重,b′为融合后的偏执,w为融合前卷积层的权重,b为融合前卷积层的偏执。
作为优选,所述各卷积层的Requantize阈值Scale_req采用如下公式计算:
Scale_reqi=Blob_scalei+1*Scale_deqi
Scale_deqi=1./(Blob_scalei*Param_scalei)
其中,Scale_reqi表示第i卷积层的Requantize阈值,Blob_scalei表示第i卷积层的激活值量化阈值,Scale_deqi表示第i卷积层的反量化操作Dequantize阈值,Param_scalei表示第i卷积层的权值量化阈值。
作为优选,所述对所述浮点型网络模型中的residual结构增加阈值补偿操作,包括:
所述residual结构包括第一卷积层、第一分支组件、第二分支组件和第六卷积层,所述第一分支组件包括第一左分支和第一右分支,所述第一左分支中包含第二卷积层和第三卷积层,所述第二分支组件包括第二左分支和第二右分支,所述第二左分支包含第四卷积层和第五卷积层;
所述第一右分支利用第四卷积层的激活值量化阈值对接收的参数进行量化,所述第二右分支利用第六卷积层的激活值量化阈值对接收的参数进行量化,完成阈值补充操作。
本申请提供的卷积神经网络全INT8定点量化的方法,与现有技术相比具有以下有益效果:
1)本申请量化后的网络模型支持网络部署过程中的所有运算都为定点运算,每层网络层的输入特征图、权值、输出特征图均为INT8,有效地降低了存储和算力需求,同时支持部署在FPGA等定点化计算平台。
2)本申请通过动态调整、阈值补偿等操作,使量化后的模型精度损失控制在3%以内。
3)本申请有效地支持residual结构的网络。
附图说明
图1是现有技术NCNN框架中卷积层操作流程图;
图2是本申请所训练的网络中部分residual结构图;
图3是本申请中卷积层操作流程图;
图4是本申请量化前浮点网络的检测效果图;
图5是本申请量化后浮点网络的检测效果图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
需要说明的是,当组件被称为与另一个组件“连接”时,它可以直接与另一个组件连接或者也可以存在居中的组件;当组件被称为与另一个组件“固定”时,它可以直接与另一个组件固定或者也可以存在居中的组件。
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中在本申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是在于限制本申请。
其中一个实施例中,提供了一种卷积神经网络全INT8定点量化的方法,用于将卷积神经网络中的所有操作涉及的参数进行INT8定点量化。
具体地,卷积神经网络全INT8定点量化的方法,包括:
步骤S1、选取卷积神经网络模型,去除卷积神经网络模型中的上采样操作,保留多尺度特征输出,并训练得到浮点型网络模型。
本实施例基于小目标检测需求,以YOLOv3改进版小目标检测识别网络模型为原型,选用Darknet-53网络结构作为基础特征提取网络。在其他实施例中,根据使用场景的不同,可以选用其他的特征提取网络或原型网络。
改进版网络为了增加本实施例中网络对于小目标的检测能力,去除了网络模型中的上采样操作,保留三尺度特征输出后采用预先标注的测试集训练直至收敛,得到浮点型网络模型。
由于在后续网络模型的量化中,针对网络模型的卷积层进行量化操作,因此浮点型网络模型中若卷积层与Batchnorm层以及Scale层相连,则需要利用层融合的方法将卷积层、Batchnorm层以及Scale层融合为一个卷积层,即通过以下公式将Batchnorm层以及Scale层的权值合并至该卷积层的权值中:
其中γ为BM层的缩放因子,β为BM层的偏移,x为卷积层输入,ε为预设的数,通常预设为一个较小的数,var为方差计算,mean为均值计算,w′为融合后的权重,b′为融合后的偏执,w为融合前卷积层的权重,b为融合前卷积层的偏执。
步骤S2、利用KL散度为所述浮点型网络模型中的每一个卷积层生成对应的权值量化阈值和激活值量化阈值。
在使用KL散度时,选用基于TensorRT INT8原理开发的开源量化工具Caffe-Int8-Convert-Tools进行。为每个卷积层的权值和激活值寻找合适的阈值T,每个卷积层生成对应的权值量化阈值Param_scale以及激活值量化阈值Blob_scale。
步骤S3、调整各卷积层对应的权值量化阈值,直至各卷积层的Requantize阈值Scale_req均为2的幂次方,确定调整后的权值量化阈值。
调整各卷积层的Requantize阈值Scale_req均为2的幂次方后,层间运算就可以采用位移运算实现,因此即可避免引入Quantize/Dequantize/Requantize操作又涉及到浮点运算的情况。
其中各卷积层的Requantize阈值Scale_req采用如下公式计算:
Scale_reqi=Blob_scalei+1*Scale_deqi
Scale_deqi=1./(Blob_scalei*Param_scalei)
其中,Scale_reqi表示第i卷积层的Requantize阈值,Blob_scalei表示第i卷积层的激活值量化阈值,Scale_deqi表示第i卷积层的反量化操作Dequantize阈值,Param_scalei表示第i卷积层的权值量化阈值。
为了更清楚的介绍Requantize的阈值Scale_req与权值量化阈值Param_scale的关系,以第0层卷积层为例,图1中显示了第0层输入特征图的量化阈值(即激活值量化阈值)为Blob_scale0,第0层的权值量化阈值为Param_scale0,反量化操作Dequantize阈值Scale_deq0按如下公式计算:Scale_deq0=1./(Blob_scale0*Param_scale0)。而Requantize操作则是合并了当前层的Dequantize以及下一层卷积的Quantize操作,将当前卷积计算结果重新量化为INT8,第0层的Requantize的阈值Scale_req0=Blob_scale1*Scale_deq0。保证输入特征图的量化阈值Blob_scale0和Blob_scale1不变,将Requantize的阈值Scale_req0逼近为2的幂次方,然后动态调整Param_scale0,调整Param_scale0时以将Scale_req0向与初始的Scale_req0最接近的2的幂次方的值逼近为准。
步骤S4、根据量化公式8-bit Tensor(t)=scale_factor(sf)*FP32 Tensor(t),其中Tensor(t)为权值,scale_factor(sf)为动态调整后的权值量化阈值,逐一量化各卷积层的权值,得到量化后的权值文件。
权值文件包括精度均为INT8的量化后的权值、激活值等。
步骤S5、基于权值文件,对所述浮点型网络模型中的residual结构增加阈值补偿操作,进行全INT8前向计算,获取较低精度损失的计算结果。
如图2所示,原residual结构包括第一卷积层、第一分支组件、第二分支组件和第六卷积层,所述第一分支组件包括第一左分支和第一右分支,所述第一左分支中包含第二卷积层和第三卷积层,所述第二分支组件包括第二左分支和第二右分支,所述第二左分支包含第四卷积层和第五卷积层。
本实施例对浮点型网络模型中的residual结构增加阈值补偿操作,主要包括:第一右分支利用第四卷积层的激活值量化阈值对接收的参数进行量化,所述第二右分支利用第六卷积层的激活值量化阈值对接收的参数进行量化,完成阈值补充操作。
在增加阈值补偿操作之前,convolution 1的计算结果在输出之前需要做requantize处理,选用convolution 2的Blob_scale2,使卷积输出int32重新量化到int8后传入下一层。但分支A意外接收到了用conv2的Blob_scale2量化后的输出。在进行改进操作之前,该分支经Eltwise后,进行convolution 4操作前,会利用convolution 4的Blob_scale4进行量化为int8,因此requantize后的阈值补偿操作是指在Eltwise层,进行计算之前,先将分支A调整为采用convolution 4的Blob_scale4进行量化,除去convolution 2的Blob_scale2的影响。同理,分支B利用convolution 6的Blob_scale6完成阈值补偿操作。
针对本申请改进后的卷积神经网络模型,采用对应的NCNN框架运行,输入量化后的权值文件,执行前向推理。除第一层卷积层执行Quantize外,剩余卷积层输入特征图均为INT8,无需执行Quantize操作,具体如图3所示。所有卷积层中的Requantize操作根据Scale_req阈值大小利用移位实现,将卷积计算结果由32位整型表达重新量化为INT8。浮点类型的偏置bias_fp利用公式bias_int32=round(bias_fp/Scale_deq),最终将偏置bias数据类型转换为整型参与运算。
为验证本实施例量化后的模型精度损失下,以下通过实验例进行说明:
实验例
每类选用100张图片作为测试集(图片共四类:飞机airplane、船Ship、车Vehicle、桥bridge),分别在原始NCNN框架下运行Float模型(第一对象)、层间需转换FP32的INT8量化后的模型(第二对象),以及改进后的全INT8量化框架下运行本发明的全INT8量化模型(第三对象),三个对象的统计指标如下表所示。
表格1本发明与原版NCNN框架运行网络的检测指标对比
根据表1所示数据,同时结合量化前后的检测效果如图4、图5所示,可以看出,本发明得到的量化模型的精度并无明显损失。因此本发明较其他现有INT8量化部署技术通用性更强,支持定点化设备以全INT8的数据类型部署卷积神经网络。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (3)

1.一种卷积神经网络全INT8定点量化的方法,用于将卷积神经网络中的所有操作涉及的参数进行INT8定点量化,其特征在于,所述卷积神经网络全INT8定点量化的方法,包括:
选取卷积神经网络模型,去除卷积神经网络模型中的上采样操作,保留多尺度特征输出,并训练得到浮点型网络模型;
利用KL散度为所述浮点型网络模型中的每一个卷积层生成对应的权值量化阈值和激活值量化阈值;
调整各卷积层对应的权值量化阈值,直至各卷积层的Requantize阈值Scale_req均为2的幂次方,确定调整后的权值量化阈值;
根据量化公式8-bit Tensor(t)=scale_factor(sf)*FP32 Tensor(t),其中Tensor(t)为权值,scale_factor(sf)为调整后的权值量化阈值,逐一量化各卷积层的权值,得到量化后的权值文件;
基于权值文件,对所述浮点型网络模型中的residual结构增加阈值补偿操作,进行全INT8前向计算,获取较低精度损失的计算结果;
其中,所述各卷积层的Requantize阈值Scale_req采用如下公式计算:
Scale_reqi=Blob_scalei+1*Scale_deqi
Scale_deqi=1./(Blob_scalei*Param_scalei)
其中,Scale_reqi表示第i卷积层的Requantize阈值,Blob_scalei表示第i卷积层的激活值量化阈值,Scale_deqi表示第i卷积层的反量化操作Dequantize阈值,Param_scalei表示第i卷积层的权值量化阈值;
其中,所述对所述浮点型网络模型中的residual结构增加阈值补偿操作,包括:
所述residual结构包括第一卷积层、第一分支组件、第二分支组件和第六卷积层,所述第一分支组件包括第一左分支和第一右分支,所述第一左分支中包含第二卷积层和第三卷积层,所述第二分支组件包括第二左分支和第二右分支,所述第二左分支包含第四卷积层和第五卷积层;
所述第一右分支利用第四卷积层的激活值量化阈值对接收的参数进行量化,所述第二右分支利用第六卷积层的激活值量化阈值对接收的参数进行量化,完成阈值补偿操作。
2.如权利要求1所述的卷积神经网络全INT8定点量化的方法,其特征在于,所述卷积神经网络模型为基于Darknet-53网络结构的YOLOv3网络模型。
3.如权利要求1所述的卷积神经网络全INT8定点量化的方法,其特征在于,所述浮点型网络模型中若卷积层与Batchnorm层以及Scale层相连,则通过以下公式将Batchnorm层以及Scale层的权值合并至该卷积层的权值中:
其中,γ为BM层的缩放因子,β为BM层的偏移,x为卷积层输入,ε为预设的数,var为方差计算,mean为均值计算,w为融合后的权重,b为融合后的偏执,w为融合前卷积层的权重,b为融合前卷积层的偏执。
CN201911159756.XA 2019-11-22 2019-11-22 一种卷积神经网络全int8定点量化的方法 Active CN111260022B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911159756.XA CN111260022B (zh) 2019-11-22 2019-11-22 一种卷积神经网络全int8定点量化的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911159756.XA CN111260022B (zh) 2019-11-22 2019-11-22 一种卷积神经网络全int8定点量化的方法

Publications (2)

Publication Number Publication Date
CN111260022A CN111260022A (zh) 2020-06-09
CN111260022B true CN111260022B (zh) 2023-09-05

Family

ID=70950175

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911159756.XA Active CN111260022B (zh) 2019-11-22 2019-11-22 一种卷积神经网络全int8定点量化的方法

Country Status (1)

Country Link
CN (1) CN111260022B (zh)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111814955B (zh) * 2020-06-19 2024-05-31 浙江大华技术股份有限公司 神经网络模型的量化方法、设备及计算机存储介质
CN111814676B (zh) * 2020-07-08 2023-09-29 上海雪湖科技有限公司 基于kl散度的fpga离线量化方法
CN111985495B (zh) * 2020-07-09 2024-02-02 珠海亿智电子科技有限公司 模型部署方法、装置、系统及存储介质
CN111950715A (zh) * 2020-08-24 2020-11-17 云知声智能科技股份有限公司 基于自适应动态移位的8位整型全量化推理方法及装置
CN111950716A (zh) * 2020-08-25 2020-11-17 云知声智能科技股份有限公司 一种优化int8的量化方法及系统
CN112381205A (zh) * 2020-09-29 2021-02-19 北京清微智能科技有限公司 一种神经网络低比特量化方法
CN112232491A (zh) * 2020-10-29 2021-01-15 深兰人工智能(深圳)有限公司 基于卷积神经网络模型的特征提取方法和装置
CN112560677A (zh) * 2020-12-15 2021-03-26 深兰人工智能(深圳)有限公司 指纹识别方法及装置
CN112558887B (zh) * 2020-12-25 2023-09-22 北京百度网讯科技有限公司 用于多媒体数据处理的向量量化方法、装置及设备
CN112733964B (zh) * 2021-02-01 2024-01-19 西安交通大学 一种强化学习自动感知权重分布的卷积神经网络量化方法
CN112990440B (zh) * 2021-04-02 2023-09-19 安谋科技(中国)有限公司 用于神经网络模型的数据量化方法、可读介质和电子设备
CN113408695B (zh) * 2021-04-29 2024-05-31 开放智能机器(上海)有限公司 一种离线量化工具的精度调优方法
CN113408696B (zh) * 2021-05-17 2024-07-02 珠海亿智电子科技有限公司 深度学习模型的定点量化方法及装置
CN113222148B (zh) * 2021-05-20 2022-01-11 浙江大学 一种面向物料识别的神经网络推理加速方法
CN113971457B (zh) * 2021-10-29 2024-02-02 苏州浪潮智能科技有限公司 一种神经网络的计算性能优化方法及系统
CN115062777B (zh) * 2022-08-17 2022-11-22 珠海亿智电子科技有限公司 卷积神经网络的量化方法、量化装置、设备及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104604224A (zh) * 2012-09-04 2015-05-06 高通股份有限公司 可缩放视频译码中的变换基底调整
CN109840589A (zh) * 2019-01-25 2019-06-04 深兰人工智能芯片研究院(江苏)有限公司 一种在fpga上运行卷积神经网络的方法、装置及系统
CN109902745A (zh) * 2019-03-01 2019-06-18 成都康乔电子有限责任公司 一种基于cnn的低精度训练与8位整型量化推理方法
CN109993296A (zh) * 2019-04-01 2019-07-09 北京中科寒武纪科技有限公司 量化实现方法及相关产品
CN110135580A (zh) * 2019-04-26 2019-08-16 华中科技大学 一种卷积网络全整型量化方法及其应用方法
CN110245741A (zh) * 2018-03-09 2019-09-17 佳能株式会社 多层神经网络模型的优化和应用方法、装置及存储介质
CN110322008A (zh) * 2019-07-10 2019-10-11 杭州嘉楠耘智信息科技有限公司 一种基于残差卷积神经网络的量化处理方法及装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170132511A1 (en) * 2015-11-10 2017-05-11 Facebook, Inc. Systems and methods for utilizing compressed convolutional neural networks to perform media content processing
US10949736B2 (en) * 2016-11-03 2021-03-16 Intel Corporation Flexible neural network accelerator and methods therefor
US11556772B2 (en) * 2017-04-28 2023-01-17 Intel Corporation Incremental precision networks using residual inference and fine-grain quantization
US10713997B2 (en) * 2018-03-23 2020-07-14 Valve Corporation Controlling image display via mapping of pixel values to pixels

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104604224A (zh) * 2012-09-04 2015-05-06 高通股份有限公司 可缩放视频译码中的变换基底调整
CN110245741A (zh) * 2018-03-09 2019-09-17 佳能株式会社 多层神经网络模型的优化和应用方法、装置及存储介质
CN109840589A (zh) * 2019-01-25 2019-06-04 深兰人工智能芯片研究院(江苏)有限公司 一种在fpga上运行卷积神经网络的方法、装置及系统
CN109902745A (zh) * 2019-03-01 2019-06-18 成都康乔电子有限责任公司 一种基于cnn的低精度训练与8位整型量化推理方法
CN109993296A (zh) * 2019-04-01 2019-07-09 北京中科寒武纪科技有限公司 量化实现方法及相关产品
CN110135580A (zh) * 2019-04-26 2019-08-16 华中科技大学 一种卷积网络全整型量化方法及其应用方法
CN110322008A (zh) * 2019-07-10 2019-10-11 杭州嘉楠耘智信息科技有限公司 一种基于残差卷积神经网络的量化处理方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
陈皇.基于神经网络的语音识别声学模型压缩研究.《中国优秀硕士学位论文全文数据库 信息科技辑》.2019,I136-378. *

Also Published As

Publication number Publication date
CN111260022A (zh) 2020-06-09

Similar Documents

Publication Publication Date Title
CN111260022B (zh) 一种卷积神经网络全int8定点量化的方法
JP2633793B2 (ja) 映像データの可変長符号化/復号化方法及び装置
JP3017380B2 (ja) データ圧縮方法及び装置並びにデータ伸長方法及び装置
CN108960333B (zh) 基于深度学习的高光谱图像无损压缩方法
CN111985495A (zh) 模型部署方法、装置、系统及存储介质
CN113163203B (zh) 深度学习特征压缩和解压缩方法、系统及终端
JP2841765B2 (ja) 適応ビット割当て方法及び装置
US6697529B2 (en) Data compression method and recording medium with data compression program recorded therein
US6317063B1 (en) Inverse quantization using table with reduced size
KR101172983B1 (ko) 화상 압축 장치, 화상 복원 장치, 화상 압축 방법, 화상 복원 방법 및 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체
EP3373578A1 (en) Image difference detection device, method for detecting image difference, and computer program
RU2419246C1 (ru) Способ сжатия и восстановления неподвижных полутоновых видеоизображений
KR0169662B1 (ko) 다수의 부호책을 갖는 피티에스 벡터양자화 부호기
CN114077893A (zh) 一种压缩和解压缩神经网络模型的方法及设备
Siemonsma et al. Neural Depth Encoding for Compression-Resilient 3D Compression
Rai et al. Image compression using block truncation coding algorithm
CN112308216B (zh) 数据块的处理方法、装置及存储介质
Inoue et al. Colorization based image coding by using local correlation between luminance and chrominance
CN116384452B (zh) 动态网络模型构建方法、装置、设备及存储介质
CN112308199B (zh) 数据块的处理方法、装置及存储介质
CN101198040B (zh) 图像压缩的编码方法
CN114492721A (zh) 神经网络的混合精度量化方法
Lee et al. An analysis of isometry transforms in frequency domain for fast fractal encoding
JP2569850B2 (ja) 適応変換符号化の方法及び装置
JP3010651B2 (ja) 適応変換符号化の方法及び装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant