CN110659734B - 深度可分离卷积结构的低比特量化方法 - Google Patents

深度可分离卷积结构的低比特量化方法 Download PDF

Info

Publication number
CN110659734B
CN110659734B CN201910931215.8A CN201910931215A CN110659734B CN 110659734 B CN110659734 B CN 110659734B CN 201910931215 A CN201910931215 A CN 201910931215A CN 110659734 B CN110659734 B CN 110659734B
Authority
CN
China
Prior art keywords
quantization
neural network
convolutional neural
training
depth separable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910931215.8A
Other languages
English (en)
Other versions
CN110659734A (zh
Inventor
吴绮
李志远
陈刚
鲁华祥
边昳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Semiconductors of CAS
Original Assignee
Institute of Semiconductors of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Semiconductors of CAS filed Critical Institute of Semiconductors of CAS
Priority to CN201910931215.8A priority Critical patent/CN110659734B/zh
Publication of CN110659734A publication Critical patent/CN110659734A/zh
Application granted granted Critical
Publication of CN110659734B publication Critical patent/CN110659734B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

一种深度可分离卷积结构的低比特量化方法,该方法包括:选择量化系数对训练结束的深度可分离卷积神经网络的权重和特征图数据进行均匀量化;对训练结束的深度可分离卷积神经网络中的权重进行逐通道量化;利用特征图数据对深度可分离卷积神经网络进行逐层量化;基于训练集在训练结束的深度可分离卷积神经网络中进行前向运算,并对批量归一化层中的滑动平均参数进行更新;将更新后的批量归一化层中的滑动平均参数和可学习的参数融合到网络权重量化系数和偏置中,实现深度可分离卷积结构的低比特量化。本发明提供的深度可分离卷积结构的低比特量化方法无需任何有标签数据参与、计算简单且与传统方法相比提高了低比特量化后的准确率。

Description

深度可分离卷积结构的低比特量化方法
技术领域
本发明涉及深度学习和人工智能领域,尤其涉及用于一种深度可分离卷积结构的低比特量化方法。
背景技术
自2012年以来,深度卷积神经网络(CNN)在图像分类、图像分割、目标检测等计算机视觉领域获得广泛应用。在利用深度卷积神经网络解决问题时人们常常倾向于设计更为复杂的网络以期获得更高的性能。随之而来的是模型的复杂度极具提升,给嵌入式端模型的存储带来了很大的挑战,同时模型推理时间越来越长,延迟越来越大,给深度卷积神经网络在终端智能设备上的推广带来了很大的挑战。例如经典的网络模型VGG-16模型权值大小达到528M,在一般的智能手机上识别一张图像的时间高达3000+ms。
将深度卷积神经网络部署在嵌入式设备上能够大大减轻服务器的运算压力以及带宽压力。低比特量化是硬件上常用的一种提高乘加运算效率的方法,由于卷积神经网络的预测精度对参数变化不敏感,近年来低比特量化逐渐被用于硬件加速深度卷积神经网络。然而,直接对网络进行低比特量化会大大降低网络的精度,尤其是对于含有深度可分离卷积结构的网络,如MobileNet,ShuffleNet等,为了恢复网络精度,通常需要对量化后的网络重新进行训练并微调,耗费大量时间与资源。
发明内容
(一)要解决的技术问题
本发明的目的在于提供一种深度可分离卷积结构的低比特量化方法,以解决对网络进行低比特量化时网络精度下降的问题。
(二)技术方案
本发明提供了一种深度可分离卷积结构的低比特量化方法流程图,该方法包括以下步骤:
步骤1:选择量化系数对训练结束的深度可分离卷积神经网络的权重和特征图数据进行均匀量化,使得量化前后权重和特征图数据的最小均方误差最小;
步骤11:根据训练结束的深度可分离卷积神经网络中的权重、特征图数据分布和网络量化位数n,均匀构造量化系数表,构造方式为将数据绝对值的最大值均匀分为m份,第i个量化系si数值为:
Figure BDA0002218333670000021
假如深度可分离卷积神经网络中的权重、特征图数据非负,将这m个量化系数作为最终的量化系数表,否则,将m个量化系数的负值也加入表中作为最终的量化系数表;
步骤12:基于构造的量化系数表,分别对训练结束的深度可分离卷积神经网络的权重、特征图数据进行均匀量化,求解量化前后数据均方误差,并将最小均方误差对应的量化系数作为最终的量化系数,其中,对训练结束的深度可分离卷积神经网络中的权重、特征图数据采用的均匀量化方式如下:
首先将原始训练结束的深度可分离卷积神经网络中的权重、特征图数据除以量化系数并取整,取整方式为四舍五入,
Figure BDA0002218333670000022
其中,s表示量化系数,x表示训练结束的深度可分离卷积神经网络中的权重、特征图数据,y为计算的中间变量;
对量化后的深度可分离卷积神经网络中的权重、特征图数据根据网络量化位数进行截断,假如量化后的数据非负,截断方式为,
z=max(min(y,2n-1-1),0)
否则,截断方式为,
z=max(min(y,2n-1-1),-2n-1)
其中,z为计算的中间变量,n表示网络量化位数。
然后将截断后的数据乘以量化系数s作为原始数据的近似值,
xq=s*z
其中,xq表示原始数据的近似值。
步骤2:对训练结束的深度可分离卷积神经网络中的权重进行逐通道量化。
步骤21:将训练结束的深度可分离卷积神经网络中的四维权重张量按照输出通道分组。
在本发明中,采用的深度可分离卷积神经网络如图2所示,包括逐通道卷积(Depthwise Convolution)和逐点卷积(Pointwise Convolution)。
步骤22:利用一维线性搜索算法,对每个通道的三维权重张量分别选择合适的量化系数;
步骤23:利用上述量化系数,分别对每个通道的三维权重张量进行量化,并将量化系数和量化过程中截断后的n位整数存储下来。
步骤3:输入图片,在训练结束的深度可分离卷积神经网络中进行前向运算,得到深度可分离卷积神经网络的特征图数据,并利用特征图数据对深度可分离卷积神经网络进行逐层量化;
步骤31:将少量与所述深度可分离卷积神经网络应用场景相似的图片按照网络输入要求进行处理并送入网络进行前向运算,得到网络中每一层输出特征图数据;
在本发明中,为保证网络中每一层输出特征图数据分布范围具有代表性,用于前向运算的图片应该与网络实际应用场景接近,并且保证应用场景丰富,例如用于目标识别的分类网络,图片种类应该尽可能丰富,避免局限于少数类别,影响网络量化系数的估计。
步骤32:利用一维线性搜索算法,对深度可分离卷积神经网络中每一层特征图数据分别选择合适的量化系数,并将量化系数存储下来。
步骤4:基于训练集在训练结束的深度可分离卷积神经网络中进行前向运算,并对批量归一化层中的滑动平均参数进行更新。
步骤41:将收集得到的少量数据集作为训练集,不需要对数据提供标签。对其进行在线数据增广,构建批次大小为512的数据队列,其中采用的数据增广方式有:随机裁剪、随机翻转、随机亮度变化、随机饱和度变化、随机色调变化或随机透明度变化。
步骤42:将上述数据队列中的数据送入训练结束的深度可分离卷积神经网络中,在训练结束的深度可分离卷积神经网络中进行前向运算,并更新训练结束的深度可分离卷积神经网络中批量归一化层中的滑动平均参数,包括均值与方差。
步骤5:将更新后的批量归一化层中的滑动平均参数和可学习的参数融合到训练结束的深度可分离卷积神经网络的权重量化系数和偏置中,实现深度可分离卷积结构的低比特量化。进行参数融合采用以下公式实现:
Figure BDA0002218333670000041
Figure BDA0002218333670000042
其中,s表示深度可分离卷积神经网络的权重量化系数,b表示偏置,γ和β表示批量归一化层中可学习的参数,μ和σ表示当前节点的均值和标准差,训练时可通过滑动平均得到,ε为防止除零产生错误而设置的一个小数,通常设置为10-5
(三)有益效果
1、本发明提供的深度可分离卷积结构的低比特量化方法,与传统方法相比,由于对深度可分离卷积神经网络中的权重进行逐通道量化、利用特征图数据对深度可分离卷积神经网络进行逐层量化、对深度可分离卷积神经网络中批量归一化层中的滑动平均参数进行更新的操作,使得本发明低比特量化后网络的准确率大幅提升;
2、本发明提供的深度可分离卷积结构的低比特量化方法,是在训练结束后完成,无需任何有标签数据参与,减少了收集数据的工作量;
3、本发明提供的深度可分离卷积结构的低比特量化方法,在实现过程没有引入新的计算困难,便于实现和应用。
附图说明
图1是依照本发明实施例的深度可分离卷积结构的低比特量化方法流程图;
图2是依照本发明实施例的深度可分离卷积神经网络示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明进一步详细说明。
如图1所示,图1是依照本发明实施例的深度可分离卷积结构的低比特量化方法流程图,该方法包括以下步骤:
步骤1:选择量化系数对训练结束的深度可分离卷积神经网络的权重和特征图数据进行均匀量化,使得量化前后权重和特征图数据的最小均方误差最小;
步骤2:对训练结束的深度可分离卷积神经网络中的权重进行逐通道量化;
步骤3:输入图片,在训练结束的深度可分离卷积神经网络中进行前向运算,得到深度可分离卷积神经网络的特征图数据,并利用特征图数据对深度可分离卷积神经网络进行逐层量化;
步骤4:基于训练集在训练结束的深度可分离卷积神经网络中进行前向运算,并对批量归一化层中的滑动平均参数进行更新;
步骤5:将更新后的批量归一化层中的滑动平均参数和可学习的参数融合到网络权重量化系数和偏置中,实现深度可分离卷积结构的低比特量化。
结合实施例,以下分别对本发明的主要步骤进行详细说明。
步骤1中所述选择量化系数对训练结束的深度可分离卷积神经网络的权重和特征图数据进行均匀量化,使得量化前后权重和特征图数据的最小均方误差最小,具体包括:
步骤11:根据训练结束的深度可分离卷积神经网络中的权重、特征图数据分布和网络量化位数n,均匀构造量化系数表,构造方式为将数据绝对值的最大值均匀分为m份,第i个量化系si数值为:
Figure BDA0002218333670000061
假如深度可分离卷积神经网络中的权重、特征图数据非负,将这m个量化系数作为最终的量化系数表,否则,将m个量化系数的负值也加入表中作为最终的量化系数表;
步骤12:基于构造的量化系数表,分别对训练结束的深度可分离卷积神经网络的权重、特征图数据进行均匀量化,求解量化前后数据均方误差,并将最小均方误差对应的量化系数作为最终的量化系数,其中,对训练结束的深度可分离卷积神经网络中的权重、特征图数据采用的均匀量化方式如下:
首先将原始训练结束的深度可分离卷积神经网络中的权重、特征图数据除以量化系数并取整,取整方式为四舍五入,
Figure BDA0002218333670000062
其中,s表示量化系数,x表示训练结束的深度可分离卷积神经网络中的权重、特征图数据,少为计算的中间变量;
对量化后的深度可分离卷积神经网络中的权重、特征图数据根据网络量化位数进行截断,假如量化后的数据非负,截断方式为,
z=max(min(y,2n-1-1),0)
否则,截断方式为,
z=max(min(y,2n-1-1),-2n-1)
其中,z为计算的中间变量,n表示网络量化位数。
然后将截断后的数据乘以量化系数s作为原始数据的近似值,
xq=s*z
其中,xq表示原始数据的近似值。
步骤2中所述对训练结束的深度可分离卷积神经网络中的权重进行逐通道量化,具体包括:
步骤21:将训练结束的深度可分离卷积神经网络中的四维权重张量按照输出通道分组。
在本发明中,采用的深度可分离卷积神经网络如图2所示,包括逐通道卷积(Depthwise Convolution)和逐点卷积(Pointwise Convolution)。
步骤22:利用一维线性搜索算法,对每个通道的三维权重张量分别选择合适的量化系数;
步骤23:利用上述量化系数,分别对每个通道的三维权重张量进行量化,并将量化系数和量化过程中截断后的n位整数存储下来。
步骤3中所述输入图片,在训练结束的深度可分离卷积神经网络中进行前向运算,得到深度可分离卷积神经网络的特征图数据,并利用特征图数据对深度可分离卷积神经网络进行逐层量化,具体包括:
步骤31:将少量与所述深度可分离卷积神经网络应用场景相似的图片按照网络输入要求进行处理并送入网络进行前向运算,得到网络中每一层输出特征图数据;
在本发明中,为保证网络中每一层输出特征图数据分布范围具有代表性,用于前向运算的图片应该与网络实际应用场景接近,并且保证应用场景丰富,例如用于目标识别的分类网络,图片种类应该尽可能丰富,避免局限于少数类别,影响网络量化系数的估计。
步骤32:利用一维线性搜索算法,对深度可分离卷积神经网络中每一层特征图数据分别选择合适的量化系数,并将量化系数存储下来。
步骤4中所述基于训练集在训练结束的深度可分离卷积神经网络中进行前向运算,并对批量归一化层中的滑动平均参数进行更新,具体包括:
步骤41:将收集得到的少量数据集作为训练集,不需要对数据提供标签。对其进行在线数据增广,构建批次大小为512的数据队列,其中采用的数据增广方式有:随机裁剪、随机翻转、随机亮度变化、随机饱和度变化、随机色调变化或随机透明度变化。
步骤42:将上述数据队列中的数据送入训练结束的深度可分离卷积神经网络中,在训练结束的深度可分离卷积神经网络中进行前向运算,并更新训练结束的深度可分离卷积神经网络中批量归一化层中的滑动平均参数,包括均值与方差。
步骤5中所述将更新后的批量归一化层中的滑动平均参数和可学习的参数融合到训练结束的深度可分离卷积神经网络的权重量化系数和偏置中,采用以下公式实现:
Figure BDA0002218333670000081
Figure BDA0002218333670000082
其中,s表示深度可分离卷积神经网络的权重量化系数,b表示偏置,γ和β表示批量归一化层中可学习的参数,μ和σ表示当前节点的均值和标准差,训练时可通过滑动平均得到,ε为防止除零产生错误而设置的一个小数,通常设置为10-5。在常用图像分类数据库ImageNet上训练得到的MobileNet进行4bit量化,直接对网络进行量化后的分类准确率为0.48%(接近于0),采用本发明提供的方法对MobileNet进行量化后准确率提升至52.184%,准确率得到了大幅度提升。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种深度可分离卷积结构的低比特量化方法,其特征在于,该方法包括:
选择量化系数对训练结束的深度可分离卷积神经网络的权重和特征图数据进行均匀量化,使得量化前后权重和特征图数据的最小均方误差最小;
对训练结束的深度可分离卷积神经网络中的权重进行逐通道量化;
输入图片,在训练结束的深度可分离卷积神经网络中进行前向运算,得到深度可分离卷积神经网络的特征图数据,并利用特征图数据对深度可分离卷积神经网络进行逐层量化;
基于训练集在训练结束的深度可分离卷积神经网络中进行前向运算,并对批量归一化层中的滑动平均参数进行更新;以及
将更新后的批量归一化层中的滑动平均参数和可学习的参数融合到网络权重量化系数和偏置中,实现深度可分离卷积结构的低比特量化。
2.根据权利要求1所述的深度可分离卷积结构的低比特量化方法,其特征在于,所述选择量化系数对训练结束的深度可分离卷积神经网络的权重和特征图数据进行均匀量化,使得量化前后权重和特征图数据的最小均方误差最小,包括:
根据训练结束的深度可分离卷积神经网络中的权重x、特征图数据分布和网络量化位数n,均匀构造量化系数表,构造方式为将数据绝对值的最大值均匀分为m份,第i个量化系数值si为:
Figure FDA0002218333660000011
假如训练结束的深度可分离卷积神经网络中的权重x、特征图数据非负,将这m个量化系数作为最终的量化系数表,否则,将m个量化系数的负值也加入表中作为最终的量化系数表;
基于构造的量化系数表,分别对训练结束的深度可分离卷积神经网络中的权重、特征图数据进行均匀量化,求解量化前后数据均方误差,并将最小均方误差对应的量化系数作为最终的量化系数。
3.根据权利要求2所述的深度可分离卷积结构的低比特量化方法,其特征在于,所述对训练结束的深度可分离卷积神经网络中的权重、特征图数据进行均匀量化包括:
首先将原始的训练结束的深度可分离卷积神经网络中的权重、特征图数据除以量化系数并取整,取整方式为四舍五入,
Figure FDA0002218333660000021
其中,s表示量化系数,x表示训练结束的深度可分离卷积神经网络中的权重、特征图数据,y为计算的中间变量;
对量化后的深度可分离卷积神经网络中的权重、特征图数据根据网络量化位数进行截断,假如量化后的数据非负,截断方式为:
z=max(min(y,2n-1-1),0)
否则,截断方式为,
z=max(min(y,2n-1-1),-2n-1)
其中,z为计算的中间变量,n表示网络量化位数;
最后将截断后的数据乘以量化系数s作为原始数据的近似值:
xq=s*z
其中,xq表示原始数据的近似值。
4.根据权利要求1所述的深度可分离卷积结构的低比特量化方法,其特征在于,所述对训练结束的深度可分离卷积神经网络中的权重进行逐通道量化,包括:
将训练结束的深度可分离卷积神经网络中的四维权重张量按照输出通道分组;
利用一维线性搜索算法,对每个通道的三维权重张量分别选择量化系数;以及
利用上述量化系数,分别对每个通道的三维权重张量进行量化,并将量化系数和量化过程中截断后的n位整数存储下来。
5.根据权利要求1所述的深度可分离卷积结构的低比特量化方法,其特征在于,所述输入图片,在训练结束的深度可分离卷积神经网络中进行前向运算,得到深度可分离卷积神经网络的特征图数据,并利用特征图数据对深度可分离卷积神经网络进行逐层量化,包括:
将数据集中的图片按照网络输入要求进行处理并送入深度可分离卷积神经网络的输入端,进行深度可分离卷积神经网络的前向计算,得到深度可分离卷积神经网络中每一层输出特征图数据;以及
利用一维线性搜索算法,对深度可分离卷积神经网络中每一层特征图数据分别选择量化系数,并将量化系数存储下来。
6.根据权利要求1所述的深度可分离卷积结构的低比特量化方法,其特征在于,所述基于训练集在训练结束的深度可分离卷积神经网络中进行前向运算,并对批量归一化层中的滑动平均参数进行更新,包括:
将收集得到的数据集作为训练集,不需要对数据提供标签,对训练集进行在线数据增广,构建批次大小为512的数据队列;以及
将上述数据队列中的数据送入训练结束的深度可分离卷积神经网络中,在训练结束的深度可分离卷积神经网络中进行前向运算,并更新训练结束的深度可分离卷积神经网络中批量归一化层中的滑动平均参数,包括均值与方差。
7.根据权利要求6所述的深度可分离卷积结构的低比特量化方法,其特征在于,所述对训练集进行在线数据增广,采用的方式包括:随机裁剪、随机翻转、随机亮度变化、随机饱和度变化、随机色调变化或随机透明度变化。
8.根据权利要求1所述的深度可分离卷积结构的低比特量化方法,其特征在于,将更新后的批量归一化层中的滑动平均参数和可学习的参数融合到训练结束的深度可分离卷积神经网络的权重量化系数和偏置中,采用以下公式实现:
Figure FDA0002218333660000031
Figure FDA0002218333660000032
其中,s表示深度可分离卷积神经网络的权重量化系数,b表示偏置,γ和β表示批量归一化层中可学习的参数,μ和σ表示当前节点的均值和标准差,训练时可通过滑动平均得到,ε为防止除零产生错误而设置的一个小数,设置为10-5
CN201910931215.8A 2019-09-27 2019-09-27 深度可分离卷积结构的低比特量化方法 Active CN110659734B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910931215.8A CN110659734B (zh) 2019-09-27 2019-09-27 深度可分离卷积结构的低比特量化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910931215.8A CN110659734B (zh) 2019-09-27 2019-09-27 深度可分离卷积结构的低比特量化方法

Publications (2)

Publication Number Publication Date
CN110659734A CN110659734A (zh) 2020-01-07
CN110659734B true CN110659734B (zh) 2022-12-23

Family

ID=69039749

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910931215.8A Active CN110659734B (zh) 2019-09-27 2019-09-27 深度可分离卷积结构的低比特量化方法

Country Status (1)

Country Link
CN (1) CN110659734B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111368911B (zh) * 2020-03-03 2021-03-02 腾讯科技(深圳)有限公司 一种图像分类方法、装置和计算机可读存储介质
CN111582229A (zh) * 2020-05-21 2020-08-25 中国科学院空天信息创新研究院 一种网络自适应半精度量化的图像处理方法和系统
CN113762495A (zh) * 2020-06-04 2021-12-07 合肥君正科技有限公司 一种提高卷积神经网络模型低比特量化模型精度的方法
CN113762499B (zh) * 2020-06-04 2024-04-02 合肥君正科技有限公司 一种分通道量化权重的方法
CN112114874B (zh) * 2020-08-20 2021-10-15 北京百度网讯科技有限公司 数据处理方法、装置、电子设备和存储介质
CN112861602B (zh) * 2020-12-10 2023-05-26 华南理工大学 基于深度可分离卷积的人脸活体识别模型压缩和移植方法
CN112488060B (zh) * 2020-12-18 2023-08-08 北京百度网讯科技有限公司 目标检测方法、装置、设备和介质
CN113011571B (zh) * 2021-03-03 2022-09-20 华南理工大学 基于Transformer模型的INT8离线量化及整数推断方法
CN114662679B (zh) * 2022-05-20 2022-09-06 深圳比特微电子科技有限公司 一种基于神经网络的数据处理方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107239826A (zh) * 2017-06-06 2017-10-10 上海兆芯集成电路有限公司 在卷积神经网络中的计算方法及装置
CN108805267A (zh) * 2018-05-28 2018-11-13 重庆大学 用于卷积神经网络硬件加速的数据处理方法
WO2019009897A1 (en) * 2017-07-06 2019-01-10 Google Llc SYSTEMS AND METHODS FOR COMPRESSION AND DISTRIBUTION OF MACHINE LEARNING MODELS
CN109784488A (zh) * 2019-01-15 2019-05-21 福州大学 一种适用于嵌入式平台的二值化卷积神经网络的构建方法
CN109902745A (zh) * 2019-03-01 2019-06-18 成都康乔电子有限责任公司 一种基于cnn的低精度训练与8位整型量化推理方法
CN110059822A (zh) * 2019-04-24 2019-07-26 苏州浪潮智能科技有限公司 一种基于通道分组低比特神经网络参数压缩量化方法
CN110135580A (zh) * 2019-04-26 2019-08-16 华中科技大学 一种卷积网络全整型量化方法及其应用方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107239826A (zh) * 2017-06-06 2017-10-10 上海兆芯集成电路有限公司 在卷积神经网络中的计算方法及装置
WO2019009897A1 (en) * 2017-07-06 2019-01-10 Google Llc SYSTEMS AND METHODS FOR COMPRESSION AND DISTRIBUTION OF MACHINE LEARNING MODELS
CN108805267A (zh) * 2018-05-28 2018-11-13 重庆大学 用于卷积神经网络硬件加速的数据处理方法
CN109784488A (zh) * 2019-01-15 2019-05-21 福州大学 一种适用于嵌入式平台的二值化卷积神经网络的构建方法
CN109902745A (zh) * 2019-03-01 2019-06-18 成都康乔电子有限责任公司 一种基于cnn的低精度训练与8位整型量化推理方法
CN110059822A (zh) * 2019-04-24 2019-07-26 苏州浪潮智能科技有限公司 一种基于通道分组低比特神经网络参数压缩量化方法
CN110135580A (zh) * 2019-04-26 2019-08-16 华中科技大学 一种卷积网络全整型量化方法及其应用方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Automatic quantification of the LV function and mass: A deep learning approach for cardiovascular MRI;Curiale,AH等;《Computer Methods and Programs in Biomedicine》;20190228;第37-50页 *
可重构神经网络加速器设计关键技术研究;梁爽;《中国博士学位论文全文数据库 (信息科技辑)》;20190215;第37-49页 *

Also Published As

Publication number Publication date
CN110659734A (zh) 2020-01-07

Similar Documents

Publication Publication Date Title
CN110659734B (zh) 深度可分离卷积结构的低比特量化方法
CN111950723B (zh) 神经网络模型训练方法、图像处理方法、装置及终端设备
CN110298394B (zh) 一种图像识别方法和相关装置
CN113361710B (zh) 学生模型训练方法、图片处理方法、装置及电子设备
EP3620982B1 (en) Sample processing method and device
CN111242180A (zh) 一种基于轻量化卷积神经网络的图像识别方法及系统
CN116523079A (zh) 一种基于强化学习联邦学习优化方法及系统
CN116701692B (zh) 一种图像生成方法、装置、设备及介质
CN110647990A (zh) 基于灰色关联分析的深度卷积神经网络模型的裁剪方法
CN115331069A (zh) 一种基于联邦学习的个性化图像分类模型训练方法
CN114239861A (zh) 基于多教师联合指导量化的模型压缩方法及系统
CN112598062A (zh) 一种图像识别方法和装置
CN114943335A (zh) 一种三值神经网络逐层优化方法
CN112200275B (zh) 人工神经网络的量化方法及装置
CN113919479B (zh) 一种提取数据特征的方法和相关装置
CN114139678A (zh) 卷积神经网络量化方法、装置、电子设备和存储介质
CN109089125B (zh) 一种视频编码中的dct系数分布特征模型优化方法
CN113743593A (zh) 神经网络量化方法、系统、存储介质及终端
CN113033804A (zh) 一种面向遥感图像的卷积神经网络压缩方法
WO2020168526A1 (zh) 图像编码方法、设备及计算机可读存储介质
CN113723161A (zh) 神经网络模型的训练方法、存储介质及电子设备
Shin et al. Effective data structure for smart big data systems applying an expectation-maximization algorithm
US20230135021A1 (en) Method for training feature quantization model, feature quantization method, data query methods and electronic devices
EP4007173A1 (en) Data storage method, and data acquisition method and apparatus therefor
CN113313179B (zh) 一种基于l2p范数鲁棒最小二乘法的噪声图像分类方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant