CN109711532A - 一种针对硬件实现稀疏化卷积神经网络推断的加速方法 - Google Patents

一种针对硬件实现稀疏化卷积神经网络推断的加速方法 Download PDF

Info

Publication number
CN109711532A
CN109711532A CN201811486547.1A CN201811486547A CN109711532A CN 109711532 A CN109711532 A CN 109711532A CN 201811486547 A CN201811486547 A CN 201811486547A CN 109711532 A CN109711532 A CN 109711532A
Authority
CN
China
Prior art keywords
beta pruning
weight
sparse
neural networks
convolutional neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811486547.1A
Other languages
English (en)
Other versions
CN109711532B (zh
Inventor
陆生礼
庞伟
吴成路
范雪梅
舒程昊
梁彪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanbao Sci & Tech Co Ltd Nanjing
Southeast University - Wuxi Institute Of Technology Integrated Circuits
Southeast University
Original Assignee
Sanbao Sci & Tech Co Ltd Nanjing
Southeast University - Wuxi Institute Of Technology Integrated Circuits
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanbao Sci & Tech Co Ltd Nanjing, Southeast University - Wuxi Institute Of Technology Integrated Circuits, Southeast University filed Critical Sanbao Sci & Tech Co Ltd Nanjing
Priority to CN201811486547.1A priority Critical patent/CN109711532B/zh
Publication of CN109711532A publication Critical patent/CN109711532A/zh
Application granted granted Critical
Publication of CN109711532B publication Critical patent/CN109711532B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Data Exchanges In Wide-Area Networks (AREA)
  • Complex Calculations (AREA)

Abstract

本发明公开一种针对硬件实现稀疏化卷积神经网络推断的加速方法,包括面对稀疏硬件加速架构的分组剪枝参数确定方法、针对稀疏硬件加速架构的分组剪枝训练方法和针对稀疏化卷积神经网络前向推断的部署方法:根据硬件架构中乘法器数量确定分组剪枝的分组长度和剪枝率,基于量级裁剪方式将压缩率以外的权值进行裁剪,通过增量训练方式提升剪枝后的网络准确率及压缩率,剪枝过的网络经微调后保存非剪枝位置的权值和索引参数并送入硬件架构下的计算单元中,计算单元同时获取分组长度的激活值完成稀疏网络前向推断。本发明基于硬件架构出发设定算法层面的剪枝参数与剪枝策略,有益于降低稀疏加速器的逻辑复杂度提高稀疏加速器前向推断的整体效率。

Description

一种针对硬件实现稀疏化卷积神经网络推断的加速方法
技术领域
本发明属于电子信息和深度学习技术领域,特别涉及一种针对硬件实现稀疏化卷积神经网络推断的加速方法。
背景技术
神经网络模型是对生物神经网络学习系统的数学表达。近些年来,随着计算能力的加强和大规模数据集的产生,神经网络模型被越来越多的应用在图像分类,物体检测等机器视觉领域中。
然而,从利用神经网络模型解决问题过程来看,人们常常倾向于设计更深更庞大的卷积神经网络(convolutional neural network,简称CNN)收集更多的数据以期获得更好的效果。但随着模型的复杂度增加,模型参数越来越多,模型规模和需要的计算浮点数也越来越大,这对硬件资源(内存、CPU利用率)带来了更高的要求,不利于模型在存储空间、续航受限的设备上部署使用。
针对神经网络模型的特点,对神经网络模型进行压缩,剔除冗余信息,是解决上述问题的一类方法。即将一些不重要的权重强制置零,从而使整个网络稀疏化。目前已经提出了许多剪枝算法,但是主要集中于被剪掉的权重数量上,很少会考虑剪枝后的整体网络在ASIC或FPGA加速器架构上部署的复杂度。当被剪枝后的网络在硬件加速器平台上运行时,会出现如内部缓冲区不对齐和负载不平衡等问题,使整个加速器架构低效化。
发明内容
本发明的目的,在于提供一种针对硬件实现稀疏化卷积神经网络推断的加速方法,使得硬件架构对应于同时获取的激活的每个权重组保持相同数量的权重,提高整体硬件平台计算效率,降低稀疏加速器的逻辑复杂度。
为了达成上述目的,本发明的解决方案是:
一种针对硬件实现稀疏化卷积神经网络推断的加速方法,首先确定分组剪枝参数,然后基于确定的参数训练卷积神经网络,最后构建针对稀疏化卷积神经网络前向推断的整体架构。
上述确定分组剪枝参数的方法是:
S1:确定分组剪枝的分组长度g,剪枝方向可选择为滤波器方向或通道方向。所述稀疏计算单元的获取组长度g可以与乘法器个数Nmul相同,所述激活值与权值获取组的长度决定稀疏卷积网络加速器的内部缓冲区大小。
S2:根据预期设定的压缩率Δ=1-p/g定义,其中p/g为所述分组长度中待剪枝权值占整体分组长度的比值,确定相同分组长度下的非剪枝权值数,经本发明提出的分组剪枝手段最终保留剪枝后非剪枝权值与其索引,所述非剪枝权值的索引数量决定着硬件计算单元实际需要的乘法器数量和计算周期。
S3:基于量级的裁剪方式,根据权值的大小来评判其重要性,确定待剪枝的获取组剪枝阈值ε。由S1、S2确定所述分组长度中全部g个权值经过量级排序后挑选前p个较小权值进行裁剪。
上述训练卷积神经网络的方法是:
T1:按照正常流程训练一个卷积神经网络如AlexNet;
T2:确定一个待剪枝的层后据所述S1、S2和S3设定的参数方法划分待修剪的权值获取组,设定待裁剪阈值或比例;
T3:加入掩码矩阵,其中掩码矩阵与权值参数矩阵的尺寸保持一致,其每个位置上取值只为0或1,分别表示此位置是否裁剪,参数在计算的之前先乘该掩码矩阵。所述掩码矩阵位为1的参数值将继续训练通过反向传播调整,而掩码矩阵位为0的部分因为输出始终为0则不对后续部分产生影响;
T4:重复T2、T3,逐步递增待剪枝的层数直到一个完整的网络各层剪枝完成;
T5:对剪枝后的网络按正常训练流程重新训练微调网络精度。
进一步地,在T2过程中,p个较小权重在权值获取组中被剪枝掉。若所述获取组中待剪枝数p设定过大时,同时修剪每组中幅度最小的p个目标权重数将对剪枝后的网络精度带来较大损失。因此本发明针对选定较大剪枝率情形设定如下方案:同时设置初始剪枝数p0和增量数p+,增量数p+使用过程中所述获取组中仅将一个权值量级最小的权值剪枝掉,经过一段时间的再训练后,接着选择并修剪一个再训练量级最小的权值,直到达到目标数量p。
上述构建针对稀疏化卷积神经网络前向推断的整体架构的方法是:
整体硬件结构包括中央控制模块、片上SRAM、PE阵列和ReLU模块等,中央控制模块协调SRAM、PE阵列和ReLU模块间的数据传输,特征图SRAM用于存放中间部分和计算结果、输入特征图以及输出特征图,权值SRAM内部存储剪枝稀疏后的卷积核权值及其索引坐标,片上SRAM和PE阵列通过全局总线进行通信,ReLU模块完成卷积计算后的功能计算如激活和池化等。
基于上述部署方案,所述PE阵列下的单个PE计算单元通过全局总线获取批次的输入特征图和分组剪枝后的稀疏权值,稀疏权值的存取包括未剪枝数及其对应的索引位置,所述PE单元中的选择器通过索引位置将对应分组长度g的特征图挑选出来乘加操作。
采用上述方案后,本发明中的参数选择与硬件加速架构直接相关,执行剪枝后可使同时获取激活值的每个权值获取组保持相同数量的权值符合硬件架构设计思想。此外,按不同的剪枝基准轴实行本发明可以满足绝大多数稀疏硬件加速架构。本发明基于硬件架构出发设定剪枝参数与剪枝策略,故有益于降低稀疏加速器的逻辑复杂度,提高稀疏加速器前向推断的整体效率。
附图说明
图1是本发明实施例基于卷积层通道方向的分组剪枝方案示意图;
图2是本发明实施例基于全连接层的分组剪枝方案示意图;
图3是本发明实施例分组剪枝训练方法流程示意图;
图4是本发明实施例卷积神经网络稀疏加速硬件架构系统结构简图;
图5是本发明实施例分组剪枝后的权值获取组与对应激活值对应关系图;
图6是本发明实施例剪枝后在硬件稀疏加速架构运算单元下运算示意图。
具体实施方式
以下将结合附图,对本发明的技术方案及有益效果进行详细说明。
本发明提供一种针对硬件实现稀疏化卷积神经网络推断的加速方法,包括面对稀疏硬件加速架构的分组剪枝参数确定方法、针对稀疏硬件加速架构的分组剪枝训练方法和针对稀疏化卷积神经网络前向推断的部署方法。
如图1所示为本发明提出的分组剪枝方案在卷积层通道方向实现示意图,这里以批次获取激活值数Nm=16,分组长度g=8,压缩率Δ=0.25为例具体说明本发明的工作方法。
S1:结合图1,由批处理激活值获取组个数Nm=16确定分组剪枝的分组长度g=8,剪枝方向选择为通道方向,所述激活值与权值获取组的长度决定稀疏卷积网络加速器的内部缓冲区大小,参照图6,加速器计算单元中的激活值缓冲区大小最终定为8。图2所示为本发明提出的分组剪枝方案在全连接层实现示意图,上述参数选定对网络全连接层依然适用。
S2:根据预期设定的压缩率Δ=1-p/g定义,其中p/g为所述分组长度中待剪枝权值占整体分组长度的比值,确定相同分组长度下的非剪枝权值数为2,经本发明提出的分组剪枝方法最终保留剪枝后非剪枝权值与其索引,所述非剪枝权值的索引数量决定着硬件计算单元实际需要的乘法器数量和计算周期,参照图6,加速器计算单元中的权值缓冲区大小定为2。
S3:剪枝的裁剪方式选择基于量级的裁剪方式,根据权值的大小来评判其重要性,确定待剪枝的获取组剪枝阈值ε。由上述分组长度中全部g个权值经过量级排序后挑选前p个较小权值进行裁剪。
如图3所示,本发明将所述确定的剪枝参数应用于分组剪枝方法训练上,具体如下:
T1:按照正常流程训练一个卷积神经网络如AlexNet;
T2:确定一个待剪枝的层后,根据步骤S1、S2和S3设定的参数方法划分待修剪的权值获取组,设定待裁剪阈值或比例;
T3:加入掩码矩阵,其中掩码矩阵与权值参数矩阵的尺寸保持一致,其每个位置上取值只为0或1,分别表示此位置是否裁剪,参数在计算的之前先乘该掩码矩阵。所述掩码矩阵位为1的参数值将继续训练通过反向传播调整,而掩码矩阵位为0的部分因为输出始终为0则不对后续部分产生影响;
T4:重复T2、T3,逐步递增待剪枝的层数直到一个完整的网络各层剪枝完成;
T5:对剪枝后的网络按正常训练流程重新训练微调网络精度;
进一步地,在T2过程中,p个较小权重在权值获取组中被剪枝掉。若所述获取组中待剪枝数p设定过大时,同时修剪每组中幅度最小的p个目标权重数将对剪枝后的网络精度带来较大损失。因此本发明针对选定较大剪枝率(本实施例中取75%为阈值)情形设定如下方案:当卷积层剪枝率大于75%时,同时设置初始剪枝数p0和增量数p+,增量数p+使用过程中所述获取组中仅将一个权值量级最小的权值剪枝掉,经过一段时间的再训练后,接着选择并修剪一个再训练量级最小的权值,直到达到目标数量p。
如图4,本发明结合所述分组剪枝结果,提出了一种针对稀疏化卷积神经网络前向推断的部署方法,具体如下:
整体硬件结构包括中央控制模块、片上SRAM、PE阵列和ReLU模块等,中央控制模块协调SRAM、PE阵列和ReLU模块间的数据传输,特征图SRAM用于存放中间部分和计算结果、输入特征图以及输出特征图,权值SRAM内部存储剪枝稀疏后的卷积核权值及其索引坐标,片上SRAM和PE阵列通过全局总线进行通信,ReLU模块完成卷积计算后的功能计算如激活和池化等。
如图5所示为分组剪枝后的权值获取组与对应激活值对应关系,图中的加速器计算单元同时获取和处理由沿通道轴的Ngroup=8个激活组成的激活获取组。经分组剪枝后的权值获取组下保证非零权值的个数为Nnzero=2,图5中深灰色区域为未被剪掉的权值,送入加速器中的包含未被剪枝的权值和其对应于权值获取组下的位置索引。
如图6,所述PE阵列下的单个PE计算单元通过全局总线获取批次的输入特征图和分组剪枝后的稀疏权值,稀疏权值的存取包括未剪枝数及其对应的索引位置,图中灰色区域指代具体的索引位置,所述PE单元中的选择器通过索引位置将分组长度g对应位置上的特征图挑选出来乘加操作,后送入特征图SRAM或ReLU模块中完成一次计算。
以上实施例仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明保护范围之内。

Claims (8)

1.一种针对硬件实现稀疏化卷积神经网络推断的加速方法,其特征在于:首先确定分组剪枝参数,然后基于确定的参数训练卷积神经网络,最后构建针对稀疏化卷积神经网络前向推断的整体架构。
2.如权利要求1所述的加速方法,其特征在于:所述确定分组剪枝参数的方法是:
S1:确定分组剪枝的分组长度g,激活值与权值获取组的长度决定稀疏卷积网络加速器的内部缓冲区大小;
S2:根据预期设定的压缩率Δ=1-p/g定义,其中p/g为分组长度中待剪枝权值占整体分组长度的比值,确定相同分组长度下的非剪枝权值数;
S3:基于量级的裁剪方式,根据权值的大小来评判其重要性,确定待剪枝的获取组剪枝阈值ε;由步骤S1-S2确定分组长度中全部g个权值经过量级排序后挑选前p个较小权值进行裁剪。
3.如权利要求2所述的加速方法,其特征在于:所述步骤S1中,剪枝方向为滤波器方向或通道方向。
4.如权利要求2所述的加速方法,其特征在于:所述步骤S1中,稀疏计算单元的获取组长度g与乘法器个数Nmul相同。
5.如权利要求1所述的加速方法,其特征在于:所述训练卷积神经网络的方法是:
T1:按照正常流程训练一个卷积神经网络;
T2:确定一个待剪枝的层后,根据确定分组剪枝参数的方法划分待修剪的权值获取组,设定待裁剪阈值或比例;
T3:加入掩码矩阵,其中掩码矩阵与权值参数矩阵的尺寸保持一致,其每个位置上取值只为0或1,分别表示此位置是否裁剪,参数在计算之前先乘该掩码矩阵:掩码矩阵位为1的参数值将继续训练通过反向传播调整,而掩码矩阵位为0的部分因为输出始终为0则不对后续部分产生影响;
T4:重复步骤T2-T3,逐步递增待剪枝的层数直到一个完整的网络各层剪枝完成;
T5:对剪枝后的网络按正常训练流程重新训练微调网络精度。
6.如权利要求5所述的加速方法,其特征在于:所述步骤T2中,卷积层剪枝率高于阈值时,同时设置初始剪枝数p0和增量数p+,增量数p+使用过程中获取组中仅将一个权值量级最小的权值剪枝掉,经过一段时间再训练后,接着选择并修剪一个再训练量级最小的权值,直到达到目标数量p。
7.如权利要求1所述的加速方法,其特征在于:所述构建针对稀疏化卷积神经网络前向推断的整体架构包括中央控制模块、片上SRAM、PE阵列和ReLU模块,中央控制模块协调SRAM、PE阵列和ReLU模块间的数据传输,特征图SRAM用于存放中间部分和计算结果、输入特征图以及输出特征图,权值SRAM内部存储剪枝稀疏后的卷积核权值及其索引坐标,片上SRAM和PE阵列通过全局总线进行通信,ReLU模块完成卷积计算后的功能计算。
8.如权利要求7所述的加速方法,其特征在于:所述PE阵列下的单个PE计算单元通过全局总线获取批次的输入特征图和分组剪枝后的稀疏权值,稀疏权值的存取包括未剪枝数及其对应的索引位置,所述PE单元中的选择器通过索引位置将对应分组长度g的特征图挑选出来乘加操作。
CN201811486547.1A 2018-12-06 2018-12-06 一种针对硬件实现稀疏化卷积神经网络推断的加速方法 Active CN109711532B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811486547.1A CN109711532B (zh) 2018-12-06 2018-12-06 一种针对硬件实现稀疏化卷积神经网络推断的加速方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811486547.1A CN109711532B (zh) 2018-12-06 2018-12-06 一种针对硬件实现稀疏化卷积神经网络推断的加速方法

Publications (2)

Publication Number Publication Date
CN109711532A true CN109711532A (zh) 2019-05-03
CN109711532B CN109711532B (zh) 2023-05-12

Family

ID=66254656

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811486547.1A Active CN109711532B (zh) 2018-12-06 2018-12-06 一种针对硬件实现稀疏化卷积神经网络推断的加速方法

Country Status (1)

Country Link
CN (1) CN109711532B (zh)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110222835A (zh) * 2019-05-13 2019-09-10 西安交通大学 一种基于零值检测的卷积神经网络硬件系统及运算方法
CN110490314A (zh) * 2019-08-14 2019-11-22 北京中科寒武纪科技有限公司 神经网络的稀疏方法及相关产品
CN110516806A (zh) * 2019-08-30 2019-11-29 苏州思必驰信息科技有限公司 神经网络参数矩阵的稀疏化方法和装置
CN110543900A (zh) * 2019-08-21 2019-12-06 北京市商汤科技开发有限公司 图像处理方法及装置、电子设备和存储介质
CN110619385A (zh) * 2019-08-31 2019-12-27 电子科技大学 基于多级剪枝的结构化网络模型压缩加速方法
CN110807514A (zh) * 2019-10-25 2020-02-18 中国科学院计算技术研究所 一种基于lo正则的神经网络剪枝方法
CN111062472A (zh) * 2019-12-11 2020-04-24 浙江大学 一种基于结构化剪枝的稀疏神经网络加速器及其加速方法
CN111199282A (zh) * 2019-12-31 2020-05-26 的卢技术有限公司 一种卷积神经网络模型的剪枝方法及装置
CN111368988A (zh) * 2020-02-28 2020-07-03 北京航空航天大学 一种利用稀疏性的深度学习训练硬件加速器
CN111832705A (zh) * 2020-06-30 2020-10-27 南京航空航天大学 一种卷积神经网络的压缩方法及其实现电路
CN112506436A (zh) * 2020-12-11 2021-03-16 西北工业大学 用于卷积神经网络加速器的高效率数据动态存储分配方法
WO2021057056A1 (zh) * 2019-09-25 2021-04-01 华为技术有限公司 神经网络架构搜索方法、图像处理方法、装置和存储介质
CN112631983A (zh) * 2020-12-28 2021-04-09 电子科技大学 一种面向稀疏神经网络的片上系统
CN112734025A (zh) * 2019-10-28 2021-04-30 复旦大学 基于固定基正则化的神经网络参数稀疏化方法
CN112949814A (zh) * 2019-11-26 2021-06-11 联合汽车电子有限公司 卷积神经网络的压缩和加速方法、装置及嵌入式设备
CN113052307A (zh) * 2021-03-16 2021-06-29 上海交通大学 一种面向忆阻器加速器的神经网络模型压缩方法及系统
CN113078974A (zh) * 2020-01-03 2021-07-06 百度(美国)有限责任公司 用于神经网络稀疏信道生成和推断的方法
CN113159297A (zh) * 2021-04-29 2021-07-23 上海阵量智能科技有限公司 一种神经网络压缩方法、装置、计算机设备及存储介质
CN113159272A (zh) * 2020-01-07 2021-07-23 阿里巴巴集团控股有限公司 一种用于处理神经网络的方法和系统
CN113673693A (zh) * 2020-05-15 2021-11-19 宏碁股份有限公司 深度神经网络压缩的方法
CN113947185A (zh) * 2021-09-30 2022-01-18 北京达佳互联信息技术有限公司 任务处理网络生成、任务处理方法、装置、电子设备及存储介质
CN114494661A (zh) * 2022-03-31 2022-05-13 清华大学 增量式稀疏三维卷积的三维点云数据处理方法及设备
TWI836132B (zh) * 2019-10-29 2024-03-21 南韓商三星電子股份有限公司 儲存系統以及用於動態地擴縮儲存系統的排序操作的方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180046897A1 (en) * 2016-08-12 2018-02-15 Beijing Deephi Intelligence Technology Co., Ltd. Hardware accelerator for compressed rnn on fpga
US20180157969A1 (en) * 2016-12-05 2018-06-07 Beijing Deephi Technology Co., Ltd. Apparatus and Method for Achieving Accelerator of Sparse Convolutional Neural Network
CN108280514A (zh) * 2018-01-05 2018-07-13 中国科学技术大学 基于fpga的稀疏神经网络加速系统和设计方法
CN108932548A (zh) * 2018-05-22 2018-12-04 中国科学技术大学苏州研究院 一种基于fpga的稀疏度神经网络加速系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180046897A1 (en) * 2016-08-12 2018-02-15 Beijing Deephi Intelligence Technology Co., Ltd. Hardware accelerator for compressed rnn on fpga
US20180157969A1 (en) * 2016-12-05 2018-06-07 Beijing Deephi Technology Co., Ltd. Apparatus and Method for Achieving Accelerator of Sparse Convolutional Neural Network
CN108280514A (zh) * 2018-01-05 2018-07-13 中国科学技术大学 基于fpga的稀疏神经网络加速系统和设计方法
CN108932548A (zh) * 2018-05-22 2018-12-04 中国科学技术大学苏州研究院 一种基于fpga的稀疏度神经网络加速系统

Cited By (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110222835A (zh) * 2019-05-13 2019-09-10 西安交通大学 一种基于零值检测的卷积神经网络硬件系统及运算方法
CN110490314B (zh) * 2019-08-14 2024-01-09 中科寒武纪科技股份有限公司 神经网络的稀疏方法及相关产品
CN110490314A (zh) * 2019-08-14 2019-11-22 北京中科寒武纪科技有限公司 神经网络的稀疏方法及相关产品
CN110543900A (zh) * 2019-08-21 2019-12-06 北京市商汤科技开发有限公司 图像处理方法及装置、电子设备和存储介质
CN110516806A (zh) * 2019-08-30 2019-11-29 苏州思必驰信息科技有限公司 神经网络参数矩阵的稀疏化方法和装置
CN110619385A (zh) * 2019-08-31 2019-12-27 电子科技大学 基于多级剪枝的结构化网络模型压缩加速方法
CN110619385B (zh) * 2019-08-31 2022-07-29 电子科技大学 基于多级剪枝的结构化网络模型压缩加速方法
WO2021057056A1 (zh) * 2019-09-25 2021-04-01 华为技术有限公司 神经网络架构搜索方法、图像处理方法、装置和存储介质
CN110807514A (zh) * 2019-10-25 2020-02-18 中国科学院计算技术研究所 一种基于lo正则的神经网络剪枝方法
CN112734025B (zh) * 2019-10-28 2023-07-21 复旦大学 基于固定基正则化的神经网络参数稀疏化方法
CN112734025A (zh) * 2019-10-28 2021-04-30 复旦大学 基于固定基正则化的神经网络参数稀疏化方法
TWI836132B (zh) * 2019-10-29 2024-03-21 南韓商三星電子股份有限公司 儲存系統以及用於動態地擴縮儲存系統的排序操作的方法
CN112949814B (zh) * 2019-11-26 2024-04-26 联合汽车电子有限公司 卷积神经网络的压缩和加速方法、装置及嵌入式设备
CN112949814A (zh) * 2019-11-26 2021-06-11 联合汽车电子有限公司 卷积神经网络的压缩和加速方法、装置及嵌入式设备
CN111062472A (zh) * 2019-12-11 2020-04-24 浙江大学 一种基于结构化剪枝的稀疏神经网络加速器及其加速方法
CN111062472B (zh) * 2019-12-11 2023-05-12 浙江大学 一种基于结构化剪枝的稀疏神经网络加速器及其加速方法
CN111199282B (zh) * 2019-12-31 2024-04-19 的卢技术有限公司 提高硬件运算效率的卷积神经网络模型剪枝方法及装置
CN111199282A (zh) * 2019-12-31 2020-05-26 的卢技术有限公司 一种卷积神经网络模型的剪枝方法及装置
CN113078974A (zh) * 2020-01-03 2021-07-06 百度(美国)有限责任公司 用于神经网络稀疏信道生成和推断的方法
CN113159272A (zh) * 2020-01-07 2021-07-23 阿里巴巴集团控股有限公司 一种用于处理神经网络的方法和系统
CN111368988A (zh) * 2020-02-28 2020-07-03 北京航空航天大学 一种利用稀疏性的深度学习训练硬件加速器
CN111368988B (zh) * 2020-02-28 2022-12-20 北京航空航天大学 一种利用稀疏性的深度学习训练硬件加速器
CN113673693B (zh) * 2020-05-15 2024-03-12 宏碁股份有限公司 深度神经网络压缩的方法
CN113673693A (zh) * 2020-05-15 2021-11-19 宏碁股份有限公司 深度神经网络压缩的方法
CN111832705A (zh) * 2020-06-30 2020-10-27 南京航空航天大学 一种卷积神经网络的压缩方法及其实现电路
CN111832705B (zh) * 2020-06-30 2024-04-02 南京航空航天大学 一种卷积神经网络的压缩方法及其实现电路
CN112506436A (zh) * 2020-12-11 2021-03-16 西北工业大学 用于卷积神经网络加速器的高效率数据动态存储分配方法
CN112506436B (zh) * 2020-12-11 2023-01-31 西北工业大学 用于卷积神经网络加速器的高效率数据动态存储分配方法
CN112631983A (zh) * 2020-12-28 2021-04-09 电子科技大学 一种面向稀疏神经网络的片上系统
CN112631983B (zh) * 2020-12-28 2023-05-02 电子科技大学 一种面向稀疏神经网络的片上系统
CN113052307A (zh) * 2021-03-16 2021-06-29 上海交通大学 一种面向忆阻器加速器的神经网络模型压缩方法及系统
CN113052307B (zh) * 2021-03-16 2022-09-06 上海交通大学 一种面向忆阻器加速器的神经网络模型压缩方法及系统
CN113159297A (zh) * 2021-04-29 2021-07-23 上海阵量智能科技有限公司 一种神经网络压缩方法、装置、计算机设备及存储介质
CN113159297B (zh) * 2021-04-29 2024-01-09 上海阵量智能科技有限公司 一种神经网络压缩方法、装置、计算机设备及存储介质
CN113947185A (zh) * 2021-09-30 2022-01-18 北京达佳互联信息技术有限公司 任务处理网络生成、任务处理方法、装置、电子设备及存储介质
CN114494661A (zh) * 2022-03-31 2022-05-13 清华大学 增量式稀疏三维卷积的三维点云数据处理方法及设备

Also Published As

Publication number Publication date
CN109711532B (zh) 2023-05-12

Similar Documents

Publication Publication Date Title
CN109711532A (zh) 一种针对硬件实现稀疏化卷积神经网络推断的加速方法
CN111684473B (zh) 提高神经网络阵列的性能
CN111898733B (zh) 一种深度可分离卷积神经网络加速器架构
CN108932548A (zh) 一种基于fpga的稀疏度神经网络加速系统
CN109871949A (zh) 卷积神经网络加速器及加速方法
CN111144666B (zh) 一种基于深度时空残差网络的海洋温跃层预测方法
CN114218875A (zh) 一种用于流场预测的加速方法及装置
CN104317738B (zh) 一种基于MapReduce的增量计算方法
CN111831355B (zh) 权重精度配置方法、装置、设备及存储介质
CN112734020B (zh) 卷积神经网络的卷积乘累加硬件加速装置、系统以及方法
CN109544700A (zh) 基于神经网络的点云数据的处理方法、装置和设备
CN107947761A (zh) 基于最小均方四阶的变阈值比例更新自适应滤波算法
CN111176810B (zh) 基于优先级的气象水文数据处理调度系统
CN110543936A (zh) 一种cnn全连接层运算的多并行加速方法
CN111144556B (zh) 面向深度神经网络训练和推理的范围批处理归一化算法的硬件电路
WO2021096590A1 (en) Threshold triggered back propagation of an artificial neural network
CN109146060A (zh) 一种基于卷积神经网络处理数据的方法及装置
CN108647780A (zh) 面向神经网络的可重构池化操作模块结构及其实现方法
CN116245150A (zh) 一种面向fpga资源的神经网络可重构配置映射方法
CN113298241B (zh) 一种深度可分离卷积神经网络加速方法和加速器
CN114419361A (zh) 基于门控局部通道注意力的神经网络图像分类方法
CN115099405A (zh) 一种基于近似乘法的神经网络混合近似及误差补偿方法
CN111738432B (zh) 一种支持自适应并行计算的神经网络处理电路
CN114970856A (zh) 基于硬件特性的模型剪枝方法、装置、设备及存储介质
CN112836793A (zh) 浮点可分离卷积计算加速装置、系统以及图像处理方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant