CN111667068A - 一种基于掩码的深度图卷积神经网络模型剪枝方法与系统 - Google Patents

一种基于掩码的深度图卷积神经网络模型剪枝方法与系统 Download PDF

Info

Publication number
CN111667068A
CN111667068A CN202010489221.5A CN202010489221A CN111667068A CN 111667068 A CN111667068 A CN 111667068A CN 202010489221 A CN202010489221 A CN 202010489221A CN 111667068 A CN111667068 A CN 111667068A
Authority
CN
China
Prior art keywords
mask
network model
depth map
neural network
convolutional neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010489221.5A
Other languages
English (en)
Inventor
高跃
林航
赵曦滨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN202010489221.5A priority Critical patent/CN111667068A/zh
Publication of CN111667068A publication Critical patent/CN111667068A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于掩码的深度图卷积神经网络模型剪枝方法,包括:步骤1、获取待剪枝深度图卷积神经网络模型,步骤2、提取掩码信息,步骤3、完成模型剪枝,步骤4、完成紧致的深度图卷积神经网络模型重训。本发明还提供了一种基于掩码的深度图卷积神经网络模型剪枝系统。通过本发明中的技术方案,实现了在保证原有网络精度维持在原有水平的前提下,有效压缩了深度图卷积神经网络模型的大小,并大大加快了网络模型的检测速度。

Description

一种基于掩码的深度图卷积神经网络模型剪枝方法与系统
技术领域
本发明涉及人工智能技术领域,具体而言,涉及一种基于掩码的深度图卷积神经网络模型剪枝方法与系统。
背景技术
随着图表示学习的快速发展,图卷积神经网络凭借其强大的性能在推荐系统、交通预测、知识图谱、生物医疗等各大领域取得了巨大的成果,其中,深度图卷积神经网络更是通过加深网络的层数取得了当前最优的结果。然而,网络层数的加深就会引起网络参数量的增多,网络模型运行时所需的计算开销以及存储时所占据的空间资源变得越来越庞大,影响其在资源受限的移动嵌入式终端的应用。因此,如何在保证网络模型性能的同时对网络模型进行压缩并加快其模型计算时间能使深度图卷积神经网络得到更好的应用。
而现在并没有针对图卷积神经网络模型压缩的算法。现有对传统深度神经网络模型的压缩算法中,权值量化算法和奇异值分解算法只能减小网络模型的大小,无法实现网络模型的加速,并且往往会带来较大的网络模型精度损失,而剪枝算法大多采用逐层剪枝的方法,难以使模型得到全局的最优解并且使剪枝步骤过于复杂,同时剪枝算法通常只针对网络模型卷积层的通道(Channel)进行剪枝,无法对网络中的其他结构进行剪枝。
发明内容
为了解决深度图卷积神经网络模型的压缩和加速问题,本发明提供了一种基于掩码的深度图卷积神经网络模型剪枝方法,采用端到端的方式全局地对图卷积神经网络进行剪枝,在保证网络性能的同时大大减小网络模型的大小,并加速网络模型的运行时间。
本发明的技术方案是提供一种基于掩码的深度图卷积神经网络模型剪枝方法,其特征在于其特征在于,包括如下步骤:
步骤1、获取待剪枝深度图卷积神经网络模型,即对原预训练的深度图卷积神经网络模型中需要考虑剪枝的网络结构添加掩码约束,形成待剪枝深度图卷积神经网络模型,其中,添加的掩码用于记录网络结构的重要性;
步骤2、提取掩码信息,即利用训练数据标签训练待剪枝深度图卷积神经网络模型,通过在目标函数添加掩码的稀疏性约束使得掩码权值稀疏化,训练结束时得到模型的最终掩码信息;
步骤3、完成模型剪枝,即根据模型最终的掩码信息,对权值为0的掩码所对应的网络结构进行剪枝,得到紧致的深度图卷积神经网络模型;
步骤4、完成紧致的深度图卷积神经网络模型重训,即利用训练数据标签重新训练所得到的紧致的深度图卷积神经网络模型,输出最终网络模型。
进一步地,所述步骤1具体包括:
对原预训练的深度图卷积神经网络模型中的每一个考虑剪枝的网络结构记为f(x),首先随机初始化一个[0,1]之间的浮点值作为掩码,记为m,然后给网络结构f(x)添加上掩码m的约束,得到受约束的网络结构:
Figure BDA0002520271070000021
其中,x为该网络结构的输入值,f(x)表示原网络结构输出的值,m为网络结构对应的掩码值,F(x)为添加掩码约束后的网络结构的输出值;当原预训练的深度图卷积神经网络模型中所有考虑剪枝的网络结构都添加完掩码时,就得到了掩码数组M以及待剪枝深度图卷积神经网络模型,记为
Figure BDA0002520271070000022
进一步地,步骤2还包括以下步骤:
使用训练数据训练待剪枝深度图卷积神经网络模型
Figure BDA0002520271070000031
进行网络参数W以及掩码数组M的权值更新;
判断网络模型是否收敛至最优解,如果没有收敛至最优解,则继续训练,如果收敛至最优解,则获得最终固定的掩码数组。
本发明还提供了一种基于掩码的深度图卷积神经网络模型剪枝系统,其特征在于其特征在于,该系统包括:获取单元、提取单元、剪枝单元、输出单元;
所述获取单元用于获取待剪枝深度图卷积神经网络模型,对原预训练的深度图卷积神经网络模型中所考虑剪枝的网络结构添加掩码约束形成待剪枝深度图卷积神经网络模型,其中所添加的掩码记录着该网络结构的重要性;
所述提取单元用于提取掩码信息,利用训练数据标签训练待剪枝深度图卷积神经网络模型,通过在目标函数添加掩码的稀疏性约束使得掩码权值稀疏化,训练结束时得到模型的最终掩码信息;
所述剪枝单元用于模型剪枝,根据最终模型的掩码信息,对权值为0的掩码所对应的网络结构进行剪枝,得到紧致的深度图卷积神经网络模型;
所述输出单元用于进行紧致的深度图卷积神经网络模型重训,利用训练数据标签重新训练所得到的紧致的深度图卷积神经网络模型,输出最终网络模型。
进一步地,所述获取单元的作用是:
对原预训练的深度图卷积神经网络模型中的每一个考虑剪枝的网络结构记为f(x),首先随机初始化一个[0,1]之间的浮点值作为掩码,记为m,然后给网络结构f(x)添加上掩码m的约束,得到受约束的网络结构:
Figure BDA0002520271070000041
其中,x为该网络结构的输入值,f(x)表示原网络结构输出的值,m为网络结构对应的掩码值,F(x)为添加掩码约束后的网络结构的输出值。当原预训练的深度图卷积神经网络模型中所有考虑剪枝的网络结构都添加完掩码时,就得到了掩码数组M以及待剪枝深度图卷积神经网络模型,记为
Figure BDA0002520271070000042
进一步地,所述提取单元的作用是:
使用训练数据训练待剪枝深度图卷积神经网络模型
Figure BDA0002520271070000043
进行网络参数W以及掩码数组M的权值更新;
判断网络模型是否收敛至最优解,如果没有收敛至最优解,则继续训练,如果收敛至最优解,则获得最终固定的掩码数组。
本发明的有益效果是:通过给深度图卷积神经网络模型添加全局掩码约束,根据掩码信息进行冗余网络结构的筛选,从而从原预训练的深度图卷积神经网络模型中移除掉冗余网络的结构,实现在保证网络性能的同时大大减小网络模型的大小,并加速网络模型的运行时间。
附图说明
本发明的上述和/或附加方面的优点在结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1是一个实施例的基于掩码的深度图卷积神经网络模型剪枝方法示意流程图。
图2是一个实施例的给深度图卷积神经网络模型的待剪枝网络结构添加掩码示意图。
图3是一个实施例的基于掩码的深度图卷积神经网络模型剪枝系统示意框图。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施方式对本发明进行进一步的详细描述。需要说明的是,在不冲突的情况下,本发明的实施例及实施例中的特征可以相互结合。
在下面的描述中,阐述了很多具体细节以便于充分理解本发明,但是,本发明还可以采用其他不同于在此描述的其他方式来实施,因此,本发明的保护范围并不受下面公开的具体实施例的限制。
如图1所示,一种基于掩码约束的深度图卷积神经网络模型剪枝方法,包括如下步骤:
步骤1、获取待剪枝深度图卷积神经网络模型
对原预训练的深度图卷积神经网络模型中所考虑剪枝的网络结构添加掩码约束形成待剪枝深度图卷积神经网络模型。
如图2所示,可以将x记为该网络结构的输入值,f(x)为该网络结构的输出值,掩码值记为m,添加掩码约束后的网络结构的新输出值记为F(x),可得到添加掩码的公式:
Figure BDA0002520271070000051
这时可以得到下一个网络结构的输入:
Figure BDA0002520271070000052
m随机初始化为[0-1]之间的值,当掩码值m为0时,此时F(x)的值也为0,下一个网络结构的输入f1(x)为x,此时可以理解为该网络结构在模型中没有贡献,是冗余的。当原预训练的深度图卷积神经网络模型中所有考虑剪枝的网络结构都添加完掩码时,就得到了掩码数组M以及待剪枝深度图卷积神经网络模型,记为
Figure BDA0002520271070000053
步骤2、提取掩码信息
使用训练集训练待剪枝深度图卷积神经网络模型,进行网络参数W以及掩码数组M的权值更新,神经网络模型在训练时添加正则项可以得到稀疏的权值,为了得到稀疏的掩码数组,训练时在目标函数中添加掩码数组的正则项。
其中,对于原网络参数W使用随机梯度下降算法进行更新,对于掩码数组M,使用快速的迭代阈值收缩算法进行更新,其中快速的迭代阈值收缩算法有利于掩码权值快速收敛到0值。
然后判断网络模型是否收敛至最优解,如果没有收敛至最优解,则继续训练,如果收敛至最优解,则获得最终固定的掩码数组。
步骤3、模型剪枝
依次判断掩码数组M中的各个掩码值是否为0。假设掩码数组M={m1,m2,m3,…,mn},掩码数组中所对应的考虑剪枝的网络结构集合为F={f1,f2,f3,…,fn},若其中掩码m2权值为0,即将掩码m2对应的网络结构f2从网络模型中移除.在移除完所有的冗余网络结构之后,即得到了紧致的深度图卷积神经网络模型。
步骤4、紧致的深度图卷积神经网络模型重训
重新训练剪枝后的网络模型,寻找网络模型的最优解。
在保留下来的网络参数和掩码数组的基础上,使用训练集重新训练网络模型。保持掩码数组不更新,使用随机梯度下降算法更新网络参数的权值。判断网络模型是否收敛至最优解,如果没有收敛至最优解,则重新进行训练步骤,如果收敛至最优解,即获得最终的网络模型。
如图3所示,该实施例还提供了一种基于掩码的深度图卷积神经网络模型剪枝系统,其包括:获取单元、提取单元、剪枝单元、输出单元;
所述获取单元用于获取待剪枝深度图卷积神经网络模型,对原预训练的深度图卷积神经网络模型中所考虑剪枝的网络结构添加掩码约束形成待剪枝深度图卷积神经网络模型;
具体地,将x记为该网络结构的输入值,f(x)为该网络结构的输出值,掩码值记为m,添加掩码约束后的网络结构的新输出值记为F(x),可得到添加掩码的公式:
Figure BDA0002520271070000071
这时可以得到下一个网络结构的输入:
Figure BDA0002520271070000072
m随机初始化为[0-1]之间的值,当掩码值m为0时,此时F(x)的值也为0,下一个网络结构的输入f1(x)为x,此时可以理解为该网络结构在模型中没有贡献,是冗余的。当原预训练的深度图卷积神经网络模型中所有考虑剪枝的网络结构都添加完掩码时,就得到了掩码数组M以及待剪枝深度图卷积神经网络模型,记为
Figure BDA0002520271070000073
所述提取单元用于提取掩码信息,利用训练数据标签训练待剪枝深度图卷积神经网络模型,通过在目标函数添加掩码的稀疏性约束使得掩码权值稀疏化,得到模型的最终掩码信息;
具体地,对于原网络参数W使用随机梯度下降算法进行更新,对于掩码数组M,使用快速的迭代阈值收缩算法进行更新,其中快速的迭代阈值收缩算法有利于掩码权值快速收敛到0值。
然后判断网络模型是否收敛至最优解,如果没有收敛至最优解,则继续训练,如果收敛至最优解,则获得最终固定的掩码数组。
所述剪枝单元用于模型剪枝,根据最终模型的掩码信息,对权值为0的掩码所对应的网络结构进行剪枝,得到紧致的深度图卷积神经网络模型;
具体地,依次判断掩码数组M中的各个掩码值是否为0。假设掩码数组M={m1,m2,m3,…,mn},掩码数组中所对应的考虑剪枝的网络结构集合为F={f1,f2,f3,…,fn},若其中掩码m2权值为0,即将掩码m2对应的网络结构f2从网络模型中移除.在移除完所有的冗余网络结构之后,即得到了紧致的深度图卷积神经网络模型。
所述输出单元用于进行紧致的深度图卷积神经网络模型重训,利用训练数据标签重新训练所得到的紧致的深度图卷积神经网络模型,输出最终网络模型。
具体地,在保留下来的网络参数和掩码数组的基础上,使用训练集重新训练网络模型。保持掩码数组不更新,使用随机梯度下降算法更新网络参数的权值。判断网络模型是否收敛至最优解,如果没有收敛至最优解,则重新进行训练步骤,如果收敛至最优解,即获得最终的网络模型。
本发明中的步骤可根据实际需求进行顺序调整、合并和删减。
尽管参考附图详地公开了本发明,但应理解的是,这些描述仅仅是示例性的,并非用来限制本发明的应用。本发明的保护范围由附加权利要求限定,并可包括在不脱离本发明保护范围和精神的情况下针对发明所作的各种变型、改型及等效方案。

Claims (6)

1.一种基于掩码的深度图卷积神经网络模型剪枝方法,其特征在于其特征在于,包括如下步骤:
步骤1、获取待剪枝深度图卷积神经网络模型,即对原预训练的深度图卷积神经网络模型中需要考虑剪枝的网络结构添加掩码约束,形成待剪枝深度图卷积神经网络模型,其中,添加的掩码用于记录网络结构的重要性;
步骤2、提取掩码信息,即利用训练数据标签训练待剪枝深度图卷积神经网络模型,通过在目标函数添加掩码的稀疏性约束使得掩码权值稀疏化,训练结束时得到模型的最终掩码信息;
步骤3、完成模型剪枝,即根据模型最终的掩码信息,对权值为0的掩码所对应的网络结构进行剪枝,得到紧致的深度图卷积神经网络模型;
步骤4、完成紧致的深度图卷积神经网络模型重训,即利用训练数据标签重新训练所得到的紧致的深度图卷积神经网络模型,输出最终网络模型。
2.如权利要求1所述的基于掩码的深度图卷积神经网络模型剪枝方法,其特征在于,所述步骤1具体包括:
对原预训练的深度图卷积神经网络模型中的每一个考虑剪枝的网络结构记为f(x),首先随机初始化一个[0,1]之间的浮点值作为掩码,记为m,然后给网络结构f(x)添加上掩码m的约束,得到受约束的网络结构:
Figure FDA0002520271060000011
其中,x为该网络结构的输入值,f(x)表示原网络结构输出的值,m为网络结构对应的掩码值,F(x)为添加掩码约束后的网络结构的输出值;当原预训练的深度图卷积神经网络模型中所有考虑剪枝的网络结构都添加完掩码时,就得到了掩码数组M以及待剪枝深度图卷积神经网络模型,记为
Figure FDA0002520271060000012
3.如权利要求2所述的基于掩码的深度图卷积神经网络模型剪枝方法,其特征在于,步骤2还包括以下步骤:
使用训练数据训练待剪枝深度图卷积神经网络模型
Figure FDA0002520271060000021
进行网络参数W以及掩码数组M的权值更新;
判断网络模型是否收敛至最优解,如果没有收敛至最优解,则继续训练,如果收敛至最优解,则获得最终固定的掩码数组。
4.一种基于掩码的深度图卷积神经网络模型剪枝系统,其特征在于其特征在于,该系统包括:获取单元、提取单元、剪枝单元、输出单元;
所述获取单元用于获取待剪枝深度图卷积神经网络模型,对原预训练的深度图卷积神经网络模型中所考虑剪枝的网络结构添加掩码约束形成待剪枝深度图卷积神经网络模型,其中所添加的掩码记录着该网络结构的重要性;
所述提取单元用于提取掩码信息,利用训练数据标签训练待剪枝深度图卷积神经网络模型,通过在目标函数添加掩码的稀疏性约束使得掩码权值稀疏化,训练结束时得到模型的最终掩码信息;
所述剪枝单元用于模型剪枝,根据最终模型的掩码信息,对权值为0的掩码所对应的网络结构进行剪枝,得到紧致的深度图卷积神经网络模型;
所述输出单元用于进行紧致的深度图卷积神经网络模型重训,利用训练数据标签重新训练所得到的紧致的深度图卷积神经网络模型,输出最终网络模型。
5.如权利要求4所述的基于掩码的深度图卷积神经网络模型剪枝系统,其特征在于,所述获取单元的作用是:
对原预训练的深度图卷积神经网络模型中的每一个考虑剪枝的网络结构记为f(x),首先随机初始化一个[0,1]之间的浮点值作为掩码,记为m,然后给网络结构f(x)添加上掩码m的约束,得到受约束的网络结构:
Figure FDA0002520271060000031
其中,x为该网络结构的输入值,f(x)表示原网络结构输出的值,m为网络结构对应的掩码值,F(x)为添加掩码约束后的网络结构的输出值。当原预训练的深度图卷积神经网络模型中所有考虑剪枝的网络结构都添加完掩码时,就得到了掩码数组M以及待剪枝深度图卷积神经网络模型,记为
Figure FDA0002520271060000032
6.如权利要求4所述的基于掩码的深度图卷积神经网络模型剪枝系统,其特征在于,所述提取单元的作用是:
使用训练数据训练待剪枝深度图卷积神经网络模型
Figure FDA0002520271060000033
进行网络参数W以及掩码数组M的权值更新;
判断网络模型是否收敛至最优解,如果没有收敛至最优解,则继续训练,如果收敛至最优解,则获得最终固定的掩码数组。
CN202010489221.5A 2020-06-02 2020-06-02 一种基于掩码的深度图卷积神经网络模型剪枝方法与系统 Pending CN111667068A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010489221.5A CN111667068A (zh) 2020-06-02 2020-06-02 一种基于掩码的深度图卷积神经网络模型剪枝方法与系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010489221.5A CN111667068A (zh) 2020-06-02 2020-06-02 一种基于掩码的深度图卷积神经网络模型剪枝方法与系统

Publications (1)

Publication Number Publication Date
CN111667068A true CN111667068A (zh) 2020-09-15

Family

ID=72385548

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010489221.5A Pending CN111667068A (zh) 2020-06-02 2020-06-02 一种基于掩码的深度图卷积神经网络模型剪枝方法与系统

Country Status (1)

Country Link
CN (1) CN111667068A (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112561054A (zh) * 2020-12-03 2021-03-26 中国科学院光电技术研究所 一种基于批量特征热图的神经网络滤波器剪枝方法
CN113037482A (zh) * 2021-04-13 2021-06-25 山东新一代信息产业技术研究院有限公司 一种基于rnn的模型压缩加密方法
CN113470812A (zh) * 2021-06-18 2021-10-01 浙江大学 基于图卷积神经网络和迭代阈值收缩算法的心脏跨膜电位重建方法
CN113537490A (zh) * 2021-07-13 2021-10-22 广州虎牙科技有限公司 一种神经网络裁剪方法及电子设备
CN113610215A (zh) * 2021-07-09 2021-11-05 北京达佳互联信息技术有限公司 任务处理网络生成、任务处理方法、装置、电子设备及存储介质
CN114819140A (zh) * 2022-03-31 2022-07-29 支付宝(杭州)信息技术有限公司 模型剪枝方法、装置和计算机设备
WO2023098544A1 (zh) * 2021-12-03 2023-06-08 中科视语(北京)科技有限公司 基于局部稀疏约束的结构化剪枝方法和装置
CN118013132A (zh) * 2024-04-10 2024-05-10 腾讯科技(深圳)有限公司 基于人工智能的信息预测方法、相关设备及存储介质

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112561054A (zh) * 2020-12-03 2021-03-26 中国科学院光电技术研究所 一种基于批量特征热图的神经网络滤波器剪枝方法
CN113037482A (zh) * 2021-04-13 2021-06-25 山东新一代信息产业技术研究院有限公司 一种基于rnn的模型压缩加密方法
CN113470812A (zh) * 2021-06-18 2021-10-01 浙江大学 基于图卷积神经网络和迭代阈值收缩算法的心脏跨膜电位重建方法
CN113470812B (zh) * 2021-06-18 2023-08-22 浙江大学 基于图卷积神经网络和迭代阈值收缩算法的心脏跨膜电位重建方法
CN113610215A (zh) * 2021-07-09 2021-11-05 北京达佳互联信息技术有限公司 任务处理网络生成、任务处理方法、装置、电子设备及存储介质
CN113610215B (zh) * 2021-07-09 2022-09-09 北京达佳互联信息技术有限公司 任务处理网络生成、任务处理方法、装置及电子设备
CN113537490A (zh) * 2021-07-13 2021-10-22 广州虎牙科技有限公司 一种神经网络裁剪方法及电子设备
WO2023098544A1 (zh) * 2021-12-03 2023-06-08 中科视语(北京)科技有限公司 基于局部稀疏约束的结构化剪枝方法和装置
CN114819140A (zh) * 2022-03-31 2022-07-29 支付宝(杭州)信息技术有限公司 模型剪枝方法、装置和计算机设备
CN118013132A (zh) * 2024-04-10 2024-05-10 腾讯科技(深圳)有限公司 基于人工智能的信息预测方法、相关设备及存储介质

Similar Documents

Publication Publication Date Title
CN111667068A (zh) 一种基于掩码的深度图卷积神经网络模型剪枝方法与系统
CN108764471B (zh) 基于特征冗余分析的神经网络跨层剪枝方法
CN109978142B (zh) 神经网络模型的压缩方法和装置
US11531889B2 (en) Weight data storage method and neural network processor based on the method
CN111275711B (zh) 基于轻量级卷积神经网络模型的实时图像语义分割方法
CN109087258B (zh) 一种基于深度学习的图像去雨方法及装置
CN113159173B (zh) 一种结合剪枝与知识蒸馏的卷积神经网络模型压缩方法
CN112183742B (zh) 基于渐进式量化和Hessian信息的神经网络混合量化方法
CN111126595A (zh) 一种神经网络的模型压缩的方法和设备
US8768869B1 (en) BRIAN: a basic regimen for intelligent analysis using networks
CN111242180A (zh) 一种基于轻量化卷积神经网络的图像识别方法及系统
CN111860771B (zh) 一种应用于边缘计算的卷积神经网络计算方法
CN113066089B (zh) 一种基于注意力引导机制的实时图像语义分割方法
CN112488304A (zh) 一种卷积神经网络中的启发式滤波器剪枝方法和系统
CN112036564B (zh) 图片识别方法、装置、设备及存储介质
US20230252294A1 (en) Data processing method, apparatus, and device, and computer-readable storage medium
CN113837376A (zh) 基于动态编码卷积核融合的神经网络剪枝方法
CN114943335A (zh) 一种三值神经网络逐层优化方法
CN117237475A (zh) 一种基于扩散生成模型的车辆交通轨迹生成方法及装置
CN109993304B (zh) 一种基于语义分割的检测模型压缩方法
CN116245162A (zh) 基于改进自适应遗传算法的神经网络剪枝方法及系统
CN112735392B (zh) 语音处理方法、装置、设备及存储介质
CN112488291B (zh) 一种神经网络8比特量化压缩方法
CN114723043A (zh) 基于超图模型谱聚类的卷积神经网络卷积核剪枝方法
CN113705589A (zh) 数据处理方法、装置及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20200915