CN110796251A - 基于卷积神经网络的图像压缩优化方法 - Google Patents

基于卷积神经网络的图像压缩优化方法 Download PDF

Info

Publication number
CN110796251A
CN110796251A CN201911032999.7A CN201911032999A CN110796251A CN 110796251 A CN110796251 A CN 110796251A CN 201911032999 A CN201911032999 A CN 201911032999A CN 110796251 A CN110796251 A CN 110796251A
Authority
CN
China
Prior art keywords
network
neural network
convolution
convolution kernel
network model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911032999.7A
Other languages
English (en)
Inventor
郭炜
李琦
魏继增
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN201911032999.7A priority Critical patent/CN110796251A/zh
Publication of CN110796251A publication Critical patent/CN110796251A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/002Image coding using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及卷积网络、图像处理,为解决卷积神经网络模型存储资源开销大、参数计算量大、推断时间长等问题,本发明,基于卷积神经网络的图像压缩优化方法,构建包括编码器E、解码器d和对抗网络GAN的网络模型,编码器E为卷积神经网络,解码器d为进行上采样处理的卷积神经网络和进行恢复原始图像维度的反卷积神经网络,由一个discriminator卷积神经网络和一个反卷积神经网络generator构成生成式对抗网络GAN,q为算数运算器,将原始图像x经编码器E编码为特征图w,然后经量化器q量化为
Figure DDA0002250668910000011
再经解码器d,最后经GAN生成图像
Figure DDA0002250668910000012
本发明主要应用于图像处理场合。

Description

基于卷积神经网络的图像压缩优化方法
技术领域
本发明涉及到卷积神经网络领域、图形图像领域及移动终端领域。具体涉及基于卷积神经网络的压缩优化方法。
背景技术
图像是对客观事物的一种相似性的、生动的描述,是对客观对象的一种比较直观的表示方式。它包含了被描述对象的有关信息,是人们最主要的信息来源。据统计,一个人获得的信息大约有75%来自视觉。进入信息化时代人们将越来越依靠计算机获取和利用信息,而数字化后的多媒体信息具有数据海量性,与当前硬件技术所能提供的计算机存储资源和网络带宽之间有很大的差距。这样,就对信息的存储和传输造成了很大困难,成为阻碍人们有效获取和利用信息的一个瓶颈问题。图像信息作为计算机上最重要的资源,对其进行有效的压缩处理无疑将给人们带来巨大的好处。
近年来,深度学习,如卷积神经网络(CNNs),在图像处理和计算机视觉方面取得了很大的成功,特别是在诸如识别和理解等高级视觉应用中。这些网络在感知度量上往往优于最先进的工程编解码器,如BPG、WebP和JPEG 2000。除了在自然图像上实现更高的压缩比外,它们还可以很容易地适应于特定的目标域,如立体图像或医学图像,并承诺直接从压缩表示中处理和索引。这使得图像压缩技术取得了很大的进步。
深度神经网络已经发展成为计算机视觉任务的最先进技术。虽然这些神经网络功能强大,但大量的权值消耗了相当大的存储和内存带宽。神经网络模型在移动设备上的存储与计算仍然是一个巨大的挑战。
目前工业级和学术界设计轻量化神经网络模型主要有4个方向:(1)人工设计轻量化神经网络模型、(2)基于神经网络架构搜索(Neural Architecture Search,NAS)的自动化设计神经网络;(3)CNN模型压缩;(4)基于AutoML的自动模型压缩。
传统的深度网络模型主要由卷积层、非线性激活层、下采样层以及全连接层等模块堆叠起来组成。卷积层具有局部连接、权重共享的特点,虽然需要训练的参数不多,但一次前向的耗时较大;相比之下,全连接层虽然参数可达到网络全部参数的80%以上,但占用前向推断的时间不多。经典的深度网络模型可以参考最初用于图像识别的AlexNet或者VGG等网络模型。这些模块大致可分为两类:一类是包括卷积层、全连接层等在内的含有训练参数的模块,其中,参数的数量往往是人为设定的;另一类是包括非线性激活层以及下采样层等在内的不含有任何训练参数的。模型参数在一定程度上代表了模型的复杂度,也在一定程度上决定着模型所占据的空间大小。人为设定的参数数量往往是在实验室经过重复实验调出来的,这种局部最优的超参数并不代表网络的“真正需求”。它们既存在一定程度上的冗余,也没有权衡成本和效果之间的关系。因此,网络压缩的一个方向是通过压缩模型的参数数量来降低模型的复杂度。
模型的运算时间成本并不仅仅依赖模型的参数数量,也依赖于模型的深度。以残差网络为例,尽管在何凯明经典论文中,1000多层的残差网络参数数量不到AlexNet的1/10,但其训练以及测试耗时都明显大于AlexNet。更深的网络还会在训练阶段产生更多的中间变量,而这些中间变量是反向传播算法必不可少的。换句话说,更深的网络模型也有着更大的内存空间的需求。从这个角度看,深度网络模型的压缩不仅仅是减少模型的参数,更重要的是能够降低模型运算时间,将模型的深度控制在合理的范围之内,从而满足实际应用的需要。
模型压缩的主要目标是在满足精度损失要求的情况下,提高模型压缩比例和提升模型预测速度。模型压缩是嵌入式深度学习工程化实现的基础,其可在算法层面对模型体积和计算量进行优化,在此基础上可开展嵌入式架构设计、模型与数据的调度优化等工作。
发明内容
为克服现有技术的不足,本发明旨在解决卷积神经网络模型存储资源开销大、参数计算量大、推断时间长等问题,提供一种卷积神经网络的剪枝优化方案。为此,本发明采取的技术方案是,基于卷积神经网络的图像压缩优化方法,构建包括编码器E、解码器d和对抗网络GAN的网络模型,编码器E为卷积神经网络,解码器d为进行上采样处理的卷积神经网络和进行恢复原始图像维度的反卷积神经网络,由一个discriminator卷积神经网络和一个反卷积神经网络generator构成生成式对抗网络GAN,q为算数运算器,将原始图像x经编码器E编码为特征图w,然后经量化器q量化为再经解码器d,最后经GAN生成图像其中,需首先进行所述网络模型的训练;然后对所述网络模型进行剪枝优化;最后对网络模型进行再训练,利用训练好的网络模型实现图像压缩。
剪枝优化具体步骤是:读取训练好的网络模型数据,取一层卷积神经网络的卷积核K,在谷歌开源深度学习框架TensorFlow中卷积核K为四维张量:卷积核高filter_height,卷积核宽filter_width,输入通道数in_channels,输出通道数out_channels,但计算形式为二维矩阵,与二维矩阵相乘,行为filter_height*filter_width*in_channels,列为out_channels,即卷积核k的个数;计算每个卷积核k的L2范式,依据L2范式的大小决定卷积核k对结果的影响程度,若L2范式越小,则卷积核k对结果影响越小;若L2范式越大,则卷积核k对结果影响越大;
根据需求,删减对结果影响最小的那些卷积核k,即减少二维矩阵K的列数,在选取对结果影响最小的卷积核k时,记录k的列号,删减的过程即是分片再合成的过程;
网络层间的参数传递都是一一对应的,前一层的输出结果,是后一层的输入结果,即修剪了前一层的卷积核个数后,导致输出结果减少,与后一层的输入不匹配,从而对后一层的输入,即后一层K的in_channels,进行相应的修剪;
运用上述相同的方法,对网络层中的偏置bias参数也做相应的修剪;
进而一次完整的剪枝优化操作基本完成,之后再进行网络模型训练,以控制精度偏差;
重复上述操作,至网络模型全部剪枝优化结束。
本发明的特点及有益效果是:
本发明提出了一种卷积神经网络的剪枝优化方案,不同于以往的卷积网络模型,我们设计得到的卷积网络模型,可以有效的解决网络模型存储资源开销大,卷积核参数量大,以及计算量大,推断时间长等问题。为嵌入式等移动终端领域实现大规模卷积神经网络提供了技术支持。在本实例中,模型的存储资源降低了75%,推断时间降低了50%。
附图说明:
图1图像压缩流程图。
图2剪枝优化流程图。
图3卷积核及通道图。
图4修剪卷积核图。
具体实施方式
本发明设计了一种基于卷积神经网络的压缩优化方案。设计了针对大型卷积神经网络的模型存储量大、参数量大、推断时间长等缺陷的优化方案。实现了卷积网络模型的高压缩比,低参数量,缩短推断时间。设计主要包括三个步骤:1)卷积神经网络的训练;2)网络模型的剪枝优化;3)网络模型的再训练。
第一方面,图像压缩GAN网络的训练;
第二方面,网络模型的剪枝优化;
第三方面,网络模型再训练;
本发明设计的是一种基于卷积神经网络的剪枝优化方案。
图像压缩GAN网络的训练,根据GAN网络可以生成数据的特性,将其运用在图像压缩领域进而实现图像的极度压缩。
将原始图像x经编码器E编码为一串编码w,然后经量化器q量化为
Figure BDA0002250668890000031
再经解码器d,最后经GAN网络生成图像
Figure BDA0002250668890000032
从而实现图像的压缩。其中编码器E为卷积神经网络,解码器d、GAN网络包含卷积神经网络和反卷积神经网络,而量化器q为算术运算。
z=d(q(E(x)))
Figure BDA0002250668890000033
网络模型的剪枝优化,在图像压缩GAN网络训练完成后得到最好的网络模型,依次读取每层的网络模型参数,剪枝优化网络模型。
在TensorFlow中一层卷积神经网络的卷积核K由一个四维张量[filter_height,filter_width,in_channels,out_channels]表示,其中[filter_height,filter_width]为卷积核K的大小,in_channels为输入通道数,out_channels为输出通道数。本发明的剪枝优化就是在in_channels和out_channels的层面上进行的。
Figure BDA0002250668890000034
网络模型再训练,在模型剪枝优化后进行微调,再训练网络模型,反复进行剪枝、再训练以达预期。
具体操作:
读取训练好的网络模型数据,取一层卷积神经网络的卷积核K,在TensorFlow中卷积核K为四维张量[filter_height,filter_width,in_channels,out_channels],但计算形式为二维矩阵,如上所示,与二维矩阵相乘,行为filter_height*filter_width*in_channels,列为out_channels,即卷积核k的个数。计算每个卷积核k的L2范式,依据L2范式的大小决定卷积核k对结果的影响程度,若L2范式越小,则卷积核k对结果影响越小;若L2范式越大,则卷积核k对结果影响越大。
根据需求,删减对结果影响最小的那些卷积核k,即减少二维矩阵K的列数。在选取对结果影响最小的卷积核k时,记录k的列号,删减的过程即是分片再合成的过程。
网络层间的参数传递都是一一对应的,前一层的输出结果,是后一层的输入结果,即修剪了前一层的卷积核个数后,导致输出结果减少,与后一层的输入不匹配,从而对后一层的输入,即后一层K的in_channels,进行相应的修剪。
运用上述相同的方法,对网络层中的bias(偏置)参数也做相应的修剪。
进而一次完整的剪枝优化操作基本完成,之后再进行网络模型训练,以保证精度没有太大的偏差。
重复上述操作,至网络模型全部剪枝优化结束。
下面结合附图及实例,对本发明进行进一步详细说明。应该指出,此处所描述的具体实施实例仅仅用以解释本发明,并不用于限定本发明。为了使本发明的目的、技术方案和优点更加清晰,本实例在以本发明技术方案为前提下进行实施,给出了详细的实施方式和具体的操作过程。
本发明是在卷积网络模型训练完成后进行剪枝优化操作,如图1,图2所示。
将卷积网络训练完成后,通过TensorFlow读取模型参数数据,即每层卷积核。计算每个卷积核的L2范式,L2范式越小,对卷积结果影响就越小,查找L2范式最小的那些卷积核,即就是要修剪的卷积核,记录修剪卷积核的列号,相应的修剪本层卷积网络的偏置参数,即与修剪卷积核具有相同列号的偏置参数也应修剪掉,由于卷积神经网络上一层的输出即是下一层的输入,所以上一层修剪卷积核的列号即为下一层输入的行号,即输入通道,所以下一层卷积核的输入通道也应对应的修剪掉,如图3所示。修剪卷积核、偏置参数、输入通道的方法是一样的,修剪过程如图4所示。逐层修剪,每次修剪后都要进行再训练,以保证网络精度基本不变,直至修剪完成。

Claims (2)

1.一种基于卷积神经网络的图像压缩优化方法,其特征是,构建包括编码器E、解码器d和对抗网络GAN的网络模型,编码器E为卷积神经网络,解码器d为进行上采样处理的卷积神经网络和进行恢复原始图像维度的反卷积神经网络,由一个discriminator卷积神经网络和一个反卷积神经网络generator构成生成式对抗网络GAN,q为算数运算器,将原始图像x经编码器E编码为特征图w,然后经量化器q量化为
Figure FDA0002250668880000011
再经解码器d,最后经GAN生成图像
Figure FDA0002250668880000012
其中,需首先进行所述网络模型的训练;然后对所述网络模型进行剪枝优化;最后对网络模型进行再训练,利用训练好的网络模型实现图像压缩。
2.如权利要求1所述的基于卷积神经网络的图像压缩优化方法,其特征是,剪枝优化具体步骤是:读取训练好的网络模型数据,取一层卷积神经网络的卷积核K,在谷歌开源深度学习框架TensorFlow中卷积核K为四维张量:卷积核高filter_height,卷积核宽filter_width,输入通道数in_channels,输出通道数out_channels,但计算形式为二维矩阵,与二维矩阵相乘,行为filter_height*filter_width*in_channels,列为out_channels,即卷积核k的个数;计算每个卷积核k的L2范式,依据L2范式的大小决定卷积核k对结果的影响程度,若L2范式越小,则卷积核k对结果影响越小;若L2范式越大,则卷积核k对结果影响越大;
根据需求,删减对结果影响最小的那些卷积核k,即减少二维矩阵K的列数,在选取对结果影响最小的卷积核k时,记录k的列号,删减的过程即是分片再合成的过程;
网络层间的参数传递都是一一对应的,前一层的输出结果,是后一层的输入结果,即修剪了前一层的卷积核个数后,导致输出结果减少,与后一层的输入不匹配,从而对后一层的输入,即后一层K的in_channels,进行相应的修剪;
运用上述相同的方法,对网络层中的偏置bias参数也做相应的修剪;
进而一次完整的剪枝优化操作基本完成,之后再进行网络模型训练,以控制精度偏差;
重复上述操作,至网络模型全部剪枝优化结束。
CN201911032999.7A 2019-10-28 2019-10-28 基于卷积神经网络的图像压缩优化方法 Pending CN110796251A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911032999.7A CN110796251A (zh) 2019-10-28 2019-10-28 基于卷积神经网络的图像压缩优化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911032999.7A CN110796251A (zh) 2019-10-28 2019-10-28 基于卷积神经网络的图像压缩优化方法

Publications (1)

Publication Number Publication Date
CN110796251A true CN110796251A (zh) 2020-02-14

Family

ID=69441586

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911032999.7A Pending CN110796251A (zh) 2019-10-28 2019-10-28 基于卷积神经网络的图像压缩优化方法

Country Status (1)

Country Link
CN (1) CN110796251A (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112767503A (zh) * 2021-01-15 2021-05-07 北京航空航天大学 一种基于jpeg压缩编码的数字病理全切片图像快速分析方法
CN113033804A (zh) * 2021-03-29 2021-06-25 北京理工大学重庆创新中心 一种面向遥感图像的卷积神经网络压缩方法
CN113037482A (zh) * 2021-04-13 2021-06-25 山东新一代信息产业技术研究院有限公司 一种基于rnn的模型压缩加密方法
CN113240107A (zh) * 2021-05-08 2021-08-10 北京字跳网络技术有限公司 图像处理方法、装置和电子设备
CN113409299A (zh) * 2021-07-12 2021-09-17 北京邮电大学 一种医学图像分割模型压缩方法
CN115374935A (zh) * 2022-09-15 2022-11-22 重庆大学 一种神经网络的剪枝方法
WO2023045870A1 (zh) * 2021-09-24 2023-03-30 北京字跳网络技术有限公司 网络模型的压缩方法、图像生成方法、装置、设备及介质
CN116227364A (zh) * 2023-04-25 2023-06-06 重庆大学 基于改进生成对抗网络与模型压缩的翼型流场预测方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106886975A (zh) * 2016-11-29 2017-06-23 华南理工大学 一种可实时运行的图像风格化方法
CN107516110A (zh) * 2017-08-22 2017-12-26 华南理工大学 一种基于集成卷积编码的医疗问答语义聚类方法
CN107633296A (zh) * 2017-10-16 2018-01-26 中国电子科技集团公司第五十四研究所 一种卷积神经网络构建方法
CN108062780A (zh) * 2017-12-29 2018-05-22 百度在线网络技术(北京)有限公司 图像压缩方法和装置
CN109191402A (zh) * 2018-09-03 2019-01-11 武汉大学 基于对抗生成神经网络的图像修复方法和系统
CN110119811A (zh) * 2019-05-15 2019-08-13 电科瑞达(成都)科技有限公司 一种基于熵重要性准则模型的卷积核裁剪方法
CN110348487A (zh) * 2019-06-13 2019-10-18 武汉大学 一种基于深度学习的高光谱图像压缩方法及装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106886975A (zh) * 2016-11-29 2017-06-23 华南理工大学 一种可实时运行的图像风格化方法
CN107516110A (zh) * 2017-08-22 2017-12-26 华南理工大学 一种基于集成卷积编码的医疗问答语义聚类方法
CN107633296A (zh) * 2017-10-16 2018-01-26 中国电子科技集团公司第五十四研究所 一种卷积神经网络构建方法
CN108062780A (zh) * 2017-12-29 2018-05-22 百度在线网络技术(北京)有限公司 图像压缩方法和装置
US20190206091A1 (en) * 2017-12-29 2019-07-04 Baidu Online Network Technology (Beijing) Co., Ltd Method And Apparatus For Compressing Image
CN109191402A (zh) * 2018-09-03 2019-01-11 武汉大学 基于对抗生成神经网络的图像修复方法和系统
CN110119811A (zh) * 2019-05-15 2019-08-13 电科瑞达(成都)科技有限公司 一种基于熵重要性准则模型的卷积核裁剪方法
CN110348487A (zh) * 2019-06-13 2019-10-18 武汉大学 一种基于深度学习的高光谱图像压缩方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ZHENGGUANG ZHOU,ETC: "Pruning filters for efficient convnets", ARXIV PREPRINT ARXIV:1608.08710 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112767503A (zh) * 2021-01-15 2021-05-07 北京航空航天大学 一种基于jpeg压缩编码的数字病理全切片图像快速分析方法
CN112767503B (zh) * 2021-01-15 2022-08-12 北京航空航天大学 一种基于jpeg压缩编码的数字病理全切片图像快速分析方法
CN113033804A (zh) * 2021-03-29 2021-06-25 北京理工大学重庆创新中心 一种面向遥感图像的卷积神经网络压缩方法
CN113037482A (zh) * 2021-04-13 2021-06-25 山东新一代信息产业技术研究院有限公司 一种基于rnn的模型压缩加密方法
CN113240107A (zh) * 2021-05-08 2021-08-10 北京字跳网络技术有限公司 图像处理方法、装置和电子设备
CN113409299A (zh) * 2021-07-12 2021-09-17 北京邮电大学 一种医学图像分割模型压缩方法
CN113409299B (zh) * 2021-07-12 2022-02-18 北京邮电大学 一种医学图像分割模型压缩方法
WO2023045870A1 (zh) * 2021-09-24 2023-03-30 北京字跳网络技术有限公司 网络模型的压缩方法、图像生成方法、装置、设备及介质
CN115374935A (zh) * 2022-09-15 2022-11-22 重庆大学 一种神经网络的剪枝方法
CN115374935B (zh) * 2022-09-15 2023-08-11 重庆大学 一种神经网络的剪枝方法
CN116227364A (zh) * 2023-04-25 2023-06-06 重庆大学 基于改进生成对抗网络与模型压缩的翼型流场预测方法
CN116227364B (zh) * 2023-04-25 2024-09-13 重庆大学 基于改进生成对抗网络与模型压缩的翼型流场预测方法

Similar Documents

Publication Publication Date Title
CN110796251A (zh) 基于卷积神经网络的图像压缩优化方法
US11593586B2 (en) Object recognition with reduced neural network weight precision
CN110222760B (zh) 一种基于winograd算法的快速图像处理方法
CN108510058B (zh) 神经网络中的权重存储方法以及基于该方法的处理器
CN111091130A (zh) 基于轻量级卷积神经网络的实时图像语义分割方法及系统
CN113344188A (zh) 基于通道注意力模块的轻量级神经网络模型
CN114972107A (zh) 基于多尺度堆叠式注意力网络的低照度图像增强方法
US12050976B2 (en) Convolution operations utilizing nonzero padding data copied from input channel data
KR20200144398A (ko) 클래스 증가 학습을 수행하는 장치 및 그의 동작 방법
EP3766021A1 (en) Cluster compression for compressing weights in neural networks
JP2022534890A (ja) 画像処理方法及び装置、電子機器並びに記憶媒体
Wang et al. Evolutionary multi-objective model compression for deep neural networks
CN115082306A (zh) 一种基于蓝图可分离残差网络的图像超分辨率方法
JP2019197445A (ja) 画像認識装置、画像認識方法、およびプログラム
Li et al. Residual quantization for low bit-width neural networks
CN114882278A (zh) 一种基于注意力机制和迁移学习的轮胎花纹分类方法和装置
CN112949814A (zh) 卷积神经网络的压缩和加速方法、装置及嵌入式设备
CN112200310B (zh) 智能处理器、数据处理方法及存储介质
Liu et al. SuperPruner: automatic neural network pruning via super network
CN116152263A (zh) 一种基于cm-mlp网络的医学图像分割方法
Xia et al. Efficient synthesis of compact deep neural networks
CN114677545A (zh) 一种基于相似性剪枝和高效模块的轻量化图像分类方法
CN115115835A (zh) 图像的语义分割方法、装置、设备、存储介质及程序产品
Yue et al. Really should we pruning after model be totally trained? Pruning based on a small amount of training
CN114626284A (zh) 一种模型处理方法及相关装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
AD01 Patent right deemed abandoned
AD01 Patent right deemed abandoned

Effective date of abandoning: 20240621