CN110796251A - 基于卷积神经网络的图像压缩优化方法 - Google Patents
基于卷积神经网络的图像压缩优化方法 Download PDFInfo
- Publication number
- CN110796251A CN110796251A CN201911032999.7A CN201911032999A CN110796251A CN 110796251 A CN110796251 A CN 110796251A CN 201911032999 A CN201911032999 A CN 201911032999A CN 110796251 A CN110796251 A CN 110796251A
- Authority
- CN
- China
- Prior art keywords
- network
- neural network
- convolution
- convolution kernel
- network model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000006835 compression Effects 0.000 title claims description 26
- 238000007906 compression Methods 0.000 title claims description 26
- 238000005457 optimization Methods 0.000 title claims description 25
- 238000013527 convolutional neural network Methods 0.000 title claims description 23
- 238000000034 method Methods 0.000 title claims description 21
- 238000004364 calculation method Methods 0.000 claims abstract description 6
- 238000012545 processing Methods 0.000 claims abstract description 6
- 238000013138 pruning Methods 0.000 claims description 24
- 238000013528 artificial neural network Methods 0.000 claims description 17
- 238000012549 training Methods 0.000 claims description 16
- 239000011159 matrix material Substances 0.000 claims description 11
- 238000013135 deep learning Methods 0.000 claims description 4
- 230000005540 biological transmission Effects 0.000 claims description 3
- 239000012634 fragment Substances 0.000 claims description 3
- 238000003062 neural network model Methods 0.000 abstract description 4
- 238000013461 design Methods 0.000 description 6
- 244000141353 Prunus domestica Species 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000009966 trimming Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/002—Image coding using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
Description
技术领域
本发明涉及到卷积神经网络领域、图形图像领域及移动终端领域。具体涉及基于卷积神经网络的压缩优化方法。
背景技术
图像是对客观事物的一种相似性的、生动的描述,是对客观对象的一种比较直观的表示方式。它包含了被描述对象的有关信息,是人们最主要的信息来源。据统计,一个人获得的信息大约有75%来自视觉。进入信息化时代人们将越来越依靠计算机获取和利用信息,而数字化后的多媒体信息具有数据海量性,与当前硬件技术所能提供的计算机存储资源和网络带宽之间有很大的差距。这样,就对信息的存储和传输造成了很大困难,成为阻碍人们有效获取和利用信息的一个瓶颈问题。图像信息作为计算机上最重要的资源,对其进行有效的压缩处理无疑将给人们带来巨大的好处。
近年来,深度学习,如卷积神经网络(CNNs),在图像处理和计算机视觉方面取得了很大的成功,特别是在诸如识别和理解等高级视觉应用中。这些网络在感知度量上往往优于最先进的工程编解码器,如BPG、WebP和JPEG 2000。除了在自然图像上实现更高的压缩比外,它们还可以很容易地适应于特定的目标域,如立体图像或医学图像,并承诺直接从压缩表示中处理和索引。这使得图像压缩技术取得了很大的进步。
深度神经网络已经发展成为计算机视觉任务的最先进技术。虽然这些神经网络功能强大,但大量的权值消耗了相当大的存储和内存带宽。神经网络模型在移动设备上的存储与计算仍然是一个巨大的挑战。
目前工业级和学术界设计轻量化神经网络模型主要有4个方向:(1)人工设计轻量化神经网络模型、(2)基于神经网络架构搜索(Neural Architecture Search,NAS)的自动化设计神经网络;(3)CNN模型压缩;(4)基于AutoML的自动模型压缩。
传统的深度网络模型主要由卷积层、非线性激活层、下采样层以及全连接层等模块堆叠起来组成。卷积层具有局部连接、权重共享的特点,虽然需要训练的参数不多,但一次前向的耗时较大;相比之下,全连接层虽然参数可达到网络全部参数的80%以上,但占用前向推断的时间不多。经典的深度网络模型可以参考最初用于图像识别的AlexNet或者VGG等网络模型。这些模块大致可分为两类:一类是包括卷积层、全连接层等在内的含有训练参数的模块,其中,参数的数量往往是人为设定的;另一类是包括非线性激活层以及下采样层等在内的不含有任何训练参数的。模型参数在一定程度上代表了模型的复杂度,也在一定程度上决定着模型所占据的空间大小。人为设定的参数数量往往是在实验室经过重复实验调出来的,这种局部最优的超参数并不代表网络的“真正需求”。它们既存在一定程度上的冗余,也没有权衡成本和效果之间的关系。因此,网络压缩的一个方向是通过压缩模型的参数数量来降低模型的复杂度。
模型的运算时间成本并不仅仅依赖模型的参数数量,也依赖于模型的深度。以残差网络为例,尽管在何凯明经典论文中,1000多层的残差网络参数数量不到AlexNet的1/10,但其训练以及测试耗时都明显大于AlexNet。更深的网络还会在训练阶段产生更多的中间变量,而这些中间变量是反向传播算法必不可少的。换句话说,更深的网络模型也有着更大的内存空间的需求。从这个角度看,深度网络模型的压缩不仅仅是减少模型的参数,更重要的是能够降低模型运算时间,将模型的深度控制在合理的范围之内,从而满足实际应用的需要。
模型压缩的主要目标是在满足精度损失要求的情况下,提高模型压缩比例和提升模型预测速度。模型压缩是嵌入式深度学习工程化实现的基础,其可在算法层面对模型体积和计算量进行优化,在此基础上可开展嵌入式架构设计、模型与数据的调度优化等工作。
发明内容
为克服现有技术的不足,本发明旨在解决卷积神经网络模型存储资源开销大、参数计算量大、推断时间长等问题,提供一种卷积神经网络的剪枝优化方案。为此,本发明采取的技术方案是,基于卷积神经网络的图像压缩优化方法,构建包括编码器E、解码器d和对抗网络GAN的网络模型,编码器E为卷积神经网络,解码器d为进行上采样处理的卷积神经网络和进行恢复原始图像维度的反卷积神经网络,由一个discriminator卷积神经网络和一个反卷积神经网络generator构成生成式对抗网络GAN,q为算数运算器,将原始图像x经编码器E编码为特征图w,然后经量化器q量化为再经解码器d,最后经GAN生成图像其中,需首先进行所述网络模型的训练;然后对所述网络模型进行剪枝优化;最后对网络模型进行再训练,利用训练好的网络模型实现图像压缩。
剪枝优化具体步骤是:读取训练好的网络模型数据,取一层卷积神经网络的卷积核K,在谷歌开源深度学习框架TensorFlow中卷积核K为四维张量:卷积核高filter_height,卷积核宽filter_width,输入通道数in_channels,输出通道数out_channels,但计算形式为二维矩阵,与二维矩阵相乘,行为filter_height*filter_width*in_channels,列为out_channels,即卷积核k的个数;计算每个卷积核k的L2范式,依据L2范式的大小决定卷积核k对结果的影响程度,若L2范式越小,则卷积核k对结果影响越小;若L2范式越大,则卷积核k对结果影响越大;
根据需求,删减对结果影响最小的那些卷积核k,即减少二维矩阵K的列数,在选取对结果影响最小的卷积核k时,记录k的列号,删减的过程即是分片再合成的过程;
网络层间的参数传递都是一一对应的,前一层的输出结果,是后一层的输入结果,即修剪了前一层的卷积核个数后,导致输出结果减少,与后一层的输入不匹配,从而对后一层的输入,即后一层K的in_channels,进行相应的修剪;
运用上述相同的方法,对网络层中的偏置bias参数也做相应的修剪;
进而一次完整的剪枝优化操作基本完成,之后再进行网络模型训练,以控制精度偏差;
重复上述操作,至网络模型全部剪枝优化结束。
本发明的特点及有益效果是:
本发明提出了一种卷积神经网络的剪枝优化方案,不同于以往的卷积网络模型,我们设计得到的卷积网络模型,可以有效的解决网络模型存储资源开销大,卷积核参数量大,以及计算量大,推断时间长等问题。为嵌入式等移动终端领域实现大规模卷积神经网络提供了技术支持。在本实例中,模型的存储资源降低了75%,推断时间降低了50%。
附图说明:
图1图像压缩流程图。
图2剪枝优化流程图。
图3卷积核及通道图。
图4修剪卷积核图。
具体实施方式
本发明设计了一种基于卷积神经网络的压缩优化方案。设计了针对大型卷积神经网络的模型存储量大、参数量大、推断时间长等缺陷的优化方案。实现了卷积网络模型的高压缩比,低参数量,缩短推断时间。设计主要包括三个步骤:1)卷积神经网络的训练;2)网络模型的剪枝优化;3)网络模型的再训练。
第一方面,图像压缩GAN网络的训练;
第二方面,网络模型的剪枝优化;
第三方面,网络模型再训练;
本发明设计的是一种基于卷积神经网络的剪枝优化方案。
图像压缩GAN网络的训练,根据GAN网络可以生成数据的特性,将其运用在图像压缩领域进而实现图像的极度压缩。
将原始图像x经编码器E编码为一串编码w,然后经量化器q量化为再经解码器d,最后经GAN网络生成图像从而实现图像的压缩。其中编码器E为卷积神经网络,解码器d、GAN网络包含卷积神经网络和反卷积神经网络,而量化器q为算术运算。
z=d(q(E(x)))
网络模型的剪枝优化,在图像压缩GAN网络训练完成后得到最好的网络模型,依次读取每层的网络模型参数,剪枝优化网络模型。
在TensorFlow中一层卷积神经网络的卷积核K由一个四维张量[filter_height,filter_width,in_channels,out_channels]表示,其中[filter_height,filter_width]为卷积核K的大小,in_channels为输入通道数,out_channels为输出通道数。本发明的剪枝优化就是在in_channels和out_channels的层面上进行的。
网络模型再训练,在模型剪枝优化后进行微调,再训练网络模型,反复进行剪枝、再训练以达预期。
具体操作:
读取训练好的网络模型数据,取一层卷积神经网络的卷积核K,在TensorFlow中卷积核K为四维张量[filter_height,filter_width,in_channels,out_channels],但计算形式为二维矩阵,如上所示,与二维矩阵相乘,行为filter_height*filter_width*in_channels,列为out_channels,即卷积核k的个数。计算每个卷积核k的L2范式,依据L2范式的大小决定卷积核k对结果的影响程度,若L2范式越小,则卷积核k对结果影响越小;若L2范式越大,则卷积核k对结果影响越大。
根据需求,删减对结果影响最小的那些卷积核k,即减少二维矩阵K的列数。在选取对结果影响最小的卷积核k时,记录k的列号,删减的过程即是分片再合成的过程。
网络层间的参数传递都是一一对应的,前一层的输出结果,是后一层的输入结果,即修剪了前一层的卷积核个数后,导致输出结果减少,与后一层的输入不匹配,从而对后一层的输入,即后一层K的in_channels,进行相应的修剪。
运用上述相同的方法,对网络层中的bias(偏置)参数也做相应的修剪。
进而一次完整的剪枝优化操作基本完成,之后再进行网络模型训练,以保证精度没有太大的偏差。
重复上述操作,至网络模型全部剪枝优化结束。
下面结合附图及实例,对本发明进行进一步详细说明。应该指出,此处所描述的具体实施实例仅仅用以解释本发明,并不用于限定本发明。为了使本发明的目的、技术方案和优点更加清晰,本实例在以本发明技术方案为前提下进行实施,给出了详细的实施方式和具体的操作过程。
本发明是在卷积网络模型训练完成后进行剪枝优化操作,如图1,图2所示。
将卷积网络训练完成后,通过TensorFlow读取模型参数数据,即每层卷积核。计算每个卷积核的L2范式,L2范式越小,对卷积结果影响就越小,查找L2范式最小的那些卷积核,即就是要修剪的卷积核,记录修剪卷积核的列号,相应的修剪本层卷积网络的偏置参数,即与修剪卷积核具有相同列号的偏置参数也应修剪掉,由于卷积神经网络上一层的输出即是下一层的输入,所以上一层修剪卷积核的列号即为下一层输入的行号,即输入通道,所以下一层卷积核的输入通道也应对应的修剪掉,如图3所示。修剪卷积核、偏置参数、输入通道的方法是一样的,修剪过程如图4所示。逐层修剪,每次修剪后都要进行再训练,以保证网络精度基本不变,直至修剪完成。
Claims (2)
2.如权利要求1所述的基于卷积神经网络的图像压缩优化方法,其特征是,剪枝优化具体步骤是:读取训练好的网络模型数据,取一层卷积神经网络的卷积核K,在谷歌开源深度学习框架TensorFlow中卷积核K为四维张量:卷积核高filter_height,卷积核宽filter_width,输入通道数in_channels,输出通道数out_channels,但计算形式为二维矩阵,与二维矩阵相乘,行为filter_height*filter_width*in_channels,列为out_channels,即卷积核k的个数;计算每个卷积核k的L2范式,依据L2范式的大小决定卷积核k对结果的影响程度,若L2范式越小,则卷积核k对结果影响越小;若L2范式越大,则卷积核k对结果影响越大;
根据需求,删减对结果影响最小的那些卷积核k,即减少二维矩阵K的列数,在选取对结果影响最小的卷积核k时,记录k的列号,删减的过程即是分片再合成的过程;
网络层间的参数传递都是一一对应的,前一层的输出结果,是后一层的输入结果,即修剪了前一层的卷积核个数后,导致输出结果减少,与后一层的输入不匹配,从而对后一层的输入,即后一层K的in_channels,进行相应的修剪;
运用上述相同的方法,对网络层中的偏置bias参数也做相应的修剪;
进而一次完整的剪枝优化操作基本完成,之后再进行网络模型训练,以控制精度偏差;
重复上述操作,至网络模型全部剪枝优化结束。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911032999.7A CN110796251A (zh) | 2019-10-28 | 2019-10-28 | 基于卷积神经网络的图像压缩优化方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911032999.7A CN110796251A (zh) | 2019-10-28 | 2019-10-28 | 基于卷积神经网络的图像压缩优化方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110796251A true CN110796251A (zh) | 2020-02-14 |
Family
ID=69441586
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911032999.7A Pending CN110796251A (zh) | 2019-10-28 | 2019-10-28 | 基于卷积神经网络的图像压缩优化方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110796251A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112767503A (zh) * | 2021-01-15 | 2021-05-07 | 北京航空航天大学 | 一种基于jpeg压缩编码的数字病理全切片图像快速分析方法 |
CN113033804A (zh) * | 2021-03-29 | 2021-06-25 | 北京理工大学重庆创新中心 | 一种面向遥感图像的卷积神经网络压缩方法 |
CN113037482A (zh) * | 2021-04-13 | 2021-06-25 | 山东新一代信息产业技术研究院有限公司 | 一种基于rnn的模型压缩加密方法 |
CN113240107A (zh) * | 2021-05-08 | 2021-08-10 | 北京字跳网络技术有限公司 | 图像处理方法、装置和电子设备 |
CN113409299A (zh) * | 2021-07-12 | 2021-09-17 | 北京邮电大学 | 一种医学图像分割模型压缩方法 |
CN115374935A (zh) * | 2022-09-15 | 2022-11-22 | 重庆大学 | 一种神经网络的剪枝方法 |
WO2023045870A1 (zh) * | 2021-09-24 | 2023-03-30 | 北京字跳网络技术有限公司 | 网络模型的压缩方法、图像生成方法、装置、设备及介质 |
CN116227364A (zh) * | 2023-04-25 | 2023-06-06 | 重庆大学 | 基于改进生成对抗网络与模型压缩的翼型流场预测方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106886975A (zh) * | 2016-11-29 | 2017-06-23 | 华南理工大学 | 一种可实时运行的图像风格化方法 |
CN107516110A (zh) * | 2017-08-22 | 2017-12-26 | 华南理工大学 | 一种基于集成卷积编码的医疗问答语义聚类方法 |
CN107633296A (zh) * | 2017-10-16 | 2018-01-26 | 中国电子科技集团公司第五十四研究所 | 一种卷积神经网络构建方法 |
CN108062780A (zh) * | 2017-12-29 | 2018-05-22 | 百度在线网络技术(北京)有限公司 | 图像压缩方法和装置 |
CN109191402A (zh) * | 2018-09-03 | 2019-01-11 | 武汉大学 | 基于对抗生成神经网络的图像修复方法和系统 |
CN110119811A (zh) * | 2019-05-15 | 2019-08-13 | 电科瑞达(成都)科技有限公司 | 一种基于熵重要性准则模型的卷积核裁剪方法 |
CN110348487A (zh) * | 2019-06-13 | 2019-10-18 | 武汉大学 | 一种基于深度学习的高光谱图像压缩方法及装置 |
-
2019
- 2019-10-28 CN CN201911032999.7A patent/CN110796251A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106886975A (zh) * | 2016-11-29 | 2017-06-23 | 华南理工大学 | 一种可实时运行的图像风格化方法 |
CN107516110A (zh) * | 2017-08-22 | 2017-12-26 | 华南理工大学 | 一种基于集成卷积编码的医疗问答语义聚类方法 |
CN107633296A (zh) * | 2017-10-16 | 2018-01-26 | 中国电子科技集团公司第五十四研究所 | 一种卷积神经网络构建方法 |
CN108062780A (zh) * | 2017-12-29 | 2018-05-22 | 百度在线网络技术(北京)有限公司 | 图像压缩方法和装置 |
US20190206091A1 (en) * | 2017-12-29 | 2019-07-04 | Baidu Online Network Technology (Beijing) Co., Ltd | Method And Apparatus For Compressing Image |
CN109191402A (zh) * | 2018-09-03 | 2019-01-11 | 武汉大学 | 基于对抗生成神经网络的图像修复方法和系统 |
CN110119811A (zh) * | 2019-05-15 | 2019-08-13 | 电科瑞达(成都)科技有限公司 | 一种基于熵重要性准则模型的卷积核裁剪方法 |
CN110348487A (zh) * | 2019-06-13 | 2019-10-18 | 武汉大学 | 一种基于深度学习的高光谱图像压缩方法及装置 |
Non-Patent Citations (1)
Title |
---|
ZHENGGUANG ZHOU,ETC: "Pruning filters for efficient convnets", ARXIV PREPRINT ARXIV:1608.08710 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112767503A (zh) * | 2021-01-15 | 2021-05-07 | 北京航空航天大学 | 一种基于jpeg压缩编码的数字病理全切片图像快速分析方法 |
CN112767503B (zh) * | 2021-01-15 | 2022-08-12 | 北京航空航天大学 | 一种基于jpeg压缩编码的数字病理全切片图像快速分析方法 |
CN113033804A (zh) * | 2021-03-29 | 2021-06-25 | 北京理工大学重庆创新中心 | 一种面向遥感图像的卷积神经网络压缩方法 |
CN113037482A (zh) * | 2021-04-13 | 2021-06-25 | 山东新一代信息产业技术研究院有限公司 | 一种基于rnn的模型压缩加密方法 |
CN113240107A (zh) * | 2021-05-08 | 2021-08-10 | 北京字跳网络技术有限公司 | 图像处理方法、装置和电子设备 |
CN113409299A (zh) * | 2021-07-12 | 2021-09-17 | 北京邮电大学 | 一种医学图像分割模型压缩方法 |
CN113409299B (zh) * | 2021-07-12 | 2022-02-18 | 北京邮电大学 | 一种医学图像分割模型压缩方法 |
WO2023045870A1 (zh) * | 2021-09-24 | 2023-03-30 | 北京字跳网络技术有限公司 | 网络模型的压缩方法、图像生成方法、装置、设备及介质 |
CN115374935A (zh) * | 2022-09-15 | 2022-11-22 | 重庆大学 | 一种神经网络的剪枝方法 |
CN115374935B (zh) * | 2022-09-15 | 2023-08-11 | 重庆大学 | 一种神经网络的剪枝方法 |
CN116227364A (zh) * | 2023-04-25 | 2023-06-06 | 重庆大学 | 基于改进生成对抗网络与模型压缩的翼型流场预测方法 |
CN116227364B (zh) * | 2023-04-25 | 2024-09-13 | 重庆大学 | 基于改进生成对抗网络与模型压缩的翼型流场预测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110796251A (zh) | 基于卷积神经网络的图像压缩优化方法 | |
US11593586B2 (en) | Object recognition with reduced neural network weight precision | |
CN110222760B (zh) | 一种基于winograd算法的快速图像处理方法 | |
CN108510058B (zh) | 神经网络中的权重存储方法以及基于该方法的处理器 | |
CN111091130A (zh) | 基于轻量级卷积神经网络的实时图像语义分割方法及系统 | |
CN113344188A (zh) | 基于通道注意力模块的轻量级神经网络模型 | |
CN114972107A (zh) | 基于多尺度堆叠式注意力网络的低照度图像增强方法 | |
US12050976B2 (en) | Convolution operations utilizing nonzero padding data copied from input channel data | |
KR20200144398A (ko) | 클래스 증가 학습을 수행하는 장치 및 그의 동작 방법 | |
EP3766021A1 (en) | Cluster compression for compressing weights in neural networks | |
JP2022534890A (ja) | 画像処理方法及び装置、電子機器並びに記憶媒体 | |
Wang et al. | Evolutionary multi-objective model compression for deep neural networks | |
CN115082306A (zh) | 一种基于蓝图可分离残差网络的图像超分辨率方法 | |
JP2019197445A (ja) | 画像認識装置、画像認識方法、およびプログラム | |
Li et al. | Residual quantization for low bit-width neural networks | |
CN114882278A (zh) | 一种基于注意力机制和迁移学习的轮胎花纹分类方法和装置 | |
CN112949814A (zh) | 卷积神经网络的压缩和加速方法、装置及嵌入式设备 | |
CN112200310B (zh) | 智能处理器、数据处理方法及存储介质 | |
Liu et al. | SuperPruner: automatic neural network pruning via super network | |
CN116152263A (zh) | 一种基于cm-mlp网络的医学图像分割方法 | |
Xia et al. | Efficient synthesis of compact deep neural networks | |
CN114677545A (zh) | 一种基于相似性剪枝和高效模块的轻量化图像分类方法 | |
CN115115835A (zh) | 图像的语义分割方法、装置、设备、存储介质及程序产品 | |
Yue et al. | Really should we pruning after model be totally trained? Pruning based on a small amount of training | |
CN114626284A (zh) | 一种模型处理方法及相关装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
AD01 | Patent right deemed abandoned | ||
AD01 | Patent right deemed abandoned |
Effective date of abandoning: 20240621 |