CN113554104A - 一种基于深度学习模型的图像分类方法 - Google Patents
一种基于深度学习模型的图像分类方法 Download PDFInfo
- Publication number
- CN113554104A CN113554104A CN202110856234.6A CN202110856234A CN113554104A CN 113554104 A CN113554104 A CN 113554104A CN 202110856234 A CN202110856234 A CN 202110856234A CN 113554104 A CN113554104 A CN 113554104A
- Authority
- CN
- China
- Prior art keywords
- model
- image classification
- similarity
- training
- classification model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
一种基于深度学习模型的图像分类方法,属于图像分类领域。本发明解决了现有针对图像分类的神经网络无法在保证图像分类准确率的同时降低训练时间和模型参数规模的问题。本发明方法包括:建立图像分类模型,对图像分类模型进行冷启动训练;获取图像数据作为训练集,从“V”型相似度曲线中选取一个相似度系数作为相似度阈值,基于该阈值,利用训练集对图像分类模型参数进行训练,获取当前图像分类模型的参数;基于动态阈值和当前图像分类模型的参数,逐步降低该阈值,将训练集输入图像分类模型中,进行图像分类模型训练,获得最优的分类模型,停止图像分类模型训练;将待分类的图像输入最优的图像分类模型,得到图像分类结果。本发明用于图像分类。
Description
技术领域
本发明属于图像分类领域,具体涉及一种基于深度学习模型的图像分类方法。
背景技术
目前,神经网络已广泛应用于人工智能、计算机视觉进而机器学习等各研究方向,例如,语音识别、图像分类以及目标检测等。就神经网络在图像分类的应用领域来说,针对不同图像环境所构建的卷积神经网络之间差异性较大,而对于不同的图像分类网络整体进行差异性的结构优化,势必会需求极大的计算量。同时,超网络优化出的子网络(指优化后的模型)会面临可解释性较低的问题。深度学习的相关研究已经证明,卷积神经网络在训练过程之所以会消耗大量时间,是因为一些可以被替代的卷积占用了大量的模型参数,使得模型结构存在大量冗余。所以,能否尽快确定卷积之间的关系、进而寻找到最优子网络将决定神经网络训练速度的快慢。
在图像分类中,传统的神经网络优化过程中,网络结构的优化一般与网络参数的训练同步进行,这样的优化方法无法得到最优结构,使得优化后的网络结构在训练时间与分类准确率两方面无法兼具,只能获得一个折中的结果,这势必会影响图像分类的准确率。
发明内容
本发明的目的是为了解决现有针对图像分类的神经网络无法在保证图像分类准确率的同时降低训练时间和模型参数规模的问题,现提出了一种基于深度学习模型的图像分类方法。
一种基于深度学习模型的图像分类方法,包括以下步骤:
步骤一、建立图像分类模型,获取图像数据,将图像数据作为训练集,对图像分类模型进行冷启动训练;具体过程包括:
步骤一一、对图像分类模型中每个卷积层中不同卷积的权重进行插值处理,得到规格相同的权重矩阵;
步骤一二、计算每两个卷积权重矩阵之间的相似度系数γ;每一卷积层内n个卷积互相进行相似度系数计算后,每一个卷积则对应有n-1个相似度系数,该n-1个相似度系数组成相似度矩阵;
步骤一三、将每一卷积层中卷积的相似度系数γ转换为折线图,即相似度曲线;
步骤一四、重复执行步骤一一至步骤一三,直至相似度系数γ构成的相似度曲线成“V”型,即完成模型的冷启动训练;
步骤二、从“V”型相似度曲线中选取一个较高的相似度系数作为相似度阈值,基于该相似度阈值,利用训练集对冷启动训练后的图像分类模型参数进行训练,获取当前图像分类模型的参数;
步骤三、基于动态阈值和当前图像分类模型的参数,所述动态阈值初始值为步骤二中的相似度阈值,逐步降低该相似度阈值,将训练集输入图像分类模型中,进行图像分类模型训练,获得最优的分类模型,停止图像分类模型训练;
步骤四、将待分类的图像输入最优的图像分类模型,得到图像分类结果。
本发明的有益效果是:
为了提高图像分类网络的训练效率,本发明针对神经网络结构优化过程中,在神经网络未完成训练的阶段对网络结构进行优化,使得网络结构无法得到最优解的问题,提出了一种动态阈值的三阶段训练方法,利用神经网络卷积层参数计算卷积核相似度,进而指导神经网络结构优化。如图4和5所示,实验表明:在允许图像分类的正确率下降率小于1%的条件下,本发明方法可以有效降低模型训练时间达到约40%;有效降低模型参数规模达到约58%;在大幅度降低模型参数规模的条件下,方法可以有效降低模型训练时间达到约46%;有效降低模型参数规模达到约88%。该方法应用在深度越深、宽度越宽的神经网络中,时间和参数规模上的优化效果会越明显。
附图说明
图1为相似度曲线示例;
图2为模型优化流程;
图3为网络结构在单次迭代中的优化方法;
图4为优化模型与原始模型的分类正确率对比;
图5为优化模型与原始模型的模型参数与训练时间对比;
图中,rbr表示卷积与卷积之间的相似度系数。
具体实施方式
具体实施方式一:结合图1-5具体说明本实施方式,为了提高图像分类网络的训练效率,本发明提出层级相似度进行神经网络结构优化的新方法。利用神经网络卷积层参数计算卷积核相似度,进而指导神经网络结构优化。
本实施方式一种基于深度学习模型的图像分类方法,流程如图2所示,包括以下步骤:
步骤一、模型训练的前期阶段,即模型的冷启动,首先需要建立一个图像分类网络模型,获取图像数据,将图像数据作为训练集,进行默认梯度下降训练;所述图像分类网络模型为一个图像分类超网络结构,具体过程包括:
步骤一一、对图像分类模型中每一个卷积层中不同卷积的权重进行插值处理,得到规格相同的权重矩阵;
步骤一二、计算每两个卷积权重矩阵之间的相似度系数γ;在权重进行插值处理的过程中,将卷积中的一个四维矩阵降维成了(C1×C2)个二维矩阵(K1,K2),所以对于同一层内的两个卷积,均需要计算(C1×C2)次,并计算其平均数;当图像分类模型的每一层内的n个卷积都互相进行相似度系数计算后,每一个卷积就拥有了含有n-1个相似度系数的二维卷积核相似度矩阵,表示为(γ1,γ2,...,γn-1);
步骤一三、将每一卷积层中卷积的相似度系数γ转换为折线图,即相似度曲线;
步骤一四、重复执行步骤一一至步骤一三,直至相似度系数γ构成的相似度曲线成“V”型,即完成模型的冷启动训练;
步骤二、从“V”型相似度曲线中选取一个较高的相似度系数作为相似度阈值,基于此相似度阈值,利用训练集对冷启动后的图像分类模型参数进行训练,获取当前图像分类网络模型的参数;
步骤三、基于动态阈值和当前图像分类模型的参数,所述动态阈值初始值为步骤二中的相似度阈值,逐步降低该相似度阈值,将训练集输入图像分类模型中,进行图像分类模型训练,获得最优的分类模型,停止图像分类模型训练;
步骤四、将待分类的图像输入到最优图像分类网络模型中,进行图像的分类,得到分类结果。在神经网络中,前几层与后几层卷积的相似度较高,中间卷积层的卷积相似度较低。同时,网络训练冷启动会使得前几次迭代的参数变化没有规律,较为混乱。“训练网络直至出现V型曲线”,代表网络参数训练已经经历了冷启动造成混乱的效果,即开始训练模型参数。
本实施方式中,利用上述方法对图像进行分类,在小幅度降低图像分类的准确率的条件下,可大幅度降低图像分类模型的训练时间以及模型参数的规模。
具体实施方式二:本实施方式与具体实施方式一不同的是,所述步骤一一对图像分类模型每一个卷积层中不同卷积的权重进行差值处理,得到规格相同的权重矩阵;具体过程包括:
权重一般为一个四维矩阵(C1,C2,K1,K2),其中,C1,C2为卷积对象的通道数量(channel),K1,K2为卷积对象的卷积核大小(kernel size);本发明将卷积中的四维矩阵进行降维,由一个四维矩阵(C1,C2,K1,K2)降维到(C1×C2)个二维矩阵(K1,K2);降维到多个二维矩阵后,再对该二维矩阵的权重采用双三次插值进行规格统一。
权重矩阵本质上是一个二维矩阵,将矩阵降维到二维再进行规格统一,可以最大限度的保留权重矩阵的数据关系。
双三次插值广泛应用于各种需要运行图像处理的软件、打印机驱动程序或相机中,是最常用的二维插值算法。在本发明中,双三次插值可以在对权重矩阵进行规格统一的同时,有效的保持矩阵在横向、纵向及斜向数据之间的关系,并且降低了运算的复杂度,对于后面进行相似度系数比较起到了积极作用。
其它步骤及参数与具体实施方式一相同。
具体实施方式三:本实施方式与具体实施方式一或二不同的是,所述步骤一二步骤一二计算每两个卷积权重矩阵之间的相似度系数γ的具体过程为:
在得到规格相同的权重矩阵之后,需要计算卷积间权重矩阵的相似度系数,相似度系数是一种等级相关的系数,例如,对于X,Y矩阵的两对观察值(Xi,Yi)和(Xj,Yj),若存在Xi<Yi且Xj<Yj,或Xi>Yi且Xj>Yj,则这两对观察值是和谐的,否则是不和谐的;
相似度系数γ表示为:
在权重进行插值处理的过程中,将卷积中的一个四维矩阵降维成了(C1×C2)个二维矩阵(K1,K2),所以对于同一层内的两个卷积,均需要计算(C1×C2)次,并计算其平均数;当图像分类模型的每一层内的i个卷积都互相进行相似度系数计算后,每一个卷积就拥有了含有(i-1)个相似度系数的二维卷积核相似度矩阵,表示为(γ1,γ2,...,γi-1)。
为了直观的观测到相似度矩阵参数变化的趋势,可以将每一层的相似度系数转换为折线图。例如,如图3所示,每一层共4个卷积核,每两个卷积核之间会产生一个相似度系数,则一层中共包含个不同的卷积相似度系数。同时,示例中卷积神经网络共16层,则一共产生96个散点,将相同名称的散点连线,则可绘制出如图1所示的相似度曲线,其中,横坐标表示卷积神经网络的层数,纵坐标表示相似度系数γ的值,每一条折线代表同一层内的两个卷积相似度系数γ的变化趋势。
其它步骤及参数与具体实施方式一或二相同。
具体实施方式四:本实施方式与具体实施方式一至三之一不同的是,所述步骤二包括:
在训练模型参数阶段,同时小幅度地对模型进行结构优化。即在训练结束后的下一个训练阶段开始循环训练,从“V”型相似度曲线中选取一个较高的相似度系数作为相似度阈值,模型按照相似度矩阵的规则进行优化训练,同时添加记录节点JN1,来记录模型的分类准确率和模型结构,若训练后的模型分类准确率持续下降或者不再上升,则退回到记录节点,重新执行一次训练,直至多次迭代训练后分类准确率仍不再增加,则停止对模型的训练,得到训练好的模型。
本实施方式中,所述的规则为:
I.将相似度矩阵带入冷启动后的图像分类模型中,使相似度矩阵与每一卷积层内的卷积绑定,将相似度矩阵作为训练参数;
II.对于高于相似度阈值的卷积,删除每层每两个卷积中尺寸相对大的卷积;
按照这两个规则对模型进行训练,训练后的模型结构如图3下所示,其中i表示层数,j表示第几个。
在本阶段,设定了一个较高的阈值,这是由于在本阶段,神经网络的参数训练还未结束,卷积间的关系还未固定,所以不应该大幅度的对结构进行裁剪优化。高阈值的设定可以在很大程度上保证结构的完整性,使得一些在网络中发挥较大作用的卷积不会在优化的初期阶段被意外删除,保证了后期网络结构的分类正确率。
同时,在本阶段设定了记录节点JN1,这是为了多次训练,尝试找到最优的模型参数,这会使获得的卷积相似度更为精确,优化效果更为明显。
其它步骤及参数与具体实施方式一至三之一相同。
具体实施方式五:本实施方式与具体实施方式一至四之一不同的是,所述步骤三将训练集输入图像分类模型中,进行图像分类模型训练,获得最优的分类模型,停止图像分类模型训练;具体过程包括:
在得到训练好的模型后,为了提高模型优化的效率,可以保留训练后模型的参数,在此阶段,改变相似度阈值γt的值,逐渐降低训练阶段较高的阈值γt,每降低一次阈值γt,就按照新的阈值对模型进行一次优化,同时添加记录节点JN2,记录此时模型的正确率和模型结构,若优化后的模型分类准确率大幅度下降,则退回到记录节点JN2,调整降低阈值γt的值,按照新的阈值对模型进行再优化,直至降低阈值γt后,模型分类准确率仍持续降低,此时模型即为最优模型。
在本阶段,网络的参数训练已经结束,卷积相似度系数已经固定,所以可以进一步对网络结构进行优化,逐步降低阈值,删除更多的卷积。
同时,本阶段设定了记录节点JN2,这是为了当阈值降低过低,导致删除卷积过多,使得网络分类正确率降低时,可以进行回到所设定的记录节点。由于优化操作本质上是对网络结构进行裁剪,这种设定的加入,可以有效地降低优化风险,为寻求最优网络结构进行保证。
其它步骤及参数与具体实施方式一至四之一相同。
Claims (5)
1.一种基于深度学习模型的图像分类方法,其特征在于,包括以下步骤:
步骤一、建立图像分类模型,获取图像数据,将图像数据作为训练集,对图像分类模型进行冷启动训练;具体过程包括:
步骤一一、对图像分类模型中每个卷积层中不同卷积的权重进行插值处理,得到规格相同的权重矩阵;
步骤一二、计算每两个卷积权重矩阵之间的相似度系数γ;每一卷积层内n个卷积互相进行相似度系数计算后,每一个卷积则对应有n-1个相似度系数,该n-1个相似度系数组成相似度矩阵;
步骤一三、将每一卷积层中卷积的相似度系数γ转换为折线图,即相似度曲线;
步骤一四、重复执行步骤一一至步骤一三,直至相似度系数γ构成的相似度曲线成“V”型,即完成模型的冷启动训练;
步骤二、从“V”型相似度曲线中选取一个相似度系数作为相似度阈值,基于该相似度阈值,利用训练集对冷启动训练后的图像分类模型参数进行训练,获取当前图像分类模型的参数;
步骤三、基于动态阈值和当前图像分类模型的参数,所述动态阈值初始值为步骤二中的相似度阈值,逐步降低该相似度阈值,将训练集输入图像分类模型中,进行图像分类模型训练,获得最优的分类模型,停止图像分类模型训练;
步骤四、将待分类的图像输入最优的图像分类模型,得到图像分类结果。
2.根据权利要求1所述一种基于深度学习模型的图像分类方法,其特征在于,所述步骤一一对图像分类模型中每个卷积层中不同卷积的权重进行插值处理,得到规格相同的权重矩阵,具体过程包括:
将一个卷积的权重作为一个四维矩阵(C1,C2,K1,K2),其中,C1,C2均表示卷积对象的通道数量;K1,K2均表示卷积对象的卷积核大小;将一个四维矩阵(C1,C2,K1,K2)降维到(C1×C2)个二维矩阵(K1,K2);再对(C1×C2)个二维矩阵(K1,K2)进行插值,得到规格相同的权重矩阵。
4.根据权利要求3所述一种基于深度学习模型的图像分类方法,其特征在于,所述步骤二包括:
从“V”型相似度曲线中选取一个相似度系数作为相似度阈值γt,使模型按照步骤一二中相似度系数组成的相似度矩阵的规则进行训练,所述规则为:I.将相似度矩阵带入冷启动后的图像分类模型中,使相似度矩阵与每一卷积层内的卷积绑定,将相似度矩阵作为训练参数;II.对于高于相似度阈值的卷积,删除每层每两个卷积中尺寸相对大的卷积;
同时添加记录节点JN1,记录模型的分类准确率和模型结构,若训练后的模型分类准确率持续下降或不再上升,则退回到记录节点JN1,重新执行一次训练,直至训练后模型分类准确率不再上升,停止训练,得到训练好的模型。
5.根据权利要求4所述一种基于深度学习模型的图像分类方法,其特征在于,所述步骤三将训练集输入图像分类模型中,进行图像分类模型训练,获得最优的分类模型,停止图像分类模型训练,具体过程包括:
保留步骤二训练好的模型参数,降低相似度阈值γt的值,每降低一次阈值γt,则按照新的阈值对该模型进行一次优化,同时添加记录节点JN2,记录此时模型的准确率和模型结构,若优化后的模型分类准确率下降,则退回到记录节点JN2,再降低一次阈值γt的值,按照新的阈值对模型进行再优化,直至模型分类准确率持续降低,此时模型即为最优模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110856234.6A CN113554104B (zh) | 2021-07-28 | 2021-07-28 | 一种基于深度学习模型的图像分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110856234.6A CN113554104B (zh) | 2021-07-28 | 2021-07-28 | 一种基于深度学习模型的图像分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113554104A true CN113554104A (zh) | 2021-10-26 |
CN113554104B CN113554104B (zh) | 2022-09-30 |
Family
ID=78104835
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110856234.6A Active CN113554104B (zh) | 2021-07-28 | 2021-07-28 | 一种基于深度学习模型的图像分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113554104B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114064738A (zh) * | 2022-01-14 | 2022-02-18 | 杭州捷配信息科技有限公司 | 电子元器件替料查找方法、装置及应用 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160358068A1 (en) * | 2015-06-04 | 2016-12-08 | Samsung Electronics Co., Ltd. | Reducing computations in a neural network |
US20180032866A1 (en) * | 2016-07-28 | 2018-02-01 | Samsung Electronics Co., Ltd. | Neural network method and apparatus |
CN108229679A (zh) * | 2017-11-23 | 2018-06-29 | 北京市商汤科技开发有限公司 | 卷积神经网络去冗余方法及装置、电子设备和存储介质 |
CN110598731A (zh) * | 2019-07-31 | 2019-12-20 | 浙江大学 | 一种基于结构化剪枝的高效图像分类方法 |
CN111126602A (zh) * | 2019-12-25 | 2020-05-08 | 浙江大学 | 一种基于卷积核相似性剪枝的循环神经网络模型压缩方法 |
CN111325342A (zh) * | 2020-02-19 | 2020-06-23 | 深圳中兴网信科技有限公司 | 模型的压缩方法、装置、目标检测设备和存储介质 |
CN111563591A (zh) * | 2020-05-08 | 2020-08-21 | 北京百度网讯科技有限公司 | 超网络的训练方法和装置 |
CN111738414A (zh) * | 2020-06-11 | 2020-10-02 | 北京百度网讯科技有限公司 | 推荐模型的生成、内容推荐方法、装置、设备和介质 |
CN113052211A (zh) * | 2021-03-11 | 2021-06-29 | 天津大学 | 一种基于特征的秩和通道重要性的剪枝方法 |
CN113065636A (zh) * | 2021-02-27 | 2021-07-02 | 华为技术有限公司 | 一种卷积神经网络的剪枝处理方法、数据处理方法及设备 |
CN113128660A (zh) * | 2019-12-31 | 2021-07-16 | 深圳云天励飞技术有限公司 | 深度学习模型压缩方法及相关设备 |
-
2021
- 2021-07-28 CN CN202110856234.6A patent/CN113554104B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160358068A1 (en) * | 2015-06-04 | 2016-12-08 | Samsung Electronics Co., Ltd. | Reducing computations in a neural network |
US20180032866A1 (en) * | 2016-07-28 | 2018-02-01 | Samsung Electronics Co., Ltd. | Neural network method and apparatus |
CN108229679A (zh) * | 2017-11-23 | 2018-06-29 | 北京市商汤科技开发有限公司 | 卷积神经网络去冗余方法及装置、电子设备和存储介质 |
CN110598731A (zh) * | 2019-07-31 | 2019-12-20 | 浙江大学 | 一种基于结构化剪枝的高效图像分类方法 |
US20210049423A1 (en) * | 2019-07-31 | 2021-02-18 | Zhejiang University | Efficient image classification method based on structured pruning |
CN111126602A (zh) * | 2019-12-25 | 2020-05-08 | 浙江大学 | 一种基于卷积核相似性剪枝的循环神经网络模型压缩方法 |
CN113128660A (zh) * | 2019-12-31 | 2021-07-16 | 深圳云天励飞技术有限公司 | 深度学习模型压缩方法及相关设备 |
CN111325342A (zh) * | 2020-02-19 | 2020-06-23 | 深圳中兴网信科技有限公司 | 模型的压缩方法、装置、目标检测设备和存储介质 |
CN111563591A (zh) * | 2020-05-08 | 2020-08-21 | 北京百度网讯科技有限公司 | 超网络的训练方法和装置 |
CN111738414A (zh) * | 2020-06-11 | 2020-10-02 | 北京百度网讯科技有限公司 | 推荐模型的生成、内容推荐方法、装置、设备和介质 |
CN113065636A (zh) * | 2021-02-27 | 2021-07-02 | 华为技术有限公司 | 一种卷积神经网络的剪枝处理方法、数据处理方法及设备 |
CN113052211A (zh) * | 2021-03-11 | 2021-06-29 | 天津大学 | 一种基于特征的秩和通道重要性的剪枝方法 |
Non-Patent Citations (5)
Title |
---|
PAVLO MOLCHANOV ET AL: "Importance Estimation for Neural Network Pruning", 《2019 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》 * |
YUANHONG MAO ET AL: "Efficient Convolution Neural Networks for Object Tracking Using Separable Convolution and Filter Pruning", 《IEEE ACCESS》 * |
尹文枫等: "卷积神经网络压缩与加速技术研究进展", 《计算机系统应用》 * |
张明明等: "基于联合动态剪枝的深度神经网络压缩算法", 《计算机应用》 * |
王鹏鸣;何鸣;王红滨: "融合先验知识的深度学习模型快速训练方法", 《哈尔滨工程大学学报》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114064738A (zh) * | 2022-01-14 | 2022-02-18 | 杭州捷配信息科技有限公司 | 电子元器件替料查找方法、装置及应用 |
CN114064738B (zh) * | 2022-01-14 | 2022-04-29 | 杭州捷配信息科技有限公司 | 电子元器件替料查找方法、装置及应用 |
Also Published As
Publication number | Publication date |
---|---|
CN113554104B (zh) | 2022-09-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106250939B (zh) | 基于fpga+arm多层卷积神经网络的手写体字符识别方法 | |
CN111489364B (zh) | 基于轻量级全卷积神经网络的医学图像分割方法 | |
CN109005398B (zh) | 一种基于卷积神经网络的立体图像视差匹配方法 | |
CN112949678A (zh) | 深度学习模型对抗样本生成方法、系统、设备及存储介质 | |
JP2023523029A (ja) | 画像認識モデル生成方法、装置、コンピュータ機器及び記憶媒体 | |
CN112488070A (zh) | 一种面向遥感图像目标检测的神经网络压缩方法 | |
CN107967516A (zh) | 一种基于迹范数约束的神经网络的加速与压缩方法 | |
US20200349424A1 (en) | Memory layouts and conversion to improve neural network inference performance | |
CN111861906A (zh) | 一种路面裂缝图像虚拟增广模型建立及图像虚拟增广方法 | |
CN110909874A (zh) | 一种神经网络模型的卷积运算优化方法和装置 | |
CN112348119B (zh) | 基于胶囊网络的图像分类方法、存储介质及电子设备 | |
CN110991621A (zh) | 一种基于通道数搜索卷积神经网络的方法 | |
CN111986085A (zh) | 一种基于深度反馈注意力网络系统的图像超分辨率方法 | |
CN115019173A (zh) | 基于ResNet50的垃圾识别与分类方法 | |
CN113554104B (zh) | 一种基于深度学习模型的图像分类方法 | |
CN114861838A (zh) | 一种基于神经元复杂动力学的脉冲神经类脑智能分类方法 | |
CN114882278A (zh) | 一种基于注意力机制和迁移学习的轮胎花纹分类方法和装置 | |
CN114419361A (zh) | 基于门控局部通道注意力的神经网络图像分类方法 | |
CN114119391A (zh) | 对抗神经网络去噪模型的建立方法及超声图像去噪方法 | |
CN115860113B (zh) | 一种自对抗神经网络模型的训练方法及相关装置 | |
CN116992941A (zh) | 基于特征相似与特征补偿的卷积神经网络剪枝方法及装置 | |
CN116823659A (zh) | 一种基于深度特征提取的微光图像增强方法 | |
CN116824232A (zh) | 一种数据填充式的深度神经网络图像分类模型对抗训练方法 | |
CN111899161A (zh) | 一种超分辨率重建方法 | |
Sarkar et al. | An incremental pruning strategy for fast training of CNN models |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |