CN112734010A - 一种适用于图像识别的卷积神经网络模型压缩方法 - Google Patents

一种适用于图像识别的卷积神经网络模型压缩方法 Download PDF

Info

Publication number
CN112734010A
CN112734010A CN202110010138.XA CN202110010138A CN112734010A CN 112734010 A CN112734010 A CN 112734010A CN 202110010138 A CN202110010138 A CN 202110010138A CN 112734010 A CN112734010 A CN 112734010A
Authority
CN
China
Prior art keywords
convolution
neural network
kernel
convolutional
convolutional neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110010138.XA
Other languages
English (en)
Other versions
CN112734010B (zh
Inventor
易清明
曾宪鹏
石敏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jinan University
Original Assignee
Jinan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jinan University filed Critical Jinan University
Priority to CN202110010138.XA priority Critical patent/CN112734010B/zh
Publication of CN112734010A publication Critical patent/CN112734010A/zh
Application granted granted Critical
Publication of CN112734010B publication Critical patent/CN112734010B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/95Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Complex Calculations (AREA)

Abstract

本发明公开了一种适用于图像识别的卷积神经网络模型压缩方法,属于卷积神经网络模型压缩技术领域。本发明首先确定所选需要压缩的卷积神经网络应包含一个以上的卷积层,并且在每个卷积层中都存在多个卷积核过滤器,每个卷积核过滤器都存在多个通道,每个通道都是一个卷积核,每个卷积核都与一个输入特征图相对应;其次依次计算各个卷积层卷积核参数量的大小,确定最大值裁剪的顺序;最终按照最大值裁剪顺序,依据权重和标准对各层卷积核进行裁剪,完成所有卷积层的裁剪操作。本发明通过在权重和评价卷积核重要性的基础上,引入了最大值裁剪策略,能够弥补卷积层层间冗余差异性所带来的裁剪不彻底的问题,有效地压缩卷积神经网模型。

Description

一种适用于图像识别的卷积神经网络模型压缩方法
技术领域
本发明涉及卷积神经网络模型压缩技术领域,具体涉及一种适用于图像识别的卷积神经网络模型压缩方法。
背景技术
近年来,伴随着快速发展的深度学习理论,基于图像识别的卷积神经网络的关注度和应用爆发增长。在智能硬件方面,像现在的智能手表、AI芯片等嵌入式设备,都有着大量的基于图像识别方面的应用,这都需要庞大的卷积神经网络的应用支持。然而卷积神经网络通常有数十亿个参数,这使得采用嵌入式设备应用卷积神经网络有着非常繁重的计算量和内存负担。如何有效地压缩卷积神经网络模型,减少参数冗余,并在嵌入式设备上高效实现,是研究者们待解决的问题。
一般来说,卷积神经网络中会存在大量的数据参数和相互连接的网络层,比如熟知的AlexNet和VGGNet网络就因为存在海量的网络参数而达到了240M和540M的大小。当然,更多的数据参数和网络层方便了卷积神经网络的训练的准确度,但同时也给模型本身带来了许多问题,比如最明显的运算速率、存储和能耗高的问题,特别是应用在嵌入式设备上,会让原本就资源紧张和能耗较少的情况变得更加严重。基于这种情况,业界提出了卷积神经网络的压缩加速概念,主要是指通过减少卷积神经网络的冗余参数来减少模型大小,从而能够在不轻易降低卷积神经网络的精度的前提下使其能够在资源紧张的嵌入式设备上实现。
目前比较流行的模型压缩方法即是对卷积神经网络进行模型剪枝,模型剪枝的优化方式主要分为两类:结构化稀疏裁剪和非结构化稀疏裁剪。但是非结构化稀疏裁剪会出现结构化的输入特征图与非结构化的卷积核进行卷积运算速度变慢的情况。而结构化稀疏裁剪是依靠一些准确合适的评价标准,来裁剪掉不重要的卷积核,但是往往忽视了不同卷积层参数冗余大小不一的情况,只关注卷积核评价标准会存在裁剪不充分、不彻底的问题。
发明内容
本发明的目的是为了解决现有技术中结构化稀疏裁剪只关注卷积核评价标准而忽视了卷积层层间冗余的差异性所带来的裁剪不充分、不彻底的问题,提供一种适用于图像识别的卷积神经网络模型压缩方法。
本发明的目的可以通过采取如下技术方案达到:
一种适用于图像识别的卷积神经网络模型压缩方法,所选待压缩的卷积神经网络包含一个以上的卷积层,并且在每个卷积层中都存在一个以上卷积核过滤器,每个卷积核过滤器都存在一个以上通道,每个通道都是一个卷积核,每个卷积核都与一个输入特征图相对应,所述的压缩方法包括以下步骤:
S1、确定所选需要压缩的卷积神经网络的四维张量;
S2、计算所选需要压缩的卷积神经网络中每层卷积层的卷积核参数量,并将卷积层的卷积核参数量按照从大到小的顺序排序,从而确定卷积层裁剪的先后顺序,该卷积层裁剪的先后顺序为从卷积神经网络中卷积核参数量最多的卷积层向卷积核参数量最少的卷积层方向裁剪;
S3、在每一个卷积层中,将卷积核绝对值之和的大小作为卷积核重要性的评价标准,计算每个卷积核绝对值之和,并将其排序,同时绘制卷积核L1范数曲线图,确定卷积核裁剪阈值,将卷积核绝对值较小的卷积核裁减掉,最终完成所有卷积核裁剪操作。
进一步地,所述的步骤S1中确定的卷积神经网络四维张量,表示为MxNxWxW,其中M是卷积核过滤器的数量,N是每个卷积核过滤器存在的通道数,WxW是一个二维矩阵的卷积核,W表示卷积核的长和宽。
进一步地,所述的步骤S2过程如下:
S21、首先计算所需要裁剪的卷积神经网络每个卷积层的卷积核参数量,并将数据存储在数据集合中,按照降序的方法排序,每个卷积层卷积核参数量的计算公式如式(1)所示:
Y=W×W×N×M (1);
S22、根据所有卷积层卷积核参数量的降序排序结果,确定卷积核参数量从多到少所对应的卷积层的顺序;
S23、并以此顺序作为卷积核裁剪的最大值裁剪顺序,开始每个卷积层的卷积核裁剪操作。
进一步地,所述的步骤S3过程如下:
S31、首先设置一个数据集合,用来存储卷积核绝对值之和的数据,计算当前层所有卷积核绝对值之和并将数据存入到数据集合中;
S32、将数据集合中的数据按照升序的方式排序,同时绘制卷积核L1范数曲线图,并确定卷积核裁剪阈值;
S33、将集合中绝对值之和最小的卷积核裁减掉,并将其数据从数据集合中删除;
S34、判断当前层卷积核裁剪数是否小于裁剪阈值,如果小于裁剪阈值,则返回步骤S33,否则进入步骤S35;
S35、将裁剪后待压缩的卷积神经网络微调训练两次,其微调训练过程为先对待压缩的卷积神经网络的参数进行初始化,并缩小卷积神经网络的学习率到初始学习率的1/10,然后进行卷积神经网络训练;上述微调训练可以提高其网络模型的泛化能力,提升卷积神经网络的性能;
S36、测试卷积神经网络的准确率,将得到的准确率与判断阈值进行比较,如果卷积神经网络的准确率小于事先设定的判断阈值,则返回步骤S32,重新确定卷积核裁剪阈值,否则进入步骤S37;
S37、完成当前卷积层的卷积核裁剪任务,按照最大值裁剪的顺序进入到下一个卷积层进行卷积核裁剪操作,直至完成所有卷积核裁剪操作。
进一步地,所述的判断阈值设定为压缩后的卷积神经网络的准确率比压缩前的卷积神经网络的准确率少1%。
本发明相对于现有技术具有如下的优点及效果:
本发明综合考虑卷积核评价标准和卷积层层间冗余的差异性,能够在传统卷积核裁剪的基础上,引入最大值裁剪策略,通过对卷积层裁剪顺序的重新排序,更加充分地压缩卷积神经网络模型,能够以损失较少的卷积神经网络模型准确率的为代价,大大降低卷积神经网络卷积核的参数量。
附图说明
图1是本发明实施例公开的一种适用于图像识别的卷积神经网络模型压缩方法中卷积核裁剪示意图;
图2是本发明实施例公开的一种适用于图像识别的卷积神经网络模型压缩方法中绝对值之和最小的卷积核裁剪图;
图3是本发明实施例公开的一种适用于图像识别的卷积神经网络模型压缩方法中每个卷积层卷积核裁剪算法流程图;
图4是本发明实施例公开的一种适用于图像识别的卷积神经网络模型压缩方法中基于最大值裁剪策略的卷积核裁剪算法流程图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例
本实施例公开了一种适用于图像识别的卷积神经网络模型压缩方法,所选待压缩的卷积神经网络包含一个以上的卷积层,并且在每个卷积层中都存在一个以上卷积核过滤器,每个卷积核过滤器都存在一个以上通道,每个通道都是一个卷积核,每个卷积核都与一个输入特征图相对应,该压缩方法包括以下步骤:
首先,计算卷积神经网络中不同层卷积核的参数量。
分别提取不同卷积层卷积核的四维张量,卷积核的四维张量可表示为M x N x Wx W,四维张量包括卷积核过滤器数量M,每个卷积核过滤器中的通道数N,二维卷积核矩阵的长和宽W。
根据卷积核的四维张量计算每层卷积核的参数量,如式(1)所示。
Y=W×W×N×M (1)
卷积核裁剪过程结合图1和图2,卷积核裁剪标准以权重和的大小作为参考依据,根据卷积核绝对值之和的排序结果,裁减掉绝对值之和较小的卷积核。图1是卷积核裁剪的示意图,从左到右依次为输入层、卷积核和激活通道,将当前卷积层中重要性最低的卷积核裁剪掉,即可完成一次卷积核裁剪操作。
图2是绝对值之和最小的卷积核裁剪图,假如当前卷积层卷积核二维矩阵的长和宽W均为3,且每个卷积核过滤器中均存在四个卷积核,每个卷积核过滤器中卷积核裁剪阈值为1,则会首先将卷积核绝对值之和排序最小的卷积核裁减掉。并且因为卷积核裁剪阈值为1,当前的卷积核过滤器不会继续进行裁剪,最终每个卷积核过滤器均裁剪掉一个重要性最低的卷积核。
图3所示,是本实施例中每个卷积层卷积核裁剪算法流程图,其中卷积核裁剪的具体步骤如下:
T1、首先设置一个数据集合,用来存储卷积核绝对值之和的数据,计算当前层所有卷积核绝对值之和并将数据存入到数据集合中;
T2、将数据集合中的数据按照升序的方式排序,同时绘制卷积核L1范数曲线图,并确定卷积核裁剪阈值;
T3、将集合中绝对值之和最小的卷积核裁减掉,并将其数据从数据集合中删除;
T4、判断当前层卷积核裁剪数是否小于裁剪阈值,如果小于裁剪阈值,则返回步骤T3,否则进入步骤T5;
T5、将裁剪后的卷积神经网络模型微调训练两次,其过程为先对待压缩的卷积神经网络的参数进行初始化,并缩小卷积神经网络的学习率到初始学习率的1/10,然后进行模型训练,以提高其网络模型的泛化能力,提升卷积神经网络的性能;
T6、测试卷积神经网络的准确率,判断其是否大于等于设定的准确率阈值,本发明中准确率阈值设定为比压缩前的卷积神经网络模型的准确率少1%,如果卷积神经网络的准确率小于设定的阈值,则返回步骤T2,重新确定卷积核裁剪阈值,否则进入步骤T7;
T7、完成当前卷积层的卷积核裁剪任务,按照最大值裁剪的顺序进入到下一个卷积层进行卷积核裁剪操作。
图4所示,是本发明一种适用于图像识别的卷积核裁剪方法流程图。其主要具体步骤如下:
R1、首先计算所需要裁剪的卷积神经网络每个卷积层的卷积核参数量,并将数据存储在数据集合中,按照降序的方法排序;
R2、根据所有卷积层卷积核参数量的降序排序结果,确定卷积核参数量从多到少所对应的卷积层的顺序,以此为卷积核裁剪的最大值裁剪顺序,并开始裁剪操作;
R3、依据图3中每个卷积层卷积核裁剪算法流程,以权重和为卷积核重要性的标准,裁减掉当前卷积层相应不重要的卷积核;最终完成所有卷积层卷积核的裁剪操作。
这样,通过以上所有具体步骤,可以最大程度地裁剪掉卷积神经网络中不重要的卷积核,大大降低卷积神经网络的冗余性,有效实现对卷积神经网络的模型压缩设计。
为了评估本发明的性能,本发明采用VIPLFaceNet网络模型进行实验与验证,并将改进前后的实验结果进行对比分析,通过客观实验参数验证本发明的有效性。测试条件及配置参数如下:
(1)硬件配置:CPU:Inter(R)Core(TM)i7-8700CPU;主频:3.20GHz;运行内存:8GB。
(2)开发工具:Visual Studio Code;
(3)测试数据集:LFW Face Database;
首先确定卷积神经网络的卷积核裁剪顺序,本实验将不同裁剪策略的方法做了简单的对比,以下是基于VIPLFaceNet网络的不同裁剪策略对比表。
表1.VIPLFcaeNet网络模型不同裁剪策略对比表
Figure BDA0002881830400000071
Figure BDA0002881830400000081
最终,本实施例在基于最大值裁剪顺序的前提下,依据权重和标准对卷积核进行了裁剪操作,实验结果如表2所示。
表2.实验结果对比表
参数量(K) 存储空间(M) 压缩倍数 准确率(%)
压缩前 1505 6 1x 98.6
最大值裁剪 384 1.53 3.92x 98.37
由上表可以看出,本发明利用卷积层层间冗余的差异性,在传统基于权重和评价卷积核重要性的基础上,引入了最大值裁剪策略,对卷积神经网络的模型压缩具有较高的效果。与裁剪前的网络模型相比,本发明在仅损失0.23%的准确率的情况下,能够将卷积核参数量压缩3.92倍。本发明不仅大大降低了卷积神经网络的参数量,同时保证了网络模型的准确率,具有一定的实际意义。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (5)

1.一种适用于图像识别的卷积神经网络模型压缩方法,所选待压缩的卷积神经网络包含一个以上的卷积层,并且在每个卷积层中都存在一个以上卷积核过滤器,每个卷积核过滤器都存在一个以上通道,每个通道都是一个卷积核,每个卷积核都与一个输入特征图相对应,其特征在于,所述的压缩方法包括以下步骤:
S1、确定所选需要压缩的卷积神经网络的四维张量;
S2、计算所选需要压缩的卷积神经网络中每层卷积层的卷积核参数量,并将卷积层的卷积核参数量按照从大到小的顺序排序,从而确定卷积层裁剪的先后顺序,该卷积层裁剪的先后顺序为从卷积神经网络中卷积核参数量最多的卷积层向卷积核参数量最少的卷积层方向裁剪;
S3、在每一个卷积层中,将卷积核绝对值之和的大小作为卷积核重要性的评价标准,计算每个卷积核绝对值之和,并将其排序,同时绘制卷积核L1范数曲线图,确定卷积核裁剪阈值,将卷积核绝对值较小的卷积核裁减掉,最终完成所有卷积核裁剪操作。
2.根据权利要求1中所述的一种适用于图像识别的卷积神经网络模型压缩方法,其特征在于,所述的步骤S1中确定的卷积神经网络四维张量,表示为MxNxWxW,其中M是卷积核过滤器的数量,N是每个卷积核过滤器存在的通道数,WxW是一个二维矩阵的卷积核,W表示卷积核的长和宽。
3.根据权利要求2中所述的一种适用于图像识别的卷积神经网络模型压缩方法,其特征在于,所述的步骤S2过程如下:
S21、首先计算所需要裁剪的卷积神经网络每个卷积层的卷积核参数量,并将数据存储在数据集合中,按照降序的方法排序,每个卷积层卷积核参数量的计算公式如式(1)所示:
Y=W×W×N×M (1);
S22、根据所有卷积层卷积核参数量的降序排序结果,确定卷积核参数量从多到少所对应的卷积层的顺序;
S23、并以此顺序作为卷积核裁剪的最大值裁剪顺序,开始每个卷积层的卷积核裁剪操作。
4.根据权利要求1中所述的一种适用于图像识别的卷积神经网络模型压缩方法,其特征在于,所述的步骤S3过程如下:
S31、首先设置一个数据集合,用来存储卷积核绝对值之和的数据,计算当前层所有卷积核绝对值之和并将数据存入到数据集合中;
S32、将数据集合中的数据按照升序的方式排序,同时绘制卷积核L1范数曲线图,并确定卷积核裁剪阈值;
S33、将集合中绝对值之和最小的卷积核裁减掉,并将其数据从数据集合中删除;
S34、判断当前层卷积核裁剪数是否小于裁剪阈值,如果小于裁剪阈值,则返回步骤S33,否则进入步骤S35;
S35、将裁剪后待压缩的卷积神经网络微调训练两次,其微调训练过程为先对待压缩的卷积神经网络的参数进行初始化,并缩小卷积神经网络的学习率到初始学习率的1/10,然后进行卷积神经网络训练;
S36、测试卷积神经网络的准确率,将得到的准确率与判断阈值进行比较,如果卷积神经网络的准确率小于事先设定的判断阈值,则返回步骤S32,重新确定卷积核裁剪阈值,否则进入步骤S37;
S37、完成当前卷积层的卷积核裁剪任务,按照最大值裁剪的顺序进入到下一个卷积层进行卷积核裁剪操作,直至完成所有卷积核裁剪操作。
5.根据权利要求4中所述的一种适用于图像识别的卷积神经网络模型压缩方法,其特征在于,所述的判断阈值设定为压缩后的卷积神经网络的准确率比压缩前的卷积神经网络的准确率少1%。
CN202110010138.XA 2021-01-04 2021-01-04 一种适用于图像识别的卷积神经网络模型压缩方法 Active CN112734010B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110010138.XA CN112734010B (zh) 2021-01-04 2021-01-04 一种适用于图像识别的卷积神经网络模型压缩方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110010138.XA CN112734010B (zh) 2021-01-04 2021-01-04 一种适用于图像识别的卷积神经网络模型压缩方法

Publications (2)

Publication Number Publication Date
CN112734010A true CN112734010A (zh) 2021-04-30
CN112734010B CN112734010B (zh) 2024-04-16

Family

ID=75591418

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110010138.XA Active CN112734010B (zh) 2021-01-04 2021-01-04 一种适用于图像识别的卷积神经网络模型压缩方法

Country Status (1)

Country Link
CN (1) CN112734010B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113935485A (zh) * 2021-12-15 2022-01-14 江苏游隼微电子有限公司 一种基于相邻层权重的卷积神经网络裁剪方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110826684B (zh) * 2018-08-08 2022-04-05 北京交通大学 卷积神经网络的压缩方法、装置、电子设备和介质
CN109359726A (zh) * 2018-11-27 2019-02-19 华中科技大学 一种基于winograd算法的卷积神经网络优化方法
CN110119811B (zh) * 2019-05-15 2021-07-27 电科瑞达(成都)科技有限公司 一种基于熵重要性准则模型的卷积核裁剪方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113935485A (zh) * 2021-12-15 2022-01-14 江苏游隼微电子有限公司 一种基于相邻层权重的卷积神经网络裁剪方法
CN113935485B (zh) * 2021-12-15 2022-03-04 江苏游隼微电子有限公司 一种基于相邻层权重的卷积神经网络裁剪方法

Also Published As

Publication number Publication date
CN112734010B (zh) 2024-04-16

Similar Documents

Publication Publication Date Title
CN108764471B (zh) 基于特征冗余分析的神经网络跨层剪枝方法
WO2016101628A1 (zh) 一种数据建模中的数据处理方法及装置
CN107506865B (zh) 一种基于lssvm优化的负荷预测方法及系统
CN110119811B (zh) 一种基于熵重要性准则模型的卷积核裁剪方法
CN108491226B (zh) 基于集群缩放的Spark配置参数自动调优方法
CN115578248B (zh) 一种基于风格引导的泛化增强图像分类算法
CN112990420A (zh) 一种用于卷积神经网络模型的剪枝方法
CN112270405A (zh) 基于范数的卷积神经网络模型的滤波器剪枝方法和系统
CN113657421A (zh) 卷积神经网络压缩方法和装置、图像分类方法和装置
CN112766491A (zh) 一种基于泰勒展开及数据驱动的神经网络压缩方法
CN112734010B (zh) 一种适用于图像识别的卷积神经网络模型压缩方法
CN111931848A (zh) 数据的特征提取方法、装置、计算机设备及存储介质
CN110751278A (zh) 一种神经网络比特量化方法和系统
CN113327227A (zh) 一种基于MobilenetV3的小麦头快速检测方法
CN111160491B (zh) 一种卷积神经网络中的池化方法和池化模型
CN111582442A (zh) 一种基于优化深度神经网络模型的图像识别方法
CN115544033B (zh) 查重向量库更新、数据查重方法、装置、设备和介质
CN116303386A (zh) 一种基于关系图谱的缺失数据智能插补方法和系统
CN113554104B (zh) 一种基于深度学习模型的图像分类方法
CN115081609A (zh) 一种智能决策中的加速方法、终端设备及存储介质
CN112738724B (zh) 一种区域目标人群的精准识别方法、装置、设备和介质
CN113962158A (zh) 基于改进决策树的压路机施工工艺知识库构建方法及系统
CN113076663A (zh) 一种动态混合精度模型构建方法及系统
CN108932550B (zh) 一种基于模糊密集稀疏密集算法进行图像分类的方法
Chu et al. Similarity based filter pruning for efficient super-resolution models

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant