CN111160530A - 模型的压缩处理方法、装置及计算机设备 - Google Patents

模型的压缩处理方法、装置及计算机设备 Download PDF

Info

Publication number
CN111160530A
CN111160530A CN201911393420.XA CN201911393420A CN111160530A CN 111160530 A CN111160530 A CN 111160530A CN 201911393420 A CN201911393420 A CN 201911393420A CN 111160530 A CN111160530 A CN 111160530A
Authority
CN
China
Prior art keywords
convolution
mutual information
neural network
model
convolution kernel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911393420.XA
Other languages
English (en)
Inventor
向辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Beijing Ltd
Original Assignee
Lenovo Beijing Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Beijing Ltd filed Critical Lenovo Beijing Ltd
Priority to CN201911393420.XA priority Critical patent/CN111160530A/zh
Publication of CN111160530A publication Critical patent/CN111160530A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本申请涉及一种模型的压缩处理方法、装置及计算机设备,该方法通过将多个样本输入神经网络模型,来获取神经网络模型的至少一个卷积层中卷积核输出的各样本的特征图,并确定各样本的特征图与样本标签之间的互信息;之后从神经网络模型的至少一个卷积层中裁减掉对应的互信息满足互信息条件的卷积核,得到裁减后的神经网络模型。本申请通过选择性地裁减掉神经网络模型卷积层中的部分卷积核,实现了模型压缩,精简了模型结构,基于压缩所得的轻量级模型,可达到降低对设备内存的需求量、提升模型预测速度的目的,且由于在进行模型结构裁减时,选择性地裁减掉了卷积层中互信息满足条件的卷积核,从而还可以同时保证裁减后所得的模型的预测准确度。

Description

模型的压缩处理方法、装置及计算机设备
技术领域
本申请属于人工智能中的模型优化领域,尤其涉及一种模型的压缩处理方法、装置及计算机设备。
背景技术
神经网络模型,是一种模仿动物的神经网络行为特征,进行分布式并行信息处理的算法模型,是人工智能领域的研究热点,其在模式识别、智能机器人、自动控制、预测估计等领域已成功地解决了许多现代计算机难以解决的实际问题。
目前的神经网络模型随着层数的加深,精度越来越高,模型体积越来越大,带来的影响就是对设备的内存容量需求更大,相应还会拖慢模型的实时性预测速度。
发明内容
有鉴于此,本申请的目的在于提供一种模型的压缩处理方法、装置及计算机设备,以通过选择性地裁减掉神经网络模型卷积层的部分卷积核,实现在保证模型预测准确度的前提下进行模型压缩,进而基于压缩得到的轻量级模型达到降低模型对设备内存的需求量、提升模型预测速度的目的。
为此,本申请公开如下技术方案:
一种模型的压缩处理方法,包括:
获取神经网络模型的多个样本;
将所述多个样本输入神经网络模型;
获取神经网络模型的至少一个卷积层中卷积核输出的各个样本的特征图;
确定卷积核输出的各个样本的特征图与各个样本的标签之间的互信息;
从所述至少一个卷积层中裁减掉对应的互信息满足互信息条件的至少一个卷积核,得到裁减后的神经网络模型。
上述方法,优选的,所述从所述至少一个卷积层中裁减掉对应的互信息满足互信息条件的至少一个卷积核,包括:
从所述至少一个卷积层中裁减掉对应的互信息小于设定阈值的至少一个卷积核;或者,裁减掉卷积层中互信息最小的前预定数量的至少一个卷积核。
上述方法,优选的,所述从所述至少一个卷积层中裁减掉对应的互信息满足互信息条件的至少一个卷积核,包括:
对于所述至少一个卷积层中的卷积层,执行以下操作:
基于预先设定的最大裁减比例及模型预测性能评价参数的最小阈值,逐次裁减掉所述卷积层中互信息最小的卷积核,直至所述卷积层的卷积核达到所述最大裁减比例或者神经网络模型的模型预测性能评价参数值降低至所述最小阈值时结束;
其中,所述模型预测性能评价参数的取值与模型性能呈正相关关系。
上述方法,优选的,所述获取神经网络模型的至少一个卷积层中卷积核输出的各个样本的特征图,包括:
获取神经网络模型的所有卷积层中每个卷积核输出的各个样本的特征图。
上述方法,优选的,所述基于预先设定的最大裁减比例及模型预测性能评价参数的最小阈值,逐次裁减掉卷积层中互信息最小的卷积核,直至所述至少一个卷积层中每个卷积层的卷积核达到所述最大裁减比例或者神经网络模型的模型预测性能评价参数值降低至所述最小阈值时结束,包括:
按互信息大小对相应卷积层中的各个卷积核进行排序;
按预定顺序对神经网络模型至少一个卷积层中的相应卷积层执行以下的卷积核裁减操作:
基于预先设定的最大裁减比例及ROC曲线下与坐标轴围成的面积的最小阈值,逐次裁减掉卷积层中处于卷积核序列相应端点处的互信息最小的卷积核,直至神经网络模型的每个卷积层达到所述最大裁减比例或者神经网络模型的ROC曲线下与坐标轴围成的面积降低至所述最小阈值时结束;
其中,ROC是一个用于度量分类中的非均衡性的工具。
一种计算机设备,包括:
存储器,用于至少存储一组指令集;
处理器,用于调用并执行所述存储器中的所述指令集,通过执行所述指令集进行以下处理:
获取神经网络模型的多个样本;
将所述多个样本输入神经网络模型;
获取神经网络模型的至少一个卷积层中卷积核输出的各个样本的特征图;
确定卷积核输出的各个样本的特征图与各个样本的标签之间的互信息;
从所述至少一个卷积层中裁减掉对应的互信息满足互信息条件的至少一个卷积核,得到裁减后的神经网络模型。
上述计算机设备,优选的,所述处理器从所述至少一个卷积层中裁减掉对应的互信息满足互信息条件的至少一个卷积核,包括:
从所述至少一个卷积层中裁减掉对应的互信息小于设定阈值的至少一个卷积核;或者,裁减掉卷积层中互信息最小的前预定数量的至少一个卷积核。
上述计算机设备,优选的,所述处理器从所述至少一个卷积层中裁减掉对应的互信息满足互信息条件的至少一个卷积核,具体包括:
对于所述至少一个卷积层中的卷积层,执行以下操作:
基于预先设定的最大裁减比例及模型预测性能评价参数的最小阈值,逐次裁减掉所述卷积层中互信息最小的卷积核,直至所述卷积层的卷积核达到所述最大裁减比例或者神经网络模型的模型预测性能评价参数值降低至所述最小阈值时结束;
其中,所述模型预测性能评价参数的取值与模型性能呈正相关关系。
上述计算机设备,优选的,所述处理器基于预先设定的最大裁减比例及模型预测性能评价参数的最小阈值,逐次裁减掉卷积层中互信息最小的卷积核,直至所述至少一个卷积层中每个卷积层的卷积核达到所述最大裁减比例或者神经网络模型的模型预测性能评价参数值降低至所述最小阈值时结束,具体包括:
按互信息大小对相应卷积层中的各个卷积核进行排序;按预定顺序对神经网络模型至少一个卷积层中的相应卷积层执行以下的卷积核裁减操作:基于预先设定的最大裁减比例及ROC曲线下与坐标轴围成的面积的最小阈值,逐次裁减掉卷积层中处于卷积核序列相应端点处的互信息最小的卷积核,直至神经网络模型的每个卷积层达到所述最大裁减比例或者神经网络模型的ROC曲线下与坐标轴围成的面积降低至所述最小阈值时结束;
其中,ROC是一个用于度量分类中的非均衡性的工具。
一种模型的压缩处理装置,包括:
第一获取单元,用于获取神经网络模型的多个样本;
输入单元,用于将所述多个样本输入神经网络模型;
第二获取单元,用于获取神经网络模型的至少一个卷积层中卷积核输出的各个样本的特征图;
确定单元,用于确定卷积核输出的各个样本的特征图与各个样本的标签之间的互信息;
裁减单元,用于从所述至少一个卷积层中裁减掉对应的互信息满足互信息条件的至少一个卷积核,得到裁减后的神经网络模型。
经由以上方案可知,本申请提供的模型的压缩处理方法、装置及计算机设备,通过将多个样本输入神经网络模型,来获取神经网络模型的至少一个卷积层中卷积核输出的各样本的特征图,并确定各样本的特征图与样本标签之间的互信息;之后从神经网络模型的至少一个卷积层中裁减掉对应的互信息满足互信息条件的卷积核,得到裁减后的神经网络模型。本申请通过选择性地裁减掉神经网络模型卷积层中的部分卷积核,实现了模型压缩,精简了模型结构,基于压缩所得的轻量级模型,可达到降低对设备内存的需求量、提升模型预测速度的目的,且由于在进行模型结构裁减时,选择性地裁减掉了卷积层中互信息满足条件的卷积核,从而还可以同时保证裁减后所得的模型的预测准确度。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1是本申请实施例提供的模型的压缩处理方法的一种流程示意图;
图2是本申请实施例提供的模型的压缩处理方法的另一种流程示意图;
图3是本申请实施例提供的结合AUC按设定的裁减比例对卷积层中的卷积核进行裁减的处理过程流程图;
图4是本申请实施例提供的不同卷积层中卷积核的互信息取值示意图;
图5是本申请实施例提供的卷积层中卷积核的互信息分布状况示意图;
图6是本申请实施例提供的计算机设备的结构示意图;
图7是本申请实施例提供的模型的压缩处理装置的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请提供了一种模型的压缩处理方法、装置及计算机设备,能通过选择性地裁减掉神经网络模型至少一个卷积层中的部分卷积核,实现在保证模型预测性能(预测准确度、稳定性等)的前提下进行模型压缩,进而基于压缩得到的轻量级模型达到降低模型对设备内存的需求量、提升模型预测速度的目的。以下将通过具体实施例对本申请的模型的压缩处理方法、装置及计算机设备进行说明。
在本申请一可选实施例中,公开了一种模型的压缩处理方法,该方法可以应用于但不限于智能手机、个人数字助理、平板电脑等便携式终端设备,或者还可以应用于通用/专用计算或配置环境中的便携式计算机(如笔记本)、台式计算机或大中型计算机、后台服务器等设备。
参阅图1,示出了本实施例中模型的压缩处理方法的流程图,如图1所示,本实施例中,该模型的压缩处理方法包括:
步骤101、获取神经网络模型的多个样本。
该神经网络模型,可以是但不限于已训练好的、或者至少已完成部分训练任务后所得的深度神经网络(Deep Neural Networks,DNN)、循环神经网络(Recurrent NeuralNetwork,RNN)、递归神经网络(Recursive Neural Network,RNN)、卷积网络等各种类型的神经网络处理模型。
本步骤中,获取神经网络模型的多个样本,目的在于为后续计算模型卷积层中卷积核的样本特征图与样本标签之间的互信息做好数据准备。
步骤102、将所述多个样本输入神经网络模型。
获得所述多个样本后,将各个样本分别输入神经网络模型。
步骤103、获取神经网络模型的至少一个卷积层中卷积核输出的各个样本的特征图。
在将获得的各个样本输入神经网络模型后,进一步获取神经网络模型的至少一个卷积层中卷积核输出的各个样本的特征图。
可选地,可以获取神经网络模型的全部卷积层或一部分卷积层中每个卷积核输出的多个样本的多个特征图,比如,获得卷积层L1(当然还可以是其他的一个或多个卷积层)中卷积核filter1输出的多个样本的多个特征图、卷积核filter2输出的多个样本的多个特征图……卷积核filter n(n为自然数)输出的多个样本的多个特征图等等。
步骤104、确定卷积核输出的各个样本的特征图与各个样本的标签之间的互信息。
每个样本均对应一个真实的样本类别,并具有相应的类别标签,在获取神经网络模型的至少一个卷积层中卷积核输出的各个样本的特征图后,本实施例针对卷积层中的卷积核,继续计算卷积核输出的各个样本的特征图与各个样本的标签(类别标签)之间的互信息。
本实施例计算卷积核输出的各个样本的特征图与各个样本的标签之间的互信息,目的在于衡量卷积核在模型预测中的重要性,发明人经研究发现,卷积核输出的各个样本的特征图与各个样本的标签之间的互信息大小,与卷积核在模型预测中的重要程度呈正相关关系,其中,所对应的互信息取值越大,相应表征卷积核所包含的有用信息(对于模型预测而言)的信息量越多,则卷积核在模型预测中的重要程度越高;反之,所对应的互信息取值越小,相应表征卷积核所包含的有用信息(对于模型预测而言)的信息量越少,则卷积核在模型预测中的重要程度则越低。
步骤105、从所述至少一个卷积层中裁减掉对应的互信息满足互信息条件的至少一个卷积核,得到裁减后的神经网络模型。
在确定出卷积核输出的各个样本的特征图与各个样本的标签之间的互信息基础上,本实施例进一步基于设定的互信息条件,从神经网络模型的至少一个卷积层中裁减掉满足该互信息条件的至少一个卷积核,以此实现精简模型的结构、进行模型压缩。
容易理解的是,可通过对所述互信息条件的设定,来尽可能裁减掉神经网络模型的卷积层中对于模型预测来说重要程度低的卷积核,而保留对于模型预测来说重要程度高的卷积核,以实现在精简模型结构的同时还能够尽可能保证模型的预测性能,确保其仍能具备较好的预测准确度及稳定性。
基于以上特点,具体实施中,可以但不限于将所述互信息条件设定为以下条件中的任意之一:
条件一:互信息小于设定的阈值;
条件二:属于所在的卷积层中低互信息取值中的前top k(k为设定的自然数);
条件三:属于所在的卷积层中设定比例的低互信息取值中的之一。
从而,本步骤中,可以从至少一个卷积层中裁减掉对应的互信息小于设定阈值的至少一个卷积核;或者,裁减掉卷积层中互信息最小的前预定数量的至少一个卷积核,或者,裁减掉卷积层中设定比例(如20%)的低互信息取值所对应的至少一个卷积核。
经由以上方案可知,本实施例通过将多个样本输入神经网络模型,来获取神经网络模型的至少一个卷积层中卷积核输出的各样本的特征图,并确定各样本的特征图与样本标签之间的互信息;之后从神经网络模型的至少一个卷积层中裁减掉对应的互信息满足互信息条件的卷积核,得到裁减后的神经网络模型。本申请通过选择性地裁减掉神经网络模型卷积层中的部分卷积核,实现了模型压缩,精简了模型结构,基于压缩所得的轻量级模型,可达到降低对设备内存的需求量、提升模型预测速度的目的,且由于在进行模型结构裁减时,选择性地裁减掉了卷积层中互信息满足条件的卷积核,从而还可以同时保证裁减后所得的模型的预测准确度。
在本申请一可选实施例中,参阅图2示出的模型的压缩处理方法流程图,该方法可以进一步通过以下的处理过程实现:
步骤201、获取神经网络模型的多个样本。
具体实施中,可根据实际情况,选取尽可能多的样本,样本量越多,统计信息越丰富、可以使得在进行模型压缩时尽可能准确地筛选出重要程度高的卷积核,相应准确地裁减掉重要程度低的卷积核。
示例性地,比如,可以获得相应类型的神经网络模型的N(如10000)个图像样本,其中,包括n1(如5000)个自然风景样本,以及包括n2(如5000)个人物样本。
步骤202、将所述多个样本输入神经网络模型。
比如,可将获得的所述10000个图像样本输入神经网络模型。
步骤203、获取神经网络模型的至少一个卷积层中卷积核输出的各个样本的特征图。
在将获得的各个样本输入神经网络模型后,进一步获取神经网络模型的至少一个卷积层中卷积核输出的各个样本的特征图。
仍以向神经网络模型输入上述的10000个图像样本为例,可选地,可以获取神经网络模型的全部卷积层或一部分卷积层中每个卷积核输出的10000个样本的10000个特征图,比如,获得卷积层L1(当然还可以是其他的一个或多个卷积层)中卷积核filter1输出的10000个样本的10000个特征图、卷积核filter2输出的10000个样本的10000个特征图……卷积核filter n(n为自然数)输出的10000个样本的10000个特征图等等。
步骤204、确定卷积核输出的各个样本的特征图与各个样本的标签之间的互信息。
每个样本均对应一个真实的样本类别,并具有相应的类别标签,例如上述的5000个自然风景图像样本,其对应的真实类别为“自然风景”,类别标签为标签一(实施中,可以将该类别标签一设置为“1”),而对于上述的5000个人物图像样本,其对应的真实类别为“人物”,类别标签为标签二(可以将该类别标签二设置为“0”)。
承前述,在获取神经网络模型的至少一个卷积层中卷积核输出的各个样本的特征图后,本实施例针对卷积层中的卷积核,继续计算卷积核输出的各个样本的特征图与各个样本的标签之间的互信息。
作为一种可选的实施方式,具体可采用分箱法,基于卷积核输出的多个样本的特征图与多个样本的标签(如卷积核输出的上述10000个样本的特征图与该10000个样本的标签),来计算该卷积核的样本特征图与样本标签之间的互信息。其中,卷积核输出的各个样本的特征图与各个样本的标签之间的互信息大小,与卷积核在模型预测中的重要程度呈正相关关系,所对应的互信息取值越大,卷积核在模型预测中的重要程度越高,反之,所对应的互信息取值越小,卷积核在模型预测中的重要程度则越低。
步骤205、对于所述至少一个卷积层中的卷积层,执行以下操作:
基于预先设定的最大裁减比例及模型预测性能评价参数的最小阈值,逐次裁减掉所述卷积层中互信息最小的卷积核,直至所述卷积层的卷积核达到所述最大裁减比例或者神经网络模型的模型预测性能评价参数值降低至所述最小阈值时结束。
其中,所述模型预测性能评价参数的取值与模型性能呈正相关关系。
不同卷积层对应的所述最大裁减比例的数值可以相同或者不同。
上述的模型预测性能评价参数,可以是但不限于AUC(Area Under Curve),其中,AUC被定义为ROC曲线下与坐标轴围成的面积,这个面积的数值不会大于1。AUC的取值大小与模型性能(如模型的预测准确度、稳定性)呈正相关关系,AUC取值越大,表征模型的预测性能越好,反之,AUC取值越小,表征模型的预测性能越差。
其中,ROC是一个用于度量分类中的非均衡性的工具。
基于上述的模型预测性能评价参数AUC,如图3所示,本步骤具体可通过以下的处理过程实现对卷积层中卷积核的裁减:
步骤301、按互信息大小对相应卷积层中的各个卷积核进行排序。
可选地,可以按互信息大小降序的顺序对相应卷积层中的各个卷积核进行排序,得到该卷积层对应的互信息降序的卷积核序列;或者,还可以按互信息大小升序的顺序对相应卷积层中的各个卷积核进行排序,得到该卷积层对应的互信息升序的卷积核序列。
步骤302、按预定顺序对神经网络模型相应卷积层中的每个卷积层执行以下的卷积核裁减操作:
基于预先设定的最大裁减比例及AUC最小阈值,逐次裁减掉卷积层中处于卷积核序列相应端点处的互信息最小的卷积核,直至神经网络模型的每个卷积层达到所述最大裁减比例或者神经网络模型的AUC降低至所述最小阈值时结束。
具体地,针对神经网络模型中的全部卷积层或部分卷积层,可按从上层到下层或者从下层到上层的顺序(容易理解的是,还可以是其他的所规定的顺序),遍历其中的各个卷积层,其中,对于所遍历到的当前卷积层,当对该当前卷积层中的各个卷积核按互信息大小进行排序后,可从该当前卷积层中逐一裁减掉处于卷积核序列相应端点处的互信息最小的卷积核,直至达到针对该当前卷积层所设定的最大裁减比例或者神经网络模型的AUC值降低至设定的最小阈值时结束。
其中,不同卷积层对应的最大裁减比例可以相同或不同。
举例来说,比如假设针对各个卷积层设定的最大裁减比例为20%,且假设神经网络模型当前所对应的AUC取值为0.98,所设定的AUC阈值为0.96,针对所遍历到的当前卷积层,逐一裁减掉处于卷积核序列相应端点处的互信息最小的卷积核。
如图4所示,其提供了卷积层中不同卷积核的互信息取值示意图,其中,横坐标表示卷积核的索引(index),纵坐标表示卷积核对应的互信息取值(卷积核输出的样本特征图与样本标签之间的互信息),其中,在该图4的示例中,计算并显示了神经网络模型的第9、10、12、13层卷积层中卷积核的互信息取值情况,每层包括512个卷积核,每个卷积核在图4表示为一个圆点符号,每个圆点符号(卷积核)的横坐标为其对应的index,纵坐标为其对应的互信息值。以第13层卷积层为例,其卷积核的互信息分布情况如图5所示,具体是均值为0.25,方差0.2的高斯正态分布,对于当前遍历到的卷积层,如第13层卷积层,可逐一裁减掉该层中处于卷积核序列相应端点处的互信息最小的卷积核,直至达到20%的裁减比例,或者模型的AUC值降低至0.96为止。
通过裁减掉至少一个卷积层中的相应卷积核,可实现对模型结构的压缩,另外,由于最后的卷积层后面跟着的全连接层权重系数矩阵维度较高,裁减掉最后的卷积层中相应数量的卷积核会大幅度影响和它最近连接的全连接层的权重系数维度的大小,相应地,可进一步起到压缩模型结构的目的,从而,具体实施中,优选地,可将最后的卷积层设定为需进行卷积核裁减的卷积层之一。
在裁减掉相应卷积核时,通常会因卷积核减少而使得模型的AUC取值有所降低,本申请中有选择性地裁减掉对应于低互信息值的卷积核,可使得尽可能将对于模型来说重要程度低的卷积核裁减掉,这样能尽量保证模型的AUC值不会有太大变化,仍能维护一个较大的AUC取值,相应地,可使得模型仍能维护较高的预测性能,从而基于本实施例方案,可使得在神经网络模型仍能保持可预见(如0.96的AUC值)的高预测性能的前提下,来精简模型结构,实现模型压缩,最终所得的轻量级模型从各方面来说,如预测性能(预测准确度及稳定性)、内存容量需求、预测速度等,均具备极大的优势。
对应于上述的模型的压缩处理方法,本申请实施例还公开了一种计算机设备,该计算机设备可以是但不限于智能手机、个人数字助理、平板电脑等便携式终端设备,或者还可以是通用/专用计算或配置环境中的便携式计算机(如笔记本)、台式计算机或大中型计算机、后台服务器等设备。
参阅图6示出的计算机设备的结构示意图,该计算机设备至少包括:
存储器601,用于至少存储一组指令集;
处理器602,用于调用并执行所述存储器中的所述指令集,通过执行所述指令集进行以下处理:
获取神经网络模型的多个样本;
将所述多个样本输入神经网络模型;
获取神经网络模型的至少一个卷积层中卷积核输出的各个样本的特征图;
确定卷积核输出的各个样本的特征图与各个样本的标签之间的互信息;
从所述至少一个卷积层中裁减掉对应的互信息满足互信息条件的至少一个卷积核,得到裁减后的神经网络模型。
该神经网络模型,可以是但不限于已训练好的、或者至少已完成部分训练任务后所得的深度神经网络、递归神经网络、卷积网络等各种类型的神经网络处理模型。
处理器602获取神经网络模型的多个样本,目的在于为后续计算模型卷积层中卷积核的样本特征图与样本标签之间的互信息做好数据准备。
获得所述多个样本后,将各个样本分别输入神经网络模型。
在将获得的各个样本输入神经网络模型后,进一步获取神经网络模型的至少一个卷积层中卷积核输出的各个样本的特征图。
可选地,可以获取神经网络模型的全部卷积层或一部分卷积层中每个卷积核输出的多个样本的多个特征图,比如,获得卷积层L1(当然还可以是其他的一个或多个卷积层)中卷积核filter1输出的多个样本的多个特征图、卷积核filter2输出的多个样本的多个特征图……卷积核filter n(n为自然数)输出的多个样本的多个特征图等等。
每个样本均对应一个真实的样本类别,并具有相应的类别标签,在获取神经网络模型的至少一个卷积层中卷积核输出的各个样本的特征图后,本实施例针对卷积层中的卷积核,继续计算卷积核输出的各个样本的特征图与各个样本的标签(类别标签)之间的互信息。
本实施例计算卷积核输出的各个样本的特征图与各个样本的标签之间的互信息,目的在于衡量卷积核在模型预测中的重要性,发明人经研究发现,卷积核输出的各个样本的特征图与各个样本的标签之间的互信息大小,与卷积核在模型预测中的重要程度呈正相关关系,其中,所对应的互信息取值越大,相应表征卷积核所包含的有用信息(对于模型预测而言)的信息量越多,则卷积核在模型预测中的重要程度越高;反之,所对应的互信息取值越小,相应表征卷积核所包含的有用信息(对于模型预测而言)的信息量越少,则卷积核在模型预测中的重要程度则越低。
在确定出卷积核输出的各个样本的特征图与各个样本的标签之间的互信息基础上,本实施例进一步基于设定的互信息条件,从神经网络模型的至少一个卷积层中裁减掉满足该互信息条件的至少一个卷积核,以此实现精简模型的结构、进行模型压缩。
容易理解的是,可通过对所述互信息条件的设定,来尽可能裁减掉神经网络模型的卷积层中对于模型预测来说重要程度低的卷积核,而保留对于模型预测来说重要程度高的卷积核,以实现在精简模型结构的同时还能够尽可能保证模型的预测性能,确保其仍能具备较好的预测准确度及稳定性。
基于以上特点,具体实施中,可以但不限于将所述互信息条件设定为以下条件中的任意之一:
条件一:互信息小于设定的阈值;
条件二:属于所在的卷积层中低互信息取值中的前top k(k为设定的自然数);
条件三:属于所在的卷积层中设定比例的低互信息取值中的之一。
从而,处理器602可以从至少一个卷积层中裁减掉对应的互信息小于设定阈值的至少一个卷积核;或者,裁减掉卷积层中互信息最小的前预定数量的至少一个卷积核,或者,裁减掉卷积层中设定比例(如20%)的低互信息取值所对应的至少一个卷积核。
经由以上方案可知,本实施例通过将多个样本输入神经网络模型,来获取神经网络模型的至少一个卷积层中卷积核输出的各样本的特征图,并确定各样本的特征图与样本标签之间的互信息;之后从神经网络模型的至少一个卷积层中裁减掉对应的互信息满足互信息条件的卷积核,得到裁减后的神经网络模型。本申请通过选择性地裁减掉神经网络模型卷积层中的部分卷积核,实现了模型压缩,精简了模型结构,基于压缩所得的轻量级模型,可达到降低对设备内存的需求量、提升模型预测速度的目的,且由于在进行模型结构裁减时,选择性地裁减掉了卷积层中互信息满足条件的卷积核,从而还可以同时保证裁减后所得的模型的预测准确度。
在本申请一可选实施例中,所述处理器602可进一步通过以下的处理过程实现其功能:
获取神经网络模型的多个样本;将所述多个样本输入神经网络模型;获取神经网络模型的至少一个卷积层中卷积核输出的各个样本的特征图;确定卷积核输出的各个样本的特征图与各个样本的标签之间的互信息;对于所述至少一个卷积层中的卷积层,执行以下操作:
基于预先设定的最大裁减比例及模型预测性能评价参数的最小阈值,逐次裁减掉所述卷积层中互信息最小的卷积核,直至所述卷积层的卷积核达到所述最大裁减比例或者神经网络模型的模型预测性能评价参数值降低至所述最小阈值时结束。
具体实施中,可根据实际情况,选取尽可能多的样本,样本量越多,统计信息越丰富、可以使得在进行模型压缩时尽可能准确地筛选出重要程度高的卷积核,相应准确地裁减掉重要程度低的卷积核。
示例性地,比如,可以获得相应类型的神经网络模型的N(如10000)个图像样本,其中,包括n1(如5000)个自然风景样本,以及包括n2(如5000)个人物样本。
比如,可将获得的所述10000个图像样本输入神经网络模型。
在将获得的各个样本输入神经网络模型后,进一步获取神经网络模型的至少一个卷积层中卷积核输出的各个样本的特征图。
仍以向神经网络模型输入上述的10000个图像样本为例,可选地,可以获取神经网络模型的全部卷积层或一部分卷积层中每个卷积核输出的10000个样本的10000个特征图,比如,获得卷积层L1(当然还可以是其他的一个或多个卷积层)中卷积核filter1输出的10000个样本的10000个特征图、卷积核filter2输出的10000个样本的10000个特征图……卷积核filter n(n为自然数)输出的10000个样本的10000个特征图等等。
每个样本均对应一个真实的样本类别,并具有相应的类别标签,例如上述的5000个自然风景图像样本,其对应的真实类别为“自然风景”,类别标签为标签一(实施中,可以将该类别标签一设置为“1”),而对于上述的5000个人物图像样本,其对应的真实类别为“人物”,类别标签为标签二(可以将该类别标签二设置为“0”)。
承前述,在获取神经网络模型的至少一个卷积层中卷积核输出的各个样本的特征图后,本实施例针对卷积层中的卷积核,继续计算卷积核输出的各个样本的特征图与各个样本的标签之间的互信息。
作为一种可选的实施方式,具体可采用分箱法,基于卷积核输出的多个样本的特征图与多个样本的标签(如卷积核输出的上述10000个样本的特征图与该10000个样本的标签),来计算该卷积核的样本特征图与样本标签之间的互信息。其中,卷积核输出的各个样本的特征图与各个样本的标签之间的互信息大小,与卷积核在模型预测中的重要程度呈正相关关系,所对应的互信息取值越大,卷积核在模型预测中的重要程度越高,反之,所对应的互信息取值越小,卷积核在模型预测中的重要程度则越低。
其中,所述模型预测性能评价参数的取值与模型性能呈正相关关系。
不同卷积层对应的所述最大裁减比例的数值可以相同或者不同。
上述的模型预测性能评价参数,可以是但不限于AUC(Area Under Curve),其中,AUC被定义为ROC曲线下与坐标轴围成的面积,这个面积的数值不会大于1。AUC的取值大小与模型性能(如模型的预测准确度、稳定性)呈正相关关系,AUC取值越大,表征模型的预测性能越好,反之,AUC取值越小,表征模型的预测性能越差。
其中,ROC是一个用于度量分类中的非均衡性的工具。
基于上述的模型预测性能评价参数AUC,如图3所示,处理器602具体可通过以下的处理过程实现对卷积层中卷积核的裁减:
步骤301、按互信息大小对相应卷积层中的各个卷积核进行排序。
可选地,可以按互信息大小降序的顺序对相应卷积层中的各个卷积核进行排序,得到该卷积层对应的互信息降序的卷积核序列;或者,还可以按互信息大小升序的顺序对相应卷积层中的各个卷积核进行排序,得到该卷积层对应的互信息升序的卷积核序列。
步骤302、按预定顺序对神经网络模型相应卷积层中的每个卷积层执行以下的卷积核裁减操作:
基于预先设定的最大裁减比例及AUC最小阈值,逐次裁减掉卷积层中处于卷积核序列相应端点处的互信息最小的卷积核,直至神经网络模型的每个卷积层达到所述最大裁减比例或者神经网络模型的AUC降低至所述最小阈值时结束。
具体地,针对神经网络模型中的全部卷积层或部分卷积层,可按从上层到下层或者从下层到上层的顺序(容易理解的是,还可以是其他的所规定的顺序),遍历其中的各个卷积层,其中,对于所遍历到的当前卷积层,当对该当前卷积层中的各个卷积核按互信息大小进行排序后,可从该当前卷积层中逐一裁减掉处于卷积核序列相应端点处的互信息最小的卷积核,直至达到针对该当前卷积层所设定的最大裁减比例或者神经网络模型的AUC值降低至设定的最小阈值时结束。
其中,不同卷积层对应的最大裁减比例可以相同或不同。
举例来说,比如假设针对各个卷积层设定的最大裁减比例为20%,且假设神经网络模型当前所对应的AUC取值为0.98,所设定的AUC阈值为0.96,针对所遍历到的当前卷积层,逐一裁减掉处于卷积核序列相应端点处的互信息最小的卷积核。
如图4所示,其提供了卷积层中不同卷积核的互信息取值示意图,其中,横坐标表示卷积核的索引(index),纵坐标表示卷积核对应的互信息取值(卷积核输出的样本特征图与样本标签之间的互信息),其中,在该图4的示例中,计算并显示了神经网络模型的第9、10、12、13层卷积层中卷积核的互信息取值情况,每层包括512个卷积核,每个卷积核在图4表示为一个圆点符号,每个圆点符号(卷积核)的横坐标为其对应的index,纵坐标为其对应的互信息值。以第13层卷积层为例,其卷积核的互信息分布情况如图5所示,具体是均值为0.25,方差0.2的高斯正态分布,对于当前遍历到的卷积层,如第13层卷积层,可逐一裁减掉该层中处于卷积核序列相应端点处的互信息最小的卷积核,直至达到20%的裁减比例,或者模型的AUC值降低至0.96为止。
通过裁减掉至少一个卷积层中的相应卷积核,可实现对模型结构的压缩,另外,由于最后的卷积层后面跟着的全连接层权重系数矩阵维度较高,裁减掉最后的卷积层中相应数量的卷积核会大幅度影响和它最近连接的全连接层的权重系数维度的大小,相应地,可进一步起到压缩模型结构的目的,从而,具体实施中,优选地,可将最后的卷积层设定为需进行卷积核裁减的卷积层之一。
在裁减掉相应卷积核时,通常会因卷积核减少而使得模型的AUC取值有所降低,本申请中有选择性地裁减掉对应于低互信息值的卷积核,可使得尽可能将对于模型来说重要程度低的卷积核裁减掉,这样能尽量保证模型的AUC值不会有太大变化,仍能维护一个较大的AUC取值,相应地,可使得模型仍能维护较高的预测性能,从而基于本实施例方案,可使得在神经网络模型仍能保持可预见(如0.96的AUC值)的高预测性能的前提下,来精简模型结构,实现模型压缩,最终所得的轻量级模型从各方面来说,如预测性能(预测准确度及稳定性)、内存容量需求、预测速度等,均具备极大的优势。
对应于上述的模型的压缩处理方法,本申请实施例还公开了一种模型的压缩处理装置,该装置可以应用于但不限于智能手机、个人数字助理、平板电脑等便携式终端设备,或者还可以应用于通用/专用计算或配置环境中的便携式计算机(如笔记本)、台式计算机或大中型计算机、后台服务器等设备。
参阅图7示出的模型的压缩处理装置的结构示意图,该装置可以包括:
第一获取单元701,用于获取神经网络模型的多个样本。
该神经网络模型,可以是但不限于已训练好的、或者至少已完成部分训练任务后所得的深度神经网络、循环神经网络、递归神经网络、卷积网络等各种类型的神经网络处理模型。
第一获取单元701获取神经网络模型的多个样本,目的在于为后续计算模型卷积层中卷积核的样本特征图与样本标签之间的互信息做好数据准备。
输入单元702,用于将所述多个样本输入神经网络模型。
获得所述多个样本后,利用输入单元702将各个样本分别输入神经网络模型。
第二获取单元703,用于获取神经网络模型的至少一个卷积层中卷积核输出的各个样本的特征图。
在将获得的各个样本输入神经网络模型后,进一步获取神经网络模型的至少一个卷积层中卷积核输出的各个样本的特征图。
可选地,可以获取神经网络模型的全部卷积层或一部分卷积层中每个卷积核输出的多个样本的多个特征图,比如,获得卷积层L1(当然还可以是其他的一个或多个卷积层)中卷积核filter1输出的多个样本的多个特征图、卷积核filter2输出的多个样本的多个特征图……卷积核filter n(n为自然数)输出的多个样本的多个特征图等等。
确定单元704,用于确定卷积核输出的各个样本的特征图与各个样本的标签之间的互信息。
每个样本均对应一个真实的样本类别,并具有相应的类别标签,在获取神经网络模型的至少一个卷积层中卷积核输出的各个样本的特征图后,本实施例针对卷积层中的卷积核,继续计算卷积核输出的各个样本的特征图与各个样本的标签(类别标签)之间的互信息。
本实施例计算卷积核输出的各个样本的特征图与各个样本的标签之间的互信息,目的在于衡量卷积核在模型预测中的重要性,发明人经研究发现,卷积核输出的各个样本的特征图与各个样本的标签之间的互信息大小,与卷积核在模型预测中的重要程度呈正相关关系,其中,所对应的互信息取值越大,相应表征卷积核所包含的有用信息(对于模型预测而言)的信息量越多,则卷积核在模型预测中的重要程度越高;反之,所对应的互信息取值越小,相应表征卷积核所包含的有用信息(对于模型预测而言)的信息量越少,则卷积核在模型预测中的重要程度则越低。
裁减单元705,用于从所述至少一个卷积层中裁减掉对应的互信息满足互信息条件的至少一个卷积核,得到裁减后的神经网络模型。
在确定出卷积核输出的各个样本的特征图与各个样本的标签之间的互信息基础上,本实施例进一步基于设定的互信息条件,从神经网络模型的至少一个卷积层中裁减掉满足该互信息条件的至少一个卷积核,以此实现精简模型的结构、进行模型压缩。
容易理解的是,可通过对所述互信息条件的设定,来尽可能裁减掉神经网络模型的卷积层中对于模型预测来说重要程度低的卷积核,而保留对于模型预测来说重要程度高的卷积核,以实现在精简模型结构的同时还能够尽可能保证模型的预测性能,确保其仍能具备较好的预测准确度及稳定性。
基于以上特点,具体实施中,可以但不限于将所述互信息条件设定为以下条件中的任意之一:
条件一:互信息小于设定的阈值;
条件二:属于所在的卷积层中低互信息取值中的前top k(k为设定的自然数);
条件三:属于所在的卷积层中设定比例的低互信息取值中的之一。
从而,裁减单元705可以从至少一个卷积层中裁减掉对应的互信息小于设定阈值的至少一个卷积核;或者,裁减掉卷积层中互信息最小的前预定数量的至少一个卷积核,或者,裁减掉卷积层中设定比例(如20%)的低互信息取值所对应的至少一个卷积核。
经由以上方案可知,本实施例通过将多个样本输入神经网络模型,来获取神经网络模型的至少一个卷积层中卷积核输出的各样本的特征图,并确定各样本的特征图与样本标签之间的互信息;之后从神经网络模型的至少一个卷积层中裁减掉对应的互信息满足互信息条件的卷积核,得到裁减后的神经网络模型。本申请通过选择性地裁减掉神经网络模型卷积层中的部分卷积核,实现了模型压缩,精简了模型结构,基于压缩所得的轻量级模型,可达到降低对设备内存的需求量、提升模型预测速度的目的,且由于在进行模型结构裁减时,选择性地裁减掉了卷积层中互信息满足条件的卷积核,从而还可以同时保证裁减后所得的模型的预测准确度。
需要说明的是,对于本申请实施例公开的模型的压缩处理装置而言,由于其与以上各实施例公开的模型的压缩处理方法相对应,所以描述的比较简单,相关相似之处参见以上各实施例中模型的压缩处理方法部分的说明即可,此处不再详述。
需要说明的是,本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
为了描述的方便,描述以上系统或装置时以功能分为各种模块或单元分别描述。当然,在实施本申请时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到本申请可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例或者实施例的某些部分所述的方法。
最后,还需要说明的是,在本文中,诸如第一、第二、第三和第四等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述仅是本申请的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本申请的保护范围。

Claims (10)

1.一种模型的压缩处理方法,包括:
获取神经网络模型的多个样本;
将所述多个样本输入神经网络模型;
获取神经网络模型的至少一个卷积层中卷积核输出的各个样本的特征图;
确定卷积核输出的各个样本的特征图与各个样本的标签之间的互信息;
从所述至少一个卷积层中裁减掉对应的互信息满足互信息条件的至少一个卷积核,得到裁减后的神经网络模型。
2.根据权利要求2所述的方法,所述从所述至少一个卷积层中裁减掉对应的互信息满足互信息条件的至少一个卷积核,包括:
从所述至少一个卷积层中裁减掉对应的互信息小于设定阈值的至少一个卷积核;或者,裁减掉卷积层中互信息最小的前预定数量的至少一个卷积核。
3.根据权利要求1所述的方法,所述从所述至少一个卷积层中裁减掉对应的互信息满足互信息条件的至少一个卷积核,包括:
对于所述至少一个卷积层中的卷积层,执行以下操作:
基于预先设定的最大裁减比例及模型预测性能评价参数的最小阈值,逐次裁减掉所述卷积层中互信息最小的卷积核,直至所述卷积层的卷积核达到所述最大裁减比例或者神经网络模型的模型预测性能评价参数值降低至所述最小阈值时结束;
其中,所述模型预测性能评价参数的取值与模型性能呈正相关关系。
4.根据权利要求3所述的方法,所述获取神经网络模型的至少一个卷积层中卷积核输出的各个样本的特征图,包括:
获取神经网络模型的所有卷积层中每个卷积核输出的各个样本的特征图。
5.根据权利要求3所述的方法,所述基于预先设定的最大裁减比例及模型预测性能评价参数的最小阈值,逐次裁减掉卷积层中互信息最小的卷积核,直至所述至少一个卷积层中每个卷积层的卷积核达到所述最大裁减比例或者神经网络模型的模型预测性能评价参数值降低至所述最小阈值时结束,包括:
按互信息大小对相应卷积层中的各个卷积核进行排序;
按预定顺序对神经网络模型至少一个卷积层中的相应卷积层执行以下的卷积核裁减操作:
基于预先设定的最大裁减比例及ROC曲线下与坐标轴围成的面积的最小阈值,逐次裁减掉卷积层中处于卷积核序列相应端点处的互信息最小的卷积核,直至神经网络模型的每个卷积层达到所述最大裁减比例或者神经网络模型的ROC曲线下与坐标轴围成的面积降低至所述最小阈值时结束;
其中,ROC是一个用于度量分类中的非均衡性的工具。
6.一种计算机设备,包括:
存储器,用于至少存储一组指令集;
处理器,用于调用并执行所述存储器中的所述指令集,通过执行所述指令集进行以下处理:
获取神经网络模型的多个样本;
将所述多个样本输入神经网络模型;
获取神经网络模型的至少一个卷积层中卷积核输出的各个样本的特征图;
确定卷积核输出的各个样本的特征图与各个样本的标签之间的互信息;
从所述至少一个卷积层中裁减掉对应的互信息满足互信息条件的至少一个卷积核,得到裁减后的神经网络模型。
7.根据权利要求6所述的计算机设备,所述处理器从所述至少一个卷积层中裁减掉对应的互信息满足互信息条件的至少一个卷积核,包括:
从所述至少一个卷积层中裁减掉对应的互信息小于设定阈值的至少一个卷积核;或者,裁减掉卷积层中互信息最小的前预定数量的至少一个卷积核。
8.根据权利要求6所述的计算机设备,所述处理器从所述至少一个卷积层中裁减掉对应的互信息满足互信息条件的至少一个卷积核,具体包括:
对于所述至少一个卷积层中的卷积层,执行以下操作:
基于预先设定的最大裁减比例及模型预测性能评价参数的最小阈值,逐次裁减掉所述卷积层中互信息最小的卷积核,直至所述卷积层的卷积核达到所述最大裁减比例或者神经网络模型的模型预测性能评价参数值降低至所述最小阈值时结束;
其中,所述模型预测性能评价参数的取值与模型性能呈正相关关系。
9.根据权利要求8所述的计算机设备,所述处理器基于预先设定的最大裁减比例及模型预测性能评价参数的最小阈值,逐次裁减掉卷积层中互信息最小的卷积核,直至所述至少一个卷积层中每个卷积层的卷积核达到所述最大裁减比例或者神经网络模型的模型预测性能评价参数值降低至所述最小阈值时结束,具体包括:
按互信息大小对相应卷积层中的各个卷积核进行排序;按预定顺序对神经网络模型至少一个卷积层中的相应卷积层执行以下的卷积核裁减操作:基于预先设定的最大裁减比例及ROC曲线下与坐标轴围成的面积的最小阈值,逐次裁减掉卷积层中处于卷积核序列相应端点处的互信息最小的卷积核,直至神经网络模型的每个卷积层达到所述最大裁减比例或者神经网络模型的ROC曲线下与坐标轴围成的面积降低至所述最小阈值时结束;
其中,ROC是一个用于度量分类中的非均衡性的工具。
10.一种模型的压缩处理装置,包括:
第一获取单元,用于获取神经网络模型的多个样本;
输入单元,用于将所述多个样本输入神经网络模型;
第二获取单元,用于获取神经网络模型的至少一个卷积层中卷积核输出的各个样本的特征图;
确定单元,用于确定卷积核输出的各个样本的特征图与各个样本的标签之间的互信息;
裁减单元,用于从所述至少一个卷积层中裁减掉对应的互信息满足互信息条件的至少一个卷积核,得到裁减后的神经网络模型。
CN201911393420.XA 2019-12-30 2019-12-30 模型的压缩处理方法、装置及计算机设备 Pending CN111160530A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911393420.XA CN111160530A (zh) 2019-12-30 2019-12-30 模型的压缩处理方法、装置及计算机设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911393420.XA CN111160530A (zh) 2019-12-30 2019-12-30 模型的压缩处理方法、装置及计算机设备

Publications (1)

Publication Number Publication Date
CN111160530A true CN111160530A (zh) 2020-05-15

Family

ID=70559079

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911393420.XA Pending CN111160530A (zh) 2019-12-30 2019-12-30 模型的压缩处理方法、装置及计算机设备

Country Status (1)

Country Link
CN (1) CN111160530A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114692816A (zh) * 2020-12-31 2022-07-01 华为技术有限公司 神经网络模型的处理方法和设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109376589A (zh) * 2018-09-07 2019-02-22 中国海洋大学 基于卷积核筛选ssd网络的rov形变目标与小目标识别方法
US20190065896A1 (en) * 2017-08-23 2019-02-28 Samsung Electronics Co., Ltd. Neural network method and apparatus
CN109523017A (zh) * 2018-11-27 2019-03-26 广州市百果园信息技术有限公司 深度神经网络的压缩方法、装置、设备及存储介质
CN110309847A (zh) * 2019-04-26 2019-10-08 深圳前海微众银行股份有限公司 一种模型压缩方法及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190065896A1 (en) * 2017-08-23 2019-02-28 Samsung Electronics Co., Ltd. Neural network method and apparatus
CN109376589A (zh) * 2018-09-07 2019-02-22 中国海洋大学 基于卷积核筛选ssd网络的rov形变目标与小目标识别方法
CN109523017A (zh) * 2018-11-27 2019-03-26 广州市百果园信息技术有限公司 深度神经网络的压缩方法、装置、设备及存储介质
CN110309847A (zh) * 2019-04-26 2019-10-08 深圳前海微众银行股份有限公司 一种模型压缩方法及装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114692816A (zh) * 2020-12-31 2022-07-01 华为技术有限公司 神经网络模型的处理方法和设备
CN114692816B (zh) * 2020-12-31 2023-08-25 华为技术有限公司 神经网络模型的处理方法和设备

Similar Documents

Publication Publication Date Title
CN108090508A (zh) 一种分类训练方法、装置及存储介质
CN112052951A (zh) 一种剪枝神经网络方法、系统、设备及可读存储介质
CN107766888A (zh) 数据处理方法和装置
CN113705775A (zh) 一种神经网络的剪枝方法、装置、设备及存储介质
CN111612144A (zh) 一种应用于目标检测的剪枝方法及终端
CN110008853A (zh) 行人检测网络及模型训练方法、检测方法、介质、设备
CN116596095B (zh) 基于机器学习的碳排放量预测模型的训练方法及装置
CN108280236A (zh) 一种基于LargeVis的随机森林可视化数据分析方法
CN116402117A (zh) 图像分类卷积神经网络剪枝方法及芯粒器件数据分配方法
CN109614987A (zh) 多分类模型优化方法、装置、存储介质及电子设备
CN112308825A (zh) 一种基于SqueezeNet的农作物叶片病害识别方法
CN111160530A (zh) 模型的压缩处理方法、装置及计算机设备
CN112614552B (zh) 基于bp神经网络的土壤重金属含量预测方法及系统
CN111815209A (zh) 应用于风控模型的数据降维方法及装置
CN116468102A (zh) 刀具图像分类模型剪枝方法、装置、计算机设备
CN112766402A (zh) 算法选择方法、装置和电子设备
CN112488306A (zh) 一种神经网络压缩方法、装置、电子设备和存储介质
CN113610350B (zh) 复杂工况故障诊断方法、设备、存储介质及装置
CN115982634A (zh) 应用程序分类方法、装置、电子设备及计算机程序产品
CN114330705A (zh) 光伏发电量的预测方法、装置、电子设备和存储介质
CN114531368A (zh) 一种网络质量评价方法、装置和设备
CN112446435A (zh) 一种城市数据分类方法及系统
CN112488291A (zh) 一种神经网络8比特量化压缩方法
CN110569892A (zh) 一种泛在定位信号静态定位方法及系统
CN116402116B (zh) 神经网络的剪枝方法、系统、设备、介质及图像处理方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination