CN110782021B - 一种图像分类方法、装置、设备及计算机可读存储介质 - Google Patents
一种图像分类方法、装置、设备及计算机可读存储介质 Download PDFInfo
- Publication number
- CN110782021B CN110782021B CN201911041052.2A CN201911041052A CN110782021B CN 110782021 B CN110782021 B CN 110782021B CN 201911041052 A CN201911041052 A CN 201911041052A CN 110782021 B CN110782021 B CN 110782021B
- Authority
- CN
- China
- Prior art keywords
- quantization
- neural network
- network model
- weight parameter
- quantization error
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 238000013139 quantization Methods 0.000 claims abstract description 252
- 238000003062 neural network model Methods 0.000 claims abstract description 81
- 238000005520 cutting process Methods 0.000 claims abstract description 16
- 238000000926 separation method Methods 0.000 claims description 41
- 238000012545 processing Methods 0.000 claims description 30
- 238000004364 calculation method Methods 0.000 claims description 18
- 238000004590 computer program Methods 0.000 claims description 9
- 230000000694 effects Effects 0.000 abstract description 9
- 238000012549 training Methods 0.000 description 13
- 230000004913 activation Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000007619 statistical method Methods 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000012821 model calculation Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种图像分类方法,包括:接收待分类图像信息;利用通过对比裁剪量化误差和max量化误差选取得到的量化阈值进行权重参数量化后的深度神经网络模型,对待分类图像信息进行分类操作,得到图像分类结果;其中,裁剪量化误差为基于深度神经网络模型的原权重参数计算得到的裁剪阈值进行权重参数量化得到,max量化误差为基于深度神经网络模型的原权重参数计算得到的最大绝对值权重阈值进行权重参数量化得到;输出图像分类结果。本发明缩小了图像分类设备中深度神经网络模型,保证了模型精度,降低了计算量,提高了图像分类效果。本发明还公开了一种图像分类装置、设备及存储介质,具有相应技术效果。
Description
技术领域
本发明涉及人工智能技术领域,特别是涉及一种图像分类方法、装置、设备及计算机可读存储介质。
背景技术
随着人工智能技术的不断发展,人工智能技术已逐渐应用于我们的生活中。在人工智能技术领域,深度学习是较典型的技术之一。在对图像分类设备进行深度神经网络模型部署中,存在模型大,对硬件成本要求较高的问题。在我们的周边应用中,终端设备或边缘设备一般只有较低的计算能力,而且内存和电量消耗也都受限。因此要将深度神经网络模型真正实现部署,将模型变小,使其推理更快,耗电更低是非常有必要的。
现有技术中主要是通过量化,裁剪和压缩来降低模型尺寸,一种是通过训练时量化(training-aware quantization),训练时量化方法一般是指在浮点型网络模型的参数上进行低位宽定点参数的重训,它通常需要专业人员操作训练;另一种是训练后量化(post-training quantization),训练后量化相对于训练时量化则较简单,它不需要重训,操作简单易行,因此训练后量化方法越来越多地应用于工业领域。在训练后量化方法中,模型参数量化包括两部分:权重参数量化和激活输出量化两部分。很多研究表明,在模型量化过程中,模型量化所带来的精度损失,主要是由权重参数量化误差引起,因此最大限度的减小权重量化误差,是保证模型精度的关键。
在训练后量化方法中,现有的权重参数量化方法主要为统计方法,通过参数统计分析找到合适的量化阈值,然后进行参数量化。这种方法简单易用,不会增加模型的计算量,但可能存在由于量化阈值选取不当,而裁剪掉一些关键的权重参数而大大降低模型的实际精度。为了最大范围地保留权重参数,通过增大权重参数通道数,而减小权重参数数值的方法进行权重参数范围的压缩,以适用于低位宽设备的推理计算中。这种方法虽然能最大程度地保留权重参数值,但是以增大权重参数数量为代价,将使实际推理中计算量增大,不适用于只有较低的计算能力,而且内存和电量消耗也都受限的终端设备或边缘设备,图像分类效果差。
综上所述,如何有效地解决图像分类设备中部署的深度神经网络模型,模型精度低,计算量大,图像分类效果差等问题,是目前本领域技术人员急需解决的问题。
发明内容
本发明的目的是提供一种图像分类方法,该方法在缩小图像分类设备中深度神经网络模型的同时,保证了模型精度,降低了计算量,较大地提高了图像分类效果;本发明的另一目的是提供一种图像分类装置、设备及计算机可读存储介质。
为解决上述技术问题,本发明提供如下技术方案:
一种图像分类方法,包括:
接收待分类图像信息;
利用通过对比裁剪量化误差和max量化误差选取得到的量化阈值进行权重参数量化后的深度神经网络模型,对所述待分类图像信息进行分类操作,得到图像分类结果;其中,所述裁剪量化误差为基于所述深度神经网络模型的原权重参数计算得到的裁剪阈值进行权重参数量化得到,所述max量化误差为基于所述深度神经网络模型的原权重参数计算得到的最大绝对值权重阈值进行权重参数量化得到;
输出所述图像分类结果。
在本发明的一种具体实施方式中,当通过对比裁剪量化误差和max量化误差确定进行离群点分离处理时,将预计算得到的裁剪阈值确定为量化阈值;
利用通过对比裁剪量化误差和max量化误差选取得到的量化阈值进行权重参数量化后的深度神经网络模型,对所述待分类图像信息进行分类操作,包括:
利用所述裁剪阈值对经离群点分离处理得到的权重参数进行权重参数量化后的深度神经网络模型,对所述待分类图像信息进行分类操作。
在本发明的一种具体实施方式中,利用所述裁剪阈值对经离群点分离处理得到的权重参数进行权重参数量化后的深度神经网络模型,对所述待分类图像信息进行分类操作,包括:
利用所述裁剪阈值对将离群点数量高的前预设数量个通道进行离群点分离处理得到的权重参数,进行权重参数量化后的深度神经网络模型,对所述待分类图像信息进行分类操作。
在本发明的一种具体实施方式中,当通过对比裁剪量化误差和max量化误差确定不需进行离群点分离处理时,将预计算得到的最大绝对值权重阈值确定为量化阈值;
利用通过对比裁剪量化误差和max量化误差选取得到的量化阈值进行权重参数量化后的深度神经网络模型,对所述待分类图像信息进行分类操作,包括:
利用所述最大绝对值权重阈值对进行权重参数量化后的深度神经网络模型,对所述待分类图像信息进行分类操作。
一种图像分类装置,包括:
图像信息接收模块,用于接收待分类图像信息;
图像分类模块,用于利用通过对比裁剪量化误差和max量化误差选取得到的量化阈值进行权重参数量化后的深度神经网络模型,对所述待分类图像信息进行分类操作,得到图像分类结果;其中,所述裁剪量化误差为基于所述深度神经网络模型的原权重参数计算得到的裁剪阈值进行权重参数量化得到,所述max量化误差为基于所述深度神经网络模型的原权重参数计算得到的最大绝对值权重阈值进行权重参数量化得到;
分类结果输出模块,用于输出所述图像分类结果。
在本发明的一种具体实施方式中,所述图像分类模块具体为当通过对比裁剪量化误差和max量化误差确定进行离群点分离处理时,将预计算得到的裁剪阈值确定为量化阈值;利用所述裁剪阈值对经离群点分离处理得到的权重参数进行权重参数量化后的深度神经网络模型,对所述待分类图像信息进行分类操作的模块。
在本发明的一种具体实施方式中,所述图像分类模块具体为利用所述裁剪阈值对将离群点数量高的前预设数量个通道进行离群点分离处理得到的权重参数,进行权重参数量化后的深度神经网络模型,对所述待分类图像信息进行分类操作的模块。
在本发明的一种具体实施方式中,所述图像分类模块具体为当通过对比裁剪量化误差和max量化误差确定不需进行离群点分离处理时,将预计算得到的最大绝对值权重阈值确定为量化阈值;利用所述最大绝对值权重阈值对进行权重参数量化后的深度神经网络模型,对所述待分类图像信息进行分类操作的模块。
一种图像分类设备,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如前所述图像分类方法的步骤。
一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如前所述图像分类方法的步骤。
应用本发明实施例所提供的方法,接收待分类图像信息;利用通过对比裁剪量化误差和max量化误差选取得到的量化阈值进行权重参数量化后的深度神经网络模型,对待分类图像信息进行分类操作,得到图像分类结果;输出图像分类结果。通过对权重参数进行裁剪阈值计算得到的裁剪阈值,计算根据裁剪阈值对权重参数进行量化变换时产生的裁剪量化误差,对权重参数计算其最大绝对值权重阈值,计算根据最大绝对值权重阈值对权重参数进行量化变换时产生的max量化误差,通过对比裁剪量化误差和max量化误差,确定最终选取裁剪阈值为量化阈值,还是最大绝对值权重阈值为量化阈值。并通过确定出的量化阈值对深度神经网络模型的原权重参数进行参数量化,相较于现有的通过参数统计确定量化阈值,并增大权重参数数量的深度神经网络模型参数量化方式,本发明在缩小图像分类设备中深度神经网络模型的同时,保证了模型精度,降低了计算量,较大地提高了图像分类效果。
相应的,本发明实施例还提供了与上述图像分类方法相对应的图像分类装置、设备和计算机可读存储介质,具有上述技术效果,在此不再赘述。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例中图像分类方法的一种实施流程图;
图2为本发明实施例中图像分类方法的另一种实施流程图;
图3为本发明实施例中一种离群点通道分离示意图;
图4为本发明实施例中图像分类方法的另一种实施流程图;
图5为本发明实施例中一种图像分类装置的结构框图;
图6为本发明实施例中一种图像分类设备的结构框图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面结合附图和具体实施方式对本发明作进一步的详细说明。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例一:
参见图1,图1为本发明实施例中图像分类方法的一种实施流程图,该方法可以包括以下步骤:
S101:接收待分类图像信息。
当需要对某图像信息进行分类时,可以向用于图像分类的终端设备发送待分类图像信息,终端设备接收待分类图像信息。
S102:利用通过对比裁剪量化误差和max量化误差选取得到的量化阈值进行权重参数量化后的深度神经网络模型,对待分类图像信息进行分类操作,得到图像分类结果。
其中,裁剪量化误差为基于深度神经网络模型的原权重参数计算得到的裁剪阈值进行权重参数量化得到,max量化误差为基于深度神经网络模型的原权重参数计算得到的最大绝对值权重阈值进行权重参数量化得到。
针对深度神经网络模型预训练得到的浮点型权重参数值,可以根据裁剪(clipping)阈值计算方法(如KL散度计算法,MSE均方差计算法等方法)分别计算各层权重参数所对应的裁剪阈值,且计算根据裁剪阈值进行量化变换时所带来的裁剪量化误差。并分别计算各层所对应最大绝对值权重值记为最大绝对值权重阈值,且计算根据最大绝对值权重阈值进行量化变换时所带来的max量化误差。可以将裁剪量化误差和max量化误差进行对比,根据对比结果最终确定是选取裁剪阈值作为量化阈值,还是选取最大绝对值权重阈值作为量化阈值。并利用选取的量化阈值对预训练得到的深度神经网络模型进行权重参数量化,得到权重参数量化后的深度神经网络模型。利用权重参数量化后的深度神经网络模型对待分类图像信息进行分类操作,得到图像分类结果。本发明通过尽可能保证权重参数不受损失的情况下,进行权重参数的低位定点量化,以保证在采用低位宽的定点权重参数时,该深度神经网络模型仍然能保持原有浮点型权重参数的精度,即保持深度神经网络模型对图像的分类精度。
裁剪量化误差和max量化误差均可以通过如下公式进行计算:
其中,m为权重参数个数,wi为量化前的原始权重值,wqi为量化后的权重值,round(·)为四舍五入函数,k为量化后的位数,threshold为裁剪阈值或者最大绝对值权重阈值,对应的,error为裁剪量化误差或max量化误差。Step为量化步长。
S103:输出图像分类结果。
在得到图像分类结果之后,可以输出图像分类结果,实现了利用较低的计算能力,内存和电量消耗受限的终端设备对待分类图像信息的有效分类。
需要说明的是,除在用于图像分类的终端设备中部署利用本发明实施例所提供的参数量化方式进行参数量化后的深度神经网络模型之外,还可以在用于图像检测、图像识别等各种较低的计算能力,内存和电量消耗受限的终端设备中部署经本发明实施例所提供的参数量化方式进行参数量化后的深度神经网络模型。
应用本发明实施例所提供的方法,接收待分类图像信息;利用通过对比裁剪量化误差和max量化误差选取得到的量化阈值进行权重参数量化后的深度神经网络模型,对待分类图像信息进行分类操作,得到图像分类结果;输出图像分类结果。通过对权重参数进行裁剪阈值计算得到的裁剪阈值,计算根据裁剪阈值对权重参数进行量化变换时产生的裁剪量化误差,对权重参数计算其最大绝对值权重阈值,计算根据最大绝对值权重阈值对权重参数进行量化变换时产生的max量化误差,通过对比裁剪量化误差和max量化误差,确定最终选取裁剪阈值为量化阈值,还是最大绝对值权重阈值为量化阈值。并通过确定出的量化阈值对深度神经网络模型的原权重参数进行参数量化,相较于现有的通过参数统计确定量化阈值,并增大权重参数数量的深度神经网络模型参数量化方式,本发明在缩小图像分类设备中深度神经网络模型的同时,保证了模型精度,降低了计算量,较大地提高了图像分类效果。
需要说明的是,基于上述实施例一,本发明实施例还提供了相应的改进方案。在后续实施例中涉及与上述实施例一中相同步骤或相应步骤之间可相互参考,相应的有益效果也可相互参照,在下文的改进实施例中不再一一赘述。
实施例二:
参见图2,图2为本发明实施例中图像分类方法的另一种实施流程图,该方法可以包括以下步骤:
S201:接收待分类图像信息。
S202:当通过对比裁剪量化误差和max量化误差确定进行离群点分离处理时,将预计算得到的裁剪阈值确定为量化阈值,利用裁剪阈值对将离群点数量高的前预设数量个通道进行离群点分离处理得到的权重参数,进行权重参数量化后的深度神经网络模型,对待分类图像信息进行分类操作,得到图像分类结果。
其中,裁剪量化误差为基于深度神经网络模型的原权重参数计算得到的裁剪阈值进行权重参数量化得到,max量化误差为基于深度神经网络模型的原权重参数计算得到的最大绝对值权重阈值进行权重参数量化得到。
可以通过先计算max量化误差与裁剪量化误差的差值,再计算该差值与裁剪量化误差的比率ratio,具体可通过如下公式进行计算:
其中,error(max)为max量化误差,error(clipping)为裁剪量化误差,ratio为max量化误差、裁剪量化误差两者的差值与裁剪量化误差的比率。
对比计算得到的比率与预先设置的比率阈值T_ratio的大小关系,确定是否需要进行离群点分离处理,即当ratio大于T_ratio时,表示需要进行离群点分离处理,否则,则不需要进行离群点分离处理。当T_ratio取值越大,表示需要进行离群点分离处理的概率就越低。
当通过将计算得到的比率与预先设置的比率阈值对比,确定计算得到的比率大于比率阈值时,则确定进行离群点分离处理,在这种情况下,可以将预计算得到的裁剪阈值确定为量化阈值。利用裁剪阈值对将离群点数量高的前预设数量个通道进行离群点分离处理得到的权重参数,进行权重参数量化后的深度神经网络模型,对待分类图像信息进行分类操作,得到图像分类结果。
离群点分离处理的目的在于:通过对权重参数进行分离,将离群点参数分解到权重参数范围内。例如,假设对某层权重参数进行分析发现,当前层的权重分布的主要范围集中在[-10~10]之间,那么权重值15就是一个离群点。为了能保留权重值15这个有效参数,可以对15进行分解处理,如减半处理,15=7.5+7.5,那么7.5就分布在[-10~10]范围内。
如图3所示,针对神经网络,离群点分离操作通过离群点通道分离处理实现。假设通过分析发现权重w21中存在离群点,那么对整个w21参数进行减半处理,将离群点参数w21缩放到有效范围内。为了保证激活输出不变,在离群点通道分离网络模型结构中,x2’是x2的一个副本,x2=x2’。那么有:
y1=x1*w11+x2*w21/2+x2*w21/2+x3*w31=x1*w11+x2*w21+x3*w31;
y1激活输出仍然保持不变,针对其他激活输出,例如:
yn=x1*w1n+x2*w2n+x2*0+x3*w3n=x1*w1n+x2*w2n+x3*w3n;
其中,x1、X2、X3为上一层的激活输出,Y1、Y2、……Yn为本层的激活输出,w11、w21/2、w21、w31……w1n、w2n、w3n为权重值。
与原始网络模型结构输出一致。因此离群点通道分离方法能在不引入量化噪声的情况下,将离群点加入了模型计算中,而不是直接裁剪掉,硬性改变模型参数。当然这种方法是以增加计算量以及存储空间为代价。因此本发明有效结合最大绝对值权重阈值量化和离群点通道分离来进行权重参数量化处理,以达到在尽量不降低量化模型的精度的情况下,最小限度的增加模型计算量。
在进行离群点处理时,可以将分布在裁剪阈值和最大绝对值权重阈值之间的权重值作为离群点,并对离群点进行处理。由于在进行离群点分离处理的过程中会对硬件内存产生一定的消耗,因此,可以首先统计各个通道中离群点数量占各个通道参数量的比例,然后对该比例进行降序排序,根据排序结果,优先对离群点数量分布较多的通道进行分离处理。从而使得对经离群点分离处理得到的权重参数进行权重参数量化得到深度神经网络模型的模型精度基本不变,但模型大小得到较大压缩的深度神经网络模型,能够满足较低位宽的模型要求,如2位,3位,4位等,更适用于有较低的计算能力,内存和电量消耗受限的终端设备。
需要说明的是,比率阈值T_ratio可根据经验统计分析得到,且可根据实际情况进行设定和调整,本发明实施例对此不做限定。
还需要说明的是,进行离群点分离处理的通道的预设数量可以根据实际情况进行设定和调整,本发明实施例对此不做限定,如可根据硬件设备的具体计算性能设置。
S203:输出图像分类结果。
实施例三:
参见图4,图4为本发明实施例中图像分类方法的另一种实施流程图,该方法可以包括以下步骤:
S401:接收待分类图像信息。
S402:当通过对比裁剪量化误差和max量化误差确定不需进行离群点分离处理时,将预计算得到的最大绝对值权重阈值确定为量化阈值,利用最大绝对值权重阈值对进行权重参数量化后的深度神经网络模型,对待分类图像信息进行分类操作。
其中,裁剪量化误差为基于深度神经网络模型的原权重参数计算得到的裁剪阈值进行权重参数量化得到,max量化误差为基于深度神经网络模型的原权重参数计算得到的最大绝对值权重阈值进行权重参数量化得到。
当通过将计算得到的比率与预先设置的比率阈值对比,确定计算得到的比率大于比率阈值时,则确定不需要进行离群点分离处理,在这种情况下,可以将预计算得到的最大绝对值权重阈值确定为量化阈值,保留原有参数通道结构,利用最大绝对值权重阈值对进行权重参数量化后的深度神经网络模型,对待分类图像信息进行分类操作。
S403:输出图像分类结果。
相应于上面的方法实施例,本发明实施例还提供了一种图像分类装置,下文描述的图像分类装置与上文描述的图像分类方法可相互对应参照。
参见图5,图5为本发明实施例中一种图像分类装置的结构框图,该装置可以包括:
图像信息接收模块51,用于接收待分类图像信息;
图像分类模块52,用于利用通过对比裁剪量化误差和max量化误差选取得到的量化阈值进行权重参数量化后的深度神经网络模型,对待分类图像信息进行分类操作,得到图像分类结果;其中,裁剪量化误差为基于深度神经网络模型的原权重参数计算得到的裁剪阈值进行权重参数量化得到,max量化误差为基于深度神经网络模型的原权重参数计算得到的最大绝对值权重阈值进行权重参数量化得到;
分类结果输出模块53,用于输出图像分类结果。
应用本发明实施例所提供的方法,接收待分类图像信息;利用通过对比裁剪量化误差和max量化误差选取得到的量化阈值进行权重参数量化后的深度神经网络模型,对待分类图像信息进行分类操作,得到图像分类结果;其中,裁剪量化误差为基于深度神经网络模型的原权重参数计算得到的裁剪阈值进行权重参数量化得到,max量化误差为基于深度神经网络模型的原权重参数计算得到的最大绝对值权重阈值进行权重参数量化得到;输出图像分类结果。通过对权重参数进行裁剪阈值计算得到的裁剪阈值,计算根据裁剪阈值对权重参数进行量化变换时产生的裁剪量化误差,对权重参数计算其最大绝对值权重阈值,计算根据最大绝对值权重阈值对权重参数进行量化变换时产生的max量化误差,通过对比裁剪量化误差和max量化误差,确定最终选取裁剪阈值为量化阈值,还是最大绝对值权重阈值为量化阈值。并通过确定出的量化阈值对深度神经网络模型的原权重参数进行参数量化,相较于现有的通过参数统计确定量化阈值,并增大权重参数数量的深度神经网络模型参数量化方式,本发明在缩小图像分类设备中深度神经网络模型的同时,保证了模型精度,降低了计算量,较大地提高了图像分类效果。
在本发明的一种具体实施方式中,图像分类模块52具体为当通过对比裁剪量化误差和max量化误差确定进行离群点分离处理时,将预计算得到的裁剪阈值确定为量化阈值;利用裁剪阈值对经离群点分离处理得到的权重参数进行权重参数量化后的深度神经网络模型,对待分类图像信息进行分类操作的模块。
在本发明的一种具体实施方式中,图像分类模块52具体为利用裁剪阈值对将离群点数量高的前预设数量个通道进行离群点分离处理得到的权重参数,进行权重参数量化后的深度神经网络模型,对待分类图像信息进行分类操作的模块。
在本发明的一种具体实施方式中,图像分类模块52具体为当通过对比裁剪量化误差和max量化误差确定不需进行离群点分离处理时,将预计算得到的最大绝对值权重阈值确定为量化阈值;利用最大绝对值权重阈值对进行权重参数量化后的深度神经网络模型,对待分类图像信息进行分类操作的模块。
相应于上面的方法实施例,参见图6,图6为本发明所提供的图像分类设备的示意图,该设备可以包括:
存储器61,用于存储计算机程序;
处理器62,用于执行上述存储器61存储的计算机程序时可实现如下步骤:
接收待分类图像信息;利用通过对比裁剪量化误差和max量化误差选取得到的量化阈值进行权重参数量化后的深度神经网络模型,对待分类图像信息进行分类操作,得到图像分类结果;其中,裁剪量化误差为基于深度神经网络模型的原权重参数计算得到的裁剪阈值进行权重参数量化得到,max量化误差为基于深度神经网络模型的原权重参数计算得到的最大绝对值权重阈值进行权重参数量化得到;输出图像分类结果。
对于本发明提供的设备的介绍请参照上述方法实施例,本发明在此不做赘述。
相应于上面的方法实施例,本发明还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,计算机程序被处理器执行时可实现如下步骤:
接收待分类图像信息;利用通过对比裁剪量化误差和max量化误差选取得到的量化阈值进行权重参数量化后的深度神经网络模型,对待分类图像信息进行分类操作,得到图像分类结果;其中,裁剪量化误差为基于深度神经网络模型的原权重参数计算得到的裁剪阈值进行权重参数量化得到,max量化误差为基于深度神经网络模型的原权重参数计算得到的最大绝对值权重阈值进行权重参数量化得到;输出图像分类结果。
该计算机可读存储介质可以包括:U盘、移动硬盘、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
对于本发明提供的计算机可读存储介质的介绍请参照上述方法实施例,本发明在此不做赘述。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似部分互相参见即可。对于实施例公开的装置、设备及计算机可读存储介质而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的技术方案及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,这些改进和修饰也落入本发明权利要求的保护范围内。
Claims (6)
1.一种图像分类方法,其特征在于,包括:
接收待分类图像信息;
利用通过对比裁剪量化误差和max量化误差选取得到的量化阈值进行权重参数量化后的深度神经网络模型,对所述待分类图像信息进行分类操作,得到图像分类结果;其中,所述裁剪量化误差为基于所述深度神经网络模型的原权重参数计算得到的裁剪阈值进行权重参数量化得到,所述max量化误差为基于所述深度神经网络模型的原权重参数计算得到的最大绝对值权重阈值进行权重参数量化得到;
输出所述图像分类结果;
其中,当通过对比裁剪量化误差和max量化误差确定进行离群点分离处理时,将预计算得到的裁剪阈值确定为量化阈值;
利用通过对比裁剪量化误差和max量化误差选取得到的量化阈值进行权重参数量化后的深度神经网络模型,对所述待分类图像信息进行分类操作,包括:
利用所述裁剪阈值对经离群点分离处理得到的权重参数进行权重参数量化后的深度神经网络模型,对所述待分类图像信息进行分类操作;
其中,当通过对比裁剪量化误差和max量化误差确定不需进行离群点分离处理时,将预计算得到的最大绝对值权重阈值确定为量化阈值;
利用通过对比裁剪量化误差和max量化误差选取得到的量化阈值进行权重参数量化后的深度神经网络模型,对所述待分类图像信息进行分类操作,包括:
利用所述最大绝对值权重阈值对进行权重参数量化后的深度神经网络模型,对所述待分类图像信息进行分类操作。
2.根据权利要求1所述的图像分类方法,其特征在于,利用所述裁剪阈值对经离群点分离处理得到的权重参数进行权重参数量化后的深度神经网络模型,对所述待分类图像信息进行分类操作,包括:
利用所述裁剪阈值对将离群点数量高的前预设数量个通道进行离群点分离处理得到的权重参数,进行权重参数量化后的深度神经网络模型,对所述待分类图像信息进行分类操作。
3.一种图像分类装置,其特征在于,包括:
图像信息接收模块,用于接收待分类图像信息;
图像分类模块,用于利用通过对比裁剪量化误差和max量化误差选取得到的量化阈值进行权重参数量化后的深度神经网络模型,对所述待分类图像信息进行分类操作,得到图像分类结果;其中,所述裁剪量化误差为基于所述深度神经网络模型的原权重参数计算得到的裁剪阈值进行权重参数量化得到,所述max量化误差为基于所述深度神经网络模型的原权重参数计算得到的最大绝对值权重阈值进行权重参数量化得到;
分类结果输出模块,用于输出所述图像分类结果;
其中,所述图像分类模块具体为当通过对比裁剪量化误差和max量化误差确定进行离群点分离处理时,将预计算得到的裁剪阈值确定为量化阈值;利用所述裁剪阈值对经离群点分离处理得到的权重参数进行权重参数量化后的深度神经网络模型,对所述待分类图像信息进行分类操作的模块;
其中,所述图像分类模块具体为当通过对比裁剪量化误差和max量化误差确定不需进行离群点分离处理时,将预计算得到的最大绝对值权重阈值确定为量化阈值;利用所述最大绝对值权重阈值对进行权重参数量化后的深度神经网络模型,对所述待分类图像信息进行分类操作的模块。
4.根据权利要求3所述的图像分类装置,其特征在于,所述图像分类模块具体为利用所述裁剪阈值对将离群点数量高的前预设数量个通道进行离群点分离处理得到的权重参数,进行权重参数量化后的深度神经网络模型,对所述待分类图像信息进行分类操作的模块。
5.一种图像分类设备,其特征在于,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如权利要求1至2任一项所述图像分类方法的步骤。
6.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至2任一项所述图像分类方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911041052.2A CN110782021B (zh) | 2019-10-25 | 2019-10-25 | 一种图像分类方法、装置、设备及计算机可读存储介质 |
PCT/CN2020/092829 WO2021077744A1 (zh) | 2019-10-25 | 2020-05-28 | 一种图像分类方法、装置、设备及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911041052.2A CN110782021B (zh) | 2019-10-25 | 2019-10-25 | 一种图像分类方法、装置、设备及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110782021A CN110782021A (zh) | 2020-02-11 |
CN110782021B true CN110782021B (zh) | 2023-07-14 |
Family
ID=69387537
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911041052.2A Active CN110782021B (zh) | 2019-10-25 | 2019-10-25 | 一种图像分类方法、装置、设备及计算机可读存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN110782021B (zh) |
WO (1) | WO2021077744A1 (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110782021B (zh) * | 2019-10-25 | 2023-07-14 | 浪潮电子信息产业股份有限公司 | 一种图像分类方法、装置、设备及计算机可读存储介质 |
CN112287986B (zh) * | 2020-10-16 | 2023-07-18 | 浪潮(北京)电子信息产业有限公司 | 一种图像处理方法、装置、设备及可读存储介质 |
CN113642711B (zh) * | 2021-08-16 | 2023-10-31 | 北京百度网讯科技有限公司 | 一种网络模型的处理方法、装置、设备和存储介质 |
CN113762403B (zh) * | 2021-09-14 | 2023-09-05 | 杭州海康威视数字技术股份有限公司 | 图像处理模型量化方法、装置、电子设备及存储介质 |
CN117371821A (zh) * | 2023-11-28 | 2024-01-09 | 广州市中大信息技术有限公司 | 基于bim技术的企业数据可视化展示方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018090355A1 (zh) * | 2016-11-21 | 2018-05-24 | 中国科学院自动化研究所 | 图像自动裁剪方法 |
CN108229681A (zh) * | 2017-12-28 | 2018-06-29 | 郑州云海信息技术有限公司 | 一种神经网络模型压缩方法、系统、装置及可读存储介质 |
CN109635935A (zh) * | 2018-12-29 | 2019-04-16 | 北京航空航天大学 | 基于模长聚类的深度卷积神经网络模型自适应量化方法 |
WO2019184823A1 (zh) * | 2018-03-26 | 2019-10-03 | 华为技术有限公司 | 基于卷积神经网络模型的图像处理方法和装置 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017027475A1 (en) * | 2015-08-07 | 2017-02-16 | Jianming Liang | Methods, systems, and media for simultaneously monitoring colonoscopic video quality and detecting polyps in colonoscopy |
CN108009638A (zh) * | 2017-11-23 | 2018-05-08 | 深圳市深网视界科技有限公司 | 一种神经网络模型的训练方法、电子设备及存储介质 |
CN108334910B (zh) * | 2018-03-30 | 2020-11-03 | 国信优易数据股份有限公司 | 一种事件检测模型训练方法以及事件检测方法 |
CN108491817B (zh) * | 2018-03-30 | 2021-02-26 | 国信优易数据股份有限公司 | 一种事件检测模型训练方法、装置以及事件检测方法 |
CN109657780A (zh) * | 2018-06-15 | 2019-04-19 | 清华大学 | 一种基于剪枝顺序主动学习的模型压缩方法 |
CN109344893B (zh) * | 2018-09-25 | 2021-01-01 | 华中师范大学 | 一种基于移动终端的图像分类方法 |
CN110210618A (zh) * | 2019-05-22 | 2019-09-06 | 东南大学 | 动态修剪深度神经网络权重和权重共享的压缩方法 |
CN110782021B (zh) * | 2019-10-25 | 2023-07-14 | 浪潮电子信息产业股份有限公司 | 一种图像分类方法、装置、设备及计算机可读存储介质 |
-
2019
- 2019-10-25 CN CN201911041052.2A patent/CN110782021B/zh active Active
-
2020
- 2020-05-28 WO PCT/CN2020/092829 patent/WO2021077744A1/zh active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018090355A1 (zh) * | 2016-11-21 | 2018-05-24 | 中国科学院自动化研究所 | 图像自动裁剪方法 |
CN108229681A (zh) * | 2017-12-28 | 2018-06-29 | 郑州云海信息技术有限公司 | 一种神经网络模型压缩方法、系统、装置及可读存储介质 |
WO2019184823A1 (zh) * | 2018-03-26 | 2019-10-03 | 华为技术有限公司 | 基于卷积神经网络模型的图像处理方法和装置 |
CN109635935A (zh) * | 2018-12-29 | 2019-04-16 | 北京航空航天大学 | 基于模长聚类的深度卷积神经网络模型自适应量化方法 |
Non-Patent Citations (1)
Title |
---|
Aojun Zhou等."Explicit Loss-Error-Aware Quantization for Low-Bit Deep Neural Networks".《2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition》.2018,第9426-9435页. * |
Also Published As
Publication number | Publication date |
---|---|
WO2021077744A1 (zh) | 2021-04-29 |
CN110782021A (zh) | 2020-02-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110782021B (zh) | 一种图像分类方法、装置、设备及计算机可读存储介质 | |
US20210256348A1 (en) | Automated methods for conversions to a lower precision data format | |
US11775611B2 (en) | Piecewise quantization for neural networks | |
CN111091184B (zh) | 一种深度神经网络的量化方法、装置、电子设备及介质 | |
EP4087239A1 (en) | Image compression method and apparatus | |
US20240185867A1 (en) | Signal Processing Method and Device | |
CN109978144B (zh) | 一种模型压缩方法和系统 | |
CN110649925B (zh) | 划分的增益形状向量编码 | |
US20190057706A1 (en) | Signal Encoding And Decoding Methods and Devices | |
CN110955405B (zh) | 一种输入数据的处理及指数值获取方法、装置及电子设备 | |
CN111461302A (zh) | 一种基于卷积神经网络的数据处理方法、设备及存储介质 | |
CN115912375B (zh) | 低压供电的补偿方法、装置和电子设备 | |
US20120215525A1 (en) | Method and apparatus for mixed dimensionality encoding and decoding | |
JP7026808B2 (ja) | 情報処理装置、方法及びプログラム | |
US10032460B2 (en) | Frequency envelope vector quantization method and apparatus | |
CN112561050A (zh) | 一种神经网络模型训练方法及装置 | |
US10938412B2 (en) | Decompression of model parameters using functions based upon cumulative count distributions | |
CN104618715A (zh) | 一种获取最小率失真代价的方法及装置 | |
WO2020185238A1 (en) | Decompression of model parameters using functions based upon cumulative count distributions | |
KR20150140802A (ko) | 채널간 레벨 차이 처리 방법 및 장치 | |
CN118196601A (zh) | 模型量化及部署方法、装置及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |