CN110175641B - 图像识别方法、装置、设备和存储介质 - Google Patents
图像识别方法、装置、设备和存储介质 Download PDFInfo
- Publication number
- CN110175641B CN110175641B CN201910431366.7A CN201910431366A CN110175641B CN 110175641 B CN110175641 B CN 110175641B CN 201910431366 A CN201910431366 A CN 201910431366A CN 110175641 B CN110175641 B CN 110175641B
- Authority
- CN
- China
- Prior art keywords
- target
- convolution layer
- initial
- layer
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 60
- 238000013139 quantization Methods 0.000 claims abstract description 86
- 238000007493 shaping process Methods 0.000 claims abstract description 50
- 238000007667 floating Methods 0.000 claims description 24
- 238000004364 calculation method Methods 0.000 claims description 21
- 238000013527 convolutional neural network Methods 0.000 claims description 19
- 230000008569 process Effects 0.000 claims description 12
- 238000012549 training Methods 0.000 claims description 11
- 238000013507 mapping Methods 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 4
- 238000012795 verification Methods 0.000 claims description 4
- 238000009826 distribution Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 11
- 238000012545 processing Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 230000004913 activation Effects 0.000 description 5
- 238000010606 normalization Methods 0.000 description 5
- 102100030148 Integrator complex subunit 8 Human genes 0.000 description 4
- 101710092891 Integrator complex subunit 8 Proteins 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 238000003491 array Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明实施例公开了一种图像识别方法、装置、设备和存储介质,其中该方法包括:获取待识别的目标图像;利用预先构建的图像识别模型,得到目标图像的识别结果,图像识别模型通过对初始识别模型中的卷积层进行逐层8位整形量化得到,其中每个卷积层的目标输出系数为2的指数次幂。本发明实施例可以适用于FPGA等低功耗平台与芯片,无需耗费巨大计算资源,进而避免了对硬件平台的依赖,极大地提高了图像识别的识别效率,实现了图像识别的通用化。
Description
技术领域
本发明实施例涉及图像处理技术领域,尤其涉及一种图像识别方法、装置、设备和存储介质。
背景技术
近年来,随着深度学习技术的发展,基于卷积神经网络(Convolutional NeuralNetworks,CNN)的方法在众多领域中得到了广泛的应用,逐渐成为计算机视觉领域中功能最强大的技术之一,尤其在图像处理领域取得了巨大的进步,例如目标物体识别。但是基于卷积神经网络的方法计算量大并且耗费资源,很难集成到像智能手机、智能眼镜和机器人等嵌入式系统中,因此对卷积神经网络进行加速很有必要。
随着深度学习算法的突破和当前通用处理器的局限性,硬件加速受到越来越多的关注,许多研究机构对硬件加速技术进行了广泛而深入的研究。现场可编程门阵列(FieldProgrammable Gate Array,FPGA)等可重构计算芯片能更好地平衡计算灵活性与高效性,是深度学习算法常用的主流硬件加速方式之一。现有技术中,对CNN模型进行加速(即量化)的方法主要包括两种,一种是采用一种线性量化法在量化模型权重和激活计算时最小化有效信息的损失,将FP32(CPU/GPU上的CNN常用数据精度)的CNN网络转换为INT8,该方法虽然高效且方便操作,但专用于NVIDIA自家的图形处理器(Graphics Processing Unit,GPU)平台,无法适用于FPGA或供专门应用的集成电路(Application Specific IntegratedCircuit,ASIC)等低功耗硬件平台与芯片。另外一种是通过量化方案将权值和激活值通过非线性量化到8-bit整数,少量参数是32-bit整数,这种方法虽然可以应用在资源有限的移动设备中,但量化过程需要重新训练,量化效率偏低,并且也不通用于FPGA或ASIC等平台。
发明内容
本发明实施例提供一种图像识别方法、装置、设备和存储介质,以优化图像识别模型的加速方法,实现图像识别的通用化。
第一方面,本发明实施例提供了一种图像识别方法,包括:
获取待识别的目标图像;
利用预先构建的图像识别模型,得到所述目标图像的识别结果,所述图像识别模型通过对初始识别模型中的卷积层进行逐层8位整形量化得到,其中每个卷积层的目标输出系数为2的指数次幂。
第二方面,本发明实施例还提供了一种图像识别装置,该装置包括:
图像获取模块,用于获取待识别的目标图像;
图像识别模块,用于利用预先构建的图像识别模型,得到所述目标图像的识别结果,所述图像识别模型通过对初始识别模型中的卷积层进行逐层8位整形量化得到,其中每一个卷积层的目标输出系数为2的指数次幂。
进一步的,所述图像识别模块包括:
初始模型单元,用于构建32位浮点的初始识别模型,将所述初始识别模型中的第一层卷积层确定为目标卷积层;
第一量化单元,用于对所述目标卷积层进行8位整形量化,得到目标输出值;
第二量化单元,用于将第二层卷积层确定为新的目标卷积层,所述目标输出值作为所述新的目标卷积层的输入,对所述新的目标卷积层进行8位整形量化,直到所述初始识别模型中的卷积层量化完成。
进一步的,所述第一量化单元用于:
获取所述目标卷积层的初始输入值、初始权重、初始偏置值和初始输出系数;
根据所述初始权重、所述初始偏置值、初始输出系数和量化映射公式,确定目标权重和目标偏置值;
通过计算相对熵得到目标输出系数;
根据所述目标权重、所述目标偏置值、所述初始输入值和所述目标输出系数,得到目标输出值。
进一步的,所述图像识别模块还包括:
限定单元,用于对所述目标卷积层进行8位整形量化,得到目标输出值之后,对所述目标输出值进行8位整形的范围限定。
进一步的,所述图像识别模块还包括:
校验模块,用于对所述目标卷积层进行8位整形量化,得到目标输出值之后,通过余弦距离校验所述目标卷积层的量化是否满足设定要求。
进一步的,所述初始模型单元具体用于:
将训练样本集输入卷积神经网络中进行训练,确定训练好的卷积神经网络为32位浮点的初始识别模型。
进一步的,所述目标输出系数用于在卷积层中实现移位计算。
第三方面,本发明实施例还提供了一种设备,所述设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如上所述的图像识别方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上所述的图像识别方法。
本发明实施例通过获取待识别的目标图像,利用预先构建的图像识别模型,得到目标图像的识别结果,图像识别模型通过对初始识别模型中的卷积层进行逐层8位整形量化得到,其中每个卷积层的目标输出系数为2的指数次幂。本发明实施例中,图像识别过程中采用的图像识别模型为经过8位整形量化的,由于图像识别模型中的每个卷积层的输出系数均量化为2的指数次幂,使得该图像识别模型的识别可以满足FPGA等设备的计算原理,因此可以适用于FPGA等低功耗平台与芯片,无需耗费巨大计算资源,进而避免了对硬件平台的依赖,极大地提高了图像识别的识别效率,实现了图像识别的通用化。
附图说明
图1为本发明实施例一中的图像识别方法的流程图;
图2为本发明实施例一中的图像识别方法的示意图;
图3为本发明实施例二中的图像识别方法的流程图;
图4为本发明实施例二中的权重量化映射的示意图;
图5为本发明实施例二中的数值分布直方图;
图6为本发明实施例二中的输出量化映射的示意图;
图7为本发明实施例三中的图像识别装置的结构示意图;
图8为本发明实施例四中的设备的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
实施例一
图1为本发明实施例一中的图像识别方法的流程图,本实施例可适用于对图像进行识别的情况,该方法可以由图像识别装置执行,该装置可以采用软件和/或硬件的方式实现,该装置可配置于设备中,例如该设备可以是FPGA或ASIC等低功耗硬件平台与芯片。
图2为本发明实施例一中的图像识别方法的示意图,图中将目标图像至图像识别模型中进行图像识别,其中图像识别模型中包括多个卷积层(图中第一层卷积层至第N层卷积层)和多个非卷积层,本实施例中图像识别模型中的每层卷积层均通过8位整形量化,每个卷积层的目标输出系数为2的指数次幂。
如图1所示,该方法具体可以包括:
S110、获取待识别的目标图像。
其中,目标图像可以为任意需要进行识别的图像,本实施例中对具体的目标图像不作限定,例如目标图像可以为包括目标物体的图像、不包括目标物体的图像或风景图像等图像。并且,本实施例中对目标图像的数量也不作限定,可以根据实际情况进行设定。
具体的,图像识别装置可以获取图像采集装置采集的预设时间内的目标图像,或者图像识别装置可以获取互联网上或外部存储器中存储的目标图像。本实施例中目标图像的来源可以为多个,对此不作限定。
S120、利用预先构建的图像识别模型,得到目标图像的识别结果,图像识别模型通过对初始识别模型中的卷积层进行逐层8位整形量化得到,其中每个卷积层的目标输出系数为2的指数次幂。
图像识别装置获取待识别的目标图像之后,可以将目标图像输入预先构建的图像识别模型中进行识别,得到目标图像的识别结果。示例性的,若将目标图像输入图像识别模型中进行目标物体识别,得到的识别结果可以为该目标图像包括目标物体或该目标图像不包括目标物体。其中,识别结果与图像识别模型的目的相对应,目标物体可以为图像中的任意一个物体,例如图像中包括一个水杯,则目标物体可以为该水杯。
其中,初始识别模型为基于神经网络的用于实现一定图像识别目的的深度学习模型,本实施例中的初始识别模型为已经训练好的模型。
初始识别模型可以包括数据输入层、卷积层、池化层、激活层和Eltwise层,其中,数据输入层用于对待识别的目标图像进行预处理,具体可以包括去均值处理和归一化处理,去均值处理可以是将三维的目标图像进行灰度化,然后把灰度化的数据减去127,范围变成[-127,127]之间,归一化处理可以是将得到的图像数据除以128,变成-1到1之间的小数;卷积层用于提取图像特征,是卷积神经网络中最重要的一层,卷积公式可以为其中,n_in为输入矩阵的个数,或者是张量的最后一维的维数,X代表第k个输入矩阵,W代表卷积核的第k个子卷积核矩阵,s(i,j)即卷积核W对应的输出矩阵的对应位置元素的值,卷积层具体可以包括局部连接处理、权值共享处理和下采样处理等;池化层夹在连续的卷积层中间,用于压缩数据和参数的量,减小过拟合;激活层可以把卷积层输出结果做非线性映射,主要采用Relu为激活函数,公式为ReLU(x)=max(0,x);Eltwise层支持3种基本操作,具体为按元素乘积(PROD)、按元素求和(SUM)和保存元素大者(MAX)。
进一步的,8位整形(INT8)可以表示数据的长度为8bit,8位整形量化可以表示将原始的32位浮点(FP32)数据量化为8位整形数据,其中32位浮点(FP32)可以表示数据的长度为32bit。
具体的,对初始识别模型中的卷积层进行逐层8位整形量化,可以包括:构建32位浮点的初始识别模型,将初始识别模型中的第一层卷积层确定为目标卷积层;对目标卷积层进行8位整形量化,得到目标输出值;将第二层卷积层确定为新的目标卷积层,目标输出值作为新的目标卷积层的输入,对新的目标卷积层进行8位整形量化,直到初始识别模型中的卷积层量化完成。对初始识别模型中的每个卷积层进行量化之后,即得到了上述图像识别模型。其中目标卷积层的目标输出系数为2的指数次幂,目标输出系数用于在卷积层中实现移位计算。
进一步的,构建32位浮点的初始识别模型,可以包括:将训练样本集输入卷积神经网络中进行训练,确定训练好的卷积神经网络为32位浮点的初始识别模型。其中,训练样本集中可以包括设定数量的包括标记的图像。
进一步的,对目标卷积层进行8位整形量化,得到目标输出值之后,还可以包括:对目标输出值进行8位整形的范围限定。由于目标输出值可能大于127或者小于-127,因此具体可以通过公式output_int8_1=min(127,max(-127,output_int8))实现对目标输出值8位整形的范围限定,其中output_int8_1范围限定之后的目标输出值,output_int8表示目标输出值。将目标输出值大于127的值映射为127,小于-127的值映射为-127,使得范围限定之后的目标输出值在-127至127之间。通过对每个卷积层目标输出值的进一步范围限定,保证了整个模型中不会出现超过8Bit的数据。
经试验验证,上述限定范围的计算几乎不会影响最后的模型精度。因为对于图像处理而言,太大的值没有意义,就比如图像上的一两个噪声点,事实上是不会影响最后的特征提取的,并且由于有激活函数的存在,对于一些噪声信息其实是起到了信息抑制的作用,因此,对于结果这样的限定范围的操作,不会影响最终精度的结果。
进一步的,对目标卷积层进行8位整形量化,得到目标输出值之后,还可以包括:通过余弦距离校验目标卷积层的量化是否满足设定要求。具体的,对于设定图像,预先得到32位浮点的初始识别模型的第一结果,对目标卷积层进行量化之后,得到包括量化之后的目标卷积层和其他未量化的卷积层的初始识别模型的第二结果,对上述第一结果和第二结果通过公式计算余弦距离(又称余弦相似度),设定要求可以为余弦距离满足相似度阈值,该相似度阈值可以根据实际情况进行设定,相似度阈值越接近1越好。若通过余弦距离确定目标卷积层的量化满足设定要求,则执行下一步骤,否则对目标卷积层的量化过程中的目标输出系数进行调整,即调整移位不长。
需要说明是,每个卷积层量化之后,可以对当前部分量化的初始识别模型计算结果,以通过余弦距离进行校验,进一步实现了量化之后的初始识别模型的精度与32位浮点的初始识别模型的精度接近,进而保证了图像识别的精度。
本实施例的技术方案,通过获取待识别的目标图像,利用预先构建的图像识别模型,得到目标图像的识别结果,图像识别模型通过对初始识别模型中的卷积层进行逐层8位整形量化得到,其中每个卷积层的目标输出系数为2的指数次幂。本发明实施例中,图像识别过程中采用的图像识别模型为经过8位整形量化的,由于图像识别模型中的每个卷积层的输出系数均量化为2的指数次幂,使得该图像识别模型的识别可以满足FPGA等设备的计算原理,因此可以适用于FPGA等低功耗平台与芯片,无需耗费巨大计算资源,进而避免了对硬件平台的依赖,极大地提高了图像识别的识别效率,实现了图像识别的通用化。
实施例二
图3为本发明实施例二中的图像识别方法的流程图。本实施例在上述实施例的基础上,进一步优化了上述图像识别方法。相应的,如图3所示,本实施例的方法具体包括:
S210、构建32位浮点的初始识别模型,将初始识别模型中的第一层卷积层确定为目标卷积层。
具体的,构建32位浮点的初始识别模型,可以包括:将训练样本集输入卷积神经网络中进行训练,确定训练好的卷积神经网络为32位浮点的初始识别模型。
S220、对目标卷积层进行8位整形量化,得到目标输出值。
其中,8位整形(INT8)可以表示数据的长度为8bit,8位整形量化可以表示将原始的32位浮点(FP32)数据量化为8位整形数据,其中32位浮点(FP32)可以表示数据的长度为32bit。
对目标卷积层进行8位整形量化,得到目标输出值,可以包括S221-S224(图中未示出),具体的:
S221、获取目标卷积层的初始输入值、初始权重、初始偏置值和初始输出系数。
其中,当目标卷积层为第一层卷积层时,初始输入值为将输入的图像进行数值化之后的INT8数据。初始权重为一个权重数组,对于一个已经训练好的模型而言,每个卷积层的权重都是固定的,可以得到初始权重最大值和初始权重最小值。根据初始权重最大值和初始权重最小值通过公式可以得到初始输出系数,其中scale表示初始输出系数,是小于1的浮点数,min_value表示初始权重最小值,max_value表示初始权重最大值。初始偏置值可以通过bias_32来表示,可以直接获取到。初始权重、初始偏置值和初始输出系数均为32位浮点数。
S222、根据初始权重、初始偏置值、初始输出系数和量化映射公式,确定目标权重和目标偏置值。
具体的,根据初始权重和初始输出系数通过量化映射公式weights_32=2-shift*weights_int8,可以得到INT8的目标权重,其中weights_32表示初始权重,weights_int8表示目标权重,shift是整数,表示初始权重的右移位数scale表示初始输出系数。具体参见图4,图4为本发明实施例二中的权重量化映射的示意图,从图中可以看出,将初始权重映射到-127至127的范围内。
根据初始偏置值和初始输出系数通过量化映射公式bias_32=2-shift*bias_int8,可以得到INT8的目标偏置值,其中bias_32表示初始偏置值,bias_int8表示目标偏置值,shift是整数,表示初始权重的右移位数scale表示初始输出系数。
通过公式转换进一步说明,对于初始识别模型output_32=input_32*weights_32+bias_32,将其转换为INT8为output_shift*output_int8=input_shift*weight_shift*input_int8*weights_int8+bias_32,因此,可以得到
S223、通过计算相对熵得到目标输出系数。
其中,相对熵(relative entropy),又被称为Kullback-Leibler散度(Kullback-Leibler divergence)或信息散度(information divergence),是两个概率分布(probability distribution)间差异的非对称性度量,相对熵可以等于两个概率分布的信息熵(Shannon entropy)的差值。相对熵可以表述两个分布的差异程度。
首先介绍信息量熵的式子:也就是log(1/p)的期望,即事件发生概率的倒数的期望;熵越大就代表事件发生的概率小,即不可能性大,因此里面包含的信息量就越大。按照真实分布p来编码样本所需的编码长度的期望如下图,这就是上面说的信息熵H(P),/>
按照不真实分布q来编码样本所需的编码长度的期望如下图,这就是所谓的交叉熵H(p,q),这里引申出KL散度D(p||q)=H(p,q)-H(p),也叫做相对熵,它表示两个分布的差异,差异越大,相对熵越大,具体的,其中DKL(p||q)表示相对熵,对上述公式进行展开,得到/>
具体的,通过计算初始识别模型和量化目标卷积层之后的初始识别模型的相对熵,得到相对熵最小时的输出系数作为目标输出系数。其中,目标输出系数设定为2的指数次幂,用于在卷积层中实现移位计算。
S224、根据目标权重、目标偏置值、初始输入值和目标输出系数,得到目标输出值。
具体的,获取到目标权重、目标偏置值、初始输入值和目标输出系数之后,可以根据目标权重、目标偏置值、初始输入值、目标输出系数和移位计算公式output_int8=(input_int8*weights_int8+bias_int8)*scale_int8,可以得到目标输出值,其中output_int8表示目标输出值,input_int8表示初始输入值,weights_int8表示目标权重值,bias_int8表示目标偏移值,scale_int8表示目标输出系数。乘以目标输出系数即表示进行移位计算。
可选地,在进行移位计算之前,可以对通过公式output_int8_1=input_int8*weights_int8+bias_int8得到的未筛选输出值进行筛选,其中output_int8_1表示未筛选输出值。对未目标输出值进行分布统计,具体参见图5,图5为本发明实施例二中的数值分布直方图,图中表示的是未筛选输出值的数值分布。其中x轴数据的间隔可以为0.25,也可以是其他值,比如0.125,区间越小,越能反应每一层卷积输出的值分布,y轴为在这个区间内数字出现的次数,这取决于样本图片的数量,数据符合正态分布的。
图6中可以看到直方图的中间位置,也就是绝对值接近于0的部分数据相对集中,这主要是由于批量归一化层(Batch Normalization,BN)的归一化作用,使得数据分布相对均匀,并且总体上也比较符合正态分布。因此,可以筛选出中间位置预设范围内的数据,即可实现在保留约98%的数据的情况下进行数据量的压缩。
对通过公式output_int8_1=input_int8*weights_int8+bias_int8得到的未筛选输出值进行筛选之后,可以得到筛选后输出值。通过公式output_int8=output_int8_2*scale_int8将筛选后输出值乘以目标输出系数,即对筛选后输出值进行移位计算,得到目标输出值,其中output_int8_2表示筛选后输出值。目标输出系数设定为2的指数次幂。具体参见图6,图6为本发明实施例二中的输出量化映射的示意图,通过设定阈值T对筛选后输出值进行映射,当大于T时,量化为127,当小于-T时,量化为-127。
进一步的,S220之后,还可以包括:对目标输出值进行8位整形的范围限定。
进一步的,S220之后,还可以包括:通过余弦距离校验目标卷积层的量化是否满足设定要求。
S230、将第二层卷积层确定为新的目标卷积层,目标输出值作为新的目标卷积层的输入,对新的目标卷积层进行8位整形量化,直到初始识别模型中的卷积层量化完成。
S240、将量化完成的初始识别模型作为图像识别模型。
可选的,对于量化完成的初始识别模型,对于其中的Eltwise层进行适应性调整。例如,将两个输入进行相加,由于两个输入可能在不同的尺度下,所以需要将这两层的右移一致,因此对于这样的两层输入进行同时调整,才能在这一层进行相加操作。
可选地,对于量化完成的初始识别模型还可以进行精度测试,与原始的初始识别模型进行比较。示例性的,表1为精度测试结果表,其中FAR表示误识率,recall表示召回率,若在目标物体识别的场景中,主要参考卷积神经网络在万分之一错误率下的召回率。如表1可知,量化之后的INT8的模型相较于FP32的模型的精度损失小于等于1%,精度损失非常小,说明精度满足要要求。
表1精度测试结果表
S250、获取待识别的目标图像。
S260、利用预先构建的图像识别模型,得到目标图像的识别结果。
图像识别装置获取待识别的目标图像之后,可以将目标图像输入预先构建的图像识别模型中进行识别,得到目标图像的识别结果。示例性的,若将目标图像输入图像识别模型中进行目标物体识别,得到的识别结果可以为该目标图像包括目标物体或该目标图像不包括目标物体。其中,识别结果与图像识别模型的目的相对应。
本实施例的技术方案,通过获取待识别的目标图像,利用预先构建的图像识别模型,得到目标图像的识别结果,图像识别模型通过对初始识别模型中的卷积层进行逐层8位整形量化得到,其中每个卷积层的目标输出系数为2的指数次幂。本发明实施例中,图像识别过程中采用的图像识别模型为经过8位整形量化的,由于图像识别模型中的每个卷积层的输出系数均量化为2的指数次幂,使得该图像识别模型的识别可以满足FPGA等设备的计算原理,因此可以适用于FPGA等低功耗平台与芯片,无需耗费巨大计算资源,进而避免了对硬件平台的依赖,极大地提高了图像识别的识别效率,实现了图像识别的通用化。
实施例三
图7为本发明实施例三中的图像识别装置的结构示意图。本实施例可适用于对图像进行识别的情况。本发明实施例所提供的图像识别装置可执行本发明任意实施例所提供的图像识别方法,具备执行方法相应的功能模块和有益效果。
该装置具体包括图像获取模块310和图像识别模块320,其中:
图像获取模块310,用于获取待识别的目标图像;
图像识别模块320,用于利用预先构建的图像识别模型,得到目标图像的识别结果,图像识别模型通过对初始识别模型中的卷积层进行逐层8位整形量化得到,其中每一个卷积层的目标输出系数为2的指数次幂。
本发明实施例通过获取待识别的目标图像,利用预先构建的图像识别模型,得到目标图像的识别结果,图像识别模型通过对初始识别模型中的卷积层进行逐层8位整形量化得到,其中每个卷积层的目标输出系数为2的指数次幂。本发明实施例中,图像识别过程中采用的图像识别模型为经过8位整形量化的,由于图像识别模型中的每个卷积层的输出系数均量化为2的指数次幂,使得该图像识别模型的识别可以满足FPGA等设备的计算原理,因此可以适用于FPGA等低功耗平台与芯片,无需耗费巨大计算资源,进而避免了对硬件平台的依赖,极大地提高了图像识别的识别效率,实现了图像识别的通用化。
进一步的,图像识别模块320包括:
初始模型单元,用于构建32位浮点的初始识别模型,将初始识别模型中的第一层卷积层确定为目标卷积层;
第一量化单元,用于对目标卷积层进行8位整形量化,得到目标输出值;
第二量化单元,用于将第二层卷积层确定为新的目标卷积层,目标输出值作为新的目标卷积层的输入,对新的目标卷积层进行8位整形量化,直到初始识别模型中的卷积层量化完成。
进一步的,第一量化单元用于:
获取目标卷积层的初始输入值、初始权重、初始偏置值和初始输出系数;
根据初始权重、初始偏置值、初始输出系数和量化映射公式,确定目标权重和目标偏置值;
通过计算相对熵得到目标输出系数;
根据目标权重、目标偏置值、初始输入值和目标输出系数,得到目标输出值。
进一步的,图像识别模块320还包括:
限定单元,用于对目标卷积层进行8位整形量化,得到目标输出值之后,对目标输出值进行8位整形的范围限定。
进一步的,图像识别模块320还包括:
校验模块,用于对目标卷积层进行8位整形量化,得到目标输出值之后,通过余弦距离校验目标卷积层的量化是否满足设定要求。
进一步的,初始模型单元具体用于:
将训练样本集输入卷积神经网络中进行训练,确定训练好的卷积神经网络为32位浮点的初始识别模型。
进一步的,目标输出系数用于在卷积层中实现移位计算。
本发明实施例所提供的图像识别装置可执行本发明任意实施例所提供的图像识别方法,具备执行方法相应的功能模块和有益效果。
实施例四
图8为本发明实施例四中的设备的结构示意图。图8示出了适于用来实现本发明实施方式的示例性设备412的框图。图8显示的设备412仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图8所示,设备412以通用设备的形式表现。设备412的组件可以包括但不限于:一个或者多个处理器416,存储装置428,连接不同系统组件(包括存储装置428和处理器416)的总线418。
总线418表示几类总线结构中的一种或多种,包括存储装置总线或者存储装置控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(Industry SubversiveAlliance,ISA)总线,微通道体系结构(Micro Channel Architecture,MAC)总线,增强型ISA总线、视频电子标准协会(Video Electronics Standards Association,VESA)局域总线以及外围组件互连(Peripheral Component Interconnect,PCI)总线。
设备412典型地包括多种计算机系统可读介质。这些介质可以是任何能够被设备412访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
存储装置428可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(Random Access Memory,RAM)430和/或高速缓存存储器432。设备412可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统434可以用于读写不可移动的、非易失性磁介质(图8未显示,通常称为“硬盘驱动器”)。尽管图8中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘,例如只读光盘(Compact Disc Read-Only Memory,CD-ROM),数字视盘(Digital Video Disc-Read Only Memory,DVD-ROM)或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线418相连。存储装置428可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块442的程序/实用工具440,可以存储在例如存储装置428中,这样的程序模块442包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块442通常执行本发明所描述的实施例中的功能和/或方法。
设备412也可以与一个或多个外部设备414(例如键盘、指向终端、显示器424等)通信,还可与一个或者多个使得用户能与该设备412交互的终端通信,和/或与使得该设备412能与一个或多个其它计算终端进行通信的任何终端(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口422进行。并且,设备412还可以通过网络适配器420与一个或者多个网络(例如局域网(Local Area Network,LAN),广域网(Wide Area Network,WAN)和/或公共网络,例如因特网)通信。如图8所示,网络适配器420通过总线418与设备412的其它模块通信。应当明白,尽管图中未示出,可以结合设备412使用其它硬件和/或软件模块,包括但不限于:微代码、终端驱动器、冗余处理器、外部磁盘驱动阵列、磁盘阵列(Redundant Arrays of Independent Disks,RAID)系统、磁带驱动器以及数据备份存储系统等。
处理器416通过运行存储在存储装置428中的程序,从而执行各种功能应用以及数据处理,例如实现本发明实施例所提供的图像识别方法,该方法包括:
获取待识别的目标图像;
利用预先构建的图像识别模型,得到目标图像的识别结果,图像识别模型通过对初始识别模型中的卷积层进行逐层8位整形量化得到,其中每个卷积层的目标输出系数为2的指数次幂。
实施例五
本发明实施例五还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明实施例所提供的图像识别方法,该方法包括:
获取待识别的目标图像;
利用预先构建的图像识别模型,得到目标图像的识别结果,图像识别模型通过对初始识别模型中的卷积层进行逐层8位整形量化得到,其中每个卷积层的目标输出系数为2的指数次幂。
本发明实施例的计算机存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或终端上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (8)
1.一种图像识别方法,其特征在于,包括:
获取待识别的目标图像;
利用预先构建的图像识别模型,得到所述目标图像的识别结果,所述图像识别模型通过对初始识别模型中的卷积层进行逐层8位整形量化得到,其中每个卷积层的目标输出系数为2的指数次幂;
其中,所述对初始识别模型中的卷积层进行逐层8位整形量化,包括:
构建32位浮点的初始识别模型,对所述初始识别模型中的每个卷积层进行量化,将所述初始识别模型中的第一层卷积层确定为目标卷积层;
对所述目标卷积层进行8位整形量化,得到目标输出值;其中,所述目标输出值为初始识别模型中第二层卷积层的输入;
通过余弦距离校验所述目标卷积层的量化是否满足设定要求;
将第二层卷积层确定为新的目标卷积层,所述目标输出值作为所述新的目标卷积层的输入,对所述新的目标卷积层进行8位整形量化,直到所述初始识别模型中的卷积层量化完成;
其中,所述通过余弦距离校验所述目标卷积层的量化是否满足设定要求,包括:
对于设定图像,预先得到32位浮点的初始识别模型的第一结果,对目标卷积层进行量化之后,得到包括量化之后的目标卷积层和其他未量化的卷积层的初始识别模型的第二结果,对所述第一结果和所述第二结果通过公式计算余弦距离,若余弦距离满足相似度阈值,则确定目标卷积层的量化满足设定要求;否则对目标卷积层的量化过程中的目标输出系数进行调整,调整移位补偿。
2.根据权利要求1所述的方法,其特征在于,对所述目标卷积层进行8位整形量化,得到目标输出值,包括:
获取所述目标卷积层的初始输入值、初始权重、初始偏置值和初始输出系数;
根据所述初始权重、所述初始偏置值、初始输出系数和量化映射公式,确定目标权重和目标偏置值;
通过计算相对熵得到目标输出系数;
根据所述目标权重、所述目标偏置值、所述初始输入值和所述目标输出系数,得到目标输出值。
3.根据权利要求1所述的方法,其特征在于,对所述目标卷积层进行8位整形量化,得到目标输出值之后,还包括:
对所述目标输出值进行8位整形的范围限定。
4.根据权利要求1所述的方法,其特征在于,构建32位浮点的初始识别模型,包括:
将训练样本集输入卷积神经网络中进行训练,确定训练好的卷积神经网络为32位浮点的初始识别模型。
5.根据权利要求1-4中任一所述的方法,其特征在于,所述目标输出系数用于在卷积层中实现移位计算。
6.一种图像识别装置,其特征在于,包括:
图像获取模块,用于获取待识别的目标图像;
图像识别模块,用于利用预先构建的图像识别模型,得到所述目标图像的识别结果,所述图像识别模型通过对初始识别模型中的卷积层进行逐层8位整形量化得到,其中每个卷积层的目标输出系数为2的指数次幂;
其中,所述图像识别模块,包括:
初始模型单元,用于构建32位浮点的初始识别模型,对所述初始识别模型中的每个卷积层进行量化,将所述初始识别模型中的第一层卷积层确定为目标卷积层;
第一量化单元,用于对所述目标卷积层进行8位整形量化,得到目标输出值;其中,所述目标输出值为初始识别模型中第二层卷积层的输入;
校验模块,用于通过余弦距离校验所述目标卷积层的量化是否满足设定要求;
第二量化单元,用于将第二层卷积层确定为新的目标卷积层,所述目标输出值作为所述新的目标卷积层的输入,对所述新的目标卷积层进行8位整形量化,直到所述初始识别模型中的卷积层量化完成;
其中,所述校验模块,具体用于:
对于设定图像,预先得到32位浮点的初始识别模型的第一结果,对目标卷积层进行量化之后,得到包括量化之后的目标卷积层和其他未量化的卷积层的初始识别模型的第二结果,对所述第一结果和所述第二结果通过公式计算余弦距离,若余弦距离满足相似度阈值,则确定目标卷积层的量化满足设定要求;否则对目标卷积层的量化过程中的目标输出系数进行调整,调整移位补偿。
7.一种电子设备,其特征在于,所述设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-5中任一所述的图像识别方法。
8.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-5中任一所述的图像识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910431366.7A CN110175641B (zh) | 2019-05-22 | 2019-05-22 | 图像识别方法、装置、设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910431366.7A CN110175641B (zh) | 2019-05-22 | 2019-05-22 | 图像识别方法、装置、设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110175641A CN110175641A (zh) | 2019-08-27 |
CN110175641B true CN110175641B (zh) | 2024-02-02 |
Family
ID=67691858
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910431366.7A Active CN110175641B (zh) | 2019-05-22 | 2019-05-22 | 图像识别方法、装置、设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110175641B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110647941A (zh) * | 2019-09-25 | 2020-01-03 | 绍兴数鸿科技有限公司 | 基于卷积神经网络的蔬菜识别方法及设备 |
CN111326178A (zh) * | 2020-02-27 | 2020-06-23 | 长沙理工大学 | 基于卷积神经网络的多模态语音情感识别系统及方法 |
CN111614358B (zh) * | 2020-04-30 | 2023-08-04 | 合肥的卢深视科技有限公司 | 基于分通道量化的特征提取方法、系统、设备及存储介质 |
CN111680716B (zh) * | 2020-05-09 | 2023-05-12 | 浙江大华技术股份有限公司 | 一种识别对比方法、装置、计算机设备和存储介质 |
CN111814676B (zh) * | 2020-07-08 | 2023-09-29 | 上海雪湖科技有限公司 | 基于kl散度的fpga离线量化方法 |
CN112541549B (zh) * | 2020-12-15 | 2024-04-26 | 深兰人工智能(深圳)有限公司 | 商品分类识别方法及装置 |
CN112560677A (zh) * | 2020-12-15 | 2021-03-26 | 深兰人工智能(深圳)有限公司 | 指纹识别方法及装置 |
CN116129249B (zh) * | 2023-04-04 | 2023-07-07 | 上海燧原科技有限公司 | 一种图像处理方法、装置、电子设备和存储介质 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11556772B2 (en) * | 2017-04-28 | 2023-01-17 | Intel Corporation | Incremental precision networks using residual inference and fine-grain quantization |
CN108012156B (zh) * | 2017-11-17 | 2020-09-25 | 深圳市华尊科技股份有限公司 | 一种视频处理方法及控制平台 |
CN108256632A (zh) * | 2018-01-29 | 2018-07-06 | 百度在线网络技术(北京)有限公司 | 信息处理方法和装置 |
CN109409509A (zh) * | 2018-12-24 | 2019-03-01 | 济南浪潮高新科技投资发展有限公司 | 一种针对基于fpga的卷积神经网络加速器的数据结构和加速方法 |
-
2019
- 2019-05-22 CN CN201910431366.7A patent/CN110175641B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN110175641A (zh) | 2019-08-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110175641B (zh) | 图像识别方法、装置、设备和存储介质 | |
CN111079683B (zh) | 基于卷积神经网络的遥感图像云雪检测方法 | |
CN110119745B (zh) | 深度学习模型的压缩方法、装置、计算机设备及存储介质 | |
CN110874625B (zh) | 一种数据处理方法及装置 | |
CN113132723B (zh) | 一种图像压缩方法及装置 | |
CN111105017B (zh) | 神经网络量化方法、装置及电子设备 | |
CN109344893B (zh) | 一种基于移动终端的图像分类方法 | |
CN111144457B (zh) | 图像处理方法、装置、设备及存储介质 | |
CN113255910A (zh) | 卷积神经网络的剪枝方法、装置、电子设备和存储介质 | |
CN113780523A (zh) | 图像处理方法、装置、终端设备及存储介质 | |
CN113408704A (zh) | 数据处理方法、装置、设备及计算机可读存储介质 | |
CN113129122A (zh) | 财务风险预警审计方法、装置、电子设备、及存储介质 | |
CN112613604A (zh) | 神经网络的量化方法及装置 | |
CN112561050B (zh) | 一种神经网络模型训练方法及装置 | |
CN116580702A (zh) | 基于人工智能的语音识别方法、装置、计算机设备及介质 | |
CN111614358B (zh) | 基于分通道量化的特征提取方法、系统、设备及存储介质 | |
CN114881227A (zh) | 模型压缩方法、图像处理方法、装置和电子设备 | |
CN111382854B (zh) | 一种卷积神经网络处理方法、装置、设备及存储介质 | |
CN111178630A (zh) | 一种负荷预测方法及装置 | |
CN113033817A (zh) | 基于隐空间的ood检测方法、装置、服务器及存储介质 | |
CN111882046B (zh) | 多媒体数据的识别方法、装置、设备及计算机存储介质 | |
CN116681110B (zh) | 极值算法的配置方法、电子设备、程序产品及介质 | |
CN110728615B (zh) | 基于序贯假设检验的隐写分析方法、终端设备及存储介质 | |
CN116957045A (zh) | 基于最优传输理论的神经网络量化方法、系统及电子设备 | |
CN116363482A (zh) | 模型优化方法、图像处理方法、系统、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |