CN111401524A - 卷积神经网络处理方法、装置、设备、存储介质及模型 - Google Patents

卷积神经网络处理方法、装置、设备、存储介质及模型 Download PDF

Info

Publication number
CN111401524A
CN111401524A CN202010186435.5A CN202010186435A CN111401524A CN 111401524 A CN111401524 A CN 111401524A CN 202010186435 A CN202010186435 A CN 202010186435A CN 111401524 A CN111401524 A CN 111401524A
Authority
CN
China
Prior art keywords
neural network
convolution
convolutional
convolutional neural
kernel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010186435.5A
Other languages
English (en)
Inventor
曾峰
李春山
周建东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Wuyu Zhilian Technology Co ltd
Original Assignee
Shenzhen Wuyu Zhilian Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Wuyu Zhilian Technology Co ltd filed Critical Shenzhen Wuyu Zhilian Technology Co ltd
Priority to CN202010186435.5A priority Critical patent/CN111401524A/zh
Publication of CN111401524A publication Critical patent/CN111401524A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections

Abstract

本发明适用于计算机技术领域,提供了一种卷积神经网络处理方法、装置、设备、存储介质及模型,所述卷积神经网络处理方法包括:获取待处理图像;基于预设的优化深度可分卷积神经网络模型对所述待处理图像进行处理,生成所述待处理图像的特征输出;所述优化深度可分卷积神经网络模型包含若干层卷积层,且每一层所述卷积层包括预设比例的特征提取卷积核和降参卷积核;特征提取卷积核的大小大于所述降参卷积核的大小;每一层所述卷积层包括的特征提取卷积核和降参卷积核的排序不同。本发明提供的卷积神经网络处理方法在能够保证图像特征提取鲁棒性的同时,能够进一步降低图像处理过程以及模型训练过程中的运算量,减少模型参数,降低模型内存占用。

Description

卷积神经网络处理方法、装置、设备、存储介质及模型
技术领域
本发明属于计算机技术领域,尤其涉及一种卷积神经网络处理方法、装置、设备、存储介质及模型。
背景技术
深度卷积神经网络作为特征提取器以及分类器已被广泛应用于许多领域并获得显著成功。
然而研究表明,深度卷积神经网络通常具有成千上万的参数,而存储这些参数会占用设备的大部分存储和内存带宽。即使是对于不同的输入信道分别采用卷积核来进行卷积的深度可分卷积神经网络,也仅仅只是略微减少了模型参数,但仍需要大量的存储和内存带宽来进行处理。这也大大限制了深度卷积神经网络在如车载终端这样的内存有限的设备上的应用。
可见,现有的深度卷积神经网络处理算法仍然存在着模型参数多,占用内存大的技术问题。
发明内容
本发明实施例的目的在于提供一种卷积神经网络处理方法,旨在解决现有的深度卷积神经网络处理算法仍然存在的模型参数多,占用内存大的技术问题。
本发明实施例是这样实现的,一种卷积神经网络处理方法,包括:
获取待处理图像;
基于预设的优化深度可分卷积神经网络模型对所述待处理图像进行处理,生成所述待处理图像的特征输出;
其中,所述预设的优化深度可分卷积神经网络模型包含若干层卷积层,且每一层所述卷积层包括预设比例的特征提取卷积核和降参卷积核;所述特征提取卷积核的大小大于所述降参卷积核的大小;每一层所述卷积层包括的特征提取卷积核和降参卷积核的排序不同。
本发明实施例的另一目的在于提供一种卷积神经网络处理装置,包括:
图像获取单元,用于获取待处理图像;
处理单元,用于基于预设的优化深度可分卷积神经网络模型对所述图像进行处理,生成所述待处理图像的特征输出;
其中,所述预设的优化深度可分卷积神经网络模型包含若干层卷积层,且每一层所述卷积层包括预设比例的特征提取卷积核和降参卷积核;所述特征提取卷积核的大小大于所述降参卷积核的大小;每一层所述卷积层包括的特征提取卷积核和降参卷积核的排序不同。
本发明实施例的另一目的在于提供一种设备,包括存储器和处理器,所述存储器中存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如上述所述的步骤。
本发明实施例的另一目的在于提供一种可读存储介质,所述可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行如上述所述的步骤。
本发明实施例的另一目的在于提供一种卷积神经网络模型,运行于移动设备端,用于对图像进行特征提取处理,包括若干层卷积层,且每一层所述卷积层包括预设比例的特征提取卷积核和降参卷积核;所述特征提取卷积核的大小大于所述降参卷积核的大小;每一层所述卷积层包括的特征提取卷积核和降参卷积核的排序不同。
本发明实施例提供的一种卷积神经网络处理方法,利用每一层卷积层上所包括的卷积核为预设比例的两种大小的特征提取卷积核和降参卷积核的优化深度可分卷积神经网络模型对图像进行处理,即相对于现有的深度可分卷积网络模型,部分特征提取卷积核被替换为尺寸更小的降参卷积核,使得模型的参数进一步降低,且每一层所述卷积层包括的特征提取卷积核和降参卷积核的排序不同,避免在图像处理过程中,存在某个输入信道内的输入始终被降参卷积核处理导致该部分输入的特征提取不稳定。本发明提供的卷积神经网络处理方法在能够保证图像特征提取鲁棒性的同时,能够进一步降低图像处理过程以及模型训练过程中的运算量,减少模型参数,降低模型内存占用。
附图说明
图1(a)为标准卷积神经网络的卷积过程示意图;
图1(b)为深度可分卷积神经网络的卷积过程示意图;
图1(c)为本提供的卷积神经网络的卷积过程示意图;
图2为本发明实施例提供的一种卷积神经网络处理方法的步骤流程图;
图3为本发明实施例提供的一种对图像进行卷积处理的步骤流程图;
图4为本发明实施例提供的另一种对图像进行卷积处理的步骤流程图;
图5为本发明实施例提供的一种训练生成优化深度可分卷积神经网络模型的步骤流程图;
图6为本发明实施例提供的训练过程的步骤流程图;
图7为本发明实施例提供的一种卷积神经网络处理装置的结构示意图;
图8为本发明实施例提供的用于卷积神经网络处理方法的设备的示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明公开的卷积神经网络处理方法是在现有的深度卷积神经网络模型的基础上进行改进,为了便于理解本发明与现有技术方案的区别,具体请参阅图1(a)、图1(b)以及图1(c)及其解释说明。
如图1(a)所示,为标准卷积神经网络的卷积过程。具体的,标准卷积神经网是在图像数据的所有输入通道上应用相同大小的卷积核并将所有通道的特征总结为一个新的特征。
如图1(b)所示,为深度可分卷积神经网络的卷积过程。具体的,深度可分卷积神经网络分别在图像的每一个通道上应用相同大小的卷积核,并单独提取每一个通道的特征。
如图1(c)所示,为本发明实施例提供的卷积神经网络的卷积过程。具体的,本发明实施例提供的卷积神经网络分别在图像的每一个通道上应用不同大小的卷积核,并单独提取每一个通道的特征。
而在上述三种卷积神经网络中,假设有一个3×3大小的卷积层,输入通道为16、输出通道为32,则标准卷积神经网络的参数为16×32×3×3=4608个;深度可分卷积网络的参数为16×3×3+16×32×1×1=656个;而本发明提供的卷积神经网络的参数为16×(3×3×(0.5)+1×1×(1-0.5))+16×32×1×1=602个,特征提取卷积核数量越少,降参卷积核数量越多,本发明提供的卷积神经网络的参数数量可以更少。
如图2所示,为本发明实施例提供的一种卷积神经网络处理方法的步骤流程图,具体包括以下步骤:
步骤S202,获取待处理图像。
步骤S204,基于预设的优化深度可分卷积神经网络模型对所述待处理图像进行处理,生成所述待处理图像的特征输出。
在本发明实施例中,所述预设的优化深度可分卷积神经网络模型包含若干层卷积层,且每一层所述卷积层包括预设比例的特征提取卷积核和降参卷积核;所述特征提取卷积核的大小大于所述降参卷积核的大小;每一层所述卷积层包括的特征提取卷积核和降参卷积核的排序不同。
在本发明实施例中,其中特征提取卷积核主要用来强化和维持图像的局部空间联系特征,而降参卷积核主要用来减少模型的参数空间以及计算复杂度,对特征提取效果弱。
在本发明实施例中,优化深度可分卷积神经网络模型每一层包含的卷积核会对待处理图像在多个输入信道上的输入分别进行卷积处理,由于每一层所述卷积层包括的特征提取卷积核和降参卷积核的排序都有所不同,也就是每一个输入信道的输入不会在所有卷积层上都是利用降参卷积核进行卷积处理的,保证了每一个输入信道的输入都有具有较稳定的特征提取效果。
在本发明实施例中,其中具体的卷积处理过程请参阅图图3、图4及其解释说明,而训练生成所述优化深度可分卷积神经网络模型的过程具体请参阅图5、图6及其解释说明。
作为本发明的一个优选实施例,所述特征提取卷积核选用尺寸大小为3X3的卷积核,所述降参卷积核选用尺寸大小为1X1的卷积核。
本发明实施例提供的一种卷积神经网络处理方法,利用每一层卷积层上所包括的卷积核为预设比例的两种大小的特征提取卷积核和降参卷积核的优化深度可分卷积神经网络模型对图像进行处理,即相对于现有的深度可分卷积网络模型,部分特征提取卷积核被替换为尺寸更小的降参卷积核,使得模型的参数进一步降低,且每一层所述卷积层包括的特征提取卷积核和降参卷积核的排序不同,避免在图像处理过程中,存在某个输入信道内的输入始终被降参卷积核处理导致该部分输入的特征提取不稳定。本发明提供的卷积神经网络处理方法在能够保证图像特征提取鲁棒性的同时,能够进一步降低图像处理过程以及模型训练过程中的运算量,减少模型参数,降低模型内存占用。
如图3所示,为本发明实施例提供的一种对图像进行卷积处理的步骤流程图,具体包括以下步骤:
步骤S302,分别确定所述待处理图像在多个输入信道上的输入。
在本发明实施例中,对于卷积神经网络,通常是将用多个输入信道进行待处理图像的局部特征提取,具体的输入方式属于本领域技术人员的尝试,在此不再赘述。
步骤S304,根据每一层所述卷积层包括的卷积核分别对所述多个输入信道的输入进行卷积处理。
在本发明实施例中,每一层卷积层包括的卷积核分别对应一个输入信道,即有的信道利用特征提取卷积核进行卷积处理,有的信道利用降参卷积核处理,每一个输入信道都需要经过多层卷积层的卷积处理,即需要经过多个卷积核的卷积处理。
步骤S306,将所述多个输入信道的卷积处理结果进行拼接,并利用通道卷积核进行通道卷积处理,生成所述待处理图像的特征输出。
在本发明实施例中,与深度可分神经网络模型相同,先分别对每个输入信道进行特征提取,再将多个输入性道德特征提取进行组合并再次卷积以得到图像的整体特征,即为所述待处理图像的特征输出。
如图4所示,为本发明实施例提供的另一种对图像进行卷积处理的步骤流程图,详述如下。
在本发明实施例中,与图3所示出的一种对图像进行卷积处理的步骤流程图的区别在于,还包括:
步骤S402,根据所述特征输出确定所述待处理图像的分类结果。
在本发明实施例中,卷积神经网络处理主要用于待处理图像的分类,通常对图像进行卷积处理后得到特征输出即可确定图像的分类结果。
如图5所示,为本发明实施例提供的一种训练生成优化深度可分卷积神经网络模型的步骤流程图,具体包括以下步骤:
步骤S502,获取多个训练样本图像的目标输出。
在本发明实施例中,训练生成优化深度可分卷积神经网络模型与训练生成深度可分卷积神经网络模型的过程相似,同样需要用到训练样本图像及其对应的目标输出,也就是分类结果。
步骤S504,构建初始化的优化深度可分卷积神经网络模型。
在本发明实施例中,所述初始化的优化深度可分卷积神经网络模型包含若干层卷积层,且每一层所述卷积层包括预设比例的初始化特征提取卷积核和初始化降参卷积核;所述初始化特征提取卷积核的大小大于所述初始化降参卷积核的大小;每一层所述卷积层包括的初始化特征提取卷积核和初始化降参卷积核的排序不同。
步骤S506,根据所述多个训练样本图像的目标输出对所述优化深度可分卷积神经网络模型中的特征提取卷积核和初始化降参卷积核进行训练。
在本发明实施例中,具体的训练过程请参阅图6及其解释说明。
步骤S508,将训练完成后的优化深度可分卷积神经网络模型确定为所述预设的优化深度可分卷积神经网络模型。
如图6所示,为本发明实施例提供的训练过程的步骤流程图,具体包括以下步骤:
步骤S602,基于所述优化深度可分卷积神经网络模型对所述训练样本图像进行处理,生成所述训练样本图像的响应输出。
本发明具体提供了训练生成卷积神经网络模型的过程,考虑与现有模型的区别仅仅在于卷积神经网络模型的架构不同,具体的训练过程与现有的卷积神经网络模型训练过程相似,区别在于训练过程中需要更新的卷积神经网络模型参数不同。
步骤S604,确定所述训练样本图像的响应输出与所述训练样本图像的目标输出之间的差异。
步骤S606,判断所述差异是否满足预设的要求。当判断所述差异不满足预设的要求时,执行步骤S608;当判断所述差距满足预设的要求时,执行步骤S610。
步骤S608,基于梯度下降算法对所述优化深度可分卷积神经网络模型中的特征提取卷积核和初始化降参卷积核进行更新,并返回至所述步骤S602。
步骤S610,将当前优化深度可分卷积神经网络模型确定为训练完成后的优化深度可分卷积神经网络模型。
为了进一步表明本发明公开的卷积神经网络处理方法相对于现有的卷积神经网络处理方法的优势,以一个实际数据集上进行的算法压缩和加速实验,数据集由6000张图片组成,每张图片的尺寸为160*40,每张图片的大小约为3.3K。
将本发明中提出的算法与标准卷积网络的性能进行对比。其中,针对模型压缩的对比,使用模型大小和参数削减率进行评价;针对模型计算损耗的对比,使用每秒浮点操作数以及模型推理时间进行评价。
评价结果具体如表1中,表1中Conv表示常规的卷积神经网络,D-Conv表示深度可分卷积神经网络,上述两种卷积网络中卷积层均采用尺寸大小为3X3的卷积核,S-C2表示本发明提出的卷积神经网络,其中特征提取卷积核选用尺寸大小为3X3的卷积核,降参卷积核选用尺寸大小为1X1的卷积核,特征提取卷积核与降参卷积核的比例为1:1。
表1模型的加速和压缩性能评
Figure BDA0002414367410000101
由上述实验可以证明,本发明提供的卷积神经网络在保证较高的分类准确率的同时,能够进一步降低卷积神经模型模型的内存以及处理时间,相比于常规卷积神经网络能够降低近10倍的模型计算损耗,减少了7倍的模型存储空间,减少了3倍的模型运行时间,对于内存小,处理能力相对较低的移动终端设备例如车载终端设备具有很高的应用价值。
如图7所示,为本发明实施例提供的一种卷积神经网络处理装置的结构示意图,详述如下。
在本发明实施例中,所述卷积神经网络处理装置包括:
图像获取单元710,用于获取待处理图像。
处理单元720,用于基于预设的优化深度可分卷积神经网络模型对所述图像进行处理,生成所述待处理图像的特征输出。
在本发明实施例中,所述预设的优化深度可分卷积神经网络模型包含若干层卷积层,且每一层所述卷积层包括预设比例的特征提取卷积核和降参卷积核;所述特征提取卷积核的大小大于所述降参卷积核的大小;每一层所述卷积层包括的特征提取卷积核和降参卷积核的排序不同。
在本发明实施例中,其中特征提取卷积核主要用来强化和维持图像的局部空间联系特征,而降参卷积核主要用来减少模型的参数空间以及计算复杂度,对特征提取效果弱。
在本发明实施例中,优化深度可分卷积神经网络模型每一层包含的卷积核会对待处理图像在多个输入信道上的输入分别进行卷积处理,由于每一层所述卷积层包括的特征提取卷积核和降参卷积核的排序都有所不同,也就是每一个输入信道的输入不会在所有卷积层上都是利用降参卷积核进行卷积处理的,保证了每一个输入信道的输入都有具有较稳定的特征提取效果。
在本发明实施例中,所述预设的优化深度可分卷积神经网络模型包含若干层卷积层,且每一层所述卷积层包括预设比例的特征提取卷积核和降参卷积核;所述特征提取卷积核的大小大于所述降参卷积核的大小;每一层所述卷积层包括的特征提取卷积核和降参卷积核的排序不同。
本发明实施例提供的一种卷积神经网络处理装置,利用每一层卷积层上所包括的卷积核为预设比例的两种大小的特征提取卷积核和降参卷积核的优化深度可分卷积神经网络模型对图像进行处理,即相对于现有的深度可分卷积网络模型,部分特征提取卷积核被替换为尺寸更小的降参卷积核,使得模型的参数进一步降低,且每一层所述卷积层包括的特征提取卷积核和降参卷积核的排序不同,避免在图像处理过程中,存在某个输入信道内的输入始终被降参卷积核处理导致该部分输入的特征提取不稳定。本发明提供的卷积神经网络处理方法在能够保证图像特征提取鲁棒性的同时,能够进一步降低图像处理过程以及模型训练过程中的运算量,减少模型参数,降低模型内存占用。
图8示出了一个实施例中设备的内部结构图。如图8所示,该设备包括包括通过系统总线连接的处理器、存储器、网络接口、输入装置和显示屏。其中,存储器包括非易失性存储介质和内存储器。该设备的非易失性存储介质存储有操作系统,还可存储有计算机程序,该计算机程序被处理器执行时,可使得处理器实现卷积神经网络处理方法。该内存储器中也可储存有计算机程序,该计算机程序被处理器执行时,可使得处理器执行卷积神经网络处理方法。设备的显示屏可以是液晶显示屏或者电子墨水显示屏,设备的输入装置可以是显示屏上覆盖的触摸层,也可以是设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图8中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的设备的限定,具体的设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,本申请提供的卷积神经网络处理装置可以实现为一种计算机程序的形式,计算机程序可在如图8所示的设备上运行。设备的存储器中可存储组成该卷积神经网络处理装置的各个程序模块,比如,图7所示的图像获取单元710及处理单元720。各个程序模块构成的计算机程序使得处理器执行本说明书中描述的本申请各个实施例的卷积神经网络处理方法中的步骤。
例如,图8所示的设备可以通过如图7所示的卷积神经网络处理装置中的图像获取单元710执行步骤S202;设备可通过处理单元720执行步骤S204。
在一个实施例中,提出了一种设备,所述设备包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取待处理图像;
基于预设的优化深度可分卷积神经网络模型对所述待处理图像进行处理,生成所述待处理图像的特征输出;
其中,所述预设的优化深度可分卷积神经网络模型包含若干层卷积层,且每一层所述卷积层包括预设比例的特征提取卷积核和降参卷积核;所述特征提取卷积核的大小大于所述降参卷积核的大小;每一层所述卷积层包括的特征提取卷积核和降参卷积核的排序不同。
在一个实施例中,提供一种可读存储介质,可读存储介质上存储有计算机程序,计算机程序被处理器执行时,使得处理器执行以下步骤:
获取待处理图像;
基于预设的优化深度可分卷积神经网络模型对所述待处理图像进行处理,生成所述待处理图像的特征输出;
其中,所述预设的优化深度可分卷积神经网络模型包含若干层卷积层,且每一层所述卷积层包括预设比例的特征提取卷积核和降参卷积核;所述特征提取卷积核的大小大于所述降参卷积核的大小;每一层所述卷积层包括的特征提取卷积核和降参卷积核的排序不同
在一个实施例中,提供一种卷积神经网络模型,运行于移动设备端,用于对图像进行特征提取处理,包括若干层卷积层,且每一层所述卷积层包括预设比例的特征提取卷积核和降参卷积核;所述特征提取卷积核的大小大于所述降参卷积核的大小;每一层所述卷积层包括的特征提取卷积核和降参卷积核的排序不同。
应该理解的是,虽然本发明各实施例的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,各实施例中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种卷积神经网络处理方法,其特征在于,包括:
获取待处理图像;
基于预设的优化深度可分卷积神经网络模型对所述待处理图像进行处理,生成所述待处理图像的特征输出;
其中,所述预设的优化深度可分卷积神经网络模型包含若干层卷积层,且每一层所述卷积层包括预设比例的特征提取卷积核和降参卷积核;所述特征提取卷积核的大小大于所述降参卷积核的大小;每一层所述卷积层包括的特征提取卷积核和降参卷积核的排序不同。
2.根据权利要求1所述的一种卷积神经网络处理方法,其特征在于,所述基于预设的优化后深度可分卷积神经网络模型对所述图像进行处理的步骤具体包括:
分别确定所述待处理图像在多个输入信道上的输入;
根据每一层所述卷积层包括的卷积核分别对所述多个输入信道的输入进行卷积处理;
将所述多个输入信道的卷积处理结果进行拼接,并利用通道卷积核进行通道卷积处理,生成所述待处理图像的特征输出。
3.根据权利要求2所述的一种卷积神经网络处理方法,其特征在于,在所述生成所述待处理的图像的特征输出的步骤之后,还包括:
根据所述特征输出确定所述待处理图像的分类结果。
4.根据权利要求1所述的一种卷积神经网络处理方法,其特征在于,训练生成所述预设的优化深度可分卷积神经网络模型的步骤,具体包括:
获取多个训练样本图像的目标输出;
构建初始化的优化深度可分卷积神经网络模型;所述初始化的优化深度可分卷积神经网络模型包含若干层卷积层,且每一层所述卷积层包括预设比例的初始化特征提取卷积核和初始化降参卷积核;所述初始化特征提取卷积核的大小大于所述初始化降参卷积核的大小;每一层所述卷积层包括的初始化特征提取卷积核和初始化降参卷积核的排序不同;
根据所述多个训练样本图像的目标输出对所述优化深度可分卷积神经网络模型中的特征提取卷积核和初始化降参卷积核进行训练;
将训练完成后的优化深度可分卷积神经网络模型确定为所述预设的优化深度可分卷积神经网络模型。
5.根据权利要求4所述的一种卷积神经网络处理方法,其特征在于,所述根据所述多个训练样本图像的目标输出对所述优化深度可分卷积神经网络模型中的特征提取卷积核和初始化降参卷积核进行训练的步骤,具体包括:
基于所述优化深度可分卷积神经网络模型对所述训练样本图像进行处理,生成所述训练样本图像的响应输出;
确定所述训练样本图像的响应输出与所述训练样本图像的目标输出之间的差异;
判断所述差异是否满足预设的要求;
当判断所述差异不满足预设的要求时,基于梯度下降算法对所述优化深度可分卷积神经网络模型中的特征提取卷积核和初始化降参卷积核进行更新,并返回至所述基于所述优化深度可分卷积神经网络模型对所述训练样本图像进行处理的步骤;
当判断所述差距满足预设的要求时,将当前优化深度可分卷积神经网络模型确定为训练完成后的优化深度可分卷积神经网络模型。
6.根据权利要求1所述的一种卷积神经网络处理方法,其特征在于,所述特征提取卷积核选用尺寸大小为3X3的卷积核,所述降参卷积核选用尺寸大小为1X1的卷积核。
7.一种卷积神经网络处理装置,其特征在于,包括:
图像获取单元,用于获取待处理图像;
处理单元,用于基于预设的优化深度可分卷积神经网络模型对所述图像进行处理,生成所述待处理图像的特征输出;
其中,所述预设的优化深度可分卷积神经网络模型包含若干层卷积层,且每一层所述卷积层包括预设比例的特征提取卷积核和降参卷积核;所述特征提取卷积核的大小大于所述降参卷积核的大小;每一层所述卷积层包括的特征提取卷积核和降参卷积核的排序不同。
8.一种设备,其特征在于,包括存储器和处理器,所述存储器中存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如权利要求1~6任一权利要求所述的卷积神经网络处理方法的步骤。
9.一种可读存储介质,其特征在于,所述可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行如权利要求1~6任一权利要求所述的卷积神经网络处理方法的步骤。
10.一种卷积神经网络模型,其特征在于,运行于移动设备端,用于对图像进行特征提取处理,包括若干层卷积层,且每一层所述卷积层包括预设比例的特征提取卷积核和降参卷积核;所述特征提取卷积核的大小大于所述降参卷积核的大小;每一层所述卷积层包括的特征提取卷积核和降参卷积核的排序不同。
CN202010186435.5A 2020-03-17 2020-03-17 卷积神经网络处理方法、装置、设备、存储介质及模型 Pending CN111401524A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010186435.5A CN111401524A (zh) 2020-03-17 2020-03-17 卷积神经网络处理方法、装置、设备、存储介质及模型

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010186435.5A CN111401524A (zh) 2020-03-17 2020-03-17 卷积神经网络处理方法、装置、设备、存储介质及模型

Publications (1)

Publication Number Publication Date
CN111401524A true CN111401524A (zh) 2020-07-10

Family

ID=71430869

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010186435.5A Pending CN111401524A (zh) 2020-03-17 2020-03-17 卷积神经网络处理方法、装置、设备、存储介质及模型

Country Status (1)

Country Link
CN (1) CN111401524A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112132279A (zh) * 2020-09-23 2020-12-25 平安科技(深圳)有限公司 卷积神经网络模型压缩方法、装置、设备及存储介质
CN113239899A (zh) * 2021-06-17 2021-08-10 阿波罗智联(北京)科技有限公司 用于处理图像和生成卷积核的方法、路侧设备和云控平台
CN114239814A (zh) * 2022-02-25 2022-03-25 杭州研极微电子有限公司 用于图像处理的卷积神经网络模型的训练方法
WO2024020773A1 (zh) * 2022-07-26 2024-02-01 江苏树实科技有限公司 模型生成方法、图像分类方法、控制器以及电子设备

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112132279A (zh) * 2020-09-23 2020-12-25 平安科技(深圳)有限公司 卷积神经网络模型压缩方法、装置、设备及存储介质
CN112132279B (zh) * 2020-09-23 2023-09-15 平安科技(深圳)有限公司 卷积神经网络模型压缩方法、装置、设备及存储介质
CN113239899A (zh) * 2021-06-17 2021-08-10 阿波罗智联(北京)科技有限公司 用于处理图像和生成卷积核的方法、路侧设备和云控平台
CN114239814A (zh) * 2022-02-25 2022-03-25 杭州研极微电子有限公司 用于图像处理的卷积神经网络模型的训练方法
CN114239814B (zh) * 2022-02-25 2022-07-08 杭州研极微电子有限公司 用于图像处理的卷积神经网络模型的训练方法
WO2024020773A1 (zh) * 2022-07-26 2024-02-01 江苏树实科技有限公司 模型生成方法、图像分类方法、控制器以及电子设备

Similar Documents

Publication Publication Date Title
CN111401524A (zh) 卷积神经网络处理方法、装置、设备、存储介质及模型
US11609968B2 (en) Image recognition method, apparatus, electronic device and storage medium
CN108229531B (zh) 对象特征提取方法、装置、存储介质和电子设备
CN109522902B (zh) 空-时特征表示的提取
US20230196837A1 (en) Action recognition method and apparatus, and device and storage medium
CN110427852B (zh) 文字识别方法、装置、计算机设备和存储介质
CN108399052B (zh) 图片压缩方法、装置、计算机设备和存储介质
CN108765425B (zh) 图像分割方法、装置、计算机设备和存储介质
JP2015513754A (ja) 顔認識方法及びデバイス
CN110765860A (zh) 摔倒判定方法、装置、计算机设备及存储介质
CN110163057B (zh) 目标检测方法、装置、设备和计算机可读介质
CN113657397B (zh) 循环生成网络模型的训练方法、建立字库的方法和装置
CN110046577B (zh) 行人属性预测方法、装置、计算机设备和存储介质
CN113869282B (zh) 人脸识别方法、超分模型训练方法及相关设备
CN112183295A (zh) 行人重识别方法、装置、计算机设备及存储介质
CN111797834B (zh) 文本识别方法、装置、计算机设备和存储介质
US10769784B2 (en) Image analyzing method and electrical device
CN113034358A (zh) 一种超分辨率图像处理方法以及相关装置
CN111709415B (zh) 目标检测方法、装置、计算机设备和存储介质
CN111179270A (zh) 基于注意力机制的图像共分割方法和装置
CN108921017B (zh) 人脸检测方法及系统
CN110298163B (zh) 一种图像验证方法、装置及计算机可读存储介质
CN111797971A (zh) 应用卷积神经网络进行数据处理的方法、装置和电子系统
CN110889432A (zh) 特征点匹配方法、装置、计算机设备和存储介质
CN111754518B (zh) 图像集合的扩充方法、装置及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20200710