CN107341518A - 一种基于卷积神经网络的图像分类方法 - Google Patents

一种基于卷积神经网络的图像分类方法 Download PDF

Info

Publication number
CN107341518A
CN107341518A CN201710553052.5A CN201710553052A CN107341518A CN 107341518 A CN107341518 A CN 107341518A CN 201710553052 A CN201710553052 A CN 201710553052A CN 107341518 A CN107341518 A CN 107341518A
Authority
CN
China
Prior art keywords
layer
neural networks
convolutional neural
convolutional
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710553052.5A
Other languages
English (en)
Inventor
王蕾
何月顺
王坤
蒋年德
钟国韵
蔡友林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
East China Institute of Technology
Original Assignee
East China Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by East China Institute of Technology filed Critical East China Institute of Technology
Priority to CN201710553052.5A priority Critical patent/CN107341518A/zh
Publication of CN107341518A publication Critical patent/CN107341518A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Abstract

本发明公开了一种基于卷积神经网络的图像分类方法,所述方法包括如下步骤:深层卷积神经网络的构建,深层卷积神经网络的改进,深层卷积神经网络的训练及测试,优化网络参数。本发明的图像分类方法围绕卷积神经网络的网络结构和多参数分别进行了改进和优化,能够有效地提高深层卷积神经网络模型的识别率,提高图像分类的准确性。

Description

一种基于卷积神经网络的图像分类方法
技术领域
本发明涉及图像分类方法技术领域,特别涉及一种基于卷积神经网络的图像分类方法。
背景技术
近几年以来,随着科学计算机网络及人工智能领域的发展,图形图像数据量逐渐增多,于是,如何从大量的自然图像中快速提取到视觉特征已经成了机器智能学习中的热点研究课题,进而对自然图像的分类必然成为获取自然图像信息的研究重点。
卷积神经网络是深度学习在图像处理方面的一个重要应用,它相比于其它机器学习算法如SVM等,其优点是能够直接对图像像素进行卷积并提取特征,也能够利用海量的图像数据将网络参数训练充分,以达到更好的分类效果。一般浅层卷积神经网络的层数是小于或等于5层,通过研究发现浅层卷积神经网络的结构相对比较简单而且清晰,它对简单图像数据有着比较好的分类正确率,然而其对较为复杂的图像数据如cifar-10、cifar-100等的分类效果并不是那么理想。
发明内容
本发明的主要目的在于提供一种基于卷积神经网络的图像分类方法,旨在解决现有技术对复杂的图像数据的分类效果不理想的问题。
为实现上述目的,本发明采取的技术方案为:
一种基于卷积神经网络的图像分类方法,所述方法包括如下步骤:深层卷积神经网络的构建,深层卷积神经网络的改进,深层卷积神经网络的训练及测试,优化网络参数;
深层卷积神经网络框架的构建:在ImageNet-2010网络基础上,通过逐层分析网络层的方法设计了一个具有九层网络的深层卷积神经网络,其包括图像输入层、conv1卷积层、conv2卷积层、conv3卷积层、conv4卷积层、conv5卷积层、fc6全链接层、fc7全链接层和输出分类层;
深层卷积神经网络的改进:由随机下采样方法、下采样区域有重叠的采样方式的方法、全链接层使用逐层训练的方法、maxout激活函数的方法四个方面对深层卷积神经网络进行改进;
深层卷积神经网络的训练及测试:深层卷积神经网络的训练流程有前向与反向传播两个步骤,利用逐层训练的方法进行深层卷积神经网络的训练;
优化网络参数:通过对batch、dropout、momentum动量相关网络参数进行优化,以减轻训练网络时出现的过拟合现象。
进一步的,在深层卷积神经网络的构建时,其中对conv1卷积层的设计方法如下:输入原始图像进行卷积处理,经过卷积处理之后得到了一个特征图,再通过maxout激活函数得到特征映射图;其次,再通过池化降采样处理,该池化处理为最大池化处理方法,设置池化层卷积核的大小及滑动步长,经过降采样处理后,输出特征映射图;最后,在输入到conv2卷积层之前做一个Batch Normalization即BN预处理;
其中对conv2卷积层的设计方法如下:以conv1的输出作为conv2的输入,首先经过卷积处理,所以为了防止特征图过快的变小,本层的卷积层增加边缘补偿处理,经过卷积处理之后得到特征图,然后同样采用maxout激活函数得到特征映射图;其次,同样的采用最大池化处理方法,设置池化层卷积核的大小及滑动步长,输出特征映射图;最后,在输入到conv3卷积层之前做BN处理,输出特征图;
其中对conv3卷积层的设计方法如下:将conv2的输出输入到conv3中,首先经过卷积处理,本层的卷积层增加边缘补偿处理,经过卷积处理之后得到了一个特征图,最后,同样采用maxout激活函数得到特征映射图,再将激活函数处理后的输出直接输入到了下一个卷积层;
其中对conv4卷积层的设计方法如下:将conv3的输出输入到conv4中,首先经过卷积处理,本层的卷积层增加边缘补偿处理,经过卷积处理之后得到了一个特征图,最后,同样采用maxout激活函数得到特征映射图,再将激活函数处理后的输出直接输入到了下一个卷积层;
其中对conv4卷积层的设计方法如下:将conv4的输出输入到conv5中,首先经过卷积处理,本层的卷积层增加边缘补偿处理,经过卷积处理之后得到了一个特征图,然后,同样采用maxout激活函数得到特征映射图;最后,采用最大池化处理方法,设置池化层卷积核的大小及滑动步长,输出特征映射图,本层不进行BN预处理;
其中对fc6全链接层的设计方法如下:将conv5的输出输入到fc6全链接层中,输入特征图,设置fc6全链接层的神经元数,然后,采用maxout激活函数,输出神经数,最后,采用dropout处理方式进行输出;
其中对fc7全链接层的设计方法如下:将fc6的输出输入到fc7全链接层中,该层结构与fc6基本相同,首先,设置fc6全链接层的神经元数,然后采用maxout激活函数,输出神经数,最后,同样采用dropout处理方式进行输出;
其中对输出分类层的设计方法如下:本层分类器选用softmax分类器,根据训练样本的不同来确定神经节点的个数,对于cifar-10图像数据库来说,其节点数设置为10,对于cifar-100图像数据库来说,其神经节点数要设置为100。
进一步的,在深层卷积神经网络的改进时,从四个方面对深层卷积神经网络作出改进,分别是随机下采样方法、下采样区域有重叠的采样方式的方法、全链接层使用逐层训练的方法、maxout激活函数的方法;
(1)采用随机下采样方法
首先,对图像区域里的元素值进行求和,然后把区域里的每个元素与总和相除以便得出采样区域所对应的概率,接着根据采样区域概率值用0-1分布式采样进行采样并获得采样结果;
(2)采用下采样区域有重叠的采样方式的方法
在tensorflow里把相应cifar文件中的layer类型配置里面的参数pool:Stochastic改为pool:MAX就可以实现随机下采样的方式。
(3)采用全连接层使用逐层训练的方法
tensorflow会支持自动编码网络,在全链接层可使用自动编码网络的训练方式进行改进。
(4)采用maxout激活函数的方法
使用maxout激活函数来代替ImageNet-2010所采用的relu函数,其数学表达式如下:
hi(x)=maX(zij),j∈[1,k]
zij=xTWij+bij,W∈Rd×m×k
表达式中的d表示输入层的节点个数,k为每一个隐含层节点所对应的k个“隐隐含层”节点,m代表隐含层的节点个数。
进一步的,在进行深层卷积神经网络的训练及测试时,训练阶段的算法流程如下:
输入:训练集
误差阈值ε
最大迭代次数num
输出:网络权重
步骤:
初始化:网络权重:W←N(0,1),偏置值:b←const
Step 1 Do
Step 2 从训练集中随机选择一个Batch,输入到卷积神经网络中;
Step 3 训练样本前向传播,进行conv卷积计算;
Step 4 进行Max pooling特征提取运算;
Step 5 进行Batch Normalization归一化运算;
Step 6 输入到下一个卷积层,直至输入到全连接层
Step 7 全连接层提取特征,输入到softmax函数进行分类,选取输出概率最大的作为分类结果。
Step 8 if分类误差小于误差阈值or训练次数==最大迭代次数num
Step 9 brea;
Step10 els
Step11 计算误差,进行误差反向传播
Step12 网络参数更新;
Step13 Until所有的Batch都训练完毕;
其测试阶段的算法流程如下:
输入:测试集
输出:分类结果
步骤:
初始化:网络权重:W,b←训练好的网络值
Step 1 Do
Step 2 测试样本前向传播,进行conv卷积计算;
Step 3 进行Max pooling特征提取运算;
Step 4 进行Batch Normalization归一化运算;
Step 5 输入到下一个卷积层,直至输入到全连接层
Step6 全连接层提取特征,输入到softmax函数进行分类,选取输出概率最大的作为分类结果。
Step7 判断比较标签与分类结果,并统计分类结果;
Step8 Until所有的Batch全部都测试完毕。
进一步的,优化网络参数包括
可视化特征的提取,输入图像历经卷积神经网络卷积层conv1的处理之后,得到输出特征映射,通过输入图像历经卷积神经网络卷积层conv1的处理之后,得到输出特征映射,通过卷积层conv1之后得到可视化图像,卷积层conv1所学习的大量信息体现在输入图形的边缘轮廓信息上;如要展示卷积层conv2的可视化结果,需要把它的高维卷积核拆成低维的卷积核,再进行可视化处理;
还包括,
设定batch的值,采取不同的batch小数据集进行训练,在经历多次试验后可以得到batch的范围,如要停止训练,要当损失函数的值低于预定的阈值,测试五次后取平均值最大程度避免偶然事件突发;
还包括,
dropout的设计,深度学习网络在每次batch样本输入时,权重必须进行保留,对于一个含有N个节点的深层卷积神经网络,当加入dropout处理之后,该网络就可以看成是2n个模型的组合了,深层卷积神经网络加入dropout后,其训练层面和测试层面应做出相应的改进;
还包括,
数据集扩增,为训练出更好的网络模型,需要充足的训练数据并采用更深层的网络,对于扩充数据集,既简单又有效的方法就是对原始数据进行扩充,通过对原始数据进行改动,可以得到更多的数据。对于图片数据而言,扩充其数据最简单的方法就是调整图片的角度。
本发明具有如下有益效果:
本发明提供了一种基于卷积神经网络的图像分类方法,该方法围绕卷积神经网络的网络结构和多参数分别进行了改进和优化,能够有效地提高深层卷积神经网络模型的识别率,提高图像分类的准确性。
附图说明
图1为本发明实施例所构建的深层卷积神经网络结构图;
图2为conv1卷积层流程设计图;
图3为conv2卷积层的流程设计图;
图4为conv3卷积层流程设计图;
图5为conv4卷积层流程设计图;
图6为conv5卷积层流程设计图;
图7为fc6全链接层流程设计图;
图8为fc7全链接层流程设计图;
图9为输出分类层流程设计图;
图10为3×3大小采样区域图;
图11为采样区域对应元素概率图;
图12为随机采样结果图;
图13为网络过拟合现象图;
图14为输入的原始图像;
图15是由conv1卷积层输出之后的特征映射图;
图16为conv1可视化结果图;
图17为conv2卷积权值的可视化结果图;
图18为conv2的输出特征映射结果图;
图19为conv3输出特征映射结果图;
图20为conv4输出特征映射结果图;
图21为conv5的输出特征映射结果图;
图22为经过pool5池化后的输出特征映射结果图;
图23为fc6全链接层输出结果展示图;
图24为fc6全链接层的输出值直方图结果展示图;
图25为经过fc7全链接层后输出结果展示图;
图26为fc7全链接层的输出值直方图结果展示图;
图27为深层卷积神经网络输出层结果展示图;
图28Dropout过程图;
图29为神经单元加入概率过程图;
图30为测试加入概率p的过程图。
具体实施方式
为使本发明实现的技术手段、创作特征、达成目的与功能易于明白了解,下面结合具体实施方式,进一步阐述本发明。
本发明实施例提供了一种基于卷积神经网络的图像分类方法,包括如下步骤:深层卷积神经网络的构建,深层卷积神经网络的改进,深层卷积神经网络的训练及测试,优化网络参数;
1.深层卷积神经网络的构建:在ImageNet-2010网络基础上,通过逐层分析网络层的方法设计了一个具有九层网络的深层卷积神经网络,如图1所示,其包括图像输入层、conv1卷积层、conv2卷积层、conv3卷积层、conv4卷积层、conv5卷积层、fc6全链接层、fc7全链接层和输出分类层;
从图1可以清晰的看出该深层卷积神经网络的模型结构,其网络参数如下表1所示:
表1网络模型参数
1.1 conv1卷积层设计
conv1卷积层的流程设计如图2所示。首先,输入原始图像进行卷积处理,其中该图像的大小为36像素*36像素的三通道彩色图,该层的卷积核大小是3*3,卷积核有64个且将卷积核的滑动步长设置为1,经过以上参数的卷积处理之后得到了一个大小为34像素*34像素的特征图,由36-3+1=34得到,且其维数为64。然后,再通过maxout激活函数[34][51]得到的特征映射图的大小仍然是34*34,维数是64,maxout激活函数是一种分段的线性函数,它反应的是整体的而不是单一的输入与输出的非线性映关系,其能有效的增强网络的表达能力。其次,再通过池化降采样处理,该池化处理为最大池化处理方法,池化层卷积核的大小设置为2*2,滑动步长设置为2,经过降采样处理后,其输出的特征映射图的大小为17像素*17像素,且维数为64。最后,在输入到conv2卷积层之前做一个Batch Normalization即BN预处理。BN预处理不仅能够有效的解决训练过程中,层与层之间的数据分布发生改变的问题,而且它能随机化样本数据,有效的避免了每批训练时某一个样本总是被选到的概率。
1.2conv2卷积层设计
conv2卷积层的流程设计如图3所示。conv1的输出就是conv2的输入。首先,也是经过卷积处理。此层的卷积核数为128个,卷积核大小也是3*3,由于本文设计的网络结构为深层卷积神经网络,卷积层比较多,所以为了防止特征图过快的变小[35],本层的卷积层增加了边缘补偿处理,补偿值为2个像素。经过以上参数的卷积处理之后得到了一个大小为19像素*19像素的特征图,其维数为128。然后,同样采用maxout激活函数得到的特征映射图的大小是19*19,维数是128。其次,同样的采用最大池化处理方法,池化层卷积核的大小设置为3*3,滑动步长设置为2,其输出的特征映射图的大小为9像素*9像素,且维数为128。最后,在输入到conv3卷积层之前做BN处理,输出的特征图大小为9像素*9像素,维数为128。
1.3 conv3卷积层设计
conv3卷积层的流程设计如图4所示。将conv2的输出输入到conv3中。首先,也是经过卷积处理。此层的卷积核数为256个,卷积核大小也是3*3,其中该层的卷积核数是conv2层卷积核数的两倍,与conv2相同,本层也加了边缘像素补偿,其补偿大小设定为1像素,经过以上参数的卷积处理之后得到了一个大小为9像素*9像素的特征图,其维数为256。可以看出其特征图大小基本保持了不变,然而特征向量增多了,也就是说得到了更多的图像信息[36]。最后,同样采用maxout激活函数得到的特征映射图的大小是9*9,维数是256。由于要最大程度的保留图像的边缘特征,所以本层没有进行采样处理,将激活函数处理后的输出直接输入到了下一个卷积层。
1.4 conv4设计
conv4卷积层的流程设计如图5所示。将conv3的输出输入到conv4中。首先,也是经过卷积处理。此层的卷积核数与conv3相同也为256个,卷积核大小也是3*3,补偿大小也设定为1像素,同样地,经过以上参数的卷积处理之后得到了一个大小为9像素*9像素的特征图,其维数为256。最后,同样采用maxout激活函数得到的特征映射图的大小是9*9,维数是256。该层设计的处理方式与参数基本与conv3相同。
1.5 conv5设计
conv5卷积层的流程设计如图6所示。conv4的输出就是conv5的输入。首先,也是经过卷积处理。此层的卷积核数为128个,卷积核大小也是3*3,该层也增加了边缘补偿处理[37],补偿值为个像素。经过以上参数的卷积处理之后得到了一个大小为9像素*9像素的特征图,其维数为128。然后,同样采用maxout激活函数得到的特征映射图的大小是9*9,维数是128。最后,采用最大池化处理方法,池化层卷积核的大小设置为3*3,滑动步长设置为2,其输出的特征映射图的大小为4像素*4像素,且维数为128。本层没有进行BN预处理。
1.6 fc6全链接层设计
fc6的流程设计如图7所示。conv5的输出就是fc6全链接层的输入,输入特征图的大小为4像素*4像素,维数为128。首先,设置fc6全链接层的神经元数为4096,然后,采用maxout激活函数,输出神经数为4096,最后,采用dropout处理方式,这种处理方式的好处在于既能够有效的防止过拟合,也能够大大降低训练时间。
1.7 fc7全链接层设计
fc7的流程设计如图8所示。fc6的输出就是fc7全链接层的输入,该层结构与fc6基本相同。首先,设置fc6全链接层的神经元数为4096,然后,采用maxout激活函数,输出神经数为4096,最后,同样采用dropout处理方式。
1.8输出分类层设计
输出分类层流程设计如图9所示。本层分类器选用的是softmax分类器,根据训练样本的不同来却确定神经节点的个数。对于cifar-10图像数据库来说,其节点数设置为10,对于cifar-100图像数据库来说,其神经节点数要设置为100。
2卷积层及全链接层的改进
由四个方面对深层卷积神经网络做出改进,分别是随机下采样、下采样区域有重叠的采样方式、全链接层使用逐层训练的方法、maxout激活函数。
(1)采用随机下采样方法
如图10所示,这是大小是3×3的图像区域,基于此来简要解释采样的工作原理。首先,先对此区域里的元素值进行求和可以得到sum=0+1.1+0+1.0+2.0+0.9+2.5+1.0+1.5=10,然后把区域里的每个元素与总和相除以便得出采样区域所对应的概率,接着根据采样区域概率值用0-1分布式采样进行采样并获得采样结果。从图12可以看出所得到的值为2.5。由随机采样这种采样方式可以知道,概率区域如果越大,被采样的概率也就越大。
ImageNet-2010是采用最大值下采样方式进行。而本节所设计的深度卷积神经网络就采取随机下采样,然后对特征映射中的元素根据它的概率值的大小进行随机选择,如果值越大,该元素被选中的概率也就越大。随机下采样的方式相对于ImageNet-2010的最大值下采样,会更加符合生物神经元的处理方式,避免了最大值百分之百被选中,只不过是被选中的概率会更大一些。
(2)采用下采样区域有重叠的采样方式的方法
有重叠采样方式的采纳,可以更进一步地加强随机下采样中值较大的元素可以被选中的概率会更大。在tensorflow里把相应cifar文件中的layer类型配置里面的参数pool:Stochastic改为pool:MAX就可以实现随机下采样的方式。
(3)采用全连接层使用逐层训练的方法
卷积神经网络初始化常常会要求初始化的数据会服从某一类分布,这样能避免网络对称性的发生,然而这种类型的初始化方式会使得网络参数的初始化起点处于不确定性。逐层训练方法会克服概率不确定性的缺点,这样会使得网络初始化参数处于一个确定性高的起点。tensorflow会支持自动编码网络,所以全链接层可以使用自动编码网络的训练方式。
(4)采用maxout激活函数的方法
sigmoid函数或者tanh函数是传统的卷积神经网络所采用的神经元激活函数。我们使用maxout激活函数来代替ImageNet-2010所采用的relu函数,其数学表达式如下:
hi(x)=max(zij),j∈[1,k] (1)
zij=xTWij+bij,W∈Rd×m×k (2)
表达式中的d表示输入层的节点个数,k为每一个隐含层节点所对应的k个“隐隐含层”节点,m代表隐含层的节点个数。maxout激活函数是让这k个“隐隐含层”节点中输出值最大的那个值为每个隐含节点的值。利用maxout函数强大的拟合能力,会拟合出我们所需要的任意凸函数。
maxout函数与relu函数的实现原理十分类似,可以弥补目前版本tensorflow没有实现maxout函数的缺陷。先把cifar文件中relu层名称和类型更换为maxout的名称和类型。再把在tensorflow源代码\src\cifar-tensorflow\layers目录下的relu_layer.py重新命名为maxout_layer.py,并把文件里面的内容做出对应修改。
3深层卷积神经网络的训练及测试算法
深层卷积神经网络的训练流程有前向与反向传播两个步骤。全链接层卷积神经网络有别于传统的卷积神经网络是它利用逐层训练的方法。
训练阶段的算法流程如下所示:
输入:训练集
误差阈值ε
最大迭代次数num
输出:网络权重
步骤:
初始化:网络权重:W←N(0,1),偏置值:b←const
Step 1. Do
Step 2 从训练集中随机选择一个Batch,输入到卷积神经网络中;
Step 3 训练样本前向传播,进行conv卷积计算;
Step 4 进行Max pooling特征提取运算;
Step 5 进行Batch Normalization归一化运算;
Step 6 输入到下一个卷积层,直至输入到全连接层
Step 7 全连接层提取特征,输入到softmax函数进行分类,选取输出概率最大的
作为分类结果。
Step 8 if分类误差小于误差阈值or训练次数==最大迭代次数num
Step 9 break;
Step 10 els;
Step 11 计算误差,进行误差反向传播;
Step 12 网络参数更新;
Step 13 Until所有的Batch都训练完毕
其测试阶段的算法流程如下:
输入:测试集
输出:分类结果
步骤:
初始化:网络权重:W,b←训练好的网络值
Step 1 Do
Step 2 测试样本前向传播,进行conv卷积计算;
Step 3 进行Max pooling特征提取运算;
Step 4 进行Batch Normalization归一化运算;
Step 5 输入到下一个卷积层,直至输入到全连接层;
Step6 全连接层提取特征,输入到softmax函数进行分类,选取输出概率最大的作为分类结果。
Step7 判断比较标签与分类结果,并统计分类结果;
Step8 Until所有的Batch全部都测试完毕。
4优化网络参数
如果遇到训练样本数量较少、神经网络的模型还复杂的情况,在训练网络时可能会出现过拟合现象。此时网络过度拟合训练集,却对训练集以外的数据不能很好地拟合。表现为随着训练迭代次数的不断增多,分类网络在训练集上的测试分类错误逐渐减小,然而测试集上的测试分类错误逐渐增大。网络过拟合现象可由图13描述。
实际深度网络的过拟合的现象都普遍存在。所以研究减轻训练网络时出现过拟合现象十分必要,也是提高调试网络性能非常重要的步骤。
4.1特征可视化
提取出特征的好坏会直接影响后续图像分类的准确性,所以这是数字图像处理研究中的重点。为了使网络能自动提取有利于分类任务的特征,卷积神经网络把与图像通过卷积之后所提取到的特征进行前向传播,并且把网络输出值与数据标签的差值通过反向传播,然后调整网络参数。前面已经提到卷积神经网络本身具有的黑盒子性质,这会增加优化网络参数的难度。但是倘若可以把卷积神经网络在各个网络层中学习到的特征以图像形式展现出来],这会在帮助参与人员更方便快捷地优化网络参数。所以之后在本发明设计的深层卷积神经网络的基础之上,将卷积神经网络学习到的信息用可视化的图像表示出来,然后根据此结果分析规律并进行总结。输入的原始图像如图14所示。
输入图像历经卷积神经网络卷积层conv1的处理之后,得到图15所示的输出特征映射。通过卷积层conv1之后的可视化图像如图16所展示,可以清楚看到卷积层conv1所学习的大量信息体现在输入图形的边缘轮廓信息上。从图15可以看出,每个小图像块都是输入图像猫的轮廓,是从视觉的不同角度来观察的。像图中所示的第一和二列从左侧观察输入图像的概率较高,三和四列从正前方观察的概率较高,五和六列从右侧观察的概率较高。通过这些结论,可以预测到,如果经过大量训练,图中所示猫的边缘轮廓信息会被卷积层conv1的卷积核所学习。通过图16更进一步说明图像边缘提取理论适用于底层卷积层的学习方式。也就是说,基于输入图像的轮廓边缘信息的提取原理,不同方向的边缘轮廓信息可由不同角度的卷积算子提取。垂直方向的轮廓信息可被垂直梯度算子所提取,水平方向也是如此。既然已经知道卷积层conv1的卷积核会主要学习图像物体边缘信息,那么在设计卷积层conv1时要注意:
(1)丰富卷积核的数量。因为相邻输入图像的观察角度只有细微差异,而距离远一些的观察角度则差异性提高。卷积核数量代表从不同角度去看物体,进一步表示,卷积核数量越多,所提取的特征信息也会随之增加,十分有助于分类结果。
(2)卷积核的数量不是越多越好。如果数量超越上限,会产生冗余,此时不同的卷积核可能会提取同一个角度上的特征信息。而且卷积核数量与深度网络的训练速度是一对矛盾需要合理设计。
高维的卷积核不能直接可视化,如果要展示卷积层conv2的可视化结果,需要把它的高维卷积核拆成低维的卷积核,再进行可视化处理。图17就表示的是卷积层conv2学到的卷积权值。图的每一行从外形、角度等方面都很接近,而且十分像波纹线条。当观察不同的行,会发现图像相差较大。每个高维卷积核的低维子卷积核所学习的信息十分相似,同时不同高维卷积核之间的不同大于卷积核内部子卷积核间的不同。
经conv2层的卷积处理后输出的特征映射被展示在图18中。可以明显看出大部分的图像都是输入图像猫的轮廓,而且相比于conv1层输出的特征映射可能经过图像增强处理过程。综上,高维卷积层除有提取输入数据特征的能力,还兼备一定的过滤噪声的能力和增强特征信息的本领。所以不难得出增加一些卷积层的数目可以提高所提取的特征信息质量。
图19和图20分别为经由conv3和conv4进行卷积操作之后输出的特征映射结果。很明显地,conv3卷积操作之后的输出特征映射中每一个小图片亮点数多且位置零散,而conv4卷积操作之后的输出特征映射中每一个小图片亮点数少但位置集中,输入图像的主要特征信息得到增强。
conv5经过卷积操作之后输出的特征映射结果展示在图21中。可以与conv4卷积层的输出特征映射结果相互比较不难发现,每一个小图片亮度再次增强,说明主要特征信息得到增强,噪声得到抑制。
经过pool5池化层后的输出特征映射结果被显示在图22中,conv5经过卷积操作之后主要特征信息被保留,再经过对特征映射进行下采样,可以看出输出特征映射的像素数目变得更少,所需训练的参数也随之减小,训练率大大提高。
图23和图24分别表示fc6全链接层神经节点输出值和全链接层神经节点输出值为正的梯度直方图。从这两个图中可以看出输出特征比较稀疏,因为经过fc6全链接层后输出值都集中在零附近的部分。
图25和图26分别表示经过fc7全链接层后的输出值和输出值直方图。比较图23和24可得,fc7全链接层神经节点的输出值更加聚集在零值附近,也就是说fc7全链接层只有少部分神经元被激活,而大部分的神经节点被抑制。结合上述的可视化图像可知在卷积神经网络中网络层越高,它的输出特征向量越稀疏。
深层卷积神经网络输出层的结果展示在图27,卷积神经网络的输出层能依据输出值中的最大神经节点序号来判断和预测输入图像的标签值。其次,用所得到的标签值与输入图像的标签值做匹配处理,若相等则证明正确,不等则错误。从图中可以看出当在第四个神经节点时,卷积神经网络的输出值是最大的,而在其余的部分输入值近乎于零。本文输入图像是标签号为3的猫,图像标签号的范围是0-9,输入图像在节点中处于第四,也就是说输入图像的标签值等于输出值,因而网络能正确分类。
4.2设定batch的值
一般通常依据损失函数的下限值或者最大的迭代次数来决定在何时对网络进行停止训练。在传统的网络训练中,采用随机顺序把每次迭代后的训练样本分为若干大小一样的batch小数据集,再按顺序输入网络开始训练,当所有的小数据集都训练完毕,开始下一个轮回的迭代。但本文采取不同的batch小数据集进行训练,在经历多次试验后可以得到batch的范围。如果想要停止训练,必须要当损失函数的值低于预定的阈值。测试五次后取平均值最大程度避免偶然事件突发。
表2采用不同batch值时图像分类网络的性能对比
当batch的值不同,卷积神经网络的测试错误率被列在表2中。可以看出,当的batch的值从50变化到100,cifar-10和cifar-100的值急剧下降,也就是测试错误率降低。当batch的值从100增加到200,cifar-10和cifar-100的值也有所下降,但是幅度没有batch的值从50变化到100的大。当batch的值从200增加到300,cifar-10和cifar-100的值也有所下降但下降幅度更小。甚至当batch的值batch的值,cifar-10和cifar-100的值几乎就没有变化。从表中可以看出batch值越小,损失函数波动的范围就越大,同时卷积神经网络损失函数收敛的下降速度会越来越快,但网络的分类错误会升高,则证明网络没有全面优化。
训练样本若采用batch的采样方式有两个优势:一是将多个训练样本结合成一个batch小数据集再进行训练,可以有效地抑制训练样本的噪声。二是可以充分利用计算机的资源,在现在所具有的高性能CPU处理速度下,批处理的训练速度可以远大于串行处理速度,进而提升了训练网络的效率。但值得注意的是,batch值有一个上界,随着值的增大,训练样本的噪声抑制能力并不会再提高,此时还会导致占用计算机更多的内存空间,训练网络的效率不升反降。4.3dropout的设计
通常情况训练样本较少时,会产生模型的过拟合现象,此时我们在训练模型时候,可以采用dropout方法,这是一种类似于ensemble相互结合的方法。
一般大规模的神经网络都会有两个致命的弱点:第一种就是耗时,第二种就是容易过拟合。一个过拟合的深度学习模型,基本上就没多大用途了,而为了解决过拟合的问题,人们一般都会采用ensemble组合方法[54],即训练多个深度模型来进行组合,这种方式虽然在一定程度上解决了过拟合问题,在时间成为了其新的又一大问题,不仅在训练上耗费了很多时间,而且测试上有会耗费大量的时间。总之,在大规模的深度网络学习模型上,此种方法是行不通的。
借鉴于ensemble组合方法的出现,我们可以在一个模型上进行拆分,让模型“瘦”下来。如图28所示:
Dropout过程的原理是:深度学习网络在每次batch样本输入时,会随机地会让一些隐含层节点暂时丧失作用,忽略它们的权重,但是这些权重必须进行保留,网络只是暂时忽略它们是结构的一个部分。因为下一次的batch样本输入时,那些在上一次不起作用的节点在这一次可能就随机起作用了。由图28可以看出,对于一个含有N个节点的深层卷积神经网络,当加入dropout处理之后,该网络就可以看成是2n个模型的组合了,由于此时网络的训练参数数目是不变的,所以这就很好的解决了耗时的问题。
深层卷积神经网络加入dropout后,其训练层面和测试层面就应做出相应的改进。下面就这两个层面分别做出介绍:
(1)训练层面
由于是随机的忽略隐含层的节点,所以无可避免地要在训练网络的每个神经单元加入一道概率流程。如图29所示:
左图为标准神经单元图,也就是没加入dropout的神经网络单元图,其对应公式如下:
右图为加入了dropout的神经网络单元图,其对应公式如下:
(2)测试层面
在预测试部分,将每一个神经单元的参数都要乘以概率P如图30所示:
本优化设计中的dropout的节点比例为50%,从理论上来讲其效果是最好的,最直观的解释就是比率为0.5时dropout随机生成的网络结构是最多的。那是因为在对每次的输入网络的样本做权值更新的时候,不能完全肯定每2个隐含节点都会同时出现,因为它们是以确定概率随机出现。这种更新方式会避免一些特征只能在它的特定特征下才有效果,使之不会依赖于有固定关系的隐含节点的共同作用。此外,dropout也是模型平均的一个类型,虽然每次输入的batch样本会对应不同的网络结构,不同的样本会对应不同的模型,但隐含节点的权值可以被它们共享。如表3所示,当增加了dropout之后,cifar-10和cifar-100会分别下降0.14%和0.42%,也就是分类错误率会降低。
表3增加dropout前后图像分类效果对比
4.4 momentum动量值的设置
通常情况下在神经网络的训练中需要将损失函数降到最低,也就是最小化损失函数,一般情况下采用梯度下降算法来为最小损失函数增加相关的优化操作,现在基本上也都是采用随机梯度下降法SGD(stochastic gradient descent),其实,它是梯度下降方法与batch处理的结合,该方法的原理就是把一个训练数据集分配成n个包含m个样本的batch小数据集。在每次训练的时候不是训练整个训练集,而是一个batch的数据集。随机梯度下降法SGD的优势体现在当有很多训练数据的时候,可以减轻机器压力并且整个数据集更新可以更快地收敛且不在时间上显示。并且,当类似的样本多次出现时,其收敛的更快。
尽管SGD方法较梯度下降法有上述优势,然而,更新方向会完全依赖当下的batch数据集,导致更新的不稳定性大。本论文解决这一问的方法就是引入momentum]。Momentum可以模拟物体运动时候产生的惯性,也就是动量,换句话说就是在每次更新时,利用当前的batch的梯度在之前的方向上做微调来确定最终的更新方向。因此可以使网络学习速度加快并保证稳定性,拜托局部最优的状况,也就说为全局最优增加了可能性。Momentum动量值表示的是在多大程度上保留原来的更新方向,这个值在0到1之间。表4测试统计了不同momentum值所对应的不同分类错误率。通过实验对比发现,在开始训练时,由于梯度可能会很大,所以momentum初始值一般选0.5,当梯度小时,momentum改为0.9时,网络参数得到了很好的优化,图像分类错误率也最小。
表4深层卷积神经网络使用不同momentum值的性能对比
4.5数据集扩增
在大数据时代的今天,有的时候并不是说有了好的学习算法就能训练出好的神经网络模型,更多的时候还是因为更多的海量数据,特别是在深度学习方法中,为了训练出更好的网络模型,就需要充足的训练数据并采用更深层的网络。于是,获得更多的数据就显得尤为重要了,但是,如果人为的收集更多的数据就意味着需要耗费更多的人力和物力。从人工标注就可以看出这个工作的效率是极其低下的。
对于扩充数据集,既简单又有效的方法就是对原始数据进行扩充,通过对原始数据进行改动,可以得到更多的数据。对于图片数据而言,扩充其数据最简单的方法就是调整图片的角度,本论文为扩充数据集所做的工作就是将图片镜像顺时针旋转45度,用实验来说明训练数据集的数量对图像分类网络性能的影响。表5记录了深层卷积神经网络对扩充了的cifar-10和cifar-100数据集的分类测试结果。从表5可以看出,用扩展了的cifar-10和cifar-100数据集训练深层卷积神经网络,其分类错误率分别下降了0.11%和0.32%,说明了该方法能够改善深层卷积神经网络。
表5数据集的数量对图像分类效果的对比
5实验结果与分析
本论文结合上述五种优化网络参数的方法,通过调试各方法的参数,使用不同的数据集来对深层卷积神经网络进行训练测试,并与其它网络算法模型进行图像分类性能对比分析。
5.1数据库cifar-10实验结果及分析
Cifar-10是由Hinton的两个学生Alex Krizhevsky和IIya Sutskever收集的一个用于普适物体识别的数据库,该数据库包含10类图像,共有60000张32*32的彩色图像,其中有50000张训练图像和10000张测试图像。数据库分为5个训练块和1个测试块,每个块包含10000张图像,其测试块的10000张图像都是随机地从每类中选择1000张图像,其每个训练块的10000张图像也是随机地从每类中选择图像,但并不是均等的选择,一些训练块中可能出现某一类图像比另一类图像多的情况。同已经成熟的人脸识别相比[60],cifar-10这种普适物体识别更具有挑战性,因为其数据中含有大量的特征、噪声以及识别物体的物理特征比例不一,所以该数据库较适合深度复杂的神经网络模型的学习。
表6 cifar-10在不同网络上的分类错误率
表6为本论文设计的深层卷积神经网络、几种传统浅层卷积神经网络以及目前性能较好的复杂神经网络ImageNet-2010分别在cifar-10数据库上的测试结果。本论文设计的深层卷积神经网络在训练时间34min内,cifar-10上的实验测试错误率为14.75%,低于表格中那几种浅层的卷积神经网络的错误率。也就是说深层卷积神经网络复杂图像数据的分类效果比浅层卷积神经网络对复杂图像数据的分类效果要好。深层卷积神经网络与ImageNet-2010网络相比,其分类错误几乎相近,只相差了0.45%。尽管,本文的深层卷积神经网络与ImageNet-2010网络的网络层数相同,但是本文的深层卷积神经网络的卷积核数远小于ImageNet-2010网络。从理论上来讲,卷积核数越多,学到的特征也就越多,网络的分类效果也更佳。如果只关注这一个层次,深层卷积神经网络的分类效果确实稍逊于ImageNet-2010网络,但实验结果却表明两种分类效果很接近,这是由于我们的深层卷积神经网络在网络优化过程中采取了激活函数Maxout和逐层训练的方法有效降低卷积核数少所引入的缺陷。而且随着深层卷积神经网络卷积核数的减少,训练时间也随之大幅减少。所以综合考虑,深层卷积神经网络在cifar-10图像库上取得了很理想的分类效果。
5.2数据库cifar-100的实验结果及其分析
相似于cifar-10的数据库,cifar-100数据库也是一个用于普适物体识别的数据集,只不过它比cifar-10更复杂,它包含了100类图像,其中每类图像有100张测试图像和500张训练图像。表7为本发明设计的深层卷积神经网络以及目前性能较好的复杂神经网络ImageNet-2010和Conv-KN分别在cifar-100数据库上的测试结果。
表7 cifar-100在不同网络上的分类错误率
由表7可知深层卷积神经网络在cifar-100上的分类错误为39.91%,比Conv-KN网络的分类效果要好很多,其下降了3.55%,与ImageNet-2010网络的分类错误率相近,但训练时间比ImageNet-2010网络短,这是因为深层卷积神经网络的卷积核数比深层卷积神经网络的卷积核数少。所以综合深层卷积神经网络在cifar-10和cifar-100上的分类错误率及训练时间,本论文设计的深层卷积神经网络取得了很好的分类效果。
以上显示和描述了本发明的基本原理和主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。

Claims (5)

1.一种基于卷积神经网络的图像分类方法,其特征在于,所述方法包括如下步骤:深层卷积神经网络的构建,深层卷积神经网络的改进,深层卷积神经网络的训练及测试,优化网络参数;
深层卷积神经网络框架的构建:在ImageNet-2010网络基础上,通过逐层分析网络层的方法设计了一个具有九层网络的深层卷积神经网络,其包括图像输入层、conv1卷积层、conv2卷积层、conv3卷积层、conv4卷积层、conv5卷积层、fc6全链接层、fc7全链接层和输出分类层;
深层卷积神经网络的改进:由随机下采样方法、下采样区域有重叠的采样方式的方法、全链接层使用逐层训练的方法、maxout激活函数的方法四个方面对深层卷积神经网络进行改进;
深层卷积神经网络的训练及测试:深层卷积神经网络的训练流程有前向与反向传播两个步骤,利用逐层训练的方法进行深层卷积神经网络的训练;
优化网络参数:通过对batch、dropout、momentum动量相关网络参数进行优化,以减轻训练网络时出现的过拟合现象。
2.根据权利要求1所述的一种基于卷积神经网络的图像分类方法,其特征在于,在深层卷积神经网络的构建时,其中对conv1卷积层的设计方法如下:输入原始图像进行卷积处理,经过卷积处理之后得到了一个特征图,再通过maxout激活函数得到特征映射图;其次,再通过池化降采样处理,该池化处理为最大池化处理方法,设置池化层卷积核的大小及滑动步长,经过降采样处理后,输出特征映射图;最后,在输入到conv2卷积层之前做一个Batch Normalization即BN预处理;
其中对conv2卷积层的设计方法如下:以conv1的输出作为conv2的输入,首先经过卷积处理,所以为了防止特征图过快的变小,本层的卷积层增加边缘补偿处理,经过卷积处理之后得到特征图,然后同样采用maxout激活函数得到特征映射图;其次,同样的采用最大池化处理方法,设置池化层卷积核的大小及滑动步长,输出特征映射图;最后,在输入到conv3卷积层之前做BN处理,输出特征图;
其中对conv3卷积层的设计方法如下:将conv2的输出输入到conv3中,首先经过卷积处理,本层的卷积层增加边缘补偿处理,经过卷积处理之后得到了一个特征图,最后,同样采用maxout激活函数得到特征映射图,再将激活函数处理后的输出直接输入到了下一个卷积层;
其中对conv4卷积层的设计方法如下:将conv3的输出输入到conv4中,首先经过卷积处理,本层的卷积层增加边缘补偿处理,经过卷积处理之后得到了一个特征图,最后,同样采用maxout激活函数得到特征映射图,再将激活函数处理后的输出直接输入到了下一个卷积层;
其中对conv4卷积层的设计方法如下:将conv4的输出输入到conv5中,首先经过卷积处理,本层的卷积层增加边缘补偿处理,经过卷积处理之后得到了一个特征图,然后,同样采用maxout激活函数得到特征映射图;最后,采用最大池化处理方法,设置池化层卷积核的大小及滑动步长,输出特征映射图,本层不进行BN预处理;
其中对fc6全链接层的设计方法如下:将conv5的输出输入到fc6全链接层中,输入特征图,设置fc6全链接层的神经元数,然后,采用maxout激活函数,输出神经数,最后,采用dropout处理方式进行输出;
其中对fc7全链接层的设计方法如下:将fc6的输出输入到fc7全链接层中,该层结构与fc6基本相同,首先,设置fc6全链接层的神经元数,然后采用maxout激活函数,输出神经数,最后,同样采用dropout处理方式进行输出;
其中对输出分类层的设计方法如下:本层分类器选用softmax分类器,根据训练样本的不同来确定神经节点的个数,对于cifar-10图像数据库来说,其节点数设置为10,对于cifar-100图像数据库来说,其神经节点数要设置为100。
3.根据权利要求1所述的一种基于卷积神经网络的图像分类方法,其特征在于,在深层卷积神经网络的改进时,从四个方面对深层卷积神经网络作出改进,分别是随机下采样方法、下采样区域有重叠的采样方式的方法、全链接层使用逐层训练的方法、maxout激活函数的方法;
(1)采用随机下采样方法
首先,对图像区域里的元素值进行求和,然后把区域里的每个元素与总和相除以便得出采样区域所对应的概率,接着根据采样区域概率值用0-1分布式采样进行采样并获得采样结果;
(2)采用下采样区域有重叠的采样方式的方法
在tensorflow里把相应cifar文件中的layer类型配置里面的参数pool:Stochastic改为pool:MAX就可以实现随机下采样的方式。
(3)采用全连接层使用逐层训练的方法
tensorflow会支持自动编码网络,在全链接层可使用自动编码网络的训练方式进行改进。
(4)采用maxout激活函数的方法
使用maxout激活函数来代替ImageNet-2010所采用的relu函数,其数学表达式如下:
hi(x)=max(zij)j∈[1,k]
zij=xTWij+bij,W∈Rd×m×k
表达式中的d表示输入层的节点个数,k为每一个隐含层节点所对应的k个“隐隐含层”节点,m代表隐含层的节点个数。
4.根据权利要求1所述的一种基于卷积神经网络的图像分类方法,其特征在于,在进行深层卷积神经网络的训练及测试时,训练阶段的算法流程如下:
输入:训练集
误差阈值ε
最大迭代次数num
输出:网络权重
步骤:
初始化:网络权重:W←N(0,1),偏置值:b←const
Step 1 Do
Step 2从训练集中随机选择一个Batch,输入到卷积神经网络中;
Step 3训练样本前向传播,进行conv卷积计算;
Step 4进行Max pooling特征提取运算;
Step 5进行Batch Normalization归一化运算;
Step 6输入到下一个卷积层,直至输入到全连接层
Step 7全连接层提取特征,输入到softmax函数进行分类,选取输出概率最大的作为分类结果。
Step 8 if分类误差小于误差阈值or训练次数==最大迭代次数num
Step 9 brea;
Step10 els
Step11计算误差,进行误差反向传播
Step12网络参数更新;
Step13 Until所有的Batch都训练完毕;
其测试阶段的算法流程如下:
输入:测试集
输出:分类结果
步骤:
初始化:网络权重:W,b←训练好的网络值
Step 1 Do
Step 2测试样本前向传播,进行conv卷积计算;
Step 3进行Max pooling特征提取运算;
Step 4进行Batch Normalization归一化运算;
Step 5输入到下一个卷积层,直至输入到全连接层
Step6全连接层提取特征,输入到softmax函数进行分类,选取输出概率最大的作为分类结果。
Step7判断比较标签与分类结果,并统计分类结果;
Step8 Until所有的Batch全部都测试完毕。
5.根据权利要求1所述的一种基于卷积神经网络的图像分类方法,其特征在于,优化网络参数包括
可视化特征的提取,输入图像历经卷积神经网络卷积层conv1的处理之后,得到输出特征映射,通过输入图像历经卷积神经网络卷积层conv1的处理之后,得到输出特征映射,通过卷积层conv1之后得到可视化图像,卷积层conv1所学习的大量信息体现在输入图形的边缘轮廓信息上;如要展示卷积层conv2的可视化结果,需要把它的高维卷积核拆成低维的卷积核,再进行可视化处理;
还包括,
设定batch的值,采取不同的batch小数据集进行训练,在经历多次试验后可以得到batch的范围,如要停止训练,要当损失函数的值低于预定的阈值,测试五次后取平均值最大程度避免偶然事件突发;
还包括,
dropout的设计,深度学习网络在每次batch样本输入时,权重必须进行保留,对于一个含有N个节点的深层卷积神经网络,当加入dropout处理之后,该网络就可以看成是2n个模型的组合了,深层卷积神经网络加入dropout后,其训练层面和测试层面应做出相应的改进;
还包括,
数据集扩增,为训练出更好的网络模型,需要充足的训练数据并采用更深层的网络,对于扩充数据集,既简单又有效的方法就是对原始数据进行扩充,通过对原始数据进行改动,可以得到更多的数据。对于图片数据而言,扩充其数据最简单的方法就是调整图片的角度。
CN201710553052.5A 2017-07-07 2017-07-07 一种基于卷积神经网络的图像分类方法 Pending CN107341518A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710553052.5A CN107341518A (zh) 2017-07-07 2017-07-07 一种基于卷积神经网络的图像分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710553052.5A CN107341518A (zh) 2017-07-07 2017-07-07 一种基于卷积神经网络的图像分类方法

Publications (1)

Publication Number Publication Date
CN107341518A true CN107341518A (zh) 2017-11-10

Family

ID=60219552

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710553052.5A Pending CN107341518A (zh) 2017-07-07 2017-07-07 一种基于卷积神经网络的图像分类方法

Country Status (1)

Country Link
CN (1) CN107341518A (zh)

Cited By (87)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107862344A (zh) * 2017-12-01 2018-03-30 中南大学 一种图像分类方法
CN107895192A (zh) * 2017-12-06 2018-04-10 广州华多网络科技有限公司 深度卷积网络压缩方法、存储介质和终端
CN107958263A (zh) * 2017-11-13 2018-04-24 浙江工业大学 一种半监督的图像分类器训练方法
CN107967484A (zh) * 2017-11-14 2018-04-27 中国计量大学 一种基于多分辨率的图像分类方法
CN107967459A (zh) * 2017-12-07 2018-04-27 北京小米移动软件有限公司 卷积处理方法、装置及存储介质
CN108009594A (zh) * 2017-12-25 2018-05-08 北京航空航天大学 一种基于变分组卷积的图像识别方法
CN108009634A (zh) * 2017-12-21 2018-05-08 美的集团股份有限公司 一种卷积神经网络的优化方法、装置及计算机存储介质
CN108038517A (zh) * 2018-01-02 2018-05-15 东北农业大学 基于改进卷积神经网络模型Cifar10的玉米叶片病害识别方法
CN108052987A (zh) * 2017-12-29 2018-05-18 苏州体素信息科技有限公司 图像分类输出结果的检测方法
CN108170594A (zh) * 2017-12-25 2018-06-15 郑州云海信息技术有限公司 一种神经网络模型的测试方法、装置及设备
CN108181952A (zh) * 2017-12-11 2018-06-19 浙江工业大学 一种基于卷积神经网络的光照度测量及光照度智能控制方法
CN108197633A (zh) * 2017-11-24 2018-06-22 百年金海科技有限公司 基于TensorFlow的深度学习图像分类与应用部署方法
CN108197632A (zh) * 2017-12-04 2018-06-22 马艺菲 基于卷积神经网络的分布式手绘画的识别系统及其方法
CN108345846A (zh) * 2018-01-29 2018-07-31 华东师范大学 一种基于卷积神经网络的人体行为识别方法及识别系统
CN108460399A (zh) * 2017-12-29 2018-08-28 华南师范大学 一种儿童积木搭建辅助方法及系统
CN108509991A (zh) * 2018-03-29 2018-09-07 青岛全维医疗科技有限公司 基于卷积神经网络的肝部病理图像分类方法
CN108520535A (zh) * 2018-03-26 2018-09-11 天津大学 基于深度恢复信息的物体分类方法
CN108537266A (zh) * 2018-03-30 2018-09-14 东华大学 一种深度卷积网络的织物纹理疵点分类方法
CN108596051A (zh) * 2018-04-04 2018-09-28 浙江大学城市学院 一种面向产品风格意象的智能识别方法
CN108596258A (zh) * 2018-04-27 2018-09-28 南京邮电大学 一种基于卷积神经网络随机池化的图像分类方法
CN108628993A (zh) * 2018-04-28 2018-10-09 国家基础地理信息中心 电子地图自适应分类方法、装置、设备及存储介质
CN108647742A (zh) * 2018-05-19 2018-10-12 南京理工大学 基于轻量级神经网络的快速目标检测方法
CN108665057A (zh) * 2018-03-29 2018-10-16 东南大学 一种基于卷积神经网络的多生产点位轮毂图像分类方法
CN108681775A (zh) * 2018-05-25 2018-10-19 厦门大学 通过WordNet嵌入进行测试和更新的树形网络方法
CN108764289A (zh) * 2018-04-26 2018-11-06 福建天晴数码有限公司 一种基于卷积神经网络的ui异常图片分类方法及系统
CN108805270A (zh) * 2018-05-08 2018-11-13 华中科技大学 一种基于存储器的卷积神经网络系统
CN108866934A (zh) * 2018-08-13 2018-11-23 济南大学 一种基于人工智能的洗衣模式控制系统及方法
CN108875909A (zh) * 2018-01-22 2018-11-23 深圳市铱硙医疗科技有限公司 医学影像的分类方法及装置
CN108960336A (zh) * 2018-07-16 2018-12-07 广东工业大学 一种基于dropout算法的图像分类方法及相关装置
CN109003239A (zh) * 2018-07-04 2018-12-14 华南理工大学 一种基于迁移学习神经网络的多光谱图像锐化方法
CN109165699A (zh) * 2018-10-17 2019-01-08 中国科学技术大学 细粒度图像分类方法
CN109215029A (zh) * 2018-08-29 2019-01-15 电子科技大学 一种基于卷积神经网络的三维地质异常体的分割提取方法
CN109214406A (zh) * 2018-05-16 2019-01-15 长沙理工大学 基于D-MobileNet神经网络图像分类方法
CN109255340A (zh) * 2018-10-29 2019-01-22 东北大学 一种融合多种改进vgg网络的人脸识别方法
CN109255758A (zh) * 2018-07-13 2019-01-22 杭州电子科技大学 基于全1*1卷积神经网络的图像增强方法
CN109272045A (zh) * 2018-09-25 2019-01-25 华南农业大学 一种基于神经网络和迁移学习的水果图像分类方法及装置
CN109272048A (zh) * 2018-09-30 2019-01-25 北京工业大学 一种基于深度卷积神经网络的模式识别方法
CN109272107A (zh) * 2018-08-10 2019-01-25 广东工业大学 一种改进深层卷积神经网络的参数个数的方法
CN109272014A (zh) * 2018-08-03 2019-01-25 天津大学 一种基于畸变适应卷积神经网络的图像分类方法
CN109272500A (zh) * 2018-09-27 2019-01-25 西安电子科技大学 基于自适应卷积神经网络的织物分类方法
CN109291657A (zh) * 2018-09-11 2019-02-01 东华大学 基于卷积神经网络航天结构件工业物联标识激光打码系统
CN109309675A (zh) * 2018-09-21 2019-02-05 华南理工大学 一种基于卷积神经网络的网络入侵检测方法
CN109325514A (zh) * 2018-08-02 2019-02-12 成都信息工程大学 基于改进cnn的简单学习框架的图像分类方法
CN109345506A (zh) * 2018-08-23 2019-02-15 中国科学院合肥物质科学研究院 一种基于卷积神经网络的热点与marfe自动检测方法
CN109376699A (zh) * 2018-11-30 2019-02-22 昆明理工大学 一种基于卷积神经网络的指纹识别方法
CN109495214A (zh) * 2018-11-26 2019-03-19 电子科技大学 基于一维Inception结构的信道编码类型识别方法
CN109583572A (zh) * 2018-12-05 2019-04-05 东软睿驰汽车技术(沈阳)有限公司 一种卷积神经网络的训练方法、验证方法及装置
CN109598768A (zh) * 2018-10-11 2019-04-09 天津大学 基于卷积神经网络的电学层析成像图像重建方法
CN109685126A (zh) * 2018-12-17 2019-04-26 北斗航天卫星应用科技集团有限公司 基于深度卷积神经网络的图像分类方法及图像分类系统
CN109685119A (zh) * 2018-12-07 2019-04-26 中国人民解放军陆军工程大学 一种随机最大池化深度卷积神经网络噪声图形分类方法
CN109711449A (zh) * 2018-12-20 2019-05-03 北京以萨技术股份有限公司 一种基于全卷积网络的图像分类算法
CN109726769A (zh) * 2019-01-24 2019-05-07 电子科技大学 一种基于卷积核权重参数的目标分类和角度估计方法
CN109740734A (zh) * 2018-12-29 2019-05-10 北京工业大学 一种优化卷积神经网络中神经元空间排布的方法
CN109766993A (zh) * 2018-12-13 2019-05-17 浙江大学 一种适合硬件的卷积神经网络压缩方法
WO2019095118A1 (zh) * 2017-11-14 2019-05-23 深圳和而泰智能控制股份有限公司 一种皮肤瑕疵点分类方法及电子设备
CN109840538A (zh) * 2017-11-29 2019-06-04 南京大学 一种基于集成交叉对比神经网络的图像分类技术
CN109919232A (zh) * 2019-03-11 2019-06-21 西安电子科技大学 基于卷积神经网络和非局部连接网络的图像分类方法
CN109977751A (zh) * 2019-01-16 2019-07-05 上海理工大学 一种基于卷积神经网络的人脸关键点检测方法
CN110059568A (zh) * 2019-03-21 2019-07-26 中南大学 基于深层卷积神经网络的多类白细胞自动识别方法
CN110059699A (zh) * 2019-03-18 2019-07-26 中南大学 一种基于卷积神经网络的图像中天际线自动检测方法
CN110163300A (zh) * 2019-05-31 2019-08-23 北京金山云网络技术有限公司 一种图像分类方法、装置、电子设备及存储介质
CN110163286A (zh) * 2019-05-24 2019-08-23 常熟理工学院 一种基于混合池化的领域自适应图像分类方法
CN110188789A (zh) * 2019-04-16 2019-08-30 浙江工业大学 一种基于预处理模型的小样本医学图像分类方法
CN110197115A (zh) * 2019-04-09 2019-09-03 广州中科凯泽科技有限公司 一种农贸产品种类的图像识别方法
CN110210555A (zh) * 2019-05-29 2019-09-06 西南交通大学 基于深度学习的钢轨鱼鳞伤损检测方法
CN110210399A (zh) * 2019-05-31 2019-09-06 广东世纪晟科技有限公司 一种基于不确定性量化概率卷积神经网络的人脸识别方法
CN110245713A (zh) * 2019-06-19 2019-09-17 上海应用技术大学 一种食源性致病菌分类方法
CN110298276A (zh) * 2019-06-19 2019-10-01 北京工业大学 基于卷积神经网络的跌倒检测方法
CN110298824A (zh) * 2019-06-17 2019-10-01 浙江省农业科学院 基于彩色图像和卷积神经网络技术的鱿鱼自动分类方法
CN110309867A (zh) * 2019-06-21 2019-10-08 北京工商大学 一种基于卷积神经网络的混合气体识别方法
CN110569889A (zh) * 2019-08-21 2019-12-13 广西电网有限责任公司电力科学研究院 一种基于l2归一化的卷积神经网络图象分类方法
CN110659667A (zh) * 2019-08-14 2020-01-07 平安科技(深圳)有限公司 图片分类模型训练方法、系统和计算机设备
CN110675462A (zh) * 2019-09-17 2020-01-10 天津大学 一种基于卷积神经网络的灰度图像彩色化方法
CN110675309A (zh) * 2019-08-28 2020-01-10 江苏大学 一种基于卷积神经网络和VGGNet16模型的图像风格转换方法
CN110688446A (zh) * 2019-08-23 2020-01-14 重庆兆光科技股份有限公司 一种句义数学空间表示方法、系统、介质和设备
CN110796167A (zh) * 2019-09-25 2020-02-14 武汉大学 基于提升方案深度神经网络的图像分类方法
CN111126494A (zh) * 2019-12-25 2020-05-08 中国科学院自动化研究所 基于各向异性卷积的图像分类方法及系统
CN111275318A (zh) * 2020-01-16 2020-06-12 东华理工大学 基于大数据分析技术对环境质量进行监测的方法
CN111353947A (zh) * 2018-12-24 2020-06-30 深圳先进技术研究院 磁共振并行成像方法及相关设备
CN111400572A (zh) * 2020-02-28 2020-07-10 开普云信息科技股份有限公司 一种基于卷积神经网络实现图像特征识别的内容安全监测系统及其方法
CN111460932A (zh) * 2020-03-17 2020-07-28 哈尔滨工程大学 基于自适应卷积的水声信号分类识别方法
CN111523616A (zh) * 2020-05-14 2020-08-11 中国铁道科学研究院集团有限公司铁道建筑研究所 基于卷积神经网络的粗粒土填料级配识别方法及应用系统
CN111563578A (zh) * 2020-04-28 2020-08-21 河海大学常州校区 基于TensorFlow的卷积神经网络故障注入系统
CN111680711A (zh) * 2020-04-08 2020-09-18 上海吴塘科技有限公司 基于卷积神经网络的Logo图像分类方法
CN111680781A (zh) * 2020-04-20 2020-09-18 北京迈格威科技有限公司 神经网络处理方法、装置、电子设备及存储介质
WO2022141258A1 (zh) * 2020-12-30 2022-07-07 深圳市优必选科技股份有限公司 一种图像分类方法、计算机设备和存储介质
CN116644804A (zh) * 2023-07-27 2023-08-25 浪潮电子信息产业股份有限公司 分布式训练系统、神经网络模型训练方法、设备和介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106226212A (zh) * 2016-08-30 2016-12-14 上海交通大学 基于深度残差网络的高光谱霾监测方法
CN106529503A (zh) * 2016-11-30 2017-03-22 华南理工大学 一种集成卷积神经网络人脸情感识别方法
CN106874898A (zh) * 2017-04-08 2017-06-20 复旦大学 基于深度卷积神经网络模型的大规模人脸识别方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106226212A (zh) * 2016-08-30 2016-12-14 上海交通大学 基于深度残差网络的高光谱霾监测方法
CN106529503A (zh) * 2016-11-30 2017-03-22 华南理工大学 一种集成卷积神经网络人脸情感识别方法
CN106874898A (zh) * 2017-04-08 2017-06-20 复旦大学 基于深度卷积神经网络模型的大规模人脸识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ASMA ELADEL ET,AL.: "Fast deep neural network based on intelligent dropout and layer skipping", 《2017 INTERNATIONAL JOINT CONFERENCE ON NEURAL NETWORKS (IJCNN)》 *
吴正文: "卷积神经网络在图像分类中的应用研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (119)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107958263A (zh) * 2017-11-13 2018-04-24 浙江工业大学 一种半监督的图像分类器训练方法
CN107967484A (zh) * 2017-11-14 2018-04-27 中国计量大学 一种基于多分辨率的图像分类方法
WO2019095118A1 (zh) * 2017-11-14 2019-05-23 深圳和而泰智能控制股份有限公司 一种皮肤瑕疵点分类方法及电子设备
CN108197633A (zh) * 2017-11-24 2018-06-22 百年金海科技有限公司 基于TensorFlow的深度学习图像分类与应用部署方法
CN109840538A (zh) * 2017-11-29 2019-06-04 南京大学 一种基于集成交叉对比神经网络的图像分类技术
CN107862344B (zh) * 2017-12-01 2021-06-11 中南大学 一种图像分类方法
CN107862344A (zh) * 2017-12-01 2018-03-30 中南大学 一种图像分类方法
CN108197632A (zh) * 2017-12-04 2018-06-22 马艺菲 基于卷积神经网络的分布式手绘画的识别系统及其方法
CN107895192A (zh) * 2017-12-06 2018-04-10 广州华多网络科技有限公司 深度卷积网络压缩方法、存储介质和终端
CN107895192B (zh) * 2017-12-06 2021-10-08 广州方硅信息技术有限公司 深度卷积网络压缩方法、存储介质和终端
CN107967459A (zh) * 2017-12-07 2018-04-27 北京小米移动软件有限公司 卷积处理方法、装置及存储介质
CN107967459B (zh) * 2017-12-07 2021-08-24 北京小米移动软件有限公司 卷积处理方法、装置及存储介质
CN108181952A (zh) * 2017-12-11 2018-06-19 浙江工业大学 一种基于卷积神经网络的光照度测量及光照度智能控制方法
CN108009634A (zh) * 2017-12-21 2018-05-08 美的集团股份有限公司 一种卷积神经网络的优化方法、装置及计算机存储介质
CN108170594A (zh) * 2017-12-25 2018-06-15 郑州云海信息技术有限公司 一种神经网络模型的测试方法、装置及设备
CN108009594B (zh) * 2017-12-25 2018-11-13 北京航空航天大学 一种基于变分组卷积的图像识别方法
CN108009594A (zh) * 2017-12-25 2018-05-08 北京航空航天大学 一种基于变分组卷积的图像识别方法
CN108460399A (zh) * 2017-12-29 2018-08-28 华南师范大学 一种儿童积木搭建辅助方法及系统
CN108052987A (zh) * 2017-12-29 2018-05-18 苏州体素信息科技有限公司 图像分类输出结果的检测方法
CN108038517A (zh) * 2018-01-02 2018-05-15 东北农业大学 基于改进卷积神经网络模型Cifar10的玉米叶片病害识别方法
CN108875909A (zh) * 2018-01-22 2018-11-23 深圳市铱硙医疗科技有限公司 医学影像的分类方法及装置
CN108345846A (zh) * 2018-01-29 2018-07-31 华东师范大学 一种基于卷积神经网络的人体行为识别方法及识别系统
CN108520535A (zh) * 2018-03-26 2018-09-11 天津大学 基于深度恢复信息的物体分类方法
CN108520535B (zh) * 2018-03-26 2022-02-15 天津大学 基于深度恢复信息的物体分类方法
CN108665057A (zh) * 2018-03-29 2018-10-16 东南大学 一种基于卷积神经网络的多生产点位轮毂图像分类方法
CN108509991A (zh) * 2018-03-29 2018-09-07 青岛全维医疗科技有限公司 基于卷积神经网络的肝部病理图像分类方法
CN108537266A (zh) * 2018-03-30 2018-09-14 东华大学 一种深度卷积网络的织物纹理疵点分类方法
CN108596051A (zh) * 2018-04-04 2018-09-28 浙江大学城市学院 一种面向产品风格意象的智能识别方法
CN108764289A (zh) * 2018-04-26 2018-11-06 福建天晴数码有限公司 一种基于卷积神经网络的ui异常图片分类方法及系统
CN108764289B (zh) * 2018-04-26 2021-04-30 福建天晴数码有限公司 一种基于卷积神经网络的ui异常图片分类方法及系统
CN108596258A (zh) * 2018-04-27 2018-09-28 南京邮电大学 一种基于卷积神经网络随机池化的图像分类方法
CN108596258B (zh) * 2018-04-27 2022-03-29 南京邮电大学 一种基于卷积神经网络随机池化的图像分类方法
CN108628993A (zh) * 2018-04-28 2018-10-09 国家基础地理信息中心 电子地图自适应分类方法、装置、设备及存储介质
CN108628993B (zh) * 2018-04-28 2021-01-05 国家基础地理信息中心 电子地图自适应分类方法、装置、设备及存储介质
CN108805270A (zh) * 2018-05-08 2018-11-13 华中科技大学 一种基于存储器的卷积神经网络系统
CN109214406A (zh) * 2018-05-16 2019-01-15 长沙理工大学 基于D-MobileNet神经网络图像分类方法
CN108647742A (zh) * 2018-05-19 2018-10-12 南京理工大学 基于轻量级神经网络的快速目标检测方法
CN108647742B (zh) * 2018-05-19 2021-07-13 南京理工大学 基于轻量级神经网络的快速目标检测方法
CN108681775B (zh) * 2018-05-25 2021-04-13 厦门大学 通过WordNet嵌入进行测试和更新的树形网络方法
CN108681775A (zh) * 2018-05-25 2018-10-19 厦门大学 通过WordNet嵌入进行测试和更新的树形网络方法
CN109003239A (zh) * 2018-07-04 2018-12-14 华南理工大学 一种基于迁移学习神经网络的多光谱图像锐化方法
CN109255758B (zh) * 2018-07-13 2021-09-21 杭州电子科技大学 基于全1*1卷积神经网络的图像增强方法
CN109255758A (zh) * 2018-07-13 2019-01-22 杭州电子科技大学 基于全1*1卷积神经网络的图像增强方法
CN108960336A (zh) * 2018-07-16 2018-12-07 广东工业大学 一种基于dropout算法的图像分类方法及相关装置
CN109325514A (zh) * 2018-08-02 2019-02-12 成都信息工程大学 基于改进cnn的简单学习框架的图像分类方法
CN109272014B (zh) * 2018-08-03 2021-05-28 天津大学 一种基于畸变适应卷积神经网络的图像分类方法
CN109272014A (zh) * 2018-08-03 2019-01-25 天津大学 一种基于畸变适应卷积神经网络的图像分类方法
CN109272107A (zh) * 2018-08-10 2019-01-25 广东工业大学 一种改进深层卷积神经网络的参数个数的方法
CN108866934A (zh) * 2018-08-13 2018-11-23 济南大学 一种基于人工智能的洗衣模式控制系统及方法
CN108866934B (zh) * 2018-08-13 2021-04-23 济南大学 一种基于人工智能的洗衣模式控制系统及方法
CN109345506A (zh) * 2018-08-23 2019-02-15 中国科学院合肥物质科学研究院 一种基于卷积神经网络的热点与marfe自动检测方法
CN109215029A (zh) * 2018-08-29 2019-01-15 电子科技大学 一种基于卷积神经网络的三维地质异常体的分割提取方法
CN109215029B (zh) * 2018-08-29 2021-10-15 电子科技大学 一种基于卷积神经网络的三维地质异常体的分割提取方法
CN109291657A (zh) * 2018-09-11 2019-02-01 东华大学 基于卷积神经网络航天结构件工业物联标识激光打码系统
CN109291657B (zh) * 2018-09-11 2020-10-30 东华大学 基于卷积神经网络航天结构件工业物联标识激光打码系统
CN109309675A (zh) * 2018-09-21 2019-02-05 华南理工大学 一种基于卷积神经网络的网络入侵检测方法
CN109272045A (zh) * 2018-09-25 2019-01-25 华南农业大学 一种基于神经网络和迁移学习的水果图像分类方法及装置
CN109272500A (zh) * 2018-09-27 2019-01-25 西安电子科技大学 基于自适应卷积神经网络的织物分类方法
CN109272500B (zh) * 2018-09-27 2021-11-09 西安电子科技大学 基于自适应卷积神经网络的织物分类方法
CN109272048B (zh) * 2018-09-30 2022-04-12 北京工业大学 一种基于深度卷积神经网络的模式识别方法
CN109272048A (zh) * 2018-09-30 2019-01-25 北京工业大学 一种基于深度卷积神经网络的模式识别方法
CN109598768B (zh) * 2018-10-11 2023-03-28 天津大学 基于卷积神经网络的电学层析成像图像重建方法
CN109598768A (zh) * 2018-10-11 2019-04-09 天津大学 基于卷积神经网络的电学层析成像图像重建方法
CN109165699B (zh) * 2018-10-17 2020-06-26 中国科学技术大学 细粒度图像分类方法
CN109165699A (zh) * 2018-10-17 2019-01-08 中国科学技术大学 细粒度图像分类方法
CN109255340A (zh) * 2018-10-29 2019-01-22 东北大学 一种融合多种改进vgg网络的人脸识别方法
CN109495214A (zh) * 2018-11-26 2019-03-19 电子科技大学 基于一维Inception结构的信道编码类型识别方法
CN109376699A (zh) * 2018-11-30 2019-02-22 昆明理工大学 一种基于卷积神经网络的指纹识别方法
CN109583572A (zh) * 2018-12-05 2019-04-05 东软睿驰汽车技术(沈阳)有限公司 一种卷积神经网络的训练方法、验证方法及装置
CN109685119B (zh) * 2018-12-07 2023-05-23 中国人民解放军陆军工程大学 一种随机最大池化深度卷积神经网络噪声图形分类方法
CN109685119A (zh) * 2018-12-07 2019-04-26 中国人民解放军陆军工程大学 一种随机最大池化深度卷积神经网络噪声图形分类方法
CN109766993A (zh) * 2018-12-13 2019-05-17 浙江大学 一种适合硬件的卷积神经网络压缩方法
CN109766993B (zh) * 2018-12-13 2020-12-18 浙江大学 一种适合硬件的卷积神经网络压缩方法
CN109685126A (zh) * 2018-12-17 2019-04-26 北斗航天卫星应用科技集团有限公司 基于深度卷积神经网络的图像分类方法及图像分类系统
CN109711449A (zh) * 2018-12-20 2019-05-03 北京以萨技术股份有限公司 一种基于全卷积网络的图像分类算法
CN111353947A (zh) * 2018-12-24 2020-06-30 深圳先进技术研究院 磁共振并行成像方法及相关设备
CN109740734B (zh) * 2018-12-29 2020-12-04 北京工业大学 一种利用优化神经元空间排布的卷积神经网络的图像分类方法
CN109740734A (zh) * 2018-12-29 2019-05-10 北京工业大学 一种优化卷积神经网络中神经元空间排布的方法
CN109977751A (zh) * 2019-01-16 2019-07-05 上海理工大学 一种基于卷积神经网络的人脸关键点检测方法
CN109726769B (zh) * 2019-01-24 2020-07-10 电子科技大学 一种基于卷积核权重参数的目标分类和角度估计方法
CN109726769A (zh) * 2019-01-24 2019-05-07 电子科技大学 一种基于卷积核权重参数的目标分类和角度估计方法
CN109919232A (zh) * 2019-03-11 2019-06-21 西安电子科技大学 基于卷积神经网络和非局部连接网络的图像分类方法
CN109919232B (zh) * 2019-03-11 2023-03-24 西安电子科技大学 基于卷积神经网络和非局部连接网络的图像分类方法
CN110059699B (zh) * 2019-03-18 2021-01-29 中南大学 一种基于卷积神经网络的图像中天际线自动检测方法
CN110059699A (zh) * 2019-03-18 2019-07-26 中南大学 一种基于卷积神经网络的图像中天际线自动检测方法
CN110059568A (zh) * 2019-03-21 2019-07-26 中南大学 基于深层卷积神经网络的多类白细胞自动识别方法
CN110197115A (zh) * 2019-04-09 2019-09-03 广州中科凯泽科技有限公司 一种农贸产品种类的图像识别方法
CN110188789A (zh) * 2019-04-16 2019-08-30 浙江工业大学 一种基于预处理模型的小样本医学图像分类方法
CN110163286B (zh) * 2019-05-24 2021-05-11 常熟理工学院 一种基于混合池化的领域自适应图像分类方法
CN110163286A (zh) * 2019-05-24 2019-08-23 常熟理工学院 一种基于混合池化的领域自适应图像分类方法
CN110210555A (zh) * 2019-05-29 2019-09-06 西南交通大学 基于深度学习的钢轨鱼鳞伤损检测方法
CN110163300A (zh) * 2019-05-31 2019-08-23 北京金山云网络技术有限公司 一种图像分类方法、装置、电子设备及存储介质
CN110210399A (zh) * 2019-05-31 2019-09-06 广东世纪晟科技有限公司 一种基于不确定性量化概率卷积神经网络的人脸识别方法
CN110298824A (zh) * 2019-06-17 2019-10-01 浙江省农业科学院 基于彩色图像和卷积神经网络技术的鱿鱼自动分类方法
CN110245713A (zh) * 2019-06-19 2019-09-17 上海应用技术大学 一种食源性致病菌分类方法
CN110298276A (zh) * 2019-06-19 2019-10-01 北京工业大学 基于卷积神经网络的跌倒检测方法
CN110309867B (zh) * 2019-06-21 2021-09-24 北京工商大学 一种基于卷积神经网络的混合气体识别方法
CN110309867A (zh) * 2019-06-21 2019-10-08 北京工商大学 一种基于卷积神经网络的混合气体识别方法
CN110659667A (zh) * 2019-08-14 2020-01-07 平安科技(深圳)有限公司 图片分类模型训练方法、系统和计算机设备
CN110569889A (zh) * 2019-08-21 2019-12-13 广西电网有限责任公司电力科学研究院 一种基于l2归一化的卷积神经网络图象分类方法
CN110688446A (zh) * 2019-08-23 2020-01-14 重庆兆光科技股份有限公司 一种句义数学空间表示方法、系统、介质和设备
CN110675309A (zh) * 2019-08-28 2020-01-10 江苏大学 一种基于卷积神经网络和VGGNet16模型的图像风格转换方法
CN110675462A (zh) * 2019-09-17 2020-01-10 天津大学 一种基于卷积神经网络的灰度图像彩色化方法
CN110796167A (zh) * 2019-09-25 2020-02-14 武汉大学 基于提升方案深度神经网络的图像分类方法
CN111126494A (zh) * 2019-12-25 2020-05-08 中国科学院自动化研究所 基于各向异性卷积的图像分类方法及系统
CN111126494B (zh) * 2019-12-25 2023-09-26 中国科学院自动化研究所 基于各向异性卷积的图像分类方法及系统
CN111275318A (zh) * 2020-01-16 2020-06-12 东华理工大学 基于大数据分析技术对环境质量进行监测的方法
CN111400572A (zh) * 2020-02-28 2020-07-10 开普云信息科技股份有限公司 一种基于卷积神经网络实现图像特征识别的内容安全监测系统及其方法
CN111460932B (zh) * 2020-03-17 2022-06-21 哈尔滨工程大学 基于自适应卷积的水声信号分类识别方法
CN111460932A (zh) * 2020-03-17 2020-07-28 哈尔滨工程大学 基于自适应卷积的水声信号分类识别方法
CN111680711A (zh) * 2020-04-08 2020-09-18 上海吴塘科技有限公司 基于卷积神经网络的Logo图像分类方法
CN111680781B (zh) * 2020-04-20 2023-07-25 北京迈格威科技有限公司 神经网络处理方法、装置、电子设备及存储介质
CN111680781A (zh) * 2020-04-20 2020-09-18 北京迈格威科技有限公司 神经网络处理方法、装置、电子设备及存储介质
CN111563578B (zh) * 2020-04-28 2022-09-23 河海大学常州校区 基于TensorFlow的卷积神经网络故障注入系统
CN111563578A (zh) * 2020-04-28 2020-08-21 河海大学常州校区 基于TensorFlow的卷积神经网络故障注入系统
CN111523616A (zh) * 2020-05-14 2020-08-11 中国铁道科学研究院集团有限公司铁道建筑研究所 基于卷积神经网络的粗粒土填料级配识别方法及应用系统
WO2022141258A1 (zh) * 2020-12-30 2022-07-07 深圳市优必选科技股份有限公司 一种图像分类方法、计算机设备和存储介质
CN116644804A (zh) * 2023-07-27 2023-08-25 浪潮电子信息产业股份有限公司 分布式训练系统、神经网络模型训练方法、设备和介质
CN116644804B (zh) * 2023-07-27 2024-01-12 浪潮电子信息产业股份有限公司 分布式训练系统、神经网络模型训练方法、设备和介质

Similar Documents

Publication Publication Date Title
CN107341518A (zh) 一种基于卷积神经网络的图像分类方法
Rahman et al. A new benchmark on american sign language recognition using convolutional neural network
CN109859190B (zh) 一种基于深度学习的目标区域检测方法
CN105657402B (zh) 一种深度图恢复方法
CN106874956B (zh) 图像分类卷积神经网络结构的构建方法
CN103544506B (zh) 一种基于卷积神经网络的图像分类方法和装置
CN108764281A (zh) 一种基于半监督自步学习跨任务深度网络的图像分类方法
CN110032926A (zh) 一种基于深度学习的视频分类方法以及设备
CN106295502B (zh) 一种人脸检测方法及装置
WO2016037300A1 (en) Method and system for multi-class object detection
CN108154504A (zh) 一种基于卷积神经网络的钢板表面缺陷的检测方法
CN106682697A (zh) 一种基于卷积神经网络的端到端物体检测方法
CN110428432A (zh) 结肠腺体图像自动分割的深度神经网络算法
DE112018000349T5 (de) Visuelles Analysesystem für auf einem konvolutionalen neuronalen Netz basierte Klassifizierer
CN107945153A (zh) 一种基于深度学习的路面裂缝检测方法
CN107437092A (zh) 基于三维卷积神经网络的视网膜oct图像的分类算法
CN109785300A (zh) 一种癌症医学图像数据处理方法、系统、装置和存储介质
JP2019082978A (ja) スキップアーキテクチャ・ニューラルネットワーク装置及び改良されたセマンティックセグメンテーションのための方法
CN107636659A (zh) 使用深度神经网络检测医学图像中的地标的方法和系统
CN109711426A (zh) 一种基于gan和迁移学习的病理图片分类装置及方法
CN104484886B (zh) 一种mr图像的分割方法及装置
CN106408030A (zh) 基于中层语义属性和卷积神经网络的sar图像分类方法
CN109635812A (zh) 图像的实例分割方法及装置
CN104598920B (zh) 基于Gist特征与极限学习机的场景分类方法
CN107292336A (zh) 一种基于dcgan的极化sar图像分类方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination