CN107392314A - 一种基于确定性丢弃连接的深层卷积神经网络方法 - Google Patents

一种基于确定性丢弃连接的深层卷积神经网络方法 Download PDF

Info

Publication number
CN107392314A
CN107392314A CN201710524680.0A CN201710524680A CN107392314A CN 107392314 A CN107392314 A CN 107392314A CN 201710524680 A CN201710524680 A CN 201710524680A CN 107392314 A CN107392314 A CN 107392314A
Authority
CN
China
Prior art keywords
layer
convolutional
neural networks
convolutional neural
connection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710524680.0A
Other languages
English (en)
Inventor
李鸿杨
庞彦伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN201710524680.0A priority Critical patent/CN107392314A/zh
Publication of CN107392314A publication Critical patent/CN107392314A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting

Abstract

本发明公开了一种基于确定性丢弃连接的深层卷积神经网络方法,具体包括以下步骤:(1)收集训练数据集并对数据进行标签标记;(2)设置卷积神经网络的结构;(3)确定卷积滤波器权重需要丢弃的阈值t,对卷积滤波器权重进行初始化并确定迭代次数;(4)通过卷积运算得到各卷积层的特征图,并将最后一层卷积层的特征图输入到分类器中得到数据的分类结果以完成前向计算;(5)从最后一层卷积层到第一层卷积层,应用反向传播算法不断更新和优化卷积滤波器的权重参数以降低训练误差;(6)重复步骤(4)和步骤(5),通过迭代以不断优化卷积神经网络的参数直至达到终止条件。

Description

一种基于确定性丢弃连接的深层卷积神经网络方法
技术领域
本发明涉及计算机视觉、数字图像处理和深度学习领域,特别涉及一种基于确定性丢弃连接的深层卷积神经网络方法。
背景技术
近年来,深度卷积神经网络(Deep Convolutional Neural Network,DCNN)广泛的应用于语音识别、人脸识别、图像分类、自动驾驶等众多领域。
卷积神经网络是由若干个卷积层组成,卷积层的层数表示网络的深度。卷积层的作用是提取特征。卷积层是通过滤波器(或卷积核)与前一层的输出的卷积运算获得。因此,卷积神经网络的滤波器权重非常重要。一方面,为了使训练误差达到最小,通过不断的迭代来优化权重。另一方面,由于有限的训练数据,过多的迭代次数很容易导致权重过拟合,从而影响网络的泛化能力。因此,需要通过正则化来进行约束,使得不仅训练误差小,同时测试误差也小。在现有的卷积神经网络正则化方法中,有几种方法是基于卷积滤波器的权重变换,如丢弃(Dropout)[1]、丢弃连接(DropConnect)[2]等。本发明提出的方法是基于丢弃连接方法。
丢弃连接对于深度卷积神经网络是一种有效的正则化方法。Dropout和丢弃连接是具有代表性的丢弃连接方法。在Dropout中,按照一定的比例,将激活层中一些元素设置为零。丢弃连接则是将卷积滤波器中的权重按照一定的比例设置为零。两者的思想都是丢弃一些连接,不同的是作用对象不同。
丢弃连接的核心思想是从卷积滤波器的权重中随机选择一些元素置零。滤波器的权重连接着前一层神经元与后一层神经元。如果其值为零,那么可以认为它们没有连接。丢弃连接存在的问题是它选择置零元素的方法是随机的。然而,权重中绝对值较大的元素通常比绝对值较小的元素更加重要。因此,通过随机的方法选择置零元素是不合适的。
[1]Srivastava,N.,Hinton,G.E.,Krizhevsky,A.,Sutskever,I.,&Salakhutdinov,R.(2014).Dropout:a simple way to prevent neural networks.fromoverfitting.Journal of Machine Learning Research,15(1),1929-1958.
[2]Wan,L.,Zeiler,M.,Zhang,S.,Cun,Y.L.,&Fergus,R.(2013).Regularizationof neural networks using dropconnect.In Proceedings of the 30th InternationalConference on Machine Learning.
发明内容
本发明的目的是为了克服现有技术中的不足,提供一种基于确定性丢弃连接的深层卷积神经网络方法,该方法针对深度卷积神经的过拟合问题提出,因此仅应用于训练阶段,本发明方法通过将卷积滤波器中权重绝对值较小的元素置零并最终依据实验结果表明该方法具有更好的性能。
本发明的目的是通过以下技术方案实现的:
一种基于确定性丢弃连接的深层卷积神经网络方法,通过构建深层卷积神经网络并对深层神经网络进行确定性连接丢弃训练得到一个分类器,利用所述分类器对采集的视频、图像进行检测或分类,具体包括以下步骤:
(1)收集训练数据集并对数据进行标签标记;
(2)设置卷积神经网络的结构,所述卷积神经网络包括卷积层、批归一化层、最大池化层、丢弃层和分类器;
(3)确定卷积滤波器权重需要丢弃的阈值t,对卷积滤波器权重进行初始化并确定迭代次数;
(4)通过卷积运算得到各卷积层的特征图,并将最后一层卷积层的特征图输入到分类器中得到数据的分类结果以完成前向计算;
(5)从最后一层卷积层到第一层卷积层,应用反向传播算法不断更新和优化卷积滤波器的权重参数以降低训练误差;
(6)重复步骤(4)和步骤(5),通过迭代以不断优化卷积神经网络的参数直至达到终止条件。
进一步的,步骤(1)中所述训练数据为图像,标签为图像的类别。图像为32×32×3的彩色图像,并对所有图像进行去噪和归一化处理。
进一步的,步骤(2)中所述卷积神经网络的结构包括11个卷积层,每个卷积层后通过依次设置批归一化层和激活层且形成有卷积单元,在第四和第七个卷积单元后设有最大池化层和丢弃层。第一、二个卷积层的卷积通道数为64,第三、四个卷积层的卷积通道数为128,第五、六、七个卷积层的卷积通道数为256,第八、九、十个卷积层的卷积通道数为512,第十一个卷积层的卷积通道数为10。
进一步的,步骤(4)中前向计算的具体步骤如下;
A.根据卷积滤波器权重的绝对值大小,对其进行确定性丢弃连接处理;
B.对输入数据进行卷积运算,得到第一个卷积层的特征图;
C.对特征图进行批归一化处理;
D.利用修正线性单元激活函数对特征图进行非线性映射;
E.若卷积单元之后有最大池化层,则将特征图作为输入,与最大池化层的模板进行运算,得到新的特征图;
F.经过多个卷积单元运算,得到最终的特征图,将最终的特征图作为输入数据,输入至分类器中得到最终的分类结果。
进一步的,步骤(6)中所述的终止条件为最大迭代次数。
与现有技术相比,本发明的技术方案所带来的有益效果是:
1、本发明方法整体流程步骤简单,易于实现。
2、本发明方法可以应用于所有的卷积神经网络,适用范围较广。
3、本发明方法相比于传统的方法,具有较强的泛化能力。
附图说明
图1现有技术中使用的传统丢弃连接算法示意图。
图2是本发明使用的确定性丢弃连接算法示意图。
图3是本发明实施例中所用的卷积神经网络的结构示意图。
具体实施方式
下面结合附图对本发明作进一步的描述。
本发明提供了一种基于确定性丢弃连接提高深度卷积神经网络泛化能力的方法,卷积神经网络系统主要包括两个部分:训练部分和测试部分。本发明主要是针对深度卷积神经的过拟合问题提出,因此仅应用于训练阶段。
本发明提出的确定性丢弃连接与随机丢弃连接的区别在于选取滤波器的权重子集并将所选择的权重子集设置为零的方式。图1和图2分别说明了随机丢弃连接和确定性丢弃连接的基本思想。
在图1和图2中,当前层中的某个神经元用no表示,与前一层的神经元相连接。假如与之连接的神经元有7个,用n1至n7表示,其对应的滤波器的权重用w1至w7表示。
在未经过任何丢弃连接变换钱,滤波器权重的假如为0.3,-2.5,4.0,-0.1,0.7,1.6,-3.2。图1展示了现有技术中随机丢弃连接算法如何丢弃神经元之间的连接,即把所对应的权重设置为零。因为随机丢弃连接是通过随机的方式对滤波器的权重进行置零。这种方法没有考虑到权重不同大小的值对最后结果的影响是不同的。存在把绝对值较大的权重设置为零而保留绝对值较小的情况。如图1(b)中,w2被设置为零而保留w5,尽管|w2|=2.5>|w5|=0.7。
图2展示的是本发明提出的确定性丢弃连接通过对滤波器权重中的一些值设置为零,从而达到丢弃连接的效果。与现有技术的随机丢弃连接方法不同,本发明方法对设置为零的对象是确定的。更具体表述就是将滤波器中绝对值较小的值设置为零并且保持其他值不变。这个过程从可用函数f(|w|)表示:
其中:t表示阈值,即可以通过经验选取也可以通过设定一定比例自动获得。
本发明方法可以保证权重中较大的值不会被设置为零。如图2(b)所示,假设当前阈值t=0.8,权重w2为2.5。因为其绝对值大于阈值因此其不会被设置为零。而小于阈值的权重将被设置为零,如w1,w4,w5
下面将对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明的一部分实例,而不是全部的实例。
该实施例中最为关键的构思在于:先通过构建深层卷积神经网络并对深层神经网络进行确定性连接丢弃连接训练得到一个良好的分类器,然后利用该分类器对采集的视频、图像进行检测或分类,具有鲁棒性较佳、准确率高的优点。
本实施例对深层卷积神经网络的训练阶段的步骤如下:
1.数据收集:收集训练数据集并标记数据的标签,本实施例是对图像分类,训练数据集为图像,标签为图像的类别。对所有图像样本进行预处理,将所有的图像的尺寸统一,该实施例中的图像均为32×32×3的彩色图像,然后对所有图像进行去噪和归一化处理。
2.结构设计:设置卷积神经网络的结构。卷积神经网络结构示意图如图3所示,共包含11个卷积层,每个卷积层后面是批归一化层(Batch Normalization),批归一化层后面的激活层采用的是修正线性单元(ReLU)激活函数。在第四、七个卷积单元后添加最大池化层(Max pooling)和丢弃层(Dropout)。最大池化层采用的是3×3模板,丢弃层默认丢弃概率为0.5。所有卷积层卷积核大小都为3×3,第一、二卷积层的卷积通道数为64,第三、四卷积层的卷积通道数为128,第五、六、七卷积层的卷积通道数为256,第八、九、十卷积层的卷积通道数为512,第十一卷积层的卷积通道数为10。10为分类的类别数,其中批归一化层的通道数取决于卷积层的通道数。
图3中,卷积层中(3,64)表示卷积核大小为3×3,卷积通道数为64;最大池化层中3×3表示模板大小为3×3,从这个模板中选择最大值作为结果;Dropout中0.5表示丢弃概率为0.5;分类器中Softmax表示分类器采用的是Softmax分类器。
3.初始化:确定卷积滤波器权重需要丢弃的阈值t,本实施例中的阈值为0.8。卷积滤波器权重的初始化,根据步骤2中的卷积核大小和卷积通道数,通过随机初始化的方法对参数进行初始化,方差为0.01,标准差为0。迭代次数为230次,冲量大小为0.9,学习率为0.1。
4.前向计算:在给定的数据集和卷积滤波器的权值情况下,前向计算是通过卷积运算得到各层的特征图,并将最后一层卷积层特征图输入到分类器中得到数据的分类结果。具体步骤如下:
A.根据卷积滤波器的权重的绝对值大小,对其进行确定性丢弃连接处理。具体如下,用w表示卷积滤波器,其中第i个元素表示wi。然后,对每一个卷积滤波器权重w进行确定性连接丢弃,其函数表达式如下所示:
经过确定性连接丢弃,绝对值较小的权值将会被置零;
B.利用确定性连接丢弃之后的卷积滤波器权值对输入数据进行卷积运算,得到第一个卷积层的特征图;
C.对特征图进行批归一化处理;
D.利用修正线性单元(ReLU)激活函数对特征图进行非线性映射;
E.一个卷积层、一个批归一化层和一个激活层共同组成为一个卷积单元,如果卷积单元之后有最大池化层,则将特征图作为输入,与池化层的模板进行运算,得到新的特征图;
F.经过多个卷积单元运算,得到最终的特征图。将最终的特征图作为输入数据,输入到Softmax分类器中得到最终的分类结果。
5.迭代:重复步骤4和步骤5,通过迭代来不断优化网络参数,直到达到终止条件,本实施例的终止条件为达到最大迭代次数(230)。进一步的,终止条件可以根据实验的具体需求改变,可以通过最大迭代次数、收敛性条件来设置。
接下来可对训练得到的深层卷积神经网络进行测试,简单流程如下:
1.数据收集:收集测试数据集,本实施例为待分类的图像,对测试数据进行尺寸的统一和去噪、归一化预处理;
2.结构设计:使用训练阶段的结构,如图3所示;
3.调用模型化:调用训练阶段训练得到的模型参数,卷积滤波器的权值和偏置;
4.前向计算:输入测试数据并进行前向计算,在测试阶段不需要对卷积滤波器进行确定性连接丢弃方法,得到输入数据的特征图。将输入数据的特征图输入到分类器中,得到最终的分类结果;
5.程序结束。
进一步的,为了验证本发明方法的效果,通过设计网络结构(参考“K.Simonyanand A.Zisserman,“Very deep convolutional networks for large-scale imagerecognition”,CoRR,abs/1409.1556,2014.”),在物体分类的检测集上验证。实验数据为MNIST数据图像,分为两种情况:无数据增强和数据增强。数据增强的方式为平移和翻转。通过实验比较了网络结构中无丢弃方法、Dropout方法、DropConnect方法和本发明方法的性能,比较结果见下表1,其中:A表示无丢弃的原始方法;B表示Dropout方法;C表示DropConnect方法;D表示本发明方法;MNIST表示原始数据集;MNIST+表示带有数据增强的数据集
表1
数据集 A B C D
MNIST 0.48 0.44 0.43 0.40
MNIST+ 0.39 0.34 0.36 0.32
本发明并不限于上文描述的实施方式。以上对具体实施方式的描述旨在描述和说明本发明的技术方案,上述的具体实施方式仅仅是示意性的,并不是限制性的。在不脱离本发明宗旨和权利要求所保护的范围情况下,本领域的普通技术人员在本发明的启示下还可做出很多形式的具体变换,这些均属于本发明的保护范围之内。

Claims (7)

1.一种基于确定性丢弃连接的深层卷积神经网络方法,其特征在于,通过构建深层卷积神经网络并对深层神经网络进行确定性连接丢弃训练得到一个分类器,利用所述分类器对采集的视频、图像进行检测或分类,具体包括以下步骤:
(1)收集训练数据集并对数据进行标签标记;
(2)设置卷积神经网络的结构,所述卷积神经网络包括卷积层、批归一化层、最大池化层、丢弃层和分类器;
(3)确定卷积滤波器权重需要丢弃的阈值t,对卷积滤波器权重进行初始化并确定迭代次数;
(4)通过卷积运算得到各卷积层的特征图,并将最后一层卷积层的特征图输入到分类器中得到数据的分类结果以完成前向计算;
(5)从最后一层卷积层到第一层卷积层,应用反向传播算法不断更新和优化卷积滤波器的权重参数以降低训练误差;
(6)重复步骤(4)和步骤(5),通过迭代以不断优化卷积神经网络的参数直至达到终止条件。
2.根据权利要求1所述一种基于确定性丢弃连接的深层卷积神经网络方法,其特征在于,步骤(1)中所述训练数据为图像,标签为图像的类别。
3.根据权利要求2所述一种基于确定性丢弃连接的深层卷积神经网络方法,其特征在于,所述图像为32×32×3的彩色图像,并对所有图像进行去噪和归一化处理。
4.根据权利要求1所述一种基于确定性丢弃连接的深层卷积神经网络方法,其特征在于,步骤(2)中所述卷积神经网络的结构包括11个卷积层,每个卷积层后通过依次设置批归一化层和激活层并形成有卷积单元,在第四和第七个卷积单元后设有最大池化层和丢弃层。
5.根据权利要求4所述一种基于确定性丢弃连接的深层卷积神经网络方法,其特征在于,第一、二个卷积层的卷积通道数为64,第三、四个卷积层的卷积通道数为128,第五、六、七个卷积层的卷积通道数为256,第八、九、十个卷积层的卷积通道数为512,第十一个卷积层的卷积通道数为10。
6.根据权利要求1所述一种基于确定性丢弃连接的深层卷积神经网络方法,其特征在于,步骤(4)中前向计算的具体步骤如下;
A.根据卷积滤波器权重的绝对值大小,对其进行确定性丢弃连接处理;
B.对输入数据进行卷积运算,得到第一个卷积层的特征图;
C.对特征图进行批归一化处理;
D.利用修正线性单元激活函数对特征图进行非线性映射;
E.若卷积单元之后有最大池化层,则将特征图作为输入,与最大池化层的模板进行运算,得到新的特征图;
F.经过多个卷积单元运算,得到最终的特征图,将最终的特征图作为输入数据,输入至分类器中得到最终的分类结果。
7.根据权利要求1所述一种基于确定性丢弃连接的深层卷积神经网络方法,其特征在于,步骤(6)中所述的终止条件为最大迭代次数。
CN201710524680.0A 2017-06-30 2017-06-30 一种基于确定性丢弃连接的深层卷积神经网络方法 Pending CN107392314A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710524680.0A CN107392314A (zh) 2017-06-30 2017-06-30 一种基于确定性丢弃连接的深层卷积神经网络方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710524680.0A CN107392314A (zh) 2017-06-30 2017-06-30 一种基于确定性丢弃连接的深层卷积神经网络方法

Publications (1)

Publication Number Publication Date
CN107392314A true CN107392314A (zh) 2017-11-24

Family

ID=60334843

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710524680.0A Pending CN107392314A (zh) 2017-06-30 2017-06-30 一种基于确定性丢弃连接的深层卷积神经网络方法

Country Status (1)

Country Link
CN (1) CN107392314A (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108009594A (zh) * 2017-12-25 2018-05-08 北京航空航天大学 一种基于变分组卷积的图像识别方法
CN108108757A (zh) * 2017-12-18 2018-06-01 深圳市唯特视科技有限公司 一种基于卷积神经网络的糖尿病足部溃疡分类方法
CN108765308A (zh) * 2018-04-25 2018-11-06 西安科技大学 一种基于卷积模板的图像去噪方法
CN108875752A (zh) * 2018-03-21 2018-11-23 北京迈格威科技有限公司 图像处理方法和装置、计算机可读存储介质
CN109002890A (zh) * 2018-07-11 2018-12-14 北京航空航天大学 卷积神经网络模型的建模方法及装置
CN109299671A (zh) * 2018-09-04 2019-02-01 上海海事大学 一种级联式由粗到精的卷积神经网络船舶类型识别方法
CN109871936A (zh) * 2017-12-05 2019-06-11 三星电子株式会社 用于处理神经网络中的卷积运算的方法和装置
WO2019196115A1 (en) * 2018-04-13 2019-10-17 Telefonaktiebolaget Lm Ericsson (Publ) Method and apparatus for adaptive signal processing
CN111931904A (zh) * 2020-07-10 2020-11-13 华为技术有限公司 神经网络的构建方法和装置
TWI729352B (zh) * 2018-02-09 2021-06-01 宏達國際電子股份有限公司 卷積神經網路的調整方法及電子裝置
TWI736838B (zh) * 2018-02-09 2021-08-21 宏達國際電子股份有限公司 訓練全連接神經網路的裝置及方法
CN113449846A (zh) * 2020-03-27 2021-09-28 Aptiv技术有限公司 确定人工神经网络的卷积块的输出的方法和系统
US11488007B2 (en) 2019-12-06 2022-11-01 International Business Machines Corporation Building of custom convolution filter for a neural network using an automated evolutionary process

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109871936B (zh) * 2017-12-05 2024-03-08 三星电子株式会社 用于处理神经网络中的卷积运算的方法和装置
CN109871936A (zh) * 2017-12-05 2019-06-11 三星电子株式会社 用于处理神经网络中的卷积运算的方法和装置
CN108108757A (zh) * 2017-12-18 2018-06-01 深圳市唯特视科技有限公司 一种基于卷积神经网络的糖尿病足部溃疡分类方法
CN108009594B (zh) * 2017-12-25 2018-11-13 北京航空航天大学 一种基于变分组卷积的图像识别方法
CN108009594A (zh) * 2017-12-25 2018-05-08 北京航空航天大学 一种基于变分组卷积的图像识别方法
TWI729352B (zh) * 2018-02-09 2021-06-01 宏達國際電子股份有限公司 卷積神經網路的調整方法及電子裝置
US11379716B2 (en) 2018-02-09 2022-07-05 Htc Corporation Method and electronic apparatus for adjusting a neural network
TWI736838B (zh) * 2018-02-09 2021-08-21 宏達國際電子股份有限公司 訓練全連接神經網路的裝置及方法
CN108875752A (zh) * 2018-03-21 2018-11-23 北京迈格威科技有限公司 图像处理方法和装置、计算机可读存储介质
CN108875752B (zh) * 2018-03-21 2022-06-07 北京迈格威科技有限公司 图像处理方法和装置、计算机可读存储介质
US10924087B2 (en) 2018-04-13 2021-02-16 Telefonaktiebolaget Lm Ericsson (Publ) Method and apparatus for adaptive signal processing
WO2019196115A1 (en) * 2018-04-13 2019-10-17 Telefonaktiebolaget Lm Ericsson (Publ) Method and apparatus for adaptive signal processing
CN108765308A (zh) * 2018-04-25 2018-11-06 西安科技大学 一种基于卷积模板的图像去噪方法
CN109002890A (zh) * 2018-07-11 2018-12-14 北京航空航天大学 卷积神经网络模型的建模方法及装置
CN109299671A (zh) * 2018-09-04 2019-02-01 上海海事大学 一种级联式由粗到精的卷积神经网络船舶类型识别方法
US11488007B2 (en) 2019-12-06 2022-11-01 International Business Machines Corporation Building of custom convolution filter for a neural network using an automated evolutionary process
CN113449846A (zh) * 2020-03-27 2021-09-28 Aptiv技术有限公司 确定人工神经网络的卷积块的输出的方法和系统
CN111931904A (zh) * 2020-07-10 2020-11-13 华为技术有限公司 神经网络的构建方法和装置

Similar Documents

Publication Publication Date Title
CN107392314A (zh) 一种基于确定性丢弃连接的深层卷积神经网络方法
CN108416755B (zh) 一种基于深度学习的图像去噪方法及系统
CN105046277B (zh) 特征显著性在图像质量评价中的鲁棒机理研究方法
CN112232476B (zh) 更新测试样本集的方法及装置
CN103824054B (zh) 一种基于级联深度神经网络的人脸属性识别方法
CN106295637B (zh) 一种基于深度学习与强化学习的车辆识别方法
CN111046964B (zh) 一种基于卷积神经网络的人和车辆红外热图像识别方法
CN109101938B (zh) 一种基于卷积神经网络的多标签年龄估计方法
CN107292885A (zh) 一种基于自动编码器的产品缺陷分类识别方法及装置
CN106096538A (zh) 基于定序神经网络模型的人脸识别方法及装置
CN103955718A (zh) 一种图像主体对象的识别方法
CN107392224A (zh) 一种基于三通道卷积神经网络的作物病害识别算法
CN111582396B (zh) 一种基于改进卷积神经网络的故障诊断方法
CN106529395B (zh) 基于深度置信网络和k均值聚类的签名图像鉴定方法
CN104182735A (zh) 训练优化的基于卷积神经网络的色情图像或视频检测方法
CN105989368A (zh) 一种目标检测方法及装置以及移动终端
CN107657281A (zh) 一种基于改进的卷积神经网络的图像识别方法
CN108614997A (zh) 一种基于改进AlexNet的遥感图像识别方法
CN104268524A (zh) 一种基于动态调整训练目标的卷积神经网络的图像识别方法
CN107944551A (zh) 一种用于电润湿显示屏缺陷识别方法
CN109872326B (zh) 基于深度强化网络跳跃连接的轮廓检测方法
CN107766934A (zh) 一种基于并列卷积单元的深度卷积神经网络方法
CN112766229A (zh) 基于注意力机制的人脸点云图像智能识别系统及方法
CN107679539A (zh) 一种基于局部感知野的单卷积神经网络局部信息与全局信息整合方法
CN110766082B (zh) 一种基于迁移学习的植物叶片病虫害程度分类方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20171124