CN106960243A - 一种改进卷积神经网络结构的方法 - Google Patents
一种改进卷积神经网络结构的方法 Download PDFInfo
- Publication number
- CN106960243A CN106960243A CN201710126994.5A CN201710126994A CN106960243A CN 106960243 A CN106960243 A CN 106960243A CN 201710126994 A CN201710126994 A CN 201710126994A CN 106960243 A CN106960243 A CN 106960243A
- Authority
- CN
- China
- Prior art keywords
- image
- layer
- maximum pond
- fractional order
- dimension
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 33
- 230000008569 process Effects 0.000 claims abstract description 19
- 238000012549 training Methods 0.000 claims abstract description 17
- 238000011176 pooling Methods 0.000 claims abstract description 10
- 238000013528 artificial neural network Methods 0.000 claims abstract description 8
- 230000008859 change Effects 0.000 claims abstract description 6
- 230000009467 reduction Effects 0.000 claims abstract description 3
- 238000005070 sampling Methods 0.000 claims abstract description 3
- 239000011159 matrix material Substances 0.000 claims description 30
- 238000010606 normalization Methods 0.000 claims description 13
- 238000012545 processing Methods 0.000 claims description 8
- 230000006870 function Effects 0.000 claims description 7
- 230000004913 activation Effects 0.000 claims description 4
- 238000003909 pattern recognition Methods 0.000 claims description 4
- 238000004422 calculation algorithm Methods 0.000 claims description 3
- 238000003780 insertion Methods 0.000 claims description 3
- 230000037431 insertion Effects 0.000 claims description 3
- 230000006872 improvement Effects 0.000 claims description 2
- 230000008901 benefit Effects 0.000 abstract description 4
- 238000013135 deep learning Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 6
- 230000003278 mimic effect Effects 0.000 description 5
- 230000008034 disappearance Effects 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 2
- 230000006641 stabilisation Effects 0.000 description 2
- 238000011105 stabilization Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 210000004218 nerve net Anatomy 0.000 description 1
- 238000011056 performance test Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及深度学习领域,特别涉及了一种改进卷积神经网络结构的方法。步骤a:利用分数阶最大值池化(Fractional Max Pooling)原理,将传统卷积神经网络结构中的最大值池化层全部更改为分数阶,达到图像任意维度的下采样降维;步骤b:在保证网络结构浅的前提下,通过不断加宽网络结构,结合分数阶最大值池化层,使得网络性能得到提升。本发明利用分数阶最大值池化原理,保证层数在浅的程度,不断加宽网络,从而避免深型网络在训练过程中出现的梯度消失(Gradient Vanish)与权重失效的现象导致卷积神经网络难以训练的问题,使得其性能与深型卷积网络结构相当甚至更好,网络参数更少,本发明具有明显的性能优势。
Description
技术领域
本发明涉及深度学习领域,涉及了一种基于分数阶最大值池化原理,结 合对浅型网络加宽的手段,提高卷积神经网络结性能的方法。特别是一种改 进卷积神经网络结构的方法。
背景技术
卷积神经网络(Convolutional Neural Network)是近期在模式识别领域最 流行的一种数据驱动型方法,目前已经被大量科研实验证明,在图像分类任 务领域有很高的性能。如图1所示,传统的卷积神经网络结构是由以下几部 分组成的:(1)输入层;(2)卷积层;(3)最大值池化层;(4)全连接层。 卷积层中包含多个卷积算子作用在输入层的图像上,进行下面运算:WTX, 其中,X矩阵表示为多个输入图像,它的每一列存储着一幅图像的像素信息, 矩阵W表示卷积算子,每一行表示一个卷积算子,连个矩阵相乘得到的是通 过卷积算子处理过的新的多个图像,每一行表示特征向量作为下一层的输入 图像。在被下一层处理之前,需要对特征矩阵进行非线性激活:σ(WTX+b), 其中,b为全部为1的偏置矩阵,一般地非线性函数σ(·)为:σ(·)=max(·,0), 如果作用域对象是矩阵,则对矩阵的每一个元素上述公式进行处理。接下来 就是最大值池化,这个过程属于非线性变换,将从前面层传来的输入图像, 以固定的整数移动步长,在R×R区域内进行取像素最大值,直到遍历完整张图像,通常R取值根据前后层输出图像的尺寸要求进行设计,保证以整数步长 让取值区域遍历完整张图像。经过多层卷积与最大值池化处理,最后得到维 数非常小的图像矩阵,将矩阵转化为向量,通过全连接层将这些向量值映射 到最终输出的目标值上面,整个过程就是完整的传统卷积神经网络结构。
近几年,卷积神经网络在领域中逐渐发展向层数规模更深的趋势上逼近, 这种方法虽然能提升卷积神经网络的性能,但是同时会带来以下问题:在训 练过程中,由于是所有层的权重与每层相应的归一化(将原本是0到255整 数的像素值归一化为0到1之间的多精度小数值)后的图像像素值进行相乘, 连乘会导致结果越乘越小,从而使得在反向传播过程中求得的梯度值也是非 常小的,如果让卷积神经网络的结构变得越来越深,梯度会逼近零,出现梯 度消失的现象,因此无法有效地更新权重,导致卷积神经网络难以训练。
目前,能使网络结构变浅,且能避免由结构加深带来的上述问题,同时保 证性能不会太差的一种方法称为MIMIC方法,其整个原理是首先去训练一 个性能较好的深型网络,称为Teacher模型,这个模型作为一个先验模型使 用,然后会通过迁移或者是其他手段,在深型Teacher模型的基础上,继续 训练得到一个浅型的网络作为Student模型,这样两个模型配合在一起,浅 型的Student网络充当真正识别的网络,相当于将网络变浅。这样的方法首 先还是要涉及到训练较深的模型,避免不了上述由深层带来的梯度消失的问题,其次,该方法的训练过程是分开、独立的,并且操作过程繁琐,不是简 单的端到端的整体训练模式,一次性得到性能较好的浅型网络。
综上两点背景与问题描述,本发明提出一种改进卷积神经网络结构的方 法,将上述优点进行整合,提升网络性能,同时也能避免原有缺点及问题。
发明内容
本发明所针对的问题是由于网络结构加深引起训练过程梯度消失导致训 练效率不高,提出了一种基于分数阶最大值池化的浅宽型卷积神经网络结构, 避免了上述问题的出现,同时提升了网络的性能。
为了解决上述技术问题,本发明所提出的技术方案是一种分数阶最大值池 化的浅宽型卷积神经网络结构,包括以下步骤细节:
(1)利用分数阶最大值池化(Fractional Max Pooling)原理,将传统卷积 神经网络结构中的最大值池化层全部更改为分数阶,达到图像任意维度的下 采样降维;
(2)在保证网络结构浅的前提下,通过不断加宽网络结构,结合分数阶 最大值池化层,使得网络性能得到提升。
第一个步骤为图像输入层,输入的图像可以为单通道的灰度图像,也可以 为3通道(RGB)的彩色图像。图像的尺寸理论上可以为任意尺寸,尝试使 用的尺寸有32x32,64x64,224x224等。
按照上述步骤第一步、第二步将图像进行卷积处理,本发明中所使用的 所有卷积核大小一律设置成3×3尺寸大小,卷积层中包含多个卷积算子作用 在输入层的图像上,具体步骤如下:WTX,其中,X矩阵表示为多个输入图 像,其中每列存储着一幅图像的像素信息,矩阵W表示卷积算子,每一行表 示一个卷积算子,连个矩阵相乘得到的是通过卷积算子处理过的新的多个图 像,每一行表示特征向量作为下一层的输入图像。按照上述步骤二,在经过 一层卷积层之后,添加一层批量归一化层(Batch Normalization)作为第三个 步骤,具体步骤如下:
由于梯度更新一次时完成一次迭代,在一次迭代中,使用多张图像进行 训练,首先计算得到这些图像的均值:其中,xi表示第i张图像。 然后计算这些图像的方差:得到均值与方差之后,便可 以将一次迭代中的这些图像进行归一化处理:其中,表示归一化 之后的每一幅图像(特征图像),∈为小于1的常数。
在经过上述步骤——批量归一化之后,进行非线性激活,图中ReLU函 数具体步骤为:σ(·)=max(·,0),按照上述三个步骤,完成了一个结构块(Block), 重复这样的结构7次,得到7层的卷积神经网络结构,在模式识别领域,卷 积神经网络层数的计算只考虑卷积层,其他层不考虑,因为只有卷进层含有 训练的权重参数,其他层均没有。
在上述重复7次Block步骤之后,前面6个Block中,每两个Block中 间插入一个分数阶最大值池化层(Fractional Max Pooling Layer),具体步骤 如下:
利用分数阶最大值池化(Fractional Max Pooling)原理,将传统卷积神经 网络结构中的最大值池化层全部更改为分数阶最大值池化。具体步骤如下: 输入矩阵的维度表示为Nin×Nin,经过池化处理之后矩阵的维度表示为 Nout×Nout,由于进行降采样的对象是含有图像像素信息的矩阵,对输入图像 的处理区域表示为Ri,j∈{1,2,...,Nin}2,对应输出图像位置是一个像素点: (i,j)∈{1,2,...,Nout}2,一般的,在卷积神经网络结构中,隐藏层中特征图像的长 宽比例是1:1,因此上述公式中表示图像维度均为Nin 2或者是Nout 2。然后对 输入图像进行分数阶的最大值池化处理,有:
输入图像矩阵的维度为整数,确定最大值池化区域Ri,j:Ri,j=[ai-1,ai]×[bi-1,bi],其中,ai确定的方式为:ai=ceiling(α(i+u)),α∈(1,2),u∈(0,1), 其中,i为像素点坐标,一般的ai-1-ai={1,2},bi-1-bi={1,2},通过上述公式 确定的最大值池化区域之间的关系是相互重叠方式。经过上述过程之后,在 最后一个Block之后,在本发明中,不使用传统的全连接层,使用平均池化 层(Average Pooling)进行映射到分类的类别上面,具体步骤为:其 中,n为一副特征图像转换为一维向量之后的维度。最后,通过sigmoid损 失函数计算每一个类别上的概率值,具体为:按照上述步骤,替换 最大值池化层为分数阶最大值池化层之后,训练的方法使用梯度反向传播算 法,训练过程中,使网络结构不断地加宽.
本发明与现有技术相比具有如下特点:一种改进卷进神经网络结构的 方法,避免了上述由深层带来的梯度消失的问题,其次,该方法的训练过程 是分开、独立的,并且操作过程繁琐,不是简单的端到端的整体训练模式, 而是一次性得到性能较好的浅型网络。上述的优点整合在一起,提升网络性 能。
同时,解决了在训练过程中,由于是所有层的权重与每层相应的归一化 (将原本是0到255整数的像素值归一化为0到1之间的多精度小数值)后 的图像像素值进行相乘,连乘会导致结果越乘越小,从而使得在反向传播过 程中求得的梯度值也是非常小的,如果让卷积神经网络的结构变得越来越深, 梯度会逼近零,出现梯度消失的现象,因此可以有效地更新权重,导致卷积 神经网络得以训练。
以下结合附图和具体实施方式对本发明的详细结构作进一步描述。
附图说明
图1是传统卷积神经网络结构示意图;
图2是基于分数阶最大值池化的浅宽型卷积神经网络结构示意图;
图3MNIST数据集训练与测试收敛示意图;
图4CIFAR10数据集训练与测试收敛示意图;
图5CIFAR100数据集训练与测试收敛示意图;
图6本发明在参数规模、性能方面与MIMIC方法的对比示意图。(本发明在 参数规模、准确率方面与MIMIC方法的对比示意图)。
具体实施方式
如图2所示,本发明提出的网络结构示意图,在结构中,第一个步骤为 图像输入层,输入的图像可以为单通道的灰度图像,也可以为3通道(RGB) 的彩色图像。图像的尺寸理论上可以为任意尺寸,尝试使用的尺寸有32x32, 64x64,224x224等。
按照上述步骤一,第二步将图像进行卷积处理,本发明中所使用的所有 卷积核大小一律设置成3×3尺寸大小,卷积层中包含多个卷积算子作用在输 入层的图像上,具体步骤如下:WTX,其中,X矩阵表示为多个输入图像, 其中每列存储着一幅图像的像素信息,矩阵W表示卷积算子,每一行表示一 个卷积算子,连个矩阵相乘得到的是通过卷积算子处理过的新的多个图像, 每一行表示特征向量作为下一层的输入图像。按照上述步骤二,在经过一层 卷积层之后,添加一层批量归一化层(Batch Normalization)作为第三个步骤, 具体步骤如下:
由于梯度更新一次时完成一次迭代,在一次迭代中,使用多张图像进行 训练,首先计算得到这些图像的均值:其中,xi表示第i张图像。 然后计算这些图像的方差:得到均值与方差之后,便可 以将一次迭代中的这些图像进行归一化处理:其中,表示归一化 之后的每一幅图像(特征图像),∈为小于1的常数。
在经过上述步骤-批量归一化之后,进行非线性激活,图中ReLU函数具 体步骤为:σ(·)=max(·,0),按照上述三个步骤,完成了一个结构块(Block), 重复这样的结构7次,得到7层的卷积神经网络结构(在模式识别领域,卷 积神经网络层数的计算只考虑卷积层,其他层不考虑,因为只有卷积层含有 训练的权重参数,其他层均没有)。
在上述重复7次Block步骤之后,前面6个Block中,每两个Block中 间插入一个分数阶最大值池化层(Fractional MaxPooling Layer),具体步骤如 下:利用分数阶最大值池化(Fractional Max Pooling)原理,将传统卷积神经 网络结构中的最大值池化层全部更改为分数阶最大值池化。具体步骤如下: 输入矩阵的维度表示为Nin×Nin,经过池化处理之后矩阵的维度表示为 Nout×Nout,由于进行降采样的对象是含有图像像素信息的矩阵,对输入图像 的处理区域表示为Ri,j∈{1,2,...,Nin}2,对应输出图像位置是一个像素点: (i,j)∈{1,2,...,Nout}2,一般的,在卷积神经网络结构中,隐藏层中特征图像的长 宽比例是1:1,因此上述公式中表示图像维度均为Nin 2或者是Nout 2。然后对 输入图像进行分数阶的最大值池化处理,有:输入图像矩阵的维度为整数,确定最大值池化区域Ri,j:Ri,j=[ai-1,ai]×[bi-1,bi], 其中,ai确定的方式为:ai=ceiling(α(i+u)),α∈(1,2),withsome u ∈(0,1),其中,i为 像素点坐标,一般的ai-1-ai={1,2},bi-1-bi={1,2},通过上述公式确定的最大 值池化区域之间的关系是相互重叠方式。经过上述过程之后,在最后一个 Block之后,在本发明中,不使用传统的全连接层,使用平均池化层(Average Pooling)进行映射到分类的类别上面,具体步骤为:其中,n为 一副特征图像转换为一维向量之后的维度。最后,通过sigmoid损失函数计 算每一个类别上的概率值,具体为:按照上述步骤,替换最大值池 化层为分数阶最大值池化层之后,训练的方法使用梯度反向传播算法,训练 过程中,使网络结构不断地加宽,
具体步骤如下:本发明设计的浅宽型卷积神经网络,卷积层有七层。前 三层卷积层使用同一宽度值F1,后四层卷积层使用同一宽度值F2,使用了 四种宽度,分别为F1=64,F2=128;F1=96,F2=192;F1=128,F2=512;F1=512, F2=1024,在MNIST、CIFAR10、CIFAR100图像分类数据集上进行训练与测 试,得到其收敛曲线分别如图3、图4、图5所示。从图中可以看到,本发明 方案的浅宽型卷积神经网络结构是收敛的,且能很快达到稳定的正确率,图 线显示出经过50次左右迭代就能达到稳定。
性能方面,本发明方案在MNIST数据集、CIFAR100数据集上训练得到 的识别正确率分别为99.75%、74.21%,而其他深型结构网络的识别正确率各 为99.68%,73.61%,因此,本发明提出的浅宽型网络结构与其他深型网络结 构相比,性能上得以提升。
另外,本发明在网络参数规模方面也有很大的优势,如图5所示为本结 构的详细参数表,可以看出本发明结构最宽的网络的参数为10.18M,相比于 MIMIC方法,大大减少了参数规模,能非常有效地缩短计算时间,并且,对 同一种数据集的性能测试表明,MIMIC方法最好的准确率为92.6%,本发明 的基于分数阶最大值池化浅宽型网络的准确率为93.09%。可以看出,在参数 规模大幅度减少的情况下,既节约了运算时间,又提升了准确率。说明本发 明不仅避免了梯度消失的问题,同时也解决了参数冗余的问题,利用分数阶最大值池化法,明显提升了卷积神经网络的性能。
Claims (4)
1.一种基于分数阶最大值池化的浅宽型卷积神经网络结构,其特征在于,包括由以下几个步骤:
1)利用分数阶最大值池化原理,将传统卷积神经网络结构中的最大值池化层全部更改为分数阶最大值池化层,达到图像任意维度的下采样降维;
2)在保证网络结构浅的前提下,通过不断加宽网络结构,结合分数阶最大值池化层,使得网络性能得到提升。
2.根据权利要求1所述的基于分数阶最大值池化方法,其特征在于,具体步骤如下:
输入矩阵的维度表示为Nin×Nin,经过池化处理之后矩阵的维度表示为Nout×Nout,由于进行降采样的对象是含有图像像素信息的矩阵,对输入图像的处理区域表示为Ri,j∈{1,2,...,Nin}2,对应输出图像位置是一个像素点:(i,j)∈{1,2,...,Nout}2,一般的,在卷积神经网络结构中,隐藏层中特征图像的长宽比例是1:1,因此上述公式中表示图像维度均为Nin 2或者是Nout 2。然后对输入图像进行分数阶的最大值池化处理,有: 输入图像矩阵的维度为整数,确定最大值池化区域Ri,j:Ri,j=[ai-1,ai]×[bi-1,bi],其中,ai确定的方式为:ai=ceiling(α(i+u,α∈1,2,u∈0,1,其中,i′为像素点坐标,一般的ai-1-ai={1,2},bi-1-bi={1,2},通过上述公式确定的最大值池化区域之间的关系是相互重叠方式。
3.在权利要求2所述的浅宽型网络,使网络结构不断地加宽,其特征在于,具体步骤如下:本发明涉及到的一种基于分数阶最大值池化的浅宽型卷积神经网络,含有七层卷积层。前三层卷积层使用同一宽度值F1,后四层卷积层使用同一宽度值F2,使用了四种宽度,分别为F1=64,F2=128;F1=96,F2=192;F1=128,F2=512;F1=512,F2=1024。
4.根据权要求2所述的一种改进卷积神经网络结构的方法,其特征是:具体可分为以下步骤:第一个步骤为图像输入层,输入的图像可以为单通道的灰度图像,也可以为3通道(RGB)的彩色图像。图像的尺寸理论上可以为任意尺寸,尝试使用的尺寸有32x32,64x64,224x224等。按照上述步骤一,第二步将图像进行卷积处理,本发明中所使用的所有卷积核大小一律设置成3×3尺寸大小,卷积层中包含多个卷积算子作用在输入层的图像上,具体步骤如下:WTX,其中,X矩阵表示为多个输入图像,其中每列存储着一幅图像的像素信息,矩阵W表示卷积算子,每一行表示一个卷积算子,连个矩阵相乘得到的是通过卷积算子处理过的新的多个图像,每一行表示特征向量作为下一层的输入图像。按照上述步骤二,在经过一层卷积层之后,添加一层批量归一化层(Batch Normalization)作为第三个步骤,具体步骤如下:由于梯度更新一次时完成一次迭代,在一次迭代中,使用多张图像进行训练,首先计算得到这些图像的均值:其中,xi表示第i张图像。然后计算这些图像的方差:得到均值与方差之后,便可以将一次迭代中的这些图像进行归一化处理:其中,表示归一化之后的每一幅图像(特征图像),∈为小于1的常数。在经过上述步骤-批量归一化之后,进行非线性激活,图中ReLU函数具体步骤为:σ(·)=max(·,0),按照上述三个步骤,完成了一个结构块(Block),重复这样的结构7次,得到7层的卷积神经网络结构(在模式识别领域,卷积神经网络层数的计算只考虑卷积层,其他层不考虑,因为只有卷进层含有训练的权重参数,其他层均没有)。在上述重复7次Block步骤之后,前面6个Block中,每两个Block中间插入一个分数阶最大值池化层(Fractional MaxPooling Layer),具体步骤如下:利用分数阶最大值池化(Fractional Max Pooling)原理,将传统卷积神经网络结构中的最大值池化层全部更改为分数阶最大值池化。具体步骤如下:输入矩阵的维度表示为Nin×Nin,经过池化处理之后矩阵的维度表示为Nout×Nout,由于进行降采样的对象是含有图像像素信息的矩阵,对输入图像的处理区域表示为Ri,j∈{1,2,...,Nin}2,对应输出图像位置是一个像素点:(i,j)∈{1,2,...,Nout}2,一般的,在卷积神经网络结构中,隐藏层中特征图像的长宽比例是1:1,因此上述公式中表示图像维度均为Nin 2或者是Nout 2。然后对输入图像进行分数阶的最大值池化处理,有:输入图像矩阵的维度为整数,确定最大值池化区域Ri,j:Ri,j=[ai-1,ai]×[bi-1,bi],其中,ai确定的方式为:ai=ceiling(α(i+u)),α∈(1,2),u∈(0,1),其中,i为像素点坐标,一般的ai-1-ai={1,2},bi-1-bi={1,2},通过上述公式确定的最大值池化区域之间的关系是相互重叠方式。经过上述过程之后,在最后一个Block之后,在本发明中,不使用传统的全连接层,使用平均池化层(Average Pooling)进行映射到分类的类别上面,具体步骤为:其中,n为一副特征图像转换为一维向量之后的维度。最后,通过sigmoid损失函数计算每一个类别上的概率值,具体为:按照上述步骤,替换最大值池化层为分数阶最大值池化层之后,训练的方法使用梯度反向传播算法,训练过程中,使网络结构不断地加宽。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710126994.5A CN106960243A (zh) | 2017-03-06 | 2017-03-06 | 一种改进卷积神经网络结构的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710126994.5A CN106960243A (zh) | 2017-03-06 | 2017-03-06 | 一种改进卷积神经网络结构的方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106960243A true CN106960243A (zh) | 2017-07-18 |
Family
ID=59470773
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710126994.5A Pending CN106960243A (zh) | 2017-03-06 | 2017-03-06 | 一种改进卷积神经网络结构的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106960243A (zh) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107480665A (zh) * | 2017-08-09 | 2017-12-15 | 北京小米移动软件有限公司 | 文字检测方法、装置及计算机可读存储介质 |
CN107609645A (zh) * | 2017-09-21 | 2018-01-19 | 百度在线网络技术(北京)有限公司 | 用于训练卷积神经网络的方法和装置 |
CN107819790A (zh) * | 2017-12-08 | 2018-03-20 | 中盈优创资讯科技有限公司 | 攻击报文的识别方法及装置 |
TWI636404B (zh) * | 2017-07-31 | 2018-09-21 | 財團法人工業技術研究院 | 深度神經網路、使用深度神經網路的方法與電腦可讀媒體 |
CN108960053A (zh) * | 2018-05-28 | 2018-12-07 | 北京陌上花科技有限公司 | 归一化处理方法及装置、客户端 |
CN109308319A (zh) * | 2018-08-21 | 2019-02-05 | 深圳中兴网信科技有限公司 | 文本分类方法、文本分类装置和计算机可读存储介质 |
WO2019041360A1 (zh) * | 2017-09-04 | 2019-03-07 | 华为技术有限公司 | 行人属性识别与定位方法以及卷积神经网络系统 |
CN109612708A (zh) * | 2018-12-28 | 2019-04-12 | 东北大学 | 基于改进卷积神经网络的电力变压器在线检测系统及方法 |
CN109766993A (zh) * | 2018-12-13 | 2019-05-17 | 浙江大学 | 一种适合硬件的卷积神经网络压缩方法 |
CN109948699A (zh) * | 2019-03-19 | 2019-06-28 | 北京字节跳动网络技术有限公司 | 用于生成特征图的方法和装置 |
CN109948700A (zh) * | 2019-03-19 | 2019-06-28 | 北京字节跳动网络技术有限公司 | 用于生成特征图的方法和装置 |
US10474925B2 (en) | 2017-07-31 | 2019-11-12 | Industrial Technology Research Institute | Deep neural network with side branches for recognizing and classifying media data and method for using the same |
WO2020062894A1 (en) * | 2018-09-25 | 2020-04-02 | Boe Technology Group Co., Ltd. | Computer-implemented method using convolutional neural network, apparatus for generating composite image, and computer-program product |
CN111033520A (zh) * | 2017-08-21 | 2020-04-17 | 诺基亚技术有限公司 | 用于模式识别的方法、系统及装置 |
US20210203900A1 (en) * | 2020-04-17 | 2021-07-01 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Image processing method and apparatus, electronic device and computer-readable storage medium |
WO2022051908A1 (en) * | 2020-09-08 | 2022-03-17 | Huawei Technologies Co., Ltd. | Normalization in deep convolutional neural networks |
WO2022100607A1 (zh) * | 2020-11-13 | 2022-05-19 | 华为技术有限公司 | 一种神经网络结构确定方法及其装置 |
CN117636253A (zh) * | 2023-11-30 | 2024-03-01 | 江苏圣创半导体科技有限公司 | 一种智能灯故障识别方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103927720A (zh) * | 2014-04-09 | 2014-07-16 | 厦门美图之家科技有限公司 | 一种天空图像的识别及优化方法 |
CN104992191A (zh) * | 2015-07-23 | 2015-10-21 | 厦门大学 | 基于深度学习的特征和最大置信路径的图像分类方法 |
CN105205448A (zh) * | 2015-08-11 | 2015-12-30 | 中国科学院自动化研究所 | 基于深度学习的文字识别模型训练方法和识别方法 |
-
2017
- 2017-03-06 CN CN201710126994.5A patent/CN106960243A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103927720A (zh) * | 2014-04-09 | 2014-07-16 | 厦门美图之家科技有限公司 | 一种天空图像的识别及优化方法 |
CN104992191A (zh) * | 2015-07-23 | 2015-10-21 | 厦门大学 | 基于深度学习的特征和最大置信路径的图像分类方法 |
CN105205448A (zh) * | 2015-08-11 | 2015-12-30 | 中国科学院自动化研究所 | 基于深度学习的文字识别模型训练方法和识别方法 |
Non-Patent Citations (3)
Title |
---|
BEN GRAHAM: "Fractional max-pooling", 《ICLR 2015》 * |
SERGEY IOFFE等: "Batch Normalization: Accelerating Deep Network Training by", 《ARXIV》 * |
SERGEY ZAGORUYKO: "Wide Residual Networks", 《ARXIV》 * |
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10474925B2 (en) | 2017-07-31 | 2019-11-12 | Industrial Technology Research Institute | Deep neural network with side branches for recognizing and classifying media data and method for using the same |
TWI636404B (zh) * | 2017-07-31 | 2018-09-21 | 財團法人工業技術研究院 | 深度神經網路、使用深度神經網路的方法與電腦可讀媒體 |
CN107480665A (zh) * | 2017-08-09 | 2017-12-15 | 北京小米移动软件有限公司 | 文字检测方法、装置及计算机可读存储介质 |
CN107480665B (zh) * | 2017-08-09 | 2020-08-11 | 北京小米移动软件有限公司 | 文字检测方法、装置及计算机可读存储介质 |
CN111033520A (zh) * | 2017-08-21 | 2020-04-17 | 诺基亚技术有限公司 | 用于模式识别的方法、系统及装置 |
CN111033520B (zh) * | 2017-08-21 | 2024-03-19 | 诺基亚技术有限公司 | 用于模式识别的方法、系统及装置 |
WO2019041360A1 (zh) * | 2017-09-04 | 2019-03-07 | 华为技术有限公司 | 行人属性识别与定位方法以及卷积神经网络系统 |
US11574187B2 (en) | 2017-09-04 | 2023-02-07 | Huawei Technologies Co., Ltd. | Pedestrian attribute identification and positioning method and convolutional neural network system |
CN107609645B (zh) * | 2017-09-21 | 2024-04-02 | 百度在线网络技术(北京)有限公司 | 用于训练卷积神经网络的方法和装置 |
CN107609645A (zh) * | 2017-09-21 | 2018-01-19 | 百度在线网络技术(北京)有限公司 | 用于训练卷积神经网络的方法和装置 |
CN107819790A (zh) * | 2017-12-08 | 2018-03-20 | 中盈优创资讯科技有限公司 | 攻击报文的识别方法及装置 |
CN108960053A (zh) * | 2018-05-28 | 2018-12-07 | 北京陌上花科技有限公司 | 归一化处理方法及装置、客户端 |
CN109308319A (zh) * | 2018-08-21 | 2019-02-05 | 深圳中兴网信科技有限公司 | 文本分类方法、文本分类装置和计算机可读存储介质 |
WO2020062894A1 (en) * | 2018-09-25 | 2020-04-02 | Boe Technology Group Co., Ltd. | Computer-implemented method using convolutional neural network, apparatus for generating composite image, and computer-program product |
US11227364B2 (en) | 2018-09-25 | 2022-01-18 | Boe Technology Group Co., Ltd. | Computer-implemented method using convolutional neural network, apparatus for generating composite image, and computer-program product |
CN109766993A (zh) * | 2018-12-13 | 2019-05-17 | 浙江大学 | 一种适合硬件的卷积神经网络压缩方法 |
CN109612708B (zh) * | 2018-12-28 | 2021-03-16 | 东北大学 | 基于改进卷积神经网络的电力变压器在线检测系统及方法 |
CN109612708A (zh) * | 2018-12-28 | 2019-04-12 | 东北大学 | 基于改进卷积神经网络的电力变压器在线检测系统及方法 |
CN109948700B (zh) * | 2019-03-19 | 2020-07-24 | 北京字节跳动网络技术有限公司 | 用于生成特征图的方法和装置 |
CN109948700A (zh) * | 2019-03-19 | 2019-06-28 | 北京字节跳动网络技术有限公司 | 用于生成特征图的方法和装置 |
CN109948699B (zh) * | 2019-03-19 | 2020-05-15 | 北京字节跳动网络技术有限公司 | 用于生成特征图的方法和装置 |
CN109948699A (zh) * | 2019-03-19 | 2019-06-28 | 北京字节跳动网络技术有限公司 | 用于生成特征图的方法和装置 |
US11930307B2 (en) * | 2020-04-17 | 2024-03-12 | Beijing Baidu Netcom Science Technology Co., Ltd. | Image processing method and apparatus, electronic device and computer-readable storage medium |
US20210203900A1 (en) * | 2020-04-17 | 2021-07-01 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Image processing method and apparatus, electronic device and computer-readable storage medium |
WO2022051908A1 (en) * | 2020-09-08 | 2022-03-17 | Huawei Technologies Co., Ltd. | Normalization in deep convolutional neural networks |
WO2022100607A1 (zh) * | 2020-11-13 | 2022-05-19 | 华为技术有限公司 | 一种神经网络结构确定方法及其装置 |
CN117636253A (zh) * | 2023-11-30 | 2024-03-01 | 江苏圣创半导体科技有限公司 | 一种智能灯故障识别方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106960243A (zh) | 一种改进卷积神经网络结构的方法 | |
CN107909101B (zh) | 基于卷积神经网络的半监督迁移学习字符识别方法及系统 | |
CN106874956B (zh) | 图像分类卷积神经网络结构的构建方法 | |
CN108288035A (zh) | 基于深度学习的多通道图像特征融合的人体动作识别方法 | |
CN110059740A (zh) | 一种针对嵌入式移动端的深度学习语义分割模型压缩方法 | |
CN108830813A (zh) | 一种基于知识蒸馏的图像超分辨率增强方法 | |
CN108596138A (zh) | 一种基于迁移层次网络的人脸识别方法 | |
CN107358293A (zh) | 一种神经网络训练方法及装置 | |
CN104463209A (zh) | 一种基于bp神经网络的pcb板上数字代码识别方法 | |
CN108492248A (zh) | 基于深度学习的深度图超分辨率方法 | |
CN106778682A (zh) | 一种卷积神经网络模型的训练方法及其设备 | |
CN109902548A (zh) | 一种对象属性识别方法、装置、计算设备及系统 | |
CN112489164B (zh) | 基于改进深度可分离卷积神经网络的图像着色方法 | |
CN106503729A (zh) | 一种基于顶层权值的图像卷积特征的生成方法 | |
CN110458765A (zh) | 基于感知保持卷积网络的图像质量增强方法 | |
CN107609638A (zh) | 一种基于线性解码器和插值采样优化卷积神经网络的方法 | |
CN109920012A (zh) | 基于卷积神经网络的图像着色系统及方法 | |
CN107016415A (zh) | 一种基于全卷积网络的彩色图像色彩语义分类方法 | |
CN107292352A (zh) | 基于卷积神经网络的图像分类方法和装置 | |
CN112634238B (zh) | 一种基于注意力模块的图像质量评价方法 | |
CN109711401A (zh) | 一种基于Faster Rcnn的自然场景图像中的文本检测方法 | |
CN109886391A (zh) | 一种基于空间正反对角卷积的神经网络压缩方法 | |
CN110245747A (zh) | 基于全卷积神经网络的图像处理方法及装置 | |
CN108491863A (zh) | 基于非负矩阵分解和卷积神经网络的彩色图像处理方法 | |
CN114758180B (zh) | 一种基于知识蒸馏的轻量化花卉识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170718 |
|
RJ01 | Rejection of invention patent application after publication |