CN107844795A - 基于主成分分析的卷积神经网络特征提取方法 - Google Patents

基于主成分分析的卷积神经网络特征提取方法 Download PDF

Info

Publication number
CN107844795A
CN107844795A CN201711150897.6A CN201711150897A CN107844795A CN 107844795 A CN107844795 A CN 107844795A CN 201711150897 A CN201711150897 A CN 201711150897A CN 107844795 A CN107844795 A CN 107844795A
Authority
CN
China
Prior art keywords
mrow
msub
convolutional neural
characteristic
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201711150897.6A
Other languages
English (en)
Other versions
CN107844795B (zh
Inventor
曹铁勇
方正
张雄伟
郑云飞
杨吉斌
孙蒙
赵斐
黄辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Army Engineering University of PLA
Original Assignee
Army Engineering University of PLA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Army Engineering University of PLA filed Critical Army Engineering University of PLA
Priority to CN201711150897.6A priority Critical patent/CN107844795B/zh
Publication of CN107844795A publication Critical patent/CN107844795A/zh
Application granted granted Critical
Publication of CN107844795B publication Critical patent/CN107844795B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于主成分分析的卷积神经网络特征提取方法,该方法首先选取了在Imagenet数据集上已经训练好的卷积神经网络,将该网络作为图像的特征提取器,然后从该卷积神经网络的每个池化层的输出中提取特征映射图,最后将提取的每层所有特征映射图做为图像的深度特征,利用了主成分分析,对其进行了降维,并利用双线性插值法,将最后的结果特征映射图重置到原图像大小,得到了高效的图像深度特征。本发明得到的深度特征,含有图像丰富的语义信息,且特征维度低,数据量小,可用于图像的各种识别和分类任务。

Description

基于主成分分析的卷积神经网络特征提取方法
技术领域
本发明属于图像信号处理技术领域,特别是一种基于主成分分析的卷积神经网络特征提取方法。
背景技术
在图像的识别、分类以及检测任务中,传统的机器学习的方法都是基于图像的低级手工特征,即直接能从图像中提取的特征。如颜色特征、纹理特征以及直方图特征,这些特征针对内容简单的图像,能有很好的效果,但是遇到内容复杂图像时,手工特征不能有效表征图像性质,用这些手工特征训练出来的模型鲁棒性较差。传统的图像特征更多的是针对特定的问题,进行专门的人工设定,这种方法泛化能力弱,可移植性差,准确度相对较差。
随着深度学习的兴起,卷积神经网络(CNN)在图像识别和分类任务中表现十分优异,卷积神经网络发展很快,人们在研究其中间层的输出时发现这些输出也可以作为表示图像的特征,并且隐藏层越深,其输出中的语义信息更丰富,这是从传统手工特征无法获得的高级图像特征。这些从学习到的网络模型中提取的特征简称为深度特征。深度特征相比低级的手工特征鲁棒性更好,在面对低对比度图像以及复杂图像时同样能很好地表征图像内容。所以人们开始将CNN中提取的深度特征用于传统的机器学习中,获得了显著的效果。应用有图像显著性目标检测(Zou W,Komodakis N.Harf:Hierarchy-associated richfeatures for salient object detection[C]//Proceedings of the IEEEInternational Conference on Computer Vision.2015:406-414.),目标检测(GirshickR,Donahue J,Darrell T,et al.Rich feature hierarchies for accurate objectdetection and semantic segmentation[C]//Proceedings of the IEEE conference oncomputer vision and pattern recognition.2014:580-587.),视觉识别(Donahue J,JiaY,Vinyals O,et al.Decaf:A deep convolutional activation feature for genericvisual recognition[C]//International conference on machine learning.2014:647-655.)等领域,典型的有:
(1)图像显著性检测:图像的显著性检测目的是找出图像中的显著前景目标,其方法一般有自底向上的和自顶向下两种。大部分模型都是自底向上的方法,根据像素或者超像素的各种特征来判断显著性目标。已有人开始将深度特征以及手工特征融合后用于显著性检测,相比只有手工特征的模型,性能有了极大的提升。
(2)目标检测:不同于显著性目标检测,目标检测是检测图像中指定的目标,并且一个图像中可能有多个需要定位的目标。传统方法使用手工特征,提取过程复杂,且高度依赖具体任务,可移植性差。CNN特征含有丰富语义信息,对一定程度扭曲变形也有很强的鲁棒性,通过加入CNN特征,同样使目标检测的性能有了很大提升。
但是在之前的卷积神经网络深度特征提取中,未对深度特征进行处理,直接利用、提取卷积神经网络中的深度特征,未做任何处理就应用到图像处理或者计算机视觉任务中。这样的特征存在两个主要缺点一是维度高,二是含有很多噪声。这对后续使用这些特征带来了问题,比如在显著性检测或者目标检测中,如果特征维度太高,会增加模型的复杂度和计算量。而原始特征中的噪声,则会影响模型的准确性。利用主成分对该特征进行降维时,主要问题在于特征向量的选取,因为图像是二维向量,而主成分只能对一维特征向量进行降维,所以,特征向量的选择同样影响降维结果。
发明内容
本发明的目的在于提供一种基于主成分分析的卷积神经网络特征提取方法,解决了原始特征向量的提取问题,使该特征在图像处理或计算机视觉任务中更易于利用。
实现本发明目的的技术解决方案为:一种基于主成分分析的卷积神经网络特征提取方法,包括如下步骤:
(1)选取卷积神经网络,在Imagenet数据集上进行图像分类训练或者选择已经训练好的卷积神经网络,去掉卷积神经网络的全连接层与softmax层;
(2)选取要提取特征的图像,根据选取的卷积神经网络,将图像按照对应卷积神经网络要求进行归一化处理,并将其大小调整至网络所要求的输入大小,输入卷积神经网络进行前向运算;
(3)图像经过卷积神经网络前向运算后,提取网络中所有池化层的输出,作为深度特征映射图;
(4)将每个池化层中提取出来的深度特征映射图叠加,其中每个像素得到一个高维特征向量,维数就是该池化层中提取的深度特征映射图的个数,对所有这些特征向量,利用主成分分析进行降维,将降维得到的所有特征映射图进行双线性插值,重置到原输入图像大小,得到降维后的深度特征。
本发明与现有技术相比,其显著优点:(1)主要解决了直接提取的卷积神经网络特征维度高以及噪声较多的问题。同时,通过将每个中间层所有的特征图堆叠,将所有特征图中的每个对应像素组成一维特征向量,再使用主成分分析进行降维,解决了原始特征向量的提取问题,使该特征在图像处理或计算机视觉任务中更易于利用。(2)极大地减少了深度特征维度,提取了其中有效信息,使深度特征更加高效。比如对VGG(Simonyan K,ZissermanA.Very deep convolutional networks for large-scale image recognition[J].arXivpreprint arXiv:1409.1556,2014.)卷积神经网络,如果使用其5个池化层中所有输出作为特征,那对每个图像,就会有1472个特征图,而经过本专利的方法降维后,特征图减少为15个,极大地降低了特征维数,且消除了其中的噪声。(3)得到的深度特征含有图像丰富的语义信息,且特征维度低,数据量小,可用于图像的各种识别和分类任务。
下面结合附图对本发明作进一步详细描述。
附图说明
图1是本发明基于主成分分析的卷积神经网络特征提取方法流程图。
图2是本发明利用主成分分析从卷积神经网络中提取特征的示意图。
图3是本发明利用双线性插值法得到与原图像同样大小的特征图的示意图。
具体实施方式
结合图1,本发明基于主成分分析的卷积神经网络特征提取方法,利用主成分分析对卷积神经网络中间层特征进行处理得到降维后的特征,即经过卷积神经网络,从图像中提取高效精炼的深度特征,步骤如下:
1.选取卷积神经网络类型,在Imagenet数据集上进行图像分类训练,也可以选择已经训练好的卷积神经网络模型,去掉该卷积神经网络的全连接层与softmax层。
2.选取要提取特征的图像,根据选取的卷积神经网络,将图像按照对应卷积神经网络要求进行归一化处理,并将其大小调整至网络所要求的输入大小,输入卷积神经网络进行前向运算。
3.图像经过卷积神经网络前向运算后,提取网络中所有池化层的输出,作为深度特征映射图。
4.将每个池化层中提取出来的深度特征映射图叠加,其中每个像素得到一个高维特征向量,维数就是该池化层中提取的深度特征映射图的个数,对所有这些特征向量,利用主成分分析进行降维,最后将降维得到的所有特征映射图进行双线性插值,重置到原输入图像大小,得到降维后的深度特征。
如图2所示,所述步骤4中的主成分分析对深度特征降维过程如下:
(1)设某一池化层中得到的所有输出特征映射图集合为I={I1,I2,…Im},其中m为特征映射图的个数,该层特征映射图的大小为a*b。
(2)将所有特征映射图进行叠加,特征映射图中的每个像素对应一个m维的特征向量,得到a*b=c个m维的特征向量。特征向量记为Xi,i∈[1,c]。由所有特征向量组成的特征矩阵记为X,X={X1,…Xc}。
(3)对每个特征向量Xi,首先求该特征向量的平均值,对所有特征向量,都减去该向量对应的平均值。
(4)计算所有特征向量的协方差矩阵C:
(5)计算特征协方差矩阵C的所有特征向量α以及特征值λ(假设有n个):
α={α12,…αn},λ={λ12,…λn}
(6)将特征值按照从大到小的顺序排序,选取最大的前k个,然后选择这k个特征值对应的特征向量组成变换矩阵T:
其中,{t1…tk}是n个特征值中前k个最大的特征值的序号。
(7)将原始特征矩阵X与变换矩阵T相乘,得到降维后的特征矩阵P,降维后的特征向量记为Xpi
P=T*X={Xp1,…,Xpc}
如图3所示,所述步骤4中将原始特征图重置到原始输入图像大小的双线性插值法的步骤如下:
(1)假设某层卷积神经网络的输出映射图经过主成分分析得到的特征图大小为a*b,原输入图像大小为M*N。为了让每个像素点就可以对应一个深度特征的值,将该特征图大小重置到与原图像大小相同。原图中的像素点与特征图中的值一一对应。
(2)两幅图像的边长比分别为:M/a和N/b。目标图像的第(i,j)个像素点(i行j列)可以通过边长比对应回源图像,其对应坐标为(i*M/a,j*N/b)。对应坐标一般来说不是整数,双线性插值通过寻找距离这个对应坐标最近的四个像素点,来计算该点的值。假设特征映射图为I,要得到一个与原输入图像大小的映射图I’,要得到目标图像I’在点O=(x,y)处的值,假设已知图像I点Q11=(x1,y1),Q12=(x1,y2)Q21=(x2,y1)Q22=(x2,y2),首先在x方向的插值:
然后在y方向插值:
则I’(x,y)为

Claims (3)

1.一种基于主成分分析的卷积神经网络特征提取方法,其特征在于经过卷积神经网络,从图像中提取高效精炼的深度特征,包括如下步骤:
(1)选取卷积神经网络类型,在Imagenet数据集上进行图像分类训练或者选择已经训练好的卷积神经网络模型,去掉该卷积神经网络的全连接层与softmax层;
(2)选取要提取特征的图像,根据选取的卷积神经网络,将图像按照对应卷积神经网络要求进行归一化处理,并将其大小调整至网络所要求的输入大小,输入卷积神经网络进行前向运算;
(3)图像经过卷积神经网络前向运算后,提取网络中所有池化层的输出,作为深度特征映射图;
(4)将每个池化层中提取出来的深度特征映射图叠加,其中每个像素得到一个高维特征向量,维数就是该池化层中提取的深度特征映射图的个数,对所有这些特征向量,利用主成分分析进行降维,将降维得到的所有特征映射图进行双线性插值,重置到原输入图像大小,得到降维后的深度特征。
2.根据权利要求1所述的基于主成分分析的卷积神经网络特征提取方法,其特征在于步骤(4)中主成分分析对深度特征降维处理过程如下:
(1)设某一池化层中得到的所有输出特征映射图集合为I={I1,I2,…Im},其中m为特征映射图的个数,该层特征映射图的大小为a*b;
(2)将所有特征映射图进行叠加,特征映射图中的每个像素对应一个m维的特征向量,得到a*b=c个m维的特征向量,特征向量记为Xi,i∈[1,c],由所有特征向量组成的特征矩阵记为X,X={X1,…Xc};
(3)对每个特征向量Xi,首先求该特征向量的平均值,对所有特征向量都减去该向量对应的平均值;
(4)计算所有特征向量的协方差矩阵C:
<mrow> <mi>C</mi> <mo>=</mo> <mfenced open = "(" close = ")"> <mtable> <mtr> <mtd> <mrow> <mi>cov</mi> <mrow> <mo>(</mo> <msub> <mi>X</mi> <mn>1</mn> </msub> <mo>,</mo> <msub> <mi>X</mi> <mn>1</mn> </msub> <mo>)</mo> </mrow> <mn>......</mn> <mi>cov</mi> <mrow> <mo>(</mo> <msub> <mi>X</mi> <mn>1</mn> </msub> <mo>,</mo> <msub> <mi>X</mi> <mi>c</mi> </msub> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mn>.....................................</mn> </mtd> </mtr> <mtr> <mtd> <mn>.....................................</mn> </mtd> </mtr> <mtr> <mtd> <mn>.....................................</mn> </mtd> </mtr> <mtr> <mtd> <mrow> <mi>cov</mi> <mrow> <mo>(</mo> <msub> <mi>X</mi> <mi>c</mi> </msub> <mo>,</mo> <msub> <mi>X</mi> <mn>1</mn> </msub> <mo>)</mo> </mrow> <mn>......</mn> <mi>cov</mi> <mrow> <mo>(</mo> <msub> <mi>X</mi> <mi>c</mi> </msub> <mo>,</mo> <msub> <mi>X</mi> <mi>c</mi> </msub> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow>
(5)计算特征协方差矩阵C的所有特征向量α以及特征值λ,假设有n个:
α={α12,…αn},λ={λ12,…λn}
(6)将特征值按照从大到小的顺序排序,选取最大的前k个,然后选择这k个特征值对应的特征向量组成变换矩阵T:
<mrow> <mi>T</mi> <mo>=</mo> <mrow> <mo>(</mo> <msub> <mi>&amp;alpha;</mi> <msub> <mi>t</mi> <mn>1</mn> </msub> </msub> <mo>,</mo> <msub> <mi>&amp;alpha;</mi> <msub> <mi>t</mi> <mn>2</mn> </msub> </msub> <mo>...</mo> <mo>,</mo> <msub> <mi>&amp;alpha;</mi> <msub> <mi>t</mi> <mi>k</mi> </msub> </msub> <mo>)</mo> </mrow> </mrow>
其中,{t1…tk}是n个特征值中前k个最大的特征值的序号;
(7)将原始特征矩阵X与变换矩阵T相乘,得到降维后的特征矩阵P,降维后的特征向量记为Xpi
P=T*X={Xp1,…,Xpc}
3.根据权利要求1所述的基于主成分分析的卷积神经网络特征提取方法,其特征在于步骤(4)中结果特征映射图双线性插值的处理过程:
(1)假设某层卷积神经网络的输出映射图经过主成分分析得到的特征图大小为a*b,原输入图像大小为M*N;
(2)两幅图像的边长比分别为:M/a和N/b,目标图像的第(i,j)个像素点通过边长比对应回源图像,其对应坐标为(i*M/a,j*N/b);双线性插值通过寻找距离这个对应坐标最近的四个像素点,来计算该点的值;假设特征映射图为I,要得到一个与原输入图像大小的映射图I’,要得到目标图像I’在点O=(x,y)处的值,假设已知图像I点Q11=(x1,y1),Q12=(x1,y2)Q21=(x2,y1)Q22=(x2,y2),根据双线性插值法,I’(x,y)为
<mfenced open = "" close = ""> <mtable> <mtr> <mtd> <mrow> <msup> <mi>I</mi> <mo>&amp;prime;</mo> </msup> <mrow> <mo>(</mo> <mrow> <mi>x</mi> <mo>,</mo> <mi>y</mi> </mrow> <mo>)</mo> </mrow> <mo>&amp;ap;</mo> <mfrac> <mrow> <mi>I</mi> <mrow> <mo>(</mo> <msub> <mi>Q</mi> <mn>11</mn> </msub> <mo>)</mo> </mrow> </mrow> <mrow> <mrow> <mo>(</mo> <mrow> <msub> <mi>x</mi> <mn>2</mn> </msub> <mo>-</mo> <msub> <mi>x</mi> <mn>1</mn> </msub> </mrow> <mo>)</mo> </mrow> <mrow> <mo>(</mo> <mrow> <msub> <mi>y</mi> <mn>2</mn> </msub> <mo>-</mo> <msub> <mi>y</mi> <mn>1</mn> </msub> </mrow> <mo>)</mo> </mrow> </mrow> </mfrac> <mrow> <mo>(</mo> <mrow> <msub> <mi>x</mi> <mn>2</mn> </msub> <mo>-</mo> <mi>x</mi> </mrow> <mo>)</mo> </mrow> <mrow> <mo>(</mo> <mrow> <msub> <mi>y</mi> <mn>2</mn> </msub> <mo>-</mo> <mi>y</mi> </mrow> <mo>)</mo> </mrow> <mo>+</mo> <mfrac> <mrow> <mi>I</mi> <mrow> <mo>(</mo> <msub> <mi>Q</mi> <mn>21</mn> </msub> <mo>)</mo> </mrow> </mrow> <mrow> <mrow> <mo>(</mo> <mrow> <msub> <mi>x</mi> <mn>2</mn> </msub> <mo>-</mo> <msub> <mi>x</mi> <mn>1</mn> </msub> </mrow> <mo>)</mo> </mrow> <mrow> <mo>(</mo> <mrow> <msub> <mi>y</mi> <mn>2</mn> </msub> <mo>-</mo> <msub> <mi>y</mi> <mn>1</mn> </msub> </mrow> <mo>)</mo> </mrow> </mrow> </mfrac> <mrow> <mo>(</mo> <mrow> <mi>x</mi> <mo>-</mo> <msub> <mi>x</mi> <mn>1</mn> </msub> </mrow> <mo>)</mo> </mrow> <mrow> <mo>(</mo> <mrow> <msub> <mi>y</mi> <mn>2</mn> </msub> <mo>-</mo> <mi>y</mi> </mrow> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>+</mo> <mfrac> <mrow> <mi>I</mi> <mrow> <mo>(</mo> <msub> <mi>Q</mi> <mn>12</mn> </msub> <mo>)</mo> </mrow> </mrow> <mrow> <mrow> <mo>(</mo> <mrow> <msub> <mi>x</mi> <mn>2</mn> </msub> <mo>-</mo> <msub> <mi>x</mi> <mn>1</mn> </msub> </mrow> <mo>)</mo> </mrow> <mrow> <mo>(</mo> <mrow> <msub> <mi>y</mi> <mn>2</mn> </msub> <mo>-</mo> <msub> <mi>y</mi> <mn>1</mn> </msub> </mrow> <mo>)</mo> </mrow> </mrow> </mfrac> <mrow> <mo>(</mo> <mrow> <msub> <mi>x</mi> <mn>2</mn> </msub> <mo>-</mo> <mi>x</mi> </mrow> <mo>)</mo> </mrow> <mrow> <mo>(</mo> <mrow> <mi>y</mi> <mo>-</mo> <msub> <mi>y</mi> <mn>1</mn> </msub> </mrow> <mo>)</mo> </mrow> <mo>+</mo> <mfrac> <mrow> <mi>I</mi> <mrow> <mo>(</mo> <msub> <mi>Q</mi> <mn>22</mn> </msub> <mo>)</mo> </mrow> </mrow> <mrow> <mrow> <mo>(</mo> <mrow> <msub> <mi>x</mi> <mn>2</mn> </msub> <mo>-</mo> <msub> <mi>x</mi> <mn>1</mn> </msub> </mrow> <mo>)</mo> </mrow> <mrow> <mo>(</mo> <mrow> <msub> <mi>y</mi> <mn>2</mn> </msub> <mo>-</mo> <msub> <mi>y</mi> <mn>1</mn> </msub> </mrow> <mo>)</mo> </mrow> </mrow> </mfrac> <mrow> <mo>(</mo> <mrow> <mi>x</mi> <mo>-</mo> <msub> <mi>x</mi> <mn>1</mn> </msub> </mrow> <mo>)</mo> </mrow> <mrow> <mo>(</mo> <mrow> <mi>y</mi> <mo>-</mo> <msub> <mi>y</mi> <mn>1</mn> </msub> </mrow> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> </mtable> </mfenced>
CN201711150897.6A 2017-11-18 2017-11-18 基于主成分分析的卷积神经网络特征提取方法 Active CN107844795B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711150897.6A CN107844795B (zh) 2017-11-18 2017-11-18 基于主成分分析的卷积神经网络特征提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711150897.6A CN107844795B (zh) 2017-11-18 2017-11-18 基于主成分分析的卷积神经网络特征提取方法

Publications (2)

Publication Number Publication Date
CN107844795A true CN107844795A (zh) 2018-03-27
CN107844795B CN107844795B (zh) 2018-09-04

Family

ID=61679130

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711150897.6A Active CN107844795B (zh) 2017-11-18 2017-11-18 基于主成分分析的卷积神经网络特征提取方法

Country Status (1)

Country Link
CN (1) CN107844795B (zh)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108717569A (zh) * 2018-05-16 2018-10-30 中国人民解放军陆军工程大学 一种膨胀全卷积神经网络及其构建方法
CN108830296A (zh) * 2018-05-18 2018-11-16 河海大学 一种改进的基于深度学习的高分遥感影像分类方法
CN109040747A (zh) * 2018-08-06 2018-12-18 上海交通大学 基于卷积自编码器的立体图像舒适度质量评价方法及系统
CN109102010A (zh) * 2018-07-27 2018-12-28 北京以萨技术股份有限公司 一种基于双向神经网络结构的图像分类方法
CN109753581A (zh) * 2018-11-30 2019-05-14 北京拓尔思信息技术股份有限公司 图像处理方法、装置、电子设备和存储介质
CN109858496A (zh) * 2019-01-17 2019-06-07 广东工业大学 一种基于加权深度特征的图像特征提取方法
CN110503149A (zh) * 2019-08-26 2019-11-26 咪咕文化科技有限公司 一种图像中局部特征分类方法及系统
CN110516687A (zh) * 2019-08-07 2019-11-29 北京工业大学 一种基于图像融合和改进ResNet的图像识别方法
CN110633595A (zh) * 2018-06-21 2019-12-31 北京京东尚科信息技术有限公司 一种利用双线性插值的目标检测方法和装置
CN111200716A (zh) * 2020-01-08 2020-05-26 珠海亿智电子科技有限公司 特征映射缩放的精度补偿方法、系统及存储介质
CN111291716A (zh) * 2020-02-28 2020-06-16 深圳大学 精子细胞识别方法、装置、计算机设备和存储介质
CN112655003A (zh) * 2018-09-05 2021-04-13 赛多利斯司特蒂姆数据分析公司 用于细胞图像的分析的计算机实现的方法、计算机程序产品以及系统
CN112669218A (zh) * 2021-01-21 2021-04-16 深圳市爱培科技术股份有限公司 一种平面360度全景图像拼接方法及装置
CN112669219A (zh) * 2021-01-21 2021-04-16 深圳市爱培科技术股份有限公司 一种立体360度全景图像拼接方法及装置
CN113049922A (zh) * 2020-04-22 2021-06-29 青岛鼎信通讯股份有限公司 一种采用卷积神经网络的故障电弧信号检测方法
CN113556439A (zh) * 2021-06-08 2021-10-26 中国人民解放军战略支援部队信息工程大学 基于特征分量相关性的Rich Model隐写检测特征选取方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104616032A (zh) * 2015-01-30 2015-05-13 浙江工商大学 基于深度卷积神经网络的多摄像机系统目标匹配方法
US20160283841A1 (en) * 2015-03-27 2016-09-29 Google Inc. Convolutional neural networks
US20170200092A1 (en) * 2016-01-11 2017-07-13 International Business Machines Corporation Creating deep learning models using feature augmentation
CN107133496A (zh) * 2017-05-19 2017-09-05 浙江工业大学 基于流形学习与闭环深度卷积双网络模型的基因特征提取方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104616032A (zh) * 2015-01-30 2015-05-13 浙江工商大学 基于深度卷积神经网络的多摄像机系统目标匹配方法
US20160283841A1 (en) * 2015-03-27 2016-09-29 Google Inc. Convolutional neural networks
US20170200092A1 (en) * 2016-01-11 2017-07-13 International Business Machines Corporation Creating deep learning models using feature augmentation
CN107133496A (zh) * 2017-05-19 2017-09-05 浙江工业大学 基于流形学习与闭环深度卷积双网络模型的基因特征提取方法

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108717569A (zh) * 2018-05-16 2018-10-30 中国人民解放军陆军工程大学 一种膨胀全卷积神经网络及其构建方法
CN108717569B (zh) * 2018-05-16 2022-03-22 中国人民解放军陆军工程大学 一种膨胀全卷积神经网络装置及其构建方法
CN108830296A (zh) * 2018-05-18 2018-11-16 河海大学 一种改进的基于深度学习的高分遥感影像分类方法
CN108830296B (zh) * 2018-05-18 2021-08-10 河海大学 一种改进的基于深度学习的高分遥感影像分类方法
CN110633595A (zh) * 2018-06-21 2019-12-31 北京京东尚科信息技术有限公司 一种利用双线性插值的目标检测方法和装置
CN110633595B (zh) * 2018-06-21 2022-12-02 北京京东尚科信息技术有限公司 一种利用双线性插值的目标检测方法和装置
CN109102010A (zh) * 2018-07-27 2018-12-28 北京以萨技术股份有限公司 一种基于双向神经网络结构的图像分类方法
CN109102010B (zh) * 2018-07-27 2021-06-04 北京以萨技术股份有限公司 一种基于双向神经网络结构的图像分类方法
CN109040747A (zh) * 2018-08-06 2018-12-18 上海交通大学 基于卷积自编码器的立体图像舒适度质量评价方法及系统
CN112655003A (zh) * 2018-09-05 2021-04-13 赛多利斯司特蒂姆数据分析公司 用于细胞图像的分析的计算机实现的方法、计算机程序产品以及系统
CN109753581A (zh) * 2018-11-30 2019-05-14 北京拓尔思信息技术股份有限公司 图像处理方法、装置、电子设备和存储介质
CN109858496A (zh) * 2019-01-17 2019-06-07 广东工业大学 一种基于加权深度特征的图像特征提取方法
CN110516687A (zh) * 2019-08-07 2019-11-29 北京工业大学 一种基于图像融合和改进ResNet的图像识别方法
CN110503149A (zh) * 2019-08-26 2019-11-26 咪咕文化科技有限公司 一种图像中局部特征分类方法及系统
CN110503149B (zh) * 2019-08-26 2022-06-14 咪咕文化科技有限公司 一种图像中局部特征分类方法及系统
CN111200716B (zh) * 2020-01-08 2021-10-26 珠海亿智电子科技有限公司 特征映射缩放的精度补偿方法、系统及存储介质
CN111200716A (zh) * 2020-01-08 2020-05-26 珠海亿智电子科技有限公司 特征映射缩放的精度补偿方法、系统及存储介质
CN111291716A (zh) * 2020-02-28 2020-06-16 深圳大学 精子细胞识别方法、装置、计算机设备和存储介质
CN111291716B (zh) * 2020-02-28 2024-01-05 深圳市瑞图生物技术有限公司 精子细胞识别方法、装置、计算机设备和存储介质
CN113049922A (zh) * 2020-04-22 2021-06-29 青岛鼎信通讯股份有限公司 一种采用卷积神经网络的故障电弧信号检测方法
CN113049922B (zh) * 2020-04-22 2022-11-15 青岛鼎信通讯股份有限公司 一种采用卷积神经网络的故障电弧信号检测方法
CN112669219A (zh) * 2021-01-21 2021-04-16 深圳市爱培科技术股份有限公司 一种立体360度全景图像拼接方法及装置
CN112669218A (zh) * 2021-01-21 2021-04-16 深圳市爱培科技术股份有限公司 一种平面360度全景图像拼接方法及装置
CN113556439A (zh) * 2021-06-08 2021-10-26 中国人民解放军战略支援部队信息工程大学 基于特征分量相关性的Rich Model隐写检测特征选取方法

Also Published As

Publication number Publication date
CN107844795B (zh) 2018-09-04

Similar Documents

Publication Publication Date Title
CN107844795B (zh) 基于主成分分析的卷积神经网络特征提取方法
CN109543606B (zh) 一种加入注意力机制的人脸识别方法
Hu et al. Learning supervised scoring ensemble for emotion recognition in the wild
US11830230B2 (en) Living body detection method based on facial recognition, and electronic device and storage medium
CN108537743B (zh) 一种基于生成对抗网络的面部图像增强方法
CN104573731B (zh) 基于卷积神经网络的快速目标检测方法
CN108510012A (zh) 一种基于多尺度特征图的目标快速检测方法
CN110738207A (zh) 一种融合文字图像中文字区域边缘信息的文字检测方法
CN108492248A (zh) 基于深度学习的深度图超分辨率方法
CN107316031A (zh) 用于行人重识别的图像特征提取方法
CN106096602A (zh) 一种基于卷积神经网络的中文车牌识别方法
CN109190643A (zh) 基于卷积神经网络中药识别方法及电子设备
CN112070158B (zh) 一种基于卷积神经网络和双边滤波的面部瑕疵检测方法
CN106204779A (zh) 基于多人脸数据采集策略和深度学习的课堂考勤方法
CN107808129A (zh) 一种基于单个卷积神经网络的面部多特征点定位方法
CN108108746A (zh) 基于Caffe深度学习框架的车牌字符识别方法
CN110827312B (zh) 一种基于协同视觉注意力神经网络的学习方法
CN107944459A (zh) 一种rgb‑d物体识别方法
CN109359527B (zh) 基于神经网络的头发区域提取方法及系统
CN111881716A (zh) 一种基于多视角生成对抗网络的行人重识别方法
Zhang et al. Channel-wise and feature-points reweights densenet for image classification
CN106650798A (zh) 一种结合深度学习与稀疏表示的室内场景识别方法
CN110751271B (zh) 一种基于深度神经网络的图像溯源特征表征方法
Zheng et al. Differential-evolution-based generative adversarial networks for edge detection
CN114596608B (zh) 一种基于多线索的双流视频人脸伪造检测方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant