CN110210562B - 基于深度网络和稀疏Fisher矢量的图像分类方法 - Google Patents

基于深度网络和稀疏Fisher矢量的图像分类方法 Download PDF

Info

Publication number
CN110210562B
CN110210562B CN201910473936.9A CN201910473936A CN110210562B CN 110210562 B CN110210562 B CN 110210562B CN 201910473936 A CN201910473936 A CN 201910473936A CN 110210562 B CN110210562 B CN 110210562B
Authority
CN
China
Prior art keywords
layer
image
neural network
deep neural
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910473936.9A
Other languages
English (en)
Other versions
CN110210562A (zh
Inventor
田小林
王凤鸽
张杨
张�杰
孟令研
焦李成
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN201910473936.9A priority Critical patent/CN110210562B/zh
Publication of CN110210562A publication Critical patent/CN110210562A/zh
Application granted granted Critical
Publication of CN110210562B publication Critical patent/CN110210562B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/513Sparse representations

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出了一种基于深度网络和稀疏Fisher矢量的图像分类方法,旨在解决现有技术中存在的的准确率较低的技术问题,实现步骤为:获取训练数据集和待分类数据集;构建深度神经网络A,对深度神经网络A进行训练,得到深度神经网络B;提取深度神经网络B中第二个全连接层的图像特征,对特征建立高斯混合模型Z1,然后对Z1中的特征向量进行稀疏Fisher矢量编码;用稀疏Fisher编码后的特征对应的图像对深度神经网络B进行训练,得到深度神经网络C;将待分类数据集输入深度神经网络C进行图像分类。本发明提高了分类的准确率和分类效率,可用于对医疗和交通等领域图像的分类。

Description

基于深度网络和稀疏Fisher矢量的图像分类方法
技术领域
本发明属于计算机视觉技术领域,涉及一种图像分类方法,具体涉及一种基于深度网络和稀疏Fisher矢量的图像分类方法,可用于对医疗,交通等图像进行分类。
背景技术
随着互联网技术的进步,图像作为人的感官中最重要的表达方式之一,每天都产生着大量的数据。如何让用户精确地找到需要的图像成为了互联网公司和科研机构的研究重点。而对于计算机视觉来说,图像分类任务一直是研究的热点问题。研究图像分类,能解决人们在生活中或者工作中的诸多现实问题。比如淘宝购物的物品分类,医院的癌变细胞的检测等。目前,常用的图像分类方法两大类:基于传统方法提取图像特征图像分类方法、基于深度学习的图像分类方法。
Yan S,Xu X以及Xu D在其发表的论文“Beyond Spatial Pyramids:A NewFeature Extraction Framework with Dense Spatial Sampling for ImageClassification”(Berlin Heidelberg:Springer,2012:473-487)中公开了一种新的特征提取框架与密集的空间采样图像分类方法。该方法具体的内容是:首先引入了一个新的图像分类框架,它超越了固定空间金字塔的窗口采样,包括一组在位置、大小和长宽比上密集采样的窗口。为了有效地处理这一大组窗口,使用两层提取方法导出了一个简洁的高级图像特征。在第一级,基于窗口的特征是通过类似于标准特征提取器的过程,从本地描述符(例如SIFT、spatial HOG、LBP)计算出来的。然后在第二层,以类似于第一级的方式从基于窗口的特征中确定新的图像特征。这种更高层次的抽象既提供了对密集样本的有效处理,又降低了对偏差的敏感性。简单而有效的框架可以很容易地容纳大量现有的池/编码方法,允许它们提取空间金字塔表示之外的特性,有效地融合与标准的一级二级功能图像功能分类。但是,该方法仍然存在不足之处是,对于图像的特征提取不够完全,例如图像的空间信息,边缘信息等,导致图像分类的准确率受到影响。
又如,申请公开号CN108846421A,名称为“一种基于深度学习的图像分类方法”的专利申请,公开了一种基于深度学习的图像分类方法。该方法首先将图片分为n组,将n组图片集分别作为样本输入到AlexNet模型中进行训练,得到图像分类模型Ⅰ;其次,将待测图像样本输入到已经完成训练的图像分类模型Ⅰ中进行图像分类,然后将不同待测图像对应的结果集归入不同的文档中,将精度较高的图像结果集重新组成图像样本输入到AlexNet模型中进行训练,得到图像分类模型II;最后将所对应的待测图像样本输入到其对应的图像分类模型II中进行图像分类。该发明提高图像分类的准确率,但其存在不足之处是,卷积神经网络使得图像分类的精度得到了很大的提升,但是随着网络层数的增多,对计算机的性能要求也就越高,提取出来的图像特征中的存在冗余成分,导致图像分类的准确率受到影响,同时网络的参数也变得非常多,数据的维数也越高,使得分类速度也就越慢。
发明内容
本发明的目的是针对上述现有技术的不足,提出了一种基于深度网络和稀疏Fisher矢量的图像分类方法,旨在解决现有技术中存在的的准确率较低的技术问题。
为实现上述目的,本发明采取的技术方案包括如下步骤:
(1)获取训练数据集和待分类数据集:
选取数据库中的N类图像,并将从每类图像中随机选取的70%~80%幅图像作为训练数据集,剩余图像作为待分类数据集,N>2;每类图像中包含的图像幅数为M,M>20;
(2)构建深度神经网络A:
构建包括依次连接的输入层、隐藏层和输出层的深度神经网络A,隐藏层包括多个卷积层、多个激活层和多个池化层,输出层包括多个全连接层;
(3)对深度神经网络A进行训练:
通过训练数据集对深度神经网络A进行训练,得到训练后的深度神经网络B;
(4)建立深度神经网络B中图像特征的高斯混合模型Z1
(4a)提取深度神经网络B中倒数第二个全连接层输出的多个图像特征,组成图像特征集H;
(4b)通过Q个服从高斯分布的函数对图像特征集H进行建模,得到由Q个高斯模型组成的高斯混合模型Z,Q>2;
(4c)从高斯混合模型Z中随机选取K个高斯模型,组成高斯混合模型Z1,K<Q,
Figure GDA0003453957800000032
(5)对高斯混合模型Z1中的特征向量进行稀疏Fisher矢量编码:
(5a)提取高斯混合模型Z1中图像特征集H的E个局部图像特征,并对第i个局部图像特征对应的特征向量xi进行Fisher矢量编码,得到Fisher矢量编码后的特征向量X,X=[x1,x2,...,xi,...,xE]∈RD×E,RD×E表示特征向量X所属向量空间,D表示特征向量的维度,D≥2,E≥2;
(5b)对Fisher矢量编码后的特征向量X进行稀疏表示,得到稀疏Fisher矢量编码后的特征向量Y,Y=[y1,y2,...,yi,...,yE]∈RD×E,yi表示每个局部特征对应的稀疏Fisher特征向量,对特征向量xi的稀疏公式定义如下:
Figure GDA0003453957800000031
其中,S=[s1,s2,...,si,...,sF]∈RD×F表示基向量集,RD×F表示基向量空间,集F表示的是基向量的数量,F>D,||yi||l1表示稀疏惩罚项,|| ||l1表示取值为1范数,β为稀疏惩罚项系数;
(6)对深度神经网络B进行训练:
将特征向量Y所对应的图像特征组成图像数据集G,并通过G对深度神经网络B进行训练,得到训练后的深度神经网络C;
(7)获取图像分类结果:
将待分类数据集输入到训练后的深度神经网络C中,对待分类数据集中的每幅图像进行分类,得到每幅图像的类别名称和图像分类的准确率。
本发明与现有技术相比,具有以下优点:
1.本发明利用深度神经网络训练一个适用数据集的权值参数,然后提取第二个全连接层的图像特征,对提取的图像特征建立高斯模型,利用稀疏Fisher矢量编码的方法对图像特征进行编码,有效的去除了图像特征中的冗余成分,能够获得更有效的图像特征信息,而且有利于高维数据的降维,与现有技术相比,有效提高了图像分类的准确率,同时提高了图像分类效率。
附图说明
图1为本发明的实现流程框图。
具体实施方式
下面将结合附图和具体实施例,对本发明作进一步的详细描述:
参照图1,本发明包括如下步骤:
步骤1)获取训练数据集和待分类数据集:
选取数据库中的N类图像,并将从每类图像中随机选取的70%~80%幅图像作为训练数据集,剩余图像作为待分类数据集,N>2;每类图像中包含的图像幅数为M,M>20;
步骤2)构建深度神经网络A:
构建包括依次连接的输入层、隐藏层和输出层的深度神经网络A,隐藏层包括多个卷积层、多个激活层和多个池化层,输出层包括多个全连接层;该深度神经网络的具体结构为:输入层→第一卷积层→第一激活层→第一池化层→第二卷积层→第二激活层→第二池化层→第三卷积层→第三激活层→第三池化层→第四卷积层→第四激活层→第四池化层→第五卷积层→第五激活层→第五池化层→第一全连接层→第二全连接层→第三全连接层;
步骤3)对深度神经网络A进行训练:
通过训练数据集对深度神经网络A进行训练,得到训练后的深度神经网络B;
步骤3a)设置深度神经网络A的初始参数;
第一卷积层中卷积核的大小为3x3,步长为1,卷积核个数为64,第一池化层大小为2x2,步长为2,第一激活层使用Relu激活函数;
第二卷积层中卷积核的大小为3x3,步长为1,卷积核个数为64,第二池化层大小为2x2,步长为2,第二激活层使用Relu激活函数;
第三卷积层中卷积核的大小为3x3,步长为1,卷积核个数为128,第三池化层大小为2x2,步长为2,第三激活层使用Relu激活函数;
第四卷积层中卷积核的大小为3x3,步长为1,卷积核个数为128,第四池化层大小为2x2,步长为2,第四激活层使用Relu激活函数;
第五卷积层中卷积核的大小为3x3,步长为1,卷积核个数为256,第五池化层大小为2x2,步长为2,第五激活层使用Relu激活函数;
Relu激活函数按照如下公式:
Figure GDA0003453957800000051
其中,x表示的是每个卷积层输出的结果;
步骤3b)将训练数据集的每一幅图像输入到深度神经网络A中,通过隐藏层对输入层的每一幅图像进行卷积,并对卷积结果进行激活,然后对激活结果进行池化;
步骤3c)将池化结果输送到全连接层,在最后一个全连接层进行分类,得到输出分类结果;
步骤3d)将全连接层输出的分类结果与输入层的图像数据集对比,通过误差分析调整深度神经网络A的权值参数W,得到训练后的深度神经网络B。
步骤4)建立深度神经网络B中图像特征的高斯混合模型Z1
步骤4a)提取深度神经网络B中倒数第二个全连接层输出的多个图像特征,组成图像特征集H;
步骤4b)通过Q个服从高斯分布的函数对图像特征集H进行建模,得到由Q个高斯模型组成的高斯混合模型Z,Q>2;
步骤4c)从高斯混合模型Z中随机选取K个高斯模型,组成高斯混合模型Z1,K<Q,
Figure GDA0003453957800000052
步骤5)对高斯混合模型Z1中的特征向量进行稀疏Fisher矢量编码:
步骤5a)提取高斯混合模型Z1中图像特征集H的E个局部图像特征,并对每个局部图像特征对应的特征向量进行Fisher矢量编码,得到Fisher矢量编码后的特征向量X,X=[x1,x2,...,xi,...,xE]∈RD×E,其中xi表示第i个Fisher矢量编码后的特征向量,RD×E表示特征向量X所属向量空间,D表示特征向量的维度,D≥2,E≥2;
步骤5a1)指定概率密度函数为P(λ),λ为服从P的参数;
步骤5a2)将提取的深度神经网络B倒数第二个全连接层的图像特征向量记为P,P=[p1,p2,...,pi,...,pV]∈RD×V,pi表示第i个局部图像特征对应的特征向量,服从高斯分布的函数模型为U(μk,∑k),k=1,2,...,n,RD×V表示特征向量P所属向量空间,D表示特征向量的维度,V表示图像样本的数量,D≥2,V≥2,μk表示均值,∑k表示方差;
步骤5a3)将图像的特征向量A转化为固定的梯度向量表示,任意选取T个图像特征向量,T≤V,X的梯度向量表示如下公式:
Figure GDA0003453957800000061
其中,uλ表示参数为λ的似然密度函数p(X|λ),λ表示梯度向量维度的大小。
步骤5b)对Fisher矢量编码后的特征向量X进行稀疏表示,得到稀疏Fisher矢量编码后的特征向量Y,Y=[y1,y2,...,yi,...,yE]∈RD×E,yi表示每个局部特征对应的稀疏Fisher特征向量,对特征向量xi的稀疏公式定义如下:
Figure GDA0003453957800000062
其中,S=[s1,s2,...,si,...,sF]∈RD×F表示基向量集,RD×F表示基向量空间,集F表示的是基向量的数量,F>D,||yi||l1表示稀疏惩罚项,|| ||l1表示取值为1范数,β为稀疏惩罚项系数,选取K个服从高斯分布的函数模型U(μj,∑j),组成高斯混合模型Z1,Z1的表示如下公式:
Figure GDA0003453957800000063
其中,λ={wjj,∑j,j=1,2,...,K},
Figure GDA0003453957800000064
pj(xe|λ)表示高斯分布的概率值,wj是权值参数,
Figure GDA0003453957800000071
μj表示均值,∑j表示方差。
步骤6)对深度神经网络B进行训练:
将特征向量Y所对应的图像特征组成图像数据集G,并通过G对深度神经网络B进行训练,得到训练后的深度神经网络C;
步骤7)获取图像分类结果:
将待分类数据集输入到训练后的深度神经网络C中,对待分类数据集中的每幅图像进行分类,得到每幅图像的类别名称和图像分类的准确率。
以下结合仿真实验,对本发明的技术效果作进一步说明:
1.仿真条件:
本发明仿真实验需要使用GPU,型号为GeForce1080,实验仿真时使用的编程软件是MATLAB R2015a,Python3.5,Tensorflow1.3,keras2.0。计算机系统为Windows7的64位系统,硬件平台为CPU E5-2620.2.0GHz,内存是64G。
2.仿真内容和结果分析:
对本发明和现有技术名称为“一种基于深度学习的图像分类方法”的专利分类的准确率进行对比仿真,其结果如表格1所示。表格的第一列是不同的图像分类方法名称,现有技术是一种基于深度学习的图像分类方法,本发明采用一种深度网络和稀疏Fisher矢量的图像分类方法,第二列是不同图像分类方法的结果,用评价指标准确率MAP表示。由表格1的数据可以看出,在现有技术和本发明提出的深度网络和稀疏Fisher矢量编码的方法比较下,本发明的算法是有较不错的性能。
表格1
分类方法 MAP
现有技术 43.64%
本发明 46.63%
综上,与现有技术相比,本发明利用深度网络训练一个适用数据集的权值参数,然后提取第二个全连接层的图像特征,对提取的图像特征建立高斯模型,利用稀疏Fisher矢量编码的方法对图像特征进行编码,有效的去除了图像特征中的冗余成分,能够获得更有效的图像特征信息,而且有利于高维数据的降维,与现有技术相比,有效提高了图像分类的准确率,同时提高了图像分类效率。

Claims (5)

1.一种基于深度网络和稀疏Fisher矢量的图像分类方法,其特征在于,包括如下步骤:
(1)获取训练数据集和待分类数据集:
选取数据库中的N类图像,并将从每类图像中随机选取的70%~80%幅图像作为训练数据集,剩余图像作为待分类数据集,N>2;每类图像中包含的图像幅数为M,M>20;
(2)构建深度神经网络A:
构建包括依次连接的输入层、隐藏层和输出层的深度神经网络A,隐藏层包括多个卷积层、多个激活层和多个池化层,输出层包括多个全连接层;
(3)对深度神经网络A进行训练:
通过训练数据集对深度神经网络A进行训练,得到训练后的深度神经网络B;
(4)建立深度神经网络B中图像特征的高斯混合模型Z1
(4a)提取深度神经网络B中倒数第二个全连接层输出的多个图像特征,组成图像特征集H;
(4b)通过Q个服从高斯分布的函数对图像特征集H进行建模,得到由Q个高斯模型组成的高斯混合模型Z,Q>2;
(4c)从高斯混合模型Z中随机选取K个高斯模型,组成高斯混合模型Z1,K<Q,
Figure FDA0003453957790000011
(5)对高斯混合模型Z1中的特征向量进行稀疏Fisher矢量编码:
(5a)提取高斯混合模型Z1中图像特征集H的E个局部图像特征,并对每个局部图像特征对应的特征向量进行Fisher矢量编码,其中xi表示第i个Fisher矢量编码后的特征向量,RD ×E表示特征向量X所属向量空间,D表示特征向量的维度,D≥2,E≥2;
(5b)对Fisher矢量编码后的特征向量X进行稀疏表示,得到稀疏Fisher矢量编码后的特征向量Y,Y=[y1,y2,...,yi,...,yE]∈RD×E,yi表示每个局部特征对应的稀疏Fisher特征向量,对特征向量xi的稀疏公式定义如下:
Figure FDA0003453957790000021
其中,S=[s1,s2,...,si,...,sF]∈RD×F表示基向量集,RD×F表示基向量空间,集F表示的是基向量的数量,F>D,||yi||l1表示稀疏惩罚项,|| ||l1表示取值为1范数,β为稀疏惩罚项系数;
(6)对深度神经网络B进行训练:
将特征向量Y所对应的图像特征组成图像数据集G,并通过G对深度神经网络B进行训练,得到训练后的深度神经网络C;
(7)获取图像分类结果:
将待分类数据集输入到训练后的深度神经网络C中,对待分类数据集中的每幅图像进行分类,得到每幅图像的类别名称和图像分类的准确率。
2.根据权利要求1所述的基于深度网络和稀疏Fisher矢量的图像分类方法,其特征在于,步骤(2)中所述的深度神经网络A,其具体结构为:
输入层→第一卷积层→第一激活层→第一池化层→第二卷积层→第二激活层→第二池化层→第三卷积层→第三激活层→第三池化层→第四卷积层→第四激活层→第四池化层→第五卷积层→第五激活层→第五池化层→第一全连接层→第二全连接层→第三全连接层。
3.根据权利要求2所述的基于深度网络和稀疏Fisher矢量的图像分类方法,其特征在于,步骤(3)中所述的对深度神经网络A进行训练,实现步骤为:
(3a)设置深度神经网络A的初始参数;
第一卷积层中卷积核的大小为3x3,步长为1,卷积核个数为64,第一池化层大小为2x2,步长为2,第一激活层使用Relu激活函数;
第二卷积层中卷积核的大小为3x3,步长为1,卷积核个数为64,第二池化层大小为2x2,步长为2,第二激活层使用Relu激活函数;
第三卷积层中卷积核的大小为3x3,步长为1,卷积核个数为128,第三池化层大小为2x2,步长为2,第三激活层使用Relu激活函数;
第四卷积层中卷积核的大小为3x3,步长为1,卷积核个数为128,第四池化层大小为2x2,步长为2,第四激活层使用Relu激活函数;
第五卷积层中卷积核的大小为3x3,步长为1,卷积核个数为256,第五池化层大小为2x2,步长为2,第五激活层使用Relu激活函数;
Relu激活函数按照如下公式:
Figure FDA0003453957790000031
其中,x表示的是每个卷积层输出的结果;
(3b)将训练数据集的每一幅图像输入到深度神经网络A中,通过隐藏层对输入层的每一幅图像进行卷积,并对卷积结果进行激活,然后对激活结果进行池化;
(3c)将池化结果输送到全连接层,在最后一个全连接层进行分类,得到输出分类结果;
(3d)将全连接层输出的分类结果与输入层的图像数据集对比,通过误差分析调整深度神经网络A的权值参数W,得到训练后的深度神经网络B。
4.根据权利要求1所述的基于深度网络和稀疏Fisher矢量的图像分类方法,其特征在于,步骤(4b)中所述的通过Q个服从高斯分布的函数对图像特征集H进行建模,得到由Q个高斯模型组成的高斯混合模型Z,实现步骤为:
(4b1)指定概率密度函数为P(λ),λ为服从P的参数;
(4b2)将提取的深度神经网络B倒数第二个全连接层的图像特征向量记为P,P=[p1,p2,...,pi,...,pV]∈RD×V,pi表示第i个局部图像特征对应的特征向量,服从高斯分布的函数模型为U(μk,∑k),k=1,2,...,n,RD×V表示特征向量P所属向量空间,D表示特征向量的维度,V表示图像样本的数量,D≥2,V≥2,μk表示均值,∑k表示方差;
(4b3)将图像的特征向量P转化为固定的梯度向量表示,任意选取T个图像特征向量,T≤V,X的梯度向量表示如下公式:
Figure FDA0003453957790000032
其中,uλ表示参数为λ的似然密度函数p(X|λ),λ表示梯度向量维度的大小。
5.根据权利要求1所述的基于深度网络和稀疏Fisher矢量的图像分类方法,其特征在于,步骤(4c)中所述的从高斯混合模型Z中随机选取K个高斯模型,组成高斯混合模型Z1,K<Q,
Figure FDA0003453957790000041
具体实现方法为:
选取K个服从高斯分布的函数模型U(μj,∑j),j=1,2,...,K,组成高斯混合模型Z1,Z1表示如下公式:
Figure FDA0003453957790000042
其中,λ={wjj,∑j,j=1,2,...,K},K<V,
Figure FDA0003453957790000043
pj(xe|λ)表示高斯分布的概率值,wj是权值参数,
Figure FDA0003453957790000044
μj表示均值,∑j表示方差。
CN201910473936.9A 2019-06-02 2019-06-02 基于深度网络和稀疏Fisher矢量的图像分类方法 Active CN110210562B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910473936.9A CN110210562B (zh) 2019-06-02 2019-06-02 基于深度网络和稀疏Fisher矢量的图像分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910473936.9A CN110210562B (zh) 2019-06-02 2019-06-02 基于深度网络和稀疏Fisher矢量的图像分类方法

Publications (2)

Publication Number Publication Date
CN110210562A CN110210562A (zh) 2019-09-06
CN110210562B true CN110210562B (zh) 2022-06-10

Family

ID=67790147

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910473936.9A Active CN110210562B (zh) 2019-06-02 2019-06-02 基于深度网络和稀疏Fisher矢量的图像分类方法

Country Status (1)

Country Link
CN (1) CN110210562B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111428676B (zh) * 2020-04-01 2023-04-07 南京信息工程大学 一种基于稀疏对应和深度神经网络的短临降水预测方法
CN111523593B (zh) * 2020-04-22 2023-07-21 北京康夫子健康技术有限公司 用于分析医学影像的方法和装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105956610A (zh) * 2016-04-22 2016-09-21 中国人民解放军军事医学科学院卫生装备研究所 一种基于多层编码结构的遥感图像地形分类方法
WO2017151759A1 (en) * 2016-03-01 2017-09-08 The United States Of America, As Represented By The Secretary, Department Of Health And Human Services Category discovery and image auto-annotation via looped pseudo-task optimization
CN108108751A (zh) * 2017-12-08 2018-06-01 浙江师范大学 一种基于卷积多特征和深度随机森林的场景识别方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10074006B2 (en) * 2014-03-17 2018-09-11 Carnegie Mellon University Methods and systems for disease classification

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017151759A1 (en) * 2016-03-01 2017-09-08 The United States Of America, As Represented By The Secretary, Department Of Health And Human Services Category discovery and image auto-annotation via looped pseudo-task optimization
CN105956610A (zh) * 2016-04-22 2016-09-21 中国人民解放军军事医学科学院卫生装备研究所 一种基于多层编码结构的遥感图像地形分类方法
CN108108751A (zh) * 2017-12-08 2018-06-01 浙江师范大学 一种基于卷积多特征和深度随机森林的场景识别方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
《L1-norm Heteroscedastic Discriminant Analysis Under Mixture of Gaussian Distribution》;Zheng WM et al;《IEEE》;20180829;全文 *
《基于特征编码与卷积神经网络融合的车型识别算法研究》;李正琪;《中国优秀硕士学位论文全文数据库信息科技辑》;20170315(第2017年第03期);全文 *
《联合Fisher核编码和卷积神经网络的影像场景分类》;刘异等;《遥感信息》;20181205;第33卷(第4期);全文 *

Also Published As

Publication number Publication date
CN110210562A (zh) 2019-09-06

Similar Documents

Publication Publication Date Title
CN106529447B (zh) 一种小样本人脸识别方法
CN110837846B (zh) 一种图像识别模型的构建方法、图像识别方法及装置
CN107798349B (zh) 一种基于深度稀疏自编码机的迁移学习方法
CN111242841B (zh) 一种基于语义分割和深度学习的图片背景风格迁移方法
CN108108751B (zh) 一种基于卷积多特征和深度随机森林的场景识别方法
CN113627482B (zh) 一种基于音频—触觉信号融合的跨模态图像生成方法及装置
CN110659665B (zh) 一种异维特征的模型构建方法及图像识别方法、装置
Kadam et al. Detection and localization of multiple image splicing using MobileNet V1
CN111680176A (zh) 基于注意力与双向特征融合的遥感图像检索方法及系统
CN111782833B (zh) 基于多模型网络的细粒度跨媒体检索方法
CN112818764A (zh) 一种基于特征重建模型的低分辨率图像人脸表情识别方法
CN105550712B (zh) 基于优化卷积自动编码网络的极光图像分类方法
CN113592007B (zh) 一种基于知识蒸馏的不良图片识别系统、方法、计算机及存储介质
CN113297936B (zh) 一种基于局部图卷积网络的排球群体行为识别方法
Tereikovskyi et al. The method of semantic image segmentation using neural networks
CN115966010A (zh) 一种基于注意力和多尺度特征融合的表情识别方法
CN108460400A (zh) 一种结合多种特征信息的高光谱图像分类方法
CN115222998B (zh) 一种图像分类方法
CN110210562B (zh) 基于深度网络和稀疏Fisher矢量的图像分类方法
CN112949740A (zh) 一种基于多级度量的小样本图像分类方法
CN112651940A (zh) 基于双编码器生成式对抗网络的协同视觉显著性检测方法
CN110991554B (zh) 一种基于改进pca的深度网络图像分类方法
CN106803105B (zh) 一种基于稀疏表示字典学习的图像分类方法
CN115393666A (zh) 图像分类中基于原型补全的小样本扩充方法及系统
CN111445545B (zh) 一种文本转贴图方法、装置、存储介质及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant