CN111222559A - 对小样本图像进行分类的主成分分析网络的训练方法 - Google Patents

对小样本图像进行分类的主成分分析网络的训练方法 Download PDF

Info

Publication number
CN111222559A
CN111222559A CN201911421669.7A CN201911421669A CN111222559A CN 111222559 A CN111222559 A CN 111222559A CN 201911421669 A CN201911421669 A CN 201911421669A CN 111222559 A CN111222559 A CN 111222559A
Authority
CN
China
Prior art keywords
cluster
layer
clusters
image
matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911421669.7A
Other languages
English (en)
Other versions
CN111222559B (zh
Inventor
陈昌盛
宋昱
黄继武
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen University
Original Assignee
Shenzhen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen University filed Critical Shenzhen University
Priority to CN201911421669.7A priority Critical patent/CN111222559B/zh
Publication of CN111222559A publication Critical patent/CN111222559A/zh
Application granted granted Critical
Publication of CN111222559B publication Critical patent/CN111222559B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本公开描述了一种对小样本图像进行分类的主成分分析网络的训练方法,包括:向第一层网络输入N幅训练图像,将图像块向量化,将图像块进行拼接,对于N幅训练图像得到矩阵X;基于N幅训练图像得到第一数量的第一类聚类,并获取各个第一聚类的协方差矩阵,得到第一层网络的PCA滤波器,基于第一层网络的PCA滤波器得到第一层输出图像的第cl个滤波器的输出;将第一层输出图像输入至第二层网络,提取第一层输出图像的图像块并进行拼接;基于第一层输出图像得到第二数量的第二类聚类,并得到第二层网络的PCA滤波器,接着对第二层输出图像进行二值化、灰度化处理等得到N幅训练图像的特征。由此,能够准确的对小样本图像进行特征提取以及分类。

Description

对小样本图像进行分类的主成分分析网络的训练方法
技术领域
本公开大体涉及一种对小样本图像进行分类的主成分分析网络的训练方法。
背景技术
现有的基于人工神经网络对图像的分类方法包括如下四种:(1) 基于手工设计的特征提取算子对图像进行特征提取,然后进行分类;(2) 采用深度学习方法学得特征提取算子,然后进行分类;(3)采用前向学习方法学得特征提取算子,然后进行分类;(4)采用额外数据和预训练方法,先预训练得到一个深度网络,利用预训练的深度网络提取特征,然后进行分类。
上述四类方法,都可以用于小样本图像分类,但是分别都存在一些局限性:
(1)基于手工设计特征的方法适用范围有限。某一种手工设计的特征往往适用于某一类图像,例如LBP特征适用于纹理分类的场合。很多情况下需要专家知识重新设计特征,才能用于新的数据。如果直接采用手工设计特征进行小样本分类,则学得的分类器推广性较弱,不能很好地用于小样本图像分类。
(2)基于深度学习的方法需要大量样本。由于网络参数数量庞大,如果训练样本数量不足,则很容易过拟合。现有的深度学习方法无法直接用于小样本图像分类。
(3)现有的前向网络在小样本学习上表现较好。例如 PCANet可以直接用于单样本人脸识别,且不需要额外数据。但是 PCANet在复杂数据的小样本图像分类问题上表现不佳,其提取的特征有待进一步改进。
(4)预训练方法适用范围有限。预训练方法必须利用额外数据,并且额外数据和已有数据必须相似,且任务必须相关。同时满足这些条件往往比较困难。例如在人脸欺诈检测中,需要判断人脸图像是真实人脸还是照片。该任务与通常的人脸识别任务不同,如果采用人脸识别的数据进行迁移,则效果不好,也即人脸识别数据无法直接用于人脸欺诈检测任务中。
发明内容
本发明有鉴于上述现有的状况,其目的在于提供一种能够准确地对小样本图像进行分类的训练方法。
为此,本公开提供一种对小样本图像进行分类的主成分分析网络的训练方法,所述主成分分析网络包括第一层网络和与所述第一层网络连接的第二层网络,其特征在于,包括:向所述第一层网络输入N 幅训练图像
Figure RE-GDA0002407306090000021
对第i幅图像,提取预定大小为k1×k2的图像块,并将所述图像块向量化得到xi,1,xi,2,…,xi,m'n',将所述图像块进行拼接得到Xi=[xi,1,xi,2,…,xi,m'n'],对于所述N幅训练图像得到矩阵X=[X1, X2,…,XN];基于所述N幅训练图像得到第一数量的第一类聚类
Figure RE-GDA0002407306090000022
并获取各个所述第一类聚类的协方差矩阵:
Figure RE-GDA0002407306090000023
计算所述第一类聚类的协方差矩阵的前L1个特征向量,得到所述第一层网络的PCA滤波器:
Figure RE-GDA0002407306090000024
l=1,2,...L1,c=1,2,...,C1,基于所述第一层网络的 PCA滤波器得到第一层输出图像的第cl个滤波器的输出
Figure RE-GDA0002407306090000025
i=1,2,...N;将所述第一层输出图像输入至第二层网络,提取所述第一层输出图像的第cl个滤波器的图像块并进行拼接得到
Figure RE-GDA0002407306090000026
提取所述第一层输出图像的所有滤波器的图像块并进行拼接得到矩阵
Figure RE-GDA0002407306090000027
基于所述第一层输出图像得到第二数量的第二类聚类
Figure RE-GDA0002407306090000028
并获取各个所述第二类聚类的协方差矩阵:
Figure RE-GDA0002407306090000029
计算所述第二类聚类的协方差矩阵的前 L2个特征向量,得到所述第二层网络的PCA滤波器:
Figure RE-GDA00024073060900000210
k=1,2,...L2,u=1,2,...,C2,基于所述第二层网络的PCA滤波器得到第二层输出图像第cul个滤波器的输出
Figure RE-GDA0002407306090000031
c=1,2,...C1,u=1,2,...C2,l=1,2,...,L1;并且将第二层输出图像二值化得到
Figure RE-GDA0002407306090000032
将L2个所述第二层输出图像进行加权求和得到输出图像
Figure RE-GDA0002407306090000033
接着将各个所述输出图像分别分为B个图像块,计算每个图像块的灰度直方图,并将各个所述输出图像的图像块的所述灰度直方图进行拼接得到
Figure RE-GDA0002407306090000034
将所述输出图像的直方图进行拼接,得到所述N幅训练图像的特征
Figure RE-GDA0002407306090000035
其中,m'n'为第i幅图像中提取的总图像块数,C1表示所述第一层网络中的第一数量,C2表示所述第二层网络中的第二数量,
Figure RE-GDA0002407306090000036
表示
Figure RE-GDA0002407306090000037
的转置,“*”表示卷积,函数H(·)表示单位阶跃函数,非负数取值为1,负数取值为0。
在本公开中,通过向第一层网络输入N幅训练图像,并对N幅训练图像中的图像块进行聚类以得到第一聚类,并计算第一聚类的协方差矩阵的特征向量得到第一层网络的PCA滤波器,并对N幅训练图像和第一层网络的PCA滤波器进行卷积得到第一层输出图像;接着将第一层输出图像输入第二层网络,并根据第二层网络对第一层输出图像中的图像块进行聚类以得到第二聚类,并计算第二聚类的协方差矩阵的特征向量得到第二层网络的PCA滤波器,并对第一层输出图像和第二层网络的PCA滤波器进行卷积得到第二层输出图像,接着对第二层输出图像进行二值化、灰度化处理等得到N幅训练图像的特征。由此,能够准确地对N幅训练图像进行特征提取以及分类。
另外,在本公开所涉及的对小样本图像进行分类的主成分分析网络的训练方法中,可选地,所述第一聚类的所述第一数量和/或所述第二聚类的所述第二数量由人工输入。由此,能够方便地得到第一数量和第二数量。
另外,在本公开所涉及的对小样本图像进行分类的主成分分析网络的训练方法中,可选地,根据所述矩阵X中的图像块的特性自动确认所述第一数量;根据所述矩阵Y中的图像块的特性自动确认所述第二数量。由此,能够准确地得到第一数量和第二数量。
另外,在本公开所涉及的对小样本图像进行分类的主成分分析网络的训练方法中,可选地,所述自动确认的方法为:预选聚类个数为Kmax,从所述矩阵X或所述矩阵Y中随机选择预定数量的向量用于初始化Kmax个聚类中每一聚类的均值并表示为μj,j=1,...,Kmax,将输入聚类个数Kt初始化为所述聚类个数Kmax;并采用欧氏距离判定每一样本 xn的类别,若所述均值μj中的某一均值μk与所述样本xn的距离相比其他均值与所述样本xn的距离更近,则将所述样本xn的类别判定为属于第k个聚类,即
Figure RE-GDA0002407306090000041
计算得第k个聚类的样本数量
Figure RE-GDA0002407306090000042
第k个聚类的均值向量
Figure RE-GDA0002407306090000043
以及第k个聚类的协方差矩阵
Figure RE-GDA0002407306090000044
协方差矩阵的基于范数的矩阵条件数
Figure RE-GDA0002407306090000045
所有聚类的协方差矩阵的最大条件数 Cmax=max{Ck,k=1,...,Kt},最小条件数Cmin=min{Ck,k=1,...,Kt};预设第一阈值C0,若所述最大条件数Cmax>C0,则删除具有所述最大条件数的聚类,并将所述聚类分配到第k个聚类外的其他聚类中,预设阈值R0,如果Cmax/Cmin>R0,则删除具有所述最大条件数的聚类。由此,能够准确地得到第一聚类数量和第二聚类数量。
另外,在本公开所涉及的对小样本图像进行分类的主成分分析网络的训练方法中,可选地,所述样本xn为所述矩阵X或所述矩阵Y中提取的图像块。由此,能够方便地得到矩阵X或矩阵Y中的样本xn
另外,在本公开所涉及的对小样本图像进行分类的主成分分析网络的训练方法中,可选地,所述输入聚类个数Kt还包括没有任何所述样本的空聚类,实际聚类数量为所述输入聚类个数Kt减去所述空聚类的数量。由此,能够准确地得到实际聚类数量。
另外,在本公开所涉及的对小样本图像进行分类的主成分分析网络的训练方法中,可选地,还包括得到至少为两层的所述主成分分析网络。由此,能够得到一个更深的主成分分析网络。
根据本公开,能够准确地对N幅训练图像进行特征提取以及分类。
附图说明
现在将仅通过参考附图的例子进一步详细地解释本公开的实施例,其中:
图1是示出了本实施方式所涉及的对小样本图像进行分类的主成分分析网络的训练方法的流程图。
图2是示出了本实施方式所涉及的主成分分析网络的结构示意图。
图3是示出了本实施方式所涉及的自动确认第一数量或第二数量的方法的流程图。
具体实施方式
以下,参考附图,详细地说明本公开的优选实施方式。在下面的说明中,对于相同的部件赋予相同的符号,省略重复的说明。另外,附图只是示意性的图,部件相互之间的尺寸的比例或者部件的形状等可以与实际的不同。
图1是示出了本实施方式所涉及的对小样本图像进行分类的主成分分析网络的训练方法的流程图。图2是示出了本实施方式所涉及的主成分分析网络的结构示意图。
参照图1和图2,本公开对小样本图像进行分类的主成分分析网络的训练方法包括:提取N幅训练图像的图像块(步骤S100);采用聚类算法将图像块进行聚类(步骤S200);对每个聚类的协方差矩阵进行特征值分解,并将得到的向量作为滤波器(步骤S300);采用上述滤波器对第一层网络的N幅训练图像进行滤波得到第一层输出图像(S400);将第一层输出图像作为第二层网络的输入,并在第二层网络重复上述步骤S200-S400以得到第二层输出图像。
在步骤S100中,可以向第一层网络输入N幅训练图像
Figure RE-GDA0002407306090000051
,对第i幅图像,可以提取预定大小为k1×k2的图像块,并将大小为k1× k2的图像块向量化得到xi,1,xi,2,…,xi,m'n',这些图像块之间可能会有一定的重叠,且其中m'n'为第i幅图像中提取的总图像块数。接着将图像块进行拼接得到Xi=[xi,1,xi,2,…,xi,m'n'],对于N幅训练图像中的每幅图像进行相同的操作得到矩阵X=[X1,X2,…,XN],其中,X包含了N幅训练图像中的所有图像块。
在步骤S200中,可以采用聚类算法将图像块进行聚类。具体的,可以将上述所有图像块输入一个聚类算法,得到第一数量的第一类聚类
Figure RE-GDA0002407306090000061
其中
Figure RE-GDA0002407306090000062
表示X的第i个聚类,C1表示第一层网络的聚类数量。
在步骤S300中,接着获取各个第一类聚类的协方差矩阵得到:
Figure RE-GDA0002407306090000063
式中,
Figure RE-GDA0002407306090000064
表示
Figure RE-GDA0002407306090000065
的转置。
在步骤S400中,计算第一类聚类的协方差矩阵的前L1个特征向量,得到所述第一层网络的PCA滤波器:
Figure RE-GDA0002407306090000066
l=1,2,...L1,c=1,2,...,C1。第一层网络的PCA滤波可以提取不同聚类中图像块的特征。且采用多个聚类的主成分提取特征,可以提取图像块的细节特征。接着基于第一层网络的PCA滤波得到第一层输出图像第cl个滤波器的输出
Figure RE-GDA0002407306090000067
i=1,2,...N,其中“*”表示卷积。
在步骤S500中,可以将第一层输出图像作为第二层网络的输入,并在第二层网络重复上述步骤S200-S400以得到第二层输出图像。具体的,可以将第一层输出图像输入至第二层网络,提取第一层输出图像的图像块并进行拼接得到
Figure RE-GDA0002407306090000068
对于第cl个滤波器的所有第一层输出图像得到矩阵
Figure RE-GDA00024073060900000615
。接着基于第一层输出图像得到第二数量的第二类聚类
Figure RE-GDA0002407306090000069
并获取各个第二类聚类的协方差矩阵得到:
Figure RE-GDA00024073060900000610
接着计算第二类聚类的协方差矩阵的前L2个特征向量,得到第二网络的PCA滤波器:
Figure RE-GDA00024073060900000611
k=1,2,...L2,u=1,2,...,C2,对于第二层网络的每一幅输入图像
Figure RE-GDA00024073060900000612
会得到C2L2个大小为m×n的图像。
接着将每一幅输出图像与
Figure RE-GDA00024073060900000613
进行卷积,得到第二层输出图像第 cul个滤波器的输出
Figure RE-GDA00024073060900000614
c=1,2,...C1,u=1,2,...C2,l=1,2,...,L1。此时输出图像个数是C1C2L1L2
在一些示例中,可以重复上述得到第一层输出图像或第二层输出图像的步骤,以得到一个更深的主成分分析网络。
可以理解的是,第二层网络共有C1L1幅输入图像,每一幅图像有 C2L2幅输出图像
Figure RE-GDA0002407306090000071
将这些图像二值化可以得到
Figure RE-GDA0002407306090000072
其中函数H(·)表示一个单位阶跃函数,当变量为非负数时该函数取值为1,当变量为负数时取值为0。接着可以将L2个第二层输出图像进行加权求和得输出图像
Figure RE-GDA0002407306090000073
该图像的像素的取值范围为
Figure RE-GDA0002407306090000074
其中,每一个整数值都可以看做一个灰度值。
经过二值化求和步骤后,共有C1C2L1幅输出图像
Figure RE-GDA0002407306090000075
接着将各个输出图像分别分为B 个图像块,计算每个图像块的灰度直方图,并将各个输出图像的图像块的灰度直方图进行拼接得到
Figure RE-GDA0002407306090000076
将输出图像的直方图进行拼接,得到N幅训练图像的特征
Figure RE-GDA0002407306090000077
在一些示例中,第一类聚类的第一数量和/或第二类聚类的第二数量可以由人工输入。由此,能够方便的得到第一数量和第二数量。
在另一些示例中,可以根据矩阵X中的图像块的特性自动确认所述第一数量。可以根据矩阵Y中的图像块的特性自动确认第二数量。由此,能够准确的得到第一数量和第二数量。
图3是示出了本实施方式所涉及的自动确认第一数量或第二数量的方法的流程图。
参照图3,在一些示例中,上述自动确认的方法包括:预选聚类个数为Kmax,并初始化Kmax个聚类中每一聚类的均值(步骤T100);采用欧氏距离判定每一样本的类别,并判断其是否属于第k个聚类(步骤T200);计算第k个聚类的协方差矩阵以及所有聚类的协方差矩阵的最大条件数Cmax和最小条件数Cmin(步骤T300);采用这些滤波器对第一层网络的N幅训练图像进行滤波得到第一层输出图像(步骤T400);预设阈值C0和阈值R0(步骤T500);判断是否满足条件Cmax>C0或 Cmax/Cmin>R0(步骤T600);满足步骤T600的条件则删除具有最大条件数的聚类(步骤T700),若不满足步骤T600的条件则返回步骤T200 重新进行判断。
在步骤T100中,可以先预选一个聚类个数为Kmax,接着从矩阵X 或矩阵Y中随机选择预定数量的向量用于初始化Kmax个聚类中每一聚类的均值并表示为μj,j=1,...,Kmax,并将输入聚类个数Kt初始化为聚类个数Kmax
在步骤T200中,可以采用欧氏距离判定每一样本xn的类别,若均值μj中的某一均值μk与样本xn的距离相比其他均值与样本xn的距离更近,则将样本xn的类别判定为属于第k个聚类,即
Figure RE-GDA0002407306090000081
在一些示例中,因为一开始聚类个数比较多,输入聚类个数Kt还可能包括没有任何样本的空聚类,可以将这些空聚类删除。空聚类的个数可以通过算法M=#(k;rnk=0,n=1,…,N)实现。
在步骤T300中,计算得第k个聚类的样本数量
Figure RE-GDA0002407306090000082
第k 个聚类的均值向量
Figure RE-GDA0002407306090000083
以及第k个聚类的协方差矩阵
Figure RE-GDA0002407306090000084
在聚类过程中,通过检验上述协方差矩阵来检验是否减少聚类个数。
协方差矩阵的基于范数的矩阵条件数
Figure RE-GDA0002407306090000085
所有聚类的协方差矩阵的最大条件数Cmax=max{Ck,k=1,...,Kt},最小条件数 Cmin=min{Ck,k=1,...,Kt}。
在步骤T400至步骤T600中,一方面,可以预设一个阈值C0,若最大条件数Cmax>C0,则删除具有最大条件数的聚类,并将属于该聚类的样本分配到其他聚类中。从条件数的特性中可以知道,当一个矩阵接近奇异时,那么该矩阵的条件数将非常大。如果最大条件数很大,则这一聚类接近奇异,说明该聚类中样本差异性过小。在这种情况下,删除这一聚类,将使得其他聚类得到更多样本。
另一方面,可以预设一个阈值R0,如果Cmax/Cmin>R0,则删除具有最大条件数的聚类。因为要保证每一聚类都有一定数量的差异性样本,所以不同聚类的矩阵条件数应该接近。如果最大条件数和最小条件数差异太大,则必须减少聚类数量。
经过上述步骤,判断是否满足收敛条件,如果满足则停止,否则返回步骤T200进行迭代。通过使用上述方法,可以自动确定聚类个数 (包括第一数量和第二数量),并且能够保证每一聚类都有一些差异性样本。且这一特性有利于后续的主成分分析,如果一个矩阵接近奇异,那么其中一些特征向量将可取任意值,因为对应的特征值为零。另一方面,通过使用所提的聚类算法,没有一个聚类会接近奇异,那么这些向量将不能随意取值。
为更直观的进行说明,以下列出了自动确定聚类个数的聚类算法:
输入:xn,n=1,...N,Kmax,C0,R0
初始化:μj,j=1,...,Kmax,Kt=Kmax
for t=1:Tmax
Figure RE-GDA0002407306090000091
M=#(k;rnk=0,n=1,...,N),Kt'=Kt-M
Figure RE-GDA0002407306090000092
Figure RE-GDA0002407306090000093
Figure RE-GDA0002407306090000094
Figure RE-GDA0002407306090000095
Cmax=max{Ck,k=1,...,Kt}
Cmin=min{Ck,k=1,...,Kt}
if Cmax>C0 or Cmax/Cmin>R0
Kt'=Kt-1
end
虽然以上结合附图和实施例对本公开进行了具体说明,但是可以理解,上述说明不以任何形式限制本公开。本领域技术人员在不偏离本公开的实质精神和范围的情况下可以根据需要对本公开进行变形和变化,这些变形和变化均落入本公开的范围内。

Claims (7)

1.一种对小样本图像进行分类的主成分分析网络的训练方法,所述主成分分析网络包括第一层网络和与所述第一层网络连接的第二层网络,其特征在于,
包括:
向所述第一层网络输入N幅训练图像
Figure FDA0002352548560000011
对第i幅图像,提取预定大小为k1×k2的图像块,并将所述图像块向量化得到xi,1,xi,2,…,xi,m'n',将所述图像块进行拼接得到Xi=[xi,1,xi,2,…,xi,m'n'],对于所述N幅训练图像得到矩阵X=[X1,X2,…,XN];
基于所述N幅训练图像得到第一数量的第一类聚类
Figure FDA0002352548560000012
并获取各个所述第一类聚类的协方差矩阵:
Figure FDA0002352548560000013
计算所述第一类聚类的协方差矩阵的前L1个特征向量,得到所述第一层网络的PCA滤波器:
Figure FDA0002352548560000014
基于所述第一层网络的PCA滤波器得到第一层输出图像的第cl个滤波器的输出
Figure FDA0002352548560000015
将所述第一层输出图像输入至第二层网络,提取所述第一层输出图像的第cl个滤波器的图像块并进行拼接得到
Figure FDA0002352548560000016
提取所述第一层输出图像的所有滤波器的图像块并进行拼接得到矩阵
Figure FDA0002352548560000017
基于所述第一层输出图像得到第二数量的第二类聚类
Figure FDA0002352548560000018
并获取各个所述第二类聚类的协方差矩阵:
Figure FDA0002352548560000019
计算所述第二类聚类的协方差矩阵的前L2个特征向量,得到所述第二层网络的PCA滤波器:
Figure FDA00023525485600000110
基于所述第二层网络的PCA滤波器得到第二层输出图像第cul个滤波器的输出
Figure FDA00023525485600000111
并且
将第二层输出图像二值化得到
Figure FDA00023525485600000112
将L2个所述第二层输出图像进行加权求和得到输出图像
Figure FDA00023525485600000113
接着将各个所述输出图像分别分为B个图像块,计算每个图像块的灰度直方图,并将各个所述输出图像的图像块的所述灰度直方图进行拼接得到Bhist(Ti cul),将所述输出图像的直方图进行拼接,得到所述N幅训练图像的特征
Figure FDA00023525485600000114
其中,m'n'为第i幅图像中提取的总图像块数,C1表示所述第一层网络中的第一数量,C2表示所述第二层网络中的第二数量,
Figure FDA0002352548560000021
表示
Figure FDA0002352548560000022
的转置,“*”表示卷积,函数H(·)表示单位阶跃函数,函数的变量为非负数时取值为1,为负数时取值为0。
2.如权利要求1所述的训练方法,其特征在于,
所述第一类聚类的所述第一数量和/或所述第二类聚类的所述第二数量由人工输入。
3.如权利要求1所述的训练方法,其特征在于,
根据所述矩阵X中的图像块的特性自动确认所述第一数量;
根据所述矩阵Y中的图像块的特性自动确认所述第二数量。
4.如权利要求3所述的训练方法,其特征在于,
所述自动确认的方法为:
预选聚类个数为Kmax,从所述矩阵X或所述矩阵Y中随机选择预定数量的向量用于初始化Kmax个聚类中每一聚类的均值并表示为μj,j=1,...,Kmax,将输入聚类个数Kt初始化为所述聚类个数Kmax
并采用欧氏距离判定每一样本xn的类别,若所述均值μj中的某一均值μk与所述样本xn的距离相比其他均值与所述样本xn的距离更近,则将所述样本xn的类别判定为属于第k个聚类,即
Figure FDA0002352548560000023
计算得第k个聚类的样本数量
Figure FDA0002352548560000024
第k个聚类的均值向量
Figure FDA0002352548560000025
以及第k个聚类的协方差矩阵
Figure FDA0002352548560000026
协方差矩阵的基于范数的矩阵条件数
Figure FDA0002352548560000027
所有聚类的协方差矩阵的最大条件数Cmax=max{Ck,k=1,...,Kt},最小条件数Cmin=min{Ck,k=1,...,Kt};
预设阈值C0,若所述最大条件数Cmax>C0,则删除具有所述最大条件数的聚类,并将所述聚类分配到第k个聚类外的其他聚类中,预设阈值R0,如果Cmax/Cmin>R0,则删除具有所述最大条件数的聚类。
5.如权利要求4所述的训练方法,其特征在于,
所述样本xn为所述矩阵X或所述矩阵Y中提取的图像块。
6.如权利要求4所述的训练方法,其特征在于,
所述输入聚类个数Kt还包括没有任何所述样本的空聚类,实际聚类数量为所述输入聚类个数Kt减去所述空聚类的数量。
7.如权利要求1所述的训练方法,其特征在于,
还包括得到至少为两层的所述主成分分析网络。
CN201911421669.7A 2019-12-31 2019-12-31 对小样本图像进行分类的主成分分析网络的训练方法 Active CN111222559B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911421669.7A CN111222559B (zh) 2019-12-31 2019-12-31 对小样本图像进行分类的主成分分析网络的训练方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911421669.7A CN111222559B (zh) 2019-12-31 2019-12-31 对小样本图像进行分类的主成分分析网络的训练方法

Publications (2)

Publication Number Publication Date
CN111222559A true CN111222559A (zh) 2020-06-02
CN111222559B CN111222559B (zh) 2023-03-31

Family

ID=70825947

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911421669.7A Active CN111222559B (zh) 2019-12-31 2019-12-31 对小样本图像进行分类的主成分分析网络的训练方法

Country Status (1)

Country Link
CN (1) CN111222559B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113112518A (zh) * 2021-04-19 2021-07-13 深圳思谋信息科技有限公司 基于拼接图像的特征提取器生成方法、装置和计算机设备
CN114414660A (zh) * 2022-03-18 2022-04-29 盐城工学院 一种铁路车辆轮对的轴号和裂纹识别方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104573729A (zh) * 2015-01-23 2015-04-29 东南大学 一种基于核主成分分析网络的图像分类方法
CN104881682A (zh) * 2015-05-26 2015-09-02 东南大学 一种基于保局映射与主成分分析的图像分类方法
CN106295700A (zh) * 2016-08-12 2017-01-04 中国石油大学(华东) 一种基于典型相关分析网络的二视角图像识别方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104573729A (zh) * 2015-01-23 2015-04-29 东南大学 一种基于核主成分分析网络的图像分类方法
CN104881682A (zh) * 2015-05-26 2015-09-02 东南大学 一种基于保局映射与主成分分析的图像分类方法
CN106295700A (zh) * 2016-08-12 2017-01-04 中国石油大学(华东) 一种基于典型相关分析网络的二视角图像识别方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113112518A (zh) * 2021-04-19 2021-07-13 深圳思谋信息科技有限公司 基于拼接图像的特征提取器生成方法、装置和计算机设备
CN113112518B (zh) * 2021-04-19 2024-03-26 深圳思谋信息科技有限公司 基于拼接图像的特征提取器生成方法、装置和计算机设备
CN114414660A (zh) * 2022-03-18 2022-04-29 盐城工学院 一种铁路车辆轮对的轴号和裂纹识别方法
CN114414660B (zh) * 2022-03-18 2024-01-12 盐城工学院 一种铁路车辆轮对的轴号和裂纹识别方法

Also Published As

Publication number Publication date
CN111222559B (zh) 2023-03-31

Similar Documents

Publication Publication Date Title
CN108182441B (zh) 平行多通道卷积神经网络、构建方法及图像特征提取方法
Mallah et al. Plant leaf classification using probabilistic integration of shape, texture and margin features
JP6192271B2 (ja) 画像処理装置、画像処理方法及びプログラム
Buyssens et al. Multiscale convolutional neural networks for vision–based classification of cells
CN104408469A (zh) 基于图像深度学习的烟火识别方法及系统
Greenblatt et al. Quaternion neural networks applied to prostate cancer gleason grading
Ganesan et al. Hybridization of ResNet with YOLO classifier for automated paddy leaf disease recognition: An optimized model
CN111191626B (zh) 一种多类别交通工具的精细识别方法
CN111898621A (zh) 一种轮廓形状识别方法
CN111222559B (zh) 对小样本图像进行分类的主成分分析网络的训练方法
CN111709313A (zh) 基于局部和通道组合特征的行人重识别方法
WO2024021461A1 (zh) 缺陷检测方法及装置、设备、存储介质
CN114170418A (zh) 一种以图搜图的汽车线束连接器多特征融合图像检索方法
Ibragimovich et al. Optimization of identification of micro-objects based on the use of characteristics of images and properties of models
Sahlol et al. Elephant herd optimization with neural networks: a case study on acute lymphoblastic leukemia diagnosis
CN115272838A (zh) 基于信息融合技术的海洋浮游生物自动识别方法及系统
CN110826565A (zh) 基于跨连接的卷积神经网络齿痕舌象分类方法及系统
Borman et al. Classification of Medicinal Wild Plants Using Radial Basis Function Neural Network with Least Mean Square
CN111046838A (zh) 一种湿地遥感信息的识别方法及装置
Kumar et al. A NOVEL WRAPPING CURVELET TRANSFORMATION BASED ANGULAR TEXTURE PATTERN (WCTATP) EXTRACTION METHOD FOR WEED IDENTIFICATION.
Gunawan et al. Fuzzy Region Merging Using Fuzzy Similarity Measurement on Image Segmentation
CN111539931A (zh) 一种基于卷积神经网络和边界限定优化的外观异常检测方法
Salama et al. Enhancing Medical Image Quality using Neutrosophic Fuzzy Domain and Multi-Level Enhancement Transforms: A Comparative Study for Leukemia Detection and Classification
Talukder et al. A Computer Vision and Deep CNN Modeling for Spices Recognition
Chica et al. Standard methods for inexpensive pollen loads authentication by means of computer vision and machine learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant