CN111639659A - 一种水下沉底小目标融合分类方法 - Google Patents
一种水下沉底小目标融合分类方法 Download PDFInfo
- Publication number
- CN111639659A CN111639659A CN201910155125.4A CN201910155125A CN111639659A CN 111639659 A CN111639659 A CN 111639659A CN 201910155125 A CN201910155125 A CN 201910155125A CN 111639659 A CN111639659 A CN 111639659A
- Authority
- CN
- China
- Prior art keywords
- underwater
- classification
- small target
- sunk
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 55
- 238000000034 method Methods 0.000 title claims abstract description 50
- 238000012549 training Methods 0.000 claims description 81
- 238000012360 testing method Methods 0.000 claims description 40
- 238000011176 pooling Methods 0.000 claims description 21
- 238000004088 simulation Methods 0.000 claims description 16
- 238000000605 extraction Methods 0.000 claims description 11
- 230000006870 function Effects 0.000 claims description 10
- 239000011159 matrix material Substances 0.000 claims description 10
- 230000011218 segmentation Effects 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000004422 calculation algorithm Methods 0.000 claims description 3
- 239000000203 mixture Substances 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 3
- 238000013527 convolutional neural network Methods 0.000 description 49
- 238000012706 support-vector machine Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 206010063385 Intellectualisation Diseases 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种水下沉底小目标融合分类方法,所述方法包括:获取待分类的水下沉底小目标的图像;将该图像输入预先训练好的三种分类器得到三个分类结果;所述三种分类器为Logistic分类器、SVM分类器和CNN分类器;按照预先计算的融合系数对三个分类结果进行决策融合,得到最终的待分类的水下沉底小目标的分类结果。本发明的方法可以有效地应用于小样本条件下,水下沉底小目标图像的分类中,能够提高分类的正确率。
Description
技术领域
本发明涉及水下沉底小目标分类领域,具体涉及一种基于Logistic分类器、支持向量机(Support Vector Machine,简称SVM)和卷积神经网络(Convolutional NeuralNetwork,简称CNN)的融合分类方法,特别涉及一种水下沉底小目标融合分类方法。
背景技术
水声与电子信息技术的迅猛发展,使得水下沉底小目标的分类成为现代声纳系统智能化的关键技术之一,它是水下信息系统的一个重要组成部分,对它的研究一直受到许多学者、工程技术人员以及军事部门的极大关注。
水下沉底小目标的分类是较为复杂的分类问题,由于水下沉底小目标图像较难获取,需要大量人力、物力与时间的投入,若想获得大规模的训练样本是十分困难的,对水下沉底小目标的分类大多数时候是在小样本的条件下进行的。
机器学习领域中许多传统机器监督学习方法如最近邻分类器、支持向量机、AdaBoost、决策树等,已被广泛应用于小目标的分类中。由于各种方法的局限性,影响了分类的正确性,在小样本条件下的分类结果更加不尽人意。近年来,人工智能技术得到了飞跃式的发展,一些深度网络模型(如卷积神经网络)在工业界取得了极好的分类效果。然而,它作为一种提升的多层感知机,更是需要大规模的数据集来进行训练。反之,若缺乏足够的训练数据集,则可能导致网络过拟合问题,使得分类正确率降低。
现有技术中尚缺乏小样本条件下水下沉底小目标的分类方法。
发明内容
本发明的目的在于解决上述现有技术的不足,提供了一种基于Logistic分类器、支持向量机(Support Vector Machine,简称SVM)和卷积神经网络(Convolutional NeuralNetwork,简称CNN)的融合分类方法。该方法可以有效地应用于小样本条件下的三种不同类型(圆柱体,圆台体,球体)水下沉底小目标的分类中,并提高分类的正确率。
为了实现上述目的,本发明提出了一种水下沉底小目标融合分类方法,所述方法包括:
获取待分类的水下沉底小目标的图像;
将该图像输入预先训练好的三种分类器得到三个分类结果;所述三种分类器为Logistic分类器、SVM分类器和CNN分类器;
按照预先计算的融合系数对三个分类结果进行决策融合,得到最终的待分类的水下沉底小目标的分类结果。
作为上述方法的一种改进,所述三种分类器的训练步骤之前还包括:构建训练集和测试集,具体包括:
构建已知类别的水下沉底小目标的训练集和测试集:
将已知类别的水下沉底小目标图像构建为图像集,每幅图像尺寸为256×256;将所述训练集的30%的图像取出,构建为测试集,余下的70%图像构建为训练集;
分别对所构建的训练集和测试集中的已知类别的水下沉底小目标图像进行分割;分成两部分区域:目标阴影区和海底背景区;
分别提取所构建的训练集和测试集中的已知类别的水下沉底小目标图像的Zernike特征;所述Zernike特征是指一系列描述目标形状信息的复数值,具有正交性和旋转不变性;
对已知类别的水下沉底小目标的仿真图像构建训练集和测试集;
构建已知类别的水下沉底小目标仿真图像的训练集和测试集:
将已知类别的水下沉底小目标仿真图像构建为图像集,每幅图像尺寸为256×256。将所述训练集的30%的图像取出,构建为测试集,余下的70%图像构建为训练集;
分别对所构建的训练集和测试集中的已知类别的水下沉底小目标仿真图像进行分割;分成两部分区域:目标阴影区和海底背景区;
分别提取所构建的训练集和测试集中的已知类别的水下沉底小目标仿真图像的Zernike特征。
作为上述方法的一种改进,所述对已知类别的水下沉底小目标图像进行分割,具体包括:
步骤A-1)设定目标区域:设置待分割图像所有像素点的集合为T,选定部分像素点作为目标,目标区域像素点的集合为TO;φ代表空集,设置目标区域的像素点集合为TB=φ;
步骤A-2)构建代表背景区域第一GMM和代表目标区域的第二GMM,并初始化高斯混合模型:将第一GMM和第二GMM所有参数设置为0;
步骤A-3)采用Grab-cut算法进行迭代优化,调用opencv库中的Grab-cut函数,设置输入图像参数为待分割图像,迭代次数为1,前景参数为TO,背景模型参数为第一GMM的参数,前景模型参数为第二GMM的参数;
步骤A-4)根据步骤A-3)迭代后的图像,重新选定部分像素点作为目标,设置目标区域像素点的集合为TO;重新选定部分像素点作为背景,设置背景区域像素点的集合为TB;重复步骤A-2)、步骤A-3),直到分割后的图像满足要求。
作为上述方法的一种改进,所述提取已知类别的水下沉底小目标图像的Zernike特征,具体包括:
计算径向多项式Rpq(ρ):
其中,p为径向多项式的阶数,q为方位角的重复次数,q∈Z;Z代表整数集,代表非负整数集,∈表示属于关系;q与p存在如下关系:p-|q|为偶数,同时p≥|q|;设图像尺寸为N×N,图像左下角坐标为(0,0),图像右上角坐标为(N,N),图像中心坐标为(N/2,N/2),ρ为像素点(x,y)与图像中心点组成向量的长度,由下式计算:
Zernike基函数Vpq(x,y)为:
Vpq(x,y)=Vpq(ρ,θ)=Rpq(ρ)ejqθ,|ρ|≤1
其中,θ为(x,y)与图像中心点组成向量与x轴的顺时针夹角,由下式计算:
Zernike矩Zpq为:
其中,设λ为满足|ρ|≤1的像素点数;f(x,y)为图像在(x,y)点处的灰度值。
作为上述方法的一种改进,所述CNN分类器的具体结构为:5个卷积层、3个池化层和3个全连接层,连接顺序为第一卷积层C1、第一池化层S1、第二卷积层C2、第二池化层S2、第三卷积层C3、第四卷积层C4、第五卷积层C5、第三池化层S3、第一全连接层F1、第二全连接层F2和第三全连接层F3;其中,第一卷积层C1、第一池化层S1、第二卷积层C2、第二池化层S2、第三卷积层C3、第四卷积层C4、第五卷积层C5、第三池化层S3和第一全连接层F1为特征提取部分;第二全连接层F2和第三全连接层F3为分类部分;
第一卷积层C1有64个卷积核,卷积核大小为11×11,步长为4×4;第二卷积层C2有192个卷积核,卷积核大小为5×5,步长为1×1;第三卷积层C3有192个卷积核,卷积核大小为3×3,步长为1×1;第四卷积层C4有256个卷积核,卷积核大小为3×3,步长为1×1;第五卷积层C5有256个卷积核,卷积核大小为3×3,步长为1×1。
作为上述方法的一种改进,所述CNN分类器的训练步骤包括:
设置训练参数为:学习率为0.001;选定训练样本的批次数量5468,每批次的样本数为64;
搭建的CNN特征提取部分参数,重新搭建CNN网络新的分类部分,参数同步骤2中搭建的CNN;
将水下沉底小目标图像的训练集输入特征提取部分,提取特征提取部分的输出向量;
将输出向量输入CNN网络新的分类部分,设置训练参数为:学习率为0.001;训练样本的批次数量为938,每批次的样本数为64。
作为上述方法的一种改进,所述Logistic分类器的训练步骤具体为:利用获得的Zernike矩特征对Logistics分类器进行训练;训练参数为:惩罚项为L2;正则化系数为1.0。
作为上述方法的一种改进,所述SVM分类器的训练步骤具体为:利用获得的水下沉底小目标分割图像对SVM分类器进行训练;训练参数为:采用线性核函数;惩罚项为L2;惩罚项参数为1.0。
作为上述方法的一种改进,所述融合系数的计算步骤具体包括:
将构建的水下沉底小目标测试集的分割图像输入训练好的CNN分类器进行分类,记录K个分类类型的分类错误的样本数:Tc1,Tc2,…TcK;记录如果水下沉底小目标被Logistic、SVM、CNN三种不同的成员分类器认为是K个分类类型中的某一种时,分类错误的样本数:Ec1,Ec2,…EcK;
将构建的水下沉底小目标测试集的分割图像输入到训练好的SVM分类器进行分类,记录K个分类类型的分类错误的样本数:Ts1,Ts2,…TsK,记录如果水下沉底小目标被Logistic、SVM、CNN三种不同的成员分类器认为是K个分类类型中的某一种时,分类错误的样本数:Es1,Es2,…EsK;
将构建的水下沉底小目标测试集的Zernike矩输入到训练好的Logistic分类器进行分类,记录K个分类类型的分类错误的样本数:Tl1,Tl2,…TlK;记录如果水下沉底小目标被Logistic、SVM、CNN三种不同的成员分类器认为是K个分类类型中的某一种时,分类错误的样本数:El1,El2,…ElK;
对于第k个分类类型,1≤k≤K;对Tlk,Tsk,Tck进行降序排列得到T1,T2,T3;对Elk,Esk,Eck进行降序排列得到E1,E2,E3,临时系数WT1,WT2和WT3由下式计算:
临时系数WE1,WE2和WE3由下式计算:
将T1,T2,T3与Tck,Tsk,Tlk的对应关系用于WT1,WT2和WT3,得到WTlk,WTsk和WTck。将E1,E2,E3与Elk,Esk,Eck的对应关系用于WE1,WE2和WE3,得到WElk,WEsk,WEck;则则第k个分类类型的三个分类器的融合系数Wlk,Wsk,Wck为:
Wlk=WTlk+WElk,Wsk=WTsk+WEsk,Wck=WTck+WEck
则Logistic,SVM和CNN三种成员分类器对应的融合系数分别为、Wl1,Wl2,…WlK、Ws1,Ws2,…WsK和Wc1,Wc2,…WcK。
作为上述方法的一种改进,所述按照预先计算的融合系数对三个分类结果进行决策融合,得到最终的待分类的水下沉底小目标的分类结果,具体包括:
步骤S1)将待分类的水下沉底小目标输入三个分类器得到三个输出结果;
步骤S2)根据三个输出结果获取所对应的决策值:Dlogistic,Dsvm和Dcnn:
步骤S3)计算待分类的水下沉底小目标的K个分类类型的可信系数V1,V2...VK:
其中,W为融合系数矩阵:
D为决策矩阵:
D=[Dlogistic,Dsvm,Dcnn]T
步骤S4)从V1,V2...VK找出最大可信系数,其对应的下标代表的类型即为最终的待分类的水下沉底小目标的分类结果。
本发明的优点在于:
本发明的方法可以有效地应用于小样本条件下,水下沉底小目标图像的分类中,能够提高分类的正确率。
附图说明
图1是本发明的基于logistic、SVM、CNN的融合分类方法的流程图;
图2是本发明的三种类型水下沉底小目标的二值图像及其提取的Zernike矩;
图3是本发明的CNN分类器的结构示意图。
具体实施方式
以下结合附图对本发明作进一步的详细说明。
如图1所示,本发明提供了一种基于Logistic分类器、支持向量机(SupportVector Machine,简称SVM)和卷积神经网络(Convolutional Neural Network,简称CNN)的水下沉底小目标融合分类方法;具体包括:
步骤1:对已知类别的水下沉底小目标构建训练集和测试集;
所述步骤1中,对已知类别的水下沉底小目标构建训练集和测试集的具体过程如下:
步骤1-1)、构建已知类别的水下沉底小目标图像的训练集和测试集。
将已知类别的水下沉底小目标图像构建为图像集,每幅图像尺寸为256×256。将所述训练集的30%的图像取出,构建为测试集,余下的70%图像构建为训练集;
本发明中的水下沉底小目标图像为合成孔径声纳(Synthetic Aperture Sonar,简称SAS)图像。
步骤1-2)、分别对步骤1-1)所构建的训练集和测试集中的所述已知类别的水下沉底小目标图像进行分割;
所述的对水下沉底小目标图像进行分割指将水下沉底小目标图像分成两部分区域:目标阴影区和海底背景区。分割后的图像为二值图像,白色代表海底背景区域,黑色代表目标阴影区域。其具体分割过程如下:
步骤1-2-1)、初始化分割参数。其具体过程如下:
步骤1-2-1-1)、设定目标区域。设置待分割图像所有像素点的集合为T,选定部分像素点作为目标,目标区域像素点的集合为TO。φ代表空集,设置目标区域的像素点集合为TB=φ。
步骤1-2-1-2)、构建并初始化高斯混合模型(Gaussian Mixture Model,GMM)。设1号GMM代表背景区域,2号GMM代表目标区域,将GMM所有参数设置为0。
步骤1-2-2)、采用Grab-cut算法进行迭代优化,调用opencv库中的Grab-cut函数,设置输入图像参数为待分割图像,迭代次数为1,前景参数为TO,背景模型参数为1号GMM,前景模型参数为2号GMM。
步骤1-2-3)、根据步骤1-2-2)迭代后的图像,重新选定部分像素点作为目标,设置目标区域像素点的集合为TO。重新选定部分像素点作为背景,设置背景区域像素点的集合为TB。
步骤1-2-4)、重复步骤1-2-2)、步骤1-2-3),直到达到较好的分割效果。
步骤1-3)、分别提取步骤1-1)所构建的训练集和测试集中的所述已知类别的水下沉底小目标图像的Zernike特征;
所述已知类别的水下沉底小目标图像的Zernike特征是指一系列描述目标形状信息的复数值,具有正交性和旋转不变性。本发明中,设置所提取Zernike矩的阶数为40。球体、圆柱体和圆台体三种不同类型水下沉底小目标的二值图像及其提取的Zernike矩如图2所示(由于提取的Zernike矩为复数,故将其描点于复平面内)。其提取过程具体如下:
步骤1-3-1)、计算径向多项式:设Z代表整数集,代表非负整数集,∈表示属于关系。设p为径向多项式的阶数,q为方位角的重复次数,q∈Z。q与p存在如下关系:p-|q|为偶数,同时p≥|q|。设图像尺寸为N×N,图像左下角坐标为(0,0),图像右上角坐标为(N,N),图像中心坐标为(N/2,N/2),ρ为像素点(x,y)与图像中心点组成向量的长度,由下式计算:
设θ为(x,y)与图像中心点组成向量与x轴的顺时针夹角,由下式计算:
径向多项式由下式计算:
步骤1-3-2)、计算Zernike基函数,由下式计算:
Vpq(x,y)=Vpq(ρ,θ)=Rpq(ρ)ejqθ,|ρ|≤1
步骤1-3-3)、计算Zernike矩。设λ为满足|ρ|≤1的像素点数;f(x,y)为图像在(x,y)点处的灰度值。由下式计算Zernike矩:
步骤2:对已知类别的水下沉底小目标的仿真图像构建训练集和测试集;
所述步骤2中,对已知类别的水下沉底小目标的仿真图像构建训练集和测试集的具体过程如下:
步骤2-1)、构建已知类别的水下沉底小目标仿真图像的训练集和测试集。
将已知类别的水下沉底小目标仿真图像构建为图像集,每幅图像尺寸为256×256。将所述训练集的30%的图像取出,构建为测试集,余下的70%图像构建为训练集;
步骤2-2)、分别对步骤2-1)所构建的训练集和测试集中的所述已知类别的水下沉底小目标仿真图像进行分割;
步骤3:搭建CNN分类器。
如图3所示,所述CNN分类器具体结构为:网络共有5个卷积层、3个池化层和3个全连接层,连接为卷积层C1-池化层S1-卷积层C2-池化层S2-卷积层C3-卷积层C4-卷积层C5-池化层S3-全连接层F1-全连接层F2-全连接层F3。C1层有64个卷积核,卷积核大小为11×11,步长为4×4;C2层有192个卷积核,卷积核大小为5×5,步长为1×1;C3层有192个卷积核,卷积核大小为3×3,步长为1×1;C4层有256个卷积核,卷积核大小为3×3,步长为1×1;C5层有256个卷积核,卷积核大小为3×3,步长为1×1。
步骤4:训练成员分类器。所述的成员分类器指Logistics、SVM、CNN三种分类器,具体过程如下:
步骤4-1)、训练CNN。
所述步骤4-1)中,训练CNN的具体过程如下:
步骤4-1-1)、将步骤2)中搭建的CNN根据功能分为两部分。其中卷积层C1-池化层S1-卷积层C2-池化层S2-卷积层C3-卷积层C4-卷积层C5-池化层S3-全连接层F1为特征提取部分;全连接层(F2)-全连接层(F3)为分类部分,如图3所示。
步骤4-1-2)、将水下沉底小目标仿真图像的训练集输入步骤2中搭建的CNN中进行训练。设置训练参数为:学习率为0.001;训练样本的批次数量为5468,每批次的样本数为64。
步骤4-1-3)、保留步骤2中搭建的CNN特征提取部分参数,重新搭建CNN网络新的分类部分,参数同步骤2中搭建的CNN。
步骤4-1-4)、将水下沉底小目标图像的训练集输入步骤4-1)中的特征提取部分,提取特征提取部分的输出向量。
步骤4-1-5)、将步骤4-1-4)中获得的输出向量用于训练步骤4-1-3)中搭建的CNN网络新的分类部分,设置训练参数为:学习率为0.001;训练样本的批次数量为938,每批次的样本数为64。
步骤4-2)、训练Logistic分类器。使用步骤1-3)中获得的Zernike矩特征对Logistics分类器进行训练。训练参数为:惩罚项为L2;正则化系数为1.0;最大迭代次数为100。
步骤4-3)、训练SVM分类器。使用步骤1-2)中获得的水下沉底小目标分割图像对SVM进行训练。训练参数为:采用线性核函数;惩罚项为L2;惩罚项参数为1.0。
步骤5:计算融合系数。
所述的融合系数指针对Logistics、SVM、CNN三种分类器的输出,根据它们对不同类型小目标的分类能力,赋予的不同权重。具体过程如下:
步骤5-1)、将构建的水下沉底小目标测试集的分割图像输入训练好的CNN分类器进行分类,记录K个分类类型的分类错误的样本数:Tc1,Tc2,…TcK;记录如果水下沉底小目标被Logistic、SVM、CNN三种不同的成员分类器认为是K个分类类型中的某一种时,分类错误的样本数:Ec1,Ec2,…EcK;
步骤5-2)、将构建的水下沉底小目标测试集的分割图像输入到训练好的SVM分类器进行分类,记录K个分类类型的分类错误的样本数:Ts1,Ts2,…TsK,记录如果水下沉底小目标被Logistic、SVM、CNN三种不同的成员分类器认为是K个分类类型中的某一种时,分类错误的样本数:Es1,Es2,…EsK;
步骤5-3)、将构建的水下沉底小目标测试集的Zernike矩输入到训练好的Logistic分类器进行分类,记录K个分类类型的分类错误的样本数:Tl1,Tl2,…TlK;记录如果水下沉底小目标被Logistic、SVM、CNN三种不同的成员分类器认为是K个分类类型中的某一种时,分类错误的样本数:El1,El2,…ElK;
步骤5-4)、根据各个分类器分类错误的样本情况,按照一定规则进行统计并计算融合系数。
所述的一定规则进行统计并计算融合系数指对各个分类器对不同类型小目标10次错误分类的样本数统计结果,进行权重分配。原则为错误样本多,分配权重较少;错误样本少,分配权重多。具体过程如下:
对于第k个分类类型,1≤k≤K;对Tlk,Tsk,Tck进行降序排列得到T1,T2,T3;对Elk,Esk,Eck进行降序排列得到E1,E2,E3,临时系数WT1,WT2和WT3由下式计算:
临时系数WE1,WE2和WE3由下式计算:
将T1,T2,T3与Tck,Tsk,Tlk的对应关系用于WT1,WT2和WT3,得到WTlk,WTsk和WTck。将E1,E2,E3与Elk,Esk,Eck的对应关系用于WE1,WE2和WE3,得到WElk,WEsk,WEck;则第k个分类类型的三个分类器的融合系数Wlk,Wsk,Wck为:
Wlk=WTlk+WElk,Wsk=WTsk+WEsk,Wck=WTck+WEck
则Logistic,SVM和CNN三种成员分类器对应的融合系数分别为Wl1,Wl2,…WlK、Ws1,Ws2,…WsK和Wc1,Wc2,…WcK。
步骤6:按照预先计算的融合系数对三个分类结果进行决策融合,得到最终的待分类的水下沉底小目标的分类结果,具体包括:
步骤6-1)将待分类的水下沉底小目标输入三个分类器得到三个输出结果;
步骤6-2)根据三个输出结果获取所对应的决策值:Dlogistic,Dsvm和Dcnn:
步骤6-3)计算待分类的水下沉底小目标的K个分类类型的可信系数V1,V2...VK:
其中,W为融合系数矩阵:
D为决策矩阵:
D=[Dlogistic,Dsvm,Dcnn]T
步骤6-4)从V1,V2...VK找出最大可信系数,其对应的下标代表的类型即为最终的待分类的水下沉底小目标的分类结果。
以三种分类类型:圆柱体,圆台体,球体为例;
统计10次三种不同类型(圆柱体,圆台体,球体)水下沉底小目标分类错误情况。
统计由Logistic、SVM、CNN三种不同的成员分类器进行分类时,圆柱体,圆台体,球体三种不同类型水下沉底小目标分类错误的样本数量,分别设为Tls,Tlc,Tlt,Tss,Tsc,Tst,Tcs,Tcc,Tct,其具体对应关系如表1所示:
表1不同类型的沉底小目标分类错误的样本数
统计如果水下沉底小目标被Logistic、SVM、CNN三种不同的成员分类器认为是球体、圆柱体和圆台体时,分类错误的样本数量,分别设为Els,Elc,Elt,Ess,Esc,Est,Ecs,Ecc,Ect,其具体对应关系如表2所示:
表2被认为是不同类型沉底小目标时,分类错误的样本数
计算融合系数。设Logistic,SVM和CNN三种成员分类器对的融合系数,分别设为Wls,Wlc,Wlt,Wss,Wsc,Wst,Wcs,Wcc,Wct。其具体对应关系如表3所示:
表3三种成员分类器对应不同类型沉底小目标的融合系数
由Logistic、SVM、CNN任意一种的成员分类器进行分类时,圆柱体,圆台体,球体三种不同类型水下沉底小目标分类错误的样本数量,分别设为Tl·,Ts·和Tc·。如果水下沉底小目标被Logistic、SVM、CNN任意一种的成员分类器认为是球体、圆柱体和圆台体时,分类错误的样本数量,分别设为El·,Es·和Ec·。Logistic、SVM和CNN任意一种成员分类器对应圆柱体,圆台体,球体三种不同类型水下沉底小目标融合系数分别为Wl·,Ws·和Wc·,其具体计算过程如下:
(实际计算时,由Tls,Tss,Tcs,Els,Ess,Ecs计算Wls,Wss和Wcs(球体);由Tlc,Tsc,Tcc,Elc,Esc,Ecc计算Wlc,Wsc和Wcc(圆柱体);由Tlt,Tst,Tct,Elt,Est,Ect计算Wlt,Wst和Wct(圆台体))
步骤5-5-2-1)、计算临时系数WT1,WT2,WT3,WE1,WE2,WE3。设T1,T2,T3(T1>T2>T3)和E1,E2,E3(E1>E2>E3)分别为Tl·,Ts·,Tc·和El·,Es·,Ec·的降序排列。临时系数WT1,WT2和WT3由下式计算:
临时系数WE1,WE2和WE3由下式计算:
步骤5-5-2-2)、将T1,T2,T3与Tl·,Ts·,Tc·的对应关系用于WT1,WT2和WT3,得到WTl·,WTs·,WTc·。将E1,E2,E3与El·,Es·,Ec·的对应关系用于WE1,WE2和WE3,得到WEl·,WEs·,WEc·。Wl·,Ws·和Wc·可由下式计算:
Wl·=WTl·+WEl·,Ws·=WTs·+WEs·,Wc·=WTc·+WEc·
如某次实验中,得到融合系数如表4所示:
表4各成员分类器的融合系数
将待识别的水底小目标输入步骤5-1)中CNN、步骤5-2)中Logistic、步骤5-3)中SVM三种成员分类器,获取分类输出(球体,圆柱体,圆台体),按照表5中的融合系数进行决策融合,得到最终的分类结果。其具体过程如下:
查询决策值。设Logistic、SVM和CNN三种成员分类器的分类决策值分别为Dlogistic,Dsvm和Dcnn,步骤5-1)中CNN、步骤5-2)中Logistic、步骤5-3)中SVM三种分类器的输出决策与不同类型沉底小目标决策值的对应关系见表5:
表5成员分类器对应不同类型沉底小目标的决策值
计算三种类型水下沉底小目标的可信系数。设融合系数矩阵为W,由下式表示:
设决策矩阵为D,由下式表示:
D=[Dlogistic,Dsvm,Dcnn]T
设球体,圆柱体和圆台体的可信系数分别为Vspherical,Vcylindrical和Vtruncatedconial,为DTW矩阵的对角元素,由下式计算:
计算最终决策,由下式计算:
如某次实验中,步骤5-1)中CNN、步骤5-2)中Logistic、步骤5-3)中SVM三种成员分类器的输出错误情况,如表6所示。
表6分类错误样本编号
经过步骤6后,最终输出的错误情况如表7所示:
表7分类样本的错误情况统计
最后所应说明的是,以上实施例仅用以说明本发明的技术方案而非限制。尽管参照实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,对本发明的技术方案进行修改或者等同替换,都不脱离本发明技术方案的精神和范围,其均应涵盖在本发明的权利要求范围当中。
Claims (10)
1.一种水下沉底小目标融合分类方法,所述方法包括:
获取待分类的水下沉底小目标的图像;
将该图像输入预先训练好的三种分类器得到三个分类结果;所述三种分类器为Logistic分类器、SVM分类器和CNN分类器;
按照预先计算的融合系数对三个分类结果进行决策融合,得到最终的待分类的水下沉底小目标的分类结果。
2.根据权利要求1所述的水下沉底小目标融合分类方法,其特征在于,所述三种分类器的训练步骤之前还包括:构建训练集和测试集,具体包括:
构建已知类别的水下沉底小目标的训练集和测试集:
将已知类别的水下沉底小目标图像构建为图像集,每幅图像尺寸为256×256;将所述训练集的30%的图像取出,构建为测试集,余下的70%图像构建为训练集;
分别对所构建的训练集和测试集中的已知类别的水下沉底小目标图像进行分割;分成两部分区域:目标阴影区和海底背景区;
分别提取所构建的训练集和测试集中的已知类别的水下沉底小目标图像的Zernike特征;所述Zernike特征是指一系列描述目标形状信息的复数值,具有正交性和旋转不变性;
对已知类别的水下沉底小目标的仿真图像构建训练集和测试集;
构建已知类别的水下沉底小目标仿真图像的训练集和测试集:
将已知类别的水下沉底小目标仿真图像构建为图像集,每幅图像尺寸为256×256。将所述训练集的30%的图像取出,构建为测试集,余下的70%图像构建为训练集;
分别对所构建的训练集和测试集中的已知类别的水下沉底小目标仿真图像进行分割;分成两部分区域:目标阴影区和海底背景区;
分别提取所构建的训练集和测试集中的已知类别的水下沉底小目标仿真图像的Zernike特征。
3.根据权利要求2所述的水下沉底小目标融合分类方法,其特征在于,所述对已知类别的水下沉底小目标图像进行分割,具体包括:
步骤A-1)设定目标区域:设置待分割图像所有像素点的集合为T,选定部分像素点作为目标,目标区域像素点的集合为TO;φ代表空集,设置目标区域的像素点集合为TB=φ;
步骤A-2)构建代表背景区域第一GMM和代表目标区域的第二GMM,并初始化高斯混合模型:将第一GMM和第二GMM所有参数设置为0;
步骤A-3)采用Grab-cut算法进行迭代优化,调用opencv库中的Grab-cut函数,设置输入图像参数为待分割图像,迭代次数为1,前景参数为TO,背景模型参数为第一GMM的参数,前景模型参数为第二GMM的参数;
步骤A-4)根据步骤A-3)迭代后的图像,重新选定部分像素点作为目标,设置目标区域像素点的集合为TO;重新选定部分像素点作为背景,设置背景区域像素点的集合为TB;重复步骤A-2)、步骤A-3),直到分割后的图像满足要求。
4.根据权利要求3所述的水下沉底小目标融合分类方法,其特征在于,所述提取已知类别的水下沉底小目标图像的Zernike特征,具体包括:
计算径向多项式Rpq(ρ):
其中,p为径向多项式的阶数,q为方位角的重复次数,q∈Z;Z代表整数集,代表非负整数集,∈表示属于关系;q与p存在如下关系:p-|q|为偶数,同时p≥|q|;设图像尺寸为N×N,图像左下角坐标为(0,0),图像右上角坐标为(N,N),图像中心坐标为(N/2,N/2),ρ为像素点(x,y)与图像中心点组成向量的长度,由下式计算:
Zernike基函数Vpq(x,y)为:
Vpq(x,y)=Vpq(ρ,θ)=Rpq(ρ)ejqθ,|ρ|≤1
其中,θ为(x,y)与图像中心点组成向量与x轴的顺时针夹角,由下式计算:
Zernike矩Zpq为:
其中,设λ为满足|ρ|≤1的像素点数;f(x,y)为图像在(x,y)点处的灰度值。
5.根据权利要求1所述的水下沉底小目标融合分类方法,其特征在于,所述CNN分类器的具体结构为:5个卷积层、3个池化层和3个全连接层,连接顺序为第一卷积层(C1)、第一池化层(S1)、第二卷积层(C2)、第二池化层(S2)、第三卷积层(C3)、第四卷积层(C4)、第五卷积层(C5)、第三池化层(S3)、第一全连接层(F1)、第二全连接层(F2)和第三全连接层(F3);其中,第一卷积层(C1)、第一池化层(S1)、第二卷积层(C2)、第二池化层(S2)、第三卷积层(C3)、第四卷积层(C4)、第五卷积层(C5)、第三池化层(S3)和第一全连接层(F1)为特征提取部分;第二全连接层(F2)和第三全连接层(F3)为分类部分;
第一卷积层(C1)有64个卷积核,卷积核大小为11×11,步长为4×4;第二卷积层(C2)有192个卷积核,卷积核大小为5×5,步长为1×1;第三卷积层(C3)有192个卷积核,卷积核大小为3×3,步长为1×1;第四卷积层(C4)有256个卷积核,卷积核大小为3×3,步长为1×1;第五卷积层(C5)有256个卷积核,卷积核大小为3×3,步长为1×1。
6.根据权利要求5所述的水下沉底小目标融合分类方法,其特征在于,所述CNN分类器的训练步骤包括:
设置训练参数为:学习率为0.001;选定训练样本的批次数量5468,每批次的样本数为64;
搭建的CNN特征提取部分参数,重新搭建CNN网络新的分类部分,参数同步骤2中搭建的CNN;
将水下沉底小目标图像的训练集输入特征提取部分,提取特征提取部分的输出向量;
将输出向量输入CNN网络新的分类部分,设置训练参数为:学习率为0.001;训练样本的批次数量为938,每批次的样本数为64。
7.根据权利要求1所述的水下沉底小目标融合分类方法,其特征在于,所述Logistic分类器的训练步骤具体为:利用获得的Zernike矩特征对Logistics分类器进行训练;训练参数为:惩罚项为L2;正则化系数为1.0。
8.根据权利要求1所述的水下沉底小目标融合分类方法,其特征在于,所述SVM分类器的训练步骤具体为:利用获得的水下沉底小目标分割图像对SVM分类器进行训练;训练参数为:采用线性核函数;惩罚项为L2;惩罚项参数为1.0。
9.根据权利要求6所述的水下沉底小目标融合分类方法,其特征在于,所述融合系数的计算步骤具体包括:
将构建的水下沉底小目标测试集的分割图像输入训练好的CNN分类器进行分类,记录K个分类类型的分类错误的样本数:Tc1,Tc2,…TcK;记录如果水下沉底小目标被Logistic、SVM、CNN三种不同的成员分类器认为是K个分类类型中的某一种时,分类错误的样本数:Ec1,Ec2,…EcK;
将构建的水下沉底小目标测试集的分割图像输入到训练好的SVM分类器进行分类,记录K个分类类型的分类错误的样本数:Ts1,Ts2,…TsK,记录如果水下沉底小目标被Logistic、SVM、CNN三种不同的成员分类器认为是K个分类类型中的某一种时,分类错误的样本数:Es1,Es2,…EsK;
将构建的水下沉底小目标测试集的Zernike矩输入到训练好的Logistic分类器进行分类,记录K个分类类型的分类错误的样本数:Tl1,Tl2,…TlK;记录如果水下沉底小目标被Logistic、SVM、CNN三种不同的成员分类器认为是K个分类类型中的某一种时,分类错误的样本数:El1,El2,…ElK;
对于第k个分类类型,1≤k≤K;对Tlk,Tsk,Tck进行降序排列得到T1,T2,T3;对Elk,Esk,Eck进行降序排列得到E1,E2,E3,临时系数WT1,WT2和WT3由下式计算:
临时系数WE1,WE2和WE3由下式计算:
将T1,T2,T3与Tck,Tsk,Tlk的对应关系用于WT1,WT2和WT3,得到WTlk,WTsk和WTck;将E1,E2,E3与Elk,Esk,Eck的对应关系用于WE1,WE2和WE3,得到WElk,WEsk,WEck;则则第k个分类类型的三个分类器的融合系数Wlk,Wsk,Wck为:
Wlk=WTlk+WElk,Wsk=WTsk+WEsk,Wck=WTck+WEck
则Logistic,SVM和CNN三种成员分类器对应的融合系数分别为Wl1,Wl2,…WlK、Ws1,Ws2,…WsK和Wc1,Wc2,…WcK。
10.根据权利要求9所述的水下沉底小目标融合分类方法,其特征在于,所述按照预先计算的融合系数对三个分类结果进行决策融合,得到最终的待分类的水下沉底小目标的分类结果,具体包括:
步骤S1)将待分类的水下沉底小目标输入三个分类器得到三个输出结果;
步骤S2)根据三个输出结果获取所对应的决策值:Dlogistic,Dsvm和Dcnn:
步骤S3)计算待分类的水下沉底小目标的K个分类类型的可信系数V1,V2...VK:
其中,W为融合系数矩阵:
D为决策矩阵:
D=[Dlogistic,Dsvm,Dcnn]T
步骤S4)从V1,V2...VK找出最大可信系数,其对应的下标代表的类型即为最终的待分类的水下沉底小目标的分类结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910155125.4A CN111639659B (zh) | 2019-03-01 | 2019-03-01 | 一种水下沉底小目标融合分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910155125.4A CN111639659B (zh) | 2019-03-01 | 2019-03-01 | 一种水下沉底小目标融合分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111639659A true CN111639659A (zh) | 2020-09-08 |
CN111639659B CN111639659B (zh) | 2023-11-14 |
Family
ID=72330475
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910155125.4A Active CN111639659B (zh) | 2019-03-01 | 2019-03-01 | 一种水下沉底小目标融合分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111639659B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112731410A (zh) * | 2020-12-25 | 2021-04-30 | 上海大学 | 一种基于cnn的水下目标声呐探测方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102646200A (zh) * | 2012-03-08 | 2012-08-22 | 武汉大学 | 多分类器自适应权值融合的影像分类方法及系统 |
CN103489005A (zh) * | 2013-09-30 | 2014-01-01 | 河海大学 | 一种基于多分类器融合的高分辨率遥感影像分类方法 |
CN105184309A (zh) * | 2015-08-12 | 2015-12-23 | 西安电子科技大学 | 基于cnn和svm的极化sar图像分类 |
US20170023358A1 (en) * | 2015-04-21 | 2017-01-26 | Kla-Tencor Corporation | Metrology target design for tilted device designs |
CN107180248A (zh) * | 2017-06-12 | 2017-09-19 | 桂林电子科技大学 | 基于联合损失增强网络的高光谱图像分类方法 |
CN107403200A (zh) * | 2017-08-10 | 2017-11-28 | 北京亚鸿世纪科技发展有限公司 | 改进图像分割算法结合深度学习的多重不良图片分类方法 |
WO2018050432A1 (en) * | 2016-09-13 | 2018-03-22 | Asml Netherlands B.V. | Optimization of a lithography apparatus or patterning process based on selected aberration |
CN108898069A (zh) * | 2018-06-05 | 2018-11-27 | 辽宁石油化工大学 | 基于多分类器融合的视频火焰检测方法 |
CN109063750A (zh) * | 2018-07-17 | 2018-12-21 | 西安电子科技大学 | 基于cnn和svm决策融合的sar目标分类方法 |
-
2019
- 2019-03-01 CN CN201910155125.4A patent/CN111639659B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102646200A (zh) * | 2012-03-08 | 2012-08-22 | 武汉大学 | 多分类器自适应权值融合的影像分类方法及系统 |
CN103489005A (zh) * | 2013-09-30 | 2014-01-01 | 河海大学 | 一种基于多分类器融合的高分辨率遥感影像分类方法 |
US20170023358A1 (en) * | 2015-04-21 | 2017-01-26 | Kla-Tencor Corporation | Metrology target design for tilted device designs |
CN105184309A (zh) * | 2015-08-12 | 2015-12-23 | 西安电子科技大学 | 基于cnn和svm的极化sar图像分类 |
WO2018050432A1 (en) * | 2016-09-13 | 2018-03-22 | Asml Netherlands B.V. | Optimization of a lithography apparatus or patterning process based on selected aberration |
CN107180248A (zh) * | 2017-06-12 | 2017-09-19 | 桂林电子科技大学 | 基于联合损失增强网络的高光谱图像分类方法 |
CN107403200A (zh) * | 2017-08-10 | 2017-11-28 | 北京亚鸿世纪科技发展有限公司 | 改进图像分割算法结合深度学习的多重不良图片分类方法 |
CN108898069A (zh) * | 2018-06-05 | 2018-11-27 | 辽宁石油化工大学 | 基于多分类器融合的视频火焰检测方法 |
CN109063750A (zh) * | 2018-07-17 | 2018-12-21 | 西安电子科技大学 | 基于cnn和svm决策融合的sar目标分类方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112731410A (zh) * | 2020-12-25 | 2021-04-30 | 上海大学 | 一种基于cnn的水下目标声呐探测方法 |
CN112731410B (zh) * | 2020-12-25 | 2021-11-05 | 上海大学 | 一种基于cnn的水下目标声呐探测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111639659B (zh) | 2023-11-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110210486B (zh) | 一种基于素描标注信息的生成对抗迁移学习方法 | |
Howard et al. | Mobilenets: Efficient convolutional neural networks for mobile vision applications | |
CN109389171B (zh) | 基于多粒度卷积降噪自动编码器技术的医疗图像分类方法 | |
CN104392253B (zh) | 一种草图数据集的交互式类别标注方法 | |
Kang | Rotation-invariant wafer map pattern classification with convolutional neural networks | |
CN114627383B (zh) | 一种基于度量学习的小样本缺陷检测方法 | |
CN111680755B (zh) | 医学图像识别模型构建及医学图像识别方法、装置、介质及终端 | |
Singh et al. | Steganalysis of digital images using deep fractal network | |
Dong et al. | An improved convolution neural network for object detection using YOLOv2 | |
CN116503676B (zh) | 一种基于知识蒸馏小样本增量学习的图片分类方法及系统 | |
CN111553873A (zh) | 基于多尺度卷积神经网络的脑神经元自动检测方法 | |
CN112364974B (zh) | 一种基于激活函数改进的YOLOv3算法 | |
Abd Al Rahman et al. | An improved capsule network (WaferCaps) for wafer bin map classification based on DCGAN data upsampling | |
CN114972759A (zh) | 基于分级轮廓代价函数的遥感图像语义分割方法 | |
Xie et al. | A method for surface defect detection of printed circuit board based on improved YOLOv4 | |
Li et al. | HEp-2 specimen classification via deep CNNs and pattern histogram | |
CN113436125B (zh) | 基于风格迁移的侧扫声呐仿真图像生成方法、装置及设备 | |
CN110852351A (zh) | 基于图像的垃圾分类方法、装置、终端设备和存储介质 | |
CN111639659B (zh) | 一种水下沉底小目标融合分类方法 | |
CN113128614B (zh) | 基于图像梯度的卷积方法、基于方向卷积的神经网络及分类方法 | |
Li et al. | Towards optimal filter pruning with balanced performance and pruning speed | |
Sufikarimi et al. | Speed up biological inspired object recognition, HMAX | |
CN115063374A (zh) | 模型训练、人脸图像质量评分方法、电子设备及存储介质 | |
CN111461130B (zh) | 一种高精度图像语义分割算法模型及分割方法 | |
CN113724261A (zh) | 一种基于卷积神经网络的快速图像构图方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |