CN107122753B - 基于集成学习的sar目标鉴别方法 - Google Patents
基于集成学习的sar目标鉴别方法 Download PDFInfo
- Publication number
- CN107122753B CN107122753B CN201710316452.4A CN201710316452A CN107122753B CN 107122753 B CN107122753 B CN 107122753B CN 201710316452 A CN201710316452 A CN 201710316452A CN 107122753 B CN107122753 B CN 107122753B
- Authority
- CN
- China
- Prior art keywords
- training
- class
- test
- dictionary
- slice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/259—Fusion by voting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Astronomy & Astrophysics (AREA)
- Remote Sensing (AREA)
- Multimedia (AREA)
- Other Investigation Or Analysis Of Materials By Electrical Means (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明公开了一种基于集成学习的SAR目标鉴别方法,主要解决现有技术在训练数据类别分布不平衡时SAR目标鉴别性能低的问题。其方案是:1.对给定的训练切片和测试切片提取词包模型特征;2.对杂波类训练样本进行随机下采样,将得到的子集与目标类训练样本一起训练获得代价敏感的字典;3.对杂波类训练样本进行随机下采样,将得到的子集与目标类训练样本一起训练获得SVM分类器;4.利用代价敏感的字典和SVM分类器对测试样本进行分类,记录测试样本的分类决策值;5.利用最大投票方法对测试样本的分类决策值进行判定,确定测试样本最终的类别标号。本发明提升了鉴别的性能,可用于对复杂场景下的训练数据类别不平衡时的SAR目标鉴别。
Description
技术领域
本发明属于雷达技术领域,特别涉及一种SAR目标鉴别方法,可用于对车辆目标识别与分类提供重要信息。
背景技术
合成孔径雷达SAR利用微波遥感技术,不受气候和昼夜影响,具有全天候、全天时的工作能力,并具有多频段、多极化、视角可变和穿透性等特点。随着越来越多的机载和星载SAR的出现,带来大量不同场景下的SAR数据,对SAR数据一个重要的应用就是自动目标识别ATR,复杂场景下的目标鉴别也成为目前研究方向之一。
SAR目标鉴别是指从训练数据集中学习得到的一个分类器,这个分类器可以用于预测未知样本的类别标号。现有文献中已提出了很多的SAR目标鉴别方法,比如:基于纹理、形状、对比度等传统特征的二次距离鉴别方法、基于梯度直方图特征的SVM鉴别方法、基于词袋模型特征的SVM鉴别方法等等。这些传统的SAR目标鉴别方法在SAR训练数据集类别分布相对平衡时性能较好,但是当SAR训练数据集类别分布不平衡时性能较差。又因为在实验中SAR训练数据集中目标样本数远少于杂波样本数,传统方法的目标检测率较低,而在SAR目标鉴别过程中通常更加关注目标的检测率,即在实际应用中倾向于将目标分对,尽量降低目标的漏检率。然而传统的SAR目标鉴别方法并不适用于训练数据类别不平衡这种情况下的SAR目标鉴别。
上述的传统的分类方法在不平衡的SAR数据集上其分类效果存在以下不足:
1.由于传统分类方法基本都是以训练数据总体分类精度最大为分类准则,当训练样本类别分布不平衡时,目标类数据在训练数据集中占很小的比例,分类器通常是倾向于将目标类判定为杂波类,因此对目标类样本的检测率较低,从而导致SAR目标鉴别的性能较差。
2.由于在SAR目标鉴别过程中,通常更加关注目标类的准确率,当训练样本类别分布不平衡时,传统的分类方法训练所得的分类器会对杂波类样本产生很高的检测率,但是对目标类样本的检测率却很低,由于面对不平衡数据集的SAR目标鉴别时,不仅要维持杂波类原有的分类精度,更要大大提高目标类的分类精度,因此现有的这些传统SAR目标鉴别方法并不能满足这个要求。
发明内容
本发明的目的在于针对已有SAR目标鉴别方法的不足,提出一种基于集成学习的SAR目标鉴别方法,以提高在训练数据类别不平衡时的目标鉴别性能。
为实现上述目的,本发明的技术方案包括如下:
(1)对给定的训练切片和测试切片分别提取词包模型特征,得到训练切片的词包模型特征和测试切片的词包模型特征其中,表示目标类训练切片,表示杂波类训练切片,表示目标类测试切片,表示杂波类测试切片,是目标类训练切片的词包模型特征,是杂波类训练切片的词包模型特征,是目标类测试切片的词包模型特征,是杂波类测试切片的词包模型特征,p1表示目标类训练切片数目,p2表示杂波类训练切片数目,k1表示目标类测试切片数目,k2表示杂波类测试切片数目,h表示词包模型特征的维数。
(2)利用(1)中所得的训练切片的词包模型特征W训练n个代价敏感的字典,得到训练后的字典D1,...,Di...,Dn,i=1,...,n:
2b)当前循环次数为i′,i′=1,...,n′,n′为学习字典的最大循环次数,其值与随机下采样的子集个数n相同;选择集合{N1,...,Ni,...,Nn}中第i=i′个子集Ni,与目标类训练样本一起再构成新的训练样本Ti=[P,Ni];
2c)利用新的训练样本Ti=[P,Ni]进行代价敏感的字典学习,得到第i个字典Di;
2d)将当前循环次数i′与最大循环次数n′进行比较,若i′≤n′,则令i′=i′+1,返回到2b),若i′>n′,则停止循环,得到所有字典D1,...,Di...,Dn;
(3)利用(1)中所得的训练切片的词包模型特征W训练m个支持向量机SVM,得到训练后的模型M1,...,Mj...,Mm,j=1,...,m;
本发明为复杂场景下SAR训练数据集类别不平衡时的车辆目标鉴别方法,相比于传统的SAR目标鉴别方法,本发明在训练分类器时针对训练数据中目标类样本数目少于杂波类样本数目而导致分类器的分类结果倾向于杂波类的问题,采用集成学习方法,集成了基于代价敏感字典的稀疏表达分类器和支持向量机SVM分类器,用集成后的分类器对测试样本进行测试,提升了复杂场景下SAR训练数据集类别不平衡时的车辆目标鉴别性能。
附图说明
图1是本发明的实现流程图;
图2是本发明中的代价敏感字典学习的子流程图;
图3是本发明实验1使用的一组切片图像;
图4是本发明实验2使用的一组切片图像;
图5是本发明实验3使用的一组切片图像;
图6是本发明实验4使用的一组切片图像;
具体实施方式
下面结合附图对本发明的实施例和效果作进一步详细说明:
参见图1,本发明的实现步骤包括如下:
步骤1,对给定的训练切片图像和测试切片图像提取词包模型特征。
1a)从给定的miniSAR切片数据集中,得到训练切片图像和测试切片图像其中,表示目标类训练切片,表示杂波类训练切片,表示目标类测试切片,表示杂波类测试切片,p1表示目标类训练切片图像数目,p2表示杂波类训练切片图像数目,k1表示目标类测试切片图像数目,k2表示杂波类测试切片图像数目;
1d)对训练样本的局部特征X利用kmeans算法得到编码字典D;
1f)对训练样本的局部特征编码系数A进行特征合并,得到训练样本的词包模型特征:
1h)对测试样本局部特征编码系数B进行特征合并,得到测试样本的词包模型特征:
步骤2,根据步骤1中的训练样本的词包模型特征W训练n个代价敏感的字典,得到训练后的字典。
2b)设当前循环次数为i′,i′=1,...,n′,n′为学习字典的最大循环次数,其值与随机下采样的子集个数n相同;选择集合{N1,...,Ni,...,Nn}中第i=i′个子集Ni,与目标类训练样本一起再构成新的训练样本Ti=[P,Ni];
2c)利用新的训练样本Ti=[P,Ni]进行代价敏感的字典学习,得到第i个字典Di;
参见图2,本步骤的具体实现如下:
2c3)令iter=1为当前迭代次数,iterMax为最大迭代次数;
2c4)由新的训练样本Ti和字典Di,利用下面的优化模型求解稀疏系数Λi:
2c5)利用2c4)中的稀疏系数Λi,通过求解下面的优化公式,更新字典Di:
通过拉格朗日乘子法求解上述优化公式,得到更新后的第h列原子:
2d)将当前循环次数i′与最大循环次数n′进行比较,若i′≤n′,则令i′=i′+1,返回到2b),若i′>n′,则停止循环,得到所有字典D1,...,Di...,Dn,i=1,...,n。
步骤3,根据步骤1中的训练样本的词包模型特征W训练m个支持向量机SVM,得到训练后的模型。
3b)设训练SVM的当前循环次数为:j′=1,...,m′,m′为训练SVM的最大循环次数,其值与随机下采样的子集个数m相同;从集合{F1,...,Fj...,Fm}中选择第j=j′个子集Fj,并将其与目标类训练样本一起构成新的训练样本Uj=[P,Fj];
3c)利用训练样本Uj=[P,Fj]训练一个支持向量机SVM,得到第j个训练后的模型Mj;
3d)将当前循环次数j′与最大循环次数m′进行比较:若j′≤m′,则令j′=j′+1,返回到3b),若j′>m′,则停止循环,得到所有训练后的模型M1,...,Mj...,Mm,j=1,...m。
步骤4,利用步骤2中得到的所有字典D1,...,Di...,Dn和步骤3中得到的所有模型M1,...,Mj...,Mm,对测试样本V进行分类。
4a)利用步骤2中得到的字典D1,...,Di...,Dn对测试样本V进行稀疏表达分类;
4a1)设循环次数为i′=1,...,n′,n′为最大循环次数,其值与字典个数一样;
4a4)将当前循环次数i′与最大循环次数n′进行比较,若i′≥n′,则令i′=i′+1,返回到4a2),否则,得到所有字典D1,...,Di...,Dn对测试样本V的分类结果:
4b)利用步骤3中得到的训练后模型M1,...,Mj...,Mm对测试样本V进行支持向量机SVM分类;
4b1)设循环次数为j′=1,...,m′,m′为最大循环次数,其值与模型个数一样;
4b2)利用第j=j′个模型Mj对测试样本V进行支持向量机SVM分类:若第k个测试样本预测为目标类,则令模型Mj对第k个测试样本的分类结果若第k个测试样本预测为杂波类,则令模型Mj对第k个测试样本的分类结果
4b4)将当前循环次数j′与最大循环次数m′进行比较:若j′≥m′,则令j′=j′+1,返回到4b2),否则,得到训练后所有模型M1,...,Mj...,Mm对测试样本V的分类结果:
4c)根据4a)中的字典D1,...,Di...,Dn对测试样本V分类结果和4b)中的训练后模型M1,...,Mj...,Mm对测试样本V的分类结果,得到第k个测试样本的分类决策值为:
本发明的效果可通过以下实验数据进一步说明:
实验1:
(1)实验场景:
本实验所用的测试切片图像来自于美国Sandia实验室公开的miniSAR数据集中的图像MiniSAR20050519p0006image004,所用的训练切片图像来自于美国Sandia实验室公开的miniSAR数据集中的图像MiniSAR20050519p0002image005、图像MiniSAR20050519p0003image003和图像MiniSAR20050519p0005image003,这些数据下载自Sandia实验室的网站,切片图像示例如图3所示,其中图3(a)是目标类训练切片图像示例,图3(b)是杂波类训练切片图像示例,图3(c)是测试切片图像示例。
(2)实验参数:
取训练目标切片数p1=353,训练杂波切片数p2=1442,测试目标切片数k1=140,测试杂波切片数k2=599;从杂波类训练样本随机下采样8个子集,取正则化参数λ1=λ2=0.01,代价常数σ=2,目标样本类错分成杂波类样本的代价Ctc=5,杂波类样本错分成目标类样本的代价Cct=1,目标类字典原子数目和杂波类原子数目Z=300,字典更新迭代最大次数iterMax=5,SVM分类器采用LIBSVM工具包,选择高斯核的SVM分类器,设核参数g=10,惩罚系数C=10;
(3)实验内容:
(3.1)用现有的基于支持向量机SVM的方法与本发明方法对训练样本类别分布非平衡下的SAR数据进行对比实验;
(3.2)用现有的基于稀疏表达分类SRC的方法与本发明方法对训练样本类别分布非平衡下的SAR数据进行对比实验;
(3.3)用现有的基于KSVD的稀疏表达分类KSVD-SRC的方法与本发明方法对训练样本类别分布非平衡下的SAR数据进行对比实验;
(3.4)用现有的基于代价敏感字典学习CSDL的方法与本发明方法对训练样本类别分布非平衡下的SAR数据进行对比实验。
实验1的对比结果如表1所示,表1中的AUC表示ROC曲线下的面积,Pc表示总体精度,Pd表示检测率,Pf表示虚警率。
表1不同方法的对比结果
不同方法 | AUC | Pc | Pd | Pf |
SVM | 0.9451 | 0.8917 | 0.5000 | 0.0167 |
SRC | 0.7617 | 0.7957 | 0.2857 | 0.0851 |
KSVD-SRC | 0.9299 | 0.8809 | 0.6357 | 0.0618 |
CSDL | 0.9633 | 0.9202 | 0.8357 | 0.0601 |
本发明 | 0.9737 | 0.9250 | 0.8636 | 0.0606 |
从表1中可见,本发明的AUC和目标检测率Pd最高,并且在检测率有较大幅度上升的同时虚警率上升幅度较小,说明在训练样本类别分布非平衡时,本发明的鉴别性能比现有的方法更好。
实验2:
(1)实验场景:
本实验所用的测试切片图像来自于美国Sandia实验室公开的miniSAR数据集中的图像MiniSAR20050519p0002image005,所用的训练切片图像来自于美国Sandia实验室公开的miniSAR数据集中的图像MiniSAR20050519p0006image004、图像MiniSAR20050519p0003image003和图像MiniSAR20050519p0005image003,这些数据下载自Sandia实验室的网站,切片图像示例如图4所示,其中图4(a)是目标类训练切片图像示例,图4(b)是杂波类训练切片图像示例,图4(c)是测试切片图像示例。
(2)实验参数:
取训练目标切片数p1=414,训练杂波切片数p2=1531,测试目标切片数k1=79,测试杂波切片数k2=510;从杂波类训练样本随机下采样8个子集;取正则化参数λ1=λ2=0.01,代价常数σ=2,目标样本类错分成杂波类样本的代价Ctc=5,杂波类样本错分成目标类样本的代价Cct=1,目标类字典原子数目和杂波类原子数目Z=300,字典更新迭代最大次数iterMax=5,SVM分类器采用LIBSVM工具包,选择高斯核的SVM分类器,取核参数g=10,惩罚系数C=10;
(3)试验内容:
同实验1相同。
实验2的对比结果如表2所示:
表2不同方法的对比结果
不同方法 | AUC | Pc | Pd | Pf |
SVM | 0.8820 | 0.8964 | 0.4051 | 0.0275 |
SRC | 0.7097 | 0.7385 | 0.4051 | 0.2098 |
KSVD-SRC | 0.8780 | 0.8251 | 0.4204 | 0.1137 |
CSDL | 0.9059 | 0.8846 | 0.5433 | 0.0627 |
本发明 | 0.9482 | 0.9027 | 0.8139 | 0.0835 |
从表2中可见,本发明的AUC和目标检测率Pd最高,并且在检测率有较大幅度上升的同时虚警率上升幅度较小,说明在训练样本类别分布非平衡时,本发明的鉴别性能比现有的方法更好。
实验3:
(1)实验场景:
本实验所用的测试切片图像来自于美国Sandia实验室公开的miniSAR数据集中的图像MiniSAR20050519p0003image003,所用的训练切片图像来自于美国Sandia实验室公开的miniSAR数据集中的图像MiniSAR20050519p0006image004、图像MiniSAR20050519p0005image003和图像MiniSAR20050519p0002image005,这些数据下载自Sandia实验室的网站,切片图像示例如图5所示,其中图5(a)是目标类训练切片图像示例,图5(b)是杂波类训练切片图像示例,图5(c)是测试切片图像示例。
(2)实验参数:
取训练目标切片数p1=334,训练杂波切片数p2=1414,测试目标切片数k1=159,测试杂波切片数k2=627;从杂波类训练样本随机下采样8个子集,取正则化参数λ1=λ2=0.01,代价常数σ=2,目标样本类错分成杂波类样本的代价Ctc=5,杂波类样本错分成目标类样本的代价Cct=1,目标类字典原子数目和杂波类原子数目Z=300,字典更新迭代最大次数iterMax=5,SVM分类器采用LIBSVM工具包,选择高斯核的SVM分类器,取核参数g=10,惩罚系数C=10;
(3)实验内容:
同实验1相同。
实验3的对比结果如表3所示:
表3不同方法的对比结果
不同方法 | AUC | Pc | Pd | Pf |
SVM | 0.8383 | 0.7691 | 0.7610 | 0.2281 |
SRC | 0.5088 | 0.6247 | 0.2830 | 0.2887 |
KSVD-SRC | 0.7585 | 0.7214 | 0.6792 | 0.2679 |
CSDL | 0.7944 | 0.6972 | 0.7673 | 0.3206 |
本发明 | 0.8389 | 0.6308 | 0.9025 | 0.4381 |
从表3中可见,本发明的AUC和目标检测率Pd最高,并且在检测率有较大幅度上升的同时虚警率上升幅度较小,说明在训练样本类别分布非平衡时,本发明的鉴别性能比现有的方法更好。
实验4:
(1)实验场景:
本实验所用的测试切片图像来自于美国Sandia实验室公开的miniSAR数据集中的图像MiniSAR20050519p0005image003,所用的训练切片图像来自于美国Sandia实验室公开的miniSAR数据集中的图像MiniSAR20050519p0006image004、图像MiniSAR20050519p0003image003和图像MiniSAR20050519p0002image005,这些数据下载自Sandia实验室的网站,切片图像示例如图6所示,其中图6(a)是目标类训练切片图像示例,图6(b)是杂波类训练切片图像示例,图6(c)是测试切片图像示例。
(2)实验参数:
取训练目标切片数p1=378,训练杂波切片数p2=1736,测试目标切片数k1=115,测试杂波切片数k2=305;从杂波类训练样本随机下采样8个子集;取正则化参数λ1=λ2=0.01,代价常数σ=2,目标样本类错分成杂波类样本的代价Ctc=5,杂波类样本错分成目标类样本的代价Cct=1,目标类字典原子数目和杂波类原子数目Z=300,字典更新迭代最大次数iterMax=5,SVM分类器采用LIBSVM工具包,选择高斯核的SVM分类器,取核参数g=10,惩罚系数C=10;
(3)实验内容:
同实验1相同。
实验4的对比结果如表4所示:
表4不同方法的对比结果
不同方法 | AUC | Pc | Pd | Pf |
SVM | 0.9058 | 0.8738 | 0.6522 | 0.0426 |
SRC | 0.6818 | 0.6667 | 0.1565 | 0.1410 |
KSVD-SRC | 0.8733 | 0.8405 | 0.6957 | 0.1049 |
CSDL | 0.9247 | 0.8619 | 0.7913 | 0.1115 |
本发明 | 0.9315 | 0.8402 | 0.8226 | 0.1531 |
从表4中可见,本发明的AUC和目标检测率Pd最高,并且在检测率有较大幅度上升的同时虚警率上升幅度较小,说明在训练样本类别分布非平衡时,本发明的鉴别性能比现有的方法更好。
综上,本发明是基于集成学习的SAR目标鉴别方法,解决了训练样本集类别分布非平衡下得SAR的目标鉴别问题,有效的利用了高分辨SAR图像丰富的细节信息以及不同类别的错分代价信息,并采用集成学习的方法进一步提升了复杂场景下的SAR目标鉴别性能。
Claims (6)
1.基于集成学习的SAR目标鉴别方法,包括:
(1)对给定的训练切片和测试切片分别提取词包模型特征,得到训练切片的词包模型特征和测试切片的词包模型特征其中,表示目标类训练切片,表示杂波类训练切片,表示目标类测试切片,表示杂波类测试切片,是目标类训练切片的词包模型特征,是杂波类训练切片的词包模型特征,是目标类测试切片的词包模型特征,是杂波类测试切片的词包模型特征,p1表示目标类训练切片数目,p2表示杂波类训练切片数目,k1表示目标类测试切片数目,k2表示杂波类测试切片数目,h表示词包模型特征的维数;
(2)利用(1)中所得的训练切片的词包模型特征W训练n个代价敏感的字典,得到训练后的字典D1,...,Di...,Dn,i=1,...,n:
2b)当前循环次数为i′,i′=1,...,n′,n′为学习字典的最大循环次数,其值与随机下采样的子集个数n相同;选择集合{N1,...,Ni,...,Nn}中第i=i′个子集Ni,与目标类训练样本一起再构成新的训练样本Ti=[P,Ni];
2c)利用新的训练样本Ti=[P,Ni]进行代价敏感的字典学习,得到第i个字典Di;
2d)将当前循环次数i′与最大循环次数n′进行比较,若i′≤n′,则令i′=i′+1,返回到2b),若i′>n′,则停止循环,得到所有字典D1,...,Di...,Dn;
(3)利用(1)中所得的训练切片的词包模型特征W训练m个支持向量机SVM,得到训练后的模型M1,...,Mj...,Mm,j=1,...,m;
2.根据权利要求1所述的方法,其中步骤(1)提取训练切片I和测试切片J的词包模型特征,按如下步骤进行:
1a)利用SAR-SIFT描述符对给定的训练切片图像I进行局部特征提取,得到训练切片图像的局部特征其中,是目标类训练切片图像的局部特征,是杂波类训练切片图像的局部特征,p1表示目标类训练切片图像数目,p2表示杂波类训练切片图像数目;
1b)利用SAR-SIFT描述符对给定的测试切片图像J进行局部特征提取,得到测试切片图像的局部特征其中,是目标类测试切片图像的局部特征,是杂波类测试练切片图像的局部特征,k1表示目标类测试切片图像数目,k2表示杂波类测试切片图像数目;
1c)对训练样本的局部特征X利用kmeans算法得到编码字典D;
1d)利用编码字典D对训练样本的局部特征X进行特征编码,得到训练样本的局部特征编码系数其中,目标类训练切片图像的局部特征编码系数,是杂波类训练切片图像的局部特征编码系数,接着对训练样本的局部特征编码系数A进行特征合并,得到训练样本的词包模型特征:
其中,h表示词包模型特征的维数;
1e)利用编码字典D对测试样本的局部特征Y进行特征编码,得到测试样本的局部特征编码系数其中,目标类测试切片图像的局部特征编码系数,是杂波类测试切片图像的局部特征编码系数,接着对测试样本局部特征编码系数B进行特征合并,测试样本的词包模型特征:
3.根据权利要求1所述的方法,其中步骤2c)求解代价敏感的字典Di,按如下步骤进行;
2c3)令iter=1为当前迭代次数,iterMax为最大迭代次数;
2c4)由新的训练样本Ti和字典Di,利用下面的优化模型求解稀疏系数Λi:
2c5)通过求解下面的优化模型,更新字典Di:
通过拉格朗日乘子法求解上述优化公式,得到更新后的第h列原子:
5.根据权利要求1所述的方法,其中步骤(3)中训练m个支持向量机SVM,得到训练后的模型M1,...,Mj...,Mm,j=1,...m,按如下步骤进行;
3b),设训练SVM的当前循环次数为:j′=1,...,m′,m′为训练SVM的最大循环次数,其值与随机下采样的子集个数m相同;从集合{F1,...,Fj...,Fm}中选择第j=j′个子集Fj,并将其与目标类训练样本一起构成新的训练样本Uj=[P,Fj];
3c)利用训练样本Uj=[P,Fj]训练一个支持向量机SVM,得到第j个训练后的模型Mj;
3d)将当前循环次数j′与最大循环次数m′进行比较,若j′≤m′,则令j′=j′+1,返回到3b),若j′>m′,则停止循环,得到所有训练后的模型M1,...,Mj...,Mm。
6.根据权利要求1所述的方法,其中步骤(4)利用(2)中得到的所有字典D1,...,Di...,Dn和(3)中得到的所有模型M1,...,Mj...,Mm对测试样本V进行分类,按如下步骤进行;
4a)利用(2)中得到的字典D1,...,Di...,Dn对测试样本V进行稀疏表达分类;
4a1)设循环次数为i′=1,...,n′,n′为最大循环次数,其值与字典个数一样;
4a4)将当前循环次数i′与最大循环次数n′进行比较,若i′≥n′,则令i′=i′+1,返回到4a2),否则,得到字典D1,...,Di...,Dn对测试样本V的分类结果:
4b)利用(3)中得到的训练后模型M1,...,Mj...,Mm对测试样本V进行支持向量机SVM分类;
4b1)设循环次数为j′=1,...,m′,m′为最大循环次数,其值与模型个数一样;
4b2)利用第j=j′个模型Mj对测试样本V进行支持向量机SVM分类,若第k个测试样本预测为目标类,则令模型Mj对第k个测试样本的分类结果若第k个测试样本预测为杂波类,则令模型Mj对第k个测试样本的分类结果
4b4)将当前循环次数j′与最大循环次数m′进行比较,若j′≥m′,则令j′=j′+1,返回到4b2),否则,得到训练后模型M1,...,Mj...,Mm对测试样本V的分类结果:
4c)根据4a)中的字典D1,...,Di...,Dn对测试样本V分类结果和4b)中的训练后模型M1,...,Mj...,Mm对测试样本V的分类结果,得到第k个测试样本的分类决策值为:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710316452.4A CN107122753B (zh) | 2017-05-08 | 2017-05-08 | 基于集成学习的sar目标鉴别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710316452.4A CN107122753B (zh) | 2017-05-08 | 2017-05-08 | 基于集成学习的sar目标鉴别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107122753A CN107122753A (zh) | 2017-09-01 |
CN107122753B true CN107122753B (zh) | 2020-04-07 |
Family
ID=59727782
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710316452.4A Active CN107122753B (zh) | 2017-05-08 | 2017-05-08 | 基于集成学习的sar目标鉴别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107122753B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109934292B (zh) * | 2019-03-15 | 2021-04-09 | 西安电子科技大学 | 基于代价敏感性辅助学习的不平衡极化sar地物分类方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103955915A (zh) * | 2014-03-17 | 2014-07-30 | 西安电子科技大学 | 基于稀疏表示和多字典的sar图像分割 |
CN105913083A (zh) * | 2016-04-08 | 2016-08-31 | 西安电子科技大学 | 基于稠密sar-sift和稀疏编码的sar分类方法 |
CN105956611A (zh) * | 2016-04-25 | 2016-09-21 | 西安电子科技大学 | 基于鉴别非线性字典学习的sar图像目标识别方法 |
CN106408030A (zh) * | 2016-09-28 | 2017-02-15 | 武汉大学 | 基于中层语义属性和卷积神经网络的sar图像分类方法 |
CN106599831A (zh) * | 2016-12-12 | 2017-04-26 | 西安电子科技大学 | 基于样本加权类别特定与共享字典的sar目标鉴别方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5417368B2 (ja) * | 2011-03-25 | 2014-02-12 | 株式会社東芝 | 画像識別装置及び画像識別方法 |
US9152881B2 (en) * | 2012-09-13 | 2015-10-06 | Los Alamos National Security, Llc | Image fusion using sparse overcomplete feature dictionaries |
-
2017
- 2017-05-08 CN CN201710316452.4A patent/CN107122753B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103955915A (zh) * | 2014-03-17 | 2014-07-30 | 西安电子科技大学 | 基于稀疏表示和多字典的sar图像分割 |
CN105913083A (zh) * | 2016-04-08 | 2016-08-31 | 西安电子科技大学 | 基于稠密sar-sift和稀疏编码的sar分类方法 |
CN105956611A (zh) * | 2016-04-25 | 2016-09-21 | 西安电子科技大学 | 基于鉴别非线性字典学习的sar图像目标识别方法 |
CN106408030A (zh) * | 2016-09-28 | 2017-02-15 | 武汉大学 | 基于中层语义属性和卷积神经网络的sar图像分类方法 |
CN106599831A (zh) * | 2016-12-12 | 2017-04-26 | 西安电子科技大学 | 基于样本加权类别特定与共享字典的sar目标鉴别方法 |
Non-Patent Citations (4)
Title |
---|
"Automatic target recognition with joint sparse representation of heterogeneous multi-view SAR images over a locally adaptive dictionary";Zongjie Cao et al;《Signal Processing》;20160121;第126卷;27-34 * |
"Decision fusion of sparse representation and support vector machine for SAR image target recognition";Haicang Liu et al;《Neurocomputing》;20130305;第113卷;97-104 * |
"基于稀疏编码字典和深度学习的极化SAR影像地物分类";汤玫;《中国优秀硕士学位论文全文数据库》;20170315;第2017年卷(第3期);I136-2184 * |
"基于稀疏表示的SAR目标识别算法研究";黎兰;《中国优秀硕士学位论文全文数据库-信息科技辑》;20160315;第2016年卷(第3期);I136-2387 * |
Also Published As
Publication number | Publication date |
---|---|
CN107122753A (zh) | 2017-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108510467B (zh) | 基于深度可变形卷积神经网络的sar图像目标识别方法 | |
CN107515895B (zh) | 一种基于目标检测的视觉目标检索方法与系统 | |
CN108133232B (zh) | 一种基于统计字典学习的雷达高分辨距离像目标识别方法 | |
CN108426994B (zh) | 分析数字全息显微术数据以用于血液学应用 | |
CN103971123B (zh) | 基于线性回归与Fisher判别字典学习的高光谱图像分类方法 | |
CN108280460B (zh) | 基于改进卷积神经网络的sar车辆目标识别方法 | |
CN107480620B (zh) | 基于异构特征融合的遥感图像自动目标识别方法 | |
CN109598711B (zh) | 一种基于特征挖掘和神经网络的热图像缺陷提取方法 | |
Wang et al. | A sparse representation-based method for infrared dim target detection under sea–sky background | |
CN111046787A (zh) | 一种基于改进YOLO v3模型的行人检测方法 | |
CN111126361B (zh) | 基于半监督学习和特征约束的sar目标鉴别方法 | |
CN109801305B (zh) | 基于深度胶囊网络的sar图像变化检测方法 | |
CN107392140B (zh) | 基于低秩稀疏分解和增量学习的极化sar地物分类方法 | |
Chen et al. | Semi-supervised object detection in remote sensing images using generative adversarial networks | |
Zhai et al. | A generative adversarial network based framework for unsupervised visual surface inspection | |
CN107133648B (zh) | 基于自适应多尺度融合稀疏保持投影的一维距离像识别方法 | |
CN106951822B (zh) | 一种基于多尺度稀疏保持投影一维距离像融合识别方法 | |
Pan et al. | Airplane recognition in TerraSAR-X images via scatter cluster extraction and reweighted sparse representation | |
CN111639697B (zh) | 基于非重复采样与原型网络的高光谱图像分类方法 | |
CN103456017B (zh) | 基于种子集的半监督权重核模糊聚类的图像分割方法 | |
Dou et al. | Aircraft recognition in high resolution SAR images using saliency map and scattering structure features | |
CN115393631A (zh) | 基于贝叶斯层图卷积神经网络的高光谱图像分类方法 | |
CN107122753B (zh) | 基于集成学习的sar目标鉴别方法 | |
CN109872319B (zh) | 一种基于特征挖掘和神经网络的热图像缺陷提取方法 | |
CN109117850B (zh) | 利用可见光目标图像进行相应红外目标图像的识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |