CN106919919B - 一种基于多特征融合词包模型的sar目标鉴别方法 - Google Patents

一种基于多特征融合词包模型的sar目标鉴别方法 Download PDF

Info

Publication number
CN106919919B
CN106919919B CN201710111640.3A CN201710111640A CN106919919B CN 106919919 B CN106919919 B CN 106919919B CN 201710111640 A CN201710111640 A CN 201710111640A CN 106919919 B CN106919919 B CN 106919919B
Authority
CN
China
Prior art keywords
sectioning image
feature
regional area
image
cfar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710111640.3A
Other languages
English (en)
Other versions
CN106919919A (zh
Inventor
刘宏伟
杨柳
宋文青
王英华
罗晔
王宁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN201710111640.3A priority Critical patent/CN106919919B/zh
Publication of CN106919919A publication Critical patent/CN106919919A/zh
Application granted granted Critical
Publication of CN106919919B publication Critical patent/CN106919919B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本发明属于雷达目标鉴别技术领域,公开了一种基于多特征融合词包模型的SAR目标鉴别方法,包括:1.获取训练切片图像和测试切片图像中每幅图像对应的多组局部特征;2.得到多组局部特征对应的视觉字典;3.对多组局部特征进行底层特征编码,得到训练切片图像和测试切片图像的BoW模型直方图特征,进而得到融合后的训练切片图像和测试切片图像的全局特征;4.使用直方图交叉核支持向量机对测试切片全局特征进行鉴别;本发明提升了鉴别的性能,可用于对复杂场景的SAR目标鉴别。

Description

一种基于多特征融合词包模型的SAR目标鉴别方法
技术领域
本发明属于雷达目标鉴别技术领域,尤其涉及一种基于多特征融合词包模型的SAR目标鉴别方法,可用于对车辆目标的鉴别、识别与分类提供重要信息。
背景技术
随着SAR成像技术的不断发展,目前其已成为对地观测不可或缺的遥感平台之一。SAR图像自动目标识别(Automatic Target Recognition,ATR),特别是车辆目标识别,是SAR图像的重要应用之一,越来越受到研究人员的关注。典型的SAR ATR系统一般包括目标检测、目标鉴别和目标分类三个阶段。在SAR ATR三级处理流程中,目标鉴别处于中间环节,具有承前启后的作用,是一个重要的处理步骤,因此对于目标鉴别算法的研究也是一个重要的研究方向。
在SAR图像目标鉴别中,疑似目标切片图像鉴别特征提取是其首要环节。在美国国防部下设的DARPA资助下,首批SAR目标鉴别特征由林肯实验室(Lincoln Laboratory,LL)和密西根环境研究所(Environmental Research Institute of Michigan,ERIM)等多家单位提出。这些特征大致可以分为四种类型:纹理特征、尺寸特征、对比度特征和极化特征。之后,LL的Verbout和Novak等人根据目标散射点在空间上的散布特性进而又提出一组空间边界属性特征。以上鉴别特征形成了SAR目标鉴别领域的传统特征集合。
传统特征主要有以下两个方面的缺点:
第一,传统鉴别特征一般假定疑似目标区域的均匀场景中分布着单一的感兴趣目标,然后在目标最小外接矩形内或者目标分割区域内提取各个属性特征。然而对于多目标和杂波边界等复杂背景下的目标区域,区域内单个目标的外接矩形和分割图像很难获取,从而大大影响传统特征的鉴别性能,尤其是对目标尺寸类型特征的影响较为严重。此外,传统鉴别特征对于区分车辆目标和人造建筑杂波的能力较差。
第二,随着SAR图像分辨率的不断提高,目标的局部结构在图像上变的越来越清晰。考虑到高分辨SAR图像中目标和杂波局部结构间存在的差异特性,传统特征对目标只提供粗糙的、部分的描述,它们不能描述目标与杂波详细的局部形状和结构信息,这表明鉴别不能充分利用高分辨图像丰富的细节信息。当目标和杂波在纹理,尺寸和对比度方面没有明显的差别时,传统特征就不能表现出很好的鉴别性能。
综上所述,随着SAR图像分辨率的不断提升,传统特征对复杂场景下的目标鉴别具有较大的局限性。
发明内容
针对上述现有技术的不足,本发明的目的在于提供一种基于多特征融合词包模型的SAR目标鉴别方法,能够提升SAR目标鉴别性能。
为达到上述目的,本发明采用如下技术方案予以实现。
一种基于多特征融合词包模型的SAR目标鉴别方法,所述方法包括如下步骤:
步骤1,获取训练切片图像和测试切片图像;其中,所述训练切片图像中包含杂波类训练切片图像和目标类训练切片图像,所述测试切片图像中包含杂波类测试切片图像和目标类测试切片图像;
步骤2,获取所述训练切片图像中每幅图像对应的多组局部特征,以及所述测试切片图像中每幅图像对应的多组局部特征,所述多组局部特征包含SAR-SIFT(SAR Scale-invariant feature transform,SAR尺度不变特征变换)局部特征、局部区域CFAR响应直方图特征(Local Histogram of CFAR feature,局部区域恒虚警响应直方图特征,简写为LHistCFAR特征)、局部区域最大CFAR响应特征(Local Maximum CFAR feature,局部区域最大恒虚警响应特征,简写为LMaxCFAR特征)、局部区域平均CFAR响应特征(Local Mean CFARfeature,局部区域平均恒虚警响应特征,简写为LMeanCFAR特征)、局部区域SD特征(LocalStandard Deviation feature,局部区域标准差特征,简写为LSD特征)、局部区域WRFR特征(Local Weighted Rank Fill Ratio feature,局部区域加权排列能量比特征,简写为LWRFR特征)以及局部区域VI特征(Local Variability Index feature,局部区域可变指数特征,简写为LVI特征);
步骤3,根据所述训练切片图像中所有图像对应的多组局部特征,采用K均值聚类算法得到所述训练切片图像的多组局部特征分别对应的视觉字典;
步骤4,根据所述训练切片图像的多组局部特征分别对应的视觉字典对所述训练切片图像中每幅图像对应的多组局部特征和所述测试切片图像中每幅图像对应的多组局部特征进行硬矢量量化编码,并得到所述训练切片图像生成的BoW模型直方图特征(词包模型直方图特征)和所述测试切片图像生成的BoW模型直方图特征;
步骤5,将所述训练切片图像生成的BoW模型直方图特征进行融合,得到所述训练切片图像中每幅图像的全局描述特征;并将所述测试切片图像生成的BoW模型直方图特征进行融合,得到所述测试切片图像中每幅图像的全局描述特征;
步骤6,采用所述训练切片图像中每幅图像的全局描述特征对基于直方图交叉核SVM分类器进行训练,得到具有特定参数的直方图交叉核SVM分类器;并采用具有特定参数的直方图交叉核SVM分类器对所述测试切片图像中每幅图像的全局描述特征进行分类,得到所述测试切片图像中每幅图像的分类决策值;
步骤7,设定分类阈值,将所述测试切片图像中每幅图像的分类决策值与所述分类阈值进行比较,若第一测试切片图像的分类决策值大于所述分类阈值,则判定所述第一测试切片图像为目标类测试切片图像,否则判定所述第一测试切片图像为杂波类测试切片图像,所述第一测试切片图像为所述测试切片图像中的任意一幅图像。
本发明与现有技术相比具有以下优点:
(1)本发明基于BoW模型提取鉴别特征,相对于传统鉴别特征,对于复杂场景中的目标鉴别任务,BoW模型特征提取算法利用图像中局部结构集合表征图像内容信息,且局部结构的特征提取受背景杂波影响较小,从而能够大大提升SAR目标鉴别性能;(2)本发明在SAR图像鉴别领域中传统的对比度特征和纹理特征的基础上,提出了几种新的局部区域对比度特征和纹理特征描述子,将本发明的局部区域特征与现有的SAR-SIFT特征融合得到的图像全局描述特征能够保留更多图像的内容信息,从而提升特征鉴别能力。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种基于多特征融合词包模型的SAR目标鉴别方法的流程示意图;
图2为本发明实施例提供的四幅包含有车辆目标的高分辨SAR图像;
图3为本发明实验所得的两组传统鉴别特征和两个多特征融合BoW模型特征的鉴别性能ROC曲线示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提供的技术方案主要涉及复杂场景下的车辆目标鉴别。现有的目标鉴别特征,一般假定疑似目标区域的均匀场景中分布着单一的感兴趣目标,然后在目标最小外接矩形内或者目标分割区域内提取各个属性特征。然而对于多目标和杂波边界等复杂背景下的目标区域,区域内单个目标的外接矩形和分割图像很难获取,从而大大影响传统特征的鉴别性能,尤其是对目标尺寸类型特征的影响较为严重。随着雷达分辨率的提升,SAR图像描述的场景也更为复杂,目标切片不仅有单目标还有多目标和局部目标的情况,且目标也不一定位于切片的中心。杂波切片也不仅是自然杂波,还有大量形状各异的人造杂波。考虑到高分辨SAR图像中目标和杂波局部结构间存在的差异特性,本发明实施例提供一种基于多特征融合词包模型的SAR目标鉴别方法,对SAR目标进行鉴别,提高在复杂场景下对SAR目标的鉴别性能。
参见图1,本发明的实现步骤包括:
步骤1,对给定的训练切片图像和测试切片图像提取局部特征,记训练切片图像为测试切片图像为其中,表示杂波类训练切片图像,表示目标类训练切片图像,表示杂波类测试切片图像,表示目标类测试切片图像,p1表示杂波类训练切片图像数目,p2表示目标类训练切片图像数目,k1表示杂波类测试切片图像数目,k2表示目标类测试切片图像数目。
本步骤的具体实现如下:
(1)获取训练切片图像I和测试切片图像J的七组局部特征,分别为SAR-SIFT特征、局部区域CFAR响应直方图特征、局部区域最大CFAR响应特征、局部区域平均CFAR响应特征、局部区域SD特征、局部区域WRFR特征和局部区域VI特征;
1a)获取训练切片图像I和测试切片图像J的SAR-SIFT特征;
1a1)采用均匀密集采样法对给定的训练切片图像I和测试切片图像J进行局部区域提取,获得训练切片图像的局部区域测试切片图像的局部区域其中,局部区域大小为24×24,采样步长为4,n1表示杂波类训练切片图像的局部区域个数,n2表示目标类训练切片图像的局部区域个数,m1表示杂波类测试切片图像局部区域个数,m2表示目标类测试切片图像局部区域个数;
1a2)对局部区域IR、JR内像素坐标进行主方向对齐处理,空间单元格划分处理,其中,单元格划分采用极坐标单元系划分;
需要说明的是,
极坐标单元系划分处理:图像局部区域单元划分采用对数极坐标单元划分形式,每个局部区域划分成五个单元格,其中半径量化为两个区间,极坐标角度量化为四个区间,且在中心单元内不再进行角度划分。
1a3)利用SAR-SIFT描述符对1a1)得到的局部区域IR和JR提取SAR-SIFT局部特征,得到训练切片图像的SAR-SIFT局部特征和测试切片图像的SAR-SIFT局部特征其中,是杂波类训练切片图像的SAR-SIFT局部特征,是目标类训练切片图像的SAR-SIFT局部特征,是杂波类测试切片图像的SAR-SIFT局部特征,是目标类测试切片图像的SAR-SIFT局部特征;SIFT特征的计算过程可以表示为
将训练切片图像的参数带入上述SAR-SIFT局部特征的计算式得到训练切片图像的SAR-SIFT局部特征XSIFT,将测试切片图像的参数带入上述SAR-SIFT局部特征的计算式得到测试切片图像的SAR-SIFT局部特征YSIFT
其中,m∈[1,M],n∈[1,N],p∈[1,P],M、N和P分别对应三维直方图中的空间‘垂直’维、空间‘水平’维和梯度角度维的间隔量化数目,R为局部区域范围,GR(x,y)为R内像素(x,y)的梯度幅度,W(x,y,m,n,p)为像素(x,y)对应的三线性插值因子,表示像素(x,y)在三维直方图SAR SFIT特征的网格(m,n,p)内的单位梯度幅度贡献系数。W(x,y,m,n,p)由Wθ(x,y,p)、Ws1(x,y,m)和Ws2(x,y,n)三部分组成。其中,Wθ(x,y,p)为像素(x,y)在梯度角度维插值系数分量,与像素(x,y)的梯度方向角θ(x,y)到直方图角度网格p的中心角度θp的角度距离相关;Ws1(x,y,m)和Ws2(x,y,n)分别为像素(x,y)在空间垂直维和水平维的插值系数分量,分别与像素(x,y)到直方图空间网格(m,n)的中心的垂直方向和水平方向距离相关,由式Ws(x,y,m,n)=Ws1(x,y,m)Ws2(x,y,n)计算特征空间单元加权因子Ws(x,y,m,n);
1b)获取训练切片图像I和测试切片图像J的局部区域CFAR响应直方图特征;
1b1)利用OS-CFAR算法对训练切片图像I和测试切片图像J进行计算得到训练切片图像初步CFAR特征图及测试切片图像初步CFAR特征图对Ios及Jos进行Sigmoid函数压缩变换,得到训练切片图像最终的CFAR响应特征图及测试切片图像最终的CFAR响应特征图
具体的,OS-CFAR算法:(Order Statistics CFAR,OS-CFAR)有序统计量恒虚警算法;参考文献:E1-Darymli K,McGuire P,Power D,et a1.Target detection insynthetic aperture radar imagery:a state-of-the-artsurvey[J].Journal ofApplied Remote Sensing,2013,7(1):1-35.
又具体的,Sigmoid函数压缩变换,变换公式如下:
Icfar=σ(Ios),其中σ(x)=1/(1+e-x)为Sigmoid函数。
1b2)采用与1a1)相同设置的均匀密集采样法获取ICFAR及JCFAR的局部区域,训练切片图像CFAR响应特征图的局部区域表示为测试切片图像CFAR响应特征图的局部区域表示为
1b3)对局部区域内像素坐标进行与1a2)相同操作的主方向对齐处理,空间单元格划分处理;
1b4)计算内像素CFAR响应的统计直方图。每个局部区域的直方图灰度中心为q=[q1,q2,…,qQ],其中,q表示直方图每个柱体的灰度中心值,Q表示直方图划分区间的个数,本发明中将Q设为4,直方图区间大小为Δq,Δq=(max(ICFAR)-min(ICFAR))/Q,其中max(ICFAR)为所有切片图像CFAR响应特征图的最大值,min(ICFAR)为所有切片图像CFAR响应特征图的最小值,则像素(x,y)在像素CFAR响应的统计直方图的第i(i∈[1,Q])个区间的贡献权重因子为WCFAR(x,y,q)=1-|ICFAR-qi|/Δq且当|ICFAR-qi|≥Δq时,WCFAR(x,y,q)=0。
对切片图像每个局部区域进行以下计算:
将训练切片图像的参数带入上述局部区域CFAR响应直方图特征的计算式得到训练切片图像的局部区域CFAR响应直方图特征XLHistCFAR,将测试切片图像的参数带入上述局部区域CFAR响应直方图特征的计算式得到测试切片图像的局部区域CFAR响应直方图特征YLHistCFAR;即得到训练切片图像的LHistCFAR特征和测试切片图像的LHistCFAR特征其中,是杂波类训练切片图像的LHistCFAR特征,是目标类训练切片图像的LHistCFAR特征,是杂波类测试切片图像的LHistCFAR特征,是目标类测试切片图像的LHistCFAR特征。
1c)获取训练切片图像I和测试切片图像J的局部区域最大CFAR响应特征。
1c1)利用1b)得到的及1a)得到的SAR-SIFT特征空间单元加权因子Ws(x,y,m,n)进行以下计算
从而得到训练切片图像的LMaxCFAR特征和测试切片图像的LMaxCFAR特征其中,是杂波类训练切片图像的LMaxCFAR特征,是目标类训练切片图像的LMaxCFAR特征,是杂波类测试切片图像的LMaxCFAR特征,是目标类测试切片图像的LMaxCFAR特征;
1d)获取训练切片图像I和测试切片图像J的局部区域平均CFAR响应特征;
1d1)利用1b)得到的及1a)得到的SAR-SIFT特征空间单元加权因子Ws(x,y,m,n)进行以下计算
从而得到训练切片图像的LMeanCFAR特征和测试切片图像的LMeanCFAR特征其中,是杂波类训练切片图像的LMeanCFAR特征,是目标类训练切片图像的LMeanCFAR特征,是杂波类测试切片图像的LMeanCFAR特征,是目标类测试切片图像的LMeanCFAR特征;
1e)获取训练切片图像I和测试切片图像J的局部区域SD特征。
1e1)对训练切片图像I和测试切片图像J进行对数变换得到训练切片对数图像和测试切片对数图像
1e2)采用与1a1)相同设置的均匀密集采样法获取Ilog及Jlog的局部区域,训练切片对数图像的局部区域表示为测试切片对数图像的局部区域表示为
1e3)对局部区域内像素坐标进行与1a2)相同操作的主方向对齐处理,空间单元格划分处理;
1e4)对及1a)得到的SAR-SIFT特征空间单元加权因子Ws(x,y,m,n)进行以下计算
从而得到训练切片图像的LSD特征和测试切片图像的LSD特征其中,是杂波类训练切片图像的LSD特征,是目标类训练切片图像的LSD特征,是杂波类测试切片图像的LSD特征,是目标类测试切片图像的LSD特征;
1f)获取训练切片图像I和测试切片图像J的局部区域WRFR特征;
1f1)利用像素筛选函数对1a)得到的局部区域IR和JR进行筛选处理,保留每个局部区域内前20%强像素点,其中β为筛选阈值,得到筛选后的训练切片图像局部区域和测试切片图像局部区域结合训练切片图像I和测试切片图像J及1a)得到的SAR-SIFT特征空间单元加权因子Ws(x,y,m,n)进行以下计算
从而得到训练切片图像的LWRFR特征和测试切片图像的LWRFR特征其中,是杂波类训练切片图像的LWRFR特征,是目标类训练切片图像的LWRFR特征,是杂波类测试切片图像的LWRFR特征,是目标类测试切片图像的LWRFR特征;
1g)获取训练切片图像I和测试切片图像J的局部区域VI特征。
1g1)利用1a)得到的局部区域IR和JR及1a)得到的SAR-SIFT特征空间单元加权因子Ws(x,y,m,n)进行以下计算
得到训练切片图像的LVI特征和测试切片图像的LVI特征其中,是杂波类训练切片图像的LVI特征,是目标类训练切片图像的LVI特征,是杂波类测试切片图像的LVI特征,是目标类测试切片图像的LVI特征;
步骤2,根据步骤1得到的训练切片图像的七组局部特征XSIFT、XLHistCFAR、XLMaxCFAR、XLMeanCFAR、XLSD、XLWRFR、XLVI,采用k-means聚类算法获得七组特征对应的视觉字典CSIFT、CLHistCFAR、CLMaxCFAR、CLMeanCFAR、CLSD、CLWRFR、CLVI
将(1)所得训练切片图像每组局部特征作为训练样本,则每组共有N=n1+n2个训练样本,从N个训练样本中选取K个样本作为初始聚类中心,通过K-means聚类算法构造视觉词典C=[c1,c2,…ck,…cK],用该方法分别计算训练切片图像的每组局部特征对应的视觉词典,表示如下:
本步骤的具体实现如下:
(2)通过K-means聚类算法对步骤1得到的每组训练切片图像的局部特征构造视觉词典,得到训练切片图像七组局部特征对应的视觉字典,表示如下:
①SAR-SIFT局部特征对应的视觉词典为CSIFT=[cSIFT1,cSIFT2,…cSIFTk,…cSIFTK];
②LHistCFAR特征对应的视觉词典为CLHistCFAR=[cLHistCFAR1,cLHistCFAR2,…cLHistCFARk,…cLHistCFARK];
③LMaxCFAR特征对应的视觉词典为CLMaxCFAR=[cLMaxCFAR1,cLMaxCFAR2,…cLMaxCFARk,…cLMaxCFARK];
④LMeanCFAR特征对应的视觉词典为CLMeanCFAR=[cLMeanCFAR1,cLMeanCFAR2,…cLMeanCFARk,…cLMeanCFARK];
⑤LSD特征对应的视觉词典为CLSD=[cLsD1,cLSD2,…cLSDk,…cLSDK];
⑥LWRFR特征对应的视觉词典为CLWRFR=[cLWRFR1,cLWRFR2,…cLWRFRk,…cLWRFRK];
⑦LVI特征对应的视觉词典为CLVI=[cLVI1,cLVI2,…cLVIk,…cLVIK];
其中,每组均随机选取30000个局部特征作为训练样本,从30000个训练样本中均选取128个样本作为初始聚类中心。
需要说明的是,K均值聚类算法:先随机选取K个训练样本作为初始聚类中心(聚类类别数K为视觉字典的大小),计算每个训练样本到各个聚类中心之间的距离,把每个训练样本分配给距离它最近的聚类中心,聚类中心以及分配给他们的训练样本就代表一个聚类。一旦全部训练样本都被分配了,每个聚类中心会根据聚类中现有的对象进行重新计算(聚类中现有对象的均值作为新的聚类中心)。这个过程被不断重复直到聚类中心不再发生变化。
步骤3,利用步骤1得到的训练切片图像的七组局部特征,测试切片图像的七组局部特征,及步骤2得到的七组局部特征对应的视觉字典对每组局部特征编码,并生成训练切片图像七组局部特征对应的BoW模型直方图特征及测试切片图像的每组局部特征对应的BoW模型直方图特征;
本步骤的具体实现如下:
(3)利用(2)所得的七组视觉字典对(1)所得的训练切片图像的七组局部特征及测试切片图像的七组局部特征进行硬矢量量化编码,并采用平均合并策略或最大值合并策略得到每组局部特征生成的BoW模型直方图特征,分别表示如下:
①采用平均合并策略得到由XSIFT生成的BoW模型直方图特征由YSIFT生成的BoW模型直方图特征
②采用平均合并策略得到由XLHistCFAR生成的BoW模型直方图特征由YLHistCFAR生成的BoW模型直方图特征
③采用平均合并策略得到由XLMeanCFAR生成的BoW模型直方图特征由YLMeanCFAR生成的BoW模型直方图特征
④采用平均合并策略得到由XLSD生成的BoW模型直方图特征由YLSD生成的BoW模型直方图特征
⑤采用平均合并策略得到由XLWRFR生成的BoW模型直方图特征由YLWRFR生成的BoW模型直方图特征
⑥采用平均合并策略得到由XLVI生成的BoW模型直方图特征由YLVI生成的BoW模型直方图特征
⑦采用最大值合并策略生成由XLMaxCFAR生成的BoW模型直方图特征由YLMaxCFAR生成的BoW模型直方图特征
具体的,硬矢量量化编码是指在硬矢量量化方法中,每个底层特征仅用字典中与其最近的一个视觉单词进行表示。
BoW模型直方图特征(词包模型直方图特征),其主要过程是:首先提取切片图像底层特征,然后生成视觉字典,利用视觉字典对底层特征进行编码,最后由编码后的底层特征集合生成图像层描述特征。
步骤4,将步骤3得到的训练切片图像的七组BoW模型直方图特征及测试切片图像的七组BoW模型直方图特征BoW模型直方图特征进行特征融合,生成训练切片图像及测试切片图像全局描述特征集合BoWtrain、BoWtest
本步骤的具体实现如下:
将(3)得到的训练切片图像的七组BoW模型直方图特征VSIFT、VLHistCFAR、VLMaxCFAR、VLMeanCFAR、VLSD、VLWRFR、VLVI进行融合得到每个训练切片图像全局描述特征Htrain=[dSIFTVsIFT;dLHistCFARVLHistCFAR;dLMaxCFARVLMaxCFAR;dLMeanCFARVLMeanCFAR;dLSDVLSD;dLWRFRVLWRFR;dLVIVLVI],及每个测试切片图像特征全局描述特征Htest=[dSIFTWSIFT;dLHistCFARWLHistCFAR;dLMaxCFARWLMaxCFAR;dLMeanCFARWLMeanCFAR;dLSDWLSD;dLWRFRWLWRFR;dLVIWLVI],其中,{dSIFT,dLHistCFAR,dLMaxCFAR,dLMeanCFAR,dLSD,dLWRFR,dLVI}为七组BoW模型特征的权系数,则训练切片图像的全局描述特征集合为测试切片图像的全局描述特征集合为其中,为杂波训练切片图像的全局描述特征集合,为目标训练切片图像的全局描述特征集合,为杂波测试切片图像的全局描述特征集合,为目标测试切片图像的全局描述特征集合;
步骤5,利用步骤4得到的训练切片图像的全局描述特征BoWtrain训练分类器并对步骤4得到的测试切片图像的全局描述特征BoWtest进行分类;
本步骤的具体实现如下:
使用训练切片图像的全局描述特征训练基于直方图交叉核SVM的分类器,使用训练好的分类器对测试切片图像的全局描述特征进行分类,本发明采用MKL算法学习不同特征间的权系数{dSIFT,dLHistCFAR,dLMaxCFAR,dLMeanCFAR,dLSD,dLWRFR,dLVI}及直方图交叉核SVM分类器;用训练好的分类器对步骤4得到的测试切片图像的全局描述特征BOWtest进行分类,得到每个测试切片图像的分类决策值decision,将该分类决策值decision与设定的阈值Thr进行比较,若decision≥Thr,认为是目标类切片,否则是杂波类切片。
仿真实验:
1)实验场景:
本实验所用的切片图像来自于美国Sandia实验室公开的miniSAR数据集,这些数据下载自Sandia实验室的网站,miniSAR数据库中四幅包含有车辆目标的地面场景高分辨SAR图像,图像分辨率为0.1m×0.1m,如图2所示;
2)实验选择的四组特征:
第一组特征是TraditionalF1:传统标准差特征、传统分形维数特征、传统加权排列填充比特征、传统平均CFAR响应特征、传统最大CFAR响应特征、传统强点CFAR百分比特征和传统可变指数特征的组合;
第二组特征是TraditionalF2:传统标准差特征、传统分形维数特征、传统加权排列填充比特征、传统平均CFAR响应特征、传统最大CFAR响应特征和传统强点CFAR百分比特征的组合;
第三组特征是BoW-subMultiF:本文基于部分TraditionalF2内的特征的提出的局部特征(包括LSD特征、LWRFR特征、LMaxCFAR特征和LMeanCFAR特征)的融合特征;
第四组特征是BoW-MultiF:本文提出的LHistCFAR特征、LMaxCFAR特征、LMeanCFAR特征、LSD特征、LWRFR特征、LVI特征及SAR-SIFT特征的多特征融合BoW模型特征。
3)实验参数:
为了保证训练样本和测试样本间的独立性,每组对比实验分别进行四次试验,其中每次试验选用附图2中一幅图像的样本作为测试集,另外三幅图像的样本作为训练集,4幅SAR图像中提取的目标切片图像个数及杂波切片图像个数如表1所示:
表1
例如,当附图2中图像1的样本作为测试样本时,训练杂波切片数p1=1531,训练目标切片数p2=414。实验中使用k-means工具包进行视觉字典学习,对于BoW模型算法,七组底层特征对应视觉字典大小统一设为128。实验中直方图交叉核SVM分类器采用MKL算法进行学习。程序中,SVM分类器采用LIBSVM工具包,分类器采用SPG-GMKL工具包,其中SPG-GMKL工具包中梯度求解和SVM分类环节选择LIBSVM工具包求解。SVM分类器中各参数在训练阶段通过5折交叉验证获得。
4)实验内容:
实验中将以上传统特征组成了两个对比特征集合,第一组传统特征TraditionalF1和第二组传统特征TraditiaonalF2,对比实验中,BoW模型特征包括BoW-subMultiF和BoW-MultiF。比较了两个传统鉴别组合特征和两个多特征融合BoW模型特征在四组测试集上的鉴别性能。
实验的鉴别结果如表2及图3所示:
表2实验各个ROC曲线的AUC指标及pd=0.9时对应的pf
表2中的AUC表示ROC曲线下的面积,Pc表示总体精度,Pd表示检测率,Pf表示虚警率。
图3两组传统鉴别特征和两个多特征融合BoW模型特征的鉴别性能ROC曲线,从表2及图1中可见,本发明的AUC和总体精度Pc最高,并且对应同一检测率0.9时,本发明的虚警率是最低的,说明在复杂场景下,本发明的鉴别性能比现有的方法更好。
综上,本发明是基于BoW模型的SAR目标鉴别方法,解决了复杂场景下的SAR目标鉴别问题,有效的利用了高分辨SAR图像丰富的细节信息,提升了复杂场景下的SAR目标鉴别性能。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。

Claims (1)

1.一种基于多特征融合词包模型的SAR目标鉴别方法,其特征在于,所述方法包括如下步骤:
步骤1,获取训练切片图像和测试切片图像;其中,所述训练切片图像中包含杂波类训练切片图像和目标类训练切片图像,所述测试切片图像中包含杂波类测试切片图像和目标类测试切片图像;
获取训练切片图像和测试切片图像其中,表示杂波类训练切片图像,表示目标类训练切片图像,表示杂波类测试切片图像,表示目标类测试切片图像,p1表示杂波类训练切片图像的数目,p2表示目标类训练切片图像的数目,k1表示杂波类测试切片图像的数目,k2表示目标类测试切片图像的数目;
步骤2,获取所述训练切片图像中每幅图像对应的多组局部特征,以及所述测试切片图像中每幅图像对应的多组局部特征,所述多组局部特征包含SAR-SIFT局部特征、局部区域CFAR响应直方图特征、局部区域最大CFAR响应特征、局部区域平均CFAR响应特征、局部区域SD特征、局部区域WRFR特征以及局部区域VI特征;步骤3,根据所述训练切片图像中所有图像对应的多组局部特征,得到所述训练切片图像的多组局部特征分别对应的视觉字典;
步骤4,根据所述训练切片图像的多组局部特征分别对应的视觉字典对所述训练切片图像中每幅图像对应的多组局部特征和所述测试切片图像中每幅图像对应的多组局部特征进行硬矢量量化编码,并得到所述训练切片图像生成的BoW模型直方图特征和所述测试切片图像生成的BoW模型直方图特征;其中,所述硬矢量量化编码是指在硬矢量量化方法中,每个底层特征仅用字典中与其最近的一个视觉单词进行表示;
步骤5,将所述训练切片图像生成的BoW模型直方图特征进行融合,得到所述训练切片图像中每幅图像的全局描述特征;并将所述测试切片图像生成的BoW模型直方图特征进行融合,得到所述测试切片图像中每幅图像的全局描述特征;
步骤6,采用所述训练切片图像中每幅图像的全局描述特征对基于直方图交叉核SVM分类器进行训练,得到具有特定参数的直方图交叉核SVM分类器;并采用具有特定参数的直方图交叉核SVM分类器对所述测试切片图像中每幅图像的全局描述特征进行分类,得到所述测试切片图像中每幅图像的分类决策值;
步骤7,设定分类阈值,将所述测试切片图像中每幅图像的分类决策值与所述分类阈值进行比较,若第一测试切片图像的分类决策值大于所述分类阈值,则判定所述第一测试切片图像为目标类测试切片图像,否则判定所述第一测试切片图像为杂波类测试切片图像,所述第一测试切片图像为所述测试切片图像中的任意一幅图像;
其中,步骤2具体包括:
获取所述训练切片图像中每幅图像对应的SAR-SIFT局部特征,以及所述测试切片图像中每幅图像对应的SAR-SIFT局部特征,具体包括:
(2a1)提取所述训练切片图像的局部区域以及所述测试切片图像的局部区域其中,n1表示杂波类训练切片图像的局部区域个数,n2表示目标类训练切片图像的局部区域个数,m1表示杂波类测试切片图像的局部区域个数,m2表示目标类测试切片图像的局部区域个数;
(2a2)对所述训练切片图像的局部区域内的像素坐标、所述测试切片图像的局部区域内的像素坐标分别进行主方向对齐处理以及空间单元格划分处理,得到新的训练切片图像的局部区域和新的测试切片图像的局部区域;
(2a3)利用SAR-SIFT描述符对所述新的训练切片图像的局部区域、所述新的测试切片图像的局部区域进行SAR-SIFT局部特征的提取,得到训练切片图像的SAR-SIFT局部特征和测试切片图像的SAR-SIFT局部特征其中,是杂波类训练切片图像的SAR-SIFT局部特征,是目标类训练切片图像的SAR-SIFT局部特征,是杂波类测试切片图像的SAR-SIFT局部特征,是目标类测试切片图像的SAR-SIFT局部特征;
(2a4)所述SAR-SIFT局部特征的计算式表示为:
将训练切片图像的参数带入上述SAR-SIFT局部特征的计算式得到训练切片图像的SAR-SIFT局部特征XSIFT,将测试切片图像的参数带入上述SAR-SIFT局部特征的计算式得到测试切片图像的SAR-SIFT局部特征YSIFT
其中,m∈[1,M],n∈[1,N],p∈[1,P],M、N和P分别对应三维直方图中的空间垂直维、空间水平维和梯度角度维的间隔量化数目,R为局部区域范围,GR(x,y)为R内像素(x,y)的梯度幅度,W(x,y,m,n,p)为像素(x,y)对应的三线性插值因子,表示像素(x,y)在三维直方图SAR-SFIT局部特征的网格(m,n,p)内的单位梯度幅度贡献系数;W(x,y,m,n,p)由Wθ(x,y,p)、Ws1(x,y,m)和Ws2(x,y,n)三部分组成,Wθ(x,y,p)为像素(x,y)在梯度角度维插值系数分量,与像素(x,y)的梯度方向角θ(x,y)到直方图角度网格f的中心角度θp的角度距离相关,Ws1(x,y,m)和Ws2(x,y,n)分别为像素(x,y)在空间垂直维和水平维的插值系数分量,分别与像素(x,y)到直方图空间网格(m,n)的中心的垂直方向和水平方向距离相关,由式Ws(x,y,m,n)=Ws1(x,y,m)Ws2(x,y,n)计算SAR-SIFT局部特征空间单元加权因子Ws(x,y,m,n);
获取所述训练切片图像中每幅图像对应的局部区域CFAR响应直方图特征,以及所述测试切片图像中每幅图像对应的局部区域CFAR响应直方图特征,具体包括:
(2b1)采用有序统计量恒虚警OS-CFAR算法对所述训练切片图像和所述测试切片图像分别进行计算,分别得到所述训练切片图像的初步CFAR特征图和测试切片图像的初步CFAR特征图并对所述训练切片图像的初步CFAR特征图Ios、所述测试切片图像的初步CFAR特征图Jos分别进行Sigmoid函数压缩变换,得到训练切片图像的最终CFAR响应特征图和测试切片图像的最终CFAR响应特征图
(2b2)获取所述训练切片图像的最终CFAR响应特征图的局部区域以及所述测试切片图像的最终CFAR响应特征图的局部区域
(2b3)对所述训练切片图像的最终CFAR响应特征图的局部区域内的像素坐标、所述测试切片图像的最终CFAR响应特征图的局部区域内的像素坐标分别进行主方向对齐处理以及空间单元格划分处理,得到新的训练切片图像的最终CFAR响应特征图的局部区域和新的的测试切片图像的最终CFAR响应特征图的局部区域;
(2b4)计算所述新的训练切片图像的最终CFAR响应特征图的局部区域内像素的CFAR响应直方图特征、所述新的测试切片图像的最终CFAR响应特征图的局部区域内像素的CFAR响应直方图特征,得到训练切片图像的局部区域CFAR响应直方图特征
和测试切片图像的局部区域CFAR响应直方图特征
其中,是杂波类训练切片图像的局部区域CFAR响应直方图特征,是目标类训练切片图像的局部区域CFAR响应直方图特征,是杂波类测试切片图像的局部区域CFAR响应直方图特征,是目标类测试切片图像的局部区域CFAR响应直方图特征;
(2b5)所述局部区域CFAR响应直方图特征的计算式表示为:
将训练切片图像的参数带入上述局部区域CFAR响应直方图特征的计算式得到训练切片图像的局部区域CFAR响应直方图特征XLHistCFAR,将测试切片图像的参数带入上述局部区域CFAR响应直方图特征的计算式得到测试切片图像的局部区域CFAR响应直方图特征YLHistCFAR
其中,每个局部区域的直方图灰度中心为q=[q1,q2,…,qQ],令qi表示直方图每个柱体的灰度中心值,i∈[1,Q],Q表示直方图划分区间的个数,直方图区间大小为△q,则像素(x,y)在像素CFAR响应的统计直方图的第i个区间的贡献权重因子为WCFAR(x,y,qi)=1-|ICFAR-qi|/△q,且当|ICFAR-qi|≥△q时,WCFAR(x,y,qi)=0;
获取所述训练切片图像中每幅图像对应的局部区域最大CFAR响应特征,以及所述测试切片图像中每幅图像对应的局部区域最大CFAR响应特征,具体包括:
根据所述训练切片图像的最终CFAR响应特征图的局部区域所述测试切片图像的最终CFAR响应特征图的局部区域以及SAR-SIFT特征空间单元加权因子Ws(x,y,m,n)按照下式计算局部区域最大CFAR响应特征:
从而得到训练切片图像的局部区域最大CFAR响应特征和测试切片图像的局部区域最大CFAR响应特征其中,是杂波类训练切片图像的局部区域最大CFAR响应特征,是目标类训练切片图像的局部区域最大CFAR响应特征,是杂波类测试切片图像的局部区域最大CFAR响应特征,是目标类测试切片图像的局部区域最大CFAR响应特征;
获取所述训练切片图像中每幅图像对应的局部区域平均CFAR响应特征,以及所述测试切片图像中每幅图像对应的局部区域平均CFAR响应特征,具体包括:
根据所述训练切片图像的最终CFAR响应特征图的局部区域所述测试切片图像的最终CFAR响应特征图的局部区域以及SAR-SIFT特征空间单元加权因子Ws(x,y,m,n)按照下式计算局部区域平均CFAR响应特征:
从而得到训练切片图像的局部区域平均CFAR响应特征和测试切片图像的局部区域平均CFAR响应特征
其中,是杂波类训练切片图像的局部区域平均CFAR响应特征,是目标类训练切片图像的局部区域平均CFAR响应特征,是杂波类测试切片图像的局部区域平均CFAR响应特征,是目标类测试切片图像的局部区域平均CFAR响应特征;
获取所述训练切片图像中每幅图像对应的局部区域SD特征,以及所述测试切片图像中每幅图像对应的局部区域SD特征,具体包括:
(2e1)对所述训练切片图像I和所述测试切片图像J进行对数变换得到训练切片对数图像和测试切片对数图像
(2e2)提取所述训练切片对数图像的局部区域表示为提取所述测试切片对数图像的局部区域表示为
(2e3)对所述训练切片对数图像的局部区域、所述测试切片对数图像的局部区域内的像素坐标进行主方向对齐处理以及空间单元格划分处理;
(2e4)根据所述训练切片对数图像的局部区域所述测试切片对数图像的局部区域以及SAR-SIFT特征空间单元加权因子Ws(x,y,m,n)进行以下计算:
从而得到训练切片图像的局部区域SD特征
和测试切片图像的局部区域SD特征其中,是杂波类训练切片图像的局部区域SD特征,是目标类训练切片图像的局部区域SD特征,是杂波类测试切片图像的局部区域SD特征,是目标类测试切片图像的局部区域SD特征;
获取所述训练切片图像中每幅图像对应的局部区域WRFR特征,以及所述测试切片图像中每幅图像对应的局部区域WRFR特征,具体包括:
(2f1)利用像素筛选函数对所述训练切片图像的局部区域IR和所述测试切片图像的局部区域JR进行筛选处理,保留每个局部区域内前20%强像素点,其中β为筛选阈值,得到筛选后的训练切片图像局部区域和测试切片图像局部区域
(2f2)根据所述训练切片图像I和测试切片图像J,以及所述SAR-SIFT特征空间单元加权因子Ws(x,y,m,n)进行以下计算:
从而得到训练切片图像的局部区域WRFR特征和测试切片图像的局部区域WRFR特征其中,是杂波类训练切片图像的LWRFR特征,是目标类训练切片图像的局部区域WRFR特征,是杂波类测试切片图像的局部区域WRFR特征,是目标类测试切片图像的局部区域WRFR特征;
获取所述训练切片图像中每幅图像对应的局部区域VI特征,以及所述测试切片图像中每幅图像对应的局部区域VI特征,具体包括:
利用所述训练切片图像的局部区域IR和所述测试切片图像的局部区域JR,以及所述SAR-SIFT特征空间单元加权因子Ws(x,y,m,n)进行以下计算:
从而得到训练切片图像的局部区域VI特征
和测试切片图像的局部区域VI特征其中,是杂波类训练切片图像的局部区域VI特征,是目标类训练切片图像的局部区域VI特征,是杂波类测试切片图像的局部区域VI特征,是目标类测试切片图像的局部区域VI特征;
步骤3具体包括:
(3a)将所述训练切片图像对应的多组局部特征作为训练样本,则得到每组局部特征对应的N个训练样本,且N=n1+n2,从所述每组局部特征对应的N个训练样本中选取K个训练样本作为初始聚类中心,通过K均值聚类算法构造每组局部特征对应的视觉字典C=[c1,c2,…ck,…cK];
(3b)从而得到多组局部特征分别对应的视觉字典:
SAR-SIFT局部特征对应的视觉词典为CSIFT=[cSIFT1,cSIFT2,…cSIFTk,…cSIFTK];
局部区域CFAR响应直方图特征对应的视觉词典为CLHistCFAR=[cLHistCFAR1,cLHistCFAR2,…cLHistCFARk,…cLHistCFARK];
局部区域最大CFAR响应特征对应的视觉词典为CLMaxCFAR=[cLMaxCFAR1,cLMaxCFAR2,…cLMaxCFARk,…cLMaxCFARK];
局部区域平均CFAR响应特征对应的视觉词典为CLMeanCFAR=[cLMeanCFAR1,cLMeanCFAR2,…cLMeanCFARk,…cLMeanCFARK];
局部区域SD特征对应的视觉词典为CLSD=[cLSD1,cLSD2,…cLSDk,…cLSDK];
局部区域WRFR特征对应的视觉词典为CLWRFR=[cLWRFR1,cLWRFR2,…cLWRFRk,…cLWRFRK];
局部区域VI特征对应的视觉词典为CLVI=[cLVI1,cLVI2,…cLVIk,…cLVIK];
步骤4中,得到所述训练切片图像生成的BoW模型直方图特征和所述测试切片图像生成的BoW模型直方图特征,具体包括:
采用平均合并策略得到由训练切片图像的SAR-SIFT局部特征XSIFT生成的BoW模型直方图特征以及由测试切片图像的SAR-SIFT局部特征YSIFT生成的BoW模型直方图特征
采用平均合并策略得到由训练切片图像的局部区域CFAR响应直方图特征XLHistCFAR生成的BoW模型直方图特征由测试切片图像的局部区域CFAR响应直方图特征YLHistCFAR生成的BoW模型直方图特征
采用平均合并策略得到由训练切片图像的局部区域平均CFAR响应特征XLMeanCFAR生成的BoW模型直方图特征由测试切片图像的局部区域平均CFAR响应特征YLMeanCFAR生成的BoW模型直方图特征
采用平均合并策略得到由训练切片图像的局部区域SD特征XLSD生成的BoW模型直方图特征由测试切片图像的局部区域SD特征YLSD生成的BoW模型直方图特征
采用平均合并策略得到由训练切片图像的局部区域WRFR特征
XLWRFR生成的BoW模型直方图特征由测试切片图像的局部区域
WRFR特征YLWRFR生成的BoW模型直方图特征
采用平均合并策略得到由训练切片图像的局部区域VI特征XLVI生成的BoW模型直方图特征由测试切片图像的局部区域VI特征YLVI生成的BoW模型直方图特征
采用最大值合并策略生成由训练切片图像的局部区域最大CFAR响应特征XLMaxCFAR生成的BoW模型直方图特征由测试切片图像的局部区域最大CFAR响应特征YLMaxCFAR生成的BoW模型直方图特征
步骤5具体包括:
将训练切片图像的七组BoW模型直方图特征VSIFT、VLHistCFAR、VLMaxCFAR、VLMeanCFAR、VLSD、VLWRFR、VLVI进行融合得到每个训练切片图像全局描述特征Htrain=[dSIFTVSIFT;dLHistCFARVLHistCFAR;dLMaxCFARVLMaxCFAR;dLMeanCFARVLMeanCFAR;dLSDVLSD;dLWRFRVLWRFR;dLVIVLVI],及每个测试切片图像特征全局描述特征Htest=[dSIFTWSIFT;dLHistCFARWLHistCFAR;dLMaxCFARWLMaxCFAR;dLMeanCFARWLMeanCFAR;dLSDWLSD;dLWRFRWLWRFR;dLVIWLVI];
其中,{dSIFT,dLHistCFAR,dLMaxCFAR,dLMeanCFAR,dLSD,dLWRFR,dLVI}为七组BoW模型直方图特征的权系数,则训练切片图像的全局描述特征集合为测试切片图像的全局描述特征集合为其中,为杂波训练切片图像的全局描述特征集合,为目标训练切片图像的全局描述特征集合,为杂波测试切片图像的全局描述特征集合,为目标测试切片图像的全局描述特征集合;
步骤6具体包括:
使用训练切片图像的全局描述特征训练基于直方图交叉核SVM分类器,得到具有特定参数的直方图交叉核SVM分类器,使用具有特定参数的直方图交叉核SVM分类器对测试切片图像的全局描述特征进行分类;
确定不同特征间的权系数{dSIFT,dLHistCFAR,dLMaxCFAR,dLMeanCFAR,dLSD,dLWRFR,dLVI}及直方图交叉核SVM分类器;用具有特定参数的直方图交叉核SVM分类器对测试切片图像的全局描述特征BOWtest进行分类,得到每个测试切片图像的分类决策值。
CN201710111640.3A 2017-02-28 2017-02-28 一种基于多特征融合词包模型的sar目标鉴别方法 Active CN106919919B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710111640.3A CN106919919B (zh) 2017-02-28 2017-02-28 一种基于多特征融合词包模型的sar目标鉴别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710111640.3A CN106919919B (zh) 2017-02-28 2017-02-28 一种基于多特征融合词包模型的sar目标鉴别方法

Publications (2)

Publication Number Publication Date
CN106919919A CN106919919A (zh) 2017-07-04
CN106919919B true CN106919919B (zh) 2019-08-06

Family

ID=59453890

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710111640.3A Active CN106919919B (zh) 2017-02-28 2017-02-28 一种基于多特征融合词包模型的sar目标鉴别方法

Country Status (1)

Country Link
CN (1) CN106919919B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107871123B (zh) * 2017-11-15 2020-06-05 北京无线电测量研究所 一种逆合成孔径雷达空间目标分类方法及系统
CN110046669B (zh) * 2019-04-22 2019-12-24 广东石油化工学院 基于素描图像的半耦合度量鉴别字典学习的行人检索方法
CN111583220B (zh) * 2020-04-30 2023-04-18 腾讯科技(深圳)有限公司 影像数据检测方法和装置
CN112528874B (zh) * 2020-12-15 2024-02-02 西安电子科技大学 一种面向人的sar图象多目标视觉识别能力量化方法、系统及计算机可读介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8910120B2 (en) * 2010-03-05 2014-12-09 Microsoft Corporation Software debugging recommendations
CN102930302B (zh) * 2012-10-18 2016-01-13 山东大学 基于在线序贯极限学习机的递增式人体行为识别方法
CN104680173B (zh) * 2015-01-26 2018-04-27 河海大学 一种遥感图像场景分类方法

Also Published As

Publication number Publication date
CN106919919A (zh) 2017-07-04

Similar Documents

Publication Publication Date Title
Dhingra et al. A review of remotely sensed satellite image classification
CN106919919B (zh) 一种基于多特征融合词包模型的sar目标鉴别方法
CN106874889B (zh) 基于卷积神经网络的多特征融合sar目标鉴别方法
Liu et al. Multiscale morphological compressed change vector analysis for unsupervised multiple change detection
CN104680173B (zh) 一种遥感图像场景分类方法
Zhao et al. Automatic recognition of loess landforms using Random Forest method
CN107358260B (zh) 一种基于表面波cnn的多光谱图像分类方法
Neubert et al. Evaluation of segmentation programs for high resolution remote sensing applications
Kim et al. 3D classification of power-line scene from airborne laser scanning data using random forests
CN108764005A (zh) 一种高光谱遥感图像地物空间波谱特征提取方法及系统
CN107403434B (zh) 基于两阶段聚类的sar图像语义分割方法
CN109284786A (zh) 基于分布和结构匹配生成对抗网络的sar图像地物分类方法
CN105894030A (zh) 基于分层多特征融合的高分辨率遥感图像场景分类方法
JP5464739B2 (ja) 画像領域分割装置、画像領域分割方法および画像領域分割プログラム
Jing et al. Island road centerline extraction based on a multiscale united feature
CN106548195A (zh) 一种基于改进型hog‑ulbp特征算子的目标检测方法
CN111583171B (zh) 融合前景紧凑特性和多环境信息的绝缘子缺陷检测方法
Ahmad et al. Naïve Bayes classification of high-resolution aerial imagery
CN116843906A (zh) 基于拉普拉斯特征映射的目标多角度本征特征挖掘方法
Shen et al. Cropland extraction from very high spatial resolution satellite imagery by object-based classification using improved mean shift and one-class support vector machines
CN114862883A (zh) 一种目标边缘提取方法、图像分割方法及系统
Guo et al. A novel method of ship detection from spaceborne optical image based on spatial pyramid matching
Xu et al. Crowd density estimation of scenic spots based on multifeature ensemble learning
Lin Method of image segmentation on high-resolution image and classification for land covers
Lefebvre et al. Mapping tree cover in European cities: comparison of classification algorithms for an operational production framework

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant