CN108256471B - 一种基于双层分类网的高分辨率合成孔径雷达船只识别方法 - Google Patents

一种基于双层分类网的高分辨率合成孔径雷达船只识别方法 Download PDF

Info

Publication number
CN108256471B
CN108256471B CN201810041080.3A CN201810041080A CN108256471B CN 108256471 B CN108256471 B CN 108256471B CN 201810041080 A CN201810041080 A CN 201810041080A CN 108256471 B CN108256471 B CN 108256471B
Authority
CN
China
Prior art keywords
neighborhood
classification
features
sample
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810041080.3A
Other languages
English (en)
Other versions
CN108256471A (zh
Inventor
毕福昆
侯金元
葛娴君
杨志华
雷明阳
王崇磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
North China University of Technology
Original Assignee
North China University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by North China University of Technology filed Critical North China University of Technology
Priority to CN201810041080.3A priority Critical patent/CN108256471B/zh
Publication of CN108256471A publication Critical patent/CN108256471A/zh
Application granted granted Critical
Publication of CN108256471B publication Critical patent/CN108256471B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • G06V10/464Salient features, e.g. scale invariant feature transforms [SIFT] using a plurality of salient features, e.g. bag-of-words [BoW] representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本发明提出了一种基于双层分类网的高分辨率SAR船只识别方法。该方法涉及高分辨率SAR图像自动处理,提出双层分类网的分类策略,尤其针对SAR遥感图像中船只目标的高鲁棒性识别。第一步针对SAR图像中强散射点的目标邻域块进行划分,基于邻域块提取图像的初级特征。第二步,针对特征邻域用K‑means形成视觉词典,基于OC‑SVM分类器构建Bow中层特征编码,构建分类网第一层。第三步,中层特征编码训练样本集中每个船只样本,提取初级特征为描述特征,以判别的视觉单词类型为标签。利用多类SVM形成不同船只的分类判别准则,形成分类网的第二层分类。该方法能有效提取高分辨SAR图像中船只目标关键部位的语义级特征,对应设计提出的双层分类网能进行有效识别。

Description

一种基于双层分类网的高分辨率合成孔径雷达船只识别方法
技术领域
本发明涉及高分辨率合成孔径雷达图像的处理方法,尤其是针对合成孔径雷达遥感图像中船只目标的高鲁棒性识别方法。
背景技术
近年来,利用合成孔径雷达(SAR,Synthetic Aperture Radar)遥感图像,进行船只检测与识别在海洋遥感应用领域得到了高度重视。SAR能够全天时、全天候对大范围海洋区域进行观测,是进行大范围海域船只识别的有效手段之一。
随着各种SAR系统的研究和大规模投入使用,我国在利用SAR图像进行海洋监测的应用领域开展了一系列深入的研究。如国防科技大学,高贵等,提出利用目标峰值序列的特性及其特征提取的方法进行SAR图像目标识别;中国海洋大学,张晰等,通过考虑SAR船只结构特征,提出了采用船只的长宽、峰值等初级特征,及多极化信息分析了船只的散射特征,从而实现船只的分类识别;第二炮兵工程学院,董江曼等,根据海洋上所具有的背景单一、目标结构复杂的特点,提出了利用船只目标的结构特征量对SAR图像船只识别的方法。
综上已有的方法,在识别特征提取方面,以往方法大都采用外观几何结构、电磁散射、变换域、局部描述子等各种类型的特征,这些特征大都属于初级图像描述特征。然而,这些高分辨SAR图像中的船只目标初级描述特征,容易受到场景中临近强散射体干扰、环境气候造成的成像质量、运动姿态及速度、SAR系统参数等因素影响,鲁棒性不强,影响识别精度。相比与这些初级的图像特征描述方法,对于高分辨率SAR船只目标来说,上层建筑关键部位的辨识与关联语义关系是较为稳定的特性,若能设计相应的方法提取对应的描述特征,将能有效提高识别特征的鲁棒性。
在识别分类器设计方面,基于初级图像特征,已有方法已构建种类繁多的分类器,如基于欧式距离的K-近邻分类器、贝叶斯分类器以及基于核函数的支持向量机(SVM,Support Vector Machine)分类器等。而这些分类器的构建仅考虑了初级特征的特点,仅能基于初级特征实现识别分类。如果要基于上层建筑关键部位辨识与关联关系的语义特征进行识别,需要针对语义级特征,构建相应的分类策略,来实现目标的高鲁棒性辨识。
因此,急需提出一种高鲁棒性的高分辨SAR图像船只目标识别方法。特别是在上层建筑关键部位辨识与空间关联关系的语义级特征描述,及与之对应的分类策略的设计方法。
发明内容
根据本发明的一个方面,提供了一种基于双层分类网的高分辨率合成孔径雷达船只识别方法,其特征在于包括:
1)基于强散射点邻域的初级特征提取,包括
1.1)基于强散射点的目标邻域块划分,根据合成孔径雷达图像中目标区域强散射强度影响,对应强散射点周围邻域图像进行领域块划分,
1.2)邻域块初级图像特征提取,基于步骤1.1)目标邻域块划分,对每块邻域区,提取局部目标散射特征、基于灰度共生矩阵的纹理特征、基于局部二值模式特征点描述的局部特征等图像初级特征,
2)基于单类支持向量机分类器的词袋中层特征编码,即分类网第一层,包括:
2.1)强散射点邻域特征视觉词典构建,基于上一步对每个强散射点邻域提取的初级图像特征,利用聚类的方法形成视觉词典,
2.2)基于视觉单词直方图的词袋中层特征编码,其中首先将训练集划分为两个集合,分别是:视觉单词训练样本集和中层特征编码训练样本集,
其中,
对船只视觉单词训练样本集中的每个样本,进行强散射点周围邻域的初级图像特征提取,并由欧式距离判断其所属的视觉单词类型,则,对每个强散射点邻域,以提取的初级特征为描述特征,以判断的视觉单词类型为标签,基于单类支持向量机进行视觉单词判决准则的训练,获得视觉单词判决准则,
接着,经过上述“基于强散射点邻域的初级特征提取”,并利用上一步得到的视觉单词判决准则,对每个样本中的所有强散射点进行视觉单词判别,并将判别结果按出现的频次统计为视觉单词直方图,其中每个目标样本对应一个视觉单词直方图,就此完成中层特征编码,
3)基于词袋中层编码特征的船只分类,即分类网第二层,包括:
3.1)训练阶段,其中对中层特征编码训练样本集中每个船只样本,提取的初级特征为描述特征,以判别的视觉单词类型为标签,然后进行上述步骤2.2);接着,利用多类支持向量机分类器进行训练,形成不同类型船只的分类判决准则,
3.2)预测阶段,其中对需要预测的船只样本,经过上述步骤1)及步骤2),获得样本的词袋中层编码特征,接着采用上一步获得的不同类型船只分类判决准则进行判别,获得船只的最终分类结果。
附图说明:
图1是根据本发明的一个实施例的基于双层分类网的高分辨率合成孔径雷达船只识别方法的流程图。
具体实施方式:
针对上述传统高分辨SAR遥感图像船只识别方法的局限性,本发明提出一种基于双层分类网的高分辨率SAR船只识别方法,实现步骤如下:
第一步基于强散射点邻域的初级特征提取
1.1基于强散射点的目标邻域块划分
SAR图像中船只的强散射点及周围邻域,代表了其关键可辨识部位的散射特性,是关键部位语义描述的主要对象。本发明根据SAR图像中目标区域强散射强度影响,对应强散射点周围邻域图像进行领域块划分。1.2邻域块初级图像特征提取
基于(1.1)目标邻域块划分,对每块邻域区,提取局部目标散射特征、基于灰度共生矩阵的纹理特征、基于局部二值模式(LBP,Local Binary Pattern)特征点描述的局部特征等图像初级特征。
第二步基于单类支持向量机(OC-SVM,One-Class Support Vector Machine)分类器的词袋(Bow,Bag-of-word)中层特征编码(分类网第一层)
2.1强散射点邻域特征视觉词典构建
基于上一步对每个强散射点邻域提取的初级图像特征,利用聚类(K-means聚类)的方法形成视觉词典。
2.2基于视觉单词直方图的词袋(Bow)中层特征编码
首先将训练集划分为两个集合,分别是:视觉单词训练样本集和中层特征编码训练样本集。
对船只视觉单词训练样本集中的每个样本,进行强散射点周围邻域的初级图像特征提取,并由欧式距离判断其所属的视觉单词类型。则,对每个强散射点邻域,以提取的初级特征为描述特征,以判断的视觉单词类型为标签,基于单类支持向量机(OC-SVM)进行视觉单词判决准则的训练,获得视觉单词判决准则。
接着,经过上述“基于强散射点邻域的初级特征提取”,并利用上一步得到的视觉单词判决准则,对每个样本中的所有强散射点进行视觉单词判别,并将判别结果按出现的频次统计为视觉单词直方图(每个目标样本对应一个视觉单词直方图),就此完成中层特征编码。
第三步基于词袋(Bow)中层编码特征的船只分类(分类网第二层)
训练阶段:
对中层特征编码训练样本集中每个船只样本,提取的初级特征为描述特征,以判别的视觉单词类型为标签。然后进行上述“基于视觉单词直方图的词袋(Bow)中层特征编码”步骤;接着,利用多类支持向量机(SVM)分类器进行训练,形成不同类型船只的分类判决准则。
预测阶段:
对需要预测的船只样本,经过上述“基于强散射点邻域的初级特征提取”及“基于视觉单词直方图的词袋(Bow)中层特征编码”两个步骤,获得样本的词袋(Bow)中层编码特征。接着采用上一步获得的不同类型船只分类判决准则进行判别,获得船只的最终分类结果。
以下说明是如何具体实施本发明提供的方法,图1是本发明中船只识别技术流程图。处理过程如下:
第一步基于强散射点邻域的初级特征提取
1.1基于强散射点的目标邻域块划分
SAR图像中船只的强散射点及周围邻域,代表了其关键可辨识部位的散射特性,是关键部位语义描述的主要对象。本发明根据SAR图像中目标区域强散射强度影响,对应强散射点周围邻域图像进行领域块划分。
为了便于大部分的图像初级特征的提取,按下式对目标进行邻域块划分:
Figure BDA0001549516950000041
其中R表示动态尺寸的邻域方形框边长,R1=128*128像素为可能的最大尺寸框边长,i表示当前强散射点的最高灰度值。不同强度的强散射点将得到不同尺寸的特征描述邻域大小,强度越大,影响就越大,截取的周围邻域尺寸越大,利用以上方法将整个目标区域碎裂为若干的分块区域。
1.2邻域块初级图像特征提取
基于(1.1)目标邻域块划分,对每块邻域区,提取局部目标散射特征、基于灰度共生矩阵的纹理特征、局部二值模式(LBP)特征点描述的局部特征等图像初级特征。
(1)局部目标散射特征。将SAR图像中的散射点邻域对应的局部区域散射能量分布局部雷达散射截面(RCS,Radar Cross Section)密度特征,作为局部目标散射特征。该特征能反映不同强散射点的RCS特性。。
(2)灰度共生矩阵(GLCM,Gray Level Co-occurrence Matrix)是计算局域范围内像元灰度级共同出现的频率,不同的空间关系和纹理会产生不同的共生矩阵,以此来区分不同的纹理和结构特性。灰度共生矩阵提取像素值在移动窗口中的共生频率,统计测度:均值、方差、熵、角二阶矩、同质性、对比。
(3)局部二值模式(LBP)算子用于提取纹理特征。该算子是一种基于特定纹理基元描述的统计性纹理描述子,它有效地将纹理的结构信息和统计信息给出了联合描述,因此描述能力得到极大提升。局部二值模式(LBP)算子根据中心像素的灰度值与其邻域像素灰度值之间的关系进行定义,然后计算出统计得到的二进制链码的值作为该点的局部二值模式值。
第二步基于单类支持向量机(OC-SVM)分类器的词袋(Bow)中层特征编码(分类网第一层)
2.1强散射点邻域特征视觉词典构建
基于上一步对每个强散射点邻域提取的初级图像特征,利用聚类(K-means聚类)的方法形成视觉词典。其中每一个聚类中心为一个视觉单词。
2.2基于视觉单词直方图的词袋(Bow)中层特征编码
具体实现步骤为:
(1)先将训练集划分为两个集合,分别是:视觉单词训练样本集和中层特征编码训练样本集。
(2)对船只视觉单词训练样本集中的每个样本,进行强散射点周围邻域的初级图像特征提取,并由欧式距离判断其所属的视觉单词类型。则,对每个强散射点邻域,以提取的初级特征为描述特征,以判断的视觉单词类型为标签,基于单类支持向量机(OC-SVM)进行视觉单词判决准则的训练,获得视觉单词判决准则。其中单类支持向量机(OC-SVM)进行视觉单词判决准则的训练方法为:将输入样本D={x1,x2......xn}非线性映射到一个高维特征空间,在此高维特征空间建立一个超平面ω·φ(x)-ρ=0,将映射点与原点以间隔ρ隔开。其中ω为超平面法向量ф(x)为样本在高维空间的映射点。为了寻找距原点最远的最优超平面,需要最大化
Figure BDA0001549516950000051
另外为了提高算法的鲁棒性引入了松弛变量ξi。此时单分类单类支持向量机(OC-SVM)的优化问题转化为求解二次规划问题:
Figure BDA0001549516950000052
Figure BDA0001549516950000053
其中υ∈(0,1],nυ表示边界支持向量的上界,支持向量的下界,与标准支持向量机中的惩罚参数相似.引入拉格拉日系数求解以上问题得
Figure BDA0001549516950000054
其中αi和βi均为大于0的数,分别对ω、ρ和ξ进行优化得
Figure BDA0001549516950000055
Figure BDA0001549516950000056
Figure BDA0001549516950000061
将其代入并把内积(xi,xj),用核函数K(xi,xj)代替,本文使用径向基核(RBF)
K(xi,xj)=exp(-||xi-xj||2/σ2)
得到对偶式:
Figure BDA0001549516950000062
Figure BDA0001549516950000063
由任意的
Figure BDA0001549516950000064
样本可得
Figure BDA0001549516950000065
最终决策函数为
Figure BDA0001549516950000066
其中xi为支持向量,x为待测样本。由以上求解过程可知,训练时涉及到参数υ和σ2,可通过k折交叉检验实现对(υ,σ2)的参数寻优。用K-means聚类得到的k个分类器并根据判决公式
Figure BDA0001549516950000067
该判决公式就是基于单类支持向量机(OC-SVM)的视觉单词判决准则。
(3)接着,经过上述“基于强散射点邻域的初级特征提取”,并利用上一步得到的视觉单词判决准则,对每个样本中的所有强散射点进行视觉单词判别,并将判别结果按出现的频次统计为视觉单词直方图(每个目标样本对应一个视觉单词直方图),就此完成中层特征编码。
第三步基于词袋(Bow)中层编码特征的船只分类(分类网第二层)
(1)训练阶段:
对中层特征编码训练样本集中每个船只样本,提取初级特征为描述特征,以判别的视觉单词类型为标签。然后进行上述“基于视觉单词直方图的词袋(Bow)中层特征编码”步骤;接着,利用多类支持向量机(SVM)分类器进行训练,形成不同类型船只的分类判决准则,具体步骤为:构造多类支持向量机(SVM)分类器:构造k个两类分类规则,其中规则fK(x),k=1,2...n,将第k类的训练样本与其他训练样本分开,第k类作为正样本,其他k类为负样本训练一个两类分类器,共构造k个两类分类器。通过选取fK(x)中最大值所对应的类别:m=argmax{f1(x1),...fn(xn)}构造出一个n类分类器。最终形成不同类型船只的分类判决准则。
(2)预测阶段:
对需要预测的船只样本,经过上述“基于强散射点邻域的初级特征提取”及“基于视觉单词直方图的词袋(Bow)中层特征编码”两个步骤,获得样本的词袋(Bow)中层编码特征。接着采用上一步获得的不同类型船只分类多类支持向量机(SVM)判决准则进行判别,获得船只的最终分类结果。
本发明与现有技术相比具有以下优点:
(1)在识别特征提取方面,以往方法大都采用外观几何结构、电磁散射特征、变换域特征、局部描述子等各种类型的特征,这些特征都属于初级图像描述特征。然而,这些高分辨SAR图像中的船只目标初级描述特征容易受到场景中临近强散射体干扰、环境气候造成的成像质量、运动姿态及速度、SAR系统参数等因素影响,鲁棒性不强。本文提出针对高分辨率SAR船只目标,利用上层建筑关键部位的辨识与关联语义关系较为稳定的特性,提取对应的描述特征,有效的提高识别特征的鲁棒性。
(2)在识别分类器设计方面,以往都是基于初级图像特征对应单一分类器分类的策略,如基于欧式距离的K-近邻分类器、贝叶斯分类器以及基于核函数的支持向量机(SVM)分类器等。而这些分类器的构建仅考虑了初级特征的特点,仅能基于初级特征实现识别分类。本文针对上层建筑关键部位辨识与关联关系的语义特征进行识别,针对语义级特征,提出了双层分类网的分类策略,实现目标的高鲁棒性辨识。

Claims (1)

1.一种基于双层分类网的高分辨率合成孔径雷达船只识别方法,其特征在于包括:
1)基于强散射点邻域的初级特征提取,包括
1.1)基于强散射点的目标邻域块划分,根据合成孔径雷达图像中目标区域强散射强度影响,对应强散射点周围邻域图像进行邻域块划分,
1.2)邻域块初级图像特征提取,基于步骤1.1)目标邻域块划分,对每块邻域区,提取局部目标散射特征、基于灰度共生矩阵的纹理特征、基于局部二值模式特征点描述的局部特征等图像初级特征,
2)基于单类支持向量机分类器的词袋中层特征编码,即分类网第一层,包括:
2.1)强散射点邻域特征视觉词典构建,基于上一步对每个强散射点邻域提取的初级图像特征,利用聚类的方法形成视觉词典,
2.2)基于视觉单词直方图的词袋中层特征编码,其中首先将训练集划分为两个集合,分别是:视觉单词训练样本集和中层特征编码训练样本集,
其中,
对船只视觉单词训练样本集中的每个样本,进行强散射点周围邻域的初级图像特征提取,并由欧式距离判断其所属的视觉单词类型,则,对每个强散射点邻域,以提取的初级特征为描述特征,以判断的视觉单词类型为标签,基于单类支持向量机进行视觉单词判决准则的训练,获得视觉单词判决准则,
接着,经过上述“基于强散射点邻域的初级特征提取”,并利用上一步得到的视觉单词判决准则,对每个样本中的所有强散射点进行视觉单词判别,并将判别结果按出现的频次统计为视觉单词直方图,每个目标样本对应一个视觉单词直方图,就此完成中层特征编码,
3)基于词袋中层编码特征的船只分类,即分类网第二层,包括:
3.1)训练阶段,其中对中层特征编码训练样本集中每个船只样本,提取的初级特征为描述特征,以判别的视觉单词类型为标签,然后进行上述步骤2.2);接着,利用多类支持向量机分类器进行训练,形成不同类型船只的分类判决准则,
3.2)预测阶段,其中对需要预测的船只样本,经过上述步骤1)及步骤2),获得样本的词袋中层编码特征,接着采用上一步获得的不同类型船只分类判决准则进行判别,获得船只的最终分类结果;
步骤1.1)包括:
根据合成孔径雷达图像中目标区域强散射强度影响,对应强散射点周围邻域图像进行邻域块划分,包括按下式对目标进行邻域块划分:
Figure FDA0002508056340000021
其中i=0、1、2......255;
其中R表示动态尺寸的邻域方形框边长,R1=128*128像素为可能的最大尺寸框边长,i表示当前强散射点的最高灰度值,
其中不同强度的强散射点将得到不同尺寸的特征描述邻域大小,强度越大,影响就越大,截取的周围邻域尺寸越大,利用以上方法将整个目标区域碎裂为若干的分块区域;
其中单类支持向量机(OC-SVM)进行视觉单词判决准则的训练方法为:将输入样本D={x1,x2......xn}非线性映射到一个高维特征空间,在此高维特征空间建立一个超平面ω·φ(x)-ρ=0,将映射点与原点以间隔ρ隔开;其中ω为超平面法向量;ф(x)为样本在高维空间的映射点;为了寻找距原点最远的最优超平面,需要最大化
Figure FDA0002508056340000028
另外为了提高算法的鲁棒性引入了松弛变量ξi;此时单分类单类支持向量机(OC-SVM)的优化问题转化为求解二次规划问题:
Figure FDA0002508056340000022
Figure FDA0002508056340000023
其中,ρ是单类支持向量机的补偿值,b是ω的截距;
其中υ∈(0,1],vn表示边界支持向量的上界,支持向量的下界,与标准支持向量机中的惩罚参数相似,引入拉格拉日系数求解以上问题得
Figure FDA0002508056340000024
其中αi和βi为拉格朗日因子,且均为大于0的数,分别对ω、ρ和ξ进行优化得
Figure FDA0002508056340000025
Figure FDA0002508056340000026
Figure FDA0002508056340000027
将其代入并把内积(xi,xj),用核函数K(xi,xj)代替,其中,xi和xj为高斯核函数的参数;
K(xi,xj)=exp(-||xi-xj||2/σ2),||xi-xj||为任两点间的欧氏距离;
得到对偶式:
Figure FDA0002508056340000031
Figure FDA0002508056340000032
由任意的
Figure FDA0002508056340000033
样本可得
Figure FDA0002508056340000034
最终决策函数为
Figure FDA0002508056340000035
其中xi为支持向量,x为待测样本;用K-means聚类得到的k个分类器并根据判决公式
Figure FDA0002508056340000036
该判决公式就是基于单类支持向量机(OC-SVM)的视觉单词判决准则;
所述利用多类支持向量机分类器进行训练,形成不同类型船只的分类判决准则,具体步骤为:构造多类支持向量机(SVM)分类器:构造k个两类分类规则,其中规则fK(x),k=1,2...n,将第k类的训练样本与其他训练样本分开,第k类作为正样本,其他k类为负样本训练一个两类分类器,共构造k个两类分类器;通过选取fK(x)中最大值所对应的类别:m=argmax{f1(x1),...fn(xn)}构造出一个n类分类器;最终形成不同类型船只的分类判决准则。
CN201810041080.3A 2018-01-16 2018-01-16 一种基于双层分类网的高分辨率合成孔径雷达船只识别方法 Active CN108256471B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810041080.3A CN108256471B (zh) 2018-01-16 2018-01-16 一种基于双层分类网的高分辨率合成孔径雷达船只识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810041080.3A CN108256471B (zh) 2018-01-16 2018-01-16 一种基于双层分类网的高分辨率合成孔径雷达船只识别方法

Publications (2)

Publication Number Publication Date
CN108256471A CN108256471A (zh) 2018-07-06
CN108256471B true CN108256471B (zh) 2020-08-14

Family

ID=62726621

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810041080.3A Active CN108256471B (zh) 2018-01-16 2018-01-16 一种基于双层分类网的高分辨率合成孔径雷达船只识别方法

Country Status (1)

Country Link
CN (1) CN108256471B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109932720A (zh) * 2019-03-19 2019-06-25 北京润科通用技术有限公司 基于雷达的运动目标识别方法及装置
CN111126335B (zh) * 2019-12-31 2021-05-04 珠海大横琴科技发展有限公司 一种结合显著性和神经网络的sar船只识别方法及系统
CN111539385B (zh) * 2020-05-28 2022-05-20 北京理工大学 基于分辨率金字塔模型的极窄脉冲雷达船只鉴别方法
CN111767803B (zh) * 2020-06-08 2022-02-08 北京理工大学 合成极窄脉冲雷达抗目标姿态敏感的鉴别方法
CN111767806B (zh) * 2020-06-12 2023-05-05 北京理工大学 基于Attribute的极窄脉冲雷达船只目标鉴别方法
CN112131962B (zh) * 2020-08-28 2023-08-15 西安电子科技大学 基于电磁散射特征和深度网络特征的sar图像识别方法
CN116051426B (zh) * 2023-03-27 2023-06-30 南京誉葆科技股份有限公司 一种合成孔径雷达图像处理方法
CN116660897B (zh) * 2023-05-19 2024-02-27 北京建筑大学 基于空间语义的sar成像获取方法、装置、计算机设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104036239A (zh) * 2014-05-29 2014-09-10 西安电子科技大学 基于特征融合和聚类的高分辨sar图像快速舰船检测方法
CN105866775A (zh) * 2016-03-28 2016-08-17 南京信息工程大学 一种基于全极化合成孔径雷达图像的海面溢油检测方法
CN106250909A (zh) * 2016-07-11 2016-12-21 南京邮电大学 一种基于改进视觉词袋模型的图像分类方法
CN107563447A (zh) * 2017-09-08 2018-01-09 哈尔滨工业大学 一种遥感图像中目标到目标部位的分级识别方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104036239A (zh) * 2014-05-29 2014-09-10 西安电子科技大学 基于特征融合和聚类的高分辨sar图像快速舰船检测方法
CN105866775A (zh) * 2016-03-28 2016-08-17 南京信息工程大学 一种基于全极化合成孔径雷达图像的海面溢油检测方法
CN106250909A (zh) * 2016-07-11 2016-12-21 南京邮电大学 一种基于改进视觉词袋模型的图像分类方法
CN107563447A (zh) * 2017-09-08 2018-01-09 哈尔滨工业大学 一种遥感图像中目标到目标部位的分级识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
《结合视觉显著性引导与分类器融合的遥感目标检测》;毕福昆,高立宁,龙腾,杨健;《红外与激光工程》;20111031;第40卷(第10期);2058-2064 *

Also Published As

Publication number Publication date
CN108256471A (zh) 2018-07-06

Similar Documents

Publication Publication Date Title
CN108256471B (zh) 一种基于双层分类网的高分辨率合成孔径雷达船只识别方法
Sharifzadeh et al. Ship classification in SAR images using a new hybrid CNN–MLP classifier
CN108875659B (zh) 一种基于多光谱遥感影像的海图养殖区识别方法
CN109740460B (zh) 基于深度残差密集网络的光学遥感图像舰船检测方法
CN110298280B (zh) 一种基于mkl多特征融合的海洋涡旋识别方法
CN104036239B (zh) 基于特征融合和聚类的高分辨sar图像快速舰船检测方法
CN109871902B (zh) 一种基于超分辨率对抗生成级联网络的sar小样本识别方法
Zhuo et al. Cloud classification of ground-based images using texture–structure features
CN107480620B (zh) 基于异构特征融合的遥感图像自动目标识别方法
CN104217196B (zh) 一种遥感影像圆形油罐自动检测方法
Chen et al. Identification of rain and low-backscatter regions in X-band marine radar images: An unsupervised approach
CN105866775B (zh) 一种基于全极化合成孔径雷达图像的海面溢油检测方法
CN101930547A (zh) 一种基于面向对象的无监督分类的遥感影像自动分类方法
CN109359661B (zh) 一种基于卷积神经网络的Sentinel-1雷达图像分类方法
CN103218831A (zh) 一种基于轮廓约束的视频运动目标分类识别方法
Gerg et al. Structural prior driven regularized deep learning for sonar image classification
CN110991257B (zh) 基于特征融合与svm的极化sar溢油检测方法
CN109344880B (zh) 基于多特征和复合核的sar图像分类方法
CN110516525A (zh) 基于gan和svm的sar图像目标识别方法
Chehresa et al. Optimum features selection for oil spill detection in SAR image
Rabee et al. License plate detection and recognition in complex scenes using mathematical morphology and support vector machines
Wang et al. Revisiting SLIC: Fast superpixel segmentation of marine SAR images using density features
Yaohua et al. A SAR oil spill image recognition method based on densenet convolutional neural network
Nogueira et al. SAR image segmentation based on unsupervised classification of log-cumulants estimates
Lee et al. Generating hard examples for pixel-wise classification

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant