CN108256471A - 一种基于双层分类网的高分辨率合成孔径雷达船只识别方法 - Google Patents

一种基于双层分类网的高分辨率合成孔径雷达船只识别方法 Download PDF

Info

Publication number
CN108256471A
CN108256471A CN201810041080.3A CN201810041080A CN108256471A CN 108256471 A CN108256471 A CN 108256471A CN 201810041080 A CN201810041080 A CN 201810041080A CN 108256471 A CN108256471 A CN 108256471A
Authority
CN
China
Prior art keywords
ship
vision word
strong scattering
neighborhood
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810041080.3A
Other languages
English (en)
Other versions
CN108256471B (zh
Inventor
毕福昆
侯金元
葛娴君
杨志华
雷明阳
王崇磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
North China University of Technology
Original Assignee
North China University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by North China University of Technology filed Critical North China University of Technology
Priority to CN201810041080.3A priority Critical patent/CN108256471B/zh
Publication of CN108256471A publication Critical patent/CN108256471A/zh
Application granted granted Critical
Publication of CN108256471B publication Critical patent/CN108256471B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • G06V10/464Salient features, e.g. scale invariant feature transforms [SIFT] using a plurality of salient features, e.g. bag-of-words [BoW] representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本发明提出了一种基于双层分类网的高分辨率SAR船只识别方法。该方法涉及高分辨率SAR图像自动处理,提出双层分类网的分类策略,尤其针对SAR遥感图像中船只目标的高鲁棒性识别。第一步针对SAR图像中强散射点的目标邻域块进行划分,基于邻域块提取图像的初级特征。第二步,针对特征邻域用K‑means形成视觉词典,基于OC‑SVM分类器构建Bow中层特征编码,构建分类网第一层。第三步,中层特征编码训练样本集中每个船只样本,提取初级特征为描述特征,以判别的视觉单词类型为标签。利用多类SVM形成不同船只的分类判别准则,形成分类网的第二层分类。该方法能有效提取高分辨SAR图像中船只目标关键部位的语义级特征,对应设计提出的双层分类网能进行有效识别。

Description

一种基于双层分类网的高分辨率合成孔径雷达船只识别方法
技术领域
本发明涉及高分辨率合成孔径雷达图像的处理方法,尤其是针对合成孔径雷达遥感图像中船只目标的高鲁棒性识别方法。
背景技术
近年来,利用合成孔径雷达(SAR,Synthetic Aperture Radar)遥感图像,进行船只检测与识别在海洋遥感应用领域得到了高度重视。SAR能够全天时、全天候对大范围海洋区域进行观测,是进行大范围海域船只识别的有效手段之一。
随着各种SAR系统的研究和大规模投入使用,我国在利用SAR图像进行海洋监测的应用领域开展了一系列深入的研究。如国防科技大学,高贵等,提出利用目标峰值序列的特性及其特征提取的方法进行SAR图像目标识别;中国海洋大学,张晰等,通过考虑SAR船只结构特征,提出了采用船只的长宽、峰值等初级特征,及多极化信息分析了船只的散射特征,从而实现船只的分类识别;第二炮兵工程学院,董江曼等,根据海洋上所具有的背景单一、目标结构复杂的特点,提出了利用船只目标的结构特征量对SAR图像船只识别的方法。
综上已有的方法,在识别特征提取方面,以往方法大都采用外观几何结构、电磁散射、变换域、局部描述子等各种类型的特征,这些特征大都属于初级图像描述特征。然而,这些高分辨SAR图像中的船只目标初级描述特征,容易受到场景中临近强散射体干扰、环境气候造成的成像质量、运动姿态及速度、SAR系统参数等因素影响,鲁棒性不强,影响识别精度。相比与这些初级的图像特征描述方法,对于高分辨率SAR船只目标来说,上层建筑关键部位的辨识与关联语义关系是较为稳定的特性,若能设计相应的方法提取对应的描述特征,将能有效提高识别特征的鲁棒性。
在识别分类器设计方面,基于初级图像特征,已有方法已构建种类繁多的分类器,如基于欧式距离的K-近邻分类器、贝叶斯分类器以及基于核函数的支持向量机(SVM,Support Vector Machine)分类器等。而这些分类器的构建仅考虑了初级特征的特点,仅能基于初级特征实现识别分类。如果要基于上层建筑关键部位辨识与关联关系的语义特征进行识别,需要针对语义级特征,构建相应的分类策略,来实现目标的高鲁棒性辨识。
因此,急需提出一种高鲁棒性的高分辨SAR图像船只目标识别方法。特别是在上层建筑关键部位辨识与空间关联关系的语义级特征描述,及与之对应的分类策略的设计方法。
发明内容
根据本发明的一个方面,提供了一种基于双层分类网的高分辨率合成孔径雷达船只识别方法,其特征在于包括:
1)基于强散射点邻域的初级特征提取,包括
1.1)基于强散射点的目标邻域块划分,根据合成孔径雷达图像中目标区域强散射强度影响,对应强散射点周围邻域图像进行领域块划分,
1.2)邻域块初级图像特征提取,基于步骤1.1)目标邻域块划分,对每块邻域区,提取局部目标散射特征、基于灰度共生矩阵的纹理特征、基于局部二值模式特征点描述的局部特征等图像初级特征,
2)基于单类支持向量机分类器的词袋中层特征编码,即分类网第一层,包括:
2.1)强散射点邻域特征视觉词典构建,基于上一步对每个强散射点邻域提取的初级图像特征,利用聚类的方法形成视觉词典,
2.2)基于视觉单词直方图的词袋中层特征编码,其中首先将训练集划分为两个集合,分别是:视觉单词训练样本集和中层特征编码训练样本集,
其中,
对船只视觉单词训练样本集中的每个样本,进行强散射点周围邻域的初级图像特征提取,并由欧式距离判断其所属的视觉单词类型,则,对每个强散射点邻域,以提取的初级特征为描述特征,以判断的视觉单词类型为标签,基于单类支持向量机进行视觉单词判决准则的训练,获得视觉单词判决准则,
接着,经过上述“基于强散射点邻域的初级特征提取”,并利用上一步得到的视觉单词判决准则,对每个样本中的所有强散射点进行视觉单词判别,并将判别结果按出现的频次统计为视觉单词直方图,其中每个目标样本对应一个视觉单词直方图,就此完成中层特征编码,
3)基于词袋中层编码特征的船只分类,即分类网第二层,包括:
3.1)训练阶段,其中对中层特征编码训练样本集中每个船只样本,提取的初级特征为描述特征,以判别的视觉单词类型为标签,然后进行上述步骤2.2);接着,利用多类支持向量机分类器进行训练,形成不同类型船只的分类判决准则,
3.2)预测阶段,其中对需要预测的船只样本,经过上述步骤1)及步骤2),获得样本的词袋中层编码特征,接着采用上一步获得的不同类型船只分类判决准则进行判别,获得船只的最终分类结果。
附图说明:
图1是根据本发明的一个实施例的基于双层分类网的高分辨率合成孔径雷达船只识别方法的流程图。
具体实施方式:
针对上述传统高分辨SAR遥感图像船只识别方法的局限性,本发明提出一种基于双层分类网的高分辨率SAR船只识别方法,实现步骤如下:
第一步基于强散射点邻域的初级特征提取
1.1基于强散射点的目标邻域块划分
SAR图像中船只的强散射点及周围邻域,代表了其关键可辨识部位的散射特性,是关键部位语义描述的主要对象。本发明根据SAR图像中目标区域强散射强度影响,对应强散射点周围邻域图像进行领域块划分。1.2邻域块初级图像特征提取
基于(1.1)目标邻域块划分,对每块邻域区,提取局部目标散射特征、基于灰度共生矩阵的纹理特征、基于局部二值模式(LBP,Local Binary Pattern)特征点描述的局部特征等图像初级特征。
第二步基于单类支持向量机(OC-SVM,One-Class Support Vector Machine)分类器的词袋(Bow,Bag-of-word)中层特征编码(分类网第一层)
2.1强散射点邻域特征视觉词典构建
基于上一步对每个强散射点邻域提取的初级图像特征,利用聚类(K-means聚类)的方法形成视觉词典。
2.2基于视觉单词直方图的词袋(Bow)中层特征编码
首先将训练集划分为两个集合,分别是:视觉单词训练样本集和中层特征编码训练样本集。
对船只视觉单词训练样本集中的每个样本,进行强散射点周围邻域的初级图像特征提取,并由欧式距离判断其所属的视觉单词类型。则,对每个强散射点邻域,以提取的初级特征为描述特征,以判断的视觉单词类型为标签,基于单类支持向量机(OC-SVM)进行视觉单词判决准则的训练,获得视觉单词判决准则。
接着,经过上述“基于强散射点邻域的初级特征提取”,并利用上一步得到的视觉单词判决准则,对每个样本中的所有强散射点进行视觉单词判别,并将判别结果按出现的频次统计为视觉单词直方图(每个目标样本对应一个视觉单词直方图),就此完成中层特征编码。
第三步基于词袋(Bow)中层编码特征的船只分类(分类网第二层)
训练阶段:
对中层特征编码训练样本集中每个船只样本,提取的初级特征为描述特征,以判别的视觉单词类型为标签。然后进行上述“基于视觉单词直方图的词袋(Bow)中层特征编码”步骤;接着,利用多类支持向量机(SVM)分类器进行训练,形成不同类型船只的分类判决准则。
预测阶段:
对需要预测的船只样本,经过上述“基于强散射点邻域的初级特征提取”及“基于视觉单词直方图的词袋(Bow)中层特征编码”两个步骤,获得样本的词袋(Bow)中层编码特征。接着采用上一步获得的不同类型船只分类判决准则进行判别,获得船只的最终分类结果。
以下说明是如何具体实施本发明提供的方法,图1是本发明中船只识别技术流程图。处理过程如下:
第一步基于强散射点邻域的初级特征提取
1.1基于强散射点的目标邻域块划分
SAR图像中船只的强散射点及周围邻域,代表了其关键可辨识部位的散射特性,是关键部位语义描述的主要对象。本发明根据SAR图像中目标区域强散射强度影响,对应强散射点周围邻域图像进行领域块划分。
为了便于大部分的图像初级特征的提取,按下式对目标进行邻域块划分:
其中R表示动态尺寸的邻域方形框边长,R1=128*128像素为可能的最大尺寸框边长,i表示当前强散射点的最高灰度值。不同强度的强散射点将得到不同尺寸的特征描述邻域大小,强度越大,影响就越大,截取的周围邻域尺寸越大,利用以上方法将整个目标区域碎裂为若干的分块区域。
1.2邻域块初级图像特征提取
基于(1.1)目标邻域块划分,对每块邻域区,提取局部目标散射特征、基于灰度共生矩阵的纹理特征、局部二值模式(LBP)特征点描述的局部特征等图像初级特征。
(1)局部目标散射特征。将SAR图像中的散射点邻域对应的局部区域散射能量分布局部雷达散射截面(RCS,Radar Cross Section)密度特征,作为局部目标散射特征。该特征能反映不同强散射点的RCS特性。。
(2)灰度共生矩阵(GLCM,Gray Level Co-occurrence Matrix)是计算局域范围内像元灰度级共同出现的频率,不同的空间关系和纹理会产生不同的共生矩阵,以此来区分不同的纹理和结构特性。灰度共生矩阵提取像素值在移动窗口中的共生频率,统计测度:均值、方差、熵、角二阶矩、同质性、对比。
(3)局部二值模式(LBP)算子用于提取纹理特征。该算子是一种基于特定纹理基元描述的统计性纹理描述子,它有效地将纹理的结构信息和统计信息给出了联合描述,因此描述能力得到极大提升。局部二值模式(LBP)算子根据中心像素的灰度值与其邻域像素灰度值之间的关系进行定义,然后计算出统计得到的二进制链码的值作为该点的局部二值模式值。
第二步基于单类支持向量机(OC-SVM)分类器的词袋(Bow)中层特征编码(分类网第一层)
2.1强散射点邻域特征视觉词典构建
基于上一步对每个强散射点邻域提取的初级图像特征,利用聚类(K-means聚类)的方法形成视觉词典。其中每一个聚类中心为一个视觉单词。
2.2基于视觉单词直方图的词袋(Bow)中层特征编码
具体实现步骤为:
(1)先将训练集划分为两个集合,分别是:视觉单词训练样本集和中层特征编码训练样本集。
(2)对船只视觉单词训练样本集中的每个样本,进行强散射点周围邻域的初级图像特征提取,并由欧式距离判断其所属的视觉单词类型。则,对每个强散射点邻域,以提取的初级特征为描述特征,以判断的视觉单词类型为标签,基于单类支持向量机(OC-SVM)进行视觉单词判决准则的训练,获得视觉单词判决准则。其中单类支持向量机(OC-SVM)进行视觉单词判决准则的训练方法为:将输入样本D={x1,x2......xn}非线性映射到一个高维特征空间,在此高维特征空间建立一个超平面ω·φ(x)-ρ=0,将映射点与原点以间隔ρ隔开。其中ω为超平面法向量ф(x)为样本在高维空间的映射点。为了寻找距原点最远的最优超平面,需要最大化另外为了提高算法的鲁棒性引入了松弛变量ξi。此时单分类单类支持向量机(OC-SVM)的优化问题转化为求解二次规划问题:
其中υ∈(0,1],nυ表示边界支持向量的上界,支持向量的下界,与标准支持向量机中的惩罚参数相似.引入拉格拉日系数求解以上问题得
其中αi和βi均为大于0的数,分别对ω、ρ和ξ进行优化得
将其代入并把内积(xi,xj),用核函数K(xi,xj)代替,本文使用径向基核(RBF)
K(xi,xj)=exp(-||xi-xj||2/σ2)
得到对偶式:
由任意的样本可得最终决策函数为
其中xi为支持向量,x为待测样本。由以上求解过程可知,训练时涉及到参数υ和σ2,可通过k折交叉检验实现对(υ,σ2)的参数寻优。用K-means聚类得到的k个分类器并根据判决公式该判决公式就是基于单类支持向量机(OC-SVM)的视觉单词判决准则。
(3)接着,经过上述“基于强散射点邻域的初级特征提取”,并利用上一步得到的视觉单词判决准则,对每个样本中的所有强散射点进行视觉单词判别,并将判别结果按出现的频次统计为视觉单词直方图(每个目标样本对应一个视觉单词直方图),就此完成中层特征编码。
第三步基于词袋(Bow)中层编码特征的船只分类(分类网第二层)
(1)训练阶段:
对中层特征编码训练样本集中每个船只样本,提取初级特征为描述特征,以判别的视觉单词类型为标签。然后进行上述“基于视觉单词直方图的词袋(Bow)中层特征编码”步骤;接着,利用多类支持向量机(SVM)分类器进行训练,形成不同类型船只的分类判决准则,具体步骤为:构造多类支持向量机(SVM)分类器:构造k个两类分类规则,其中规则fK(x),k=1,2...n,将第k类的训练样本与其他训练样本分开,第k类作为正样本,其他k类为负样本训练一个两类分类器,共构造k个两类分类器。通过选取fK(x)中最大值所对应的类别:m=argmax{f1(x1),...fn(xn)}构造出一个n类分类器。最终形成不同类型船只的分类判决准则。
(2)预测阶段:
对需要预测的船只样本,经过上述“基于强散射点邻域的初级特征提取”及“基于视觉单词直方图的词袋(Bow)中层特征编码”两个步骤,获得样本的词袋(Bow)中层编码特征。接着采用上一步获得的不同类型船只分类多类支持向量机(SVM)判决准则进行判别,获得船只的最终分类结果。
本发明与现有技术相比具有以下优点:
(1)在识别特征提取方面,以往方法大都采用外观几何结构、电磁散射特征、变换域特征、局部描述子等各种类型的特征,这些特征都属于初级图像描述特征。然而,这些高分辨SAR图像中的船只目标初级描述特征容易受到场景中临近强散射体干扰、环境气候造成的成像质量、运动姿态及速度、SAR系统参数等因素影响,鲁棒性不强。本文提出针对高分辨率SAR船只目标,利用上层建筑关键部位的辨识与关联语义关系较为稳定的特性,提取对应的描述特征,有效的提高识别特征的鲁棒性。
(2)在识别分类器设计方面,以往都是基于初级图像特征对应单一分类器分类的策略,如基于欧式距离的K-近邻分类器、贝叶斯分类器以及基于核函数的支持向量机(SVM)分类器等。而这些分类器的构建仅考虑了初级特征的特点,仅能基于初级特征实现识别分类。本文针对上层建筑关键部位辨识与关联关系的语义特征进行识别,针对语义级特征,提出了双层分类网的分类策略,实现目标的高鲁棒性辨识。

Claims (3)

1.一种基于双层分类网的高分辨率合成孔径雷达船只识别方法,其特征在于包括:
1)基于强散射点邻域的初级特征提取,包括
1.1)基于强散射点的目标邻域块划分,根据合成孔径雷达图像中目标区域强散射强度影响,对应强散射点周围邻域图像进行领域块划分,
1.2)邻域块初级图像特征提取,基于步骤1.1)目标邻域块划分,对每块邻域区,提取局部目标散射特征、基于灰度共生矩阵的纹理特征、基于局部二值模式特征点描述的局部特征等图像初级特征,
2)基于单类支持向量机分类器的词袋中层特征编码,即分类网第一层,包括:
2.1)强散射点邻域特征视觉词典构建,基于上一步对每个强散射点邻域提取的初级图像特征,利用聚类的方法形成视觉词典,
2.2)基于视觉单词直方图的词袋中层特征编码,其中首先将训练集划分为两个集合,分别是:视觉单词训练样本集和中层特征编码训练样本集,
其中,
对船只视觉单词训练样本集中的每个样本,进行强散射点周围邻域的初级图像特征提取,并由欧式距离判断其所属的视觉单词类型,则,对每个强散射点邻域,以提取的初级特征为描述特征,以判断的视觉单词类型为标签,基于单类支持向量机进行视觉单词判决准则的训练,获得视觉单词判决准则,
接着,经过上述“基于强散射点邻域的初级特征提取”,并利用上一步得到的视觉单词判决准则,对每个样本中的所有强散射点进行视觉单词判别,并将判别结果按出现的频次统计为视觉单词直方图,每个目标样本对应一个视觉单词直方图,就此完成中层特征编码,
3)基于词袋中层编码特征的船只分类,即分类网第二层,包括:
3.1)训练阶段,其中对中层特征编码训练样本集中每个船只样本,提取的初级特征为描述特征,以判别的视觉单词类型为标签,然后进行上述步骤2.2);接着,利用多类支持向量机分类器进行训练,形成不同类型船只的分类判决准则,
3.2)预测阶段,其中对需要预测的船只样本,经过上述步骤1)及步骤2),获得样本的词袋中层编码特征,接着采用上一步获得的不同类型船只分类判决准则进行判别,获得船只的最终分类结果。
2.根据权利要求1的高分辨率合成孔径雷达船只识别方法,其特征在于:
步骤2.1)包括:
根据合成孔径雷达图像中目标区域强散射强度影响,对应强散射点周围邻域图像进行领域块划分,包括按下式对目标进行邻域块划分:
其中R表示动态尺寸的邻域方形框边长,R1=128*128像素为可能的最大尺寸框边长,i表示当前强散射点的最高灰度值,
其中不同强度的强散射点将得到不同尺寸的特征描述邻域大小,强度越大,影响就越大,截取的周围邻域尺寸越大,利用以上方法将整个目标区域碎裂为若干的分块区域,
步骤2.2)包括:
基于步骤2.1)的目标邻域块划分,对每块邻域区,提取局部目标散射特征、基于灰度共生矩阵的纹理特征、局部二值模式特征点描述的局部特征等图像初级特征。
3.根据权利要求1的高分辨率合成孔径雷达船只识别方法,其特征在于:
步骤3.1)包括:基于上一步对每个强散射点邻域提取的初级图像特征,利用聚类的方法形成视觉词典,其中每一个聚类中心为一个视觉单词,
步骤3.2)包括:
3.2.1)先将训练集划分为两个集合,分别是:视觉单词训练样本集和中层特征编码训练样本集,
3.2.2)对船只视觉单词训练样本集中的每个样本,进行强散射点周围邻域的初级图像特征提取,并由欧式距离判断其所属的视觉单词类型,则,对每个强散射点邻域,以提取的初级特征为描述特征,以判断的视觉单词类型为标签,基于单类支持向量机进行视觉单词判决准则的训练,获得视觉单词判决准则,
3.2.3)接着,经过上述“基于强散射点邻域的初级特征提取”,并利用上一步得到的视觉单词判决准则,对每个样本中的所有强散射点进行视觉单词判别,并将判别结果按出现的频次统计为视觉单词直方图,就此完成中层特征编码,其中每个目标样本对应一个视觉单词直方图。
CN201810041080.3A 2018-01-16 2018-01-16 一种基于双层分类网的高分辨率合成孔径雷达船只识别方法 Active CN108256471B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810041080.3A CN108256471B (zh) 2018-01-16 2018-01-16 一种基于双层分类网的高分辨率合成孔径雷达船只识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810041080.3A CN108256471B (zh) 2018-01-16 2018-01-16 一种基于双层分类网的高分辨率合成孔径雷达船只识别方法

Publications (2)

Publication Number Publication Date
CN108256471A true CN108256471A (zh) 2018-07-06
CN108256471B CN108256471B (zh) 2020-08-14

Family

ID=62726621

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810041080.3A Active CN108256471B (zh) 2018-01-16 2018-01-16 一种基于双层分类网的高分辨率合成孔径雷达船只识别方法

Country Status (1)

Country Link
CN (1) CN108256471B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109932720A (zh) * 2019-03-19 2019-06-25 北京润科通用技术有限公司 基于雷达的运动目标识别方法及装置
CN111126335A (zh) * 2019-12-31 2020-05-08 珠海大横琴科技发展有限公司 一种结合显著性和神经网络的sar船只识别方法及系统
CN111539385A (zh) * 2020-05-28 2020-08-14 北京理工大学 基于分辨率金字塔模型的极窄脉冲雷达船只鉴别方法
CN111767806A (zh) * 2020-06-12 2020-10-13 北京理工大学 基于Attribute的极窄脉冲雷达船只目标鉴别方法
CN111767803A (zh) * 2020-06-08 2020-10-13 北京理工大学 合成极窄脉冲雷达抗目标姿态敏感的鉴别方法
CN112131962A (zh) * 2020-08-28 2020-12-25 西安电子科技大学 基于电磁散射特征和深度网络特征的sar图像识别方法
CN116051426A (zh) * 2023-03-27 2023-05-02 南京誉葆科技股份有限公司 一种合成孔径雷达图像处理方法
CN116660897A (zh) * 2023-05-19 2023-08-29 北京建筑大学 Sar微波视觉成像的获取方法、装置、计算机设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104036239A (zh) * 2014-05-29 2014-09-10 西安电子科技大学 基于特征融合和聚类的高分辨sar图像快速舰船检测方法
CN105866775A (zh) * 2016-03-28 2016-08-17 南京信息工程大学 一种基于全极化合成孔径雷达图像的海面溢油检测方法
CN106250909A (zh) * 2016-07-11 2016-12-21 南京邮电大学 一种基于改进视觉词袋模型的图像分类方法
CN107563447A (zh) * 2017-09-08 2018-01-09 哈尔滨工业大学 一种遥感图像中目标到目标部位的分级识别方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104036239A (zh) * 2014-05-29 2014-09-10 西安电子科技大学 基于特征融合和聚类的高分辨sar图像快速舰船检测方法
CN105866775A (zh) * 2016-03-28 2016-08-17 南京信息工程大学 一种基于全极化合成孔径雷达图像的海面溢油检测方法
CN106250909A (zh) * 2016-07-11 2016-12-21 南京邮电大学 一种基于改进视觉词袋模型的图像分类方法
CN107563447A (zh) * 2017-09-08 2018-01-09 哈尔滨工业大学 一种遥感图像中目标到目标部位的分级识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
毕福昆,高立宁,龙腾,杨健: "《结合视觉显著性引导与分类器融合的遥感目标检测》", 《红外与激光工程》 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109932720A (zh) * 2019-03-19 2019-06-25 北京润科通用技术有限公司 基于雷达的运动目标识别方法及装置
CN111126335B (zh) * 2019-12-31 2021-05-04 珠海大横琴科技发展有限公司 一种结合显著性和神经网络的sar船只识别方法及系统
CN111126335A (zh) * 2019-12-31 2020-05-08 珠海大横琴科技发展有限公司 一种结合显著性和神经网络的sar船只识别方法及系统
CN111539385A (zh) * 2020-05-28 2020-08-14 北京理工大学 基于分辨率金字塔模型的极窄脉冲雷达船只鉴别方法
CN111767803A (zh) * 2020-06-08 2020-10-13 北京理工大学 合成极窄脉冲雷达抗目标姿态敏感的鉴别方法
CN111767803B (zh) * 2020-06-08 2022-02-08 北京理工大学 合成极窄脉冲雷达抗目标姿态敏感的鉴别方法
CN111767806A (zh) * 2020-06-12 2020-10-13 北京理工大学 基于Attribute的极窄脉冲雷达船只目标鉴别方法
CN111767806B (zh) * 2020-06-12 2023-05-05 北京理工大学 基于Attribute的极窄脉冲雷达船只目标鉴别方法
CN112131962A (zh) * 2020-08-28 2020-12-25 西安电子科技大学 基于电磁散射特征和深度网络特征的sar图像识别方法
CN112131962B (zh) * 2020-08-28 2023-08-15 西安电子科技大学 基于电磁散射特征和深度网络特征的sar图像识别方法
CN116051426A (zh) * 2023-03-27 2023-05-02 南京誉葆科技股份有限公司 一种合成孔径雷达图像处理方法
CN116660897A (zh) * 2023-05-19 2023-08-29 北京建筑大学 Sar微波视觉成像的获取方法、装置、计算机设备
CN116660897B (zh) * 2023-05-19 2024-02-27 北京建筑大学 基于空间语义的sar成像获取方法、装置、计算机设备

Also Published As

Publication number Publication date
CN108256471B (zh) 2020-08-14

Similar Documents

Publication Publication Date Title
CN108256471A (zh) 一种基于双层分类网的高分辨率合成孔径雷达船只识别方法
CN105184309B (zh) 基于cnn和svm的极化sar图像分类
Wang et al. Recognition of leaf images based on shape features using a hypersphere classifier
CN104036239B (zh) 基于特征融合和聚类的高分辨sar图像快速舰船检测方法
CN110210362A (zh) 一种基于卷积神经网络的交通标志检测方法
CN102663348B (zh) 一种光学遥感图像中的海上舰船检测方法
CN107480620B (zh) 基于异构特征融合的遥感图像自动目标识别方法
Aukkapinyo et al. Localization and classification of rice-grain images using region proposals-based convolutional neural network
CN110543837A (zh) 一种基于潜在目标点的可见光机场飞机检测方法
CN103049763B (zh) 一种基于上下文约束的目标识别方法
CN108171136A (zh) 一种多任务卡口车辆以图搜图的系统及方法
CN102842032B (zh) 基于多模式组合策略的移动互联网色情图像识别方法
CN107103317A (zh) 基于图像融合和盲反卷积的模糊车牌图像识别算法
CN106529532A (zh) 一种基于积分特征通道与灰度投影的车牌识别系统
CN109871902A (zh) 一种基于超分辨率对抗生成级联网络的sar小样本识别方法
CN106529461A (zh) 一种基于积分特征通道和svm训练器的车型识别算法
CN108564111A (zh) 一种基于邻域粗糙集特征选择的图像分类方法
CN103745213A (zh) 基于lvq神经网络的光学字符识别方法
CN108073940B (zh) 一种非结构化环境中的3d目标实例物体检测的方法
CN109711431A (zh) 一处局部分块卷积的目标跟踪方法、系统及存储介质
CN109902692A (zh) 一种基于局部区域深度特征编码的图像分类方法
Xia et al. Plant leaf recognition using histograms of oriented gradients
Kejun et al. Automatic nipple detection using cascaded adaboost classifier
CN113537173B (zh) 一种基于面部补丁映射的人脸图像真伪识别方法
Rong et al. Weakly supervised text attention network for generating text proposals in scene images

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant