CN111339924B - 一种基于超像素和全卷积网络的极化sar图像分类方法 - Google Patents

一种基于超像素和全卷积网络的极化sar图像分类方法 Download PDF

Info

Publication number
CN111339924B
CN111339924B CN202010114239.7A CN202010114239A CN111339924B CN 111339924 B CN111339924 B CN 111339924B CN 202010114239 A CN202010114239 A CN 202010114239A CN 111339924 B CN111339924 B CN 111339924B
Authority
CN
China
Prior art keywords
result
classification
sar image
polarized sar
sfcn
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010114239.7A
Other languages
English (en)
Other versions
CN111339924A (zh
Inventor
陈彦桥
高峰
关俊志
王雅涵
柴兴华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CETC 54 Research Institute
Original Assignee
CETC 54 Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CETC 54 Research Institute filed Critical CETC 54 Research Institute
Priority to CN202010114239.7A priority Critical patent/CN111339924B/zh
Publication of CN111339924A publication Critical patent/CN111339924A/zh
Application granted granted Critical
Publication of CN111339924B publication Critical patent/CN111339924B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于超像素和全卷积网络的极化SAR图像分类方法,主要解决现有极化SAR图像分类方法分类精度不高的问题。实现步骤为:输入滤波后的极化SAR图像;提取T矩阵和H/A/α分解特征为原始特征;随机选取部分有标记样本作为训练集,剩余有标记样本作为测试集;使用训练集训练全卷积网络模型,模型训练完成后,对整幅极化SAR图像进行分类,并将结果标记为Result‑SFCN;使用超像素算法对整幅极化SAR图像进行分割,得到分割结果;用超像素的分割结果修正Result‑SFCN,将修正后的分类结果标记为Result‑SLIC;根据信息熵,得到Result‑SFCN中置信度较高的分类结果,记作Result‑SFCN1;用Result‑SFCN1修正Result‑SLIC,得到最终分类结果,记作Result‑Entropy;输出分类结果。本发明使用超像素修正SFCN的分类结果,可以进一步提高其分类结果。

Description

一种基于超像素和全卷积网络的极化SAR图像分类方法
技术领域
本发明属于图像处理技术领域,主要涉及一种极化SAR图像分类方法,具体说是一种基于超像素和全卷积网络的方法用于极化SAR图像分类,可用于对极化SAR图像的地物分类和目标识别。
背景技术
极化SAR图像分类在遥感领域变得越来越重要。极化SAR可以持续提供包含丰富的极化信息的图像,而且其已经在军用以及民用领域得到了管饭应用。因此,极化SAR图像分类得到了很多相关学者的关注,一系列相关算法被提出用于解决极化SAR图像分类任务。
极化SAR图像分类方法可以分为三类,第一类是基于散射特性的分类方法,此类方法一般是根据极化SAR数据的物理意义,但是此类算法往往需要缜密的分析和推导,不利于此类算法的发展;第二类算法是基于极化SAR数据的统计特性,此类方法一般是基于Wishart分布,然而Wishart算法是比较消耗时间的,而且只根据Wishart分布也不利于得到好的极化SAR图像分类结果;第三类算法是基于机器学习和深度学习算法,深度学习往往比机器学习的性能更加优异,极化SAR图像分类问题从本质上来说就是密集分类问题,最适合用于处理极化SAR图像分类任务的深度学习算法就是全卷积网络,因为全卷积网络的分类架构是端到端、点到点的,然而,在之前的基于全卷积网络的极化SAR分类算法中,并没有使用超像素去修正其分类结果,限制了其分类结果的进一步提高。
发明内容
本发明的目的是针对上述问题,提出了一种基于超像素和全卷积网络的方法用于极化SAR图像分类,得到更为良好的分类结果。
为实现上述目的,本发明的技术方案包含如下步骤:
步骤1,根据滤波后待分类的极化SAR图像,获取极化相干矩阵T和H/A/α分解特征,并将其设置为图像原始特征;
步骤2,将步骤1获取的图像原始特征的每个元素归一化到[0,1];
步骤3,随机选取极化SAR图像的部分有标记样本作为训练样本,剩余有标记样本作为测试集;
步骤4,使用步骤3得到的训练样本训练全卷积网络模型,待模型训练完成后,对整幅极化SAR图像进行分类,并将分类结果记作Result-SFCN;
步骤5,使用超像素算法对整幅极化SAR图像进行分割,得到分割结果;
步骤6,用超像素的分割结果修正Result-SFCN,并将修正后的分类结果标记为Result-SLIC;
步骤7,根据信息熵,得到Result-SFCN中置信度超过设定阈值的分类结果,记作Result-SFCN1;
步骤8,用Result-SFCN1修正Result-SLIC,得到最终的分类结果,记作Result-Entropy,并统计测试集的平均分类正确率、总体分类正确率以及Kappa系数。
其中,步骤1具体包括以下步骤:
1a)提取滤波后待分类的极化SAR图像的极化相干矩阵T,并提取每个像素点的T矩阵的上三角处三个元素的实部以及虚部和T矩阵的对角线上的三个元素作为原始特征的第一部分,标记为F1;
1b)对1a)中得到的极化相干矩阵T进行H/A/α分解,得到3个非负特征值以及熵、平均散射角和各向异性参数,并将其作为原始特征的第二部分,标记为F2;
1c)将1a)与1b)得到的特征合到一起,将其作为图像的原始特征,标记为F。
其中,步骤4具体包括以下步骤:
4a)使用滑窗操作,将整幅极化SAR图像切割为尺寸大小相同的小图,通过滑窗操作得到的图像数目的计算方式如下:
num=(ceil((Height-W)/S)+1)·(ceil((Width-W)/S)+1) <1>
其中,ceil代表向上取整函数,Height和Width分别代表图像的高度和宽度,W和S分别代表滑窗的尺寸和步长,num代表通过滑窗操作获得图像的数目;
4b)将公式<1>中的W和S分别设置为128和64,计算出图像数目num,且全卷积网络模型设有10层,表示为:
输入层—>卷积层—>池化层—>卷积层—>池化层—>卷积层—>上采样层—>上采样层—>上采样层—>上采样分类层,各层的维度分别为:128×128×15、64×64×30、32×32×30、16×16×60、8×8×60、8×8×120、16×16×60、32×32×30、64×64×30、128×128×Numclass,其中Numclass代表类别数目;
4c)用图像数目为num的小图训练全卷积网络模型,模型训练完成后,对于极化SAR图像中有多个小图滑过的区域,对多个小图的分类结果加权求和得到其最终分类结果。
其中,步骤5具体包括以下步骤:
5a)对于像素点数为N的图像,以
Figure BDA0002390970660000021
为采样间隔选取K个聚类中心Ck=[lk,ak,bk,xk,yk],其中,lk,ak,bk代表第k个聚类中心的LAB颜色空间三个通道的值,xk,yk代表第k个聚类中心的横纵坐标值;
5b)根据公式<2>-<4>计算距离,从而确定每个像素点的最近邻聚类中心;
Figure BDA0002390970660000031
Figure BDA0002390970660000032
Figure BDA0002390970660000033
其中,dlab表示颜色空间距离,dxy表示空间距离,DS表示像素空间距离,k代表超像素编号,m是一个超参数;
5c)设置搜索范围为聚类中心的2S×2S邻域,以超像素中每个像素点的均值作为新的聚类中心;
重复执行5b)-5c),直至聚类中心不再改变或者达到最大迭代次数。
其中,步骤6所述的用超像素的分割结果修正Result-SFCN的操作方式为:
隶属于同一超像素块的所有像素点出现次数最多的分类结果赋值给该超像素块中所有像素点的分类结果。
其中,步骤7所述的信息熵表示为:
Figure BDA0002390970660000034
其中,Numclass代表类别的数目,i代表第i个类别,x代表某个样本,p(i)代表将x分类为第i类的概率,h(x)小于预设阈值,其分类结果的置信度较高。
其中,步骤8所述的用Result-SFCN1修正Result-SLIC的具体方法为:
对于SFCN分类置信度超过设定阈值的区域,Result-SLIC中的对应区域的分类结果使用Result-SFCN1中对应区域的分类结果,并将修正后分类结果标记为Result-SFCN。
本发明与现有技术相比具有如下优点:
1、本发明采用T矩阵和H/A/α分解特征作为原始特征,能够显著提高分类结果。
2、本发明采用全卷积网络进行极化SAR图像分类,得益于其端到端、点到点的分类架构,有利于获取良好的分类结果。
3、本发明采用超像素修正全卷积网络得到的分类结果,有助于进一步提升分类结果。
4、本发明使用信息熵获取分类结果中置信度较高的部门,可以进一步提升分类结果。
附图说明
图1是本发明的总流程图;
图2是本发明仿真使用的一幅中国Xi’an渭河地区图像;
图3是使用本发明对图2进行分类的仿真结果图;
图4是本发明仿真使用的一幅德国Oberpfaffenhofen地区图像;
图5是使用本发明对图4进行分类的仿真结果图。
具体实施方式
以下结合附图对本发明的实现步骤和实验结果作详细描述:
参照图1,本发明的实现步骤如下:
步骤1,根据滤波后的待分类极化SAR图像,获取极化相干矩阵T和H/A/α分解特征,并将其设置为图像原始特征。
1a)提取滤波后待分类的极化SAR图像的极化相干矩阵T,并提取每个像素点的T矩阵的上三角处三个元素的实部以及虚部和T矩阵的对角线上的三个元素作为原始特征的第一部分,标记为F1;
1b)对1a)中得到的极化相干矩阵T进行H/A/α分解,得到3个非负特征值以及熵,平均散射角,各向异性参数,并将其作为原始特征的第二部分,标记为F2;
1c)将1a)与1b)得到的特征合到一起,将其作为图像的原始特征,标记为F。
步骤2,将步骤1获取的图像原始特征的每个元素归一化到[0,1]。
步骤3,随机选取极化SAR图像的部分有标记样本作为训练样本,剩余有标记样本作为测试集。
步骤4,使用步骤3得到的训练样本训练全卷积网络模型,待模型训练完成后,对整幅极化SAR图像进行分类,并将分类结果记作Result-SFCN;
4a)使用滑窗操作,将整幅极化SAR图像切割为尺寸大小相同的小图,通过滑窗操作得到的图像数目的计算方式如下:
num=(ceil((Height-W)/S)+1)·(ceil((Width-W)/S)+1) <6>
其中,ceil代表向上取整函数,Height和Width分别代表图像的高度和宽度,W和S分别代表滑窗的尺寸和步长,num代表通过滑窗操作获得图像的数目;
4b)将公式<1>中的W和S分别设置为128和64,计算出图像数目num,且全卷积网络模型设有10层,表示为:
输入层—>卷积层—>池化层—>卷积层—>池化层—>卷积层—>上采样层—>上采样层—>上采样层—>上采样分类层,各层的维度分别为:128×128×15、64×64×30、32×32×30、16×16×60、8×8×60、8×8×120、16×16×60、32×32×30、64×64×30、128×128×Numclass,其中Numclass代表类别数目;
4c)用图像数目为num的小图训练全卷积网络模型,模型训练完成后,对于极化SAR图像中有多个小图滑过的区域,对多个小图的分类结果加权求和得到其最终分类结果。
步骤5,使用超像素算法对整幅极化SAR图像进行分割,得到分割结果,具体操作如下:
5a)对于像素点数为N的图像,以
Figure BDA0002390970660000051
为采样间隔选取K个聚类中心Ck=[lk,ak,bk,xk,yk],其中,lk,ak,bk代表第k个聚类中心的LAB颜色空间三个通道的值,xk,yk代表第k个聚类中心的横纵坐标值;
5b)根据公式<2>-<4>计算距离,从而确定每个像素点的最近邻聚类中心;
Figure BDA0002390970660000052
Figure BDA0002390970660000053
Figure BDA0002390970660000054
其中,dlab表示颜色空间距离,dxy表示空间距离,DS表示像素空间距离,k代表超像素编号,m是一个超参数;
5c)设置搜索范围为聚类中心的2S×2S邻域,以超像素中每个像素点的均值作为新的聚类中心;
重复执行5b)-5c),直至聚类中心不再改变或者达到最大迭代次数。步骤6,用超像素的分割结果修正Result-SFCN,并将修正后的分类结果标记为Result-SLIC,具体操作方式为:隶属于同一超像素块的所有像素点出现次数最多的分类结果赋值给该超像素块中所有像素点的分类结果。
步骤7,根据信息熵,得到Result-SFCN中置信度超过设定阈值的分类结果,记作Result-SFCN1,信息熵可以描述为:
Figure BDA0002390970660000055
其中,Numclass代表类别的数目,i代表第i个类别,x代表某个样本,p(i)代表将x分类为第i类的概率。h(x)小于预设阈值,其分类结果的置信度较高。
步骤8,用Result-SFCN1修正Result-SLIC,得到最终的分类结果,记作Result-Entropy,具体做法为:对于SFCN分类置信度超过设定阈值的区域,Result-SLIC中的对应区域的分类结果使用Result-SFCN1中对应区域的分类结果,并将修正后分类结果标记为Result-SFCN。并统计测试集的平均分类正确率、总体分类正确率以及Kappa系数。
本发明的效果可以通过以下仿真实验进一步说明:
1、实验条件与方法
硬件平台为:Intel(R)Core(TM)i5-9400F CPU@2.90GHZ、32GB RAM;
软件平台为:Tensorflow 1.15;
实验方法:分别为全卷积网络以及本发明方法(SFCN+SLIC和SFCN+SLIC+信息熵)。
2、仿真内容与结果
实验一,将图2所示的中国Xi’an渭河地区图像作为测试图像,用SFCN和本发明方法对图2进行分类仿真,分类结果如图3所示,其中,图3(a)是基于SFCN的分类结果,图3(b)是基于SLIC算法的分割结果,图3(c)是基于SFCN+SLIC的分类结果,图3(d)是基于SFCN+SLIC+信息熵的分类结果。从图3可以看出,经过超像素和信息熵修正全卷积网络的分类结果,分类结果确实得到进一步提高。表1给出了Xi’an渭河地区图像平均分类正确率(AA)、总体分类正确率(OA)以及Kappa系数,可以看到本发明方法确实进一步提升了全卷积网络的分类结果。
表1 Xi’an渭河地区图像分类正确率
方法 Water Grass Building AA OA Kappa
Result-SFCN 0.8470 0.9267 0.9344 0.9027 0.9174 0.8636
Result-SLIC 0.8856 0.9370 0.9350 0.9192 0.9285 0.8821
Result-Entropy 0.8854 0.9373 0.9369 0.9199 0.9294 0.8835
实验二,将图4所示的德国Oberpfaffenhofen地区图像作为测试图像,用SFCN和本发明方法对图4进行分类仿真,分类结果如图5所示,其中,图5(a)是基于SFCN的分类结果,图5(b)是基于SLIC算法的分割结果,图5(c)是基于SFCN+SLIC的分类结果,图5(d)是基于SFCN+SLIC+信息熵的分类结果。从图5可以看出,本发明方法得到了比SFCN更好的分类结果。表2给出了德国Oberpfaffenhofen地区图像的平均分类正确率(AA)、总体分类正确率(OA)以及Kappa系数,从表2可以看到本发明方法确实进一步提升了全卷积网络的分类结果。
表2德国Oberpfaffenhofen地区图像分类正确率
Figure BDA0002390970660000061

Claims (7)

1.一种基于超像素和全卷积网络的极化SAR图像分类方法,其特征在于,包括如下步骤:
步骤1,根据滤波后待分类的极化SAR图像,获取极化相干矩阵T分解特征,标记为F1,获取H/A/α分解特征,标记为F2,将F1和F2合并标记为F,并设置为图像原始特征;
步骤2,将步骤1获取的图像原始特征的每个元素归一化到[0,1];
步骤3,随机选取极化SAR图像的部分有标记样本作为训练样本,剩余有标记样本作为测试集;
步骤4,使用步骤3得到的训练样本训练全卷积网络模型,待模型训练完成后,对整幅极化SAR图像进行分类,并将分类结果记作Result-SFCN;
步骤5,使用超像素算法对整幅极化SAR图像进行分割,得到分割结果;
步骤6,用超像素的分割结果修正Result-SFCN,并将修正后的分类结果标记为Result-SLIC;
步骤7,根据信息熵,得到Result-SFCN中置信度超过设定阈值的分类结果,记作Result-SFCN1;
步骤8,用Result-SFCN1修正Result-SLIC,得到最终的分类结果,记作Result-Entropy,并统计测试集的平均分类正确率、总体分类正确率以及Kappa系数。
2.根据权利要求1所述的一种基于超像素和全卷积网络的极化SAR图像分类方法,其特征在于,步骤1具体包括以下步骤:
1a)提取滤波后待分类的极化SAR图像的极化相干矩阵T,并提取每个像素点的T矩阵的上三角处三个元素的实部以及虚部和T矩阵的对角线上的三个元素作为原始特征的第一部分,标记为F1;
1b)对1a)中得到的极化相干矩阵T进行H/A/α分解,得到3个非负特征值以及熵、平均散射角和各向异性参数,并将其作为原始特征的第二部分,标记为F2;
1c)将1a)与1b)得到的特征合到一起,将其作为图像的原始特征,标记为F。
3.根据权利要求1所述的一种基于超像素和全卷积网络的极化SAR图像分类方法,其特征在于,步骤4具体包括以下步骤:
4a)使用滑窗操作,将整幅极化SAR图像切割为尺寸大小相同的小图,通过滑窗操作得到的图像数目的计算方式如下:
num=(ceil((Height-W)/S)+1)·(ceil((Width-W)/S)+1) <1>
其中,ceil代表向上取整函数,Height和Width分别代表图像的高度和宽度,W和S分别代表滑窗的尺寸和步长,num代表通过滑窗操作获得图像的数目;
4b)将公式<1>中的W和S分别设置为128和64,计算出图像数目num,且全卷积网络模型设有10层,表示为:
输入层—>卷积层—>池化层—>卷积层—>池化层—>卷积层—>上采样层—>上采样层—>上采样层—>上采样分类层,各层的维度分别为:128×128×15、64×64×30、32×32×30、16×16×60、8×8×60、8×8×120、16×16×60、32×32×30、64×64×30、128×128×Numclass,其中Numclass代表类别数目;
4c)用图像数目为num的小图训练全卷积网络模型,模型训练完成后,对于极化SAR图像中有多个小图滑过的区域,对多个小图的分类结果加权求和得到其最终分类结果。
4.根据权利要求1所述的一种基于超像素和全卷积网络的极化SAR图像分类方法,其特征在于,步骤5具体包括以下步骤:
5a)对于像素点数为N的图像,以
Figure FDA0003754728870000021
为采样间隔选取K个聚类中心Ck=[lk,ak,bk,xk,yk],其中,lk,ak,bk代表第k个聚类中心的LAB颜色空间三个通道的值,xk,yk代表第k个聚类中心的横纵坐标值;
5b)根据公式<2>-<4>计算距离,从而确定每个像素点的最近邻聚类中心;
Figure FDA0003754728870000022
Figure FDA0003754728870000023
Figure FDA0003754728870000024
其中,dlab表示颜色空间距离,dxy表示空间距离,DS表示像素空间距离,k代表超像素编号,m是一个超参数;
5c)设置搜索范围为聚类中心的2S×2S邻域,以超像素中每个像素点的均值作为新的聚类中心;
重复执行5b)-5c),直至聚类中心不再改变或者达到最大迭代次数。
5.根据权利要求1所述的一种基于超像素和全卷积网络的极化SAR图像分类方法,其特征在于,步骤6所述的用超像素的分割结果修正Result-SFCN的操作方式为:
隶属于同一超像素块的所有像素点出现次数最多的分类结果赋值给该超像素块中所有像素点的分类结果。
6.根据权利要求1所述的一种基于超像素和全卷积网络的极化SAR图像分类方法,其特征在于,步骤7所述的信息熵表示为:
Figure FDA0003754728870000025
其中,Numclass代表类别的数目,i代表第i个类别,x代表某个样本,p(i)代表将x分类为第i类的概率,h(x)小于预设阈值,其分类结果的置信度较高。
7.根据权利要求1所述的一种基于超像素和全卷积网络的极化SAR图像分类方法,其特征在于,步骤8所述的用Result-SFCN1修正Result-SLIC的具体方法为:
对于SFCN分类置信度超过设定阈值的区域,Result-SLIC中的对应区域的分类结果使用Result-SFCN1中对应区域的分类结果,并将修正后分类结果标记为Result-Entropy。
CN202010114239.7A 2020-02-25 2020-02-25 一种基于超像素和全卷积网络的极化sar图像分类方法 Active CN111339924B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010114239.7A CN111339924B (zh) 2020-02-25 2020-02-25 一种基于超像素和全卷积网络的极化sar图像分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010114239.7A CN111339924B (zh) 2020-02-25 2020-02-25 一种基于超像素和全卷积网络的极化sar图像分类方法

Publications (2)

Publication Number Publication Date
CN111339924A CN111339924A (zh) 2020-06-26
CN111339924B true CN111339924B (zh) 2022-09-02

Family

ID=71183752

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010114239.7A Active CN111339924B (zh) 2020-02-25 2020-02-25 一种基于超像素和全卷积网络的极化sar图像分类方法

Country Status (1)

Country Link
CN (1) CN111339924B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111626380A (zh) * 2020-07-07 2020-09-04 西安邮电大学 一种基于超像素和卷积网络的极化sar图像分类方法
CN112966748B (zh) * 2021-03-09 2022-06-10 中国电子科技集团公司第五十四研究所 基于边缘感知双分支fcn的极化sar图像分类方法
CN112966749B (zh) * 2021-03-09 2023-08-11 中国电子科技集团公司第五十四研究所 基于半监督滑窗全卷积网络的极化sar图像分类方法
CN112949776A (zh) * 2021-04-16 2021-06-11 中国电子科技集团公司第五十四研究所 一种极化sar图像分类方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103914704A (zh) * 2014-03-04 2014-07-09 西安电子科技大学 一种基于半监督SVM和MeanShift的极化SAR图像分类方法
CN106778884A (zh) * 2016-12-23 2017-05-31 辽宁工程技术大学 基于散射熵和三分量分解平面的极化sar图像分类方法
CN107784655A (zh) * 2016-12-28 2018-03-09 中国测绘科学研究院 一种自适应阈值的视觉注意模型sar舰船检测算法
CN108564006A (zh) * 2018-03-26 2018-09-21 西安电子科技大学 基于自步学习卷积神经网络的极化sar地物分类方法
CN108846426A (zh) * 2018-05-30 2018-11-20 西安电子科技大学 基于深度双向lstm孪生网络的极化sar分类方法
CN109685838A (zh) * 2018-12-10 2019-04-26 上海航天控制技术研究所 基于超像素分割的图像弹性配准方法
CN109829423A (zh) * 2019-01-18 2019-05-31 电子科技大学 一种结冰湖泊红外成像检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9069571B2 (en) * 2010-12-01 2015-06-30 International Business Machines Corporation Propagation of unique device names in a cluster system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103914704A (zh) * 2014-03-04 2014-07-09 西安电子科技大学 一种基于半监督SVM和MeanShift的极化SAR图像分类方法
CN106778884A (zh) * 2016-12-23 2017-05-31 辽宁工程技术大学 基于散射熵和三分量分解平面的极化sar图像分类方法
CN107784655A (zh) * 2016-12-28 2018-03-09 中国测绘科学研究院 一种自适应阈值的视觉注意模型sar舰船检测算法
CN108564006A (zh) * 2018-03-26 2018-09-21 西安电子科技大学 基于自步学习卷积神经网络的极化sar地物分类方法
CN108846426A (zh) * 2018-05-30 2018-11-20 西安电子科技大学 基于深度双向lstm孪生网络的极化sar分类方法
CN109685838A (zh) * 2018-12-10 2019-04-26 上海航天控制技术研究所 基于超像素分割的图像弹性配准方法
CN109829423A (zh) * 2019-01-18 2019-05-31 电子科技大学 一种结冰湖泊红外成像检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于相似度网络融合的极化SAR图像地物分类;张月等;《系统工程与电子技术》;20180228;第40卷(第2期);第295-302页 *

Also Published As

Publication number Publication date
CN111339924A (zh) 2020-06-26

Similar Documents

Publication Publication Date Title
CN111339924B (zh) 一种基于超像素和全卷积网络的极化sar图像分类方法
CN110399909B (zh) 一种基于标签约束弹性网图模型的高光谱图像分类方法
CN110322453B (zh) 基于位置注意力和辅助网络的3d点云语义分割方法
CN109325550B (zh) 基于图像熵的无参考图像质量评价方法
CN102663400B (zh) 一种结合预处理的lbp特征提取方法
CN110751612A (zh) 多通道多尺度卷积神经网络的单幅图像去雨方法
CN111583279A (zh) 一种基于pcba的超像素图像分割方法
CN113011329A (zh) 一种基于多尺度特征金字塔网络及密集人群计数方法
CN111582111A (zh) 一种基于语义分割的细胞各成分分割方法
CN112085126B (zh) 一种侧重于分类任务的单样本目标检测方法
CN111709305B (zh) 一种基于局部图像块的人脸年龄识别方法
CN112329784A (zh) 一种基于时空感知及多峰响应的相关滤波跟踪方法
CN111160107B (zh) 一种基于特征匹配的动态区域检测方法
CN110188864B (zh) 基于分布表示和分布度量的小样本学习方法
CN109543546B (zh) 基于深度序分布回归的步态年龄估计方法
CN113033345B (zh) 基于公共特征子空间的v2v视频人脸识别方法
CN108090914B (zh) 基于统计建模与像素分类的彩色图像分割方法
CN113505856A (zh) 一种高光谱影像无监督自适应分类方法
CN111325158B (zh) 一种基于cnn和rfc的集成学习的极化sar图像分类方法
CN111127407B (zh) 一种基于傅里叶变换的风格迁移伪造图像检测装置及方法
CN106022310B (zh) 基于htg-hog和stg特征的人体行为识别方法
CN109977892B (zh) 基于局部显著性特征和cnn-svm的舰船检测方法
CN111539966A (zh) 一种基于模糊c均值聚类的比色传感器阵列图像分割方法
CN109190451B (zh) 基于lfp特征的遥感图像车辆检测方法
CN116703932A (zh) 一种基于卷积注意力机制的CBAM-HRNet模型小麦穗粒分割与计数方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant