CN108509835A - 基于DFIC超像素的PolSAR图像地物分类方法 - Google Patents
基于DFIC超像素的PolSAR图像地物分类方法 Download PDFInfo
- Publication number
- CN108509835A CN108509835A CN201810073220.5A CN201810073220A CN108509835A CN 108509835 A CN108509835 A CN 108509835A CN 201810073220 A CN201810073220 A CN 201810073220A CN 108509835 A CN108509835 A CN 108509835A
- Authority
- CN
- China
- Prior art keywords
- pixel
- super
- value
- synthetic aperture
- aperture radar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Astronomy & Astrophysics (AREA)
- Remote Sensing (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明公开了一种基于DFIC超像素的PolSAR图像地物分类方法。本发明的实现步骤为:(1)输入极化合成孔径雷达PolSAR图像;(2)对PolSAR图像进行克劳德目标分解;(3)初始化超像素信息;(4)计算像素点之间的特征距离;(5)更新超像素;(6)构建卷积神经网络;(7)对PolSAR图像进行分类;(8)用分解特征迭代聚类DFIC超像素优化分类结果。本发明相比现有技术的超像素分割方法具有分割边界准确,超像素内部紧促的优点,相对于现有技术的单像素分类方法,具有分类精度高,不受噪点影响的优点。本发明可用于极化合成孔径雷达PolSAR图像的分类。
Description
技术领域
本发明属于图像处理技术领域,更进一步涉及图像分类技术领域中的一种基于分解特征迭代聚类DFIC(Decomposition Feature Iterative Clustering)超像素的极化合成孔径雷达PolSAR(Polarimetric Synthetic Aperture Radar)图像地物分类方法。本发明可用于对极化合成孔径雷达PolSAR所获得的图像中地物目标进行分类。
背景技术
极化合成孔径雷达PolSAR由于具有全天候、全时段,不受天气影响等优势,已经成为了遥感领域研究的热点之一。所以越来越多的专家学者致力于极化合成孔径雷达PolSAR图像的研究。其中,极化合成孔径雷达PolSAR图像的地物分类是其中很重要的一个方向,它可以应用到农业、军事、海洋、城市规划等方面。但是由于极化合成孔径雷达PolSAR图像是通过捕捉雷达的反射信号而形成的,这就导致了极化合成孔径雷达PolSAR图像中包含了大量的相干斑噪声,这给后续的分类任务带来了巨大挑战。现有的极化合成孔径雷达PolSAR图像分类方法从是否利用区域信息可分为基于单像素的分类方法和基于区域信息的分类方法。
Chen.Q等人在其发表的论文“Unsupervised land cover/land useclassification using PolSAR imagery based on scattering similarity”(IEEETransactions on Geoscience and Remote Sensing,2013,51(3):1817-1825)中提出了一种基于极化散射相似性的极化合成孔径雷达PolSAR图像地物分类方法。该方法首先按照极化散射相似性来度量像素之间的距离,然后判断像素点之间的距离,距离小的相似性大的像素属于同一类,距离大的相似性小的像素属于不同类,对图像中的所有像素进行分类。虽然,由于该方法利用了像素点之间的极化散射相似性取得了不错的效果,但是,该方法仍然存在的不足之处是,在斑点噪声较多的极化合成孔径雷达PolSAR图像中,不能很好地克服斑点噪声对地物分类带来的影响。
西安电子科技大学在其申请的专利文献“基于SLIC和改进的CNN的极化SAR图像分类方法”(专利申请号:201611054919.4,申请日:2016.11.25,申请公布号:CN 106778821A)中提出了一种基于超像素的极化合成孔径雷达PolSAR图像分类方法。该方法先用SLIC超像素对极化合成孔径雷达PolSAR图像的伪彩图进行分割,然后用卷积神经网络CNN(convolutional neural network)对极化合成孔径雷达PolSAR图像进行分类。该方法存在的不足之处是,由于该方法使用伪彩图进行超像素的分割,没能利用到图像的散射特性所以导致了在复杂的区域的超像素分割效果较差,进而使得分类效果变差。
Hou.B等人在其发表的论文“Classification of Polarimetric SAR ImagesUsing Multilayer Autoencoders and Superpixels”(IEEE Journal of SelectedTopics in Applied Earth Observations&Remote Sensing,2017,9(7):3072-3081)中提出了一种应用超像素和多层自编码器的极化合成孔径雷达PolSAR图像分类方法。该方法先用传统的针对自然图像的超像素方法对极化合成孔径雷达PolSAR图像进行超像素分割,然后运用分割的信息再进行地物分类。该方法仍然存在的不足之处是,该方法在生成超像素时,没有利用极化合成孔径雷达PolSAR图像的分解特征,使得在超像素分割时产生的超像素分割线不准确。
发明内容
本发明的目的在于克服上述已有技术的不足,提出一种基于分解特征迭代聚类DFIC超像素的极化合成孔径雷达PolSAR图像地物分类方法。首先采用克劳德分解方法对极化合成孔径雷达PolSAR图像进行分解,然后用分解所得的特征结合位置信息迭代聚类产生超像素,接着把分解的特征输入分类网络进行分类,最后利用超像素的信息对分类的结果进行优化。有效地提升了极化合成孔径雷达PolSAR图像的分类精度。
本发明包括如下步骤:
(1)输入一幅待分类的极化合成孔径雷达PolSAR图像;
(2)进行克劳德目标分解:
对极化合成孔径雷达PolSAR图像进行克劳德目标分解,得到7个特征;
(3)初始化超像素:
(3a)利用近似尺度值公式,计算每个待生成的超像素的近似尺度值;
(3b)在极化合成孔径雷达PolSAR图像中,以超像素的近似尺度值为间隔设置每个超像素的种子点;
(3c)计算每个种子点与其周围3×3像素邻域内,每个点与该种子点的欧式距离的梯度,选择最小梯度的像素点作为新的种子点,种子点就是超像素的中心;
(4)按照下式,计算每个像素点与其搜索范围2S×2S内每一个超像素中心点的特征距离:
其中,Di,j表示第i个像素点与其搜索范围2S×2S内的第j个超像素中心点之间的特征距离,Li,j表示第i个像素和第j个超像素中心点之间的拉姆达特征距离,Bi,j表示第i个像素和第j个超像素中心点之间的贝塔特征距离,Gi,j表示第i个像素和第j个超像素中心点之间的伽马特征距离,Ai,j表示第i个像素和第j个超像素中心点之间的阿尔法特征距离,Ei,j表示第i个像素和第j个超像素中心点之间的极化熵特征距离,Ci,j表示第i个像素和第j个超像素中心点之间的德尔塔特征距离,Hi,j表示第i个像素和第j个超像素中心点之间的各项异度特征距离,特征归一化常数F为200,特征距离与欧式距离之间的权重系数λ是1;xi和xj分别表示第i个像素和第j个像素的横坐标值,yi和yj分别表示第i个像素和第j个像素的纵坐标值;
(5)更新超像素值:
(5a)从每一个像素点与其搜索范围2S×2S内每一个超像素中心点的特征距离中找出最小特征距离所对应的超像素中心,将每一个像素点归为该超像素中心所对应的超像素;
(5b)将每一个超像素内所有像素点的横坐标值求和后除以像素点的总数结果,作为超像素的中心横坐标值,将所有像素点的纵坐标值求和后除以像素点的总数结果,作为超像素的中心纵坐标值;
(5c)判断每个超像素的中心坐标值与上一次迭代的超像素中心坐标值之差的绝对值是否大于0.1,若是,则执行步骤(5a),否则,执行步骤(5e);
(5e)利用增强连通性的方法,消除超像素中的非连通性区域;
(6)构建卷积神经网络:
构建一个包含两个卷积层,两个池化层,一个全连接层的卷积神经网络,该卷积神经网络的第一层为一个5×5×32个节点的卷积层,第二层为一个2×2节点的最大值池化层,第三层为一个3×3×64节点的卷积层,第四层为一个2×2节点的最大值池化层,第五层为一个576节点的全连接层;
(7)对极化合成孔径雷达PolSAR图像进行分类:
(7a)从极化合成孔径雷达PolSAR图像中,随机选取10%的像素点作为训练数据;
(7b)将训练数据输入卷积神经网络进行训练;
(7c)将极化合成孔径雷达PolSAR图像中的所有像素点,输入到训练好的卷积神经网络中,得到分类结果;
(8)用超像素信息优化分类结果:
(8a)统计每一个超像素内每一种地物类型的像素点数目所占超像素内所有像素点数目的百分比,从百分比中找到最大值以及最大值所对应的地物类型;
(8b)将每一个超像素中百分比大于0.4所对应的地物类型,作为该超像素内所有像素点的地物类型。
本发明与现有的技术相比具有以下优点:
第一,由于本发明在超像素分割时,采用了极化合成孔径雷达PolSAR图像的分解特征作为距离度量,克服了现有技术在超像素分割时,产生的超像素分割线不准确的问题,使得本发明在匀质和非匀质区域的分割效果得到了改善,提高了分割线清晰准确度。
第二,本发明使用超像素分割结果对分类的结果进行优化,克服了现有技术分类方法难以消除斑点噪声对地物分类带来的影响,使得优化后的分类结果中的噪点减少,与单像素的分类结果相比,本发明的分类结果在每一类地物类型的分类正确率上都有大的提升。
附图说明
图1是本发明的流程图;
图2是本发明和现有技术在测试图像上的超像素分割仿真示意图;
图3是本发明和现有技术在测试图像上的分类仿真示意图。
具体实施方式
下面结合附图对本发明做进一步的详细描述。
参照附图1对本发明的实现步骤做进一步的详细描述。
步骤1.输入一幅待分类的极化合成孔径雷达PolSAR图像。
步骤2.进行克劳德目标分解。
对极化合成孔径雷达PolSAR图像进行克劳德目标分解,得到7个特征。所述克劳德目标分解的步骤如下:
对极化合成孔径雷达PolSAR图像进行精细化Lee滤波。
选择一个7×7个像素点的分解窗口,对精细化Lee滤波后的图像进行分解,从分解后的特征图中选择包含了原始极化合成孔径雷达PolSAR图像的所有信息的7个特征:熵,各项异性,反射角:阿尔法,贝塔,伽马,德尔塔,拉姆达。
步骤3.初始化超像素。
利用近似尺度值公式,计算每个待生成的超像素的近似尺度值。近似尺度值公式如下:
其中,Sn表示第n个待生成的超像素的近似尺度值,表示开根号操作,M表示待分类的极化合成孔径雷达PolSAR图像的像素点总数,K表示待生成超像素的总数。
在极化合成孔径雷达PolSAR图像中,以超像素的近似尺度值为间隔设置每个超像素的种子点。
计算每个种子点与其周围3×3像素邻域内,每个点与该种子点的欧式距离的梯度,选择最小梯度的像素点作为新的种子点,种子点就是超像素的中心。
步骤4.计算特征距离。
按照下式,计算每个像素点与其搜索范围2S×2S内每一个超像素中心点的特征距离:
其中,Di,j表示第i个像素点与其搜索范围2S×2S内的第j个超像素中心点之间的特征距离,Li,j表示第i个像素和第j个超像素中心点之间的拉姆达特征距离,Bi,j表示第i个像素和第j个超像素中心点之间的贝塔特征距离,Gi,j表示第i个像素和第j个超像素中心点之间的伽马特征距离,Ai,j表示第i个像素和第j个超像素中心点之间的阿尔法特征距离,Ei,j表示第i个像素和第j个超像素中心点之间的极化熵特征距离,Ci,j表示第i个像素和第j个超像素中心点之间的德尔塔特征距离,Hi,j表示第i个像素和第j个超像素中心点之间的各项异度特征距离,特征归一化常数F为200,特征距离与欧式距离之间的权重系数λ是1;xi和xj分别表示第i个像素和第j个像素的横坐标值,yi和yj分别表示第i个像素和第j个像素的纵坐标值。
步骤5.更新超像素值。
从每一个像素点与其搜索范围2S×2S内每一个超像素中心点的特征距离中找出最小特征距离所对应的超像素中心,将每一个像素点归为该超像素中心所对应的超像素。
将每一个超像素内所有像素点的横坐标值求和后除以像素点的总数结果,作为超像素的中心横坐标值,将所有像素点的纵坐标值求和后除以像素点的总数结果,作为超像素的中心纵坐标值。
判断每个超像素的中心坐标值与上一次迭代的超像素中心坐标值之差的绝对值是否大于0.1,若是,则重新计算特征距离,否则,进行下一步操作。
利用增强连通性的方法,消除超像素中的非连通性区域。
步骤6.构建卷积神经网络。
构建一个包含两个卷积层,两个池化层,一个全连接层的卷积神经网络,该卷积神经网络的第一层为一个5×5×32个节点的卷积层,第二层为一个2×2节点的最大值池化层,第三层为一个3×3×64节点的卷积层,第四层为一个2×2节点的最大值池化层,第五层为一个576节点的全连接层。
步骤7.对极化合成孔径雷达PolSAR图像进行分类。
从极化合成孔径雷达PolSAR图像中,随机选取10%的像素点作为训练数据。
将训练数据输入卷积神经网络进行训练。
将极化合成孔径雷达PolSAR图像中的所有像素点,输入到训练好的卷积神经网络中,得到分类结果。
步骤8.用超像素信息优化分类结果。
统计每一个超像素内每一种地物类型的像素点数目所占超像素内所有像素点数目的百分比,从百分比中找到最大值以及最大值所对应的地物类型。
将每一个超像素中百分比大于0.4所对应的地物类型,作为该超像素内所有像素点的地物类型。
下面结合仿真实验对本发明的效果做进一步说明。
1、仿真条件:
本发明的仿真是在主频3.3GHZ的Intel(R)Core(TM)i5-4590CPU、内存8GB的硬件环境和python(2.7)的软件环境下进行的。
2、仿真内容:
本发明的超像素分割仿真实验是采用本发明的超像素分割方法和现有技术的Turbo和简单线性迭代聚类SLIC超像素方法,分别在AIRSAR极化合成孔径雷达PolSAR上,Flevoland地区测试图像上进行分割,其结果如图2所示。
图2(a)为本发明超像素分割仿真实验中使用的待分割的PauliRGB图,大小为750×1024个像素。图2(b)为用现有技术的Turbo分割方法,对图2(a)待分割图像的分割结果图,图2(c)为用现有技术的简单线性迭代聚类SLIC分割方法,对图2(a)待分割图像的分割结果图,图2(d)为本发明的分割方法对图2(a)待分割图像的分割结果图。
本发明的分类仿真实验是采用本发明的分类方法和现有技术的单像素分类方法,分别在Randsat2极化合成孔径雷达PolSAR上,Lelystad地区测试图像上进行分类,其结果如图3所示。
图3(a)为本发明分类仿真试验中使用的待分类的PauliRGB图,大小为1500×1500个像素,图3中包含四类地物类型:森林、农田、城市和水域。图3(b)为真实的地物类型参考图,图3(c)为现有的单像素分类方法,对图3(a)待分类图像的分类结果图,图3(d)为本发明的分类方法,对图3(a)待分类图像的分类结果图。
3、仿真结果分析:
图2(b)为采用现有技术的Turbo分割方法,对图2(a)测试图像的分割仿真结果图。由图2(b)的仿真结果可以看到,分割边界保持不好,特别是在复杂区域,分割线蜿蜒曲折,超像素的紧促度也比较差。图2(c)为采用现有技术的简单线性迭代聚类SLIC分类方法,对图2(a)测试图像的分割仿真结果图。由图2(c)的仿真结果可以看到,在非匀质区域的超像素分割线出现大量扭曲。图2(d)为采用本发明对图2(a)测试图像的分割仿真结果图,由图2(c)的仿真结果可以看到,本发明产生的超像素紧促、分割边界保持良好并且在复杂区域的分割线更为平滑。
图3(c)为采用单像素分类方法,对3(a)测试图像的分类仿真结果图。由图3(c)的仿真结果可以看到,单像素方法的分类结果所包含的小的错分区域很多。图3(d)为采用本发明对图3(a)测试图像的分类仿真结果图。由图3(d)可以看到,本发明的分类结果在匀质区域和复杂区域的效果都得到了提升,并且分类图中小的错分区域明显减少。
表1为单像素分类算法和本发明的分类方法在Randsat2极化合成孔径雷达PolSAR上,Lelystad地区测试图像上的四种地物类型分类指标一览表。
表1本发明和现有单像素分类方法在测试图中的地物分类指标一览表
森林(%) | 农田(%) | 城市(%) | 水域(%) | OA(%) | AA(%) | |
单像素方法 | 88.0 | 87.0 | 78.1 | 99.0 | 91.0 | 88.1 |
本发明方法 | 92.1 | 91.7 | 80.6 | 99.3 | 93.9 | 90.9 |
表1中的森林、农田、城市和水域四种地物类型的百分比是用于表示分类正确率,该分类正确率是由本发明方法和现有的单像素分类方法对仿真图像正确分类的像素点数目除以每一类地物类型像素点的总数目得到的。表1中的OA是由所有正确分类的像素点数目除以极化合成孔径雷达PolSAR图像中像素点的总数,得到的整体正确率。表1中的AA是四种地物类型正确率之和除以4,表示每一类的平均正确率。由表1可以看出,本发明的各项分类指标均传统单像素的各项分类指标都有所提升。
Claims (3)
1.一种基于DFIC超像素的PolSAR图像地物分类方法,其特征在于,包括如下步骤:
(1)输入一幅待分类的极化合成孔径雷达PolSAR图像;
(2)进行克劳德目标分解:
对极化合成孔径雷达PolSAR图像进行克劳德目标分解,得到7个特征;
(3)初始化超像素:
(3a)利用近似尺度值公式,计算每个待生成的超像素的近似尺度值;
(3b)在极化合成孔径雷达PolSAR图像中,以超像素的近似尺度值为间隔设置每个超像素的种子点;
(3c)计算每个种子点与其周围3×3像素邻域内,每个点与该种子点的欧式距离的梯度,选择最小梯度的像素点作为新的种子点,种子点就是超像素的中心;
(4)按照下式,计算每个像素点与其搜索范围2S×2S内每一个超像素中心点的特征距离:
其中,Di,j表示第i个像素点与其搜索范围2S×2S内的第j个超像素中心点之间的特征距离,Li,j表示第i个像素和第j个超像素中心点之间的拉姆达特征距离,Bi,j表示第i个像素和第j个超像素中心点之间的贝塔特征距离,Gi,j表示第i个像素和第j个超像素中心点之间的伽马特征距离,Ai,j表示第i个像素和第j个超像素中心点之间的阿尔法特征距离,Ei,j表示第i个像素和第j个超像素中心点之间的极化熵特征距离,Ci,j表示第i个像素和第j个超像素中心点之间的德尔塔特征距离,Hi,j表示第i个像素和第j个超像素中心点之间的各项异度特征距离,特征归一化常数F为200,特征距离与欧式距离之间的权重系数λ是1;xi和xj分别表示第i个像素和第j个像素的横坐标值,yi和yj分别表示第i个像素和第j个像素的纵坐标值;
(5)更新超像素值:
(5a)从每一个像素点与其搜索范围2S×2S内每一个超像素中心点的特征距离中找出最小特征距离所对应的超像素中心,将每一个像素点归为该超像素中心所对应的超像素;
(5b)将每一个超像素内所有像素点的横坐标值求和后除以像素点的总数结果,作为超像素的中心横坐标值,将所有像素点的纵坐标值求和后除以像素点的总数结果,作为超像素的中心纵坐标值;
(5c)判断每个超像素的中心坐标值与上一次迭代的超像素中心坐标值之差的绝对值是否大于0.1,若是,则执行步骤(5a),否则,执行步骤(5e);
(5e)利用增强连通性的方法,消除超像素中的非连通性区域;
(6)构建卷积神经网络:
构建一个包含两个卷积层,两个池化层,一个全连接层的卷积神经网络,该卷积神经网络的第一层为一个5×5×32个节点的卷积层,第二层为一个2×2节点的最大值池化层,第三层为一个3×3×64节点的卷积层,第四层为一个2×2节点的最大值池化层,第五层为一个576节点的全连接层;
(7)对极化合成孔径雷达PolSAR图像进行分类:
(7a)从极化合成孔径雷达PolSAR图像中,随机选取10%的像素点作为训练数据;
(7b)将训练数据输入卷积神经网络进行训练;
(7c)将极化合成孔径雷达PolSAR图像中的所有像素点,输入到训练好的卷积神经网络中,得到分类结果;
(8)用超像素信息优化分类结果:
(8a)统计每一个超像素内每一种地物类型的像素点数目所占超像素内所有像素点数目的百分比,从百分比中找到最大值以及最大值所对应的地物类型;
(8b)将每一个超像素中百分比大于0.4所对应的地物类型,作为该超像素内所有像素点的地物类型。
2.根据权利要求1所述的基于DFIC超像素的PolSAR图像地物分类方法,其特征在于:步骤(2)中所述克劳德目标分解的步骤如下:
第一步,对极化合成孔径雷达PolSAR图像进行精细化Lee滤波;
第二步,选择一个7×7个像素点的分解窗口,对精细化Lee滤波后的图像进行分解,从分解后的特征图中选择包含了原始极化合成孔径雷达PolSAR图像的所有信息的7个特征:熵,各项异性,反射角:阿尔法,贝塔,伽马,德尔塔,拉姆达。
3.根据权利要求1所述的基于DFIC超像素的PolSAR图像地物分类方法,其特征在于:步骤(3a)中所述计算近似尺度值公式如下:
其中,Sn表示第n个待生成的超像素的近似尺度值,表示开根号操作,M表示待分类的极化合成孔径雷达PolSAR图像的像素点总数,K表示待生成超像素的总数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810073220.5A CN108509835B (zh) | 2018-01-25 | 2018-01-25 | 基于DFIC超像素的PolSAR图像地物分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810073220.5A CN108509835B (zh) | 2018-01-25 | 2018-01-25 | 基于DFIC超像素的PolSAR图像地物分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108509835A true CN108509835A (zh) | 2018-09-07 |
CN108509835B CN108509835B (zh) | 2020-04-07 |
Family
ID=63375487
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810073220.5A Active CN108509835B (zh) | 2018-01-25 | 2018-01-25 | 基于DFIC超像素的PolSAR图像地物分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108509835B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109360190A (zh) * | 2018-09-21 | 2019-02-19 | 清华大学 | 基于图像超像素融合的建筑损毁检测方法及装置 |
CN110443227A (zh) * | 2019-08-19 | 2019-11-12 | 重庆大学 | 一种基于学习超像素和qcnn的极化sar地物识别方法 |
CN113516657A (zh) * | 2021-09-14 | 2021-10-19 | 中国石油大学(华东) | 一种基于自适应权重的全极化sar影像海面溢油检测方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7734097B1 (en) * | 2006-08-01 | 2010-06-08 | Mitsubishi Electric Research Laboratories, Inc. | Detecting objects in images with covariance matrices |
CN105138970A (zh) * | 2015-08-03 | 2015-12-09 | 西安电子科技大学 | 基于空间信息的极化sar图像分类方法 |
CN106778821A (zh) * | 2016-11-25 | 2017-05-31 | 西安电子科技大学 | 基于slic和改进的cnn的极化sar图像分类方法 |
-
2018
- 2018-01-25 CN CN201810073220.5A patent/CN108509835B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7734097B1 (en) * | 2006-08-01 | 2010-06-08 | Mitsubishi Electric Research Laboratories, Inc. | Detecting objects in images with covariance matrices |
CN105138970A (zh) * | 2015-08-03 | 2015-12-09 | 西安电子科技大学 | 基于空间信息的极化sar图像分类方法 |
CN106778821A (zh) * | 2016-11-25 | 2017-05-31 | 西安电子科技大学 | 基于slic和改进的cnn的极化sar图像分类方法 |
Non-Patent Citations (2)
Title |
---|
A. FREEMAN等: "Gradient-based learning applied to document recognition", 《IEEE TRANS. GEOSCI. REMOTE SENS.》 * |
RADHAKRISHNA ACHANTA等: "SLIC Superpixels Compared to State-of-the-Art Superpixel Methods", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109360190A (zh) * | 2018-09-21 | 2019-02-19 | 清华大学 | 基于图像超像素融合的建筑损毁检测方法及装置 |
CN109360190B (zh) * | 2018-09-21 | 2020-10-16 | 清华大学 | 基于图像超像素融合的建筑损毁检测方法及装置 |
CN110443227A (zh) * | 2019-08-19 | 2019-11-12 | 重庆大学 | 一种基于学习超像素和qcnn的极化sar地物识别方法 |
CN113516657A (zh) * | 2021-09-14 | 2021-10-19 | 中国石油大学(华东) | 一种基于自适应权重的全极化sar影像海面溢油检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108509835B (zh) | 2020-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108038476B (zh) | 一种基于边缘检测与sift的人脸表情识别特征提取方法 | |
CN104915676B (zh) | 基于深层特征学习和分水岭的sar图像分类方法 | |
CN102982338B (zh) | 基于谱聚类的极化sar图像分类方法 | |
Lavreniuk et al. | Large-scale classification of land cover using retrospective satellite data | |
CN105138970B (zh) | 基于空间信息的极化sar图像分类方法 | |
CN109711446A (zh) | 一种基于多光谱影像和sar影像的地物分类方法及装置 | |
CN108537192A (zh) | 一种基于全卷积网络的遥感影像地表覆盖分类方法 | |
CN108846426A (zh) | 基于深度双向lstm孪生网络的极化sar分类方法 | |
CN103955701B (zh) | 多层次结合的多视合成孔径雷达图像目标识别方法 | |
CN106503739A (zh) | 联合光谱和纹理特征的高光谱遥感影像svm分类方法及系统 | |
CN104751185B (zh) | 基于均值漂移遗传聚类的sar图像变化检测方法 | |
CN105005789B (zh) | 一种基于视觉词汇的遥感图像地物分类方法 | |
CN110163213A (zh) | 基于视差图和多尺度深度网络模型的遥感图像分割方法 | |
CN104239901B (zh) | 基于模糊粒子群和目标分解的极化sar图像分类方法 | |
Chawan et al. | Automatic detection of flood using remote sensing images | |
CN106600595A (zh) | 一种基于人工智能算法的人体特征尺寸自动测量方法 | |
CN107292336A (zh) | 一种基于dcgan的极化sar图像分类方法 | |
CN107491734A (zh) | 基于多核融合与空间Wishart LapSVM的半监督极化SAR图像分类方法 | |
CN103246894B (zh) | 一种解决光照不敏感问题的地基云图识别方法 | |
CN109344812A (zh) | 一种改进的基于聚类的单光子点云数据去噪方法 | |
CN108734228A (zh) | 综合多特征的极化sar图像随机森林分类方法 | |
CN108509835A (zh) | 基于DFIC超像素的PolSAR图像地物分类方法 | |
Duarte-Carvajalino et al. | Multiscale representation and segmentation of hyperspectral imagery using geometric partial differential equations and algebraic multigrid methods | |
Sasmal et al. | A survey on the utilization of Superpixel image for clustering based image segmentation | |
CN107392863A (zh) | 基于亲和矩阵融合谱聚类方法的sar图像变化检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |