CN107909109B - 基于显著性和多尺度深度网络模型的sar图像分类方法 - Google Patents
基于显著性和多尺度深度网络模型的sar图像分类方法 Download PDFInfo
- Publication number
- CN107909109B CN107909109B CN201711143858.3A CN201711143858A CN107909109B CN 107909109 B CN107909109 B CN 107909109B CN 201711143858 A CN201711143858 A CN 201711143858A CN 107909109 B CN107909109 B CN 107909109B
- Authority
- CN
- China
- Prior art keywords
- target
- network model
- training
- conspicuousness
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/188—Vegetation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
一种基于显著性和多尺度深度网络模型的SAR图像分类方法。其步骤为:读入数据集;获得训练场景图和显著特征图;生成显著性检测训练数据集;生成目标分类训练样本集;构建显著性网络模型;训练显著性网络模型;构建多尺度深度网络模型;构建曲线波Curvelet重构层;生成目标分类网络模型;训练目标分类网络模型;获得显著特征图;对显著特征图进行形态学处理;提取检测切片;对检测切片进行分类;对分类结果进行投票;标记检测与分类结果图。本发明提高了分类准确率和分类速度,本发明可应用于对合成孔径雷达SAR图像的目标准确地进行分类、识别。
Description
技术领域
本发明属于图像处理技术领域,更进一步涉及雷达图像分类技术领域中的一种基于显著性和多尺度深度网络模型的SAR图像分类方法。本发明是一种结合多尺度深度和显著性网络模型的合成孔径雷达SAR(Synthetic Aperture Radar)图像分类方法。本发明可应用于对合成孔径雷达SAR图像的目标准确地进行分类、识别。
背景技术
合成孔径雷达SAR图像分类是通过对SAR数据的分析,划分出感兴趣的目标或区域的过程。合成孔径雷达SAR图像分类是遥感图像分类的主要组成部分,随着雷达技术的发展,利用合成孔径雷达SAR图像分类的研究日益受到人们的重视。合成孔径雷达SAR图像分类技术在地质勘探、森林状态监控、海冰分布监视以及农作物生长状况评估等多个领域得到广泛的应用。
由于雷达图像在成像过程中不可避免地会产生相干斑,从分类的角度看,相干斑可被认为是噪声,而基于像素的分类方法对噪声的敏感度很高,所以合成孔径雷达SAR图像的分类方法经常是基于目标或对象的区域处理方式。例如:
Jinxin Li等人在其发表的论文“Classification of very high resolutionSAR image based on convolutional neural network”(2017International Workshopon Remote Sensing with Intelligent Processing(RSIP))中提出了一种基于卷积神经网络的SAR图像分类方法。该方法先利用卷积神经网络滑窗式提取SAR图像的局部特征,再利用softmax分类器对每一个目标进行分类,从而有效地提高了分类的精度,但是该方法仍然存在的不足之处是,该方法使用了传统的卷积神经网络自动学习图像特征,没有利用到SAR图像的特性和多尺度信息,分类精度较低。此外,该方法使用滑窗选取局部目标,计算量大。
西安电子科技大学在其申请的专利文献“基于稠密SAR-SIFT和稀疏编码的SAR分类方法”(专利申请号:2016102178991,公开号:CN105913083A)中提出一种基于稠密SAR-SIFT和稀疏编码的SAR分类方法。该方法首先利用稠密SAR-SIFT提取图像的局部特征,然后对图像的特征编码进行空域最大值池化,得到图像的特征向量,最后采用快速稀疏SVM分类器对特征向量进行分类。该方法存在的不足之处是,该方法使用了稀疏编码技术,需要大量的计算且分类精度较低。
发明内容
本发明的目的在于克服上述现有技术的不足,提出一种基于显著性和多尺度深度网络模型的SAR图像分类方法。本发明相比基于人工特征提取或传统卷积神经网络的方法提高了对SAR图像信息的利用效率,充分利用了SAR图像本身的特性和SAR图像的多尺度信息,提高了SAR图像目标分类的精度。
本发明实现上述目的的思路是:首先通过显著性模型,得到目标可能存在的区域,然后通过形态学处理对目标可能存在的区域进行鉴别,确定目标的存在,最后利用Curvelet重构层和多尺度深度网络模型对目标进行分类,得到最终的分类结果。
本发明的步骤包括如下:
(1)读入数据集:
读入由20幅场景图和1200幅目标切片组成的合成孔径雷达SAR数据集;其中,每幅目标切片的大小为128*128个像素;
(2)获得训练场景图和显著特征图:
(2a)从1200幅目标切片图中随机选取15个目标切片,组成一个目标切片组;
(2b)从20幅场景图中随机选取一幅场景图,将目标切片组中的所有目标切片随机分布到所选取的场景图中,得到一幅训练场景图;
(2c)生成与训练场景图大小相等的全零矩阵;
(2d)将目标切片组中的所有目标切片在训练场景图中的位置所对应的全零矩阵中的位置设置为1,得到显著特征图;
(2e)判断从1200幅目标切片图中重复选取15个目标切片,组成一个目标切片组的数目是否达到3000组,若是,则执行步骤(3);否则,执行步骤(2a);
(3)生成显著性检测训练数据集:
将3000幅训练场景图和与之对应的显著特征图,组成显著性检测训练数据集;
(4)生成目标分类训练样本集:
(4a)从1200幅目标切片中随机选取600幅作为目标训练集,其余600幅作为目标测试集;
(4b)从目标训练集中随机选取一幅目标切片,从所选目标切片中随机裁剪6个88*88像素的小切片;
(4c)判断目标训练集中的目标切片是否选完,若是,则执行步骤(4e);否则,执行步骤(4b);
(4e)将所有的小切片组成目标分类训练数据集;
(5)构建显著性网络模型:
利用深度学习平台,构建一个九层的显著性网络模型;
该模型的结构为:第一层至第四层为卷积下采样层,第五层至第八层为卷积上采样层,第九层为卷积层;
该模型的参数设置为:卷积采样层的参数设置为:8个卷积核,卷积核窗口大小为3*3个像素,相邻局部接受域的大小为1,激活函数为Relu函数,采样窗口大小为2*2个像素;卷积层的参数设置为:1个卷积核,卷积核窗口大小为3*3个像素,相邻局部接受域的大小为1,激活函数为Sigmoid函数;
(6)训练显著性网络模型:
将显著性检测训练数据集输入到显著性网络模型中,使用训练参数对显著性网络模型进行迭代训练,得到训练好的显著性网络模型;
(7)构建多尺度深度网络模型:
利用深度学习平台,构建一个七层的多尺度深度网络模型:
该模型的结构为:第一层到第五层均为卷积下采样层,第六层为转换层,第七层为全连接层;
该模型的参数设置为:卷积下采样层的参数设置为:16个卷积核,卷积核窗口大小为3*3个像素,相邻局部接受域的大小为1,激活函数为Relu函数,下采样窗口大小为2*2个像素;全连接层的参数设置为:神经元个数为128个,激活函数为softmax;
(8)构建曲线波Curvelet重构层:
利用程序语言,构建重构系数为0.5的曲线波Curvelet重构层;
(9)生成目标分类网络模型:
将曲线波Curvelet重构层与多尺度深度网络,组成目标分类网络模型;
(10)训练目标分类网络模型:
将目标分类训练数据集输入到目标分类网络模型中,使用训练参数对目标分类网络模型进行迭代训练,得到训练好的目标分类网络模型;
(11)获得显著特征图:
将待测试的场景图输入到训练好的显著性网络模型中,得到显著特征图;
(12)对显著特征图进行形态学处理:
(12a)对显著特征图进行膨胀系数为10个像素的膨胀处理,去除显著特征图内部的缝隙;
(12b)对膨胀后的显著特征图进行去除小连通域的处理,去除面积小于300个像素的连通域;
(12c)对显著特征图进行连通域标记,计算连通域的质心,作为目标区域质心;
(13)提取检测切片:
以目标区域质心为中心,在10*10个像素范围的像素中,随机选取6个像素,以每个所选取的像素为中心,提取6个88*88像素的检测切片;
(14)对检测切片进行分类:
将6个检测切片送入训练好的目标分类网络模型中,得到6个分类结果;
(15)对分类结果进行投票:
对6个分类结果进行多数投票,得到最终分类结果;
(16)标记检测与分类结果图:
在待测试的场景图中,分别标记每个目标区域质心对应的88*88像素的目标区域与最终分类结果,得到检测与分类结果图。
本发明与现有技术相比具有以下优点:
第一,由于本发明采用显著性网络模型,使用该模型筛选出了目标可能存在的区域,克服了现有技术中滑窗式处理带来的巨大计算量,使得本发明的计算速度高于现有技术,提高了处理效率。
第二,由于本发明采用多尺度深度网络模型,融合了多个尺度的信息,克服了传统卷积神经网络对多尺度信息的利用不足的问题,使得本发明得到了多尺度、多分辨的图像特征,提高了分类精度。
第三,由于本发明采用Curvelet滤波层对图像进行重构,克服了现有技术无法利用SAR图像本身特点滤除噪声的缺点,滤掉了部分噪声信息,使得本发明提高了数据质量,提高了分类准确率。
附图说明
图1为本发明的流程图;
图2为本发明的仿真图。
具体实施方式
下面结合附图,对本发明做进一步的详细描述。
参照附图1,对本发明的实现步骤做进一步的详细描述。
步骤1.读入数据集:
读入由20幅场景图和1200幅目标切片组成的合成孔径雷达SAR数据集;其中,每幅目标切片的大小为128*128个像素。
步骤2.获得训练场景图和显著特征图。
第1步,从1200幅目标切片图中随机选取15个目标切片,组成一个目标切片组。
第2步,从20幅场景图中随机选取一幅场景图,将目标切片组中的所有目标切片随机分布到所选取的场景图中,得到一幅训练场景图。
第3步,生成与训练场景图大小相等的全零矩阵。
第4步,将目标切片组中的所有目标切片在训练场景图中的位置所对应的全零矩阵中的位置设置为1,得到显著特征图。
第5步,判断从1200幅目标切片图中重复选取15个目标切片,组成一个目标切片组的数目是否达到3000组,若是,则执行步骤3;否则,执行步骤2的第一步。
步骤3.生成显著性检测训练数据集。
将3000幅训练场景图和与之对应的显著特征图,组成显著性检测训练数据集。
步骤4.生成目标分类训练样本集。
第1步,从1200幅目标切片中随机选取600幅作为目标训练集,其余600幅作为目标测试集。
第2步,从目标训练集中随机选取一幅目标切片,从所选目标切片中随机裁剪6个88*88像素的小切片。
第3步,判断目标训练集中的目标切片是否选完,若是,则执行步骤4的第4步;否则,执行步骤4的第2步。
第4步,将所有的小切片组成目标分类训练数据集。
步骤5.构建显著性网络模型。
利用深度学习平台,构建一个九层的显著性网络模型。
该模型的结构为:第一层至第四层为卷积下采样层,第五层至第八层为卷积上采样层,第九层为卷积层。
该模型的参数设置为:卷积采样层的参数设置为:8个卷积核,卷积核窗口大小为3*3个像素,相邻局部接受域的大小为1,激活函数为Relu函数,采样窗口大小为2*2个像素;卷积层的参数设置为:1个卷积核,卷积核窗口大小为3*3个像素,相邻局部接受域的大小为1,激活函数为Sigmoid函数。
步骤6.训练显著性网络模型。
将显著性检测训练数据集输入到显著性网络模型中,使用训练参数对显著性网络模型进行迭代训练,得到训练好的显著性网络模型。
所述的训练参数是指,损失函数为二值交叉熵,优化算法为自适应学习率调整算法adadelta,迭代次数为10次。
步骤7.构建多尺度深度网络模型。
利用深度学习平台,构建一个七层的多尺度深度网络模型。
该模型的结构为:第一层到第五层均为卷积下采样层,第六层为转换层,第七层为全连接层。
该模型的参数设置为:卷积下采样层的参数设置为:16个卷积核,卷积核窗口大小为3*3个像素,相邻局部接受域的大小为1,激活函数为Relu函数,下采样窗口大小为2*2个像素;全连接层的参数设置为:神经元个数为128个,激活函数为softmax。
步骤8.构建曲线波Curvelet重构层。
利用程序语言,构建重构系数为0.5的曲线波Curvelet重构层。
步骤9.生成目标分类网络模型。
将曲线波Curvelet重构层与多尺度深度网络,组成目标分类网络模型。
步骤10.训练目标分类网络模型。
将目标分类训练数据集输入到目标分类网络模型中,使用训练参数对目标分类网络模型进行迭代训练,得到训练好的目标分类网络模型。
所述的训练参数是指,损失函数为二值交叉熵,优化算法为自适应学习率调整算法adadelta,迭代次数为150次。
步骤11.获得显著特征图。
将待测试的场景图输入到训练好的显著性网络模型中,得到显著特征图。
步骤12.对显著特征图进行形态学处理。
第1步,对显著特征图进行膨胀系数为10个像素的膨胀处理,去除显著特征图内部的缝隙。
膨胀处理是指,用10*10像素大小的全1二值图像作为结构元素,扫描显著特征图的每一个像素,用结构元素与其覆盖的二值图像做“与”操作,判断“与”操作的结果是否为0,若是,将显著特征图的像素置为0,否则,置为1。
第2步,对膨胀后的显著特征图进行去除小连通域的处理,去除面积小于300个像素的连通域。
所述的去除小连通域的处理是指,统计每一个连通域的面积,将面积小于300个像素的连通域的值置为0。
第3步,对显著特征图进行连通域标记,计算连通域的质心,作为目标区域质心。
步骤13.提取检测切片。
以目标区域质心为中心,在10*10个像素范围的像素中,随机选取6个像素,以每个所选取的像素为中心,提取6个88*88像素的检测切片。
步骤14.对检测切片进行分类。
将6个检测切片送入训练好的目标分类网络模型中,得到6个分类结果。
步骤15.对分类结果进行投票。
对6个分类结果进行多数投票,得到最终分类结果。
步骤16.标记检测与分类结果图。
在待测试的场景图中,分别标记每个目标区域质心对应的88*88像素的目标区域与最终分类结果,得到检测与分类结果图。
下面结合仿真实验对本发明的效果做进一步的说明。
1仿真条件:
本发明的仿真是在惠普Z840、内存8GB的硬件环境和Matlab2014Ra、Keras1.0的软件环境下进行的。
2仿真内容:
本发明使用MSTAR数据集进行仿真实验。采集该数据集的传感器为高分辨率的聚束式合成孔径雷达,分辨率为0.3m×0.3m。该数据集包含场景图和目标切片两部分。其中目标包括3大类:BTR70(装甲运输车),BMP2(步兵战车),T72(坦克)。
3仿真效果分析:
图2为本发明在两幅不同待检测场景图上进行仿真的结果图。每幅待检测的场景图都是由一幅农村背景的场景图和一定数目的目标切片人工合成的。其中标注的边框为目标存在的位置,边框上方的文字为目标的类别。由图2的仿真结果可以看到,本发明的检测结果准确,没有误检和漏检。
表1为在MSTAR数据集的目标切片数据集上,使用本发明方法进行测试得到的分类准确率与使用卷积神经网络得到的分类准确率对比表。
表1本发明与卷积神经网络分类准确率对比表
分类方法 | 准确率 |
本发明 | 99.05% |
卷积神经网络 | 98.24% |
由表1可见,本发明的分类准确率高于卷积神经网络。
综上所述,本发明通过引入了显著性网络模型和多尺度深度网络模型,提高了SAR图像目标检测和分类准确率。
Claims (5)
1.一种基于显著性和多尺度深度网络模型的SAR图像分类方法,其特征在于,包括如下步骤:
(1)读入数据集:
读入由20幅场景图和1200幅目标切片组成的合成孔径雷达SAR数据集;其中,每幅目标切片的大小为128*128个像素;
(2)获得训练场景图和显著特征图:
(2a)从1200幅目标切片图中随机选取15个目标切片,组成一个目标切片组;
(2b)从20幅场景图中随机选取一幅场景图,将目标切片组中的所有目标切片随机分布到所选取的场景图中,得到一幅训练场景图;
(2c)生成与训练场景图大小相等的全零矩阵;
(2d)将目标切片组中的所有目标切片在训练场景图中的位置所对应的全零矩阵中的位置设置为1,得到显著特征图;
(2e)判断重复从1200幅目标切片图中选取15个目标切片组成的目标切片组的数目是否达到3000组,若是,则执行步骤(3);否则,执行步骤(2a);
(3)生成显著性检测训练数据集:
将3000幅训练场景图和与之对应的显著特征图,组成显著性检测训练数据集;
(4)生成目标分类训练样本集:
(4a)从1200幅目标切片中随机选取600幅作为目标训练集,其余600幅作为目标测试集;
(4b)从目标训练集中随机选取一幅目标切片,从所选目标切片中随机裁剪6个88*88像素的小切片;
(4c)判断目标训练集中的目标切片是否选完,若是,则执行步骤(4e);否则,执行步骤(4b);
(4e)将所有的小切片组成目标分类训练数据集;
(5)构建显著性网络模型:
利用深度学习平台,构建一个九层的显著性网络模型;
该模型的结构为:第一层至第四层为卷积下采样层,第五层至第八层为卷积上采样层,第九层为卷积层;
该模型的参数设置为:卷积采样层的参数设置为:8个卷积核,卷积核窗口大小为3*3个像素,相邻局部接受域的大小为1,激活函数为Relu函数,采样窗口大小为2*2个像素;卷积层的参数设置为:1个卷积核,卷积核窗口大小为3*3个像素,相邻局部接受域的大小为1,激活函数为Sigmoid函数;
(6)训练显著性网络模型:
将显著性检测训练数据集输入到显著性网络模型中,使用训练参数对显著性网络模型进行迭代训练,得到训练好的显著性网络模型;
(7)构建多尺度深度网络模型:
利用深度学习平台,构建一个七层的多尺度深度网络模型:
该模型的结构为:第一层到第五层均为卷积下采样层,第六层为转换层,第七层为全连接层;
该模型的参数设置为:卷积下采样层的参数设置为:16个卷积核,卷积核窗口大小为3*3个像素,相邻局部接受域的大小为1,激活函数为Relu函数,下采样窗口大小为2*2个像素;全连接层的参数设置为:神经元个数为128个,激活函数为softmax;
(8)构建曲线波Curvelet重构层:
利用程序语言,构建重构系数为0.5的曲线波Curvelet重构层;
(9)生成目标分类网络模型:
将曲线波Curvelet重构层与多尺度深度网络,组成目标分类网络模型;
(10)训练目标分类网络模型:
将目标分类训练数据集输入到目标分类网络模型中,使用训练参数对目标分类网络模型进行迭代训练,得到训练好的目标分类网络模型;
(11)获得显著特征图:
将待测试的场景图输入到训练好的显著性网络模型中,得到显著特征图;
(12)对显著特征图进行形态学处理:
(12a)对显著特征图进行膨胀系数为10个像素的膨胀处理,去除显著特征图内部的缝隙;
(12b)对膨胀后的显著特征图进行去除小连通域的处理,去除面积小于300个像素的连通域;
(12c)对显著特征图进行连通域标记,计算连通域的质心,作为目标区域质心;
(13)提取检测切片:
以目标区域质心为中心,在10*10个像素范围的像素中,随机选取6个像素,以每个所选取的像素为中心,提取6个88*88像素的检测切片;
(14)对检测切片进行分类:
将6个检测切片送入训练好的目标分类网络模型中,得到6个分类结果;
(15)对分类结果进行投票:
对6个分类结果进行多数投票,得到最终分类结果;
(16)标记检测与分类结果图:
在待测试的场景图中,分别标记每个目标区域质心对应的88*88像素的目标区域与最终分类结果,得到检测与分类结果图。
2.根据权利要求1所述的基于显著性和多尺度深度网络模型的SAR图像分类方法,其特征在于:步骤(6)中所述的训练参数是指,损失函数为二值交叉熵,优化算法为自适应学习率调整算法adadelta,迭代次数为10次。
3.根据权利要求1所述的基于显著性和多尺度深度网络模型的SAR图像分类方法,其特征在于:步骤(10)中所述的训练参数是指,损失函数为二值交叉熵,优化算法为自适应学习率调整算法adadelta,迭代次数为150次。
4.根据权利要求1所述的基于显著性和多尺度深度网络模型的SAR图像分类方法,其特征在于:步骤(12a)所述的膨胀处理是指,用10*10像素大小的全1二值图像作为结构元素,扫描显著特征图的每一个像素,用结构元素与其覆盖的二值图像做“与”操作,判断“与”操作的结果是否为0,若是,将显著特征图的像素置为0,否则,置为1。
5.根据权利要求1所述的基于显著性和多尺度深度网络模型的SAR图像分类方法,其特征在于:步骤(12b)所述的去除小连通域的处理是指,统计每一个连通域的面积,将面积小于300个像素的连通域的值置为0。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711143858.3A CN107909109B (zh) | 2017-11-17 | 2017-11-17 | 基于显著性和多尺度深度网络模型的sar图像分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711143858.3A CN107909109B (zh) | 2017-11-17 | 2017-11-17 | 基于显著性和多尺度深度网络模型的sar图像分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107909109A CN107909109A (zh) | 2018-04-13 |
CN107909109B true CN107909109B (zh) | 2019-06-21 |
Family
ID=61845881
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711143858.3A Active CN107909109B (zh) | 2017-11-17 | 2017-11-17 | 基于显著性和多尺度深度网络模型的sar图像分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107909109B (zh) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110807754B (zh) * | 2018-08-01 | 2022-05-31 | 华中科技大学 | 基于深度语义分割的真菌显微图像分割检测方法及系统 |
CN109242889B (zh) * | 2018-08-27 | 2020-06-16 | 大连理工大学 | 基于上下文显著性检测与sae的sar图像变化检测方法 |
CN109040605A (zh) * | 2018-11-05 | 2018-12-18 | 北京达佳互联信息技术有限公司 | 拍摄引导方法、装置及移动终端和存储介质 |
CN109359631A (zh) * | 2018-11-30 | 2019-02-19 | 南京大学 | 一种基于卷积神经网络的海冰类型遥感分类方法 |
CN110163213B (zh) * | 2019-05-16 | 2022-12-06 | 西安电子科技大学 | 基于视差图和多尺度深度网络模型的遥感图像分割方法 |
CN110176005B (zh) * | 2019-05-16 | 2023-03-24 | 西安电子科技大学 | 基于归一化指数和多尺度模型的遥感图像分割方法 |
CN110826567B (zh) * | 2019-11-06 | 2023-04-07 | 北京字节跳动网络技术有限公司 | 光学字符识别方法、装置、设备及存储介质 |
CN111274727B (zh) * | 2020-01-17 | 2023-05-02 | 南京星火技术有限公司 | 电子设备、微波产品模型设计装置和计算机可读介质 |
CN112329793B (zh) * | 2020-11-05 | 2022-09-27 | 天津大学 | 基于结构自适应和规模自适应感受野的显著性检测方法 |
CN112906564B (zh) * | 2021-02-19 | 2022-10-04 | 中国人民解放军火箭军工程大学 | 用于无人机载sar图像自动目标识别的智能决策支持系统设计及实现方法 |
CN115223062B (zh) * | 2022-06-30 | 2023-10-20 | 桂林理工大学 | 基于uav数据的桉树人工林区域林分蓄积量时间差校正方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8170279B2 (en) * | 2008-06-23 | 2012-05-01 | Raytheon Company | Adaptive match metric selection for automatic target recognition |
US20140301662A1 (en) * | 2013-03-17 | 2014-10-09 | ISC8 Inc. | Analysis, Labeling and Exploitation of Sensor Data in Real Time |
CN107103338B (zh) * | 2017-05-19 | 2020-04-28 | 杭州电子科技大学 | 融合卷积特征和集成超限学习机的sar目标识别方法 |
CN107247930A (zh) * | 2017-05-26 | 2017-10-13 | 西安电子科技大学 | 基于cnn和选择性注意机制的sar图像目标检测方法 |
-
2017
- 2017-11-17 CN CN201711143858.3A patent/CN107909109B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN107909109A (zh) | 2018-04-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107909109B (zh) | 基于显著性和多尺度深度网络模型的sar图像分类方法 | |
CN110135267A (zh) | 一种大场景sar图像细微目标检测方法 | |
CN109800631A (zh) | 基于掩膜区域卷积神经网络的荧光编码微球图像检测方法 | |
Al Bashish et al. | A framework for detection and classification of plant leaf and stem diseases | |
CN104036239B (zh) | 基于特征融合和聚类的高分辨sar图像快速舰船检测方法 | |
CN107247930A (zh) | 基于cnn和选择性注意机制的sar图像目标检测方法 | |
CN107292343A (zh) | 一种基于六层卷积神经网络和光谱‑空间信息联合的高光谱遥感图像分类方法 | |
CN111639587B (zh) | 基于多尺度谱空卷积神经网络的高光谱图像分类方法 | |
CN107330457B (zh) | 一种基于多特征融合的极化sar图像分类方法 | |
CN105718942B (zh) | 基于均值漂移和过采样的高光谱图像不平衡分类方法 | |
CN108846426A (zh) | 基于深度双向lstm孪生网络的极化sar分类方法 | |
CN107657271B (zh) | 基于长短时记忆网络的高光谱图像分类方法 | |
CN106886760B (zh) | 一种基于空谱信息结合的高光谱舰船检测方法 | |
CN105844279A (zh) | 基于深度学习和sift特征的sar图像变化检测方法 | |
CN108257151B (zh) | 基于显著性分析的PCANet图像变化检测方法 | |
CN104299232B (zh) | 一种基于自适应窗方向波域和改进fcm的sar图像分割方法 | |
CN108764082A (zh) | 一种飞机目标检测方法、电子设备、存储介质及系统 | |
CN106054189B (zh) | 基于dpKMMDP模型的雷达目标识别方法 | |
CN106600595A (zh) | 一种基于人工智能算法的人体特征尺寸自动测量方法 | |
CN103971364A (zh) | 基于加权Gabor小波特征和两级聚类的遥感图像变化检测方法 | |
CN103246894B (zh) | 一种解决光照不敏感问题的地基云图识别方法 | |
CN114241422A (zh) | 一种基于ESRGAN和改进YOLOv5s的学生课堂行为检测方法 | |
CN105787517B (zh) | 基于小波稀疏自编码器的极化sar图像分类方法 | |
CN113469097B (zh) | 一种基于ssd网络的水面漂浮物多相机实时检测方法 | |
CN104361351A (zh) | 一种基于区域统计相似度的合成孔径雷达图像分类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |