CN108416378B - 一种基于深度神经网络的大场景sar目标识别方法 - Google Patents

一种基于深度神经网络的大场景sar目标识别方法 Download PDF

Info

Publication number
CN108416378B
CN108416378B CN201810168701.4A CN201810168701A CN108416378B CN 108416378 B CN108416378 B CN 108416378B CN 201810168701 A CN201810168701 A CN 201810168701A CN 108416378 B CN108416378 B CN 108416378B
Authority
CN
China
Prior art keywords
target
neural network
sar image
frame
sar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810168701.4A
Other languages
English (en)
Other versions
CN108416378A (zh
Inventor
崔宗勇
唐翠
曹宗杰
闵锐
皮亦鸣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN201810168701.4A priority Critical patent/CN108416378B/zh
Publication of CN108416378A publication Critical patent/CN108416378A/zh
Application granted granted Critical
Publication of CN108416378B publication Critical patent/CN108416378B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/192Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
    • G06V30/194References adjustable by an adaptive method, e.g. learning

Abstract

本发明属于雷达遥感应用技术领域,具体的说是涉及一种基于深度神经网络的大场景SAR目标识别方法。本发明通过搭建一个基于多尺度特征图的神经网络结构,提取SAR图像的多尺度特征,并将每层的卷积神经网络的输出用于预测。同时,本发明结合深度神经网络在特征提取方面的优势,利用神经网络结构通过逐层的非线性变换,自动提取SAR图像目标的低层以及高层特征,将传统SAR目标识别的4个主要步骤:检测、鉴别、特征提取以及识别整合到一个神经网络中,无需单独设计检测器、鉴别器以及分类器。通过在网络前加入切割模块,亦可完成大场景SAR图像的快速解译。

Description

一种基于深度神经网络的大场景SAR目标识别方法
技术领域个
本发明属于雷达遥感应用技术领域,具体的说是一种基于深度神经网络的大场景SAR目标识别方法。本发明针对SAR图像,搭建基于多尺度特征图的深度网络结构,实现对大场景SAR图像目标的快速识别
背景技术
合成孔径雷达(Synthetic Aperture Radar,以下简称SAR)可全天时、全天候获取高分辨率雷达图像,是一种重要的对地观测手段。作为SAR技术领域的一个分支,SAR目标识别在军事以及民用领域上都具有重要意义,现已成为国际研究的焦点。
SAR图像与普通光学图像在成像机理、几何特征、辐射特征等方面有较大的不同。SAR所成图像对地物回波的强弱不敏感,层次感较差;雷达波反射的不均匀造成图像分辨率较低,目标边缘模糊;此外SAR图像中噪声较多,对目标检测的影响较大。
通常,SAR目标识别的过程可以包括四个主要的步骤:检测,鉴别,特征提取和识别。1)检测阶段的目的是通过结合SAR图像的局部亮度或目标的形状等信息,从SAR图像中找出潜在的目标的区域,从而筛选出感兴趣区域(ROI);2)鉴别阶段通过对上一步得到的ROI进行处理,排除噪声和由于人为因素造成的虚警以筛除不含目标的ROI;3)特征提取是SAR目标识别中的一个关键的步骤,通过提取有效的鉴别特征,如纹理、尺寸、对比度等特征,可以大大地降低SAR图像的特征维数,提高识别的效率;4)最后,识别阶段主要通过对余下的ROI进行进一步处理,得到目标的类别。
根据识别方法的不同,SAR目标识别方法可以划分为以下几类:1)基于模板匹配的方法,即直接从已标记的训练图像构建一系列的参考图像(空域或时域),即模板,事先要把这些模板存储起来。在测试阶段,对于给定的一幅测试图像,首先将该测试图像与模板库内的所有模板进行匹配,然后将该测试图像归到与之相近的模板所在的类中,该方法处理过程复杂,并且在目标类别较多时,需要处理大量的图像模板,空间复杂度比较高;2)基于模型的方法,其具体步骤为:①提取出未知目标的特征,根据数学模型来推出一些相关的候选目标,然后分别假设这些目标的类别和姿态;②对候选目标通过模型构建技术进行三维成像,提取出散射中心模型,并进一步预测识别目标的特征,看作待识别目标的参考特征,该方法对图像质量的要求很高,并且构造模型需要高水平的理论和计算,对于有杂波的背景图像,基于模型的方法有较好的鲁棒性,对此方法对模型需要高水平的理论和计算;③匹配,判决。3)基于压缩感知的方法,该方法大都是针对具有某些特性的目标,并不通用。
在上述步骤当中,特征提取是重中之重,能否提取到具有较高识别能力的特征影响后续整个识别过程。在传统的机器学习算法中,特征的提取规则往往是由人工设计的,或者当数据量较大时由计算机总结出来。实际应用中,当数据量过大,并且数据较复杂时,这种方式提取的特征往往并不具有代表性,无法表示不同类别数据间的独特性,因此也就限制了识别精度。同时,检测与鉴别之间的许多因素将极大地影响识别结果,如目标区域的大小,检测结果与训练样本之间的目标位置差异。这种分步骤的SAR目标识别方法,若前一步未得到较好的结果,将对下一步产生的结果产生很大的影响。则要实现一个较好的SAR目标识别结果,需要精心设计检测、鉴别、特征提取以及识别的每一个步骤。
发明内容
针对以上存在的问题或不足,本发明结合深度神经网络在特征提取方面的优势,利用神经网络结构通过逐层的非线性变换,自动提取SAR图像目标的低层以及高层特征,同时将传统SAR目标识别的4个主要步骤:检测、鉴别、特征提取以及识别整合到一个神经网络中,无需单独设计检测器、鉴别器以及分类器。
本发明的基于深度神经网络的SAR目标识别方法主要由以下步骤实现。
步骤1、搭建深度神经网络模型,如附图1所示。
使用图像分类领域通用的网络结构,如VGG16或者ResNet等通用的网络作为基础网络结构,然后在此基础上增添额外的卷积层,并且这些卷积层的大小是逐层递减的,可以进行多尺度的预测。在卷积过程中得到的特征图不断被额外的特征层用于输出一部分的预测,从而形成多个输出路径,每一个额外特征层的详细计算如附图2所示,其中K代表输入图像中一些固定大小位置和长宽比的矩形局域,即预选框。
由于感受野的大小与特征图的大小相关,于是在较低层的特征图的感受野比较小,相对而言,在较高层的特征图的感受野较大,同时卷积层的每一个输出只会感受到目标周围的信息,包括上下文。并且,不同的卷积层的输出不仅用于预测不同宽高比的目标类别,同时预测边界框的偏移,以此实现多尺度特征图的检测。
步骤2、制作训练样本集和测试样本。首先,将采集到的SAR图像,切割成一定大小且包含目标的SAR图像切片,同时在SAR图像切片中手动画框包围目标,该框为真值框,并记录真值框的位置和目标的真实类别;
步骤3、利用步骤2中制作好的训练样本集训练网络,更新网络参数。
具体为:
①通过前向传播,利用网络结构中的卷积神经网络提取SAR图像的特征;
②将卷积神经网络提取到的特征图,分成8×8或者4×4个特征图格子,在每一个特征图格子中生成k个不同大小,不同长宽比的预选框;
每一个预选框的大小为
Figure GDA0002253908360000031
其中,m为特征图的个数,Sk表示第k个特征图的=预选框的大小,Smin和Smax分别代表最小特征图和最大特征图预选框的尺寸大小,同时,这些预选框的长宽比根据一定的比例aγ计算。预选框的宽度为:
Figure GDA0002253908360000032
高度为:
Figure GDA0002253908360000033
当aγ=1时,
Figure GDA0002253908360000034
坐标归一化后为:
Figure GDA0002253908360000035
|fk|为第k个特征图的尺寸,i,j∈[0,|fk|)。
③计算每个候选区域相对于预选框的坐标位置偏移量,在每一个预选框里,预测c个SAR图像目标的类别得分;
④根据候选区域和坐标位置偏移量计算出SAR目标的最终区域,损失函数由分类和回归两部分组成。根据类别得分计算候选区域的损失函数,即置信损失。回归部分的损失函数是使得预测框和预选框的差距尽可能跟真值框和预选框的差距接近,即定位损失。累加两者得到总的目标损失函数;
Figure GDA0002253908360000036
其中,
Figure GDA0002253908360000037
Figure GDA0002253908360000038
Figure GDA0002253908360000039
Figure GDA00022539083600000310
其中,c为每一类的置信度,Lconf为预测框l和真实框g的smoothL1损失函数,即置信损失,Lloc为定位损失。通过交叉验证将α的值设置为1。N是与真实框相匹配的预选框的个数。i表示第i个预选框,j表示第j个真实框,p为第p个类别,
Figure GDA00022539083600000311
表示第i个预选框与第j个真实框的Jaccard系数。A和B之间的Jaccard系数可以用于衡量两者的相关性,计算方式为:
Figure GDA0002253908360000041
⑤根据最后的损失函数经过反向传播来修正各个网络层的权值。
由此,得到训练好的神经网络模型。
步骤4、将待解译的大场景SAR图像按照一定大小切割成适应网络输入图片大小的SAR图像切片,在切割的过程中,保证目标完整的出现在某一个切片上。
步骤5、将步骤4得到的大场景SAR图像切片缩放到固定的尺寸,然后送入基础网络之后,再进行多次卷积,每个次卷积得到的特征图的尺寸逐渐变小,由此得到一系列不同尺度的特征图,然后在这些不同尺度的特征图上通过回归得到目标的位置并得到目标的类别信息。
由于,在预测阶段和训练阶段一样会每个特征图格子会生成数个预选框,通过非极大值抑制算法保留预测置信度最高的一个框。
在预测切片中目标类别时,相当于把一张完整的图切分成大大小小张子图,每一张子图相当于一个窗口,判断窗口是否存在目标,如果存在目标,预测其类别以及位置,无目标则预测为背景,如附图3所示。
将切片上的检测结果反馈到大场景图片上并输出,即在大场景SAR图像上框出目标并标出其类别信息,同时给出目标的类别置信度。
本发明通过搭建一个基于多尺度特征图的神经网络结构,提取SAR图像的多尺度特征,并将每层的卷积神经网络的输出用于预测。同时,本发明结合深度神经网络在特征提取方面的优势,利用神经网络结构通过逐层的非线性变换,自动提取SAR图像目标的低层以及高层特征,将传统SAR目标识别的4个主要步骤:检测、鉴别、特征提取以及识别整合到一个神经网络中,无需单独设计检测器、鉴别器以及分类器。通过在网络前加入切割模块,即可完成大场景SAR图像的解译。
附图说明
图1为本发明的SAR目标识别所采用的神经网络结构;
图2为额外的卷积层的详细计算过程;
图3为网络预测过程;
图4为部分MSTAR三类目标切片及其识别结果展示;
图5为合成的大场景SAR图像及目标分布;
图6为大场景SAR图像的识别结果;
具体实施方式
下面结合实例详细说明本发明的技术方案。
本发明的实施例中采用MSTAR图像数据,现在对MSTAR进行简单的介绍。
MSTAR(Moving and Stationary Target Acquisition Recognition)项目启动于1994年,它是由美国国防高级研究计划署(Defense Advanced Research Project Agency,DARPA)和空军研究室(Air Force Research Laboratory,AFRL)提供的联合研究的一个SAR自动目标识别课题。实验数据采用地面军事车辆的聚束式MSTAR SAR图像集,图像分辨率为0.3m×0.3m,像素尺寸128×128。现在MSTAR数据已经成为考核SAR目标识别和分类算法的标准数据库。大部分在权威杂志和会议上发表的SAR目标识别和分类算法都是采用MSTAR数据进行测试和评估。
实验所用的样本为MSTAR三类目标切片,训练样本为俯仰角17度的目标,测试样本为俯仰角15度的目标。表1为MSTAR三类目标训练测试样本分布。其中训练样本用于训练所搭建的网络,更新网络参数,而测试样本不参与训练。
表1 MSTAR三类目标训练测试样本分布
Figure GDA0002253908360000051
首先,用测试样本测试训练好的网络的性能,由于测试样本的大小为128×128的MSTAR SAR目标切片,所以不需要做切割,直接送入网络进行检测识别。附图4为测试样本中部分MSTAR三类目标切片及其识别结果,第一行图片为待检测的SAR图像切片,依次为T72、BTR70以及BMP2,第二行图片显示了第一行的目标切片的识别结果。根据结果可以看出,切片中的每一个目标都被框出,并且给出了正确的SAR目标类别以及较高的类别置信率。在MSTAR三类目标上的识别准确率如表2所示,其中BMP2,BTR70和T72的准确率分别为98%,100%,100%。检测识别1162张切片用时13秒。可见本发明在SAR目标切片上的检测识别准确率高且具有较快的速度。
表2在MSTAR三类目标上的识别准确率
Figure GDA0002253908360000061
接下来,验证本发明在大场景SAR图像上的检测识别的表现。由于,大场景SAR图像中包含地面车辆目标的SAR图像获取的成本昂贵,所以首先利用MSTAR数据库中提供的大幅场景和目标图像进行合成,得到一幅尺寸为1478×1784的包含有目标的大场景SAR图像,如附图5所示,合成的大场景SAR图像中的目标类别以及相应的标号如附表3所示。识别结果附图6所示,3种不同类型的所有15个目标全部被正确识别,并且其中一个目标的类别置信率为0.87,其余14个目标的类别置信率均高于0.96。
表3大场景SAR图像中目标类别及相应的标号
Figure GDA0002253908360000062
由此可见,本发明利用构建深度神经网络,将传统SAR目标识别的4个主要步骤:检测、鉴别、特征提取以及识别整合到一个神经网络中,无需单独设计检测器、鉴别器以及分类器。通过以上实验可见,本发明在检测识别大场景SAR图像目标时,识别准确率高且处理速度快。

Claims (2)

1.一种基于深度神经网络的大场景SAR目标识别方法,包括以下具体步骤:
步骤1、搭建深度神经网络模型,使用图像分类领域网络结构作为基础网络结构,然后在此基础上增添额外的卷积层,并且这些卷积层的大小是逐层递减的,用于进行多尺度的预测;在卷积过程中得到的特征图不断被额外的特征层用于输出一部分的预测,从而形成多个输出路径;
步骤2、制作训练样本集和测试样本:首先,将采集到的SAR图像,切割成包含目标的SAR图像切片,同时在SAR图像切片中采用画框的方式包围目标,该框为真值框,并记录真值框的位置和目标的真实类别;
步骤3、利用步骤2中制作好的训练样本集训练网络,更新网络参数;
具体为:
①通过前向传播,利用网络结构中的卷积神经网络提取SAR图像的特征;
②将卷积神经网络提取到的特征图,分成8×8或者4×4个特征图格子,在每一个特征图格子中生成k个不同大小,不同长宽比的预选框;
每一个预选框的大小为
Figure FDA0002253908350000011
其中,m为特征图的个数,Sk表示第k个特征图的预选框的大小,Smin和Smax分别代表最小特征图和最大特征图预选框的尺寸大小,同时,这些预选框的长宽比根据一定的比例aγ计算;预选框的宽度为:
Figure FDA0002253908350000012
高度为:
Figure FDA0002253908350000013
当aγ=1时,
Figure FDA0002253908350000014
坐标归一化后为:
Figure FDA0002253908350000015
|fk|为第k个特征图的尺寸,i,j∈[0,|fk|);
③计算每个候选区域相对于预选框的坐标位置偏移量,在每一个预选框里,预测c个SAR图像目标的类别得分;
④根据候选区域和坐标位置偏移量计算出SAR目标的最终区域,损失函数由分类和回归两部分组成;根据类别得分计算候选区域的损失函数,即置信损失;回归部分的损失函数是使得预测框和预选框的差距尽可能跟真值框和预选框的差距接近,即定位损失;累加两者得到总的目标损失函数;
Figure FDA0002253908350000021
其中,
Figure FDA0002253908350000022
Figure FDA0002253908350000023
Figure FDA0002253908350000024
Figure FDA0002253908350000025
其中,c为每一类的置信度,Lconf为预测框l和真实框g的smoothL1损失函数,即置信损失,Lloc为定位损失,通过交叉验证将α的值设置为1,N是与真实框相匹配的预选框的个数,i表示第i个预选框,j表示第j个真实框,p为第p个类别,
Figure FDA0002253908350000026
表示第i个预选框与第j个真实框的Jaccard系数,A和B之间的Jaccard系数可以用于衡量两者的相关性,计算方式为:
Figure FDA0002253908350000027
⑤根据最后的损失函数经过反向传播来修正各个网络层的权值;
由此,得到训练好的神经网络模型;
步骤4、将待解译的大场景SAR图像切割成适应网络输入图片大小的SAR图像切片,在切割的过程中,保证目标完整的出现在某一个切片上;
步骤5、将步骤4得到的大场景SAR图像切片缩放到固定的尺寸,然后送入基础网络之后,再进行多次卷积,每一次卷积得到的特征图逐渐变小,由此得到一系列不同尺度的特征图,然后在这些不同尺度的特征图上通过回归得到目标的位置并得到目标的类别信息;
将切片上的检测结果反馈到大场景图片上并输出,即在大场景SAR图像上框出目标并标出其类别信息,同时给出目标的类别置信度。
2.如权利要求1所述基于深度神经网络的大场景SAR目标识别方法,其特征在于:所述步骤1的基础网络结构为VGG16或者ResNet。
CN201810168701.4A 2018-02-28 2018-02-28 一种基于深度神经网络的大场景sar目标识别方法 Active CN108416378B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810168701.4A CN108416378B (zh) 2018-02-28 2018-02-28 一种基于深度神经网络的大场景sar目标识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810168701.4A CN108416378B (zh) 2018-02-28 2018-02-28 一种基于深度神经网络的大场景sar目标识别方法

Publications (2)

Publication Number Publication Date
CN108416378A CN108416378A (zh) 2018-08-17
CN108416378B true CN108416378B (zh) 2020-04-14

Family

ID=63129489

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810168701.4A Active CN108416378B (zh) 2018-02-28 2018-02-28 一种基于深度神经网络的大场景sar目标识别方法

Country Status (1)

Country Link
CN (1) CN108416378B (zh)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109165654B (zh) * 2018-08-23 2021-03-30 北京九狐时代智能科技有限公司 一种目标定位模型的训练方法和目标定位方法及装置
CN109583293B (zh) * 2018-10-12 2023-03-24 复旦大学 星载sar图像中的飞机目标检测与鉴别方法
CN109492556B (zh) * 2018-10-28 2022-09-20 北京化工大学 面向小样本残差学习的合成孔径雷达目标识别方法
CN109375186B (zh) * 2018-11-22 2022-05-31 中国人民解放军海军航空大学 基于深度残差多尺度一维卷积神经网络的雷达目标识别方法
CN109919214B (zh) * 2019-02-27 2023-07-21 南京地平线机器人技术有限公司 一种神经网络模型的训练方法及训练装置
CN109901129A (zh) * 2019-03-06 2019-06-18 中国人民解放军海军航空大学 一种海杂波中目标检测方法及系统
US11080558B2 (en) * 2019-03-21 2021-08-03 International Business Machines Corporation System and method of incremental learning for object detection
CN110032980B (zh) * 2019-04-18 2023-04-25 天津工业大学 一种基于深度学习的器官检测与识别定位方法
CN110263660A (zh) * 2019-05-27 2019-09-20 魏运 一种自适应场景变化的交通目标检测识别方法
CN110222700A (zh) * 2019-05-30 2019-09-10 五邑大学 基于多尺度特征与宽度学习的sar图像识别方法及装置
CN110647794B (zh) * 2019-07-12 2023-01-03 五邑大学 基于注意力机制的多尺度sar图像识别方法及装置
CN110427940A (zh) * 2019-08-05 2019-11-08 山东浪潮人工智能研究院有限公司 一种为物体检测模型生成预选框的方法
CN110472601B (zh) * 2019-08-20 2023-05-02 北京瞰天科技有限公司 一种遥感图像目标物体识别方法、装置和存储介质
CN111208479B (zh) * 2020-01-15 2022-08-02 电子科技大学 一种降低深度网络检测中虚警概率的方法
CN111368671A (zh) * 2020-02-26 2020-07-03 电子科技大学 基于深度学习的sar图像舰船目标检测识别一体化方法
CN112014842B (zh) * 2020-09-16 2021-03-19 国家海洋技术中心 高分三号全极化sar数据的有效波高估计方法及系统
CN112288008B (zh) * 2020-10-29 2022-03-01 四川九洲电器集团有限责任公司 一种基于深度学习的马赛克多光谱图像伪装目标检测方法
CN112766244B (zh) * 2021-04-07 2021-06-08 腾讯科技(深圳)有限公司 目标对象检测方法、装置、计算机设备和存储介质
GB2617440A (en) * 2022-03-04 2023-10-11 Samsung Electronics Co Ltd Method for classifying images using novel classes

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106599827A (zh) * 2016-12-09 2017-04-26 浙江工商大学 一种基于深度卷积神经网络的小目标快速检测方法
CN106682697A (zh) * 2016-12-29 2017-05-17 华中科技大学 一种基于卷积神经网络的端到端物体检测方法
CN107665336A (zh) * 2017-09-20 2018-02-06 厦门理工学院 智能冰箱中基于Faster‑RCNN的多目标检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7126524B2 (en) * 2004-08-04 2006-10-24 Raytheon Company Motion compensation for convolutional SAR algorithms

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106599827A (zh) * 2016-12-09 2017-04-26 浙江工商大学 一种基于深度卷积神经网络的小目标快速检测方法
CN106682697A (zh) * 2016-12-29 2017-05-17 华中科技大学 一种基于卷积神经网络的端到端物体检测方法
CN107665336A (zh) * 2017-09-20 2018-02-06 厦门理工学院 智能冰箱中基于Faster‑RCNN的多目标检测方法

Also Published As

Publication number Publication date
CN108416378A (zh) 2018-08-17

Similar Documents

Publication Publication Date Title
CN108416378B (zh) 一种基于深度神经网络的大场景sar目标识别方法
US11402494B2 (en) Method and apparatus for end-to-end SAR image recognition, and storage medium
CN110443143B (zh) 多分支卷积神经网络融合的遥感图像场景分类方法
CN108460341B (zh) 基于集成深度卷积网络的光学遥感图像目标检测方法
CN112434745B (zh) 基于多源认知融合的遮挡目标检测识别方法
CN106156744B (zh) 基于cfar检测与深度学习的sar目标检测方法
CN107229918B (zh) 一种基于全卷积神经网络的sar图像目标检测方法
CN112395987B (zh) 基于无监督域适应cnn的sar图像目标检测方法
CN109886312B (zh) 一种基于多层特征融合神经网络模型的桥梁车辆车轮检测方法
CN113160062B (zh) 一种红外图像目标检测方法、装置、设备及存储介质
CN112990334A (zh) 基于改进原型网络的小样本sar图像目标识别方法
CN109584303A (zh) 一种基于Lp范数和核范数的红外弱小目标检测方法
CN115661649B (zh) 一种基于bp神经网络的船载微波雷达图像溢油探测方法及系统
CN111563408B (zh) 多层次感知特征渐进自学习的高分辨率影像滑坡自动检测方法
CN111062321B (zh) 一种基于深度卷积网络的sar检测方法及系统
CN115499092A (zh) 天文射电暂现信号搜寻方法、系统、装置及可读存储介质
CN109409285B (zh) 基于重叠切片的遥感视频目标检测方法
CN112766381B (zh) 有限样本下属性引导的sar图像生成方法
CN113327253A (zh) 一种基于星载红外遥感影像的弱小目标检测方法
CN116012709B (zh) 一种高分辨率遥感影像建筑物提取方法及系统
CN111222576A (zh) 一种高分辨率遥感图像分类方法
CN107341798A (zh) 基于全局‑局部SPP Net的高分辨SAR图像变化检测方法
CN112818832A (zh) 一种基于部件感知的弱监督物体定位装置及方法
CN117115669B (zh) 双条件质量约束的对象级地物样本自适应生成方法及系统
CN116563313B (zh) 基于门控融合注意力的遥感影像大豆种植区域分割方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant