CN110135267B - 一种大场景sar图像细微目标检测方法 - Google Patents

一种大场景sar图像细微目标检测方法 Download PDF

Info

Publication number
CN110135267B
CN110135267B CN201910307904.1A CN201910307904A CN110135267B CN 110135267 B CN110135267 B CN 110135267B CN 201910307904 A CN201910307904 A CN 201910307904A CN 110135267 B CN110135267 B CN 110135267B
Authority
CN
China
Prior art keywords
network
loss
standard
detection
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201910307904.1A
Other languages
English (en)
Other versions
CN110135267A (zh
Inventor
韦顺军
苏浩
闫敏
周泽南
王琛
张晓玲
师君
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN201910307904.1A priority Critical patent/CN110135267B/zh
Publication of CN110135267A publication Critical patent/CN110135267A/zh
Application granted granted Critical
Publication of CN110135267B publication Critical patent/CN110135267B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出了一种大场景SAR图像细微目标检测方法,它是基于卷积神经网络和YOLO算法目标检测原理,将SAR图像目标检测变换成回归问题,引入残差网络结构和构建特征金字塔,利用1×1卷积核实现SAR图像目标不同特征层交互及跨尺度预测,使得神经网络更加有利于大场景SAR目标特征提取及小目标实时检测;同时使用K‑means聚类确定边界框,使得神经网络训练所需的锚点框数量更少、模型表示能力更强、任务更容易学习。本发明具有实现简单、检测效率高、检测精度高、检测速度快、适用性好,能够实现对大场景SAR图像细微目标的精确端到端检测。

Description

一种大场景SAR图像细微目标检测方法
技术领域
本发明属于雷达技术领域,它特别涉及合成孔径雷达(SAR)目标检测技术领域。
背景技术
合成孔径雷达(SAR)作为一种具有全天时、全天候、信息量丰富的遥感成像技术,已成为当今对地观测的重要手段,在地形图像生成、目标探测与侦察、目标精确打击、国土资源勘查和自然灾害监测等国民经济与军事领域得到越来越广泛的应用,详见文献“刘国祥,丁晓利,陈永奇,等.极具潜力的空间对地观测新技术--合成孔径雷达干涉[J].地球科学进展,2000,15(6):734-740”。随着SAR技术不断成熟,成像分辨率不断提高,使得通过SAR图像的目标检测技术受到越来越广泛的关注。
基于深度学习的目标检测技术近年来发展十分迅速。卷积神经网络作为深度学习中的一种,成为当前语音分析和图像识别领域的研究热点,详见参考文献“Krizhevsky A,Sutskever I,Hinton G E.ImageNet classification with deep convolutional neuralnetworks[C].International Conference on Neural Information ProcessingSystems.2012.”。它的权值共享网络结构使之更类似于生物神经网络,降低了网络模型的复杂度,减少了权重的数量。该优点在网络输入是多维图像时表现更为明显,图像可直接作为网络输入,避免了传统识别算法的复杂特征提取和数据重建过程。卷积神经网络是为识别二维形状而特殊设计的一个多层感知器,这种网络结构对于平移、比例缩放、倾斜或者其他形式的变形具有高度不变性,详见参考文献“Lecun Y,Bengio Y,Hinton G.Deeplearning.[J].Nature,2015,521(7553):436.”。
目前基于深度学习模型的主流目标检测算法,可以分成两大类:(1)两步检测算法,其将检测问题划分为两个阶段,首先产生候选区域,然后对候选区域分类(一般还需要对位置精修),这类算法的典型代表是基于候选区域的R-CNN系算法,如R-CNN,Fast R-CNN,Faster R-CNN等,详见参考文献“Girshick,RossB,et al."Rich Feature Hierarchiesfor Accurate Object Detection and Semantic Segmentation."computer vision andpattern recognition(2014):580-87.Print.”;(2)一步检测算法,其不需要候选区域阶段,直接产生物体的类别概率和位置坐标值,比较典型的算法如YOLO和SSD,详见参考文献“Liu L,Ouyang W,Wang X,et al.Deep Learning for Generic Object Detection:ASurvey[J].2018.”。目标检测模型的主要性能指标是检测准确度和速度,对于准确度,目标检测要考虑物体的定位准确性,而不单单是分类准确度。一般情况下,两步算法在准确度上有优势,而一步算法在速度上有优势。不过,随着研究的发展,两类算法都在两个方面做改进。
Google公司在2017年开源了TensorFlow目标检测API,详见参考网址“https://github.com/tensorflow/models/tree/master/research/object_detection”,并对主流的FasterR-CNN,R-FCN及SSD算法在MS-COCO数据集上的性能做了细致对比,详见参考文献“https://arxiv.org/pdf/1611.10012.pdf”。Facebook公司的FAIR2018年也开源了基于Caffe2的目标检测平台详见参考资料“https://github.com/facebookresearch/Detectron”,其实现了最新的MaskR-CNN,RetinaNet等检测算法,并且给出了这些算法比较结果。显然易见,准确度和速度是一对矛盾体,如何更好地平衡它们一直是目标检测算法研究的一个重要方向。
目前,已经发展出诸SAR图像目标检测算法。其中,经典的恒虚警CFAR检测算法以其简单、快速、实时性强的特点而被广泛应用于SAR图像目标检测,详见参考文献“戴尔燕,金亚秋.多尺度自适应恒虚警率(CFAR)自动检测与重构多方位SAR图像中不同尺度目标物[J].遥感技术与应用,2009,24(6):722-730.”。根据不同类型目标在SAR图像的表征形式,相关学者也提出了多种SAR图像目标检测方法,如,详见参考文献“张嘉峰,朱博,张鹏,等.Wishart分布情形下极化SAR图像目标CFAR检测解析方法[J].电子学报,2018(2).”。但这些现有SAR图像检测方法通常仅利用SAR图像的局部区域统计特性,一般仅能做到像素级别的检测,而且要求目标与背景有较高的对比度,在简单小场景下SAR目标检测性能较好,但在复杂大场景下SAR细微目标检测性能急剧下降。因此,可以结合深度学习的卷积神经网络模型优势,将卷积神经网络深度学习应用于复杂大场景SAR图像细微目标检测,进一步提升大场景SAR图像目标检测能力。
发明内容
本发明提出了一种大场景SAR图像细微目标检测方法。该方法基于卷积神经网络和YOLO算法目标检测原理,将SAR图像目标检测变换成回归问题,引入残差网络结构和构建特征金字塔,利用1×1卷积核实现SAR图像目标不同特征层交互及跨尺度预测,使得神经网络更加有利于大场景SAR目标特征提取及小目标实时检测;同时使用K-means聚类确定边界框,使得神经网络训练所需的锚点框数量更少、模型表示能力更强、任务更容易学习。本发明克服了现有技术中大场景SAR图像目标检测速度慢、准确率低、对小目标检测不敏感的问题,可以实现对大场景SAR图像细微目标的精确端到端检测。
为了方便描述本发明的内容,首先作以下术语定义:
定义1:图像金字塔
图像金字塔是一种以多分辨率来解释图像的有效但概念简单的结构。应用于图像分割,机器视觉和图像压缩。一幅图像的金字塔是一系列以金字塔形状排列的分辨率逐步降低,且来源于同一张原始图的图像集合。其通过梯次向下采样获得,直到达到某个终止条件才停止采样。金字塔的底部是待处理图像的高分辨率表示,而顶部是低分辨率的近似。我们将一层一层的图像比喻成金字塔,层级越高,则图像越小,分辨率越低,详见文献“冈萨雷斯,数字图像处理第三版,电子工业出版社,2011”。
定义2:标准数据增强技术
标准数据增强技术通过对数据集图像进行翻转、旋转、缩放、平移、增加高斯噪声、对比度变换、颜色变换等操作来扩充数据集。数据增强主要是为了减少网络的过拟合现象,通过对训练图片进行变换可以得到泛化能力更强的网络,更好的适应应用场景,详见网站“https://medium.com/nanonets/how-to-use-deep-learning-when-you-have-limited-data-part-2-data-augmentation-c26971dc8ced”。
定义3:标准Darknet-53网络模型
标准Darknet-53网络模型是用来提取图片特征的,作为全卷积网络,Darknet-53主要由卷积层、批量归一化层及跃层连接组成,激活函数采用LeakyRelu,详见参考文献“Redmon J,FarhadiA.Yolov3:Anincrementalimprovement[J].arXivpreprintarXiv:1804.02767,2018.”。
定义4:标准卷积神经分类网络Darknet训练方法
在Darknet框架上训练标准卷积神经分类网络,设置训练周期和学习率初始为0.01,以4级多项式衰减;权重衰减率和动量分别为0.0005,0.9,使用标准的数据增强方法:随机裁剪、旋转、曝光度、色调、饱和度、平移、翻转,详见文献“Redmon J,FarhadiA.Yolov3:An incremental improvement[J].arXiv preprint arXiv:1804.02767,2018.”。
定义5:标准YOLOv3网络模型
YOLO网络将目标检测问题转化为回归问题,合并分类和定位任务到一个步骤,直接预测物体的位置及类别,检测速度可以满足实时分析的要求。YOLOv3包含了新的特征提取网络Darknet-53,以及三种尺度的YOLO层,也就是预测层。通过在三种尺度上进行预测的方法,有效的增强了对不同大小物体及被遮挡物体的检测效果,并引入跃层连接以强化收敛效果,同时采用随机多尺度训练的方式增强了鲁棒性,详见文献“Redmon J,FarhadiA.Yolov3:An incremental improvement[J].arXiv preprint arXiv:1804.02767,2018.”。
定义6:特征金字塔
特征金字塔是多尺度目标检测系统中的一个基本组成部分,利用深度卷积神经网络固有的多尺度、多层级的金字塔结构去构建特征金字塔网络。使用一种自上而下的侧边连接,在所有尺度构建了高级语义特征图,有利于利用低级特征,提高小目标的检测率,详见文献“Lin T Y,Dollár P,Girshick R,et al.Feature pyramid networks for objectdetection[C]//Proceedings of the IEEE Conference on Computer Vision andPattern Recognition.2017:2117-2125.”。
定义7:损失函数(TSE)
将标准的yolov3网络的平方和损失(Sum Squared Error,SSE)函数用一种新的损失函数Tan-Squared Error(TSE)替换,TSE能更好地计算连续变量的损失;TSE能有效减低Sigmoid函数梯度消失的影响,使模型收敛更加快速。在VOC数据集上的实验结果表明,与原网络模型的表现相比,利用TSE有效提高了检测精度,且收敛更加快速,详见文献“Lyu S,Cai X,Feng R.YOLOv3 Network Based on Improved Loss Function.Computer Systemsand Applications,2019,28(2):1-7(inChinese).http://www.c-s-a.org.cn/1003-3254/6772.html”。
定义8:标准k-means聚类
使用聚类进行选择的优势是达到相同的交并比(IoU)结果时所需的锚点框数量更少,使得模型的表示能力更强,任务更容易学习。于是对于FasterR-CNN的手选先验框方法做了改进,采用k-means在训练集边界框上进行聚类产生合适的先验框。由于使用欧氏距离会使较大的边界框比小的边界框产生更大的误差,而IoU与边界框尺寸无关,因此使用IoU参与距离计算,使得通过这些锚点框获得好的IoU值。
算法过程:将每个边界框的宽和高相对整张图片的比例(wr,hr)进行聚类,得到k个锚点框,由于区域层的锚点参数是绝对值大小,因此需要将这个比例值乘上卷积层的输出特征的大小。
定义9:标准非极大值抑制方法(NMS)
目标检测可能会出现的一个问题是,模型会对同一目标做出多次预测,得到多个包围盒。NMS旨在保留最接近真实包围盒的那一个预测结果,而抑制其他的预测结果。NMS的做法是:首先,对每个类别,NMS先统计每个预测结果输出的属于该类别概率,并将预测结果按该概率由高至低排序;其次,NMS认为对应概率很小的预测结果并没有找到目标,所以将其抑制;然后,NMS在剩余的预测结果中,找到对应概率最大的预测结果,将其输出,并抑制和该包围盒有很大重叠(如IoU大于0.3)的其他包围盒;重复上一步,直到所有的预测结果均被处理。
定义10:标准的小批量梯度下降法
小批量梯度下降法综合了批量梯度下降法和随机梯度下降法,在每次更新速度和更新次数中间取得一个平衡,相对于随机梯度下降,小批量梯度下降降低了收敛波动性,即降低了参数更新的方差,使得更新更加稳定。相对于批量梯度下降,其提高了每次学习的速度。并且其不用担心内存瓶颈从而可以利用矩阵运算进行高效计算,详见文献“Ruder S.Anoverview of gradient descent optimization algorithms[J].arXiv preprint arXiv:1609.04747,2016.”。
定义11:标准通道数加倍方法
标准通道数加倍就是将特征图通过当前卷积核数量的两倍计算后得到的结果,详见文献“K.He,X.Zhang,S.Ren,and J.Sun.Deep residual learning for imagerecognition.In Proceedings of the IEEE conference on computer vision andpattern recognition,pages 770–778,2016.”。
定义12:标准GoogLeNet网络
GoogLeNet网络中1╳1卷积在相同尺寸的感受野中叠加更多的卷积,能提取到更丰富的特征;使用1╳1卷积可以进行卷积核通道数的降维和升维,实现跨通道的交互和信息整合,可以降低计算复杂度,详见文献“C.Szegedy,W.Liu,Y.Jia,P.Sermanet,S.Reed,D.Anguelov,D.Erhan,V.Vanhoucke,and A.Rabinovich.Going deeper withconvolutions.In CVPR,2015.”。
定义13:标准批量归一化方法
标准批量归一化方法(BN,Batch Normalization)具有快速训练收敛的特性和具有提高网络泛化能力的特性,详见文献“Ioffe S,Szegedy C.Batch normalization:accelerating deep network training by reducing internal covariate shift[C]International Conference on International Conference on MachineLearning.JMLR.org,2015.”。
定义14:传统的顺序合并图像方法
传统的顺序合并图像方法就是将多尺度裁剪的图像按照图像编号顺序合并为原来的大图,详见文献“Xia G S,Bai X,Ding J,et al.DOTA:A Large-scale Dataset forObject Detection in Aerial Images[J].2017.”。
本发明提供的一种大场景SAR图像细微目标检测方法,它包括以下几个步骤:
步骤1、待检测大场景SAR图像进行初始化和预处理:
大场景SAR图像预处理,包括:初始化待检测的SAR图像记为X,X的维数记为N0×N0;初始化N种滑窗切片,滑窗切片维数大小分别记为
Figure GDA0002542834360000051
将N种滑窗切片按照维数大小从小到大排序,得到一个N层图像金字塔;将待检测SAR图像中飞机、船、车、建筑、道路待检测人造目标进行人工位置和类别标注,得到目标类别的总数记为K,目标类别的位置记为Pk=(xk,yk,wk,hk),k=1,2,…,K,其中(xk,yk)分别记为第k类目标的中心坐标,(wk,hk)分别记为第k类目标的宽和高;
采用标准数据增强技术对待检测SAR图像X进行数据增强,得到数据增强后的SAR图像检测数据集,记为Ω,Ω集合中图像总数量记为NΩ;初始化数据集Ω中训练集和测试集图像数量的比例,记为K1:K2;对数据集Ω中的图像按照比例K1:K2随机划分训练集和测试集,得到的训练集记为ΩK1,得到的测试集记为ΩK2
步骤2、构建和初始化卷积神经分类网络模型:
采用标准Darknet-53网络模型构造方法,构建和初始化标准的卷积神经分类网络模型,记为W0 c,初始化网络W0 c的卷积层数,记为Nc,其中卷积核大小为ci×ci,i=1,3,…,n;初始化网络W0 c的残差块层数,记为
Figure GDA0002542834360000061
其中
Figure GDA0002542834360000062
表示第
Figure GDA0002542834360000063
次下采样后的残差块层数;
采用标准通道数加倍方法,将网络W0 c中池化层后卷积层的通道数加倍,记为
Figure GDA0002542834360000064
采用标准GoogLeNet网络构造方法,将网络
Figure GDA0002542834360000065
中卷积核大小为ci×ci,i=3,…,n之间添加大小为c1×c1的卷积核,记为
Figure GDA0002542834360000066
采用标准批量归一化方法,对网络
Figure GDA0002542834360000067
中每一个卷积层后添加批量归一化层,记为
Figure GDA0002542834360000068
采用标准Darknet-53网络构造方法,对网络
Figure GDA0002542834360000069
添加K个类别的全连接层,记为
Figure GDA00025428343600000610
采用标准的归一化指数函数softmax计算类别置信度,记为Pc
步骤3、训练卷积神经分类网络:
初始化步骤2得到网络
Figure GDA00025428343600000611
的图像批量处理大小,记为BS;初始化网络训练参数的学习率,记为LR;初始化网络训练参数的权重衰减率和动量,分别记为WDR和MO;对步骤2得到的网络模型
Figure GDA00025428343600000612
进行随机初始化,得到初始化后网络参数,记为Wold c
采用标准卷积神经分类网络Darknet训练方法,将步骤1中训练集ΩK1的图片顺序随机打乱后小批量依次通入步骤2得到的卷积神经分类网络模型
Figure GDA00025428343600000613
采用标准的小批量梯度下降法,对网络
Figure GDA00025428343600000614
中网络参数Wold c进行计算,得到计算后的网络参数,记为Wnew c
采用标准交叉熵损失函数计算网络
Figure GDA00025428343600000615
的损失函数值,记为Lossold c
采用标准卷积神经分类网络Darknet方法,利用步骤1中测试集ΩK2对网络参数Wnew c进行测试,得到测试集ΩK2在Wnew c上的损失函数值,记为Lossnew c;若Lossnew c≤Lossold c,则继续按照标准卷积神经分类网络Darknet训练方法继续训练网络
Figure GDA0002542834360000071
并计算网络参数Wnew c和损失值Lossnew c;若Lossnew c≥Lossold c,则停止训练网络
Figure GDA0002542834360000072
输出当前模型的网络参数Wnew c,网络参数Wnew c即为训练得到的卷积神经分类网络
Figure GDA0002542834360000073
的最终网络参数,记为WF c
步骤4、初始化和构建卷积神经检测网络:
按照标准YOLOv3网络模型构造方法,对步骤2得到的卷积神经分类网络
Figure GDA0002542834360000074
添加检测层,得到卷积神经检测网络,记为W0
采用步骤4.1至步骤4.4中的方法对卷积神经检测网络W0进行构建,步骤4.1至步骤4.4具体如下:
步骤4.1、跨尺度预测
采用标准深度学习特征金字塔构造方法对检测网络W0添加特征交互层,得到网络W0的NF层特征金字塔,特征金字塔记为Fii×Fii,ii=1,2,…,NF,其中Fii×Fii为特征金字塔第ii层的特征图;
对步骤2得到的网络
Figure GDA0002542834360000075
中特征图从下到上依次取出NF层特征图,记为Fii c×Fii c,ii=1,2,…,NF,其中Fii c×Fii c为第ii层特征图;
网络W0中上采样倍数记为nF ii,ii=1,2,…,nF
按照标准的特征金字塔方法将网络W0中的Fii×Fii,ii=1,2,…,NF与Fii c×Fii c,ii=1,2,…,NF特征图通过大小为ci×ci,i=1,3,…,n的卷积核进行特征融合,得到的检测网络记为
Figure GDA0002542834360000076
步骤4.2、边界框的预测
使用标准k-means聚类方法对步骤1得到的训练集ΩK1进行聚类,得到M个聚类中心作为网络
Figure GDA0002542834360000077
的先验锚点框,其中聚类中心记为
Figure GDA0002542834360000078
i0=1,2,…,M,其中
Figure GDA0002542834360000079
分别为第i0个聚类中心的坐标;每个边界框预测四个坐标值,坐标值记为(tx,ty,tw,th),对于预测的网格cellj,j=1,2,…,S×S,其中S×S为待检测图划分的网格数;
根据图像左上角的偏移(cx,cy)和边界框的宽和高(pω,ph)利用公式bx=σ(tx)+cx,by=σ(ty)+cy
Figure GDA00025428343600000710
计算边界框(bx,bybω,bh),其中σ(tx),σ(ty)为中心点坐标,(bx,by)为偏移后边界框的中心坐标,(bω,bh)为偏移后边界框的宽和高;
每个小格cellj会对应B个边界框,记为
Figure GDA0002542834360000081
i1=1,2,…,B,边界框
Figure GDA0002542834360000082
的宽高范围为步骤1中得到的Mn×Mn;对第i1个边界框通过逻辑回归预测一个物体的得分,记为
Figure GDA0002542834360000083
其中
Figure GDA0002542834360000084
代表cellj是否有物体及定位准确度;
采用标准的YOLOv3网络模型中标准IOU计算方法,计算预测的边界框与真实的边框值的IoU,如果IoU≥α,那么
Figure GDA0002542834360000085
否则预测的边界框
Figure GDA0002542834360000086
步骤4.3、计算损失函数
将步骤1中训练集ΩK1的图像编号随机打乱后排列成一个图像编号向量,记为Limg;按照Limg中图像编号顺序,依次取出一个批量的图像编号,记为Limg B;按照Limg B中图像编号读取训练集ΩK1的图像作为网络
Figure GDA0002542834360000087
的输入,记为S1,其中向量S1的维度大小为S×S×(B×(5+C));
采用标准的YOLOv3网络模型方法,将向量S1通过检测网络W0计算输出的一组结果向量记为S2,其中向量S2的维度大小为S×S×(B×(5+C));其中,S为划分网格数,B为每个网格负责目标个数,C为类别个数;
采用损失函数TSE公式Loss=lossloc+losscon+lossclass,计算S1和S2的损失函数值,记为Loss,其中lossloc为定位损失,losscoc为置信度损失,lossclass为分类损失;
步骤5、训练和调整卷积神经检测网络
初始化训练卷积神经检测网络
Figure GDA0002542834360000088
的图像批量处理大小,记为BS1;初始化学习率,记为LR1;初始化权重衰减率和动量,分别记为WDR1和MO1;将步骤3得到的卷积神经分类网络模型
Figure GDA0002542834360000089
的参数WF c作为检测网络
Figure GDA00025428343600000810
的初始化参数,得到初始化后的卷积神经检测网络Wold
采用标准的卷积神经检测网络Darknet训练技术,将步骤1中训练集ΩK1的图片顺序随机打乱后小批量依次通入步骤4得到的卷积神经检测网络模型
Figure GDA00025428343600000811
采用标准的小批量梯度下降法,对卷积神经检测网络Wold的网络参数进行计算,得到新的网络参数,记为Wnew
采用步骤4.3中的损失函数Loss,计算
Figure GDA0002542834360000091
的损失函数值,记为Lossold
采用标准的检测网络Darknet训练技术方法,利用步骤1中测试集ΩK2对Wnew进行测试,得到测试集ΩK2在Wnew上的总损失值,记为Lossnew;若Lossnew≤Lossold,则按照标准的检测网络Darknet训练方法继续训练模型
Figure GDA0002542834360000092
并计算网络参数Wnew和损失值Lossnew;若Lossnew≥Lossold,则停止训练模型
Figure GDA0002542834360000093
输出当前模型的网络参数Wnew,网络参数Wnew即为训练得到的卷积神经检测网络
Figure GDA0002542834360000094
的最终网络参数;采用标准的检测网络Darknet训练技术中的多尺度训练策略,将网络
Figure GDA0002542834360000095
每经过p个批量训练后,随机选择图像变化尺度因子α=[α12345],将步骤1中图像尺度
Figure GDA0002542834360000096
与α相乘,得到网络
Figure GDA0002542834360000097
的输入图像尺度;将训练网络
Figure GDA0002542834360000098
得到的最终检测网络模型和参数记为Wresult
步骤6、对待检测大场景SAR图像进行检测:
初始化待检测大场景SAR图像,记为ΩI;采用步骤1中SAR图像预处理方法对待检图像ΩI进行预处理,得到切片图像,记为ΩT
把切片图像ΩT按照切片图像编号顺序送入步骤5得到的卷积神经检测网络Wresult进行检测,输出切片图像ΩT的检测结果,记为ΩO
采用传统的顺序合并图像方法,将切片图像结果ΩO按照切片图像编号顺序进行合并;
采用标准非极大值抑制方法,消除检测网络Wresult中同一目标多次预测及重复框,得到的检测图像结果,记为ΩR;图像ΩR即为最终的大场景SAR图像细微目标检测结果。
本发明的创新点在于把目标检测问题看作回归问题,引入残差网络结构和构建特征金字塔,利用1×1卷积核实现不同特征层的交互,来对图像目标进行跨尺度的预测,使得骨干网络更加有利于特征提取,更加有利于小目标的检测,并且能够实现实时的目标检测;同时使用K-means聚类来确定边界框的先验,达到相同的交并比(IoU)结果时所需的锚点框数量更少,使得模型的表示能力更强,任务更容易学习;实现端到端训练及推断;
本发明的优点在于实现简单、检测效率高、检测精度高、检测速度快、适用性好,能有效解决大场景SAR图像细微目标的检测问题。
附图说明
图1为本发明所采用检测网络结构图;
图2为本发明所设计提供方法的处理流程示意框图;
具体实施方式
本发明主要采用仿真实验的方法进行验证,所有步骤、结论都在tensorflow1.12.0上验证正确。具体实施步骤如下:
步骤1、待检测大场景SAR图像进行初始化和预处理:
大场景SAR图像预处理,包括:初始化待检测的SAR图像记为X,X的维数为N0×N0=5000×5000;初始化N=3种滑窗切片,滑窗切片维数大小分别为M1×M1=600×600,M2×M2=800×800,M3×M3=1000×1000;将N=3种滑窗切片按照维数大小从小到大排序,得到一个N=3层图像金字塔;将待检测SAR图像中飞机、船、车、建筑、道路待检测人造目标进行人工位置和类别标注,得到目标类别的总数为K=5,目标类别的位置记为Pk=(xk,yk,wk,hk),k=1,2,…,5,其中(xk,yk)分别记为第k类目标的中心坐标,(wk,hk)分别记为第k类目标的宽和高;
采用标准数据增强技术对待检测SAR图像X进行数据增强得到数据增强后的SAR图像检测数据集,记为Ω,Ω集合中图像总数量记为NΩ;初始化数据集Ω中训练集和测试集图像数量的比例,其中K1:K2=8:2;对数据集Ω中的图像按照比例8:2随机划分训练集和测试集,得到的训练集记为Ω8,得到的测试集记为Ω2
步骤2、构建和初始化卷积神经分类网络模型:
采用标准Darknet-53网络模型构造方法,构建和初始化标准的卷积神经分类网络模型,记为W0 c,初始化网络W0 c的卷积层数,记为Nc=53,其中卷积核大小分别为c1×c1=1×1和c3×c3=3×3;初始化网络W0 c的残差块层数,分别为Rc 1=1,Rc 2=2,Rc 3=8,Rc 4=8,Rc 5=4,其中
Figure GDA0002542834360000101
表示第
Figure GDA0002542834360000102
次下采样后的残差块层数;
采用标准通道数加倍方法,将网络W0 c中池化层后卷积层的通道数加倍,记为
Figure GDA0002542834360000103
采用标准GoogLeNet网络构造方法,将网络
Figure GDA0002542834360000104
中卷积核大小为c3×c3=3×3之间添加大小为c1×c1=1×1的卷积核,记为
Figure GDA0002542834360000105
采用标准批量归一化方法,对网络
Figure GDA0002542834360000111
中每一个卷积层后添加批量归一化层,记为
Figure GDA0002542834360000112
采用标准Darknet-53网络构造方法,对网络
Figure GDA0002542834360000113
添加K=5个类别的全连接层,记为
Figure GDA0002542834360000114
采用标准的归一化指数函数softmax计算类别置信度,记为Pc
步骤3、训练卷积神经分类网络:
初始化步骤2得到网络
Figure GDA0002542834360000115
的图像批量处理大小,记为BS=128;初始化网络训练参数的学习率,记为LR=0.01;初始化网络训练参数的权重衰减率和动量,分别记为WDR=0.0005和MO=0.9;对步骤2得到的网络
Figure GDA0002542834360000116
中网络权重系数参数进行随机初始化,得到初始化后网络参数,记为Wold c
采用标准卷积神经分类网络Darknet训练方法,将步骤1中训练集Ω8的图片顺序随机打乱后小批量依次通入步骤2得到的卷积神经分类网络模型
Figure GDA0002542834360000117
采用标准的小批量梯度下降法,对网络
Figure GDA0002542834360000118
中网络参数Wold c进行计算,得到计算后的网络参数,记为Wnew c
采用标准交叉熵损失函数计算网络
Figure GDA0002542834360000119
的损失函数值,记为Lossold c
采用标准卷积神经分类网络Darknet方法,利用步骤1中测试集Ω2对网络参数Wnew c进行测试,得到测试集Ω2在Wnew c上的损失函数值,记为Lossnew c;若Lossnew c≤Lossold c,则继续按照标准卷积神经分类网络Darknet训练方法继续训练网络
Figure GDA00025428343600001110
并计算网络参数Wnew c和损失值Lossnew c;若Lossnew c≥Lossold c,则停止训练网络
Figure GDA00025428343600001111
输出当前模型的网络参数Wnew c,网络参数Wnew c即为训练得到的卷积神经分类网络
Figure GDA00025428343600001112
的最终网络参数,记为WF c
步骤4、初始化和构建卷积神经检测网络:
按照标准YOLOv3网络模型构造方法,对步骤2得到的卷积神经分类网络
Figure GDA00025428343600001113
添加检测层,得到卷积神经检测网络,记为W0
采用步骤4.1至步骤4.4中的方法对卷积神经检测网络W0进行构建,步骤4.1至步骤4.4具体如下:
步骤4.1、跨尺度预测
采用标准深度学习特征金字塔构造方法对检测网络W0添加特征交互层,得到网络W0的NF=3层特征金字塔,特征金字塔记为Fii×Fii,ii=1,2,3,其中Fii×Fii为特征金字塔第ii层的特征图;
对步骤2得到的网络
Figure GDA0002542834360000121
中特征图从下到上依次取出NF=3层特征图,记为Fii c×Fii c,ii=1,2,3,其中Fii c×Fii c为第ii层特征图;
网络W0中上采样倍数分别记为nF 1=2,nF 2=4;
按照标准的特征金字塔方法将网络W0中的Fii×Fii,ii=1,2,3与Fii c×Fii c,ii=1,2,3特征图通过大小为ci×ci,i=1,3,…,n的卷积核进行特征融合,得到的检测网络记为
Figure GDA0002542834360000122
步骤4.2、边界框的预测
使用标准k-means聚类方法对步骤1得到的训练集Ω8进行聚类,得到M=9个聚类中心作为网络
Figure GDA0002542834360000123
的先验锚点框,其中聚类中心记为
Figure GDA0002542834360000124
i0=1,2,…,9,其中
Figure GDA0002542834360000125
分别为第i0个聚类中心的坐标;每个边界框预测四个坐标值,坐标值记为(tx,ty,tw,th),对于预测的网格cellj,j=1,2,…,19×19,其中19×19为待检测图划分的网格数;
根据图像左上角的偏移(cx,cy)和边界框的宽和高(pω,ph)利用公式bx=σ(tx)+cx,by=σ(ty)+cy
Figure GDA0002542834360000126
计算边界框(bx,bybω,bh),其中σ(tx),σ(ty)为中心点坐标,(bx,by)为偏移后边界框的中心坐标,(bω,bh)为偏移后边界框的宽和高;
每个小格cellj会对应B个边界框,记为
Figure GDA0002542834360000127
i1=1,2,3,边界框
Figure GDA0002542834360000128
的宽高范围为步骤1中得到的Mn×Mn;对第i1个边界框通过逻辑回归预测一个物体的得分,记为
Figure GDA0002542834360000129
其中
Figure GDA00025428343600001210
代表cellj是否有物体及定位准确度;
采用标准的YOLOv3网络模型中标准IOU计算方法,计算预测的边界框与真实的边框值的IoU,如果IoU≥α=0.5,那么
Figure GDA00025428343600001211
否则预测的边界框
Figure GDA00025428343600001212
步骤4.3、计算损失函数
将步骤1中训练集Ω8的图像编号随机打乱后排列成一个图像编号向量,记为Limg;按照Limg中图像编号顺序,依次取出一个批量的图像编号,记为Limg B;按照Limg B中图像编号读取训练集Ω8的图像作为网络
Figure GDA0002542834360000131
的输入,记为S1,其中向量S1的维度大小为S×S×(B×(5+C));
采用标准的YOLOv3网络模型方法,将向量S1通过检测网络W0计算输出的一组结果向量记为S2,其中向量S2的维度大小为S×S×(B×(5+C));其中,S为划分网格数,B为每个网格负责目标个数,C为类别个数;
采用损失函数TSE公式Loss=lossloc+losscon+lossclass,计算S1和S2的损失函数值,记为Loss,其中lossloc为定位损失,losscoc为置信度损失,lossclass为分类损失;
步骤5、训练和调整卷积神经检测网络
初始化训练卷积神经检测网络
Figure GDA0002542834360000132
的图像批量处理大小,记为BS1=64;初始化学习率,记为LR1=0.01,初始化权重衰减率和动量,分别记为WDR1=0.0005,MO1=0.9;将步骤3得到的卷积神经分类网络模型
Figure GDA0002542834360000133
的参数WF c作为检测网络的初始化参数,得到初始化后的卷积神经检测网络Wold
采用标准的卷积神经检测网络Darknet训练技术,将步骤1中训练集Ω8的图片顺序随机打乱后小批量依次通入步骤4得到的卷积神经检测网络模型
Figure GDA0002542834360000134
采用标准的小批量梯度下降法,对卷积神经检测网络Wold的网络参数进行计算,得到新的网络参数,记为Wnew
采用步骤4.3中的损失函数Loss,计算
Figure GDA0002542834360000135
的损失函数值,记为Lossold
采用标准的检测网络Darknet训练技术方法,利用步骤1中测试集Ω2对Wnew进行测试,得到测试集Ω2在Wnew上的总损失值,记为Lossnew;若Lossnew≤Lossold,则按照标准的检测网络Darknet训练方法继续训练模型
Figure GDA0002542834360000136
并计算网络参数Wnew和损失值Lossnew;若Lossnew≥Lossold,则停止训练模型
Figure GDA0002542834360000137
输出当前模型的网络参数Wnew,网络参数Wnew即为训练得到的卷积神经检测网络
Figure GDA0002542834360000138
的最终网络参数;采用标准的检测网络Darknet训练技术中的多尺度训练策略,将网络
Figure GDA0002542834360000139
每经过p=10个批量训练后,随机选择图像变化尺度因子α=[α12345],将步骤1中图像尺度
Figure GDA00025428343600001310
与α相乘,得到网络
Figure GDA00025428343600001311
的输入图像尺度;将训练网络
Figure GDA0002542834360000141
得到的最终检测网络模型和参数记为Wresult
步骤6、对待检测大场景SAR图像进行检测:
初始化待检测大场景SAR图像,记为ΩI;采用步骤1中SAR图像预处理方法对待检图像ΩI进行预处理,得到切片图像,记为ΩT
把切片图像ΩT按照切片图像编号顺序送入步骤5得到的卷积神经检测网络Wresult进行检测,输出切片图像ΩT的检测结果,记为ΩO
采用传统的顺序合并图像方法,将切片图像结果ΩO按照切片图像编号顺序进行合并;
采用标准非极大值抑制方法,消除检测网络Wresult中同一目标多次预测及重复框,得到的检测图像结果,记为ΩR;图像ΩR即为最终的大场景SAR图像细微目标检测结果。

Claims (1)

1.一种大场景SAR图像细微目标检测方法,它包括以下几个步骤:
步骤1、待检测大场景SAR图像进行初始化和预处理:
大场景SAR图像预处理,包括:初始化待检测的SAR图像记为X,X的维数记为N0×N0;初始化N种滑窗切片,滑窗切片维数大小分别记为
Figure FDA0002542834350000011
将N种滑窗切片按照维数大小从小到大排序,得到一个N层图像金字塔;将待检测SAR图像中飞机、船、车、建筑、道路待检测人造目标进行人工位置和类别标注,得到目标类别的总数记为K,目标类别的位置记为Pk=(xk,yk,wk,hk),k=1,2,…,K,其中(xk,yk)分别记为第k类目标的中心坐标,(wk,hk)分别记为第k类目标的宽和高;
采用标准数据增强技术对待检测SAR图像X进行数据增强,得到数据增强后的SAR图像检测数据集,记为Ω,Ω集合中图像总数量记为NΩ;初始化数据集Ω中训练集和测试集图像数量的比例,记为K1:K2;对数据集Ω中的图像按照比例K1:K2随机划分训练集和测试集,得到的训练集记为ΩK1,得到的测试集记为ΩK2
步骤2、构建和初始化卷积神经分类网络模型:
采用标准Darknet-53网络模型构造方法,构建和初始化标准的卷积神经分类网络模型,记为W0 c,初始化网络W0 c的卷积层数,记为Nc,其中卷积核大小为ci×ci,i=1,3,…,n;初始化网络W0 c的残差块层数,记为
Figure FDA0002542834350000012
其中
Figure FDA0002542834350000013
表示第
Figure FDA0002542834350000014
次下采样后的残差块层数;
采用标准通道数加倍方法,将网络W0 c中池化层后卷积层的通道数加倍,记为
Figure FDA0002542834350000015
采用标准GoogLeNet网络构造方法,将网络
Figure FDA0002542834350000016
中卷积核大小为ci×ci,i=3,…,n之间添加大小为c1×c1的卷积核,记为
Figure FDA0002542834350000017
采用标准批量归一化方法,对网络
Figure FDA0002542834350000018
中每一个卷积层后添加批量归一化层,记为
Figure FDA0002542834350000019
采用标准Darknet-53网络构造方法,对网络
Figure FDA00025428343500000110
添加K个类别的全连接层,记为
Figure FDA00025428343500000111
采用标准的归一化指数函数softmax计算类别置信度,记为Pc
步骤3、训练卷积神经分类网络:
初始化步骤2得到网络
Figure FDA00025428343500000112
的图像批量处理大小,记为BS;初始化网络训练参数的学习率,记为LR;初始化网络训练参数的权重衰减率和动量,分别记为WDR和MO;对步骤2得到的网络模型
Figure FDA0002542834350000021
进行随机初始化,得到初始化后网络参数,记为Wold c
采用标准卷积神经分类网络Darknet训练方法,将步骤1中训练集ΩK1的图片顺序随机打乱后小批量依次通入步骤2得到的卷积神经分类网络模型
Figure FDA0002542834350000022
采用标准的小批量梯度下降法,对网络
Figure FDA0002542834350000023
中网络参数Wold c进行计算,得到计算后的网络参数,记为Wnew c
采用标准交叉熵损失函数计算网络
Figure FDA0002542834350000024
的损失函数值,记为Lossold c
采用标准卷积神经分类网络Darknet方法,利用步骤1中测试集ΩK2对网络参数Wnew c进行测试,得到测试集ΩK2在Wnew c上的损失函数值,记为Lossnew c;若Lossnew c≤Lossold c,则继续按照标准卷积神经分类网络Darknet训练方法继续训练网络
Figure FDA0002542834350000025
并计算网络参数Wnew c和损失值Lossnew c;若Lossnew c≥Lossold c,则停止训练网络
Figure FDA0002542834350000026
输出当前模型的网络参数Wnew c,网络参数Wnew c即为训练得到的卷积神经分类网络
Figure FDA0002542834350000027
的最终网络参数,记为WF c
步骤4、初始化和构建卷积神经检测网络:
按照标准YOLOv3网络模型构造方法,对步骤2得到的卷积神经分类网络
Figure FDA0002542834350000028
添加检测层,得到卷积神经检测网络,记为W0
采用步骤4.1至步骤4.4中的方法对卷积神经检测网络W0进行构建,步骤4.1至步骤4.4具体如下:
步骤4.1、跨尺度预测
采用标准深度学习特征金字塔构造方法对检测网络W0添加特征交互层,得到网络W0的NF层特征金字塔,特征金字塔记为Fii×Fii,ii=1,2,…,NF,其中Fii×Fii为特征金字塔第ii层的特征图;
对步骤2得到的网络
Figure FDA0002542834350000029
中特征图从下到上依次取出NF层特征图,记为Fii c×Fii c,ii=1,2,…,NF,其中Fii c×Fii c为第ii层特征图;
网络W0中上采样倍数记为nF ii,ii=1,2,…,nF
按照标准的特征金字塔方法将网络W0中的Fii×Fii,ii=1,2,…,NF与Fii c×Fii c,ii=1,2,…,NF特征图通过大小为ci×ci,i=1,3,…,n的卷积核进行特征融合,得到的检测网络记为
Figure FDA0002542834350000031
步骤4.2、边界框的预测
使用标准k-means聚类方法对步骤1得到的训练集ΩK1进行聚类,得到M个聚类中心作为网络
Figure FDA0002542834350000032
的先验锚点框,其中聚类中心记为
Figure FDA0002542834350000033
i0=1,2,…,M,其中
Figure FDA0002542834350000034
分别为第i0个聚类中心的坐标;每个边界框预测四个坐标值,坐标值记为(tx,ty,tw,th),对于预测的网格cellj,j=1,2,…,S×S,其中S×S为待检测图划分的网格数;
根据图像左上角的偏移(cx,cy)和边界框的宽和高(pω,ph)利用公式bx=σ(tx)+cx,by=σ(ty)+cy
Figure FDA0002542834350000035
计算边界框(bx,bybω,bh),其中σ(tx),σ(ty)为中心点坐标,(bx,by)为偏移后边界框的中心坐标,(bω,bh)为偏移后边界框的宽和高;
每个小格cellj会对应B个边界框,记为
Figure FDA0002542834350000036
i1=1,2,…,B,边界框
Figure FDA0002542834350000037
的宽高范围为步骤1中得到的Mn×Mn;对第i1个边界框通过逻辑回归预测一个物体的得分,记为
Figure FDA0002542834350000038
其中
Figure FDA0002542834350000039
代表cellj是否有物体及定位准确度;
采用标准的YOLOv3网络模型中标准IOU计算方法,计算预测的边界框与真实的边框值的IoU,如果IoU≥α,那么
Figure FDA00025428343500000310
否则预测的边界框
Figure FDA00025428343500000311
步骤4.3、计算损失函数
将步骤1中训练集ΩK1的图像编号随机打乱后排列成一个图像编号向量,记为Limg;按照Limg中图像编号顺序,依次取出一个批量的图像编号,记为Limg B;按照Limg B中图像编号读取训练集ΩK1的图像作为网络
Figure FDA00025428343500000312
的输入,记为S1,其中向量S1的维度大小为S×S×(B×(5+C));
采用标准的YOLOv3网络模型方法,将向量S1通过检测网络W0计算输出的一组结果向量记为S2,其中向量S2的维度大小为S×S×(B×(5+C));其中,S为划分网格数,B为每个网格负责目标个数,C为类别个数;
采用损失函数TSE公式Loss=lossloc+losscon+lossclass,计算S1和S2的损失函数值,记为Loss,其中lossloc为定位损失,losscon为置信度损失,lossclass为分类损失;
步骤5、训练和调整卷积神经检测网络
初始化训练卷积神经检测网络
Figure FDA0002542834350000041
的图像批量处理大小,记为BS1;初始化学习率,记为LR1;初始化权重衰减率和动量,分别记为WDR1和MO1;将步骤3得到的卷积神经分类网络模型
Figure FDA0002542834350000042
的参数WF c作为检测网络
Figure FDA0002542834350000043
的初始化参数,得到初始化后的卷积神经检测网络Wold
采用标准的卷积神经检测网络Darknet训练技术,将步骤1中训练集ΩK1的图片顺序随机打乱后小批量依次通入步骤4得到的卷积神经检测网络模型
Figure FDA0002542834350000044
采用标准的小批量梯度下降法,对卷积神经检测网络Wold的网络参数进行计算,得到新的网络参数,记为Wnew
采用步骤4.3中的损失函数Loss,计算
Figure FDA0002542834350000045
的损失函数值,记为Lossold
采用标准的检测网络Darknet训练技术方法,利用步骤1中测试集ΩK2对Wnew进行测试,得到测试集ΩK2在Wnew上的总损失值,记为Lossnew;若Lossnew≤Lossold,则按照标准的检测网络Darknet训练方法继续训练模型
Figure FDA0002542834350000046
并计算网络参数Wnew和损失值Lossnew;若Lossnew≥Lossold,则停止训练模型
Figure FDA0002542834350000047
输出当前模型的网络参数Wnew,网络参数Wnew即为训练得到的卷积神经检测网络
Figure FDA0002542834350000048
的最终网络参数;采用标准的检测网络Darknet训练技术中的多尺度训练策略,将网络
Figure FDA0002542834350000049
每经过p个批量训练后,随机选择图像变化尺度因子α=[α12345],将步骤1中图像尺度
Figure FDA00025428343500000410
与α相乘,得到网络
Figure FDA00025428343500000411
的输入图像尺度;将训练网络
Figure FDA00025428343500000412
得到的最终检测网络模型和参数记为Wresult
步骤6、对待检测大场景SAR图像进行检测:
初始化待检测大场景SAR图像,记为ΩI;采用步骤1中SAR图像预处理方法对待检图像ΩI进行预处理,得到切片图像,记为ΩT
把切片图像ΩT按照切片图像编号顺序送入步骤5得到的卷积神经检测网络Wresult进行检测,输出切片图像ΩT的检测结果,记为ΩO
采用传统的顺序合并图像方法,将切片图像结果ΩO按照切片图像编号顺序进行合并;
采用标准非极大值抑制方法,消除检测网络Wresult中同一目标多次预测及重复框,得到的检测图像结果,记为ΩR;图像ΩR即为最终的大场景SAR图像细微目标检测结果。
CN201910307904.1A 2019-04-17 2019-04-17 一种大场景sar图像细微目标检测方法 Expired - Fee Related CN110135267B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910307904.1A CN110135267B (zh) 2019-04-17 2019-04-17 一种大场景sar图像细微目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910307904.1A CN110135267B (zh) 2019-04-17 2019-04-17 一种大场景sar图像细微目标检测方法

Publications (2)

Publication Number Publication Date
CN110135267A CN110135267A (zh) 2019-08-16
CN110135267B true CN110135267B (zh) 2020-09-25

Family

ID=67570281

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910307904.1A Expired - Fee Related CN110135267B (zh) 2019-04-17 2019-04-17 一种大场景sar图像细微目标检测方法

Country Status (1)

Country Link
CN (1) CN110135267B (zh)

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110503070A (zh) * 2019-08-29 2019-11-26 电子科技大学 基于航拍图像目标检测处理技术的交通自动化监测方法
CN110738113B (zh) * 2019-09-12 2023-07-28 天津大学 一种基于邻近尺度特征滤除与转移的物体检测方法
CN110889324A (zh) * 2019-10-12 2020-03-17 南京航空航天大学 一种基于yolo v3面向末端制导的热红外图像目标识别方法
CN110826428A (zh) * 2019-10-22 2020-02-21 电子科技大学 一种高速的sar图像中船只检测方法
CN110781839A (zh) * 2019-10-29 2020-02-11 北京环境特性研究所 一种基于滑窗的大尺寸图像中小目标识别方法
CN110852222A (zh) * 2019-10-31 2020-02-28 上海交通大学 一种基于目标检测的校园走廊场景智能监控方法
CN110852243B (zh) * 2019-11-06 2022-06-28 中国人民解放军战略支援部队信息工程大学 一种基于改进YOLOv3的道路交叉口检测方法及装置
CN111062321B (zh) * 2019-12-17 2023-05-30 佛山科学技术学院 一种基于深度卷积网络的sar检测方法及系统
CN111241970B (zh) * 2020-01-06 2023-06-27 电子科技大学 基于yolov3算法与滑动窗口策略的SAR影像海面舰船检测方法
CN111222474B (zh) * 2020-01-09 2022-11-04 电子科技大学 一种任意尺度的高分辨率图像小目标检测方法
CN111274894A (zh) * 2020-01-15 2020-06-12 太原科技大学 一种基于改进YOLOv3的人员在岗状态检测方法
CN111353544B (zh) * 2020-03-05 2023-07-25 天津城建大学 一种基于改进的Mixed Pooling-YOLOV3目标检测方法
CN111368769B (zh) * 2020-03-10 2024-03-12 大连东软信息学院 基于改进锚点框生成模型的船舶多目标检测方法
CN111597899B (zh) * 2020-04-16 2023-08-11 浙江工业大学 景区地面塑料瓶探测方法
CN111582345A (zh) * 2020-04-29 2020-08-25 中国科学院重庆绿色智能技术研究院 一种小样本下复杂环境的目标识别方法
CN111667461B (zh) * 2020-05-06 2023-08-29 青岛科技大学 一种输电线路异常目标检测方法
CN111967292B (zh) * 2020-05-25 2022-05-17 电子科技大学 一种轻量级的sar图像船只检测方法
CN111666854B (zh) * 2020-05-29 2022-08-30 武汉大学 融合统计显著性的高分辨率sar影像车辆目标检测方法
CN111798490B (zh) * 2020-07-08 2022-07-01 电子科技大学 一种视频sar车辆目标检测方法
CN111986252B (zh) * 2020-07-16 2024-03-29 浙江工业大学 一种用于目标分割网络中候选边界框精准定位的方法
CN112115911A (zh) * 2020-09-28 2020-12-22 安徽大学 一种基于深度学习的轻量型sar图像目标检测方法
CN112184756A (zh) * 2020-09-30 2021-01-05 北京理工大学 一种基于深度学习的单目标快速检测方法
CN112285712B (zh) * 2020-10-15 2023-09-15 电子科技大学 一种提高sar图像中靠岸船只检测精度的方法
CN112215188B (zh) * 2020-10-21 2024-08-13 平安国际智慧城市科技股份有限公司 交警姿态识别方法、装置、设备及存储介质
CN112085010B (zh) * 2020-10-28 2022-07-12 成都信息工程大学 一种基于图像识别的口罩检测和部署系统及方法
CN112183667B (zh) * 2020-10-31 2022-06-14 哈尔滨理工大学 一种协同深度学习的绝缘子故障检测方法
CN112364925B (zh) * 2020-11-16 2021-06-04 哈尔滨市科佳通用机电股份有限公司 一种基于深度学习的滚动轴承甩油故障识别方法
CN112434586B (zh) * 2020-11-16 2023-11-14 中山大学 一种基于域自适应学习的多复杂场景目标检测方法
CN112541481A (zh) * 2020-12-25 2021-03-23 南京航空航天大学 一种基于深度学习的对海探测雷达目标检测方法
CN113393457B (zh) * 2021-07-14 2023-02-28 长沙理工大学 一种结合残差密集块与位置注意力的无锚框目标检测方法
CN113484862B (zh) * 2021-08-04 2023-10-17 电子科技大学 一种自适应的高分宽幅sar清晰重构成像方法
CN113627310B (zh) * 2021-08-04 2023-11-24 中国电子科技集团公司第十四研究所 一种背景与尺度感知的sar舰船目标检测方法
CN113780113A (zh) * 2021-08-25 2021-12-10 廊坊中油朗威工程项目管理有限公司 管道违章行为识别方法
CN114998929B (zh) * 2022-05-27 2024-06-25 江苏慧眼数据科技股份有限公司 鱼眼相机边界框识别方法、系统、设备及应用
CN115631344B (zh) * 2022-10-06 2023-05-09 中国人民解放军国防科技大学 一种基于特征自适应聚合的目标检测方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101975940B (zh) * 2010-09-27 2012-11-28 北京理工大学 基于分割组合的sar图像自适应恒虚警率目标检测方法
CN104408482B (zh) * 2014-12-08 2019-02-12 电子科技大学 一种高分辨率sar图像目标检测方法
US10235589B2 (en) * 2015-09-08 2019-03-19 The Johns Hopkins University Small maritime target detector
CN106228124B (zh) * 2016-07-17 2019-03-08 西安电子科技大学 基于卷积神经网络的sar图像目标检测方法
CN107169421B (zh) * 2017-04-20 2020-04-28 华南理工大学 一种基于深度卷积神经网络的汽车驾驶场景目标检测方法
CN107742113B (zh) * 2017-11-08 2019-11-19 电子科技大学 一种基于目标数量后验的sar图像集群目标检测方法

Also Published As

Publication number Publication date
CN110135267A (zh) 2019-08-16

Similar Documents

Publication Publication Date Title
CN110135267B (zh) 一种大场景sar图像细微目标检测方法
Ghaderizadeh et al. Hyperspectral image classification using a hybrid 3D-2D convolutional neural networks
CN112396002B (zh) 一种基于SE-YOLOv3的轻量级遥感目标检测方法
Gao et al. Multiscale residual network with mixed depthwise convolution for hyperspectral image classification
CN108038445B (zh) 一种基于多视角深度学习框架的sar自动目标识别方法
CN114202672A (zh) 一种基于注意力机制的小目标检测方法
CN111259930A (zh) 自适应注意力指导机制的一般性目标检测方法
CN112488210A (zh) 一种基于图卷积神经网络的三维点云自动分类方法
Zhou et al. Scale adaptive image cropping for UAV object detection
CN110728658A (zh) 一种基于深度学习的高分辨率遥感影像弱目标检测方法
CN109934282A (zh) 一种基于sagan样本扩充和辅助信息的sar目标分类方法
CN105069478B (zh) 基于超像素张量稀疏编码的高光谱遥感地物分类方法
Anderson et al. Fuzzy choquet integration of deep convolutional neural networks for remote sensing
CN112950780B (zh) 一种基于遥感影像的网络地图智能生成方法及系统
Fan et al. A novel sonar target detection and classification algorithm
CN113128564B (zh) 一种基于深度学习的复杂背景下典型目标检测方法及系统
CN113344045B (zh) 一种结合hog特征提高sar船只分类精度的方法
CN113705331B (zh) 一种基于四元特征金字塔网络的sar船只检测方法
CN112270285B (zh) 一种基于稀疏表示和胶囊网络的sar图像变化检测方法
CN117079098A (zh) 一种基于位置编码的空间小目标检测方法
CN113743417A (zh) 语义分割方法和语义分割装置
CN113139512A (zh) 基于残差和注意力的深度网络高光谱影像分类方法
CN114926693A (zh) 基于加权距离的sar图像小样本识别方法及装置
CN114332473A (zh) 目标检测方法、装置、计算机设备、存储介质及程序产品
CN106096658A (zh) 基于无监督深度空间特征编码的航拍图像分类方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20200925

CF01 Termination of patent right due to non-payment of annual fee