CN106156744B - 基于cfar检测与深度学习的sar目标检测方法 - Google Patents

基于cfar检测与深度学习的sar目标检测方法 Download PDF

Info

Publication number
CN106156744B
CN106156744B CN201610541067.5A CN201610541067A CN106156744B CN 106156744 B CN106156744 B CN 106156744B CN 201610541067 A CN201610541067 A CN 201610541067A CN 106156744 B CN106156744 B CN 106156744B
Authority
CN
China
Prior art keywords
layer
network
detection
pixel
rcnn
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610541067.5A
Other languages
English (en)
Other versions
CN106156744A (zh
Inventor
陈渤
黄孟缘
张志斌
刘宏伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Xian Cetc Xidian University Radar Technology Collaborative Innovation Research Institute Co Ltd
Original Assignee
Xidian University
Xian Cetc Xidian University Radar Technology Collaborative Innovation Research Institute Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University, Xian Cetc Xidian University Radar Technology Collaborative Innovation Research Institute Co Ltd filed Critical Xidian University
Priority to CN201610541067.5A priority Critical patent/CN106156744B/zh
Publication of CN106156744A publication Critical patent/CN106156744A/zh
Application granted granted Critical
Publication of CN106156744B publication Critical patent/CN106156744B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于CFAR检测与深度学习的SAR目标检测方法,其实现步骤为:(1)获取SAR图像;(2)扩充训练样本集;(3)构建Faster‑RCNN模型的网络结构;(4)获得训练好的RPN模型;(5)获得训练好的Fast‑RCNN模型;(6)获得微调的RPN网络;(7)获得训练好的Faster‑RCNN模型;(8)目标检测。本发明实现了端对端的图像级别的检测,在复杂场景下检测性能较好,解决了现有SAR目标检测技术的重大问题。

Description

基于CFAR检测与深度学习的SAR目标检测方法
技术领域
本发明属于图像处理技术领域,更进一步涉及合成孔径雷达SAR图像目标检测技术领域中的一种基于恒虚景CFAR(Constant False Alarm Rate)检测与深度学习的合成孔径雷达SAR(Synthetic Aperture Radar)目标检测方法。本发明能够准确的检测出合成孔径雷达SAR图像的目标,并且可用于后续合成孔径雷达SAR图像的目标识别。
背景技术
合成孔径雷达SAR具有全天候、全天时、分辨率高以及穿透力强等特点,广泛应用于军事侦察和遥感领域。雷达成像技术在对地面目标特别是地面静止目标探测方面具有独特的优势,随着SAR技术不断成熟,成像分辨率不断提高,使得通过SAR图像的目标识别技术受到越来越广泛的关注。
卷积神经网络是深度学习方法的一种,已成为当前语音分析和图像识别领域的研究热点。它的权值共享网络结构使之更类似于生物神经网络,降低了网络模型的复杂度,减少了权值的数量。该优点在网络的输入是多维图像时表现的更为明显,使图像可以直接作为网络的输入,避免了传统识别算法中复杂的特征提取和数据重建过程。卷积网络是为识别二维形状而特殊设计的一个多层感知器,这种网络结构对平移、比例缩放、倾斜或者共他形式的变形具有高度不变性。
目前,已经发展出很多针对SAR图像的目标检测算法。其中,恒虚警(ConstantFalse Alarm Rate,CFAR)检测算法以其简单、快速、实时性强的特点而被广泛应用于合成孔径雷达SAR图像目标检测中。此外,根据不同类型的目标在SAR图像上具有不同的表征形式,也相应的具有不同的检测方法。但这些现有SAR图像检测方法仅利用了SAR图像局部区域的统计特性,仅能做到像素级别的检测,不能做到端对端检测,在复杂场景下在复杂场景下,检测性能较差检测性能较差。
中国人民解放军国防科学技术大学其申请的专利“一种SAR图像双边CFAR舰船目标检测方法”(专利申请号201510011762.6,公布号CN104537675A)中公开了一种SAR图像双边CFAR舰船目标检测方法。该方法将SAR图像中的每个像素点的亮度值和空间值联合,利用恒虚景CFAR检测方法对联合图像进行检测,得到舰船目标检测结果。该方法存在的不足之处是,对切片的处理是像素级别的处理,不能做到图片级别的检测,检测门限的设置不方便。
西安电子科技大学在其申请的专利“基于CFAR和稀疏表示的高分辨SAR舰船检测方法”(专利申请号201310280179.6,公布号CN103400156A)中公开了一种基于CFAR和稀疏表示的高分辨SAR舰船检测方法。该方法在正常恒虚景CFAR检测的基础上,对切片提取特征向量,并通过稀疏表示分类器做鉴别,得到最终的舰船检测结果。该方法的不足之处是检测过程要经过检测、鉴别两个步骤,不能做到端对端检测,并且在复杂场景下,检测性能较差。
发明内容
本发明的目的在于克服上述现有技术的不足,提出一种基于CFAR检测与深度学习的SAR目标检测方法。本发明克服了现有技术中的合成孔径雷达SAR图像目标检测方法中仅利用了SAR图像局部区域的统计特性,仅能做到像素级别的检测的问题,同时做到了端对端检测,提高了复杂场景下在复杂场景下,如:强杂波较多,检测性能较差合成孔径雷达SAR图像目标检测定位的准确性。
为实现上述目的,本发明具体实现步骤包括如下:
(1)获取SAR图像:
(1a)从MiniSAR数据集中随机选取100幅SAR图像;
(1b)从MiniSAR数据集中选取与所选SAR图像对应的目标坐标信息和类别标签;
(1c)将所选取的SAR图像以及目标坐标信息和类别标签组成训练样本集;
(2)扩充训练样本集:
对训练样本集中每幅SAR图像的待识别目标区域进行100次的随机平移,将每次平移后的训练样本图像组成扩充后的训练样本集;
(3)构建Faster-RCNN模型的网络结构:
(3a)构建一个三层卷积网络,其中,第一层为卷积层,使用96个卷积核,卷积核窗口大小为3*3个像素,相邻局部接受域的中心距离为4个像素,输出96个特征图,每个特征图经过一个下采样进行降维,下采样的核窗口大小为3*3个像素,相邻局部接受域的中心距离为2个像素,将降维后的特征图输入到第二层;第二层为卷积层,使用96个卷积核,卷积核窗口大小为3*3个像素,相邻局部接受域的中心距离为2个像素,输出96个特征图,每个特征图经过一个下采样进行降维,下采样的核窗口大小为个像素3*3,相邻局部接受域的中心距离为2个像素,将降维后的特征图输入到第三层;第三层为卷积层,使用256个卷积核,卷积核窗口大小为3*3个像素,相邻局部接受域的中心距离为2个像素,输出256个特征图;
(3b)在步骤(3a)的三层卷积网络后引入第四层卷积层,该层使用256个卷积核,卷积核窗口大小为3*3个像素,相邻局部接受域的中心距离为1个像素,输出256个特征图,特征图输入到第五、六层,与此同时,对于每个滑窗,以滑窗中心为中心,分别以1282、2562、5122三种尺寸,2:1,1:1,1:2三种长宽比构建9个anchor boxes;第五、六层为同级的全连接层,第五层为18个神经元的全连接,第六层为36个神经元的全连接层,将以上各层合在一起,得到用于提取图像的感兴趣区域RPN网络;
(3c)在步骤(3a)的三层卷积后引入第四层RoI池化层,第4层为核窗口大小自适应于输出6*6个像素特征图,相邻局部接受域的中心距离为2个像素的下采样层,经下采样得到降维后的特征图输入到第五层;第五层为有1000个神经元的全连接层,将第五层输出输入到第六、七层;第六、七层为同级的全连接层,第六层为2个神经元的全连接层,第七层为8个神经元的全连接层,将以上各层合在一起,得到用于图像的检测和分类Fast-RCNN网络;
(4)获得训练好的RPN模型:
(4a)将扩充后的训练样本集输入到RPN网络,利用随机梯度下降算法,分别计算RPN网络中每一层的代价函数的梯度值,用每一层的梯度值更新该层的权值;
(4b)利用反向传播算法,计算RPN网络中每一层的误差灵敏度,用每一层的误差灵敏度更新该层的权值;
(4c)判断更新前的权值与更新后的权值是否相等,若是,则网络训练完毕,得到训练好的RPN网络模型,执行步骤(5),否则,执行步骤(4a);
(5)获得训练好的Fast-RCNN模型:
(5a)将扩充后的训练样本集以及训练好的RPN网络模型的anchor boxes输入到Fast-RCNN网络中,利用随机梯度下降算法,计算Fast-RCNN网络中每一层的代价函数的梯度值,用每一层的梯度值更新该层的权值;
(5b)利用反向传播算法,计算Fast-RCNN网络中每一层的误差灵敏度,用每一层的误差灵敏度更新该层的权值;
(5c)判断更新前的权值与更新后的权值是否相等,若是,则网络训练完毕,得到训练好的Fast-RCNN网络模型,执行步骤(6),否则,执行步骤(5a);
(6)获得微调的RPN网络:
(6a)将训练好的Fast-RCNN网络模型的前三层的参数固定不变,将扩充后的训练样本集输入到RPN网络中;
(6b)利用随机梯度下降算法,计算RPN网络中每一层的代价函数的梯度值,用每一层的梯度值更新该层的权值;
(6c)利用反向传播算法,计算RPN网络第四、五、六层的误差灵敏度,用第四、五、六层的误差灵敏度更新RPN网络的第四、五、六层的权值;
(6d)判断更新前的权值与更新后的权值是否相等,若是,则网络训练完毕,得到微调的RPN网络模型,执行步骤(7),否则,执行步骤(6a);
(7)获得训练好的Faster-RCNN模型:
(7a)将训练好的Fast-RCNN网络模型的前三层的参数固定不变,将扩充后的训练样本集以及微调的RPN网络模型的anchor boxes输入到Fast-RCNN网络中;
(7b)利用随机梯度下降算法,计算Fast-RCNN网络中每一层的代价函数的梯度值,用每一层的梯度值更新该层的权值;
(7c)利用反向传播算法,计算Fast-RCNN网络第四、五、六、七层的误差灵敏度,用第四、五、六、七层的误差灵敏度更新Fast-RCNN网络第四、五、六、七层的权值;
(7d)判断更新前的权值与更新后的权值是否相等,若是,则网络训练完毕,得到训练好的Faster-RCNN网络的各层网络参数,执行步骤(8),否则,执行步骤(7a);
(8)目标检测:
(8a)对测试数据进行恒虚景CFAR检测,以恒虚景CFAR二值检测结果的各个目标质心为中心,提取与各个目标质心对应的检测切片;
(8b)用训练好的Faster-RCNN模型对各个检测切片进行目标检测,得到各个切片的目标检测结果;
(8c)将各个切片的目标检测结果,按照其在原始SAR图像的相对位置进行合并,得到测试数据的目标检测结果。
本发明与现有技术相比具有如下优点:
第一,由于本发明利用Faster-RCNN模型进行目标检测,克服了现有技术对切片的处理是像素级别的处理,不能做到图片级别的检测,检测门限的设置不方便的问题,使本发明具有能够完成图像级检测,得到目标区域的检测概率,方便后续的检测门限调整的优点。
第二,由于本发明先利用恒虚景CFAR检测方法进行切片,然后利用Faster-RCNN模型对切片进行目标检测,克服了现有技术检测过程要经过检测、鉴别两个步骤,不能做到端对端检测,耗时较长的问题,使本发明具有能够完成端对端检测,将检测与鉴别集成于一体的优点。
第三,由于本发明利用训练好的Faster-RCNN模型的各层卷积网络参数,挖掘SAR图像目标的一些高层特征,克服了现有技术复杂场景下在复杂场景下,检测性能较差的问题,使本发明具有在复杂场景下检测性能较好的优点。
附图说明
图1是本发明的流程图;
图2是本发明仿真实验中输入的合成孔径雷达SAR图;
图3是本发明仿真实验结果图。
具体实施方式
下面结合附图对本发明做进一步的描述。
参照附图1,本发明的具体步骤如下。
步骤1,获取SAR图像。
从MiniSAR数据集中随机选取100幅SAR图像。
从MiniSAR数据集中选取与所选SAR图像对应的目标坐标信息和类别标签。
将所选取的SAR图像以及目标坐标信息和类别标签组成训练样本集。
步骤2,扩充训练样本集。
对训练样本集中每幅SAR图像的待识别目标区域进行100次的随机平移,将每次平移后的训练样本图像组成扩充后的训练样本集。
第1步,在matlab中读取训练样本集中的每一个SAR图像,得到对应每一个SAR图像的二维坐标系、以及该SAR图像中每个像素点在此坐标系下的坐标(x,y);
第2步,采用围绕边界方法,对训练样本集中每一个SAR图像的背景,进行镜像反射填充,得到填充后的SAR图像;
第3步,将填充后SAR图像中的任一像素点的坐标(x,y)沿x轴平移tx个单位,沿y轴平移ty个单位,得到(x',y'),其中x'=x+tx,y'=y+ty,tx为在正负二分之待识别目标区域的长的区间中选取的任一整数,ty为在正负二分之待识别目标区域的宽的区间中选取的任一整数;
第4步,以第1步确定的坐标系的横坐标为二分之待识别目标区域的长,纵坐标为二分之待识别目标区域的宽的坐标为起点坐标,从填充、平移后的SAR图像中截取与原始SAR图像训练样本同样大小的区域,得到一个新的训练样本图像;
第5步,判断平移次数是否达到100次,若是,则执行第6步,否则,执行第1步;
第6步,在随机平移得到的所有新训练样本图像上,标记与原始训练样本图像相同的类别标签。
第7步,用所有标有类别标签的新样本图像与原始图像,组成扩充后的训练样本集。
步骤3,构建Faster-RCNN模型的网络结构。
Faster-RCNN模型网络结构的构建方法参见Shaoqing Ren等人于2015发表在NIPS上的文章《Faster R-CNN:Towards Real-Time Object Detection with Region ProposalNetworks》。Faster-RCNN模型的网络结构包括RPN网络跟Fast-RCNN网络两部分,具体的构建方法是:
构建一个三层卷积网络,其中,第一层为卷积层,使用96个卷积核,卷积核窗口大小为3*3个像素,相邻局部接受域的中心距离为4个像素,输出96个特征图,每个特征图经过一个下采样进行降维,下采样的核窗口大小为3*3个像素,相邻局部接受域的中心距离为2个像素,将降维后的特征图输入到第二层;第二层为卷积层,使用96个卷积核,卷积核窗口大小为3*3个像素,相邻局部接受域的中心距离为2个像素,输出96个特征图,每个特征图经过一个下采样进行降维,下采样的核窗口大小为个像素3*3,相邻局部接受域的中心距离为2个像素,将降维后的特征图输入到第三层;第三层为卷积层,使用256个卷积核,卷积核窗口大小为3*3个像素,相邻局部接受域的中心距离为2个像素,输出256个特征图。
构建一个用于提取图像的感兴趣区域RPN网络,在第1步的三层卷积网络后引入第四层卷积层,该层使用256个卷积核,卷积核窗口大小为3*3个像素,相邻局部接受域的中心距离为1个像素,输出256个特征图,特征图输入到第五、六层,与此同时,对于每个滑窗,以滑窗中心为中心,分别以1282、2562、5122三种尺寸,2:1,1:1,1:2三种长宽比构建9个anchorboxes;第五、六层为同级的全连接层,第五层为18个神经元的全连接,第六层为36个神经元的全连接层。
构建用于图像的检测和分类Fast-RCNN网络,在第1步的三层卷积后引入第四层RoI池化层,第4层为核窗口大小自适应于输出6*6个像素特征图,相邻局部接受域的中心距离为2个像素的下采样层,经下采样得到降维后的特征图输入到第五层;第五层为有1000个神经元的全连接层,将第五层输出输入到第六、七层;第六、七层为同级的全连接层,第六层为2个神经元的全连接层,第七层为8个神经元的全连接层。
步骤4,获得训练好的RPN模型。
第1步,将扩充后的训练样本集输入到RPN网络,利用随机梯度下降算法,分别计算RPN网络中每一层的代价函数的梯度值,用每一层的梯度值更新该层的权值。
第2步,利用反向传播算法,计算RPN网络中每一层的误差灵敏度,用每一层的误差灵敏度更新该层的权值。
第3步,判断更新前的权值与更新后的权值是否相等,若是,则网络训练完毕,得到训练好的RPN网络模型,执行步骤5,否则,执行第1步。
步骤5,获得训练好的Fast-RCNN模型。
第1步,将扩充后的训练样本集以及训练好的RPN网络模型的anchor boxes输入到Fast-RCNN网络中,利用随机梯度下降算法,计算Fast-RCNN网络中每一层的代价函数的梯度值,用每一层的梯度值更新该层的权值。
第2步,利用反向传播算法,计算Fast-RCNN网络中每一层的误差灵敏度,用每一层的误差灵敏度更新该层的权值。
第3步,判断更新前的权值与更新后的权值是否相等,若是,则网络训练完毕,得到训练好的Fast-RCNN网络模型,执行步骤6,否则,执行第1步。
步骤6,获得微调的RPN网络。
第1步,将训练好的Fast-RCNN网络模型的前三层的参数固定不变,将扩充后的训练样本集输入到RPN网络中。
第2步,利用随机梯度下降算法,计算RPN网络中每一层的代价函数的梯度值,用每一层的梯度值更新该层的权值。
第3步,利用反向传播算法,计算RPN网络第四、五、六层的误差灵敏度,用第四、五、六层的误差灵敏度更新RPN网络的第四、五、六层的权值。
第4步,判断更新前的权值与更新后的权值是否相等,若是,则网络训练完毕,得到微调的RPN网络模型,执行步骤7,否则,执行第1步。
步骤7,获得训练好的Faster-RCNN模型。
第1步,将训练好的Fast-RCNN网络模型的前三层的参数固定不变,将扩充后的训练样本集以及微调的RPN网络模型的anchor boxes输入到Fast-RCNN网络中。
第2步,利用随机梯度下降算法,计算Fast-RCNN网络中每一层的代价函数的梯度值,用每一层的梯度值更新该层的权值。
第3步,利用反向传播算法,计算Fast-RCNN网络第四、五、六、七层的误差灵敏度,用第四、五、六、七层的误差灵敏度更新Fast-RCNN网络第四、五、六、七层的权值。
第4步,判断更新前的权值与更新后的权值是否相等,若是,则网络训练完毕,得到训练好的Faster-RCNN网络的各层网络参数,执行步骤8,否则,执行第1步。
步骤8,目标检测。
对测试数据进行恒虚景CFAR检测,以恒虚景CFAR二值检测结果的各个目标质心为中心,提取与各个目标质心对应的检测切片。具体做法是:
第1步,对输入的SAR图像进行滑窗处理,得到一个对应的中心像素点,滑窗内部为保护区域,滑窗周围为杂波区域;
第2步,按照下式,计算每次滑窗的中心像素点周围杂波区域像素的均值和方差:
其中,μi表示第i次滑窗的中心像素点周围杂波区域像素的均值,∑表示求和操作,N表示每次滑窗的中心像素点周围杂波区域像素的个数,j表示每次滑窗的中心像素点周围杂波区域中的第j个像素,xj表示每次滑窗的中心像素点周围杂波区域中的第j个像素的强度,σi表示第i次滑窗的中心像素点周围杂波区域像素的方差,表示开方操作;
第3步,按照下式,计算每次滑窗的中心像素点的检测统计量:
其中,Di表示第i次滑窗的中心像素点的检测统计量,Xi表示第i次滑窗的中心像素点的强度,μi表示第i次滑窗的中心像素点周围杂波区域像素的均值,σi表示第i次滑窗的中心像素点周围杂波区域像素的方差;
第4步,在[0,0.2]的范围内,随机设定一个检测阈值;
第5步,判断检测统计量是否大于检测阈值,若是,将该像素点作为目标点,否则,将该像素点作为杂波点;
第6步,判断是否遍历输入的SAR图像的所有的中心像素点,若是,则得到恒虚景CFAR二值检测结果,否则,执行第1步。
第7步,将所有的目标点合并为区域目标;
第8步,以区域目标的质心为中心,用矩形框框出,得到目标质心对应的检测切片。
用训练好的Faster-RCNN模型对各个检测切片进行目标检测,得到各个切片的目标检测结果。具体做法是:
第1步,将恒虚景CFAR检测后所得的切片输入到训练好的Faster-RCNN模型中,每一个切片中的每一个anchor box得到一个概率值;
第2步,在[0.6,1]的范围内,随机选取一个概率值作为阈值;
第3步,判断anchor box的概率值是否大于阈值,若是,将该anchor box作为目标,否则,将该anchor box作为非目标。
第4步,判断是否遍历输入的所有切片,若是,则得到测试数据的目标检测结果,否则,执行第1步。
将各个切片的目标检测结果按在原始SAR图像的位置进行合并,得到整个测试数据的目标检测结果。
下面结合仿真图对本发明做进一步的描述。
1.仿真条件:
本发明的仿真实验中原始训练样本集为MiniSAR数据集中随机选取的100幅SAR图像,测试样本为一副场景SAR图像,如附图2所示。图像的大小为2510×1638,其中包含了车辆类人工目标,也包含了树木、田野等自然目标,仿真实验的目的是检测和定位出图像中所有类型的人工目标。
本发明的仿真实验的计算机环境:操作系统为Linux 14.04版本,处理器为Intel(R)Core(TM)i7-4790k处理器的主频率为4.00GHz;软件平台为:MatlabR2012a、caffe。
2.仿真内容与结果分析:
本发明的仿真实验是对合成孔径雷达SAR图像中的人工目标进行检测,首先,利用原始训练样本集中的100幅SAR图像对Faster‐RCNN模型进行训练,得到训练好的模型。
然后,将测试样本输入到训练好的Faster‐RCNN模型中,分别以0.6,0.7,0.8的概率阈值进行筛选检测,检测完毕后统计检测率与虚景率对检测结果进行量化,其中,
附图3是本发明仿真实验结果,反映了恒虚景CFAR检测与本发明的性能比较,其中图3中的横坐标表示虚景率,纵坐标表示检测率,带三角的折线表示恒虚景CFAR检测的性能折线,带圆形的折线表示本发明在概率阈值0.6下的性能折线,带菱形的折线表示本发明在概率阈值0.7下的性能折线,带正方形的折线表示本发明在概率阈值0.6下的性能折线。
通过附图3性能比较结果可以看到,本发明能够正确的检测出合成孔径雷达SAR图像中人工目标,且在复杂场景下检测性能较好,虚景率低,比恒虚景CFAR检测有明显的提高,使用本发明方法对合成孔径雷达SAR图像进行人工目标检测能够获得较精确的结果。

Claims (4)

1.一种基于CFAR检测与深度学习的SAR目标检测方法,包括如下步骤:
(1)获取SAR图像:
(1a)从MiniSAR数据集中随机选取100幅SAR图像;
(1b)从MiniSAR数据集中选取与所选SAR图像对应的目标坐标信息和类别标签;
(1c)将所选取的SAR图像以及目标坐标信息和类别标签组成训练样本集;
(2)扩充训练样本集:
对训练样本集中每幅SAR图像的待识别目标区域进行100次的随机平移,将每次平移后的训练样本图像组成扩充后的训练样本集;
(3)构建Faster-RCNN模型的网络结构:
(3a)构建一个三层卷积网络,其中,第一层为卷积层,使用96个卷积核,卷积核窗口大小为3*3个像素,相邻局部接受域的中心距离为4个像素,输出96个特征图,每个特征图经过一个下采样进行降维,下采样的核窗口大小为3*3个像素,相邻局部接受域的中心距离为2个像素,将降维后的特征图输入到第二层;第二层为卷积层,使用96个卷积核,卷积核窗口大小为3*3个像素,相邻局部接受域的中心距离为2个像素,输出96个特征图,每个特征图经过一个下采样进行降维,下采样的核窗口大小为个像素3*3,相邻局部接受域的中心距离为2个像素,将降维后的特征图输入到第三层;第三层为卷积层,使用256个卷积核,卷积核窗口大小为3*3个像素,相邻局部接受域的中心距离为2个像素,输出256个特征图;
(3b)在步骤(3a)的三层卷积网络后引入第四层卷积层,该层使用256个卷积核,卷积核窗口大小为3*3个像素,相邻局部接受域的中心距离为1个像素,输出256个特征图,特征图输入到第五、六层,与此同时,对于每个滑窗,以滑窗中心为中心,分别以1282、2562、5122三种尺寸,2:1,1:1,1:2三种长宽比构建9个anchor boxes;第五、六层为同级的全连接层,第五层为18个神经元的全连接,第六层为36个神经元的全连接层,将以上各层合在一起,得到用于提取图像的感兴趣区域RPN网络;
(3c)在步骤(3a)的三层卷积后引入第四层RoI池化层,第4层为核窗口大小自适应于输出6*6个像素特征图,相邻局部接受域的中心距离为2个像素的下采样层,经下采样得到降维后的特征图输入到第五层;第五层为有1000个神经元的全连接层,将第五层输出输入到第六、七层;第六、七层为同级的全连接层,第六层为2个神经元的全连接层,第七层为8个神经元的全连接层,将以上各层合在一起,得到用于图像的检测和分类Fast-RCNN网络;
(4)获得训练好的RPN模型:
(4a)将扩充后的训练样本集输入到RPN网络,利用随机梯度下降算法,分别计算RPN网络中每一层的代价函数的梯度值,用每一层的梯度值更新该层的权值;
(4b)利用反向传播算法,计算RPN网络中每一层的误差灵敏度,用每一层的误差灵敏度更新该层的权值;
(4c)判断更新前的权值与更新后的权值是否相等,若是,则网络训练完毕,得到训练好的RPN网络模型,执行步骤(5),否则,执行步骤(4a);
(5)获得训练好的Fast-RCNN模型:
(5a)将扩充后的训练样本集以及训练好的RPN网络模型的anchor boxes输入到Fast-RCNN网络中,利用随机梯度下降算法,计算Fast-RCNN网络中每一层的代价函数的梯度值,用每一层的梯度值更新该层的权值;
(5b)利用反向传播算法,计算Fast-RCNN网络中每一层的误差灵敏度,用每一层的误差灵敏度更新该层的权值;
(5c)判断更新前的权值与更新后的权值是否相等,若是,则网络训练完毕,得到训练好的Fast-RCNN网络模型,执行步骤(6),否则,执行步骤(5a);
(6)获得微调的RPN网络:
(6a)将训练好的Fast-RCNN网络模型的前三层的参数固定不变,将扩充后的训练样本集输入到RPN网络中;
(6b)利用随机梯度下降算法,计算RPN网络中每一层的代价函数的梯度值,用每一层的梯度值更新该层的权值;
(6c)利用反向传播算法,计算RPN网络第四、五、六层的误差灵敏度,用第四、五、六层的误差灵敏度更新RPN网络的第四、五、六层的权值;
(6d)判断更新前的权值与更新后的权值是否相等,若是,则网络训练完毕,得到微调的RPN网络模型,执行步骤(7),否则,执行步骤(6a);
(7)获得训练好的Faster-RCNN模型:
(7a)将训练好的Fast-RCNN网络模型的前三层的参数固定不变,将扩充后的训练样本集以及微调的RPN网络模型的anchor boxes输入到Fast-RCNN网络中;
(7b)利用随机梯度下降算法,计算Fast-RCNN网络中每一层的代价函数的梯度值,用每一层的梯度值更新该层的权值;
(7c)利用反向传播算法,计算Fast-RCNN网络第四、五、六、七层的误差灵敏度,用第四、五、六、七层的误差灵敏度更新Fast-RCNN网络第四、五、六、七层的权值;
(7d)判断更新前的权值与更新后的权值是否相等,若是,则网络训练完毕,得到训练好的Faster-RCNN网络的各层网络参数,执行步骤(8),否则,执行步骤(7a);
(8)目标检测:
(8a)对测试数据进行恒虚景CFAR检测,以恒虚景CFAR二值检测结果的各个目标质心为中心,提取与各个目标质心对应的检测切片;
(8b)用训练好的Faster-RCNN模型对各个检测切片进行目标检测,得到各个切片的目标检测结果;
(8c)将各个切片的目标检测结果,按照其在原始SAR图像的相对位置进行合并,得到测试数据的目标检测结果。
2.根据权利要求1所述的基于CFAR检测与深度学习的SAR目标检测方法,其特征在于:步骤(2)中所述对训练样本集中每幅SAR图像的待识别目标区域进行100次的随机平移的具体步骤如下:
第1步,在matlab中读取训练样本集中的每一个SAR图像,得到对应每一个SAR图像的二维坐标系、以及该SAR图像中每个像素点在此坐标系下的坐标(x,y);
第2步,采用围绕边界方法,对训练样本集中每一个SAR图像的背景,进行镜像反射填充,得到填充后的SAR图像;
第3步,将填充后SAR图像中的任一像素点的坐标(x,y)沿x轴平移tx个单位,沿y轴平移ty个单位,得到(x',y'),其中x'=x+tx,y'=y+ty,tx为在正负二分之待识别目标区域的长的区间中选取的任一整数,ty为在正负二分之待识别目标区域的宽的区间中选取的任一整数;
第4步,以第1步确定的坐标系的横坐标为二分之待识别目标区域的长,纵坐标为二分之待识别目标区域的宽的坐标为起点坐标,从填充、平移后的SAR图像中截取与原始SAR图像训练样本同样大小的区域,得到一个新的训练样本图像;
第5步,判断平移次数是否达到100次,若是,则执行第6步,否则,执行第1步;
第6步,在随机平移得到的所有新训练样本图像上,标记与原始训练样本图像相同的类别标签。
3.根据权利要求1所述的基于CFAR检测与深度学习的SAR目标检测方法,其特征在于:步骤(8a)中所述的对测试数据进行恒虚景CFAR检测的具体步骤如下:
第1步,对输入的SAR图像进行滑窗处理,得到一个对应的中心像素点,滑窗内部为保护区域,滑窗周围为杂波区域;
第2步,按照下式,计算每次滑窗的中心像素点周围杂波区域像素的均值和方差:
其中,μi表示第i次滑窗的中心像素点周围杂波区域像素的均值,∑表示求和操作,N表示每次滑窗的中心像素点周围杂波区域像素的个数,j表示每次滑窗的中心像素点周围杂波区域中的第j个像素,xj表示每次滑窗的中心像素点周围杂波区域中的第j个像素的强度,σi表示第i次滑窗的中心像素点周围杂波区域像素的方差,表示开方操作;
第3步,按照下式,计算每次滑窗的中心像素点的检测统计量:
其中,Di表示第i次滑窗的中心像素点的检测统计量,Xi表示第i次滑窗的中心像素点的强度,μi表示第i次滑窗的中心像素点周围杂波区域像素的均值,σi表示第i次滑窗的中心像素点周围杂波区域像素的方差;
第4步,在[0,0.2]的范围内,随机设定一个检测阈值;
第5步,判断检测统计量是否大于检测阈值,若是,将该像素点作为目标点,否则,将该像素点作为杂波点;
第6步,判断是否遍历输入的SAR图像的所有的中心像素点,若是,则得到恒虚景CFAR二值检测结果,否则,执行第1步。
4.根据权利要求1所述的基于CFAR检测与深度学习的SAR目标检测方法,其特征在于:步骤(8b)中所述的用训练好的Faster-RCNN模型对各个检测切片进行目标检测的具体步骤如下:
第1步,将恒虚景CFAR检测所得的切片输入到训练好的Faster-RCNN模型中,每一个切片中的每一个anchor box得到一个概率值;
第2步,在[0.6,1]的范围内,随机选取一个概率值作为阈值;
第3步,判断anchor box的概率值是否大于阈值,若是,将该anchor box作为目标,否则,将该anchor box作为非目标;
第4步,判断是否遍历输入的所有切片,若是,则得到测试数据的目标检测结果,否则,执行第1步。
CN201610541067.5A 2016-07-11 2016-07-11 基于cfar检测与深度学习的sar目标检测方法 Active CN106156744B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610541067.5A CN106156744B (zh) 2016-07-11 2016-07-11 基于cfar检测与深度学习的sar目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610541067.5A CN106156744B (zh) 2016-07-11 2016-07-11 基于cfar检测与深度学习的sar目标检测方法

Publications (2)

Publication Number Publication Date
CN106156744A CN106156744A (zh) 2016-11-23
CN106156744B true CN106156744B (zh) 2019-01-29

Family

ID=58062746

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610541067.5A Active CN106156744B (zh) 2016-07-11 2016-07-11 基于cfar检测与深度学习的sar目标检测方法

Country Status (1)

Country Link
CN (1) CN106156744B (zh)

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10380741B2 (en) * 2016-12-07 2019-08-13 Samsung Electronics Co., Ltd System and method for a deep learning machine for object detection
CN106910188B (zh) * 2017-02-16 2020-07-31 苏州中科天启遥感科技有限公司 基于深度学习的遥感影像中机场跑道的检测方法
CN106952250B (zh) * 2017-02-28 2021-05-07 北京科技大学 一种基于Faster R-CNN网络的金属板带表面缺陷检测方法及装置
CN107016357B (zh) * 2017-03-23 2020-06-16 北京工业大学 一种基于时间域卷积神经网络的视频行人检测方法
CN107239731B (zh) * 2017-04-17 2020-10-30 浙江工业大学 一种基于Faster R-CNN的手势检测和识别方法
CN107274451A (zh) * 2017-05-17 2017-10-20 北京工业大学 基于共享卷积神经网络的绝缘子检测方法及装置
CN107229918B (zh) * 2017-05-26 2020-11-03 西安电子科技大学 一种基于全卷积神经网络的sar图像目标检测方法
CN107392251B (zh) * 2017-07-26 2020-08-11 成都快眼科技有限公司 一种使用分类图片提升目标检测网络性能的方法
CN107563411B (zh) * 2017-08-07 2020-11-24 西安电子科技大学 基于深度学习的在线sar目标检测方法
CN107463906A (zh) * 2017-08-08 2017-12-12 深图(厦门)科技有限公司 人脸检测的方法及装置
CN107527352B (zh) * 2017-08-09 2020-07-07 中国电子科技集团公司第五十四研究所 基于深度学习fcn网络的遥感舰船目标轮廓分割与检测方法
CN107909082B (zh) * 2017-10-30 2020-07-31 东南大学 基于深度学习技术的声呐图像目标识别方法
CN108052940A (zh) * 2017-12-17 2018-05-18 南京理工大学 基于深度学习的sar遥感图像水面目标检测方法
JP7182869B2 (ja) * 2017-12-28 2022-12-05 古野電気株式会社 物標検出装置
CN108875903B (zh) * 2018-01-02 2022-04-12 北京迈格威科技有限公司 图像检测的方法、装置、系统及计算机存储介质
CN108256646A (zh) * 2018-01-22 2018-07-06 百度在线网络技术(北京)有限公司 模型生成方法和装置
CN108764006B (zh) * 2018-02-05 2021-11-02 北京航空航天大学 一种基于深度强化学习的sar图像目标检测方法
CN108664971B (zh) * 2018-05-22 2021-12-14 中国科学技术大学 基于2d卷积神经网络的肺结节检测方法
CN108764144B (zh) * 2018-05-29 2021-09-07 电子科技大学 一种基于gpu的合成孔径雷达目标检测方法
CN108830196A (zh) * 2018-05-31 2018-11-16 上海贵和软件技术有限公司 基于特征金字塔网络的行人检测方法
CN109359661B (zh) * 2018-07-11 2021-09-07 华东交通大学 一种基于卷积神经网络的Sentinel-1雷达图像分类方法
CN109239669B (zh) * 2018-08-16 2020-11-03 厦门大学 一种基于深度学习的自进化雷达目标检测算法
CN109145815B (zh) * 2018-08-21 2022-05-03 深圳大学 一种sar目标识别方法、装置、计算机设备及存储介质
CN109165603B (zh) * 2018-08-28 2022-03-01 中国科学院遥感与数字地球研究所 一种舰船检测方法及装置
CN109145872B (zh) * 2018-09-20 2021-08-13 北京遥感设备研究所 一种基于CFAR与Fast-RCNN融合的SAR图像舰船目标检测方法
CN109409286A (zh) * 2018-10-25 2019-03-01 哈尔滨工程大学 基于伪样本增强训练的船舶目标检测方法
CN109447993A (zh) * 2018-10-25 2019-03-08 哈尔滨工程大学 一种基于混合真伪样本策略的海冰图像分割方法
CN109784375A (zh) * 2018-12-22 2019-05-21 国网内蒙古东部电力有限公司 基于Faster RCNN的自适应变压器部件检测识别方法
CN109784294B (zh) * 2019-01-25 2020-07-28 中国科学院合肥物质科学研究院 一种基于粗糙集理论候选框选择技术的枸杞图像识别定位方法
CN110084093B (zh) * 2019-02-20 2020-07-17 北京航空航天大学 基于深度学习的遥感图像中目标检测与识别的方法及装置
CN110210463B (zh) * 2019-07-03 2023-07-11 中国人民解放军海军航空大学 基于Precise ROI-Faster R-CNN的雷达目标图像检测方法
CN110647794B (zh) * 2019-07-12 2023-01-03 五邑大学 基于注意力机制的多尺度sar图像识别方法及装置
CN111144208A (zh) * 2019-11-22 2020-05-12 北京航天控制仪器研究所 一种海上船舶目标的自动检测和识别方法及目标检测器
CN110991385A (zh) * 2019-12-13 2020-04-10 珠海大横琴科技发展有限公司 一种识别船只行驶轨迹的方法、装置及电子设备
CN111523564B (zh) * 2020-03-24 2023-05-12 北京航天自动控制研究所 一种用于深度学习训练的sar时敏目标样本增广方法
CN112016594B (zh) * 2020-08-05 2023-06-09 中山大学 一种基于领域自适应的协同训练方法
CN112132042B (zh) * 2020-09-24 2023-08-01 西安电子科技大学 基于对抗域适应的sar图像目标检测方法
CN112285712B (zh) * 2020-10-15 2023-09-15 电子科技大学 一种提高sar图像中靠岸船只检测精度的方法
CN112308837A (zh) * 2020-10-30 2021-02-02 京东方科技集团股份有限公司 一种图像处理方法及装置、电子设备和可读存储介质
CN113158806B (zh) * 2021-03-24 2022-05-17 山东科技大学 一种基于OTD_Loglogistic的SAR数据海洋目标检测方法
CN113723182B (zh) * 2021-07-21 2024-07-16 西安电子科技大学 一种训练样本受限条件下的sar图像舰船检测方法
CN114764886B (zh) * 2022-03-18 2024-08-09 西安电子科技大学 基于cfar指导的双流ssd sar图像目标检测方法
CN117392545B (zh) * 2023-10-26 2024-02-09 南昌航空大学 一种基于深度学习的sar图像目标检测方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104077599A (zh) * 2014-07-04 2014-10-01 西安电子科技大学 基于深度神经网络的极化sar图像分类方法
CN104732243A (zh) * 2015-04-09 2015-06-24 西安电子科技大学 基于cnn的sar目标识别方法
CN104751173A (zh) * 2015-03-12 2015-07-01 西安电子科技大学 基于协同表示和深度学习的极化sar图像分类方法
CN105205449A (zh) * 2015-08-24 2015-12-30 西安电子科技大学 基于深度学习的手语识别方法
CN105354541A (zh) * 2015-10-23 2016-02-24 西安电子科技大学 基于视觉注意模型和恒虚警率的sar图像目标检测方法
CN105354568A (zh) * 2015-08-24 2016-02-24 西安电子科技大学 基于卷积神经网络的车标识别方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104077599A (zh) * 2014-07-04 2014-10-01 西安电子科技大学 基于深度神经网络的极化sar图像分类方法
CN104751173A (zh) * 2015-03-12 2015-07-01 西安电子科技大学 基于协同表示和深度学习的极化sar图像分类方法
CN104732243A (zh) * 2015-04-09 2015-06-24 西安电子科技大学 基于cnn的sar目标识别方法
CN105205449A (zh) * 2015-08-24 2015-12-30 西安电子科技大学 基于深度学习的手语识别方法
CN105354568A (zh) * 2015-08-24 2016-02-24 西安电子科技大学 基于卷积神经网络的车标识别方法
CN105354541A (zh) * 2015-10-23 2016-02-24 西安电子科技大学 基于视觉注意模型和恒虚警率的sar图像目标检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于压缩感知的SAR图像CFAR目标检测算法;何楚 等;《武汉大学学报 信息科学版》;20140701;第39卷(第7期);第878-882页

Also Published As

Publication number Publication date
CN106156744A (zh) 2016-11-23

Similar Documents

Publication Publication Date Title
CN106156744B (zh) 基于cfar检测与深度学习的sar目标检测方法
CN112395987B (zh) 基于无监督域适应cnn的sar图像目标检测方法
CN106815601B (zh) 基于递归神经网络的高光谱图像分类方法
CN106874889B (zh) 基于卷积神经网络的多特征融合sar目标鉴别方法
CN108416378B (zh) 一种基于深度神经网络的大场景sar目标识别方法
CN104732243B (zh) 基于cnn的sar目标识别方法
Liu et al. Application of deep convolutional neural networks for detecting extreme weather in climate datasets
CN106355151B (zh) 一种基于深度置信网络的三维sar图像目标识别方法
CN110472627A (zh) 一种端到端的sar图像识别方法、装置及存储介质
CN106228201B (zh) 一种基于阴影特性的合成孔径雷达抗欺骗式干扰方法
CN107247930A (zh) 基于cnn和选择性注意机制的sar图像目标检测方法
CN108460382A (zh) 基于深度学习单步检测器的光学遥感图像舰船检测方法
CN109284704A (zh) 基于cnn的复杂背景sar车辆目标检测方法
CN108564109A (zh) 一种基于深度学习的遥感图像目标检测方法
CN108898065B (zh) 候选区快速筛选与尺度自适应的深度网络舰船目标检测方法
Zhao et al. Automatic recognition of loess landforms using Random Forest method
CN107229918A (zh) 一种基于全卷积神经网络的sar图像目标检测方法
CN109389080A (zh) 基于半监督wgan-gp的高光谱图像分类方法
CN108509910A (zh) 基于fmcw雷达信号的深度学习手势识别方法
CN107563411A (zh) 基于深度学习的在线sar目标检测方法
CN104657717B (zh) 一种基于分层核稀疏表示的行人检测方法
CN109325490A (zh) 基于深度学习和rpca的太赫兹图像目标识别方法
CN104933719B (zh) 一种积分图块间距离检测图像边缘方法
CN106991411A (zh) 基于深度形状先验的遥感图像目标精细化提取方法
CN107704840A (zh) 一种基于深度学习的遥感图像道路检测方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant