CN113688682A - 一种基于改进fcn深度网络的杂波辨识与目标检测方法 - Google Patents

一种基于改进fcn深度网络的杂波辨识与目标检测方法 Download PDF

Info

Publication number
CN113688682A
CN113688682A CN202110838115.8A CN202110838115A CN113688682A CN 113688682 A CN113688682 A CN 113688682A CN 202110838115 A CN202110838115 A CN 202110838115A CN 113688682 A CN113688682 A CN 113688682A
Authority
CN
China
Prior art keywords
clutter
network
fcn
model
improved
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110838115.8A
Other languages
English (en)
Inventor
曾大治
冯智
周超
杜欣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bit Raco Electronic Information Technology Co ltd
Original Assignee
Bit Raco Electronic Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bit Raco Electronic Information Technology Co ltd filed Critical Bit Raco Electronic Information Technology Co ltd
Priority to CN202110838115.8A priority Critical patent/CN113688682A/zh
Publication of CN113688682A publication Critical patent/CN113688682A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

本发明公开了一种基于改进FCN深度网络的杂波辨识与目标检测方法,步骤一:根据杂波环境构建数据集;步骤二:训练改进FCN网络;步骤三:读入回波RD平面图数据;步骤四:对于读入的数据,利用改进FCN网络分割杂波区和非杂波区;步骤五:针对分割后不同的区域,使用适应的最优检测算法;本发明能够准确地在RD平面图上对杂波进行语义分割,在保证目标检测率的同时,有效降低虚警。

Description

一种基于改进FCN深度网络的杂波辨识与目标检测方法
技术领域
本发明属于雷达信号处理的技术领域,具体涉及一种基于改进FCN深度网络的杂波辨识与目标检测方法。
背景技术
随着人工智能技术的不断发展,深度学习已经成为各个领域的研究热点。雷达作为一种传统领域,深度学习同样得到了很好的应用,在SAR图像处理、雷达辐射源识别和雷达波形识别等方面取得了丰硕的成果。在雷达探测技术中,杂波环境中的目标检测问题一直是其中的难点,传统固定策略的检测方法针对场景单一,一般只适用于特定杂波环境中,容易造成虚警高、漏检大等问题。
发明内容
有鉴于此,本发明提供了一种基于改进FCN深度网络的杂波辨识与目标检测方法,能够有效分割杂波区和非杂波区,并针对不同的区域使用适应的最优检测算法,从而在保证检测率的同时,降低杂波环境下的虚警率。
实现本发明的技术方案如下:
一种基于改进FCN深度网络的杂波辨识与目标检测方法,包括以下步骤:
步骤一、在实际杂波环境中采集RD平面图数据Data1,对RD平面图数据Data1中的杂波区域和非杂波区域进行像素级标注,得到训练数据集;
步骤二、引入空洞空间卷积池化金字塔(Atrous spatial pyramid poling,ASPP)结构对经典FCN网络进行改进;
步骤三、利用所述训练数据集训练改进后的FCN网络;
步骤四、将待检测的RD平面图数据Data2输入训练后的FCN网络模型,输出RD平面图杂波分割的结果,即将RD平面图分割为杂波区和非杂波区;
步骤五、对于杂波区,根据杂波类型采用对应的目标检测方法;对于非杂波区,采用CFAR检测方法。
进一步地,步骤二中,改进的FCN网络在编码时加入了ASPP结构,ASPP结构利用多个不同尺度的空洞卷积提取特征,再融合以捕获不同大小的上下文信息。
进一步地,步骤二中,解码网络通过反卷积,将小尺寸热点图进行上采样,得到与输入图片尺寸相同的语义分割图像。
进一步地,步骤三的具体过程为:
步骤3.1、读入改进FCN网络模型Model:
步骤3.2、读入迭代次数N、批大小s和学习率lr,并基于步骤一中构建的训练数据集训练改进FCN网络模型Model,训练完毕后保存模型的参数Para。
进一步地,步骤四的具体过程为:
步骤4.1、加载改进FCN网络模型Model和参数Para,恢复训练完成的改进FCN网络模型;
步骤4.2、将待检测的RD平面图数据Data2作为输入,经由改进FCN网络模型输出RD平面图杂波分割的结果。
有益效果:
本发明在深度学习理论的基础上提出了一种基于改进FCN网络的杂波辨识方法,能够有效分割杂波区和非杂波区,并针对不同的区域使用适应的最优检测算法,从而在保证检测率的同时,降低杂波环境下的虚警率。
附图说明
图1为本发明的方法流程图。
图2为改进FCN网络的模型结构图。
图3为ASPP结构图。
图4为本发明两组待测的RD图对网络进行验证的实验运行结果。图4(a)为雨杂波环境中回波的两组待测RD平面图,图4(b)为两组待测的RD平面图对应的标签,图4(c)为经典FCN网络对两组待测的RD图的分割结果,图4(d)为改进FCN网络对两组待测的RD图的分割结果。
具体实施方式
下面结合附图并举实施例,对本发明进行详细描述。
本发明提供了一种基于改进FCN深度网络的杂波辨识技术,其流程如图1所示,本发明包含以下几个步骤:
1.构建数据集,具体情况为:
(1)在实际杂波环境中,采集RD平面图数据Data1;
(2)对RD平面图中的杂波区域和非杂波区域进行像素级标注。
2.引入ASPP结构对经典FCN网络进行改进,具体步骤分为:
改进FCN网络基于经典FCN网络结构,模型结构如图2所示,主体分为编码网络和解码网络两个部分:
1)编码网络采用VGG-19作为前置基础网络,由VGG-19中的前15层卷积层和4层池化层组合构成,用于提取输入图片的特征,最终形成小尺寸热点图。卷积层中卷积操作的实现如下:
Figure BDA0003177900780000041
式中,I1表示上一层卷积层,I2表示卷积后的特征图,*表示矩阵点乘,卷积核C的行数和列数分别为M和N,图像I1的行数和列数分别为MI和NI,i,j分别满足:1≤i≤MI-m+1和1≤j≤NI-n+1。
考虑到经典FCN网络不断卷积和池化操作带来的图像低分辨以及目标位置信息丢失的问题,改进FCN网络在编码时加入了ASPP结构,结构如图3所示。ASPP结构利用多个不同尺度的空洞卷积提取特征,再融合以捕获不同大小的上下文信息。空洞卷积的实现如下:
Figure BDA0003177900780000042
式中,y(i)表示输出序列中第i个位置上的值,x(i)表示输入序列中第i个位置上的值,r表示空洞卷积的扩张率,w(k)表示卷积核。
2)解码网络通过反卷积,将小尺寸热点图进行上采样,得到与输入图片尺寸相同的语义分割图像。此外,在编码网络和解码网络之间加入跳跃连接结构以解决网络梯度消失问题并获得更加鲁棒的网络性能。
3.离线训练改进FCN网络,使其适用于给定的杂波环境,具体步骤分为:
(1)读入改进FCN网络模型Model:
(2)读入迭代次数N、批大小s和学习率lr,并基于步骤1中构建的数据集训练改进FCN网络模型,训练完毕后保存模型的参数Para。
4.读入待检测的RD平面图数据Data2。
5.利用改进FCN网络对读入的RD平面图Data2执行语义分割任务,具体方法如下:
(1)加载改进FCN网络模型Model和参数Para,恢复训练完成的改进FCN网络;
(2)将步骤4中读入的RD平面图Data2作为输入,经由改进FCN网络模型输出RD平面图杂波分割的结果。
6.结合杂波分割结果进行分区域目标检测,其详细方法如下:
(1)根据改进FCN输出的分割图像,将RD图分为杂波区和非杂波区;
(2)对于不同的杂波区,根据杂波类型采用对应的检测方法(如针对雨杂波采用雨杂波图检测)抬高检测门限,以降低虚警;
(3)对于非杂波区,采用常规的CFAR检测,保证目标的检测率。
为了证明本发明的有效性,特进行如下实验认证。实验数据来源于实测雷达回波数据,采集在雨杂波环境下。实验通过数据集离线训练网络,并选取两组待测的RD图对网络进行验证,实验运行结果如图4所示,图4a)为雨杂波环境中回波的两组待测RD平面图,图4b)为两组待测的RD平面图对应的标签,图4c)为经典FCN网络对两组待测的RD图的分割结果,图4d)为改进FCN网络对两组待测的RD图的分割结果。
该实验通过本发明所提方法与经典FCN网络的对比,重点分析了基于改进FCN网络在杂波辨识上的有效性。通过实验结果可以看出,相比于经典FCN网络,本发明提供的改进FCN网络可以更加有效地对RD平面图中的杂波进行辨识,进而能够结合分治检测策略降低目标检测时的虚警率。
综上所述,以上仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (5)

1.一种基于改进FCN深度网络的杂波辨识与目标检测方法,其特征在于,包括以下步骤:
步骤一、在实际杂波环境中采集RD平面图数据Data1,对RD平面图数据Data1中的杂波区域和非杂波区域进行像素级标注,得到训练数据集;
步骤二、引入ASPP结构对经典FCN网络进行改进;
步骤三、利用所述训练数据集训练改进后的FCN网络;
步骤四、将待检测的RD平面图数据Data2输入训练后的FCN网络模型,输出RD平面图杂波分割的结果,即将RD平面图分割为杂波区和非杂波区;
步骤五、对于杂波区,根据杂波类型采用对应的目标检测方法;对于非杂波区,采用CFAR检测方法。
2.如权利要求1所述的一种基于改进FCN深度网络的杂波辨识与目标检测方法,其特征在于,步骤二中,改进的FCN网络在编码时加入了ASPP结构,ASPP结构利用多个不同尺度的空洞卷积提取特征,再融合以捕获不同大小的上下文信息。
3.如权利要求1所述的一种基于改进FCN深度网络的杂波辨识与目标检测方法,其特征在于,步骤二中,解码网络通过反卷积,将小尺寸热点图进行上采样,得到与输入图片尺寸相同的语义分割图像。
4.如权利要求1所述的一种基于改进FCN深度网络的杂波辨识与目标检测方法,其特征在于,步骤三的具体过程为:
步骤3.1、读入改进FCN网络模型Model:
步骤3.2、读入迭代次数N、批大小s和学习率lr,并基于步骤一中构建的训练数据集训练改进FCN网络模型Model,训练完毕后保存模型的参数Para。
5.如权利要求4所述的一种基于改进FCN深度网络的杂波辨识与目标检测方法,其特征在于,步骤四的具体过程为:
步骤4.1、加载改进FCN网络模型Model和参数Para,恢复训练完成的改进FCN网络模型;
步骤4.2、将待检测的RD平面图数据Data2作为输入,经由改进FCN网络模型输出RD平面图杂波分割的结果。
CN202110838115.8A 2021-07-23 2021-07-23 一种基于改进fcn深度网络的杂波辨识与目标检测方法 Pending CN113688682A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110838115.8A CN113688682A (zh) 2021-07-23 2021-07-23 一种基于改进fcn深度网络的杂波辨识与目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110838115.8A CN113688682A (zh) 2021-07-23 2021-07-23 一种基于改进fcn深度网络的杂波辨识与目标检测方法

Publications (1)

Publication Number Publication Date
CN113688682A true CN113688682A (zh) 2021-11-23

Family

ID=78577970

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110838115.8A Pending CN113688682A (zh) 2021-07-23 2021-07-23 一种基于改进fcn深度网络的杂波辨识与目标检测方法

Country Status (1)

Country Link
CN (1) CN113688682A (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109543754A (zh) * 2018-11-23 2019-03-29 中山大学 基于端对端深度学习的目标检测与语义分割的并行方法
CN110378186A (zh) * 2019-03-22 2019-10-25 北京理工雷科电子信息技术有限公司 Sar遥感图像舰船目标虚警剔除的方法
CN112327265A (zh) * 2020-10-23 2021-02-05 北京理工大学 一种基于语义分割网络的分治检测方法
CN112508977A (zh) * 2020-12-29 2021-03-16 天津科技大学 一种面向自动驾驶场景的基于深度学习的语义分割方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109543754A (zh) * 2018-11-23 2019-03-29 中山大学 基于端对端深度学习的目标检测与语义分割的并行方法
CN110378186A (zh) * 2019-03-22 2019-10-25 北京理工雷科电子信息技术有限公司 Sar遥感图像舰船目标虚警剔除的方法
CN112327265A (zh) * 2020-10-23 2021-02-05 北京理工大学 一种基于语义分割网络的分治检测方法
CN112508977A (zh) * 2020-12-29 2021-03-16 天津科技大学 一种面向自动驾驶场景的基于深度学习的语义分割方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
张椰;朱卫纲;吴戌;: "全卷积神经网络应用于SAR目标检测", 电讯技术, no. 11, pages 213 - 216 *

Similar Documents

Publication Publication Date Title
CN113298818B (zh) 基于注意力机制与多尺度特征的遥感图像建筑物分割方法
CN110428428B (zh) 一种图像语义分割方法、电子设备和可读存储介质
CN110232350B (zh) 一种基于在线学习的实时水面多运动目标检测跟踪方法
CN103310466B (zh) 一种单目标跟踪方法及其实现装置
CN108734210B (zh) 一种基于跨模态多尺度特征融合的对象检测方法
Morris A pyramid CNN for dense-leaves segmentation
Cao et al. A traffic-sign detection algorithm based on improved sparse r-cnn
CN110334656A (zh) 基于信源概率加权的多源遥感图像水体提取方法及装置
CN114022408A (zh) 基于多尺度卷积神经网络的遥感图像云检测方法
CN114092487A (zh) 目标果实实例分割方法及系统
CN112149664A (zh) 一种优化分类与定位任务的目标检测方法
CN113963333B (zh) 一种基于改进yolof模型的交通标志牌检测方法
CN113313128B (zh) 一种基于改进YOLOv3网络的SAR图像目标检测方法
CN110956617A (zh) 基于循环注意力模型的大脑核磁共振异常图像可视化方法
CN114283331A (zh) 基于条带剪枝的轻量化sar图像船舶检测模型及方法
Li et al. Exploring label probability sequence to robustly learn deep convolutional neural networks for road extraction with noisy datasets
CN117011648A (zh) 一种基于单个真实样本的触觉图像数据集扩充方法及设备
Firouznia et al. Adaptive chaotic sampling particle filter to handle occlusion and fast motion in visual object tracking
CN113688682A (zh) 一种基于改进fcn深度网络的杂波辨识与目标检测方法
CN114445280B (zh) 一种基于注意力机制的点云下采样方法
CN116664904A (zh) 一种基于自监督学习的新冠感染医学图像分类方法
Tang et al. Deep feature tracking based on interactive multiple model
CN112507940B (zh) 一种基于差分指导表示学习网络的骨骼动作识别方法
CN114241470A (zh) 一种基于注意力机制的自然场景文字检测方法
Yu et al. Precise segmentation of remote sensing cage images based on SegNet and voting mechanism

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination