CN112183534B - 基于视频合成孔径雷达的动目标智能联合检测方法 - Google Patents

基于视频合成孔径雷达的动目标智能联合检测方法 Download PDF

Info

Publication number
CN112183534B
CN112183534B CN202011067690.4A CN202011067690A CN112183534B CN 112183534 B CN112183534 B CN 112183534B CN 202011067690 A CN202011067690 A CN 202011067690A CN 112183534 B CN112183534 B CN 112183534B
Authority
CN
China
Prior art keywords
candidate
image
range
detection
synthetic aperture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011067690.4A
Other languages
English (en)
Other versions
CN112183534A (zh
Inventor
丁金闪
温利武
徐众
黄学军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN202011067690.4A priority Critical patent/CN112183534B/zh
Publication of CN112183534A publication Critical patent/CN112183534A/zh
Application granted granted Critical
Publication of CN112183534B publication Critical patent/CN112183534B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/155Segmentation; Edge detection involving morphological operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/507Depth or shape recovery from shading
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本发明公开了一种基于视频合成孔径雷达的动目标智能联合检测方法,主要解决现有技术对动目标检测虚警高及泛化性能差的问题。其方案为:获取训练数据;分别构建提供高分辨雷达图像候选区子网络和提供低分辨距离多普勒谱候选区子网络;通过坐标变换得到在图像和距离多普勒谱中成对存在的候选区,并据此分别构建图像阴影检测子网络和目标多普勒能量检测子网络;将各子网络组合得到完整的联合检测网络,并用训练数据对其训练;将待测试数据输入到训练好的联合检测网络中实现动目标检测。本发明利用动目标在高分辨图像与低分辨距离多普勒谱中的不同信息,提升了对动目标检测的虚警控制能力和泛化能力,可用于视频合成孔径雷达运动目标阴影检测。

Description

基于视频合成孔径雷达的动目标智能联合检测方法
技术领域
本发明属于雷达技术领域,特别涉及一种动目标联合检测方法,可用于视频合成孔径雷达运动目标阴影检测。
背景技术
视频合成孔径雷达是一种工作在高频波段的高帧率成像系统。视频合成孔径雷达通常采用聚束成像模式,并使用高重叠度的子孔径获得序列图像,以实现对场景的连续观测。在合成孔径时间内,阴影由于目标对所在区域地面的遮挡而产生。视频合成孔径雷达采用子孔径成像方式,相比于传统的SAR系统,其单帧合成孔径时间相对较短,因此更容易产生阴影,特别是对于慢速运动目标。因此,动目标的阴影检测在视频合成孔径雷达系统中得到了广泛的应用。在视频合成孔径雷达图像中直接检测动目标是非常困难的,特别是当目标像由于运动呈现严重的模糊与散焦,甚至可能偏移出场景。相反,在合适的条件下动目标会在其真实位置附近留下阴影,因此通过检测阴影可以间接实现对动目标的检测。动目标阴影比目标像更能够精确地反映目标的真实位置以及运动关系。其次,阴影检测可以避免复杂的重定位操作,直接实现在高分辨视频合成孔径雷达图像中对动目标的定位。
但是在SAR图像中,动目标阴影是典型的弱小目标,其具有较低的反射强度与单一的特征,并且与SAR图像中其他低灰度区域特征相似。一方面,阴影的尺寸与强度受目标运动状态与观测角的影响具有时变性,非常容易产生虚警。另一方面,阴影的产生受目标运动影响较大,特别是当目标速度较大时,阴影边界模糊,与背景的对比度下降,不利于观测。此外,混叠的目标像在极端情况下可能会遮挡阴影,这些因素会导致某些帧中的漏警。因此,需要一种稳健的阴影检测方法。
目前,经典的阴影检测方法可以分为两类:基于视频合成孔径雷达图像处理的阴影检测以及结合SAR-GMTI技术的阴影检测,主要有以下两种方法:
一是H.Xu等人在论文“An Extended Moving Target Detection Approach forHigh-Resolution Multichannel SAR-GMTI Systems Based on Enhanced Shadow-AidedDecision”中采用了一种阴影辅助的多通道SAR-GMTI方法。其根据动目标与其阴影的关系,提出了一种知识辅助的自适应门限阴影检测方法,消除了目标运动对阴影检测性能的影响。但是,该方法在GMTI后需要利用多通道的回波数据进行相位干涉,利用干涉相位估计目标的径向速度,随后计算方位偏移实现对目标的重定位。因此,这种方法对硬件系统要求较高,只适用于多通道SAR系统,并且计算复杂度较大。
二是Y.Zhang等人在论文“A novel approach to moving targets shadowdetection in video SAR imagery sequence”中提出了一种经典的视频合成孔径雷达图像处理流程,其包括图像配准,相干斑噪声抑制、背景提取、差分处理、形态学处理以及连通域检测等。该方法利用了视频合成孔径雷达图像的多帧信息来提取待检测帧的背景,随后在去除背景的图像上使用形态学处理检测阴影目标。但是该方法需要复杂的数据预处理导致计算量较大,并且当SAR图像中噪声较大时,性能也严重下降。
发明内容
本发明的目的在于针对上述现有技术的不足,提出一种视频合成孔径雷达动目标智能联合检测方法,以联合利用动目标的不同信息,提高对动目标检测的性能,并且使深度神经网络具有一定的泛化能力。另外,本发明仅需要利用单通道的回波数据,且无需复杂的数据预处理。
为实现上述目的,本发明技术方案的实现步骤包括如下:
1.一种视频合成孔径雷达的动目标智能联合检测方法,其特征在于,包括如下:
(1)将视频合成孔径雷达原始回波信号划分为T个子孔径,每个子孔径包含N个脉冲,获取每个子孔径的高分辨视频合成孔径雷达图像以及对应的低分辨距离多普勒谱,得到训练集Θ;
(2)构建用于提供高分辨视频合成孔径雷达图像候选区的神经网络ΨI
(2a)建立高分辨视频合成孔径雷达图像深度特征提取子网络ΓI
(2b)建立图像区域建议生成子网络ΩI
(2c)将步骤(2a)和(2b)建立的两个子网络依次连接,组合成提供图像候选区的神经网络ΨI
(3)构建用于提供低分辨距离多普勒谱候选区的神经网络ΨD
(3a)建立低分辨距离多普勒谱深度特征提取子网络ΓD
(3b)建立距离多普勒谱区域建议生成子网络ΩD
(3c)将步骤(3a)和(3b)建立的两个子网络依次连接,组合成提供距离多普勒谱候选区的神经网络ΨD
(4)将步骤(2)和(3)中图像区域建议网络和距离多普勒谱区域建议网络提供的候选区,通过坐标变换分别映射到距离多普勒谱和图像中,得到在高分辨雷达图像和低分辨距离多普勒谱中成对存在的候选区PI和PD
(5)构建图像阴影检测的子神经网络ΔI
(5a)建立一个感兴趣区域池化层PoolI,该池化层的输入为步骤(2)得到的高分辨视频合成孔径雷达图像的深度特征图及步骤(4)得到的成对候选区坐标PI,输出为固定维度的特征数据;
(5b)将固定维度的特征数据经过两个神经元个数均为4096的全连接层后,再由两个神经元个数分别为β和4β的全连接层做阴影目标分类和检测,形成图像阴影检测的子神经网络,其中β为目标总类别数;
(6)构建目标多普勒能量检测的子神经网络ΔD
(6a)建立一个感兴趣区域池化层PoolD,该池化层的输入为步骤(3)得到的低分辨距离多普勒谱的深度特征图及步骤(4)得到的成对候选区坐标PD,输出为固定维度的特征数据;
(6b)将固定维度的特征数据经过两个神经元个数均为4096的全连接层后,再由两个神经元个数分别为β和4β的全连接层做目标多普勒分类和检测,形成目标多普勒能量检测的子神经网络;
(7)将神经网络ΨI、ΨD、ΔI和ΔD按照输入输出关系进行组合,得到完整的联合检测网络;
(8)利用训练集Θ,采用后向传播算法对联合检测网络进行训练,得到训练好的网络;
(9)将待测试数据输入到训练好的网络中,得到成对候选区,再对得到的候选区做筛选得到动目标检测结果。
本发明与现有技术相比具有以下优点:
1)本发明利用运动目标与其阴影在位置、强度上的对应关系,结合阴影检测与单通道GMTI的优势,通过联合利用动目标在高分辨雷达图像与低分辨距离多普勒谱中的不同信息,提升视频合成孔径雷达对动目标检测的虚警控制能力;
2)本发明通过共享图像和距离多普勒谱中的候选区,构造成对候选区,同时进行阴影与动目标多普勒的检测,相比于传统深度学习检测网络,提升了网络对动目标检测的泛化性能,使之能适用于未知场景;
3)本发明构建的联合检测网络是一种端到端的深度神经网络,输入原始的高分辨视频合成孔径雷达图像及其对应的低分辨距离多普勒谱即可实现对其中动目标的有效检测,不需要做额外的数据处理,避免了传统方法复杂的预处理过程,简化了检测流程。
附图说明
图1是本发明的实现流程图;
图2是用本发明在视频合成孔径雷达数据中进行动目标检测的仿真结果图。
具体实施方式
下面结合附图对本发明的实施例和效果做进一步描述。
参照图1,本发明的实施步骤如下:
步骤一,将视频合成孔径雷达原始回波信号划分为T个子孔径,每个子孔径包含N个脉冲,获取每个子孔径的高分辨视频合成孔径雷达图像以及对应的低分辨距离多普勒谱,得到训练集Θ。
1a)假设视频合成孔径雷达复回波信号被排列为M个距离门、P个脉冲的回波矩阵,利用长度为N、步长为S的重叠滑动窗将全部接收信号划分为T帧,其中
Figure BDA0002714266530000041
Figure BDA0002714266530000042
表示向下取整操作,S<N;
1b)采用PFA算法,对每个子孔径中的N个脉冲进行成像,得到高分辨视频合成孔径雷达图像,并从每个子孔径中心抽取K个连续的脉冲,依次进行距离向压缩和方位向傅里叶变换,得到对应的低分辨距离多普勒谱;
1c)随着处理窗的滑动得到雷达复回波信号的一系列视频合成孔径雷达图像及对应的距离多普勒谱,将这些合成孔径雷达图像及对应的距离多普勒谱进行组合,得到训练集Θ。
步骤二,构建用于提供高分辨视频合成孔径雷达图像候选区的神经网络ΨI
(2a)建立高分辨视频合成孔径雷达图像深度特征提取子网络ΓI
ΓI其依次由第一卷积层、第一最大池化层、第二卷积层、第二最大池化层、第三卷积层、第三最大池化层、第四卷积层、第四最大池化层以及第五卷积层上下堆叠构成;
第一卷积层包含两个输出特征图个数均为64的卷积层;第二卷积层包含两个输出特征图个数均为128的卷积层;第三卷积层包含三个输出特征图个数均为256的卷积层;第四卷积层包含三个输出特征图个数均为512的卷积层;第五卷积层包含三个输出特征图个数均为512的卷积层;
每个卷积层均采用3×3的卷积核,步长为1×1;
每个最大池化层均采用2×2的池化核,步长为1×1;
该特征提取子网络ΓI的输入为高分辨视频合成孔径雷达图像,输出为深度特征图IF
(2b)建立图像区域建议生成子网络ΩI
2b1)对于深度特征图IF上的每一个点,生成9个具有不同尺度和宽高比的检测框,其中三种缩放尺度分别为8、16、32,长宽比分别为1:1,1:2,2:1,在特征图IF上,总共得到Φ个检测框,这些检测框即为图像候选区,分别对应高分辨视频合成孔径雷达图像中的不同区域;
2b2)将一个输出特征图个数为512的第1卷积层的输出分别与一个输出特征图个数为2Φ的第2卷积层和一个输出特征图个数为4Φ的第3卷积层的输入端相连,第2卷积层和第3卷积层分别输出每个候选区的前背景概率及四个回归参数,通过这些回归参数对候选区进行修正,删除越界的候选区,并对保留的候选区按前景概率降序排列,选择前ρ个候选区并对其进行非极大值抑制,得到抑制后的候选区;
2b3)对抑制后的候选区按前景概率降序排列,选择前α个候选区作为网络的输出,构成输入为深度特征图IF,输出为α个候选区的区域建议子网络ΩI,其中,第1卷积层的卷积核为3×3,步长为1×1;第2卷积层和第3卷积层的卷积核均为1×1,步长为1×1,α为128到256之间的整数;
(2c)将步骤(2a)和(2b)建立的两个子网络依次连接,组合成提供图像候选区的神经网络ΨI
步骤三,构建用于提供低分辨距离多普勒谱候选区的神经网络ΨD
(3a)建立低分辨距离多普勒谱深度特征提取子网络ΓD
其结构与(2a)中构建的特征提取子网络ΓI相同,其输入为低分辨距离多普勒谱,输出为深度特征图DF
(3b)建立距离多普勒谱区域建议生成子网络ΩD
其结构与(2b)中构建的区域建议子网络ΩI相同,其输入为低分辨距离多普勒谱深度特征提取网络ΓD输出的深度特征图DF
(3c)将步骤(3a)和(3b)建立的两个子网络依次连接,组合成提供距离多普勒谱候选区的神经网络ΨD
步骤四,将图像区域建议网络和距离多普勒谱区域建议网络提供的候选区通过坐标变换分别映射到距离多普勒谱和图像中,得到在高分辨雷达图像和低分辨距离多普勒谱中成对存在的候选区PI和PD
4.1将图像区域建议网络ΩI产生的第i个候选区γi和距离多普勒谱区域建议网络ΩD产生的第j个候选区ηj表示如下:
Figure BDA0002714266530000061
其中,
Figure BDA0002714266530000062
为高分辨视频合成孔径雷达图像上第i个候选区的左上角坐标,
Figure BDA0002714266530000063
为右下角坐标,
Figure BDA0002714266530000064
为低分辨距离多普勒谱第j个候选区的左上角坐标,
Figure BDA0002714266530000065
为右下角坐标。所有在高分辨视频合成孔径雷达图像上的候选区集合记为ΛI={γi,i=1,...,α},所有在低分辨距离多普勒谱上的候选区集合记为ΛD={ηj,j=1,...,α},α为候选区个数,取128到256之间的整数;
4.2计算候选区γi的纵坐标与低分辨距离多普勒谱候选区集合ΛD中的所有候选区的纵坐标之差,假设γi与ΛD中第m个候选区的纵坐标之差最小,通过下式求解m的值:
Figure BDA0002714266530000066
4.3将高分辨雷达图像候选区集合ΛI中的候选区γi变换到距离多普勒谱中,表示为:
Figure BDA0002714266530000071
其中,γi′为候选区γi在距离多普勒谱中对应的候选区,
Figure BDA0002714266530000072
分别为ΛD中第m个候选区的左上角和右下角横坐标;
4.4重复步骤4.2和4.3,遍历高分辨雷达图像候选区集合ΛI中的所有候选区,将位于高分辨图像上的候选区变换到低分辨距离多普勒谱中,得到扩充后的低分辨距离多普勒谱候选区集合PD
PD={γ1'…γ'αη1…ηα};
4.5计算候选区ηj的纵坐标与高分辨雷达图像候选区集合ΛI中的所有候选区的纵坐标之差,假设ηj与ΛI中第n个候选区的纵坐标之差最小,通过下式求解n的值:
Figure BDA0002714266530000073
4.6将低分辨距离多普勒谱候选区集合ΛD中的候选区ηj变换到图像中,表示为:
Figure BDA0002714266530000074
其中,ηj′为候选区ηj在图像中对应的候选区,
Figure BDA0002714266530000075
分别为ΛI中第n个候选区的左上角和右下角横坐标;
4.7重复步骤4.5和4.6,遍历低分辨距离多普勒谱候选区集合ΛD中的所有候选区,将位于低分辨距离多普勒谱上的候选区变换到高分辨雷达图像中,得到扩充后的高分辨雷达图像候选区集合PI
PI={γ1…γαη1'…η'α}。
步骤五,构建图像阴影检测的子神经网络ΔI
(5a)建立一个感兴趣区域池化层PoolI,该池化层的输入为步骤二得到的高分辨视频合成孔径雷达图像的深度特征图及步骤四得到的成对候选区坐标PI,输出为固定维度的图像特征数据;
(5b)将固定维度的图像特征数据经过两个神经元个数均为4096的全连接层后,再由两个神经元个数分别为β和4β的全连接层分别做阴影目标分类和检测,形成图像阴影检测的子神经网络,其中β为目标总类别数。
步骤六,构建目标多普勒能量检测的子神经网络ΔD
(6a)建立一个感兴趣区域池化层PoolD,该池化层的输入为步骤三得到的低分辨距离多普勒谱的深度特征图及步骤四得到的成对候选区坐标PD,输出为固定维度的距离多普勒谱特征数据;
(6b)将固定维度的距离多普勒谱特征数据经过两个神经元个数均为4096的全连接层后,再由两个神经元个数分别为β和4β的全连接层做目标多普勒分类和检测,形成目标多普勒能量检测的子神经网络。
步骤七,将神经网络ΨI、ΨD、ΔI和ΔD按照输入输出关系进行组合,得到完整的联合检测网络。
将步骤二和步骤五构建的神经网络串联,组合为图像检测网络;
将步骤三和步骤六构建的神经网络串联,组合为距离多普勒谱检测网络;
将图像检测网络和距离多普勒谱检测网络并联即可得到完整的联合检测网络。
该联合检测网络的输入数据为一个子孔径中的高分辨视频合成孔径雷达图像及其对应的低分辨距离多普勒谱,其中高分辨视频合成孔径雷达图像输入至图像检测网络,低分辨距离多普勒谱输入至距离多普勒谱检测网络。
步骤八,利用训练集Θ,采用后向传播算法对联合检测网络进行训练,得到训练好的联合检测网络。
8.1设置损失函数:
8.1.1分别设置图像区域建议的损失函数Limg_rpn和距离多普勒谱区域建议的损失函数Ldop_rpn为:
Figure BDA0002714266530000081
其中,Nrpn_cls=Nrpn_reg=α,
Figure BDA0002714266530000082
Figure BDA0002714266530000083
是前/背景二分类交叉熵损失函数,pIi是图像中第i个候选区预测为前景的概率,
Figure BDA0002714266530000084
是真实标签(1为目标,0为背景),pDj
Figure BDA0002714266530000091
分别是距离多普勒谱中第j个候选区预测为前景的概率和真实标签,
Figure BDA0002714266530000092
Figure BDA0002714266530000093
是回归损失函数,tIi和tDj是候选区的回归参数,
Figure BDA0002714266530000094
Figure BDA0002714266530000095
是真实标记框的回归参数;
8.1.2设置联合检测的损失函数为:
Figure BDA0002714266530000096
其中,Ncls=Nreg=2α,
Figure BDA0002714266530000097
Figure BDA0002714266530000098
分别是图像及距离多普勒中的四分类交叉熵损失函数,其将候选区分类为阴影、缺失阴影、目标多普勒以及背景,
Figure BDA0002714266530000099
Figure BDA00027142665300000910
是回归损失函数;
8.1.3设置联合检测网络的总损失函数为:
L=Limg_rpn+Ldop_rpn+Lrcnn
8.2训练联合检测网络:
8.2.1设置学习率为0.001;
8.2.2将训练集Θ中的高分辨合成孔径雷达图像及其标签输入至联合检测网络的图像处理部分,将训练集Θ中的低分辨距离多普勒谱及其标签输入至联合检测网络的距离多普勒处理部分,依据联合检测网络总损失函数L的输出,沿梯度下降方向对网络权值进行更新,直到联合检测网络总损失函数收敛,得到训练好的联合检测网络。
步骤九,通过训练好的联合检测网络,得到成对候选区,筛选得到动目标检测结果。
9.1将待测试数据输入到训练好的联合检测网络中,得到2α对候选区及其目标分类得分;
9.2将置信度门限设置为δ,将2α对候选区的目标分类得分与置信度门限δ做比较,保留高分辨图像及距离多普勒谱中对目标分类的得分均大于δ的成对候选区;
9.3在高分辨图像中对候选区进行非极大值抑制,删除局部区域内分类得分不是极大值的候选区,同时删除距离多普勒谱中对应的候选区;
9.4在距离多普勒谱中对候选区进行非极大值抑制,删除局部区域内分类得分不是极大值的候选区,同时删除高分辨图像中对应的候选区,得到动目标检测结果。
本发明的效果可以通过以下仿真进一步说明。
一.仿真参数:
用于仿真生成视频合成孔径雷达原始回波信号的参数如表1所示:
表1回波信号参数
参数 参数
中心频率 35GHz 脉冲重复频率 3KHz
带宽 0.75GHz 脉冲宽度 20us
采样频率 30.5MHz 擦地角 25度
飞行半径 2.5Km 飞行速度 45m/s
子孔径长度 3072 子孔径步长 144
子孔径数 200 多普勒脉冲数 256
杂噪比 10~17.5dB 信杂比 0~-5dB
成像区范围 120m×120m 目标尺寸 3m~7m
二.仿真内容:
利用表1所示参数的回波信号,仿真本发明方法在两种不同的场景下的动目标检测结果,如图2所示,其中图2(a)是在场景1下的检测结果,图2(b)是在场景2下的检测结果;
从图2中可以看出本发明对动目标检测具有较低的虚警率以及较高的检测概率。
以上描述仅是本发明的一个具体实例,并未构成对本发明的任何限制,显然对于本领域的专业人员来说,在了解本发明内容和原理后,都可能在不背离本发明原理、结构的情况下,进行形式和细节上的各种修改和改变,但是这些基于本发明思想的修正和改变仍在本发明的权利要求保护范围之内。

Claims (7)

1.一种视频合成孔径雷达的动目标智能联合检测方法,其特征在于,包括如下:
(1)将视频合成孔径雷达原始回波信号划分为T个子孔径,每个子孔径包含N个脉冲,获取每个子孔径的高分辨视频合成孔径雷达图像以及对应的低分辨距离多普勒谱,得到训练集Θ;
(2)构建用于提供高分辨视频合成孔径雷达图像候选区的神经网络ΨI
(2a)建立高分辨视频合成孔径雷达图像深度特征提取子网络ΓI
(2b)建立图像区域建议子网络ΩI
(2c)将步骤(2a)和(2b)建立的两个子网络依次连接,组合成提供图像候选区的神经网络ΨI
(3)构建用于提供低分辨距离多普勒谱候选区的神经网络ΨD
(3a)建立低分辨距离多普勒谱深度特征提取子网络ΓD
(3b)建立距离多普勒谱区域建议子网络ΩD
(3c)将步骤(3a)和(3b)建立的两个子网络依次连接,组合成提供距离多普勒谱候选区的神经网络ΨD
(4)将步骤(2)和(3)中神经网络提供的候选区,通过坐标变换分别映射到距离多普勒谱和图像中,得到在高分辨视频合成孔径雷达图像和低分辨距离多普勒谱中成对存在的候选区PI和PD,实现如下:
4a)设图像区域建议子网络ΩI产生的第i个候选区γi和距离多普勒谱区域建议子网络ΩD产生的第j个候选区ηj可以表示为:
Figure FDA0004134952900000011
其中,
Figure FDA0004134952900000012
为高分辨视频合成孔径雷达图像上第i个候选区的左上角坐标,
Figure FDA0004134952900000013
为右下角坐标,
Figure FDA0004134952900000014
为低分辨距离多普勒谱第j个候选区的左上角坐标,
Figure FDA0004134952900000015
为右下角坐标;所有在高分辨视频合成孔径雷达图像上的候选区集合记为ΛI={γi,i=1,...,α},所有在低分辨距离多普勒谱上的候选区集合记为ΛD={ηj,j=1,...,α},α为候选区个数,取128到256之间的整数;
4b)计算候选区γi的纵坐标与候选区集合ΛD中的所有候选区的纵坐标之差,假设γi与ΛD中第m个候选区的纵坐标之差最小,通过下式求解m的值:
Figure FDA0004134952900000021
4c)将候选区集合ΛI中的候选区γi变换到距离多普勒谱中,表示为:
Figure FDA0004134952900000022
其中,
Figure FDA0004134952900000023
分别为ΛD中第m个候选区的左上角和右下角横坐标;
4d)重复步骤4b)和4c),遍历候选区集合ΛI中的所有候选区,将位于高分辨视频合成孔径雷达图像上的候选区变换到低分辨距离多普勒谱中,最终低分辨距离多普勒谱中的候选区集合表示为:
PD={γ′1…γ′α η1…ηα};
4e)计算候选区ηj的纵坐标与候选区集合ΛI中的所有候选区的纵坐标之差,假设ηj与ΛI中第n个候选区的纵坐标之差最小,通过下式求解n的值:
Figure FDA0004134952900000024
4f)将候选区集合ΛD中的候选区ηj变换到图像中,表示为:
Figure FDA0004134952900000025
其中,
Figure FDA0004134952900000026
分别为ΛI中第n个候选区的左上角和右下角横坐标;
4g)重复步骤4e)和4f),遍历候选区集合ΛD中的所有候选区,将位于低分辨距离多普勒谱上的候选区变换到高分辨视频合成孔径雷达图像中,得到最终高分辨视频合成孔径雷达图像中的候选区集合PI为:
PI={γ1…γα η′1…η′α};
(5)构建图像阴影检测的子神经网络ΔI
(5a)建立一个感兴趣区域池化层PoolI,该池化层的输入为步骤(2)得到的高分辨视频合成孔径雷达图像的深度特征图及步骤(4)得到的成对候选区PI,输出为固定维度的特征数据;
(5b)将固定维度的特征数据经过两个神经元个数均为4096的全连接层后,再由两个神经元个数分别为β和4β的全连接层做阴影目标分类和检测,形成图像阴影检测的子神经网络,其中β为目标总类别数;
(6)构建目标多普勒能量检测的子神经网络ΔD
(6a)建立一个感兴趣区域池化层PoolD,该池化层的输入为步骤(3)得到的低分辨距离多普勒谱的深度特征图及步骤(4)得到的成对候选区PD,输出为固定维度的特征数据;
(6b)将固定维度的特征数据经过两个神经元个数均为4096的全连接层后,再由两个神经元个数分别为β和4β的全连接层做目标多普勒分类和检测,形成目标多普勒能量检测的子神经网络;
(7)将神经网络ΨI、ΨD、ΔI和ΔD按照输入输出关系进行组合,得到完整的联合检测网络,实现如下:
7a)将步骤(2)构建的神经网络ΨI与步骤(5)构建的神经网络ΔI进行串联,组合为图像检测网络;
7b)将步骤(3)构建的神经网络ΨD与步骤(6)构建的神经网络进行ΔD串联,组合为距离多普勒谱检测网络;
7c)将图像检测网络与距离多普勒谱检测网络进行并联,得到完整的联合检测网络;
(8)利用训练集Θ,采用后向传播算法对联合检测网络进行训练,得到训练好的网络;
(9)将待测试数据输入到训练好的网络中,得到成对候选区及其目标分类得分,再根据目标分类得分对得到的成对候选区做筛选得到动目标检测结果。
2.根据权利要求1所述的方法,其中(1)中得到训练集Θ,实现如下:
1a)假设视频合成孔径雷达复回波信号被排列为M个距离门、P个脉冲的回波矩阵,利用长度为N、步长为S的重叠滑动窗将全部接收信号划分为T帧,其中
Figure FDA0004134952900000031
Figure FDA0004134952900000032
表示向下取整操作,S<N;
1b)采用PFA算法,对每个子孔径中的N个脉冲进行成像,得到高分辨视频合成孔径雷达图像,并从每个子孔径中心抽取K个连续的脉冲,依次进行距离向压缩和方位向傅里叶变换,得到对应的低分辨距离多普勒谱;
1c)随着处理窗的滑动得到雷达复回波信号的一系列视频合成孔径雷达图像及对应的距离多普勒谱,将这些合成孔径雷达图像及对应的距离多普勒谱进行组合,得到训练集Θ。
3.根据权利要求1所述的方法,其中(2a)中构建的特征提取子网络ΓI,其依次由第一卷积层、第一最大池化层、第二卷积层、第二最大池化层、第三卷积层、第三最大池化层、第四卷积层、第四最大池化层以及第五卷积层上下堆叠构成;
第一卷积层包含两个输出特征图个数均为64的卷积层;第二卷积层包含两个输出特征图个数均为128的卷积层;第三卷积层包含三个输出特征图个数均为256的卷积层;第四卷积层包含三个输出特征图个数均为512的卷积层;第五卷积层包含三个输出特征图个数均为512的卷积层;
每个卷积层均采用3×3的卷积核,步长为1×1;
每个最大池化层均采用2×2的池化核,步长为1×1;
该特征提取子网络ΓI的输入为高分辨视频合成孔径雷达图像,输出为深度特征图IF
4.根据权利要求3所述的方法,其中(2b)中构建区域建议子网络ΩI,实现如下:
2b1)对于深度特征图IF上的每一个点,生成9个具有不同尺度和宽高比的检测框,其中三种缩放尺度分别为8、16、32,长宽比分别为1:1,1:2,2:1,在特征图IF上,总共得到Φ个检测框,这些检测框即为图像候选区,分别对应高分辨视频合成孔径雷达图像中的不同区域;
2b2)将一个输出特征图个数为512的第1卷积层的输出分别与一个输出特征图个数为2Φ的第2卷积层和一个输出特征图个数为4Φ的第3卷积层的输入端相连,第2卷积层和第3卷积层分别输出每个候选区的前背景概率及四个回归参数,通过回归参数对候选区进行修正,删除越界的候选区,并对保留的候选区按前景概率降序排列,选择前ρ个候选区并对其进行非极大值抑制;
2b3)对抑制后的候选区按前景概率降序排列,选择前α个候选区作为网络的输出,构成输入为深度特征图IF,输出为α个候选区的区域建议子网络ΩI,其中,第1卷积层的卷积核为3×3,步长为1×1;第2卷积层和第3卷积层的卷积核均为1×1,步长为1×1,α为128到256之间的整数。
5.根据权利要求1所述的方法,其中(3a)中构建特征提取子网络ΓD,其结构与(2a)中构建的特征提取子网络ΓI相同,其输入为低分辨距离多普勒谱,输出为深度特征图DF
6.根据权利要求5所述的方法,其中(3b)中构建区域建议子网络ΩD,其结构与(2b)中构建的区域建议子网络ΩI相同,其输入为低分辨距离多普勒谱深度特征提取网络ΓD输出的深度特征图DF
7.根据权利要求1所述的方法,其中(9)中根据目标分类得分对得到的成对候选区做筛选,实现如下:
9a)将置信度门限设置为δ,将2α对候选区的目标分类得分与置信度门限δ做比较,保留高分辨视频合成孔径雷达图像及距离多普勒谱中对目标分类的得分均大于δ的成对候选区;
9b)在高分辨视频合成孔径雷达图像中对候选区进行非极大值抑制,删除局部区域内分类得分不是极大值的候选区,同时删除距离多普勒谱中对应的候选区;
9c)在距离多普勒谱中对候选区进行非极大值抑制,删除局部区域内分类得分不是极大值的候选区,同时删除高分辨视频合成孔径雷达图像中对应的候选区,得到动目标检测结果。
CN202011067690.4A 2020-10-07 2020-10-07 基于视频合成孔径雷达的动目标智能联合检测方法 Active CN112183534B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011067690.4A CN112183534B (zh) 2020-10-07 2020-10-07 基于视频合成孔径雷达的动目标智能联合检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011067690.4A CN112183534B (zh) 2020-10-07 2020-10-07 基于视频合成孔径雷达的动目标智能联合检测方法

Publications (2)

Publication Number Publication Date
CN112183534A CN112183534A (zh) 2021-01-05
CN112183534B true CN112183534B (zh) 2023-05-23

Family

ID=73947741

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011067690.4A Active CN112183534B (zh) 2020-10-07 2020-10-07 基于视频合成孔径雷达的动目标智能联合检测方法

Country Status (1)

Country Link
CN (1) CN112183534B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114611547A (zh) * 2022-01-29 2022-06-10 清华大学 基于卷积神经网络的雷达目标识别方法、模型训练方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103454624A (zh) * 2013-09-22 2013-12-18 河海大学 基于降维稀疏重构空时谱的直接数据域动目标检测方法
CN103744068A (zh) * 2014-01-21 2014-04-23 西安电子科技大学 双通道调频连续波sar系统的动目标检测成像方法
CN103942803A (zh) * 2014-05-05 2014-07-23 北京理工大学 基于sar图像的水域自动检测方法
CN107766858A (zh) * 2017-10-20 2018-03-06 哈尔滨工业大学(威海) 一种应用合成孔径雷达图像进行船舶检测的方法
CN109709536A (zh) * 2019-01-24 2019-05-03 电子科技大学 一种基于卷积神经网络的sar动目标检测方法
JP2019086464A (ja) * 2017-11-09 2019-06-06 株式会社東芝 レーダ装置及びそのレーダ信号処理方法
CN110472628A (zh) * 2019-08-10 2019-11-19 四创科技有限公司 一种基于视频特征的改进Faster R-CNN网络检测漂浮物方法
CN111123257A (zh) * 2019-12-30 2020-05-08 西安电子科技大学 基于图时空网络的雷达动目标多帧联合检测方法
CN111707996A (zh) * 2020-05-26 2020-09-25 北京理工大学重庆创新中心 基于改进grft-stap的geo星机sar动目标检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10459061B2 (en) * 2014-05-08 2019-10-29 Src, Inc. FFT-based displaced phase center array/along-track interferometry architecture

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103454624A (zh) * 2013-09-22 2013-12-18 河海大学 基于降维稀疏重构空时谱的直接数据域动目标检测方法
CN103744068A (zh) * 2014-01-21 2014-04-23 西安电子科技大学 双通道调频连续波sar系统的动目标检测成像方法
CN103942803A (zh) * 2014-05-05 2014-07-23 北京理工大学 基于sar图像的水域自动检测方法
CN107766858A (zh) * 2017-10-20 2018-03-06 哈尔滨工业大学(威海) 一种应用合成孔径雷达图像进行船舶检测的方法
JP2019086464A (ja) * 2017-11-09 2019-06-06 株式会社東芝 レーダ装置及びそのレーダ信号処理方法
CN109709536A (zh) * 2019-01-24 2019-05-03 电子科技大学 一种基于卷积神经网络的sar动目标检测方法
CN110472628A (zh) * 2019-08-10 2019-11-19 四创科技有限公司 一种基于视频特征的改进Faster R-CNN网络检测漂浮物方法
CN111123257A (zh) * 2019-12-30 2020-05-08 西安电子科技大学 基于图时空网络的雷达动目标多帧联合检测方法
CN111707996A (zh) * 2020-05-26 2020-09-25 北京理工大学重庆创新中心 基于改进grft-stap的geo星机sar动目标检测方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks;Shaoqing Ren 等;《arXiv:1506.01497v3》;20160131;第1-14页 *
Moving Target Detection and Doppler Extraction Using Digital Spread Spectrum Radar;Subhankar Shome 等;《I.J. Intelligent Systems and Applications》;20141231;第47-54页 *
一种VideoSAR动目标阴影检测方法;张营 等;《电子与信息学报》;20170930;第39卷(第9期);第2197-2202页 *
基于两视处理的单通道SAR地面运动目标检测和定位;周峰等;《西安电子科技大学学报》;20061025;第33卷(第05期);第673-677,681页 *
煤矿井下视频运动目标的检测与识别研究;许风志;《中国优秀硕士学位论文全文数据库 工程科技I辑》;20200115;第2020年卷(第01期);第B021-458页 *

Also Published As

Publication number Publication date
CN112183534A (zh) 2021-01-05

Similar Documents

Publication Publication Date Title
CN111123257B (zh) 基于图时空网络的雷达动目标多帧联合检测方法
CN104851097B (zh) 基于目标形状与阴影辅助的多通道sar‑gmti方法
CN109242889A (zh) 基于上下文显著性检测与sae的sar图像变化检测方法
CN110728706B (zh) 基于深度学习的sar图像精细配准方法
Armanious et al. An adversarial super-resolution remedy for radar design trade-offs
CN112184749B (zh) 基于视频sar跨域联合的动目标跟踪方法
CN103116881A (zh) 基于PCA与Shearlet变换的遥感图像融合方法
CN113189589B (zh) 基于卷积神经网络的多通道合成孔径雷达动目标检测方法
CN114677419A (zh) 基于三维卷积网络的雷达多普勒信号低慢小目标检测方法
CN109298417B (zh) 一种基于雷达信号处理的建筑物内部结构探测方法及装置
CN112183534B (zh) 基于视频合成孔径雷达的动目标智能联合检测方法
CN111323756A (zh) 一种基于深度学习的航海雷达目标检测方法及装置
CN111323757B (zh) 一种航海雷达目标检测方法及装置
CN114565824B (zh) 基于全卷积网络的单阶段旋转舰船检测方法
Kawaguchi et al. Evaluation on a drone classification method using UWB radar image recognition with deep learning
CN113466797B (zh) 基于杂波脊匹配稀疏恢复的双基sar空-时杂波抑制方法
CN115909086A (zh) 基于多级增强网络的sar目标检测识别方法
CN115984751A (zh) 一种基于多通道多尺度融合的孪生网络遥感目标跟踪方法
CN113608214B (zh) 一种机载扫描雷达实时超分辨成像方法
CN113640793A (zh) 基于mrf的实孔径扫描雷达超分辨成像方法
CN105223571B (zh) 基于加权l1优化与视觉显著注意的isar成像方法
CN110263777B (zh) 基于空谱结合的局部保持投影算法的目标检测方法及系统
Sun et al. Multi-channel SAR moving target detection by integrating STAP and faster R-CNN
CN114332151B (zh) 一种基于阴影Video-SAR中感兴趣目标跟踪方法
CN112731399B (zh) 一种基于二维稀疏结构的宽带雷达飞机目标架次识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant