CN112183534B - 基于视频合成孔径雷达的动目标智能联合检测方法 - Google Patents
基于视频合成孔径雷达的动目标智能联合检测方法 Download PDFInfo
- Publication number
- CN112183534B CN112183534B CN202011067690.4A CN202011067690A CN112183534B CN 112183534 B CN112183534 B CN 112183534B CN 202011067690 A CN202011067690 A CN 202011067690A CN 112183534 B CN112183534 B CN 112183534B
- Authority
- CN
- China
- Prior art keywords
- candidate
- image
- range
- detection
- synthetic aperture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 97
- 238000001228 spectrum Methods 0.000 claims abstract description 76
- 238000012549 training Methods 0.000 claims abstract description 18
- 230000009466 transformation Effects 0.000 claims abstract description 8
- 238000013528 artificial neural network Methods 0.000 claims description 36
- 238000011176 pooling Methods 0.000 claims description 24
- 238000000034 method Methods 0.000 claims description 21
- 238000000605 extraction Methods 0.000 claims description 15
- 210000002569 neuron Anatomy 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 10
- 230000001629 suppression Effects 0.000 claims description 7
- 238000004422 calculation algorithm Methods 0.000 claims description 5
- 238000012216 screening Methods 0.000 claims description 4
- 230000001131 transforming effect Effects 0.000 claims description 4
- 238000010586 diagram Methods 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 230000006835 compression Effects 0.000 claims description 2
- 238000007906 compression Methods 0.000 claims description 2
- 239000011159 matrix material Substances 0.000 claims description 2
- 230000003595 spectral effect Effects 0.000 claims description 2
- 230000006870 function Effects 0.000 description 10
- 238000004088 simulation Methods 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 4
- 101100001674 Emericella variicolor andI gene Proteins 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000877 morphologic effect Effects 0.000 description 2
- 230000004931 aggregating effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000012535 impurity Substances 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
- G01S13/90—Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/155—Segmentation; Edge detection involving morphological operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/507—Depth or shape recovery from shading
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10044—Radar image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Radar, Positioning & Navigation (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明公开了一种基于视频合成孔径雷达的动目标智能联合检测方法,主要解决现有技术对动目标检测虚警高及泛化性能差的问题。其方案为:获取训练数据;分别构建提供高分辨雷达图像候选区子网络和提供低分辨距离多普勒谱候选区子网络;通过坐标变换得到在图像和距离多普勒谱中成对存在的候选区,并据此分别构建图像阴影检测子网络和目标多普勒能量检测子网络;将各子网络组合得到完整的联合检测网络,并用训练数据对其训练;将待测试数据输入到训练好的联合检测网络中实现动目标检测。本发明利用动目标在高分辨图像与低分辨距离多普勒谱中的不同信息,提升了对动目标检测的虚警控制能力和泛化能力,可用于视频合成孔径雷达运动目标阴影检测。
Description
技术领域
本发明属于雷达技术领域,特别涉及一种动目标联合检测方法,可用于视频合成孔径雷达运动目标阴影检测。
背景技术
视频合成孔径雷达是一种工作在高频波段的高帧率成像系统。视频合成孔径雷达通常采用聚束成像模式,并使用高重叠度的子孔径获得序列图像,以实现对场景的连续观测。在合成孔径时间内,阴影由于目标对所在区域地面的遮挡而产生。视频合成孔径雷达采用子孔径成像方式,相比于传统的SAR系统,其单帧合成孔径时间相对较短,因此更容易产生阴影,特别是对于慢速运动目标。因此,动目标的阴影检测在视频合成孔径雷达系统中得到了广泛的应用。在视频合成孔径雷达图像中直接检测动目标是非常困难的,特别是当目标像由于运动呈现严重的模糊与散焦,甚至可能偏移出场景。相反,在合适的条件下动目标会在其真实位置附近留下阴影,因此通过检测阴影可以间接实现对动目标的检测。动目标阴影比目标像更能够精确地反映目标的真实位置以及运动关系。其次,阴影检测可以避免复杂的重定位操作,直接实现在高分辨视频合成孔径雷达图像中对动目标的定位。
但是在SAR图像中,动目标阴影是典型的弱小目标,其具有较低的反射强度与单一的特征,并且与SAR图像中其他低灰度区域特征相似。一方面,阴影的尺寸与强度受目标运动状态与观测角的影响具有时变性,非常容易产生虚警。另一方面,阴影的产生受目标运动影响较大,特别是当目标速度较大时,阴影边界模糊,与背景的对比度下降,不利于观测。此外,混叠的目标像在极端情况下可能会遮挡阴影,这些因素会导致某些帧中的漏警。因此,需要一种稳健的阴影检测方法。
目前,经典的阴影检测方法可以分为两类:基于视频合成孔径雷达图像处理的阴影检测以及结合SAR-GMTI技术的阴影检测,主要有以下两种方法:
一是H.Xu等人在论文“An Extended Moving Target Detection Approach forHigh-Resolution Multichannel SAR-GMTI Systems Based on Enhanced Shadow-AidedDecision”中采用了一种阴影辅助的多通道SAR-GMTI方法。其根据动目标与其阴影的关系,提出了一种知识辅助的自适应门限阴影检测方法,消除了目标运动对阴影检测性能的影响。但是,该方法在GMTI后需要利用多通道的回波数据进行相位干涉,利用干涉相位估计目标的径向速度,随后计算方位偏移实现对目标的重定位。因此,这种方法对硬件系统要求较高,只适用于多通道SAR系统,并且计算复杂度较大。
二是Y.Zhang等人在论文“A novel approach to moving targets shadowdetection in video SAR imagery sequence”中提出了一种经典的视频合成孔径雷达图像处理流程,其包括图像配准,相干斑噪声抑制、背景提取、差分处理、形态学处理以及连通域检测等。该方法利用了视频合成孔径雷达图像的多帧信息来提取待检测帧的背景,随后在去除背景的图像上使用形态学处理检测阴影目标。但是该方法需要复杂的数据预处理导致计算量较大,并且当SAR图像中噪声较大时,性能也严重下降。
发明内容
本发明的目的在于针对上述现有技术的不足,提出一种视频合成孔径雷达动目标智能联合检测方法,以联合利用动目标的不同信息,提高对动目标检测的性能,并且使深度神经网络具有一定的泛化能力。另外,本发明仅需要利用单通道的回波数据,且无需复杂的数据预处理。
为实现上述目的,本发明技术方案的实现步骤包括如下:
1.一种视频合成孔径雷达的动目标智能联合检测方法,其特征在于,包括如下:
(1)将视频合成孔径雷达原始回波信号划分为T个子孔径,每个子孔径包含N个脉冲,获取每个子孔径的高分辨视频合成孔径雷达图像以及对应的低分辨距离多普勒谱,得到训练集Θ;
(2)构建用于提供高分辨视频合成孔径雷达图像候选区的神经网络ΨI:
(2a)建立高分辨视频合成孔径雷达图像深度特征提取子网络ΓI;
(2b)建立图像区域建议生成子网络ΩI;
(2c)将步骤(2a)和(2b)建立的两个子网络依次连接,组合成提供图像候选区的神经网络ΨI;
(3)构建用于提供低分辨距离多普勒谱候选区的神经网络ΨD:
(3a)建立低分辨距离多普勒谱深度特征提取子网络ΓD;
(3b)建立距离多普勒谱区域建议生成子网络ΩD;
(3c)将步骤(3a)和(3b)建立的两个子网络依次连接,组合成提供距离多普勒谱候选区的神经网络ΨD;
(4)将步骤(2)和(3)中图像区域建议网络和距离多普勒谱区域建议网络提供的候选区,通过坐标变换分别映射到距离多普勒谱和图像中,得到在高分辨雷达图像和低分辨距离多普勒谱中成对存在的候选区PI和PD;
(5)构建图像阴影检测的子神经网络ΔI:
(5a)建立一个感兴趣区域池化层PoolI,该池化层的输入为步骤(2)得到的高分辨视频合成孔径雷达图像的深度特征图及步骤(4)得到的成对候选区坐标PI,输出为固定维度的特征数据;
(5b)将固定维度的特征数据经过两个神经元个数均为4096的全连接层后,再由两个神经元个数分别为β和4β的全连接层做阴影目标分类和检测,形成图像阴影检测的子神经网络,其中β为目标总类别数;
(6)构建目标多普勒能量检测的子神经网络ΔD:
(6a)建立一个感兴趣区域池化层PoolD,该池化层的输入为步骤(3)得到的低分辨距离多普勒谱的深度特征图及步骤(4)得到的成对候选区坐标PD,输出为固定维度的特征数据;
(6b)将固定维度的特征数据经过两个神经元个数均为4096的全连接层后,再由两个神经元个数分别为β和4β的全连接层做目标多普勒分类和检测,形成目标多普勒能量检测的子神经网络;
(7)将神经网络ΨI、ΨD、ΔI和ΔD按照输入输出关系进行组合,得到完整的联合检测网络;
(8)利用训练集Θ,采用后向传播算法对联合检测网络进行训练,得到训练好的网络;
(9)将待测试数据输入到训练好的网络中,得到成对候选区,再对得到的候选区做筛选得到动目标检测结果。
本发明与现有技术相比具有以下优点:
1)本发明利用运动目标与其阴影在位置、强度上的对应关系,结合阴影检测与单通道GMTI的优势,通过联合利用动目标在高分辨雷达图像与低分辨距离多普勒谱中的不同信息,提升视频合成孔径雷达对动目标检测的虚警控制能力;
2)本发明通过共享图像和距离多普勒谱中的候选区,构造成对候选区,同时进行阴影与动目标多普勒的检测,相比于传统深度学习检测网络,提升了网络对动目标检测的泛化性能,使之能适用于未知场景;
3)本发明构建的联合检测网络是一种端到端的深度神经网络,输入原始的高分辨视频合成孔径雷达图像及其对应的低分辨距离多普勒谱即可实现对其中动目标的有效检测,不需要做额外的数据处理,避免了传统方法复杂的预处理过程,简化了检测流程。
附图说明
图1是本发明的实现流程图;
图2是用本发明在视频合成孔径雷达数据中进行动目标检测的仿真结果图。
具体实施方式
下面结合附图对本发明的实施例和效果做进一步描述。
参照图1,本发明的实施步骤如下:
步骤一,将视频合成孔径雷达原始回波信号划分为T个子孔径,每个子孔径包含N个脉冲,获取每个子孔径的高分辨视频合成孔径雷达图像以及对应的低分辨距离多普勒谱,得到训练集Θ。
1b)采用PFA算法,对每个子孔径中的N个脉冲进行成像,得到高分辨视频合成孔径雷达图像,并从每个子孔径中心抽取K个连续的脉冲,依次进行距离向压缩和方位向傅里叶变换,得到对应的低分辨距离多普勒谱;
1c)随着处理窗的滑动得到雷达复回波信号的一系列视频合成孔径雷达图像及对应的距离多普勒谱,将这些合成孔径雷达图像及对应的距离多普勒谱进行组合,得到训练集Θ。
步骤二,构建用于提供高分辨视频合成孔径雷达图像候选区的神经网络ΨI。
(2a)建立高分辨视频合成孔径雷达图像深度特征提取子网络ΓI;
ΓI其依次由第一卷积层、第一最大池化层、第二卷积层、第二最大池化层、第三卷积层、第三最大池化层、第四卷积层、第四最大池化层以及第五卷积层上下堆叠构成;
第一卷积层包含两个输出特征图个数均为64的卷积层;第二卷积层包含两个输出特征图个数均为128的卷积层;第三卷积层包含三个输出特征图个数均为256的卷积层;第四卷积层包含三个输出特征图个数均为512的卷积层;第五卷积层包含三个输出特征图个数均为512的卷积层;
每个卷积层均采用3×3的卷积核,步长为1×1;
每个最大池化层均采用2×2的池化核,步长为1×1;
该特征提取子网络ΓI的输入为高分辨视频合成孔径雷达图像,输出为深度特征图IF;
(2b)建立图像区域建议生成子网络ΩI:
2b1)对于深度特征图IF上的每一个点,生成9个具有不同尺度和宽高比的检测框,其中三种缩放尺度分别为8、16、32,长宽比分别为1:1,1:2,2:1,在特征图IF上,总共得到Φ个检测框,这些检测框即为图像候选区,分别对应高分辨视频合成孔径雷达图像中的不同区域;
2b2)将一个输出特征图个数为512的第1卷积层的输出分别与一个输出特征图个数为2Φ的第2卷积层和一个输出特征图个数为4Φ的第3卷积层的输入端相连,第2卷积层和第3卷积层分别输出每个候选区的前背景概率及四个回归参数,通过这些回归参数对候选区进行修正,删除越界的候选区,并对保留的候选区按前景概率降序排列,选择前ρ个候选区并对其进行非极大值抑制,得到抑制后的候选区;
2b3)对抑制后的候选区按前景概率降序排列,选择前α个候选区作为网络的输出,构成输入为深度特征图IF,输出为α个候选区的区域建议子网络ΩI,其中,第1卷积层的卷积核为3×3,步长为1×1;第2卷积层和第3卷积层的卷积核均为1×1,步长为1×1,α为128到256之间的整数;
(2c)将步骤(2a)和(2b)建立的两个子网络依次连接,组合成提供图像候选区的神经网络ΨI。
步骤三,构建用于提供低分辨距离多普勒谱候选区的神经网络ΨD。
(3a)建立低分辨距离多普勒谱深度特征提取子网络ΓD:
其结构与(2a)中构建的特征提取子网络ΓI相同,其输入为低分辨距离多普勒谱,输出为深度特征图DF;
(3b)建立距离多普勒谱区域建议生成子网络ΩD:
其结构与(2b)中构建的区域建议子网络ΩI相同,其输入为低分辨距离多普勒谱深度特征提取网络ΓD输出的深度特征图DF;
(3c)将步骤(3a)和(3b)建立的两个子网络依次连接,组合成提供距离多普勒谱候选区的神经网络ΨD。
步骤四,将图像区域建议网络和距离多普勒谱区域建议网络提供的候选区通过坐标变换分别映射到距离多普勒谱和图像中,得到在高分辨雷达图像和低分辨距离多普勒谱中成对存在的候选区PI和PD。
4.1将图像区域建议网络ΩI产生的第i个候选区γi和距离多普勒谱区域建议网络ΩD产生的第j个候选区ηj表示如下:
其中,为高分辨视频合成孔径雷达图像上第i个候选区的左上角坐标,为右下角坐标,为低分辨距离多普勒谱第j个候选区的左上角坐标,为右下角坐标。所有在高分辨视频合成孔径雷达图像上的候选区集合记为ΛI={γi,i=1,...,α},所有在低分辨距离多普勒谱上的候选区集合记为ΛD={ηj,j=1,...,α},α为候选区个数,取128到256之间的整数;
4.2计算候选区γi的纵坐标与低分辨距离多普勒谱候选区集合ΛD中的所有候选区的纵坐标之差,假设γi与ΛD中第m个候选区的纵坐标之差最小,通过下式求解m的值:
4.3将高分辨雷达图像候选区集合ΛI中的候选区γi变换到距离多普勒谱中,表示为:
4.4重复步骤4.2和4.3,遍历高分辨雷达图像候选区集合ΛI中的所有候选区,将位于高分辨图像上的候选区变换到低分辨距离多普勒谱中,得到扩充后的低分辨距离多普勒谱候选区集合PD:
PD={γ1'…γ'αη1…ηα};
4.5计算候选区ηj的纵坐标与高分辨雷达图像候选区集合ΛI中的所有候选区的纵坐标之差,假设ηj与ΛI中第n个候选区的纵坐标之差最小,通过下式求解n的值:
4.6将低分辨距离多普勒谱候选区集合ΛD中的候选区ηj变换到图像中,表示为:
4.7重复步骤4.5和4.6,遍历低分辨距离多普勒谱候选区集合ΛD中的所有候选区,将位于低分辨距离多普勒谱上的候选区变换到高分辨雷达图像中,得到扩充后的高分辨雷达图像候选区集合PI:
PI={γ1…γαη1'…η'α}。
步骤五,构建图像阴影检测的子神经网络ΔI。
(5a)建立一个感兴趣区域池化层PoolI,该池化层的输入为步骤二得到的高分辨视频合成孔径雷达图像的深度特征图及步骤四得到的成对候选区坐标PI,输出为固定维度的图像特征数据;
(5b)将固定维度的图像特征数据经过两个神经元个数均为4096的全连接层后,再由两个神经元个数分别为β和4β的全连接层分别做阴影目标分类和检测,形成图像阴影检测的子神经网络,其中β为目标总类别数。
步骤六,构建目标多普勒能量检测的子神经网络ΔD。
(6a)建立一个感兴趣区域池化层PoolD,该池化层的输入为步骤三得到的低分辨距离多普勒谱的深度特征图及步骤四得到的成对候选区坐标PD,输出为固定维度的距离多普勒谱特征数据;
(6b)将固定维度的距离多普勒谱特征数据经过两个神经元个数均为4096的全连接层后,再由两个神经元个数分别为β和4β的全连接层做目标多普勒分类和检测,形成目标多普勒能量检测的子神经网络。
步骤七,将神经网络ΨI、ΨD、ΔI和ΔD按照输入输出关系进行组合,得到完整的联合检测网络。
将步骤二和步骤五构建的神经网络串联,组合为图像检测网络;
将步骤三和步骤六构建的神经网络串联,组合为距离多普勒谱检测网络;
将图像检测网络和距离多普勒谱检测网络并联即可得到完整的联合检测网络。
该联合检测网络的输入数据为一个子孔径中的高分辨视频合成孔径雷达图像及其对应的低分辨距离多普勒谱,其中高分辨视频合成孔径雷达图像输入至图像检测网络,低分辨距离多普勒谱输入至距离多普勒谱检测网络。
步骤八,利用训练集Θ,采用后向传播算法对联合检测网络进行训练,得到训练好的联合检测网络。
8.1设置损失函数:
8.1.1分别设置图像区域建议的损失函数Limg_rpn和距离多普勒谱区域建议的损失函数Ldop_rpn为:
其中,Nrpn_cls=Nrpn_reg=α,和是前/背景二分类交叉熵损失函数,pIi是图像中第i个候选区预测为前景的概率,是真实标签(1为目标,0为背景),pDj和分别是距离多普勒谱中第j个候选区预测为前景的概率和真实标签,和是回归损失函数,tIi和tDj是候选区的回归参数,和是真实标记框的回归参数;
8.1.2设置联合检测的损失函数为:
8.1.3设置联合检测网络的总损失函数为:
L=Limg_rpn+Ldop_rpn+Lrcnn;
8.2训练联合检测网络:
8.2.1设置学习率为0.001;
8.2.2将训练集Θ中的高分辨合成孔径雷达图像及其标签输入至联合检测网络的图像处理部分,将训练集Θ中的低分辨距离多普勒谱及其标签输入至联合检测网络的距离多普勒处理部分,依据联合检测网络总损失函数L的输出,沿梯度下降方向对网络权值进行更新,直到联合检测网络总损失函数收敛,得到训练好的联合检测网络。
步骤九,通过训练好的联合检测网络,得到成对候选区,筛选得到动目标检测结果。
9.1将待测试数据输入到训练好的联合检测网络中,得到2α对候选区及其目标分类得分;
9.2将置信度门限设置为δ,将2α对候选区的目标分类得分与置信度门限δ做比较,保留高分辨图像及距离多普勒谱中对目标分类的得分均大于δ的成对候选区;
9.3在高分辨图像中对候选区进行非极大值抑制,删除局部区域内分类得分不是极大值的候选区,同时删除距离多普勒谱中对应的候选区;
9.4在距离多普勒谱中对候选区进行非极大值抑制,删除局部区域内分类得分不是极大值的候选区,同时删除高分辨图像中对应的候选区,得到动目标检测结果。
本发明的效果可以通过以下仿真进一步说明。
一.仿真参数:
用于仿真生成视频合成孔径雷达原始回波信号的参数如表1所示:
表1回波信号参数
参数 | 值 | 参数 | 值 |
中心频率 | 35GHz | 脉冲重复频率 | 3KHz |
带宽 | 0.75GHz | 脉冲宽度 | 20us |
采样频率 | 30.5MHz | 擦地角 | 25度 |
飞行半径 | 2.5Km | 飞行速度 | 45m/s |
子孔径长度 | 3072 | 子孔径步长 | 144 |
子孔径数 | 200 | 多普勒脉冲数 | 256 |
杂噪比 | 10~17.5dB | 信杂比 | 0~-5dB |
成像区范围 | 120m×120m | 目标尺寸 | 3m~7m |
二.仿真内容:
利用表1所示参数的回波信号,仿真本发明方法在两种不同的场景下的动目标检测结果,如图2所示,其中图2(a)是在场景1下的检测结果,图2(b)是在场景2下的检测结果;
从图2中可以看出本发明对动目标检测具有较低的虚警率以及较高的检测概率。
以上描述仅是本发明的一个具体实例,并未构成对本发明的任何限制,显然对于本领域的专业人员来说,在了解本发明内容和原理后,都可能在不背离本发明原理、结构的情况下,进行形式和细节上的各种修改和改变,但是这些基于本发明思想的修正和改变仍在本发明的权利要求保护范围之内。
Claims (7)
1.一种视频合成孔径雷达的动目标智能联合检测方法,其特征在于,包括如下:
(1)将视频合成孔径雷达原始回波信号划分为T个子孔径,每个子孔径包含N个脉冲,获取每个子孔径的高分辨视频合成孔径雷达图像以及对应的低分辨距离多普勒谱,得到训练集Θ;
(2)构建用于提供高分辨视频合成孔径雷达图像候选区的神经网络ΨI:
(2a)建立高分辨视频合成孔径雷达图像深度特征提取子网络ΓI;
(2b)建立图像区域建议子网络ΩI;
(2c)将步骤(2a)和(2b)建立的两个子网络依次连接,组合成提供图像候选区的神经网络ΨI;
(3)构建用于提供低分辨距离多普勒谱候选区的神经网络ΨD:
(3a)建立低分辨距离多普勒谱深度特征提取子网络ΓD;
(3b)建立距离多普勒谱区域建议子网络ΩD;
(3c)将步骤(3a)和(3b)建立的两个子网络依次连接,组合成提供距离多普勒谱候选区的神经网络ΨD;
(4)将步骤(2)和(3)中神经网络提供的候选区,通过坐标变换分别映射到距离多普勒谱和图像中,得到在高分辨视频合成孔径雷达图像和低分辨距离多普勒谱中成对存在的候选区PI和PD,实现如下:
4a)设图像区域建议子网络ΩI产生的第i个候选区γi和距离多普勒谱区域建议子网络ΩD产生的第j个候选区ηj可以表示为:
其中,为高分辨视频合成孔径雷达图像上第i个候选区的左上角坐标,为右下角坐标,为低分辨距离多普勒谱第j个候选区的左上角坐标,为右下角坐标;所有在高分辨视频合成孔径雷达图像上的候选区集合记为ΛI={γi,i=1,...,α},所有在低分辨距离多普勒谱上的候选区集合记为ΛD={ηj,j=1,...,α},α为候选区个数,取128到256之间的整数;
4b)计算候选区γi的纵坐标与候选区集合ΛD中的所有候选区的纵坐标之差,假设γi与ΛD中第m个候选区的纵坐标之差最小,通过下式求解m的值:
4c)将候选区集合ΛI中的候选区γi变换到距离多普勒谱中,表示为:
4d)重复步骤4b)和4c),遍历候选区集合ΛI中的所有候选区,将位于高分辨视频合成孔径雷达图像上的候选区变换到低分辨距离多普勒谱中,最终低分辨距离多普勒谱中的候选区集合表示为:
PD={γ′1…γ′α η1…ηα};
4e)计算候选区ηj的纵坐标与候选区集合ΛI中的所有候选区的纵坐标之差,假设ηj与ΛI中第n个候选区的纵坐标之差最小,通过下式求解n的值:
4f)将候选区集合ΛD中的候选区ηj变换到图像中,表示为:
4g)重复步骤4e)和4f),遍历候选区集合ΛD中的所有候选区,将位于低分辨距离多普勒谱上的候选区变换到高分辨视频合成孔径雷达图像中,得到最终高分辨视频合成孔径雷达图像中的候选区集合PI为:
PI={γ1…γα η′1…η′α};
(5)构建图像阴影检测的子神经网络ΔI:
(5a)建立一个感兴趣区域池化层PoolI,该池化层的输入为步骤(2)得到的高分辨视频合成孔径雷达图像的深度特征图及步骤(4)得到的成对候选区PI,输出为固定维度的特征数据;
(5b)将固定维度的特征数据经过两个神经元个数均为4096的全连接层后,再由两个神经元个数分别为β和4β的全连接层做阴影目标分类和检测,形成图像阴影检测的子神经网络,其中β为目标总类别数;
(6)构建目标多普勒能量检测的子神经网络ΔD:
(6a)建立一个感兴趣区域池化层PoolD,该池化层的输入为步骤(3)得到的低分辨距离多普勒谱的深度特征图及步骤(4)得到的成对候选区PD,输出为固定维度的特征数据;
(6b)将固定维度的特征数据经过两个神经元个数均为4096的全连接层后,再由两个神经元个数分别为β和4β的全连接层做目标多普勒分类和检测,形成目标多普勒能量检测的子神经网络;
(7)将神经网络ΨI、ΨD、ΔI和ΔD按照输入输出关系进行组合,得到完整的联合检测网络,实现如下:
7a)将步骤(2)构建的神经网络ΨI与步骤(5)构建的神经网络ΔI进行串联,组合为图像检测网络;
7b)将步骤(3)构建的神经网络ΨD与步骤(6)构建的神经网络进行ΔD串联,组合为距离多普勒谱检测网络;
7c)将图像检测网络与距离多普勒谱检测网络进行并联,得到完整的联合检测网络;
(8)利用训练集Θ,采用后向传播算法对联合检测网络进行训练,得到训练好的网络;
(9)将待测试数据输入到训练好的网络中,得到成对候选区及其目标分类得分,再根据目标分类得分对得到的成对候选区做筛选得到动目标检测结果。
3.根据权利要求1所述的方法,其中(2a)中构建的特征提取子网络ΓI,其依次由第一卷积层、第一最大池化层、第二卷积层、第二最大池化层、第三卷积层、第三最大池化层、第四卷积层、第四最大池化层以及第五卷积层上下堆叠构成;
第一卷积层包含两个输出特征图个数均为64的卷积层;第二卷积层包含两个输出特征图个数均为128的卷积层;第三卷积层包含三个输出特征图个数均为256的卷积层;第四卷积层包含三个输出特征图个数均为512的卷积层;第五卷积层包含三个输出特征图个数均为512的卷积层;
每个卷积层均采用3×3的卷积核,步长为1×1;
每个最大池化层均采用2×2的池化核,步长为1×1;
该特征提取子网络ΓI的输入为高分辨视频合成孔径雷达图像,输出为深度特征图IF。
4.根据权利要求3所述的方法,其中(2b)中构建区域建议子网络ΩI,实现如下:
2b1)对于深度特征图IF上的每一个点,生成9个具有不同尺度和宽高比的检测框,其中三种缩放尺度分别为8、16、32,长宽比分别为1:1,1:2,2:1,在特征图IF上,总共得到Φ个检测框,这些检测框即为图像候选区,分别对应高分辨视频合成孔径雷达图像中的不同区域;
2b2)将一个输出特征图个数为512的第1卷积层的输出分别与一个输出特征图个数为2Φ的第2卷积层和一个输出特征图个数为4Φ的第3卷积层的输入端相连,第2卷积层和第3卷积层分别输出每个候选区的前背景概率及四个回归参数,通过回归参数对候选区进行修正,删除越界的候选区,并对保留的候选区按前景概率降序排列,选择前ρ个候选区并对其进行非极大值抑制;
2b3)对抑制后的候选区按前景概率降序排列,选择前α个候选区作为网络的输出,构成输入为深度特征图IF,输出为α个候选区的区域建议子网络ΩI,其中,第1卷积层的卷积核为3×3,步长为1×1;第2卷积层和第3卷积层的卷积核均为1×1,步长为1×1,α为128到256之间的整数。
5.根据权利要求1所述的方法,其中(3a)中构建特征提取子网络ΓD,其结构与(2a)中构建的特征提取子网络ΓI相同,其输入为低分辨距离多普勒谱,输出为深度特征图DF。
6.根据权利要求5所述的方法,其中(3b)中构建区域建议子网络ΩD,其结构与(2b)中构建的区域建议子网络ΩI相同,其输入为低分辨距离多普勒谱深度特征提取网络ΓD输出的深度特征图DF。
7.根据权利要求1所述的方法,其中(9)中根据目标分类得分对得到的成对候选区做筛选,实现如下:
9a)将置信度门限设置为δ,将2α对候选区的目标分类得分与置信度门限δ做比较,保留高分辨视频合成孔径雷达图像及距离多普勒谱中对目标分类的得分均大于δ的成对候选区;
9b)在高分辨视频合成孔径雷达图像中对候选区进行非极大值抑制,删除局部区域内分类得分不是极大值的候选区,同时删除距离多普勒谱中对应的候选区;
9c)在距离多普勒谱中对候选区进行非极大值抑制,删除局部区域内分类得分不是极大值的候选区,同时删除高分辨视频合成孔径雷达图像中对应的候选区,得到动目标检测结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011067690.4A CN112183534B (zh) | 2020-10-07 | 2020-10-07 | 基于视频合成孔径雷达的动目标智能联合检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011067690.4A CN112183534B (zh) | 2020-10-07 | 2020-10-07 | 基于视频合成孔径雷达的动目标智能联合检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112183534A CN112183534A (zh) | 2021-01-05 |
CN112183534B true CN112183534B (zh) | 2023-05-23 |
Family
ID=73947741
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011067690.4A Active CN112183534B (zh) | 2020-10-07 | 2020-10-07 | 基于视频合成孔径雷达的动目标智能联合检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112183534B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114611547A (zh) * | 2022-01-29 | 2022-06-10 | 清华大学 | 基于卷积神经网络的雷达目标识别方法、模型训练方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103454624A (zh) * | 2013-09-22 | 2013-12-18 | 河海大学 | 基于降维稀疏重构空时谱的直接数据域动目标检测方法 |
CN103744068A (zh) * | 2014-01-21 | 2014-04-23 | 西安电子科技大学 | 双通道调频连续波sar系统的动目标检测成像方法 |
CN103942803A (zh) * | 2014-05-05 | 2014-07-23 | 北京理工大学 | 基于sar图像的水域自动检测方法 |
CN107766858A (zh) * | 2017-10-20 | 2018-03-06 | 哈尔滨工业大学(威海) | 一种应用合成孔径雷达图像进行船舶检测的方法 |
CN109709536A (zh) * | 2019-01-24 | 2019-05-03 | 电子科技大学 | 一种基于卷积神经网络的sar动目标检测方法 |
JP2019086464A (ja) * | 2017-11-09 | 2019-06-06 | 株式会社東芝 | レーダ装置及びそのレーダ信号処理方法 |
CN110472628A (zh) * | 2019-08-10 | 2019-11-19 | 四创科技有限公司 | 一种基于视频特征的改进Faster R-CNN网络检测漂浮物方法 |
CN111123257A (zh) * | 2019-12-30 | 2020-05-08 | 西安电子科技大学 | 基于图时空网络的雷达动目标多帧联合检测方法 |
CN111707996A (zh) * | 2020-05-26 | 2020-09-25 | 北京理工大学重庆创新中心 | 基于改进grft-stap的geo星机sar动目标检测方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10459061B2 (en) * | 2014-05-08 | 2019-10-29 | Src, Inc. | FFT-based displaced phase center array/along-track interferometry architecture |
-
2020
- 2020-10-07 CN CN202011067690.4A patent/CN112183534B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103454624A (zh) * | 2013-09-22 | 2013-12-18 | 河海大学 | 基于降维稀疏重构空时谱的直接数据域动目标检测方法 |
CN103744068A (zh) * | 2014-01-21 | 2014-04-23 | 西安电子科技大学 | 双通道调频连续波sar系统的动目标检测成像方法 |
CN103942803A (zh) * | 2014-05-05 | 2014-07-23 | 北京理工大学 | 基于sar图像的水域自动检测方法 |
CN107766858A (zh) * | 2017-10-20 | 2018-03-06 | 哈尔滨工业大学(威海) | 一种应用合成孔径雷达图像进行船舶检测的方法 |
JP2019086464A (ja) * | 2017-11-09 | 2019-06-06 | 株式会社東芝 | レーダ装置及びそのレーダ信号処理方法 |
CN109709536A (zh) * | 2019-01-24 | 2019-05-03 | 电子科技大学 | 一种基于卷积神经网络的sar动目标检测方法 |
CN110472628A (zh) * | 2019-08-10 | 2019-11-19 | 四创科技有限公司 | 一种基于视频特征的改进Faster R-CNN网络检测漂浮物方法 |
CN111123257A (zh) * | 2019-12-30 | 2020-05-08 | 西安电子科技大学 | 基于图时空网络的雷达动目标多帧联合检测方法 |
CN111707996A (zh) * | 2020-05-26 | 2020-09-25 | 北京理工大学重庆创新中心 | 基于改进grft-stap的geo星机sar动目标检测方法 |
Non-Patent Citations (5)
Title |
---|
Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks;Shaoqing Ren 等;《arXiv:1506.01497v3》;20160131;第1-14页 * |
Moving Target Detection and Doppler Extraction Using Digital Spread Spectrum Radar;Subhankar Shome 等;《I.J. Intelligent Systems and Applications》;20141231;第47-54页 * |
一种VideoSAR动目标阴影检测方法;张营 等;《电子与信息学报》;20170930;第39卷(第9期);第2197-2202页 * |
基于两视处理的单通道SAR地面运动目标检测和定位;周峰等;《西安电子科技大学学报》;20061025;第33卷(第05期);第673-677,681页 * |
煤矿井下视频运动目标的检测与识别研究;许风志;《中国优秀硕士学位论文全文数据库 工程科技I辑》;20200115;第2020年卷(第01期);第B021-458页 * |
Also Published As
Publication number | Publication date |
---|---|
CN112183534A (zh) | 2021-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111123257B (zh) | 基于图时空网络的雷达动目标多帧联合检测方法 | |
CN104851097B (zh) | 基于目标形状与阴影辅助的多通道sar‑gmti方法 | |
CN109242889A (zh) | 基于上下文显著性检测与sae的sar图像变化检测方法 | |
CN110728706B (zh) | 基于深度学习的sar图像精细配准方法 | |
Armanious et al. | An adversarial super-resolution remedy for radar design trade-offs | |
CN112184749B (zh) | 基于视频sar跨域联合的动目标跟踪方法 | |
CN103116881A (zh) | 基于PCA与Shearlet变换的遥感图像融合方法 | |
CN113189589B (zh) | 基于卷积神经网络的多通道合成孔径雷达动目标检测方法 | |
CN114677419A (zh) | 基于三维卷积网络的雷达多普勒信号低慢小目标检测方法 | |
CN109298417B (zh) | 一种基于雷达信号处理的建筑物内部结构探测方法及装置 | |
CN112183534B (zh) | 基于视频合成孔径雷达的动目标智能联合检测方法 | |
CN111323756A (zh) | 一种基于深度学习的航海雷达目标检测方法及装置 | |
CN111323757B (zh) | 一种航海雷达目标检测方法及装置 | |
CN114565824B (zh) | 基于全卷积网络的单阶段旋转舰船检测方法 | |
Kawaguchi et al. | Evaluation on a drone classification method using UWB radar image recognition with deep learning | |
CN113466797B (zh) | 基于杂波脊匹配稀疏恢复的双基sar空-时杂波抑制方法 | |
CN115909086A (zh) | 基于多级增强网络的sar目标检测识别方法 | |
CN115984751A (zh) | 一种基于多通道多尺度融合的孪生网络遥感目标跟踪方法 | |
CN113608214B (zh) | 一种机载扫描雷达实时超分辨成像方法 | |
CN113640793A (zh) | 基于mrf的实孔径扫描雷达超分辨成像方法 | |
CN105223571B (zh) | 基于加权l1优化与视觉显著注意的isar成像方法 | |
CN110263777B (zh) | 基于空谱结合的局部保持投影算法的目标检测方法及系统 | |
Sun et al. | Multi-channel SAR moving target detection by integrating STAP and faster R-CNN | |
CN114332151B (zh) | 一种基于阴影Video-SAR中感兴趣目标跟踪方法 | |
CN112731399B (zh) | 一种基于二维稀疏结构的宽带雷达飞机目标架次识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |