CN113808174A - 基于全卷积网络和卡尔曼滤波的雷达小目标跟踪方法 - Google Patents
基于全卷积网络和卡尔曼滤波的雷达小目标跟踪方法 Download PDFInfo
- Publication number
- CN113808174A CN113808174A CN202110995010.3A CN202110995010A CN113808174A CN 113808174 A CN113808174 A CN 113808174A CN 202110995010 A CN202110995010 A CN 202110995010A CN 113808174 A CN113808174 A CN 113808174A
- Authority
- CN
- China
- Prior art keywords
- target
- image
- radar
- network
- full convolution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000001914 filtration Methods 0.000 title claims abstract description 24
- 238000010586 diagram Methods 0.000 claims abstract description 33
- 238000013528 artificial neural network Methods 0.000 claims abstract description 31
- 238000005259 measurement Methods 0.000 claims abstract description 26
- 238000006243 chemical reaction Methods 0.000 claims abstract description 23
- 238000012549 training Methods 0.000 claims abstract description 22
- 238000007781 pre-processing Methods 0.000 claims abstract description 4
- 239000010410 layer Substances 0.000 claims description 46
- 239000011159 matrix material Substances 0.000 claims description 34
- 230000006870 function Effects 0.000 claims description 20
- 238000004364 calculation method Methods 0.000 claims description 16
- 230000008569 process Effects 0.000 claims description 15
- 238000012545 processing Methods 0.000 claims description 11
- 239000002346 layers by function Substances 0.000 claims description 9
- 108010076504 Protein Sorting Signals Proteins 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 4
- 230000028161 membrane depolarization Effects 0.000 claims description 4
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 claims description 3
- 101000802640 Homo sapiens Lactosylceramide 4-alpha-galactosyltransferase Proteins 0.000 claims description 3
- 102100035838 Lactosylceramide 4-alpha-galactosyltransferase Human genes 0.000 claims description 3
- 238000002372 labelling Methods 0.000 claims description 3
- 238000011176 pooling Methods 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 230000011218 segmentation Effects 0.000 claims description 3
- 230000007704 transition Effects 0.000 claims description 3
- 230000002238 attenuated effect Effects 0.000 claims description 2
- 230000009467 reduction Effects 0.000 claims description 2
- 238000011478 gradient descent method Methods 0.000 claims 1
- 238000001514 detection method Methods 0.000 abstract description 20
- 238000013135 deep learning Methods 0.000 abstract description 6
- 238000005516 engineering process Methods 0.000 abstract description 3
- 238000002474 experimental method Methods 0.000 description 3
- 238000003062 neural network model Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000002592 echocardiography Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/66—Radar-tracking systems; Analogous systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/415—Identification of targets based on measurements of movement associated with the target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/417—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10044—Radar image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computer Networks & Wireless Communication (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Probability & Statistics with Applications (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明公开了一种基于全卷积网络和卡尔曼滤波的雷达小目标跟踪方法。本发明步骤:1、对雷达接收机采集的回波信号进行预处理,获取信号的R‑D图;2、构建全卷积神经网络并利用网络预测特征图像素点对应R‑D图中每个感受野区域分别属于目标和背景的类别概率,以及该区域包含目标时,特征图像素点在每个网格划分区域中相对于左上单元的偏移量,从而判断存在目标时的目标位置;3、将目标位置的俯仰角、方位角及径向距离作为雷达系统的量测值,通过坐标转换卡尔曼滤波器实现目标跟踪。本发明利用特征图像素点对应的感受野替代传统深度学习方案的滑窗技术,大幅提升模型训练及检测的速度,并通过坐标转换卡尔曼滤波器跟踪目标,更准确快速得到目标轨迹。
Description
技术领域
本发明属于雷达信号处理及图像识别领域,涉及一种基于全卷积网络和卡尔曼滤波的雷达小目标跟踪方法。
背景技术
近年来,随科技的进步及国家政策对低空域的开放,以无人机为代表的雷达小目标因获取便利、应用广泛而呈爆发式增长,对现有的监控系统带来了巨大的安防压力。此类目标具有“散射截面积小、飞行速度慢、飞行高度低”的特点,致使传统频域滤波检测跟踪技术难以得到有效运用。为了降低检测器对环境的敏感度及对专家经验的依赖性,同时为提高对此类弱信号目标的跟踪准确率,深度学习技术开始被用于检测算法的研究。然而,现有的跟踪过程仍存在以下四个问题:
1.现有方案通过滑动窗口与深度卷积网络(Deep convolutional neuralnetwork,DCNN)结合的方式对距离-多普勒(Range-Doppler,R-D)图的所有图像块进行分类与定位,检测过程繁琐耗时,难以应用于实时场景;
2.雷达小目标在R-D图中占据的距离及多普勒单元极少,通常在卷积后的特征图中被映射为单个像素点,使得代表目标与背景的正负样例严重失衡,导致模型难以训练;
3.传统雷达跟踪算法将恒虚警率(Constant false alarm rate,CFAR)检测的结果作为量测值,通常由于目标检测率低而造成航迹缺失等问题。
4.雷达系统通常在空间极坐标系下获得目标量测,而在笛卡尔坐标系中对目标的运动状态建模与滤波跟踪,使得卡尔曼滤波器通常因坐标转换误差而存在易发散、跟踪精度不高的问题。
发明内容
针对上述提到的雷达目标跟踪存在的不足,本发明提出一种基于全卷积网络和卡尔曼滤波的雷达小目标跟踪方法。在保证目标检测率的基础上,本发明能使雷达更快速地定位低慢小目标的空间位置,自主地适应不同种类信号回波,并得到更精确的目标航迹。
本发明的技术方案主要包括如下步骤:
步骤1、对雷达接收机采集的回波信号进行预处理,获取回波信号的R-D图(Range-Doppler图);
步骤2、构建全卷积神经网络,并利用网络预测特征图像素点对应R-D图中每个感受野区域分别属于目标和背景的类别概率,以及该区域包含目标时,特征图像素点在每个网格划分区域中相对于左上单元的偏移量,从而判断是否存在,以及存在目标时的目标位置;
步骤3、将得到目标位置的俯仰角、方位角及径向距离作为雷达系统的量测值并转换至笛卡尔坐标系中,在起始航迹的基础上通过转换卡尔曼滤波器对每帧R-D图中的每个量测目标进行位置的修正,得到目标的运动轨迹。
所述的步骤1具体包括以下几个步骤:
1-1、将雷达接收机采集的一维离散回波信号,以脉冲重复周期为分割单元转换成二维矩阵形式,即若一维离散回波信号由N个长度为R的脉冲信号组成,则二维矩阵信号的大小为N×R。同时记录采集该段信号时,雷达对应的俯仰角和方位角θ;
1-2、使用三脉冲对消法对每一行脉冲信号做滤波处理,滤波后的信号xi为:
xi=ai-1+ai+1-2ai,1<i<N (1)
其中ai代表第i行未经对消的脉冲信号序列;
1-3、对滤波后位于同一距离单元的信号序列yj,1≤j≤R进行加窗操作,即:
zj=yj×g(n) (2)
g(n)=0.54-0.46cos[2πn/(N-2)],0≤n<N-2为汉明窗函数,具有与脉冲重复周期数相同的点数;
1-4、对加窗结果进行快速傅立叶变换(FFT)并求模,得到R-D图M:
M=(|fft[zj]|),1≤j≤R (3)
所述的步骤2利用全卷积神经网络从计算得到的R-D图中预测目标信息,并结合每个局部区域的类别概率和位置回归偏移量获取目标检测结果。具体实现流程如下:
2-1、对整幅图像进行限幅处理,得到限幅处理后的输入图像;即假设图像(Image)中元素的最大值为Imagemax,则通过将每一个R-D单元的幅值除以Imagemax使得图像(工mage)中元素的最大值为1;
2-2、利用卷积核形成的感受野类比滑动窗口抽取R-D图中不同区域的局部特征进行背景与目标的分类。为提高目标定位的准确率,特征图像素点对应的输入图像中感受野的尺寸需根据目标回波在R-D图中的分布范围设定;
2-3、根据已确立的特征图尺寸Nf×Rf和输入图像尺寸N×R,按分辨率缩小比例将R-D图划分为Nf×Rf个尺寸为rh×rw,网格单元(Gridcell)以辅助所构建的位置预测功能层对目标进行定位,其中:
2-4、利用构建的全卷积神经网络计算R-D图映射至特征图像素点分别属于目标和背景的类别概率,以及该像素点对应的R-D区域包含目标时,所属用于辅助定位网格的左上角与目标实际位置之间的偏移量。
具体地,构建的全卷积神经网络由两个部分组成:用于空间特征提取的全卷积神经网络主干和两个用于特征图像素点类别与位置预测的功能模块。各部分的具体结构描述如下:
第一部分用于空间特征提取的全卷积神经网络主干共包含3个卷积层,均使用3×5大小的卷积核进行滤波,步长为1,且滤波器的个数分别16、32和64。为了减少模型参数,提高计算速度,同时提高所提取特征的鲁棒性,在第二个和第三个卷积层之后分别是一个窗口大小为2×4、水平向与垂直向步长分别为2和4的最大池化层。每个卷积层之后默认跟着一个激活层,且激活函数为广泛使用的线性整流函数(ReLU);
第二部分两个用于特征图像素点类别与位置预测的功能模块,分别包含一个卷积核大小为3×3、步长为1、数量为64、含有激活层ReLU的特征映射卷积层和一个卷积核大小为1×1,步长为1、数量为2的功能层,且其中分类模块的功能层分别输出特征图像素点判别为目标和背景的概率,而位置预测模块的功能层则分别输出特征图像素点在水平向与垂直向的偏移量。为便于观测,类别预测层会使用Softmax函数将网络的原始输出值转化为概率,计算公式为:
为了成功训练构建的全卷积神经网络,步骤2中需要注意以下几点:
(1)在网络输出的分类预测结果中,根据特征图像素点对应的R-D区域是否包含目标将所有特征图像素点分为正样本和负样本,然后采用随机的方式从负样本中抽取与正样本等量的特征图像素点作为训练数据,与正样本一起输入全卷积神经网络进行训练。所述的R-D区域是指特征图像素点感受野对应在输入图像中包含的R-D区域。
(2)全卷积神经网络的损失函数由分类损失Losscls和回归损失Lossreg两部分组成,且分类采用交叉熵损失,而回归采用smoothL1损失。网络训练时的损失由下式获得:
Losstotal=Losscls+λ·Lossreg (7)
其中,λ为调整两类损失贡献大小的权重因子,Ncls和Nreg为一次迭代中参与训练的样本总数和正样本数量,lk∈{0,1}是第k个特征图像素点的真实类别标签,是第k个像素点所属的辅助定位网格包含目标时其左上角与目标位置之间的水平向、垂直向相对偏移量,在式(9)中而(dxk,dyk)为第k个特征图像素点在位置回归层的水平向与垂直向输出结果,在式(9)中dtk∈{dxk,dyk};式(10)中d为与dtk的差值。假设目标在Range-Doppler图中的位置为(xobj,yobj),含有目标的R-D区域所属辅助定位网格的左上角在Range-Doppler图中的位置为(x,y),而对应特征图与Range-Doppler图之间的宽高缩放比例分别为rw和rh,则该辅助定位网格相对于目标的实际偏移量(dx*,dy*)为:
(3)由于Losscls的计算含有对数操作,对分类层的预测概率的下限进行限定,以避免概率为0时引起的计算错误;
(4)采用标准差为0.1的截断正态分布对网络权重进行初始化,以使更多参数的取值分布在靠近0的范围内;
(5)使用初始值为0.1、每10个迭代周期衰减10%的学习率,动量系数为0.9的动量梯度下降(MomentumSGD)方法优化网络参数。
2-5、预设目标存在的概率阈值为Tp,若网络输出特征图中某一像素点属于目标的预测概率大于等于阈值Tp,则初步判断该像素点映射的R-D区域包含目标,并将该像素点的位置标为1;反之认为其代表的区域为背景,将相应位置标为0;
2-6、对每个特征图像素点在R-D图中的映射区域,利用网络位置回归层的预测结果(dx,dy)估计目标在每个R-D图辅助定位网格中的真实位置(xpre,ypre),具体计算公式如下:
其中(x,y)为特征图像素点对应R-D区域所属辅助定位网格的左上角单元在Range-Doppler图中的位置,round(·)为四舍五入就近取整函数。
2-7、将上述R-D图中的目标真实位置横坐标xpre按转化为目标相对雷达的径向距离r。设雷达快时间采样率为Fs,则具体的计算公式如下:
所述的步骤3将全卷积神经网络模型测得的目标相对雷达的径向距离、俯仰角、方位角作为系统量测值,在假设目标为匀速运动的条件下,通过坐标转换卡尔曼滤波器估计当前目标的实际位置,实现目标跟踪。具体实现流程如下:
3-2、标记连续Nsc个扫描周期内每个量测目标的坐标(xm,ym,zm),记录任意两个相邻周期中以恒定距离Dconst±Dtolerant变化的量测目标个数为M,当M超过设定的阈值TM时将对应的目标轨迹视为起始航迹,使用坐标转换卡尔曼滤波器对每条航迹进行修正,并剔除其余不满足该条件的目标轨迹。其中Dconst为相邻周期目标以匀速运动导致的欧式轨迹变化距离,而Dtolerant为设定的距离容错值。
3-3、计算量测值(xm,ym,zm)T与坐标真实值(x,y,z)T之间的转换误差为
转换误差协方差矩阵为
式中,
目标在匀速运动状态下的状态方程为:
X(k)=FX(k-1)+W(k-1) (23)
经过去偏处理后的测量值为:
设观测矩阵为H,测量误差为V(k)~N(0;Ra),则对目标的观测方程为:
Zc(k)=HX(k)+V(k)
3-4、对坐标转换后的测量值去偏后,通过标准卡尔曼滤波算法更新每一次测量结果。设当前的时刻为k,则具体的实现流程如下:
(1)计算状态向量为
(2)计算误差协方差矩阵为
P-(k)=FP(k-1)FT+Q(k-1) (28)
式中Q(k-1)为过程噪声的协方差矩阵;
(3)求得卡尔曼增益
K(k)=P-(k)HT(HP-(k)HT+Ra)-1 (29)
(4)根据卡尔曼增益对k时刻的状态向量进行修正
(5)更新k时刻的误差协方差矩阵
P(k)=(I-K(k)H)P-(k) (31)
为了成功实现卡尔曼滤波器的迭代,步骤3中需要注意以下几点:
(1)设航迹起始后为时刻kd,则设定卡尔曼滤波器的初始状态为第一次观测值,初始化误差协方差矩阵为对角阵:
式中u为状态变量的个数;
(2)协方差矩阵Q的取值需根据实际情况而定。一般情况下,若系统状态方程更精确,即对预测值的信赖度更高,则对应Q取较大值;若系统传感器量测更精确,则对应Q取较小值。
本发明有益效果如下:
本发明将包含全卷积神经网络的智能算法应用于雷达信号的目标检测跟踪中,使模型在具有很强自适应性的同时,大幅缩短模型训练及检测的耗时,并保证对微弱信号目标的检测率。
针对于全卷积网络模型造成的正负样例严重失衡的问题,本发明通过在特征图中随机抽取与正例等量的负例计算损失解决。此外,对转换坐标后待输入卡尔曼滤波器的量测值进行去偏处理,可有效降低坐标转换误差对跟踪精度的影响。相较于传统恒虚警分析处理的跟踪方案,可实现更加准确的低慢小目标跟踪。
本发明相较于现有结合滑窗定位的深度学习方法,本发明能提高模型训练速度约2.5倍、检测速度提升超30倍。
附图说明
图1为本发明基于全卷积神经网络和坐标转换卡尔曼滤波的雷达低慢小目标跟踪流程示意图;
图2为本发明构建的全卷积神经网络结构图;
图3为本发明卡尔曼滤波跟踪示意图。
具体实施方式
下面结合附图和具体实施方式对本发明作详细说明,以下描述仅作为示范和解释,并不对本发明作任何形式上的限制。
通用的检测步骤已在“发明内容”中详述,现结合实例对本发明的检测流程做具体描述,图1是整体的处理流程示意图。本发明运用特征图像素点的感受野随卷积层数递增的特点,设计了全卷积神经网络(Fully convolutional neural network,FCN)实现对整幅R-D图像的目标分类与定位,通过感受野取代原有的滑动窗口,大幅提升了模型的训练与检测速度。同时,为解决正负样例失衡导致的模型训练问题,从特征图背景区域中随机抽取与目标正例等量的像素点负例对两类进行平衡。此外,本发明将网络模型的输出作为转换坐标卡尔曼滤波器的量测值,可有效降低坐标转换误差对跟踪精度的影响,实现更准确的低慢小目标航迹跟踪。
本发明的技术方案主要包括如下步骤:
步骤1、对雷达接收机采集的回波信号进行预处理,获取信号的Range-Doppler图;
1-1、将雷达接收机采集的一维离散回波信号以脉冲重复周期为分割单元转换成二维矩阵形式,即若一维离散回波信号由N个长度为R的脉冲信号组成,本实验中N=64,R=856,则二维矩阵信号的大小为N×R=64×856;
1-2、使用三脉冲对消法对每一行脉冲信号做滤波处理,滤波后的信号为:
xi=ai-1+ai+1-2ai,1<i<N
其中ai代表第i行未经对消的脉冲信号序列;
1-3、三脉冲对消后二维矩阵信号的大小为62×856,对滤波后位于同一距离单元的信号序列yj,1≤j≤R进行加窗操作,即:
zj=yj×g(n)
g(n)=0.54-0.46cos[2πn/(N-2)],0≤n<N-2为汉明窗函数,具有与脉冲重复周期数相同的点数;
1-4、对加窗结果进行快速傅立叶变换(FFT)并求模,得到Range-Doppler图M:
M=(|fft[zj]|),1≤j≤R
所述的步骤2利用全卷积神经网络从计算得到的R-D图中预测目标信息,并结合每个局部区域的类别概率和位置回归偏移量获取目标检测结果。具体实现流程如下:
2-1、对整幅图像进行限幅处理,即假设图像(Image)中元素的最大值为Imagemax,则通过将每一个R-D单元的幅值除以Imagemax使得图像(Image)中元素的最大值为1;
2-2、利用卷积核形成的感受野类比滑动窗口抽取R-D图中不同区域的局部特征进行背景与目标的分类。为提高目标定位的准确率,特征图像素点对应原图中感受野的尺寸需根据目标回波在R-D图中的分布范围设定。本实验中特征图映射至R-D图中的感受野设定为9×28;
2-3、根据已确立的特征图尺寸Nf×Rf和原图尺寸N×R,按分辨率缩小比例将R-D图划分为Nf×Rf个尺寸为rh×rw网格单元(Grid cell),其中:
本实验中特征图尺寸为16×54,网格单元尺寸rh×rw为4×16。
2-4、利用构建的全卷积神经网络计算R-D图映射至特征图的像素点分别属于目标和背景的类别概率,以及该像素点对应的R-D网格单元包含目标时,该网格单元左上角与目标实际位置之间的偏移量。
具体地如图2所示,构建的全卷积神经网络由两个部分组成:用于空间特征提取的全卷积神经网络主干和两个用于特征图像素点类别与位置预测的功能模块。各部分的具体结构描述如下:
第一部分用于空间特征提取的全卷积神经网络主干共包含3个卷积层,均使用3×5大小的卷积核进行滤波,步长为1,且滤波器的个数分别16、32和64。为了减少模型参数,提高计算速度,同时提高所提取特征的鲁棒性,在第二个和第三个卷积层之后分别是一个窗口大小为2×4、水平向与垂直向步长分别为2和4的最大池化层。每个卷积层之后默认跟着一个激活层,且激活函数为广泛使用的线性整流函数(ReLU);
第二部分两个用于特征图像素点类别与位置预测的功能模块,分别包含一个卷积核大小为3×3、步长为1、数量为64、含有激活层ReLU的特征映射卷积层和一个卷积核大小为1×1,步长为1、数量为2的功能层,且其中分类模块的功能层分别输出特征图像素点判别为目标和背景的概率,而位置预测模块的功能层则分别输出特征图像素点在水平向与垂直向的偏移量。为便于观测,类别预测层会使用Softmax函数将网络的原始输出值转化为概率,计算公式为:
为了成功训练构建的全卷积神经网络,步骤2中需要注意以下几点:
(1)在网络输出的分类预测结果中,根据特征图像素点对应的R-D区域是否包含目标将所有特征图像素点分为正样本和负样本,然后采用随机的方式从负样本中抽取与正样本等量的特征图像素点作为训练数据,与正样本一起输入全卷积神经网络进行训练。
(2)全卷积神经网络的损失函数由分类损失Losscls和回归损失Lossreg两部分组成,且分类采用交叉熵损失,而回归采用smoothL1损失。网络训练时的损失由下式获得:
Losstotal=Losscls+λ·Lossreg (7)
其中,λ为调整两类损失贡献大小的权重因子,Ncls和Nreg为一次迭代中参与训练的样本总数和正样本数量,lk∈{0,1}是第k个特征图像素点的真实类别标签,是第k个像素点所属的辅助定位网格包含目标时其左上角与目标位置之间的水平向、垂直向相对偏移量,在式(9)中而(dxk,dyk)为第k个特征图像素点在位置回归层的水平向与垂直向输出结果,在式(9)中dtk∈{dxk,dyk};式(10)中d为与dtk的差值。假设目标在Range-Doppler图中的位置为(xobj,yobj),含有目标的R-D区域所属辅助定位网格的左上角在Range-Doppler图中的位置为(x,y),而对应特征图与Range-Doppler图之间的宽高缩放比例分别为rw=16和rh=4,则该R-D区域相对于目标的实际偏移量(dx*,dy*)为:
(3)由于Losscls的计算含有对数操作,对分类层的预测概率的下限进行限定,以避免概率为0时引起的计算错误;
(4)采用标准差为0.1的截断正态分布对网络权重进行初始化,以使更多参数的取值分布在靠近0的范围内;
(5)使用初始值为0.1、每10个迭代周期衰减10%的学习率,动量系数为0.9的动量梯度下降(Momentum SGD)方法优化网络参数;
(6)初次训练网络可将最大迭代次数设置为300次。
2-5、预设目标存在的概率阈值为Tp=0.9,若网络输出特征图中某一像素点属于目标的预测概率大于等于阈值Tp,则初步判断该像素点映射的R-D区域包含目标,并将该像素点的位置标为1;反之认为其代表的区域为背景,将相应位置标为0;
2-6、对每个特征图像素点在R-D图中的映射区域,利用网络位置回归层的预测结果(dx,dy)估计目标在每个R-D图辅助定位网格中的真实位置(xpre,ypre),具体计算公式如下:
xpre=round(x+dx·rw)
ypre=round(y+dy·rh)
其中(x,y)为特征图像素点对应R-D区域所属辅助定位网格的左上角单元在Range-Doppler图中的位置,round(·)为四舍五入就近取整函数。
2-7、将上述R-D图中的目标真实位置横坐标xpre按转化为目标相对雷达的径向距离r。设雷达快时间采样率为Fs,则具体的计算公式如下:
如图3所示,所述的步骤3将全卷积神经网络模型测得的目标相对雷达的径向距离、俯仰角、方位角作为系统量测值,在假设目标为匀速运动的条件下,通过坐标转换卡尔曼滤波器估计当前目标的实际位置,实现目标跟踪。具体实现流程如下:
3-2、标记连续Nsc=5个扫描周期内每个量测目标的坐标(xm,ym,zm),记录相邻周期中以恒定距离Dconst±Dtolerant变化的目标个数为M,当M超过设定的阈值TM=3时将对应的目标轨迹视为起始航迹,使用坐标转换卡尔曼滤波器对每条航迹进行修正,并剔除其余不满足该条件的目标轨迹。其中Dconst为相邻周期目标以匀速运动导致的欧式轨迹变化距离,而Dtolerant为设定的距离容错值。
3-3、计算量测值(xm,ym,zm)T与坐标真实值(x,y,z)T之间的转换误差为
转换误差协方差矩阵为
式中,
目标在匀速运动状态下的状态方程为:
X(k)=FX(k-1)+W(k-1)
经过去偏处理后的测量值为
设观测矩阵为H,测量误差为V(k)~N(0;Ra),则对目标的观测方程为
Zc(k)=HX(k)+V(k)
3-4、对坐标转换后的测量值去偏后,通过标准卡尔曼滤波算法更新每一次测量结果。设当前的时刻为k,则具体的实现流程如下:
(1)计算状态向量为
(2)计算误差协方差矩阵为
P-(k)=FP(k-1)FT+Q(k-1)
式中Q(k-1)为过程噪声的协方差矩阵;
(3)求得卡尔曼增益
K(k)=P-(k)HT(HP-(k)HT+Ra)-1
(4)根据卡尔曼增益对k时刻的状态向量进行修正
(5)更新k时刻的误差协方差矩阵
P(k)=(I-K(k)H)P-(k)
为了成功实现卡尔曼滤波器的迭代,步骤3中需要注意以下几点:
(1)设航迹起始后为时刻kd,则设定卡尔曼滤波器的初始状态为第一次观测值,初始化误差协方差矩阵为对角阵:
式中u为状态变量的个数;
(2)协方差矩阵Q的取值需根据实际情况而定。一般情况下,若系统状态方程更精确,即对预测值的信赖度更高,则对应Q取较大值;若系统传感器量测更精确,则对应Q取较小值。
经4981帧R-D图输入数据的实验测试,相比于现有基于滑窗定位的深度学习检测方法,在模型训练方面,同等条件下运行300个迭代周期,基于滑窗定位深度学习模型耗时3.5小时,而全卷积网络模型耗时57分钟;在模型检测方面,基于滑窗定位深度学习模型的检测速度为每帧1.5-2.0秒,而全卷积网络模型每帧仅需0.032-0.055秒,这使得基于深度学习的雷达小目标检测跟踪方法有了实际的应用价值。
Claims (7)
1.基于全卷积网络和卡尔曼滤波的雷达小目标跟踪方法,其特征在于包括如下步骤:
步骤1、对雷达接收机采集的回波信号进行预处理,获取回波信号的R-D图;
步骤2、构建全卷积神经网络,并利用网络预测特征图像素点对应R-D图中每个感受野区域分别属于目标和背景的类别概率,以及该区域包含目标时,特征图像素点在每个网格划分区域中相对于左上单元的偏移量,从而判断是否存在,以及存在目标时的目标位置;
步骤3、将得到目标位置的俯仰角、方位角及径向距离作为雷达系统的量测值并转换至笛卡尔坐标系中,在起始航迹的基础上通过转换卡尔曼滤波器对每帧R-D图中的每个量测目标进行位置的修正,得到目标的运动轨迹。
2.根据权利要求1所述的基于全卷积网络和卡尔曼滤波的雷达小目标跟踪方法,其特征在于所述的步骤1具体包括以下几个步骤:
1-1、将雷达接收机采集的一维离散回波信号,以脉冲重复周期为分割单元转换成二维矩阵形式,即若一维离散回波信号由N个长度为R的脉冲信号组成,则二维矩阵信号的大小为N×R;同时记录采集该段信号时,雷达对应的俯仰角和方位角θ;
1-2、使用三脉冲对消法对每一行脉冲信号做滤波处理,滤波后的信号xi为:
xi=ai-1+ai+1-2ai,1<i<N (1)
其中ai代表第i行未经对消的脉冲信号序列;
1-3、对滤波后位于同一距离单元的信号序列yj,1≤j≤R进行加窗操作,即:
zj=yj×g(n) (2)
g(n)=0.54-0.46cos[2πn/(N-2)],0≤n<N-2为汉明窗函数,具有与脉冲重复周期数相同的点数;
1-4、对加窗结果进行快速傅立叶变换(FFT)并求模,得到R-D图M:
M=(|fft[zj]|),1≤j≤R (3)。
3.根据权利要求1或2所述的基于全卷积网络和卡尔曼滤波的雷达小目标跟踪方法,其特征在于所述的步骤2具体实现流程如下:
2-1、对整幅图像进行限幅处理,得到限幅处理后的输入图像;即假设图像中元素的最大值为Imagemax,则通过将每一个R-D单元的幅值除以Imagemax使得图像中元素的最大值为1;
2-2、利用卷积核形成的感受野类比滑动窗口抽取R-D图中不同区域的局部特征进行背景与目标的分类;为提高目标定位的准确率,特征图像素点对应的输入图像中感受野的尺寸需根据目标回波在R-D图中的分布范围设定;
2-3、根据已确立的特征图尺寸Nf×Rf和输入图像尺寸N×R,按分辨率缩小比例将R-D图划分为Nf×Rf个尺寸为rh×rw网格单元以辅助所构建的位置预测功能层对目标进行定位,其中:
2-4、利用构建的全卷积神经网络计算R-D图映射至特征图像素点分别属于目标和背景的类别概率,以及该像素点对应的R-D区域包含目标时,所属用于辅助定位网格的左上角与目标实际位置之间的偏移量;
2-5、预设目标存在的概率阈值为Tp,若网络输出特征图中某一像素点属于目标的预测概率大于等于阈值Tp,则初步判断该像素点映射的R-D区域包含目标,并将该像素点的位置标为1;反之认为其代表的区域为背景,将相应位置标为0;
2-6、对每个特征图像素点在R-D图中的映射区域,利用网络位置回归层的预测结果(dx,dy)估计目标在每个R-D图辅助定位网格中的真实位置(xpre,ypre),具体计算公式如下:
xpre=round(x+dx·rw)
ypre=round(y+dy·rh) (12)
其中(x,y)为特征图像素点对应R-D区域所属辅助定位网格的左上角单元在Range-Doppler图中的位置,round(·)为四舍五入就近取整函数;
2-7、将上述R-D图中的目标真实位置横坐标xpre按转化为目标相对雷达的径向距离r;设雷达快时间采样率为Fs,则具体的计算公式如下:
4.根据权利要求3所述的基于全卷积网络和卡尔曼滤波的雷达小目标跟踪方法,其特征在于构建的全卷积神经网络由两个部分组成:用于空间特征提取的全卷积神经网络主干和两个用于特征图像素点类别与位置预测的功能模块,各部分的具体结构描述如下:
第一部分用于空间特征提取的全卷积神经网络主干共包含3个卷积层,均使用3×5大小的卷积核进行滤波,步长为1,且滤波器的个数分别16、32和64;为了减少模型参数,提高计算速度,同时提高所提取特征的鲁棒性,在第二个和第三个卷积层之后分别是一个窗口大小为2×4、水平向与垂直向步长分别为2和4的最大池化层;每个卷积层之后默认跟着一个激活层,且激活函数为广泛使用的线性整流函数(ReLU);
第二部分两个用于特征图像素点类别与位置预测的功能模块,分别包含一个卷积核大小为3×3、步长为1、数量为64、含有激活层ReLU的特征映射卷积层和一个卷积核大小为1×1,步长为1、数量为2的功能层,且其中分类模块的功能层分别输出特征图像素点判别为目标和背景的概率,而位置预测模块的功能层则分别输出特征图像素点在水平向与垂直向的偏移量;为便于观测,类别预测层会使用Softmax函数将网络的原始输出值转化为概率,计算公式为:
5.根据权利要求3或4所述的基于全卷积网络和卡尔曼滤波的雷达小目标跟踪方法,其特征在于步骤2-4中:
(1)在网络输出的分类预测结果中,根据特征图像素点对应的R-D区域是否包含目标将所有特征图像素点分为正样本和负样本,然后采用随机的方式从负样本中抽取与正样本等量的特征图像素点作为训练数据,与正样本一起输入全卷积神经网络进行训练,所述的R-D区域是指特征图像素点感受野对应在输入图像中包含的R-D区域;
(2)全卷积神经网络的损失函数由分类损失Losscls和回归损失Lossreg两部分组成,且分类采用交叉熵损失,而回归采用smooth L1损失;网络训练时的损失由下式获得:
Losstotal=Losscls+λ·Lossreg (7)
其中,λ为调整两类损失贡献大小的权重因子,Ncls和Nreg为一次迭代中参与训练的样本总数和正样本数量,lk∈{0,1}是第k个特征图像素点的真实类别标签,是第k个像素点所属的辅助定位网格包含目标时其左上角与目标位置之间的水平向、垂直向相对偏移量,在式(9)中而(dxk,dyk)为第k个特征图像素点在位置回归层的水平向与垂直向输出结果,在式(9)中dtk∈{dxk,dyk};式(10)中d为与dtk的差值;假设目标在Range-Doppler图中的位置为(xobj,yobj),含有目标的R-D区域所属辅助定位网格的左上角在Range-Doppler图中的位置为(x,y),而对应特征图与Range-Doppler图之间的宽高缩放比例分别为rw和rh,则该辅助定位网格相对于目标的实际偏移量(dx*,dy*)为:
(3)由于Losscls的计算含有对数操作,对分类层的预测概率的下限进行限定,以避免概率为0时引起的计算错误;
(4)采用标准差为0.1的截断正态分布对网络权重进行初始化,以使更多参数的取值分布在靠近0的范围内;
(5)使用初始值为0.1、每10个迭代周期衰减10%的学习率,动量系数为0.9的动量梯度下降方法优化网络参数。
6.根据权利要求1所述的基于全卷积网络和卡尔曼滤波的雷达小目标跟踪方法,其特征在于步骤3具体实现流程如下:
3-2、标记连续Nsc个扫描周期内每个量测目标的坐标(xm,ym,zm),记录任意两个相邻周期中以恒定距离Dconst±Dtolerant变化的量测目标个数为M,当M超过设定的阈值TM时将对应的目标轨迹视为起始航迹,使用坐标转换卡尔曼滤波器对每条航迹进行修正,并剔除其余不满足该条件的目标轨迹;其中Dconst为相邻周期目标以匀速运动导致的欧式轨迹变化距离,而Dtolerant为设定的距离容错值;
3-3、计算量测值(xm,ym,zm)T与坐标真实值(x,y,z)T之间的转换误差为
转换误差协方差矩阵为
式中,
目标在匀速运动状态下的状态方程为:
X(k)=FX(k-1)+W(k-1) (23)
经过去偏处理后的测量值为:
设观测矩阵为H,测量误差为V(k)~N(0;Ra),则对目标的观测方程为:
Zc(k)=HX(k)+V(k)
3-4、对坐标转换后的测量值去偏后,通过标准卡尔曼滤波算法更新每一次测量结果;设当前的时刻为k,则具体的实现流程如下:
(1)计算状态向量为
(2)计算误差协方差矩阵为
P-(k)=FP(k-1)FT+Q(k-1) (28)
式中Q(k-1)为过程噪声的协方差矩阵;
(3)求得卡尔曼增益
K(k)=P-(k)HT(HP-(k)HT+Ra)-1 (29)
(4)根据卡尔曼增益对k时刻的状态向量进行修正
(5)更新k时刻的误差协方差矩阵
P(k)=(I-K(k)H)P-(k) (31)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110995010.3A CN113808174B (zh) | 2021-08-27 | 2021-08-27 | 基于全卷积网络和卡尔曼滤波的雷达小目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110995010.3A CN113808174B (zh) | 2021-08-27 | 2021-08-27 | 基于全卷积网络和卡尔曼滤波的雷达小目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113808174A true CN113808174A (zh) | 2021-12-17 |
CN113808174B CN113808174B (zh) | 2024-03-26 |
Family
ID=78942015
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110995010.3A Active CN113808174B (zh) | 2021-08-27 | 2021-08-27 | 基于全卷积网络和卡尔曼滤波的雷达小目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113808174B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114924274A (zh) * | 2022-04-08 | 2022-08-19 | 苏州大学 | 一种基于固定网格的高动态铁路环境雷达感知方法 |
CN115424455A (zh) * | 2022-08-31 | 2022-12-02 | 南京慧尔视智能科技有限公司 | 一种车辆预警方法、装置、电子设备以及存储介质 |
RU2786518C1 (ru) * | 2022-02-03 | 2022-12-21 | Федеральное государственное казённое военное образовательное учреждение высшего образования "Военная академия воздушно-космической обороны имени Маршала Советского Союза Г.К. Жукова" Министерства обороны Российской Федерации | Способ распознавания типового состава групповой воздушной цели из класса "самолеты с турбореактивными двигателями" на основе калмановской фильтрации и нейронной сети |
CN115685128A (zh) * | 2022-11-14 | 2023-02-03 | 中国人民解放军空军预警学院 | 一种机动目标场景下的雷达目标跟踪算法及电子设备 |
CN116815365A (zh) * | 2023-08-28 | 2023-09-29 | 江苏恒力化纤股份有限公司 | 一种环锭纺细纱机断纱自动检测方法 |
CN116881385A (zh) * | 2023-09-08 | 2023-10-13 | 中国铁塔股份有限公司 | 轨迹平滑方法、装置、电子设备及可读存储介质 |
WO2024119954A1 (zh) * | 2022-12-08 | 2024-06-13 | 中兴通讯股份有限公司 | 目标检测方法、目标检测模型的训练方法及装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101825707A (zh) * | 2010-03-31 | 2010-09-08 | 北京航空航天大学 | 基于Keystone变换和相参积累的单脉冲测角方法 |
CN111368653A (zh) * | 2020-02-19 | 2020-07-03 | 杭州电子科技大学 | 一种基于r-d图与深度神经网络的低空小目标检测方法 |
WO2021139069A1 (zh) * | 2020-01-09 | 2021-07-15 | 南京信息工程大学 | 自适应注意力指导机制的一般性目标检测方法 |
-
2021
- 2021-08-27 CN CN202110995010.3A patent/CN113808174B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101825707A (zh) * | 2010-03-31 | 2010-09-08 | 北京航空航天大学 | 基于Keystone变换和相参积累的单脉冲测角方法 |
WO2021139069A1 (zh) * | 2020-01-09 | 2021-07-15 | 南京信息工程大学 | 自适应注意力指导机制的一般性目标检测方法 |
CN111368653A (zh) * | 2020-02-19 | 2020-07-03 | 杭州电子科技大学 | 一种基于r-d图与深度神经网络的低空小目标检测方法 |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2786518C1 (ru) * | 2022-02-03 | 2022-12-21 | Федеральное государственное казённое военное образовательное учреждение высшего образования "Военная академия воздушно-космической обороны имени Маршала Советского Союза Г.К. Жукова" Министерства обороны Российской Федерации | Способ распознавания типового состава групповой воздушной цели из класса "самолеты с турбореактивными двигателями" на основе калмановской фильтрации и нейронной сети |
CN114924274A (zh) * | 2022-04-08 | 2022-08-19 | 苏州大学 | 一种基于固定网格的高动态铁路环境雷达感知方法 |
CN114924274B (zh) * | 2022-04-08 | 2023-06-30 | 苏州大学 | 一种基于固定网格的高动态铁路环境雷达感知方法 |
CN115424455A (zh) * | 2022-08-31 | 2022-12-02 | 南京慧尔视智能科技有限公司 | 一种车辆预警方法、装置、电子设备以及存储介质 |
RU2802653C1 (ru) * | 2022-10-04 | 2023-08-30 | Федеральное государственное казённое военное образовательное учреждение высшего образования "Военная академия воздушно-космической обороны имени Маршала Советского Союза Г.К. Жукова" Министерства обороны Российской Федерации | Способ распознавания типового состава групповой воздушной цели различных классов при различных условиях ее полета на основе калмановской фильтрации и нейронной сети |
CN115685128A (zh) * | 2022-11-14 | 2023-02-03 | 中国人民解放军空军预警学院 | 一种机动目标场景下的雷达目标跟踪算法及电子设备 |
CN115685128B (zh) * | 2022-11-14 | 2023-04-11 | 中国人民解放军空军预警学院 | 一种机动目标场景下的雷达目标跟踪算法及电子设备 |
WO2024119954A1 (zh) * | 2022-12-08 | 2024-06-13 | 中兴通讯股份有限公司 | 目标检测方法、目标检测模型的训练方法及装置 |
CN116815365A (zh) * | 2023-08-28 | 2023-09-29 | 江苏恒力化纤股份有限公司 | 一种环锭纺细纱机断纱自动检测方法 |
CN116815365B (zh) * | 2023-08-28 | 2023-11-24 | 江苏恒力化纤股份有限公司 | 一种环锭纺细纱机断纱自动检测方法 |
CN116881385A (zh) * | 2023-09-08 | 2023-10-13 | 中国铁塔股份有限公司 | 轨迹平滑方法、装置、电子设备及可读存储介质 |
CN116881385B (zh) * | 2023-09-08 | 2023-12-01 | 中国铁塔股份有限公司 | 轨迹平滑方法、装置、电子设备及可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113808174B (zh) | 2024-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113808174B (zh) | 基于全卷积网络和卡尔曼滤波的雷达小目标跟踪方法 | |
CN110018453B (zh) | 基于飞机航迹特征的智能机型识别方法 | |
CN104297748B (zh) | 一种基于轨迹增强的雷达目标检测前跟踪方法 | |
CN110889324A (zh) | 一种基于yolo v3面向末端制导的热红外图像目标识别方法 | |
CN109324315B (zh) | 基于双层次块稀疏性的空时自适应处理雷达杂波抑制方法 | |
CN109634309B (zh) | 一种飞行器自主避障系统、方法及飞行器 | |
CN104199022B (zh) | 一种基于目标模态估计的临近空间高超声速目标跟踪方法 | |
CN108168564A (zh) | 一种基于lhd灰色关联度的航迹关联方法 | |
CN111401168B (zh) | 一种无人机的多层雷达特征提取与选择方法 | |
CN111368653B (zh) | 一种基于r-d图与深度神经网络的低空小目标检测方法 | |
CN111695473A (zh) | 基于长短时记忆网络模型的热带气旋强度客观监测方法 | |
CN113850204A (zh) | 一种基于深度学习和超宽带雷达的人体动作识别方法 | |
CN105447867A (zh) | 基于isar图像的空间目标姿态估计方法 | |
Tian et al. | Performance evaluation of deception against synthetic aperture radar based on multifeature fusion | |
CN113960587B (zh) | 基于类别信息反馈的毫米波雷达多目标跟踪方法 | |
CN113311430B (zh) | 蜂群无人机数量估计和航迹生成方法 | |
CN113064133B (zh) | 一种基于时频域深度网络的海面小目标特征检测方法 | |
CN108320302B (zh) | 基于随机超曲面的CBMeMBer多目标跟踪方法 | |
Meiyan et al. | M-FCN based sea-surface weak target detection | |
CN116030300A (zh) | 一种用于零样本sar目标识别的渐进式域自适应识别方法 | |
CN113947723B (zh) | 基于尺寸平衡fcos的高分辨率遥感场景目标检测方法 | |
CN116304966A (zh) | 基于多源数据融合的航迹关联方法 | |
CN114898202A (zh) | 基于多模型融合的水下视频目标尺度空间判别式跟踪系统及方法 | |
Xie et al. | Moving Object Detection Algorithm Based on Adaptive Clustering | |
CN117111013B (zh) | 一种雷达目标跟踪航迹起始方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |