CN110443138B - 基于车载毫米波雷达联合svm和cnn多目标分类方法 - Google Patents
基于车载毫米波雷达联合svm和cnn多目标分类方法 Download PDFInfo
- Publication number
- CN110443138B CN110443138B CN201910601880.0A CN201910601880A CN110443138B CN 110443138 B CN110443138 B CN 110443138B CN 201910601880 A CN201910601880 A CN 201910601880A CN 110443138 B CN110443138 B CN 110443138B
- Authority
- CN
- China
- Prior art keywords
- value
- classifier
- training
- target
- svm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/12—Classification; Matching
Abstract
本发明公开了一种基于车载毫米波雷达联合SVM和CNN多目标分类方法,首先对雷达获取到的不同目标的IF信号进行采样,转换为帧信号,对帧信号进行二维傅里叶变换,归一化后得到距离‑多普勒图,提取距离‑多普勒图中的特征向量,构建样本集;其次构建并训练SVM分类器,得到能够进行初步分类的SVM分类器;最后构建并训练卷积神经网络分类器,对SVM分类器无法分类的样本进行进一步分类,得到待测目标的分类结果。该方法联合SVM分类器和CNN分类器,弥补了CNN分类器对位置信息的不敏感,充分利用了样本的有效信息,提高了目标分类准确率。
Description
技术领域
本发明涉及一种基于车载毫米波传感器的目标分类方法,具体涉及一种基于车载毫米波传感器的联合支持向量机和卷积神经网络目标分类方法。
背景技术
近年来,随着市场对汽车主动安全和智能化需求的不断提高,无人驾驶巨大的社会和经济价值越发凸显,越来越多的企业与科研机构积极参与并推动无人驾驶领域的发展。由于汽车行业对于行人的安全保障有着极高的要求,所以行人和车辆分类逐渐成为无人驾驶中一项关键技术。在自动驾驶领域,无人驾驶车辆必须具备通过车载传感器识别行人和车辆及其所在位置的能力,以实现进一步的决策。一旦检测错误则会造成伤亡,后果严重,所以对于行人和车辆识别的准确性要求极高。因此行人和车辆分类是一个极富挑战性的研究课题。
传统的行人和车辆识别主要基于视觉传感器。就目前技术来说,视觉虽然可以提供丰富的图像信息,但是室外场景中的光照变化、遮挡、阴影等影响,导致视觉算法在复杂交通环境中鲁棒性较低。毫米波雷达作为无人驾驶中的重要传感器之一,已经被用于行人和车辆识别。与光学应用不同,毫米波雷达的使用不受光照条件限制,并且可以准确获得目标的位置和径向速度。另外,雷达传感器可以嵌入到车辆内部,因此对设备的维护更容易,操作更稳定。
在实际场景中,行人和车辆所出现的比例相差较大,使得在训练分类器时,必须考虑样本不平衡性。卷积神经网络对训练集样本不平衡问题很敏感,并且类别“越不平衡”,分类效果越差。同时由于卷积神经网络中使用卷积核提取图像的局部特征,导致分类器训练过程中,忽略了目标自身的位置信息,而这些特征在某些情况下也可用于目标分类。
发明内容
发明目的:本发明旨在提供一种能够精确对行人、自行车和汽车进行分类的方法。
技术方案:本发明采用如下技术方案:
基于车载毫米波雷达联合支持向量机(Support Vector Machine,SVM)和卷积神经网络(Convolutional Neural Networks,CNN)多目标分类方法,包括:训练阶段和测试阶段;所述训练阶段包括如下步骤:
(1)获取毫米波雷达系统对目标回波信号处理后的中频信号f(t),并对每个获取到的中频信号f(t)标定分类标签;
所述毫米波雷达系统安装于车辆上,所述毫米波雷达系统包括雷达发射机、雷达接收机和混频器;所述雷达发射机周期性发射线性调频信号,雷达接收机接收目标散射的回波信号,混频器利用雷达发射的线性调频信号对接收到的回波信号进行混频处理,得到中频信号f(t);
(2)对IF信号f(t)以采样频率Fs进行采样,一个调频连续波时宽T内采样点数为N,连续采集L个时宽;得到N×L个采样点,形成N×L维的帧信号;所述帧信号第n行l列元素f(n,l)为第l个时宽的第n个采样点,n=1,2,…,N,l=1,2,…,L;
对所述帧信号进行二维傅里叶变换,可表示为:
其中w(n)为高斯窗函数,p=1,2,…,N,q=1,2,…,L;
将F(p,q)归一化处理,获得距离-多普勒图P;所述距离-多普勒图P中像素值为:
其中,P(p,q)表示距离-多普勒图P在(p,q)位置处的像素值,|·|表示对复数取模;获取到的距离-多普勒图构成图像样本集Setmap;
获取距离-多普勒图P中目标的距离扩展大小d、距离方差σd、径向速度扩展大小s、径向速度方差σs和径向速度特征ps,组成特征向量v=(d,σd,s,σs,ps),构成特征向量样本集Setvec;
(3)构建SVM分类器,使用特征向量样本集Setvec对构建的SVM分类器进行训练;
(4)构建卷积神经网络分类器,将SVM分类器未确定类别的特征向量所对应的距离-多普勒图作为卷积神经网络的训练集Setmap′,使用Setmap′对构建的卷积神经网络分类器进行有监督的学习,获得卷积神经网络分类器的参数;
所述测试阶段包括如下步骤:
(5)采集待测目标的IF信号ftg(t);对ftg(t)按照步骤(2)所述的方法采样,采样点构成帧信号ftg(n,l),对ftg(n,l)进行二维傅里叶变换,得到距离-多普勒图Ptg,Ptg在(p,q)处的像素值为Ptg(p,q);获取距离-多普勒图中目标的距离扩展大小d、距离方差σd、径向速度扩展大小s、径向速度方差σs和径向速度特征ps,组成特征向量vt=(d,σd,s,σs,ps);
(6)将vt输入训练好的SVM分类器中,获取待测目标分类结果的置信度,如果置信度大于预设的置信度阈值Cth,得到待测目标的类别,结束分类;否则,将Ptg输入训练好的卷积神经网络分类器,得到待测目标的类别。
所述步骤(2)中还包括对获取到的距离-多普勒图进行预处理,所述预处理为:计算所有距离-多普勒图中每个像素位置像素值的平均值,并将样本集中的每个像素点的像素值减去其对应位置像素值的平均值。
所述步骤(2)中获取距离-多普勒图中目标的距离扩展大小d、距离方差σd、径向速度扩展大小s、径向速度方差σs和径向速度特征ps的步骤为:
(2.1)对距离-多普勒图进行恒虚警检测,获取图中的信号点;根据像素位置对信号点进行聚类,获得图中目标所对应的簇;(2.2)距离扩展大小d表示簇中信号点纵坐标最大值与纵坐标最小值的差值,距离方差σd表示簇中信号点的纵坐标方差,径向速度扩展大小s表示簇中信号点横坐标最大值与横坐标最小值的差值,径向速度方差σs表示簇中信号点横坐标的方差,径向速度特征ps表示簇中像素值最大的信号点所对应的横坐标。
所述步骤(3)中构建并训练SVM分类器的步骤包括:
(3.1)SVM分类器根据间隔最大化准则构造最优分类超平面进行分类,其中最优超平面表示为:
g(x,W,b)=Wx+b=0
其中,W表示各个超平面的法向量,x为特征向量,b为各个超平面上的截距;SVM分类器中使用折页损失函数计算损失值;
其中,Li表示第i个样本的折页损失值,xi表示第i个样本的特征向量,yi表示第i个样本的实际类别,g(xi,W,b)j表示第i个样本中第j类的分值,△表示距离阈值;在折页损失函数的基础上,添加了L2正则化损失项,从而避免分类器过度依赖于某些特征。
所述SVM分类器的损失函数为:
其中,Lcost表示损失值,M表示样本总数,λ表示正则化项的权重,Wk,j表示W矩阵中第k行第j列的值;
SVM分类器使用梯度下降法训练参数W和b,折页损失函数Li的梯度为:
(3.2)距离阈值△和损失权重λ为SVM分类器的两个超参数,设置△=1为固定值,通过交叉验证的方式优选λ的值,从而确定最优的模型。
(3.3)使用softmax函数计算分类结果的置信度,若置信度大于预设的置信度阈值Cth,则确定该样本的分类结果。
所述步骤(4)中卷积神经网络分类器中包括三个带有修正线性单元的卷积层、三个下采样层、一个带有修正线性单元的全连接层和一个带有softmax分类器的全连接层。
对卷积神经网络分类器进行有监督的学习,包括如下步骤:
(4.1)设置卷积神经网络的训练参数,所述训练参数包括一次训练所需样本数、测试间隔、优化方法选择、学习速率、梯度更新的权重;
(4.2)将带有标签的训练集分批送入卷积神经网络,前向传播计算损失值,后向传播计算每层的梯度,根据选择的优化方法进行网络参数更新;
(4.3)记录并保存每次训练的学习率、快照、以及对应的状态,直到测试集样本的准确率达到迭代结束条件或训练达到最大迭代次数,保存网络参数,结束训练;所述迭代结束条件为:相邻两次训练集样本的准确率差的绝对值小于ε,ε为预设的阈值。
所述步骤(2)中采样频率Fs=10MHz/s,调频连续波时宽T=50μs。
有益效果:本发明与现有技术相比,其显著优点是:1、本发明通过联合SVM分类器和卷积神经网络分类器,弥补了卷积神经网络分类器对位置信息的不敏感,充分利用了样本的有效信息,提高了目标分类准确率;2、SVM分类器有效地利用目标在距离多普勒图中的位置特征,有效降低了毫米波传感器实际应用场景中行人、自行车和汽车样本不均衡对目标分类的影响;3、通过使用卷积神经网络分类器,避免人工特征提取,使分类器能够自主学习行人、自行车和汽车目标的深层次特性,具有较强的泛化能力。
附图说明
图1为本发明公开的方法的流程图;
图2为本发明方法的卷积神经网络结构图;
图3为目标分别为自行车、行人、汽车的距离-多普勒图;
图4为本发明方公开的方法与SVM分类器和CNN分类器不同迭代次数下准确率对比图。
具体实施方式
下面结合附图和具体实施方式,进一步阐明本发明。
实施例1
如图1所示,基于车载毫米波雷达联合SVM和CNN多目标分类方法,包括:训练阶段和测试阶段;所述训练阶段包括如下步骤:
步骤1、获取毫米波雷达系统对目标回波信号处理后的中频信号f(t),并对每个获取到的中频信号f(t)标定分类标签;
所述毫米波雷达系统安装于车辆上,所述毫米波雷达系统包括雷达发射机、雷达接收机和混频器;所述雷达发射机周期性发射线性调频信号,雷达接收机接收目标散射的回波信号,混频器利用雷达发射的线性调频信号对接收到的回波信号进行混频处理,得到中频信号f(t);
在训练阶段,分别以行人、自行车和汽车为目标,获取多个中频信号,并对每个中频信号标定目标的分类标签。
步骤2、对IF信号f(t)以采样频率Fs进行采样,一个调频连续波时宽T内采样点数为N,连续采集L个时宽;得到N×L个采样点,形成N×L维的帧信号;所述帧信号第n行l列元素f(n,l)为第l个时宽的第n个采样点,n=1,2,…,N,l=1,2,…,L;
对所述帧信号进行二维傅里叶变换,可表示为:
其中w(n)为高斯窗函数,p=1,2,…,N,q=1,2,…,L;本实施例中,N=256,L=128,采样频率Fs=10MHz/s,调频连续波时宽T=50μs。
将F(p,q)归一化处理,获得距离-多普勒图P;所述距离-多普勒图P中像素值为:
其中,P(p,q)表示距离-多普勒图P在(p,q)位置处的像素值,|·|表示对复数取模;获取到的距离-多普勒图构成图像样本集Setmap;
获取目标的中频信号,根据中频信号获取距离-多普勒图的步骤可以参考申请号为2019104895140的中国发明专利申请。
为了提高模型的精确度,对获取到的距离-多普勒图进行预处理,计算所有距离-多普勒图中每个像素位置像素值的平均值,并将图像样本集中的每个像素点的像素值减去其对应位置像素值的平均值。即对图像数据进行中心化,使得图像样本集中的距离-多普勒图中每个像素位置上像素值的平均值为0,从而减少计算量,加快训练。
获取图像样本集中每个距离-多普勒图中目标的距离扩展大小d、距离方差σd、径向速度扩展大小s、径向速度方差σs和径向速度特征ps,组成特征向量v=(d,σd,s,σs,ps),构成特征向量样本集Setvec;Setvec与Setmap中的样本存在一一对应关系;
获取距离-多普勒图中目标的距离扩展大小d、距离方差σd、径向速度扩展大小s、径向速度方差σs和径向速度特征ps的步骤为:
(2.1)对距离-多普勒图进行恒虚警检测,获取图中的信号点;根据像素位置对信号点进行聚类,获得图中目标所对应的簇;本实施例中采用基于密度的聚类算法DB-SCAN对信号点进行聚类;
(2.2)距离-多普勒图中信号点的横坐标表示该信号点的径向速度,纵坐标表示该信号点的距离,且目标的信号点通过聚类在距离-多普勒图上表现为一簇。距离扩展大小d表示簇中最大距离和最小距离的差值,即簇中信号点纵坐标最大值与纵坐标最小值的差值;距离方差σd表示簇中信号点的距离方差,即簇中信号点的纵坐标方差;径向速度扩展大小s表示簇中最大径向速度与最小径向速度的差值,即簇中信号点横坐标最大值与横坐标最小值的差值;径向速度方差σs表示簇中信号点径向速度的方差,即簇中信号点横坐标的方差;径向速度特征ps表示簇中像素值最大的信号点所对应的径向速度。步骤3、构建SVM分类器,使用训练集TrainSet对构建的SVM分类器进行训练,包括步骤:
(3.1)SVM分类器根据间隔最大化准则构造最优分类超平面进行分类,其中最优超平面表示为:
g(x,W,b)=Wx+b=0
其中,W表示各个超平面的法向量,x为特征向量,b为各个超平面上的截距;SVM分类器中使用折页损失函数计算损失值;
其中,Li表示第i个样本的折页损失值,xi表示第i个样本的特征向量,yi表示第i个样本的实际类别,g(xi,W,b)j表示第i个样本中第j类的分值,△表示距离阈值;在折页损失函数的基础上,添加了L2正则化损失项,从而避免分类器过度依赖于某些特征,SVM分类器的损失函数为:
其中,Lcost表示损失值,M表示样本总数,λ表示正则化项的权重,Wk,j表示W矩阵中第k行第j列的值;
SVM分类器使用梯度下降法训练参数W和b,折页损失函数Li的梯度为:
(3.2)距离阈值△和损失权重λ为SVM分类器的两个超参数,本发明中设置△=1为固定值,通过交叉验证的方式调整λ的值,从而确定最优的模型;
(3.3)使用softmax函数计算分类结果的置信度,若置信度大于预设的置信度阈值Cth,则确定该样本的分类结果;本发明中将置信度阈值Cth设为70%。
步骤4、构建卷积神经网络分类器,将SVM分类器未确定类别的特征向量所对应的距离-多普勒图作为卷积神经网络的训练集Setmap′,,使用Setmap′对构建的卷积神经网络分类器进行有监督的学习,获得卷积神经网络分类器的参数;根据前面步骤可知,Setmap′是Setmap的子集;
卷积神经网络分类器中包括三个带有修正线性单元的卷积层、三个下采样层、一个带有修正线性单元的全连接层和一个带有softmax分类器的全连接层。
如图2所示,第一个卷积层滤波器的大小为3*3像素,步长为1个像素,滤波器的个数为16个;第一个下采样层滤波器采用最大值滤波器,大小为2*2像素,步长为2个像素;第二层卷积层滤波器的大小为3*3像素,步长为1个像素,滤波器个数为32个,第二下采样层滤波器采用最大值滤波器,大小为2*2像素,步长为2个像素;第三卷积层滤波器的大小为3*3像素,步长为1个像素,滤波器个数为64个,第三下采样层滤波器采用最大值滤波器,大小为2*2像素,步长为2个像素;第一个全连接层有1024个神经元,使用dropout层防止过拟合;softmax分类器输出目标的分类概率。
对卷积神经网络分类器进行有监督的学习,包括如下步骤:
(4.1)设置卷积神经网络的训练参数,所述训练参数包括一次训练所需样本数、测试间隔、优化方法选择、学习速率、梯度更新的权重;
(4.2)将带有标签的训练集分批送入卷积神经网络,前向传播计算损失值,后向传播计算每层的梯度,根据选择的优化方法进行网络参数更新;
(4.3)记录并保存每次训练的学习率、快照、以及对应的状态,,直到训练集样本的准确率达到迭代结束条件或训练达到最大迭代次数,保存网络参数,结束训练;所述迭代结束条件为:相邻两次训练集样本的准确率差的绝对值小于ε,ε为预设的阈值。
经过上述的训练阶段,得到了用于目标分类的联合SVM和卷积神经网络的分类器,之后可以使用该分类器进行分类测试。所述测试阶段包括如下步骤:
步骤5、采集待测目标的IF信号ftg(t);对ftg(t)按照步骤(2)所述的方法采样,采样点构成帧信号ftg(n,l),对ftg(n,l)进行二维傅里叶变换,得到距离-多普勒图Ptg,Ptg在(p,q)处的像素值为Ptg(p,q);获取距离-多普勒图中目标的距离扩展大小d、距离方差σd、径向速度扩展大小s、径向速度方差σs和径向速度特征ps,组成特征向量vt=(d,σd,s,σs,ps);
步骤6、将vt输入训练好的SVM分类器中,获取待测目标分类结果的置信度,如果置信度大于预设的置信度阈值Cth,得到待测目标的类别,结束分类;否则,将Ptg输入训练好的卷积神经网络分类器,得到待测目标的类别。
实施例2
实施例1是通过获取毫米波雷达系统对目标回波信号处理后的中频信号f(t)来构建样本集。当采集到的已知目标类别的中频信号f(t)数量不足时,可以通过仿真的方法来生成中频信号f(t)。采用信号仿真来产生行人、自行车、汽车回波信号对应的中频信号,可以参考申请号为2019104895140的中国发明专利申请。
本实施例通过信号仿真产生40个行人的IF信号、80个自行车的IF信号和200个汽车的IF信号。对生成的每个IF信号进行处理生成多幅距离-多普勒图,从每个IF信号生成的多幅距离-多普勒图中等间隔抽取5张距离-多普勒图,总计1600张,并标定每个距离-多普勒图中目标的类别标签。
在每张距离-多普勒图上截取包含目标的部分,截取方法为:以图中像素值最大的位置作为中心,截取指定大小的图像。图像大小可以根据经验设置,以能够覆盖图中目标为准。如图3所示,设置截取到的图像大小为28*28,分别截取目标为自行车(图3-(a))、行人(图3-(b))、汽车(图3-(c))的部分。同时利用python中的PIL包将图片缩放到56*56大小,以便放大目标的形状特征。对缩放后的图像进行预处理,计算所有缩放后的图像中每个像素位置像素值的平均值,并将每个图像的每个像素点的像素值减去其对应位置像素值的平均值。即对图像数据进行中心化,使得样本集中的距离-多普勒图中每个像素位置上像素值的平均值为0,从而减少计算量,加快训练。由此得到包含了1600个样本的图像样本集Setmap。
获取每个距离-多普勒图中目标的距离扩展大小d、距离方差σd、径向速度扩展大小s、径向速度方差σs和径向速度特征ps,组成特征向量v=(d,σd,s,σs,ps),构成包含了1600个样本的特征向量样本集Setvec;此外,以相同的方式产生包括400个样本的测试图像样本集和测试特征向量样本集。
在SVM分类器中,通过交叉验证的方式确定正则化项的权重λ。首先设置多个λ的候选值,本实施例中设置9个λ的候选值,分别为:0.1,0.5,1,5,10,50,100,500,1000。分别采用候选的λ进行实验,将最大准确率所对应的λ作为本实例中的正则化项权重。本实施例中选取λ=500。使用高斯分布初始化权重参数W,设置SVM分类器的学习率为1e-9,通过梯度下降法更新权重参数。每次迭代送入200个样本进行训练,迭代次数为100次。SVM分类器使用softmax函数计算并标记置信度较大类别的样本,并将未分类的样本用卷积神经网络分类器进行分类。
卷积神经网络中各层权重参数使用高斯分布初始化,每次迭代送入50张样本数据进行训练。为了防止过拟合,在第一个全连接层中,每次更新50%的神经元参数。随机梯度下降法的基础学习速率为0.01。每迭代1次用训练集进行一次验证并保存训练状态和模型参数。
本发明公开的方法与SVM分类器和卷积神经网络分类器性能的对比图如图4所示。SVM分类器在迭代20次之后达到稳定,准确率为62.5%;卷积神经网络在迭代50次之后达到稳定,准确率为82.75%;本发明公开的SVM分类器级联卷积神经网络分类器在迭代40次之后,达到稳定,且准确率稳定在95%。本发明通过使用SVM分类器利用目标在距离多普勒图中的位置特征,挑选出高置信度类别的车辆样本,从而降低了训练样本不均衡对卷积神经网络分类器的影响,同时充分利用了样本的有效信息,提高了目标分类的准确率,实现了目标的分类。
Claims (6)
1.基于车载毫米波雷达联合SVM和CNN多目标分类方法,其特征在于,包括:训练阶段和测试阶段;
所述训练阶段包括如下步骤:
(1)获取毫米波雷达系统对目标回波信号处理后的中频信号f(t),并对每个获取到的中频信号f(t)标定分类标签;
(2)对IF信号f(t)以采样频率Fs进行采样,一个调频连续波时宽T内采样点数为N,连续采集L个时宽;得到N×L个采样点,形成N×L维的帧信号;所述帧信号第n行l列元素f(n,l)为第l个时宽的第n个采样点,n=1,2,…,N,l=1,2,…,L;
对所述帧信号进行二维傅里叶变换,可表示为:
其中w(n)为高斯窗函数,p=1,2,…,N,q=1,2,…,L;
将F(p,q)归一化处理,获得距离-多普勒图P;所述距离-多普勒图P中像素值为:
其中,P(p,q)表示距离-多普勒图P在(p,q)位置处的像素值,|·|表示对复数取模;获取到的距离-多普勒图构成图像样本集Setmap;
获取距离-多普勒图P中目标的距离扩展大小d、距离方差σd、径向速度扩展大小s、径向速度方差σs和径向速度特征ps,组成特征向量v=(d,σd,s,σs,ps),构成特征向量样本集Setvec;
(3)构建SVM分类器,使用特征向量样本集Setvec对构建的SVM分类器进行训练;
(4)构建卷积神经网络分类器,将SVM分类器未确定类别的特征向量所对应的距离-多普勒图作为卷积神经网络的训练集Setmap′,使用Setmap′对构建的卷积神经网络分类器进行有监督的学习,获得卷积神经网络分类器的参数;
所述测试阶段包括如下步骤:
(5)采集待测目标的IF信号ftg(t);对ftg(t)按照步骤(2)所述的方法采样,采样点构成帧信号ftg(n,l),对ftg(n,l)进行二维傅里叶变换,得到距离-多普勒图Ptg,Ptg在(p,q)处的像素值为Ptg(p,q);获取距离-多普勒图中目标的距离扩展大小d、距离方差σd、径向速度扩展大小s、径向速度方差σs和径向速度特征ps,组成特征向量vt=(d,σd,s,σs,ps);
(6)将vt输入训练好的SVM分类器中,获取待测目标分类结果的置信度,如果置信度大于预设的置信度阈值Cth,得到待测目标的类别,结束分类;否则,将Ptg输入训练好的卷积神经网络分类器,得到待测目标的类别;
所述步骤(2)中获取距离-多普勒图中目标的距离扩展大小d、距离方差σd、径向速度扩展大小s、径向速度方差σs和径向速度特征ps的步骤为:
(2.1)对距离-多普勒图进行恒虚警检测,获取图中的信号点;根据像素位置对信号点进行聚类,获得图中目标所对应的簇;
(2.2)距离扩展大小d表示簇中信号点纵坐标最大值与纵坐标最小值的差值,距离方差σd表示簇中信号点的纵坐标方差,径向速度扩展大小s表示簇中信号点横坐标最大值与横坐标最小值的差值,径向速度方差σs表示簇中信号点横坐标的方差,径向速度特征ps表示簇中像素值最大的信号点的横坐标。
2.根据权利要求1所述的基于车载毫米波雷达联合SVM和CNN多目标分类方法,其特征在于,所述步骤(2)中还包括对获取到的距离-多普勒图进行预处理,所述预处理为:计算所有距离-多普勒图中每个像素位置像素值的平均值,并将样本集中的每个像素点的像素值减去其对应位置像素值的平均值。
3.根据权利要求1所述的基于车载毫米波雷达联合SVM和CNN多目标分类方法,其特征在于,所述步骤(3)中构建并训练SVM分类器的步骤包括:
(3.1)SVM分类器根据间隔最大化准则构造最优分类超平面进行分类,其中最优超平面表示为:
g(x,W,b)=Wx+b=0
其中,W表示各个超平面的法向量,x为特征向量,b为各个超平面上的截距;所述SVM分类器的损失函数为:
其中,Lcost表示损失值,M表示样本总数,Li表示第i个样本的折页损失值,xi表示第i个样本的特征向量,yi表示第i个样本的实际类别,g(xi,W,b)j表示第i个样本中第j类的分值,△表示距离阈值;λ表示正则化项的权重,Wk,j表示W矩阵中第k行第j列的值;
SVM分类器使用梯度下降法训练参数W和b,折页损失函数Li的梯度为:
(3.2)距离阈值△和损失权重λ为SVM分类器的两个超参数,设置△=1为固定值,通过交叉验证的方式优选λ的值,从而确定最优的模型;
(3.3)使用softmax函数计算分类结果的置信度,若置信度大于预设的置信度阈值Cth,则确定该样本的分类结果。
4.根据权利要求1所述的基于车载毫米波雷达联合SVM和CNN多目标分类方法,其特征在于,所述步骤(4)中卷积神经网络分类器中包括三个带有修正线性单元的卷积层、三个下采样层、一个带有修正线性单元的全连接层和一个带有softmax分类器的全连接层。
5.根据权利要求4所述的基于车载毫米波雷达联合SVM和CNN多目标分类方法,其特征在于,步骤(4)中对卷积神经网络分类器进行有监督的学习,包括如下步骤:
(4.1)设置卷积神经网络的训练参数,所述训练参数包括一次训练所需样本数、测试间隔、优化方法选择、学习速率、梯度更新的权重;
(4.2)将带有标签的训练集分批送入卷积神经网络,前向传播计算损失值,后向传播计算每层的梯度,根据选择的优化方法进行网络参数更新;
(4.3)记录并保存每次训练的学习率、快照、以及对应的状态,直到训练集样本的准确率达到迭代结束条件或训练达到最大迭代次数,保存网络参数,结束训练;所述迭代结束条件为:相邻两次训练集样本的准确率差的绝对值小于ε,ε为预设的阈值。
6.根据权利要求1所述的基于车载毫米波雷达联合SVM和CNN多目标分类方法,其特征在于,所述步骤(2)中采样频率Fs=10MHz/s,调频连续波时宽T=50μs。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910601880.0A CN110443138B (zh) | 2019-07-05 | 2019-07-05 | 基于车载毫米波雷达联合svm和cnn多目标分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910601880.0A CN110443138B (zh) | 2019-07-05 | 2019-07-05 | 基于车载毫米波雷达联合svm和cnn多目标分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110443138A CN110443138A (zh) | 2019-11-12 |
CN110443138B true CN110443138B (zh) | 2021-10-19 |
Family
ID=68428689
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910601880.0A Active CN110443138B (zh) | 2019-07-05 | 2019-07-05 | 基于车载毫米波雷达联合svm和cnn多目标分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110443138B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111098890B (zh) * | 2019-12-18 | 2023-04-07 | 中铁电气化局集团有限公司 | 一种基于毫米波雷达的列车防撞方法及装置 |
CN111368653B (zh) * | 2020-02-19 | 2023-09-08 | 杭州电子科技大学 | 一种基于r-d图与深度神经网络的低空小目标检测方法 |
CN111368931B (zh) * | 2020-03-09 | 2023-11-17 | 第四范式(北京)技术有限公司 | 确定图像分类模型的学习率的方法 |
WO2021203364A1 (zh) * | 2020-04-09 | 2021-10-14 | 浙江大学 | 一种用于身份识别的雷达信号处理方法 |
CN112485783A (zh) * | 2020-09-29 | 2021-03-12 | 北京清瑞维航技术发展有限公司 | 目标探测方法、装置、计算机设备和存储介质 |
CN113156382B (zh) * | 2021-04-13 | 2023-12-01 | 中国科学院微电子研究所 | 用于车载测距雷达的信号识别方法及装置 |
CN113177581B (zh) * | 2021-04-16 | 2022-11-04 | 杭州环木信息科技有限责任公司 | 一种基于毫米波感知的液晶屏幕内容远程感知方法 |
CN113516052B (zh) * | 2021-05-21 | 2023-04-18 | 同济大学 | 一种基于机器学习的成像毫米波雷达点云目标分类方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101467065B1 (ko) * | 2012-12-28 | 2014-12-01 | 세종대학교산학협력단 | 부패 판단 장치, 이를 이용한 냉장 시스템, 스마트 빌딩 시스템 및 부패 판단 방법 |
CN108764281A (zh) * | 2018-04-18 | 2018-11-06 | 华南理工大学 | 一种基于半监督自步学习跨任务深度网络的图像分类方法 |
CN108957453A (zh) * | 2018-07-23 | 2018-12-07 | 航天恒星科技有限公司 | 一种基于多目标跟踪的高精度动目标成像及识别方法 |
CN109100710A (zh) * | 2018-06-26 | 2018-12-28 | 东南大学 | 一种基于卷积神经网络的水下目标识别方法 |
CN109633621A (zh) * | 2018-12-26 | 2019-04-16 | 杭州奥腾电子股份有限公司 | 一种车载环境感知系统数据处理方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7783403B2 (en) * | 1994-05-23 | 2010-08-24 | Automotive Technologies International, Inc. | System and method for preventing vehicular accidents |
-
2019
- 2019-07-05 CN CN201910601880.0A patent/CN110443138B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101467065B1 (ko) * | 2012-12-28 | 2014-12-01 | 세종대학교산학협력단 | 부패 판단 장치, 이를 이용한 냉장 시스템, 스마트 빌딩 시스템 및 부패 판단 방법 |
CN108764281A (zh) * | 2018-04-18 | 2018-11-06 | 华南理工大学 | 一种基于半监督自步学习跨任务深度网络的图像分类方法 |
CN109100710A (zh) * | 2018-06-26 | 2018-12-28 | 东南大学 | 一种基于卷积神经网络的水下目标识别方法 |
CN108957453A (zh) * | 2018-07-23 | 2018-12-07 | 航天恒星科技有限公司 | 一种基于多目标跟踪的高精度动目标成像及识别方法 |
CN109633621A (zh) * | 2018-12-26 | 2019-04-16 | 杭州奥腾电子股份有限公司 | 一种车载环境感知系统数据处理方法 |
Non-Patent Citations (1)
Title |
---|
基于深度神经网络的人车分类算法;张国祥;《中国优秀硕士学位论文全文数据库 信息科技辑》;20170315;I136-2097 * |
Also Published As
Publication number | Publication date |
---|---|
CN110443138A (zh) | 2019-11-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110443138B (zh) | 基于车载毫米波雷达联合svm和cnn多目标分类方法 | |
CN111310583B (zh) | 一种基于改进的长短期记忆网络的车辆异常行为识别方法 | |
US10346724B2 (en) | Rare instance classifiers | |
US9429650B2 (en) | Fusion of obstacle detection using radar and camera | |
CN110569792A (zh) | 一种基于卷积神经网络的自动驾驶汽车前方物体检测方法 | |
Kim | Realtime lane tracking of curved local road | |
CN110018453A (zh) | 基于飞机航迹特征的智能机型识别方法 | |
CN110378204B (zh) | 一种基于车载毫米波雷达的多目标分类方法 | |
Kim | Multiple vehicle tracking and classification system with a convolutional neural network | |
CN114462667A (zh) | 一种基于sfm-lstm神经网络模型的过街行人轨迹预测方法 | |
CN112731296A (zh) | 一种汽车毫米波雷达点迹凝聚方法及系统 | |
CN114627447A (zh) | 基于注意力机制和多目标跟踪的公路车辆跟踪方法及系统 | |
He et al. | A novel multi-source vehicle detection algorithm based on deep learning | |
CN116266360A (zh) | 一种基于多源信息融合的车辆目标检测跟踪方法 | |
CN116258940A (zh) | 一种多尺度特征及自适应权重的小目标检测方法 | |
Cozma et al. | Deephybrid: Deep learning on automotive radar spectra and reflections for object classification | |
Lee et al. | Probabilistic inference of traffic participants' lane change intention for enhancing adaptive cruise control | |
KR101050687B1 (ko) | 사후확률을 이용한 보행자 인식 장치 및 방법과 그를이용한 보행자 보호 장치 | |
CN113537170A (zh) | 一种交通路况智能监测方法和计算机可读存储介质 | |
CN110703272A (zh) | 一种基于车车通信和gmphd滤波的周边目标车辆状态估计方法 | |
CN114048536A (zh) | 一种基于多任务神经网络的道路结构预测与目标检测方法 | |
CN111368653B (zh) | 一种基于r-d图与深度神经网络的低空小目标检测方法 | |
Martinez et al. | A convolutional neural network approach to parking monitoring in urban radar sensing | |
CN115471526A (zh) | 基于多源异构信息融合的自动驾驶目标检测与跟踪方法 | |
Martinez et al. | Convolutional neural networks for parking space detection in downfire urban radar |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |