CN113627373A - 一种基于雷视融合探测的车辆识别方法 - Google Patents

一种基于雷视融合探测的车辆识别方法 Download PDF

Info

Publication number
CN113627373A
CN113627373A CN202110945165.6A CN202110945165A CN113627373A CN 113627373 A CN113627373 A CN 113627373A CN 202110945165 A CN202110945165 A CN 202110945165A CN 113627373 A CN113627373 A CN 113627373A
Authority
CN
China
Prior art keywords
target
detection
radar
fusion
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110945165.6A
Other languages
English (en)
Inventor
王德印
朱治玲
刘晓珑
何龙刚
刘克旗
李洪萍
伏广尧
孙波
付超
张弛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong Yimeng Transportation Development Group Co ltd
Original Assignee
Shandong Yimeng Transportation Development Group Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong Yimeng Transportation Development Group Co ltd filed Critical Shandong Yimeng Transportation Development Group Co ltd
Priority to CN202110945165.6A priority Critical patent/CN113627373A/zh
Publication of CN113627373A publication Critical patent/CN113627373A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Abstract

本发明公开了一种基于雷视融合探测的车辆识别方法,选取交通路口数据,视频分辨率采用1920*1080;采用YOLOv4主干网络结构;基于YOLOv4的多标签和图片拼接检测;毫米波雷达感知模块;基于熵信息差异互补模型设计的雷视融合模块;雷视融合仿真模块;自采集数据实验,本发明属于机器学习及深度学习技术领域,具体是指一种基于雷视融合探测的车辆识别方法,针对可见光遥感图像在处理小样本集小目标检测的应用需求,针对性的提出应用在遥感地面车辆小目标的有效的深度学习目标检测方法。

Description

一种基于雷视融合探测的车辆识别方法
技术领域
本发明属于机器学习及深度学习技术领域,具体是指一种基于雷视融合探测的车辆识别方法。
背景技术
一种为了解决在一个应用系统中使用了多个或多类传感器这一特定问题而提出来的新的信息处理方法就是多传感器信息融合,计算机技术的发展为多传感器融合提供了必要基础和保证,多传感器融合的处理过程就是利用计算机技术的自动分析和优化综合对按照时序采集的若干传感器的信息在一定的规则下进行融合,以得到需要的决策和估计任务,多传感器融合是一个新兴的技术领域,其快速发展为交通领域中的信息提取和分析处理提供了很好的解决方案,多传感器融合可以最大程度地合理协调多源数据,充分利用有用的信息,提高信息的综合利用率。这种优势恰好能在智能交通领域得到充分发挥,对于交通信息融合技术的研究仍存在很多急需解决的问题,如何降低系统的研发成本,降低运算量和存储量,增强对多目标和高速运动目标的识别可靠性等等,未来的很长一段时间内,还会有更多的智能交通技术和融合算法的出现。
对于多传感器信息融合技术的研究,我国出现了诸如态势与威胁估计、多传感器综合跟踪与定位、机动目标跟踪识别与决策信息融合等许多新兴的热门的研究方向,并相继出现了一批能够对多个目标进行跟踪以及对相关信息能够进行初步融合的,具有综合能力的多传感器信息融合系统。更多的多传感器信息融合系统将随着时间的推移投入到实际应用当中。
路侧感知在整个V2X场景中其实是有非常强的应用价值,当我们能够把感知的算法真正能够搬到路端,在路端有统一的高精度的解决方案的时候,我们能够将每一辆车的成本去做有效的降低,同时也能够提升整个在路上所有车的系统的稳定性;路侧感知希望最终实现的目标是实现多传感器的补盲,覆盖范围更广的场景,更高精度的算法,能够适应极端的天气,同时也为更多的应用打下坚实的基础。
发明内容
为了解决上述难题,本发明提供了一种基于雷视融合探测的车辆识别方法,针对可见光遥感图像在处理小样本集小目标检测的应用需求,针对性的提出应用在遥感地面车辆小目标的有效的深度学习目标检测方法。
为了实现上述功能,本发明采取的技术方案如下:一种基于雷视融合探测的车辆识别方法,具体包括如下步骤:
S1:选取交通路口数据,视频分辨率采用1920*1080;
S2:采用YOLOv4主干网络结构
YOLOv4属于单步检测算法,YOLOv4在输入端进行改进,采用Mosaic数据,将4张照片以随机缩放、随机裁剪、随机排布的方式进行拼接,加入了SPP模块,即空间金字塔池化,增加主干特征的接收范围,分离了上下文特征;
S3:基于YOLOv4的多标签和图片拼接检测
实际交通场景下的车辆目标检测对实时性要求高,在保证检测正确率的同时目标检测网络的检测速度快,YOLOv4对网络结构进行了轻量化修改使得在准确率相同的情况下速度超过其他目标检测网络;
在YOLOv4的基础上,在输入端加入一个Splicing layer网络层,将四张1920×1080的待检测图像拼接成一个3840×2160的大图,拼接完成后再进行检测,四张图像只需要调用一次检测器,提高了车辆目标的检测速度;由于图像拼接后,图像变大,车辆目标相对原始图像变小,为了保证训练权重适用于拼接图像的检测,在多样化数据集基础上重新制作一个拼接图像数据集,先将图片拼接后再进行样本数据标记工作,用拼接数据集进行深度神经网络训练,得到适用的检测所需权重文件,由于原图片的分辨率已经很高,拼接图片的大小变大,导致训练速度变慢,但为了保证图像的质量,不会对图像做缩放操作,保证了检测拥有足够的精度;
在车辆目标检测完成后,加入了对应的分解操作,检测到的结果是相对于拼接后的大图而言的,因此需将拼接后的图像检测结果回归到单一的图像帧中;分解层先通过对检测结果进行判断,判定检测框所在的原始图像,再根据不同位置图片对应的坐标位置对检测结果进行修改,从而完成检测结果的分解;
S4:毫米波雷达感知模块
毫米波雷达根据目标回波的特征对物体进行分类和识别,应用于车路协同系统中的毫米波雷达目标特征提取技术包括基于目标雷达截面积RCS的目标特征提取技术、目标微动特征的检测技术、基于一维高分辨率距离像特征提取技术、基于极化信息的特征提取技术:
1)基于目标雷达截面积RCS的目标特征提取技术:在雷达信号处理中,RCS是描述目标本质特征的指标,主要与目标的形状、材质、信号入射角度、辐射信号频率相关;在目标的外在形状、材质、入射频率等确定不变的情况下,目标状态的改变引起电磁波入射角变化,进而引起目标RCS值改变,可据此来推算目标运动特征;
2)目标微动特征的检测技术:目标质心相对于雷达运动时,会产生多普勒频率,而目标或其组成部分相对于目标质心的振动、转动及加速度等微动特征会产生微多普勒效应;解析微多普勒效应中产生的微多普勒信号,即可得到目标微动特征信息,进而做目标分类和识别;
3)基于一维高分辨率距离像特征提取技术:一维高分辨率距离像HRRP,在散射点模型下,目标回波在雷达距离向上产生多个散射点,体现目标在雷达视线方向下的相对的结构数据与散射强度特征,根据一维高分辨率距离像表现出的特征,做目标的分类与识别;
4)基于极化信息的特征提取技术:极化信息是描述雷达电磁波矢量特征的参数,是表征目标散射特性的一个重要属性,雷达辐射的电磁波照射到目标后,目标会产生极化信息变化的回波,回波极化信息变换与目标外形、尺寸、结构等密切相关,根据目标极化散射特性,可以对目标进行识别;
S5:基于熵信息差异互补模型设计的雷视融合模块
基于熵信息差异互补的雷视融合探测技术是针对雷达探测技术对四轮以上、车厢带有各种货物的异形车辆识别裂变问题,结合图像检测效果,对雷达和光电二者信息进行融合处理提出的,通过将雷达与视频原始信号进行融合感知分析,对超长超宽车辆特征进行匹配识别,实现车辆目标的同一性确定,提升大车轨迹识别准确率与轨迹识别符合率,进而获得车辆精确定位和准确流量统计,包括:
(1)熵信息差异互补模型设计;
(2)模型测试结果统计;
S6:雷视融合仿真模块
采用kalman滤波来说明多传感器数据融合在目标跟踪方面的性能的优越性;
S7:自采集数据实验
基于以上优化设计方案,自主获取相关数据,对基于yolov4和雷达探测的融合结果;选取其中包含不同小目标、不同状态目标的测试数据进行测试。
本发明采取上述结构取得有益效果如下:本发明提供的一种基于雷视融合探测的车辆识别方法操作简单,设计合理,针对传统图像识别和雷达探测技术对四轮以上、车厢带有各种货物的异形车辆识别裂变问题,基于雷视融合探测技术,通过将雷达与视频原始信号进行融合感知分析,提出一种基于熵信息差异互补的方式,对雷达和光电分别获得的目标数据进行融合处理,完成对超长超宽车辆特征进行匹配识别,实现车辆目标的同一性确定,提升大车轨迹识别准确率与轨迹识别符合率,进而获得车辆精确定位和准确流量统计,使得城市交通路口监测,特别是物流城市路口监测更加精细化、精准化。
附图说明
图1为本发明一种基于雷视融合探测的车辆识别方法的yolov4结构图;
图2为本发明一种基于雷视融合探测的车辆识别方法的网络示意图;
图3为本发明一种基于雷视融合探测的车辆识别方法的雷达感知流程图;
图4为本发明一种基于雷视融合探测的车辆识别方法的单传感器与两传感器跟踪结果对比图。
图5为本发明一种基于雷视融合探测的车辆识别方法的单传感器跟踪结果图;
图6为本发明一种基于雷视融合探测的车辆识别方法的两传感器跟踪结果图;
图7为本发明一种基于雷视融合探测的车辆识别方法的单传感器与两传感器融合的位置误差对比图;
图8为本发明一种基于雷视融合探测的车辆识别方法的雷视融合后的探测结果对比图。
具体实施方式
下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本发明的描述中,需要说明的是,术语“中心”、“上”、“下”、“左”、“右”、“竖直”、“水平”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性。以下结合附图,对本发明做进一步详细说明。
如图1-8所示,本发明一种基于雷视融合探测的车辆识别方法,具体包括如下步骤:
S1:选取交通路口数据,视频分辨率采用1920*1080。
S2:YOLOv4主干网络结构:YOLOv4属于单步检测算法,检测速度快,更容昐运用到工程实践中,并且YOLOv4在YOLOv3的基础上在输入端进行改进,Mosaic数据增强便是YOLOv4提出的一个基于CutMix数据增强的方法,Mosaic数据增强采用了将4张照片,随机缩放、随机裁剪、随机排布的方式进行拼接,丰富了样本的数量,同时,加入了SPP(空间金字塔池化)模块,更有效的增加主干特征的接收范围,显著的分离了最重要的上下文特征,可以很好的解决本方案开始提到的目标车辆在图片中因位置不同而出现的形变问题,在YOLOv4的基础上,本方案还提出了应用多标签和图片拼接检测方法,使得检测性能得到了进一步的提升,在平均精度(mAP)和速度上,YOLOv4进超YOLOv3版本,mAP提升了大约10个点,速度提升了大约12%,在精度差不多的情况下YOLOv4的速度更有优势;如图1所示。
S3:基于yolov4的多标签和图片拼接检测:
实际交通场景下的车辆目标检测对实时性要求高,只有满足实时性,通过目标检测得到的车辆属性信息库才有应用意义,同时因为实际交通道路场景下的监控数量众多,只有提高网络的检测性能才能满足工程应用需求。满足实际应用需求的首要条件就是在保证检测正确率的同时目标检测网络的检测速度足够快,YOLOv4对网络结构进行了轻量化修改使得在准确率相同的情况下速度要进进超过其他目标检测网络。
在YOLOv4的基础上,在输入端加入一个Splicing layer网络层,将四张1920×1080的待检测图像拼接成一个3840×2160的大图,拼接完成后再进行检测,相当于四张图像只需要调用一次检测器,大大提高了车辆目标的检测速度。依据此思想,由于图像拼接后,整个图像变大,车辆目标相对原始图像变小,为了保证训练权重适用于拼接图像的检测,在多样化数据集基础上重新制作了一个拼接图像数据集,先将图片拼接后再进行样本数据标记工作,用拼接数据集进行深度神经网络训练,得到适用的检测所需权重文件,由于原图片的分辨率已经很高,拼接图片的大小就变得很大,导致训练速度变慢,但为了保证图像的质量,本方案并没有对图像做缩放操作,尽可能的保证检测拥有足够的精度。
在车辆目标检测完成后,还加入了对应的分解操作,因为检测到的结果是相对于拼接后的大图而言的,需将拼接后的图像检测结果回归到单一的图像帧中。分解层先通过对检测结果进行判断,判定检测框所在的原始图像,再根据不同位置图片对应的坐标位置对检测结果进行修改,从而完成检测结果的分解。经过上述Splicing layer与Separatelayer的操作,在保证检测精度的同时,大大提高了检测速度。因此,改进的图像拼接网络可以满足实际工程应用中的实时性要求。如图2所示。
S4:毫米波雷达感知模块
毫米波雷达根据目标回波的特征来对物体分类和识别,应用于车路协同系统中的毫米波雷达目标特征提取技术主要有基于目标雷达截面积RCS的目标特征提取技术、目标微动特征的检测技术、基于一维高分辨率距离像特征提取技术、基于极化信息的特征提取技术。
1)基于目标RCS的特征提取技术。在雷达信号处理中,RCS是描述目标本质特征的指标,主要与目标的形状、材质、信号入射角度、辐射信号频率相关。在目标的外在形状、材质、入射频率等确定不变的情况下,目标状态的改变引起电磁波入射角变化,进而引起目标RCS值改变,可据此来推算目标运动特征。
2)目标微动特征提取技术。目标质心相对于雷达运动时,会产生多普勒频率,而目标或其组成部分相对于目标质心的振动、转动及加速度等微动特征会产生微多普勒效应。解析微多普勒效应中产生的微多普勒信号,即可得到目标微动特征信息,进而做目标分类和识别。
3)基于一维高分辨率距离像的目标特征提取技术。一维高分辨率距离像(HRRP),建立在较大带宽的基础上,具有较高的距离向分辨率,在散射点模型下,目标回波在雷达距离向上产生多个散射点,可以体现目标在雷达视线方向下的相对的结构数据与散射强度特征。根据一维高分辨率距离像表现出的特征,可做目标的分类与识别。
4)基于极化信息的特征提取技术。极化信息是描述雷达电磁波矢量特征的参数,是表征目标散射特性的一个重要属性。雷达辐射的电磁波照射到目标后,目标会产生极化信息变化的回波,回波极化信息变换与目标外形、尺寸、结构等密切相关。根据目标极化散射特性,可以对目标进行识别。如图3所示。
S5:基于熵信息差异互补模型设计的雷视融合模块。
针对雷达探测技术对四轮以上、车厢带有各种货物的异形车辆识别裂变问题,结合图像检测效果,对雷达和光电二者信息进行融合处理,提出一种基于熵信息差异互补的雷视融合探测技术,通过将雷达与视频原始信号进行融合感知分析,对超长超宽车辆特征进行匹配识别,实现车辆目标的同一性确定,提升大车轨迹识别准确率与轨迹识别符合率,进而获得车辆精确定位和准确流量统计。
(1)熵信息差异互补模型设计
假设目标的运动状态如下:
目标开始于直角坐标系的点[2.0 8.0],以千米为单位。初始角为60度,初始速度300m/s,采样时间间隔10秒,前20个采样点目标作匀速直线运动,21至50个采样点目标匀速转弯,51至60个采样点目标匀速直线运动,61至95个采样点目标匀速转弯,96至100个采样点匀速直线运动。模型个数选为3个,分别为:
模型1
Figure BDA0003216503840000101
模型2
Figure BDA0003216503840000102
其中w=1*3.14159/180
模型3
Figure BDA0003216503840000103
其中w1=-1*3.14159/180
对每个模型过程噪声方差和观测噪声方差都取相同值
Figure BDA0003216503840000104
Figure BDA0003216503840000111
其中T=1
(2)模型测试结果:图4、图5和图6分别给出了单传感器和两传感器下对同一目标的不同跟踪结果。虽然,用单一的传感器跟踪性能也不错,但是用两个传感器的融合跟踪效果要优于单传感器。这是因为当使用多传感器之后,可以获得更多关于目标的信息,因此跟踪效果更好。从图1可以看出,当目标做拐弯运动的时候,单传感器会出现跟踪的偏移,但是两传感器的融合跟踪却能很好的跟踪目标,克服了使用单一传感器的不足。同时,由图5和图6可以看出,使用两传感器的跟踪误差也远远小于单一传感器的跟踪误差,尤其是在y方向上,更为明显。
S6:雷视融合仿真模块
本仿真针对线性模型,采用kalman滤波来说明多传感器数据融合在目标跟踪方面的性能的优越性。
定义匀速直线模型如下:
X(k+1)=F(k+1)X(k)+G(k)W(k)
Y(k)=H(k)X(k)+V(k)
设目标的初始位置在平面坐标系下为(2000m,3000m),x和y方向的速度分别为100m/s和200m/s,其中采样周期T=1,系统噪声方q=diag([0.01 0.01 0.01 0.01]),传感器1观测噪声方差为r1=diag([0.03 0.03 0.03 0.03]),传感器2观测噪声方差为r2=diag([0.02 0.02 0.02 0.02])
由仿真实验结果可以看出,经过两个传感器融合后的误差要比单传感器的误差值小得多,多传感器数据融合它将多个传感器信息进行有机地合成,用以提高目标运动状态估计的精度,其跟踪性能优于任何一个单传感器。如图7所示。
S7:自采集数据实验
基于以上优化设计方案,自主获取相关数据,对基于yolov4和雷达探测的融合结果。选取其中包含不同小目标、不同状态目标的测试数据共10幅,其中两幅测试数据如图8所示,可以看到,场景中目标差异性较多。
由测试结果可见:基于熵信息差异互补融合模型的设计对改进yolov4的光电检测结果和雷达探测信息进行融合,对车辆探测有更好的检测效果,有效避免了单项雷达探测大车分裂的困难,对交通信息探测提供更可靠的信息支撑;如图8所示。
以上对本发明及其实施方式进行了描述,这种描述没有限制性,附图中所示的也只是本发明的实施方式之一,实际的结构并不局限于此。总而言之如果本领域的普通技术人员受其启示,在不脱离本发明创造宗旨的情况下,不经创造性的设计出与该技术方案相似的结构方式及实施例,均应属于本发明的保护范围。

Claims (5)

1.一种基于雷视融合探测的车辆识别方法,其特征在于,具体包括如下步骤:
S1:选取交通路口数据,视频分辨率采用1920*1080;
S2:采用YOLOv4主干网络结构
YOLOv4属于单步检测算法,YOLOv4在输入端进行改进,采用Mosaic数据,将4张照片以随机缩放、随机裁剪、随机排布的方式进行拼接,加入了SPP模块,即空间金字塔池化,增加主干特征的接收范围,分离了上下文特征;
S3:基于YOLOv4的多标签和图片拼接检测
实际交通场景下的车辆目标检测对实时性要求高,在保证检测正确率的同时目标检测网络的检测速度快,YOLOv4对网络结构进行了轻量化修改使得在准确率相同的情况下速度超过其他目标检测网络;
在YOLOv4的基础上,在输入端加入一个Splicing layer网络层,将四张1920×1080的待检测图像拼接成一个3840×2160的大图,拼接完成后再进行检测,四张图像只需要调用一次检测器,提高了车辆目标的检测速度;由于图像拼接后,图像变大,车辆目标相对原始图像变小,为了保证训练权重适用于拼接图像的检测,在多样化数据集基础上重新制作一个拼接图像数据集,先将图片拼接后再进行样本数据标记工作,用拼接数据集进行深度神经网络训练,得到适用的检测所需权重文件,由于原图片的分辨率已经很高,拼接图片的大小变大,导致训练速度变慢,但为了保证图像的质量,不会对图像做缩放操作,保证了检测拥有足够的精度;
在车辆目标检测完成后,加入了对应的分解操作,检测到的结果是相对于拼接后的大图而言的,因此需将拼接后的图像检测结果回归到单一的图像帧中;分解层先通过对检测结果进行判断,判定检测框所在的原始图像,再根据不同位置图片对应的坐标位置对检测结果进行修改,从而完成检测结果的分解;
S4:毫米波雷达感知模块
毫米波雷达根据目标回波的特征对物体进行分类和识别,应用于车路协同系统中的毫米波雷达目标特征提取技术包括基于目标雷达截面积RCS的目标特征提取技术、目标微动特征的检测技术、基于一维高分辨率距离像特征提取技术、基于极化信息的特征提取技术;
S5:基于熵信息差异互补模型设计的雷视融合模块
基于熵信息差异互补的雷视融合探测技术是针对雷达探测技术对四轮以上、车厢带有各种货物的异形车辆识别裂变问题,结合图像检测效果,对雷达和光电二者信息进行融合处理提出的,通过将雷达与视频原始信号进行融合感知分析,对超长超宽车辆特征进行匹配识别,实现车辆目标的同一性确定,提升大车轨迹识别准确率与轨迹识别符合率,进而获得车辆精确定位和准确流量统计,包括:
(1)熵信息差异互补模型设计;
(2)模型测试结果统计;
S6:雷视融合仿真模块
采用kalman滤波来说明多传感器数据融合在目标跟踪方面的性能的优越性;
S7:自采集数据实验
基于以上优化设计方案,自主获取相关数据,对基于yolov4和雷达探测的融合结果;选取其中包含不同小目标、不同状态目标的测试数据进行测试。
2.根据权利要求2所述的一种基于雷视融合探测的车辆识别方法,其特征在于,步骤S4中基于目标雷达截面积RCS的目标特征提取技术:在雷达信号处理中,RCS是描述目标本质特征的指标,主要与目标的形状、材质、信号入射角度、辐射信号频率相关;在目标的外在形状、材质、入射频率等确定不变的情况下,目标状态的改变引起电磁波入射角变化,进而引起目标RCS值改变,可据此来推算目标运动特征。
3.根据权利要求3所述的一种基于雷视融合探测的车辆识别方法,其特征在于,步骤S4中目标微动特征的检测技术:目标质心相对于雷达运动时,会产生多普勒频率,而目标或其组成部分相对于目标质心的振动、转动及加速度等微动特征会产生微多普勒效应;解析微多普勒效应中产生的微多普勒信号,即可得到目标微动特征信息,进而做目标分类和识别。
4.根据权利要求4所述的一种基于雷视融合探测的车辆识别方法,其特征在于,步骤S4中基于一维高分辨率距离像特征提取技术:一维高分辨率距离像HRRP,在散射点模型下,目标回波在雷达距离向上产生多个散射点,体现目标在雷达视线方向下的相对的结构数据与散射强度特征,根据一维高分辨率距离像表现出的特征,做目标的分类与识别。
5.根据权利要求5所述的一种基于雷视融合探测的车辆识别方法,其特征在于,步骤S4中基于极化信息的特征提取技术:极化信息是描述雷达电磁波矢量特征的参数,是表征目标散射特性的一个重要属性,雷达辐射的电磁波照射到目标后,目标会产生极化信息变化的回波,回波极化信息变换与目标外形、尺寸、结构等密切相关,根据目标极化散射特性,可以对目标进行识别。
CN202110945165.6A 2021-08-17 2021-08-17 一种基于雷视融合探测的车辆识别方法 Pending CN113627373A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110945165.6A CN113627373A (zh) 2021-08-17 2021-08-17 一种基于雷视融合探测的车辆识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110945165.6A CN113627373A (zh) 2021-08-17 2021-08-17 一种基于雷视融合探测的车辆识别方法

Publications (1)

Publication Number Publication Date
CN113627373A true CN113627373A (zh) 2021-11-09

Family

ID=78386164

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110945165.6A Pending CN113627373A (zh) 2021-08-17 2021-08-17 一种基于雷视融合探测的车辆识别方法

Country Status (1)

Country Link
CN (1) CN113627373A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114234996A (zh) * 2021-12-21 2022-03-25 超级视线科技有限公司 一种基于多路口多传感器的航迹融合方法及系统
CN114333347A (zh) * 2022-01-07 2022-04-12 深圳市金溢科技股份有限公司 车辆信息融合方法、装置、计算机设备及存储介质
CN114998886A (zh) * 2022-08-04 2022-09-02 智慧互通科技股份有限公司 基于雷视融合的车辆追踪方法以及装置
CN115220005A (zh) * 2022-07-20 2022-10-21 中国科学院长春光学精密机械与物理研究所 基于多源信息融合的光电跟踪设备自动目标识别方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114234996A (zh) * 2021-12-21 2022-03-25 超级视线科技有限公司 一种基于多路口多传感器的航迹融合方法及系统
CN114234996B (zh) * 2021-12-21 2024-04-23 超级视线科技有限公司 一种基于多路口多传感器的航迹融合方法及系统
CN114333347A (zh) * 2022-01-07 2022-04-12 深圳市金溢科技股份有限公司 车辆信息融合方法、装置、计算机设备及存储介质
CN114333347B (zh) * 2022-01-07 2024-03-01 深圳市金溢科技股份有限公司 车辆信息融合方法、装置、计算机设备及存储介质
CN115220005A (zh) * 2022-07-20 2022-10-21 中国科学院长春光学精密机械与物理研究所 基于多源信息融合的光电跟踪设备自动目标识别方法
CN114998886A (zh) * 2022-08-04 2022-09-02 智慧互通科技股份有限公司 基于雷视融合的车辆追踪方法以及装置
CN114998886B (zh) * 2022-08-04 2022-10-28 智慧互通科技股份有限公司 基于雷视融合的车辆追踪方法以及装置

Similar Documents

Publication Publication Date Title
CN113627373A (zh) 一种基于雷视融合探测的车辆识别方法
WO2022141914A1 (zh) 一种基于雷视融合的多目标车辆检测及重识别方法
CN108509972A (zh) 一种基于毫米波和激光雷达的障碍物特征提取方法
CN111369541B (zh) 一种智能汽车恶劣天气条件下车辆检测方法
CN112767475A (zh) 一种基于c-v2x、雷达与视觉的智能路侧感知系统
Rawashdeh et al. Collaborative automated driving: A machine learning-based method to enhance the accuracy of shared information
CN113850102B (zh) 基于毫米波雷达辅助的车载视觉检测方法及系统
Fu et al. A camera–radar fusion method based on edge computing
CN112379674B (zh) 一种自动驾驶设备及系统
Wang et al. High dimensional frustum pointnet for 3d object detection from camera, lidar, and radar
CN115943439A (zh) 一种基于雷视融合的多目标车辆检测及重识别方法
CN114495064A (zh) 一种基于单目深度估计的车辆周围障碍物预警方法
CN108263389B (zh) 一种车辆前方虚假目标剔除装置及方法
CN112949782A (zh) 一种目标检测方法、装置、设备及存储介质
CN111913177A (zh) 对目标物探测方法、装置以及存储介质
CN114325634A (zh) 一种基于激光雷达的高鲁棒性野外环境下可通行区域提取方法
Harlow et al. A new wave in robotics: Survey on recent mmwave radar applications in robotics
CN114089329A (zh) 一种基于长短焦相机与毫米波雷达融合的目标检测方法
CN115876198A (zh) 基于数据融合的目标检测及预警方法、设备、系统和介质
CN111123262A (zh) 自动驾驶3d建模方法、装置及系统
CN115690713A (zh) 一种基于双目相机的雷视融合事件检测方法
Yu et al. Camera-radar data fusion for target detection via Kalman filter and Bayesian estimation
CN116978009A (zh) 基于4d毫米波雷达的动态物体滤除方法
Hussain et al. Multiple objects tracking using radar for autonomous driving
Akopov et al. Choosing a Camera for 3D Mapping

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination