CN114359181A - 一种基于图像和点云的智慧交通目标融合检测方法及系统 - Google Patents

一种基于图像和点云的智慧交通目标融合检测方法及系统 Download PDF

Info

Publication number
CN114359181A
CN114359181A CN202111549677.7A CN202111549677A CN114359181A CN 114359181 A CN114359181 A CN 114359181A CN 202111549677 A CN202111549677 A CN 202111549677A CN 114359181 A CN114359181 A CN 114359181A
Authority
CN
China
Prior art keywords
target
detection
point cloud
network
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111549677.7A
Other languages
English (en)
Other versions
CN114359181B (zh
Inventor
杨明来
易承东
曹振丰
曹肖可
张方文
王轩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Institute of Technology
Original Assignee
Shanghai Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Institute of Technology filed Critical Shanghai Institute of Technology
Priority to CN202111549677.7A priority Critical patent/CN114359181B/zh
Publication of CN114359181A publication Critical patent/CN114359181A/zh
Application granted granted Critical
Publication of CN114359181B publication Critical patent/CN114359181B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及一种基于图像和点云的智慧交通目标融合检测方法及系统,其中目标融合检测方法包括:对激光雷达和相机进行内参外参标定,并将两者建立在同一坐标系内;采集激光雷达和相机数据并分类保存为点云数据集和图像数据集;对图像数据集进行特征目标标注生成训练集,将训练集输入到YOLO网络模型中进行测试,输出图像中目标信息并标记;对点云数据进行处理,采用pointpillars网络模型完成特征提取和检测目标信息输出;在相机和激光雷达两部分分别运行独立检测后,获得边界框,对两类检测结果进行后融合,获得目标融合检测结果。与现有技术相比,本发明具有检测精度高、识别速度快等优点。

Description

一种基于图像和点云的智慧交通目标融合检测方法及系统
技术领域
本发明涉及智慧交通目标车辆检测领域,尤其是涉及一种基于图像和点云的智慧交通目标融合检测方法及系统。
背景技术
随着社会进步,交通参与者尤其是各类汽车越来越多,因驾驶员主观原因和交通环境客观原因等往往会给交通参与者带来诸如车祸,堵车等各类交通问题。为了提升当今社会交通安全及行驶环境,涌现出许多方式利用车端或路侧传感器获取道路信息以提升交通智能化。
智慧交通在当前快速发展,其中路侧感知是一个发展迅速的智慧交通方向。路侧感知有效地弥补了车辆的感知盲区,为驾驶员提供及时预警,也为交通部门实现了一定范围内的车辆协同调度,可以有效地改善城市道路车辆拥堵情况。而现有的车辆识别方法要不就是识别准确度低,要不就是准确度高,但是模型庞杂,数据处理速度慢。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种检测精度高、识别速度快的基于图像和点云的智慧交通目标融合检测方法及系统。
本发明的目的可以通过以下技术方案来实现:
一种基于图像和点云的智慧交通目标融合检测方法,所述的目标融合检测方法包括:
步骤1:对激光雷达和相机进行内参外参标定,并将两者建立在同一坐标系内;
步骤2:采集激光雷达和相机数据并分类保存为点云数据集和图像数据集;
步骤3:对图像数据集进行特征目标标注生成训练集,将训练集输入到YOLO网络模型中进行测试,输出图像中目标信息并标记;
步骤4:对点云数据进行处理,采用pointpillars网络模型完成特征提取和检测目标信息输出;
步骤5:在相机和激光雷达两部分分别运行独立检测后,获得边界框,对两类检测结果进行后融合,获得目标融合检测结果。
优选地,所述的步骤1具体为:
以(u,v)表示目标点在像素坐标系中的位置,齐次坐标为(u,v,1),该点在激光雷达坐标系下的三维坐标为(XL,YL,ZL),齐次坐标为(XL,YL,ZL,1),有公式:
Figure BDA0003417068770000021
其中,AC为摄像头的内参矩阵;R和t分别为激光雷达坐标系与摄像头坐标系之间的旋转矩阵和平移向量。
优选地,所述的步骤3具体为:
步骤3-1:利用单目相机采集车辆图片,将采集到的图像通过标注工具对图像中目标的位置和类别进行标注生成数据集,并将数据集划分为训练集和测试集;
步骤3-2:将训练集输入到YOLO网络中进行训练,生成车辆目标检测模型;
步骤3-3:根据特征图获得预测框位置信息以及其对应的类别概率、置信度,剔除掉置信度小于设定阈值对应的预测边界框,得到置信度较高的预测边界框。
更加优选地,所述的YOLO网络包括主干特征提取网络Darknet-53和多尺度特征融合网络FPN;所述的主干特征提取网络Darknet-53由卷积块和残差块组成,对输入的图片不断进行下采样,压缩图像尺寸,增加通道数;所述的特征融合网络FPN用于对下采样得到的不同尺寸进行融合,将深层信息和浅层信息进行堆叠,得到不同尺度的特征图。
优选地,所述步骤4中pointpillars网络模型具体为:
步骤4-1:将采集到的原始激光雷达点云数据利用特征编码器网络将3D点云数据结合pillar样式进行分割,转换为伪图片的形式;
步骤4-2:通过2D卷积主干网络处理伪图片,获得特征信息;
步骤4-3:使用SSD目标检测头进行bbox回归,输出检测信息即预测边界框。
更加优选地,所述的步骤4-2具体为:
2D卷积主干网络包括top-down网络和second网络,其中:
top-down由卷积层、BN、ReLU层组成,用于捕获不同尺度下的特征信息;
second网络做上采样和连接,用于融合不同尺度的特征信息。
优选地,所述的步骤5具体为:
在空间上,对两类预测边界框进行IOU计算以衡量两个边界框重合度,若边界框重合度大于预设阈值,则确定该边界框检测为一确定标的物,然后融合两个传感器独立检测结果输出最终目标检测结果。
更加优选地,所述的步骤5还包括:
在对两类检测结果进行后融合时,根据实际情况确定两类检测结果的融合比重。
优选地,所述的目标融合检测方法还包括:
步骤6:结合时间参数,通过使用卡尔曼滤波器和匈牙利算法从帧到帧在时间上关联对象的方法,在帧之间跟踪检测目标,预测检测目标的下一个位置。
一种用于上述智慧交通目标融合检测方法的基于图像和点云的智慧交通目标融合检测系统,其特征在于,所述的目标融合检测系统包括:
数据采集模块,包括激光雷达和相机,分别用于采集点云数据集和图像数据集;
边缘计算及数据处理模块,用于对图像数据集和点云数据集进行处理;
YOLO网络模块,基于图像数据集对目标进行识别;
pointpillars网络模块,基于点云数据集对目标进行识别;
数据后融合模块,用于对YOLO网络模块和pointpillars网络模块的目标识别结果进行融合。
与现有技术相比,本发明具有以下有益效果:
一、检测精度高:本发明中的目标融合检测方法及系统分别通过点云数据和图像数据对目标进行识别,然后对两类预测边界框进行IOU计算以衡量两个边界框重合度,若边界框重合度大于预设阈值,则确定该边界框检测为一确定标的物,最后融合两个传感器独立检测结果输出最终目标检测结果,有效提高了检测精度。
二、识别速度快:本发明中的目标融合检测方法及系统无需使用庞大复杂的网络模型来提高识别精度,仅需分别采用YOLO网络和pointpillars网络识别图像数据和点云数据,然后再将其融合,网络的结构简单,数据处理速度快,加快了整体识别速度。
附图说明
图1为本发明中智慧交通目标融合检测方法的流程示意图;
图2为本发明中Pointpillars网络的框架结构示意图;
图3为本发明中YOLO网络的框架结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明的一部分实施例,而不是全部实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都应属于本发明保护的范围。
一种基于图像和点云的智慧交通目标融合检测方法,其流程如图1所示,包括:
步骤1:对激光雷达和相机进行内参外参标定,并将两者建立在同一坐标系内;
步骤2:采集激光雷达和相机数据并分类保存为点云数据集和图像数据集;
步骤3:对图像数据集进行特征目标标注生成训练集,将训练集输入到YOLO网络模型中进行测试,输出图像中目标信息并标记;
步骤4:对点云数据进行处理,采用pointpillars网络模型完成特征提取和检测目标信息输出;
步骤5:在相机和激光雷达两部分分别运行独立检测后,获得边界框,对两类检测结果进行后融合,获得目标融合检测结果。
下面分别对各步骤进行详细描述:
步骤1:激光雷达和相机进行联合标定,检测范围内某一目标点在激光雷达坐标系和相机坐标系中均只存在一个数据点,因此可通过提取标定物在上述两个坐标系中对应点进行两个传感器的外参标定,结合相机内参转换,可获得点云坐标在像素坐标下对应点。以(u,v)表示目标点在像素坐标系中的位置,齐次坐标为(u,v,1),该点在激光雷达坐标系下的三维坐标为(XL,YL,ZL),齐次坐标为(XL,YL,ZL,1),有公式:
Figure BDA0003417068770000051
其中,AC为摄像头的内参矩阵;R和t分别为激光雷达坐标系与摄像头坐标系之间的3*3旋转矩阵和3*1平移向量。
步骤2:使用工控机采集激光雷达和相机数据并分类保存为点云数据集和图像数据集;
步骤3:利用边缘计算及数据处理模块对图像数据集进行特征目标标注生成训练集,将训练集输入到YOLO网络模型中进行测试,输出图像中目标信息并标记。
具体为:
步骤3-1:利用单目相机采集车辆图片,将采集到的图像以VOC格式进行命名,保存入文件夹中,将采集到的图像通过标注工具对图像中目标的位置和类别进行标注生成数据集,并将数据集划分为训练集和测试集,其中训练集和测试集的选取比例为2:1;
步骤3-2:将训练集输入到YOLO网络中进行训练,生成车辆目标检测模型;
如图3所示,YOLO网络包括主干特征提取网络Darknet-53和多尺度特征融合网络FPN;所述的主干特征提取网络Darknet-53由卷积块和残差块组成,对输入的图片不断进行下采样,压缩图像尺寸,增加通道数;特征融合网络FPN用于对下采样得到的不同尺寸进行融合,将深层信息和浅层信息进行堆叠,得到不同尺度的特征图;
步骤3-3:根据特征图获得预测框位置信息以及其对应的类别概率、置信度,剔除掉置信度小于设定阈值对应的预测边界框,得到置信度较高的预测边界框。
步骤4:利用边缘计算及数据处理模块对点云数据进行处理,采用pointpillars网络完成特征提取和检测目标信息输出。
具体为:
步骤4-1:将采集到的原始激光雷达点云数据利用特征编码器网络将3D点云数据结合pillar样式进行分割,转换为伪图片的形式;
步骤4-2:通过2D卷积主干网络处理伪图片,获得特征信息;
如图2所示,2D卷积主干网络包括top-down网络和second网络,其中:
top-down由卷积层、BN、ReLU层组成,用于捕获不同尺度下的特征信息;
second网络做上采样和连接,用于融合不同尺度的特征信息;
步骤4-3:使用SSD目标检测头进行bbox回归,输出检测信息即预测边界框。
步骤5:在空间上,对前述两类预测边界框进行IOU(Intersection Over Union)计算以衡量两个边界框重合度,即检测框重叠区域/检测框联合区域,当两个边界框重合度非常高时即可认为该边界框检测为一确定标的物,即融合两个传感器独立检测结果输出最终目标检测结果。
在对两类检测结果进行后融合时,根据实际情况确定两类检测结果的融合比重。如激光雷达优势在于探测距离范围较远,可获取更准确的距离信息,因此,在探测范围大于80米的区域,可提高点云检测结果在融合过程中所权重;相机的优势在于一定距离内可获取更准确的颜色信息、车号牌和车辆其他特征信息,因此,在获取车辆某些具体特征信息时可提高图像检测结果在融合检测中的权重。
本实施例中的目标融合检测方法还包括:
步骤6:结合时间参数,通过使用卡尔曼滤波器和匈牙利算法从帧到帧在时间上关联对象的方法,在帧之间跟踪检测目标,预测检测目标的下一个位置。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (10)

1.一种基于图像和点云的智慧交通目标融合检测方法,其特征在于,所述的目标融合检测方法包括:
步骤1:对激光雷达和相机进行内参外参标定,并将两者建立在同一坐标系内;
步骤2:采集激光雷达和相机数据并分类保存为点云数据集和图像数据集;
步骤3:对图像数据集进行特征目标标注生成训练集,将训练集输入到YOLO网络模型中进行测试,输出图像中目标信息并标记;
步骤4:对点云数据进行处理,采用pointpillars网络模型完成特征提取和检测目标信息输出;
步骤5:在相机和激光雷达两部分分别运行独立检测后,获得边界框,对两类检测结果进行后融合,获得目标融合检测结果。
2.根据权利要求1所述的一种基于图像和点云的智慧交通目标融合检测方法,其特征在于,所述的步骤1具体为:
以(u,v)表示目标点在像素坐标系中的位置,齐次坐标为(u,v,1),该点在激光雷达坐标系下的三维坐标为(XL,YL,ZL),齐次坐标为(XL,YL,ZL,1),有公式:
Figure FDA0003417068760000011
其中,AC为摄像头的内参矩阵;R和t分别为激光雷达坐标系与摄像头坐标系之间的旋转矩阵和平移向量。
3.根据权利要求1所述的一种基于图像和点云的智慧交通目标融合检测方法,其特征在于,所述的步骤3具体为:
步骤3-1:利用单目相机采集车辆图片,将采集到的图像通过标注工具对图像中目标的位置和类别进行标注生成数据集,并将数据集划分为训练集和测试集;
步骤3-2:将训练集输入到YOLO网络中进行训练,生成车辆目标检测模型;
步骤3-3:根据特征图获得预测框位置信息以及其对应的类别概率、置信度,剔除掉置信度小于设定阈值对应的预测边界框,得到置信度较高的预测边界框。
4.根据权利要求3所述的一种基于图像和点云的智慧交通目标融合检测方法,其特征在于,所述的YOLO网络包括主干特征提取网络Darknet-53和多尺度特征融合网络FPN;所述的主干特征提取网络Darknet-53由卷积块和残差块组成,对输入的图片不断进行下采样,压缩图像尺寸,增加通道数;所述的特征融合网络FPN用于对下采样得到的不同尺寸进行融合,将深层信息和浅层信息进行堆叠,得到不同尺度的特征图。
5.根据权利要求1所述的一种基于图像和点云的智慧交通目标融合检测方法,其特征在于,所述步骤4中pointpillars网络模型具体为:
步骤4-1:将采集到的原始激光雷达点云数据利用特征编码器网络将3D点云数据结合pillar样式进行分割,转换为伪图片的形式;
步骤4-2:通过2D卷积主干网络处理伪图片,获得特征信息;
步骤4-3:使用SSD目标检测头进行bbox回归,输出检测信息即预测边界框。
6.根据权利要求5所述的一种基于图像和点云的智慧交通目标融合检测方法,其特征在于,所述的步骤4-2具体为:
2D卷积主干网络包括top-down网络和second网络,其中:
top-down由卷积层、BN、ReLU层组成,用于捕获不同尺度下的特征信息;
second网络做上采样和连接,用于融合不同尺度的特征信息。
7.根据权利要求1所述的一种基于图像和点云的智慧交通目标融合检测方法,其特征在于,所述的步骤5具体为:
在空间上,对两类预测边界框进行IOU计算以衡量两个边界框重合度,若边界框重合度大于预设阈值,则确定该边界框检测为一确定标的物,然后融合两个传感器独立检测结果输出最终目标检测结果。
8.根据权利要求7所述的一种基于图像和点云的智慧交通目标融合检测方法,其特征在于,所述的步骤5还包括:
在对两类检测结果进行后融合时,根据实际情况确定两类检测结果的融合比重。
9.根据权利要求1所述的一种基于图像和点云的智慧交通目标融合检测方法,其特征在于,所述的目标融合检测方法还包括:
步骤6:结合时间参数,通过使用卡尔曼滤波器和匈牙利算法从帧到帧在时间上关联对象的方法,在帧之间跟踪检测目标,预测检测目标的下一个位置。
10.一种用于如权利要求1所述智慧交通目标融合检测方法的基于图像和点云的智慧交通目标融合检测系统,其特征在于,所述的目标融合检测系统包括:
数据采集模块,包括激光雷达和相机,分别用于采集点云数据集和图像数据集;
边缘计算及数据处理模块,用于对图像数据集和点云数据集进行处理;
YOLO网络模块,基于图像数据集对目标进行识别;
pointpillars网络模块,基于点云数据集对目标进行识别;
数据后融合模块,用于对YOLO网络模块和pointpillars网络模块的目标识别结果进行融合。
CN202111549677.7A 2021-12-17 2021-12-17 一种基于图像和点云的智慧交通目标融合检测方法及系统 Active CN114359181B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111549677.7A CN114359181B (zh) 2021-12-17 2021-12-17 一种基于图像和点云的智慧交通目标融合检测方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111549677.7A CN114359181B (zh) 2021-12-17 2021-12-17 一种基于图像和点云的智慧交通目标融合检测方法及系统

Publications (2)

Publication Number Publication Date
CN114359181A true CN114359181A (zh) 2022-04-15
CN114359181B CN114359181B (zh) 2024-01-26

Family

ID=81100166

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111549677.7A Active CN114359181B (zh) 2021-12-17 2021-12-17 一种基于图像和点云的智慧交通目标融合检测方法及系统

Country Status (1)

Country Link
CN (1) CN114359181B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114758504A (zh) * 2022-06-13 2022-07-15 之江实验室 一种基于滤波校正的网联车超速预警方法及系统
CN115187964A (zh) * 2022-09-06 2022-10-14 中诚华隆计算机技术有限公司 基于多传感器数据融合的自动驾驶决策方法及SoC芯片
CN115546705A (zh) * 2022-11-29 2022-12-30 天津所托瑞安汽车科技有限公司 目标识别方法、终端设备及存储介质
CN115994854A (zh) * 2023-03-22 2023-04-21 智洋创新科技股份有限公司 一种标志物点云和图像配准的方法和系统
CN116418835A (zh) * 2023-01-31 2023-07-11 融通地产(广东)有限责任公司 一种智慧界桩管理系统
CN117893797A (zh) * 2023-12-26 2024-04-16 武汉天眸光电科技有限公司 基于车路协同的目标检测方法、装置、设备及存储介质
CN118151171A (zh) * 2024-05-09 2024-06-07 苏州大学 基于激光雷达和图像传感器融合的可感知调平检测设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109444911A (zh) * 2018-10-18 2019-03-08 哈尔滨工程大学 一种单目相机和激光雷达信息融合的无人艇水面目标检测识别与定位方法
CN110363820A (zh) * 2019-06-28 2019-10-22 东南大学 一种基于激光雷达、图像前融合的目标检测方法
CN111583337A (zh) * 2020-04-25 2020-08-25 华南理工大学 一种基于多传感器融合的全方位障碍物检测方法
WO2020237693A1 (zh) * 2019-05-31 2020-12-03 华南理工大学 一种水面无人装备多源感知方法及系统
CN113139602A (zh) * 2021-04-25 2021-07-20 南京航空航天大学 基于单目相机和激光雷达融合的3d目标检测方法及系统
CN113436258A (zh) * 2021-06-17 2021-09-24 中国船舶重工集团公司第七0七研究所九江分部 基于视觉与激光雷达融合的海上浮码头检测方法及系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109444911A (zh) * 2018-10-18 2019-03-08 哈尔滨工程大学 一种单目相机和激光雷达信息融合的无人艇水面目标检测识别与定位方法
WO2020237693A1 (zh) * 2019-05-31 2020-12-03 华南理工大学 一种水面无人装备多源感知方法及系统
CN110363820A (zh) * 2019-06-28 2019-10-22 东南大学 一种基于激光雷达、图像前融合的目标检测方法
CN111583337A (zh) * 2020-04-25 2020-08-25 华南理工大学 一种基于多传感器融合的全方位障碍物检测方法
CN113139602A (zh) * 2021-04-25 2021-07-20 南京航空航天大学 基于单目相机和激光雷达融合的3d目标检测方法及系统
CN113436258A (zh) * 2021-06-17 2021-09-24 中国船舶重工集团公司第七0七研究所九江分部 基于视觉与激光雷达融合的海上浮码头检测方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
胡远志;刘俊生;何佳;肖航;宋佳;: "基于激光雷达点云与图像融合的车辆目标检测方法", 汽车安全与节能学报, no. 04 *
陈毅;张帅;汪贵平;: "基于激光雷达和摄像头信息融合的车辆检测算法", 机械与电子, no. 01 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114758504A (zh) * 2022-06-13 2022-07-15 之江实验室 一种基于滤波校正的网联车超速预警方法及系统
CN115187964A (zh) * 2022-09-06 2022-10-14 中诚华隆计算机技术有限公司 基于多传感器数据融合的自动驾驶决策方法及SoC芯片
CN115546705A (zh) * 2022-11-29 2022-12-30 天津所托瑞安汽车科技有限公司 目标识别方法、终端设备及存储介质
CN115546705B (zh) * 2022-11-29 2023-05-02 天津所托瑞安汽车科技有限公司 目标识别方法、终端设备及存储介质
CN116418835A (zh) * 2023-01-31 2023-07-11 融通地产(广东)有限责任公司 一种智慧界桩管理系统
CN116418835B (zh) * 2023-01-31 2024-01-30 融通地产(广东)有限责任公司 一种智慧界桩管理系统
CN115994854A (zh) * 2023-03-22 2023-04-21 智洋创新科技股份有限公司 一种标志物点云和图像配准的方法和系统
CN115994854B (zh) * 2023-03-22 2023-06-23 智洋创新科技股份有限公司 一种标志物点云和图像配准的方法和系统
CN117893797A (zh) * 2023-12-26 2024-04-16 武汉天眸光电科技有限公司 基于车路协同的目标检测方法、装置、设备及存储介质
CN118151171A (zh) * 2024-05-09 2024-06-07 苏州大学 基于激光雷达和图像传感器融合的可感知调平检测设备
CN118151171B (zh) * 2024-05-09 2024-08-06 苏州大学 基于激光雷达和图像传感器融合的可感知调平检测设备

Also Published As

Publication number Publication date
CN114359181B (zh) 2024-01-26

Similar Documents

Publication Publication Date Title
WO2022083402A1 (zh) 障碍物检测方法、装置、计算机设备和存储介质
CN114359181B (zh) 一种基于图像和点云的智慧交通目标融合检测方法及系统
CN111340797B (zh) 一种激光雷达与双目相机数据融合检测方法及系统
CN107576960B (zh) 视觉雷达时空信息融合的目标检测方法及系统
CN106919915B (zh) 基于adas系统的地图道路标记及道路质量采集装置及方法
Labayrade et al. In-vehicle obstacles detection and characterization by stereovision
CN110738121A (zh) 一种前方车辆检测方法及检测系统
CN109871776B (zh) 全天候车道线偏离的预警方法
CN113269040A (zh) 结合图象识别与激光雷达点云分割的驾驶环境感知方法
CN108645375B (zh) 一种用于车载双目系统快速车辆测距优化方法
CN108594244B (zh) 基于立体视觉和激光雷达的障碍物识别迁移学习方法
CN115717894A (zh) 一种基于gps和普通导航地图的车辆高精度定位方法
CN113205604A (zh) 一种基于摄像机和激光雷达的可行区域检测方法
CN114898314B (zh) 驾驶场景的目标检测方法、装置、设备及存储介质
CN114495064A (zh) 一种基于单目深度估计的车辆周围障碍物预警方法
CN117058646B (zh) 基于多模态融合鸟瞰图的复杂道路目标检测方法
CN112906777A (zh) 目标检测方法、装置、电子设备及存储介质
CN114463303B (zh) 一种基于双目相机和激光雷达融合的道路目标检测方法
CN114639115B (zh) 一种人体关键点与激光雷达融合的3d行人检测方法
CN111239684A (zh) 一种基于YoloV3深度学习的双目快速距离测量方法
CN113743163A (zh) 交通目标识别模型训练方法、交通目标定位方法、装置
CN113643232A (zh) 一种基于双目相机和卷积神经网络的路面坑槽自动检测方法
CN117111085A (zh) 一种自动驾驶汽车车路云融合感知方法
CN117789160A (zh) 一种基于聚类优化的多模态融合目标检测方法及系统
CN113219472A (zh) 一种测距系统和方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant