CN118115672A - 一种基于多传感器融合的交通标示牌三维重构方法和装置 - Google Patents

一种基于多传感器融合的交通标示牌三维重构方法和装置 Download PDF

Info

Publication number
CN118115672A
CN118115672A CN202410305203.5A CN202410305203A CN118115672A CN 118115672 A CN118115672 A CN 118115672A CN 202410305203 A CN202410305203 A CN 202410305203A CN 118115672 A CN118115672 A CN 118115672A
Authority
CN
China
Prior art keywords
traffic sign
target
point
point cloud
discrete
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202410305203.5A
Other languages
English (en)
Inventor
杨纯颖
蔡孟池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Qingfeng Zhixing Technology Co ltd
Original Assignee
Beijing Qingfeng Zhixing Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Qingfeng Zhixing Technology Co ltd filed Critical Beijing Qingfeng Zhixing Technology Co ltd
Priority to CN202410305203.5A priority Critical patent/CN118115672A/zh
Publication of CN118115672A publication Critical patent/CN118115672A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Traffic Control Systems (AREA)

Abstract

本发明公开了一种基于多传感器融合的交通标示牌三维重构方法和装置,其包括:步骤S1,通过激光雷达、视觉传感器、惯性导航单元同时采集数据,标定激光雷达与视觉传感器的参数;步骤S2,检测交通标示牌目标的种类和视觉传感器采集到的图像中交通标示牌目标对应的二维边界框的位置;步骤S3,将步骤S2输出的每一个检测结果设为一个离散点,该离散点包含交通标示牌的类别、边界框及相应的时间戳,按时间顺序遍历所有离散点,相邻两个离散点的时间差分值在预设范围内的第一离散点置入同一个检测区间,由此获得若干检测区间,将每一个检测区间中含有某一类交通标示牌的边界框面积最大的第一离散点,作为该类交通标示牌的目标;步骤S4,对步骤S3获得的交通的目标点云进行增强,对交通标示牌目标的点云进行筛选,获得交通标示牌的目标的点云;步骤S5,对交通标示牌的目标进行三维重构。本发明能够较大程度降低人工作业量,提高高精度地图的生产效率。

Description

一种基于多传感器融合的交通标示牌三维重构方法和装置
技术领域
本发明涉及自动驾驶技术领域,特别是涉及一种基于多传感器融合的交通标示牌三维重构方法和装置。
背景技术
自动驾驶技术的蓬勃发展对交通要素的实时识别提出了更高的要求。作为一种先验信息,高精度地图能够为自动驾驶车辆提供行驶区域内的动态及静态环境信息。作为实现自动驾驶系统的关键组成部分之一,高精度地图能够一定程度上弥补车载传感器的感知局限性,为车辆提供了更加可靠的感知能力。
交通标示牌作为高精度地图必须进行绘制的静态交通要素,其通过提供道路信息,指路导向,进而指挥控制交通,保障交通安全。
运行在自动驾驶汽车上的车载感知系统能够实时检测环境中的交通标示牌,但其精度往往不满足高精度地图对于交通元素坐标的“厘米级要求”。因此,这种方法无法直接适用于高精度地图的生产流程。为满足交通标示牌的的坐标精度要求,目前往往采用人工作业,由制图员人工识别并在地图上绘制交通标示牌,完成交通标示牌的三维重构。
为检测并完成交通标示牌的三维重构,在高精度地图中描述其坐标,类别等属性,根据进行数据采集所采用传感器种类,目前既有的技术方案可分为基于单传感器的方法以及基于多传感器融合的方法。
对于基于单传感器的方法,采用的传感器主要包括视觉传感器与激光雷达。通过视觉传感器采集图像信息,可将图像经过预处理后输入目标检测网络,网络输出图像中的标示牌类别,并以边界框或者其他的表示法给出标示牌在图像中的位置。结合视觉传感器标定参数及车辆参数,可粗略地将二维像素坐标投影至三维的车辆坐标系下。基于激光雷达的方法,通过对比点云反射率、坐标等不同,可实现点云聚类,得到扫描到交通标示牌平面上的点云,进而通过加权等手段给出具体的交通标示牌坐标。
对于多传感器融合实现交通标示牌检测与重构的方法,可以通过视觉传感器给出标示牌的类别,通过点云数据给出交通标示牌具体的三维坐标。
此外,人工识别标示牌并给出标示牌的属性也被高精度地图的制作手段之一。
对于直接基于视觉传感器采集的图像信息进行交通标示牌检测与三维重构的方法,由于受限于坐标转换过程中得到的深度信息的准确性,导致通过这种方法给出的坐标精确度往往不能满足高精度地图的坐标精度要求。对于仅仅基于激光雷达的方法,虽然基于点云的反射率能够进行的聚类,但是这种方法对于激光雷达的规格要求较高,导致数据采集的成果较高。此外,将这种方法用于交通标示牌的对象聚类时,由于标示牌的激光扫射面积较小,导致表征交通标示牌的点云数据数量较小,不利于后续的分析。同样地,基于激光雷法的点云数据很难输出交通标示牌对象类别,即使能够提升标示牌对象坐标精度,由于缺乏类别属性,也不利于后续将识别出的对象集成至高精度地图中。对于融合了多传感器的交通标示牌检测与重构算法,由于数据量相较于单传感器的检测算法更大,导致算法的实时性较低。
发明内容
本发明的目的在于提供一种基于多传感器融合的交通标示牌三维重构方法和装置,其能够较大程度降低人工作业量,提高高精度地图的生产效率。
为实现上述目的,本发明提供一种基于多传感器融合的交通标示牌三维重构方法,其包括:
步骤S1,通过激光雷达、视觉传感器、惯性导航单元同时采集数据,标定激光雷达与视觉传感器的参数;
步骤S2,检测交通标示牌目标的种类和视觉传感器采集到的图像中交通标示牌目标对应的二维边界框的位置;
步骤S3,将步骤S2输出的每一个检测结果设为一个离散点,该离散点包含交通标示牌的类别、边界框及相应的时间戳,按时间顺序遍历所有离散点,相邻两个离散点的时间差分值在预设范围内的第一离散点置入同一个检测区间,由此获得若干检测区间,将每一个检测区间中含有某一类交通标示牌的边界框面积最大的第一离散点,作为该类交通标示牌的目标;
步骤S4,对步骤S3获得的交通的目标点云进行增强,对交通标示牌目标的点云进行筛选,获得交通标示牌的目标的点云;
步骤S5,对交通标示牌的目标进行三维重构。
进一步地,步骤S3还包括:
对于相邻两个离散点的时间差分值在预设范围外的第二离散点,按时间顺序继续遍历第二离散点后的所有离散点,以将与第二离散点时间间隔最小、且与相邻离散点的时间差分值在预设范围内的离散点,作为一个新的检测区间的第一个离散点,依此获得新的检测区间。
进一步地,筛选包括粗筛选,粗筛选具体方法包括:
根据步骤S1中标定好的激光雷达与视觉传感器的参数,获取经由点云增强后通过步骤S2检测到的图像中交通标示牌目标对应的二维边界框、且能够投影到步骤S3获得的交通标示牌的目标对应的图像所在的平面的点云,该点云的原始的三维信息,作为粗筛选结果。
进一步地,筛选包括细筛选,细筛选的具体方法包括:
根据点云的反射率差异性,对粗筛选结果中的点云进行聚类,进一步筛选出扫到步骤S3获得的交通标示牌的目标的点云,获得交通标示牌的目标的点云。
本发明还提供一种基于多传感器融合的交通标示牌三维重构装置,其包括:
数据采集与标定单元,其用于通过激光雷达、视觉传感器、惯性导航单元同时采集数据,标定激光雷达与视觉传感器的参数;
种类检测单元,其用于检测交通标示牌目标的种类和视觉传感器采集到的图像中交通标示牌目标对应的二维边界框的位置;
目标选择单元,其用于将种类检测单元输出的每一个检测结果设为一个离散点,该离散点包含交通标示牌的类别、边界框及相应的时间戳,按时间顺序遍历所有离散点,相邻两个离散点的时间差分值在预设范围内的第一离散点置入同一个检测区间,由此获得若干检测区间,将每一个检测区间中含有某一类交通标示牌的边界框面积最大的第一离散点,作为该类交通标示牌的目标;
目标点云的获取单元,其用于对目标选择单元获得的交通的目标点云进行增强,对交通标示牌目标的点云进行粗筛选以及细筛选,获得交通标示牌的目标的点云;
三维重构单元,其用于对交通标示牌的目标进行三维重构。
进一步地,目标选择单元还包括:
对于相邻两个离散点的时间差分值在预设范围外的第二离散点,按时间顺序继续遍历第二离散点后的所有离散点,以将与第二离散点时间间隔最小、且与相邻离散点的时间差分值在预设范围内的离散点,作为一个新的检测区间的第一个离散点,依此获得新的检测区间。
进一步地,目标点云的获取单元包括点云粗筛选子单元,其用于根据数据采集与标定单元标定好的激光雷达与视觉传感器的参数,获取经由点云增强后通过种类检测单元检测到的图像中交通标示牌目标对应的二维边界框、且能够投影到目标选择单元获得的交通标示牌的目标对应的图像所在的平面的点云,该点云的原始的三维信息,作为粗筛选结果。
进一步地,目标点云的获取单元包括点云细筛选子单元,其用于根据点云的反射率差异性,对粗筛选结果中的点云进行聚类,进一步筛选出扫到目标选择单元获得的交通标示牌的目标的点云,获得输入三维重构单元的交通标示牌的目标的点云。
由于采用了多传感器融合及深度学习的方法,本发明提出的交通标示牌检测及三维重构算法能够精确地输出交通标示牌的种类及三维坐标,极大地提高了高精度地图的生产效率,为后续自动驾驶系统正确运行提供了可靠的先验信息。
附图说明
图1是本发明实施例的最大目标选择法的示意图。
图2-1是本发明实施例将步骤S2输出的边界框绘制到原始图像中的结果示意图。
图2-2是本发明实施例同一时刻激光雷达扫描的点云数据的可视化结果示意图。
图2-3是将图2-2且位于摄像头前方且纵向距离在一定范围内的点云投影至图2-1的结果。
图2-4是本发明实施例经过S4对点云数据增强后投影至图2-3中的点云进行筛选后的示意图。
图3-1是本发明实施例的边界框映射到三维空间后的筛选窗口在激光雷达扫描区域呈现的三维类扇形区域的示意图。
图3-2是本发明实施例的基于平面拟合筛选前后的点云可视化结果示意图。
具体实施方式
在附图中,使用相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面结合附图对本发明的实施例进行详细说明。
在本发明的描述中,术语“中心”、“纵向”、“横向”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明保护范围的限制。
本发明实施例提供的基于多传感器融合的交通标示牌三维重构方法包括:
步骤S1,通过激光雷达、视觉传感器、惯性导航单元(IMU)同时采集数据,标定激光雷达与视觉传感器的参数。其中,在数据采集过程中,同时采集图像、点云数据和车辆状态信息。为了保证采集数据的准确性,通常需要将激光雷达采集到的点云、视觉传感器采集到的图像、与IMU采集到的车辆状态信息进行时间对齐处理,时间对齐处理可以采用现有方法实现,以获取交通标示牌在同一时刻的点云、图像信息和车辆状态信息。车辆状态信息包括相对于全局地图坐标原点的偏移量、高斯坐标、俯仰角和海拔高等,用于计算从车辆坐标系到全局地图坐标下的变换矩阵,进而得到最终需要的全局地图坐标。
标定的传感器参数包括视觉传感器的内参、外参、和分辨率,相机模型,以及激光雷达的外参。标定激光雷达与视觉传感器的参数也可以通过现有方法实现,准确标定各类传感器其自身参数及必要的相对参数,如XYZ轴的偏移量及旋转角、时间补齐量等。
步骤S2,检测交通标示牌目标的种类以及视觉传感器采集到的图像中交通标示牌目标对应的二维边界框的位置。其中,交通标示牌目标对应的二维边界框的位置即为二维边界框在视觉传感器采集到的图像上的像素坐标,进而获得二维边界框在高精度地图上的全局高斯坐标。
步骤S2可以采用基于卷积神经网络实现,为得到所需的交通标示牌目标检测网络,可以采用如下步骤实现:
S2-1,图像数据集制作/选择。
在开始训练网络之前需要根据需求选择待识别的交通标示牌类别,并按照一定的规则,例如:提前规定好0-N-1表示什么种类的标示牌,完成标示牌的标注。由于不同的场景,如高速与城区,包含的标示牌的种类可能不完全一致,为降低误检的概率,可根据需求准备数据集。但由于制作数据集的成本较高,目前有一些现成的数据集可选,如Tsinghua100k。相对于重新准备数据集,已有的数据集包含了大部分常用的标示牌类别,且样本的数量一般能够满足后续网络训练步骤对于样本数量的要求。但是,对于一些既有数据集没有列举到的标示牌的类别,如Tsinghua100k数据集不包含“服务区指示牌”等类别,若后续的任务需要识别此类对象,基于该数据集训练的网络便无法检测到对应目标。因此,可选地,在利用既有数据集时,对于新增类别,或者存在类似的需求,可根据任务的要求对既有数据集进行改造,完成数据集的更新。
S2-2,网络结构设计。
可选地,可选用一些经典卷积神经网络的架构实现交通标示牌目标检测任务,如faster-rcnn、mask-rcnn、yolo等,也可对经典卷积神经网络的架构进行改造,更好地完成任务。
S2-3,网络训练。
根据S2-1准备的数据集,对S2-2设计的神经网络的部分层的权值进行fine-tune,更新这些层的权值,使之适应新的检测任务。
S2-4,网络性能评价。
对于S2-3训练得到的神经网络,在将其应用于推理任务前需对齐性能进行评估,可选的指标包括fps、F1、mAP等,当指标满足后将该网络应用于实际任务。
S2-5,网络预测。
对于S2-3训练得到的网络,经过S2-4步骤,满足需求后应用于推理任务,输入图像,识别图像中的交通标示牌种类,并按照S2-1目标标定的规则给出交通标示牌的坐标信息,如边界框。边界框除了包含“交通标示牌的坐标信息”,还包括交通标示牌的类别、以及该边界框里面的内容包含对应类别的标示牌的置信度等。
当然,除了采用上述实施例中基于卷积神经网络实现步骤S2,还可以采用现有的其他方式实现,在此不再一一列举。
步骤S3,受数据采集频率影响,对于路段上的同一个交通标示牌对象,往往记录了不止一张图像或者一帧点云数据。若对于同一个对象在不同时刻的结果均进行处理,不仅会造成时间及计算资源的浪费。此外,由于数据均包含噪声,还可能生成诸多冗余的结果,造成错误对象的生成。为解决上述问题,本发明实施例采用最大目标表征法,以有效避免冗余信息的输出。
最大目标表征法具体包括:将步骤S2输出的每一个检测结果设为一个离散点,该离散点包含交通标示牌的类别、边界框及相应的时间戳,按时间顺序遍历所有离散点,相邻两个离散点的时间差分值在预设范围内的第一离散点置入同一个检测区间,由此获得若干检测区间,将每一个检测区间中含有某一类交通标示牌的边界框面积最大的第一离散点,作为该类交通标示牌的目标。其中,预设范围可以是选择为10s~30s,该范围的具体数值与采集到的车速相关。
如图1所示,对于步骤S2输出的检测结果中包含需要交通标示牌类别的时间对应图1上的一个点,通过步骤S3,便可以获得按照时间排列后得到一个个检测区间。
在一个实施例中,步骤S3的“最大目标表征法”还包括:
对于相邻两个离散点的时间差分值在预设范围外的第二离散点,按时间顺序继续遍历第二离散点后的所有离散点,以将与第二离散点时间间隔最小、且与相邻离散点的时间差分值在预设范围内的离散点,作为一个新的检测区间的第一个离散点,依此获得新的检测区间。
步骤S4,对步骤S3获得的交通的目标点云进行增强,对交通标示牌目标的点云进行筛选,获得交通标示牌的目标的点云。
其中,“对步骤S3获得的交通的目标点云进行增强”的具体方法包括:
对于扫到标示牌上的目标点云数量较少的情况,可进行点云的数据增强,即融合某一时刻相邻一段时间内采集的点云,根据采集车不同时刻下的位姿信息转换至目标帧,达到增加点云数量的目的。
根据步骤S1中标定好的激光雷达与视觉传感器的参数,可以将步骤S1中由激光雷达采集到的点云经由增强后,投影到步骤S3获得的交通标示牌的目标对应的图像所在的平面上,此时需要借助步骤S2检测到的图像中交通标示牌目标对应的二维边界框,该二维边界框座位图3-1中的BoundingBox映射到三维空间后的筛选窗口。需要说明的是,步骤S3获得的交通标示牌的目标对应的图像为经过步骤S3筛选出的交通标示牌的目标,而且,交通标示牌的目标的特征为对应于某一特定类别的交通标示牌,有效信息最多,即边界框面积最大。
如图2所示,其中图2-1为将步骤S2输出的边界框绘制到原始图像中的结果;图2-2为同一时刻激光雷达扫描的点云数据的可视化结果;图2-3是将图2-2且位于视觉传感器的摄像头前方且预设纵向距离在一定范围内的点云投影至图2-1的结果。
经过对步骤S1中由激光雷达采集到的点云进行数据增强。对于能够投影至图2-3中的点云进行筛选,得到图2-4。因此,筛选包括粗筛选,粗筛选具体方法包括:
根据步骤S1中标定好的激光雷达与视觉传感器的参数,获取经由点云增强后通过步骤S2检测到的图像中交通标示牌目标对应的二维边界框、且能够投影到步骤S3获得的交通标示牌的目标对应的图像所在的平面的点云,该点云的原始的三维信息,作为粗筛选结果。
受限于所采用点云投影的缺陷,如图3-1所示,当在图像中给定二维的边界框,对于激光雷达扫到的区域,筛选出的三维空间其实是以激光雷达为圆心,向外发散的三维类扇形区域,如图中绿色。因此,对于粗筛选结果中的目标点云,通常包含较多噪声信息。因此,目标点云的获取步骤中,最好对交通标示牌目标的点云进行细筛选,细筛选的具体方法包括:
由于不同深度点云的反射率存在差异,那么根据点云的反射率差异性,对图2-4粗筛选结果中的点云进行聚类,进一步筛选出扫到步骤S3获得的交通标示牌的目标的点云,获得交通标示牌的目标的点云。
当然,也可以对图2-4粗筛选结果中的点云进行平面拟合,以实现对交通标示牌目标的点云进行细筛选。由于图1表征的扇形区域包含的信息大部分还是目标点云,如果扇形区域大部分都是噪声,即扇形区域内目标点云主体不是交通标示牌,图形中标示牌受遮挡通常没有检测到目标,则可选择平面拟合,得到目标拟合,基于平面拟合筛选前后的点云可视化结果如图3-2所示。图3-2中,白色点群为S5得到的含噪声的点云,红色点群为经过平面拟合方法细筛选后的点云。
步骤S5,对交通标示牌的目标进行三维重构,输出交通标示牌目标在高精度地图上的全局高斯坐标的位置以及该交通标示牌目标对应的类别。其中,“交通标示牌目标在高精度地图上的全局高斯坐标的位置”例如可以通过将目标点云的获取步骤得到的交通标示牌的目标的点云的坐标进行加权求和在平均,融合的交通标示牌在图像中的位置、点云、传感器参数、以及同一时刻车辆状态信息获得。“交通标示牌目标对应的类别”即为步骤S2检测到的交通标示牌的目标的种类。
本发明实施例还提供基于多传感器融合的交通标示牌三维重构装置包括:数据采集与标定单元、种类检测单元、目标选择单元、目标点云的获取单元和三维重构单元,其中:
数据采集与标定单元,用于通过激光雷达、视觉传感器、惯性导航单元同时采集数据,标定激光雷达与视觉传感器的参数。
种类检测单元用于检测交通标示牌目标的种类和视觉传感器采集到的图像中交通标示牌目标对应的二维边界框的位置。
目标选择单元用于将种类检测单元输出的每一个检测结果设为一个离散点,该离散点包含交通标示牌的类别、边界框及相应的时间戳,按时间顺序遍历所有离散点,相邻两个离散点的时间差分值在预设范围内的第一离散点置入同一个检测区间,由此获得若干检测区间,将每一个检测区间中含有某一类交通标示牌的边界框面积最大的第一离散点,作为该类交通标示牌的目标。
目标点云的获取单元用于对目标选择单元获得的交通的目标点云进行增强,对交通标示牌目标的点云进行粗筛选以及细筛选,获得交通标示牌的目标的点云。
三维重构单元用于对交通标示牌的目标进行三维重构。
在一个实施例中,目标选择单元还包括:
对于相邻两个离散点的时间差分值在预设范围外的第二离散点,按时间顺序继续遍历第二离散点后的所有离散点,以将与第二离散点时间间隔最小、且与相邻离散点的时间差分值在预设范围内的离散点,作为一个新的检测区间的第一个离散点,依此获得新的检测区间。
在一个实施例中,目标点云的获取单元包括点云粗筛选子单元,其用于根据数据采集与标定单元标定好的激光雷达与视觉传感器的参数,获取经由点云增强后通过种类检测单元检测到的图像中交通标示牌目标对应的二维边界框、且能够投影到目标选择单元获得的交通标示牌的目标对应的图像所在的平面的点云,该点云的原始的三维信息,作为粗筛选结果。
在一个实施例中,目标点云的获取单元包括点云细筛选子单元,其用于根据点云的反射率差异性,对粗筛选结果中的点云进行聚类,进一步筛选出扫到目标选择单元获得的交通标示牌的目标的点云,获得输入三维重构单元的交通标示牌的目标的点云。
在一个实施例中,三维重构单元具体包括:
将目标点云的获取步骤得到的交通标示牌的目标的点云的坐标进行加权求和,交通标示牌的种类即为种类检测单元检测到的交通标示牌的目标的种类,完成交通标示牌目标的三维重构。
本发明提出了融合激光雷达及视觉传感器等多种传感器的想法,结合深度学习,实现了面相高精度地图的交通标示牌检测与三维重构算法,极大地提高了高精度地图的生产效率。
最后需要指出的是:以上实施例仅用以说明本发明的技术方案,而非对其限制。本领域的普通技术人员应当理解:可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (8)

1.一种基于多传感器融合的交通标示牌三维重构方法,其特征在于,包括:
步骤S1,通过激光雷达、视觉传感器、惯性导航单元同时采集数据,标定激光雷达与视觉传感器的参数;
步骤S2,检测交通标示牌目标的种类和视觉传感器采集到的图像中交通标示牌目标对应的二维边界框的位置;
步骤S3,将步骤S2输出的每一个检测结果设为一个离散点,该离散点包含交通标示牌的类别、边界框及相应的时间戳,按时间顺序遍历所有离散点,相邻两个离散点的时间差分值在预设范围内的第一离散点置入同一个检测区间,由此获得若干检测区间,将每一个检测区间中含有某一类交通标示牌的边界框面积最大的第一离散点,作为该类交通标示牌的目标;
步骤S4,对步骤S3获得的交通的目标点云进行增强,对交通标示牌目标的点云进行筛选,获得交通标示牌的目标的点云;
步骤S5,对交通标示牌的目标进行三维重构。
2.如权利要求1所述的基于多传感器融合的交通标示牌三维重构方法,其特征在于,步骤S3还包括:
对于相邻两个离散点的时间差分值在预设范围外的第二离散点,按时间顺序继续遍历第二离散点后的所有离散点,以将与第二离散点时间间隔最小、且与相邻离散点的时间差分值在预设范围内的离散点,作为一个新的检测区间的第一个离散点,依此获得新的检测区间。
3.如权利要求1或2所述的基于多传感器融合的交通标示牌三维重构方法,其特征在于,筛选包括粗筛选,粗筛选具体方法包括:
根据步骤S1中标定好的激光雷达与视觉传感器的参数,获取经由点云增强后通过步骤S2检测到的图像中交通标示牌目标对应的二维边界框、且能够投影到步骤S3获得的交通标示牌的目标对应的图像所在的平面的点云,该点云的原始的三维信息,作为粗筛选结果。
4.如权利要求3所述的基于多传感器融合的交通标示牌三维重构方法,其特征在于,筛选包括细筛选,细筛选的具体方法包括:
根据点云的反射率差异性,对粗筛选结果中的点云进行聚类,进一步筛选出扫到步骤S3获得的交通标示牌的目标的点云,获得交通标示牌的目标的点云。
5.一种基于多传感器融合的交通标示牌三维重构装置,其特征在于,包括:
数据采集与标定单元,其用于通过激光雷达、视觉传感器、惯性导航单元同时采集数据,标定激光雷达与视觉传感器的参数;
种类检测单元,其用于检测交通标示牌目标的种类和视觉传感器采集到的图像中交通标示牌目标对应的二维边界框的位置;
目标选择单元,其用于将种类检测单元输出的每一个检测结果设为一个离散点,该离散点包含交通标示牌的类别、边界框及相应的时间戳,按时间顺序遍历所有离散点,相邻两个离散点的时间差分值在预设范围内的第一离散点置入同一个检测区间,由此获得若干检测区间,将每一个检测区间中含有某一类交通标示牌的边界框面积最大的第一离散点,作为该类交通标示牌的目标;
目标点云的获取单元,其用于对目标选择单元获得的交通的目标点云进行增强,对交通标示牌目标的点云进行粗筛选以及细筛选,获得交通标示牌的目标的点云;
三维重构单元,其用于对交通标示牌的目标进行三维重构。
6.如权利要求5所述的基于多传感器融合的交通标示牌三维重构装置,其特征在于,目标选择单元还包括:
对于相邻两个离散点的时间差分值在预设范围外的第二离散点,按时间顺序继续遍历第二离散点后的所有离散点,以将与第二离散点时间间隔最小、且与相邻离散点的时间差分值在预设范围内的离散点,作为一个新的检测区间的第一个离散点,依此获得新的检测区间。
7.如权利要求5或6所述的基于多传感器融合的交通标示牌三维重构装置,其特征在于,目标点云的获取单元包括点云粗筛选子单元,其用于根据数据采集与标定单元标定好的激光雷达与视觉传感器的参数,获取经由点云增强后通过种类检测单元检测到的图像中交通标示牌目标对应的二维边界框、且能够投影到目标选择单元获得的交通标示牌的目标对应的图像所在的平面的点云,该点云的原始的三维信息,作为粗筛选结果。
8.如权利要求7所述的基于多传感器融合的交通标示牌三维重构装置,其特征在于,目标点云的获取单元包括点云细筛选子单元,其用于根据点云的反射率差异性,对粗筛选结果中的点云进行聚类,进一步筛选出扫到目标选择单元获得的交通标示牌的目标的点云,获得输入三维重构单元的交通标示牌的目标的点云。
CN202410305203.5A 2024-03-18 2024-03-18 一种基于多传感器融合的交通标示牌三维重构方法和装置 Pending CN118115672A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410305203.5A CN118115672A (zh) 2024-03-18 2024-03-18 一种基于多传感器融合的交通标示牌三维重构方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410305203.5A CN118115672A (zh) 2024-03-18 2024-03-18 一种基于多传感器融合的交通标示牌三维重构方法和装置

Publications (1)

Publication Number Publication Date
CN118115672A true CN118115672A (zh) 2024-05-31

Family

ID=91216862

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410305203.5A Pending CN118115672A (zh) 2024-03-18 2024-03-18 一种基于多传感器融合的交通标示牌三维重构方法和装置

Country Status (1)

Country Link
CN (1) CN118115672A (zh)

Similar Documents

Publication Publication Date Title
CN112396650B (zh) 一种基于图像和激光雷达融合的目标测距系统及方法
CN109948661B (zh) 一种基于多传感器融合的3d车辆检测方法
CN108229366B (zh) 基于雷达和图像数据融合的深度学习车载障碍物检测方法
CN106919915B (zh) 基于adas系统的地图道路标记及道路质量采集装置及方法
CN110221603A (zh) 一种基于激光雷达多帧点云融合的远距离障碍物检测方法
CN108920584A (zh) 一种语义栅格地图生成方法及其装置
KR102195164B1 (ko) 다중 라이다를 이용한 다중 물체 인식 시스템 및 방법
KR20210078530A (ko) 차선 속성 검출방법, 장치, 전자장치 및 가독 저장 매체
CN112346463B (zh) 一种基于速度采样的无人车路径规划方法
CN110197173B (zh) 一种基于双目视觉的路沿检测方法
CN114359181B (zh) 一种基于图像和点云的智慧交通目标融合检测方法及系统
CN112740225A (zh) 一种路面要素确定方法及装置
CN113205604A (zh) 一种基于摄像机和激光雷达的可行区域检测方法
KR102490521B1 (ko) 라이다 좌표계와 카메라 좌표계의 벡터 정합을 통한 자동 캘리브레이션 방법
CN114325634A (zh) 一种基于激光雷达的高鲁棒性野外环境下可通行区域提取方法
CN114295139A (zh) 一种协同感知定位方法及系统
CN114639085A (zh) 交通信号灯识别方法、装置、计算机设备和存储介质
CN113327296A (zh) 基于深度加权的激光雷达与相机在线联合标定方法
CN115830265A (zh) 一种基于激光雷达的自动驾驶运动障碍物分割方法
CN116978009A (zh) 基于4d毫米波雷达的动态物体滤除方法
CN114648549A (zh) 一种融合视觉和激光雷达的交通场景目标检测及定位方法
CN112255604B (zh) 一种雷达数据准确性的判断方法、装置及计算机设备
CN113988197A (zh) 基于多相机、多激光雷达的联合标定及目标融合检测方法
CN116794650A (zh) 一种毫米波雷达与摄像头数据融合的目标检测方法和装置
CN116246033A (zh) 一种面向非结构化道路的快速语义地图构建方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination