CN117496467A - 基于单目相机和3d lidar融合的异形车道线检测方法 - Google Patents

基于单目相机和3d lidar融合的异形车道线检测方法 Download PDF

Info

Publication number
CN117496467A
CN117496467A CN202311446705.1A CN202311446705A CN117496467A CN 117496467 A CN117496467 A CN 117496467A CN 202311446705 A CN202311446705 A CN 202311446705A CN 117496467 A CN117496467 A CN 117496467A
Authority
CN
China
Prior art keywords
point cloud
image
intensity
value
special
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311446705.1A
Other languages
English (en)
Inventor
张祖锋
张雪峰
朱光耀
孙忠平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changjia Fengxing Suzhou Intelligent Technology Co ltd
Original Assignee
Changjia Fengxing Suzhou Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changjia Fengxing Suzhou Intelligent Technology Co ltd filed Critical Changjia Fengxing Suzhou Intelligent Technology Co ltd
Priority to CN202311446705.1A priority Critical patent/CN117496467A/zh
Publication of CN117496467A publication Critical patent/CN117496467A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/36Applying a local operator, i.e. means to operate on image points situated in the vicinity of a given point; Non-linear local filtering operations, e.g. median filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Nonlinear Science (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于单目相机和激光雷达融合的异形车道线检测方法,包括:S1,对相机和雷达进行联合标定,建立点云坐标系和图像坐标系之间的转化矩阵;S2,利用点云分割方法确认点云强度值并校准,将校准后的点云强度值投影到S1建立的转化矩阵中,得到强度特征图像,通过检测所述强度特征图像的不同灰度值提取异形车道线;S3,基于YOLOV5的图像分割:将RGB图像输入YOLOv5检测框架,检测车道线;S4,通过S1建立的所述对应关系,将S3得到的点云映射到S2得到的图像上,利用大津法进行目标细化,实现基于单目相机和激光雷达融合的异形车道线检测。该方法对数据集的依赖性较低,其鲁棒性和检测准确度高。

Description

基于单目相机和3D LIDAR融合的异形车道线检测方法
技术领域
本发明涉及异形车道线检测领域,具体涉及一种基于单目相机和3D LIDAR融合的异形车道线检测方法。
背景技术
自动驾驶汽车(AVs)的精确定位对公共驾驶安全至关重要。自动驾驶汽车可能会发生一系列定位和路线规划操作不准确的灾难性行为,如在道路对面行驶或非法改变车道。为了帮助这些自主机器人精确地感知世界并实现可靠的环境感知,自动驾驶通常使用多个传感器,包括相机、无线电检测和测距雷达等。
传统车道线检测一般采用照相机和激光雷达传感器来识别道路的信息。照相机与激光雷达相比成本更低,并且能够获得各种类型的信息,包括道路信息。然而,照相机容易受到光照条件的影响,难以获得准确的度量信息。由于激光雷达传感器通过反射光来测量距离,因此传感器能够测量与物体的精确距离。但是,激光雷达并不能准确地测量表面的强度值。一般来说,激光雷达通过反射光的量来计算强度值,这取决于实际的表面反射率值、与表面的距离和入射角。因此,采用激光雷达和图像融合的方法可以提高检测的正确率。
目前的车道线检测方法可分为深度学习的方法与传统方法两大类。基于深度学习的车道线检测方法大多依赖于复杂的结构设计及海量的训练数据。而使用传统方法检测车道线时,针对较复杂的曲线,容易出现漏检情况。因此,现有的方法实现鲁棒的异形车道线检测仍然是一个具有挑战性的问题。
发明内容
为了克服上述现有技术的不足,本发明提供一种基于单目相机和3D LIDAR融合的车道线检测方法。
为此,本发明采用以下技术方案:
一种基于单目相机和激光雷达融合的异形车道线检测方法,包括以下步骤:
S1,对相机和雷达进行联合标定,建立点云坐标系和图像坐标系之间的转化矩阵M;
S2,基于点云强度的异形车道线提取:利用点云分割方法确认点云强度值并校准,将校准后的点云强度值投影到S1建立的转化矩阵M中,得到强度特征图像,通过检测所述强度特征图像的不同灰度值提取异形车道线;
S3,基于YOLOV5的图像分割:将RGB图像输入YOLOv5检测框架,检测车道线;
S4,通过S1建立的所述对应关系,将S3得到的点云映射到S2得到的图像上,利用大津法进行目标细化,实现基于单目相机和激光雷达融合的异形车道线检测。
上述步骤S1的具体方法为:
利用相机和激光雷达采集不同姿态下定标板的平面数据,分别提取对应的同一姿态下定标板平面的像素数据和激光点云数据,其中,相机采集的像素数据用二维点(u,v)表示,激光雷达采集的激光点云数据用三维点(x,y,z)表示,将所述三维点(x,y,z)映射到对应的二维点(u,v),将一系列对应的(u,v)和(x,y,z)点集转换为如下矩阵方程:
其中,(fu,fv,u0,v0)是相机参数,fu、fv分别是X轴和Y轴方向的尺度因子;(u0,v0)是像平面的中心点坐标,R为旋转矩阵,t为平移矢量;
收集足够的(u,v)和(x,y,z)点集,求解下述矩阵方程,获得m11、m12、m13、m14、m21、m22、m23、m24、m31、m32、m33、m34的解,从而得到点云坐标系和图像坐标系之间的转化矩阵M:
上述的步骤S2具体包括以下分步骤:
S21,确认点云强度值:
三维激光雷达传感器的强度值Iid随入射角i和传感器与反射率为ρ的表面之间的距离d而变化,将强度值建模为入射角和距离d的函数f(i,d),有:
对于相同入射角和距离下的两个表面,强度比应与其实际反射率比相同,如果已知每个入射角和距离的参考面Iref的强度特征,则可以使用强度值为Iid的特征来估计反射率ρ,将该估计的反射率作为校准的强度值:
S22,点云强度值校准:
将参考面的ρref设置为恒定值;将具有恒定表面的建筑外墙作为所述参考面,从建筑外墙获得三维激光雷达数据,并通过估算每个点的表面法线来计算入射角,通过计算每个入射角i和与表面距离d对应的强度的平均值和标准差σid,并生成基于LUT的模型,其中:
式中,N为每个表元素所对应的数据值;
用LUT的平均值作为参考面Iref的强度值,通过校准后的反射率值和公式(6)计算出强度值Iid、入射角和到表面的距离;
校准后,远处道路标记的亮度与附近道路标记相似,在距离较远、入射角较大的区域,道路标记和沥青的强度值差异较小,其中,传感器强度值的误差、距离测量中错误计算入射角和传感器误差会引起噪声;
对于具有倾斜角度的三维激光雷达系统,以不同的角度和距离多次测量一个面积,使用校准后的强度值和每个点的标准偏差来进行体素滤波:
式中,n是属于一个单体素的点数,使用校准的强度值和标准值计算每个体素的强度值和标准偏差,每个体素中的点的偏差计算参照等式(6)和(7);
S23,对点云强度值进行校准以后,再基于点云强度值提取异形车道线:
将点云强度值投影到M行C列的网格中,整个点云区域中,最大最小X,Y坐标分别为Xmax,Xmin,Ymax,Ymin,将这些坐标构成的矩形投影到XOY平面,在像素大小为N的M行C列的网格中,落在每个网格内所有的扫描点的平均强度值为该格的灰度值,最后将所述灰度值归一化,在0~255像素之间,得到强度特征图像,
通过检测图像的不同灰度值,提取道路标线边缘,进一步确定道路标线的具体位置。
优选的是,步骤S22中所述LUT的入射角i的分辨率为1度,表面距离d的分辨率为1cm。
优选的是,S23还包括:通过使用sobel算子对得到的图像卷积得到梯度图像,利用一维最大熵算法计算阈值,提取图像边缘,对边缘图像进行连通区域分析,将彼此连通的像素标记为一个连通区域,每个连通区域对应一条图像边缘。
优选的是,S22中所述的恒定值为15。
S4中利用大津法进行目标细化的方法为:从YOLOv5输出的候选道路标线像素中检索候选道路标线点云,将点云进行分割,利用欧氏聚类方法,通过连接组件分析将融合的点云进一步分割为孤立的对象;对点数小于阈值的连通分量进行过滤,针对每个孤立的道路标线点云,根据点云强度应用Otsu大津阈值法,并保持点云具有较高的强度值,以提炼出道路标线,并消除地理参考图像的锯齿效应;所述阈值根据平均点间距计算得出:
其中假设G为阈值,PRM和PRS分别为道路标线和路面点云的概率,而μRM和μRS分别为其对应的平均值。
此外,为了尽量减少噪声点的影响,采用离群点滤波器去除几何离群点。
与现有技术相比,本发明具有以下有益效果:
1.相比于完全依赖于神经网络的车道线检测方法,本发明的方法对数据集的依赖性相对较低。
2.相比于传统的车道线检测方法,本发明的方法对于检测复杂情况下的曲线道路具有更高的鲁棒性。
3.相比于单纯依赖图像的车道线检测方法,本发明的方法减小了光照条件对检测结果的影响程度。
4.相比于单纯依赖激光雷达的车道线检测方法,本发的方法明提高了检测的准确度。
附图说明
图1为本发明中车辆传感器安装位置示意图;
图2为本发明的异形车道线检测方法的流程图。
具体实施方式
本发明的基于单目相机和3D LIDAR融合的车道线检测方法,首先对相机与3DLIDAR进行联合标定,建立点云坐标系和图像坐标系之间的对应关系;然后利用基于强度值的点云分割方法提取异形车道线,并采用基于yolov5的图像分割方法提取异形车道线;最后通过联合标定获取的对应关系将点云映射到图像上,利用大津法进行目标细化,实现基于单目相机和激光雷达融合的异形车道线检测。
以下结合附图和具体实例对该方法进行详细说明。
本发明以长4米、宽1.6米、高1.5米的普通轿车为例,采用单目相机、3D LIDAR并将其安装在集卡车辆的前方,如图1所示。传感器参数如下:
1.激光雷达:型号为RPLIDAR S2;扫描频率为10HZ;角度分辨率为0.12°;系统误差为±30mm;测距分辨力为13mm
2.单目相机:型号为Drift Ghost XL;主摄像头像素为1200万;分辨率为1080P;最大广角角度为140。
参见图2,本发明的基于单目相机和3D LIDAR融合的车道线检测方法包括以下步骤:
S1,对相机和3D LIDAR进行联合标定,建立点云坐标系和图像坐标系之间的对应关系,即转化矩阵M,具体如下:
利用相机和激光雷达采集不同姿态下定标板的平面数据,从中分别提取对应的同一姿态下定标板平面的像素数据和激光点云数据,其中,相机捕获的图像数据用(u,v)表示,激光雷达捕获的三维点阵云用(x,y,z)表示。将所述三维点(x,y,z)映射到对应的二维点(u,v),将一系列对应的(u,v)和(x,y,z)点集可转换为以下矩阵方程:
其中,(fu,fv,u0,v0)是相机参数,fu、fv是XY轴方向尺度因子,即水平方向和垂直方向的有效焦距;u0,v0是像平面的中心点,又称主点坐标;R为旋转矩阵,t为平移矢量。
收集足够的(u,v)和(x,y,z)点集,以可求解下述矩阵方程,得到m11、m12、m13、m14、m21、m22、m23、m24、m31、m32、m33、m34的解,从而得到点云坐标系和图像坐标系之间的转化矩阵M:
S2,基于点云强度的异形车道线提取:利用点云分割方法确认点云强度值并校准,将校准后的点云强度值投影到转化矩阵M中得到强度特征图像,通过检测强度特征图像的不同灰度值提取异形车道线边缘。具体如下:
S21,确定点云强度值:
三维激光雷达传感器的强度值Iid随入射角i和传感器与反射率为ρ的表面的距离d而变化,其中反射率具有反射率值,将三维激光雷达传感器的点云强度值建模为入射角i和距离d的函数f(i,d),有:
在相同入射角和距离下的两个表面的强度比应与两个表面的实际反射率比相同,因此,如果已知每个入射角i和距离d条件下的参考面的强度值Iref,则可以使用强度值Iid的特征来估计表面的反射率ρ,将该估计的反射率ρ作为校准的强度值:
S22,点云强度值校准:
为了进行校准,需要测量参考面的反射率,其中参考面的真实反射率未知,因此,将参考面的反射率ρref设置为恒定值(例如ρref=15)。
根据入射角i和距离d,需要一个由恒定曲面组成的宽平面来获得参考面的强度特性,本发明采用具有恒定表面的建筑外墙作为所述宽平面,从外墙中获得三维激光雷达数据,并通过估算每个点的表面法线来计算入射角。利用存储的数据,通过计算每个入射角i和与表面距离d对应的宽平面(参考面)强度的平均值和标准差σid,生成基于查找表(LUT,Lookup Table)的模型。参考面强度的平均值/>和标准差σid的计算公式如下:
其中,LUT中入射角i的分辨率为1度,表面距离d的分辨率为1cm;N为每个表元素所对应的数据值;如果距离d和入射角i较小,得到的强度值越大,标准差越大;随着距离的增加,强度值减小,标准差减小。如果校准后在同一位置有几个点,则可以用标准差来衡量高度可靠的校准值。
用LUT中参考面强度的平均值作为参考面的强度值Iref,结合校准后的强度值(反射率值),可以通过公式(6)计算出点云的强度值Iid,并获知入射角和到表面的距离。
校准后,远处道路标记的亮度与附近道路标记相似。在距离较远、入射角较大的区域,道路标记和沥青的强度值差异较小,其中,传感器强度值的误差、距离测量中错误计算入射角和传感器误差可能引起噪声。
对于具有倾斜的三维激光雷达系统,以不同的角度和距离多次测量一个面。从而可以使用校准后的强度值和每个点的标准偏差来进行体素滤波。
这里,n是属于一个单体素的点数。使用校准的强度和标准值计算每个体素的强度值和标准偏差,每个体素中的点的偏差计算参照等式(6)和(7)。
S23,对点云强度值进行校准以后,基于点云强度值提取异形车道线。
将点云投影到M行C列的网格中。整个点云区域中,最大最小X,Y坐标分别为Xmax,Xmin,Ymax,Ymin,将这些坐标构成的矩形投影到XOY平面,生成的像素大小为N(格网间隔为N)的M行C列的网格中,落在每个网格内所有的扫描点的平均强度值作为该格的灰度值(像素值),最后将灰度值归一化到0和255之间,得到强度特征图像。
通过检测图的不同灰度值,提取道路标线边缘,进一步确定道路标线的具体位置。
通过使用sobel算子对图像卷积,得到梯度图像;利用一维最大熵算法计算阈值,提取图像边缘,对所述边缘图像进行连通区域分析,将彼此连通的像素标记为一个连通区域,每个连通区域对应一条图像边缘。
S3,基于YOLOV5的图像分割:
将单目相机采集的RGB图像输入YOLOv5检测框架,检测车道线,从YOLOv5输出的候选道路标线像素中检索候选道路标线点云,将点云进行分割,利用欧氏聚类方法,通过连接组件分析(CCA)将融合的点云进一步分割为孤立的对象。
S4,通过S1建立的所述对应关系,将S3得到的点云映射到S2得到的图像上,利用大津法进行目标细化,实现基于单目相机和激光雷达融合的异形车道线检测。
上述步骤S4中,利用大津法进行目标细化的方法为:
对S3分割的对象中点数小于阈值的连通分量进行过滤;针对每个孤立的道路标线点云,根据点云强度应用Otsu大津阈值法,并保持点云具有较高的强度值,以提炼出道路标线,并消除地理参考图像的锯齿效应。
所述阈值根据平均点间距计算得出,阈值计算如下:
其中G为阈值;PRM和PRS分别为道路标线和路面点云的概率,μRM和μRS分别为对应的平均值。
此外,为了尽量减少噪声点的影响,采用离群点滤波器(SOR)(Radu,Steve,2011)去除几何离群点。

Claims (8)

1.一种基于单目相机和激光雷达融合的异形车道线检测方法,其特征在于,包括以下步骤:
S1,对相机和雷达进行联合标定,建立点云坐标系和图像坐标系之间的转化矩阵M;
S2,基于点云强度的异形车道线提取:利用点云分割方法确认点云强度值并校准,将校准后的点云强度值投影到S1建立的转化矩阵M中,得到强度特征图像,通过检测所述强度特征图像的不同灰度值提取异形车道线;
S3,基于YOLOV5的图像分割:将RGB图像输入YOLOv5检测框架,检测车道线;
S4,通过S1建立的所述对应关系,将S3得到的点云映射到S2得到的图像上,利用大津法进行目标细化,实现基于单目相机和激光雷达融合的异形车道线检测。
2.根据权利要求1所述的异形车道线检测方法,其特征在于,步骤S1的具体方法为:
利用相机和激光雷达采集不同姿态下定标板的平面数据,分别提取对应的同一姿态下定标板平面的像素数据和激光点云数据,其中,相机采集的像素数据用二维点(u,v)表示,激光雷达采集的激光点云数据用三维点(x,y,z)表示,将所述三维点(x,y,z)映射到对应的二维点(u,v),将一系列对应的(u,v)和(x,y,z)点集转换为如下矩阵方程:
其中,(fu,fv,u0,v0)是相机参数,fu、fv分别是X轴和Y轴方向的尺度因子;(u0,v0)是像平面的中心点坐标,R为旋转矩阵,t为平移矢量;
收集足够的(u,v)和(x,y,z)点集,求解下述矩阵方程,获得m11、m12、m13、m14、m21、m22、m23、m24、m31、m32、m33、m34的解,从而得到点云坐标系和图像坐标系之间的转化矩阵M:
3.根据权利要求1所述的异形车道线提取方法,其特征在于,步骤S2包括以下分步骤:
S21,确认点云强度值:
三维激光雷达传感器的强度值Iid随入射角i和传感器与反射率为ρ的表面之间的距离d而变化,将强度值建模为入射角和距离d的函数f(i,d),有:
对于相同入射角和距离下的两个表面,强度比应与其实际反射率比相同,如果已知每个入射角和距离的参考面Iref的强度特征,则可以使用强度值为Iid的特征来估计反射率ρ,将该估计的反射率作为校准的强度值:
S22,点云强度值校准:
将参考面的ρref设置为恒定值;将具有恒定表面的建筑外墙作为所述参考面,从建筑外墙获得三维激光雷达数据,并通过估算每个点的表面法线来计算入射角,通过计算每个入射角i和与表面距离d对应的强度的平均值和标准差σid,并生成基于LUT的模型,其中:
式中,N为每个表元素所对应的数据值;
用LUT的平均值作为参考面Iref的强度值,通过校准后的反射率值和公式(6)计算出强度值Iid、入射角和到表面的距离;
校准后,远处道路标记的亮度与附近道路标记相似,在距离较远、入射角较大的区域,道路标记和沥青的强度值差异较小,其中,传感器强度值的误差、距离测量中错误计算入射角和传感器误差会引起噪声;
对于具有倾斜角度的三维激光雷达系统,以不同的角度和距离多次测量一个面积,使用校准后的强度值和每个点的标准偏差来进行体素滤波:
式中,n是属于一个单体素的点数,使用校准的强度值和标准值计算每个体素的强度值和标准偏差,每个体素中的点的偏差计算参照等式(6)和(7);
S23,对点云强度值进行校准以后,再基于点云强度值提取异形车道线:
将点云强度值投影到M行C列的网格中,整个点云区域中,最大最小X,Y坐标分别为Xmax,Xmin,Ymax,Ymin,将这些坐标构成的矩形投影到XOY平面,在像素大小为N的M行C列的网格中,落在每个网格内所有的扫描点的平均强度值为该格的灰度值,最后将所述灰度值归一化,在0~255像素之间,得到强度特征图像,
通过检测图像的不同灰度值,提取道路标线边缘,进一步确定道路标线的具体位置。
4.根据权利要求3所述的异形车道线检测方法,其特征在于:S22中,所述LUT入射角i的分辨率为1度,表面距离d的分辨率为1cm。
5.根据权利要求3所述的异形车道线检测方法,其特征在于,S23还包括:通过使用sobel算子对得到的图像卷积得到梯度图像,利用一维最大熵算法计算阈值,提取图像边缘,对边缘图像进行连通区域分析,将彼此连通的像素标记为一个连通区域,每个连通区域对应一条图像边缘。
6.根据权利要求3所述的异形车道线检测方法,其特征在于,S22中所述的恒定值为15。
7.根据权利要求1所述的异形车道线检测方法,其特征在于,S4中利用大津法进行目标细化的方法为:从YOLOv5输出的候选道路标线像素中检索候选道路标线点云,将点云进行分割,利用欧氏聚类方法,通过连接组件分析将融合的点云进一步分割为孤立的对象;对点数小于阈值的连通分量进行过滤,针对每个孤立的道路标线点云,根据点云强度应用Otsu大津阈值法,并保持点云具有较高的强度值,以提炼出道路标线,并消除地理参考图像的锯齿效应;所述阈值根据平均点间距计算得出:
其中假设G为阈值,PRM和PRS分别为道路标线和路面点云的概率,而μRM和μRS分别为其对应的平均值。
8.根据权利要求7所述的异形车道线检测方法,其特征在于,进一步采用离群点滤波器去除几何离群点。
CN202311446705.1A 2023-11-02 2023-11-02 基于单目相机和3d lidar融合的异形车道线检测方法 Pending CN117496467A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311446705.1A CN117496467A (zh) 2023-11-02 2023-11-02 基于单目相机和3d lidar融合的异形车道线检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311446705.1A CN117496467A (zh) 2023-11-02 2023-11-02 基于单目相机和3d lidar融合的异形车道线检测方法

Publications (1)

Publication Number Publication Date
CN117496467A true CN117496467A (zh) 2024-02-02

Family

ID=89671993

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311446705.1A Pending CN117496467A (zh) 2023-11-02 2023-11-02 基于单目相机和3d lidar融合的异形车道线检测方法

Country Status (1)

Country Link
CN (1) CN117496467A (zh)

Similar Documents

Publication Publication Date Title
CN109300162B (zh) 一种基于精细化雷达扫描边缘点的多线激光雷达和相机联合标定方法
Yuan et al. Pixel-level extrinsic self calibration of high resolution lidar and camera in targetless environments
CN107463918B (zh) 基于激光点云与影像数据融合的车道线提取方法
Kang et al. Automatic targetless camera–lidar calibration by aligning edge with gaussian mixture model
CN107272021B (zh) 使用雷达和视觉定义的图像检测区域的对象检测
CN109961468B (zh) 基于双目视觉的体积测量方法、装置及存储介质
Alismail et al. Automatic calibration of a range sensor and camera system
CN110031829B (zh) 一种基于单目视觉的目标精准测距方法
US10909395B2 (en) Object detection apparatus
CN109801333B (zh) 体积测量方法、装置、系统及计算设备
CN111754583A (zh) 一种车载三维激光雷达和相机外参联合标定的自动化方法
CN113658241B (zh) 单目结构光的深度恢复方法、电子设备及存储介质
CN112465732A (zh) 一种车载激光点云与序列全景影像的配准方法
CN112017248B (zh) 一种基于点线特征的2d激光雷达相机多帧单步标定方法
CN113205604A (zh) 一种基于摄像机和激光雷达的可行区域检测方法
KR20180098945A (ko) 고정형 단일 카메라를 이용한 차량 속도 감지 방법 및 장치
Rodríguez-Garavito et al. Automatic laser and camera extrinsic calibration for data fusion using road plane
CN112464812A (zh) 一种基于车辆的凹陷类障碍物检测方法
KR101255461B1 (ko) 도로시설물 자동 위치측정 방법
CN115079143B (zh) 一种用于双桥转向矿卡的多雷达外参快速标定方法及装置
CN113327296A (zh) 基于深度加权的激光雷达与相机在线联合标定方法
Mi et al. A vision-based displacement measurement system for foundation pit
CN107851390B (zh) 台阶检测装置及台阶检测方法
KR102490521B1 (ko) 라이다 좌표계와 카메라 좌표계의 벡터 정합을 통한 자동 캘리브레이션 방법
CN107765257A (zh) 一种基于反射强度辅助外部校准的激光探测与测量方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination