CN114549990A - 一种多信息融合的自动驾驶系统道路边界构建方法 - Google Patents

一种多信息融合的自动驾驶系统道路边界构建方法 Download PDF

Info

Publication number
CN114549990A
CN114549990A CN202210179368.3A CN202210179368A CN114549990A CN 114549990 A CN114549990 A CN 114549990A CN 202210179368 A CN202210179368 A CN 202210179368A CN 114549990 A CN114549990 A CN 114549990A
Authority
CN
China
Prior art keywords
road boundary
road
boundary
constructing
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210179368.3A
Other languages
English (en)
Inventor
李铖
王月强
任凡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing Changan Automobile Co Ltd
Original Assignee
Chongqing Changan Automobile Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing Changan Automobile Co Ltd filed Critical Chongqing Changan Automobile Co Ltd
Priority to CN202210179368.3A priority Critical patent/CN114549990A/zh
Publication of CN114549990A publication Critical patent/CN114549990A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • G01C21/32Structuring or formatting of map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3848Data obtained from both position sensors and additional sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Automation & Control Theory (AREA)
  • Probability & Statistics with Applications (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明涉及一种多信息融合的自动驾驶系统道路边界构建方法,包括如下步骤:1)利用高精度地图提供的道路信息构建道路边界K1;2)利用摄像头和毫米波雷达所获信息构建道路边界K2;3)利用摄像头获取的车道图片构建道路边界K3;4)利用摄像头对车辆进行跟踪形成的车流轨迹构建道路边界K4;5)通过无迹卡尔曼滤波方法对道路边界K1、道路边界K2、道路边界K3和道路边界K4进行滤波处理,得到融合道路边界。本发明针对高精度地图、摄像头和毫米波雷达各自的局限性,通过无迹卡尔曼滤波技术,将利用多种方式构建的道路边界融合在一起,使融合后的道路边界具有更高的可靠性与稳定性。

Description

一种多信息融合的自动驾驶系统道路边界构建方法
技术领域
本发明属于自动驾驶的技术领域,具体涉及一种多信息融合的自动驾驶系统道路边界构建方法。
背景技术
近年来,随着信息技术、物联网及人工智能技术的蓬勃发展,汽车正朝着智能化、无人化的方向演进,越来越多的汽车开始搭载自动驾驶系统或辅助驾驶功能。为保证自动驾驶系统控制下的车辆能够正确且安全的行驶,避免车辆偏离或冲出道路,需要对车辆正在行驶的道路进行识别,构建道路边界。
目前,道路边界的构建可以通过高精度地图、摄像头、毫米波雷达和激光雷达等设备来实现,如中国专利CN202110528933.8一种道路边界检测方法,该方案通过激光雷达获取道路数据,进行道路边界的构建,其目的是为适用于矿区非结构化道路的边界构建。但上述方法都存在一定局限性,例如:高精度地图由于建立较为复杂,需要花费的人力和物力较大,目前的高精度地图还覆盖不全,基于高精度地图的道路边界构建方案在部分道路无法正常使用;摄像头可以通过识别车流、车道线等信息构建道路边界,但摄像头构建的道路边界不仅在精度上不如高精度地图,而且容易受光照影响。
中国专利CN202111260300.X一种激光雷达和摄像头融合的智能汽车道路边界检测方法,该方案在激光雷达的基础上,增加摄像头来作为构建道路边界的数据获取途径,其目的是为解决道路边界无明显高度变化时激光雷达难以应用的问题;该方案不仅较为复杂,且仅融合了激光雷达和摄像头,其适用范围和可靠性仍不理想。
发明内容
针对现有技术的上述不足,本发明要解决的技术问题是提供一种多信息融合的自动驾驶系统道路边界构建方法,解决目前道路边界的构建方法存在适用性和可靠性较差的问题,取得适用范围广、可靠性好的效果。
为解决上述技术问题,本发明采用如下技术方案:
一种多信息融合的自动驾驶系统道路边界构建方法,包括如下步骤:
1)利用高精度地图提供的道路信息构建道路边界K1;
2)利用摄像头和毫米波雷达所获信息构建道路边界K2;
3)利用摄像头获取的车道图片构建道路边界K3;
4)利用摄像头对车辆进行跟踪形成的车流轨迹构建道路边界K4;
5)通过无迹卡尔曼滤波方法对道路边界K1、道路边界K2、道路边界K3和道路边界K4进行滤波处理,得到融合道路边界。
进一步地,步骤1)包括如下子步骤:
11)通过GPS和IMU获取车辆位置;
12)从高精度地图中获取车辆位置对应的道路信息,所述道路信息包括道路的形状、坡度、曲率和航向;
13)根据所述道路信息构建道路边界K1。
进一步地,步骤2)包括如下子步骤:
21)筛选出摄像头、毫米波雷达所获信息中的静态点云;
22)检测静态点云是否有左右边界,是,则以静态点云的左右边界为K-Means算法的中心进行聚类;否,则对多个周期的静态点云通过K-Means聚类算法筛选出左右边界;
23)运用最小二乘法对静态点云的左右边界进行曲线拟合生成道路的左右边界,得到道路边界K2。
进一步地,步骤3)包括如下子步骤:
31)利用摄像头获取的车道图片;
32)对车道图片进行清理,所述清理包括障碍物遮挡检测、阴影消除和曝光矫正;
33)提取车道图片中的车道线;
34)对车道线进行曲线拟合生成道路的左右边界,得到道路边界K3。
进一步地,步骤4)包括如下子步骤:
41)利用摄像头对车辆进行跟踪形成车辆的车流轨迹;
42)对多个车辆的车流轨迹进行聚类,筛选出多条车流轨迹;
43)对筛选出的多条车流轨迹进行曲线拟合,生成自车车道的中心线;
44)基于自车车道的中心线向左右方向拓展,生成道路的左右边界,得到道路边界K4。
进一步地,步骤5)中无迹卡尔曼滤波方法的状态传递矩阵由车辆运动学模型给出,状态传递矩阵的约束曲率变换率为常量。
进一步地,步骤5)中所述无迹卡尔曼滤波方法包括如下子步骤:
51)预测;预测包括计算Sigma点集、分配Sigma点权重、转换Sigma点并计算新的均值和协方差;
52)测量;测量包括转换状态、计算增益、更新状态。
进一步地,步骤51)的详细操作如下:
计算Sigma点集:选取2n+1个Sigma点,Sigma点集用如下公式表示:
x0=μ,i=0
Figure BDA0003521806650000031
Figure BDA0003521806650000032
其中,n为车辆运动学模型的状态维度,μ为均值,λ为比例因子,∑为协方差矩阵;
分配Sigma点权重:为选取的Sigma点分配权重,所用权重矩阵如下:
Figure BDA0003521806650000033
Figure BDA0003521806650000034
转换Sigma点:把选取的所有Sigma点带入运动学模型中,计算预测状态;
yi=g(xi),i=0,...2n
其中,yi表示预测状态,g(xi)为车辆运动学模型;
算新的均值和协方差:计算高斯分布的均值和方差,公式如下:
Figure BDA0003521806650000035
Figure BDA0003521806650000036
其中,μ′为高斯分布的均值,∑′为高斯分布的方差,角标T表示进行矩阵转置,R为噪声矩阵。
进一步地,步骤52)的详细操作如下:
转换状态:把预测状态空间转换为测量状态空间,转换公式如下:
Zi=h(xi),i=0,...2n
Figure BDA0003521806650000037
Figure BDA0003521806650000038
其中,Zi表示测量状态,h(xi)为状态转换函数,
Figure BDA0003521806650000039
表示测量状态的均值,S是测量空间的协方差矩阵,Q为噪声矩阵;
计算增益:计算卡尔曼增益,计算公式如下:
Figure BDA00035218066500000310
K=T·S-1
其中,角标T表示进行矩阵转置,大写T为协方差矩阵,K为卡尔曼增益;
更新状态:在测量状态中更新测量值的均值和方差用于下一时刻的预测步骤中,计算公式如下:
Figure BDA0003521806650000041
∑=(I-KT)∑′。
进一步地,步骤51)中分配Sigma点权重时,道路边界K1、道路边界K2、道路边界K3和道路边界K4被赋予的权重递减。
相比现有技术,本发明的有益效果如下:
本发明所述一种多信息融合的自动驾驶系统道路边界构建方法,针对高精度地图、摄像头和毫米波雷达各自的局限性,通过无迹卡尔曼滤波技术,将利用高精度地图提供的道路信息构建道路边界K1、利用摄像头和毫米波雷达所获信息构建道路边界K2、利用摄像头获取的车道图片构建道路边界K3和利用摄像头对车辆进行跟踪形成的车流轨迹构建道路边界K4进行融合,得到融合道路边界;利用多种方式构建道路边界不仅使该方法的适用性较好,而且使融合后的道路边界具有更高的可靠性与稳定性;从而有效解决目前道路边界的构建方法存在适用性和可靠性较差的问题,取得适用范围广、可靠性好的效果。
附图说明
图1为实施例的一种多信息融合的自动驾驶系统道路边界构建方法的流程图;
具体实施方式
下面结合附图对本发明的具体实施方式作进一步的详细说明。
实施例:
请参见图1,一种多信息融合的自动驾驶系统道路边界构建方法,包括如下步骤:
1)利用高精度地图提供的道路信息构建道路边界K1;包括如下子步骤:
11)通过GPS和IMU获取车辆位置;
12)从高精度地图中获取车辆位置对应的道路信息,所述道路信息包括道路的形状、坡度、曲率和航向;
13)根据所述道路信息构建道路边界K1。
2)利用摄像头和毫米波雷达所获信息构建道路边界K2;包括如下子步骤:
21)筛选出摄像头、毫米波雷达所获信息中的静态点云;本实施例中,摄像头所获信息中静态点云包括静态障碍物、路沿和护栏,毫米波雷达所获信息中静态点云为速度小于2m/s的点云;
22)检测静态点云是否有左右边界,是,则以静态点云的左右边界为K-Means算法的中心进行聚类;否,则对多个周期的静态点云通过K-Means聚类算法筛选出左右边界;
23)运用最小二乘法对静态点云的左右边界进行曲线拟合生成道路的左右边界,得到道路边界K2。
3)利用摄像头获取的车道图片构建道路边界K3;包括如下子步骤:
31)利用摄像头获取的车道图片;
32)对车道图片进行清理,所述清理包括障碍物遮挡检测、阴影消除和曝光矫正;
33)提取车道图片中的车道线;
34)对车道线进行曲线拟合生成道路的左右边界,得到道路边界K3;本实施例中,对车道线进行横向和纵向的拟合,整合时域(即前后帧的图像)以及对应图像和物理空间(即路面坐标系),进而生成道路的左右边界。
4)利用摄像头对车辆进行跟踪形成的车流轨迹构建道路边界K4;包括如下子步骤:
41)利用摄像头对车辆进行跟踪形成车辆的车流轨迹;
42)对多个车辆的车流轨迹进行聚类,筛选出多条车流轨迹;
43)对筛选出的多条车流轨迹进行曲线拟合,生成自车车道的中心线;
44)基于自车车道的中心线向左右方向拓展,生成道路的左右边界,得到道路边界K4。
5)为提高道路边界的稳定性,将上述4个步骤中构建的四个道路边界,即道路边界K1~K4,以不同的权重,通过无迹卡尔曼滤波方法进行滤波处理,无迹卡尔曼滤波方法的状态传递矩阵由车辆运动学模型给出,状态传递矩阵的约束曲率变换率为常量;在权重的选择上,由于高精地图的精度最高,因此其权重最大,静态点云的权重次之,然后是摄像头识别的车道线和摄像头对车辆进行跟踪形成车辆的车流轨迹;
无迹卡尔曼滤波方法包括如下两个步骤:
51)预测;预测包括计算Sigma点集、分配Sigma点权重、转换Sigma点并计算新的均值和协方差;
52)测量;测量包括转换状态、计算增益、更新状态。
本实施例中,步骤5)的详细操作如下:
计算Sigma点集:选取2n+1个Sigma点,Sigma点集用如下公式表示:
x0=μ,i=0
Figure BDA0003521806650000051
Figure BDA0003521806650000052
其中,n为车辆运动学模型的状态维度,μ为均值,λ为比例因子,∑为协方差矩阵;
分配Sigma点权重:为选取的Sigma点分配权重,所用权重矩阵如下:
Figure BDA0003521806650000061
Figure BDA0003521806650000062
转换Sigma点:把选取的所有Sigma点带入运动学模型中,计算预测状态;
yi=g(xi),i=0,...2n
其中,yi表示预测状态,g(xi)为车辆运动学模型;
算新的均值和协方差:计算高斯分布的均值和方差,公式如下:
Figure BDA0003521806650000063
Figure BDA0003521806650000064
其中,μ′为高斯分布的均值,∑′为高斯分布的方差,角标T表示进行矩阵转置,R为噪声矩阵;。
9、根据权利要求8所述一种多信息融合的自动驾驶系统道路边界构建方法,其特征在于:步骤52)的详细操作如下:
转换状态:把预测状态空间转换为测量状态空间,转换公式如下:
Zi=h(xi),i=0,...2n
Figure BDA0003521806650000065
Figure BDA0003521806650000066
其中,Zi表示测量状态,h(xi)为状态转换函数,
Figure BDA0003521806650000067
表示测量状态的均值,S是测量空间的协方差矩阵,Q为噪声矩阵;
计算增益:计算卡尔曼增益,计算公式如下:
Figure BDA0003521806650000068
K=T·S-1
其中,角标T表示进行矩阵转置,大写T为协方差矩阵,K为卡尔曼增益;
更新状态:在测量状态中更新测量值的均值和方差用于下一时刻的预测步骤中,计算公式如下:
Figure BDA0003521806650000069
∑=(I-KT)∑′。
本发明所述一种多信息融合的自动驾驶系统道路边界构建方法,针对高精度地图、摄像头和毫米波雷达各自的局限性,通过无迹卡尔曼滤波技术,将利用高精度地图提供的道路信息构建道路边界K1、利用摄像头和毫米波雷达所获信息构建道路边界K2、利用摄像头获取的车道图片构建道路边界K3和利用摄像头对车辆进行跟踪形成的车流轨迹构建道路边界K4进行融合,得到融合道路边界;利用多种方式构建道路边界不仅使该方法的适用性较好,而且使融合后的道路边界具有更高的可靠性与稳定性;从而有效解决目前道路边界的构建方法存在适用性和可靠性较差的问题,取得适用范围广、可靠性好的效果。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (10)

1.一种多信息融合的自动驾驶系统道路边界构建方法,其特征在于:包括如下步骤:
1)利用高精度地图提供的道路信息构建道路边界K1;
2)利用摄像头和毫米波雷达所获信息构建道路边界K2;
3)利用摄像头获取的车道图片构建道路边界K3;
4)利用摄像头对车辆进行跟踪形成的车流轨迹构建道路边界K4;
5)通过无迹卡尔曼滤波方法对道路边界K1、道路边界K2、道路边界K3和道路边界K4进行滤波处理,得到融合道路边界。
2.根据权利要求1所述一种多信息融合的自动驾驶系统道路边界构建方法,其特征在于:步骤1)包括如下子步骤:
11)通过GPS和IMU获取车辆位置;
12)从高精度地图中获取车辆位置对应的道路信息,所述道路信息包括道路的形状、坡度、曲率和航向;
13)根据所述道路信息构建道路边界K1。
3.根据权利要求1所述一种多信息融合的自动驾驶系统道路边界构建方法,其特征在于:步骤2)包括如下子步骤:
21)筛选出摄像头、毫米波雷达所获信息中的静态点云;
22)检测静态点云是否有左右边界,是,则以静态点云的左右边界为K-Means算法的中心进行聚类;否,则对多个周期的静态点云通过K-Means聚类算法筛选出左右边界;
23)运用最小二乘法对静态点云的左右边界进行曲线拟合生成道路的左右边界,得到道路边界K2。
4.根据权利要求1所述一种多信息融合的自动驾驶系统道路边界构建方法,其特征在于:步骤3)包括如下子步骤:
31)利用摄像头获取的车道图片;
32)对车道图片进行清理,所述清理包括障碍物遮挡检测、阴影消除和曝光矫正;
33)提取车道图片中的车道线;
34)对车道线进行曲线拟合生成道路的左右边界,得到道路边界K3。
5.根据权利要求1所述一种多信息融合的自动驾驶系统道路边界构建方法,其特征在于:步骤4)包括如下子步骤:
41)利用摄像头对车辆进行跟踪形成车辆的车流轨迹;
42)对多个车辆的车流轨迹进行聚类,筛选出多条车流轨迹;
43)对筛选出的多条车流轨迹进行曲线拟合,生成自车车道的中心线;
44)基于自车车道的中心线向左右方向拓展,生成道路的左右边界,得到道路边界K4。
6.根据权利要求1所述一种多信息融合的自动驾驶系统道路边界构建方法,其特征在于:步骤5)中无迹卡尔曼滤波方法的状态传递矩阵由车辆运动学模型给出,状态传递矩阵的约束曲率变换率为常量。
7.根据权利要求6所述一种多信息融合的自动驾驶系统道路边界构建方法,其特征在于:步骤5)中所述无迹卡尔曼滤波方法包括如下子步骤:
51)预测;预测包括计算Sigma点集、分配Sigma点权重、转换Sigma点并计算新的均值和协方差;
52)测量;测量包括转换状态、计算增益、更新状态。
8.根据权利要求7所述一种多信息融合的自动驾驶系统道路边界构建方法,其特征在于:步骤51)的详细操作如下:
计算Sigma点集:选取2n+1个Sigma点,Sigma点集用如下公式表示:
x0=μ,i=0
Figure FDA0003521806640000021
Figure FDA0003521806640000022
其中,n为车辆运动学模型的状态维度,μ为均值,λ为比例因子,∑为协方差矩阵;
分配Sigma点权重:为选取的Sigma点分配权重,所用权重矩阵如下:
Figure FDA0003521806640000023
Figure FDA0003521806640000024
转换Sigma点:把选取的所有Sigma点带入运动学模型中,计算预测状态;
yi=g(xi),i=0,...2n
其中,yi表示预测状态,g(xi)为车辆运动学模型;
算新的均值和协方差:计算高斯分布的均值和方差,公式如下:
Figure FDA0003521806640000025
Figure FDA0003521806640000026
其中,μ′为高斯分布的均值,∑′为高斯分布的方差,角标T表示进行矩阵转置,R为噪声矩阵。
9.根据权利要求8所述一种多信息融合的自动驾驶系统道路边界构建方法,其特征在于:步骤52)的详细操作如下:
转换状态:把预测状态空间转换为测量状态空间,转换公式如下:
Zi=h(xi),i=0,...2n
Figure FDA0003521806640000031
Figure FDA0003521806640000032
其中,Zi表示测量状态,h(xi)为状态转换函数,
Figure FDA0003521806640000033
表示测量状态的均值,S是测量空间的协方差矩阵,Q为噪声矩阵;
计算增益:计算卡尔曼增益,计算公式如下:
Figure FDA0003521806640000034
K=T·S-1
其中,角标T表示进行矩阵转置,大写T为协方差矩阵,K为卡尔曼增益;
更新状态:在测量状态中更新测量值的均值和方差用于下一时刻的预测步骤中,计算公式如下:
Figure FDA0003521806640000035
∑=(I-KT)∑′。
10.根据权利要求9所述一种多信息融合的自动驾驶系统道路边界构建方法,其特征在于:步骤51)中分配Sigma点权重时,道路边界K1、道路边界K2、道路边界K3和道路边界K4被赋予的权重递减。
CN202210179368.3A 2022-02-25 2022-02-25 一种多信息融合的自动驾驶系统道路边界构建方法 Pending CN114549990A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210179368.3A CN114549990A (zh) 2022-02-25 2022-02-25 一种多信息融合的自动驾驶系统道路边界构建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210179368.3A CN114549990A (zh) 2022-02-25 2022-02-25 一种多信息融合的自动驾驶系统道路边界构建方法

Publications (1)

Publication Number Publication Date
CN114549990A true CN114549990A (zh) 2022-05-27

Family

ID=81679718

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210179368.3A Pending CN114549990A (zh) 2022-02-25 2022-02-25 一种多信息融合的自动驾驶系统道路边界构建方法

Country Status (1)

Country Link
CN (1) CN114549990A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116182862A (zh) * 2022-12-30 2023-05-30 广州小鹏自动驾驶科技有限公司 道路边界确定方法、装置、电子设备以及存储介质
CN116304995A (zh) * 2023-05-24 2023-06-23 山东哈工卓越智能有限公司 基于遗传算法的地图边界优化数据融合方法、定位系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116182862A (zh) * 2022-12-30 2023-05-30 广州小鹏自动驾驶科技有限公司 道路边界确定方法、装置、电子设备以及存储介质
CN116304995A (zh) * 2023-05-24 2023-06-23 山东哈工卓越智能有限公司 基于遗传算法的地图边界优化数据融合方法、定位系统

Similar Documents

Publication Publication Date Title
CN111551958B (zh) 一种面向矿区无人驾驶的高精地图制作方法
CN109447018B (zh) 一种基于改进Faster R-CNN的道路环境视觉感知方法
CN113379805B (zh) 一种交通节点的多信息资源融合处理方法
Bar Hillel et al. Recent progress in road and lane detection: a survey
CN114549990A (zh) 一种多信息融合的自动驾驶系统道路边界构建方法
CN108171131B (zh) 基于改进MeanShift的Lidar点云数据道路标识线提取方法
CN111882612A (zh) 一种基于三维激光检测车道线的车辆多尺度定位方法
CN111340855A (zh) 一种基于轨迹预测的道路移动目标检测方法
CN113640822B (zh) 一种基于非地图元素过滤的高精度地图构建方法
CN112731371B (zh) 一种激光雷达与视觉融合的集成化目标跟踪系统及方法
CN112363167A (zh) 一种基于毫米波雷达与单目相机融合的扩展目标跟踪方法
CN112740225B (zh) 一种路面要素确定方法及装置
CN113009453B (zh) 矿山路沿检测及建图方法及装置
US20220197301A1 (en) Vehicle Localization Based on Radar Detections
CN112487907B (zh) 一种基于图分类的危险场景识别方法及系统
CN110349192A (zh) 一种基于三维激光点云的在线目标跟踪系统的跟踪方法
LU504084B1 (en) A non-rigid registration method of vehicle-borne LiDAR point clouds by fusing multiple road features
CN114325634A (zh) 一种基于激光雷达的高鲁棒性野外环境下可通行区域提取方法
CN110176022B (zh) 一种基于视频检测的隧道全景监控系统及方法
CN114137562B (zh) 一种基于改进全局最邻近的多目标跟踪方法
CN113516853A (zh) 一种针对复杂监控场景的多车道车流量检测方法
Chiang et al. Bending the curve of HD maps production for autonomous vehicle applications in Taiwan
CN116129386A (zh) 可行驶区域检测方法、系统及计算机可读介质
CN112348950B (zh) 一种基于激光点云分布特性的拓扑地图节点生成方法
EP4027169A2 (en) Radar reference map generation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination