CN110160540B - 基于高精度地图的车道线数据融合方法 - Google Patents

基于高精度地图的车道线数据融合方法 Download PDF

Info

Publication number
CN110160540B
CN110160540B CN201910507766.1A CN201910507766A CN110160540B CN 110160540 B CN110160540 B CN 110160540B CN 201910507766 A CN201910507766 A CN 201910507766A CN 110160540 B CN110160540 B CN 110160540B
Authority
CN
China
Prior art keywords
lane line
local road
road frame
data
positioning data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910507766.1A
Other languages
English (en)
Other versions
CN110160540A (zh
Inventor
胡禹超
戴震
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Heduo Technology Guangzhou Co ltd
Original Assignee
HoloMatic Technology Beijing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by HoloMatic Technology Beijing Co Ltd filed Critical HoloMatic Technology Beijing Co Ltd
Priority to CN201910507766.1A priority Critical patent/CN110160540B/zh
Publication of CN110160540A publication Critical patent/CN110160540A/zh
Application granted granted Critical
Publication of CN110160540B publication Critical patent/CN110160540B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching

Abstract

本发明公开了一种基于高精度地图的车道线数据融合方法,包括:将车辆的定位数据与高精度地图和在定位数据对应位置感知的车道线数据分别结合以构建第一和第二局部道路帧;根据定位数据和高精度地图获得最优估计局部道路帧;将最优估计局部道路帧与定位数据在时间上进行同步;依据第一局部道路帧对与定位数据时间同步后的最优估计局部道路帧进行更新;将更新后的最优估计局部道路帧与车道线数据在时间上进行同步;依据第二局部道路帧对与车道线数据时间同步后的最优估计局部道路帧进行修正。其通过将感知识别的车道线、高精度地图以及定位数据进行融合,得到了更加准确、稳定的车道线输出,同时实现了监测车道线数据本身的可靠性的技术效果。

Description

基于高精度地图的车道线数据融合方法
技术领域
本发明涉及无人驾驶技术领域,尤其涉及一种基于高精度地图的车道线数据融合方法。
背景技术
作为无人驾驶汽车感知、路径规划及控制所高度依赖的数据源,车道线数据的准确性及稳定性对于汽车行驶的安全稳定至关重要。然而传统的基于单一数据源的车道线数据处理由于没有额外数据进行交叉验证,其准确性、可靠性难以得到保证。如何将感知识别的车道线与先验的高精度地图数据进行融合并监测车道线数据的可靠性,从而得到更加准确稳定的车道线输出结果对于无人驾驶汽车安全平稳地行驶有着重要意义。
发明内容
本发明的一个目的是解决至少上述问题,并提供至少后面将说明的优点。
本发明还有一个目的是提供一种基于高精度地图的车道线数据融合方法,通过将感知识别的车道线、高精度地图以及定位数据进行融合,得到了更加准确、稳定的车道线输出,同时实现了监测车道线数据本身的可靠性的技术效果。
为实现上述目的和一些其他的目的,本发明采用如下技术方案:
一种基于高精度地图的车道线数据融合方法,主要包括以下步骤:
S1、将车辆的定位数据与高精度地图和在所述定位数据对应位置感知的车道线数据分别结合以构建第一局部道路帧和第二局部道路帧;
S2、根据所述定位数据和高精度地图获得最优估计局部道路帧;其中,所述最优估计局部道路帧指对当前局部道路帧的最优估计值;
S3、将所述最优估计局部道路帧与所述定位数据在时间上进行同步;
S4、依据S1得到的第一局部道路帧对与所述定位数据时间同步后的最优估计局部道路帧进行更新;
S5、将S4得到的更新后的最优估计局部道路帧与所述车道线数据在时间上进行同步;
S6、依据S1得到的第二局部道路帧对与所述车道线数据时间同步后的最优估计局部道路帧进行修正。
优选的是,所述的基于高精度地图的车道线数据融合方法中,所述定位数据包括:位置、姿态、线速度、角速度、位置精度、姿态精度以及定位时间戳;
所述车道线数据包括:精度、曲线段以及车道线时间戳;以及
所述第一局部道路帧和第二局部道路帧均包括:帧的时间戳、帧的位置、帧的姿态、车道线投影精度以及车道线的曲线段。
优选的是,所述的基于高精度地图的车道线数据融合方法中,S1中构建所述第一局部道路帧的方法为:
S1-1、根据所述定位数据由所述高精度地图中抽取对应于所述定位数据的位置的车道线数据;
S1-2、经S1-1获得的车道线数据转换到获得所述定位数据的车辆的坐标系下,得到车道线的曲线段;
S1-3、将所述定位数据中的位置精度和姿态精度转换为所述第一局部道路帧的车道线投影精度;
S1-4、将由所述定位数据获取的定位时间戳、位置和姿态作为所述第一局部道路帧的时间戳、帧的位置以及帧的姿态。
优选的是,所述的基于高精度地图的车道线数据融合方法中,S1中构建所述第二局部道路帧的方法为:
S1-A、将所述定位数据的时间与所述车道线数据的时间同步,采用公式1和公式2分别计算得到所述定位数据与所述车道线数据时间同步后的位置和姿态;
P′L=VL(TM-TL)+PL 公式1;
R′L=ΩL(TM-TL)+RL 公式2;
其中,P′L为所述定位数据与所述车道线数据同步后的位置;R′L为所述定位数据与所述车道线数据同步后的姿态;VL为所述定位数据的线速度;TM为所述车道线数据的车道线时间戳;TL为所述定位数据的定位时间戳;PL为所述定位数据的位置;ΩL为所述定位数据的角速度;RL为所述定位数据的姿态;
S1-B、将TM、P′L、R′L以及所述车道线数据的曲线段作为所述第二局部道路帧的时间戳、帧的位置、帧的姿态以及车道线的曲线段。
优选的是,所述的基于高精度地图的车道线数据融合方法中,S3中将最优估计局部道路帧与定位数据在时间上进行同步的方法为:
S3-1、对所述最优估计局部道路帧的每条车道线均进行采样,得到点集;
S3-2、计算所述最优估计局部道路帧与所述定位数据的相对位置和相对姿态;
S3-3、依据S3-2得到的相对位置和相对姿态将S3-1得到的点集的坐标系转换到所述定位数据对应的车辆的车辆坐标系,形成新的点集;
S3-4、对由S3-3得到的新的点集做曲线拟合,得到新的曲线段,并利用所述新的曲线段更新所述最优估计局部道路帧的车道线;
S3-5、利用所述定位数据的将所述最优估计局部道路帧的位置、姿态和定位时间戳分别更新所述最优估计局部道路帧的位置、姿态以及时间戳。
优选的是,所述的基于高精度地图的车道线数据融合方法中,S4中依据S1得到的第一局部道路帧对与所述定位数据时间同步后的最优估计局部道路帧进行更新的方法为:
S4-1、获取与所述第一局部道路帧和与所述定位数据时间同步后的最优估计局部道路帧中相匹配的车道线;
S4-2、根据S4-1得到的车道线的投影精度分别设定由所述第一局部道路帧和与所述定位数据时间同步后的最优估计局部道路帧中得到的车道线融合时的权重函数;
S4-3、依据S4-2得到的权重函数将相匹配的车道线进行拟合,得到新车道线,利用所述新车道线更新与所述定位数据时间同步后的最优估计局部道路帧中与所述第一局部道路帧中相匹配的车道线,并同时更新所述投影精度。
优选的是,所述的基于高精度地图的车道线数据融合方法中,S4-1中获取所述相匹配的车道线的方法为:
S5-1、对所述第一局部道路帧和与所述定位数据时间同步后的最优估计局部道路帧中包含的车道线分别按照相同的系数采样,得到对应于所述第一局部道路帧的采样点集A和对应于与所述定位数据时间同步后的最优估计局部道路帧的采样点集B;
S5-2、将所述采样点集A和采样点集B相对应的参数相减后分别计算均值和均方差;
S5-3、分别比较所述均值和均方差是否小于预设的阈值;是,则判定车道线匹配;否,则判定车道线不匹配;
S5-4、检测所述第一局部道路帧和与所述定位数据时间同步后的最优估计局部道路帧中所有相匹配的车道线的车道线序号是否符合序号偏移约束;是,则判定车道线匹配合理;否,则判定车道线不匹配。
优选的是,所述的基于高精度地图的车道线数据融合方法中,S4-3中依据权重函数将相匹配的车道线进行拟合得到新车道线的方法为:
设待拟合得到新车道线的相匹配的两条车道线分别为L1和L2,相应的曲线段分别为
Figure GDA0002717143460000041
Figure GDA0002717143460000042
权重函数分别为f1(x)和f2(x),其中x为采样系数;目标拟合曲线的次数为n,具体拟合的步骤如下:
S6-1、将两条车道线及权重分别按照x采样,得到m个样本,其中m>n+1,从而得到带权重的采样点集{xi,yi,wi},i=1,2,3…,m;其中xi和yi为采样点的坐标;wi为所述采样点对应的权重;
S6-2、对所述采样点集进行n次曲线拟合,设目标曲线为
Figure GDA0002717143460000043
其中,ai为待求系数,构建矩阵方程1进行n次曲线拟合;
Figure GDA0002717143460000044
矩阵方程1。
优选的是,所述的基于高精度地图的车道线数据融合方法中,S1前还需对感知的所述车道线数据中的异常车道线进行滤除,所述异常车道线通过判断车道线的平行性判定,具体判断方法为:
S7-1、对两条车道线沿车道线的纵向延伸方向等间距的采样,得到两组分别对应于两条车道线的采样点集;
S7-2、计算两组所述采样点集中对应的点对间的横向距离的均方差;
S7-3、判断得到的横向距离的均方差是否小于预设的最大阈值;是,则判定两条车道线平行;否,则判定两条车道线不平行。
优选的是,所述的基于高精度地图的车道线数据融合方法中,S6中依据S1得到的第二局部道路帧对与所述车道线数据时间同步后的最优估计局部道路帧进行修正的方法为:
S8-1、将所述第二局部道路帧的时间和与所述车道线数据时间同步后的最优估计局部道路帧的时间同步,采用公式3和公式4分别计算得到时间同步后的位置和姿态;;
P″L=VL(TF-TL)+PL 公式3;
R″L=ΩL(TF-TL)+RL 公式4;
其中,P″L为所述第二局部道路帧的时间和与所述车道线数据时间同步后的最优估计局部道路帧的时间同步后的位置;R″L为所述第二局部道路帧的时间和与所述车道线数据时间同步后的最优估计局部道路帧的时间同步后的姿态;VL为所述定位数据的线速度;TF为所述第二局部道路帧的时间戳;TL为所述定位数据的定位时间戳;PL为所述定位数据的位置;ΩL为所述定位数据的角速度;RL为所述定位数据的姿态;
S8-2、将TF、P″L、R″L、所述第二局部道路帧的车道线投影精度以及第二局部道路帧的车道线的曲线段分别作为与所述车道线数据时间同步后的最优估计局部道路帧的时间戳、帧的位置、帧的姿态、车道线投影精度以及车道线的曲线段。
本发明至少包括以下有益效果:
本发明的基于高精度地图的车道线数据融合方法中,通过融合感知识别的车道线与高精度地图数据,实现了对车道线识别的交叉验证,避免了单点故障,提高了车道线输出结果的准确性和可靠性。
通过使用车辆的定位数据与高精度地图结合对车道线进行预测,然后通过车辆的定位数据与感知的车道线数据对预测的车道线进行修正,即通过预测和修正两步滤波,使得车道线输出结果更加稳定和平滑。
本发明的其它优点、目标和特征将部分通过下面的说明体现,部分还将通过对本发明的研究和实践而为本领域的技术人员所理解。
附图说明
图1是本发明提供的基于高精度地图的车道线数据融合方法的流程图。
具体实施方式
下面结合附图对本发明做详细说明,以令本领域普通技术人员参阅本说明书后能够据以实施。
如图1所示,一种基于高精度地图的车道线数据融合方法,主要包括以下步骤:
S1、将车辆的定位数据与高精度地图和在所述定位数据对应位置感知的车道线数据分别结合以构建第一局部道路帧和第二局部道路帧;
S2、根据所述定位数据和高精度地图获得最优估计局部道路帧;其中,所述最优估计局部道路帧指对当前局部道路帧的最优估计值;
S3、将所述最优估计局部道路帧与所述定位数据在时间上进行同步;
S4、依据S1得到的第一局部道路帧对与所述定位数据时间同步后的最优估计局部道路帧进行更新;
S5、将S4得到的更新后的最优估计局部道路帧与所述车道线数据在时间上进行同步;
S6、依据S1得到的第二局部道路帧对与所述车道线数据时间同步后的最优估计局部道路帧进行修正。
在上述方案中,车辆定位数据和高精度地图结合构建第一局部道路帧,通过第一局部道路帧对最优估计局部道路帧进行更新,实现通过定位数据和高精度地图对车道线的预测,然后通过定位数据和感知的车道线数据结合构建第二局部道路帧,通过第二局部道路帧对预测的车道线进行修正,通过反复的预测和修正有效的提高了车道线输出结果的准确性和可靠性。
通过融合感知识别的车道线与高精度地图数据,实现了对车道线识别的交叉验证,避免了单点故障,提高了车道线输出结果的准确性和可靠性。
通过使用车辆的定位数据与高精度地图结合对车道线进行预测,然后通过车辆的定位数据与感知的车道线数据对预测的车道线进行修正,即通过预测和修正两步滤波,使得车道线输出结果更加稳定和平滑。
另外,最优估计局部道路帧是基于定位数据和高精度地图组合来构建的,具体步骤与构建局部道路帧类似。若定位并未处于高精度地图范围之内,则以定位和车道线数据组合来构建。
一个优选方案中,所述定位数据包括:位置、姿态、线速度、角速度、位置精度、姿态精度以及定位时间戳。
所述车道线数据包括:精度、曲线段以及车道线时间戳。
所述第一局部道路帧和第二局部道路帧均包括:帧的时间戳、帧的位置、帧的姿态、车道线投影精度以及车道线的曲线段。
一个优选方案中,S1中构建所述第一局部道路帧的方法为:
S1-1、根据所述定位数据由所述高精度地图中抽取对应于所述定位数据的位置的车道线数据;
S1-2、经S1-1获得的车道线数据转换到获得所述定位数据的车辆的坐标系下,得到车道线的曲线段;
S1-3、将所述定位数据中的位置精度和姿态精度转换为所述第一局部道路帧的车道线投影精度;
S1-4、将由所述定位数据获取的定位时间戳、位置和姿态作为所述第一局部道路帧的时间戳、帧的位置以及帧的姿态。
在上述方案中,根据定位数据从高精度地图中抽取在该定位下的车道线数据并转换到车体坐标系,赋给局部道路帧的车道线Li;由于高精度地图数据可被认为是不带误差的真值,因此误差可认为仅仅来源于定位,所以将定位数据的位置精度和姿态精度转换为车道线投影精度并赋值;该局部道路帧的时间戳、位置及姿态均完全拷贝自定位数据的相应字段。
一个优选方案中,S1中构建所述第二局部道路帧的方法为:
S1-A、将所述定位数据的时间与所述车道线数据的时间同步,采用公式1和公式2分别计算得到所述定位数据与所述车道线数据时间同步后的位置和姿态;
P′L=VL(TM-TL)+PL 公式1;
R′L=ΩL(TM-TL)+RL 公式2;
其中,P′L为所述定位数据与所述车道线数据同步后的位置;R′L为所述定位数据与所述车道线数据同步后的姿态;VL为所述定位数据的线速度;TM为所述车道线数据的车道线时间戳;TL为所述定位数据的定位时间戳;PL为所述定位数据的位置;ΩL为所述定位数据的角速度;RL为所述定位数据的姿态;
S1-B、将TM、P′L、R′L以及所述车道线数据的曲线段作为所述第二局部道路帧的时间戳、帧的位置、帧的姿态以及车道线的曲线段;其中,由于无需进行坐标系转换,因此车道线投影精度直接来源于车道线精度。
一个优选方案中,S3中将最优估计局部道路帧与定位数据在时间上进行同步的方法为:
S3-1、对所述最优估计局部道路帧的每条车道线均进行采样,得到点集;
S3-2、计算所述最优估计局部道路帧与所述定位数据的相对位置和相对姿态;
S3-3、依据S3-2得到的相对位置和相对姿态将S3-1得到的点集的坐标系转换到所述定位数据对应的车辆的车辆坐标系,形成新的点集;
S3-4、对由S3-3得到的新的点集做曲线拟合,得到新的曲线段,并利用所述新的曲线段更新所述最优估计局部道路帧的车道线;
S3-5、利用所述定位数据的将所述最优估计局部道路帧的位置、姿态和定位时间戳分别更新所述最优估计局部道路帧的位置、姿态以及时间戳。
一个优选方案中,S4中依据S1得到的第一局部道路帧对与所述定位数据时间同步后的最优估计局部道路帧进行更新的方法为:
S4-1、获取与所述第一局部道路帧和与所述定位数据时间同步后的最优估计局部道路帧中相匹配的车道线;
S4-2、根据S4-1得到的车道线的投影精度分别设定由所述第一局部道路帧和与所述定位数据时间同步后的最优估计局部道路帧中得到的车道线融合时的权重函数;
S4-3、依据S4-2得到的权重函数将相匹配的车道线进行拟合,得到新车道线,利用所述新车道线更新与所述定位数据时间同步后的最优估计局部道路帧中与所述第一局部道路帧中相匹配的车道线,并同时更新所述投影精度。
在上述方案中,若车道线不匹配,则标记更新失败,并在更新失败次数超出设定的次数后,重新初始化最优估计局部道路帧。
一个优选方案中,S4-1中获取所述相匹配的车道线的方法为:
S5-1、对所述第一局部道路帧和与所述定位数据时间同步后的最优估计局部道路帧中包含的车道线分别按照相同的系数采样,得到对应于所述第一局部道路帧的采样点集A和对应于与所述定位数据时间同步后的最优估计局部道路帧的采样点集B;
S5-2、将所述采样点集A和采样点集B相对应的参数相减后分别计算均值和均方差;
S5-3、分别比较所述均值和均方差是否小于预设的阈值;是,则判定车道线匹配;否,则判定车道线不匹配;
S5-4、检测所述第一局部道路帧和与所述定位数据时间同步后的最优估计局部道路帧中所有相匹配的车道线的车道线序号是否符合序号偏移约束;是,则判定车道线匹配合理;否,则判定车道线不匹配。
在上述方案中,S5-4中检测匹配合理性的操作为:对于第一局部道路帧以及与所述定位数据时间同步后的最优估计局部道路帧中所有匹配的车道线,应当符合序号偏移约束-1,+1或者0。例如第一局部道路帧的车道线序号1,2,3分别匹配与所述定位数据时间同步后的最优估计局部道路帧的车道线序号2,3,4,相匹配的所有序号均偏移+1,则认为为合理匹配,若匹配不合理,则认为第一局部道路帧和与所述定位数据时间同步后的最优估计局部道路帧不匹配。
一个优选方案中,S4-3中依据权重函数将相匹配的车道线进行拟合得到新车道线的方法为:
设待拟合得到新车道线的相匹配的两条车道线分别为L1和L2,相应的曲线段分别为
Figure GDA0002717143460000081
Figure GDA0002717143460000082
权重函数分别为f1(x)和f2(x),其中x为采样系数;目标拟合曲线的次数为n,具体拟合的步骤如下:
S6-1、将两条车道线及权重分别按照x采样,得到m个样本,其中m>n+1,从而得到带权重的采样点集{xi,yi,wi},i=1,2,3…,m;其中xi和yi为采样点的坐标;wi为所述采样点对应的权重;
S6-2、对所述采样点集进行n次曲线拟合,设目标曲线为
Figure GDA0002717143460000091
其中,ai为待求系数,构建矩阵方程1进行n次曲线拟合;
Figure GDA0002717143460000092
矩阵方程1。
在上述方案中,矩阵方程1可以使用QR分解、最小二乘法,以及SVD等多种方法进行求解。
一个优选方案中,S1前还需对感知的所述车道线数据中的异常车道线进行滤除,所述异常车道线通过判断车道线的平行性判定,具体判断方法为:
S7-1、对两条车道线沿车道线的纵向延伸方向等间距的采样,得到两组分别对应于两条车道线的采样点集;
S7-2、计算两组所述采样点集中对应的点对间的横向距离的均方差;
S7-3、判断得到的横向距离的均方差是否小于预设的最大阈值;是,则判定两条车道线平行;否,则判定两条车道线不平行。
在上述方案中,现有技术中一般感知识别的车道线有4条,如果某条车道线与其余3条车道线均不平行,则将其标记为异常车道线。而后即可采用上述方法进行两条车道线间平行性的判断。
一个优选方案中,S6中依据S1得到的第二局部道路帧对与所述车道线数据时间同步后的最优估计局部道路帧进行修正的方法为:
S8-1、将所述第二局部道路帧的时间和与所述车道线数据时间同步后的最优估计局部道路帧的时间同步,采用公式3和公式4分别计算得到时间同步后的位置和姿态;;
P″L=VL(TF-TL)+PL 公式3;
R″L=ΩL(TF-TL)+RL 公式4;
其中,P″L为所述第二局部道路帧的时间和与所述车道线数据时间同步后的最优估计局部道路帧的时间同步后的位置;R″L为所述第二局部道路帧的时间和与所述车道线数据时间同步后的最优估计局部道路帧的时间同步后的姿态;VL为所述定位数据的线速度;TF为所述第二局部道路帧的时间戳;TL为所述定位数据的定位时间戳;PL为所述定位数据的位置;ΩL为所述定位数据的角速度;RL为所述定位数据的姿态;
S8-2、将TF、P″L、R″L、所述第二局部道路帧的车道线投影精度以及第二局部道路帧的车道线的曲线段分别作为与所述车道线数据时间同步后的最优估计局部道路帧的时间戳、帧的位置、帧的姿态、车道线投影精度以及车道线的曲线段。
尽管本发明的实施方案已公开如上,但其并不仅仅限于说明书和实施方式中所列运用,它完全可以被适用于各种适合本发明的领域,对于熟悉本领域的人员而言,可容易地实现另外的修改,因此在不背离权利要求及等同范围所限定的一般概念下,本发明并不限于特定的细节和这里所示出与描述的图例。

Claims (10)

1.一种基于高精度地图的车道线数据融合方法,其中,主要包括以下步骤:
S1、将车辆的定位数据与高精度地图和在所述定位数据对应位置感知的车道线数据分别结合以构建第一局部道路帧和第二局部道路帧;
S2、根据所述定位数据和高精度地图获得最优估计局部道路帧;其中,所述最优估计局部道路帧指对当前局部道路帧的最优估计值;
S3、将所述最优估计局部道路帧与所述定位数据在时间上进行同步;
S4、依据S1得到的第一局部道路帧对与所述定位数据时间同步后的最优估计局部道路帧进行更新;
S5、将S4得到的更新后的最优估计局部道路帧与所述车道线数据在时间上进行同步;
S6、依据S1得到的第二局部道路帧对与所述车道线数据时间同步后的最优估计局部道路帧进行修正。
2.如权利要求1所述的基于高精度地图的车道线数据融合方法,其中,
所述定位数据包括:位置、姿态、线速度、角速度、位置精度、姿态精度以及定位时间戳;
所述车道线数据包括:精度、曲线段以及车道线时间戳;以及
所述第一局部道路帧和第二局部道路帧均包括:帧的时间戳、帧的位置、帧的姿态、车道线投影精度以及车道线的曲线段。
3.如权利要求2所述的基于高精度地图的车道线数据融合方法,其中,S1中构建所述第一局部道路帧的方法为:
S1-1、根据所述定位数据由所述高精度地图中抽取对应于所述定位数据的位置的车道线数据;
S1-2、经S1-1获得的车道线数据转换到获得所述定位数据的车辆的坐标系下,得到车道线的曲线段;
S1-3、将所述定位数据中的位置精度和姿态精度转换为所述第一局部道路帧的车道线投影精度;
S1-4、将由所述定位数据获取的定位时间戳、位置和姿态作为所述第一局部道路帧的时间戳、帧的位置以及帧的姿态。
4.如权利要求2所述的基于高精度地图的车道线数据融合方法,其中,S1中构建所述第二局部道路帧的方法为:
S1-A、将所述定位数据的时间与所述车道线数据的时间同步,采用公式1和公式2分别计算得到所述定位数据与所述车道线数据时间同步后的位置和姿态;
P′L=VL(TM-TL)+PL 公式1;
R′L=ΩL(TM-TL)+RL 公式2;
其中,P′L为所述定位数据与所述车道线数据同步后的位置;R′L为所述定位数据与所述车道线数据同步后的姿态;VL为所述定位数据的线速度;TM为所述车道线数据的车道线时间戳;TL为所述定位数据的定位时间戳;PL为所述定位数据的位置;ΩL为所述定位数据的角速度;RL为所述定位数据的姿态;
S1-B、将TM、P′L、R′L以及所述车道线数据的曲线段作为所述第二局部道路帧的时间戳、帧的位置、帧的姿态以及车道线的曲线段。
5.如权利要求2所述的基于高精度地图的车道线数据融合方法,其中,S3中将最优估计局部道路帧与定位数据在时间上进行同步的方法为:
S3-1、对所述最优估计局部道路帧的每条车道线均进行采样,得到点集;
S3-2、计算所述最优估计局部道路帧与所述定位数据的相对位置和相对姿态;
S3-3、依据S3-2得到的相对位置和相对姿态将S3-1得到的点集的坐标系转换到所述定位数据对应的车辆的车辆坐标系,形成新的点集;
S3-4、对由S3-3得到的新的点集做曲线拟合,得到新的曲线段,并利用所述新的曲线段更新所述最优估计局部道路帧的车道线;
S3-5、利用所述定位数据的将所述最优估计局部道路帧的位置、姿态和定位时间戳分别更新所述最优估计局部道路帧的位置、姿态以及时间戳。
6.如权利要求2所述的基于高精度地图的车道线数据融合方法,其中,S4中依据S1得到的第一局部道路帧对与所述定位数据时间同步后的最优估计局部道路帧进行更新的方法为:
S4-1、获取与所述第一局部道路帧和与所述定位数据时间同步后的最优估计局部道路帧中相匹配的车道线;
S4-2、根据S4-1得到的车道线的投影精度分别设定由所述第一局部道路帧和与所述定位数据时间同步后的最优估计局部道路帧中得到的车道线融合时的权重函数;
S4-3、依据S4-2得到的权重函数将相匹配的车道线进行拟合,得到新车道线,利用所述新车道线更新与所述定位数据时间同步后的最优估计局部道路帧中与所述第一局部道路帧中相匹配的车道线,并同时更新所述投影精度。
7.如权利要求6所述的基于高精度地图的车道线数据融合方法,其中,S4-1中获取所述相匹配的车道线的方法为:
S5-1、对所述第一局部道路帧和与所述定位数据时间同步后的最优估计局部道路帧中包含的车道线分别按照相同的系数采样,得到对应于所述第一局部道路帧的采样点集A和对应于与所述定位数据时间同步后的最优估计局部道路帧的采样点集B;
S5-2、将所述采样点集A和采样点集B相对应的参数相减后分别计算均值和均方差;
S5-3、分别比较所述均值和均方差是否小于预设的阈值;是,则判定车道线匹配;否,则判定车道线不匹配;
S5-4、检测所述第一局部道路帧和与所述定位数据时间同步后的最优估计局部道路帧中所有相匹配的车道线的车道线序号是否符合序号偏移约束;是,则判定车道线匹配合理;否,则判定车道线不匹配。
8.如权利要求6所述的基于高精度地图的车道线数据融合方法,其中,S4-3中依据权重函数将相匹配的车道线进行拟合得到新车道线的方法为:
设待拟合得到新车道线的相匹配的两条车道线分别为L1和L2,相应的曲线段分别为y=C1(x),
Figure FDA0002717143450000031
和y=C2(x),
Figure FDA0002717143450000032
权重函数分别为f1(x)和f2(x),其中x为采样系数;目标拟合曲线的次数为n,具体拟合的步骤如下:
S6-1、将两条车道线及权重分别按照x采样,得到m个样本,其中m>n+1,从而得到带权重的采样点集{xi,yi,wi},i=1,2,3…,m;其中xi和yi为采样点的坐标;wi为所述采样点对应的权重;
S6-2、对所述采样点集进行n次曲线拟合,设目标曲线为
Figure FDA0002717143450000033
其中,ai为待求系数,构建矩阵方程1进行n次曲线拟合;
Figure FDA0002717143450000034
矩阵方程1。
9.如权利要求1所述的基于高精度地图的车道线数据融合方法,其中,S1前还需对感知的所述车道线数据中的异常车道线进行滤除,所述异常车道线通过判断车道线的平行性判定,具体判断方法为:
S7-1、对两条车道线沿车道线的纵向延伸方向等间距的采样,得到两组分别对应于两条车道线的采样点集;
S7-2、计算两组所述采样点集中对应的点对间的横向距离的均方差;
S7-3、判断得到的横向距离的均方差是否小于预设的最大阈值;是,则判定两条车道线平行;否,则判定两条车道线不平行。
10.如权利要求2所述的基于高精度地图的车道线数据融合方法,其中,S6中依据S1得到的第二局部道路帧对与所述车道线数据时间同步后的最优估计局部道路帧进行修正的方法为:
S8-1、将所述第二局部道路帧的时间和与所述车道线数据时间同步后的最优估计局部道路帧的时间同步,采用公式3和公式4分别计算得到时间同步后的位置和姿态;;
P″L=VL(TF-TL)+PL 公式3;
R″L=ΩL(TF-TL)+RL 公式4;
其中,P″L为所述第二局部道路帧的时间和与所述车道线数据时间同步后的最优估计局部道路帧的时间同步后的位置;R″L为所述第二局部道路帧的时间和与所述车道线数据时间同步后的最优估计局部道路帧的时间同步后的姿态;VL为所述定位数据的线速度;TF为所述第二局部道路帧的时间戳;TL为所述定位数据的定位时间戳;PL为所述定位数据的位置;ΩL为所述定位数据的角速度;RL为所述定位数据的姿态;
S8-2、将TF、P″L、R″L、所述第二局部道路帧的车道线投影精度以及第二局部道路帧的车道线的曲线段分别作为与所述车道线数据时间同步后的最优估计局部道路帧的时间戳、帧的位置、帧的姿态、车道线投影精度以及车道线的曲线段。
CN201910507766.1A 2019-06-12 2019-06-12 基于高精度地图的车道线数据融合方法 Active CN110160540B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910507766.1A CN110160540B (zh) 2019-06-12 2019-06-12 基于高精度地图的车道线数据融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910507766.1A CN110160540B (zh) 2019-06-12 2019-06-12 基于高精度地图的车道线数据融合方法

Publications (2)

Publication Number Publication Date
CN110160540A CN110160540A (zh) 2019-08-23
CN110160540B true CN110160540B (zh) 2020-12-18

Family

ID=67628544

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910507766.1A Active CN110160540B (zh) 2019-06-12 2019-06-12 基于高精度地图的车道线数据融合方法

Country Status (1)

Country Link
CN (1) CN110160540B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110954128B (zh) * 2019-12-03 2021-11-16 阿波罗智能技术(北京)有限公司 检测车道线位置变化的方法、装置、电子设备和存储介质
WO2021208110A1 (zh) * 2020-04-18 2021-10-21 华为技术有限公司 车道线识别异常事件确定方法、车道线识别装置及系统
CN112906665A (zh) * 2021-04-06 2021-06-04 北京车和家信息技术有限公司 交通标线融合方法、装置、存储介质及电子设备
CN113436190B (zh) * 2021-07-30 2023-03-14 重庆长安汽车股份有限公司 一种基于车道线曲线系数的车道线质量计算方法、装置及汽车
CN113870600B (zh) * 2021-09-29 2022-09-27 禾多阡陌科技(北京)有限公司 车道线信息显示方法、装置、电子设备和计算机可读介质
CN113932796A (zh) * 2021-10-15 2022-01-14 北京百度网讯科技有限公司 高精地图车道线生成方法、装置和电子设备

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101454153B1 (ko) * 2013-09-30 2014-11-03 국민대학교산학협력단 가상차선과 센서 융합을 통한 무인 자율주행 자동차의 항법시스템
CN106225790B (zh) * 2016-07-13 2018-11-02 百度在线网络技术(北京)有限公司 一种无人车定位精度的确定方法及装置
CN108303103B (zh) * 2017-02-07 2020-02-07 腾讯科技(深圳)有限公司 目标车道的确定方法和装置
CN107782321B (zh) * 2017-10-10 2020-10-30 武汉迈普时空导航科技有限公司 一种基于视觉和高精度地图车道线约束的组合导航方法
CN109297500B (zh) * 2018-09-03 2020-12-15 武汉中海庭数据技术有限公司 基于车道线特征匹配的高精度定位装置及方法
CN109470255B (zh) * 2018-12-03 2022-03-29 禾多科技(北京)有限公司 基于高精度定位及车道线识别的高精度地图自动生成方法

Also Published As

Publication number Publication date
CN110160540A (zh) 2019-08-23

Similar Documents

Publication Publication Date Title
CN110160540B (zh) 基于高精度地图的车道线数据融合方法
CN112304302B (zh) 一种多场景高精度车辆定位方法、装置及车载终端
US10145690B2 (en) Map information generation system, method, and program
JP2024050990A (ja) 判定装置
WO2015075093A1 (de) Verfahren, fusionsfilter und system zur fusion von sensorsignalen mit unterschiedlichen zeitlichen signalausgabeverzügen zu einem fusionsdatensatz
CN107314762A (zh) 基于无人机单目序列影像的电力线下方地物距离检测方法
WO2019188745A1 (ja) 情報処理装置、制御方法、プログラム及び記憶媒体
CN105786019A (zh) 一种载机飞行控制方法和系统
WO2015189140A1 (de) Verfahren und system zur verifizierung von messdaten
CN109507699B (zh) 车用卫星定位校正方法及装置
CN108573611A (zh) 一种限速标识融合方法以及限速标识融合系统
DE102013213067B4 (de) Verfahren und Vorrichtung zur Bestimmung mindestens einer Zustandsgröße einer Eigenposition eines Fahrzeugs
CN113970330B (zh) 车载多传感器融合定位方法、计算机设备及存储介质
CN110032709A (zh) 一种用于地理坐标转换中异常点的定位与估值方法
CN104575081A (zh) 车辆进入多边形电子围栏区域的检测方法
WO2016006170A1 (ja) 視線入力パラメータの補正装置、及び視線入力装置
US20170122770A1 (en) Method and system for providing dynamic error values of dynamic measured values in real time
CN107862863B (zh) 一种交通数据质量提升的方法及装置
CN109799424A (zh) 基于纵向阻抗的t型线路故障测距方法
CN112577479A (zh) 基于地图元素数据的多传感器融合车辆定位方法及装置
CN110120081B (zh) 一种生成电子地图车道标线的方法、装置及存储设备
JP6478931B2 (ja) 異常診断装置、方法、及びプログラム
CN117029857A (zh) 基于高精地图的车辆感知融合方法、设备及存储介质
CN106874531B (zh) 一种大气数据系统在故障时的异常测量值数据自恢复方法
US11035677B2 (en) Route information conversion system, route information transmission apparatus, and route information reception apparatus

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: Lane line data fusion method based on high-precision map

Effective date of registration: 20220407

Granted publication date: 20201218

Pledgee: Beijing Zhongguancun bank Limited by Share Ltd.

Pledgor: HOLOMATIC TECHNOLOGY (BEIJING) Co.,Ltd.

Registration number: Y2022990000194

PE01 Entry into force of the registration of the contract for pledge of patent right
CP03 Change of name, title or address

Address after: 201, 202, 301, No. 56-4 Fenghuang South Road, Huadu District, Guangzhou City, Guangdong Province, 510806

Patentee after: Heduo Technology (Guangzhou) Co.,Ltd.

Address before: 100089 21-14, 1st floor, building 21, Enji West Industrial Park, No.1, liangjiadian, Fuwai, Haidian District, Beijing

Patentee before: HOLOMATIC TECHNOLOGY (BEIJING) Co.,Ltd.

CP03 Change of name, title or address
PC01 Cancellation of the registration of the contract for pledge of patent right

Granted publication date: 20201218

Pledgee: Beijing Zhongguancun bank Limited by Share Ltd.

Pledgor: HOLOMATIC TECHNOLOGY (BEIJING) Co.,Ltd.

Registration number: Y2022990000194

PC01 Cancellation of the registration of the contract for pledge of patent right