CN115824235A - 一种车道定位方法、装置、计算机设备以及可读存储介质 - Google Patents
一种车道定位方法、装置、计算机设备以及可读存储介质 Download PDFInfo
- Publication number
- CN115824235A CN115824235A CN202211440211.8A CN202211440211A CN115824235A CN 115824235 A CN115824235 A CN 115824235A CN 202211440211 A CN202211440211 A CN 202211440211A CN 115824235 A CN115824235 A CN 115824235A
- Authority
- CN
- China
- Prior art keywords
- map data
- lane
- target vehicle
- road
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 87
- 238000003860 storage Methods 0.000 title claims abstract description 20
- 230000000007 visual effect Effects 0.000 claims abstract description 157
- 230000003287 optical effect Effects 0.000 claims description 41
- 230000008859 change Effects 0.000 claims description 29
- 238000004590 computer program Methods 0.000 claims description 24
- 238000009434 installation Methods 0.000 claims description 23
- 238000012545 processing Methods 0.000 claims description 20
- 230000011218 segmentation Effects 0.000 claims description 11
- 238000000605 extraction Methods 0.000 claims description 4
- 238000005516 engineering process Methods 0.000 abstract description 24
- 238000013473 artificial intelligence Methods 0.000 abstract description 10
- 230000008569 process Effects 0.000 description 22
- 230000004438 eyesight Effects 0.000 description 14
- 238000004891 communication Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 230000003993 interaction Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 230000004807 localization Effects 0.000 description 6
- 230000009286 beneficial effect Effects 0.000 description 4
- 239000003086 colorant Substances 0.000 description 4
- 102100034753 Centrosomal protein of 95 kDa Human genes 0.000 description 3
- 101710155447 Centrosomal protein of 95 kDa Proteins 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000000712 assembly Effects 0.000 description 2
- 238000000429 assembly Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000016776 visual perception Effects 0.000 description 2
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 238000003912 environmental pollution Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000013439 planning Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 238000012384 transportation and delivery Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
- G01C21/30—Map- or contour-matching
- G01C21/32—Structuring or formatting of map data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
Abstract
本申请实施例提供了一种车道定位方法、装置、计算机设备以及可读存储介质,应用于云技术、人工智能、智慧交通、智能车控制技术、自动驾驶、辅助驾驶、地图导航、车道定位等场景,方法包括:获取目标车辆对应的最近道路可视点;最近道路可视点是指拍摄组件所拍摄到的与目标车辆距离最近的道路位置;根据目标车辆的车辆位置状态信息和最近道路可视点,获取与目标车辆相关联的局部地图数据;最近道路可视点位于局部地图数据内;局部地图数据包括与目标车辆相关联的一个或多个车道;在局部地图数据的一个或多个车道中确定目标车辆所属的目标车道。采用本申请,可以提高定位目标车辆所属的目标车道的准确率。
Description
技术领域
本申请涉及计算机技术领域,尤其涉及一种车道定位方法、装置、计算机设备以及可读存储介质。
背景技术
目前的车道定位方法可以获取目标车辆的车辆位置点,在全局地图数据中获取以车辆位置点为圆心的地图数据(即获取以目标车辆为圆心的地图数据),进而在获取到的地图数据中确定目标车辆所属的目标车道,例如,获取以目标车辆为圆心,5米为半径的圆圈内的地图数据。然而,当目标车辆行驶在车道线颜色或车道线样式类型(即车道线类型)变化剧烈的区域(例如,路口、汇入口、驶出口等区域)时,目前的车道定位方法获取到的地图数据往往和视觉看到的地图数据的差异很大,导致获取到错误的地图数据(即获取到的地图数据与视觉观测到的地图数据不匹配),错误的地图数据使得无法准确获取目标车辆所属的目标车道,从而降低车道级定位的准确率。
发明内容
本申请实施例提供一种车道定位方法、装置、计算机设备以及可读存储介质,可以提高定位目标车辆所属的目标车道的准确率。
本申请实施例一方面提供了一种车道定位方法,包括:
获取目标车辆对应的最近道路可视点;最近道路可视点是由目标车辆和拍摄组件的组件参数所确定的;安装于目标车辆上的拍摄组件用于拍摄目标车辆在行驶方向上的道路;最近道路可视点是指拍摄组件所拍摄到的与目标车辆距离最近的道路位置;
根据目标车辆的车辆位置状态信息和最近道路可视点,获取与目标车辆相关联的局部地图数据;最近道路可视点位于局部地图数据内;局部地图数据包括与目标车辆相关联的一个或多个车道;
在局部地图数据的一个或多个车道中确定目标车辆所属的目标车道。
本申请实施例一方面提供了一种车道定位装置,包括:
可视点获取模块,用于获取目标车辆对应的最近道路可视点;最近道路可视点是由目标车辆和拍摄组件的组件参数所确定的;安装于目标车辆上的拍摄组件用于拍摄目标车辆在行驶方向上的道路;最近道路可视点是指拍摄组件所拍摄到的与目标车辆距离最近的道路位置;
数据获取模块,用于根据目标车辆的车辆位置状态信息和最近道路可视点,获取与目标车辆相关联的局部地图数据;最近道路可视点位于局部地图数据内;局部地图数据包括与目标车辆相关联的一个或多个车道;
车道确定模块,用于在局部地图数据的一个或多个车道中确定目标车辆所属的目标车道。
其中,装置还包括:
边界线确定模块,用于根据拍摄组件的组件参数,确定拍摄组件对应的M条拍摄边界线;M为正整数;M条拍摄边界线包括下边界线;下边界线为M条拍摄边界线中最靠近道路的边界线;
道路点确定模块,用于获取目标车辆所处的地平面,将地平面和下边界线的交点确定为下边界线对应的候选道路点;
道路点确定模块,用于确定拍摄组件与目标车辆的车头边界点所构成的目标切线,将地平面和目标切线的交点确定为目标切线对应的候选道路点;
可视点确定模块,用于将下边界线对应的候选道路点和目标切线对应的候选道路点中距离目标车辆更远的候选道路点,确定为目标车辆对应的最近道路可视点。
其中,拍摄组件的组件参数包括垂直可视角度和组件位置参数;垂直可视角度是指拍摄组件在与地平面垂直的方向上的拍摄角度;组件位置参数是指拍摄组件安装于目标车辆上的安装位置和安装方向;M条拍摄边界线还包括上边界线;
边界线确定模块,具体用于根据组件位置参数中的安装位置和安装方向,确定拍摄组件的主光轴;
边界线确定模块,具体用于对垂直可视角度进行平均划分,得到拍摄组件的平均垂直可视角度;
边界线确定模块,具体用于沿主光轴获取与主光轴形成平均垂直可视角度的下边界线和上边界线;主光轴、上边界线和下边界线位于同一平面上,主光轴、上边界线和下边界线所处的平面垂直于地平面。
其中,数据获取模块包括:
参数确定单元,用于获取目标车辆的车辆位置状态信息中的目标车辆的车辆位置点,根据车辆位置点确定目标车辆对应的圆概率误差;
参数确定单元,用于将最近道路可视点和目标车辆之间的距离确定为道路可视点距离;
第一区域确定单元,用于根据车辆位置状态信息、圆概率误差和道路可视点距离,确定目标车辆对应的区域上限值和目标车辆对应的区域下限值;
第一数据确定单元,用于在全局地图数据中,将区域上限值所指示的道路位置和区域下限值所指示的道路位置之间的地图数据,确定为与目标车辆相关联的局部地图数据;区域上限值所指示的道路位置在行驶方向上位于目标车辆的前方;在行驶方向上,区域上限值所指示的道路位置在区域下限值所指示的道路位置的前方。
其中,车辆位置状态信息还包括目标车辆在车辆位置点上的车辆行驶状态;
第一区域确定单元,具体用于对圆概率误差和道路可视点距离进行第一运算处理,得到目标车辆对应的区域下限值;
第一区域确定单元,具体用于通过车辆行驶状态对道路可视点距离沿行驶方向进行延伸扩展,得到扩展可视点距离,对扩展可视点距离和圆概率误差进行第二运算处理,得到目标车辆对应的区域上限值。
其中,第一数据确定单元,具体用于在全局地图数据中确定车辆位置状态信息对应的地图位置点;
第一数据确定单元,具体用于根据地图位置点和区域下限值,在全局地图数据中确定区域下限值所指示的道路位置;
第一数据确定单元,具体用于根据地图位置点和区域上限值,在全局地图数据中确定区域上限值所指示的道路位置;
第一数据确定单元,具体用于将区域下限值所指示的道路位置和区域上限值所指示的道路位置之间的地图数据,确定为与目标车辆相关联的局部地图数据;局部地图数据属于全局地图数据。
其中,车辆位置状态信息包括目标车辆的车辆行驶状态;
数据获取模块包括:
第二区域确定单元,用于将最近道路可视点和目标车辆之间的距离确定为道路可视点距离,将道路可视点距离确定为目标车辆对应的区域下限值;
第二区域确定单元,用于通过车辆行驶状态对道路可视点距离沿行驶方向进行延伸扩展,得到扩展可视点距离,将扩展可视点距离确定为目标车辆对应的区域上限值;
第二数据确定单元,用于在全局地图数据中,将区域上限值所指示的道路位置和区域下限值所指示的道路位置之间的地图数据,确定为与目标车辆相关联的局部地图数据;区域上限值所指示的道路位置在行驶方向上位于目标车辆的前方;在行驶方向上,区域上限值所指示的道路位置在区域下限值所指示的道路位置的前方。
其中,第二数据确定单元,具体用于在全局地图数据中确定车辆位置状态信息对应的地图位置点;
第二数据确定单元,具体用于根据地图位置点和区域下限值,在全局地图数据中确定区域下限值所指示的道路位置;
第二数据确定单元,具体用于根据地图位置点和区域上限值,在全局地图数据中确定区域上限值所指示的道路位置;
第二数据确定单元,具体用于将区域下限值所指示的道路位置和区域上限值所指示的道路位置之间的地图数据,确定为与目标车辆相关联的局部地图数据;局部地图数据属于全局地图数据。
其中,车道确定模块包括:
区域划分单元,用于根据形变化点和车道数变化点,对局部地图数据进行区域划分,得到局部地图数据中的S个划分地图数据;S为正整数;同一个划分地图数据内的地图车道线数量是固定不变的,同一个划分地图数据内同一条车道线上的地图车道线样式类型和地图车道线颜色是固定不变的;形变化点是指局部地图数据中同一条车道线上的地图车道线样式类型或地图车道线颜色发生变化的位置,车道数变化点是指局部地图数据中地图车道线数量发生变化的位置;
车道识别单元,用于获取拍摄组件所拍摄到的车道线对应的车道线观测信息;
数据匹配单元,用于将车道线观测信息和车辆位置状态信息分别与S个划分地图数据进行匹配,得到每个划分地图数据中的一个或多个车道分别对应的车道概率;
车道确定单元,用于根据S个划分地图数据中的一个或多个车道分别对应的车道概率,在每个划分地图数据分别对应的一个或多个车道中,确定每个划分地图数据分别对应的候选车道,在S个候选车道中确定目标车辆所属的目标车道。
其中,车道识别单元包括:
图像获取子单元,用于获取拍摄组件所拍摄的行驶方向上的道路对应的道路图像;
要素分割子单元,用于对道路图像进行要素分割,得到道路图像中的车道线;
属性识别子单元,用于对车道线进行属性识别,得到车道线对应的车道线观测信息。
其中,车道线观测信息包括车道线对应的车道线颜色和车道线对应的车道线样式类型;
属性识别子单元,具体用于将车道线输入至属性识别模型,通过属性识别模型对车道线进行特征提取,得到车道线对应的颜色属性特征和车道线对应的样式类型属性特征;
属性识别子单元,具体用于根据车道线对应的颜色属性特征确定车道线颜色,根据车道线对应的样式类型属性特征确定车道线样式类型;车道线颜色用于与局部地图数据中的地图车道线颜色进行匹配,车道线样式类型用于与局部地图数据中的地图车道线样式类型进行匹配。
其中,车道线的数量为至少两条;车道线观测信息包括车道线方程;
属性识别子单元,具体用于对至少两条车道线进行逆透视变化,得到至少两条车道线分别对应的变化后的车道线;
属性识别子单元,具体用于对至少两条变化后的车道线分别进行拟合重建,得到每条变化后的车道线分别对应的车道线方程;车道线方程用于与局部地图数据中的形点坐标进行匹配;局部地图数据中的形点坐标用于拟合局部地图数据中的一个或多个车道的道路形状。
其中,S个划分地图数据包括划分地图数据Li,i为小于或等于S的正整数;
车道确定单元包括:
车道获取子单元,用于将划分地图数据Li的一个或多个车道分别对应的车道概率中的最大车道概率,确定为划分地图数据Li对应的候选概率,将划分地图数据Li的一个或多个车道中具有最大车道概率的车道确定为划分地图数据Li对应的候选车道;
权重确定子单元,用于获取目标车辆分别和S个划分地图数据之间的纵向平均距离,根据最近道路可视点和S个纵向平均距离确定S个划分地图数据分别对应的区域权重;
权重确定子单元,用于将属于相同划分地图数据的候选概率和区域权重进行相乘,得到S个划分地图数据分别对应的可信权重;
车道确定子单元,用于将S个可信权重中的最大可信权重所对应的候选车道,确定为目标车辆所属的目标车道。
其中,划分地图数据Li包括区域上边界和区域下边界;在行驶方向上,区域上边界所指示的道路位置在区域下边界所指示的道路位置的前方;
权重确定子单元,具体用于确定目标车辆和划分地图数据Li的区域上边界所指示的道路位置之间的上边界距离,确定目标车辆和划分地图数据Li的区域下边界所指示的道路位置之间的下边界距离;
权重确定子单元,具体用于将划分地图数据Li对应的上边界距离和划分地图数据Li对应的下边界距离之间的平均值,确定为目标车辆和划分地图数据Li之间的纵向平均距离。
本申请实施例一方面提供了一种计算机设备,包括:处理器和存储器;
处理器与存储器相连,其中,存储器用于存储计算机程序,计算机程序被处理器执行时,使得该计算机设备执行本申请实施例提供的方法。
本申请实施例一方面提供了一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,该计算机程序适于由处理器加载并执行,以使得具有该处理器的计算机设备执行本申请实施例提供的方法。
本申请实施例一方面提供了一种计算机程序产品,该计算机程序产品包括计算机程序,该计算机程序存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机程序,处理器执行该计算机程序,使得该计算机设备执行本申请实施例提供的方法。
本申请实施例可以获取目标车辆对应的最近道路可视点,根据目标车辆的车辆位置状态信息和最近道路可视点,获取与目标车辆相关联的局部地图数据,进而在局部地图数据的一个或多个车道中确定目标车辆所属的目标车道。其中,最近道路可视点是由目标车辆和拍摄组件的组件参数所确定的,安装于目标车辆上的拍摄组件用于拍摄目标车辆在行驶方向上的道路;最近道路可视点是指拍摄组件所拍摄到的与目标车辆距离最近的道路位置,最近道路可视点位于局部地图数据内。由此可见,本申请实施例提出了一种细致的车道级定位方法,该方法可以综合考虑目标车辆对应的最近道路可视点和目标车辆的车辆位置状态信息,获取准确的局部地图数据,由于考虑了目标车辆的视觉所观测到的离目标车辆距离最近的道路位置,所以局部地图数据与目标车辆的视觉所看到的地图数据是相匹配的。可以理解的是,当在与视觉相匹配的局部地图数据中确定目标车辆所属的目标车道时,可以准确定位目标车辆所属的目标车道,从而提高定位目标车辆所属的目标车道的准确率,即提高车道级定位的准确率。
附图说明
为了更清楚地说明本申请实施例或相关技术中的技术方案,下面将对实施例或相关技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种网络架构的结构示意图;
图2是本申请实施例提供的一种进行数据交互的场景示意图;
图3是本申请实施例提供的一种车道定位方法的流程示意图;
图4是本申请实施例提供的一种摄像头建模的场景示意图;
图5是本申请实施例提供的一种确定道路可视点距离的场景示意图;
图6是本申请实施例提供的一种确定道路可视点距离的场景示意图;
图7是本申请实施例提供的一种车道级定位的流程示意图;
图8是本申请实施例提供的一种车道定位方法的流程示意图;
图9是本申请实施例提供的一种识别车道线的场景示意图;
图10是本申请实施例提供的一种车辆坐标系的示意图;
图11是本申请实施例提供的一种进行区域划分的场景示意图;
图12是本申请实施例提供的一种车道定位装置的结构示意图;
图13是本申请实施例提供的一种计算机设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习、自动驾驶、智慧交通等几大方向。
智能交通系统(Intelligent Traffic System,ITS)又称智能运输系统(Intelligent Transportation System),是将先进的科学技术(信息技术、计算机技术、数据通信技术、传感器技术、电子控制技术、自动控制理论、运筹学、人工智能等)有效地综合运用于交通运输、服务控制和车辆制造,加强车辆、道路、使用者三者之间的联系,从而形成一种保障安全、提高效率、改善环境、节约能源的综合运输系统。
其中,智能车路协同系统(Intelligent Vehicle Infrastructure CooperativeSystems,IVICS),简称车路协同系统,是智能交通系统(ITS)的一个发展方向。车路协同系统是采用先进的无线通信和新一代互联网等技术,全方位实施车车、车路动态实时信息交互,并在全时空动态交通信息采集与融合的基础上开展车辆主动安全控制和道路协同管理,充分实现人车路的有效协同,保证交通安全,提高通行效率,从而形成的安全、高效和环保的道路交通系统。
应当理解,地图数据可以包括SD(Standard Definition,标准)数据、HD(HighDefinition,高精度)数据和车道级数据。SD数据为普通道路数据,主要记录道路的基本属性,例如,道路长度、车道数、方向和车道拓扑信息等;HD数据为高精道路数据,记录精确且丰富的道路信息,例如,道路车道线方程/形点坐标、车道类型、车道限速、车道标线类型、电线杆坐标、指路牌位置、摄像头、红绿灯位置等;车道级数据比SD数据更丰富、但又达不到SD数据的规格,包含道路的车道级信息,例如,道路车道线方程/形点坐标、车道类型、车道限速、车道标线类型、车道拓扑信息等。其中,地图数据中不直接存储道路车道线方程,而是使用形点坐标来拟合道路形状。
具体的,请参见图1,图1是本申请实施例提供的一种网络架构的结构示意图。如图1所示,该网络架构可以包括服务器2000和车载终端集群。其中,车载终端集群具体可以包括一个或者多个车载终端,这里将不对车载终端集群中的车载终端的数量进行限定。如图1所示,多个车载终端具体可以包括车载终端3000a、车载终端3000b、车载终端3000c、…、车载终端3000n;车载终端3000a、车载终端3000b、车载终端3000c、…、车载终端3000n可以分别与服务器2000进行网络连接,以便于每个车载终端可以通过该网络连接与服务器2000之间进行数据交互。同理,车载终端3000a、车载终端3000b、车载终端3000c、…、车载终端3000n之间可以存在通信连接,以实现信息交互,例如,车载终端3000a和车载终端3000b之间可以存在通信连接。
其中,车载终端集群中的每个车载终端可以是智能驾驶车辆,也可以是不同级别的自动驾驶车辆,此外,每个车载终端的车辆类型包括但不限于小车、中型车、大型车、货物车、救护车、消防车等,本申请实施例不对车载终端的车辆类型进行限定。
可以理解的是,如图1所示的车载终端集群中的每个车载终端均可以安装有具备车道定位功能的应用客户端,当该应用客户端运行于各车载终端中时,可以分别与上述图1所示的服务器2000之间进行数据交互。为便于理解,本申请实施例可以在图1所示的多个车载终端中选择一个车载终端作为目标车载终端。例如,本申请实施例可以将图1所示的车载终端3000b作为目标车载终端。为便于理解,本申请实施例可以将目标车载终端称之为目标车辆,该目标车辆中可以安装有具备车道定位功能的应用客户端,目标车辆可以通过该应用客户端与服务器2000之间进行数据交互。
其中,服务器2000可以为应用客户端对应的服务器,服务器2000可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN(Content Delivery Network,内容分发网络)、以及大数据和人工智能平台等基础云计算服务的云服务器。
应当理解,本申请实施例中的计算机设备可以获取目标车辆对应的最近道路可视点,根据目标车辆的车辆位置状态信息和最近道路可视点(本申请实施例还可以将最近道路可视点称之为第一地面可视点),在全局地图数据中获取与目标车辆相关联的局部地图数据,进而在局部地图数据的一个或多个车道中确定目标车辆所属的目标车道。其中,最近道路可视点是由目标车辆和拍摄组件的组件参数所确定的,安装于目标车辆上的拍摄组件用于拍摄目标车辆在行驶方向上的道路;最近道路可视点是指拍摄组件所拍摄到的与目标车辆距离最近的道路位置,最近道路可视点位于局部地图数据内。
其中,本申请实施例所提供的车道定位方法可以由服务器2000执行(即上述计算机设备可以为服务器2000),也可以由目标车辆执行(即上述计算机设备可以为目标车辆),还可以由服务器2000和目标车辆共同执行。为便于理解,本申请实施例可以将目标车辆对应的用户称之为目标对象。
其中,在车道定位方法由服务器2000和目标车辆共同执行时,目标对象可以通过目标车辆中的应用客户端向服务器2000发送车道定位请求。其中,车道定位请求可以包括目标车辆对应的最近道路可视点和目标车辆的车辆位置状态信息。这样,服务器2000可以根据车辆位置状态信息和最近道路可视点,在全局地图数据中获取与目标车辆相关联的局部地图数据,进而将局部地图数据返回至目标车辆,以使目标车辆在局部地图数据的一个或多个车道中确定目标车道。
可选的,在车道定位方法由服务器2000执行时,目标对象可以通过目标车辆中的应用客户端向服务器2000发送车道定位请求。其中,车道定位请求可以包括目标车辆对应的最近道路可视点和目标车辆的车辆位置状态信息。这样,服务器2000可以根据车辆位置状态信息和最近道路可视点,在全局地图数据中获取与目标车辆相关联的局部地图数据,进而在局部地图数据的一个或多个车道中确定目标车道,将目标车道返回至目标车辆。
可选的,在车道定位方法由目标车辆执行时,目标车辆可以根据目标车辆对应的最近道路可视点和目标车辆的车辆位置状态信息,在全局地图数据中获取与目标车辆相关联的局部地图数据,进而在局部地图数据的一个或多个车道中确定目标车道。其中,全局地图数据是由目标车辆从服务器2000中所获取的,目标车辆可以从车辆本地数据库中离线获取全局地图数据,也可以从服务器2000中在线获取全局地图数据,车辆本地数据库中的全局地图数据可以为目标车辆在当前时刻的上一时刻从服务器2000中所获取的。
可选的,本申请实施例所提供的车道定位方法还可以由目标对象对应的目标终端设备执行,目标终端设备可以包括智能手机、平板电脑、笔记本电脑、台式计算机、智能语音交互设备、智能家电(例如,智能电视)、可穿戴设备、飞行器等具有车道定位功能的智能终端。目标终端设备可以与目标车辆通过有线或无线通信方式进行直接或间接地网络连接,同理,目标终端设备中可以安装有具备车道定位功能的应用客户端,目标终端设备可以通过该应用客户端与服务器2000之间进行数据交互。比如,在目标终端设备为智能手机时,目标终端设备可以从目标车辆处获取目标车辆对应的最近道路可视点和目标车辆对应的车辆位置状态,从服务器2000处获取全局地图数据,进而根据车辆位置状态信息和最近道路可视点,在全局地图数据中获取与目标车辆相关联的局部地图数据,在局部地图数据的一个或多个车道中确定目标车道。此时,目标终端设备可以在应用客户端中显示目标车辆所属的目标车道。
应当理解,本申请实施例可以应用于云技术、人工智能、智慧交通、智能车控制技术、自动驾驶、辅助驾驶、地图导航、车道定位等场景。随着车载终端的数量不断增加,地图导航的应用越来越广泛,地图导航场景中车辆的车道级定位(即确定目标车辆所属的目标车道)非常重要,车道级定位对于车辆确定自身所处横向位置、制定导航策略具有重要的意义。此外,车道级定位的结果(即定位目标车道)还可以用于进行车道级的路径规划和引导,一方面可以提高现有道路网络的车辆通行率、缓解交通拥堵,另一方面可以提高汽车行驶安全、降低交通事故率、改善交通安全、降低能源消耗和降低环境污染。
为便于理解,进一步地,请参见图2,图2是本申请实施例提供的一种进行数据交互的场景示意图。如图2所示的服务器20a可以为上述图1所对应实施例中的服务器2000,如图2所示的目标车辆20b可以为上述图1所对应实施例中的目标车载终端。其中,目标车辆20b上可以安装有拍摄组件21b,拍摄组件21b可以为目标车辆20b上用于拍摄照片的摄像头。为便于理解,本申请实施例以车道定位方法由目标车辆20b执行为例进行说明。
如图2所示,目标车辆20b可以获取目标车辆20b对应的最近道路可视点,最近道路可视点是由目标车辆20b和拍摄组件21b的组件参数所确定,安装于目标车辆20b上的拍摄组件21b可以用于拍摄目标车辆20b在行驶方向上的道路。其中,目标车辆20b的行驶方向可以如图2所示,最近道路可视点在目标车辆20b的行驶方向上,最近道路可视点是指拍摄组件21b所拍摄到的与目标车辆20b距离最近的道路位置。
如图2所示,目标车辆20b可以向服务器20a发送地图数据获取请求,这样,服务器20a在接收到地图数据获取请求之后,可以从地图数据库21a中获取与目标车辆20b相关联的全局地图数据。应当理解,本申请实施例不对与目标车辆20b相关联的全局地图数据的范围进行限定。其中,地图数据库21a可以单独设置,也可以集成在服务器20a上,或者集成在其他设备或云上,这里不做限定。地图数据库21a中可以包括多个数据库,多个数据库具体可以包括:数据库22a,…,数据库22b。
其中,数据库22a,…,数据库22b可以用于存储不同国家的地图数据,数据库22a,…,数据库22b中的地图数据是由服务器20a所生成并存储的。例如,数据库22a可以用于存储国家G1的地图数据,数据库22b可以用于存储国家G2的地图数据。这样,若目标车辆20b所在的国家为国家G1,则服务器20a可以从数据库22a中获取国家G1的地图数据,将国家G1的地图数据确定为与目标车辆20b相关联的全局地图数据(即与目标车辆20b相关联的全局地图数据的范围为国家)。可选的,与目标车辆20b相关联的全局地图数据还可以为目标车辆20b所在的城市的地图数据,此时,服务器20a可以从数据库22a中获取国家G1的地图数据,进而从国家G1的地图数据中获取目标车辆20b所在的城市的地图数据,将目标车辆20b所在的城市的地图数据确定为与目标车辆20b相关联的全局地图数据(即与目标车辆20b相关联的全局地图数据的范围为城市)。应当理解,本申请实施例不对全局地图数据的范围进行限定。
进一步地,如图2所示,服务器20a在获取到与目标车辆20b相关联的全局地图数据之后,可以将全局地图数据返回至目标车辆20b,这样,目标车辆20b可以根据目标车辆20b的车辆位置状态信息和最近道路可视点,在全局地图数据中获取与目标车辆20b相关联的局部地图数据。其中,最近道路可视点位于局部地图数据内,局部地图数据属于全局地图数据;换言之,局部地图数据和全局地图数据均为与目标车辆20b相关联的地图数据,全局地图数据的范围大于局部地图数据的范围,例如,全局地图数据为目标车辆20b所在城市的地图数据,局部地图数据为目标车辆20b所在街道的地图数据。
此外,局部地图数据可以为局部区域(例如,街道)的车道级数据,可选的,局部地图数据也可以为局部区域的SD数据,还可以为局部区域的HD数据,本申请对此不进行限定。同理,全局地图数据可以为全局区域(例如,城市)的车道级数据,可选的,全局地图数据也可以为全局区域的SD数据,还可以为全局区域的HD数据,本申请对此不进行限定。为便于理解,本申请实施例以局部地图数据为车道级数据为例进行说明,在局部地图数据为车道级数据时,本申请可以通过车道级数据确定目标车辆20b所属的目标车道,而无需使用高精数据(即HD数据)来确定目标车辆20b所属的目标车道,此外,通过安装于目标车辆20b上的拍摄组件21b即可确定最近道路可视点,因此,本申请实施例所提供的车道级定位方案所考虑的影响因素可以降低技术成本,从而更好地支持量产。
其中,车辆位置状态信息可以包括目标车辆20b的车辆位置点和目标车辆20b在车辆位置点上的车辆行驶状态,车辆位置点可以为由经度和纬度所组成的坐标,车辆行驶状态可以包括但不限于目标车辆20b的行驶速度(即车辆速度信息)和行驶航向角(即车辆航向角度信息)等。
其中,如图2所示,局部地图数据可以包括与目标车辆20b相关联的一个或多个车道,本申请实施例不对局部地图数据中的车道的数量进行限定,为便于理解,这里以局部地图数据中的车道的数量为3个为例进行说明,3个车道可以包括车道23a、车道23b和车道23c。进一步地,目标车辆20b可以在局部地图数据的3个车道中确定目标车辆20b所属的目标车道(即目标车辆20b所行驶的车道),例如,目标车辆20b所属的目标车道可以为车道23c。
由此可见,本申请实施例可以综合考虑目标车辆对应的最近道路可视点和目标车辆的车辆位置状态信息,在全局地图数据中获取局部地图数据。由于最近道路可视点为拍摄组件所拍摄到的与目标车辆距离最近的道路位置,所以基于最近道路可视点所生成的局部地图数据与目标车辆的视觉相匹配,从而可以提高获取到的局部地图数据的准确度,进而在准确度高的局部地图数据中确定目标车辆所属的目标车道时,可以提高定位目标车辆所属的目标车道的准确率。应当理解,在城市道路的驾驶(例如,自动驾驶)场景中,道路的变化极其复杂,在路口、汇入口、驶出口等区域处车道线颜色或车道线样式类型变化更为剧烈,通过分析最近道路可视点可以确保获取到的局部地图数据更好地涵盖这些复杂的路况,保证在复杂路况定位目标车道的过程中提高车道级定位的准确率,从而为城市道路提供更好、更安全的自动驾驶。
进一步地,请参见图3,图3是本申请实施例提供的一种车道定位方法的流程示意图。该方法可以由服务器执行,也可以由车载终端执行,还可以由服务器和车载终端共同执行,该服务器可以为上述图2所对应实施例中的服务器20a,该车载终端可以为上述图2所对应实施例的目标车辆20b。为便于理解,本申请实施例以该方法由车载终端执行为例进行说明。其中,该车道定位方法可以包括以下步骤S101-步骤S103:
步骤S101,获取目标车辆对应的最近道路可视点;
其中,最近道路可视点是由目标车辆和拍摄组件的组件参数所确定的,安装于目标车辆上的拍摄组件用于拍摄目标车辆在行驶方向上的道路,最近道路可视点是指拍摄组件所拍摄到的与目标车辆距离最近的道路位置;换言之,安装在目标车辆上的拍摄组件在所拍摄的道路图像里能看到的最近地面位置称之为最近道路可视点,最近道路可视点又称之为第一地面可视点(即目标车辆第一视角所看到的地面可视点),简称第一可视点。
应当理解,根据目标车辆和组件参数确定最近道路可视点的具体过程可以描述为:根据拍摄组件的组件参数,确定拍摄组件对应的M条拍摄边界线。其中,这里的M可以为正整数;M条拍摄边界线包括下边界线,下边界线为M条拍摄边界线中最靠近道路的边界线。进一步地,获取目标车辆所处的地平面,将地平面和下边界线的交点确定为下边界线对应的候选道路点。进一步地,确定拍摄组件与目标车辆的车头边界点所构成的目标切线(即从拍摄组件的光心发出的与车头边界点的切线),将地平面和目标切线的交点确定为目标切线对应的候选道路点。其中,车头边界线为目标切线与目标车辆所形成的切点。进一步地,将下边界线对应的候选道路点和目标切线对应的候选道路点中距离目标车辆更远的候选道路点,确定为目标车辆对应的最近道路可视点。
其中,目标车辆的位置是由目标车辆的自车定位点(即自车实际位置)所确定的,例如,自车定位点可以为目标车辆的前轴中点、车头中点、后轴中点等,本申请实施例不对目标车辆的自车定位点的具体位置进行限定。为便于理解,本申请实施例可以将目标车辆的后轴中点作为目标车辆的自车定位点,可选的,目标车辆的后轴中点还可以为目标车辆的质心。
其中,可以理解的是,目标车辆所处的地平面可以为目标车辆在行驶的过程中所处的地面,也可以为目标车辆在行驶之前所处的地面;换言之,目标车辆对应的最近道路可视点可以在目标车辆行驶的过程中实时确定,也可以为目标车辆在行驶之前确定(即在车辆静止的情况下,在平面上提前计算目标车辆对应的最近道路可视点)。此外,目标车辆所处的地面可以被拟合为一条直线,目标车辆所处的地面可以称之为目标车辆所处的地平面。
其中,拍摄组件的组件参数包括垂直可视角度和组件位置参数;垂直可视角度是指拍摄组件在与地平面垂直的方向上的拍摄角度,组件位置参数是指拍摄组件安装于目标车辆上的安装位置和安装方向;M条拍摄边界线还包括上边界线,上边界线为M条拍摄边界线中最远离道路的边界线。应当理解,根据拍摄组件的组件参数确定拍摄组件对应的M条拍摄边界线的具体过程可以描述为:根据组件位置参数中的安装位置和安装方向,确定拍摄组件的主光轴。进一步地,对垂直可视角度进行平均划分,得到拍摄组件的平均垂直可视角度。进一步地,沿主光轴获取与主光轴形成平均垂直可视角度的下边界线和上边界线。其中,主光轴、上边界线和下边界线位于同一平面上,主光轴、上边界线和下边界线所处的平面垂直于地平面;上边界线和主光轴之间的角度等于平均垂直可视角度,下边界线和主光轴之间的角度等于平均垂直可视角度。
其中,目标车辆所处位置的道路图像可以通过单目摄像头拍摄(即拍摄组件可以为单目摄像头),拍摄组件可以根据目标车辆的形态选择不同的安装位置,拍摄组件的安装方向可以为任意方向(例如,车辆正前方),本申请实施例不对拍摄组件的安装位置和安装方向进行限定。例如,拍摄组件可以安装于目标车辆的挡风玻璃处,车顶前部外沿等。可选的,单目摄像头还可以由带有图像采集功能的其他设备(例如,行车记录仪、智能手机)替代,以节省对目标车辆所处位置的道路图像进行采集的硬件成本。
应当理解,安装在目标车辆上的拍摄组件可以有视野参数的定义,例如,视野参数可以包括水平视角α和垂直视角β,水平视角表示拍摄组件在水平方向上的可视角度(即水平可视角度,同广角的概念),垂直视角(即垂直可视角度)表示拍摄组件在垂直方向的可视角度。其中,通过水平视角可以确定拍摄组件在水平方向上的可视范围,通过垂直视角可以确定拍摄组件在垂直方向上的可视范围。其中,垂直视角所构成的两条拍摄边界线可以为上边界线和下边界线,上边界线和下边界为垂直方向上的可视范围所对应的边界线。
为便于理解,请参见图4,图4是本申请实施例提供的一种摄像头建模的场景示意图。如图4所示,拍摄组件可以表示为带有像平面40a和棱镜40b的光学系统,棱镜40b可以包括光心40c,光心40c可以表示棱镜40b的中心点,通过光心40c的直线可以称之为主光轴40d,与主光轴40d形成平均垂直可视角度的边界线可以为上边界线41a(即上边界41a)和下边界线41b(即下边界41b),上边界线41a和下边界线41b为拍摄组件在垂直视角上的边界线。此外,基于图4所示的主光轴40d还可以确定(M-2)条边界线,例如,拍摄组件在水平视角上的两条边界线,这里不对拍摄组件对应的M条边界线进行一一列举。
其中,拍摄组件可视的上边界线41a与主光轴40d之间的夹角为夹角42a,拍摄组件可视的下边界线41b与主光轴40d之间的夹角为夹角42b,夹角42a等于夹角42b,夹角42a和夹角42b均等于β/2(即平均垂直可视角度),β表示垂直可视角度。
其中,将拍摄组件安装到目标车辆上可以参见图5,图5是本申请实施例提供的一种确定道路可视点距离的场景示意图,图5假设拍摄组件安装在目标车辆的前挡风玻璃处。如图5所示,拍摄组件的主光轴可以为主光轴50b,拍摄组件的上边界线可以为上边界线51a(即直线51a),拍摄组件的下边界线可以为下边界线51b(即直线51b),拍摄组件与目标车辆的车头边界点所构成的目标切线可以为目标切线51c(即切线51c),目标车辆所处的地面可以为地平面50c,拍摄组件的光心为光心50a。
如图5所示,地平面50c和直线51b在车辆前方会有一个交点52a(即下边界线51b对应的候选道路点52a),地平面50c和切线51c在车辆前方会有一个交点52b(即目标切线51c对应的候选道路点52b),本申请实施例可以将候选道路点52a和候选道路点52b中离自车定位点53a(本申请实施例以自车定位表示点53a为目标车辆的后轴中心为例进行说明)更远的点(即候选道路点52a)作为最近道路可视点,即候选道路点52a到自车定位点53a的距离大于候选道路点52b到自车定位点53a的距离。此外,本申请实施例可以将最近道路可视点52a和目标车辆的自车定位点53a之间的距离确定为道路可视点距离53b。
其中,将拍摄组件安装到目标车辆上可以参见图6,图6是本申请实施例提供的一种确定道路可视点距离的场景示意图,图6假设拍摄组件安装在目标车辆的前挡风玻璃处。如图6所示,拍摄组件的主光轴可以为主光轴60b,拍摄组件的上边界线可以为上边界线61a(即直线61a),拍摄组件的下边界线可以为下边界线61b(即直线61b),拍摄组件与目标车辆的车头边界点所构成的目标切线可以为目标切线61c(即切线61c),目标车辆所处的地面可以为地平面60c,拍摄组件的光心为光心60a。
如图6所示,地平面60c和直线61b在车辆前方会有一个交点62a(即下边界线61b对应的候选道路点62a),地平面60c和切线61c在车辆前方会有一个交点62b(即目标切线61c对应的候选道路点62b),本申请实施例可以将候选道路点62a和候选道路点62b中离自车定位点63a(本申请实施例以自车定位表示点63a为目标车辆的后轴中心为例进行说明)更远的点(即候选道路点62a)作为最近道路可视点,即候选道路点62b到自车定位点63a的距离大于候选道路点62a到自车定位点53a的距离。此外,本申请实施例可以将最近道路可视点62a和目标车辆的自车定位点63a之间的距离确定为道路可视点距离63b。
步骤S102,根据目标车辆的车辆位置状态信息和最近道路可视点,获取与目标车辆相关联的局部地图数据;
应当理解,获取与目标车辆相关联的局部地图数据的具体过程可以描述为:获取目标车辆的车辆位置状态信息中的目标车辆的车辆位置点,根据车辆位置点确定目标车辆对应的圆概率误差。进一步地,将最近道路可视点和目标车辆之间的距离确定为道路可视点距离。进一步地,根据车辆位置状态信息、圆概率误差和道路可视点距离,确定目标车辆对应的区域上限值和目标车辆对应的区域下限值。进一步地,在全局地图数据中,将区域上限值所指示的道路位置和区域下限值所指示的道路位置之间的地图数据,确定为与目标车辆相关联的局部地图数据。其中,区域上限值所指示的道路位置在行驶方向上位于目标车辆的前方,即在行驶方向上,区域上限值所指示的道路位置在目标车辆的前方;在行驶方向上,区域上限值所指示的道路位置在区域下限值所指示的道路位置的前方;在行驶方向上,区域下限值所指示的道路位置在目标车辆的前方或后方。其中,最近道路可视点位于局部地图数据内;局部地图数据可以包括与目标车辆相关联的一个或多个车道。
其中,车辆位置状态信息包括目标车辆的车辆位置点和目标车辆在车辆位置点上的车辆行驶状态,根据目标车辆的车辆位置点可以确定目标车辆对应的圆概率误差。可以理解的是,通过精度估计(即精度测量)可以确定目标车辆对应的圆概率误差,精度测量是计算定位位置(即车辆位置点)和真实位置间差异的过程,真实位置是真实存在的,定位位置是由定位方法或定位系统获得的。
应当理解,本申请实施例不对精度估计的具体过程进行限定,比如,本申请实施例可以考虑GNSS(global navigation satellite system,全球导航卫星系统)卫星质量、传感器噪声、视觉置信度等因素来建立数学模型,以获得一个综合误差估计。其中,综合误差估计可以用圆概率误差(circular error probable,CEP)表示,圆概率误差是以目标车辆为圆心划一个半径为r的圆圈,真实位置有多大概率会落在这个圆内,圆概率误差即为圆圈的半径r;圆概率误差以CEPX表示,X是表示概率的数字。例如,可以用CEP95(即X等于95)或者CEP99(即X等于99)等圆概率误差的形式表示;误差CEP95=r,表示真实位置在以输出位置(即车辆定位点)为圆心,r为半径的圆内的概率为95%,误差CEP99=r,表示真实位置在以输出位置(即车辆定位点)为圆心,r为半径的圆内的概率为99%。比如,定位精度的CEP95为5m,表示有95%的概率实际定位点(即真实位置)在给出定位点(即车辆定位点)为圆心的半径5m圆内。
其中,全球导航卫星系统可以包括但不仅限于全球定位系统(globalpositioning system,GPS),GPS是一种以人造地球卫星为基础的高精度无线电导航的定位系统,它在全球任何地方以及近地空间都能够提供准确的地理位置及精确的时间信息。
可以理解的是,本申请实施例可以获取目标车辆在历史定位时段的历史状态信息,根据历史状态信息确定目标车辆的车辆定位点(即定位点信息),车辆定位点用于表示目标车辆的位置坐标(即经纬度坐标)。其中,历史状态信息包括但不限于全球定位系统信息(例如,基于GNSS定位的PPP定位(Precise Point Positioning,精密单点定位技术)、基于GNSS定位的RTK定位(Real-time kinematic,实时差分定位))、车辆控制信息、车辆视觉感知信息以及惯性测量单元(Inertial Measurement Unit,IMU)信息等。可选的,本申请实施例还可以通过全球定位系统直接确定目标车辆的经纬度坐标。
其中,历史定位时段可以为当前时刻的前一段时间间隔,本申请实施例不对历史定位时段的时间长度进行限定;车辆控制信息可以表示目标对象针对目标车辆的控制行为,车辆视觉感知信息可以表示目标车辆通过拍摄组件所感知到的车道线颜色、车道线样式类型等,全球定位系统信息表示目标车辆的经度和纬度,惯性测量单元信息表示主要由加速度计和陀螺仪组成,是测量物体三轴姿态角(或角速率)和加速度的装置。
应当理解,根据车辆位置状态信息、圆概率误差和道路可视点距离,确定目标车辆对应的区域上限值和目标车辆对应的区域下限值的具体过程可以描述为:对圆概率误差和道路可视点距离进行第一运算处理,得到目标车辆对应的区域下限值。例如,第一运算处理可以为减法运算,道路可视点距离可以为减数,圆概率误差可以为被减数。进一步地,通过车辆行驶状态对道路可视点距离沿行驶方向进行延伸扩展,得到扩展可视点距离,对扩展可视点距离和圆概率误差进行第二运算处理,得到目标车辆对应的区域上限值。其中,扩展可视点距离大于道路可视点距离。可选的,第二运算处理可以为加法运算。
换言之,本申请实施例可以以自车定位点(即车辆位置点)为中心,取目标车辆后方L-r(即区域下限值)到目标车辆前方r+D(即区域上限值)的地图数据(例如,车道级数据),r为自车定位误差(即圆概率误差),D表示扩展可视点距离,L表示道路可视点距离。其中,r可以为正数,L可以为正数,D可以为大于L的正数,本申请实施例不对r、L和D所使用的单位进行限定,例如,r所使用的单位可以为米、公里等,L所使用的单位可以为米、公里等,D所使用的单位可以为米、公里等。
其中,车辆行驶状态可以包括但不限于目标车辆的行驶速度和目标车辆的行驶航向角,行驶速度可以用于确定扩展可视点距离,行驶速度越大则扩展可视点距离越大,换言之,行驶速度可以用于确定对道路可视点距离进行延伸扩展的程度,行驶速度越大则延伸扩展的程度越大。比如,在行驶速度较低时,D=L+25;又比如,在行驶速度较高时,D=L+30。
因此,本申请实施例可以有效将自车定位精度(即圆概率误差)和第一可视点(即最近道路可视点)的客观影响考虑进算法中(即结合定位精度估计和第一可视点),确定拍摄组件所给视觉识别结果的对应纵向范围,增强算法的适应性,保证下述步骤S103中准确的车道级定位。
其中,车辆位置状态信息包括目标车辆的车辆行驶状态。可选的,获取与目标车辆相关联的局部地图数据的具体过程还可以描述为:将最近道路可视点和目标车辆之间的距离确定为道路可视点距离,将道路可视点距离确定为目标车辆对应的区域下限值。进一步地,通过车辆行驶状态对道路可视点距离沿行驶方向进行延伸扩展,得到扩展可视点距离,将扩展可视点距离确定为目标车辆对应的区域上限值。进一步地,在全局地图数据中,将区域上限值所指示的道路位置和区域下限值所指示的道路位置之间的地图数据,确定为与目标车辆相关联的局部地图数据。其中,区域上限值所指示的道路位置在行驶方向上位于目标车辆的前方,即在行驶方向上,区域上限值所指示的道路位置在目标车辆的前方;在行驶方向上,区域上限值所指示的道路位置在区域下限值所指示的道路位置的前方;在行驶方向上,区域下限值所指示的道路位置在目标车辆的前方或后方。其中,最近道路可视点位于局部地图数据内;局部地图数据可以包括与目标车辆相关联的一个或多个车道。
换言之,本申请实施例可以以自车定位点(即车辆位置点)为中心,取目标车辆后方L(即区域下限值)到目标车辆前方D(即区域上限值)的地图数据(例如,车道级数据),D表示扩展可视点距离,L表示道路可视点距离。其中,L可以为正数,D可以为大于L的正数。
因此,本申请实施例可以有效将第一可视点(即最近道路可视点)的客观影响考虑进算法中,确定拍摄组件所给视觉识别结果的对应纵向范围,增强算法的适应性,保证下述步骤S103中准确的车道级定位。
其中,在全局地图数据中,将区域上限值所指示的道路位置和区域下限值所指示的道路位置之间的地图数据,确定为与目标车辆相关联的局部地图数据的具体过程可以描述为:在全局地图数据中确定车辆位置状态信息对应的地图位置点。进一步地,根据地图位置点和区域下限值,在全局地图数据中确定区域下限值所指示的道路位置。其中,若区域下限值为正数,则在行驶方向上,区域下限值所指示的道路位置在地图位置点的前方;可选的,若区域下限值为负数,则在行驶方向上,区域下限值所指示的道路位置在地图位置点的后方。进一步地,根据地图位置点和区域上限值,在全局地图数据中确定区域上限值所指示的道路位置。进一步地,将区域下限值所指示的道路位置和区域上限值所指示的道路位置之间的地图数据,确定为与目标车辆相关联的局部地图数据。其中,局部地图数据属于全局地图数据。
其中,可以理解的是,行驶航向角可以用于确定局部地图数据,比如,在区域上限值所指示的道路位置和区域下限值所指示的道路位置之间的地图数据的数量为至少两个时(即岔路口),本申请实施例可以通过行驶航向角在至少两个地图数据中确定与目标车辆相关联的局部地图数据。比如,在行驶航向角为西方、地图数据的数量为两个时,将两个地图数据中朝向为西方的地图数据作为局部地图数据,例如,将行驶过程中所看到的两个地图数据中的左侧地图数据作为局部地图数据。
步骤S103,在局部地图数据的一个或多个车道中确定目标车辆所属的目标车道。
其中,本申请实施例可以获取拍摄组件所拍摄到的车道线对应的车道线观测信息,将车道线观测信息、车辆位置状态信息和局部地图数据进行匹配,得到局部地图数据中的一个或多个车道分别对应的车道概率,将最大车道概率所对应的车道确定为目标车辆所属的目标车道。
可选的,申请实施例也可以对局部地图数据进行区域划分,根据区域划分所得到的划分地图数据、车道线观测信息和车辆位置状态信息来确定目标车辆所属的目标车道。其中,根据划分地图数据、车道线观测信息和车辆位置状态信息确定目标车辆所属的目标车道的具体过程可以参见下述图8所对应实施例中对步骤S1031-步骤S1034的描述。
为便于理解,请参见图7,图7是本申请实施例提供的一种车道级定位的流程示意图。如图7所示的车道级定位流程可以包括但不限于六个模块:车辆定位模块、视觉处理模块、精度估计模块、第一可视点估计模块、地图数据获取模块和车道级定位模块。
如图7所示,车辆定位模块可以用于获取定位相关信息(即车辆位置点)和车辆定位结果(即车辆行驶状态),定位相关信息和车辆定位结果可以统称为定位点信息(即车辆位置状态信息),车辆定位模块的定位点信息可以用于从地图数据获取模块中获取局部地图数据以及用于在车道级定位模块中进行车道匹配。
如图7所示,视觉处理模块用于提供视觉相关信息(即组件参数)和视觉处理结果(即车道线观测信息),视觉处理模块可以包括图像采集单元和图像处理单元。其中,图像采集单元可以表示安装在目标车辆上的拍摄组件,图像处理单元对图像采集单元所采集到的道路图像进行分析处理,输出识别出的目标车辆周围(例如,左侧和右侧)的车道线的车道线样式类型、车道线颜色、车道线方程、颜色置信度、样式类型置信度等。
如图7所示,精度估计模块可以获取车辆定位模块所输出的定位相关信息,通过自车定位信息(即定位相关信息)估算定位精度,定位精度可以使用圆概率误差表示;第一可视点估计模块可以获取视觉处理模块所输出的视觉相关信息,通过拍摄组件的安装信息(即摄像头外参数,例如,安装位置、安装方向)、摄像头内参(例如,垂直可视角度)和目标车辆的三维几何信息,获得目标车辆的第一可视点位置(即第一可视点信息)。
进一步地,如图7所示,地图数据获取模块可以根据精度估计模块所输出的圆概率误差、车辆定位模块所输出的定位相关信息、车辆定位模块所输出的车辆定位结果、以及第一可视点估计模块所输出的第一可视点信息,在全局地图数据中匹配到目标车辆对应的道路位置,进而获取当前位置的局部地图信息。进一步地,车道级定位模块可以根据车辆定位模块所输出的车辆定位结果和视觉处理模块所输出的视觉处理结果,在局部地图数据中实现目标车辆的车道级定位,即在局部地图数据中确定目标车辆所属的目标车道(即确定目标车辆的车道级定位位置)。
由此可见,本申请实施例提出了一种细致的车道级定位方法,该方法可以综合考虑目标车辆对应的最近道路可视点和目标车辆的车辆位置状态信息,获取准确的局部地图数据,由于考虑了目标车辆的视觉所观测到的离目标车辆距离最近的道路位置,所以局部地图数据与目标车辆的视觉所看到的地图数据是相匹配的。可以理解的是,当在与视觉相匹配的局部地图数据中确定目标车辆所属的目标车道时,可以准确定位目标车辆所属的目标车道,从而提高定位目标车辆所属的目标车道的准确率,即提高车道级定位的准确率。
进一步地,请参见图8,图8是本申请实施例提供的一种车道定位方法的流程示意图。该车道定位方法可以包括以下步骤S1031-步骤S1034,且步骤S1031-步骤S1034为图3所对应实施例中步骤S103的一个具体实施例。
步骤S1031,根据形变化点和车道数变化点,对局部地图数据进行区域划分,得到局部地图数据中的S个划分地图数据;
其中,这里的S可以为正整数;同一个划分地图数据内的地图车道线数量是固定不变的,同一个划分地图数据内同一条车道线上的地图车道线样式类型和地图车道线颜色是固定不变的;形变化点(即线型/颜色变化点)是指局部地图数据中同一条车道线上的地图车道线样式类型或地图车道线颜色发生变化的位置,车道数变化点是指局部地图数据中地图车道线数量发生变化的位置。
换言之,本申请实施例可以对局部地图数据进行纵向的切割打断,形成车道级数据集合(即划分地图数据集合),车道级数据集合中可以包括一个或多个车道级数据(即划分地图数据)。
步骤S1032,获取拍摄组件所拍摄到的车道线对应的车道线观测信息;
具体的,获取拍摄组件所拍摄的行驶方向上的道路对应的道路图像。进一步地,对道路图像进行要素分割,得到道路图像中的车道线。进一步地,对车道线进行属性识别,得到车道线对应的车道线观测信息(即车道线属性信息)。其中,车道线观测信息是指用于描述车道线属性的数据信息,车道线观测信息可以包括但不限于车道线颜色、车道线样式类型(即车道线类型)和车道线方程。其中,本申请实施例可以识别道路图像中的每条车道线分别对应的车道线观测信息;可选的,本申请实施例也可以识别道路图像中的至少一条车道线对应的车道线观测信息,例如,识别道路图像中目标车辆的左侧车道线对应的车道线观测信息和右侧车道线对应的车道线观测信息。
其中,要素分割可以首先对道路图像中的背景和道路进行分割,然后对道路图像中的道路进行分割,得到道路中的车道线,其中,拍摄组件所识别到的车道线的数量是由拍摄组件的水平视角所确定的,水平视角越大则拍摄到的车道线的数量越多,水平视角越小则拍摄到的车道线的数量越少。应当理解,本申请实施例不对要素分割所使用的具体算法进行限定。例如,要素分割算法可以为逐像素二分类的方法,也可以为LaneAF(RobustMulti-Lane Detection with Affinity Fields)算法。
其中,车道线颜色可以包括但不限于黄色、白色、蓝色、绿色、灰色、黑色等;车道线样式类型包括但不限于单实线、单虚线、双实线、双虚线、左虚右实线、左实右虚线、防护栏、路缘石、马路牙、道路边缘等。其中,应当理解,一条车道线可以由一条或多条曲线构成,例如,左虚右实线可以由一条实线和一条虚线,一共两条曲线构成,此时,左虚右实线可以使用一个车道线方程来表示,即一个车道线方程可以用于表示一条车道线,一个车道线方程可以用于表示一条或多条曲线。为便于理解,本申请实施例以路缘石、马路牙和道路边缘均为车道线为例进行说明,可选的,路缘石、马路牙和道路边缘也可以不被认为是车道线。
应当理解,本申请实施例不对车道线方程的表现形式进行限定。比如,车道线方程的表现形式可以为3次多项式:y=d+a*x+b*x2+c*x3;又比如,车道线方程的表现形式可以为2次多项式:y=d+a*x+b*x2;又比如,车道线方程的表现形式可以为4次多项式:y=d+a*x+b*x2+c*x3+e*x4。其中,a、b、c、d和e为多项式的拟合系数。
其中,在车道线观测信息包括车道线对应的车道线颜色和车道线对应的车道线样式类型时,对车道线进行属性识别的具体过程可以描述为:将车道线输入至属性识别模型,通过属性识别模型对车道线进行特征提取,得到车道线对应的颜色属性特征和车道线对应的样式类型属性特征。进一步地,根据车道线对应的颜色属性特征确定车道线颜色,根据车道线对应的样式类型属性特征确定车道线样式类型。其中,车道线颜色用于与局部地图数据中的地图车道线颜色进行匹配,车道线样式类型用于与局部地图数据中的地图车道线样式类型进行匹配。
其中,可以理解的是,属性识别模块可以对颜色属性特征进行归一化处理,得到归一化颜色属性向量,归一化颜色属性向量可以表示车道线的车道线颜色为上述颜色的颜色概率(即颜色置信度),最大颜色概率所对应的颜色即为车道线的车道线颜色。同理,属性识别模块可以对样式类型属性特征进行归一化处理,得到归一化样式类型属性向量,归一化样式类型属性向量可以表示车道线的车道线样式类型为上述样式类型的样式类型概率(即样式类型置信度),最大样式类型概率所对应的样式类型即为车道线的车道线样式类型。
应当理解,属性识别模型可以为多输出分类模型,属性识别模块可以同时执行两个独立分类任务,本申请实施例不对属性识别模型的模型类型进行限定。可选的,本申请实施例还可以将车道线分别输入至颜色识别模型和样式类型识别模型;通过颜色识别模型输出车道线对应的颜色属性特征,进而根据车道线对应的颜色属性特征确定车道线颜色;通过样式类型识别模型输出车道线对应的样式类型属性特征,进而根据车道线对应的样式类型属性特征确定车道线样式类型。
为便于理解,请参见图9,图9是本申请实施例提供的一种识别车道线的场景示意图。图9以拍摄组件所识别到的车道线的数量为4条为例进行说明,例如,道路图像中的4条车道线可以为目标车辆的左侧两条车道线和目标车辆的右侧两条车道线。可选的,本申请实施例还可以剔除道路图像中不清晰的车道线,保留道路图像中清晰的车道线,此时,图9所示的4条车道线可以为道路图像中清晰的车道线。
如图9所示,目标车辆左侧的两条车道线可以为车道线91a和车道线91b,目标车辆右侧的两条车道线可以为车道线91c和车道线91d,目标车辆的自车定位点到车辆左右两侧的车道线的距离可以为车道线截距,车道线截距可以通过横向距离表示目标车辆在车道中的位置。例如,目标车辆和车道线91b之间的车道线截距可以为车道线截距90a,目标车辆和车道线91c之间的车道线截距可以为车道线截距90b。
比如,如图9所示,若目标车辆在道路边缘(即目标车辆行驶在最左侧车道),则车道线91a的车道线样式类型可以为道路边缘、路缘石或马路牙,车道线91b表示最左侧车道的左侧车道线,车道线91a和车道线91b之间不存在车道,例如,车道线91b的车道线样式类型可以为单实线。
其中,车道线的数量为至少两条;在车道线观测信息包括车道线方程时,对车道线进行属性识别的具体过程还可以描述为:对至少两条车道线(相邻车道线)进行逆透视变化,得到至少两条车道线分别对应的变化后的车道线。其中,逆透视变化可以将道路图像中的车道线从图像图标转换到世界坐标(例如,图9所对应实施例的车辆坐标系下的坐标)下。进一步地,对至少两条变化后的车道线分别进行拟合重建,得到每条变化后的车道线分别对应的车道线方程。其中,车道线方程用于与局部地图数据中的形点坐标进行匹配,局部地图数据中的形点坐标用于拟合局部地图数据中的一个或多个车道的道路形状。
应当理解,车道线方程是基于车辆坐标系(Vehicle Coordinate System,VCS)所确定的,车辆坐标系是用来描述车辆运动的特殊三维动坐标系Oxyz,由于车道线是在地面上的,所以车道线方程是基于车辆坐标系中的Oxy所对应的。车辆坐标系的坐标系原点O相对于车辆位置固定,坐标系原点O可以为车辆的自车定位点,本申请实施例不对车辆坐标系的坐标系原点的具体位置进行限定。同理,本申请实施例不对车辆坐标系的建立方式进行限定。比如,车辆坐标系的建立方式可以为左手系,当车辆在水平路面上处于静止状态时,车辆坐标系的x轴平行于地面指向车辆前方,车辆坐标系的y轴平行于地面指向车辆左侧,车辆坐标系的z轴垂直于地面指向车辆上方。又比如,车辆坐标系的建立方式可以为右手系,当车辆在水平路面上处于静止状态时,车辆坐标系的x轴平行于地面指向车辆前方,车辆坐标系的y轴平行于地面指向车辆右侧,车辆坐标系的z轴垂直于地面指向车辆上方。
为便于理解,请参见图10,图10是本申请实施例提供的一种车辆坐标系的示意图。如图10所示为左手系的车辆坐标系的示意图,坐标系原点可以为目标车辆的后轴中点,车辆坐标系可以包括x轴、y轴和z轴,x轴的正方向从坐标系原点出发指向车辆前方,y轴的正方向从坐标系原点出发指向车辆左侧,z轴的正方向从坐标系原点出发指向车辆上方;同理,x轴的负方向从坐标系原点出发指向车辆后方,y轴的负方向从坐标系原点出发指向车辆右侧,z轴的负方向从坐标系原点出发指向车辆下方。
请再参见图9,左手系的车辆坐标系如图9所示,x轴平行于地面指向车辆前方,y轴平行于地面指向车辆左侧,通过车道线91a、车道线91b、车道线91c和车道线91d分别对应的车道线方程可确定车道线91a、车道线91b、车道线91c和车道线91d分别对应的车道线截距。比如,将车辆坐标系中x轴对应的坐标x=0代入车道线91b对应的车道线方程,可以得到车道线91b的车道线截距90a。又比如,将车辆坐标系中x轴对应的坐标x=0代入车道线91c对应的车道线方程,可以得到车道线91c的车道线截距90b。
步骤S1033,将车道线观测信息和车辆位置状态信息分别与S个划分地图数据进行匹配,得到每个划分地图数据中的一个或多个车道分别对应的车道概率;
其中,局部地图数据可以包括车道总数、地图车道线颜色、地图车道线样式类型、形点坐标、车道限速、车道航向角等。相应的,划分地图数据可以包括车道总数、地图车道线颜色、地图车道线样式类型、形点坐标、车道限速、车道航向角等。
其中,S个划分地图数据包括划分地图数据Li,这里的i可以为小于或等于S的正整数。应当理解,本申请实施例可以将车道线观测信息、车辆位置状态信息和划分地图数据Li进行匹配,得到划分地图数据Li中的一个或多个车道分别对应的车道概率。
其中,车道线观测信息可以包括车道线颜色、车道线样式类型和车道线方程,车辆位置状态信息可以包括行驶速度和行驶航向角。本申请实施例在将车道线观测信息、车辆位置状态信息和划分地图数据Li进行匹配时,可以将车道线颜色与地图车道线颜色(即地图数据中所存储的车道线颜色)进行匹配,将车道线样式类型与地图车道线样式类型(即地图数据中所存储的车道线样式类型)进行匹配,将车道线方程与形点坐标进行匹配,将行驶速度与车道限速进行匹配,将行驶航向角与车道航向角进行匹配。其中,不同的匹配因素可以对应不同的匹配权重,例如,车道线颜色与地图车道线颜色的匹配权重可以为0.2,行驶速度与车道限速的匹配权重可以为0.1。
可以理解的是,根据车道线颜色与地图车道线颜色的匹配结果,可以确定一个或多个车道分别对应的第一因素概率;根据车道线样式类型与地图车道线样式类型的匹配结果,可以确定一个或多个车道分别对应的第二因素概率;根据车道线方程与形点坐标的匹配结果,可以确定一个或多个车道分别对应的第三因素概率;根据行驶速度与车道限速的匹配结果,可以确定一个或多个车道分别对应的第四因素概率;根据行驶航向角与车道航向角的匹配结果,可以确定一个或多个车道分别对应的第五因素概率。进一步地,通过匹配因素分别对应的匹配权重对每个车道分别对应的第一因素概率、每个车道分别对应的第二因素概率、每个车道分别对应的第三因素概率、每个车道分别对应的第四因素概率和每个车道分别对应的第五因素概率进行加权,可以确定一个或多个车道分别对应的车道概率。
可选的,本申请实施例还可以通过第一因素概率、第二因素概率、第三因素概率、第四因素概率或第五因素概率中的至少一个来确定一个或多个车道分别对应的车道概率。应当理解,本申请实施例不对确定一个或多个车道分别对应的车道概率的具体过程进行限定。
可选的,本申请实施例还可以获取目标车辆对应的车道信息(例如,地图车道线数量)。进一步地,确定与车道线观测信息相匹配的目标先验信息。其中,目标先验信息是指在车道线观测信息的条件下预测车道位置的先验概率信息,例如,目标先验信息可以包括一条或多条车道线分别对应的类型先验概率、颜色先验概率和间距先验概率等。进一步地,基于车道信息和目标先验信息,确定一个或多个车道分别对应的后验概率信息。其中,后验概率信息包括目标车辆在一个或多个车道上分别对应的后验概率,这里的后验概率还可以称之为车道概率。
步骤S1034,根据S个划分地图数据中的一个或多个车道分别对应的车道概率,在每个划分地图数据分别对应的一个或多个车道中,确定每个划分地图数据分别对应的候选车道,在S个候选车道中确定目标车辆所属的目标车道。
具体的,将划分地图数据Li的一个或多个车道分别对应的车道概率中的最大车道概率,确定为划分地图数据Li对应的候选概率(即最优概率),将划分地图数据Li的一个或多个车道中具有最大车道概率的车道确定为划分地图数据Li对应的候选车道(即最优车道)。进一步地,在确定S个划分地图数据分别对应的候选概率和S个划分地图数据分别对应的候选车道之后,获取目标车辆分别和S个划分地图数据之间的纵向平均距离,根据最近道路可视点和S个纵向平均距离确定S个划分地图数据分别对应的区域权重。其中,根据道路可视点距离和S个纵向平均距离可以确定S个划分地图数据分别对应的区域权重。进一步地,将属于相同划分地图数据的候选概率和区域权重进行相乘,得到S个划分地图数据分别对应的可信权重。进一步地,将S个可信权重中的最大可信权重所对应的候选车道,确定为目标车辆所属的目标车道。
其中,应当理解,由于S个划分地图数据可以分别与车道线观测信息和车辆位置状态信息进行匹配,所以S个划分地图数据可能会对应相同的候选车道,例如,划分地图数据L1和划分地图数据L2均对应于相同的候选车道。
其中,区域权重为大于等于0的实数,且区域权重为小于等于1的实数,区域权重表示划分地图数据用于视觉车道级匹配的置信权重,本申请实施例不对区域权重的具体取值进行限定。中间区域的划分地图数据所对应的区域权重更大,边缘区域的划分地图数据所对应的区域权重更小,区域权重的最大位置是拍摄组件最可能看到的区域。比如,本申请实施例可以将第一可视点前方的一段区域(例如,第一可视点前方L+10位置)作为最大概率处,两侧权重随距离进行衰减。此时,根据道路可视点距离和纵向平均距离确定区域权重的具体过程可以参见公式(1):
w(x)=e-λ*|x-(L+h)| (1)
其中,x表示纵向平均距离,控制参数λ为正常数,w(x)表示纵向平均距离为x的划分地图数据对应的区域权重。其中,在控制参数λ越大时,S个可信权重之间的差异程度越小,在控制参数λ越小时,S个可信权重之间的差异程度越大。最大概率距离h可以表示最近道路可视点前方h的距离,例如,h可以等于10。|x-(L+h)|表示对x-(L+h)取绝对值。
其中,在S个候选车道中确定目标车道的具体过程可以参见公式(2):
其中,i可以为小于或等于S的正整数,Pi可以表示划分地图数据Li对应的候选概率,wi可以表示划分地图数据Li对应的区域权重,Pi*wi可以表示划分地图数据Li对应的可信权重。argmax可以表达定义域(i=1,…,S)的一个子集,该子集中任一元素都可使Pi*wi取最大值,j可以表示Pi*wi的最大值(即最大可信权重)。
其中,划分地图数据Li包括区域上边界和区域下边界;在行驶方向上,区域上边界所指示的道路位置在区域下边界所指示的道路位置的前方。应当理解,确定目标车辆和划分地图数据Li之间的纵向平均距离的具体过程可以描述为:确定目标车辆和划分地图数据Li的区域上边界所指示的道路位置之间的上边界距离(即区域上边界所指示的道路位置和目标车辆的自车定位点之间的距离),确定目标车辆和划分地图数据Li的区域下边界所指示的道路位置之间的下边界距离(即区域下边界所指示的道路位置和目标车辆的自车定位点之间的距离)。其中,若区域上边界在目标车辆的自车定位点的前方,则上边界距离为正数;可选的,若区域上边界在目标车辆的自车定位点的后方,则上边界距离为负数。同理,若区域下边界在目标车辆的自车定位点的前方,则下边界距离为正数;可选的,若区域下边界在目标车辆的自车定位点的后方,则下边界距离为负数。进一步地,将划分地图数据Li对应的上边界距离和划分地图数据Li对应的下边界距离之间的平均值,确定为目标车辆和划分地图数据Li之间的纵向平均距离。同理可以确定目标车辆分别和S个划分地图数据之间的纵向平均距离。
为便于理解,请参见图11,图11是本申请实施例提供的一种进行区域划分的场景示意图。如图11所示可以为目标车辆112a对应的局部地图数据,如图11所示的圆圈的半径可以为目标车辆112a对应的圆概率误差112b,通过区域划分线可以对局部地图数据进行区域划分,得到局部地图数据中的S个划分地图数据,为便于理解,本申请实施例以S等于4为例进行说明。其中,通过区域划分线111a可以划分得到划分地图数据113a,通过区域划分线111a和区域划分线111b可以划分得到划分地图数据113b,通过区域划分线111b和区域划分线111c可以划分得到划分地图数据113c,通过区域划分线111c可以划分得到划分地图数据113d。
其中,如图11所示,三角形可以表示车道数变化点,圆形可以表示线型/颜色变化点,区域划分线111a是由车道数变化点所确定的,区域划分线111b是由线型/颜色变化点所确定的,区域划分线111c是由线型/颜色变化点所确定的。区域划分线111a表示车道数由4个变化为5个,区域划分线111b表示车道线样式类型由虚线变为实线,区域划分线111c表示车道线样式类型由实线变为虚线。
其中,划分地图数据113b对应的区域权重最大,划分地图数据113d对应的区域权重最小,划分地图数据113a对应的区域权重和划分地图数据113c对应的区域权重,介于划分地图数据113b对应的区域权重和划分地图数据113d对应的区域权重之间。如图11所示的距离可以为纵向平均距离,权重可以为区域权重,距离和权重的关系式是用于表示区域权重的大小关系,而不是用于表示区域权重的具体取值,换言之,区域权重是离散的取值,而不是图11所示的连续的取值。
如图11所示,局部地图数据可以包括5条车道和6条车道线,5条车道具体可以包括车道110a、车道110b、车道110c、车道110d和车道110e,6条车道线具体可以包括车道110a、车道110b、车道110c、车道110d和车道110e两侧的车道线。其中,划分地图数据113a可以包括车道110a、车道110b、车道110c、车道110d和车道110e,划分地图数据113b可以包括车道110a、车道110b、车道110c和车道110d,划分地图数据113c可以包括车道110a、车道110b、车道110c和车道110d,划分地图数据113d可以包括车道110a、车道110b、车道110c和车道110d。
由此可见,本申请实施例可以在获取到局部地图数据之后,对局部地图数据进行区域划分,得到范围内(即局部地图数据中)的车道级数据集合(即划分地图数据集合),并且根据距离为车道级数据集合中的每个车道级数据赋上区域权重,进而对每个车道级数据分别执行车道级定位算法,找到每个车道级数据分别对应的最优的车道级定位结果(即候选车道)。可以理解的是,通过确定每个划分地图数据分别对应的候选车道,可以提高在每个划分地图数据中确定候选车道的准确率,从而提高在候选车道中确定目标车辆所属的目标车道的准确率。
进一步地,请参见图12,图12是本申请实施例提供的一种车道定位装置的结构示意图,该车道定位装置1可以包括:可视点获取模块11,数据获取模块12,车道确定模块13;进一步地,该车道定位装置1还可以包括:边界线确定模块14,道路点确定模块15,可视点确定模块16;
可视点获取模块11,用于获取目标车辆对应的最近道路可视点;最近道路可视点是由目标车辆和拍摄组件的组件参数所确定的;安装于目标车辆上的拍摄组件用于拍摄目标车辆在行驶方向上的道路;最近道路可视点是指拍摄组件所拍摄到的与目标车辆距离最近的道路位置;
数据获取模块12,用于根据目标车辆的车辆位置状态信息和最近道路可视点,获取与目标车辆相关联的局部地图数据;最近道路可视点位于局部地图数据内;局部地图数据包括与目标车辆相关联的一个或多个车道;
其中,数据获取模块12包括:参数确定单元121,第一区域确定单元122,第一数据确定单元123;
参数确定单元121,用于获取目标车辆的车辆位置状态信息中的目标车辆的车辆位置点,根据车辆位置点确定目标车辆对应的圆概率误差;
参数确定单元121,用于将最近道路可视点和目标车辆之间的距离确定为道路可视点距离;
第一区域确定单元122,用于根据车辆位置状态信息、圆概率误差和道路可视点距离,确定目标车辆对应的区域上限值和目标车辆对应的区域下限值;
其中,车辆位置状态信息还包括目标车辆在车辆位置点上的车辆行驶状态;
第一区域确定单元122,具体用于对圆概率误差和道路可视点距离进行第一运算处理,得到目标车辆对应的区域下限值;
第一区域确定单元122,具体用于通过车辆行驶状态对道路可视点距离沿行驶方向进行延伸扩展,得到扩展可视点距离,对扩展可视点距离和圆概率误差进行第二运算处理,得到目标车辆对应的区域上限值。
第一数据确定单元123,用于在全局地图数据中,将区域上限值所指示的道路位置和区域下限值所指示的道路位置之间的地图数据,确定为与目标车辆相关联的局部地图数据;区域上限值所指示的道路位置在行驶方向上位于目标车辆的前方;在行驶方向上,区域上限值所指示的道路位置在区域下限值所指示的道路位置的前方。
其中,第一数据确定单元123,具体用于在全局地图数据中确定车辆位置状态信息对应的地图位置点;
第一数据确定单元123,具体用于根据地图位置点和区域下限值,在全局地图数据中确定区域下限值所指示的道路位置;
第一数据确定单元123,具体用于根据地图位置点和区域上限值,在全局地图数据中确定区域上限值所指示的道路位置;
第一数据确定单元123,具体用于将区域下限值所指示的道路位置和区域上限值所指示的道路位置之间的地图数据,确定为与目标车辆相关联的局部地图数据;局部地图数据属于全局地图数据。
其中,参数确定单元121,第一区域确定单元122和第一数据确定单元123的具体实现方式,可以参见上述图3所对应实施例中对步骤S102的描述,这里将不再进行赘述。
其中,车辆位置状态信息包括目标车辆的车辆行驶状态;
数据获取模块12包括:第二区域确定单元124,第二数据确定单元125;
第二区域确定单元124,用于将最近道路可视点和目标车辆之间的距离确定为道路可视点距离,将道路可视点距离确定为目标车辆对应的区域下限值;
第二区域确定单元124,用于通过车辆行驶状态对道路可视点距离沿行驶方向进行延伸扩展,得到扩展可视点距离,将扩展可视点距离确定为目标车辆对应的区域上限值;
第二数据确定单元125,用于在全局地图数据中,将区域上限值所指示的道路位置和区域下限值所指示的道路位置之间的地图数据,确定为与目标车辆相关联的局部地图数据;区域上限值所指示的道路位置在行驶方向上位于目标车辆的前方;在行驶方向上,区域上限值所指示的道路位置在区域下限值所指示的道路位置的前方。
其中,第二数据确定单元125,具体用于在全局地图数据中确定车辆位置状态信息对应的地图位置点;
第二数据确定单元125,具体用于根据地图位置点和区域下限值,在全局地图数据中确定区域下限值所指示的道路位置;
第二数据确定单元125,具体用于根据地图位置点和区域上限值,在全局地图数据中确定区域上限值所指示的道路位置;
第二数据确定单元125,具体用于将区域下限值所指示的道路位置和区域上限值所指示的道路位置之间的地图数据,确定为与目标车辆相关联的局部地图数据;局部地图数据属于全局地图数据。
其中,第二区域确定单元124和第二数据确定单元125的具体实现方式,可以参见上述图3所对应实施例中对步骤S102的描述,这里将不再进行赘述。
车道确定模块13,用于在局部地图数据的一个或多个车道中确定目标车辆所属的目标车道。
其中,车道确定模块13包括:区域划分单元131,车道识别单元132,数据匹配单元133,车道确定单元134;
区域划分单元131,用于根据形变化点和车道数变化点,对局部地图数据进行区域划分,得到局部地图数据中的S个划分地图数据;S为正整数;同一个划分地图数据内的地图车道线数量是固定不变的,同一个划分地图数据内同一条车道线上的地图车道线样式类型和地图车道线颜色是固定不变的;形变化点是指局部地图数据中同一条车道线上的地图车道线样式类型或地图车道线颜色发生变化的位置,车道数变化点是指局部地图数据中地图车道线数量发生变化的位置;
车道识别单元132,用于获取拍摄组件所拍摄到的车道线对应的车道线观测信息;
其中,车道识别单元132包括:图像获取子单元1321,要素分割子单元1322,属性识别子单元1323;
图像获取子单元1321,用于获取拍摄组件所拍摄的行驶方向上的道路对应的道路图像;
要素分割子单元1322,用于对道路图像进行要素分割,得到道路图像中的车道线;
属性识别子单元1323,用于对车道线进行属性识别,得到车道线对应的车道线观测信息。
其中,车道线观测信息包括车道线对应的车道线颜色和车道线对应的车道线样式类型;
属性识别子单元1323,具体用于将车道线输入至属性识别模型,通过属性识别模型对车道线进行特征提取,得到车道线对应的颜色属性特征和车道线对应的样式类型属性特征;
属性识别子单元1323,具体用于根据车道线对应的颜色属性特征确定车道线颜色,根据车道线对应的样式类型属性特征确定车道线样式类型;车道线颜色用于与局部地图数据中的地图车道线颜色进行匹配,车道线样式类型用于与局部地图数据中的地图车道线样式类型进行匹配。
其中,车道线的数量为至少两条;车道线观测信息包括车道线方程;
属性识别子单元1323,具体用于对至少两条车道线进行逆透视变化,得到至少两条车道线分别对应的变化后的车道线;
属性识别子单元1323,具体用于对至少两条变化后的车道线分别进行拟合重建,得到每条变化后的车道线分别对应的车道线方程;车道线方程用于与局部地图数据中的形点坐标进行匹配;局部地图数据中的形点坐标用于拟合局部地图数据中的一个或多个车道的道路形状。
其中,图像获取子单元1321,要素分割子单元1322和属性识别子单元1323的具体实现方式,可以参见上述图8所对应实施例中对步骤S1032的描述,这里将不再进行赘述。
数据匹配单元133,用于将车道线观测信息和车辆位置状态信息分别与S个划分地图数据进行匹配,得到每个划分地图数据中的一个或多个车道分别对应的车道概率;
车道确定单元134,用于根据S个划分地图数据中的一个或多个车道分别对应的车道概率,在每个划分地图数据分别对应的一个或多个车道中,确定每个划分地图数据分别对应的候选车道,在S个候选车道中确定目标车辆所属的目标车道。
其中,S个划分地图数据包括划分地图数据Li,i为小于或等于S的正整数;
车道确定单元134包括:车道获取子单元1341,权重确定子单元1342,车道确定子单元1343;
车道获取子单元1341,用于将划分地图数据Li的一个或多个车道分别对应的车道概率中的最大车道概率,确定为划分地图数据Li对应的候选概率,将划分地图数据Li的一个或多个车道中具有最大车道概率的车道确定为划分地图数据Li对应的候选车道;
权重确定子单元1342,用于获取目标车辆分别和S个划分地图数据之间的纵向平均距离,根据最近道路可视点和S个纵向平均距离确定S个划分地图数据分别对应的区域权重;
其中,划分地图数据Li包括区域上边界和区域下边界;在行驶方向上,区域上边界所指示的道路位置在区域下边界所指示的道路位置的前方;
权重确定子单元1342,具体用于确定目标车辆和划分地图数据Li的区域上边界所指示的道路位置之间的上边界距离,确定目标车辆和划分地图数据Li的区域下边界所指示的道路位置之间的下边界距离;
权重确定子单元1342,具体用于将划分地图数据Li对应的上边界距离和划分地图数据Li对应的下边界距离之间的平均值,确定为目标车辆和划分地图数据Li之间的纵向平均距离。
权重确定子单元1342,用于将属于相同划分地图数据的候选概率和区域权重进行相乘,得到S个划分地图数据分别对应的可信权重;
车道确定子单元1343,用于将S个可信权重中的最大可信权重所对应的候选车道,确定为目标车辆所属的目标车道。
其中,车道获取子单元1341,权重确定子单元1342和车道确定子单元1343的具体实现方式,可以参见上述图3所对应实施例中对步骤S1034的描述,这里将不再进行赘述。
其中,区域划分单元131,车道识别单元132,数据匹配单元133和车道确定单元134的具体实现方式,可以参见上述图8所对应实施例中对步骤S1031-步骤S1034的描述,这里将不再进行赘述。
可选的,边界线确定模块14,用于根据拍摄组件的组件参数,确定拍摄组件对应的M条拍摄边界线;M为正整数;M条拍摄边界线包括下边界线;下边界线为M条拍摄边界线中最靠近道路的边界线;
其中,拍摄组件的组件参数包括垂直可视角度和组件位置参数;垂直可视角度是指拍摄组件在与地平面垂直的方向上的拍摄角度;组件位置参数是指拍摄组件安装于目标车辆上的安装位置和安装方向;M条拍摄边界线还包括上边界线;
边界线确定模块14,具体用于根据组件位置参数中的安装位置和安装方向,确定拍摄组件的主光轴;
边界线确定模块14,具体用于对垂直可视角度进行平均划分,得到拍摄组件的平均垂直可视角度;
边界线确定模块14,具体用于沿主光轴获取与主光轴形成平均垂直可视角度的下边界线和上边界线;主光轴、上边界线和下边界线位于同一平面上,主光轴、上边界线和下边界线所处的平面垂直于地平面。
道路点确定模块15,用于获取目标车辆所处的地平面,将地平面和下边界线的交点确定为下边界线对应的候选道路点;
道路点确定模块15,用于确定拍摄组件与目标车辆的车头边界点所构成的目标切线,将地平面和目标切线的交点确定为目标切线对应的候选道路点;
可视点确定模块16,用于将下边界线对应的候选道路点和目标切线对应的候选道路点中距离目标车辆更远的候选道路点,确定为目标车辆对应的最近道路可视点。
其中,可视点获取模块11,数据获取模块12和车道确定模块13的具体实现方式,可以参见上述图3所对应实施例中对步骤S101-步骤S103、以及上述图8所对应实施例中对步骤S1031-步骤S1034的描述,这里将不再进行赘述。其中,边界线确定模块14,道路点确定模块15和可视点确定模块16的具体实现方式,可以参见上述图3所对应实施例中对步骤S101的描述,这里将不再进行赘述。另外,对采用相同方法的有益效果描述,也不再进行赘述。
进一步地,请参见图13,图13是本申请实施例提供的一种计算机设备的结构示意图,该计算机设备可以是车载终端或服务器。如图13所示,该计算机设备1000可以包括:处理器1001,网络接口1004和存储器1005,此外,上述计算机设备1000还可以包括:用户接口1003,和至少一个通信总线1002。其中,通信总线1002用于实现这些组件之间的连接通信。其中,在一些实施例中,用户接口1003可以包括显示屏(Display)、键盘(Keyboard),可选用户接口1003还可以包括标准的有线接口、无线接口。可选的,网络接口1004可以包括标准的有线接口、无线接口(如WI-FI接口)。存储器1005可以是高速RAM存储器,也可以是非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。可选的,存储器1005还可以是至少一个位于远离前述处理器1001的存储装置。如图13所示,作为一种计算机可读存储介质的存储器1005中可以包括操作系统、网络通信模块、用户接口模块以及设备控制应用程序。
在如图13所示的计算机设备1000中,网络接口1004可提供网络通讯功能;而用户接口1003主要用于为用户提供输入的接口;而处理器1001可以用于调用存储器1005中存储的设备控制应用程序,以实现:
获取目标车辆对应的最近道路可视点;最近道路可视点是由目标车辆和拍摄组件的组件参数所确定的;安装于目标车辆上的拍摄组件用于拍摄目标车辆在行驶方向上的道路;最近道路可视点是指拍摄组件所拍摄到的与目标车辆距离最近的道路位置;
根据目标车辆的车辆位置状态信息和最近道路可视点,获取与目标车辆相关联的局部地图数据;最近道路可视点位于局部地图数据内;局部地图数据包括与目标车辆相关联的一个或多个车道;
在局部地图数据的一个或多个车道中确定目标车辆所属的目标车道。
应当理解,本申请实施例中所描述的计算机设备1000可执行前文图3或图8所对应实施例中对车道定位方法的描述,也可执行前文图12所对应实施例中对车道定位装置1的描述,在此不再赘述。另外,对采用相同方法的有益效果描述,也不再进行赘述。
此外,这里需要指出的是:本申请实施例还提供了一种计算机可读存储介质,且计算机可读存储介质中存储有前文提及的车道定位装置1所执行的计算机程序,当处理器执行计算机程序时,能够执行前文图3或图8所对应实施例中对车道定位方法的描述,因此,这里将不再进行赘述。另外,对采用相同方法的有益效果描述,也不再进行赘述。对于本申请所涉及的计算机可读存储介质实施例中未披露的技术细节,请参照本申请方法实施例的描述。
此外,需要说明的是:本申请实施例还提供了一种计算机程序产品,该计算机程序产品可以包括计算机程序,该计算机程序可以存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机程序,处理器可以执行该计算机程序,使得该计算机设备执行前文图3或图8所对应实施例中对车道定位方法的描述,因此,这里将不再进行赘述。另外,对采用相同方法的有益效果描述,也不再进行赘述。对于本申请所涉及的计算机程序产品实施例中未披露的技术细节,请参照本申请方法实施例的描述。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,计算机程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random Access Memory,RAM)等。
以上所揭露的仅为本申请较佳实施例而已,当然不能以此来限定本申请之权利范围,因此依本申请权利要求所作的等同变化,仍属本申请所涵盖的范围。
Claims (17)
1.一种车道定位方法,其特征在于,包括:
获取目标车辆对应的最近道路可视点;所述最近道路可视点是由所述目标车辆和拍摄组件的组件参数所确定的;安装于所述目标车辆上的所述拍摄组件用于拍摄所述目标车辆在行驶方向上的道路;所述最近道路可视点是指所述拍摄组件所拍摄到的与所述目标车辆距离最近的道路位置;
根据所述目标车辆的车辆位置状态信息和所述最近道路可视点,获取与所述目标车辆相关联的局部地图数据;所述最近道路可视点位于所述局部地图数据内;所述局部地图数据包括与所述目标车辆相关联的一个或多个车道;
在所述局部地图数据的一个或多个车道中确定所述目标车辆所属的目标车道。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
根据拍摄组件的组件参数,确定所述拍摄组件对应的M条拍摄边界线;所述M为正整数;M条所述拍摄边界线包括下边界线;所述下边界线为M条所述拍摄边界线中最靠近道路的边界线;
获取目标车辆所处的地平面,将所述地平面和所述下边界线的交点确定为所述下边界线对应的候选道路点;
确定所述拍摄组件与所述目标车辆的车头边界点所构成的目标切线,将所述地平面和所述目标切线的交点确定为所述目标切线对应的候选道路点;
将所述下边界线对应的候选道路点和所述目标切线对应的候选道路点中距离所述目标车辆更远的候选道路点,确定为所述目标车辆对应的最近道路可视点。
3.根据权利要求2所述的方法,其特征在于,所述拍摄组件的组件参数包括垂直可视角度和组件位置参数;所述垂直可视角度是指所述拍摄组件在与所述地平面垂直的方向上的拍摄角度;所述组件位置参数是指所述拍摄组件安装于所述目标车辆上的安装位置和安装方向;M条所述拍摄边界线还包括上边界线;
所述根据拍摄组件的组件参数,确定所述拍摄组件对应的M条拍摄边界线,包括:
根据所述组件位置参数中的所述安装位置和所述安装方向,确定所述拍摄组件的主光轴;
对所述垂直可视角度进行平均划分,得到所述拍摄组件的平均垂直可视角度;
沿所述主光轴获取与所述主光轴形成所述平均垂直可视角度的所述下边界线和所述上边界线;所述主光轴、所述上边界线和所述下边界线位于同一平面上,所述主光轴、所述上边界线和所述下边界线所处的平面垂直于所述地平面。
4.根据权利要求1所述的方法,其特征在于,所述根据所述目标车辆的车辆位置状态信息和所述最近道路可视点,获取与所述目标车辆相关联的局部地图数据,包括:
获取所述目标车辆的车辆位置状态信息中的所述目标车辆的车辆位置点,根据所述车辆位置点确定所述目标车辆对应的圆概率误差;
将所述最近道路可视点和所述目标车辆之间的距离确定为道路可视点距离;
根据所述车辆位置状态信息、所述圆概率误差和所述道路可视点距离,确定所述目标车辆对应的区域上限值和所述目标车辆对应的区域下限值;
在全局地图数据中,将所述区域上限值所指示的道路位置和所述区域下限值所指示的道路位置之间的地图数据,确定为与所述目标车辆相关联的局部地图数据;所述区域上限值所指示的道路位置在所述行驶方向上位于所述目标车辆的前方;在所述行驶方向上,所述区域上限值所指示的道路位置在所述区域下限值所指示的道路位置的前方。
5.根据权利要求4所述的方法,其特征在于,所述车辆位置状态信息还包括所述目标车辆在所述车辆位置点上的车辆行驶状态;
所述根据所述车辆位置状态信息、所述圆概率误差和所述道路可视点距离,确定所述目标车辆对应的区域上限值和所述目标车辆对应的区域下限值,包括:
对所述圆概率误差和所述道路可视点距离进行第一运算处理,得到所述目标车辆对应的区域下限值;
通过所述车辆行驶状态对所述道路可视点距离沿所述行驶方向进行延伸扩展,得到扩展可视点距离,对所述扩展可视点距离和所述圆概率误差进行第二运算处理,得到所述目标车辆对应的区域上限值。
6.根据权利要求1所述的方法,其特征在于,所述车辆位置状态信息包括所述目标车辆的车辆行驶状态;
所述根据所述目标车辆的车辆位置状态信息和所述最近道路可视点,获取与所述目标车辆相关联的局部地图数据,包括:
将所述最近道路可视点和所述目标车辆之间的距离确定为道路可视点距离,将所述道路可视点距离确定为所述目标车辆对应的区域下限值;
通过所述车辆行驶状态对所述道路可视点距离沿所述行驶方向进行延伸扩展,得到扩展可视点距离,将所述扩展可视点距离确定为所述目标车辆对应的区域上限值;
在全局地图数据中,将所述区域上限值所指示的道路位置和所述区域下限值所指示的道路位置之间的地图数据,确定为与所述目标车辆相关联的局部地图数据;所述区域上限值所指示的道路位置在所述行驶方向上位于所述目标车辆的前方;在所述行驶方向上,所述区域上限值所指示的道路位置在所述区域下限值所指示的道路位置的前方。
7.根据权利要求4或6所述的方法,其特征在于,所述在全局地图数据中,将所述区域上限值所指示的道路位置和所述区域下限值所指示的道路位置之间的地图数据,确定为与所述目标车辆相关联的局部地图数据,包括:
在全局地图数据中确定所述车辆位置状态信息对应的地图位置点;
根据所述地图位置点和所述区域下限值,在所述全局地图数据中确定所述区域下限值所指示的道路位置;
根据所述地图位置点和所述区域上限值,在所述全局地图数据中确定所述区域上限值所指示的道路位置;
将所述区域下限值所指示的道路位置和所述区域上限值所指示的道路位置之间的地图数据,确定为与所述目标车辆相关联的局部地图数据;所述局部地图数据属于所述全局地图数据。
8.根据权利要求1所述的方法,其特征在于,所述在所述局部地图数据的一个或多个车道中确定所述目标车辆所属的目标车道,包括:
根据形变化点和车道数变化点,对所述局部地图数据进行区域划分,得到所述局部地图数据中的S个划分地图数据;所述S为正整数;同一个划分地图数据内的地图车道线数量是固定不变的,同一个划分地图数据内同一条车道线上的地图车道线样式类型和地图车道线颜色是固定不变的;所述形变化点是指所述局部地图数据中同一条车道线上的所述地图车道线样式类型或所述地图车道线颜色发生变化的位置,所述车道数变化点是指所述局部地图数据中所述地图车道线数量发生变化的位置;
获取所述拍摄组件所拍摄到的车道线对应的车道线观测信息;
将所述车道线观测信息和所述车辆位置状态信息分别与S个所述划分地图数据进行匹配,得到每个划分地图数据中的一个或多个车道分别对应的车道概率;
根据S个所述划分地图数据中的一个或多个车道分别对应的车道概率,在所述每个划分地图数据分别对应的一个或多个车道中,确定所述每个划分地图数据分别对应的候选车道,在S个所述候选车道中确定所述目标车辆所属的目标车道。
9.根据权利要求8所述的方法,其特征在于,所述获取所述拍摄组件所拍摄到的车道线对应的车道线观测信息,包括:
获取所述拍摄组件所拍摄的所述行驶方向上的道路对应的道路图像;
对所述道路图像进行要素分割,得到所述道路图像中的车道线;
对所述车道线进行属性识别,得到所述车道线对应的车道线观测信息。
10.根据权利要求9所述的方法,其特征在于,所述车道线观测信息包括所述车道线对应的车道线颜色和所述车道线对应的车道线样式类型;
所述对所述车道线进行属性识别,得到所述车道线对应的车道线观测信息,包括:
将所述车道线输入至属性识别模型,通过所述属性识别模型对所述车道线进行特征提取,得到所述车道线对应的颜色属性特征和所述车道线对应的样式类型属性特征;
根据所述车道线对应的颜色属性特征确定所述车道线颜色,根据所述车道线对应的样式类型属性特征确定所述车道线样式类型;所述车道线颜色用于与所述局部地图数据中的地图车道线颜色进行匹配,所述车道线样式类型用于与所述局部地图数据中的地图车道线样式类型进行匹配。
11.根据权利要求9所述的方法,其特征在于,所述车道线的数量为至少两条;所述车道线观测信息包括车道线方程;
所述对所述车道线进行属性识别,得到所述车道线对应的车道线观测信息,包括:
对所述至少两条车道线进行逆透视变化,得到所述至少两条车道线分别对应的变化后的车道线;
对至少两条变化后的车道线分别进行拟合重建,得到每条变化后的车道线分别对应的所述车道线方程;所述车道线方程用于与所述局部地图数据中的形点坐标进行匹配;所述局部地图数据中的形点坐标用于拟合所述局部地图数据中的一个或多个车道的道路形状。
12.根据权利要求8所述的方法,其特征在于,S个所述划分地图数据包括划分地图数据Li,所述i为小于或等于所述S的正整数;
所述根据S个所述划分地图数据中的一个或多个车道分别对应的车道概率,在所述每个划分地图数据分别对应的一个或多个车道中,确定所述每个划分地图数据分别对应的候选车道,在S个所述候选车道中确定所述目标车辆所属的目标车道,包括:
将所述划分地图数据Li的一个或多个车道分别对应的车道概率中的最大车道概率,确定为所述划分地图数据Li对应的候选概率,将所述划分地图数据Li的一个或多个车道中具有最大车道概率的车道确定为所述划分地图数据Li对应的候选车道;
获取所述目标车辆分别和S个所述划分地图数据之间的纵向平均距离,根据所述最近道路可视点和S个所述纵向平均距离确定S个所述划分地图数据分别对应的区域权重;
将属于相同划分地图数据的候选概率和区域权重进行相乘,得到S个所述划分地图数据分别对应的可信权重;
将S个所述可信权重中的最大可信权重所对应的候选车道,确定为所述目标车辆所属的目标车道。
13.根据权利要求12所述的方法,其特征在于,所述划分地图数据Li包括区域上边界和区域下边界;在所述行驶方向上,所述区域上边界所指示的道路位置在所述区域下边界所指示的道路位置的前方;
所述获取所述目标车辆分别和S个所述划分地图数据之间的纵向平均距离,包括:
确定所述目标车辆和所述划分地图数据Li的区域上边界所指示的道路位置之间的上边界距离,确定所述目标车辆和所述划分地图数据Li的区域下边界所指示的道路位置之间的下边界距离;
将所述划分地图数据Li对应的上边界距离和所述划分地图数据Li对应的下边界距离之间的平均值,确定为所述目标车辆和所述划分地图数据Li之间的纵向平均距离。
14.一种车道定位装置,其特征在于,包括:
可视点获取模块,用于获取目标车辆对应的最近道路可视点;所述最近道路可视点是由所述目标车辆和拍摄组件的组件参数所确定的;安装于所述目标车辆上的所述拍摄组件用于拍摄所述目标车辆在行驶方向上的道路;所述最近道路可视点是指所述拍摄组件所拍摄到的与所述目标车辆距离最近的道路位置;
数据获取模块,用于根据所述目标车辆的车辆位置状态信息和所述最近道路可视点,获取与所述目标车辆相关联的局部地图数据;所述最近道路可视点位于所述局部地图数据内;所述局部地图数据包括与所述目标车辆相关联的一个或多个车道;
车道确定模块,用于在所述局部地图数据的一个或多个车道中确定所述目标车辆所属的目标车道。
15.一种计算机设备,其特征在于,包括:处理器和存储器;
所述处理器与所述存储器相连,其中,所述存储器用于存储计算机程序,所述处理器用于调用所述计算机程序,以使得所述计算机设备执行权利要求1-13任一项所述的方法。
16.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机程序,该计算机程序适于由处理器加载并执行,以使得具有所述处理器的计算机设备执行权利要求1-13任一项所述的方法。
17.一种计算机程序产品,其特征在于,所述计算机程序产品包括计算机程序,该计算机程序存储在计算机可读存储介质中,且适于由处理器读取并执行,以使得具有所述处理器的计算机设备执行权利要求1-13任一项所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211440211.8A CN115824235A (zh) | 2022-11-17 | 2022-11-17 | 一种车道定位方法、装置、计算机设备以及可读存储介质 |
PCT/CN2023/123985 WO2024104012A1 (zh) | 2022-11-17 | 2023-10-11 | 一种车道定位方法、装置、计算机设备、计算机可读存储介质及计算机程序产品 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211440211.8A CN115824235A (zh) | 2022-11-17 | 2022-11-17 | 一种车道定位方法、装置、计算机设备以及可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115824235A true CN115824235A (zh) | 2023-03-21 |
Family
ID=85528739
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211440211.8A Pending CN115824235A (zh) | 2022-11-17 | 2022-11-17 | 一种车道定位方法、装置、计算机设备以及可读存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN115824235A (zh) |
WO (1) | WO2024104012A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024104012A1 (zh) * | 2022-11-17 | 2024-05-23 | 腾讯科技(深圳)有限公司 | 一种车道定位方法、装置、计算机设备、计算机可读存储介质及计算机程序产品 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170015317A1 (en) * | 2015-07-13 | 2017-01-19 | Cruise Automation, Inc. | Method for image-based vehicle localization |
CN106441319A (zh) * | 2016-09-23 | 2017-02-22 | 中国科学院合肥物质科学研究院 | 一种无人驾驶车辆车道级导航地图的生成系统及方法 |
CN112729316A (zh) * | 2019-10-14 | 2021-04-30 | 北京图森智途科技有限公司 | 自动驾驶车辆的定位方法、装置、车载设备、系统及车辆 |
US20210404834A1 (en) * | 2020-06-30 | 2021-12-30 | Lyft, Inc. | Localization Based on Multi-Collect Fusion |
CN113916242A (zh) * | 2021-12-14 | 2022-01-11 | 腾讯科技(深圳)有限公司 | 车道定位方法和装置、存储介质及电子设备 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2712673A1 (en) * | 2008-02-04 | 2009-08-13 | Tele Atlas North America Inc. | Method for map matching with sensor detected objects |
JP6982430B2 (ja) * | 2017-08-03 | 2021-12-17 | 株式会社Subaru | 車両の走行車線特定装置 |
CN110657812A (zh) * | 2018-06-29 | 2020-01-07 | 比亚迪股份有限公司 | 车辆定位方法、装置及车辆 |
KR20200141871A (ko) * | 2019-06-11 | 2020-12-21 | 에스케이텔레콤 주식회사 | 차선 정보 획득 장치 및 방법 |
CN112415552B (zh) * | 2020-11-17 | 2022-04-15 | 北京百度网讯科技有限公司 | 车辆位置的确定方法、装置及电子设备 |
CN112541437A (zh) * | 2020-12-15 | 2021-03-23 | 北京百度网讯科技有限公司 | 车辆定位方法、装置、电子设备及存储介质 |
CN114299464A (zh) * | 2021-08-11 | 2022-04-08 | 腾讯科技(深圳)有限公司 | 车道定位方法、装置及设备 |
CN115824235A (zh) * | 2022-11-17 | 2023-03-21 | 腾讯科技(深圳)有限公司 | 一种车道定位方法、装置、计算机设备以及可读存储介质 |
-
2022
- 2022-11-17 CN CN202211440211.8A patent/CN115824235A/zh active Pending
-
2023
- 2023-10-11 WO PCT/CN2023/123985 patent/WO2024104012A1/zh unknown
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170015317A1 (en) * | 2015-07-13 | 2017-01-19 | Cruise Automation, Inc. | Method for image-based vehicle localization |
CN106441319A (zh) * | 2016-09-23 | 2017-02-22 | 中国科学院合肥物质科学研究院 | 一种无人驾驶车辆车道级导航地图的生成系统及方法 |
CN112729316A (zh) * | 2019-10-14 | 2021-04-30 | 北京图森智途科技有限公司 | 自动驾驶车辆的定位方法、装置、车载设备、系统及车辆 |
US20210404834A1 (en) * | 2020-06-30 | 2021-12-30 | Lyft, Inc. | Localization Based on Multi-Collect Fusion |
CN113916242A (zh) * | 2021-12-14 | 2022-01-11 | 腾讯科技(深圳)有限公司 | 车道定位方法和装置、存储介质及电子设备 |
Non-Patent Citations (2)
Title |
---|
LI TIANYI ET AL.: "Lane-level localization system using surround-view cameras adaptive to different driving conditions", 《INTERNATIONAL JOURNAL OF ADVANCED ROBOTIC SYSTEMS》, vol. 17, no. 2, 9 June 2020 (2020-06-09), pages 1 - 13 * |
袁旻川;徐友春;李永乐;: "基于车道线提取的智能车横向定位技术", 军事交通学院学报, no. 10, 25 October 2018 (2018-10-25), pages 38 - 43 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024104012A1 (zh) * | 2022-11-17 | 2024-05-23 | 腾讯科技(深圳)有限公司 | 一种车道定位方法、装置、计算机设备、计算机可读存储介质及计算机程序产品 |
Also Published As
Publication number | Publication date |
---|---|
WO2024104012A1 (zh) | 2024-05-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Sun et al. | Proximity based automatic data annotation for autonomous driving | |
CN113916242B (zh) | 车道定位方法和装置、存储介质及电子设备 | |
CN102208013B (zh) | 风景匹配参考数据生成系统和位置测量系统 | |
CN111771207A (zh) | 增强的车辆跟踪 | |
CN111261016B (zh) | 道路地图的构建方法、装置和电子设备 | |
CN109100730A (zh) | 一种多车协同快速建图方法 | |
US20230038786A1 (en) | Deep Structured Scene Flow for Autonomous Devices | |
CN114299464A (zh) | 车道定位方法、装置及设备 | |
CN110208783B (zh) | 基于环境轮廓的智能车辆定位方法 | |
WO2024104012A1 (zh) | 一种车道定位方法、装置、计算机设备、计算机可读存储介质及计算机程序产品 | |
CN117576652B (zh) | 道路对象的识别方法、装置和存储介质及电子设备 | |
CN109583312A (zh) | 车道线识别方法、装置、设备及存储介质 | |
CN113340312A (zh) | 一种ar室内实景导航方法及系统 | |
CN113537047A (zh) | 障碍物检测方法、装置、交通工具及存储介质 | |
CN114485700A (zh) | 高精度动态地图生成方法及装置 | |
CN110780325B (zh) | 运动对象的定位方法及装置、电子设备 | |
Zhao et al. | Environmental perception and sensor data fusion for unmanned ground vehicle | |
CN110843772B (zh) | 潜在碰撞的相对方向判断方法、装置、设备及存储介质 | |
CN112732860A (zh) | 道路提取方法、装置、可读存储介质及设备 | |
EP4148599A1 (en) | Systems and methods for providing and using confidence estimations for semantic labeling | |
CN113902047B (zh) | 图像元素匹配方法、装置、设备以及存储介质 | |
CN112380314B (zh) | 路网信息的处理方法和装置、存储介质及电子设备 | |
CN115379408A (zh) | 基于场景感知的v2x多传感器融合方法及装置 | |
CN114119757A (zh) | 图像处理方法、装置、设备、介质和计算机程序产品 | |
CN116762094A (zh) | 数据处理方法和设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40083115 Country of ref document: HK |