CN116129389B - 一种车道线获取方法、计算机设备、可读存储介质及机动车 - Google Patents
一种车道线获取方法、计算机设备、可读存储介质及机动车 Download PDFInfo
- Publication number
- CN116129389B CN116129389B CN202310307533.3A CN202310307533A CN116129389B CN 116129389 B CN116129389 B CN 116129389B CN 202310307533 A CN202310307533 A CN 202310307533A CN 116129389 B CN116129389 B CN 116129389B
- Authority
- CN
- China
- Prior art keywords
- lane line
- vehicle
- lane
- point cloud
- coordinate system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 230000009466 transformation Effects 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 13
- 230000001133 acceleration Effects 0.000 claims description 9
- 230000006870 function Effects 0.000 claims description 7
- 230000000007 visual effect Effects 0.000 claims description 7
- 238000001914 filtration Methods 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 3
- 230000008447 perception Effects 0.000 abstract description 3
- 238000001514 detection method Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/06—Road conditions
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
- B60W2552/53—Road markings, e.g. lane marker or crosswalk
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
Abstract
本发明公开了一种车道线获取方法、计算机设备、可读存储介质及机动车,涉及自动驾驶技术领域,用于获取车辆的后向车道线,包括如下步骤:根据IMU和轮速里程计数据对车辆进行航迹递推;获取视觉传感器的车道线感知结果;对车道线感知结果进行离散化形成车道线点云;将历史车道线点云根据航迹递推结果投影到当前自车坐标系以后进行拟合得到后向车道线。本发明实现了对车辆后向车道线的准确判断。
Description
技术领域
本发明涉及自动驾驶技术领域,具体涉及一种车道线获取方法、计算机设备、可读存储介质及机动车。
背景技术
车道线检测是自动驾驶中必不可少的功能,是车辆行驶轨迹规划、车辆自动控制的重要依据之一。对于车道保持、碰撞预警、自适应巡航等辅助驾驶功能来说也是至关重要的技术。现有技术,车道线检测大多仅针对车辆前方的车道线。但是,仅有前向车道线,无法完整描述车道的几何形状。并且,结合后向车道线的构建是全方位环境感知的基础,可以辅助后向车辆的感知,得知后向车辆所在的车道、运动趋势等信息,为车辆的并线决策提供更多信息,进而提升辅助驾驶功能的安全性。
发明内容
本发明旨在一定程度上解决相关技术中的技术问题之一。为此,本发明提供了一种车道线获取方法,实现了对车辆后向车道线的准确判断。
为了达到上述目的,本发明采用如下技术方案:
一种车道线获取方法,用于获取车辆的后向车道线,包括如下步骤:
根据IMU和轮速里程计数据对车辆进行航迹递推;
获取视觉传感器的车道线感知结果;
对车道线感知结果进行离散化,形成车道线点云;
根据航迹递推结果将车道线点云投影到自车坐标系中进行拟合,得到后向车道线。
可选的,根据航迹递推结果将车道线点云投影到自车坐标系包括如下步骤:
进行时间同步,对航迹递推结果进行插值,形成若干位姿点云数据对,其中,O k为位姿点云数据对,T k为自车在全局坐标系下的位姿,L k为自车坐标系下的车道线点云,k为时刻;
按照预设长度设置数据滑窗,将若干位姿点云数据对放入数据滑窗中,剔除数据滑窗外的位姿点云数据对;
对数据滑窗内的位姿点云数据进行坐标变换,投影到自车坐标系中。
可选的,设置数据滑窗的预设长度为时间长度或距离长度。
可选的,根据如下公式对数据滑窗内的位姿点云数据进行坐标变换:
其中,T j为数据滑窗内j时刻自车在全局坐标系下的位姿,L j为数据滑窗内j时刻自车坐标系下的车道线点云,Pji为点云L j中第i个点的坐标;P kji为变换后在当前k时刻的自车坐标系下的坐标。
可选的,根据如下公式对车道线感知结果进行离散化:
其中,k为时刻,C 0、C 1、C 2、C 3为车道线方程的参数,为x k的采样范围,/>为比例系数,v为车速,/>为图像感知的时间间隔,(x k,y k)为车道线点云。
可选的,所述车道线感知结果为三维车道线拟合参数或二维车道线拟合参数;
所述车道线感知结果为二维车道线拟合参数时,先对车道线感知结果进行离散化,然后由如下步骤转换为三维车道线点云:
由如下公式计算目标车道线上的点在视觉传感器正下方的地面坐标系下的表示:
其中,为于图像中车道线上的点的像素坐标,为图像中车道线上对应点在相机正下方的地面坐标系的坐标,/>和/>为视觉传感器外参,K为视觉传感器内参,s为尺度因数;
对图像中车道线上对应点在相机正下方的地面坐标系的坐标进行坐标转换,得到自车坐标系下的三维车道线点云。
可选的,根据IMU和轮速里程计数据对车辆进行航迹递推包括如下步骤:
构建车辆运动学模型为如下状态变量,其中,为车辆在全局系中的位置,/>为车辆速度,/>为车辆在全局系中的姿态四元数,/>、/>分别为IMU加速度和角速度的零偏;
从IMU获取车辆的加速度信息和角速度信息/>,根据如下公式进行递推计算:
其中,为两帧IMU数据之间的时间间隔,/>为重力加速度;
对应的状态协方差递推公式为:
其中,为状态偏差的雅可比,/>为扰动向量的雅可比,/>为IMU的观测噪声模型;
从轮速里程计获取车身速度信息,得到车辆在自车坐标系下的速度向量;将速度向量/>作为卡尔曼滤波系统中的观测向量进行观测更新,观测方程的雅可比为/>;
其中,为旋转向量的右雅可比。
可选的,车道线点云投影到自车坐标系后,根据如下步骤进行拟合:
按照如下公式将车道线建模为三阶曲线:
其中,为车道线距离车辆的横向偏移信息,/>为车道线与车辆的夹角的斜率信息,/>为车道线的曲率信息,/>为曲率导数信息;
由车道线点云投影到自车坐标系后的数据构成:
由如下公式获得三阶曲线的拟合参数:
三阶曲线为得到的后向车道线。
硬件方面,本发明所提供的技术方案,所需要的视觉传感器仅为单套摄像头,即前视摄像头、左右侧视摄像头、倒车影像后视摄像头其中之一即可,借助车辆本身自带的IMU和轮速里程计,即可完成硬件配备,具有低硬件需求的优点,成本低廉,应用广泛。软件方面,本发明所提供的技术方案,使用IMU和轮速里程计进行航迹递推,提供了短时间内的高精相对定位,基于此拼接拟合得到车道线,误差小,精度高。同时,将一段时间内所有的感知车道线投影到当前自车坐标系下,然后进行拟合,即使存在几帧图像具有漏检、误检的情况,也不会对最终结果造成影响,具有较高的鲁棒性。
同时,本发明还提供了一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现前述任意一项所述的车道线获取方法。
并且,本发明还提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现前述任意一项所述的车道线获取方法。
此外,本发明还提供了一种机动车,具有自动驾驶功能,所述机动车通过前述任意一项所述的车道线获取方法获取车辆的后向车道线;
或所述机动车具有前述的计算机设备;
或所述机动车具有前述的计算机可读存储介质,所述计算机程序被处理器执行时实现前述任意一项所述的车道线获取方法。
本发明所提供的机动车,其有益效果与前述车道线获取方法的有益效果推理过程相类似,此处不再赘述。
本发明的这些特点和优点将会在下面的具体实施方式以及附图中进行详细的揭露。本发明最佳的实施方式或手段将结合附图来详尽表现,但并非是对本发明技术方案的限制。另外,在每个下文和附图中出现的这些特征、要素和组件是具有多个,并且为了表示方便而标记了不同的符号或数字,但均表示相同或相似构造或功能的部件。
附图说明
下面结合附图对本发明作进一步说明:
图1为本发明实施例的流程示意图。
具体实施方式
下面结合本发明实施例的附图对本发明实施例的技术方案进行解释和说明,但下述实施例仅为本发明的优选实施例,并非全部。基于实施方式中的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得其他实施例,都属于本发明的保护范围。
在本说明书中引用的“一个实施例”或“实例”或“例子”意指结合实施例本身描述的特定特征、结构或特性可被包括在本专利公开的至少一个实施例中。短语“在一个实施例中”在说明书中的各位置的出现不必都是指同一个实施例。
实施例:
本实施例提供了一种车道线获取方法,用于获取车辆的后向车道线。如图1所示,本实施例所提供的车道线获取方法包括如下步骤:
根据IMU和轮速里程计数据对车辆进行航迹递推。IMU即惯性测量单元,与轮速里程计均为当前量产车型所配备的常规惯性测量单元和轮速里程计。而航迹递推采用误差状态卡尔曼滤波(ESKF)算法进行,包括如下步骤:
构建车辆运动学模型为如下状态变量,其中,/>为车辆在全局系中的位置,/>为车辆速度,/>为车辆在全局系中的姿态四元数,/>、/>分别为IMU加速度和角速度的零偏;
从IMU获取车辆的加速度信息和角速度信息/>,根据如下公式进行递推计算,即由上一时刻的运动状态估计出当前时刻的运动状态:
其中,为两帧IMU数据之间的时间间隔,/>为重力加速度;
对应的状态协方差递推公式为:
其中,为状态偏差的雅可比,/>为扰动向量的雅可比,/>为IMU的观测噪声模型。雅可比为本领域通用技术含义,此处不再赘述。
由于仅靠IMU递推状态,极易快速发散,因此需要对其进行一定的约束。本实施例中,使用轮速里程计测得的车身速度作为观测向量,进行卡尔曼滤波观测更新。
从轮速里程计获取车身速度信息,并根据车辆在运动时的非完整性约束,得到车辆在自车坐标系下的速度向量/>;将速度向量/>作为卡尔曼滤波系统中的观测向量进行观测更新,观测方程的雅可比为;
其中,为旋转向量的右雅可比。而旋转向量的右雅可比为本领域的通用技术含义,此处不再赘述。基于IMU和轮速里程计的航迹递推算法具有相对精度高、定位频率高的特点。一方面,较高的相对定位精度可以使得在拼接重构车道线点云时引入的位置误差更小;另一方面,二维车道线转换为三维点云的过程具有距离越近精度越高的特点,受益于航迹推算频率高的优点,对于每一帧图像进行转换时,我们可以只保留车前近距离范围内的点云来保证车道线精度。因此,基于航迹推算拼接拟合得到的车道线误差小,精度高。
获取视觉传感器的车道线感知结果。视觉传感器,即前视摄像头、左右侧视摄像头、倒车影像后视摄像头其中之一,也可以是其中几个的混合。而IMU和轮速里程计,也均是量产车的惯常配置,可见,在硬件方面,本实施例所提供的技术方案,具有低硬件需求的优点,成本低廉,应用广泛。
车道线感知结果为既可以是三维车道线拟合参数,也可以是二维车道线拟合参数。如果车道线拟合参数是二维车道线拟合参数,先对车道线感知结果进行离散化,然后由如下步骤将离散化的二维车道线拟合参数转换为三维车道线点云:
由如下公式计算目标车道线上的点在视觉传感器正下方的地面坐标系下的表示:
其中,为于图像中车道线上的点的像素坐标,为图像中车道线上对应点在相机正下方的地面坐标系的坐标,/>和/>为视觉传感器外参,K为视觉传感器内参,s为尺度因数。视觉传感器的内参、外参以及尺度因数为视觉传感器的本身参数,相机正下方的地面坐标系与车辆自身坐标系之间的关系,由本领域技术人员在车辆在出厂进行标定。
对图像中车道线上对应点在相机正下方的地面坐标系的坐标进行坐标转换,得到三维车道线拟合参数。而坐标转换为本领域的惯用技术手段,此处不再赘述。
而后根据如下公式对车道线感知结果进行离散化,形成车道线点云:
其中,k为时刻,C 0、C 1、C 2、C 3为车道线方程的参数,为x k的采样范围,/>为比例系数,v为车速,/>为图像感知的时间间隔,(x k,y k)为车道线点云。
最后根据航迹递推结果将车道线点云投影到自车坐标系中进行拟合,得到后向车道线。
根据航迹递推结果将车道线点云投影到自车坐标系包括如下步骤:
进行时间同步,对航迹递推结果进行插值,形成若干位姿点云数据对,其中,O k为位姿点云数据对,T k为自车在全局坐标系下的位姿,L k为自车坐标系下的车道线点云,k为时刻;
按照预设长度设置数据滑窗。预设长度可以为时间长度,也可以为距离长度,具体长度数值由本领域技术人员在标定时根据车型等参数确定。将若干位姿点云数据对放入数据滑窗中,剔除数据滑窗外的位姿点云数据对,然后根据如下公式对数据滑窗内的位姿点云数据进行坐标变换:
其中,T j为数据滑窗内j时刻自车在全局坐标系下的位姿,L j为数据滑窗内j时刻自车坐标系下的车道线点云,Pji为点云L j中第i个点的坐标;P kji为变换后在当前k时刻的自车坐标系下的坐标。
完成坐标变换后,投影到自车坐标系中,根据如下步骤进行拟合:
按照如下公式将车道线建模为三阶曲线:
其中,为车道线距离车辆的横向偏移信息,/>为车道线与车辆的夹角的斜率信息,/>为车道线的曲率信息,/>为曲率导数信息;
由车道线点云投影到自车坐标系后的数据构成:
由如下公式获得三阶曲线的拟合参数:
三阶曲线为得到的后向车道线。将一段时间内所有的感知车道线投影到当前自车坐标系下,然后进行拟合,由于多帧观测在一定程度上起到了滤波的作用,这样即使存在几帧图像具有漏检、误检的情况,也会被多数相邻观测帧修正,不会对最终结果造成影响,具有较高的鲁棒性。
与此同时,本实施例还提供了一种计算机设备,包括存储器和处理器,存储器存储有计算机程序,计算机程序被处理器执行时,使得处理器执行上述点云语义分割方法的步骤。
本领域普通技术人员可以理解,实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成。据此,本实施例所提供的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可实现上述任意一项实施例的方法。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM (PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)以及存储器总线动态RAM(RDRAM)等。
并且,本实施例还提供了一种机动车,具有自动驾驶功能。本实施例所提供的机动车通过前述的车道线获取方法获取车辆的后向车道线;
或具有前述的计算机设备;
或具有前述的计算机可读存储介质,所述计算机程序被处理器执行时实现前述的车道线获取方法。
以上,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,熟悉该本领域的技术人员应该明白本发明包括但不限于附图和上面具体实施方式中描述的内容。任何不偏离本发明的功能和结构原理的修改都将包括在权利要求书的范围中。
Claims (10)
1.一种车道线获取方法,用于获取车辆的后向车道线,其特征在于,所述车道线获取方法包括如下步骤:
根据IMU和轮速里程计数据对车辆进行航迹递推,包括如下子步骤:
构建车辆运动学模型为如下状态变量,其中,/>为车辆在全局系中的位置,/>为车辆速度,/>为车辆在全局系中的姿态四元数,/>、/>分别为IMU加速度和角速度的零偏;
从IMU获取车辆的加速度信息和角速度信息/>,根据如下公式进行递推计算:
其中,为两帧IMU数据之间的时间间隔,/>为重力加速度;
对应的状态协方差递推公式为:
其中,为状态偏差的雅可比,/>为扰动向量的雅可比,/>为IMU的观测噪声模型;
从轮速里程计获取车身速度信息,得到车辆在自车坐标系下的速度向量;将速度向量/>作为卡尔曼滤波系统中的观测向量进行观测更新,观测方程的雅可比为/>;
其中,为旋转向量的右雅可比;
获取视觉传感器的车道线感知结果,所述车道线感知结果为三维车道线拟合参数或二维车道线拟合参数;
对车道线感知结果进行离散化,形成车道线点云;
根据航迹递推结果将车道线点云投影到自车坐标系中进行拟合,得到后向车道线。
2.根据权利要求1所述的车道线获取方法,其特征在于,根据航迹递推结果将车道线点云投影到自车坐标系包括如下步骤:
进行时间同步,对航迹递推结果进行插值,形成若干位姿点云数据对,其中,O k为位姿点云数据对,T k为自车在全局坐标系下的位姿,L k为自车坐标系下的车道线点云,k为时刻;
按照预设长度设置数据滑窗,将若干位姿点云数据对放入数据滑窗中,剔除数据滑窗外的位姿点云数据对;
对数据滑窗内的位姿点云数据进行坐标变换,投影到自车坐标系中。
3.根据权利要求2所述的车道线获取方法,其特征在于,设置数据滑窗的预设长度为时间长度或距离长度。
4.根据权利要求2所述的车道线获取方法,其特征在于,根据如下公式对数据滑窗内的位姿点云数据进行坐标变换投影到当前k时刻的自车坐标系下:
其中,T j为数据滑窗内j时刻自车在全局坐标系下的位姿,L j为数据滑窗内j时刻自车坐标系下的车道线点云,Pji为点云L j中第i个点的坐标;P kji为变换后在当前k时刻的自车坐标系下的坐标。
5.根据权利要求1所述的车道线获取方法,其特征在于,根据如下公式对车道线感知结果进行离散化:
其中,k为时刻,C 0、C 1、C 2、C 3为车道线方程的参数,为x k的采样范围,/>为比例系数,v为车速,/>为图像感知的时间间隔,(x k, y k)为车道线点云。
6.根据权利要求5所述的车道线获取方法,其特征在于,所述车道线感知结果为二维车道线拟合参数时,先对车道线感知结果进行离散化,然后由如下步骤转换为三维车道线点云:
由如下公式计算目标车道线上的点在视觉传感器正下方的地面坐标系下的表示:
其中,为于图像中车道线上的点的像素坐标,/>为图像中车道线上对应点在相机正下方的地面坐标系的坐标,/>和/>为视觉传感器外参,K为视觉传感器内参,s为尺度因数;
对图像中车道线上对应点在相机正下方的地面坐标系的坐标进行坐标转换,得到自车坐标系下的三维车道线点云。
7.根据权利要求1至6之一所述的车道线获取方法,其特征在于,车道线点云投影到自车坐标系后,根据如下步骤进行拟合:
按照如下公式将车道线建模为三阶曲线:
其中,为车道线距离车辆的横向偏移信息,/>为车道线与车辆的夹角的斜率信息,/>为车道线的曲率信息,/>为曲率导数信息;
由车道线点云投影到自车坐标系后的数据构成:
由如下公式获得三阶曲线的拟合参数:
三阶曲线为得到的后向车道线。
8.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任意一项所述的车道线获取方法。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任意一项所述的车道线获取方法。
10.一种机动车,具有自动驾驶功能,其特征在于,所述机动车通过权利要求1至7中任意一项所述的车道线获取方法获取车辆的后向车道线;
或所述机动车具有权利要求8所述的计算机设备;
或所述机动车具有权利要求9所述的计算机可读存储介质,所述计算机程序被处理器执行时实现权利要求1至7中任意一项所述的车道线获取方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310307533.3A CN116129389B (zh) | 2023-03-27 | 2023-03-27 | 一种车道线获取方法、计算机设备、可读存储介质及机动车 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310307533.3A CN116129389B (zh) | 2023-03-27 | 2023-03-27 | 一种车道线获取方法、计算机设备、可读存储介质及机动车 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116129389A CN116129389A (zh) | 2023-05-16 |
CN116129389B true CN116129389B (zh) | 2023-07-21 |
Family
ID=86310253
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310307533.3A Active CN116129389B (zh) | 2023-03-27 | 2023-03-27 | 一种车道线获取方法、计算机设备、可读存储介质及机动车 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116129389B (zh) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112964260A (zh) * | 2021-02-01 | 2021-06-15 | 东风商用车有限公司 | 自动驾驶定位方法、装置、设备及存储介质 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10528823B2 (en) * | 2017-11-27 | 2020-01-07 | TuSimple | System and method for large-scale lane marking detection using multimodal sensor data |
CN109766878B (zh) * | 2019-04-11 | 2019-06-28 | 深兰人工智能芯片研究院(江苏)有限公司 | 一种车道线检测的方法和设备 |
CN110411462B (zh) * | 2019-07-22 | 2021-05-18 | 武汉大学 | 一种gnss/惯导/车道线约束/里程计多源融合方法 |
CN110426051B (zh) * | 2019-08-05 | 2021-05-18 | 武汉中海庭数据技术有限公司 | 一种车道线绘制方法、装置及存储介质 |
US11914378B2 (en) * | 2021-05-18 | 2024-02-27 | Ford Global Technologies, Llc | Intersection node-assisted high-definition mapping |
CN114076956A (zh) * | 2021-11-12 | 2022-02-22 | 北京斯年智驾科技有限公司 | 一种基于激光雷达点云辅助的车道线标定方法 |
CN114280582A (zh) * | 2021-12-31 | 2022-04-05 | 中国第一汽车股份有限公司 | 激光雷达的标定校准方法、装置、存储介质及电子设备 |
CN114643993B (zh) * | 2022-03-24 | 2024-06-04 | 重庆长安汽车股份有限公司 | 一种车道合并点计算系统、方法、车辆及存储介质 |
CN114987497B (zh) * | 2022-05-30 | 2024-09-17 | 中国第一汽车股份有限公司 | 一种后向车道线拟合方法、装置、电子设备和存储介质 |
CN115469667A (zh) * | 2022-09-22 | 2022-12-13 | 上海安亭地平线智能交通技术有限公司 | 车辆航迹的确定方法、装置、电子设备和存储介质 |
CN115661299B (zh) * | 2022-12-27 | 2023-03-21 | 安徽蔚来智驾科技有限公司 | 车道线地图的构建方法、计算机设备及存储介质 |
-
2023
- 2023-03-27 CN CN202310307533.3A patent/CN116129389B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112964260A (zh) * | 2021-02-01 | 2021-06-15 | 东风商用车有限公司 | 自动驾驶定位方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN116129389A (zh) | 2023-05-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109767475B (zh) | 一种传感器的外部参数标定方法及系统 | |
CN113819914B (zh) | 一种地图构建方法及装置 | |
CN112097768B (zh) | 机器人位姿的确定方法、装置、机器人及存储介质 | |
CN106080598B (zh) | 实时预期速度控制 | |
CN111556833B (zh) | 车辆控制装置及其控制方法和车辆控制系统 | |
KR102508843B1 (ko) | 서라운드 뷰 영상에서 차량의 자차 동작을 산정하는 방법 및 장치 | |
CN111409632B (zh) | 车辆控制方法及装置、计算机设备和存储介质 | |
CN110307836B (zh) | 一种用于无人清扫车辆贴边清扫的精确定位方法 | |
US20130335553A1 (en) | Method and system for determining an ego-motion of a vehicle | |
CN110745140A (zh) | 一种基于连续图像约束位姿估计的车辆换道预警方法 | |
CN111912413B (zh) | 一种定位方法及装置 | |
CN111142091A (zh) | 一种融合车载信息的自动驾驶系统激光雷达在线标定方法 | |
EP4345421A2 (en) | Method for calibrating sensor parameters based on autonomous driving, apparatus, storage medium, and vehicle | |
CN112433531A (zh) | 一种自动驾驶车辆的轨迹跟踪方法、装置及计算机设备 | |
Kang et al. | On-road vehicle localization with GPS under long term failure of a vision sensor | |
CN111751857A (zh) | 一种车辆位姿的估算方法、装置、存储介质及系统 | |
CN113503873A (zh) | 一种多传感器融合的视觉定位方法 | |
CN116129389B (zh) | 一种车道线获取方法、计算机设备、可读存储介质及机动车 | |
CN113048987A (zh) | 一种车载导航系统定位方法 | |
CN113544034A (zh) | 用于获取交通工具传感器的校正信息的装置和方法 | |
Cario et al. | Predictive time-to-lane-crossing estimation for lane departure warning systems | |
CN113034538A (zh) | 一种视觉惯导设备的位姿跟踪方法、装置及视觉惯导设备 | |
CN114911225B (zh) | 一种双轮差速机器人打滑判定方法及装置 | |
CN111284496A (zh) | 用于自动驾驶车辆的车道追踪方法及系统 | |
CN113962115B (zh) | 车辆轮胎系数图优化标定方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |