CN113569663B - 车辆车道偏移的测量方法 - Google Patents

车辆车道偏移的测量方法 Download PDF

Info

Publication number
CN113569663B
CN113569663B CN202110772059.2A CN202110772059A CN113569663B CN 113569663 B CN113569663 B CN 113569663B CN 202110772059 A CN202110772059 A CN 202110772059A CN 113569663 B CN113569663 B CN 113569663B
Authority
CN
China
Prior art keywords
coordinate system
pixel
key frame
current frame
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110772059.2A
Other languages
English (en)
Other versions
CN113569663A (zh
Inventor
殷国栋
李志翰
庄伟超
周闪星
刘昊吉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN202110772059.2A priority Critical patent/CN113569663B/zh
Publication of CN113569663A publication Critical patent/CN113569663A/zh
Application granted granted Critical
Publication of CN113569663B publication Critical patent/CN113569663B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种车辆车道偏移的测量方法,涉及智能交通技术领域,解决了现有技术中车辆车道定位的成本高且精度低的技术问题,其技术方案要点是采用基于数字图像的车道线检测和车辆车道定位的方法,关键帧的视频帧会调用全卷积神经网络进行语义分割处理生成关键帧对应的车道线结果,不是关键帧的视频帧不通过语义分割,因而可以利用关键帧判别算法减少调用复杂的全卷积神经网络的次数。对硬件平台的要求较低,方法可实施性高;同时具备较好的鲁棒性,提高了车辆车道定位精度,在提高驾驶者行驶安全性的同时,也在一定程度上降低了驾驶者的劳动强度。

Description

车辆车道偏移的测量方法
技术领域
本公开涉及智能交通技术领域,尤其涉及一种车辆车道偏移的测量方法。
背景技术
对于现有的ADAS(Advanced Driving Assistance System,高级驾驶辅助系统)和智能驾驶汽车,车道线检测和车辆车道定位是车辆环境感知能力中的关键任务。车辆车道定位方法包括两个部分,一是对车道线的检测,二是对车辆相对车道的位置进行定位。
车道线的检测方法有很多种,可以从传感器获取到的信息的角度分为:基于数字图像的车道线识别方法和基于激光点云数据的车道线识别方法,前者是利用数字图像处理技术或深度学习技术对道路样张进行处理,以获取车道线信息;后者是利用激光雷达生成的点云数据进行处理,以获取车道区域信息。一般来说,车道信息的三维特征不甚明显,且使用激光雷达设备的成本较高,设备可靠性相对不足,因此主要用于特殊的道路环境,在车道线检测和车道定位上应用不多。
基于数字图像处理技术的车道线检测是车道线检测领域的主流手段,常见的处理方法包括:利用Sobel、Canny算子进行卷积获取边缘特征、利用霍夫变换识别图像内直线、利用RANSAC算法提取图像内特征点等。如刘兰馨等做了基于机器视觉的车道线检测和交通标志识别的研究,针对公路模型中的直线车道线利用基于极角、极径约束的改进霍夫变换实现了较好的直线识别效果;江苏大学蔡英凤等提出的一种基于形态学特征的车道线识别方法,定义图像中的脊度量反应车道线的特征,再利用聚类方法筛选出表征车道线的点,最后利用霍夫变换确定车道线,方法对于虚线型车道线也具有识别的能力;吉林大学的曲峰提出一种区分远、近视场,分别利用极坐标聚类和双曲线模型拟合的车道线识别方法。
也有学者开始应用深度学习技术对相机采集的样张进行处理以实现道路识别的工作。如华南理工大学的姜立标等面对当前在复杂场景下车道线检测存在精度不高、鲁棒性较差等问题,提出一种基于VGG-16卷积神经网络实现的利用实例分割方法完成复杂场景下车道线检测。算法首先对道路图像进行二值化语义分割,得到离散的车道线像素点,再利用Mean-shift聚类方法确定属于同一条车道线的像素点,形成相应的车道线实例;电子科技大学的罗森在实现了基于全卷积神经网络的车道线分割网络的基础上增加了基于条件随机场的后处理方法,有效实现了车道线的像素级分割任务。
在车辆车道定位领域,目前的技术还相对比较复杂,一是依赖全球定位系统,其精度和定位成本成反比;二是利用智能交通系统,通过高精度地图实现车辆定位,此方法难度大成本高,技术推广还需要很长时间。三是利用地图信息、全球定位和车载传感器的组合定位方法,这种方式相对前两者有更好的实现条件和定位效果。
因此,如何利用车辆感知技术的车辆车道定位以降低车道定位的成本并提高定位精度是亟需解决的问题。
发明内容
本公开提供了一种车辆车道偏移的测量方法,其技术目的是降低车辆车道定位的成本并提高定位的精度。
本公开的上述技术目的是通过以下技术方案得以实现的:
一种车辆车道偏移的测量方法,包括:
S1:通过车载相机采集车辆行驶前方的道路样张,获取第一关键帧和当前帧;其中,关键帧表示一段时间内画面特点的视频帧;
S2:将当前帧和第一关键帧输入到光流估计网络,得到特征图F1,通过所述特征图F1获得从第一关键帧变化到当前帧的光流估计矩阵M1;
S3:将所述特征图F1输入到关键帧判别算法,得到当前帧可以作为关键帧的置信度;
S4:判断当前帧是否可以更新为关键帧,若是则转至步骤S41,否则转至步骤S42;
S41:调用全卷积神经网络FCN-8s对所述当前帧进行语义分割生成第一识别掩膜R1;
S42:通过所述第一关键帧的语义分割结果和光流估计矩阵M1生成光流估计后的第二识别掩膜R2;
S5:对所述第一识别掩膜或所述第二识别掩膜进行处理,拟合出表征车道线的二次曲线方程;
S6:将范围内的行像素逐行代入行坐标到车道线的二次曲线方程中,得到两个列坐标点,并求这两个列坐标点的算术平均值,最终得到一组中点坐标,所述中点坐标即为理想轨迹点;
S7:定义世界坐标系、相机坐标系、像素坐标系和成像坐标系,将所述理想轨迹点变换到世界坐标系下;
S8:在世界坐标系下对所述理想轨迹点进行二次曲线拟合,生成理想轨迹线,通过所述理想轨迹线方程的常数项参数确定当前车辆的车道偏移情况。
本公开的有益效果在于:与现有技术相比,本申请采用基于数字图像的车道线检测和车辆车道定位的方法,关键帧的视频帧会调用全卷积神经网络进行语义分割处理生成关键帧对应的车道线结果,不是关键帧的视频帧不通过语义分割,因而可以利用关键帧判别算法减少调用复杂的全卷积神经网络的次数。对硬件平台的要求较低,方法可实施性高;同时具备较好的鲁棒性,提高了车辆车道定位精度,在提高驾驶者行驶安全性的同时,也在一定程度上降低了驾驶者的劳动强度。
附图说明
图1为本申请所述方法的流程图;
图2为本申请训练神经网络时的标签样例;
图3为本申请中使用的FCN-8S网络结构示意图;
图4为本申请中FCN-8S输出的语义分割掩膜;
图5为本申请中得到的基于原图灰度图像的语义分割结果;
图6为本申请对车道线的最终识别结果;
图7为本申请生成的图像上理想轨迹点可视化结果;
图8为本申请定义的世界坐标系、相机坐标系、成像坐标系和像平面位置关系示意图;
图9为本申请定义的成像坐标系和像素坐标系位置关系示意图;
图10为本申请所述方法在仿真环境的示意图。
具体实施方式
下面将结合附图对本公开技术方案进行详细说明。在本申请描述中,需要理解地是,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量,仅用来区分不同的组成部分。
图1为本申请所述方法的流程图,如图1所示,该方法包括:步骤S1:通过车载相机采集车辆行驶前方的道路样张,获取第一关键帧和当前帧;其中,关键帧表示一段时间内画面特点的视频帧。
关键帧可以理解为最能代表一段时间内画面特点的视频帧,通常减轻语义分割工作量,抽取关键帧的方法往往是定步长,经过k帧后,取k+1帧作为新的关键帧,本申请相当于提供了一个动态调整的方法。
本申请实施例中,图像采集装置被布置在车辆顶部中央位置,以能够拍到车辆所在车道两侧的车道线为宜。车载相机包括但不限于可以输出RGB彩色图像的相机、可以输出灰度图像的摄像机等。
步骤S2:将当前帧和第一关键帧输入到光流估计网络,得到特征图F1,通过所述特征图F1获得从第一关键帧变化到当前帧的光流估计矩阵M1。
具体地,光流估计网络包括编码器和解码器,将所述当前帧和第一关键帧按通道叠加输入到所述编码器,通过连续的卷积操作提取特征获得特征图F1,所述解码器对所述特征图F1进行采样得到光流估计矩阵M1。
步骤S3:将所述特征图F1输入到关键帧判别算法,得到当前帧可以作为关键帧的置信度。
具体地,将所述特征图F1输入到所述关键帧判别算法,则所述当前帧可以作为关键帧的置信度定义为:
Figure BDA0003154026400000031
其中,Ci表示当前帧中识别正确的像素点,Pall表示当前帧的像素点总数;所述关键帧判别算法包括五层神经网络,第一层为卷积层,第二层至第五层均为全连接层。
置信度可以理解为:当前帧识别结果和关键帧识别结果的重合程度,如果置信度低,说明场景变化比较大,关键帧不能代替当前帧的特征,需要把当前帧重新置为关键帧。
步骤S4:判断当前帧是否可以更新为关键帧,若是则转至步骤S41,否则转至步骤S42。
步骤S41:调用全卷积神经网络对所述当前帧进行语义分割生成第一识别掩膜R1。
步骤S42:通过所述第一关键帧的语义分割结果和光流估计矩阵M1生成光流估计后的第二识别掩膜R2。
本申请中,设置置信度的阈值为90%,则步骤S41包括:当置信度小于90%时,则当前帧被更新为新的关键帧,即得到第二关键帧,然后通过全卷积神经网络FCN-8s对第二关键帧进行语义分割得到第一识别掩膜R1。
具体地,全卷积神经网络FCN-8s的特征在于:在标记训练神经网络使用的图像时,只标记车辆所在车道的车道线,如图2所示,将左右车道线不加区分的统一标注为车道线标签,且对线型不做区分,将车道线识别任务设计成一个二分类问题。
被训练用于识别车道线的全卷积神经网络为FCN-8s网络,FCN-8s网络的结构示意图如图3所示,其包括七个卷积层,其中前五个卷积层内部又包括了卷积和最大池化操作,后两个卷积层为dropout层;在经过第一卷积层后输入图像的宽度和高度分别减半,在经过第二卷积层后输出图像的宽度和高度为原图的四分之一,以此类推到第五卷积层输出图像的宽度和高度为原图的三十二分之一;在Eltwise1层将第五卷积层的输出结果反卷积进行两倍上采样并和第四卷积层的输出做逐像素值相加的特征融合,将这一融合结果再做两倍上采样,在Eltwise2层中和第三卷积层的输出做逐像素相加的特征融合;最后将经过了两次特征融合后的结果做八倍上采样恢复到输入图像尺寸,得到语义分割结果。
全卷积神经网络FCN在训练时使用640×480像素分辨率的RGB彩色图像作为输入,首先训练了FCN-32s网络并得到一个训练结果,用这一训练结果作为FCN-16s的初始化权重再训练FCN-16s,最后用FCN-16s的训练结果作为初始化权重训练FCN-8s得到最终用于识别车道线的全卷积神经网络FCN-8s,FCN-8s输出的语义分割掩膜如图4所示。
步骤S42包括:当置信度大于90%时,当前帧不会被更新为关键帧,若当前帧上的目标像素点坐标为(u0,v0),则所述目标像素点(u0,v0)在所述光流估计矩阵M1上对应的相对于第一关键帧的在水平方向u轴和垂直方向v轴上的位移是x(u,v)和y(u,v),通过式(2)计算目标像素点(u0,v0)的像素值,生成当前帧的第二识别掩膜R2。
f(u0,v0)=Q(u1,v1)·w1+Q(u1,v2)·w2+Q(u2,v1)·w3+Q(u2,v2)·w4; (2);
其中,Q(u,v)表示第一识别掩膜R1中像素点(u,v)的像素值,wj表示权重,j∈[1,4];
Figure BDA0003154026400000041
Figure BDA0003154026400000042
本申请中,被定义为关键帧的视频帧会调用全卷积神经网络进行语义分割处理生成关键帧对应的车道线结果,不是关键帧的视频帧不通过语义分割,因而可以利用关键帧判别算法减少调用复杂的全卷积神经网络的次数。
步骤S5:对所述第一识别掩膜或所述第二识别掩膜进行处理,拟合出表征车道线的二次曲线方程。
具体包括:选取第一识别掩膜R1或第二识别掩膜R2中的R通道图像,并将R通道图像中非零灰度值像素点的灰度值置1。
将当前帧进行灰度化处理得到一张单通道的第一灰度图像,通过设置R、G、B三个通道灰度值的不同权重,将所述第一灰度图像的每个像素在三个通道上的灰度合并为一个灰度值,得到第二灰度图像,换算关系如式(3)所示:
Gray=R×0.299+G×0.587+B×0.114; (3);
其中,Gray表示换算后的灰度值,即第二灰度图像的灰度值。
将所述第二灰度图像和所述R通道图像逐像素相乘,获得基于所述当前帧的语义分割结果,该语义分割结果如图5所示。
将所述语义分割结果的全局灰度值放大五倍,此时表示车道线的像素点灰度值将首先达到灰度值上限255,再将全局灰度值除以255并向下取整,则过滤掉了非车道线像素而留下了表征车道线的像素点,如图6所示,从而得到新的得到表征车道线的图像。
分别对所述图像0到320列像素和321到640列像素这两个区域做最小二乘法拟合,得到表征车道线的二次曲线方程,即:
Figure BDA0003154026400000051
其中,xi、yi分别表示所述图像上表示车道线像素点的行坐标、列坐标,i∈[0,640],n=640,a、b、c都表示二次曲线方程的参数。
步骤S6:将范围内的行像素逐行代入行坐标到车道线的二次曲线方程中,得到两个列坐标点,并求这两个列坐标点的算术平均值,最终得到一组中点坐标,所述中点坐标即为理想轨迹点。
具体地,根据式(4),将所述图像的第260行到第480行像素范围内逐行代入行数值到式(4)求解中点坐标,计算过程为:
Figure BDA0003154026400000052
其中,i′∈[260,480],Middlepoint(i′)表示对应第i′行上的中点坐标的列数值,即所述图像上的理想轨迹点,leftline(i′)和rightline(i′)分别表示左侧和右侧车道线的二次曲线方程对应的第i′行上的列数值。由式(5)得到的一组Middlepoint点定义为图像上的理想轨迹点,将这一过程可视化如图7所示。
步骤S7:根据透视变换的需要,定义世界坐标系、相机坐标系、像素坐标系和成像坐标系,如图8、图9所示,将所述理想轨迹点变换到世界坐标系下。
具体地,包括:
S71:定义世界坐标系Ow-UVW,世界坐标系的原点可以任意给定,其意义在于能够在真实的三维物理世界中给定一个坐标系以描述物理世界中任一点;世界坐标系通常以所感兴趣的物体为中心建立。本申请中,以汽车相机安装位置在地面上的投影点为世界坐标系的原点,汽车行驶方向为U轴正方向,汽车行驶方向左侧为V轴正方向,汽车行驶方向垂直向上为W轴正方向。特别地,将去掉W方向的二维平面坐标系称为地面坐标系。
定义相机坐标系Oc-XYZ,相机坐标系由汽车相机的位置唯一确定,一旦汽车相机的光轴和光心确定后,相机坐标系的三个轴就给定了,用来描述真实物理世界中的点在相机坐标系下的坐标。一般忽略相机成像结构尺寸,认为安装位置点就是相机的光心位置。本申请中,汽车相机安装位置点即是原点,原点水平向右为X轴,原点水平向下为Y轴,汽车行驶方向为Z轴。
定义像素坐标系Op-uv,像素坐标系是按照数字图像处理技术中常见的规定方法规定的,本申请中,以图像左上角为原点,向右为u轴正方向,向下为v轴正方向。
定义成像坐标系Of-xy,成像坐标系由相机的成像平面唯一确定,表示将相机坐标系中的点投影到感光器件上成像得到二维坐标点。成像坐标系是一个二维坐标系,本申请中,原点是光心在感光元件上的投影点,x和y轴的正方向和像素坐标系的约定一致。
S72:根据汽车相机的布置情况,确定相机坐标系和世界坐标系之间的变换关系,如式(6)所示:
Figure BDA0003154026400000061
式(6)中,R表示三维旋转变换矩阵,T表示三维平移变换矩阵。
S73:建立成像坐标系和相机坐标系之间的变换关系,如式(7)所示:
Figure BDA0003154026400000062
式(7)中,f表示相机的焦距。
S74:建立像素坐标系和成像坐标系之间的变换关系,如式(8)所示:
Figure BDA0003154026400000063
式(8)中,dx、dy表示像素点的实际物理尺寸,一般dx=dy
S75:由式(6)、式(7)、式(8)联立得到像素坐标系和世界坐标系之间的变换关系,如式(9)所示:
Figure BDA0003154026400000064
事实上,由于需要识别的车道线全部位于地面坐标系上,即W=0;且相机坐标系原点在地面上的投影和世界坐标系相重合,因此Z和U坐标值之间满足相机俯仰角的余弦关系。通过给定一个地面坐标系上的感兴趣区域,如U∈[2,15],V∈[-2,2],步进U和V的数值遍历该区域内各离散点并对应到像素坐标系下的u、v值。
S76:通过像素坐标系和世界坐标系之间的变换关系,将所述理想轨迹点变换到世界坐标系上。
步骤S8:在世界坐标系下对所述理想轨迹点进行二次曲线拟合,生成理想轨迹线,通过所述理想轨迹线方程的常数项参数确定当前车辆的车道偏移情况。
具体地,对理想轨迹点利用最小二乘法进行二次曲线拟合即可得到车辆运动的理想轨迹新,理想轨迹线方程为V=aU2+bU+c。
其中,常数项系数c表示车辆(地面坐标系原点,亦即相机安装位置在地面投影点)偏离车道中心线的程度,当c大于0时表示车辆位置偏右,当c小于0时表示车辆位置偏左。利用虚拟环境中的车辆,展示车道偏移测量方法的识别结果如图10所示,图10的仿真结果显示,当前车辆左偏移0.76米。
以上为本公开示范性实施例,本公开的保护范围由权利要求书及其等效物限定。

Claims (9)

1.一种车辆车道偏移的测量方法,其特征在于,包括:
S1:通过车载相机采集车辆行驶前方的道路样张,获取第一关键帧和当前帧;其中,关键帧表示一段时间内画面特点的视频帧;
S2:将当前帧和第一关键帧输入到光流估计网络,得到特征图F1,通过所述特征图F1获得从第一关键帧变化到当前帧的光流估计矩阵M1;
S3:将所述特征图F1输入到关键帧判别算法,得到当前帧可以作为关键帧的置信度;
S4:判断当前帧是否可以更新为关键帧,若是则转至步骤S41,否则转至步骤S42;
S41:调用全卷积神经网络FCN-8s对所述当前帧进行语义分割生成第一识别掩膜R1;
S42:通过所述第一关键帧的语义分割结果和光流估计矩阵M1生成光流估计后的第二识别掩膜R2;
S5:对所述第一识别掩膜或所述第二识别掩膜进行处理,拟合出表征车道线的二次曲线方程;
S6:将范围内的行像素逐行代入行坐标到车道线的二次曲线方程中,得到两个列坐标点,并求这两个列坐标点的算术平均值,最终得到一组中点坐标,所述中点坐标即为理想轨迹点;
S7:定义世界坐标系、相机坐标系、像素坐标系和成像坐标系,将所述理想轨迹点变换到世界坐标系下;
S8:在世界坐标系下对所述理想轨迹点进行二次曲线拟合,生成理想轨迹线,通过所述理想轨迹线方程的常数项参数确定当前车辆的车道偏移情况。
2.如权利要求1所述的方法,其特征在于,所述步骤S2中,所述光流估计网络包括编码器和解码器,将所述当前帧和第一关键帧按通道叠加输入到所述编码器,通过连续的卷积操作提取特征获得特征图F1,所述解码器对所述特征图F1进行采样得到光流估计矩阵M1。
3.如权利要求2所述的方法,其特征在于,所述步骤S3包括:
将所述特征图F1输入到所述关键帧判别算法,则所述当前帧可以作为关键帧的置信度定义为:
Figure FDA0003154026390000011
其中,Ci表示当前帧中识别正确的像素点,Pall表示当前帧的像素点总数;所述关键帧判别算法包括五层神经网络,第一层为卷积层,第二层至第五层均为全连接层。
4.如权利要求3所述的方法,其特征在于,所述步骤S41包括:
设置所述置信度的阈值为90%,当所述置信度小于90%时,则当前帧被更新为新的关键帧,即得到第二关键帧;
通过全卷积神经网络FCN-8s对所述第二关键帧进行语义分割得到第一识别掩膜R1。
5.如权利要求4所述的方法,其特征在于,所述步骤S42包括:
当所述置信度大于90%时,当前帧不会被更新为关键帧,若当前帧上的目标像素点坐标为(u0,v0),则所述目标像素点(u0,v0)在所述光流估计矩阵M1上对应的相对于第一关键帧的在水平方向u轴和垂直方向v轴上的位移是x(u,v)和y(u,v),通过式(2)计算目标像素点(u0,v0)的像素值,生成当前帧的第二识别掩膜R2;
f(u0,v0)=Q(u1,v1)·w1+Q(u1,v2)·w2+Q(u2,v1)·w3+Q(u2,v2)·w4; (2);
其中,Q(u,v)表示第一识别掩膜R1中像素点(u,v)的像素值,wj表示权重,j∈[1,4];
Figure FDA0003154026390000021
Figure FDA0003154026390000022
6.如权利要求5所述的方法,其特征在于,所述步骤S5包括:
选取第一识别掩膜R1或第二识别掩膜R2中的R通道图像,并将R通道图像中非零灰度值像素点的灰度值置1;
将当前帧进行灰度化处理得到一张单通道的第一灰度图像,通过设置R、G、B三个通道灰度值的不同权重,将所述第一灰度图像的每个像素在三个通道上的灰度合并为一个灰度值,得到第二灰度图像,换算关系如式(3)所示:
Gray=R×0.299+G×0.587+B×0.114; (3);
其中,Gray表示换算后的灰度值,即第二灰度图像的灰度值;
将所述第二灰度图像和所述R通道图像逐像素相乘,获得基于所述当前帧的语义分割结果;
将所述语义分割结果的全局灰度值放大五倍,再将全局灰度值除以255并向下取整,得到新的得到表征车道线的图像;
分别对所述图像0到320列像素和321到640列像素这两个区域做最小二乘法拟合,得到表征车道线的二次曲线方程,即:
Figure FDA0003154026390000023
其中,xi、yi分别表示所述图像上表示车道线像素点的行坐标、列坐标,i∈[0,640],n=640,a、b、c都表示二次曲线方程的参数。
7.如权利要求6所述的方法,其特征在于,所述步骤S6包括:
根据式(4),将所述图像的第260行到第480行像素范围内逐行代入行数值到式(4)求解中点坐标,计算过程为:
Figure FDA0003154026390000024
其中,i′∈[260,480],Middlepoint(i′)表示对应第i′行上的中点坐标的列数值,即所述图像上的理想轨迹点,leftline(i′)和rightline(i′)分别表示左侧和右侧车道线的二次曲线方程对应的第i′行上的列数值。
8.如权利要求7所述的方法,其特征在于,所述步骤S7包括:
S71:定义世界坐标系Ow-UVW,以汽车相机安装位置在地面上的投影点为世界坐标系的原点,汽车行驶方向为U轴正方向,汽车行驶方向左侧为V轴正方向,汽车行驶方向垂直向上为W轴正方向;
定义相机坐标系Oc-XYZ,汽车相机安装位置点即是原点,原点水平向右为X轴,原点水平向下为Y轴,汽车行驶方向为Z轴;
像素坐标系Op-uv,以图像左上角为原点,向右为u轴正方向,向下为v轴正方向;
成像坐标系Of-xy,由汽车相机的成像平面唯一确定,原点是光心在感光元件上的投影点,x和y轴的正方向和像素坐标系的约定一致;
S72:根据汽车相机的布置情况,确定相机坐标系和世界坐标系之间的变换关系,如式(6)所示:
Figure FDA0003154026390000031
式(6)中,R表示三维旋转变换矩阵,T表示三维平移变换矩阵;
S73:建立成像坐标系和相机坐标系之间的变换关系,如式(7)所示:
Figure FDA0003154026390000032
式(7)中,f表示相机的焦距;
S74:建立像素坐标系和成像坐标系之间的变换关系,如式(8)所示:
Figure FDA0003154026390000033
式(8)中,dx、dy表示像素点的实际物理尺寸,一般dx=dy
S75:由式(6)、式(7)、式(8)联立得到像素坐标系和世界坐标系之间的变换关系,如式(9)所示:
Figure FDA0003154026390000034
S76:通过像素坐标系和世界坐标系之间的变换关系,将所述理想轨迹点变换到世界坐标系上。
9.如权利要求8所述的方法,其特征在于,所述步骤S8包括:在世界坐标系下对所述理想轨迹点进行二次曲线拟合,得到理想轨迹线方程为V=aU2+bU+c;
其中,常数项系数c表示车辆偏离车道中心线的程度,当c大于0时表示车辆位置偏右,当c小于0时表示车辆位置偏左;
U表示世界坐标系中汽车行驶方向的U轴正方向,V表示汽车行驶方向左侧的V轴正方向。
CN202110772059.2A 2021-07-08 2021-07-08 车辆车道偏移的测量方法 Active CN113569663B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110772059.2A CN113569663B (zh) 2021-07-08 2021-07-08 车辆车道偏移的测量方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110772059.2A CN113569663B (zh) 2021-07-08 2021-07-08 车辆车道偏移的测量方法

Publications (2)

Publication Number Publication Date
CN113569663A CN113569663A (zh) 2021-10-29
CN113569663B true CN113569663B (zh) 2022-11-22

Family

ID=78164084

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110772059.2A Active CN113569663B (zh) 2021-07-08 2021-07-08 车辆车道偏移的测量方法

Country Status (1)

Country Link
CN (1) CN113569663B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114387576A (zh) * 2021-12-09 2022-04-22 杭州电子科技大学信息工程学院 一种车道线识别方法、系统、介质、设备及信息处理终端

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107577996A (zh) * 2017-08-16 2018-01-12 中国地质大学(武汉) 一种车辆驾驶路径偏移的识别方法及系统
CN107590438A (zh) * 2017-08-16 2018-01-16 中国地质大学(武汉) 一种智能辅助驾驶方法及系统
CN108764137A (zh) * 2018-05-29 2018-11-06 福州大学 基于语义分割的车辆行驶车道定位方法
CN110363182A (zh) * 2019-07-24 2019-10-22 北京信息科技大学 基于深度学习的车道线检测方法
CN111582083A (zh) * 2020-04-25 2020-08-25 华南理工大学 一种基于消失点估计与语义分割的车道线检测方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107577996A (zh) * 2017-08-16 2018-01-12 中国地质大学(武汉) 一种车辆驾驶路径偏移的识别方法及系统
CN107590438A (zh) * 2017-08-16 2018-01-16 中国地质大学(武汉) 一种智能辅助驾驶方法及系统
CN108764137A (zh) * 2018-05-29 2018-11-06 福州大学 基于语义分割的车辆行驶车道定位方法
CN110363182A (zh) * 2019-07-24 2019-10-22 北京信息科技大学 基于深度学习的车道线检测方法
CN111582083A (zh) * 2020-04-25 2020-08-25 华南理工大学 一种基于消失点估计与语义分割的车道线检测方法

Also Published As

Publication number Publication date
CN113569663A (zh) 2021-10-29

Similar Documents

Publication Publication Date Title
CN109945858B (zh) 用于低速泊车驾驶场景的多传感融合定位方法
CN110569704B (zh) 一种基于立体视觉的多策略自适应车道线检测方法
CN108519605B (zh) 基于激光雷达和摄像机的路沿检测方法
CN106919915B (zh) 基于adas系统的地图道路标记及道路质量采集装置及方法
CN112037159B (zh) 一种跨相机道路空间融合及车辆目标检测跟踪方法及系统
AU2018286592A1 (en) Systems and methods for correcting a high-definition map based on detection of obstructing objects
CN111967360B (zh) 基于车轮的目标车辆姿态检测方法
CN111169468A (zh) 一种自动泊车的系统及方法
CN112927303B (zh) 一种基于车道线的自动驾驶车载相机位姿估计方法及系统
CN112329776A (zh) 基于改进CenterNet网络的车牌检测方法及装置
CN111738071B (zh) 一种基于单目摄像机的运动变化的逆透视变换方法
Rasib et al. Pixel level segmentation based drivable road region detection and steering angle estimation method for autonomous driving on unstructured roads
CN114419098A (zh) 基于视觉变换的运动目标轨迹预测方法及装置
CN105279770A (zh) 一种目标跟踪控制方法及装置
CN110738081A (zh) 异常路况检测方法及装置
CN117111055A (zh) 一种基于雷视融合的车辆状态感知方法
CN115239822A (zh) 分体式飞行车辆多模块间实时视觉识别定位方法及系统
WO2021063756A1 (en) Improved trajectory estimation based on ground truth
CN116978009A (zh) 基于4d毫米波雷达的动态物体滤除方法
CN113569663B (zh) 车辆车道偏移的测量方法
Kruber et al. Vehicle position estimation with aerial imagery from unmanned aerial vehicles
CN108182428A (zh) 前车状态识别和车辆跟随的方法
CN108389177B (zh) 一种车辆保险杠破损检测方法及交通安全预警方法
CN106780541A (zh) 一种改进的背景减除方法
CN113313041B (zh) 基于信息融合的前方车辆识别方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant