CN111829549B - 一种基于高精度地图的积雪路面虚拟车道线投影方法 - Google Patents

一种基于高精度地图的积雪路面虚拟车道线投影方法 Download PDF

Info

Publication number
CN111829549B
CN111829549B CN202010748441.5A CN202010748441A CN111829549B CN 111829549 B CN111829549 B CN 111829549B CN 202010748441 A CN202010748441 A CN 202010748441A CN 111829549 B CN111829549 B CN 111829549B
Authority
CN
China
Prior art keywords
driver
lane line
projection
virtual lane
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010748441.5A
Other languages
English (en)
Other versions
CN111829549A (zh
Inventor
胡宏宇
孙亮亮
程铭
王�琦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jilin University
Original Assignee
Jilin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jilin University filed Critical Jilin University
Priority to CN202010748441.5A priority Critical patent/CN111829549B/zh
Publication of CN111829549A publication Critical patent/CN111829549A/zh
Application granted granted Critical
Publication of CN111829549B publication Critical patent/CN111829549B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3658Lane guidance
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/365Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明公开了一种积雪道路虚拟车道线投影方法,包括:将车道中心线作为车道参考线,根据车道线位置,确定虚拟车道线的投影角度;在驾驶员行驶过程中,获取不同车速下的驾驶员注视点坐标;根据注视点坐标,确定驾驶员的注视区域,进而确定驾驶员的前视距离以及虚拟车道线投影长度。本发明提出的基于高精度地图定位的积雪路面虚拟车道线投影方法,投影出的虚拟车道线与真实车道线位置基本重合,具有可投影功能的车辆可以辅助其它车辆行驶。车辆利用高精度地图,获取行驶车道线的信息以及本车的位置信息,计算出路宽以及车载投影仪与左右两侧车道线的距离,再结合投影仪高度,最终确定投影仪竖直平面上的投影角度。

Description

一种基于高精度地图的积雪路面虚拟车道线投影方法
技术领域
本发明涉及一种基于高精度地图的积雪路面虚拟车道线投影方法,属于积雪路面虚拟车道线投影技术。
背景技术
我国东北地区降雪长达5~6个月,积雪的路面会遮挡住车道线等道路交通标示,给出行带来不便。车道线被积雪遮挡,会出现压线、车流混乱等情况,严重影响交通秩序,甚至会出现交通事故。积雪道路上,驾驶员主要依靠驾驶经验来驾驶车辆,但不同的驾驶员的驾驶经验各不相同,经验差异仍然会造成交通秩序混乱,因此复现虚拟车道线维持正常的交通秩序是非常有必要的。目前已经存在虚拟车道线投影技术,但这些投影技术没有结合驾驶员视线和情绪等生理信息进行动态调节,人机交互性差。
随着高精度地图技术的发展,车辆定位精度越来越高,这为车道线投影提供了技术保障。高精地图作为一种高精度、内容丰富、高精细度、高稳健性、远视距的静态传感器,在自动驾驶定位、感知、决策、控制全流程中均具有着不可或缺的作用。高精度地图定位是融合了激光雷达点云数据、GPS信号、语义矢量地图等综合信息的定位技术,能够获取车道线、红绿灯等信息。目前的车道线投影方案没有考虑到定位信息缺失的情况,不能提供缺少定位信息情况下车道线投影的解决方案,针对定位信息缺失这种突发情况,仍需要提出恰当的方法来实现车道线投影功能。
激光投影技术是利用车载激光投影仪实时向车辆前方和车辆后方投影车道线,使得虚拟车道线和实际车道线高度重合,以此来解决积雪路面车道线被遮蔽的问题,目前的车道线投影方案形式单一,不能很好地适应道路环境,本发明则是提出一种虚拟车道线长度可随车速动态调节的方法。
发明内容
本发明设计开发了一种基于高精度地图的积雪路面虚拟车道线投影方法,能够获取行驶中汽车的车道线信息,在驾驶员行驶过程中,获取不同车速下的驾驶员注视点坐标,使虚拟车道线长度能够随着车速自适应调整。
本发明还的另一发明目的,前照登光束能够随着驾驶员注视区域自适应调整。
本发明提供的技术方案为:
一种基于高精度地图的积雪路面虚拟车道线投影方法,包括:
将车道中心线作为车道参考线,根据车道线位置,确定虚拟车道线的投影角度;
在驾驶员行驶过程中,获取不同车速下的驾驶员注视点坐标;
根据注视点坐标,确定驾驶员的注视区域,进而确定驾驶员的前视距离以及虚拟车道线投影长度。
优选的是,所述驾驶员的注视点坐标的获取过程包括:
步骤一、在行车过程中通过行车记录仪获取驾驶员视角的前视图像以及通过眼动仪获取驾驶员视角的眼动数据;
步骤二、对获得的视频图像进行校正;
步骤三、通过动态时间窗口内的视点偏离方法,获得移动图像坐标系下的注视点;
步骤四、对获得的移动图像坐标系下的注视点坐标进行定位处理,把眼动仪记录的图像与行车记录仪下的图像进行匹配,得到固定图像坐标系下的注视点坐标;
步骤五、把固定坐标系下的注视点坐标变换为以驾驶员为原点的世界坐标系下的注视点坐标。
优选的是,所述确定驾驶员的前视距离的过程包括:
分别在不同实验车速vi条件下,计算驾驶员的平均注视点坐标
Figure BDA0002609209790000021
Figure BDA0002609209790000031
Figure BDA0002609209790000032
式中,x"j和y"j是驾驶员的注视点坐标;
根据平均注视坐标计算驾驶员的前视距离Di
Figure BDA0002609209790000033
通过线性插值的方法计算在实际行驶车速v∈[20,90]范围内,驾驶员在实际行驶过程中的前视距离D:
Figure BDA0002609209790000034
当车速低于20km/h或者超过90km/h时前视距离定义如下:
Figure BDA0002609209790000035
优选的是,
所述虚拟车道线长度的经验公式为:L=2kD
其中,k为经验系数(请给出k的范围)
优选的是,在行驶过程中,
所述投影仪向车辆一侧的投影角为:
Figure BDA0002609209790000036
所述投影仪向车辆另一侧的投影角为:
Figure BDA0002609209790000037
其中,W为汽车行驶公路的路宽,H1为投影仪距离地面的高度,d1为投影仪在坐标系中的横向距离。
优选的是,所述步骤二中,视频图像校正过程包括对畸变图像校正,所述图像校正公式为:
Figure BDA0002609209790000041
Figure BDA0002609209790000042
其中,(xu,yu)是矫正后得到的像素点坐标,(xd,yd)为像素点畸变后的坐标,(x0,y0)为畸变中心坐标,rd为像素点距离畸变中心的距离,λ为畸变系数。
本发明所述的有益效果:本发明提出的基于高精度地图定位的积雪路面虚拟车道线投影方法,投影出的虚拟车道线与真实车道线位置基本重合,具有可投影功能的车辆可以辅助其它车辆行驶。车辆利用高精度地图,获取行驶车道线的信息以及本车的位置信息,计算出路宽以及车载投影仪与左右两侧车道线的距离,再结合投影仪高度,最终确定投影仪竖直平面上的投影角度。投影的虚拟车道线长度可随着车速自适应调整,同时,前照灯光束跟随驾驶员注视区域自适应调整。
附图说明
图1为本发明所述的积雪路面虚拟车道线投影方法结构框图。
图2为本发明所述的基于Frenet坐标系下车道图。
图3为本发明所述的积雪路面虚拟车道线投影示意图
图4(a)和(b)为本发明所述的车载激光投影仪投影关系图。
图5(a)为本发明所述的畸变后的参考图
图5(b)为本发明所述的畸变后的标定图。
具体实施方式
下面结合附图对本发明做进一步的详细说明,以令本领域技术人员参照说明书文字能够据以实施。
如图1所示,本发明提供一种基于高精度地图的积雪路面虚拟车道线投影方法,在驾驶员行驶过程中,获取不同车速下的驾驶员注视点坐标,使虚拟车道线长度能够随着车速自适应调整,具体包括:
将车道中心线作为车道参考线,根据车道线位置,确定虚拟车道线的投影角度;
在驾驶员行驶过程中,获取不同车速下的驾驶员注视点坐标;
根据注视点坐标,确定驾驶员的注视区域,进而确定驾驶员的前视距离以及虚拟车道线投影长度。
虚拟车道线投影角度的确定包括:
在高精度地图中,获得车道两侧边界线L0、L1以及车道中心线L2,如图2所示,
根据车道两侧边界线,做其公垂线,公垂线和两侧车道边界线的交点分别为:k1和k2,两个交点之间的长度为W,即为路宽。
将车道中心线作为车道参考线,使用车道中心线的切线向量和法线向量简历Frenet坐标系,Frenet坐标系以起始车道中心线为原点,以沿车道中心线方向为s方向,即道路方向的纵向距离,以车道中心线法向量方向为d方向,即偏离车道中心线的横向距离,s方向和d方向为两个相互垂直的坐标轴,车辆位置可以用三个维度来描述,即(s,d,t),其中,s表示车辆的纵向距离,d表示车辆的横向距离,t表示车辆行驶时的任意一时间点。
将投影仪安装在基于车辆坐标系(x,y,z)的z正方向线上,投以仪距离地面的高度为H1
在本发明中,作为一种优选,选用激光投影仪。
在任一时刻,投影仪在Frenet坐标系中的横向距离为d1,投影仪与一侧车道边界线水平横向垂直距离为
Figure BDA0002609209790000051
投影仪和另一侧车道边界线水平横向垂直距离为
Figure BDA0002609209790000052
投影仪向车辆一侧(包括车辆一侧前方和后方)投影角为:
Figure BDA0002609209790000061
投影仪向车辆另一侧(包括车辆另一侧前方和后方)投影角为:
Figure BDA0002609209790000062
获取不同车速下驾驶员注视点坐标,
步骤一:实验准备,实验设备包括:眼镜式眼动仪,用于实时获取行车过程驾驶员眼动数据(图像坐标系)及驾驶员视角的道路视频图像(由安装在眼镜式眼动仪上的单目摄像头拍摄)。由于眼镜式眼动仪会随驾驶员头部转动,会导致其所拍摄的视频图像也是动态的。因此,使用固定视角行车记录仪同步采集行车前方道路视频图像。安装该行车记录仪时,需要预先测量该行车记录仪距离车辆后轴中点位置。该行车记录仪装在前风挡玻璃,后视镜正下方,所拍摄视角为行车正前方。分别在30km/h,50km/h,70km/h,90km/h的车速下测出驾驶员的注视点。
步骤二:数据同步。由于实验使用了眼动仪、行车记录仪系统进行数据采集,在数据分析过程中多套系统采集到的数据需要同步。为此,在采集这两组数据时都额外记录了每一帧数据的Unix时间戳(Unix timestamp)。Unix时间戳在许多操作系统中被广泛采用。实验中使用多套数据采集设备均可以记录该时间戳。在使用Unix时间作为同步基准之后,总体的同步误差可以小于1ms,并且没有额外的设备需求。
步骤三:图像矫正,对采集到的视频图像进行预处理,主要是畸变图像的校正。在视频图像数据处理阶段,利用如下公式进行图像矫正:
Figure BDA0002609209790000063
Figure BDA0002609209790000064
其中,(xu,yu)是矫正后得到的像素点坐标,(xd,yd)为像素点畸变后的坐标,(x0,y0)为畸变中心坐标,rd为像素点距离畸变中心的距离,λ为畸变系数。如图5(a)、(b)所示。
参数λ仅与摄像机镜头参数有关,需要在测试之前进行摄像机参数标定,标定方法如下:
(1)使用待测摄像机拍摄标定用图,一般为直线组成的图形,并且尽量在各个方向均有直线(标定板上的几何直线)
(2)识别圆弧,一般可以通过角点检测或者边缘检测的方式估算各圆弧的几何参数(圆心及半径);
获取的畸变直线(近似圆弧)表示为如下形式:
Figure BDA0002609209790000071
求解式中的参数A、B、C;
(3)将各直线段畸变后的圆弧的几个重要特征点,获取实际点,畸变点,畸变中心的坐标。具体计算公式如下,其中求解x0,y0
(A1-A2)x0+(B1-B2)y0+(C1-C2)=0;
(A1-A3)x0+(B1-B3)y0+(C1-C3)=0;
(4)通过畸变中心参数匹配并估算式中的系数λ;
Figure BDA0002609209790000072
(5)使用上式进行逐像素点的变换后得到校正后的图像;
其中,畸变系数一般为普通镜头尺寸的1/20。
步骤四:行车过程驾驶员注视点获取
眼动设备采集到的原始眼动数据包含了注视点和扫视点,其中的扫视点记录了驾驶员视点切换的过程,驾驶员扫视点更多时候是由于视线移动造成,对于道路环境认知,更为关注的是驾驶员的注视信息。采用离差阈值法(I-DT)来分离扫视点,获得注视点。
离差阈值法(I-DT)利用注视点对应的眼动速度低且趋向于紧密地聚集在一起的特性分类注视和扫视。离差阈值法通过计算某一个窗口内的离差来判断是否为注视点,具体离差的计算为:
其中,max(x)为窗口内视点x坐标最大值,max(y)为窗口内视点y坐标最大值;min(x)为窗口内视点x坐标最小值,min(y)为窗口内视点y坐标最小值。
如果离差低于离差阈值,该窗口是注视点,并且该窗口会进一步展开(向右扩展)直到窗口的离散度高于阈值。如果初始窗口的离差值就高于阈值,则直接移动窗口。用这种方法遍历整段数据后,所有剩下的数据是扫视点。
在本实施例中,具体过程如下:
(1)初始化,时间窗口初值设定为0.2s,视点偏离阈值这里设定为50;
(2)计算时间窗口内的视点偏离D,如果低于视点偏离阈值,则认为该时间窗口是注视点,执行第3步;否则如果高于或等于视点偏离阈值,执行第4步;
(3)进入下一时刻,更新时间窗口,将下一时刻数据划入该动态时间窗口数据集,执行第2步;
(4)滑动时间窗口,新时间窗口起始从上一个窗口的末尾时刻T+1接入,窗口大小0.2S,执行第2步。
采用这种方法遍历时间序列,进而获得所有行车过程注视点。
获得注视点后,还需要对注视点进行定位处理,要把眼动仪记录的图像与固定坐标系(行车记录仪)下的图像进行匹配,得到固定像素坐标系下的注视点坐标。
使用SURF特征进行图像匹配。SURF算法使用了Hessian矩阵计算每一个像素点的特征值,进而识别出图像稳定的边缘点(突变点),这些边缘点实际也就是Hessian矩阵的判别式取得局部极大值的点。
Figure BDA0002609209790000081
Figure BDA0002609209790000082
上式中,(x,y)是任一像素点的坐标,f(x,y)是该像素点的灰度值。能够满足det(H)=0的所有像素点,即为特征点,在找到特征点后,SURF会用一个独特的不随透视变换变化的特征向量描述它,以方便后续的匹配。下面是具体的特征向量求取方式:
(1)先求取主方向值,需要设计一个以特征点为中心,张角为60度的扇形滑动窗口,统计这个扇形区域内的Haar小波特征总和。以步长为0.2弧度左右,旋转这个滑动窗口,再统计小波特征总和。小波特征总和最大的方向为主方向。特征总和的求法是对图像Haar小波响应值dx、dy进行累加,得到一个矢量mw
Figure BDA0002609209790000091
Figure BDA0002609209790000092
主方向为最大Haar响应累加值所对应的方向,也就是最长矢量所对应的方向,即:
θ=θw|max{mw};
(2)在特征点周围选取一个正方形框,方向(正方形对角线方向)为特征点的主方向。将其划分为16个区域,每个区域统计25个像素的水平方向和垂直方向的Haar小波特性(均相对于正方形框的主方向确定的)。生成特征点描述子,需要计算图像的Haar小波响应。在一个矩形区域来计算Haar小波响应。
(3)以特征点为中心,沿主方向将图像划分为4×4个子块,每个子块利用Haar模板进行响应值计算,最后子块对应的特征向量:
V子块=[∑dx,∑|dx|,∑dy,∑|dy|];
至此,每个特征点的特征矢量已经可以求得,对于两幅待匹配图像都进行一次SURF特征检测,可以获得两组特征点和特征矢量。在基准图像(固定的摄像头采集的图像)与待匹配图像(眼动仪获得的驾驶员视角的图像)中分别生成匹配的SURF特征点对。然后使用RANSAC算法使更多的特征点和特征矢量相匹配。该算法假设数据由正常点和异常点构成,异常点是完全不适应假设模型的数据,对结果无影响。具体的实现方式是:
(1)首先随机选择4个特征点作为初始特征点。然后用这些点计算一个Homography矩阵,该计算结果唯一;
Figure BDA0002609209790000101
式中,(x20,y20)为待匹配图像中选择的初始特征点的坐标,(x10,y10)为基准图像上选择的初始特征点的坐标;H表示Homography矩阵。
(2)使用该Homography矩阵变换驾驶员视角视频图像中的其他所有特征点;
Figure BDA0002609209790000102
式中,H表示Homography矩阵,(x2,y2)为驾驶员视角图像坐标系下的特征点坐标;表示使用该Homography矩阵变换将(x2,y2)的投影变换结果(x1',y1');
(3)将(x1',y1')与对应基准图像的匹配的特征点(x1,y1)进行误差分析,如果满足下式则直接输出该Homography矩阵(n为特征点数)。
Figure BDA0002609209790000103
(4)如果本次匹配的特征点误差分析结果S大于之前一次则直接舍弃本次计算结果;否则保留本次Homography矩阵,并继续进行下一次迭代计算;直到筛选出误差分析结果S最小(匹配程度最高)的Homography矩阵,作为变换矩阵。
(5)根据求得的Homography变换矩阵,可将移动视角下(驾驶员视角)的图像坐标系中的注视点变换为消除抖动后的固定图像坐标系下的注视点坐标:
Figure BDA0002609209790000104
式中,
Figure BDA0002609209790000111
为变换矩阵,(x,y)为移动视角图像坐标系下的注视点坐标;(x',y')为消除抖动后的固定图像坐标系下的注视点坐标。
最后需要把固定图像坐标系下的注视点坐标转换为以驾驶员位置为原点的世界坐标系下的的注视点坐标。
通过摄像头的空间位置、焦距等参数求解变换矩阵H':
Figure BDA0002609209790000112
式中(x0,y0)为图像中心坐标,f为相机焦距,R为相机位置的正交旋转矩阵,T为相机位置的平移矩阵。
R为相机位置的正交旋转矩阵,可写为:
Figure BDA0002609209790000113
T为相机位置的平移矩阵,可写为:
Figure BDA0002609209790000114
故坐标变换公式为:
Figure BDA0002609209790000115
其中,(x',y')为固定图像坐标系下的注视点坐标,(x”,y”)为世界坐标系下的注视点坐标,这些注视坐标构成了驾驶员的注视区域。
确定驾驶员前视距离以及虚拟车道线投影长度。
利用上述方法,分别计算出在20km/h,50km/h,70km/h,90km/h这4组实验车速下驾驶员的注视点坐标,这些实验车速值用字母vi表示(i=1,2,3,4):
其中,v1=20km/h,v2=50km/h,v3=70km/h,v4=90km/h;
驾驶员的注视点有多个(这里设为n个),为了方便后续求解虚拟车道线长度,选取平均注视点坐标作为整个驾驶员注视区域的代表点,在某一实验车速下的平均注视点坐标可表示为:
Figure BDA0002609209790000121
Figure BDA0002609209790000122
式中,x"j和y"j是驾驶员的注视点坐标,
速度v1对应驾驶员平均注视点
Figure BDA0002609209790000123
速度v2对应驾驶员平均注视点
Figure BDA0002609209790000124
速度v3对应驾驶员平均注视点
Figure BDA0002609209790000125
速度v4对应驾驶员平均注视点
Figure BDA0002609209790000126
根据平均注视坐标可以计算出驾驶员的前视距离Di
Figure BDA0002609209790000127
根据这4组实验数据,通过线性插值的方法计算在实际行驶车速v∈[20,90]范围内,驾驶员在实际行驶过程中的前视距离D:
Figure BDA0002609209790000128
线性插值只能在特定的速度范围内求解前视距离,虚拟投影技术为了适用于在低车速和高车速工况,定义了当实际车速v低于20km/h以及超过90km/h的前视距离,定义如下:
Figure BDA0002609209790000129
虚拟车道线投影长度包括前方投影长度以及后方投影长度,前方投影长度与前视距离有关,后方投影长度与安全跟车距离有关,采用前后投影长度相同的方式,并引入参数k为经验系数,可根据实际路况调整k值),因此虚拟投影车道线长度公式为:
L=2kD;
前照灯可随车速自适应调节,上文已经给出任意车速下的驾驶员平均注视点坐标计算方法,已知前照灯离地高度为H0,结合驾驶员的前视距离D,驾驶员和前照灯位置在地面的投影距离相差不大,为方便计算,认为驾驶员和前照灯在地面的投影位置重合,然后可计算出前照灯射程最远的光束倾角(光束轴线与竖直方向夹角)γ,前照灯射程最远的光束落地点位于驾驶员平均注视点附近区域。
Figure BDA0002609209790000131
投影的虚拟车道线颜色可根据驾驶员的情绪或需求进行调整,车内摄像头获取驾驶员人脸图像,采用基于深度卷积神经网络算法识别面部表情,对图像进行灰度化归一化,识别并标出人脸、眼睛、嘴巴等面部特征,对这些面部特征进行判断,从而识别表情。实时监测驾驶员的情绪变化,当驾驶员处于紧张或愤怒状态,则投影出能使人镇静的颜色(比如黄、绿);当驾驶员处于疲倦状态,则投影出能使人兴奋的颜色(比如红)。
根据高精度地图提供的道路信息,可实现在特殊路段的投影功能。在红绿灯路口,采用基于优化的方向梯度直方图与线性支持向量机算法来检测行人,首先对比获取的前后帧图像的差异,只检测图像的差异部分,从而缩小了检测面积,提高了检测效率。当车载传感器监测到有行人横穿马路时,投影系统能够投影出斑马线辅助行人安全地过马路。在有公交站台的位置,投影系统能够投影出公交专用车道线和警示文字。在靠近学校路段,投影系统能够投影出“前方学校,减速慢行”等警示文字。
当车辆变换车道时,车辆行驶方向与道路方向有一定夹角,投影仪需要在水平面转动相应角度完成正确投影功能。实时监测并估计驾驶员人眼视线,当驾驶员视线由正前方转移到后视镜时视为驾驶员具有转向意图,当驾驶员具有转向意图时,计算出车辆转向角度β,投影仪在水平方向偏转角度β,投影虚拟车道线。
处理器的功能是获得投影仪与左右车道边界线的距离,根据监测到的驾驶员视线、情绪,车速以及特殊路况(学校路段、公交站、人行横道处)确定好投影仪的投影角度、投影颜色、投影车道线长度以及其它投影信息等,并将指令传给投影仪控制模块。
投影仪控制模块是接受处理器传入的指令,调整投影仪角度,投影虚拟车道边界线。
当高精地图定位信息缺失时,可以使用车载传感器获取周围环境信息,车载传感器至少包括激光雷达,通过激光雷达获取该条道路上的车流量点云信息,确定车流量与左右两侧实景的分割线,通过激光雷达获取投影仪与分割线的水平横向距离,此分割线可视为辅助车道边界线,最后投影出此虚拟辅助车道线,维持道路的行车秩序。
尽管本发明的实施方案已公开如上,但其并不仅仅限于说明书和实施方式中所列运用,它完全可以被适用于各种适合本发明的领域,对于熟悉本领域的人员而言,可容易地实现另外的修改,因此在不背离权利要求及等同范围所限定的一般概念下,本发明并不限于特定的细节和这里示出与描述的图例。

Claims (5)

1.一种基于高精度地图的积雪路面虚拟车道线投影方法,其特征在于,包括:
将车道中心线作为车道参考线,根据车道线位置,确定虚拟车道线的投影角度;
在驾驶员行驶过程中,获取不同车速下的驾驶员注视点坐标;
根据注视点坐标,确定驾驶员的注视区域,进而确定驾驶员的前视距离以及虚拟车道线投影长度;
其中,所述驾驶员的注视点坐标的获取过程包括:
步骤一、在行车过程中通过行车记录仪获取驾驶员视角的前视图像以及通过眼动仪获取驾驶员视角的眼动数据;
步骤二、对获得的视频图像进行校正;
步骤三、通过动态时间窗口内的视点偏离方法,获得移动图像坐标系下的注视点;
步骤四、对获得的移动图像坐标系下的注视点坐标进行定位处理,把眼动仪记录的图像与行车记录仪下的图像进行匹配,得到固定图像坐标系下的注视点坐标;
步骤五、把固定坐标系下的注视点坐标变换为以驾驶员为原点的世界坐标系下的注视点坐标。
2.根据权利要求1所述的基于高精度地图的积雪路面虚拟车道线投影方法,其特征在于,所述确定驾驶员的前视距离的过程包括:
分别在不同实验车速vi条件下,计算驾驶员的平均注视点坐标
Figure FDA0003561900720000011
Figure FDA0003561900720000012
(i=1,2,3,4)
Figure FDA0003561900720000013
(i=1,2,3,4);
式中,x"j和y"j是驾驶员的注视点坐标,n为驾驶员注视点数量,j为驾驶员注视点的下标;
根据平均注视点坐标计算驾驶员的前视距离Di
Figure FDA0003561900720000021
(i=1,2,3,4);
通过线性插值的方法计算在实际行驶车速v∈[20,90]范围内,驾驶员在实际行驶过程中的前视距离D:
Figure FDA0003561900720000022
(i=1,2,3)v∈[20,90];
当车速低于20km/h或者超过90km/h时前视距离定义如下:
Figure FDA0003561900720000023
3.根据权利要求2所述的基于高精度地图的积雪路面虚拟车道线投影方法,其特征在于,
所述虚拟车道线投影长度的经验公式为:L=2kD
其中,k为经验系数。
4.根据权利要求3所述的基于高精度地图的积雪路面虚拟车道线投影方法,其特征在于,在行驶过程中,
投影仪向车辆一侧的投影角为:
Figure FDA0003561900720000024
所述投影仪向车辆另一侧的投影角为:
Figure FDA0003561900720000025
其中,W为汽车行驶公路的路宽,H1为投影仪距离地面的高度,d1为投影仪在坐标系中的横向距离。
5.根据权利要求4所述的基于高精度地图的积雪路面虚拟车道线投影方法,其特征在于,所述步骤二中,视频图像校正过程包括对畸变图像校正,图像校正公式为:
Figure FDA0003561900720000031
其中,(xu,yu)是矫正后得到的像素点坐标,(xd,yd)为像素点畸变后的坐标,(x0,y0)为畸变中心坐标,rd为像素点距离畸变中心的距离,λ为畸变系数。
CN202010748441.5A 2020-07-30 2020-07-30 一种基于高精度地图的积雪路面虚拟车道线投影方法 Active CN111829549B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010748441.5A CN111829549B (zh) 2020-07-30 2020-07-30 一种基于高精度地图的积雪路面虚拟车道线投影方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010748441.5A CN111829549B (zh) 2020-07-30 2020-07-30 一种基于高精度地图的积雪路面虚拟车道线投影方法

Publications (2)

Publication Number Publication Date
CN111829549A CN111829549A (zh) 2020-10-27
CN111829549B true CN111829549B (zh) 2022-05-24

Family

ID=72920337

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010748441.5A Active CN111829549B (zh) 2020-07-30 2020-07-30 一种基于高精度地图的积雪路面虚拟车道线投影方法

Country Status (1)

Country Link
CN (1) CN111829549B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114475434B (zh) * 2020-11-11 2023-08-04 广州汽车集团股份有限公司 一种倒车外后视镜控制调节方法及其系统、存储介质
CN112765303B (zh) * 2021-02-05 2023-10-31 哈工大机器人(合肥)国际创新研究院 一种道路坐标配准方法及装置
CN113942522A (zh) * 2021-05-31 2022-01-18 重庆工程职业技术学院 一种智能驾驶行车安全保护系统
CN113536909B (zh) * 2021-06-08 2022-08-26 吉林大学 一种基于眼动数据的预瞄距离计算方法、系统和设备
CN113428179B (zh) * 2021-07-30 2022-06-28 广州文远知行科技有限公司 一种车道距离的检测方法、装置、计算机设备和存储介质
CN113865600B (zh) * 2021-09-28 2023-01-06 北京三快在线科技有限公司 一种高精地图的构建方法及装置
CN113984085A (zh) * 2021-11-16 2022-01-28 华东交通大学 一种雨雪覆盖道路的信息感知方法、系统以及可存储介质
CN114719873B (zh) * 2022-06-02 2022-09-02 四川省公路规划勘察设计研究院有限公司 一种低成本精细地图自动生成方法、装置及可读介质
CN115995161A (zh) * 2023-02-01 2023-04-21 华人运通(上海)自动驾驶科技有限公司 基于投影确定停车位置的方法和电子设备

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2075170A1 (en) * 2007-12-28 2009-07-01 MAGNETI MARELLI SISTEMI ELETTRONICI S.p.A. A driving assistance system for a vehicle travelling along a roadway that lacks lane demarcation lines
CN103767715A (zh) * 2014-01-15 2014-05-07 中国人民解放军国防科学技术大学 一种驾驶员安全驾驶状态检测装置
CN103903276A (zh) * 2014-04-23 2014-07-02 吉林大学 基于密度聚类法和形态学聚类法的驾驶员注视点聚类方法
CN106778593A (zh) * 2016-12-11 2017-05-31 北京联合大学 一种基于多地面标志融合的车道级定位方法
CN107784864A (zh) * 2016-08-26 2018-03-09 奥迪股份公司 车辆辅助驾驶方法及系统
CN108583417A (zh) * 2018-04-25 2018-09-28 深圳市易成自动驾驶技术有限公司 车道投影方法、车道投影系统、投影终端及存储介质
CN108873896A (zh) * 2018-06-15 2018-11-23 驭势科技(北京)有限公司 一种车道线模拟方法、装置及存储介质
CN110136222A (zh) * 2019-04-17 2019-08-16 百度在线网络技术(北京)有限公司 虚拟车道线生成方法、装置及系统

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107150690B (zh) * 2017-01-09 2019-06-07 石家庄铁道大学 一种基于道路标线的驾驶疲劳预警方法
CN107031623B (zh) * 2017-03-16 2019-09-20 浙江零跑科技有限公司 一种基于车载盲区相机的道路预警方法
CN108297866B (zh) * 2018-01-03 2019-10-15 西安交通大学 一种车辆的车道保持控制方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2075170A1 (en) * 2007-12-28 2009-07-01 MAGNETI MARELLI SISTEMI ELETTRONICI S.p.A. A driving assistance system for a vehicle travelling along a roadway that lacks lane demarcation lines
CN103767715A (zh) * 2014-01-15 2014-05-07 中国人民解放军国防科学技术大学 一种驾驶员安全驾驶状态检测装置
CN103903276A (zh) * 2014-04-23 2014-07-02 吉林大学 基于密度聚类法和形态学聚类法的驾驶员注视点聚类方法
CN107784864A (zh) * 2016-08-26 2018-03-09 奥迪股份公司 车辆辅助驾驶方法及系统
CN106778593A (zh) * 2016-12-11 2017-05-31 北京联合大学 一种基于多地面标志融合的车道级定位方法
CN108583417A (zh) * 2018-04-25 2018-09-28 深圳市易成自动驾驶技术有限公司 车道投影方法、车道投影系统、投影终端及存储介质
CN108873896A (zh) * 2018-06-15 2018-11-23 驭势科技(北京)有限公司 一种车道线模拟方法、装置及存储介质
CN110136222A (zh) * 2019-04-17 2019-08-16 百度在线网络技术(北京)有限公司 虚拟车道线生成方法、装置及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Ju Han Yoo ; Seong-Whan Lee ; Sung-Kee Park ; Dong Hwan Kim.A Robust Lane Detection Method Based on Vanishing Point Estimation Using the Relevance of Line Segments.《 IEEE Transactions on Intelligent Transportation Systems》.2017,全文. *
智能车测试环境中虚拟车道线的快速构建方法;卢远志;《中南大学学报(自然科学版)》;20130331;第44卷(第3期);全文 *

Also Published As

Publication number Publication date
CN111829549A (zh) 2020-10-27

Similar Documents

Publication Publication Date Title
CN111829549B (zh) 一种基于高精度地图的积雪路面虚拟车道线投影方法
CN108647638B (zh) 一种车辆位置检测方法及装置
CN108638999B (zh) 一种基于360度环视输入的防碰撞预警系统及方法
US8036424B2 (en) Field recognition apparatus, method for field recognition and program for the same
US5892855A (en) Apparatus for detecting an object located ahead of a vehicle using plural cameras with different fields of view
US9056630B2 (en) Lane departure sensing method and apparatus using images that surround a vehicle
US20160313562A1 (en) Information provision device, information provision method, and recording medium
Abdi et al. In-vehicle augmented reality traffic information system: a new type of communication between driver and vehicle
WO2018066695A1 (ja) 車載表示制御装置
CN106226910A (zh) Hud系统及其影像调整方法
CN107590438A (zh) 一种智能辅助驾驶方法及系统
CN111797810B (zh) 一种行车过程中驾驶员前视预瞄区域的获取方法
JP5011049B2 (ja) 画像処理システム
CN104129389A (zh) 一种有效判别车辆行驶状态的方法及其装置
WO2019192145A1 (zh) 全景图的视野调整方法及装置、存储介质、电子设备
CN103204104B (zh) 一种车辆全视角驾驶监控系统及方法
US20200051282A1 (en) Object detection device and vehicle
CN110053625B (zh) 距离计算装置和车辆控制装置
JP3588728B2 (ja) 車両前方の路上線検出装置
CN110232300A (zh) 一种旁车道车辆换道意图识别方法及系统
US20240054656A1 (en) Signal processing device, signal processing method, and signal processing system
CN109059863B (zh) 将平视行人轨迹点向量映射至二维世界坐标系的方法
CN110888441A (zh) 一种基于陀螺仪的轮椅车控制系统
CN112308786B (zh) 一种基于摄影测量解算车载视频中目标车辆运动的方法
CN108805105B (zh) 构建俯视二维世界坐标系车前风险矩阵的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant