CN112304291B - 基于hud的车道线显示方法及计算机可读存储介质 - Google Patents

基于hud的车道线显示方法及计算机可读存储介质 Download PDF

Info

Publication number
CN112304291B
CN112304291B CN201910680109.7A CN201910680109A CN112304291B CN 112304291 B CN112304291 B CN 112304291B CN 201910680109 A CN201910680109 A CN 201910680109A CN 112304291 B CN112304291 B CN 112304291B
Authority
CN
China
Prior art keywords
distance
lane line
lane
camera
view
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910680109.7A
Other languages
English (en)
Other versions
CN112304291A (zh
Inventor
施正
姚亮
何展然
黄睿欣
廖明燕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiamen Yaxun Zhilian Technology Co ltd
Original Assignee
Xiamen Yaxon Networks Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiamen Yaxon Networks Co Ltd filed Critical Xiamen Yaxon Networks Co Ltd
Priority to CN201910680109.7A priority Critical patent/CN112304291B/zh
Publication of CN112304291A publication Critical patent/CN112304291A/zh
Application granted granted Critical
Publication of CN112304291B publication Critical patent/CN112304291B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3623Destination input or retrieval using a camera or code reader, e.g. for optical or magnetic codes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map
    • G01C21/367Details, e.g. road map scale, orientation, zooming, illumination, level of detail, scrolling of road map or positioning of current position marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明公开了一种基于HUD的车道线显示方法及计算机可读存储介质,方法包括:识别摄像机拍摄图像中的车道线;生成第一车道线俯视图;获取HUD的投影区域的高度对应的现实距离,得到第一距离;分别获取摄像机垂直视角投影在地面上的最近距离和最远距离,得到第二距离和第三距离;计算第一距离与第二距离的和值,得到第四距离;获取距离车辆第三距离至第四距离范围内的道路曲率;根据第一距离、第二距离和第三距离,计算得到延长距离;根据道路曲率和延长距离,对第一车道线俯视图中的车道线进行延长,得到第二车道线俯视图;对第二车道线俯视图进行透视变换,并对投影图像进行投影。本发明使HUD可准确显示车辆远端的车道线。

Description

基于HUD的车道线显示方法及计算机可读存储介质
技术领域
本发明涉及图像处理技术领域,尤其涉及一种基于HUD的车道线显示方法及计算机可读存储介质。
背景技术
目前,大部分HUD(平视显示器)在使用过程中能够对车道线进行标识,但几乎都是通过摄像头来进行识别与绘制。由于摄像头视角的原因,会导致HUD只能绘制出车辆近端的车道线,对远处带有弯道的车道线无法进行AR显示,也就是说,处于HUD投影范围的车道线无法显示完整。
在公开号为CN109785291A的中国专利公开文件中,公开了一种车道线自适应检测方法,首先针对摄像机采集图像进行预处理;其次对图像进行分割,判断环境状况,由判断结果自适应地采用不同阈值,利用soble边沿检测、HLS色彩空间对道路部分图像进行处理,获取道路部分的二值图像;提取车道线感兴区域,利用透视变换算法对感兴区域进行透视变换,得到车道线鸟瞰图;再利用二次函数拟合鸟瞰图中的车道线信息,得到车道线方程,进行车道线绘制,同时根据车道线方程对车辆偏离道路情况进行判断;最后将鸟瞰图中所绘车道线透视变换到原图像,即得到最终检测结果。
上述方案可解决传统车道线检测算法自适应能力较差、无法有效处理弯道信息等问题。但其是通过摄像头获取图像变换得到鸟瞰图并拟合曲线,图像识别技术要能够识别远端的车道线,实际图像识别中相当难实现,需要相当高清的摄像头,并且要求在检测车道时不能有任何的车辆压在车道线上要保证车道的完整性,否则就无法拟合出车道线方程。
发明内容
本发明所要解决的技术问题是:提供一种基于HUD的车道线显示方法及计算机可读存储介质,使HUD可准确显示车辆远端的车道线。
为了解决上述技术问题,本发明采用的技术方案为:一种基于HUD的车道线显示方法,包括:
获取HUD的摄像机拍摄图像,并识别所述摄像机拍摄图像中的车道线;
根据所述摄像机拍摄图像中的车道线,生成第一车道线俯视图;
获取HUD的投影区域的高度对应的现实距离,得到第一距离;
分别获取摄像机垂直视角投影在地面上的最近距离和最远距离,得到第二距离和第三距离;
计算所述第一距离与第二距离的和值,得到第四距离;
根据地图数据,获取距离车辆第三距离至第四距离范围内的道路曲率;
根据所述第一距离、第二距离和第三距离,计算得到延长距离;
根据所述道路曲率和延长距离,对所述第一车道线俯视图中的车道线进行延长,得到第二车道线俯视图;
对所述第二车道线俯视图进行透视变换,得到投影图像,并对所述投影图像进行投影。
本发明还涉及一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现如下步骤:
本发明的有益效果在于:通过对摄像机拍摄图像中的车道线进行识别,得到车辆近端的车道线;通过获取车辆远端的道路曲率,并根据道路曲率和延长距离,绘制车辆远端的车道线,从而可得到HUD投影范围内的完整的车道线,并可克服其他车辆或物体挡住远端车道线的情况,使得HUD可准确地显示车辆远端的车道线,提高驾驶者的体验。本发明可解决摄像机的所拍摄的画面距离及清晰度有限而无法识别远方的道路的问题,可降低对摄像机的要求及降低对图像识别的要求,使HUD能够完整且准确地显示车道线。
附图说明
图1为本发明实施例一的一种基于HUD的车道线显示方法的流程图;
图2为本发明实施例一的摄像机位置与各距离的示意图;
图3为本发明实施例一的第二车道线俯视图的车道线示意图。
具体实施方式
为详细说明本发明的技术内容、所实现目的及效果,以下结合实施方式并配合附图详予说明。
本发明最关键的构思在于:根据车辆远端道路的道路曲率,绘制车辆远端的车道线。
请参阅图1,一种基于HUD的车道线显示方法,包括:
获取HUD的摄像机拍摄图像,并识别所述摄像机拍摄图像中的车道线;
根据所述摄像机拍摄图像中的车道线,生成第一车道线俯视图;
获取HUD的投影区域的高度对应的现实距离,得到第一距离;
分别获取摄像机垂直视角投影在地面上的最近距离和最远距离,得到第二距离和第三距离;
计算所述第一距离与第二距离的和值,得到第四距离;
根据地图数据,获取距离车辆第三距离至第四距离范围内的道路曲率;
根据所述第一距离、第二距离和第三距离,计算得到延长距离;
根据所述道路曲率和延长距离,对所述第一车道线俯视图中的车道线进行延长,得到第二车道线俯视图;
对所述第二车道线俯视图进行透视变换,得到投影图像,并对所述投影图像进行投影。
从上述描述可知,本发明的有益效果在于:使HUD能够完整且准确地显示车道线。
进一步地,所述根据所述摄像机拍摄图像中的车道线,生成第一车道线俯视图具体为:
获取所述摄像机拍摄图像中车辆所在车道的两条车道线;
分别获取所述两条车道线距离车辆最近端的两个端点和最远端的两个端点在所述摄像机拍摄图像中的坐标,得到第一坐标数组;
根据所述最近端的两个端点的坐标,获取所述第一坐标数组对应鸟瞰图的第二坐标数组;
根据所述第一坐标数据和第二坐标数组,计算第一透视变换矩阵;
根据所述第一透视变换矩阵,对所述摄像机拍摄图像进行透视变换,得到第一车道线俯视图。
由上述描述可知,通过将摄像机拍摄图像透视变换成俯视图,便于后续对远端车道线的绘制。
进一步地,所述对所述第二车道线俯视图进行透视变换,得到投影图像,并对所述投影图像进行投影具体为:
计算所述第一透视变换矩阵的逆矩阵,得到第二透视变换矩阵;
根据所述第二透视变换矩阵,对所述第二车道线俯视图进行透视变换,得到投影图像,并对所述投影图像进行投影。
由上述描述可知,由于摄像机拍摄图像与投影图像的角度一致,因此可根据摄像机图像到俯视图的透视变换矩阵,得到俯视图到投影图像的透视变换矩阵。
进一步地,所述根据所述第一距离、第二距离和第三距离,计算得到延长距离具体为:
根据所述第二距离和第三距离,获取摄像机垂直视角投影在地面上的可视距离;
计算所述第一距离与延长距离的差值,得到延长距离。
进一步地,所述根据所述道路曲率和延长距离,对所述第一车道线俯视图中的车道线进行延长,得到第二车道线俯视图具体为:
获取第一车道线俯视图中车道线的像素高度,得到第一像素高度;
获取摄像机由近及远的缩放比例;
根据所述第四距离、第一像素高度和缩放比例,计算所述第五距离对应的第二像素高度;
根据所述道路曲率和第二像素高度,对第一车道线俯视图中的车道线进行延长,得到第二车道线俯视图。
由上述描述可知,根据缩放比例绘制车道线,保证HUD显示的准确性。
本发明还提出一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现如上所述的步骤。
实施例一
请参照图1-3,本发明的实施例一为:一种基于HUD的车道线显示方法,可应用于AR-HUD(增强型现实抬头显示系统),如图1所示,包括如下步骤:
S1:获取HUD的摄像机拍摄图像,并识别所述摄像机拍摄图像中的车道线;具体地,可通过边缘检测和霍夫变换进行车道线的识别检测。该步骤即识别得到车辆近端的车道线。
S2:根据所述摄像机拍摄图像中的车道线,生成第一车道线俯视图;该步骤可通过opencv中的透视变换函数getPerspectiveTransform()和warpPerspective()实现。
具体地,获取所述摄像机拍摄图像中车辆所在车道的两条车道线;分别获取所述两条车道线距离车辆最近端的两个端点和最远端的两个端点在所述摄像机拍摄图像中的坐标,得到第一坐标数组;根据所述最近端的两个端点的坐标,获取所述第一坐标数组对应鸟瞰图的第二坐标数组;根据所述第一坐标数据和第二坐标数组,计算第一透视变换矩阵;根据所述第一透视变换矩阵,对所述摄像机拍摄图像进行透视变换,得到第一车道线俯视图。
例如,以摄像机拍摄图像左上角为原点,向下方向为X轴正方向,向右方向为Y轴正方向,建立直角坐标系,假设所述两条车道线距离车辆最近端的两个端点的坐标分别为(10,0)和(10,10),最远端的两个端点的坐标分别为(5,4)和(5,6),则源图像的四个顶点坐标分别为A(10,0)、B(10,10)、C(5,4)和D(5,6),其中A与C处于同一条车道线上,B与D处于同一条车道线上。在鸟瞰图中,最近端的两个端点的坐标不变,最远端的端点的Y轴的值与其所在的车道线的最近端的端点的Y轴的值相同,令最远端的两个端点的X轴的值为0,则目标图像上四个顶点的坐标分别为A’(10,0)、B’(10,10)、C’(0,0)和D’(10,10)。将上述8个坐标作为getPerspectiveTransform()的输入,即可输出3×3的透视变换矩阵。得到透视变换矩阵后,即可通过warpPerspective()进行透视变换,得到第一车道线俯视图。
S3:获取HUD的投影区域的高度对应的现实距离,得到第一距离;具体地,可从驾驶员的角度看HUD,然后对HUD的投影范围的最近端和最远端进行记录,在实际道路上对最近端与最远端之间的实际距离进行测量,即可得到第一距离。
S4:分别获取摄像机垂直视角投影在地面上的最近距离和最远距离,得到第二距离和第三距离。
S5:计算所述第一距离与第二距离的和值,得到第四距离;即获取车辆与HUD的投影范围的最远端之间的距离。
S6:根据地图数据,获取距离车辆第三距离至第四距离范围内的道路曲率。所述地图数据可为HUD中自带的地图数据。
S7:根据所述第一距离、第二距离和第三距离,计算得到延长距离;具体地,根据所述第二距离和第三距离,获取摄像机垂直视角投影在地面上的可视距离;然后计算所述第一距离与可视距离的差值,得到延长距离。
对于步骤S3-S7,如图2所示,假设点M为摄像机位置,H为摄像机距离地面的高度,θ为摄像机垂直视角,则第二距离d2为摄像机垂直视角投影在地面上的最近距离,第三距离d2+d1为摄像机垂直视角投影在地面上的最远距离;令第三距离d2+d1减去第二距离d2,即可得到摄像机垂直视角投影在地面上的可视距离d1。
由于摄像机只能拍摄到d1范围内的车道线,也即车辆近端的车道线,而HUD可以对第一距离D范围内的车道线进行投影,也就是说,基于摄像机的拍摄内容,HUD只能对车辆近端的车道线进行投影,无法对车辆远端的车道线也进行投影。因此,需对d1范围内的车道线进行延长,使其延伸至HUD的投影范围的最远端,延长距离d3=D-d1。
本实施例中,对于延长部分的车道线,采用基于道路曲率的方式进行绘制,因此,需要获取d3范围内的道路曲率,即在地图数据中,获取距离车辆第三距离d1+d2至第四距离d2+D范围内的道路曲率。
S8:根据所述道路曲率和延长距离,对所述第一车道线俯视图中的车道线进行延长,得到第二车道线俯视图。
本实施例中,是对第一车道线俯视图中的车道线进行延长,因此需先计算出延长部分的车道线在俯视图中的像素高度,即高度方向上的像素点数量,具体地,先获取第一车道线俯视图中车道线的像素高度,得到第一像素高度M,现实距离d1在俯视图中对应的像素高度为M;同时获取摄像机由近及远的缩放比例α,该缩放比例可通过直接线性变换(DLT)确定;然后根据公式d3/N=α×d1/M,计算得到延长距离d3在俯视图中对应的像素高度N。
然后将第一车道线俯视图中的车道线距离车辆最远端的端点,也即位于第一车道线俯视图顶部的端点,作为延长部分的车道线的起始点,根据上述获取的车道曲率,绘制像素高度为N的车道线,即可得到第二车道线俯视图,如图3所示,此时,第二车道线俯视图的总像素高度M+N对应的实际距离即为D。
S9:对所述第二车道线俯视图进行透视变换,得到投影图像,并对所述投影图像进行投影。由于从摄像机拍摄图像到鸟瞰图的透视变换与鸟瞰图到HUD投影图像的透视变换互逆,因此,先计算所述第一透视变换矩阵的逆矩阵,得到第二透视变换矩阵;然后根据所述第二透视变换矩阵,对所述第二车道线俯视图进行透视变换,即可得到投影图像,最后HUD对所述投影图像进行投影。
本实施例可解决摄像机的所拍摄的画面距离及清晰度有限而无法识别远方的道路的问题,可降低对摄像机的要求及降低对图像识别的要求,使HUD能够完整且准确地显示车道线。
实施例二
本实施例是对应上述实施例的一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现如下步骤:
获取HUD的摄像机拍摄图像,并识别所述摄像机拍摄图像中的车道线;
根据所述摄像机拍摄图像中的车道线,生成第一车道线俯视图;
获取HUD的投影区域的高度对应的现实距离,得到第一距离;
分别获取摄像机垂直视角投影在地面上的最近距离和最远距离,得到第二距离和第三距离;
计算所述第一距离与第二距离的和值,得到第四距离;
根据地图数据,获取距离车辆第三距离至第四距离范围内的道路曲率;
根据所述第一距离、第二距离和第三距离,计算得到延长距离;
根据所述道路曲率和延长距离,对所述第一车道线俯视图中的车道线进行延长,得到第二车道线俯视图;
对所述第二车道线俯视图进行透视变换,得到投影图像,并对所述投影图像进行投影。
进一步地,所述根据所述摄像机拍摄图像中的车道线,生成第一车道线俯视图具体为:
获取所述摄像机拍摄图像中车辆所在车道的两条车道线;
分别获取所述两条车道线距离车辆最近端的两个端点和最远端的两个端点在所述摄像机拍摄图像中的坐标,得到第一坐标数组;
根据所述最近端的两个端点的坐标,获取所述第一坐标数组对应鸟瞰图的第二坐标数组;
根据所述第一坐标数据和第二坐标数组,计算第一透视变换矩阵;
根据所述第一透视变换矩阵,对所述摄像机拍摄图像进行透视变换,得到第一车道线俯视图。
进一步地,所述对所述第二车道线俯视图进行透视变换,得到投影图像,并对所述投影图像进行投影具体为:
计算所述第一透视变换矩阵的逆矩阵,得到第二透视变换矩阵;
根据所述第二透视变换矩阵,对所述第二车道线俯视图进行透视变换,得到投影图像,并对所述投影图像进行投影。
进一步地,所述根据所述第一距离、第二距离和第三距离,计算得到延长距离具体为:
根据所述第二距离和第三距离,获取摄像机垂直视角投影在地面上的可视距离;
计算所述第一距离与延长距离的差值,得到延长距离。
进一步地,所述根据所述道路曲率和延长距离,对所述第一车道线俯视图中的车道线进行延长,得到第二车道线俯视图具体为:
获取第一车道线俯视图中车道线的像素高度,得到第一像素高度;
获取摄像机由近及远的缩放比例;
根据所述第四距离、第一像素高度和缩放比例,计算所述第五距离对应的第二像素高度;
根据所述道路曲率和第二像素高度,对第一车道线俯视图中的车道线进行延长,得到第二车道线俯视图。
综上所述,本发明提供的一种基于HUD的车道线显示方法及计算机可读存储介质,通过对摄像机拍摄图像中的车道线进行识别,得到车辆近端的车道线;通过获取车辆远端的道路曲率,并根据道路曲率和延长距离,绘制车辆远端的车道线,从而可得到HUD投影范围内的完整的车道线,并可克服其他车辆或物体挡住远端车道线的情况,使得HUD可准确地显示车辆远端的车道线,提高驾驶者的体验。本发明可解决摄像机的所拍摄的画面距离及清晰度有限而无法识别远方的道路的问题,可降低对摄像机的要求及降低对图像识别的要求,使HUD能够完整且准确地显示车道线。
以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等同变换,或直接或间接运用在相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (8)

1.一种基于HUD的车道线显示方法,其特征在于,包括:
获取HUD的摄像机拍摄图像,并识别所述摄像机拍摄图像中的车道线;
根据所述摄像机拍摄图像中的车道线,生成第一车道线俯视图;
获取HUD的投影区域的高度对应的现实距离,得到第一距离;
分别获取摄像机垂直视角投影在地面上的最近距离和最远距离,得到第二距离和第三距离;
计算所述第一距离与第二距离的和值,得到第四距离;
根据地图数据,获取距离车辆第三距离至第四距离范围内的道路曲率;
根据所述第一距离、第二距离和第三距离,计算得到延长距离;
根据所述道路曲率和延长距离,对所述第一车道线俯视图中的车道线进行延长,得到第二车道线俯视图;
对所述第二车道线俯视图进行透视变换,得到投影图像,并对所述投影图像进行投影;
所述根据所述第一距离、第二距离和第三距离,计算得到延长距离具体为:
根据所述第二距离和第三距离,获取摄像机垂直视角投影在地面上的可视距离;
计算所述第一距离与可视距离的差值,得到延长距离。
2.根据权利要求1所述的基于HUD的车道线显示方法,其特征在于,所述根据所述摄像机拍摄图像中的车道线,生成第一车道线俯视图具体为:
获取所述摄像机拍摄图像中车辆所在车道的两条车道线;
分别获取所述两条车道线距离车辆最近端的两个端点和最远端的两个端点在所述摄像机拍摄图像中的坐标,得到第一坐标数组;
根据所述最近端的两个端点的坐标,获取所述第一坐标数组对应鸟瞰图的第二坐标数组;
根据所述第一坐标数组和第二坐标数组,计算第一透视变换矩阵;
根据所述第一透视变换矩阵,对所述摄像机拍摄图像进行透视变换,得到第一车道线俯视图。
3.根据权利要求2所述的基于HUD的车道线显示方法,其特征在于,所述对所述第二车道线俯视图进行透视变换,得到投影图像,并对所述投影图像进行投影具体为:
计算所述第一透视变换矩阵的逆矩阵,得到第二透视变换矩阵;
根据所述第二透视变换矩阵,对所述第二车道线俯视图进行透视变换,得到投影图像,并对所述投影图像进行投影。
4.根据权利要求1所述的基于HUD的车道线显示方法,其特征在于,所述根据所述道路曲率和延长距离,对所述第一车道线俯视图中的车道线进行延长,得到第二车道线俯视图具体为:
获取第一车道线俯视图中车道线的像素高度,得到第一像素高度;
获取摄像机由近及远的缩放比例;
根据所述第四距离、第一像素高度和缩放比例,计算所述延长距离对应的第二像素高度;
根据所述道路曲率和第二像素高度,对第一车道线俯视图中的车道线进行延长,得到第二车道线俯视图。
5.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如下步骤:
获取HUD的摄像机拍摄图像,并识别所述摄像机拍摄图像中的车道线;
根据所述摄像机拍摄图像中的车道线,生成第一车道线俯视图;
获取HUD的投影区域的高度对应的现实距离,得到第一距离;
分别获取摄像机垂直视角投影在地面上的最近距离和最远距离,得到第二距离和第三距离;
计算所述第一距离与第二距离的和值,得到第四距离;
根据地图数据,获取距离车辆第三距离至第四距离范围内的道路曲率;
根据所述第一距离、第二距离和第三距离,计算得到延长距离;
根据所述道路曲率和延长距离,对所述第一车道线俯视图中的车道线进行延长,得到第二车道线俯视图;
对所述第二车道线俯视图进行透视变换,得到投影图像,并对所述投影图像进行投影;
所述根据所述第一距离、第二距离和第三距离,计算得到延长距离具体为:
根据所述第二距离和第三距离,获取摄像机垂直视角投影在地面上的可视距离;
计算所述第一距离与可视距离的差值,得到延长距离。
6.根据权利要求5所述的计算机可读存储介质,其特征在于,所述根据所述摄像机拍摄图像中的车道线,生成第一车道线俯视图具体为:
获取所述摄像机拍摄图像中车辆所在车道的两条车道线;
分别获取所述两条车道线距离车辆最近端的两个端点和最远端的两个端点在所述摄像机拍摄图像中的坐标,得到第一坐标数组;
根据所述最近端的两个端点的坐标,获取所述第一坐标数组对应鸟瞰图的第二坐标数组;
根据所述第一坐标数组和第二坐标数组,计算第一透视变换矩阵;
根据所述第一透视变换矩阵,对所述摄像机拍摄图像进行透视变换,得到第一车道线俯视图。
7.根据权利要求6所述的计算机可读存储介质,其特征在于,所述对所述第二车道线俯视图进行透视变换,得到投影图像,并对所述投影图像进行投影具体为:
计算所述第一透视变换矩阵的逆矩阵,得到第二透视变换矩阵;
根据所述第二透视变换矩阵,对所述第二车道线俯视图进行透视变换,得到投影图像,并对所述投影图像进行投影。
8.根据权利要求5所述的计算机可读存储介质,其特征在于,所述根据所述道路曲率和延长距离,对所述第一车道线俯视图中的车道线进行延长,得到第二车道线俯视图具体为:
获取第一车道线俯视图中车道线的像素高度,得到第一像素高度;
获取摄像机由近及远的缩放比例;
根据所述第四距离、第一像素高度和缩放比例,计算所述延长距离对应的第二像素高度;
根据所述道路曲率和第二像素高度,对第一车道线俯视图中的车道线进行延长,得到第二车道线俯视图。
CN201910680109.7A 2019-07-26 2019-07-26 基于hud的车道线显示方法及计算机可读存储介质 Active CN112304291B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910680109.7A CN112304291B (zh) 2019-07-26 2019-07-26 基于hud的车道线显示方法及计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910680109.7A CN112304291B (zh) 2019-07-26 2019-07-26 基于hud的车道线显示方法及计算机可读存储介质

Publications (2)

Publication Number Publication Date
CN112304291A CN112304291A (zh) 2021-02-02
CN112304291B true CN112304291B (zh) 2023-12-22

Family

ID=74329674

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910680109.7A Active CN112304291B (zh) 2019-07-26 2019-07-26 基于hud的车道线显示方法及计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN112304291B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115493614B (zh) * 2022-11-21 2023-03-24 泽景(西安)汽车电子有限责任公司 航迹线的显示方法、装置、存储介质及电子设备

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0996507A (ja) * 1995-09-29 1997-04-08 Aisin Seiki Co Ltd 車両前方の路上線検出装置
JP2008032500A (ja) * 2006-07-28 2008-02-14 Alpine Electronics Inc 車載用ナビゲーション装置及び自車位置修正方法
CN102667888A (zh) * 2009-11-27 2012-09-12 丰田自动车株式会社 驾驶辅助装置以及驾驶辅助方法
CN102663356A (zh) * 2012-03-28 2012-09-12 柳州博实唯汽车科技有限公司 车道线提取及偏离预警方法
CN103940434A (zh) * 2014-04-01 2014-07-23 西安交通大学 基于单目视觉和惯性导航单元的实时车道线检测系统
JP2016045015A (ja) * 2014-08-20 2016-04-04 トヨタ自動車株式会社 道路曲率検出装置
CN107730520A (zh) * 2017-09-22 2018-02-23 智车优行科技(北京)有限公司 车道线检测方法及系统
CN109785291A (zh) * 2018-12-20 2019-05-21 南京莱斯电子设备有限公司 一种车道线自适应检测方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0996507A (ja) * 1995-09-29 1997-04-08 Aisin Seiki Co Ltd 車両前方の路上線検出装置
JP2008032500A (ja) * 2006-07-28 2008-02-14 Alpine Electronics Inc 車載用ナビゲーション装置及び自車位置修正方法
CN102667888A (zh) * 2009-11-27 2012-09-12 丰田自动车株式会社 驾驶辅助装置以及驾驶辅助方法
CN102663356A (zh) * 2012-03-28 2012-09-12 柳州博实唯汽车科技有限公司 车道线提取及偏离预警方法
CN103940434A (zh) * 2014-04-01 2014-07-23 西安交通大学 基于单目视觉和惯性导航单元的实时车道线检测系统
JP2016045015A (ja) * 2014-08-20 2016-04-04 トヨタ自動車株式会社 道路曲率検出装置
CN107730520A (zh) * 2017-09-22 2018-02-23 智车优行科技(北京)有限公司 车道线检测方法及系统
CN109785291A (zh) * 2018-12-20 2019-05-21 南京莱斯电子设备有限公司 一种车道线自适应检测方法

Also Published As

Publication number Publication date
CN112304291A (zh) 2021-02-02

Similar Documents

Publication Publication Date Title
CN106782268B (zh) 显示系统和用于显示面板的驱动方法
US9710109B2 (en) Image processing device and image processing method
CN109211207B (zh) 一种基于机器视觉的螺钉识别与定位装置
KR100974900B1 (ko) 동적 임계값을 이용한 마커 인식 장치 및 방법
CN110826499A (zh) 物体空间参数检测方法、装置、电子设备及存储介质
US20130051626A1 (en) Method And Apparatus For Object Pose Estimation
JP6390032B2 (ja) ヘッドアップディスプレイの歪補正方法とそれを用いたヘッドアップディスプレイの歪補正装置
CN107689050B (zh) 一种基于彩色图像边缘引导的深度图像上采样方法
CN110189347B (zh) 一种测量物体体积的方法及终端
CN103810475A (zh) 一种目标物识别方法及装置
CN101702233A (zh) 视频帧中基于三点共线标记点的三维定位方法
CN111079470A (zh) 人脸活体检测的方法和装置
CN112304291B (zh) 基于hud的车道线显示方法及计算机可读存储介质
CN110832851B (zh) 图像处理装置、图像变换方法
WO2021114775A1 (en) Object detection method, object detection device, terminal device, and medium
CN113723432B (zh) 一种基于深度学习的智能识别、定位追踪的方法及系统
US10339702B2 (en) Method for improving occluded edge quality in augmented reality based on depth camera
US20150241997A1 (en) Coordinate detection system, information processing apparatus, method of detecting coordinate, and program
CN111241946B (zh) 一种基于单dlp光机增大fov的方法和系统
CN112571409B (zh) 基于视觉slam的机器人控制方法、机器人及介质
CN111243102B (zh) 一种基于扩散膜改造增大fov的方法和系统
CN118298342B (zh) 一种结合外置深度相机的ar眼镜目标增强方法
CN115937483B (zh) 基于虚拟现实的二维图像中立体物体变换方法及装置
CN114973292B (zh) 一种基于不规则表面的文字识别方法、系统及存储介质
CN117765080A (zh) 显示方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP03 Change of name, title or address
CP03 Change of name, title or address

Address after: 303-e, Zone C, innovation building, software park, Xiamen Torch hi tech Zone, Xiamen, Fujian, 361000

Patentee after: Xiamen Yaxun Zhilian Technology Co.,Ltd.

Country or region after: China

Address before: 303-e, Zone C, innovation building, software park, torch hi tech Zone, Xiamen City, Fujian Province

Patentee before: XIAMEN YAXON NETWORK Co.,Ltd.

Country or region before: China