CN113792690B - 车道线检测方法和装置 - Google Patents

车道线检测方法和装置 Download PDF

Info

Publication number
CN113792690B
CN113792690B CN202111106274.5A CN202111106274A CN113792690B CN 113792690 B CN113792690 B CN 113792690B CN 202111106274 A CN202111106274 A CN 202111106274A CN 113792690 B CN113792690 B CN 113792690B
Authority
CN
China
Prior art keywords
edge
parameters
video frame
lane
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111106274.5A
Other languages
English (en)
Other versions
CN113792690A (zh
Inventor
李映辉
张丙林
周志鹏
李冰
廖瑞华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202111106274.5A priority Critical patent/CN113792690B/zh
Publication of CN113792690A publication Critical patent/CN113792690A/zh
Application granted granted Critical
Publication of CN113792690B publication Critical patent/CN113792690B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/181Segmentation; Edge detection involving edge growing; involving edge linking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration

Abstract

本申请实施例公开了车道线检测方法和装置,涉及自动驾驶、车联网和智能座舱技术领域。该车道线检测方法的一个具体实施方式包括:检测当前视频帧中的边缘;基于检测到的边缘,确定候选边缘集合;采用已确定参数的车道成像模型,拟合候选边缘集合中的各条边缘;对于候选边缘集合中的各条边缘,计算该边缘的拟合结果与该边缘的误差;选取计算的误差小于等于预定误差的边缘;响应于选取的边缘的数量大于等于4,基于选取的边缘的拟合结果确定车道线。该实施方式可以基于候选边缘集合中的边缘得到拟合结果,可以有效的利用多个边缘信息来进行拟合,增加了根据拟合结果确定的车道线的稳定性。

Description

车道线检测方法和装置
分案信息
本申请为申请日为2018年9月30日,申请号为201811159602.6,发明名称为“车道线检测方法和装置”的中国专利申请的分案申请。
技术领域
本申请涉及计算机技术领域,具体涉及电子地图技术领域,尤其涉及车道线检测方法和装置。
背景技术
在车道线检测应用中,需要对检测到的车道线进行拟合,以得到当前道路的驾驶参数。
目前,通常是使用直线或者多项式分别拟合多个车道线,拟合过程中使用RANSAC等算法,滤波时需要使用相机外部标定参数。
然而,目前的车道线拟合方法,存在以下问题:(1)每个车道线单独拟合,不能有效利用其他车道线信息增加拟合稳定性;(2)滤波时需要使用相机外部标定参数,无外参标定下的场合使用受限;(3)无法有效进行帧间参数跟踪;(4)使用RANSAC等算法的硬件性能消耗大。
发明内容
本申请实施例提供了车道线检测方法和装置。
第一方面,本申请实施例提供了一种车道线检测方法,包括:检测当前视频帧中的边缘;基于检测到的边缘,确定候选边缘集合;采用已确定参数的车道成像模型,拟合候选边缘集合中的各条边缘;对于候选边缘集合中的各条边缘,计算该边缘的拟合结果与该边缘的误差;选取计算的误差小于等于预定误差的边缘;响应于选取的边缘的数量大于等于4,基于选取的边缘的拟合结果确定车道线。
在一些实施例中,车道成像模型的参数基于以下步骤确定:响应于从数据库中获取到上一视频帧的车道成像模型的参数,将上一视频帧的车道成像模型的参数确定为当前视频帧的车道成像模型的参数;响应于从数据库中未获取到上一视频帧的车道成像模型的参数,基于数据拟合确定参数步骤拟合候选边缘集合中的各条边缘,确定当前视频帧的车道成像模型的参数。
在一些实施例中,基于数据拟合确定参数步骤拟合候选边缘集合中的各条边缘,确定当前视频帧的车道成像模型的参数包括:对候选边缘集合中的每两条边缘组合,采用数据拟合方法确定一组车道成像模型的参数;基于每一组车道成像模型的参数所确定的车道成像模型,确定候选边缘集合中各条边缘线的拟合结果与边缘线的误差小于预定误差的线条数量;将确定的线条数量最大并且线条数量大于4的车道成像模型的参数确定为当前视频帧的车道成像模型的参数。
在一些实施例中,基于数据拟合确定参数步骤拟合候选边缘集合中的各条边缘,确定当前视频帧的车道成像模型的参数还包括:若线条数量最大并且线条数量大于4的车道成像模型的参数不存在,则将下一帧视频帧作为当前视频帧,并对当前视频帧,执行基于检测到的边缘,确定候选边缘集合,以及基于拟合候选边缘集合中的各条边缘,确定当前视频帧的车道成像模型的参数。
在一些实施例中,采用数据拟合方法确定一组车道成像模型的参数包括:采用以下至少一项数据拟合方法确定一组车道成像模型的参数:最小二乘法、霍夫变换以及最大后验估计。
在一些实施例中,响应于从数据库中未获取到上一视频帧的车道成像模型的参数,基于数据拟合确定参数步骤拟合候选边缘集合中的各条边缘,确定当前视频帧的车道成像模型的参数包括:响应于从数据库中未获取到上一视频帧的车道成像模型的参数,基于已标定的拍摄视频帧的摄像机的外部参数,确定当前视频帧的车道成像模型的灭点参数;在基于数据拟合确定参数步骤拟合候选边缘集合中的各条边缘时,采用灭点参数确定当前视频帧的车道成像模型的参数。
在一些实施例中,基于检测到的边缘,确定候选边缘集合包括:基于检测到的边缘中各边缘所包括的像素点的数量,确定候选边缘集合;或基于检测到的边缘中各边缘所包括的像素点的数量以及检测到的边缘中各边缘相邻的空白面积,确定候选边缘集合。
在一些实施例中,基于检测到的边缘中各边缘所包括的像素点的数量以及检测到的边缘中各边缘相邻的空白面积,确定候选边缘集合包括:根据检测到的边缘中各边缘所包括的像素点的数量由高至低进行长度排序,得到长度排序后的各边缘;根据长度排序后的各边缘的排序顺序,选取预定数量的边缘添加至候选边缘集合;根据检测到的边缘中各边缘相邻的空白面积由大至小对各边缘进行相邻空白面积排序,得到据相邻空白面积排序后的各边缘;基于据相邻空白面积排序后的各边缘的排序顺序,选取预设数量的边缘添加至候选边缘集合。
在一些实施例中,车道成像模型包括:u-u0=A(v-v0)+B/(v-v0),其中(u0,v0)为图像灭点位置(v=v0为地平线),(u,v)为当前视频帧中的边缘的坐标点,A、B为模型系数,同一帧图像中,不同车道线仅A值不同。
在一些实施例中,车道成像模型包括:u-u0=∑ai(v-v0)i,其中(u0,v0)为图像灭点位置(v=v0为地平线),(u,v)为当前视频帧中的边缘的坐标点,ai是指双曲线模型的泰勒级数展开式的第i项的系数。
在一些实施例中,方法还包括:响应于计算的误差大于预定误差的边缘数量小于4,将下一帧视频帧作为当前视频帧,并对新的当前视频帧执行车道线检测方法。
第二方面,本申请实施例提供了一种车道线检测装置,包括:边缘检测单元,被配置成检测当前视频帧中的边缘;集合确定单元,被配置成基于检测到的边缘,确定候选边缘集合;边缘拟合单元,被配置成采用已确定参数的车道成像模型,拟合候选边缘集合中的各条边缘;误差计算单元,被配置成对于候选边缘集合中的各条边缘,计算该边缘的拟合结果与该边缘的误差;边缘选取单元,被配置成选取计算的误差小于等于预定误差的边缘;车道线确定单元,被配置成响应于选取的边缘的数量大于等于4,基于选取的边缘的拟合结果确定车道线。
在一些实施例中,边缘拟合单元中车道成像模型的参数基于以下确定步骤确定:响应于从数据库中获取到上一视频帧的车道成像模型的参数,将上一视频帧的车道成像模型的参数确定为当前视频帧的车道成像模型的参数;响应于从数据库中未获取到上一视频帧的车道成像模型的参数,基于数据拟合确定参数步骤拟合候选边缘集合中的各条边缘,确定当前视频帧的车道成像模型的参数。
在一些实施例中,边缘拟合单元中车道成像模型的参数所基于的确定步骤进一步包括:对候选边缘集合中的每两条边缘组合,采用数据拟合方法确定一组车道成像模型的参数;基于每一组车道成像模型的参数所确定的车道成像模型,确定候选边缘集合中各条边缘线的拟合结果与边缘线的误差小于预定误差的线条数量;将确定的线条数量最大并且线条数量大于4的车道成像模型的参数确定为当前视频帧的车道成像模型的参数。
在一些实施例中,边缘拟合单元中车道成像模型的参数所基于的确定步骤进一步包括:若线条数量最大并且线条数量大于4的车道成像模型的参数不存在,则将下一帧视频帧作为当前视频帧,并对当前视频帧,执行基于检测到的边缘,确定候选边缘集合,以及基于拟合候选边缘集合中的各条边缘,确定当前视频帧的车道成像模型的参数。
在一些实施例中,边缘拟合单元中车道成像模型的参数所基于的确定步骤进一步包括:采用以下至少一项数据拟合方法确定一组车道成像模型的参数:最小二乘法、霍夫变换以及最大后验估计。
在一些实施例中,边缘拟合单元中车道成像模型的参数所基于的确定步骤进一步包括:响应于从数据库中未获取到上一视频帧的车道成像模型的参数,基于已标定的拍摄视频帧的摄像机的外部参数,确定当前视频帧的车道成像模型的灭点参数;在基于数据拟合确定参数步骤拟合候选边缘集合中的各条边缘时,采用灭点参数确定当前视频帧的车道成像模型的参数。
在一些实施例中,集合确定单元进一步被配置成:基于检测到的边缘中各边缘所包括的像素点的数量,确定候选边缘集合;或基于检测到的边缘中各边缘所包括的像素点的数量以及检测到的边缘中各边缘相邻的空白面积,确定候选边缘集合。
在一些实施例中,集合确定单元进一步被配置成:根据检测到的边缘中各边缘所包括的像素点的数量由高至低进行长度排序,得到长度排序后的各边缘;根据长度排序后的各边缘的排序顺序,选取预定数量的边缘添加至候选边缘集合;根据检测到的边缘中各边缘相邻的空白面积由大至小对各边缘进行相邻空白面积排序,得到据相邻空白面积排序后的各边缘;基于据相邻空白面积排序后的各边缘的排序顺序,选取预设数量的边缘添加至候选边缘集合。
在一些实施例中,边缘拟合单元中的车道成像模型包括:u-u0=A(v-v0)+B/(v-v0),其中(u0,v0)为图像灭点位置(v=v0为地平线),(u,v)为当前视频帧中的边缘的坐标点,A、B为模型系数,同一帧图像中,不同车道线仅A值不同。
在一些实施例中,边缘拟合单元中的车道成像模型包括:u-u0=∑ai(v-v0)i,其中(u0,v0)为图像灭点位置(v=v0为地平线),(u,v)为当前视频帧中的边缘的坐标点,ai是指双曲线模型的泰勒级数展开式的第i项的系数。
在一些实施例中,装置还包括:视频帧更新单元,被配置成响应于计算的误差大于预定误差的边缘数量小于4,将下一帧视频帧作为当前视频帧,并对新的当前视频帧执行车道线检测方法。
第三方面,本申请实施例提供了一种设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序;当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如上任一所述的方法。
第四方面,本申请实施例提供了一种计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现如上任一所述的方法。
本申请实施例提供的车道线检测方法和装置,首先获取当前视频帧;基于到的所述当前视频帧中的边缘,得到候选边缘集合;之后,采用已确定参数的车道成像模型拟合候选边缘集合中的各条边缘;之后,对于候选边缘集合中的各条边缘,计算该边缘的拟合结果与该边缘的误差;最后,响应于计算的误差小于预定误差,基于各条边缘的拟合结果确定车道线。在这一过程中,可以基于候选边缘集合中的边缘得到拟合结果,可以有效的利用多个边缘信息来进行拟合,增加了根据拟合结果确定的车道线的稳定性。
附图说明
通过阅读参照以下附图所作的对非限制性实施例详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请可以应用于其中的示例性系统架构图;
图2是根据本申请实施例的车道线检测方法的一个实施例的流程示意图;
图3a至图3f是根据本申请实施例的一个应用场景示意图;
图4是根据本申请实施例的确定当前视频帧的车道成像模型的参数的方法的一个实施例的流程示意图;
图5是本申请的车道线检测装置的一个实施例的结构示意图;
图6是适于用来实现本申请实施例的服务器的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的车道线检测方法或车道线检测装置的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105、106。网络104用以在终端设备101、102、103和服务器105、106之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户110可以使用终端设备101、102、103通过网络104与服务器105、106交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如电子地图类应用、搜索引擎类应用、购物类应用、即时通信工具、邮箱客户端、社交平台软件、视频播放类应用等。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105、106可以是提供各种服务的服务器,例如对终端设备101、102、103提供支持的后台服务器。后台服务器可以对终端提交的数据进行分析、存储或计算等处理,并将分析、存储或计算结果推送给终端设备。
需要说明的是,在实践中,本申请实施例所提供的车道线检测方法可以由终端设备101、102、103或服务器105、106执行,车道线检测装置也可以设置于终端设备101、102、103或服务器105、106中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,图2示出了根据本申请的车道线检测方法的一个实施例的流程200。该车道线检测方法,包括以下步骤:
步骤201,检测当前视频帧中的边缘。
在本实施例中,上述车道线检测方法运行于其上的执行主体(例如图1所示的终端或服务器)可以从本地或远端电子设备的摄像机中读取摄像机拍摄的视频,并将拉取的视频中当前需要处理确定车道线的视频帧作为当前视频帧。
之后,上述执行主体可以检测当前视频帧中的边缘。检测当前视频帧中的边缘的目的是:标识数字图像中亮度变化明显的点。图像属性中的显著变化通常反映了属性的重要事件和变化。这些包括深度上的不连续、表面方向不连续、物质属性变化和场景照明变化。
检测当前视频帧中的边缘的方法,可以为现有技术或未来发展的技术中用于检测视频帧中的边缘的方法,本申请对此不作限定。例如,可以采用基于搜索和基于零交叉的边缘检测方法来检测边缘。
基于搜索的边缘检测方法首先计算边缘强度,通常用一阶导数表示,例如梯度模,然后,用计算估计边缘的局部方向,通常采用梯度的方向,并利用此方向找到局部梯度模的最大值。
基于零交叉的方法找到由图像得到的二阶导数的零交叉点来定位边缘。通常用拉普拉斯算子或非线性微分方程的零交叉点。
滤波作为边缘检测的预处理通常是必要的,通常采用高斯滤波。
边缘检测方法应用计算边界强度的度量,这与平滑滤波有本质的不同。正如许多边缘检测方法依赖于图像梯度的计算,他们用不同种类的滤波器来估计x-方向和y-方向的梯度。
应当理解,出于检测结果的需要,用于拍摄视频的摄像机通常需要符合安装要求。例如:摄像机的俯仰角(pitch)及偏航角(yaw)应当在一定范围内,使得图像中灭点(指的是立体图形各条边的延伸线所产生的相交点)尽量靠近图像中心,摄像机的翻滚角(roll)不能超过5度等。
步骤202,基于检测到的边缘,确定候选边缘集合。
在本实施例中,基于步骤201中检测到的边缘,可以直接将检测到的边缘作为候选边缘集合,也可以对检测到的边缘进行筛选,得到筛选后的边缘作为候选边缘集合。
在本实施例的一个可选实现方式中,基于检测到的边缘,确定候选边缘集合可以包括:基于检测到的边缘中各边缘所包括的像素点的数量,确定候选边缘集合;或基于检测到的边缘中各边缘所包括的像素点的数量以及检测到的边缘中各边缘相邻的空白面积,确定候选边缘集合。
在本实现方式中,由于各边缘所包括的像素点的数量可以确定各边缘的长度,那么可以根据各边缘的长度,确定可能为车道线的边缘,并将这些确定的边缘添加至候选边缘集合。
考虑到在实际应用场景中,与车道线相邻的空白面积通常大于与非车道线相邻的空白面积,因此,在基于各边缘的长度确定可能为车道线的边缘的基础上,还可以基于各边缘相邻的空白面积的大小进一步确定可能为车道线的边缘,并将两次分别确定的边缘添加至候选边缘集合。
在本实施例的一些可选实现方式中,基于检测到的边缘中各边缘所包括的像素点的数量以及检测到的边缘中各边缘相邻的空白面积,确定候选边缘集合包括:根据检测到的边缘中各边缘所包括的像素点的数量由高至低进行长度排序,得到长度排序后的各边缘;根据长度排序后的各边缘的排序顺序,选取预定数量的边缘添加至候选边缘集合;根据检测到的边缘中各边缘相邻的空白面积由大至小对各边缘进行相邻空白面积排序,得到据相邻空白面积排序后的各边缘;基于据相邻空白面积排序后的各边缘的排序顺序,选取预设数量的边缘添加至候选边缘集合。
在本实现方式中,基于各边缘的长度的排序顺序,可以确定部分候选边缘添加至候选边缘集合中;基于各边缘的相邻空白面积的排序顺序,还可以确定部分候选边缘添加至候选边缘集合中。该候选边缘集合中的边缘便是候选的车道线的边缘。这里的预定数量和预设数量,可以分别根据经验设定或人工设定。
在一个具体的实施例中,可以设定长度最长的8条边缘作为候选边缘,同时确定相邻空白面积最大的8条边缘也作为候选边缘,从而得到候选边缘集合。应当理解,长度最长的8条边缘与相邻空白面积最大的8条边缘可能重合,因此,候选边缘集合中可以包括的线条数量为大于等于8条但小于16条。
步骤203,采用已确定参数的车道成像模型,拟合候选边缘集合中的各条边缘。
在本实施例中,上述执行主体可以采用已确定参数的车道成像模型拟合候选边缘集合中的各条边缘。车道成像模型通常可以采用模拟车道线的函数来实现。例如,采用直线方程或多项式来实现车道成像模型等。
在这里,车道成像模型的参数可以为类似的图片帧的车道成像模型的参数,或基于当前图片帧的数据拟合结果确定的车道成像模型的参数。
在本实施例的一些可选实现方式中,所述车道成像模型的参数可以基于以下步骤确定:响应于从数据库中获取到上一视频帧的车道成像模型的参数,将上一视频帧的车道成像模型的参数确定为当前视频帧的车道成像模型的参数;响应于从数据库中未获取到上一视频帧的车道成像模型的参数,基于数据拟合确定参数步骤拟合所述候选边缘集合中的各条边缘,确定当前视频帧的车道成像模型的参数。
在本实现方式中,由于本申请中根据所述候选边缘集合中的各条边缘得到的拟合结果参考了多条边缘,适应性广,并且视频帧之间具有连续性,因此可以在当前视频帧的边缘拟合过程中继续使用上一视频帧的车道成像模型的参数。
在本实施例的一些可选实现方式中,响应于从数据库中未获取到上一视频帧的车道成像模型的参数,基于数据拟合确定参数步骤拟合候选边缘集合中的各条边缘,确定当前视频帧的车道成像模型的参数包括:响应于从数据库中未获取到上一视频帧的车道成像模型的参数,基于已标定的拍摄视频帧的摄像机的外部参数,确定当前视频帧的车道成像模型的灭点参数;在基于数据拟合确定参数步骤拟合候选边缘集合中的各条边缘时,采用灭点参数确定当前视频帧的车道成像模型的参数。
在本实现方式中,若已标定的拍摄视频帧的摄像机的外部参数存在,那么可以基于外部参数确定车道成像模型的灭点参数,从而减少了确定车道成像模型的参数的计算量,提高了确定车道成像模型的参数的效率。
在本实施例的一些可选实现方式中,车道成像模型包括:u-u0=A(v-v0)+B/(v-v0),其中(u0,v0)为图像灭点位置(v=v0为地平线),(u,v)为当前视频帧中的边缘的坐标点,A、B为模型系数,同一帧图像中,不同车道线仅A值不同。
在本实现方式中,车道成像模型能够在图像帧上同时对直线车道及弯道建模,提高了车道成像模型的准确性,并且车道成像模型的适应性广,有利于进行帧间追踪。在一个具体的示例中,候选边缘集合中包括k组车道线特征点集,在v0值及其他参数方差已知的条件下,车道线拟合可转化为带权重的最小二乘拟合,最小二乘法是一种高效的数据拟合方法。
在本实施例的一些可选实现方式中,车道成像模型包括:u-u0=∑ai(v-v0)i,其中(u0,v0)为图像灭点位置(v=v0为地平线),(u,v)为当前视频帧中的边缘的坐标点,ai是指双曲线模型的泰勒级数展开式的第i项的系数。
在本实现方式中,双曲线模型为u-u0=A(v-v0)+B/(v-v0)。通过采用双曲线模型的泰勒展开式作为双曲线模型,除去了一次项参数,还能够在图像帧上同时对直线车道及弯道建模,同样提高了车道成像模型的准确性,并且车道成像模型的适应性广,有利于进行帧间追踪。
步骤204,对于候选边缘集合中的各条边缘,计算该边缘的拟合结果与该边缘的误差。
在本实施例中,上述执行主体可以基于已确定参数的车道成像模型对候选边缘集合中的各条边缘的拟合结果,对于每一个边缘,计算该边缘的拟合结果与该边缘的误差。在这里,误差可以为“残差和”、“残差绝对值和”或者“残差平方和”。
步骤205,选取计算的误差小于等于预定误差的边缘。
在本实施例中,计算的误差小于预定误差,说明拟合结果符合实际车道线,因此可以将边缘的拟合结果作为预估的车道线边缘,从而确定车道线。
步骤206,响应于选取的边缘的数量大于等于4,基于选取的边缘的拟合结果确定车道线。
在本实施例中,考虑到一个车道具有两条车道线,而么每一条车道线包括两条边缘,因此选取的边缘的数量大于等于4时,说明当前图像帧中至少包括一个车道。此时,基于选取的边缘的拟合结果就可以确定车道线。在根据车道线边缘确定车道线时,可以考虑车道的宽度、车道中心线的位置等,对选取的边缘进行取舍,确定最终的车道线。
在本实施例的一些可选实现方式中,车道线检测方法还包括:响应于计算的误差大于预定误差的边缘数量小于4,将下一帧视频帧作为当前视频帧,并对新的当前视频帧执行车道线检测方法。
在本实现方式中,若计算的误差大于预定误差的边缘数量小于4,那么当前视频帧中检测到的边缘不包括完整车道(例如车辆并线时采集到的图像),因此可以将下一帧视频帧作为当前视频帧,并对新的当前视频帧执行如上所述的车道线检测方法,以确定车道线。
以下结合图3a至图3e,描述本申请的车道线检测方法的示例性应用场景。
如图3a至图3e所示,图3a至图3e示出了根据本申请的车道线检测方法的一个应用场景的示意性流程图。
如图3a所示,车道线检测方法300运行于电子设备310中,可以包括:
首先,检测当前视频帧301中的边缘302,得到如图3a所示的当前视频帧中的边缘;
之后,根据检测到的边缘302中各边缘所包括的像素点的数量由高至低,选取预定数量的边缘303添加至候选边缘集合305,得到如图3b所示的候选边缘集合;
之后,根据检测到的边缘302中各边缘相邻的空白面积由大至小,选取预设数量的边缘304添加至候选边缘集合305,得到如图3c所示的候选边缘集合;
之后,采用已确定参数的车道成像模型306,拟合候选边缘集合305中的各条边缘;
之后,对于候选边缘集合305中的各条边缘,计算该边缘的拟合结果与该边缘的误差307;
之后,选取计算的误差307小于等于预定误差308的边缘,得到选取的边缘309;
之后,响应于选取的边缘309的数量大于等于4,基于选取的边缘的拟合结果310(如图3d中所示的选取的边缘的拟合结果),确定车道线311,得到如图3e所示的车道线。
应当理解,上述图3中所示出的车道线检测方法的应用场景,仅为对于车道线检测方法的示例性描述,并不代表对该方法的限定。例如,上述图3中示出的各个步骤,可以进一步采用更为细节的实现方法。
本申请上述实施例的车道线检测方法,可以首先检测当前视频帧中的边缘;之后,基于检测到的边缘,确定候选边缘集合;之后,采用已确定参数的车道成像模型,拟合候选边缘集合中的各条边缘;之后,对于候选边缘集合中的各条边缘,计算该边缘的拟合结果与该边缘的误差;之后,选取计算的误差小于等于预定误差的边缘;最后,响应于选取的边缘的数量大于等于4,基于选取的边缘的拟合结果确定车道线。在这一过程中,由于采用了候选边缘集合中的多条边缘进行拟合,增加了拟合结果的稳定性,提高了车道成像模型的准确性,并且车道成像模型的适应性广,有利于进行帧间追踪。并且在滤波过程中无需考虑相机外部标定参数,使用场合不受限制。
请参考图4,其示出了根据本申请的确定当前视频帧的车道成像模型的参数的方法的一个实施例的流程图。
如图4所示,本实施例的确定当前视频帧的车道成像模型的参数的方法的流程400,可以包括以下步骤:
步骤401,对候选边缘集合中的每两条边缘组合,采用数据拟合方法确定一组车道成像模型的参数。
在本实现方式中,对于候选边缘集合中的每两条边缘组合,可以代入参数未知的车道成像模型,从而求解未知的参数,得到一组车道成像模型的参数。
这里的数据拟合,又称曲线拟合,是将现有数据透过数学方法来代入一条数式的表示方式。科学和工程问题可以通过诸如采样、实验等方法获得若干离散的数据,根据这些数据,我们往往希望得到一个连续的函数(也就是曲线)或者更加密集的离散方程与已知数据相吻合,这过程就叫做拟合(fitting)。
在本实施例的一些可选实现方式中,采用数据拟合方法确定一组车道成像模型的参数包括:采用以下至少一项数据拟合方法确定一组车道成像模型的参数:最小二乘法、霍夫变换以及最大后验估计。
在本实现方式中,使用线性模型拟合数据时,数据量一般大于方程组的未知数个数,得到一个超定方程组,而且各个方程之间系数可能并不相容,导致方程组无解。最小二乘法在最小平方误差条件的约束下,求得超定方程组的最优解。最小二乘法的异方差问题可以使用加权解决。最大似然法求解模型参数的过程,就是对参数空间进行搜索,寻找使得特征点集合出现的可能性最大的参数点。
与Hough变换的特征点到参数空间的投票过程不同,最大后验估计是参数空间到特征点集合的一个匹配过程。示例性的,数据拟合方法可以包括:基于最小二乘法实现的最大后验估计。
步骤402,基于每一组车道成像模型的参数所确定的车道成像模型,确定候选边缘集合中各条边缘线的拟合结果与边缘线的误差小于预定误差的线条数量。
在本实施例中,由于每一组车道成像模型的参数基于两条边缘的组合确定,各组车道成像模型的参数所适用的候选边缘中的边缘数量并不相同,为了确定最优的车道成像模型的参数,需要确定各组车道成像模型所适用的线条数量,再根据线条数量确定哪一组车道成像模型的参数的适用性更为广泛。
步骤403,将确定的线条数量最大并且线条数量大于4的车道成像模型的参数,确定为当前视频帧的车道成像模型的参数。
在本实施例中,确定的线条数量最大,可以保证该车道成像模型的适用性最为广泛,而确定的线条数量大于4,则可以确保车道成像模型的参数至少适应于一条车道所包括的4个边缘。
在本实施例的一些可选实现方式中,基于数据拟合确定参数步骤拟合候选边缘集合中的各条边缘,确定当前视频帧的车道成像模型的参数还包括:若线条数量最大并且线条数量大于4的车道成像模型的参数不存在,则将下一帧视频帧作为当前视频帧,并对当前视频帧,执行基于检测到的边缘,确定候选边缘集合,以及基于拟合候选边缘集合中的各条边缘,确定当前视频帧的车道成像模型的参数。
在本实现方式中,若线条数量最大并且线条数量大于4的车道成像模型的参数不存在,也即表明线条数量不能满足适用于一个车道所包括的四个边缘,当前视频帧中不存在一个完整的车道。因此,可以基于下一帧视频帧来确定车道线。
本申请上述实施例的确定当前视频帧的车道成像模型的参数的方法,对候选边缘集合中的每两条边缘组合,采用数据拟合方法确定一组模型参数;基于每一组车道成像模型的参数所确定的车道成像模型,确定候选边缘集合中各条边缘线的拟合结果与边缘线的误差小于预定误差的线条数量;将确定的线条数量最大并且线条数量大于4的车道成像模型的参数确定为当前视频帧的车道成像模型的参数。在这一过程中,筛选出了可以适应最多边缘的车道成像模型的参数,提高了所确定的车道成像模型的参数的适用性。
进一步参考图5,作为对上述各图所示方法的实现,本申请实施例提供了一种车道线检测装置的一个实施例,该装置实施例与图2-图4中所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的车道线检测装置500可以包括:边缘检测单元510,被配置成检测当前视频帧中的边缘;集合确定单元520,被配置成基于检测到的边缘,确定候选边缘集合;边缘拟合单元530,被配置成采用已确定参数的车道成像模型,拟合候选边缘集合中的各条边缘;误差计算单元540,被配置成对于候选边缘集合中的各条边缘,计算该边缘的拟合结果与该边缘的误差;边缘选取单元550,被配置成选取计算的误差小于等于预定误差的边缘;车道线确定单元560,被配置成响应于选取的边缘的数量大于等于4,基于选取的边缘的拟合结果确定车道线。
在一些实施例中,边缘拟合单元530中车道成像模型的参数基于以下确定步骤确定:响应于从数据库中获取到上一视频帧的车道成像模型的参数,将上一视频帧的车道成像模型的参数确定为当前视频帧的车道成像模型的参数;响应于从数据库中未获取到上一视频帧的车道成像模型的参数,基于数据拟合确定参数步骤拟合候选边缘集合中的各条边缘,确定当前视频帧的车道成像模型的参数。
在一些实施例中,边缘拟合单元530中车道成像模型的参数所基于的确定步骤进一步包括:对候选边缘集合中的每两条边缘组合,采用数据拟合方法确定一组车道成像模型的参数;基于每一组车道成像模型的参数所确定的车道成像模型,确定候选边缘集合中各条边缘线的拟合结果与边缘线的误差小于预定误差的线条数量;将确定的线条数量最大并且线条数量大于4的车道成像模型的参数确定为当前视频帧的车道成像模型的参数。
在一些实施例中,边缘拟合单元530中车道成像模型的参数所基于的确定步骤进一步包括:若线条数量最大并且线条数量大于4的车道成像模型的参数不存在,则将下一帧视频帧作为当前视频帧,并对当前视频帧,执行基于检测到的边缘,确定候选边缘集合,以及基于拟合候选边缘集合中的各条边缘,确定当前视频帧的车道成像模型的参数。
在一些实施例中,边缘拟合单元530中车道成像模型的参数所基于的确定步骤进一步包括:采用以下至少一项数据拟合方法确定一组车道成像模型的参数:最小二乘法、霍夫变换以及最大后验估计。
在一些实施例中,边缘拟合单元530中车道成像模型的参数所基于的确定步骤进一步包括:响应于从数据库中未获取到上一视频帧的车道成像模型的参数,基于已标定的拍摄视频帧的摄像机的外部参数,确定当前视频帧的车道成像模型的灭点参数;在基于数据拟合确定参数步骤拟合候选边缘集合中的各条边缘时,采用灭点参数确定当前视频帧的车道成像模型的参数。
在一些实施例中,集合确定单元520进一步被配置成:基于检测到的边缘中各边缘所包括的像素点的数量,确定候选边缘集合;或基于检测到的边缘中各边缘所包括的像素点的数量以及检测到的边缘中各边缘相邻的空白面积,确定候选边缘集合。
在一些实施例中,集合确定单元520进一步被配置成:根据检测到的边缘中各边缘所包括的像素点的数量由高至低进行长度排序,得到长度排序后的各边缘;根据长度排序后的各边缘的排序顺序,选取预定数量的边缘添加至候选边缘集合;根据检测到的边缘中各边缘相邻的空白面积由大至小对各边缘进行相邻空白面积排序,得到据相邻空白面积排序后的各边缘;基于据相邻空白面积排序后的各边缘的排序顺序,选取预设数量的边缘添加至候选边缘集合。
在一些实施例中,边缘拟合单元530中的车道成像模型包括:u-u0=A(v-v0)+B/(v-v0),其中(u0,v0)为图像灭点位置(v=v0为地平线),(u,v)为当前视频帧中的边缘的坐标点,A、B为模型系数,同一帧图像中,不同车道线仅A值不同。
在一些实施例中,边缘拟合单元530中的车道成像模型包括:u-u0=∑ai(v-v0)i,其中(u0,v0)为图像灭点位置(v=v0为地平线),(u,v)为当前视频帧中的边缘的坐标点,ai是指双曲线模型的泰勒级数展开式的第i项的系数。
在一些实施例中,装置还包括:视频帧更新单元570,被配置成响应于计算的误差大于预定误差的边缘数量小于4,将下一帧视频帧作为当前视频帧,并对新的当前视频帧执行车道线检测方法。
应当理解,装置500中记载的诸单元可以与参考图2-图4描述的方法中的各个步骤相对应。由此,上文针对方法描述的操作和特征同样适用于装置500及其中包含的单元,在此不再赘述。
下面参考图6,其示出了适于用来实现本申请实施例的服务器的计算机系统600的结构示意图。图6示出的终端设备或服务器仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图6所示,计算机系统600包括中央处理单元(CPU)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储部分608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有系统600操作所需的各种程序和数据。CPU 601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
以下部件连接至I/O接口605:包括键盘、鼠标等的输入部分606;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。在该计算机程序被中央处理单元(CPU)601执行时,执行本申请的方法中限定的上述功能。需要说明的是,本申请所述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括边缘检测单元、集合确定单元、边缘拟合单元、误差计算单元、边缘选取单元和车道线确定单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,边缘检测单元还可以被描述为“检测当前视频帧中的边缘的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的装置中所包含的;也可以是单独存在,而未装配入该装置中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该装置执行时,使得该装置:检测当前视频帧中的边缘;基于检测到的边缘,确定候选边缘集合;采用已确定参数的车道成像模型,拟合候选边缘集合中的各条边缘;对于候选边缘集合中的各条边缘,计算该边缘的拟合结果与该边缘的误差;选取计算的误差小于等于预定误差的边缘;响应于选取的边缘的数量大于等于4,基于选取的边缘的拟合结果确定车道线。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (20)

1.一种车道线检测方法,包括:
基于搜索和基于零交叉的边缘检测方法,检测当前视频帧中的边缘;
基于检测到的边缘中各边缘所包括的像素点的数量,确定候选边缘集合;或,基于检测到的边缘中各边缘所包括的像素点的数量以及检测到的边缘中各边缘相邻的空白面积,确定候选边缘集合;
采用已确定参数的车道成像模型,拟合所述候选边缘集合中的各条边缘;
对于候选边缘集合中的各条边缘,计算该边缘的拟合结果与该边缘的误差;
选取计算的误差小于等于预定误差的边缘;
响应于选取的边缘的数量大于等于4,基于选取的边缘的拟合结果确定车道线;
所述车道成像模型的参数基于以下步骤确定:
响应于从数据库中获取到上一视频帧的车道成像模型的参数,将上一视频帧的车道成像模型的参数确定为当前视频帧的车道成像模型的参数;
响应于从数据库中未获取到上一视频帧的车道成像模型的参数,基于数据拟合确定参数步骤拟合所述候选边缘集合中的各条边缘,确定当前视频帧的车道成像模型的参数。
2.根据权利要求1所述的方法,其中,所述基于数据拟合确定参数步骤拟合所述候选边缘集合中的各条边缘,确定当前视频帧的车道成像模型的参数包括:
对所述候选边缘集合中的每两条边缘组合,采用数据拟合方法确定一组车道成像模型的参数;
基于每一组车道成像模型的参数所确定的车道成像模型,确定候选边缘集合中各条边缘线的拟合结果与边缘线的误差小于预定误差的线条数量;
将确定的线条数量最大并且线条数量大于4的车道成像模型的参数确定为当前视频帧的车道成像模型的参数。
3.根据权利要求2所述的方法,其中,所述基于数据拟合确定参数步骤拟合所述候选边缘集合中的各条边缘,确定当前视频帧的车道成像模型的参数还包括:
若线条数量最大并且线条数量大于4的车道成像模型的参数不存在,则将下一帧视频帧作为当前视频帧,并对所述当前视频帧,执行所述基于检测到的边缘,确定候选边缘集合,以及基于拟合所述候选边缘集合中的各条边缘,确定当前视频帧的车道成像模型的参数。
4.根据权利要求2所述的方法,其中,所述采用数据拟合方法确定一组车道成像模型的参数包括:
采用以下至少一项数据拟合方法确定一组车道成像模型的参数:最小二乘法、霍夫变换以及最大后验估计。
5.根据权利要求2所述的方法,其中,所述响应于从数据库中未获取到上一视频帧的车道成像模型的参数,基于数据拟合确定参数步骤拟合所述候选边缘集合中的各条边缘,确定当前视频帧的车道成像模型的参数包括:
响应于从数据库中未获取到上一视频帧的车道成像模型的参数,基于已标定的拍摄视频帧的摄像机的外部参数,确定当前视频帧的车道成像模型的灭点参数;
在基于数据拟合确定参数步骤拟合所述候选边缘集合中的各条边缘时,采用所述灭点参数确定当前视频帧的车道成像模型的参数。
6.根据权利要求1所述的方法,其中,所述基于检测到的边缘中各边缘所包括的像素点的数量以及检测到的边缘中各边缘相邻的空白面积,确定候选边缘集合包括:
根据检测到的边缘中各边缘所包括的像素点的数量由高至低进行长度排序,得到长度排序后的各边缘;
根据长度排序后的各边缘的排序顺序,选取预定数量的边缘添加至候选边缘集合;
根据检测到的边缘中各边缘相邻的空白面积由大至小对各边缘进行相邻空白面积排序,得到据相邻空白面积排序后的各边缘;
基于所述据相邻空白面积排序后的各边缘的排序顺序,选取预设数量的边缘添加至所述候选边缘集合。
7.根据权利要求1所述的方法,其中,所述车道成像模型包括:
u-u0=A(v-v0)+B/(v-v0),其中(u0,v0)为图像灭点位置,(u,v)为当前视频帧中的边缘的坐标点,A、B为模型系数,同一帧图像中,不同车道线仅A值不同。
8.根据权利要求1所述的方法,其中,所述车道成像模型包括:u-u0=∑ai(v-v0)i,其中(u0,v0)为图像灭点位置,(u,v)为当前视频帧中的边缘的坐标点,ai是指双曲线模型的泰勒级数展开式的第i项的系数。
9.根据权利要求1所述的方法,其中,所述方法还包括:
响应于计算的误差大于预定误差的边缘数量小于4,将下一帧视频帧作为当前视频帧,并对新的当前视频帧执行所述车道线检测方法。
10.一种车道线检测装置,包括:
边缘检测单元,被配置成基于搜索和基于零交叉的边缘检测方法,检测当前视频帧中的边缘;
集合确定单元,被配置成基于检测到的边缘中各边缘所包括的像素点的数量,确定候选边缘集合;或,基于检测到的边缘中各边缘所包括的像素点的数量以及检测到的边缘中各边缘相邻的空白面积,确定候选边缘集合;
边缘拟合单元,被配置成采用已确定参数的车道成像模型,拟合所述候选边缘集合中的各条边缘;
误差计算单元,被配置成对于候选边缘集合中的各条边缘,计算该边缘的拟合结果与该边缘的误差;
边缘选取单元,被配置成选取计算的误差小于等于预定误差的边缘;
车道线确定单元,被配置成响应于选取的边缘的数量大于等于4,基于选取的边缘的拟合结果确定车道线;
所述边缘拟合单元中车道成像模型的参数基于以下确定步骤确定:
响应于从数据库中获取到上一视频帧的车道成像模型的参数,将上一视频帧的车道成像模型的参数确定为当前视频帧的车道成像模型的参数;
响应于从数据库中未获取到上一视频帧的车道成像模型的参数,基于数据拟合确定参数步骤拟合所述候选边缘集合中的各条边缘,确定当前视频帧的车道成像模型的参数。
11.根据权利要求10所述的装置,其中,所述边缘拟合单元中车道成像模型的参数所基于的确定步骤进一步包括:
对所述候选边缘集合中的每两条边缘组合,采用数据拟合方法确定一组车道成像模型的参数;
基于每一组车道成像模型的参数所确定的车道成像模型,确定候选边缘集合中各条边缘线的拟合结果与边缘线的误差小于预定误差的线条数量;
将确定的线条数量最大并且线条数量大于4的车道成像模型的参数确定为当前视频帧的车道成像模型的参数。
12.根据权利要求11所述的装置,其中,所述边缘拟合单元中车道成像模型的参数所基于的确定步骤进一步包括:
若线条数量最大并且线条数量大于4的车道成像模型的参数不存在,则将下一帧视频帧作为当前视频帧,并对所述当前视频帧,执行所述基于检测到的边缘,确定候选边缘集合,以及基于拟合所述候选边缘集合中的各条边缘,确定当前视频帧的车道成像模型的参数。
13.根据权利要求11所述的装置,其中,所述边缘拟合单元中车道成像模型的参数所基于的确定步骤进一步包括:
采用以下至少一项数据拟合方法确定一组车道成像模型的参数:最小二乘法、霍夫变换以及最大后验估计。
14.根据权利要求11所述的装置,其中,所述边缘拟合单元中车道成像模型的参数所基于的确定步骤进一步包括:
响应于从数据库中未获取到上一视频帧的车道成像模型的参数,基于已标定的拍摄视频帧的摄像机的外部参数,确定当前视频帧的车道成像模型的灭点参数;
在基于数据拟合确定参数步骤拟合所述候选边缘集合中的各条边缘时,采用所述灭点参数确定当前视频帧的车道成像模型的参数。
15.根据权利要求10所述的装置,其中,所述集合确定单元进一步被配置成:
根据检测到的边缘中各边缘所包括的像素点的数量由高至低进行长度排序,得到长度排序后的各边缘;
根据长度排序后的各边缘的排序顺序,选取预定数量的边缘添加至候选边缘集合;
根据检测到的边缘中各边缘相邻的空白面积由大至小对各边缘进行相邻空白面积排序,得到据相邻空白面积排序后的各边缘;
基于所述据相邻空白面积排序后的各边缘的排序顺序,选取预设数量的边缘添加至所述候选边缘集合。
16.根据权利要求10所述的装置,其中,所述边缘拟合单元中的所述车道成像模型包括:
u-u0=A(v-v0)+B/(v-v0),其中(u0,v0)为图像灭点位置,(u,v)为当前视频帧中的边缘的坐标点,A、B为模型系数,同一帧图像中,不同车道线仅A值不同。
17.根据权利要求10所述的装置,其中,所述边缘拟合单元中的所述车道成像模型包括:u-u0=∑ai(v-v0)i,其中(u0,v0)为图像灭点位置,(u,v)为当前视频帧中的边缘的坐标点,ai是指双曲线模型的泰勒级数展开式的第i项的系数。
18.根据权利要求10所述的装置,其中,所述装置还包括:
视频帧更新单元,被配置成响应于计算的误差大于预定误差的边缘数量小于4,将下一帧视频帧作为当前视频帧,并对新的当前视频帧执行所述车道线检测方法。
19.一种服务器,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-9中任一所述的方法。
20.一种计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现如权利要求1-9中任一所述的方法。
CN202111106274.5A 2018-09-30 2018-09-30 车道线检测方法和装置 Active CN113792690B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111106274.5A CN113792690B (zh) 2018-09-30 2018-09-30 车道线检测方法和装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202111106274.5A CN113792690B (zh) 2018-09-30 2018-09-30 车道线检测方法和装置
CN201811159602.6A CN109300139B (zh) 2018-09-30 2018-09-30 车道线检测方法和装置

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201811159602.6A Division CN109300139B (zh) 2018-09-30 2018-09-30 车道线检测方法和装置

Publications (2)

Publication Number Publication Date
CN113792690A CN113792690A (zh) 2021-12-14
CN113792690B true CN113792690B (zh) 2023-06-23

Family

ID=65161420

Family Applications (3)

Application Number Title Priority Date Filing Date
CN201811159602.6A Active CN109300139B (zh) 2018-09-30 2018-09-30 车道线检测方法和装置
CN202111106274.5A Active CN113792690B (zh) 2018-09-30 2018-09-30 车道线检测方法和装置
CN202111105791.0A Active CN113793356B (zh) 2018-09-30 2018-09-30 车道线检测方法和装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201811159602.6A Active CN109300139B (zh) 2018-09-30 2018-09-30 车道线检测方法和装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN202111105791.0A Active CN113793356B (zh) 2018-09-30 2018-09-30 车道线检测方法和装置

Country Status (1)

Country Link
CN (3) CN109300139B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109300139B (zh) * 2018-09-30 2021-10-15 百度在线网络技术(北京)有限公司 车道线检测方法和装置
CN109934169A (zh) * 2019-03-13 2019-06-25 东软睿驰汽车技术(沈阳)有限公司 一种车道线识别方法及装置
CN112050821B (zh) * 2020-09-11 2021-08-20 湖北亿咖通科技有限公司 一种车道线聚合方法
CN112560680A (zh) * 2020-12-16 2021-03-26 北京百度网讯科技有限公司 车道线处理方法、装置、电子设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108052880A (zh) * 2017-11-29 2018-05-18 南京大学 交通监控场景虚实车道线检测方法
CN108280450A (zh) * 2017-12-29 2018-07-13 安徽农业大学 一种基于车道线的高速公路路面检测方法

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2735033B2 (ja) * 1995-06-05 1998-04-02 日本電気株式会社 車線変更検出装置および方法
US6819779B1 (en) * 2000-11-22 2004-11-16 Cognex Corporation Lane detection system and apparatus
US7409092B2 (en) * 2002-06-20 2008-08-05 Hrl Laboratories, Llc Method and apparatus for the surveillance of objects in images
CN101470801B (zh) * 2007-12-24 2011-06-01 财团法人车辆研究测试中心 车辆偏移的检知方法
TWI452540B (zh) * 2010-12-09 2014-09-11 Ind Tech Res Inst 影像式之交通參數偵測系統與方法及電腦程式產品
CN102208019B (zh) * 2011-06-03 2013-01-09 东南大学 基于车载摄像机的车辆变道检测方法
CN102314599A (zh) * 2011-10-11 2012-01-11 东华大学 一种车道识别偏离检测方法
KR101295077B1 (ko) * 2011-12-28 2013-08-08 전자부품연구원 다양한 도로 상황에서의 차선 검출 및 추적 장치
CN102663744B (zh) * 2012-03-22 2015-07-08 杭州电子科技大学 梯度点对约束下的复杂道路检测方法
CN104008387B (zh) * 2014-05-19 2017-02-15 山东科技大学 一种基于特征点分段线性拟合的车道线检测方法
CN104008645B (zh) * 2014-06-12 2015-12-09 湖南大学 一种适用于城市道路车道线预测及预警方法
CN104268860B (zh) * 2014-09-17 2017-10-17 电子科技大学 一种车道线检测方法
CN105320927B (zh) * 2015-03-25 2018-11-23 中科院微电子研究所昆山分所 车道线检测方法及系统
CN106326822B (zh) * 2015-07-07 2020-02-07 北京易车互联信息技术有限公司 车道线检测的方法及装置
CN105069415B (zh) * 2015-07-24 2018-09-11 深圳市佳信捷技术股份有限公司 车道线检测方法和装置
CN105760812B (zh) * 2016-01-15 2019-06-07 北京工业大学 一种基于Hough变换的车道线检测方法
CN105741559B (zh) * 2016-02-03 2018-08-31 安徽清新互联信息科技有限公司 一种基于车道线模型的违法占用应急车道检测方法
CN106384085A (zh) * 2016-08-31 2017-02-08 浙江众泰汽车制造有限公司 一种无人车偏航角计算方法
CN106774328A (zh) * 2016-12-26 2017-05-31 广州大学 一种基于道路识别的自动驾驶系统及方法
CN107909007B (zh) * 2017-10-27 2019-12-13 上海识加电子科技有限公司 车道线检测方法及装置
CN107832732B (zh) * 2017-11-24 2021-02-26 河南理工大学 基于三叉树遍历的车道线检测方法
CN108009524B (zh) * 2017-12-25 2021-07-09 西北工业大学 一种基于全卷积网络的车道线检测方法
CN108519605B (zh) * 2018-04-09 2021-09-07 重庆邮电大学 基于激光雷达和摄像机的路沿检测方法
CN109300139B (zh) * 2018-09-30 2021-10-15 百度在线网络技术(北京)有限公司 车道线检测方法和装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108052880A (zh) * 2017-11-29 2018-05-18 南京大学 交通监控场景虚实车道线检测方法
CN108280450A (zh) * 2017-12-29 2018-07-13 安徽农业大学 一种基于车道线的高速公路路面检测方法

Also Published As

Publication number Publication date
CN113792690A (zh) 2021-12-14
CN109300139B (zh) 2021-10-15
CN113793356B (zh) 2023-06-23
CN109300139A (zh) 2019-02-01
CN113793356A (zh) 2021-12-14

Similar Documents

Publication Publication Date Title
CN113792690B (zh) 车道线检测方法和装置
CN108960090B (zh) 视频图像处理方法及装置、计算机可读介质和电子设备
CN108710885B (zh) 目标对象的检测方法和装置
US20150294490A1 (en) System and method for relating corresponding points in images with different viewing angles
CN111598913B (zh) 一种基于机器人视觉的图像分割方法和系统
CN108492284B (zh) 用于确定图像的透视形状的方法和装置
CN110688873A (zh) 多目标追踪方法及人脸识别方法
CN111723634A (zh) 一种图像检测方法、装置、电子设备及存储介质
CN110909620A (zh) 车辆检测方法、装置、电子设备及存储介质
CN112001357B (zh) 目标识别检测方法及系统
CN110852250B (zh) 一种基于最大面积法的车辆排重方法、装置及存储介质
CN112967191A (zh) 图像处理方法、装置、电子设备和存储介质
CN112785651B (zh) 用于确定相对位姿参数的方法和装置
CN109523564B (zh) 用于处理图像的方法和装置
CN110363847B (zh) 一种基于点云数据的地图模型构建方法和装置
CN110634155A (zh) 一种基于深度学习的目标检测方法和装置
CN110634159A (zh) 一种目标检测方法和装置
CN111765892B (zh) 一种定位方法、装置、电子设备及计算机可读存储介质
CN115713560A (zh) 一种摄像头和车辆的外参数标定方法及装置、电子设备、存储介质
CN110852252B (zh) 一种基于最小距离、最大长宽比的车辆排重方法和装置
CN114387498A (zh) 目标检测方法、装置、电子设备及存储介质
CN112868049B (zh) 使用基于贴片的投影相关性进行高效自运动估计
CN112991388A (zh) 基于光流跟踪预测和凸几何距离的线段特征跟踪方法
Wang et al. An airlight estimation method for image dehazing based on gray projection
CN111383337B (zh) 用于识别对象的方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant