CN106203398A - 一种检测车道边界的方法、装置和设备 - Google Patents
一种检测车道边界的方法、装置和设备 Download PDFInfo
- Publication number
- CN106203398A CN106203398A CN201610594540.6A CN201610594540A CN106203398A CN 106203398 A CN106203398 A CN 106203398A CN 201610594540 A CN201610594540 A CN 201610594540A CN 106203398 A CN106203398 A CN 106203398A
- Authority
- CN
- China
- Prior art keywords
- points
- lane boundary
- edge
- transverse
- lane
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 66
- 238000001914 filtration Methods 0.000 claims abstract description 31
- 238000010801 machine learning Methods 0.000 claims description 35
- 238000004891 communication Methods 0.000 claims description 10
- 238000012545 processing Methods 0.000 claims description 9
- 230000008878 coupling Effects 0.000 claims description 3
- 238000010168 coupling process Methods 0.000 claims description 3
- 238000005859 coupling reaction Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 abstract description 34
- 238000001514 detection method Methods 0.000 abstract description 22
- 239000000284 extract Substances 0.000 abstract description 2
- 238000004364 calculation method Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 11
- 241001270131 Agaricus moelleri Species 0.000 description 5
- 239000004575 stone Substances 0.000 description 5
- 230000007704 transition Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 102100032231 Caveolae-associated protein 2 Human genes 0.000 description 1
- 101000869050 Homo sapiens Caveolae-associated protein 2 Proteins 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/457—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by analysing connectivity, e.g. edge linking, connected component analysis or slices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/30—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
- B60R2300/307—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/80—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
- B60R2300/804—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for lane monitoring
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30256—Lane; Road marking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
- Mechanical Engineering (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Processing (AREA)
Abstract
本发明实施例公开了一种检测车道边界的方法。该方法包括:获取车道的当前帧图像,并通过对当前帧图像进行滤波,提取当前帧图像中的亮度跳变点;从亮度跳变点中滤除噪声点并以剩余的亮度跳变点作为边缘点形成边缘点的分组,其中,同一分组内边缘点的连线形成一条边缘线;从边缘线中识别出所述车道边界的边缘线;对所述车道边界的边缘线进行分组,并将每一分组内的边缘线分别识别为一条车道边界的边缘线。通过本发明实施例提供的方法,车道边界检测过程中需要经过的计算过程更加简单,车道边界检测过程占用的计算资源和耗费的时间也更少,因此,车道边界能够准确、快速地被检测出来。此外,本发明实施例还提供了一种检测车道边界的装置和设备。
Description
技术领域
本发明涉及信息处理技术领域,特别是涉及一种检测车道边界的方法、装置和设备。
背景技术
目前,许多车辆中都安装有驾驶辅助系统。其中,有些驾驶辅助系统可以通过检测道路上的车道边界为车辆提供行驶车道信息,如车道偏差预警系统。其中,车道边界不仅可以包括车道标志线,也可以包括路缘石、公路护栏等整个道路的边界标注物。为了能够检测到车道边界,现有的驾驶辅助系统通常采用机器学习的方法对单目相机拍摄的待检测的车道图像与已知的车道边界图像进行整个图像的比较和分析,从而在待检测的车道图像中识别出车道边界的区域。发明人经过研究发现,现有的驾驶辅助系统在采用机器学习的方法从车道图像中识别车道边界时需要经过非常繁琐的计算过程,这样会导致车道边界的检测过程占用过多的计算资源以及耗费过长的时间。
发明内容
本申请所要解决的技术问题是,提供一种检测车道边界的方法、装置和设备,以简化车道边界检测过程中需要经过的计算过程,从而减少车道边界检测过程占用的计算资源和耗费的时间,使得驾驶辅助系统能够准确、快速地检测出车道边界。
第一方面,提供了一种检测车道边界的方法,包括:
获取车道的当前帧图像,并通过对所述当前帧图像进行滤波,提取所述当前帧图像中的亮度跳变点;
从所述亮度跳变点中滤除噪声点并以剩余的亮度跳变点作为边缘点形成所述边缘点的分组,其中,满足第一预定条件的两个边缘点位于同一分组内,所述第一预定条件包括两个点之间的纵向坐标相邻且横向坐标距离差小于第一距离阈值,所述噪声点包括第一噪声点,所述第一噪声点与任意一个其他亮度跳变点都不满足所述第一预定条件,同一分组内边缘点的连线形成一条边缘线;
从所述边缘线中识别出所述车道边界的边缘线;
对所述车道边界的边缘线进行分组,并将每一分组内的边缘线分别识别为一条车道边界的边缘线,其中,同一分组内的两条边缘线之间的横向坐标差值小于第二距离阈值。
可选的,所述第一预定条件还包括两个点之间的梯度角度小于梯度角阈值;
可选的,所述噪声点还包括第二噪声点,所述第二噪声点至少满足以下预定条件中的至少一个:
所述第二预定条件为:第一横向左侧区域的灰度均值与第二横向左侧区域的灰度均值之间的差值小于第一灰度均值阈值;
所述第三预定条件为:第一横向右侧区域的灰度均值与第二横向右侧区域的灰度均值之间的差值小于第二灰度均值阈值;
所述第四预定条件为:第一横向左侧区域的灰度方差与第二横向左侧区域的灰度方差之间的差值小于第一灰度方差阈值;
所述第五预定条件为:第一横向右侧区域的灰度方差与第二横向右侧区域的灰度方差之间的差值小于第二灰度方差阈值;其中,所述第一横向左侧区域为第一左侧点组成的区域,所述第一左侧点与所述第二噪声点的纵向坐标相同且横向坐标距离不超过第三距离阈值,所述第一左侧点的横向坐标小于所述第二噪声点的横向坐标;
所述第一横向右侧区域为第一右侧点组成的区域,所述第一右侧点与所述第二噪声点的纵向坐标相同且横向坐标距离不超过所述第三距离阈值,所述第一右侧点的横向坐标大于所述第二噪声点的横向坐标;
所述第二横向左侧区域为第二左侧点组成的区域,所述第二左侧点与参考跳变点的纵向坐标相同且横向坐标距离不超过第三距离阈值,所述第二左侧点的横向坐标小于所述参考跳变点的横向坐标;
所述第二横向右侧区域为第二右侧点组成的区域,所述第二右侧点与所述参考跳变点的纵向坐标相同且横向坐标距离不超过所述第三距离阈值,所述第二右侧点的横向坐标大于所述参考跳变点的横向坐标;
所述参考跳变点属于所述亮度跳变点,所述参考跳变点与所述第二噪声点的横向坐标距离小于所述第一距离阈值且纵向坐标距离在第四距离阈值以内,所述参考跳变点的纵向坐标小于所述第二噪声点的纵向坐标。
可选的,所述从所述边缘线中识别出所述车道边界的边缘线,具体为:在所述边缘线中识别出满足第六预定条件和/或第七预定条件的边缘线,作为所述车道边界的边缘线;
所述第六预定条件为:所述边缘线的置信度大于置信度阈值,所述边缘线的置信度表示所述边缘线属于所述车道边界的边缘线的可能性,所述边缘线的置信度是根据所述边缘线的真实长度、在所述当前帧图像中所述边缘线横向两侧的灰度偏差以及所述边缘线上边缘点的梯度角而计算出来的;
所述第七预定条件为:从所述当前帧图像中识别出的车道标志线与所述边缘线之间的三维坐标夹角小于夹角阈值。
可选的,所述方法还包括:
将满足第八预定条件的车道边界、满足第九预定条件的车道边界和/或满足第十预定条件的车道边界识别为路缘石;
所述第八预定条件为:所述车道边界具有三条边缘线,所述车道边界中每两条相邻的边缘线的横向距离小于第五距离阈值,所述车道边界中最左侧边缘线与最右侧边缘线的横向距离小于第六距离阈值;
所述第九预定条件为:所述车道边界具有两条边缘线,所述车道边界的两条边缘线之间的横向坐标距离小于第七距离阈值,所述车道边界的左侧区域的灰度方差小于第三灰度方差阈值,所述车道边界的右侧区域的灰度方差大于第四灰度方差阈值;
所述第十预定条件为:所述车道边界具有两条边缘线,所述车道边界的两条边缘线之间的横向坐标距离小于所述第七距离阈值,所述车道边界的左侧区域的灰度方差大于所述第三灰度方差阈值,所述车道边界的右侧区域的灰度方差小于所述第四灰度方差阈值;
其中,所述车道边界的左侧区域为第三左侧点组成的区域,所述第三左侧点的纵向坐标属于所述车道边界的左侧边缘线的纵向坐标范围,所述第三左侧点与所述车道边界的左侧边缘线的横向坐标距离不超过第三距离阈值,所述第三左侧点的横向坐标小于所述车道边界的左侧边缘线的横向坐标;
所述车道边界的右侧区域为第三右侧点组成的区域,所述第三右侧点的纵向坐标属于所述车道边界的右侧边缘线的纵向坐标范围,所述第三右侧点与所述车道边界的右侧边缘线的横向坐标距离不超过所述第三距离阈值,所述第三右侧点的横向坐标大于所述车道边界的右侧边缘线的横向坐标。
可选的,所述方法还包括:
通过已训练的机器学习模型对所述当前帧图像中具有所述车道边界的识别区域进行识别,识别出属于护栏的车道边界;
其中,所述机器学习模型是利用护栏图像与非护栏目标物图像训练过的。
可选的,通过已训练的机器学习模型对所述当前帧图像中具有所述车道边界的识别区域进行识别,识别出属于护栏的车道边界,包括:
以所述当前帧图像中的各条车道边界分别为识别目标,根据所述当前帧图像中所述识别目标的位置,从所述当前帧图像中选取具有所述识别目标的至少一个识别区域;
通过所述机器学习模型对各个所述识别区域进行识别,确定各个所述识别区域是否为具有护栏的区域;
若在具有所述识别目标的识别区域中所述具有护栏的区域的数量占比超过比例阈值,将所述识别目标确定为护栏。
可选的,所述方法还包括:
在已从所述当前帧图像的车道边界中识别出车道标志线和护栏的情况下,将满足第十一预定条件的车道边界识别为路缘石;
所述第十一预定条件为:所述车道边界位于所述车道标志线与所述护栏之间,所述车道边界的两条边缘线之间的横向坐标距离小于第七距离阈值。
可选的,所述方法还包括:
根据历史帧图像中路缘石、护栏和车道标志线的位置,将所述当前帧图像中的所述车道边界区分为车道标志线、护栏和/或路缘石。
第二方面,提供了一种检测车道边界的装置,包括:
获取单元,用于获取车道的当前帧图像;
提取单元,用于通过对所述当前帧图像进行滤波,提取所述当前帧图像中的亮度跳变点;
分组单元,用于从所述亮度跳变点中滤除噪声点并以剩余的亮度跳变点作为边缘点形成所述边缘点的分组,其中,满足第一预定条件的两个边缘点位于同一分组内,所述第一预定条件包括两个点之间的纵向坐标相邻且横向坐标距离差小于第一距离阈值,所述噪声点包括第一噪声点,所述第一噪声点与任意一个其他亮度跳变点都不满足所述第一预定条件,同一分组内边缘点的连线形成一条边缘线;
第一识别单元,从所述边缘线中识别出所述车道边界的边缘线;
第二识别单元,用于对所述车道边界的边缘线进行分组,并将每一分组内的边缘线分别识别为一条车道边界的边缘线,其中,同一分组内的两条边缘线之间的横向坐标差值小于第二距离阈值。
第三方面,提供了一种检测车道边界的设备,包括处理器、存储器、通信接口、总线系统;
所述总线系统,用于将所述设备的各个硬件组件耦合在一起;
所述通信接口,用于实现所述设备与至少一个其它设备之间的通信连接;
所述存储器,用于存储程序指令和数据;
所述处理器,用于读取存储器中存储的指令和数据,执行以下操作:
获取车道的当前帧图像,并通过对所述当前帧图像进行滤波,提取所述当前帧图像中的亮度跳变点;
从所述亮度跳变点中滤除噪声点并以剩余的亮度跳变点作为边缘点形成所述边缘点的分组,其中,满足第一预定条件的两个边缘点位于同一分组内,所述第一预定条件包括两个点之间的纵向坐标相邻且横向坐标距离差小于第一距离阈值,所述噪声点包括第一噪声点,所述第一噪声点与任意一个其他亮度跳变点都不满足所述第一预定条件,同一分组内边缘点的连线形成一条边缘线;
从所述边缘线中识别出所述车道边界的边缘线;
对所述车道边界的边缘线进行分组,并将每一分组内的边缘线分别识别为一条车道边界的边缘线,其中,同一分组内的两条边缘线之间的横向坐标差值小于第二距离阈值。
在本申请中,对于车道的当前帧图像,通过对所述当前帧图像进行滤波可以提取出当前帧图像中的亮度跳变点,根据亮度跳变点的位置信息可以滤除其中的噪声点并以剩余的亮度跳变点作为边缘点形成分组,每一个分组的边缘点可以形成一条边缘线,从而根据边缘线之间的间距就可以确定属于同一车道边界的边缘线。车道边界的边界线能够在当前帧图像中标识出车道边界的区域,这样就实现了车道边界的检测。由此可见,由于检测车道图像中的车道边界时不必利用机器学习模型对整个图像进行分析和识别,因此,车道边界检测过程中需要经过的计算过程更加简单,车道边界检测过程占用的计算资源和耗费的时间也更少,因此,车道边界能够准确、快速地被检测出来。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,还可以根据这些附图获得其他的附图。
图1为本发明实施例中一应用场景所涉及的系统框架示意图;
图2为本发明实施例中一种检测车道边界的方法的流程示意图;
图3为本发明实施例中一种边缘点分组示例的示意图;
图4为本发明实施例中噪声点滤除时涉及的一种计算区域的示例示意图;
图5为本发明实施例中一种边缘线左侧区域与右侧区域的示例示意图;
图6为本发明实施例中一种车道边界的左侧区域与右侧区域的示例示意图;
图7为本发明实施例中一种为识别护栏而选取识别区域的示例示意图;
图8为本发明实施例中一种应用场景的示例下涉及的当前帧图像;
图9为本发明实施例中一种应用场景的示例下涉及的亮度跳变点提取图像;
图10为本发明实施例中一种应用场景的示例下涉及的边缘点分组图像;
图11为本发明实施例中一种应用场景的示例下涉及的车道边界识别图像;
图12为本发明实施例中一种检测车道边界的装置的结构示意图;
图13为本发明实施例中一种检测车道边界的设备的结构示意图;
图14为本发明实施例中一种图像坐标系示例的示意图。
具体实施方式
发明人经过研究发现,车道边界不仅可以包括车道标志线,也可以包括路缘石、公路护栏等整个道路的边界标注物。为了更好地辅助驾驶员操作,无论是车道标志线还是路缘石和护栏等边界标注物,都需要被检测出来。为了将所有类型的车道边界都检测出来,现有的驾驶辅助系统需要采用机器学习模型对整个车道图像进行分析和识别。具体地,机器学习模型需要对已知车道边界区域的整个车道图像进行训练和学习,之后,驾驶辅助系统需要采用已训练的机器学习模型对未知车道边界区域的整个车道图像进行分析和计算,从而才能识别出其中的车道边界区域。也就是说,现有的驾驶辅助系统需要采用机器学习模型比较未知车道边界区域的整个车道图像与已知车道边界区域的整个车道图像。但是,由于道路情况复杂,道路上经常出现的污迹、水印等会导致在车道图像中道路与路缘石、人行道等不可行驶区域之间的区别不明显。为了在区分不明显的情况下在车道图像中检测出车道边界,现有的驾驶辅助系统采用机器学习模型对整个车道图像进行分析时就需要经过非常繁琐复杂的计算过程,这就会导致车道边界的检测过程车道边界的检测过程占用过多的计算资源以及耗费过长的时间。
基于此,在本发明实施例中,对于车道的当前帧图像,通过对所述当前帧图像进行滤波可以提取出当前帧图像中的亮度跳变点,根据亮度跳变点的位置信息可以滤除其中的噪声点并以剩余的亮度跳变点作为边缘点形成分组,每一个分组的边缘点可以形成一条边缘线,从而根据边缘线之间的间距就可以确定属于同一车道边界的边缘线。车道边界的边界线能够在当前帧图像中标识出车道边界的区域,这样就实现了车道边界的检测。由此可见,由于检测车道图像中的车道边界时不必利用机器学习模型对整个图像进行分析和识别,因此,车道边界检测过程中需要经过的计算过程更加简单,车道边界检测过程占用的计算资源和耗费的时间也更少,因此,车道边界能够准确、快速地被检测出来。
举例来说,本发明实施例的场景之一,可以是应用到如图1所示的系统中。所述系统例如可以是一种驾驶辅助系统,具体地,所述系统例如可以是车道偏差预警系统。所述系统中包括有处理设备101、显示设备102和拍摄设备103。在所述系统中,拍摄设备103可以拍摄车道的当前帧图像并将当前帧图像发送给处理设备101。处理设备101可以获取所述当前帧图像并通过对所述当前帧图像进行滤波,提取所述当前帧图像中的亮度跳变点。然后,处理设备101可以从所述亮度跳变点中滤除噪声点并以剩余的亮度跳变点作为边缘点形成所述边缘点的分组,同一分组内边缘点的连线可以形成一条边缘线。接着,处理设备101可以从所述边缘线中识别出所述车道边界的边缘线,并通过对所述车道边界的边缘线进行分组,将每一分组内的边缘线分别识别为一条车道边界的边缘线。然后,处理设备101可以按照车道边界的边缘线生成标识有车道边界区域的车道图像并向显示设备102发送,以便显示设备102进行显示。
其中,同一分组内的两条边缘线之间的横向坐标差值小于第二距离阈值。满足第一预定条件的两个边缘点位于同一分组内,所述第一预定条件为两个点之间的纵向坐标相邻、横向坐标距离差小于第一距离阈值且梯度角差小于梯度角阈值,所述噪声点包括第一噪声点,所述第一噪声点与任意一个其他亮度跳变点都不满足所述第一预定条件。
需要说明的是,所述横坐标和所述纵坐标可以是在基于车道图像建立的平面坐标系中的横坐标和纵坐标。在一种基于车道图像建立的平面坐标系示例中,原点例如可以是车道图像左下角的顶点,横坐标轴例如可以是车道图像下边线,纵坐标轴例如可以是车道图像左边线,如图14所示。
可以理解的是,上述场景仅是本发明实施例提供的一个场景示例,本发明实施例并不限于此场景。
下面结合附图,通过实施例来详细说明本发明实施例中检测车道边界的方法、装置和设备的具体实现方式。
参见图2,示出了本发明实施例中一种检测车道边界的方法的流程示意图。在本实施例中,所述方法例如具体可以包括如下步骤:
201、获取车道的当前帧图像,并通过对所述当前帧图像进行滤波,提取所述当前帧图像中的亮度跳变点。
其中,亮度跳变点表示图像中亮度出现跳变的像素点。在当前帧图像中,车道边界区域与其周围区域通常在亮度上存在较大的区别,因此,在车道边界的边缘线上的像素点通常都是亮度跳变点。通过对当前帧图像滤波而得到的亮度跳变点可以用于确定车道边界的边缘线,从而可以基于车道边界的边缘线确定当前帧图像中的车道边界区域。
可以理解的是,本实施例中可以采用任意一种滤波方式提取当前帧图像中的亮度跳变点。例如,现有技术中已经给出了通过对车道图像滤波而提取亮度跳变点的方式,本实施例在此不再赘述。
202、从所述亮度跳变点中滤除噪声点并以剩余的亮度跳变点作为边缘点形成所述边缘点的分组,其中,满足第一预定条件的两个边缘点位于同一分组内,所述第一预定条件包括两个点之间的纵向坐标相邻且横向坐标距离差小于第一距离阈值,所述噪声点包括第一噪声点,所述第一噪声点与任意一个其他亮度跳变点都不满足所述第一预定条件,同一分组内边缘点的连线形成一条边缘线。
在202中,对于当前帧图像中提取出的多个亮度跳变点,通过分析各亮度跳变点的位置、梯度角等信息,一方面可以将属于不同边缘线的亮度跳变点区分开形成边缘点的分组,另一方面可以将亮度跳变点中不属于任何边缘线的噪声点进行滤除。
可以理解的是,202具体可以依据预先设置在系统中的第一预定条件对边缘点进行分组。具体地,考虑到同一边缘线上的边缘点在位置上应具有连续性,若在同一边缘线上的两个边缘点在纵向上是相邻的,则这两个边缘点在横向上距离应较近。基于此,所述第一预定条件可以包括两个点之间的纵向坐标相邻且横向坐标距离差小于第一距离阈值且梯度角差。
具体地,第一预定条件例如可以体现为以下的公式1:
公式1:abs(A-B)≤DisDiffThresh。
其中,A和B分别表示纵向坐标相邻的两个点的横向坐标,DisDiffThresh表示第一距离阈值,abs表示取绝对值的运算方式。
需要说明的是,对于当前帧图像中的任意两个亮度跳变点来说,若这两个亮度跳变点满足所述第一预定条件,则这两个亮度跳变点属于同一边缘线上的边缘点,可以被分配到同一分组中。举例说明,在图3所示的图像示例中,每一个小方格表示图像中的一个像素点,其中,a、b和c都是亮度跳变点。从图3中可以看出,a与b纵向坐标相邻,b与c纵向坐标相邻,a与b的横向坐标之差为Dab,b与c的横向坐标之差为Dbc。若Dab小于第一距离阈值,则a与b满足第一预定条件,a与b被分配到同一分组中。若Dbc小于第一距离阈值,则b与c满足第一预定条件,b与c被分配到同一分组中。可以理解的是,在a与b满足第一预定条件且b与c也满足第一预定条件的情况下,虽然a与c纵向坐标不相邻,即a与c必然不满足第一预定条件,但是,由于a与b被分配到同一分组且b与c被分配到同一分组,实际上a、b和c会被分配到同一分组中,也即,a、b和c实际上位于同一边缘线上。
进一步而言,考虑到在同一边缘线上的边缘点的两侧灰度变化大小应是相似的,若在同一边缘线上的两个边缘点在纵向上是相邻的,则这两个边缘点的梯度角应很接近。基于此,第一预定条件还可以包括两个点之间的梯度角度小于梯度角阈值,即第一预定条件具体可以为两个点之间的纵向坐标相邻、横向坐标距离差小于第一距离阈值且梯度角差小于梯度角阈值。
具体地,第一预定条件例如可以体现为前述公式1和下述公式2:
公式2:abs(C-D)≤GradAngleThresh。
其中,C和D分别表示纵向坐标相邻的两个点的梯度角,GradAngleThresh表示梯度角阈值,abs表示取绝对值的运算方式。可以理解的是,在201提取的亮度跳变点中,有些是不位于边缘线上的噪声点。为了防止噪声点对车道边界识别过程的影响,可以在边缘点分组的过程中滤除噪声点。
考虑到边缘线是由多个边缘点组成的,因此,若一个亮度跳变点与图像中任意一个其他亮度跳变点都不满足第一预定条件,即该亮度跳变点与任意一个其他亮度跳变点都不属于同一边缘线,则该亮度跳变点实际上就不是边缘线上的边缘点,而是噪声点。以这种类型的噪声点作为第一噪声点,在边缘点分组的过程中可以将第一噪声点滤除。其中,这里提及的第一预定条件可以是体现为前述公式1,或者也可以体现为前述公式1和前述公式2。
进一步而言,考虑到边缘线上的各边缘点的两侧的灰度具有连续性,同一边缘线上位置相近的边缘点的两侧的灰度应具有相似性,因此,若一个亮度跳变点的两侧的灰度与位置上相近的亮度跳变点的两侧的灰度存在较大偏差,则该亮度跳变点实际上就不是边缘线上的边缘点,而是噪声点。以这种类型的噪声点作为第二噪声点,在边缘点分组的过程中,除了可以滤除第一噪声点之外,还可以滤除第二噪声点。
为了识别位置相近的亮度跳变点的两侧的灰度是否存在较大偏差,以实现第二噪声点的滤除,在本实施例的一些实施方式中,可以采用第二预定条件、第三预定条件、第四预定条件和/或第五预定条件。例如,对于201提取出的任意一个亮度跳变点来说,若该亮度跳变点满足了第二预定条件、第三预定条件、第四预定条件和第五预定条件中的至少一个条件,则可以将该亮度跳变点作为第二噪声点进行滤除。
其中,所述第二预定条件可以具体为:第一横向左侧区域的灰度均值与第二横向左侧区域的灰度均值之间的差值小于第一灰度均值阈值。所述第三预定条件可以具体为:第一横向右侧区域的灰度均值与第二横向右侧区域的灰度均值之间的差值小于第二灰度均值阈值。所述第四预定条件为:第一横向左侧区域的灰度方差与第二横向左侧区域的灰度方差之间的差值小于第一灰度方差阈值。所述第五预定条件为:第一横向右侧区域的灰度方差与第二横向右侧区域的灰度方差之间的差值小于第二灰度方差阈值。
其中,第一横向左侧区域为第一左侧点组成的区域,所述第一左侧点与所述第二噪声点的纵向坐标相同且横向坐标距离不超过第三距离阈值,所述第一左侧点的横向坐标小于所述第二噪声点的横向坐标。第二横向左侧区域为第二左侧点组成的区域,所述第二左侧点与参考跳变点的纵向坐标相同且横向坐标距离不超过第三距离阈值,所述第二左侧点的横向坐标小于所述参考跳变点的横向坐标。第一横向右侧区域为第一右侧点组成的区域,所述第一右侧点与所述第二噪声点的纵向坐标相同且横向坐标距离不超过所述第三距离阈值,所述第一右侧点的横向坐标大于所述第二噪声点的横向坐标。其中,第二横向右侧区域为第二右侧点组成的区域,所述第二右侧点与所述参考跳变点的纵向坐标相同且横向坐标距离不超过所述第三距离阈值,所述第二右侧点的横向坐标大于所述参考跳变点的横向坐标。其中,所述参考跳变点属于所述亮度跳变点,所述参考跳变点与所述第二噪声点的横向坐标距离小于所述第一距离阈值且纵向坐标距离在第四距离阈值以内,所述参考跳变点的纵向坐标小于所述第二噪声点的纵向坐标。
具体地,第二预定条件例如可以体现为以下的公式3,第三预定条件例如可以体现为以下的公式4,第四预定条件例如可以体现为以下的公式5,第五预定条件例如可以体现为以下的公式6。
公式3:abs(AverRL-AverPL)≤AverThresh1;
公式4:abs(AverRR-AverPR)≤AverThresh2;
公式5:abs(SDRL-SDPL)≤SDThresh1
公式6:abs(SDRR-SDPR)≤SDThresh2
其中,AverPL表示第一横向左侧区域的灰度均值,AverRL表示第二横向左侧区域的灰度均值,AverPR表示第一横向右侧区域的灰度均值,AverRR表示第二横向右侧区域的灰度均值,SDPL表示第一横向左侧区域的灰度方差,SDRL表示第二横向左侧区域的灰度方差,SDPR表示第一横向右侧区域的灰度方差,SDRR表示第二横向右侧区域的灰度方差,AverThresh1表示第一灰度均值阈值,AverThresh2表示第二灰度均值阈值,SDThresh1表示第一灰度方差阈值,SDThresh2表示第二灰度方差阈值,abs表示取绝对值的运算方式。
对于上述任意一个区域来说,该区域的灰度均值和灰度方差例如可以参见公式7和公式8进行计算:
公式7:Aver=(P1+P2+...+Pn)/n;
公式8:
其中,Aver表示该区域的灰度均值,SD表示该区域的灰度方差,P1~Pn表示该区域内各像素点的灰度值,n表示该区域内像素点的数量。
可以理解的是,上述第一横向左侧区域、第二横向左侧区域,第一横向右侧区域和第二横向右侧区域是针对第二噪声点来说的。若需要判断一个亮度跳变点是否为第二噪声点,可以先根据该亮度跳变点确定上述四个区域,再利用确定出的区域来判断该亮度跳变点是否上述第二预定条件、第三预定条件、第四预定条件和/或第五预定条件。
举例说明,在图4所示的图像示例中,每一个小方格表示图像中的一个像素点。其中,a、b、c、d、e和f都是亮度跳变点,D1表示第二距离阈值,D2表示第三距离阈值。假设需要判断b是否为第二噪声点,则参考跳变点包括c、d、e和f,区域1为第一横向左侧区域,区域2为第一横向右侧区域,区域3为第二横向左侧区域,区域4为第二横向右侧区域。
需要说明的是,在本实施例的一些实施方式中,202例如具体可以通过逐行分析当前帧图像中各亮度跳变点的位置、梯度以及灰度变化情况,同时进行边缘点的分组以及噪声点的滤除,也即,在一次针对当前帧图像的逐行分析过程中同时实现了噪声点的滤除以及边缘点的分组。例如,从当前帧图像最下方的一行(即纵坐标最小的一行)开始,对于正在分析的当前行的各个亮度跳变点来说,判断该亮度跳变点是否能够与当前行的前后两行的至少一个亮度跳变点满足第一预定条件以及该亮度跳变点是否满足第二预定条件、第三预定条件、第四预定条件和第五预定条件。若该亮度跳变点不能与当前行的前后两行的任何一个亮度跳变点满足第一预定条件则该亮度跳变点被作为第一噪声点滤除,若该亮度跳变点满足第二预定条件、第三预定条件、第四预定条件和第五预定条件中的至少一个条件则该亮度跳变点作为第二噪声点滤除。若该亮度跳变点能够与当前行的前后两行的亮度跳变点满足第一预定条件并且该亮度跳变点不满足第二预定条件、第三预定条件、第四预定条件和第五预定条件,则该亮度跳变点将作为边缘点分配到适当的分组中。
203、从所述边缘线中识别出所述车道边界的边缘线。
可以理解的是,在202执行完成之后,每一个分组中边缘点的连线即形成一条边缘线。这些边缘线可能并非都是车道边界的边缘线,而是包括了一些杂线。例如,在这些边缘线中可能存在的杂线包括路灯杆、电线杆、其他车辆的车灯框等物体的边缘线。为此,对于202边缘点分组所得到的边缘线,通过滤除杂线,可以识别出车道边界的边缘线。
在本实施例中,203具体可以依据预先设置在系统中的预定条件对边缘点进行分组。
例如,在本实施例的一些实施方式中,考虑到车道边界的边缘线本身应满足一定的长度和一定的梯度角且车道边界的边缘线两侧区域应具有较大的灰度偏差,可以采用置信度的方式来确定边缘线属于车道边界的可信程度并将置信度较高的边缘线识别为车道边界的边缘线。具体地,203具体可以为:在所述边缘线中识别出满足第六预定条件的边缘线,作为所述车道边界的边缘线。其中,所述第六预定条件为:所述边缘线的置信度大于置信度阈值,所述边缘线的置信度表示所述边缘线属于所述车道边界的边缘线的可能性,所述边缘线的置信度是根据所边缘线的真实长度、在所述当前帧图像中所述边缘线横向两侧的灰度偏差以及所述边缘线上边缘点的梯度角而计算出来的。
进一步而言,边缘线的置信度例如具体可以采用公式7~10来计算。
公式7:C=K1×LengthC+K2×GrayContrastC+K3×GradientC;
公式8:LengthC=RLength÷LengthThresh×1000;
公式9:GrayContrastC=[abs(lineAverL-lineAverR)]÷GrayContrastThresh×1000;
公式10:GradientC=GradPointNum÷SumPointNum×1000。
其中,C表示边缘线的置信度,LengthC表示边缘线的长度置信度,GrayContrastC表示边缘线的两侧灰度偏差置信度,GradientC表示边缘线的梯度角置信度,K1、K2和K3为预设的比例系数。RLength表示边缘线的长度,LengthThresh表示预设的长度阈值。lineAverL表示边缘线左侧区域的灰度平均值,lineAverR表示边缘线右侧区域的灰度平均值,GrayContrastThresh表示灰度偏差阈值。GradPointNum表示边缘线上满足梯度要求的边缘点的数量,GradPointNum表示边缘线上的边缘点总数量,其中,边缘线上满足梯度要求的边缘点的梯度角小于或等于预设的梯度角阈值。
所述边缘线左侧区域表示位于边缘线左侧一定距离内的区域。具体地,边缘线左侧区域为第三左侧点组成的区域,第三左侧点与边缘线上的边缘点的纵向坐标相同且横向坐标距离不超过第三距离阈值,第三左侧点的横向坐标小于边缘线上的边缘点的横向坐标。
所述边缘线右侧区域表示位于边缘线右侧一定距离内的区域。具体地,边缘线右侧区域为第三右侧点组成的区域,第三右侧点与边缘线上的边缘点的纵向坐标相同且横向坐标距离不超过第三距离阈值,第三右侧点的横向坐标大于边缘线上的边缘点的横向坐标。
举例说明,在图5所示的图像示例中,每一个小方格表示图像中的一个像素点,其中,一条边缘线上包括a、b、c三个边缘点。从图3中可以看出,a与d之间的横向坐标距离、a与g之间的横向坐标距离、b与e之间的横向坐标距离、b与h之间的横向坐标距离、c与f之间的横向坐标距离以及c与i之间的横向坐标距离都是第三距离阈值。可见,区域1为边缘线左侧区域,区域2为边缘线右侧区域。
又如,在本实施例的另一些实施方式中,考虑到车道边界的边缘线与已知的车道标志线之间的夹角应较小,可以采用边缘线与车道标志线之间的夹角来识别车道边界的边缘线。具体地,203例如可以为:在所述边缘线中识别出满足第七预定条件的边缘线,作为所述车道边界的边缘线。其中,所述第七预定条件为:从所述当前帧图像中识别出的车道标志线与所述边缘线之间的三维坐标夹角小于夹角阈值。可以理解的是,本实施例中可以采用任意一种识别方式识别当前帧图像中的车道标志线。例如,现有技术中已经给出了从车道图像识别车道标志线的方式,本实施例在此不再赘述。
需要说明的是,在本实施例的又一些实施方式中,可以同时采用第六预定条件和第七预定条件来识别车道边界的边缘线。具体地,203例如可以为:在所述边缘线中识别出满足第六预定条件和第七预定条件的边缘线,作为所述车道边界的边缘线。
204、对所述车道边界的边缘线进行分组,并将每一分组内的边缘线分别识别为一条车道边界的边缘线,其中,同一分组内的两条边缘线之间的横向坐标差值小于第二距离阈值。
可以理解的是,考虑到一条车道边缘的边缘线之间的横向距离应符合实际的限定标准,因此,当判断出两条边缘线之间的横向坐标差值小于第二距离阈值时,可以将这两条边缘线放入同一分组中,同一分组中的边缘线即属于同一车道边界的边缘线,即,同一分组的边缘线所形成的区域即是一条车道边界的区域。
在识别出车道边界之后,可以在当前帧图像中标识出车道边界的区域并显示,以便辅助驾驶员行驶。
需要说明的是,考虑到车道边界包括车道标志线、路缘石、护栏等,其中,车道标志线实际上是车辆可以行使的区域,路缘石、护栏等区域实际上是车辆不可以行使的区域。因此,为了进一步帮助驾驶员区分不同的行使区域,在识别出车道边界之后,可以进一步从车道边界中识别出路缘石和/或护栏。
在本实施例的一些实施方式中,考虑到路缘石通常有三条棱边,可以将具有三条边缘线的车道边界区域识别为路缘石区域。具体地,在204之后,本实施例例如还可以包括:将满足第八预定条件的车道边界识别为路缘石;其中,所述第八预定条件为:所述车道边界具有三条边缘线,所述车道边界中每两条相邻的边缘线的横向距离小于第五距离阈值,所述车道边界中最左侧边缘线与最右侧边缘线的横向距离小于第六距离阈值。
在本实施例的另一些实施方式中,考虑到路缘石一侧为车道公路而另一侧为草丛等非可行使区域,即路缘石的一条边缘线外侧为平滑区域而另一条边缘线外侧为跳变区域,因此,对于只有两条边缘线的车道边界,可以根据车道边界两条边缘线的外侧区域之间的灰度来识别路缘石区域。具体地,在204之后,本实施例例如还可以包括:将满足第九预定条件的车道边界、满足第十预定条件的车道边缘识别为路缘石。其中,所述第九预定条件为:所述车道边界具有两条边缘线,所述车道边界的两条边缘线之间的横向坐标距离小于第七距离阈值,所述车道边界的左侧区域的灰度方差小于第三灰度方差阈值,所述车道边界的右侧区域的灰度方差大于第四灰度方差阈值。所述第十预定条件为:所述车道边界具有两条边缘线,所述车道边界的两条边缘线之间的横向坐标距离小于所述第七距离阈值,所述车道边界的左侧区域的灰度方差大于所述第三灰度方差阈值,所述车道边界的右侧区域的灰度方差小于所述第四灰度方差阈值。
其中,所述车道边界的左侧区域为第三左侧点组成的区域,所述第三左侧点的纵向坐标属于所述车道边界的左侧边缘线的纵向坐标范围,所述第三左侧点与所述车道边界的左侧边缘线的横向坐标距离不超过第三距离阈值,所述第三左侧点的横向坐标小于所述车道边界的左侧边缘线的横向坐标。所述车道边界的右侧区域为第三右侧点组成的区域,所述第三右侧点的纵向坐标属于所述车道边界的右侧边缘线的纵向坐标范围,所述第三右侧点与所述车道边界的右侧边缘线的横向坐标距离不超过所述第三距离阈值,所述第三右侧点的横向坐标大于所述车道边界的右侧边缘线的横向坐标。
举例说明,在图6所示的图像示例中,每一个小方格表示图像中的一个像素点,其中,对于一条车道边界来说,a、b、c三个边缘点组成了该车道边界的左侧边缘线,d、e、f三个边缘点组成了该车道边界的右侧边缘线。从图6中可以看出,a与g纵向坐标相同且横向坐标距离为第三距离阈值,b与h纵向坐标相同且横向坐标距离为第三距离阈值,c与i纵向坐标相同且横向坐标距离为第三距离阈值,并且,a的横坐标大于g的横坐标,b的横坐标大于h的横坐标,c的横坐标大于i的横坐标,则区域1为车道边界的左侧区域。同样地,d与j纵向坐标相同且横向坐标距离为第三距离阈值,e与k纵向坐标相同且横向坐标距离为第三距离阈值,f与l纵向坐标相同且横向坐标距离为第三距离阈值,并且,d的横坐标小于j的横坐标,e的横坐标小于k的横坐标,f的横坐标大于l的横坐标,则区域2为车道边界的左侧区域。
可以理解的是,车道边界的左侧边缘线是由左侧边缘点组成的,车道边界的右侧边缘线是由右侧边缘点组成的。对于一个边缘点来说,若该边缘点左侧区域的灰度均值不大于该边缘点右侧区域的灰度均值且该边缘点左右两侧的灰度方差都不大于阈值,则该边缘点为左侧边缘点。若该边缘点左侧区域的灰度均值不小于该边缘点右侧区域的灰度均值且该边缘点左右两侧的灰度方差都不大于阈值,则该边缘点为右侧边缘点。
需要说明的是,在本实施例的又一些实施方式中,可以同时采用第八预定条件、第九预定条件和第十预定条件来识别车道边界的边缘线。具体地,本实施例例如还可以包括:将满足第八预定条件的车道边界、满足第九预定条件的车道边界和满足第十预定条件的车道边界都识别为路缘石。
在本实施例的一些实施方式中,考虑到护栏有区别于路缘石和车道标志线的棱边信息,因此,可以通过机器学习的方式从车道边界中识别出护栏。具体地,本实施例例如还可以包括:通过已训练的机器学习模型对所述当前帧图像中具有所述车道边界的识别区域进行识别,识别出属于护栏的车道边界;其中,所述机器学习模型是利用已知护栏图像与非护栏目标物图像训练过的。其中,非护栏目标物是指在车道图像中可能出现的不属于护栏的物体,比如车道标志线、路缘石、行人、路灯、道路路面等。
进一步而言,为了进一步简化检测车道边界时需要经过的计算过程,从而减少车道边界检测过程占用的计算资源和耗费的时间,在通过机器学习模型识别出护栏的过程中可以从当前帧图像中基于车道边界的区域选取适当大小的识别区域作为机器学习模型的识别对象,再基于识别区域的识别结果确定车道边界是否为护栏。具体地,在本实施例中,通过机器学习模型从车道边界中识别护栏的实施方式,例如具体可以包括以下的步骤A、步骤B和步骤C。
步骤A:以所述当前帧图像中的各条车道边界分别为识别目标,根据所述当前帧图像中所述识别目标的位置,从所述当前帧图像中选取具有所述识别目标的至少一个识别区域。
对于一条车道边界来说,识别区域的位置例如可以参照公式11~14、以该车道边界距离车辆最近处的边缘线作为基准线(即baseline)来确定。假设对一条车道边界需要选取n个识别区域,则公式11~14可以表示为:
公式11:Index=i×(SumPointNum÷n),i=0,1,...,n-1;
公式12:recty=BaselinePoint(Index)y-Height×3÷4;
公式13:rectx=(recty-BaselinefB)÷baselinefK;
公式14:rectwidth=Width,rectheight=Height。
其中,Index表示基准点在基准线上边缘点中按照纵向坐标的排列序号,i表示识别区域的序号,SumPointNum表示基准线上边缘点的数量。recty表示识别区域的基准纵坐标,rectx表示识别区域的基准横坐标,rectwidth表示识别区域的宽度,rectwidth表示识别区域的高度,rectx、recty、rectwidth和recthigh可用于确定识别区域。BaselinePoint(Index)y表示基准点的纵坐标,BaselinefB表示基准线的截距,BaselinefK表示基准线的斜率,Width表示预设的宽度,Height表示预设的高度。
可以理解的是,基准线上的一个基准点,对应于一个index。而一个index又对应于一个识别区域。故每一个识别区域对应于基准线上的一个基准点。
举例说明,在图7所示的车道图像中,每个车道边界上选取了5个识别区域,以用于护栏的识别。
步骤B:通过所述机器学习模型对各个所述识别区域进行识别,确定各个所述识别区域是否为具有护栏的区域。
可以理解的是,所述机器学习模型例如可以是通过对识别区域中进行Haar-Like特征识别,从而确定识别区域是否具有护栏。
步骤C:若在具有所述识别目标的识别区域中所述具有护栏的区域的数量占比超过比例阈值,将所述识别目标确定为护栏。
可以理解的是,对于一条车道边界,通常可以选取多个识别区域进行识别,每个识别区域都对应着一个识别结果。其中,有些识别区域可能被识别到具有护栏,而有些识别区域可能被识别到不具有护栏。为了确定该车道边界是否为护栏,例如可以基于被识别到具有护栏的识别区域的数量进行判断。具体地,对于一条车道边界的多个识别区域来说,若满足公式15则该车道边界可以被确定为护栏。
公式15:(GroupSelectNum/GroupRectNum)≥Thresh。
其中,GroupSelectNum表示被识别到具有护栏的识别区域的数量,GroupRectNum表示车道边界上选取的识别区域的总数量,Thresh表示比例阈值。
需要说明的是,除了前述第八预定条件、第九预定条件和第十预定条件可以用于识别车道边界中的路缘石之外,在从车道边界中识别出护栏和车道标志线之后,还可以依据已识别出的护栏和车道标志线从剩余的车道边界中识别出路缘石。考虑到车道标志线与护栏之间通常存在路缘石,在本实施例的一些实施方式中,例如还可以包括:在已从所述当前帧图像的车道边界中识别出车道标志线和护栏的情况下,将满足第十一预定条件的车道边界识别为路缘石;所述第十一预定条件为:所述车道边界位于所述车道标志线与所述护栏之间,所述车道边界的两条边缘线之间的横向坐标距离小于第七距离阈值。可以理解的是,当前帧图像可以参照本实施例前述介绍的识别方式对护栏进行识别。此外,本实施例中可以采用任意一种识别方式识别当前帧图像中的车道标志线。例如,现有技术中已经给出了从车道图像识别车道标志线的方式,本实施例在此不再赘述。
此外,在本实施例的一些实施方式中,在识别出当前帧图像中的车道边界之后,例如还可以根据历史帧图像中路缘石、护栏和车道标志线的位置,将所述当前帧图像中的所述车道边界区分为车道标志线、护栏和/或路缘石。
可以理解的是,本实施例前述的将车道边界区分为路缘石、护栏、车道标志线的实施方式可以综合运用,以便更全面地区分车道边界的类型。例如,在204识别出车道边界之后,首先,采用第八预定条件、第九预定条件和第十预定条件从车道边界中识别路缘石,通过机器学习模型从车道边界中识别护栏,并在当前帧图像中识别车道标志线,然后,对于剩余未能识别出类型的车道边界,再根据已识别的护栏和车道标志线推测出路缘石。
在车道边界被区分为路缘石、护栏和车道标志线之后,可以在当前帧图像中将路缘石的区域、护栏的区域和车道标志线以不同的方式标识并显示,以便辅助驾驶员能够区分路缘石、护栏和车道标志线。
为了使得本领域技术人员更加清楚地了解本实施例的图像处理过程,下面以一个应用场景示例进行说明。在该应用场景中,当前帧图像如图8所示,经过201滤波所得的亮度跳变点图像如图9所示,经过202的噪声点滤除及边缘点分组之后所得的亮度跳变点图像如图10所示,经过204的边缘线分组之后所得的车道边界标识图像如图11所示。
通过本实施例的技术方案,对于车道的当前帧图像,通过对所述当前帧图像进行滤波可以提取出当前帧图像中的亮度跳变点,根据亮度跳变点的位置信息可以滤除其中的噪声点并以剩余的亮度跳变点作为边缘点形成分组,每一个分组的边缘点可以形成一条边缘线,从而根据边缘线之间的间距就可以确定属于同一车道边界的边缘线。车道边界的边界线能够在当前帧图像中标识出车道边界的区域,这样就实现了车道边界的检测。由此可见,由于检测车道图像中的车道边界时不必利用机器学习模型对整个图像进行分析和识别,因此,车道边界检测过程中需要经过的计算过程更加简单,车道边界检测过程占用的计算资源和耗费的时间也更少,因此,车道边界能够准确、快速地被检测出来。
参见图12,示出了本发明实施例中一种检测车道边界的装置的结构示意图。在本实施例中,所述装置例如可以包括:
获取单元1201,用于获取车道的当前帧图像;
提取单元1202,用于通过对所述当前帧图像进行滤波,提取所述当前帧图像中的亮度跳变点;
分组单元1203,用于从所述亮度跳变点中滤除噪声点并以剩余的亮度跳变点作为边缘点形成所述边缘点的分组,其中,满足第一预定条件的两个边缘点位于同一分组内,所述第一预定条件包括两个点之间的纵向坐标相邻且横向坐标距离差小于第一距离阈值,所述噪声点包括第一噪声点,所述第一噪声点与任意一个其他亮度跳变点都不满足所述第一预定条件,同一分组内边缘点的连线形成一条边缘线;
第一识别单元1204,从所述边缘线中识别出所述车道边界的边缘线;
第二识别单元1205,用于对所述车道边界的边缘线进行分组,并将每一分组内的边缘线分别识别为一条车道边界的边缘线,其中,同一分组内的两条边缘线之间的横向坐标差值小于第二距离阈值。
可选的,所述第一预定条件还包括两个点之间的梯度角度小于梯度角阈值。
可选的,所述噪声点还可以包括第二噪声点,所述第二噪声点还至少满足以下预定条件中的至少一个:
所述第二预定条件为:第一横向左侧区域的灰度均值与第二横向左侧区域的灰度均值之间的差值小于第一灰度均值阈值;
所述第三预定条件为:第一横向右侧区域的灰度均值与第二横向右侧区域的灰度均值之间的差值小于第二灰度均值阈值;
所述第四预定条件为:第一横向左侧区域的灰度方差与第二横向左侧区域的灰度方差之间的差值小于第一灰度方差阈值;
所述第五预定条件为:第一横向右侧区域的灰度方差与第二横向右侧区域的灰度方差之间的差值小于第二灰度方差阈值;
其中,所述第一横向左侧区域为第一左侧点组成的区域,所述第一左侧点与所述第二噪声点的纵向坐标相同且横向坐标距离不超过第三距离阈值,所述第一左侧点的横向坐标小于所述第二噪声点的横向坐标;
所述第一横向右侧区域为第一右侧点组成的区域,所述第一右侧点与所述第二噪声点的纵向坐标相同且横向坐标距离不超过所述第三距离阈值,所述第一右侧点的横向坐标大于所述第二噪声点的横向坐标;
所述第二横向左侧区域为第二左侧点组成的区域,所述第二左侧点与参考跳变点的纵向坐标相同且横向坐标距离不超过第三距离阈值,所述第二左侧点的横向坐标小于所述参考跳变点的横向坐标;
所述第二横向右侧区域为第二右侧点组成的区域,所述第二右侧点与所述参考跳变点的纵向坐标相同且横向坐标距离不超过所述第三距离阈值,所述第二右侧点的横向坐标大于所述参考跳变点的横向坐标;
所述参考跳变点属于所述亮度跳变点,所述参考跳变点与所述第二噪声点的横向坐标距离小于所述第一距离阈值且纵向坐标距离在第四距离阈值以内,所述参考跳变点的纵向坐标小于所述第二噪声点的纵向坐标。
可选的,所述第一识别单元1204,具体可以用于:在所述边缘线中识别出满足第六预定条件和/或第七预定条件的边缘线,作为所述车道边界的边缘线;
所述第六预定条件为:所述边缘线的置信度大于置信度阈值,所述边缘线的置信度表示所述边缘线属于所述车道边界的边缘线的可能性,所述边缘线的置信度是根据所边缘线的真实长度、在所述当前帧图像中所述边缘线横向两侧的灰度偏差以及所述边缘线上边缘点的梯度角而计算出来的;
所述第七预定条件为:从所述当前帧图像中识别出的车道标志线与所述边缘线之间的三维坐标夹角小于夹角阈值。
可选的,所述装置还可以包括:
第三识别单元,用于将满足第八预定条件的车道边界、满足第九预定条件的车道边界和/或满足第十预定条件的车道边界识别为路缘石;
所述第八预定条件为:所述车道边界具有三条边缘线,所述车道边界中每两条相邻的边缘线的横向距离小于第五距离阈值,所述车道边界中最左侧边缘线与最右侧边缘线的横向距离小于第六距离阈值;
所述第九预定条件为:所述车道边界具有两条边缘线,所述车道边界的两条边缘线之间的横向坐标距离小于第七距离阈值,所述车道边界的左侧区域的灰度方差小于第三灰度方差阈值,所述车道边界的右侧区域的灰度方差大于第四灰度方差阈值;
所述第十预定条件为:所述车道边界具有两条边缘线,所述车道边界的两条边缘线之间的横向坐标距离小于所述第七距离阈值,所述车道边界的左侧区域的灰度方差大于所述第三灰度方差阈值,所述车道边界的右侧区域的灰度方差小于所述第四灰度方差阈值;
其中,所述车道边界的左侧区域为第三左侧点组成的区域,所述第三左侧点的纵向坐标属于所述车道边界的左侧边缘线的纵向坐标范围,所述第三左侧点与所述车道边界的左侧边缘线的横向坐标距离不超过第三距离阈值,所述第三左侧点的横向坐标小于所述车道边界的左侧边缘线的横向坐标;
所述车道边界的右侧区域为第三右侧点组成的区域,所述第三右侧点的纵向坐标属于所述车道边界的右侧边缘线的纵向坐标范围,所述第三右侧点与所述车道边界的右侧边缘线的横向坐标距离不超过所述第三距离阈值,所述第三右侧点的横向坐标大于所述车道边界的右侧边缘线的横向坐标。
可选的,所述装置还可以包括:
第四识别单元,用于通过已训练的机器学习模型对所述当前帧图像中具有所述车道边界的识别区域进行识别,识别出属于护栏的车道边界;
其中,所述机器学习模型是利用护栏图像和非护栏目标物图像训练过的。
可选的,所述第四识别单元包括:
选取子单元,用于以所述当前帧图像中的各条车道边界分别为识别目标,根据所述当前帧图像中所述识别目标的位置,从所述当前帧图像中选取具有所述识别目标的至少一个识别区域;
第一确定子单元,用于通过所述机器学习模型对各个所述识别区域进行识别,确定各个所述识别区域是否为具有护栏的区域;
第二确定子单元,用于若在具有所述识别目标的识别区域中所述具有护栏的区域的数量占比超过比例阈值,将所述识别目标确定为护栏。
可选的,在所述装置包括所述第四识别单元的基础上,所述装置还可以包括:
第五识别单元,用于在已从所述当前帧图像的车道边界中识别出车道标志线和护栏的情况下,将满足第十一预定条件的车道边界识别为路缘石;
所述第十一预定条件为:所述车道边界位于所述车道标志线与所述护栏之间,所述车道边界的两条边缘线之间的横向坐标距离小于第七距离阈值。
可选的,所述装置还可以包括:
区分单元,用于根据历史帧图像中路缘石、护栏和车道标志线的位置,将所述当前帧图像中的所述车道边界区分为车道标志线、护栏和/或路缘石。
通过本实施例的技术方案,由于检测车道图像中的车道边界时不必利用机器学习模型对整个图像进行分析和识别,因此,车道边界检测过程中需要经过的计算过程更加简单,车道边界检测过程占用的计算资源和耗费的时间也更少,因此,车道边界能够准确、快速地被检测出来。
参见图13,示出了本发明实施例中一种检测车道边界的设备的结构示意图。在本实施例中,所述设备1300例如可以包括处理器1301、存储器1302、通信接口1303、总线系统1304。其中,
所述总线系统1304,用于将所述设备的各个硬件组件耦合在一起;
所述通信接口1303,用于实现所述设备与至少一个其它设备之间的通信连接;
所述存储器1302,用于存储程序指令和数据;
所述处理器1301,用于读取存储器1301中存储的指令和数据,执行以下操作:
获取车道的当前帧图像,并通过对所述当前帧图像进行滤波,提取所述当前帧图像中的亮度跳变点;
从所述亮度跳变点中滤除噪声点并以剩余的亮度跳变点作为边缘点形成所述边缘点的分组,其中,满足第一预定条件的两个边缘点位于同一分组内,所述第一预定条件包括两个点之间的纵向坐标相邻且横向坐标距离差小于第一距离阈值,所述噪声点包括第一噪声点,所述第一噪声点与任意一个其他亮度跳变点都不满足所述第一预定条件,同一分组内边缘点的连线形成一条边缘线;
从所述边缘线中识别出所述车道边界的边缘线;
对所述车道边界的边缘线进行分组,并将每一分组内的边缘线分别识别为一条车道边界的边缘线,其中,同一分组内的两条边缘线之间的横向坐标差值小于第二距离阈值。
可选的,所述第一预定条件还包括两个点之间的梯度角度小于梯度角阈值。
可选的,所述噪声点还可以包括第二噪声点,所述第二噪声点还至少满足以下预定条件中的至少一个:
所述第二预定条件为:第一横向左侧区域的灰度均值与第二横向左侧区域的灰度均值之间的差值小于第一灰度均值阈值;
所述第三预定条件为:第一横向右侧区域的灰度均值与第二横向右侧区域的灰度均值之间的差值小于第二灰度均值阈值;
所述第四预定条件为:第一横向左侧区域的灰度方差与第二横向左侧区域的灰度方差之间的差值小于第一灰度方差阈值;
所述第五预定条件为:第一横向右侧区域的灰度方差与第二横向右侧区域的灰度方差之间的差值小于第二灰度方差阈值;
其中,所述第一横向左侧区域为第一左侧点组成的区域,所述第一左侧点与所述第二噪声点的纵向坐标相同且横向坐标距离不超过第三距离阈值,所述第一左侧点的横向坐标小于所述第二噪声点的横向坐标;
所述第一横向右侧区域为第一右侧点组成的区域,所述第一右侧点与所述第二噪声点的纵向坐标相同且横向坐标距离不超过所述第三距离阈值,所述第一右侧点的横向坐标大于所述第二噪声点的横向坐标;
所述第二横向左侧区域为第二左侧点组成的区域,所述第二左侧点与参考跳变点的纵向坐标相同且横向坐标距离不超过第三距离阈值,所述第二左侧点的横向坐标小于所述参考跳变点的横向坐标;
所述第二横向右侧区域为第二右侧点组成的区域,所述第二右侧点与所述参考跳变点的纵向坐标相同且横向坐标距离不超过所述第三距离阈值,所述第二右侧点的横向坐标大于所述参考跳变点的横向坐标;
所述参考跳变点属于所述亮度跳变点,所述参考跳变点与所述第二噪声点的横向坐标距离小于所述第一距离阈值且纵向坐标距离在第四距离阈值以内,所述参考跳变点的纵向坐标小于所述第二噪声点的纵向坐标。
可选的,为了从所述边缘线中识别出所述车道边界的边缘线,所述处理器1301可以具体执行以下操作:
在所述边缘线中识别出满足第六预定条件和/或第七预定条件的边缘线,作为所述车道边界的边缘线;
所述第六预定条件为:所述边缘线的置信度大于置信度阈值,所述边缘线的置信度表示所述边缘线属于所述车道边界的边缘线的可能性,所述边缘线的置信度是根据所边缘线的真实长度、在所述当前帧图像中所述边缘线横向两侧的灰度偏差以及所述边缘线上边缘点的梯度角而计算出来的;
所述第七预定条件为:从所述当前帧图像中识别出的车道标志线与所述边缘线之间的三维坐标夹角小于夹角阈值。
可选的,所述处理器1301还可以执行以下操作:
将满足第八预定条件的车道边界、满足第九预定条件的车道边界和/或满足第十预定条件的车道边界识别为路缘石;
所述第八预定条件为:所述车道边界具有三条边缘线,所述车道边界中每两条相邻的边缘线的横向距离小于第五距离阈值,所述车道边界中最左侧边缘线与最右侧边缘线的横向距离小于第六距离阈值;
所述第九预定条件为:所述车道边界具有两条边缘线,所述车道边界的两条边缘线之间的横向坐标距离小于第七距离阈值,所述车道边界的左侧区域的灰度方差小于第三灰度方差阈值,所述车道边界的右侧区域的灰度方差大于第四灰度方差阈值;
所述第十预定条件为:所述车道边界具有两条边缘线,所述车道边界的两条边缘线之间的横向坐标距离小于所述第七距离阈值,所述车道边界的左侧区域的灰度方差大于所述第三灰度方差阈值,所述车道边界的右侧区域的灰度方差小于所述第四灰度方差阈值;
其中,所述车道边界的左侧区域为第三左侧点组成的区域,所述第三左侧点的纵向坐标属于所述车道边界的左侧边缘线的纵向坐标范围,所述第三左侧点与所述车道边界的左侧边缘线的横向坐标距离不超过第三距离阈值,所述第三左侧点的横向坐标小于所述车道边界的左侧边缘线的横向坐标;
所述车道边界的右侧区域为第三右侧点组成的区域,所述第三右侧点的纵向坐标属于所述车道边界的右侧边缘线的纵向坐标范围,所述第三右侧点与所述车道边界的右侧边缘线的横向坐标距离不超过所述第三距离阈值,所述第三右侧点的横向坐标大于所述车道边界的右侧边缘线的横向坐标。
可选的,所述处理器1301还可以执行以下操作:
通过已训练的机器学习模型对所述当前帧图像中具有所述车道边界的识别区域进行识别,识别出属于护栏的车道边界;
其中,所述机器学习模型是利用护栏图像与非护栏目标物图像训练过的。
可选的,为了识别出属于护栏的车道边界,所述处理器1301具体可以执行以下操作:
以所述当前帧图像中的各条车道边界分别为识别目标,根据所述当前帧图像中所述识别目标的位置,从所述当前帧图像中选取具有所述识别目标的至少一个识别区域;
通过所述机器学习模型对各个所述识别区域进行识别,确定各个所述识别区域是否为具有护栏的区域;
若在具有所述识别目标的识别区域中所述具有护栏的区域的数量占比超过比例阈值,将所述识别目标确定为护栏。
可选的,所述处理器1301还可以执行以下操作:
在已从所述当前帧图像的车道边界中识别出车道标志线和护栏的情况下,将满足第十一预定条件的车道边界识别为路缘石;
所述第十一预定条件为:所述车道边界位于所述车道标志线与所述护栏之间,所述车道边界的两条边缘线之间的横向坐标距离小于第七距离阈值。
可选的,所述处理器1301还可以执行以下操作:
根据历史帧图像中路缘石、护栏和车道标志线的位置,将所述当前帧图像中的所述车道边界区分为车道标志线、护栏和/或路缘石。
通过本实施例的技术方案,由于检测车道图像中的车道边界时不必利用机器学习模型对整个图像进行分析和识别,因此,车道边界检测过程中需要经过的计算过程更加简单,车道边界检测过程占用的计算资源和耗费的时间也更少,因此,车道边界能够准确、快速地被检测出来。
本发明实施例中提到的“第一预定条件”、“第一噪声点”等名称中的“第一”只是用来做名字标识,并不代表顺序上的第一。该规则同样适用于“第二”、“第三”等。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到上述实施例方法中的全部或部分步骤可借助软件加通用硬件平台的方式来实现。基于这样的理解,本发明的技术方案可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如只读存储器(英文:read-only memory,ROM)/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者诸如路由器等网络通信设备)执行本发明各个实施例或者实施例的某些部分所述的方法。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于方法实施例和设备实施例而言,由于其基本相似于系统实施例,所以描述得比较简单,相关之处参见系统实施例的部分说明即可。以上所描述的设备及系统实施例仅仅是示意性的,其中作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
以上所述仅是本发明的优选实施方式,并非用于限定本发明的保护范围。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明的前提下,还可以作出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (10)
1.一种检测车道边界的方法,其特征在于,包括:
获取车道的当前帧图像,并通过对所述当前帧图像进行滤波,提取所述当前帧图像中的亮度跳变点;
从所述亮度跳变点中滤除噪声点并以剩余的亮度跳变点作为边缘点形成所述边缘点的分组,其中,满足第一预定条件的两个边缘点位于同一分组内,所述第一预定条件包括两个点之间的纵向坐标相邻且横向坐标距离差小于第一距离阈值,所述噪声点包括第一噪声点,所述第一噪声点与任意一个其他亮度跳变点都不满足所述第一预定条件,同一分组内边缘点的连线形成一条边缘线;
从所述边缘线中识别出所述车道边界的边缘线;
对所述车道边界的边缘线进行分组,并将每一分组内的边缘线分别识别为一条车道边界的边缘线,其中,同一分组内的两条边缘线之间的横向坐标差值小于第二距离阈值。
2.根据权利要求1所述的方法,其特征在于,所述第一预定条件还包括两个点之间的梯度角度小于梯度角阈值;
和/或,
所述噪声点还包括第二噪声点,所述第二噪声点至少满足以下预定条件中的至少一个:
所述第二预定条件为:第一横向左侧区域的灰度均值与第二横向左侧区域的灰度均值之间的差值小于第一灰度均值阈值;
所述第三预定条件为:第一横向右侧区域的灰度均值与第二横向右侧区域的灰度均值之间的差值小于第二灰度均值阈值;
所述第四预定条件为:第一横向左侧区域的灰度方差与第二横向左侧区域的灰度方差之间的差值小于第一灰度方差阈值;
所述第五预定条件为:第一横向右侧区域的灰度方差与第二横向右侧区域的灰度方差之间的差值小于第二灰度方差阈值;其中,所述第一横向左侧区域为第一左侧点组成的区域,所述第一左侧点与所述第二噪声点的纵向坐标相同且横向坐标距离不超过第三距离阈值,所述第一左侧点的横向坐标小于所述第二噪声点的横向坐标;
所述第一横向右侧区域为第一右侧点组成的区域,所述第一右侧点与所述第二噪声点的纵向坐标相同且横向坐标距离不超过所述第三距离阈值,所述第一右侧点的横向坐标大于所述第二噪声点的横向坐标;
所述第二横向左侧区域为第二左侧点组成的区域,所述第二左侧点与参考跳变点的纵向坐标相同且横向坐标距离不超过第三距离阈值,所述第二左侧点的横向坐标小于所述参考跳变点的横向坐标;
所述第二横向右侧区域为第二右侧点组成的区域,所述第二右侧点与所述参考跳变点的纵向坐标相同且横向坐标距离不超过所述第三距离阈值,所述第二右侧点的横向坐标大于所述参考跳变点的横向坐标;
所述参考跳变点属于所述亮度跳变点,所述参考跳变点与所述第二噪声点的横向坐标距离小于所述第一距离阈值且纵向坐标距离在第四距离阈值以内,所述参考跳变点的纵向坐标小于所述第二噪声点的纵向坐标。
3.根据权利要求1所述的方法,其特征在于,所述从所述边缘线中识别出所述车道边界的边缘线,具体为:在所述边缘线中识别出满足第六预定条件和/或第七预定条件的边缘线,作为所述车道边界的边缘线;
所述第六预定条件为:所述边缘线的置信度大于置信度阈值,所述边缘线的置信度表示所述边缘线属于所述车道边界的边缘线的可能性,所述边缘线的置信度是根据所述边缘线的真实长度、在所述当前帧图像中所述边缘线横向两侧的灰度偏差以及所述边缘线上边缘点的梯度角而计算出来的;
所述第七预定条件为:从所述当前帧图像中识别出的车道标志线与所述边缘线之间的三维坐标夹角小于夹角阈值。
4.根据权利要求1所述的方法,其特征在于,还包括:
将满足第八预定条件的车道边界、满足第九预定条件的车道边界和/或满足第十预定条件的车道边界识别为路缘石;
所述第八预定条件为:所述车道边界具有三条边缘线,所述车道边界中每两条相邻的边缘线的横向距离小于第五距离阈值,所述车道边界中最左侧边缘线与最右侧边缘线的横向距离小于第六距离阈值;
所述第九预定条件为:所述车道边界具有两条边缘线,所述车道边界的两条边缘线之间的横向坐标距离小于第七距离阈值,所述车道边界的左侧区域的灰度方差小于第三灰度方差阈值,所述车道边界的右侧区域的灰度方差大于第四灰度方差阈值;
所述第十预定条件为:所述车道边界具有两条边缘线,所述车道边界的两条边缘线之间的横向坐标距离小于所述第七距离阈值,所述车道边界的左侧区域的灰度方差大于所述第三灰度方差阈值,所述车道边界的右侧区域的灰度方差小于所述第四灰度方差阈值;
其中,所述车道边界的左侧区域为第三左侧点组成的区域,所述第三左侧点的纵向坐标属于所述车道边界的左侧边缘线的纵向坐标范围,所述第三左侧点与所述车道边界的左侧边缘线的横向坐标距离不超过第三距离阈值,所述第三左侧点的横向坐标小于所述车道边界的左侧边缘线的横向坐标;
所述车道边界的右侧区域为第三右侧点组成的区域,所述第三右侧点的纵向坐标属于所述车道边界的右侧边缘线的纵向坐标范围,所述第三右侧点与所述车道边界的右侧边缘线的横向坐标距离不超过所述第三距离阈值,所述第三右侧点的横向坐标大于所述车道边界的右侧边缘线的横向坐标。
5.根据权利要求1或4所述的方法,其特征在于,还包括:
通过已训练的机器学习模型对所述当前帧图像中具有所述车道边界的识别区域进行识别,识别出属于护栏的车道边界;
其中,所述机器学习模型是利用护栏图像与非护栏目标物图像训练过的。
6.根据权利要求5所述的方法,其特征在于,通过已训练的机器学习模型对所述当前帧图像中具有所述车道边界的识别区域进行识别,识别出属于护栏的车道边界,包括:
以所述当前帧图像中的各条车道边界分别为识别目标,根据所述当前帧图像中所述识别目标的位置,从所述当前帧图像中选取具有所述识别目标的至少一个识别区域;
通过所述机器学习模型对各个所述识别区域进行识别,确定各个所述识别区域是否为具有护栏的区域;
若在具有所述识别目标的识别区域中所述具有护栏的区域的数量占比超过比例阈值,将所述识别目标确定为护栏。
7.根据权利要求5所述的方法,其特征在于,还包括:
在已从所述当前帧图像的车道边界中识别出车道标志线和护栏的情况下,将满足第十一预定条件的车道边界识别为路缘石;
所述第十一预定条件为:所述车道边界位于所述车道标志线与所述护栏之间,所述车道边界的两条边缘线之间的横向坐标距离小于第七距离阈值。
8.根据权利要求1所述的方法,其特征在于,还包括:
根据历史帧图像中路缘石、护栏和车道标志线的位置,将所述当前帧图像中的所述车道边界区分为车道标志线、护栏和/或路缘石。
9.一种检测车道边界的装置,其特征在于,包括:
获取单元,用于获取车道的当前帧图像;
提取单元,用于通过对所述当前帧图像进行滤波,提取所述当前帧图像中的亮度跳变点;
分组单元,用于从所述亮度跳变点中滤除噪声点并以剩余的亮度跳变点作为边缘点形成所述边缘点的分组,其中,满足第一预定条件的两个边缘点位于同一分组内,所述第一预定条件包括两个点之间的纵向坐标相邻且横向坐标距离差小于第一距离阈值,所述噪声点包括第一噪声点,所述第一噪声点与任意一个其他亮度跳变点都不满足所述第一预定条件,同一分组内边缘点的连线形成一条边缘线;
第一识别单元,从所述边缘线中识别出所述车道边界的边缘线;
第二识别单元,用于对所述车道边界的边缘线进行分组,并将每一分组内的边缘线分别识别为一条车道边界的边缘线,其中,同一分组内的两条边缘线之间的横向坐标差值小于第二距离阈值。
10.一种检测车道边界的设备,其特征在于,包括处理器、存储器、通信接口、总线系统;
所述总线系统,用于将所述设备的各个硬件组件耦合在一起;
所述通信接口,用于实现所述设备与至少一个其它设备之间的通信连接;
所述存储器,用于存储程序指令和数据;
所述处理器,用于读取存储器中存储的指令和数据,执行以下操作:
获取车道的当前帧图像,并通过对所述当前帧图像进行滤波,提取所述当前帧图像中的亮度跳变点;
从所述亮度跳变点中滤除噪声点并以剩余的亮度跳变点作为边缘点形成所述边缘点的分组,其中,满足第一预定条件的两个边缘点位于同一分组内,所述第一预定条件包括两个点之间的纵向坐标相邻且横向坐标距离差小于第一距离阈值,所述噪声点包括第一噪声点,所述第一噪声点与任意一个其他亮度跳变点都不满足所述第一预定条件,同一分组内边缘点的连线形成一条边缘线;
从所述边缘线中识别出所述车道边界的边缘线;
对所述车道边界的边缘线进行分组,并将每一分组内的边缘线分别识别为一条车道边界的边缘线,其中,同一分组内的两条边缘线之间的横向坐标差值小于第二距离阈值。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610594540.6A CN106203398B (zh) | 2016-07-26 | 2016-07-26 | 一种检测车道边界的方法、装置和设备 |
US15/279,454 US10133941B2 (en) | 2016-07-26 | 2016-09-29 | Method, apparatus and device for detecting lane boundary |
DE102016118502.7A DE102016118502B4 (de) | 2016-07-26 | 2016-09-29 | Verfahren, Einrichtung und Vorrichtung zum Ermitteln einer Fahrbahngrenze |
JP2016191013A JP6347815B2 (ja) | 2016-07-26 | 2016-09-29 | 車線境界を検出する方法、装置、およびデバイス |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610594540.6A CN106203398B (zh) | 2016-07-26 | 2016-07-26 | 一种检测车道边界的方法、装置和设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106203398A true CN106203398A (zh) | 2016-12-07 |
CN106203398B CN106203398B (zh) | 2019-08-13 |
Family
ID=57495302
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610594540.6A Active CN106203398B (zh) | 2016-07-26 | 2016-07-26 | 一种检测车道边界的方法、装置和设备 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10133941B2 (zh) |
JP (1) | JP6347815B2 (zh) |
CN (1) | CN106203398B (zh) |
DE (1) | DE102016118502B4 (zh) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107909047A (zh) * | 2017-11-28 | 2018-04-13 | 上海信耀电子有限公司 | 一种汽车及其应用的车道检测方法及系统 |
CN109345547A (zh) * | 2018-10-19 | 2019-02-15 | 天津天地伟业投资管理有限公司 | 基于深度学习多任务网络的交通车道线检测方法及装置 |
CN110036258A (zh) * | 2016-12-08 | 2019-07-19 | 索尼互动娱乐股份有限公司 | 信息处理装置和信息处理方法 |
WO2019149213A1 (zh) * | 2018-01-30 | 2019-08-08 | 长城汽车股份有限公司 | 基于影像识别路锥的方法、装置、存储介质以及车辆 |
CN110689528A (zh) * | 2019-09-21 | 2020-01-14 | 南京鑫和汇通电子科技有限公司 | 一种基于自动定位的对开式刀闸开合角度检测方法 |
CN110979318A (zh) * | 2019-11-20 | 2020-04-10 | 苏州智加科技有限公司 | 车道信息获取方法、装置、自动驾驶车辆及存储介质 |
CN111076734A (zh) * | 2019-12-12 | 2020-04-28 | 湖南大学 | 一种封闭区域非结构化道路高精地图构建方法 |
CN111247525A (zh) * | 2019-01-14 | 2020-06-05 | 深圳市大疆创新科技有限公司 | 一种车道检测方法、装置及车道检测设备、移动平台 |
CN111257893A (zh) * | 2020-01-20 | 2020-06-09 | 珠海上富电技股份有限公司 | 一种停车位检测方法及自动泊车方法 |
CN111523360A (zh) * | 2019-09-09 | 2020-08-11 | 长城汽车股份有限公司 | 用于识别路面标记的方法、装置及单目摄像头 |
CN111539907A (zh) * | 2019-07-25 | 2020-08-14 | 长城汽车股份有限公司 | 用于目标检测的图像处理方法及装置 |
CN111932621A (zh) * | 2020-08-07 | 2020-11-13 | 武汉中海庭数据技术有限公司 | 一种用于箭头提取置信度评估的方法及装置 |
CN112052778A (zh) * | 2020-09-01 | 2020-12-08 | 腾讯科技(深圳)有限公司 | 一种交通标志识别方法以及相关装置 |
CN113112432A (zh) * | 2021-05-13 | 2021-07-13 | 广州道一科学技术有限公司 | 自动识别图像条带的方法 |
WO2022042359A1 (zh) * | 2020-08-26 | 2022-03-03 | 深圳市杉川机器人有限公司 | 一种建立工作区域地图的方法及自移动设备 |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106407893B (zh) * | 2016-08-29 | 2019-11-22 | 东软集团股份有限公司 | 一种检测车道线的方法、装置和设备 |
JP2018203017A (ja) * | 2017-06-02 | 2018-12-27 | 本田技研工業株式会社 | 車両制御装置、車両制御方法、およびプログラム |
US10551847B2 (en) * | 2018-02-06 | 2020-02-04 | Here Global B.V. | Method, apparatus, and system for machine learning of physical dividers using map data and vehicular sensor data |
WO2019183609A1 (en) | 2018-03-23 | 2019-09-26 | NetraDyne, Inc. | Traffic boundary mapping |
CN108647638B (zh) | 2018-05-09 | 2021-10-12 | 东软睿驰汽车技术(上海)有限公司 | 一种车辆位置检测方法及装置 |
US10223614B1 (en) * | 2018-09-04 | 2019-03-05 | StradVision, Inc. | Learning method, learning device for detecting lane through classification of lane candidate pixels and testing method, testing device using the same |
DE102018126826A1 (de) * | 2018-10-26 | 2020-04-30 | Connaught Electronics Ltd. | Verfahren zum Bestimmen eines Konfidenzwerts für eine Erfassungsqualität einer Fahrbahnmarkierungsgrenze, Fahrerassistenzsystem sowie Kraftfahrzeug |
WO2020246753A1 (en) * | 2019-06-03 | 2020-12-10 | Samsung Electronics Co., Ltd. | Electronic apparatus for object recognition and control method thereof |
CN110717409B (zh) * | 2019-09-21 | 2024-06-18 | 山西金智鸿阳科技有限公司 | 一种对开式刀闸状态的实时精确检测方法 |
CN110717897B (zh) * | 2019-09-24 | 2024-08-02 | 南京鑫和汇通电子科技有限公司 | 基于快速确定中线模型的对开式刀闸开合角度检测方法 |
CN110751640B (zh) * | 2019-10-17 | 2024-07-16 | 南京鑫和汇通电子科技有限公司 | 一种基于角点配对的深度图像的四边形检测方法 |
CN112164090A (zh) * | 2020-09-04 | 2021-01-01 | 杭州海康威视系统技术有限公司 | 数据处理方法、装置、电子设备及机器可读存储介质 |
US11636693B2 (en) * | 2021-01-20 | 2023-04-25 | Qualcomm Incorporated | Robust lane-boundary association for road map generation |
CN113758501B (zh) * | 2021-09-08 | 2024-06-04 | 广州小鹏自动驾驶科技有限公司 | 检测地图中的异常车道线的方法和可读存储介质 |
CN118411382B (zh) * | 2024-07-02 | 2024-09-24 | 杭州百子尖科技股份有限公司 | 边界点检测方法、装置、电子设备及存储介质 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04311211A (ja) * | 1991-04-09 | 1992-11-04 | Nissan Motor Co Ltd | 画像処理装置,画像処理方法およびレーンマーカー認識装置 |
JP2010224787A (ja) * | 2009-03-23 | 2010-10-07 | Toyota Central R&D Labs Inc | 対象物識別装置及びプログラム |
EP2477139A2 (en) * | 2010-12-21 | 2012-07-18 | Samsung Electro-Mechanics Co., Ltd. | Lane departure warning system and method |
JP2013161190A (ja) * | 2012-02-02 | 2013-08-19 | Toyota Motor Corp | 物体認識装置 |
CN104517111A (zh) * | 2013-09-27 | 2015-04-15 | 比亚迪股份有限公司 | 车道线检测方法、系统、车道偏离预警方法及系统 |
CN104751151A (zh) * | 2015-04-28 | 2015-07-01 | 苏州安智汽车零部件有限公司 | 一种实时多车道识别及跟踪方法 |
US20150248837A1 (en) * | 2014-02-28 | 2015-09-03 | Core Logic, Inc. | System and Method for Warning Lane Departure |
CN104951744A (zh) * | 2014-03-27 | 2015-09-30 | 丰田自动车株式会社 | 车道边界标志线检测装置和电子控制装置 |
US20150294165A1 (en) * | 2011-07-27 | 2015-10-15 | Gentex Corporation | System and method for periodic lane marker identification and tracking |
CN105488492A (zh) * | 2015-12-25 | 2016-04-13 | 北京大学深圳研究生院 | 一种彩色图像预处理方法、道路识别方法及相关装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4390631B2 (ja) * | 2004-06-02 | 2009-12-24 | トヨタ自動車株式会社 | 境界線検出装置 |
JP5874756B2 (ja) * | 2014-02-07 | 2016-03-02 | トヨタ自動車株式会社 | 区画線検出システム及び区画線検出方法 |
JP5874770B2 (ja) * | 2014-03-12 | 2016-03-02 | トヨタ自動車株式会社 | 区画線検出システム |
US9959624B2 (en) * | 2014-12-22 | 2018-05-01 | Volkswagen Ag | Early detection of turning condition identification using perception technology |
EP3098753A1 (en) * | 2015-05-28 | 2016-11-30 | Tata Consultancy Services Limited | Lane detection |
-
2016
- 2016-07-26 CN CN201610594540.6A patent/CN106203398B/zh active Active
- 2016-09-29 DE DE102016118502.7A patent/DE102016118502B4/de active Active
- 2016-09-29 JP JP2016191013A patent/JP6347815B2/ja active Active
- 2016-09-29 US US15/279,454 patent/US10133941B2/en active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04311211A (ja) * | 1991-04-09 | 1992-11-04 | Nissan Motor Co Ltd | 画像処理装置,画像処理方法およびレーンマーカー認識装置 |
JP2010224787A (ja) * | 2009-03-23 | 2010-10-07 | Toyota Central R&D Labs Inc | 対象物識別装置及びプログラム |
EP2477139A2 (en) * | 2010-12-21 | 2012-07-18 | Samsung Electro-Mechanics Co., Ltd. | Lane departure warning system and method |
US20150294165A1 (en) * | 2011-07-27 | 2015-10-15 | Gentex Corporation | System and method for periodic lane marker identification and tracking |
JP2013161190A (ja) * | 2012-02-02 | 2013-08-19 | Toyota Motor Corp | 物体認識装置 |
CN104517111A (zh) * | 2013-09-27 | 2015-04-15 | 比亚迪股份有限公司 | 车道线检测方法、系统、车道偏离预警方法及系统 |
US20150248837A1 (en) * | 2014-02-28 | 2015-09-03 | Core Logic, Inc. | System and Method for Warning Lane Departure |
CN104951744A (zh) * | 2014-03-27 | 2015-09-30 | 丰田自动车株式会社 | 车道边界标志线检测装置和电子控制装置 |
CN104751151A (zh) * | 2015-04-28 | 2015-07-01 | 苏州安智汽车零部件有限公司 | 一种实时多车道识别及跟踪方法 |
CN105488492A (zh) * | 2015-12-25 | 2016-04-13 | 北京大学深圳研究生院 | 一种彩色图像预处理方法、道路识别方法及相关装置 |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11282224B2 (en) | 2016-12-08 | 2022-03-22 | Sony Interactive Entertainment Inc. | Information processing apparatus and information processing method |
CN110036258A (zh) * | 2016-12-08 | 2019-07-19 | 索尼互动娱乐股份有限公司 | 信息处理装置和信息处理方法 |
CN107909047B (zh) * | 2017-11-28 | 2021-07-06 | 上海信耀电子有限公司 | 一种汽车及其应用的车道检测方法及系统 |
CN107909047A (zh) * | 2017-11-28 | 2018-04-13 | 上海信耀电子有限公司 | 一种汽车及其应用的车道检测方法及系统 |
WO2019149213A1 (zh) * | 2018-01-30 | 2019-08-08 | 长城汽车股份有限公司 | 基于影像识别路锥的方法、装置、存储介质以及车辆 |
US11256929B2 (en) | 2018-01-30 | 2022-02-22 | Great Wall Motor Company Limited | Image-based road cone recognition method and apparatus, storage medium, and vehicle |
CN109345547A (zh) * | 2018-10-19 | 2019-02-15 | 天津天地伟业投资管理有限公司 | 基于深度学习多任务网络的交通车道线检测方法及装置 |
CN109345547B (zh) * | 2018-10-19 | 2021-08-24 | 天津天地伟业投资管理有限公司 | 基于深度学习多任务网络的交通车道线检测方法及装置 |
CN111247525A (zh) * | 2019-01-14 | 2020-06-05 | 深圳市大疆创新科技有限公司 | 一种车道检测方法、装置及车道检测设备、移动平台 |
CN111539907B (zh) * | 2019-07-25 | 2023-09-12 | 毫末智行科技有限公司 | 用于目标检测的图像处理方法及装置 |
CN111539907A (zh) * | 2019-07-25 | 2020-08-14 | 长城汽车股份有限公司 | 用于目标检测的图像处理方法及装置 |
WO2021013227A1 (zh) * | 2019-07-25 | 2021-01-28 | 长城汽车股份有限公司 | 用于目标检测的图像处理方法及装置 |
CN111523360B (zh) * | 2019-09-09 | 2023-06-13 | 毫末智行科技有限公司 | 用于识别路面标记的方法、装置及单目摄像头 |
CN111523360A (zh) * | 2019-09-09 | 2020-08-11 | 长城汽车股份有限公司 | 用于识别路面标记的方法、装置及单目摄像头 |
CN110689528A (zh) * | 2019-09-21 | 2020-01-14 | 南京鑫和汇通电子科技有限公司 | 一种基于自动定位的对开式刀闸开合角度检测方法 |
CN110979318A (zh) * | 2019-11-20 | 2020-04-10 | 苏州智加科技有限公司 | 车道信息获取方法、装置、自动驾驶车辆及存储介质 |
CN111076734A (zh) * | 2019-12-12 | 2020-04-28 | 湖南大学 | 一种封闭区域非结构化道路高精地图构建方法 |
CN111076734B (zh) * | 2019-12-12 | 2021-07-23 | 湖南大学 | 一种封闭区域非结构化道路高精地图构建方法 |
CN111257893A (zh) * | 2020-01-20 | 2020-06-09 | 珠海上富电技股份有限公司 | 一种停车位检测方法及自动泊车方法 |
CN111257893B (zh) * | 2020-01-20 | 2024-05-10 | 珠海上富电技股份有限公司 | 一种停车位检测方法及自动泊车方法 |
CN111932621B (zh) * | 2020-08-07 | 2022-06-17 | 武汉中海庭数据技术有限公司 | 一种用于箭头提取置信度评估的方法及装置 |
CN111932621A (zh) * | 2020-08-07 | 2020-11-13 | 武汉中海庭数据技术有限公司 | 一种用于箭头提取置信度评估的方法及装置 |
WO2022042359A1 (zh) * | 2020-08-26 | 2022-03-03 | 深圳市杉川机器人有限公司 | 一种建立工作区域地图的方法及自移动设备 |
CN112052778A (zh) * | 2020-09-01 | 2020-12-08 | 腾讯科技(深圳)有限公司 | 一种交通标志识别方法以及相关装置 |
CN113112432A (zh) * | 2021-05-13 | 2021-07-13 | 广州道一科学技术有限公司 | 自动识别图像条带的方法 |
Also Published As
Publication number | Publication date |
---|---|
CN106203398B (zh) | 2019-08-13 |
DE102016118502B4 (de) | 2024-04-25 |
DE102016118502A1 (de) | 2018-02-01 |
US20180033148A1 (en) | 2018-02-01 |
JP6347815B2 (ja) | 2018-06-27 |
JP2018018483A (ja) | 2018-02-01 |
US10133941B2 (en) | 2018-11-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106203398B (zh) | 一种检测车道边界的方法、装置和设备 | |
CN106407893B (zh) | 一种检测车道线的方法、装置和设备 | |
US20210264176A1 (en) | Hazard detection from a camera in a scene with moving shadows | |
CN109284674B (zh) | 一种确定车道线的方法及装置 | |
Wu et al. | Lane-mark extraction for automobiles under complex conditions | |
CN109670376B (zh) | 车道线识别方法及系统 | |
US8750567B2 (en) | Road structure detection and tracking | |
Son et al. | Real-time illumination invariant lane detection for lane departure warning system | |
US8670592B2 (en) | Clear path detection using segmentation-based method | |
CN105678285B (zh) | 一种自适应的道路鸟瞰图变换方法和道路车道检测方法 | |
CN103324930B (zh) | 一种基于灰度直方图二值化的车牌字符分割方法 | |
CN110619279B (zh) | 一种基于跟踪的路面交通标志实例分割方法 | |
Danescu et al. | Detection and classification of painted road objects for intersection assistance applications | |
CN108052904B (zh) | 车道线的获取方法及装置 | |
CN107909012B (zh) | 一种基于视差图的实时车辆跟踪检测方法与装置 | |
CN109635737A (zh) | 基于道路标记线视觉识别辅助车辆导航定位方法 | |
Li et al. | Inverse perspective mapping based urban road markings detection | |
CN101369312B (zh) | 检测图像中交叉口的方法和设备 | |
KR101347886B1 (ko) | 도로 영역 및 기하학적 정보를 이용한 차로 인식 방법 및 장치 | |
Coronado et al. | Detection and classification of road signs for automatic inventory systems using computer vision | |
CN103927523B (zh) | 一种基于纵向灰度特征的雾天等级检测方法 | |
Lu | A lane detection, tracking and recognition system for smart vehicles | |
JP5327241B2 (ja) | 物体識別装置 | |
Wennan et al. | Lane detection in some complex conditions | |
KR100976142B1 (ko) | 차량검출방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20200928 Address after: 201805 room 1703, No. 888, South Moyu Road, Anting Town, Jiading District, Shanghai Patentee after: NEUSOFT REACH AUTOMOTIVE TECHNOLOGY (SHANGHAI) Co.,Ltd. Address before: Hunnan rookie street Shenyang city Liaoning province 110179 No. 2 Patentee before: NEUSOFT Corp. Patentee before: NEUSOFT REACH AUTOMOTIVE TECHNOLOGY (SHANGHAI) Co.,Ltd. |