CN109409205A - 基于线间距特征点聚类的航拍视频公路车道线检测方法 - Google Patents

基于线间距特征点聚类的航拍视频公路车道线检测方法 Download PDF

Info

Publication number
CN109409205A
CN109409205A CN201811045108.7A CN201811045108A CN109409205A CN 109409205 A CN109409205 A CN 109409205A CN 201811045108 A CN201811045108 A CN 201811045108A CN 109409205 A CN109409205 A CN 109409205A
Authority
CN
China
Prior art keywords
point
points
line
pixel
pixel point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811045108.7A
Other languages
English (en)
Other versions
CN109409205B (zh
Inventor
路小波
李永彬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN201811045108.7A priority Critical patent/CN109409205B/zh
Publication of CN109409205A publication Critical patent/CN109409205A/zh
Application granted granted Critical
Publication of CN109409205B publication Critical patent/CN109409205B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/182Network patterns, e.g. roads or rivers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/2163Partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/457Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by analysing connectivity, e.g. edge linking, connected component analysis or slices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/48Extraction of image or video features by mapping characteristic values of the pattern into a parameter space, e.g. Hough transformation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于线间距特征点聚类的航拍视频公路车道线检测方法,包括以下步骤:读取视频帧;图像分割处理;从大量数据点中均衡、充分的提取出每条车道线的特征点;基于线间距的相似度度量方式构造相似度矩阵,对不同车道线的特征点聚类;对车道线建立三次B样条模型,利用改进的RANSAC算法对模型进行参数估计;车道线参数修正和预测。本发明对航拍高速公路视频中的高速公路边缘进行检测预处理,减小下一帧的处理时间,有效的去除这些高速公路以外的干扰像素点,对车道线特征点具有更好的聚类效果,能够得到更精确和更稳定的车道线拟合效果,且能够达到实时处理效果。

Description

基于线间距特征点聚类的航拍视频公路车道线检测方法
技术领域
本发明属于图像处理和交通视频检测技术领域,涉及一种车道线检测方法,主要应用于航拍高速公路视频中。
背景技术
近些年来广泛提出基于无人机的高速公路违法行为检测方法,由于无人机所处位置高,监控范围广,而且移动的摄像机可以跟踪检测更多的车辆违法行为,能够更加有效地控制高速公路上的车辆违法行为。而目前对于道路中车辆的违法行为的检测,比如非法占用应急车道和不按规定车道行驶,都是基于车道线及道路边缘的准确检测,因此航拍高速公路视频中的车道线检测研究对于基于无人机的高速公路车辆违法行为检测具有十分重要的意义。但目前已有的检测方法要么准确率不高,要么检测速度较低,不能满足实时检测需要。
发明内容
为解决上述问题,本发明针对航拍高速公路视频提出了一种航拍视频高速公路车道线检测方法。首先利用车道线的颜色、宽度、形状等特性提出一种车道线图像分割方法;然后针对车道线的实际情况,提出基于特征点间的线间距建立相似性矩阵,实现车道线特征点的聚类处理;之后对车道线建立三次B样条模型进行车道线参数估计;并且采用Kalman滤波器对车道线预测和修正,是一种更稳定、检测率更高的车道线检测方法。
为了达到上述目的,本发明提供如下技术方案:
一种基于线间距特征点聚类的航拍视频公路车道线检测方法,包括如下步骤:
步骤1:读取视频帧
读入视频文件,获取一帧W×H×3大小的彩色图像F,其中W和H为正整数,分别表示彩色图像的宽度和高度;
步骤2:图像分割处理,包括如下子步骤:
步骤2.1:降采样
设采样比例为sx,sy,则采样后像素点与原始图像像素点的映射关系为
其中,n为目标采样后图像的宽度值;m为目标采样图像的高度值;(x,y)为目标像素点(i,j)的映射位置,f(i,j)表示目标像素点(i,j)处的像素值,F(x,y)表示原始像素点(x,y)处的,像素值δ(·)表示一个邻域范围,得降采样图为Fds
步骤2.2:基于色彩空间RGB的彩色图像分割
对降采样图Fds的R、G、B分量图像Ir,Ig,Ib进行阈值分割,然后采用“与”操作融合三个分量图像的分割结果得到最后的彩色图像分割结果Frgb
Frgb=Ir∩Ig∩Ib
步骤2.3:连通域滤波
首先对彩色图像分割结果Frgb进行八连通域检测,连通域检测步骤如下:
Step1:从二值图像Frgb的第一行第一列进行扫描,进入步骤Step2;
Step2:如果当前扫描像素点为白色点,则进入步骤Step3,如果当前扫描像素点为黑色点,则进入步骤Step4;
Step3:此时存在以下几种情况,需要分别进行处理:
(1)当前扫描像素点B为第一行第一列的像素点,则将当前扫描像素点的值赋值为1,即当前扫描像素点B被标号为1,标号变量label=1,然后进入步骤Step4;
(2)当前扫描像素点B是第一行但不是第一列的像素点,则将当前扫描像素点B赋值为label+1,即将该点标号为label+1,label=label+1,然后进入步骤Step4;
(3)当前扫描像素点B为第一列但不是第一行的像素点,则如果当前扫描像素点B的正上方和右上方的像素点的值,如果都是0,就将当前扫描像素点B赋值为label+1,即将该点标号为label+1,label=label+1;如果有且仅有一个不等于0,则将该不为零标号赋予像素点B;如果都不为零,将最小的一个标号值赋予像素点B,并记录当前两个点标号的等价关系,之后都进入步骤Step4;
(4)若当前扫描像素点B不为第一行也不为第一列的像素点,则如果8邻域像素点中的左上角点、正上方点、右上方点、正前方点的值都为0,则将当前扫描像素点B的值赋值为label+1,即将该点标号为label+1,label=label+1,然后进入步骤Step4;如果8邻域像素点中的左上角点、正上方点、右上方点、正前方点的值中有且只有一个值不为0,就将这个不为0的值赋值给当前扫描像素点B,然后进入步骤Step4;如果8邻域像素点中的左上角点、正上方点、右上方点、正前方像素点的值中有多个不为0,则记录这几个标号的等价关系,即标号为这几个值的像素点属于同一个连通区域,并将这些值中最小的不为0的值赋值给当前扫描像素点B,作为像素点B的标号,进入步骤Step4;
Step4:若二值图像Frgb的所有像素点都扫描结束,则进入步骤Step5,否则扫描下一个像素点,然后返回步骤Step2;
Step5:重新逐行逐点的扫描经过标号处理的二值图像Frgb,对每一个像素点的标号检查是否有存在相等关系的最小标号值,如果存在,则将该像素点的值赋值为这个最小的标号值,否则不对该像素点的标号进行处理,直至经过标号处理的二值图像Frgb的所有像素点都扫描结束,得到重新标号处理后的二值图像Frgb
得到连通域检测后的二值图像Frgb后,采用面积S和伸长度P两种区域描述子对图像中的连通域进行滤波;其中伸长度P=S/W2,W为连通域平均宽度;如果面积和伸长度小于各自阈值,则将对应区域的像素值置为0,得到连通域滤波后的二值图像Fcd
步骤2.4:高速公路边缘检测
采用概率Hough变换直线检测对高速公路边缘检测;
步骤3:从大量数据点中均衡、充分的提取出每条车道线的特征点候选区域
使用Hough变换对航拍图像车道线分割结果图像中的车道线进行一遍粗提取,得到多条直线段,然后再以这些直线段的端点作为特征样本点进行聚类处理;
步骤4:基于线间距的相似度度量方式构造相似度矩阵,对不同车道线的特征点聚类,具体包括如下过程:
选取相似函数构造相似度矩阵,dij表示采样特征点i,j之间的距离,wij表示采样特征点i,j的相似性;
通过相似性矩阵构造拉普拉斯矩阵
其中,
选取最大的个特征向量,然后采用Kmeans聚类方法对特征向量矩阵中的行向量按照某种聚类准则聚类处理;
步骤5:对车道线建立三次B样条模型,利用改进的RANSAC算法对模型进行参数估计
采用三次B样条曲线作为车道线的曲线模型,方程如下式:
其中,T(t)=[tn…t2t1],M为样条曲线的系数矩阵,P为控制点矩阵;
采用改进的RANSAC算法对模型进行参数估计;
步骤6:车道线参数修正和预测
采用Kalman滤波器对车道线参数修正与预测,其状态方程为:
X(k+1)=A·X(k)+B·U(k)+W(k)
其中,X(k+1)为第k+1时刻的状态值;X(k)为前一时刻k的状态值;A为状态转移矩阵;B为控制输入矩阵;U(k)为时刻k的控制向量;W(k)过程噪声,W(k)~N(0,Q);
观测方程为
Z(k+1)=H·X(k)+V(k)
其中,H为观测矩阵;Z(k+1)为k+1时刻的测量结果;V(k)为观测噪声,V(k)~N(0,R);
采用的三次B样条曲线车道线模型,变换其方程为:
仅对x值进行预测与矫正,将Kalman滤波器的状态向量定义如下:
X(k)=[a0,a1,a2,a3,Δa1,Δa2,Δa3,Δa4]T
状态转移矩阵为
输入控制矩阵为B=0,观测矩阵为
观测矢量为Z(k)=[a0,a1,a2,a3]T
如果当前帧存在某车道线没能正确检测时,利用Kalman滤波器的预测结果作为当前值,或者如果当前帧某车道线曲线检测结果存在较大误差,利用Kalman滤波器的预测值进行修正。
进一步的,所述步骤2.2中采用灰度图像分割OTSU算法进行阈值分割。
进一步的,所述步骤2.4具体包括如下过程:
Step1:从大小为m×n的二值图像Fcd中收集所有白色点坐标,得到一个坐标集C1,并创建一个总行数为181,总列数为2×(m+n)的参数空间矩阵D,参数空间矩阵D的所有元素的初值为0,然后进行Step2;
Step2:若坐标集C1已为空集,结束;反之,则随机抽取C1中的一对坐标(xp,yp),并且从坐标集C1中去除当前抽取的这一对坐标,然后进行步骤Step3;
Step3:将当前抽取的这一对坐标(xp,yp)按如下公式进行变换:
ρ=xp·cos(θ)+yp·sin(θ),θ=0°,1°,2°,…,180°
得到181组ρ和θ,再分别对参数空间矩阵D中坐标为(θ+1,[ρ]+M+N)的元素加1,其中[ρ]表示对ρ取整数,然后找出参数空间矩阵D中所有元素的最大值max及其所在坐标(θm+1,ρm+M+N),再判断这个最大值max是否大于给定阈值lineThresh,如果大于,则进行步骤Step4,否则返回步骤Step2;
Step4:由最大值所在坐标(θm+1,ρm+M+N)即可确定车道线二值图像中的一条直线,在车道线二值图像中,以当前抽取的像素点(xp,yp)为起始点,沿着ρm=x·cos(θm)+y·sin(θm)这条直线搜索白色点,当遇到图像边界或者连续黑色点的数量超过maxGap时,结束搜索,若此时搜索线段两个端点距离小于LenghThresh,则去除坐标集C1中已经确定属于这条直线段白色点的坐标,否则先记录下当前直线段的两个端点坐标,以及参数(ρmm),然后再去除坐标集C1中已经确定属于这条直线段白色点的坐标,并且将已经确定属于这条直线段的白色点坐标(xi,yi),i=1,2,…,N,按照公式ρ=xi·cos(θ)+yi·sin(θ),θ=0°,1°,2°,…,180°进行变换,然后对参数空间矩阵D中坐标为(θ+1,[ρ]+M+N)的元素减1,最后返回步骤Step2;
将LenghThresh设置的足够大、maxGap设置的比较小,将检测到的边缘线两侧像素点的像素值置为0,得到最终的图像分割结果Fseg
进一步的,所述步骤3中采用的Hough变换过程与步骤2.4过程相同。
进一步的,线段长度阈值LengthThresh小于步骤2.4中的线段长度长度阈值,最大连续黑色点长度maxGap小于步骤2.4中的最大连续黑色点长度。
进一步的,所述步骤5中改进的RANSAC算法包括以下步骤:
(1)最小子集采样
将所有的车道线数据点按照纵坐标进行排序,然后在纵坐标区间按照区间宽度比例1:1:2:4的比例抽取出四个车道线数据点Q1、Q2、Q3、Q4,另外增加一个起点Q0和终点Q5;其中起点Q0从区间1的数据点所在切线与上边缘的交点集中抽取,当区间1点数不够时,抽取部分区间2数据点;终点Q5从区间4的数据点所在切线与图像下边缘的交点集中抽取,当区间4的数据点不够时,抽取区间3的部分数据点;
(2)模型参数计算
对于n个数据点为(x1,y1),(x2,y2),…,(xn,yn),每一个数据点pi对应存在一个任意正比于从起始点到第i点pi的路程,即正比于从起始点依次经过第i点之前的所有点的欧氏距离总和,对于每一个定义如下式:
其中,当(xj-xj-1)2<<(yj-yj-1)2时,直接取d(pj,pj-1)=yj-yj-1;若区间范围内的点d(pj,pj-1)=yj-yj-1;当最小采样集中任意一组相邻点之间都满足时,每一个数据点对应的将转化为其中H为图像高度,此时B样条曲线将等价于三次多项式曲线x=a+by+cy2+dy3
对于最小采样集中的m个采样点Q0、Q1、…、Qm,其生成的矩阵Q以及根据每个采样点对应生成的矩阵T分别表示如下式:
将三次B样条曲线方程得参数矩阵P如下式:
代入Q,T表达式即可计算出参数矩阵P;
(3)参数验证
设目标函数:
其中,s(pi)定义如下:
d(pi)为数据点到样条曲线的距离,定义为ε表示一个很小的阈值,一般选作5像素;本步骤需要确定一个阈值ts,如果Score大于这个阈值ts就停止下一次的拟合操作。
进一步的,所述步骤(3)参数验证中Score阈值ts至少比最小抽样集中的数据个数大5。
与现有技术相比,本发明具有如下优点和有益效果:
1.对航拍高速公路视频中的高速公路边缘进行检测预处理,可以帮助估计下一帧的感兴趣区域,减小下一帧的处理时间;而且当前这一帧图像分割结果中很可能还存在大量的道路以外的像素点,在后续处理过程中很有可能会被误归类为某一条车道线上的点,从而对检测结果的准确性将带来极大的影响,检测高速公路边缘可以有效的去除这些高速公路以外的干扰像素点。
2.本发明解决了所属不同车道线的特征点的聚类问题,对于每两个特征点之间的距离使用两点所在切线的线间距作为两者的距离,对车道线特征点具有更好的聚类效果,达到了经典距离度量方式无法实现的理想效果。
3.航拍高速公路中的车辆行为分析要求所有车道线应尽可能的精准,并且车道线的拟合距离应该越远越好。考虑到尽管对高速公路的曲率、宽度等作过规定,但是由于视角是从航拍角度进行,因此车道线可能以各种形状出现,多项式曲线可能难以准确描述车道线结果。本发明选取的B样条曲线能够有效解决贝塞尔样条曲线控制点对曲线的整体控制带来的不便,能够更为稳定的拟合曲线,得到更精确和更稳定的车道线拟合效果。
4.:安装在无人机上的摄像机拍摄的视频分辨率一般很高,传统的车道线检测算法不能达到实时效果,本发明算法复杂度小,对于视频帧宽度为1920,视频帧高度为1080的视频平均每帧处理时间为30ms,能够实时处理。
附图说明
图1为本发明提供的基于线间距特征点聚类的航拍视频公路车道线检测方法的整体流程图。
图2为车道线特征点聚类流程图。
具体实施方式
以下将结合具体实施例对本发明提供的技术方案进行详细说明,应理解下述具体实施方式仅用于说明本发明而不用于限制本发明的范围。
本发明提供的一种基于线间距特征点聚类的航拍视频公路车道线检测方法,其流程如图1所示,包括以下步骤:
步骤1:读取视频帧
从无人机的机载摄像机读入视频文件,获取一帧W×H×3大小的彩色图像F,其中W和H为正整数,分别表示彩色图像的宽度和高度。
步骤2:图像分割处理,包括如下子步骤:
步骤2.1:降采样
设采样比例为sx,sy,则采样后像素点与原始图像像素点的映射关系为
其中,n为目标采样后图像的宽度值;m为目标采样图像的高度值;(x,y)为目标像素点(i,j)的映射位置,f(i,j)表示目标像素点(i,j)处的像素值,F(x,y)表示原始像素点(x,y)处的,像素值δ(·)表示一个邻域范围,在此处窗口大小通常取3即可,得降采样图为Fds
步骤2.2:基于色彩空间RGB的彩色图像分割
本发明采用常用灰度图像分割算法——OTSU算法对降采样图Fds的R、G、B分量图像Ir,Ig,Ib进行阈值分割,然后采用“与”操作融合三个分量图像的分割结果得到最后的彩色图像分割结果Frgb
Frgb=Ir∩Ig∩Ib
步骤2.3:连通域滤波
首先对彩色图像分割结果Frgb进行八连通域检测,连通域检测步骤如下:
Step1:从二值图像Frgb的第一行第一列进行扫描,进入步骤Step2;
Step2:如果当前扫描像素点为白色点,则进入步骤Step3,如果当前扫描像素点为黑色点,则进入步骤Step4;
Step3:此时存在以下几种情况,需要分别进行处理:
(1)当前扫描像素点B为第一行第一列的像素点,则将当前扫描像素点的值赋值为1,即当前扫描像素点B被标号为1,标号变量label=1,然后进入步骤Step4;
(2)当前扫描像素点B是第一行但不是第一列的像素点,则将当前扫描像素点B赋值为label+1,即将该点标号为label+1,label=label+1,然后进入步骤Step4;
(3)当前扫描像素点B为第一列但不是第一行的像素点,则如果当前扫描像素点B的正上方和右上方的像素点的值,如果都是0,就将当前扫描像素点B赋值为label+1,即将该点标号为label+1,label=label+1;如果有且仅有一个不等于0,则将该不为零标号赋予像素点B;如果都不为零,将最小的一个标号值赋予像素点B,并记录当前两个点标号的等价关系,之后都进入步骤Step4;
(4)若当前扫描像素点B不为第一行也不为第一列的像素点,则如果8邻域像素点中的左上角点、正上方点、右上方点、正前方点的值都为0,则将当前扫描像素点B的值赋值为label+1,即将该点标号为label+1,label=label+1,然后进入步骤Step4;如果8邻域像素点中的左上角点、正上方点、右上方点、正前方点的值中有且只有一个值不为0,就将这个不为0的值赋值给当前扫描像素点B,然后进入步骤Step4;如果8邻域像素点中的左上角点、正上方点、右上方点、正前方像素点的值中有多个不为0,则记录这几个标号的等价关系,即标号为这几个值的像素点属于同一个连通区域,并将这些值中最小的不为0的值赋值给当前扫描像素点B,作为像素点B的标号,进入步骤Step4;
Step4:若二值图像Frgb的所有像素点都扫描结束,则进入步骤Step5,否则扫描下一个像素点,然后返回步骤Step2;
Step5:重新逐行逐点的扫描经过标号处理的二值图像Frgb,对每一个像素点的标号(即像素值)检查是否有存在相等关系的最小标号值,如果存在,则将该像素点的值赋值为这个最小的标号值,否则不对该像素点的标号进行处理,直至经过标号处理的二值图像Frgb的所有像素点都扫描结束,得到重新标号处理后的二值图像Frgb
得到连通域检测后的二值图像Frgb后,采用面积S和伸长度P两种区域描述子对图像中的连通域进行滤波。其中伸长度P=S/W2,W为连通域平均宽度。如果面积和伸长度小于各自阈值,则将对应区域的像素值置为0,得到连通域滤波后的二值图像Fcd
步骤2.4:高速公路边缘检测
本发明采用概率Hough变换直线检测对高速公路边缘检测,概率Hough变换检测直线段步骤如下。
Step1:从大小为m×n的二值图像Fcd中收集所有白色点坐标,得到一个坐标集C1,并创建一个总行数为181,总列数为2×(m+n)的参数空间矩阵D,参数空间矩阵D的所有元素的初值为0,然后进行Step2;
Step2:若坐标集C1已为空集,结束;反之,则随机抽取C1中的一对坐标(xp,yp),并且从坐标集C1中去除当前抽取的这一对坐标,然后进行步骤Step3;
Step3:将当前抽取的这一对坐标(xp,yp)按如下公式进行变换:
ρ=xp·cos(θ)+yp·sin(θ),θ=0°,1°,2°,…,180°
得到181组ρ和θ,再分别对参数空间矩阵D中坐标为(θ+1,[ρ]+M+N)的元素加1,其中[ρ]表示对ρ取整数,然后找出参数空间矩阵D中所有元素的最大值max及其所在坐标(θm+1,ρm+M+N),再判断这个最大值max是否大于给定阈值lineThresh,如果大于,则进行步骤Step4,否则返回步骤Step2;
Step4:由最大值所在坐标(θm+1,ρm+M+N)即可确定车道线二值图像中的一条直线,在车道线二值图像中,以当前抽取的像素点(xp,yp)为起始点,沿着ρm=x·cos(θm)+y·sin(θm)这条直线搜索白色点,当遇到图像边界或者连续黑色点的数量超过maxGap时,结束搜索,若此时搜索线段两个端点距离小于LenghThresh,则去除坐标集C1中已经确定属于这条直线段白色点的坐标,否则先记录下当前直线段的两个端点坐标,以及参数(ρmm),然后再去除坐标集C1中已经确定属于这条直线段白色点的坐标,并且将已经确定属于这条直线段的白色点坐标(xi,yi),i=1,2,…,N,按照公式ρ=xi·cos(θ)+yi·sin(θ),θ=0°,1°,2°,…,180°进行变换,然后对参数空间矩阵D中坐标为(θ+1,[ρ]+M+N)的元素减1,最后返回步骤Step2;
车道边缘一般为长长的细实线,因此将LenghThresh设置的足够大、maxGap设置的比较小,将检测到的边缘线两侧像素点的像素值置为0,得到最终的图像分割结果Fseg
步骤3:从大量数据点中均衡、充分的提取出每条车道线的特征点候选区域
本发明直接使用Hough变换对航拍图像车道线分割结果图像Fseg中的车道线进行一遍粗提取,得到多条直线段,然后再以这些直线段的端点作为特征样本点进行聚类处理。
本步骤Hough变换算法原理如步骤2.4中所述,但本步骤中选取的线段长度阈值LengthThresh较小,最大连续黑色点长度maxGap也较小。
步骤4:基于线间距的相似度度量方式构造相似度矩阵,对不同车道线的特征点聚类,其流程如图2所示,具体包括如下过程:
本发明采用的线间距的相似性度量方式是基于Hough检测结果进行估计,Hough变换最后得到的是参数(ρ,θ),根据Hough变换采用的参数方程ρ=xcosθ+ysinθ,本段直线段所在直线x=ky+b的参数k=-tan(θ),b=ρ/cos(θ)。
设两个特征点分别为A(x1,y1),B(x2,y2),对应的切线参数分别为(k1,b1),(k2,b2),利用点到直线的距离公式:
则点A到点B的距离为式:
点B到点A的距离为式:
很明显,大多数情况下dA→B≠dB→A,这会导致最后形成的相似性矩阵不对称,将有向距离转化成无向距离。
其中dAB,dBA都表示A,B两点之间的无向距离。选取相似函数构造相似度矩阵,dij表示采样特征点i,j之间的距离,wij表示采样特征点i,j的相似性。
通过相似性矩阵构造拉普拉斯矩阵
其中,选取最大的个特征向量,然后采用Kmeans聚类方法对特征向量矩阵中的行向量按照某种聚类准则聚类处理。
步骤5:对车道线建立三次B样条模型,利用改进的RANSAC算法对模型进行参数估计
本发明采用三次B样条曲线作为车道线的曲线模型,方程如下式:
其中,T(t)=[tn…t2t1],M为样条曲线的系数矩阵,P为控制点矩阵。
采用改进的RANSAC算法对模型进行参数估计,主要分为3个部分:
(1)最小子集采样
将所有的车道线数据点按照纵坐标进行排序,然后在纵坐标区间按照区间宽度比例1:1:2:4的比例抽取出四个车道线数据点Q1、Q2、Q3、Q4,同时为了能够更为准确的确定始点和终点,另外增加一个起点Q0和终点Q5。其中起点Q0从区间1(区间1点数较少时,可能会抽取部分区间2)的数据点所在切线与上边缘的交点集中抽取,终点Q5从区间4(区间4的数据点较少时,可能包含区间3的部分数据点)的数据点所在切线与图像下边缘的交点集中抽取。
(2)模型参数计算
对于n个数据点为(x1,y1),(x2,y2),…,(xn,yn),每一个数据点pi对应存在一个任意应正比于从起始点到第i点pi的路程,即正比于从起始点依次经过第i点之前的所有点的欧氏距离总和,对于每一个可以定义如下式:
其中,当(xj-xj-1)2<<(yj-yj-1)2时,可以直接取d(pj,pj-1)=yj-yj-1。若区间范围内的点d(pj,pj-1)=yj-yj-1。当最小采样集中任意一组相邻点之间都满足时,每一个数据点对应的将转化为其中H为图像高度,此时B样条曲线将等价于三次多项式曲线x=a+by+cy2+dy3
对于最小采样集中的m个采样点Q0、Q1、…、Qm,其生成的矩阵Q以及根据每个采样点对应生成的矩阵T分别表示如下式:
将三次B样条曲线方程得参数矩阵P如下式:
代入Q,T表达式即可计算出参数矩阵P。
(3)参数验证
设目标函数:
其中,s(pi)定义如下:
d(pi)为数据点到样条曲线的距离,定义为ε表示一个很小的阈值,一般选作5像素。本步骤需要确定一个阈值ts,如果Score大于这个阈值ts就可以考虑停止下一次的拟合操作,Score阈值ts的选择应至少比最小抽样集中的数据个数大5。
步骤6:车道线参数修正和预测
本发明采用Kalman滤波器对车道线参数修正与预测,其状态方程为:
X(k+1)=A·X(k)+B·U(k)+W(k)
其中,X(k+1)为第k+1时刻的状态值;X(k)为前一时刻k的状态值;A为状态转移矩阵;B为控制输入矩阵;U(k)为时刻k的控制向量;W(k)过程噪声,W(k)~N(0,Q)。
观测方程为
Z(k+1)=H·X(k)+V(k)
其中,H为观测矩阵;Z(k+1)为k+1时刻的测量结果;V(k)为观测噪声,V(k)~N(0,R)。
本发明中采用的车道线模型是三次B样条曲线,变换其方程为:
实际应用中,y值变化一般不大,更关注x值的大小,所以仅对x值进行预测与矫正,将Kalman滤波器的状态向量定义如下:
X(k)=[a0,a1,a2,a3,Δa1,Δa2,Δa3,Δa4]T
状态转移矩阵为
输入控制矩阵为B=0,观测矩阵为
观测矢量为Z(k)=[a0,a1,a2,a3]T
如果当前帧存在某车道线没能正确检测时,就可以利用Kalman滤波器的预测结果作为当前值,或者如果当前帧某车道线曲线检测结果存在较大误差,也可以利用Kalman滤波器的预测值进行修正。
经过上述步骤后,最终输出车道线检测结果。
本发明方案所公开的技术手段不仅限于上述实施方式所公开的技术手段,还包括由以上技术特征任意组合所组成的技术方案。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也视为本发明的保护范围。

Claims (7)

1.一种基于线间距特征点聚类的航拍视频公路车道线检测方法,其特征在于,包括如下步骤:
步骤1:读取视频帧
读入视频文件,获取一帧W×H×3大小的彩色图像F,其中W和H为正整数,分别表示彩色图像的宽度和高度;
步骤2:图像分割处理,包括如下子步骤:
步骤2.1:降采样
设采样比例为sx,sy,则采样后像素点与原始图像像素点的映射关系为
其中,n为目标采样后图像的宽度值;m为目标采样图像的高度值;(x,y)为目标像素点(i,j)的映射位置,f(i,j)表示目标像素点(i,j)处的像素值,F(x,y)表示原始像素点(x,y)处的,像素值δ(·)表示一个邻域范围,得降采样图为Fds
步骤2.2:基于色彩空间RGB的彩色图像分割
对降采样图Fds的R、G、B分量图像Ir,Ig,Ib进行阈值分割,然后采用“与”操作融合三个分量图像的分割结果得到最后的彩色图像分割结果Frgb
Frgb=Ir∩Ig∩Ib
步骤2.3:连通域滤波
首先对彩色图像分割结果Frgb进行八连通域检测,连通域检测步骤如下:
Step1:从二值图像Frgb的第一行第一列进行扫描,进入步骤Step2;
Step2:如果当前扫描像素点为白色点,则进入步骤Step3,如果当前扫描像素点为黑色点,则进入步骤Step4;
Step3:此时存在以下几种情况,需要分别进行处理:
(1)当前扫描像素点B为第一行第一列的像素点,则将当前扫描像素点的值赋值为1,即当前扫描像素点B被标号为1,标号变量label=1,然后进入步骤Step4;
(2)当前扫描像素点B是第一行但不是第一列的像素点,则将当前扫描像素点B赋值为label+1,即将该点标号为label+1,label=label+1,然后进入步骤Step4;
(3)当前扫描像素点B为第一列但不是第一行的像素点,则如果当前扫描像素点B的正上方和右上方的像素点的值,如果都是0,就将当前扫描像素点B赋值为label+1,即将该点标号为label+1,label=label+1;如果有且仅有一个不等于0,则将该不为零标号赋予像素点B;如果都不为零,将最小的一个标号值赋予像素点B,并记录当前两个点标号的等价关系,之后都进入步骤Step4;
(4)若当前扫描像素点B不为第一行也不为第一列的像素点,则如果8邻域像素点中的左上角点、正上方点、右上方点、正前方点的值都为0,则将当前扫描像素点B的值赋值为label+1,即将该点标号为label+1,label=label+1,然后进入步骤Step4;如果8邻域像素点中的左上角点、正上方点、右上方点、正前方点的值中有且只有一个值不为0,就将这个不为0的值赋值给当前扫描像素点B,然后进入步骤Step4;如果8邻域像素点中的左上角点、正上方点、右上方点、正前方像素点的值中有多个不为0,则记录这几个标号的等价关系,即标号为这几个值的像素点属于同一个连通区域,并将这些值中最小的不为0的值赋值给当前扫描像素点B,作为像素点B的标号,进入步骤Step4;
Step4:若二值图像Frgb的所有像素点都扫描结束,则进入步骤Step5,否则扫描下一个像素点,然后返回步骤Step2;
Step5:重新逐行逐点的扫描经过标号处理的二值图像Frgb,对每一个像素点的标号检查是否有存在相等关系的最小标号值,如果存在,则将该像素点的值赋值为这个最小的标号值,否则不对该像素点的标号进行处理,直至经过标号处理的二值图像Frgb的所有像素点都扫描结束,得到重新标号处理后的二值图像Frgb
得到连通域检测后的二值图像Frgb后,采用面积S和伸长度P两种区域描述子对图像中的连通域进行滤波;其中伸长度P=S/W2,W为连通域平均宽度;如果面积和伸长度小于各自阈值,则将对应区域的像素值置为0,得到连通域滤波后的二值图像Fcd
步骤2.4:高速公路边缘检测
采用概率Hough变换直线检测对高速公路边缘检测;
步骤3:从大量数据点中均衡、充分的提取出每条车道线的特征点候选区域
使用Hough变换对航拍图像车道线分割结果图像中的车道线进行一遍粗提取,得到多条直线段,然后再以这些直线段的端点作为特征样本点进行聚类处理;
步骤4:基于线间距的相似度度量方式构造相似度矩阵,对不同车道线的特征点聚类,具体包括如下过程:
选取相似函数构造相似度矩阵,dij表示采样特征点i,j之间的距离,wij表示采样特征点i,j的相似性;
通过相似性矩阵构造拉普拉斯矩阵
其中,
选取最大的个特征向量,然后采用Kmeans聚类方法对特征向量矩阵中的行向量按照某种聚类准则聚类处理;
步骤5:对车道线建立三次B样条模型,利用改进的RANSAC算法对模型进行参数估计
采用三次B样条曲线作为车道线的曲线模型,方程如下式:
其中,T(t)=[tn…t2t 1],M为样条曲线的系数矩阵,P为控制点矩阵;
采用改进的RANSAC算法对模型进行参数估计;
步骤6:车道线参数修正和预测
采用Kalman滤波器对车道线参数修正与预测,其状态方程为:
X(k+1)=A·X(k)+B·U(k)+W(k)
其中,X(k+1)为第k+1时刻的状态值;X(k)为前一时刻k的状态值;A为状态转移矩阵;B为控制输入矩阵;U(k)为时刻k的控制向量;W(k)过程噪声,W(k)~N(0,Q);
观测方程为
Z(k+1)=H·X(k)+V(k)
其中,H为观测矩阵;Z(k+1)为k+1时刻的测量结果;V(k)为观测噪声,V(k)~N(0,R);
采用的三次B样条曲线车道线模型,变换其方程为:
仅对x值进行预测与矫正,将Kalman滤波器的状态向量定义如下:
X(k)=[a0,a1,a2,a3,Δa1,Δa2,Δa3,Δa4]T
状态转移矩阵为
输入控制矩阵为B=0,观测矩阵为
观测矢量为Z(k)=[a0,a1,a2,a3]T
如果当前帧存在某车道线没能正确检测时,利用Kalman滤波器的预测结果作为当前值,或者如果当前帧某车道线曲线检测结果存在较大误差,利用Kalman滤波器的预测值进行修正。
2.根据权利要求1所述的基于线间距特征点聚类的航拍视频公路车道线检测方法,其特征在于,所述步骤2.2中采用灰度图像分割OTSU算法进行阈值分割。
3.根据权利要求1所述的基于线间距特征点聚类的航拍视频公路车道线检测方法,其特征在于,所述步骤2.4具体包括如下过程:
Step1:从大小为m×n的二值图像Fcd中收集所有白色点坐标,得到一个坐标集C1,并创建一个总行数为181,总列数为2×(m+n)的参数空间矩阵D,参数空间矩阵D的所有元素的初值为0,然后进行Step2;
Step2:若坐标集C1已为空集,结束;反之,则随机抽取C1中的一对坐标(xp,yp),并且从坐标集C1中去除当前抽取的这一对坐标,然后进行步骤Step3;
Step3:将当前抽取的这一对坐标(xp,yp)按如下公式进行变换:
ρ=xp·cos(θ)+yp·sin(θ),θ=0°,1°,2°,…,180°
得到181组ρ和θ,再分别对参数空间矩阵D中坐标为(θ+1,[ρ]+M+N)的元素加1,其中[ρ]表示对ρ取整数,然后找出参数空间矩阵D中所有元素的最大值max及其所在坐标(θm+1,ρm+M+N),再判断这个最大值max是否大于给定阈值lineThresh,如果大于,则进行步骤Step4,否则返回步骤Step2;
Step4:由最大值所在坐标(θm+1,ρm+M+N)即可确定车道线二值图像中的一条直线,在车道线二值图像中,以当前抽取的像素点(xp,yp)为起始点,沿着ρm=x·cos(θm)+y·sin(θm)这条直线搜索白色点,当遇到图像边界或者连续黑色点的数量超过maxGap时,结束搜索,若此时搜索线段两个端点距离小于LenghThresh,则去除坐标集C1中已经确定属于这条直线段白色点的坐标,否则先记录下当前直线段的两个端点坐标,以及参数(ρmm),然后再去除坐标集C1中已经确定属于这条直线段白色点的坐标,并且将已经确定属于这条直线段的白色点坐标(xi,yi),i=1,2,…,N,按照公式ρ=xi·cos(θ)+yi·sin(θ),θ=0°,1°,2°,…,180°进行变换,然后对参数空间矩阵D中坐标为(θ+1,[ρ]+M+N)的元素减1,最后返回步骤Step2;
将LenghThresh设置的足够大、maxGap设置的比较小,将检测到的边缘线两侧像素点的像素值置为0,得到最终的图像分割结果Fseg
4.根据权利要求1所述的基于线间距特征点聚类的航拍视频公路车道线检测方法,其特征在于,所述步骤3中采用的Hough变换过程与步骤2.4过程相同。
5.根据权利要求4所述的基于线间距特征点聚类的航拍视频公路车道线检测方法,其特征在于,线段长度阈值LengthThresh小于步骤2.4中的线段长度长度阈值,最大连续黑色点长度maxGap小于步骤2.4中的最大连续黑色点长度。
6.根据权利要求1所述的基于线间距特征点聚类的航拍视频公路车道线检测方法,其特征在于,所述步骤5中改进的RANSAC算法包括以下步骤:
(1)最小子集采样
将所有的车道线数据点按照纵坐标进行排序,然后在纵坐标区间按照区间宽度比例1:1:2:4的比例抽取出四个车道线数据点Q1、Q2、Q3、Q4,另外增加一个起点Q0和终点Q5;其中起点Q0从区间1的数据点所在切线与上边缘的交点集中抽取,当区间1点数不够时,抽取部分区间2数据点;终点Q5从区间4的数据点所在切线与图像下边缘的交点集中抽取,当区间4的数据点不够时,抽取区间3的部分数据点;
(2)模型参数计算
对于n个数据点为(x1,y1),(x2,y2),…,(xn,yn),每一个数据点pi对应存在一个任意正比于从起始点到第i点pi的路程,即正比于从起始点依次经过第i点之前的所有点的欧氏距离总和,对于每一个定义如下式:
其中,当(xj-xj-1)2<<(yj-yj-1)2时,直接取d(pj,pj-1)=yj-yj-1;若区间范围内的点d(pj,pj-1)=yj-yj-1;当最小采样集中任意一组相邻点之间都满足时,每一个数据点对应的将转化为其中H为图像高度,此时B样条曲线将等价于三次多项式曲线x=a+by+cy2+dy3
对于最小采样集中的m个采样点Q0、Q1、…、Qm,其生成的矩阵Q以及根据每个采样点对应生成的矩阵T分别表示如下式:
将三次B样条曲线方程得参数矩阵P如下式:
代入Q,T表达式即可计算出参数矩阵P;
(3)参数验证
设目标函数:
其中,s(pi)定义如下:
d(pi)为数据点到样条曲线的距离,定义为ε表示一个很小的阈值,一般选作5像素;本步骤需要确定一个阈值ts,如果Score大于这个阈值ts就停止下一次的拟合操作。
7.根据权利要求1所述的基于线间距特征点聚类的航拍视频公路车道线检测方法,其特征在于,所述步骤(3)参数验证中Score阈值ts至少比最小抽样集中的数据个数大5。
CN201811045108.7A 2018-09-07 2018-09-07 基于线间距特征点聚类的航拍视频公路车道线检测方法 Active CN109409205B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811045108.7A CN109409205B (zh) 2018-09-07 2018-09-07 基于线间距特征点聚类的航拍视频公路车道线检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811045108.7A CN109409205B (zh) 2018-09-07 2018-09-07 基于线间距特征点聚类的航拍视频公路车道线检测方法

Publications (2)

Publication Number Publication Date
CN109409205A true CN109409205A (zh) 2019-03-01
CN109409205B CN109409205B (zh) 2021-11-26

Family

ID=65464670

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811045108.7A Active CN109409205B (zh) 2018-09-07 2018-09-07 基于线间距特征点聚类的航拍视频公路车道线检测方法

Country Status (1)

Country Link
CN (1) CN109409205B (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110070012A (zh) * 2019-04-11 2019-07-30 电子科技大学 一种应用于遥感影像道路网络提取的细化和全局连接方法
CN110300241A (zh) * 2019-08-05 2019-10-01 上海天诚比集科技有限公司 一种视频检测区噪声帧去除方法
CN110672628A (zh) * 2019-09-27 2020-01-10 中国科学院自动化研究所 板材包边接缝定位方法、系统、装置
CN111695389A (zh) * 2019-03-15 2020-09-22 北京四维图新科技股份有限公司 一种车道线聚类方法及装置
CN112258844A (zh) * 2020-11-05 2021-01-22 浙江点辰航空科技有限公司 一种使用无人机对高速公路急车道进行巡检的方法
CN112270730A (zh) * 2020-11-17 2021-01-26 Oppo广东移动通信有限公司 曲线生成方法及装置、电子设备和可读存储介质
CN112464737A (zh) * 2020-11-04 2021-03-09 浙江预策科技有限公司 道路标线的检测与识别方法、电子装置和存储介质
CN112488046A (zh) * 2020-12-15 2021-03-12 中国科学院地理科学与资源研究所 一种基于无人机高分辨率影像的车道线提取方法
CN112926548A (zh) * 2021-04-14 2021-06-08 北京车和家信息技术有限公司 一种车道线检测方法、装置、电子设备及存储介质
CN113168708A (zh) * 2020-04-28 2021-07-23 华为技术有限公司 车道线跟踪方法和装置
WO2021151321A1 (zh) * 2020-08-07 2021-08-05 平安科技(深圳)有限公司 一种识别车道线的方法、装置、设备及存储介质
CN113450402A (zh) * 2021-07-16 2021-09-28 天津理工大学 用于蔬菜大棚巡检机器人的导航中心线提取方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102208019A (zh) * 2011-06-03 2011-10-05 东南大学 基于车载摄像机的车辆变道检测方法
CN105005778A (zh) * 2015-08-14 2015-10-28 东南大学 一种基于视觉背景提取的高速公路车辆检测方法
CN105740809A (zh) * 2016-01-28 2016-07-06 东南大学 一种基于机载摄像机的高速公路车道线检测方法
CN106991401A (zh) * 2017-04-06 2017-07-28 大连理工大学 一种基于K‑means聚类算法的车道线检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102208019A (zh) * 2011-06-03 2011-10-05 东南大学 基于车载摄像机的车辆变道检测方法
CN105005778A (zh) * 2015-08-14 2015-10-28 东南大学 一种基于视觉背景提取的高速公路车辆检测方法
CN105740809A (zh) * 2016-01-28 2016-07-06 东南大学 一种基于机载摄像机的高速公路车道线检测方法
CN106991401A (zh) * 2017-04-06 2017-07-28 大连理工大学 一种基于K‑means聚类算法的车道线检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
LI YONGBING等: "lane detection using spline model for freeway aerial videos", 《ICDIP 2018》 *

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111695389A (zh) * 2019-03-15 2020-09-22 北京四维图新科技股份有限公司 一种车道线聚类方法及装置
CN111695389B (zh) * 2019-03-15 2023-06-20 北京四维图新科技股份有限公司 一种车道线聚类方法及装置
CN110070012B (zh) * 2019-04-11 2022-04-19 电子科技大学 一种应用于遥感影像道路网络提取的细化和全局连接方法
CN110070012A (zh) * 2019-04-11 2019-07-30 电子科技大学 一种应用于遥感影像道路网络提取的细化和全局连接方法
CN110300241A (zh) * 2019-08-05 2019-10-01 上海天诚比集科技有限公司 一种视频检测区噪声帧去除方法
CN110300241B (zh) * 2019-08-05 2021-09-17 上海天诚比集科技有限公司 一种视频检测区噪声帧去除方法
CN110672628A (zh) * 2019-09-27 2020-01-10 中国科学院自动化研究所 板材包边接缝定位方法、系统、装置
CN113168708B (zh) * 2020-04-28 2022-07-12 华为技术有限公司 车道线跟踪方法和装置
WO2021217420A1 (zh) * 2020-04-28 2021-11-04 华为技术有限公司 车道线跟踪方法和装置
CN113168708A (zh) * 2020-04-28 2021-07-23 华为技术有限公司 车道线跟踪方法和装置
WO2021151321A1 (zh) * 2020-08-07 2021-08-05 平安科技(深圳)有限公司 一种识别车道线的方法、装置、设备及存储介质
CN112464737B (zh) * 2020-11-04 2022-02-22 浙江预策科技有限公司 道路标线的检测与识别方法、电子装置和存储介质
CN112464737A (zh) * 2020-11-04 2021-03-09 浙江预策科技有限公司 道路标线的检测与识别方法、电子装置和存储介质
CN112258844B (zh) * 2020-11-05 2022-05-27 浙江点辰航空科技有限公司 一种使用无人机对高速公路急车道进行巡检的方法
CN112258844A (zh) * 2020-11-05 2021-01-22 浙江点辰航空科技有限公司 一种使用无人机对高速公路急车道进行巡检的方法
CN112270730A (zh) * 2020-11-17 2021-01-26 Oppo广东移动通信有限公司 曲线生成方法及装置、电子设备和可读存储介质
CN112488046B (zh) * 2020-12-15 2021-07-16 中国科学院地理科学与资源研究所 一种基于无人机高分辨率影像的车道线提取方法
CN112488046A (zh) * 2020-12-15 2021-03-12 中国科学院地理科学与资源研究所 一种基于无人机高分辨率影像的车道线提取方法
CN112926548A (zh) * 2021-04-14 2021-06-08 北京车和家信息技术有限公司 一种车道线检测方法、装置、电子设备及存储介质
CN113450402A (zh) * 2021-07-16 2021-09-28 天津理工大学 用于蔬菜大棚巡检机器人的导航中心线提取方法
CN113450402B (zh) * 2021-07-16 2022-12-13 天津理工大学 用于蔬菜大棚巡检机器人的导航中心线提取方法

Also Published As

Publication number Publication date
CN109409205B (zh) 2021-11-26

Similar Documents

Publication Publication Date Title
CN109409205B (zh) 基于线间距特征点聚类的航拍视频公路车道线检测方法
CN107679520B (zh) 一种适用于复杂条件下的车道线视觉检测方法
CN109886896B (zh) 一种蓝色车牌分割与矫正方法
CN109145915B (zh) 一种复杂场景下车牌快速畸变矫正方法
CN110659539B (zh) 一种信息处理方法、装置及机器可读存储介质
CN109101924B (zh) 一种基于机器学习的路面交通标志识别方法
CN110516550B (zh) 一种基于fpga的车道线实时检测方法
CN109657632B (zh) 一种车道线检测识别方法
CN101334836B (zh) 一种融合色彩、尺寸和纹理特征的车牌定位方法
CN102509098B (zh) 一种鱼眼图像车辆识别方法
CN108229475B (zh) 车辆跟踪方法、系统、计算机设备及可读存储介质
CN106682586A (zh) 一种复杂光照条件下基于视觉的实时车道线检测的方法
CN109800752B (zh) 一种基于机器视觉的汽车车牌字符分割识别算法
CN106683073B (zh) 一种车牌的检测方法及摄像机和服务器
CN104899554A (zh) 一种基于单目视觉的车辆测距方法
KR101067437B1 (ko) 차선검출방법 및 이를 이용한 차선이탈검출시스템
CN111709417B (zh) 一种矿车车牌识别方法
CN107610114A (zh) 基于支持向量机的光学卫星遥感影像云雪雾检测方法
CN110866430A (zh) 一种车牌识别方法及装置
CN107194393B (zh) 一种检测临时车牌的方法及装置
Youjin et al. A robust lane detection method based on vanishing point estimation
CN110427979B (zh) 基于K-Means聚类算法的道路水坑识别方法
CN112580447B (zh) 一种基于边缘二阶统计与融合的电力线检测方法
CN112906583A (zh) 一种车道线检测方法及装置
CN110689003A (zh) 低照度成像车牌识别方法、系统、计算机设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant