CN105005778B - 一种基于视觉背景提取的高速公路车辆检测方法 - Google Patents
一种基于视觉背景提取的高速公路车辆检测方法 Download PDFInfo
- Publication number
- CN105005778B CN105005778B CN201510502841.7A CN201510502841A CN105005778B CN 105005778 B CN105005778 B CN 105005778B CN 201510502841 A CN201510502841 A CN 201510502841A CN 105005778 B CN105005778 B CN 105005778B
- Authority
- CN
- China
- Prior art keywords
- pixel
- image
- point
- background
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
一种基于改进的视觉背景提取的高速公路车辆检测方法,第一步,初始化读入图像,将输入的彩色图像转换为灰度图像;第二步,对图像进行背景建模,如果是第一帧图像,则进行背景初始化,否则进行背景更新,从而分割出背景;第三步,从前景中分割出路面;第四步,对图像进行八邻域填充;第五步,利用车道线较窄的特点来去除车道线;第六步,采用纵向填充的方法来填充车辆内部;第七步,提取车辆区域并绘制车辆区域的外接矩形框;本发明采用图像处理的方式检测无人机航拍视频中的高速公路上的车辆,成本低廉,检测精度高,实时性好,适用面广。
Description
技术领域
本发明涉及图像处理和交通视频检测领域,是一种基于视觉背景提取的高速公路车辆检测方法,主要应用于高速公路上的车辆检测。
背景技术
在高速公路环境下,目前广泛应用的交通信息采集技术受硬件条件的制约,均无法采集一个较大范围内的交通信息,同时在突发交通事故或者道路出现大面积的拥堵时,也无法做到及时检测。如果采用无人机交通信息采集技术就可以突破空间距离因素的制约,克服特殊地理与环境条件的影响。基于无人机的车辆检测具有无可比拟的优势,必将成为未来高速公路交通信息提取的发展方向。
在检测车辆时,如果背景是静止的,那么传统的运动目标检测算法都可以适用。但是由于无人机在飞行时,背景在以与无人机航向相反的方向运动,因而检测难度就大大增加。现如今针对背景运动的运动目标检测方法主要有两种。第一种是光流法,先计算出所有光流点的运动矢量,然后根据这些矢量估算出背景运动的大概方向,再结合其他一些特征来检测运动目标。第二种方法就是通过训练大量的正负样本,得到一个鲁棒性强的分类器,将分类器投入视频场景中进行运动目标的检测。
发明内容
本发明是一种精确度较高、运算量较小的基于视觉背景提取的高速公路车辆检测方法。
为了实现该目标,本发明采取如下技术方案:
一种基于视觉背景提取的高速公路车辆检测方法,按照以下步骤进行:
步骤1:初始化:当无人机的航拍满足一定的要求,包括无人机的飞行高度距离高速公路路面60~70米、无人机的飞行速度为15~20千米/时、无人机的飞行方向与车辆的行驶方向一致、无人机始终位于高速公路正中心的上方、机载摄像机的分辨率为200万像素,航拍视频的帧速率为25帧/秒,此时从无人机的机载摄像机读入视频文件,并截取一帧大小的彩色图像,其中和为正整数,分别表示彩色图像的宽度和高度,然后将获得的彩色图像从彩色空间转换到灰度空间,得到大小为的灰度图像,记为;
步骤2:对图像进行背景建模:如果图像对应于视频文件的第一帧图像,则进行背景模型的初始化,否则,进行背景模型的更新;
所述背景模型的初始化过程为:
为图像中的每一个像素点建立一个灰度值集合,其中和分别是像素点的横坐标和纵坐标,用表示像素点的灰度值集合,中元素的数量为,用表示中第个元素的值,其中,则可具体表示为
,
接下来要对进行初始化,即对中的每一个元素的值进行初始化,用表示的初始值,用表示像素点的空间邻域,其中表示所取空间邻域的范围,当为边界点时,只包含图像中真正存在的的空间邻域点。中的元素是通过随机选择中的像素点的灰度值组成的,用表示中横坐标为、纵坐标为的像素点,用表示在第一帧图像中的灰度值,则具体表示为
。
然后提取高速公路路面的灰度值范围:首先检测出图像中的高速公路上的车道线,可以使用目前流行的车道线检测方法,包括Hough变换检测法、最小二乘拟合法、RANSAC检测法等。然后利用检测到的车道线获取高速公路区域以及车道线之间的每一个车道区域,接下来计算每一个车道区域的灰度直方图,最后找出每个灰度直方图的最高直方块并得到其所对应的灰度值范围,从各个最高直方块对应的灰度值范围中选出最小灰度值和最大灰度值,并分别以最小灰度值和最大灰度值作为整个高速公路路面灰度值范围的边界点,高速公路路面灰度值范围记为,其中表示所选出的最小灰度值,表示所选出的最大灰度值;
所述背景模型的更新过程为:如果图像中像素点的灰度值在高速公路路面灰度值范围之外,则将其归为前景点;否则以图像中像素点的灰度值为中心为半径定义一个灰度值范围,用表示,选取,如果此灰度值范围与的灰度值集合的交集,即
中元素的个数大于设定的阈值,选取,则认为此为背景点,否则为前景点,如果为背景点,则定义一个时间子采样要素,选取,有的概率用的当前灰度值去替换的灰度值集合中的任意一个元素,同时也有的概率用的当前灰度值去替换的空间邻域中任意一个像素点的灰度值集合中的任意一个元素,最后,对的状态进行统计,如果其连续被检测为前景点的次数达到,选取,则将其更新为背景点,以此过程来遍历处理图像中的每个像素点;
步骤3:路面分割:首先检测出每一帧图像中最外层的两条车道线,然后将位于这两个车道线外侧的像素点设置为背景点;
步骤4:八邻域填充:对被检测为背景点的的八邻域内的所有像素点进行前景点个数统计,如果前景点的个数大于等于设定的阈值,则将设置为前景点,其中,;
步骤5:去除车道线:利用车道线较窄的特点来去除车道线,具体流程为:
步骤5.1逐行扫描图像像素点,当扫描到的像素点为背景点时,将其记为并进入步骤5.2;
步骤5.2定义两个临时变量,,并令,,其中表示后的待扫描的像素点的横坐标,其初始值为后的第一个待扫描的像素点的横坐标,并用表示图像中横坐标为,纵坐标为的像素点,即位于的正右侧,为计数器且用于表示位于正右侧的连续前景点的个数,然后进入步骤5.3;
步骤5.3如果当前的为前景点,则令,,然后重复步骤5.3,否则进入步骤5.4;
步骤5.4 如果大于0并且小于设定的阈值,选取,则将和当前之间的像素点都设置为背景点,如果大于或等于阈值,则不做任何改变,进入步骤5.5;
步骤5.5 令,然后检查是否扫描结束,如果扫描没有结束,则跳转至步骤5.1继续扫描图像,如果扫描结束,则进入步骤6;
步骤6:填充车辆内部:采用纵向填充的方法来填充车辆内部,具体流程为:
步骤6.1逐行扫描图像像素点,当扫描到的像素点为背景点时,将其记为并进入步骤6.2;
步骤6.2定义一个临时变量,并令,其中表示位于正上方的第个像素点的纵坐标,为自然数,选取,如果此时,则令,用表示图像中横坐标为,纵坐标为的像素点,即位于的正上方,然后进入步骤6.3;
步骤6.3如果为背景点并且,则令,然后重复步骤6.3,否则进入步骤6.4;
步骤6.4如果,则跳转至步骤6.1继续扫描图像,如果,则定义一个临时变量,并令,其中表示位于正下方第个像素点的纵坐标,如果此时,其中是图像的高度,则令,用表示图像中横坐标为,纵坐标为的像素点,即位于的正下方,然后进入步骤6.5;
步骤6.5如果为背景点并且,则令,然后重复步骤6.5,否则进入步骤6.6;
步骤6.6如果,则跳转至步骤6.1继续扫描图像,如果,则将和之间的所有像素点都设置为前景点,然后检查是否扫描结束,如果扫描没有结束,则跳转至步骤6.1继续扫描图像,如果扫描结束,则进入步骤7;
步骤7:提取车辆区域并绘制车辆区域的外接矩形框,具体流程为:
步骤7.1逐行扫描图像像素点,当扫描到的像素点为前景点并且没有赋予其任何标记时,将其记为并进入步骤7.2;
步骤7.2赋予当前像素点一个标记,用表示,然后遍历当前像素点的八邻域内的所有像素点,并将其中所有的前景点放入一个点的集合中,然后进入步骤7.3;
步骤7.3从中取出一个前景点,也赋予其标记,然后再将所取前景点八邻域内的所有没有标记过的前景点存入中,然后判断是否为空集,如果不是,则重复步骤7.3,否则进入步骤7.4;
步骤7.4所有具有标记的像素点便组成了一个车辆区域,找出这些点中的最上点、最下点、最左点、最右点,便得到了此车辆区域的外接矩形框,然后进入步骤7.5;
步骤7.5将得到的外接矩形框存储起来,然后检查是否扫描结束,如果扫描没有结束,则跳转至步骤7.1继续扫描图像,如果扫描结束,则跳转至步骤1继续截取下一帧图像。
与现有的技术相比,本发明的特点在于:
1)采用无人机进行车辆检测:在高速公路环境下,目前广泛应用的交通信息采集技术受硬件条件的制约,均无法采集一个较大范围内的交通信息,同时在突发交通事故或者道路出现大面积的拥堵时,也无法做到及时检测。如果采用无人机交通信息采集技术就可以突破空间距离因素的制约,克服特殊地理与环境条件的影响。基于无人机的车辆检测具有无可比拟的优势,必将成为未来高速公路交通信息提取的发展方向。
2)针对背景运动的运动目标检测方法:在检测车辆时,如果背景是静止的,那么传统的运动目标检测算法都可以适用。但是由于无人机在飞行时,背景在以与无人机航向相反的方向运动,因而检测难度就大大增加。现如今针对背景运动的运动目标检测方法主要有两种。第一种是光流法,先计算出所有光流点的运动矢量,然后根据这些矢量估算出背景运动的大概方向,再结合其他一些特征来检测运动目标,这种方法只能适用于背景变化很慢的情况,如果处理像无人机航拍视频这种背景变化很快的视频,其效果就不太理想。第二种方法就是通过训练大量的正负样本,得到一个鲁棒性强的分类器,将分类器投入视频场景中进行运动目标的检测,这种方法的检测精度很高,但是需要采集和训练大量的正样本和负样本,像处理高速公路这种环境复杂、车辆特征不明显的情况,其前期工作量就会很大,而且检测精度也会降低。针对以上方法的不足,本专利提出了一种基于视觉背景提取的高速公路车辆检测方法,这种方法只对视频的每一帧图像进行单独处理,不需要做任何前期工作,并且可以很好地处理背景变化快速的无人机航拍视频,从而实现高速公路上的车辆检测。
3)对原本的视觉背景提取模型做了一些改进:由于无人机拍摄的视频中背景是动态变化的,所以可以很好地处理静态背景的传统背景分割方法,例如背景差分法、帧间差分法和混合高斯背景建模法等等不再适用。视觉背景提取模型是一种专门处理视频的背景分割方法。本专利对视觉背景提取模型做了一些改进,用以实现无人机航拍视频中背景与前景的分割。对视觉背景提取模型的改进主要包括两个方面,一个是先在模型初始化过程中得到整个高速公路路面的灰度值范围,然后在模型更新过程中,判断每一个像素点的灰度值是否在这个灰度值范围之内,如果不在,则将其归为前景点,否则仍然使用视觉背景提取模型的更新策略来判断其类型,另一个是在模型更新过程中加入前景点计数,即对像素点进行统计,如果某个像素点连续许多帧都被检测为前景点,则将其更新为背景点。
4)提出了几种形态学图像处理方法来处理背景分割后的图像:完成了对前景和背景的分割,接下来就是要检测出高速公路上的车辆。针对背景分割后的二值图像,本专利提出了几种形态学图像处理方法,以提高车辆检测的准确性和实时性。首先分割出路面,然后对图像进行八邻域填充,接下来去除同样被分割为前景的车道线,之后对车辆内部进行填充,最后提取出车辆区域,完成对车辆的检测。
5)成本低廉:相对于目前的针对背景运动的运动目标检测方法,本发明方法并不需要采集样本,也不需要拍摄图像中没有运动目标的纯背景图像,而只需要一个用本发明方法编写而成的视频处理软件就可以检测出无人机航拍视频中的高速公路上的车辆。
6)检测精度高:当高速公路上的车辆较少时,如一帧图像中的车辆少于30辆时,本发明方法的车辆检测正确率达到93%,而当高速公路上的车辆较多时,如一帧图像中的车辆多于50辆时,本发明方法的车辆检测正确率也达到82%;
7)实时性好:出于安全的考虑,在高速公路上方飞行的无人机的飞行高度至少在100米以上,这种情况下为了保证航拍视频的清晰度,安装在无人机上的摄像机的分辨率必须很高,因而拍摄出来的航拍视频的像素分辨率就会很大,例如视频帧宽度为1920,视频帧高度为1080,当处理这么大的视频帧图像时,目前针对背景运动的运动目标检测方法均无法做到实时检测,而本发明方法处理这样一帧图像,平均耗时小于60毫秒,接近于实时处理。
8)适用面广:本发明方法只需要按照指定要求使用无人机对高速公路进行航拍,然后根据航拍视频适当调整软件的一些参数,就可以很好地实现车辆检测,因而本发明方法可以应用于多种不同背景环境下的高速公路的车辆检测。
附图说明
图1是整个系统的流程图。
图2是背景建模的具体流程图。
图3是路面分割的具体流程图。
图4是八邻域填充的具体流程图。
图5是去除车道线的具体流程图。
图6是填充车辆内部的具体流程图。
图7是提取车辆区域的具体流程图。
具体实施方式
在具体的实施方式中,将结合附图,清楚完整地描述基于视觉背景提取的高速公路车辆检测的详细过程,
一种基于视觉背景提取的高速公路车辆检测方法,其特征在于按照以下步骤进行:
步骤1:初始化:当无人机的航拍满足一定的要求,包括无人机的飞行高度距离高速公路路面60~70米、无人机的飞行速度为15~20千米/时、无人机的飞行方向与车辆的行驶方向一致、无人机始终位于高速公路正中心的上方、机载摄像机的分辨率为200万像素,航拍视频的帧速率为25帧/秒,此时从无人机的机载摄像机读入视频文件,并截取一帧大小的彩色图像,其中和为正整数,分别表示彩色图像的宽度和高度,然后对于彩色图像中的每一个像素点,用分别表示其颜色中所包含的红色、绿色、蓝色分量值,利用公式
计算得到的结果作为每一个像素点的灰度值,从而将彩色图像转换为灰度图像,得到的灰度图像记为,大小为;
步骤2:对图像进行背景建模:模型中前景点指的是像素值为255的像素点,背景点指的是像素值为0的像素点,如果图像对应于视频文件的第一帧图像,则进行背景模型的初始化,否则,进行背景模型的更新;
所述背景模型的初始化过程为:
为图像中的每一个像素点建立一个灰度值集合,其中和分别是像素点的横坐标和纵坐标,用表示像素点的灰度值集合,中元素的数量为,选取,用表示中第个元素的值,其中,则可具体表示为
,
接下来要对进行初始化,即对中的每一个元素的值进行初始化,用表示的初始值,用表示像素点的空间邻域,其中表示所取空间邻域的范围,例如,当时,所取的空间邻域是四邻域,即,当时,所取的空间邻域是八邻域,即,取为八邻域,即,当为边界点时,只包含图像中真正存在的的空间邻域点。中的元素是通过随机选择中的像素点的灰度值组成的,用表示中横坐标为、纵坐标为的像素点,用表示在第一帧图像中的灰度值,则具体表示为
。
然后提取高速公路路面的灰度值范围:首先检测出图像中的高速公路上的车道线,可以使用目前流行的车道线检测方法,包括Hough变换检测法、最小二乘拟合法、RANSAC检测法等。本发明采用的是Hough变换检测法。然后利用检测到的车道线获取高速公路区域以及车道线之间的每一个车道区域,接下来计算每一个车道区域的灰度直方图,最后找出每个灰度直方图的最高直方块并得到其所对应的灰度值范围,从各个最高直方块对应的灰度值范围中选出最小灰度值和最大灰度值,并分别以最小灰度值和最大灰度值作为整个高速公路路面灰度值范围的边界点,高速公路路面灰度值范围记为,其中表示所选出的最小灰度值,表示所选出的最大灰度值;
所述背景模型的更新过程为:如果图像中像素点的灰度值在高速公路路面灰度值范围之外,则将其归为前景点;否则以图像中像素点的灰度值为中心为半径定义一个灰度值范围,用表示,选取,如果此灰度值范围与的灰度值集合的交集,即
中元素的个数大于设定的阈值,选取,则认为此为背景点,即令,否则为前景点,即令,如果为背景点,则定义一个时间子采样要素,选取,有的概率用的当前灰度值去替换的灰度值集合中的任意一个元素,同时也有的概率用的当前灰度值去替换的空间邻域中任意一个像素点的灰度值集合中的任意一个元素,具体实施操作是通过随机数产生器随机产生一个范围内的整数,如果产生的整数为0,则用的当前灰度值去替换的灰度值集合中的任意一个元素,同时也用的当前灰度值去替换的空间邻域中任意一个像素点的灰度值集合中的任意一个元素,最后,对的状态进行统计,如果其连续被检测为前景点的次数达到,选取,则将其更新为背景点即令,以此过程来遍历处理图像中的每个像素点;
步骤3:路面分割:首先利用Hough变换检测法检测出每一帧图像中最外层的两条车道线,得到它们的拟合直线表达式和,其中和分别是最左边车道线的拟合斜率和截距,和分别是最右边车道线的拟合斜率和截距,然后对于图像中的每一个像素点,将其纵坐标代入到拟合直线表达式和中,得到两个值和,然后判断的横坐标是否满足,如果满足,则不做任何处理,如果不满足,则将其设置为背景点,即令;
步骤4:八邻域填充:对被检测为背景点的的八邻域内的所有像素点进行前景点个数统计,如果前景点的个数大于等于设定的阈值,选取,则将设置为前景点,即令,其中,;
步骤5:去除车道线:利用车道线较窄的特点来去除车道线,具体流程为:
步骤5.1逐行扫描图像像素点,当扫描到的像素点为背景点时,将其记为并进入步骤5.2;
步骤5.2定义两个临时变量,,并令,,其中表示后的待扫描的像素点的横坐标,其初始值为后的第一个待扫描的像素点的横坐标,并用表示图像中横坐标为,纵坐标为的像素点,即位于的正右侧,为计数器且用于表示位于正右侧的连续前景点的个数,然后进入步骤5.3;
步骤5.3如果当前的为前景点,则令,,然后重复步骤5.3,否则进入步骤5.4;
步骤5.4 如果大于0并且小于设定的阈值,选取,则将和当前之间的像素点都设置为背景点,即令
,
其中表示位于和之间的像素点,表示的横坐标,表示的灰度值,如果大于或等于阈值,则不做任何改变,进入步骤5.5;
步骤5.5 令,然后检查是否扫描结束,如果扫描没有结束,则跳转至步骤5.1继续扫描图像,如果扫描结束,则进入步骤6;
步骤6:填充车辆内部:采用纵向填充的方法来填充车辆内部,具体流程为:
步骤6.1逐行扫描图像像素点,当扫描到的像素点为背景点时,将其记为并进入步骤6.2;
步骤6.2定义一个临时变量,并令,其中表示位于正上方的第个像素点的纵坐标,为自然数,选取,如果此时,则令,用表示图像中横坐标为,纵坐标为的像素点,即位于的正上方,然后进入步骤6.3;
步骤6.3如果为背景点并且,则令,然后重复步骤6.3,否则进入步骤6.4;
步骤6.4如果,则跳转至步骤6.1继续扫描图像,如果,则定义一个临时变量,并令,其中表示位于正下方第个像素点的纵坐标,如果此时,其中是图像的高度,则令,用表示图像中横坐标为,纵坐标为的像素点,即位于的正下方,然后进入步骤6.5;
步骤6.5如果为背景点并且,则令,然后重复步骤6.5,否则进入步骤6.6;
步骤6.6如果,则跳转至步骤6.1继续扫描图像,如果,则将和之间的所有像素点都设置为前景点,即令
,
其中表示位于和之间的像素点,表示的纵坐标,表示的灰度值,然后检查是否扫描结束,如果扫描没有结束,则跳转至步骤6.1继续扫描图像,如果扫描结束,则进入步骤7;
步骤7:提取车辆区域并绘制车辆区域的外接矩形框,具体流程为:
步骤7.1逐行扫描图像像素点,当扫描到的像素点为前景点并且没有赋予其任何标记时,将其记为并进入步骤7.2;
步骤7.2赋予当前像素点一个标记,用表示,然后遍历当前像素点的八邻域内的所有像素点,并将其中所有的前景点放入一个点的集合中,然后进入步骤7.3;
步骤7.3从中取出一个前景点,也赋予其标记,然后再将所取前景点八邻域内的所有没有标记过的前景点存入中,然后判断是否为空集,如果不是,则重复步骤7.3,否则进入步骤7.4;
步骤7.4所有具有标记的像素点便组成了一个车辆区域,找出这些点中的最上点、最下点、最左点、最右点,便得到了此车辆区域的外接矩形框,然后进入步骤7.5;
步骤7.5将得到的外接矩形框存储起来,然后检查是否扫描结束,如果扫描没有结束,则跳转至步骤7.1继续扫描图像,如果扫描结束,则跳转至步骤1继续截取下一帧图像。
Claims (1)
1.一种基于视觉背景提取的高速公路车辆检测方法,其特征在于按照以下步骤进行:
步骤1:初始化:用无人机对高速公路进行航拍,所述无人机的飞行高度距离高速公路路面60~70米,无人机的飞行速度为15~20千米/时,无人机的飞行方向与车辆的行驶方向一致,无人机始终位于高速公路正中心的上方,机载摄像机的分辨率为200万像素,航拍视频的帧速率为25帧/秒,然后从无人机的机载摄像机读入视频文件,并截取一帧W×H×3大小的彩色图像,其中W和H为正整数,分别表示彩色图像的宽度和高度,然后将获得的彩色图像从彩色空间转换到灰度空间,得到大小为W×H的灰度图像,记为F;
步骤2:对图像F进行背景建模:如果图像F对应于视频文件的第一帧图像,则进行背景模型的初始化,否则,进行背景模型的更新;
所述背景模型的初始化过程为:
先为图像F中的每一个像素点P(x,y)建立一个灰度值集合,其中x和y分别是像素点P(x,y)的横坐标和纵坐标,用M(P(x,y))表示像素点P(x,y)的灰度值集合,M(P(x,y))中元素的数量为N,用vi表示M(P(x,y))中第i个元素的值,其中1≤i≤N,则M(P(x,y))可具体表示为
M(P(x,y))={v1,v2,...,vN},
接下来要对M(P(x,y))进行初始化,即对M(P(x,y))中的每一个元素的值进行初始化,用M0(P(x,y))表示M(P(x,y))的初始值,用NG(P(x,y))表示像素点P(x,y)的空间邻域,其中G表示所取空间邻域的范围,如果P(x,y)为边界点,则NG(P(x,y))由图像F中真正存在的P(x,y)的空间邻域点构成,M0(P(x,y))中的元素是通过随机选择NG(P(x,y))中的像素点的灰度值组成的,用P(x',y')表示NG(P(x,y))中横坐标为x'、纵坐标为y'的像素点,用V0(P(x',y'))表示P(x',y')在第一帧图像中的灰度值,则M0(P(x,y))具体表示为
M0(P(x,y))={V0(P(x',y'))|P(x',y')∈NG(P(x,y))},
然后提取高速公路路面的灰度值范围:首先检测出图像F中的高速公路上的车道线,然后利用检测到的车道线获取高速公路区域以及车道线之间的每一个车道区域,接下来计算每一个车道区域的灰度直方图,最后找出每个灰度直方图的最高直方块并得到其所对应的灰度值范围,从各个最高直方块对应的灰度值范围中选出最小灰度值和最大灰度值,并分别以最小灰度值和最大灰度值作为整个高速公路路面灰度值范围的边界点,高速公路路面灰度值范围记为[r1,r2],其中r1表示所选出的最小灰度值,r2表示所选出的最大灰度值;
所述背景模型的更新过程为:如果图像F中像素点P(x,y)的灰度值V(P(x,y))在高速公路路面灰度值范围[r1,r2]之外,则将其归为前景点;否则以图像F中像素点P(x,y)的灰度值V(P(x,y))为中心R为半径定义一个灰度值范围,用SR(V(P(x,y)))表示,选取R=20,如果所述灰度值范围与P(x,y)的灰度值集合M(P(x,y))的交集,即
SR(V(P(x,y)))∩{v1,v2,...,vN}
中元素的个数大于设定的阈值αmin,选取αmin=1,则认为此P(x,y)为背景点,否则为前景点,如果P(x,y)为背景点,则定义一个时间子采样要素β,选取β=16,P(x,y)有1/β的概率用P(x,y)的当前灰度值去替换P(x,y)的灰度值集合M(P(x,y))中的任意一个元素,同时也有1/β的概率用P(x,y)的当前灰度值去替换P(x,y)的空间邻域NG(P(x,y))中任意一个像素点的灰度值集合中的任意一个元素,最后,对P(x,y)的状态进行统计,如果其连续被检测为前景点的帧数达到δ,选取δ=15,则将其更新为背景点,以此过程来遍历处理图像F中的每个像素点;
步骤3:路面分割:首先检测出每一帧图像中最外层的两条车道线,然后将位于这两个车道线外侧的像素点设置为背景点;
步骤4:八邻域填充:对被检测为背景点的P(x,y)的八邻域N8(P(x,y))内的所有像素点进行前景点个数统计,如果前景点的个数大于等于设定的阈值ε,则将P(x,y)设置为前景点,其中1≤x≤W-2,1≤y≤H-2;
步骤5:去除车道线:利用车道线较窄的特点来去除车道线,具体流程为:
步骤5.1逐行扫描图像像素点,当扫描到的像素点为背景点时,将其记为Pa(xa,ya)并进入步骤5.2;
步骤5.2定义两个临时变量xa',并令xa'=xa+1,其中xa'表示Pa(xa,ya)后的待扫描的像素点的横坐标,其初始值为Pa(xa,ya)后的第一个待扫描的像素点的横坐标,并用Pa'(xa',ya)表示图像中横坐标为xa'、纵坐标为ya的像素点,即Pa'(xa',ya)位于Pa(xa,ya)的正右侧,为计数器且用于表示位于Pa(xa,ya)正右侧的连续前景点的个数,然后进入步骤5.3;
步骤5.3如果当前的Pa'(xa',ya)为前景点,则令xa'=xa'+1,然后重复步骤5.3,否则进入步骤5.4;
步骤5.4如果大于0并且小于设定的阈值选取则将Pa(xa,ya)和当前Pa'(xa',ya)之间的像素点都设置为背景点,如果大于或等于阈值则不做任何改变,进入步骤5.5;
步骤5.5令xa=xa',然后检查是否扫描结束,如果扫描没有结束,则跳转至步骤5.1继续扫描图像,如果扫描结束,则进入步骤6;
步骤6:填充车辆内部:采用纵向填充的方法来填充车辆内部,具体流程为:
步骤6.1逐行扫描图像像素点,当扫描到的像素点为背景点时,将其记为Pb(xb,yb)并进入步骤6.2;
步骤6.2定义一个临时变量yb1,并令yb1=yb-η,其中yb1表示位于Pb(xb,yb)正上方的第η个像素点的纵坐标,η为自然数,选取η=14,如果此时yb1<0,则令yb1=0,用Pb1(xb,yb1)表示图像中横坐标为xb、纵坐标为yb1的像素点,即Pb1(xb,yb1)位于Pb(xb,yb)的正上方,然后进入步骤6.3;
步骤6.3如果Pb1(xb,yb1)为背景点并且yb1<yb,则令yb1=yb1+1,然后重复步骤6.3,否则进入步骤6.4;
步骤6.4如果yb1=yb,则跳转至步骤6.1继续扫描图像,如果yb1<yb,则定义一个临时变量yb2,并令yb2=yb+η,其中yb2表示位于Pb(xb,yb)正下方第η个像素点的纵坐标,如果此时yb2>H-1,其中H是图像F的高度,则令yb2=H-1,用Pb2(xb,yb2)表示图像中横坐标为xb、纵坐标为yb2的像素点,即Pb2(xb,yb2)位于Pb(xb,yb)的正下方,然后进入步骤6.5;
步骤6.5如果Pb2(xb,yb2)为背景点并且yb2>yb,则令yb2=yb2-1,然后重复步骤6.5,否则进入步骤6.6;
步骤6.6如果yb2=yb,则跳转至步骤6.1继续扫描图像,如果yb2>yb,则将Pb1(xb,yb1)和Pb2(xb,yb2)之间的所有像素点都设置为前景点,然后检查是否扫描结束,如果扫描没有结束,则跳转至步骤6.1继续扫描图像,如果扫描结束,则进入步骤7;
步骤7:提取车辆区域并绘制车辆区域的外接矩形框,具体流程为:
步骤7.1逐行扫描图像像素点,当扫描到的像素点为前景点并且没有赋予其任何标记时,将其记为Pc(xc,yc)并进入步骤7.2;
步骤7.2赋予当前像素点Pc(xc,yc)一个标记,用Lc(Pc(xc,yc))表示,然后遍历当前像素点Pc(xc,yc)的八邻域N8(Pc(xc,yc))内的所有像素点,并将其中所有的前景点放入一个点的集合Qc(Pc(xc,yc))中,然后进入步骤7.3;
步骤7.3从Qc(Pc(xc,yc))中取出一个前景点,也赋予其标记Lc(Pc(xc,yc)),然后再将所取前景点八邻域内的所有没有标记过Lc(Pc(xc,yc))的前景点存入Qc(Pc(xc,yc))中,然后判断Qc(Pc(xc,yc))是否为空集,如果不是,则重复步骤7.3,否则进入步骤7.4;
步骤7.4所有具有标记Lc(Pc(xc,yc))的像素点便组成了一个车辆区域,找出这些点中的最上点、最下点、最左点、最右点,便得到了此车辆区域的外接矩形框,然后进入步骤7.5;
步骤7.5将得到的外接矩形框存储起来,然后检查是否扫描结束,如果扫描没有结束,则跳转至步骤7.1继续扫描图像,如果扫描结束,则跳转至步骤1继续截取下一帧图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510502841.7A CN105005778B (zh) | 2015-08-14 | 2015-08-14 | 一种基于视觉背景提取的高速公路车辆检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510502841.7A CN105005778B (zh) | 2015-08-14 | 2015-08-14 | 一种基于视觉背景提取的高速公路车辆检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105005778A CN105005778A (zh) | 2015-10-28 |
CN105005778B true CN105005778B (zh) | 2018-07-17 |
Family
ID=54378443
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510502841.7A Active CN105005778B (zh) | 2015-08-14 | 2015-08-14 | 一种基于视觉背景提取的高速公路车辆检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105005778B (zh) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105314122B (zh) * | 2015-12-01 | 2017-08-15 | 浙江宇视科技有限公司 | 一种用于应急指挥和占道取证的无人机 |
CN105740809B (zh) * | 2016-01-28 | 2019-03-12 | 东南大学 | 一种基于机载摄像机的高速公路车道线检测方法 |
CN106651872B (zh) * | 2016-11-23 | 2020-09-15 | 北京理工大学 | 基于Prewitt算子的路面裂缝识别方法及系统 |
CN106855942B (zh) * | 2016-12-13 | 2019-10-11 | 东南大学 | 一种基于加权样本的视频背景提取方法 |
CN107240268A (zh) * | 2017-07-28 | 2017-10-10 | 西安因诺航空科技有限公司 | 一种面向无人机的高速应急车道违章车辆的检测方法 |
CN108573259B (zh) * | 2018-03-10 | 2019-06-25 | 东营市远信电器与技术有限责任公司 | 无人机飞行方向分析系统及方法 |
CN108682154B (zh) * | 2018-06-19 | 2021-03-16 | 上海理工大学 | 基于车流状态变化深度学习分析的道路拥堵检测系统 |
CN109409205B (zh) * | 2018-09-07 | 2021-11-26 | 东南大学 | 基于线间距特征点聚类的航拍视频公路车道线检测方法 |
CN109409208A (zh) * | 2018-09-10 | 2019-03-01 | 东南大学 | 一种基于视频的车辆特征提取与匹配方法 |
CN112232285A (zh) * | 2020-11-05 | 2021-01-15 | 浙江点辰航空科技有限公司 | 一种高速公路急车道巡检的无人机系统 |
CN112329631A (zh) * | 2020-11-05 | 2021-02-05 | 浙江点辰航空科技有限公司 | 一种使用无人机对高速公路进行车流量统计的方法 |
CN112232284A (zh) * | 2020-11-05 | 2021-01-15 | 浙江点辰航空科技有限公司 | 一种基于高速公路自动巡检的无人机系统 |
CN112232286A (zh) * | 2020-11-05 | 2021-01-15 | 浙江点辰航空科技有限公司 | 一种道路巡检无人机图像识别系统及无人机 |
CN115103229B (zh) * | 2022-06-22 | 2023-03-14 | 深圳市腾客科技有限公司 | 一种高帧率视频的实时显示方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101261681A (zh) * | 2008-03-31 | 2008-09-10 | 北京中星微电子有限公司 | 智能视频监控中的路面图像提取方法及装置 |
CN101750049A (zh) * | 2008-12-05 | 2010-06-23 | 南京理工大学 | 基于道路和车辆自身信息的单目视觉车距测量方法 |
CN102682455A (zh) * | 2012-05-10 | 2012-09-19 | 天津工业大学 | 一种基于单目视觉的前方车辆检测方法 |
-
2015
- 2015-08-14 CN CN201510502841.7A patent/CN105005778B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101261681A (zh) * | 2008-03-31 | 2008-09-10 | 北京中星微电子有限公司 | 智能视频监控中的路面图像提取方法及装置 |
CN101750049A (zh) * | 2008-12-05 | 2010-06-23 | 南京理工大学 | 基于道路和车辆自身信息的单目视觉车距测量方法 |
CN102682455A (zh) * | 2012-05-10 | 2012-09-19 | 天津工业大学 | 一种基于单目视觉的前方车辆检测方法 |
Non-Patent Citations (1)
Title |
---|
一种改进视觉背景提取(ViBe)算法的车辆检测方法;杨勇等;《重庆邮电大学学报(自然科学版)》;20140630;第26卷(第3期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN105005778A (zh) | 2015-10-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105005778B (zh) | 一种基于视觉背景提取的高速公路车辆检测方法 | |
CN110569704B (zh) | 一种基于立体视觉的多策略自适应车道线检测方法 | |
CN110178167B (zh) | 基于摄像机协同接力的路口违章视频识别方法 | |
CN104509102B (zh) | 三维物体检测装置和异物检测装置 | |
CN105260699B (zh) | 一种车道线数据的处理方法及装置 | |
CN104508727B (zh) | 三维物体检测装置和三维物体检测方法 | |
CN108615358A (zh) | 一种道路拥堵检测方法及装置 | |
CN102682292B (zh) | 基于单目视觉的道路边缘检测及粗定位方法 | |
CN100502463C (zh) | 一种交通流信息视频检测中的特征采集方法 | |
KR100377067B1 (ko) | 이미지 시퀀스내의 객체의 움직임을 검출하기 위한 방법 및장치 | |
CN104766071B (zh) | 一种应用于无人驾驶汽车的交通灯快速检测算法 | |
CN103150559B (zh) | 基于Kinect三维深度图像的头部识别与跟踪方法 | |
CN108694386A (zh) | 一种基于并联卷积神经网络的车道线检测方法 | |
CN105404857A (zh) | 一种基于红外的夜间智能车前方行人检测方法 | |
CN111860120B (zh) | 车载相机自动遮挡检测方法和装置 | |
CN106530328A (zh) | 一种基于视频图像对运动目标检测和平滑跟随的方法 | |
CN109740484A (zh) | 道路障碍物识别的方法、装置及系统 | |
CN105488811A (zh) | 一种基于深度梯度的目标跟踪方法与系统 | |
CN108416798B (zh) | 一种基于光流的车辆距离估计方法 | |
CN109919026A (zh) | 一种水面无人艇局部路径规划方法 | |
CN110009675A (zh) | 生成视差图的方法、装置、介质及设备 | |
CN103456170A (zh) | 基于机器视觉的车速和车辆排队长度的检测方法 | |
CN111814602A (zh) | 一种基于视觉的智能车环境动态目标检测的方法 | |
CN111079675A (zh) | 基于目标检测与目标跟踪的行驶行为分析方法 | |
CN107122732B (zh) | 一种监控场景下高鲁棒性的快速车牌定位方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |