一种基于深度学习的多摄像头车辆跟踪系统
技术领域
本发明涉及车辆跟踪领域,是基于深度学习的多摄像头协同对车辆进行多方位识别及追踪的方法和系统,该方法可以应用于智能交通监控、嫌疑车监管、车流量检测以及路况分析多个场景。
背景技术
多摄像头车辆识别与跟踪是智能交通系统中研究的重点内容,但多摄像头的切换可能导致目标车辆的外形发生变化,监控视频背景复杂、目标车辆遮挡等问题也对识别跟踪的准确度及误检率提出了巨大的挑战。比如说,在交通事故发生后,对目标车辆进行锁定并跟踪其运动轨迹,辅助交警对交通事故进行事后处理。
目前,关于单摄像头车辆识别与跟踪在国内外已有了大量的研究成果,但是单摄像头的监控场景单一且固定,目标车辆跟踪的视野范围有限,不能对其进行持续跟踪。单摄像头在固定场景进行目标车辆的识别与跟踪通常使用以下几种算法:模板匹配跟踪算法、mean shift跟踪算法以及cam shift跟踪算法等等,但是在多摄像头协同分析下的车辆跟踪中并不适用。
发明内容
本发明要解决的技术问题是在于克服已有单摄像头下识别与跟踪技术的不足,提出基于深度学习的多摄像头协同分析下的车辆跟踪,通过优化各种算法模型,得到更精确的多方位识别跟踪技术,对社会治安及交通管制有重要的意义。
为了解决上述技术问题,本发明提供了一种基于深度学习的多摄像头车辆跟踪的系统,包括以下步骤:
a、创建多个拍摄摄像头,并对获取的视频中的车辆机型检测;
b、利用深度学习的Caffe框架训练车辆样本图片,生成车辆检测模型;
c、提取车辆特征,分别为全局特征的颜色特征提取和局部特征的SURF算法特征进行提取;
d、利用全卷积孪生网络跟踪算法中的特征向量相似度与多特征合作进行匹配;
e、将跟踪信息存放到专有数据库中,以方便用户查阅跟踪的详细信息,并可通过播放视频内容再次判断目标车辆信息;
f、对不同的摄像头轨迹进行匹配并对背景进行分块处理,绘制跟踪车辆的轨迹,创建全局路径。
进一步步骤b包括以下步骤:
b1、收集车辆样本图片并筛选,排除无车样本后进行高斯噪音、翻转以及高亮数据增广,得到检测样本;
b2、对检测样本图像进行标签化处理;
b3、通过SSD网络训练车辆检测模型,用样本图片和标签文件组成需要训练的数据集,最后利用Caffe框架进行训练得到检测模型;
b4、在线检测模型:初始化检测模型,加载网络配置文件和检测模型,设置初始置信度阈值;调用检测函数进行车辆检测,判断置信度,当大于阈值区域中的物体则保存为车辆,当小于阈值区的区域,则过滤判断为矩形框边界。
进一步,步骤c中:所述全局特征提取为:提取车辆颜色特征,首先将RGB颜色通道进行分量映射,然后做颜色直方图计算,通过该方法将多摄像头下的相同车辆进行颜色特征提取;
进一步,步骤c中所述SURF算法特征提取包括:
c1、构建黑塞矩阵:通过矩阵的行列式的局部最大值判断特征点的尺度和位置,如果行列式的值大于零,则该像素为极值点,反之则为非极值点;
c2、构建图像的尺度空间:在不同尺度寻找相同位置的特征点,利用SURF算法,采用尺寸不同的方格滤波器处理初始车辆图片,获取图片尺度空间;
c3、特征点的定位:将像素点的特征点与该像素点三维空间中周围的点进行对比,如果该像素点的值比周围的值都要大,则该像素点被定义为特征点;
进一步,步骤d包括如下具体步骤:
d1、调用跟踪模型进行匹配器的实例化,分别对目标车辆图片和视频车辆图片进行特征向量的提取并计算;
d2、计算提取出的颜色直方图相似度,将R、G、B三个分量按照区间进行量化,最终得到一个颜色直方图向量;
d3、根据特征提取模块的SURF特征,利用筛选得出的最优匹配点进行匹配值计算;
d4、通过SURF匹配值初步定位目标车辆位置,再通过对特征向量相似度、SURF匹配值以及颜色相似度进行阈值对比,当所有条件都满足后,则确定目标为跟踪车辆。
进一步,所述步骤a中,对监控图片采取离线训练操作并生成SSD车辆检测模型,再运用该模型在监控视频中对每帧图片进行检测,检测出每帧图像中的所有车辆,并通过定位车辆获取车辆位置信息。
进一步,RGB颜色特征提取,主要分为两步:
RGB颜色通道分量映射:将图片进行R、G、B的3种通道的划分,每种设置为8个值,分别为Qr=8、Qg=8和Qb=8,对每个通道的颜色分量值val进行量化处理,val∈[0,255],处理公式如下所示:
颜色直方图计算:把R、G、B量化后的分量进行组合,构建RGB直方图向量得到RGB特征,其构建公式如下:C=BQgQr+GQr+R=64B+8G+R。
根据权利要求4所述的基于深度学习的多摄像头车辆跟踪的系统,其特征在于,所述黑塞矩阵,将其设为H,该矩阵行列式的局部最大值能够决定特征点的尺度以及位置,H由函数f(x,y)偏导数构成,其表达式为:
进一步,其中对特征点进行一个方向的选定,该方向是以该点作为中心,以多倍的尺度为半径,计算该圆形区域内像素点在X,Y方向上的Haar小波响应值,然后通过距离特征点的远近为Haar小波响应值设置不同的权重值,利用一定角度的扇形为范围,计算其中加权的响应值的总和得到一个新的矢量,并用该扇形区域对圆形区域进行扫描,把最长的那个向量的方向作为该特征点的方向。
本发明的技术效果在于:(1)本发明多摄像头车辆跟踪系统采用深度学习里的SSD网络,对监控图片采取离线训练操作并生成SSD车辆检测模型,再运用该模型在监控视频中对每帧图片进行检测,检测出每帧图像中的所有车辆,并通过定位车辆获取车辆位置信息用于后续多摄像头的车辆跟踪工作。该过程可以将视频图像背景中的其余物体排除,解决背景复杂的情况,同时缩小特征提取的范围,提升特征提取的速度的同时又提升了准确度。
(2)本发明多摄像头车辆跟踪系统通过SURF匹配值初步定位目标车辆位置,再通过对特征向量相似度、SURF匹配值以及颜色相似度进行阈值对比,当所有条件都满足后,则确定目标为跟踪车辆。在SURF匹配时实现快速高效的匹配,同时对初次提取的粗匹配点进行筛选,排除错误的匹配点并获取了最优的匹配结果,有效减少了错误检查的情况并提升了准确度。
(3)本发明多摄像头车辆跟踪系统在多特征选取方面充分考虑全局和局部两种类型,选择稳定的SURF作为局部特征,有效解决多摄像头切换时产生的角度旋转变化、车辆尺寸大小变化以及光照变化等问题,并充分考虑SURF特征忽略了颜色信息的缺点,在全局特征中选取RGB颜色特征进行弥补。利用特征组合进行车辆的描述,解决单一特征在匹配不够准确,容易出现错误或者遗漏的问题。
(4)本发明多摄像头车辆跟踪系统包括高层控制中心和若干监控子网两层结构;高层监控中心通过以太网连接各个监控子网,具有协同控制、通讯调配和追溯查询等功能;监控子网通过多通道实时采集监控画面,提供24小时无损高质量信号,具有单目跟踪、跨场景追踪的功能。因此多摄像头的协同分析扩大了监控的范围,在视频监控,智能交通和城市计算方面具有普遍应用,可以在大型监控视频中快速发现、定位和跟踪目标车辆。
附图说明
图1为本发明多摄像头车辆跟踪系统的车辆检测模块交互流程图;
图2为本发明多摄像头车辆跟踪系统的SSD网络架构模型图;
图3为本发明多摄像头车辆跟踪系统的多特征提取模块流程图;
图4为本发明多摄像头车辆跟踪系统定位特征点过程图。
具体实施方式
下面结合附图和具体实施例对本发明作进一步说明,以使本领域的技术人员可以更好的理解本发明并能予以实施,但所举实施例不作为对本发明的限定。
本发明公开了一种基于深度学习的多摄像头车辆跟踪系统,采用深度学习里的SSD网络,对监控图片采取离线训练操作并生成SSD车辆检测模型,再运用该模型在监控视频中对每帧图片进行检测,检测出每帧图像中的所有车辆,并通过定位车辆获取车辆位置信息用于后续多摄像头的车辆跟踪工作。该过程可以将视频图像背景中的其余物体排除,解决背景复杂的情况,同时缩小特征提取的范围,提升特征提取的速度的同时又提升了准确度。
车辆检测的实现采用深度学习的Caffe框架训练车辆样本图片,并利用训练的SSD车辆检测模型对监控视频的车辆进行在线检测,如图1所示。检测模块会对视频中的每一帧机型检测,将大于阈值的检测目标定为车辆,作为后续多摄像头车辆跟踪模块的输入。SSD车辆检测算法的主要处理流程分成两个步骤,离线训练和在线检测:
离线训练的具体过程:采集视频车辆的样本图片,将系统内所有摄像头点位的白昼场景的监控视频进行帧图像提取,筛选之后,排除不包含车辆的图片。
对获取的样本图片进行标签化,使用图片标注工具为每张样本图片中的车辆进行标记,最终得到一个标签文件,文件中包含车辆的位置信息。
对SSD车辆检测模型进行训练,本发明使用样本图片和标签文件组成需要训练的数据集,并利用Caffe框架进行训练最后得到检测模型,SSD网络架构模型图如图2所示,将大小不同的图像作为输入,在基础网络结构后面增加一些卷积层,大小逐级递减,用来提取特征值,能够再不同的特征图选取默认框,计算置信度与偏移量,最终以非极大值抑制目标所在位置。
在线检测模型,初始化检测模型,加载网络配置文件和检测模型,设置初始置信度阈值。调用检测函数进行车辆检测,判断置信度,保存大于阈值区域中的物体为车辆,过滤小于阈值的区域,判断矩形框边界。在线检测的具体过程:
1)初始实例化检测器,加载SSD网络配置文件和SSD检测模型,并设置置信度阈值。
2)调用车辆检测函数对进行车辆检测:读取视频帧图像,进行预处理后网络前向传播计算,将每个区域的置信度、最小x坐标、最小y坐标,最大x坐标和最大y坐标返回到一个向量中保存。
3)置信度判断:取出每个区域的置信度与设置的阈值进行比较,若大于阈值则判定该目标区域中的物体为车辆,并保存,若小于阈值则将该区域过滤。
4)矩形框边界判断:在确定检测物体为车辆后,对保存车辆信息的矩形框边界进行判断,若边界框超出了视频图像范围,则重置越界的边框。
提取车辆特征,分为全局特征提取和局部特征提取,其特征步骤如下:多特征提取部分主要针对全局特征中的RGB和局部特征中的SURF展开提取工作,采用全局特征中RGB颜色特征和局部特征中运算速度快且具有不变性的SURF特征进行特征提取,这样可以弥补对方的不足,为后续特征组合做准备,提升跟踪的准确度,多特征提取模块流程图如图3所示。
RGB颜色特征提取,主要分为两步:
(1)、RGB颜色通道分量映射:将图片进行R、G、B的3种通道的划分,每种设置为8个值,分别为Qr=8、Qg=8和Qb=8,对每个通道的颜色分量值val进行量化处理,val∈[0,255],本文的处理公式如下所示。
(2)、颜色直方图计算。把R、G、B量化后的分量进行组合,构建RGB直方图向量,得到RGB特征,其构建公式如下:C=BQgQr+GQr+R=64B+8G+R。通过该方法,将不同摄像头下的同一车辆图像进行颜色特征提取。
提取SURF特征,主要分为四步:
(1)、构建黑塞矩阵,获取SURF特征的关键就在于黑塞矩阵,将其设为H,该矩阵行列式的局部最大值能够决定特征点的尺度以及位置,H由函数f(x,y)偏导数构成,其表达式为:
(2)、构建尺度空间,图片的尺度空间是图片在不同的尺度下的表示,以便能在不同尺度下寻找到同一相对位置的特征点,在SIFT算法里构建尺度空间需要对图片的尺寸进行改变,而在SURF算法里,并不改变图片的大小,而是采用不同大小的方格滤波器处理原始图片,获取图片的尺度空间,为了在不同尺度下定位特征点,在不同图像层上利用黑塞矩阵进行处理,检测极值点,图4所示的是一个3×3的滤波器例子,将像素点的特征值与其三维领域中的26个点进行比较操作,如果该点的特征值比周围的26个值都大,那么该点被定义为特征点,即图中x若大于它周围的所有点,那么x为该区域的特征点。
为了让特征描述子拥有转动不变的性质,对特征点进行一个方向的选定,该方向是以该点作为中心,以6倍的尺度为半径,计算该圆形区域内像素点在X,Y方向上的Haar小波响应值,然后通过距离特征点的远近为Haar小波响应值设置不同的权重值,利用一个角度为60°的扇形为范围,计算其中加权的响应值的总和得到一个新的矢量,并用该扇形区域对圆形区域进行扫描,把最长的那个向量的方向作为该点的方向。
RGB颜色特征能弥补SURF特征不区分颜色信息的缺点,SURF特征具备良好的光线照射、角度转动以及尺寸大小不变性,相比SIFT速度更加快且稳定。由于单一特征在多摄像头切换时容易导致跟踪错误,以至于跟踪失败,因此分别从全局特征和局部特征中各选一个特征,将其特征组合起来,可以提高匹配的正确性。
最后,将跟踪信息存放到专有数据库中,以方便用户查阅跟踪的详细信息,并可通过播放视频内容再次判断目标车辆信息;对不同的摄像头轨迹进行匹配并对背景进行分块处理,绘制跟踪车辆的轨迹,创建全局路径。
本发明基于多摄像头协同作用的跟踪算法在存在与目标车辆相似的车辆时误检较高,因此利用全卷积孪生网络跟踪算法中的图像特征向量相似度与多特征融合进行改进,能够有效改善错误检测的情况,从而提升准确度。
本发明基于深度学习的多摄像头车辆跟踪系统包括高层控制中心和若干监控子网两层结构,高层监控中心通过以太网连接各个监控子网,具有协同控制、通讯调配和追溯查询等功能。监控子网通过多通道实时采集监控画面,提供24小时无损高质量信号,具有单目跟踪、跨场景追踪的功能。
本发明多摄像头车辆跟踪系统的实现过程为:目标检测,用Mog2这一背景减除算法进行帧的目标检测;提取目标,首先对其重置大小,去均值,然后将其送入CNN模型,当判断其为车辆时,与跟踪列表中的对象进行对比,当目标与列表中所有的目标的重叠度都很小时,将其加入跟踪列表;目标跟踪,采用全局特征中的RGB颜色特征和局部特征中的SURF算法,实现多特征车辆跟踪;物体分类,用CNN模型,每个卷积单元由卷积层、BN层、LeakyRelus与池化层组成。本发明在于获取更广范围的监控以及增强监控系统主动跟踪的能力,在视频监控,智能交通和城市计算方面具有普遍应用,可以在大型监控视频中快速发现、定位和跟踪目标车辆。
以上所述实施例仅是为充分说明本发明而所举的较佳的实施例,本发明的保护范围不限于此。本技术领域的技术人员在本发明基础上所作的等同替代或变换,均在本发明的保护范围之内。本发明的保护范围以权利要求书为准。