CN100595792C - 基于视频技术的车辆检测与跟踪方法 - Google Patents

基于视频技术的车辆检测与跟踪方法 Download PDF

Info

Publication number
CN100595792C
CN100595792C CN200810024699A CN200810024699A CN100595792C CN 100595792 C CN100595792 C CN 100595792C CN 200810024699 A CN200810024699 A CN 200810024699A CN 200810024699 A CN200810024699 A CN 200810024699A CN 100595792 C CN100595792 C CN 100595792C
Authority
CN
China
Prior art keywords
label
vehicle
piece
image
field picture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN200810024699A
Other languages
English (en)
Other versions
CN101251927A (zh
Inventor
路小波
刘斌
朱周
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN200810024699A priority Critical patent/CN100595792C/zh
Publication of CN101251927A publication Critical patent/CN101251927A/zh
Application granted granted Critical
Publication of CN100595792C publication Critical patent/CN100595792C/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明提供一种通过对交通场景的视频图像进行处理来进行车辆检测与跟踪的方法,该方法为:采集交通场景的图像,将交通图像按8×8像素进行分块,初始化背景图像并不断进行背景图像更新,在车道入口处设置与车道方向垂直的宽度为8像素的虚拟检测线,通过计算虚拟检测线上的块相对于背景图像的灰度变化来检测车辆,利用车辆到达检测线的次序对属于车辆区域的块进行标号,得到车辆标号的初始位置,之后结合三步法及全搜索法计算车辆的运动矢量并利用运动矢量对车辆标号的位置不断进行更新,实现了车辆的跟踪。本发明还针对复杂交通场景内可能出现的车辆间遮挡现象进行了检测和分割,因此具有检测和跟踪精度高、实时性好的优点。

Description

基于视频技术的车辆检测与跟踪方法
技术领域
本发明涉及一种基于视频技术的车辆检测与跟踪方法,其目的在于检测交通场景内存在的车辆,并对车辆的位置不断地进行跟踪,属于交通监控技术领域。
背景技术
随着经济的不断发展和城市化进程的快速进行,我国的机动车保有数量急剧增加,交通问题越来越突出,比如交通事故发生不断增长、交通拥堵频繁发生。为了解决这些问题,20世纪90年代以来,世界各国开始进行智能运输系统(ITS)的建设。ITS通过利用先进的信息技术将人车路有机地结合起来。
ITS中一个重要的子系统就是交通信息采集系统,车辆检测是该系统的重要功能之一。传统的车辆检测方法是环形线圈检测,它存在容易损坏、维修困难等缺点。近些年来,利用视频技术进行车辆检测成为车辆检测技术中的一个热点,它可模仿人的视觉功能进行车辆检测和跟踪,具备可检测多个车道、安装维修简单等优点。它从复杂的交通场景图像中检测和跟踪车辆,必须要处理光照的变化、车辆的遮挡等因素。
通过对现有技术文献的检索发现现有的车辆跟踪方法主要有以下几种:基于3D模型的车辆跟踪方法、基于特征点的车辆跟踪方法和基于Snake主动轮廓模型的车辆跟踪方法等。基于特征点和基于Snake主动轮廓模型的车辆跟踪方法对车辆间的遮挡现象很敏感,而基于3D模型的车辆跟踪方法需要针对大量的车辆建立3D模型,过于复杂且不实用。本发明将提供一种能够解决车辆遮挡现象且简单实用的视频车辆跟踪方法。
发明内容
技术问题
本发明提供一种可以在复杂环境下进行车辆检测与跟踪的基于视频技术的车辆检测与跟踪方法,该方法具有跟踪精度高、实时性好的优点。
技术方案
一种基于视频技术的车辆检测与方法,其特征在于:
①交通场景背景图像的不断更新
设背景初始化之后得到的背景图像为B0,每当重新采集到第i帧图像Pi时,计算对应于第i-1帧图像Pi-1的背景图像Bi-1
设当i=2时不需对背景进行更新,即B1=B0,B1为第1帧图像P1的背景图像;而当i>2时,首先利用连续三帧图像Pi-2、Pi-1和Pi计算对称帧差图像|Pi-1-Pi-2|和|Pi-Pi-1|,并利用这两幅对称帧差图像进行二值化计算,得到与所采集第i帧图像Pi大小相等的第1标号图L1
L 1 ( x , y ) = 1 if | P i - 1 ( x , y ) - P i - 2 ( x , y ) | > t 1 and | P i ( x , y ) - P i - 1 ( x , y ) | > t 1 0 else
式中,Pi(x,y)表示第i帧图像Pi中坐标为(x,y)的像素的灰度,L1(x,y)表示第1标号图L1中坐标为(x,y)的点的标号,L1(x,y)取1时表示点(x,y)在连续三帧图像Pi-2、Pi-1和Pi中是运动的,L1(x,y)取0时表示点(x,y)在连续三帧图像Pi-2、Pi-1和Pi中是静止的,t1表示二值化计算时的阈值,预先设定为5~10,
在得到第1标号图L1之后,接着对第1标号图L1进行种子填充,得到新的第1标号图L1′。
其次,对第i-1帧图像Pi-1中所有像素的灰度Pi-1(x,y)进行四邻域平均计算,得到图像Pi-1′,即:
Pi-1′(x,y)=(Pi-1(x-1,y)+Pi-1(x,y-1)+Pi-1(x,y)+Pi-1(x,y+1)+Pi-1(x+1,y))/5
接着,利用图像Pi-1′和背景图像Bi-2计算背景差图像|Pi-1′-Bi-2|,并对该背景差图像进行二值化计算,得到第2标号图L2
L 2 ( x , y ) = 1 if | P i - 1 ′ ( x , y ) - B i - 2 ( x , y ) | > t 2 0 else
其中Bi-2为第i-2帧图像的背景图像,t2为二值化计算时的阈值,通过车辆检测过程中的阈值计算方法计算得到,
最后,根据新的第1标号图L1′和第2标号图L2中对应点之间的4种逻辑关系,将第i-2帧图像的背景图像Bi-2分为4个区域,并对该4个区域采用下列灰度更新方法进行更新,得到更新后的背景图像Bi-1
B i - 1 ( x , y ) = P i - 1 ( x , y ) if L 1 &prime; ( x , y ) = 0 and L 2 ( x , y ) = 0 B i - 2 ( x , y ) + M if L 1 &prime; ( x , y ) = 0 and L 2 ( x , y ) = 1 and P i - 1 ( x , y ) > B i - 2 ( x , y ) B i - 2 ( x , y ) - M if L 1 &prime; ( x , y ) = 0 and L 2 ( x , y ) = 1 and P i - 1 ( x , y ) < B i - 2 ( x , y ) B i - 2 ( x , y ) else
其中,M取值决定背景更新的速度,取1或2;
②设置虚拟检测线,当车辆通过检测线时对其进行检测,得到车辆的初始标号
在背景初始化完成之后,重新开始采集图像,设重新采集的第i帧图像为Pi,在图像Pi-1上的车道入口处设置与车道垂直的虚拟检测线Line,其宽度为8像素,
设图像矩阵Pi的大小为M×N,以8×8像素为块,得到块的矩阵Di,其大小为m×n,其中m=M/8,n=N/8,块矩阵Di中的每个元素都表示一个大小为8×8的块Di(x,y),定义大小为m×n的块标号矩阵Labeli,其中块标号矩阵Labeli中的元素Labeli(x,y)表示块Di(x,y)的标号,将背景区域的块Di(x,y)的标号Labeli(x,y)设为0,将第h辆车区域的块Di(x,y)的标号Labeli(x,y)设为h,h为自然数,
Labeli中的所有元素初始化为0,设检测线Line在块矩阵Di(x,y)中的x方向坐标为l,则它在图像Pi-1中上边缘线的x坐标为(l-1)×8+1,下边缘线的x坐标为l×8,
将当前帧图像Pi-1与背景图像Bi-1进行相减,并取绝对值,得到背景差图像BPi-1
BPi-1=|Pi-1-Bi-1|
BPi-1中检测线区域的图像设为Linei-1,其大小为8×N,可以分成为1×n个块。
车辆检测的步骤如下:
步骤一:计算检测线图像Linei-1的分割阈值T,该分割阈值T采用迭代法得到,
步骤二:分别计算检测线图像Linei-1中n个块的平均灰度值,对第j个块而言,其平均灰度值Kj为:
K j = ( &Sigma; x = 1 8 &Sigma; y = ( j - 1 ) &times; 8 + 1 j &times; 8 Line i - 1 ( x , y ) ) / 64
其中,Linei-1(x,y)是检测线图像Linei-1中坐标为(x,y)的像素的灰度,
步骤三:分别对检测线图像Linei-1中n个块的平均灰度值和阈值T进行比较,如果第j个块的平均灰度值Kj大于或等于阈值T,则说明检测线图像Linei-1上检测到了车辆,并给该块赋予标号h,表示该块属于第h次到达检测线的车辆,如果第j个块的平均灰度值Kj小于阈值T,则第j个块的标号仍然为0,表示该块属于背景区域,
即,如果Kj≥T,则Labeli-1(l,j)=h;如果Kj<T,则Labeli-1(l,j)=0
其中,Labeli-1(l,j)是块标号矩阵Labeli-1中坐标为(l,j)的块的标号,h表示该车到达检测线的次序,且当前两帧检测线图像Linei-3和Linei-2中没有检测到车辆,而当前帧检测线图像Linei-1中检测到车辆时,对h进行一次更新,即h=h+1。
③检测到车辆之后,计算车辆的运动矢量,利用运动矢量进行标号移位
在对第i-1帧图像Pi-1进行车辆检测之后,如果第i-2帧图像Pi-2中存在第h次到达的车辆,则首先确定所有属于该车辆的块的集合Blocki-2={Di-2(m,n)|Labeli-2(m,n)=h},然后分别计算块集合Blocki-2中每个块Di-2(m,n)在第i-2帧图像Pi-2和第i-1帧图像Pi-1之间的运动矢量,记为(vmx,vny),这些运动矢量的集合为
Figure C20081002469900091
计算集合V中出现频率最大的运动矢量作为车辆的运动矢量(vtx,vty),并利用运动矢量(vtx,vty)对车辆标号的位置进行更新,即,对于任意的块
Figure C20081002469900092
而言,块Di-2(m,n)的位置从第i-2帧图像Pi-2中的坐标(m,n)运动到第i-1帧图像Pi-1中的坐标(m+vtx,n+vty),故令Labeli-1(m+vtx,n+vty)=h,完成车辆标号位置的更新,
所述车辆的运动矢量(vtx,vty)的计算方法为:选择车辆后部分的运动矢量代表整辆车的运动矢量,即对车辆后部分(最后两行)的所有块进行运动矢量计算,并从这些运动矢量中找出出现频率最大的矢量,以之作为车辆的运动矢量;
所述运动矢量(vmx,vny)的计算方法为:首先采用三步法,然后,在运动矢量长度小于2个像素时,采用全搜索法。
④车辆标号的校正
车辆标号的校正只需在包含车辆标号h的最小矩阵框[xmin xmax ymin ymax]中进行,其中xmin、ymin分别是块标号矩阵Labeli-1中所有标号为h的块的最小横纵坐标,xmax、ymax分别是块标号矩阵Labeli-1中所有标号为h的块的最大横纵坐标,首先利用在车辆检测中用到的阈值计算方法计算背景差图像BPi-1的分割阈值T2,再分别计算最小矩阵框中的所有块的平均灰度,如果块的平均灰度大于阈值T2,则给该块标上车辆的标号h;否则将该块的标号设置为0,即:
对于任意的块D(x,y),xmin≤x≤xmax且ymin≤y≤ymax,其平均灰度为:
K ( x , y ) = ( &Sigma; m = ( x - 1 ) &times; 8 + 1 x &times; 8 &Sigma; n = ( y - 1 ) &times; 8 + 1 y &times; 8 BP i - 1 ( m , n ) ) / 64
如果K(x,y)≥T2,则Labeli-1(x,y)=h;如果K(x,y)<T2,则Labeli-1(x,y)=0。
⑤检测车辆间的遮挡现象并进行分割
(1)遮挡现象的检测
对单辆车而言,以包含所有标号的最小矩形框[xmin xmax ymin ymax]作为该车的位置,则当前图像Pi-1中的所有车辆分别由各自的最小矩形框来表示,且矩形框的标号与框内块的标号一致,对所有的矩形框进行两两比较和判断,若两个矩形框存在重叠部分,则表明矩形框所代表的车辆间存在遮挡现象,并将重叠部分定义为遮挡区域;反之,若两个矩形框不存在重叠部分,则表明矩形框所代表的车辆间不存在遮挡现象,
(2)遮挡区域的分割
检测到遮挡现象并得到遮挡区域之后,针对遮挡区域建立Markov模型,模型中标号的个数即为遮挡区域中块的个数,给遮挡区域中所有块的标号都设定一个确定值便得到一组标号组合,每组标号组合都对应一个能量函数。在所有可能的标号组合的范围内,对能量函数进行最小优化,得到的最小能量函数所对应的标号组合即为遮挡区域的分割结果。
本发明还可以进一步采取以下技术措施,即:在使用全搜索法计算运动矢量(vmx,vny)中,运动矢量长度小于1个像素时,对与运动矢量计算的目标块N的距离为0.5像素的8个块进行灰度插值。
有益效果
1.由于摄像机的拍摄范围可以覆盖多条车道,因此能够对相同行车方向的多条道路上的车辆进行检测和跟踪,得到车辆运动轨迹信息。
2.车辆跟踪的精度高,实时性好。根据车辆在远离摄像机向前行驶的过程中车辆运动矢量会逐渐变小这一规律,采用三步法、全搜索法以及0.5像素精度的搜索法相结合计算车辆的运动矢量,在保证车辆运动矢量的准确性的同时,减少了计算量,从而保证了车辆跟踪的精度和实时性。
3.在交通拥挤的情况下能够进行车辆跟踪。对车辆间的相互遮挡进行了优化处理,避免了遮挡车辆间的相互混淆,从而提高了交通拥挤情况下车辆跟踪的精度。
附图说明
图1是车辆检测与跟踪过程流程图。
图2是初始背景图像B0
图3是第一辆车刚刚到达检测线时的图像P78
图4是图像P78的背景差图像BP78
图5是图像P78经过车辆检测后的标号结果Label78
图6是全搜索法的原理。
图7是三步法的搜索过程。
图8是0.5像素全搜索法中的块灰度插值方法。
图9是第一辆车即将离开检测线时的图像P86
图10是图像P86的标号结果Label86
图11是图像P87
图12是第一辆车在图像P86和图像P87之间的运动矢量。
图13是按运动矢量对图P86中的标号进行移位后的标号结果Label87
图14是进行标号校正之后的图像P87的标号结果Label87
图15是遮挡处理之前的图像P108的标号图Label108
图16是遮挡处理之后的图像P108的标号图Label108
具体实施方式
本发明的具体实例结合图5-16说明如下:
具体实例一
①背景初始化
架设摄像机,针对一具体的交通场景采集15分钟的连续序列图像,采集频率为30帧/s,图像大小为240×320像素。对所有采集来的图像进行平均计算,即:
B 0 ( x , y ) = 1 450 &Sigma; i = 1 450 Q i ( x , y )
其中,B0表示初始背景图像,B0(x,y)表示B0中坐标为(x,y)的像素的灰度,Qi表示采集的第i帧图像,Qi(x,y)表示Qi中坐标为(x,y)的像素的灰度,最终得到如图2所示的初始背景图像B0
②背景更新
得到初始背景图像B0之后,重新采集序列图像,每当重新采集到第i帧图像Pi时,计算对应于第i-1帧图像Pi-1的背景图像Bi-1,设当i=2时不需对背景进行更新,即B1=B0,B1为第1帧图像P1的背景图像;而当i>2时,首先利用连续三帧图像Pi-2、Pi-1和Pi计算对称帧差图像|Pi-1-Pi-2|和|Pi-Pi-1|,并利用这两幅对称帧差图像进行二值化计算,得到与所采集第i帧图像Pi大小相等的第1标号图L1
L 1 ( x , y ) = 1 if | P i - 1 ( x , y ) - P i - 2 ( x , y ) | > t 1 and | P i ( x , y ) - P i - 1 ( x , y ) | > t 1 0 else
式中,Pi(x,y)表示第i帧图像Pi中坐标为(x,y)的像素的灰度,L1(x,y)表示第1标号图L1中坐标为(x,y)的点的标号,L1(x,y)取1时表示点(x,y)在连续三帧图像Pi-2、Pi-1和Pi中是运动的,L1(x,y)取0时表示点(x,y)在连续三帧图像Pi-2、Pi-1和Pi中是静止的,t1表示二值化计算时的阈值,预先设定为8,
在得到第1标号图L1后对第1标号图L1进行种子填充,即从第1标号图L1中车辆区域内的任一像素L1(x,y)出发,按照“左上右下”的顺序判断相邻像素,若相邻像素不是车辆区域的边界像素且其标号为0,则对其填充,给该像素标号为1,重复上述过程直到所有像素填充完毕。这样便可以消除标号图中的孔洞现象,得到新的第1标号图L1′,
其次,对第i-1帧图像Pi-1中所有像素的灰度Pi-1(x,y)进行四邻域平均计算,得到图像Pi-1′,即:
Pi-1′(x,y)=(Pi-1(x-1,y)+Pi-1(x,y-1)+Pi-1(x,y)+Pi-1(x,y+1)+Pi-1(x+1,y))/5
接着,利用图像Pi-1′和背景图像Bi-2计算背景差图像|Pi-1′-Bi-2|,并对该背景差图像进行二值化计算,得到第2标号图L2,Bi-2为第i-2帧图像的背景图像,
L 2 ( x , y ) = 1 if | P i - 1 &prime; ( x , y ) - B i - 2 ( x , y ) | > t 2 0 else
其中t2为二值化计算时的阈值,通过车辆检测过程中的阈值计算方法计算得到,
最后,根据新的第1标号图L1′和第2标号图L2中对应点之间4种逻辑关系,将当前背景图像Bi-2分为4个区域,并对该4个区域采用下列灰度更新方法进行更新,得到更新后的背景图像Bi-1
B i - 1 ( x , y ) = P i - 1 ( x , y ) if L 1 &prime; ( x , y ) = 0 and L 2 ( x , y ) = 0 B i - 2 ( x , y ) + M if L 1 &prime; ( x , y ) = 0 and L 2 ( x , y ) = 1 and P i - 1 ( x , y ) > B i - 2 ( x , y ) B i - 2 ( x , y ) - M if L 1 &prime; ( x , y ) = 0 and L 2 ( x , y ) = 1 and P i - 1 ( x , y ) < B i - 2 ( x , y ) B i - 2 ( x , y ) else
其中M取1。
③车辆检测
第i帧图像Pi的大小为240×320像素,以8×8像素为块,得到块的矩阵Di,其大小为30×40,块矩阵Di中的每个元素都表示一个大小为8×8的块Di(x,y),定义大小为30×40的块标号矩阵Labeli,其中块标号矩阵Labeli中的元素Labeli(x,y)表示块Di(x,y)的标号,将背景区域的块Di(x,y)的标号Labeli(x,y)设为0,将第h辆车区域的块Di(x,y)的标号Labeli(x,y)设为h,h为自然数。
经过背景更新得到第i-1帧背景图像Bi-1之后,在第i-1帧图像Pi-1中的车道入口处与车道垂直的方向设置宽度为8像素的虚拟检测线Line78,如图6中的白线所示,设检测线Line78在块矩阵D中的x方向坐标为l。
当i=79时,即采集到图像P79时,背景更新得到对应于P78的背景图像B78。如图3所示第一辆车在P78中刚好到达检测线Line78,对P78和背景图像B78进行背景差计算,得到如图4所示的背景差图像BP78,即BP78=|P78-B78|。利用迭代法计算背景差图像BP78中检测线Line78的分割阈值,迭代法的计算步骤如下:
(1)求出检测线Line78中最小和最大的灰度Z1,Z2,设初始阈值T0为:
Figure C20081002469900131
(2)根据T0对检测线Line78进行分割,设灰度大于等于T0的区域为目标,灰度小于T0的区域为背景,计算出目标区域的平均灰度Z11和背景区域的平均灰度Z12,得到新的阈值
Figure C20081002469900132
(3)得到新的阈值T2后重复第(2)步,设迭代次数为k+1时得到的阈值为
(4)当Tk+1=Tk时结束迭代,并设最终阈值T=Tk+1否则继续第(2)步;
经迭代法计算得到检测线Line78的分割阈值T=20,之后对检测线Line78上的块进行判断,若块的平均灰度大于等于T则表明该块属于第一辆车,给该块标上标号1;若块的平均灰度小于T,则表明该块属于背景,给该块标上标号0,即对检测线Line78上第j个块而言,其平均灰度值Kj为:
K j = ( &Sigma; x = 1 8 &Sigma; y = ( j - 1 ) &times; 8 + 1 j &times; 8 Line i - 1 ( x , y ) ) / 64
如果Kj≥T,则Labeli-1(l,j)=1;如果Kj<T,则Labeli-1(l,j)=0
得到的块标号矩阵Label78如图5所示,其中白色的块标号为1,属于第1辆车,黑色的块标号为0,属于背景区域,
④车辆跟踪
车辆跟踪包括两个部分:车辆标号位置的更新与校正,
(1)车辆标号位置的更新
在对第i-1帧图像Pi-1进行车辆检测之后,如果第i-2帧图像Pi-2中存在第h次到达的车辆,则首先确定所有属于该车辆的块的集合Blocki-2={Di-2(m,n)|Labeli-2(m,n)=h},然后分别计算块集合Blocki-2中每个块Di-2(m,n)在第i-2帧图像Pi-2和第i-1帧图像Pi-1之间的运动矢量,记为(vmx,vny),这些运动矢量的集合为
Figure C20081002469900135
计算集合V中出现频率最大的运动矢量作为车辆的运动矢量(vtx,vty),并利用运动矢量(vtx,vty)对车辆标号的位置进行更新,即,对于任意的块而言,块Di-2(m,n)的位置从第i-2帧图像Pi-2中的坐标(m,n)运动到第i-1帧图像Pi-1中的坐标(m+vtx,n+vty),故令Labeli-1(m+vtx,n+vty)=h,完成车辆标号位置的更新,
所述车辆的运动矢量(vtx,vty)的计算方法为:选择车辆后部分的运动矢量代表整辆车的运动矢量,即对车辆后部分(最后两行)的所有块进行运动矢量计算,并从这些运动矢量中找出出现频率最大的矢量,以之作为车辆的运动矢量;
所述块的运动矢量(vmx,vny)的计算方法为:首先采用三步法,然后在运动矢量长度小于2个像素时,采用全搜索法,全搜索法的搜索方法如图6所示,它是对搜索范围内的所有块进行块匹配计算,并选取具有最小匹配值的块作为目标块。三步法的搜索方法如图7所示,它是一种快速搜索方法。两者所采用的匹配准则都为MAD(平均绝对差值函数最小准则)即:
MAD ( x , y ) = 1 64 &Sigma; ( n 1 , n 2 ) &Element; B | P i - 2 ( n 1 , n 2 ) - P i - 1 ( n 1 + x , n 2 + y ) |
式中:B表示图像Pi-2中需要进行运动矢量计算的块,(n1,n2)表示块B中的像素在图像Pi-2中的坐标,Pi-2(n1,n2)表示图像Pi-2中坐标为(n1,n2)的像素的灰度,Pi-1(n1+x,n2+y)表示图像Pi-1中坐标为(n1+x,n2+y)的像素的灰度,
根据MAD最小准则,运动矢量估算由下式得出:
[ x &prime; , y &prime; ] T = arg min ( x , y ) MAD ( x , y )
式中:x′,y′分别表示横纵方向的位移。
车辆在离摄像机较远处可能出现运动矢量不够1个像素的情况,此时整像素搜索法无法检测到车辆的位移,从而造成误差。这种误差的逐渐累计会使车辆的标号丢失,降低跟踪率。为此,可采用以0.5像素为单位的全搜索法进行搜索,即首先对需要进行运动矢量计算的目标块B(设(i,j)是该块左上角像素的坐标)附近的8个0.5像素距离的块进行灰度插值,具体方法为:
b1(m,n)=(N(i+m-2,j+n-2)+N(i+m-2,j+n-1)+N(i+m-1,j+n-2)+N(i+m-1,j+n-1))/4;
b2(m,n)=(N(i+m-2,j+n-1)+N(i+m-1,j+n-1))/2;
b3(m,n)=(N(i+m-2,j+n-1)+N(i+m-2,j+n)+N(i+m-1,j+n-1)+N(i+m-1,j+n))/4;
b4(m,n)=(N(i+m-1,j+n-2)+N(i+m-1,j+n-1))/2;
b5(m,n)=(N(i+m-1,j+n-1)+N(i+m-1,j+n))/2;
b6(m,n)=(N(i+m-1,j+n-2)+N(i+m-1,j+n-1)+N(i+m,j+n-2)+N(i+m,j+n-1))/4;
b7(m,n)=(N(i+m-1,j+n-1)+N(i+m,j+n-1))/2;
b8(m,n)=(N(i+m-1,j+n-1)+N(i+m-1,j+n)+N(i+m,j+n-1)+N(i+m,j+n))/4;
其中b1、b2、b3、b4、b5、b6、b7、b8表示目标块B周围与之相距0.5像素的块,m、n=1,2,3......8,图8是上述灰度插值的示意图,
得到上述8个块之后,分别计算每个块与块Pi-2(i:i+7,j:j+7)的MAD值,选取具有最小MAD值的块计算运动矢量。
(2)车辆标号位置的校正
由于运动矢量计算中不可避免的误差和车辆自身的形变,经过移位之后的标号可能存在误差。而标号的误差会进一步导致车辆运动矢量的误差,这两种误差相互影响、不断累计会极大地降低跟踪率,因此必须在移位之后对车辆标号进行校正,
车辆标号的校正只需在包含车辆标号h的最小矩阵框[xmin xmax ymin ymax]中进行,其中xmin、ymin分别是块标号矩阵Labeli-1中所有标号为h的块的最小横纵坐标,xmax、ymax分别是块标号矩阵Labeli-1中所有标号为h的块的最大横纵坐标,首先利用在车辆检测中用到的的阈值计算方法计算背景差图像BPi-1的分割阈值T2,再分别计算最小矩阵框中的所有块的平均灰度,如果块的平均灰度大于阈值T2,则给该块标上车辆的标号h;否则将该块的标号设置为0,即:
对于任意的块D(x,y),xmin≤x≤xmax且ymin≤y≤ymax,其平均灰度为:
K ( x , y ) = ( &Sigma; m = ( x - 1 ) &times; 8 + 1 x &times; 8 &Sigma; n = ( y - 1 ) &times; 8 + 1 y &times; 8 BP i - 1 ( m , n ) ) / 64
如果K(x,y)≥T2,则Labeli-1(x,y)=h;如果K(x,y)<T2,则Labeli-1(x,y)=0。
图9所示的图像为P86,在P86中车辆即将离开检测线,其标号结果如图10所示。当采集到图像P88时,对P87(图12)进行车辆检测,未检测到车辆,计算P86所对应块标号矩阵Lable86中所有标号为1的块在图像P86和图像P87之间的运动矢量,运动矢量结果如图11所示。选取其中出现频率最大者(-11,1)(矢量单位为像素)作为车辆的运动矢量,利用矢量(-11,1)对车辆标号的位置进行更新得到如图13所示的标号结果,对该标号结果进行标号校正,最终得到图像P87所对应的块标号矩阵Lable87,如图14所示。
具体实例二
车辆间遮挡现象的检测和处理
在实例一中交通场景内的车辆较少,本实例拍摄了另外一组交通量较大的序列图像,当交通量较大时车辆间将有可能会发生,而车辆间的遮挡现象会造成标号的错误,进而会降低车辆检测与跟踪精度,因此必须对遮挡现象进行检测和分割,
(1)车辆间遮挡现象的检测
对单辆车而言,以包含所有标号的最小矩形框[xmin xmax ymin ymax]作为该车的位置,则当前图像Pi-1中的所有车辆分别由各自的最小矩形框来表示,且矩形框的标号与框内块的标号一致,对所有的矩形框进行两两比较和判断,若两个矩形框存在重叠部分,则表明矩形框所代表的车辆间存在遮挡现象,并将重叠部分定义为遮挡区域;反之,若两个矩形框不存在重叠部分,则表明矩形框所代表的车辆间不存在遮挡现象,
在对图像P108进行车辆检测和车辆跟踪之后,得到如图15所示的车辆标号结果,对图像P108的块标号矩阵Lable108中的所有块按标号进行分组,标号为0的块代表背景区域,其他两组具有相同标号的块分别代表车辆5和车辆6,分别计算包含两个组所有块的最小方框,车辆5的位置用白色的方框表示,车辆6的位置用灰色的方框表示。方框坐标确定之后,对两个方框之间的关系进行判断,发现方框之间出现重叠,则表明车辆5和车辆6之间存在着遮挡现象,方框重叠部分即为遮挡区域,至此便完成了图像P108中遮挡现象的检测。
(2)车辆间遮挡现象的检测
在检测到遮挡现象并得到遮挡区域之后,针对遮挡区域建立Markov模型,模型中标号的个数即为遮挡区域中块的个数,给遮挡区域中所有块的标号都设定一个确定值便得到一组标号组合,每组标号组合都对应一个能量函数,在所有可能的标号组合的范围内,对能量函数进行最小优化,得到的最小能量函数所对应的标号组合即为遮挡区域的分割结果,具体步骤如下:
1)根据矩形框的标号确定发生遮挡现象的车辆,假设存在重叠部分的两个矩形框的标号分别为v1和车辆v2,则表示车辆v1和车辆v2之间发生了遮挡现象。车辆v1在相邻两帧Pi-2和Pi-1间的运动矢量为(v1x,v1y),车辆v2在相邻两帧Pi-2和Pi-1间对应的运动矢量为(v2x,v2y),对遮挡区域的所有块进行排序block=(1,2,3...K),K为遮挡区域内块的数量;
2)任意假定一组标号组合lable=(v1,v2,v3...vk...vK),对于第k个块而言,它的标号为vk(vk=v1或vk=v2),该块能量函数的第一项为U1k=a(Nk-8)2
式中a为系数,Nk为该块的八邻域内标号为vk的块的数目;
3)对于第k个块而言,能量函数的第二项为U2k=b(Mk-64)2
将第k个块按标号vk对应的负矢量(-v_x,-v_y)从当前帧移动到前一帧,Mk为移动之后的块中与前一帧相同位置标号相同的像素的数目;
4)对于第k个块而言,能量函数第三项为U3k=cDk 2
将第k个块按标号vk对应的负矢量(-vkx,-vky)从当前帧移动到前一帧,得到块k′。对块k′和块k中的64对对应像素进行灰度差计算,取绝对值之后进行相加,即得到Dk
5)标号组合lable总的能量函数为
Figure C20081002469900161
6)在所有可能标号组合的能量函数值中进行最小寻优计算,将所得到的标号组合lable赋予遮挡区域中相应的块,
在检测到图像P108中存在遮挡现象之后,利用车辆5的运动矢量[-6 4]和车辆6的运动矢量[-4 3]计算遮挡区域中所有标号组合的能量函数,寻找出具有最小能量的标号组合,得到如图16所示的车辆标号结果,对比图15和图16可以看出,遮挡区域已经得到了准确的分割。

Claims (2)

1.一种基于视频技术的车辆检测与跟踪方法,其特征在于:
①交通场景背景图像的不断更新
设背景初始化之后得到的背景图像为B0,每当重新采集到第i帧图像Pi时,计算对应于第i-1帧图像Pi-1的背景图像Bi-1
设当i=2时不需对背景进行更新,即B1=B0,B1为第1帧图像P1的背景图像;而当i>2时,首先利用连续三帧图像Pi-2、Pi-1和Pi计算对称帧差图像|Pi-1-Pi-2|和|Pi-Pi-1|,并利用这两幅对称帧差图像进行二值化计算,得到与所采集第i帧图像Pi大小相等的第1标号图L1
L 1 ( x , y ) = 1 if | P i - 1 ( x , y ) - P i - 2 ( x , y ) | > t 1 and | P i ( x , y ) - P i - 1 ( x , y ) | > t 1 0 else
式中,Pi(x,y)表示第i帧图像Pi中坐标为(x,y)的像素的灰度,L1(x,y)表示第1标号图L1中坐标为(x,y)的点的标号,L1(x,y)取1时表示点(x,y)在连续三帧图像Pi-2、Pi-1和Pi中是运动的,L1(x,y)取0时表示点(x,y)在连续三帧图像Pi-2、Pi-1和Pi中是静止的,t1表示二值化计算时的阈值,预先设定为5~10,
在得到第1标号图L1之后,接着对第1标号图L1进行种子填充,得到新的第1标号图L1′,
其次,对第i-1帧图像Pi-1中所有像素的灰度Pi-1(x,y)进行四邻域平均计算,得到图像Pi-1′,即:
Pi-1′(x,y)=(Pi-1(x-1,y)+Pi-1(x,y-1)+Pi-1(x,y)+Pi-1(x,y+1)+Pi-1(x+1,y))/5
接着,利用图像Pi-1′和背景图像Bi-2计算背景差图像|Pi-1′-Bi-2|,并对该背景差图像进行二值化计算,得到第2标号图L2
L 2 ( x , y ) = 1 if | P i - 1 &prime; ( x , y ) - B i - 2 ( x , y ) | > t 2 0 else
其中Bi-2为第i-2帧图像的背景图像,t2为二值化计算时的阈值,通过车辆检测过程中的阈值计算方法计算得到,
最后,根据新的第1标号图L1′和第2标号图L2中对应点之间的4种逻辑关系,将第i-2帧图像的背景图像Bi-2分为4个区域,并对该4个区域采用下列灰度更新方法进行更新,得到更新后的背景图像Bi-1
B i - 1 ( x , y ) = P i - 1 ( x , y ) if L 1 &prime; ( x , y ) = 0 andL 2 ( x , y ) = 0 B i - 2 ( x , y ) + M if L 1 &prime; ( x , y ) = 0 andL 2 ( x , y ) = 1 and P i - 1 ( x , y ) > B i - 2 ( x , y ) B i - 2 ( x , y ) - M if L 1 &prime; ( x , y ) = 0 and L 2 ( x , y ) = 1 and P i - 1 ( x , y ) < B i - 2 ( x , y ) B i - 2 ( x , y ) else
其中,M取值决定背景更新的速度,取1或2;
②设置虚拟检测线,当车辆通过检测线时对其进行检测,得到车辆的初始标号
在背景初始化完成之后,重新开始采集图像,设重新采集的第i帧图像为Pi,在图像Pi-1上的车道入口处设置与车道垂直的虚拟检测线Line,其宽度为8像素,
设图像矩阵Pi的大小为M×N,以8×8像素为块,得到块的矩阵Di,其大小为m×n,其中m=M/8,n=N/8,块矩阵Di中的每个元素都表示一个大小为8×8的块Di(x,y),定义大小为m×n的块标号矩阵Labeli,其中块标号矩阵Labeli中的元素Labeli(x,y)表示块Di(x,y)的标号,将背景区域的块Di(x,y)的标号Labeli(x,y)设为0,将第h辆车区域的块Di(x,y)的标号Labeli(x,y)设为h,h为自然数,
Labeli中的所有元素初始化为0,设检测线Line在块矩阵Di中的x方向坐标为l,则它在图像Pi-1中上边缘线的x坐标为(l-1)×8+1,下边缘线的x坐标为l×8,
将当前帧图像Pi-1与背景图像Bi-1进行相减,并取绝对值,得到背景差图像BPi-1
BPi-1=|Pi-1-Bi-1|
BPi-1中检测线区域的图像设为Linei-1,其大小为8×N,可以分成为1×n个块,车辆检测的步骤如下:
步骤一:计算检测线图像Linei-1的分割阈值T,该分割阈值T采用迭代法得到,
步骤二:分别计算检测线图像Linei-1中n个块的平均灰度值,对第j个块而言,其平均灰度值Kj为:
K j = ( &Sigma; x = 1 8 &Sigma; y = ( j - 1 ) &times; 8 + 1 j &times; 8 Line i - 1 ( x , y ) ) / 64
其中,Linei-1(x,y)是检测线图像Linei-1中坐标为(x,y)的像素的灰度,
步骤三:分别对检测线图像Linei-1中n个块的平均灰度值和阈值T进行比较,如果第j个块的平均灰度值Kj大于或等于阈值T,则说明检测线图像Linei-1上检测到了车辆,并给该块赋予标号h,表示该块属于第h次到达检测线的车辆,如果第j个块的平均灰度值Kj小于阈值T,则第j个块的标号仍然为0,表示该块属于背景区域,
即,如果Kj≥T,则Labeli-1(l,j)=h;如果Kj<T,则Labeli-1(l,j)=0
其中,Labeli-1(l,j)是块标号矩阵Labeli-1中坐标为(l,j)的块的标号,h表示该车到达检测线的次序,且当前两帧检测线图像Linei-3和Linei-2中没有检测到车辆,而当前帧检测线图像Linei-1中检测到车辆时,对h进行一次更新,即h=h+1;
③检测到车辆之后,计算车辆的运动矢量,利用运动矢量进行标号移位
在对第i-1帧图像Pi-1进行车辆检测之后,如果第i-2帧图像Pi-2中存在第h次到达的车辆,则首先确定所有属于该车辆的块的集合Blocki-2={Di-2(m,n)|Labeli-2(m,n)=h},然后分别计算块集合Blocki-2中每个块Di-2(m,n)在第i-2帧图像Pi-2和第i-1帧图像Pi-1之间的运动矢量,记为(vmx,vny),这些运动矢量的集合为
Figure C2008100246990004C1
计算集合V中出现频率最大的运动矢量作为车辆的运动矢量(vtx,vty),并利用运动矢量(vtx,vty)对车辆标号的位置进行更新,即,对于任意的块
Figure C2008100246990004C2
而言,块Di-2(m,n)的位置从第i-2帧图像Pi-2中的坐标(m,n)运动到第i-1帧图像Pi-1中的坐标(m+vtx,n+vty),故令Labeli-1(m+vtx,n+vty)=h,完成车辆标号位置的更新,
所述车辆的运动矢量(vtx,vty)的计算方法为:选择车辆后部分的运动矢量代表整辆车的运动矢量,即对车辆最后两行的所有块进行运动矢量计算,并从这些运动矢量中找出出现频率最大的矢量,以之作为车辆的运动矢量,
所述运动矢量(vmx,vny)的计算方法为:首先采用三步法,然后,在运动矢量长度小于2个像素时,采用全搜索法;
④车辆标号的校正
车辆标号的校正只需在包含车辆标号h的最小矩阵框[xmin xmax ymin ymax]中进行,其中xmin、ymin分别是块标号矩阵Labeli-1中所有标号为h的块的最小横纵坐标,xmax、ymax分别是块标号矩阵Labeli-1中所有标号为h的块的最大横纵坐标,首先利用在车辆检测中用到的阈值计算方法计算背景差图像BPi-1的分割阈值T2,再分别计算最小矩阵框中的所有块的平均灰度,如果块的平均灰度大于阈值T2,则给该块标上车辆的标号h;否则将该块的标号设置为0,即:
对于任意的块D(x,y),xmin≤x≤xmax且ymin≤y≤ymax,其平均灰度为:
K ( x , y ) = ( &Sigma; m = ( x - 1 ) &times; 8 + 1 x &times; 8 &Sigma; n = ( j - 1 ) &times; 8 + 1 y &times; 8 BP i - 1 ( m , n ) ) / 64
如果K(x,y)≥T2,则Labeli-1(x,y)=h;如果K(x,y)<T2,则Labeli-1(x,y)=0;
⑤检测车辆间的遮挡现象并进行分割
(1)遮挡现象的检测
对单辆车而言,以包含所有标号的最小矩形框[xmin xmax ymin ymax]作为该车的位置,则当前图像Pi-1中的所有车辆分别由各自的最小矩形框来表示,且矩形框的标号与框内块的标号一致,对所有的矩形框进行两两比较和判断,若两个矩形框存在重叠部分,则表明矩形框所代表的车辆间存在遮挡现象,并将重叠部分定义为遮挡区域;反之,若两个矩形框不存在重叠部分,则表明矩形框所代表的车辆间不存在遮挡现象,
(2)遮挡区域的分割
检测到遮挡现象并得到遮挡区域之后,针对遮挡区域建立Markov模型,模型中标号的个数即为遮挡区域中块的个数,给遮挡区域中所有块的标号都设定一个确定值便得到一组标号组合,每组标号组合都对应一个能量函数,在所有可能的标号组合的范围内,对能量函数进行最小优化,得到的最小能量函数所对应的标号组合即为遮挡区域的分割结果。
2.根据权利要求1所述的基于视频技术的车辆检测与跟踪方法,其特征在于在使用全搜索法计算运动矢量(vmx,vny)中,运动矢量长度小于1个像素时,对与运动矢量计算的目标块N的距离为0.5像素的8个块进行灰度插值。
CN200810024699A 2008-04-01 2008-04-01 基于视频技术的车辆检测与跟踪方法 Expired - Fee Related CN100595792C (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN200810024699A CN100595792C (zh) 2008-04-01 2008-04-01 基于视频技术的车辆检测与跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN200810024699A CN100595792C (zh) 2008-04-01 2008-04-01 基于视频技术的车辆检测与跟踪方法

Publications (2)

Publication Number Publication Date
CN101251927A CN101251927A (zh) 2008-08-27
CN100595792C true CN100595792C (zh) 2010-03-24

Family

ID=39955306

Family Applications (1)

Application Number Title Priority Date Filing Date
CN200810024699A Expired - Fee Related CN100595792C (zh) 2008-04-01 2008-04-01 基于视频技术的车辆检测与跟踪方法

Country Status (1)

Country Link
CN (1) CN100595792C (zh)

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101510356B (zh) * 2009-02-24 2011-07-20 上海高德威智能交通系统有限公司 视频检测系统及其数据处理装置、视频检测方法
CN101577052B (zh) * 2009-05-14 2011-06-08 中国科学技术大学 俯空车辆检测装置和方法
CN101877132B (zh) * 2009-11-27 2014-03-26 北京中星微电子有限公司 用于运动跟踪的交互事件处理方法和装置
CN101739560B (zh) * 2009-12-16 2012-02-01 东南大学 基于边缘和骨架信息的车辆阴影消除方法
CN101968809B (zh) * 2010-10-27 2012-06-06 北京理工大学 一种基于mcmc的优化信息检索方法
TWI425454B (zh) * 2010-12-28 2014-02-01 Ind Tech Res Inst 行車路徑重建方法、系統及電腦程式產品
CN102034355A (zh) * 2010-12-28 2011-04-27 丁天 一种基于特征点匹配的车辆检测及跟踪方法
CN102073852B (zh) * 2011-01-14 2013-01-09 华南理工大学 基于最优阈值和随机标号法的多车辆分割方法
CN102156989B (zh) * 2011-02-25 2012-11-21 崔志明 视频帧中车辆遮挡检测与分割方法
CN102156860A (zh) * 2011-04-25 2011-08-17 北京汉王智通科技有限公司 车辆检测方法和装置
CN102222345B (zh) * 2011-05-20 2012-10-31 重庆大学 视频车辆检测优化方法
CN102208019B (zh) * 2011-06-03 2013-01-09 东南大学 基于车载摄像机的车辆变道检测方法
DE102011053052B3 (de) * 2011-08-26 2013-02-28 Jenoptik Robot Gmbh Verfahren und Vorrichtung zur Identifikation von Kraftfahrzeugen zur Verkehrsüberwachung
CN102368352B (zh) * 2011-10-08 2013-10-30 中盟智能科技(苏州)有限公司 交通信息采集方法及装置
CN102496164B (zh) * 2011-11-14 2013-12-11 通号通信信息集团有限公司 一种事件检测方法及系统
CN102592454A (zh) * 2012-02-29 2012-07-18 北京航空航天大学 一种基于车辆侧面与路面交线检测的交叉口车辆运动参数测量方法
CN102592456B (zh) * 2012-03-09 2013-11-20 福建省视通光电网络有限公司 一种基于视频的车辆测速方法
CN102622886B (zh) * 2012-03-23 2014-04-30 长安大学 一种基于视频的车辆违章变道事件检测方法
CN102682602B (zh) * 2012-05-15 2014-05-07 华南理工大学 一种基于视频技术的道路交通参数采集方法
CN103927508B (zh) * 2013-01-11 2017-03-22 浙江大华技术股份有限公司 一种目标车辆跟踪方法及装置
DE102013002994B4 (de) * 2013-02-22 2017-04-27 S.M.S Smart Microwave Sensors Gmbh Verfahren und Vorrichtung zum Bestimmen eines Erfassungsbereichs eines Verkehrsweges
CN103295403B (zh) * 2013-06-17 2016-02-10 湘潭大学 一种交通流视觉检测方法
CN103794050A (zh) * 2014-01-21 2014-05-14 华东交通大学 一种实时的交通车辆检测与跟踪方法
CN106415692B (zh) * 2014-06-24 2020-05-12 哈曼国际工业有限公司 基于专用信道的汽车通信
CN104183142B (zh) * 2014-08-18 2017-03-15 安徽科力信息产业有限责任公司 一种基于图像视觉处理技术的车流量统计方法
CN104301735B (zh) * 2014-10-31 2017-09-29 武汉大学 城市交通监控视频全局编码方法及系统
CN104537833B (zh) * 2014-12-19 2017-03-29 深圳大学 一种交通异常检测方法及系统
CN105809167B (zh) * 2015-03-13 2019-06-18 西安邮电大学 一种用于分割监控视频中存在粘连车辆的方法
CN106228811B (zh) * 2015-04-24 2018-11-30 西安航空学院 一种山区高速公路道路试验信号检测系统的数据处理方法
CN105243527B (zh) * 2015-09-14 2019-02-22 浙江中烟工业有限责任公司 一种物流园区车行通道智能调度系统及方法
CN105389830B (zh) * 2015-10-13 2018-01-05 西北工业大学 基于多层检测模型和群体行为模型的车辆跟踪方法
CN105554414B (zh) * 2015-12-15 2018-04-27 浙江宇视科技有限公司 强光抑制方法及装置
US9805274B2 (en) * 2016-02-03 2017-10-31 Honda Motor Co., Ltd. Partially occluded object detection using context and depth ordering
CN107092855A (zh) * 2016-02-18 2017-08-25 日本电气株式会社 车辆部件识别方法和设备、车辆识别方法和设备
CN106448202A (zh) * 2016-10-31 2017-02-22 长安大学 一种基于视频的弯道预警系统及预警方法
CN107315095B (zh) * 2017-06-19 2019-07-02 哈尔滨工业大学 基于视频处理的具有光照适应性的多车辆自动测速方法
CN107945523B (zh) * 2017-11-27 2020-01-03 北京华道兴科技有限公司 一种道路车辆检测方法、交通参数检测方法及装置
CN109544907A (zh) * 2018-10-23 2019-03-29 大唐软件技术股份有限公司 一种车辆计数方法、装置
CN110956824A (zh) * 2019-12-12 2020-04-03 天地伟业技术有限公司 一种基于视频的事件监测方法
CN111397520B (zh) * 2020-04-23 2020-11-17 徐州宏远通信科技有限公司 基于图像识别的耙式浓缩池沉淀层厚度检测方法及装置
CN116158077A (zh) * 2020-08-24 2023-05-23 华为技术有限公司 一种优化运动矢量的方法及其相关设备
CN112509324A (zh) * 2020-12-01 2021-03-16 苏州金螳螂怡和科技有限公司 一种基于虚拟线圈视频的车辆检测系统及其方法
CN113344963B (zh) * 2021-05-27 2022-10-25 绍兴市北大信息技术科创中心 一种基于图像分割的种子点自适应目标跟踪系统

Non-Patent Citations (8)

* Cited by examiner, † Cited by third party
Title
一种基于车辆跟踪的微观交通参数采集方法. 刘,涛等.交通运输工程与信息学报,第4卷第2期. 2006
一种基于车辆跟踪的微观交通参数采集方法. 刘涛等.交通运输工程与信息学报,第4卷第2期. 2006 *
基于L abview 的车辆跟踪系统. 施毅等.交通与计算机,第24卷第130期. 2006
基于L abview 的车辆跟踪系统. 施毅等.交通与计算机,第24卷第130期. 2006 *
基于视频技术的车辆跟踪方法研究. 丁昌华.中国优秀博硕士学位论文全文数据库 (硕士) 工程科技Ⅱ辑,第04期. 2007
基于视频技术的车辆跟踪方法研究. 丁昌华.中国优秀博硕士学位论文全文数据库(硕士)工程科技Ⅱ辑,第04期. 2007 *
基于运动矢量的车辆实时跟踪系统. 朱,周等.交通运输工程与信息学报,第5卷第4期. 2007
基于运动矢量的车辆实时跟踪系统. 朱周等.交通运输工程与信息学报,第5卷第4期. 2007 *

Also Published As

Publication number Publication date
CN101251927A (zh) 2008-08-27

Similar Documents

Publication Publication Date Title
CN100595792C (zh) 基于视频技术的车辆检测与跟踪方法
CN110175576B (zh) 一种结合激光点云数据的行驶车辆视觉检测方法
Paton et al. Bridging the appearance gap: Multi-experience localization for long-term visual teach and repeat
CN103927526B (zh) 一种基于高斯差分多尺度边缘融合的车辆检测方法
CN102289948A (zh) 高速公路场景下一种多特征融合的多车辆视频跟踪方法
CN104700414A (zh) 一种基于车载双目相机的前方道路行人快速测距方法
CN105930833A (zh) 一种基于视频监控的车辆跟踪与分割方法
CN105869178A (zh) 一种基于多尺度组合特征凸优化的复杂目标动态场景无监督分割方法
CN102592128B (zh) 一种动态图像检测处理方法、装置及显示终端
CN110348332B (zh) 一种交通视频场景下机非人多目标实时轨迹提取方法
CN103206957B (zh) 车辆自主导航的车道线检测与跟踪方法
CN112906583B (zh) 一种车道线检测方法及装置
CN103839038A (zh) 一种人数统计的方法及装置
CN110379168A (zh) 一种基于Mask R-CNN的交通车辆信息获取方法
CN109241855B (zh) 基于立体视觉的智能车辆可行驶区域探测方法
CN103136537A (zh) 一种基于支持向量机的车型识别方法
CN107909047A (zh) 一种汽车及其应用的车道检测方法及系统
CN103794050A (zh) 一种实时的交通车辆检测与跟踪方法
CN103473763A (zh) 基于启发式概率Hough变换的道路边缘检测方法
CN113516664A (zh) 一种基于语义分割动态点的视觉slam方法
Cheng et al. Semantic segmentation of road profiles for efficient sensing in autonomous driving
Wei et al. Road network extraction from satellite images using CNN based segmentation and tracing
CN105654060A (zh) 一种从道路监控视频获取车辆车速的方法
CN110598711A (zh) 一种结合分类任务的目标分割方法
Kim et al. Pedestrian detection with simplified depth prediction

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C17 Cessation of patent right
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20100324

Termination date: 20130401