CN101800890A - 一种高速公路监控场景下多车辆视频跟踪方法 - Google Patents

一种高速公路监控场景下多车辆视频跟踪方法 Download PDF

Info

Publication number
CN101800890A
CN101800890A CN 201010144098 CN201010144098A CN101800890A CN 101800890 A CN101800890 A CN 101800890A CN 201010144098 CN201010144098 CN 201010144098 CN 201010144098 A CN201010144098 A CN 201010144098A CN 101800890 A CN101800890 A CN 101800890A
Authority
CN
China
Prior art keywords
mrow
msubsup
vehicle
mover
msub
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN 201010144098
Other languages
English (en)
Other versions
CN101800890B (zh
Inventor
魏奇
李超
闻佳
熊璋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beihang University
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN 201010144098 priority Critical patent/CN101800890B/zh
Publication of CN101800890A publication Critical patent/CN101800890A/zh
Application granted granted Critical
Publication of CN101800890B publication Critical patent/CN101800890B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

一种高速公路监控场景下多车辆视频跟踪方法,其特征在于包括如下步骤:(1)检测车辆运动区域:包括对高速公路监控车道区域进行自适应估计和采用快速约束三角剖分方法检测车辆目标区域;(2)建立多车辆目标模型:包括采用车辆状态模型二次自回归模型进行预测,观测模型采用颜色直方图特征和局部积分方向描述子(LlOD,Local Integral OrientationDescriptor)特征融合建模,采用阈值方法判断车辆进、出监控区域(3)基于分层粒子滤波的车辆跟踪:采用Camshift算法与粒子滤波分层次相融合方法进行鲁棒跟踪。本发明为高速公路监控场景下多车辆视频跟踪提供了较为完整的技术方案,能够实现对车辆的鲁棒跟踪。

Description

一种高速公路监控场景下多车辆视频跟踪方法
技术领域
本发明涉及一种高速公路监控场景下多车辆视频跟踪方法,属于基于机器视觉技术领域的方法。
背景技术
通常情况下,交通场景的监控主要是通过人工控制来完成。它需要投入大量的人力和物力,即便这样,在高强度的工作环境下,遗漏仍可能发生;特别是出现车辆异常事件时,也不能进一步作出快速反应的。因此,智能交通系统(ITS,Intelligent Transportation Systems)基于机器视觉在近年发展起来。它通过分析视频序列检测、识别和跟踪车辆目标,以获得诸如位置,速度,方向和加速度等运动参数,无需任何人人工干预,或者很少的人工干预。一般来说,三个关键问题需要解决,即:1)检测感兴趣区域(ROI)的车辆的目标;2)建模的车辆目标;3)定位运动车辆的目标。
对于第一个问题,Zehang Sun等在《IEEE模式识别与机器智能学报》(2006年第694-711页)发表文章“道路车辆检测:概览”(《IEEETransactions on Pattern Analysis and Machine Intelligence》(pp.694-711,2006):“On-road vehicle detection:a review”)进行了总结,包括基于知识的、基于运动的和基于表观特征的检测方法。
很多视觉特征可以被选择为车辆目标的跟踪进行表观建模。Comaniciu等在《IEEE模式识别与机器智能学报》(2003年第564-577页)上发表文章“基于核函数的物体跟踪”(《IEEE Transactions on Pattern Analysis andMachine Intelligence》(pp.564-577,2003):“Kernel-based objecttracking”)提出了基于颜色直方图的跟踪算法,该方法对环境噪音和部分遮挡是鲁棒的,但是在背景与目标颜色相同或者光线变化时该方法失效。LiPH等在《图像与视觉计算》(2003年第111-123页)上发表文章“基于粒子滤波的视觉轮廓跟踪算法”(《Image and Vision Computing》(pp.111-123,2003):“Visual contour tracking based on particle filters”)提出边缘特征对于克服颜色特征的是一种不错的选择,该特征不需要对车辆目标进行明确建模,但是,计算边缘是一件非常耗时的过程。近些年来,特征描述子被得到广泛的关注,该类特征可以嵌入跟踪框架中。Tu Q等人在“IEEE信息与自动化国际会议”会议集(2008年第86-90页)上发表文章“基于仿射不变特征的鲁棒的车辆跟踪算法”(“IEEE InternationalConference on Information and Automation”(pp.86-90,2008):“Robustvehicle tracking based on Scale Invariant Feature Transform”),该算法利用了SIFT描述子进行车辆的跟踪。但是,SIFT的计算复杂度非常高无法满足实时监控系统的要求。其他特征,如光流、小波、统计学习等,同样被用作目标建模。
一般来说,车辆目标的定位方法可分为两类:确定性跟踪和概率性跟踪。确定性跟踪的实质是一个优化问题,通过车辆检测获得其目标模板,并建立特征函数来度量车辆候选区域与参考模板之间的相似度,当特征函数取得最大值时,目标被定位。MeanShift算法就是确定性跟踪的典型代表,该算法计算简单且有效,但是传统的MeanShift算法在跟踪目标是假定目标是不发生变化的,因此,当表观特征发生变化时,跟踪会偏离甚至失效。概率性跟踪算法是在贝叶斯框架下求解目标状态的后验概率密度的过程。卡尔曼滤波,隐马尔科夫模型和粒子滤波器都可以用来进行目标跟踪。粒子滤波由于是非线性、非高斯且多模态的特点,被广泛应用,但是单纯使用粒子滤波进行跟踪需要大量粒子。因此,可以考虑将确定性跟踪方法与概率性跟踪方法进行结合,特别是将MeanShift算法与粒子滤波算法结合,既能克服MeanShift算法没有预测功能的缺点,又能解决粒子滤波算法需要大量粒子进行精确计算的缺点。Camshift算法是MeanShift的一种改进算法,它作用于动态概率分布,在连续的视频图像序列中,运动物体的尺寸和位置的变化导致相应的概率分布的动态变化,该算法自适应概率分布的动态变化,根据概率分布的变化情况自动调整搜寻窗口的尺寸和位置。
发明内容
本发明要的技术解决问题:克服现有技术的不足,提供一种高速公路监控场景下多车辆视频跟踪方法,该方法重点解决的问题包括:
(1)车辆运动区域检测
(2)多车辆目标建模
(3)车辆目标定位
本发明的技术方案:一种高速公路监控场景下多车辆视频跟踪方法,其特征在于包括如下步骤:
(1)检测车辆运动区域:包括对高速公路监控车道区域进行自适应估计和采用快速约束三角剖分方法检测车辆目标区域;
(2)建立多车辆目标模型:包括采用车辆状态模型二次自回归模型进行预测,观测模型采用颜色直方图特征和局部积分方向描述子(LIOD,LocalIntegral Orientation Descriptor)特征融合建模,采用阈值方法判断车辆进、出监控区域
(3)基于分层粒子滤波的车辆跟踪:采用Camshift算法与粒子滤波分层次相融合方法进行鲁棒跟踪。
其中,所述步骤(1)首先对高速公路监控车道区域进行自适应估计:
假设第(k+1)帧中,背景像素点p的灰度值表述为:
G(k+1,p)=G(k,p)+L(k,p)+noise1(k,p)
其中,G(k,p)是第k帧中,背景像素点p的灰度值;L(k,p)是描述光照随着时间变化的不确定模型;noise1(k,p)为以零为中心的高斯白噪声(含系统测量误差);输入图像像素点p的灰度表示为:
I(k,p)=G(k,p)+noise2(k,p)
其中,noise2(k,p)为一个以零为中心的高斯白噪声;消去系统测量误差得到:
I(k+1,p)=G(k,p)+ω(k+1,p)
其中,ω(k+1,p)=L(k,p)+noise1(k,p)+noise2(k+1,p),且ω(k,p)是高斯分布。
其中,所述步骤(1)的检测车辆目标区域采用快速约束三角剖分方法,包括如下步骤:
1)通过Canny算子提取轮廓信息;
2)对图像轮廓应用Hough变换取得图像中的直线集合;
3)提取直线两端点得到角点集合;
4)以所有约束边为基础,构建初始约束三角网,并依次插入所有独立角点;
5)提取角密度,水平直线密度,密度垂直直线,三角形密度和车辆区域的平均亮度构建特征向量;
6)将候选区域中的五个特征向量输入以K(x,y)=x×y为核函数的支持向量机中,可以得到输出ESVM,当ESVM大于系统设定的置信阈值Eξ的时候,则该区域为真实车辆区域。
其中,所述步骤(2)的车辆状态模型定义为:S=(x,y,l,h)T,其中,(x,y)构成被跟踪目标的中心点C=(x,y)T,搜索窗W=(l,h)T是长为l,宽为h的矩形;采用二次线性自回归的方法预测当前的状态:
p(Sk|Sk-1,Sk-2,…,S1)~N(Sk;2Sk-1-Sk-2,∑);
多车辆目标时,状态预测模型为:
p(Sk(m)|Sk-1(m),…,S1(m))~N(Sk(m);2Sk-1(m)-Sk-2(m),∑(m))
其中,假设目标之间是相互独立的,且当前有M个车辆目标,Sk(m)表示第k帧中第m个车辆目标的状态。
其中,所述步骤(2)的车辆观测模型是由RGB颜色直方图特征和局部积分方向描述子特征进行融合构成的:
p(Ok|Sk)∝pcolor(Ok|Sk)pLIOD(Ok|Sk),其中,
Figure GSA00000082537200051
是基于RGB颜色直方图特征的观测函数,
Figure GSA00000082537200052
是局部积分方向描述子特征的观测函数,Ok为当前视频帧,B(·,·)是巴氏距离;H和H*分别是从被Sk覆盖的区域中估计出的候选颜色直方图和参考颜色直方图;HLIOD和HLIOD *分别是从被Sk覆盖的区域中估计出的候选局部积分方向描述子直方图和参考局部积分方向描述子直方图。
其中,所述局部积分方向描述子是对局部图像梯度的方向采用得到8个分格,每个像素位置的梯度方向可以由其梯度值加权得到,每一个像素位置的第t个分格在s尺度时的加权梯度方向直方图定义如下:
Figure GSA00000082537200053
其中,
Figure GSA00000082537200054
是梯度向量,即为像素点(x,y)处的梯度Gx(x,y),Gy(x,y);R是在像素点(x,y)的作为尺度函数的局部支持区域的尺寸;Z是标准化因子,ω(x,y,k)是第t个分格的方向计数器:
ω ( x , y , t ) = 1 ifθ ( x , y ) ∈ t th bin 0 otherwise ,
其中,θ(x,y)是像素点(x,y)的梯度方向角arctan(Gy(x,y)/Gx(x,y))。
其中,所述步骤(2)中对车辆进、出监控区域采用阈值方法进行判断:
1)车辆进入监控区域:Tin为判断新车辆目标进入视场的阈值,第k帧时有J个车辆目标,第k-1帧有M个车辆目标,且有J>M,满足以下条件时有车辆进入监控区域:
p ( O k ( j ) | S k i ( m ) ) < T in ;
2)车辆退出监控区域:Tout为判断车辆目标离开视场的阈值,第k帧时有P个车辆目标,第k-1帧有M个车辆目标,且有P<M,满足一下条件时有车辆退出监控区域:
p ( O k ( p ) | S k i ( m ) ) < T out ;
其中,Sk i(m)则表示第k帧中第m个车辆目标的第i个粒子的状态。
其中,所述步骤(3)采用Camshift算法与粒子滤波分层次相融合方法进行鲁棒跟踪的具体步骤为:
1)将(0,1]分成N个连续互不重合的区间,即
Figure GSA00000082537200062
N即为初始化的粒子个数;
2)对每个独立同分布采样得到的初始粒子集{Si}i=1,2,…,N,有
Figure GSA00000082537200063
其中U((u,v])表示在区间(u,v]上的均匀分布;
3)粒子状态Sk i的期望值并得到该粒子的权重 &omega; k i = p ( O k | S k i ) ;
4)将粒子集随机地分成2个数目相等子集:{Sk m}m=1,2,,N/2,{Sk n}n=1,2,,N/2
5)对其中一个子集{Sk m}m=1,2,,N/2的每一个粒子进行迭代:
选择加权值最大的粒子,然后我们使用该子集中的所有粒子,来计算这个粒子状态中心点的平均位移,进而接近其局部模式:
mean _ shift ( C &OverBar; t i ) = &Sigma; j = 1 M C j m ( C j ) g ( | | C &OverBar; k i - C j r | | 2 ) &Sigma; j = 1 M m ( C j ) g ( | | C &OverBar; k i - C j r | | 2 ) - C &OverBar; t i ,
其中{Cj}j=1...N/2是状态
Figure GSA00000082537200067
在矩形区域像素坐标点;m(Cj)是在点Cj处像素值的相似权重,它是对应的H*
Figure GSA00000082537200068
的直方图二进制比率的平方根;g()是一个核函数;r是标准化后的窗口半径;
该粒子的状态中心点均以最新的状态中心近似构成:
C k i &ap; mean _ shift ( C &OverBar; k i ) + C &OverBar; k i ;
该粒子的窗口尺寸,利用如下方法进行调整:
W &OverBar; k i &ap; k M 00 ( S &OverBar; k i ) 256 &times; l &OverBar; k i &times; h &OverBar; k i &CenterDot; W &OverBar; t i ,
其中k是一个经验常量值,零阶矩M00按照以下公式计算: M 00 = &Sigma; j = 1 M m ( C j ) ;
该粒子权重也进行相应为: &omega; k i &ap; p ( O k | S k i ) ;
将经过一次迭代的子集与原有不变的子集{Sk n}m=1,2,,N/2合并,得到新的粒子集{Sk i}i=1,2,,N,同时对两个子集的权值合并且正则化
Figure GSA00000082537200074
协方差按照迭代次数成指数级递减,即有
Figure GSA00000082537200075
j=1,2,…,I,其中I是迭代次数;得到新的状态概率密度函数;
6)迭代结束,输出对当前状态的估计: S ~ k = &Sigma; i = 1 N S k i &omega; k i .
本发明与现有技术相比的优点在于:
(1)对高速公路监控车道区域进行自适应估计是基于Kalman滤波的自适应背景建模理论,考虑在长时间内光照条件发生变化的情况,图像噪声是随着环境光照和气候条件变化而变化,具有较低的计算复杂度,且能够消除图像噪声变化。
(2)车辆目标区域检测采用快速约束三角剖分方法,该方法可以去除无用区域,提取相关特征信息,并不需要去精确获取车辆轮廓,关注车辆的粗略位置和计算的实时性;通过基于约束边优先的三角剖分图像区块划分方法,获得车辆的候选区域,通过支持向量机选定真实区域。
(3)采用颜色直方图特征和局部积分方向描述子特征融合作为车辆的观测模型,既充分发挥了颜色直方图特征对于车辆形变等的不敏感性优点,又使得在颜色特征不能满足时以局部积分方向描述子特征作为补充。
(4)局部积分方向描述子特征相对于SIFT特征计算简单,对于不同尺度的特征计算只需要通过四个参考点进行图像卷积计算得到。
(5)采用Camshift与粒子滤波融合的方法进行车辆跟踪,首先,Camshift能够优化每个滤波器的尺度和位置,在提高粒子滤波的采样效率方面比MeanShift方法有更强大的功能。其次,粒子滤波的多种假设的性质可以使得Camshift能够自适应地调整尺度因子;通过利用粒子之间的冗余,Camshift以一种简化的方式作用于在整个粒子集;最后,对Camshift的有限次迭代避免了粒子穷竭现象。
附图说明
图1为本发明的方法流程图;
图2为本发明中CamShift算法与粒子滤波进行分层次融合的原理图。
具体实施方式
如图1所示,是本发明方法的流程图,本方法包括如下步骤:
(一)检测车辆运动区域
1、对高速公路监控车道区域进行自适应估计
假设第(k+1)帧中,背景像素点p的灰度值表述为:
G(k+1,p)=G(k,p)+L(k,p)+noise1(k,p)
其中,G(k,p)是第k帧中,背景像素点p的灰度值;L(k,p)是描述光照随着时间变化的不确定模型;noise1(k,p)为以零为中心的高斯白噪声(含系统测量误差);输入图像像素点p的灰度表示为:
I(k,p)=G(k,p)+noise2(k,p)
其中,noise2(k,p)为一个以零为中心的高斯白噪声;消去系统测量误差得到:
I(k+1,p)=G(k,p)+ω(k+1,p)
其中,ω(k+1,p)=L(k,p)+noise1(k,p)+noise2(k+1,p)。ω(n,p)是高斯分布,可以分别用均值m(n,p)和变量s(n,p)代表ω(n,p)。明显地,在时域空间内m(n,p)和s(n,p)的值不会是一个常数。如何正确的计算m(n,p)和s(n,p),是背景估计中的一个关键问题。
在交通监控中,在一个很小的区域内光照的变化和噪声分布基本上是不变的。因此,m(n,p)和s(n,p)在一个小区域内的值与该像素在该区域中的位置无关,所以,他们可以分别被表示为m(n)和s(n)。然后,在一个小区域中,由{I(n+1,p)}和{G(n,p)}的差值可以得到一个直方图。通过该直方图,可以估计出m(n)和s(n)的值。
2、基于快速三角剖分的车辆目标区域检测。
(1)通过Canny算子提取轮廓信息:常用的边缘检测算法有Sobel、Canny算法,其通过对比可以得出如下结论:Sobel算法计算简单、速度快,但是其对图像噪声敏感,边缘往往是断续的、不完整的。Canny算子不易受噪声干扰,能检测出弱边缘,且不用浮点运算,可以提高效率。
(2)对图像轮廓应用Hough变换取得图像中的直线集合:Hough变换在检测二值图像中的直线或曲线时抗干扰能力强,能在信噪比较低的条件下进行检测。
(3)提取直线两端点得到角点集合:车辆特征预处理的过程就是提取角点和边缘直线的过程。车辆的轮廓具有明显的角点和直线特征,由于阴影或背景图像的影响,角点和直线集合只能用来检测车辆的大致区域。但经过提取角点和边缘轮廓直线,达到了降低计算复杂度的目的,可以有效地保证算法实时性。
(4)以所有约束边为基础,构建初始约束三角网(CDT,ConstrainedDelaunay Triangulation),并依次插入所有独立角点:
1)以约束边为三角形的其中一边li,在顶点集合Q中取一点pi,如边li和点pi所构成的外接圆不包含任何其他顶点,则连接点pi和边li的两个顶点构成一个约束三角形;如边li和点pi所构成的外接圆包含其他顶点,则以所包含的顶点为顶点集合,选取其中一点与边li,循环步骤A。
2)通过步骤A,构建了一个初始基于约束边的CDT。在该CDT中,插入点一独立角点p的过程如下:
A、通过三角形中心和邻域信息定位p所在的三角形A0
B、通过三角形的邻域特征寻找相邻,重构p所影响的邻近点之间的三角网之间的拓扑关系;具体步骤如下:
a、以p所在三角形的非约束边为扩展方向,获得其邻域三角形A1,A2
b、依次对其邻域三角形A1,A2做最小外接圆,如包含p,则邻域三角形A1并不存在于插入p后重新构建的CDT′中,删除邻边,继续步骤c;如不包含p,则邻域三角形A2存在于插入p后,重新构建的CDT′中,继续步骤d;如无新邻域三角形,则直接进行步骤d。
c、步骤b中所述的邻域三角形,其另外两个邻域三角形A7,A8,也属于点P的影响域,对A7,A8重复步骤b。
d、将点P的影响域边界上的点与点P相连,构成点P影响域内的重构三角形。此时完成一个插入P点后构成的CDT′。
(5)提取角密度,水平直线密度,密度垂直直线,三角形密度和车辆区域的平均亮度构建特征向量:车辆区域一般由车辆前端轮廓线Lf和后端轮廓线Lb两条线段所围四边形所限定。在预处理的时候已经提取车辆轮廓的直线信息,因此,Lf和Lb作为约束边存在于CDT变换后产生的三角边中,且车辆轮廓线的特征为:长度在一定区间、相对于图像水平线倾角较小(在本发明中,要求倾斜角小于30度)。进行车辆前后轮廓线的提取,并且根据前后轮廓线的约束关系,连接端点形成四边形区域。由于轮廓线比较多,因此,将会产生多个满足条件的四边形区域,根据下列特征向量进行分类计算,从中选取可置信的车辆区域。具体特征如下:
1)角点密度Dc:假设区域单位面积中的角点数量;
2)水平直线密度Dh:水平倾斜角(与x轴的夹角)较小的直线密度。如果用(xh1,yh1)和(xh2,yh2)表示水平线段的两个端点,则直线的水平倾斜度可表示为:kh=|(yh2-yh1)/(xh2-xh1)|。在本文中,要求该倾斜角小于30度,即 k h < 1 / 3 ;
3)垂直直线密度Dv:垂直倾斜角(与y轴的夹角)较小的直线密度。如果用(xv1,yv1)和(xv2,yv2)表示垂直直线的两个端点,则直线的水平倾斜度可表示为:kv=|(yv2-yv1)/(xv2-xv1)|。在本文中,要求该直线与水平的倾斜角大于60度,即 k v > 3 ;
4)三角形密度Dt:在选取的候选区域内,三角形的密度;
5)候选区域到真实车辆区域的样本标准偏差S:通过计算候选四边形区域中,完整三角形面积的覆盖程度,来表示该区域为真实车辆区域的置信度。
针对每个候选的四边形区域,提取上述五个特征向量。上述五个特征向量较好的涵盖了车辆轮廓的水平、垂直和纹理信息,同时,提取过程的算法复杂度较低,满足实时计算的需要。
利用候选区域到真实区域的样本标准偏差S验证候选区域的可置信度。现假定候选区域i中包含n个完整的三角形,第j个三角形的亮度和(灰度值之和)为Sumj,所有三角形的亮度和总体平均为
Figure GSA00000082537200113
系统自由度为f=n-1:
S = &Sigma; j = 1 n ( Sum j - S &OverBar; ) 2 f
根据样本标准偏差的等效变换,可直接对测量值进行计算。等效变换的结果如下所示:
S = &Sigma; j = 1 n ( Sum j - S &OverBar; ) 2 f = &Sigma; j = 1 n Sum j 2 f - ( &Sigma; j = 1 n Sum j ) 2 nf
此时,根据上述提取的特征,可以形成一个新的特征向量组Oi={Dci,Dhi,Dvi,Dti,Si}。
(6)将候选区域中的五个特征向量输入以K(x,y)=x×y为核函数的支持向量机(SVM,Supported Vector Machine)中,可以得到输出ESVM,当ESVM大于系统设定的置信阈值Eξ的时候,则该区域为真实车辆区域。若选定的五个特征向量没有涵盖各个候选区域的包含和重叠关系,因此出现置信区域重叠的情况。设定部分包含率阈值为η,即有两区域的公共面积应SCommon,小置信区域面积Ssmall,则如果SCommon/Ssmall>η,则小置信区域并入大置信区域。同时,以最小外接矩形包含小置信区域形成大置信区域,如此循环。本发明中中选择η=0.6,最终以最小外接矩形包含被检车辆区域。
(二)建立多车辆目标模型
1、多车辆状态模型与观测模型
(1)车辆目标状态模型
鉴于CamShift算法作用于动态概率分布,具有可根据概率分布的变化情况自动调整搜寻窗口的尺寸和位置的特性,我们将被跟踪目标的状态模型定义为:S=(x,y,l,h)T,其中,(x,y)构成被跟踪目标的中心点C,用来描述目标的位置属性,即有C=(x,y)T;搜索窗W是长为l,宽为h的矩形,用来描述目标的大小属性,即有W=(l,h)T。因此,状态模型又可表示为:S=(CT,WT)T
考虑到视频序列中被跟踪目标的关联性特点,需要对其进行预测建模。我们采用数理统计中的二次线性回归的方法,认为一个被跟踪目标当前的运动状态是由前一个运动状态Sk-1,最后一次状态变换偏移量Sk-1-Sk-2,及一个均值为0,协方差矩阵为∑k的高斯分布ωk进行预测的,即:
S k = a + bS k - 1 + c ( S k - 1 - S k - 2 ) + &omega; k &omega; k ~ N ( 0 , &Sigma; k )
且预测模型满足高斯分布:p(Sk|Sk-1,Sk-2,…,S1)~N(Sk;2Sk-1-Sk-2,∑k)
(2)车辆目标观测模型
车辆目标的观测模型由RGB颜色直方图特征和局部积分方向描述子特征进行融合构成的:p(Ok|Sk)∝pcolor(Ok|Sk)pLIOD(Ok|Sk),其中,
Figure GSA00000082537200131
是基于RGB颜色直方图特征的观测函数,
Figure GSA00000082537200132
是局部积分方向描述子特征的观测函数,Ok为当前视频帧,B(·,·)是巴氏距离(Bhattacharyya);H和H*分别是从被Sk覆盖的区域中估计出的候选颜色直方图和参考颜色直方图;HLIOD和HLIOD *分别是从被Sk覆盖的区域中估计出的候选局部积分方向描述子直方图和参考局部积分方向描述子直方图。
局部积分方向描述子是对局部图像梯度的方向采用得到8个分格(bins),每个像素位置的梯度方向可以由其梯度值加权得到,每一个像素位置的第t个bin在s尺度时的加权梯度方向直方图定义如下:
Figure GSA00000082537200133
其中,
Figure GSA00000082537200134
是梯度向量,即为像素点(x,y)处的梯度Gx(x,y),Gy(x,y);R是在像素点(x,y)的作为尺度函数的局部支持区域的尺寸;Z是标准化因子,ω(x,y,k)是第t个bis的方向计数器:
&omega; ( x , y , t ) = 1 if&theta; ( x , y ) &Element; t th bin 0 otherwise ,
其中,θ(x,y)是像素点(x,y)的梯度方向角arctan(Gy(x,y)/Gx(x,y))。
2、判断车辆进、出监视区域
(1)车辆进入监控区域:Tin为判断新车辆目标进入视场的阈值,第k帧时有J个车辆目标,第k-1帧有M个车辆目标,且有J>M,满足以下条件时有车辆进入监控区域:
p ( O k ( j ) | S k i ( m ) ) < T in ;
(2)车辆退出监控区域:Tout为判断车辆目标离开视场的阈值,第k帧时有P个车辆目标,第k-1帧有M个车辆目标,且有P<M,满足一下条件时有车辆退出监控区域:
p ( O k ( p ) | S k i ( m ) ) < T out ;
其中,Sk i(m)则表示第k帧中第m个车辆目标的第i个粒子的状态。
(三)基于分层粒子滤波的车辆跟踪,如图2所示。
(1)将(0,1]分成N个连续互不重合的区间,即
Figure GSA00000082537200142
N即为初始化的粒子个数;
(2)对每个独立同分布采样得到的初始粒子集{Si}i=1,2,…,N,有
Figure GSA00000082537200143
其中U((u,v])表示在区间(u,v]上的均匀分布;
(3)粒子状态Sk i的期望值
Figure GSA00000082537200144
并得到该粒子的权重 &omega; k i = p ( O k | S k i ) ;
(4)将粒子集随机地分成2个数目相等子集:{Sk m}m=1,2,,N/2,{Sk n}n=1,2,,N/2
(5)对其中一个子集{Sk m}m=1,2,,N/2的每一个粒子进行迭代:
选择加权值最大的粒子,然后我们使用该子集中的所有粒子,来计算这个粒子状态中心点的平均位移,进而接近其局部模式:
mean _ shift ( C &OverBar; t i ) = &Sigma; j = 1 M C j m ( C j ) g ( | | C &OverBar; k i - C j r | | 2 ) &Sigma; j = 1 M m ( C j ) g ( | | C &OverBar; k i - C j r | | 2 ) - C &OverBar; t i ,
其中{Cj}j=1...N/2是状态
Figure GSA00000082537200147
在矩形区域像素坐标点;m(Cj)是在点Cj处像素值的相似权重,它是对应的H*
Figure GSA00000082537200148
的直方图二进制比率的平方根;g()是一个核函数;r是标准化后的窗口半径;
该粒子的状态中心点均以最新的状态中心近似构成:
C k i &ap; mean _ shift ( C &OverBar; k i ) + C &OverBar; k i ;
该粒子的窗口尺寸,利用如下方法进行调整:
W &OverBar; k i &ap; k M 00 ( S &OverBar; k i ) 256 &times; l &OverBar; k i &times; h &OverBar; k i &CenterDot; W &OverBar; t i ,
其中k是一个经验常量值,零阶矩M00按照以下公式计算: M 00 = &Sigma; j = 1 M m ( C j ) ;
该粒子权重也进行相应为: &omega; k i &ap; p ( O k | S k i ) ;
将经过一次迭代的子集与原有不变的子集{Sk n}m=1,2,,N/2合并,得到新的粒子集{Sk i}i=1,2,,N,同时对两个子集的权值合并且正则化
协方差按照迭代次数成指数级递减,即有
Figure GSA00000082537200155
j=1,2,…,I,其中I是迭代次数;得到新的状态概率密度函数;
(6)迭代结束,输出对当前状态的估计: S ~ k = &Sigma; i = 1 N S k i &omega; k i .
本发明说明书中未作详细描述的内容属于本领域专业技术人员公知的现有技术。
尽管为说明目的公开了本发明的最佳实施例和附图,但是本领域的技术人员可以理解:在不脱离本发明及所附的权利要求的精神和范围内,各种替换、变化和修改都是可能的。因此,本发明不应局限于最佳实施例和附图所公开的内容。

Claims (8)

1.一种高速公路监控场景下多车辆视频跟踪方法,其特征在于包括如下步骤:
(1)检测车辆运动区域:包括对高速公路监控车道区域进行自适应估计和采用快速约束三角剖分方法检测车辆目标区域;
(2)建立多车辆目标模型:包括采用车辆状态模型二次自回归模型进行预测,观测模型采用颜色直方图特征和局部积分方向描述子特征融合建模,采用阈值方法判断车辆进、出监控区域
(3)基于分层粒子滤波的车辆跟踪:采用Camshift算法与粒子滤波分层次相融合方法进行鲁棒跟踪。
2.根据权利要求1所述的高速公路监控场景下多车辆视频跟踪方法,其特征在于:所述步骤(1)首先对高速公路监控车道区域进行自适应估计:
假设第(k+1)帧中,背景像素点p的灰度值表述为:
G(k+1,p)=G(k,p)+L(k,p)+noise1(k,p)
其中,G(k,p)是第k帧中,背景像素点p的灰度值;L(k,p)是描述光照随着时间变化的不确定模型;noise1(k,p)为以零为中心的高斯白噪声(含系统测量误差);输入图像像素点p的灰度表示为:
I(k,p)=G(k,p)+noise2(k,p)
其中,noise2(k,p)为一个以零为中心的高斯白噪声;消去系统测量误差得到:
I(k+1,p)=G(k,p)+ω(k+1,p)
其中,ω(k+1,p)=L(k,p)+noise1(k,p)+noise2(k+1,p),且ω(k,p)是高斯分布。
3.根据权利要求1所述的高速公路监控场景下多车辆视频跟踪方法,其特征在于:所述步骤(1)的检测车辆目标区域采用快速约束三角剖分方法,包括如下步骤:
1)通过Canny算子提取轮廓信息;
2)对图像轮廓应用Hough变换取得图像中的直线集合;
3)提取直线两端点得到角点集合;
4)以所有约束边为基础,构建初始约束三角网,并依次插入所有独立角点;
5)提取角密度,水平直线密度,密度垂直直线,三角形密度和车辆区域的平均亮度构建特征向量;
6)将候选区域中的五个特征向量输入以K(x,y)=x×y为核函数的支持向量机中,可以得到输出ESVM,当ESVM大于系统设定的置信阈值Eξ的时候,则该区域为真实车辆区域。
4.根据权利要求1所述的高速公路监控场景下多车辆视频跟踪方法,其特征在于:所述步骤(2)的车辆状态模型定义为:S=(x,y,l,h)T,其中,(x,y)构成被跟踪目标的中心点C=(x,y)T,搜索窗W=(l,h)T是长为l,宽为h的矩形;采用二次线性自回归的方法预测当前的状态:
p(Sk|Sk-1,Sk2,…,S1)~N(Sk;2Sk-1-Sk-2,∑);
多车辆目标时,状态预测模型为:
p(Sk(m)|Sk-1(m),…,S1(m))~N(Sk(m);2Sk-1(m)-Sk-2(m),∑(m))
其中,假设目标之间是相互独立的,且当前有M个车辆目标,Sk(m)表示第k帧中第m个车辆目标的状态。
5.根据权利要求1所述的高速公路监控场景下多车辆视频跟踪方法,其特征在于:所述步骤(2)的车辆观测模型是由RGB颜色直方图特征和局部积分方向描述子特征进行融合构成的:
p(Ok|Sk)∝pcolor(Ok|Sk)pLIOD(Ok|Sk),其中,
Figure FSA00000082537100021
是基于RGB颜色直方图特征的观测函数,
Figure FSA00000082537100022
是局部积分方向描述子特征的观测函数,Ok为当前视频帧,B(·,·)是巴氏距离;H和H*分别是从被Sk覆盖的区域中估计出的候选颜色直方图和参考颜色直方图;HLIOD和HLIOD *分别是从被Sk覆盖的区域中估计出的候选局部积分方向描述子直方图和参考局部积分方向描述子直方图。
6.根据权利要求5所述的高速公路监控场景下多车辆视频跟踪方法,其特征在于:所述局部积分方向描述子是对局部图像梯度的方向采用得到8个分格,每个像素位置的梯度方向可以由其梯度值加权得到,每一个像素位置的第t个分格在s尺度时的加权梯度方向直方图定义如下:
Figure FSA00000082537100031
其中,
Figure FSA00000082537100032
是梯度向量,即为像素点(x,y)处的梯度Gx(x,y),Gy(x,y);R是在像素点(x,y)的作为尺度函数的局部支持区域的尺寸;Z是标准化因子,ω(x,y,k)是第t个分格的方向计数器:
&omega; ( x , y , t ) = 1 if&theta; ( x , y ) &Element; t th bin 0 otherwise ,
其中,θ(x,y)是像素点(x,y)的梯度方向角arctan(Gy(x,y)/Gx(x,y))。
7.根据权利要求1所述的高速公路监控场景下多车辆视频跟踪方法,其特征在于:所述步骤(2)中对车辆进、出监控区域采用阈值方法进行判断:
1)车辆进入监控区域:Tin为判断新车辆目标进入视场的阈值,第k帧时有J个车辆目标,第k-1帧有M个车辆目标,且有J>M,满足以下条件时有车辆进入监控区域:
p ( O k ( j ) | S k i ( m ) ) < T in ;
2)车辆退出监控区域:Tout为判断车辆目标离开视场的阈值,第k帧时有P个车辆目标,第k-1帧有M个车辆目标,且有P<M,满足一下条件时有车辆退出监控区域:
p ( O k ( p ) | S k i ( m ) ) < T out ;
其中,Sk i(m)则表示第k帧中第m个车辆目标的第i个粒子的状态。
8.根据权利要求1所述的高速公路监控场景下多车辆视频跟踪方法,其特征在于:所述步骤(3)采用Camshift算法与粒子滤波分层次相融合方法进行鲁棒跟踪的具体步骤为:
1)将(0,1]分成N个连续互不重合的区间,即
Figure FSA00000082537100042
N即为初始化的粒子个数;
2)对每个独立同分布采样得到的初始粒子集{Si}i=1,2,…,N,有
Figure FSA00000082537100043
其中U((u,v])表示在区间(u,v]上的均匀分布;
3)粒子状态Sk i的期望值
Figure FSA00000082537100044
并得到该粒子的权重 &omega; k i = p ( O k | S k i ) ;
4)将粒子集随机地分成2个数目相等子集:{Sk m}m=1,2,,N/2,{Sk n}n=1,2,,N/2
5)对其中一个子集{Sk m}m=1,2,,N/2的每一个粒子进行迭代:
选择加权值最大的粒子,然后我们使用该子集中的所有粒子,来计算这个粒子状态中心点的平均位移,进而接近其局部模式:
mean _ shift ( C &OverBar; t i ) = &Sigma; j = 1 M C j m ( C j ) g ( | | C &OverBar; k i - C j r | | 2 ) &Sigma; j = 1 M m ( C j ) g ( | | C &OverBar; k i - C j r | | 2 ) - C &OverBar; t i ,
其中{Cj}j=1...N/2是状态
Figure FSA00000082537100047
在矩形区域像素坐标点;m(Cj)是在点Cj处像素值的相似权重,它是对应的H*
Figure FSA00000082537100048
的直方图二进制比率的平方根;g()是一个核函数;r是标准化后的窗口半径;
该粒子的状态中心点均以最新的状态中心近似构成:
C k i &ap; mean _ shift ( C &OverBar; k i ) + C &OverBar; k i ;
该粒子的窗口尺寸,利用如下方法进行调整:
W &OverBar; k i &ap; k M 00 ( S &OverBar; k i ) 256 &times; l &OverBar; k i &times; h &OverBar; k i &CenterDot; W &OverBar; t i ,
其中k是一个经验常量值,零阶矩M00按照以下公式计算: M 00 = &Sigma; j = 1 M m ( C j ) ;
该粒子权重也进行相应为: &omega; k i &ap; p ( O k | S k i ) ;
将经过一次迭代的子集与原有不变的子集{Sk n}m=1,2,,N/2合并,得到新的粒子集{Sk i}i=1,2,,N,同时对两个子集的权值合并且正则化
Figure FSA00000082537100054
协方差按照迭代次数成指数级递减,即有
Figure FSA00000082537100055
j=1,2,…,I,其中I是迭代次数;得到新的状态概率密度函数;
6)迭代结束,输出对当前状态的估计: S ~ k = &Sigma; i = 1 N S k i &omega; k i .
CN 201010144098 2010-04-08 2010-04-08 一种高速公路监控场景下多车辆视频跟踪方法 Expired - Fee Related CN101800890B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN 201010144098 CN101800890B (zh) 2010-04-08 2010-04-08 一种高速公路监控场景下多车辆视频跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN 201010144098 CN101800890B (zh) 2010-04-08 2010-04-08 一种高速公路监控场景下多车辆视频跟踪方法

Publications (2)

Publication Number Publication Date
CN101800890A true CN101800890A (zh) 2010-08-11
CN101800890B CN101800890B (zh) 2013-04-24

Family

ID=42596352

Family Applications (1)

Application Number Title Priority Date Filing Date
CN 201010144098 Expired - Fee Related CN101800890B (zh) 2010-04-08 2010-04-08 一种高速公路监控场景下多车辆视频跟踪方法

Country Status (1)

Country Link
CN (1) CN101800890B (zh)

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101976504A (zh) * 2010-10-13 2011-02-16 北京航空航天大学 一种基于颜色空间信息的多车辆视频跟踪方法
CN102289948A (zh) * 2011-09-02 2011-12-21 浙江大学 高速公路场景下一种多特征融合的多车辆视频跟踪方法
CN102426785A (zh) * 2011-11-18 2012-04-25 东南大学 基于轮廓和局部特征点的交通流信息感知方法及系统
CN102509309A (zh) * 2011-11-04 2012-06-20 大连海事大学 一种基于图像匹配的目标点定位系统
CN102568200A (zh) * 2011-12-21 2012-07-11 辽宁师范大学 车辆行驶状态实时判别的方法
CN102903121A (zh) * 2012-08-31 2013-01-30 四川九洲电器集团有限责任公司 基于运动目标跟踪的融合算法
CN102930245A (zh) * 2012-09-24 2013-02-13 深圳市捷顺科技实业股份有限公司 一种车辆跟踪方法及系统
EP2701133A1 (de) 2012-08-22 2014-02-26 Kapsch TrafficCom AG Verfahren und Vorrichtungen zur Bildaufnahme eines geschwindigkeitsübertretenden Fahrzeugs
CN103810505A (zh) * 2014-02-19 2014-05-21 北京大学 基于多层描述子的车辆标识方法与系统
CN103824081A (zh) * 2014-02-24 2014-05-28 北京工业大学 一种室外恶劣光照条件下的快速鲁棒交通标志检测方法
CN103926838A (zh) * 2014-04-22 2014-07-16 山东大学 基于云计算的自主心智发育云机器人系统
CN103996028A (zh) * 2014-05-21 2014-08-20 南京航空航天大学 一种车辆行为识别方法
CN104182957A (zh) * 2013-05-21 2014-12-03 北大方正集团有限公司 交通视频信息检测方法和装置
CN105116414A (zh) * 2015-07-20 2015-12-02 上海海洋大学 基于无线通讯网络的实时鱼群监测及鱼量估算系统
CN105593776A (zh) * 2013-08-01 2016-05-18 日产自动车株式会社 车辆位置姿势角推定装置及车辆位置姿势角推定方法
CN106447695A (zh) * 2016-09-23 2017-02-22 广州视源电子科技股份有限公司 一种多物体追踪中判断同一物体的方法和装置
CN107315095A (zh) * 2017-06-19 2017-11-03 哈尔滨工业大学 基于视频处理的具有光照适应性的多车辆自动测速方法
CN108022252A (zh) * 2012-01-19 2018-05-11 索尼公司 图像处理设备和方法
CN108229244A (zh) * 2016-12-14 2018-06-29 贵港市瑞成科技有限公司 一种智能车前方运动车辆的检测方法
CN108492314A (zh) * 2018-01-24 2018-09-04 浙江科技学院 基于颜色特性和结构特征的车辆跟踪方法
CN108960252A (zh) * 2018-06-01 2018-12-07 广西大学 一种二维图像中任意曲线的圆弧表示及检测方法
CN109543610A (zh) * 2018-11-22 2019-03-29 中国科学院长春光学精密机械与物理研究所 车辆检测跟踪方法、装置、设备及存储介质
CN109584282A (zh) * 2018-11-24 2019-04-05 天津大学 一种基于sift特征与光流模型的非刚性图像配准方法
CN109886079A (zh) * 2018-12-29 2019-06-14 杭州电子科技大学 一种车辆检测与跟踪方法
CN110232835A (zh) * 2019-06-27 2019-09-13 浙江工业大学 一种基于图像处理的地下车库停车位检测方法
CN111105513A (zh) * 2019-12-31 2020-05-05 交通运输部路网监测与应急处置中心 货车etc车道中货车交易后退出的处理方法及装置
CN111275983A (zh) * 2020-02-14 2020-06-12 北京百度网讯科技有限公司 车辆追踪方法、装置、电子设备和计算机可读存储介质
CN112465757A (zh) * 2020-11-18 2021-03-09 熵智科技(深圳)有限公司 一种子区内像点初值估计方法、装置、介质及计算机设备
CN113034549A (zh) * 2021-05-27 2021-06-25 四川轻化工大学 一种基于CAMShift算法的低光照下人脸跟踪方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050275717A1 (en) * 2004-06-10 2005-12-15 Sarnoff Corporation Method and apparatus for testing stereo vision methods using stereo imagery data
CN101098465A (zh) * 2007-07-20 2008-01-02 哈尔滨工程大学 一种视频监控中运动目标检测与跟踪方法
CN101141633A (zh) * 2007-08-28 2008-03-12 湖南大学 一种复杂场景中的运动目标检测与跟踪方法
CN101142593A (zh) * 2005-03-17 2008-03-12 英国电讯有限公司 跟踪视频序列中的目标的方法
US7680300B2 (en) * 2004-06-01 2010-03-16 Energid Technologies Visual object recognition and tracking

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7680300B2 (en) * 2004-06-01 2010-03-16 Energid Technologies Visual object recognition and tracking
US20050275717A1 (en) * 2004-06-10 2005-12-15 Sarnoff Corporation Method and apparatus for testing stereo vision methods using stereo imagery data
CN101142593A (zh) * 2005-03-17 2008-03-12 英国电讯有限公司 跟踪视频序列中的目标的方法
CN101098465A (zh) * 2007-07-20 2008-01-02 哈尔滨工程大学 一种视频监控中运动目标检测与跟踪方法
CN101141633A (zh) * 2007-08-28 2008-03-12 湖南大学 一种复杂场景中的运动目标检测与跟踪方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
《中国优秀硕士学位论文全文数据库》 20080630 徐庆贺 监控视频流分析的关键技术研究及应用 I140-258 1 , *
《光电子技术》 20100328 王兆光,王敬东,李鹏 一种Camshift优化的粒子滤波跟踪算法 1 第30卷, 第1期 *

Cited By (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101976504A (zh) * 2010-10-13 2011-02-16 北京航空航天大学 一种基于颜色空间信息的多车辆视频跟踪方法
CN101976504B (zh) * 2010-10-13 2014-01-22 北京航空航天大学 一种基于颜色空间信息的多车辆视频跟踪方法
CN102289948B (zh) * 2011-09-02 2013-06-05 浙江大学 高速公路场景下一种多特征融合的多车辆视频跟踪方法
CN102289948A (zh) * 2011-09-02 2011-12-21 浙江大学 高速公路场景下一种多特征融合的多车辆视频跟踪方法
CN102509309A (zh) * 2011-11-04 2012-06-20 大连海事大学 一种基于图像匹配的目标点定位系统
CN102509309B (zh) * 2011-11-04 2013-12-18 大连海事大学 一种基于图像匹配的目标点定位系统
CN102426785A (zh) * 2011-11-18 2012-04-25 东南大学 基于轮廓和局部特征点的交通流信息感知方法及系统
CN102568200A (zh) * 2011-12-21 2012-07-11 辽宁师范大学 车辆行驶状态实时判别的方法
CN102568200B (zh) * 2011-12-21 2015-04-22 辽宁师范大学 车辆行驶状态实时判别的方法
CN108022252A (zh) * 2012-01-19 2018-05-11 索尼公司 图像处理设备和方法
EP2701133A1 (de) 2012-08-22 2014-02-26 Kapsch TrafficCom AG Verfahren und Vorrichtungen zur Bildaufnahme eines geschwindigkeitsübertretenden Fahrzeugs
CN102903121A (zh) * 2012-08-31 2013-01-30 四川九洲电器集团有限责任公司 基于运动目标跟踪的融合算法
CN102930245A (zh) * 2012-09-24 2013-02-13 深圳市捷顺科技实业股份有限公司 一种车辆跟踪方法及系统
CN102930245B (zh) * 2012-09-24 2015-03-18 深圳市捷顺科技实业股份有限公司 一种车辆跟踪方法及系统
CN104182957B (zh) * 2013-05-21 2017-06-20 北大方正集团有限公司 交通视频信息检测方法和装置
CN104182957A (zh) * 2013-05-21 2014-12-03 北大方正集团有限公司 交通视频信息检测方法和装置
CN105593776A (zh) * 2013-08-01 2016-05-18 日产自动车株式会社 车辆位置姿势角推定装置及车辆位置姿势角推定方法
CN103810505A (zh) * 2014-02-19 2014-05-21 北京大学 基于多层描述子的车辆标识方法与系统
CN103810505B (zh) * 2014-02-19 2017-11-24 北京大学 基于多层描述子的车辆标识方法与系统
CN103824081B (zh) * 2014-02-24 2017-02-08 北京工业大学 一种室外恶劣光照条件下的快速鲁棒交通标志检测方法
CN103824081A (zh) * 2014-02-24 2014-05-28 北京工业大学 一种室外恶劣光照条件下的快速鲁棒交通标志检测方法
CN103926838B (zh) * 2014-04-22 2017-02-15 山东大学 基于云计算的自主心智发育云机器人系统
CN103926838A (zh) * 2014-04-22 2014-07-16 山东大学 基于云计算的自主心智发育云机器人系统
CN103996028B (zh) * 2014-05-21 2017-04-05 南京航空航天大学 一种车辆行为识别方法
CN103996028A (zh) * 2014-05-21 2014-08-20 南京航空航天大学 一种车辆行为识别方法
CN105116414B (zh) * 2015-07-20 2017-07-28 上海海洋大学 基于无线通讯网络的实时鱼群监测及鱼量估算系统
CN105116414A (zh) * 2015-07-20 2015-12-02 上海海洋大学 基于无线通讯网络的实时鱼群监测及鱼量估算系统
CN106447695A (zh) * 2016-09-23 2017-02-22 广州视源电子科技股份有限公司 一种多物体追踪中判断同一物体的方法和装置
CN108229244A (zh) * 2016-12-14 2018-06-29 贵港市瑞成科技有限公司 一种智能车前方运动车辆的检测方法
CN107315095B (zh) * 2017-06-19 2019-07-02 哈尔滨工业大学 基于视频处理的具有光照适应性的多车辆自动测速方法
CN107315095A (zh) * 2017-06-19 2017-11-03 哈尔滨工业大学 基于视频处理的具有光照适应性的多车辆自动测速方法
CN108492314B (zh) * 2018-01-24 2020-05-19 浙江科技学院 基于颜色特性和结构特征的车辆跟踪方法
CN108492314A (zh) * 2018-01-24 2018-09-04 浙江科技学院 基于颜色特性和结构特征的车辆跟踪方法
CN108960252A (zh) * 2018-06-01 2018-12-07 广西大学 一种二维图像中任意曲线的圆弧表示及检测方法
CN109543610A (zh) * 2018-11-22 2019-03-29 中国科学院长春光学精密机械与物理研究所 车辆检测跟踪方法、装置、设备及存储介质
CN109584282A (zh) * 2018-11-24 2019-04-05 天津大学 一种基于sift特征与光流模型的非刚性图像配准方法
CN109584282B (zh) * 2018-11-24 2022-08-12 天津大学 一种基于sift特征与光流模型的非刚性图像配准方法
CN109886079A (zh) * 2018-12-29 2019-06-14 杭州电子科技大学 一种车辆检测与跟踪方法
CN110232835A (zh) * 2019-06-27 2019-09-13 浙江工业大学 一种基于图像处理的地下车库停车位检测方法
CN111105513A (zh) * 2019-12-31 2020-05-05 交通运输部路网监测与应急处置中心 货车etc车道中货车交易后退出的处理方法及装置
CN111275983A (zh) * 2020-02-14 2020-06-12 北京百度网讯科技有限公司 车辆追踪方法、装置、电子设备和计算机可读存储介质
CN112465757A (zh) * 2020-11-18 2021-03-09 熵智科技(深圳)有限公司 一种子区内像点初值估计方法、装置、介质及计算机设备
CN113034549A (zh) * 2021-05-27 2021-06-25 四川轻化工大学 一种基于CAMShift算法的低光照下人脸跟踪方法

Also Published As

Publication number Publication date
CN101800890B (zh) 2013-04-24

Similar Documents

Publication Publication Date Title
CN101800890B (zh) 一种高速公路监控场景下多车辆视频跟踪方法
US11144889B2 (en) Automatic assessment of damage and repair costs in vehicles
CN101976504B (zh) 一种基于颜色空间信息的多车辆视频跟踪方法
Ma et al. Capsule-based networks for road marking extraction and classification from mobile LiDAR point clouds
Mittal et al. Motion-based background subtraction using adaptive kernel density estimation
EP2131328A2 (en) Method for automatic detection and tracking of multiple objects
CN101470809B (zh) 一种基于扩展混合高斯模型的运动目标检测方法
Johansson et al. Combining shadow detection and simulation for estimation of vehicle size and position
Xing et al. Traffic sign recognition using guided image filtering
Naufal et al. Preprocessed mask RCNN for parking space detection in smart parking systems
CN117949942B (zh) 基于雷达数据和视频数据融合的目标跟踪方法及系统
Ali et al. Vehicle detection and tracking in UAV imagery via YOLOv3 and Kalman filter
Zhao et al. APPOS: An adaptive partial occlusion segmentation method for multiple vehicles tracking
Wei et al. A robust approach for multiple vehicles tracking using layered particle filter
Mirnalinee et al. An integrated multistage framework for automatic road extraction from high resolution satellite imagery
Qing et al. A novel particle filter implementation for a multiple-vehicle detection and tracking system using tail light segmentation
Mo et al. Sea-sky line detection in the infrared image based on the vertical grayscale distribution feature
Dimitrievski et al. Semantically aware multilateral filter for depth upsampling in automotive lidar point clouds
Yusuf et al. Enhancing Vehicle Detection and Tracking in UAV Imagery: A Pixel Labeling and Particle Filter Approach
Xin et al. Accurate and complete line segment extraction for large-scale point clouds
Chen et al. Vision-based traffic surveys in urban environments
Tourani et al. Challenges of video-based vehicle detection and tracking in intelligent transportation systems
Zhou et al. Real-time detection and spatial segmentation of difference image motion changes
Gobhinath et al. Dynamic Objects Detection and Tracking from Videos for Surveillance Applications
Awal et al. A Particle Filter Based Visual Object Tracking: A Systematic Review of Current Trends and Research Challenges.

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20130424

Termination date: 20160408

CF01 Termination of patent right due to non-payment of annual fee