CN103310207A - 一种基于多高斯模型的助力车检测方法 - Google Patents
一种基于多高斯模型的助力车检测方法 Download PDFInfo
- Publication number
- CN103310207A CN103310207A CN2013102857128A CN201310285712A CN103310207A CN 103310207 A CN103310207 A CN 103310207A CN 2013102857128 A CN2013102857128 A CN 2013102857128A CN 201310285712 A CN201310285712 A CN 201310285712A CN 103310207 A CN103310207 A CN 103310207A
- Authority
- CN
- China
- Prior art keywords
- vehicle
- motor
- moving object
- size
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明提供一种基于多高斯模型的助力车检测方法,该方法通过提取运动物体的外形特征和运动特征进行助力车的识别。运动物体的大小和速度是两个非常重要的特征,但是它们随着摄像头角度和与摄像头的距离的变化而不同。所以在不同像素点,本方法建立两组高斯模型来反应不同种类运动物体的大小和速度分布。本发明在视频质量不高,运动物体不足够大时仍能很好的进行助力车的识别。分类阈值自适应使该方法普适性更强,不采用统一的分类阈值使得该方法的误检率更低。本发明两次多数原则的使用,可以抑制建立模型的偏差和随机因素的干扰。
Description
技术领域
本发明属于智能交通,模式识别领域,特别涉及一种基于多高斯模型的助力车检测方法。
背景技术
交通系统中有很多参与者,包括行人,汽车和助力车(自行车和电动车)。其中,助力车已经成为最普遍的出行工具,遍布中国的大街小巷。但很不幸的是,助力车已经成为造成交通事故的主要原因之一。据统计,2011年总共发生了1840998起和助力车相关的交通事故,总计造成高达4.4亿元的损失(参见文献[1])。所以在智能交通监控系统中对助力车进行检测非常必要,对预防事故和事故后处理都将产生积极的意义。
近些年来,有很多关于助力车检测的研究。文献[2]和[3]提出使用激光传感器和红外传感器来提高整个的检测效果。但是,这些传感器比较昂贵,不便于系统的广泛推广。文献[4][5]提出通过霍夫变化识别车轮来检测助力车。文献[6]提出通过检测安全帽来进行助力车的检测。这几种方法对图像质量要求比较高,且要求目标足够大,足够清晰。然而,在当今视频监控系统中这是很难实现的。文献[7][8]提出基于方向梯度直方图(HOG)和支持向量机(SVM)的方法来检测助力车。但是这类方法首先要求识别目标足够大,方便很好的提取HOG特征;其次,HOG特征的计算比较耗时,不利于实时应用;最重要的是,其要求待识别的目标有相似的特征,且特征不因场景等的变化而发生很大的变化。但是现实中,助力车的特征受摄像头的方位和其与摄像头的距离的影响很大。特别当助力车顺着摄像头方向运动和垂直摄像头方向运动时,其特征相差相当大。所以这类方法也不太适合。文献[9][10],提出抽取运动物体的外形和速度等简单特征,利用阈值化的方法来进行助力车的识别,但是这些特征也受摄像头方位和远近影响。所以这类方法不具有普适性,对不同视频得人为选取不同的阈值;即使对同一视频,各个地方采用相同的阈值化方法来识别助力车也是不合理的。参考现有技术文献如下:
[1]The Ministry of Public Security of China, "The National Road Traffic Accidents in theFirst Half of 2011,"http://www.mps.gov.cn/n16/n1282/n3553/2921474.html,2011.
[2]Y.Wu,Q.Kong,Z.Liu and Y.Liu,"Pedestrian and Bicycle Detection and Tracking inRange Images,"In Proc.International Conference on Optoelectronics and ImageProcessing(ICOIP2010),2010,pp.109-112.
[3]N.Thepvilojanapng,K.Sugo,Y.Namiki and Y.Tobe,"Recognizing Bicycling States withHMM based on Accelerometer and Magnetometer Data,"In Proc.SICE Annual Conference,Waseda University,2011,pp.831-832.
[4]S.Rogers,P.Nikolaos,"A Robust Video-based Bicycle Counting System,"In Proc.ITSAmerica Meeting(9th:New thinking in transportation), Washington DC,1999,pp.1-12.
[5]T.Ardeshiri,F.Larsson,and F.Gustafsson, "Bicycle Tracking Using Ellipse Extraction,"InProc.the 14th International Conference on Information Fusion,2011,pp.1-8.
[6]C.Chiu,M.Ku and H.Chen, "Motorcycle Detection and Tracking System with OcclusionSegementation,"In Proc.the Eight International Workshop on Image Analysis for MultimediaInteractive Services(WIAMIS'07),2007,pp.32-35.
[7]H.Cho,P.Rybski and W.Zhang, "Vision-based Bicyclist Detection and Tracking forIntelligent Vehicles,"In Proc.IEEE Intelligent Vehicle Symposium, University of California, SanDiego,2010,pp.454-461.
[8]T.Li,X.Cao,and Y.Xu,"An Effective Crossing Cyclist Detection on a Moving Vehicle,"In Proc.the 8th World Congress on Intelligent Control and Automation,2010,pp.368-372.
[9]N.Sheng, H. Wang, and H. Liu, "Multi-Traffic Object Classification Using Support VectorMachine,"In Proc. 2010 Chinese Control and Decision Conference,2010,pp.3215-3218.
[10]B.Liu,X.Zhou,and H.Zhou,"Vehicle detection and recognition in multi-traffic scenes,"Journal of University of Science and Technology of China,2004,pp.599-606.
发明内容
本发明的目的在于:提供一种基于多高斯模型的助力车检测方法,不借助额外的硬件设置,通过图像处理的方法,对不同场景下,视频质量一般的视频进行助力车识别。
本发明采用的技术方案为:一种基于多高斯模型的助力车检测方法,该方法通过提取运动物体的外形特征和运动特征进行助力车的识别,运动物体的大小和速度是两个非常重要的特征,该运动物体的大小和速度随着摄像头角度和与摄像头的距离的变化而不同,该方法建立两组高斯模型来反映不同种类运动物体的大小和速度分布;第一组高斯模型由三个高斯模型组成,分别描述汽车、助力车和行人的大小分布,根据运动物体的大小,很容易把汽车区分开;第二组高斯模型由两个高斯模型组成,分别表征助力车和行人的速度分布,得到这些分布后,根据“最小分类错误”原则,可以得到区分不同种类运动物体的阈值;具体的:
该方法运动物体大小的高斯模型具体为:
对每个像素点p(x,y),经过该点的运动物体的大小建模成三个高斯分布,
其中ηs(p(x,y),μi,σi)是一个高斯密度函数,μi和σi 2是对应的均值和方差,这三个分布中均值最大的表示汽车的大小分布,均值最小的代表行人的大小分布,第三个分布表示助力车的大小分布;
该方法运动物体速度的高斯模型具体为:
在视频图像中一给定的位置,根据运动物体的大小特征可以容易地区分出汽车,但是助力车和行人之间的大小差异并不明显,尤其当它们正对摄像头方向运动时,所以,为了进一步区分出助力车,在每个像素p(x,y)处,两个高斯模型将被建立以描述助力车和行人的速度分布,
其中ηs(p(x,y),μi,σi)是一个高斯密度函数,μi和σi 2是对应的均值和方差,这两个分布中,均值较大的描述的是助力车的速度分布,另一个代表的是行人的速度分布,速度高斯模型参数的估计和物体大小模型参数的确定过程一样;
该方法分类阈值的确定具体为:
由“最小分类错误”准则可知,当选取两条分布曲线的交点作为两类物体的分类阈值时,会使得这两类物体的分类误差最小,对物体大小高斯模型来说,在某个给定位置,汽车的大小明显不同于其它运动物体,但是行人和助力车的差别就没有那么明显了,所以这里只确定用于区分汽车的阈值,该阈值为Ts,对速度分布模型来说,同理,取两条分布曲线的交点为分类阈值,该阈值为Tv,至此,在每个像素点p(x,y)处,有物体大小阈值Ts和速度阈值Tv用于识别助力车;
则助力车检测具体为:
采用三步来进行助力车的识别,首先,在运动物体覆盖的每个像素上,利用cascade分类器给出单个像素上的识别结果;接着,通过多数原则融合运动物体覆盖的所有像素上的识别结果,给出单帧识别结果;最后,通过多数原则把从运动物体进入场景到它消失时的单帧结果进行融合,给出最后的判决结果。
进一步的,采用三步来进行助力车的识别时,具体的,
在单像素p(x,y)上的判决结果为:
采用cascade分类器进行像素点上的判别,该分类器的头两个弱分类器由上节得到的大小阈值Ts和速度阈值Tv组成,当出现在该点的运动物体的大小小于Ts且速度大于Tv时,该物体才会被判别为助力车,当运动物体a在t时刻出现在像素点p(x,y)时,通过上述分类器可以得出一个分类结果La(x,y,t),当运动物体判别为助力车时La(x,y,t)为1,否则为0,
在单帧上的判决结果为:
估计的物体大小和速度模型与它们真实的分布之间肯定存在一些偏差,此外,还有一些运动物体的大小和速度特征在分类阈值附近,所以在单像素上的判决可能存在一些误判,为了减少这种错误,通过多数原则融合运动物体覆盖的所有像素上的识别结果,给出单帧的判决结果,在t时刻检测到一个有Np个像素的运动物体a,则单帧判决结果按下式给出,
最终判决结果为:
运动物体的特征会被噪声和光线变化干扰,所以单帧的判决结果也可能有误判,如果融合从运动物体进入场景到它消失时的单帧结果,则可以大大减少这种错误,假设运动物体a在场景中出现了Nf帧,最终的判决结果按下面的公式给出,
本发明的原理在于:
本发明的技术方案分为两阶段,第一阶段为场景学习阶段,主要是通过建立高斯模型来反应不同种类运动物体随位置变化比较明显的特征的分布。第二阶段为助力车识别阶段,主要利用多数原则来抑制模型偏差和随机干扰。
第一阶段、场景学习阶段
对视频图像中每个像素,我们建立两组高斯模型来反应经过该像素点的不同种类运动物体的大小和速度分布。在得到确切的高斯模型后,根据“最小分类错误”准则,计算出识别助力车的大小阈值和速度阈值。
第二阶段、助力车识别阶段
1.在每个运动物体覆盖的像素上,根据场景学习阶段得到的分类阈值和其他一些外形特征(如长宽比,占空比等)构建cascade分类器,得出在该像素点上的识别结果。
2.利用多数原则,综合运动物体覆盖的所有像素上的分类结果,得到单帧识别结果。
3.根据多数原则,融合从运动物体出现在场景中到运动物体消失时,每帧的识别结果,给出最终的识别结果。
本发明与现有技术相比的优点和积极效果为:
1)本发明在视频质量不高,运动物体不足够大时仍能很好的进行助力车的识别。
2)本发明分类阈值自适应使该方法普适性更强,不采用统一的分类阈值使得该方法的误检率更低。
3)本发明两次多数原则的使用,可以抑制建立模型的偏差和随机因素的干扰。
附图说明
图1为C被初始化为不同值时,物体大小高斯模型的标准差曲线;(a)C被初始化为不同值时,物体大小高斯模型1的标准差曲线;(b)C被初始化为不同值时,物体大小高斯模型2的标准差曲线;(c)C被初始化为不同值时,物体大小高斯模型3的标准差曲线;
图2为某像素点获得的高斯分布模型;(a)物体大小高斯模型;(b)物体速度高斯模型;
图3为本方法提出的cascade分类器;
图4为测试视频场景。(a)场景1;(b)场景2;(c)场景3。
具体实施方式
下面结合附图及具体实施例进一步说明本发明。
1.场景模型的学习
本发明通过提取运动物体的外形特征和运动特征进行助力车的识别。运动物体的大小和速度是两个非常重要的特征,但是它们随着摄像头角度和与摄像头的距离的变化而不同。所以在不同像素点,本方法建立两组高斯模型来反应不同种类运动物体的大小和速度分布。
第一组高斯模型由三个高斯模型组成,分别描述汽车、助力车和行人的大小分布。根据运动物体的大小,很容易把汽车区分开。所以第二组高斯模型由两个高斯模型组成,分别表征助力车和行人的速度分布。在我们得到这些分布后,根据“最小分类错误”原则,可以得到区分不同种类运动物体的阈值。
1.1运动物体大小的高斯模型
对每个像素点p(x,y),经过该点的运动物体的大小建模成三个高斯分布,
其中ηs(p(x,y),μi,σi)是一个高斯密度函数,μi和σi 2是对应的均值和方差。这三个分布中均值最大的表示汽车的大小分布,均值最小的代表行人的大小分布,第三个分布表示助力车的大小分布。
1.1.1μ和σ的初步估计
当一个样本到来时,也就是说一个大小为s的运动物体出现在像素p(x,y)。最先的三个样本用来初始化所建立的三个高斯分布,以第i个分布为例,
μi=s σi=C
这之后以低通滤波的形式,样本被用来更新与物体大小s具有最小偏差的高斯模型,
μi=(1-α)·μi+α·s
σi 2=(1-α)·σi 2+α·(s-μi)2
其中C是一个常数,无论它被初始化为多大,这三个高斯分布的σ都会收敛到它们的真实值。图1很好的证实了这一点,从图中我们可以发现无论C被初始化为0,100,200还是300,它们的σ最终都收敛了。α是学习率,一般设为一个较小值以抑制异常样本的影响,本方法中设为0.005。
1.1.2微调物体大小高斯模型的μ和σ
上节中使用的训练样本集将被再次使用,以进一步确定μ和σ的值。每来一个样本,它将被检查是否与三个高斯分布中的一个匹配。如果s∈[μi-3σi,μi+3σi],则认为与第i个高斯分布匹配,这时第i个高斯分布的μ和σ将被更新,
μi=(1-ρ)·μi+ρ·s
σi 2=(1-ρ)·σi 2+ρ·(s-μi)2
ρ=αη(s|μi,σi)
这里仍旧采用低通滤波的形式进行更新,ρ是一个更新率,它充分地考虑了匹配样本的特性,以提高高斯参数估计的精度。微调操作进行的越多,估计的参数越接近其真实值。但是,为了降低计算复杂度,如果高斯模型的参数更新后,其变化在一个可以接受的范围内时,微调操作将结束。
1.2运动物体速度的高斯模型
在视频图像中一给定的位置,根据运动物体的大小特征可以容易地区分出汽车。但是助力车和行人之间的大小差异并不明显,尤其当它们正对摄像头方向运动时。所以,为了进一步区分出助力车,在每个像素p(x,y)处,两个高斯模型将被建立以描述助力车和行人的速度分布,
其中ηs(p(x,y),μi,σi)是一个高斯密度函数,μi和σi 2是对应的均值和方差。这两个分布中,均值较大的描述的是助力车的速度分布;另一个代表的是行人的速度分布。速度高斯模型参数的估计和物体大小模型参数的确定过程一样。
1.3分类阈值的确定
经过上节操作后,我们得到了两组高斯模型,一组反映不同类运动物体的大小分布,另一组反映运动物体的速度分布。图2是在某像素点得到的运动物体的大小和速度分布。
由“最小分类错误”准则可知,当选取两条分布曲线的交点作为两类物体的分类阈值的话,会使得这两类的分类误差最小。对物体大小高斯模型来说,在某个给定位置,汽车的大小明显不同于其它运动物体,但是行人和助力车的差别就没有那么明显了。所以我们这里只确定用于区分汽车的阈值,如图2(a)所示,该阈值为Ts。对速度分布模型来说,同理,取两条分布曲线的交点为分类阈值,如图2(b)所示,该阈值为Tv。至此,在每个像素点p(x,y)处,我们有物体大小阈值Ts和速度阈值Tv用于识别助力车。
2.助力车检测
本方法采用三步来进行助力车的识别。首先,在运动物体覆盖的每个像素上,利用cascade分类器给出单个像素上的识别结果;接着,通过多数原则融合运动物体覆盖的所有像素上的识别结果,给出单帧识别结果;最后,通过多数原则把从运动物体进入场景到它消失时的单帧结果进行融合,给出最后的判决结果。
2.1在单像素p(x,y)上的判决结果
本方法采用如图3所示的cascade分类器进行像素点上的判别。该分类器的头两个弱分类器由上节得到的大小阈值Ts和速度阈值Tv组成。当出现在该点的运动物体的大小小于Ts且速度大于Tv时,该物体才会被判别为助力车。为了进一步提高判别精度,可以利用其它外形特征来构建更多的弱分类器,包括物体占空比,长宽比等等。所以当运动物体a在t时刻出现在像素点p(x,y)时,通过上述分类器可以得出一个分类结果La(x,y,t)。当运动物体判别为助力车时La(x,y,t)为1,否则为0,
2.2在单帧上的判决结果
估计的物体大小和速度模型与它们真实的分布之间肯定存在一些偏差。此外,还有一些运动物体的大小和速度特征在分类阈值附近。所以在单像素上的判决可能存在一些误判。为了减少这种错误,本文通过多数原则融合运动物体覆盖的所有像素上的识别结果,给出单帧的判决结果。例如,在t时刻检测到一个有Np个像素的运动物体a,则单帧判决结果按下式给出,
2.3最终判决结果
毫无疑问,运动物体的特征会被噪声和光线变化等干扰,所以单帧的判决结果也可能有误判。如果融合从运动物体进入场景到它消失时的单帧结果,则可以大大减少这种错误。假设运动物体a在场景中出现了Nf帧,最终的判决结果按下面的公式给出,
3.评价指标和实验效果分析
在我们的实验中,我们使用“检测率”、“漏报率”和“虚警率”来衡量我们的方法。
●“检测率Rdet”是指正确检测到的助力车数与视频中所有出现过的助力车数的比率。其中TP是指被正确检测到的助力车数,FN是指没被检测到的助力车数。
●“漏报率Rmiss”是指检测中被遗漏的助力车数与视频中所有出现过的助力车数的比率。漏报率和检测率是两个互补的准则,漏报率和检测率的和为1。
●“虚警率Rfp”是指误判的助力车数与检测到的总的助力车数的比率。其中FP是指误判的助力车数。
上述三个准则中任一个都不足以衡量一个方法的好坏,需要综合考虑上述三个准则。检测率越大越好,漏报率和虚警率越小越好。
我们采用图4所示的三段真实道路监控视频来测试我们的方法。图4(a)是一个相对理想的场景,场景中的运动物体大小足够大,且运动物体的外形和运动特征几乎保持不变随着物体在场景中位置的变化。图4(b)和(c)是相对比较困难的场景,其中运动物体的外形和运动特征随着其远离监控摄像头而变小。且从图中我们可以发现,离摄像头较近的助力车甚至比远处的机动车的大小还大,远处的助力车和行人看起来几乎一样。这些都使得助力车的检测比较困难。
表1、实验结果
场景 | Rdef | Rmiss | Rfp |
场景1 | 90.1% | 9.9% | 12.4% |
场景2 | 87.5% | 12.5% | 9.3% |
场景3 | 91.7% | 8.3% | 11.3% |
表1给出了不同场景下本方法的实验效果。从表中可以看出我们的方法具有很高的检测率,和较低的漏报率和虚警率。在较差的场景下(场景2、3),本方法得到了和较好场景(场景1)几乎差不多的检测效果。综上表明了本发明方法的有效性。主要原因分析如下:在进行助力车检测时,本方法不是采用全局统一的分类检测方法,而是采用分而治之的方法。首先在每个像素点采用cascade分类器框架进行助力车识别,之后运用两次多数原则融合像素层次的识别结果和帧层次的识别结果,进而给出最终的助力车识别结果。这样不仅可以抑制随机因素的干扰,还能抑制估计出的分布与实际之间存在的偏差对识别带来的影响。所以助力车的检测效果很好。
本发明未详细公开的部分属于本领域的公知技术。
尽管上面对本发明说明性的具体实施方式进行了描述,以便于本技术领的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
Claims (2)
1.一种基于多高斯模型的助力车检测方法,其特征在于,该方法通过提取运动物体的外形特征和运动特征进行助力车的识别,运动物体的大小和速度是两个非常重要的特征,该运动物体的大小和速度随着摄像头角度和与摄像头的距离的变化而不同,该方法建立两组高斯模型来反映不同种类运动物体的大小和速度分布;第一组高斯模型由三个高斯模型组成,分别描述汽车、助力车和行人的大小分布,根据运动物体的大小,很容易把汽车区分开;第二组高斯模型由两个高斯模型组成,分别表征助力车和行人的速度分布,得到这些分布后,根据“最小分类错误”原则,可以得到区分不同种类运动物体的阈值;具体的:
该方法运动物体大小的高斯模型具体为:
对每个像素点p(x,y),经过该点的运动物体的大小建模成三个高斯分布, i=1,2,3
其中ηs(p(x,y),μi,σi)是一个高斯密度函数,μi和σi 2是对应的均值和方差,这三个分布中均值最大的表示汽车的大小分布,均值最小的代表行人的大小分布,第三个分布表示助力车的大小分布;
该方法运动物体速度的高斯模型具体为:
在视频图像中一给定的位置,根据运动物体的大小特征可以容易地区分出汽车,但是助力车和行人之间的大小差异并不明显,尤其当它们正对摄像头方向运动时,所以,为了进一步区分出助力车,在每个像素p(x,y)处,两个高斯模型将被建立以描述助力车和行人的速度分布, i=1,2
其中ηs(p(x,y),μi,σi)是一个高斯密度函数,μi和σi 2是对应的均值和方差,这两个分布中,均值较大的描述的是助力车的速度分布,另一个代表的是行人的速度分布,速度高斯模型参数的估计和物体大小模型参数的确定过程一样;
该方法分类阈值的确定具体为:
由“最小分类错误”准则可知,当选取两条分布曲线的交点作为两类物体的分类阈值时,会使得这两类物体的分类误差最小,对物体大小高斯模型来说,在某个给定位置,汽车的大小明显不同于其它运动物体,但是行人和助力车的差别就没有那么明显了,所以这里只确定用于区分汽车的阈值,该阈值为Ts,对速度分布模型来说,同理,取两条分布曲线的交点为分类阈值,该阈值为Tv,至此,在每个像素点p(x,y)处,有物体大小阈值Ts和速度阈值Tv用于识别助力车;
则助力车检测具体为:
采用三步来进行助力车的识别,首先,在运动物体覆盖的每个像素上,利用cascade分类器给出单个像素上的识别结果;接着,通过多数原则融合运动物体覆盖的所有像素上的识别结果,给出单帧识别结果;最后,通过多数原则把从运动物体进入场景到它消失时的单帧结果进行融合,给出最后的判决结果。
2.根据权利要求1所述的一种基于多高斯模型的助力车检测方法,其特征在于,采用三步来进行助力车的识别时,具体的:
在单像素p(x,y)上的判决结果为:
采用cascade分类器进行像素点上的判别,该分类器的头两个弱分类器由上节得到的大小阈值Ts和速度阈值Tv组成,当出现在该点的运动物体的大小小于Ts且速度大于Tv时,该物体才会被判别为助力车,当运动物体a在t时刻出现在像素点p(x,y)时,通过上述分类器可以得出一个分类结果La(x,y,t),当运动物体判别为助力车时La(x,y,t)为1,否则为0,
在单帧上的判决结果为:
估计的物体大小和速度模型与它们真实的分布之间肯定存在一些偏差,此外,还有一些运动物体的大小和速度特征在分类阈值附近,所以在单像素上的判决可能存在一些误判,为了减少这种错误,通过多数原则融合运动物体覆盖的所有像素上的识别结果,给出单帧的判决结果,在t时刻检测到一个有Np个像素的运动物体a,则单帧判决结果按下式给出,
最终判决结果为:
运动物体的特征会被噪声和光线变化干扰,所以单帧的判决结果也可能有误判,如果融合从运动物体进入场景到它消失时的单帧结果,则可以大大减少这种错误,假设运动物体a在场景中出现了Nf帧,最终的判决结果按下面的公式给出,
如果La表示运动物体最终是否被判为助力车,否则,La=1表示待检测的物体是助力车,否则表示不是助力车,可以相信这个最终判决是比较可信的。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310285712.8A CN103310207B (zh) | 2013-07-06 | 2013-07-06 | 一种基于多高斯模型的助力车检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310285712.8A CN103310207B (zh) | 2013-07-06 | 2013-07-06 | 一种基于多高斯模型的助力车检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103310207A true CN103310207A (zh) | 2013-09-18 |
CN103310207B CN103310207B (zh) | 2016-03-09 |
Family
ID=49135403
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310285712.8A Active CN103310207B (zh) | 2013-07-06 | 2013-07-06 | 一种基于多高斯模型的助力车检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103310207B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107924466A (zh) * | 2015-08-28 | 2018-04-17 | 奥托立夫开发公司 | 用于机动车辆的视觉系统和方法 |
CN111488919A (zh) * | 2020-03-24 | 2020-08-04 | 北京迈格威科技有限公司 | 目标识别方法及装置,电子设备以及计算机可读存储介质 |
WO2022048572A1 (zh) * | 2020-09-02 | 2022-03-10 | 杭州海康威视数字技术股份有限公司 | 目标识别方法、装置和电子设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060165277A1 (en) * | 2004-12-03 | 2006-07-27 | Ying Shan | Method and apparatus for unsupervised learning of discriminative edge measures for vehicle matching between non-overlapping cameras |
US20080025568A1 (en) * | 2006-07-20 | 2008-01-31 | Feng Han | System and method for detecting still objects in images |
CN102073852A (zh) * | 2011-01-14 | 2011-05-25 | 华南理工大学 | 基于最优阈值和随机标号法的多车辆分割方法 |
CN102637257A (zh) * | 2012-03-22 | 2012-08-15 | 北京尚易德科技有限公司 | 一种基于视频的交通车辆检测识别系统和方法 |
-
2013
- 2013-07-06 CN CN201310285712.8A patent/CN103310207B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060165277A1 (en) * | 2004-12-03 | 2006-07-27 | Ying Shan | Method and apparatus for unsupervised learning of discriminative edge measures for vehicle matching between non-overlapping cameras |
US20080025568A1 (en) * | 2006-07-20 | 2008-01-31 | Feng Han | System and method for detecting still objects in images |
CN102073852A (zh) * | 2011-01-14 | 2011-05-25 | 华南理工大学 | 基于最优阈值和随机标号法的多车辆分割方法 |
CN102637257A (zh) * | 2012-03-22 | 2012-08-15 | 北京尚易德科技有限公司 | 一种基于视频的交通车辆检测识别系统和方法 |
Non-Patent Citations (1)
Title |
---|
JINFENG YAN 等: "An Adaptive Bicycle Detection Algorithm Based on Multi-Gaussian Models", 《JOURNAL OF COMPUTATIONAL INFORMATION SYSTEMS》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107924466A (zh) * | 2015-08-28 | 2018-04-17 | 奥托立夫开发公司 | 用于机动车辆的视觉系统和方法 |
CN111488919A (zh) * | 2020-03-24 | 2020-08-04 | 北京迈格威科技有限公司 | 目标识别方法及装置,电子设备以及计算机可读存储介质 |
CN111488919B (zh) * | 2020-03-24 | 2023-12-22 | 北京迈格威科技有限公司 | 目标识别方法及装置,电子设备以及计算机可读存储介质 |
WO2022048572A1 (zh) * | 2020-09-02 | 2022-03-10 | 杭州海康威视数字技术股份有限公司 | 目标识别方法、装置和电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN103310207B (zh) | 2016-03-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105631414B (zh) | 一种基于贝叶斯分类器的车载多障碍物分类装置及方法 | |
CN105930787B (zh) | 车辆开门预警方法 | |
Sina et al. | Vehicle counting and speed measurement using headlight detection | |
CN104573646A (zh) | 基于激光雷达和双目相机的车前行人检测方法及系统 | |
US10699567B2 (en) | Method of controlling a traffic surveillance system | |
KR101609303B1 (ko) | 카메라 캘리브레이션 방법 및 그 장치 | |
CN111563469A (zh) | 一种不规范停车行为识别方法及装置 | |
CN103164958B (zh) | 车辆监控方法及系统 | |
CN102682304A (zh) | 一种融合多特征的行人检测方法及装置 | |
Lan et al. | Real-time automatic obstacle detection method for traffic surveillance in urban traffic | |
KR101727487B1 (ko) | 내용기반 차량분석기 및 이를 이용한 내용기반 차량분석방법 | |
CN107516423B (zh) | 一种基于视频的车辆行驶方向检测方法 | |
CN104680133B (zh) | 一种违规车让人行为实时检测方法 | |
CN105184301B (zh) | 一种利用四轴飞行器判别车辆方位的方法 | |
CN107924466A (zh) | 用于机动车辆的视觉系统和方法 | |
Meshram et al. | Traffic surveillance by counting and classification of vehicles from video using image processing | |
Yang et al. | Vehicle detection methods from an unmanned aerial vehicle platform | |
Zaki et al. | Computer vision approach for the classification of bike type (motorized versus non‐motorized) during busy traffic in the city of Shanghai | |
Su et al. | A new local-main-gradient-orientation HOG and contour differences based algorithm for object classification | |
CN103310206A (zh) | 一种基于多特征与多帧信息融合的助力车检测方法 | |
Ki | Accident detection system using image processing and MDR | |
CN103310207B (zh) | 一种基于多高斯模型的助力车检测方法 | |
CN112232257A (zh) | 一种交通异常确定方法、装置、设备及介质 | |
CN110782485A (zh) | 一种车辆变道检测方法及装置 | |
CN106355152A (zh) | 识别当前道路车辆的方法、系统及行车记录仪 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |