CN105321188A - 基于前景概率的目标跟踪方法 - Google Patents
基于前景概率的目标跟踪方法 Download PDFInfo
- Publication number
- CN105321188A CN105321188A CN201410383890.9A CN201410383890A CN105321188A CN 105321188 A CN105321188 A CN 105321188A CN 201410383890 A CN201410383890 A CN 201410383890A CN 105321188 A CN105321188 A CN 105321188A
- Authority
- CN
- China
- Prior art keywords
- target
- image
- pixel
- prospect
- background
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明属于模式识别领域,涉及图像处理中的目标跟踪方法。具体地说是一种基于前景概率的目标跟踪方法,可以用于各种视频监控、交通管制等系统中的目标检测与跟踪。针对Mean?shift跟踪算法中权值在减小背景影响的同时削弱了目标模型的表示,为了减小权值对模型表示的影响,提出了由目标模型、候选模型以及像素点属于前景的概率构成的权值图来加强前景和背景的差异,从而抑制背景像素的影响。通过Adaboost得到投影向量,计算出前景的概率图,并利用其概率与Mean?shift的权值融合,利用加强前景和背景差异化的投影向量的更新来适应光照或背景等变化,根据改进的权值的矩特征确定目标的中心位置、尺度以及旋转角度,实现目标的跟踪。
Description
技术领域
本发明属于计算机视觉领域,涉及图像处理中的目标跟踪方法。具体地说是一种基于前景概率的目标跟踪方法,可以用于各种视频监控、交通管制等系统中的目标检测与跟踪。
背景技术
Meanshift又叫均值漂移算法,该算法是基于核密度估计的无参数模式的统计迭代算法,因其不需要参数、实时性好等优点在跟踪领域得到广泛的应用,但是当部分目标特征与局部背景相似时,跟踪算法易于导致局部最优,从而降低跟踪的准确性,因此,在实际应用过程中受到了限制。
近几年,许多国内外研究者在Meanshift算法的基础上提出了众多的改进算法。连续自适应均值漂移(CAMSHIFT)算法中的权值图依赖于目标模型,能很好的反映目标的动态变化,并且利用权值图的矩特征估计目标的尺寸与旋转角度,但是权值图的矩特征不具有良好的鲁棒性。SOMAST(Scaleandorientationadaptivemeanshifttracking)考虑到目标模型与候选模型之间的巴氏系数与权值图的相关性,利用相似性系数使得权值图的零阶矩更加逼近目标的大小。CBWH(correctedbackground-weightedhistogram)是根据BWH中目标候选区域里像素点的权重分配与没有引入背景信息的权重是成比例这一情况提出的,可以有效地减小背景的干扰。目前,一种新型的CIG(ContextInformationandGlobal)特征提取方法,且利用候选模型大于目标模型产生的权重抑制背景的影响,由此解决Meanshift算法的不足。但这些跟踪算法忽略了局部背景信息,像素点的权值在减小背景影响的同时,也削弱了目标模型,使得跟踪算法易于导致局部最优,从而降低跟踪的准确性。
发明内容
针对上述问题,本发明提出一种基于前景概率的目标跟踪方法,该方法能区分前景和背景,使像素点属于前景的概率与权值融合,以减小由于权值削弱模型的影响。
实现本发明的关键技术是:通过Adaboost算法找到区分前景和背景的投影向量,将原始图像进行超平面投影得到投影图像,利用投影图像得到像素点属于前景的概率图,通过改进的权值图的矩特征确定目标的中心位置、尺度及旋转角度,实现目标的跟踪。
为实现上述目标,具体实现步骤如下:
(1)在第一帧中手动选择目标区域中所有像素点作为正样本和负样本,通过Adaboost算法选择具有判决性的特征维,得到投影向量W,计算Y=WTX,其中X是初始图像,Y是投影后图像,经过T次迭代,形成具有判决性的特征维;
(2)设投影后图像像素点属于前景的分布为高斯分布,计算投影图的概率分布p(xi),参与目标模型的计算;
(3)利用得到的目标模型和候选模型计算每个像素点的权值w″;
(4)利用所有像素点权值的总和计算候选区域中目标的中心位置、尺寸和旋转角度。
本文发明具有以下优点:
(1)本文发明通过Adaboost加强前景和背景的差异,并不需要像图像分割一样,准确的将前景与背景分割,而是计算出像素点属于前景的概率,并利用其概率值得到改进的目标模型和候选模型。每个像素在迭代过程中不会严格的将其归属到前景或者背景,而是以不同程度归属到这两类,抑制背景像素的影响。
(2)将区分前景和背景的投影向量进行更新来适应光照和背景等变化,根据改进的权值的矩特征能精确确定目标的中心位置尺度以及旋转角度,实现目标的跟踪。
附图说明
图1是视频1跟踪方法的比较,(a)是迭代次数的比较,(b)是中心误差的比较;
图2是视频2跟踪方法的比较,(a)是迭代次数的比较,(b)是中心误差的比较;
图3是视频3跟踪方法的比较,(a)是迭代次数的比较,(b)是中心误差的比较;
图4是视频4跟踪方法的比较,(a)是迭代次数的比较,(b)是中心误差的比较;
图5是跟踪性能与x、y轴误差的比较。
具体实施方式
一、本文发明基于前景概率的目标跟踪方法
1、局部二值模式(LocalBinarypattern,LBP)算子提取运动目标的纹理特征
LBP是目标的纹理特征,一般有9种模式,在这9种模式中与边界和角点相关的模式2、3、4、5、6是目标的主要模式,其余为光滑点,这5种模式提取了目标的边界纹理信息。利用模式2、3、4、5、6提取图像的主要边缘纹理特征,用这五种基本纹理模型LBP8,1表示图像。将颜色空间量化16×16×16来描述目标,而当颜色特征中加入灰度纹理边缘特征后,对于颜色特征可以粗略量化R和G两个颜色通道,为8×8特征空间,加上LBP的五种纹理模式,所以只需8×8×5的特征向量,在特征空间量化的个数上少于颜色直方图。因为本文将目标的直方图特征空间量化为两个颜色通道和一个纹理通道,所以弱分类器的个数为3。依次计算目标区域中每个像素点的纹理值,如果纹理模式为0,则忽略该像素点,即不参与目标模型的建立。FLBP8,1的公式为:
其中,gc表示中心像素点的灰度值,gp表示以gc为中心,以R为半径的领域上的P个点的灰度值。
2、基于Adaboost算法投影图像的概率分布
在第一帧中手动选择目标区域中所有像素点作为正样本,即yi=1,目标周围以其长半轴和短半轴的1/2的内的像素点属于负样本,即yi=-1,初始化像素点的权重D(i)=1/N,投影向量W=0。弱分类器的错误率公式如下:
hk(xi)=sign[p(y=1|fk(xi))-p(y=-1|fk(xi))]
其中,fk(xi)表示特征向量三个通道中每个像素点的特征值。假设条件概率p(fk(xi)|y=1)和p(fk(xi)|y=-1)服从高斯分布,则利用贝叶斯公式推导出弱分类器过程如下:
最终的弱分类器的表达式为:
高斯分布的参数更新如下:
其中,λ代表学习 错误率小于0.5时,分类器的极性μt=1,否则μt=-1。εt=minεk,k=1,2,3,分类器的权值为:
样本权值为:
经过T=10次迭代,最终确定投影向量:
Wt+1=Wt+αtμtet,i
其中,et,i是3×1的向量,当i=argminεi时,ei=1。计算Y=WTX,其中X是初始图像,Y为投影后图像。初始图像X按特征维三个通道对像素向量化,得到三个1×N维的向量,将其拼接成3行N维向量,即3×N。投影向量W为3×3维向量,于是投影后的Y为1×N的向量,将其按原始图像的大小排列就能得到像素点个数为N的图像。经过T次迭代,迭代过程中会改变3×1维中错误率最小的一维,形成具有判决性的特征维,设投影后图像像素点属于前景的分布为高斯分布,则投影图的概率分布为:
(μ,σ2)为投影图像的均值与方差,通过上式强化前景与背景的像素值的差异。当出现前景和背景的颜色特征类似的情况下,加入纹理特征后与颜色特征量化为8×8×5,投影后图像区分出目标和背景。
3、具体实施步骤
参照图1,本发明的具体实施步骤包括如下:
步骤1.在第一帧中手动选择目标区域中的所有像素点作为正样本,即yi=1,在目标区域周围以其长半轴和短本周的1/2内的像素点作为负样本,即yi=-1。假设去除光滑点后剩余像素点为{xi,yi},i=1,2,...N,yi∈{-1,1},初始化像素点的权值D(i)=1/N,投影向量W=0。
步骤2.通过Adaboost算法选择具有判决性的特征维,将初始图像投影,得到投影图的概率分布:
(2.1)假设条件概率p(fk(xi)|y=1)和p(fk(xi)|y=-1)服从高斯分布,令p(y=1)=p(y=-1),分别计算3个弱分类器的表达式hk(xi)和错误率εk:
错误率小于0.5时,分类器的极性μt=1,否则μt=-1。εt=minεk,k=1,2,3;
(2.2)根据εt计算分类器的权值αt:
(2.3)根据由此可得到样本权值Dt+1:
(2.4)经过T=10次迭代,最终得到投影向量Wt+1:
Wt+1=Wt+αtutet,i
其中,et,i是3×1的向量,当i=argminεi时,ei=1。
(2.5)经过T次迭代,形成具有判决性的特征维,设投影后图像像素点属于前景的分布为高斯分布,则投影图的概率分布为:
(μ,σ2)为投影图像的均值与方差,通过上式强化前景与背景的像素值的差异。
步骤3.通过投影得到的概率分布定义目标模型和每个像素点的权值w″:
由此可以看出,每个点的权重与投影后的像素点有关,当p(xi)越大,表明该点属于前景的可能性越大,因此,点的权重相应的增大,对目标定位的决定性越大。
步骤4.通过所有像素点权值的总和计算目标的中心位置、尺寸和旋转角度:
(4.1)首先计算权值图的一阶矩M10和M01得到候选区域的中心位置坐标:
(4.2)再由二阶中心距M20、M02和M11构成协方差矩阵,通过奇异值分解得到目标的尺度和旋转角:
其中 (μ11,μ21)T和(μ21,μ22)T分别代表目标在两个轴上旋转的尺度。
(4.3)通过尺度因子α的大小,计算表示实际目标的椭圆的长半轴l和短半轴h:
l=λ1αh=λ2α
步骤5.为了适应运动过程中光照或背景等变化,需要每隔8帧对投影向量进行更新。首先判断当前跟踪的帧数i是否是8的倍数,如果不是,则投影向量保持不变;如果是,则将初始帧到第i帧中所有跟踪目标的大小利用线性插值缩放到固定大小的窗口,然后进行均值运算,考虑到与第i帧越接近的跟踪结果对其影响越大,因此计算公式为image=[image(1)+image(2)]/2,image=[image+image(3)]/2,依此类推,image=[image(i)+image]/2。最后基于新的图像求出新的投影向量WN,则即将到来的第i+1帧中用于计算前景概率的投影向量为W′=(W+WN)/2。
本发明的效果可通过以下实验仿真进一步说明:
1、仿真条件及其参数
本发明采用几个视频来进行实验分析,视频1分别率大小为352×240,共72帧;视频2分辨率为640×480,共96帧,其特点是目标发生尺度变化;视频3的分辨率为290×217,共40帧,其特点是在运动目标的附近有两辆颜色与其的运动车辆。视频4来自数据库中的CarDark视频。文中颜色空间量化为8×8,纹理空间提取的是模式2、3、4、5、6,在Meanshift迭代过程中,允许的最大误差为0.05个像素,迭代上限为16步,更新高斯分布参数的学习参数λ为0.85,投影向量的更新速度为每隔帧率的1/3更新一次,文中用于实验的视频帧率24PFS,即F=8。
2、仿真内容及结果分析
图1、图2、图3和图4分别为本文算法与Meanshift算法、SOAMST算法和CWBH算法迭代次数的比较和中心误差的比较。可以看出,本文方法的迭代次数小于Meanshift和SOAMST的迭代次数,因为SOAMST是在Meanshift的基础上,利用目标模板与候选模板之间的巴氏系数使得权值图的零阶矩的和更趋近于候选区域目标的真实面积,但SOAMST并没有对前景和背景中像素点的权重进行分析,权重与Meanshift类似,只是考虑到目标模型和候选模型,而本文方法相应的减小了背景的权重,削弱了背景的干扰,优化了迭代次数。
图5为4种算法在4个视频中的跟踪性能和x、y轴误差的比较。可以看出本文算法相对于其他3种算法在x、y轴上的中心误差比较小。原因在于,其他三种方法受到背景的影响,不能准确的估计目标的中心以及尺寸,而本文方法考虑到目标初始化后背景信息的影响,所以在计算权值时,利用像素点概率削弱背景像素点的影响,得到可靠的权值图像。总而言之,本文方法计算权值的时候考虑到属于前景像素的概率,并且通过更新的投影向量区分每帧中前景与背景,从图5可以看出,当目标存在尺度变化或者运动角度变化等问题时,本文方法可以有效的跟踪目标。图5中的相对误差计算公式Xi,Yi,xi,yi视频中目标的中心点和由实验得到的中心点横坐标和纵坐标。
Claims (3)
1.基于前景概率的目标跟踪方法,包括:
(1)通过Adaboost算法加强前景和背景的差异,首在目标区域选择正负样本,构建弱分类器的表达式hk(xi)和错误率εk选择具有判决性的特征维,找到区分前景和背景的投影向量W,设投影后图像像素点属于前景的分布为高斯分布,利用投影图像得到像素点属于前景的概率图将原始图像进行超平面投影得到投影图像。
(2)构造目标模型和每个像素点的权值w″。本发明假设投影后图像像素点属于前景的分布为高斯分布,计算投影图的概率分布p(xi),由此可以得到目标模型和每个像素点的权值,如下所示:
其中C为归一化常数,k为核函数,xi表示目标区域中第i个像素点的坐标,b(xi)为像素点xi映射到对应特征空间。为以y0为中心的候选区域的特征模型。每个像素在迭代过程中不会严格的将其归属到前景或者背景,而是以不同程度归属到这两类,抑制背景像素的影响。
(3)通过改进的权值图的矩特征确定目标的中心位置、尺度及旋转角度,实现目标的跟踪。
(4)为了适应运动过程中光照或背景等变化,需要每隔8帧对投影向量进行更新。image=[image(1)+image(2)]/2,image=[image+image(3)]/2,依此类推,image=[image(i)+image]/2。最后基于新的图像求出新的投影向量WN,则即将到来的第i+1帧中用于计算前景概率的投影向量为W′=(W+WN)/2。
2.根据权利要求书1所述的基于前景概率的目标跟踪方法,其中,步骤1所述的弱分类器的表达式hk(xi)和错误率εk,按照下述方法得到:
在第一帧中手动选择目标区域中的所有像素点作为正样本,即yi=1,在目标区域周围以其长半轴和短本周的1/2内的像素点作为负样本,即yi=-1。假设去除光滑点后剩余像素点为{xi,yi},i=1,2,...N,yi∈{-1,1},初始化像素点的权值D(i)=1/N,投影向量W=0;假设条件概率p(fk(xi)|y=1)和p(fk(xi)|y=-1)服从高斯分布,令p(y=1)=p(y=-1),分别计算3个弱分类器的表达式hk(xi)和错误率εk:
错误率小于0.5时,分类器的极性μt=1,否则μt=-1。εt=minεk,k=1,2,3。
3.根据权利要求书1所述的基于前景概率的目标跟踪方法,其中,步骤4中改进的权值图的矩特征确定目标的中心位置、尺度及旋转角度都是通过计算所有像素点的总和一阶矩M10和M01得到候选区域的中心位置坐标:
再由二阶中心距M20、M02和M11构成协方差矩阵,通过奇异值分解得到目标的尺度和旋转角:
其中(μ11,μ21)T和(μ21,μ22)T分别代表目标在两个轴上旋转的尺度。通过尺度因子α的大小,计算表示实际目标的椭圆的长半轴l和短半轴h:
l=λ1αh=λ2α。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410383890.9A CN105321188A (zh) | 2014-08-04 | 2014-08-04 | 基于前景概率的目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410383890.9A CN105321188A (zh) | 2014-08-04 | 2014-08-04 | 基于前景概率的目标跟踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105321188A true CN105321188A (zh) | 2016-02-10 |
Family
ID=55248503
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410383890.9A Pending CN105321188A (zh) | 2014-08-04 | 2014-08-04 | 基于前景概率的目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105321188A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106022314A (zh) * | 2016-06-14 | 2016-10-12 | 安徽清新互联信息科技有限公司 | 一种智能视频监控中刚性目标丢失的检测方法 |
CN108549927A (zh) * | 2018-03-16 | 2018-09-18 | 深圳市商汤科技有限公司 | 物体检测网络的训练方法和特征监督图生成方法 |
CN108734109A (zh) * | 2018-04-24 | 2018-11-02 | 中南民族大学 | 一种面向图像序列的视觉目标跟踪方法及系统 |
CN110458045A (zh) * | 2019-07-22 | 2019-11-15 | 浙江大华技术股份有限公司 | 响应概率直方图的获取方法、图像处理方法以及装置 |
CN111047588A (zh) * | 2019-12-26 | 2020-04-21 | 电子科技大学 | 一种轴型小零件尺寸的图像化测量方法 |
CN111930935A (zh) * | 2020-06-19 | 2020-11-13 | 普联国际有限公司 | 图像分类方法、装置、设备和存储介质 |
CN113033662A (zh) * | 2021-03-25 | 2021-06-25 | 北京华宇信息技术有限公司 | 多视频关联方法及装置 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003178308A (ja) * | 2001-12-11 | 2003-06-27 | Sony Corp | 演算方法及び装置、プログラム、並びに記録媒体 |
US20050240629A1 (en) * | 1998-09-10 | 2005-10-27 | Microsoft Corporation | Tracking semantic objects in vector image sequences |
CN101673403A (zh) * | 2009-10-10 | 2010-03-17 | 安防制造(中国)有限公司 | 复杂干扰场景下的目标跟踪方法 |
CN102222339A (zh) * | 2011-06-17 | 2011-10-19 | 中国科学院自动化研究所 | 一种基于纹理和强度特征融合的多尺度背景建模方法 |
CN103413312A (zh) * | 2013-08-19 | 2013-11-27 | 华北电力大学 | 基于邻里成分分析和尺度空间理论的视频目标跟踪方法 |
CN103426179A (zh) * | 2012-05-17 | 2013-12-04 | 深圳中兴力维技术有限公司 | 一种基于均值偏移多特征融合的目标跟踪方法及装置 |
CN103426178A (zh) * | 2012-05-17 | 2013-12-04 | 深圳中兴力维技术有限公司 | 一种基于均值偏移的复杂场景下目标跟踪方法及装置 |
CN103886324A (zh) * | 2014-02-18 | 2014-06-25 | 浙江大学 | 一种基于对数似然图像的尺度自适应目标跟踪方法 |
-
2014
- 2014-08-04 CN CN201410383890.9A patent/CN105321188A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050240629A1 (en) * | 1998-09-10 | 2005-10-27 | Microsoft Corporation | Tracking semantic objects in vector image sequences |
JP2003178308A (ja) * | 2001-12-11 | 2003-06-27 | Sony Corp | 演算方法及び装置、プログラム、並びに記録媒体 |
CN101673403A (zh) * | 2009-10-10 | 2010-03-17 | 安防制造(中国)有限公司 | 复杂干扰场景下的目标跟踪方法 |
CN102222339A (zh) * | 2011-06-17 | 2011-10-19 | 中国科学院自动化研究所 | 一种基于纹理和强度特征融合的多尺度背景建模方法 |
CN103426179A (zh) * | 2012-05-17 | 2013-12-04 | 深圳中兴力维技术有限公司 | 一种基于均值偏移多特征融合的目标跟踪方法及装置 |
CN103426178A (zh) * | 2012-05-17 | 2013-12-04 | 深圳中兴力维技术有限公司 | 一种基于均值偏移的复杂场景下目标跟踪方法及装置 |
CN103413312A (zh) * | 2013-08-19 | 2013-11-27 | 华北电力大学 | 基于邻里成分分析和尺度空间理论的视频目标跟踪方法 |
CN103886324A (zh) * | 2014-02-18 | 2014-06-25 | 浙江大学 | 一种基于对数似然图像的尺度自适应目标跟踪方法 |
Non-Patent Citations (6)
Title |
---|
COMANICIU D等: "A robust approach toward feature space analysis", 《IEEE TRANSACTIONS ON PATTERNANALYSIS AND MACHINE INTELLIGENCE》 * |
GRABNER H等: "Real-Time Tracking via On-line Boosting", 《IN PROCEEDINGS BRITISH MACHINE VISION CONFERENCE》 * |
YANG F等: "Robust tracking based on boosted color soft segmentation and ica-r", 《2010 17TH IEEE INTERNATIONAL CONFERENCE ON IMAGE PROCESSING (ICIP)》 * |
云霄等: "基于Camshift的特征自适应融合船舶跟踪算法", 《光电工程》 * |
周斌等: "基于前景概率函数的目标跟踪", 《北京理工大学学报》 * |
王永忠等: "基于多特征自适应融合的核跟踪方法", 《自动化学报》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106022314A (zh) * | 2016-06-14 | 2016-10-12 | 安徽清新互联信息科技有限公司 | 一种智能视频监控中刚性目标丢失的检测方法 |
CN108549927A (zh) * | 2018-03-16 | 2018-09-18 | 深圳市商汤科技有限公司 | 物体检测网络的训练方法和特征监督图生成方法 |
CN108734109A (zh) * | 2018-04-24 | 2018-11-02 | 中南民族大学 | 一种面向图像序列的视觉目标跟踪方法及系统 |
CN108734109B (zh) * | 2018-04-24 | 2020-11-17 | 中南民族大学 | 一种面向图像序列的视觉目标跟踪方法及系统 |
CN110458045A (zh) * | 2019-07-22 | 2019-11-15 | 浙江大华技术股份有限公司 | 响应概率直方图的获取方法、图像处理方法以及装置 |
CN111047588A (zh) * | 2019-12-26 | 2020-04-21 | 电子科技大学 | 一种轴型小零件尺寸的图像化测量方法 |
CN111930935A (zh) * | 2020-06-19 | 2020-11-13 | 普联国际有限公司 | 图像分类方法、装置、设备和存储介质 |
CN111930935B (zh) * | 2020-06-19 | 2024-06-07 | 普联国际有限公司 | 图像分类方法、装置、设备和存储介质 |
CN113033662A (zh) * | 2021-03-25 | 2021-06-25 | 北京华宇信息技术有限公司 | 多视频关联方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105321188A (zh) | 基于前景概率的目标跟踪方法 | |
CN106875424B (zh) | 一种基于机器视觉的城市环境行驶车辆行为识别方法 | |
CN106408594B (zh) | 基于多伯努利特征协方差的视频多目标跟踪方法 | |
CN101120382B (zh) | 跟踪用相机获得的场景视频中的移动物体的方法 | |
CN103530893B (zh) | 相机抖动场景下基于背景差和运动信息的前景检测方法 | |
CN103514441B (zh) | 基于移动平台的人脸特征点定位跟踪方法 | |
Deguchi et al. | Object tracking by the mean-shift of regional color distribution combined with the particle-filter algorithms | |
CN103048329B (zh) | 一种基于主动轮廓模型的路面裂缝检测方法 | |
CN103886325B (zh) | 一种分块的循环矩阵视频跟踪方法 | |
CN104268539A (zh) | 一种高性能的人脸识别方法及系统 | |
CN106780548A (zh) | 基于交通视频的运动车辆检测方法 | |
CN102063727B (zh) | 一种基于协方差匹配的主动轮廓跟踪方法 | |
CN105404861A (zh) | 人脸关键特征点检测模型的训练、检测方法及系统 | |
CN111681197A (zh) | 一种基于Siamese网络结构的遥感图像无监督变化检测方法 | |
CN106991686B (zh) | 一种基于超像素光流场的水平集轮廓跟踪方法 | |
CN102142085B (zh) | 一种林区监控视频中运动火焰目标的鲁棒跟踪方法 | |
CN107833241A (zh) | 对环境光照变化具有鲁棒性的实时视觉目标检测方法 | |
CN101470809A (zh) | 一种基于扩展混合高斯模型的运动目标检测方法 | |
CN102903102A (zh) | 基于非局部的三马尔可夫随机场sar图像分割方法 | |
CN105868734A (zh) | 基于bow图像表征模型的输电线路大型施工车辆识别方法 | |
CN102289822A (zh) | 一种多摄像机协同跟踪运动目标的方法 | |
CN104778670A (zh) | 一种基于多元统计模型的分形小波自适应图像去噪方法 | |
CN103593639A (zh) | 嘴唇检测和跟踪方法及设备 | |
CN103077383B (zh) | 基于时空梯度特征的分部位的人体运动识别方法 | |
CN105046285B (zh) | 一种基于运动约束的异常行为辨识方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20160210 |
|
WD01 | Invention patent application deemed withdrawn after publication |