CN104850865B - 一种多特征迁移学习的实时压缩跟踪方法 - Google Patents
一种多特征迁移学习的实时压缩跟踪方法 Download PDFInfo
- Publication number
- CN104850865B CN104850865B CN201510304771.4A CN201510304771A CN104850865B CN 104850865 B CN104850865 B CN 104850865B CN 201510304771 A CN201510304771 A CN 201510304771A CN 104850865 B CN104850865 B CN 104850865B
- Authority
- CN
- China
- Prior art keywords
- mrow
- sample
- target
- msubsup
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
- G06F18/24155—Bayesian classification
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Probability & Statistics with Applications (AREA)
- Other Investigation Or Analysis Of Materials By Electrical Means (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种多特征迁移学习的实时压缩跟踪方法,包括了以下步骤:产生训练样本,在当前帧和先前跟踪到目标的视频帧中分别提取正负样本用于分类器的训练;提取训练样本中目标和背景的特征,采用两个互补的稀疏映射矩阵将提取的高维特征投影到压缩域的低维特征,并产生两种平衡的特征用于表示目标和背景;分类器的构建与更新,使用压缩域的特征训练出一个朴素贝叶斯分类器用于对待检测样本进行分类;二次目标搜索策略,采用由粗到精的二次搜索策略减少产生的扫描窗口数量,从而减少待检测的样本数量,加速目标搜索过程,将响应值最大的扫描窗口作为跟踪到的目标,并以此对训练样本和分类器进行更新。
Description
技术领域
本发明属于计算机视觉、机器学习技术领域,特别是一种多特征迁移学习的实时压缩跟踪方法。
背景技术
目标跟踪系统一般由三部分组成:(1)目标外观模型,用来评估候选区域与目标之间的相似度;(2)运动模型,用于对目标在一段连续时间内的运动状态进行建模;(3)搜索策略,用于在当前帧中搜索出最可能的目标区域;在这三个组成成分当中,目标外观模型是不可或缺的部分。
离线跟踪通过线下学习目标的外观模型,这种方式需要预先收集目标的大量样本用于分类器的训练,并且训练过程耗时较长,不能自适应目标外观的变化;在线跟踪通过实时更新目标外观模型,能够适应目标外观的变化,在分类器的训练过程中通常以跟踪到的目标作为正样本,在正样本周围选取负样本,这种方式得到的训练样本较少,需要通过反复的训练和测试来提高分类器的准确度;多实例跟踪通过选择多个正样本和多个负样本用于分类器的训练,以上方式当目标发生部分遮挡时容易引入背景信息,造成分类器的错误更新,最终导致跟踪漂移甚至丢失目标。
发明内容
发明目的:本发明所要解决的技术问题是针对现有研究的不足,提供一种多特征迁移学习的实时压缩跟踪方法,从而提高目标跟踪的准确率。
为了解决上述技术问题,本发明公开了一种多特征迁移学习的实时压缩跟踪方法,包括以下步骤:
步骤1,从视频的当前帧和先前帧跟踪到目标的帧中提取出训练样本用于分类器的训练,训练样本包括目标领域样本和源领域样本,所述当前帧为第t帧,先前帧为第1帧到第t-1帧,目标领域样本表示从当前帧中提取出来的样本,源领域样本表示从先前帧中提取出来的样本;
步骤2,从训练样本中提取出目标领域样本和源领域样本的特征,用不同尺寸的矩形框与训练样本卷积得到对应尺寸(从1×1到w×h大小,w和h分别表示样本的宽和高)的特征,将所述特征串联起来转成一维,得到高维特征,分别采用两个互补的稀疏映射矩阵将高维特征投影到压缩域的低维特征,得到目标领域样本的压缩域特征和源领域样本的压缩域特征;
步骤3,根据目标领域样本的压缩域特征和源领域样本的压缩域特征分别构建各自的朴素贝叶斯分类器,并融合形成最终的强分类器,使用所述最终的强分类器对待检测样本进行分类,所述待检测样本为t+1帧中提取出的样本,当待检测样本的最大响应值小于阈值时,暂停训练样本中源领域样本的更新,当待检测样本的最大响应值大于或等于阈值时,重启对训练样本中源领域样本的更新;
步骤4,采用由粗到精的二次搜索策略,对于待检测样本中的t+1帧以当前帧目标所在的位置为圆心,以γc=25(像素)为半径,以Δc=4(像素)为步长产生扫描窗口,使用最终的强分类器找到响应值最大的窗口,并以此为圆心,以γf=10(像素)为半径,以Δf=1(像素)为步长再次产生扫描窗口,使用最终的强分类器找到响应值最大的窗口作为最终跟踪到的目标。
其中,步骤1包括以下步骤:
步骤1-1,提取目标领域样本:从跟踪到目标的当前帧中提取目标领域样本,lt(z0)表示当前帧跟踪到的目标中心位置,t表示当前帧,即第t帧,z0表示当前帧跟踪到的目标窗口,在距离目标位置α=4个像素范围内采集正样本,正样本用Zα={z|||lt(z)-lt(z0)||<α}表示,lt(z)表示正样本的中心位置,z表示正样本所在的窗口,并按照正样本与目标位置之间的距离按从小到大的顺序进行排序,在目标附近的环形区域内随机采集负样本,负样本用Zγ,β={z|γ<||lt(z)-lt(z0)||<β}表示,γ表示环形区域的内半径,其值取为8(像素),γ>α,β表示外半径,其值取为30(像素),采集的正负样本组成目标领域样本;
步骤1-2,提取源领域样本:从先前帧跟踪到目标的视频帧中提取源领域样本,源领域样本中正样本的空间为N,在初始N帧(与正样本空间相同),把跟踪到的目标放入源领域样本集的正样本空间中,正样本空间满后,用第t-1帧跟踪到的目标替换正样本中最先加入的样本,负样本由目标领域样本中的负样本复制得到。
步骤2包括以下步骤:
步骤2-1,计算训练样本特征:使用矩形特征描述训练样本,每个矩形特征对应了图像在这个矩形区域内的像素和,矩形的宽在1到w之间变化,高在1到h之间变化,w和h分别表示样本的宽和高,矩形区域的位置随机选择,使用积分图加速矩形特征的计算;
步骤2-2,生成原始稀疏测量矩阵:由步骤2-1在一个样本上产生的特征经过串联后得到样本的特征空间x=(x1,...,xm)T,表示样本集,xm表示特征空间x中的第m个特征,其中m=(wh)2表示特征空间的维数,其值在106~1010之间,使用原始稀疏测量矩阵对特征空间进行压缩,原始稀疏测量矩阵rij定义如下:
其中i表示矩阵的行,其范围由低维空间的维数决定,j表示矩阵的列,j∈[1,m],参数s取值为2或3,以满足Johnson-Lindenstrauss准则(参考文献Database-friendlyrandom projections:Johnson-Lindenstrausswithbinary coins),低维特征vi的提取公式如下所示:
其中xj表示特征空间x中的第j个特征,vi表示压缩域的第i个低维特征;
步骤2-3,生成互补稀疏测量矩阵:互补稀疏测量矩阵的生成公式如下所示:
其中randi(2)表示随机产生值为1或2的整数,k表示r1i中的第k个非零值;
通过低维特征的提取公式便可以得到与低维特征vi互补的特征vi′,当ri中同时存在正值和负值时,特征vi表现出图像块间灰度的差异,体现为纹理特征,vi′则表现出图像块灰度的均值,体现为灰度均值特征。
步骤3包括以下步骤:
步骤3-1,构建朴素贝叶斯分类器:对于每一个样本在低维特征空间中的表示为(n表示低维特征空间的维数,其值可以人为设定),构建一个朴素贝叶斯分类器H(V):
i取值范围1~n,vi表示第i个低维特征空间,先验概率p(y=1)=p(y=0),y∈{0,1}表示样本的类别标签,条件概率p(vi|y=1)和p(vi|y=0)服从高斯分布,即:
式中和分别表示条件概率p(vi|y=1)高斯分布的均值和标准差,和分别表示条件概率p(vi|y=0)高斯分布的均值和标准差, μ1、σ1分别为正样本的均值与标准差, μ0、σ0分别为负样本的均值与标准差;
步骤3-2,多特征融合:融合目标领域样本的压缩域特征和源领域样本的压缩域特征,采用弱耦合的方式,通过加权和的方式进行特征的融合,两种特征总体上保持1:1的数量关系,因此两者权重相同,基于融合特征的强分类器H*(V)为:
其中vi′表示与vi成互补关系的特征;
步骤3-3,强分类器的构建:使用源领域样本和目标领域样本分别训练各自的朴素贝叶斯强分类器HS和HT,计算方式如步骤3-2所示,并经过加权和构成最终的强分类器H,其形式如下:
其中HS表示由源领域样本训练得到的强分类器,HT表示由目标领域样本训练得到的强分类器,目标领域样本集中正样本的空间为P,源领域样本集中正样本的空间为N;
步骤3-4,分类器参数更新:每次跟踪得到新的目标后对分类器的参数进行在线更新,更新公式如下所示:
正样本的参数更新方式如下:
负样本的参数更新方式如下:
λ表示学习率,λ>0;
当待检测样本的最大响应值小于阈值时,暂停分类器参数的更新,计算阈值Th公式如下:
当阈值Th的值小于0.5,说明强分类器所选出的目标与真实目标存在较大偏差,此时目标可能发生大面积遮挡,如果将这个跟踪到的目标作为正样本加入到源领域的正样本中进行分类器的训练会引入背景噪声,造成分类器的更新产生误差累积,因此当发现某帧中阈值Th小于0.5时,暂停对分类器参数的更新,直到后续视频帧中发现阈值Th大于或等于0.5时再次使用跟踪到的目标对分类器参数进行更新。
步骤4包括以下步骤:
步骤4-1,初次搜索:采用由粗到精的搜索策略来对目标进行定位,假设在第t-1帧跟踪到的目标所在的位置为lt-1,为搜索第t帧中目标的位置,首先以t-1帧目标位置的中心为圆心,以γc=25(像素)为半径,Δc=4(像素)为步长产生搜索窗口,即(Z表示搜索窗口,l(Z)表示搜索窗口的中心位置,表示以γc为半径、Δc为步长产生的搜索窗口的集合),使用步骤3-3得到的强分类器H对所述搜索窗口进行分类,找到响应值最大的窗口所在的位置lt′;
步骤4-2,二次搜索:以位置lt′为圆心,以γf=10(像素)为半径,Δf=1(像素)为步长产生二次搜索窗口,即(表示以γf为半径,Δf为步长产生的搜索窗口的集合),使用步骤3-3得到的强分类器H对所述二次搜索窗口进行分类,找到响应值最大的窗口所在的位置lt作为最终跟踪到的目标。
有益效果:本发明学习了基于外观特征模板的描述模型,同时使用这些特征通过训练朴素贝叶斯分类器将目标从背景中分离出来。在目标的描述方面使用平衡的多特征通过弱耦合的方式进行加权融合共同表示目标;在分类器的训练过程中引入源领域样本辅助分类器的更新;在目标搜索的过程中使用由粗到精的二次搜索策略加速目标搜索的过程。本发明采用多特征联合描述目标和背景,并引入辅助样本引导分类器的更新,通过训练样本更新机制避免产生被污染的训练样本,从而保证分类器更新的准确性,使用二次搜索策略加速目标搜索的过程,在多个公共测试视频上验证本发明算法的有效性和准确性。
附图说明
下面结合附图和具体实施方式对本发明做更进一步的具体说明,本发明的上述和/或其他方面的优点将会变得更加清楚。
图1为本发明方法的算法框图。
图2为不相邻帧中样本特征的概率分布函数示意图。
图3为训练样本组成示意图。
图4为压缩特征空间示意图。
图5为稀疏测量矩阵及互补矩阵元素分布示意图。
图6为发生遮挡时本发明跟踪效果与原始压缩跟踪算法跟踪效果对比图。
具体实施方式
下面结合附图和具体实施方式对本发明做更进一步的具体说明。
本方法的框图如图1所示,分为四大过程:首先是产生源领域和目标领域的训练样本;其次是根据产生的训练样本,利用两个互补的稀疏测量矩阵提取出样本的压缩域特征用于分类器的训练;再次利用压缩域特征对分类器进行训练和更新,得到强分类器用于目标的搜索;最后使用训练好的强分类器对目标进行由粗到精的二次搜索,找到目标的位置,并更新训练样本。
具体地说,如图1所示,本发明公开了一种多特征迁移学习的实时压缩跟踪方法,主要包括以下几个步骤:
步骤1,训练样本的产生:在目标跟踪的过程中第1帧通常由人工标定出目标的位置,包含了目标的准确位置信息,第2到t-1帧包含了目标在运动过程中的形变信息。由于目标跟踪过程中目标会出现姿态调整、受到光照变化等因素的影响,因此从不相邻帧中采集的样本特征的分布存在差异,根据训练样本来源的不同,将训练样本分为目标领域样本和源领域样本两个部分,图2展示了特征值在不相邻的两个样本上的分布,实线是特征值在目标领域训练样本上的分布,虚线是特征值在源领域训练样本上的分布;
步骤2,训练样本特征的提取:在步骤1提取出的正负训练样本上提取出目标和背景的特征,用不同尺寸的矩形框与训练样本卷积将结果转成一维,得到高维特征,分别采用两个互补的稀疏映射矩阵将高维特征投影到压缩域的低维特征,得到两种平衡的特征用于目标和背景的表示;
步骤3,分类器的训练与更新:根据源领域样本提取出的压缩域特征和目标领域样本提取出的压缩域特征分别训练各自的朴素贝叶斯分类器,使用加权和构成最终的强分类器,并用这个强分类器对待检测样本进行分类;
步骤4,由粗到精的二次搜索策略:对于待检测的视频帧以当前帧目标所在的位置为圆心,以较大半径和步长产生扫描窗口,使用强分类器找到响应值最大的窗口,并以此为圆心,以较小半径和步长再次产生扫描窗口,使用强分类器找到响应值最大的窗口作为最终跟踪到的目标;
步骤1,训练样本的产生详细步骤如下:
步骤1-1,目标领域训练样本的提取:假设lt(x0)表示当前跟踪到的目标位置,在距离目标α=4个像素范围内采集正样本Xα={x|||lt(x)-lt(x0)||<α},并按照样本与目标之间的距离按从小到大的顺序进行排序(便于找到最优正样本,即当前跟踪到的目标),在距离正样本一定范围的环形区域内随机选择负样本,Xγ,β={x|γ<||lt(x)-lt(x0)||<β},其中γ=8(像素),β=30(像素),这些正负样本组成目标领域样本;
步骤1-2,源领域样本的提取:假设源领域样本中正样本的空间为N,在初始N帧,直接把跟踪到的目标放入源领域样本集的正样本中,正样本空间满后,用第t-1帧跟踪到的目标替换正样本中最先加入的样本,负样本直接由目标领域样本中的负样本复制得到,这样就使得源领域样本中包含了目标运动过程中的部分信息,利用这些样本训练出来的分类器可以辅助跟踪系统对于候选目标的划分,训练样本组成示意图如图3所示;
步骤1-3,训练样本的更新:当强分类器在待检测样本中得到的最大响应值小于一个阈值时,就认为此时目标被严重遮挡,这时应当暂停对源领域中正样本的更新,因为此时跟踪到的目标已经包含了大量的背景信息,将这个样本作为正样本加入到源领域的正样本中将会引入噪声污染样本,长期累积产生的正样本将完全被噪声湮没,使源领域样本的辅助更新功能衰退,甚至起到反作用,当目标从遮挡中恢复时,再次重启对源领域中正样本的更新。
步骤2,训练样本特征的提取的详细步骤如下:
步骤2-1,样本特征的计算:使用矩形特征描述训练样本,每个矩形特征对应了图像在这个矩形区域内的像素和,矩形的宽在1到w之间变化,高在1到h之间变化(w和h分别表示样本的宽和高),矩形区域的位置随机选择,使用积分图加速矩形特征的计算;
步骤2-2,稀疏测量矩阵的生成:由步骤2-1在一个样本上产生的特征经过串联后得到得到样本的特征空间x=(x1,...,xm)T,其中m=(wh)2,其特征维数非常高(通常在106~1010之间),直接使用这些特征进行分类器的训练将使训练过程中计算量急剧增加。根据压缩感知理论,使用一个非常稀疏的测量矩阵来对特征空间进行压缩,压缩后的特征可以保留绝大部分原始特征空间的信息,稀疏测量矩阵定义如下:
当s取到3时,测量矩阵就已经非常稀疏(矩阵中有2/3的元素为0)。当s=m/4时,测量矩阵R中每行的非零元素不超过4个。使用这种矩阵对原始样本空间进行压缩得到的压缩特征空间的维数n相比原始特征空间的维数m大幅降低,低维特征的提取公式如下所示:
其中vi表示压缩域的第i个特征,压缩特征空间组成示意图如图4所示;
步骤2-3,互补稀疏测量矩阵的生成:当每个特征的矩形窗口数量在2至4之间时,步骤2-2中产生的稀疏测量矩阵,ri中只存在正值或只存在负值的概率为29%,当ri中只存在正值或只存在负值时,特征vi表现为图像灰度块的均值,即灰度均值特征;当ri中同时存在正值和负值时特征vi表现为图像灰度块之间的差异,即纹理特征,为使两种特征在总体数量上保持平衡,需要产生一个与原始稀疏测量矩阵互补的映射矩阵,互补的稀疏测量矩阵的生成公式如下所示:
其中randi(2)表示随机产生值为1或2的整数,k表示r1i中的第k个非零值,两种稀疏测量矩阵中元素分布的示意图如图5所示,图5中(a)是原始稀疏测量矩阵R1的元素分布,图5中(b)是与之互补的系数测量矩阵R2的元素分布(黑色表示负值,灰色表示正值,白色表示零)。
步骤3,分类器的训练与更新的详细步骤如下:
步骤3-1,分类器的构建:对于每一个样本在低维特征空间中的表示为假设低维特征空间中的每个元素之间都服从独立分布,构建一个朴素贝叶斯分类器如下所示:
假设先验概率p(y=1)=p(y=0),y∈{0,1}表示样本的类别标签,并假设条件概率p(vi|y=1)和p(vi|y=0)都服从高斯分布,即:
式中和分别表示条件概率p(vi|y=1)高斯分布的均值和标准差,和分别表示条件概率p(vi|y=0)高斯分布的均值和标准差, μ1、σ1分别为正样本的均值与标准差, μ0、σ0分别为背景样本的均值与标准差;
步骤3-2,多特征融合:
由于训练样本使用了源领域样本和目标领域样本,并且每个领域都使用R1和R2两个稀疏测量矩阵同时提取样本的压缩域特征V和与之互补的特征V′,使用加权平均的弱耦合方式将两种互补的特征进行融合,则基于融合特征的强分类器的表示形式如下:
步骤3-3,强分类器的构建:使用源领域样本和目标领域样本分别训练各自的朴素贝叶斯强分类器HS和HT,计算方式如步骤3-2所示,并经过加权和构成最终的强分类器H,其形式如下:
其中HS表示由源领域样本训练得到的强分类器,HT表示由目标领域样本训练得到的强分类器,目标领域样本集中正样本的空间为P,源领域样本集中正样本的空间为N。
两个分类器的权重可以看成是两个领域的样本在强分类器H的训练过程中贡献的大小,根据不同的跟踪场景来调整各领域样本的权重,以提高分类器H的性能。通过控制α值的大小可以改变P的值,因此两个强分类器的权重可以通过α和N来进行调节。对于目标存在部分遮挡的场景,需要提高N的值来保存更多与目标相关的信息;对于目标外形变化较快的场景需要加大P的值以弱化不同分布训练样本的影响。
步骤3-4,分类器参数更新:每次跟踪得到新的目标后需要对分类器的参数进行在线更新,更新公式如下所示:
正样本的参数更新方式如下:
负样本的参数更新方式如下:
λ>0表示学习率。
为了预判遮挡的发生,根据强分类器H(v)在待测样本上的最大置信值,设置一个阈值公式如下:
如果阈值Th的值大于0.5,说明此时强分类器对目标的分类正确,即该测试样本为正样本的概率大于为负的概率。如果Th的值小于0.5,说明强分类器所选出的目标与真实目标存在较大偏差,此时目标可能发生大面积遮挡,如果将这个跟踪到的目标作为正样本加入到源领域的正样本中进行分类器的训练会引入背景噪声,造成分类器的更新产生误差累积,因此当发现某帧中阈值Th小于0.5时,暂停对源领域训练样本的更新,直到后续视频帧中发现阈值Th大于0.5时才再次使用跟踪到的目标对源领域训练样本集进行更新。图6展示了发生遮挡时本发明跟踪效果与原始压缩跟踪算法跟踪效果对比,实线框表示本发明跟踪到的目标,虚线框表示原始压缩跟踪算法跟踪到的目标。
步骤4,由粗到精的二次搜索策略的详细步骤如下:
步骤4-1,初次搜索:采用由粗到精的搜索策略来对目标进行定位,假设在第t-1帧跟踪到的目标所在的位置为lt-1,为搜索第t帧中目标的位置,首先以t-1帧目标位置的中心为圆心,以γc=25(像素)为半径,Δc=4(像素)为步长产生搜索窗口,即使用强分类器H对这些搜索窗口进行分类,找到响应值最大的窗口所在的位置lt′;
步骤4-2,二次搜索:以位置lt′为圆心,以γf=10(像素)为半径,Δf=1(像素)为步长产生二次搜索窗口,即使用强分类器H对这些搜索窗口进行分类,找到置信值最大的窗口所在的位置lt作为最终跟踪到的目标;
实施例
本实施例的实验硬件环境是:Inter-Core i5-3470 3.2GHz CPU,4GB内存,编程环境是Visual Studio2010,OpenCV2.4.2,测试用的视频主要来自于参考文献:VisualTracker Benchmark中的数据集。
本实施例的实施过程中参数设置如下:正样本选择半径α=4,负样本选择内半径γ=8,外半径β=30,初次搜索窗口半径γc=25,步长Δc=4,二次搜索窗口半径γf=10,步长Δf=1,压缩空间维数m=60,矩形窗口数量在2-4之间随机选择,更新参数λ在0.75到0.9之间,默认为0.85,源领域训练样本集中的正样本数N=30~80之间,默认为45。
当目标运动或变化较快时,λ将降低以加快学习;对于存在长时间部分遮挡的视频场景,需要提高N的值来保存更多与目标相关的信息;对于目标外形变化较快的场景需要降低N的值以弱化不同分布训练样本的影响;设置γc=25,使用密集式扫描产生的搜索窗口的总数量大约为1962个(即假设所有搜索窗口都在图像范围内),而使用由粗到精的二次搜索策略产生的搜索窗口的总数为436(即),这样可以减少78%左右的搜索时间,大大提高整个跟踪系统的运行速度。
为进一步说明本发明在目标跟踪方面的准确性和有效性,本发明在多个公共测试视频上进行了验证性实验,并与其它几种跟踪算法进行了对比,包括CT(参考文献Real-time compressive tracking)、ITB(参考文献Instance transfer boosting for objecttracking)、TLD(参考文献Tracking-Learning-Detection)、MIL(参考文献Robust objecttracking with online multiple instance learning)、WMIL(参考文献Real-timevisual tracking via online weighted multiple instance learning)、OAB(参考文献On-line boosting and vision)、SemiOAB(参考文献Semi-Supervised Online Boostingfor Robust Tracking),使用跟踪成功率(SR)来评估各算法的性能,跟踪成功率SR通过计算跟踪到的目标窗口与目标的真实窗口之间的重叠率得到。假设在第t帧时,ROIG为目标的真实窗口,ROIT为跟踪到的目标窗口,则如果scoret>0.5表示在第t帧成功跟踪到目标,其中area(ROIG∩ROIT)表示两个窗口相交部分的面积,area(ROIT∪ROIT)表示两个窗口相并的面积,。具体计算公式如下:
area(ROIG∪ROIT)=wghg+woho-area(ROIG∩ROIT)
目标跟踪系统在某个测试视频上的跟踪成功率SR的计算公式为:
其中T表示单个测试视频总的帧数,各算法在测试视频上的跟踪成功率(以百分比的形式表示)在表1中列出,粗体表示最优的算法,斜体表示次优的算法。
表1
本发明使用了多特征联合表征目标,引入辅助样本用于分类器的训练和更新,并对目标遮挡进行预判,防止引入负样本信息到正样本中造成分类器的错误更新,并使用由粗到精的二次搜索策略加速目标搜索的过程。综合以上的方法,本发明具有跟踪精度高,实时性强,跟踪结果稳定的特点。
本发明提供了一种多特征迁移学习的实时压缩跟踪方法,具体实现该技术方案的方法和途径很多,以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。本实施例中未明确的各组成部分均可用现有技术加以实现。
Claims (1)
1.一种多特征迁移学习的实时压缩跟踪方法,其特征在于,包括以下步骤:
步骤1,从视频的当前帧和先前帧跟踪到目标的帧中提取出训练样本用于分类器的训练,训练样本包括目标领域样本和源领域样本,所述当前帧为第t帧,先前帧为第1帧到第t-1帧;
步骤2,从训练样本中提取出目标领域样本和源领域样本的特征,用不同尺寸的矩形框与训练样本卷积得到对应尺寸的特征,将所述特征串联得到高维特征,分别采用两个互补的稀疏映射矩阵将高维特征投影到压缩域的低维特征,得到目标领域样本的压缩域特征和源领域样本的压缩域特征;
步骤3,根据目标领域样本的压缩域特征和源领域样本的压缩域特征分别构建各自的朴素贝叶斯分类器,并融合形成最终的强分类器,使用所述最终的强分类器对待检测样本进行分类,所述待检测样本为t+1帧中提取出的样本,当待检测样本的最大响应值小于阈值时,暂停训练样本中源领域样本的更新,当待检测样本的最大响应值大于或等于阈值时,重启对训练样本中源领域样本的更新;
步骤4,采用由粗到精的二次搜索策略,对于待检测样本中的t+1帧以当前帧目标所在的位置为圆心,以半径γc=25,以步长Δc=4产生扫描窗口,半径γc和步长Δc的单位为像素,使用最终的强分类器找到响应值最大的窗口,并以此为圆心,以半径γf=10像素,以步长Δf=1像素再次产生扫描窗口,使用最终的强分类器找到响应值最大的窗口作为最终跟踪到的目标;
步骤1包括以下步骤:
步骤1-1,提取目标领域样本:从跟踪到目标的当前帧中提取目标领域样本,lt(z0)表示当前帧跟踪到的目标中心位置,z0表示当前帧跟踪到的目标窗口,在距离目标位置α个像素范围内采集正样本,正样本用Zα={z|||lt(z)-lt(z0)||<α}表示,其中,lt(z)表示正样本的中心位置,z表示正样本所在的窗口,并按照正样本与目标位置之间的距离按从小到大的顺序进行排序,在目标附近的环形区域内随机采集负样本,负样本用Zγ,β={z|γ<||lt(z)-lt(z0)||<β}表示,γ表示环形区域的内半径,γ>α,β表示环形区域的外半径,采集的正负样本组成目标领域样本;
步骤1-2,提取源领域样本:从先前帧跟踪到目标的视频帧中提取源领域样本,源领域样本中正样本的空间为N,在初始N帧,把跟踪到的目标放入源领域样本集的正样本空间中,正样本空间满后,用第t-1帧跟踪到的目标替换正样本中最先加入的样本,负样本由目标领域样本中的负样本复制得到;
步骤2包括以下步骤:
步骤2-1,计算训练样本特征:使用矩形特征描述训练样本,每个矩形特征对应了图像在这个矩形区域内的像素和,矩形的宽在1到w之间变化,高在1到h之间变化,w和h分别表示样本的宽和高,矩形区域的位置随机选择,使用积分图加速矩形特征的计算;
步骤2-2,生成原始稀疏测量矩阵:根据步骤2-1在一个样本上产生的矩形特征经过串联后得到样本的特征空间x=(x1,...,xm)T,表示样本集,xm表示特征空间x中的第m个特征,其中m=(wh)2,特征空间x的维数在106~1010之间,使用原始稀疏测量矩阵对特征空间进行压缩,原始稀疏测量矩阵rij定义如下:
其中i表示矩阵的行,其范围由低维空间的维数决定,j表示矩阵的列,j∈[1,m],参数s取值为2或3,低维特征vi的提取公式如下所示:
<mrow>
<msub>
<mi>v</mi>
<mi>i</mi>
</msub>
<mo>=</mo>
<munder>
<mo>&Sigma;</mo>
<mi>j</mi>
</munder>
<msub>
<mi>r</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<msub>
<mi>x</mi>
<mi>j</mi>
</msub>
<mo>,</mo>
</mrow>
其中xj表示特征空间x中的第j个特征,vi表示压缩域的第i个低维特征;
步骤2-3,生成互补稀疏测量矩阵:互补稀疏测量矩阵的生成公式如下所示:
其中randi(2)表示随机产生值为1或2的整数,k表示ri中的第k个非零值;
通过低维特征的提取公式得到与低维特征vi互补的特征v′i,当ri中同时存在正值和负值时,特征vi表现出图像块间灰度的差异,体现为纹理特征,vi′表现出图像块灰度的均值,体现为灰度均值特征;
步骤3包括以下步骤:
步骤3-1,构建朴素贝叶斯分类器:对于每一个样本在低维特征空间中的表示为n表示低维特征空间的维数,构建一个朴素贝叶斯分类器H(V):
<mrow>
<mi>H</mi>
<mrow>
<mo>(</mo>
<mi>V</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>log</mi>
<mrow>
<mo>(</mo>
<mfrac>
<mrow>
<msubsup>
<mo>&Pi;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>n</mi>
</msubsup>
<mi>p</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>v</mi>
<mi>i</mi>
</msub>
<mo>|</mo>
<mi>y</mi>
<mo>=</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
<mi>p</mi>
<mrow>
<mo>(</mo>
<mi>y</mi>
<mo>=</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msubsup>
<mo>&Pi;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>n</mi>
</msubsup>
<mi>p</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>v</mi>
<mi>i</mi>
</msub>
<mo>|</mo>
<mi>y</mi>
<mo>=</mo>
<mn>0</mn>
<mo>)</mo>
</mrow>
<mi>p</mi>
<mrow>
<mo>(</mo>
<mi>y</mi>
<mo>=</mo>
<mn>0</mn>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
<mo>)</mo>
</mrow>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>n</mi>
</munderover>
<mi>log</mi>
<mrow>
<mo>(</mo>
<mfrac>
<mrow>
<mi>p</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>v</mi>
<mi>i</mi>
</msub>
<mo>|</mo>
<mi>y</mi>
<mo>=</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mi>p</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>v</mi>
<mi>i</mi>
</msub>
<mo>|</mo>
<mi>y</mi>
<mo>=</mo>
<mn>0</mn>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
<mo>)</mo>
</mrow>
<mo>,</mo>
</mrow>
i取值范围1~n,vi表示第i个低维特征空间,先验概率p(y=1)=p(y=0),y表示样本的类别标签,其值为0或1,为0表示负样本,为1表示正样本,条件概率p(vi|y=1)和p(vi|y=0)服从高斯分布,即:
<mrow>
<mi>p</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>v</mi>
<mi>i</mi>
</msub>
<mo>|</mo>
<mi>y</mi>
<mo>=</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
<mo>~</mo>
<mi>N</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>&mu;</mi>
<mi>i</mi>
<mn>1</mn>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>&sigma;</mi>
<mi>i</mi>
<mn>1</mn>
</msubsup>
<mo>)</mo>
</mrow>
<mo>,</mo>
<mi>p</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>v</mi>
<mi>i</mi>
</msub>
<mo>|</mo>
<mi>y</mi>
<mo>=</mo>
<mn>0</mn>
<mo>)</mo>
</mrow>
<mo>~</mo>
<mi>N</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>&mu;</mi>
<mi>i</mi>
<mn>0</mn>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>&sigma;</mi>
<mi>i</mi>
<mn>0</mn>
</msubsup>
<mo>)</mo>
</mrow>
<mo>,</mo>
</mrow>
式中和分别表示条件概率p(vi|y=1)高斯分布的均值和方差,和分别表示条件概率p(vi|y=0)高斯分布的均值和方差, μ1、σ1分别为正样本的均值与标准差, μ0、σ0分别为负样本的均值与标准差;
步骤3-2,多特征融合:融合目标领域样本的压缩域特征和源领域样本的压缩域特征,采用弱耦合的方式,通过加权和的方式进行特征的融合,两种特征保持1:1的数量比例,两种特征权重相同,基于融合特征的强分类器H*(V)为:
<mrow>
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mi>H</mi>
<mo>*</mo>
</msub>
<mrow>
<mo>(</mo>
<mi>V</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>n</mi>
</munderover>
<mrow>
<mo>(</mo>
<mi>log</mi>
<mo>(</mo>
<mfrac>
<mrow>
<mi>p</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>v</mi>
<mi>i</mi>
</msub>
<mo>|</mo>
<mi>y</mi>
<mo>=</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mi>p</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>v</mi>
<mi>i</mi>
</msub>
<mo>|</mo>
<mi>y</mi>
<mo>=</mo>
<mn>0</mn>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
<mo>)</mo>
<mo>+</mo>
<mi>log</mi>
<mo>(</mo>
<mfrac>
<mrow>
<mi>p</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>v</mi>
<mi>i</mi>
<mo>&prime;</mo>
</msubsup>
<mo>|</mo>
<mi>y</mi>
<mo>=</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mi>p</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>v</mi>
<mi>i</mi>
<mo>&prime;</mo>
</msubsup>
<mo>|</mo>
<mi>y</mi>
<mo>=</mo>
<mn>0</mn>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
<mo>)</mo>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>n</mi>
</munderover>
<mrow>
<mo>(</mo>
<mi>log</mi>
<mo>(</mo>
<mrow>
<mi>p</mi>
<mrow>
<mo>(</mo>
<mrow>
<msub>
<mi>v</mi>
<mi>i</mi>
</msub>
<mo>|</mo>
<mi>y</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mo>)</mo>
</mrow>
</mrow>
<mo>)</mo>
<mo>-</mo>
<mi>log</mi>
<mo>(</mo>
<mrow>
<mi>p</mi>
<mrow>
<mo>(</mo>
<mrow>
<msub>
<mi>v</mi>
<mi>i</mi>
</msub>
<mo>|</mo>
<mi>y</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mo>)</mo>
</mrow>
</mrow>
<mo>)</mo>
<mo>+</mo>
<mi>log</mi>
<mo>(</mo>
<mrow>
<mi>p</mi>
<mrow>
<mo>(</mo>
<mrow>
<msubsup>
<mi>v</mi>
<mi>i</mi>
<mo>&prime;</mo>
</msubsup>
<mo>|</mo>
<mi>y</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mo>)</mo>
</mrow>
</mrow>
<mo>)</mo>
<mo>-</mo>
<mi>log</mi>
<mo>(</mo>
<mrow>
<mi>p</mi>
<mrow>
<mo>(</mo>
<mrow>
<msubsup>
<mi>v</mi>
<mi>i</mi>
<mo>&prime;</mo>
</msubsup>
<mo>|</mo>
<mi>y</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mo>)</mo>
</mrow>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
</mtable>
<mo>,</mo>
</mrow>
其中v′i表示与vi成互补关系的特征;
步骤3-3,强分类器的构建:使用源领域样本和目标领域样本分别训练各自的朴素贝叶斯强分类器HS和HT,并经过加权和构成最终的强分类器H,其形式如下:
<mrow>
<mi>H</mi>
<mo>=</mo>
<mfrac>
<mi>N</mi>
<mrow>
<mi>N</mi>
<mo>+</mo>
<mi>P</mi>
</mrow>
</mfrac>
<msub>
<mi>H</mi>
<mi>S</mi>
</msub>
<mo>+</mo>
<mfrac>
<mi>P</mi>
<mrow>
<mi>N</mi>
<mo>+</mo>
<mi>P</mi>
</mrow>
</mfrac>
<msub>
<mi>H</mi>
<mi>T</mi>
</msub>
<mo>,</mo>
</mrow>
其中HS表示由源领域样本训练得到的强分类器,HT表示由目标领域样本训练得到的强分类器,目标领域样本集中正样本的空间为P,源领域样本集中正样本的空间为N;
步骤3-4,分类器参数更新:每次跟踪得到新的目标后对分类器的参数进行在线更新,更新公式如下所示:
正样本的参数更新方式如下:
<mrow>
<msubsup>
<mi>&mu;</mi>
<mi>i</mi>
<mn>1</mn>
</msubsup>
<mo>&LeftArrow;</mo>
<msubsup>
<mi>&lambda;&mu;</mi>
<mi>i</mi>
<mn>1</mn>
</msubsup>
<mo>+</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>-</mo>
<mi>&lambda;</mi>
<mo>)</mo>
</mrow>
<msup>
<mi>&mu;</mi>
<mn>1</mn>
</msup>
<mo>,</mo>
</mrow>
<mrow>
<msubsup>
<mi>&sigma;</mi>
<mi>i</mi>
<mn>1</mn>
</msubsup>
<mo>&LeftArrow;</mo>
<msqrt>
<mrow>
<mi>&lambda;</mi>
<msup>
<mrow>
<mo>(</mo>
<msubsup>
<mi>&sigma;</mi>
<mi>i</mi>
<mn>1</mn>
</msubsup>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>+</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>-</mo>
<mi>&lambda;</mi>
<mo>)</mo>
</mrow>
<msup>
<mrow>
<mo>(</mo>
<msup>
<mi>&sigma;</mi>
<mn>1</mn>
</msup>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>+</mo>
<mi>&lambda;</mi>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>-</mo>
<mi>&lambda;</mi>
<mo>)</mo>
</mrow>
<msup>
<mrow>
<mo>(</mo>
<msubsup>
<mi>&mu;</mi>
<mi>i</mi>
<mn>1</mn>
</msubsup>
<mo>-</mo>
<msup>
<mi>&mu;</mi>
<mn>1</mn>
</msup>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
</msqrt>
<mo>,</mo>
</mrow>
负样本的参数更新方式如下:
<mrow>
<msubsup>
<mi>&mu;</mi>
<mi>i</mi>
<mn>0</mn>
</msubsup>
<mo>&LeftArrow;</mo>
<msubsup>
<mi>&lambda;&mu;</mi>
<mi>i</mi>
<mn>0</mn>
</msubsup>
<mo>+</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>-</mo>
<mi>&lambda;</mi>
<mo>)</mo>
</mrow>
<msup>
<mi>&mu;</mi>
<mn>0</mn>
</msup>
<mo>,</mo>
</mrow>
<mrow>
<msubsup>
<mi>&sigma;</mi>
<mi>i</mi>
<mn>0</mn>
</msubsup>
<mo>&LeftArrow;</mo>
<msqrt>
<mrow>
<mi>&lambda;</mi>
<msup>
<mrow>
<mo>(</mo>
<msubsup>
<mi>&sigma;</mi>
<mi>i</mi>
<mn>0</mn>
</msubsup>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>+</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>-</mo>
<mi>&lambda;</mi>
<mo>)</mo>
</mrow>
<msup>
<mrow>
<mo>(</mo>
<msup>
<mi>&sigma;</mi>
<mn>0</mn>
</msup>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>+</mo>
<mi>&lambda;</mi>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>-</mo>
<mi>&lambda;</mi>
<mo>)</mo>
</mrow>
<msup>
<mrow>
<mo>(</mo>
<msubsup>
<mi>&mu;</mi>
<mi>i</mi>
<mn>0</mn>
</msubsup>
<mo>-</mo>
<msup>
<mi>&mu;</mi>
<mn>0</mn>
</msup>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
</msqrt>
<mo>,</mo>
</mrow>
λ表示学习率,λ>0,当待检测样本的最大响应值小于阈值时,暂停分类器参数的更新,计算阈值Th公式如下:
<mrow>
<mi>T</mi>
<mi>h</mi>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mrow>
<mn>1</mn>
<mo>+</mo>
<msup>
<mi>e</mi>
<mrow>
<mo>-</mo>
<mi>m</mi>
<mi>a</mi>
<mi>x</mi>
<mrow>
<mo>(</mo>
<mi>H</mi>
<mo>(</mo>
<mi>v</mi>
<mo>)</mo>
<mo>)</mo>
</mrow>
</mrow>
</msup>
</mrow>
</mfrac>
<mo>,</mo>
</mrow>
当阈值Th的值小于0.5,暂停对分类器参数的更新,直到后续视频帧中发现阈值Th大于或等于0.5时再次使用跟踪到的目标对分类器参数进行更新;
步骤4包括以下步骤:
步骤4-1,初次搜索:采用由粗到精的搜索策略来对目标进行定位,假设在第t-1帧跟踪到的目标所在的位置为lt-1,为搜索第t帧中目标的位置,首先以t-1帧目标位置的中心为圆心,以γc为半径,Δc为步长产生搜索窗口,即其中,Z表示搜索窗口,l(Z)表示搜索窗口的中心位置,表示以γc为半径、Δc为步长产生的搜索窗口的集合,使用步骤3-3得到的强分类器H对所述搜索窗口进行分类,找到响应值最大的窗口所在的位置lt′;
步骤4-2,二次搜索:以位置lt′为圆心,以γf为半径,Δf为步长产生二次搜索窗口,即 表示以γf为半径,Δf为步长产生的搜索窗口的集合,使用步骤3-3得到的强分类器H对所述二次搜索窗口进行分类,找到响应值最大的窗口所在的位置lt作为最终跟踪到的目标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510304771.4A CN104850865B (zh) | 2015-06-05 | 2015-06-05 | 一种多特征迁移学习的实时压缩跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510304771.4A CN104850865B (zh) | 2015-06-05 | 2015-06-05 | 一种多特征迁移学习的实时压缩跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104850865A CN104850865A (zh) | 2015-08-19 |
CN104850865B true CN104850865B (zh) | 2017-11-07 |
Family
ID=53850500
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510304771.4A Active CN104850865B (zh) | 2015-06-05 | 2015-06-05 | 一种多特征迁移学习的实时压缩跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104850865B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107977982A (zh) * | 2017-11-30 | 2018-05-01 | 云南大学 | 一种基于压缩正则化块差分的视频目标跟踪方法 |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106203374B (zh) * | 2016-07-18 | 2018-08-24 | 清华大学深圳研究生院 | 一种基于压缩感知的特征识别方法及其系统 |
CN106780568B (zh) * | 2016-12-20 | 2019-08-13 | 云南大学 | 一种基于压缩不规则分块lbp的视频目标跟踪方法 |
CN107122722A (zh) * | 2017-04-19 | 2017-09-01 | 大连理工大学 | 一种基于多特征的自适应压缩跟踪算法 |
WO2019129255A1 (zh) | 2017-12-29 | 2019-07-04 | 华为技术有限公司 | 一种目标跟踪方法及装置 |
CN110264495B (zh) * | 2017-12-29 | 2024-02-02 | 华为技术有限公司 | 一种目标跟踪方法及装置 |
CN108427960B (zh) * | 2018-02-10 | 2020-04-21 | 南京航空航天大学 | 基于改进Online Boosting和卡尔曼滤波器改进的TLD跟踪方法 |
CN108364301B (zh) * | 2018-02-12 | 2020-09-04 | 中国科学院自动化研究所 | 基于跨时重叠率的视觉跟踪算法稳定性评估方法及装置 |
CN108615365B (zh) * | 2018-05-09 | 2021-04-13 | 扬州大学 | 一种基于车辆检测和跟踪的车流量统计方法 |
CN109102519B (zh) * | 2018-08-24 | 2021-12-14 | 周忠和 | 动目标及特征模板变化条件下的快速人物跟踪方法 |
CN109448020B (zh) * | 2018-10-08 | 2020-11-24 | 上海交通大学 | 目标跟踪方法及系统 |
CN109801206A (zh) * | 2018-12-20 | 2019-05-24 | 北京中电联达信息技术有限公司 | 一种gpu架构机载视频实时处理系统 |
CN110458844B (zh) * | 2019-07-22 | 2022-02-15 | 大连理工大学 | 一种低光照场景的语义分割方法 |
CN110472576A (zh) * | 2019-08-15 | 2019-11-19 | 西安邮电大学 | 一种实现移动人体行为识别的方法及装置 |
CN111062291B (zh) * | 2019-12-10 | 2022-09-27 | 中国人民解放军海军航空大学 | 一种机器人视觉跟踪方法及系统 |
CN112954632B (zh) * | 2021-01-26 | 2022-01-28 | 电子科技大学 | 一种基于异构迁移学习的室内定位方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7096207B2 (en) * | 2002-03-22 | 2006-08-22 | Donglok Kim | Accelerated learning in machine vision using artificially implanted defects |
CN103870839A (zh) * | 2014-03-06 | 2014-06-18 | 江南大学 | 视频目标在线多特征跟踪方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130335635A1 (en) * | 2012-03-22 | 2013-12-19 | Bernard Ghanem | Video Analysis Based on Sparse Registration and Multiple Domain Tracking |
-
2015
- 2015-06-05 CN CN201510304771.4A patent/CN104850865B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7096207B2 (en) * | 2002-03-22 | 2006-08-22 | Donglok Kim | Accelerated learning in machine vision using artificially implanted defects |
CN103870839A (zh) * | 2014-03-06 | 2014-06-18 | 江南大学 | 视频目标在线多特征跟踪方法 |
Non-Patent Citations (2)
Title |
---|
Transfer Learning Based Compressive Tracking;Shu Tian.etc;《Neural Networks(IJCNN)》;20130809;第1-7页 * |
复杂场景下实时视觉目标跟踪的若干研究;朱建章;《中国优秀博士学位论文全文数据库》;20140915;I138-15 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107977982A (zh) * | 2017-11-30 | 2018-05-01 | 云南大学 | 一种基于压缩正则化块差分的视频目标跟踪方法 |
Also Published As
Publication number | Publication date |
---|---|
CN104850865A (zh) | 2015-08-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104850865B (zh) | 一种多特征迁移学习的实时压缩跟踪方法 | |
CN108416307B (zh) | 一种航拍图像路面裂缝检测方法、装置及设备 | |
CN107609525B (zh) | 基于剪枝策略构建卷积神经网络的遥感图像目标检测方法 | |
Wang et al. | Autonomous garbage detection for intelligent urban management | |
CN110796168A (zh) | 一种基于改进YOLOv3的车辆检测方法 | |
CN110033473B (zh) | 基于模板匹配和深度分类网络的运动目标跟踪方法 | |
CN110210551A (zh) | 一种基于自适应主体敏感的视觉目标跟踪方法 | |
CN107945153A (zh) | 一种基于深度学习的路面裂缝检测方法 | |
CN110533695A (zh) | 一种基于ds证据理论的轨迹预测装置及方法 | |
CN106529499A (zh) | 基于傅里叶描述子和步态能量图融合特征的步态识别方法 | |
CN106778687A (zh) | 基于局部评估和全局优化的注视点检测方法 | |
CN111967313B (zh) | 一种深度学习目标检测算法辅助的无人机图像标注方法 | |
CN105160310A (zh) | 基于3d卷积神经网络的人体行为识别方法 | |
CN106296734B (zh) | 基于极限学习机和boosting多核学习的目标跟踪方法 | |
Tan et al. | Vehicle detection in high resolution satellite remote sensing images based on deep learning | |
CN112613350A (zh) | 一种基于深度神经网络的高分辨率光学遥感图像飞机目标检测方法 | |
CN105869178A (zh) | 一种基于多尺度组合特征凸优化的复杂目标动态场景无监督分割方法 | |
CN106780546B (zh) | 基于卷积神经网络的运动模糊编码点的身份识别方法 | |
CN106408030A (zh) | 基于中层语义属性和卷积神经网络的sar图像分类方法 | |
CN105574545B (zh) | 街道环境图像多视角语义切割方法及装置 | |
CN105096345B (zh) | 一种基于动态测量矩阵的目标跟踪方法及系统 | |
CN108256462A (zh) | 一种商场监控视频中的人数统计方法 | |
CN104063713A (zh) | 一种基于随机蕨分类器的半自主在线学习方法 | |
CN110956158A (zh) | 一种基于教师学生学习框架的遮挡行人再标识方法 | |
CN111339950B (zh) | 一种遥感图像目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
EXSB | Decision made by sipo to initiate substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |