CN104537689A - 基于局部对比显著性联合特征的目标跟踪方法 - Google Patents

基于局部对比显著性联合特征的目标跟踪方法 Download PDF

Info

Publication number
CN104537689A
CN104537689A CN201410822318.8A CN201410822318A CN104537689A CN 104537689 A CN104537689 A CN 104537689A CN 201410822318 A CN201410822318 A CN 201410822318A CN 104537689 A CN104537689 A CN 104537689A
Authority
CN
China
Prior art keywords
target
mrow
feature
background
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410822318.8A
Other languages
English (en)
Other versions
CN104537689B (zh
Inventor
郑碎武
刘林山
乔红
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huizhou Zhongke Advanced Manufacturing Co ltd
Original Assignee
Institute of Automation of Chinese Academy of Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Automation of Chinese Academy of Science filed Critical Institute of Automation of Chinese Academy of Science
Priority to CN201410822318.8A priority Critical patent/CN104537689B/zh
Publication of CN104537689A publication Critical patent/CN104537689A/zh
Application granted granted Critical
Publication of CN104537689B publication Critical patent/CN104537689B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Image Analysis (AREA)

Abstract

本发明为一种基于局部对比显著性联合特征的目标跟踪方法。包括步骤:(1)目标跟踪开始初始化选取目标区域和背景区域;(2)提取目标区域和局部背景区域的颜色、纹理、梯度方向直方图特征,进行自下而上显著特征提取;(3)自上而下的特征评估,修正显著性模型;本发明利用显著性特征强区分性、稳健性,作为单一的特征的补充,能够较好的表述目标,可以提高系统在目标与背景具有相似特征分布、局部遮挡、目标自身变化等复杂场景下的跟踪性能,具有较强的鲁棒性。

Description

基于局部对比显著性联合特征的目标跟踪方法
技术领域
本发明属于计算机视觉与图像处理技术领域,具体涉及基于局部对比显著性联合特征的目标跟踪方法。
背景
目标跟踪尤其是复杂场景下目标跟踪是计算机视觉面临的极具挑战性的难点。能够在复杂场景下利用较少的先验知识对目标进行跟踪,已经成为军事侦查、移动机器人、智能视频监控等迫切的要求。在复杂背景下各种环境因素:目标类内变化、姿态、光照条件等使得很难进行目标的有效跟踪。因此,广大研究者试图寻求先进的技术手段,提出高效、实时的复杂环境下的目标跟踪算法。
均值漂移(Comaniciu,D.,Ramesh,V.,and Meer,P.,“Kernel–based object tracking)是常用的跟踪方法,这类方法首先利用颜色直方图建立目标和候选目标模型,利用巴氏系数计算相似性系数,通过Mean Shift找到最相似候选区域实现对目标的跟踪。具有实时性好、框架优美和简单的优点,获得广泛的应用。然而,由于仅采用颜色特征,只适用于目标和背景颜色区分度较好的场合,使得该方法具有一定的局限性。
自Itti于1998年提出基于特征整合的视觉注意显著性可计算模型,并应用于计算机视觉领域的场景分析以后,针对显著性的目标跟踪方法发展起来。Su等人于2014年提出利用先验知识计算加权集自适应构建Itti模型,用于突然运动跟踪。但这类方法并没有考虑背景的信息,且Itti模型本身需要调节的参数比较多,计算耗时,选用目标模型作为先验难免会有误差,很难得到客观公正的结果。Mahadevan等人认为视觉跟踪是时序判别中心显著性自上而下的调解过程,于2009年提出利用统计分类学习中心周边判别显著特征,进行目标初始化、特征选择和检测确定目标在下一帧的位置实现目标跟踪。但是,利用统计学习方法计算量较大,且仅仅模拟了跟踪过程,在面对复杂场景时对于目标特征的变化具有明显的不足。
复杂场景目标跟踪方法存在的难点在于:
(1)复杂场景,包括光线剧烈变化、目标周围存在相似分布的背景、非跟踪的物体等干扰因素;
(2)目标自身的改变,包括姿态变化、突然运动及被遮挡等;
(3)传统的特征表述框架。选择的特征不能很好的区分目标和背景,会使跟踪漂移;融合多特征缺乏有效的方法,很难获得鲁棒的跟踪结果。
(4)显著性特征具有极强的判别力,现有方法获得的特征不仅计算方法复杂,而且特征分布仅仅是零散的,跟踪过程中的区分力比较弱;同时,仅仅利用显著特征,目标特征信息不完整,目标如何从复杂背景完整有效突显出来是显著性在目标跟踪应用的难点。
发明内容
本发明的目的在于克服现有技术的不足,提供一种基于局部对比显著性联合特征的目标跟踪方法,通过提取目标模型的局部对比显著特征,采取自下而上和自上而下联合调节的方法处理目标自身变化和复杂背景问题,获得更好的目标跟踪效果。
本发明的基于局部对比显著性联合特征的目标跟踪方法,包括以下步骤:
步骤S1:选取动态场景下视频的第t帧输入含有跟踪目标和常用背景环境的视频帧,手动选取目标区域,并用矩形框表示目标区域的边界;
步骤S2:根据目标区域选取背景区域,并用矩形框表示背景区域的边界;
步骤S3:分别提取目标区域和背景区域的颜色直方图特征、纹理直方图特征、梯度直方图特征,计算每个特征的概率值,并生成对应的概率图;
步骤S4:依据提取的颜色直方图特征、纹理直方图特征、梯度直方图特征,分别计算每个特征的对比度值,定义为显著性特征,并生成对应的特征向量f1、f2、f3
步骤S5:基于特征向量f1、f2、f3,堆栈构造样本特征向量
F=[f1,f2,f3]T
步骤S6:依据每个特征图对目标显著性的贡献度,利用学习算法估计最优特征权,选出最显著特征;
步骤S7:利用最显著特征分别建立目标和背景观测模型,利用MeanShift算法找到目标下一帧的位置;
步骤S8:判断显著性特征确定的跟踪框和目标位置的相似性,检测跟踪目标是否失败;
步骤S9:当检测出跟踪目标正常,执行步骤13;若检测出跟踪目标失败,执行步骤10;
步骤10:构建可分性评价函数Dt,公式为
D t = max r max ω max { f t arg et , h ω , t , ϵ } max { f background r , t , ϵ }
其中,为目标观测;为背景观测;ε为设定常数,用于去掉较小的目标观测和背景观测,以提高算法的稳定性;r为背景特征分布;ω为前景特征分布;目标观测和背景观测采用具有H个区间的直方图来表示,h表示特征分量,h=1,2,……,H;t为选取图像的帧数;
通过可分性评价函数Dt将显著性目标模型与背景共有的特征映射为零值,存在于背景特征分布映射为负值,只保留目标最能区分的特征分量构成目标的显著性模型;
步骤S11:构建目标观测的连续性模型
f t arg et , h C , t , Sal = 1 C 2 ( Σ K = 0 k γ k f t arg et , h t - k + f t arg et , h t , Sal )
其中为显著性目标连续模型;为t-k时刻目标模型;为t时刻显著性目标模型;γk为遗忘因子;C2为归一化常数;t为选取图像的帧数;k为选取图像的第k帧视频;
步骤S12:利用可分性评价函数Dt及目标观测的连续性模型对目标模型进行修正,得到目标合作模型;
步骤S13:利用均值漂移算法实现的定位。
优选的,步骤S4中计算对比度值的方法如下:
提取目标区域的颜色直方图特征、纹理直方图特征、梯度直方图特征,分别生成的概率图,其向量均可表示为
f t arg et t = { f t arg et , h t } h = 1 . . . H , f ∈ ( C , LBP , HOG )
Σ h = 1 H f t arg et , h t = 1 ;
提取背景区域的颜色直方图特征、纹理直方图特征、梯度直方图特征,分别生成的概率图,其向量均可表示为
f background t = { f background , h t } h = 1 . . . H , f ∈ ( C , LBP , HOG )
Σ h = 1 H f backgroung , h t = 1
步骤S4中计算对比度值的公式为
Sal local = f t arg et t / f backgroun t = { f t arg et , h t } h = 1 . . . H / { f backgroun , h t } h = 1 . . . H , f ∈ { C , LBP , HOG }
其中目标区域和背景区域采用具有H个区间的直方图来表示,h表示特征分量,h=1,2,……,H,f∈{C,LBP,HOG}表示特征向量,C为颜色、LBP为纹理、HOG为梯度方向直方图。
优选的,步骤2中所述背景区域与目标区域形状相同且具有相同中心点。
优选的,步骤S6中所述的学习算法为AdaBoost算法。
优选的,步骤S10中参数ε通过中位数估算得到,其取值范围为(0,1)。
本发明的有益效果在于:本发明通过引入局部对比显著特征构建目标外观,并通过自上而下的修正指导形成合作模型,通过均值漂移算法定位实现跟踪,解决了现有技术在跟踪过程中只通过建立简单目标模型并更新的方法,往往难以获得好的处理结果的问题。大量实验表明本发明具有以下优点:
(1)解决传统目标跟踪方法难以处理目标处于相似背景分布和运动物体存在的问题;
(2)可靠性高,改进了传统方法缺乏完整目标信息的不确定因素;
(3)显著性特征能够较完整的突显目标。
附图说明
图1为本发明所提供显著性特征提取方法的框图。
图2为本发明目标跟踪框图。
具体实施方式
下面结合图1、图2对本发明的具体实施方法进一步详细描述,以下实例用于说明本发明,但不限于限制本发明的范围。
本实施例的方法包括三部分:
(1)目标跟踪开始初始化手动选取目标区域,用矩形框表示,然后在目标区域周围自动生成固定值倍数的矩形框,两个矩形框的区域作为局部背景区域;
(2)自下而上显著特征提取:提取目标区域和局部背景区域的颜色、纹理、梯度方向直方图特征;分别计算每个特征的对比度定义特征显著图,并生成对应的概率图;堆栈几个特征组成样本向量;按照每个特征图对目标显著性的贡献度,利用学习算法估计最优特征权,选出最显著特征;利用显著特征表示目标和候补目标模型,利用Mean Shift算法找到目标下一帧的位置;
(3)自上而下的特征评估,修正显著性模型:判断显著性特征确定的跟踪框和目标位置的相似性,检测跟踪目标是否失败;当检测出跟踪目标正常,选择颜色特征就足够了;若检测出跟踪目标性能变差,引入显著性特征评估模型,修正目标模型提高跟踪目标的稳定性;自下而上的特征与自上而下的特征评估联合实现目标可靠跟踪。
具体步骤包括:
步骤S1:选取动态场景下视频的第t帧输入含有跟踪目标和常用背景环境的视频帧,手动选取目标区域,并用矩形框表示目标区域的边界;
步骤S2:根据目标区域选取背景区域,并用矩形框表示背景区域的边界;
步骤S3:提取目标区域的颜色直方图特征、纹理直方图特征、梯度直方图特征,分别生成的概率图,其向量均可表示为
f t arg et t = { f t arg et , h t } h = 1 . . . H , f ∈ ( C , LBP , HOG )
Σ h = 1 H f t arg et , h t = 1 ;
提取背景区域的颜色直方图特征、纹理直方图特征、梯度直方图特征,分别生成的概率图,其向量均可表示为
f background t = { f background , h t } h = 1 . . . H , f ∈ ( C , LBP , HOG )
Σ h = 1 H f backgroung , h t = 1 ;
其中目标区域和背景区域采用具有H个区间的直方图来表示,h表示特征分量,h=1,2,……,H,f∈{C,LBP,HOG}表示特征向量,C为颜色、LBP为纹理、HOG为梯度方向直方图;
步骤S4:依据提取的颜色直方图特征、纹理直方图特征、梯度直方图特征,分别计算每个特征的对比度值,定义为显著性特征,并生成对应的特征向量f1、f2、f3
计算对比度值的公式为
Sal local = f t arg et t / f backgroun t = { f t arg et , h t } h = 1 . . . H / { f backgroun , h t } h = 1 . . . H , f ∈ { C , LBP , HOG }
步骤S5:基于特征向量f1、f2、f3,堆栈构造样本特征向量
F=[f1,f2,f3]T
步骤S6:依据每个特征图对目标显著性的贡献度,利用AdaBoost算法算最终学习得到最显著特征
G ( f ) = Σ t = 1 T α t g t ( f )
其中G(f)为最显著特征;gt(f)为特征分量的显著性;αt为个特征分量的权值;t为弱分类器的个数;
步骤S7:利用最显著特征分别建立目标和背景观测模型,
f t arg et , h m , Sal = { f tt arg et , h m , Sal } m = 1 . . . M , f t arg et , h m , Sal = { f background , h m , Sal } m = 1 . . . M
其中m为图像块数量;
利用Mean Shift算法找到目标下一帧的位置;
步骤S8:判断显著性特征确定的跟踪框和目标位置的相似性,检测跟踪目标是否失败;
步骤S9:当检测出跟踪目标正常,执行步骤13;若检测出跟踪目标失败,执行步骤10;
步骤10:构建可分性评价函数Dt,公式为
D t = max r max ω max { f t arg et , h ω , t , ϵ } max { f background r , t , ϵ }
其中,为目标观测;为背景观测;ε为设定常数,用于去掉较小的目标观测和背景观测,以提高算法的稳定性;r为背景特征;ω为前景特征;目标观测和背景观测采用具有H个区间的直方图来表示,h表示特征分量,h=1,2,……,H;t为选取图像的帧数;
通过可分性评价函数Dt将显著性目标模型与背景共有的特征映射为零值,存在于背景特征分布映射为负值,只保留目标最能区分的特征分量构成目标的显著性模型;
f t arg et , h D , Sal = 1 c 1 f t arg et , h D , Sal
表示目标区域最显著特征模型;c1表示归一化常数,保证 Σ h = 1 H f t arg et , h D , Sal = 1 ;
步骤S11:构建目标观测的连续性模型
f t arg et , h C , t , Sal = 1 C 2 ( Σ K = 0 k γ k f t arg et , h t - k + f t arg et , h t , Sal )
其中为显著性目标连续模型;为t-k时刻目标模型;为t时刻显著性目标模型;γk为遗忘因子;C2为归一化常数;t为选取图像的帧数;k为选取图像的第k帧视频;
步骤S12:利用可分性评价函数Dt及目标观测的连续性模型对目标模型进行修正,得到目标合作模型;
步骤S13:利用均值漂移算法实现的定位。
其中,步骤2中所述背景区域与目标区域形状相同且具有相同中心点,步骤S10中参数ε通过中位数估算得到,其取值范围为(0,1)。
本实施例通过提取目标模型的局部对比显著特征,采取自下而上局部对比显著特征提取(如步骤S2-S7)和自上而下的显著性特征模型修正(如步骤S8-S13)联合调节的方法处理目标自身变化和复杂背景问题,解决了现有技术在跟踪过程中只通过建立简单目标模型并更新的方法,往往难以获得好的处理结果的问题。大量实验表明本发明具有以下优点:
(1)解决传统目标跟踪方法难以处理目标处于相似背景分布和运动物体存在的问题;
(2)可靠性高,改进了传统方法缺乏完整目标信息的不确定因素;
(3)显著性特征能够较完整的突显目标。以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步的详细说明,应理解的是,以上所述仅为本发明的具体实施例,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (5)

1.基于局部对比显著性联合特征的目标跟踪方法,其特征在于:包括以下步骤:
步骤S1:选取动态场景下视频的第t帧输入含有跟踪目标和常用背景环境的视频帧,手动选取目标区域,并用矩形框表示目标区域的边界;
步骤S2:根据目标区域选取背景区域,并用矩形框表示背景区域的边界;
步骤S3:分别提取目标区域和背景区域的颜色直方图特征、纹理直方图特征、梯度直方图特征,计算每个特征的概率值,并生成对应的概率图;
步骤S4:依据提取的颜色直方图特征、纹理直方图特征、梯度直方图特征,分别计算每个特征的对比度值,定义为显著性特征,并生成对应的特征向量f1、f2、f3
步骤S5:基于特征向量f1、f2、f3,堆栈构造样本特征向量
F=[f1,f2,f3]T
步骤S6:依据每个特征图对目标显著性的贡献度,利用学习算法估计最优特征权,选出最显著特征;
步骤S7:利用最显著特征分别建立目标和背景观测模型,利用Mean Shift算法找到目标下一帧的位置;
步骤S8:判断显著性特征确定的跟踪框和目标位置的相似性,检测跟踪目标是否失败;
步骤S9:当检测出跟踪目标正常,执行步骤13;若检测出跟踪目标失败,执行步骤10;
步骤10:构建可分性评价函数Dt,公式为
其中,为目标观测;为背景观测;ε为设定常数,用于去掉较小的目标观测和背景观测,以提高算法的稳定性;r为背景特征分布;ω为前景特征分布;目标观测和背景观测采用具有H个区间的直方图来表示,h表示特征分量,h=1,2,……,H;t为选取图像的帧数;
通过可分性评价函数Dt将显著性目标模型与背景共有的特征映射为零值,存在于背景特征分布映射为负值,只保留目标最能区分的特征分量构成目标的显著性模型;
步骤S11:构建目标观测的连续性模型
其中为显著性目标连续模型;为t-k时刻目标模型; 为t时刻显著性目标模型;γk为遗忘因子;C2为归一化常数;t为选取图像的帧数;k为选取图像的第k帧视频;
步骤S12:利用可分性评价函数Dt及目标观测的连续性模型对目标模型进行修正,得到目标合作模型;
步骤S13:利用均值漂移算法实现的定位。
2.根据权利要求1所述的方法,其特征在于:
提取目标区域的颜色直方图特征、纹理直方图特征、梯度直方图特征,分别生成的概率图,其向量均可表示为
提取背景区域的颜色直方图特征、纹理直方图特征、梯度直方图特征,分别生成的概率图,其向量均可表示为
步骤S4中计算对比度值的公式为
其中目标区域和背景区域采用具有H个区间的直方图来表示,h表示特征分量,h=1,2,……,H,f∈{C,LBP,HOG}表示特征向量,C为颜色、LBP为纹理、HOG为梯度方向直方图。
3.根据权利要求2所述的方法,其特征在于:步骤2中所述背景区域与目标区域形状相同且具有相同中心点。
4.根据权利要求3所述的方法,其特征在于:步骤S6中所述的学习算法为AdaBoost算法。
5.根据权利要求4所述的方法,其特征在于:步骤S10中参数ε通过中位数估算得到,其取值范围为(0,1)。
CN201410822318.8A 2014-12-25 2014-12-25 基于局部对比显著性联合特征的目标跟踪方法 Active CN104537689B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410822318.8A CN104537689B (zh) 2014-12-25 2014-12-25 基于局部对比显著性联合特征的目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410822318.8A CN104537689B (zh) 2014-12-25 2014-12-25 基于局部对比显著性联合特征的目标跟踪方法

Publications (2)

Publication Number Publication Date
CN104537689A true CN104537689A (zh) 2015-04-22
CN104537689B CN104537689B (zh) 2017-08-25

Family

ID=52853208

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410822318.8A Active CN104537689B (zh) 2014-12-25 2014-12-25 基于局部对比显著性联合特征的目标跟踪方法

Country Status (1)

Country Link
CN (1) CN104537689B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106372636A (zh) * 2016-08-25 2017-02-01 上海交通大学 基于hop_top的视频显著性检测方法
CN107705319A (zh) * 2017-10-16 2018-02-16 中国电子科技集团公司第二十八研究所 一种基于空天背景小目标实时检测跟踪方法
CN108122011A (zh) * 2017-12-26 2018-06-05 中国科学院半导体研究所 基于多种不变性混合的目标跟踪方法和系统
CN108280834A (zh) * 2018-01-22 2018-07-13 西安万像电子科技有限公司 视频区域确定方法及装置
CN108446584A (zh) * 2018-01-30 2018-08-24 中国航天电子技术研究院 一种无人机侦察视频图像目标自动检测方法
CN108492314A (zh) * 2018-01-24 2018-09-04 浙江科技学院 基于颜色特性和结构特征的车辆跟踪方法
CN109146912A (zh) * 2018-07-26 2019-01-04 湖南人文科技学院 一种基于目标性分析的视觉目标跟踪方法
CN110866460A (zh) * 2019-10-28 2020-03-06 衢州学院 一种复杂场景视频中特定目标区域的侦测方法和装置
CN111833376A (zh) * 2019-04-23 2020-10-27 上海富瀚微电子股份有限公司 目标跟踪系统及方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103777757A (zh) * 2014-01-15 2014-05-07 天津大学 一种结合显著性检测的在增强现实中放置虚拟对象的系统
US20140279333A1 (en) * 2013-03-15 2014-09-18 Time Warner Cable Enterprises Llc Contract automation apparatus, method, and computer program product

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140279333A1 (en) * 2013-03-15 2014-09-18 Time Warner Cable Enterprises Llc Contract automation apparatus, method, and computer program product
CN103777757A (zh) * 2014-01-15 2014-05-07 天津大学 一种结合显著性检测的在增强现实中放置虚拟对象的系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
WOONG JAE WON等: "Driver"s Head Detection Model in Color Image for Driver"s Status Monitoring", 《INTELLIGENT TRANSPORTATION SYSTEMS, 2008. ITSC 2008. 11TH INTERNATIONAL IEEE CONFERENCE ON》 *
初红霞等: "空间相关背景加权直方图均值漂移目标跟踪", 《控制与决策》 *

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106372636A (zh) * 2016-08-25 2017-02-01 上海交通大学 基于hop_top的视频显著性检测方法
CN107705319B (zh) * 2017-10-16 2020-04-17 中国电子科技集团公司第二十八研究所 一种基于空天背景小目标实时检测跟踪方法
CN107705319A (zh) * 2017-10-16 2018-02-16 中国电子科技集团公司第二十八研究所 一种基于空天背景小目标实时检测跟踪方法
CN108122011A (zh) * 2017-12-26 2018-06-05 中国科学院半导体研究所 基于多种不变性混合的目标跟踪方法和系统
CN108122011B (zh) * 2017-12-26 2021-09-03 中国科学院半导体研究所 基于多种不变性混合的目标跟踪方法和系统
CN108280834A (zh) * 2018-01-22 2018-07-13 西安万像电子科技有限公司 视频区域确定方法及装置
CN108280834B (zh) * 2018-01-22 2019-11-29 西安万像电子科技有限公司 视频区域确定方法及装置
CN108492314A (zh) * 2018-01-24 2018-09-04 浙江科技学院 基于颜色特性和结构特征的车辆跟踪方法
CN108492314B (zh) * 2018-01-24 2020-05-19 浙江科技学院 基于颜色特性和结构特征的车辆跟踪方法
CN108446584B (zh) * 2018-01-30 2021-11-19 中国航天电子技术研究院 一种无人机侦察视频图像目标自动检测方法
CN108446584A (zh) * 2018-01-30 2018-08-24 中国航天电子技术研究院 一种无人机侦察视频图像目标自动检测方法
CN109146912A (zh) * 2018-07-26 2019-01-04 湖南人文科技学院 一种基于目标性分析的视觉目标跟踪方法
CN109146912B (zh) * 2018-07-26 2020-08-04 湖南人文科技学院 一种基于目标性分析的视觉目标跟踪方法
CN111833376A (zh) * 2019-04-23 2020-10-27 上海富瀚微电子股份有限公司 目标跟踪系统及方法
WO2020215865A1 (zh) * 2019-04-23 2020-10-29 上海富瀚微电子股份有限公司 目标跟踪系统及方法
CN110866460B (zh) * 2019-10-28 2020-11-27 衢州学院 一种复杂场景视频中特定目标区域的侦测方法和装置
CN110866460A (zh) * 2019-10-28 2020-03-06 衢州学院 一种复杂场景视频中特定目标区域的侦测方法和装置

Also Published As

Publication number Publication date
CN104537689B (zh) 2017-08-25

Similar Documents

Publication Publication Date Title
CN104537689B (zh) 基于局部对比显著性联合特征的目标跟踪方法
CN106845374B (zh) 基于深度学习的行人检测方法及检测装置
CN110111338B (zh) 一种基于超像素时空显著性分割的视觉跟踪方法
CN106023257B (zh) 一种基于旋翼无人机平台的目标跟踪方法
CN106909902B (zh) 一种基于改进的层次化显著模型的遥感目标检测方法
CN107832672A (zh) 一种利用姿态信息设计多损失函数的行人重识别方法
WO2015010451A1 (zh) 一种从单幅图像检测道路的方法
CN107767400B (zh) 基于层次化显著性分析的遥感图像序列动目标检测方法
CN108052904B (zh) 车道线的获取方法及装置
Ošep et al. Multi-scale object candidates for generic object tracking in street scenes
CN107239777B (zh) 一种基于多视角图模型的餐具检测和识别方法
Shahab et al. How salient is scene text?
Flohr et al. Joint probabilistic pedestrian head and body orientation estimation
CN104615998B (zh) 一种基于多视角的车辆检索方法
CN104036523A (zh) 一种基于SURF特征的改进Mean Shift的目标跟踪方法
Wang et al. An overview of 3d object detection
CN105760898A (zh) 一种基于混合组回归方法的视觉映射方法
CN110298248A (zh) 一种基于语义分割的多目标跟踪方法及系统
Seo et al. Exploiting publicly available cartographic resources for aerial image analysis
CN105913459A (zh) 基于高分辨率连拍图像的运动目标检测方法
CN108681691A (zh) 一种基于无人水面艇的海上船艇快速检测方法
CN115147745A (zh) 一种基于城市无人机图像的小目标检测方法
CN109635649B (zh) 一种无人机侦察目标的高速检测方法及系统
Holliday et al. Scale-robust localization using general object landmarks
Wang et al. Hand posture recognition from disparity cost map

Legal Events

Date Code Title Description
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20230802

Address after: 516025 No. 209 and 210, 2nd floor, plant service building (Building B), No. 7 JINDA Road, Huinan high tech Industrial Park, huiao Avenue, Huizhou City, Guangdong Province

Patentee after: Huizhou Zhongke Advanced Manufacturing Co.,Ltd.

Address before: 100080 No. 95 East Zhongguancun Road, Beijing, Haidian District

Patentee before: INSTITUTE OF AUTOMATION, CHINESE ACADEMY OF SCIENCES

TR01 Transfer of patent right