CN109146912B - 一种基于目标性分析的视觉目标跟踪方法 - Google Patents

一种基于目标性分析的视觉目标跟踪方法 Download PDF

Info

Publication number
CN109146912B
CN109146912B CN201810836594.8A CN201810836594A CN109146912B CN 109146912 B CN109146912 B CN 109146912B CN 201810836594 A CN201810836594 A CN 201810836594A CN 109146912 B CN109146912 B CN 109146912B
Authority
CN
China
Prior art keywords
target
tracking
map
pixel
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810836594.8A
Other languages
English (en)
Other versions
CN109146912A (zh
Inventor
方智文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hunan University of Humanities Science and Technology
Original Assignee
Hunan University of Humanities Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hunan University of Humanities Science and Technology filed Critical Hunan University of Humanities Science and Technology
Priority to CN201810836594.8A priority Critical patent/CN109146912B/zh
Publication of CN109146912A publication Critical patent/CN109146912A/zh
Application granted granted Critical
Publication of CN109146912B publication Critical patent/CN109146912B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/207Analysis of motion for motion estimation over a hierarchy of resolutions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于目标性分析的视觉目标跟踪方法,通过在线学习前景与背景区域的颜色直方图模型,计算当前帧图像的区域目标性图,从中定位多个跟踪锚点的位置,并根据目标本身的大小确定多个搜索区域,利用相关滤波跟踪算法得到每个搜索区域的响应图,根据熵正则化损失函数和多个搜索区域的跟踪响应图选择最佳搜索区域,最终确定目标所在位置。本发明不带有特定目标类型信息,不限制目标的表现模型和运动模型,因此普适性较好,相较于现有的其他目标跟踪算法,无论是在解决动目标动平台问题还是背景遮挡问题等方面都有很好的效果,对视觉目标跟踪的算法研究和实践具有重要的指导意义。

Description

一种基于目标性分析的视觉目标跟踪方法
技术领域
本发明涉及数字图像处理和机器学习交叉技术领域,具体涉及一种基于目标性分析的视觉目标跟踪方法。
背景技术
视觉目标跟踪在目前的人机交互、机器人系统、航空航天以及城市视频监控中都有非常重要的应用。目前常用的目标跟踪方法如下:
(1)基于图像全局检测的目标跟踪方法
基于图像全局检测的目标跟踪方法主要分为两种,即基于关键点匹配的目标跟踪方法和基于目标性的跟踪算法。基于关键点匹配的目标跟踪方法通常在目标位置提取具有不变性特征的关键点,将目标模版表示为一些关键点的集合,在当前帧全图中提取关键点,并与目标模板的关键点进行关键点匹配,所求目标为当前帧目标位置相对于初始模板位置的几何变换关系。基于目标性的跟踪算法通常计算多个目标潜在区域,并逐一对这些目标潜在区域进行二分类,最终预测的目标位置是这些目标潜在区域中的一个。
(2)基于图像局部检测的目标跟踪方法
基于图像局部检测的目标跟踪方法通常利用一个在线学习更新的分类器将目标从其周围背景中区分出来。在预测当前帧目标所在位置时,跟踪器的搜索范围是一个较小的图像局部区域,该区域以上一帧预测的目标所在位置为中心,面积略微大于目标本身的面积。通过在搜索区域内以滑动窗口的形式获取待测试样本,用训练好的分类器计算其是真正目标的得分值,取得分值最大的一个测试样本作为新的目标所在位置的预测结果。
基于图像全局检测的目标跟踪方法,由于搜索区域过大,计算复杂度过高,很难实时。此外全局图像中的背景物体也可能对跟踪器产生干扰,容易导致跟踪失败。基于图像局部检测的目标跟踪方法,虽然能够很好的解决背景干扰、计算复杂度高等问题,但是算法的跟踪结果严重受到上一帧目标预测位置的影响,如果上一帧的目标位置预测结果出现偏差,就极有可能导致后续所有帧的跟踪结果全部失败,限制此类方法的实际应用范围。
综上所述,尽管目前已经存在非常多的视觉目标跟踪的相关方法,但由于算法的准确性、鲁棒性以及实时性等原因,很难将其应用到真实复杂的自然场景中。
发明内容
本发明的目的在于克服现有技术中存在的缺陷,提供一种基于目标性分析的视觉目标跟踪方法,以实现精确且实时的视觉目标跟踪。
本发明采用以下技术方案:
一种基于目标性分析的视觉目标跟踪方法,所述方法包括:
S1、根据上一帧的目标预测位置、跟踪目标及其周围背景的颜色直方图,计算当前帧的像素级目标性图;
S2、在所述步骤S1得到的像素级目标性图上以滑动窗口的形式计算区域目标性图,使用非极大值抑制选择所述区域目标性图中响应值最高的N个位置,作为跟踪锚点;
S3、在以所述步骤S2得到的N个跟踪锚点以及所述上一帧中的目标位置为中心,面积为目标大小ρ倍的N+1个搜索区域内,利用同一个相关滤波器分别得到每个搜索区域的跟踪结果响应图,分别找到所述每个响应图中的最大响应位置作为跟踪目标在当前帧的候选位置;
S4、通过非极大值抑制,在所述步骤S3得到的N+1个响应图中分别选出S个测试样本,通过最小化熵正则化损失函数,选择最优跟踪锚点,根据其对应响应图的最大值的位置预测当前帧目标所在位置;
S5、更新颜色直方图模型参数;
S6、更新相关滤波器模型参数;
S7、重复步骤S1至S6,直到图像序列最后一帧。
进一步,所述步骤S1包括:
S11、计算图像中每一个像素点的RGB颜色直方图得分,得到RGB颜色直方图得分图;
S12、计算目标性掩模,与所述步骤S11得到的所述颜色直方图得分图做点乘,得到初始目标性图;
S13、利用高斯函数滤除所述步骤S12得到的所述初始目标性图中的噪声,得到最终的像素级目标性图。
进一步,所述滑动窗口大小为上一帧预测得到的目标大小。
进一步,所述跟踪锚点为跟踪搜索区域的中心点。
进一步,所述相关滤波器为函数f(z)=WTZ,Z为样本的特征向量,W为f的参数。
进一步,所述步骤S5包括:
S51、在以目标预测位置为中心,大小为目标本身的前景区域F内的每个像素,为其分配样本标签1,在以目标预测位置为中心,大小为目标ρ倍的除去F的背景区域B内的每个像素,为其分配样本标签0;
S52、分别以时间间隔ΔtF和ΔtB更新所述前景区域F的颜色直方图模型和所述背景区域B的颜色直方图模型;
S53、模型训练。
进一步,所述模型训练过程为求解线性回归问题的过程,具体包括:
目标函数为:
Figure BDA0001744684350000031
其中,|F|为所述前景区域内像素数量,|B|为所述背景区域内像素数量,ψ(u)为像素u的RGB颜色分布直方图;
找到一个ω最小化训练样本u的预测值与其样本标签真实值之间的误差平方和。
进一步,所述步骤S6包括:
S61、以目标预测位置为中心,大小为目标ρ倍的区域内,构造循环偏移矩阵作为更新参数所需的训练样本,对新构造的样本分配高斯分布的标签,目标在中心时,标签为1,目标偏离中心越远,标签越小,最小为0;
S62、样本训练。
进一步,所述样本训练过程为求解岭回归问题过程,训练的目标函数为:
Figure BDA0001744684350000041
找到一个函数f(z)=WTZ,最小化训练样本xi的响应与真值yi之间的误差平方和,同时加入正则化参数λ防止模型出现过拟合。
本发明的优点和有益效果在于:
本发明提供一种基于目标性分析的视觉目标跟踪方法,相比于目前已存在的跟踪算法,本发明能够不受上一帧跟踪结果的影响,能够长时间稳定实时跟踪感兴趣的目标。通过在线学习前景与背景的颜色直方图模型,计算目标可能出现的区域目标性图,根据该目标性图确定当前帧的多个跟踪锚点位置,进而确定多个目标搜索范围。最后通过最小化每个搜索区域响应图的熵正则化损失函数,确定最终的跟踪锚点,进而确定最终的目标位置。在保证实时性的前提下,本发明相比于现有的其他跟踪方法,无论是对于目标的快速运动、摄像平台的快速运动问题,还是跟踪过程中出现的遮挡、背景干扰等问题,都能较好地解决。
附图说明
图1为是本发明实施例提供的基于目标性分析的视觉跟踪方法的流程示意图;
图2为本发明实施例提供的获取像素级目标性图的流程示意图;
图3为本发明实施例提供的获取区域目标性图的流程示意图;
图4为本发明实施例提供的相关滤波器模型更新的流程示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明提供了一种基于目标性分析的视觉跟踪方法,分为两个部分:首先,利用目标前景区域与背景区域的颜色直方图模型,利用二维高斯函数去噪后,构建像素级目标性图,然后通过滑动窗口的形式构建区域目标性图,通过非极大值抑制选择N个跟踪锚点,此部分的目的是计算跟踪器在当前帧的搜索区域;然后,以N个跟踪锚点和上一帧目标所在位置为中心的N+1个搜索区域内,利用相关滤波器得到每个搜索区域的响应图,计算每个响应图的熵损失函数,熵损失函数最小的响应图的响应峰值作为预测的目标所在位置。
图1所示为本发明基于目标性分析的视觉跟踪方法的流程示意图,具体包括以下步骤:
S1、根据上一帧的目标预测位置和跟踪目标及其周围背景的颜色直方图,计算当前帧的像素级目标性图。其中,所述像素级目标性图即原始图像中每一个像素点属于目标的概率图。
图2为本发明实施例中获取像素级目标性图的流程示意图,包括以下子步骤:
S11、计算图像中每一个像素点u的RGB颜色直方图特征ψ(u),RGB通道的取值范围为0~255,将0~255线性映射到0~31,则颜色直方图特征维数K为32×32×32=32768,根据上一帧预测结果学习得到的目标性模型ω计算每一个像素点u属于目标的概率
Figure BDA0001744684350000051
i是向量的维度指示,对于每一个像素,用b(u)代表像素点u在K维颜色直方图中所属的那一个维度指示,则像素点u的RGB颜色直方图特征ψ(u)是一个稀疏向量,只在i=b(u)时,ψ(u)i=1,否则,ψ(u)i=0。因此O(u)=ωb(u)
S12、计算目标性掩模M。计算图像上每一个像素点u的RGB颜色直方图ψ(u)与目标颜色直方图模型H(F)的距离
Figure BDA0001744684350000052
以及像素点u的RGB颜色直方图ψ(u)与背景颜色直方图模型H(B)的距离
Figure BDA0001744684350000053
图像上每一个像素点u所对应的目标性掩模M(u)=Π(D(ψ(u),H(B))>D(ψ(u),H(F))),其中Π(*)是一个指示函数,即:当D(ψ(u),H(B))>D(ψ(u),H(F))时M(u)=1,否则,M(u)=0。将M与步骤S11中得到的颜色直方图得分图O做点乘,得到初始目标性图OM,其中每一个像素点u对应的目标性得分为OM(u)=M(u)×O(u)。
S13、利用高斯函数滤除步骤S12得到的初始目标性图OM中的噪声,得到最终的像素级目标性图OG,其中每一个像素点u对应的像素级目标性得分为OG(u)=OM(u)×g(u)。高斯函数g(u)以上一帧目标所在位置为中心,标准差为目标在图像序列第一帧的长与宽的最大值。
S2、在步骤S1得到的像素级目标性图OG上,以滑动窗口的形式计算区域目标性图RO,滑动窗口大小为上一帧预测得到的目标大小。每一个滑动窗口所对应的区域
Figure BDA0001744684350000063
的目标性得分
Figure BDA0001744684350000064
为该区域内所有像素的像素级目标性得分的累计求和,即
Figure BDA0001744684350000061
其中|*|表示区域*内像素数量。最终得到的区域目标性图RO上的每一个像素u的像素值为以该像素作为中心位置区域的区域目标性得分。图3为本发明实施例中获取区域目标性图的流程示意图。然后使用非极大值抑制选择RO中响应值最高的N个位置,作为跟踪锚点。其中,所述跟踪锚点即跟踪搜索区域的中心点。在本实施例中,N=3。
S3、在以步骤S2得到的N个跟踪锚点以及上一帧中的目标位置为中心,面积为目标大小ρ倍的N+1个搜索区域内,利用同一个相关滤波器分别得到每个搜索区域的跟踪结果响应图,分别找到每个响应图中的最大响应位置作为跟踪目标在当前帧的候选位置。其中,所述相关滤波器即函数f(z)=WTZ,Z为样本的特征向量。在本实施例中,ρ=2.5。
S4、通过非极大值抑制,在步骤S3得到的N+1个响应图中分别选出S个测试样本,S个测试样本构成测试样本集X={xm,m∈(1,2,...S)},其中测试样本xm的标签为φm=(ym,lm),ym∈(0,1)代表该样本为目标(1)或者背景(0),lm∈Z2代表该样本在图像中的位置坐标。X是一个超样本集,其标签为Φ={φm,m∈(1,2,...S)},我们构建一个样本标签的集合Γ={Φm,m∈(1,2,...S)},对于其中的每一个
Figure BDA0001744684350000062
Figure BDA0001744684350000071
Figure BDA0001744684350000072
否则,
Figure BDA0001744684350000073
则X的标签Φ必然存在于样本标签的集合Γ中。对于跟踪锚点a,定义熵正则化损失函数为E(X,Γ)=-L(a;X.Γ)+γH(Φ|X,Γ;a),其中γ是权重系数,
Figure BDA0001744684350000074
Figure BDA0001744684350000075
每个样本xm的标签φm=(ym,lm)取决于目标表征模型P(ym|xm;a)和目标运动模型P(lm|ym),因此P(Φ|X;a)可以被分解为:
Figure BDA0001744684350000076
其中P(ym|xm;a)是跟踪锚点a所对应的搜索区域内的一个测试样本xm,其标签为ym的概率,P(lm|ym)是样本标签为ym,坐标位置在lm的概率,通过上面的推导,
Figure BDA0001744684350000077
对每一个跟踪锚点计算其熵正则化损失函数,取其中熵正则化损失函数值最小的一个跟踪锚点,则最终预测得到目标位置为该跟踪锚点所对应的响应图上的峰值位置。在本实施例中,S=10,γ=45。
S5、更新颜色直方图模型参数。包括以下子步骤:
S51、在以目标预测位置为中心,大小为目标本身的前景区域F内的每个像素,为其分配样本标签1,在以目标预测位置为中心,大小为目标ρ倍的除去F的背景区域B内的每个像素,为其分配样本标签0。
S52、定义目标颜色直方图模型H(F)和背景颜色直方图模型H(B),则
Figure BDA0001744684350000078
分别表示在序列第t帧时第i维度的目标直方图模型取值和背景直方图取值,|F|与|B|分别表示目标区域的像素点数量与背景区域的像素点数量,Ci(F)表示目标区域内的颜色特征直方图的第i维度为1的像素点的数量,Ci(B)表示背景区域内的颜色特征直方图的第i维度为1的像素点的数量。在本实施例中,颜色直方图特征维数K为32×32×32=32768。目标区域颜色直方图模型与背景区域的颜色直方图模型的更行公式如下:
Figure BDA0001744684350000081
Figure BDA0001744684350000082
其中,β是模型的学习率,
Figure BDA0001744684350000083
Figure BDA0001744684350000084
是第t-1帧的目标与背景区域的颜色直方图,ΔtF代表目标颜色直方图模型每隔ΔtF帧更新一次,ΔtB代表背景颜色直方图模型每隔ΔtB帧更新一次。在本实施例中,β=0.04,ΔtF=3,ΔtB=1。
S53、模型训练过程为求解线性回归问题的过程。损失函数为
Figure BDA0001744684350000085
即找到一个函数
Figure BDA0001744684350000086
可以最小化训练样本u的预测值与其样本标签真实值之间的误差平方和。其中F为前景区域,B为背景区域,|F|为前景区域内像素数量,|B|为背景区域内像素数量,ψ(u)为像素u的RGB颜色分布直方图。用b(u)代表像素点u在K维颜色直方图中所属的那一个维度指示,则像素点u的RGB颜色直方图特征ψ(u)是一个稀疏向量,只在i=b(u)时,ψ(u)i=1,否则,ψ(u)i=0。因此损失函数可以表示为:
Figure BDA0001744684350000087
|F|与|B|分别表示目标区域的像素点数量与背景区域的像素点数量,Ci(F)表示目标区域内的颜色特征直方图的第i维度为1的像素点的数量,Ci(B)表示背景区域内的颜色特征直方图的第i维度为1的像素点的数量。可以计算得到最小化该损失函数的闭式解为:
Figure BDA0001744684350000091
S6、更新相关滤波器模型参数。图4为本发明实施例中相关滤波器模型更新的流程示意图。包括以下子步骤:
S61、在以预测得到的目标位置为中心,大小为目标本身大小ρ倍的区域内,以目标预测位置为中心,大小为目标ρ倍的区域内,构造循环偏移样本矩阵构成训练样本,对新构造的样本分配高斯分布的标签,对于新构造的样本,根据其中目标中心与基本样本目标中心的距离,分配一个总体呈高斯分布的连续回归值,方差为0.4,基本样本回归值为1,在基本样本的基础上循环偏移的越多,其样本回归值越接近0。
S62、更新相关滤波器的参数。假设目前已有一些训练样本及其回归值{(x1,y1),(x2,y2),...,(xi,yi),...},模型训练更新参数的目的在于找到一个函数f(z)=WTZ,能够最小化样本xi的响应与真实回归值yi之间的误差平方和,加入正则化参数λ,可以防止模型出现过拟合,样本训练过程实际上是求解一个岭回归问题,存在闭式解。目标函数为:
Figure BDA0001744684350000092
利用线性最小二乘法求解可以计算得到这个问题的闭式解:W=(XTX+λI)-1XTy这里X是一个由样本的特征向量组成的样本矩阵。y是由每个样本的回归值yi组成的列向量。I是单位矩阵。在复数情况下的求解结果W*=(XHX+λI)-1XHy,其中XH是X的共轭转置,W*是W的共轭。由于样本数量较多,在这个闭式解中出现的求逆运算(XHX+λI)-1,直接求解会比较耗时,为了避免出现这种情况,将原始闭式解进行离散傅立叶变换,可以避免矩阵求逆运算,缩减算法执行时间,大幅度提高跟踪算法的实时性。最终得到结果
Figure BDA0001744684350000093
⊙代表向量对应元素相乘,
Figure BDA0001744684350000094
经过反向傅里叶变换即可得到W。
S7、重复步骤S1到步骤S6,直到图像序列最后一帧。
本发明不带有特定目标类型信息,不限制目标的表现模型和运动模型,因此普适性较好,相较于现有的其他目标跟踪算法,无论是在解决动目标动平台问题还是背景遮挡问题等方面都有很好的效果,对视觉目标跟踪的算法研究和实践具有重要的指导意义。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种基于目标性分析的视觉目标跟踪方法,其特征在于,所述方法包括:
S1、根据上一帧的目标预测位置、跟踪目标及其周围背景的颜色直方图,计算当前帧的像素级目标性图;
S2、在所述步骤S1得到的像素级目标性图上以滑动窗口的形式计算区域目标性图,使用非极大值抑制选择所述区域目标性图中响应值最高的N个位置,作为跟踪锚点;
S3、在以所述步骤S2得到的N个跟踪锚点以及所述上一帧中的目标位置为中心,面积为目标大小ρ倍的N+1个搜索区域内,利用同一个相关滤波器分别得到每个搜索区域的跟踪结果响应图,分别找到所述每个响应图中的最大响应位置作为跟踪目标在当前帧的候选位置;
S4、通过非极大值抑制,在所述步骤S3得到的N+1个响应图中分别选出S个测试样本,通过最小化熵正则化损失函数,选择最优跟踪锚点,根据其对应响应图的最大值的位置预测当前帧目标所在位置;
S5、更新颜色直方图模型参数;
S6、更新相关滤波器模型参数;
S7、重复步骤S1至S6,直到图像序列最后一帧;
所述步骤S1包括:
S11、计算图像中每一个像素点的RGB颜色直方图得分,得到RGB颜色直方图得分图;
S12、计算目标性掩模,与所述步骤S11得到的所述颜色直方图得分图做点乘,得到初始目标性图;
S13、利用高斯函数滤除所述步骤S12得到的所述初始目标性图中的噪声,得到最终的像素级目标性图。
2.如权利要求1所述的方法,其特征在于,所述滑动窗口大小为上一帧预测得到的目标大小。
3.如权利要求1所述的方法,其特征在于,所述跟踪锚点为跟踪搜索区域的中心点。
4.如权利要求1所述的方法,其特征在于,所述相关滤波器为函数f(z)=WTZ,Z为样本的特征向量,W为f的参数。
5.如权利要求1所述的方法,其特征在于,所述步骤S5包括:
S51、在以目标预测位置为中心,大小为目标本身的前景区域F内的每个像素,为其分配样本标签1,在以目标预测位置为中心,大小为目标ρ倍的除去F的背景区域B内的每个像素,为其分配样本标签0;
S52、分别以时间间隔ΔtF和ΔtB更新所述前景区域F的颜色直方图模型和所述背景区域B的颜色直方图模型;
S53、模型训练。
6.如权利要求5所述的方法,其特征在于,所述模型训练过程为求解线性回归问题的过程,具体包括:
目标函数为:
Figure FDA0002481897260000021
其中,|F|为所述前景区域内像素数量,|B|为所述背景区域内像素数量,ψ(u)为像素u的RGB颜色分布直方图;
找到一个ω最小化训练样本u的预测值与其样本标签真实值之间的误差平方和。
7.如权利要求1所述的方法,其特征在于,所述步骤S6包括:
S61、以目标预测位置为中心,大小为目标ρ倍的区域内,构造循环偏移矩阵作为更新参数所需的训练样本,对新构造的样本分配高斯分布的标签,目标在中心时,标签为1,目标偏离中心越远,标签越小,最小为0;
S62、样本训练。
8.如权利要求7所述的方法,其特征在于,所述样本训练过程为求解岭回归问题过程,训练的目标函数为:
Figure FDA0002481897260000031
找到一个函数f(z)=WTZ,最小化训练样本xi的响应与真值yi之间的误差平方和,同时加入正则化参数λ防止模型出现过拟合。
CN201810836594.8A 2018-07-26 2018-07-26 一种基于目标性分析的视觉目标跟踪方法 Active CN109146912B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810836594.8A CN109146912B (zh) 2018-07-26 2018-07-26 一种基于目标性分析的视觉目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810836594.8A CN109146912B (zh) 2018-07-26 2018-07-26 一种基于目标性分析的视觉目标跟踪方法

Publications (2)

Publication Number Publication Date
CN109146912A CN109146912A (zh) 2019-01-04
CN109146912B true CN109146912B (zh) 2020-08-04

Family

ID=64798032

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810836594.8A Active CN109146912B (zh) 2018-07-26 2018-07-26 一种基于目标性分析的视觉目标跟踪方法

Country Status (1)

Country Link
CN (1) CN109146912B (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109785366B (zh) * 2019-01-21 2020-12-25 中国科学技术大学 一种针对遮挡的相关滤波目标跟踪方法
JP7558243B2 (ja) * 2019-03-15 2024-09-30 レチンエイアイ メディカル アーゲー 特徴点検出
CN109993774B (zh) * 2019-03-29 2020-12-11 大连理工大学 基于深度交叉相似匹配的在线视频目标跟踪方法
CN110177256B (zh) * 2019-06-17 2021-12-14 北京影谱科技股份有限公司 一种追踪视频数据获取方法和装置
CN110675429A (zh) * 2019-09-24 2020-01-10 湖南人文科技学院 基于孪生网络和相关滤波器的长短程互补型目标跟踪方法
CN110827355B (zh) * 2019-11-14 2023-05-09 南京工程学院 一种基于视频图像坐标的移动目标快速定位方法及系统
CN110910424B (zh) * 2019-11-18 2022-08-05 深圳拙河科技有限公司 一种目标跟踪的方法和装置
CN111179313A (zh) * 2019-12-27 2020-05-19 湖南华诺星空电子技术有限公司 基于kcf的无人机跟踪方法
CN113393493B (zh) * 2021-05-28 2024-04-05 京东科技信息技术有限公司 目标对象的跟踪方法及装置
CN114862955B (zh) * 2022-07-07 2022-09-02 诺伯特智能装备(山东)有限公司 一种工业机器人快速视觉定位方法
CN117197133B (zh) * 2023-11-06 2024-01-30 湖南睿图智能科技有限公司 一种复杂工业环境下视觉机器人的控制系统及方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104537689A (zh) * 2014-12-25 2015-04-22 中国科学院自动化研究所 基于局部对比显著性联合特征的目标跟踪方法
CN105787481A (zh) * 2016-04-05 2016-07-20 湖南人文科技学院 一种基于目标性潜在区域分析的目标检测算法及其应用
CN108053419A (zh) * 2017-12-27 2018-05-18 武汉蛋玩科技有限公司 基于背景抑制和前景抗干扰的多尺度目标跟踪方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104537689A (zh) * 2014-12-25 2015-04-22 中国科学院自动化研究所 基于局部对比显著性联合特征的目标跟踪方法
CN105787481A (zh) * 2016-04-05 2016-07-20 湖南人文科技学院 一种基于目标性潜在区域分析的目标检测算法及其应用
CN108053419A (zh) * 2017-12-27 2018-05-18 武汉蛋玩科技有限公司 基于背景抑制和前景抗干扰的多尺度目标跟踪方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Object Tracking Algorithm Based on HSV Color Histogram and Block-Sparse Representation;Chi Xiao等;《Proceedings of the 34th Chinese Control Conference》;20150730;第3826-3831页 *
Object Tracking Using Joint Enhanced Color-Texture Histogram;Manoj Diwakar等;《Proceedings of the 2013 IEEE Second International Conference on Image Information Processing 》;20131231;第160-165页 *
Structured output tracking guided by keypoint matching;Fang Zhiwen等;《PROCEEDINGS OF SPIE》;20161021;第1-8页 *
基于均值漂移算法和局部特征的目标跟踪研究;李永佳;《中国优秀硕士学位论文全文数据库 信息科技辑》;20180615;I138-1410 *
基于改进颜色直方图映射的目标跟踪算法;史东承等;《计算机仿真》;20101130;第27卷(第11期);第231-234页 *

Also Published As

Publication number Publication date
CN109146912A (zh) 2019-01-04

Similar Documents

Publication Publication Date Title
CN109146912B (zh) 一种基于目标性分析的视觉目标跟踪方法
CN107341820B (zh) 一种融合Cuckoo搜索和KCF的突变运动目标跟踪方法
CN107424177B (zh) 基于连续相关滤波器的定位修正长程跟踪方法
US9767570B2 (en) Systems and methods for computer vision background estimation using foreground-aware statistical models
CN105117720B (zh) 基于时空模型的目标尺度自适应跟踪方法
CN113255611B (zh) 基于动态标签分配的孪生网络目标跟踪方法及移动设备
CN110276785B (zh) 一种抗遮挡红外目标跟踪方法
CN106204638A (zh) 一种基于尺度自适应和遮挡处理的航拍目标跟踪方法
CN111582349B (zh) 一种基于YOLOv3和核相关滤波改进的目标跟踪算法
CN113920170B (zh) 结合场景上下文和行人社会关系的行人轨迹预测方法、系统及存储介质
CN111914832B (zh) 一种rgb-d相机在动态场景下的slam方法
CN110084201B (zh) 一种监控场景下基于特定目标跟踪的卷积神经网络的人体动作识别方法
CN111598928A (zh) 一种基于具有语义评估和区域建议的突变运动目标跟踪方法
Wang et al. Improving RGB-D SLAM accuracy in dynamic environments based on semantic and geometric constraints
CN106874881B (zh) 一种多模板时空关联的局部反联合稀疏表示目标跟踪方法
CN106600611B (zh) 基于稀疏三重马尔可夫场的sar图像分割方法
CN113033356B (zh) 一种尺度自适应的长期相关性目标跟踪方法
Wang et al. Real-time visual tracking via robust Kernelized Correlation Filter
CN111145221A (zh) 一种基于多层深度特征提取的目标跟踪算法
Wang et al. Pmds-slam: Probability mesh enhanced semantic slam in dynamic environments
CN114067240A (zh) 一种融合行人特性的在线更新策略行人单目标跟踪方法
CN114972733B (zh) 一种舰船骨架点识别方法
Takada et al. Human tracking in crowded scenes using target information at previous frames
Feng et al. Efficient object tracking algorithm based on lightweight Siamese networks
Cai et al. A target tracking method based on adaptive occlusion judgment and model updating strategy

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant