CN105678338B - 基于局部特征学习的目标跟踪方法 - Google Patents

基于局部特征学习的目标跟踪方法 Download PDF

Info

Publication number
CN105678338B
CN105678338B CN201610024953.0A CN201610024953A CN105678338B CN 105678338 B CN105678338 B CN 105678338B CN 201610024953 A CN201610024953 A CN 201610024953A CN 105678338 B CN105678338 B CN 105678338B
Authority
CN
China
Prior art keywords
target
local
confidence
frame
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610024953.0A
Other languages
English (en)
Other versions
CN105678338A (zh
Inventor
王美华
梁云
麦嘉铭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China Agricultural University
Original Assignee
South China Agricultural University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China Agricultural University filed Critical South China Agricultural University
Priority to CN201610024953.0A priority Critical patent/CN105678338B/zh
Publication of CN105678338A publication Critical patent/CN105678338A/zh
Application granted granted Critical
Publication of CN105678338B publication Critical patent/CN105678338B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques

Abstract

本发明公开了一种基于局部特征学习的目标跟踪方法,将目标物体和背景分解成大量的具有尺度和形状不变性的局部单元,将其作为目标和背景分类模型的训练样本,采用深度学习的方式,从训练样本中学习出目标物体以及背景的局部表达。再判断出图像中每个特定区域属于目标物体的置信度,实现目标物体的准确定位。因这种由大量样本学习得出的局部表达具有高度的目标识别能力,该跟踪方法对目标形变、目标遮挡等情况具有较高的适应能力。更新物体表观模型时,抽取出目标置信度较高的局部区域作为模型的训练样本,并对模型进行更新。本方法在目标跟踪的过程中,不断更新表观模型,学习目标物体的关键特征,在外观变化较大的情景下能够取得更好的跟踪效果。

Description

基于局部特征学习的目标跟踪方法
技术领域
本发明涉及计算机视觉领域,更具体地,涉及到一种基于局部特征学习的目标跟踪方法。
背景技术
目标跟踪作为计算机视觉领域的一个重要研究方向,目前已受到了广泛的关注。该技术在安全监控、无人驾驶和军事防御等领域具有宽广的应用前景。尽管目前已经存在着相当数量的目标跟踪方法,但这些方法往往在光照变化、物体形变和严重遮挡等情况下不稳定甚至失效。因此,提出一种有效的目标跟踪算法具有重要的应用价值和现实意义。
当前,已有不少目标跟踪算法投入使用,完整的目标跟踪算法可分成四个主要部分:特征提取的方法、表观模型的建立、目标的定位方法、模型更新机制的设计。其中,特征提取和模型的更新机制最为重要,同时也是当前已有跟踪算法中最为薄弱的环节。一方面,有效的特征提取方法能够捕捉目标相关的特征,是实现准确跟踪的关键所在;另一方面,设计良好的模型更新机制可以保证表观模型具备动态适应目标物体形态变化的能力,是决定目标跟踪算法适应能力的重要因素。然而,现有的目标跟踪算法在这两方面仍然十分欠缺,因此,开发一种同时具备两方面性质的目标跟踪算法是很有必要的。
现有的目标跟踪方法采用过于简单的或传统的手工特征,其对目标物体的表达能力受到限制,难以适应目标的复杂形态变化,往往无法得到理想的跟踪结果。同时,在模型的更新机制的设计方面相当局限,当跟踪过程中存在光照变化及目标遮挡,尤其是相似物体的遮挡等情况时,表观模型常被错误地更新,导致其将背景区域误判为目标区域。
发明内容
为了克服现有技术的不足,即针对目标跟踪方法所提取的特征表达能力较弱,模型的更新机制适应能力差等问题,本发明提出一种基于局部特征学习的跟踪方法,首先将目标物体和背景分解成大量的具有尺度和形状不变性的局部单元,即图像的局部区域,并将其作为目标和背景分类模型的训练样本,采用深度学习的方式,从训练样本中学习出目标物体以及背景的局部表达。在此基础上,进一步判断出图像中每个特定区域属于目标物体的置信度,从而实现目标物体的准确定位。由于这种由大量样本学习得出的局部表达具有高度的目标识别能力,该跟踪方法对目标形变、目标遮挡等情况具有较高的适应能力。更新物体表观模型时,抽取出目标置信度较高的局部区域作为模型的训练样本,并对模型进行更新。本方法在目标跟踪的过程中,不断更新表观模型,学习目标物体的关键特征,在诸如遮挡、变形等外观变化较大的情景下能够取得更好的跟踪效果。
为了克服现有技术的不足,本发明的技术方案为:
一种基于局部特征学习的目标跟踪方法,包括以下步骤:
S1.在视频的第一帧中,将目标区域和背景区域分解成大量的局部单元,以分解后的大量局部单元作为训练样本,采用深度学习的方式训练、构建表观模型,学习出目标的局部表达;
S2.获取视频的下一帧,计算图像中每个局部区域属于目标的置信度,得到用于目标定位的置信度图;
S3.根据置信度图确定目标所在的位置和大小,并令k=1;
S4.从该帧的整幅图像中选取第k个局部区域,当该局部区域的目标置信度大于设定的阈值Tpos,则转入步骤S5,否则转入步骤S6;
S5.将该局部区域加入到目标样本训练集,转入步骤S7;
S6.当该局部区域的目标置信度小于设定的阈值Tneg,将该局部区域加入到背景样本集;
S7.当第k个局部区域所指向的局部区域是最后一个局部区域,则利用目标样本训练集和背景样本训练集更新表观模型,同时跳转至步骤S8;否则将k+1赋值给k,转入步骤S4;
S8.判断当前帧是否为视频的最后一帧,若是则结束;否则转入步骤S2。
更进一步地,所述步骤S1中所建立的表观模型是通过对大量局部区域进行学习而得到的,具体的表观模型构造方法为:
给定第一帧图像I及其对应的目标区域,抽取目标区域内的所有像素:
P={(x,y)|x1≤x≤x1+w1,y1≤y≤y1+h1}
其中,x1和y1表示目标区域所在的最小横纵坐标,w1和h1分别表示目标区域的宽和高,P为目标区域内的所有像素点集;
同时,提取背景区域内的所有像素:
N={(x,y)|x<x1}∪{(x,y)|x>x1+w1}∪{(x,y)|y<y1}∪{(x,y)|y>y1+h1}这里,N表示非目标区域,即背景区域内的所有像素点集;
然后,分别提取所有目标相关的局部块Upos和所有背景相关的局部块Uneg
Upos={Ir,x,y|(x,y)∈P}
Uneg={Ir,x,y|(x,y)∈N}
其中,r为预先设定的局部块半径;
定义三层稀疏,其中自动编码机作为待训练的表观模型,该自动编码机是一个三层神经网络,其中输入层有(2r+1)2个节点,用于接收输入的局部块;隐含层的节点个数是输入层的1/4,用于获取针对目标和背景的判别特征;输出层有1个节点,输出结果为输入局部块属于目标的置信度;
表观模型的训练和构建过程最终通过下式实现:
Figure GDA0002029623740000031
其中,ω是网络的权值,
Figure GDA0002029623740000032
是输入的第i个局部块,
Figure GDA0002029623740000033
表示网络输出,即局部块
Figure GDA0002029623740000034
所对应的目标置信度。
更进一步地,所述步骤S2中对于新一帧的图像,根据所构建的表观模型,计算出其对应的目标置信度图;具体实现如下:
设U为包含新一帧图像中所有像素点的集合,则对于集合U中的每一个元素,即图像中的每一个像素点(x,y),均可找到一个以该像素点为中心,且大小为r的局部块Ir,x,y;利用步骤S1中所构造的表观模型,即稀疏自动编码机,得到局部块Ir,x,y所对应的目标置信度φ(ω,Ir,x,y);在此基础上,计算出与一幅图像大小相同的置信度图C,其中C(x,y)=φ(ω,Ir,x,y),该置信度图反映了目标物体出现位置的大致分布情况,对进一步估计目标所在位置及其大小具有重要的指导作用。
更进一步地,所述步骤S3中计算目标所在位置和大小的方法,具体方法如下:
生成大量的用于描述目标位置和大小的候选矩形框{c1,c2,…,cn},计算每个候选矩形框的得分Sci,并选取得分最高的候选矩形框以最终确定目标所在位置和大小;其中,得分Sci由以下两个因素决定:1)候选矩形框中所有局部块的目标置信度总和Mci;2)候选矩形框中高置信度局部块所占的比例Rci;Mci可由下式计算得到:
Figure GDA0002029623740000041
要计算Rci,先找出候选矩形框中置信度较高的局部块:
Figure GDA0002029623740000042
其中Thigh为预先设定的阈值,置信度高于此阈值的局部块可以认为其置信度较高,即属于目标的一部分;则Rci的计算方式如下:
Figure GDA0002029623740000043
上式中,
Figure GDA0002029623740000044
表示为候选矩形框所包含的局部块总个数;最后,可以通过式子
Figure GDA0002029623740000045
找出最佳的描述目标所在位置和大小的矩形框。
更进一步地,所述步骤S4到步骤S7所采用的表观模型更新机制;具体方法如下:
设在第t帧中已计算出目标置信度图Ct,且已计算出描述目标所在位置和大小的最佳矩形框;则分别选出目标置信度较高和较低的局部块:
Pt={Ir,x,y|C(x,y)>Tpos},Nt={Ir,x,y|C(x,y)<Tneg},
其中,Tpos和Tneg均为预先设定的阈值,Pt和Nt分别表示置信度较高和较低的局部块集合;在此基础上,通过求解下式实现表观模型的更新:
Figure GDA0002029623740000046
ω是权重,Ir,x,y是一个以(x,y)为圆心,半径为r∈[0,min(w1,h1)]的局部图块,在t帧Ir,x,y∈Nt
与现有技术相比,本发明具有以下有益效果:
1)能够通过样本学习,获得目标相关的局部特征表达,这种特征表达具有相当强的判别能力,对目标和背景的分类起到关键作用,大幅度提高了目标跟踪能力,尤其是当跟踪过程中出现遮挡、目标形变等情况时,本发明的方法具有明显的优越性。
2)表观模型的更新机制以大量局部单元为基础,这些局部单元在目标物体发生形变或出现遮挡时,依然能够保持自身的稳定性。这种更新机制保证了在长时间的跟踪过程中,表观模型不易受遮挡和形变的影响,具有较好的场景适应能力。
附图说明
图1为本发明的方法中所涉及的稀疏自动编码机结构示意图。
图2为本发明的方法执行步骤示意图。
图3为本发明方法为跟踪具有剧烈形变挑战的视频序列“trans”时,计算所得的置信度图,以及描述目标所在位置和大小的矩形框。
图4为本发明方法为跟踪具有尺度变化的视频序列“carScale”时,计算所得的置信度图,以及描述目标所在位置和大小的矩形框。
具体实施方式
下面结合附图对本发明做进一步的描述,但本发明的实施方式并不限于此。
本发明的方法执行步骤示意图如附图1所示,具体包括如下步骤:
S1.给定第一帧图像I及其对应的目标区域,抽取目标区域内的所有像素:
P={(x,y)|x1≤x≤x1+w1,y1≤y≤y1+h1}
其中,x1和y1表示目标区域所在的最小横纵坐标,w1和h1分别表示目标区域的宽和高,P为目标区域内的所有像素点集;
同时,提取背景区域内的所有像素:
N={(x,y)|x<x1}∪{(x,y)|x>x1+w1}∪{(x,y)|y<y1}∪{(x,y)|y>y1+h1}这里,N表示非目标区域,即背景区域内的所有像素点集。然后,分别提取所有目标相关的局部块Upos和所有背景相关的局部块Uneg
Upos={Ir,x,y|(x,y)∈P},Uneg={Ir,x,y|(x,y)∈N}
其中,r=7为预先设定的局部块半径。在此基础上,定义如图1所示的三层稀疏自动编码机作为待训练的表观模型,该自动编码机是一个三层神经网络,其中输入层有(2r+1)2个节点,用于接收输入的局部块;隐含层的节点个数是输入层的1/4,用于获取针对目标和背景的判别特征;输出层有1个节点,输出结果为输入局部块属于目标的置信度。表观模型的训练和构建过程最终通过下式实现:
Figure GDA0002029623740000061
其中,ω是网络的权值,
Figure GDA0002029623740000062
是输入的第i个局部块,
Figure GDA0002029623740000063
表示网络输出,即局部块
Figure GDA0002029623740000064
所对应的目标置信度。
S2.获取视频序列的下一帧图像,设U为包含新一帧图像中所有像素点的集合,则对于集合U中的每一个元素,即图像中的每一个像素点(x,y),均可找到一个以该像素点为中心,且大小为r=7的局部块Ir,x,y。利用步骤S1中所构造的表观模型,即稀疏自动编码机,可得到局部块Ir,x,y所对应的目标置信度φ(ω,Ir,x,y)。在此基础上,可以计算出与一幅与图像大小相同的置信度图C,其中C(x,y)=φ(ω,Ir,x,y),该置信度图反映了目标物体出现位置的大致分布情况,对进一步估计目标所在位置及其大小具有重要的指导作用。
S3.生成大量的用于描述目标位置和大小的候选矩形框{c1,c2,…,cn},计算每个候选矩形框的得分Sci,并选取得分最高的候选矩形框以最终确定目标所在位置和大小。其中,得分Sci由以下两个因素决定:1)候选矩形框中所有局部块的目标置信度总和Mci;2)候选矩形框中高置信度局部块所占的比例Rci。Mci可由下式计算得到:
Figure GDA0002029623740000065
要计算Rci,先找出候选矩形框中置信度较高的局部块:
Figure GDA0002029623740000071
其中Thigh为预先设定的阈值,置信度高于此阈值的局部块可以认为其置信度较高,即属于目标的一部分。则Rci的计算方式如下:
Figure GDA0002029623740000072
上式中,
Figure GDA0002029623740000073
表示为候选矩形框所包含的局部块总个数。最后,可以通过式子
Figure GDA0002029623740000074
找出最佳的描述目标所在位置和大小的矩形框。
S4.设当前帧为视频序列中的第t帧,且已计算出目标置信度图Ct,同时已找出描述目标所在位置和大小的最佳矩形框。则分别选出目标置信度较高和较低的局部块:
Pt={Ir,x,y|C(x,y)>Tpos},Nt={Ir,x,y|C(x,y)<Tneg},
其中,Tpos和Tneg均为预先设定的阈值,Pt和Nt分别表示置信度较高和较低的局部块集合。在此基础上,通过求解下式实现表观模型的更新:
Figure GDA0002029623740000075
ω是权重,Ir,x,y是一个以(x,y)为圆心,半径为r∈[0,min(w1,h1)]的局部图块,在t帧Ir,x,y∈Nt
S5.判断当前帧是否为视频的最后一帧,若是则结束;否则转入S2。
图3是跟踪具有剧烈形变挑战的视频序列“trans”时,计算所得的目标置信度图,以及描述目标所在位置和大小的矩形框。图3(a)和图3(b)分别为计算所得的置信度图和跟踪结果。该图表现出本发明的目标跟踪方法对目标剧烈形变的较强适应能力;图4是跟踪具有尺度变化的视频序列“carScale”时,计算所得的目标置信度图,以及描述目标所在位置和大小的矩形框。图4(a)和图4(b)分别为计算所得的置信度图和跟踪结果,该图表现出本发明的目标跟踪方法对目标尺寸大小的较强适应能力。
以上所述的本发明的实施方式,并不构成对本发明保护范围的限定。任何在本发明的精神原则之内所作出的修改、等同替换和改进等,均应包含在本发明的权利要求保护范围之内。

Claims (3)

1.一种基于局部特征学习的目标跟踪方法,其特征在于,包括以下步骤:
S1.在视频的第一帧中,将目标区域和背景区域分解成大量的局部单元,以分解后的大量局部单元作为训练样本,采用深度学习的方式训练、构建表观模型,学习出目标的局部表达;
S2.获取视频的下一帧,计算图像中每个局部区域属于目标的置信度,得到用于目标定位的置信度图;
S3.根据置信度图确定目标所在的位置和大小,并令k=1;
S4.从该帧的整幅图像中选取第k个局部区域,当该局部区域的目标置信度大于设定的阈值Tpos,则转入步骤S5,否则转入步骤S6;
S5.将该局部区域加入到目标样本训练集,转入步骤S7;
S6.当该局部区域的目标置信度小于设定的阈值Tneg,将该局部区域加入到背景样本集;
S7.当第k个局部区域所指向的局部区域是最后一个局部区域,则利用目标样本训练集和背景样本训练集更新表观模型,同时跳转至步骤S8;否则将k+1赋值给k,转入步骤S4;
S8.判断当前帧是否为视频的最后一帧,若是则结束;否则转入步骤S2;
所述步骤S1中所建立的表观模型是通过对大量局部区域进行学习而得到的,具体的表观模型构造方法为:
给定第一帧图像I及其对应的目标区域,抽取目标区域内的所有像素:
P={(x,y)|x1≤x≤x1+w1,y1≤y≤y1+h1}
其中,x1和y1表示目标区域所在的最小横纵坐标,w1和h1分别表示目标区域的宽和高,P为目标区域内的所有像素点集;
同时,提取背景区域内的所有像素:
N={(x,y)|x<x1}∪{(x,y)|x>x1+w1}∪{(x,y)|y<y1}∪{(x,y)|y>y1+h1}
这里,N表示非目标区域,即背景区域内的所有像素点集;
然后,分别提取所有目标相关的局部块Upos和所有背景相关的局部块Uneg
Upos={Ir,x,y|(x,y)∈P}
Uneg={Ir,x,y|(x,y)∈N}
其中,r为预先设定的局部块半径;
定义三层稀疏,其中自动编码机作为待训练的表观模型,该自动编码机是一个三层神经网络,其中输入层有(2r+1)2个节点,用于接收输入的局部块;隐含层的节点个数是输入层的1/4,用于获取针对目标和背景的判别特征;输出层有1个节点,输出结果为输入局部块属于目标的置信度;
表观模型的训练和构建过程最终通过下式实现:
Figure FDA0002216219260000021
其中,ω是网络的权值,
Figure FDA0002216219260000022
是输入的第i个局部块,
Figure FDA0002216219260000023
表示网络输出,即局部块
Figure FDA0002216219260000024
所对应的目标置信度。
2.根据权利要求1所述的基于局部特征学习的目标跟踪方法,其特征在于,所述步骤S2中对于新一帧的图像,根据所构建的表观模型,计算出其对应的目标置信度图;具体实现如下:
设U为包含新一帧图像中所有像素点的集合,则对于集合U中的每一个元素,即图像中的每一个像素点(x,y),均能够找到一个以该像素点为中心,且大小为r的局部块Ir,x,y;利用步骤S1中所构造的表观模型,即稀疏自动编码机,得到局部块Ir,x,y所对应的目标置信度φ(ω,Ir,x,y);在此基础上,计算出与一幅图像大小相同的置信度图C,其中C(x,y)=φ(ω,Ir,x,y),该置信度图反映了目标物体出现位置的大致分布情况,对进一步估计目标所在位置及其大小具有重要的指导作用。
3.根据权利要求2所述的基于局部特征学习 的目标跟踪方法,其特征在于,所述步骤S3中计算目标所在位置和大小的方法,具体方法如下:
生成大量的用于描述目标位置和大小的候选矩形框{c1,c2,…,cn},计算每个候选矩形框的得分Sci,并选取得分最高的候选矩形框以最终确定目标所在位置和大小;其中,得分Sci由以下两个因素决定:1)候选矩形框中所有局部块的目标置信度总和Mci;2)候选矩形框中高置信度局部块所占的比例Rci;Mci由下式计算得到:
Figure FDA0002216219260000031
要计算Rci,先找出候选矩形框中置信度较高的局部块:
Figure FDA0002216219260000032
其中Thigh为预先设定的阈值,置信度高于此阈值的局部块认为其置信度较高,即属于目标的一部分;则Rci的计算方式如下:
Figure FDA0002216219260000033
上式中,
Figure FDA0002216219260000034
表示为候选矩形框所包含的局部块总个数;最后,通过式子
Figure FDA0002216219260000035
找出最佳的描述目标所在位置和大小的矩形框。
CN201610024953.0A 2016-01-13 2016-01-13 基于局部特征学习的目标跟踪方法 Active CN105678338B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610024953.0A CN105678338B (zh) 2016-01-13 2016-01-13 基于局部特征学习的目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610024953.0A CN105678338B (zh) 2016-01-13 2016-01-13 基于局部特征学习的目标跟踪方法

Publications (2)

Publication Number Publication Date
CN105678338A CN105678338A (zh) 2016-06-15
CN105678338B true CN105678338B (zh) 2020-04-14

Family

ID=56300797

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610024953.0A Active CN105678338B (zh) 2016-01-13 2016-01-13 基于局部特征学习的目标跟踪方法

Country Status (1)

Country Link
CN (1) CN105678338B (zh)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106326924A (zh) * 2016-08-23 2017-01-11 武汉大学 一种基于局部分类的目标跟踪方法及系统
CN106770967B (zh) * 2017-01-06 2019-02-12 重庆大学 基于一类局部表达模型的电子鼻非目标干扰气体识别方法
US10586111B2 (en) 2017-01-13 2020-03-10 Google Llc Using machine learning to detect which part of the screen includes embedded frames of an uploaded video
CN106920248A (zh) * 2017-01-19 2017-07-04 博康智能信息技术有限公司上海分公司 一种目标跟踪方法及装置
CN106909885A (zh) * 2017-01-19 2017-06-30 博康智能信息技术有限公司上海分公司 一种基于目标候选的目标跟踪方法及装置
CN106920247A (zh) * 2017-01-19 2017-07-04 博康智能信息技术有限公司上海分公司 一种基于比对网络的目标跟踪方法及装置
CN106934425B (zh) * 2017-03-23 2019-12-03 南京汇川图像视觉技术有限公司 一种基于深度学习的工业产品清点方法
CN107784279B (zh) * 2017-10-18 2020-09-01 北京小米移动软件有限公司 目标跟踪方法及装置
CN108055501A (zh) * 2017-11-22 2018-05-18 天津市亚安科技有限公司 一种目标检测及跟踪的视频监控系统及方法
CN109540138B (zh) * 2018-11-12 2021-05-25 中南大学 基于视觉神经网络的室内导航方法、系统及可读存储器
CN109740553B (zh) * 2019-01-09 2023-05-05 贵州宽凳智云科技有限公司 一种基于识别的图像语义分割数据筛选方法及系统
CN110555870B (zh) * 2019-09-09 2021-07-27 北京理工大学 基于神经网络的dcf跟踪置信度评价与分类器更新方法
CN114926650A (zh) * 2022-04-11 2022-08-19 华南农业大学 基于多特征的滤波器降帧更新方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101777184A (zh) * 2009-11-11 2010-07-14 中国科学院自动化研究所 基于局部距离学习和排序队列的视觉目标跟踪方法
CN103366382A (zh) * 2013-07-04 2013-10-23 电子科技大学 一种基于超像素的主动轮廓跟踪方法
CN103413323A (zh) * 2013-07-25 2013-11-27 华南农业大学 基于部件级表观模型的物体跟踪方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999052068A1 (en) * 1998-04-03 1999-10-14 Koninklijke Philips Electronics N.V. Image processing method and system involving contour detection steps

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101777184A (zh) * 2009-11-11 2010-07-14 中国科学院自动化研究所 基于局部距离学习和排序队列的视觉目标跟踪方法
CN103366382A (zh) * 2013-07-04 2013-10-23 电子科技大学 一种基于超像素的主动轮廓跟踪方法
CN103413323A (zh) * 2013-07-25 2013-11-27 华南农业大学 基于部件级表观模型的物体跟踪方法

Also Published As

Publication number Publication date
CN105678338A (zh) 2016-06-15

Similar Documents

Publication Publication Date Title
CN105678338B (zh) 基于局部特征学习的目标跟踪方法
CN109636829B (zh) 一种基于语义信息和场景信息的多目标跟踪方法
CN105335986B (zh) 基于特征匹配和MeanShift算法的目标跟踪方法
CN106875406B (zh) 图像引导的视频语义对象分割方法及装置
CN106997597B (zh) 一种基于有监督显著性检测的目标跟踪方法
CN103116896B (zh) 一种基于视觉显著性模型的自动检测跟踪方法
CN109903331B (zh) 一种基于rgb-d相机的卷积神经网络目标检测方法
CN107633226B (zh) 一种人体动作跟踪特征处理方法
CN110472467A (zh) 基于YOLO v3的针对交通枢纽关键物体的检测方法
CN108171141B (zh) 基于注意力模型的级联多模式融合的视频目标跟踪方法
CN108596211B (zh) 一种基于集中学习与深度网络学习的遮挡行人再识别方法
CN111882586B (zh) 一种面向剧场环境的多演员目标跟踪方法
CN113744311A (zh) 基于全连接注意力模块的孪生神经网络运动目标跟踪方法
CN105809672A (zh) 一种基于超像素和结构化约束的图像多目标协同分割方法
Zheng et al. Improvement of grayscale image 2D maximum entropy threshold segmentation method
CN106952294A (zh) 一种基于rgb‑d数据的视频跟踪方法
CN113963032A (zh) 一种融合目标重识别的孪生网络结构目标跟踪方法
CN110956158A (zh) 一种基于教师学生学习框架的遮挡行人再标识方法
CN109712171B (zh) 一种基于相关滤波器的目标跟踪系统及目标跟踪方法
CN109697727A (zh) 基于相关滤波和度量学习的目标跟踪方法、系统及存储介质
CN112233145A (zh) 一种基于rgb-d时空上下文模型的多目标遮挡跟踪方法
CN111191531A (zh) 一种快速行人检测方法及系统
CN114139631A (zh) 一种面向多目标训练对象可选择的灰盒的对抗样本生成方法
CN113327269A (zh) 一种无标记颈椎运动检测方法
CN111191659B (zh) 服装生产系统多形状衣架识别方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant