CN105096343A - 一种移动目标跟踪方法及装置 - Google Patents
一种移动目标跟踪方法及装置 Download PDFInfo
- Publication number
- CN105096343A CN105096343A CN201510501683.3A CN201510501683A CN105096343A CN 105096343 A CN105096343 A CN 105096343A CN 201510501683 A CN201510501683 A CN 201510501683A CN 105096343 A CN105096343 A CN 105096343A
- Authority
- CN
- China
- Prior art keywords
- target
- candidate
- present frame
- tracking
- template
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
Landscapes
- Image Analysis (AREA)
Abstract
本发明实施例提供了一种移动目标跟踪方法及装置,涉及通信领域,用以使现有目标跟踪算法在复杂的场景下达到更为精确且鲁棒的跟踪结果。获取跟踪目标在当前帧上的利用重建表达式表达的至少两个候选目标;利用稀疏表达模型建立每个所述候选目标的观测表达;利用高斯回归过程计算每个所述候选目标的真实表达,其中,所述高斯回归过程根据第一目标模板以及所述第一模板的时间序列作为训练集构建,所述第一目标模板包含n个当前帧之前定位的目标,n大于等于5;将真实表达与观测表达之间差距最小的候选目标确定为当前帧的目标;根据所述当前帧的目标,更新所述第一目标模板,获取第二目标模板。本发明实施例应用于目标跟踪领域。
Description
技术领域
本发明涉及通信领域,尤其涉及一种移动目标跟踪方法及装置。
背景技术
移动目标跟踪是指给定初始视频帧上目标的运动状态,在后续视频帧序列中估计目标的运动状态,移动目标跟踪已成为智能技术领域中的核心技术之一,在国民经济甚至国防领域中都有着广泛应用。近年来,目标跟踪的研究已取得长足进步,使得跟踪算法的性能不断提升,目标表达方法对跟踪算法非常重要,目标表达方法中最经典的表达方法是子空间学习方法。
现有技术中,子空间学习方法是基于在视频帧序列中的跟踪目标相似性,假设跟踪目标存在于一个低维的子空间中,子空间学习方法首先在之前帧上定位的目标上使用主成分分析方法学习得到子空间的基向量,构建出低维子空间。在后续帧中,进一步将候选目标分别经由学习构建出的低维子空间重建,并在当前帧上对每个候选目标计算表达误差,将表达误差最小的候选目标确定为当前帧上的目标,子空间学习方法可以有效处理小幅度的目标姿态变化、场景的光照变化。
在实现本发明过程中,发明人发现现有技术中至少存在如下问题:
子空间学习方法虽然采用主成分分析方法构建低维子空间,由于主成分分析方法青睐于具有大方差的特征维度,而目标跟踪中特征的大方差通常是由于遮挡物引起的。因此,在子空间学习方法中,除了跟踪目标,子空间还学习到了遮挡物的信息。这使得子空间在后续的目标跟踪中将会同样很好的重建遮挡物,进而使得跟踪结果表现不稳定甚至导致跟踪失败。
发明内容
本发明的实施例提供一种移动目标跟踪方法及装置,用以使现有目标跟踪算法在复杂的场景下达到更为精确且鲁棒的跟踪结果。
为达到上述目的,本发明的实施例采用如下技术方案:
第一方面,本发明实施例提供了一种移动目标跟踪方法,包括:
获取跟踪目标在当前帧上的利用重建表达式表达的至少两个候选目标;
利用稀疏表达模型建立每个所述候选目标的观测表达;
利用高斯回归过程计算每个所述候选目标的真实表达,其中,所述高斯回归过程根据第一目标模板以及所述第一模板的时间序列作为训练集构建,所述第一目标模板包含n个当前帧之前定位的目标,n大于等于5;
将真实表达与观测表达之间差距最小的候选目标确定为当前帧的目标;
根据所述当前帧的目标,更新所述第一目标模板,获取第二目标模板。
结合第一方面,在第一方面的第一种可能的实现方式中,所述获取跟踪目标在当前帧上的利用重建表达式表达的至少两个候选目标,包括:
基于粒子滤波技术从所述当前帧上确定跟踪目标的目标位置;
根据所述跟踪目标的目标位置,将所述目标位置所对应的图像区域从所述当前帧上切割出来构成所述跟踪目标的图像块集合,所述图像块为统一大小的图像块;
将所述跟踪目标的图像块分别拉成列向量;
利用X=DZ对所述列向量进行重建,获得用重建表达式表达的候选目标,其中,X为候选目标,D为候选目标的重建矩阵,Z为列向量。
结合第一方面的第一种可能的实现方式,还提供了第一方面的第二种可能的实现方式,所述基于粒子滤波技术从所述当前帧上确定跟踪目标的目标位置,包括:
采用粒子滤波得到至少两个粒子在所述当前帧之前的每一帧对应的候选观测区域,其中,所述候选观测区域用si={xi,yi,σ}表示,所述si为第i帧粒子的运动状态变量,xi和yi分别为候选观测区域在第i帧上的二维坐标,σ为候选观测区域尺度缩放系数的方差;
根据当前帧粒子的运动状态转移模型p(st|st-1)~N(st|st-1,∑)以及跟踪目标前一帧运动状态的后验概率分布p(st|y1:t-1)=∫p(st|st-1)p(st-1|y1:t-1)dst-1估计当前帧上每个粒子的运动状态st;
用所述当前帧上每个粒子的运动状态st更新所述p(st|y1:t-1)=∫p(st|st-1)p(st-1|y1:t-1)dst-1,得到更新后的后验概率分布其中,st表示当前帧上每个粒子的运动状态,st-1表示跟踪目标的前一帧的运动状态,∑为协方差矩阵,其对角元素分别表示粒子的二维平移和尺度缩放系数方差;
根据使得所述p(st|c,y1:t-1)概率最大的粒子的运动状态确定为所述跟踪目标在当前帧上的目标位置。
结合第一方面的第一种可能的实现方式,还提供了第一方面的第三种可能的实现方式,所述利用稀疏表达模型建立所述候选目标的观测表达,包括:
对所述重建表达式X=DZ中的Z施加线性约束,得到基于稀疏表达模型的候选目标的观测表达:
fD(X)=max(|z*|)
其中,X为候选目标,D为候选目标的重建矩阵,|z*|表示逐个求取原始候选目标列向量z*中个各元素的绝对值。
结合第一方面的第一种可能的实现方式,还提供了第一方面的第四种可能的实现方式,所述z*满足如下条件:
结合第一方面,在第一方面的第五种可能的实现方式中,所述利用高斯回归过程计算每个所述候选目标的真实表达,包括:
根据高斯回归过程gT(T)~GP(μ(T),κ(T))计算所述候选目标的真实表达gT(c);其中,高斯回归过程是以{T,fT(T)}为训练样本构建的,所述T为第一目标模板的时间序列函数,所述fT(T)为基于时间序列函数联合表达n个当前帧之前定位的目标;
所述μ(T)为均值函数,且
所述κ(T)为协方差函数,且
其中,所述ν表示该高斯回归过程的噪声功率,τ为指数函数的尺度参数。
结合第一方面,在第一方面的第六种可能的实现方式中,所述根据所述当前帧的目标,更新所述第一目标模板,获取第二目标模板包括:
计算每一帧视频中所述候选目标与所述第一目标模板之间的相关性;
当所述相关性小于预先定义的阈值时,将具有最小相关性的所述第一目标模板用所述当前帧的目标替换;
将所述当前帧的目标插入到所述第一目标模板的联合时间序列中,得到第二目标模板。
第二方面,本发明实施例还提供了一种移动目标跟踪装置,包括:
获取单元,用于获取跟踪目标在当前帧上的利用重建表达式表达的至少两个候选目标;
建立单元,用于利用稀疏表达模型建立每个所述候选目标的观测表达;
计算单元,用于利用高斯回归过程计算每个所述候选目标的真实表达,其中,所述高斯回归过程根据第一目标模板以及所述第一模板的时间序列作为训练集构建,所述第一目标模板包含n个当前帧之前定位的目标,n大于等于5,得到候选目标的真实表达
定位单元,用于将真实表达与观测表达之间差距最小的候选目标确定为当前帧的目标;
更新单元,根据所述当前帧的目标,更新所述第一目标模板,获取第二目标模板。
结合第二方面,在第二方面的第一种可能实现方式中,所述获取单元包括:
获取模块,用于基于粒子滤波技术从所述当前帧上确定跟踪目标的目标位置;
切割模块,用于根据所述跟踪目标的目标位置,将所述目标位置所对应的图像区域从所述当前帧上切割出来构成所述跟踪目标的图像块集合,所述图像块为统一大小的图像块;
生成模块,用于将所述跟踪目标的图像块分别拉成列向量;
重建模块,用于利用X=DZ对所述列向量进行重建,获得用重建表达式表达的候选目标,其中,X为候选目标,D为候选目标的重建矩阵,Z为列向量。
结合第二方面的第一种可能实现方式,在第二方面的第二种可能实现方式中,所述获取模块具体用于:
采用粒子滤波得到至少两个粒子在所述当前帧之前的每一帧对应的候选观测区域,其中,所述候选观测区域用si={xi,yi,σ}表示,所述si为第i帧粒子的运动状态变量,xi和yi分别为候选观测区域在第i帧上的二维坐标,σ为候选观测区域尺度缩放系数的方差;
根据当前帧粒子的运动状态转移模型p(st|st-1)~N(st|st-1,∑)以及跟踪目标前一帧运动状态的后验概率分布p(st|y1:t-1)=∫p(st|st-1)p(st-1|y1:t-1)dst-1估计当前帧上每个粒子的运动状态st;
用所述当前帧上每个粒子的运动状态st更新所述p(st|y1:t-1)=∫p(st|st-1)p(st-1|y1:t-1)dst-1,得到更新后的后验概率分布其中,st表示当前帧上每个粒子的运动状态,st-1表示跟踪目标的前一帧的运动状态,∑为协方差矩阵,其对角元素分别表示粒子的二维平移和尺度缩放系数方差;
根据使得所述p(st|c,y1:t-1)概率最大的粒子的运动状态确定为所述跟踪目标在当前帧上的目标位置。
结合第二方面的第一种可能实现方式,在第二方面的第三种可能实现方式中,所述建立单元具体用于:
对所述重建表达式X=DZ中的Z施加线性约束,得到基于稀疏表达模型的候选目标的观测表达:
fD(X)=max(|z*|)
其中,X为候选目标,D为候选目标的重建矩阵,|z*|表示逐个求取原始候选目标列向量z*中个各元素的绝对值。
结合第二方面的第三种可能实现方式,在第二方面的第四种可能实现方式中,所述z*满足如下条件:
结合第二方面,在第二方面的第五种可能实现方式中,所述计算模块具体用于:
根据高斯回归过程gT(T)~GP(μ(T),κ(T))计算所述候选目标的真实表达gT(c);其中,高斯回归过程是以{T,fT(T)}为训练样本构建的,所述T为第一目标模板的时间序列函数,所述fT(T)为基于时间序列函数联合表达n个当前帧之前定位的目标;
所述μ(T)为均值函数,且
所述κ(T)为协方差函数,且
其中,所述ν表示该高斯回归过程的噪声功率,τ为指数函数的尺度参数。
结合第二方面,在第二方面的第六种可能实现方式中,所述更新单元,包括:
计算模块,用于计算每一帧视频中所述候选目标与所述第一目标模板之间的相关性;
替换模块,用于当所述相关性小于预先定义的阈值时,将具有最小相关性的所述第一目标模板用所述当前帧的目标替换;
插入模块,用于将所述当前帧的目标插入到所述第一目标模板的联合时间序列中,得到第二目标模板。
本发明实施例提供了一种移动目标跟踪方法及装置,获取跟踪目标在当前帧上的利用重建表达式表达的至少两个候选目标;利用稀疏表达模型建立每个所述候选目标的观测表达;利用高斯回归过程计算每个所述候选目标的真实表达;将真实表达与观测表达之间差距最小的候选目标确定为当前帧的目标;根据所述当前帧的目标,更新所述第一目标模板,获取第二目标模板。本发明通过建立所述候选目标的稀疏表达模型,有效处理在目标跟踪过程中涉及到的遮挡的问题,在稀疏表达模型基础上提出的高斯回归过程,将目标跟踪建模成高斯回归过程,通过高斯回归过程估计候选目标的真实表达,真实表达接近其观测表达,从而使得其成为目标的可能性较大,本发明所提出的表达方法在姿态变化场景和遮挡物场下较为精确且鲁棒,从而可以高效地估计候选目标成为目标的可能性,使得目标定位的性能更好。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例一提供的一种移动目标跟踪方法流程示意图一;
图2为本发明实施例一提供的一种移动目标跟踪方法流程示意图二;
图3a-图3b为本发明实施例一提供的一种移动目标跟踪方法中的目标模板数量与跟踪误差及重叠率阈值之间的示意图;
图4a-图4b为本发明实施例一提供的在姿态变化和遮挡场景下采用本发明的移动目标跟踪方法对目标进行定位的示意图;
图5为本发明实施例二提供的一种移动目标跟踪装置的结构示意图一;
图6为本发明实施例二提供的一种移动目标跟踪装置的流程示意图二。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例一
本发明实施例提供了一种移动目标跟踪方法,如图1所示,包括:
步骤101、获取跟踪目标在当前帧上的利用重建表达式表达的至少两个候选目标;
其中,跟踪目标可以是智能交通中对肇事车辆的自动视频监控或家庭中智能娱乐设备控制中对运动人体的自动跟踪或手机摄像头对移动目标的快速捕获或采用高清摄像头采集的全景图像,该跟踪目标不影响本发明目的的实现,本发明实施例对此不进行限制。
通过重建表达可以在跟踪过程中去除由遮挡物引起的误差,使得对跟踪目标跟踪的更加有利。例如,本发明实施例中通过构建重建矩阵D对原始候选目标进行重建表达,得到利用重建表达式x=DZ表达的候选目标,其中,x为候选目标,D为候选目标的重建矩阵,Z为原始候选目标(可以用列向量表示)。
示例性的,如图2所示,步骤101可以通过步骤A1-A4具体实现:
A1、基于粒子滤波技术从所述当前帧上确定跟踪目标的目标位置;
粒子滤波是指通过寻找一组在状态空间中传播的随机样本来近似的表示概率密度函数,进而获得系统状态的最小方差估计的过程。其核心思想是通过从后验概率中抽取的随机状态粒子来表达其分布,通过粒子的运动状态转移模型计算粒子在下一刻的运动状态变量。
具体的,步骤A1可以包括:
A11、采用粒子滤波得到至少两个粒子在所述当前帧之前的每一帧对应的候选观测区域,其中,所述候选观测区域用si={xi,yi,σ}表示,所述si为第i帧粒子的运动状态变量,xi和yi分别为候选观测区域在第i帧上的二维坐标,σ为候选观测区域尺度缩放系数的方差;
基于粒子滤波技术对当前帧的图像进行处理,可以生成多个粒子,每个粒子分别对应当前帧的一个图像区域,每个图像区域可以划分为多个图像块。本发明实施例中,将一个粒子对应的图像区域定义为一个候选目标的观测区域,记为si={xi,yi,σ},例如:
A12、根据当前帧粒子的运动状态转移模型p(st|st-1)~N(st|st-1,∑)以及跟踪目标前一帧运动状态的后验概率分布p(st|y1:t-1)=∫p(st|st-1)p(st-1|y1:t-1)dst-1估计当前帧上每个粒子的运动状态st;
A13、用所述当前帧上每个粒子的运动状态st更新所述p(st|y1:t-1)=∫p(st|st-1)p(st-1|y1:t-1)dst-1,得到更新后的后验概率分布其中,st表示当前帧上每个粒子的运动状态,st-1表示跟踪目标的前一帧的运动状态,∑为协方差矩阵,∑的对角元素分别表示粒子的二维平移和尺度缩放系数方差;
A14、根据使得所述p(st|c,y1:t-1)概率最大的粒子的运动状态确定为所述跟踪目标在当前帧上的目标位置。
基于相邻帧之间xt和xt-1帧之间目标移动特点很小,可以认为当前帧的候选目标的观测区域对应于上一帧候选目标的观测区域。假设粒子的运动状态转移模型服从高斯分布,即p(st|st-1)~N(st|st-1,∑),即新的状态从前一时刻状态的后验概率分布p(st|y1:t-1)=∫p(st|st-1)p(st-1|y1:t-1)dst-1和粒子的运动状态转移模型采样而得到。
A2、根据所述跟踪目标的目标位置,将所述目标位置所对应的图像区域从所述当前帧上切割出来构成所述跟踪目标的图像块集合,所述图像块为统一大小的图像块;
A3、将所述跟踪目标的图像块分别拉成列向量;
需要说明的是,在本实施例中,候选目标的原始观测为状态所定义的候选观测区域的图像块,然后将其采样并拉成列向量,成为稀疏表达中实际使用的原始候选目标。
A4、利用x=DZ对所述列向量进行重建,获得用重建表达式表达的候选目标,其中,x为候选目标,D为候选目标的重建矩阵,Z为列向量。
需要说明的是,在执行步骤101之前,本发明可以还包括将原始图像像素原始图像像素转换成灰度值像素,这是因为随着时间的变化,原始图像像素,例如,彩色图像像素,黑白图像像素可能随着光线发生变化,为了抑制光照变化的影响,可以在获取候选目标之前将原始图像像素转换成灰度图像。这样可以进一步降低装置的运算量,提高装置的实时处理能力。
步骤102、利用稀疏表达模型建立每个所述候选目标的观测表达。
由于稀疏表达能够在目标跟踪过程中将遮挡物视为所处理候选目标中的“野点”。所以,本发明采用稀疏表达构建候选目标,并对表达误差施加以稀疏性约束,以处理遮挡类跟踪问题。
示例性的,步骤102的具体步骤包括:
对所述重建表达式x=DZ中的Z施加线性约束,得到基于稀疏表达模型的候选目标的观测表达:
fD(X)=max(|z*|)
其中,X为候选目标,D为候选目标的重建矩阵,|z*|表示逐个求取原始候选目标列向量z*中个各元素的绝对值;
z*满足如下条件:
其中,e表示表达误差,dj表示矩阵D的第j列,λ>0是一个加权参数,优选的,本发明设置λ=1。
在公式 中,施加在z上的稀疏性约束使得x与dj之间的近邻关系得以体现。同时,当x等于D中的某一列,即是说x可以自己表达自己,会使得本发明设计的表达方法没有任何意义。因此本发明在公式 中约束,当x=dj的时候,令zj=0。
需要说明的是,本发明的 可以通过现有技术中的相关算法进行求解,例如:OMP(正交匹配跟踪算法,OrthogonalMatchingPursuit)、LASSO等算法,本发明在此不再赘述。
示例性的,施加在Z上的稀疏性约束使得x与dj之间的近邻关系得以体现,本发明通过以下几何观点,对本发明的稀疏表达模型作进一步解释:
定理1:公式 中的系数zj定义了一个quasi-semi-度量,用以度量x与dj之间的距离δ(x,dj)
定理2:在公式fD(x)=max(|z*|)中,函数fD(x)定义了一个列向量z与一个矩阵D之间的距离δ(X,D),如公式所示:
基于定理1和定理2,本发明构建的稀疏表达模型实质即分析向量x与矩阵D的每一列dj在定理1中公式定义的距离意义下的相似性,并使用最大相似性取值(即最小距离)来通过D表达x。
步骤103、利用高斯回归过程计算每个所述候选目标的真实表达,其中,所述高斯回归过程根据第一目标模板以及所述第一模板的时间序列作为训练集构建,所述第一目标模板包含n个当前帧之前定位的目标,n大于等于5,得到候选目标的真实表达;
第一目标模板是指在跟踪过程中,跟踪器定位到的当前帧之前的n个定位目标。需要说明的是,在目标跟踪的问题中,稀疏性不是我们追求的终极目标,准确性和处理速度相对来说更为重要,所以目标模板作为本发明方法中的关键参数,取值较大的n将会降低算法的运行速度。本发明实施例在进行试验时可以认为n的取值为5-20,如图3a和图3b所示,从图3a和图3b中可以看出,在n=10时,采用本发明的一种移动目标跟踪方法得到的跟踪结果中跟踪误差的精准度最高,且重叠率阈值最高。优选的,本发明实施例根据多次实验结果,最终设置为n=10。
其中,候选目标的真实表达是指通过高斯回归过程估计出的候选目标的表达。
所述高斯回归过程可以记为:gT(T)~GP(μ(T),κ(T))。
所述T为第一目标模板的时间序列函数,所述fT(T)为基于时间序列函数联合表达n个当前帧之前定位的目标;
μ(T)为均值函数,且
κ(T)为协方差函数,且
其中,所述ν表示该高斯回归过程的噪声功率,τ为指数函数的尺度参数。
所述高斯回归过程是以{T,fT(T)}为训练样本构建的,具体过程为:
首先,在目标跟踪过程中,本发明选取前n帧的跟踪器定位到的跟踪目标作为目标模板库中的第一目标模板,从我们采用列向量的形式将第一目标模板表示为:T=[t1,t2,...,tn],基于稀疏表达构建第一目标模板的稀疏表达模型,从而得到第一目标模板的观测表达fT(T),由于观测表达fT(T)T实质即分析向量t与矩阵T的每一列dj的距离意义下的相似性,并使用最大相似性取值(即最小距离)来通过T表达t。本发明通过挖掘之前已经定位到的第一目标模板之间的近邻关系,将其联合表达为一个实值时间序列,即:
fT(T)=[fT(t1),fT(t2),...,fT(tn)]T
求解fT(T)实际上等价于求解如下的问题:
fT(T)=max(|z*|)
其中,矩阵Z为表达系数,矩阵E为表达误差,对任意矩阵A,表达式‖A‖1=ΣiΣj|Aij|,其中,i和j表示矩阵A中的第i行和第j列。
fT(T)=max(|z *|)
需要说明的是,本发明实施例的公式 可以通过现有技术中的相关算法进行计算,例如,近似增强拉格朗日乘子法(inexactaugmentedLagrangemultiplier,IALM)。本发明在此不再赘述。
由于E为表达误差,假设表达误差E服从方差为的高斯分布,fD(X)体现了x和D之间的相似性。由于当稀疏加性噪声(如遮挡物)被表达误差E吸收掉之后,目标模板T彼此之间都很相似,所以,可以假设目标模板的联合表达fT(T)服从高斯分布。
基于上述分析,可得gT(T)定义了一个高斯回归过程:
gT(T)~GP(μ(T),κ(T))
其均值函数μ(T)与协方差函数κ(T)分别为:
其中参数ν表示该高斯回归过程的噪声功率,τ为指数函数的尺度参数,两者可通过对数据集的训练求得经验值。可以看出,由于表达系数|Zij|可以看作为第i个目标模板和第j个目标模板之间的关系,并且其大部分取值均为0,所以,在公式 中,通过对表达系数Z施加稀疏性约束,使得fT(T)可以自适应地的挖掘目标模板之间的近邻关系。由此,本发明中经由公式gT(T)~GP(μ(T),κ(T))定义的高斯回归过程gT(T)为局部结构约束的。
步骤104、将真实表达与观测表达之间差距最小的候选目标确定为当前帧的目标;
其中,真实表达是指本发明通过高斯回归过程估计出的候选目标;观测表达是指本发明是指通过稀疏表达模型构建的候选目标。
一个较好表达的候选目标,其真实表达均倾向于接近其观测表达,从而使得其成为目标的可能性较大。即对于一个较好表达的候选目标其真实表达和观测表达之间的差距应当尽可能小。因此,本发明定义的目标定位准则,即一个候选目标成为目标的可能性为
其中,l>0为指数函数的尺度参数,gT(c)为候选目标的观测表达,fT(c)为候选目标的真实表达;L(c)可能性值最大的候选目标即为当前目标。
示例性的,如图4a所示,图4a提供了在姿态变化下采用本发明的移动目标跟踪方法对目标进行定位的示例,示例中对一个较好表达的候选目标和两个较差表达的候选目标进行了分析,其中黑色方框代表真实表达,白色虚线方框代表观测表达,黑色格子代表候选目标成为当前目标的可能性。
通过图4a可以看出,在姿态变化的场景下,高斯回归过程很积极地响应不同的候选目标,在构建稀疏表达时由于对系数z施加局部性约束,使得对应的观测表达则表现的相对“慵懒”(差别较小),对于一个较好表达的候选目标,由于其候选目标的真实表达和观测表达之间的差异较小,故该候选目标成为目标的可能性较高。
如图4b所示,图4b提供了在遮挡场景下采用本发明的移动目标跟踪方法对目标进行定位的示例,从图4b可以看出,在遮挡场景下,高斯回归过程很积极地响应不同的候选目标,由于稀疏误差吸引了遮挡物,使得真实表达倾向于取值一致,而观测表达努力去拟合不同的候选目标,因此,对于一个较好表达的候选目标,由于其候选目标的真实表达和观测表达之间的差异较小,故该候选目标成为目标的可能性较高。
本发明所提出的目标跟踪方法在图示的两种场景下较为精确且鲁棒,从而可以高效地估计候选目标成为目标的可能性,使得目标定位的性能更好。
步骤105、根据所述当前帧的目标,更新所述第一目标模板,获取第二目标模板。
第二目标模板是指在跟踪过程中由于跟踪目标的外观不断变化,跟踪器根据当前定位的目标,当前定位的目标与第一目标模板的相关性小于预先定义的阈值时,该第一目标模板则被当前定位的目标所替换,形成新的目标模板。
需要说明的是,在对目标进行跟踪的过程中,根据需要对目标模板进行更新,用跟踪器得到的目标跟踪结果替换目标模板库中的模板。
优选的,在上述方法中取前n帧的跟踪结果作为目标模板库中的第一目标模板,从第n+1帧开始,将利用本发明移动目标跟踪算法得到的跟踪结果依次保存下来。用新得到的跟踪结果替换掉第一目标模板得到第二目标模板。
具体步骤如下:
计算每一帧视频中所述候选目标与所述第一目标模板之间的相关性;
当所述相关性小于预先定义的阈值时,将具有最小相关性的所述第一目标模板用所述当前帧的目标替换;
将所述当前帧的目标插入到所述第一目标模板的联合时间序列中,得到第二目标模板。
需要说明的是,计算候选目标与所述第一目标模板之间的相关性的方法为比较成熟的技术,具体参考文献MeiX,LingH.Robustvisualtrackingandvehicleclassificationviasparserepresentation.IEEETransactionsonPatternAnalysisandMachineIntelligence(TPAMI),2011,33(11):2259–2272.本发明在此不再赘述。
示例性的,下面给出一个应用本发明的一种移动目标跟踪方法的实验实例。
示例性的,实验条件如下:计算机操作系统WindowXP,实验平台MATLAB7.0,所采用的测试数据集为国际上主流数据集,包含16段视频,每段视频均包含有多个跟踪中的难点与挑战,如表1所示。
表1测试数据集中16段实验视频的难点与挑战
表1中标注√的地方表示在进行试验时,本发明考虑到了以上所提到的各种场景。
示例性的,在本实验实例中,本发明的一种移动目标跟踪算法使用10个目标模板,每帧生成100个候选目标,候选目标所对应的候选目标观测区域被统一缩放到20X20像素大小,另外,当前帧粒子的运动状态转移模型p(st|st-1)~N(st|st-1,∑)中,协方差矩阵∑=diag{3,3,0.005}。
本发明采用跟踪误差和重叠率阈值指标以客观评价跟踪性能,分别将本发明所提出的跟踪算法与另外7个国际主流的优秀跟踪算法(包括IVT、TLD、Struck、SCM、MTT、CT和LSST)对比,表2和表3分别给出了本发明所提出的移动目标跟踪算法和另外7个对比算法在16段测试视频上的跟踪误差和重叠率阈值为0.5时的结果,每段视频的最好结果用带有下划线的字体标出。
表2平均跟踪误差对比(单位:像素)
实验视频 | 本发明 | IVT | TLD | Struck | SCM | MTT | CT | LSST |
car4 | 2.8 | 2.6 | 6.3 | 2.5 | 3.2 | 13.3 | 70.3 | 2.7 |
car11 | 2.0 | 3.0 | 33.0 | 2.3 | 1.9 | 1.8 | 19.5 | 3.4 |
caviar1 | 1.2 | 36.2 | 9.1 | 3.0 | 1.1 | 57.2 | 13.1 | 1.3 |
caviar2 | 2.0 | 65.1 | - | 10.0 | 2.0 | 2.4 | 71.0 | 1.6 |
caviar3 | 2.7 | 66.3 | 31.7 | 57.3 | 62.1 | 66.8 | 50.5 | 3.4 |
david | 6.7 | 10.7 | 5.0 | 6.2 | 6.9 | 69.9 | 15.4 | 12.4 |
davidNew | 4.6 | 3.9 | 12.9 | 7.0 | 19.8 | 65.5 | 55.5 | 3.2 |
football | 5.5 | 16.2 | 15.5 | 14.8 | 6.0 | 13.8 | 7.9 | 24.6 |
girl | 5.5 | 23.2 | 11.9 | 4.4 | 9.1 | 3.8 | 16.9 | 24.1 |
human1 | 2.2 | 3.5 | 14.4 | 4.8 | 3.7 | 2.8 | 7.3 | 2.3 |
singer1 | 2.2 | 10.0 | 10.7 | 14.0 | 3.3 | 11.8 | 17.3 | 2.4 |
skating1 | 11.4 | 159.4 | - | 50.9 | 43.5 | 37.8 | 77.5 | 151.9 |
sylv | 8.1 | 71.3 | 6.5 | 9.6 | 23.5 | 17.3 | 10.9 | 52.5 |
thusl | 13.0 | 272.5 | 90.0 | 160.9 | 265.6 | 287.0 | 61.2 | 14.0 |
thusy | 5.6 | 275.7 | 198.3 | 66.8 | 181.1 | 326.1 | 223.1 | 218.4 |
walker | 2.4 | 17.6 | 50.1 | 11.1 | 2.9 | 2.7 | 56.4 | 63.0 |
数量合计 | 4.9 | 64.8 | 35.5 | 26.6 | 39.7 | 61.3 | 48.4 | 36.3 |
从表2可见,在前7段视频中,本发明的跟踪方法相比与IVT、SCM、MTT及LSST跟踪算法都表现很好,但是在后面9段视频中,本发明的移动目标跟踪算法相比于另外7个国际主流的算法跟踪误差明显降低。
表3重叠率阈值为0.5时的成功率对比
实验视频 | 本发明 | IVT | TLD | Struck | SCM | MTT | CT | LSST |
car4 | 1.00 | 1.00 | 0.84 | 0.38 | 1.00 | 0.33 | 0.27 | 1.00 |
car11 | 1.00 | 0.99 | 0.25 | 0.99 | 0.97 | 1.00 | 0.56 | 0.99 |
caviar1 | 1.00 | 0.26 | 0.86 | 0.99 | 1.00 | 0.30 | 0.54 | 1.00 |
caviar2 | 1.00 | 0.42 | - | 0.43 | 1.00 | 0.99 | 0.36 | 1.00 |
caviar3 | 1.00 | 0.16 | 0.17 | 0.16 | 0.16 | 0.16 | 0.15 | 1.00 |
david | 0.94 | 0.51 | 0.45 | 0.30 | 0.85 | 0.34 | 0.49 | 0.57 |
davidNew | 0.97 | 0.52 | 0.63 | 0.89 | 0.55 | 0.37 | 0.08 | 0.97 |
football | 0.93 | 0.71 | 0.73 | 0.78 | 0.70 | 0.74 | 0.77 | 0.46 |
girl | 0.85 | 0.21 | 0.29 | 0.88 | 0.68 | 0.93 | 0.24 | 0.17 |
human1 | 1.00 | 0.97 | 0.30 | 0.53 | 0.69 | 1.00 | 0.51 | 1.00 |
singer1 | 1.00 | 0.68 | 0.77 | 0.25 | 1.00 | 0.32 | 0.25 | 1.00 |
skating1 | 0.73 | 0.07 | 0.60 | 0.41 | 0.69 | 0.20 | 0.47 | 0.08 |
sylv | 0.88 | 0,45 | 0.94 | 0.84 | 0.56 | 0.76 | 0.64 | 0.59 |
thusl | 0.84 | 0,16 | 0.74 | 0.61 | 0.20 | 0.20 | 0.62 | 0.87 |
thusy | 0.98 | 0.07 | 0.64 | 0.62 | 0.33 | 0.31 | 0.24 | 0.33 |
walker | 1.00 | 0.42 | 0.21 | 0.40 | 1.00 | 0.99 | 0.38 | 0.41 |
数量合计 | 0.94 | 0.47 | 0.56 | 0.59 | 0.71 | 0.56 | 0.41 | 0.72 |
从表3中可见,在多个跟踪中的难点与挑战中本发明的跟踪方法相比与SCM、MTT及LSST跟踪算法都表现很好,但是相比于IVT、TLD、Struck及CT跟踪算法在跟踪性能有一定优势,且成功率较高。
实验证明,本发明的跟踪算法在保证跟踪误差降低的同时其重叠率阈值明显比另外7个国际主流的算法有优势,具有一定的精确性与鲁棒性。
本发明实施例提供了一种移动目标跟踪方法,获取跟踪目标在当前帧上的利用重建表达式表达的至少两个候选目标;利用稀疏表达模型建立每个所述候选目标的观测表达;利用高斯回归过程计算每个所述候选目标的真实表达;将真实表达与观测表达之间差距最小的候选目标确定为当前帧的目标;根据所述当前帧的目标,更新所述第一目标模板,获取第二目标模板。本发明建立所述候选目标的稀疏表达模型,有效处理在目标跟踪过程中涉及到的遮挡的问题,在稀疏表达模型基础上提出的高斯回归过程,将目标跟踪建模成高斯回归过程,通过高斯回归过程估计候选目标的真实表达,真实表达均倾向于接近其观测表达,从而使得其成为目标的可能性较大,本发明所提出的表达方法在姿态变化场景和遮挡物场下较为精确且鲁棒,从而可以高效地估计候选目标成为目标的可能性,使得目标定位的性能更好。
实施例二
本发明实施例提供了一种移动目标跟踪装置,如图5所示,包括:
获取单元201,用于获取跟踪目标在当前帧上的利用重建表达式表达的至少两个候选目标;
建立单元202,用于利用稀疏表达模型建立每个所述候选目标的观测表达;
计算单元203,用于利用高斯回归过程计算每个所述候选目标的真实表达,其中,所述高斯回归过程根据第一目标模板以及所述第一模板的时间序列作为训练集构建,所述第一目标模板包含n个当前帧之前定位的目标,n大于等于5,得到候选目标的真实表达;
定位单元204,用于将真实表达与观测表达之间差距最小的候选目标确定为当前帧的目标;
更新单元205,根据所述当前帧的目标,更新所述第一目标模板,获取第二目标模板。
如图6所示,可选的,所述获取单元201包括:
获取模块2011,用于基于粒子滤波技术从所述当前帧上确定跟踪目标的目标位置;
切割模块2012,用于根据所述跟踪目标的目标位置,将所述目标位置所对应的图像区域从所述当前帧上切割出来构成所述跟踪目标的图像块集合,所述图像块为统一大小的图像块;
生成模块2013,用于将所述跟踪目标的图像块分别拉成列向量;
重建模块2014,用于利用X=DZ对所述列向量进行重建,获得用重建表达式表达的候选目标,其中,X为候选目标,D为候选目标的重建矩阵,Z为列向量。
可选的,建立单元具体用于:
对所述重建表达式X=DZ中的Z施加线性约束,得到基于稀疏表达模型的候选目标的观测表达:
fD(X)=max(|z *|)
其中,X为候选目标,D为候选目标的重建矩阵,|z*|表示逐个求取原始候选目标列向量z*中个各元素的绝对值。
其中,z*满足如下条件:
可选的,计算模块具体用于:
根据高斯回归过程gT(T)~GP(μ(T),κ(T))计算候选目标的真实表达gT(c);其中,高斯回归过程是以{T,fT(T)}为训练样本构建的,T为第一目标模板的时间序列函数,fT(T)为基于时间序列函数联合表达n个当前帧之前定位的目标;
μ(T)为均值函数,且
κ(T)为协方差函数,且
其中,所述ν表示该高斯回归过程的噪声功率,τ为指数函数的尺度参数。
如图6所示,可选的,更新单元205,包括:
计算模块2051,用于计算每一帧视频中所述候选目标与所述第一目标模板之间的相关性;
替换模块2052,用于当所述相关性小于预先定义的阈值时,将具有最小相关性的所述第一目标模板用所述当前帧的目标替换;
插入模块2053,用于将所述当前帧的目标插入到所述第一目标模板的联合时间序列中,得到第二目标模板。
本发明实施例提供了一种移动目标跟踪装置,获取单元,用于获取跟踪目标在当前帧上的利用重建表达式表达的至少两个候选目标;建立单元利用稀疏表达模型建立每个所述候选目标的观测表达;计算单元利用高斯回归过程计算每个所述候选目标的真实表达;定位单元,将真实表达与观测表达之间差距最小的候选目标确定为当前帧的目标;更新单元根据所述当前帧的目标,更新所述第一目标模板,获取第二目标模板。本发明建立所述候选目标的稀疏表达模型,有效处理在目标跟踪过程中涉及到的遮挡的问题,在稀疏表达模型基础上提出的高斯回归过程,将目标跟踪建模成高斯回归过程,通过高斯回归过程估计候选目标的真实表达,真实表达均倾向于接近其观测表达,从而使得其成为目标的可能性较大,本发明所提出的表达方法在姿态变化场景和遮挡物场下较为精确且鲁棒,从而可以高效地估计候选目标成为目标的可能性,使得目标定位的性能更好。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (14)
1.一种移动目标跟踪方法,其特征在于,包括:
获取跟踪目标在当前帧上的利用重建表达式表达的至少两个候选目标;
利用稀疏表达模型建立每个所述候选目标的观测表达;
利用高斯回归过程计算每个所述候选目标的真实表达,其中,所述高斯回归过程根据第一目标模板以及所述第一模板的时间序列作为训练集构建,所述第一目标模板包含n个当前帧之前定位的目标,n大于等于5;
将真实表达与观测表达之间差距最小的候选目标确定为当前帧的目标;
根据所述当前帧的目标,更新所述第一目标模板,获取第二目标模板。
2.根据权利要求1所述的方法,其特征在于,所述获取跟踪目标在当前帧上的利用重建表达式表达的至少两个候选目标,包括:
基于粒子滤波技术从所述当前帧上确定跟踪目标的目标位置;
根据所述跟踪目标的目标位置,将所述目标位置所对应的图像区域从所述当前帧上切割出来构成所述跟踪目标的图像块集合,所述图像块为统一大小的图像块;
将所述跟踪目标的图像块分别拉成列向量;
利用X=DZ对所述列向量进行重建,获得用重建表达式表达的候选目标,其中,X为候选目标,D为候选目标的重建矩阵,Z为列向量。
3.根据权利要求2所述的方法,其特征在于,所述基于粒子滤波技术从所述当前帧上确定跟踪目标的目标位置,包括:
采用粒子滤波得到至少两个粒子在所述当前帧之前的每一帧对应的候选观测区域,其中,所述候选观测区域用si={xi,yi,σ}表示,所述si为第i帧粒子的运动状态变量,xi和yi分别为候选观测区域在第i帧上的二维坐标,σ为候选观测区域尺度缩放系数的方差;
根据当前帧粒子的运动状态转移模型p(st|st-1)-N(st|st-1,Σ)以及跟踪目标前一帧运动状态的后验概率分布p(st|y1:t-1)=∫p(st|st-1)p(st-1|y1:t-1)dst-1估计当前帧上每个粒子的运动状态st;用所述当前帧上每个粒子的运动状态st更新所述p(st|y1:t-1)=∫p(st|st-1)p(st-1|y1:t-1)dst-1,得到更新后的后验概率分布其中,st表示当前帧上每个粒子的运动状态,st-1表示跟踪目标的前一帧的运动状态,Σ为协方差矩阵,其对角元素分别表示粒子的二维平移和尺度缩放系数方差;
根据使得所述p(st|c,y1:t-1)概率最大的粒子的运动状态确定为所述跟踪目标在当前帧上的目标位置。
4.根据权利要求2所述的方法,其特征在于,所述利用稀疏表达模型建立所述候选目标的观测表达,包括:
对所述重建表达式X=DZ中的Z施加线性约束,得到基于稀疏表达模型的候选目标的观测表达:
fD(X)=max(|z*|)
其中,X为候选目标,D为候选目标的重建矩阵,|z*|表示逐个求取原始候选目标列向量z*中个各元素的绝对值。
5.根据权利要求4所述的方法,其特征在于,所述z*满足如下条件:
6.根据权利要求1所述的方法,其特征在于,所述利用高斯回归过程计算每个所述候选目标的真实表达,包括:
根据高斯回归过程gT(T)~GP(μ(T),κ(T))计算所述候选目标的真实表达gT(c);其中,高斯回归过程是以{T,fT(T)}为训练样本构建的,所述T为第一目标模板的时间序列函数,所述fT(T)为基于时间序列函数联合表达n个当前帧之前定位的目标;
所述μ(T)为均值函数,且
所述κ(T)为协方差函数,且
其中,所述ν表示该高斯回归过程的噪声功率,τ为指数函数的尺度参数。
7.根据权利要求1所述的方法,其特征在于,所述根据所述当前帧的目标,更新所述第一目标模板,获取第二目标模板包括:
计算每一帧视频中所述候选目标与所述第一目标模板之间的相关性;
当所述相关性小于预先定义的阈值时,将具有最小相关性的所述第一目标模板用所述当前帧的目标替换;
将所述当前帧的目标插入到所述第一目标模板的联合时间序列中,得到第二目标模板。
8.一种移动目标跟踪装置,其特征在于,包括:
获取单元,用于获取跟踪目标在当前帧上的利用重建表达式表达的至少两个候选目标;
建立单元,用于利用稀疏表达模型建立每个所述候选目标的观测表达;
计算单元,用于利用高斯回归过程计算每个所述候选目标的真实表达,其中,所述高斯回归过程根据第一目标模板以及所述第一模板的时间序列作为训练集构建,所述第一目标模板包含n个当前帧之前定位的目标,n大于等于5,得到候选目标的真实表达;
定位单元,用于将真实表达与观测表达之间差距最小的候选目标确定为当前帧的目标;
更新单元,根据所述当前帧的目标,更新所述第一目标模板,获取第二目标模板。
9.根据权利要求8所述的装置,其特征在于,所述获取单元包括:
获取模块,用于基于粒子滤波技术从所述当前帧上确定跟踪目标的目标位置;
切割模块,用于根据所述跟踪目标的目标位置,将所述目标位置所对应的图像区域从所述当前帧上切割出来构成所述跟踪目标的图像块集合,所述图像块为统一大小的图像块;
生成模块,用于将所述跟踪目标的图像块分别拉成列向量;
重建模块,用于利用X=DZ对所述列向量进行重建,获得用重建表达式表达的候选目标,其中,X为候选目标,D为候选目标的重建矩阵,Z为列向量。
10.根据权利要求9所述的装置,其特征在于,所述获取模块具体用于:
采用粒子滤波得到至少两个粒子在所述当前帧之前的每一帧对应的候选观测区域,其中,所述候选观测区域用si={xi,yi,σ}表示,所述si为第i帧粒子的运动状态变量,xi和yi分别为候选观测区域在第i帧上的二维坐标,σ为候选观测区域尺度缩放系数的方差;
根据当前帧粒子的运动状态转移模型p(st|st-1)~N(st|st-1,Σ)以及跟踪目标前一帧运动状态的后验概率分布p(st|y1:t-1)=∫p(st|st-1)p(st-1|y1:t-1)dst-1估计当前帧上每个粒子的运动状态st;用所述当前帧上每个粒子的运动状态st更新所述p(st|y1:t-1)=∫p(st|st-1)p(st-1|y1:t-1)dst-1,得到更新后的后验概率分布其中,st表示当前帧上每个粒子的运动状态,st-1表示跟踪目标的前一帧的运动状态,Σ为协方差矩阵,其对角元素分别表示粒子的二维平移和尺度缩放系数方差;
根据使得所述p(st|c,y1:t-1)概率最大的粒子的运动状态确定为所述跟踪目标在当前帧上的目标位置。
11.根据权利要求9所述的装置,其特征在于,所述建立单元具体用于:
对所述重建表达式X=DZ中的Z施加线性约束,得到基于稀疏表达模型的候选目标的观测表达:
fD(X)=max(|z*|)
其中,X为候选目标,D为候选目标的重建矩阵,|z*|表示逐个求取原始候选目标列向量z*中个各元素的绝对值。
12.根据权利要求11所述的装置,其特征在于,所述z*满足如下条件:
13.根据权利要求8所述的装置,其特征在于,所述计算模块具体用于:
根据高斯回归过程gT(T)~GP(μ(T),κ(T))计算所述候选目标的真实表达gT(c);其中,高斯回归过程是以{T,fT(T)}为训练样本构建的,所述T为第一目标模板的时间序列函数,所述fT(T)为基于时间序列函数联合表达n个当前帧之前定位的目标;
所述μ(T)为均值函数,且
所述κ(T)为协方差函数,且
其中,所述ν表示该高斯回归过程的噪声功率,τ为指数函数的尺度参数。
14.根据权利要求8所述的装置,其特征在于,所述更新单元,包括:
计算模块,用于计算每一帧视频中所述候选目标与所述第一目标模板之间的相关性;
替换模块,用于当所述相关性小于预先定义的阈值时,将具有最小相关性的所述第一目标模板用所述当前帧的目标替换;
插入模块,用于将所述当前帧的目标插入到所述第一目标模板的联合时间序列中,得到第二目标模板。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510501683.3A CN105096343B (zh) | 2015-08-14 | 2015-08-14 | 一种移动目标跟踪方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510501683.3A CN105096343B (zh) | 2015-08-14 | 2015-08-14 | 一种移动目标跟踪方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105096343A true CN105096343A (zh) | 2015-11-25 |
CN105096343B CN105096343B (zh) | 2018-10-30 |
Family
ID=54576681
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510501683.3A Active CN105096343B (zh) | 2015-08-14 | 2015-08-14 | 一种移动目标跟踪方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105096343B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107729800A (zh) * | 2017-06-29 | 2018-02-23 | 中国联合网络通信集团有限公司 | 移动目标跟踪方法及系统 |
CN110189356A (zh) * | 2019-04-24 | 2019-08-30 | 沈阳大学 | 一种反向低秩稀疏约束下的融合Lasso目标跟踪方法 |
CN110554687A (zh) * | 2018-05-30 | 2019-12-10 | 中国北方车辆研究所 | 一种面向未知环境的多机器人自适应探测方法 |
CN112700477A (zh) * | 2020-12-25 | 2021-04-23 | 北京环境特性研究所 | 基于背景抑制和记忆跟踪的红外目标跟踪方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102521840A (zh) * | 2011-11-18 | 2012-06-27 | 深圳市宝捷信科技有限公司 | 一种运动目标跟踪方法、系统及终端 |
CN102592138A (zh) * | 2011-12-30 | 2012-07-18 | 上海电力学院 | 基于多模块稀疏投影的密集场景目标跟踪方法 |
CN102831617A (zh) * | 2012-07-17 | 2012-12-19 | 聊城大学 | 一种运动目标检测与跟踪的方法和系统 |
CN103440645A (zh) * | 2013-08-16 | 2013-12-11 | 东南大学 | 一种基于自适应粒子滤波和稀疏表示的目标跟踪算法 |
CN104820997A (zh) * | 2015-05-14 | 2015-08-05 | 北京理工大学 | 一种基于分块稀疏表达与hsv特征融合的目标跟踪方法 |
-
2015
- 2015-08-14 CN CN201510501683.3A patent/CN105096343B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102521840A (zh) * | 2011-11-18 | 2012-06-27 | 深圳市宝捷信科技有限公司 | 一种运动目标跟踪方法、系统及终端 |
CN102592138A (zh) * | 2011-12-30 | 2012-07-18 | 上海电力学院 | 基于多模块稀疏投影的密集场景目标跟踪方法 |
CN102831617A (zh) * | 2012-07-17 | 2012-12-19 | 聊城大学 | 一种运动目标检测与跟踪的方法和系统 |
CN103440645A (zh) * | 2013-08-16 | 2013-12-11 | 东南大学 | 一种基于自适应粒子滤波和稀疏表示的目标跟踪算法 |
CN104820997A (zh) * | 2015-05-14 | 2015-08-05 | 北京理工大学 | 一种基于分块稀疏表达与hsv特征融合的目标跟踪方法 |
Non-Patent Citations (2)
Title |
---|
XUE MEI 等: "Robust Visual Tracking and Vehicle Classification via Sparse Representation", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 * |
高琳等: "基于稀疏表达的遮挡目标跟踪算法", 《计算机工程》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107729800A (zh) * | 2017-06-29 | 2018-02-23 | 中国联合网络通信集团有限公司 | 移动目标跟踪方法及系统 |
CN110554687A (zh) * | 2018-05-30 | 2019-12-10 | 中国北方车辆研究所 | 一种面向未知环境的多机器人自适应探测方法 |
CN110554687B (zh) * | 2018-05-30 | 2023-08-22 | 中国北方车辆研究所 | 一种面向未知环境的多机器人自适应探测方法 |
CN110189356A (zh) * | 2019-04-24 | 2019-08-30 | 沈阳大学 | 一种反向低秩稀疏约束下的融合Lasso目标跟踪方法 |
CN110189356B (zh) * | 2019-04-24 | 2023-05-12 | 沈阳大学 | 一种反向低秩稀疏约束下的融合Lasso目标跟踪方法 |
CN112700477A (zh) * | 2020-12-25 | 2021-04-23 | 北京环境特性研究所 | 基于背景抑制和记忆跟踪的红外目标跟踪方法 |
Also Published As
Publication number | Publication date |
---|---|
CN105096343B (zh) | 2018-10-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111192292B (zh) | 基于注意力机制与孪生网络的目标跟踪方法及相关设备 | |
Valmadre et al. | End-to-end representation learning for correlation filter based tracking | |
CN107424171B (zh) | 一种基于分块的抗遮挡目标跟踪方法 | |
Chen et al. | Part-activated deep reinforcement learning for action prediction | |
CN104574445B (zh) | 一种目标跟踪方法 | |
Minhas et al. | Incremental learning in human action recognition based on snippets | |
Hernández-Vela et al. | Graph cuts optimization for multi-limb human segmentation in depth maps | |
Lin et al. | Integrating graph partitioning and matching for trajectory analysis in video surveillance | |
Nian et al. | Extreme learning machine towards dynamic model hypothesis in fish ethology research | |
CN106295564B (zh) | 一种邻域高斯结构和视频特征融合的动作识别方法 | |
CN107748873A (zh) | 一种融合背景信息的多峰目标跟踪方法 | |
CN104915655A (zh) | 一种多路监控视频的管理方法与设备 | |
CN104574440A (zh) | 一种视频运动目标跟踪方法及装置 | |
CN102156995A (zh) | 一种运动相机下的视频运动前景分割方法 | |
CN105809672A (zh) | 一种基于超像素和结构化约束的图像多目标协同分割方法 | |
Dimitropoulos et al. | Classification of multidimensional time-evolving data using histograms of grassmannian points | |
CN113298036B (zh) | 一种无监督视频目标分割的方法 | |
CN102968643A (zh) | 一种基于李群论的多模态情感识别方法 | |
CN105046714A (zh) | 一种非监督的基于超像素和目标发现机制的图像分割方法 | |
CN105096343A (zh) | 一种移动目标跟踪方法及装置 | |
CN104484890A (zh) | 基于复合稀疏模型的视频目标跟踪方法 | |
CN109858454B (zh) | 一种基于双模型自适应核相关滤波追踪方法 | |
CN102663775A (zh) | 面向低帧率视频的目标跟踪方法 | |
CN103902989A (zh) | 基于非负矩阵分解的人体动作视频识别方法 | |
CN105809718A (zh) | 一种轨迹熵最小化的对象跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |