CN103077535A - 一种基于多任务联合稀疏表示的目标跟踪方法 - Google Patents
一种基于多任务联合稀疏表示的目标跟踪方法 Download PDFInfo
- Publication number
- CN103077535A CN103077535A CN2012105929867A CN201210592986A CN103077535A CN 103077535 A CN103077535 A CN 103077535A CN 2012105929867 A CN2012105929867 A CN 2012105929867A CN 201210592986 A CN201210592986 A CN 201210592986A CN 103077535 A CN103077535 A CN 103077535A
- Authority
- CN
- China
- Prior art keywords
- template
- target
- rho
- task
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 239000002245 particle Substances 0.000 claims abstract description 11
- 230000014509 gene expression Effects 0.000 claims description 42
- 239000011159 matrix material Substances 0.000 claims description 26
- 239000013598 vector Substances 0.000 claims description 12
- 230000001133 acceleration Effects 0.000 claims description 5
- 229920000642 polymer Polymers 0.000 claims description 5
- 230000004069 differentiation Effects 0.000 claims description 3
- 238000012804 iterative process Methods 0.000 claims 1
- 230000008569 process Effects 0.000 description 8
- 238000005457 optimization Methods 0.000 description 5
- 238000002474 experimental method Methods 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000014616 translation Effects 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种基于多任务联合稀疏表示的跟踪方法,包括以下步骤:在跟踪开始时,分别对需要跟踪的目标的不同特征,构建不同的模板集合;每个特征的模板集合用一个稀疏表示的任务来建模,构建基于局部稀疏图的多任务联合稀疏表示模型;采用近似的加速近邻梯度算法迭代求解多任务模型;使用方差比来选择不同任务的权重;构建基于多任务联合稀疏表示的表观模型,采用粒子滤波算法估计目标最优状态作为跟踪结果。
Description
技术领域
本发明涉及计算机视觉领域,特别涉及一种基于多任务联合稀疏表示的目标跟踪方法。
背景技术
复杂场景下目标的运动跟踪是近些年来计算机视觉领域里的前沿研究方向之一,也是该领域中难点之一。特别是动态场景下的目标运动分析受到了世界上许多重要研究机构的高度重视。跟踪问题等价于在连续的图像帧之间创建基于位置、速度、形状、纹理、色彩等有关特征的对应匹配问题。众所周知,区域跟踪的核心就是如何对目标进行有效的表达,而目标表达大多数是通过目标表观建模来实现的。因此,如何构建一个好的表观模型对目标的区域跟踪起着至关重要的作用。特别是在时序数据流中,目标的表观是随着时间而变化的,同时还可能受到各种因素的干扰。此外,还要满足实际应用的低计算复杂度的要求。
最近,基于稀疏表示的跟踪方法开始逐渐受到人们的关注。在稀疏表示的框架下,候选目标由一系列目标模板和自定义的小模板线性组合而成。目标模板表示的是需要跟踪的目标,根据第一帧手动给定的初始化位置得到。自定义的小模板是为了处理噪声和遮挡用的,每个小模板只有一个像素的值不为零,不同的小模板对应着目标模板不同的像素,因此如果一个小模板对应的系数不为零,则表明其对应的像素有可能被噪声或者其他目标给干扰。所以在稀疏表示的框架下,通过小模板与目标模板的组合,遮挡和噪声能够在统一的框架下被有效地处理,而不需要采用其他策略。同时更新目标的表观模型也非常方便。只需要用最新得到的跟踪结果去代替旧的目标模板集合就行。然而在,传统的稀疏表示框架下,构建模板的时候只采用了灰度特征,但是灰度特征有时候不能够区分跟踪目标与背景或者其他目标,在这种情况下就会造成跟踪的失败。因此融合更多的特征,比如形状、纹理等能够使得跟踪结果更加鲁棒。但是在传统的稀疏表示框架下,无法有效地把这些特征融合在一起。
发明内容
(一)要解决的技术问题
为了解决现有技术的问题,本发明目的在于提出一种适用于移动摄像机的复杂场景下(剧烈运动、光照变化,噪声,部分遮挡,形变等)鲁棒的目标跟踪系统和方法。
(二)技术方案
为实现上述目的,本发明提出一种基于多任务联合稀疏表示的目标跟踪方法,其包括以下步骤:
步骤1:根据所要跟踪的目标的不同特征,构建不同的目标模板集合;
步骤2:对于每个特征的目标模板集合用一个稀疏表示的任务,构建基于局部稀疏图的多任务联合稀疏表示模型,其中,每个任务对应一个所述特征;
步骤3:采用近似的加速近邻梯度算法迭代求解所述多任务联合稀疏表示模型,得到每个任务的最优系数;
步骤4:使用每个任务对应的特征下跟踪目标和背景区域颜色直方图的方差比来选择不同任务的权重;
步骤5:根据不同任务的所述最优系数和所选择的不同权重构建基于多任务联合稀疏表示的表观模型,采用粒子滤波算法估计目标的最优状态作为跟踪结果。
(三)有益效果
本发明提供的系统和方法采用多任务联合稀疏表示来对需要跟踪的目标进行表观建模,有效地融合了目标表观的多种特征,得到了比单特征更加鲁棒的跟踪结果。
附图说明
图1是本发明中基于多任务联合稀疏表示的目标跟踪方法的流程图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明作进一步的详细说明。
本发明的方法具体运行的硬件和编程语言并不限制,用任何语言编写都可以完成。
图1为本发明所提供方法的流程图。
步骤1:在跟踪开始时,分别对需要跟踪的目标的不同特征构建不同的模板集合;
步骤2:每个特征的模板集合用一个稀疏表示的任务来建模,构建基于局部稀疏图的多任务联合稀疏表示模型;
步骤3:采用近似的加速近邻梯度算法迭代求解多任务模型;
步骤4:使用方差比来选择不同任务的权重;
步骤5:构建基于多任务联合稀疏表示的表观模型,采用粒子滤波算法估计目标最优状态作为跟踪结果。
下面将对各个步骤的细节进行详细说明。
步骤1:在跟踪开始时,分别对需要跟踪的目标的不同特征,构建不同的模板集合。
在视频序列的第一帧,手动的给定需要跟踪的目标。对黑白图像,采用图像的灰度、纹理和形状等特征,来构建不同的目标模板集合;对彩色图像,采用图像的灰度、饱和度、强度、边缘和纹理等特征,来构建不同的目标模板集合。
针对一种特征,给定目标的初始位置后,在该初始位置周围的8个方向平移2个像素(分别是上下左右和两个斜45度角),选取8个不同的目标模板(目标模板是指一个固定尺寸的图像块,因为其中含有目标,所以称为目标模板),然后把这些模板归一化到一个18*20(18是指长度,20是指宽度)大小的模板下,模板的大小根据不同的跟踪目标可以调整,再把这9个模板作为该特征跟踪初始的目标模板集合。
步骤2:每个特征的模板集合用一个稀疏表示的任务来建模,构建基于局部稀疏图的多任务联合稀疏表示模型。
假设得到了一个目标模板集合,其中每个模板根据选择的特征不同(如颜色、纹理、形状),有K种不同表示,K的取值范围根据选定的特征数量来确定,K的取值范围是1<=K<20,本发明的一个实施例中选取了K=4。对于第k(1<=k<K)个特征,其对应的目标模板集合表示为:其中n是第k个特征下总的模板数量,取值范围为1<=n<100(每个特征都会有相应的n个特征模板)。令在特征k下的一个候选目标为mk(其中候选目标是图形中的一个区域,与目标模板不同,跟踪的目标就是找到与目标模板集合最为匹配的候选目标),那么通过表达式(1)有监督的线性拟合来表示:
其中为第k个任务(即第k个特征)的表示系数,该系数就是上述模型所需要求解的目标,表示的是矩阵的转置,wk为n*1的向量,εk为其误差,在具体计算的时候会把目标模板展开成一个像素点向量,如果模板大小为18*20,则该模板T用一个360*1的像素点向量表示。
多任务联合稀疏表示的优化问题定义为,在L2,1混合范数的约束下,求解基于多任务的最小平方误差回归问题,由表达式(2)表示:
其中||.||2表示的是向量的2范数,也就是欧式距离,表示的是第k个特征下第i个模板的表示系数, 表示的是对wi求2范数。为了能使该模型对遮挡和噪声鲁棒,需要引入小模板来显式地对这些被遮挡的像素进行编码,其中d为小模板的数量,d的大小与目标模板展成一维向量后的维度一致(如果模板大小为18*20,则d=360),也就是说小模板的数量和目标模板的像素数量相等。每个小模板的大小与目标模板一样,每个小模板是固定的,在跟踪开始的时候预先设定,具体设置如下:对于第i个小模板Ii,它的大小为18*20,在表示它的时候展开成360*1的一个向量,那么向量的其他元素的值为零,只有第i个元素的值为1。因此每个小模板对目标模板的每个像素进行编码,每个小模板对应的是一个目标模板中的像素,如果该小模板对应的系数不为零,则该像素发生了遮挡。整个小模板除了非零的像素外,其它像素都为黑色。此时等式(1)中的误差ε可以由这些小模板线性组合而成,由表达式(4)表示:
加入小模板后,多任务联合稀疏表示问题可以重新定义为表达式(5):
其中mk为候选目标, T为一系列目标模板,I为表达式(4)中的小模板集合;(表示的是矩阵的转置),w为表达式(3)中定义的目标模板的表示系数,e为表达式(4)中定义的小模板的系数,w和e就是最后需要优化求解的目标。 表示的是对ρi求2范数。
为了使得能够在使用更大的模板集合的同时,同时控制算法的复杂度,引入局部稀疏图对系数ρ进行约束。在加入基于局部稀疏图的约束后,在优化的过程中,不仅考虑当前目标图像帧候选目标的重构误差,同时也考虑上一目标图像帧跟踪结果与目标模板之间的欧式距离,通过计算它们之间的距离,来对目标模板的权重进行约束,动态地选择距离较小的模板来进行优化。在引入此约束后,可以定义为表达式(6):
Di=diag[1,...,1,...,1](当n+1<=i<=d+n时)
其中为上一帧的跟踪结果,为在第k个特征下的目标表示,T为目标模板集合,其他参数的定义与表达式5中一致,上式中Di是对角矩阵,对角线元素不为零,其他元素为零,是一个K*K大小的矩阵,是一个1*K的矩阵,因此ρiDi为1*K的向量。
步骤3:采用近似的加速近邻梯度算法迭代求解多任务模型。
要直接对表达式(6)中的优化问题进行求解有些困难,本发明给出了一个近似求解方法。假定如果距离小于一定的阈值(为上一帧的目标的跟踪结果,T为不同的目标模板,通过计算它们的欧式距离来得到阈值),那么该目标模板则对求解当前帧的优化问题贡献不大,基于此假设,当1<=i<=n时,Di的元素可以重新定义为表达式(7):
其中参数的定义与表达式(5)中的一致,其中δ为候选目标mk与目标模板T的差异的一个阈值,具体的值需要在实验中凭借经验设置。
根据以上近似,优化问题可以用近似的加速近邻梯度算法来求解。该算法主要是通过迭代地求解系数矩阵 迭代终止后最终获得最优系数矩阵和聚合矩阵 来实现,其中V的定义参考表达式9,为迭代计算最优系数矩阵时需要用到的的一个中间矩阵,t表示第t轮迭代。
在每次迭代的第一步,根据上一次迭代得到的聚合矩阵Vt,更新系数矩阵ρt+1;
其中 表示的是矩阵的转置,α为步长,实验中根据经验得到,λ为预定系数,{.}+=max(.,0),表示的是只有目标模板的系数会受到局部稀疏图的约束([]表示的是一个矩阵)。第一个公式中第二个公式中 表示的是对ρk,t+1做归一化处理,。
在迭代的第二步,通过结合ρt+1与ρt更新聚合矩阵。
Vt+1=ρt+1+{(1-γt)/γt}γt+1(ρt+1-ρt) (9)
其中γt表示为γt=2/(2+t)。
在迭代终止后,就可以得到最优的系数矩阵其中迭代终止的条件为需要到达需要迭代的次数,次数根据经验获得。因此通过最优系数矩阵,相应的得到第k个任务的最优系数在第k个特征下候选目标可以重新表示为通过对所有K个特征累加,候选目标m的重构误差即候选m与目标与之间的差值由表达式(10)表示:
其中θk为第k个任务的权重,该权重由下面的步骤4得到,||.||2表示的是向量的2范数。计算重构误差的目的是为了得到公式(16)中的表观模型
步骤4:使用方差比来选择不同任务的权重。
如果属于任务k的特征能够较好的区分目标区域和背景,那么它的权重也应该相应的设置为一个较大的值,因为如果区分性较好,那么属于该特征的跟踪结果就会比较可靠。
在计算过程中,把属于目标区域的像素当作目标像素,然后在目标区域周围画一个相对大一点的矩形框,把这个矩形框与目标区域之间的像素选作背景像素。给定一个特征f,目标区域和背景的区分性可以通过下面三步计算得到。
首先用直方图来表示目标和背景像素的分布,分别建立目标像素和背景像素的直方图。给定一个特征,令Ho(i)为目标像素的第i个区间的直方图(其中直方图的区间是均匀的把颜色空间化成n等份,n的值在实验过程中根据经验设置),Hb(i)为背景像素的第i个区间的直方图,分别用该区间内像素的个数对它们进行归一化:
p(i)=Ho(i)/no
q(i)=Hb(i)/nb (11)
其中no和nb分别是属于第i个区间的目标和背景像素的数量。
其次,计算第i个区间的log似然:
其中ξ为一个很小的值,目的是防止分母为零,或计算log时出现0的情况。从上式的定义来看,如果在某个区间上,目标和背景的颜色相近,那么其log似然趋向于零。
最后对于特征f,为了得到目标和背景的区分性,计算L(i)的方差比。假设给定一个概率密度函数d(i)(在公式14中d(i)由不同的密度函数代替),计算L(i)相对于d的方差,其由表达式(13)表示:
根据上式的定义,可以得到L(i)的方差比,其由表达式(14)表示:
其中p,q的定义与表达式(11)相同,分别表示目标与背景的直方图。
从表达式(14)的定义可以看到,VR(L;p,q)为L(i)相对于所有目标与背景样本像素的方差,比上L(i)相对于目标与背景样本各自的方差之和。本发明的一个实施例中,采取下面的方式来设置不同任务的权重,设置一个阈值,如果某个任务对应的特征根据公式(14)得到的方差比较小,就认为该特征不可靠,在重构的时候(既用来表示目标)去掉该特征对应的任务。然后再对余下的任务根据所述方差比设置相应的权重具体设置方法在实验中根据经验设置,常用的方法就是对所有的特征的方差比求和,然后其权重就为其方差比除以和。
步骤5:构建基于多任务联合稀疏表示的表观模型,采用粒子滤波算法估计目标最优状态作为跟踪结果,即根据步骤1-3计算得到的等式(16)中的权重系数w和步骤4中计算得到的得到目标的表观模型,从而得到目标的跟踪结果:
跟踪过程中目标用一个矩形框来表示,其状态用一个六维的仿射参数来表示(其中仿射是一种变换表示方式,通过它来表示物体相对原点的移动和形变),其中(tx,ty)表示二维平移参数,即表示目标相对于在原点,左右和上下平移了多少距离,为形变参数,即表示目标相对于原点,目标旋转的角度和形变的大小,其中为旋转的角度,而(α,β)为形变的大小。给定观测mt,即指候选目标区域,跟踪的目标就是推理出其状态xt。这个推理过程可以用基于贝叶斯后验概率的推理过程来表示,见表达式(15):
p(xt|mt)∝p(mt|xt)∫p(xt|xt-1)p(xt-1|mt-1)dxt-1 (15)
其中p(mt|xt)是观测模型,其表示根据一个目标状态xt,相应的得到候选目标区域mt的概率,p(xt|xt-1)为状态转移模型,采用粒子滤波来近似后验概率的方法,它用一系列带权重的粒子来逼近后验概率。由于只关注于目标的表观模型,因此用一个简单的高斯分布来模拟目标的状态转移模型p(xt|xt-1),目标的表观模型p(mt|xt)反映的是候选目标mt与目标模板之间的相似度,即p(mt|xt)值越大,表示候选目标与目标模板之间相似度越高;其定义表达式(16):
其中,公式中是由状态xt得到的候选目标区域,在k个特征下的表示,η控制高斯核的参数,为不同任务的权重,Γ为归一化因子,在实验过程中根据经验获得,为第k个特征下给定的观测目标。根据粒子滤波的理论,如果从状态转移分布进行采样,得到一系列粒子即候选目标,那么每个粒子的权值π就可以用表观p(mt|xt)来计算。然后权值π最大的粒子就可以作为所跟踪的当前帧目标的状态。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于多任务联合稀疏表示的目标跟踪方法,其包括以下步骤:
步骤1:根据所要跟踪的目标的不同特征,构建不同的目标模板集合;
步骤2:对于每个特征的目标模板集合用一个稀疏表示的任务,构建基于局部稀疏图的多任务联合稀疏表示模型,其中,每个任务对应一个所述特征;
步骤3:采用近似的加速近邻梯度算法迭代求解所述多任务联合稀疏表示模型,得到每个任务的最优系数;
步骤4:使用每个任务对应的特征下跟踪目标和背景区域颜色直方图的方差比来选择不同任务的权重;
步骤5:根据不同任务的所述最优系数和所选择的不同权重,构建基于多任务联合稀疏表示的表观模型,采用粒子滤波算法估计目标的最优状态作为跟踪结果。
2.如权利要求1所述的方法,其特征在于,所述步骤1中,在构建目标模板时,跟踪目标为黑白图像时,所述特征包括图像的灰度、纹理和形状特征;跟踪对象为彩色图像时,所述特征包括灰度、饱和度、强度、边缘和纹理特征。
4.如权利要求3所述的方法,其特征在于,所述小模板集合I中的小模板元素Ii是一个一维向量,其大小与其所对应的目标模板大小相等;小模板集合I中的小模板元素Ii的个数d为其所对应目标模板的像素点个数;小模板元素Ii中除第i个元素外的其它元素均为0。
5.如权利要求3所述的方法,其特征在于,步骤3中求解所述多任务联合稀疏表示模型时,迭代地求解系数矩阵ρt+1,最终得到最优的系数矩阵,迭代过程具体包括:
迭代第二步:ρt+1与ρt更新聚合矩阵:
Vt+1=ρt+1+{(1-γt)/γt}γt+1(ρt+1-ρt)
其中,γt表示为γt=2/(2+t),t表示迭代次数;
6.如权利要求1所述的方法,其特征在于,所述步骤4包括:对于某个任务对应的特征,用直方图来表示所要跟踪的目标像素和背景像素的分布;具体为:
步骤41:计算第i个直方图区间的log似然L(i);
步骤42:对于某一个特征,计算L(i)的方差比来表示所要跟踪的目标和背景的区分性;
步骤43:根据任务所对应的特征的所述方差比,对不同任务设置相应的权重。
7.如权利要求6所述的方法,其特征在于,其中步骤41中所述L(i)如下计算:
其中,所述p(i)为所要跟踪的目标像素在目标像素直方图的第i个区间内分布的概率密度函数,所述q(i)为所述背景像素在背景像素直方图的第i个区间内分布的概率密度函数,所述p(i)和q(i)如下表示:
p(i)=Ho(i)/no;q(i)=Hb(i)/nb
其中,所述Ho(i)为所述目标像素直方图的第i个区间,Hb(i)为所述背景像素直方图的第i个区间,no和nb分别为属于目标像素直方图的第i个区间的目标像素个数和背景像素直方图的第i个区间的背景像素个数。
8.如权利要求7所述的方法,其特征在于,所述步骤42中方差比如下计算:
其中,所述var(L;d)表示L(i)相对于d的方差,如下计算:
其中,所述d(i)为变量。
9.如权利要求8所述的方法,其特征在于,所述步骤43中设置一阈值,对于特征的方差比小于所述阈值时,则去掉该特征对应的任务,而对于余下的任务,则根据所对应特征的方差比的大小设置所述任务的权重。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210592986.7A CN103077535B (zh) | 2012-12-31 | 2012-12-31 | 一种基于多任务联合稀疏表示的目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210592986.7A CN103077535B (zh) | 2012-12-31 | 2012-12-31 | 一种基于多任务联合稀疏表示的目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103077535A true CN103077535A (zh) | 2013-05-01 |
CN103077535B CN103077535B (zh) | 2015-09-30 |
Family
ID=48154054
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210592986.7A Active CN103077535B (zh) | 2012-12-31 | 2012-12-31 | 一种基于多任务联合稀疏表示的目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103077535B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103295242A (zh) * | 2013-06-18 | 2013-09-11 | 南京信息工程大学 | 一种多特征联合稀疏表示的目标跟踪方法 |
CN103985143A (zh) * | 2014-05-30 | 2014-08-13 | 上海交通大学 | 基于字典学习的视频中判别性在线目标跟踪方法 |
CN104063721A (zh) * | 2014-07-04 | 2014-09-24 | 中国科学院自动化研究所 | 一种基于语义特征自动学习与筛选的人类行为识别方法 |
CN105488505A (zh) * | 2015-12-31 | 2016-04-13 | 中国科学院电子学研究所 | 一种对具有旋转角度的目标进行识别的方法 |
CN105760857A (zh) * | 2016-03-18 | 2016-07-13 | 武汉大学 | 一种高光谱遥感影像目标探测方法 |
CN107301652A (zh) * | 2017-05-04 | 2017-10-27 | 西北工业大学 | 一种基于局部稀疏表示和粒子群优化的鲁棒目标跟踪方法 |
CN107330912A (zh) * | 2017-05-10 | 2017-11-07 | 南京邮电大学 | 一种基于多特征融合的稀疏表示的目标追踪方法 |
CN108492321A (zh) * | 2018-03-26 | 2018-09-04 | 安徽大学 | 一种多模态目标跟踪方法及装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102148921A (zh) * | 2011-05-04 | 2011-08-10 | 中国科学院自动化研究所 | 基于动态群组划分的多目标跟踪方法 |
CN102592138A (zh) * | 2011-12-30 | 2012-07-18 | 上海电力学院 | 基于多模块稀疏投影的密集场景目标跟踪方法 |
-
2012
- 2012-12-31 CN CN201210592986.7A patent/CN103077535B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102148921A (zh) * | 2011-05-04 | 2011-08-10 | 中国科学院自动化研究所 | 基于动态群组划分的多目标跟踪方法 |
CN102592138A (zh) * | 2011-12-30 | 2012-07-18 | 上海电力学院 | 基于多模块稀疏投影的密集场景目标跟踪方法 |
Non-Patent Citations (2)
Title |
---|
LIU HUAPING ET AL.: "Fusion Tracking in color and infrared images using joint sparse representation", 《SCIENCE CHINA INFORMATION SCIENCES》 * |
XIAOTONG YUAN ET AL.: "Visual Classification with Multi-Task Joint Sparse Representation", 《2010 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103295242B (zh) * | 2013-06-18 | 2015-09-23 | 南京信息工程大学 | 一种多特征联合稀疏表示的目标跟踪方法 |
CN103295242A (zh) * | 2013-06-18 | 2013-09-11 | 南京信息工程大学 | 一种多特征联合稀疏表示的目标跟踪方法 |
CN103985143A (zh) * | 2014-05-30 | 2014-08-13 | 上海交通大学 | 基于字典学习的视频中判别性在线目标跟踪方法 |
CN104063721B (zh) * | 2014-07-04 | 2017-06-16 | 中国科学院自动化研究所 | 一种基于语义特征自动学习与筛选的人类行为识别方法 |
CN104063721A (zh) * | 2014-07-04 | 2014-09-24 | 中国科学院自动化研究所 | 一种基于语义特征自动学习与筛选的人类行为识别方法 |
CN105488505A (zh) * | 2015-12-31 | 2016-04-13 | 中国科学院电子学研究所 | 一种对具有旋转角度的目标进行识别的方法 |
CN105488505B (zh) * | 2015-12-31 | 2019-01-11 | 中国科学院电子学研究所 | 一种对具有旋转角度的目标进行识别的方法 |
CN105760857A (zh) * | 2016-03-18 | 2016-07-13 | 武汉大学 | 一种高光谱遥感影像目标探测方法 |
CN107301652A (zh) * | 2017-05-04 | 2017-10-27 | 西北工业大学 | 一种基于局部稀疏表示和粒子群优化的鲁棒目标跟踪方法 |
CN107330912A (zh) * | 2017-05-10 | 2017-11-07 | 南京邮电大学 | 一种基于多特征融合的稀疏表示的目标追踪方法 |
CN107330912B (zh) * | 2017-05-10 | 2021-06-11 | 南京邮电大学 | 一种基于多特征融合的稀疏表示的目标追踪方法 |
CN108492321A (zh) * | 2018-03-26 | 2018-09-04 | 安徽大学 | 一种多模态目标跟踪方法及装置 |
CN108492321B (zh) * | 2018-03-26 | 2021-10-01 | 安徽大学 | 一种多模态目标跟踪方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN103077535B (zh) | 2015-09-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103077535A (zh) | 一种基于多任务联合稀疏表示的目标跟踪方法 | |
Tao et al. | Spatial information inference net: Road extraction using road-specific contextual information | |
CN110868598B (zh) | 基于对抗生成网络的视频内容替换方法及系统 | |
Gall et al. | Optimization and filtering for human motion capture: A multi-layer framework | |
Salzmann et al. | Combining discriminative and generative methods for 3d deformable surface and articulated pose reconstruction | |
Liu et al. | Learning converged propagations with deep prior ensemble for image enhancement | |
WO2019174377A1 (zh) | 一种基于单目相机的三维场景稠密重建方法 | |
Cherabier et al. | Learning priors for semantic 3d reconstruction | |
CN113673307A (zh) | 一种轻量型的视频动作识别方法 | |
Chen et al. | One-stage CNN detector-based benthonic organisms detection with limited training dataset | |
JP2008544404A (ja) | 薄板スプライン変換を用いて非剛体運動をモデル化するための直接的方法 | |
De la Torre et al. | Robust parameterized component analysis: theory and applications to 2d facial appearance models | |
Li et al. | Learning to optimize non-rigid tracking | |
Li et al. | Coarse-to-fine PatchMatch for dense correspondence | |
Chakraborty et al. | Integration of boundary finding and region-based segmentation using game theory | |
Brunet et al. | Feature-driven direct non-rigid image registration | |
CN112200733B (zh) | 一种基于图卷积网络的网格去噪方法 | |
Ben-Zrihem et al. | Approximate nearest neighbor fields in video | |
Baradel et al. | Posebert: A generic transformer module for temporal 3d human modeling | |
Zhao et al. | NormalNet: learning-based mesh normal denoising via local partition normalization | |
Lim et al. | Joint segmentation and pose tracking of human in natural videos | |
Li et al. | Video interpolation using optical flow and laplacian smoothness | |
Meng et al. | A novel gray image denoising method using convolutional neural network | |
Zhao et al. | NormalNet: Learning-based normal filtering for mesh denoising | |
Chen et al. | Recovering fine details for neural implicit surface reconstruction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |