CN107689053B - 一种基于标签传播和排序约束的目标跟踪方法 - Google Patents
一种基于标签传播和排序约束的目标跟踪方法 Download PDFInfo
- Publication number
- CN107689053B CN107689053B CN201710639303.1A CN201710639303A CN107689053B CN 107689053 B CN107689053 B CN 107689053B CN 201710639303 A CN201710639303 A CN 201710639303A CN 107689053 B CN107689053 B CN 107689053B
- Authority
- CN
- China
- Prior art keywords
- samples
- sample
- positive
- label
- loss function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 230000006870 function Effects 0.000 claims abstract description 39
- 238000012163 sequencing technique Methods 0.000 claims abstract description 9
- 238000009826 distribution Methods 0.000 claims description 4
- 238000009432 framing Methods 0.000 claims description 3
- 238000009499 grossing Methods 0.000 claims description 3
- 230000008859 change Effects 0.000 abstract description 6
- 230000000694 effects Effects 0.000 abstract description 2
- 230000007613 environmental effect Effects 0.000 abstract description 2
- 230000008569 process Effects 0.000 description 5
- 238000005457 optimization Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003094 perturbing effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Peptides Or Proteins (AREA)
Abstract
本发明实施例公开了一种基于标签传播和排序约束的目标跟踪方法,包括:在给定的视频序列中,选取正样本和负样本以及候选样本,构建出一个图结构;建立基于图结构的损失函数,并分别引入基于平滑假设的损失项、基于判别的损失项和基于排序的损失项形成新的损失函数;将新的损失函数进行优化,并利用新的损失函数的最优解对所选的候选样本进行状态估计,确定所选的候选样本所属的类别和排列次序,并将对正样本和负样本进行更新。本发明实施例,在半监督学习的框架下,克服因目标表观变化和环境变化对跟踪效果的影响,并有效地提高目标跟踪的鲁棒性。
Description
技术领域
本发明涉及计算机视觉跟踪技术领域,尤其涉及一种基于标签传播和排序约束的目标跟踪方法。
背景技术
根据目标跟踪与检测关系的不同,可以大致地把目标跟踪方法分为两类:生成式方法和判别式方法。其中,生成式方法是采用一定的跟踪策略,估计下一帧中跟踪目标的状态,目的是从众多候选目标中寻找最优的候选目标,而判别式方法是将视觉目标跟踪视为一个二分类问题,通过学习分类器,在当前帧中搜索与背景区分最大的前景区域。然而,上述目标跟踪方法均主要涉及两个关键性问题:表观模型和跟踪框架。表观模型就是如何对目标物体进行有效的表达,并进行实时的更新。因此,如何构建一个好的表观模型对目标跟踪起着非常重要的作用。
在生成式方法中构建的表观模型,要么忽略了对跟踪问题有用的背景信息,影响了目标跟踪的鲁棒性,如Wang等人提出的空间颜色混合高斯(Spatial-color Mixture ofGaussian,简称SMOG)表观模型及一种基于SMOG的相似性度量方法等等;要么不能有效地区分目标和背景图像块,并且会引入大量的噪声,如一种基于矢量图像灰度特征的子空间学习表观模型、Hu等人提出的一种对数欧式分块的表观模型等等。
在判别式方法中构建的表观模型,要么在某些噪音较大的分类或回归问题上会存在过拟现象,如一种基于光流场法的支持向量机分类器被构建用于目标(或者非目标)的分类等;要么建立在目标和背景是线性可分和高斯分布的假设上,可能会导致目标出现漂移问题,如Grabner等人基于Boosting方法提出的一种在线的Adaboost特征选择算法。
为了克服上述两种方法存在的问题,研究人员通常会基于图结构的半监督学习做出局部平滑的假设。也就是说,一个有标签的样本点的周围的一些样本可能有相同的标签,这导致了在一个局部范围内标签光滑地变化。例如,Belkin等人描述了一种被称作流形正则化的几何框架,用于学习来自有标签的和无标签的样例。在这个框架下,通过在目标损失函数中增加一项能反映有标签和无标签样本的不一致性的量,将正则化的最小二乘和正则化的SVM拓展成Laplacian正则化最小二乘和Laplacian正则化的SVM。
因此,为了解决Laplacian RLS或者SVM问题,有效地使用无标签的数据成为一种重要的技术手段。基于此,Bai等人对排序支持向量机的目标函数增加了一个能够反映数据间的平滑度的项并将它应用到视觉跟踪中;Grabner等人结合了预先给出的分类器的决策和处于半监督环境下的在线分类器,使跟踪器可以适应目标的表观变化;Tang等人将来自不同特征类型的预测值进行融合,进而产生了一个置信度图,然后利用这个置信度图产生新的样本。通过用这些样本更新在线的SVM模型,从而获得了更多的关于目标和背景的信息。此外,Zeis等人将半监督学习和多示例学习结合起来形成了一种半监督多示例学习的方法,这种方法固然比单独用这两种方法效果要好,但是仍然不能处理大的非刚性形变的问题。
发明内容
本发明实施例的目的在于提供一种基于标签传播和排序约束的目标跟踪方法,在半监督学习的框架下,克服因目标表观变化和环境变化对跟踪效果的影响,并有效地提高目标跟踪的鲁棒性。
为了解决上述技术问题,本发明实施例提供了一种基于标签传播和排序约束的目标跟踪方法,所述方法包括:
S1、在给定的视频序列中,选取一定量的起始帧进行标注,得到每一起始帧对应标注出的正样本和负样本,并根据所选的起始帧进行数学状态估计产生候选样本,且进一步将每一起始帧对应标注出的正样本和负样本作为标签样本以及将所选的候选样本作为无标签样本,构建出一个图结构;
S2、建立基于所述图结构的损失函数,并在所述建立的损失函数中分别引入来自标签传播框架下的基于平滑假设的损失项、基于判别的损失项和基于排序的损失项,形成新的损失函数;
S3、将所述新的损失函数进行优化,并利用所述新的损失函数的最优解对所选的候选样本进行状态估计,确定所选的候选样本所属的类别和排列次序,并将所述确定的候选样本对所述每一起始帧对应标注出的正样本和负样本进行更新。
其中,所述步骤S1具体包括:
在给定的视频序列中,选取前5-10副图像帧分别作为起始帧并标定为正样本,且进一步在每一正样本周围采用一定面积的矩形框进行框定,得到由每一矩形框中所框定的负样本;
根据所选的起始帧进行数学状态估计,采用中心化的高斯分布在下一帧中产生候选样本,并将所述标定的正样本及其对应框定的负样本作为标签样本,将所述候选样本作为无标签样本;
采用k近邻法和径向基核函数为所述标签样本和所述无标签样本构建一个图结构;其中,所述图结构中的每一个节点对应为一个样本。
其中,所述步骤S2具体包括:
引入基于平滑假设的损失项,具体函数式定义为:
其中,f:Rc→R,c是特征空间的维数;xi和xj分别是来自正样本集和负样本集;
引入基于判别的损失项,具体函数式定义为:
其中,yi是样本xi的标签,其取值为yi∈{-1,1}(i=1,Λ,nl);yi=1意味着xi是正样本;yi=-1意味着xi是负样本;
引入基于排序的损失项,具体函数式定义为:
将上述(a),(b)和(c)三个损失函数组合到一起,形成新的损失函数为:
其中,λ,β是权值参数。
其中,所述步骤S3具体包括:
对所述新的损失函数进行优化,计算出最优解,并将所述计算出的最优解作为分类器;
用所述分类器对所选的候选样本进行状态估计,确定所选的候选样本所属的类别和排列次序;
将所述确定的候选样本对所述每一起始帧对应标注出的正样本和负样本进行更新。
实施本发明实施例,具有如下有益效果:
1)本发明在半监督学习的框架下,基于图的跟踪器能够利用有标签样本的类别信息和无标签样本的结构信息预先查看将要被分类的候选目标样本,从而学习到一些诸如有标签样本和无标签样本之间关系的先验信息。在学习这类知识后会减少跟踪器的分类错误,能够减轻目标跟踪过程中的漂移问题;
2)本发明在基于图的损失函数中引入平滑约束和判别式约束,使得正样本和负样本可以保持最大的间隔,从而确保跟踪器能够准确地区分开目标和背景;
3)本发明在基于图的损失函数中增加一个基于排序的损失项,确保了在正负样本集内的样本之间有合适的排列次序,从而有效地提高了目标跟踪的鲁棒性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,根据这些附图获得其他的附图仍属于本发明的范畴。
图1为本发明实施例提供的基于标签传播和排序约束的目标跟踪方法的流程图;
图2为本发明实施例提供的基于标签传播和排序约束的目标跟踪方法的应用场景图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
如图1所示,本发明实施例中,提出的一种基于标签传播和排序约束的目标跟踪方法,所述方法包括:
步骤S1、在给定的视频序列中,选取一定量的起始帧进行标注,得到每一起始帧对应标注出的正样本和负样本,并根据所选的起始帧进行数学状态估计产生候选样本,且进一步将每一起始帧对应标注出的正样本和负样本作为标签样本以及将所选的候选样本作为无标签样本,构建出一个图结构;
具体过程为,步骤S11、在给定的视频序列中,选取前5-10副图像帧分别作为起始帧并标定为正样本,且进一步在每一正样本周围采用一定面积的矩形框进行框定,得到由每一矩形框中所框定的负样本;
步骤S12、根据所选的起始帧进行数学状态估计,采用中心化的高斯分布在下一帧中产生候选样本,并将所述标定的正样本及其对应框定的负样本作为标签样本,将所述候选样本作为无标签样本;
步骤S13、采用k近邻法和径向基核函数为所述标签样本和所述无标签样本构建一个图结构;其中,所述图结构中的每一个节点对应为一个样本。
首先,在步骤S11的前5-10副图像帧中,对目标物体的位置进行标定作为正样本,但由于在前几帧中正样本数目较少,则需要通过对标定位置进行稍微地随机扰动以增加正的样本数目,用表示在有标签样本集中的正样本个数,即为正样本;另外,将目标物体(某一正样本)用一个矩形框选定,设该矩形框的高度为h,宽度为w,则根据“左边-0.5*w,右边+0.5*w;上边-0.5*h,下边+0.5*h”(特别地,若越过图像边界,则以边界为范围)的原则产生个负样本数目。表示在有标签样本集中的负样本个数,即为负样本,且
其次,设定总样本个数为n,将样本分为有标签的和无标签的。在上一步骤中所获取的正负样本就充当有标签的样本,其构成的集合记作:nl表示有标签样本的数量;根据当前帧的目标的最新状态估计,采用中心化的高斯分布在下一帧中产生候选目标(200个),其充当无标签的样本,构成的集合记作:nu表示无标签样本的数量,则有n=nl+nu。标签用yi来表示,yi∈{-1,1}(i=1,Λ,nl)。yi=1意味着xi是目标(正样本);yi=-1意味着xi是背景(负样本)
最后,采用k-NN(k-近邻法)和rbf kernel(径向基核函数)为所有样本数据构建一个图,图的节点就是一个样本数据点(包括有标签和无标签的样本数据)。k近邻法是指选择前k个离候选目标(无标签)样本最近的有标签的样本,用它们的类别投票来决定新样本所属的类别(对于二分类问题,k取值应为奇数以避免出现两类投票相等的情况)。也就是说,在这k个有标签的样本中,假如有k1个正样本,k2个负样本(k1+k2=k),且不妨设k1>k2,则根据k-NN判别准则知,该候选目标样本就属于正样本。采用rbf kernel是为了描述两个样本数据点之间的相似度和它们之间距离(一般采用欧式距离)的关系,即若两个数据点间距离很小,则可以判断出这两个样本的相似度很大,从而可能属于同一类。上述的方法用数学语言描述为:用G表示一个图结构,即G=(V,E,W)。V是一系列和数据点相对应的顶点,是数据点间的连接边,W∈R|V|×|V|是相似度矩阵,并且它的每个元素wij表示样本数据对之间的相似度或权值。给定任意的两个节点xi和xj(从所有样本中任意选取),那么它们之间的相似度wij定义为:
Ni表示顶点xi的k最近邻。
步骤S2、建立基于所述图结构的损失函数,并在所述建立的损失函数中分别引入来自标签传播框架下的基于平滑假设的损失项、基于判别的损失项和基于排序的损失项,形成新的损失函数;
具体过程为,首先,为了保证在一个顶点周围的一定范围内的样本和它具有同样的标签,并且能保证正类样本之间的紧密度,我们引入了基于平滑假设的损失项,其具体的函数式为:
其中,f:Rc→R,c是特征空间的维数。从这个函数式中我们可以看出,如果数据对的权值非常大时,则说明这两个顶点的相似度很大,因此就会使得f(xi)-f(xj)的差值就很小。这恰好与平滑假设的含义相吻合。
其次,为了使得正样本集和负样本集之间保持最大的间隔,我们需要引入基于判别的损失项。判别约束是指对所有有标签的样本能加以判别并分类。其原理是:有标签的点的估计应该和它们原始的标签很接近,并且在候选目标样本集中有正样本倾向的应该倾向拥有正样本的标签,有负样本倾向的应该倾向拥有负样本的标签。因此,正样本(真正的正类样本和有正类倾向的样本)和负样本(真正的负类样本和有负类倾向的样本)之间的间隔才可能是最大的。根据这个原理,基于判别的损失项的具体函数式定义为:
其中,yi是样本xi的标签,其取值为yi∈{-1,1}(i=1,Λ,nl)。yi=1意味着xi是目标(正样本);yi=-1意味着xi是背景(负样本)。
再者,视觉跟踪问题可以看做是一个基于查询的搜索问题。在上一帧中已获得的目标状态相当于查询,在下一帧中所有候选目标就是要被检索的文件,即在所有候选样本中搜索和真实目标最相似的样本。为了保持在视觉跟踪过程中候选目标有一个恰当的排列次序,我们引入了一个基于排序的损失项:当与目标更为相似的正样本的次序低于负样本的次序时,就会使损失增大,即给予跟踪器以惩罚。此外,除了能保持每一个正负样本对之间有合适的排列次序外,它还可以引导跟踪器在正(负)样本集内部有一个正确的排列次序。基于排序的损失项的具体函数式为:
其中,它是一个逐对排序损失项,并且取值为正。xi和xj分别是来自正样本集和负样本集,如果跟踪器将两个样本排序为f(xi)<f(xj)(正确的排序应是正样本的排序比负样本要靠前,因为正样本和目标更加相似),而τij>0,则(c)式符号为正,导致排序损失增加,从而会给予跟踪器以惩罚。
最后,将上述(a),(b)和(c)三个损失函数组合到一起,形成新的损失函数为:
其中λ,β是权值参数。在实验过程中,这两个参数分别设置为1.6和0.1。yi是样本xi的标签,其取值为-1或1,具体含义同(b)式下面的文字解释。(d)式的解可通过下面的优化问题获得:
步骤S3、将所述新的损失函数进行优化,并利用所述新的损失函数的最优解对所选的候选样本进行状态估计,确定所选的候选样本所属的类别和排列次序,并将所述确定的候选样本对所述每一起始帧对应标注出的正样本和负样本进行更新。
具体过程为,对所述新的损失函数进行优化,计算出最优解,并将所述计算出的最优解作为分类器;用所述分类器对所选的候选样本进行状态估计,确定所选的候选样本所属的类别和排列次序;将所述确定的候选样本对所述每一起始帧对应标注出的正样本和负样本进行更新。
在步骤S3中,可以理解为对上述问题(e)进行优化,估计出下一帧(相对于起始帧来说)中目标的状态s2,并根据目标的当前估计s2,更新正、负样本集,为后续帧中的目标状态估计s3做样本准备,如此循环,便可得到一系列候选目标的状态估计。
首先,优化问题(e)是一个无约束的优化问题,可以将其先转化成矩阵形式,然后利用梯度法进行求解。具体如下:
i1∈Rn×1,i2∈Rn×1,分别定义为:
利用梯度法求得这个优化问题的封闭解为
其次,我们使用四个参数表示目标的状态,s=(x,y,h,w),它们分别表示目标的2维特征,高度和宽度。在计算出f后,目标的当前估计和下面的特征向量是对应的:为了获得f的具体解,设置y为所有样本的先验标签。设置无标签的样本的y=0,同时,相应的正样本标签是y=1,负样本标签是y=-1。
最后,我们保留了一个有固定大小的缓冲区来保存有标签和无标签的数据。在获得了每一帧目标的估计后,这个缓冲区就会随之更新。我们将目标的当前估计和排序靠前的几个顶点作为正样本来更新模型;同时,目标的当前估计中处于一个半径在和之间的样本充当负样本。为保证这个缓冲区的大小固定,需要丢掉一些距当前帧很远的样本。因此,这个图结构也被更新。另外,考虑到一个正样本和真实的目标(目标的最新估计),由于这个正样本随着时间的进行不会精确地代表真实的目标,因此需要通过修正它到真实目标的距离来以忘记它的正性。这里T是一个常数,控制着遗忘程序,是在起始帧时样本和真实目标之间的距离,是在当前帧下,样本和真实目标之间的距离。根据这个距离的定义可知,对于一个给定的正样本,它到真实目标的距离随着时间的进行也会增加,这就与实际情况是一致的。在这一步骤中,实现了对正负样本、图结构,以及样本到真实样本之间距离的更新。
如图2所示,为本发明实施例中的基于标签传播和排序约束的目标跟踪方法的应用场景图。图2中,中间下方的带箭头的红色实线表示从有标签样本到无标签的候选目标(带有红色边框)的吸引,通过标签传播,在图中的与目标更加相似的无标签样本要比其他样本排序更高;左下方的带箭头的虚线说明了与箭头处的顶点相比,在箭尾的顶点和目标更加相似;最右边是输出的候选目标的排列次序,向下的箭头说明候选目标是按照降序排列。
实施本发明实施例,具有如下有益效果:
1)本发明在半监督学习的框架下,基于图的跟踪器能够利用有标签样本的类别信息和无标签样本的结构信息预先查看将要被分类的候选目标样本,从而学习到一些诸如有标签样本和无标签样本之间关系的先验信息。在学习这类知识后会减少跟踪器的分类错误,能够减轻目标跟踪过程中的漂移问题;
2)本发明在基于图的损失函数中引入平滑约束和判别式约束,使得正样本和负样本可以保持最大的间隔,从而确保跟踪器能够准确地区分开目标和背景;
3)本发明在基于图的损失函数中增加一个基于排序的损失项,确保了在正负样本集内的样本之间有合适的排列次序,从而有效地提高了目标跟踪的鲁棒性。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,所述的程序可以存储于一计算机可读取存储介质中,所述的存储介质,如ROM/RAM、磁盘、光盘等。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (1)
1.一种基于标签传播和排序约束的目标跟踪方法,其特征在于,所述方法包括:
S1、在给定的视频序列中,选取一定量的起始帧进行标注,得到每一起始帧对应标注出的正样本和负样本,并根据所选的起始帧进行数学状态估计产生候选样本,且进一步将每一起始帧对应标注出的正样本和负样本作为标签样本以及将所选的候选样本作为无标签样本,构建出一个图结构;
S2、建立基于所述图结构的损失函数,并在所述建立的损失函数中分别引入来自标签传播框架下的基于平滑假设的损失项、基于判别的损失项和基于排序的损失项,形成新的损失函数;
S3、将所述新的损失函数进行优化,并利用所述新的损失函数的最优解对所选的候选样本进行状态估计,确定所选的候选样本所属的类别和排列次序,并将所述确定的候选样本对所述每一起始帧对应标注出的正样本和负样本进行更新;
所述步骤S1具体包括:
在给定的视频序列中,选取前5-10副图像帧分别作为起始帧并标定为正样本,且进一步在每一正样本周围采用一定面积的矩形框进行框定,得到由每一矩形框中所框定的负样本;
根据所选的起始帧进行数学状态估计,采用中心化的高斯分布在下一帧中产生候选样本,并将所述标定的正样本及其对应框定的负样本作为标签样本,将所述候选样本作为无标签样本;
采用k近邻法和径向基核函数为所述标签样本和所述无标签样本构建一个图结构;其中,所述图结构中的每一个节点对应为一个样本;
所述步骤S2具体包括:
引入基于平滑假设的损失项,具体函数式定义为:
其中,f:Rc→R,c是特征空间的维数;xi和xj分别是来自正样本集和负样本集;
引入基于判别的损失项,具体函数式定义为:
其中,yi是样本xi的标签,其取值为yi∈{-1,1}(i=1,L,nl);yi=1意味着xi是正样本;yi=-1意味着xi是负样本;
引入基于排序的损失项,具体函数式定义为:
将上述(a),(b)和(c)三个损失函数组合到一起,形成新的损失函数为:
其中,λ,β是权值参数;
所述步骤S3具体包括:
对所述新的损失函数进行优化,计算出最优解,并将所述计算出的最优解作为分类器;
用所述分类器对所选的候选样本进行状态估计,确定所选的候选样本所属的类别和排列次序;
将所述确定的候选样本对所述每一起始帧对应标注出的正样本和负样本进行更新。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710639303.1A CN107689053B (zh) | 2017-07-31 | 2017-07-31 | 一种基于标签传播和排序约束的目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710639303.1A CN107689053B (zh) | 2017-07-31 | 2017-07-31 | 一种基于标签传播和排序约束的目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107689053A CN107689053A (zh) | 2018-02-13 |
CN107689053B true CN107689053B (zh) | 2021-06-04 |
Family
ID=61152393
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710639303.1A Active CN107689053B (zh) | 2017-07-31 | 2017-07-31 | 一种基于标签传播和排序约束的目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107689053B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108764026B (zh) * | 2018-04-12 | 2021-07-30 | 杭州电子科技大学 | 一种基于时序检测单元预筛选的视频行为检测方法 |
CN111027582B (zh) * | 2019-09-20 | 2023-06-27 | 哈尔滨理工大学 | 基于低秩图学习的半监督特征子空间学习方法及装置 |
CN112686326B (zh) * | 2021-01-05 | 2022-09-06 | 中国科学技术大学 | 一种智能排序候选框的目标跟踪方法及系统 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106874894A (zh) * | 2017-03-28 | 2017-06-20 | 电子科技大学 | 一种基于区域全卷积神经网络的人体目标检测方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102663775A (zh) * | 2012-03-30 | 2012-09-12 | 温州大学 | 面向低帧率视频的目标跟踪方法 |
US10387430B2 (en) * | 2015-02-26 | 2019-08-20 | International Business Machines Corporation | Geometry-directed active question selection for question answering systems |
CN104835181B (zh) * | 2015-05-23 | 2018-07-24 | 温州大学苍南研究院 | 一种基于排序融合学习的目标跟踪方法 |
CN106327469B (zh) * | 2015-06-29 | 2019-06-18 | 北京航空航天大学 | 一种语义标签引导的视频对象分割方法 |
US10180968B2 (en) * | 2015-07-23 | 2019-01-15 | Netflix, Inc. | Gaussian ranking using matrix factorization |
-
2017
- 2017-07-31 CN CN201710639303.1A patent/CN107689053B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106874894A (zh) * | 2017-03-28 | 2017-06-20 | 电子科技大学 | 一种基于区域全卷积神经网络的人体目标检测方法 |
Non-Patent Citations (1)
Title |
---|
基于排序学习的推荐算法研究综述;黄震华等;《软件学报》;20151230;第27卷(第3期);第2节 * |
Also Published As
Publication number | Publication date |
---|---|
CN107689053A (zh) | 2018-02-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Novotny et al. | Semi-convolutional operators for instance segmentation | |
CN112131961B (zh) | 一种基于单样本的半监督行人重识别方法 | |
US9158971B2 (en) | Self-learning object detectors for unlabeled videos using multi-task learning | |
Tighe et al. | Superparsing: scalable nonparametric image parsing with superpixels | |
Lee et al. | Key-segments for video object segmentation | |
Zhang et al. | Learning semantic scene models by object classification and trajectory clustering | |
CN107689053B (zh) | 一种基于标签传播和排序约束的目标跟踪方法 | |
CN110781262A (zh) | 基于视觉slam的语义地图的构建方法 | |
Savian et al. | Optical flow estimation with deep learning, a survey on recent advances | |
Xiao et al. | Distractor-supported single target tracking in extremely cluttered scenes | |
Freytag et al. | Labeling examples that matter: Relevance-based active learning with gaussian processes | |
Wang et al. | Improving pseudo labels with intra-class similarity for unsupervised domain adaptation | |
Zhang et al. | Graph-regularized structured support vector machine for object tracking | |
Xu et al. | Gland instance segmentation by deep multichannel neural networks | |
Lin et al. | Bayesian query expansion for multi-camera person re-identification | |
Gong et al. | Unsupervised RGB-T saliency detection by node classification distance and sparse constrained graph learning | |
Meng et al. | Model-driven collaboration and information integration for enhancing video semantic concept detection | |
Yang et al. | Salient object detection via double random walks with dual restarts | |
US20240249547A1 (en) | Pedestrian attribute recognition method based on a pedestrian attribute recognition system and method for training the same | |
Cong et al. | Object tracking via online metric learning | |
Mishra et al. | Automated detection of fighting styles using localized action features | |
CN114565752A (zh) | 一种基于类不可知前景挖掘的图像弱监督目标检测方法 | |
CN113591914A (zh) | 一种数据分类方法、装置、计算机设备和存储介质 | |
Zhou et al. | Learning training samples for occlusion edge detection and its application in depth ordering inference | |
Ding et al. | Robust tracking with adaptive appearance learning and occlusion detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |