CN106778712A - 一种多目标检测与跟踪方法 - Google Patents
一种多目标检测与跟踪方法 Download PDFInfo
- Publication number
- CN106778712A CN106778712A CN201710116342.3A CN201710116342A CN106778712A CN 106778712 A CN106778712 A CN 106778712A CN 201710116342 A CN201710116342 A CN 201710116342A CN 106778712 A CN106778712 A CN 106778712A
- Authority
- CN
- China
- Prior art keywords
- target
- candidate
- frame
- targets
- feature vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000001514 detection method Methods 0.000 title claims abstract description 22
- 239000013598 vector Substances 0.000 claims description 33
- 238000012790 confirmation Methods 0.000 claims description 19
- 238000010200 validation analysis Methods 0.000 claims description 12
- 238000001914 filtration Methods 0.000 claims description 3
- 101100492584 Caenorhabditis elegans ast-1 gene Proteins 0.000 claims description 2
- 239000000203 mixture Substances 0.000 claims description 2
- 230000011218 segmentation Effects 0.000 abstract description 2
- 230000009977 dual effect Effects 0.000 abstract 1
- 230000006870 function Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000005286 illumination Methods 0.000 description 4
- 230000007613 environmental effect Effects 0.000 description 3
- 238000012706 support-vector machine Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
一种多目标检测与跟踪方法,涉及目标跟踪技术领域。本发明采用双阈值的方法来尽可能地减少虚假目标,增加了跟踪的可靠性,在目标跟踪阶段。对于目标检测阶段,本发明采用分类器的方法来分割目标和背景,这样更适用于不同的复杂背景,增加检测的鲁棒性。本发明采用具有空间信息的局部特征值来刻画目标的外观特征,这样使得目标跟踪的精度更高,而且当目标的外观与几个候选目标的外观相似时,不会因为外观相似而造成跟踪错误。
Description
技术领域
本发明涉及目标跟踪技术领域。
背景技术
近年来,计算机视觉越来越受到人们的关注,而且应用也越来越广泛,特别是在视频监控、行为分析、智能交通系统等中都占据着重要的地位。虽然目前已经有很多关于目标跟踪的研究成果,但是如何稳定地跟踪目标而不受环境变化因素的影响仍然是一个严峻的问题。
相对于单目标跟踪来说,多目标跟踪的难点在于目标数量的未知性、目标的相互遮挡、新目标的出现和旧目标的消失等。传统的目标跟踪方法主要有两类,一类是基于模板的目标跟踪方法,该方法首先提取目标的模型,然后在整张视频帧中寻找与模板相似度最高的区域;另一类则是采用分类器的方法,该方法首先是利用目标的属性训练一个分类器,然后利用该分类器将目标从视频帧分离出来,但是该方法一般只是用于单目标跟踪或者目标分割。
上述方法虽然在一定程度上已经有很大的改进,但是对于环境的变化(如光照、摄像机的运动、目标的遮挡),目标跟踪则会产生漂移,至始多目标跟踪的鲁棒性太低,达不到切实跟踪的效果。
发明内容
为了克服现有技术缺陷,减少光照、摄像机的移动、目标之间的相互遮挡等因素对跟踪效果的影响,本发明提出一种多目标检测与跟踪方法,以提高多目标跟踪的鲁棒性。
本发明技术方案包括以下步骤:
1)采用已经训练好的分类器对输入的视频帧序列f i 进行逐帧检测,计算每一个目标的信任度,当目标的信任度大于第一阈值时,该对应的目标被认定为候选目标;
得到每一个候选目标的信息 ,其中,j =1,…,N ,N 为检测到的候选目标个数,,D t 为所有检测到的候选目标集合,为第个候选目标的中心坐标,为第个候选目标的宽度和高度;
该步骤中,本发明事先训练一个目标分类器,然后将该分类器作用在每一帧视频序列上,但往往会因为分类器的原因,分类器会产生虚假目标,此时,本发明通过计算每一个目标的信任度(即通过训练分类器得到的方向梯度直方图(Histogram of OrientedGradients, HOG)分类器模板与每一个候选目标之间的相似度)来判别每一个目标是真实或虚假的目标,当且仅当该信任度大于定义的第一阈值时,才能认定该目标为真实的目标,否则认为是虚假目标。以确保本发明对认定为真实的目标进行跟踪。
2)将每一个候选目标分成个小块,用3×3的模板提取每一个小块的每一个像素点的二值化特征值l (x c ),以此得到个小块特征向量,最后将该个小块特征向量连接成一个维的候选目标特征向量,其中G 为每个小块中像素点的个数;
其中,每一个像素点的二值化特征值l (x c )公式如下:
;其中,P 是边缘处像素点个数;为边缘像素点灰度值;I xc 为模板中心点灰度值; S 是符号函数;
3)采用范数来计算连续两帧中前一帧的确认目标与后一帧的候选目标之间的相似度,公式如下:
其中,为t-1时刻第i 个确认目标,为t 时刻第j 个候选目标,为第i 个确认目标的特征向量,为第j 个候选目标的特征向量,K 为特征向量元素的个数;
4)采用卡尔曼滤波跟踪算法作为每一个目标的跟踪框架,使用当前每一个目标的中心坐标作为输入来预测下一帧该目标可能出现的位置中心坐标;
利用欧几里得距离来计算连续两帧中前一帧每一个确认目标预测的位置与后一帧中各个候选目标位置之间的空间距离,公式如下:
其中,表示-1时刻第个确认目标,表示时刻第个候选目标,表示确认目标在时刻预测的位置中心坐标,表示候选目标的中心坐标;
5)采用以下亲和度函数公式关联确认目标和候选目标:
;其中为亲和度;
在确认目标和候选目标过程中,采用匈牙利算法将候选目标和确认目标进行关联;
当候选目标与确认目标得到关联后,则将该候选目标认定为确认目标;
6)对于在候选目标中未得到关联的前一帧确认目标则认定为该确认目标被遮挡,当确认目标被遮挡时,使用预测的坐标作为所述确认目标的下一帧实际坐标,并且将最后四帧确认目标的宽度、高度的平均值作为当前帧确认目标宽度、高度值,即如果当前是第t 帧,则当前确认目标的宽度、高度值设为t -1、t -2、t -3、t -4帧,这四帧的平均值;
对于未得到关联的候选目标,其连续检测到的帧数达到第二阈值时则认定该目标为一个新目标,否则认定该目标为一个虚假目标而不继续跟踪。
本发明在目标检测阶段可以有效地减少虚假目标或者漏检的情况,其次,在目标跟踪阶段,在目标发生短时间遮挡时,可以有效地解决遮挡问题,而且该方法对于环境因素并不敏感,适用于各种复杂背景、光照变化的场景。
本发明的有益效果:
1、对于目标检测阶段,本发明采用分类器的方法来分割目标和背景,这样更适用于不同的复杂背景,增加检测的鲁棒性。
2、本发明采用双阈值的方法来尽可能地减少虚假目标,增加了跟踪的可靠性,在目标跟踪阶段。
3、本发明采用具有空间信息的局部特征值来刻画目标的外观特征,这样使得目标跟踪的精度更高,而且当目标的外观与几个候选目标的外观相似时,不会因为外观相似而造成跟踪错误。
4、本发明增加了空间几何距离来区别不同的目标,并且当目标被这遮挡时,本发明采用卡尔曼滤波来预测目标在下一时刻的坐标位置,这样在目标处于短时间的遮挡时,可以有效地解决目标遮挡问题,提高了跟踪的准确性和鲁棒性。
本发明技术特点:
1、在目标检测阶段,采用训练好的SVM分类器来检测目标,采用双阈值的方法来检测到的目标是真实目标还是虚假目标。
3、本发明通过提取目标的局部二值化特征值,分别计算确认目标与候选目标之间的相似度和空间几何距离,并将二者的结果进行融合构造一个亲和度函数来匹配确认目标和候选目标。
进一步地,本发明将认定为同一目标的当前帧候选目标的每一个小块特征向量与前一帧确认目标的相同块的小块特征向量进行相似度比较,若相似度大于第三阈值,则用当前目标的小块特征向量替代前一帧确认目标的小块特征向量。
另外,由于目标在运动的过程当中,可能会受周围环境因素及自身姿态改变的影响,需要对目标模板进行更新,而如果只是很生硬地每一帧将目标模板进行更新而不加任何的限制条件的话,很可能引入很多噪声,从而导致跟踪失败。
因此,本发明每连续5帧对确认目标特征向量进行更新,以确保当目标发生变化时能准确地跟踪,采用以下公式对目标特征向量进行更新:
其中,μ 为学习速率,L old 为之前的目标模板特征向量,L cur 为当前候选目标的特征向量。
本发明采用更新的目标信息以确保该目标得以边续跟踪,并且减少噪声。
另外,所述第一阈值符合以下要求:0<≤4。
所述第二阈值为1~10的整数。
所述第三阈值符合以下要求:0.7<<1。
附图说明
图1为本发明多目标检测与跟踪方法流程图。
图2未使用第一阈值实验结果图。
图3加入第一阈值的实验效果图。
图4物体被遮挡时的跟踪情况1图。
图5物体被遮挡时的跟踪情况2图。
具体实施方式
在目标跟踪过程中,传统的目标跟踪方法会因为环境因素(如光照、姿态、背景、遮挡)的变化而导致跟踪失败,为了解决在跟踪过程中而导致的目标漂移问题,本发明提出了一种多目标检测与跟踪的方法来增加多目标跟踪的鲁棒性和准确性。
本发明主要由以下几个方面组成:1)采用一个已经训练好的分类器对输入的视频帧序列进行检测,并将视频帧的目标提取出来;2)提取每一个目标的局部二值化特征值,并且计算相邻帧之间每一个候选目标与目标之间的相似度;3)计算每一个候选目标与目标之间的空间几何距离(欧几里得距离);4)对每一个目标分配一个卡尔曼滤波器,利用当前每一个目标的坐标位置信息来预测目标在下一帧位置信息,并且选择性地更新模板;5)构造亲和度函数来关联候选目标和目标。
流程图如图1所示,具体的操作如下所述:
1、目标检测,本发明采用分类器的方法来提取视频序列中的目标。
首先采用正、负样本(本实施例中用行人进行测试)来训练SVM(Support VectorMachine)分类器,然后采用非极大值抑制方法对分类器检测出来的结果进行筛选,再计算每一个检测结果的信任度,当且仅当该信任度大于定义的第一阈值(在本例中,阈值=2.15)时,则认定该目标为真实的目标,否则,认定该目标为虚假目标,其效果如图2、3所示。
以上信任度的计算公式及方法:
通过训练分类器得到的方向梯度直方图(Histogram of Oriented Gradients, HOG)分类器模板与与每一个候选目标之间的相似度,该相似度采用训练分类器时得到的方向梯度直方图作为匹配模板,然后提取每一个候选目标的方向梯度直方图,最后计算两者之间的相似度,用公式表示信任度如下:
式中,H HOG 为训练分类器得到的方向梯度直方图模板,为第j 个候选目标的方向梯度直方图,i 为方向梯度直方图区间个数。
2、在目标跟踪过程中,设定另外一个连续可见帧数第二阈值(本例中=4)来判别该目标是否为新目标,当目标被连续检测到的帧数大于所设定的第二阈值时,则认定该目标为一个新目标,否则认定该目标为一个虚假目标,对于虚假目标则本系统则不继续跟踪。
3、对于每一个新的目标,在当前帧中,首先将目标分成m ×n (本实例中m=n=4)个小块,对于每一个小块,采用一个3×3的模板去提取其局部二值化特征值。
具体是:以模板的中心点为中心,将模板边缘处的8个点的像素值分别与中心点的像素值作比较,若该值大于中心点像素值,则置为1,否则为0,以此得到一个8位二进制数,并将其转换为十进制数,这样每一个像素点的特征值便可以用一个十进制数进行表示,再将m ×n 个向量连接起来便得到一个长特征向量,其中表示在t 时刻的第i 个候选目标,每一点的二值化特征值可以用如下公式表示:
其中,P 是边缘处像素点个数,取值取决于模板大小(本例P 为8);为边缘像素点灰度值;I xc 为模板中心点灰度值; S 是符号函数。
4、使用范数计算每一个候选目标和确认目标之间的相似度,如果是新目标则跳过此步骤,此时便可以得到候选目标与确认目标之间的相似度矩阵,用如下的公式表示:
其中,表示t 时刻第i 个确认目标,表示t 时刻第j 个候选目标,表示第i 个确认目标的特征向量,表示第j 个候选目标的特征向量,K 为特征向量元素的个数。
5、在目标运动的过程中,可能会遇到其它外观颜色极其相似的目标,此时如果仅仅采用局部二值化特征值来描述目标的特征,很可能将目标匹配错误,而在同一时间,同一空间是不可能同时被两个及以上的物体占据的,所以基于此思想,本发明引入欧几里得距离来描述目标的空间几何信息,这样可以有效防止将远距离的候选目标和当前的目标关联起来。由于视频序列的帧率很高,所以可以认为目标的运动的过程中,在相邻的帧之间是匀速运动的,根据t -1时刻目标的中心坐标位置,利用卡尔曼滤波器来预测目标在t 时刻的坐标位置,并且利用该预测的坐标位置和检测的候选目标的坐标位置来计算它们之间的欧几里得距离,用公式如下:
其中,和分别表示候选目标和确认目标预测的中心坐标。
6、融合目标的局部二值化特征值和欧几里得空间距离来构造目标和候选目标之间的亲和度函数,,再利用匈牙利算法将候选目标和目标进行关联。
其中,=+ ;
。
7、如图4、5,对于在候选目标中未得到关联的前一帧确认目标则认定为该确认目标被遮挡,当确认目标被遮挡时,使用预测的坐标作为所述确认目标的下一帧实际坐标,并且将最后四帧确认目标的宽度、高度的平均值作为当前帧确认目标宽度、高度值,即如果当前是第t 帧,则当前目标的宽度、高度值为t -1、t -2、t -3、t -4帧,这四帧的平均值。
对于未得到关联的候选目标,其连续检测到的帧数达到第二阈值时则认定该目标为一个新目标。
8、由于目标在运动的过程当中,可能会受周围环境因素及自身姿态改变的影响,需要对目标模板进行更新,而如果只是很生硬地每一帧将目标模板进行更新而不加任何的限制条件的话,很可能引入很多噪声,从而导致跟踪失败。
在本发明中,计算候选目标和目标每一个小块的相似度,如果该相似度大于设定的阈值(本例中=0.9),则将目标的模板相应的块用候选目标的块进行更新,否则,目标模板保持不变,更新方法用如下的公式表示:
其中,表示学习速率(在本例中=0.6),表示之前的确认目标模板,表示当前候选目标的特征向量。
Claims (6)
1.一种多目标检测与跟踪方法,其特征在于:
1)采用已经训练好的分类器对输入的视频帧序列f i 进行逐帧检测,计算每一个目标的信任度,当目标的信任度大于第一阈值时,该对应的目标被认定为候选目标;
得到每一个候选目标的信息 ,其中,j =1,…,N ,N 为检测到的候选目标个数,,D t 为所有检测到的候选目标集合,为第个候选目标的中心坐标,为第个候选目标的宽度和高度;
2)将每一个候选目标分成个小块,用3×3的模板提取每一个小块的每一个像素点的二值化特征值l (x c ),以此得到个小块特征向量,最后将该个小块特征向量连接成一个维的候选目标特征向量,其中G 为每个小块中像素点的个数;
其中,每一个像素点的二值化特征值l (x c )公式如下:
;其中,P 是边缘处像素点个数;为边缘像素点灰度值;I xc 为模板中心点灰度值; S 是符号函数;
3)采用范数来计算连续两帧中前一帧的确认目标与后一帧的候选目标之间的相似度,公式如下:
其中,为t-1时刻第i 个确认目标,为t 时刻第j 个候选目标,为第i 个确认目标的特征向量,为第j 个候选目标的特征向量,K 为特征向量元素的个数;
4)采用卡尔曼滤波跟踪算法作为每一个目标的跟踪框架,使用当前每一个目标的中心坐标作为输入来预测下一帧该目标可能出现的位置中心坐标;
利用欧几里得距离来计算连续两帧中前一帧每一个确认目标预测的位置与后一帧中各个候选目标位置之间的空间距离,公式如下:
其中,表示-1时刻第个确认目标,表示时刻第个候选目标,表示确认目标在时刻预测的位置中心坐标,表示候选目标的中心坐标;
5)采用以下亲和度函数公式关联确认目标和候选目标:
;其中为亲和度;
在确认目标和候选目标过程中,采用匈牙利算法将候选目标和确认目标进行关联;
当候选目标与确认目标得到关联后,则将该候选目标认定为确认目标;
6)对于在候选目标中未得到关联的前一帧确认目标则认定为该确认目标被遮挡,当确认目标被遮挡时,使用预测的坐标作为所述确认目标的下一帧实际坐标,并且将最后四帧确认目标的宽度、高度的平均值作为当前帧确认目标宽度、高度值,即如果当前是第帧,则当前确认目标的宽度、高度值设为t -1、t -2、t -3、t -4帧,这四帧的平均值;
对于未得到关联的候选目标,其连续检测到的帧数达到第二阈值时则认定该目标为一个新目标。
2.根据权利要求1所述多目标检测与跟踪方法,其特征在于将认定为同一目标的当前帧候选目标的每一个小块特征向量与前一帧确认目标的相同块的小块特征向量进行相似度比较,若相似度大于第三阈值,则用当前目标的小块特征向量替代前一帧确认目标的小块特征向量。
3.根据权利要求1所述多目标检测与跟踪方法,其特征在于每连续5帧对确认目标特征向量进行更新,用以下公式对目标特征向量进行更新:
其中,μ 为学习速率,L old 为之前的目标模板特征向量,L cur 为当前候选目标的特征向量。
4.根据权利要求1或2或3所述多目标检测与跟踪方法,其特征在于所述第一阈值符合以下要求:0<≤4。
5.根据权利要求1或2或3所述多目标检测与跟踪方法,其特征在于所述第二阈值为1~10的整数。
6.根据权利要求1或2或3所述多目标检测与跟踪方法,其特征在于所述第三阈值符合以下要求:0.7<<1。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710116342.3A CN106778712B (zh) | 2017-03-01 | 2017-03-01 | 一种多目标检测与跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710116342.3A CN106778712B (zh) | 2017-03-01 | 2017-03-01 | 一种多目标检测与跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106778712A true CN106778712A (zh) | 2017-05-31 |
CN106778712B CN106778712B (zh) | 2020-04-14 |
Family
ID=58960494
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710116342.3A Active CN106778712B (zh) | 2017-03-01 | 2017-03-01 | 一种多目标检测与跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106778712B (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108038837A (zh) * | 2017-12-08 | 2018-05-15 | 苏州科达科技股份有限公司 | 视频中目标检测方法及系统 |
CN108154119A (zh) * | 2017-12-25 | 2018-06-12 | 北京奇虎科技有限公司 | 基于自适应跟踪框分割的自动驾驶处理方法及装置 |
CN108288283A (zh) * | 2018-01-22 | 2018-07-17 | 扬州大学 | 一种基于相关滤波的视频跟踪方法 |
CN108509859A (zh) * | 2018-03-09 | 2018-09-07 | 南京邮电大学 | 一种基于深度神经网络的无重叠区域行人跟踪方法 |
CN108734091A (zh) * | 2018-03-30 | 2018-11-02 | 暨南大学 | 车厢异常行为检测方法、计算机装置和计算机可读存储介质 |
CN108985162A (zh) * | 2018-06-11 | 2018-12-11 | 平安科技(深圳)有限公司 | 目标实时跟踪方法、装置、计算机设备及存储介质 |
CN109033922A (zh) * | 2017-06-08 | 2018-12-18 | 北京君正集成电路股份有限公司 | 一种视频中设置目标标识的方法及装置 |
CN109377517A (zh) * | 2018-10-18 | 2019-02-22 | 哈尔滨工程大学 | 一种基于视频追踪技术的动物个体识别系统 |
CN109816690A (zh) * | 2018-12-25 | 2019-05-28 | 北京飞搜科技有限公司 | 基于深度特征的多目标追踪方法及系统 |
CN110322472A (zh) * | 2018-03-30 | 2019-10-11 | 华为技术有限公司 | 一种多目标跟踪方法以及终端设备 |
CN110555867A (zh) * | 2019-09-05 | 2019-12-10 | 杭州立宸科技有限公司 | 一种融合物体捕获识别技术的多目标物体跟踪方法 |
CN113344978A (zh) * | 2021-06-29 | 2021-09-03 | 北京搜狗科技发展有限公司 | 一种目标跟踪方法、装置和用于目标跟踪的装置 |
CN113674307A (zh) * | 2021-10-20 | 2021-11-19 | 湖南大学 | 一种目标检测跟踪方法、装置及设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104200485A (zh) * | 2014-07-10 | 2014-12-10 | 浙江工业大学 | 一种面向视频监控的人体跟踪方法 |
CN104992451A (zh) * | 2015-06-25 | 2015-10-21 | 河海大学 | 一种改进的目标跟踪方法 |
CN104992453A (zh) * | 2015-07-14 | 2015-10-21 | 国家电网公司 | 基于极限学习机的复杂背景下目标跟踪方法 |
-
2017
- 2017-03-01 CN CN201710116342.3A patent/CN106778712B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104200485A (zh) * | 2014-07-10 | 2014-12-10 | 浙江工业大学 | 一种面向视频监控的人体跟踪方法 |
CN104992451A (zh) * | 2015-06-25 | 2015-10-21 | 河海大学 | 一种改进的目标跟踪方法 |
CN104992453A (zh) * | 2015-07-14 | 2015-10-21 | 国家电网公司 | 基于极限学习机的复杂背景下目标跟踪方法 |
Non-Patent Citations (5)
Title |
---|
GUANG SHU等: "Part-based Multiple-Person Tracking with Partial Occlusion Handling", 《2012 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
GUO ZHIBO等: "FDLDA: An Fast Direct LDA algorithm For Face Recognition", 《INTERNATIONAL CONFERENCE ON COMPUTER SCIENCE AND ELECTRONIC TECHNOLOGY (CSET 2016)》 * |
JU HONG YOON等: "Bayesian Multi-Object Tracking Using Motion Context from Multiple Objects", 《2015 IEEE WINTER CONFERENCE ON APPLICATIONS OF COMPUTER VISION》 * |
XIN LI等: "A Multiple Object Tracking Method Using Kalman Filter", 《PROCEEDINGS OF THE 2010 IEEE INTERNATIONAL CONFERENCE ON INFORMATION AND AUTOMATION》 * |
梁成: "基于卡尔曼滤波法视频目标跟踪的改进", 《计算机与数字工程》 * |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109033922A (zh) * | 2017-06-08 | 2018-12-18 | 北京君正集成电路股份有限公司 | 一种视频中设置目标标识的方法及装置 |
CN108038837B (zh) * | 2017-12-08 | 2020-09-29 | 苏州科达科技股份有限公司 | 视频中目标检测方法及系统 |
CN108038837A (zh) * | 2017-12-08 | 2018-05-15 | 苏州科达科技股份有限公司 | 视频中目标检测方法及系统 |
CN108154119A (zh) * | 2017-12-25 | 2018-06-12 | 北京奇虎科技有限公司 | 基于自适应跟踪框分割的自动驾驶处理方法及装置 |
CN108154119B (zh) * | 2017-12-25 | 2021-09-28 | 成都全景智能科技有限公司 | 基于自适应跟踪框分割的自动驾驶处理方法及装置 |
CN108288283A (zh) * | 2018-01-22 | 2018-07-17 | 扬州大学 | 一种基于相关滤波的视频跟踪方法 |
CN108509859A (zh) * | 2018-03-09 | 2018-09-07 | 南京邮电大学 | 一种基于深度神经网络的无重叠区域行人跟踪方法 |
CN108734091A (zh) * | 2018-03-30 | 2018-11-02 | 暨南大学 | 车厢异常行为检测方法、计算机装置和计算机可读存储介质 |
CN110322472A (zh) * | 2018-03-30 | 2019-10-11 | 华为技术有限公司 | 一种多目标跟踪方法以及终端设备 |
CN108985162A (zh) * | 2018-06-11 | 2018-12-11 | 平安科技(深圳)有限公司 | 目标实时跟踪方法、装置、计算机设备及存储介质 |
CN108985162B (zh) * | 2018-06-11 | 2023-04-18 | 平安科技(深圳)有限公司 | 目标实时跟踪方法、装置、计算机设备及存储介质 |
CN109377517B (zh) * | 2018-10-18 | 2021-04-06 | 哈尔滨工程大学 | 一种基于视频追踪技术的动物个体识别系统 |
CN109377517A (zh) * | 2018-10-18 | 2019-02-22 | 哈尔滨工程大学 | 一种基于视频追踪技术的动物个体识别系统 |
CN109816690A (zh) * | 2018-12-25 | 2019-05-28 | 北京飞搜科技有限公司 | 基于深度特征的多目标追踪方法及系统 |
CN110555867A (zh) * | 2019-09-05 | 2019-12-10 | 杭州立宸科技有限公司 | 一种融合物体捕获识别技术的多目标物体跟踪方法 |
CN110555867B (zh) * | 2019-09-05 | 2023-07-07 | 杭州智爱时刻科技有限公司 | 一种融合物体捕获识别技术的多目标物体跟踪方法 |
CN113344978A (zh) * | 2021-06-29 | 2021-09-03 | 北京搜狗科技发展有限公司 | 一种目标跟踪方法、装置和用于目标跟踪的装置 |
CN113674307A (zh) * | 2021-10-20 | 2021-11-19 | 湖南大学 | 一种目标检测跟踪方法、装置及设备 |
Also Published As
Publication number | Publication date |
---|---|
CN106778712B (zh) | 2020-04-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106778712B (zh) | 一种多目标检测与跟踪方法 | |
CN108470354B (zh) | 视频目标跟踪方法、装置和实现装置 | |
CN108171196B (zh) | 一种人脸检测方法及装置 | |
CN111882586B (zh) | 一种面向剧场环境的多演员目标跟踪方法 | |
CN105654516B (zh) | 基于目标显著性的卫星图像对地面弱小运动目标检测方法 | |
JP2006209755A (ja) | シーンから取得されたフレームシーケンス中の移動オブジェクトを追跡する方法 | |
WO2013012091A1 (ja) | 情報処理装置、物体追跡方法およびプログラム記憶媒体 | |
CN103971386A (zh) | 一种动态背景场景下的前景检测方法 | |
KR101130963B1 (ko) | 형태와 특징 정보를 이용한 비정형 객체 추적 장치 및 그 방법 | |
CN105741319B (zh) | 基于盲目更新策略和前景模型的改进视觉背景提取方法 | |
JP2012088881A (ja) | 人物動作検出装置およびそのプログラム | |
Denman et al. | Multi-spectral fusion for surveillance systems | |
Chen et al. | Research on moving object detection based on improved mixture Gaussian model | |
KR101406334B1 (ko) | 신뢰도와 지연된 결정을 활용한 다중 객체 추적 시스템 및 방법 | |
KR101690050B1 (ko) | 지능형 영상보안 시스템 및 객체 추적 방법 | |
Kim et al. | Object Modeling with Color Arrangement for Region‐Based Tracking | |
Najafzadeh et al. | Object tracking using Kalman filter with adaptive sampled histogram | |
CN107729811B (zh) | 一种基于场景建模的夜间火焰检测方法 | |
Almomani et al. | Segtrack: A novel tracking system with improved object segmentation | |
Kim et al. | Simultaneous foreground detection and classification with hybrid features | |
CN109102520A (zh) | 基于模糊均值聚类与卡尔曼滤波跟踪相结合的运动目标检测方法 | |
Wan et al. | Automatic moving object segmentation for freely moving cameras | |
Xie et al. | Robust vehicles extraction in a video-based intelligent transportation systems | |
CN108241837B (zh) | 一种遗留物检测方法和装置 | |
Chen et al. | A mean shift algorithm based on modified Parzen window for small target tracking |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |