CN109658440A - 一种基于目标显著性特征的目标跟踪方法 - Google Patents
一种基于目标显著性特征的目标跟踪方法 Download PDFInfo
- Publication number
- CN109658440A CN109658440A CN201811452537.6A CN201811452537A CN109658440A CN 109658440 A CN109658440 A CN 109658440A CN 201811452537 A CN201811452537 A CN 201811452537A CN 109658440 A CN109658440 A CN 109658440A
- Authority
- CN
- China
- Prior art keywords
- target
- frame
- tracking
- region
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000001514 detection method Methods 0.000 claims abstract description 52
- 238000012986 modification Methods 0.000 claims abstract description 3
- 230000004048 modification Effects 0.000 claims abstract description 3
- 230000008569 process Effects 0.000 claims description 15
- 239000013598 vector Substances 0.000 claims description 12
- 238000013527 convolutional neural network Methods 0.000 claims description 10
- 230000000694 effects Effects 0.000 claims description 7
- 239000000284 extract Substances 0.000 claims description 5
- 238000000605 extraction Methods 0.000 claims description 5
- 230000007480 spreading Effects 0.000 claims description 3
- 238000012360 testing method Methods 0.000 description 10
- 230000007246 mechanism Effects 0.000 description 9
- 230000008901 benefit Effects 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 3
- 230000004438 eyesight Effects 0.000 description 3
- 230000009514 concussion Effects 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 210000000026 apposition eye Anatomy 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000007123 defense Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000029052 metamorphosis Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于目标显著性特征的目标跟踪方法,包括以下步骤:S1、基于第一帧初始化跟踪目标判别模型M1和检测目标判别模型G1;S2、对于第t(t>=2)帧框定检测区域;S3、提取检测区域的HOG以及前景概率特征;S4、依据Mt‑1,确定出目标位置P1;S5、依据P1对跟踪结果以及前景概率的最大置信度进行判别;S6、若两个置信度都大于阈值A和B,则P1为结果,转S2,否则S7;S7、启动检测器检测得另一个目标位置P2;S8、算出P1和P2的跟踪置信度,较高的作为最终结果;S9、对判别模型Gt和Mt进行模型更新,转S2,进行序列跟踪。本发明可以对大部分场景目标进行鲁棒性跟踪。
Description
技术领域
本发明涉及计算机视觉与图像处理技术领域,具体涉及一种基于目标显著性特征的目标跟踪方法。
背景技术
作为计算机视觉领域的热点之一,目标跟踪在军事、智能交通等领域都得到了广泛应用,比如:无人机中的摄像头的自动跟踪技术、交通系统中的车牌跟踪、人机交互系统中的手势跟踪等。此外,在安防领域,目标跟踪也可以辅助人们完成很多工作。人们都知道现在城市里面的每个角落基本都有一只“天眼”在看着大家的所作所为。一旦发生偷盗,拐卖等案件后,目标跟踪可以辅助办案人员对可疑人员进行追踪进而快速锁定目标。在军事领域,对敌方导弹以及战机的追踪可以辅助国防系统进行精准制导,还可以监视敌方战舰等目标物的一举一动。
目标跟踪是最具有挑战性的计算机视觉问题之一,在没有目标的先验信息的前提下利用同一个算法对任意物体实现准确跟踪。所以目标跟踪算法的重点集中在鲁棒的表观特征的设计,基于表观模型的目标跟踪算法,大抵可以划分为两大种类:一种为生成式跟踪模型,另一种为判别式跟踪模型。随着卷积神经网络和相关滤波器在跟踪方面的成功应用,判别式的表观模型越来越受到大家的青睐。判别式的跟踪方法是将跟踪目标和背景看成两种类别的事物,跟踪算法要做的就是学习出分类器对当前的目标和背景做出准确的分类。近几年的跟踪算法主要集中在深度卷积神经网络以及相关滤波器两个方面的扩展以及结合上。
发明内容
本发明的目的是为了对遮挡等跟踪挑战问题的解决提供一种思路,其中现有的跟踪框架缺少对长期目标跟踪的思考,提供一种基于目标显著性特征的目标跟踪方法,有利于提高跟踪的鲁棒性和精确度。
本发明的目的可以通过采取如下技术方案达到:
一种基于目标显著性特征的目标跟踪方法,所述的目标跟踪方法包括下列步骤:
S1、通过视频序列中标定的第一帧对目标位置进行初始化并提取特征进行跟踪目标判别模型M1和检测目标判别模型G1初始化;
S2、从第二帧开始,对于第t帧,依据上一帧的目标位置进行检测区域的框定,其中,t>=2;
S3、提取检测区域的HOG以及前景概率特征,获取增强型目标特征;
S4、依据跟踪目标判别模型Mt-1,获得新一帧检测区域的置信度图,确定出目标位置区域P1;
S5、依据目标位置区域P1对跟踪结果的最大置信度以及前景概率的最大置信度进行判别;
S6、若跟踪结果的置信度以及前景概率的最大置信度同时大于阈值A和阈值B,则将步骤S4中的目标位置区域P1作为最终的目标跟踪结果,若不满足则执行步骤S7;
S7、启动孪生卷积神经网络为检测器对目标检测区域中的目标进行检测得到另一个目标位置区域P2;
S8、依据检测目标位置区域P1和目标位置区域P2进行跟踪置信度的对比,选择置信度较高的一个作为最终的结果;
S9、依据各自的更新规则对跟踪目标判别模型Gt和检测目标判别模型Mt进行模型更新,然后跳转到步骤S2,进行接下来图片帧的目标跟踪。
进一步地,所述的步骤S1过程如下:
S11、给定一系列视频帧,在第一帧中框定出所要跟踪的目标以及位置信息,即宽高和中心点坐标;
S12、根据目标的初始位置截取兴趣区域生成到目标的初始类别,并且将目标兴趣区域作为该初始类别的类别中心;
S13、利用第一帧的信息对跟踪目标判别模型M1和检测目标判别模型G1初始化。
进一步地,所述的步骤S2过程如下:
S21、从第t帧图像开始,利用上一帧的跟踪结果确定出目标区域的大小w×h,其中w、h分别是指框定出的目标区域的宽度以及高度;
S22、框定出以中心位置为中心,宽高大小为(w+k)×(h+k)的当前帧图像的目标检测区域:
k=α*(w+h)/2
其中α为可调整参数,k为检测区域的扩展系数;
S23、其中将目标中心周围(w-k)×(h-k)所框定的区域用Zf表示,代表前景区域,在每帧中划定的目标区域与(w+k)×(h+k)之间的区域用Zb表示,代表的是背景区域。
进一步地,所述的步骤S3过程如下:
S31、利用彩色图的RGB的像素信息对检测区域图片进行方向梯度直方图(Histogram of Oriented Gradient,HOG)HOG特征fHOG的提取;
S32、将目标检测区域三通道像素归一化到[1,32],然后依据前景和背景区域进行字典模型βt-1(F)和βt-1(B)的统计
其中,zi代表包含三个通道的像素值的三维向量,j是一个三维序列向量,NF和NB分别表示的是前景和背景区域的像素个数,函数φ的作用是判断像素向量zi和序列向量j是否一致,如果一致返回1,否则返回0,然后得到两个32×32×32维的前景和背景的字典,这两个字典用于下一帧前景概率图的计算;
S33、对于第t帧的图像,利用t-1帧统计的字典模型进行前景概率图的计算,依据颜色特征提取前景概率图fFPM:
其中,ω(F)代表根据βt-1(F)统计出的在第t帧中检测区域中的各个像素位于前景区域的概率图,对应地ω(B)代表在第t帧检测区域中的各个像素属于背景区域的概率图;
S34、综合前景概率图和HOG特征得到最终的增强型目标特征,如下:
进一步地,所述的步骤S4过程如下:
S41、结合跟踪目标判别模型Mt以及步骤S3中得到的增强型目标特征可以得到新的一帧检测区域的置信度图;
S42、统计置信度图中的最大置信度X,以最大置信度为中心结合DSST算法确定出目标位置区域P1。
进一步地,所述的步骤S7过程如下:
S71、启动检测器,以第一帧中目标区域的图片作为模板,当前帧的目标检测区域作为搜索区域输入孪生卷积神经网络;
S72、通过检测器的模板和检测通道的互相关得到另一个目标位置区域P2。
进一步地,所述的步骤S9过程如下:
S91、结合跟踪结果对跟踪目标判别模型Gt更新;
S92、判断本帧过程中检测器是否启动,若有启动则检测目标判别模型Mt在本帧跳过不更新,否则对其进行更新。
S93、若不为最后一帧则跳转到步骤S2继续执行,直到最后结束跟踪。
本发明相对于现有技术具有如下的优点及效果:
1)、本发明将颜色特征与边缘梯度特征融合在一起得到了对光照变化、形态变化等比较鲁棒的综合特征,更加有利于对目标物体的识别和辨别。
2)、本发明发掘了前景概率图对于前景增强和背景特征抑制,一定程度可以减少背景对于跟踪的影响。
3)、本发明充分发掘了孪生卷积神经网络的另一个用途——用做检测器,充分利用了孪生卷积神经网络检测图像块区域较大这一优势。
4)、本发明意识到了跟踪过程中模型不可避免的或多或少会受到污染,所以利用另一种间接更新的方法来更新检测目标判别模型,保证此模型对目标特征的纯净性。
5)、本发明提出了一套条件检测机制来辅助跟踪以及检测过程,尽可能确保跟踪器和检测器可以协同的运作,提高跟踪的鲁棒性。
6)、本发明的目标跟踪算法在OTB2015以及VOT2015数据集上进行了整体实验对比以及实验内部模块的测试,实验证明算法的有效性。
附图说明
图1是本发明中公开的基于目标显著性特征的目标跟踪方法流程图;
图2(a)是针对Soccer序列中75帧图片框定出的前景以及背景区域;
图2(b)是在Soccer序列75帧图片中对应融入前景概率图后的特征效果图;
图2(c)是在Soccer序列75帧图片中算法跟踪结果图;
图2(d)是针对Football序列中320帧图片框定出的前景以及背景区域;
图2(e)是在Football序列320帧图片中对应融入前景概率图后的特征效果图;
图2(f)是在Football序列320帧图片中算法跟踪结果图;
图3(a)是jogging-1序列中第50帧跟踪成功不需提供检测机制的情况;
图3(b)是jogging-1序列中第79帧跟踪出现震荡需要提供检测机制的情况;
图3(c)是对应jogging-1序列在不启动以及启动条件检测机制两种情况下的置信度图;
图3(d)是Girl2序列中第99帧跟踪成功不需提供检测机制的情况;
图3(e)是Girl2序列中第106帧跟踪出现震荡需要提供检测机制的情况;
图3(f)是对应Girl2序列在不启动以及启动条件检测机制两种情况下的置信度图;
图4是结合具体视频帧可视化的算法整体流程图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例
本实施例公开了一种基于目标显著性特征的目标跟踪算法,具体流程图参照附图1所示,包括下列步骤:
S1、通过视频序列中标定的第一帧对目标位置进行初始化并提取特征进行跟踪目标判别模型M1和检测目标判别模型G1初始化;
通过步骤S1以明确跟踪目标信息,以此信息为基础初始化特征模型。
在具体实施方式中,步骤S1包括:
S11、给定一系列视频帧,在第一帧中框定出所要跟踪的目标以及位置信息,即宽高和中心点坐标;
S12、根据目标的初始位置截取兴趣区域生成到目标的初始类别,并且将目标兴趣区域作为该初始类别的类别中心;
S13、利用第一帧的信息对跟踪目标判别模型M1和检测目标判别模型G1初始化。
S2、从第二帧开始,对于第t帧,依据上一帧的目标位置进行检测区域的框定,其中,t>=2;
通过步骤S2限制邻近帧目标跟踪区域,减少无用搜索。
在具体实施方式中,步骤S2包括:
S21、从第t(t>=2)帧图像开始,利用上一帧的跟踪结果确定出目标区域的大小w×h;其中w、h分别是指框定出的目标区域的宽度以及高度;
S22、框定出以中心位置为中心,宽高大小为(w+k)×(h+k)的当前帧图像的目标检测区域;
k=α*(w+h)/2
其中α为可调整参数,这里取0.5;k为检测区域的扩展系数。
S23、其中将目标中心周围(w-k)×(h-k)所框定的区域用Zf表示,代表前景区域。在每帧中划定的目标区域与(w+k)×(h+k)之间的区域用Zb表示,代表的是背景区域,如图2(a)、图2(d);
S3、提取检测区域的方向梯度直方图(Histogram of Oriented Gradient,HOG)以及前景概率特征,获取增强型目标特征图,如图2(b)、图2(e);
在具体实施方式中,步骤S3包括:
S31、利用彩色图的RGB的像素信息对检测区域图片进行HOG特征fHOG的提取;
S32、将目标检测区域三通道像素归一化到[1,32],然后依据前景和背景区域进行字典模型βt-1(F)和βt-1(B)的统计
其中的zi代表的是包含三个通道的像素值的三维向量,j是一个三维序列向量。NF和NB分别表示的是前景和背景区域的像素个数。函数φ的作用就是判断像素向量zi和序列向量j是否是一样的,如果一样就会返回1,否则返回0。然后就可以得到两个32×32×32维的前景和背景的字典,这两个字典用于下一帧前景概率图的计算;
S33、对于第t帧的图像,利用t-1帧统计的字典模型进行前景概率图的计算。依据颜色特征提取前景概率图fFPM;
其中ω(F)代表的是根据βt-1(F)统计出的在第t帧中检测区域中的各个像素位于前景区域的概率图,对应地ω(B)代表的是在第t帧检测区域中的各个像素属于背景区域像素的概率图,提取出前景概率图中的最大值作为前景概率置信度S;
S34、综合前景概率图和HOG特征得到最终的增强型目标特征,如下:
S4、依据跟踪目标判别模型Mt-1,获得新一帧检测区域的置信度图,确定出目标位置区域P1,定出的位置区域如图2(f)、图2(c);
步骤S3结合步骤S4可以依据跟踪器模型初步锁定出目标的位置信息。
在具体实施方式中,步骤S4包括:
S41、结合跟踪目标判别模型Mt以及步骤S34中的增强型目标特征可以得到新的一帧检测区域的置信度图;
S42、统计置信度图中的最大置信度X,以最大置信度为中心结合DSST算法确定出目标位置区域P1。
S5、依据目标位置区域P1对跟踪结果的最大置信度X以及前景概率的最大置信度进行判别;
在具体实施方式中,步骤S5包括:
S51、提取S42中的置信度图中的最大置信度X以及S33中的前景概率置信度S;
S52、将跟踪结果的最大置信度X以及前景概率置信度S两个条件与设定阈值A和阈值B进行比较。阈值A对应的是最大置信度X的比较对象,在实际跟踪处理时,取的是视频第一帧的最大置信度X的0.018作为一个视频的比较标准;阈值B对应的是前景概率置信度S的比较对象,实际处理时对应的是视频第一帧的前景概率置信度S的0.78作为一个视频的比较标准;
S6、若跟踪结果的置信度以及前景概率的最大置信度同时大于阈值A和阈值B,则S4中的目标位置区域P1作为最终的目标跟踪结果,若不满足则执行S7,其中整个比较选择的过程如图3(a)-图3(f)所示。其中在图3(c)、图3(f)中的虚线代表的就是模糊化的比较标准,如果两个跟踪置信度中有一个低于标准就会激活检测器;
在具体实施方式中,步骤S6包括:
S61、若置信度X大于阈值A且前景概率置信度S大于阈值B,则当前帧图像中目标的表观特征变化不大,S4中的跟踪结果可信作为最终跟踪结果,跳转到步骤S9。
S62、若置信度X和颜色置信度S中有任何一个小于阈值,则进入步骤S7;
步骤S5结合S6可以判定出跟踪结果(即目标位置区域P1)的可信度,是否需要启动条件检测机制,减少跟踪漂移。
S7、启动孪生卷积神经网络为检测器对目标检测区域中的目标进行检测得到另一个目标位置区域P2;
在具体实施方式中,步骤S7包括:
S71、启动检测器,以第一帧中目标区域的图片作为模板,当前帧的目标检测区域作为搜索区域输入孪生卷积神经网络,如图4中的流程所述;
S72、通过检测器的模板和检测通道的互相关得到另一个目标位置区域P2。
S8、依据检测目标位置区域P1和目标位置区域P2进行跟踪置信度的对比,选择置信度较高的一个作为最终的结果;
S7结合S8是在启动检测机制的情况下,对于最终的跟踪的处理措施,对于目标遮挡以及短暂性消失等场景具有很好的效果。
在具体实施方式中,步骤S8包括:
S81、依据检测目标判别模型对目标位置区域P1和目标位置区域P2进行跟踪置信度的对比;
S82、对于最后得到的两个结果,选取置信度比较大的一个作为最终的跟踪结果。
S9、依据各自的更新规则对跟踪目标判别模型Gt和检测目标判别模型Mt进行模型更新,然后跳转到步骤S2,进行接下来图片帧的目标跟踪。
在具体实施方式中,步骤S9包括:
S91、结合跟踪结果对跟踪目标判别模型Gt更新;
S92、判断本帧过程中检测器是否启动,若有启动则检测目标判别模型Mt在本帧跳过不更新,否则对其进行更新。
S93、若不为最后一帧则跳转到S2,直到最后结束跟踪。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (7)
1.一种基于目标显著性特征的目标跟踪方法,其特征在于,所述的目标跟踪方法包括下列步骤:
S1、通过视频序列中标定的第一帧对目标位置进行初始化并提取特征进行跟踪目标判别模型M1和检测目标判别模型G1初始化;
S2、从第二帧开始,对于第t帧,依据上一帧的目标位置进行检测区域的框定,其中,t>=2;
S3、提取检测区域的HOG以及前景概率特征,获取增强型目标特征;
S4、依据跟踪目标判别模型Mt-1,获得新一帧检测区域的置信度图,确定出目标位置区域P1;
S5、依据目标位置区域P1对跟踪结果的最大置信度以及前景概率的最大置信度进行判别;
S6、若跟踪结果的置信度以及前景概率的最大置信度同时大于阈值A和阈值B,则将步骤S4中的目标位置区域P1作为最终的目标跟踪结果,若不满足则执行步骤S7;
S7、启动孪生卷积神经网络为检测器对目标检测区域中的目标进行检测得到另一个目标位置区域P2;
S8、依据检测目标位置区域P1和目标位置区域P2进行跟踪置信度的对比,选择置信度较高的一个作为最终的结果;
S9、依据各自的更新规则对跟踪目标判别模型Gt和检测目标判别模型Mt进行模型更新,然后跳转到步骤S2,进行接下来图片帧的目标跟踪。
2.根据权利要求1所述的一种基于目标显著性特征的目标跟踪方法,其特征在于,所述的步骤S1过程如下:
S11、给定一系列视频帧,在第一帧中框定出所要跟踪的目标以及位置信息,即宽高和中心点坐标;
S12、根据目标的初始位置截取兴趣区域生成到目标的初始类别,并且将目标兴趣区域作为该初始类别的类别中心;
S13、利用第一帧的信息对跟踪目标判别模型M1和检测目标判别模型G1初始化。
3.根据权利要求1所述的一种基于目标显著性特征的目标跟踪方法,其特征在于,所述的步骤S2过程如下:
S21、从第t帧图像开始,利用上一帧的跟踪结果确定出目标区域的大小w×h,其中w、h分别是指框定出的目标区域的宽度以及高度;
S22、框定出以中心位置为中心,宽高大小为(w+k)×(h+k)的当前帧图像的目标检测区域:
k=α*(w+h)/2
其中α为可调整参数,k为检测区域的扩展系数;
S23、其中将目标中心周围(w-k)×(h-k)所框定的区域用Zf表示,代表前景区域,在每帧中划定的目标区域与(w+k)×(h+k)之间的区域用Zb表示,代表的是背景区域。
4.根据权利要求1所述的一种基于目标显著性特征的目标跟踪方法,其特征在于,所述的步骤S3过程如下:
S31、利用彩色图的RGB的像素信息对检测区域图片进行HOG特征fHOG的提取;
S32、将目标检测区域三通道像素归一化到[1,32],然后依据前景和背景区域进行字典模型βt-1(F)和βt-1(B)的统计
其中,zi代表包含三个通道的像素值的三维向量,j是一个三维序列向量,NF和NB分别表示的是前景和背景区域的像素个数,函数φ的作用是判断像素向量zi和序列向量j是否一致,如果一致返回1,否则返回0,然后得到两个32×32×32维的前景和背景的字典,这两个字典用于下一帧前景概率图的计算;
S33、对于第t帧的图像,利用t-1帧统计的字典模型进行前景概率图的计算,依据颜色特征提取前景概率图fFPM:
其中,ω(F)代表根据βt-1(F)统计出的在第t帧中检测区域中的各个像素位于前景区域的概率图,对应地ω(B)代表在第t帧检测区域中的各个像素属于背景区域的概率图;
S34、综合前景概率图和HOG特征得到最终的增强型目标特征,如下:
fFINAL=fFPM⊙fHOG。
5.根据权利要求1所述的一种基于目标显著性特征的目标跟踪方法,其特征在于,所述的步骤S4过程如下:
S41、结合跟踪目标判别模型Mt以及步骤S3中得到的增强型目标特征可以得到新的一帧检测区域的置信度图;
S42、统计置信度图中的最大置信度X,以最大置信度为中心结合DSST算法确定出目标位置区域P1。
6.根据权利要求1所述的一种基于目标显著性特征的目标跟踪方法,其特征在于,所述的步骤S7过程如下:
S71、启动检测器,以第一帧中目标区域的图片作为模板,当前帧的目标检测区域作为搜索区域输入孪生卷积神经网络;
S72、通过检测器的模板和检测通道的互相关得到另一个目标位置区域P2。
7.根据权利要求1所述的一种基于目标显著性特征的目标跟踪方法,其特征在于,所述的步骤S9过程如下:
S91、结合跟踪结果对跟踪目标判别模型Gt更新;
S92、判断本帧过程中检测器是否启动,若有启动则检测目标判别模型Mt在本帧跳过不更新,否则对其进行更新。
S93、若不为最后一帧则跳转到步骤S2继续执行,直到最后结束跟踪。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811452537.6A CN109658440A (zh) | 2018-11-30 | 2018-11-30 | 一种基于目标显著性特征的目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811452537.6A CN109658440A (zh) | 2018-11-30 | 2018-11-30 | 一种基于目标显著性特征的目标跟踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109658440A true CN109658440A (zh) | 2019-04-19 |
Family
ID=66112098
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811452537.6A Pending CN109658440A (zh) | 2018-11-30 | 2018-11-30 | 一种基于目标显著性特征的目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109658440A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110322473A (zh) * | 2019-07-09 | 2019-10-11 | 四川大学 | 基于显著部位的目标抗遮挡跟踪方法 |
CN111105440A (zh) * | 2019-11-29 | 2020-05-05 | 北京金山云网络技术有限公司 | 视频中目标物体的跟踪方法、装置、设备及存储介质 |
CN112070036A (zh) * | 2020-09-11 | 2020-12-11 | 联通物联网有限责任公司 | 基于多帧图片的目标检测方法、装置及存储介质 |
CN112070035A (zh) * | 2020-09-11 | 2020-12-11 | 联通物联网有限责任公司 | 基于视频流的目标跟踪方法、装置及存储介质 |
CN115061574A (zh) * | 2022-07-06 | 2022-09-16 | 陈伟 | 一种基于视觉核心算法的人机交互系统 |
CN115214637A (zh) * | 2021-04-01 | 2022-10-21 | 广州汽车集团股份有限公司 | 倒车制动辅助方法、辅助控制器、驾驶辅助系统和汽车 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103116896A (zh) * | 2013-03-07 | 2013-05-22 | 中国科学院光电技术研究所 | 一种基于视觉显著性模型的自动检测跟踪方法 |
WO2018095082A1 (zh) * | 2016-11-28 | 2018-05-31 | 江苏东大金智信息系统有限公司 | 一种视频监测中运动目标的快速检测方法 |
-
2018
- 2018-11-30 CN CN201811452537.6A patent/CN109658440A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103116896A (zh) * | 2013-03-07 | 2013-05-22 | 中国科学院光电技术研究所 | 一种基于视觉显著性模型的自动检测跟踪方法 |
WO2018095082A1 (zh) * | 2016-11-28 | 2018-05-31 | 江苏东大金智信息系统有限公司 | 一种视频监测中运动目标的快速检测方法 |
Non-Patent Citations (1)
Title |
---|
XIAOYAO DING ET AL.: "A Selective Tracking and Detection Framework", 《IEEE XPLORE》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110322473A (zh) * | 2019-07-09 | 2019-10-11 | 四川大学 | 基于显著部位的目标抗遮挡跟踪方法 |
CN111105440A (zh) * | 2019-11-29 | 2020-05-05 | 北京金山云网络技术有限公司 | 视频中目标物体的跟踪方法、装置、设备及存储介质 |
CN111105440B (zh) * | 2019-11-29 | 2023-07-07 | 北京金山云网络技术有限公司 | 视频中目标物体的跟踪方法、装置、设备及存储介质 |
CN112070036A (zh) * | 2020-09-11 | 2020-12-11 | 联通物联网有限责任公司 | 基于多帧图片的目标检测方法、装置及存储介质 |
CN112070035A (zh) * | 2020-09-11 | 2020-12-11 | 联通物联网有限责任公司 | 基于视频流的目标跟踪方法、装置及存储介质 |
CN115214637A (zh) * | 2021-04-01 | 2022-10-21 | 广州汽车集团股份有限公司 | 倒车制动辅助方法、辅助控制器、驾驶辅助系统和汽车 |
CN115214637B (zh) * | 2021-04-01 | 2024-02-02 | 广州汽车集团股份有限公司 | 倒车制动辅助方法、辅助控制器、驾驶辅助系统和汽车 |
CN115061574A (zh) * | 2022-07-06 | 2022-09-16 | 陈伟 | 一种基于视觉核心算法的人机交互系统 |
CN115061574B (zh) * | 2022-07-06 | 2023-03-31 | 大连厚仁科技有限公司 | 一种基于视觉核心算法的人机交互系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109658440A (zh) | 一种基于目标显著性特征的目标跟踪方法 | |
Zhang et al. | Deep-IRTarget: An automatic target detector in infrared imagery using dual-domain feature extraction and allocation | |
Li et al. | Foveanet: Perspective-aware urban scene parsing | |
Feng et al. | Cityflow-nl: Tracking and retrieval of vehicles at city scale by natural language descriptions | |
Zhao et al. | Multiresolution airport detection via hierarchical reinforcement learning saliency model | |
Zhang et al. | Visual tracking using Siamese convolutional neural network with region proposal and domain specific updating | |
Huang et al. | Siamsta: Spatio-temporal attention based siamese tracker for tracking uavs | |
CN111191531A (zh) | 一种快速行人检测方法及系统 | |
CN112434599A (zh) | 一种基于噪声通道的随机遮挡恢复的行人重识别方法 | |
Liu et al. | Adversarial learning and decomposition-based domain generalization for face anti-spoofing | |
Liu et al. | Detecting and matching related objects with one proposal multiple predictions | |
Pan et al. | Intrinsic satellite video decomposition with motion target energy constraint | |
Kurowski et al. | Accurate ball tracking in volleyball actions to support referees | |
Jourdheuil et al. | Heterogeneous adaboost with real-time constraints-application to the detection of pedestrians by stereovision | |
Tian et al. | Object Tracking Algorithm based on Improved Siamese Convolutional Networks Combined with Deep Contour Extraction and Object Detection Under Airborne Platform. | |
CN113688781B (zh) | 一种遮挡弹性的行人重识别对抗攻击方法 | |
Guo et al. | A new target-specific object proposal generation method for visual tracking | |
Wu et al. | A Review of Camouflaged Target Detection Research | |
Ranganatha et al. | Color Based New Algorithm for Detection and Single/Multiple Person Face Tracking in Different Background Video Sequence | |
Chen et al. | Vehicle re-identification method based on vehicle attribute and mutual exclusion between cameras | |
Peng et al. | Continuous vehicle detection and tracking for non-overlapping multi-camera surveillance system | |
Lin et al. | Boundary-aware salient object detection via recurrent two-stream guided refinement network | |
CN113920164B (zh) | 一种剧场环境下基于近红外防伪油墨的演员身份重识别方法 | |
Wang et al. | Flow guided siamese network for visual tracking | |
Chen et al. | AdapTrack: An adaptive FairMOT tracking method applicable to marine ship targets |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190419 |
|
RJ01 | Rejection of invention patent application after publication |