CN110097577A - 一种基于深度学习的半离线深度目标追踪方法 - Google Patents
一种基于深度学习的半离线深度目标追踪方法 Download PDFInfo
- Publication number
- CN110097577A CN110097577A CN201910370659.9A CN201910370659A CN110097577A CN 110097577 A CN110097577 A CN 110097577A CN 201910370659 A CN201910370659 A CN 201910370659A CN 110097577 A CN110097577 A CN 110097577A
- Authority
- CN
- China
- Prior art keywords
- layer
- deep learning
- tracker
- inclusion
- special domain
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 28
- 238000013135 deep learning Methods 0.000 title claims abstract description 20
- 230000004913 activation Effects 0.000 claims abstract description 22
- 230000006870 function Effects 0.000 claims abstract description 20
- 238000012549 training Methods 0.000 claims abstract description 12
- 238000012545 processing Methods 0.000 claims description 11
- 210000002569 neuron Anatomy 0.000 claims description 5
- 238000012360 testing method Methods 0.000 description 18
- 230000008569 process Effects 0.000 description 5
- 230000007423 decrease Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000003475 lamination Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种基于深度学习的半离线深度目标追踪方法,在用于目标追踪时,可以避免因为在线更新中的假样本而导致目标追踪失败的问题发生,且可以提高目标追踪识别的性能。其包括:S1构建追踪器网络模型,基于MDNet构建追踪器网络模型的共享层的结构;还包括特定域层,特定域层包括依次连接的Dropout层、全连接层、分类函数;共享层中最后一个全连接层输出的特征图经过激活函数处理后输入到特定域层;S2选择训练集,得到训练好的追踪器网络模型;S3从视频中获取待追踪特征序列,输入到训练好的追踪器网络模型中,进行后续的目标追踪操作,在目标追踪操作开始之前通过待追踪特征序列中的首帧上采集的样本对特定域层进行训练,定义特定域层的网络权重。
Description
技术领域
本发明涉及目标识别技术领域,具体为一种基于深度学习的半离线深度目标追踪方法。
背景技术
计算机视觉技术中的目标追踪技术在智能监控、人机交互、无人驾驶、虚拟现实甚至是军事等诸多领域都有着广泛的应用。基于深度学习的目标追踪技术,依据是否进行网络模型权重更新而将追踪器分为在线式追踪和离线式追踪。对在线式追踪器,其网络模型权重较多,为了能及时适应追踪过程中目标的变化,往往需要在线调整网络的权重,其中,MDNet(MultiDomain Network)追踪器是一种典型的在线式追踪器,其核心思想是:首先在不同类型的追踪序列中学习到目标的通用表征方式,然后利用在线更新网络权重的方式来学习当前追踪序列的目标特征,最后在采样的基础上通过一个二分类判别器来识别出哪些是背景哪些是目标,选取可信度最高的目标作为追踪结果。然而,在线更新策略虽然有助于追踪,但是,如果在追踪的过程中出现了假样本,将会使得网络偏向于识别假正样本,从而导致目标识别的失败;另外,过度繁重的在线更新,特别是过于频繁地发生短时更新,也会使得追踪器的速度大大下降,进而导致目标追踪识别整体性能的下降。
发明内容
为了解决基于深度学习的在线类追踪器因为在线更新中的假样本而导致目标识别失败、以及频繁地在线更新导致目标识别性能下降的问题,本发明提供一种基于深度学习的半离线深度目标追踪方法,在用于目标识别时,可以避免因为在线更新中的假样本而导致目标识别失败的问题发生,且可以提高目标追踪识别的性能。
本发明的技术方案是这样的:一种基于深度学习的半离线深度目标追踪方法,其包括以下步骤:
S1:构建追踪器网络模型,基于MDNet构建所述追踪器网络模型的共享层的结构;
S2:选择训练集,得到训练好的所述追踪器网络模型;
S3:从视频中获取待追踪特征序列,输入到训练好的所述追踪器网络模型中,进行后续的目标追踪操作;
其特征在于:
步骤S1的所述追踪器网络模型的结构中,其还包括特定域层,所述特定域层包括依次连接的Dropout层、全连接层、分类函数;所述共享层中最后一个全连接层输出的特征图经过激活函数层处理后输入到所述特定域层;
步骤S3中,在所述目标追踪操作开始之前对所述特定域层的网络权重的进行定义,定义方式是通过所述待追踪特征序列中的首帧上采集的样本对所述特定域层进行训练。
其进一步特征在于:
所述共享层包括依次连接的连续的3个卷积层、连续2个全连接层;每个所述卷积层后面都跟着一个激活函数;第一个所述卷积层、第二个所述卷积层输出的特征图分别依次通过所述激活函数、LRN层、池化层进行处理后,再进行后续处理;第三个所述卷积层输出的特征图经过激活函数处理之后,输入到连续的两个带有Dropout层的所述全连接层中;
所述共享层中的第一个所述全连接层和第二个全连接层之间不设置所述激活函数;
所述输入层接收的图片是通道为3、大小为107×107的图片;
所述共享层中的第一个所述卷积层的卷积核为7×7、步长为2;第二个所述卷积层的卷积核为5×5、步长为2;第三个所述卷积层的卷积核为3×3、步长为1;
所述共享层中的第一个所述卷积层、第二个所述卷积层后面跟着的所述池化层的局部区域为3×3、步长为2;
所述特定域层中的Dropout层和所述共享层中的Dropout层的随机率都设置为0.5;
所述共享层中连续2个所述全连接层均包含512个神经元;
所述共享层中的所述激活函数为ReLU函数;
所述分类函数为softmax分类函数。
本发明提供的一种基于深度学习的半离线深度目标追踪方法,其对于网络权重的更新策略是在每次目标追踪操作开始之前对特定域层的网络权重进行定义,其舍弃了MDNet追踪器在目标识别过程中进行更新的在线权重更新策略,避免了在追踪过程因为假样本而导致追踪失败,也避免了追踪过程中因为繁重的在线更新而导致追踪器的速度下降的问题;本发明的技术方案,在追踪开始之前使用了首帧进行网络权重的训练,追踪序列的第一帧都是会明确指明该序列中应该追踪的目标对象,所以,根据首帧采集的正负样本进行判别器的训练是可以保证目标识别的准确性的;即本发明的技术方案,可以做到在保证识别准确性的基础上,降低识别失败的概率,提高目标识别的速度。
附图说明
图1为本发明中半离线深度目标追踪器的网络结构示意图;
图2为本追踪器在目标追踪基准测试平台(Object Tracking Benchmark)各个追踪序列上的追踪速度示意图。
具体实施方式
如图1所示,本发明一种基于深度学习的半离线深度目标追踪方法,其包括以下步骤。
S1:构建追踪器网络模型,基于MDNet构建追踪器网络模型的共享层的结构;
基于深度学习的半离线深度目标追踪器的追踪器网络模型包括共享层和特定域层;在追踪过程中,由于网络的共享层可以提取出目标的通用特征表示,那么只需要通过调整新建的特定域层的权重让其来适应特定目标特征,从而达到从采集的样本中识别目标和背景的目的,实现目标位置的确定。
共享层包括依次连接的连续的3个卷积层、连续2个全连接层;网络模型通过输入层接收待分类图片,这些图片是通道为3、大小为107×107的图片,输入层接收的图片输入到共享层中;共享层中的每个卷积层后面都跟着一个激活函数;第一个卷积层、第二个卷积层输出的特征图分别依次通过激活函数、LRN( Local Response Normalization)层、池化层进行处理后,再进行后续处理;第一个卷积层的卷积核为7×7、步长为2;第二个卷积层的卷积核为5×5、步长为2;第三个卷积层的卷积核为3×3、步长为1;第一个卷积层、第二个卷积层后面跟着的池化层的局部区域为3×3、步长为2;第三个卷积层输出的特征图经过激活函数处理之后,输入到连续的两个带有Dropout层的全连接层中;第一个全连接层和第二个全连接层之间不设置激活函数;
特定域层包括依次连接的Dropout层、全连接层、分类函数;共享层中最后一个全连接层输出的特征图经过激活函数处理后输入到特定域层;共享层中连续2个全连接层均包含512个神经元;特定域层中的Dropout层和共享层中的Dropout层的随机率都设置为0.5;分类函数为softmax分类函数;
追踪器中的激活函数都使用修正线性单元ReLU(Rectified Linear Unit)函数。
在输入层,网络接收的是通道为三的大小为107×107的图片,第一层卷积层的卷积核为大小为7×7 ,步长为2,输出有96个特征图,特征图的大小为51×51,然后使用ReLU函数激活后再使用LRN方法进行处理,接下来再经过局部区域为3×3,步长为2的池化处理,接着进入卷积核大小为5×5,步长为2的卷积层,输出256个特征图,特征图的大小为11×11,再经过ReLU函数激活后,使用LRN进行处理,随后使用局部区域为3×3,步长为2的池化处理,然后再进入卷积核为3 ×3,步长为1的卷积层,输出512个特征图,特征图的大小为3×3,并使用ReLU进行激活,同时采用随即率为0.5的Dropout进行处理,最后连接全连接层;除了最后一层全连接层,其余全连接层都是512个神经元,前两个全连接层之间不使用ReLU函数处理,最后一层全连接层只使用了两个神经元,正好分别对应了判别式追踪中背景和目标两类,在分类时采用softmax分类函数,而损失函数则选择了交叉熵损失函数。
ReLU激活函数能获得输入的稀疏表征,减少计算量,降低对硬件的需求,从而提高计算机的运行速度。但是,相对地,其也存在严重的信息丢失问题。本发明在MDNet网络架构基础上构建半离线深度目标追踪器时,舍弃了共享层中第一个全连接层和第二个全连接层之间的ReLU处理。因为该半离线追踪器已经不是一个在线类的追踪器,其特征数据不能过分稀疏,否则会影响到目标与背景的识别效果。
S2:选择训练集,得到训练好的追踪器网络模型;
与MDNet追踪器相同,本发明中定义的追踪器的网络模型中只有共享层部分是离线训练好的,而连接在共享层后面的判别层的权重是在追踪前重新定义的,故而在测试新的追踪序列时,至少要使得最后一层的权重得到训练才可以进行有效的追踪测试。在本发明定义的追踪方法中,在目标追踪操作开始之前对特定域层的网络权重的进行定义,定义方式是通过待追踪特征序列中的首帧上采集的样本对特定域层进行训练。
因为追踪序列的第一帧均会明确地指明该序列中应该追踪的目标对象,因此,根据首帧采集的正负样本进行判别器的训练时在准确性方面具有一定保障性。本发明的技术方案,由于在追踪开始之前使用了首帧进行网络权重的训练,所以并不是一个完全离线式的深度目标追踪器,而其在追踪过程中是完全不需要对网络模型进行更新的,所以它是一种半离线深度目标追踪器。
本发明的技术方案中,对于网络权重的训练采取与MDNet追踪器一样的策略,使用精确标注的VOT数据集进行训练,然后在OTB检测基准平台上进行测试。但是,随着这VOT数据集不断扩大,不少OTB数据集中的追踪序列也被吸收进去,训练时会将其剔除出去。另一方面,由于半离线追踪器的网络结构是基于MDNet追踪器的,而网络训练的目的是要获得能够提取出公共特征的权重值,因此,半离线追踪器的共享网络部分的权重值可以直接从MDNet追踪器的共享网络中读取。最后,判别器的权重通过在初始帧上采集500个正样本和5000个负样本,以千分之一的学习率迭代地训练30个周期,其余网络超参数的设置可参考MDNet追踪器,尤其是批量大小超参数,需要根据各自硬件的容纳程度进行设置。
S3:从视频中获取待追踪特征序列,输入到训练好的追踪器网络模型中,进行后续的目标追踪操作。
为了验证本发明技术方案中的目标追踪方法的有效性和实用性,选取数据集cvpr13 、OTB50、OTB100进行实验,并与近几年获得的优秀的追踪器,如:SiamFC、CFNet_conv3、Staple、fDSST、ACFN,SAMF、LCT、MEEM、DSST、KCF等,进行同平台比对。
测试环境为CPU为i5 7300hq@2.5GHz, GPU 为NvidiaGeForceGTX10504G的笔记本,框架为tensorflow 1.40。
测试的整体结果如下面的表1、表2、表3所示,其中,OFFTracker为本文追踪器。
表1 cvpr13 整体测试结果
表2 OTB50 整体测试结果
表3 OTB100 整体测试结果
上面表1、表2、表3三个表格中的数据为追踪器测试基准测试平台自动测试给出的追踪器性能评价(0为最差,1为最好),表格的首行及第四行表示追踪器的名字,第一列表示测试的类型。从表中数据可以看出,本发明给出的追踪器的整体性能均优于其它追踪器,性能评分与目前一些优秀的追踪器相比,也具有一定的竞争性。
在各个属性图上的测试结果如下表所示:
表4 OTB 50 各属性成功图测试结果
表5 OTB 50 各属性精度图测试结果
表6 OTB 100 各属性成功图测试结果
表7 OTB 100 各属性精度图测试结果
在上面的表4、表5、表6、表7中,最左边一列表示不同追踪器的名字,而表格的第一行表示不同追踪测试序列的困难属性缩写,它们分别是变形(deformation, DEF), 快速运动(fast motion, FM),平面内旋转(in-plane rotation, IPR),低分辨率(low resolution,LR),运动模糊(motion blur, MB),遮挡(occlusion, OCC),平面外旋转(out-planerotation, OPR),不在视野内(out-of-view, OV)以及尺度变化(scale variation, SV)。各表格中的数值是追踪器基准测试平台对追踪器性能的衡量(0最差,1最好),它们表示在不同困难属性的干扰下、各个追踪器在目标尺度以及位置追踪上的平均成功率情况,该指标通常用来衡量一个追踪器的追踪性能。这里成功率是指,在不同的阈值条件下,当前追踪序列中追踪器成功追踪到目标的比率。而阈值又分为两大类,分别对应了目标的尺度追踪以及目标的位置追踪(当然,目标的位置在边界条件下也能在一定程度上影响到尺度评价的结果,该情况比较特殊),前者对应了基准测试平台的成功图,其阈值表示的是由追踪器所获得的目标的估计尺度与目标的实际尺度之间的重叠率大小的限值,而后者对应了由追踪器给出的目标的估计位置中心与目标的实际位置中心之间的欧式距离的限值。对于某一帧而言,追踪的结果大于重叠率阈值(对应成功图)或者小于位置阈值(对应精度图),该帧就是追踪成功的。从表中可以看出,该追踪器在不同的困难属性下,均有较好的追踪性能和良好的鲁棒性。
另一方面,与原在线追踪器(MDNet)相比,其速度也有不少提升,在文献《LearningMulti-Domain Convolutional Neural Networks for Visual Tracking》中指出,MDNet在八核处理器Intel Xeon E5-2660@2.2GHz及GPU为NVIDIA Tesla K20m上测试时,平均速度是1fps;而本发明中的半离线追踪器在i5 7300hq@2.5GHz, GPU 为NvidiaGeForceGTX10504G的笔记本上测试时,各个追踪序列上的平均追踪速度如说明书附图的图2所示,其整体的平均速度是3.3fps,大约为在线追踪器MDNet的3倍。
本发明技术方案中的半离线追踪器OFFTracker,追踪思路简单明了,追踪的整体效果较好,避免了因负样本而导致的追踪失败的情况,有效的提高了目标追踪的速度。
Claims (10)
1.一种基于深度学习的半离线深度目标追踪方法,其包括以下步骤:
S1:构建追踪器网络模型,基于MDNet构建所述追踪器网络模型的共享层的结构;
S2:选择训练集,得到训练好的所述追踪器网络模型;
S3:从视频中获取待追踪特征序列,输入到训练好的所述追踪器网络模型中,进行后续的目标追踪操作;
其特征在于:
步骤S1的所述追踪器网络模型的结构中,其还包括特定域层,所述特定域层包括依次连接的Dropout层、全连接层、分类函数;所述共享层中最后一个全连接层输出的特征图经过激活函数处理后输入到所述特定域层;
步骤S3中,在所述目标追踪操作开始之前对所述特定域层的网络权重的进行定义,定义方式是通过所述待追踪特征序列中的首帧上采集的样本对所述特定域层进行训练。
2.根据权利要求1所述一种基于深度学习的半离线深度目标追踪方法,其特征在于:所述共享层包括依次连接的输入层、连续的3个卷积层、连续2个全连接层;所述输入层接收待分类图片;每个所述卷积层后面都跟着一个激活函数;第一个所述卷积层、第二个所述卷积层输出的特征图分别依次通过所述激活函数、LRN层、池化层进行处理后,再进行后续处理;第三个所述卷积层输出的特征图经过激活函数处理之后,输入到连续的两个带有Dropout层的所述全连接层中。
3.根据权利要求2所述一种基于深度学习的半离线深度目标追踪方法,其特征在于:所述共享层中的第一个所述全连接层和第二个全连接层之间不设置所述激活函数。
4.根据权利要求2所述一种基于深度学习的半离线深度目标追踪方法,其特征在于:所述输入层接收的图片是通道为3、大小为107×107的图片。
5.根据权利要求2所述一种基于深度学习的半离线深度目标追踪方法,其特征在于:所述共享层中的第一个所述卷积层的卷积核为7×7、步长为2;第二个所述卷积层的卷积核为5×5、步长为2;第三个所述卷积层的卷积核为3×3、步长为1。
6.根据权利要求2所述一种基于深度学习的半离线深度目标追踪方法,其特征在于:所述共享层中的第一个所述卷积层、第二个所述卷积层后面跟着的所述池化层的局部区域为3×3、步长为2。
7.根据权利要求2所述一种基于深度学习的半离线深度目标追踪方法,其特征在于:所述特定域层中的Dropout层和所述共享层中的Dropout层的随机率都设置为0.5。
8.根据权利要求2所述一种基于深度学习的半离线深度目标追踪方法,其特征在于:所述共享层中连续2个所述全连接层均包含512个神经元。
9.根据权利要求2所述一种基于深度学习的半离线深度目标追踪方法,其特征在于:所述共享层中的所述激活函数为ReLU函数。
10.根据权利要求1所述一种基于深度学习的半离线深度目标追踪方法,其特征在于:所述分类函数为softmax分类函数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910370659.9A CN110097577A (zh) | 2019-05-06 | 2019-05-06 | 一种基于深度学习的半离线深度目标追踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910370659.9A CN110097577A (zh) | 2019-05-06 | 2019-05-06 | 一种基于深度学习的半离线深度目标追踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110097577A true CN110097577A (zh) | 2019-08-06 |
Family
ID=67446865
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910370659.9A Pending CN110097577A (zh) | 2019-05-06 | 2019-05-06 | 一种基于深度学习的半离线深度目标追踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110097577A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112116626A (zh) * | 2020-08-04 | 2020-12-22 | 北京交通大学 | 一种基于柔性卷积的单目标跟踪方法 |
CN112581507A (zh) * | 2020-12-31 | 2021-03-30 | 北京澎思科技有限公司 | 目标跟踪方法、系统及计算机可读存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108171112A (zh) * | 2017-12-01 | 2018-06-15 | 西安电子科技大学 | 基于卷积神经网络的车辆识别与跟踪方法 |
CN108257156A (zh) * | 2018-01-24 | 2018-07-06 | 清华大学深圳研究生院 | 一种从视频中自动追踪目标物体的方法 |
-
2019
- 2019-05-06 CN CN201910370659.9A patent/CN110097577A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108171112A (zh) * | 2017-12-01 | 2018-06-15 | 西安电子科技大学 | 基于卷积神经网络的车辆识别与跟踪方法 |
CN108257156A (zh) * | 2018-01-24 | 2018-07-06 | 清华大学深圳研究生院 | 一种从视频中自动追踪目标物体的方法 |
Non-Patent Citations (1)
Title |
---|
李叶: "基于深度学习的监控视频多目标追踪研究", 《中国优秀硕士学位论文全文数据库》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112116626A (zh) * | 2020-08-04 | 2020-12-22 | 北京交通大学 | 一种基于柔性卷积的单目标跟踪方法 |
CN112116626B (zh) * | 2020-08-04 | 2024-04-26 | 北京交通大学 | 一种基于柔性卷积的单目标跟踪方法 |
CN112581507A (zh) * | 2020-12-31 | 2021-03-30 | 北京澎思科技有限公司 | 目标跟踪方法、系统及计算机可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110084836B (zh) | 基于深度卷积特征分层响应融合的目标跟踪方法 | |
CN108961308B (zh) | 一种漂移检测的残差深度特征目标跟踪方法 | |
Zhang et al. | Multi-task generative adversarial network for detecting small objects in the wild | |
CN105844665B (zh) | 视频对象追踪方法及装置 | |
CN109035290A (zh) | 一种基于高置信度更新补充学习的跟踪算法 | |
CN107832683A (zh) | 一种目标跟踪方法及系统 | |
CN104778465B (zh) | 一种基于特征点匹配的目标跟踪方法 | |
CN107145862A (zh) | 一种基于霍夫森林的多特征匹配多目标跟踪方法 | |
CN104794729B (zh) | 基于显著性引导的sar图像变化检测方法 | |
CN109635864B (zh) | 一种基于数据的容错控制方法及装置 | |
CN110097577A (zh) | 一种基于深度学习的半离线深度目标追踪方法 | |
CN110503000A (zh) | 一种基于人脸识别技术的教学抬头率测量方法 | |
Zheng et al. | Siamese deformable cross-correlation network for real-time visual tracking | |
CN112966553A (zh) | 基于孪生网络的强耦合目标跟踪方法、装置、介质及设备 | |
CN111161153B (zh) | 宽景拼接方法、装置及存储介质 | |
CN109636790A (zh) | 一种管路结构的识别方法及装置 | |
CN113971684A (zh) | 一种基于kcf和surf特征的实时鲁棒目标跟踪方法 | |
Xing et al. | ADPS: Asymmetric Distillation Postsegmentation for Image Anomaly Detection | |
Yang et al. | A semantic information decomposition network for accurate segmentation of texture defects | |
CN108717522A (zh) | 一种基于深度学习和相关滤波的人体目标跟踪方法 | |
CN106934339A (zh) | 一种目标跟踪、跟踪目标识别特征的提取方法和装置 | |
CN106897735A (zh) | 一种快速移动目标的跟踪方法及装置 | |
CN111814514A (zh) | 号码识别装置、方法以及电子设备 | |
CN110322473A (zh) | 基于显著部位的目标抗遮挡跟踪方法 | |
CN111354019B (zh) | 一种基于神经网络的视觉跟踪失效检测系统及其训练方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190806 |
|
RJ01 | Rejection of invention patent application after publication |