CN111354019A - 一种基于神经网络的视觉跟踪失效检测系统及其训练方法 - Google Patents
一种基于神经网络的视觉跟踪失效检测系统及其训练方法 Download PDFInfo
- Publication number
- CN111354019A CN111354019A CN202010242153.2A CN202010242153A CN111354019A CN 111354019 A CN111354019 A CN 111354019A CN 202010242153 A CN202010242153 A CN 202010242153A CN 111354019 A CN111354019 A CN 111354019A
- Authority
- CN
- China
- Prior art keywords
- tracking
- neural network
- correlation
- training
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 47
- 238000012549 training Methods 0.000 title claims abstract description 46
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 34
- 230000000007 visual effect Effects 0.000 title claims abstract description 24
- 238000001914 filtration Methods 0.000 claims abstract description 51
- 230000008447 perception Effects 0.000 claims abstract description 15
- 238000003062 neural network model Methods 0.000 claims abstract description 5
- 230000016776 visual perception Effects 0.000 claims abstract description 3
- 238000010586 diagram Methods 0.000 claims description 29
- 238000004422 calculation algorithm Methods 0.000 claims description 16
- 230000002159 abnormal effect Effects 0.000 claims description 11
- 238000013527 convolutional neural network Methods 0.000 claims description 10
- 238000012360 testing method Methods 0.000 claims description 8
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 4
- 230000006870 function Effects 0.000 claims description 4
- 238000005457 optimization Methods 0.000 claims description 2
- 238000012545 processing Methods 0.000 claims description 2
- 238000012795 verification Methods 0.000 claims description 2
- 238000004088 simulation Methods 0.000 claims 1
- 230000017105 transposition Effects 0.000 claims 1
- 230000002596 correlated effect Effects 0.000 description 5
- 230000000875 corresponding effect Effects 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了属于视觉跟踪技术领域的一种基于神经网络的视觉跟踪失效检测系统及其训练方法。建立基于神经网络的视觉跟踪失效检测系统,该系统由相关滤波模块和跟踪异常感知模块串联连接组成;该视觉跟踪失效检测系统利用深度神经网络强大的视觉感知能力,根据相关滤波器生成的结果图,判断目标跟踪是否失效;相关滤波模块根据跟踪异常感知模块的结果进行模型参数更新。鉴于神经网络方法具有很好的分类精度,但是需要大量的样本进行训练,所述训练需要大量的样本包括正样本和负样本,由此设计了相应的大规模训练样本生成方法,主要用于深度神经网络模型的训练;并在公开数据集上进行了测试。本发明可以支撑深度神经网络的训练。
Description
技术领域
本发明属于视觉跟踪技术领域,特别涉及一种基于神经网络的视觉跟踪失效检测系统及其训练方法。
背景技术
视觉目标跟踪是在图像数据流中对特定的目标进行跟踪的一类算法,输入是连续的图像数据和需要跟踪的目标模板,输出是跟踪目标的位置。目标形态改变、外界环境干扰都可能造成跟踪算法失效,即无法准确定位目标位置。及时发现跟踪算法失效,并及时调整或重置跟踪算法对提升目标跟踪系统稳定性具有重要意义。
检测类跟踪算法使用快速检测器对目标图像(待检测图像)进行目标位置匹配,通过计算目标模板和目标图像的相似度,确定目标的位置。刻画相似度的图被称为相关图(correlation map)或者热图(heat map),相关图上的每个像素点代表该位置与目标模板中心点的相似程度。
跟丢检测的主要手段是判断相关图的最大值是否超过特定阈值,如果超过特定阈值则认为跟踪正常,如果低于阈值则认为跟踪得到的目标与目标模板相似度过低,跟踪结果不可信,因此判定为跟踪失效。这种方法的局限性在于只考虑相关图上最高点的信息,而没有考虑相关图上分布模式的信息。伴随着相关滤波类算法的发展,也产生了一类基于峰值旁瓣比 (Peak to Sidelobe Ratio,PSR)的跟踪失效检测方法。
相关滤波方法是一类经典的目标跟踪方法,其原理是寻找一个滤波器将目标从背景中过滤出来,滤波后得到的结果图和相关图具有相似的性质,相似度大时最高点的值较大,同时分布相对集中,当存在较大干扰时最高点的值较小,而且分布比较分散。计算相关滤波结果图目标附近(11*11 像素)内的峰值旁瓣比,即最大值减去均值再除以旁瓣标准差。峰值旁瓣比小于固定的阈值7,则认为存在遮挡或者跟踪失效,大于阈值则认为跟踪正常阈值方法和峰值旁瓣比方法均需要提前设定阈值,不同背景噪声下检测效果会下降。目标跟踪算法缺乏统一的标准来判断跟踪是否失效,没有独立的跟踪失效检测模块。因此需要构建一个独立的跟踪失效检测模块。
针对现有跟踪算法缺乏通用的跟踪失效检测方法的局限,本发明提出了一种基于深度神经网络的跟踪失效检测系统,设计了用于深度神经网络训练的样本生成方法。
发明内容
本发明的目的是提出一种基于神经网络的视觉跟踪失效检测系统及其训练方法,其特征在于,首先建立基于神经网络的视觉跟踪失效检测系统,该系统由相关滤波模块和跟踪异常感知模块串联连接组成;该系统中相关滤波模块根据跟踪异常感知模块的结果进行模型参数更新。
所述相关滤波模块的输入是原始图像和跟踪算法检测得到的物体位置和大小信息,输出是表征图像物体相关性的结果图;相关滤波模块基于核相关滤波KCF方法将跟踪结果附近的图像块取出,并使用相关滤波器进行处理,得到反映目标相似性的相关图;相关滤波模块不进行跟踪检测,只生成相关图;相关图的大小与输入图像块的大小一致,每个位置上的值代表图像内容与目标物体的相关性,相关图的分布越集中,检测结果越可靠。
所述跟踪异常感知模块的输入是相关滤波模块生成的相关图,输出为 0或者1,分别代表跟踪正常与跟踪失效。
一种基于神经网络的视觉跟踪失效检测系统的训练方法,其特征在于,跟踪异常感知模块利用深度神经网络强大的视觉感知能力,根据相关滤波器生成的结果图,判断目标跟踪是否失效;由于神经网络方法具有很好的分类精度,但是需要大量的样本进行训练,所述训练需要大量的样本包括正样本和负样本,即跟踪正常和跟踪失效的相关图;与之相对应,设计了相应的大规模训练样本生成方法,主要用于深度神经网络模型的训练;并在公开数据集上进行了测试。
所述深度神经网络模型是随机位移生成方式产生跟踪丢失的样本,训练数据可以采用任何有标注的视频数据集;以OTB-100数据集为例,使用 OTB-100数据集进行样本生成,并随机提取生成样本行训练,从总样本中取出80%作为训练数据集,20%作为验证数据集;对相同数据集,随机取出 60个视频,改变第一帧的标注数据即改变标注目标大小,生成用于测试的样本,随机提取一定数量的样本进行测试;测试结果是使用深度神经网络方式对相关图进行跟踪异常感知;卷积神经网络的输入为相关滤波算法生成的相关图,卷积神经网络的输出为二分类结果为0或1,表示跟踪正常和跟踪异常;输出结果为1代表跟踪是失效,反之为跟踪正常。
本发明的有益效果是该方法提供一种独立于跟踪算法的跟踪失效检测方法,能够判断跟踪算法是否失效;由于神经网络方法具有很好的分类精度,但是需要大量的样本进行训练,本发明提出了一种大规模训练样本的生成方法,可以支撑深度神经网络的训练。
附图说明
图1为跟踪失效检测系统结构示意图。
图2为相关滤波模块示意图。
图3为跟踪异常感知模块示意图。
具体实施方式
本发明提出一种基于神经网络的视觉跟踪失效检测系统及其训练方法,下面结合附图和实施例对本发明予以进一步说明。
如图1所示为跟踪失效检测系统结构示意图。首先建立基于神经网络的视觉跟踪失效检测系统,该系统由相关滤波模块和跟踪异常感知模块串联连接组成;相关滤波模块将输入的目标图像、位置经过滤波处理输出相关图,该相关图输入跟踪异常感知模块,跟踪异常感知模块的结果如果是正常,则返回相关滤波模块,系统中相关滤波模块根据跟踪异常感知模块的结果进行模型参数更新;如果输出为正常/异常,继续结果输出。
如图2所示为相关滤波模块示意图。该相关滤波模块的输入是原始图像和跟踪算法检测得到的物体位置和大小信息,输出是表征图像物体相关性的结果图;相关滤波模块基于核相关滤波KCF方法将跟踪结果附近的图像块取出,并使用相关滤波器进行特征提取处理,进行模型训练,得到反映目标相似性的相关图;相关滤波模块不进行跟踪检测,只生成相关图;相关图的大小与输入图像块的大小一致,每个位置上的值代表图像内容与目标物体的相关性,相关图的分布越集中,检测结果越可靠。
如图3所示为跟踪异常感知模块示意图。根据相关滤波得到的相关图,利用深度卷积神经网络实现跟踪状态的分类,输出为0或者1,分别代表跟踪正常与跟踪失效。
基于神经网络的视觉跟踪失效检测系统的训练包括:
1)相关滤波模块
相关滤波模块主要分为滤波和训练两个部分,滤波部分主要是将目标的图像特征进行组合,得到相关结果图,计算公式为
f(x)=wTx
其中w是滤波器参数,x为输入图像特征。T是矩阵转置,f(x)就是将输入图像转化为相关滤波的输出结果。滤波器训练使用优化算法,优化的目标函数为
滤波器参数w的计算公式为
w=(XTX+λI)-1XTy
传统的滤波器需要根据结果图进行目标位置检测。改进的相关滤波模块不进行位置检测,只对输入图像进行滤波得到相关图,根据深度神经网络模块的结果,如果跟踪正常,则训练滤波器,否则不进行滤波器训练。其中 y为高斯钟形函数,I为对角矩阵,λI为对角线上值为λ的对角矩阵。
2)跟踪异常感知模块
基于相关滤波得到的相关图,跟踪异常感知模块利用深度卷积神经网络实现跟踪状态的分类。深度卷积神经网络需要大量数据进行训练。
训练样本的产生步骤如下:
1,初始化跟踪器设置restart_tracker为False;
2,使用新图像更新跟踪器,在相关滤波计算过程中,首先计算当前时刻的相关图h,沿随机方向移动检测框,使目标不在检测框内后停止,或者到达图像边界停止,模拟跟踪失效时的相关图h’;
3,分别计算h和h’对应的目标位置c和c’与真实目标中心位置c0的欧氏距离;h中对应的目标所在的位置c=(i,j),为相关滤波检测到的目标中心位置,同理c’为跟踪失效后相关值对应的干扰物的位置;
6,如果restart_tracker为True则转到步骤1,如果restart_tracker 为False则转到步骤2,重复该过程直到图像数据结束。
实施例
使用OTB-100数据集]进行样本生成,生成跟踪正常的样本58723个(随机提取50000个进行训练),跟踪失效样本48235个。从总样本中取出80%作为训练数据集,20%作为验证数据集。对相同数据集,随机取出60个视频,改变第一帧的标注数据(改变标注目标大小),生成用于测试的样本,生成跟踪正常的样本34321个(随机提取30000个进行测试),跟踪失效样本27748个。
实验如表1所示,PSR为峰值旁瓣比的实验结果,除此之外还测试了 resnet18,resnet152,alexnet,densenet121,squeezenet1.1,vgg19络模型。实验发现网络模型的准确度,精确度和召回率均超过96%,远高于 PSR方法,resnet18,squeezenet和alexnet的速度均可达到200Hz以上。实验平台计算机的CPU为Intel core i7 6850K CPU,GPU为GTX-1080TI-11G,内存为32GB。
表1
Method | Accuracy(%) | Precision%) | Recall(%) | Fps(Hz) |
PSR | 0.885020288 | 0.90913898 | 0.878361119 | 2300.820643 |
resnet18 | 0.973410124 | 0.976563699 | 0.974967219 | 206.1820135 |
resnet152 | 0.97190486 | 0.979847739 | 0.968751597 | 34.15317542 |
alexnet | 0.975410909 | 0.981608998 | 0.973451629 | 384.2923943 |
densenet121 | 0.975008882 | 0.978454604 | 0.975971936 | 36.85414778 |
squeezenet1_1 | 0.971502833 | 0.980196995 | 0.967644705 | 239.6716656 |
vgg19 | 0.974120683 | 0.982611996 | 0.970028779 | 76.23914993 |
Claims (6)
1.一种基于神经网络的视觉跟踪失效检测系统,其特征在于,首先建立基于神经网络的视觉跟踪失效检测系统,该系统由相关滤波模块和跟踪异常感知模块串联连接组成;该系统中相关滤波模块根据跟踪异常感知模块的结果进行模型参数更新。
2.根据权利要求1所述基于神经网络的视觉跟踪失效检测系统,其特征在于,所述相关滤波模块的输入是原始图像和跟踪算法检测得到的物体位置和大小信息,输出是表征图像物体相关性的结果图;相关滤波模块基于核相关滤波KCF方法将跟踪结果附近的图像特征取出,并使用相关滤波器进行处理,得到反映目标相似性的相关图;相关滤波模块不进行跟踪检测,只生成相关图;相关图的大小与输入图像图的大小一致,每个位置上的值代表图像内容与目标物体的相关性,相关图的分布越集中,检测结果越可靠。
3.根据权利要求1所述基于神经网络的视觉跟踪失效检测系统,其特征在于,所述跟踪异常感知模块的输入是相关滤波模块生成的相关图,输出为0或者1,分别代表跟踪正常与跟踪失效。
4.一种权利要求1所述基于神经网络的视觉跟踪失效检测系统的训练方法,其特征在于,视觉跟踪失效检测系统利用深度神经网络强大的视觉感知能力,根据相关滤波器生成的结果图,判断目标跟踪是否失效;由于神经网络方法具有很好的分类精度,但是需要大量的样本进行训练,所述训练需要大量的样本包括正样本和负样本,即跟踪正常和跟踪失效的相关图;与之相对应,设计了相应的大规模训练样本生成方法,主要用于深度神经网络模型的训练;并在公开数据集上进行了测试。
5.根据权利要求4所述基于神经网络的视觉跟踪失效检测系统的训练方法,其特征在于,所述相应的训练模型是深度神经网络可使用任意一种能够处理视觉任务的深度神经网络模型中的卷积神经网络,使用OTB-100数据集进行样本生成,并随机提取生成样本行训练,从总样本中取出80%作为训练数据集,20%作为验证数据集;对相同数据集,随机取出60个视频,改变第一帧的标注数据即改变标注目标大小,生成用于测试的样本,随机提取一定数量的样本进行测试;测试结果是使用深度神经网络方式对相关图进行跟踪异常感知;卷积神经网络的输入为核相关滤波的结果图,卷积神经网络的输出为二分类结果,即输出是0或者1;分别代表跟踪正常和跟踪异常,表示跟踪是否失效。
6.根据权利要求4所述基于神经网络的视觉跟踪失效检测系统的训练方法,其特征在于,基于神经网络的视觉跟踪失效检测系统的训练包括:
1)相关滤波模块,相关滤波模块主要分为滤波和训练两个部分,滤波部分主要是将目标的图像特征进行组合,得到相关结果图f(x),计算公式为
f(x)=wTx其中w是滤波器参数,x为输入图像特征;T是矩阵转置,f(x)就是将输入图像转化为相关滤波的输出结果;
滤波器训练使用优化算法,优化的目标函数为
滤波器参数w的计算公式为
w=(XTX+λI)-1XTy
传统的滤波器需要根据结果图进行目标位置检测;改进的相关滤波模块不进行位置检测,只对输入图像进行滤波得到相关图,根据深度神经网络模块的结果,如果跟踪正常,则训练滤波器,否则不进行滤波器训练;其中y为高斯钟形函数,i为样本库中样本的索引值,I为对角矩阵,λI为对角线上值为λ的对角矩阵;
2)跟踪异常感知模块,基于相关滤波得到的相关图,跟踪异常感知模块利用深度卷积神经网络实现跟踪状态的分类;深度卷积神经网络需要大量数据进行训练;
训练样本的产生步骤如下:
(1)初始化跟踪器设置restart_tracker为False;
(2)使用新图像更新跟踪器,在相关滤波计算过程中,将当前目标位置附近的检测框中的图像作为输入x,使用相关滤波器计算相关结果图f(x),沿随机方向移动检测框,使目标不在检测框内后停止,或者到达图像边界停止,得到不包含目标的检测框x’,计算模拟跟踪失效时的相关图h’h’=f(x’),h代表跟踪目标与检测框中内容的相关性;
(3)h中的最大值所在的位置c=(i,j),为相关滤波检测到的目标中心位置,同理c’为跟踪失效后相关值最大的干扰物的位置,分别计算h和h’对应的目标位置c和c’与真实目标中心位置c0的欧氏距离;
(6)如果restart_tracker为True则转到步骤1,如果restart_tracker为False则转到步骤2,重复该过程直到图像数据结束。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010242153.2A CN111354019B (zh) | 2020-03-31 | 2020-03-31 | 一种基于神经网络的视觉跟踪失效检测系统及其训练方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010242153.2A CN111354019B (zh) | 2020-03-31 | 2020-03-31 | 一种基于神经网络的视觉跟踪失效检测系统及其训练方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111354019A true CN111354019A (zh) | 2020-06-30 |
CN111354019B CN111354019B (zh) | 2024-01-26 |
Family
ID=71194809
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010242153.2A Active CN111354019B (zh) | 2020-03-31 | 2020-03-31 | 一种基于神经网络的视觉跟踪失效检测系统及其训练方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111354019B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112950687A (zh) * | 2021-05-17 | 2021-06-11 | 创新奇智(成都)科技有限公司 | 一种确定跟踪状态的方法、装置、存储介质和电子设备 |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106709936A (zh) * | 2016-12-14 | 2017-05-24 | 北京工业大学 | 一种基于卷积神经网络的单目标跟踪方法 |
CN107292915A (zh) * | 2017-06-15 | 2017-10-24 | 国家新闻出版广电总局广播科学研究院 | 基于卷积神经网络的目标跟踪方法 |
CN107292914A (zh) * | 2017-06-15 | 2017-10-24 | 国家新闻出版广电总局广播科学研究院 | 基于小型单支卷积神经网络的视觉目标跟踪方法 |
CN107767405A (zh) * | 2017-09-29 | 2018-03-06 | 华中科技大学 | 一种融合卷积神经网络的核相关滤波目标跟踪方法 |
CN108154118A (zh) * | 2017-12-25 | 2018-06-12 | 北京航空航天大学 | 一种基于自适应组合滤波与多级检测的目标探测系统及方法 |
CN108171112A (zh) * | 2017-12-01 | 2018-06-15 | 西安电子科技大学 | 基于卷积神经网络的车辆识别与跟踪方法 |
CN108346159A (zh) * | 2018-01-28 | 2018-07-31 | 北京工业大学 | 一种基于跟踪-学习-检测的视觉目标跟踪方法 |
CN109410242A (zh) * | 2018-09-05 | 2019-03-01 | 华南理工大学 | 基于双流卷积神经网络的目标跟踪方法、系统、设备及介质 |
CN109934042A (zh) * | 2017-12-15 | 2019-06-25 | 吉林大学 | 基于卷积神经网络的自适应视频对象行为轨迹分析方法 |
CN110084836A (zh) * | 2019-04-26 | 2019-08-02 | 西安电子科技大学 | 基于深度卷积特征分层响应融合的目标跟踪方法 |
CN110135365A (zh) * | 2019-05-20 | 2019-08-16 | 厦门大学 | 基于幻觉对抗网络的鲁棒目标跟踪方法 |
EP3528219A1 (en) * | 2018-02-14 | 2019-08-21 | Arb Labs Inc. | Systems, methods and devices for monitoring betting activities |
CN110298404A (zh) * | 2019-07-02 | 2019-10-01 | 西南交通大学 | 一种基于三重孪生哈希网络学习的目标跟踪方法 |
CN110349176A (zh) * | 2019-06-28 | 2019-10-18 | 华中科技大学 | 基于三重卷积网络和感知干扰学习的目标跟踪方法和系统 |
CN110427871A (zh) * | 2019-07-31 | 2019-11-08 | 长安大学 | 一种基于计算机视觉的疲劳驾驶检测方法 |
-
2020
- 2020-03-31 CN CN202010242153.2A patent/CN111354019B/zh active Active
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106709936A (zh) * | 2016-12-14 | 2017-05-24 | 北京工业大学 | 一种基于卷积神经网络的单目标跟踪方法 |
CN107292915A (zh) * | 2017-06-15 | 2017-10-24 | 国家新闻出版广电总局广播科学研究院 | 基于卷积神经网络的目标跟踪方法 |
CN107292914A (zh) * | 2017-06-15 | 2017-10-24 | 国家新闻出版广电总局广播科学研究院 | 基于小型单支卷积神经网络的视觉目标跟踪方法 |
CN107767405A (zh) * | 2017-09-29 | 2018-03-06 | 华中科技大学 | 一种融合卷积神经网络的核相关滤波目标跟踪方法 |
CN108171112A (zh) * | 2017-12-01 | 2018-06-15 | 西安电子科技大学 | 基于卷积神经网络的车辆识别与跟踪方法 |
CN109934042A (zh) * | 2017-12-15 | 2019-06-25 | 吉林大学 | 基于卷积神经网络的自适应视频对象行为轨迹分析方法 |
CN108154118A (zh) * | 2017-12-25 | 2018-06-12 | 北京航空航天大学 | 一种基于自适应组合滤波与多级检测的目标探测系统及方法 |
CN108346159A (zh) * | 2018-01-28 | 2018-07-31 | 北京工业大学 | 一种基于跟踪-学习-检测的视觉目标跟踪方法 |
EP3528219A1 (en) * | 2018-02-14 | 2019-08-21 | Arb Labs Inc. | Systems, methods and devices for monitoring betting activities |
CN109410242A (zh) * | 2018-09-05 | 2019-03-01 | 华南理工大学 | 基于双流卷积神经网络的目标跟踪方法、系统、设备及介质 |
CN110084836A (zh) * | 2019-04-26 | 2019-08-02 | 西安电子科技大学 | 基于深度卷积特征分层响应融合的目标跟踪方法 |
CN110135365A (zh) * | 2019-05-20 | 2019-08-16 | 厦门大学 | 基于幻觉对抗网络的鲁棒目标跟踪方法 |
CN110349176A (zh) * | 2019-06-28 | 2019-10-18 | 华中科技大学 | 基于三重卷积网络和感知干扰学习的目标跟踪方法和系统 |
CN110298404A (zh) * | 2019-07-02 | 2019-10-01 | 西南交通大学 | 一种基于三重孪生哈希网络学习的目标跟踪方法 |
CN110427871A (zh) * | 2019-07-31 | 2019-11-08 | 长安大学 | 一种基于计算机视觉的疲劳驾驶检测方法 |
Non-Patent Citations (2)
Title |
---|
YIFEI FAN: ""Adaptive Correlation Filtering Algorithm for Video Target Tracking based on Multi Feature Fusion"", 《2019 ELEVENTH INTERNATIONAL CONFERENCE ON ADVANCED COMPUTATIONAL INTELLIGENCE (ICACI)》 * |
王雪丽: ""基于相关滤波和卷积神经网络的目标跟踪算法"", 《重庆工商大学学报》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112950687A (zh) * | 2021-05-17 | 2021-06-11 | 创新奇智(成都)科技有限公司 | 一种确定跟踪状态的方法、装置、存储介质和电子设备 |
CN112950687B (zh) * | 2021-05-17 | 2021-08-10 | 创新奇智(成都)科技有限公司 | 一种确定跟踪状态的方法、装置、存储介质和电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN111354019B (zh) | 2024-01-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Xu et al. | Locate globally, segment locally: A progressive architecture with knowledge review network for salient object detection | |
CN111062973B (zh) | 基于目标特征敏感性和深度学习的车辆跟踪方法 | |
Yu et al. | Dual-cross central difference network for face anti-spoofing | |
WO2021026805A1 (zh) | 对抗样本检测方法、装置、计算设备及计算机存储介质 | |
CN109446889B (zh) | 基于孪生匹配网络的物体追踪方法及装置 | |
CN113554089A (zh) | 一种图像分类对抗样本防御方法、系统及数据处理终端 | |
CN111079518B (zh) | 一种基于执法办案区场景下的倒地异常行为识别方法 | |
CN111191649A (zh) | 一种识别弯曲多行文本图像的方法与设备 | |
CN104038792B (zh) | 用于iptv监管的视频内容分析方法及设备 | |
CN111401192B (zh) | 基于人工智能的模型训练方法和相关装置 | |
Fang et al. | Partial attack supervision and regional weighted inference for masked face presentation attack detection | |
CN110503113A (zh) | 一种基于低秩矩阵恢复的图像显著性目标检测方法 | |
CN111858340A (zh) | 一种基于稳定性变换的深度神经网络测试数据生成方法 | |
Luo et al. | SMD anomaly detection: a self-supervised texture–structure anomaly detection framework | |
CN108830882A (zh) | 视频异常行为实时检测方法 | |
CN102236786A (zh) | 一种光照自适应的人体肤色检测方法 | |
CN111354019B (zh) | 一种基于神经网络的视觉跟踪失效检测系统及其训练方法 | |
Mu et al. | Salient object detection in low contrast images via global convolution and boundary refinement | |
Zhang et al. | LDD-Net: Lightweight printed circuit board defect detection network fusing multi-scale features | |
CN113762049A (zh) | 内容识别方法、装置、存储介质和终端设备 | |
CN116630989A (zh) | 智能电表可视故障检测方法、系统、电子设备及存储介质 | |
CN113496159B (zh) | 一种多尺度卷积与动态权重代价函数的烟尘目标分割方法 | |
CN111209567B (zh) | 提高检测模型鲁棒性的可知性判断方法及装置 | |
CN110503061B (zh) | 一种融合多特征的多因素视频遮挡区域检测方法及系统 | |
CN113470073A (zh) | 一种基于深度学习的动物中心追踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |