CN111354019A - 一种基于神经网络的视觉跟踪失效检测系统及其训练方法 - Google Patents

一种基于神经网络的视觉跟踪失效检测系统及其训练方法 Download PDF

Info

Publication number
CN111354019A
CN111354019A CN202010242153.2A CN202010242153A CN111354019A CN 111354019 A CN111354019 A CN 111354019A CN 202010242153 A CN202010242153 A CN 202010242153A CN 111354019 A CN111354019 A CN 111354019A
Authority
CN
China
Prior art keywords
tracking
neural network
correlation
training
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010242153.2A
Other languages
English (en)
Other versions
CN111354019B (zh
Inventor
李椋
雷煜
王以政
吴婷
陈明松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Pharmacology and Toxicology of AMMS
Original Assignee
Institute of Pharmacology and Toxicology of AMMS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Pharmacology and Toxicology of AMMS filed Critical Institute of Pharmacology and Toxicology of AMMS
Priority to CN202010242153.2A priority Critical patent/CN111354019B/zh
Publication of CN111354019A publication Critical patent/CN111354019A/zh
Application granted granted Critical
Publication of CN111354019B publication Critical patent/CN111354019B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了属于视觉跟踪技术领域的一种基于神经网络的视觉跟踪失效检测系统及其训练方法。建立基于神经网络的视觉跟踪失效检测系统,该系统由相关滤波模块和跟踪异常感知模块串联连接组成;该视觉跟踪失效检测系统利用深度神经网络强大的视觉感知能力,根据相关滤波器生成的结果图,判断目标跟踪是否失效;相关滤波模块根据跟踪异常感知模块的结果进行模型参数更新。鉴于神经网络方法具有很好的分类精度,但是需要大量的样本进行训练,所述训练需要大量的样本包括正样本和负样本,由此设计了相应的大规模训练样本生成方法,主要用于深度神经网络模型的训练;并在公开数据集上进行了测试。本发明可以支撑深度神经网络的训练。

Description

一种基于神经网络的视觉跟踪失效检测系统及其训练方法
技术领域
本发明属于视觉跟踪技术领域,特别涉及一种基于神经网络的视觉跟踪失效检测系统及其训练方法。
背景技术
视觉目标跟踪是在图像数据流中对特定的目标进行跟踪的一类算法,输入是连续的图像数据和需要跟踪的目标模板,输出是跟踪目标的位置。目标形态改变、外界环境干扰都可能造成跟踪算法失效,即无法准确定位目标位置。及时发现跟踪算法失效,并及时调整或重置跟踪算法对提升目标跟踪系统稳定性具有重要意义。
检测类跟踪算法使用快速检测器对目标图像(待检测图像)进行目标位置匹配,通过计算目标模板和目标图像的相似度,确定目标的位置。刻画相似度的图被称为相关图(correlation map)或者热图(heat map),相关图上的每个像素点代表该位置与目标模板中心点的相似程度。
跟丢检测的主要手段是判断相关图的最大值是否超过特定阈值,如果超过特定阈值则认为跟踪正常,如果低于阈值则认为跟踪得到的目标与目标模板相似度过低,跟踪结果不可信,因此判定为跟踪失效。这种方法的局限性在于只考虑相关图上最高点的信息,而没有考虑相关图上分布模式的信息。伴随着相关滤波类算法的发展,也产生了一类基于峰值旁瓣比 (Peak to Sidelobe Ratio,PSR)的跟踪失效检测方法。
相关滤波方法是一类经典的目标跟踪方法,其原理是寻找一个滤波器将目标从背景中过滤出来,滤波后得到的结果图和相关图具有相似的性质,相似度大时最高点的值较大,同时分布相对集中,当存在较大干扰时最高点的值较小,而且分布比较分散。计算相关滤波结果图目标附近(11*11 像素)内的峰值旁瓣比,即最大值减去均值再除以旁瓣标准差。峰值旁瓣比小于固定的阈值7,则认为存在遮挡或者跟踪失效,大于阈值则认为跟踪正常阈值方法和峰值旁瓣比方法均需要提前设定阈值,不同背景噪声下检测效果会下降。目标跟踪算法缺乏统一的标准来判断跟踪是否失效,没有独立的跟踪失效检测模块。因此需要构建一个独立的跟踪失效检测模块。
针对现有跟踪算法缺乏通用的跟踪失效检测方法的局限,本发明提出了一种基于深度神经网络的跟踪失效检测系统,设计了用于深度神经网络训练的样本生成方法。
发明内容
本发明的目的是提出一种基于神经网络的视觉跟踪失效检测系统及其训练方法,其特征在于,首先建立基于神经网络的视觉跟踪失效检测系统,该系统由相关滤波模块和跟踪异常感知模块串联连接组成;该系统中相关滤波模块根据跟踪异常感知模块的结果进行模型参数更新。
所述相关滤波模块的输入是原始图像和跟踪算法检测得到的物体位置和大小信息,输出是表征图像物体相关性的结果图;相关滤波模块基于核相关滤波KCF方法将跟踪结果附近的图像块取出,并使用相关滤波器进行处理,得到反映目标相似性的相关图;相关滤波模块不进行跟踪检测,只生成相关图;相关图的大小与输入图像块的大小一致,每个位置上的值代表图像内容与目标物体的相关性,相关图的分布越集中,检测结果越可靠。
所述跟踪异常感知模块的输入是相关滤波模块生成的相关图,输出为 0或者1,分别代表跟踪正常与跟踪失效。
一种基于神经网络的视觉跟踪失效检测系统的训练方法,其特征在于,跟踪异常感知模块利用深度神经网络强大的视觉感知能力,根据相关滤波器生成的结果图,判断目标跟踪是否失效;由于神经网络方法具有很好的分类精度,但是需要大量的样本进行训练,所述训练需要大量的样本包括正样本和负样本,即跟踪正常和跟踪失效的相关图;与之相对应,设计了相应的大规模训练样本生成方法,主要用于深度神经网络模型的训练;并在公开数据集上进行了测试。
所述深度神经网络模型是随机位移生成方式产生跟踪丢失的样本,训练数据可以采用任何有标注的视频数据集;以OTB-100数据集为例,使用 OTB-100数据集进行样本生成,并随机提取生成样本行训练,从总样本中取出80%作为训练数据集,20%作为验证数据集;对相同数据集,随机取出 60个视频,改变第一帧的标注数据即改变标注目标大小,生成用于测试的样本,随机提取一定数量的样本进行测试;测试结果是使用深度神经网络方式对相关图进行跟踪异常感知;卷积神经网络的输入为相关滤波算法生成的相关图,卷积神经网络的输出为二分类结果为0或1,表示跟踪正常和跟踪异常;输出结果为1代表跟踪是失效,反之为跟踪正常。
本发明的有益效果是该方法提供一种独立于跟踪算法的跟踪失效检测方法,能够判断跟踪算法是否失效;由于神经网络方法具有很好的分类精度,但是需要大量的样本进行训练,本发明提出了一种大规模训练样本的生成方法,可以支撑深度神经网络的训练。
附图说明
图1为跟踪失效检测系统结构示意图。
图2为相关滤波模块示意图。
图3为跟踪异常感知模块示意图。
具体实施方式
本发明提出一种基于神经网络的视觉跟踪失效检测系统及其训练方法,下面结合附图和实施例对本发明予以进一步说明。
如图1所示为跟踪失效检测系统结构示意图。首先建立基于神经网络的视觉跟踪失效检测系统,该系统由相关滤波模块和跟踪异常感知模块串联连接组成;相关滤波模块将输入的目标图像、位置经过滤波处理输出相关图,该相关图输入跟踪异常感知模块,跟踪异常感知模块的结果如果是正常,则返回相关滤波模块,系统中相关滤波模块根据跟踪异常感知模块的结果进行模型参数更新;如果输出为正常/异常,继续结果输出。
如图2所示为相关滤波模块示意图。该相关滤波模块的输入是原始图像和跟踪算法检测得到的物体位置和大小信息,输出是表征图像物体相关性的结果图;相关滤波模块基于核相关滤波KCF方法将跟踪结果附近的图像块取出,并使用相关滤波器进行特征提取处理,进行模型训练,得到反映目标相似性的相关图;相关滤波模块不进行跟踪检测,只生成相关图;相关图的大小与输入图像块的大小一致,每个位置上的值代表图像内容与目标物体的相关性,相关图的分布越集中,检测结果越可靠。
如图3所示为跟踪异常感知模块示意图。根据相关滤波得到的相关图,利用深度卷积神经网络实现跟踪状态的分类,输出为0或者1,分别代表跟踪正常与跟踪失效。
基于神经网络的视觉跟踪失效检测系统的训练包括:
1)相关滤波模块
相关滤波模块主要分为滤波和训练两个部分,滤波部分主要是将目标的图像特征进行组合,得到相关结果图,计算公式为
f(x)=wTx
其中w是滤波器参数,x为输入图像特征。T是矩阵转置,f(x)就是将输入图像转化为相关滤波的输出结果。滤波器训练使用优化算法,优化的目标函数为
Figure RE-GDA0002471766430000051
滤波器参数w的计算公式为
w=(XTX+λI)-1XTy
传统的滤波器需要根据结果图进行目标位置检测。改进的相关滤波模块不进行位置检测,只对输入图像进行滤波得到相关图,根据深度神经网络模块的结果,如果跟踪正常,则训练滤波器,否则不进行滤波器训练。其中 y为高斯钟形函数,I为对角矩阵,λI为对角线上值为λ的对角矩阵。
2)跟踪异常感知模块
基于相关滤波得到的相关图,跟踪异常感知模块利用深度卷积神经网络实现跟踪状态的分类。深度卷积神经网络需要大量数据进行训练。
训练样本的产生步骤如下:
1,初始化跟踪器设置restart_tracker为False;
2,使用新图像更新跟踪器,在相关滤波计算过程中,首先计算当前时刻的相关图h,沿随机方向移动检测框,使目标不在检测框内后停止,或者到达图像边界停止,模拟跟踪失效时的相关图h’;
3,分别计算h和h’对应的目标位置c和c’与真实目标中心位置c0的欧氏距离;h中对应的目标所在的位置c=(i,j),为相关滤波检测到的目标中心位置,同理c’为跟踪失效后相关值对应的干扰物的位置;
4,如果c与c0的距离大于
Figure RE-GDA0002471766430000061
则将h放入跟踪异常类,设置重置跟踪器标识restart_tracker为Ture。反之则放入跟踪正常类;其中d为目标宽度;
5,如果c’与c0的距离大于
Figure RE-GDA0002471766430000062
则将h’放入跟踪异常类,反之则放入跟踪正常类;
6,如果restart_tracker为True则转到步骤1,如果restart_tracker 为False则转到步骤2,重复该过程直到图像数据结束。
实施例
使用OTB-100数据集]进行样本生成,生成跟踪正常的样本58723个(随机提取50000个进行训练),跟踪失效样本48235个。从总样本中取出80%作为训练数据集,20%作为验证数据集。对相同数据集,随机取出60个视频,改变第一帧的标注数据(改变标注目标大小),生成用于测试的样本,生成跟踪正常的样本34321个(随机提取30000个进行测试),跟踪失效样本27748个。
实验如表1所示,PSR为峰值旁瓣比的实验结果,除此之外还测试了 resnet18,resnet152,alexnet,densenet121,squeezenet1.1,vgg19络模型。实验发现网络模型的准确度,精确度和召回率均超过96%,远高于 PSR方法,resnet18,squeezenet和alexnet的速度均可达到200Hz以上。实验平台计算机的CPU为Intel core i7 6850K CPU,GPU为GTX-1080TI-11G,内存为32GB。
表1
Method Accuracy(%) Precision%) Recall(%) Fps(Hz)
PSR 0.885020288 0.90913898 0.878361119 2300.820643
resnet18 0.973410124 0.976563699 0.974967219 206.1820135
resnet152 0.97190486 0.979847739 0.968751597 34.15317542
alexnet 0.975410909 0.981608998 0.973451629 384.2923943
densenet121 0.975008882 0.978454604 0.975971936 36.85414778
squeezenet1_1 0.971502833 0.980196995 0.967644705 239.6716656
vgg19 0.974120683 0.982611996 0.970028779 76.23914993

Claims (6)

1.一种基于神经网络的视觉跟踪失效检测系统,其特征在于,首先建立基于神经网络的视觉跟踪失效检测系统,该系统由相关滤波模块和跟踪异常感知模块串联连接组成;该系统中相关滤波模块根据跟踪异常感知模块的结果进行模型参数更新。
2.根据权利要求1所述基于神经网络的视觉跟踪失效检测系统,其特征在于,所述相关滤波模块的输入是原始图像和跟踪算法检测得到的物体位置和大小信息,输出是表征图像物体相关性的结果图;相关滤波模块基于核相关滤波KCF方法将跟踪结果附近的图像特征取出,并使用相关滤波器进行处理,得到反映目标相似性的相关图;相关滤波模块不进行跟踪检测,只生成相关图;相关图的大小与输入图像图的大小一致,每个位置上的值代表图像内容与目标物体的相关性,相关图的分布越集中,检测结果越可靠。
3.根据权利要求1所述基于神经网络的视觉跟踪失效检测系统,其特征在于,所述跟踪异常感知模块的输入是相关滤波模块生成的相关图,输出为0或者1,分别代表跟踪正常与跟踪失效。
4.一种权利要求1所述基于神经网络的视觉跟踪失效检测系统的训练方法,其特征在于,视觉跟踪失效检测系统利用深度神经网络强大的视觉感知能力,根据相关滤波器生成的结果图,判断目标跟踪是否失效;由于神经网络方法具有很好的分类精度,但是需要大量的样本进行训练,所述训练需要大量的样本包括正样本和负样本,即跟踪正常和跟踪失效的相关图;与之相对应,设计了相应的大规模训练样本生成方法,主要用于深度神经网络模型的训练;并在公开数据集上进行了测试。
5.根据权利要求4所述基于神经网络的视觉跟踪失效检测系统的训练方法,其特征在于,所述相应的训练模型是深度神经网络可使用任意一种能够处理视觉任务的深度神经网络模型中的卷积神经网络,使用OTB-100数据集进行样本生成,并随机提取生成样本行训练,从总样本中取出80%作为训练数据集,20%作为验证数据集;对相同数据集,随机取出60个视频,改变第一帧的标注数据即改变标注目标大小,生成用于测试的样本,随机提取一定数量的样本进行测试;测试结果是使用深度神经网络方式对相关图进行跟踪异常感知;卷积神经网络的输入为核相关滤波的结果图,卷积神经网络的输出为二分类结果,即输出是0或者1;分别代表跟踪正常和跟踪异常,表示跟踪是否失效。
6.根据权利要求4所述基于神经网络的视觉跟踪失效检测系统的训练方法,其特征在于,基于神经网络的视觉跟踪失效检测系统的训练包括:
1)相关滤波模块,相关滤波模块主要分为滤波和训练两个部分,滤波部分主要是将目标的图像特征进行组合,得到相关结果图f(x),计算公式为
f(x)=wTx其中w是滤波器参数,x为输入图像特征;T是矩阵转置,f(x)就是将输入图像转化为相关滤波的输出结果;
滤波器训练使用优化算法,优化的目标函数为
Figure FDA0002432923520000021
滤波器参数w的计算公式为
w=(XTX+λI)-1XTy
传统的滤波器需要根据结果图进行目标位置检测;改进的相关滤波模块不进行位置检测,只对输入图像进行滤波得到相关图,根据深度神经网络模块的结果,如果跟踪正常,则训练滤波器,否则不进行滤波器训练;其中y为高斯钟形函数,i为样本库中样本的索引值,I为对角矩阵,λI为对角线上值为λ的对角矩阵;
2)跟踪异常感知模块,基于相关滤波得到的相关图,跟踪异常感知模块利用深度卷积神经网络实现跟踪状态的分类;深度卷积神经网络需要大量数据进行训练;
训练样本的产生步骤如下:
(1)初始化跟踪器设置restart_tracker为False;
(2)使用新图像更新跟踪器,在相关滤波计算过程中,将当前目标位置附近的检测框中的图像作为输入x,使用相关滤波器计算相关结果图f(x),沿随机方向移动检测框,使目标不在检测框内后停止,或者到达图像边界停止,得到不包含目标的检测框x’,计算模拟跟踪失效时的相关图h’h’=f(x’),h代表跟踪目标与检测框中内容的相关性;
(3)h中的最大值所在的位置c=(i,j),为相关滤波检测到的目标中心位置,同理c’为跟踪失效后相关值最大的干扰物的位置,分别计算h和h’对应的目标位置c和c’与真实目标中心位置c0的欧氏距离;
(4)如果c与c0的距离大于
Figure FDA0002432923520000031
则将h放入跟踪异常类,设置重置跟踪器标识restart_tracker为Ture;反之则放入跟踪正常类;其中d为目标宽度;
(5)如果c’与c0的距离大于
Figure FDA0002432923520000032
则将h’放入跟踪异常类,反之则放入跟踪正常类;
(6)如果restart_tracker为True则转到步骤1,如果restart_tracker为False则转到步骤2,重复该过程直到图像数据结束。
CN202010242153.2A 2020-03-31 2020-03-31 一种基于神经网络的视觉跟踪失效检测系统及其训练方法 Active CN111354019B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010242153.2A CN111354019B (zh) 2020-03-31 2020-03-31 一种基于神经网络的视觉跟踪失效检测系统及其训练方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010242153.2A CN111354019B (zh) 2020-03-31 2020-03-31 一种基于神经网络的视觉跟踪失效检测系统及其训练方法

Publications (2)

Publication Number Publication Date
CN111354019A true CN111354019A (zh) 2020-06-30
CN111354019B CN111354019B (zh) 2024-01-26

Family

ID=71194809

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010242153.2A Active CN111354019B (zh) 2020-03-31 2020-03-31 一种基于神经网络的视觉跟踪失效检测系统及其训练方法

Country Status (1)

Country Link
CN (1) CN111354019B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112950687A (zh) * 2021-05-17 2021-06-11 创新奇智(成都)科技有限公司 一种确定跟踪状态的方法、装置、存储介质和电子设备

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106709936A (zh) * 2016-12-14 2017-05-24 北京工业大学 一种基于卷积神经网络的单目标跟踪方法
CN107292915A (zh) * 2017-06-15 2017-10-24 国家新闻出版广电总局广播科学研究院 基于卷积神经网络的目标跟踪方法
CN107292914A (zh) * 2017-06-15 2017-10-24 国家新闻出版广电总局广播科学研究院 基于小型单支卷积神经网络的视觉目标跟踪方法
CN107767405A (zh) * 2017-09-29 2018-03-06 华中科技大学 一种融合卷积神经网络的核相关滤波目标跟踪方法
CN108154118A (zh) * 2017-12-25 2018-06-12 北京航空航天大学 一种基于自适应组合滤波与多级检测的目标探测系统及方法
CN108171112A (zh) * 2017-12-01 2018-06-15 西安电子科技大学 基于卷积神经网络的车辆识别与跟踪方法
CN108346159A (zh) * 2018-01-28 2018-07-31 北京工业大学 一种基于跟踪-学习-检测的视觉目标跟踪方法
CN109410242A (zh) * 2018-09-05 2019-03-01 华南理工大学 基于双流卷积神经网络的目标跟踪方法、系统、设备及介质
CN109934042A (zh) * 2017-12-15 2019-06-25 吉林大学 基于卷积神经网络的自适应视频对象行为轨迹分析方法
CN110084836A (zh) * 2019-04-26 2019-08-02 西安电子科技大学 基于深度卷积特征分层响应融合的目标跟踪方法
CN110135365A (zh) * 2019-05-20 2019-08-16 厦门大学 基于幻觉对抗网络的鲁棒目标跟踪方法
EP3528219A1 (en) * 2018-02-14 2019-08-21 Arb Labs Inc. Systems, methods and devices for monitoring betting activities
CN110298404A (zh) * 2019-07-02 2019-10-01 西南交通大学 一种基于三重孪生哈希网络学习的目标跟踪方法
CN110349176A (zh) * 2019-06-28 2019-10-18 华中科技大学 基于三重卷积网络和感知干扰学习的目标跟踪方法和系统
CN110427871A (zh) * 2019-07-31 2019-11-08 长安大学 一种基于计算机视觉的疲劳驾驶检测方法

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106709936A (zh) * 2016-12-14 2017-05-24 北京工业大学 一种基于卷积神经网络的单目标跟踪方法
CN107292915A (zh) * 2017-06-15 2017-10-24 国家新闻出版广电总局广播科学研究院 基于卷积神经网络的目标跟踪方法
CN107292914A (zh) * 2017-06-15 2017-10-24 国家新闻出版广电总局广播科学研究院 基于小型单支卷积神经网络的视觉目标跟踪方法
CN107767405A (zh) * 2017-09-29 2018-03-06 华中科技大学 一种融合卷积神经网络的核相关滤波目标跟踪方法
CN108171112A (zh) * 2017-12-01 2018-06-15 西安电子科技大学 基于卷积神经网络的车辆识别与跟踪方法
CN109934042A (zh) * 2017-12-15 2019-06-25 吉林大学 基于卷积神经网络的自适应视频对象行为轨迹分析方法
CN108154118A (zh) * 2017-12-25 2018-06-12 北京航空航天大学 一种基于自适应组合滤波与多级检测的目标探测系统及方法
CN108346159A (zh) * 2018-01-28 2018-07-31 北京工业大学 一种基于跟踪-学习-检测的视觉目标跟踪方法
EP3528219A1 (en) * 2018-02-14 2019-08-21 Arb Labs Inc. Systems, methods and devices for monitoring betting activities
CN109410242A (zh) * 2018-09-05 2019-03-01 华南理工大学 基于双流卷积神经网络的目标跟踪方法、系统、设备及介质
CN110084836A (zh) * 2019-04-26 2019-08-02 西安电子科技大学 基于深度卷积特征分层响应融合的目标跟踪方法
CN110135365A (zh) * 2019-05-20 2019-08-16 厦门大学 基于幻觉对抗网络的鲁棒目标跟踪方法
CN110349176A (zh) * 2019-06-28 2019-10-18 华中科技大学 基于三重卷积网络和感知干扰学习的目标跟踪方法和系统
CN110298404A (zh) * 2019-07-02 2019-10-01 西南交通大学 一种基于三重孪生哈希网络学习的目标跟踪方法
CN110427871A (zh) * 2019-07-31 2019-11-08 长安大学 一种基于计算机视觉的疲劳驾驶检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
YIFEI FAN: ""Adaptive Correlation Filtering Algorithm for Video Target Tracking based on Multi Feature Fusion"", 《2019 ELEVENTH INTERNATIONAL CONFERENCE ON ADVANCED COMPUTATIONAL INTELLIGENCE (ICACI)》 *
王雪丽: ""基于相关滤波和卷积神经网络的目标跟踪算法"", 《重庆工商大学学报》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112950687A (zh) * 2021-05-17 2021-06-11 创新奇智(成都)科技有限公司 一种确定跟踪状态的方法、装置、存储介质和电子设备
CN112950687B (zh) * 2021-05-17 2021-08-10 创新奇智(成都)科技有限公司 一种确定跟踪状态的方法、装置、存储介质和电子设备

Also Published As

Publication number Publication date
CN111354019B (zh) 2024-01-26

Similar Documents

Publication Publication Date Title
Xu et al. Locate globally, segment locally: A progressive architecture with knowledge review network for salient object detection
CN111062973B (zh) 基于目标特征敏感性和深度学习的车辆跟踪方法
Yu et al. Dual-cross central difference network for face anti-spoofing
WO2021026805A1 (zh) 对抗样本检测方法、装置、计算设备及计算机存储介质
CN109446889B (zh) 基于孪生匹配网络的物体追踪方法及装置
CN113554089A (zh) 一种图像分类对抗样本防御方法、系统及数据处理终端
CN111079518B (zh) 一种基于执法办案区场景下的倒地异常行为识别方法
CN111191649A (zh) 一种识别弯曲多行文本图像的方法与设备
CN104038792B (zh) 用于iptv监管的视频内容分析方法及设备
CN111401192B (zh) 基于人工智能的模型训练方法和相关装置
Fang et al. Partial attack supervision and regional weighted inference for masked face presentation attack detection
CN110503113A (zh) 一种基于低秩矩阵恢复的图像显著性目标检测方法
CN111858340A (zh) 一种基于稳定性变换的深度神经网络测试数据生成方法
Luo et al. SMD anomaly detection: a self-supervised texture–structure anomaly detection framework
CN108830882A (zh) 视频异常行为实时检测方法
CN102236786A (zh) 一种光照自适应的人体肤色检测方法
CN111354019B (zh) 一种基于神经网络的视觉跟踪失效检测系统及其训练方法
Mu et al. Salient object detection in low contrast images via global convolution and boundary refinement
Zhang et al. LDD-Net: Lightweight printed circuit board defect detection network fusing multi-scale features
CN113762049A (zh) 内容识别方法、装置、存储介质和终端设备
CN116630989A (zh) 智能电表可视故障检测方法、系统、电子设备及存储介质
CN113496159B (zh) 一种多尺度卷积与动态权重代价函数的烟尘目标分割方法
CN111209567B (zh) 提高检测模型鲁棒性的可知性判断方法及装置
CN110503061B (zh) 一种融合多特征的多因素视频遮挡区域检测方法及系统
CN113470073A (zh) 一种基于深度学习的动物中心追踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant