CN111915648A - 一种基于常识和记忆网络的长期目标运动跟踪方法 - Google Patents
一种基于常识和记忆网络的长期目标运动跟踪方法 Download PDFInfo
- Publication number
- CN111915648A CN111915648A CN202010685477.3A CN202010685477A CN111915648A CN 111915648 A CN111915648 A CN 111915648A CN 202010685477 A CN202010685477 A CN 202010685477A CN 111915648 A CN111915648 A CN 111915648A
- Authority
- CN
- China
- Prior art keywords
- image
- image block
- target
- memory network
- tracking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 230000007774 longterm Effects 0.000 title claims abstract description 16
- 230000008447 perception Effects 0.000 claims abstract description 47
- 239000002356 single layer Substances 0.000 claims abstract description 31
- 230000004044 response Effects 0.000 claims description 45
- 239000010410 layer Substances 0.000 claims description 30
- 239000011159 matrix material Substances 0.000 claims description 27
- 238000012549 training Methods 0.000 claims description 24
- 230000006870 function Effects 0.000 claims description 18
- 238000001514 detection method Methods 0.000 claims description 13
- 239000000463 material Substances 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000003708 edge detection Methods 0.000 claims description 3
- 238000011478 gradient descent method Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 claims description 3
- 238000012216 screening Methods 0.000 claims description 3
- 230000004807 localization Effects 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000011158 quantitative evaluation Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000035772 mutation Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Abstract
本发明提出了一种基于常识和记忆网络的长期目标运动跟踪方法,用以解决现有跟踪方法不能有效适应不确定运动场景下的目标跟踪问题。其步骤为:首先利用跟踪器在局部搜索窗内预测目标位置,然后利用单层记忆网络判断预测结果的可靠性。若可靠则进行下一帧的跟踪,否则利用常识信息和针对跟踪任务开发的语义目标感知特征从全局图片中生成少量高质量的包含目标真实运动状态的建议,再通过记忆网络选择最佳的候选建议作为预测结果。最后,利用可靠的跟踪结果对记忆网络进行微调以保持目标的外观记忆。本发明的单层记忆网络结构简单、运算量小;且本发明将记忆网络和语义目标感知建议相结合能够适应突变运动等目标跟踪问题,实现长期跟踪。
Description
技术领域
本发明涉及计算机视觉跟踪技术领域,特别是指一种基于常识和记忆网络的长期目标运动跟踪方法。
背景技术
视觉目标跟踪作为计算机视觉领域的重要研究方向,一直是热门的研究问题,其目标是给出某一时刻目标的边界框,使得跟踪器在后续时间里准确的预测出目标状态(包括位置和大小)。然而由于现实世界中存在着许多挑战,如目标的运动突变、出视野外后再现等等,使得跟踪器出现漂移并最终跟踪失败。早期的跟踪算法通过手工特征构建目标外观模型进行目标跟踪,后来由于深度特征的引入,大大提高了视觉目标跟踪的精度,但同时增加了计算负担,降低了跟踪器的速度。近几年来,全卷积式的Siamese网络被用于跟踪,通过大量数据的离线训练学习先验的相似性函数。在保证跟踪精度的同时有提高了跟踪器的速度。
然后,传统的基于Siamese网络的跟踪器仍存在着几个明显的问题:(1)由于没有在线模板更新,使得跟踪器不能有效的适应目标外观剧烈变化条件下的跟踪任务。(2)由于大多数跟踪器是在一个局部搜索窗口内进行,当目标跳出局部搜索窗口时会导致跟踪失败。(3)由于缺乏有效的跟踪判断和跟踪故障检测后的再恢复机制,使得跟踪失败一旦发生便不可恢复。因此,对于这些问题的有效解决仍然有待进一步的研究。
发明内容
针对上述背景技术中存在的不足,本发明提出了一种基于常识和记忆网络的长期目标运动跟踪方法,解决了现有基于Siamese网络跟踪器易发生跟踪失败的技术问题,能够有效的进行目标跟踪,提高了跟踪器的鲁棒性。
本发明的技术方案是这样实现的:
一种基于常识和记忆网络的长期目标运动跟踪方法,其步骤如下:
步骤三:在第一帧图像中选取一个比目标图像块大的图像块X',且图像块X'与目标图像块的中心重合,并利用VGG16深度网络提取的图像块X'的深度特征对单层记忆网络进行训练获得卷积滤波器w',根据卷积滤波器w'获得目标图像的通道重要性参数;
步骤四:在当前帧图像中截取一个比目标图像块大的搜索图像块且搜索图像块与上一帧图像的目标图像的中心重合,计算搜索图像块与目标图像块的响应图,根据响应图中的最大响应值对应的当前帧图像的图像块作为基本跟踪器的预测结果;
步骤五:将基本跟踪器的预测结果输入步骤二中训练后的单层记忆网络中,输出第一次预测结果的响应矩阵,判断第一次预测结果的响应矩阵中响应值的最大值是否大于阈值β,若是,将基本跟踪器的预测结果作为当前帧的跟踪结果,并利用第一次预测结果对步骤二中的单层记忆网络进行训练更新初始卷积滤波器w,返回步骤四进行下一帧图像的跟踪,否则,执行步骤六;
步骤六:根据常识信息和步骤二中的通道重要性参数获得当前帧图像的语义目标感知特征图像集;
步骤七:利用语义目标感知特征图像集对当前帧图像进行目标定位,获得第二次预测结果的响应矩阵,判断第二次预测结果的响应矩阵的最大响应值是否大于阈值β,若是,将第二次预测结果对应的语义目标感知特征图像集中的图像块作为当前帧的跟踪结果,否则,将基本跟踪器的预测结果作为当前帧的跟踪结果;
步骤八:输出当前帧的跟踪结果,判断当前帧图像是否为最后一帧图像,若是,输出每一帧图像的跟踪结果,实现运动目标的跟踪,否则,返回步骤四进行下一帧图像的跟踪。
S22、将初始样本X和训练标签Y输入单层记忆网络中,输出响应矩阵F(X)和单层记忆网络的初始卷积滤波器w;
S23、根据响应矩阵F(X)计算单层记忆网络的损失函数,判断损失函数的值是否满足L(w)<0.1,若是,结束训练,输出步骤S22中的初始卷积滤波器,否则,利用随机梯度下降法对初始卷积滤波器w进行调整,返回步骤S22。
所述响应矩阵F(X)为:F(X)=w*X,其中,*表示卷积操作。
所述损失函数为:L(w)=||F(X)-Y||2+λ||w||2,其中,||·||表示欧几里得范数,λ为正则化参数。
所述根据卷积滤波器w'获得目标图像的通道重要性参数的方法为:
S31、计算卷积滤波器w'在每一层上的所有元素的得分:
其中,c=1,2,…,p为卷积滤波器w'的层索引,p为卷积滤波器w'的层数,gc为c层的得分,G(i,j,c)表示滤波器w'在c层(i,j)坐标位置的权重值,i表示c层卷积滤波器w'的横坐标,j表示c层卷积滤波器w'的纵坐标;
所述搜索图像块与目标图像块的响应图的计算方法为:其中,表示搜索图像块与目标图像块的响应图,*为两个深度特征图之间的互相关操作,表示第t帧图像的搜索图像块,表示目标图像块,t为图像的帧索引,φθ(·)为VGG16深度网络的函数,θ为VGG16深度网络的网络参数。
所述根据常识信息和步骤二中的通道重要性参数获得当前帧图像的语义目标感知特征图像集的方法为:
S61、利用边缘检测方法Edge Boxes从当前帧图像中生成检测图像块集合及检测图像块对应的客观物体得分,将客观物体得分小于阈值th的检测图像块过滤掉,得到初步图像块集合:
其中,表示第t帧图像的检测图像块集合,表示第t帧图像第i0个检测图像块,i0=1,2,…,max表示检测图像块的序号,max为检测图像块的数量,Cb表示检测图像块的客观物体得分,th为检测图像块阈值,为第t帧图像的初步建议框集合,t为图像的帧索引;
S62、利用常识信息对初步图像块集合进行筛选,得到候选图像块集合:
其中,表示第t帧图像的候选图像块集合,τ1和τ2均为常识约束信息,表示第t帧图像的初步图像块的宽,表示第t帧图像的初步图像块的高,i1=1,2,…,n表示初步图像块的序号,n表示初步图像块的数量,表示第t-1帧图像的初步图像块的宽,表示第t-1帧图像的初步图像块的高;
S63、利用VGG16深度网络提取候选图像块集合中的每一个候选图像块的深度特征,根据深度特征提取语义感知特征:
其中,为第t帧图像的候选图像块的语义感知特征,为第t帧图像的候选图像块的深度特征,i2=1,2,…,n'表示候选图像块的序号,n'表示候选图像块的数量,为感知特征提取函数,Δ为通道重要性参数,*为两个深度特征图之间的互相关操作;
S64、根据语义感知特征计算候选图像块集合中的每一个候选图像块的语义感知得分:
所述利用语义目标感知特征图像集对当前帧图像进行目标定位的方法为:
S71、初始化i2=1;
本技术方案能产生的有益效果:本发明通过引入常识信息和开发语义目标感知特征,提出了一种高精度的语义目标感知建议方法,能够在目标跟踪失败发生时从全局内给出少量的高质量的包含目标真实运动状态候选,并指导跟踪器从跟踪失败中恢复;本发明通过将记忆网络模型引入到跟踪框中去,从而有效的适应由于目标的外观变化而导致的目标跟踪失败问题;本发明能够有效的改进跟踪器的性能,对后续对跟踪目标的识别、理解和分析具有重要意义。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明的基本流程图;
图2为本发明的示意图;
图3为本发明的语义目标感知建议生成示意图;
图4为本发明的记忆网络示意图;
图5为本发明方法与其他算法的跟踪效果示意图;
图6为本发明方法与其他算法的在OTB2015测试库中的对比示意图,(a)为精确图,(b)为成功率图;
图7为本发明的语义感知特征生成示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有付出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例的硬件环境为:Intel(R)Core(TM)i3-8100 CPU 3.6GHZ计算机、8GB内存。我们用Matlab软件实现了本发明提出的方法。本发明方法所用的视频跟踪图像序列来自于网上公开的OTB数据库视频集(http://cvlab.hanyang.ac.kr/tracker_benchmark/ index.html)。
如图1和图2所示,一种基于常识和记忆网络的长期目标运动跟踪方法,具体步骤如下:
S22、将初始样本X和训练标签Y输入单层记忆网络中,输出响应矩阵F(X)和单层记忆网络的初始卷积滤波器w;所述响应矩阵F(X)为:F(X)=w*X,其中,*表示卷积操作。
S23、根据响应矩阵F(X)计算单层记忆网络的损失函数L(w)=||F(X)-Y||2+λ||w||2,并判断损失函数的值是否满足L(w)<0.1,若是,结束训练,输出步骤S22中的初始卷积滤波器,否则,利用随机梯度下降法对初始卷积滤波器w进行调整,返回步骤S22,其中,||·||表示欧几里得范数,λ=0.25为正则化参数。
步骤三:在第一帧图像中选取一个比目标图像块大的图像块X',图像块X'的尺寸大小为目标图像块的尺寸大小的1.25~2.5倍,且图像块X'与目标图像块的中心重合,并利用VGG16深度网络提取的图像块X'的深度特征对单层记忆网络进行训练获得卷积滤波器w',根据卷积滤波器w'获得目标图像的通道重要性参数,具体方法为:
S31、计算卷积滤波器w'在每一层上的所有元素的得分:
其中,c=1,2,…,p为卷积滤波器w'的层索引,p为卷积滤波器w'的层数,gc为c层的得分,G(i,j,c)表示滤波器w'在c层(i,j)坐标位置的权重值,i表示c层卷积滤波器w'的横坐标,j表示c层卷积滤波器w'的纵坐标;
步骤四:在当前帧图像中截取一个比目标图像块大的搜索图像块搜索图像块的尺寸大小是目标图像块的尺寸大小的3倍,且搜索图像块与上一帧图像的目标图像的中心重合,计算搜索图像块与目标图像块的响应图,根据响应图中的最大响应值对应的当前帧图像的图像块作为基本跟踪器的预测结果;
所述搜索图像块与目标图像块的响应图的计算方法为:其中,表示搜索图像块与目标图像块的响应图,*为两个深度特征图之间的互相关操作,表示第t帧图像的搜索图像块,表示目标图像块,t为图像的帧索引,φθ(·)为VGG16深度网络的函数,θ为VGG16深度网络的网络参数。
步骤五:将基本跟踪器的预测结果输入步骤二中训练后的单层记忆网络中,输出第一次预测结果的响应矩阵,判断第一次预测结果的响应矩阵中响应值的最大值是否大于阈值β,若是,将基本跟踪器的预测结果作为当前帧的跟踪结果,并利用第一次预测结果对步骤二中的单层记忆网络进行训练更新初始卷积滤波器w,返回步骤四进行下一帧图像的跟踪,否则,执行步骤六;
步骤六:根据常识信息和步骤二中的通道重要性参数获得当前帧图像的语义目标感知特征图像集,具体方法如图3所示:
S61、利用边缘检测方法Edge Boxes从当前帧图像中生成高度疑似目标物的检测图像块集合及检测图像块对应的客观物体得分,将客观物体得分小于阈值th的检测图像块过滤掉,得到初步图像块集合:
其中,表示第t帧图像的检测图像块集合,表示第t帧图像第i0个检测图像块,i0=1,2,…,max表示检测图像块的序号,max为检测图像块的数量,Cb表示检测图像块的客观物体得分,th为检测图像块阈值,为第t帧图像的初步建议框集合,t为图像的帧索引;设置max=500使得生成的检测图像块尽可能的完全覆盖目标真实运动状态;阈值th用于过滤得分低的检测图像块;利用Edge Boxes目标检测建议生成器,可以从整幅图片中获得大量的疑似物体的图像块,为了能够通过候选建议来指导跟踪器进行鲁棒跟踪,还需要对这些建议进行进一步的筛选和过滤。
S62、利用常识信息对初步图像块集合进行筛选,得到候选图像块集合:
其中,表示第t帧图像的候选图像块集合,τ1=0.75和τ2=1.25均为常识约束信息,表示第t帧图像的初步图像块的宽,表示第t帧图像的初步图像块的高,i1=1,2,…,n表示初步图像块的序号,n表示初步图像块的数量,n<max,表示第t-1帧图像的初步图像块的宽,表示第t-1帧图像的初步图像块的高;常识信息是指基于现实世界中目标运动前后时刻的尺度不会发生巨大的变化。通过步骤S62能够有效的过滤掉不符合目标尺度常识信息的初步图像块,从而减少了初步图像块的数量,提高了候选图像块的质量。
S63、如图7所示,利用VGG16深度网络提取候选图像块集合中的每一个候选图像块的深度特征,根据深度特征提取语义感知特征:
其中,为第t帧图像的候选图像块的语义感知特征,为第t帧图像的候选图像块的深度特征,i2=1,2,…,n'表示候选图像块的序号,n'表示候选图像块的数量,为感知特征提取函数,Δ为通道重要性参数,*为两个深度特征图之间的互相关操作;
S64、根据语义感知特征计算候选图像块集合中的每一个候选图像块的语义感知得分:
S65、根据每一个候选图像块的语义感知得分的高低对候选图像块进行排序,选取前Q(Q<n)个候选图像块作为当前帧图像的语义目标感知特征图像集利用更能区分目标和背景的语义目标感知特征图像集将不包含跟踪目标的图像块过滤掉,留下少量高质量包含目标真实运动状态的图像块引导跟踪器进行鲁棒跟踪。
步骤七:利用语义目标感知特征图像集对当前帧图像进行目标定位,获得第二次预测结果的响应矩阵,判断第二次预测结果的响应矩阵的最大响应值是否大于阈值β,若是,将第二次预测结果对应的语义目标感知特征图像集中的图像块作为当前帧的跟踪结果,否则,认为目标遭遇到严重遮挡或者完全出视野外,将基本跟踪器的预测结果作为当前帧的跟踪结果;
所述利用语义目标感知特征图像集对当前帧图像进行目标定位的方法为:
S71、初始化i2=1;
步骤八:输出当前帧的跟踪结果,判断当前帧图像是否为最后一帧图像,若是,输出每一帧图像的跟踪结果,实现运动目标的跟踪,否则,返回步骤四进行下一帧图像的跟踪。
在实际应用中,可采用定性和定量两种评价方式来评价本发明的有效性。定性评价方式采用本发明方法和代表性跟踪算法CF2、ACFN、SRDCF、siamfc、DSST和KCF在部分视频帧内的跟踪效果图,如图5所示。图5分别是六个视频在部分视频帧内的跟踪效果图,这些场景下使得CF2、ACFN、SRDCF、siamfc、DSST和KCF算法表现出不适应,甚至跟踪失败,而本发明提出的方法获得了好的跟踪效果。定量评价方式采用中心位置误差率和目标重叠率来评价,距离精度DP是指依据设定的阈值图像序列中能够成功跟踪目标的帧数与总视频帧数的比值。其中,阈值β是通过跟踪结果与真实结果的中心误差值确定的,本发明设置阈值为0.5。中心误差DP是通过计算跟踪目标的中心位置和真实位置之间的欧氏距离,一般其值越小说明跟踪结果比较优。目标重叠率OP是指跟踪结果与真实目标区域面积与操作和并操作的比值,其值越大,说明跟踪结果越好。图5展示了本发明与代表性跟踪算法CF2、ACFN、SRDCF、siamfc、DSST和KCF在OTB数据集上的距离精度DP值比较结果和目标重叠率OP值的比较结果。综合图5、图6(a)和图6(b)所示,本发明提供的目标跟踪方法能够很好地解决目标突变的运动问题,获得了较好地跟踪表现。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种基于常识和记忆网络的长期目标运动跟踪方法,其特征在于,其步骤如下:
步骤三:在第一帧图像中选取一个比目标图像块大的图像块X',且图像块X'与目标图像块的中心重合,并利用VGG16深度网络提取的图像块X'的深度特征对单层记忆网络进行训练获得卷积滤波器w',根据卷积滤波器w'获得目标图像的通道重要性参数;
步骤四:在当前帧图像中截取一个比目标图像块大的搜索图像块且搜索图像块与上一帧图像的目标图像的中心重合,计算搜索图像块与目标图像块的响应图,根据响应图中的最大响应值对应的当前帧图像的图像块作为基本跟踪器的预测结果;
步骤五:将基本跟踪器的预测结果输入步骤二中训练后的单层记忆网络中,输出第一次预测结果的响应矩阵,判断第一次预测结果的响应矩阵中响应值的最大值是否大于阈值β,若是,将基本跟踪器的预测结果作为当前帧的跟踪结果,并利用第一次预测结果对步骤二中的单层记忆网络进行训练更新初始卷积滤波器w,返回步骤四进行下一帧图像的跟踪,否则,执行步骤六;
步骤六:根据常识信息和步骤二中的通道重要性参数获得当前帧图像的语义目标感知特征图像集;
步骤七:利用语义目标感知特征图像集对当前帧图像进行目标定位,获得第二次预测结果的响应矩阵,判断第二次预测结果的响应矩阵的最大响应值是否大于阈值β,若是,将第二次预测结果对应的语义目标感知特征图像集中的图像块作为当前帧的跟踪结果,否则,将基本跟踪器的预测结果作为当前帧的跟踪结果;
步骤八:输出当前帧的跟踪结果,判断当前帧图像是否为最后一帧图像,若是,输出每一帧图像的跟踪结果,实现运动目标的跟踪,否则,返回步骤四进行下一帧图像的跟踪。
S22、将初始样本X和训练标签Y输入单层记忆网络中,输出响应矩阵F(X)和单层记忆网络的初始卷积滤波器w;
S23、根据响应矩阵F(X)计算单层记忆网络的损失函数,判断损失函数的值是否满足L(w)<0.1,若是,结束训练,输出步骤S22中的初始卷积滤波器,否则,利用随机梯度下降法对初始卷积滤波器w进行调整,返回步骤S22。
3.根据权利要求2所述的基于常识和记忆网络的长期目标运动跟踪方法,其特征在于,所述响应矩阵F(X)为:F(X)=w*X,其中,*表示卷积操作。
4.根据权利要求2所述的基于常识和记忆网络的长期目标运动跟踪方法,其特征在于,所述损失函数为:L(w)=||F(X)-Y||2+λ||w||2,其中,||·||表示欧几里得范数,λ为正则化参数。
7.根据权利要求1所述的基于常识和记忆网络的长期目标运动跟踪方法,其特征在于,所述根据常识信息和步骤二中的通道重要性参数获得当前帧图像的语义目标感知特征图像集的方法为:
S61、利用边缘检测方法Edge Boxes从当前帧图像中生成检测图像块集合及检测图像块对应的客观物体得分,将客观物体得分小于阈值th的检测图像块过滤掉,得到初步图像块集合:
其中,表示第t帧图像的检测图像块集合,表示第t帧图像第i0个检测图像块,i0=1,2,…,max表示检测图像块的序号,max为检测图像块的数量,Cb表示检测图像块的客观物体得分,th为检测图像块阈值,为第t帧图像的初步建议框集合,t为图像的帧索引;
S62、利用常识信息对初步图像块集合进行筛选,得到候选图像块集合:
其中,表示第t帧图像的候选图像块集合,τ1和τ2均为常识约束信息,表示第t帧图像的初步图像块的宽,表示第t帧图像的初步图像块的高,i1=1,2,…,n表示初步图像块的序号,n表示初步图像块的数量,表示第t-1帧图像的初步图像块的宽,表示第t-1帧图像的初步图像块的高;
S63、利用VGG16深度网络提取候选图像块集合中的每一个候选图像块的深度特征,根据深度特征提取语义感知特征:
其中,为第t帧图像的候选图像块的语义感知特征,为第t帧图像的候选图像块的深度特征,i2=1,2,…,n'表示候选图像块的序号,n'表示候选图像块的数量,为感知特征提取函数,Δ为通道重要性参数,*为两个深度特征图之间的互相关操作;
S64、根据语义感知特征计算候选图像块集合中的每一个候选图像块的语义感知得分:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010685477.3A CN111915648B (zh) | 2020-07-16 | 2020-07-16 | 一种基于常识和记忆网络的长期目标运动跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010685477.3A CN111915648B (zh) | 2020-07-16 | 2020-07-16 | 一种基于常识和记忆网络的长期目标运动跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111915648A true CN111915648A (zh) | 2020-11-10 |
CN111915648B CN111915648B (zh) | 2023-09-01 |
Family
ID=73280998
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010685477.3A Active CN111915648B (zh) | 2020-07-16 | 2020-07-16 | 一种基于常识和记忆网络的长期目标运动跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111915648B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113674310A (zh) * | 2021-05-11 | 2021-11-19 | 华南理工大学 | 一种基于主动视觉感知的四旋翼无人机目标跟踪方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108805089A (zh) * | 2018-06-14 | 2018-11-13 | 南京云思创智信息科技有限公司 | 基于多模态的情绪识别方法 |
CN108846819A (zh) * | 2018-07-04 | 2018-11-20 | 深圳市创客工场科技有限公司 | 激光切割参数获取方法及装置、电子设备、存储介质 |
CN110084836A (zh) * | 2019-04-26 | 2019-08-02 | 西安电子科技大学 | 基于深度卷积特征分层响应融合的目标跟踪方法 |
CN110223323A (zh) * | 2019-06-02 | 2019-09-10 | 西安电子科技大学 | 基于深度特征自适应相关滤波的目标跟踪方法 |
US20190294869A1 (en) * | 2018-03-26 | 2019-09-26 | Nvidia Corporation | Object behavior anomaly detection using neural networks |
CN110889863A (zh) * | 2019-09-03 | 2020-03-17 | 河南理工大学 | 一种基于目标感知相关滤波的目标跟踪方法 |
CN111354017A (zh) * | 2020-03-04 | 2020-06-30 | 江南大学 | 一种基于孪生神经网络及平行注意力模块的目标跟踪方法 |
-
2020
- 2020-07-16 CN CN202010685477.3A patent/CN111915648B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190294869A1 (en) * | 2018-03-26 | 2019-09-26 | Nvidia Corporation | Object behavior anomaly detection using neural networks |
CN108805089A (zh) * | 2018-06-14 | 2018-11-13 | 南京云思创智信息科技有限公司 | 基于多模态的情绪识别方法 |
CN108846819A (zh) * | 2018-07-04 | 2018-11-20 | 深圳市创客工场科技有限公司 | 激光切割参数获取方法及装置、电子设备、存储介质 |
CN110084836A (zh) * | 2019-04-26 | 2019-08-02 | 西安电子科技大学 | 基于深度卷积特征分层响应融合的目标跟踪方法 |
CN110223323A (zh) * | 2019-06-02 | 2019-09-10 | 西安电子科技大学 | 基于深度特征自适应相关滤波的目标跟踪方法 |
CN110889863A (zh) * | 2019-09-03 | 2020-03-17 | 河南理工大学 | 一种基于目标感知相关滤波的目标跟踪方法 |
CN111354017A (zh) * | 2020-03-04 | 2020-06-30 | 江南大学 | 一种基于孪生神经网络及平行注意力模块的目标跟踪方法 |
Non-Patent Citations (5)
Title |
---|
ALAHI A等: "Social lstm: Human trajectory prediction in crowded spaces", 《PROCEEDINGS OF THE IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》, pages 961 - 971 * |
HUANLONG ZHANG等: "Light regression memory and multi-perspective object special proposals for abrupt motion tracking", 《KNOWLEDGE-BASED SYSTEMS》, vol. 226, pages 1 - 13 * |
宋小伟: "基于多通道图像融合的目标跟踪", 《中国优秀硕士学位论文全文数据库 (信息科技辑)》, no. 8, pages 138 - 879 * |
陈志旺等: "基于目标感知特征筛选的孪生网络跟踪算法", 《光学学报》, no. 9, pages 110 - 126 * |
韩艳: "基于机器学习的运动目标检测与跟踪算法研究", 《中国优秀硕士学位论文全文数据库 (信息科技辑)》, no. 3, pages 138 - 1306 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113674310A (zh) * | 2021-05-11 | 2021-11-19 | 华南理工大学 | 一种基于主动视觉感知的四旋翼无人机目标跟踪方法 |
CN113674310B (zh) * | 2021-05-11 | 2024-04-26 | 华南理工大学 | 一种基于主动视觉感知的四旋翼无人机目标跟踪方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111915648B (zh) | 2023-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109800689B (zh) | 一种基于时空特征融合学习的目标跟踪方法 | |
CN110070074B (zh) | 一种构建行人检测模型的方法 | |
CN109146921B (zh) | 一种基于深度学习的行人目标跟踪方法 | |
CN110084836B (zh) | 基于深度卷积特征分层响应融合的目标跟踪方法 | |
CN110120064B (zh) | 一种基于互强化与多注意机制学习的深度相关目标跟踪算法 | |
CN111797771B (zh) | 一种基于迭代学习的弱监督视频行为检测方法及系统 | |
CN110889863B (zh) | 一种基于目标感知相关滤波的目标跟踪方法 | |
CN108961308B (zh) | 一种漂移检测的残差深度特征目标跟踪方法 | |
CN112836639A (zh) | 基于改进YOLOv3模型的行人多目标跟踪视频识别方法 | |
CN110796679B (zh) | 一种面向航拍影像的目标跟踪方法 | |
CN111582349B (zh) | 一种基于YOLOv3和核相关滤波改进的目标跟踪算法 | |
CN112348849A (zh) | 一种孪生网络视频目标跟踪方法及装置 | |
CN109543615B (zh) | 一种基于多级特征的双学习模型目标跟踪方法 | |
CN111008991B (zh) | 一种背景感知的相关滤波目标跟踪方法 | |
CN109087337B (zh) | 基于分层卷积特征的长时间目标跟踪方法及系统 | |
CN111598928A (zh) | 一种基于具有语义评估和区域建议的突变运动目标跟踪方法 | |
CN113902991A (zh) | 一种基于级联特征融合的孪生网络目标跟踪方法 | |
CN113705490A (zh) | 基于重构和预测的异常检测方法 | |
Zhao et al. | Effective local and global search for fast long-term tracking | |
CN114627156A (zh) | 消费级无人机视频运动目标精准追踪方法 | |
CN111915648B (zh) | 一种基于常识和记忆网络的长期目标运动跟踪方法 | |
CN110428447B (zh) | 一种基于策略梯度的目标跟踪方法与系统 | |
Yin et al. | Fast scale estimation method in object tracking | |
CN115601841A (zh) | 一种联合外观纹理和运动骨架的人体异常行为检测方法 | |
CN113989920A (zh) | 一种基于深度学习的运动员行为质量评估方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |