CN115375737B - 基于自适应时间与序列化时空特征的目标跟踪方法与系统 - Google Patents
基于自适应时间与序列化时空特征的目标跟踪方法与系统 Download PDFInfo
- Publication number
- CN115375737B CN115375737B CN202211308115.8A CN202211308115A CN115375737B CN 115375737 B CN115375737 B CN 115375737B CN 202211308115 A CN202211308115 A CN 202211308115A CN 115375737 B CN115375737 B CN 115375737B
- Authority
- CN
- China
- Prior art keywords
- feature
- target
- serialized
- module
- branch
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003044 adaptive effect Effects 0.000 title claims abstract description 60
- 238000000034 method Methods 0.000 title claims abstract description 29
- 238000000605 extraction Methods 0.000 claims abstract description 70
- 230000004927 fusion Effects 0.000 claims abstract description 16
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 9
- 230000006870 function Effects 0.000 claims description 28
- 230000004913 activation Effects 0.000 claims description 16
- 238000010586 diagram Methods 0.000 claims description 15
- 238000011176 pooling Methods 0.000 claims description 14
- 239000011159 matrix material Substances 0.000 claims description 10
- 238000012549 training Methods 0.000 claims description 9
- 230000035945 sensitivity Effects 0.000 claims description 8
- 230000002708 enhancing effect Effects 0.000 claims description 7
- 238000010606 normalization Methods 0.000 claims description 7
- 238000005457 optimization Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 5
- 230000008859 change Effects 0.000 claims description 5
- 230000009466 transformation Effects 0.000 claims description 5
- 230000002123 temporal effect Effects 0.000 claims description 4
- 230000003213 activating effect Effects 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 claims description 3
- 238000011160 research Methods 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明提出一种基于自适应时间与序列化时空特征的目标跟踪方法与系统,首先在双分支跟踪网络框架下,基于深度卷积神经网络和自适应时间模块,构建得到特征提取网络;在提取目标特征的基础上,目标模板分支特征通过序列化时空特征模块得到增强的目标模板特征信息;将该特征信息输入到模型预测器,通过模型预测器得到适应性卷积核;搜索区域分支特征经过特征提取网络与卷积核进行卷积,得到融合之后的得分图,即进一步实现目标跟踪。在本发明中,通过重构基于自适应时间特征表示与序列化时空特征模块进行特征融合,从而提高了给定的目标图像和搜索区域图像的特征融合的性能,最终实现更加精确的目标跟踪。
Description
技术领域
本发明涉及机器学习与计算机视觉技术领域,特别涉及一种基于自适应时间与序列化时空特征的目标跟踪方法与系统。
背景技术
计算机视觉指的是利用计算机来模拟人的视觉机理获取并处理信息,在计算机视觉领域中,目标跟踪是一个重要课题和研究热点。目标跟踪通过在连续的视频图像序列中对目标的表观和运动信息进行建模,定位跟踪目标的位置,在此基础上实现对运动目标的行为分析和理解,以便完成更高级的任务。目标跟踪在智能视频监控、无人驾驶以及虚拟现实等视觉领域中有着广泛的应用。尽管目标跟踪算法的研究取得了很大的进展,但是由于跟踪目标的自身变化以及背景因素等带来的挑战,跟踪算法难以较好地鉴别目标和周围的背景,容易发生跟踪漂移。目标自身变化带来的挑战主要包括尺度变化、运动模糊与目标旋转等;除了目标自身变化带来的挑战,背景因素的影响也较为显著,主要包括遮挡、光照变化以及相似背景干扰等。
在目前的目标跟踪研究领域中,目标跟踪技术可以分为两大类:基于相关滤波的跟踪技术以及基于深度学习的跟踪技术。在基于相关滤波的跟踪器中,跟踪器运行速度快,但是跟踪的准确性有待提高;基于深度学习的跟踪器提高了跟踪性能,对跟踪器的研究任务有了很大的推进。在基于深度学习的跟踪器中,双分支目标跟踪器已成为研究热点。利用深度学习建立全新的双分支跟踪框架。基于深度学习的目标跟踪方法主要是利用深度特征强大的表征能力、双分支目标的特征融合能力以及对目标位置的定位,来对复杂场景中的目标进行实时跟踪。
目前研究中的部分目标跟踪算法,对连续帧的局部目标位置信息和目标特征的全局上下文依赖信息提取、目标模板分支的基于序列化时空特征的特征增强能力有待提高,跟踪鲁棒性不是很理想。在复杂场景中,由于缺少连续帧的时态信息,无法很好地处理挑战环境中跟踪漂移以及跟踪背景复杂等挑战因素所带来的影响。
发明内容
鉴于上述状况,本发明的主要目的是为了提出一种基于自适应时间与序列化时空特征的目标跟踪方法与系统,以解决上述技术问题。
本发明实施例提出一种基于自适应时间与序列化时空特征的目标跟踪方法,其中,所述方法包括如下步骤:
步骤一、在双分支目标跟踪框架下,基于深度卷积神经网络与自适应时间特征表示模块,构建得到特征提取网络;其中,所述自适应时间特征表示模块包括局部分支以及全局分支,所述特征提取网络用于分别提取目标模板分支的图像特征和搜索区域分支的图像特征;
步骤二、在目标模板分支与搜索区域分支中,通过所述特征提取网络中的卷积层提取得到目标浅层表观特征,通过所述局部分支学习目标局部位置重要性权重,以生成适应性位置敏感权重图用于得到突出目标位置特征;通过所述全局分支通过学习全局重要性信息,利用连续帧中的目标信息相关性,以获得全局关联信息表示;
步骤三、在目标模板分支中,将特征提取网络提取的目标模板分支的图像特征引入到序列化时空特征模块;其中,所述序列化时空特征模块包括序列化通道信息增强模块以及序列化空间信息增强模块,所述序列化通道信息增强模块用于突出不同通道的信息权重,所述序列化空间信息增强模块用于增强连续帧的目标位置信息;
步骤四、利用大规模数据集,对所述特征提取网络和所述序列化时空特征模块进行训练,并对所述特征提取网络以及所述序列化时空特征模块的参数进行调整;
步骤五、目标模板分支的目标图像经过所述特征提取网络以及所述序列化时空特征模块之后得到目标模板信息,将目标模板信息和未经过特征提取网络的图像信息引入到模型预测器中,对模型预测器进行迭代优化以最终得到卷积核;
步骤六、搜索区域分支利用特征提取网络进行候选块特征提取,以得到相应的候选块特征,将所述卷积核与候选块特征进行特征融合操作以得到多个得分图,其中每个得分图对应有一相似度得分;
步骤七、确认相似度得分的最大值,并将相似度得分最大值的位置判定为跟踪目标的位置以得到跟踪目标。
本发明提出一种基于自适应时间与序列化时空特征的目标跟踪方法,首先在双分支跟踪网络框架下,基于深度卷积神经网络和自适应时间模块,构建得到特征提取网络,其中自适应时间模块的局部分支突出了目标的位置信息,全局分支突出了全局关联信息表示;然后,在提取目标特征的基础上,目标模板分支特征通过序列化时空特征模块得到增强的目标模板特征信息;将该特征信息输入到模型预测器,通过模型预测器得到适应性卷积核;搜索区域分支特征经过特征提取网络与卷积核进行卷积,得到融合之后的得分图,即进一步实现目标跟踪。在本发明中,通过重构基于自适应时间特征表示与序列化时空特征模块进行特征融合,从而提高了给定的目标图像和搜索区域图像的特征融合的性能,最终实现更加精确的目标跟踪。
本发明还提出一种基于自适应时间与序列化时空特征的目标跟踪系统,其中,所述系统包括:
网络构建模块,用于:
在双分支目标跟踪框架下,基于深度卷积神经网络与自适应时间特征表示模块,构建得到特征提取网络;其中,所述自适应时间特征表示模块包括局部分支以及全局分支,所述特征提取网络用于分别提取目标模板分支的图像特征和搜索区域分支的图像特征;
特征提取模块,用于:
在目标模板分支与搜索区域分支中,通过所述特征提取网络中的卷积层提取得到目标浅层表观特征,通过所述局部分支学习目标局部位置重要性权重,以生成适应性位置敏感权重图用于得到突出目标位置特征;通过所述全局分支通过学习全局重要性信息,利用连续帧中的目标信息相关性,以获得全局关联信息表示;
特征引入模块,用于:
在目标模板分支中,将特征提取网络提取的目标模板分支的图像特征引入到序列化时空特征模块;其中,所述序列化时空特征模块包括序列化通道信息增强模块以及序列化空间信息增强模块,所述序列化通道信息增强模块用于突出不同通道的信息权重,所述序列化空间信息增强模块用于增强连续帧的目标位置信息;
特征训练模块,用于:
利用大规模数据集,对所述特征提取网络和所述序列化时空特征模块进行训练,并对所述特征提取网络以及所述序列化时空特征模块的参数进行调整;
预测迭代模块,用于:
目标模板分支的目标图像经过所述特征提取网络以及所述序列化时空特征模块之后得到目标模板信息,将目标模板信息和未经过特征提取网络的图像信息引入到模型预测器中,对模型预测器进行迭代优化以最终得到卷积核;
特征融合模块,用于:
搜索区域分支利用特征提取网络进行候选块特征提取,以得到相应的候选块特征,将所述卷积核与候选块特征进行特征融合操作以得到多个得分图,其中每个得分图对应有一相似度得分;
目标跟踪模块,用于:
确认相似度得分的最大值,并将相似度得分最大值的位置判定为跟踪目标的位置以得到跟踪目标。
本发明的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实施例了解到。
附图说明
图1为本发明提出的基于自适应时间与序列化时空特征的目标跟踪方法的流程图;
图2为本发明中自适应时间特征表示模块的结构示意图;
图3为本发明提出的基于自适应时间与序列化时空特征的目标跟踪方法的原理框架图;
图4 为本发明中序列化时空特征模块的结构示意图;
图5为本发明提出的序列化时空特征模块中序列化通道信息增强模块的结构示意图;
图6为本发明提出的序列化时空特征模块中序列化空间信息增强模块的结构示意图;
图7为本发明提出的基于自适应时间与序列化时空特征的目标跟踪系统的结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。
参照下面的描述和附图,将清楚本发明的实施例的这些和其他方面。在这些描述和附图中,具体公开了本发明的实施例中的一些特定实施方式,来表示实施本发明的实施例的原理的一些方式,但是应当理解,本发明的实施例的范围不受此限制。相反,本发明的实施例包括落入所附加权利要求书的精神和内涵范围内的所有变化、修改和等同物。
请参阅图1至图6,本发明提出一种基于自适应时间与序列化时空特征的目标跟踪方法,其中,所述方法包括如下步骤:
S101、在双分支目标跟踪框架下,基于深度卷积神经网络与自适应时间特征表示模块,构建得到特征提取网络。
其中,自适应时间特征表示模块包括局部分支以及全局分支,特征提取网络用于分别提取目标模板分支的图像特征和搜索区域分支的图像特征。
S102、在目标模板分支与搜索区域分支中,通过特征提取网络中的卷积层提取得到目标浅层表观特征,通过局部分支学习目标局部位置重要性权重,以生成适应性位置敏感权重图用于得到突出目标位置特征;通过全局分支通过学习全局重要性信息,利用连续帧中的目标信息相关性,以获得全局关联信息表示。
如图2所示,可看出本发明中基于自适应时间网络模块的原理,并结合图3可理解本发明的原理。在步骤S102中,在局部分支中,存在如下步骤:
其中,,表示实数矩阵,表示特征的通道数量最大值,表示连续的视频帧数最大值,表示特征图的高度最大值,表示特征图的宽度最大值,表示特征的通道数量的取值,表示连续的视频帧数的取值,表示特征图的高度取值,表示特征图的宽度取值。
进一步的,全局分支由全连接层经RELU操作与softmax操作组成,在所述全局分支中,存在如下步骤:
其中,激活全连接层特征之后的结果特征的计算公式表示为:
S1022b、将所述激活全连接层特征之后的结果特征,再经过全局分支中的第二个全连接层,再进行softmax操作以得到全局上下文信息的自适应卷积核。
其中,全局上下文信息的自适应卷积核的计算公式表示为:
其中,自适应时间特征表示的计算公式表示为:
S103、在目标模板分支中,将特征提取网络提取的目标模板分支的图像特征引入到序列化时空特征模块。
其中,如图4所示,序列化时空特征模块包括序列化通道信息增强模块以及序列化空间信息增强模块,序列化通道信息增强模块用于突出不同通道的信息权重,序列化空间信息增强模块用于增强连续帧的目标位置信息。
如图5所示,利用序列化通道信息增强模块突出不同通道的重要性信息。在步骤S103中,存在如下步骤:
S1031a、利用序列化通道信息增强模块突出不同通道的信息权重的具体操作为:
S1033a、对当前视频帧与当前视频帧的前两帧的目标特征进行全局平均池化操作,具体表示为:
在本发明中,序列化时空特征模块中的序列化空间信息增强模块增强了连续帧的目标位置信息,进而有利于后续的模型预测。如图6所示,相应的操作主要包括卷积、批量归一化以及矩阵相乘操作。进一步的,在步骤S103中,利用序列化空间信息增强模块增强连续帧的目标位置信息的步骤包括:
最后,经序列化时空特征模块增强后的目标特征表示为:
S104、利用大规模数据集,对特征提取网络和所述序列化时空特征模块进行训练,并对特征提取网络以及序列化时空特征模块的参数进行调整。
S105、目标模板分支的目标图像经过特征提取网络以及序列化时空特征模块之后得到目标模板信息,将目标模板信息和未经过特征提取网络的图像信息引入到模型预测器中,对模型预测器进行迭代优化以最终得到卷积核。
在本步骤中,基于序列化时空特征模块增强了目标模板分支的位置信息,经该模块进行增强的特征进入到模型预测器,生成具有判别力的卷积核。该卷积核与搜索区域分支的特征图进行卷积,进而得到预测的模型位置。在此需要说明的是,模型预测器用于首先初始化一个模型(卷积核),并不断地更新模型,目的是为了学习一个具有有判别力的卷积核,并将得到的卷积核与搜索分支经过特征提取的特征进行卷积。
S106、搜索区域分支利用特征提取网络进行候选块特征提取,以得到相应的候选块特征,将卷积核与候选块特征进行特征融合操作以得到多个得分图,其中每个得分图对应有一相似度得分。
S107、确认相似度得分的最大值,并将相似度得分最大值的位置判定为跟踪目标的位置以得到跟踪目标。
本发明提出一种基于自适应时间与序列化时空特征的目标跟踪方法,首先在双分支跟踪网络框架下,基于深度卷积神经网络和自适应时间模块,构建得到特征提取网络,其中自适应时间模块的局部分支突出了目标的位置信息,全局分支突出了全局关联信息表示;然后,在提取目标特征的基础上,目标模板分支特征通过序列化时空特征模块得到增强的目标模板特征信息;将该特征信息输入到模型预测器,通过模型预测器得到适应性卷积核;搜索区域分支特征经过特征提取网络与卷积核进行卷积,得到融合之后的得分图,即进一步实现目标跟踪。在本发明中,通过重构基于自适应时间特征表示与序列化时空特征模块进行特征融合,从而提高了给定的目标图像和搜索区域图像的特征融合的性能,最终实现更加精确的目标跟踪。
请参阅图7,本发明还提出一种基于自适应时间与序列化时空特征的目标跟踪系统,其中,所述系统包括:
网络构建模块,用于:
在双分支目标跟踪框架下,基于深度卷积神经网络与自适应时间特征表示模块,构建得到特征提取网络;其中,所述自适应时间特征表示模块包括局部分支以及全局分支,所述特征提取网络用于分别提取目标模板分支的图像特征和搜索区域分支的图像特征;
特征提取模块,用于:
在目标模板分支与搜索区域分支中,通过所述特征提取网络中的卷积层提取得到目标浅层表观特征,通过所述局部分支学习目标局部位置重要性权重,以生成适应性位置敏感权重图用于得到突出目标位置特征;通过所述全局分支通过学习全局重要性信息,利用连续帧中的目标信息相关性,以获得全局关联信息表示;
特征引入模块,用于:
在目标模板分支中,将特征提取网络提取的目标模板分支的图像特征引入到序列化时空特征模块;其中,所述序列化时空特征模块包括序列化通道信息增强模块以及序列化空间信息增强模块,所述序列化通道信息增强模块用于突出不同通道的信息权重,所述序列化空间信息增强模块用于增强连续帧的目标位置信息;
特征训练模块,用于:
利用大规模数据集,对所述特征提取网络和所述序列化时空特征模块进行训练,并对所述特征提取网络以及所述序列化时空特征模块的参数进行调整;
预测迭代模块,用于:
目标模板分支的目标图像经过所述特征提取网络以及所述序列化时空特征模块之后得到目标模板信息,将目标模板信息和未经过特征提取网络的图像信息引入到模型预测器中,对模型预测器进行迭代优化以最终得到卷积核;
特征融合模块,用于:
搜索区域分支利用特征提取网络进行候选块特征提取,以得到相应的候选块特征,将所述卷积核与候选块特征进行特征融合操作以得到多个得分图,其中每个得分图对应有一相似度得分;
目标跟踪模块,用于:
确认相似度得分的最大值,并将相似度得分最大值的位置判定为跟踪目标的位置以得到跟踪目标。
应当理解的,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、 “示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (9)
1.一种基于自适应时间与序列化时空特征的目标跟踪方法,其特征在于,所述方法包括如下步骤:
步骤一、在双分支目标跟踪框架下,基于深度卷积神经网络与自适应时间特征表示模块,构建得到特征提取网络;其中,所述自适应时间特征表示模块包括局部分支以及全局分支,所述特征提取网络用于分别提取目标模板分支的图像特征和搜索区域分支的图像特征;
步骤二、在目标模板分支与搜索区域分支中,通过所述特征提取网络中的卷积层提取得到目标浅层表观特征,通过所述局部分支学习目标局部位置重要性权重,以生成适应性位置敏感权重图用于得到突出目标位置特征;通过所述全局分支通过学习全局重要性信息,利用连续帧中的目标信息相关性,以获得全局关联信息表示;
步骤三、在目标模板分支中,将特征提取网络提取的目标模板分支的图像特征引入到序列化时空特征模块;其中,所述序列化时空特征模块包括序列化通道信息增强模块以及序列化空间信息增强模块,所述序列化通道信息增强模块用于突出不同通道的信息权重,所述序列化空间信息增强模块用于增强连续帧的目标位置信息;
步骤四、利用大规模数据集,对所述特征提取网络和所述序列化时空特征模块进行训练,并对所述特征提取网络以及所述序列化时空特征模块的参数进行调整;
步骤五、目标模板分支的目标图像经过所述特征提取网络以及所述序列化时空特征模块之后得到目标模板信息,将目标模板信息和未经过特征提取网络的图像信息引入到模型预测器中,对模型预测器进行迭代优化以最终得到卷积核;
步骤六、搜索区域分支利用特征提取网络进行候选块特征提取,以得到相应的候选块特征,将所述卷积核与候选块特征进行特征融合操作以得到多个得分图,其中每个得分图对应有一相似度得分;
步骤七、确认相似度得分的最大值,并将相似度得分最大值的位置判定为跟踪目标的位置以得到跟踪目标;
在所述步骤二中,在所述局部分支中,存在如下步骤:
6.根据权利要求5所述的基于自适应时间与序列化时空特征的目标跟踪方法,其特征在于,在所述步骤三中,利用序列化通道信息增强模块突出不同通道的信息权重的具体操作为:
对当前视频帧与当前视频帧的前两帧的目标特征进行全局平均池化操作,具体表示为:
7.根据权利要求6所述的基于自适应时间与序列化时空特征的目标跟踪方法,其特征在于,在所述步骤三中,利用序列化空间信息增强模块增强连续帧的目标位置信息的具体操作为:
9.一种基于自适应时间与序列化时空特征的目标跟踪系统,其特征在于,所述系统应用如上述权利要求1至8任意一项所述的基于自适应时间与序列化时空特征的目标跟踪方法,所述系统包括:
网络构建模块,用于:
在双分支目标跟踪框架下,基于深度卷积神经网络与自适应时间特征表示模块,构建得到特征提取网络;其中,所述自适应时间特征表示模块包括局部分支以及全局分支,所述特征提取网络用于分别提取目标模板分支的图像特征和搜索区域分支的图像特征;
特征提取模块,用于:
在目标模板分支与搜索区域分支中,通过所述特征提取网络中的卷积层提取得到目标浅层表观特征,通过所述局部分支学习目标局部位置重要性权重,以生成适应性位置敏感权重图用于得到突出目标位置特征;通过所述全局分支通过学习全局重要性信息,利用连续帧中的目标信息相关性,以获得全局关联信息表示;
特征引入模块,用于:
在目标模板分支中,将特征提取网络提取的目标模板分支的图像特征引入到序列化时空特征模块;其中,所述序列化时空特征模块包括序列化通道信息增强模块以及序列化空间信息增强模块,所述序列化通道信息增强模块用于突出不同通道的信息权重,所述序列化空间信息增强模块用于增强连续帧的目标位置信息;
特征训练模块,用于:
利用大规模数据集,对所述特征提取网络和所述序列化时空特征模块进行训练,并对所述特征提取网络以及所述序列化时空特征模块的参数进行调整;
预测迭代模块,用于:
目标模板分支的目标图像经过所述特征提取网络以及所述序列化时空特征模块之后得到目标模板信息,将目标模板信息和未经过特征提取网络的图像信息引入到模型预测器中,对模型预测器进行迭代优化以最终得到卷积核;
特征融合模块,用于:
搜索区域分支利用特征提取网络进行候选块特征提取,以得到相应的候选块特征,将所述卷积核与候选块特征进行特征融合操作以得到多个得分图,其中每个得分图对应有一相似度得分;
目标跟踪模块,用于:
确认相似度得分的最大值,并将相似度得分最大值的位置判定为跟踪目标的位置以得到跟踪目标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211308115.8A CN115375737B (zh) | 2022-10-25 | 2022-10-25 | 基于自适应时间与序列化时空特征的目标跟踪方法与系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211308115.8A CN115375737B (zh) | 2022-10-25 | 2022-10-25 | 基于自适应时间与序列化时空特征的目标跟踪方法与系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115375737A CN115375737A (zh) | 2022-11-22 |
CN115375737B true CN115375737B (zh) | 2023-02-03 |
Family
ID=84073913
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211308115.8A Active CN115375737B (zh) | 2022-10-25 | 2022-10-25 | 基于自适应时间与序列化时空特征的目标跟踪方法与系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115375737B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116109678B (zh) * | 2023-04-10 | 2023-06-13 | 南昌工程学院 | 基于上下文自注意力学习深度网络的目标跟踪方法与系统 |
CN117237604B (zh) * | 2023-09-14 | 2024-08-13 | 电子科技大学重庆微电子产业技术研究院 | 一种目标跟踪方法、装置、计算机设备及存储介质 |
CN117252904B (zh) * | 2023-11-15 | 2024-02-09 | 南昌工程学院 | 基于长程空间感知与通道增强的目标跟踪方法与系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109410242A (zh) * | 2018-09-05 | 2019-03-01 | 华南理工大学 | 基于双流卷积神经网络的目标跟踪方法、系统、设备及介质 |
CN110047096A (zh) * | 2019-04-28 | 2019-07-23 | 中南民族大学 | 一种基于深度条件随机场模型的多目标跟踪方法和系统 |
CN112560695A (zh) * | 2020-12-17 | 2021-03-26 | 中国海洋大学 | 水下目标跟踪方法、系统、存储介质、设备、终端及应用 |
WO2021186494A1 (ja) * | 2020-03-16 | 2021-09-23 | 日本電気株式会社 | 物体追跡装置、物体追跡理方法、及び、記録媒体 |
CN114359347A (zh) * | 2022-01-05 | 2022-04-15 | 重庆邮电大学 | 基于样本可靠性的时空正则化自适应相关滤波目标跟踪算法 |
WO2022091335A1 (ja) * | 2020-10-30 | 2022-05-05 | 日本電気株式会社 | 物体追跡装置、物体追跡理方法、及び、記録媒体 |
CN115147456A (zh) * | 2022-06-29 | 2022-10-04 | 华东师范大学 | 一种基于时序自适应卷积与注意力机制的目标跟踪方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9055529B2 (en) * | 2013-10-04 | 2015-06-09 | Samsung Electronics Co., Ltd. | System and method for adaptive in-network time alignment for envelope tracking power amplifier |
CN112184752A (zh) * | 2020-09-08 | 2021-01-05 | 北京工业大学 | 一种基于金字塔卷积的视频目标跟踪方法 |
CN113129341B (zh) * | 2021-04-20 | 2021-12-14 | 广东工业大学 | 基于轻量型孪生网络的降落跟踪控制方法和系统及无人机 |
CN113689464B (zh) * | 2021-07-09 | 2024-09-06 | 西北工业大学 | 一种基于孪生网络的自适应多层响应融合的目标跟踪方法 |
-
2022
- 2022-10-25 CN CN202211308115.8A patent/CN115375737B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109410242A (zh) * | 2018-09-05 | 2019-03-01 | 华南理工大学 | 基于双流卷积神经网络的目标跟踪方法、系统、设备及介质 |
CN110047096A (zh) * | 2019-04-28 | 2019-07-23 | 中南民族大学 | 一种基于深度条件随机场模型的多目标跟踪方法和系统 |
WO2021186494A1 (ja) * | 2020-03-16 | 2021-09-23 | 日本電気株式会社 | 物体追跡装置、物体追跡理方法、及び、記録媒体 |
WO2022091335A1 (ja) * | 2020-10-30 | 2022-05-05 | 日本電気株式会社 | 物体追跡装置、物体追跡理方法、及び、記録媒体 |
CN112560695A (zh) * | 2020-12-17 | 2021-03-26 | 中国海洋大学 | 水下目标跟踪方法、系统、存储介质、设备、终端及应用 |
CN114359347A (zh) * | 2022-01-05 | 2022-04-15 | 重庆邮电大学 | 基于样本可靠性的时空正则化自适应相关滤波目标跟踪算法 |
CN115147456A (zh) * | 2022-06-29 | 2022-10-04 | 华东师范大学 | 一种基于时序自适应卷积与注意力机制的目标跟踪方法 |
Non-Patent Citations (8)
Title |
---|
Depthwise Over-parameterized Siamese Network for Visual Tracking;张文双;《IEEE》;20220214;全文 * |
Learnable Sparse Transform Siamese Attention Networks for Visual Tracking;张文双;《IEEE》;20220118;全文 * |
利用滑动窗口检测器的多目标跟踪误报检测;唐洪涛;《控制工程》;20171120(第11期);全文 * |
卷积神经网络在目标检测中的应用综述;于进勇等;《计算机科学》;20181115;全文 * |
基于动态模式和卷积特征的单目标跟踪算法;张博言等;《西北工业大学学报》;20191215(第06期);全文 * |
基于核扩展字典学习的目标跟踪算法研究;王员云;《南昌工程学院学报》;20220815;全文 * |
基于深度学习的鲁棒性视觉跟踪方法;高君宇等;《计算机学报》;20160115(第07期);全文 * |
基于目标优先级的跟踪波束调度方法研究;薛贞等;《现代雷达》;20180215(第02期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN115375737A (zh) | 2022-11-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108154118B (zh) | 一种基于自适应组合滤波与多级检测的目标探测系统及方法 | |
CN115375737B (zh) | 基于自适应时间与序列化时空特征的目标跟踪方法与系统 | |
CN109800689B (zh) | 一种基于时空特征融合学习的目标跟踪方法 | |
CN108257158B (zh) | 一种基于循环神经网络的目标预测与跟踪方法 | |
CN107748873B (zh) | 一种融合背景信息的多峰目标跟踪方法 | |
CN110569723A (zh) | 一种结合特征融合与模型更新的目标跟踪方法 | |
CN112818903A (zh) | 一种基于元学习和协同注意力的小样本遥感图像目标检测方法 | |
CN113192124B (zh) | 一种基于孪生网络的图像目标定位方法 | |
CN108520203B (zh) | 基于融合自适应多外围框与十字池化特征的多目标特征提取方法 | |
CN113706581B (zh) | 基于残差通道注意与多层次分类回归的目标跟踪方法 | |
CN111797841B (zh) | 一种基于深度残差网络的视觉显著性检测方法 | |
CN111696110A (zh) | 场景分割方法及系统 | |
CN114220061B (zh) | 一种基于深度学习的多目标跟踪方法 | |
CN116109678B (zh) | 基于上下文自注意力学习深度网络的目标跟踪方法与系统 | |
CN112861808B (zh) | 动态手势识别方法、装置、计算机设备及可读存储介质 | |
CN113298850B (zh) | 一种基于注意力机制与特征融合的目标跟踪方法及系统 | |
CN107146219B (zh) | 一种基于流形正则化支持向量机的图像显著性检测方法 | |
CN117252904B (zh) | 基于长程空间感知与通道增强的目标跟踪方法与系统 | |
CN114898403A (zh) | 一种基于Attention-JDE网络的行人多目标跟踪方法 | |
CN112489088A (zh) | 一种基于记忆单元的孪生网络视觉跟踪方法 | |
CN115049833A (zh) | 一种基于局部特征增强和相似性度量的点云部件分割方法 | |
CN112991394B (zh) | 基于三次样条插值和马尔科夫链的kcf目标跟踪方法 | |
CN114067273A (zh) | 一种夜间机场航站楼热成像显著人体分割检测方法 | |
CN117611963A (zh) | 基于多尺度扩展残差网络的小目标检测方法及系统 | |
CN115880660A (zh) | 一种基于结构表征和全局注意力机制的轨道线检测方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |