CN114708297A - 一种视频目标跟踪方法及装置 - Google Patents

一种视频目标跟踪方法及装置 Download PDF

Info

Publication number
CN114708297A
CN114708297A CN202210147505.5A CN202210147505A CN114708297A CN 114708297 A CN114708297 A CN 114708297A CN 202210147505 A CN202210147505 A CN 202210147505A CN 114708297 A CN114708297 A CN 114708297A
Authority
CN
China
Prior art keywords
image
feature
module
attention
feature extraction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210147505.5A
Other languages
English (en)
Inventor
高凯
周振
俞益洲
李一鸣
乔昕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Shenrui Bolian Technology Co Ltd
Shenzhen Deepwise Bolian Technology Co Ltd
Original Assignee
Beijing Shenrui Bolian Technology Co Ltd
Shenzhen Deepwise Bolian Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Shenrui Bolian Technology Co Ltd, Shenzhen Deepwise Bolian Technology Co Ltd filed Critical Beijing Shenrui Bolian Technology Co Ltd
Priority to CN202210147505.5A priority Critical patent/CN114708297A/zh
Publication of CN114708297A publication Critical patent/CN114708297A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Abstract

本发明提供一种视频目标跟踪方法及装置。所述方法包括:将跟踪目标图像和搜索区域图像分别输入到第一特征提取模块和第二特征提取模块,进行图像特征提取;将跟踪目标特征和搜索区域特征输入到基于交互注意力机制的特征融合模块进行特征融合;将融合特征输入到分类和回归模块,输出包围框内的图像类别及包围框的位置及尺寸信息。本发明通过采用注意力机制进行图像特征提取,可获得感兴趣区域特征以提高特征提取效率;采用交互注意力机制进行特征融合使目标特征和搜索区域特征充分交互,解决了现有技术因为光照、形变、遮挡等情况跟丢目标的问题。

Description

一种视频目标跟踪方法及装置
技术领域
本发明属于视频目标跟踪技术领域,具体涉及一种视频目标跟踪方法及装置。
背景技术
视频目标跟踪在智能监控、视觉导航等领域得到了越来越广泛的应用。视频目标跟踪一般是指在已知视频第一帧图像给出的待跟踪目标的位置和尺寸信息的情况下,在后续的视频帧图像中,跟踪器能够准确找到目标并预测其位置尺寸。由于目标跟踪不需要知道待跟踪目标的类别信息,因此在实际应用中具有较强的灵活性。传统的目标跟踪的方法是基于手工设计的待跟踪目标特征描述子,但基于手工设计的特征描述子无法充分考虑以上各种因素的影响。
近几年来,随着深度学习的出现,待跟踪目标的特征描述是由深度学习网络模型自主学习待跟踪目标的特征描述。目前基于深度学习网络模型的目标跟踪方法大致可以分为粒子滤波和孪生网络匹配两类。粒子滤波的方法是在跟踪目标周围撒大量粒子(粒子的位置和尺寸是通过跟踪目标的信息进行一定的变化得到的),然后对每一个粒子进行得分判断,取得分最高的几个粒子信息的平均值,得到当前目标位置和尺寸信息。孪生网络匹配的方法是将跟踪目标进行提取特征,然后以跟踪目标为中心取一个较大的图像块(目标搜索区域)并提取特征,然后对两个特征进行匹配,取响应最大的位置和尺寸进行回归作为当前目标位置和尺寸。现有孪生网络匹配法一般没有考虑跟踪目标和搜索区域的完全交互,仅仅是基于响应最大值进行处理,导致在光照不同、遮挡、阴影、待跟踪目标形变等场景下跟丢目标的情况出现。
发明内容
为了解决现有技术中存在的上述问题,本发明提供一种视频目标跟踪方法及装置。
为了实现上述目的,本发明采用以下技术方案。
第一方面,本发明提供一种视频目标跟踪方法,包括以下步骤:
将跟踪目标图像和搜索区域图像分别输入到基于注意力机制、结构和权重相同的第一特征提取模块和第二特征提取模块,进行图像特征提取;
将提取的跟踪目标图像特征和搜索区域图像特征输入到基于交互注意力机制的特征融合模块,进行特征融合;
将特征融合模块输出的融合特征输入到分类和回归模块,输出包围框内的图像类别及包围框的位置及尺寸信息,所述图像类别包括前景和背景。
进一步地,在特征提取前还包括:将跟踪目标图像和搜索区域图像分别输入到结构和权重相同的第一图像块编码模块和第二图像块编码模块,将输入图像分割成多个图像块,并将每个图像块中的像素值合成为一个向量。
更进一步地,所述第一特征提取模块和第二特征提取模块均采用Transformer自注意力机制,通过结构相似的窗口多头自注意力层和移位窗口多头自注意力层进行自注意力计算提取图像特征;窗口多头自注意力层将特征图划分成大小为M的窗口,并每个窗口上进行自注意力计算;移位窗口多头自注意力层在窗口多头自注意力层的下一层,通过将窗口整体平移1/2个M的大小,在下一层得到新的窗口以提高感受野,并将平移后的小窗口拼接以保证窗口的数目不变。
更进一步地,在特征融合前还包括:将第一特征提取模块和第二特征提取模块提取的特征输入到特征级联模块,将提取的两种特征分别拉长为一维向量后进行连接,将特征图由三维数据平铺为一维向量。
更进一步地,所述特征融合模块包括编码器和解码器,编码器通过对特征级联模块输出的一维向量进行自注意力计算,实现对两种特征的充分交互;解码器采用交叉注意力机制,通过对跟踪目标图像特征和搜索区域图像特征分别进行加权得到Q、K、V,然后利用
Figure BDA0003508877210000031
分别进行本分支和跨分支的注意力计算实现特征融合,其中,Q、K、V为三个权重矩阵,dK为K的维度。
进一步地,所述方法还包括:在输入第一帧图像前,基于已知目标信息采用少样本学习方法对网络模型进行离线训练;在输入一定帧图像后,更新目标信息,并采用少样本学习方法对网络模型进行在线更新。
第二方面,本发明提供一种视频目标跟踪装置,包括:
注意力机制特征提取模块,用于将跟踪目标图像和搜索区域图像分别输入到基于注意力机制、结构和权重相同的第一特征提取模块和第二特征提取模块,进行图像特征提取;
注意力机制特征融合模块,用于将提取的跟踪目标图像特征和搜索区域图像特征输入到基于交互注意力机制的特征融合模块,进行特征融合;
包围框分类回归模块,用于将特征融合模块输出的融合特征输入到分类和回归模块,输出包围框内的图像类别及包围框的位置及尺寸信息,所述图像类别包括前景和背景。
进一步地,在特征提取前还包括:将跟踪目标图像和搜索区域图像分别输入到结构和权重相同的第一图像块编码模块和第二图像块编码模块,将输入图像分割成多个图像块,并将每个图像块中的像素值合成为一个向量。
更进一步地,所述第一特征提取模块和第二特征提取模块均采用Transformer自注意力机制,通过结构相似的窗口多头自注意力层和移位窗口多头自注意力层进行自注意力计算提取图像特征;窗口多头自注意力层将特征图划分成大小为M的窗口,并每个窗口上进行自注意力计算;移位窗口多头自注意力层在窗口多头自注意力层的下一层,通过将窗口整体平移1/2个M的大小,在下一层得到新的窗口以提高感受野,并将平移后的小窗口拼接以保证窗口的数目不变。
更进一步地,在特征融合前还包括:将第一特征提取模块和第二特征提取模块提取的特征输入到特征级联模块,将提取的两种特征分别拉长为一维向量后进行连接,将特征图由三维数据平铺为一维向量。
与现有技术相比,本发明具有以下有益效果。
本发明通过将跟踪目标图像和搜索区域图像分别输入到基于注意力机制的第一特征提取模块和第二特征提取模块进行图像特征提取,将提取的跟踪目标图像特征和搜索区域图像特征输入到基于交互注意力机制的特征融合模块进行特征融合,将特征融合模块输出的融合特征输入到分类和回归模块输出包围框内的图像类别及包围框的位置及尺寸信息,实现了基于视频图像的目标跟踪。本发明通过采用注意力机制进行图像特征提取,可获得感兴趣区域特征以提高特征提取效率;采用交互注意力机制进行特征融合使目标特征和搜索区域特征充分交互,解决了现有技术因为光照、形变、遮挡等情况跟丢目标的问题。
附图说明
图1为本发明实施例一种视频目标跟踪方法的流程图。
图2为一种孪生网络的模型结构示意图。
图3为特征提取模块工作时图像块覆盖示意图。
图4为交叉注意力机制示意图。
图5为本发明实施例一种视频目标跟踪装置的方框图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚、明白,以下结合附图及具体实施方式对本发明作进一步说明。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1为本发明实施例一种视频目标跟踪方法的流程图,包括以下步骤:
步骤101,将跟踪目标图像和搜索区域图像分别输入到基于注意力机制、结构和权重相同的第一特征提取模块和第二特征提取模块,进行图像特征提取;
步骤102,将提取的跟踪目标图像特征和搜索区域图像特征输入到基于交互注意力机制的特征融合模块,进行特征融合;
步骤103,将特征融合模块输出的融合特征输入到分类和回归模块,输出包围框内的图像类别及包围框的位置及尺寸信息,所述图像类别包括前景和背景。
本实施例提出一种视频目标跟踪方法。视频目标跟踪是在连续帧的视频序列中建立与待跟踪目标的位置关系,根据这些位置关系估计待跟踪目标的运动轨迹。通常情况下,目标跟踪任务中视频序列第一帧是目标检测的结果或者是给定目标的真实位置,所以其大小和位置是确定的,通过目标跟踪算法计算后续帧中目标的具体位置和大小。在基于深度学习的诸多跟踪算法中,孪生网络是最典型也是最成功的代表之一。孪生网络跟踪方法是将跟踪目标进行提取特征,然后以跟踪目标为中心取一个较大的搜索区域并提取特征,然后对两个特征进行匹配,取响应最大的位置和尺寸进行回归作为当前目标位置和尺寸。现有孪生网络跟踪方法一般没有考虑跟踪目标和搜索区域的完全交互,仅仅是基于响应最大值进行处理,导致在遮挡等场景下跟丢目标的情况出现。为此,本实施例通过设计基于注意力机制的孪生网络模型,实现目标特征和搜索区域特征充分交互,从而解决因遮挡丢失目标问题。其整体结构示意图如图2所示,主要由特征提取模块、特征融合模块、分类和回归模块等组成。
本实施例中,步骤101主要用于对跟踪目标图像和搜索区域图像进行特征提取。本实施例通过将跟踪目标图像和搜索区域图像分别输入到第一特征提取模块和第二特征提取模块,实现两种图像特征的提取。跟踪目标的信息包含在输入的第一帧视频图像中,由人工标注或目标检测模型获得。搜索区域是后续视频帧图像中的一个较大的图像块区域。第一特征提取模块和第二特征提取模块采用结构和权重相同网络模型,为了便于获得图像的感兴趣区域特征,本实施例采用基于注意力机制的特征提取模块。注意力机制是在计算机能力有限的情况下,借鉴人脑的注意力机制,只关心一些关键的信息输入进行处理,来提高神经网络的效率。注意力机制的计算可分为两步:一是在所有输入信息上计算注意力分布;二是根据注意力分布计算输入信息的加权求和。加权系数即注意力分布αi=softmax(fiWattq),表示输入向量fi与询问向量q的相关程度。
本实施例中,步骤102主要用于进行特征融合。本实施例通过将提取的跟踪目标特征和搜索区域特征输入到特征融合模块,实现两种特征的充分融合。现有技术一般只是关注两种特征的匹配程度,不进行特征融合,当出现遮挡等情况时匹配度无法达到设定的阈值从而导致丢失目标。本实施例通过对两种特征进行融合,将跟踪目标信息融入搜索区域特征中,使遮挡等因素的影响相对减弱,可解决目标丢失问题。为了使两种特征能够充分融合,本实施例的特征融合模块采用交叉注意力机制。交叉注意力机制的核心思想是计算多个输入对单个输入的影响或单个输入对多个输入的影响,其目的是将多个输入融合成一个输入或将多个输入信息补充到一个输入中。因此,采用交叉注意力机制可实现跟踪目标特征和搜索区域特征的充分融合。
本实施例中,步骤103主要用于输出包围框内图像的类别和包围框的位置尺寸信息。本实施例通过将融合特征输入到分类和回归模块得到所述类别和位置信息。分类和回归模块由分类子模块和回归子模块两部分组成。分类子模块输出图像类别和包围框的粗略位置,图像类别包括前景和背景两个类别;包围框是一个矩形,其位置尺寸信息一般用矩形的左上角和右下角坐标表示。回归子模块对包围框的粗略位置数据进一步优化,从而得到最终的包围框结果。
作为一可选实施例,在特征提取前还包括:将跟踪目标图像和搜索区域图像分别输入到结构和权重相同的第一图像块编码模块和第二图像块编码模块,将输入图像分割成多个图像块,并将每个图像块中的像素值合成为一个向量。
本实施例给出了对输入图像进行图像块划分编码的一种技术方案。为了减小数据处理量,本实施例将输入图像分割成多个图像块,将图像的最小单位由像素变为图像块,每个图像块由多个像素组成,即用含多个像素的像素矩阵对图片进行分割,并将每个图像块中的像素值合成为一个向量。本实施例通过将跟踪目标图像和搜索区域图像分别输入到第一图像块编码模块和第二图像块编码模块,实现图像块的划分和编码。由于本实施例采用孪生网络结构,因此第一图像块编码模块和第二图像块编码模块的结构和权重参数均相同。
作为一可选实施例,所述第一特征提取模块和第二特征提取模块均采用Transformer自注意力机制,通过结构相似的窗口多头自注意力层和移位窗口多头自注意力层进行自注意力计算提取图像特征;窗口多头自注意力层将特征图划分成大小为M的窗口,并每个窗口上进行自注意力计算;移位窗口多头自注意力层在窗口多头自注意力层的下一层,通过将窗口整体平移1/2个M的大小,在下一层得到新的窗口以提高感受野,并将平移后的小窗口拼接以保证窗口的数目不变。
本实施例给出了第一特征提取模块和第二特征提取模块的一种技术方案。本实施例中,两个特征提取模块均采用Transformer自注意力机制。Transformer的本质上是一个Encoder-Decoder的结构。Transformer中抛弃了传统的CNN和RNN,整个网络结构完全是由注意力机制组成。与传统自注意力机制相比,增加了多头自注意力机制,进一步完善了自注意力机制的性能。Transformer的编码器和解码器都包含有以下几个组件:堆叠的自注意力层、逐点的全连接层以及位置编码等。编码器由N个相同的层组成,每一层有两个子层:多头自注意力机制和前馈全连接神经网络,并在任意子层之间使用一个残差连接,然后进行层归一化。解码器也由N个相同的层组成,每层包含三个子层:屏蔽的多头注意力机制、多头注意力机制以及前馈全连接神经网络。本实施例通过采用窗口多头自注意层(W-MSA)和移位窗口多头自注意层(SW-MSA)的结构,在每个窗口大小的图像块上(如图3(c))进行自注意力计算,从而得到最后的自注意力机制特征。窗口多头自注意层(W-MSA)和移位窗口多头自注意层(SW-MSA)的架构相似,W-MSA是将特征图中划分成大小为M的窗口,每个窗口进行自注意力计算,如图3(a)所示。SW-MSA是在W-MSA的下一层,如图3(b)所示,通过将窗口整体平移1/2个M的大小,在下一层得到新的窗口,可大大增加感受野,在一定程度上减小遮挡等影响。为了保证窗口的数目不变,将平移后的小窗口拼接。这样可以满足窗口外的信息交互。
作为一可选实施例,在特征融合前还包括:将第一特征提取模块和第二特征提取模块提取的特征输入到特征级联模块,将提取的两种特征分别拉长为一维向量后进行连接,将特征图由三维数据平铺为一维向量。
本实施例给出了将提取的两种特征级联的一种技术方案。本实施例通过设置一个特征级联模块,将输入的跟踪目标特征和搜索区域特征分别拉长为一维向量,然后拼接在一起,最后得到一个级联的一维向量。本实施例相当于将特征图由三维数据平铺为一维向量后输入到特征融合模块,通过注意力计算实现特征融合。
作为一可选实施例,所述特征融合模块包括编码器和解码器,编码器通过对特征级联模块输出的一维向量进行自注意力计算,实现两种特征的充分交互;解码器采用交叉注意力机制,通过对跟踪目标图像特征和搜索区域图像特征分别进行加权得到Q、K、V,然后利用
Figure BDA0003508877210000081
分别进行本分支和跨分支的注意力计算实现特征融合,其中,Q、K、V为三个权重矩阵,dK为K的维度。
本实施例给出了特征融合模块的一种技术方案。本实施例中,特征融合模块由编码器和解码器组成。编码器实现对跟踪目标特征和搜索区域特征的自注意力操作,使得两种特征能够充分交互。自注意力机制是注意力机制的变体,只有一个输入,将序列中的每个单元和该序列中的所有单元进行注意力计算,减少了对外部信息的依赖,更擅长捕捉数据或特征的内部相关性。自注意力机制是利用三个可学习的变量将输入线性映射为K、Q与V,然后将Q与K相乘得到K对Q的注意力权重后,利用归一化的权重和V来生成输入的上下文信息。计算公式为
Figure BDA0003508877210000082
解码器采用交叉注意力机制,通过对跟踪目标特征和搜索区域特征分别进行加权得到Q、K、V,然后利用
Figure BDA0003508877210000083
分别进行本分支和跨分支的注意力计算实现特征融合。如图4所示。由于跟踪目标特征在进行交叉注意力操作时,需要将跟踪目标的特征进行复制叠加,如图4的跟踪目标原始特征中每个颜色都是像素复制叠加之后的结果。经过复制叠加后,搜索区域的窗口大小对应目标特征中的像素,实现了窗口与像素之间的交互。
作为一可选实施例,所述方法还包括:在输入第一帧图像前,基于已知目标信息采用少样本学习方法对网络模型进行离线训练;在输入一定帧图像后,更新目标信息,并采用少样本学习方法对网络模型进行在线更新。
本实施例给出了模型训练的一种技术方案。本实施例的孪生网络模型在第一帧视频图像输入前需要进行离线训练。第一帧视频图像中的目标信息是已知的(标定好的),输入第一帧视频图像后基于已知的目标信息对后续的视频图像进行目标跟踪。输入一定帧图像后(如50帧)需要对目标信息进行更新,同时对网络模型进行在线训练。为了减小训练时间提高训练速度,本实施例的离线训练和在线训练均采用少样本学习方法。少样本学习学习的是一个模型参数的更新规则,包括任务学习模型和元学习模型。元学习模型是用于学习怎样优化学习模型的优化算法模型。这样训练得到的学习模型学习到一个通用的初始化,可以使得在后续训练时收敛更快。训练集使用miniImage数据集,数据集中一共有64类,每类600个样本。训练过程中,每个训练循环中,从训练集中随机采样5类(每类5个样本)来训练学习模型。然后从训练集中随机采样的5类中剩下样本中每类采样15个样本,根据学习模型中的损失来优化元学习模型。最终训练得到的学习模型的特征提取模块作为图一中全注意力特征提取模块。
图5为本发明实施例一种视频目标跟踪装置的组成示意图,所述装置包括:
注意力机制特征提取模块11,用于将跟踪目标图像和搜索区域图像分别输入到基于注意力机制、结构和权重相同的第一特征提取模块和第二特征提取模块,进行图像特征提取;
注意力机制特征融合模块12,用于将提取的跟踪目标图像特征和搜索区域图像特征输入到基于交互注意力机制的特征融合模块,进行特征融合;
包围框分类回归模块13,用于将特征融合模块输出的融合特征输入到分类和回归模块,输出包围框内的图像类别及包围框的位置及尺寸信息,所述图像类别包括前景和背景。
本实施例的装置,可以用于执行图1所示方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。后面的实施例也是如此,均不再展开说明。
作为一可选实施例,在特征提取前还包括:将跟踪目标图像和搜索区域图像分别输入到结构和权重相同的第一图像块编码模块和第二图像块编码模块,将输入图像分割成多个图像块,并将每个图像块中的像素值合成为一个向量。
作为一可选实施例,所述第一特征提取模块和第二特征提取模块均采用Transformer自注意力机制,通过结构相似的窗口多头自注意力层和移位窗口多头自注意力层进行自注意力计算提取图像特征;窗口多头自注意力层将特征图划分成大小为M的窗口,并每个窗口上进行自注意力计算;移位窗口多头自注意力层在窗口多头自注意力层的下一层,通过将窗口整体平移1/2个M的大小,在下一层得到新的窗口以提高感受野,并将平移后的小窗口拼接以保证窗口的数目不变。
作为一可选实施例,在特征融合前还包括:将第一特征提取模块和第二特征提取模块提取的特征输入到特征级联模块,将提取的两种特征分别拉长为一维向量后进行连接,将特征图由三维数据平铺为一维向量。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (10)

1.一种视频目标跟踪方法,其特征在于,包括以下步骤:
将跟踪目标图像和搜索区域图像分别输入到基于注意力机制、结构和权重相同的第一特征提取模块和第二特征提取模块,进行图像特征提取;
将提取的跟踪目标图像特征和搜索区域图像特征输入到基于交互注意力机制的特征融合模块,进行特征融合;
将特征融合模块输出的融合特征输入到分类和回归模块,输出包围框内的图像类别及包围框的位置及尺寸信息,所述图像类别包括前景和背景。
2.根据权利要求1所述的视频目标跟踪方法,其特征在于,在特征提取前还包括:将跟踪目标图像和搜索区域图像分别输入到结构和权重相同的第一图像块编码模块和第二图像块编码模块,将输入图像分割成多个图像块,并将每个图像块中的像素值合成为一个向量。
3.根据权利要求2所述的视频目标跟踪方法,其特征在于,所述第一特征提取模块和第二特征提取模块均采用Transformer自注意力机制,通过结构相似的窗口多头自注意力层和移位窗口多头自注意力层进行自注意力计算提取图像特征;窗口多头自注意力层将特征图划分成大小为M的窗口,并每个窗口上进行自注意力计算;移位窗口多头自注意力层在窗口多头自注意力层的下一层,通过将窗口整体平移1/2个M的大小,在下一层得到新的窗口以提高感受野,并将平移后的小窗口拼接以保证窗口的数目不变。
4.根据权利要求3所述的视频目标跟踪方法,其特征在于,在特征融合前还包括:将第一特征提取模块和第二特征提取模块提取的特征输入到特征级联模块,将提取的两种特征分别拉长为一维向量后进行连接,将特征图由三维数据平铺为一维向量。
5.根据权利要求4所述的视频目标跟踪方法,其特征在于,所述特征融合模块包括编码器和解码器,编码器通过对特征级联模块输出的一维向量进行自注意力计算,实现对两种特征的充分交互;解码器采用交叉注意力机制,通过对跟踪目标图像特征和搜索区域图像特征分别进行加权得到Q、K、V,然后利用
Figure FDA0003508877200000021
分别进行本分支和跨分支的注意力计算实现特征融合,其中,Q、K、V为三个权重矩阵,dK为K的维度。
6.根据权利要求1所述的视频目标跟踪方法,其特征在于,所述方法还包括:在输入第一帧图像前,基于已知目标信息采用少样本学习方法对网络模型进行离线训练;在输入一定帧图像后,更新目标信息,并采用少样本学习方法对网络模型进行在线更新。
7.一种视频目标跟踪装置,其特征在于,包括:
注意力机制特征提取模块,用于将跟踪目标图像和搜索区域图像分别输入到基于注意力机制、结构和权重相同的第一特征提取模块和第二特征提取模块,进行图像特征提取;
注意力机制特征融合模块,用于将提取的跟踪目标图像特征和搜索区域图像特征输入到基于交互注意力机制的特征融合模块,进行特征融合;
包围框分类回归模块,用于将特征融合模块输出的融合特征输入到分类和回归模块,输出包围框内的图像类别及包围框的位置及尺寸信息,所述图像类别包括前景和背景。
8.根据权利要求7所述的视频目标跟踪装置,其特征在于,在特征提取前还包括:将跟踪目标图像和搜索区域图像分别输入到结构和权重相同的第一图像块编码模块和第二图像块编码模块,将输入图像分割成多个图像块,并将每个图像块中的像素值合成为一个向量。
9.根据权利要求8所述的视频目标跟踪装置,其特征在于,所述第一特征提取模块和第二特征提取模块均采用Transformer自注意力机制,通过结构相似的窗口多头自注意力层和移位窗口多头自注意力层进行自注意力计算提取图像特征;窗口多头自注意力层将特征图划分成大小为M的窗口,并每个窗口上进行自注意力计算;移位窗口多头自注意力层在窗口多头自注意力层的下一层,通过将窗口整体平移1/2个M的大小,在下一层得到新的窗口以提高感受野,并将平移后的小窗口拼接以保证窗口的数目不变。
10.根据权利要求9所述的视频目标跟踪装置,其特征在于,在特征融合前还包括:将第一特征提取模块和第二特征提取模块提取的特征输入到特征级联模块,将提取的两种特征分别拉长为一维向量后进行连接,将特征图由三维数据平铺为一维向量。
CN202210147505.5A 2022-02-17 2022-02-17 一种视频目标跟踪方法及装置 Pending CN114708297A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210147505.5A CN114708297A (zh) 2022-02-17 2022-02-17 一种视频目标跟踪方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210147505.5A CN114708297A (zh) 2022-02-17 2022-02-17 一种视频目标跟踪方法及装置

Publications (1)

Publication Number Publication Date
CN114708297A true CN114708297A (zh) 2022-07-05

Family

ID=82166426

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210147505.5A Pending CN114708297A (zh) 2022-02-17 2022-02-17 一种视频目标跟踪方法及装置

Country Status (1)

Country Link
CN (1) CN114708297A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115100432A (zh) * 2022-08-23 2022-09-23 浙江大华技术股份有限公司 一种小样本目标检测方法、设备及计算机可读存储介质
CN116091551A (zh) * 2023-03-14 2023-05-09 中南大学 一种基于多模态融合的目标检索跟踪方法及系统
CN116469041A (zh) * 2023-06-20 2023-07-21 成都理工大学工程技术学院 一种目标对象的运动轨迹预测方法、系统及设备
CN117809025A (zh) * 2024-03-01 2024-04-02 深圳魔视智能科技有限公司 基于注意力网络的目标跟踪方法、装置、设备及存储介质

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115100432A (zh) * 2022-08-23 2022-09-23 浙江大华技术股份有限公司 一种小样本目标检测方法、设备及计算机可读存储介质
CN115100432B (zh) * 2022-08-23 2022-11-18 浙江大华技术股份有限公司 一种小样本目标检测方法、设备及计算机可读存储介质
CN116091551A (zh) * 2023-03-14 2023-05-09 中南大学 一种基于多模态融合的目标检索跟踪方法及系统
CN116091551B (zh) * 2023-03-14 2023-06-20 中南大学 一种基于多模态融合的目标检索跟踪方法及系统
CN116469041A (zh) * 2023-06-20 2023-07-21 成都理工大学工程技术学院 一种目标对象的运动轨迹预测方法、系统及设备
CN116469041B (zh) * 2023-06-20 2023-09-19 成都理工大学工程技术学院 一种目标对象的运动轨迹预测方法、系统及设备
CN117809025A (zh) * 2024-03-01 2024-04-02 深圳魔视智能科技有限公司 基于注意力网络的目标跟踪方法、装置、设备及存储介质

Similar Documents

Publication Publication Date Title
Deng et al. RFBNet: deep multimodal networks with residual fusion blocks for RGB-D semantic segmentation
CN114708297A (zh) 一种视频目标跟踪方法及装置
CN112990116B (zh) 基于多注意力机制融合的行为识别装置、方法和存储介质
CN111401207B (zh) 基于mars深度特征提取与增强的人体动作识别方法
WO2024002211A1 (zh) 一种图像处理方法及相关装置
Hu et al. Apanet: Auto-path aggregation for future instance segmentation prediction
Wang et al. Depth estimation of video sequences with perceptual losses
CN116258757A (zh) 一种基于多尺度交叉注意力的单目图像深度估计方法
CN116205962A (zh) 基于完整上下文信息的单目深度估计方法及系统
Xu et al. RGB-T salient object detection via CNN feature and result saliency map fusion
Hwang et al. Lidar depth completion using color-embedded information via knowledge distillation
Wang et al. TF-SOD: a novel transformer framework for salient object detection
Hongmeng et al. A detection method for deepfake hard compressed videos based on super-resolution reconstruction using CNN
WO2023068953A1 (en) Attention-based method for deep point cloud compression
CN117237623B (zh) 一种无人机遥感图像语义分割方法及系统
Robert The Role of Deep Learning in Computer Vision
Jiang et al. Cross-level reinforced attention network for person re-identification
Wang et al. Sparse U-PDP: A Unified Multi-Task Framework for Panoptic Driving Perception
Tseng et al. Semi-supervised image depth prediction with deep learning and binocular algorithms
Wang et al. Surveillance video coding for traffic scene based on vehicle knowledge and shared library by cloud-edge computing in cyber-physical-social systems
Ju Study of human motion recognition algorithm based on multichannel 3D convolutional neural network
CN115035173A (zh) 基于帧间相关性的单目深度估计方法及系统
CN114937153A (zh) 弱纹理环境下基于神经网络的视觉特征处理系统及方法
Li et al. Video prediction for driving scenes with a memory differential motion network model
CN113489958A (zh) 一种基于视频编码数据多特征融合的动态手势识别方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination