CN112802060B - 一种单目标跟踪方法和装置 - Google Patents
一种单目标跟踪方法和装置 Download PDFInfo
- Publication number
- CN112802060B CN112802060B CN202110130340.6A CN202110130340A CN112802060B CN 112802060 B CN112802060 B CN 112802060B CN 202110130340 A CN202110130340 A CN 202110130340A CN 112802060 B CN112802060 B CN 112802060B
- Authority
- CN
- China
- Prior art keywords
- visible light
- infrared light
- image
- fusion
- search
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20132—Image cropping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
Abstract
本申请公开了一种单目标跟踪方法和装置,将获取的可见光模板图像、可见光搜索图像、红外光模板图像和红外光搜索图像输入至目标跟踪模型进行特征提取;并通过目标跟踪模型对可见光模板特征向量和可见光模板特征向量进行模板特征融合得到融合模板特征,对可见光搜索特征向量和红外光搜索特征向量进行搜索特征融合得到融合搜索特征,然后对融合模板特征和融合搜索特征进行互相关计算得到融合响应图,并根据融合响应图获取目标的位置,直至可见光视频或红外光视频结束,得到目标的跟踪结果。本申请解决了现有的目标跟踪方法基于可见光图像进行目标跟踪,容易受到恶劣的照明、雾气和恶劣天气等恶劣条件的影响,导致目标跟踪结果准确性较低的技术问题。
Description
技术领域
本申请涉及图像处理技术领域,尤其涉及一种单目标跟踪方法和装置。
背景技术
视觉跟踪技术是计算机视觉领域的一个重要课题,有着重要的研究意义;且在军事制导、视频监控、机器人视觉导航、人机交互、以及医疗诊断等许多方面有着广泛的应用前景。视觉单目标跟踪任务就是在给定某视频序列初始帧的目标大小与位置的情况下,预测后续帧中该目标的大小与位置。
现有的目标跟踪方法仅对可见光图像进行研究,可见光图像通常具有较高的空间分辨率和相当多的细节和明暗对比。因此,可见光图像适合于人类的视觉感知。但是,这些可见光图像很容易受到恶劣条件的影响,例如恶劣的照明,雾气和恶劣天气等其他影响,进而影响目标跟踪结果的准确性;而在光照不均匀的复杂情况下获得的前景目标不完整、不准确,难以跟踪目标。
发明内容
本申请提供了一种单目标跟踪方法和装置,用于解决现有的目标跟踪方法基于可见光图像进行目标跟踪,容易受到恶劣的照明、雾气和恶劣天气等恶劣条件的影响,导致目标跟踪结果准确性较低的技术问题。
有鉴于此,本申请第一方面提供了一种单目标跟踪方法,包括:
获取可见光视频和红外光视频的第n帧图像,得到可见光搜索图像和红外光搜索图像,其中,n>1,所述可见光视频和所述红外光视频的第一帧图像用于获取可见光模板图像和红外光模板图像;
将所述可见光模板图像、所述可见光搜索图像、所述红外光模板图像和所述红外光搜索图像输入至目标跟踪模型;
通过所述目标跟踪模型对所述可见光模板图像、所述可见光搜索图像、所述红外光模板图像和所述红外光搜索图像进行特征提取,分别得到可见光模板特征向量、可见光搜索特征向量、红外光模板特征向量和红外光搜索特征向量;
通过所述目标跟踪模型对所述可见光模板特征向量和所述可见光模板特征向量进行模板特征融合得到融合模板特征,以及对所述可见光搜索特征向量和所述红外光搜索特征向量进行搜索特征融合得到融合搜索特征;
通过所述目标跟踪模型对所述融合模板特征和所述融合搜索特征进行互相关计算得到融合响应图,并根据所述融合响应图获取目标的位置;
设n=n+1,并返回所述获取可见光视频和红外光视频的第n帧图像,得到可见光搜索图像和红外光搜索图像的步骤,直至所述可见光视频或所述红外光视频结束,得到所述目标的跟踪结果。
可选的,所述通过所述目标跟踪模型对所述可见光模板特征向量和所述可见光模板特征向量进行模板特征融合得到融合模板特征,包括:
通过所述目标跟踪模型对所述可见光模板特征向量和所述红外光模板特征向量进行向量拼接得到融合模板特征。
可选的,通过所述目标跟踪模型对所述可见光搜索特征向量和所述红外光搜索特征向量进行搜索特征融合得到融合搜索特征,包括:
通过所述目标跟踪模型根据所述可见光模板特征向量和所述可见光搜索特征向量进行互相关计算得到可见光响应图,并基于所述可见光响应图获取可见光权重;
通过所述目标跟踪模型根据所述红外光模板特征向量和所述红外光搜索特征向量进行互相关计算得到红外光响应图,并基于所述红外光响应图获取红外光权重;
通过所述目标跟踪模型根据所述可见光权重和所述红外光权重对所述可见光搜索特征向量和所述红外光搜索特征向量进行向量拼接,得到融合搜索特征。
可选的,所述通过所述目标跟踪模型对所述融合模板特征和所述融合搜索特征进行卷积操作得到融合响应图,之后还包括:
对所述融合响应图进行高斯衰减处理,得到新融合响应图;
相应的,所述根据所述融合响应图获取目标的位置,包括:
根据所述新融合响应图获取所述目标的位置。
可选的,所述根据所述融合响应图获取目标的位置,包括:
对所述融合响应图进行上采样,得到所述目标的位置。
可选的,所述目标跟踪模型的配置过程为:
获取用于训练目标跟踪网络的训练样本对;
将所述训练样本对输入到目标跟踪网络进行处理,得到所述训练样本对中的目标的预测位置;
根据所述训练样本对中的目标的预测位置和所述训练样本对中的该目标的真实位置计算损失值;
根据所述损失值对所述目标跟踪网络的参数进行更新,直至所述目标跟踪网络收敛,得到所述目标跟踪模型。
可选的,所述将所述可见光模板图像、所述可见光搜索图像、所述红外光模板图像和所述红外光搜索图像输入至目标跟踪模型,之前还包括:
对所述可见光视频的第一帧图像中的所述目标进行标定,并基于标定后的所述目标的中心点对该第一帧图像进行裁剪,得到所述可见光模板图像;
对所述红外光视频的第一帧图像中的所述目标进行标定,并基于标定后的所述目标的中心点对该第一帧图像进行裁剪,得到所述红外光模板图像。
可选的,所述获取可见光视频和红外光视频的第n帧图像,得到可见光搜索图像和红外光搜索图像,包括:
根据所述可见光视频的第n-1帧图像中的所述目标的中心点对所述可见光视频的第n帧图像进行裁剪,得到可见光搜索图像;
根据所述红外光视频的第n-1帧图像中的所述目标的中心点对所述红外光视频的第n帧图像进行裁剪,得到红外光搜索图像。
本申请第二方面提供了一种单目标跟踪装置,包括:
获取单元,用于获取可见光视频和红外光视频的第n帧图像,得到可见光搜索图像和红外光搜索图像,其中,n>1,所述可见光视频和所述红外光视频的第一帧图像用于获取可见光模板图像和红外光模板图像;
输入单元,用于将所述可见光模板图像、所述可见光搜索图像、所述红外光模板图像和所述红外光搜索图像输入至目标跟踪模型;
特征提取单元,用于通过所述目标跟踪模型对所述可见光模板图像、所述可见光搜索图像、所述红外光模板图像和所述红外光搜索图像进行特征提取,分别得到可见光模板特征向量、可见光搜索特征向量、红外光模板特征向量和红外光搜索特征向量;
特征融合单元,用于通过所述目标跟踪模型对所述可见光模板特征向量和所述可见光模板特征向量进行模板特征融合得到融合模板特征,以及对所述可见光搜索特征向量和所述红外光搜索特征向量进行搜索特征融合得到融合搜索特征;
计算单元,用于通过所述目标跟踪模型对所述融合模板特征和所述融合搜索特征进行互相关计算得到融合响应图,并根据所述融合响应图获取目标的位置;
触发单元,用于设n=n+1,并触发所述获取单元,直至所述可见光视频或所述红外光视频结束,得到所述目标的跟踪结果。
可选的,还包括:标定和裁剪单元,用于:
对所述可见光视频的第一帧图像中的所述目标进行标定,并基于标定后的所述目标的中心点对该第一帧图像进行裁剪,得到所述可见光模板图像;
对所述红外光视频的第一帧图像中的所述目标进行标定,并基于标定后的所述目标的中心点对该第一帧图像进行裁剪,得到所述红外光模板图像。
从以上技术方案可以看出,本申请具有以下优点:
本申请提供了一种单目标跟踪方法,包括:获取可见光视频和红外光视频的第n帧图像,得到可见光搜索图像和红外光搜索图像,其中,n>1,可见光视频和红外光视频的第一帧图像用于获取可见光模板图像和红外光模板图像;将可见光模板图像、可见光搜索图像、红外光模板图像和红外光搜索图像输入至目标跟踪模型;通过目标跟踪模型对可见光模板图像、可见光搜索图像、红外光模板图像和红外光搜索图像进行特征提取,分别得到可见光模板特征向量、可见光搜索特征向量、红外光模板特征向量和红外光搜索特征向量;通过目标跟踪模型对可见光模板特征向量和可见光模板特征向量进行模板特征融合得到融合模板特征,以及对可见光搜索特征向量和红外光搜索特征向量进行搜索特征融合得到融合搜索特征;通过目标跟踪模型对融合模板特征和融合搜索特征进行互相关计算得到融合响应图,并根据融合响应图获取目标的位置;设n=n+1,并返回获取可见光视频和红外光视频的第n帧图像,得到可见光搜索图像和红外光搜索图像的步骤,直至可见光视频或红外光视频结束,得到目标的跟踪结果。
本申请中,通过获取可见光视频和红外光视频来获取可见光模板图像、可见光搜索图像、红外光模板图像和红外光搜索图像,进而通过目标跟踪模型进行可见光和红外光特征提取,以及特征融合得到融合模板特征和融合搜索特征,通过融合可见光图像信息和红外光图像信息来补充信息,提高目标跟踪在光照变化情况下的鲁棒性,有助于提高单目标跟踪结果的准确性;通过目标跟踪模型对融合模板特征和融合搜索特征进行互相关计算得到融合响应图,最终根据融合响应图获取目标的位置,实现目标跟踪,解决了现有的目标跟踪方法基于可见光图像进行目标跟踪,容易受到恶劣的照明、雾气和恶劣天气等恶劣条件的影响,导致目标跟踪结果准确性较低的技术问题。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其它的附图。
图1为本申请实施例提供的一种单目标跟踪方法的一个流程示意图;
图2为本申请实施例提供的一种目标跟踪模型进行单目标跟踪方法的一个示意图;
图3为本申请实施例提供的一种搜索特征融合过程的一个示意图;
图4本申请实施例提供的一种单目标跟踪装置的一个结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
为了便于理解,请参阅图1,本申请提供的一种单目标跟踪方法的一个实施例,包括:
步骤101、获取可见光视频和红外光视频的第n帧图像,得到可见光搜索图像和红外光搜索图像,其中,n>1,可见光视频和红外光视频的第一帧图像用于获取可见光模板图像和红外光模板图像。
在本申请实施例中,考虑到可见光图像很容易受到恶劣条件的影响,例如恶劣的照明,雾气和恶劣天气等其他影响,进而影响目标跟踪结果的准确性;而在光照不均匀的复杂情况下获得的前景目标不完整、不准确,难以跟踪目标。然而描绘物体的热辐射的红外光图像可以抵抗这些干扰,但通常分辨率较低且质地较差。
为了解决该问题,本申请实施例通过融合可见光图像和红外光图像来进行互补。本申请实施例对于同一场景获取其可见光视频和红外光视频,根据可见光视频的第n-1帧图像中的目标的中心点对可见光视频的第n帧图像进行裁剪,得到可见光搜索图像;根据红外光视频的第n-1帧图像中的目标的中心点对红外光视频的第n帧图像进行裁剪,得到红外光搜索图像。其中,可见光视频和红外光视频的第一帧图像用于获取可见光模板图像和红外光模板图像,具体的,对可见光视频的第一帧图像中的目标进行标定,并基于标定后的目标的中心点对该第一帧图像进行裁剪,得到可见光模板图像;对红外光视频的第一帧图像中的目标进行标定,并基于标定后的目标的中心点对该第一帧图像进行裁剪,得到红外光模板图像。
步骤102、将可见光模板图像、可见光搜索图像、红外光模板图像和红外光搜索图像输入至目标跟踪模型。
本申请实施例中的目标跟踪模型采用双重的孪生网络,包括主干网络和特征融合网络,其中,主干网络包括可见光网络和红外光网络,可见光网络和红外光网络的网络结构相同,主干网络优选采用CIResNet-22网络,以减少Padding带来的负面影响,网络结构可以参考表1。
表1
进一步,目标跟踪模型的配置过程为:
获取用于训练目标跟踪网络的训练样本对;将训练样本对输入到目标跟踪网络进行处理,得到训练样本对中的目标的预测位置;根据训练样本对中的目标的预测位置和训练样本对中的该目标的真实位置计算损失值;根据损失值对目标跟踪网络的参数进行更新,直至目标跟踪网络收敛,得到目标跟踪模型。其中,计算损失值的损失函数为:
式中,y[u]、v[u]分别为目标的预测位置、真实位置,D为训练样本的搜索区域。其中,训练样本对包括可见光图像和红外光图像,判断目标跟踪网络是否收敛可以通过训练的迭代次数来判断,当迭代次数达到预设迭代次数时,则判定该目标跟踪网络收敛,否则没有收敛,则继续迭代训练目标跟踪网络。
步骤103、通过目标跟踪模型对可见光模板图像、可见光搜索图像、红外光模板图像和红外光搜索图像进行特征提取,分别得到可见光模板特征向量、可见光搜索特征向量、红外光模板特征向量和红外光搜索特征向量。
本申请实施例中,通过目标跟踪模型中的主干网络对可见光模板图像、可见光搜索图像、红外光模板图像和红外光搜索图像进行特征提取,分别得到可见光模板特征向量、可见光搜索特征向量、红外光模板特征向量和红外光搜索特征向量。具体的,通过可见光网络对可见光模板图像、可见光搜索图像进行特征提取,分别得到可见光模板特征向量、可见光搜索特征向量;通过红外光网络对红外光模板图像、红外光搜索图像进行特征提取,分别得到红外光模板特征向量、红外光搜索特征向量。
以可见光视频为例,在首帧对目标进行标定,然后以标定后的目标中心裁剪127*127*3大小的可见光模板图像送入CIResNet-22网络进行特征提取,得到可见光模板特征向量16*16*512。得到目标的特征后,对待跟踪图像进行处理,以上一帧的目标中心截取255*255*3大小的可见光搜索图像,如果尺寸不够裁剪,则在裁剪后以平均像素值进行填充,同样输入到CIResNet-22网络进行特征提取,得到可见光搜索特征向量48*48*512,其中,可见光模板图像和可见光搜索图像的具体大小可以根据实际情况进行设置。红外光视频的处理过程与可见光视频的处理过程类似,在此不再进行赘述,具体可以参考图2。
本申请实施例考虑到目标跟踪受实时性的约束,而现有的深度学习模型在进行目标跟踪时需要对模型进行更新,需在线通过SGD(随机梯度下降法)调整网络参数,限制了目标跟踪速度。本申请实施例采用CIRreNet对图像的特征进行提取,主干网络不需在线SGD的微调,提高了网络运行的速度,进而提高目标跟踪的实时性。
步骤104、通过目标跟踪模型对可见光模板特征向量和可见光模板特征向量进行模板特征融合得到融合模板特征,以及对可见光搜索特征向量和红外光搜索特征向量进行搜索特征融合得到融合搜索特征。
在本申请实施例中,在特征融合上,要经过模板特征融合和搜索特征融合,模板特征融合包括可见光模板特征向量和红外光模板特征向量。通过目标跟踪模型对可见光模板特征向量和红外光模板特征向量进行向量拼接得到融合模板特征。具体的,在可见光模板图像和红外光模板图像经过主干网络后产生的深层特征输入特征融合网络进行向量拼接,得到融合模板特征。
通过目标跟踪模型对可见光搜索特征向量和红外光搜索特征向量进行搜索特征融合得到融合搜索特征,具体包括:通过目标跟踪模型根据可见光模板特征向量和可见光搜索特征向量进行互相关计算得到可见光响应图,并基于可见光响应图获取可见光权重;通过目标跟踪模型根据红外光模板特征向量和红外光搜索特征向量进行互相关计算得到红外光响应图,并基于红外光响应图获取红外光权重;通过目标跟踪模型根据可见光权重和红外光权重对可见光搜索特征向量和红外光搜索特征向量进行向量拼接,得到融合搜索特征。
通过目标跟踪模型中的特征融合网络对可见光搜索特征向量和红外光搜索特征向量进行融合,以利用搜索图像的特征生成新的搜索特征。特征融合网络的关键在于模态权重的计算,本申请实施例通过互相关计算获取的响应图来获取模态权重,由于可见光特征和红外特征的贡献是不一样的,可以通过计算模态权重来体现可见光特征和红外特征的不同贡献程度。模态权重的计算主要依赖于哪一种搜索特征与模板特征更相似,更相似的就更容易进行跟踪,其对应的模态权重也就越大,使得目标跟踪模型更注重需要的搜索特征。
模态权重可以定义为:
weighti=max(Ri);
其中,i代表模态,包括可见光和红外光两种,Ri为可见光响应图或红外光响应图,max(Ri)表示取Ri的最大响应值。
具体的,可以参考图3,通过特征融合网络根据可见光模板特征向量和可见光搜索特征向量进行互相关计算得到可见光响应图,并基于可见光响应图获取最大响应值,得到可见光权重;通过特征融合网络根据红外光模板特征向量和红外光搜索特征向量进行互相关计算得到红外光响应图,并基于红外光响应图获取最大响应值,得到红外光权重;还可以进一步对可见光权重和红外光权重进行归一化处理,得到最终的可见光权重和红外光权重;最终根据可见光权重和红外光权重对可见光搜索特征向量和红外光搜索特征向量进行向量拼接,得到融合搜索特征。
本申请实施例通过特征融合网络自适应计算最大响应值来获取模态权重,避免人为干预。
步骤105、通过目标跟踪模型对融合模板特征和融合搜索特征进行互相关计算得到融合响应图,并根据融合响应图获取目标的位置。
通过目标跟踪模型对融合模板特征和融合搜索特征进行互相关计算得到融合响应图,融合响应图可以表示为:
其中,为可见光网络,/>为红外光网络,zv、zt、xv、xt分别为输入的可见光模板图像、红外光模板图像、可见光搜索图像、红外光搜索图像,/>为特征融合,*为互相关计算,即卷积运算。在本申请实施例中可见光网络和红外光网络两个网络权值共享,因此,与/>相同。
在得到融合响应图后,为了确保在时间上前后两帧的目标运动的轨迹不会偏移太大,并且在空间上跟踪的目标在一帧图像内只会出现一次,因此,本申请实施例对融合响应图进行高斯衰减,其中,高斯衰减函数为:
在得到融合响应图后,对融合响应图进行高斯衰减处理,得到新融合响应图ResponseMap′,即:
ResponseMap′=ResponseMap*f(x,y);
由于得到的响应图的大小和原图像尺寸不同,本申请实施例通过对融合响应图进行上采样来确定目标在第n帧搜索图像(包括可见光搜索图像和红外光搜索图像)中的具体位置。
本申请实施例对响应图中的响应值进行时间上和空间上的约束,可以有效地解决传统全卷积孪生网络提取特征的数据过于单一造成的误检现象。
步骤106、设n=n+1,并返回步骤101,直至可见光视频或红外光视频结束,得到目标的跟踪结果。
设置n=n+1,返回步骤101以获取下一帧图像,对下一帧图像中的目标进行跟踪,直至可见光视频或红外光视频结束,得到目标在所有搜索图像中的跟踪结果。
本申请实施例中,通过获取可见光视频和红外光视频来获取可见光模板图像、可见光搜索图像、红外光模板图像和红外光搜索图像,进而通过目标跟踪模型进行可见光和红外光特征提取,以及特征融合得到融合模板特征和融合搜索特征,通过融合可见光图像信息和红外光图像信息来补充信息,提高目标跟踪在光照变化情况下的鲁棒性,有助于提高单目标跟踪结果的准确性;通过目标跟踪模型对融合模板特征和融合搜索特征进行互相关计算得到融合响应图,最终根据融合响应图获取目标的位置,实现目标跟踪,解决了现有的目标跟踪方法基于可见光图像进行目标跟踪,容易受到恶劣的照明、雾气和恶劣天气等恶劣条件的影响,导致目标跟踪结果准确性较低的技术问题。
以上为本申请提供的一种单目标跟踪方法的一个实施例,以下为本申请提供的一种单目标跟踪装置的一个实施例。
请参考图4,本申请实施例提供的一种单目标跟踪装置,包括:
获取单元,用于获取可见光视频和红外光视频的第n帧图像,得到可见光搜索图像和红外光搜索图像,其中,n>1,可见光视频和红外光视频的第一帧图像用于获取可见光模板图像和红外光模板图像;
输入单元,用于将可见光模板图像、可见光搜索图像、红外光模板图像和红外光搜索图像输入至目标跟踪模型;
特征提取单元,用于通过目标跟踪模型对可见光模板图像、可见光搜索图像、红外光模板图像和红外光搜索图像进行特征提取,分别得到可见光模板特征向量、可见光搜索特征向量、红外光模板特征向量和红外光搜索特征向量;
特征融合单元,用于通过目标跟踪模型对可见光模板特征向量和可见光模板特征向量进行模板特征融合得到融合模板特征,以及对可见光搜索特征向量和红外光搜索特征向量进行搜索特征融合得到融合搜索特征;
计算单元,用于通过目标跟踪模型对融合模板特征和融合搜索特征进行互相关计算得到融合响应图,并根据融合响应图获取目标的位置;
触发单元,用于设n=n+1,并触发获取单元,直至可见光视频或红外光视频结束,得到目标的跟踪结果。
作为进一步地改进,特征融合单元,具体用于:
通过目标跟踪模型对可见光模板特征向量和红外光模板特征向量进行向量拼接得到融合模板特征;
通过目标跟踪模型根据可见光模板特征向量和可见光搜索特征向量进行互相关计算得到可见光响应图,并基于可见光响应图获取可见光权重;
通过目标跟踪模型根据红外光模板特征向量和红外光搜索特征向量进行互相关计算得到红外光响应图,并基于红外光响应图获取红外光权重;
通过目标跟踪模型根据可见光权重和红外光权重对可见光搜索特征向量和红外光搜索特征向量进行向量拼接,得到融合搜索特征。
作为进一步地改进,还包括:标定和裁剪单元,用于:
对可见光视频的第一帧图像中的目标进行标定,并基于标定后的目标的中心点对该第一帧图像进行裁剪,得到可见光模板图像;
对红外光视频的第一帧图像中的目标进行标定,并基于标定后的目标的中心点对该第一帧图像进行裁剪,得到红外光模板图像。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以通过一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(英文全称:Read-OnlyMemory,英文缩写:ROM)、随机存取存储器(英文全称:Random Access Memory,英文缩写:RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。
Claims (9)
1.一种单目标跟踪方法,其特征在于,包括:
获取可见光视频和红外光视频的第n帧图像,得到可见光搜索图像和红外光搜索图像,其中,n>1,所述可见光视频和所述红外光视频的第一帧图像用于获取可见光模板图像和红外光模板图像;
将所述可见光模板图像、所述可见光搜索图像、所述红外光模板图像和所述红外光搜索图像输入至目标跟踪模型;
通过所述目标跟踪模型对所述可见光模板图像、所述可见光搜索图像、所述红外光模板图像和所述红外光搜索图像进行特征提取,分别得到可见光模板特征向量、可见光搜索特征向量、红外光模板特征向量和红外光搜索特征向量;
通过所述目标跟踪模型对所述可见光模板特征向量和所述红外光模板特征向量进行模板特征融合得到融合模板特征,以及对所述可见光搜索特征向量和所述红外光搜索特征向量进行搜索特征融合得到融合搜索特征;其中,对所述可见光搜索特征向量和所述红外光搜索特征向量进行搜索特征融合得到融合搜索特征包括:通过所述目标跟踪模型根据所述可见光模板特征向量和所述可见光搜索特征向量进行互相关计算得到可见光响应图,并基于所述可见光响应图获取可见光权重;通过所述目标跟踪模型根据所述红外光模板特征向量和所述红外光搜索特征向量进行互相关计算得到红外光响应图,并基于所述红外光响应图获取红外光权重;通过所述目标跟踪模型根据所述可见光权重和所述红外光权重对所述可见光搜索特征向量和所述红外光搜索特征向量进行向量拼接,得到融合搜索特征;
通过所述目标跟踪模型对所述融合模板特征和所述融合搜索特征进行互相关计算得到融合响应图,并根据所述融合响应图获取目标的位置;
设n=n+1,并返回所述获取可见光视频和红外光视频的第n帧图像,得到可见光搜索图像和红外光搜索图像的步骤,直至所述可见光视频或所述红外光视频结束,得到所述目标的跟踪结果。
2.根据权利要求1所述的单目标跟踪方法,其特征在于,所述通过所述目标跟踪模型对所述可见光模板特征向量和所述可见光模板特征向量进行模板特征融合得到融合模板特征,包括:
通过所述目标跟踪模型对所述可见光模板特征向量和所述红外光模板特征向量进行向量拼接得到融合模板特征。
3.根据权利要求1所述的单目标跟踪方法,其特征在于,所述通过所述目标跟踪模型对所述融合模板特征和所述融合搜索特征进行卷积操作得到融合响应图,之后还包括:
对所述融合响应图进行高斯衰减处理,得到新融合响应图;
相应的,所述根据所述融合响应图获取目标的位置,包括:
根据所述新融合响应图获取所述目标的位置。
4.根据权利要求1所述的单目标跟踪方法,其特征在于,所述根据所述融合响应图获取目标的位置,包括:
对所述融合响应图进行上采样,得到所述目标的位置。
5.根据权利要求1所述的单目标跟踪方法,其特征在于,所述目标跟踪模型的配置过程为:
获取用于训练目标跟踪网络的训练样本对;
将所述训练样本对输入到目标跟踪网络进行处理,得到所述训练样本对中的目标的预测位置;
根据所述训练样本对中的目标的预测位置和所述训练样本对中的该目标的真实位置计算损失值;
根据所述损失值对所述目标跟踪网络的参数进行更新,直至所述目标跟踪网络收敛,得到所述目标跟踪模型。
6.根据权利要求1所述的单目标跟踪方法,其特征在于,所述将所述可见光模板图像、所述可见光搜索图像、所述红外光模板图像和所述红外光搜索图像输入至目标跟踪模型,之前还包括:
对所述可见光视频的第一帧图像中的所述目标进行标定,并基于标定后的所述目标的中心点对该第一帧图像进行裁剪,得到所述可见光模板图像;
对所述红外光视频的第一帧图像中的所述目标进行标定,并基于标定后的所述目标的中心点对该第一帧图像进行裁剪,得到所述红外光模板图像。
7.根据权利要求6所述的单目标跟踪方法,其特征在于,所述获取可见光视频和红外光视频的第n帧图像,得到可见光搜索图像和红外光搜索图像,包括:
根据所述可见光视频的第n-1帧图像中的所述目标的中心点对所述可见光视频的第n帧图像进行裁剪,得到可见光搜索图像;
根据所述红外光视频的第n-1帧图像中的所述目标的中心点对所述红外光视频的第n帧图像进行裁剪,得到红外光搜索图像。
8.一种单目标跟踪装置,其特征在于,包括:
获取单元,用于获取可见光视频和红外光视频的第n帧图像,得到可见光搜索图像和红外光搜索图像,其中,n>1,所述可见光视频和所述红外光视频的第一帧图像用于获取可见光模板图像和红外光模板图像;
输入单元,用于将所述可见光模板图像、所述可见光搜索图像、所述红外光模板图像和所述红外光搜索图像输入至目标跟踪模型;
特征提取单元,用于通过所述目标跟踪模型对所述可见光模板图像、所述可见光搜索图像、所述红外光模板图像和所述红外光搜索图像进行特征提取,分别得到可见光模板特征向量、可见光搜索特征向量、红外光模板特征向量和红外光搜索特征向量;
特征融合单元,用于通过所述目标跟踪模型对所述可见光模板特征向量和所述红外光模板特征向量进行模板特征融合得到融合模板特征,以及对所述可见光搜索特征向量和所述红外光搜索特征向量进行搜索特征融合得到融合搜索特征;其中,对所述可见光搜索特征向量和所述红外光搜索特征向量进行搜索特征融合得到融合搜索特征包括:通过所述目标跟踪模型根据所述可见光模板特征向量和所述可见光搜索特征向量进行互相关计算得到可见光响应图,并基于所述可见光响应图获取可见光权重;通过所述目标跟踪模型根据所述红外光模板特征向量和所述红外光搜索特征向量进行互相关计算得到红外光响应图,并基于所述红外光响应图获取红外光权重;通过所述目标跟踪模型根据所述可见光权重和所述红外光权重对所述可见光搜索特征向量和所述红外光搜索特征向量进行向量拼接,得到融合搜索特征;
计算单元,用于通过所述目标跟踪模型对所述融合模板特征和所述融合搜索特征进行互相关计算得到融合响应图,并根据所述融合响应图获取目标的位置;
触发单元,用于设n=n+1,并触发所述获取单元,直至所述可见光视频或所述红外光视频结束,得到所述目标的跟踪结果。
9.根据权利要求8所述的单目标跟踪装置,其特征在于,还包括:标定和裁剪单元,用于:
对所述可见光视频的第一帧图像中的所述目标进行标定,并基于标定后的所述目标的中心点对该第一帧图像进行裁剪,得到所述可见光模板图像;
对所述红外光视频的第一帧图像中的所述目标进行标定,并基于标定后的所述目标的中心点对该第一帧图像进行裁剪,得到所述红外光模板图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110130340.6A CN112802060B (zh) | 2021-01-29 | 2021-01-29 | 一种单目标跟踪方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110130340.6A CN112802060B (zh) | 2021-01-29 | 2021-01-29 | 一种单目标跟踪方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112802060A CN112802060A (zh) | 2021-05-14 |
CN112802060B true CN112802060B (zh) | 2023-06-30 |
Family
ID=75813036
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110130340.6A Active CN112802060B (zh) | 2021-01-29 | 2021-01-29 | 一种单目标跟踪方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112802060B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115393679A (zh) * | 2022-08-01 | 2022-11-25 | 国网江苏省电力有限公司南通供电分公司 | 一种rgb-红外输电线路缺陷图像特征融合方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107169944A (zh) * | 2017-04-21 | 2017-09-15 | 北京理工大学 | 一种基于多尺度对比度的红外与可见光图像融合方法 |
CN110009569A (zh) * | 2019-04-17 | 2019-07-12 | 中国人民解放军陆军工程大学 | 一种基于轻量级卷积神经网络的红外和可见光图像融合方法 |
CN111754447A (zh) * | 2020-07-06 | 2020-10-09 | 江南大学 | 基于多状态上下文隐马尔科夫模型的红外和可见光图像融合方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110349185B (zh) * | 2019-07-12 | 2022-10-11 | 安徽大学 | 一种rgbt目标跟踪模型的训练方法及装置 |
CN111161317A (zh) * | 2019-12-30 | 2020-05-15 | 北京工业大学 | 一种基于多重网络的单目标跟踪方法 |
CN111429485B (zh) * | 2020-04-07 | 2023-09-26 | 东北大学 | 基于自适应正则化和高信度更新的跨模态滤波跟踪方法 |
CN111681195B (zh) * | 2020-06-09 | 2023-06-30 | 中国人民解放军63811部队 | 红外图像和可见光图像的融合方法、装置及可读存储介质 |
-
2021
- 2021-01-29 CN CN202110130340.6A patent/CN112802060B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107169944A (zh) * | 2017-04-21 | 2017-09-15 | 北京理工大学 | 一种基于多尺度对比度的红外与可见光图像融合方法 |
CN110009569A (zh) * | 2019-04-17 | 2019-07-12 | 中国人民解放军陆军工程大学 | 一种基于轻量级卷积神经网络的红外和可见光图像融合方法 |
CN111754447A (zh) * | 2020-07-06 | 2020-10-09 | 江南大学 | 基于多状态上下文隐马尔科夫模型的红外和可见光图像融合方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112802060A (zh) | 2021-05-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11487995B2 (en) | Method and apparatus for determining image quality | |
US10846877B2 (en) | Eye gaze tracking using neural networks | |
CN109753978B (zh) | 图像分类方法、装置以及计算机可读存储介质 | |
CN109800689B (zh) | 一种基于时空特征融合学习的目标跟踪方法 | |
JP7273157B2 (ja) | モデル訓練方法、装置、端末及びプログラム | |
CN109815919B (zh) | 一种人群计数方法、网络、系统和电子设备 | |
CN111968123B (zh) | 一种半监督视频目标分割方法 | |
WO2022088665A1 (zh) | 病灶分割方法、装置及存储介质 | |
CN112132847A (zh) | 模型训练方法、图像分割方法、装置、电子设备和介质 | |
CN112330684B (zh) | 对象分割方法、装置、计算机设备及存储介质 | |
CN108875931B (zh) | 神经网络训练及图像处理方法、装置、系统 | |
CN110889826A (zh) | 眼部oct图像病灶区域的分割方法、装置及终端设备 | |
US20220254134A1 (en) | Region recognition method, apparatus and device, and readable storage medium | |
CN111046734A (zh) | 基于膨胀卷积的多模态融合视线估计方法 | |
JP2022527818A (ja) | ユーザの眼に関連する幾何学的変数を推定する方法及びシステム | |
CN110766061B (zh) | 一种道路场景匹配方法及装置 | |
CN113177515A (zh) | 一种基于图像的眼动追踪方法和系统 | |
WO2023071154A1 (zh) | 图像分割方法及相关模型的训练方法和装置、设备 | |
CN113658165B (zh) | 杯盘比确定方法、装置、设备及存储介质 | |
CN112907557A (zh) | 道路检测方法、装置、计算设备及存储介质 | |
CN111027586A (zh) | 一种基于新型响应图融合的目标跟踪方法 | |
CN112802060B (zh) | 一种单目标跟踪方法和装置 | |
CN114170290A (zh) | 图像的处理方法及相关设备 | |
CN117115900A (zh) | 一种图像分割方法、装置、设备及存储介质 | |
CN112580721B (zh) | 一种基于多分辨率特征融合的目标关键点检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |