CN114757972A - 目标跟踪方法、装置、电子设备及计算机可读存储介质 - Google Patents
目标跟踪方法、装置、电子设备及计算机可读存储介质 Download PDFInfo
- Publication number
- CN114757972A CN114757972A CN202210400102.7A CN202210400102A CN114757972A CN 114757972 A CN114757972 A CN 114757972A CN 202210400102 A CN202210400102 A CN 202210400102A CN 114757972 A CN114757972 A CN 114757972A
- Authority
- CN
- China
- Prior art keywords
- target
- tracking
- image
- searched
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本公开提供了一种目标跟踪方法、装置、电子设备及计算机可读存储介质,涉及目标跟踪技术领域。该方法包括:通过第一目标检测网络检测视频图像中起始帧图像的目标区域,获得起始帧图像中目标区域的位置信息;根据起始帧图像中的目标区域制作模板图像,对模板图像进行背景初始化;将模板图像与待搜索目标区域图像输入改进的Siamese RPN网络中,获得待搜索目标的目标跟踪结果框;将待搜索目标区域图像输入第一目标检测网络获得待搜索目标的目标检测结果框;对目标检测结果框与目标跟踪结果框进行数据关联,计算匹配程度;当目标检测结果框的数量与目标跟踪结果框的数量相等时,若匹配程度大于第一阈值,则判定目标跟踪匹配成功。实现自动化多目标跟踪,提高目标跟踪的精度。
Description
技术领域
本公开涉及目标跟踪技术领域,尤其涉及一种目标跟踪方法、装置、电子设备及计算机可读存储介质。
背景技术
目标跟踪技术的应用前景十分广泛,在监控安防、自动驾驶、无人机和机器人等领域都存在巨大的应用需求。但目标跟踪在实际应用场景中仍然存在很多限制因素,如目标尺度放大或缩小时会导致无法自适应跟踪;当目标外观发生形变会因其特征和外观模型改变导致跟踪失败;当目标在运动中被遮挡或者目标进出视野等均会导致干扰目标跟踪,这些因素导致目标跟踪算法精度低、适用性差。
在现有的目标跟踪方法中,传统的检测方法易受环境光、噪声、形变的影响,造成跟踪精度低;生成式模型算法的跟踪目标易发生漂移,影响跟踪效果;基于深度学习的目标检测与目标跟踪算法,在实际跟踪运动目标的过程中也存在精度不够高、复杂环境下适应性较差以及跟踪目标依赖人工选定等问题。
因此,目前迫切需要一种自动化、高精度并且复杂环境适应性较强的目标跟踪技术。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开的目的在于提供一种目标跟踪方法、装置、电子设备及计算机可读存储介质,至少在一定程度上克服目标跟踪精度不够高的问题。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开的一个方面,提供一种目标跟踪方法,包括:通过第一目标检测网络检测视频图像中起始帧图像的目标区域,获得所述起始帧图像中目标区域的位置信息;
根据所述起始帧图像中的目标区域制作模板图像,对所述模板图像进行背景初始化;
将所述模板图像与待搜索目标区域图像输入改进的Siamese RPN网络中,获得待搜索目标的目标跟踪结果框;
将所述待搜索目标区域图像输入所述第一目标检测网络获得待搜索目标的目标检测结果框;
对所述目标检测结果框与所述目标跟踪结果框进行数据关联,计算匹配程度;
当所述目标检测结果框的数量与所述目标跟踪结果框的数量相等时,若所述匹配程度大于第一阈值,则判定目标跟踪匹配成功。
在本公开一个实施例中,当所述目标检测结果框的数量小于所述目标跟踪结果框的数量时,根据所述目标检测结果框的检测结果建立新模板图像。
在本公开一个实施例中,当所述目标检测结果框的数量与所述目标跟踪结果框的数量相等时,若所述匹配程度小于等于所述第一阈值,则判定所述目标跟踪匹配失败;将所述目标检测结果框作为所述目标跟踪匹配的结果。
在本公开的一个实施例中,若所述目标跟踪匹配失败对应的待搜索目标区域图像为第二帧图像,则根据所述目标检测结果框对所述模板图像进行更新。
在本公开的一个实施例中,所述对所述模板图像进行背景初始化的步骤,包括:
所述模板图像中包括跟踪目标和背景;
若所述跟踪目标与所述背景的像素值均大于等于127且像素差值小于等于第二阈值,则采用像素值0填充所述背景;
若所述跟踪目标与所述背景的像素值均小于127且像素差值小于第二阈值,则采用像素值255填充所述背景;
若所述跟踪目标与所述背景的像素差值小于第二阈值,则不改变所述背景的像素值。
在本公开一个实施例中,所述将所述模板图像与待搜索目标区域图像输入改进的Siamese RPN网络中,获得待搜索目标的目标跟踪结果框,包括:将所述模板图像与待搜索目标区域图像输入引入残差连接的Siamese网络模型获取所述模板图像的特征与所述待搜索目标区域图像的特征;
通过RPN网络模型计算所述模板图像的特征与所述待搜索目标区域图像的特征之间的相似度;
根据所述相似度确定所述待搜索目标的所述目标跟踪结果框。
在本公开的一个实施例中,所述引入残差连接的Siamese网络模型一次包括:第一卷积层、第一残差单元、第一最大池化层、第二残差单元、第三残差单元、第二最大池化层、第四残差单元、第五残差单元、第三最大池化层、第六残差单元、第七残差单元、第二卷积层以及第三卷积层;其中,每个残差单元的卷积核分别由大小为1×1的卷积核和3×3的卷积核组成;每个所述最大池化层均采用2×2的卷积核;所述第一卷积层采用3×3的卷积核,所述第二卷积层采用1×1的卷积核,所述第三卷积层采用3×3的卷积核。
根据本公开的另一个方面,提供一种目标跟踪装置,包括:检测模块,用于通过第一目标检测网络检测视频图像中起始帧图像的目标区域,获得所述起始帧图像中目标区域的位置信息;
模板制作模块,用于根据所述起始帧图像中的目标区域制作模板图像,对所述模板图像进行背景初始化;
目标跟踪模块,用于将所述模板图像与待搜索目标区域图像输入改进的SiameseRPN网络中,获得待搜索目标的目标跟踪结果框;
目标检测模块,用于将所述待搜索目标区域图像输入所述第一目标检测网络获得待搜索目标的目标检测结果框;
匹配计算模块,用于对所述目标检测结果框与所述目标跟踪结果框进行数据关联,计算匹配程度;
匹配判定模块,用于当所述目标检测结果框的数量与所述目标跟踪结果框的数量相等时,若所述匹配程度大于第一阈值,则判定目标跟踪匹配成功。
根据本公开的再一个方面,提供一种电子设备,包括:处理器;以及存储器,用于存储所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行上述的目标跟踪方法。
根据本公开的又一个方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述的目标跟踪方法。
本公开的实施例所提供的一种目标跟踪方法,将第一目标检测网络与改进的Siamese RPN网络相结合,基于第一目标检测网络的检测结果和改进的Siamese RPN网络的跟踪结果,对两者进行数据关联匹配,实现多目标跟踪,并且能够自动获取跟踪目标,避免通过人工选定,提高了效率并且针对模板图像采用自适应背景初始化策略,充分利用模板帧的先验信息来提高目标的判别能力,改进后的Siamese RPN网络增强图像特征的表达能力。从而提高目标跟踪的精度,有效解决了现有多目标跟踪方法精度不高的问题。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出本公开实施例中一种目标跟踪方法流程图;
图2示出本公开实施例中一种目标跟踪方法的判断框图;
图3示出本公开实施例中一种目标跟踪方法的判断框图;
图4示出本公开实施例中一种目标跟踪方法流程图;
图5示出本公开实施例中一种目标跟踪方法的网络结构示意图;
图6示出本公开实施例中一种目标跟踪装置模块框图;和
图7示出本公开实施例中一种电子设备的结构框图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
下面结合附图及实施例对本示例实施方式进行详细说明。
首先,本公开的示例实施例中提供了一种目标跟踪方法,图1示出本公开实施例中一种目标跟踪方法流程图,所述目标跟踪方法的步骤包括:
步骤S101,通过第一目标检测网络检测视频图像中起始帧图像的目标区域,获得所述起始帧图像中目标区域的位置信息;
其中,本实施例提供的第一目标检测网络可选的为YOLO V4,YOLO V4属于一种目标检测算法,是在原有YOLO目标检测架构的基础上,采用了近些年卷积神经网络(Convolutional Neural Networks,CNN)领域中的优化策略,从数据处理、主干网络、网络训练、激活函数、损失函数等各个方面进行优化,第一目标检测网络在实时目标检测算法中精度较高,实现了精度和速度的最佳平衡。YOLO V4具体包括,首先输入:算法输入、图像输入;主干:提取图像特征的部分;颈部:特征增强模块,前面的主干已经提取到了一些相关的浅层特征,由颈部分对主干提取到的浅层特征进行加工,增强,从而使得模型学到的特征;头部:检测头输出想要的结果,获得检测框。可以根据实际需求选择合适的第一目标检测网络。
具体地,首先输入视频图像序列后,通过第一目标检测网络自动获取所要检测的视频图像的起始帧,该起始帧可以理解为视频的首帧图像,检测后确定目标区域,目标区域即为跟踪目标在首帧图像中所处的区域,其中,跟踪目标的数量为至少一个,跟踪目标的具体类别和数量可以根据实际需求来确定。同时获取跟踪目标在首帧图像中的位置信息,即跟踪目标在首帧图像中所处的位置。通过第一目标检测网络能够自动、准确地获取跟踪目标,不再需要人工选定,提高了目标检测的效率。
步骤S102,根据所述起始帧图像中的目标区域制作模板图像,对所述模板图像进行背景初始化;
具体地,根据跟踪目标在起始帧图像中的所处的位置进行裁剪,有多少个跟踪目标就对应裁剪出多少模板图像,跟踪目标与模板图像一一对应。原始SiameseRPN算法中,由于跟踪目标不匹配问题可能导致模板发生漂移,这种漂移现象在后续跟踪过程中逐渐累积,影响算法精度。本实施例提供自适应背景初始化算法对模板图像进行预处理,通过增强目标特征的差异性表达,弱化背景的干扰。本实施例具体的方式为对模板图像进行背景初始化,采用自适应背景初始化策略,根据前景与背景的像素均值的差值大小合理改变背景的像素值,提高模板对跟踪目标特征的判别能力。能够充分利用模板图像的先验信息来提高目标的判别能力。
步骤S103,将所述模板图像与待搜索目标区域图像输入改进的Siamese RPN网络中,获得待搜索目标的目标跟踪结果框;
在进行步骤S103之前,要对背景初始化后的目标模板图像和待搜索目标区域图像进行处理,将数据处理为易于被网络接收的形状,选择合适的取值对模板图像区域进行裁剪和填充,并根据模板图像长宽的取值对待搜索区域图像进行调整,对其超出画面的部分重新设定像素值,便于根据模板范围选取搜索目标。
其中,待搜索目标区域图像为视频图像中除起始帧图像之外的其它帧图像,即第二帧到最后一帧图像。将上述经过处理的模板图像和待搜索目标区域图像输入到改进的Siamese RPN网络中,获得模板图像特征与待搜索目标区域图像特征,模板图像特征与待搜索目标区域特征之间的相似度响应图得到跟踪目标的位置。在跟踪过程中,利用改进的Siamese RPN网络获取跟踪目标的目标跟踪结果框。其中,目标跟踪结果框的数量由跟踪目标的数量来决定,一个目标跟踪结果框对应一个跟踪目标。
步骤S104,将所述待搜索目标区域图像输入所述第一目标检测网络获得待搜索目标的目标检测结果框;
同时,利用第一目标检测网络获取目标检测结果框,一个目标检测结果框对应一个跟踪目标。
步骤S105,对所述目标检测结果框与所述目标跟踪结果框进行数据关联,计算匹配程度;
具体地,设计了融合第一目标检测网络与Siamese RPN的网络模型,利用第一目标检测网络自动检测跟踪目标,对两者预测的目标位置进行数据关联来实现多目标跟踪。然后采用匈牙利算法对检测跟踪结果进行数据关联,计算目标检测结果框与目标跟踪结果框之间的状态关联矩阵,以便后续根据状态关联矩阵值来确定目标跟踪结果的匹配程度。
本实施例中可选的计算方式为:首先计算第一目标检测网络检测得到的目标检测结果框与改进的Siamese RPN网络跟踪预测得到的目标跟踪结果框之间的IoU值,获得IoU值组成的状态关联矩阵。如计算计算第i个跟踪框与第j个检测框之间的IoU值,IoU值的计算公式如下:
其中,Si为第i个跟踪框的面积,Sj为第j个检测框的面积。根据设定的IoU值来评价目标检测结果框与目标跟踪结果框的匹配程度。
步骤S106,当所述目标检测结果框的数量与所述目标跟踪结果框的数量相等时,若所述匹配程度大于第一阈值,则判定目标跟踪匹配成功。
根据上述步骤S105的计算结果对目标检测结果框与目标跟踪结果框的匹配程度进行判断,也就是对目标的检测与跟踪结果的匹配程度进行判断,从而确定目标是否跟踪成功。
具体地,设定的IoU阈值为0.5,当跟目标跟踪框结果框的数量M与目标检测结果框数量M相等,且IoU值大于设定阈值0.5时,表明目标跟踪结果框与目标检测结果框匹配成功,继续进行后续跟踪。
在本实施例中,将第一目标检测网络与改进的Siamese RPN网络相结合,基于第一目标检测网络的检测结果和改进的Siamese RPN的跟踪结果,通过匈牙利算法对两者进行数据关联匹配,实现多目标跟踪,并且能够自动获取跟踪目标,避免通过人工选定,提高了效率并且针对模板图像采用自适应背景初始化策略,充分利用模板帧的先验信息来提高目标的判别能力,改进后的Siamese RPN网络增强图像特征的表达能力。从而提高目标跟踪的精度,有效解决了现有多目标跟踪方法精度不高的问题。实现了自动化、高精度且更高效的目标跟踪技术。
如图2所示,在上述步骤S105之后,对于目标检测结果框与目标跟踪结果框的匹配程度进行判断时,除步骤S106目标跟踪匹配成功这一结果外,还存在如下其他情形,可以根据目标跟踪匹配结果对模板图像做适应性调整,以提高目标跟踪的精准程度。
在一种具体实施例中,如图2所示的目标跟踪匹配结果判断框图,在步骤S105之后,判断步骤S201目标检测结果框的数量小于所述目标跟踪结果框的数量是否相等。当不相等时。目标跟踪结果框数量少于目标检测结果框或者只有目标检测结果框没有目标跟踪结果框时,表明出现了新的跟踪目标,多出来的检测目标就为新出现的跟踪目标,此时则进行步骤S202当所述目标检测结果框的数量小于所述目标跟踪结果框的数量时,根据所述目标检测结果框的检测结果建立新模板图像。根据检测的目标检测结果框的位置,建立新的模板图像,继而进行后续跟踪。
在一种具体实施例中,如图2所示,判断步骤S201目标检测结果框的数量小于所述目标跟踪结果框的数量是否相等。当相等时,则进行步骤S202当所述目标检测结果框的数量与所述目标跟踪结果框的数量相等时,若所述匹配程度小于等于所述第一阈值,则判定所述目标跟踪匹配失败。
当目标跟踪匹配失败后,如图3所示的目标跟踪匹配失败后的判断框图,在目标跟踪匹配失败后,首先确定步骤S301待搜索目标区域图像是否为第二帧图像,若不是第二帧图像,则进行步骤S302,将所述目标检测结果框作为所述目标跟踪匹配的结果。即将第一目标检测网络的目标检测框的结果作为此帧的目标跟踪结果。
在一种具体实施例中,步骤S303,若所述目标跟踪匹配失败对应的待搜索目标区域图像为第二帧图像,则根据所述目标检测结果框对所述模板图像进行更新。
如图3所示,确定步骤S301待搜索目标区域图像是否为第二帧图像,如果第2帧就发生了跟踪不匹配,需要将第一帧的模板进行更新,即进行步骤S303。
在一种具体实施例中,所述对所述模板图像进行背景初始化的步骤,包括:所述模板图像中包括跟踪目标和背景;
若所述跟踪目标与所述背景的像素值均大于等于127且像素差值小于等于第二阈值,则采用像素值0填充所述背景;
若所述跟踪目标与所述背景的像素值均小于127且像素差值小于第二阈值,则采用像素值255填充所述背景;
若所述跟踪目标与所述背景的像素差值小于第二阈值,则不改变所述背景的像素值。
具体地,本实施例提供的模板图像的背景初始化可以通过下述公式表示:
其中,Mt、Mb分别为目标与背景的像素均值,Tc表示阈值。传统的Siamese RPN网络易受背景相似干扰、遮挡、尺度变化等影响,算法精度低,适用性差。本实施例通过背景初始化策略,前景与背景的像素均值的差值大小合理改变背景的像素值,利用模板图像的先验信息来提高目标的判别能力,提高目标跟踪的精度,有效解决了现有多目标跟踪方法精度不高的问题
在一种具体实施例中,所述将所述模板图像与待搜索目标区域图像输入改进的Siamese RPN网络中,获得待搜索目标的目标跟踪结果框,如图4所示为本实施例提供的目标跟踪方法流程示意图,包括:步骤S401,将所述模板图像与待搜索目标区域图像输入引入残差连接的Siamese网络获取所述模板图像的特征与所述待搜索目标区域图像的特征;
步骤S402,通过RPN网络计算所述模板图像的特征与所述待搜索目标区域图像的特征之间的相似度;
步骤S403,根据所述相似度确定所述待搜索目标的所述目标跟踪结果框。
具体地,通过融合残差连接的孪生(Siamese)网络进行特征提取,得到模板图像特征与待搜索目标区域图像特征,残差连接优化孪生网络来增强特征表达。然后通过候选区域网络(Region Proposal Network,RPN)计算模板图像与待搜索目标图像之间的相似度响应得到目标跟踪结果框。总体上,提升了算法的鲁棒性与准确性。
如图5所示为改进的Siamese RPN网络的结构示意图,视频图像501输入后,根据第一目标检测网络504进行检测,然后将检测到的跟踪目标作为模板图像Z,对模板图像Z通过背景初始模块502进行背景初始化获得Z′,X则为待搜索目标区域图像503,通过融合残差连接的Siamese网络505进行特征提取后,通过RPN网络506的分类分支和回归分支分别用于类别判被和调整参数计算回归,判断是否存在跟踪目标,并生成目标跟踪结果框,精确定位物体。然后第一目标检测网络和改进Siamese RPN进行数据关联计算,确定匹配程度。
在一种具体实施例中,所述引入残差连接的Siamese网络依次包括:第一卷积层、第一残差单元、第一最大池化层、第二残差单元、第三残差单元、第二最大池化层、第四残差单元、第五残差单元、第三最大池化层、第六残差单元、第七残差单元、第二卷积层以及第三卷积层;其中,每个残差单元的卷积核分别由大小为1×1的卷积核和3×3的卷积核组成;每个所述最大池化层均采用2×2的卷积核;所述第一卷积层采用3×3的卷积核,所述第二卷积层采用1×1的卷积核,所述第三卷积层采用3×3的卷积核。
如图5中为改进的Siamese RPN网络,通过在原Alex Net的基础上添加残差结构适当加深网络,改进后的Siamese网络部分结合残差连接设计13层的轻量网络提取特征,改进后的Siamese网络505共13层包括Conv1即第一卷积层、Res1即第一残差单元、Maxpool1即为第一最大池化层、Res2即第二残差单元、Res3即第三残差单元、Maxpool2即为第二最大池化层、Res4即第四残差单元、Res5即第五残差单元、Maxpool3即为第三最大池化层、Res6即第六残差单元、Res7即第七残差单元、Conv2即第二卷积层和Conv3即第3卷积层。通过融合残差连接提高网络特征提取能力并融合深浅层信息,使得网络在尽量维持实时性的同时增强模型的表征性能。在本实施例中具体的改进如表1,输入的模板图像也就是如图5中的图像Z大小为127×127,待搜索目标区域图像也就是图像X大小为255×255,通道数为3;然后依次经过如下13层结构,每一层对应的卷积核、输入和输出通道数、步长、经过每一层卷积处理后的模板图像大小、经过每一层卷积处理后的待搜索目标区域图像大小以及通道书数的具体参数值参见表1。
表1
本实施例的提供的将第一目标检测网络与改进的Siamese RPN网络结合,网络模型于深度学习的目标检测与目标跟踪算法,构建检测跟踪一体化模型,使得跟踪目标获取过程自动化的方法。同时结合残差连接设计13层的轻量网络提取特征,增强特征的表达能力,能够进行多目标跟踪,并且在保证跟踪速度的前提下,有效提升多目标跟踪的准确性,在目标尺度、外观变化、部分遮挡等情况下能够实现稳定跟踪。可以应用于监控安防、自动驾驶、无人机和机器人等领域,更自动化、更精准、高效的目标跟踪技术。
本公开的示例性实施例中提供一种目标跟踪装置,如图6所示为本实施例中的目标跟踪装置模块示意图,目标跟踪装置600包括:
检测模块601,用于通过第一目标检测网络检测视频图像中起始帧图像的目标区域,获得所述起始帧图像中目标区域的位置信息;
模板制作模块602,用于根据所述起始帧图像中的目标区域制作模板图像,对所述模板图像进行背景初始化;
目标跟踪模块603,用于将所述模板图像与待搜索目标区域图像输入改进的Siamese RPN网络中,获得待搜索目标的目标跟踪结果框;
目标检测模块604,用于将所述待搜索目标区域图像输入所述第一目标检测网络获得待搜索目标的目标检测结果框;
匹配计算模块605,用于对所述目标检测结果框与所述目标跟踪结果框进行数据关联,计算匹配程度;
匹配判定模块606,用于当所述目标检测结果框的数量与所述目标跟踪结果框的数量相等时,若所述匹配程度大于第一阈值,则判定目标跟踪匹配成功。需要说明的是,本实施例的目标跟踪方法可以应用于目标跟踪装置600,其具体实现可参考上述相应内容的描述,在此不赘述。
本公开的示例性实施例中,如图7所示提供一种电子设备700,包括:处理器;以及存储器,用于存储所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行上述的目标跟踪方法。
下面参照图7来描述根据本公开的这种实施方式的电子设备700。图7显示的电子设备700仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图7所示,电子设备700以通用计算设备的形式表现。电子设备700的组件可以包括但不限于:上述至少一个处理单元710、上述至少一个存储单元720、连接不同系统组件(包括存储单元720和处理单元710)的总线730。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元710执行,使得所述处理单元710执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施方式的步骤。例如,所述处理单元710可以执行如图1中所示的S1,在虚拟机接收到一针对蓝牙组件的指令信息时,根据所述指令信息调用对应的虚拟蓝牙通讯接口函数;S2,通过所述虚拟机预设的虚拟蓝牙客户端执行所述虚拟蓝牙通讯接口函数并获取对应的控制参数;S3,将所述控制参数发送至主机以便于所述主机预设的虚拟蓝牙服务模块根据所述控制参数控制物理蓝牙组件。
存储单元820可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)7201和/或高速缓存存储单元7202,还可以进一步包括只读存储单元(ROM)7203。
存储单元720还可以包括具有一组(至少一个)程序模块7205的程序/实用工具7204,这样的程序模块7205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线730可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备700也可以与一个或多个外部设备800(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备700交互的设备通信,和/或与使得该电子设备700能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口750进行。并且,电子设备700还可以通过网络适配器760与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器760通过总线730与电子设备700的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备700使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
本公开的示例性实施例中,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述的目标跟踪方法。
在本公开的示例性实施例中,还提供了一种计算机可读存储介质,其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施方式中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施方式的步骤。
描述了根据本发明的实施方式的用于实现上述方法的程序产品,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
此外,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、移动终端、或者网络设备等)执行根据本公开实施方式的方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由所附的权利要求指出。
Claims (10)
1.一种目标跟踪方法,其特征在于,包括:
通过第一目标检测网络检测视频图像中起始帧图像的目标区域,获得所述起始帧图像中目标区域的位置信息;
根据所述起始帧图像中的目标区域制作模板图像,对所述模板图像进行背景初始化;
将所述模板图像与待搜索目标区域图像输入改进的Siamese RPN网络中,获得待搜索目标的目标跟踪结果框;
将所述待搜索目标区域图像输入所述第一目标检测网络获得待搜索目标的目标检测结果框;
对所述目标检测结果框与所述目标跟踪结果框进行数据关联,计算匹配程度;
当所述目标检测结果框的数量与所述目标跟踪结果框的数量相等时,若所述匹配程度大于第一阈值,则判定目标跟踪匹配成功。
2.根据权利要求1所述的目标跟踪方法,其特征在于,所述方法还包括:
当所述目标检测结果框的数量小于所述目标跟踪结果框的数量时,根据所述目标检测结果框的检测结果建立新模板图像。
3.根据权利要求1所述的目标跟踪方法,其特征在于,所述方法还包括:
当所述目标检测结果框的数量与所述目标跟踪结果框的数量相等时,若所述匹配程度小于等于所述第一阈值,则判定所述目标跟踪匹配失败;
将所述目标检测结果框作为所述目标跟踪匹配的结果。
4.根据权利要求3所述的目标跟踪方法,其特征在于,所述方法还包括:
若所述目标跟踪匹配失败对应的待搜索目标区域图像为第二帧图像,则根据所述目标检测结果框对所述模板图像进行更新。
5.根据权利要求1所述的目标跟踪方法,其特征在于,所述对所述模板图像进行背景初始化的步骤,包括:
所述模板图像中包括跟踪目标和背景;
若所述跟踪目标与所述背景的像素值均大于等于127且像素差值小于等于第二阈值,则采用像素值0填充所述背景;
若所述跟踪目标与所述背景的像素值均小于127且像素差值小于第二阈值,则采用像素值255填充所述背景;
若所述跟踪目标与所述背景的像素差值小于第二阈值,则不改变所述背景的像素值。
6.根据权利要求1所述的目标跟踪方法,其特征在于,所述将所述模板图像与待搜索目标区域图像输入改进的Siamese RPN网络中,获得待搜索目标的目标跟踪结果框,包括:
将所述模板图像与待搜索目标区域图像输入引入残差连接的Siamese网络模型获取所述模板图像的特征与所述待搜索目标区域图像的特征;
通过RPN网络模型计算所述模板图像的特征与所述待搜索目标区域图像的特征之间的相似度;
根据所述相似度确定所述待搜索目标的所述目标跟踪结果框。
7.根据权利要求6所述的目标跟踪方法,其特征在于,包括:
所述引入残差连接的Siamese网络模型一次包括:第一卷积层、第一残差单元、第一最大池化层、第二残差单元、第三残差单元、第二最大池化层、第四残差单元、第五残差单元、第三最大池化层、第六残差单元、第七残差单元、第二卷积层以及第三卷积层;
其中,每个残差单元的卷积核分别由大小为1×1的卷积核和3×3的卷积核组成;每个所述最大池化层均采用2×2的卷积核;所述第一卷积层采用3×3的卷积核,所述第二卷积层采用1×1的卷积核,所述第三卷积层采用3×3的卷积核。
8.一种目标跟踪装置,其特征在于,包括:
检测模块,用于通过第一目标检测网络检测视频图像中起始帧图像的目标区域,获得所述起始帧图像中目标区域的位置信息;
模板制作模块,用于根据所述起始帧图像中的目标区域制作模板图像,对所述模板图像进行背景初始化;
目标跟踪模块,用于将所述模板图像与待搜索目标区域图像输入改进的Siamese RPN网络中,获得待搜索目标的目标跟踪结果框;
目标检测模块,用于将所述待搜索目标区域图像输入所述第一目标检测网络获得待搜索目标的目标检测结果框;
匹配计算模块,用于对所述目标检测结果框与所述目标跟踪结果框进行数据关联,计算匹配程度;
匹配判定模块,用于当所述目标检测结果框的数量与所述目标跟踪结果框的数量相等时,若所述匹配程度大于第一阈值,则判定目标跟踪匹配成功。
9.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1~7中任意一项所述目标跟踪方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1~7中任意一项所述的目标跟踪方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210400102.7A CN114757972B (zh) | 2022-04-15 | 2022-04-15 | 目标跟踪方法、装置、电子设备及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210400102.7A CN114757972B (zh) | 2022-04-15 | 2022-04-15 | 目标跟踪方法、装置、电子设备及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114757972A true CN114757972A (zh) | 2022-07-15 |
CN114757972B CN114757972B (zh) | 2023-10-10 |
Family
ID=82331107
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210400102.7A Active CN114757972B (zh) | 2022-04-15 | 2022-04-15 | 目标跟踪方法、装置、电子设备及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114757972B (zh) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110276780A (zh) * | 2019-06-17 | 2019-09-24 | 广州织点智能科技有限公司 | 一种多目标跟踪方法、装置、电子设备及存储介质 |
CN110322472A (zh) * | 2018-03-30 | 2019-10-11 | 华为技术有限公司 | 一种多目标跟踪方法以及终端设备 |
CN111179314A (zh) * | 2019-12-30 | 2020-05-19 | 北京工业大学 | 一种基于残差密集孪生网络的目标跟踪方法 |
CN111460999A (zh) * | 2020-03-31 | 2020-07-28 | 北京工业大学 | 一种基于fpga的低空航拍影像目标跟踪的方法 |
CN111460926A (zh) * | 2020-03-16 | 2020-07-28 | 华中科技大学 | 一种融合多目标跟踪线索的视频行人检测方法 |
WO2021018141A1 (zh) * | 2019-07-31 | 2021-02-04 | 京东方科技集团股份有限公司 | 用于多目标的行人跟踪方法、装置及设备 |
CN112614159A (zh) * | 2020-12-22 | 2021-04-06 | 浙江大学 | 一种面向仓库场景的跨摄像头多目标跟踪方法 |
CN112750145A (zh) * | 2019-10-30 | 2021-05-04 | 中国电信股份有限公司 | 目标检测与跟踪的方法、装置和系统 |
CN113807188A (zh) * | 2021-08-20 | 2021-12-17 | 北京工业大学 | 基于锚框匹配和Siamese网络的无人机目标跟踪方法 |
CN113963026A (zh) * | 2021-10-27 | 2022-01-21 | 齐鲁工业大学 | 基于非局部特征融合和在线更新的目标跟踪方法及系统 |
CN113962281A (zh) * | 2021-08-20 | 2022-01-21 | 北京工业大学 | 基于Siamese-RFB的无人机目标跟踪方法 |
-
2022
- 2022-04-15 CN CN202210400102.7A patent/CN114757972B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110322472A (zh) * | 2018-03-30 | 2019-10-11 | 华为技术有限公司 | 一种多目标跟踪方法以及终端设备 |
CN110276780A (zh) * | 2019-06-17 | 2019-09-24 | 广州织点智能科技有限公司 | 一种多目标跟踪方法、装置、电子设备及存储介质 |
WO2021018141A1 (zh) * | 2019-07-31 | 2021-02-04 | 京东方科技集团股份有限公司 | 用于多目标的行人跟踪方法、装置及设备 |
CN112750145A (zh) * | 2019-10-30 | 2021-05-04 | 中国电信股份有限公司 | 目标检测与跟踪的方法、装置和系统 |
CN111179314A (zh) * | 2019-12-30 | 2020-05-19 | 北京工业大学 | 一种基于残差密集孪生网络的目标跟踪方法 |
CN111460926A (zh) * | 2020-03-16 | 2020-07-28 | 华中科技大学 | 一种融合多目标跟踪线索的视频行人检测方法 |
CN111460999A (zh) * | 2020-03-31 | 2020-07-28 | 北京工业大学 | 一种基于fpga的低空航拍影像目标跟踪的方法 |
CN112614159A (zh) * | 2020-12-22 | 2021-04-06 | 浙江大学 | 一种面向仓库场景的跨摄像头多目标跟踪方法 |
CN113807188A (zh) * | 2021-08-20 | 2021-12-17 | 北京工业大学 | 基于锚框匹配和Siamese网络的无人机目标跟踪方法 |
CN113962281A (zh) * | 2021-08-20 | 2022-01-21 | 北京工业大学 | 基于Siamese-RFB的无人机目标跟踪方法 |
CN113963026A (zh) * | 2021-10-27 | 2022-01-21 | 齐鲁工业大学 | 基于非局部特征融合和在线更新的目标跟踪方法及系统 |
Non-Patent Citations (1)
Title |
---|
陈志旺等: "基于目标感知特征筛选的孪生网络跟踪算法", 光学学报, no. 09 * |
Also Published As
Publication number | Publication date |
---|---|
CN114757972B (zh) | 2023-10-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108345890B (zh) | 图像处理方法、装置和相关设备 | |
CN109740534B (zh) | 图像处理方法、装置及处理设备 | |
CN108681743B (zh) | 图像对象识别方法和装置、存储介质 | |
US20210063577A1 (en) | Robot relocalization method and apparatus and robot using the same | |
CN110837811B (zh) | 语义分割网络结构的生成方法、装置、设备及存储介质 | |
CN106951484B (zh) | 图片检索方法及装置、计算机设备及计算机可读介质 | |
CN110084299B (zh) | 基于多头融合注意力的目标检测方法和装置 | |
CN112926461B (zh) | 神经网络训练、行驶控制方法及装置 | |
CN111723822A (zh) | 一种基于多层次融合的rgbd图像显著性检测方法及系统 | |
CN111144494A (zh) | 物体检测模型训练方法、检测方法、装置、设备及介质 | |
CN114723646A (zh) | 带标注的图像数据生成方法、装置、存储介质及电子设备 | |
CN112801103A (zh) | 文本方向识别及文本方向识别模型训练方法、装置 | |
CN113780326A (zh) | 一种图像处理方法、装置、存储介质及电子设备 | |
CN110782430A (zh) | 一种小目标的检测方法、装置、电子设备及存储介质 | |
CN113850136A (zh) | 基于yolov5与BCNN的车辆朝向识别方法及系统 | |
CN111753739A (zh) | 物体检测方法、装置、设备以及存储介质 | |
CN112861940A (zh) | 双目视差估计方法、模型训练方法以及相关设备 | |
KR101700030B1 (ko) | 사전 정보를 이용한 영상 물체 탐색 방법 및 이를 수행하는 장치 | |
CN115937071A (zh) | 一种图像检测方法、装置、设备及介质 | |
CN113409340A (zh) | 语义分割模型训练方法、语义分割方法、装置及电子设备 | |
CN109840598A (zh) | 一种深度学习网络模型的建立方法及装置 | |
CN114119990A (zh) | 用于图像特征点匹配的方法、装置及计算机程序产品 | |
CN112085842B (zh) | 深度值确定方法及装置、电子设备和存储介质 | |
CN117372928A (zh) | 一种视频目标检测方法、装置及相关设备 | |
CN114757972B (zh) | 目标跟踪方法、装置、电子设备及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |