CN113379794B - 基于注意力-关键点预测模型的单目标跟踪系统及方法 - Google Patents

基于注意力-关键点预测模型的单目标跟踪系统及方法 Download PDF

Info

Publication number
CN113379794B
CN113379794B CN202110547260.0A CN202110547260A CN113379794B CN 113379794 B CN113379794 B CN 113379794B CN 202110547260 A CN202110547260 A CN 202110547260A CN 113379794 B CN113379794 B CN 113379794B
Authority
CN
China
Prior art keywords
target
frame
module
box
corner
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110547260.0A
Other languages
English (en)
Other versions
CN113379794A (zh
Inventor
孙开伟
王支浩
郭豪
邓名新
刘期烈
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University of Post and Telecommunications
Original Assignee
Chongqing University of Post and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Post and Telecommunications filed Critical Chongqing University of Post and Telecommunications
Priority to CN202110547260.0A priority Critical patent/CN113379794B/zh
Publication of CN113379794A publication Critical patent/CN113379794A/zh
Application granted granted Critical
Publication of CN113379794B publication Critical patent/CN113379794B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本发明请求保护一种基于注意力‑关键点预测模型的单目标跟踪系统及方法,包括:目标状态估计和目标定位两个模块,在目标定位模块,通过进行两个关键点的预测来确定目标位置,关键点指的是bounding_box左上角和右下角两个角点。在目标状态估计模块,添加注意力机制来提高模型的判别能力和鲁棒性,并且用bounding_box来明确标出目标的完全状态。

Description

基于注意力-关键点预测模型的单目标跟踪系统及方法
技术领域
本发明属于深度学习、图像处理,目标跟踪技术领域,尤其是将关键角点的检测和注意力机制分别加入到目标定位和目标状态估计模块,增强了模型的判别能力和鲁棒性。
背景技术
在单目标跟踪的背景下,通常有必要将目标定位和目标状态估计区分为两个独立但相关的子任务。目标定位基本上是为了确定待跟踪目标位于图像中某个位置。但是,目标定位模块只能获取位置信息,即目标在图像中的坐标状态,目标状态估计的目的是找到完全状态。近几年来,国外很多著名的研究学者在目标定位的任务中,通过在线训练强大的分类器成功解决了这一问题,特别地,基于相关滤波跟踪器已经得到广泛应用。然而,相关滤波跟踪器对目标的很多方面都不敏感,例如当目标发生大幅度形变时,无法精确估计目标的完整状态,这主要是因为,基于相关滤波的算法没有将目标定位和目标状态估计任务分离。研究者们认为对于边界框的精确估计是复杂的任务,需要高水平的先验知识。不能将其建模为简单的图像变换(例如均匀图像缩放)。
由于存在遮挡、光照变化、尺度变化等一系列问题,单目标跟踪的实际落地应用一直都存在较大的挑战。过去两年中,商汤智能视频团队在孪生网络上做了一系列工作,包括将检测引入跟踪后实现第一个高性能孪生网络跟踪算法的SiamRPN,更好地利用训练数据增强判别能力的DaSiamRPN,以及最新的解决跟踪无法利用到深网络问题的SiamRPN++。其中SiamRPN++在多个数据集上都完成了10%以上的超越。
大多数的跟踪算法把跟踪考虑成定位问题,但它和检测问题也比较类似,在定位的同时也需要对目标边界框进行预测。为此,SiamRPN将跟踪问题抽象成单样本检测问题,即需要设计一个算法,使其能够通过第一帧的信息来初始化的一个局部检测器。为此,SiamRPN结合了跟踪中的孪生网络和检测中的区域推荐网络:孪生网络实现对跟踪目标的适应,让算法可以利用被跟踪目标的信息,完成检测器的初始化;区域推荐网络可以让算法可以对目标位置进行更精准的预测。经过两者的结合,SiamRPN可以进行端到端的训练。目前的跟踪算法已经能够做到在无干扰的情况下进行精确定位,但是如果周围有很多相似目标,跟踪器会受到较大影响,导致关键点定位到一个相似的目标上。其次,目前的跟踪算法不能够适应目标的大尺度变化,当目标发生大尺度形变或者不可逆转的形变时,跟踪器无法继续跟踪目标。本发明就这两个问题逐一解决,训练出一个具有较强鲁棒性和判别能力的跟踪器。
发明内容
本发明旨在解决以上现有技术的问题。提出了一种基于注意力-关键点预测模型的单目标跟踪系统及方法。本发明的技术方案如下:
一种基于注意力-关键点预测模型的单目标跟踪系统,其包括目标状态估计模块和目标定位模块,将注意力机制加入到单目标跟踪的目标状态估计模块,将关键点检测加入到目标定位模块,目标状态估计模块用于通过添加注意力机制,并且用bounding_box来明确标出目标的完全状态,目标定位模块用于通过进行两个关键点的预测来确定目标位置,bounding_box指的是目标的矩形边界框,关键点指的是bounding_box左上角和右下角两个角点。
进一步的,所述目标定位模块通过进行两个关键点的预测来确定目标位置,关键点指的是bounding_box左上角和右下角两个角点,具体包括:首先找到第一帧bounding_box中的左上角和右下角两个点,并且以这两个点为中心,以r为半径画圆,生成2个峰值为1的的高斯分布区域,图像的其余像素区域规定为0,生成target_map。
进一步的,所述目标定位模块还包括:将视频流的第一帧做数据增强处理,将数据增强后的图像输入到一个双层卷积神经网络中,并且以第一步中的target_map作为目标来进行更新,此时一共更新m次,m<=5,使用共轭梯度下降法进行更新:经过第一帧的学习,模型已经能够学习到了两个关键点,接着将后续帧依次输入到模型中,得到后续每一帧的target_map,找到图中的两个最大值作为预测的角点。
进一步的,共轭梯度下降法进行更新的过程中采用的损失函数为focal loss,角点区域类似于正样本,其余区域类似于负样本,基于视频中的连续两帧之间满足时空连续性和平滑性,在计算损失的时,使用上一帧的target_map和当前预测帧的target_map进行计算,在线更新机制是在某几帧之后才进行更新,而不是每一帧都进行更新,更新的次数不大于n次,n<=5,损失也只是在需要更新的时候计算;最后每一帧以预测好的两个关键点区域形成q个bounding_box,q<=15。
进一步的,所述目标状态估计模块用bounding_box来明确标出目标的完全状态,具体包括:通过一个IOU预测网络预测每一个框的IOU,即“预测的边框”和“真实的边框”的交集和并集的比值;
进一步的,所述IOU预测网络包括特征提取模块、注意力机制模块及合并输出模块,特征提取模块用于提取图片信息,注意力机制模块用于提取图片中的目标信息和图片的背景信息,及合并输出模块用于输出最后的结果。
进一步的,所述目标状态估计模块还包括训练步骤,具体包括:训练数据集使用的是GOT-10k,LaSOT两个数据集,损失函数使用的是MSE,优化器则选用的是Adam优化器,训练时间约10个小时;
训练完成后只保留模型的合并输出模块,将目标定位模块的q(q<=15)个bounding_box输入模型,对其中IOU预测的x个最大值求平均得到最后预测的bounding_box,x<=3。
一种所述系统的单目标跟踪方法,其包括以下步骤:将注意力机制加入到单目标跟踪的目标状态估计模块,将关键点检测加入到目标定位模块,目标定位模块通过进行两个关键点的预测来确定目标位置,bounding_box指的是目标的矩形边界框,关键点指的是bounding_box左上角和右下角两个角点。目标状态估计模块通过添加注意力机制,并且用bounding_box来明确标出目标的完全状态。
进一步的,所述目标定位模块通过进行两个关键点的预测来确定目标位置,具体包括:
首先找到第一帧bounding_box中的左上角和右下角两个点,并且以这两个点为中心,以r为半径画圆,生成2个峰值为1的的高斯分布区域,图像的其余像素区域规定为0,生成target_map;
将视频流的第一帧做数据增强处理,将数据增强后的图像输入到一个双层卷积神经网络中,并且以第一步中的target_map作为目标来进行更新,此时一共更新m次,使用共轭梯度下降法来进行更新;
经过第一帧的学习,模型已经能够学习到了两个关键点,接着将后续帧依次输入到模型中,得到后续每一帧的target_map,找到图中的两个最大值作为预测的角点。
损失函数选用focal loss,角点区域类似于正样本,其余区域类似于负样本,基于视频中的连续两帧之间满足时空连续性和平滑性,在计算损失的时,使用上一帧的target_map和当前预测帧的target_map进行计算;
在线更新机制是在某几帧之后才进行更新,而不是每一帧都进行更新,更新的次数不大于n次,损失也只是在需要更新的时候计算;
最后每一帧以预测好的两个关键点区域形成q个bounding_box。
进一步的,所述目标状态估计模块用bounding_box来明确标出目标的完全状态,具体包括:通过一个IOU预测网络预测每一个框的IOU,即“预测的边框”和“真实的边框”的交集和并集的比值;所述IOU预测网络包括特征提取模块、注意力机制模块及合并输出模块,特征提取模块用于提取图片信息,注意力机制模块用于提取图片中的目标信息和图片的背景信息,及合并输出模块用于输出最后的结果。
训练步骤,具体包括:训练数据集使用的是GOT-10k,LaSOT两个数据集,损失函数使用的是MSE,优化器则选用的是Adam优化器,训练时间约10个小时;训练完成后只保留模型的合并输出模块,将目标定位模块的q(q<=15)个bounding_box输入模型,对其中IOU预测的x个最大值求平均得到最后预测的bounding_box,x<=3。
本发明的优点及有益效果如下:
(1)基于anchor-free的方法在单目标跟踪领域还不是很成熟,但在目标检测领域已经有了较大的发展,根据关键点的定位方法对于单目标跟踪依旧有较大的研究意义,本发明的第一个创新点是利用两个关键点进行单目标跟踪的定位,定位点不再是中心点,而是左上角和右下角的两个角点,并且bounding_box都是由两个角点生成的,增强了跟踪器的抗干扰能力,将周围相似目标对跟踪器的影响降低到最小。
(2)注意力机制目前在深度学习领域有着广泛的应用,在单目标跟踪中,添加注意力机制能够提高模型的鲁棒性,使得模型对跟踪目标和周围相似目标能够做出准确的判断,具体来讲则是提取目标众多信息中最关键的信息,这种机制带来了持续的性能上的提升,本发明对目标状态估计网络添加注意力机制,采用图像分割的方法,将池化后的bounding_box区域进行分割,初始化分割出来的每一张图像的权重,并且在训练中对权重进行更新,这样可以保证跟踪器捕捉到目标的关键信息,从而进行准确的状态估计。
附图说明
图1是本发明提供优选实施例基于注意力-关键点预测模型的单目标跟踪示意图;
图2是本发明提供优选实施例目标状态估计模块工作流程图;
图3是本发明提供优选实施例在线跟踪工作流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、详细地描述。所描述的实施例仅仅是本发明的一部分实施例。
本发明解决上述技术问题的技术方案是:
在单目标跟踪的背景下,通常有必要将目标定位和目标状态估计区分为两个独立但相关的子任务。目标定位基本上是为了确定待跟踪目标位于图像中某个位置。但是,目标定位模块只能获取位置信息,即目标在图像中的坐标状态,目标状态估计的目的是找到目标的完全状态。目标完全状态在跟踪中简化为2D位置和目标框的长宽,尺度。本发明旨在解决以上现有单目标跟踪技术的问题。提出了一种基于注意力和关键点预测模型的单目标跟踪方法,此方法将注意力机制和关键点检测分别加入到单目标跟踪的两个模块:目标状态估计模块,目标定位模块,在保证跟踪速度时,增强了跟踪器的抗干扰能力。本发明的技术方案如下:
本发明分为目标状态估计和目标定位两个模块,目标状态估计需要耗费大量的时间来进行离线训练,离线训练是传统深度学习训练的方法,需要大量的数据和精细的网络架构。目标定位模块则是用到了在线更新机制,所谓在线更新就是指视频流中的目标和背景信息是一直在变化的,定位模型的参数不能保持不变,而要在某几帧之后更新参数,从而保证跟踪器能够准确跟踪到目标。
一、目标定位模块:
1.首先找到第一帧bounding_box中的左上角和右下角两个点,并且以这两个点为中心,以r为半径画圆,生成2个峰值为1的的高斯分布区域,图像的其余像素区域规定为0,生成target_map。
2.将视频流的第一帧做数据增强处理,将数据增强后的图像输入到一个双层卷积神经网络中,并且以第一步中的target_map作为目标来进行更新,此时一共更新m(m<=5)次,用到的更新算法不再是类似传统深度学习的Adam,SGD这样类似的更新算法,因为这些传统的更新算法不能满足目标跟踪算法的实时性要求,所以需要使用速度更快的更新算法:共轭梯度下降法。
3.经过第一帧的学习,模型已经能够学习到了两个关键点,接着将后续帧依次输入到模型中,得到后续每一帧的target_map,找到图中的两个最大值作为预测的角点。
4.损失函数的选择我们选用focal loss,角点区域类似于正样本,其余区域类似于负样本,正负样本分布不平衡,所以采用focal loss损失函数来解决这个问题。并且,基于视频中的连续两帧之间满足时空连续性和平滑性,在计算损失的时,使用上一帧的target_map和当前预测帧的target_map进行计算。
5.在线更新机制是在某几帧之后才进行更新,而不是每一帧都进行更新,更新的次数不大于n(n<=5)次,损失也只是在需要更新的时候计算。
6.最后每一帧以预测好的两个关键点区域形成q(q<=15)个bounding_box。
二、目标状态估计模块:
1、首先目标状态估计模块预测的是每一个框的IOU(“预测的边框”和“真实的边框”的交集和并集的比值)。
2、IOU预测网络的设计:网络分为特征提取模块,注意力机制模块,合并输出模块,其中注意力机制模块是这项发明的第二个创新点(见图1)
3、开始训练:训练数据集使用的是GOT-10k,LaSOT两个数据集,这两个是目标跟踪领域比较著名的两个大型数据集。损失函数使用的是MSE,优化器则选用的是Adam优化器,训练时间约10个小时。
4、训练完成后只保留模型的合并输出模块,将目标定位模块的q(q<=15)个bounding_box输入模型,对其中IOU预测的x(x<=3)个最大值求平均得到最后预测的bounding_box。
第二实施例:
一、目标定位模块:
1、标签处理:对于第一帧图像,将bounding_box的左上角和右下角两个关键点做高斯处理,以关键点为中心,以r为半径的圆做为关键点候选区域,除了这两个关键点区域,图片上的其他区域统一标为0。
2、数据增广处理:将第一帧图像做数据增广处理,将生成的图像输入到双层卷积神经网络中进行训练,使用共轭梯度下降算法,进行m(m<=5)次更新操作,
3、对下一帧进行预测:将下一帧图片输入模型中,输出一张score_map,接着将score_map上最大的两个点作为关键点,在进行了p(p<=10)帧之后,再次用共轭梯度算法进行更新,直到最后一帧结束。
二、目标状态估计模块:
1、数据处理:首先对所有视频的每一帧进行裁剪,裁剪成512*512的图像,接着构造数据集,从GOT-10k,LaSOT的每个视频流中随机选出2张图像,这两张图像的间隔不超过50帧,将选出的两张图像作为一个图像对。
2、图像对的第一张图像做为模板图像,第二张图像做为搜索图像,并且将两张图像做数据增强处理
3、特征提取:特征提取用到了Resnet-18网络,提取block3和block4两层的特征,主要目的是为了通过提取不同层次的特征来提高模型的泛化能力,因为背景会有相似目标遮挡。
4、Prpooling池化层:池化层选用的是prpooling池化方法,它能够自动提取bounding_box中的目标特征,并减小背景信息对于目标的干扰。
5、注意力机制模块:为了增强模型的判别能力,加入了注意力机制,采用图像分割的方法,初始化分割出来的每一张图像的权重,并且在更新过程中进行权重的更新,这样既可以保证跟踪器注意到目标的关键部分,又可以使得跟踪器能够辨别目标和周围的相似目标。
6、经过全连接层和特征通道加权后,可以预测出搜索图像上bounding_box的IOU值,损失则是每个预测的IOU值和真实的IOU值的差。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
以上这些实施例应理解为仅用于说明本发明而不用于限制本发明的保护范围。在阅读了本发明的记载的内容之后,技术人员可以对本发明作各种改动或修改,这些等效变化和修饰同样落入本发明权利要求所限定的范围。

Claims (4)

1.一种基于注意力-关键点预测模型的单目标跟踪系统,其特征在于,包括目标状态估计模块和目标定位模块,将注意力机制加入到单目标跟踪的目标状态估计模块,将关键点检测加入到目标定位模块,目标状态估计模块用于通过添加注意力机制,并且用bounding_box来明确标出目标的完全状态,目标定位模块用于通过进行两个关键点的预测来确定目标位置,bounding_box指的是目标的矩形边界框,关键点指的是bounding_box左上角和右下角两个角点;
所述目标定位模块通过进行两个关键点的预测来确定目标位置,关键点指的是bounding_box左上角和右下角两个角点,具体包括:
首先找到第一帧bounding_box中的左上角和右下角两个点,并且以这两个点为中心,以r为半径画圆,生成2个峰值为1的的高斯分布区域,图像的其余像素区域规定为0,生成target_map;
所述目标定位模块还包括:将视频流的第一帧做数据增强处理,将数据增强后的图像输入到一个双层卷积神经网络中,并且以第一步中的target_map作为目标来进行更新,此时一共更新m次,m<=5,使用共轭梯度下降法进行更新:经过第一帧的学习,模型已经能够学习到了两个关键点,接着将后续帧依次输入到模型中,得到后续每一帧的target_map,找到图中的两个最大值作为预测的角点;
共轭梯度下降法进行更新的过程中采用的损失函数为focal loss,角点区域类似于正样本,其余区域类似于负样本,基于视频中的连续两帧之间满足时空连续性和平滑性,在计算损失的时,使用上一帧的target_map和当前预测帧的target_map进行计算,在线更新机制是在某几帧之后才进行更新,而不是每一帧都进行更新,更新的次数不大于n次,n<=5,损失也只是在需要更新的时候计算;最后每一帧以预测好的两个关键点区域形成q个bounding_box,q<=15;
所述目标状态估计模块用bounding_box来明确标出目标的完全状态,具体包括:通过一个IOU预测网络预测每一个框的IOU,即“预测的边框”和“真实的边框”的交集和并集的比值;
所述IOU预测网络包括特征提取模块、注意力机制模块及合并输出模块,特征提取模块用于提取图片信息,注意力机制模块用于提取图片中的目标信息和图片的背景信息,及合并输出模块用于输出最后的结果。
2.根据权利要求1所述的一种基于注意力-关键点预测模型的单目标跟踪方法,其特征在于,所述目标状态估计模块还包括训练步骤,具体包括:训练数据集使用的是GOT-10k,LaSOT两个数据集,损失函数使用的是MSE,优化器则选用的是Adam优化器,训练时间约10个小时;
训练完成后只保留模型的合并输出模块,将目标定位模块的q(q<=15)个bounding_box输入模型,对其中IOU预测的x个最大值求平均得到最后预测的bounding_box,x<=3。
3.一种权利要求1-2任一项所述系统的单目标跟踪方法,其特征在于,包括以下步骤:将注意力机制加入到单目标跟踪的目标状态估计模块,将关键点检测加入到目标定位模块,目标定位模块通过进行两个关键点的预测来确定目标位置,关键点指的是bounding_box左上角和右下角两个角点,bounding_box指的是目标的矩形边界框,目标状态估计模块通过添加注意力机制,并且用bounding_box来明确标出目标的完全状态;
所述目标定位模块通过进行两个关键点的预测来确定目标位置,具体包括:1、首先找到第一帧bounding_box中的左上角和右下角两个点,并且以这两个点为中心,以r为半径画圆,生成2个峰值为1的的高斯分布区域,图像的其余像素区域规定为0,生成target_map;
2、将视频流的第一帧做数据增强处理,将数据增强后的图像输入到一个双层卷积神经网络中,并且以第一步中的target_map作为目标来进行更新,此时一共更新m次,使用共轭梯度下降法来进行更新;
3、经过第一帧的学习,模型已经能够学习到了两个关键点,接着将后续帧依次输入到模型中,得到后续每一帧的target_map,找到图中的两个最大值作为预测的角点。
4、损失函数选用focal loss,角点区域类似于正样本,其余区域类似于负样本,基于视频中的连续两帧之间满足时空连续性和平滑性,在计算损失的时,使用上一帧的target_map和当前预测帧的target_map进行计算;
5、在线更新机制是在某几帧之后才进行更新,而不是每一帧都进行更新,更新的次数不大于n次,损失也只是在需要更新的时候计算;
6、最后每一帧以预测好的两个关键点区域形成q个bounding_box。
4.根据权利要求3所述的单目标跟踪方法,其特征在于,所述目标状态估计模块用bounding_box来明确标出目标的完全状态,具体包括:通过一个IOU预测网络预测每一个框的IOU,即“预测的边框”和“真实的边框”的交集和并集的比值;所述IOU预测网络包括特征提取模块、注意力机制模块及合并输出模块,特征提取模块用于提取图片信息,注意力机制模块用于提取图片中的目标信息和图片的背景信息,及合并输出模块用于输出最后的结果。
训练步骤,具体包括:训练数据集使用的是GOT-10k,LaSOT两个数据集,损失函数使用的是MSE,优化器则选用的是Adam优化器,训练时间约10个小时;训练完成后只保留模型的合并输出模块,将目标定位模块的q(q<=15)个bounding_box输入模型,对其中IOU预测的x个最大值求平均得到最后预测的bounding_box,x<=3。
CN202110547260.0A 2021-05-19 2021-05-19 基于注意力-关键点预测模型的单目标跟踪系统及方法 Active CN113379794B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110547260.0A CN113379794B (zh) 2021-05-19 2021-05-19 基于注意力-关键点预测模型的单目标跟踪系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110547260.0A CN113379794B (zh) 2021-05-19 2021-05-19 基于注意力-关键点预测模型的单目标跟踪系统及方法

Publications (2)

Publication Number Publication Date
CN113379794A CN113379794A (zh) 2021-09-10
CN113379794B true CN113379794B (zh) 2023-07-25

Family

ID=77571336

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110547260.0A Active CN113379794B (zh) 2021-05-19 2021-05-19 基于注意力-关键点预测模型的单目标跟踪系统及方法

Country Status (1)

Country Link
CN (1) CN113379794B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108549876A (zh) * 2018-04-20 2018-09-18 重庆邮电大学 基于目标检测和人体姿态估计的坐姿检测方法
CN111274917A (zh) * 2020-01-17 2020-06-12 江南大学 一种基于深度检测的长时目标跟踪方法
CN111681259A (zh) * 2020-05-17 2020-09-18 天津理工大学 基于无Anchor机制检测网络的车辆跟踪模型建立方法
CN111862126A (zh) * 2020-07-09 2020-10-30 北京航空航天大学 深度学习与几何算法结合的非合作目标相对位姿估计方法
CN111914664A (zh) * 2020-07-06 2020-11-10 同济大学 基于重识别的车辆多目标检测和轨迹跟踪方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9183580B2 (en) * 2010-11-04 2015-11-10 Digimarc Corporation Methods and systems for resource management on portable devices
US11074495B2 (en) * 2013-02-28 2021-07-27 Z Advanced Computing, Inc. (Zac) System and method for extremely efficient image and pattern recognition and artificial intelligence platform
IL285121B2 (en) * 2016-11-15 2023-04-01 Magic Leap Inc A deep learning system for discovering a cube
GB2564668B (en) * 2017-07-18 2022-04-13 Vision Semantics Ltd Target re-identification
CN110832499B (zh) * 2017-11-14 2023-11-24 谷歌有限责任公司 通过稀疏时间池化网络的弱监督动作定位
US11182597B2 (en) * 2018-01-19 2021-11-23 Board Of Regents, The University Of Texas Systems Systems and methods for evaluating individual, group, and crowd emotion engagement and attention
US10917557B2 (en) * 2018-04-16 2021-02-09 United States Of America As Represented By The Secretary Of The Air Force Human-automation collaborative tracker of fused object
CN111179314B (zh) * 2019-12-30 2023-05-02 北京工业大学 一种基于残差密集孪生网络的目标跟踪方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108549876A (zh) * 2018-04-20 2018-09-18 重庆邮电大学 基于目标检测和人体姿态估计的坐姿检测方法
CN111274917A (zh) * 2020-01-17 2020-06-12 江南大学 一种基于深度检测的长时目标跟踪方法
CN111681259A (zh) * 2020-05-17 2020-09-18 天津理工大学 基于无Anchor机制检测网络的车辆跟踪模型建立方法
CN111914664A (zh) * 2020-07-06 2020-11-10 同济大学 基于重识别的车辆多目标检测和轨迹跟踪方法
CN111862126A (zh) * 2020-07-09 2020-10-30 北京航空航天大学 深度学习与几何算法结合的非合作目标相对位姿估计方法

Also Published As

Publication number Publication date
CN113379794A (zh) 2021-09-10

Similar Documents

Publication Publication Date Title
CN112184752A (zh) 一种基于金字塔卷积的视频目标跟踪方法
CN110120064B (zh) 一种基于互强化与多注意机制学习的深度相关目标跟踪算法
CN111259786A (zh) 一种基于视频的外观和运动信息同步增强的行人重识别方法
CN111027377B (zh) 一种双流神经网络时序动作定位方法
CN113706581B (zh) 基于残差通道注意与多层次分类回归的目标跟踪方法
CN109934846A (zh) 基于时间和空间网络的深度集成目标跟踪方法
CN113744311A (zh) 基于全连接注意力模块的孪生神经网络运动目标跟踪方法
CN112884742A (zh) 一种基于多算法融合的多目标实时检测、识别及跟踪方法
CN112489081A (zh) 一种视觉目标跟踪方法及装置
CN110796679A (zh) 一种面向航拍影像的目标跟踪方法
CN115830075A (zh) 一种面向行人多目标跟踪的分级关联匹配方法
CN113628244A (zh) 基于无标注视频训练的目标跟踪方法、系统、终端及介质
CN110569706A (zh) 一种基于时间和空间网络的深度集成目标跟踪算法
CN113034545A (zh) 一种基于CenterNet多目标跟踪算法的车辆跟踪方法
CN114943888A (zh) 基于多尺度信息融合的海面小目标检测方法、电子设备及计算机可读介质
CN110688512A (zh) 基于ptgan区域差距与深度神经网络的行人图像搜索算法
CN112287906B (zh) 一种基于深度特征融合的模板匹配跟踪方法及系统
Yang et al. A feature temporal attention based interleaved network for fast video object detection
CN113379794B (zh) 基于注意力-关键点预测模型的单目标跟踪系统及方法
CN112200831B (zh) 一种基于动态模板的密集连接孪生神经网络目标跟踪方法
CN116229112A (zh) 一种基于多重注意力的孪生网络目标跟踪方法
Yi et al. Single online visual object tracking with enhanced tracking and detection learning
CN114743045B (zh) 一种基于双分支区域建议网络的小样本目标检测方法
CN112164097B (zh) 一种船舶视频检测样本采集方法
CN114067240A (zh) 一种融合行人特性的在线更新策略行人单目标跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant