CN111951304B - 基于互监督孪生网络的目标跟踪方法、装置与设备 - Google Patents

基于互监督孪生网络的目标跟踪方法、装置与设备 Download PDF

Info

Publication number
CN111951304B
CN111951304B CN202010914191.8A CN202010914191A CN111951304B CN 111951304 B CN111951304 B CN 111951304B CN 202010914191 A CN202010914191 A CN 202010914191A CN 111951304 B CN111951304 B CN 111951304B
Authority
CN
China
Prior art keywords
network
twin
similarity
convolutional neural
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010914191.8A
Other languages
English (en)
Other versions
CN111951304A (zh
Inventor
岳舟
方智文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hunan University of Humanities Science and Technology
Original Assignee
Hunan University of Humanities Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hunan University of Humanities Science and Technology filed Critical Hunan University of Humanities Science and Technology
Priority to CN202010914191.8A priority Critical patent/CN111951304B/zh
Publication of CN111951304A publication Critical patent/CN111951304A/zh
Application granted granted Critical
Publication of CN111951304B publication Critical patent/CN111951304B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及计算机技术领域,尤其涉及一种基于互监督孪生网络的目标跟踪方法、装置与设备。其包括:获取孪生A网络中的第一孪生网络相似度响应图;获取孪生B网络中的旋转90°孪生网络相似度响应图,再进行反向旋转90°获取第二孪生网络相似度响应图;将获取的第一、第二孪生网络相似度响应图进行网络训练获得最优网络模型;以及将第一、第二孪生网络相似度响应图通过均值融合方法获取融合响应图;从而预测当前帧目标,该方法能更好的从同源图像的多视角融合更多的视觉信息,并能有效克服卷积神经网络的旋转不变性的问题,提升跟踪器在目标旋转的跟踪鲁棒性,同时能对抗因跟踪误差累计以及跟踪目标旋转导致的跟踪漂移以及跟踪失效问题。

Description

基于互监督孪生网络的目标跟踪方法、装置与设备
技术领域
本发明涉及计算机技术领域,尤其涉及一种基于互监督孪生网络的目标跟踪方法、装置与设备。
背景技术
基于图像和视频等信息的单个移动目标的跟踪方法在智能机器人控制、计算机-人交互、无人机视觉导航、自动/辅助驾驶以及智慧城市安防监控中都有极其广泛的应用。
目前常用的目标跟踪方法主要包括两种,一种为基于邻近帧累积信息的目标跟踪方法,通过一个可以在线不断迭代更新的跟踪器在每一帧的搜索区域内定位到待跟踪的目标,在一定程度上能有效的补充待跟踪目标的变化信息,可有效的获取颜色变化、形状变化和姿态变化等动态信息,但所有跟踪器都难以保证每一帧的精准跟踪,这就意味着跟踪误差是不避免的,而且基于邻近帧累积信息的目标跟踪方法将会累积该预测误差,将导致跟踪器的性能逐渐下降。随着时间的推移,跟踪漂移将不可避免地发生;另一种是基于首帧标定区域的目标跟踪方法,依赖卷积神经网络特征的强大表达能力,通过深度学习的方法离线学习得到具有强大表达能力到相似性度量网络,其只依赖首帧信息可有效地解决因误差累积导致的跟踪失效问题,但该类跟踪器非常依赖跟踪器的相似性表达能力,性能较弱的深度学习网络易产生跟踪目标丢失的现象。
综上所述,虽然关于单目标跟踪算法的研究已开展多年,基于不同特征和不同模型的跟踪器也层出不穷,但由于真实环境中目标旋转、颜色变化、形状变化和姿态变化等复杂问题的综合存在,现有的目标跟踪器很难在现实中有效地使用。
发明内容
基于此,本发明针对上述的问题,提供了一种基于互监督孪生网络的目标跟踪方法,旨在解决现有目标跟踪方法无法对真实环境中目标旋转、颜色变化、形状变化和姿态变化等复杂问题进行合理处理,导致现有目标跟踪方法很难在现实中有效使用的技术问题。
本发明实施例提供的一种基于互监督孪生网络的目标跟踪方法,具体包括:
获取孪生A网络中第一帧标定区域和当前帧搜索区域的卷积神经网络特征,并进行相似度计算获得第一孪生网络相似度响应图;
获取孪生B网络中旋转90°的第一帧标定区域和当前帧搜索区域的卷积神经网络特征图,并进行相似度计算获得旋转90°孪生网络相似度响应图;将所述旋转90°孪生网络相似度响应图反向旋转90°,获取第二孪生网络相似度响应图;
将获取的所述第一孪生网络相似度响应图与第二孪生网络相似度响应图在预先设定的损失函数的监督下进行网络训练获得最优网络模型,用于获取卷积神经网络特征图;以及
将所述第一孪生网络相似度响应图与第二孪生网络相似度响应图通过均值融合方法获取融合响应图;并根据融合响应图的响应值与尺度信息预测当前帧目标所在位置与尺度。
更进一步地,所述获取孪生A网络中第一帧标定区域和当前帧搜索区域的卷积神经网络特征,并进行相似度计算获得第一孪生网络相似度响应图步骤具体包括:
将孪生A网络中所述第一帧标定区域通过深度卷积神经网络获取第一标定区域卷积神经网络特征;
根据跟踪目标尺度确定所述当前帧搜索区域的尺度,并以所述当前帧的前一帧目标预测坐标为中心确定所述当前帧搜索区域,通过深度卷积神经网络获取第一搜索区域卷积神经网络特征;
将所述第一标定区域卷积神经网络特征和第一搜索区域卷积神经网络特征进行相似度计算获取第一孪生网络相似度响应图。
更进一步地,所述获取孪生B网络中旋转90°的第一帧标定区域和当前帧搜索区域的卷积神经网络特征图,并进行相似度计算获得旋转90°孪生网络相似度响应图步骤包括:
将孪生B网络中所述第一帧标定区域旋转90°,通过深度卷积神经网络获取第二标定区域卷积神经网络特征;
根据跟踪目标尺度确定所述当前帧搜索区域的尺度,并以所述当前帧的前一帧目标预测坐标为中心确定所述当前帧搜索区域旋转90°,通过深度卷积神经网络获取第二标定区域卷积神经网络特征;
将所述第二标定区域卷积神经网络特征和第二标定区域卷积神经网络特征进行相似度计算获取旋转90°孪生网络相似度响应图。
更进一步地,所述预先设定的损失函数为logistic损失函数和基于互监督学习理论一致性损失函数的融合:l=ll+lc,所述一致性损失函数为lc=||MA-MB||2,所述logistic损失函数为所述G为训练数据提供的金标准,(i,j)为二维坐标,||||2为2范数距离;|MA|和|MB|分别为所述第一孪生网络相似度响应图MA和第二孪生网络相似度响应图MB的像素数量。
更进一步地,所述将所述第一孪生网络相似度响应图与第二孪生网络相似度响应图通过均值融合方式获取融合响应图中融合函数为h(It,I1)=(MA+MB)/2,所述MA和MB为第一孪生网络相似度响应图和第二孪生网络相似度响应图。
本发明实施例的另一目的在于提供一种基于互监督孪生网络的目标跟踪装置,包括:
第一孪生网络相似度响应图获取模块,用于获取孪生A网络中第一帧标定区域和当前帧搜索区域的卷积神经网络特征,并进行相似度计算获得当前帧搜索区域的第一孪生网络相似度响应图;
第二孪生网络相似度响应图获取模块,用于获取孪生B网络中旋转90°的第一帧标定区域和当前帧搜索区域的卷积神经网络特征图,并进行相似度计算获得当前帧搜索区域旋转90°孪生网络相似度响应图;将所述旋转90°孪生网络相似度相应图反向旋转90°,获取第二孪生网络相似度响应图;
网络模型训练模块,用于将获取的所述第一孪生网络相似度响应图与第二孪生网络相似度响应图在预先设定的损失函数的监督下进行网络训练获得最优网络模型,用于获取卷积神经网络特征图;以及
目标确定模块,用于将所述第一孪生网络相似度响应图与第二孪生网络相似度响应图通过均值融合方式获取融合响应图;并根据融合响应图的响应值与尺度信息预测当前帧目标所在位置与尺度。
本发明实施例的另一目的在于提供一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时上述方法的步骤。
有益效果:
本发明的目标跟踪方法是建立在互监督的孪生网络基础上,对于孪生A网络获取第一帧标定区域和当前帧搜索区域的卷积神经网络特征,并获得第一孪生网络相似度响应图,而对孪生B网络将获取的区域进行90°旋转后获得其卷积神经网络特征并获得相似度响应图,再进行反向旋转90°获得第二孪生网络相似度响应图,采用第一、二孪生网络相似度响应图进行模型训练获得最优网络模型,另采用上述两个相似度响应图通过均值融合方法获取融合响应图,最后根据该融合响应图的响应值与尺度信息预测目标的位置与尺度;相较于目前现有的目标跟踪算法,本发明能够更好的从同源图像的多视角融合更多的视觉信息,并且能有效克服卷积神经网络的旋转不变性的问题,大大提升跟踪器在目标旋转情况下的跟踪鲁棒性。在保证高效率的前提下,本发明相比于现有的其他跟踪方法,可有效地对抗因跟踪误差累计以及跟踪目标旋转导致的跟踪漂移以及跟踪失效问题。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
图1为本发明实施例提供的一种基于互监督孪生网络的目标跟踪方法流程图;
图2为本发明实施例提供的获取第一孪生网络相似度响应图的流程图;
图3为本发明实施例提供的获得旋转90°孪生网络相似度响应图的流程图;
图4为本发明实施例提供的一种基于互监督孪生网络的目标跟踪装置示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
如图1所示,在一个实施例中,提出了一种基于互监督孪生网络的目标跟踪方法,具体包括以下步骤:
步骤101,获取孪生A网络中第一帧标定区域和当前帧搜索区域的卷积神经网络特征,并进行相似度计算获得第一孪生网络相似度响应图。
在本发明实施例中,根据首帧标定区域的卷积神经网络特征,计算得到当前帧划定的搜索区域内孪生网络A网络的相似度响应图(Bertinetto L,Valmadre J,Henriques JF,et al.Fully-convolutional siamese networks for object tracking[C],Europeanconference on computer vision.Springer,Cham,2016:850-865.),将第一帧标定区域I1和当前帧搜索区域It分别输入一个由5个卷积层和2个池化层组成深度学习网络,通过11×11×96卷积-3×3池化-5×5×256卷积-3×3池化-3×3×192卷积-3×3×192卷积-3×3×128卷积后得到卷积神经网络特征θA(It)和θA(I1),并通过互相关操作得到相似度响应图MA=fA(It,I1)=gAA(It),θA(I1))=θA(It)*θA(I1),gA代表相似度计算,相似度响应图即首帧标定区域与当前帧划定的搜索区域内所有待判断区域的相似性度量得分值,该相似度得分值代表了每一个待判断区域与首帧标定区域的相似程度。得分越高意味着相似度越大,反之则越小。
本发明实施例提供了如图2所示的获取第一孪生网络相似度响应图的流程图,步骤201,将孪生A网络中所述第一帧标定区域通过深度卷积神经网络获取第一标定区域卷积神经网络特征。比如,将首帧标定区域大小增大至127×127的大小,输入一个由5个卷积层和2个池化层组成深度学习网络,通过11×11×96卷积-3×3池化-5×5×256卷积-3×3池化-3×3×192卷积-3×3×192卷积-3×3×128卷积后得到卷积神经网络特征θA(I1),特征的维度为6×6×128。
步骤202,根据跟踪目标尺度确定所述当前帧搜索区域的尺度,并以所述当前帧的前一帧目标预测坐标为中心确定所述当前帧搜索区域,通过深度卷积神经网络获取第一搜索区域卷积神经网络特征。比如,假定跟踪目标高为h,宽为w。在当前帧图像中,以高h和宽w为基础在尺度上进行扩大,进而确定搜索区域。扩大后的搜索区域为高h+(h+w)/2和宽w+(h+w)/2。以前一帧目标预测坐标为中心在当前帧中的搜索区域内提取区域图像作为当前帧图像的搜索区域。将该搜索区域输入到与S11具有相同参数的卷积神经网络中进行计算,并得到对应的卷积神经网络特征θA(It),特征维度为22×22×128。
步骤S203,将所述第一标定区域卷积神经网络特征和第一搜索区域卷积神经网络特征进行相似度计算获取第一孪生网络相似度响应图。将步骤S201和202得到的第一标定区域卷积神经网络特征θA(I1)和第一搜索区域卷积神经网络特征θA(It),进行互相关操作,即进行相似度计算获得第一孪生网络相似度响应图MA=fA(It,I1)=gAA(It),θA(I1))=θA(It)*θA(I1)。
应当理解的是,由于目标跟踪问题中待跟踪目标的尺度是随时发生变化的,因此为了使跟踪器具有尺度适应性,对S202中定义的扩大版搜索区域进行三种不同参数的扩大,从而得到不同大小的搜索区域。基于三个不同大小的搜索区域,分别重复进行步骤S202和S203,便可以得到在不同尺度下的相似度响应图,以便于更好的进行目标追踪。
步骤102,获取孪生B网络中旋转90°的第一帧标定区域和当前帧搜索区域的卷积神经网络特征图,并进行相似度计算获得旋转90°孪生网络相似度响应图;将所述旋转90°孪生网络相似度响应图反向旋转90°,获取第二孪生网络相似度响应图;
在本发明实施例中,根据首帧标定区域旋转90度的卷积神经网络特征,计算得到当前帧划定的搜索区域旋转90度后孪生网络B网络的相似度响应图(Bertinetto L,Valmadre J,Henriques J F,et al.Fully-convolutional siamese networks forobject tracking[C],European conference on computer vision.Springer,Cham,2016:850-865.)。其中,所述相似度响应图即首帧旋转90度标定区域与当前帧旋转90度后划定的搜索区域内所有待判断区域的相似性度量得分值,该相似度得分值代表了每一个待判断区域与首帧标定区域的相似程度。得分越高意味着相似度越大,反之则越小。
本发明实施例提供了一种获取旋转90°孪生网络相似度响应图的流程图,具体包括:步骤S301,将孪生B网络中所述第一帧标定区域旋转90°,通过深度卷积神经网络获取第二标定区域卷积神经网络特征。比如,将首帧标定区域大小增大至127×127的大小,再顺时钟旋转90度,通过按照步骤S201中的多层连续的卷积操作计算得到相应的深度特征图θB90(I1)),特征的维度为6×6×128。
步骤S302,根据跟踪目标尺度确定所述当前帧搜索区域的尺度,并以所述当前帧的前一帧目标预测坐标为中心确定所述当前帧搜索区域,旋转90°,通过深度卷积神经网络获取第二标定区域卷积神经网络特征。比如假定跟踪目标高为h,宽为w。在当前帧图像中,以高h和宽w为基础在尺度上进行扩大,进而确定搜索区域。扩大后的搜索区域为高h+(h+w)/2和宽w+(h+w)/2。以前一帧目标预测坐标为中心在当前帧中的搜索区域内提取区域图像作为当前帧图像的搜索区域,将该搜索区域顺时钟旋转90度输入到与S202具有相同参数的卷积神经网络中进行计算,并得到对应的深度特征值θB90(It)),特征维度为22×22×128。
步骤S303,将所述第二标定区域卷积神经网络特征和第二标定区域卷积神经网络特征进行相似度计算获取旋转90°孪生网络相似度响应图。将步骤S301和302得到的第二标定区域卷积神经网络特征θB90(I1))和第二搜索区域卷积神经网络特征θB90(It)),进行互相关操作,即进行相似度计算获得旋转90°孪生网络相似度响应图fB(It,I1)=gBB90(It)),θB90(I1)))。
在本发明实施例中,将所述旋转90°孪生网络相似度响应图fB(It,I1)=gBB90(It)),θB90(I1)))再进行反向旋转90°,操作函数为获得第二孪生网络相似度响应图/>
上述方法采用标定区域和搜索区域旋转后的特征提取,获得相似度响应图后再进行反向旋转,能够有效的克服卷积神经网络的旋转不变性的问题,大大提升跟踪器在目标旋转情况下的跟踪鲁棒性。
步骤S103,将获取的所述第一孪生网络相似度响应图与第二孪生网络相似度响应图在预先设定的损失函数的监督下进行网络训练获得最优网络模型,用于获取卷积神经网络特征图。
在本发明实施例中,损失函数为logistic损失函数和基于互监督学习理论一致性损失函数的融合l=ll+lc,其中logistic损失函数和一致性损失函数如公式(1)和(2)所示。
lc=||MA-MB||2 (2)
其中,G为训练数据提供的金标准,(i,j)为二维坐标,||||2为2范数距离;|MA|和|MB|分别代表MA和MB的像素数量。
步骤S104,将所述第一孪生网络相似度响应图与第二孪生网络相似度响应图通过均值融合方法获取融合响应图;并根据融合响应图的响应值与尺度信息预测当前帧目标所在位置与尺度。
将步骤101、102获得的相似度响应图进行均值融合,具体如公式(3)。获取融合响应图,并在此响应图上以最大值定位当前帧的跟踪位置,以最优响应图所携带的尺度信息预测当前帧跟踪目标的尺度。
该方法能够更好的从同源图像的多视角融合更多的视觉信息,并且能有效克服卷积神经网络的旋转不变性的问题,大大提升跟踪器在目标旋转情况下的跟踪鲁棒性。在保证高效率的前提下,本发明相比于现有的其他跟踪方法,可有效地对抗因跟踪误差累计以及跟踪目标旋转导致的跟踪漂移以及跟踪失效问题。
如图4所示,本发明提供了一种基于互监督孪生网络的目标跟踪装置的结构示意图。具体包括:
第一孪生网络相似度响应图获取模块410,用于获取孪生A网络中第一帧标定区域和当前帧搜索区域的卷积神经网络特征,并进行相似度计算获得当前帧搜索区域的第一孪生网络相似度响应图;
在本发明实施例中,第一孪生网络相似度响应图获取模块将第一帧标定区域I1和当前帧搜索区域It分别输入一个由5个卷积层和2个池化层组成深度学习网络,通过11×11×96卷积-3×3池化-5×5×256卷积-3×3池化-3×3×192卷积-3×3×192卷积-3×3×128卷积后得到卷积神经网络特征θA(It)和θA(I1),并通过互相关操作得到相似度响应图MA=fA(It,I1)=gAA(It),θA(I1))=θA(It)*θA(I1),gA代表相似度计算,相似度响应图即首帧标定区域与当前帧划定的搜索区域内所有待判断区域的相似性度量得分值,该相似度得分值代表了每一个待判断区域与首帧标定区域的相似程度。
第二孪生网络相似度响应图获取模块420,用于获取孪生B网络中旋转90°的第一帧标定区域和当前帧搜索区域的卷积神经网络特征图,并进行相似度计算获得当前帧搜索区域旋转90°孪生网络相似度响应图;将所述旋转90°孪生网络相似度相应图反向旋转90°,获取第二孪生网络相似度响应图。
在本发明实施例中,第二孪生网络相似度响应图获取模块根据首帧标定区域顺时钟旋转90度的卷积神经网络特征,计算得到当前帧划定的搜索区域旋转90度后孪生网络B网络的相似度响应图,其中,所述相似度响应图即首帧旋转90度标定区域与当前帧旋转90度后划定的搜索区域内所有待判断区域的相似性度量得分值,该相似度得分值代表了每一个待判断区域与首帧标定区域的相似程度,将所述旋转90°孪生网络相似度响应图fB(It,I1)=gBB90(It)),θB90(I1)))再进行反向旋转90°,操作函数为获得第二孪生网络相似度响应图/>
网络模型训练模块430,用于将获取的所述第一孪生网络相似度响应图与第二孪生网络相似度响应图在预先设定的损失函数的监督下进行网络训练获得最优网络模型,用于获取卷积神经网络特征图。
在本发明实施例中,网络模型训练模块设置的损失函数为logistic损失函数和基于互监督学习理论一致性损失函数的融合l=ll+lc,其中logistic损失函数和一致性损失函数如公式(1)和(2)所示。以上述损失函数监督训练过程获得最优网络模型。
目标确定模块440,用于将所述第一孪生网络相似度响应图与第二孪生网络相似度响应图通过均值融合方式获取融合响应图;并根据融合响应图的响应值与尺度信息预测当前帧目标所在位置与尺度。
在本发明实施例中,获取模块410和420的相似度响应图进行均值融合,具体如公式(3)。获取融合响应图,并在此响应图上以最大值定位当前帧的跟踪位置,以最优响应图所携带的尺度信息预测当前帧跟踪目标的尺度。
在本发明实施例中,还提供了一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时本发明中各方法的步骤。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由权利要求指出。
应该理解的是,虽然本发明各实施例的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,各实施例中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。

Claims (3)

1.一种基于互监督孪生网络的目标跟踪方法,其特征在于,具体包括:
获取孪生A网络中第一帧标定区域和当前帧搜索区域的卷积神经网络特征,并进行相似度计算获得第一孪生网络相似度响应图;
所述获取孪生A网络中第一帧标定区域和当前帧搜索区域的卷积神经网络特征,并进行相似度计算获得第一孪生网络相似度响应图步骤具体包括:
将孪生A网络中所述第一帧标定区域通过深度卷积神经网络获取第一标定区域卷积神经网络特征;
根据跟踪目标尺度确定所述当前帧搜索区域的尺度,并以所述当前帧的前一帧目标预测坐标为中心确定所述当前帧搜索区域,通过深度卷积神经网络获取第一搜索区域卷积神经网络特征;
将所述第一标定区域卷积神经网络特征和第一搜索区域卷积神经网络特征进行相似度计算获取第一孪生网络相似度响应图;
获取孪生B网络中旋转90°的第一帧标定区域和当前帧搜索区域的卷积神经网络特征图,并进行相似度计算获得旋转90°孪生网络相似度响应图;将所述旋转90°孪生网络相似度响应图反向旋转90°,获取第二孪生网络相似度响应图;
所述获取孪生B网络中旋转90°的第一帧标定区域和当前帧搜索区域的卷积神经网络特征图,并进行相似度计算获得旋转90°孪生网络相似度响应图步骤包括:
将孪生B网络中所述第一帧标定区域旋转90°,通过深度卷积神经网络获取第二标定区域卷积神经网络特征;
根据跟踪目标尺度确定所述当前帧搜索区域的尺度,并以所述当前帧的前一帧目标预测坐标为中心确定所述当前帧搜索区域并旋转90°,通过深度卷积神经网络获取第二搜索区域卷积神经网络特征;
将所述第二标定区域卷积神经网络特征和第二搜索区域卷积神经网络特征进行相似度计算获取旋转90°孪生网络相似度响应图;
将获取的所述第一孪生网络相似度响应图与第二孪生网络相似度响应图在预先设定的损失函数的监督下进行网络训练获得最优网络模型,用于获取卷积神经网络特征图;以及
将所述第一孪生网络相似度响应图与第二孪生网络相似度响应图通过均值融合方法获取融合响应图;并根据融合响应图的响应值与尺度信息预测当前帧目标所在位置与尺度;
所述预先设定的损失函数为logistic损失函数和基于互监督学习理论一致性损失函数的融合:l=ll+lc,所述一致性损失函数为lc=||MA-MB||2,所述logistic损失函数为G为训练数据提供的金标准,(i,j)为二维坐标,||||2为2范数距离;|MA|和|MB|分别为所述第一孪生网络相似度响应图MA的像素数量和第二孪生网络相似度响应图MB的像素数量;
将所述第一孪生网络相似度响应图与第二孪生网络相似度响应图通过均值融合方式获取融合响应图中的融合函数为h(It,I1)=(MA+MB)/2,所述MA和MB为第一孪生网络相似度响应图和第二孪生网络相似度响应图。
2.一种基于互监督孪生网络的目标跟踪装置,其特征在于,包括:
第一孪生网络相似度响应图获取模块,用于获取孪生A网络中第一帧标定区域和当前帧搜索区域的卷积神经网络特征,并进行相似度计算获得当前帧搜索区域的第一孪生网络相似度响应图;
所述第一孪生网络相似度响应图获取模块还用于将孪生A网络中所述第一帧标定区域通过深度卷积神经网络获取第一标定区域卷积神经网络特征;
根据跟踪目标尺度确定所述当前帧搜索区域的尺度,并以所述当前帧的前一帧目标预测坐标为中心确定所述当前帧搜索区域,通过深度卷积神经网络获取第一搜索区域卷积神经网络特征;
将所述第一标定区域卷积神经网络特征和第一搜索区域卷积神经网络特征进行相似度计算获取第一孪生网络相似度响应图;
第二孪生网络相似度响应图获取模块,用于获取孪生B网络中旋转90°的第一帧标定区域和当前帧搜索区域的卷积神经网络特征图,并进行相似度计算获得当前帧搜索区域旋转90°孪生网络相似度响应图;将所述旋转90°孪生网络相似度相应图反向旋转90°,获取第二孪生网络相似度响应图;
所述第二孪生网络相似度响应图获取模块还用于将孪生B网络中所述第一帧标定区域旋转90°,通过深度卷积神经网络获取第二标定区域卷积神经网络特征;
根据跟踪目标尺度确定所述当前帧搜索区域的尺度,并以所述当前帧的前一帧目标预测坐标为中心确定所述当前帧搜索区域并旋转90°,通过深度卷积神经网络获取第二搜索区域卷积神经网络特征;
将所述第二标定区域卷积神经网络特征和第二搜索区域卷积神经网络特征进行相似度计算获取旋转90°孪生网络相似度响应图;
网络模型训练模块,用于将获取的所述第一孪生网络相似度响应图与第二孪生网络相似度响应图在预先设定的损失函数的监督下进行网络训练获得最优网络模型,用于获取卷积神经网络特征图;以及
目标确定模块,用于将所述第一孪生网络相似度响应图与第二孪生网络相似度响应图通过均值融合方式获取融合响应图;并根据融合响应图的响应值与尺度信息预测当前帧目标所在位置与尺度;
所述网络模型训练模块还包括所述预先设定的损失函数为logistic损失函数和基于互监督学习理论一致性损失函数的融合:l=ll+lc,所述一致性损失函数为lc=||MA-MB||2,所述logistic损失函数为所述G为训练数据提供的金标准,(i,j)为二维坐标,||||2为2范数距离;|MA|和|MB|分别为所述第一孪生网络相似度响应图MA的像素数量和第二孪生网络相似度响应图MB的像素数量;
所述将所述第一孪生网络相似度响应图与第二孪生网络相似度响应图通过均值融合方式获取融合响应图中的融合函数为h(It,I1)=(MA+MB)/2,所述MA和MB为第一孪生网络相似度响应图和第二孪生网络相似度响应图。
3.一种计算机设备,其特征在于,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1所述方法的步骤。
CN202010914191.8A 2020-09-03 2020-09-03 基于互监督孪生网络的目标跟踪方法、装置与设备 Active CN111951304B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010914191.8A CN111951304B (zh) 2020-09-03 2020-09-03 基于互监督孪生网络的目标跟踪方法、装置与设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010914191.8A CN111951304B (zh) 2020-09-03 2020-09-03 基于互监督孪生网络的目标跟踪方法、装置与设备

Publications (2)

Publication Number Publication Date
CN111951304A CN111951304A (zh) 2020-11-17
CN111951304B true CN111951304B (zh) 2024-02-02

Family

ID=73367343

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010914191.8A Active CN111951304B (zh) 2020-09-03 2020-09-03 基于互监督孪生网络的目标跟踪方法、装置与设备

Country Status (1)

Country Link
CN (1) CN111951304B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112991385B (zh) * 2021-02-08 2023-04-28 西安理工大学 一种基于不同度量准则的孪生网络目标跟踪方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109272530A (zh) * 2018-08-08 2019-01-25 北京航空航天大学 面向空基监视场景的目标跟踪方法与装置
CN110675429A (zh) * 2019-09-24 2020-01-10 湖南人文科技学院 基于孪生网络和相关滤波器的长短程互补型目标跟踪方法
CN111161317A (zh) * 2019-12-30 2020-05-15 北京工业大学 一种基于多重网络的单目标跟踪方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109272530A (zh) * 2018-08-08 2019-01-25 北京航空航天大学 面向空基监视场景的目标跟踪方法与装置
CN110675429A (zh) * 2019-09-24 2020-01-10 湖南人文科技学院 基于孪生网络和相关滤波器的长短程互补型目标跟踪方法
CN111161317A (zh) * 2019-12-30 2020-05-15 北京工业大学 一种基于多重网络的单目标跟踪方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
SA-Siam++:基于双分支孪生网络的目标跟踪算法;田朗 等;《北京邮电大学学报》;第42卷(第06期);第105-109页 *
基于语义监督模板的鲁棒视觉目标跟踪算法研究;程正喜;《中国优秀硕士学位论文全文数据库》(第03期);第14-41页 *

Also Published As

Publication number Publication date
CN111951304A (zh) 2020-11-17

Similar Documents

Publication Publication Date Title
WO2021233029A1 (en) Simultaneous localization and mapping method, device, system and storage medium
CN111144364B (zh) 一种基于通道注意更新机制的孪生网络目标跟踪方法
CN112183171A (zh) 一种基于视觉信标建立信标地图方法、装置
CN113313763A (zh) 一种基于神经网络的单目相机位姿优化方法及装置
Shen et al. Localization through particle filter powered neural network estimated monocular camera poses
US20230020713A1 (en) Image processing system and method
CN111951304B (zh) 基于互监督孪生网络的目标跟踪方法、装置与设备
Keivan et al. Constant-time monocular self-calibration
Dubbelman et al. Efficient trajectory bending with applications to loop closure
CN114863201A (zh) 三维检测模型的训练方法、装置、计算机设备和存储介质
CN116630442B (zh) 一种视觉slam位姿估计精度评估方法及装置
CN116481517B (zh) 扩展建图方法、装置、计算机设备和存储介质
CN115655291B (zh) 激光slam闭环建图的方法、装置、移动机器人、设备及介质
CN115222776B (zh) 匹配辅助视觉目标跟踪方法、装置、电子设备和存储介质
CN114463429B (zh) 机器人、地图创建方法、定位方法及介质
CN117193278B (zh) 动态沿边路径生成的方法、装置、计算机设备和存储介质
CN115810030A (zh) 目标跟踪方法、装置、设备、存储介质和程序产品
Hu et al. Accurate fiducial mapping for pose estimation using manifold optimization
CN114619453B (zh) 机器人、地图构建方法及计算机可读存储介质
CN116518981B (zh) 基于深度学习匹配和卡尔曼滤波的飞行器视觉导航方法
CN115937261B (zh) 基于事件相机的空间目标运动参数测量方法
CN117433511B (zh) 一种多传感器融合定位方法
Castro et al. Consistent SLAM using Local Optimization with Virtual Prior Topologies
CN118799398A (zh) 基于三维LoD地图与神经线框对齐的视觉定位方法
An et al. Visual-LIDAR SLAM Based on Supervised Hierarchical Deep Neural Networks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant