CN113112523B - 基于无锚点孪生网络的目标跟踪方法及装置 - Google Patents

基于无锚点孪生网络的目标跟踪方法及装置 Download PDF

Info

Publication number
CN113112523B
CN113112523B CN202110328250.8A CN202110328250A CN113112523B CN 113112523 B CN113112523 B CN 113112523B CN 202110328250 A CN202110328250 A CN 202110328250A CN 113112523 B CN113112523 B CN 113112523B
Authority
CN
China
Prior art keywords
target
frame
size
heat map
target frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110328250.8A
Other languages
English (en)
Other versions
CN113112523A (zh
Inventor
钱诚
徐则中
游庆祥
赵宇航
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changzhou Institute of Technology
Original Assignee
Changzhou Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changzhou Institute of Technology filed Critical Changzhou Institute of Technology
Priority to CN202110328250.8A priority Critical patent/CN113112523B/zh
Publication of CN113112523A publication Critical patent/CN113112523A/zh
Application granted granted Critical
Publication of CN113112523B publication Critical patent/CN113112523B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种基于无锚点孪生网络的目标跟踪方法及装置,本发明引入了目标框尺寸粗估计和尺寸估计残差相结合的目标尺寸估计方法,尤其在尺寸估计残差计算方面通过采集目标框中心和中心点附近的相关图作为残差估计的输入,并以形变卷积的方式计算残差热图,这种方式能够更为鲁棒地适应目标物非刚性运动的场合。

Description

基于无锚点孪生网络的目标跟踪方法及装置
技术领域
本发明涉及数据处理技术领域,具体涉及一种基于无锚点孪生网络的目标跟踪方法、一种基于无锚点孪生网络的目标跟踪装置、一种计算机设备和一种非临时性计算机可读存储介质。
背景技术
目标跟踪根据视频第一帧中所要跟踪的目标对象,通过跟踪方法在后续每一帧中确定目标空间位置。当前,一些跟踪方法采用无锚点的孪生网络将待确定目标的图像区域与目标模板图像之间计算相似度,根据最大相似度来确定后续帧中的目标图像。该种方式极容易导致目标物尺寸的估计误差。
发明内容
本发明为解决上述技术问题,提供了一种基于无锚点孪生网络的目标跟踪方法及装置,主要目的在于通过无锚点孪生网络对目标进行精准追踪。
本发明采用的技术方案如下:
本发明第一方面实施例提出了一种基于无锚点孪生网络的目标跟踪方法,
在第一帧视频数据中指定目标跟踪框,并将所述目标跟踪框内的图像作为目标图像;
在当前视频帧中裁剪出高宽为上一帧目标跟踪框高宽预设倍数的图像区域作为当前视频帧中的目标搜索图像区域,所述目标搜索图像区域中的图像作为目标搜索图像;
将所述目标图像与目标搜索图像分别输入孪生网络的目标模板分支和目标搜索分支;
根据中心点位置估计模块输出的热图,以所述热图上的最大值所在位置作为中心点位置的初步估计值,将所述预估中心点位置根据分辨率比例映射到目标图像得到中心点位置估计值;
在中心点位置误差估计模块输出的热图上取中心点位置上的误差值,将误差值与所述位置估计值相加得到中心点的位置,以确定当前视频帧中的目标框中心点;
根据目标框尺寸估计模块的输出的热图,在目标框中心点上的值估算目标框尺寸,并根据所述目标框尺寸及所述目标框中心确定目标框,直至完成所有视频数据的目标跟踪。
根据本发明的一个实施例,在在第一帧视频数据中指定目标跟踪框之前,所述方法还包括:
从每段视频中任意选取帧数相差不大于20帧的两帧图像,以其中一帧目标为中心的矩形框为目标图像区域,其作为目标模板的原始图像输入;另一帧中围绕目标中心裁剪出大于预设倍数的目标图像区域的目标搜索图像区域;每一对目标模板图像与目标搜索区域图像构成了一个数据;
在中心点位置热图上,根据距真实中心点坐标的偏移量为热图上各点位置设置软标签,当热图上的点距真实中心点的距离越近,其为中心点的置信度越高;
根据热图的高度和宽度、热图上点位置上预测的置信度值,以及相应的软标签值计算热图上中心点位置估计的损失;
根据中心点位置误差真实值和神经网络估计的位置误差计算热图上中心点位置误差估计的损失;
计算估计值与真值之间的误差,以计算目标框尺寸的损失;
根据热图上中心点位置估计的损失、热图上中心点位置误差估计的损失以及目标框尺寸的损失构建损失函数;
利用所述损失函数根据输入的训练数据进行反向传播,调整网络参数至损失函数收敛。
根据本发明的一个实施例,所述方法还包括:
孪生网络每一支卷积神经网络都是用于提取深度特征的主干网络模块;
其中,中心点估计模块用于估计目标跟踪框的中心位置,点位置误差估计模块用于估计热图上每个点的位置误差,目标框尺寸估计模块用于输出目标框的长宽尺寸,可与中心点计算得到目标跟踪框的空间位置。
本发明第二方面实施例提出了一种基于无锚点孪生网络的目标跟踪装置,
第一确定单元,用于在第一帧视频数据中指定目标跟踪框,并将所述目标跟踪框内的图像作为目标图像;
第二确定单元,用于在当前视频帧中裁剪出高宽为上一帧目标跟踪框高宽预设倍数的图像区域作为当前视频帧中的目标搜索图像区域,所述目标搜索图像区域中的图像作为目标搜索图像;
输入单元,用于将所述目标图像与目标搜索图像分别输入孪生网络的目标模板分支和目标搜索分支;
第一处理单元,用于根据中心点位置估计模块输出的热图,以所述热图上的最大值所在位置作为中心点位置的初步估计值,将所述预估中心点位置根据分辨率比例映射到目标图像得到中心点位置估计值;
第二处理单元,用于在中心点位置误差估计模块输出的热图上取中心点位置上的误差值,将误差值与所述位置估计值相加得到中心点的位置,以确定当前视频帧中的目标框中心点;
第三处理单元,用于根据目标框尺寸估计模块的输出的热图,在目标框中心点上的值估算目标框尺寸,并根据所述目标框尺寸及所述目标框中心确定目标框,直至完成所有视频数据的目标跟踪。
根据本发明的一个实施例,在在第一帧视频数据中指定目标跟踪框之前,所述装置还包括:
第三确定单元,用于从每段视频中任意选取帧数相差不大于20帧的两帧图像,以其中一帧目标为中心的矩形框为目标图像区域,其作为目标模板的原始图像输入;另一帧中围绕目标中心裁剪出大于预设倍数的目标图像区域的目标搜索图像区域;每一对目标模板图像与目标搜索区域图像构成了一个数据;
第四处理单元,用于在中心点位置热图上,根据距真实中心点坐标的偏移量为热图上各点位置设置软标签,当热图上的点距真实中心点的距离越近,其为中心点的置信度越高;
第一计算单元,用于根据热图的高度和宽度、热图上点位置上预测的置信度值,以及相应的软标签值计算热图上中心点位置估计的损失;
第二计算单元,用于根据中心点位置误差真实值和神经网络估计的位置误差计算热图上中心点位置误差估计的损失;
第三计算单元,用于计算估计值与真值之间的误差,以计算目标框尺寸的损失;
第四计算单元,用于根据热图上中心点位置估计的损失、热图上中心点位置误差估计的损失以及目标框尺寸的损失构建损失函数;
调整单元,用于利用所述损失函数根据输入的训练数据进行反向传播,调整网络参数至损失函数收敛。
根据本发明的一个实施例,所述装置还包括:
孪生网络每一支卷积神经网络都是用于提取深度特征的主干网络模块;
其中,中心点估计模块用于估计目标跟踪框的中心位置,点位置误差估计模块用于估计热图上每个点的位置误差,目标框尺寸估计模块用于输出目标框的长宽尺寸,可与中心点计算得到目标跟踪框的空间位置。
本发明的第三方面实施例提出了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时,实现根据第一方面中任一项所述的基于无锚点孪生网络的目标跟踪方法。
本发明的第四方面实施例提出了一种非临时性计算机可读存储介质,该程序被处理器执行时实现根据第一方面中任一项所述的基于无锚点孪生网络的目标跟踪方法。
本发明的有益效果:
相比现有技术中的方法,本发明实施例引入了目标框尺寸粗估计和尺寸估计残差相结合的目标尺寸估计方法,尤其在尺寸估计残差计算方面通过采集目标框中心和中心点附近的相关图作为残差估计的输入,并以形变卷积的方式计算残差热图,这种方式能够更为鲁棒地适应目标物非刚性运动的场合。
附图说明
图1示出了本发明实施例提供的一种基于无锚点孪生网络的目标跟踪方法的流程图;
图2示出了本发明实施例提供的一种无锚点孪生网络的示意图;
图3示出了本发明实施例提供的一种训练孪生网络的方法流程图;
图4示出了本发明实施例提供的一种基于无锚点孪生网络的目标跟踪装置的组成框图;
图5示出了本发明实施例提供的另一种基于无锚点孪生网络的目标跟踪装置的组成框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例一种基于无锚点孪生网络的目标跟踪方法,如图1所示,所述方法包括:
101、在第一帧视频数据中指定目标跟踪框,并将所述目标跟踪框内的图像作为目标图像;目标跟踪框作为目标模板。
在说明本发明实施例的具体实施过程之前,先详细的说明一下本发明实施例所使用的孪生网络,如图2所示,图2示出了本发明实施例提供的一种孪生网络的示意图,孪生卷积神经网络包括中心点估计模块、点位置误差估计模块、目标框尺寸估计模块。其中,孪生网络每一支卷积神经网络都是用于提取深度特征的主干网络模块,中心点估计模块用于估计目标框的中心位置,点位置误差估计模块用于估计热图上每个点的位置误差,目标框尺寸估计模块用于输出目标框的长宽尺寸,其与中心点一起可以计算出目标框的空间位置。
孪生网络有两支卷积神经网络构成的分支,每支卷积神经网络的主干网络都采用了残差神经网络ResNet-50,为了缓解特征图分辨率随着网络深度增加而降低的问题,在ResNet-50的最后两个卷积块中舍去了下采样操作,并采用空洞卷积来扩大感受野,其中第4卷积块中的空洞率设置为2,第5卷积块中的空洞率设置为4,这两支卷积神经网络分别用于目标模板图像和目标搜索图像深度特征的提取。考虑到多层卷积神经网络所提取的特征存在较为明显的差异性,因此需要将不同层输出的特征结果进行融合,具体使用了第3卷积块、第4卷积块和第5卷积块输出的特征。
102、在当前视频帧中裁剪出高宽为上一帧目标跟踪框高宽预设倍数的图像区域作为当前视频帧中的目标搜索图像区域,所述目标搜索图像区域中的图像作为目标搜索图像;
对于每一个卷积块的输出,将目标模板的特征图(目标图像)视作为卷积核,与搜索图像的特征图(目标搜索图像)作卷积计算,获得的互相关图作为后续中心点位置估计、误差估计和中心点至边框边距估计的输入。
在实际应用中,在后续跟踪过程中,在当前帧中围绕上一帧中的目标框为中心裁剪出高和宽为上一帧目标框高和宽2倍的图像区域作为当前帧中的目标搜索图像区域。本发明实施例对预设倍数的设置不进行限定,其可根据不同应用场景进行设置。
103、将所述目标图像与目标搜索图像分别输入孪生网络的目标模板分支和目标搜索分支;
由第3卷积块、第4卷积块和第5卷积块计算所得的3个互相关图在对应通道上取平均值作为最终的互相关图。设置了3个输出分支,分别用于中心点位置估计、中心点位置误差估计和目标框尺寸估计。
104、根据中心点位置估计模块输出的热图,以所述热图上的最大值所在位置作为中心点位置的初步估计值,将所述预估中心点位置根据分辨率比例映射到目标图像得到中心点位置估计值;
中心点位置估计模块在上述所得的互相关图基础上,设置两个卷积层对相关图进行卷积,以此来估计中心点位置热图,其中第一个卷积层的卷积核为3×3尺寸卷积核,输出通道数设置为256,然后通过线性整流层输入到下一层卷积层,该卷积层具有3×3尺寸卷积核,通过该卷积层的卷积得到一个通道的中心点位置热图,热图上每个点的值表示该点为目标框中心位置的置信度。
示例性的,根据中心点位置估计模块输出的一个热图结果,以该张热图上的最大值所在位置作为中心点位置的初步估计值,将该位置根据分辨率比例s映射到原图得到中心点位置估计值。假设热图上最大值所在位置坐标为(i,j),那么映射到原图的位置估计值就为
105、在中心点位置误差估计模块输出的热图上取中心点位置上的误差值,将误差值与所述位置估计值相加得到中心点的位置,以确定当前视频帧中的目标框中心点;
呈由上述实施例,在中心点位置误差估计模块输出的热图上取中心点位置上的误差值,将误差值与位置估计值相加得到中心点的精确位置,由此确定了当前帧中的目标框。假设原图的位置估计值为那么位置补偿后的中心点坐标就为/>其中/>为神经网络估计的中心点位置误差。
106、根据目标框尺寸估计模块的输出的热图,在目标框中心点上的值估算目标框尺寸,并根据所述目标框尺寸及所述目标框中心确定目标框,直至完成所有视频数据的目标跟踪。
目标框尺寸估计模块估计热图上每个点为目标框中心点时目标框的尺寸,其由目标框尺寸粗估计模块和目标框尺寸残差估计模块组成。其中,目标框尺寸粗估计模块对互相关图使用两个卷积层卷积操作,以此得到尺寸粗估计热图。其中第一个卷积层的卷积核为3×3尺寸卷积核,输出通道设置为256个,然后通过线性整流层输入到下一层卷积层,下一层卷积层具有3×3尺寸卷积核,通过该卷积层的卷积得到两个通道的尺寸热图,第一个热图表示每个点为目标框中心点时目标框的宽度,第两个热图表示每个点为目标框中心点时目标框的高度。
目标框尺寸残差估计模块根据互相关图和粗估计的目标框尺寸进一步估计目标框尺寸的残差,以此来补偿目标框估计误差。其接收上述互相关图和目标框尺寸热图作为输入,首先设置了一个卷积层对互相关图做卷积操作,该卷积层的卷积核为3×3尺寸的卷积核,输出通道为27,其中9个通道输出可变形卷积水平方向上的位置偏移误差,9个通道输出可变形卷积垂直方向上的位置偏移误差,剩余9个通道输入sigmoid层得到卷积核上每个权值的估计值。然后这27个通道的偏移量、权值输出一起作为3×3卷积核基础上可变形卷积的输入参数,用于对互相关图进行卷积操作,将这些互相图通过线性整流层输入到后一层卷积层,该卷积层具有1×1尺寸卷积核,通过该卷积层的卷积得到两个通道的目标框尺寸残差热图,分别计算了目标框在宽度和高度值上的残差估计值。
最后,目标框尺寸估计模块的输出为目标框尺寸粗估计模块和目标框尺寸残差估计模块相应输出的热图之和,也即目标框尺寸最终估计值。
呈由上述实施例,根据目标框尺寸估计模块的输出热图在目标框中心点上的值估算目标框尺寸相应地,目标框宽度和高度就为/>根据上述确定的目标框中心和确定的目标框尺寸以此可以确定目标框。重复上述步骤(除步骤101)直到完成所有视频帧上的目标跟踪任务。
相比现有技术中的方法,本发明实施例引入了目标框尺寸粗估计和尺寸估计残差相结合的目标尺寸估计方法,尤其在尺寸估计残差计算方面通过采集目标框中心和中心点附近的相关图作为残差估计的输入,并以形变卷积的方式计算残差热图,这种方式能够更为鲁棒地适应目标物非刚性运动的场合。
作为对上述实施例的扩展,如图3所示,图3示出了本发明实施例提供的一种训练孪生网络的方法,具体包括:
201、从每段视频中任意选取帧数相差不大于20帧的两帧图像,以其中一帧目标为中心的矩形框为目标图像区域,其作为目标模板的原始图像输入;另一帧中围绕目标中心裁剪出大于预设倍数的目标图像区域的目标搜索图像区域;每一对目标模板图像与目标搜索区域图像构成了一个训练数据;
为了得到适用于目标跟踪的网络参数,需要利用训练数据来调整网络参数,使得该神经网络能够满足当前的目标跟踪任务要求,为此需要准备训练数据。训练数据选用已手工标注的目标检测图像数据集VID和YouTube-Bou ndingBoxes数据集。从每段视频中任意选取帧数相差不大于20帧的两帧图像,以其中一帧中目标为中心的矩形框为目标图像区域,假设该矩形框宽度为w,高度为h,将其缩放至127×127大小,其为目标模板的原始图像输入。另一帧中围绕目标中心裁剪出宽度为2w,高度为2h的目标搜索图像区域,随后将其缩放至255×255大小。每一对目标模板图像与目标搜索区域图像构成了一个训练数据。
202、在中心点位置热图上,根据距真实中心点坐标的偏移量为热图上各点位置设置软标签,当热图上的点距真实中心点的距离越近,其为中心点的置信度越高;
中心点位置的标签设定方面,在中心点位置热图上,按公式(1)为热图上各点位置设置软标签。
公式(1)中,(i,j)表示当前点坐标距离真实中心点坐标的偏移量,上式表示,当热图上的点距真实中心点的距离越近,其为中心点的置信度越高。当热图上的点距离真实中心点超出3σ的时候,其置信度设置为0。
203、根据热图的高度和宽度、热图上点位置上预测的置信度值,以及相应的软标签值计算热图上中心点位置估计的损失;
为了弥补卷积神经网络下采样操作所造成的定位精度损失问题,设置中心点位置误差估计模块为热图上的点位置估计与原图相应位置之间的误差o。
上式中,(x,y)表示原图上点的坐标,表示原图上点映射到热图上的坐标,s表示原图分辨率与热图分辨率的比例。
在目标框尺寸估计问题上,取目标框尺寸真值用于后续损失函数的计算。
为了调整网络参数以适应目标跟踪任务,设置相应的损失函数L为:
L=λ1·Lcls2·Loff3·Lsize (3)
上式中Lcls表示热图上中心点位置估计的损失,具体计数方式如下:
上式中H、W表示热图的高度和宽度,pij表示神经网络在热图上点位置(i,j)上预测的置信度值,yij为相应的软标签值。
204、根据中心点位置误差真实值和神经网络估计的位置误差计算热图上中心点位置误差估计的损失;
关于中心点位置误差估计,Loff表示热图上中心点位置误差估计的损失,其具体按下式进行计算:
上式SmoothL1(·,·)表示平滑L1损失函数,o和分别表示中心点位置误差真实值和神经网络估计的位置误差。
205、计算估计值与真值之间的误差,以计算目标框尺寸的损失;
在目标框尺寸估计方面,计算估计值与真值之间的误差,以此来建立关于目标框尺寸的损失函数。
上式中,(αw=lnw,βh=lnh)分别表示了关于真实目标框宽度和高度的对数转换值,表示神经网络估计得到的关于目标框宽度和高度的对数转换值。对于每一对目标模板图像和搜索图像计算该损失时,都只在热图上取目标框中心所在位置来计算损失,其它位置上的值不参与损失的计算。
206、根据热图上中心点位置估计的损失、热图上中心点位置误差估计的损失以及目标框尺寸的损失构建损失函数;
207、利用所述损失函数根据输入的训练数据进行反向传播,调整网络参数至损失函数收敛。
式(3)中,λ1、λ2、λ3分别为正数值的正则参数。最后利用式(3)的损失函数根据输入的训练数据进行反向传播,调整网络参数至损失函数收敛。
综上所述,本发明实施例将目标跟踪视作是中心点与目标框尺寸的确定问题,避免了使用预置的锚点,减少了热图的输出数量,也就降低了网络的参数数量,加快了跟踪算法的速度。
此外,相比无锚点的目标跟踪方法,本发明实施例引入了目标框尺寸粗估计和尺寸估计残差相结合的目标尺寸估计方法,尤其在尺寸估计残差计算方面通过采集目标框中心和中心点附近的相关图作为残差估计的输入,并以形变卷积的方式计算残差热图,这种方式能够更为鲁棒地适应目标物非刚性运动的场合。
与上述的基于无锚点孪生网络的目标跟踪方法相对应,本发明还提出一种基于无锚点孪生网络的目标跟踪装置。由于本发明的装置实施例与上述的方法实施例相对应,对于装置实施例中未披露的细节可参照上述的方法实施例,本发明中不再进行赘述。
本发明实施例还提供一种基于无锚点孪生网络的目标跟踪装置,其如图4所示,包括:
第一确定单元31,用于在第一帧视频数据中指定目标跟踪框,并将所述目标跟踪框内的图像作为目标图像;
第二确定单元32,用于在当前视频帧中裁剪出高宽为上一帧目标跟踪框高宽预设倍数的图像区域作为当前视频帧中的目标搜索图像区域,所述目标搜索图像区域中的图像作为目标搜索图像;
输入单元33,用于将所述目标图像与目标搜索图像分别输入孪生网络的目标模板分支和目标搜索分支;
第一处理单元34,用于根据中心点位置估计模块输出的热图,以所述热图上的最大值所在位置作为中心点位置的初步估计值,将所述预估中心点位置根据分辨率比例映射到目标图像得到中心点位置估计值;
第二处理单元35,用于在中心点位置误差估计模块输出的热图上取中心点位置上的误差值,将误差值与所述位置估计值相加得到中心点的位置,以确定当前视频帧中的目标框中心点;
第三处理单元36,用于根据目标框尺寸估计模块的输出的热图,在目标框中心点上的值估算目标框尺寸,并根据所述目标框尺寸及所述目标框中心确定目标框,直至完成所有视频数据的目标跟踪。
相比现有技术,本发明实施例引入了目标框尺寸粗估计和尺寸估计残差相结合的目标尺寸估计方法,尤其在尺寸估计残差计算方面通过采集目标框中心和中心点附近的相关图作为残差估计的输入,并以形变卷积的方式计算残差热图,这种方式能够更为鲁棒地适应目标物非刚性运动的场合。
进一步的,如图5所示,所述装置还包括:
第三确定单元37,用于在所述第一确定单元在第一帧视频数据中指定目标跟踪框之前,从每段视频中任意选取帧数相差不大于20帧的两帧图像,以其中一帧目标为中心的矩形框为目标图像区域,其作为目标模板的原始图像输入;另一帧中围绕目标中心裁剪出大于预设倍数的目标图像区域的目标搜索图像区域;每一对目标模板图像与目标搜索区域图像构成了一个数据;
第四处理单元38,用于在中心点位置热图上,根据距真实中心点坐标的偏移量为热图上各点位置设置软标签,当热图上的点距真实中心点的距离越近,其为中心点的置信度越高;
第一计算单元39,用于根据热图的高度和宽度、热图上点位置上预测的置信度值,以及相应的软标签值计算热图上中心点位置估计的损失;
第二计算单元310,用于根据中心点位置误差真实值和神经网络估计的位置误差计算热图上中心点位置误差估计的损失;
第三计算单元311,用于计算估计值与真值之间的误差,以计算目标框尺寸的损失;
第四计算单元312,用于根据热图上中心点位置估计的损失、热图上中心点位置误差估计的损失以及目标框尺寸的损失构建损失函数;
调整单元313,用于利用所述损失函数根据输入的训练数据进行反向传播,调整网络参数至损失函数收敛。
进一步的,所述装置还包括:
孪生网络每一支卷积神经网络都是用于提取深度特征的主干网络模块;
其中,中心点估计模块用于估计目标跟踪框的中心位置,点位置误差估计模块用于估计热图上每个点的位置误差,目标框尺寸估计模块用于输出目标框的长宽尺寸,可与中心点计算得到目标跟踪框的空间位置。
此外,本发明还提出一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时,实现上述的辅助谐振换流极变换器的控制方法。
根据本发明实施例的计算机设备,存储在存储器上的计算机程序被处理器运行时,在第一帧视频数据中指定目标跟踪框,并将所述目标跟踪框内的图像作为目标图像;在当前视频帧中裁剪出高宽为上一帧目标跟踪框高宽预设倍数的图像区域作为当前视频帧中的目标搜索图像区域,所述目标搜索图像区域中的图像作为目标搜索图像;将所述目标图像与目标搜索图像分别输入孪生网络的目标模板分支和目标搜索分支;根据中心点位置估计模块输出的热图,以所述热图上的最大值所在位置作为中心点位置的初步估计值,将所述预估中心点位置根据分辨率比例映射到目标图像得到中心点位置估计值;在中心点位置误差估计模块输出的热图上取中心点位置上的误差值,将误差值与所述位置估计值相加得到中心点的位置,以确定当前视频帧中的目标框中心点;根据目标框尺寸估计模块的输出的热图,在目标框中心点上的值估算目标框尺寸,并根据所述目标框尺寸及所述目标框中心确定目标框,直至完成所有视频数据的目标跟踪。引入了目标框尺寸粗估计和尺寸估计残差相结合的目标尺寸估计方法,尤其在尺寸估计残差计算方面通过采集目标框中心和中心点附近的相关图作为残差估计的输入,并以形变卷积的方式计算残差热图,这种方式能够更为鲁棒地适应目标物非刚性运动的场合。
此外,本发明还提出一种非临时性计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述的辅助谐振换流极变换器的控制方法。
根据本发明实施例的非临时性计算机可读存储介质,存储在其上的计算机程序被处理器执行时,在第一帧视频数据中指定目标跟踪框,并将所述目标跟踪框内的图像作为目标图像;在当前视频帧中裁剪出高宽为上一帧目标跟踪框高宽预设倍数的图像区域作为当前视频帧中的目标搜索图像区域,所述目标搜索图像区域中的图像作为目标搜索图像;将所述目标图像与目标搜索图像分别输入孪生网络的目标模板分支和目标搜索分支;根据中心点位置估计模块输出的热图,以所述热图上的最大值所在位置作为中心点位置的初步估计值,将所述预估中心点位置根据分辨率比例映射到目标图像得到中心点位置估计值;在中心点位置误差估计模块输出的热图上取中心点位置上的误差值,将误差值与所述位置估计值相加得到中心点的位置,以确定当前视频帧中的目标框中心点;根据目标框尺寸估计模块的输出的热图,在目标框中心点上的值估算目标框尺寸,并根据所述目标框尺寸及所述目标框中心确定目标框,直至完成所有视频数据的目标跟踪。引入了目标框尺寸粗估计和尺寸估计残差相结合的目标尺寸估计方法,尤其在尺寸估计残差计算方面通过采集目标框中心和中心点附近的相关图作为残差估计的输入,并以形变卷积的方式计算残差热图,这种方式能够更为鲁棒地适应目标物非刚性运动的场合。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必针对相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。

Claims (8)

1.一种基于无锚点孪生网络的目标跟踪方法,其特征在于,包括:
在第一帧视频数据中指定目标跟踪框,并将所述目标跟踪框内的图像作为目标图像;
在当前视频帧中裁剪出高宽为上一帧目标跟踪框高宽预设倍数的图像区域作为当前视频帧中的目标搜索图像区域,所述目标搜索图像区域中的图像作为目标搜索图像;
将所述目标图像与目标搜索图像分别输入孪生网络的目标模板分支和目标搜索分支;
根据中心点位置估计模块输出的热图,以所述热图上的最大值所在位置作为中心点位置的初步估计值,将所述初步估计值根据分辨率比例映射到目标图像得到中心点位置估计值;
在中心点位置误差估计模块输出的热图上取中心点位置上的误差值,将误差值与所述位置估计值相加得到中心点的位置,以确定当前视频帧中的目标框中心点;
根据目标框尺寸估计模块的输出的热图,在目标框中心点上的值估算目标框尺寸,并根据所述目标框尺寸及所述目标框中心确定目标框,直至完成所有视频数据的目标跟踪,
目标框尺寸估计模块估计热图上每个点为目标框中心点时目标框的尺寸,其由目标框尺寸粗估计模块和目标框尺寸残差估计模块组成,
其中,目标框尺寸粗估计模块对互相关图使用两个卷积层卷积操作,以此得到尺寸粗估计热图,其中第一个卷积层的卷积核为3×3尺寸卷积核,输出通道设置为256个,然后通过线性整流层输入到下一层卷积层,下一层卷积层具有3×3尺寸卷积核,通过该卷积层的卷积得到两个通道的尺寸热图,第一个热图表示每个点为目标框中心点时目标框的宽度,第二个热图表示每个点为目标框中心点时目标框的高度,
目标框尺寸残差估计模块根据互相关图和粗估计的目标框尺寸进一步估计目标框尺寸的残差,以此来补偿目标框估计误差,其接收上述互相关图和目标框尺寸热图作为输入,首先设置一个卷积层对互相关图做卷积操作,该卷积层的卷积核为3×3尺寸的卷积核,输出通道为27,其中9个通道输出可变形卷积水平方向上的位置偏移误差,9个通道输出可变形卷积垂直方向上的位置偏移误差,剩余9个通道输入sigmoid层得到卷积核上每个权值的估计值,然后这27个通道的偏移量、权值输出一起作为3×3卷积核基础上可变形卷积的输入参数,用于对互相关图进行卷积操作,将这些互相图通过线性整流层输入到后一层卷积层,该卷积层具有1×1尺寸卷积核,通过该卷积层的卷积得到两个通道的目标框尺寸残差热图,分别计算了目标框在宽度和高度值上的残差估计值,
目标框尺寸估计模块的输出为目标框尺寸粗估计模块和目标框尺寸残差估计模块相应输出的热图之和,也即目标框尺寸最终估计值。
2.根据权利要求1所述的基于无锚点孪生网络的目标跟踪方法,其特征在于,在在第一帧视频数据中指定目标跟踪框之前,所述方法还包括:
从每段视频中任意选取帧数相差不大于20帧的两帧图像,以其中一帧目标为中心的矩形框为目标图像区域,其作为目标模板的原始图像输入;另一帧中围绕目标中心裁剪出大于预设倍数的目标图像区域的目标搜索图像区域;每一对目标模板图像与目标搜索区域图像构成了一个数据;
在中心点位置热图上,根据距真实中心点坐标的偏移量为热图上各点位置设置软标签,当热图上的点距真实中心点的距离越近,其为中心点的置信度越高;
根据热图的高度和宽度、热图上点位置上预测的置信度值,以及相应的软标签值计算热图上中心点位置估计的损失;
根据中心点位置误差真实值和神经网络估计的位置误差计算热图上中心点位置误差估计的损失;
计算估计值与真值之间的误差,以计算目标框尺寸的损失;
根据热图上中心点位置估计的损失、热图上中心点位置误差估计的损失以及目标框尺寸的损失构建损失函数;
利用所述损失函数根据输入的训练数据进行反向传播,调整网络参数至损失函数收敛。
3.根据权利要求2所述的基于无锚点孪生网络的目标跟踪方法,其特征在于,所述方法还包括:
孪生网络每一支卷积神经网络都是用于提取深度特征的主干网络模块;
其中,中心点估计模块用于估计目标跟踪框的中心位置,点位置误差估计模块用于估计热图上每个点的位置误差,目标框尺寸估计模块用于输出目标框的长宽尺寸,可与中心点计算得到目标跟踪框的空间位置。
4.一种基于无锚点孪生网络的目标跟踪装置,其特征在于,包括:
第一确定单元,用于在第一帧视频数据中指定目标跟踪框,并将所述目标跟踪框内的图像作为目标图像;
第二确定单元,用于在当前视频帧中裁剪出高宽为上一帧目标跟踪框高宽预设倍数的图像区域作为当前视频帧中的目标搜索图像区域,所述目标搜索图像区域中的图像作为目标搜索图像;
输入单元,用于将所述目标图像与目标搜索图像分别输入孪生网络的目标模板分支和目标搜索分支;
第一处理单元,用于根据中心点位置估计模块输出的热图,以所述热图上的最大值所在位置作为中心点位置的初步估计值,将所述初步估计值根据分辨率比例映射到目标图像得到中心点位置估计值;
第二处理单元,用于在中心点位置误差估计模块输出的热图上取中心点位置上的误差值,将误差值与所述位置估计值相加得到中心点的位置,以确定当前视频帧中的目标框中心点;
第三处理单元,用于根据目标框尺寸估计模块的输出的热图,在目标框中心点上的值估算目标框尺寸,并根据所述目标框尺寸及所述目标框中心确定目标框,直至完成所有视频数据的目标跟踪,
目标框尺寸估计模块估计热图上每个点为目标框中心点时目标框的尺寸,其由目标框尺寸粗估计模块和目标框尺寸残差估计模块组成,
其中,目标框尺寸粗估计模块对互相关图使用两个卷积层卷积操作,以此得到尺寸粗估计热图,其中第一个卷积层的卷积核为3×3尺寸卷积核,输出通道设置为256个,然后通过线性整流层输入到下一层卷积层,下一层卷积层具有3×3尺寸卷积核,通过该卷积层的卷积得到两个通道的尺寸热图,第一个热图表示每个点为目标框中心点时目标框的宽度,第二个热图表示每个点为目标框中心点时目标框的高度,
目标框尺寸残差估计模块根据互相关图和粗估计的目标框尺寸进一步估计目标框尺寸的残差,以此来补偿目标框估计误差,其接收上述互相关图和目标框尺寸热图作为输入,首先设置一个卷积层对互相关图做卷积操作,该卷积层的卷积核为3×3尺寸的卷积核,输出通道为27,其中9个通道输出可变形卷积水平方向上的位置偏移误差,9个通道输出可变形卷积垂直方向上的位置偏移误差,剩余9个通道输入sigmoid层得到卷积核上每个权值的估计值,然后这27个通道的偏移量、权值输出一起作为3×3卷积核基础上可变形卷积的输入参数,用于对互相关图进行卷积操作,将这些互相图通过线性整流层输入到后一层卷积层,该卷积层具有1×1尺寸卷积核,通过该卷积层的卷积得到两个通道的目标框尺寸残差热图,分别计算了目标框在宽度和高度值上的残差估计值,
目标框尺寸估计模块的输出为目标框尺寸粗估计模块和目标框尺寸残差估计模块相应输出的热图之和,也即目标框尺寸最终估计值。
5.根据权利要求4所述的基于无锚点孪生网络的目标跟踪装置,其特征在于,在在第一帧视频数据中指定目标跟踪框之前,所述装置还包括:
第三确定单元,用于从每段视频中任意选取帧数相差不大于20帧的两帧图像,以其中一帧目标为中心的矩形框为目标图像区域,其作为目标模板的原始图像输入;另一帧中围绕目标中心裁剪出大于预设倍数的目标图像区域的目标搜索图像区域;每一对目标模板图像与目标搜索区域图像构成了一个数据;
第四处理单元,用于在中心点位置热图上,根据距真实中心点坐标的偏移量为热图上各点位置设置软标签,当热图上的点距真实中心点的距离越近,其为中心点的置信度越高;
第一计算单元,用于根据热图的高度和宽度、热图上点位置上预测的置信度值,以及相应的软标签值计算热图上中心点位置估计的损失;
第二计算单元,用于根据中心点位置误差真实值和神经网络估计的位置误差计算热图上中心点位置误差估计的损失;
第三计算单元,用于计算估计值与真值之间的误差,以计算目标框尺寸的损失;
第四计算单元,用于根据热图上中心点位置估计的损失、热图上中心点位置误差估计的损失以及目标框尺寸的损失构建损失函数;
调整单元,用于利用所述损失函数根据输入的训练数据进行反向传播,调整网络参数至损失函数收敛。
6.根据权利要求5所述的基于无锚点孪生网络的目标跟踪装置,其特征在于,所述装置还包括:
孪生网络每一支卷积神经网络都是用于提取深度特征的主干网络模块;
其中,中心点估计模块用于估计目标跟踪框的中心位置,点位置误差估计模块用于估计热图上每个点的位置误差,目标框尺寸估计模块用于输出目标框的长宽尺寸,可与中心点计算得到目标跟踪框的空间位置。
7.一种计算机设备,其特征在于,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时,实现根据权利要求1至3中任一项所述的基于无锚点孪生网络的目标跟踪方法。
8.非临时性计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现根据权利要求1至3中任一项所述的基于无锚点孪生网络的目标跟踪方法。
CN202110328250.8A 2021-03-26 2021-03-26 基于无锚点孪生网络的目标跟踪方法及装置 Active CN113112523B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110328250.8A CN113112523B (zh) 2021-03-26 2021-03-26 基于无锚点孪生网络的目标跟踪方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110328250.8A CN113112523B (zh) 2021-03-26 2021-03-26 基于无锚点孪生网络的目标跟踪方法及装置

Publications (2)

Publication Number Publication Date
CN113112523A CN113112523A (zh) 2021-07-13
CN113112523B true CN113112523B (zh) 2024-04-26

Family

ID=76712408

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110328250.8A Active CN113112523B (zh) 2021-03-26 2021-03-26 基于无锚点孪生网络的目标跟踪方法及装置

Country Status (1)

Country Link
CN (1) CN113112523B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117911680A (zh) * 2024-03-19 2024-04-19 魔视智能科技(武汉)有限公司 目标跟踪方法、装置、设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107818575A (zh) * 2017-10-27 2018-03-20 深圳市唯特视科技有限公司 一种基于分层卷积的视觉对象跟踪方法
CN108876816A (zh) * 2018-05-31 2018-11-23 西安电子科技大学 基于自适应目标响应的目标跟踪方法
CN109255304A (zh) * 2018-08-17 2019-01-22 西安电子科技大学 基于分布场特征的目标跟踪方法
CN112365523A (zh) * 2020-11-05 2021-02-12 常州工学院 基于无锚点孪生网络关键点检测的目标跟踪方法及装置
CN112508996A (zh) * 2020-09-05 2021-03-16 常州工学院 无锚点孪生网络角点生成的目标跟踪方法及装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108027972B (zh) * 2015-07-30 2022-03-15 北京市商汤科技开发有限公司 用于对象跟踪的系统和方法
US10970871B2 (en) * 2018-09-07 2021-04-06 Huawei Technologies Co., Ltd. Estimating two-dimensional object bounding box information based on bird's-eye view point cloud

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107818575A (zh) * 2017-10-27 2018-03-20 深圳市唯特视科技有限公司 一种基于分层卷积的视觉对象跟踪方法
CN108876816A (zh) * 2018-05-31 2018-11-23 西安电子科技大学 基于自适应目标响应的目标跟踪方法
CN109255304A (zh) * 2018-08-17 2019-01-22 西安电子科技大学 基于分布场特征的目标跟踪方法
CN112508996A (zh) * 2020-09-05 2021-03-16 常州工学院 无锚点孪生网络角点生成的目标跟踪方法及装置
CN112365523A (zh) * 2020-11-05 2021-02-12 常州工学院 基于无锚点孪生网络关键点检测的目标跟踪方法及装置

Also Published As

Publication number Publication date
CN113112523A (zh) 2021-07-13

Similar Documents

Publication Publication Date Title
CN114782691B (zh) 基于深度学习的机器人目标识别与运动检测方法、存储介质及设备
CN109064514B (zh) 一种基于投影点坐标回归的六自由度位姿估计方法
CN111144364B (zh) 一种基于通道注意更新机制的孪生网络目标跟踪方法
CN110796010A (zh) 一种结合光流法和卡尔曼滤波的视频稳像方法
CN111951201B (zh) 一种无人机航拍图像拼接方法、装置和存储介质
CN106952304B (zh) 一种利用视频序列帧间相关性的深度图像计算方法
WO2015014111A1 (zh) 一种光流跟踪方法和装置
CN111914878B (zh) 特征点跟踪训练及跟踪方法、装置、电子设备及存储介质
CN110533724B (zh) 基于深度学习和注意力机制的单目视觉里程计的计算方法
CN112183675B (zh) 一种基于孪生网络的针对低分辨率目标的跟踪方法
US11985421B2 (en) Device and method for predicted autofocus on an object
CN113112523B (zh) 基于无锚点孪生网络的目标跟踪方法及装置
CN114565668A (zh) 即时定位与建图方法及装置
CN111931685A (zh) 一种基于双向跟踪策略的视频卫星移动目标检测方法
CN113129345A (zh) 一种基于多特征图融合和多尺度膨胀卷积的目标跟踪方法
CN114926498B (zh) 一种基于时空约束与可学习特征匹配的快速目标跟踪方法
CN113643329B (zh) 一种基于孪生注意力网络的在线更新目标跟踪方法和系统
CN113888629A (zh) 一种基于rgbd相机的快速物体三维位姿估计方法
WO2024051591A1 (zh) 用于估算视频旋转的方法、装置、电子设备和存储介质
CN111179327B (zh) 一种深度图的计算方法
CN113112547A (zh) 机器人及其重定位方法、定位装置及存储介质
CN112508996A (zh) 无锚点孪生网络角点生成的目标跟踪方法及装置
CN117392268A (zh) 一种基于自适应结合cpd和icp算法的激光扫描建图方法及系统
CN114608522B (zh) 一种基于视觉的障碍物识别与测距方法
CN115908485A (zh) 一种面向太空中非合作目标的实时位姿跟踪方法及其系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant