CN111091582A - 一种基于深度神经网络的单视觉目标跟踪算法及系统 - Google Patents

一种基于深度神经网络的单视觉目标跟踪算法及系统 Download PDF

Info

Publication number
CN111091582A
CN111091582A CN201911410647.0A CN201911410647A CN111091582A CN 111091582 A CN111091582 A CN 111091582A CN 201911410647 A CN201911410647 A CN 201911410647A CN 111091582 A CN111091582 A CN 111091582A
Authority
CN
China
Prior art keywords
target
frame
sample image
size
search area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911410647.0A
Other languages
English (en)
Inventor
许廷发
殷钰莹
郭倩玉
吴凡
吴零越
张语珊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Technology BIT
Chongqing Innovation Center of Beijing University of Technology
Original Assignee
Beijing Institute of Technology BIT
Chongqing Innovation Center of Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Technology BIT, Chongqing Innovation Center of Beijing University of Technology filed Critical Beijing Institute of Technology BIT
Priority to CN201911410647.0A priority Critical patent/CN111091582A/zh
Publication of CN111091582A publication Critical patent/CN111091582A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及视觉目标跟踪领域,公开了一种基于深度神经网络的单视觉目标跟踪算法及系统;其基本原理为:由图像序列中首帧指定跟踪目标,在后续帧中,采用同一卷积网络提取目标特征与待搜索区域特征,进行卷积和前景‑背景区分网络获得目标位置,通过回归获得目标框的宽度和高度,从而获得目标所在的区域框;当跟踪目标的置信值低于一定程度时,认为可能出现目标丢失等问题,采取重搜索策略进行重新搜索,以保证目标的跟踪效果。对于不同尺寸的目标,将其尺寸输入尺寸调节模块,从而根据目标大小动态调节样本裁剪大小;以保证模板能够适应不同尺寸、不同运动特点的目标,提高跟踪性能。

Description

一种基于深度神经网络的单视觉目标跟踪算法及系统
技术领域
本发明涉及视觉目标跟踪领域,特别涉及一种基于深度神经网络的单视觉目标跟踪算法及系统。
背景技术
目标跟踪是计算机视觉领域的重要研究内容,其在军事、工业等方面有广泛应用。目标跟踪的主要目标是能够准确、实时地获取指定目标的特征并在一段视频或图像序列中跟随指定目标。目标跟踪技术在军事领域、智能监控等领域有广泛应用,在侦查、监控等方面发挥了重要作用。
目前较为普遍的目标跟踪方法包括校早年出现的相关滤波和近年出现的深度学习两大类。其中,深度学习算法采用深度神经网络进行目标特征的提取和匹配,在准确度和速度方面都有所提升。当前性能较为突出的算法之一为SiamRPN,其结合了深度网络的特征提取能力和目标检测的目标检测能力,在速度和准确度方面都有良好的表现。
基于孪生网络的目标跟踪算法,其基本原理为:由第一帧指定跟踪目标后,将指定的目标裁剪为指定大小,作为样本Z,对于待跟踪的一帧(目标帧),首先裁剪出目标可能存在的区域X,将Z和X经由同一特征提取网络,获得Z和X的特征,将Z和X的特征进行卷积获得目标响应图,由响应图最大位置确定目标中心位置;目标框的尺寸确定可由目标分割、多尺度测试或回归计算得出。
然而该算法对于不同的图像序列,总是以固定大小裁剪样本帧,对于不同场景、不同尺寸的目标而言,其适应能力较差;较为固定的待搜索区域使得目标在快速运动时容易丢失,而在场景内出现类似目标时更容易进行错误的跟踪。若能改进样本和待搜索区域的裁剪策略,就能够适应不同尺寸、不同运动速度的物体,充分利用目标的运动特征,其结果将大大提高。
发明内容
本发明所要解决的技术问题是:针对上述存在的问题,提供了一种基于模板优化、动态搜索范围和重搜索的跟踪算法,以增强算法对不同跟踪任务的适应能力,增强算法的精确度和鲁棒性。
本发明采用的技术方案如下:一种基于深度神经网络的单视觉目标跟踪算法,包括:
S1:在原始图像序列首帧指定跟踪目标后,根据指定目标的尺寸占原始图像总画面的比例,对原始图像首帧进行裁剪,获取样本图像;
S2:根据目标当前帧的运动速度,动态调整目标的搜索区域,裁剪出目标搜索区域;
S3:提取样本图像和目标搜索区域的特征;
S4:根据提取的样本图像特征和目标搜索区域特征,确定目标的中心位置;
S5:根据提取的样本图像特征和目标搜索区域特征,确定目标的尺寸;
S6:监督目标与样本图像的匹配程度,若目标与样本图像不匹配,则进行重新搜索。
进一步的,所述S1中,对首帧进行裁剪的具体方法包括:
设目标为(x1,y1,w,h),原始图像大小为(xo,yo),样本图像的裁剪大小计算由下式得出:
Figure BDA0002349874640000021
Figure BDA0002349874640000022
其中,x1,y1表示目标中心点坐标,w表示目标的宽度,h表示目标的高度;
μ表示目标的尺寸占原始图像大小的比例,Sz表示裁剪后的样本图像大小,Z表示样本图像。
进一步的,所述样本图像的裁剪大小超出样本图像的固定尺寸时,对裁剪后的样本图像大小压缩至127*127像素;所述样本图像的裁剪大小不足样本图像的固定尺寸时,对裁剪后的样本图像大小补偿至127*127像素。
进一步的,所述S2具体包括:
S21:设目标当前帧为第t帧,目标的搜索区域由第t-2帧至t-1帧的运动情况决定,目标在t-1帧的位置为(xt-1,yt-1),由t-2帧运动至t-1帧时的位移为(tx,ty),则动态搜索区域窗表示为:
Figure BDA0002349874640000023
S22:裁剪待搜索的目标区域Xori
S23:将动态搜索区域窗Xmask和待搜索的目标区域进行卷积Xori,得到最终的目标搜索区域X并进行裁剪,所述目标搜索区域X的计算公式如下:
X=Xori*Xmask
进一步的,所述S3中,采用孪生网络提取样本图像和目标搜索区域的特征,所述孪生网络采用两支结构、权重、参数完全相同的网络组成,所述采用的两支网络的网络结构为深度卷积神经网络Alexnet,所述样本图像和目标搜索区域分别经孪生网络的两支神经网络Alexnet进行卷积提取特征。
进一步的,所述S4中,具体包括:
S41:样本图像特征和目标搜索区域特征进行滑动卷积获得响应图;
S42:通过Softmax方法处理响应图,获得目标的中心位置。
进一步的,所述S5中,通过采用锚点回归法确认目标的尺寸。
进一步的,所述步骤S6具体步骤为:
S61:求取第t帧的期望响应值:
Figure BDA0002349874640000031
其中,ε为参考系数,k为参考帧数,Resi为第i帧的最大响应值;
S62:若待检测帧中检测到的目标响应值与期望相应值不匹配,则认为目标出现错误跟踪或者丢失,重新进行特征比对;
S63:若特征比对成功,则确认目标为待跟踪目标;若特征比对失败,则认为目标跟踪失败,扩大搜索范围重新搜索。
一种基于深度神经网络的单视觉目标跟踪系统,包括:样本动态裁剪层、目标动态裁剪层、特征提取网络、前景-背景区分网络、目标框回归网络和重搜索机;
所述样本动态裁剪层在原始图像序列首帧指定跟踪目标后,根据指定目标的尺寸占原始图像总画面的比例,对原始图像首帧进行裁剪,获取样本图像;
所述目标动态裁剪层根据目标当前帧的运动速度,动态调整目标的搜索区域,裁剪出目标搜索区域;
所述特征提取网络,用于样本图像和目标搜索区域的特征提取;
所述前景-背景区分网络,用于确定目标的中心位置;
所述目标框回归网络,用于确定目标的尺寸;
所述重搜索机,用于监督目标与样本图像的匹配程度,并在目标与样本图像不匹配时进行重新搜索,以保证长时间跟踪过程中的准确性。
与现有技术相比,采用上述技术方案的有益效果为:
(1)动态样本裁剪机制有助于灵活适应大目标、小目标的不同跟踪需求,提高跟踪算法的自适应性;
(2)动态搜索区域机制有助于灵活选择目标搜索范围,减少目标附近的干扰,提高跟踪的精确度;
(3)重搜索机制能够较大程度地降低目标偶然丢失带来的跟随错误、后续无法自动找到目标的问题,使得跟踪算法的鲁棒性得以加强。
附图说明
图1是本方法的流程示意图。
具体实施方式
下面结合附图对本发明做进一步描述。
实施例1
如图1所示,本发明构建了一种基于深度神经网络的孪生网络跟踪算法,其基本思想是:通过目标的尺寸和运动特征,自适应地裁剪目标样本图像和每一帧的目标搜索区域;利用孪生网络提取样本和目标搜索区域的深度特征;通过深度特征的卷积、回归确定目标的位置和尺寸,即确定目标在待跟踪帧内的位置;通过重搜索机判别目标是否丢失,并在丢失时扩大搜索范围重新进行搜索。
实现样本图像帧自适应裁剪的具体方法为:
给定首帧的目标框(x1,y1,w,h)和样本图像大小(xo,yo),样本区域的裁剪大小计算可由下式得出:
Figure BDA0002349874640000041
Figure BDA0002349874640000042
该方法裁剪后,由于不同序列的目标尺寸不一,并不适合直接送入特征提取网络,对于超出样本固定尺寸的裁剪区域,对裁剪区域进行压缩,至127*127像素大小,对于不足样本固定尺寸的裁剪区域,对裁剪区域进行补偿,至127*127像素大小,127*127像素大小的裁剪图像作为特征提取所使用的样本图像,记为Z。
如图1所示,动态搜索区域的裁剪基于目标在当前帧的前几帧所表现出的运动速度,即对于待检测的第t帧而言,其搜索区域由目标由第t-2帧至t-1帧的运动情况决定,设目标在t-1帧的位置为(xt-1,yt-1),由t-2帧运动至t-1帧时的位移为(tx,ty),则动态搜索区域窗可表示为:
Figure BDA0002349874640000043
Xmask描述了第t帧时目标较大可能出现的区域,在进行卷积时,该部分具有较大的权重。
裁剪待搜索的区域Xori,最终用于目标搜索的区域X表示为:
X=Xori*Xmask
实现目标特征提取的部分为孪生网络。孪生网络由两支结构、权重、参数完全相同的网络组成,这里采用的网络结构为深度卷积神经网络Alexnet。Alexnet深度为5层,提取过程中,样本图像和目标搜索区域分别经孪生网络的两支神经网络Alexnet进行卷积获得深度特征。记提取到的样本图像特征为
Figure BDA0002349874640000051
目标搜索区域特征为
Figure BDA0002349874640000052
Figure BDA0002349874640000053
Figure BDA0002349874640000054
取得样本图像特征和目标搜索区域特征后,计算目标的中心位置和尺寸大小。
关于目标的中心位置的计算,通过前景-背景区分网络,对样本特征和搜索区域特征进行滑动卷积,获得响应图:
f(z,x)=featureX*featureZ+b1
在本方法中,采用2k幅响应图并使用Softmax方法获取每对响应图中具有更高置信度的一幅视为目标存在的响应图,即每个像素位置存在k个认为是目标的响应点,以获取更加准确的结果:
Figure BDA0002349874640000055
响应最大处记为
Figure BDA0002349874640000056
认为Q是目标在响应图中所表现的位置。
关于目标尺寸的计算,通过目标框回归网络,采用锚点回归法。即在每个像素位置有一组锚点,每组锚点有k个,总的锚点由下式卷积获得:
Figure BDA0002349874640000057
在位置预测网络确定了目标位置后,目标预测框随之对应,即:
Figure BDA0002349874640000058
这是一个原始的不太准确的目标框,接下来我们需要根据回归结果,通过
Figure BDA0002349874640000059
对其进行微调,即
Figure BDA00023498746400000510
其中
Figure BDA00023498746400000511
Figure BDA00023498746400000512
基于此,目标尺寸可通过如下公式计算得到:
Figure BDA0002349874640000061
Figure BDA0002349874640000062
Figure BDA0002349874640000063
Figure BDA0002349874640000064
通过重搜索机记录目标在一段时间内的跟踪表现,并以此判定下一帧的目标是否为正确目标。对于待检测帧的前几帧目标,通常认为它们有着正确的跟踪结果,因此,对于第t帧的期望响应值,有
Figure BDA0002349874640000065
ε为参考系数,k为参考帧数,Resi为第i帧的最大响应值;
将该值作为待检测帧响应值的参考值,特征作为待检测帧的参考特征。若待检测帧中检测到的目标响应值与参考值差距较大,则认为目标有可能出现错误跟踪或丢失,此时马上进行特征比对:
Figure BDA0002349874640000066
只有当比对结果Resf大于特定阈值时,认为目标为待跟踪目标;如特征比对失败,则认为目标跟踪失败,扩大搜索范围进行重新搜索。当在一定区域内无法搜索到一个认为可信的目标时,认为目标暂时消失,将回到上一帧的检测位置,等待目标出现。
本发明还提出了一种基于深度神经网络的单视觉目标跟踪系统,包括:样本动态裁剪层、目标动态裁剪层、特征提取网络、前景-背景区分网络、目标框回归网络和重搜索机;
所述样本动态裁剪层在原始图像序列首帧指定跟踪目标后,根据指定目标的尺寸占原始图像总画面的比例,对原始图像首帧进行裁剪,获取样本图像;
所述目标动态裁剪层根据目标当前帧的运动速度,动态调整目标的搜索区域,裁剪出目标搜索区域;
所述特征提取网络,用于样本图像和目标搜索区域的特征提取;
所述前景-背景区分网络,用于确定目标的中心位置;
所述目标框回归网络,用于确定目标的尺寸;
所述重搜索机,用于监督目标与样本图像的匹配程度,并在目标与样本图像不匹配时进行重新搜索,以保证长时间跟踪过程中的准确性。
本发明并不局限于前述的具体实施方式。本发明扩展到任何在本说明书中披露的新特征或任何新的组合,以及披露的任一新的方法或过程的步骤或任何新的组合。如果本领域技术人员,在不脱离本发明的精神所做的非实质性改变或改进,都应该属于本发明权利要求保护的范围。

Claims (9)

1.一种基于深度神经网络的单视觉目标跟踪算法,其特征在于,包括:
S1:在原始图像序列首帧指定跟踪目标后,根据指定目标的尺寸占原始图像总画面的比例,对原始图像首帧进行裁剪,获取样本图像;
S2:根据目标当前帧的运动速度,动态调整目标的搜索区域,裁剪出目标搜索区域;
S3:提取样本图像和目标搜索区域的特征;
S4:根据提取的样本图像特征和目标搜索区域特征,确定目标的中心位置;
S5:根据提取的样本图像特征和目标搜索区域特征,确定目标的尺寸;
S6:监督目标与样本图像的匹配程度,若目标与样本图像不匹配,则进行重新搜索。
2.根据权利要求1所述的一种基于深度神经网络的单视觉目标跟踪算法,其特征在于,所述S1中,对首帧进行裁剪的具体方法包括:
设目标为(x1,y1,w,h),原始图像大小为(xo,yo),样本图像的裁剪大小计算由下式得出:
Figure FDA0002349874630000011
Figure FDA0002349874630000012
其中,x1,y1表示目标中心点坐标,w表示目标的宽度,h表示目标的高度;
μ表示目标的尺寸占原始图像大小的比例,Sz表示裁剪后的样本图像大小,Z表示样本图像。
3.根据权利要求2所述的一种基于深度神经网络的单视觉目标跟踪算法,其特征在于,所述样本图像的裁剪大小超出样本图像的固定尺寸时,对裁剪后的样本图像大小压缩至127*127像素;所述样本图像的裁剪大小不足样本图像的固定尺寸时,对裁剪后的样本图像大小补偿至127*127像素。
4.根据权利要求1或3所述的一种基于深度神经网络的单视觉目标跟踪算法,其特征在于,所述S2具体包括:
S21:设目标当前帧为第t帧,目标的搜索区域由第t-2帧至t-1帧的运动情况决定,目标在t-1帧的位置为(xt-1,yt-1),由t-2帧运动至t-1帧时的位移为(tx,ty),则动态搜索区域窗表示为:
Figure FDA0002349874630000013
S22:裁剪待搜索的目标区域Xori
S23:将动态搜索区域窗Xmask和待搜索的目标区域Xori进行卷积,得到最终的目标搜索区域X并进行裁剪,所述目标搜索区域X的计算公式如下:
X=Xori*Xmask
5.根据权利要求1所述的一种基于深度神经网络的单视觉目标跟踪算法,其特征在于,所述S3中,采用孪生网络提取样本图像和目标搜索区域的特征,所述孪生网络采用两支结构、权重、参数完全相同的网络组成,所述采用的两支网络的网络结构为深度卷积神经网络Alexnet,所述样本图像和目标搜索区域分别经孪生网络的两支神经网络Alexnet进行卷积提取特征。
6.根据权利要求1或5所述的一种基于深度神经网络的单视觉目标跟踪算法,其特征在于,所述S4中,具体包括:
S41:样本图像特征和目标搜索区域特征进行滑动卷积获得响应图;
S42:通过Softmax方法处理响应图,获得目标的中心位置。
7.根据权利要求1或5所述的一种基于深度神经网络的单视觉目标跟踪算法,其特征在于,所述S5中,通过采用锚点回归法确认目标的尺寸。
8.根据权利要求1、3、5任一所述的一种基于深度神经网络的单视觉目标跟踪算法,其特征在于,所述步骤S6具体步骤为:
S61:求取第t帧的期望响应值:
Figure FDA0002349874630000021
其中,ε为参考系数,k为参考帧数,Resi为第i帧的最大响应值;
S62:若待检测帧中检测到的目标响应值与期望相应值不匹配,则认为目标出现错误跟踪或者丢失,重新进行特征比对;
S63:若特征比对成功,则确认目标为待跟踪目标;若特征比对失败,则认为目标跟踪失败,扩大搜索范围重新搜索。
9.一种基于深度神经网络的单视觉目标跟踪系统,其特征在于,包括:样本动态裁剪层、目标动态裁剪层、特征提取网络、前景-背景区分网络、目标框回归网络和重搜索机;
所述样本动态裁剪层在原始图像序列首帧指定跟踪目标后,根据指定目标的尺寸占原始图像总画面的比例,对原始图像首帧进行裁剪,获取样本图像;
所述目标动态裁剪层根据目标当前帧的运动速度,动态调整目标的搜索区域,裁剪出目标搜索区域;
所述特征提取网络,用于样本图像和目标搜索区域的特征提取;
所述前景-背景区分网络,用于确定目标的中心位置;
所述目标框回归网络,用于确定目标的尺寸;
所述重搜索机,用于监督目标与样本图像的匹配程度,并在目标与样本图像不匹配时进行重新搜索,以保证长时间跟踪过程中的准确性。
CN201911410647.0A 2019-12-31 2019-12-31 一种基于深度神经网络的单视觉目标跟踪算法及系统 Pending CN111091582A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911410647.0A CN111091582A (zh) 2019-12-31 2019-12-31 一种基于深度神经网络的单视觉目标跟踪算法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911410647.0A CN111091582A (zh) 2019-12-31 2019-12-31 一种基于深度神经网络的单视觉目标跟踪算法及系统

Publications (1)

Publication Number Publication Date
CN111091582A true CN111091582A (zh) 2020-05-01

Family

ID=70397815

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911410647.0A Pending CN111091582A (zh) 2019-12-31 2019-12-31 一种基于深度神经网络的单视觉目标跟踪算法及系统

Country Status (1)

Country Link
CN (1) CN111091582A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111696136A (zh) * 2020-06-09 2020-09-22 电子科技大学 一种基于编解码结构的目标跟踪方法
CN111723769A (zh) * 2020-06-30 2020-09-29 北京百度网讯科技有限公司 用于处理图像的方法、装置、设备以及存储介质
CN111862160A (zh) * 2020-07-23 2020-10-30 中国兵器装备集团自动化研究所 一种基于arm平台的目标跟踪方法、介质和系统
CN113327271A (zh) * 2021-05-28 2021-08-31 北京理工大学重庆创新中心 基于双光孪生网络决策级目标跟踪方法、系统及存储介质
WO2023284632A1 (zh) * 2021-07-12 2023-01-19 维沃移动通信有限公司 图像展示方法、装置及电子设备

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109191491A (zh) * 2018-08-03 2019-01-11 华中科技大学 基于多层特征融合的全卷积孪生网络的目标跟踪方法及系统
CN109376677A (zh) * 2018-11-02 2019-02-22 深圳龙岗智能视听研究院 一种基于外形-运动双流信息融合的视频行为检测方法
CN110070562A (zh) * 2019-04-02 2019-07-30 西北工业大学 一种上下文相关的深度目标跟踪方法
CN110136166A (zh) * 2019-04-09 2019-08-16 深圳锐取信息技术股份有限公司 一种多路画面的自动跟踪方法
CN110443827A (zh) * 2019-07-22 2019-11-12 浙江大学 一种基于改进孪生网络的无人机视频单目标长期跟踪方法
CN110570458A (zh) * 2019-08-12 2019-12-13 武汉大学 一种基于内部裁剪和多层特征信息融合的目标跟踪方法
CN110580712A (zh) * 2019-08-27 2019-12-17 江南大学 一种使用运动信息与时序信息的改进CFNet视频目标追踪方法
CN114266805A (zh) * 2021-12-31 2022-04-01 西南石油大学 一种用于无人机目标跟踪的孪生区域建议网络模型

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109191491A (zh) * 2018-08-03 2019-01-11 华中科技大学 基于多层特征融合的全卷积孪生网络的目标跟踪方法及系统
CN109376677A (zh) * 2018-11-02 2019-02-22 深圳龙岗智能视听研究院 一种基于外形-运动双流信息融合的视频行为检测方法
CN110070562A (zh) * 2019-04-02 2019-07-30 西北工业大学 一种上下文相关的深度目标跟踪方法
CN110136166A (zh) * 2019-04-09 2019-08-16 深圳锐取信息技术股份有限公司 一种多路画面的自动跟踪方法
CN110443827A (zh) * 2019-07-22 2019-11-12 浙江大学 一种基于改进孪生网络的无人机视频单目标长期跟踪方法
CN110570458A (zh) * 2019-08-12 2019-12-13 武汉大学 一种基于内部裁剪和多层特征信息融合的目标跟踪方法
CN110580712A (zh) * 2019-08-27 2019-12-17 江南大学 一种使用运动信息与时序信息的改进CFNet视频目标追踪方法
CN114266805A (zh) * 2021-12-31 2022-04-01 西南石油大学 一种用于无人机目标跟踪的孪生区域建议网络模型

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
闫辉等: "多特征融合匹配的多目标跟踪", 《中国光学》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111696136A (zh) * 2020-06-09 2020-09-22 电子科技大学 一种基于编解码结构的目标跟踪方法
CN111723769A (zh) * 2020-06-30 2020-09-29 北京百度网讯科技有限公司 用于处理图像的方法、装置、设备以及存储介质
CN111723769B (zh) * 2020-06-30 2023-10-27 北京百度网讯科技有限公司 用于处理图像的方法、装置、设备以及存储介质
CN111862160A (zh) * 2020-07-23 2020-10-30 中国兵器装备集团自动化研究所 一种基于arm平台的目标跟踪方法、介质和系统
CN111862160B (zh) * 2020-07-23 2023-10-13 中国兵器装备集团自动化研究所有限公司 一种基于arm平台的目标跟踪方法、介质和系统
CN113327271A (zh) * 2021-05-28 2021-08-31 北京理工大学重庆创新中心 基于双光孪生网络决策级目标跟踪方法、系统及存储介质
WO2023284632A1 (zh) * 2021-07-12 2023-01-19 维沃移动通信有限公司 图像展示方法、装置及电子设备

Similar Documents

Publication Publication Date Title
CN111091582A (zh) 一种基于深度神经网络的单视觉目标跟踪算法及系统
CN111144364B (zh) 一种基于通道注意更新机制的孪生网络目标跟踪方法
CN110796010B (zh) 一种结合光流法和卡尔曼滤波的视频稳像方法
CN110120064B (zh) 一种基于互强化与多注意机制学习的深度相关目标跟踪算法
WO2015163830A1 (en) Target localization and size estimation via multiple model learning in visual tracking
CN112927264B (zh) 一种无人机跟踪拍摄系统及其rgbd跟踪方法
CN110992378B (zh) 基于旋翼飞行机器人的动态更新视觉跟踪航拍方法及系统
CN109754424B (zh) 基于融合特征和自适应更新策略的相关滤波跟踪算法
CN113744315B (zh) 一种基于双目视觉的半直接视觉里程计
CN111429485B (zh) 基于自适应正则化和高信度更新的跨模态滤波跟踪方法
CN113628246B (zh) 一种基于3d卷积模板更新的孪生网络目标跟踪方法
CN110211150B (zh) 一种具有尺度协调机制的实时视觉目标识别方法
CN116051601A (zh) 一种深度时空关联的视频目标跟踪方法及系统
CN111145216A (zh) 一种视频图像目标的跟踪方法
CN116665097A (zh) 一种结合上下文感知的自适应目标跟踪方法
CN114155273B (zh) 一种结合历史轨迹信息的视频图像单目标跟踪方法
CN115393655A (zh) 基于YOLOv5s网络模型的工业运载车的检测方法
CN115880332A (zh) 一种低空飞行器视角的目标跟踪方法
CN115205591A (zh) 一种融合多特征尺度自适应的重检测跟踪算法
CN115082714A (zh) 一种基于mcd距离的自适应模板匹配算法
CN114140494A (zh) 复杂场景下单目标跟踪系统、方法、电子设备及存储介质
CN115049705B (zh) 多模板网络框架的目标跟踪方法及装置
CN111563912B (zh) 一种行人追踪系统和方法
Ogawa et al. Reducing false positives in object tracking with Siamese network
CN113362369A (zh) 一种移动物体的状态检测方法及检测装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20200501

RJ01 Rejection of invention patent application after publication