CN112862863A - 一种基于状态机的目标跟踪定位方法 - Google Patents

一种基于状态机的目标跟踪定位方法 Download PDF

Info

Publication number
CN112862863A
CN112862863A CN202110240924.9A CN202110240924A CN112862863A CN 112862863 A CN112862863 A CN 112862863A CN 202110240924 A CN202110240924 A CN 202110240924A CN 112862863 A CN112862863 A CN 112862863A
Authority
CN
China
Prior art keywords
target
state machine
state
peak1
peak2
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110240924.9A
Other languages
English (en)
Other versions
CN112862863B (zh
Inventor
曾碧
陈光科
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong University of Technology
Original Assignee
Guangdong University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong University of Technology filed Critical Guangdong University of Technology
Priority to CN202110240924.9A priority Critical patent/CN112862863B/zh
Publication of CN112862863A publication Critical patent/CN112862863A/zh
Application granted granted Critical
Publication of CN112862863B publication Critical patent/CN112862863B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明为克服目标跟踪定位推断准确率低的缺陷,提出一种基于状态机的目标跟踪定位方法,包括以下步骤:对目标跟踪任务采用目标跟踪算法计算得到分数图;计算所述分数图的峰值的位置Peak1和次峰值的位置Peak2;结合所述Peak1和Peak2对当前状态机的状态进行推断,当推断状态机进入确定状态时,记录Peak2的相对位置为干扰项;当推断状态机进入不确定状态时,根据历史记录的干扰物的相对位置推断目标位置;更新当前状态机的状态,并对下一帧图像进行跟踪。本发明结合目标与干扰物的历史相对位置以及分数图的置信度,综合推断出目标的准确位置,能够得到更详细的定位状态,能够极大程度提高推断准确率。

Description

一种基于状态机的目标跟踪定位方法
技术领域
本发明涉及目标跟踪定位技术领域,更具体地,涉及一种基于状态机的目标跟踪定位方法。
背景技术
目前的目标跟踪算法专注于计算搜索图像区域的分数图,把分数图看作目标位置的置信度,取出分数图最高值点作为目标的最终位置。但是目标跟踪任务存在着非常多的挑战,如相似物体、遮挡丢失等,并不能简单地使用分数图的最高值作为目标最终位置,需要有一种状态推断机制,综合历史信息推断出目标的最终位置。
如公开号为CN110400347A(公开日2019-11-01)提出一种判断遮挡及目标重定位的目标跟踪方法,提出对任一目标跟踪过程,利用置信度函数的变化粗略判断是否出现遮挡;对初步判断为遮挡的区域,计算目标LBP(Local Binary Pattern,局部二值模式)特征与预选框LBP特征的巴氏距离,进一步确认是否遮挡;对于局部遮挡的情况,采用多峰值重定位的方法进行目标遮挡后的定位;对于严重遮挡或长时遮挡,则采用SVM(SupportVector Machine,支持向量机)检测重定位方法来进行准确定位。该方法主要用于判断目标遮挡的情况、解决遮挡过后目标重定位的问题,但无法解决相似物体、遮挡丢失等目标跟踪问题,存在推断准确率低的问题。
发明内容
本发明为克服上述现有技术所述的目标跟踪定位推断准确率低的缺陷,提供一种基于状态机的目标跟踪定位方法。
为解决上述技术问题,本发明的技术方案如下:
一种基于状态机的目标跟踪定位方法,包括以下步骤:
S1:对目标跟踪任务采用目标跟踪算法计算得到分数图;
S2:计算所述分数图的峰值的位置Peak1和次峰值的位置Peak2;
S3:结合所述Peak1和Peak2对当前状态机的状态进行推断,当推断状态机进入确定状态时,记录Peak2的相对位置为干扰项;当推断状态机进入不确定状态时,根据历史记录的干扰物的相对位置推断目标位置;
S4:更新当前状态机的状态,跳转执行S3步骤,至目标跟踪任务完成跟踪定位。
作为优选方案,S1步骤中,其具体步骤包括:
S11:设置用于初始化目标跟踪算法的目标模板W,将所述目标模板W输入卷积神经网络中得到特征图,并将所述特征图集合定义为训练集Strain
S12:求解目标模板W,利用所述目标模板W对训练集Strain进行互相关运算得到以目标为中心的二维高斯响应图Ylabel;其计算公式如下:
Strain*W=Ylabel
其中,*表示互相关运算;
S13:输入目标跟踪任务的下一帧图像,截取目标图形区域Xnext后输入卷积神经网络中得到特征图,然后与所述目标模板W进行互相关运算得到分数图Score;其计算公式如下:
Score=fcnn(Xnext)*W
其中,fcnn表示卷积神经网络。
作为优选方案,所述目标模板W的设置步骤包括:截取目标跟踪任务第一帧图像中以其目标位置为中心,尺寸为目标大小五倍的图像区域,并对其进行数据增强。
作为优选方案,所述目标图形区域包括以上一帧图像目标位置为中心,尺寸为目标大小五倍的图像区域Xnext
作为优选方案,所述Peak1为所述分数图的最高值点;所述Peak2为使用目标大小的掩码对Peak1位置的分数图进行置零处理后的最高值点。
作为优选方案,当前状态机的状态根据每一帧图像的Peak1的位移是否合理进行判断。
作为优选方案,S3步骤中,其具体步骤包括:
S31:初始化状态机为确定状态,开始跟踪任务;
S32:根据每一帧图像的目标位移速度判断Peak1的位移是否合理,若判断为合理,则推断状态机进入确定状态,并执行S33步骤;否则推断状态机进入不确定状态,并执行S34步骤;
S33:判断Peak2与Peak1的相对位置:若Peak2>Peak1*0.4,则记录Peak2的相对位置为干扰项,否则推断状态机进入不确定状态;跳转执行S4步骤;
S34:判断Peak2与Peak1的相对位置:若Peak2>Peak1*0.4,则将Peak1和Peak2的相对位置与历史记录的干扰物的相对位置进行推断,否则推断状态机进入不确定状态;跳转执行S4步骤。
作为优选方案,所述S32步骤中,采用图像的加权目标位移速度Speednew对每一帧图像的Peak1的位移是否合理进行判断:当Peak1的位移小于3*Speednew,则判断Peak1的位移合理,否则判断Peak1的位移不合理;
其中,加权目标位移速度Speednew计算公式如下:
Speednew=Speedold*0.5+Speedcurrent*0.5
式中,Speedold为上一帧图像的目标位移速度,Speedcurrent为当前目标位移速度。
作为优选方案,将Peak1和Peak2的相对位置与历史记录的干扰物的相对位置进行推断的步骤包括,将Peak1和Peak2的相对位置与历史记录的干扰物的相对位置进行对比:
判断Peak1的相对位置是否正确:若是,则判断Peak1为目标位置,并设置状态机进入确定状态;否则进一步判断Peak2的相对位置是否正确:若是,则判断Peak2为目标位置,并设置状态机进入确定状态;否则,并设置状态机进入不确定状态,并跳转执行S4步骤。
作为优选方案,所述S4步骤中,更新当前状态机的状态,若当前状态机为确定状态,则将当前帧图像加入训练集Strain
与现有技术相比,本发明技术方案的有益效果是:
本发明通过结合目标与干扰物的历史相对位置以及分数图的置信度,综合推断出目标的准确位置,能够得到更详细的定位状态;本发明中的状态机利用历史定位情况对跟踪定位结果进行校正,利用目标与干扰物的历史相对位置信息能够极大程度提高推断准确率。
附图说明
图1为本发明的基于状态机的目标跟踪定位方法的流程图。
图2为本发明的状态机状态推断及目标位置推断的流程图。
图3为将本发明应用于OTB100数据集的实验结果示意图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
本实施例提出一种基于状态机的目标跟踪定位方法,如图1~2所示,为本实施例的基于状态机的目标跟踪定位方法的流程图。
本实施例提出的基于状态机的目标跟踪定位方法中,包括以下步骤:
S1:对目标跟踪任务采用目标跟踪算法计算得到分数图,其具体步骤如下:
S11:设置目标跟踪任务的第一帧图像作为用于初始化目标跟踪算法的目标模板W,将该目标模板W输入卷积神经网络fcnn中得到相应的特征图,并将特征图加入训练集Strain中;
其中,目标模板W的设置步骤包括:截取目标跟踪任务第一帧图像中以其目标位置为中心,尺寸为目标大小五倍的图像区域Xinit,并对其进行数据增强;
S12:求解目标模板W,利用所述目标模板W对训练集Strain进行互相关运算,得到以目标为中心的二维高斯响应图Ylabel
其计算公式如下:
Strain*W=Ylabel
其中,*表示互相关运算;
至此完成算法初始化,开始目标跟踪:
S13:输入目标跟踪任务的下一帧图像,截取以上一帧图像目标位置为中心,尺寸为目标大小五倍的图像区域作为目标图形区域Xnext,然后输入卷积神经网络中得到特征图,再进一步与目标模板W进行互相关运算得到分数图Score;
其中,分数图Score的计算公式如下:
Score=fcnn(Xnext)*W
其中,fcnn表示卷积神经网络。
本实施例中,训练集Strain中存储有历史目标跟踪任务的目标模板特征图;其表达公式如下:
Strain={fcnn(x)for x intransform(Xinit)}
式中,x表示在transform(Xinit)中遍历的子元素,transform表示数据增强变换。
S2:计算所述分数图的峰值的位置Peak1和次峰值的位置Peak2。
本步骤中,Peak1为所述分数图的最高值点;Peak2为使用目标大小的掩码对Peak1位置的分数图进行置零处理后的最高值点,对分数图进行置零处理的表达公式如下:
Score[Mask(Peak1)]=0
式中,Mask()表示以Peak1为中心、宽高为目标大小的掩码矩阵。
S3:结合所述Peak1和Peak2对当前状态机的状态进行推断,当推断状态机进入确定状态时,记录Peak2的相对位置为干扰项;当推断状态机进入不确定状态时,根据历史记录的干扰物的相对位置推断目标位置;
其具体步骤如下:
S31:初始化状态机为确定状态,开始跟踪任务;
S32:根据每一帧图像的加权目标位移速度Speednew判断Peak1的位移是否合理,具体的:
当Peak1的位移小于3*Speednew,则判断Peak1的位移合理,推断状态机进入确定状态,并执行S33步骤;
否则判断Peak1的位移不合理,推断状态机进入不确定状态,并执行S34步骤;
S33:判断Peak2与Peak1的相对位置:
若Peak2>Peak1*0.4,则记录Peak2的相对位置为干扰项,表示目标物体位置的左上/右上/左下/右下方位是否有干扰物;否则推断状态机进入不确定状态;跳转执行S4步骤;
S34:判断Peak2与Peak1的相对位置:
若Peak2>Peak1*0.4,则将Peak1和Peak2的相对位置与历史记录的干扰物的相对位置进行推断,具体的:
将Peak1和Peak2的相对位置与历史记录的干扰物的相对位置进行对比:
判断Peak1的相对位置是否正确:
若是,则判断Peak1为目标位置,并设置状态机进入确定状态;
否则进一步判断Peak2的相对位置是否正确:
若是,则判断Peak2为目标位置,并设置状态机进入确定状态;
否则,并设置状态机进入不确定状态,并跳转执行S4步骤;
若Peak2≤Peak1*0.4,则设置状态机进入不确定状态,并跳转执行S4步骤。
其中,相对位置包括左上方、左下方、右上方、右下方四种。
本实施例中,考虑到目标的相对位置往往不会在相邻几个视频帧内突变,因此利用历史记录的干扰物相对位置对不确定状态时Peak1和Peak2的相对位置进行推断结果是可信的。
本实施例中,加权目标位移速度Speednew计算公式如下:
Speednew=Speedold*0.5+Speedcurrent*0.5
式中,Speedold为上一帧图像的目标位移速度,Speedcurrent为当前目标位移速度。
本实施例将状态机设为确定状态或不确定状态,该两种状态分别有对应的推断逻辑,因此通过对当前
S4:更新当前状态机的状态,跳转执行S3步骤,至目标跟踪任务完成跟踪定位。
进一步的,在更新当前状态机的状态时,若当前状态机为确定状态,则将当前帧图像加入训练集Strain;若当前状态机为不确定状态,则不加入训练集Strain
将本实施例提出的基于状态机的目标跟踪定位方法应用于OTB100数据集进行实验测试,其实验结果如图3所示。其中,baseline为DiMP算法,+loc表示在baseline上应用了本发明方法,可见性能提升了0.4。
相同或相似的标号对应相同或相似的部件;
附图中描述位置关系的用语仅用于示例性说明,不能理解为对本专利的限制;
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (10)

1.一种基于状态机的目标跟踪定位方法,其特征在于,包括以下步骤:
S1:对目标跟踪任务采用目标跟踪算法计算得到分数图;
S2:计算所述分数图的峰值的位置Peak1和次峰值的位置Peak2;
S3:结合所述Peak1和Peak2对当前状态机的状态进行推断,当推断状态机进入确定状态时,记录Peak2的相对位置为干扰项;当推断状态机进入不确定状态时,根据历史记录的干扰物的相对位置推断目标位置;
S4:更新当前状态机的状态,跳转执行S3步骤,至目标跟踪任务完成跟踪定位。
2.根据权利要求1所述的基于状态机的目标跟踪定位方法,其特征在于,所述S1步骤中,其具体步骤包括:
S11:设置用于初始化目标跟踪算法的目标模板W,将所述目标模板W输入卷积神经网络中得到特征图,并将所述特征图集合定义为训练集Strain
S12:求解目标模板W,利用所述目标模板W对训练集Strain进行互相关运算得到以目标为中心的二维高斯响应图Ylabel;其计算公式如下:
Strain★W=Ylabel
其中,★表示互相关运算;
S13:输入目标跟踪任务的下一帧图像,截取目标图形区域Xnext后输入卷积神经网络中得到特征图,然后与所述目标模板W进行互相关运算得到分数图Score;其计算公式如下:
Scorefcnn(Xnext)*W
其中,fcnn表示卷积神经网络。
3.根据权利要求2所述的基于状态机的目标跟踪定位方法,其特征在于,所述目标模板W的设置步骤包括:截取目标跟踪任务第一帧图像中以其目标位置为中心,尺寸为目标大小五倍的图像区域,并对其进行数据增强。
4.根据权利要求3所述的基于状态机的目标跟踪定位方法,其特征在于,所述目标图形区域Xnext包括以上一帧图像目标位置为中心,尺寸为目标大小五倍的图像区域。
5.根据权利要求2所述的基于状态机的目标跟踪定位方法,其特征在于,所述Peak1为所述分数图的最高值点;所述Peak2为使用目标大小的掩码对Peak1位置的分数图进行置零处理后的最高值点。
6.根据权利要求5所述的基于状态机的目标跟踪定位方法,其特征在于,所述当前状态机的状态根据每一帧图像的Peak1的位移是否合理进行判断。
7.根据权利要求6所述的基于状态机的目标跟踪定位方法,其特征在于,所述S3步骤中,其具体步骤包括:
S31:初始化状态机为确定状态,开始跟踪任务;
S32:根据每一帧图像的目标位移速度判断Peak1的位移是否合理,若判断为合理,则推断状态机进入确定状态,并执行S33步骤;否则推断状态机进入不确定状态,并执行S34步骤;
S33:判断Peak2与Peak1的相对位置:若Peak2>Peak1*0.4,则记录Peak2的相对位置为干扰项,否则推断状态机进入不确定状态;跳转执行S4步骤;
S34:判断Peak2与Peak1的相对位置:若Peak2>Peak1*0.4,则将Peak1和Peak2的相对位置与历史记录的干扰物的相对位置进行推断,否则推断状态机进入不确定状态;跳转执行S4步骤。
8.根据权利要求7所述的基于状态机的目标跟踪定位方法,其特征在于,所述S32步骤中,采用图像的加权目标位移速度Speednew对每一帧图像的Peak1的位移是否合理进行判断:当Peak1的位移小于3*Speednew,则判断Peak1的位移合理,否则判断Peak1的位移不合理;
其中,加权目标位移速度Speednew计算公式如下:
Speednew=Speedold*0.5+Speedcurrent*0.5
式中,Speedold为上一帧图像的目标位移速度,Speedcurrent为当前目标位移速度。
9.根据权利要求7所述的基于状态机的目标跟踪定位方法,其特征在于,将Peak1和Peak2的相对位置与历史记录的干扰物的相对位置进行推断的步骤包括,将Peak1和Peak2的相对位置与历史记录的干扰物的相对位置进行对比:
判断Peak1的相对位置是否正确:
若是,则判断Peak1为目标位置,并设置状态机进入确定状态;
否则进一步判断Peak2的相对位置是否正确:
若是,则判断Peak2为目标位置,并设置状态机进入确定状态;
否则,并设置状态机进入不确定状态,并跳转执行S4步骤。
10.根据权利要求9所述的基于状态机的目标跟踪定位方法,其特征在于,所述S4步骤中,更新当前状态机的状态,若当前状态机为确定状态,则将当前帧图像加入训练集Strain
CN202110240924.9A 2021-03-04 2021-03-04 一种基于状态机的目标跟踪定位方法 Active CN112862863B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110240924.9A CN112862863B (zh) 2021-03-04 2021-03-04 一种基于状态机的目标跟踪定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110240924.9A CN112862863B (zh) 2021-03-04 2021-03-04 一种基于状态机的目标跟踪定位方法

Publications (2)

Publication Number Publication Date
CN112862863A true CN112862863A (zh) 2021-05-28
CN112862863B CN112862863B (zh) 2023-01-31

Family

ID=75991711

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110240924.9A Active CN112862863B (zh) 2021-03-04 2021-03-04 一种基于状态机的目标跟踪定位方法

Country Status (1)

Country Link
CN (1) CN112862863B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101867699A (zh) * 2010-05-25 2010-10-20 中国科学技术大学 基于分块的非特定目标实时跟踪方法
CN106327526A (zh) * 2016-08-22 2017-01-11 湖南挚新科技发展有限公司 图像目标跟踪方法与系统
CN109003290A (zh) * 2017-12-11 2018-12-14 罗普特(厦门)科技集团有限公司 一种监控系统的视频跟踪方法
CN109102522A (zh) * 2018-07-13 2018-12-28 北京航空航天大学 一种目标跟踪方法及装置
CN110163068A (zh) * 2018-12-13 2019-08-23 腾讯科技(深圳)有限公司 目标对象跟踪方法、装置、存储介质和计算机设备
CN111145221A (zh) * 2019-12-31 2020-05-12 北京理工大学重庆创新中心 一种基于多层深度特征提取的目标跟踪算法
CN111402299A (zh) * 2020-04-08 2020-07-10 中国人民解放军海军航空大学 基于静止轨道凝视卫星的遥感图像目标跟踪方法和装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101867699A (zh) * 2010-05-25 2010-10-20 中国科学技术大学 基于分块的非特定目标实时跟踪方法
CN106327526A (zh) * 2016-08-22 2017-01-11 湖南挚新科技发展有限公司 图像目标跟踪方法与系统
CN109003290A (zh) * 2017-12-11 2018-12-14 罗普特(厦门)科技集团有限公司 一种监控系统的视频跟踪方法
CN109102522A (zh) * 2018-07-13 2018-12-28 北京航空航天大学 一种目标跟踪方法及装置
CN110163068A (zh) * 2018-12-13 2019-08-23 腾讯科技(深圳)有限公司 目标对象跟踪方法、装置、存储介质和计算机设备
CN111145221A (zh) * 2019-12-31 2020-05-12 北京理工大学重庆创新中心 一种基于多层深度特征提取的目标跟踪算法
CN111402299A (zh) * 2020-04-08 2020-07-10 中国人民解放军海军航空大学 基于静止轨道凝视卫星的遥感图像目标跟踪方法和装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
DAVID S. BOLME ET AL.: "Visual Object Tracking using Adaptive Correlation Filters", 《2010 IEEE COMPUTER SOCIETY CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 *
罗久桓: "基于背景感知滤波器的集成跟踪算法研究", 《中国优秀博硕士学位论文全文数据库(硕士) 信息科技辑》 *

Also Published As

Publication number Publication date
CN112862863B (zh) 2023-01-31

Similar Documents

Publication Publication Date Title
JP2020119558A (ja) イメージ分析に基づいたロバストサーベイランスのための歩行者検出器の学習方法及び学習装置、そしてそれを利用するテスト方法及びテスト装置
WO2023015743A1 (zh) 病灶检测模型的训练方法及识别图像中的病灶的方法
CN109146912B (zh) 一种基于目标性分析的视觉目标跟踪方法
CN109785366B (zh) 一种针对遮挡的相关滤波目标跟踪方法
CN113052873B (zh) 一种在线自监督学习场景适应的单目标跟踪方法
JP2005235222A (ja) 物体の追跡方法およびその装置
CN112819840B (zh) 一种融合深度学习与传统处理的高精度图像实例分割方法
CN109949344B (zh) 一种基于颜色概率目标建议窗口的核相关滤波跟踪方法
CN115239760A (zh) 一种目标跟踪方法、系统、设备及存储介质
CN111914832A (zh) 一种rgb-d相机在动态场景下的slam方法
JP7444279B2 (ja) 物体追跡装置、物体追跡方法、及び、プログラム
CN112862863B (zh) 一种基于状态机的目标跟踪定位方法
JP5953097B2 (ja) イメージ位置合わせのための最適勾配追求
CN111340846B (zh) 一种多特征融合的抗遮挡目标跟踪方法
CN108053425A (zh) 一种基于多通道特征的高速相关滤波目标跟踪方法
KR100312427B1 (ko) 비디오 영상에서 템플레이트와 칼만 필터를 이용한 이동물체 추적방법 및 장치
CN110706254A (zh) 一种目标跟踪模板自适应更新方法
CN114067240A (zh) 一种融合行人特性的在线更新策略行人单目标跟踪方法
Kim et al. Locator-checker-scaler object tracking using spatially ordered and weighted patch descriptor
CN112150509B (zh) 基于多层深度特征的分块跟踪方法
Takada et al. Human tracking in crowded scenes using target information at previous frames
EP4312195A1 (en) Method, device and storage medium for post-processing in multi-target tracking
CN115375976B (zh) 图像处理模型训练方法、电子设备和计算机可读存储介质
WO2022091334A1 (ja) 物体追跡装置、物体追跡理方法、及び、記録媒体
CN113807250B (zh) 一种抗遮挡和尺度自适应的低空空域飞行目标跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant