CN113470075A - 一种基于干扰抑制外观建模的目标跟踪方法 - Google Patents

一种基于干扰抑制外观建模的目标跟踪方法 Download PDF

Info

Publication number
CN113470075A
CN113470075A CN202110777474.7A CN202110777474A CN113470075A CN 113470075 A CN113470075 A CN 113470075A CN 202110777474 A CN202110777474 A CN 202110777474A CN 113470075 A CN113470075 A CN 113470075A
Authority
CN
China
Prior art keywords
target
interference
frame image
image
current frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110777474.7A
Other languages
English (en)
Other versions
CN113470075B (zh
Inventor
张焕龙
张�杰
张建伟
程利云
王延峰
高淼
丁峰
杨光露
李林伟
黄万伟
焦站威
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Henan Qingda Jun Ceramic Industry Technology Research Institute
Original Assignee
Zhengzhou University of Light Industry
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhengzhou University of Light Industry filed Critical Zhengzhou University of Light Industry
Priority to CN202110777474.7A priority Critical patent/CN113470075B/zh
Publication of CN113470075A publication Critical patent/CN113470075A/zh
Application granted granted Critical
Publication of CN113470075B publication Critical patent/CN113470075B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出了一种基于干扰抑制外观建模的目标跟踪方法,用以解决传统孪生跟踪方法由于很少利用背景干扰信息导致在面对干扰时容易漂移的问题;其步骤为:首先获取目标模板,并根据背景与目标的相似程度确定干扰物,根据干扰物的特征以及干扰物与目标的相似得分得到干扰模型;然后利用目标模板与干扰模型分别与下一帧搜索区域图像相关得到目标得分图与干扰得分图,将目标得分图与干扰得分图相结合得到最终响应图,响应值最大处即为预测得到的下一帧图像的目标位置。本发明通过利用背景干扰提供的判别信息为目标外观进行建模,使得孪生跟踪器可以充分利用背景干扰信息,提高跟踪器在面临背景干扰时的鲁棒性。

Description

一种基于干扰抑制外观建模的目标跟踪方法
技术领域
本发明涉及目标跟踪的技术领域,特别是指一种基于干扰抑制外观建模的目标跟踪方法。
背景技术
目标跟踪是计算机视觉和图像处理中的一项重要而具有挑战性的基础任务,具有广泛的应用前景,例如图像理解、自动驾驶、视频监控等。它的核心任务是在给定第一帧信息的情况下估计整个视频序列中的目标状态。一般来说,如何建立一个在背景杂波、遮挡、变形等复杂情况下能准确高效定位目标的外观模型是跟踪的关键问题。
近年来,基于孪生网络的跟踪算法因其可以实现速度与精度平衡的优势受到视觉跟踪界的广泛关注。在传统孪生跟踪器中,外观模型简单地对应于从目标区域提取的模板特征,然后利用互相关计算目标模板与搜索图像之间的相似度,找出最相似的区域来跟踪目标。虽然从离线训练在线跟踪的模式中取得了很好的效果,但在面对背景干扰时仅利用目标信息难以有效区分目标与干扰。
因此,针对传统孪生跟踪器因为很少利用背景干扰信息造成的面对干扰时容易漂移的问题,有必要提出一种能充分利用干扰信息提高目标表达能力的外观建模方法。
发明内容
针对传统孪生跟踪器因为很少利用背景干扰信息造成的面对干扰时容易漂移的技术问题,本发明提供了一种基于干扰抑制外观建模的目标跟踪方法,利用背景干扰信息提供的判别信息来提高目标表达。
本发明的技术方案是这样实现的:
一种基于干扰抑制外观建模的目标跟踪方法,其步骤如下:
步骤一、根据初始帧图像中目标的真实位置信息,在初始帧图像中截取以目标为中心的包含背景的搜索区域图像;
步骤二、将步骤一中的搜索区域图像输入VGG-16网络获得搜索区域特征,并从搜索区域特征中截取目标模板特征;
步骤三、将步骤二中的搜索区域特征与目标模板特征进行相关操作获得背景与目标的相似性得分图;
步骤四、对背景与目标的相似性得分图进行峰值检测,获得干扰物与目标的相似程度以及干扰物的位置;
步骤五、根据干扰物的位置截取干扰物图像,并提取干扰物图像的特征,根据干扰物与目标的相似程度和干扰物图像的特征获得干扰模型;
步骤六、获取下一帧图像作为当前帧图像,根据上一帧图像的目标位置信息截取当前帧图像的搜索区域图像并提取当前帧图像的搜索区域图像的特征;
步骤七、将当前帧图像的搜索区域图像的特征分别与目标模板特征和干扰模型进行互相关得到当前帧图像的目标得分图So与干扰得分图Sd
步骤八、将目标得分图So与干扰得分图Sd进行结合得到当前帧图像的最终响应图,当前帧图像的最终响应图中响应值的最大值处为当前帧图像的目标位置信息;
步骤九、利用步骤四和步骤五的操作方法对目标得分图So进行处理获得当前帧图像的干扰模型,并根据当前帧图像的干扰模型对步骤五中的干扰模型进行更新;重复步骤六到步骤九,直至遍历整个视频序列。
所述将步骤一中的搜索区域图像输入VGG-16网络获得搜索区域特征的方法为:将以目标为中心的包含背景的搜索区域图像输入VGG-16网络中,提取VGG-16网络的conv4-3层的第一特征图和VGG-16网络的conv4-1层的第二特征图,并将第一特征图和第二特征图进行维度叠加得到搜索区域特征。
所述背景与目标的相似性得分图的获得方法为:
Figure BDA0003156224320000021
其中,Mt为背景与目标的相似性得分图,x为目标模板特征图,z为搜索区域特征图,*为互相关操作,
Figure BDA0003156224320000022
为从VGG-16网络中提取图像特征图的操作。
所述对背景与目标的相似性得分图进行峰值检测的方法为:
(Si,Li)=ψ(Mt,α);
其中,α为预设的阈值,Li为第i个干扰物的位置,Si为第i个干扰物与目标的相似程度,ψ(·)表示峰值检测操作。
所述干扰模型的获得方法为:
Figure BDA0003156224320000023
其中,Fd表示干扰模型,Si是第i个干扰物与目标的相似程度,k是干扰物的数量,Ti是第i个干扰物图像。
所述当前帧图像的目标得分图So为:
Figure BDA0003156224320000031
当前帧图像的干扰得分图Sd为:
Figure BDA0003156224320000032
其中,z'为当前帧图像的搜索区域图像。
所述当前帧图像的最终响应图的获得方法为:
S=So-β·Sd
其中,β∈[0,1]为控制干扰得分图影响大小的参数,S为当前帧图像的最终响应图。
所述干扰模型的更新方法为:
Figure BDA0003156224320000033
其中,t为视频帧数,η∈[0,1]为干扰模型更新参数,
Figure BDA0003156224320000034
为更新后的干扰模型,
Figure BDA0003156224320000035
为上一帧图像的累积干扰模型,Fd,t为当前帧图像的干扰模型。
与现有技术相比,本发明产生的有益效果为:本发明通过利用背景干扰提供的判别信息为目标外观进行建模,使得孪生跟踪器可以充分利用背景干扰信息,提高跟踪器在面临背景干扰时的鲁棒性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明的流程图。
图2为本发明干扰模型构造流程图。
图3为本发明与其他目标跟踪算法DaSiamRPN、CF2、SRDCF、Staple、SiamFC、DSST、KCF在OTB2013数据集上的比较图;其中,(a)为跟踪精度,(b)为跟踪成功率。
图4为本发明与其他目标跟踪算法DaSiamRPN、CF2、SRDCF、Staple、SiamFC、DSST、KCF在OTB2015数据集上的比较图;其中,(a)为跟踪精度,(b)为跟踪成功率。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有付出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,本发明实施例提供了一种基于干扰抑制外观建模的目标跟踪方法,具体步骤如下:
步骤一、根据初始帧图像中目标的真实位置信息,在初始帧图像中截取以目标为中心的包含背景的搜索区域图像;截取方法为:以目标中心位置为中心向外扩大到为目标三倍大的区域作为搜索区域并确定搜索区域坐标,然后根据搜索区域的坐标在初始帧图像中截取以目标为中心的包含背景的搜索区域图像。
步骤二、将步骤一中的搜索区域图像输入VGG-16网络获得搜索区域特征,并根据给定目标大小直接从搜索区域特征中截取目标区域的特征作为目标模板特征;搜索区域特征的获得方法为:将以目标为中心的包含背景的搜索区域图像输入分别VGG-16网络中,提取VGG-16网络的conv4-3层的第一特征图和VGG-16网络的conv4-1层的第二特征图,并从将第一特征图和第二特征图进行维度叠加得到搜索区域特征。
步骤三、将步骤二中的搜索区域特征与目标模板特征进行相关操作获得背景与目标的相似性得分图;所述背景与目标的相似性得分图的获得方法为:
Figure BDA0003156224320000041
其中,Mt为背景与目标的相似性得分图,x为目标模板特征图,z为搜索区域特征图,*为互相关操作,
Figure BDA0003156224320000042
为从VGG-16网络中提取图像特征图的操作。
步骤四、对背景与目标的相似性得分图进行峰值检测,获得干扰物与目标的相似程度以及干扰物的位置;对相似性得分图进行峰值检测,除去目标位置;设定一阈值α,保留峰值大于阈值的峰值,其峰值为其与目标的相似得分,所在位置即为干扰物所在位置;
所述对背景与目标的相似性得分图进行峰值检测的方法为:
(Si,Li)=ψ(Mt,α);
其中,α为预设的阈值,用来判断相似性得分图中哪些得分为干扰物,Li为第i个干扰物的位置,Si为第i个干扰物与目标的相似程度,ψ(·)表示峰值检测操作。
步骤五、根据干扰物的位置截取干扰物图像,并提取干扰物图像的特征,根据干扰物与目标的相似程度和干扰物图像的特征(加权融合)获得干扰模型,如图2所示;
所述干扰模型的获得方法为:
Figure BDA0003156224320000043
其中,Fd表示干扰模型,Si是第i个干扰物与目标的相似程度,k是干扰物的数量,Ti是第i个干扰物图像。
步骤六、获取下一帧图像作为当前帧图像,根据上一帧图像的目标位置信息截取当前帧图像的搜索区域图像并提取当前帧图像的搜索区域图像的特征;
步骤七、将当前帧图像的搜索区域图像的特征分别与目标模板特征和干扰模型进行互相关得到当前帧图像的目标得分图So与干扰得分图Sd
所述当前帧图像的目标得分图So和干扰得分图Sd分别为:
Figure BDA0003156224320000051
Figure BDA0003156224320000052
其中,z'为当前帧图像的搜索区域图像。
步骤八、将目标得分图So与干扰得分图Sd进行结合得到当前帧图像的最终响应图,当前帧图像的最终响应图中响应值的最大值处为当前帧图像的目标位置信息;
所述当前帧图像的最终响应图的获得方法为:
S=So-β·Sd
其中,β∈[0,1]为控制干扰得分图影响大小的参数,S为当前帧图像的最终响应图。
步骤九、利用步骤四和步骤五的操作方法对目标得分图So进行处理获得当前帧图像的干扰模型,并根据当前帧图像的干扰模型对步骤五中的干扰模型进行更新;重复步骤六到步骤九,直至遍历整个视频序列。
所述干扰模型的更新方法为:
Figure BDA0003156224320000053
其中,t为视频帧数,η∈[0,1]为干扰模型更新参数,
Figure BDA0003156224320000054
为更新后的干扰模型,
Figure BDA0003156224320000055
为上一帧图像的累积干扰模型,Fd,t为当前帧图像的干扰模型。
本发明的实验是在Intel i7-9700CPU(3.00GHZ),16GB RAM和NVDIA GeForce RTX2060的计算机上使用MATLAB R2019a实现的。如图3和图4所示,本发明方法(OURS)与其他先进的目标跟踪算法(DaSiamRPN、CF2、SRDCF、Staple、SiamFC、DSST、KCF)在OTB2013与OTB2015数据集上的比较,在成功率和精度上都取得了优秀的表现,结果表明,本发明的干扰抑制的外观建模用于表征目标可以有效提高跟踪的鲁棒性。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种基于干扰抑制外观建模的目标跟踪方法,其特征在于,其步骤如下:
步骤一、根据初始帧图像中目标的真实位置信息,在初始帧图像中截取以目标为中心的包含背景的搜索区域图像;
步骤二、将步骤一中的搜索区域图像输入VGG-16网络获得搜索区域特征,并从搜索区域特征中截取目标模板特征;
步骤三、将步骤二中的搜索区域特征与目标模板特征进行相关操作获得背景与目标的相似性得分图;
步骤四、对背景与目标的相似性得分图进行峰值检测,获得干扰物与目标的相似程度以及干扰物的位置;
步骤五、根据干扰物的位置截取干扰物图像,并提取干扰物图像的特征,根据干扰物与目标的相似程度和干扰物图像的特征获得干扰模型;
步骤六、获取下一帧图像作为当前帧图像,根据上一帧图像的目标位置信息截取当前帧图像的搜索区域图像并提取当前帧图像的搜索区域图像的特征;
步骤七、将当前帧图像的搜索区域图像的特征分别与目标模板特征和干扰模型进行互相关得到当前帧图像的目标得分图So与干扰得分图Sd
步骤八、将目标得分图So与干扰得分图Sd进行结合得到当前帧图像的最终响应图,当前帧图像的最终响应图中响应值的最大值处为当前帧图像的目标位置信息;
步骤九、利用步骤四和步骤五的操作方法对目标得分图So进行处理获得当前帧图像的干扰模型,并根据当前帧图像的干扰模型对步骤五中的干扰模型进行更新;重复步骤六到步骤九,直至遍历整个视频序列。
2.根据权利要求1所述的基于干扰抑制外观建模的目标跟踪方法,其特征在于,所述将步骤一中的搜索区域图像输入VGG-16网络获得搜索区域特征的方法为:将以目标为中心的包含背景的搜索区域图像输入VGG-16网络中,提取VGG-16网络的conv4-3层的第一特征图和VGG-16网络的conv4-1层的第二特征图,并将第一特征图和第二特征图进行维度叠加得到搜索区域特征。
3.根据权利要求1所述的基于干扰抑制外观建模的目标跟踪方法,其特征在于,所述背景与目标的相似性得分图的获得方法为:
Figure FDA0003156224310000011
其中,Mt为背景与目标的相似性得分图,x为目标模板特征图,z为搜索区域特征图,*为互相关操作,
Figure FDA0003156224310000012
为从VGG-16网络中提取图像特征图的操作。
4.根据权利要求3所述的基于干扰抑制外观建模的目标跟踪方法,其特征在于,所述对背景与目标的相似性得分图进行峰值检测的方法为:
(Si,Li)=ψ(Mt,α);
其中,α为预设的阈值,Li为第i个干扰物的位置,Si为第i个干扰物与目标的相似程度,ψ(·)表示峰值检测操作。
5.根据权利要求4所述的基于干扰抑制外观建模的目标跟踪方法,其特征在于,所述干扰模型的获得方法为:
Figure FDA0003156224310000021
其中,Fd表示干扰模型,Si是第i个干扰物与目标的相似程度,k是干扰物的数量,Ti是第i个干扰物图像。
6.根据权利要求5所述的基于干扰抑制外观建模的目标跟踪方法,其特征在于,所述当前帧图像的目标得分图So为:
Figure FDA0003156224310000022
当前帧图像的干扰得分图Sd为:
Figure FDA0003156224310000023
其中,z'为当前帧图像的搜索区域图像。
7.根据权利要求6所述的基于干扰抑制外观建模的目标跟踪方法,其特征在于,所述当前帧图像的最终响应图的获得方法为:
S=So-β·Sd
其中,β∈[0,1]为控制干扰得分图影响大小的参数,S为当前帧图像的最终响应图。
8.根据权利要求5-7中任一项所述的基于干扰抑制外观建模的目标跟踪方法,其特征在于,所述干扰模型的更新方法为:
Figure FDA0003156224310000024
其中,t为视频帧数,η∈[0,1]为干扰模型更新参数,
Figure FDA0003156224310000025
为更新后的干扰模型,
Figure FDA0003156224310000026
为上一帧图像的累积干扰模型,Fd,t为当前帧图像的干扰模型。
CN202110777474.7A 2021-07-09 2021-07-09 一种基于干扰抑制外观建模的目标跟踪方法 Active CN113470075B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110777474.7A CN113470075B (zh) 2021-07-09 2021-07-09 一种基于干扰抑制外观建模的目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110777474.7A CN113470075B (zh) 2021-07-09 2021-07-09 一种基于干扰抑制外观建模的目标跟踪方法

Publications (2)

Publication Number Publication Date
CN113470075A true CN113470075A (zh) 2021-10-01
CN113470075B CN113470075B (zh) 2022-09-23

Family

ID=77879330

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110777474.7A Active CN113470075B (zh) 2021-07-09 2021-07-09 一种基于干扰抑制外观建模的目标跟踪方法

Country Status (1)

Country Link
CN (1) CN113470075B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170032551A1 (en) * 2015-07-29 2017-02-02 Adobe Systems Incorporated Image Distractor Detection and Processing
CN108447078A (zh) * 2018-02-28 2018-08-24 长沙师范学院 基于视觉显著性的干扰感知跟踪算法
CN110991250A (zh) * 2019-11-06 2020-04-10 江苏科技大学 融合颜色干扰模型与遮挡模型的人脸跟踪方法和跟踪系统
CN111951297A (zh) * 2020-08-31 2020-11-17 郑州轻工业大学 一种基于结构化逐像素目标注意机制的目标跟踪方法
CN112819856A (zh) * 2021-01-22 2021-05-18 同济大学 一种应用于无人机的目标跟踪方法及自定位方法
CN112884799A (zh) * 2021-02-02 2021-06-01 电子科技大学 一种基于孪生神经网络的复杂场景下目标跟踪方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170032551A1 (en) * 2015-07-29 2017-02-02 Adobe Systems Incorporated Image Distractor Detection and Processing
CN108447078A (zh) * 2018-02-28 2018-08-24 长沙师范学院 基于视觉显著性的干扰感知跟踪算法
CN110991250A (zh) * 2019-11-06 2020-04-10 江苏科技大学 融合颜色干扰模型与遮挡模型的人脸跟踪方法和跟踪系统
CN111951297A (zh) * 2020-08-31 2020-11-17 郑州轻工业大学 一种基于结构化逐像素目标注意机制的目标跟踪方法
CN112819856A (zh) * 2021-01-22 2021-05-18 同济大学 一种应用于无人机的目标跟踪方法及自定位方法
CN112884799A (zh) * 2021-02-02 2021-06-01 电子科技大学 一种基于孪生神经网络的复杂场景下目标跟踪方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
MING DU ET AL.: "Distractor-Aware Deep Regression for Visual Tracking", 《SENSORS》 *
YUFEI ZHA ET AL.: "Distractor-Aware Visual Tracking by Online Siamese Network", 《DIGITAL OBJECT IDENTIFIER》 *
ZHENG ZHU ET AL.: "Distractor-Aware Siamese Networks for Visual Object Tracking", 《SPRINGER NATURE SWITZERLAND AG 2018》 *
李勇 等: "融合扰动感知模型的孪生神经网络目标跟踪", 《光学学报》 *
杨福才: "基于改进Staple算法的稳健红外视觉目标跟踪", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Also Published As

Publication number Publication date
CN113470075B (zh) 2022-09-23

Similar Documents

Publication Publication Date Title
US10706285B2 (en) Automatic ship tracking method and system based on deep learning network and mean shift
CN109636829B (zh) 一种基于语义信息和场景信息的多目标跟踪方法
CN109598684B (zh) 结合孪生网络的相关滤波跟踪方法
CN104899600B (zh) 一种基于深度图的手部特征点检测方法
CN112308881B (zh) 一种基于遥感图像的舰船多目标跟踪方法
CN108921873B (zh) 基于核相关滤波优化的马尔科夫决策在线多目标跟踪方法
CN106355604B (zh) 图像目标跟踪方法与系统
CN109087337B (zh) 基于分层卷积特征的长时间目标跟踪方法及系统
CN107564035B (zh) 基于重要区域识别和匹配的视频跟踪方法
CN110717934B (zh) 一种基于strcf的抗遮挡目标跟踪方法
CN112668483A (zh) 一种融合行人重识别和人脸检测的单目标人物跟踪方法
CN113902991A (zh) 一种基于级联特征融合的孪生网络目标跟踪方法
CN112541441A (zh) 一种融合相关滤波的gm-phd视频多目标跟踪方法
CN111161325A (zh) 基于卡尔曼滤波与lstm的三维多目标跟踪方法
CN116381672A (zh) 基于孪生网络雷达x波段多扩展目标自适应跟踪方法
CN113902773A (zh) 一种使用双检测器的长期目标跟踪方法
CN113470075B (zh) 一种基于干扰抑制外观建模的目标跟踪方法
CN110428447B (zh) 一种基于策略梯度的目标跟踪方法与系统
CN104537690B (zh) 一种基于最大值‑时间索引联合的运动点目标检测方法
CN115953570A (zh) 结合模板更新与轨迹预测的孪生网络目标跟踪方法
CN113781521B (zh) 一种基于改进YOLO-DeepSort的仿生机器鱼检测跟踪方法
CN111915648B (zh) 一种基于常识和记忆网络的长期目标运动跟踪方法
CN115063715A (zh) 一种基于灰度直方图的orb-slam3回环检测加速方法
CN110660081B (zh) 一种基于自适应的特征选择的目标跟踪方法
CN111831101A (zh) 一种基于Leap Motion的多特征动态手势识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20240612

Address after: Zhengzhou Light Industry College, No. 5 Dongfeng Road, Jinshui District, Zhengzhou City, Henan Province, 450002

Patentee after: Henan Qingda Jun Ceramic Industry Technology Research Institute

Country or region after: China

Address before: No. 136, Kexue Avenue, high tech Industrial Development Zone, Zhengzhou City, Henan Province

Patentee before: Zhengzhou University of light industry

Country or region before: China