CN112989953B - 一种基于度量学习的目标遮挡检测与跟踪方法 - Google Patents

一种基于度量学习的目标遮挡检测与跟踪方法 Download PDF

Info

Publication number
CN112989953B
CN112989953B CN202110192501.4A CN202110192501A CN112989953B CN 112989953 B CN112989953 B CN 112989953B CN 202110192501 A CN202110192501 A CN 202110192501A CN 112989953 B CN112989953 B CN 112989953B
Authority
CN
China
Prior art keywords
shielding
tracking
target
label
data set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110192501.4A
Other languages
English (en)
Other versions
CN112989953A (zh
Inventor
刘龙
程辉
史思琦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian University of Technology
Original Assignee
Xian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian University of Technology filed Critical Xian University of Technology
Priority to CN202110192501.4A priority Critical patent/CN112989953B/zh
Publication of CN112989953A publication Critical patent/CN112989953A/zh
Application granted granted Critical
Publication of CN112989953B publication Critical patent/CN112989953B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于度量学习的目标遮挡检测与跟踪方法,具体包括如下步骤:步骤1,在OTB数据集基础上,构建数据集D,通过Embedding函数对数据集D进行编码,将数据集D中样本均转化成一维向量,通过度量学习方式,对Embedding函数进行训练,得到优化后的Embedding函数和对应的标签原型ci;步骤2,根据步骤1中所得的优化后的Embedding函数和对应的标签原型ci,来判断目标跟踪中目标所处的遮挡状态,对不同的状态采用不同的跟踪策略。采用本发明可以为跟踪器的模型更新和决策提供更有效的信息,从而提高跟踪器的准确性和鲁棒性。

Description

一种基于度量学习的目标遮挡检测与跟踪方法
技术领域
本发明属于计算机视觉跟踪技术领域,涉及一种基于度量学习的目标遮挡检测与跟踪方法。
背景技术
目标跟踪是利用一个视频或图像序列的上下文信息,对目标的外观和运动信息进行建模,从而对目标的运动状态进行预测并标定目标位置的一种技术,是计算机视觉的一个重要基础问题,具有广泛的研究意义和应用价值,在智能视频监督系统、智能人机交互、智能交通和视觉导航题型等方面具有广泛应用。
研究人员在对运动目标跟踪技术的探索已有多年,目标跟踪算法的性能得到了许多有效的改善,但是在复杂条件下对运动目标实现实时、稳定的跟踪时仍然存在很大的挑战,主要有:形态变化、尺度变化、遮挡与消失等。
目标在运动过程中可能出现被遮挡或者短暂的消失情况,当这种情况发生时,跟踪框容易将遮挡物以及背景信息包含在跟踪框内,会导致后续帧中的跟踪目标漂移到遮挡物上面。若目标被完全遮挡时,由于找不到目标的对应模型,会导致跟踪失败。
当前在目标跟踪中比较主流的方法有基于相关滤波和基于深度学习两种。相关滤波方法学习的模型很大程度上取决于被跟踪物体的空间布局,因此对形变和遮挡问题表现得非常敏感,在发生遮挡时也会更新跟踪器,会使得跟踪器模型受到污染,从而导致由于遮挡而造成的跟踪精度下降;基于深度学习中采用的是模板不更新策略,对于目标发生遮挡与消失时容易产生漂移现象。因而在这过程中,引入一个遮挡检测环节,可以为跟踪器的模型更新和决策提供更有效的信息,从而提高跟踪器的准确性和鲁棒性。
发明内容
本发明的目的是提供一种基于度量学习的目标遮挡检测与跟踪方法,采用该方法可以为跟踪器的模型更新和决策提供更有效的信息,从而提高跟踪器的准确性和鲁棒性。
本发明所采用的技术方案是,一种基于度量学习的目标遮挡检测与跟踪方法,具体包括如下步骤:
步骤1,在OTB数据集基础上,构建数据集D,通过Embedding函数对数据集D进行编码,将数据集D中样本均转化成一维向量,通过度量学习方式,对Embedding函数/>进行训练,得到优化后的Embedding函数/>和对应的标签原型ci
步骤2,根据步骤1中所得的优化后的Embedding函数和对应的标签原型ci,来判断目标跟踪中目标所处的遮挡状态,对不同的状态采用不同的跟踪策略。
本发明的特点还在于:
步骤1的具体过程为:
步骤1.1,构建数据集D,数据集D中的每一帧图像都有对应的标签yi,i=1,2,3,y1,y2,y3分别表示为无遮挡、半遮挡、全遮挡;
步骤1.2,记Embedding函数为通过/>将数据集D中的所有图像一一编码为一维向量,并采用随机初始化的方式将/>初始化;
步骤1.3,从数据集D中为标签yi随机生成对应的支持集Si和查询集Qi,Si和Qi中的数据不重叠,支持集Si用来生成标签yi所对应的原型,查询集Qi用来对yi生成的原型做修正;
步骤1.4,通过函数将支持集Si中所有的图像数据一一编码为一维向量,编码后的任意一个图像数据记为/>Xi表示查询集Si中的任意一个样本;
步骤1.5,将支持集Si中的每个标签yi对应生成的原型ci表示为:
其中,(Xi,yi)表示支持集为Si中标签为yi的样本Xi
步骤1.6,取查询集Qi中的一个样本mi,通过将该样本mi进行编码成为一维向量记样本mi到相应标签yi原型的欧氏距离为/>
步骤1.7,将步骤1.6中的欧式距离通过如下公式(2)转化为概率,得到样本mi对应标签为yi的概率
最大,则认为样本mi的标签为y1;若/>最大,则认为样本mi的标签为y2;若/>最大,则认为样本mi的标签为y3
步骤1.8,对函数进行训练,设损失函数如下公式(3)所示:
步骤1.9,重复步骤1.6至1.8,将查询集Qi中的所有样本依次输入到函数中,即完成了一次训练,得到训练后分类正确率为Acc;
步骤1.10,重复步骤1.3至1.9,进行迭代训练,直至正确分类率Acc大于90%,结束训练,输出最终优化后的函数及与优化后的函数/>对应的每个标签原型ci
步骤1.1的具体过程为:对OTB所有视频序列中的跟踪目标加上不同程度的遮挡,将加入遮挡后的数据集记为数据集D,所述不同程度的遮挡包括无遮挡、半遮挡及全遮挡。
步骤1.1中,不同程度的遮挡中遮挡比例r采用如下公式(4)进行计算:
其中,记St为跟踪目标的面积,So为加上的遮挡面积,St≥So
当0≤r<0.3时,记为无遮挡;
当0.3≤r≤0.7时,记为半遮挡;
当0.7<r时,记为全遮挡。
步骤2的具体过程为:
步骤2.1,基于常用的孪生网络框架的跟踪器SiamFC,初始化第一帧,t=1,目标为p1
步骤2.2,采用跟踪器SiamFC得到下一帧的跟踪目标;
步骤2.3,在k时刻,记跟踪到的目标为pk
步骤2.4,将目标pk编码为一维向量,记为将/>与每个标签原型ci的欧氏距离表示为/>
步骤2.5,将步骤2.4中的欧式距离通过如下公式(5)转化为概率:
其中,为经步骤1优化后得到的Embedding函数,ci为与优化后的/>对应的标签原型;
最大,则认为目标pk的标签为y1;若/>最大,则认为目标pk的标签为y2;若/>最大,则认为目标pk的标签为y3
步骤2.6,若类别标签yi为无遮挡,则跟踪器SiamFC按照自身的跟踪策略执行;若类别标签yi为半遮挡,跟踪器SiamFC将搜索区域扩大为原来跟踪策略的1.4倍;若类别标签yi为全遮挡,跟踪器SiamFC将搜索区域扩大为整个图像区域,并将跟踪框保持在前一帧的位置,不进行更新;
步骤2.7,在k=k+1时刻,利用步骤2.6中相应的跟踪策略进行跟踪,将得到的跟踪结果回到步骤2.3,重复步骤2.3至步骤2.7,直至视频序列读完,即目标遮挡检测与跟踪完成。
本发明的有益效果如下:
1.利用度量学习,对目标运动过程中的遮挡情况实现有效度量;
2.在对跟踪中的目标遮挡情况,提出了有效的检测方法,并为跟踪器的决策提供信息;实现对不同遮挡情况的处理来提高跟踪器的准确性和鲁棒性。
附图说明
图1是本发明一种基于度量学习的目标遮挡检测与跟踪方法中对目标遮挡的跟踪过程。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明一种基于度量学习的目标遮挡检测与跟踪方法,具体包括如下步骤:
步骤1,在OTB数据集基础上,构建数据集D,通过Embedding函数对数据集D进行编码,将数据集D中样本均转化成一维向量,通过度量学习方式,对Embedding函数/>进行训练,得到优化后的Embedding函数/>和对应的标签原型ci
步骤1的具体过程为:
步骤1.1,构建数据集D,数据集D中的每一帧图像都有对应的标签yi,i=1,2,3,y1,y2,y3分别表示为无遮挡、半遮挡、全遮挡;
步骤1.1的具体过程为:对OTB所有视频序列中的跟踪目标加上不同程度的遮挡,将加入遮挡后的数据集记为数据集D,所述不同程度的遮挡包括无遮挡、半遮挡及全遮挡。
不同程度的遮挡中遮挡比例r采用如下公式(1)进行计算:
其中,记St为跟踪目标的面积,So为加上的遮挡面积,St≥So
当0≤r<0.3时,记为无遮挡;
当0.3≤r≤0.7时,记为半遮挡;
当0.7<r时,记为全遮挡。
步骤1.2,记Embedding函数为通过/>将数据集D中的所有图像一一编码为一维向量,并采用随机初始化的方式将/>初始化;
步骤1.3,从数据集D中为标签yi随机生成对应的支持集Si和查询集Qi,Si和Qi中的数据不重叠,支持集Si用来生成标签yi所对应的原型,查询集Qi用来对yi生成的原型做修正;
步骤1.4,通过函数将支持集Si中所有的图像数据一一编码为一维向量,编码后的任意一个图像数据记为/>Xi表示查询集Si中的任意一个样本;
步骤1.5,将支持集Si中的每个标签yi对应生成的原型ci表示为:
其中,(Xi,yi)表示支持集为Si中标签为yi的样本Xi
步骤1.6,取查询集Qi中的一个样本mi,通过将该样本mi进行编码成为一维向量记样本mi到相应标签yi原型的欧氏距离为/>查询集Qi与样本mi中的i取值相同,例如,如果查询集为Q1,则样本为m1
步骤1.7,将步骤1.6中的欧式距离通过如下公式(2)转化为概率,得到样本mi对应标签为yi的概率
最大,则认为样本mi的标签为y1;若/>最大,则认为样本mi的标签为y2;若/>最大,则认为样本mi的标签为y3
步骤1.8,对函数进行训练,设损失函数如下公式(4)所示:
在本发明中,希望损失最小,从而最大化log,即最大化正确分类的概率,通过最小化损失函数,来优化Embedding函数
步骤1.9,重复步骤1.6至1.8,将查询集Qi中的所有样本依次输入到函数中,即完成了一次训练,得到训练后分类正确率为Acc;
步骤1.10,重复步骤1.3至1.9,进行迭代训练,直至正确分类率Acc大于90%,结束训练,输出最终优化后的函数及与优化后的函数/>对应的每个标签原型ci
步骤2,根据步骤1中所得的优化后的Embedding函数和对应的标签原型ci,来判断目标跟踪中目标所处的遮挡状态,对不同的状态采用不同的跟踪策略,来提高跟踪器的鲁棒性。
步骤2的具体过程为,如图1所示:
步骤2.1,基于常用的孪生网络框架的跟踪器SiamFC,初始化第一帧,t=1,目标为p1
步骤2.2,采用跟踪器SiamFC得到下一帧的跟踪目标;
步骤2.3,在k时刻,记跟踪到的目标为pk
步骤2.4,将目标pk编码为一维向量,记为将/>与每个标签原型ci的欧氏距离表示为/>
步骤2.5,将步骤2.4中的欧式距离通过如下公式(5)转化为概率:
其中,为经步骤1优化后得到的Embedding函数,ci为与优化后的/>对应的标签原型;
最大,则认为目标pk的标签为y1;若/>最大,则认为目标pk的标签为y2;若/>最大,则认为目标pk的标签为y3
步骤2.6,若类别标签yi为无遮挡,则跟踪器SiamFC按照自身的跟踪策略执行;若类别标签yi为半遮挡,跟踪器SiamFC将搜索区域扩大为原来跟踪策略的1.4倍;若类别标签yi为全遮挡,跟踪器SiamFC将搜索区域扩大为整个图像区域,并将跟踪框保持在前一帧的位置,不进行更新;
步骤2.7,在k=k+1时刻,利用步骤2.6中相应的跟踪策略进行跟踪,将得到的跟踪结果回到步骤2.3,重复步骤2.3至步骤2.7,直至视频序列读完,即目标遮挡检测与跟踪完成。
本发明一种基于度量学习的目标遮挡检测与跟踪方法的特点为:通过对跟踪过程中目标遮挡情况的检测与分类,从而为下一帧跟踪器的处理提供有效信息,实现对不同遮挡情况的处理来提高跟踪器的准确性和鲁棒性。

Claims (3)

1.一种基于度量学习的目标遮挡检测与跟踪方法,其特征在于:具体包括如下步骤:
步骤1,在OTB数据集基础上,构建数据集D,通过Embedding函数对数据集D进行编码,将数据集D中样本均转化成一维向量,通过度量学习方式,对Embedding函数/>进行训练,得到优化后的Embedding函数/>和对应的标签原型ci
所述步骤1的具体过程为:
步骤1.1,构建数据集D,数据集D中的每一帧图像都有对应的标签yi,i=1,2,3,y1,y2,y3分别表示为无遮挡、半遮挡、全遮挡;
步骤1.2,记Embedding函数为通过/>将数据集D中的所有图像一一编码为一维向量,并采用随机初始化的方式将/>初始化;
步骤1.3,从数据集D中为标签yi随机生成对应的支持集Si和查询集Qi,Si和Qi中的数据不重叠;
步骤1.4,通过函数将支持集Si中所有的图像数据一一编码为一维向量,编码后的任意一个图像数据记为/>Xi表示查询集Si中的任意一个样本;
步骤1.5,将支持集Si中的每个标签yi对应生成的原型ci表示为:
其中,(Xi,yi)表示支持集为Si中标签为yi的样本Xi
步骤1.6,取查询集Qi中的一个样本mi,通过将该样本mi进行编码成为一维向量记样本mi到相应标签yi原型的欧氏距离为/>
步骤1.7,将步骤1.6中的欧式距离通过如下公式(2)转化为概率,得到样本mi对应标签为yi的概率
最大,则认为样本mi的标签为y1;若/>最大,则认为样本mi的标签为y2;若/>最大,则认为样本mi的标签为y3
步骤1.8,对函数进行训练,设损失函数如下公式(3)所示:
步骤1.9,重复步骤1.6至1.8,将查询集Qi中的所有样本依次输入到函数中,即完成了一次训练,得到训练后分类正确率为Acc;
步骤1.10,重复步骤1.3至1.9,进行迭代训练,直至正确分类率Acc大于90%,结束训练,输出最终优化后的函数及与优化后的函数/>对应的每个标签原型ci
步骤2,根据步骤1中所得的优化后的Embedding函数和对应的标签原型ci,来判断目标跟踪中目标所处的遮挡状态,对不同的状态采用不同的跟踪策略;
所述步骤2的具体过程为:
步骤2.1,基于常用的孪生网络框架的跟踪器SiamFC,初始化第一帧,t=1,目标为p1
步骤2.2,采用跟踪器SiamFC得到下一帧的跟踪目标;
步骤2.3,在k时刻,记跟踪到的目标为pk
步骤2.4,将目标pk编码为一维向量,记为将/>与每个标签原型ci的欧氏距离表示为/>
步骤2.5,将步骤2.4中的欧式距离通过如下公式(4)转化为概率:
其中,为经步骤1优化后得到的Embedding函数,ci为与优化后的/>对应的标签原型;
最大,则认为目标pk的标签为y1;若/>最大,则认为目标pk的标签为y2;若/>最大,则认为目标pk的标签为y3
步骤2.6,若类别标签yi为无遮挡,则跟踪器SiamFC按照自身的跟踪策略执行;若类别标签yi为半遮挡,跟踪器SiamFC将搜索区域扩大为原来跟踪策略的1.4倍;若类别标签yi为全遮挡,跟踪器SiamFC将搜索区域扩大为整个图像区域,并将跟踪框保持在前一帧的位置,不进行更新;
步骤2.7,在k=k+1时刻,利用步骤2.6中相应的跟踪策略进行跟踪,将得到的跟踪结果回到步骤2.3,重复步骤2.3至步骤2.7,直至视频序列读完,即目标遮挡检测与跟踪完成。
2.根据权利要求1所述的一种基于度量学习的目标遮挡检测与跟踪方法,其特征在于:所述步骤1.1的具体过程为:对OTB所有视频序列中的跟踪目标加上不同程度的遮挡,将加入遮挡后的数据集记为数据集D,所述不同程度的遮挡包括无遮挡、半遮挡及全遮挡。
3.根据权利要求2所述的一种基于度量学习的目标遮挡检测与跟踪方法,其特征在于:所述步骤1.1中,不同程度的遮挡中遮挡比例r采用如下公式(5)进行计算:
其中,记St为跟踪目标的面积,So为加上的遮挡面积,St≥So
当0≤r<0.3时,记为无遮挡;
当0.3≤r≤0.7时,记为半遮挡;
当0.7<r时,记为全遮挡。
CN202110192501.4A 2021-02-20 2021-02-20 一种基于度量学习的目标遮挡检测与跟踪方法 Active CN112989953B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110192501.4A CN112989953B (zh) 2021-02-20 2021-02-20 一种基于度量学习的目标遮挡检测与跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110192501.4A CN112989953B (zh) 2021-02-20 2021-02-20 一种基于度量学习的目标遮挡检测与跟踪方法

Publications (2)

Publication Number Publication Date
CN112989953A CN112989953A (zh) 2021-06-18
CN112989953B true CN112989953B (zh) 2024-02-13

Family

ID=76393652

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110192501.4A Active CN112989953B (zh) 2021-02-20 2021-02-20 一种基于度量学习的目标遮挡检测与跟踪方法

Country Status (1)

Country Link
CN (1) CN112989953B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9373036B1 (en) * 2015-01-16 2016-06-21 Toyota Motor Engineering & Manufacturing North America, Inc. Collaborative distance metric learning for method and apparatus visual tracking
CN110427813A (zh) * 2019-06-24 2019-11-08 中国矿业大学 基于姿态指导行人图像生成的孪生生成式对抗网络的行人重识别方法
CN110473231A (zh) * 2019-08-20 2019-11-19 南京航空航天大学 一种具有预判式学习更新策略的孪生全卷积网络的目标跟踪方法
CN111462184A (zh) * 2020-04-02 2020-07-28 桂林电子科技大学 基于孪生神经网络线性表示模型的在线稀疏原型跟踪方法
CN112085765A (zh) * 2020-09-15 2020-12-15 浙江理工大学 结合粒子滤波及度量学习的视频目标跟踪方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2564668B (en) * 2017-07-18 2022-04-13 Vision Semantics Ltd Target re-identification
US11055854B2 (en) * 2018-08-23 2021-07-06 Seoul National University R&Db Foundation Method and system for real-time target tracking based on deep learning

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9373036B1 (en) * 2015-01-16 2016-06-21 Toyota Motor Engineering & Manufacturing North America, Inc. Collaborative distance metric learning for method and apparatus visual tracking
CN110427813A (zh) * 2019-06-24 2019-11-08 中国矿业大学 基于姿态指导行人图像生成的孪生生成式对抗网络的行人重识别方法
CN110473231A (zh) * 2019-08-20 2019-11-19 南京航空航天大学 一种具有预判式学习更新策略的孪生全卷积网络的目标跟踪方法
CN111462184A (zh) * 2020-04-02 2020-07-28 桂林电子科技大学 基于孪生神经网络线性表示模型的在线稀疏原型跟踪方法
CN112085765A (zh) * 2020-09-15 2020-12-15 浙江理工大学 结合粒子滤波及度量学习的视频目标跟踪方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
张博言 ; 钟勇 ; .一种基于多样性正实例的单目标跟踪算法.哈尔滨工业大学学报.2020,(第10期),全文. *
王康豪 ; 殷海兵 ; 黄晓峰 ; .基于策略梯度的目标跟踪方法.浙江大学学报(工学版).2020,(第10期),全文. *
郭文 ; 游思思 ; 高君宇 ; 杨小汕 ; 张天柱 ; 徐常胜 ; .深度相对度量学习的视觉跟踪.中国科学:信息科学.2018,(第01期),全文. *

Also Published As

Publication number Publication date
CN112989953A (zh) 2021-06-18

Similar Documents

Publication Publication Date Title
Xia et al. Synthesize then compare: Detecting failures and anomalies for semantic segmentation
US8917907B2 (en) Continuous linear dynamic systems
CN107194408B (zh) 一种混合块稀疏协作模型的目标跟踪方法
Liu et al. Crowd counting via cross-stage refinement networks
CN111127513A (zh) 一种多目标跟踪方法
CN115995063A (zh) 作业车辆检测与跟踪方法和系统
CN110084201B (zh) 一种监控场景下基于特定目标跟踪的卷积神经网络的人体动作识别方法
Zhang et al. Monocular visual traffic surveillance: A review
CN112836640A (zh) 一种单摄像头多目标行人跟踪方法
CN111242985B (zh) 基于马尔科夫模型的视频多行人追踪方法
Dai et al. Instance segmentation enabled hybrid data association and discriminative hashing for online multi-object tracking
CN112381132A (zh) 一种基于多个摄像头融合的目标物跟踪方法和系统
CN113052873A (zh) 一种在线自监督学习场景适应的单目标跟踪方法
CN115908908A (zh) 基于图注意力网络的遥感图像聚集型目标识别方法及装置
CN113312973A (zh) 一种手势识别关键点特征提取方法及系统
CN116977367A (zh) 基于Transformer与卡尔曼滤波的校园多目标跟踪方法
CN107798329A (zh) 基于cnn的自适应粒子滤波目标跟踪方法
CN112884135B (zh) 一种基于边框回归的数据标注校正方法
CN113269038B (zh) 一种基于多尺度的行人检测方法
CN114676756A (zh) 图像识别方法、装置及计算机存储介质
Xie et al. Robust incremental long-term visual topological localization in changing environments
CN112989953B (zh) 一种基于度量学习的目标遮挡检测与跟踪方法
CN112967320A (zh) 一种基于桥梁防撞的船舶目标检测跟踪方法
CN113129336A (zh) 一种端到端多车辆跟踪方法、系统及计算机可读介质
CN117173607A (zh) 多层级融合多目标跟踪方法、系统及计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant