CN110555867A - 一种融合物体捕获识别技术的多目标物体跟踪方法 - Google Patents
一种融合物体捕获识别技术的多目标物体跟踪方法 Download PDFInfo
- Publication number
- CN110555867A CN110555867A CN201910835641.1A CN201910835641A CN110555867A CN 110555867 A CN110555867 A CN 110555867A CN 201910835641 A CN201910835641 A CN 201910835641A CN 110555867 A CN110555867 A CN 110555867A
- Authority
- CN
- China
- Prior art keywords
- target
- tracking
- frame
- result
- captured
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/223—Analysis of motion using block-matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种融合物体捕获识别技术的多目标物体跟踪方法及装置,涉及人脸识别技术领域,包括目标捕获:对每一帧的待跟踪目标进行识别,当前帧识别算法捕获的目标位置作为下一帧目标跟踪的初始值;目标比对:在空间位置和特征值上分别利用面积重叠法和欧氏距离比对当前帧目标跟踪结果和当前帧目标捕获结果的相似度;目标跟踪:通过多目标跟踪算法对捕获的不同目标进行同时跟踪。本发明通过目标识别算法辅助目标跟踪,可以在发生遮挡、复杂背景干扰情况下有效的对多个目标同时跟踪,同时也显著的提高了目标跟踪的准确率,有效解决了多帧连续跟踪过程中跟踪不准确的难题。
Description
技术领域
本发明涉及一种多目标物体跟踪技术,尤其涉及一种融合物体捕获识别技术的多目标物体跟踪方法。
背景技术
近年来,多目标跟踪已经成为计算机视觉领域的研究热点课题。目前存在的跟踪方法主要有生成式跟踪方法和判别式跟踪方法。生成式跟踪方法中,基于粒子滤波的目标跟踪算法在复杂的背景影响下已经发挥出很大的优越性,但是在多个目标的跟踪过程中还是存在问题,如果一个目标被其他目标遮挡,很难在这样的情况下理清目标关系从而继续跟踪。判别式方法一般情况下都比生成式方法更好,可以有效对背景和前景作区分。
目前也有很多学者提出了以深度学习为基础的判别式跟踪算法,如基于SAE(堆栈自编码器)的跟踪算法;如HCF(Hierarchical Convolutional Features)跟踪算法、DeepSRDCF算法和C-COT算法等都用深度卷积特征改进了判别相关滤波器DCF(Disriminative Correlation Filter);通过CNN特征对核相关滤波器(KCF)进行改进也是目标跟踪领域研究的热门,部分相关算法也结合了支持向量机和Adaboost等传统算法,在跟踪精度上可以取得比传统算法更好的效果,并且卷积特性也可以比手工特性提供更好的结果,但是深度学习类算法并没有如简单的分类、识别或者检测的方法那样容易成功。而且目前的目标跟踪技术通常是将目标检测与目标跟踪独立运行,但是在视频流中不同目标的不断移动以及不断变化的角度会使得特征值比对准确性降低,目标比对容易失败从而导致跟踪失败。
现有“一种基于片上异构系统的运动目标识别与追踪方法及系统”,专利号为201810980774.3,结合背景差分法及帧间差分法获取目标运动区域,通过Camshift算法跟踪获取区域内的目标,不易受光线变化等因素的影响,鲁棒性好,但是Camshift算法容易受到复杂背景的干扰,很难处理背景颜色或色调与目标接近的情况。
基于此,做出本申请。
发明内容
为了解决现有技术中存在的上述缺陷,本发明提供了一种融合物体捕获识别技术的多目标物体跟踪方法。
为了实现上述目的,本发明采取的技术方案如下:
一种融合物体捕获识别技术的多目标物体跟踪方法,包括:
目标捕获:对每一帧的待跟踪目标进行识别,当前帧识别算法捕获的目标位置作为下一帧目标跟踪的初始值;
目标比对:在空间位置和特征值上分别利用面积重叠法和欧氏距离比对当前帧目标跟踪结果和当前帧目标捕获结果的相似度;比对成功的目标捕获结果作为下一帧跟踪的初始值,比对失败或者当前帧未捕获到目标则用当前帧跟踪结果作为下一帧跟踪初始值继续跟踪;
目标跟踪:通过多目标跟踪算法对捕获的不同目标进行同时跟踪。
作为优选,所述目标比对步骤中,在空间位置上利用面积重叠法比对当前帧目标跟踪结果和当前帧目标捕获结果的相似度,具体是采用面积求交、并的方式,以面积重合度体现位置的相似度,由跟踪位置框与识别位置框的交集面积和二者面积中最小值的比值度量两框位置的相似度,若比值越大则相似度越高。
作为优选,所述目标比对步骤中,在特征值上利用欧氏距离比对当前帧目标跟踪结果和当前帧目标捕获结果的相似度,具体是获取邻近坐标集中捕获目标的特征值,匹配跟踪目标和捕获目标的特征值;通过跟踪算法输出结果中目标框的特征值向量和识别算法输出结果中目标框的特征值向量,在该特征空间中计算其欧氏距离,对特征值相似度设有阈值,该阈值经大量实验验证确定,若欧氏距离小于该阈值,则确定此时识别到的目标与一开始捕获的结果为同一目标。
作为优选,所述目标比对步骤中,所述比对成功的目标捕获结果作为下一帧跟踪的初始值,比对失败或者当前帧未捕获到目标则用当前帧跟踪结果作为下一帧跟踪初始值继续跟踪,具体为:如果跟踪结果和捕获结果的位置和特征值都匹配,则用识别算法捕获的结果更新当前目标状态;如果跟踪目标和捕获目标中有位置匹配但未匹配到特征,就认为该目标被遮挡,遮挡则继续跟踪,用当前帧跟踪的位置结果初始化下一帧跟踪,直到目标再次被识别算法捕获到,再继续用当前帧识别出的位置初始化下一帧的跟踪;如果跟踪结果出错而完全没有一个捕获结果能匹配,那就让这个目标下线,不再跟踪;剩下的未匹配的捕获结果就作为新目标加入数据库或旧目标重新上线。
作为优选,所述目标比对步骤中,从捕获到目标的第1帧开始,第1帧中跟踪的目标集是空集,第1帧中捕获的目标跟空集比对,第1帧目标捕获的结果直接作为下一帧跟踪算法的初始值进行目标跟踪,实际的目标比对是从第2帧开始进行。
作为优选,所述目标跟踪步骤中,具体包括
初始化跟踪器,用上一帧识别位置作为下一帧目标跟踪初始值,用上一帧目标编号作为下一帧目标跟踪的目标编号;若无法获取到上一帧成功捕获的目标,则下一帧跟踪的初始值和目标编号从当前帧跟踪到的目标结果中获取;
运行跟踪算法,获取当前跟踪目标位置、提取跟踪目标特征。
作为优选,所述目标跟踪步骤中,对不同目标进行同时跟踪是指对同一品类、物种的目标进行同时跟踪,或对不同品类、物种的目标进行同时跟踪;多目标跟踪算法可以对当前框内物体进行跟踪,通过目标识别算法可以对所跟踪物体进行区分。
本发明的工作原理:本发明通过将物体捕获识别技术与多目标物体跟踪算法相融合对目标进行跟踪,每一帧都会用目标识别算法对物体进行捕获并编号,相同的目标后续出现的编号是一致的。前一帧成功捕获的目标位置将成为下一帧跟踪算法的初始值,跟踪结果体现在下一帧。每帧图像中都会比对当前捕获的目标和跟踪目标的特征值,比对成功的捕获结果将会更新当前的跟踪结果并且作为下一帧跟踪的初始值。若上一帧没有成功的捕获目标,则使用跟踪结果当前值作为下一帧跟踪的初始值。当目标被遮挡时,用当前帧跟踪的位置结果继续跟踪被遮挡的目标,等待下一次目标重新出现并被捕获到再用捕获的位置初始化下一帧跟踪算法。
本发明能实现如下技术效果:
(1)本发明利用连续两帧视频中目标跟踪在空间上和时间上的相关性,使用当前帧中识别的目标位置作为下一帧目标物体跟踪的初始值,通过面积重叠法对跟踪结果和识别结果的空间位置进行比对,将不同帧中的目标比对转化为相同帧中的目标比对,同时将目标跟踪简化为仅在两帧之间做目标跟踪,对于不同生物或者非生物类物体目标的识别和跟踪场景中,通过目标识别算法辅助目标跟踪,可以在发生遮挡、复杂背景干扰情况下有效的对多个目标同时跟踪,同时也显著的提高了目标跟踪的准确率,有效解决了多帧连续跟踪过程中跟踪不准确的难题。
(2)实现了对多种物体的同时追踪,改进了在目标跟踪过程中将不同目标认成同一目标进行跟踪的情况,减少了目标角度和遮挡对目标跟踪带来的影响;
(3)每帧中对目标物体进行捕获,捕获成功后作为下一帧跟踪的初始值,改进了目标跟踪中高速运动、复杂背景、遮挡的情况,在全遮挡情况下大大降低了跟踪丢失率;
(4)通过目标跟踪,利用连续两帧空间和时间上的相关性,将不同帧中目标物体特征值比对,转换成相同帧中目标物体特征值的比对,极大程度上提高了目标识别的正确性。
附图说明
图1为本实施例实施过程的基本步骤流程图;
图2为本实施例实施过程的算法主循环流程图;
图3为本实施例实施过程的面积重叠法坐标示意图;
图4为本实施例实施过程的前三帧示意图。
具体实施方式
为了使本发明的技术手段及其所能达到的技术效果,能够更清楚更完善的披露,兹提供了以下实施例,并结合附图作如下详细说明:
如图1所示,本实施例的一种融合物体捕获识别技术的多目标物体跟踪方法,
包括如下步骤:
步骤1、目标捕获:每一帧都对待跟踪目标进行识别,当前帧识别算法捕获的目标位置作为下一帧目标跟踪的初始值。
输入视频流帧序列,获取视频帧,调用目标识别算法获取当前帧目标位置和目标特征,加入识别位置集,对目标进行编号。
步骤2、目标比对:在空间位置和特征值上分别利用面积重叠法和欧氏距离比对当前帧目标跟踪结果和当前帧目标捕获结果的相似度。比对成功的目标捕获结果作为下一帧跟踪的初始值,比对失败或者当前帧未捕获到目标则用当前帧跟踪结果作为下一帧跟踪初始值继续跟踪。
步骤21、如图3所示为面积重叠法的坐标示意图,粗实线框表示目标跟踪结果,细实线框表示目标识别捕获的结果,阴影部分为两者面积重叠处。在空间位置上利用面积重叠法比对当前帧目标跟踪结果和当前帧目标捕获结果的相似度,具体是采用面积求交、并的方式,以面积重合度体现位置的相似度,由跟踪位置框与识别位置框的交集面积和二者面积中最小值的比值度量两框位置的相似度,若比值越大则相似度越高(取值为[0,1]),如公式1所示:
公式1:
其中,loc1和loc2分别表示跟踪目标坐标和捕获目标坐标,S表示面积。经大量实验验证有效性后给定阈值ε=0.8,若IoM大于∈,即相交面积超过较小面积的80%时认为两框位置相似,则将满足条件的捕获目标结果保存到邻近坐标集中。
步骤22、获取邻近坐标集中的捕获目标特征值,匹配跟踪目标和捕获目标的特征值。跟踪算法输出结果中目标框的特征值向量表示为(x1,x2,…,xn),识别算法输出结果中目标框的特征值向量表示为(y1,y2,…,yn),在该特征空间中计算其欧氏距离f,对特征值相似度设有阈值η=0.7(本实施例使用Faster RCNN算法,经大量实验验证有效性后设置阈值为0.7),若f小于η,则确定此时识别到的目标与一开始捕获的结果为同一目标。
公式2:
所述步骤2中,所述的比对成功的目标捕获结果作为下一帧跟踪的初始值,比对失败或者当前帧未捕获到目标则用当前帧跟踪结果作为下一帧跟踪初始值继续跟踪,具体是:如果跟踪结果和捕获结果的位置和特征值都匹配,则用识别算法捕获的结果更新当前目标状态;如果跟踪目标和捕获目标中有位置匹配但未匹配到特征,就认为该目标被遮挡,遮挡则继续跟踪,用当前帧跟踪的位置结果初始化下一帧跟踪,直到目标再次被识别算法捕获到,再继续用当前帧识别出的位置初始化下一帧的跟踪;如果跟踪结果出错而完全没有一个捕获结果能匹配,那就让这个目标“下线”,即不再跟踪;剩下的未匹配的捕获结果就作为新目标加入数据库或旧目标重新上线。
所述步骤2中,从捕获到目标的第1帧开始,第1帧中跟踪的目标集是空集,第1帧中捕获的目标跟空集比对,即第1帧目标捕获的结果直接作为下一帧跟踪算法的初始值进行目标跟踪,实际的目标比对是从第2帧开始才进行。
如图2所示为本实施例的算法主循环流程图,获取视频帧序列后连接数据库进行全局初始化,若存在可读取的视频帧序列,运行识别算法进行目标捕获,获得目标特征值和目标捕获位置,若当前为第1帧,跟踪的目标集是空集,第1帧中捕获的目标跟空集比对,即第1帧目标捕获的结果直接作为下一帧跟踪算法的初始值进行目标跟踪;第2帧之后,则当前有目标捕获结果和跟踪结果,通过公式1和公式2计算面积重合度和欧式距离对两结果的目标位置和特征值进行比对,如果跟踪结果出错而完全没有一个捕获位置能匹配,那就让这个目标“下线”,即结束对该目标的跟踪,如果跟踪结果和捕获结果的位置和特征值都匹配,则用识别算法捕获的结果更新当前目标状态,如果跟踪目标和捕获目标中有位置匹配但未匹配到特征,就认为目标被遮挡,则用当前帧跟踪的位置结果初始化下一帧跟踪,直到目标再次被识别算法捕获到,再继续用当前帧捕获位置初始化下一帧的跟踪,剩下的未匹配的捕获结果就作为新增目标,加入数据库或旧目标重新上线。
步骤3、目标跟踪:通过多目标跟踪算法对捕获的不同目标进行同时跟踪。
步骤31、初始化跟踪器。用上一帧识别位置作为下一帧目标跟踪初始值,用上一帧目标编号作为下一帧目标跟踪的目标编号;若无法获取到上一帧成功捕获的目标,则下一帧跟踪的初始值和目标编号从当前帧跟踪到的目标结果中获取。
步骤32、运行跟踪算法,获取当前跟踪目标位置、提取跟踪目标特征。
所述步骤3中,对不同目标进行同时跟踪是指可以对同一品类、物种的目标进行同时跟踪,也可以对不同品类、物种的目标进行同时跟踪。多目标跟踪算法可以对当前框内物体进行跟踪,通过目标识别算法可以对所跟踪物体进行区分。
只要实时的或者录制好的视频流未结束,就重复步骤1-3。
如图4所示为本实施例施过程中的前三帧示意图,从图中可以看出本发明方法是一种可以跟踪并识别多目标的方法,本实施例使用Faster RCNN算法识别捕获目标,使用基于卷积神经网络的ATOM(Accurate Tracking by Overlap Maximization通过重叠最大化精确跟踪)目标跟踪算法对目标进行跟踪。本发明同样适用于其他的目标识别和目标跟踪算法。图中粗实线框表示跟踪的结果,细实线框表示识别算法捕获目标的结果,在第1帧,通过识别算法对目标进行捕获,跟踪集为空集,目标捕获的结果作为下一帧跟踪的初始值;在第2帧,通过识别算法对目标进行捕获,得到当前目标捕获结果即细实线框,从上一帧目标捕获结果跟踪下来的当前跟踪结果为粗实线框,比对当前目标捕获结果和当前跟踪结果,若比对成功,则用当前捕获结果更新当前跟踪结果,并作为下一帧跟踪的初始值,若比对失败或者当前帧未捕获到目标则用当前帧跟踪结果作为下一帧跟踪初始值继续跟踪;在第3帧,当前的目标1(ID1)被目标2(ID2)遮挡,对于目标2可以使用当前帧捕获结果初始化下一帧的跟踪算法,对于目标1,则用当前帧跟踪的位置结果初始化下一帧跟踪,直到目标再次被识别算法捕获到,再继续用当前帧捕获结果初始化下一帧的跟踪。
以上内容是结合本发明的优选实施方式对所提供技术方案所作的进一步详细说明,不能认定本发明具体实施只局限于上述这些说明,对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。
Claims (7)
1.一种融合物体捕获识别技术的多目标物体跟踪方法,其特征在于,包括:
目标捕获:对每一帧的待跟踪目标进行识别,当前帧识别算法捕获的目标位置作为下一帧目标跟踪的初始值;
目标比对:在空间位置和特征值上分别利用面积重叠法和欧氏距离比对当前帧目标跟踪结果和当前帧目标捕获结果的相似度;比对成功的目标捕获结果作为下一帧跟踪的初始值,比对失败或者当前帧未捕获到目标则用当前帧跟踪结果作为下一帧跟踪初始值继续跟踪;
目标跟踪:通过多目标跟踪算法对捕获的不同目标进行同时跟踪。
2.如权利要求1所述的一种融合物体捕获识别技术的多目标物体跟踪方法,其特征在于:所述目标比对步骤中,在空间位置上利用面积重叠法比对当前帧目标跟踪结果和当前帧目标捕获结果的相似度,具体是采用面积求交、并的方式,以面积重合度体现位置的相似度,由跟踪位置框与识别位置框的交集面积和二者面积中最小值的比值度量两框位置的相似度,若比值越大则相似度越高。
3.如权利要求1所述的一种融合物体捕获识别技术的多目标物体跟踪方法,其特征在于:所述目标比对步骤中,在特征值上利用欧氏距离比对当前帧目标跟踪结果和当前帧目标捕获结果的相似度,具体是获取邻近坐标集中捕获目标的特征值,匹配跟踪目标和捕获目标的特征值;通过跟踪算法输出结果中目标框的特征值向量和识别算法输出结果中目标框的特征值向量,在该特征空间中计算其欧氏距离,对特征值相似度设有阈值,若欧氏距离小于该阈值,则确定此时识别到的目标与一开始捕获的结果为同一目标。
4.如权利要求1所述的一种融合物体捕获识别技术的多目标物体跟踪方法,其特征在于:所述目标比对步骤中,所述比对成功的目标捕获结果作为下一帧跟踪的初始值,比对失败或者当前帧未捕获到目标则用当前帧跟踪结果作为下一帧跟踪初始值继续跟踪,具体为:如果跟踪结果和捕获结果的位置和特征值都匹配,则用识别算法捕获的结果更新当前目标状态;如果跟踪目标和捕获目标中有位置匹配但未匹配到特征,就认为该目标被遮挡,遮挡则继续跟踪,用当前帧跟踪的位置结果初始化下一帧跟踪,直到目标再次被识别算法捕获到,再继续用当前帧识别出的位置初始化下一帧的跟踪;如果跟踪结果出错而完全没有一个捕获结果能匹配,那就让这个目标下线,不再跟踪;剩下的未匹配的捕获结果就作为新目标加入数据库或旧目标重新上线。
5.如权利要求1所述的一种融合物体捕获识别技术的多目标物体跟踪方法,其特征在于:所述目标比对步骤中,从捕获到目标的第1帧开始,第1帧中跟踪的目标集是空集,第1帧中捕获的目标跟空集比对,第1帧目标捕获的结果直接作为下一帧跟踪算法的初始值进行目标跟踪,实际的目标比对是从第2帧开始进行。
6.如权利要求1所述的一种融合物体捕获识别技术的多目标物体跟踪方法,其特征在于:所述目标跟踪步骤中,具体包括
初始化跟踪器,用上一帧识别位置作为下一帧目标跟踪初始值,用上一帧目标编号作为下一帧目标跟踪的目标编号;若无法获取到上一帧成功捕获的目标,则下一帧跟踪的初始值和目标编号从当前帧跟踪到的目标结果中获取;
运行跟踪算法,获取当前跟踪目标位置、提取跟踪目标特征。
7.如权利要求1所述的一种融合物体捕获识别技术的多目标物体跟踪方法,其特征在于:所述目标跟踪步骤中,对不同目标进行同时跟踪是指对同一品类、物种的目标进行同时跟踪,或对不同品类、物种的目标进行同时跟踪;多目标跟踪算法可以对当前框内物体进行跟踪,通过目标识别算法可以对所跟踪物体进行区分。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910835641.1A CN110555867B (zh) | 2019-09-05 | 2019-09-05 | 一种融合物体捕获识别技术的多目标物体跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910835641.1A CN110555867B (zh) | 2019-09-05 | 2019-09-05 | 一种融合物体捕获识别技术的多目标物体跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110555867A true CN110555867A (zh) | 2019-12-10 |
CN110555867B CN110555867B (zh) | 2023-07-07 |
Family
ID=68739092
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910835641.1A Active CN110555867B (zh) | 2019-09-05 | 2019-09-05 | 一种融合物体捕获识别技术的多目标物体跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110555867B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112819859A (zh) * | 2021-02-02 | 2021-05-18 | 重庆特斯联智慧科技股份有限公司 | 一种应用于智慧安防的多目标跟踪方法及装置 |
CN112862854A (zh) * | 2021-02-08 | 2021-05-28 | 桂林电子科技大学 | 一种改进kcf算法的多无人机跟踪方法 |
WO2021189448A1 (zh) * | 2020-03-27 | 2021-09-30 | 深圳市大疆创新科技有限公司 | 目标跟踪方法、目标跟踪装置、可移动平台和存储介质 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1794264A (zh) * | 2005-12-31 | 2006-06-28 | 北京中星微电子有限公司 | 视频序列中人脸的实时检测与持续跟踪的方法及系统 |
CN102999920A (zh) * | 2012-10-25 | 2013-03-27 | 西安电子科技大学 | 基于最近邻分类器和均值漂移的目标跟踪方法 |
CN106778712A (zh) * | 2017-03-01 | 2017-05-31 | 扬州大学 | 一种多目标检测与跟踪方法 |
CN107357426A (zh) * | 2017-07-03 | 2017-11-17 | 南京江南博睿高新技术研究院有限公司 | 一种用于虚拟现实设备的体感控制方法 |
CN107516303A (zh) * | 2017-09-01 | 2017-12-26 | 成都通甲优博科技有限责任公司 | 多目标跟踪方法及系统 |
CN107833239A (zh) * | 2017-10-26 | 2018-03-23 | 辽宁工程技术大学 | 一种基于加权模型约束的寻优匹配目标跟踪方法 |
CN108171196A (zh) * | 2018-01-09 | 2018-06-15 | 北京智芯原动科技有限公司 | 一种人脸检测方法及装置 |
CN108307113A (zh) * | 2018-01-26 | 2018-07-20 | 北京图森未来科技有限公司 | 图像采集方法、图像采集控制方法及相关装置 |
CN108564069A (zh) * | 2018-05-04 | 2018-09-21 | 中国石油大学(华东) | 一种工业佩戴安全帽视频检测方法 |
CN109063593A (zh) * | 2018-07-13 | 2018-12-21 | 北京智芯原动科技有限公司 | 一种人脸跟踪方法及装置 |
CN109190444A (zh) * | 2018-07-02 | 2019-01-11 | 南京大学 | 一种基于视频的收费车道车辆特征识别系统的实现方法 |
CN109410243A (zh) * | 2018-10-16 | 2019-03-01 | 中电科新型智慧城市研究院有限公司 | 基于区域交叠与模板匹配的多目标跟踪方法 |
-
2019
- 2019-09-05 CN CN201910835641.1A patent/CN110555867B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1794264A (zh) * | 2005-12-31 | 2006-06-28 | 北京中星微电子有限公司 | 视频序列中人脸的实时检测与持续跟踪的方法及系统 |
CN102999920A (zh) * | 2012-10-25 | 2013-03-27 | 西安电子科技大学 | 基于最近邻分类器和均值漂移的目标跟踪方法 |
CN106778712A (zh) * | 2017-03-01 | 2017-05-31 | 扬州大学 | 一种多目标检测与跟踪方法 |
CN107357426A (zh) * | 2017-07-03 | 2017-11-17 | 南京江南博睿高新技术研究院有限公司 | 一种用于虚拟现实设备的体感控制方法 |
CN107516303A (zh) * | 2017-09-01 | 2017-12-26 | 成都通甲优博科技有限责任公司 | 多目标跟踪方法及系统 |
CN107833239A (zh) * | 2017-10-26 | 2018-03-23 | 辽宁工程技术大学 | 一种基于加权模型约束的寻优匹配目标跟踪方法 |
CN108171196A (zh) * | 2018-01-09 | 2018-06-15 | 北京智芯原动科技有限公司 | 一种人脸检测方法及装置 |
CN108307113A (zh) * | 2018-01-26 | 2018-07-20 | 北京图森未来科技有限公司 | 图像采集方法、图像采集控制方法及相关装置 |
CN108564069A (zh) * | 2018-05-04 | 2018-09-21 | 中国石油大学(华东) | 一种工业佩戴安全帽视频检测方法 |
CN109190444A (zh) * | 2018-07-02 | 2019-01-11 | 南京大学 | 一种基于视频的收费车道车辆特征识别系统的实现方法 |
CN109063593A (zh) * | 2018-07-13 | 2018-12-21 | 北京智芯原动科技有限公司 | 一种人脸跟踪方法及装置 |
CN109410243A (zh) * | 2018-10-16 | 2019-03-01 | 中电科新型智慧城市研究院有限公司 | 基于区域交叠与模板匹配的多目标跟踪方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021189448A1 (zh) * | 2020-03-27 | 2021-09-30 | 深圳市大疆创新科技有限公司 | 目标跟踪方法、目标跟踪装置、可移动平台和存储介质 |
CN112819859A (zh) * | 2021-02-02 | 2021-05-18 | 重庆特斯联智慧科技股份有限公司 | 一种应用于智慧安防的多目标跟踪方法及装置 |
CN112819859B (zh) * | 2021-02-02 | 2023-06-02 | 重庆特斯联智慧科技股份有限公司 | 一种应用于智慧安防的多目标跟踪方法及装置 |
CN112862854A (zh) * | 2021-02-08 | 2021-05-28 | 桂林电子科技大学 | 一种改进kcf算法的多无人机跟踪方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110555867B (zh) | 2023-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10990191B2 (en) | Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data | |
CN106296742B (zh) | 一种结合特征点匹配的在线目标跟踪方法 | |
CN110569785B (zh) | 一种融合跟踪技术的人脸识别方法 | |
Bernardin et al. | Multiple object tracking performance metrics and evaluation in a smart room environment | |
CN105405154B (zh) | 基于颜色-结构特征的目标对象跟踪方法 | |
Cai et al. | Robust visual tracking for multiple targets | |
CN109919974A (zh) | 基于r-fcn框架多候选关联的在线多目标跟踪方法 | |
CN110555867A (zh) | 一种融合物体捕获识别技术的多目标物体跟踪方法 | |
CN112464847B (zh) | 视频中人体动作切分方法及装置 | |
CN104794451B (zh) | 基于分块匹配结构的行人比对方法 | |
Harville | Stereo person tracking with short and long term plan-view appearance models of shape and color | |
CN105741326A (zh) | 一种基于聚类融合的视频序列的目标跟踪方法 | |
CN106067031A (zh) | 基于人工纠错机制与深度学习网络协作机器视觉识别系统 | |
Zhang et al. | Real-time multi-target multi-camera tracking with spatial-temporal information | |
CN113255608A (zh) | 一种基于cnn分类的多摄像头人脸识别定位方法 | |
Jean et al. | Body tracking in human walk from monocular video sequences | |
CN110349184B (zh) | 基于迭代滤波和观测判别的多行人跟踪方法 | |
Hu et al. | A robust person tracking and following approach for mobile robot | |
CN107730535A (zh) | 一种可见光红外级联视频跟踪方法 | |
CN112257617A (zh) | 多模态目标识别方法和系统 | |
US20210166041A1 (en) | System and method for tracking customer movements in a customer service environment | |
Ben Shitrit et al. | Tracking Multiple Players using a Single Camera | |
Madrigal et al. | 3d head pose estimation enhanced through surf-based key-frames | |
Pan et al. | Learning to Track by Bi-Directional Long Short-Term Memory Networks | |
Chen et al. | Vehicle Target Detection and Tracking in Complicated Scenes of Infrared Videos |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20201119 Address after: Room 1007, building 3, Fengyuan international building, 430 Fengtan Road, Gongshu District, Hangzhou City, Zhejiang Province Applicant after: Hangzhou Zhiai time Technology Co.,Ltd. Address before: 311300 room 413, building 2, No. 168, Qianwu Road, Qingshanhu street, Lin'an District, Hangzhou City, Zhejiang Province Applicant before: HANGZHOU LICHEN TECHNOLOGY Co.,Ltd. |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |