CN111768427B - 一种多运动目标跟踪方法、装置及存储介质 - Google Patents
一种多运动目标跟踪方法、装置及存储介质 Download PDFInfo
- Publication number
- CN111768427B CN111768427B CN202010379586.2A CN202010379586A CN111768427B CN 111768427 B CN111768427 B CN 111768427B CN 202010379586 A CN202010379586 A CN 202010379586A CN 111768427 B CN111768427 B CN 111768427B
- Authority
- CN
- China
- Prior art keywords
- moving target
- area
- tracker
- iou
- matched
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 76
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 48
- 239000011159 matrix material Substances 0.000 claims abstract description 45
- 238000004364 calculation method Methods 0.000 claims description 21
- 230000001133 acceleration Effects 0.000 claims description 20
- 238000001514 detection method Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 6
- 230000003287 optical effect Effects 0.000 claims description 4
- 238000010276 construction Methods 0.000 claims description 2
- 238000013135 deep learning Methods 0.000 description 7
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003321 amplification Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/223—Analysis of motion using block-matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Computational Mathematics (AREA)
- Mathematical Optimization (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Pure & Applied Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Computing Systems (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
本发明公开了一种多运动目标跟踪方法、装置及存储介质,该方法包括:获取待检测图像中的N个运动目标区域;根据每一个运动目标区域与预先获取的每一个跟踪器的当前位置区域及预测区域的IOU值,获取所有运动目标区域与所有跟踪器的IOU关系矩阵;根据IOU关系矩阵,利用匈牙利算法对每一个运动目标区域匹配对应的跟踪器;当任一个运动目标区域匹配上任一个跟踪器时,根据运动目标区域对匹配的跟踪器的当前位置区域进行更新,并根据更新后的当前位置区域和预先获取的匹配的跟踪器的运动数据对匹配的跟踪器的预测区域进行更新;本发明能够减少跟踪数据的计算量,从而减少跟踪目标与跟踪器的匹配时间,进而提高跟踪目标的跟踪效率。
Description
技术领域
本发明涉及目标跟踪技术领域,尤其涉及一种多运动目标跟踪方法、装置及存储介质。
背景技术
目前,视频的目标跟踪有以下两种跟踪方法,一种方法步骤如下:首先将视频中的每帧视频进行目标检测;其次,使用KCF算法作为单目标跟踪器算法,分别为每个目标匹配对应的跟踪器。
另一种方法步骤如下:首先对视频的第一帧图像进行目标检测,并将检测到的目标初始化一个单目标跟踪器;其中,跟踪器由一个分类器和一个预测器组成,预测器用于预测目标下一个位置,分类器确认预测是否准确;其次,每隔N帧重新进行目标检测,将检测结果与跟踪结果匹配,修正跟踪的目标,并将新检测到的目标加入跟踪队列,以是实现目标跟踪。
由上可知,上述两种方法需使用KCF算法或深度学习算法(分类器模型需要用到深度学习算法)分别对每个目标进行跟踪,然而KCF算法和深度学习算法的计算量大,导致获取跟踪目标对应的跟踪器的时间长,从而导致跟踪目标的跟踪速度慢,跟踪效率低。
发明内容
本发明实施例所要解决的技术问题在于,提供一种多运动目标跟踪方法、装置及存储介质,能够减少跟踪数据的计算量,从而减少跟踪目标与跟踪器的匹配时间,进而提高跟踪目标的跟踪效率。
为了解决上述技术问题,本发明实施例提供了一种多运动目标跟踪方法,包括:
获取待检测图像中的N个运动目标区域;其中,N≥1;
根据每一个所述运动目标区域与预先获取的每一个跟踪器的当前位置区域及预测区域的IOU值,获取所有所述运动目标区域与所有所述跟踪器的IOU关系矩阵;
根据所述IOU关系矩阵,利用匈牙利算法对每一个所述运动目标区域匹配对应的跟踪器;
当任一个所述运动目标区域匹配上任一个所述跟踪器时,根据所述运动目标区域对匹配的跟踪器的当前位置区域进行更新,并根据更新后的当前位置区域和预先获取的所述匹配的跟踪器的运动数据对所述匹配的跟踪器的预测区域进行更新;其中,所述预测区域用于预测运动目标的位置,以对运动目标进行跟踪。
进一步地,所述预测区域包括匀速直线运动预测区域和匀变速直线运动预测区域;则,所述根据每一个所述运动目标区域与预先获取的每一个跟踪器的当前位置区域及预测区域的IOU值,获取所有所述运动目标区域与所有所述跟踪器的IOU关系矩阵,具体为:
计算每一个所述运动目标区域与预先获取的每一个跟踪器的当前位置区域的第一IOU值;
计算每一个所述运动目标区域与预先获取的每一个跟踪器的匀速直线运动预测区域的第二IOU值;
计算每一个所述运动目标区域与预先获取的每一个跟踪器的匀变速直线运动预测区域的第三IOU值;
比较所述第一IOU值、所述第二IOU值和所述第三IOU值的大小,将数值最大的IOU值作为对应的所述运动目标区域与对应的所述跟踪器的最终IOU值;
根据所有所述运动目标区域与所有所述跟踪器的最终IOU值,获得所有所述运动目标区域与所有所述跟踪器的IOU关系矩阵。
进一步地,所述匹配的跟踪器的运动数据包括更新后的匀速直线运动的速度、更新后的匀变速直线运动的速度和更新后的匀变速直线运动的加速度;则,所述根据更新后的当前位置区域和预先获取的所述匹配的跟踪器的运动数据对所述匹配的跟踪器的预测区域进行更新,具体为:
根据所述更新后的当前位置区域的中点坐标、所述更新后的匀速直线运动的速度、预设的时间间隔和预设的第一跟踪面积对所述匹配的跟踪器的匀速直线运动预测区域进行更新;
根据所述更新后的当前位置区域的中点坐标、所述更新后的匀变速直线运动的速度、所述更新后的匀变速直线运动的加速度、所述时间间隔和所述第一跟踪面积对所述匹配的跟踪器的匀变速直线运动预测区域进行更新。
进一步地,在所述根据所述IOU关系矩阵,利用匈牙利算法对每一个所述运动目标区域匹配对应的跟踪器之后,所述方法还包括:
当任一个所述运动目标区域未匹配上任一个所述跟踪器时,根据所述运动目标区域和预设的第二跟踪面积对新建立的跟踪器的当前位置区域进行更新,并根据更新后的当前位置区域和预先获得的所述新建立的跟踪器的运动数据对所述新建立的跟踪器的预测区域进行更新。
进一步地,在所述根据所述IOU关系矩阵,利用匈牙利算法对每一个所述运动目标区域匹配对应的跟踪器之后,所述方法还包括:
当任一个所述跟踪器未匹配上任一个所述运动目标区域时,判断未匹配上任一个所述运动目标区域的跟踪器是否连续R张待检测图像均未匹配到对应的运动目标区域;
若未匹配上任一个所述运动目标区域的跟踪器不是连续R张待检测图像均未匹配到对应的运动目标区域,则将所述未匹配上任一个所述运动目标区域的跟踪器的当前位置区域作为所述未匹配上任一个所述运动目标区域的跟踪器更新后的当前位置区域,并根据所述更新后的当前位置区域和预先获取的所述未匹配上任一个所述运动目标区域的跟踪器的运动数据对所述未匹配上任一个所述运动目标区域的跟踪器的预测区域进行更新。
若未匹配上任一个所述运动目标区域的跟踪器连续R张待检测图像均未匹配到对应的运动目标区域,则销毁该跟踪器。
进一步地,在获得所述IOU关系矩阵之后,所述方法还包括:
将所述IOU关系矩阵中小于预设阈值的IOU值置零,获得处理后的IOU关系矩阵;
则,所述根据所述IOU关系矩阵,利用匈牙利算法对每一个所述运动目标区域匹配对应的跟踪器,具体包括:
根据所述处理后的IOU关系矩阵,利用匈牙利算法对每一个所述运动目标区域匹配对应的跟踪器。
进一步地,所述获取待检测图像中的N个运动目标区域,具体为:
通过录影设备获取待检测图像序列;其中,所述待检测图像序列包括所述待检测图像;
基于背景建模方法,对所述待检测图像进行运动检测,获得待处理运动前景;其中,所述背景建模方法为以下任一:混合高斯法、帧差法、K邻近法和光流法;
对所述待处理运动前景进行开运算或闭运算,获得运动前景;
根据所述运动前景中的前景轮廓,获得M个待合并运动目标区域,并根据每个所述待合并运动目标区域的坐标,对所有所述待合并运动目标区域进行合并,获得所述待检测图像中的N个运动目标区域;其中,M≥N≥1。
进一步地,所述根据每个所述待合并运动目标区域的坐标,对所有所述待合并运动目标区域进行合并,获得N个运动目标区域,具体为:
根据每个所述待合并运动目标区域的坐标,计算任意两个待合并运动目标区域之间的相对距离;其中,所述相对距离的计算公式为以下任一:欧式距离计算公式、曼哈顿距离计算公式;
判断所述相对距离是否小于预设的距离阈值;
若所述相对距离小于预设的距离阈值,则通过网格聚类算法或层次聚类算法将对应的两个待合并运动目标区域进行合并,获得所述运动目标区域;
若所述相对距离不小于预设的距离阈值,则将对应的两个待合并运动目标区域分别标记为所述运动目标区域。
相应地,本发明还提供一种多运动目标跟踪装置,包括:
获取模块,用于获取待检测图像中的N个运动目标区域;其中,N≥1;
计算模块,用于根据每一个所述运动目标区域与预先获取的每一个跟踪器的当前位置区域及预测区域的IOU值,获取所有所述运动目标区域与所有所述跟踪器的IOU关系矩阵;
跟踪器匹配模块,用于根据所述IOU关系矩阵,利用匈牙利算法对每一个所述运动目标区域匹配对应的跟踪器;
预测区域更新模块,用于当任一个所述运动目标区域匹配上任一个所述跟踪器时,根据所述运动目标区域对匹配的跟踪器的当前位置区域进行更新,并根据更新后的当前位置区域和预先获取的所述匹配的跟踪器的运动数据对所述匹配的跟踪器的预测区域进行更新;其中,所述预测区域用于预测运动目标的位置,以对运动目标进行跟踪。
相应地,本发明还提供了一种计算机可读存储介质,所述计算机可读存储介质包括存储的计算机程序;其中,所述计算机程序在运行时控制所述计算机可读存储介质所在的设备执行上述任一项所述的多运动目标跟踪方法。
实施本发明实施例,具有如下有益效果:
本发明实施例提供了一种多运动目标跟踪方法、装置及存储介质,该方法包括:获取待检测图像中的N个运动目标区域;根据每一个运动目标区域与预先获取的每一个跟踪器的当前位置区域及预测区域的IOU值,获取所有运动目标区域与所有跟踪器的IOU关系矩阵;根据IOU关系矩阵,利用匈牙利算法对每一个运动目标区域匹配对应的跟踪器;当任一个运动目标区域匹配上任一个跟踪器时,根据运动目标区域对匹配的跟踪器的当前位置区域进行更新,并根据更新后的当前位置区域和预先获取的匹配的跟踪器的运动数据对匹配的跟踪器的预测区域进行更新;相比于现有的视频中的目标跟踪方法,本发明无需使用KCF算法或深度学习算法,而是根据所有所述运动目标区域与所有所述跟踪器的IOU关系矩阵,利用匈牙利算法对每一个运动目标区域匹配对应的跟踪器,减少跟踪数据的计算量,从而减少跟踪器的匹配时间,进而提高跟踪目标的跟踪效率。
附图说明
图1是本发明提供的一种多运动目标跟踪方法的一个优选实施例的流程图;
图2是本发明提供的一种多运动目标跟踪方法的另一个优选实施例的流程图;
图3是本发明提供的一种多运动目标跟踪装置的一个优选实施例的结构框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本技术领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供了一种多运动目标跟踪方法,参见图1所示,是本发明提供的一种多运动目标跟踪方法的一个优选实施例的流程图,所述方法包括步骤S11至步骤S14:
步骤S11、获取待检测图像中的N个运动目标区域;其中,N≥1;
步骤S12、根据每一个所述运动目标区域与预先获取的每一个跟踪器的当前位置区域及预测区域的IOU值,获取所有所述运动目标区域与所有所述跟踪器的IOU关系矩阵;
步骤S13、根据所述IOU关系矩阵,利用匈牙利算法对每一个所述运动目标区域匹配对应的跟踪器;
步骤S14、当任一个所述运动目标区域匹配上任一个所述跟踪器时,根据所述运动目标区域对匹配的跟踪器的当前位置区域进行更新,并根据更新后的当前位置区域和预先获取的所述匹配的跟踪器的运动数据对所述匹配的跟踪器的预测区域进行更新;其中,所述预测区域用于预测运动目标的位置,以对运动目标进行跟踪。
具体地,预先获取每一个跟踪器的当前位置区域以及预测区域,计算待检测图像中的每一个运动目标区域与每一个跟踪器的当前位置区域的IOU值,计算待检测图像中每一个运动目标区域与每一个跟踪器的预测区域的IOU值,从所有IOU值中获取所有所述运动目标区域与所有所述跟踪器的IOU关系矩阵;根据IOU关系矩阵,利用匈牙利算法对每一个运动目标匹配对应的跟踪器,在无需使用深度学习算法或KCF算法的前提下实现运动目标的跟踪,减少跟踪数据的计算量,从而减少跟踪器的匹配时间,进而提高跟踪目标的跟踪效率。
在又一个优选实施例中,步骤S11的具体步骤包括:
通过录影设备获取待检测图像序列;其中,所述待检测图像序列包括所述待检测图像;
基于背景建模方法,对所述待检测图像进行运动检测,获得待处理运动前景;其中,所述背景建模方法为以下任一:混合高斯法、帧差法、K邻近法和光流法;
对所述待处理运动前景进行开运算或闭运算,获得运动前景;
根据所述运动前景中的前景轮廓,获得M个待合并运动目标区域,并根据每个所述待合并运动目标区域的坐标,对所有所述待合并运动目标区域进行合并,获得所述待检测图像中的N个运动目标区域;其中,M≥N≥1。
具体地,结合图2及上述实施例,通过网络摄像头、智能手机、平板电脑等具备录制视频功能的电子设备获取待检测图像序列;基于背景建模方法,对待检测图像进行运动检测,获得待处理运动前景,对所述待处理运动前景进行开运算或闭运算,减低噪点,平滑待处理运动前景的边界,获得运动前景;根据所述运动前景中的前景轮廓,获得多个待合并运动目标区域;其中,待合并运动目标区域的表示方法包括但不局限于外接矩形、外接圆形;根据每个所述待合并运动目标区域的坐标,对所有所述待合并运动目标区域进行合并,获得所述待检测图像中的N个运动目标区域。需说明的是,运动前景指的是将当前待检测图像与背景图像不相同的区域。
在又一个优选实施例中,所述根据每个所述待合并运动目标区域的坐标,对所有所述待合并运动目标区域进行合并,获得N个运动目标区域,具体为:
根据每个所述待合并运动目标区域的坐标,计算任意两个待合并运动目标区域之间的相对距离;其中,所述相对距离的计算公式为以下任一:欧式距离计算公式、曼哈顿距离计算公式;
判断所述相对距离是否小于预设的距离阈值;
若所述相对距离小于预设的距离阈值,则通过网格聚类算法或层次聚类算法将对应的两个待合并运动目标区域进行合并,获得所述运动目标区域;
若所述相对距离不小于预设的距离阈值,则将对应的两个待合并运动目标区域分别标记为所述运动目标区域。
在本实施例中,根据每个所述待合并运动目标区域的坐标,对所有所述待合并运动目标区域进行合并,有利于减少运动目标区域的数量,从而减少跟踪数据计算量,进一步提高跟踪目标的跟踪效率。
在又一个优选实施例中,所述预测区域包括匀速直线运动预测区域和匀变速直线运动预测区域;则步骤S12的具体步骤包括:
计算每一个所述运动目标区域与预先获取的每一个跟踪器的当前位置区域的第一IOU值;
计算每一个所述运动目标区域与预先获取的每一个跟踪器的匀速直线运动预测区域的第二IOU值;
计算每一个所述运动目标区域与预先获取的每一个跟踪器的匀变速直线运动预测区域的第三IOU值;
比较所述第一IOU值、所述第二IOU值和所述第三IOU值的大小,将数值最大的IOU值作为对应的所述运动目标区域与对应的所述跟踪器的最终IOU值;
根据所有所述运动目标区域与所有所述跟踪器的最终IOU值,获得所有所述运动目标区域与所有所述跟踪器的IOU关系矩阵。
譬如,第一运动目标区域与第一跟踪器的当前位置区域的第一IOU值等于0.2,第一运动目标区域与第一跟踪器的匀速直线运动预测区域的第二IOU值等于0.6,第一运动目标区域与第一跟踪器的匀变速直线运动预测区域的第三IOU值等于0.3,则第一个运动目标区域与第一个跟踪器的最终IOU值等于0.6,按照上述方法依次确定每一个运动目标区域与每一个跟踪器的最终IOU值,获得所有所述运动目标区域与所有所述跟踪器的IOU关系矩阵。
在又一个优选实施例中,所述匹配的跟踪器的运动数据包括更新后的匀速直线运动的速度、更新后的匀变速直线运动的速度和更新后的匀变速直线运动的加速度,则步骤S13具体步骤包括:
根据所述更新后的当前位置区域的中点坐标、所述更新后的匀速直线运动的速度、预设的时间间隔和预设的第一跟踪面积对所述匹配的跟踪器的匀速直线运动预测区域进行更新;
根据所述更新后的当前位置区域的中点坐标、所述更新后的匀变速直线运动的速度、所述更新后的匀变速直线运动的加速度、所述时间间隔和所述第一跟踪面积对所述匹配的跟踪器的匀变速直线运动预测区域进行更新。
具体地,结合图2及上述实施例,以所述更新后的当前位置区域的中点坐标为起始点,并根据水平方向上的匀速直线运动的速度、竖直方向上的匀速直线运动的速度和时间间隔,计算获得所述跟踪器更新后的匀速直线运动预测区域的中点坐标;根据所述更新后的匀速直线运动预测区域的中点和所述第一跟踪面积,获得所述跟踪器更新后的匀速直线运动预测区域;其中,更新后的匀速直线运动的速度包括水平方向上的匀速直线运动的速度和竖直方向上的匀速直线运动的速度;
以所述更新后的当前位置区域的中点坐标为起始点,并根据水平方向上的匀变速直线运动的速度、竖直方向上的匀变速直线运动的速度、水平方向上的匀变速直线运动的加速度、竖直方向上的匀变速直线运动的加速度和时间间隔,计算获得所述跟踪器更新后的匀变速直线运动预测区域的中点坐标;根据所述更新后的匀变速直线运动预测区域的中点坐标和所述第一跟踪面积,获得所述跟踪器更新后的匀变速直线运动预测区域;其中,更新后的匀变速直线运动的速度包括水平方向上的匀变速直线运动的速度和竖直方向上的匀变速直线运动的速度;更新后的匀变速直线运动的加速度包括水平方向上的匀变速直线运动的加速度、竖直方向上的匀变速直线运动的加速度;第一跟踪面积为所述运动目标区域面积的两倍。
需说明的是,根据跟踪器的当前位置区域的中点坐标、跟踪器更新后的当前位置区域的中点坐标、时间间隔和跟踪器当前的匀变速直线运动的速度,获得跟踪器更新后的匀速直线运动的速度、更新后的匀变速直线运动的速度和更新后的匀变速直线运动的加速度。
在又一个优选实施例中,在所述根据所述IOU关系矩阵,利用匈牙利算法对每一个所述运动目标区域匹配对应的跟踪器之后,所述方法还包括:
当任一个所述运动目标区域未匹配上任一个所述跟踪器时,根据所述运动目标区域和预设的第二跟踪面积对新建立的跟踪器的当前位置区域进行更新,并根据更新后的当前位置区域和预先获得的所述新建立的跟踪器的运动数据对所述新建立的跟踪器的预测区域进行更新。
具体地,结合图2及上述实施例,初始化一个新建立的跟踪器来跟踪一个未匹配上任意一个所述跟踪器的运动目标区域,根据所述未匹配上任意一个所述跟踪器的运动目标区域的中点坐标和所述第二跟踪面积,获得所述新建立的跟踪器更新后的当前位置区域;其中,第二跟踪面积为运动目标区域面积的两倍;
以所述新建立的跟踪器更新后的当前位置区域的中点坐标为起始点,并根据水平方向上的初始匀速直线运动的速度、竖直方向上的初始匀速直线运动的速度和时间间隔,计算获得所述新建立的跟踪器更新后的匀速直线运动预测区域的中点坐标;根据所述更新后的匀速直线运动预测区域的中点和所述第二跟踪面积,获得所述新建立的跟踪器更新后的匀速直线运动预测区域;
以所述新建立的跟踪器更新后的当前位置区域的中点坐标为起始点,并根据水平方向上的初始匀变速直线运动的速度、竖直方向上的初始匀变速直线运动的速度、水平方向上的初始匀变速直线运动的加速度、竖直方向上的初始匀变速直线运动的加速度和时间间隔,计算获得所述新建立的跟踪器更新后的匀变速直线运动预测区域的中点坐标;根据所述更新后的匀速直线运动预测区域的中点坐标和所述第二跟踪面积,获得所述新建立的跟踪器更新后的匀变速直线运动预测区域;
需说明的是,所述新建立的跟踪器的运动数据为预设的初始匀速直线运动的速度、预设的初始匀变速直线运动的速度和预设的初始匀变速直线运动的加速度;其中,所述初始匀速直线运动的速度包括水平方向上的初始匀速直线运动的速度,竖直方向上的初始匀速直线运动的速度;所述初始匀变速直线运动的速度包括水平方向上的初始匀变速直线运动的速度和竖直方向上的初始匀变速直线运动的速度;所述初始匀变速直线运动的加速度包括水平方向上的初始匀变速直线运动的加速度、竖直方向上的初始匀变速直线运动的加速度。
在又一个优选实施例中,在所述根据所述IOU关系矩阵,利用匈牙利算法对每一个所述运动目标区域匹配对应的跟踪器之后,所述方法还包括:
当任一个所述跟踪器未匹配上任一个所述运动目标区域时,判断未匹配上任一个所述运动目标区域的跟踪器是否连续R张待检测图像均未匹配到对应的运动目标区域;
若未匹配上任一个所述运动目标区域的跟踪器不是连续R张待检测图像均未匹配到对应的运动目标区域,则将所述未匹配上任一个所述运动目标区域的跟踪器的当前位置区域作为所述未匹配上任一个所述运动目标区域的跟踪器更新后的当前位置区域,并根据所述更新后的当前位置区域和预先获取的所述未匹配上任一个所述运动目标区域的跟踪器的运动数据对所述未匹配上任一个所述运动目标区域的跟踪器的预测区域进行更新。
若未匹配上任一个所述运动目标区域的跟踪器连续R张待检测图像均未匹配到对应的运动目标区域,则销毁该跟踪器。
具体地,结合图2及上述实施例,若未匹配上任一个所述运动目标区域的跟踪器不是连续R张待检测图像均未匹配到对应的运动目标区域,则无需更新所述未匹配上任一个所述运动目标区域的跟踪器的当前位置区域;
以所述未匹配上任一个所述运动目标区域的跟踪器更新后的当前位置区域的中点坐标为起始点,并根据所述未匹配上任一个所述运动目标区域的跟踪器当前的匀速直线运动的速度和时间间隔,计算获得所述未匹配上任一个所述运动目标区域的跟踪器更新后的匀速直线运动预测区域的中点坐标;根据所述更新后的匀速直线运动预测区域的中点和预设的第三跟踪面积,获得所述未匹配上任一个所述运动目标区域的跟踪器更新后的匀速直线运动预测区域;
以所述未匹配上任一个所述运动目标区域的跟踪器更新后的当前位置区域的中点坐标为起始点,并根据所述所述未匹配上任一个所述运动目标区域的跟踪器当前的匀变速直线运动的速度和当前的匀变速直线运动的加速度,获得所述未匹配上任一个所述运动目标区域的跟踪器更新后的匀变速直线运动预测区域的中点坐标;根据所述更新后的匀变速直线运动预测区域的中点坐标和所述第三跟踪面积,获得所述未匹配上任一个所述运动目标区域的跟踪器更新后的匀变速直线运动预测区域;其中,第三跟踪面积等于运动目标区域面积。
需说明的是,第一跟踪面积、第二跟踪面积和第三跟踪面积均是运动目标区域面积的等比例放大,通常情况下运动目标区域为外接矩形或外接圆形。
在又一个优选实施例中,在获得所述IOU关系矩阵之后,所述方法还包括:
将所述IOU关系矩阵中小于预设阈值的IOU值置零,获得处理后的IOU关系矩阵;则,所述根据所述IOU关系矩阵,利用匈牙利算法对每一个所述运动目标区域匹配对应的跟踪器,具体包括:根据所述处理后的IOU关系矩阵,利用匈牙利算法对每一个所述运动目标区域匹配对应的跟踪器。
在本实施例中,由于待检测图像中存在多个运动目标,而这些运动目标可能距离较近,使得多个跟踪器的预测位置有重叠,因此将IOU值小于预设阈值值置零,有利于减少计算量,提高跟踪目标的跟踪效率。其中,预设阈值的取值范围为0.3~0.7。
由上可见,本发明实施例提供了一种多运动目标跟踪方法,该方法包括:获取待检测图像中的N个运动目标区域;根据每一个运动目标区域与预先获取的每一个跟踪器的当前位置区域及预测区域的IOU值,获取所有运动目标区域与所有跟踪器的IOU关系矩阵;根据IOU关系矩阵,利用匈牙利算法对每一个运动目标区域匹配对应的跟踪器;当任一个运动目标区域匹配上任一个跟踪器时,根据运动目标区域对匹配的跟踪器的当前位置区域进行更新,并根据更新后的当前位置区域和预先获取的匹配的跟踪器的运动数据对匹配的跟踪器的预测区域进行更新;相比于现有的视频中的目标跟踪方法,本发明无需使用KCF算法或深度学习算法,而是根据所有所述运动目标区域与所有所述跟踪器的IOU关系矩阵,利用匈牙利算法对每一个运动目标区域匹配对应的跟踪器,减少跟踪数据的计算量,从而减少跟踪器的匹配时间,进而提高跟踪目标的跟踪效率。除此之外,本发明根据运动相关的数据对跟踪目标进行预测,不包含任何复杂矩阵运算,进一步减少跟踪数据的计算量,提高跟踪目标的跟踪效率;且本发明只使用与运动相关的数据,降低跟踪数据的存储内存,节省存储空间。
本发明实施例还提供一种多运动目标跟踪装置,能够实现上述任一实施例所述的多运动目标跟踪方法的所有流程,装置中的各个模块、单元的作用以及实现的技术效果分别与上述实施例所述的多运动目标跟踪方法的作用以及实现的技术相关对应相同,这里不再赘述。
参见图2所示,是本发明提供的一种多运动目标跟踪装置的一个优选实施例的结构框图,装置包括:
获取模块11,用于获取待检测图像中的N个运动目标区域;其中,N≥1;
计算模块12,用于根据每一个所述运动目标区域与预先获取的每一个跟踪器的当前位置区域及预测区域的IOU值,获取所有所述运动目标区域与所有所述跟踪器的IOU关系矩阵;
跟踪器匹配模块13,用于根据所述IOU关系矩阵,利用匈牙利算法对每一个所述运动目标区域匹配对应的跟踪器;
第一预测区域更新模块14,用于当任一个所述运动目标区域匹配上任一个所述跟踪器时,根据所述运动目标区域对匹配的跟踪器的当前位置区域进行更新,并根据更新后的当前位置区域和预先获取的所述匹配的跟踪器的运动数据对所述匹配的跟踪器的预测区域进行更新;其中,所述预测区域用于预测运动目标的位置,以对运动目标进行跟踪。
优选地,所述获取模块11具体包括:
待检测图像序列获取单元,用于通过录影设备获取待检测图像序列;其中,所述待检测图像序列包括所述待检测图像;
运动前景提取单元,用于基于背景建模方法,对所述待检测图像进行运动检测,获得待处理运动前景;其中,所述背景建模方法为以下任一:混合高斯法、帧差法、K邻近法和光流法;
运动前景处理单元,用于对所述待处理运动前景进行开运算或闭运算,获得运动前景;
运动目标区域合并单元,用于根据所述运动前景中的前景轮廓,获得M个待合并运动目标区域,并根据每个所述待合并运动目标区域的坐标,对所有所述待合并运动目标区域进行合并,获得所述待检测图像中的N个运动目标区域;其中,M≥N≥1。
优选地,所述根据每个所述待合并运动目标区域的坐标,对所有所述待合并运动目标区域进行合并,获得N个运动目标区域,具体为:
根据每个所述待合并运动目标区域的坐标,计算任意两个待合并运动目标区域之间的相对距离;其中,所述相对距离的计算公式为以下任一:欧式距离计算公式、曼哈顿距离计算公式;
判断所述相对距离是否小于预设的距离阈值;
若所述相对距离小于预设的距离阈值,则通过网格聚类算法或层次聚类算法将对应的两个待合并运动目标区域进行合并,获得所述运动目标区域;
若所述相对距离不小于预设的距离阈值,则将对应的两个待合并运动目标区域分别标记为所述运动目标区域。
优选地,所述计算模块12具体包括:
第一计算单元,用于计算每一个所述运动目标区域与预先获取的每一个跟踪器的当前位置区域的第一IOU值;
第二计算单元,用于计算每一个所述运动目标区域与预先获取的每一个跟踪器的匀速直线运动预测区域的第二IOU值;
第三计算单元,用于计算每一个所述运动目标区域与预先获取的每一个跟踪器的匀变速直线运动预测区域的第三IOU值;
比较单元,用于比较所述第一IOU值、所述第二IOU值和所述第三IOU值的大小,将数值最大的IOU值作为对应的所述运动目标区域与对应的所述跟踪器的最终IOU值;
关系矩阵构建单元,用于根据所有所述运动目标区域与所有所述跟踪器的最终IOU值,获得所有所述运动目标区域与所有所述跟踪器的IOU关系矩阵。
优选地,所述第一预测区域更新模块14具体包括:
匀速直线运动预测区域更新单元,用于根据所述更新后的当前位置区域的中点坐标、所述更新后的匀速直线运动的速度、预设的时间间隔和预设的第一跟踪面积对所述匹配的跟踪器的匀速直线运动预测区域进行更新;
匀变速直线运动预测区域更新单元,用于根据所述更新后的当前位置区域的中点坐标、所述更新后的匀变速直线运动的速度、所述更新后的匀变速直线运动的加速度、所述时间间隔和所述第一跟踪面积对所述匹配的跟踪器的匀变速直线运动预测区域进行更新。
优选地,所述装置还包括:第二预测区域更新模块,所述第二预测区域更新模块,用于当任一个所述运动目标区域未匹配上任一个所述跟踪器时,根据所述运动目标区域和预设的第二跟踪面积对新建立的跟踪器的当前位置区域进行更新,并根据更新后的当前位置区域和预先获得的所述新建立的跟踪器的运动数据对所述新建立的跟踪器的预测区域进行更新。
优选地,所述装置还包括:第三预测区域更新模块,所述第三预测区域更新模块具体包括:
判断单元,用于当任一个所述跟踪器未匹配上任一个所述运动目标区域时,判断未匹配上任一个所述运动目标区域的跟踪器是否连续R张待检测图像均未匹配到对应的运动目标区域;
预测区域更新单元,用于若未匹配上任一个所述运动目标区域的跟踪器不是连续R张待检测图像均未匹配到对应的运动目标区域,则将所述未匹配上任一个所述运动目标区域的跟踪器的当前位置区域作为所述未匹配上任一个所述运动目标区域的跟踪器更新后的当前位置区域,并根据所述更新后的当前位置区域和预先获取的所述未匹配上任一个所述运动目标区域的跟踪器的运动数据对所述未匹配上任一个所述运动目标区域的跟踪器的预测区域进行更新。
跟踪器剔除单元,用于若未匹配上任一个所述运动目标区域的跟踪器连续R张待检测图像均未匹配到对应的运动目标区域,则销毁该跟踪器。
优选地,所述装置还包括:处理模块,所述处理模块用于将所述IOU关系矩阵中小于预设阈值的IOU值置零,获得处理后的IOU关系矩阵。
本发明实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质包括存储的计算机程序;其中,所述计算机程序在运行时控制所述计算机可读存储介质所在的设备执行上述任一项所述的多运动目标跟踪方法。
与现有技术相比,本发明无需使用KCF算法或深度学习算法,而是根据所有所述运动目标区域与所有所述跟踪器的IOU关系矩阵,利用匈牙利算法对每一个运动目标区域匹配对应的跟踪器,减少跟踪数据的计算量,从而减少跟踪器的匹配时间,进而提高跟踪目标的跟踪效率。除此之外,本发明根据运动相关的数据对跟踪目标进行预测,不包含任何复杂矩阵运算,进一步减少跟踪数据的计算量,提高跟踪目标的跟踪效率;且本发明只使用与运动相关的数据,降低跟踪数据的存储内存,节省存储空间。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。
Claims (9)
1.一种多运动目标跟踪方法,其特征在于,包括:
获取待检测图像中的N个运动目标区域;其中,N≥1;
根据每一个所述运动目标区域与预先获取的每一个跟踪器的当前位置区域及预测区域的IOU值,获取所有所述运动目标区域与所有所述跟踪器的IOU关系矩阵;
根据所述IOU关系矩阵,利用匈牙利算法对每一个所述运动目标区域匹配对应的跟踪器;
当任一个所述运动目标区域匹配上任一个所述跟踪器时,根据所述运动目标区域对匹配的跟踪器的当前位置区域进行更新,并根据更新后的当前位置区域和预先获取的所述匹配的跟踪器的运动数据对所述匹配的跟踪器的预测区域进行更新;其中,所述预测区域用于预测运动目标的位置,以对运动目标进行跟踪;
所述预测区域包括匀速直线运动预测区域和匀变速直线运动预测区域;则,所述根据每一个所述运动目标区域与预先获取的每一个跟踪器的当前位置区域及预测区域的IOU值,获取所有所述运动目标区域与所有所述跟踪器的IOU关系矩阵,具体为:
计算每一个所述运动目标区域与预先获取的每一个跟踪器的当前位置区域的第一IOU值;
计算每一个所述运动目标区域与预先获取的每一个跟踪器的匀速直线运动预测区域的第二IOU值;
计算每一个所述运动目标区域与预先获取的每一个跟踪器的匀变速直线运动预测区域的第三IOU值;
比较所述第一IOU值、所述第二IOU值和所述第三IOU值的大小,将数值最大的IOU值作为对应的所述运动目标区域与对应的所述跟踪器的最终IOU值;
根据所有所述运动目标区域与所有所述跟踪器的最终IOU值,获得所有所述运动目标区域与所有所述跟踪器的IOU关系矩阵。
2.如权利要求1所述的多运动目标跟踪方法,其特征在于,所述匹配的跟踪器的运动数据包括更新后的匀速直线运动的速度、更新后的匀变速直线运动的速度和更新后的匀变速直线运动的加速度;则,所述根据更新后的当前位置区域和预先获取的所述匹配的跟踪器的运动数据对所述匹配的跟踪器的预测区域进行更新,具体为:
根据所述更新后的当前位置区域的中点坐标、所述更新后的匀速直线运动的速度、预设的时间间隔和预设的第一跟踪面积对所述匹配的跟踪器的匀速直线运动预测区域进行更新;
根据所述更新后的当前位置区域的中点坐标、所述更新后的匀变速直线运动的速度、所述更新后的匀变速直线运动的加速度、所述时间间隔和所述第一跟踪面积对所述匹配的跟踪器的匀变速直线运动预测区域进行更新。
3.如权利要求2所述的多运动目标跟踪方法,其特征在于,在所述根据所述IOU关系矩阵,利用匈牙利算法对每一个所述运动目标区域匹配对应的跟踪器之后,所述方法还包括:
当任一个所述运动目标区域未匹配上任一个所述跟踪器时,根据所述运动目标区域和预设的第二跟踪面积对新建立的跟踪器的当前位置区域进行更新,并根据更新后的当前位置区域和预先获得的所述新建立的跟踪器的运动数据对所述新建立的跟踪器的预测区域进行更新。
4.如权利要求2所述的多运动目标跟踪方法,其特征在于,在所述根据所述IOU关系矩阵,利用匈牙利算法对每一个所述运动目标区域匹配对应的跟踪器之后,所述方法还包括:
当任一个所述跟踪器未匹配上任一个所述运动目标区域时,判断未匹配上任一个所述运动目标区域的跟踪器是否连续R张待检测图像均未匹配到对应的运动目标区域;
若未匹配上任一个所述运动目标区域的跟踪器不是连续R张待检测图像均未匹配到对应的运动目标区域,则将所述未匹配上任一个所述运动目标区域的跟踪器的当前位置区域作为所述未匹配上任一个所述运动目标区域的跟踪器更新后的当前位置区域,并根据所述更新后的当前位置区域和预先获取的所述未匹配上任一个所述运动目标区域的跟踪器的运动数据对所述未匹配上任一个所述运动目标区域的跟踪器的预测区域进行更新;
若未匹配上任一个所述运动目标区域的跟踪器连续R张待检测图像均未匹配到对应的运动目标区域,则销毁该跟踪器。
5.如权利要求1所述的多运动目标跟踪方法,其特征在于,在获得所述IOU关系矩阵之后,所述方法还包括:
将所述IOU关系矩阵中小于预设阈值的IOU值置零,获得处理后的IOU关系矩阵;
则,所述根据所述IOU关系矩阵,利用匈牙利算法对每一个所述运动目标区域匹配对应的跟踪器,具体包括:
根据所述处理后的IOU关系矩阵,利用匈牙利算法对每一个所述运动目标区域匹配对应的跟踪器。
6.如权利要求1所述的多运动目标跟踪方法,其特征在于,所述获取待检测图像中的N个运动目标区域,具体为:
通过录影设备获取待检测图像序列;其中,所述待检测图像序列包括所述待检测图像;
基于背景建模方法,对所述待检测图像进行运动检测,获得待处理运动前景;其中,所述背景建模方法为以下任一:混合高斯法、帧差法、K邻近法和光流法;
对所述待处理运动前景进行开运算或闭运算,获得运动前景;
根据所述运动前景中的前景轮廓,获得M个待合并运动目标区域,并根据每个所述待合并运动目标区域的坐标,对所有所述待合并运动目标区域进行合并,获得所述待检测图像中的N个运动目标区域;其中,M≥N≥1。
7.如权利要求6所述的多运动目标跟踪方法,其特征在于,所述根据每个所述待合并运动目标区域的坐标,对所有所述待合并运动目标区域进行合并,获得N个运动目标区域,具体为:
根据每个所述待合并运动目标区域的坐标,计算任意两个待合并运动目标区域之间的相对距离;其中,所述相对距离的计算公式为以下任一:欧式距离计算公式、曼哈顿距离计算公式;
判断所述相对距离是否小于预设的距离阈值;
若所述相对距离小于预设的距离阈值,则通过网格聚类算法或层次聚类算法将对应的两个待合并运动目标区域进行合并,获得所述运动目标区域;
若所述相对距离不小于预设的距离阈值,则将对应的两个待合并运动目标区域分别标记为所述运动目标区域。
8.一种多运动目标跟踪装置,其特征在于,包括:
获取模块,用于获取待检测图像中的N个运动目标区域;其中,N≥1;
计算模块,用于根据每一个所述运动目标区域与预先获取的每一个跟踪器的当前位置区域及预测区域的IOU值,获取所有所述运动目标区域与所有所述跟踪器的IOU关系矩阵;
跟踪器匹配模块,用于根据所述IOU关系矩阵,利用匈牙利算法对每一个所述运动目标区域匹配对应的跟踪器;
预测区域更新模块,用于当任一个所述运动目标区域匹配上任一个所述跟踪器时,根据所述运动目标区域对匹配的跟踪器的当前位置区域进行更新,并根据更新后的当前位置区域和预先获取的所述匹配的跟踪器的运动数据对所述匹配的跟踪器的预测区域进行更新;其中,所述预测区域用于预测运动目标的位置,以对运动目标进行跟踪;
所述预测区域包括匀速直线运动预测区域和匀变速直线运动预测区域;则,所述计算模块具体包括:
第一计算单元,用于计算每一个所述运动目标区域与预先获取的每一个跟踪器的当前位置区域的第一IOU值;
第二计算单元,用于计算每一个所述运动目标区域与预先获取的每一个跟踪器的匀速直线运动预测区域的第二IOU值;
第三计算单元,用于计算每一个所述运动目标区域与预先获取的每一个跟踪器的匀变速直线运动预测区域的第三IOU值;
比较单元,用于比较所述第一IOU值、所述第二IOU值和所述第三IOU值的大小,将数值最大的IOU值作为对应的所述运动目标区域与对应的所述跟踪器的最终IOU值;
关系矩阵构建单元,用于根据所有所述运动目标区域与所有所述跟踪器的最终IOU值,获得所有所述运动目标区域与所有所述跟踪器的IOU关系矩阵。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质包括存储的计算机程序;其中,所述计算机程序在运行时控制所述计算机可读存储介质所在的设备执行如权利要求1~7任一项所述的多运动目标跟踪方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010379586.2A CN111768427B (zh) | 2020-05-07 | 2020-05-07 | 一种多运动目标跟踪方法、装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010379586.2A CN111768427B (zh) | 2020-05-07 | 2020-05-07 | 一种多运动目标跟踪方法、装置及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111768427A CN111768427A (zh) | 2020-10-13 |
CN111768427B true CN111768427B (zh) | 2023-12-26 |
Family
ID=72720327
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010379586.2A Active CN111768427B (zh) | 2020-05-07 | 2020-05-07 | 一种多运动目标跟踪方法、装置及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111768427B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112750305B (zh) * | 2020-12-29 | 2022-03-08 | 江苏航天大为科技股份有限公司 | 一种基于雷达检测的车辆连续跟踪方法 |
CN113065523B (zh) * | 2021-04-26 | 2023-06-16 | 上海哔哩哔哩科技有限公司 | 目标追踪方法及装置、电子设备和存储介质 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107423708A (zh) * | 2017-07-25 | 2017-12-01 | 成都通甲优博科技有限责任公司 | 一种确定视频中行人人流量的方法及其装置 |
CN108053427A (zh) * | 2017-10-31 | 2018-05-18 | 深圳大学 | 一种基于KCF与Kalman的改进型多目标跟踪方法、系统及装置 |
CN109460702A (zh) * | 2018-09-14 | 2019-03-12 | 华南理工大学 | 基于人体骨架序列的乘客异常行为识别方法 |
CN109859239A (zh) * | 2019-05-05 | 2019-06-07 | 深兰人工智能芯片研究院(江苏)有限公司 | 一种目标追踪的方法及设备 |
CN109949578A (zh) * | 2018-12-31 | 2019-06-28 | 上海眼控科技股份有限公司 | 一种基于深度学习的车辆压线违法自动审核方法 |
WO2019136479A1 (en) * | 2018-01-08 | 2019-07-11 | The Regents On The University Of California | Surround vehicle tracking and motion prediction |
CN110349181A (zh) * | 2019-06-12 | 2019-10-18 | 华中科技大学 | 一种基于改进的图分区模型单摄像头多目标跟踪方法 |
CN110717403A (zh) * | 2019-09-16 | 2020-01-21 | 国网江西省电力有限公司电力科学研究院 | 一种人脸多目标跟踪方法 |
CN110751682A (zh) * | 2019-10-28 | 2020-02-04 | 普联技术有限公司 | 一种提取和标识图像的方法、装置、终端设备及存储介质 |
CN110751674A (zh) * | 2018-07-24 | 2020-02-04 | 北京深鉴智能科技有限公司 | 多目标跟踪方法及相应视频分析系统 |
CN110796687A (zh) * | 2019-10-30 | 2020-02-14 | 电子科技大学 | 天空背景红外成像多目标跟踪方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11478662B2 (en) * | 2017-04-05 | 2022-10-25 | Accuray Incorporated | Sequential monoscopic tracking |
US11475351B2 (en) * | 2017-11-15 | 2022-10-18 | Uatc, Llc | Systems and methods for object detection, tracking, and motion prediction |
-
2020
- 2020-05-07 CN CN202010379586.2A patent/CN111768427B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107423708A (zh) * | 2017-07-25 | 2017-12-01 | 成都通甲优博科技有限责任公司 | 一种确定视频中行人人流量的方法及其装置 |
CN108053427A (zh) * | 2017-10-31 | 2018-05-18 | 深圳大学 | 一种基于KCF与Kalman的改进型多目标跟踪方法、系统及装置 |
WO2019136479A1 (en) * | 2018-01-08 | 2019-07-11 | The Regents On The University Of California | Surround vehicle tracking and motion prediction |
CN110751674A (zh) * | 2018-07-24 | 2020-02-04 | 北京深鉴智能科技有限公司 | 多目标跟踪方法及相应视频分析系统 |
CN109460702A (zh) * | 2018-09-14 | 2019-03-12 | 华南理工大学 | 基于人体骨架序列的乘客异常行为识别方法 |
CN109949578A (zh) * | 2018-12-31 | 2019-06-28 | 上海眼控科技股份有限公司 | 一种基于深度学习的车辆压线违法自动审核方法 |
CN109859239A (zh) * | 2019-05-05 | 2019-06-07 | 深兰人工智能芯片研究院(江苏)有限公司 | 一种目标追踪的方法及设备 |
CN110349181A (zh) * | 2019-06-12 | 2019-10-18 | 华中科技大学 | 一种基于改进的图分区模型单摄像头多目标跟踪方法 |
CN110717403A (zh) * | 2019-09-16 | 2020-01-21 | 国网江西省电力有限公司电力科学研究院 | 一种人脸多目标跟踪方法 |
CN110751682A (zh) * | 2019-10-28 | 2020-02-04 | 普联技术有限公司 | 一种提取和标识图像的方法、装置、终端设备及存储介质 |
CN110796687A (zh) * | 2019-10-30 | 2020-02-14 | 电子科技大学 | 天空背景红外成像多目标跟踪方法 |
Non-Patent Citations (1)
Title |
---|
基于增强Tiny YOLOV3算法的车辆实时检测与跟踪;刘军 等;《农业工程学报.》;第35卷(第08期);118-125 * |
Also Published As
Publication number | Publication date |
---|---|
CN111768427A (zh) | 2020-10-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109636829B (zh) | 一种基于语义信息和场景信息的多目标跟踪方法 | |
CN102881024B (zh) | 一种基于tld的视频目标跟踪方法 | |
CN105913028B (zh) | 一种基于face++平台的人脸跟踪方法及其装置 | |
Badenas et al. | Motion-based segmentation and region tracking in image sequences | |
CN109035295B (zh) | 多目标跟踪方法、装置、计算机设备和存储介质 | |
CN110738690A (zh) | 一种基于多目标追踪框架的无人机视频中车速校正方法 | |
CN113255611B (zh) | 基于动态标签分配的孪生网络目标跟踪方法及移动设备 | |
CN111768427B (zh) | 一种多运动目标跟踪方法、装置及存储介质 | |
CN105374049B (zh) | 一种基于稀疏光流法的多角点跟踪方法及装置 | |
CN114638855A (zh) | 一种多目标跟踪方法、设备及介质 | |
CN104915969A (zh) | 一种基于粒子群优化的模版匹配跟踪方法 | |
US11669978B2 (en) | Method and device for estimating background motion of infrared image sequences and storage medium | |
CN111639570B (zh) | 一种基于运动模型和单目标线索的在线多目标跟踪方法 | |
CN111178261A (zh) | 一种基于视频编码技术的人脸检测加速方法 | |
CN114092517A (zh) | 基于传统和深度学习算法的多目标跟踪方法 | |
US20230419510A1 (en) | Object tracking device, object tracking method, and recording medium | |
CN115861386A (zh) | 通过分而治之关联的无人机多目标跟踪方法与装置 | |
CN107194947B (zh) | 一种自适应自纠正的目标跟踪方法 | |
CN115272393A (zh) | 用于无人机的视频流目标跟踪方法、装置及存储介质 | |
CN111684491A (zh) | 目标跟踪方法、目标跟踪装置和无人机 | |
CN113269007A (zh) | 道路监控视频的目标跟踪装置以及方法 | |
CN108346158B (zh) | 基于主块数据关联的多目标跟踪方法及系统 | |
CN103838795A (zh) | 一种模板相关匹配方法 | |
US20230368542A1 (en) | Object tracking device, object tracking method, and recording medium | |
CN117011335B (zh) | 一种基于自适应双解码器的多目标跟踪方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |