CN107833240A - 多跟踪线索引导的目标运动轨迹提取和分析方法 - Google Patents
多跟踪线索引导的目标运动轨迹提取和分析方法 Download PDFInfo
- Publication number
- CN107833240A CN107833240A CN201711097270.9A CN201711097270A CN107833240A CN 107833240 A CN107833240 A CN 107833240A CN 201711097270 A CN201711097270 A CN 201711097270A CN 107833240 A CN107833240 A CN 107833240A
- Authority
- CN
- China
- Prior art keywords
- tracking
- track
- mrow
- frame
- result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/223—Analysis of motion using block-matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种多跟踪线索引导的目标运动轨迹提取和分析方法,包括下述步骤:首先,利用已知的跟踪算法提出多跟踪线索引导的运动轨迹,根据跟踪结果绘制跟踪目标的运动轨迹。然后,收集目标跟踪结果的轨迹数据,观察二维坐标轴中产生折线的变化和产生变化时对应帧发生偏差的情况,并与理想目标框所产生的跟踪轨迹进行对比分析得到跟踪断点。最后,在unity3d编程框架中,根据跟踪结果文本数据绘制视频跟踪结果,并可视化跟踪偏移,当偏移发生时可与matlab建立连接使用串口通信,重新调用跟踪算法实现跟踪矫正。本发明展示了如何根据轨迹变化确定跟踪断点,以及如何在跟踪断点处实现跟踪矫正,保证目标跟踪的鲁棒性和准确性。
Description
技术领域
本发明涉及计算机视觉领域,更具体地说,涉及一种多跟踪线索引导的目标运动轨迹提取和分析方法。
背景技术
视频跟踪首先在视频第一帧给定跟踪对象的大小和位置,然后利用跟踪算子计算出目标对象在后续帧的准确位置。根据视频跟踪结果,获取物体的运动轨迹是视频跟踪的重要研究内容,它可以辅助人们理解和分析物体的行为轨迹和运动趋势。因此,目标运动轨迹的提取和分析是计算视觉的研究热点之一,被广泛应用于自动驾驶、视频监控、机器人、虚拟现实等领域。
发明内容
本发明的主要目的在于克服现有技术的缺点与不足,提供了一种多跟踪线索引导的目标运动轨迹提取和分析方法,以RACF跟踪方法作为目标运动轨迹分析的演示实例,以RCAF方法的跟踪结果为例描述目标运动轨迹的设计和绘制,并展示如何根据轨迹变化确定跟踪断点,以及如何在跟踪断点处实现跟踪矫正,保证目标跟踪的鲁棒性和准确性。
为了达到上述目的,本发明采用以下技术方案:
本发明一种多跟踪线索引导的目标运动轨迹提取和分析方法,包括下述步骤:
首先,利用跟踪算法提出多跟踪线索引导的运动轨迹,即根据跟踪算法的结果绘制跟踪目标的运动轨迹,分别是跟踪目标的中心的X值、Y值、面积值、XSpeed值、YSpeed值;
其次,收集目标跟踪结果的轨迹数据,观察二维坐标轴中产生折线的变化和产生变化时对应帧将会发生偏差的情况,并与理想目标框产生的目标轨迹进行对比分析得到跟踪断点;
再次,在unity3d编程框架中,根据跟踪结果文本数据绘制视频跟踪结果,并可视化跟踪偏移,当偏移发生时可与matlab建立连接使用串口通信,重新调用跟踪算法实现跟踪矫正以保证目标跟踪的准确性。
作为优选的技术方案,该方法具体包括下述步骤:
(1)播放视频并且显式跟踪算法的跟踪结果;
(2)在Matlab环境中得到跟踪算法跟踪结果的结果表,在unity3d中分析结果表中的内容,并且与理想结果进行对比分析;
(3)根据设定的轨迹描述分量,对物体运动轨迹进行分析,并计算与设定的轨迹描述分量相对应存在偏差,将存在较大偏差的帧显式地展示在坐标轴上,并使用一种跟踪框进行标注;如果存在较大偏差后经过一段时间,又能重新跟踪并且与设定的值范围一致,则对该帧在坐标轴上使用另一种跟踪框进行标注,以展示正确跟踪被重新恢复;
(4)重复步骤(1)到步骤(3)分别获取跟踪结果中心的X值、Y值、面积值、XSpeed值、YSpeed值,并将它们与理想目标框的对比绘制在2维坐标轴上;
(5)观察多个帧序列视频,对丢失判断的参数进行分析,得出较好鲁棒性的参数,并应用在实际应用中;
(6)重新播放视频,将(5)中得到的结果应用于视频中,对视频进行结果矫正,unity3d把目标跟踪这一帧正确的位置和大小,发送给matlab对之后的帧序列进行重新跟踪,再把跟踪结果交由unity3d再次显示。
作为优选的技术方案,步骤(4)将跟踪结果显示在屏幕坐标系时,需要进行坐标系的映;具体将根据帧数把跟踪结果与理想结果,在二维坐标轴的横向坐标和纵向坐标作出适配,目标中心的X图、Y图、面积图、XSpeed图、YSpeed图的坐标适配计算均使用了同一个适配算法,该适配算法包括下述步骤:
(4-1)计算跟踪结果和理想结果的相关轨迹分量的最大值和最小值,以此设定轨迹绘制时的坐标轴区间;
(4-2)根据公式(1)进行坐标适配,
公式(1)得到t在屏幕上的坐标,其中realLength等于(1)中的最大值减去最小值,length为轴的长度,baseLength为坐标原点距离屏幕原点的距离;
(4-3)绘制跟踪算法得到的不同线索下的物体运动轨迹。
作为优选的技术方案,所述步骤(4-3)具体包括下述步骤:
(4-3-1)X方向的跟踪轨迹绘制;把由跟踪算法得到的文本文件中的跟踪结果进行解析,得到的每帧的帧数和每帧X坐标,使用公式(1)得到其在坐标轴上的坐标,并储存在一个列表的二维向量中;
(4-3-2)Y方向的跟踪轨迹绘制;把由跟踪算法得到的文本文件的跟踪结果进行解析,以得到的帧数和Y坐标,使用公式(1)得到其在坐标轴上的坐标,并储存在一个列表的二维向量中;
(4-3-3)XSpeed的跟踪轨迹绘制;把由跟踪算法得到的文本文件中的跟踪结果进行解析,以得到的帧数和对应帧数的X坐标,使用公式:
公式(2)得到该帧的速度值speed,其中t是由自己设定的帧数间隔,再使用公式(1)得到其在坐标轴上的坐标并储存在一个列表的二维向量中;
(4-3-4)YSpeed的跟踪轨迹绘制;把由跟踪算子得到的文本文件的跟踪结果进行解析,以帧数和对应帧数的Y坐标,使用公式:
公式(3)得到该帧的速度值,其中t是由自己设定的帧数间隔,再使用公式(1)得到其在坐标轴上的坐标并储存在一个列表的二维向量中;
(4-3-5)把由跟踪算法跟踪器得到的文本文件的跟踪结果进行解析,以得到的帧数,对应帧数的跟踪框的宽度和高度,使用公式:
Area(i)=width(i)×height(i) (4)
公式(4)得到该帧的面积值,其中width是该帧跟踪结果的宽度,height是该帧跟踪结果的高度,使用公式(1)得到其在坐标轴上的坐标并储存在一个列表的二维向量中。
作为优选的技术方案,步骤(5)中,为更加明确丢失跟踪的帧数和丢失跟踪时将可能发生的情况,需要对跟踪丢失发生的帧数进行标记,更加明确地得知跟踪丢失和跟踪恢复的情况,跟踪丢失和跟踪恢复标记的方法如下:
t(i)=grouth(i)-myself(i) (5)
其中,grouth为正确跟踪结果,myself为跟踪算子的跟踪结果;
(5-1)当目前状态是正确状态时,|t|>value差值的绝对值大于偏移阈值时,则该帧跟踪结果存在偏移,记录该帧的坐标值存入二维向量列表中,把状态设定为偏移状态;
(5-2)当目前状态是偏移状态时,|t|<value差值的绝对值小于偏移阈值时,则视为该帧跟踪结果成功匹配,记录该帧的坐标值存入二维向量的列表中,把状态设定为匹配状态;
其中value是根据文本数值大小设定的阈值。
作为优选的技术方案,步骤(6)中,还包括对跟踪异常的判断和矫正,具体方法是:
当跟踪发生偏移时,弹出一个对话框提示你是否在该帧进行重新计算,假如“是”则将会挂起线程作为服务器连接将matlab需要的数据写入socket中,matlab作为客户端得到untiy写入socket中的数据,得到数据后进行处理将处理交由RACF跟踪算子作为跟踪器进行计算,等待matlab计算完数据后处理数据并写入计算机端口中,unity作为服务器再将计算机端口中的数据提取出来经过处理再把结果经过计算显示于屏幕上,如果选择否,则会继续播放视频。
作为优选的技术方案,所述跟踪算法为RACF跟踪算法。
本发明与现有技术相比,具有如下优点和有益效果:
1、本发明通过分析目标跟踪结果的轨迹变化生成五种轨迹图,分别是跟踪目标的中心的X图即横向坐标图,跟踪目标中心的Y图即纵向坐标图,跟踪目标中心的XSpeed图即横向坐标速度图,跟踪目标中心的YSpeed图即纵向坐标速度图,跟踪Area图即目标框面积图,根据这些轨迹描述分析目标的运动趋势,并结合理想目标轨迹设计跟踪断点和跟踪异常判断,进而设计并实现异常跟踪的矫正,目的是保证视频跟踪的准确度,得到理想的物体运动轨迹数据。
2、本发明还将跟踪结果与理想结果进行对比分析得到目标轨迹偏差值,当偏差值较大时可设置跟踪断点,并在断点处重新调用跟踪方法以矫正跟踪偏移,保证成功跟踪到后续帧,最终得到较理想的跟踪结果。
附图说明
图1是目标运动轨迹的提取和分析流程图;
图2是本实施跟踪目标的面积变化轨迹图;
图3是本实施跟踪异常判断和跟踪矫正流程图;
图4是本实施例带跟踪结果偏差纠正的目标跟踪流程图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例
如图1所示,本发明多跟踪线索引导的目标运动轨迹提取和分析方法,本实施例以RACF跟踪算法为例进行说明,该RACF跟踪算法可以用其他任何已知的目标跟踪算法替代,该算法并不是属于此发明本身,本实施例具体包括下述步骤:
首先,利用RACF跟踪算法提出多跟踪线索引导的运动轨迹,即根据RACF跟踪算法的结果绘制跟踪目标的运动轨迹,分别是跟踪目标的中心横向坐标图,跟踪目标中心的纵向坐标图,跟踪目标中心的横向坐标速度图,跟踪目标框面积图,以及跟踪目标中心的纵向坐标速度图;
其次,收集目标跟踪结果的轨迹数据,观察二维坐标轴中产生折线的变化和产生变化时对应帧将会发生偏差的情况,并与理想目标框进行对比分析得到跟踪断点;
再次,在unity3d框架中,根据跟踪结果文本数据绘制视频跟踪结果,并可视化跟踪偏移,当偏移发生时可与matlab建立连接使用串口通信,重新调用跟踪算法实现跟踪矫正以保证目标跟踪的准确性。
本发明的难点在于运动轨迹的提取和分析,以及unity3d与matlab的融合。发明将matlab环境下RACF算法的跟踪结果,用网络通信的形式通过端口将数据传输给unity3d,unity3d再将得到的数据进行处理显式在屏幕上,以得到物体的运动轨迹图。当跟踪结果出现较大偏差并且无法恢复时,可以通过这种方式重新进行跟踪目标连接,以矫正后续跟踪达到恢复跟踪的目的;该方法具体包括下述步骤:
(1)播放视频并且显式RACF跟踪算法的跟踪结果;
(2)在Matlab环境中得到RACF跟踪算法跟踪结果的结果表,在unity3d中分析结果表中的内容,并且与理想结果进行对比分析;
(3)根据设定的轨迹描述分量,对物体运动轨迹进行分析,并计算与设定的轨迹描述分量相对应存在偏差,将存在较大偏差的帧显式地展示在坐标轴上,并使用一种跟踪框进行标注;如果存在较大偏差后经过一段时间,又能重新跟踪并且与设定的值范围一致,则对该帧在坐标轴上使用另一种跟踪框进行标注,以展示正确跟踪被重新恢复;
(4)重复步骤(1)到步骤(3)分别对跟踪结果中心的X值、Y值、面积值、XSpeed值、YSpeed值,并将它们与理想目标框的对比绘制在2维坐标轴上;
(5)观察多个帧序列视频,对丢失判断的参数进行分析,得出较好鲁棒性的参数,并应用在实际应用中;
(6)重新播放视频,将(5)中得到的结果应用于视频中,对视频进行结果矫正,unity3d把目标跟踪这一帧正确的位置和大小,发送给matlab对之后的帧序列进行重新跟踪,再把跟踪结果交由unity3d再次显示。
在上述步骤(4)中,本发明选用五个坐标图对跟踪结果作出分析,其中有跟踪结果和理想结果在目标中心位置横向坐标(X),纵向坐标(Y),横向坐标的速度(XSpeed),纵向坐标的速度(YSpeed),目标面积(Area)。对五个计算出来的数据进行分析,得到当产生偏移时五个数据将会产生的情况,并作出记录。最终依靠得到的分析,对可能产生跟踪偏差情况进行判断处理。本发明将跟踪结果显示在屏幕坐标系时,需要进行坐标系的映;具体将根据帧数把跟踪结果与理想结果,在二维坐标轴的横向坐标和纵向坐标作出适配。五个图的坐标适配计算均使用了同一个适配算法:
(4-1)计算跟踪结果和理想结果的相关轨迹分量的最大值和最小值,以此设定轨迹绘制时的坐标轴区间;
(4-2)根据公式(1)进行坐标适配,
公式(1)得到t在屏幕上的坐标,其中realLength等于(1)中的最大值减去最小值,length为轴的长度,baseLength为坐标原点距离屏幕原点的距离;
(4-3)绘制RACF算法得到的不同线索下的物体运动轨迹。
(4-3-1)X方向的跟踪轨迹绘制;把由RACF跟踪算法得到的文本文件中的跟踪结果进行解析,得到的每帧的帧数和每帧X坐标,使用公式(1)得到其在坐标轴上的坐标,并储存在一个列表的二维向量中;
(4-3-2)Y方向的跟踪轨迹绘制;把由RACF跟踪算法得到的文本文件的跟踪结果进行解析,以得到的帧数和Y坐标,使用公式(1)得到其在坐标轴上的坐标,并储存在一个列表的二维向量中;
(4-3-3)XSpeed的跟踪轨迹绘制;把由RACF跟踪算法得到的文本文件中的跟踪结果进行解析,以得到的帧数和对应帧数的X坐标,使用公式:
公式(2)得到该帧的速度值speed,其中t是由自己设定的帧数间隔,再使用公式(1)得到其在坐标轴上的坐标并储存在一个列表的二维向量中;
(4-3-4)YSpeed的跟踪轨迹绘制;把由RACF跟踪算子得到的文本文件的跟踪结果进行解析,以帧数和对应帧数的Y坐标,使用公式:
公式(3)得到该帧的速度值,其中t是由自己设定的帧数间隔,再使用公式(1)得到其在坐标轴上的坐标并储存在一个列表的二维向量中;
(4-3-5)把由RACF跟踪算法跟踪器得到的文本文件的跟踪结果进行解析,以得到的帧数,对应帧数的跟踪框的宽度和高度,使用公式:
Area(i)=width(i)×height(i) (4)
公式(4)得到该帧的面积值,其中width是该帧跟踪结果的宽度,height是该帧跟踪结果的高度,使用公式(1)得到其在坐标轴上的坐标并储存在一个列表的二维向量中。
步骤(5)中,为更加明确丢失跟踪的帧数和丢失跟踪时将可能发生的情况,需要对跟踪丢失发生的帧数进行标记,更加明确地得知跟踪丢失和跟踪恢复的情况特别是异常点,跟踪丢失和跟踪恢复标记的方法如下:
t(i)=grouth(i)-myself(i) (5)
其中,grouth为正确跟踪结果,myself为跟踪算子的跟踪结果;
(5-1)当目前状态是正确状态时,|t|>value差值的绝对值大于偏移阈值时,则该帧跟踪结果存在偏移,记录该帧的坐标值存入二维向量列表中,把状态设定为偏移状态;
(5-2)当目前状态是偏移状态时,|t|<value差值的绝对值小于偏移阈值时,则视为该帧跟踪结果成功匹配,记录该帧的坐标值存入二维向量的列表中,把状态设定为匹配状态;
其中value是根据文本数值大小设定的阈值。
如图2所示,为跟踪目标的面积变化轨迹图,具体为:
1)黑色的折线为正确的跟踪结果,白色的折线为本文跟踪器的跟踪结果。
2)左侧圆圈显示本文跟踪器偏离正确跟踪结果的位置
3)右侧圆圈显示本文跟踪器恢复正确跟踪结果的位置
4)产生左侧圆圈和右侧圆圈的同时会产生虚线将对应帧上的正确跟踪结果和跟踪器跟踪结果对应起来更加直观地显示跟踪结果之间的差异。
步骤(6)中,还包括对跟踪异常的判断和矫正,如图3所示,该处理的相关流程见图4,具体方法是:
当跟踪发生偏移时,弹出一个对话框提示你是否在该帧进行重新计算,假如“是”则将会挂起线程作为服务器连接将matlab需要的数据写入socket中,matlab作为客户端得到untiy写入socket中的数据,得到数据后进行处理将处理交由RACF跟踪算子作为跟踪器进行计算,等待matlab计算完数据后处理数据并写入计算机端口中,unity作为服务器再将计算机端口中的数据提取出来经过处理再把结果经过计算显示于屏幕上,如果选择否,则会继续播放视频。
本发明选用Bibi等人提出的RACF跟踪方法(RACF跟踪方法为以Target ResponseAdaptation for Correlation Filter Tracking为论文题目对应方法的简称)作为目标运动轨迹分析的演示实例,以RCAF方法的跟踪结果为例描述目标运动轨迹的设计和绘制,并展示如何根据轨迹变化确定跟踪断点,以及如何在跟踪断点处实现跟踪矫正,保证目标跟踪的鲁棒性和准确性。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (7)
1.多跟踪线索引导的目标运动轨迹提取和分析方法,其特征在于,包括下述步骤:
首先,利用跟踪算法提出多跟踪线索引导的运动轨迹,即根据跟踪算法的结果绘制跟踪目标的运动轨迹,分别是跟踪目标的中心的X值、Y值、面积值、XSpeed值、YSpeed值;
其次,收集目标跟踪结果的轨迹数据,观察二维坐标轴中产生折线的变化和产生变化时对应帧发生偏差的情况,并与理想目标框产生的目标轨迹进行对比分析得到跟踪断点;
再次,在unity3d编程框架中,根据跟踪结果文本数据绘制视频跟踪结果,并可视化跟踪偏移,当偏移发生时可与matlab建立连接使用串口通信,重新调用跟踪算法实现跟踪矫正以保证目标跟踪的准确性。
2.根据权利要求1所述多跟踪线索引导的目标运动轨迹提取和分析方法,其特征在于,该方法具体包括下述步骤:
(1)播放视频并且显式跟踪算法的跟踪结果;
(2)在Matlab环境中得到跟踪算法跟踪结果的结果表,在unity3d中分析结果表中的内容,并且与理想结果进行对比分析;
(3)根据设定的轨迹描述分量,对物体运动轨迹进行分析,并计算与设定的轨迹描述分量相对应存在偏差,将存在较大偏差的帧显式地展示在坐标轴上,并使用一种跟踪框进行标注;如果存在较大偏差后经过一段时间,又能重新跟踪并且与设定的值范围一致,则对该帧在坐标轴上使用另一种跟踪框进行标注,以展示正确跟踪被重新恢复;
(4)重复步骤(1)到步骤(3)分别获取跟踪结果中心的X值、Y值、面积值、XSpeed值、YSpeed值,并将它们与理想目标框的对比绘制在2维坐标轴上;
(5)观察多个帧序列视频,对丢失判断的参数进行分析,得出较好鲁棒性的参数,并应用在实际应用中;
(6)重新播放视频,将(5)中得到的结果应用于视频中,对视频进行结果矫正,unity3d把目标跟踪这一帧正确的位置和大小,发送给matlab对之后的帧序列进行重新跟踪,再把跟踪结果交由unity3d再次显示。
3.根据权利要求1所述多跟踪线索引导的目标运动轨迹提取和分析方法,其特征在于,步骤(4)将跟踪结果显示在屏幕坐标系时,需要进行坐标系的映;具体将根据帧数把跟踪结果与理想结果,在二维坐标轴的横向坐标和纵向坐标作出适配,目标中心的X图、Y图、面积图、XSpeed图、YSpeed图的坐标适配计算均使用了同一个适配算法,该适配算法包括下述步骤:
(4-1)计算跟踪结果和理想结果的相关轨迹分量的最大值和最小值,以此设定轨迹绘制时的坐标轴区间;
(4-2)根据公式(1)进行坐标适配,
<mrow>
<mi>t</mi>
<mo>=</mo>
<mfrac>
<mi>t</mi>
<mrow>
<mi>r</mi>
<mi>e</mi>
<mi>a</mi>
<mi>l</mi>
<mi>L</mi>
<mi>e</mi>
<mi>n</mi>
<mi>g</mi>
<mi>t</mi>
<mi>h</mi>
</mrow>
</mfrac>
<mo>&times;</mo>
<mi>l</mi>
<mi>e</mi>
<mi>n</mi>
<mi>g</mi>
<mi>t</mi>
<mi>h</mi>
<mo>+</mo>
<mi>b</mi>
<mi>a</mi>
<mi>s</mi>
<mi>e</mi>
<mi>L</mi>
<mi>e</mi>
<mi>n</mi>
<mi>g</mi>
<mi>t</mi>
<mi>h</mi>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
公式(1)得到t在屏幕上的坐标,其中realLength等于(1)中的最大值减去最小值,length为轴的长度,baseLength为坐标原点距离屏幕原点的距离;
(4-3)绘制跟踪算法得到的不同线索下的物体运动轨迹。
4.根据权利要求3所述多跟踪线索引导的目标运动轨迹提取和分析方法,其特征在于,所述步骤(4-3)具体包括下述步骤:
(4-3-1)X方向的跟踪轨迹绘制;把由跟踪算法得到的文本文件中的跟踪结果进行解析,得到的每帧的帧数和每帧X坐标,使用公式(1)得到其在坐标轴上的坐标,并储存在一个列表的二维向量中;
(4-3-2)Y方向的跟踪轨迹绘制;把由跟踪算法得到的文本文件的跟踪结果进行解析,以得到的帧数和Y坐标,使用公式(1)得到其在坐标轴上的坐标,并储存在一个列表的二维向量中;
(4-3-3)XSpeed的跟踪轨迹绘制;把由跟踪算法得到的文本文件中的跟踪结果进行解析,以得到的帧数和对应帧数的X坐标,使用公式:
<mrow>
<mi>s</mi>
<mi>p</mi>
<mi>e</mi>
<mi>e</mi>
<mi>d</mi>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mrow>
<mi>x</mi>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>+</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mi>x</mi>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
</mrow>
</mrow>
<mi>t</mi>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>2</mn>
<mo>)</mo>
</mrow>
</mrow>
公式(2)得到该帧的速度值speed,其中t是由自己设定的帧数间隔,再使用公式(1)得到其在坐标轴上的坐标并储存在一个列表的二维向量中;
(4-3-4)YSpeed的跟踪轨迹绘制;把由跟踪算子得到的文本文件的跟踪结果进行解析,以帧数和对应帧数的Y坐标,使用公式:
<mrow>
<mi>s</mi>
<mi>p</mi>
<mi>e</mi>
<mi>e</mi>
<mi>d</mi>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mrow>
<mi>y</mi>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>+</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mi>y</mi>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
</mrow>
</mrow>
<mi>t</mi>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>3</mn>
<mo>)</mo>
</mrow>
</mrow>
公式(3)得到该帧的速度值,其中t是由自己设定的帧数间隔,再使用公式(1)得到其在坐标轴上的坐标并储存在一个列表的二维向量中;
(4-3-5)把由跟踪算法跟踪器得到的文本文件的跟踪结果进行解析,以得到的帧数,对应帧数的跟踪框的宽度和高度,使用公式:
Area(i)=width(i)×height(i) (4)
公式(4)得到该帧的面积值,其中width是该帧跟踪结果的宽度,height是该帧跟踪结果的高度,使用公式(1)得到其在坐标轴上的坐标并储存在一个列表的二维向量中。
5.根据权利要求2所述多跟踪线索引导的目标运动轨迹提取和分析方法,其特征在于,步骤(5)中,为更加明确丢失跟踪的帧数和丢失跟踪时将可能发生的情况,需要对跟踪丢失发生的帧数进行标记,更加明确地得知跟踪丢失和跟踪恢复的情况,跟踪丢失和跟踪恢复标记的方法如下:
t(i)=grouth(i)-myself(i) (5)
其中,grouth为正确跟踪结果,myself为跟踪算子的跟踪结果;
(5-1)当目前状态是正确状态时,|t|>value差值的绝对值大于偏移阈值时,则该帧跟踪结果存在偏移,记录该帧的坐标值存入二维向量列表中,把状态设定为偏移状态;
(5-2)当目前状态是偏移状态时,|t|<value差值的绝对值小于偏移阈值时,则视为该帧跟踪结果成功匹配,记录该帧的坐标值存入二维向量的列表中,把状态设定为匹配状态;
其中value是根据文本数值大小设定的阈值。
6.根据权利要求2所述多跟踪线索引导的目标运动轨迹提取和分析方法,其特征在于,步骤(6)中,还包括对跟踪异常的判断和矫正,具体方法是:
当跟踪发生偏移时,弹出一个对话框提示你是否在该帧进行重新计算,假如“是”则将会挂起线程作为服务器连接将matlab需要的数据写入socket中,matlab作为客户端得到untiy写入socket中的数据,得到数据后进行处理将处理交由RACF跟踪算子作为跟踪器进行计算,等待matlab计算完数据后处理数据并写入计算机端口中,unity作为服务器再将计算机端口中的数据提取出来经过处理再把结果经过计算显示于屏幕上,如果选择否,则会继续播放视频。
7.根据权利要求1-6中任一项所述多跟踪线索引导的目标运动轨迹提取和分析方法,其特征在于,所述跟踪算法为RACF跟踪算法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711097270.9A CN107833240B (zh) | 2017-11-09 | 2017-11-09 | 多跟踪线索引导的目标运动轨迹提取和分析方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711097270.9A CN107833240B (zh) | 2017-11-09 | 2017-11-09 | 多跟踪线索引导的目标运动轨迹提取和分析方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107833240A true CN107833240A (zh) | 2018-03-23 |
CN107833240B CN107833240B (zh) | 2020-04-17 |
Family
ID=61654965
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711097270.9A Active CN107833240B (zh) | 2017-11-09 | 2017-11-09 | 多跟踪线索引导的目标运动轨迹提取和分析方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107833240B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111104920A (zh) * | 2019-12-27 | 2020-05-05 | 深圳市商汤科技有限公司 | 视频处理方法及装置、电子设备和存储介质 |
CN112288771A (zh) * | 2020-10-14 | 2021-01-29 | 华南农业大学 | 群体环境中多猪体运动轨迹提取和行为分析方法 |
CN113253755A (zh) * | 2021-05-08 | 2021-08-13 | 广东白云学院 | 一种基于神经网络的旋翼无人机跟踪算法 |
CN114879695A (zh) * | 2019-05-15 | 2022-08-09 | 百度在线网络技术(北京)有限公司 | 轨迹匹配方法、装置、设备和介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101404086A (zh) * | 2008-04-30 | 2009-04-08 | 浙江大学 | 基于视频的目标跟踪方法及装置 |
CN101610412A (zh) * | 2009-07-21 | 2009-12-23 | 北京大学 | 一种基于多线索融合的视觉跟踪方法 |
CN103473542A (zh) * | 2013-09-16 | 2013-12-25 | 清华大学 | 多线索融合的目标跟踪方法 |
CN104100256A (zh) * | 2013-04-15 | 2014-10-15 | 西安科技大学 | 基于图像处理技术的煤矿井下钻孔深度测量方法 |
CN105741321A (zh) * | 2016-01-31 | 2016-07-06 | 华南理工大学 | 基于跟踪点分布的视频目标运动趋势分析方法 |
CN106671991A (zh) * | 2016-12-30 | 2017-05-17 | 清华大学苏州汽车研究院(吴江) | 基于多线索视觉特征融合的车道偏离预警方法 |
CN106898015A (zh) * | 2017-01-17 | 2017-06-27 | 华中科技大学 | 一种基于自适应子块筛选的多线索视觉跟踪方法 |
CN107066931A (zh) * | 2017-01-12 | 2017-08-18 | 张家港全智电子科技有限公司 | 一种基于监控视频的目标轨迹跟踪方法 |
-
2017
- 2017-11-09 CN CN201711097270.9A patent/CN107833240B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101404086A (zh) * | 2008-04-30 | 2009-04-08 | 浙江大学 | 基于视频的目标跟踪方法及装置 |
CN101610412A (zh) * | 2009-07-21 | 2009-12-23 | 北京大学 | 一种基于多线索融合的视觉跟踪方法 |
CN104100256A (zh) * | 2013-04-15 | 2014-10-15 | 西安科技大学 | 基于图像处理技术的煤矿井下钻孔深度测量方法 |
CN103473542A (zh) * | 2013-09-16 | 2013-12-25 | 清华大学 | 多线索融合的目标跟踪方法 |
CN105741321A (zh) * | 2016-01-31 | 2016-07-06 | 华南理工大学 | 基于跟踪点分布的视频目标运动趋势分析方法 |
CN106671991A (zh) * | 2016-12-30 | 2017-05-17 | 清华大学苏州汽车研究院(吴江) | 基于多线索视觉特征融合的车道偏离预警方法 |
CN107066931A (zh) * | 2017-01-12 | 2017-08-18 | 张家港全智电子科技有限公司 | 一种基于监控视频的目标轨迹跟踪方法 |
CN106898015A (zh) * | 2017-01-17 | 2017-06-27 | 华中科技大学 | 一种基于自适应子块筛选的多线索视觉跟踪方法 |
Non-Patent Citations (3)
Title |
---|
QI WANG ET AL.: "Multi-cue based tracking", 《NEUROCOMPUTING》 * |
胡韶山: "人体异常行为识别在智能监控系统中的研究与实现", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
蒋晓瑜等: "基于图像处理的自动目标识别和跟踪算法初探", 《火力与指挥控制》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114879695A (zh) * | 2019-05-15 | 2022-08-09 | 百度在线网络技术(北京)有限公司 | 轨迹匹配方法、装置、设备和介质 |
CN114879695B (zh) * | 2019-05-15 | 2023-03-24 | 百度在线网络技术(北京)有限公司 | 轨迹匹配方法、装置、设备和介质 |
CN111104920A (zh) * | 2019-12-27 | 2020-05-05 | 深圳市商汤科技有限公司 | 视频处理方法及装置、电子设备和存储介质 |
CN111104920B (zh) * | 2019-12-27 | 2023-12-01 | 深圳市商汤科技有限公司 | 视频处理方法及装置、电子设备和存储介质 |
CN112288771A (zh) * | 2020-10-14 | 2021-01-29 | 华南农业大学 | 群体环境中多猪体运动轨迹提取和行为分析方法 |
CN112288771B (zh) * | 2020-10-14 | 2022-03-25 | 华南农业大学 | 群体环境中多猪体运动轨迹提取和行为分析方法 |
CN113253755A (zh) * | 2021-05-08 | 2021-08-13 | 广东白云学院 | 一种基于神经网络的旋翼无人机跟踪算法 |
Also Published As
Publication number | Publication date |
---|---|
CN107833240B (zh) | 2020-04-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107833240A (zh) | 多跟踪线索引导的目标运动轨迹提取和分析方法 | |
CN103617615B (zh) | 径向畸变参数获取方法及获取装置 | |
CN109100730B (zh) | 一种多车协同快速建图方法 | |
CN110426051A (zh) | 一种车道线绘制方法、装置及存储介质 | |
CN108335322A (zh) | 深度估计方法和装置、电子设备、程序和介质 | |
CN106780601A (zh) | 一种空间位置追踪方法、装置及智能设备 | |
CN107941217A (zh) | 一种机器人定位方法、电子设备、存储介质、装置 | |
CN110111363A (zh) | 一种基于目标检测的跟踪方法及设备 | |
CN104517275A (zh) | 对象检测方法和系统 | |
CN103413352A (zh) | 基于rgbd多传感器融合的场景三维重建方法 | |
CN107885871A (zh) | 基于云计算的同步定位与地图构建方法、系统、交互系统 | |
CN110986968A (zh) | 三维重建中实时全局优化和错误回环判断的方法及装置 | |
CN110533720A (zh) | 基于联合约束的语义slam系统及方法 | |
CN108235725A (zh) | 基于云端的轨迹地图生成方法、装置、设备及应用程序 | |
CN103729860A (zh) | 一种图像目标跟踪的方法和装置 | |
CN105698784A (zh) | 一种室内机器人定位系统及方法 | |
CN104792327A (zh) | 一种基于移动设备的运动轨迹对比方法 | |
CN107862733A (zh) | 基于视线更新算法的大规模场景实时三维重建方法和系统 | |
Azuma et al. | Performance analysis of an outdoor augmented reality tracking system that relies upon a few mobile beacons | |
CN110197501B (zh) | 图像处理方法和设备 | |
CN105046691A (zh) | 一种基于正交消失点的相机自标定方法 | |
CN107160402A (zh) | 一种机械臂移动路径规划系统及方法 | |
CN109711421A (zh) | 一种数据处理方法和装置 | |
CN116804553A (zh) | 基于事件相机/imu/自然路标的里程计系统及方法 | |
CN106527720A (zh) | 一种沉浸式交互控制方法与系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |