CN103413324A - 航拍视频自动目标跟踪方法 - Google Patents

航拍视频自动目标跟踪方法 Download PDF

Info

Publication number
CN103413324A
CN103413324A CN2013103235377A CN201310323537A CN103413324A CN 103413324 A CN103413324 A CN 103413324A CN 2013103235377 A CN2013103235377 A CN 2013103235377A CN 201310323537 A CN201310323537 A CN 201310323537A CN 103413324 A CN103413324 A CN 103413324A
Authority
CN
China
Prior art keywords
target
track
current
light stream
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2013103235377A
Other languages
English (en)
Inventor
张艳宁
杨涛
仝小敏
马文广
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN2013103235377A priority Critical patent/CN103413324A/zh
Publication of CN103413324A publication Critical patent/CN103413324A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种航拍视频自动目标跟踪方法,用于解决现有基于稳像检测和数据关联的航拍视频目标跟踪方法跟踪错误率高的技术问题。技术方案是首先利用金字塔光流法提取鲁棒的光流轨迹特征,而非简单的运动前景分割;其次利用运动约束、位置约束、存在时长约束对光流轨迹进行有效管理;最后根据连续若干帧空间聚类结果进行时间维度上的聚类,有效克服目标交叉目标近距离情况下空间聚类错误问题。本发明在时空聚类基础之上,获得目标跟踪结果,降低了跟踪错误率。经测试,跟踪错误率由背景技术的18%降低到8%,跟踪错误率降低了10%。

Description

航拍视频自动目标跟踪方法
技术领域
本发明涉及一种航拍视频目标跟踪方法,特别涉及一种航拍视频自动目标跟踪方法。
背景技术
航拍视频自动目标跟踪是计算机视觉领域的重要研究课题。现有的航拍视频自动目标跟踪方法主要基于先稳像后检测跟踪的框架。
文献“Moving Objects Detection and Tracking Framework for UAV-basedSurveillance,Fourth Pacific-Rim Symposium on Image and Video Technology,2010:456-461”公开了一种基于稳像检测和数据关联的航拍视频目标跟踪算法。该方法首先通过SIFT特征点匹配实现相邻帧之间的配准,之后通过混合高斯背景建模方法进行背景抑制,利用Graph-Cut方法精确分割目标区域,最后利用数据关联实现目标跟踪。但是该方法跟踪结果好坏严重依赖于相邻帧配准精度以及目标检测精度,一旦发生漏检或者目标之间距离太近,跟踪就会发生错误,跟踪错误率平均约18%。
发明内容
为了克服现有基于稳像检测和数据关联的航拍视频目标跟踪方法跟踪错误率高的不足,本发明提供一种航拍视频自动目标跟踪方法。该方法首先利用金字塔光流法提取鲁棒的光流轨迹特征,而非简单的运动前景分割;其次利用运动约束、位置约束、存在时长约束对光流轨迹进行有效管理;最后根据连续若干帧空间聚类结果进行时间维度上的聚类,有效克服目标交叉目标近距离情况下空间聚类错误问题。本发明在时空聚类基础之上,获得目标跟踪结果,可以降低跟踪错误率。
本发明解决其技术问题所采用的技术方案是:一种航拍视频自动目标跟踪方法,其特点是包括以下步骤:
步骤一、输入一段航拍视频序列,首先是提取光流轨迹特征,并对其进行管理。ObjNum表示当前已经跟踪的目标个数,初始为0。L表示当前所有有效光流轨迹的个数,记光流轨迹集合为S={Fi,i=1,...,L},初始状态下为空,
Figure BDA00003585739100011
表示当前第i条光流轨迹。对当前t时刻图像提取Harris角点,并选择角点响应大于0.01的角点作为侯选光流特征点,采用金字塔光流算法对S中的特征点和侯选特征点计算光流矢量,获得其在下一帧中相应的位置。
利用RANSAC方法和侯选光流特征点对计算当前帧和下一帧之间的仿射变换模型AF,并将侯选特征点分为内点和外点,内点为符合变换模型的背景点,外点为运动目标上的点。对于这些外点计算其与S中已有光流特征点的最小空间距离,若大于给定阈值,则作为新的特征点加入S,新特征点对应的目标ID为0。
AF=[R|T]            (1)
其中R和T分别为旋转矩阵和平移矩阵。对光流轨迹集合中旧特征点利用公式(2)计算运动补偿之后的运动矢量。
MV i , t = x i , t + 1 y i , t + 1 - AF × x i , t y i , . t - - - ( 2 )
若||MVi,t||2<Thresholdv或Length(Fi)<Thresholdl,则从S中删除Fi。其中Length(Fi)表示Fi存在时间长度,Thresholdv和Thresholdl分别为速度阈值和存在时长阈值。
用N表示时间聚类阈值,将S中所有光流轨迹投影到t+1时刻的图像坐标系下,并选择所有存在时长大于N的轨迹构成聚类光流集合CS={CFj,j=1,...,J},进行后续聚类处理,
Figure BDA00003585739100022
为第j条参与聚类的特征轨迹,J为参与聚类的轨迹个数。
步骤二、取光流轨迹在当前时刻的位置{(xj,t,yj,t),j=1,...,J}作为样本点进行聚类,由于目标类别数不确定,无法事先确定聚类类别数。给定聚类距离阈值Thresholdd(本施例中取
Figure BDA00003585739100023
采用最近邻聚类,得到聚类的结果,记当前聚类类别数为kt,具体聚类步骤如下:
(1)初始化。
当前类别数设置为0。
(2)对所有样本点(xj,t,yj,t),j=1,...,J进行如下操作:
a)如果当前类别数为0,建立一个新类别,
如果当前类别数不为0,计算当前样本点(xj,t,yj,t)与所有类别的距离,记最小距离为mindistance,对应的类别为km,若mindistance<Thresholdd,那么将(xj,t,yj,t)归入第km类,并更新第km类的中心和样本数。若mindistance≥Thresholdd,则建立一个新类别,将当前样本点(xj,t,yj,t)作为新类别的中心,类别数加1;
根据聚类结果得到当前帧J×J维对称关联矩阵AMt,满足AMt(j1,j2)=AMt(j2,j1),AMt(j1,j2)=1表示j1条光流轨迹和第j2条光流轨迹聚为同一类,AMt(j1,j2)=0则表示属于不同类。依次对t-1,t-2,...,t-N+1时刻的轨迹特征进行空间聚类,分别得到相应的空间关联矩阵 AM t 0 , t 0 = t - N + 1 , . . . , t .
步骤三、分别对之前连续N帧重复步骤二中的聚类操作,得到相应的关联矩阵AMt-N+1,...,AMt-1
步骤四、利用公式(1)
ATM ( i , j ) = &Sigma; t 0 = t - N + 1 t AM t 0 ( i , j ) - - - ( 3 )
统计任意两条光流轨迹聚为同一类的次数,得到关联次数矩阵ATM;
步骤五、给定关联阈值α,根据公式(4)
( i , j ) = 1 ATM ( i , j ) > N &times; &alpha; 0 othrewise - - - ( 4 )
计算关联矩阵AM,AM(i,j)=1表示第i条光流轨迹和第j条光流轨迹来自于同一个目标,否则为不同目标;
步骤六、根据关联矩阵AM将光流轨迹分为不同类,并计算各个类中心作为目标位置。
最终队列个数C即为当前跟踪目标个数。根据时空聚类结果,计算当前跟踪目标中心,并绘制多目标轨迹。确定目标中心和ID具体步骤如下:
遍历所有队列Qc,c=1,...,C,依次执行如下操作:
(1)统计当前队列Qc所有轨迹对应目标ID,若全为0,执行步骤(2);若不全为0,执行步骤(3);
(2)建立一个新的跟踪目标,跟踪目标个数ObjNum加1,当前队列Qc所有轨迹目标ID置为ObjNum;
(3)统计各个不为0的ID对应的轨迹个数,选择个数最多的ID作为当前队列Qc所有轨迹的目标ID;
(4)利用公式(5)和公式(6)计算当前队列对应的目标中心,其中Mc为当前目标对应轨迹个数。
x c = 1 M c &Sigma; i = 1 M c x i , t - - - ( 5 )
y c = 1 M c &Sigma; i = 1 M c y i , t - - - ( 6 )
(5)选择队列中最长的轨迹作为当前目标跟踪的轨迹并输出显示。
本发明的有益效果是:该方法首先利用金字塔光流法提取鲁棒的光流轨迹特征,而非简单的运动前景分割;其次利用运动约束、位置约束、存在时长约束对光流轨迹进行有效管理;最后根据连续若干帧空间聚类结果进行时间维度上的聚类,有效克服目标交叉目标近距离情况下空间聚类错误问题。本发明在时空聚类基础之上,获得目标跟踪结果,降低了跟踪错误率。经测试,跟踪错误率由背景技术的18%降低到8%,跟踪错误率降低了10%。
下面结合具体实施方式对本发明作详细说明。
具体实施方式
本发明航拍视频自动目标跟踪方法具体步骤如下:
步骤一、利用金字塔光流算法对已有光流特征点和当前新检测的Harris角点计算光流矢量特征,通过RANSAC方法计算相邻帧之间的仿射变换模型及特征点的运动状态,利用运动约束、空间位置约束、存在时间约束对特征点进行管理,得到当前最可靠的光流轨迹,并选择长度大于N的光流轨迹。
输入一段航拍视频序列,首先是提取光流轨迹特征,并对其进行管理。ObjNum表示当前已经跟踪的目标个数,初始为0。L表示当前所有有效光流轨迹的个数,记光流轨迹集合为S={Fi,i=1,...,L},初始状态下为空,
Figure BDA00003585739100042
表示当前第i条光流轨迹。对当前t时刻图像提取Harris角点,并选择角点响应大于0.01的角点作为侯选光流特征点,采用金字塔光流算法对S中的特征点和侯选特征点计算光流矢量,获得其在下一帧中相应的位置。为了同时保证计算效率和精确度,金字塔光流层数为5,窗宽为5。
利用RANSAC方法和侯选光流特征点对计算当前帧和下一帧之间的仿射变换模型AF,并将侯选特征点分为内点和外点,内点为符合变换模型的背景点,外点为运动目标上的点。对于这些外点计算其与S中已有光流特征点的最小空间距离,若大于给定阈值(本施例中取
Figure BDA00003585739100043
),则作为新的特征点加入S,新特征点对应的目标ID为0。
AF=[R|T]             (1)
其中R和T分别为旋转矩阵和平移矩阵。对光流轨迹集合中旧特征点利用公式(2)计算运动补偿之后的运动矢量。
MV i , t = x i , t + 1 y i , t + 1 - AF &times; x i , t y i , t - - - ( 2 )
若||MVi,t||2<Thresholdv或Length(Fi)<Thresholdl,则从S中删除Fi。其中Length(Fi)表示Fi存在时间长度,Thresholdv和Thresholdl分别为速度阈值和存在时长阈值,本施例中分别取
Figure BDA00003585739100053
和10。
用N表示时间聚类阈值,本施例中取N=30。将S中所有光流轨迹投影到t+1时刻的图像坐标系下,并选择所有存在时长大于N的轨迹构成聚类光流集合CS={CFj,j=1,...,J},进行后续聚类处理,
Figure BDA00003585739100054
为第j条参与聚类的特征轨迹,J为参与聚类的轨迹个数。
步骤二、对光流轨迹在当前帧进行最近邻聚类,依次给定类别数k=1,...,N进行最近邻聚类,分别计算类内方差,选择类内方差曲线的拐点对应的类别数K作为聚类结果,得到当前帧关联矩阵AMt,AMt(i,j)=1表示i条光流轨迹和第j条光流轨迹聚为同一类,AMt(i,j)=0则表示属于不同类。
取光流轨迹在当前时刻的位置{(xj,t,yj,t),j=1,...,J}作为样本点进行聚类,由于目标类别数不确定,无法事先确定聚类类别数。给定聚类距离阈值Thresholdd(本施例中取
Figure BDA00003585739100052
采用最近邻聚类,得到聚类的结果,记当前聚类类别数为kt,具体聚类步骤如下:
(3)初始化。
当前类别数设置为0。
(4)对所有样本点(xj,t,yj,t),j=1,...,J进行如下操作:
a)如果当前类别数为0,建立一个新类别,
b)如果当前类别数不为0,计算当前样本点(xj,t,yj,t)与所有类别的距离,记最小距离为mindistance,对应的类别为km,若mindistance<Thresholdd,那么将(xj,t,yj,t)归入第km类,并更新第km类的中心和样本数。若mindistance≥Thresholdd,则建立一个新类别,将当前样本点(xj,t,yj,t)作为新类别的中心,类别数加1;
根据聚类结果得到当前帧J×J维对称关联矩阵AMt,满足AMt(j1,j2)=AMt(j2,j1),AMt(j1,j2)=1表示j1条光流轨迹和第j2条光流轨迹聚为同一类,AMt(j1,j2)=0则表示属于不同类。依次对t-1,t-2,...,t-N+1时刻的轨迹特征进行空间聚类,分别得到相应的空间关联矩阵 AM t 0 , t 0 = t - N + 1 , . . . , t .
步骤三、分别对之前连续N帧重复步骤二中的聚类操作,得到相应的关联矩阵AMt-N+1,...,AMt-1
步骤四、在目标交叉运动的复杂条件下,仅仅通过空间聚类进行目标跟踪,容易发生错误。本发明在空间聚类基础上,进行时间维度上的聚类,从而提高跟踪算法的鲁棒性。首先利用公式(3)计算轨迹关联次数矩阵ATM
ATM ( j 1 , j 2 ) = &Sigma; t 0 = t - N + 1 t AM t 0 ( j 1 , j 2 ) - - - ( 3 )
步骤五、给定关联阈值α∈[0,1],本施例中取α=0.8,根据公式(4)计算关联矩阵AM。
AM ( j 1 , j 2 ) = 1 ATM ( j 1 , j 2 ) > N &times; &alpha; 0 otherwise - - - ( 4 )
AM(j1,j2)=1表示第j1条光流轨迹和第j2条光流轨迹来自于同一个目标,否则为不同目标。利用队列操作方法将所有轨迹归入不同类中,具体步骤如下:
(1)初始化。
设置当前队列Qc,c=1为空。
(2)遍历AM,若找到AM(j3,j4)为第一个不为0的元素,则执行步骤(3);若找不到,结束。
(3)将j3进队Qc,头指针指向队头。
(4)若头指针指向队尾,那么当前队列所有元素即为一个跟踪目标所对应轨迹的编号,保存当前队列Qc,令c=c+1,建立新队列Qc并重复步骤(1)(2)继续搜索其他目标对应的轨迹编号;若头指针指向有效的队列元素,记头指针指向的元素为j,遍历AM的第j行,将所有不为0元素所对应的列坐标进队,AM第j行和第j列所有元素置为0。
(5)头指针后移一位,重复步骤(4)。
步骤六、根据关联矩阵AM将光流轨迹分为不同类,并计算各个类中心作为目标位置。
最终队列个数C即为当前跟踪目标个数。根据时空聚类结果,计算当前跟踪目标中心,并绘制多目标轨迹。确定目标中心和ID具体步骤如下:
遍历所有队列Qc,c=1,...,C,依次执行如下操作:
(6)统计当前队列Qc所有轨迹对应目标ID,若全为0,执行步骤(2);若不全为0,执行步骤(3);
(7)建立一个新的跟踪目标,跟踪目标个数ObjNum加1,当前队列Qc所有轨迹目标ID置为ObjNum;
(8)统计各个不为0的ID对应的轨迹个数,选择个数最多的ID作为当前队列Qc所有轨迹的目标ID;
(9)利用公式(5)和(6)计算当前队列对应的目标中心,其中Mc为当前目标对应轨迹个数。
x c = 1 M c &Sigma; i = 1 M c x i , t - - - ( 5 )
y c = 1 M c &Sigma; i = 1 M c y i , t - - - ( 6 )
(10)选择队列中最长的轨迹作为当前目标跟踪的轨迹并输出显示。

Claims (1)

1.一种航拍视频自动目标跟踪方法,其特征在于包括以下步骤:
步骤一、输入一段航拍视频序列,首先是提取光流轨迹特征,并对其进行管理;ObjNum表示当前已经跟踪的目标个数,初始为0;L表示当前所有有效光流轨迹的个数,记光流轨迹集合为S={Fi,i=1,...,L},初始状态下为空,
Figure FDA00003585739000012
表示当前第i条光流轨迹;对当前t时刻图像提取Harris角点,并选择角点响应大于0.01的角点作为侯选光流特征点,采用金字塔光流算法对S中的特征点和侯选特征点计算光流矢量,获得其在下一帧中相应的位置;
利用RANSAC方法和侯选光流特征点对计算当前帧和下一帧之间的仿射变换模型AF,并将侯选特征点分为内点和外点,内点为符合变换模型的背景点,外点为运动目标上的点;对于这些外点计算其与S中已有光流特征点的最小空间距离,若大于给定阈值,则作为新的特征点加入S,新特征点对应的目标ID为0;
AF=[R|T]           (1)
其中R和T分别为旋转矩阵和平移矩阵;对光流轨迹集合中旧特征点利用公式(2)计算运动补偿之后的运动矢量;
MV i , t = x i , t + 1 y i , t + 1 - AF &times; x i , t y i , t - - - ( 2 )
若||MVi,t||2<Thresholdv或Length(Fi)<Thresholdl,则从S中删除Fi;其中Length(Fi)表示Fi存在时间长度,Thresholdv和Thresholdl分别为速度阈值和存在时长阈值;
用N表示时间聚类阈值,将S中所有光流轨迹投影到t+1时刻的图像坐标系下,并选择所有存在时长大于N的轨迹构成聚类光流集合CS={CFj,j=1,...,J},进行后续聚类处理,
Figure FDA00003585739000013
为第j条参与聚类的特征轨迹,J为参与聚类的轨迹个数;
步骤二、取光流轨迹在当前时刻的位置{(xj,t,yj,t),j=1,...,J}作为样本点进行聚类,由于目标类别数不确定,无法事先确定聚类类别数;给定聚类距离阈值Thresholdd(本施例中取
Figure FDA00003585739000014
采用最近邻聚类,得到聚类的结果,记当前聚类类别数为kt,具体聚类步骤如下:
(1)初始化;
当前类别数设置为0;
(2)对所有样本点(xj,t,yj,t),j=1,...,J进行如下操作:
a)如果当前类别数为0,建立一个新类别,
如果当前类别数不为0,计算当前样本点(xj,t,yj,t)与所有类别的距离,记最小距离为mindistance,对应的类别为km,若mindistance<Thresholdd,那么将(xj,t,yj,t)归入第km类,并更新第km类的中心和样本数;若mindistance≥Thresholdd,则建立一个新类别,将当前样本点(xj,t,yj,t)作为新类别的中心,类别数加1;
根据聚类结果得到当前帧J×J维对称关联矩阵AMt,满足AMt(j1,j2)=AMt(j2,j1),AMt(j1,j2)=1表示j1条光流轨迹和第j2条光流轨迹聚为同一类,AMt(j1,j2)=0则表示属于不同类;依次对t-1,t-2,...,t-N+1时刻的轨迹特征进行空间聚类,分别得到相应的空间关联矩阵 AM t 0 , t 0 = t - N + 1 , . . . , t ;
步骤三、分别对之前连续N帧重复步骤二中的聚类操作,得到相应的关联矩阵AMt-N+1,...,AMt-1
步骤四、利用公式(1)
ATM ( i , j ) = &Sigma; t 0 = t - N + 1 t AM t 0 ( i , j ) - - - ( 3 )
统计任意两条光流轨迹聚为同一类的次数,得到关联次数矩阵ATM;
步骤五、给定关联阈值α,根据公式(4)
AM ( i , j ) = 1 ATM ( i , j ) > N &times; &alpha; 0 otherwise - - - ( 4 )
计算关联矩阵AM,AM(i,j)=1表示第i条光流轨迹和第j条光流轨迹来自于同一个目标,否则为不同目标;
步骤六、根据关联矩阵AM将光流轨迹分为不同类,并计算各个类中心作为目标位置;
最终队列个数C即为当前跟踪目标个数;根据时空聚类结果,计算当前跟踪目标中心,并绘制多目标轨迹;确定目标中心和ID具体步骤如下:
遍历所有队列Qc,c=1,...,C,依次执行如下操作:
(1)统计当前队列Qc所有轨迹对应目标ID,若全为0,执行步骤(2);若不全为0,执行步骤(3);
(2)建立一个新的跟踪目标,跟踪目标个数ObjNum加1,当前队列Qc所有轨迹目标ID置为ObjNum;
(3)统计各个不为0的ID对应的轨迹个数,选择个数最多的ID作为当前队列Qc所有轨迹的目标ID;
(4)利用公式(5)和公式(6)计算当前队列对应的目标中心,其中Mc为当前目标对应轨迹个数;
x c = 1 M c &Sigma; i = 1 M c x i , t - - - ( 5 )
y c = 1 M c &Sigma; i = 1 M c y i , t - - - ( 6 )
(5)选择队列中最长的轨迹作为当前目标跟踪的轨迹并输出显示。
CN2013103235377A 2013-07-29 2013-07-29 航拍视频自动目标跟踪方法 Pending CN103413324A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2013103235377A CN103413324A (zh) 2013-07-29 2013-07-29 航拍视频自动目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2013103235377A CN103413324A (zh) 2013-07-29 2013-07-29 航拍视频自动目标跟踪方法

Publications (1)

Publication Number Publication Date
CN103413324A true CN103413324A (zh) 2013-11-27

Family

ID=49606329

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2013103235377A Pending CN103413324A (zh) 2013-07-29 2013-07-29 航拍视频自动目标跟踪方法

Country Status (1)

Country Link
CN (1) CN103413324A (zh)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103745458A (zh) * 2013-12-26 2014-04-23 华中科技大学 一种鲁棒的基于双目光流的空间目标旋转轴及质心估计方法
CN104217442A (zh) * 2014-08-28 2014-12-17 西北工业大学 基于多模型估计的航拍视频运动目标检测方法
CN105100618A (zh) * 2015-07-30 2015-11-25 中国科学院光电技术研究所 一种能够准确检测出视频序列中复杂抖动的稳像方法
CN105975918A (zh) * 2016-04-29 2016-09-28 厦门大学 基于多模型估计的面向移动摄像机的运动目标检测方法
CN106338288A (zh) * 2016-08-01 2017-01-18 零度智控(北京)智能科技有限公司 飞行器定位数据的处理方法及装置
CN104200492B (zh) * 2014-08-25 2017-03-29 西北工业大学 基于轨迹约束的航拍视频目标自动检测跟踪方法
CN106875421A (zh) * 2017-01-19 2017-06-20 博康智能信息技术有限公司北京海淀分公司 一种多目标跟踪方法及装置
CN108537250A (zh) * 2018-03-16 2018-09-14 新智认知数据服务有限公司 一种目标跟踪模型构建方法及装置
CN109344846A (zh) * 2018-09-26 2019-02-15 联想(北京)有限公司 图像特征提取方法和装置
CN109711334A (zh) * 2018-12-26 2019-05-03 浙江捷尚视觉科技股份有限公司 一种基于时空光流场的atm尾随事件检测方法
CN109785363A (zh) * 2018-12-29 2019-05-21 中国电子科技集团公司第五十二研究所 一种无人机航拍视频运动小目标实时检测与跟踪方法
CN110225366A (zh) * 2019-06-26 2019-09-10 腾讯科技(深圳)有限公司 视频数据处理及广告位确定方法、装置、介质及电子设备
CN111382784A (zh) * 2020-03-04 2020-07-07 厦门脉视数字技术有限公司 一种运动目标跟踪方法
CN111402294A (zh) * 2020-03-10 2020-07-10 腾讯科技(深圳)有限公司 目标跟踪方法、装置、计算机可读存储介质和计算机设备
CN115601301A (zh) * 2022-09-07 2023-01-13 中国科学院水生生物研究所(Cn) 鱼类表型特征测量方法、系统、电子设备及存储介质
CN116958189A (zh) * 2023-09-20 2023-10-27 中国科学院国家空间科学中心 基于线段关联的运动点目标时空域轨迹跟踪方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030068082A1 (en) * 2001-05-16 2003-04-10 Dorin Comaniciu Systems and methods for automatic scale selection in real-time imaging
CN101420594A (zh) * 2007-10-26 2009-04-29 三星电子株式会社 将视频图像划分为构成区域的设备和方法
CN101840579A (zh) * 2010-01-28 2010-09-22 浙江大学 一种利用视频分割与粒子滤波实现多目标跟踪方法
CN102509306A (zh) * 2011-10-08 2012-06-20 西安理工大学 一种基于视频的特定目标的跟踪方法
CN102903122A (zh) * 2012-09-13 2013-01-30 西北工业大学 基于特征光流与在线集成学习的视频目标跟踪方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030068082A1 (en) * 2001-05-16 2003-04-10 Dorin Comaniciu Systems and methods for automatic scale selection in real-time imaging
CN101420594A (zh) * 2007-10-26 2009-04-29 三星电子株式会社 将视频图像划分为构成区域的设备和方法
CN101840579A (zh) * 2010-01-28 2010-09-22 浙江大学 一种利用视频分割与粒子滤波实现多目标跟踪方法
CN102509306A (zh) * 2011-10-08 2012-06-20 西安理工大学 一种基于视频的特定目标的跟踪方法
CN102903122A (zh) * 2012-09-13 2013-01-30 西北工业大学 基于特征光流与在线集成学习的视频目标跟踪方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
GONZALO R. RODRIGUEZ-CANOSA等: "A Real-Time Method to Detect and Track Moving Objects (DATMO) from Unmanned Aerial Vehicles (UAVs) Using a Single Camera", 《REMOTE SENSING》, no. 4, 20 April 2012 (2012-04-20), pages 1090 - 1111 *
MICHAEL TEUTSCH等: "Detection, Segmentation, and Tracking of Moving Objects in UAV Videos", 《2012 IEEE NINTH INTERNATIONAL CONFERENCE ON ADVANCED VIDEO AND SIGNAL-BASED SURVEILLANCE(AVSS)》, 21 September 2012 (2012-09-21), pages 313 - 318, XP 032248245, DOI: doi:10.1109/AVSS.2012.36 *
仝小敏等: "基于增量子空间自适应决策的目标跟踪", 《自动化学报》, vol. 37, no. 12, 31 December 2011 (2011-12-31), pages 1483 - 1494 *
杨涛等: "基于场景复杂度与不变特征的航拍视频实时配准算法", 《电子学报》, vol. 38, no. 5, 31 May 2010 (2010-05-31), pages 1069 - 1077 *

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103745458B (zh) * 2013-12-26 2015-07-29 华中科技大学 一种鲁棒的基于双目光流的空间目标旋转轴及质心估计方法
CN103745458A (zh) * 2013-12-26 2014-04-23 华中科技大学 一种鲁棒的基于双目光流的空间目标旋转轴及质心估计方法
CN104200492B (zh) * 2014-08-25 2017-03-29 西北工业大学 基于轨迹约束的航拍视频目标自动检测跟踪方法
CN104217442B (zh) * 2014-08-28 2017-01-25 西北工业大学 基于多模型估计的航拍视频运动目标检测方法
CN104217442A (zh) * 2014-08-28 2014-12-17 西北工业大学 基于多模型估计的航拍视频运动目标检测方法
CN105100618A (zh) * 2015-07-30 2015-11-25 中国科学院光电技术研究所 一种能够准确检测出视频序列中复杂抖动的稳像方法
CN105975918A (zh) * 2016-04-29 2016-09-28 厦门大学 基于多模型估计的面向移动摄像机的运动目标检测方法
CN105975918B (zh) * 2016-04-29 2019-04-02 厦门大学 基于多模型估计的面向移动摄像机的运动目标检测方法
CN106338288A (zh) * 2016-08-01 2017-01-18 零度智控(北京)智能科技有限公司 飞行器定位数据的处理方法及装置
CN106338288B (zh) * 2016-08-01 2024-01-09 零度智控(北京)智能科技有限公司 飞行器定位数据的处理方法及装置
CN106875421A (zh) * 2017-01-19 2017-06-20 博康智能信息技术有限公司北京海淀分公司 一种多目标跟踪方法及装置
CN108537250A (zh) * 2018-03-16 2018-09-14 新智认知数据服务有限公司 一种目标跟踪模型构建方法及装置
CN108537250B (zh) * 2018-03-16 2022-06-14 新智认知数据服务有限公司 一种目标跟踪模型构建方法及装置
CN109344846B (zh) * 2018-09-26 2022-03-25 联想(北京)有限公司 图像特征提取方法和装置
CN109344846A (zh) * 2018-09-26 2019-02-15 联想(北京)有限公司 图像特征提取方法和装置
CN109711334A (zh) * 2018-12-26 2019-05-03 浙江捷尚视觉科技股份有限公司 一种基于时空光流场的atm尾随事件检测方法
CN109785363A (zh) * 2018-12-29 2019-05-21 中国电子科技集团公司第五十二研究所 一种无人机航拍视频运动小目标实时检测与跟踪方法
CN110225366A (zh) * 2019-06-26 2019-09-10 腾讯科技(深圳)有限公司 视频数据处理及广告位确定方法、装置、介质及电子设备
CN111382784A (zh) * 2020-03-04 2020-07-07 厦门脉视数字技术有限公司 一种运动目标跟踪方法
CN111382784B (zh) * 2020-03-04 2021-11-26 厦门星纵智能科技有限公司 一种运动目标跟踪方法
CN111402294A (zh) * 2020-03-10 2020-07-10 腾讯科技(深圳)有限公司 目标跟踪方法、装置、计算机可读存储介质和计算机设备
CN111402294B (zh) * 2020-03-10 2022-10-18 腾讯科技(深圳)有限公司 目标跟踪方法、装置、计算机可读存储介质和计算机设备
CN115601301A (zh) * 2022-09-07 2023-01-13 中国科学院水生生物研究所(Cn) 鱼类表型特征测量方法、系统、电子设备及存储介质
CN116958189A (zh) * 2023-09-20 2023-10-27 中国科学院国家空间科学中心 基于线段关联的运动点目标时空域轨迹跟踪方法
CN116958189B (zh) * 2023-09-20 2023-12-12 中国科学院国家空间科学中心 基于线段关联的运动点目标时空域轨迹跟踪方法

Similar Documents

Publication Publication Date Title
CN103413324A (zh) 航拍视频自动目标跟踪方法
Baysal et al. Sentioscope: a soccer player tracking system using model field particles
Cao et al. Vehicle detection and motion analysis in low-altitude airborne video under urban environment
CN106778712B (zh) 一种多目标检测与跟踪方法
Zhang et al. Application of deep learning and unmanned aerial vehicle technology in traffic flow monitoring
CN110046659B (zh) 一种基于tld的长时间单目标跟踪方法
Baykara et al. Real-time detection, tracking and classification of multiple moving objects in UAV videos
Dai et al. Instance segmentation enabled hybrid data association and discriminative hashing for online multi-object tracking
Gomaa et al. Real-time algorithm for simultaneous vehicle detection and tracking in aerial view videos
Soleimanitaleb et al. Single object tracking: A survey of methods, datasets, and evaluation metrics
Agarwal et al. Real-time* multiple object tracking (MOT) for autonomous navigation
CN111797785B (zh) 一种基于深度学习的多航空器跟踪方法
He et al. A novel multi-source vehicle detection algorithm based on deep learning
Yang et al. A fast and effective video vehicle detection method leveraging feature fusion and proposal temporal link
CN107871156B (zh) 基于信息素预测的蚁群多细胞跟踪系统
CN110837769B (zh) 一种图像处理与深度学习的嵌入式远红外行人检测方法
CN107194950A (zh) 一种基于慢特征分析的多人跟踪方法
CN104268902A (zh) 面向工业现场的多目标视频跟踪方法
Yi et al. Multi-Person tracking algorithm based on data association
Wan et al. Automatic moving object segmentation for freely moving cameras
Li et al. An efficient self-learning people counting system
Neamah et al. Real-time Traffic Monitoring System Based on Deep Learning and YOLOv8
Yan et al. Crowd counting via scale-adaptive convolutional neural network in extremely dense crowd images
Yadav et al. An Efficient Yolov7 and Deep Sort are Used in a Deep Learning Model for Tracking Vehicle and Detection
Tian et al. Pedestrian multi-target tracking based on YOLOv3

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20131127