CN107092869A - 一种视频卫星的点目标跟踪方法 - Google Patents

一种视频卫星的点目标跟踪方法 Download PDF

Info

Publication number
CN107092869A
CN107092869A CN201710218461.XA CN201710218461A CN107092869A CN 107092869 A CN107092869 A CN 107092869A CN 201710218461 A CN201710218461 A CN 201710218461A CN 107092869 A CN107092869 A CN 107092869A
Authority
CN
China
Prior art keywords
obj
target
mrow
probability
represent
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710218461.XA
Other languages
English (en)
Other versions
CN107092869B (zh
Inventor
张过
吴佳奇
汪韬阳
蒋永华
沈欣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN201710218461.XA priority Critical patent/CN107092869B/zh
Publication of CN107092869A publication Critical patent/CN107092869A/zh
Application granted granted Critical
Publication of CN107092869B publication Critical patent/CN107092869B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • G06F18/24155Bayesian classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/48Matching video sequences

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种视频卫星的点目标跟踪方法。本发明引入朴素贝叶斯分类器的思想,不依赖目标的任何先验概率,在运动平滑性约束下,利用灰度相似性特征来表达描述目标的似然度,并根据独立假设的贝叶斯定理,建立简化的分类器条件概率修正模型,通过该模型估计目标的后验概率,从而实现目标跟踪。同时,采用卡尔曼滤波辅助、优化跟踪处理,提高算法的鲁棒性。

Description

一种视频卫星的点目标跟踪方法
技术领域
本发明涉及一种目标跟踪的方法,特别是关于视频卫星的点目标跟踪方法。
背景技术
随着遥感应用的深入,应用需求已从定期的静态普查向实时动态监测方向发展,利用卫星对全球热点区域和目标进行持续监测,获取动态信息已经成为迫切需求。除了经典光学遥感卫星影像包含的静态信息外,卫星视频还可以获取一定时空范围内的实时动态信息,使得遥感观测有更广阔的应用前景。在视频应用中,运动目标的跟踪是动态信息提取的重要一步,同时也是后期高级应用和处理的基础和前提。因此实现运动目标的准确、鲁棒跟踪显得尤为重要。
发明内容
针对视频卫星条件下的点目标跟踪问题,提出一种运动平滑约束的贝叶斯分类目标跟踪方法。方法引入朴素贝叶斯分类器的思想,不依赖目标的任何先验概率,在运动平滑性约束下,利用灰度相似性特征来表达描述目标的似然度,并根据独立假设的贝叶斯定理,建立简化的分类器条件概率修正模型,通过该模型估计目标的后验概率,从而实现目标跟踪。同时,采用卡尔曼滤波辅助、优化跟踪处理,提高算法的鲁棒性。
为了达到上述目的,本发明提供的技术方案是:一种视频卫星的点目标跟踪方法,包括如下步骤,
步骤1,读取卫星视频序列;
步骤2,在第一帧中,针对要跟踪的模板目标,记录目标矩形区域的位置以及宽、高,从第二帧开始,以窗口滑动的方式在上一帧目标中心邻域内建立待判断ROI图像目标集,记录每个待判断目标集的中心点坐标,并编号;
步骤3,获得待判断目标集的运动平滑性约束概率,对运动平滑性约束概率满足条件的待判断目标集保留,并计算保留的待判断目标集对应的灰度相似性概率,从而构建目标跟踪的条件概率模型;
步骤4,取步骤3计算得灰度相似性概率的最大值对应的待判断目标作为跟踪结果,当前帧处理结束后,进入下一帧处理。
而且,步骤3所述的目标跟踪的条件概率模型,具体实现方式如下:
步骤3.1,计算所有待判断ROI图像目标集的运动平滑性约束概率,平滑性约束概率包括目标运动大小的相似度概率和运动方向的相似度概率,
其中,运动平滑特性中目标运动大小的相似度概率计算如下,
Dis=abs(Dis(Objk,Objk-1)-Dis(Objk-1,Objk-2)) (4)
P(Dis|Obj)=1/(1+Dis) (5)
式中的Dis表示运动平滑特性中目标运动大小的度量,abs表示绝对值,Objk表示第k帧中待判断目标的中心点坐标,Objk-1表示第k-1帧的跟踪目标中心点坐标,Objk-2表示第k-2帧的跟踪目标中心点坐标,Dis(Objk,Objk-1)表示Objk和Objk-1之间的欧式距离,Dis(Objk-1,Objk-2)表示Objk-1和Objk-2之间的欧式距离,Obj代表目标;
运动平滑特性中目标运动方向的相似度概率计算如下,
Cos=cos(A(Objk,Objk-1),B(Objk-1,Objk-2)) (6)
P(Cos|Obj)=0.5+0.5Cos (7)
式中的Cos表示运动平滑特性中目标运动方向的度量,Objk表示第k帧中待判断目标的中心点坐标,Objk-1表示第k-1帧的跟踪目标中心点坐标,Objk-2表示第k-2帧的跟踪目标中心点坐标,A(Objk,Objk-1)表示由Objk和Objk-1构成的向量,B(Objk-1,Objk-2)表示由Objk-1和Objk-2构成的向量,cos表示余弦;
将P(Cos|Obj)>T1且P(Dis|Obj)>T2的待判断目标进行保留,其中T1、T2表示平滑约束的两个阈值;
步骤3.2,计算步骤3.1中保留下来的待判断目标的灰度相似性概率,灰度相似性概率包括灰度相关系数似然度概率和HU不变矩似然度概率,
其中,灰度相关系数似然度概率计算如下,
式中NCC表示目标的灰度相关系数的度量,i、j表示矩形ROI的行、列号,表示第k-1帧处理后得到的模板目标ROI,表示第k帧待判断目标矩形ROI;
HU不变矩似然度概率计算如下,
CosHU=cos(MT,MS) (10)
P(HU|Obj)=0.5+0.5CosHU (11)
式中HU表示目标的HU不变矩的度量,MT、MS分别表示目标模板图像和待判断ROI图像的7个HU不变矩参数组成的7维向量;
根据步骤3.1和3.2,目标跟踪的条件概率模型表达为,
P1(Obj|NCC·HU)=P(NCC|Obj)P(HU|Obj)P(Obj) (2)
P2(Obj|Cos·Dis)=[P(Cos|Obj)>T1][P(Dis|Obj)>T2]P(Obj) (3)
其中,P1表示灰度相似性概率,P2表示运动平滑性约束概率,上式中的P(Obj)可忽略不计。
而且,在平滑约束时添加kalman滤波预测,通过式(12)和(13)进一步优化步骤3.1中运动平滑特性中目标运动方向的相似度概率,
Cosk=cos(A(Objk,Objk-1),B(Objk pre,Objk-1)) (12)
P(Cosk|Obj)=0.5+0.5Cosk (13)
式中的Objk pre为第k帧中利用kalman滤波预测的位置点;
相应的,平滑性约束概率通过式(14)求得,
其中,其中T1、T2表示平滑约束的两个阈值。
而且,T1的取值为0.7,T2的取值为0.33。
而且,所述步骤1中利用ffmpeg读取卫星视频序列。
本发明由于采取以上技术方案,其具有以下优点:
1、通过在线学习的方式提取目标的属性信息,不需要目标的任何先验知识。
2、利用运动平滑性的约束,减少目标跟踪的漂移情况,提高跟踪鲁棒性。
3、利用目标的灰度一致性信息和kalman滤波预测,能够解决卫星视频条件下目标特征信息难以提取和描述的问题。
基于以上优点,本发明可以广泛应用于卫星视频的运动分析与应用中。
附图说明
图1是本发明实施例的流程图
具体实施方式
下面结合附图和实施例对本发明的技术方案作进一步说明。
参见图1为本发明实施例的流程图,具体包括以下步骤:
步骤1,首先利用ffmpeg读取卫星视频序列;
步骤2,在第一帧中,针对要跟踪的模板目标,记录目标矩形区域的位置以及宽、高,模板目标是事先指定的矩形ROI。从第二帧开始,以窗口滑动的方式在上一帧目标中心邻域内建立待判断ROI图像目标集,记录每个待判断目标集的中心点坐标,并编号;
步骤3,构建跟踪条件概率模型;
在一般情况下,往往不能直接地通过表象特征来判断事物类别,但是可以利用事物的先验知识和样本集的训练获取到事物所包含特征的条件概率,用来表示事物的似然度,进而可以间接地进行事物类别判断,这是贝叶斯分类器的主要思想。朴素贝叶斯分类器的基础是贝叶斯定理,它是关于随机事件A和B的条件概率P(A|B),表示在事件B发生的条件下,事件A发生的概率。事件B可以视作事件A所包含的特征,如果事件A中包含n个特征,Bj(j=1,2,3…n)表示事件A的n个特征,并且假设所有特征相互独立(朴素),有:
式(1)即为朴素贝叶斯分类的理论公式。
目标跟踪可以视作一种特殊的分类问题,将待判断的区域分为目标和非目标两类。那么在贝叶斯分类框架下,可以利用目标的灰度相似性属性进行分类判别。此外,由于每个属性之间是相互独立的,且不依赖于事物本身,因此式(1)等号右边的分母可认为是常数,在概率计算比对时可忽略。综上,目标跟踪的条件概率模型可表达为:
P1(Obj|NCC·HU)=P(NCC|Obj)P(HU|Obj)P(Obj) (2)
P2(Obj|Cos·Dis)=[P(Cos|Obj)>T1][P(Dis|Obj)>T2]P(Obj) (3)
其中,P1表示灰度相似性概率,P2表示运动平滑性约束概率,NCC和HU分别代表目标的两个灰度相似性属性,灰度相关系数和HU不变矩度量;而Cos和Dis表示运动平滑特性中的余弦和距离相似性属性,即运动矢量方向和大小的度量;NCC、HU、Cos和Dis表示目标属性的4个似然度;T1、T2表示平滑约束的两个阈值,通过实验的经验值,T1取值为0.7,T2取值为0.33,具体实施时,本领域技术人员可根据实际情况设定平滑约束的两个阈值的大小,Obj代表目标。由于N个待判断ROI是目标的概率是相等的,均为1/N,因此在分类时,上式中的P(Obj)可忽略不计。
步骤3.1,进行运动平滑约束,计算所有待判断ROI图像的运动平滑性约束概率P2,将满足约束条件的待判断目标保留,计算方法如下:
目标运动矢量大小采用欧式距离相似性度量,两个点A(a1,a2)、B(b1,b2)的欧式距离公式为:
在相邻帧之间,目标运动大小的变化是微小的,相对应的欧式距离相似性应较高,计算方法为:
Dis=abs(Dis(Objk,Objk-1)-Dis(Objk-1,Objk-2)) (4)
上式中的abs表示绝对值,Objk表示当前帧待(第k帧)判断目标的中心点坐标,Objk-i表示第k-i帧的跟踪目标中心点坐标,i=1,2。将其归一化后,作为跟踪模型中目标运动大小的相似度,相似度越小,是目标的概率就越低,归一化方法为:
P(Dis|Obj)=1/(1+Dis) (5)
余弦相似性表示两个向量之间夹角的关系,两个矢量A、B的余弦相似性计算公式为:
其中,dot表示两个向量的点积,||*||表示向量的二范数。目标运动矢量方向可采用余弦相似性度量,在相邻帧之间,目标运动方向的变化是微小的,相对应的余弦相似性应较高,计算方法为:
Cos=cos(A(Objk,Objk-1),B(Objk-1,Objk-2)) (6)
同样地,Objk表示当前帧(第k帧)待判断目标的中心点坐标,Objk-i表示第k-i帧跟踪目标中心点坐标,i=1,2。A(Objk,Objk-1)表示由Objk和Objk-1构成的向量,B(Objk-1,Objk-2)表示由Objk-1和Objk-2构成的向量。将其归一化后,作为跟踪模型中目标运动方向的相似度,归一化方法为:
P(Cos|Obj)=0.5+0.5Cos (7)
将P(Cos|Obj)>T1且P(Dis|Obj)>T2的待判断目标进行保留,其中T1、T2表示平滑约束的两个阈值。
步骤3.2,根据式(2),分别计算步骤3中保留下来的待判断目标的灰度相似性概率P1,计算方法为:
灰度相关系数相似性指的是目标区域的灰度模板匹配,模板匹配采用相关系数匹配算法度量。两个矩阵A、B的相关系数为:
式中的i、j表示矩阵的行、列号,在相邻帧之间,目标运动后的区域灰度变化是微小的,相应的灰度相似性应较高,计算方法为:
其中i、j表示矩形ROI的行、列号,表示上一帧(第k-1帧)处理后的得到的模板目标ROI,表示当前帧(第k帧)待判断目标矩形ROI。将其归一化后,作为跟踪模型中目标灰度匹配的似然度,归一化方法为:
HU不变矩是利用二阶、三阶归一化后的几何中心距构造出的7个不变矩,在序列图像中具有平移、旋转和尺度不变的特性。因此可以利用图像的HU不变矩特性作为目标跟踪模型的似然度之一,使得目标在旋转时可以准确的对其进行特征描述。HU不变矩由7个参数组成,在似然化时将7参数视作一个7维向量,通过计算7维向量的余弦相似性来描述HU不变矩的似然度。根据式(6),计算方法为:
CosHU=cos(MT,MS) (10)
其中,MT、MS分别表示目标模板图像和待判断ROI图像的7个HU不变矩参数组成的7维向量。同样地,将结果进行归一化处理:
P(HU|Obj)=0.5+0.5CosHU (11)
步骤4,取步骤3中灰度相似性概率P1最大值做为跟踪结果。当前帧处理结束,进入下一帧处理。
若求得的灰度相似性概率P1低于阈值说明跟踪结果不够准确,此时直接利用kalman滤波预测目标位置。kalman滤波通过线性最小均方误差估计,能够根据目标历史轨迹预测当前帧的位置。因此在某些帧概率计算失效的时候,可以利用kalman滤波进行预测跟踪,提高算法的鲁棒性。本实施例中P1的阈值设定为0.9,是通过实验得到的经验值,具体实施时,本领域技术人员可以根据实际情况设定阈值的大小。
此外,为优化约束判断,在运动平滑约束时添加kalman滤波预测约束,同样采用余弦相似性的方式。根据式(6),kalman滤波的余弦相似性计算方法为:
Cosk=cos(A(Objk,Objk-1),B(Objk pre,Objk-1)) (12)
其中,Objk pre为当前帧(第k帧)中利用kalman滤波预测的位置点。在初始判断时,计算模板目标与kalman滤波预测位置的运动平滑性约束概率P2,增加扩展运动平滑特性约束条件,能更有效排除非目标ROI干扰。卡尔曼滤波的概率为:
P(Cosk|Obj)=0.5+0.5Cosk (13)
因此P2扩展为:
其中,其中T1、T2表示平滑约束的两个阈值。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。

Claims (5)

1.一种视频卫星的点目标跟踪方法,其特征在于,包括如下步骤:
步骤1,读取卫星视频序列;
步骤2,在第一帧中,针对要跟踪的模板目标,记录目标矩形区域的位置以及宽、高,从第二帧开始,以窗口滑动的方式在上一帧目标中心邻域内建立待判断ROI图像目标集,记录每个待判断目标集的中心点坐标,并编号;
步骤3,获得待判断目标集的运动平滑性约束概率,对运动平滑性约束概率满足条件的待判断目标集保留,并计算保留的待判断目标集对应的灰度相似性概率,从而构建目标跟踪的条件概率模型;
步骤4,取步骤3计算得灰度相似性概率的最大值对应的待判断目标作为跟踪结果,当前帧处理结束后,进入下一帧处理。
2.如权利要求1所述的一种视频卫星的点目标跟踪方法,其特征在于:步骤3所述的目标跟踪的条件概率模型,具体实现方式如下:
步骤3.1,计算所有待判断ROI图像目标集的运动平滑性约束概率,平滑性约束概率包括目标运动大小的相似度概率和运动方向的相似度概率,
其中,运动平滑特性中目标运动大小的相似度概率计算如下,
Dis=abs(Dis(Objk,Objk-1)-Dis(Objk-1,Objk-2)) (4)
P(Dis|Obj)=1/(1+Dis) (5)
式中的Dis表示运动平滑特性中目标运动大小的度量,abs表示绝对值,Objk表示第k帧中待判断目标的中心点坐标,Objk-1表示第k-1帧的跟踪目标中心点坐标,Objk-2表示第k-2帧的跟踪目标中心点坐标,Dis(Objk,Objk-1)表示Objk和Objk-1之间的欧式距离,Dis(Objk-1,Objk-2)表示Objk-1和Objk-2之间的欧式距离,Obj代表目标;
运动平滑特性中目标运动方向的相似度概率计算如下,
Cos=cos(A(Objk,Objk-1),B(Objk-1,Objk-2)) (6)
P(Cos|Obj)=0.5+0.5Cos (7)
式中的Cos表示运动平滑特性中目标运动方向的度量,Objk表示第k帧中待判断目标的中心点坐标,Objk-1表示第k-1帧的跟踪目标中心点坐标,Objk-2表示第k-2帧的跟踪目标中心点坐标,A(Objk,Objk-1)表示由Objk和Objk-1构成的向量,B(Objk-1,Objk-2)表示由Objk-1和Objk-2构成的向量,cos表示余弦;
将P(Cos|Obj)>T1且P(Dis|Obj)>T2的待判断目标进行保留,其中T1、T2表示平滑约束的两个阈值;
步骤3.2,计算步骤3.1中保留下来的待判断目标的灰度相似性概率,灰度相似性概率包括灰度相关系数似然度概率和HU不变矩似然度概率,
其中,灰度相关系数似然度概率计算如下,
<mrow> <mi>N</mi> <mi>c</mi> <mi>c</mi> <mrow> <mo>(</mo> <mi>T</mi> <mo>,</mo> <mi>S</mi> <mo>)</mo> </mrow> <mo>=</mo> <munder> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </munder> <mrow> <mo>(</mo> <msub> <mi>T</mi> <mrow> <msub> <mi>Obj</mi> <mrow> <mi>k</mi> <mo>-</mo> <mn>1</mn> </mrow> </msub> </mrow> </msub> <mo>(</mo> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> <mo>)</mo> <mo>&amp;CenterDot;</mo> <msub> <mi>S</mi> <mrow> <msub> <mi>Obj</mi> <mi>k</mi> </msub> </mrow> </msub> <mo>(</mo> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> <mo>)</mo> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>8</mn> <mo>)</mo> </mrow> </mrow>
<mrow> <mi>P</mi> <mrow> <mo>(</mo> <mi>N</mi> <mi>c</mi> <mi>c</mi> <mo>|</mo> <mi>O</mi> <mi>b</mi> <mi>j</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mrow> <mi>N</mi> <mi>c</mi> <mi>c</mi> <mrow> <mo>(</mo> <mi>T</mi> <mo>,</mo> <mi>S</mi> <mo>)</mo> </mrow> </mrow> <msqrt> <mrow> <mi>N</mi> <mi>c</mi> <mi>c</mi> <mrow> <mo>(</mo> <mi>T</mi> <mo>,</mo> <mi>T</mi> <mo>)</mo> </mrow> <mi>N</mi> <mi>c</mi> <mi>c</mi> <mrow> <mo>(</mo> <mi>S</mi> <mo>,</mo> <mi>S</mi> <mo>)</mo> </mrow> </mrow> </msqrt> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>9</mn> <mo>)</mo> </mrow> </mrow>
式中NCC表示目标的灰度相关系数的度量,i、j表示矩形ROI的行、列号,表示第k-1帧处理后得到的模板目标ROI,表示第k帧待判断目标矩形ROI;
HU不变矩似然度概率计算如下,
CosHU=cos(MT,MS) (10)
P(HU|Obj)=0.5+0.5CosHU (11)
式中HU表示目标的HU不变矩的度量,MT、MS分别表示目标模板图像和待判断ROI图像的7个HU不变矩参数组成的7维向量;
根据步骤3.1和3.2,目标跟踪的条件概率模型表达为,
P1(Obj|NCC·HU)=P(NCC|Obj)P(HU|Obj)P(Obj) (2)
P2(Obj|Cos·Dis)=[P(Cos|Obj)>T1][P(Dis|Obj)>T2]P(Obj) (3)
其中,P1表示灰度相似性概率,P2表示运动平滑性约束概率,上式中的P(Obj)可忽略不计。
3.如权利要求2所述的一种视频卫星的点目标跟踪方法,其特征在于:在平滑约束时添加kalman滤波预测,通过式(12)和(13)进一步优化步骤3.1中运动平滑特性中目标运动方向的相似度概率,
Cosk=cos(A(Objk,Objk-1),B(Objk pre,Objk-1)) (12)
P(Cosk|Obj)=0.5+0.5Cosk (13)
式中的Objk pre为第k帧中利用kalman滤波预测的位置点;
相应的,平滑性约束概率通过式(14)求得,
P2(Obj|Cos·Dis·Kalman)=[P(Cos|Obj)>T1]... (14)
[P(Dis|Obj)>T2][P(Cosk|Obj)>T2]P(Obj)
其中,其中T1、T2表示平滑约束的两个阈值。
4.如权利要求3所述的一种视频卫星的点目标跟踪方法,其特征在于:T1的取值为0.7,T2的取值为0.33。
5.如权利要求1所述的一种视频卫星的点目标跟踪方法,其特征在于:所述步骤1中利用ffmpeg读取卫星视频序列。
CN201710218461.XA 2017-04-05 2017-04-05 一种视频卫星的点目标跟踪方法 Active CN107092869B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710218461.XA CN107092869B (zh) 2017-04-05 2017-04-05 一种视频卫星的点目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710218461.XA CN107092869B (zh) 2017-04-05 2017-04-05 一种视频卫星的点目标跟踪方法

Publications (2)

Publication Number Publication Date
CN107092869A true CN107092869A (zh) 2017-08-25
CN107092869B CN107092869B (zh) 2019-11-26

Family

ID=59649035

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710218461.XA Active CN107092869B (zh) 2017-04-05 2017-04-05 一种视频卫星的点目标跟踪方法

Country Status (1)

Country Link
CN (1) CN107092869B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107831521A (zh) * 2017-10-16 2018-03-23 中国西安卫星测控中心 低轨卫星跟踪非轨道飞行高动态目标的窗口计算方法
CN109446978A (zh) * 2018-10-25 2019-03-08 哈尔滨工程大学 基于凝视卫星复杂场景的飞机动目标跟踪方法
CN110210682A (zh) * 2019-06-12 2019-09-06 云南电网有限责任公司大理供电局 基于负载数据图像化卷积神经网络的配变重过载预警方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102509306A (zh) * 2011-10-08 2012-06-20 西安理工大学 一种基于视频的特定目标的跟踪方法
CN103679742A (zh) * 2012-09-06 2014-03-26 株式会社理光 对象跟踪方法和装置
CN104091352A (zh) * 2014-07-14 2014-10-08 江南大学 基于结构相似度的视觉跟踪方法
CN105957105A (zh) * 2016-04-22 2016-09-21 清华大学 基于行为学习的多目标跟踪方法及系统
CN106023257A (zh) * 2016-05-26 2016-10-12 南京航空航天大学 一种基于旋翼无人机平台的目标跟踪方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102509306A (zh) * 2011-10-08 2012-06-20 西安理工大学 一种基于视频的特定目标的跟踪方法
CN103679742A (zh) * 2012-09-06 2014-03-26 株式会社理光 对象跟踪方法和装置
CN104091352A (zh) * 2014-07-14 2014-10-08 江南大学 基于结构相似度的视觉跟踪方法
CN105957105A (zh) * 2016-04-22 2016-09-21 清华大学 基于行为学习的多目标跟踪方法及系统
CN106023257A (zh) * 2016-05-26 2016-10-12 南京航空航天大学 一种基于旋翼无人机平台的目标跟踪方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
DENIS FORTUN 等: "Optical flow modeling and computation: a survey", 《COMPUTER VISION AND IMAGE UNDERSTANDING》 *
JIAJUN ZHU 等: "A Novel Multi-object Tracking Algorithm under Occlusions", 《2012 5TH INTERNATIONAL CONGRESS ON IMAGE AND SIGNAL PROCESSING (CISP 2012)》 *
JUNSEOK KWON 等: "Tracking of Abrupt Motion Using Wang-Landau Monte Carlo Estimation", 《 ECCV 2008》 *
李锴 等: "基于粒子滤波的多特征融合视频行人跟踪算法", 《计算机工程》 *
陈家红: "基于局部背景加权和能量约束的多目标检测与跟踪算法", 《计算机工程》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107831521A (zh) * 2017-10-16 2018-03-23 中国西安卫星测控中心 低轨卫星跟踪非轨道飞行高动态目标的窗口计算方法
CN107831521B (zh) * 2017-10-16 2020-10-23 中国西安卫星测控中心 低轨卫星跟踪非轨道飞行高动态目标的窗口计算方法
CN109446978A (zh) * 2018-10-25 2019-03-08 哈尔滨工程大学 基于凝视卫星复杂场景的飞机动目标跟踪方法
CN110210682A (zh) * 2019-06-12 2019-09-06 云南电网有限责任公司大理供电局 基于负载数据图像化卷积神经网络的配变重过载预警方法

Also Published As

Publication number Publication date
CN107092869B (zh) 2019-11-26

Similar Documents

Publication Publication Date Title
CN106780557A (zh) 一种基于光流法和关键点特征的运动目标跟踪方法
Ji et al. Advances in view-invariant human motion analysis: A review
CN102473307B (zh) 用于轨迹估计的方法和装置以及用于分割的方法
CN110276785B (zh) 一种抗遮挡红外目标跟踪方法
CN104915970A (zh) 一种基于轨迹关联的多目标跟踪方法
CN105427308B (zh) 一种稀疏和稠密特征匹配结合的图像配准方法
Wang et al. Robust guidewire tracking in fluoroscopy
CN103700101B (zh) 一种非刚性脑图像配准方法
CN103793926B (zh) 基于样本重选择的目标跟踪方法
CN106056589B (zh) 一种呼吸运动补偿的超声造影灌注参量成像方法
CN111582349B (zh) 一种基于YOLOv3和核相关滤波改进的目标跟踪算法
KR20130013122A (ko) 객체 자세 검색 장치 및 방법
Natarajan et al. Learning 3d action models from a few 2d videos for view invariant action recognition
CN107092869B (zh) 一种视频卫星的点目标跟踪方法
JP2019212291A (ja) コンピュータビジョンと結合される地磁気信号に基づいた室内位置決めシステム及び方法
Weng et al. On-line human action recognition by combining joint tracking and key pose recognition
CN103985143A (zh) 基于字典学习的视频中判别性在线目标跟踪方法
CN102663773A (zh) 视频目标的双核式自适应融合跟踪方法
Chan et al. Adaptive compressive tracking based on locality sensitive histograms
CN105975989A (zh) 一种基于九轴运动传感器的肘部运动状态识别方法
Singh et al. Simultaneous tracking and action recognition for single actor human actions
CN110163112A (zh) 一种考生姿态分割与平滑方法
Li et al. Online parallel framework for real-time visual tracking
Lefevre et al. Structure and appearance features for robust 3d facial actions tracking
Chang et al. Fast Online Upper Body Pose Estimation from Video.

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant