CN101877134B - 一种机场监视视频目标鲁棒跟踪方法 - Google Patents

一种机场监视视频目标鲁棒跟踪方法 Download PDF

Info

Publication number
CN101877134B
CN101877134B CN201010172131XA CN201010172131A CN101877134B CN 101877134 B CN101877134 B CN 101877134B CN 201010172131X A CN201010172131X A CN 201010172131XA CN 201010172131 A CN201010172131 A CN 201010172131A CN 101877134 B CN101877134 B CN 101877134B
Authority
CN
China
Prior art keywords
particle
target
meanstate
weight
sigma
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201010172131XA
Other languages
English (en)
Other versions
CN101877134A (zh
Inventor
罗喜玲
黄雁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beihang University
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN201010172131XA priority Critical patent/CN101877134B/zh
Publication of CN101877134A publication Critical patent/CN101877134A/zh
Application granted granted Critical
Publication of CN101877134B publication Critical patent/CN101877134B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

机场监视视频目标鲁棒跟踪方法,结合了奇异值分解和粒子滤波目标跟踪技术,步骤如下:步骤100、初始化,生成包含N个粒子的粒子群,并对要跟踪的目标进行奇异值分解,建立模板模型;步骤200、状态预测,由前一帧目标的位置预测目标在当前帧的位置;步骤300、粒子权重更新,对候选的图像区域进行奇异值分解,构建特征向量,并利用最小二乘准则衡量此候选区域与模板的相似度作为粒子的权重;步骤400、粒子重采样,保留原先权重大的粒子,丢弃权重小的粒子,并由权重大的粒子派生新粒子,使粒子总数保持N不变,新一代粒子和下一帧图像转到步骤200循环执行;步骤500、结果输出,将所有粒子及其权重加权,得出目标在当前帧的位置。本发明解决了机场监视视频场景复杂,光照变化频繁,背景相似物干扰严重等问题,达到了监视跟踪中的鲁棒性和精确性要求。

Description

一种机场监视视频目标鲁棒跟踪方法
技术领域
本发明涉及一种目标跟踪方法,尤其涉及一种机场监控视频图像中的目标跟踪方法。
背景技术
目前,主要的机场场面活动目标监视手段是依靠场面监视雷达,同时以多点定位(Multilateration,MLAT)的场面监视系统作为辅助。当前的场监雷达存在明显的缺点,诸如昂贵、分辨能力不够(不能检测跑道异物)、雷达覆盖范围在盲区。若采用多部场监雷达数据融合,可以实现对整个机场的完整监视,但将大大增加系统建设费用,且针对场监雷达数据融合的成熟应用不多。相对于场监雷达而言,多点定位有成本低、可以全天候工作、数据更新率快(1次/秒)、安装维护方便等优点,但多点定位技术只能针对合作目标,对于没有安装机载设备的飞机,这种方法则无法监控。相对于场面监视雷达而言,基于视频图像融合技术的场面监视系统具有成本低、被动监视、分辨率高和易于实现全天候监视的特点。基于动态视频的机场场面目标监视系统已成为机场场面监控技术和计算机视觉领域中近年来备受关注的前沿研究方向。
运动目标跟踪作为一门跨学科的前沿技术,融合了图像处理、模式识别、人工智能、自动控制等多种不同领域的理论知识。随着视觉理论和算法研究的发展,以及计算机硬件性能的不断提高,如今已成为最活跃的研究课题之一。目标跟踪系统一般是基于对图像序列的处理,对目标的运动规律加以预测,实现对目标的连续、准确的跟踪。其中特征提取和目标跟踪算法是目标跟踪系统的关键。目前在、标特征提取中主要采用的有颜色特征、纹理特征和形状特征。
颜色特征是一种全局特征,描述了图像或图像区域所对应的景物的表面性质。一般颜色特征是基于像素点的特征,此时所有属于图像或图像区域的像素都有各自的贡献。由于颜色对图像或图像区域的方向、大小等变化不敏感,所以颜色特征不能很好地捕捉图像中对象的局部特征。颜色直方图是最常用的表达颜色特征的方法,其优点是不受图像旋转和平移变化的影响,进一步借助归一化还可不受图像尺度变化的影响,其缺点是没有表达出颜色空间分布的信息,无法描述图像中颜色的局部分布及每种色彩所处的空间位置,即无法描述图像中的某一具体的对象或物体。
纹理特征也是一种全局特征,它也描述了图像或图像区域所对应景物的表面性质。但由于纹理只是一种物体表面的特性,并不能完全反映出物体的本质属性,所以仅仅利用纹理特征是无法获得高层次图像内容的。与颜色特征不同,纹理特征不是基于像素点的特征,它需要在包含多个像素点的区域中进行统计计算。在模式匹配中,这种区域性的特征具有较大的优越性,不会由于局部的偏差而无法匹配成功。作为一种统计特征,纹理特征常具有旋转不变性,并且对于噪声有较强的抵抗能力。但是纹理特征一个很明显的缺点是当图像的分辨率变化的时候,所计算出来的纹理可能会有较大偏差。另外,由于有可能受到光照、反射情况的影响,从2-D图像中反映出来的纹理不一定是3-D物体表面真实的纹理。
基于形状特征的跟踪可以比较有效地利用图像中感兴趣的目标来进行检索,但它们也有一些共同的问题,包括:目前基于形状的检索方法还缺乏比较完善的数学模型;如果目标有变形时结果往往不太可靠;许多形状特征仅描述了目标局部的性质,要全面描述目标常对计算时间和存储量有较高的要求;许多形状特征所反映的目标形状信息与人的直观感觉不完全一致,或者说,特征空间的相似性与人视觉系统感受到的相似性有差别。另外,从2-D图像中表现的3-D物体实际上只是物体在空间某一平面的投影,从2-D图像中反映出来的形状常不是3-D物体真实的形状,由于视点的变化,可能会产生各种失真。
机场场景比较复杂,光照变化、相似物或干扰物较多。目前现有的跟踪方法利用颜色、纹理、形状等低层特征进行目标建模,无法精确跟踪机场复杂环境中的目标。
发明内容
本发明的技术解决问题:针对现有技术存在的不足,提供一种机场监视视频目标鲁棒跟踪方法,结合奇异值分解建模和粒子滤波的目标跟踪技术,解决了光照变化和与目标空间靠近的相似物干扰,难以实现复杂背景中的目标精确跟踪的问题。
本发明的技术解决方案:机场监视视频目标鲁棒跟踪方法,步骤如下:
步骤100、初始化,以目标状态的输入值加入高斯噪声生成包含N个粒子的粒子群,并对要跟踪的目标进行奇异值分解,选取前K个最大值建立模板模型;
步骤200、状态预测,由前一帧目标的位置根据匀速运动模型预测步骤100所产生的粒子在当前帧中的坐标位置;
步骤300、粒子权重更新,对步骤200中所产生的预测的粒子所对应的图像区域进行奇异值分解,构建特征向量,并利用最小二乘准则衡量此候选区域与模板的相似度作为粒子的权重;
步骤400、粒子重采样,对步骤300所产生的粒子群保留原先权重大的粒子,丢弃权重小的粒子,并由权重大的粒子派生新粒子,使粒子总数保持N不变,新一代粒子和下一帧图像转到步骤200循环执行;
步骤500、计算平均状态输出,将步骤300中权重更新后的粒子及其权重加权,得出目标在当前帧的位置。
本发明与现有技术相比的优点在于:
(1)本发明方法中的目标特征具有旋转和尺度不变性。旋转矩阵
Figure GSA00000118526000031
和尺度变换矩阵
Figure GSA00000118526000032
均为正交矩阵(θ为旋转角度,Sx和Sy为尺度系数)。若P为正交矩阵,则PA的奇异值与A是一样的。因此,当图像区域或目标发生旋转或尺度变化,奇异值所表示的特征均具有不变性;
(2)本发明方法中的目标特征具有较强的抵御噪声能力。若[σi]和[τi]分别表示矩阵A和B的奇异值,由|σii|≤||A-B||2可知,即使有微小的噪声干扰,矩阵的奇异值依然保持不变;
(3)本发明方法中的目标特征维数低。假设矩阵A的奇异值分解为
A=U∑VT,由
Figure GSA00000118526000033
可知,在Frobenius范数下AK是A的最好近似,其中因此,只需选取前K个奇异值作为特征值即可较好近似原目标;
(4)本发明方法可以抵御光照变化。在利用奇异值作为特征向量时,首先将其归一化,即
Figure GSA00000118526000035
Figure GSA00000118526000036
构建特征向量,而图像的光照变化可以表示为I′=C·I,其中I是原图像,I′是灰度变化后的图像,C是常数,I′的奇异值与I是相等的,故当光照变化时目标的特征保持不变。
(5)试验结果表明,本发明克服了传统方法无法抵御光照影响及背景相似物影响的缺点,满足机场监视复杂环境的要求,能够对目标精确跟踪,对光照变化背景干扰不敏感,具有较好的鲁棒性。
附图说明
图1为本发明的总体流程图;
图2为图1中的初始化和构建目标模板模型流程图;
图3为图1中状态预测流程图;
图4为图1中的粒子权重更新流程图;
图5为图1中的粒子重采样流程图;
图6为图1中的平均状态计算流程图。
具体实施方式
图1为本发明的总体流程图,具体为:
步骤100、初始化,以目标状态的输入值加入高斯噪声生成包含个粒子的粒子群,并对要跟踪的目标进行奇异值分解,选取前K个最大值建立模板模型;
步骤200、状态预测,由前一帧目标的位置根据匀速运动模型预测目标在当前帧中的位置;
步骤300、粒子权重更新,对候选的图像区域进行奇异值分解,构建特征向量,并利用最小二乘准则衡量此候选区域与模板的相似度作为粒子的权重;
步骤400、粒子重采样,保留原先权重大的粒子,丢弃权重小的粒子,并由权重大的粒子派生新粒子,使粒子总数保持
Figure GSA00000118526000042
不变,新一代粒子和下一帧图像转到步骤200循环执行;
步骤500、计算平均状态输出,将所有粒子及其权重加权,得出目标在当前帧的位置。
图1为本发明初始化和目标模板建立流程图,在图1所示的技术方案中,所述步骤100具体为:
步骤110、以目标的输入状态作为状态向量的初始值,本发明中的状态向量,即粒子,选取为目标中心位置的x,y坐标,目标窗的长、宽以及目标的速度,初始速度置为0;
步骤120、对状态向量的各分量加上高斯扰动,即采样按照高斯分布进行;
步骤130、判断当前粒子数是否大于等于N,若是则执行步骤140,否则执行步骤120;
步骤140、建立目标模板,对目标区域的图像块做奇异值分解;
步骤150、选取前K个最大的奇异值作为目标的特征向量;
步骤160、将K个奇异值归一化作为目标模板,设σmi为目标模板的奇异值,归一化即
Figure GSA00000118526000044
为归一化后的奇异值。
图2为本发明状态预测流程图,在图1所示的技术方案中,所述步骤200具体为:
步骤210、由前一帧目标的中心位置xt-1,yt-1根据匀速直线运动模型预测目标在本帧的中心位置
Figure GSA00000118526000046
所述的ΔT为两帧间的时间差,由于两帧间的时间差很小,故采用匀速直线运动模型是合理的;
步骤220、预测当前粒子中的目标速度根据匀速运动模型,将目标看成速度不变,由于两帧间隔时间很短,因此匀速直线模型是合理的,考虑到实际干扰的影响,本帧预测速度为上一帧的速度加入高斯噪声,计算表达式为
Figure GSA00000118526000052
此处
Figure GSA00000118526000053
是高斯扰动;
步骤230、i=i+1,判断i是否大于N,是则执行步骤240,否则执行步骤210;
步骤240、将N个粒子作为预测粒子集
Figure GSA00000118526000054
输出。
图3为本发明粒子权重更新流程图,在图1所示的技术方案中,所述步骤300具体为:
步骤310、对当前粒子表示的图像块做奇异值分解,所述的图像块为
Figure GSA00000118526000055
即中心在长和宽分别为W,H的图像块,设分解所得的奇异值为
Figure GSA00000118526000057
1≤i≤N,j=1,2,…,rank(I),Ii为当前粒子表示的图像块;
步骤320、选取前K个最大的奇异值,并按式
Figure GSA00000118526000058
构建该粒子的特征向量
[ σ c 1 * i , σ c 2 * i , · · · , σ cK * i ] T ;
步骤330、根据最小二乘准则计算当前粒子的权重:
Figure GSA000001185260000510
Figure GSA000001185260000511
Figure GSA000001185260000512
A是由目标模板的特征值拓展成的齐次矩阵,Y是当前粒子的特征向量,求解方程AX=Y的最小二乘解,得到b,显而易见,b越小,当前粒子的特征向量与模板的特征向量的距离最小,即
Figure GSA000001185260000514
因此,当前粒子的权重
π t i = exp ( - b i ) / Σ j = 1 N exp ( - b j ) ;
步骤340、判断粒子数是否等于N,是则执行步骤350,否则执行步骤310;
步骤350、完成粒子权重更新,得到粒子集
图4为本发明粒子重采样流程图,在图1所示的技术方案中,所述步骤400具体为:
步骤410、将权值累加并归一化, 是累加后的权值,
π t * ( i ) = π t * ' ( i ) Σ j = 1 N + 1 π t * ' ( j ) , i = 1,2 , · · · , N ;
步骤420、产生随机数r,0<r<1;
步骤430、在累加后的权值中找出r所在的位置index,使得
Figure GSA00000118526000064
步骤440、判断粒子数是否等于N,是则执行步骤450,否则执行步骤420;
步骤450、进入下一帧跟踪。
图5为本发明平均状态计算流程图,在图1所示的技术方案中,所述步骤500具体为:
步骤510、开始进入平均状态计算;
步骤520、判断是否为第一个粒子,是则执行步骤530,否则执行步骤540;
步骤530、当前粒子的中心位置及速度分量乘以该粒子的权重,结果即为平均状态并将结果保存为MeanState,即
Figure GSA00000118526000065
Figure GSA00000118526000066
X0为第一个粒子,MeanState.x,MeanState.y,MeanState.vx,MeanState.vy分别为MeanState的x,y方向的坐标和速度X0.x,X0.y,X0.vx,X0.vy分别为第一个粒子的x,y方向的坐标和速度,π0为第一个粒子的权重;
步骤540、当前粒子的中心位置及速度分量乘以该粒子的权重并将结果加上MeanState,即
Figure GSA00000118526000067
MeanState . vx = MeanState . vx + X ' . vx &CenterDot; &pi; ' MeanState . vy = MeanState . vy + X ' . vy &CenterDot; &pi; ' 1 < i < N ,
MeanState.x,MeanState.y,MeanState.vx,MeanState.vy分别为MeanState的x,y方向的坐标和速度Xi.x,Xi.y,Xi.vx,Xi.vy分别为第i个粒子的x,y方向的坐标和速度,πi为第i个粒子的权重;
步骤550、判断是否遍历完N个粒子,是则执行步骤570,否则执行步骤560;
步骤560、继续访问下一个粒子;
步骤570、输出MeanState作为跟踪的结果。
本发明未详细阐述的部分属于本领域的公知技术。

Claims (6)

1.机场监视视频目标鲁棒跟踪方法,其特征在于实现步骤如下:
步骤100、初始化,以目标状态的输入值加入高斯噪声生成包含N个粒子的粒子群,并对要跟踪的目标进行奇异值分解,选取前K个最大值建立模板模型;
步骤200、状态预测,由前一帧目标的位置根据匀速运动模型预测步骤100所产生的粒子在当前帧中的坐标位置;
步骤300、粒子权重更新,对步骤200中所产生的预测的粒子所对应的图像区域进行奇异值分解,构建特征向量,并利用最小二乘准则衡量此候选区域与模板的相似度作为粒子的权重;
步骤400、粒子重采样,对步骤300所产生的粒子群保留原先权重大的粒子,丢弃权重小的粒子,并由权重大的粒子派生新粒子,使粒子总数保持N不变,新一代粒子和下一帧图像转到步骤200循环执行;
步骤500、计算平均状态输出,将步骤300中权重更新后的粒子及其权重加权,得出目标在当前帧的位置。
2.根据权利要求1所述的机场监视视频目标鲁棒跟踪方法,其特征在于:所述步骤100具体实现为:
步骤110、以目标的输入状态作为粒子的初始值,粒子的各分量选取为目标中心位置的x,y坐标,目标窗的长、宽及目标的速度,初始速度置为0;
步骤120、对粒子的各分量,即心位置的x,y坐标,目标窗的长、宽及目标的速度加上高斯扰动,即采样按照高斯分布进行;
步骤130、判断当前粒子数是否大于等于N,若是则执行步骤140,否则执行步骤120;
步骤140、建立目标模板,对目标区域的图像块做奇异值分解;
步骤150、选取前K个最大的奇异值作为目标的特征向量;
步骤160、将K个奇异值归一化作为目标模板,设σmi为目标模板的奇异值,归一化即
Figure FSB00000799424900011
i=1,…,K,
Figure FSB00000799424900012
为归一化后的奇异值。
3.根据权利要求1所述的机场监视视频目标鲁棒跟踪方法,其特征在于:所述步骤200具体实现为:
步骤210、由前一帧目标的中心位置xt-1,yt-1根据匀速直线运动模型预测目标在本帧的中心位置
Figure FSB00000799424900021
x t i = x t - 1 i + vx t - 1 i &CenterDot; &Delta;T + n t i y t i = y t - 1 i + vy t - 1 i &CenterDot; &Delta;T + n t - 1 i , i=1,2,…,N,ΔT为两帧间的时间差,
Figure FSB00000799424900023
为t帧和t-1帧的高斯噪声;
步骤220、预测当前粒子中的目标速度
Figure FSB00000799424900024
为第i个粒子在第t帧所对应的x方向和y的速度, vx t i = vx t - 1 i + n vx i vy t i = vy t - 1 i + n vy i , i=1,2,…,N,
Figure FSB00000799424900026
为高斯扰动,
Figure FSB00000799424900027
为第i个粒子在第t帧所对应的x方向和y的高斯噪声;
步骤230、判断粒子总数是否等于N,是则执行步骤240,否则执行步骤210;
步骤240、将N个粒子作为预测粒子集输出。
4.根据权利要求2所述的机场监视视频目标鲁棒跟踪方法,其特征在于:所述步骤300具体实现为:
步骤310、对当前粒子表示的图像块做奇异值分解,所述的图像块为
Figure FSB00000799424900029
即中心在
Figure FSB000007994249000210
长和宽分别为W,H的图像块,设分解所得的奇异值为
Figure FSB000007994249000211
1≤i≤N,j=1,2,…,rank(Ii),Ii为当前粒子表示的图像块;
步骤320、选取前K个最大的奇异值,并按式
Figure FSB000007994249000212
构建该粒子的特征向量 [ &sigma; c 1 * i , &sigma; c 2 * i , . . . , &sigma; cK * i ] T ;
步骤330、根据最小二乘准则计算当前粒子的权重: AX = Y &DoubleRightArrow; a&sigma; m 1 * + b = &sigma; c 1 * a&sigma; m 2 * + b = &sigma; c 2 * . . . . . . a&sigma; mK * + b = &sigma; cK * , A = &sigma; m 1 * 1 &sigma; m 2 * 1 . . . . . . &sigma; mK * 1 , X = a b , Y = &sigma; c 1 * &sigma; c 2 * . . . &sigma; cK * , A是由目标模板的特征值拓展成的齐次矩阵,Y是当前粒子的特征向量,求解方程AX=Y的最小二乘解,得到b,当前粒子的权重 &pi; t i = exp ( - b i ) / &Sigma; j = 1 N exp ( - b j ) ,
Figure FSB000007994249000219
为第i个粒子在第t帧的权重,N为粒子总数;
步骤340、判断粒子数是否等于N,是则执行步骤350,否则执行步骤310;
步骤350、完成粒子权重更新,得到粒子集
Figure FSB000007994249000220
5.根据权利要求1所述的机场监视视频目标鲁棒跟踪方法,其特征在于:所述步骤400具体实现为:
步骤410、将权值累加并归一化,
Figure FSB00000799424900031
i=1,2,…,N,
Figure FSB00000799424900032
是累加后的权值, &pi; t * ( i ) = &pi; t * &prime; ( i ) &Sigma; j = 1 N + 1 &pi; t * &prime; ( j ) , i=1,2,…,N;
步骤420、产生随机数r,0<r<1;
步骤430、在累加后的权值中找出r所在的位置index,使得
步骤440、判断粒子数是否等于N,是则执行步骤450,否则执行步骤420;
步骤450、进入下一帧跟踪。
6.根据权利要求1所述的机场监视视频目标鲁棒跟踪方法,其特征在于:所述步骤500具体实现为:
步骤510、开始进入平均状态计算;
步骤520、判断是否为第一个粒子,是则执行步骤530,否则执行步骤540;
步骤530、当前粒子的中心位置及速度分量乘以该粒子的权重,结果即为平均状态并将结果保存为MeanState,即 MeanState . x = X 0 . x &CenterDot; &pi; 0 MeanState . y = X 0 . y &CenterDot; &pi; 0 , MeanState . vx = X 0 . vx &CenterDot; &pi; 0 MeanState . vy = X 0 . vy &CenterDot; &pi; 0 , X0为第一个粒子,MeanState.x,MeanState.y,MeanState.vx,MeanState.vy分别为MeanState的x,y方向的坐标和速度X0.x,X0.y,X0.vx,X0.vy分别为第一个粒子的x,y方向的坐标和速度,π0为第一个粒子的权重,然后执行步骤550;
步骤540、当前粒子的中心位置及速度分量乘以该粒子的权重并将结果加上MeanState,即 MeanState . x = MeanState . x + X i . x &CenterDot; &pi; i MeanState . y = MeanState . y + X i . y &CenterDot; &pi; i , MeanState . vx = MeanState . vx + X i . vx &CenterDot; &pi; i MeanState . vy = MeanState . vy + X i . vy &CenterDot; &pi; i , 1<i<N,MeanState.x,MeanState.y,MeanState.vx,MeanState.vy分别为MeanState的x,y方向的坐标和速度Xi.x,Xi.y,Xi.vx,Xi.vy分别为第i个粒子的x,y方向的坐标和速度,πi为第i个粒子的权重;
步骤550、判断是否遍历完N个粒子,是则执行步骤570,否则执行步骤560;
步骤560、继续访问下一个粒子,转至执行步骤540;
步骤570、输出MeanState作为跟踪的结果。
CN201010172131XA 2010-05-07 2010-05-07 一种机场监视视频目标鲁棒跟踪方法 Expired - Fee Related CN101877134B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201010172131XA CN101877134B (zh) 2010-05-07 2010-05-07 一种机场监视视频目标鲁棒跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201010172131XA CN101877134B (zh) 2010-05-07 2010-05-07 一种机场监视视频目标鲁棒跟踪方法

Publications (2)

Publication Number Publication Date
CN101877134A CN101877134A (zh) 2010-11-03
CN101877134B true CN101877134B (zh) 2012-11-14

Family

ID=43019679

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201010172131XA Expired - Fee Related CN101877134B (zh) 2010-05-07 2010-05-07 一种机场监视视频目标鲁棒跟踪方法

Country Status (1)

Country Link
CN (1) CN101877134B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106815863A (zh) * 2017-01-17 2017-06-09 湖南优象科技有限公司 一种基于双向鉴别信息的目标跟踪方法

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104820993B (zh) * 2015-03-27 2017-12-01 浙江大学 一种联合粒子滤波和跟踪置前检测的水下弱目标跟踪方法
CN104915969B (zh) * 2015-05-21 2019-01-18 云南大学 一种基于粒子群优化的模版匹配跟踪方法
CN105898343B (zh) * 2016-04-07 2019-03-12 广州盈可视电子科技有限公司 一种视频直播、终端的视频直播方法和装置
CN106323280A (zh) * 2016-09-22 2017-01-11 重庆水利电力职业技术学院 用于bds和sins导航定位系统的滤波器和滤波方法
CN107490377A (zh) * 2017-07-17 2017-12-19 五邑大学 室内无地图导航系统及导航方法
CN116819482B (zh) * 2023-08-28 2023-11-10 四川省石棉县恒达粉体材料有限责任公司 一种基于雷达数据的方解石探测方法
CN118396527B (zh) * 2024-06-28 2024-09-06 浪潮智慧供应链科技(山东)有限公司 一种基于目标追踪的货物出入库盘点方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1460187A (zh) * 2001-03-28 2003-12-03 皇家菲利浦电子有限公司 用于在自动视频跟踪系统中选择目标的方法
CN1574961A (zh) * 2003-06-18 2005-02-02 松下电器产业株式会社 视频监视系统、监视视频合成装置以及视频监视服务器

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1460187A (zh) * 2001-03-28 2003-12-03 皇家菲利浦电子有限公司 用于在自动视频跟踪系统中选择目标的方法
CN1574961A (zh) * 2003-06-18 2005-02-02 松下电器产业株式会社 视频监视系统、监视视频合成装置以及视频监视服务器

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
YAN HUANG,XILING LUO.《Singular Value Decomposition based Particle Filter for Tracking in Complex Environment》.《Intelligent System and Control,Proceedings of the Twelfth IASTED International Conference》.2009,全文. *
YANHUANG XILING LUO.《Singular Value Decomposition based Particle Filter for Tracking in Complex Environment》.《Intelligent System and Control

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106815863A (zh) * 2017-01-17 2017-06-09 湖南优象科技有限公司 一种基于双向鉴别信息的目标跟踪方法

Also Published As

Publication number Publication date
CN101877134A (zh) 2010-11-03

Similar Documents

Publication Publication Date Title
CN101877134B (zh) 一种机场监视视频目标鲁棒跟踪方法
Kim et al. Deep-hurricane-tracker: Tracking and forecasting extreme climate events
Franz et al. Ocean eddy identification and tracking using neural networks
Xu et al. Pavement crack detection algorithm based on generative adversarial network and convolutional neural network under small samples
Chen et al. Feature mining for localised crowd counting.
Wang et al. Ship detection in SAR images via local contrast of Fisher vectors
CN103268616B (zh) 多特征多传感器的移动机器人运动人体跟踪方法
CN107491734B (zh) 基于多核融合与空间Wishart LapSVM的半监督极化SAR图像分类方法
CN103049751A (zh) 一种改进的加权区域匹配高空视频行人识别方法
CN103606164B (zh) 基于高维三重马尔可夫场的sar图像分割方法
CN104050685B (zh) 基于粒子滤波视觉注意力模型的运动目标检测方法
CN104574439A (zh) 一种融合卡尔曼滤波与tld算法的目标跟踪方法
CN102142085B (zh) 一种林区监控视频中运动火焰目标的鲁棒跟踪方法
CN102156995A (zh) 一种运动相机下的视频运动前景分割方法
CN103942535B (zh) 多目标跟踪方法及装置
CN110827262B (zh) 一种基于连续有限帧红外图像的弱小目标检测方法
CN103886325A (zh) 一种分块的循环矩阵视频跟踪方法
CN109242019A (zh) 一种水面光学小目标快速检测与跟踪方法
CN108732570A (zh) 基于粒子滤波融合算法的灾害性对流天气的临近预报方法
Li et al. An aerial image segmentation approach based on enhanced multi-scale convolutional neural network
Long et al. Object detection research of SAR image using improved faster region-based convolutional neural network
Gao et al. Road extraction using a dual attention dilated-linknet based on satellite images and floating vehicle trajectory data
Guo [Retracted] Moving Target Localization in Sports Image Sequence Based on Optimized Particle Filter Hybrid Tracking Algorithm
CN103679172B (zh) 一种通过转动红外探测器检测地面远距离运动目标的方法
Noor et al. A hybrid deep learning model for UAVs detection in day and night dual visions

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20121114

Termination date: 20210507