CN115439777A - 一种基于多特征融合与运动估计的视频卫星目标跟踪方法 - Google Patents

一种基于多特征融合与运动估计的视频卫星目标跟踪方法 Download PDF

Info

Publication number
CN115439777A
CN115439777A CN202210965432.0A CN202210965432A CN115439777A CN 115439777 A CN115439777 A CN 115439777A CN 202210965432 A CN202210965432 A CN 202210965432A CN 115439777 A CN115439777 A CN 115439777A
Authority
CN
China
Prior art keywords
target
response
optical flow
features
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210965432.0A
Other languages
English (en)
Inventor
林存宝
李兆铭
杨新岩
廖育荣
谢晴
刘耀胜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Peoples Liberation Army Strategic Support Force Aerospace Engineering University
Original Assignee
Peoples Liberation Army Strategic Support Force Aerospace Engineering University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Peoples Liberation Army Strategic Support Force Aerospace Engineering University filed Critical Peoples Liberation Army Strategic Support Force Aerospace Engineering University
Priority to CN202210965432.0A priority Critical patent/CN115439777A/zh
Publication of CN115439777A publication Critical patent/CN115439777A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明针对卫星视频中目标跟踪问题,提出一种基于多特征融合与运动估计的视频卫星目标跟踪方法,采用多特征融合与卡尔曼滤波运动估计相结合策略,实现对卫星视频中飞机、舰船、车辆等目标在有无遮挡条件下的持续稳定跟踪。包括:获取搜索区域方向梯度直方图特征与类光流特征;获取所述方向梯度直方图特征与类光流特征的响应图,并将两者的响应图进行融合,得到融合响应图;根据所述融合响应图进行自适应目标遮挡判别;对判别后的响应图进行卡尔曼滤波运动估计进而进行目标跟踪。

Description

一种基于多特征融合与运动估计的视频卫星目标跟踪方法
技术领域
本发明涉及一种基于多特征融合与运动估计的视频卫星目标跟踪方法,属于信息处理技术领域。
背景技术
伴随航天遥感技术的不断发展及应用需求的不断增加,以美国Skybox公司Skysat系列、中国长光卫星公司“吉林一号”系列为代表的视频卫星近年来得到了迅猛发展。Skysat-1与Skysat-2视频卫星幅宽为2.0km×1.1km,分辨率为1.1m,帧频可达30帧每秒。“吉林一号”视频1星幅宽为4.6km×3.4km,分辨率为1.13m,“吉林一号”视频3星幅宽为11.2km×4.6km,分辨率为0.92m,二者帧频均优于25帧每秒,后续长光卫星公司又陆续发射了“吉林一号”视频4、5、6星。凭借视频卫星较高空间分辨率、高帧频成像的优势,其在自然灾害应急响应、海洋舰船与资源监视、地面车量实时监测、军事目标侦察监视等领域都具有广泛应用。
由于当前全球视频卫星数量相对较少,所获得空间对地观测视频数据,特别是公开数据资源较少,这使得目前对视频卫星目标跟踪的研究工作相对常规目标跟踪较少。武汉大学在国内较早开始了有关卫星视频目标跟踪的研究工作,先后提出了包括核相关滤波法与三帧差分法相结合、光流法与多帧差分法相结合、相关滤波法与卡尔曼滤波法相结合、基于速度特征的相关滤波法、基于背景补偿和基于卷积正则化网络等在内的卫星视频目标跟踪方法。中国科学院空间应用工程与技术中心研究人员通过将相关滤波法与目标运动估计相结合,实现了对一定遮挡条件下卫星视频运动目标的跟踪。然而,由于成像距离限制,卫星视频中飞机、舰船、车辆等目标通常所占像素较少,如典型车辆一般小于10×10像素,难以对目标颜色、纹理等特性进行充分表示。与此同时,目标在运动过程中有时会遭受遮挡和强相似背景干扰,导致会存在目标跟踪不准或丢失的现象出现。
虽然现有方法对典型卫星视频中飞机、舰船、车辆等运动目标具有一定的跟踪效果,但受制于以上因素限制,其目标跟踪成功率和准确率仍难以满足各种实际应用需求,仍需对其方法和性能进行进一步改进。本专利针对卫星视频中目标跟踪问题,采用多特征融合与卡尔曼滤波运动估计相结合策略,实现对卫星视频中飞机、舰船、车辆等目标在有无遮挡条件下的持续稳定跟踪。
发明内容
本发明针对卫星视频中目标跟踪问题,提出一种基于多特征融合与运动估计的视频卫星目标跟踪方法,采用多特征融合与卡尔曼滤波运动估计相结合策略,实现对卫星视频中飞机、舰船、车辆等目标在有无遮挡条件下的持续稳定跟踪。
本发明通过以下技术方案实现。
一种基于多特征融合与运动估计的视频卫星目标跟踪方法,包括:
获取搜索区域方向梯度直方图特征与类光流特征;
获取所述方向梯度直方图特征与类光流特征的响应图,并将两者的响应图进行融合,得到融合响应图;
根据所述融合响应图进行自适应目标遮挡判别;
对判别后的响应图进行卡尔曼滤波运动估计进而进行目标跟踪。
本发明的有益效果:
1、本发明针对传统HOG等特征难以实现对卫星视频中目标充分特征表示问题,提出了一种新的类光流特征,通过合理设计使得该特征不需考虑光流计算中两帧间隔问题,且可有效对静止状态目标进行特征表示;同时通过多特征融合设计,进一步提高了对卫星视频中目标跟踪的特征表示能力;
2、本发明针对卫星视频目标运动过程中易遭受遮挡和相似背景干扰问题,考虑不同视频数据光照条件、背景干扰、目标特点等各不相同,导致其响应图峰值及相关峰值旁瓣比与平均峰值相关能量等数值不同,难以通过传统方法中常数阈值来准确判断是否存在目标遮挡或相似背景干扰,因此提出了一种自适应遮挡检测方法,结合响应图峰值旁瓣比均值和标准差实现对遮挡和相似背景干扰的判别;
3、本发明针对目标存在遮挡和相似背景干扰下,单纯利用KCF方法难以实现对目标稳定跟踪问题,提出一种自适应卡尔曼滤波运动估计方法,通过根据目标前后运动位移变化,以及KCF响应图峰值旁瓣比变化规律,来确定卡尔曼滤波中状态噪声协方差矩阵Q和测量噪声协方差矩阵R的取值,从而实现对目标的自适应跟踪。
附图说明
图1为本发明基于多特征融合与运动估计的视频卫星目标跟踪方法流程图。
具体实施方式
下面结合附图对本发明做详细说明。
如图1所示,本发明具体实施方式的一种基于多特征融合与运动估计的视频卫星目标跟踪方法,具体包括以下步骤:
步骤一、获取搜索区域方向梯度直方图特征feahog与类光流特征feasof
本实施例中,采用KCF算法获取搜索区域方向梯度直方图与类光流特征;具体为:
读取视频序列的第一帧,根据标签文件确定目标区域,选取原有宽w与长h目标区域的2.5倍大小作为搜索区域,分别获取所述搜索区域的方向梯度直方图(HOG)特征与类光流(SOF)特征。
其中,本实施例中所述获取搜索区域的方向梯度直方图(HOG)特征feahog采用与传统核相关滤波(KCF)算法相同方式计算得到,而本实施例所提出的SOF特征feasof则具体采用如下方法计算:
设搜索区域中某一像素点(x,y)在时刻t的亮度为I(x,y,t),在t到t+1过程中该像素点在像平面X与Y方向的位移分别为dx与dy,根据Horn-Schunck光流估计方法中t到t+1过程该像素点亮度恒定的假设,此时有:
I(x,y,t)=I(x+dx,y+dy,t+1)
对该方程进行一阶泰勒展开,同时忽略高阶项,得到光流约束方程:
Figure BDA0003794711120000041
进一步表示为:
Ixu+Iyv+It=0
其中,Ix与Iy、u与v分别为图像亮度对X与Y方向的偏导数,以及某一像素点(x,y)光流在X与Y方向的大小,It为图像亮度对时间的偏导数;
在Horn-Schunck方法中,除光流约束方程外,结合光流平滑性假设即认为相邻像素的运动是接近的,由此得到最终的目标函数为:
∫∫F(u,v,ux,uy,vx,vy)dxdy
其中,F(u,v,ux,uy,vx,vy)的表达式为:
Figure BDA0003794711120000042
其中,ux与uy、vx与vy分别为u、v在X与Y方向的梯度,α为权重系数,用于平衡对光流约束方程和光流平滑性约束的满足程度。
对于数字图像等离散问题,利用有限差分法将以上积分运算转化为离散形式,利用以下迭代方法估计光流值:
Figure BDA0003794711120000051
Figure BDA0003794711120000052
由于卫星视频中如飞机、舰船、车辆等待跟踪目标通常速度不同甚至相差较大,这使得传统采用连续两帧进行光流估计的方法难以实现对目标的有效特征表示。现有技术中采用一定间隔图像帧进行光流场估计的方法,但不同运动速度目标的合适帧间隔往往不同,导致依然难以有效解决该问题。此外,光流估计仅能够对运动目标进行特征提取,当目标静止时则无法有效提取特征。
为了解决以上问题,本实施例采用以下方式:将光流估计的两帧图像一帧选为当前帧,另一帧选为全黑的背景帧,以此计算所得到的光流场并非对应目标实际的运动场,但却可有效反映目标的运动特征,即类光流特征feasof。在利用上述迭代公式进行类光流特征计算时,为了更为充分的提取目标类光流特征,Ix与Iy、It
Figure BDA0003794711120000053
Figure BDA0003794711120000054
的计算分别采用如下卷积算子:
Figure BDA0003794711120000055
由此即可得到尺寸与原图同等大小的类光流特征。
步骤二、获取所述方向梯度直方图特征feahog与类光流特征feasof的响应图fhog与fsof,并将两者的响应图进行融合,得到融合响应图ffus
本实施例采用KCF算法获取所述方向梯度直方图特征与类光流特征的响应图,具体为:
设由搜索区域feahog与feasof特征表示的训练样本为xi,j,其中i表示第i个样本,j=hog,sof表示不同的特征类型。响应标签函数yi,j为高斯函数,采用KCF算法找到一个合适的wj,使得fj(zj)=wj Tzj与高斯函数响应yi,j之间的误差平方和最小,即:
Figure BDA0003794711120000061
其中,λ为正则化参数,用于防止过拟合;上式表示为矩阵形式:
Figure BDA0003794711120000062
其中,Xj表示通过循环矩阵构造的训练样本,yj为高斯函数响应列向量,根据上式求得wj表达式为:
wj=(Xj TXj+λI)-1Xj Tyj
通过引入循环矩阵和快速傅里叶变换,wj矩阵进一步表示为如下形式:
Figure BDA0003794711120000063
其中,
Figure BDA0003794711120000064
分别表示wj、xj、yj的离散傅里叶变换,
Figure BDA0003794711120000065
Figure BDA0003794711120000066
的复共轭,⊙表示两个矩阵的点乘;
为了提高KCF算法性能,本实施例中进一步引入核函数方法,将wj表示为空间样本特征的形式:
Figure BDA0003794711120000067
核函数κj表示为:
Figure BDA0003794711120000068
进而将fj(zj)表示为:
Figure BDA0003794711120000069
上式中αj由目标函数最小化可求得为:
αj=(Kj+λI)-1yj
其中,Kj为核函数矩阵;利用离散傅里叶变换将αj进一步转化为频域形式:
Figure BDA0003794711120000071
其中,
Figure BDA0003794711120000072
表示
Figure BDA0003794711120000073
的离散傅里叶变换,当核函数为高斯核时,
Figure BDA0003794711120000074
表示为:
Figure BDA0003794711120000075
从而求得当前搜索区域的响应图为:
Figure BDA0003794711120000076
利用上述方法分别对HOG特征feahog与SOF特征feasof进行处理,即可分别得到各自对应的响应图fhog与fsof
本实施例中,所述将两者的响应图进行融合,具体方式如下:
选取所述方向梯度直方图特征与类光流特征的响应图的均值旁瓣比作为二者融合权重,表达式如下所示:
Figure BDA0003794711120000077
Figure BDA0003794711120000078
进而得到最终的融合响应图:
Figure BDA0003794711120000079
所述融合响应图最大值所对应位置即为当前帧的多特征融合KCF目标预测位置。
具体实施时,为了适应跟踪过程中的目标变化情况,所述KCF算法对
Figure BDA00037947111200000710
和样本数据采用动态更新策略:
Figure BDA00037947111200000711
其中,η表示学习率,
Figure BDA0003794711120000081
为利用新样本计算得到的
Figure BDA0003794711120000082
值,zt,j为新学习到的目标模板。
步骤三、根据所述融合响应图进行自适应目标遮挡判别;
这一步骤的实现思想是由于现有卫星视频目标跟踪方法通常采用常数阈值进行遮挡判别,该方法难以充分适用于不同载荷参数、光照条件、地物背景、目标类型,以及不同特征表示情况,常会出现不同卫星视频中遮挡漏检或误判情况。
为了解决这一问题,本实施例在自适应目标遮挡判别前,选取目标跟踪前20帧响应图作为样本数据,计算每一帧响应图的峰值旁瓣比:
Figure BDA0003794711120000083
根据所述每一帧响应图的峰值旁瓣比PSRi(i=1,...,20),计算PSRi(i=1,...,20)的均值μPSR和标准差stdPSR,选取前20帧中PSRi位于[μPSR-stdPSRPSR+stdPSR]区间内的数据作为样本,以此剔除由于背景干扰或随机噪声所引起的可靠性较低的波动较大值。
本实施例采用自适应卡尔曼滤波算法对目标遮挡或相似背景干扰时进行运动估计,从而实现对目标的稳定跟踪。具体步骤如下:
计算符合条件的样本的PSR均值作为判断目标是发生遮挡或存在相似背景干扰的PSRbase基准:
PSRbase=mean(PSRi)
s.t.PSRi∈[μPSR-stdPSRPSR+stdPSR]
然后,根据拉依达准则设置判断是否发生遮挡或存在相似背景干扰的阈值:
thre=PSRbase-3×stdPSR
当某一帧响应图PSR值小于该阈值时,则判断存在遮挡或相似背景干扰。
具体实施时,为了适应随着图像序列增加所带来的响应图PSR值趋势性变化影响,每间隔20帧则利用未遮挡目标跟踪响应图PSR值更新PSRbase和stdPSR
步骤四、对判别后的响应图进行卡尔曼滤波运动估计进而进行目标跟踪;
这一步骤的实现思想是由于当目标发生遮挡或存在相似背景干扰时,单纯利用KCF算法易导致跟踪漂移或目标丢失。为了解决这一发生遮挡或存在相似背景干扰时目标跟踪问题,本实施例采用卡尔曼滤波方法对其进行运动估计,具体步骤如下:
基于常速度卡尔曼滤波模型,其状态方程与量测方程可分别表示为:
Xk=AXk-1+Buk-1+wk-1
Zk=Hxk+vk
其中Xk与Xk-1分别表示k与k-1时刻的状态向量,Zk表示k时刻的量测向量,xk与yk分别表示目标k时刻X与Y方向的位置;A表示状态转移矩阵,B表示控制矩阵,H表示量测矩阵;uk-1表示k-1时刻控制变量,由于目标运动加速度未知,这里将该未知加速度视为噪声,将其合并在wk-1之中;wk-1与vk分别表示k-1时刻与k时刻的状态噪声与量测噪声,二者均为均值为零、协方差矩阵为Q与R的高斯白噪声,t表示两帧图像之间的时间间隔,相关表达式分别为:
Figure BDA0003794711120000091
Figure BDA0003794711120000092
在此基础之上,利用卡尔曼滤波公式对目标运动状态进行估计,首先利用状态方程估计k时刻的先验位置信息
Figure BDA0003794711120000093
Figure BDA0003794711120000094
在此基础之上对k时刻的状态估计协方差
Figure BDA0003794711120000101
进行估计:
Figure BDA0003794711120000102
式中,状态噪声协方差矩阵Q的取值对目标运动状态估计精度具有直接影响。现有卫星视频目标跟踪方法中通常将其取为常量,但由于它反映了状态模型的准确性,因此常量形式取值失去了对系统状态模型准确性的动态反映。本专利中状态噪声协方差矩阵Q的取值根据卫星视频目标跟踪实际效果估计Q的初始值Qref,然后计算第k帧与第k-1帧之间目标运动的位移dk
Figure BDA0003794711120000103
再以相同方法计算dk-1、dk-2、dk-3,同时计算三者的均值μdis和标准差stddis
μdis=mean(dk-1,dk-2,dk-3)
stddis=std(dk-1,dk-2,dk-3)
在对k时刻的状态估计协方差
Figure BDA0003794711120000104
进行估计的过程中,状态噪声协方差矩阵Q的值取为:
Figure BDA0003794711120000105
该值能够反映出当待跟踪目标存在加速度时的状态方程误差水平。
在此基础之上,利用下式计算卡尔曼增益Kk
Figure BDA0003794711120000106
式中所提出的测量噪声协方差矩阵R的取值,同样首先根据卫星视频目标跟踪实际效果估计R的初始值Rref。在此基础之上,计算由当前第k帧响应图计算得到的峰值旁瓣比PSRk,以前述判断目标是否存在遮挡和背景干扰时所计算得到的基准PSRbase和标准差stdPSR作为参考值,采用如下方式选取R的取值:
Figure BDA0003794711120000107
之后利用下式计算得到k时刻的卡尔曼滤波结果
Figure BDA0003794711120000111
并对状态估计协方差矩阵Pk进行更新:
Figure BDA0003794711120000112
Figure BDA0003794711120000113
此外,为了避免KCF作为量测值漂移过大导致卡尔曼误差也伴随增大,在目标遮挡和背景强烈干扰下利用卡尔曼滤波模型进行运动估计时,此时量测值选取为当前帧之前连续n帧线性外推所得位置值:
Figure BDA0003794711120000114
从而得到卡尔曼滤波结果形式的目标位置值。当某一帧KCF响应图所计算得到的PSR值大于遮挡判别阈值时,则判定遮挡结束,继续将KCF结果作为目标跟踪位置值。

Claims (5)

1.一种基于多特征融合与运动估计的视频卫星目标跟踪方法,其特征在于,包括:
获取搜索区域方向梯度直方图特征与类光流特征;
获取所述方向梯度直方图特征与类光流特征的响应图,并将两者的响应图进行融合,得到融合响应图;
根据所述融合响应图进行自适应目标遮挡判别;
对判别后的响应图进行卡尔曼滤波运动估计进而进行目标跟踪。
2.如权利要求1所述的方法,其特征在于,采用KCF算法获取搜索区域方向梯度直方图与类光流特征;具体为:
读取视频序列的第一帧,根据标签文件确定目标区域,选取原有宽w与长h目标区域的2.5倍大小作为搜索区域,分别获取所述搜索区域的方向梯度直方图特征与类光流特征。
3.如权利要求1或2所述的方法,其特征在于,所述将两者的响应图进行融合,具体方式如下:选取所述方向梯度直方图特征与类光流特征的响应图的均值旁瓣比作为二者融合权重,进而得到最终的融合响应图,所述融合响应图最大值所对应位置即为当前帧的多特征融合KCF目标预测位置。
4.如权利要求3所述的方法,其特征在于,所述自适应目标遮挡判别之前,选取目标跟踪前20帧响应图作为样本数据,计算每一帧响应图的峰值旁瓣比,根据所述每一帧响应图的峰值旁瓣比,计算峰值旁瓣比的均值和标准差,选取前20帧中峰值旁瓣比位于预设区间内的数据作为样本。
5.如权利要求3所述的方法,其特征在于,采用自适应卡尔曼滤波算法对目标遮挡或相似背景干扰时进行运动估计,实现对目标的稳定跟踪;具体步骤如下:
计算符合条件的样本的PSR均值作为判断目标是发生遮挡或存在相似背景干扰的基准,然后,根据拉依达准则设置判断是否发生遮挡或存在相似背景干扰的阈值,当某一帧响应图PSR值小于该阈值时,则判断存在遮挡或相似背景干扰。
CN202210965432.0A 2022-08-12 2022-08-12 一种基于多特征融合与运动估计的视频卫星目标跟踪方法 Pending CN115439777A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210965432.0A CN115439777A (zh) 2022-08-12 2022-08-12 一种基于多特征融合与运动估计的视频卫星目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210965432.0A CN115439777A (zh) 2022-08-12 2022-08-12 一种基于多特征融合与运动估计的视频卫星目标跟踪方法

Publications (1)

Publication Number Publication Date
CN115439777A true CN115439777A (zh) 2022-12-06

Family

ID=84241958

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210965432.0A Pending CN115439777A (zh) 2022-08-12 2022-08-12 一种基于多特征融合与运动估计的视频卫星目标跟踪方法

Country Status (1)

Country Link
CN (1) CN115439777A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116228817A (zh) * 2023-03-10 2023-06-06 东南大学 一种基于相关滤波的实时抗遮挡抗抖动单目标跟踪方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116228817A (zh) * 2023-03-10 2023-06-06 东南大学 一种基于相关滤波的实时抗遮挡抗抖动单目标跟踪方法
CN116228817B (zh) * 2023-03-10 2023-10-03 东南大学 一种基于相关滤波的实时抗遮挡抗抖动单目标跟踪方法

Similar Documents

Publication Publication Date Title
CN108765458B (zh) 基于相关滤波的高海况无人艇海面目标尺度自适应跟踪方法
CN111862126B (zh) 深度学习与几何算法结合的非合作目标相对位姿估计方法
CN110428425B (zh) 一种基于海岸线矢量数据的sar图像海陆分离方法
CN113888461A (zh) 基于深度学习的小五金件缺陷检测方法、系统及设备
CN115439777A (zh) 一种基于多特征融合与运动估计的视频卫星目标跟踪方法
CN110516528A (zh) 一种基于运动背景下的动目标检测和跟踪方法
CN113947616B (zh) 一种基于层级化感知机的智能目标跟踪及丢失重检方法
Zhu et al. Hierarchical attention for ship detection in SAR images
CN109087334B (zh) 基于显著语境稀疏表示的目标追踪方法
CN114005018B (zh) 一种小算力驱动的水面无人艇多目标跟踪方法
Hou et al. SAR image ship detection based on scene interpretation
CN115511804A (zh) 一种基于管道自适应滤波的海上红外弱小目标检测方法
CN115082519A (zh) 一种基于背景感知相关滤波的飞机跟踪方法、存储介质和电子设备
CN110322474B (zh) 一种基于无人机平台的图像动目标实时检测方法
Xie et al. UAV cluster detection algorithm based on weighted tri-layer window local contrast
Xing et al. Computationally efficient RGB-T UAV detection and tracking system
CN111008555A (zh) 一种无人机图像弱小目标增强提取方法
Wang et al. Detecting and tracking of small moving target under the background of sea level
Hu et al. Anti-occlusion tracking algorithm of video target based on prediction and re-matching strategy
CN115131401B (zh) 基于多尺度多方向核相关滤波的遥感视频目标跟踪方法
Zhao et al. Prediction-Based Scale Adaptive Correlation Filter Tracker
CN115205327B (zh) 一种融合历史库信息的红外小目标跟踪方法
CN112308876B (zh) 一种主动声呐回波图中小目标运动状态估计方法
CN113792670B (zh) 一种自适应重构的高精度机载目标识别方法
Warren The real time calculation of cloud motion in infrared image sequences using mathematical morphology operations

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination