CN111260686A - 自适应余弦窗抗遮挡多特征融合的目标跟踪方法及系统 - Google Patents

自适应余弦窗抗遮挡多特征融合的目标跟踪方法及系统 Download PDF

Info

Publication number
CN111260686A
CN111260686A CN202010022515.7A CN202010022515A CN111260686A CN 111260686 A CN111260686 A CN 111260686A CN 202010022515 A CN202010022515 A CN 202010022515A CN 111260686 A CN111260686 A CN 111260686A
Authority
CN
China
Prior art keywords
target
frame
tracking
image block
cosine window
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010022515.7A
Other languages
English (en)
Other versions
CN111260686B (zh
Inventor
王海军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong University Of Aeronautics And Astronautics
Original Assignee
Binzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Binzhou University filed Critical Binzhou University
Priority to CN202010022515.7A priority Critical patent/CN111260686B/zh
Publication of CN111260686A publication Critical patent/CN111260686A/zh
Application granted granted Critical
Publication of CN111260686B publication Critical patent/CN111260686B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种自适应余弦窗抗遮挡多特征融合的目标跟踪方法及系统,利用在第t帧目标图像中计算得到的颜色直方图和传统的固定余弦窗相结合,得到自适应余弦窗,在第t帧提取目标图像块的Hog特征并利用自适应余弦窗计算相关滤波响应值;结合第t‑1帧和t帧计算视频图像的光流特征,将相关滤波响应,颜色响应和光流特征以固定权值进行求和,得到最终的响应,响应值最大的位置即为跟踪目标的初始位置。本发明采用基于Hog特征得到的PSR值对得到的跟踪目标位置进行鲁棒性检查,当跟踪目标不鲁棒时,引入反向多任务稀疏表示方法选取多个候选样本,对每个候选样本重新进行相关滤波检测获取响应图,在所有响应图中最大值最大的粒子即为跟踪目标。

Description

自适应余弦窗抗遮挡多特征融合的目标跟踪方法及系统
技术领域
本发明属于计算机视觉技术领域,尤其涉及一种自适应余弦窗抗遮挡多特征融合的目标跟踪方法及系统。
背景技术
本部分的陈述仅仅是提供了与本发明相关的背景技术信息,不必然构成在先技术。
目标跟踪属于计算机视觉领域一项重要的研究课题,在智能视频监控、人机交互、视觉导航、无人机驾驶、虚拟现实等领域得到了广泛的应用。目标跟踪的核心在于手动确定视频初始帧中目标的位置,在后续视频帧中估计运动目标的运动状态,包括速度、方向以及所占区域等信息,从而为更高级的任务提供技术支持。尽管国内外学者对目标跟踪技术进行了大量深入的研究,但是由于跟踪视频中存在严重遮挡、光照变化、尺度变化、背景杂乱、运动模糊等严重影响跟踪性能的因素,使得设计一种鲁棒的运动目标跟踪方法仍然是一项充满挑战的任务。
根据跟踪目标的外观模型,目标跟踪方法可以分为生成式模型和判别式模型。生成式模型通过建立跟踪目标的表观模型,寻找与先验模型最匹配、重构误差最小的样本作为下一帧中跟踪目标的位置。判别式模型将目标跟踪看成是一个分类问题,通过在线训练分类器,将跟踪目标与背景分离,从而确定目标的位置。2010年相关滤波被引入目标跟踪领域,使得判别式模型无论在跟踪速度还是跟踪鲁棒性方面都比生成式模型取得了较好的跟踪性能。CSK算法引入循环矩阵对样本进行密集采样,并采用傅立叶变换方法在频域进行相关滤波器的训练、检测与更新,有效提高了跟踪速度。但是CSK方法只能采用单通道灰度特征,在跟踪目标的表征上不够鲁棒。此外,为了解决跟踪目标的尺度变化,现有技术提出采用尺度空间滤波器,形成尺度金字塔来适应跟踪目标的尺度变化。为了解决跟踪目标的遮挡及形变问题,现有技术提出将跟踪响应最大值是否小于固定阈值作为判断目标是否被遮挡及发生较大形变的依据。尽管上述算法在部分视频上取得了不错的跟踪性能,但是在大部分比较复杂的跟踪场景下,比较容易跟丢目标,跟踪效果不够鲁棒。
现有技术公开了一种快速正则化的目标跟踪方法。该方法融合Hog特征和颜色直方图,在相关滤波框架下引入空间正则化,对背景信息进行抑制,实现对目标的快速跟踪。但是存在的不足之处是只对背景信息进行抑制,没有增强目标区域的信息,没有对跟踪结果进行可靠性判断,当运动目标发生严重遮挡和形变时,容易跟丢目标,不能对目标进行长时间的鲁棒跟踪。
现有技术公开了一种基于CNN和CF的多模板目标跟踪方法,该方法将当前帧峰值响应值与旁瓣响应值的比值作为PSR值,与固定阈值进行比较来判断跟踪结果的可靠性,是否需要重新检测。当跟踪结果存在遮挡时,重新进行跟踪目标的定位检测。该方法存在的不足之处是采用固定的阈值,难以适应多个不同场景的视频,导致部分视频能够有效判断跟踪结果的可靠性,部分视频的判断结果不可靠,容易造成跟踪失败。
发明内容
本发明目的是为了解决现有技术的不足,提出了一种自适应余弦窗抗遮挡多特征融合的目标跟踪方法及系统,能够实现在复杂场景下对运动目标进行准确的跟踪。
在一些实施方式中,采用如下技术方案:
一种自适应余弦窗抗遮挡多特征融合的目标跟踪方法,包括:
(1)将当前帧中目标图像块的颜色直方图与传统固定余弦窗进行求和,得到自适应余弦窗;
(2)提取当前帧中目标图像块的Hog特征,采用自适应余弦窗对所述目标图像块进行预处理,对预处理后的目标图像块进行相关滤波处理,得到基于Hog特征的滤波响应;
(3)计算当前帧目标图像块的颜色响应和前后帧的光流特征,利用基于Hog特征的滤波响应、颜色响应及前后帧光流特征的和确定当前帧跟踪目标的初始位置;
(4)对得到的当前帧跟踪目标的初始位置进行鲁棒性检查;当跟踪结果不鲁棒时,采用反向多任务稀疏表示方法选取多个候选样本,对每个候选样本,重复步骤(2)-(3),重新确定当前帧中跟踪目标的位置。
在另一些实施方式中,采用如下技术方案:
一种自适应余弦窗抗遮挡多特征融合的目标跟踪系统,包括:
用于将当前帧中目标图像块的颜色直方图与传统固定余弦窗进行求和,得到自适应余弦窗的装置;
用于提取当前帧中目标图像块的Hog特征,采用自适应余弦窗对所述目标图像块进行预处理,对预处理后的目标图像块进行滤波处理,得到基于Hog特征的滤波响应的装置;
用于计算当前帧目标图像块的颜色响应和前后帧的光流特征,将得到的基于Hog特征的滤波响应、颜色特征响应以及光流特征进行加权求和,确定当前帧跟踪目标的初始位置的装置;
用于对得到的当前帧跟踪目标的初始位置进行鲁棒性检查的装置;
用于当跟踪结果不鲁棒时,采用反向多任务稀疏表示方法选取多个候选样本,重新确定当前帧中跟踪目标的位置的装置。
在另一些实施方式中,采用如下技术方案:
一种终端设备,其包括处理器和计算机可读存储介质,处理器用于实现各指令;计算机可读存储介质用于存储多条指令,所述指令适于由处理器加载并执行上述的自适应余弦窗抗遮挡多特征融合的目标跟踪方法。
与现有技术相比,本发明的有益效果是:
(1)由于本发明采用目标图像块的颜色直方图和传统余弦窗来构建自适应余弦窗,能够突出目标区域,压制候选区域,同时扩大搜索范围,能够有效抑制传统基于相关滤波跟踪方法带来的边界效应,同时对每帧目标图像块求颜色直方图,所以每帧视频图像所采用的余弦窗是不断更新的,使得本发明能够很好的识别目标物体,实现对运动目标准确的跟踪。
(2)由于本发明将基于Hog特征的滤波响应,颜色直方图的积分响应以及前后帧的光流特征进行加权求和得到最终的响应图,能够将多方面特征进行融合,特别是前后帧的光流特征能够很好的描述跟踪目标的运动趋势,使得本发明能够很好的找到跟踪目标的准确位置,实现对目标物体的鲁棒定位。
(3)由于本发明采用基于Hog特征滤波响应计算PSR值,同时建立PSR池判断跟踪结果的可靠性,并进行跟踪模型和颜色直方图更新参数的自适应调整,使得本发明能够很好的克服跟踪过程中出现的严重遮挡及较大形变,能够实现在复杂场景对跟踪目标的准确跟踪。
(4)当跟踪结果判断为不可靠时,本发明采用反向多任务稀疏表示方法重新选取最优的5个粒子进行相关滤波计算,使得本发明能够很好的解决跟踪失败后重新对目标进行定位的问题,从而实现对运动目标的鲁棒跟踪。
附图说明
图1为本发明实施例中自适应余弦窗抗遮挡多特征融合的目标跟踪方法流程图;
图2为本发明实施例在4个视频上的跟踪结果示意图。
具体实施方式
应该指出,以下详细说明都是例示性的,旨在对本申请提供进一步的说明。除非另有指明,本发明使用的所有技术和科学术语具有与本申请所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
实施例一
在一个或多个实施方式中,公开了一种基于自适应余弦窗抗遮挡多特征融合的运动目标跟踪方法,参照图1,包括如下步骤:
第一步,从视频中提取第一帧图像;手动初始化,确定第一帧图像中运动目标的位置;
第二步,在第一帧目标位置周围较近处随机选取8个样本作为正样本矩阵模板,较远处选取150个样本作为负样本矩阵模板。
第三步,在后续帧中,以第t-1帧中的跟踪目标位置在第t帧中提取目标方块,并通过公式(1)计算当前图形块的颜色直方图;
Figure BDA0002361308780000061
其中,I表示给定抽选图像块,由方块目标前景区域
Figure BDA0002361308780000062
和周围背景区域
Figure BDA0002361308780000063
组成,用
Figure BDA0002361308780000064
Figure BDA0002361308780000065
分别表示目标前景区域和背景区域的颜色直方图,bx表示像素点x处的图像值I(x)落在的直方图区间。
第四步,将第三步得到的颜色直方图与传统固定余弦窗根据公式(2)进行求和计算,得到能够适应每帧图像的自适应余弦窗;
adap_W=τ·W+(1+τ)·P (2)
其中,P为根据公式(1)计算得到的颜色直方图,W为传统固定余弦窗。
第五步,根据t-1帧中的跟踪目标位置在第t帧中提取目标方块,提取图像块的Hog特征,并采用自适应余弦窗对图像块的Hog特征进行预处理。
第六步,将第五步预处理得到目标图像块与在第t-1帧获得的相关滤波模型在频域进行点乘计算,得到基于Hog特征的滤波响应;
具体地,根据公式(3)在相关滤波的框架下,实现对图像块的密集采样,并在频域内进行快速计算,计算每个候选样本的响应;
Figure BDA0002361308780000066
其中,
Figure BDA0002361308780000067
Figure BDA0002361308780000068
分别表示离散傅里叶变换和离散傅里叶逆变换,α为判决分类器的对偶变量,
Figure BDA0002361308780000071
第七步,对根据第三步得到的颜色直方图进行积分运算,得到目标图像块的颜色响应。
第八步,利用第t-1帧得到的跟踪目标图像块与第t帧提取的图像块通过最小化公式(4)计算当前帧的光流特征;
E(w)=Ecolor(w)+γEgradient(w)+αEsmooth(w)+βEmatch(w,w1)+Edesc(w1) (4)
其中,w为需要计算的当前帧的光流能量,Ecolor(w)为前后帧颜色差异能量,Egradient(w)为前后帧梯度能量,Esmooth(w)为平滑能量,Ematch(w,w1)为匹配能量,Edesc(w1)为前后帧特征下降能量,γ,α,β分别为约束系数。
第九步,将得到的基于Hog特征的滤波响应、颜色特征响应以及光流特征进行加权求和,得到最终的响应,响应值最大的位置即为当前帧的初步跟踪结果。
第十步,基于得到的基于Hog特征的滤波响应,利用公式(5)计算第t帧的PSRt值;
Figure BDA0002361308780000072
其中,Rt为第t帧基于Hog特征相关滤波响应,ut表示Rt的均值,σt表示Rt的标准偏差,max表示求Rt的最大值。
第十一步,建立PSR池{PSR2,PSR3,...,PSRt-1,PSRt},当
Figure BDA0002361308780000073
则认为第t帧跟踪结果没有被遮挡或发生较大形变,将PSRt放入PSR池中,反之,则认为第t帧跟踪结果被遮挡或发生较大形变,将PSRt丢弃,不放入PSR池中。
Figure BDA0002361308780000074
为PSR池中所有值的平均值。
第十二步,当
Figure BDA0002361308780000081
时,认为当前帧的跟踪结果是不可靠的,当判断第t帧跟踪结果不可靠时,在第t帧以第t-1帧跟踪结果为中心,提取50个候选样本,然后利用公式(6)采用反向多任务稀疏表示方法,计算每个候选样本是跟踪结果的可能性,并对所有候选样本进行排序,选取可能性最大的5个候选样本。
Figure BDA0002361308780000082
其中,[t1,...,tp]为正模板,[tp+1,...,tp+n]为负样本,Y为候选样本组成的集合,[c1,...,cp,cp+1,...,cp+n]为对应的表示系数,λ表示约束系数。
第十三步,对得到的5个候选样本重新转入第六步,计算每个候选样本基于Hog特征的相关滤波响应,并对响应最大值进行排序,响应值最大对应的样本为最优样本,最优样本中响应值最大所在位置即为跟踪目标的位置。
第十四步,对相关滤波训练模型和颜色直方图采用公式(7)分别进行更新,
Figure BDA0002361308780000083
当判断当前帧目标没有被遮挡或没有发生较大形变时,相关滤波训练模型和颜色直方图的更新系数η1和η2分别取固定常数,当判断当前帧目标被遮挡时,相关滤波训练模型的更新系数取:
Figure BDA0002361308780000084
其中MPSR为PSR池中所有值的平均值,颜色直方图的更新系数η2=0,v,β为常系数。
第十五步,每隔5帧,同时判断跟踪结果可靠时,对反向多任务稀疏表示方法中的正负样本模板进行更新。
第十六步,判断是否读取全部跟踪视频,若否,则转入第三步,否则转入第十七步。
第十七步,结束本视频目标跟踪。
图2展示了本发明实施例在4个视频上的跟踪结果,可以看出,本实例方法在多个具有遮挡、光照变化、运动模糊、较大形变等属性的视频上都能取得较好的跟踪结果。
因此,本实施例方法能够很好的识别目标物体,能够很好的找到跟踪目标的准确位置,实现对目标物体的鲁棒定位;克服跟踪过程中出现的严重遮挡及较大形变,实现在复杂场景下对运动目标的准确跟踪。
实施例二
在一个或多个实施方式中,公开了一种终端设备,其包括处理器和计算机可读存储介质,处理器用于实现各指令;计算机可读存储介质用于存储多条指令,所述指令适于由处理器加载并执行实施例一中的自适应余弦窗抗遮挡多特征融合的目标跟踪方法。
上述虽然结合附图对本发明的具体实施方式进行了描述,但并非对本发明保护范围的限制,所属领域技术人员应该明白,在本发明的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本发明的保护范围以内。

Claims (10)

1.一种自适应余弦窗抗遮挡多特征融合的目标跟踪方法,其特征在于,包括:
(1)将当前帧中目标图像块的颜色直方图与传统固定余弦窗进行求和,得到自适应余弦窗;
(2)提取当前帧中目标图像块的Hog特征,采用自适应余弦窗对所述目标图像块进行预处理,对预处理后的目标图像块进行滤波处理,得到基于Hog特征的滤波响应;
(3)计算当前帧目标图像块的颜色响应和前后帧的光流特征,将得到的基于Hog特征的滤波响应、颜色特征响应以及光流特征进行加权求和,得到最终的响应,响应值最大的位置即为当前帧跟踪目标的初始位置;
(4)对得到的当前帧跟踪目标的初始位置进行鲁棒性检查;当跟踪结果不鲁棒时,采用反向多任务稀疏表示方法选取多个候选样本,对每个候选样本,重复步骤(2)-(3),重新确定当前帧中跟踪目标的位置。
2.如权利要求1所述的一种自适应余弦窗抗遮挡多特征融合的目标跟踪方法,其特征在于,所述步骤(1)中:
确定第一帧图像中运动目标的位置,在后续视频帧中,利用第t-1帧确定的运动目标位置在第t帧选取目标图像块,计算目标图像块的颜色直方图,并与传统的固定余弦窗求和,得到自适应余弦窗。
3.如权利要求1所述的一种自适应余弦窗抗遮挡多特征融合的目标跟踪方法,其特征在于,所述步骤(2)中:
利用第t-1帧确定的运动目标位置在第t帧提取目标图像块的Hog特征;
对目标图像块的Hog特征进行预处理,预处理后的目标图像块与在第t-1帧获得的相关滤波模型在频域进行点乘计算,得到基于Hog特征的滤波响应。
4.如权利要求1所述的一种自适应余弦窗抗遮挡多特征融合的目标跟踪方法,其特征在于,所述步骤(3)中,计算当前帧目标图像块的颜色响应,具体为:
对步骤(1)中当前帧的目标图像块的颜色直方图进行积分计算,得到目标图像块的颜色特征响应。
5.如权利要求1所述的一种自适应余弦窗抗遮挡多特征融合的目标跟踪方法,其特征在于,所述步骤(3)中,计算当前帧目标图像块的前后帧的光流特征,具体为:
利用第t-2帧得到的跟踪目标图像块与第t-1帧提取的目标图像块通过最小化公式计算t-1帧的光流特征;
利用第t帧得到的跟踪目标图像块与第t+1帧提取的目标图像块通过最小化公式计算t+1帧的光流特征。
6.如权利要求1所述的一种自适应余弦窗抗遮挡多特征融合的目标跟踪方法,其特征在于,利用基于Hog特征的滤波响应,计算第t帧的PSRt值;
建立PSR池,当
Figure FDA0002361308770000021
时,认为第t帧跟踪结果没有被遮挡或发生较大形变,将PSRt放入PSR池中;反之,则认为第t帧跟踪结果被遮挡或发生较大形变,将PSRt丢弃,不放入PSR池中;其中,
Figure FDA0002361308770000022
为PSR池中所有值的平均值;γ1为设定值。
7.如权利要求6所述的一种自适应余弦窗抗遮挡多特征融合的目标跟踪方法,其特征在于,
Figure FDA0002361308770000023
时,认为当前帧的跟踪结果不可靠;γ2为设定值。
8.如权利要求6所述的一种自适应余弦窗抗遮挡多特征融合的目标跟踪方法,其特征在于,
当判断当前帧目标没有被遮挡或发生较大形变时,相关滤波训练模型和颜色直方图的更新系数分别取固定常数;
当判断当前帧目标被遮挡时,相关滤波训练模型的更新系数取
Figure FDA0002361308770000031
其中,MPSR为PSR池中所有值的平均值,v,β为常系数。
9.一种自适应余弦窗抗遮挡多特征融合的目标跟踪系统,包括:
用于将当前帧中目标图像块的颜色直方图与传统固定余弦窗进行求和,得到自适应余弦窗的装置;
用于提取当前帧中目标图像块的Hog特征,采用自适应余弦窗对所述目标图像块进行预处理,对预处理后的目标图像块进行滤波处理,得到基于Hog特征的滤波响应的装置;
用于计算当前帧目标图像块的颜色响应和前后帧的光流特征,将得到的基于Hog特征的滤波响应、颜色特征响应以及光流特征进行加权求和,确定当前帧跟踪目标的初始位置的装置;
用于对得到的当前帧跟踪目标的初始位置进行鲁棒性检查的装置;
用于当跟踪结果不鲁棒时,采用反向多任务稀疏表示方法选取多个候选样本,重新确定当前帧中跟踪目标的位置的装置。
10.一种终端设备,其包括处理器和计算机可读存储介质,处理器用于实现各指令;计算机可读存储介质用于存储多条指令,其特征在于,所述指令适于由处理器加载并执行权利要求1-8任一项所述的自适应余弦窗抗遮挡多特征融合的目标跟踪方法。
CN202010022515.7A 2020-01-09 2020-01-09 自适应余弦窗抗遮挡多特征融合的目标跟踪方法及系统 Active CN111260686B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010022515.7A CN111260686B (zh) 2020-01-09 2020-01-09 自适应余弦窗抗遮挡多特征融合的目标跟踪方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010022515.7A CN111260686B (zh) 2020-01-09 2020-01-09 自适应余弦窗抗遮挡多特征融合的目标跟踪方法及系统

Publications (2)

Publication Number Publication Date
CN111260686A true CN111260686A (zh) 2020-06-09
CN111260686B CN111260686B (zh) 2023-11-10

Family

ID=70952536

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010022515.7A Active CN111260686B (zh) 2020-01-09 2020-01-09 自适应余弦窗抗遮挡多特征融合的目标跟踪方法及系统

Country Status (1)

Country Link
CN (1) CN111260686B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112613565A (zh) * 2020-12-25 2021-04-06 电子科技大学 基于多特征融合与自适应学习率更新的抗遮挡跟踪方法
CN112651999A (zh) * 2021-01-19 2021-04-13 滨州学院 基于时空上下文感知的无人机对地目标实时跟踪方法
CN114723783A (zh) * 2022-04-01 2022-07-08 南京信息工程大学 基于运动估计的多特征卫星视频目标跟踪方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106920253A (zh) * 2017-02-10 2017-07-04 华中科技大学 一种基于遮挡分层的多目标跟踪方法
KR101980653B1 (ko) * 2018-07-19 2019-05-21 한화시스템 주식회사 표적 탐지 및 추적 방법
CN109993775A (zh) * 2019-04-01 2019-07-09 云南大学 基于特征补偿的单目标跟踪方法
CN110378932A (zh) * 2019-07-10 2019-10-25 上海交通大学 一种基于空间正则矫正的相关滤波视觉跟踪算法
CN110569723A (zh) * 2019-08-02 2019-12-13 西安工业大学 一种结合特征融合与模型更新的目标跟踪方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106920253A (zh) * 2017-02-10 2017-07-04 华中科技大学 一种基于遮挡分层的多目标跟踪方法
KR101980653B1 (ko) * 2018-07-19 2019-05-21 한화시스템 주식회사 표적 탐지 및 추적 방법
CN109993775A (zh) * 2019-04-01 2019-07-09 云南大学 基于特征补偿的单目标跟踪方法
CN110378932A (zh) * 2019-07-10 2019-10-25 上海交通大学 一种基于空间正则矫正的相关滤波视觉跟踪算法
CN110569723A (zh) * 2019-08-02 2019-12-13 西安工业大学 一种结合特征融合与模型更新的目标跟踪方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
郝帅;程咏梅;马旭;赵建涛;刘虎成: "基于模糊测度的多特征融合鲁棒粒子滤波跟踪", 系统工程与电子技术, vol. 37, no. 11, pages 2447 - 2453 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112613565A (zh) * 2020-12-25 2021-04-06 电子科技大学 基于多特征融合与自适应学习率更新的抗遮挡跟踪方法
CN112613565B (zh) * 2020-12-25 2022-04-19 电子科技大学 基于多特征融合与自适应学习率更新的抗遮挡跟踪方法
CN112651999A (zh) * 2021-01-19 2021-04-13 滨州学院 基于时空上下文感知的无人机对地目标实时跟踪方法
CN114723783A (zh) * 2022-04-01 2022-07-08 南京信息工程大学 基于运动估计的多特征卫星视频目标跟踪方法

Also Published As

Publication number Publication date
CN111260686B (zh) 2023-11-10

Similar Documents

Publication Publication Date Title
JP4964159B2 (ja) ビデオのフレームのシーケンスにおいてオブジェクトを追跡するコンピュータに実装される方法
CN103971386B (zh) 一种动态背景场景下的前景检测方法
CN102722891B (zh) 一种图像显著度检测的方法
CN111444821A (zh) 一种城市道路标志自动识别方法
CN112163498A (zh) 前景引导和纹理聚焦的行人重识别模型建立方法及其应用
CN108334848A (zh) 一种基于生成对抗网络的微小人脸识别方法
CN112364865B (zh) 一种复杂场景中运动小目标的检测方法
CN103955949B (zh) 基于Mean-shift算法的运动目标检测方法
CN110415260B (zh) 基于字典与bp神经网络的烟雾图像分割与识别方法
CN101290681B (zh) 视频目标跟踪方法、装置及自动视频跟踪系统
CN110032925A (zh) 一种基于改进胶囊网络与算法的手势图像分割与识别方法
CN110910421B (zh) 基于分块表征和可变邻域聚类的弱小运动目标检测方法
CN111260686B (zh) 自适应余弦窗抗遮挡多特征融合的目标跟踪方法及系统
CN110490904A (zh) 一种弱小目标检测与跟踪方法
CN113014923B (zh) 一种基于压缩域表征运动向量的行为识别方法
CN109840498B (zh) 一种实时行人检测方法及神经网络、目标检测层
CN111311611A (zh) 一种实时三维大场景多对象实例分割的方法
CN116665015B (zh) 一种基于YOLOv5的红外序列图像弱小目标检测方法
CN106529441A (zh) 基于模糊边界分片的深度动作图人体行为识别方法
CN106023256A (zh) 面向增强现实辅助维修系统平面目标粒子滤波跟踪的状态观测方法
CN105205834A (zh) 一种基于混合高斯及阴影检测模型的目标检测与提取方法
CN102509308A (zh) 基于混合动态纹理空时显著性检测的运动分割方法
CN108053425B (zh) 一种基于多通道特征的高速相关滤波目标跟踪方法
CN110135435A (zh) 一种基于广度学习系统的显著性检测方法及装置
CN110689559B (zh) 一种基于密集卷积网络特征的视觉目标跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP03 Change of name, title or address

Address after: 256600 No. five, No. 391, the Yellow River Road, Shandong, Binzhou

Patentee after: Shandong University of Aeronautics and Astronautics

Country or region after: China

Address before: No. 391 Huanghe 5th Road, Bincheng District, Binzhou City, Shandong Province

Patentee before: BINZHOU University

Country or region before: China

CP03 Change of name, title or address