CN113327273B - 一种基于可变窗函数相关滤波的红外目标跟踪方法 - Google Patents

一种基于可变窗函数相关滤波的红外目标跟踪方法 Download PDF

Info

Publication number
CN113327273B
CN113327273B CN202110659741.0A CN202110659741A CN113327273B CN 113327273 B CN113327273 B CN 113327273B CN 202110659741 A CN202110659741 A CN 202110659741A CN 113327273 B CN113327273 B CN 113327273B
Authority
CN
China
Prior art keywords
target
search area
window function
variable window
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110659741.0A
Other languages
English (en)
Other versions
CN113327273A (zh
Inventor
卢瑞涛
杨小冈
黄月平
陈璐
高凡
李清格
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rocket Force University of Engineering of PLA
Original Assignee
Rocket Force University of Engineering of PLA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rocket Force University of Engineering of PLA filed Critical Rocket Force University of Engineering of PLA
Priority to CN202110659741.0A priority Critical patent/CN113327273B/zh
Publication of CN113327273A publication Critical patent/CN113327273A/zh
Application granted granted Critical
Publication of CN113327273B publication Critical patent/CN113327273B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • G06V10/507Summing image-intensity values; Histogram projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于可变窗函数相关滤波的红外目标跟踪方法,包括以下步骤:S1、根据目标搜索区域的尺寸和特征类型计算可变窗函数;S2、根据空间注意力机制计算目标搜索区域的空间可靠性图;S3、提取目标搜索区域的特征图,利用相关滤波器确定目标位置和尺寸;S4、模型更新。本发明提出了一种通用的可变窗函数,可根据跟踪算法使用的特征类型调整窗函数的带宽,既能消除图像边界不连续性,也能保留足够多的图像边缘信息,还能一定程度上提高图像的信噪比,在不增加额外计算负担的情况下提升算法的跟踪性能。

Description

一种基于可变窗函数相关滤波的红外目标跟踪方法
技术领域
本发明涉及飞行器视觉目标跟踪技术领域,尤其涉及一种基于可变窗函数相关滤波的红外目标跟踪方法。
背景技术
随着人工智能的井喷式发展,目标跟踪技术作为计算机视觉领域的重要组成部分,被广泛应用于智能监控、智能导航以及人机交互等诸多场景。红外成像技术具有能全天候获得目标信息、抗干扰性强以及被动非接触式等优点,因此,基于红外的目标跟踪算法一直是目标跟踪研究领域的关键技术之一,在智能打击和战场态势侦察等军事领域以及无人驾驶、无人机航拍等民用领域均拥有广阔的应用前景。相关滤波跟踪算法具有良好的综合性能,能够兼顾跟踪的快速性和精确性,是目标跟踪领域的主流研究方向。
相关滤波跟踪算法基于样本周期性假设进行频域加速计算,通常需要利用余弦窗来降低图像边缘的不连续性。但相关滤波跟踪算法利用余弦窗进行“加窗”操作后,图像边界信息的丢失会影响跟踪性能,主要表现在于:训练时,背景信息损失过多,不利于相关滤波器鉴别力提升;检测时,不利于对位于搜索区域边缘附近的目标进行跟踪。红外图像由于其成像原理的限制,与可见光图像相比,通常具有信噪比低、分辨率差以及纹理特征较少的特性。因此,直接将可见光目标跟踪领域的相关滤波跟踪算法用于红外目标跟踪时,与跟踪可见光目标相比,算法的跟踪性会大幅降低。
发明内容
本发明意在提供一种基于可变窗函数相关滤波的红外目标跟踪方法,以解决相关滤波跟踪算法跟踪性能差,并且将相关滤波跟踪算法应用到红外目标跟踪时,跟踪性能进一步降低的技术问题。
为达到上述目的,本发明提供如下技术方案:
一种基于可变窗函数相关滤波的红外目标跟踪方法,包括以下步骤:
S1、根据目标搜索区域的尺寸和特征类型计算可变窗函数;
S2、根据空间注意力机制计算目标搜索区域的空间可靠性图;
S3、提取目标搜索区域的特征图,利用相关滤波器确定目标位置和尺寸;
S4、模型更新。
进一步,所述步骤S1中,可变窗函数的计算公式为:
Gw(h,w,σhw)=gw(h,σh)*gw(w,σw)T (1)
式(1)中,h×w为搜索区域高和宽,为一维高斯函数,σ为高斯函数的方差。
进一步,所述高斯函数的方差σ的表达式为:
式(2)中,α为根据特征类型确定可调参数,s1为搜索区域尺寸,s0为目标尺寸。
进一步,所述步骤S2中,空间可靠性图的计算公式为:
式(3)中,μ为搜索区域中的像素,为目标区域,/>为背景区域,/>为像素μ属于目标的概率,/>分别为目标区域和背景区域的灰度直方图,λ为正则化参数;r为像素离中心点的欧氏距离,θ为尺度参数。
进一步,所述步骤S3中,提取目标搜索区域的特征图,利用相关滤波器确定目标位置和尺寸,具体为:
S31、将目标搜索区域输入到VGG-m神经网络,所述VGG-m神经网络的Conv-1层和Conv-5层的输出作为深度卷积特征,形成目标搜索区域的深度特征图;
S32、将目标搜索区域和空间可靠性图对应元素相乘,提取n×n大小的HOG特征、CN特征和灰度特征作为手工特征,形成目标检索区域的手工特征图;
S33、使用所述可变窗函数加窗处理深度特征图和手工特征图;
S34、利用连续相关滤波器对加窗后的深度特征图和手工特征图进行滤波,获得目标响应图;
S35、根据时域中目标响应图的最大值确定目标的当前位置;
S36、根据目标的当前位置,利用一维尺度相关滤波器基于HOG特征估计目标的尺寸。
进一步,所述步骤S4中,模型更新包括增量更新目标区域和背景区域的灰度直方图、连续相关滤波器以及尺度相关滤波器,所述灰度直方图和连续相关滤波器每间隔5帧更新1次,所述尺度相关滤波器每帧均更新。
相比现有技术,本申请具有如下有益效果:
(1)提出了一种通用的可变窗函数,可变窗函数的带宽可以根据特征类型灵活调整,既能消除图像边界不连续性,也能保留足够多的图像边缘信息,实现对边界信息损失范围进行控制;同时,与常规使用的余弦窗相比,可变窗函数可以提高图像的信噪比,在不增加额外计算负担的情况下提升算法的跟踪性能。
(2)红外目标具有边缘模糊、细节少的特征,相对于相关滤波跟踪算法仅使用手工特征,很难在红外视频序列中取得良好的跟踪性能,本申请将传统手工特征与深度特征进行有效结合,提高了追踪性能。
(3)针对红外目标分辨率低、信噪比低和细节缺少的特点,采用空间注意力机制计算目标的空间可靠性图,突出目标区域,增强目标和背景的可鉴别性,有利于对红外目标的可靠跟踪。
附图说明
图1为本发明实施例提供的一种基于可变窗函数相关滤波的红外目标跟踪方法的流程图。
具体实施方式
下面结合附图和实施方式对本发明作进一步的详细说明:
如图1所示的,一种基于可变窗函数相关滤波的红外目标跟踪方法,包括以下步骤:
S1、根据目标搜索区域的尺寸和特征类型计算可变窗函数;
具体地,相关滤波跟踪算法基于图像周期性假设和循环矩阵理论获得了密集样本和跟踪效率,但图像边缘不连续性带来了边界效应。在进行频域解算时,图像需要进行“加窗”操作以缓解这种不连续性。可变窗函数的计算公式为:
Gw(h,w,σhw)=gw(h,σh)*gw(w,σw)T (1)
式(1)中,h×w为搜索区域高和宽,为一维高斯函数,σ为高斯函数的方差。高斯函数的方差由相关滤波跟踪算法中搜索区域尺寸s1与目标尺寸s0的比值和特征类型共同确定,表达式为:
式(2)中,α为可调参数,根据跟踪算法采用的特征类型确定,对于深度特征和手工特征的α分别设置为0.6和0.9。
S2、根据空间注意力机制计算目标搜索区域的空间可靠性图;
具体地,红外图像中目标边缘模糊、纹理信息少,为增强目标和背景的可鉴别性,根据上一帧目标位置在当前图像中截取目标搜索区域后,再根据背景区域和目标区域的灰度直方图,利用贝叶斯分类器和Epanechnikov核函数计算搜索区域的空间中每个像素属于目标的概率值,生成空间可靠性图,可靠性图中像素的取值越大,表明其属于目标的概率越高。空间可靠性图的计算公式为:
式(3)中,μ为搜索区域中的像素,为目标区域,/>为背景区域,/>为像素μ属于目标的概率,/>分别为目标区域和背景区域的灰度直方图,λ为正则化参数;r为像素离中心点的欧氏距离,θ为尺度参数。
S3、提取目标搜索区域的特征图,利用相关滤波器确定目标位置和尺寸;
具体地,首先,提取目标搜索区域的特征图,包括:将目标搜索区域输入VGG-m神经网络,将该网络的Conv-1层和Conv-5层的输出作为深度卷积特征,得到目标检索区域的深度特征图;将目标搜索区域和空间可靠性图对应元素相乘后提取4×4大小的HOG特征、CN特征和灰度特征作为手工特征,形成目标检索区域的手工特征图。然后,将深度特征图和手工特征图与各自的可变窗函数对应元素相乘,利用连续相关滤波器对加窗后的深度特征图和手工特征图进行滤波,获得目标响应图,根据时域中目标响应图的最大值确定目标的当前位置。最后,在当前目标位置基础上,利用一维尺度相关滤波器基于HOG特征对目标的尺寸进行估计。
S4、模型更新。
具体地,模型更新包括增量更新目标区域和背景区域的灰度直方图、连续相关滤波器以及尺度相关滤波器。灰度直方图每间隔5帧更新1次,计算公式为:
式(4)和式(5)中,τ为直方图学习率,t为视频序列的帧号。
连续相关滤波器每间隔5帧更新1次,连续相关滤波器训练时的目标函数为:
式中,为连续相关滤波器,x为训练图像,/>为由训练图像的深度特征图和手工特征图插值而成的连续特征图,P为特征压缩矩阵,利用PCA方法获得,用于减低特征维数、减少信息冗余和提升算法运行速度,/>为理想的响应值,/>为空间正则化参数,用于减缓边界效应。求解式(6),可获得连续相关滤波跟踪器。
尺度相关滤波器每帧均更新。
为验证本发明申请的可行性和有效性,对多组红外视频序列进行了目标跟踪仿真测试,得到了相应的跟踪结果,证明了本发明算法能够对序列中的红外目标进行稳定可靠的跟踪。
本发明实施例的硬件平台为配置Intel(R)Core(TM)i5-8300CPU@2.30H的计算机,软件平台为MATLAB R2018a。
以上所述的仅是本发明的实施例,方案中公知的具体技术方案和/或特性等常识在此未作过多描述。应当指出,对于本领域的技术人员来说,在不脱离本发明技术方案的前提下,还可以作出若干变形和改进,这些也应该视为本发明的保护范围,这些都不会影响本发明实施的效果和专利的实用性。也就是说,本发明提出的可变窗函数具有通用性,对于跟踪领域的一般技术人员,可依据本发明将可变窗函数运用于其他相关滤波跟踪算法。本申请要求的保护范围应当以其权利要求的内容为准,说明书中的具体实施方式等记载可以用于解释权利要求的内容。

Claims (4)

1.一种基于可变窗函数相关滤波的红外目标跟踪方法,其特征在于,包括以下步骤:
S1、根据目标搜索区域的尺寸和特征类型计算可变窗函数;
S2、根据空间注意力机制计算目标搜索区域的空间可靠性图;
S3、提取目标搜索区域的特征图,利用相关滤波器确定目标位置和尺寸;
S4、模型更新;
可变窗函数的计算公式为:
Gw(h,w,σhw)=gw(h,σh)*gw(w,σw)T (1)
式(1)中,h×w为搜索区域的高和宽,0≤i≤L为一维高斯函数,σ为高斯函数的方差;
空间可靠性图的计算公式为:
式(3)中,μ为搜索区域中的像素,为目标区域,/>为背景区域,/>为像素μ属于目标的概率,/>分别为目标区域和背景区域的灰度直方图,λ为正则化参数;r为像素离中心点的欧氏距离,θ为尺度参数。
2.根据权利要求1所述的一种基于可变窗函数相关滤波的红外目标跟踪方法,其特征在于:所述高斯函数的方差σ的表达式为:
式(2)中,α为根据特征类型确定可调参数,s1为搜索区域尺寸,s0为目标尺寸。
3.根据权利要求2所述的一种基于可变窗函数相关滤波的红外目标跟踪方法,其特征在于,所述步骤S3中,提取目标搜索区域的特征图,利用相关滤波器确定目标位置和尺寸,具体为:
S31、将目标搜索区域输入到VGG-m神经网络,所述VGG-m神经网络的Conv-1层和Conv-5层的输出作为深度卷积特征,形成目标搜索区域的深度特征图;
S32、将目标搜索区域和空间可靠性图对应元素相乘,提取n×n大小的HOG特征、CN特征和灰度特征作为手工特征,形成目标检索区域的手工特征图;
S33、使用可变窗函数加窗处理深度特征图和手工特征图;
S34、利用连续相关滤波器对加窗后的深度特征图和手工特征图进行滤波,获得目标响应图;
S35、根据时域中目标响应图的最大值确定目标的当前位置;
S36、根据目标的当前位置,利用尺度相关滤波器基于HOG特征估计目标的尺寸。
4.根据权利要求1-3任一项所述的一种基于可变窗函数相关滤波的红外目标跟踪方法,其特征在于,所述步骤S4中,模型更新包括增量更新目标区域和背景区域的灰度直方图、连续相关滤波器以及尺度相关滤波器,所述灰度直方图和连续相关滤波器每间隔5帧更新1次,所述尺度相关滤波器每帧均更新。
CN202110659741.0A 2021-06-15 2021-06-15 一种基于可变窗函数相关滤波的红外目标跟踪方法 Active CN113327273B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110659741.0A CN113327273B (zh) 2021-06-15 2021-06-15 一种基于可变窗函数相关滤波的红外目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110659741.0A CN113327273B (zh) 2021-06-15 2021-06-15 一种基于可变窗函数相关滤波的红外目标跟踪方法

Publications (2)

Publication Number Publication Date
CN113327273A CN113327273A (zh) 2021-08-31
CN113327273B true CN113327273B (zh) 2023-12-19

Family

ID=77420745

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110659741.0A Active CN113327273B (zh) 2021-06-15 2021-06-15 一种基于可变窗函数相关滤波的红外目标跟踪方法

Country Status (1)

Country Link
CN (1) CN113327273B (zh)

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102054278A (zh) * 2011-01-05 2011-05-11 西南交通大学 基于网格收缩的对象跟踪方法
CN105427340A (zh) * 2015-11-09 2016-03-23 西安电子科技大学昆山创新研究院 基于改进箱粒子滤波的视频目标跟踪方法
CN107316316A (zh) * 2017-05-19 2017-11-03 南京理工大学 基于多特征自适应融合和核相关滤波技术的目标跟踪方法
CN107730536A (zh) * 2017-09-15 2018-02-23 北京飞搜科技有限公司 一种基于深度特征的高速相关滤波物体追踪方法
EP3477540A1 (en) * 2017-10-27 2019-05-01 Samsung Electronics Co., Ltd. Method and apparatus for tracking object
KR101980653B1 (ko) * 2018-07-19 2019-05-21 한화시스템 주식회사 표적 탐지 및 추적 방법
CN109858493A (zh) * 2018-12-28 2019-06-07 上海阅面网络科技有限公司 一种基于神经网络的尺度自适应核相关滤波跟踪方法
CN109977971A (zh) * 2019-03-29 2019-07-05 苏州大学 基于均值偏移与核相关滤波的尺度自适应目标跟踪系统
CN110490907A (zh) * 2019-08-21 2019-11-22 上海无线电设备研究所 基于多目标特征和改进相关滤波器的运动目标跟踪方法
CN110706253A (zh) * 2019-09-19 2020-01-17 中国科学院自动化研究所 基于表观特征和深度特征的目标跟踪方法、系统、装置
CN111754545A (zh) * 2020-06-16 2020-10-09 江南大学 一种基于iou匹配的双滤波器视频多目标跟踪方法
KR102175491B1 (ko) * 2019-05-08 2020-11-06 군산대학교산학협력단 상관 필터 기반 객체 추적 방법
CN112083410A (zh) * 2020-09-11 2020-12-15 慧众行知科技(北京)有限公司 机动目标跟踪方法
CN112767450A (zh) * 2021-01-25 2021-05-07 开放智能机器(上海)有限公司 一种基于多损失学习的相关滤波目标跟踪方法及系统
CN112819865A (zh) * 2021-02-26 2021-05-18 西安理工大学 基于自适应正则特征联合时间关联的相关滤波跟踪方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7362885B2 (en) * 2004-04-20 2008-04-22 Delphi Technologies, Inc. Object tracking and eye state identification method

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102054278A (zh) * 2011-01-05 2011-05-11 西南交通大学 基于网格收缩的对象跟踪方法
CN105427340A (zh) * 2015-11-09 2016-03-23 西安电子科技大学昆山创新研究院 基于改进箱粒子滤波的视频目标跟踪方法
CN107316316A (zh) * 2017-05-19 2017-11-03 南京理工大学 基于多特征自适应融合和核相关滤波技术的目标跟踪方法
CN107730536A (zh) * 2017-09-15 2018-02-23 北京飞搜科技有限公司 一种基于深度特征的高速相关滤波物体追踪方法
EP3477540A1 (en) * 2017-10-27 2019-05-01 Samsung Electronics Co., Ltd. Method and apparatus for tracking object
KR101980653B1 (ko) * 2018-07-19 2019-05-21 한화시스템 주식회사 표적 탐지 및 추적 방법
CN109858493A (zh) * 2018-12-28 2019-06-07 上海阅面网络科技有限公司 一种基于神经网络的尺度自适应核相关滤波跟踪方法
CN109977971A (zh) * 2019-03-29 2019-07-05 苏州大学 基于均值偏移与核相关滤波的尺度自适应目标跟踪系统
KR102175491B1 (ko) * 2019-05-08 2020-11-06 군산대학교산학협력단 상관 필터 기반 객체 추적 방법
CN110490907A (zh) * 2019-08-21 2019-11-22 上海无线电设备研究所 基于多目标特征和改进相关滤波器的运动目标跟踪方法
CN110706253A (zh) * 2019-09-19 2020-01-17 中国科学院自动化研究所 基于表观特征和深度特征的目标跟踪方法、系统、装置
CN111754545A (zh) * 2020-06-16 2020-10-09 江南大学 一种基于iou匹配的双滤波器视频多目标跟踪方法
CN112083410A (zh) * 2020-09-11 2020-12-15 慧众行知科技(北京)有限公司 机动目标跟踪方法
CN112767450A (zh) * 2021-01-25 2021-05-07 开放智能机器(上海)有限公司 一种基于多损失学习的相关滤波目标跟踪方法及系统
CN112819865A (zh) * 2021-02-26 2021-05-18 西安理工大学 基于自适应正则特征联合时间关联的相关滤波跟踪方法

Also Published As

Publication number Publication date
CN113327273A (zh) 2021-08-31

Similar Documents

Publication Publication Date Title
CN107529650B (zh) 闭环检测方法、装置及计算机设备
CN108447041B (zh) 一种基于增强学习的多源图像融合方法
CN106338733B (zh) 基于蛙眼视觉特性的前视声呐目标跟踪方法
CN110728697A (zh) 基于卷积神经网络的红外弱小目标检测跟踪方法
CN107563370B (zh) 一种基于视觉注意机制的海上红外目标检测方法
CN110175649A (zh) 一种关于重新检测的快速多尺度估计目标跟踪方法
CN111008991B (zh) 一种背景感知的相关滤波目标跟踪方法
CN109087337B (zh) 基于分层卷积特征的长时间目标跟踪方法及系统
CN106709938A (zh) 基于改进tld的多目标追踪方法
CN110992378B (zh) 基于旋翼飞行机器人的动态更新视觉跟踪航拍方法及系统
CN112489089B (zh) 一种微型固定翼无人机机载地面运动目标识别与跟踪方法
CN107767406A (zh) 一种基于ds证据理论的多光谱图像弱小目标跟踪方法
CN106887012A (zh) 一种基于循环矩阵的快速自适应多尺度目标跟踪方法
CN107944354A (zh) 一种基于深度学习的车辆检测方法
CN117409190A (zh) 一种实时红外图像目标检测方法、装置、设备及存储介质
CN113092807B (zh) 基于多目标跟踪算法的城市高架道路车辆测速方法
CN113327273B (zh) 一种基于可变窗函数相关滤波的红外目标跟踪方法
CN115861669A (zh) 一种基于聚类思想的红外弱小目标检测方法
CN115880332A (zh) 一种低空飞行器视角的目标跟踪方法
CN115345845A (zh) 基于方向梯度直方图的特征融合烟幕干扰效能评估及处理方法及电子设备
CN116453033A (zh) 一种视频监控场景下高精度低算量的人群密度估计方法
CN113920159A (zh) 一种基于全卷积孪生网络的红外空中小目标跟踪方法
CN110751673B (zh) 一种基于集成学习的目标跟踪方法
CN112734806B (zh) 基于峰值尖锐指导置信度的视觉目标跟踪方法与装置
CN114511504B (zh) 一种视频sar动目标阴影检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant