CN113643327B - 一种响应置信度多特征融合的核相关滤波目标跟踪方法 - Google Patents

一种响应置信度多特征融合的核相关滤波目标跟踪方法 Download PDF

Info

Publication number
CN113643327B
CN113643327B CN202110957414.3A CN202110957414A CN113643327B CN 113643327 B CN113643327 B CN 113643327B CN 202110957414 A CN202110957414 A CN 202110957414A CN 113643327 B CN113643327 B CN 113643327B
Authority
CN
China
Prior art keywords
response
tracking
target
value
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110957414.3A
Other languages
English (en)
Other versions
CN113643327A (zh
Inventor
钟小勇
顾明琨
张小红
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangxi University of Science and Technology
Original Assignee
Jiangxi University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangxi University of Science and Technology filed Critical Jiangxi University of Science and Technology
Priority to CN202110957414.3A priority Critical patent/CN113643327B/zh
Publication of CN113643327A publication Critical patent/CN113643327A/zh
Application granted granted Critical
Publication of CN113643327B publication Critical patent/CN113643327B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

一种响应置信度多特征融合的核相关滤波目标跟踪方法,针对传统核相关滤波在跟踪彩色视频序列不能有效利用颜色特征,以及处理目标遮挡和形变能力低等问题。该方法提取目标图像的方向直方图特征和颜色直方图特征,通过计算高响应值点在响应图上层的占比,来判断目标的跟踪情况,进而调整学习率的大小;用两种特征的平均峰相关能量和最大响应峰值的乘积来加权融合目标位置;通过对模型的跟踪情况和特征的有效性检测,采用分段式更新策略,避免了模型干扰,提高了位置融合的可靠性和复杂环境中跟踪的鲁棒性。该算法可满足视频实时性的要求,在信号采集、目标跟踪、特征分析、图像识别中具有一定的应用价值。

Description

一种响应置信度多特征融合的核相关滤波目标跟踪方法
技术领域
本发明属于视频跟踪识别技术领域,涉及到跟踪算法与深度学习,以及人工神经网络技术。
背景技术
在视频监控、人机交互、智能交通等领域有着广泛应用的目标跟踪方法,按照处理方式的不同可以分为两类:一类是生成模型类,另一类是判别模型类。生成模型类是对跟踪的目标建立模型并识别,在下一帧图像中搜索与当前模型中最为相似的区域作为预测区域。比较经典的算法有卡尔曼滤波与粒子滤波等。这种通过单一数学模型描述待跟踪目标的方法,不能全面利用图像的背景信息,当受到光照变化,运动模糊,目标旋转等情况下,会对模型建立产生较大影响。判别模型类是将目标模型和背景信息同时考虑在内,提取图像中的特征值,根据两者的差异进行在线学习并对分类器做相应的训练,该方法可以较好的提高跟踪精度。
发明内容
本发明的目的是以核相关滤波算法(Kernel Correlation Filter,KCF)滤波器为基础模型,提出一种响应置信度多特征融合的核相关滤波目标跟踪方法。该方法可满足视频实时性的要求,在信号采集、目标跟踪、特征分析、图像识别中具有一定的应用价值。
本发明是通过以下技术方案实现的。
本发明所述的一种响应置信度多特征融合的核相关滤波目标跟踪方法,包括如下步骤:
(S01)利用平均峰相关能量(Average Peak-To-Correlation Energy,APCE)和输出的响应峰值作为跟踪置信度,结合方向梯度直方图(Histogram Of Oriented Gradient,HOG)特征与降维后的颜色特征(Color Naming,CN)融合机制进行特征权重分配。
假设视频目标跟踪区域的大小为M×N像素,则该区域第t帧图像的APCE值Pt计算如下:
其中,gmax,t,gmin,t和gm,n,t分别是第t帧图像在跟踪区域内的最大响应值、最小响应值和位置(m,n)处的响应值。
将第t帧的特征权重公式写为:
式中ωhog,t和ωcn,t分别为HOG特征和CN特征在第t帧的权重。
(S02)基于响应置信度的大小设置学习率分段更新策略,以解决目标受干扰可能带来的误差。
为了避免学习模型更新而导致错误,结合响应图峰值变化的结果,计算大于0.5倍峰值的响应值个数Fmed与大于0.28倍峰值的响应值个数Fmajor。设响应置信度:
F=Fmed/Fmajor(3)
当干扰比较少时,图像峰值高,高响应值点比较集中且占比小,没有多峰现象,所以F的值较小。当受到干扰时,响应图峰值变低,产生多峰现象,高响应值的点占比增加,F的值增大。
同时得出第t帧的分段更新模型策略为:
其中ηCN和ηHOG分别代表CN特征的学习率和HOG特征的学习率,FCN和FHOG分别代表CN特征的响应置信度和HOG特征的响应置信度。
(S03)特征失效下的模型跟踪判别自适应调整,以提高目标识别算法的鲁棒性。
多特征融合机制权重分配可提高跟踪精确度,但是如果出现某一特征跟踪失效,产生相反的预测位置时,使用(S01)公式(2)加权的更新方式就会引入额外的误差。这种情况下就只需要选择响应置信度F最大的那个特征进行单一特征的位置更新,这样不仅可以提高算法的鲁棒性,还可以用来解决跟踪失效的模糊错判问题。
(S04)采用视频主要属性对目标跟踪评估算法的有效性进行分析测试,评估方法采用距离精确度(Distance Precision,DP)、成功率(Success Rate,SR)作为评价标准。
所述的距离精确度DP是通过统计中心位置误差(Center Location Error,CLE)小于某一设定阈值ε的帧数Nnum占视频序列总长度Nall的比值。
其中,中心位置误差CLE是指跟踪目标位置(xT,yT)与真实位置(xG,yG)间的距离,计算公式如下:
所述的成功率SR是通过统计覆盖域(Overlap Region,OR)大于某一设定阈值θ的帧数Nnum占所有测试视频序列总长度Nall的比值,其计算公式:
其中,覆盖域OR是根据人工标注的实际目标框和跟踪算法得到的跟踪框之间的重叠面积之比,来衡量算法的跟踪性能。
其中|·|代表区域中的像素数目,rt、rg分别表示跟踪算法得到的预测区域和实际的目标区域,OR的取值范围为0到1。
本发明利用特征响应图的峰值与平均峰值相关能量值的乘积,对HOG特征和CN特征得出的预测位置进行自适应融合,并提出了一种新的置信度判断方法。通过对模型的跟踪情况和特征的有效性检测,采用分段式更新策略,避免了模型污染,提高了位置融合的可靠性和复杂环境中跟踪的鲁棒性。
附图说明
图1为Basketball部分视频序列的特征权重变化。其中(a)为视频中的#572帧;(b)为视频中的#600帧;(c)为视频中的#624帧;(d)为视频中的#630帧;(e)为视频中的#636帧;(f)为视频中的#641帧;(g)为视频帧数与(HOG,CN)特征权重ω的关系图。白色边框与黑边白色箭头是跟踪的目标。
图2为目标跟踪正常及三维响应图。(a)为实际应用场景中的#279帧;(b)为#279帧HOG特征响应的三维响应图。白色边框与黑边白色箭头是跟踪的目标。
图3为目标受到遮挡及三维响应图。(a)为目标受到遮挡场景中的#449帧;(b)为#449帧HOG特征响应的三维响应图。白色边框与黑边白色箭头是跟踪的目标。
图4为目标快速移动及三维响应图。(a)为目标快速移动场景中的#543帧;(b)为#543帧HOG特征响应的三维响应图。白色边框与黑边白色箭头是跟踪的目标。
图5为目标发生旋转及三维响应图。(a)为目标发生旋转场景中的#955帧;(b)为#955帧HOG特征响应的三维响应图。白色边框与黑边白色箭头是跟踪的目标。
图6为目标运动模糊时的CN特征与HOG特征响应图。(a)为目标运动模糊场景中的#549帧;(b)为#945帧CN特征响应的三维响应图;(c)为#945帧HOG特征响应的三维响应图。白色边框与黑边白色箭头是跟踪的目标。
具体实施方式
本发明将跟踪得到的响应图与理想的响应图进行比较,判断跟踪过程是否顺利。当跟踪过程顺利时,方向梯度直方图(Histogram Of Oriented Gradient,HOG)特征与降维后的颜色特征(Color Naming,CN)特征得到的跟踪方向一致,分别计算各自的响应峰值与平均峰相关能量(Average Peak-To-Correlation Energy,APCE),用以对预测位置进行加权融合。通过计算高响应值点在响应图上层的占比,来判断目标的跟踪情况,进而调整学习率的大小;然后用两种特征的平均峰相关能量(APCE)和最大响应峰值的乘积来加权融合目标位置。以下将结合附图,通过实施实例作进一步说明。
(1)多特征融合机制权重分配目标跟踪。
HOG和CN两种特征相互融合可以弥补各自的缺点,但如果只是用简单的特征层相加方式进行融合,不进行权重分配,就会出现某一特征跟踪精度下降时,整体的跟踪性能下降的情况。本发明首先使用主成分分析(Primary Component Analysis,PCA)法对CN特征降维,提高运算速度,然后利用平均峰相关能量(APCE)和输出的响应峰值作为跟踪置信度,进行权重分配。
为确认该权重分配方法的有效性,采用OTB-2013数据集中的Basketball视频序列进行验证(参见图1)。
从图1可以看到在572帧到624帧之间,目标主要是在进行平移操作,形变较小,得到的特征权重变化图中HOG的特征权重高于CN。而之后目标产生形变和旋转,HOG特征权重显著下降。这表明该融合算法在不同的条件下能够实现自适应改变。
(2)基于响应置信度的分段更新策略的目标跟踪。
KCF算法在每一帧学习中都使用相同的学习率来更新模型。而在实际的应用场景中,由于背景杂乱、形变、遮挡等原因,使用相同的学习率更新容易将不可靠的跟踪结果引入到模型当中。模型误差的累计将导致跟踪失败,因此在跟踪质量较差的情况下应适当减小学习率。
响应图的峰值和波动可以一定程度上反应跟踪的质量,当跟踪结果较为理想时,响应图是只有一个尖峰,其他区域平滑的图像,而且响应峰值越高,周边区域越平滑,跟踪效果越好,如图2。当跟踪过程中出现如遮挡(见图3)、运动模糊(见图4)、旋转(见图5)等复杂情况时,得到的响应图会与理想的高斯模型产生较大偏差,响应图的峰值就会变低,顶部变宽,产生多峰现象。此时就减小模型更新速率或停止更新模型,并对HOG特征与CN特征得到的跟踪方向进行判断,如果两种特征得出的预测位置差异过大,则选择响应图更接近理想高斯模型的特征进行更新,以此达到跟踪的最优匹配。
(3)特征失效下的模型跟踪判别。
多特征融合机制虽然可以自适应的进行权重分配,提高跟踪精确度,但是如果出现某一特征跟踪失效,产生相反的预测位置时,再使用加权的更新方式就会引入额外的误差。
如图6,由于图像在第549帧时产生运动模糊,HOG特征的跟踪精度下降。可以看到物体原本向左运动,CN特征得到的响应最高峰在左侧,但HOG特征由于受到干扰,得到的响应最高峰却在右侧。此时两种特征得出的预测位置截然相反,不适合使用位置融合机制,根据响应置信度F最大值来进行单一特征的位置更新。
(4)目标跟踪定量分析测试。
为了评估本发明算法(OURS)的有效性,在OTB-2013数据集上选取了具有代表性的30组视频序列来与SAMF、DSST、KCF、CN算法进行对比。所选视频的主要属性包括以下11种:
·14组光照变化(IlluminationVariation,IV);
·23组平面外旋转(Out-Of-Plane Rotation,OPR);
·13组尺度变换尺度变化(Scale Variation,SV);
·19组遮挡(Occlusion,OCC);
·11组变形(Deformation,DEF);
·7组运动模糊(Motion Blur,MB);
·8组快速移动(Fast Motion,FM);
·20组平面内旋转(In-Plane Rotation,IPR);
·3组离开视野(Out Of View,OV);
·10组背景复杂(Background Clutters,BC);
·2组低分辨率(Low Resolution,LR)。
评估方法采用OTB-2013数据集中提出的距离精确度(Distance Precision,DP)、成功率(Success Rate,SR)及跟踪速度(Frames Per Second,FPS)作为评价标准。
具体本发明算法(OURS),SAMF算法(Scale Adaptive Multiple Feature,尺度自适应多特征),DSST算法(Discriminative Scale Space Tracking,判别尺度空间跟踪),KCF算法(Kernel Correlation Filter,核相关滤波算法),CN算法(Color Naming,颜色名)在11种主要属性下的精确度DP和成功率SR结果如表1、表2所示,每组的最优结果用加粗显示。
表1五种算法在11种属性下的精确度DP
表2五种算法在11种属性下的成功率SR
从表1和表2中可以看到,对比主流的相关滤波跟踪算法,本发明算法的精确度DP和成功率SR大多数属性下要优于其他算法。

Claims (1)

1.一种响应置信度多特征融合的核相关滤波目标跟踪方法,其特征是包括以下步骤:
(S01)利用平均峰相关能量和输出的响应峰值作为跟踪置信度,结合方向梯度直方图特征与降维后的颜色特征融合机制进行特征权重分配;
设视频目标跟踪区域的大小为M×N像素,则该区域第t帧图像的APCE值Pt计算如下:
其中,gmax,t,gmin,t和gm,n,t分别是第t帧图像在跟踪区域内的最大响应值、最小响应值和位置(m,n)处的响应值;
将第t帧的特征权重公式写为:
式中ωhog,t和ωcn,t分别为HOG特征和CN特征在第t帧的权重;
(S02)基于响应置信度的大小设置学习率分段更新策略;
结合响应图峰值变化的结果,计算大于0.5倍峰值的响应值个数Fmed与大于0.28倍峰值的响应值个数Fmajor;设响应置信度:
F=Fmed/Fmajor (3)
干扰比较少时,图像峰值高,高响应值点比较集中且占比小,没有多峰现象,F的值较小;受到干扰时,响应图峰值变低,产生多峰现象,高响应值的点占比增加,F的值增大;
同时得出第t帧的分段更新模型策略为:
其中ηCN和ηHOG分别代表CN特征的学习率和HOG特征的学习率,FCN和FHOG分别代表CN特征的响应置信度和HOG特征的响应置信度;
(S03)特征失效下的模型跟踪判别自适应调整,提高目标识别算法的鲁棒性;
当使用(S01)公式(2)加权的更新方式时,选择响应置信度F最大的那个特征进行单一特征的位置更新;
(S04)采用视频属性对目标跟踪评估算法的有效性进行分析测试,依据距离精确度、成功率作为评价标准;
所述的距离精确度DP是通过统计中心位置误差CLE小于某一设定阈值ε的帧数Nnum占视频序列总长度Nall的比值:
其中,中心位置误差CLE是指跟踪目标位置(xT,yT)与真实位置(xG,yG)间的距离,计算公式如下:
所述的成功率SR是通过统计覆盖域OR大于某一设定阈值θ的帧数Nnum占所有测试视频序列总长度Nall的比值,其计算公式:
其中,覆盖域OR是根据人工标注的实际目标框和跟踪算法得到的跟踪框之间的重叠面积之比,来衡量算法的跟踪性能:
其中|·|代表区域中的像素数目,rt、rg分别表示跟踪算法得到的预测区域和实际的目标区域,OR的取值范围为0到1。
CN202110957414.3A 2021-08-18 2021-08-18 一种响应置信度多特征融合的核相关滤波目标跟踪方法 Active CN113643327B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110957414.3A CN113643327B (zh) 2021-08-18 2021-08-18 一种响应置信度多特征融合的核相关滤波目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110957414.3A CN113643327B (zh) 2021-08-18 2021-08-18 一种响应置信度多特征融合的核相关滤波目标跟踪方法

Publications (2)

Publication Number Publication Date
CN113643327A CN113643327A (zh) 2021-11-12
CN113643327B true CN113643327B (zh) 2023-10-20

Family

ID=78423008

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110957414.3A Active CN113643327B (zh) 2021-08-18 2021-08-18 一种响应置信度多特征融合的核相关滤波目标跟踪方法

Country Status (1)

Country Link
CN (1) CN113643327B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016131300A1 (zh) * 2015-07-22 2016-08-25 中兴通讯股份有限公司 一种自适应跨摄像机多目标跟踪方法及系统
CN107644430A (zh) * 2017-07-27 2018-01-30 孙战里 基于自适应特征融合的目标跟踪
WO2020181685A1 (zh) * 2019-03-12 2020-09-17 南京邮电大学 一种基于深度学习的车载视频目标检测方法
CN111968153A (zh) * 2020-07-16 2020-11-20 新疆大学 基于相关滤波和粒子滤波的长时间目标跟踪方法及系统
CN112069896A (zh) * 2020-08-04 2020-12-11 河南科技大学 一种基于孪生网络融合多模板特征的视频目标跟踪方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102275452B1 (ko) * 2017-03-16 2021-07-12 한국전자통신연구원 색상과 형태를 동시에 고려한 실시간 영상 추적 방법 및 이를 위한 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016131300A1 (zh) * 2015-07-22 2016-08-25 中兴通讯股份有限公司 一种自适应跨摄像机多目标跟踪方法及系统
CN107644430A (zh) * 2017-07-27 2018-01-30 孙战里 基于自适应特征融合的目标跟踪
WO2020181685A1 (zh) * 2019-03-12 2020-09-17 南京邮电大学 一种基于深度学习的车载视频目标检测方法
CN111968153A (zh) * 2020-07-16 2020-11-20 新疆大学 基于相关滤波和粒子滤波的长时间目标跟踪方法及系统
CN112069896A (zh) * 2020-08-04 2020-12-11 河南科技大学 一种基于孪生网络融合多模板特征的视频目标跟踪方法

Also Published As

Publication number Publication date
CN113643327A (zh) 2021-11-12

Similar Documents

Publication Publication Date Title
US8355530B2 (en) Liveness detection method and apparatus of video image
Aeschliman et al. A probabilistic framework for joint segmentation and tracking
Lebeda et al. Long-term tracking through failure cases
CN109993769B (zh) 一种深度学习ssd算法结合kcf算法的多目标跟踪系统
CN111582349B (zh) 一种基于YOLOv3和核相关滤波改进的目标跟踪算法
CN113592911B (zh) 表观增强深度目标跟踪方法
CN115240130A (zh) 一种行人多目标跟踪方法、装置和计算机可读存储介质
CN103413312A (zh) 基于邻里成分分析和尺度空间理论的视频目标跟踪方法
CN112329784A (zh) 一种基于时空感知及多峰响应的相关滤波跟踪方法
CN106874867A (zh) 一种融合肤色及轮廓筛选的人脸自适应检测与跟踪方法
CN116246232A (zh) 一种跨境头和局部特征策略优化的车辆多目标跟踪方法
CN113436228B (zh) 一种相关滤波目标跟踪算法的抗遮挡及目标重捕方法
CN115272405A (zh) 一种基于孪生网络的鲁棒在线学习船舶跟踪方法
CN108509825A (zh) 一种基于视频流的人脸跟踪识别方法
CN109887004A (zh) 一种基于tld算法的无人船海域目标跟踪方法
CN113643327B (zh) 一种响应置信度多特征融合的核相关滤波目标跟踪方法
Duan Deep learning-based multitarget motion shadow rejection and accurate tracking for sports video
CN116665097A (zh) 一种结合上下文感知的自适应目标跟踪方法
Al-Jarrah Intelligent vision-based real-time detection for rough terrain navigation robot
CN116777956A (zh) 基于多尺度航迹管理的运动目标筛选方法
CN113470074B (zh) 一种基于分块判别的自适应时空正则化目标跟踪方法
KR20040042501A (ko) 형판 정합 기반 얼굴 검출방법
CN115331008A (zh) 一种基于目标概率密度图的端到端目标检测方法
Chen et al. Robust anomaly detection via fusion of appearance and motion features
Tsin et al. Learn to track edges

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant