CN116912289B - 一种面向边缘智能的弱小目标层次化视觉跟踪方法 - Google Patents
一种面向边缘智能的弱小目标层次化视觉跟踪方法 Download PDFInfo
- Publication number
- CN116912289B CN116912289B CN202310999386.0A CN202310999386A CN116912289B CN 116912289 B CN116912289 B CN 116912289B CN 202310999386 A CN202310999386 A CN 202310999386A CN 116912289 B CN116912289 B CN 116912289B
- Authority
- CN
- China
- Prior art keywords
- target
- frame
- tracker
- ref
- tracking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 230000000007 visual effect Effects 0.000 title claims abstract description 12
- 238000004364 calculation method Methods 0.000 claims abstract description 9
- 230000004044 response Effects 0.000 claims description 45
- 238000001914 filtration Methods 0.000 claims description 13
- 238000012549 training Methods 0.000 claims description 8
- 238000003672 processing method Methods 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 5
- 238000012545 processing Methods 0.000 description 5
- 238000013461 design Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000005251 gamma ray Effects 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
- G06T2207/20032—Median filtering
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种面向边缘智能的弱小目标层次化视觉跟踪方法,该方法主要包括:弱小目标增强、一级跟踪器、二级跟踪器和跟踪状态判断。弱小目标增强是基于帧间动态平均值和帧间动态方差结果,进而更加稳定有效的在抑制背景并且增强弱小目标信息。一级跟踪器主要感知目标自身信息,而二级跟踪器侧重于感知目标周围背景。通过设计两级跟踪器的结果比较,可以根据场景自适应选择更适合的跟踪器。跟踪状态判断通过评估当前结果的可信度,进而有选择性的输出高质量的目标跟踪结果,避免输出错误结果。本发明达到了稳定跟踪弱小目标并且跟踪计算实时性高的效果。
Description
技术领域
本发明涉及智能视频处理领域,具体涉及的是一种面向边缘智能的弱小目标层次化视觉跟踪方法。
背景技术
目标跟踪任务是根据在初始视频帧锁定目标的位置及尺度信息,持续预测该锁定目标在后续视频帧中的位置和尺度。目标跟踪技术在制导打击、安防监控、交通分析和人机交互等领域都有着重要的应用。现有的实际跟踪系统的数据处理方式主要分为两种形式。第一种数据处理方式是将部署地相机实时采集的视频数据传递到远端高速处理器进行计算,然后将远端处理器计算得到的目标状态回传到部署地完成跟踪任务。该方案的优势是可以依托本地处理器进行复杂运算,但是由于跟踪任务的实时性,该远端计算方案对于数据传输速度和传输带宽有着极为苛刻的要求。第二种数据处理方式是在部署地安置具有计算能力的边缘智能设备并将跟踪方案在该设备上本地实现,进而将采集的视频数据在该边缘智能设备上计算并完成跟踪。该方案具有部署场地灵活、无需网络环境、设备成本低和维护成本低的优势,被广泛应用。但是,由于边缘智能的硬件资源的限制,难以满足常用的视觉跟踪方案的计算开销。此外,由于弱小目标具有对比度低并且尺度小的特点,现有的跟踪方案往往难以稳定跟踪弱小目标,需要进行针对性的研究和设计。因此在边缘智能上实现对弱小目标的视觉跟踪是具有极大挑战的。
发明内容
针对应用在边缘智能的弱小目标视觉跟踪任务中存在的目标对比度低、尺度小以及跟踪实时性差的难题,本发明提供一种面向边缘智能的弱小目标层次化视觉跟踪方法,包括:弱小目标增强、一级跟踪器、二级跟踪器和跟踪状态判断。弱小目标增强是基于帧间动态平均值和帧间动态方差结果,进而更加稳定有效的在抑制背景并且增强弱小目标信息。一级跟踪器主要感知目标自身信息,而二级跟踪器侧重于感知目标周围背景。通过设计两级跟踪器的结果比较,可以根据场景自适应选择更适合的跟踪器。跟踪状态判断通过评估当前结果的可信度,进而有选择性的输出高质量的目标跟踪结果,避免输出错误结果。为达到上述目的,本发明采用如下技术方案:
一种面向边缘智能的弱小目标层次化视觉跟踪方法,包括以下步骤:
步骤(1)根据给定的正方形目标跟踪框,在目标中心位置周围裁剪出2倍于跟踪框边长的正方形区域s1和4倍于跟踪框边长的正方形区域s2;
步骤(2)采用倍于正方形目标跟踪框区域大小的滤波核,对正方形区域s1进行中值滤波,得到滤波后区域s10;采用θ20倍于正方形目标跟踪框区域大小的滤波核,对正方形区域s2进行中值滤波,得到滤波后区域s20,来消除潜在的视频采集噪声;
步骤(3)计算滤波后区域s10中的所有像素的灰度值的实时平均值mean10和实时标准差std10;计算滤波后区域s20中的所有像素的灰度值的实时平均值mean20和实时标准差std20;
步骤(4)计算滤波后区域s10的帧间动态平均值和帧间稳定动态/>计算滤波后区域s20的帧间动态平均值/>和帧间动态方差/>来避免跟踪环境变化带来的参数扰动:
其中,和mean10(i)分别是第i帧时s10区域对应的帧间动态平均值和实时平均值,/>和mean20(i)是第i帧时s20区域对应的帧间动态平均值和实时平均值;同理,/>std10(i)、/>std20(i)中的(i)同样代表第i帧;κmean10,κmean20分别代表了帧间动态平均值/>和/>的更新率;κstd10和κstd20分别代表了帧间动态方差/>和/>的更新率;
步骤(5)利用对滤波后区域s10进行弱小目标的增强处理,得到滤波后区域s10对应的目标增强图s11;利用/>和/>对滤波后区域s20进行弱小目标增强处理,得到滤波后区域s20对应的目标增强图s21,方法如下:
其中,s11(x,y)代表在目标增强图s11坐标为(x,y)的灰度值,x代表横坐标,y为纵坐标,s21(x,y)表示在目标增强图s21坐标为(x,y)处的灰度值,s10(x,y)代表区域s10坐标为(x,y)的灰度值,s20(x,y)表示在区域s20坐标为(x,y)处的灰度值,ε11和ε22是比例常数;
步骤(6)利用特征模型对目标增强图S11提取特征得到第一层次特征图S12;利用特征模型对目标增强图S21计算特征得到第二层次特征图S22;其中,特征模型包括HOG特征,颜色直方图特征和CN特征,具体如下:
其中,Fea表示特征模型,feaHOG,feaHARRIS,feaCN分别表示HOG特征,CN特征和颜色直方图特征,和/>为不同特征的比例系数,/>
步骤(7)利用第一层次特征图S12训练一级跟踪器,使一级跟踪器更加关注目标区域信息;利用第二层次特征图S22训练二级跟踪器,使得二级跟踪器更加关注目标背景区域信息;
步骤(8)以上一帧目标位置POS为中心,利用多核处理器同时启动一级跟踪器和二级跟踪器进行目标的定位;一级跟踪器的计算得到的跟踪结果为Pos1,对应的一级跟踪器响应值为r1;二级跟踪器的计算得到的跟踪结果为Pos2,对应的二级跟踪器响应值为r2;
步骤(9)比较一级跟踪器的响应值r1和二级跟踪器的响应值r2,当r1>δ1*r2时,设置临时目标位置Post=Pos1,设置响应值rc=r1;当r1≤δ1*r2时,设置临时目标位置POSt=Pos2,设置响应值rc=r2,其中δ1为响应判断阈值;计算参考响应值rref如下:
rref(i)=κref*rc(i)+(1-κref)*rref(i-1)
其中,κref表示响应值更新系数,rref(i)表示第i帧的参考响应值,rref(i-1)表示第i-1帧的参考响应值,rc(i)是第i帧的响应值。
步骤(10)比较响应值rc和参考响应值rref,当r1>δref*rref时,判断目标状态正常,输出当前帧目标位置POS=POSt;当r2≤δref*rref时,判断目标丢失,不输出当前帧目标位置POS,其中δref是参考量比例。
本发明与现有技术的有益效果在于:
(1)本发明设计了快速有效的弱小目标增强方法,为跟踪器提供了弱小目标的更多有效信息。不同于基于复杂增强模型和深度特征网络的弱小目标增强方法,我们设计的增强方法简洁高效的为后续跟踪器提供了充足的目标增强信息并且极大的降低了边缘智能的计算负担。我们计算了不同范围内当前帧图像的灰度均值和方差并且引入了帧间动态均值和帧间动态方差,确保了该弱标增强方法不仅可以当前帧的图像进行调整,同时可以避免跟踪环境快速变化导致的增强图像剧烈波动的情况。
(2)本发明基于弱小目标特点建立了鲁棒的特征融合模型。HOG特征描述目标轮廓方面的能力,并且该特征对于光照的变化更加鲁棒。CN特征描述了目标颜色的空间分布,对于弱小目标的颜色分布信息进行了准确的刻画。颜色直方图特征描述了目标在一定区域内的颜色统计特征,该特征不关注颜色空间分布,对于目标运动或者相机的移动导致目标旋转具有更鲁棒的判别能力。
(3)本发明依托边缘智能多核心的硬件基础,在不同核心上并行执行具有不同特点的一级跟踪器和二级跟踪器,确保了实时的跟踪速度。此外,用于训练一级跟踪器的第一层次特征图中具有大量的目标信息,使得一级跟踪器更多注重目标自身的变化。用于训练二级跟踪器的第二层次特征图中具有更多的背景信息,使得二级跟踪器更加关注目标周围环境的变化。
(4)本发明设计了跟踪状态判断的方式。不同于常见跟踪器由于无法判别跟踪结果的有效性,导致每帧都会输出一个目标坐标位置。本发明的状态判断部分利用两级跟踪器的结果以及参考响应值结果的对比,更加有效的判断当前帧跟踪目标的情况,避免边缘智能设备在跟踪目标遮挡时仍然持续输出错误的跟踪结果。
(5)本发明设计了层次化的跟踪结构,包括弱小目标增强、一级跟踪器和二级跟踪器和跟踪状态判断。这种层次化的跟踪结构有效的从跟踪器样本、跟踪器范围和跟踪器当前帧状态的角度,进一步提高了跟踪器对弱小目标的跟踪性能并且可以在边缘智能上获得了实时的计算速度。
附图说明
图1为本发明的一种面向边缘智能的弱小目标层次化视觉跟踪方法流程图;
图2为本发明的一级、二级感知机的搜索区域示意图;
图3为本发明中的弱小目标增强的效果示意图;
图4为本发明在边缘智能实现后对实际环境中的弱小目标跟踪效果图。
具体实施方案
下面结合附图及实施例对本发明进行详细说明。
如图1所示,本发明的一种面向边缘智能的弱小目标层次化视觉跟踪方法包括以下步骤:
步骤(1)根据给定的正方形目标跟踪框,在目标中心位置周围裁剪出2倍于正方形目标跟踪框边长的正方形区域s1和4倍于跟踪框边长的正方形区域s2。
步骤(2)采用倍于正方形目标跟踪框区域大小的滤波核,对正方形区域s1进行中值滤波,得到滤波后区域s10。类似的,采用/>倍于正方形目标跟踪框区域大小的滤波核,对正方形区域s2进行中值滤波,得到滤波后区域s20,来消除潜在的视频采集噪声,如图2所示。
步骤(3)计算滤波后区域s10中的所有像素的灰度值的实时平均值mean10和实时标准差std10;计算滤波后区域S20中的所有像素的灰度值的实时平均值mean20和实时标准差std20。
步骤(4)计算滤波后区域s10的帧间动态平均值和帧间稳定动态/>计算滤波后区域s20的帧间动态平均值/>和帧间动态方差/>来避免跟踪环境变化带来的参数扰动:
其中,设置κmean10=0.05,κmean20=0.3分别代表了帧间动态平均值和的更新率。/>和mean10是第i帧时s10区域对应的帧间动态平均值和实时平均值。/>和mean20是第i帧时s20区域对应的帧间动态平均值和实时平均值。同理,std10(i)、/>std20(i)中的(i)同样代表第i帧。κstd10和κstd20分别代表了帧间动态方差/>和/>的更新率。
步骤(5)利用对滤波后区域s10进行弱小目标的增强处理,得到滤波后区域s10对应的目标增强图s11;利用/>和/>对滤波后区域s20进行弱小目标增强处理,得到滤波后区域s20对应的目标增强图s21,方法如下:
其中,s11(x,y)代表在目标增强图s11坐标为(x,y)的灰度值,x代表横坐标,y为纵坐标。s21(x,y)表示在目标增强图s21坐标为(x,y)处的灰度值。s10(x,y)代表区域s10坐标为(x,y)的灰度值。s20(x,y)表示在区域s20坐标为(x,y)处的灰度值。设置ε11=0.8和ε22=1.5
是比例常数。弱小目标增强效果如图3所示。
步骤(6)利用特征模型对目标增强图S11提取特征得到第一层次特征图S12;利用特征模型对目标增强图S21计算特征得到第二层次特征图S22。其中,特征模型主要包括HOG特征,颜色直方图特征和CN特征,具体如下:
其中,Fea表示特征模型,feaHOG,feaHARRIS,feaCN分别表示HOG特征,CN特征和颜色直方图特征。设置和/>为不同特征的比例系数。
步骤(7)利用第一层次特征图S12训练一级跟踪器,使一级跟踪器更加关注目标区域信息;利用第二层次特征图S22训练二级跟踪器,使得二级跟踪器更加关注目标背景区域信息。两级跟踪器都是基于KCF相关滤波跟踪原理,具体训练方法如下:
一级跟踪器的损失函数为:
二级跟踪器的损失函数为:
其中,s11,i代表第一层次特征图S12,s21,i代表第二层次特征图S22。n是搜索区域通道数。f1(s11,i)=w2 Ts11为一级跟踪器计算得到的目标响应值,f2(s21,i)=w1Ts21为二级跟踪器计算得到的目标响应值,y1,i,y2,i分别代表一级跟踪器和二级跟踪器的高斯分布标签。w1和w2分别代表一级跟踪器和二级跟踪器参数。代表该式为最小化滤波器参数w。设置正则化系数λ=0.001。
进一步,将一级搜索区域s11,i和二级搜索区域s21,i进行高维映射:
其中,为基于核技巧的高维映射。γ1是一级跟踪器的变量。γ2是二级跟踪器的变量。通过计算一级跟踪器和二级跟踪器的损失函数的导数,当导数为0时的向量系数γ1和γ2为:
γ1=(K+λI)-1y1
γ2=(K+λI)-1y2
其中,K是核矩阵。为了加快计算速度,γ1和γ2在傅里叶域中进行计算。y1,i是yi的其中一个元素。然后,利用对角矩阵的性质将上式转换为线性表达式,即可得到感知机中的变量在傅里叶域的表达和/>进而达到训练跟踪器的目的:
其中,kxx是核矩阵的第一行。
步骤(8)以上一帧目标位置POS为中心,利用多核处理器同时启动一级跟踪器和二级跟踪器进行目标的定位。一级跟踪器的计算得到的跟踪结果为Pos1,对应的一级跟踪器响应值为r1;二级跟踪器的计算得到的跟踪结果为Pos2,对应的二级跟踪器响应值为r2;
步骤(9)比较一级跟踪器的响应值r1和二级跟踪器的响应值r2。当r1>δ1*r2时,设置临时目标位置POSt=Pos1,设置响应值rc=r1;当r1≤δ1*r2时,设置临时目标位置POSt=Pos2,设置响应值rc=r2,其中设置响应判断阈值δ1=1.2。计算参考响应值rref如下,设置响应值更新系数κref=0.2:
rref(i)=κref*rc(i)+(1-κref)*rref(i-1)
其中,rref(i)表示第i帧的参考响应值。rref(i-1)表示第i-1帧的参考响应值rc(i)是第i帧的响应值。
步骤(10)设置参考量比例δref=0.4,比较响应值rc和参考响应值rref。当r1>0.4*rref时,判断目标状态正常,输出当前帧目标位置POS=POSt;当r2≤0.4*rref时,判断目标丢失,不输出当前帧目标位置POS。
本发明在国产化FMQL边缘智能平台上的实际跟踪效果如图4所示,展现了本发明对于真实环境中的弱小目标具有实时、平稳、准确的跟踪能力。
Claims (1)
1.一种面向边缘智能的弱小目标层次化视觉跟踪方法,其特征在于,包括以下步骤:
步骤(1)根据给定的正方形目标跟踪框,在目标中心位置周围裁剪出2倍于跟踪框边长的正方形区域s1和4倍于跟踪框边长的正方形区域s2;
步骤(2)采用倍于正方形目标跟踪框区域大小的滤波核,对正方形区域s1进行中值滤波,得到滤波后区域s10;采用/>倍于正方形目标跟踪框区域大小的滤波核,对正方形区域s2进行中值滤波,得到滤波后区域s20;
步骤(3)计算滤波后区域s10中的所有像素的灰度值的实时平均值mean10和实时标准差std10;计算滤波后区域s20中的所有像素的灰度值的实时平均值mean20和实时标准差std20;
步骤(4)计算滤波后区域s10的帧间动态平均值和帧间稳定动态/>计算滤波后区域s20的帧间动态平均值/>和帧间动态方差/>
其中,和mean10分别是第i帧时s10区域对应的帧间动态平均值和实时平均值,/>和mean20是第i帧时s20区域对应的帧间动态平均值和实时平均值;同理,std10(i)、/>std20(i)中的(i)同样代表第i帧;κmean10,κmean20分别代表了帧间动态平均值/>和/>的更新率;κstd10和κstd20分别代表了帧间动态方差和/>的更新率;
步骤(5)利用对滤波后区域s10进行弱小目标的增强处理,得到滤波后区域s10对应的目标增强图s11;利用/>和/>对滤波后区域s20进行弱小目标增强处理,得到滤波后区域s20对应的目标增强图s21,方法如下:
其中,s11(x,y)代表在目标增强图s11坐标为(x,y)的灰度值,x代表横坐标,y为纵坐标,s21(x,y)表示在目标增强图s21坐标为(x,y)处的灰度值,s10(x,y)代表区域s10坐标为(x,y)的灰度值,s20(x,y)表示在区域s20坐标为(x,y)处的灰度值,ε11和ε22是比例常数;
步骤(6)利用特征模型对目标增强图S11提取特征得到第一层次特征图S12;利用特征模型对目标增强图S21计算特征得到第二层次特征图S22;其中,特征模型包括HOG特征,颜色直方图特征和CN特征,具体如下:
其中,Fea表示特征模型,feaHOG,feaHARRIS,feaCN分别表示HOG特征,CN特征和颜色直方图特征,和/>为不同特征的比例系数,/>
步骤(7)利用第一层次特征图S12训练一级跟踪器,使一级跟踪器更加关注目标区域信息;利用第二层次特征图S22训练二级跟踪器,使得二级跟踪器更加关注目标背景区域信息;
步骤(8)以上一帧目标位置POS为中心,利用多核处理器同时启动一级跟踪器和二级跟踪器进行目标的定位;一级跟踪器的计算得到的跟踪结果为Pos1,对应的一级跟踪器响应值为r1;二级跟踪器的计算得到的跟踪结果为Pos2,对应的二级跟踪器响应值为r2;
步骤(9)比较一级跟踪器的响应值r1和二级跟踪器的响应值r2,当r1>δ1*r2时,设置临时目标位置POSt=Pos1,设置响应值rc=r1;当r1≤δ1*r2时,设置临时目标位置POSt=Pos2,设置响应值rc=r2,其中δ1为响应判断阈值;计算参考响应值rref如下:
rref(i)=κref*rc(i)+(1-κref)*rref(i-1)
其中,κref表示响应值更新系数,rref(i)表示第i帧的参考响应值,rref(i-1)表示第i-1帧的参考响应值,rc(i)是第i帧的响应值;
步骤(10)比较响应值rc和参考响应值rref,当r1>δref*rref时,判断目标状态正常,输出当前帧目标位置POS=POSt;当r2≤δref*rref时,判断目标丢失,不输出当前帧目标位置POS,其中δref是参考量比例。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310999386.0A CN116912289B (zh) | 2023-08-09 | 2023-08-09 | 一种面向边缘智能的弱小目标层次化视觉跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310999386.0A CN116912289B (zh) | 2023-08-09 | 2023-08-09 | 一种面向边缘智能的弱小目标层次化视觉跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116912289A CN116912289A (zh) | 2023-10-20 |
CN116912289B true CN116912289B (zh) | 2024-01-30 |
Family
ID=88364911
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310999386.0A Active CN116912289B (zh) | 2023-08-09 | 2023-08-09 | 一种面向边缘智能的弱小目标层次化视觉跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116912289B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108010067A (zh) * | 2017-12-25 | 2018-05-08 | 北京航空航天大学 | 一种基于组合判断策略的视觉目标跟踪方法 |
CN108346159A (zh) * | 2018-01-28 | 2018-07-31 | 北京工业大学 | 一种基于跟踪-学习-检测的视觉目标跟踪方法 |
CN110929560A (zh) * | 2019-10-11 | 2020-03-27 | 杭州电子科技大学 | 融合目标检测与跟踪的视频半自动目标标注方法 |
CN111260738A (zh) * | 2020-01-08 | 2020-06-09 | 天津大学 | 基于相关滤波和自适应特征融合的多尺度目标跟踪方法 |
CN113947616A (zh) * | 2021-09-23 | 2022-01-18 | 北京航空航天大学 | 一种基于层级化感知机的智能目标跟踪及丢失重检方法 |
CN114972418A (zh) * | 2022-03-30 | 2022-08-30 | 北京航空航天大学 | 基于核自适应滤波与yolox检测结合的机动多目标跟踪方法 |
-
2023
- 2023-08-09 CN CN202310999386.0A patent/CN116912289B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108010067A (zh) * | 2017-12-25 | 2018-05-08 | 北京航空航天大学 | 一种基于组合判断策略的视觉目标跟踪方法 |
CN108346159A (zh) * | 2018-01-28 | 2018-07-31 | 北京工业大学 | 一种基于跟踪-学习-检测的视觉目标跟踪方法 |
CN110929560A (zh) * | 2019-10-11 | 2020-03-27 | 杭州电子科技大学 | 融合目标检测与跟踪的视频半自动目标标注方法 |
CN111260738A (zh) * | 2020-01-08 | 2020-06-09 | 天津大学 | 基于相关滤波和自适应特征融合的多尺度目标跟踪方法 |
CN113947616A (zh) * | 2021-09-23 | 2022-01-18 | 北京航空航天大学 | 一种基于层级化感知机的智能目标跟踪及丢失重检方法 |
CN114972418A (zh) * | 2022-03-30 | 2022-08-30 | 北京航空航天大学 | 基于核自适应滤波与yolox检测结合的机动多目标跟踪方法 |
Non-Patent Citations (8)
Title |
---|
基于多特征和尺度估计的核相关滤波跟踪算法;张伟;温显斌;;天津理工大学学报(第03期);全文 * |
尺度自适应核相关滤波目标跟踪;高美凤;张晓玄;;激光与光电子学进展(第04期);全文 * |
张伟 ; 温显斌 ; .基于多特征和尺度估计的核相关滤波跟踪算法.天津理工大学学报.2020,(第03期),全文. * |
自适应特征融合的多尺度相关滤波目标跟踪算法;陈智;柳培忠;骆炎民;汪鸿翔;杜永兆;;计算机辅助设计与图形学学报(第11期);全文 * |
融合运动状态信息的高速相关滤波跟踪算法;韩锟;杨穷千;;湖南大学学报(自然科学版)(第04期);全文 * |
陈智 ; 柳培忠 ; 骆炎民 ; 汪鸿翔 ; 杜永兆 ; .自适应特征融合的多尺度相关滤波目标跟踪算法.计算机辅助设计与图形学学报.2018,(第11期),全文. * |
韩锟 ; 杨穷千 ; .融合运动状态信息的高速相关滤波跟踪算法.湖南大学学报(自然科学版).2020,(第04期),全文. * |
高美凤 ; 张晓玄 ; .尺度自适应核相关滤波目标跟踪.激光与光电子学进展.2017,(第04期),全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN116912289A (zh) | 2023-10-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105426820B (zh) | 基于安防监控视频数据的多人异常行为检测方法 | |
CN103258332B (zh) | 一种抗光照变化的运动目标的检测方法 | |
CN106023245B (zh) | 基于中智集相似度量测的静态背景下运动目标检测方法 | |
TWI441096B (zh) | 適用複雜場景的移動偵測方法 | |
CN110084201B (zh) | 一种监控场景下基于特定目标跟踪的卷积神经网络的人体动作识别方法 | |
Liu et al. | Moving detection research of background frame difference based on Gaussian model | |
CN104036526A (zh) | 一种基于自适应窗的灰度目标跟踪方法 | |
Qi et al. | Small infrared target detection utilizing local region similarity difference map | |
CN104881851A (zh) | 一种基于双高斯差模型的自适应图像目标增强方法 | |
CN111783675A (zh) | 基于车辆语义感知的智慧城市视频自适应hdr控制方法 | |
CN111353496A (zh) | 一种红外弱小目标实时检测方法 | |
CN112288778A (zh) | 一种基于多帧回归深度网络的红外小目标检测方法 | |
CN110135435B (zh) | 一种基于广度学习系统的显著性检测方法及装置 | |
Mao et al. | Multi-source fusion for weak target images in the Industrial Internet of Things | |
Liu et al. | SETR-YOLOv5n: A lightweight low-light lane curvature detection method based on fractional-order fusion model | |
Lee et al. | An edge detection–based eGAN model for connectivity in ambient intelligence environments | |
CN114067251A (zh) | 一种无监督监控视频预测帧异常检测方法 | |
CN116912289B (zh) | 一种面向边缘智能的弱小目标层次化视觉跟踪方法 | |
CN111667498B (zh) | 一种面向光学卫星视频的运动舰船目标自动检测方法 | |
CN116758421A (zh) | 一种基于弱监督学习的遥感图像有向目标检测方法 | |
CN104240268B (zh) | 一种基于流形学习与稀疏表示的行人跟踪方法 | |
CN108805909B (zh) | 在相关滤波框架下基于粒子滤波重检测的目标跟踪方法 | |
Li et al. | Spatio-context-based target tracking with adaptive multi-feature fusion for real-world hazy scenes | |
Li et al. | Research on road traffic moving target detection method based on sequential inter frame difference and optical flow method | |
Yuxi et al. | A new motion obstacle detection based monocular-vision algorithm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |