CN108447078A - 基于视觉显著性的干扰感知跟踪算法 - Google Patents
基于视觉显著性的干扰感知跟踪算法 Download PDFInfo
- Publication number
- CN108447078A CN108447078A CN201810167694.6A CN201810167694A CN108447078A CN 108447078 A CN108447078 A CN 108447078A CN 201810167694 A CN201810167694 A CN 201810167694A CN 108447078 A CN108447078 A CN 108447078A
- Authority
- CN
- China
- Prior art keywords
- target
- response
- indicate
- tracking
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004422 calculation algorithm Methods 0.000 title claims abstract description 46
- 230000004044 response Effects 0.000 claims abstract description 85
- 230000004927 fusion Effects 0.000 claims abstract description 8
- 230000008859 change Effects 0.000 claims abstract description 7
- 239000011159 matrix material Substances 0.000 claims description 36
- 238000001914 filtration Methods 0.000 claims description 19
- 238000010586 diagram Methods 0.000 claims description 15
- 238000001514 detection method Methods 0.000 claims description 14
- 230000006870 function Effects 0.000 claims description 13
- 230000009977 dual effect Effects 0.000 claims description 12
- 238000012549 training Methods 0.000 claims description 9
- 238000005070 sampling Methods 0.000 claims description 7
- 230000003044 adaptive effect Effects 0.000 claims description 4
- 238000010276 construction Methods 0.000 claims description 4
- 238000000354 decomposition reaction Methods 0.000 claims description 3
- 238000009499 grossing Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 230000017105 transposition Effects 0.000 claims description 3
- 238000000034 method Methods 0.000 abstract description 7
- 230000000694 effects Effects 0.000 abstract description 4
- 230000000007 visual effect Effects 0.000 description 21
- 238000012544 monitoring process Methods 0.000 description 13
- 238000005516 engineering process Methods 0.000 description 10
- 238000011160 research Methods 0.000 description 10
- 230000006872 improvement Effects 0.000 description 9
- 238000004458 analytical method Methods 0.000 description 8
- 230000003542 behavioural effect Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000003909 pattern recognition Methods 0.000 description 4
- 206010000117 Abnormal behaviour Diseases 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 238000007634 remodeling Methods 0.000 description 2
- 238000012827 research and development Methods 0.000 description 2
- 241000195940 Bryophyta Species 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000002547 anomalous effect Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000035800 maturation Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
- G06F18/24155—Bayesian classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration using histogram techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于视觉显著性的干扰感知跟踪算法,包括以下步骤:S1、输入视频图像;S2、用梯度方向直方图特征表征图像中的待跟踪目标的外观模型,并计算梯度方向直方图扰动模型;S3、计算输出响应和上下文感知相关跟踪响应;S4、加权融合得到目标加权响应,最大响应所在位置即待跟踪目标所在位置,并估计目标尺度与位置变化;S5、当待跟踪目标被遮挡时,计算视觉显著性图,根据候选目标位置估计待跟踪目标位置;S6、根据待跟踪目标情况更新外观模型和扰动模型;S7、输入下一帧图像,返回至步骤S1。本发明可解决现有目标跟踪方法中易受光照变化、低分辨率、尺度变化、遮挡、相似目标和嘈杂背景等影响跟踪效果的问题。
Description
技术领域
本发明属于图像目标跟踪的技术领域,具体涉及一种复杂场景下基于视觉显著性的干扰感知跟踪算法。
背景技术
智能监控系统(Intelligent Monitor System,IMS),它是采用图像处理、模式识别和计算机识别技术,通过在监控中增加智能分析模块,借助计算机强大的数据处理能力过滤掉视频画面中无用或者干扰信息,自动识别不同的物体,分析抽取图像中可用信息,快速准确的定位事故现场,判断监控画面中的异常行为,并以最快和最佳的方式发出报警或触发其它动作,从而有效进行事前报警,事中处理,事后及时取证的全自动、全天候、实时监控的智能系统。近年来,随着计算机视觉技术和集成电路的发展和成熟,智能视觉监控系统所需要的硬件成本大大的降低,智能监控系统被广泛应用于医院、火车站和学校等公开场所,智能监控系统的采用可以显著性降低监控场景下的人工成本,提高监控系统的可靠性与有效性,降低异常事件的发生机率。由于在现实生活中,大量且有意义的视觉信息主要包含在运动目标之中,而且在大部分的监控场合,监控对象一般是监视场景中运动的行人。因此,智能视频监控不仅要求能够检测到环境中的运动,而且要求能够检测环境中的人或者物体,并进行可靠的跟踪。智能视觉监控系统实际上就是对进入监控视野范围内的运动物体或者行人进行实时检测,跟踪,识别和行为分析。
视觉目标跟踪系统(Visual Object Tracking System,VOTS)是智能监控系统中的重要组成部分,它从监控图像信息中运动物体进行自动检测,获取跟踪目标并提取目标特征,构建目标外观模型,进行跟踪器训练,最终对目标进行连续跟踪并进行模型更新,输出目标物体的相关参数信息,如位置、尺度和轨迹等。视觉目标跟踪系统可以实时的输出跟踪目标位置信息,然后对跟踪结果进行相应处理和行为分析,实现对目标的行为理解或者更高一级的任务,而传统的物体检测算法通常无法实时得获取目标位置与图像信息。随着髙性能计算机和高质量且廉价的摄像终端的增多,以及自动视频分析需求量的增大,视觉目标跟踪系统吸引越来越多科研人员的注意力。
目标跟踪技术是视觉目标跟踪系统中的核心部分,它具有广泛的发展前景与应用前景,其在视频会议、图像压缩、三维重构、机器人视觉导航、行为分析等领域均具有重要应用价值。目标跟踪技术涉及模式识别、图像处理、矩阵论、人工智能、信息论和计算机等众多学科,是一门综合实用性技术。目标跟踪技术是计算机视觉与模式识别在智能监控领域应用的重要研究课题之一。
国外在视觉目标跟踪方面的研究较早,其开发出来的目标跟踪系统被应用到各个领域中,如:早在上个世纪50年代,GAC公司就为美国海军研发出自动地形识别与跟踪系统,其能够对复杂场景下的目标进行自动检测、识别与跟踪,但是其自动化程度较低;美国马里兰大学成功研发出一种实时视觉目标跟踪系统,其能对复杂场景下行人进行跟踪与定位,实时分析公共场所下任务的行为特征;IBM技术研究院开发出Smart Surveillance Systemw4智能监控系统能对公共场所进行实时监控,自主分析异常行为,并对异常目标进行跟踪并报警,降低公共场所下的不安全因素,同时此系统已经被应用到北京奥运会;英国爱丁堡大学开发的BEHAVE(Conputed-assisted prescreening of video stream for unusualactivities)项目利用视频处理技术对异常行为进行检测与跟踪;雷丁大学与法国INRIA等研究机构联合研制机场智能监控系统,对机场内的飞机、汽车和行人进行多角度实时监控,且能够实时向管理系统报告各种突发事件,对机场进行有效的视觉目标跟踪与分析,从而提高机场的安全系数。近年来美国与欧洲等国都相继开发智能监控系统,使得目标检测与视觉目标跟踪技术应用到实际工程中。
国内对视觉目标跟踪系统的研究起步较晚,目前我国的总体研究水平是处于正赶超国外领先水平的阶段,许多科研单位和高效对视觉目标跟踪理论与技术进行了深入的研究,如:大疆公司开发的Phantom无人机能依靠机器视觉对目标进行自动识别与跟踪,并且具有自主避障功能;中科院自动化研究所模式识别国家重点实验室(National Laboratoryof Pattern Recognition,NLPR)的生物识别与技术研究中心在目标跟踪领域中进行了大量的研究,并在人体运动的视觉分析、监控场景下行为分析和自主导航等方面取得不错科研成果;西安交通大学的图像处理与识别研究所、清华大学图形图像研究所等也对视觉目标跟踪技术进行了深入的研究,取得了卓有成效的结果;国内海康威视、大华等公司分别开发出具有自动跟踪与报警的视觉监控系统。虽然国内已经开发出大量的视觉目标跟踪系统,但是与国外目标跟踪系统相比,其仍然很难解决复杂场景下的精确目标跟踪任务,仍需要加大自主研发的投入力度,努力实现复杂场景下的鲁棒与实时目标跟踪。
视觉目标跟踪作为计算机视觉领域中的一个重要研究分支,其已经被广泛的应用到无人驾驶、人机交互、智能监控和虚拟现实等诸多领域中。在实际跟踪环境中,跟踪目标往往受背景嘈杂、尺度变化、形变和遮挡等因素影响,如何解决复杂背景下的精确目标跟踪问题仍是视觉目标跟踪领域中的一个难点与热点。
视觉目标跟踪技术的关键是数据采集和目标跟踪算法。由于跟踪环境的复杂性与跟踪目标的多样性,比如跟踪目标可能是行人、汽车或者其它物体,以及跟踪目标易受光照、相似目标干扰、形变、遮挡、低分辨率和尺度变化等因素影响,现存跟踪系统跟踪成功率和精确性并不高,所以到目前为止仍没有一个算法可以完全解决复杂场景下的精确目标跟踪任务。
视觉目标跟踪算法主要可以分为判别式跟踪和生成式跟踪。生成式跟踪需要构建复杂的目标外观模型,并以粒子滤波算法为框架,其算法计算复杂度较高,往往不能实现在线实时跟踪;而生成式方法不需要构建复杂目标外观模型,其将跟踪看做是在线分类问题,将跟踪问题转化为求解最优分类器的过程,利用分类器将跟踪目标从背景中区分出来。
最近几年,判别式跟踪方法得到快速发展,涌现出大量优秀的跟踪算法。Bolme等提出最小均方误差下输出平方和(Minimum Output Sum of Squared Error,MOSSE)的相关滤波跟踪,其首次将相关滤波理论引入到目标跟踪中,通过在灰度图像上训练得到最小均方误差下的相关滤波分类器,将时域内的计算转换到频域,极大的降低了计算花费,提高了目标跟踪的速度;Henriques等提出核相关滤波(Kernelized Correlation Filter,KCF)跟踪算法,用梯度方向直方图(Histogram ofOriented Gradient,HOG)特征表征目标的外观模型,利用核策略和循环结构将时域内的卷积操作转换为频域内的点积操作,显著提高了核相关滤波算法的跟踪精确度和跟踪鲁棒性;Zhang等提出时空上下文(Spatio-Temporalcontext,STC)跟踪算法,通过贝叶斯框架对目标与其周围的局部上下文信息进行时空关系建模,得到目标与其周围背景信息的统计相关性,利用目标置信度图估计目标所在位置;Ma等提出一种长期相关跟踪(Long-term Correlation Tracking,LCT)算法,引入在线重检测机制,利用随机蕨分类器解决目标跟踪失败情况下的重定位问题,提高了算法鲁棒性。
传统的相关滤波跟踪算法中因为利用局部特征表征目标外观模型,其对目标形变与嘈杂背景下的干扰较为敏感,且无法解决遮挡情况下的目标模板更新问题和重定位问题,因此未能很好解决背景嘈杂、形变和遮挡情况下的目标跟踪问题。
发明内容
本发明的目的在于避免现有技术中的不足而提供一种基于视觉显著性的干扰感知跟踪算法,以解决现有目标跟踪方法中易受光照变化、低分辨率、尺度变化、遮挡、相似目标和嘈杂背景等影响跟踪效果的问题。
本发明的目的通过以下技术方案实现:
提供一种基于视觉显著性的干扰感知跟踪算法,包括以下步骤:
S1、参数初始化后,输入视频图像;
S2、用梯度方向直方图特征表征图像中的待跟踪目标的外观模型,并计算梯度方向直方图扰动模型;
S3、利用贝叶斯分类器根据直方图扰动模型计算输出响应,根据梯度方向直方图特征计算上下文感知相关跟踪响应;
S4、对直方图扰动模型输出响应、上下文感知相关跟踪响应进行加权融合得到目标加权响应,最大响应所在位置即待跟踪目标所在位置,并估计目标尺度与位置变化;
S5、当待跟踪目标未被遮挡时,进入步骤S6,当待跟踪目标被遮挡时,计算视觉显著性图,获取候选目标位置,根据候选目标位置估计待跟踪目标位置;
S6、根据待跟踪目标情况更新外观模型和扰动模型;
S7、输入下一帧图像,返回至步骤S1,直至确定最后一帧图像中待跟踪目标所在位置。
作为进一步的改进,在步骤S5中,当有多个候选目标时,对各个候选目标得分进行排名并根据排名情况估计待跟踪目标位置。
作为进一步的改进,在步骤S3中,计算输出响应时,将目标跟踪问题转化为求解最小均方误差下的岭回归问题,以此获得定义最优分类器参数,其定义为:
其中,λ是正则化因子,w是分类器参数,xi表示由基础样本x循环偏移产生的训练样本,yi为训练样本xi对应的训练标签或者期望输出标签,标签函数y服从高斯分布且yi∈[0,1];
求解公式(1)的闭环解,获得最小均方误差下的最优分类器为:
其中,X表示由循环偏移样本组成的循环数据矩阵,上标T表示矩阵的转置,I表示单位矩阵;
利用核函数w=∑iαix将其转换到对偶空间下,并利用快速傅里叶变换和循环矩阵性质将时域内计算转换到频域,得到:
其中,上标∧表示傅里叶变换,上标*表示共轭矩阵,符号⊙表示矩阵对应位置元素的点乘,α表示对偶空间下的分类器参数;
在跟踪过程中利用公式(3)得到分类器参数,然后进行目标快速响应检测,其定义为:
其中,F-1表示傅里叶逆变换,z表示当前跟踪帧的输入图像,f(z)为计算得到的时域内输入图像响应图,在响应图中最大响应所在位置就是跟踪目标所在位置。
作为进一步的改进,在步骤S3中,计算上下文感知相关跟踪响应时,将目标周围的上下文信息引入到相关滤波分类器训练过程中,构造上下文感知相关跟踪器,在目标周围采样n个上下文图像块目标搜索窗口区域为x,图像块和x所对应的循环数据矩阵为和X,则公式(1)变为:
其中,λ1和λ2均表示正则化因子;
将公式(5)改写为:
其中, 表示上下文图像样本的的循环偏移样本;
对公式(6)求闭环求解,得到分类器参数为:
其中,B表示由所有循环偏移样本Bi组成的循环数据矩阵;
将循环数据矩阵B和BT代入公式(7)中,并由循环矩阵的性质和对公式(7)进行化简有:
利用分类器实现快速目标检测,得到目标响应为:
利用公式(3)得到对偶空间下分类器定义:
利用循环矩阵的性质,将矩阵B和BT代入公式(10)化简得到:
根据公式(11)将此系统分解为数个子系统进行求解,此时计算得到分类器参数α=[α0,...,αk],将数据参数代入f(z)=ZBTα中化简得到:
由公式(12)求得对偶空间下频域内输入图像的响应,利用快速傅里叶变换将其转换到时域内,最大响应所在位置就是跟踪目标所在位置。
作为进一步的改进,在步骤S3中,利用贝叶斯分类器根据直方图扰动模型计算输出响应时,首先建立目标图像的颜色概率模型,利用贝叶斯分类器对目标像素和背景像素进行建模,得到:
其中,O和B分别表示目标像素区域与背景像素区域,P(bc|c∈O)表示O中像素c属于区间bc的直方图概率,P(bc|c∈Ω)表示像素空间Ω中像素属于区间bc的概率,P(c∈O|O,B,bc)为构造的贝叶斯分类器模型,其表示像素c属于目标像素的概率;
对公式(13)进行重写得到:
其中,和分别表示目标与背景的颜色直方图,且满足这里|O|和|B|表示目标区域与背景区域内的像素个数;
引入目标-扰动模型,其定义如下:
其中,表示扰动区域的颜色直方图模型;
通过公式(14)和(15)得到最终的目标联合概率模型:
P(c∈O|bc)=η×P(c∈O|O,B,bc)+(1-η)P(c∈O|O,D,bc) (16)
最终由目标联合概率直方图得到的响应图定义为:
其中,|Wz|表示搜索窗口z内的像素个数,表示第t帧时像素ci,j属于目标像素的概率值,f(z)hist为表示输入图像z的颜色直方图概率响应。
作为进一步的改进,在步骤S5中,计算视觉显著性图时,利用图像签名算法获取输入图像的稀疏显著性图,图像签名算法定义为:
ImageSignature(x)=sign[DCT(x)] (18)
其中,DCT(·)表示离散傅里叶变化,sign(·)表示符号函数,ImageSignature(·)表示输入图像的签名图像;
图像签名重构图像定义为:
其中, 即为利用图像签名算法重构的图像;
利用图像签名重构图像计算稀疏显著性图,有:
其中,xsalient为目标图像稀疏显著性图,g为高斯平滑函数,*表示矩阵的卷积操作。
作为进一步的改进,在步骤S4中,将直方图扰动模型输出响应、上下文感知相关跟踪响应进行加权融合,得到最终的目标响应图:
f(z)′=δfcf(z)+(1-δ)fhist(z) (21)
其中,δ表示响应权重因子,f(z)′是目标的联合响应图,其最大响应所在位置就是跟踪目标所在位置。
作为进一步的改进,在步骤S5中,在跟踪过程中利用峰旁比对目标响应置信度进行估计,以此判别跟踪目标是否发生遮挡,当目标响应置信度低于指定阈值,利用稀疏显著性图获得候选目标V={v1,...,vk},然后计算不同候选目标的相关滤波响应,响应最大的候选目标即为跟踪目标所在位置。
作为进一步的改进,在步骤S5中,判断目标是否发生遮挡利用如下公式:
其中,表示当前帧目标响应峰旁比,表示峰旁比阈值,φ表示目标是否发生遮挡,当为1时表示跟踪正常,为0时表示出现跟踪遮挡。
作为进一步的改进,在步骤S6中,采用自适应更新策略对目标模板和直方图模型进行更新:
其中,表示模板学习速率,xt和P(c∈O|bc)t表示第t帧学习得到的目标模板和直方图模型,和表示第t帧采样得到的目标样本和直方图模型;
同时,对公式(7)中的相关滤波分类器分子和分母进行更新:
其中,Bt表示第t帧学习得到的循环样本数据矩阵,表示第t帧采样得到的循环样本数据矩阵。
本发明提供的基于视觉显著性的干扰感知跟踪算法,包括以下步骤:S1、参数初始化后,输入视频图像;S2、用梯度方向直方图特征表征图像中的待跟踪目标的外观模型,并计算梯度方向直方图扰动模型;S3、利用贝叶斯分类器根据直方图扰动模型计算输出响应,根据梯度方向直方图特征计算上下文感知相关跟踪响应;S4、对输出响应、相关响应进行加权融合得到目标加权响应,最大响应所在位置即待跟踪目标所在位置,并估计目标尺度与位置变化;S5、当待跟踪目标未被遮挡时,进入步骤S6,当待跟踪目标被遮挡时,计算视觉显著性图,获取候选目标位置,根据候选目标位置估计待跟踪目标位置;S6、根据待跟踪目标情况更新外观模型;S7、输入下一帧图像,返回至步骤S1,直至确定最后一帧图像中待跟踪目标所在位置。本发明基于视觉显著性和扰动模型的上下文感知跟踪,通过加权响应的方式将上下文感知相关滤波器与直方图扰动模型进行融合,显著提高嘈杂背景与目标形变下分类器的分类能力;利用视觉显著性图引入重检测机制,解决严重遮挡下的目标重定位问题;利用自适应模板更新策略,解决复杂背景下的目标遮挡问题。
附图说明
利用附图对本发明作进一步说明,但附图中的实施例不构成对本发明的任何限制,对于本领域的普通技术人员,在不付出创造性劳动的前提下,还可以根据以下附图获得其它的附图。
图1是基于视觉显著性的干扰感知跟踪算法的流程图。
图2是稀疏显著性检测示意图。
具体实施方式
为了使本领域的技术人员更好地理解本发明的技术方案,下面结合附图和具体实施例对本发明作进一步详细的描述,需要说明的是,在不冲突的情况下,本申请的实施例及实施例中的特征可以相互组合。
如图1所示,本发明实施例提供的一种基于视觉显著性的干扰感知跟踪算法,包括以下步骤:
S1、参数初始化后,输入视频图像;
S2、用梯度方向直方图特征表征图像中的待跟踪目标的外观模型,并计算梯度方向直方图扰动模型;
S3、利用贝叶斯分类器根据直方图扰动模型计算输出响应,根据梯度方向直方图特征计算上下文感知相关跟踪响应;
S4、对直方图扰动模型输出响应、上下文感知相关跟踪响应进行加权融合得到目标加权响应,最大响应所在位置即待跟踪目标所在位置,并估计目标尺度与位置变化;
S5、当待跟踪目标未被遮挡时,进入步骤S6,当待跟踪目标被遮挡时,计算视觉显著性图,获取候选目标位置,根据候选目标位置估计待跟踪目标位置;
S6、根据待跟踪目标情况更新外观模型和扰动模型;
S7、输入下一帧图像,返回至步骤S1,直至确定最后一帧图像中待跟踪目标所在位置。
为了解决嘈杂背景下的目标跟踪问题,本发明提出基于视觉显著性和扰动模型的上下文感知跟踪,图1为本发明所提算法的流程框图,下面为本发明算法关键点的详细介绍。
相关滤波算法中,将目标跟踪问题转化为求解最小均方误差下的岭回归问题,以此获得最优分类器参数,其定义为:
这里λ是正则化因子,作用是防止分类器过拟合,w是分类器参数,xi表示由基础样本x循环偏移产生的训练样本,yi为训练样本xi对应的训练标签或者期望输出标签,标签函数y服从高斯分布且yi∈[0,1]。
求解公式(1)的闭环解,获得最小均方误差下的最优分类器为:
这里X表示由循环偏移样本组成的循环数据矩阵,上标T表示矩阵的转置,I表示单位矩阵。
由公式(2)可知此分类器只能解决线性输入问题,为解决非线性输入问题,利用核函数w=∑iαix将其转换到对偶空间下,并利用快速傅里叶变换和循环矩阵性质将时域内计算转换到频域,得到:
这里上标∧表示傅里叶变换,上标*表示共轭矩阵,符号⊙表示矩阵对应位置元素的点乘,α表示对偶空间下的分类器参数。
在跟踪过程中利用公式(3)得到分类器参数,然后进行目标快速响应检测,其定义为:
这里F-1表示傅里叶逆变换,z表示当前跟踪帧的输入图像,f(z)为计算得到的时域内输入图像响应图,在响应图中最大响应所在位置就是跟踪目标所在位置。
在相关滤波跟踪中,跟踪目标容易受到背景干扰影响,目标周围的上下文信息对提高跟踪算法鲁棒性有重要作用,而在本发明的上下文感知跟踪中,将目标周围的上下文信息引入到相关滤波分类器训练过程中,构造上下文感知相关跟踪器。在上下文感知相关跟踪算法中,在目标周围采样n个上下文图像块目标搜索窗口区域为x,图像块和x所对应的循环数据矩阵为和X,则公式(1)变为:
这里λ1和λ2均表示正则化因子。
为了推导方便,将公式(5)改写为:
这里有 表示上下文图像样本的的循环偏移样本。
对公式(6)求闭环求解,得到分类器参数为:
这里B表示由所有循环偏移样本Bi组成的循环数据矩阵。
将循环数据矩阵B和BT代入公式(7)中,并由循环矩阵的性质和对公式(7)进行化简有:
此时利用分类器实现快速目标检测,得到目标响应为:
同理类似于公式(3)可以得到对偶空间下分类器定义:
利用循环矩阵的性质,将矩阵B和BT代入公式(10)化简得到:
由公式(11)可知所有子数据块均可对角化,说明任意两个子数据块是相互独立的,因此可以将此系统分解为数个子系统进行求解,此时计算得到分类器参数α=[α0,...,αk],将数据参数代入f(z)=ZBTα中化简得到:
由公式(12)求得对偶空间下频域内输入图像的响应,利用快速傅里叶变换将其转换到时域内,最大响应所在位置就是跟踪目标所在位置。
为了提高形变情况下跟踪算法的鲁棒性,本发明引入直方图扰动模型。相关滤波算法对目标形变较为敏感,相关滤波跟踪通常利用局部特征构建目标外观模型(如,HOG特征、灰度特征),因此对目标外观模型的局部变化较为敏感,而直方图模型利用的是统计特征,虽然直方图跟踪对光照变化较为敏感,但是其对目标形变具有较好的跟踪鲁棒性,利用直方图扰动模型能有效提高复杂背景下的相似目标干扰问题,下面对直方图扰动模型进行介绍:
首先建立目标图像的颜色概率模型,利用贝叶斯分类器对目标像素和背景像素进行建模,得到:
这里O和B分别表示目标像素区域与背景像素区域,P(bc|c∈O)表示O中像素c属于区间bc的直方图概率,P(bc|c∈Ω)表示像素空间Ω中像素属于区间bc的概率,P(c∈O|O,B,bc)为构造的贝叶斯分类器模型,其表示像素c属于目标像素的概率。
为了更好的理解公式(13),对公式(13)进行重写得到:
这里和分别表示目标与背景的颜色直方图,且满足这里|O|和|B|表示目标区域与背景区域内的像素个数。
公式(14)是关于目标与背景的颜色概率模型,为了提高算法的抗扰动能力,再引入目标-扰动模型,其定义如下:
这里的表示扰动区域的颜色直方图模型。
通过公式(14)和(15)得到最终的目标联合概率模型:
P(c∈O|bc)=η×P(c∈O|O,B,bc)+(1-η)P(c∈O|O,D,bc) (16)
最终由目标联合概率直方图得到的响应图定义为:
这里|Wz|表示搜索窗口z内的像素个数,表示第t帧时像素ci,j属于目标像素的概率值,f(z)hist为表示输入图像z的颜色直方图概率响应。
为了解决遮挡情况下的目标跟踪问题,本发明利用显著性检测构建目标重检测模块。本发明利用图像签名算法获取输入图像的稀疏显著性图(如图2所示,),图像签名算法定义为:
ImageSignature(x)=sign[DCT(x)] (18)
这里DCT(·)表示离散傅里叶变化,sign(·)表示符号函数,ImageSignature(·)表示输入图像的签名图像。
图像签名重构图像定义为:
这里 即为利用图像签名算法重构的图像。
利用图像签名重构图像计算稀疏显著性图,有:
这里xsalient为目标图像稀疏显著性图,g为高斯平滑函数,*表示矩阵的卷积操作。
为了提高目标跟踪鲁棒性,将上下文相关跟踪响应与直方图扰动模型响应进行加权融合,得到最终的目标响应图:
f(z)′=δfcf(z)+(1-δ)fhist(z) (21)
这里δ表示响应权重因子,f(z)′是目标的联合响应图,其最大响应所在位置就是跟踪目标所在位置。
在跟踪过程中利用峰旁比对目标响应置信度进行估计,以此判别跟踪目标是否发生遮挡,当目标置信度低于指定阈值,利用稀疏显著性图获得候选目标V={v1,...,vk},然后计算不同候选目标的相关滤波响应,响应最大的候选目标即为跟踪目标所在位置,从而解决目标重定位问题。这里判断目标是否发生遮挡利用如下公式:
这里表示当前帧目标响应峰旁比,表示峰旁比阈值,φ表示目标是否发生遮挡,当为1时表示跟踪正常,为0时表示出现跟踪遮挡。
采用自适应更新策略对目标模板和直方图模型进行更新;
这里的表示模板学习速率,xt和P(c∈O|bc)t表示第t帧学习得到的目标模板和直方图模型,和表示第t帧采样得到的目标样本和直方图模型。
同时对公式(7)中的相关滤波分类器分子和分母进行更新:
这里Bt表示第t帧学习得到的循环样本数据矩阵,表示第t帧采样得到的循环样本数据矩阵。
同时为了解决目标尺度变化问题,本发明采用尺度池策略对目标图像进行不同尺度采样,获取不同尺度大小的目标图像si表示尺度因子,然后对不同尺度图像进行线性插值,利用相关滤波算法计算不同尺度目标图像块响应,最大响应所在尺度就是当前目标尺度变化情况。
上面的描述中阐述了很多具体细节以便于充分理解本发明,但是,本发明还可以采用其他不同于在此描述的其他方式来实施,因此,不能理解为对本发明保护范围的限制。
总之,本发明虽然列举了上述优选实施方式,但是应该说明,虽然本领域的技术人员可以进行各种变化和改型,除非这样的变化和改型偏离了本发明的范围,否则都应该包括在本发明的保护范围内。
Claims (10)
1.一种基于视觉显著性的干扰感知跟踪算法,其特征在于,包括以下步骤:
S1、参数初始化后,输入视频图像;
S2、用梯度方向直方图特征表征图像中的待跟踪目标的外观模型,并计算梯度方向直方图扰动模型;
S3、利用贝叶斯分类器根据直方图扰动模型计算输出响应,根据梯度方向直方图特征计算上下文感知相关跟踪响应;
S4、对直方图扰动模型输出响应、上下文感知相关跟踪响应进行加权融合得到目标加权响应,最大响应所在位置即待跟踪目标所在位置,并估计目标尺度与位置变化;
S5、当待跟踪目标未被遮挡时,进入步骤S6,当待跟踪目标被遮挡时,计算视觉显著性图,获取候选目标位置,根据候选目标位置估计待跟踪目标位置;
S6、根据待跟踪目标情况更新外观模型和扰动模型;
S7、输入下一帧图像,返回至步骤S1,直至确定最后一帧图像中待跟踪目标所在位置。
2.根据权利要求1所述的基于视觉显著性的干扰感知跟踪算法,其特征在于,在步骤S5中,当有多个候选目标时,对各个候选目标得分进行排名并根据排名情况估计待跟踪目标位置。
3.根据权利要求1或2所述的基于视觉显著性的干扰感知跟踪算法,其特征在于:在步骤S3中,计算输出响应时,将目标跟踪问题转化为求解最小均方误差下的岭回归问题,以此获得定义最优分类器参数,其定义为:
其中,λ是正则化因子,w是分类器参数,xi表示由基础样本x循环偏移产生的训练样本,yi为训练样本xi对应的训练标签或者期望输出标签,标签函数y服从高斯分布且yi∈[0,1];
求解公式(1)的闭环解,获得最小均方误差下的最优分类器为:
其中,X表示由循环偏移样本组成的循环数据矩阵,上标T表示矩阵的转置,I表示单位矩阵;
利用核函数w=∑iαix将其转换到对偶空间下,并利用快速傅里叶变换和循环矩阵性质将时域内计算转换到频域,得到:
其中,上标∧表示傅里叶变换,上标*表示共轭矩阵,符号⊙表示矩阵对应位置元素的点乘,α表示对偶空间下的分类器参数;
在跟踪过程中利用公式(3)得到分类器参数,然后进行目标快速响应检测,其定义为:
其中,F-1表示傅里叶逆变换,z表示当前跟踪帧的输入图像,f(z)为计算得到的时域内输入图像响应图,在响应图中最大响应所在位置就是跟踪目标所在位置。
4.根据权利要求3所述的基于视觉显著性的干扰感知跟踪算法,其特征在于:在步骤S3中,计算上下文感知相关跟踪响应时,将目标周围的上下文信息引入到相关滤波分类器训练过程中,构造上下文感知相关跟踪器,在目标周围采样n个上下文图像块目标搜索窗口区域为x,图像块和x所对应的循环数据矩阵为和X,则公式(1)变为:
其中,λ1和λ2均表示正则化因子;
将公式(5)改写为:
其中, 表示上下文图像样本的的循环偏移样本;
对公式(6)求闭环求解,得到分类器参数为:
其中,B表示由所有循环偏移样本Bi组成的循环数据矩阵;
将循环数据矩阵B和BT代入公式(7)中,并由循环矩阵的性质和对公式(7)进行化简有:
利用分类器实现快速目标检测,得到目标响应为:
利用公式(3)得到对偶空间下分类器定义:
利用循环矩阵的性质,将矩阵B和BT代入公式(10)化简得到:
根据公式(11)将此系统分解为数个子系统进行求解,此时计算得到分类器参数α=[α0,...,αk],将数据参数代入f(z)=ZBTα中化简得到:
由公式(12)求得对偶空间下频域内输入图像的响应,利用快速傅里叶变换将其转换到时域内,最大响应所在位置就是跟踪目标所在位置。
5.根据权利要求4所述的基于视觉显著性的干扰感知跟踪算法,其特征在于:在步骤S3中,利用贝叶斯分类器根据直方图扰动模型计算输出响应时,首先建立目标图像的颜色概率模型,利用贝叶斯分类器对目标像素和背景像素进行建模,得到:
其中,O和B分别表示目标像素区域与背景像素区域,P(bc|c∈O)表示O中像素c属于区间bc的直方图概率,P(bc|c∈Ω)表示像素空间Ω中像素属于区间bc的概率,P(c∈O|O,B,bc)为构造的贝叶斯分类器模型,其表示像素c属于目标像素的概率;
对公式(13)进行重写得到:
其中,和分别表示目标与背景的颜色直方图,且满足这里|O|和|B|表示目标区域与背景区域内的像素个数;
引入目标-扰动模型,其定义如下:
其中,表示扰动区域的颜色直方图模型;
通过公式(14)和(15)得到最终的目标联合概率模型:
P(c∈O|bc)=η×P(c∈O|O,B,bc)+(1-η)P(c∈O|O,D,bc) (16)
最终由目标联合概率直方图得到的响应图定义为:
其中,|Wz|表示搜索窗口z内的像素个数,表示第t帧时像素ci,j属于目标像素的概率值,f(z)hist为表示输入图像z的颜色直方图概率响应。
6.根据权利要求5所述的基于视觉显著性的干扰感知跟踪算法,其特征在于:在步骤S5中,计算视觉显著性图时,利用图像签名算法获取输入图像的稀疏显著性图,图像签名算法定义为:
ImageSignature(x)=sign[DCT(x)] (18)
其中,DCT(·)表示离散傅里叶变化,sign(·)表示符号函数,ImageSignature(·)表示输入图像的签名图像;
图像签名重构图像定义为:
其中, 即为利用图像签名算法重构的图像;
利用图像签名重构图像计算稀疏显著性图,有:
其中,xsalient为目标图像稀疏显著性图,g为高斯平滑函数,*表示矩阵的卷积操作。
7.根据权利要求6所述的基于视觉显著性的干扰感知跟踪算法,其特征在于:在步骤S4中,将直方图扰动模型输出响应、上下文感知相关跟踪响应进行加权融合,得到最终的目标响应图:
f(z)′=δfcf(z)+(1-δ)fhist(z) (21)
其中,δ表示响应权重因子,f(z)′是目标的联合响应图,其最大响应所在位置就是跟踪目标所在位置。
8.根据权利要求7所述的基于视觉显著性的干扰感知跟踪算法,其特征在于:在步骤S5中,在跟踪过程中利用峰旁比对目标响应置信度进行估计,以此判别跟踪目标是否发生遮挡,当目标响应置信度低于指定阈值,利用稀疏显著性图获得候选目标V={v1,...,vk},然后计算不同候选目标的相关滤波响应,响应最大的候选目标即为跟踪目标所在位置。
9.根据权利要求8所述的基于视觉显著性的干扰感知跟踪算法,其特征在于:在步骤S5中,判断目标是否发生遮挡利用如下公式:
其中,表示当前帧目标响应峰旁比,表示峰旁比阈值,φ表示目标是否发生遮挡,当为1时表示跟踪正常,为0时表示出现跟踪遮挡。
10.根据权利要求9所述的基于视觉显著性的干扰感知跟踪算法,其特征在于:在步骤S6中,采用自适应更新策略对目标模板和直方图模型进行更新:
其中,表示模板学习速率,xt和P(c∈O|bc)t表示第t帧学习得到的目标模板和直方图模型,和表示第t帧采样得到的目标样本和直方图模型;
同时,对公式(7)中的相关滤波分类器分子和分母进行更新:
其中,Bt表示第t帧学习得到的循环样本数据矩阵,表示第t帧采样得到的循环样本数据矩阵。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810167694.6A CN108447078B (zh) | 2018-02-28 | 2018-02-28 | 基于视觉显著性的干扰感知跟踪算法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810167694.6A CN108447078B (zh) | 2018-02-28 | 2018-02-28 | 基于视觉显著性的干扰感知跟踪算法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108447078A true CN108447078A (zh) | 2018-08-24 |
CN108447078B CN108447078B (zh) | 2022-06-10 |
Family
ID=63192841
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810167694.6A Active CN108447078B (zh) | 2018-02-28 | 2018-02-28 | 基于视觉显著性的干扰感知跟踪算法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108447078B (zh) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109299735A (zh) * | 2018-09-14 | 2019-02-01 | 上海交通大学 | 基于相关滤波的抗遮挡目标跟踪方法 |
CN109558877A (zh) * | 2018-10-19 | 2019-04-02 | 复旦大学 | 基于kcf的海上目标跟踪算法 |
CN109864806A (zh) * | 2018-12-19 | 2019-06-11 | 江苏集萃智能制造技术研究所有限公司 | 基于双目视觉的动态补偿功能的穿刺机器人导航系统 |
CN109887005A (zh) * | 2019-02-26 | 2019-06-14 | 华北理工大学 | 基于视觉注意机制的tld目标跟踪算法 |
CN109919978A (zh) * | 2018-11-12 | 2019-06-21 | 中国科学院自动化研究所 | 受丘脑注意机制调控的信息融合的视觉跟踪方法及系统 |
CN109993775A (zh) * | 2019-04-01 | 2019-07-09 | 云南大学 | 基于特征补偿的单目标跟踪方法 |
CN110070563A (zh) * | 2019-04-30 | 2019-07-30 | 山东大学 | 基于联合感知的相关性滤波器目标跟踪方法及系统 |
CN110070562A (zh) * | 2019-04-02 | 2019-07-30 | 西北工业大学 | 一种上下文相关的深度目标跟踪方法 |
CN110147768A (zh) * | 2019-05-22 | 2019-08-20 | 云南大学 | 一种目标跟踪方法及装置 |
CN110458045A (zh) * | 2019-07-22 | 2019-11-15 | 浙江大华技术股份有限公司 | 响应概率直方图的获取方法、图像处理方法以及装置 |
CN110660079A (zh) * | 2019-09-11 | 2020-01-07 | 昆明理工大学 | 一种基于时空上下文的单目标跟踪方法 |
CN110889864A (zh) * | 2019-09-03 | 2020-03-17 | 河南理工大学 | 一种基于双层深度特征感知的目标跟踪方法 |
CN110992404A (zh) * | 2019-12-23 | 2020-04-10 | 驭势科技(南京)有限公司 | 目标跟踪方法、装置和系统及存储介质 |
CN111127617A (zh) * | 2019-12-29 | 2020-05-08 | 浙江科技学院 | 一种基于分布式渲染引擎的渲染系统及渲染方法 |
WO2020135554A1 (zh) * | 2018-12-29 | 2020-07-02 | 广州市百果园信息技术有限公司 | 图片处理方法、装置、设备及存储介质 |
CN113470075A (zh) * | 2021-07-09 | 2021-10-01 | 郑州轻工业大学 | 一种基于干扰抑制外观建模的目标跟踪方法 |
CN114140501A (zh) * | 2022-01-30 | 2022-03-04 | 南昌工程学院 | 目标跟踪方法、装置及可读存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101777185A (zh) * | 2009-12-09 | 2010-07-14 | 中国科学院自动化研究所 | 融合描述式和判别式建模的目标跟踪方法 |
CN102110296A (zh) * | 2011-02-24 | 2011-06-29 | 上海大学 | 一种复杂场景下的运动目标跟踪方法 |
CN106023246A (zh) * | 2016-05-05 | 2016-10-12 | 江南大学 | 一种基于局部敏感直方图的时空上下文跟踪方法 |
CN106570486A (zh) * | 2016-11-09 | 2017-04-19 | 华南理工大学 | 基于特征融合和贝叶斯分类的核相关滤波目标跟踪方法 |
CN106651913A (zh) * | 2016-11-29 | 2017-05-10 | 开易(北京)科技有限公司 | 基于相关滤波和颜色直方图统计的目标跟踪方法及adas系统 |
CN107240118A (zh) * | 2017-05-19 | 2017-10-10 | 成都信息工程大学 | 一种基于rgb颜色直方图的判别式跟踪方法 |
-
2018
- 2018-02-28 CN CN201810167694.6A patent/CN108447078B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101777185A (zh) * | 2009-12-09 | 2010-07-14 | 中国科学院自动化研究所 | 融合描述式和判别式建模的目标跟踪方法 |
CN102110296A (zh) * | 2011-02-24 | 2011-06-29 | 上海大学 | 一种复杂场景下的运动目标跟踪方法 |
CN106023246A (zh) * | 2016-05-05 | 2016-10-12 | 江南大学 | 一种基于局部敏感直方图的时空上下文跟踪方法 |
CN106570486A (zh) * | 2016-11-09 | 2017-04-19 | 华南理工大学 | 基于特征融合和贝叶斯分类的核相关滤波目标跟踪方法 |
CN106651913A (zh) * | 2016-11-29 | 2017-05-10 | 开易(北京)科技有限公司 | 基于相关滤波和颜色直方图统计的目标跟踪方法及adas系统 |
CN107240118A (zh) * | 2017-05-19 | 2017-10-10 | 成都信息工程大学 | 一种基于rgb颜色直方图的判别式跟踪方法 |
Non-Patent Citations (4)
Title |
---|
JO~AO F. HENRIQUES 等: "High-Speed Tracking with Kernelized Correlation Filters", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 * |
MATTHIAS MUELLER等: "Context-Aware Correlation Filter Tracking", 《2017 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
WEIMING HU 等: "Active Contour-Based Visual Tracking by Integrating Colors, Shapes,and Motions", 《IEEE TRANSACTIONS ON IMAGE PROCESSING》 * |
XIAODI HOU等: "Image Signature:Highlighting Sparse Salient Regions", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 * |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109299735B (zh) * | 2018-09-14 | 2021-08-20 | 上海交通大学 | 基于相关滤波的抗遮挡目标跟踪方法 |
CN109299735A (zh) * | 2018-09-14 | 2019-02-01 | 上海交通大学 | 基于相关滤波的抗遮挡目标跟踪方法 |
CN109558877B (zh) * | 2018-10-19 | 2023-03-07 | 复旦大学 | 基于kcf的海上目标跟踪算法 |
CN109558877A (zh) * | 2018-10-19 | 2019-04-02 | 复旦大学 | 基于kcf的海上目标跟踪算法 |
CN109919978A (zh) * | 2018-11-12 | 2019-06-21 | 中国科学院自动化研究所 | 受丘脑注意机制调控的信息融合的视觉跟踪方法及系统 |
CN109919978B (zh) * | 2018-11-12 | 2021-03-16 | 中国科学院自动化研究所 | 受丘脑注意机制调控的信息融合的视觉跟踪方法及系统 |
CN109864806A (zh) * | 2018-12-19 | 2019-06-11 | 江苏集萃智能制造技术研究所有限公司 | 基于双目视觉的动态补偿功能的穿刺机器人导航系统 |
WO2020135554A1 (zh) * | 2018-12-29 | 2020-07-02 | 广州市百果园信息技术有限公司 | 图片处理方法、装置、设备及存储介质 |
CN109887005B (zh) * | 2019-02-26 | 2023-05-30 | 天津城建大学 | 基于视觉注意机制的tld目标跟踪方法 |
CN109887005A (zh) * | 2019-02-26 | 2019-06-14 | 华北理工大学 | 基于视觉注意机制的tld目标跟踪算法 |
CN109993775A (zh) * | 2019-04-01 | 2019-07-09 | 云南大学 | 基于特征补偿的单目标跟踪方法 |
CN110070562A (zh) * | 2019-04-02 | 2019-07-30 | 西北工业大学 | 一种上下文相关的深度目标跟踪方法 |
CN110070563A (zh) * | 2019-04-30 | 2019-07-30 | 山东大学 | 基于联合感知的相关性滤波器目标跟踪方法及系统 |
CN110147768A (zh) * | 2019-05-22 | 2019-08-20 | 云南大学 | 一种目标跟踪方法及装置 |
CN110147768B (zh) * | 2019-05-22 | 2021-05-28 | 云南大学 | 一种目标跟踪方法及装置 |
CN110458045A (zh) * | 2019-07-22 | 2019-11-15 | 浙江大华技术股份有限公司 | 响应概率直方图的获取方法、图像处理方法以及装置 |
CN110889864A (zh) * | 2019-09-03 | 2020-03-17 | 河南理工大学 | 一种基于双层深度特征感知的目标跟踪方法 |
CN110889864B (zh) * | 2019-09-03 | 2023-04-18 | 河南理工大学 | 一种基于双层深度特征感知的目标跟踪方法 |
CN110660079A (zh) * | 2019-09-11 | 2020-01-07 | 昆明理工大学 | 一种基于时空上下文的单目标跟踪方法 |
CN110992404A (zh) * | 2019-12-23 | 2020-04-10 | 驭势科技(南京)有限公司 | 目标跟踪方法、装置和系统及存储介质 |
CN110992404B (zh) * | 2019-12-23 | 2023-09-19 | 驭势科技(浙江)有限公司 | 目标跟踪方法、装置和系统及存储介质 |
CN111127617A (zh) * | 2019-12-29 | 2020-05-08 | 浙江科技学院 | 一种基于分布式渲染引擎的渲染系统及渲染方法 |
CN113470075B (zh) * | 2021-07-09 | 2022-09-23 | 郑州轻工业大学 | 一种基于干扰抑制外观建模的目标跟踪方法 |
CN113470075A (zh) * | 2021-07-09 | 2021-10-01 | 郑州轻工业大学 | 一种基于干扰抑制外观建模的目标跟踪方法 |
CN114140501A (zh) * | 2022-01-30 | 2022-03-04 | 南昌工程学院 | 目标跟踪方法、装置及可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN108447078B (zh) | 2022-06-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108447078A (zh) | 基于视觉显著性的干扰感知跟踪算法 | |
Lin et al. | Smoke detection on video sequences using 3D convolutional neural networks | |
Wang et al. | Automatic laser profile recognition and fast tracking for structured light measurement using deep learning and template matching | |
Wang et al. | Trajectory predictor by using recurrent neural networks in visual tracking | |
Kwak et al. | Learning occlusion with likelihoods for visual tracking | |
CN111914664A (zh) | 基于重识别的车辆多目标检测和轨迹跟踪方法 | |
Gowsikhaa et al. | Suspicious Human Activity Detection from Surveillance Videos. | |
CN107230267B (zh) | 基于人脸识别算法的幼儿园智能签到方法 | |
CN108573499A (zh) | 一种基于尺度自适应和遮挡检测的视觉目标跟踪方法 | |
CN101482923A (zh) | 视频监控中人体目标的检测与性别识别方法 | |
CN112836640A (zh) | 一种单摄像头多目标行人跟踪方法 | |
Luo et al. | Real-time people counting for indoor scenes | |
CN112434599B (zh) | 一种基于噪声通道的随机遮挡恢复的行人重识别方法 | |
CN112785622A (zh) | 一种水面无人船长时跟踪方法、装置及存储介质 | |
Cao et al. | Learning spatial-temporal representation for smoke vehicle detection | |
CN106127798B (zh) | 基于自适应模型的稠密时空上下文目标跟踪方法 | |
Cai et al. | Anti-occlusion multi-object surveillance based on improved deep learning approach and multi-feature enhancement for unmanned smart grid safety | |
CN113033356B (zh) | 一种尺度自适应的长期相关性目标跟踪方法 | |
Ding et al. | Machine learning model for feature recognition of sports competition based on improved TLD algorithm | |
Chen et al. | Single‐Object Tracking Algorithm Based on Two‐Step Spatiotemporal Deep Feature Fusion in a Complex Surveillance Scenario | |
Zhang et al. | Visual tracking via dynamic tensor analysis with mean update | |
Yan et al. | Real-time unmanned aerial vehicle tracking of fast moving small target on ground | |
CN106682582A (zh) | 一种基于压缩感知外观模型的人脸跟踪方法及系统 | |
Hu et al. | Anomaly detection in crowded scenes via sa-mhof and sparse combination | |
Yasin et al. | Anomaly Prediction over Human Crowded Scenes via Associate‐Based Data Mining and K‐Ary Tree Hashing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |