CN107480704A - 一种具有遮挡感知机制的实时视觉目标跟踪方法 - Google Patents
一种具有遮挡感知机制的实时视觉目标跟踪方法 Download PDFInfo
- Publication number
- CN107480704A CN107480704A CN201710604257.1A CN201710604257A CN107480704A CN 107480704 A CN107480704 A CN 107480704A CN 201710604257 A CN201710604257 A CN 201710604257A CN 107480704 A CN107480704 A CN 107480704A
- Authority
- CN
- China
- Prior art keywords
- mrow
- target
- msub
- tracking
- msup
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Abstract
本发明提出了一种具有遮挡感知机制的实时视觉目标跟踪方法,该方法首先融合基于相关性滤波器跟踪算法和基于颜色统计信息的贝叶斯概率模型跟踪算法两者的跟踪结果进行目标的位置预测,然后单独训练一维的尺度金字塔进行目标的尺度估计,此外设计了一种遮挡感知机制,能够判别被跟踪目标是否被局部或完全遮挡,进而决定模型的更新策略以及利用何种模型进行新一帧的跟踪,避免背景信息的污染使跟踪器产生漂移,跟踪算法根据上述步骤迭代地对目标进行持续地跟踪。所提算法能够实时准确地跟踪到目标,且能够有效应对形变、旋转、遮挡、尺度变化、光照变化、运动模糊等多种问题。
Description
技术领域
本发明属于目标跟踪领域,具体是一种具有遮挡感知机制的实时视觉目标跟踪方法。
背景技术
随着计算机技术的发展,目标跟踪由于其在视频监控、人机交互、机器人等方面具有很高的应用价值,成为了计算机视觉领域的研究热点,其可以定义为,给定视频流中的第一帧图像中感兴趣目标的矩形框,估计出所选目标在接下来每帧图像中的状态(位置及大小)。近年来有大量的目标跟踪算法被提出,但由于实际应用中的遮挡、背景杂乱、光照变化以及目标的尺度与形状变化等,设计一种鲁棒、长期、实时的目标跟踪算法仍然是比较困难的问题。
现有的基于相关性滤波器的跟踪算法能够在跟踪的准确性和速度上均获得较好的效果,但是由于其是一类基于严格模板的方法,所以该类方法不能很好处理目标剧烈的形变、超平面旋转等情况,而且不能适应目标的尺度变化。基于颜色统计信息的概率模型算法在一定程度上能够弥补上述相关滤波算法的缺点,其原因在于该算法所采用的特征不包含像素的位置信息,但是该类算法对光照变化比较敏感,另外单独利用颜色统计信息容易使跟踪器产生漂移问题。
产生漂移问题的主要原因是在线分类器在更新时引入了噪声,在预测过程中噪声会不断积累,最终使算法无法准确跟踪目标。被跟踪目标的外观变化如遮挡等均会产生噪声,因此有必要设计一种遮挡感知机制来在线处理跟踪过程中的遮挡问题。
发明内容
针对上述问题,本发明提出了一种具有遮挡感知机制的实时视觉目标跟踪方法,该方法首先融合基于相关性滤波器跟踪算法和基于颜色统计信息的贝叶斯概率模型跟踪算法两者的跟踪结果进行目标的位置预测,然后单独训练一维的尺度金字塔进行目标的尺度估计,此外设计了一种遮挡感知机制,能够判别跟踪目标是否被局部或完全遮挡,进而决定模型的更新策略以及利用何种模型进行新一帧的跟踪,避免背景信息的污染使跟踪器产生漂移。所提算法能够实时准确地跟踪到目标,且能够有效应对形变、旋转、遮挡、尺度变化、光照变化、运动模糊等多种问题。本发明采用下面的技术方案:
一种具有遮挡感知机制的实时目标跟踪方法,其特征在于:
包括如下步骤:
1)位置估计,分别提取搜索区域内的HOG特征学习相关性滤波跟踪器、颜色直方图特征学习贝叶斯概率模型跟踪器,通过解决两个独立的岭回归问题将两者的响应进行同构,利用线性融合的方法确定目标的位置;
2)尺度估计,引入单独的一维相关性滤波尺度估计机制,以估计的位置为中心,获取不同尺度大小的图像块,再将不同大小的图像块统一成固定模板大小,提取fhog特征形成S层特征金字塔,利用hann窗消除边界效应,作为输入,输出的最大响应所对应尺度即可以看作是最优尺度估计;
3)遮挡感知,完成当前t帧的位置与尺度估计后时,根据“目标相似性”与“背景相似性”判别遮挡情况,划分未遮挡、局部遮挡与完全遮挡,未遮挡情况下,更新分类器集合C与目标图像块集合F,计算新的“背景相似性” Tt min,在t+1帧的预测中,未被完全遮挡的情况下,用当前分类器模型预测目标位置,否则在集合中利用最小能量函数选取最优分类器模型,预测目标;
重复上述步骤进行连续跟踪。
本发明的优点和有益效果:
第一,本发明充分利用了基于HOG特征的相关性滤波跟踪器与基于颜色直方图特征的贝叶斯概率模型跟踪器的互补性,能够有效避免前者对目标形变的敏感性和后者对光照变化的敏感性,总体提高算法的性能。
第二,本发明在位置估计的基础上,单独采用一个自适应尺度估计机制,能够处理视觉跟踪中较频繁出现的目标尺度变化问题。
第三,本发明提出了一种遮挡感知机制,将整个跟踪过程分为未遮挡、局部遮挡、完全遮挡三部分,采用不同的预测和更新机制,在目标遮挡并重新出现的情况下能够再次检测到目标,同时该机制一定程度上避免了由于噪声干扰而引起的漂移问题。
附图说明
图1是本发明的具体实施流程框图;
图2是本发明在目标跟踪中遮挡感知机制的策略示意图。
具体实施方式
本发明具有遮挡感知机制的实时视觉目标跟踪方法,包括以下步骤:
第一步:位置估计,分别提取搜索区域内的HOG特征学习相关性滤波跟踪器与颜色直方图特征学习贝叶斯概率模型跟踪器,通过解决两个独立的岭回归问题将两者的响应进行同构,利用线性融合的方法确定位置估计。
第二步:尺度估计,引入单独的一维相关性滤波尺度估计机制,以第一步的估计位置为中心,获取不同尺度大小的图像块,再将不同大小的图像块统一成固定模板大小,提取fhog特征形成S层特征金字塔,利用hann窗消除边界效应,作为输入,输出的最大响应所对应尺度即可以看作是最优尺度估计。
第三步:遮挡感知,由于每帧都可以获得分类器模型Ct和最优估计图像块,因此构建分类器集合C和目标图像集合F,集合C包含了无遮挡情况下的最近的 K个分类器模型参数,F包含了无遮挡情况下最近的K个跟踪到的目标图像块,完成当前t帧的位置与尺度估计后,计算当前目标图像块与集合F中各个元素之间的相似性,其中最小的相似性度量距离称为“目标相似性”。计算当前目标图像块与其周围8个图像块的相似性距离,设最小距离为Tmin,称为“背景相似性”。上述两者距离度量Tt min分别衡量了当前目标与之前目标对象的相似度、当前目标与其周围背景的相似度,可见,度量距离越大,相似度越低, Dmin>Tmin可认为目标被完全遮挡,Dmin<ηTmin可认为目标未被遮挡。目标未被完全遮挡的情况下,用当前分类器模型预测目标位置,否则在集合中利用最小能量函数选取最优分类器模型,预测目标。
实施例
下面结合附图对本发明的较佳实施例进行详细阐述,以使本发明的优点和特征能更易于被本领域技术人员理解,从而对本发明的保护范围做出更清楚明确的界定。应该指出,以下详细说明都是例示性的,旨在对本申请提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本申请所属技术领域的普通技术人员通常理解的相同含义。
本发明的一种典型实施例是一种具有遮挡感知机制的实时视觉目标跟踪方法,如图1所示,包括以下步骤:
步骤1:输入视频序列,给定第一帧感兴趣目标的状态(位置与尺寸)信息;
步骤2:分别提取目标区域内的HOG特征与颜色直方图特征,初始化跟踪器;
步骤3:分别计算相关滤波跟踪器的响应、贝叶斯概率模型跟踪器的响应,将二者进行线性融合,综合响应最大的位置处,为目标的位置估计。
以上所述的相关性滤波跟踪器与贝叶斯概率模型跟踪器是通过两个独立的岭回归问题进行求解的:
其中hcf为相关滤波器,βbayes为权重向量,Lcf与Lbayes损失函数,λcf与λbayes为正则化参数。响应融合方式如下:
f(x)=γfbayes(x)+(1-γ)fcf(x)
其中fbayes(x)为贝叶斯概率模型跟踪器的响应,fcf(x)为相关性滤波跟踪器,响应的融合系数γ为0.2。
步骤4:引入单独的一维相关性滤波尺度估计机制,以上一步的估计位置为中心,获取不同尺度大小的图像块,再将不同大小的图像块统一成固定模板大小,提取31维fhog特征形成S层特征金字塔,利用hann窗消除边界效应,作为输入,输出的最大响应所对应尺度即可以看作是最优尺度估计。
尺度的选择原则为:
其中,P与R是目标在前一帧的宽和高,a为尺度因子,S为尺度数量。
步骤5:构建分类器集合C和目标图像集合F,集合C包含了无遮挡情况下的最近的K个分类器模型参数,F包含了无遮挡情况下最近的K个跟踪到的目标图像块。
步骤6:根据新得到的目标图像块,计算其与最优目标图像块集合F中各个元素之间的相似性,其中最小的相似性度量距离称为“目标相似性”。相似性的度量方法包括但不限于马氏距离、中心距、欧氏距离、局部HOG距离、最佳伙伴相似性(BBS)等。
步骤7:更新阶段遮挡判断,如图2,若则目标未被遮挡,更新分类器集合C和目标集合F,同时计算当前帧的“背景相似性”,即新得到的图像块与其周围图像块的相似性度量的最小距离为Tt min。若则目标被遮挡,不更新集合,不更新“背景相似性”。
步骤8:预测阶段遮挡判断,在t+1帧,若则目标未被完全遮挡,此时利用t帧所更新的分类器和特征进行下一帧的跟踪,转至步骤3。若则目标被完全遮挡,利用最小能量函数从分类器集合C中选取最优分类器,并从目标集合F中选取最优分类器所对应的图像块并提取特征,利用所选分类器与特征跟踪t+1帧的目标,即转至步骤3。
所采用的最小能量函数为:
其中,为分类器集合C中元素,为各分类器能量函数,表征似然估计,是熵正则化项,其中l={l1,l2}为标签空间。
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (10)
1.一种具有遮挡感知机制的实时视觉目标跟踪方法,其特征在于:
包括如下步骤:
1)位置估计,分别提取搜索区域内的HOG特征学习相关性滤波跟踪器、颜色直方图特征学习贝叶斯概率模型跟踪器,通过解决两个独立的岭回归问题将两者的响应进行同构,利用线性融合的方法确定目标的位置;
2)尺度估计,引入单独的一维相关性滤波尺度估计机制,以估计的位置为中心,获取不同尺度大小的图像块,再将不同大小的图像块统一成固定模板大小,提取fhog特征形成S层特征金字塔,利用hann窗消除边界效应,作为输入,输出的最大响应所对应尺度即可以看作是最优尺度估计;
3)遮挡感知,完成当前t帧的位置与尺度估计后时,根据“目标相似性”与“背景相似性”判别遮挡情况,划分为未遮挡、局部遮挡与完全遮挡,未遮挡情况下,更新分类器集合C与目标图像块集合F,计算新的“背景相似性”Tt min,在t+1帧的预测中,未被完全遮挡的情况下,用当前分类器模型预测目标位置,否则在集合中利用最小能量函数选取最优分类器模型,预测目标;
重复上述步骤进行连续跟踪。
2.根据权利要求1所述的目标跟踪方法,其特征在于,相关性滤波跟踪器与贝叶斯概率模型跟踪器是通过两个独立的岭回归问题进行求解的:
<mrow>
<msub>
<mi>h</mi>
<mrow>
<mi>c</mi>
<mi>f</mi>
</mrow>
</msub>
<mo>=</mo>
<mi>arg</mi>
<munder>
<mi>min</mi>
<mi>h</mi>
</munder>
<mrow>
<mo>{</mo>
<mrow>
<msub>
<mi>L</mi>
<mrow>
<mi>c</mi>
<mi>f</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mrow>
<mi>h</mi>
<mo>,</mo>
<msub>
<mi>X</mi>
<mi>t</mi>
</msub>
</mrow>
<mo>)</mo>
</mrow>
<mo>+</mo>
<mfrac>
<mn>1</mn>
<mn>2</mn>
</mfrac>
<msub>
<mi>&lambda;</mi>
<mrow>
<mi>c</mi>
<mi>f</mi>
</mrow>
</msub>
<mo>|</mo>
<mo>|</mo>
<mi>h</mi>
<mo>|</mo>
<msup>
<mo>|</mo>
<mn>2</mn>
</msup>
</mrow>
<mo>}</mo>
</mrow>
</mrow>
<mrow>
<msub>
<mi>&beta;</mi>
<mrow>
<mi>b</mi>
<mi>a</mi>
<mi>y</mi>
<mi>e</mi>
<mi>s</mi>
</mrow>
</msub>
<mo>=</mo>
<mi>arg</mi>
<munder>
<mrow>
<mi>m</mi>
<mi>i</mi>
<mi>n</mi>
</mrow>
<mi>&beta;</mi>
</munder>
<mo>{</mo>
<msub>
<mi>L</mi>
<mrow>
<mi>b</mi>
<mi>a</mi>
<mi>y</mi>
<mi>e</mi>
<mi>s</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mi>&beta;</mi>
<mo>,</mo>
<msub>
<mi>X</mi>
<mi>t</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>+</mo>
<mfrac>
<mn>1</mn>
<mn>2</mn>
</mfrac>
<msub>
<mi>&lambda;</mi>
<mrow>
<mi>b</mi>
<mi>a</mi>
<mi>y</mi>
<mi>e</mi>
<mi>s</mi>
</mrow>
</msub>
<mo>|</mo>
<mo>|</mo>
<mi>&beta;</mi>
<mo>|</mo>
<msup>
<mo>|</mo>
<mn>2</mn>
</msup>
<mo>}</mo>
</mrow>
其中hcf为相关滤波器,βbayes为权重向量,Lcf与Lbayes损失函数,λcf与λbayes为正则化参数。
3.根据权利要求1所述的目标跟踪方法,其特征在于,两个独立跟踪器响应的融合系数γ为0.2,
f(x)=γfbayes(x)+(1-γ)fcf(x)。
4.根据权利要求1所述的目标跟踪方法,其特征在于,尺度估计时每个样本提取31维fhog特征,再串联成一个特征向量构成33层金字塔特征,乘以一维hann窗后作为输入。
5.根据权利要求1所述的目标跟踪方法,其特征在于,尺度的选择原则为:
<mrow>
<msup>
<mi>a</mi>
<mi>n</mi>
</msup>
<mi>P</mi>
<mo>&times;</mo>
<msup>
<mi>a</mi>
<mi>n</mi>
</msup>
<mi>R</mi>
<mo>,</mo>
<mi>n</mi>
<mo>&Element;</mo>
<mo>{</mo>
<mo>&lsqb;</mo>
<mo>-</mo>
<mfrac>
<mrow>
<mi>S</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
<mn>2</mn>
</mfrac>
<mo>&rsqb;</mo>
<mo>,</mo>
<mo>...</mo>
<mo>,</mo>
<mo>&lsqb;</mo>
<mfrac>
<mrow>
<mi>S</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
<mn>2</mn>
</mfrac>
<mo>&rsqb;</mo>
<mo>}</mo>
</mrow>
其中,P与R是目标在前一帧的宽和高,a为尺度因子,S为尺度数量。
6.根据权利要求1所述的目标跟踪方法,其特征在于,相似性的度量方法包括马氏距离、中心距、欧氏距离、局部HOG距离、最佳伙伴相似性(BBS)。
7.根据权利要求1所述的目标跟踪方法,其特征在于,将整个跟踪过程分为三部分,即未遮挡、局部遮挡、完全遮挡。
8.根据权利要求7所述的目标跟踪方法,其特征在于,在感知到目标未被遮挡时,分类器集合C和目标图像集合F会删除最早保存的元素并更新一个新元素,即其中包含了无遮挡情况下最近K个元素,同时“背景相似性”度量Tt min也随之更新。
9.根据权利要求7所述的目标跟踪方法,其特征在于,在感知到目标被完全遮挡时,利用最小能量函数从分类器集合C中选取最优分类器,并从目标集合F中选取最优分类器所对应的图像块并提取特征,利用所选分类器与特征跟踪新一帧的目标,否则利用t-1帧所得分类器模型参数与特征信息进行跟踪预测。
10.据权利要求9所述的目标跟踪方法,其特征在于,选择最优分类器所采用的最小能量函数为:
<mrow>
<msup>
<mi>k</mi>
<mo>*</mo>
</msup>
<mo>=</mo>
<mi>arg</mi>
<munderover>
<mrow>
<mi>m</mi>
<mi>i</mi>
<mi>n</mi>
</mrow>
<mrow>
<mi>k</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>K</mi>
</munderover>
<mi>E</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>C</mi>
<mi>k</mi>
<mi>p</mi>
</msubsup>
<mo>)</mo>
</mrow>
</mrow>
其中,为分类器集合C中元素,为各分类器能量函数,表征似然估计,是熵正则化项,其中l={l1,l2}为标签空间。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710604257.1A CN107480704B (zh) | 2017-07-24 | 2017-07-24 | 一种具有遮挡感知机制的实时视觉目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710604257.1A CN107480704B (zh) | 2017-07-24 | 2017-07-24 | 一种具有遮挡感知机制的实时视觉目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107480704A true CN107480704A (zh) | 2017-12-15 |
CN107480704B CN107480704B (zh) | 2021-06-29 |
Family
ID=60596340
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710604257.1A Active CN107480704B (zh) | 2017-07-24 | 2017-07-24 | 一种具有遮挡感知机制的实时视觉目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107480704B (zh) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106981071A (zh) * | 2017-03-21 | 2017-07-25 | 广东华中科技大学工业技术研究院 | 一种基于无人艇应用的目标跟踪方法 |
CN108053419A (zh) * | 2017-12-27 | 2018-05-18 | 武汉蛋玩科技有限公司 | 基于背景抑制和前景抗干扰的多尺度目标跟踪方法 |
CN108257156A (zh) * | 2018-01-24 | 2018-07-06 | 清华大学深圳研究生院 | 一种从视频中自动追踪目标物体的方法 |
CN108596256A (zh) * | 2018-04-26 | 2018-09-28 | 北京航空航天大学青岛研究院 | 一种基于rgb-d物体识别分类器构造方法 |
CN109034179A (zh) * | 2018-05-30 | 2018-12-18 | 河南理工大学 | 一种基于马氏距离idtw的岩层分类方法 |
CN109087333A (zh) * | 2018-06-14 | 2018-12-25 | 中国科学院福建物质结构研究所 | 基于相关性滤波跟踪算法的目标尺度估计方法及其装置 |
CN109102519A (zh) * | 2018-08-24 | 2018-12-28 | 周忠和 | 动目标及特征模板变化条件下的快速人物跟踪方法 |
CN109784155A (zh) * | 2018-12-10 | 2019-05-21 | 西安电子科技大学 | 基于验证和纠错机制的视觉目标跟踪方法、智能机器人 |
CN110084298A (zh) * | 2019-04-23 | 2019-08-02 | 北京百度网讯科技有限公司 | 用于检测图像相似度的方法及装置 |
CN110211150A (zh) * | 2019-04-25 | 2019-09-06 | 南开大学 | 一种具有尺度协调机制的实时视觉目标识别方法 |
CN110290493A (zh) * | 2019-07-08 | 2019-09-27 | 闽江学院 | 基于天通一号卫星的无居民海岛观测方法 |
CN110751670A (zh) * | 2018-07-23 | 2020-02-04 | 中国科学院长春光学精密机械与物理研究所 | 一种基于融合的目标跟踪方法 |
CN110751671A (zh) * | 2018-07-23 | 2020-02-04 | 中国科学院长春光学精密机械与物理研究所 | 一种基于核相关滤波与运动估计的目标跟踪方法 |
CN110824421A (zh) * | 2019-11-15 | 2020-02-21 | 广东博智林机器人有限公司 | 一种位置信息处理方法、装置、存储介质及电子设备 |
WO2020078138A1 (zh) * | 2018-10-16 | 2020-04-23 | 北京理工大学 | 一种运动目标跟踪方法及系统 |
CN111260681A (zh) * | 2020-02-05 | 2020-06-09 | 河北科技大学 | 一种运动目标跟踪方法及运动目标跟踪装置 |
CN111539995A (zh) * | 2020-03-19 | 2020-08-14 | 尚特杰电力科技有限公司 | 一种基于特征点轨迹的多目标跟踪方法 |
CN112991390A (zh) * | 2021-03-31 | 2021-06-18 | 江苏理工学院 | 一种基于背景感知的多跟踪器融合目标跟踪方法 |
CN113807250A (zh) * | 2021-09-17 | 2021-12-17 | 沈阳航空航天大学 | 一种抗遮挡和尺度自适应的低空空域飞行目标跟踪方法 |
CN117269951A (zh) * | 2023-08-21 | 2023-12-22 | 中国电子科技集团公司第五十四研究所 | 空地多视角信息增强的目标跟踪方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106097393A (zh) * | 2016-06-17 | 2016-11-09 | 浙江工业大学 | 一种基于多尺度与自适应更新的目标跟踪方法 |
CN106909935A (zh) * | 2017-01-19 | 2017-06-30 | 博康智能信息技术有限公司上海分公司 | 一种目标跟踪方法及装置 |
CN106909934A (zh) * | 2017-01-19 | 2017-06-30 | 博康智能信息技术有限公司上海分公司 | 一种基于自适应搜索的目标跟踪方法及装置 |
CN106934338A (zh) * | 2017-01-09 | 2017-07-07 | 浙江汉凡软件科技有限公司 | 一种基于相关滤波器的长期行人跟踪方法 |
-
2017
- 2017-07-24 CN CN201710604257.1A patent/CN107480704B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106097393A (zh) * | 2016-06-17 | 2016-11-09 | 浙江工业大学 | 一种基于多尺度与自适应更新的目标跟踪方法 |
CN106934338A (zh) * | 2017-01-09 | 2017-07-07 | 浙江汉凡软件科技有限公司 | 一种基于相关滤波器的长期行人跟踪方法 |
CN106909935A (zh) * | 2017-01-19 | 2017-06-30 | 博康智能信息技术有限公司上海分公司 | 一种目标跟踪方法及装置 |
CN106909934A (zh) * | 2017-01-19 | 2017-06-30 | 博康智能信息技术有限公司上海分公司 | 一种基于自适应搜索的目标跟踪方法及装置 |
Non-Patent Citations (2)
Title |
---|
李双双等: "基于特征融合和尺度自适应的干扰感知目标跟踪", 《光学学报》 * |
王亚文等: "融合遮挡感知的在线Boosting跟踪算法", 《通信学报》 * |
Cited By (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106981071A (zh) * | 2017-03-21 | 2017-07-25 | 广东华中科技大学工业技术研究院 | 一种基于无人艇应用的目标跟踪方法 |
CN108053419A (zh) * | 2017-12-27 | 2018-05-18 | 武汉蛋玩科技有限公司 | 基于背景抑制和前景抗干扰的多尺度目标跟踪方法 |
CN108053419B (zh) * | 2017-12-27 | 2020-04-24 | 武汉蛋玩科技有限公司 | 基于背景抑制和前景抗干扰的多尺度目标跟踪方法 |
CN108257156A (zh) * | 2018-01-24 | 2018-07-06 | 清华大学深圳研究生院 | 一种从视频中自动追踪目标物体的方法 |
CN108596256A (zh) * | 2018-04-26 | 2018-09-28 | 北京航空航天大学青岛研究院 | 一种基于rgb-d物体识别分类器构造方法 |
CN108596256B (zh) * | 2018-04-26 | 2022-04-01 | 北京航空航天大学青岛研究院 | 一种基于rgb-d物体识别分类器构造方法 |
CN109034179A (zh) * | 2018-05-30 | 2018-12-18 | 河南理工大学 | 一种基于马氏距离idtw的岩层分类方法 |
CN109087333A (zh) * | 2018-06-14 | 2018-12-25 | 中国科学院福建物质结构研究所 | 基于相关性滤波跟踪算法的目标尺度估计方法及其装置 |
CN109087333B (zh) * | 2018-06-14 | 2020-07-31 | 中国科学院福建物质结构研究所 | 基于相关性滤波跟踪算法的目标尺度估计方法及其装置 |
CN110751670B (zh) * | 2018-07-23 | 2022-10-25 | 中国科学院长春光学精密机械与物理研究所 | 一种基于融合的目标跟踪方法 |
CN110751670A (zh) * | 2018-07-23 | 2020-02-04 | 中国科学院长春光学精密机械与物理研究所 | 一种基于融合的目标跟踪方法 |
CN110751671A (zh) * | 2018-07-23 | 2020-02-04 | 中国科学院长春光学精密机械与物理研究所 | 一种基于核相关滤波与运动估计的目标跟踪方法 |
CN109102519A (zh) * | 2018-08-24 | 2018-12-28 | 周忠和 | 动目标及特征模板变化条件下的快速人物跟踪方法 |
CN109102519B (zh) * | 2018-08-24 | 2021-12-14 | 周忠和 | 动目标及特征模板变化条件下的快速人物跟踪方法 |
WO2020078138A1 (zh) * | 2018-10-16 | 2020-04-23 | 北京理工大学 | 一种运动目标跟踪方法及系统 |
CN109784155A (zh) * | 2018-12-10 | 2019-05-21 | 西安电子科技大学 | 基于验证和纠错机制的视觉目标跟踪方法、智能机器人 |
CN109784155B (zh) * | 2018-12-10 | 2022-04-29 | 西安电子科技大学 | 基于验证和纠错机制的视觉目标跟踪方法、智能机器人 |
CN110084298A (zh) * | 2019-04-23 | 2019-08-02 | 北京百度网讯科技有限公司 | 用于检测图像相似度的方法及装置 |
CN110084298B (zh) * | 2019-04-23 | 2021-09-28 | 北京百度网讯科技有限公司 | 用于检测图像相似度的方法及装置 |
CN110211150A (zh) * | 2019-04-25 | 2019-09-06 | 南开大学 | 一种具有尺度协调机制的实时视觉目标识别方法 |
CN110211150B (zh) * | 2019-04-25 | 2023-04-18 | 南开大学 | 一种具有尺度协调机制的实时视觉目标识别方法 |
CN110290493A (zh) * | 2019-07-08 | 2019-09-27 | 闽江学院 | 基于天通一号卫星的无居民海岛观测方法 |
CN110824421A (zh) * | 2019-11-15 | 2020-02-21 | 广东博智林机器人有限公司 | 一种位置信息处理方法、装置、存储介质及电子设备 |
CN111260681A (zh) * | 2020-02-05 | 2020-06-09 | 河北科技大学 | 一种运动目标跟踪方法及运动目标跟踪装置 |
CN111539995A (zh) * | 2020-03-19 | 2020-08-14 | 尚特杰电力科技有限公司 | 一种基于特征点轨迹的多目标跟踪方法 |
CN111539995B (zh) * | 2020-03-19 | 2022-07-05 | 尚特杰电力科技有限公司 | 一种基于特征点轨迹的多目标跟踪方法 |
CN112991390A (zh) * | 2021-03-31 | 2021-06-18 | 江苏理工学院 | 一种基于背景感知的多跟踪器融合目标跟踪方法 |
CN112991390B (zh) * | 2021-03-31 | 2023-08-18 | 江苏理工学院 | 一种基于背景感知的多跟踪器融合目标跟踪方法 |
CN113807250A (zh) * | 2021-09-17 | 2021-12-17 | 沈阳航空航天大学 | 一种抗遮挡和尺度自适应的低空空域飞行目标跟踪方法 |
CN113807250B (zh) * | 2021-09-17 | 2024-02-02 | 沈阳航空航天大学 | 一种抗遮挡和尺度自适应的低空空域飞行目标跟踪方法 |
CN117269951A (zh) * | 2023-08-21 | 2023-12-22 | 中国电子科技集团公司第五十四研究所 | 空地多视角信息增强的目标跟踪方法 |
CN117269951B (zh) * | 2023-08-21 | 2024-03-26 | 中国电子科技集团公司第五十四研究所 | 空地多视角信息增强的目标跟踪方法 |
Also Published As
Publication number | Publication date |
---|---|
CN107480704B (zh) | 2021-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107480704A (zh) | 一种具有遮挡感知机制的实时视觉目标跟踪方法 | |
Bhattacharyya et al. | Accurate and diverse sampling of sequences based on a “best of many” sample objective | |
Fiaz et al. | Handcrafted and deep trackers: Recent visual object tracking approaches and trends | |
Wang et al. | Trajectory predictor by using recurrent neural networks in visual tracking | |
Mutis et al. | Real-time space occupancy sensing and human motion analysis using deep learning for indoor air quality control | |
Li et al. | Adaptive deep convolutional neural networks for scene-specific object detection | |
Islam et al. | Solid waste bin detection and classification using Dynamic Time Warping and MLP classifier | |
CN103345735B (zh) | 一种基于Kalman滤波器的压缩时空多传感器融合跟踪方法 | |
CN111161315B (zh) | 一种基于图神经网络的多目标跟踪方法和系统 | |
CN108520530A (zh) | 基于长短时记忆网络的目标跟踪方法 | |
Nam et al. | Online graph-based tracking | |
CN110575663B (zh) | 一种基于人工智能的体育辅助训练方法 | |
Lin et al. | A lattice-based MRF model for dynamic near-regular texture tracking | |
Liu et al. | Deformable object tracking with gated fusion | |
Liu et al. | Counting people by estimating people flows | |
CN111191667A (zh) | 基于多尺度生成对抗网络的人群计数方法 | |
CN108320306A (zh) | 融合tld和kcf的视频目标跟踪方法 | |
Zhao et al. | Gaussian processes for flow modeling and prediction of positioned trajectories evaluated with sports data | |
Kang et al. | Real-time multiple people tracking using competitive condensation | |
CN111368770B (zh) | 基于骨骼点检测与跟踪的手势识别方法 | |
Mehrkanoon et al. | Incremental multi-class semi-supervised clustering regularized by Kalman filtering | |
CN107341471A (zh) | 一种基于双层条件随机场的人体行为识别方法 | |
Yan et al. | Unloc: A unified framework for video localization tasks | |
Cao et al. | Discovering intrinsic spatial-temporal logic rules to explain human actions | |
Zhang et al. | Attention-based encoder-decoder networks for workflow recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20201028 Address after: No.6, Haitai development road 6, Huayuan Industrial Zone, hi tech Zone, Binhai New Area, Tianjin Applicant after: Infinity intelligent control (Tianjin) Intelligent Technology Co., Ltd Address before: 300071 Tianjin City, Nankai District Wei Jin Road No. 94 Applicant before: NANKAI University |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |