CN104992453B - 基于极限学习机的复杂背景下目标跟踪方法 - Google Patents
基于极限学习机的复杂背景下目标跟踪方法 Download PDFInfo
- Publication number
- CN104992453B CN104992453B CN201510410594.8A CN201510410594A CN104992453B CN 104992453 B CN104992453 B CN 104992453B CN 201510410594 A CN201510410594 A CN 201510410594A CN 104992453 B CN104992453 B CN 104992453B
- Authority
- CN
- China
- Prior art keywords
- target
- tracking
- module
- result
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 claims abstract description 38
- 230000010354 integration Effects 0.000 claims abstract description 11
- 238000000034 method Methods 0.000 claims description 39
- 238000012549 training Methods 0.000 claims description 14
- 238000000605 extraction Methods 0.000 claims description 6
- 230000003287 optical effect Effects 0.000 claims description 6
- 239000000284 extract Substances 0.000 claims description 4
- 230000008569 process Effects 0.000 claims description 4
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 3
- 238000007689 inspection Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims 1
- 238000005516 engineering process Methods 0.000 description 4
- 230000000903 blocking effect Effects 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008033 biological extinction Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Image Analysis (AREA)
Abstract
本发明涉及一种基于极限学习机的复杂背景下目标跟踪方法,提供一检测模块、一跟踪模块以及一综合模块,所述检测模块与跟踪模块可同时独立运行,用以对需要跟踪的目标进行检测与跟踪;其中所述检测模块内的检测器在上一帧中跟踪目标进行多尺度检测并输出结果;所述跟踪模块内的跟踪器对上一帧中跟踪目标进行跟踪,并输出跟踪结果;所述整合模块接收所述步骤S5中检测模块与跟踪模块输出的结果,并对所有结果进行综合分析,将置信度最高的结果作为当前帧的跟踪目标进行输出;重复上述步骤,直至视频最后帧。在本发明中由于检测模块跟跟踪模块同时并独立运行,整合模块再综合两模块的结果,能够有效提高跟踪的精度和鲁棒性。
Description
技术领域
本发明涉及复杂环境下的目标跟踪领域,具体涉及一种基于极限学习机的复杂背景下目标跟踪方法。
背景技术
目标跟踪是指对视频中指定的目标进行连续跟踪定位。具体讲,就是在视频起始帧框出要跟踪的目标(或者通过检测算法得到要跟踪的目标)并提取出跟踪目标位置的相关信息,然后在后续帧中自动识别并跟踪目标的位置直至视频结束。目标跟踪具有很大的现实意义,特别是复杂背景下的目标跟踪技术,现今目标跟踪技术越来越广泛地应用于电场环境、军事视觉制导、安全检测、交通管理、重要场所的安保等许多重要的领域。
现有的目标跟踪方法根据其跟踪目标的表达方式以及相似度度量方法可分为五大类:基于主动轮廓线的跟踪、基于特征的跟踪、基于区域的跟踪、基于模型的跟踪和基于运动特征的跟踪。
1、基于主动轮廓线的跟踪。该类方法采用分割的思想,先对目标进行分割,再将目标边缘轮廓提取出来作为模板,然后对接下来的每帧图像都进行二值化操作,并跟踪图像的信息自动更新边缘轮廓并跟踪。但是该类方法在目标边界与背景部分特征相近或者目标被部分及全部遮挡的情况下,目标模型通常容易退化,跟踪效果将受到很到限制。
2、基于特征的跟踪。该类方法通过提取对尺度变换、旋转及部分遮挡不敏感的特征点,比如:纹理、颜色、边缘等特征。然后对目标的局部特征点进行匹配以此达到跟踪的任务。但是该类方法在目标运动状态比较复杂,或者目标出现暂时消失的情况,就难以继续跟踪,而且该类方法难以满足跟踪的实时性要求。
3、基于区域的跟踪。该类方法通过设置不同的偏移值,将跟踪目标在当前帧进行偏移,然后根据相似性度量算法对每次偏移得到的图像与当前帧图像进行相关性处理,目标的位置即相似度最大的位置,最后在后续帧中采用相关匹配准则继续跟踪目标。但是该类方法在复杂背景下会导致前景背景分割不好影响最后的跟踪。
4、基于模型的跟踪。该类方法采用一些先验知识来获得目标模型,跟踪过程即将运动区域和目标模型进行匹配的过程。对于刚体目标,该类方法无需时时跟踪模型,而对于非刚体目标,就要对模型进行更新。但是该类方法需要事先了解相应目标的模型结构,但是实际运用中无法事先知道目标的结果,而且该类方法也不具备实时性能。
5、基于运动特性的跟踪。该类方法跟踪目标在较短时间间隔内的运动特性建立运动模型并利用该模型预测估计目标在下一刻可能的位置,并以估计的位置为中心,再扩展一定区域,之后在这个区域内搜索目标最佳位置的一种运动预测跟踪方法。但是该类方法需要保存大量之前的运动矢量信息,难以在时间系统中应用。
发明内容
有鉴于此,本发明的目的是提供一种一种基于极限学习机的复杂背景下目标跟踪方法,该类方法在复杂的环境下可实时完成对目标的跟踪,并且能保证跟踪的性能。
本发明采用以下方案实现:一种基于极限学习机的复杂背景下目标跟踪方法,其特征在于包括以下步骤:
步骤S1:进行目标定位:在视频第一帧中框出需要跟踪的目标或对前期目标检测算法检测到的目标进行跟踪;
步骤S2:提供一检测模块、一跟踪模块以及一综合模块,所述所述检测模块与跟踪模块可同时独立运行,用以对需要跟踪的目标进行检测与跟踪;
步骤S3:模块初始化:根据所述步骤S1中框出需要跟踪的目标,对所述检测模块内设置的检测器以及所述跟踪模块内设置的跟踪器进行初始化;
步骤S4:下一帧图像输入:根据既定的帧率,输入下一帧图像;
步骤S5:同时进入检测模块与跟踪模块:所述检测模块内的检测器在上一帧中跟踪目标进行多尺度检测并输出结果;所述跟踪模块内的跟踪器对上一帧中跟踪目标进行跟踪,并输出跟踪结果;
步骤S6:进入整合模块:所述整合模块接收所述步骤S5中检测模块与跟踪模块输出的结果,并对所有结果进行综合分析,将置信度最高的结果作为当前帧的跟踪目标进行输出;
步骤S7:结果显示:对所述步骤S6中整合模块的输出进行判断,若有输出结果,则在当前视频帧中框出该位置,若没有则不做操作;
步骤S8:判断视频帧是否结束,若该视频帧还没结束,则返回步骤S4,若该视频帧结束,则结束,完成目标跟踪任务。
进一步地,所述步骤S5中所述检测器包括方差过滤器与极限学习机分类器,所述方差过滤器用以在快速将大部分的背景区域滤除,并求取留下的极少部分候选区域的方向梯度直方图,将所述方向梯度直方图送入训练好的极限学习机分类器中进行分类,丢弃背景区域。
进一步地,所述步骤S5中所述检测器在上一帧中跟踪目标进行多尺度检测的检测策略为:在上一帧中跟踪目标位置的局部区域内进行多尺度检测,若检测到跟踪目标则输出结果,若没有检测到跟踪目标,则在当前帧的全局区域进行多尺度检测并输出结果。检测器输出的若输出多个目标结果,则需要采用聚类算法,对多个目标目标位置进行聚类。其中局部区域的大小设置为为目标框区域大小的2倍;若在局部区域里没有检测到目标,则需要在除了检测过的局部区域以外的周边区域进行检测;多尺度检测的尺度因子为1.2,最小目标框尺寸为20个像素点。
进一步地,所述极限学习机分类器在所述步骤S2中完成初始化训练,具体训练过程为:随机提取10张与目标区域重叠80%以上的图像块,并分别作仿射变换生成200张目标训练样本;在远离目标的区域随机提取200张图像块作为背景训练样本,对所述背景训练样本进行尺度归一化并提取方向梯度直方图作为特征训练极限学习机。
进一步地,所述步骤S5中,所述跟踪器对上一帧中跟踪目标进行跟踪的跟踪策略为:采用前向后向跟踪算法,求取特征点的SIFT描述子用以匹配跟踪目标,具体包括以下步骤:
步骤S51:将当前帧图像进行网格化,并选择网格的左上角的点作为特征点;
步骤S52:采用Lucas-Kanade 光流法预测特征点在下一帧的位置;
步骤S53:采用Lucas-Kanade光流法从下一帧往回跟踪,获得前向预测跟反向预测轨迹位移偏差,丢弃位移偏差超过阈值的特征点;
步骤S54:求取剩下的特征点的SIFT描述子;
步骤S55:对所述步骤S54中所有求取SIFT描述子刻画的特征点进行匹配,若一特征点的相似度小于中值,则丢弃该特征点,若一特征点的相似度不小于中值,则保留该特征点;
步骤S56:若所述步骤S55保留的特征点个数少于阈值,则得到跟踪的目标区域,若所述步骤S55保留的特征点个数大于阈值,则输出跟踪到的目标区域;所述阈值为10个特征点。
进一步地,所述步骤S6中所述整合模块接收结果与综合分析的具体方法为:所述整合模块首先判断所述跟踪模块与所述检测模块是否有结果输出,若两个模块都没有输出结果的话,则表示该帧没有跟踪到目标,则无结果输出;若两个模块均有结果输出则先判断两个模块的输出结果区域重叠率是否大于0.6,若重叠率大于0.6,则对重叠的目标区域进行聚类并输出最终的结果;若重叠率不大于0.6,则将所有的候选区域与目标模型进行匹配,若匹配的置信度大于0.5,则将置信度最大的区域作为最终的目标区域。
与现有技术相比,本发明的有益效果在于:1、本发明基于极限学习机的复杂背景下目标跟踪方法,由于该方法将跟踪技术与检测技术结合起来完成对目标的跟踪,并且跟踪技术与检测技术分别处理,可以达到互为监督纠正的功能,因此对目标出现遮挡、背景相似等情况具有鲁棒性。2、本发明基于极限学习机的复杂背景下目标跟踪方法,由于该方法检测模块中的第一步:积分图方差过滤器能快速消除大部分背景区域,以及采用局部-全局搜索相结合的方式,由此提高跟踪速度。3、本发明基于极限学习机的复杂背景下目标跟踪方法,由于该方法采用的极限学习机具备很好的分类性能,学习速度极快从而可以满足跟踪的实时性及精度。
4、本发明基于极限学习机的复杂背景下目标跟踪方法,由于该方法在跟踪模块中结合SIFT描述子的特征点匹配方法,由此可提高最终的跟踪精度。
附图说明
图1为本发明的基于极限学习机的复杂背景下目标跟踪方法的总体框图。
图2为本发明中检测模块的流程图。
图3为本发明中跟踪模块的流程图。
图4为本发明中整合模块的流程图。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
本实施例提供一种基于极限学习机的复杂背景下目标跟踪方法,如图1所示,其特征在于包括以下步骤:
步骤S1:进行目标定位:在视频第一帧中框出需要跟踪的目标或对前期目标检测算法检测到的目标进行跟踪;
步骤S2:提供一检测模块、一跟踪模块以及一综合模块,所述所述检测模块与跟踪模块可同时独立运行,用以对需要跟踪的目标进行检测与跟踪;
步骤S3:模块初始化:根据所述步骤S1中框出需要跟踪的目标,对所述检测模块内设置的检测器以及所述跟踪模块内设置的跟踪器进行初始化;
步骤S4:下一帧图像输入:根据既定的帧率,输入下一帧图像;
步骤S5:同时进入检测模块与跟踪模块:所述检测模块内的检测器在上一帧中跟踪目标进行多尺度检测并输出结果;所述跟踪模块内的跟踪器对上一帧中跟踪目标进行跟踪,并输出跟踪结果;
步骤S6:进入整合模块:所述整合模块接收所述步骤S5中检测模块与跟踪模块输出的结果,并对所有结果进行综合分析,将置信度最高的结果作为当前帧的跟踪目标进行输出;
步骤S7:结果显示:对所述步骤S6中整合模块的输出进行判断,若有输出结果,则在当前视频帧中框出该位置,若没有则不做操作;
步骤S8:判断视频帧是否结束,若该视频帧还没结束,则返回步骤S4,若该视频帧结束,则结束,完成目标跟踪任务。
在本实施例中,所述步骤S5中所述检测器包括方差过滤器与极限学习机分类器,所述方差过滤器用以在快速将大部分的背景区域滤除,并求取留下的极少部分候选区域的方向梯度直方图,将所述方向梯度直方图送入训练好的极限学习机分类器中进行分类,丢弃背景区域。
在本实施例中,如图2所示,所述步骤S5中所述检测器在上一帧中跟踪目标进行多尺度检测的检测策略为:在上一帧中跟踪目标位置的局部区域内进行多尺度检测,若检测到跟踪目标则输出结果,若没有检测到跟踪目标,则在当前帧的全局区域进行多尺度检测并输出结果。具体为:根据上一帧跟踪目标的位置确定局部检测范围,其局部检测区域的大小为目标区域的2倍;然后采用多尺度滑动窗口的思想提取出候选目标框,然后送入检测器中进行判断;其中多尺度检测的尺度因子为1.2,最小目标框尺寸为20个像素点。窗口滑动因子为2个像素点;方差过滤器对目标区域及候选区域的灰度值方差进行比较,若方差大于阈值的话则丢弃,经过这一步骤将滤掉大部分的背景区域,最后求取留下的极少部分候选区域的方向梯度直方图,将其送入训练好的极限学习机分类器中进行分类,丢弃背景类;检测器若输出多个目标结果,则需要采用聚类算法,对多个目标位置进行聚类。
在本实施例中,所述极限学习机分类器在所述步骤S2中完成初始化训练,具体训练过程为:随机提取10张与目标区域重叠80%以上的图像块,并分别作仿射变换生成200张目标训练样本;在远离目标的区域随机提取200张图像块作为背景训练样本,对所述背景训练样本进行尺度归一化并提取方向梯度直方图作为特征训练极限学习机。
在本实施例中,所述步骤S5中,如图3所示,所述跟踪器对上一帧中跟踪目标进行跟踪的跟踪策略为:采用前向后向跟踪算法,求取特征点的SIFT描述子用以匹配跟踪目标,具体包括以下步骤:
步骤S51:将当前帧图像进行网格化,并选择网格的左上角的点作为特征点;
步骤S52:采用Lucas-Kanade 光流法预测特征点在下一帧的位置;
步骤S53:采用Lucas-Kanade 光流法从下一帧往回跟踪,获得前向预测跟反向预测轨迹位移偏差,丢弃位移偏差超过阈值的特征点;
步骤S54:求取剩下的特征点的SIFT描述子;
步骤S55:对所述步骤S54中所有求取SIFT描述子刻画的特征点进行匹配,若一特征点的相似度小于中值,则丢弃该特征点,若一特征点的相似度不小于中值,则保留该特征点;
步骤S56:若所述步骤S55保留的特征点个数少于阈值,则得到跟踪的目标区域,若所述步骤S55保留的特征点个数大于阈值,则输出跟踪到的目标区域;所述阈值为10个特征点。
在本实施例中,如图4所示,所述步骤S6中所述整合模块接收结果与综合分析的具体方法为:所述整合模块首先判断所述跟踪模块与所述检测模块是否有结果输出,若两个模块都没有输出结果的话,则表示该帧没有跟踪到目标,则无结果输出;若两个模块均有结果输出则先判断两个模块的输出结果区域重叠率是否大于0.6,若重叠率大于0.6,则对重叠的目标区域进行聚类并输出最终的结果;若重叠率不大于0.6,则将所有的候选区域与目标模型进行匹配,若匹配的置信度大于0.5,则将置信度最大的区域作为最终的目标区域。
以上所述仅为本发明的较佳实施例,凡依本发明申请专利范围所做的均等变化与修饰,皆应属本发明的涵盖范围。
Claims (1)
1.一种基于极限学习机的复杂背景下目标跟踪方法,其特征在于包括以下步骤:
步骤S1:进行目标定位:在视频第一帧中框出需要跟踪的目标或对前期目标检测算法检测到的目标进行跟踪;
步骤S2:提供一检测模块、一跟踪模块以及一综合模块,所述检测模块与跟踪模块可同时独立运行,用以对需要跟踪的目标进行检测与跟踪;
步骤S3:模块初始化:根据所述步骤S1中框出需要跟踪的目标,对所述检测模块内设置的检测器以及所述跟踪模块内设置的跟踪器进行初始化;
步骤S4:下一帧图像输入:根据既定的帧率,输入下一帧图像;
步骤S5:同时进入检测模块与跟踪模块:所述检测模块内的检测器在上一帧中跟踪目标进行多尺度检测并输出结果;所述跟踪模块内的跟踪器对上一帧中跟踪目标进行跟踪,并输出跟踪结果;
步骤S6:进入整合模块:所述整合模块接收所述步骤S5中检测模块与跟踪模块输出的结果,并对所有结果进行综合分析,将置信度最高的结果作为当前帧的跟踪目标进行输出;
步骤S7:结果显示:对所述步骤S6中整合模块的输出进行判断,若有输出结果,则在当前视频帧中框出需要跟踪的目标,若没有则不做操作;
步骤S8:判断视频帧是否结束,若该视频帧还没结束,则返回步骤S4,若该视频帧结束,则结束,完成目标跟踪任务;
所述步骤S5中所述检测器包括方差过滤器与极限学习机分类器,所述方差过滤器用以在快速将大部分的背景区域滤除,并求取留下的极少部分候选区域的方向梯度直方图,将所述方向梯度直方图送入训练好的极限学习机分类器中进行分类,丢弃背景区域;
所述步骤S5中所述检测器在上一帧中跟踪目标进行多尺度检测的检测策略为:在上一帧中跟踪目标位置的局部区域内进行多尺度检测,若检测到跟踪目标则输出结果,若没有检测到跟踪目标,则在当前帧的全局区域进行多尺度检测并输出结果;
所述极限学习机分类器在所述步骤S2中完成初始化训练,具体训练过程为:随机提取10张与目标区域重叠80%以上的图像块,并分别作仿射变换生成200张目标训练样本;在远离目标的区域随机提取200张图像块作为背景训练样本,对所述背景训练样本进行尺度归一化并提取方向梯度直方图作为特征训练极限学习机;
所述步骤S5中,所述跟踪器对上一帧中跟踪目标进行跟踪的跟踪策略为:采用前向后向跟踪算法,求取特征点的SIFT描述子用以匹配跟踪目标,具体包括以下步骤:步骤S51:将当前帧图像进行网格化,并选择网格的左上角的点作为特征点;
步骤S52:采用Lucas-Kanade光流法预测特征点在下一帧的位置;
步骤S53:采用Lucas-Kanade光流法从下一帧往回跟踪,获得前向预测跟反向预测轨迹位移偏差,丢弃位移偏差超过阈值的特征点;
步骤S54:取当前帧中剩下的特征点的SIFT描述子,以及下一帧相对应特征点的SIFT描述子;
步骤S55:对所述步骤S54中所有求取的当前帧和后一帧两两相对应的SIFT描述子刻画的特征点对进行相似度计算,若某一特征点对的相似度小于所有特征点对相似度的中值,则丢弃该特征点,若一特征点的相似度不小于中值,则保留该特征点;
步骤S56:若所述步骤S55保留的特征点个数少于阈值,则没有得到跟踪的目标区域,若所述步骤S55保留的特征点个数大于阈值,则输出跟踪到的目标区域;所述阈值为10个特征点;
所述步骤S6中所述整合模块接收结果与综合分析的具体方法为:所述整合模块首先判断所述跟踪模块与所述检测模块是否有结果输出,若两个模块都没有输出结果的话,则表示该帧没有跟踪到目标,则无结果输出;若两个模块均有结果输出则先判断两个模块的输出结果区域重叠率是否大于0.6,若重叠率大于0.6,则对重叠的目标区域进行聚类并输出最终的结果;若重叠率不大于0.6,则将所有的候选区域与目标模型进行匹配,若匹配的置信度大于0.5,则将置信度最大的区域作为最终的目标区域。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510410594.8A CN104992453B (zh) | 2015-07-14 | 2015-07-14 | 基于极限学习机的复杂背景下目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510410594.8A CN104992453B (zh) | 2015-07-14 | 2015-07-14 | 基于极限学习机的复杂背景下目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104992453A CN104992453A (zh) | 2015-10-21 |
CN104992453B true CN104992453B (zh) | 2018-10-23 |
Family
ID=54304260
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510410594.8A Active CN104992453B (zh) | 2015-07-14 | 2015-07-14 | 基于极限学习机的复杂背景下目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104992453B (zh) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106447691A (zh) * | 2016-07-19 | 2017-02-22 | 西安电子科技大学 | 基于加权多示例学习的加权极限学习机视频目标跟踪方法 |
CN106296734B (zh) * | 2016-08-05 | 2018-08-28 | 合肥工业大学 | 基于极限学习机和boosting多核学习的目标跟踪方法 |
CN106504269B (zh) * | 2016-10-20 | 2019-02-19 | 北京信息科技大学 | 一种基于图像分类的多算法协作的目标跟踪方法 |
CN106713964A (zh) * | 2016-12-05 | 2017-05-24 | 乐视控股(北京)有限公司 | 一种生成视频摘要视点图的方法及装置 |
CN106815576B (zh) * | 2017-01-20 | 2020-07-07 | 中国海洋大学 | 基于连续时空置信图和半监督极限学习机的目标追踪方法 |
CN106778712B (zh) * | 2017-03-01 | 2020-04-14 | 扬州大学 | 一种多目标检测与跟踪方法 |
CN106960446B (zh) * | 2017-04-01 | 2020-04-24 | 广东华中科技大学工业技术研究院 | 一种面向无人艇应用的水面目标检测跟踪一体化方法 |
CN107578368A (zh) * | 2017-08-31 | 2018-01-12 | 成都观界创宇科技有限公司 | 应用于全景视频的多目标跟踪方法及全景相机 |
CN107992790B (zh) * | 2017-10-13 | 2020-11-10 | 西安天和防务技术股份有限公司 | 目标长时跟踪方法及系统、存储介质及电子终端 |
TWI631516B (zh) * | 2017-10-16 | 2018-08-01 | 緯創資通股份有限公司 | 可適用多重追蹤的目標追蹤方法與系統 |
CN107886120A (zh) * | 2017-11-03 | 2018-04-06 | 北京清瑞维航技术发展有限公司 | 用于目标检测跟踪的方法和装置 |
CN107784291A (zh) * | 2017-11-03 | 2018-03-09 | 北京清瑞维航技术发展有限公司 | 基于红外视频的目标检测跟踪方法和装置 |
CN108447079A (zh) * | 2018-03-12 | 2018-08-24 | 中国计量大学 | 一种基于tld算法框架的目标跟踪方法 |
US20200226763A1 (en) * | 2019-01-13 | 2020-07-16 | Augentix Inc. | Object Detection Method and Computing System Thereof |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101739551A (zh) * | 2009-02-11 | 2010-06-16 | 北京智安邦科技有限公司 | 运动目标识别方法及系统 |
CN101867699A (zh) * | 2010-05-25 | 2010-10-20 | 中国科学技术大学 | 基于分块的非特定目标实时跟踪方法 |
US7912246B1 (en) * | 2002-10-28 | 2011-03-22 | Videomining Corporation | Method and system for determining the age category of people based on facial images |
US8401248B1 (en) * | 2008-12-30 | 2013-03-19 | Videomining Corporation | Method and system for measuring emotional and attentional response to dynamic digital media content |
CN104008371A (zh) * | 2014-05-22 | 2014-08-27 | 南京邮电大学 | 一种基于多摄像机的区域可疑目标跟踪与识别方法 |
-
2015
- 2015-07-14 CN CN201510410594.8A patent/CN104992453B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7912246B1 (en) * | 2002-10-28 | 2011-03-22 | Videomining Corporation | Method and system for determining the age category of people based on facial images |
US8401248B1 (en) * | 2008-12-30 | 2013-03-19 | Videomining Corporation | Method and system for measuring emotional and attentional response to dynamic digital media content |
CN101739551A (zh) * | 2009-02-11 | 2010-06-16 | 北京智安邦科技有限公司 | 运动目标识别方法及系统 |
CN101867699A (zh) * | 2010-05-25 | 2010-10-20 | 中国科学技术大学 | 基于分块的非特定目标实时跟踪方法 |
CN104008371A (zh) * | 2014-05-22 | 2014-08-27 | 南京邮电大学 | 一种基于多摄像机的区域可疑目标跟踪与识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN104992453A (zh) | 2015-10-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104992453B (zh) | 基于极限学习机的复杂背景下目标跟踪方法 | |
CN105224912B (zh) | 基于运动信息和轨迹关联的视频行人检测和跟踪方法 | |
Gurghian et al. | Deeplanes: End-to-end lane position estimation using deep neural networksa | |
CN102542289B (zh) | 一种基于多高斯计数模型的人流量统计方法 | |
Breitenstein et al. | Online multiperson tracking-by-detection from a single, uncalibrated camera | |
CN109919974A (zh) | 基于r-fcn框架多候选关联的在线多目标跟踪方法 | |
CN106127807A (zh) | 一种实时的视频多类多目标跟踪方法 | |
CN109697420A (zh) | 一种面向城市交通的移动目标检测及跟踪方法 | |
CN103886325B (zh) | 一种分块的循环矩阵视频跟踪方法 | |
CN105654516B (zh) | 基于目标显著性的卫星图像对地面弱小运动目标检测方法 | |
CN110991397B (zh) | 一种行进方向确定方法及相关设备 | |
CN111208479B (zh) | 一种降低深度网络检测中虚警概率的方法 | |
CN108154159A (zh) | 一种基于多级检测器的具有自恢复能力的目标跟踪方法 | |
CN114639117B (zh) | 一种跨境特定行人追踪的方法和装置 | |
CN107798691A (zh) | 一种基于视觉的无人机自主着陆地标实时检测跟踪方法 | |
Rajagopalan et al. | Vehicle detection and tracking in video | |
Al-Heety | Moving vehicle detection from video sequences for traffic surveillance system | |
Qing et al. | A novel particle filter implementation for a multiple-vehicle detection and tracking system using tail light segmentation | |
CN111275733A (zh) | 基于深度学习目标检测技术实现多艘船舶快速跟踪处理的方法 | |
Li et al. | Moving target detection and tracking algorithm based on context information | |
Morita et al. | Panoramic view-based navigation in outdoor environments based on support vector learning | |
Manzoor et al. | Qualitative Analysis of Single Object and Multi Object Tracking Models | |
CN109389048A (zh) | 一种监控视频中的行人检测与跟踪方法 | |
Altaf et al. | Presenting an effective algorithm for tracking of moving object based on support vector machine | |
CN104537690A (zh) | 一种基于最大值-时间索引联合的运动点目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |