CN108717522A - 一种基于深度学习和相关滤波的人体目标跟踪方法 - Google Patents
一种基于深度学习和相关滤波的人体目标跟踪方法 Download PDFInfo
- Publication number
- CN108717522A CN108717522A CN201810349970.0A CN201810349970A CN108717522A CN 108717522 A CN108717522 A CN 108717522A CN 201810349970 A CN201810349970 A CN 201810349970A CN 108717522 A CN108717522 A CN 108717522A
- Authority
- CN
- China
- Prior art keywords
- human body
- correlation filtering
- lightweight
- arbiter
- deep learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Abstract
本发明涉及一种基于深度学习和相关滤波的人体目标跟踪方法,该方法包括以下步骤:1)读取待跟踪视频的当前帧,利用人体检测器检测人体位置;2)读取待跟踪视频的下一帧,判断是否到达视频结尾,若是,则结束,若否,则执行步骤3);3)利用上一步检测获得的人体位置初始化相关滤波跟踪器,进行人体跟踪,持续设定时间;4)利用轻量级人体判别器判定当前跟踪目标是否为人体,若是,则记录人体位置,返回步骤2),若否,则返回步骤1)。与现有技术相比,本发明具有准确性高、实时性好等优点。
Description
技术领域
本发明涉及一种目标跟踪技术,尤其是涉及一种基于深度学习和相关滤波的 人体目标跟踪方法。
背景技术
视频中的人体目标跟踪是一项涉及模式识别、计算机视觉及人工智能等多领域的研究课题,因其在智能视频监控、安防、教育等领域中广泛的应用价值,一直以 来是人们研究的热点。然而,在现实场景中,由于人体姿态变化、视频抖动、遮挡 等因素,跟踪算法难以同时兼顾运算实时性与结果准确性,这一问题在长时段跟踪 任务中尤为明显。因此,如何实现准确而又具有实时性的人体目标跟踪方法仍然是 研究的难点。
文献“High-speed tracking with kernelized correlation filters”(Henriques J F, Caseiro R,Martins P,et al.IEEE Transactions on PatternAnalysis and Machine Intelligence,2015,37(3):583-596)介绍了一种基于相关滤波的目标跟踪技术。该方 法首先根据当前帧以及之前帧的信息训练出一个能够分辨跟踪目标与普通背景的 相关滤波器。之后对于新输入的帧,在上一帧目标周围区域进行相关性计算,相关 性得分最高的点就作为这一帧的跟踪结果。该方法的具体流程可概括为训练和检测 两个阶段。训练阶段具体包括:(1)特征提取,包括原始像素、梯度直方图特征或 颜色特征;(2)采样并生成循环矩阵,在第一帧目标周围取一块略大于目标的图像 区域作为训练样本采样,大于目标的部分用于提供上下文信息,之后将采样图像扩 展为循环矩阵,以扩充训练样本数;(3)利用快速傅里叶变换(FFT)与核岭回归 方法高效地求解相关滤波参数。检测阶段具体包括:(1)在上一帧目标周围计算相 关性;(2)选取相关性得分最高的点作为这一帧的跟踪结果的中心;(3)返回训练 阶段,直至视频到达最后一帧。上述方法的不足在于:1、跟踪器不具有判别能力, 一旦跟踪过程中出现错误,可能之后所有帧的跟踪都会出错,这一问题在长时段跟 踪任务中尤为明显;2、跟踪目标大小给定后就不再改变,无法适应镜头缩放与跟 踪目标尺寸变化;3、需要人工给出第一帧的跟踪目标,无法做到全自动化。
发明内容
本发明实现一种基于深度学习和相关滤波的人体目标跟踪方法。
本发明的目的之一是解决现有跟踪技术在长时段目标跟踪时准确率低的问题。
本发明的目的之二是解决现有跟踪技术难以在保证准确率的同时达到计算实 时性的问题。
本发明的目的可以通过以下技术方案来实现:
一种基于深度学习和相关滤波的人体目标跟踪方法,该方法包括以下步骤:
1)读取待跟踪视频的当前帧,利用人体检测器检测人体位置;
2)读取待跟踪视频的下一帧,判断是否到达视频结尾,若是,则结束,若否, 则执行步骤3);
3)利用上一步检测获得的人体位置初始化相关滤波跟踪器,进行人体跟踪, 持续设定时间;
4)利用轻量级人体判别器判定当前跟踪目标是否为人体,若是,则记录人体 位置,返回步骤2),若否,则返回步骤1);
其中,所述人体检测器基于一人体样本数据库、利用深度卷积神经网络训练获得,所述轻量级人体判别器基于所述人体样本数据库、利用轻量级的深度卷积神经 网络训练获得,所述相关滤波跟踪器根据当前帧以及之前帧的信息训练获得。
进一步地,训练所述轻量级人体判别器时使用随机梯度下降作为优化方式。
进一步地,所述轻量级人体判别器的网络结构包括6个卷积层、3个池化层和 一个全连接层,并使用softmax进行分类。
进一步地,训练所述相关滤波跟踪器时融合所述轻量级人体判别器在训练过程中提取的卷积特征。
进一步地,所述卷积特征为所述轻量级人体判别器在训练过程中网络最前端的 2个卷积层所提取的卷积特征。
进一步地,所述设定时间为5~15s。
与现有技术相比,本发明具有以下有益效果:
1、本发明使用人体检测器、轻量级人体判别器和相关滤波跟踪器共同协作, 提升了人体目标跟踪准确性,尤其是长时段的人体目标跟踪。
2、本发明基于轻量级人体判别器实现,减少了耗时的人体检测器调用次数, 提高了跟踪算法效率,保证了跟踪算法的实时性。经测试,本技术方案提出的跟踪 算法平均运行速度可以达到30FPS以上。
3、本发明在相关滤波特征提取阶段融合了轻量级人体判别器前两层提取的卷 积特征,由于人体判别器针对了大量人体样本进行训练,提取到的特征对人体有更 好的表达性,从而增强了相关滤波的准确率。
附图说明
图1为本发明的流程示意图;
图2为本发明的人体检测器结构示意图;
图3为本发明的轻量级人体判别器结构示意图;
图4为本发明相关滤波跟踪器工作流程示意图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范 围不限于下述的实施例。
如图1所示,本实施例实现一种基于深度学习和相关滤波的人体目标跟踪方法,该方法由一个人体检测器、一个轻量级人体判别器和一个相关滤波跟踪器共同协作 完成人体目标跟踪任务,包括以下步骤:
1)读取待跟踪视频的当前帧,利用人体检测器检测人体位置;
2)读取待跟踪视频的下一帧,判断是否到达视频结尾,若是,则结束,若否, 则执行步骤3);
3)利用上一步检测获得的人体位置初始化相关滤波跟踪器,进行人体跟踪, 持续设定时间;
4)利用轻量级人体判别器判定当前跟踪目标是否为人体,若是,则记录人体 位置,返回步骤2),相关滤波跟踪器继续工作,若否,则返回步骤1),代表跟踪 出现错误,需要使用人体检测器重新为相关滤波跟踪器提供跟踪目标。
其中,所述人体检测器基于一人体样本数据库、利用深度卷积神经网络(DeepCNN)训练获得;所述轻量级人体判别器基于所述人体样本数据库、利用轻量级 的深度卷积神经网络(Lightweight CNN)训练获得,以保证实时性;所述相关滤 波跟踪器根据当前帧以及之前帧的信息训练获得。
通过上述不断循环可以最终完成整个跟踪过程。上述人体目标跟踪方法适用于任意场景,尤其针对目标人物需要长时间跟踪的任务场景。
1、样本数据库
该方法需要创建一个拥有大量人体图像样本的数据库,在此基础上基于深度卷积神经网络训练一个人体检测模型,这一模型被称为人体检测器。基于同样的样本, 训练一个轻量级的卷积神经网络模型。该模型以一张图片作为输入,输出这张图片 是人体/非人体,这一模型被称为轻量级人体判别器,简称人体判别器。
2、人体检测器
本实施例采用现有技术中的一种深度卷积神经网络实现人体检测器,所实现的人体检测器的结构如图2所示。该网络首先使用一组基础的ResNet-Block (conv+relu+pooling层)提取特征图(feature maps)。该特征图之后被共享用于后 续的RPN(区域建议网络)层和RoI Pooling(感兴趣区域池化)层。RPN网络用 于生成region proposals(候选框)。RoI Pooling层输入feature maps和region proposals, 并对每一个候选框池化至统一大小,以便之后进行包围盒回归和候选框分类。最后, 网络通过一组卷积层判定候选框中是否存在人体,同时对候选框的大小和位置进行 修正,从而得到检测框最终的精确位置。
3、轻量级人体判别器
本实施例轻量级人体判别器的结构如图3所示。轻量级人体判别器网络采用6 个卷积层、3个池化层和一个全连接层堆叠而成,最后使用softmax进行分类。卷 积层的卷积核的大小设置为3*3。网络每经过2个卷积层进行一次池化操作,以提取 更高层次的语义特征。每个卷积层后,网络使用ReLU函数作为激活函数。在训练 与测试阶段,所有样本统一缩放为224*224大小。训练时使用随机梯度下降(SGD) 作为优化方式。在训练完成后,网络最前端的2个卷积层参数单独保留,以用于相 关滤波过程中卷积特征的融合。
4、相关滤波跟踪器
相关滤波跟踪器的工作流程如图4所示,该方法首先根据当前帧以及之前帧的 信息训练出一个能够分辨跟踪目标与普通背景的相关滤波器。之后对于新输入的帧, 在上一帧目标周围区域进行相关性计算,相关性得分最高的点就作为这一帧的跟踪 结果。该方法的具体流程可概括为训练和检测两个阶段。
训练阶段具体包括:(1)特征提取,包括梯度直方图特征和卷积特征。本实施 例在特征整体提取过程中融合了轻量级人体判别器前两个卷积层提取出的卷积特 征。由于轻量级人体判别器针对了大量人体样本进行训练,提取到的特征对人体有 更好的表达性,从而增强了相关滤波的准确率。(2)采样并生成循环矩阵,在第一 帧目标周围取一块略大于目标的图像区域作为训练样本采样,大于目标的部分用于 提供上下文信息。之后将采样图像扩展为循环矩阵,以扩充训练样本数;(3)利用 快速傅里叶变换(FFT)与核岭回归方法高效地求解相关滤波参数。
检测阶段具体包括:(1)在上一帧目标周围计算相关性;(2)选取相关性得分 最高的点作为这一帧的跟踪结果的中心;(3)返回训练阶段,直至视频到达最后一 帧。
相关滤波跟踪器工作的设定时间可由一定时器实现,所述设定时间为5~15s。
以上详细描述了本发明的较佳具体实施例。应当理解,本领域的普通技术人员 无需创造性劳动就可以根据本发明的构思作出诸多修改和变化。因此,凡本技术领 域中技术人员依本发明的构思在现有技术的基础上通过逻辑分析、推理或者有限的 实验可以得到的技术方案,皆应在由权利要求书所确定的保护范围内。
Claims (6)
1.一种基于深度学习和相关滤波的人体目标跟踪方法,其特征在于,该方法包括以下步骤:
1)读取待跟踪视频的当前帧,利用人体检测器检测人体位置;
2)读取待跟踪视频的下一帧,判断是否到达视频结尾,若是,则结束,若否,则执行步骤3);
3)利用上一步检测获得的人体位置初始化相关滤波跟踪器,进行人体跟踪,持续设定时间;
4)利用轻量级人体判别器判定当前跟踪目标是否为人体,若是,则记录人体位置,返回步骤2),若否,则返回步骤1);
其中,所述人体检测器基于一人体样本数据库、利用深度卷积神经网络训练获得,所述轻量级人体判别器基于所述人体样本数据库、利用轻量级的深度卷积神经网络训练获得,所述相关滤波跟踪器根据当前帧以及之前帧的信息训练获得。
2.根据权利要求1所述的基于深度学习和相关滤波的人体目标跟踪方法,其特征在于,训练所述轻量级人体判别器时使用随机梯度下降作为优化方式。
3.根据权利要求1所述的基于深度学习和相关滤波的人体目标跟踪方法,其特征在于,所述轻量级人体判别器的网络结构包括6个卷积层、3个池化层和一个全连接层,并使用softmax进行分类。
4.根据权利要求3所述的基于深度学习和相关滤波的人体目标跟踪方法,其特征在于,训练所述相关滤波跟踪器时融合所述轻量级人体判别器在训练过程中提取的卷积特征。
5.根据权利要求4所述的基于深度学习和相关滤波的人体目标跟踪方法,其特征在于,所述卷积特征为所述轻量级人体判别器在训练过程中网络最前端的2个卷积层所提取的卷积特征。
6.根据权利要求1所述的基于深度学习和相关滤波的人体目标跟踪方法,其特征在于,所述设定时间为5~15s。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810349970.0A CN108717522A (zh) | 2018-04-18 | 2018-04-18 | 一种基于深度学习和相关滤波的人体目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810349970.0A CN108717522A (zh) | 2018-04-18 | 2018-04-18 | 一种基于深度学习和相关滤波的人体目标跟踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108717522A true CN108717522A (zh) | 2018-10-30 |
Family
ID=63899108
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810349970.0A Pending CN108717522A (zh) | 2018-04-18 | 2018-04-18 | 一种基于深度学习和相关滤波的人体目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108717522A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109697727A (zh) * | 2018-11-27 | 2019-04-30 | 哈尔滨工业大学(深圳) | 基于相关滤波和度量学习的目标跟踪方法、系统及存储介质 |
CN109977928A (zh) * | 2019-04-25 | 2019-07-05 | 中国科学院自动化研究所 | 一种机器人目标行人检索方法 |
CN110119757A (zh) * | 2019-03-28 | 2019-08-13 | 北京奇艺世纪科技有限公司 | 模型训练方法、视频类别检测方法、装置、电子设备和计算机可读介质 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101477616A (zh) * | 2008-01-04 | 2009-07-08 | 华晶科技股份有限公司 | 人脸检测与追踪方法 |
CN101620673A (zh) * | 2009-06-18 | 2010-01-06 | 北京航空航天大学 | 一种鲁棒的人脸检测及跟踪方法 |
CN102163281A (zh) * | 2011-04-26 | 2011-08-24 | 哈尔滨工程大学 | 基于AdaBoost框架和头部颜色的实时人体检测方法 |
CN102722698A (zh) * | 2012-05-17 | 2012-10-10 | 上海中原电子技术工程有限公司 | 多姿态人脸检测与跟踪方法及系统 |
CN104794468A (zh) * | 2015-05-20 | 2015-07-22 | 成都通甲优博科技有限责任公司 | 一种基于无人机动平台的人脸检测与跟踪方法 |
CN104820998A (zh) * | 2015-05-27 | 2015-08-05 | 成都通甲优博科技有限责任公司 | 一种基于无人机动平台的人体检测与跟踪方法及装置 |
CN105308618A (zh) * | 2013-06-27 | 2016-02-03 | 英特尔公司 | 借助于并行检测和跟踪和/或分组特征运动移位跟踪的人脸识别 |
CN105741316A (zh) * | 2016-01-20 | 2016-07-06 | 西北工业大学 | 基于深度学习和多尺度相关滤波的鲁棒目标跟踪方法 |
CN106920251A (zh) * | 2016-06-23 | 2017-07-04 | 阿里巴巴集团控股有限公司 | 人手检测跟踪方法及装置 |
CN106934381A (zh) * | 2017-03-20 | 2017-07-07 | 成都通甲优博科技有限责任公司 | 一种人脸识别跟踪方法 |
CN107564037A (zh) * | 2017-08-07 | 2018-01-09 | 华南理工大学 | 一种基于局部特征的多机器人检测与跟踪方法 |
-
2018
- 2018-04-18 CN CN201810349970.0A patent/CN108717522A/zh active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101477616A (zh) * | 2008-01-04 | 2009-07-08 | 华晶科技股份有限公司 | 人脸检测与追踪方法 |
CN101620673A (zh) * | 2009-06-18 | 2010-01-06 | 北京航空航天大学 | 一种鲁棒的人脸检测及跟踪方法 |
CN102163281A (zh) * | 2011-04-26 | 2011-08-24 | 哈尔滨工程大学 | 基于AdaBoost框架和头部颜色的实时人体检测方法 |
CN102722698A (zh) * | 2012-05-17 | 2012-10-10 | 上海中原电子技术工程有限公司 | 多姿态人脸检测与跟踪方法及系统 |
CN105308618A (zh) * | 2013-06-27 | 2016-02-03 | 英特尔公司 | 借助于并行检测和跟踪和/或分组特征运动移位跟踪的人脸识别 |
CN104794468A (zh) * | 2015-05-20 | 2015-07-22 | 成都通甲优博科技有限责任公司 | 一种基于无人机动平台的人脸检测与跟踪方法 |
CN104820998A (zh) * | 2015-05-27 | 2015-08-05 | 成都通甲优博科技有限责任公司 | 一种基于无人机动平台的人体检测与跟踪方法及装置 |
CN105741316A (zh) * | 2016-01-20 | 2016-07-06 | 西北工业大学 | 基于深度学习和多尺度相关滤波的鲁棒目标跟踪方法 |
CN106920251A (zh) * | 2016-06-23 | 2017-07-04 | 阿里巴巴集团控股有限公司 | 人手检测跟踪方法及装置 |
CN106934381A (zh) * | 2017-03-20 | 2017-07-07 | 成都通甲优博科技有限责任公司 | 一种人脸识别跟踪方法 |
CN107564037A (zh) * | 2017-08-07 | 2018-01-09 | 华南理工大学 | 一种基于局部特征的多机器人检测与跟踪方法 |
Non-Patent Citations (2)
Title |
---|
HUIZHI CHEN等: "Hierarchical Convolutional Features for Long-Term Correlation Tracking", 《CCF CHINESE CONFERENCE ON COMPUTER VISION》 * |
WANG JING等: "Object tracking using color-feature guided network generalization and tailored feature fusion", 《NEUROCOMPUTING》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109697727A (zh) * | 2018-11-27 | 2019-04-30 | 哈尔滨工业大学(深圳) | 基于相关滤波和度量学习的目标跟踪方法、系统及存储介质 |
CN110119757A (zh) * | 2019-03-28 | 2019-08-13 | 北京奇艺世纪科技有限公司 | 模型训练方法、视频类别检测方法、装置、电子设备和计算机可读介质 |
CN110119757B (zh) * | 2019-03-28 | 2021-05-25 | 北京奇艺世纪科技有限公司 | 模型训练方法、视频类别检测方法、装置、电子设备和计算机可读介质 |
CN109977928A (zh) * | 2019-04-25 | 2019-07-05 | 中国科学院自动化研究所 | 一种机器人目标行人检索方法 |
CN109977928B (zh) * | 2019-04-25 | 2021-03-23 | 中国科学院自动化研究所 | 一种机器人目标行人检索方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106096577B (zh) | 一种摄像头分布地图中的目标追踪方法 | |
CN108876780B (zh) | 一种复杂背景下桥梁裂缝图像裂缝检测方法 | |
CN109271888A (zh) | 基于步态的身份识别方法、装置、电子设备 | |
CN107527337B (zh) | 一种基于深度学习的视频对象移除篡改检测方法 | |
CN109740413A (zh) | 行人重识别方法、装置、计算机设备及计算机存储介质 | |
CN109816689A (zh) | 一种多层卷积特征自适应融合的运动目标跟踪方法 | |
CN110427905A (zh) | 行人跟踪方法、装置以及终端 | |
CN103198493B (zh) | 一种基于多特征自适应融合和在线学习的目标跟踪方法 | |
CN107154024A (zh) | 基于深度特征核相关滤波器的尺度自适应目标跟踪方法 | |
CN110443210A (zh) | 一种行人跟踪方法、装置以及终端 | |
CN107945153A (zh) | 一种基于深度学习的路面裂缝检测方法 | |
CN111814661A (zh) | 基于残差-循环神经网络的人体行为识别方法 | |
CN106529499A (zh) | 基于傅里叶描述子和步态能量图融合特征的步态识别方法 | |
CN105160310A (zh) | 基于3d卷积神经网络的人体行为识别方法 | |
Yu et al. | Railway obstacle detection algorithm using neural network | |
CN107145862A (zh) | 一种基于霍夫森林的多特征匹配多目标跟踪方法 | |
CN110414380A (zh) | 一种基于目标检测的学生行为检测方法 | |
CN106599994A (zh) | 一种基于深度回归网络的视线估计方法 | |
CN107452015A (zh) | 一种具有重检测机制的目标跟踪系统 | |
CN103593679A (zh) | 一种基于在线机器学习的视觉人手跟踪方法 | |
CN108717522A (zh) | 一种基于深度学习和相关滤波的人体目标跟踪方法 | |
CN110008793A (zh) | 人脸识别方法、装置及设备 | |
CN108960412A (zh) | 图像识别方法、装置及计算机可读存储介质 | |
CN107945210A (zh) | 基于深度学习和环境自适应的目标跟踪算法 | |
CN107563299A (zh) | 一种利用ReCNN融合上下文信息的行人检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20181030 |