CN110688987B - 一种行人位置检测与跟踪方法及系统 - Google Patents
一种行人位置检测与跟踪方法及系统 Download PDFInfo
- Publication number
- CN110688987B CN110688987B CN201910984848.5A CN201910984848A CN110688987B CN 110688987 B CN110688987 B CN 110688987B CN 201910984848 A CN201910984848 A CN 201910984848A CN 110688987 B CN110688987 B CN 110688987B
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- frame
- target
- face
- target frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Image Analysis (AREA)
Abstract
本公开提供了行人位置检测与跟踪方法及系统。其中,行人位置检测与跟踪方法,包括获取预设场景内的视频流,将视频流中逐帧图像依次输入至人脸检测模型中,输出视频流中行人的人脸位置和人脸大小目标框;根据行人的形体特征结合人脸大小目标框,估计出行人目标框并与背景减除法检测出的行人目标框的结果融合进行修正,得到修正后的行人目标框;根据行人目标对象与预设场景地理位置的映射关系,得到修正后的行人目标框对应的位置;计算修正后的行人目标框的质心,作为相应帧图像行人目标质心,对预处理后的视频流中每帧图像的行人目标质心进行跟踪,实现行人跟踪。其具有良好的检测和跟踪效果,避免了多目标重叠造成的影响。
Description
技术领域
本公开属于图像处理领域,尤其涉及一种行人位置检测与跟踪方法及系统。
背景技术
本部分的陈述仅仅是提供了与本公开相关的背景技术信息,不必然构成在先技术。
智能监控视频分析技术是计算机视觉领域一个新兴的应用方向和备受关注的前沿课题。伴随着网络技术和数字视频技术的飞速发展,监控技术正向着智能化、网络化方向不断发展。智能监控系统的优势在于使用计算机视觉算法自动获取监控视频中的关键信息,最大限度地减少人力物力。运动目标检测与运动目标跟踪作为智能监控技术的一个重要基础,在人流统计、人员定位、入侵报警等方面都发挥着重要作用,在工业方面也有着广阔的应用场景。
运动目标检测技术在多年的研究与发展中,新的算法不断被提出,使得运动目标检测技术日趋成熟。如H Wang等人提出了一种利用邻域帧间差分提取可能的运动像素,将新像素与背景模型比较,判断新像素是否满足样本一致性的算法;K Kim等人提出了一种码本模型,其为每一个像素点建立一个码本,每个码本又由多个码字组成,根据码字的匹配程度判断像素点的归属;卢章平等人针对混合高斯背景建模算法对光照突变敏感的问题,提出了一种三帧间差分法与混合高斯背景差分法相结合的检测算法。运动目标跟踪算法以卡尔曼滤波算法、均值漂移算法和粒子滤波算法影响最为广泛。发明人发现,这些算法在一定程度上达到了运动目标检测和跟踪的效果,但是单独使用这些传统的检测跟踪算法,不仅计算量大,鲁棒性不够,且不能在线学习,从而不能达到目标随时间变化的跟踪效果。伴随着机器学习的发展,样本的训练和分类也逐渐引入到了运动目标检测和跟踪中,这就增加了模型训练的复杂性,使得检测的时间消耗较高,不能满足后续目标跟踪的实时性要求。另外,现有技术没有充分发挥人的形体特征在运动目标检测和跟踪技术中具有的自适应性优势,大多不能同时权衡实时性和鲁棒性两个要求。
发明内容
为了解决上述问题,本公开的第一个方面提供一种行人位置检测与跟踪方法,其不仅提高了行人位置检测与跟踪的实时性和鲁棒性,降低了成本,且避免了多目标重叠造成的影响。
为了实现上述目的,本公开采用如下技术方案:
一种行人位置检测与跟踪方法,包括:
获取预设场景内的视频流,将视频流中逐帧图像依次输入至人脸检测模型中,输出视频流中行人的人脸位置和人脸大小目标框;其中,人脸检测模型由预设神经网络事先训练完成;
根据行人的形体特征结合人脸大小目标框,估计出行人目标框并与背景减除法检测出的行人目标框的结果融合进行修正,得到修正后的行人目标框;
根据行人目标对象与预设场景地理位置的映射关系,得到修正后的行人目标框对应的位置;
计算修正后的行人目标框的质心,作为相应帧图像行人目标质心,对预处理后的视频流中每帧图像的行人目标质心进行跟踪,实现行人跟踪。
进一步地,将视频流中逐帧图像依次输入至人脸检测模型之前,还包括:对视频流中的每一帧图像进行预处理,其过程为:
对每一帧图像进行灰度变换,然后通过中值滤波去除噪声干扰,减少光照对检测的影响;最后通过图像增强的方法突出感兴趣的区域。
本公开通过对图像进行预处理,能够提高行人位置检测与跟踪的精度。
进一步地,所述人脸检测模型由TTCNN网络构成,TTCNN网络以CNN为共享网络结构,依次实现三个功能模块的调用;其中,第一个功能模块用于筛选出人脸候选区域,采用非极大值抑制算法合并人脸候选框,整理合并后的人脸图像;第二功能模块用于接收合并后的人脸图像,并采用非极大值抑制算法进一步合并后保留预设数量的人脸候选框;第二功能模块用于筛选概率值大于或等于预设概率阈值的人脸候选框,输出精确的人脸框和人脸特征点信息。
其中,TTCNN(Three-task convolutional neural network)网络以卷积神经网络(Convolutional Neural Networks,CNN)为共享网络结构,能够依次实现三个子功能模块的调用,完成人脸检测。
此处CNN网络作为三个子功能模块的共享网络结构,包含卷积层、池化层和全连接层。CNN通过结合局部感知区域、共享权重、空间或者时间上的降采样来充分利用数据本身包含的局部性等特征来优化网络结构。TTCNN网络的三个功能模块能共享CNN网络结构,依次实现各自功能。
进一步地,将预处理后的视频流逐帧输入至人脸检测模型中,输出视频流中行人的人脸位置和人脸大小目标框的过程为:
将预处理后的图像按照一定比例进行缩放,形成多尺度的金字塔结构并输入至共享CNN网络中,同时调用第一个功能模块,筛选出人脸候选区域,采用非极大值抑制算法合并人脸候选框,整理合并后的人脸图像输入到第二个功能模块;
第二个功能模块通过采用非极大值抑制算法进一步合并后保留预设数量的人脸候选框;
第二个功能模块输出的图像数据再输入至第三个功能模块中,筛选概率值大于或等于预设概率阈值的人脸候选框,输出精确的人脸框和人脸特征点信息。
本公开的人脸检测模型由TTCNN网络构成。该网络结构是以CNN网络为共享结构,能够依次实现三个功能模块的调用,完成人脸检测。
进一步地,在估计出行人目标框并与背景减除法检测出的行人目标框的结果融合进行修正的过程中,首先将估计出行人目标框与背景减除法检测出的行人目标框分别进行像素值修正平均运算,再对得到的像素值修正平均运算处理的图像进行对应的像素值加权平均运算,得到融合图像,即修正后的行人目标框。
本公开根据人的形体特征获取目标框然后与背景减除法检测结果融合进行修正,改进了目标行人检测的精度,增强了模型的自适应性能力,提高了目标框检测和分割的准确性。
进一步地,对预处理后的视频流中每帧图像的行人目标质心进行跟踪的过程,包括:
根据行人目标对象与预设场景地理位置的映射关系,判断行人目标的运动方向,根据运动方向判断下一帧中待匹配的目标框;
获取待匹配的目标框后,计算目标框的质心坐标;
采取中心区域匹配的方法来计算当前帧质心区域与搜索下一帧目标框质心区域的颜色直方图信息,当两质心相似性超过预先设置的阈值时,质心区域匹配成功,表明两个质心区域是同一目标,进而绘制出该目标框质心轨迹,完成对运动目标的跟踪。
本公开利用颜色直方图的质心匹配法实现目标跟踪的过程,不仅降低了匹配时间和由运动目标重叠遮挡带来的跟踪误差,而且保证了匹配的准确性,使目标跟踪的结果更加精确。
为了解决上述问题,本公开的第二个方面提供一种行人位置检测与跟踪系统,其不仅提高了行人位置检测与跟踪的实时性和鲁棒性,降低了成本,且避免了多目标重叠造成的影响。
为了实现上述目的,本公开采用如下技术方案:
一种行人位置检测与跟踪系统,包括:
人脸检测模块,其用于获取预设场景内的视频流,将视频流中逐帧图像依次输入至人脸检测模型中,输出视频流中行人的人脸位置和人脸大小目标框;其中,人脸检测模型由预设神经网络事先训练完成;
行人目标框修正模块,其用于根据行人的形体特征结合人脸大小目标框,估计出行人目标框并与背景减除法检测出的行人目标框的结果融合进行修正,得到修正后的行人目标框;
行人位置检测模块,其用于根据行人目标对象与预设场景地理位置的映射关系,得到修正后的行人目标框对应的位置;
行人跟踪模块,其用于计算修正后的行人目标框的质心,作为相应帧图像行人目标质心,对预处理后的视频流中每帧图像的行人目标质心进行跟踪,实现行人跟踪。
进一步地,所述行人跟踪模块,包括:
行人目标运动判断模块,其用于根据行人目标对象与预设场景地理位置的映射关系,判断行人目标的运动方向,根据运动方向判断下一帧中待匹配的目标框;
质心坐标计算模块,其用于获取待匹配的目标框后,计算目标框的质心坐标;
质心轨迹绘制模块,其用于采取中心区域匹配的方法来计算当前帧质心区域与搜索下一帧目标框质心区域的颜色直方图信息,当两质心相似性超过预先设置的阈值时,质心区域匹配成功,表明两个质心区域是同一目标,进而绘制出该目标框质心轨迹,完成对运动目标的跟踪。
本公开的第三方面提供一种计算机可读存储介质。
一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上述所述的行人位置检测与跟踪方法中的步骤。
本公开的第四方面提供一种计算机设备。
一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述所述的行人位置检测与跟踪方法中的步骤。
本公开的有益效果是:
(1)本公开根据人的形体特征获取目标框然后与背景减除法检测结果融合进行修正,改进了目标行人检测的精度,增强了方法的自适应性能力,提高了目标框检测和分割的准确性。
(2)本公开根据行人目标对象与预设场景地理位置的映射关系,得到修正后的行人目标框对应的位置,利用行人与地理信息之间的坐标关系确定行人具体的位置,可以预测行人的运动方向,大大缩短了目标检测和跟踪的时间。
(3)本公开由TTCNN网络构成人脸检测模型。该网络结构是以CNN网络为共享结构,能够依次实现三个功能模块的调用,完成人脸检测。
(4)本公开利用颜色直方图的质心匹配法实现目标跟踪的过程,不仅降低了匹配时间和由运动目标重叠遮挡带来的跟踪误差,而且保证了匹配的准确性,使目标跟踪的结果更加精确。
附图说明
构成本公开的一部分的说明书附图用来提供对本公开的进一步理解,本公开的示意性实施例及其说明用于解释本公开,并不构成对本公开的不当限定。
图1是本公开实施例的一种行人位置检测与跟踪方法流程图;
图2是本公开实施例的梯形区域到矩形区域的映射图;
图3是本公开实施例的一种行人位置检测与跟踪系统结构示意图。
具体实施方式
下面结合附图与实施例对本公开作进一步说明。
应该指出,以下详细说明都是例示性的,旨在对本公开提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本公开所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本公开的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
在本公开中,术语如“上”、“下”、“左”、“右”、“前”、“后”、“竖直”、“水平”、“侧”、“底”等指示的方位或位置关系为基于附图所示的方位或位置关系,只是为了便于叙述本公开各部件或元件结构关系而确定的关系词,并非特指本公开中任一部件或元件,不能理解为对本公开的限制。
本公开中,术语如“固接”、“相连”、“连接”等应做广义理解,表示可以是固定连接,也可以是一体地连接或可拆卸连接;可以是直接相连,也可以通过中间媒介间接相连。对于本领域的相关科研或技术人员,可以根据具体情况确定上述术语在本公开中的具体含义,不能理解为对本公开的限制。
实施例1
如图1所示,本实施例的一种行人位置检测与跟踪方法,包括:
S101:获取预设场景内的视频流,将视频流中逐帧图像依次输入至人脸检测模型中,输出视频流中行人的人脸位置和人脸大小目标框;其中,人脸检测模型由预设神经网络事先训练完成。
在具体实施中,将视频流中逐帧图像依次输入至人脸检测模型之前,还包括:对视频流中的每一帧图像进行预处理,其过程为:
对每一帧图像进行灰度变换,然后通过中值滤波去除噪声干扰,减少光照对检测的影响;最后通过图像增强的方法突出感兴趣的区域。
本实施例通过对图像进行预处理,能够提高行人位置检测与跟踪的精度。
在本实施例中,所述人脸检测模型由TTCNN网络构成。该网络结构是以CNN网络为共享结构,能够依次实现三个功能模块的调用,完成人脸检测。
人脸检测模型由TTCNN网络构成,TTCNN网络以CNN为共享网络结构,依次实现三个功能模块的调用;其中,第一个功能模块用于筛选出人脸候选区域,采用非极大值抑制算法合并人脸候选框,整理合并后的人脸图像;第二功能模块用于接收合并后的人脸图像,并采用非极大值抑制算法进一步合并后保留预设数量的人脸候选框;第二功能模块用于筛选概率值大于或等于预设概率阈值的人脸候选框,输出精确的人脸框和人脸特征点信息。
其中,TTCNN(Three-task convolutional neural network)网络以卷积神经网络(Convolutional Neural Networks,CNN)为共享网络结构,能够依次实现三个子功能模块的调用,完成人脸检测。
具体地,训练人脸检测模型之前,包括制作人脸检测训练数据集,其过程为:首先采用Caleb人脸数据集作为人脸特征点训练数据集,将其应用于视频中采集到的含有人脸的图像中;然后用目标检测标注工具IabelImg在图像中标注出人脸的位置。
下面给出训练人脸检测模型的具体过程:
将训练数据集分为4类,随机在训练数据集上生成一些候选框,用来提取正样本、中间样本、负样本和人脸特征点样本。人脸检测采用交叉熵损失函数对其进行分类。本实施例的人脸检测模型网络的损失函数包含为人脸分类损失函数、人脸框损失函数和人脸特征点损失函数。
人脸检测采用交叉熵损失函数对其进行分类,损失函数的计算公式如下所示:
人脸回归框的计算采用欧式距离,即平方损失函数。损失函数的计算公式如下所示:
对于人脸特征点的检测,与人脸回归框的计算类似,同样采用平方损失函数。
将损失函数联合起来,最终的目标函数如下所示:
式中:N代表训练样本的总数,αj代表各个损失函数所占的权重,表示样本类型,表示不同的损失函数。在第一个功能模块和第二个功能模块中,根据训练效果和经验,令αdet=1,αbox=0.5,αmark=0.5。为了人脸特征点坐标更高的准确率,在进行第三个功能模块时,令αdet=0.5,αbox=0.5,αmark=1。
具体地,将预处理后的视频流逐帧输入至人脸检测模型中,输出视频流中行人的人脸位置和人脸大小目标框的过程为:
将预处理后的图像按照一定比例进行缩放,形成多尺度的金字塔结构并输入至共享CNN网络中,同时调用第一个功能模块,筛选出人脸候选区域,采用非极大值抑制算法合并人脸候选框,整理合并后的人脸图像输入到第二个功能模块;
第二个功能模块通过采用非极大值抑制算法进一步合并后保留预设数量的人脸候选框;
第二个功能模块输出的图像数据再输入至第三个功能模块中,筛选概率值大于或等于预设概率阈值的人脸候选框,输出精确的人脸框和人脸特征点信息。
本实施例中的人脸模型由TTCNN网络构成。该网络以CNN网络为共享结构,能够依次实现三个功能模块的调用,完成人脸检测。
S102:根据行人的形体特征结合人脸大小目标框,估计出行人目标框并与背景减除法检测出的行人目标框的结果融合进行修正,得到修正后的行人目标框。
具体地,在估计出行人目标框并与背景减除法检测出的行人目标框的结果融合进行修正的过程中,首先将估计出行人目标框与背景减除法检测出的行人目标框分别进行像素值修正平均运算,再对得到的像素值修正平均运算处理的图像进行对应的像素值加权平均运算,得到融合图像,即修正后的行人目标框。
例如:(1)根据人的形体特征如人的头部高度和人体身高与宽度的比例,利用上一步骤检测到的人脸目标框的宽度和高度估计出行人目标框的大小,获得目标框A1;
(2)利用背景减除法检测分割行人目标框。从视频帧选取一张不含有行人的楼宇内视频场景作为背景图像B,背景图像和当前帧图像中的(x,y)处的像素值用B(x,y)和fn(x,y)表示,按照下式进行差分运算,然后用阈值T将差分图像二值化,得到最终图像Rn′。
前景提取分割出行人所在的区域,获得目标框为A2;
(3)分别对目标框A1和目标框A2进行像素值修正平均运算分别得到A′1、A′2,对A′1、A′2进行对应的像素值加权平均运算,得到融合图像A。则A为修正后的精确的目标框。
本实施例根据人的形体特征获取目标框然后与背景减除法检测结果融合进行修正,改进了目标行人检测的精度,增强了模型的自适应性能力,提高了目标框检测和分割的准确性。
S103:根据行人目标对象与预设场景地理位置的映射关系,得到修正后的行人目标框对应的位置。
在具体实施中,结合视频拍摄的建筑物标注的位置,得到行人具体的位置。
步骤如下:
(1)首先获取建筑物楼层平面图,在建筑物平面图上获取门、走廊、楼道口和房间等的位置信息,将这些地理信息融入到监控系统中并进行标注;
(2)以楼道地面为投影的水平面建立坐标系,Z轴为0。然后完成图像楼道地面到建筑物楼层平面图的映射,即将图像坐标下的一个梯形区域映射到图像坐标系下的一个矩形区域。具体如下:
如图2所示:假设在坐标系中存在梯形区域ABCD和其映射矩形区域A′、B′、C′、D′。A、B、C、D为梯形每条边的中点,A′、B′、C′、D′为矩形每条边的中点。其中梯形区域ABCD的四个顶点坐标分别为:a(x1,y1),b(x2,y2),c(x3,y3),d(x4,y4),且AD与BC的交点为O;矩形区域A′B′C′D′的四个顶点坐标分别为:a′(x′1,y′1),b′(x′2,y′2),c′(x′3,y′3),d′(x′4,y′4),且A′D′与B′C′的交点为O′。假设(x,y)为梯形区域的任意一点(此处令其为O点),则在矩形区域的映射点为(x′,y′);并设线段AO、AD、BO、BC、A′O′、A′D′、B′O′、C′B′的长度分别为k1、k、v1、v、k′1、k′、v′1、v′。
按照比例映射的方法,满足以下关系式为:
经推导,得出:
在图像坐标系下,距离单位均为像素;
(3)以行人框下边线的中心点作为目标的脚点,根据比例映射关系将脚点映射在监控区域示意图中,完成目标对象在建筑物楼层平面图上的映射,标记出行人的具体位置。
S104:计算修正后的行人目标框的质心,作为相应帧图像行人目标质心,对预处理后的视频流中每帧图像的行人目标质心进行跟踪,实现行人跟踪。
在具体实施中,对预处理后的视频流中每帧图像的行人目标质心进行跟踪的过程,包括:
根据行人目标对象与预设场景地理位置的映射关系,判断行人目标的运动方向,根据运动方向判断下一帧中待匹配的目标框;
获取待匹配的目标框后,计算目标框的质心坐标;目标框的质心坐标(x0,y0)为:
其中,I(x,y)表示像素点(x,y)接收到的光强。
采取中心区域匹配的方法来计算当前帧质心区域与搜索下一帧目标框质心区域的颜色直方图信息,当两质心相似性超过预先设置的阈值时,质心区域匹配成功,表明两个质心区域是同一目标,进而绘制出该目标框质心轨迹,完成对运动目标的跟踪。
本实施例利用颜色直方图的质心匹配法实现目标跟踪的过程,不仅降低了匹配时间和由运动目标重叠遮挡带来的跟踪误差,而且保证了匹配的准确性,使目标跟踪的结果更加精确。
实施例2
如图3所示,本实施例提供一种行人位置检测与跟踪系统,其包括:
(1)人脸检测模块,其用于获取预设场景内的视频流,将视频流中逐帧图像依次输入至人脸检测模型中,输出视频流中行人的人脸位置和人脸大小目标框;其中,人脸检测模型由预设神经网络事先训练完成;
在具体实施中,将视频流中逐帧图像依次输入至人脸检测模型之前,还包括:对视频流中的每一帧图像进行预处理,其过程为:
对每一帧图像进行灰度变换,然后通过中值滤波去除噪声干扰,减少光照对检测的影响;最后通过图像增强的方法突出感兴趣的区域。
本实施例通过对图像进行预处理,能够提高行人位置检测与跟踪的精度。
在本实施例中,所述人脸检测模型由TTCNN网络构成。该网络结构是以CNN网络为共享结构,能够依次实现三个功能模块的调用。
其中,人脸检测模型的训练如实施例1所述,此处不再累述。
具体地,将预处理后的视频流逐帧输入至人脸检测模型中,输出视频流中行人的人脸位置和人脸大小目标框的过程为:
将预处理后的图像按照一定比例进行缩放,形成多尺度的金字塔结构并输入至共享CNN网络中,同时调用第一个功能模块,筛选出人脸候选区域,采用非极大值抑制算法合并人脸候选框,整理合并后的人脸图像输入到第二个功能模块;
第二个功能模块通过采用非极大值抑制算法进一步合并后保留预设数量的人脸候选框;
第二个功能模块输出的图像数据再输入至第三个功能模块中,筛选概率值大于或等于预设概率阈值的人脸候选框,输出精确的人脸框和人脸特征点信息。
本公开的人脸检测模型由TTCNN网络构成。该网络以CNN为共享网络结构,依次实现三个功能模块的调用,该模型可以同时满足人脸检测鲁棒性和实时性的要求。
(2)行人目标框修正模块,其用于根据行人的形体特征结合人脸大小目标框,估计出行人目标框并与背景减除法检测出的行人目标框的结果融合进行修正,得到修正后的行人目标框。
具体地,在估计出行人目标框并与背景减除法检测出的行人目标框的结果融合进行修正的过程中,首先将估计出行人目标框与背景减除法检测出的行人目标框分别进行像素值修正平均运算,再对得到的像素值修正平均运算处理的图像进行对应的像素值加权平均运算,得到融合图像,即修正后的行人目标框。
本实施例根据人的形体特征获取目标框然后与背景减除法检测结果融合进行修正,改进了目标行人检测的精度,增强了模型的自适应性能力,提高了目标框检测和分割的准确性。
(3)行人位置检测模块,其用于根据行人目标对象与预设场景地理位置的映射关系,得到修正后的行人目标框对应的位置;
在具体实施中,行人目标对象与预设场景地理位置的映射关系的构建与实施例1的步骤S103中的步骤相同。
(4)行人跟踪模块,其用于计算修正后的行人目标框的质心,作为相应帧图像行人目标质心,对预处理后的视频流中每帧图像的行人目标质心进行跟踪,实现行人跟踪。
在具体实施中,所述行人跟踪模块,还包括:
行人目标运动判断模块,其用于根据行人目标对象与预设场景地理位置的映射关系,判断行人目标的运动方向,根据运动方向判断下一帧中待匹配的目标框;
质心坐标计算模块,其用于获取待匹配的目标框后,计算目标框的质心坐标;
质心轨迹绘制模块,其用于采取中心区域匹配的方法来计算当前帧质心区域与搜索下一帧目标框质心区域的颜色直方图信息,当两质心相似性超过预先设置的阈值时,质心区域匹配成功,表明两个质心区域是同一目标,进而绘制出该目标框质心轨迹,完成对运动目标的跟踪。
本实施例利用颜色直方图的质心匹配法实现目标跟踪的过程,不仅降低了匹配时间和由运动目标重叠遮挡带来的跟踪误差,而且保证了匹配的准确性,使目标跟踪的结果更加精确。
实施例3
本实施例提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如实施例1所述的行人位置检测与跟踪方法中的步骤。
本实施例根据人的形体特征获取目标框然后与背景减除法检测结果融合进行修正,改进了目标行人检测的精度,增强了方法的自适应性能力,提高了目标框检测和分割的准确性。
本实施例根据行人目标对象与预设场景地理位置的映射关系,得到修正后的行人目标框对应的位置,利用行人与地理信息之间的坐标关系确定行人具体的位置,可以预测行人的运动方向,大大缩短了目标检测和跟踪的时间。
本公开的人脸检测模型由TTCNN网络构成。该网络以CNN为共享网络结构,依次实现三个功能模块的调用,该模型可以同时满足人脸检测鲁棒性和实时性的要求。
本实施例利用颜色直方图的质心匹配法实现目标跟踪的过程,不仅降低了匹配时间和由运动目标重叠遮挡带来的跟踪误差,而且保证了匹配的准确性,使目标跟踪的结果更加精确。
实施例4
本实施例的一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如实施例1所述的行人位置检测与跟踪方法中的步骤。
本实施例根据人的形体特征获取目标框然后与背景减除法检测结果融合进行修正,改进了目标行人检测的精度,增强了方法的自适应性能力,提高了目标框检测和分割的准确性。
本实施例根据行人目标对象与预设场景地理位置的映射关系,得到修正后的行人目标框对应的位置,利用行人与地理信息之间的坐标关系确定行人具体的位置,可以预测行人的运动方向,大大缩短了目标检测和跟踪的时间。
本实施例以TTCNN网络构建人脸检测模型。该网络以CNN为共享网络结构,依次实现三个功能模块的调用,该模型可以同时满足人脸检测鲁棒性和实时性的要求。
本实施例利用颜色直方图的质心匹配法实现目标跟踪的过程,不仅降低了匹配时间和由运动目标重叠遮挡带来的跟踪误差,而且保证了匹配的准确性,使目标跟踪的结果更加精确。
本领域内的技术人员应明白,本公开的实施例可提供为方法、系统、或计算机程序产品。因此,本公开可采用硬件实施例、软件实施例、或结合软件和硬件方面的实施例的形式。而且,本公开可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器和光学存储器等)上实施的计算机程序产品的形式。
本公开是参照根据本公开实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(RandomAccessMemory,RAM)等。
以上所述仅为本公开的优选实施例而已,并不用于限制本公开,对于本领域的技术人员来说,本公开可以有各种更改和变化。凡在本公开的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本公开的保护范围之内。
Claims (10)
1.一种行人位置检测与跟踪方法,其特征在于,包括:
获取预设场景内的视频流,将视频流中逐帧图像依次输入至人脸检测模型中,输出视频流中行人的人脸位置和人脸大小目标框;其中,人脸检测模型由预设神经网络事先训练完成;
根据行人的形体特征结合人脸大小目标框,估计出行人目标框并与背景减除法检测出的行人目标框的结果融合进行修正,得到修正后的行人目标框;
根据行人目标对象与预设场景地理位置的映射关系,得到修正后的行人目标框对应的位置;
计算修正后的行人目标框的质心,作为相应帧图像行人目标质心,对预处理后的视频流中每帧图像的行人目标质心进行跟踪,实现行人跟踪;
行人目标对象与预设场景地理位置的映射关系,结合视频拍摄的建筑物标注的位置,将建筑物楼层平面图中门、走廊等位置信息标注在监控系统中,建立以楼道地面为投影的水平面,完成图像楼道地面到建筑物楼层平面图的映射,以行人框下边线的中心点作为目标的脚点,根据比例映射关系将脚点映射在监控区域示意图中,完成目标对象在建筑物楼层平面图上的映射,标记出行人的具体位置。
2.如权利要求1所述的行人位置检测与跟踪方法,其特征在于,将视频流中逐帧图像依次输入至人脸检测模型之前,还包括:对视频流中的每一帧图像进行预处理,其过程为:
对每一帧图像进行灰度变换,然后通过中值滤波去除噪声干扰,减少光照对检测的影响;最后通过图像增强的方法突出感兴趣的区域。
3.如权利要求1所述的行人位置检测与跟踪方法,其特征在于,所述人脸检测模型由TTCNN网络构成,TTCNN网络以CNN为共享网络结构,依次实现三个功能模块的调用;其中,第一个功能模块用于筛选出人脸候选区域,采用非极大值抑制算法合并人脸候选框,整理合并后的人脸图像;第二功能模块用于接收合并后的人脸图像,并采用非极大值抑制算法进一步合并后保留预设数量的人脸候选框;第二功能模块用于筛选概率值大于或等于预设概率阈值的人脸候选框,输出精确的人脸框和人脸特征点信息。
4.如权利要求3所述的行人位置检测与跟踪方法,其特征在于,将预处理后的视频流逐帧输入至人脸检测模型中,输出视频流中行人的人脸位置和人脸大小目标框的过程为:
将预处理后的图像按照一定比例进行缩放,形成多尺度的金字塔结构并输入至共享CNN网络中,同时调用第一个功能模块,筛选出人脸候选区域,采用非极大值抑制算法合并人脸候选框,整理合并后的人脸图像输入到第二个功能模块;
第二个功能模块通过采用非极大值抑制算法进一步合并后保留预设数量的人脸候选框;
第二个功能模块输出的图像数据再输入至第三个功能模块中,筛选概率值大于或等于预设概率阈值的人脸候选框,输出精确的人脸框和人脸特征点信息。
5.如权利要求1所述的行人位置检测与跟踪方法,其特征在于,在估计出行人目标框并与背景减除法检测出的行人目标框的结果融合进行修正的过程中,首先将估计出行人目标框与背景减除法检测出的行人目标框分别进行像素值修正平均运算,再对得到的像素值修正平均运算处理的图像进行对应的像素值加权平均运算,得到融合图像,即修正后的行人目标框。
6.如权利要求1所述的行人位置检测与跟踪方法,其特征在于,对预处理后的视频流中每帧图像的行人目标质心进行跟踪的过程,包括:
根据行人目标对象与预设场景地理位置的映射关系,判断行人目标的运动方向,根据运动方向判断下一帧中待匹配的目标框;
获取待匹配的目标框后,计算目标框的质心坐标;
采取中心区域匹配的方法来计算当前帧质心区域与搜索下一帧目标框质心区域的颜色直方图信息,当两质心相似性超过预先设置的阈值时,质心区域匹配成功,表明两个质心区域是同一目标,进而绘制出该目标框质心轨迹,完成对运动目标的跟踪。
7.一种行人位置检测与跟踪系统,其特征在于,包括:
人脸检测模块,其用于获取预设场景内的视频流,将视频流中逐帧图像依次输入至人脸检测模型中,输出视频流中行人的人脸位置和人脸大小目标框;其中,人脸检测模型由预设神经网络事先训练完成;
行人目标框修正模块,其用于根据行人的形体特征结合人脸大小目标框,估计出行人目标框并与背景减除法检测出的行人目标框的结果融合进行修正,得到修正后的行人目标框;
行人位置检测模块,其用于根据行人目标对象与预设场景地理位置的映射关系,得到修正后的行人目标框对应的位置;
行人跟踪模块,其用于计算修正后的行人目标框的质心,作为相应帧图像行人目标质心,对预处理后的视频流中每帧图像的行人目标质心进行跟踪,实现行人跟踪;
行人目标对象与预设场景地理位置的映射关系,结合视频拍摄的建筑物标注的位置,将建筑物楼层平面图中门、走廊等位置信息标注在监控系统中,建立以楼道地面为投影的水平面,完成图像楼道地面到建筑物楼层平面图的映射,以行人框下边线的中心点作为目标的脚点,根据比例映射关系将脚点映射在监控区域示意图中,完成目标对象在建筑物楼层平面图上的映射,标记出行人的具体位置。
8.如权利要求7所述的行人位置检测与跟踪系统,其特征在于,所述行人跟踪模块,包括:
行人目标运动判断模块,其用于根据行人目标对象与预设场景地理位置的映射关系,判断行人目标的运动方向,根据运动方向判断下一帧中待匹配的目标框;
质心坐标计算模块,其用于获取待匹配的目标框后,计算目标框的质心坐标;
质心轨迹绘制模块,其用于采取中心区域匹配的方法来计算当前帧质心区域与搜索下一帧目标框质心区域的颜色直方图信息,当两质心相似性超过预先设置的阈值时,质心区域匹配成功,表明两个质心区域是同一目标,进而绘制出该目标框质心轨迹,完成对运动目标的跟踪。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-6中任一项所述的行人位置检测与跟踪方法中的步骤。
10.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1-6中任一项所述的行人位置检测与跟踪方法中的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910984848.5A CN110688987B (zh) | 2019-10-16 | 2019-10-16 | 一种行人位置检测与跟踪方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910984848.5A CN110688987B (zh) | 2019-10-16 | 2019-10-16 | 一种行人位置检测与跟踪方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110688987A CN110688987A (zh) | 2020-01-14 |
CN110688987B true CN110688987B (zh) | 2022-03-25 |
Family
ID=69113016
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910984848.5A Active CN110688987B (zh) | 2019-10-16 | 2019-10-16 | 一种行人位置检测与跟踪方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110688987B (zh) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111291630A (zh) * | 2020-01-17 | 2020-06-16 | 天津大学 | 基于联合预测-检测-修正框架的长期目标跟踪算法 |
CN111339901B (zh) * | 2020-02-21 | 2023-06-09 | 北京容联易通信息技术有限公司 | 基于图像的入侵检测方法、装置、电子设备及存储介质 |
CN111401383B (zh) * | 2020-03-06 | 2023-02-10 | 中国科学院重庆绿色智能技术研究院 | 基于图像检测的目标框预估方法、系统、设备及介质 |
CN111402632B (zh) * | 2020-03-18 | 2022-06-07 | 五邑大学 | 一种交叉口行人运动轨迹的风险预测方法 |
CN113515978B (zh) * | 2020-04-16 | 2022-07-05 | 阿里巴巴集团控股有限公司 | 数据处理方法、设备及存储介质 |
CN111553234B (zh) * | 2020-04-22 | 2023-06-06 | 上海锘科智能科技有限公司 | 融合人脸特征与Re-ID特征排序的行人跟踪方法及装置 |
CN111582171B (zh) * | 2020-05-08 | 2024-04-09 | 济南博观智能科技有限公司 | 一种行人闯红灯监测方法、装置、系统及可读存储介质 |
CN111898438A (zh) * | 2020-06-29 | 2020-11-06 | 北京大学 | 一种监控场景多目标跟踪方法及系统 |
CN111813995A (zh) * | 2020-07-01 | 2020-10-23 | 盛视科技股份有限公司 | 一种基于时空关系的行人提取物品行为检测方法及系统 |
CN111950491B (zh) * | 2020-08-19 | 2024-04-02 | 成都飞英思特科技有限公司 | 一种人员密度的监控方法、装置及计算机可读存储介质 |
CN112633274A (zh) * | 2020-12-21 | 2021-04-09 | 中国航天空气动力技术研究院 | 一种声呐图像目标检测方法、装置、电子设备 |
CN112581500A (zh) * | 2020-12-21 | 2021-03-30 | 上海立可芯半导体科技有限公司 | 用于在目标跟踪中匹配行人和人脸的方法和装置 |
CN112634329B (zh) * | 2020-12-26 | 2024-02-13 | 西安电子科技大学 | 一种基于时空与或图的场景目标活动预测方法及装置 |
CN112668483B (zh) * | 2020-12-30 | 2022-06-10 | 福州大学 | 一种融合行人重识别和人脸检测的单目标人物跟踪方法 |
CN113658223B (zh) * | 2021-08-11 | 2023-08-04 | 山东建筑大学 | 一种基于深度学习的多行人检测与跟踪方法及系统 |
CN114187666B (zh) * | 2021-12-23 | 2022-09-02 | 中海油信息科技有限公司 | 边走路边看手机的识别方法及其系统 |
CN114785955B (zh) * | 2022-05-05 | 2023-08-15 | 广州新华学院 | 复杂场景下动态相机运动补偿方法、系统及存储介质 |
CN115188081B (zh) * | 2022-09-13 | 2022-12-02 | 北京航空航天大学 | 一种面向复杂场景的检测跟踪一体化方法 |
CN115457644B (zh) * | 2022-11-10 | 2023-04-28 | 成都智元汇信息技术股份有限公司 | 一种基于扩展空间映射获得目标的识图方法及装置 |
CN115690163B (zh) * | 2023-01-04 | 2023-05-09 | 中译文娱科技(青岛)有限公司 | 基于影像内容的目标跟踪方法、系统及存储介质 |
CN116524441B (zh) * | 2023-07-03 | 2023-09-01 | 四川顶圣工程项目管理有限公司 | 一种用于工程项目管理的施工现场监督方法 |
CN117237418B (zh) * | 2023-11-15 | 2024-01-23 | 成都航空职业技术学院 | 一种基于深度学习的运动目标检测方法和系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011027847A (ja) * | 2009-07-22 | 2011-02-10 | Fujifilm Corp | Af枠自動追尾システム |
CN103489199A (zh) * | 2012-06-13 | 2014-01-01 | 通号通信信息集团有限公司 | 视频图像目标跟踪处理方法和系统 |
CN105989610A (zh) * | 2015-01-29 | 2016-10-05 | 中兴通讯股份有限公司 | 目标跟踪方法及装置 |
-
2019
- 2019-10-16 CN CN201910984848.5A patent/CN110688987B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011027847A (ja) * | 2009-07-22 | 2011-02-10 | Fujifilm Corp | Af枠自動追尾システム |
CN103489199A (zh) * | 2012-06-13 | 2014-01-01 | 通号通信信息集团有限公司 | 视频图像目标跟踪处理方法和系统 |
CN105989610A (zh) * | 2015-01-29 | 2016-10-05 | 中兴通讯股份有限公司 | 目标跟踪方法及装置 |
Non-Patent Citations (2)
Title |
---|
Distributed Target Tracking using Self Localizing Smart Camera Networks;Babak Shirmohammadi;《Citeseer》;20121231;第1-8页 * |
改进WMIL的实时人脸检测与跟踪;谢宏、张爱林、陈海滨;《电子测量与仪器学报》;20160315;第455-472页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110688987A (zh) | 2020-01-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110688987B (zh) | 一种行人位置检测与跟踪方法及系统 | |
CN108304798B (zh) | 基于深度学习及运动一致性的街面秩序事件视频检测方法 | |
CN104166861B (zh) | 一种行人检测方法 | |
Senior et al. | Appearance models for occlusion handling | |
CN108205658A (zh) | 基于单双目视觉融合的障碍物检测预警系统 | |
CN113537099B (zh) | 一种公路隧道火灾烟雾动态检测方法 | |
CN107808376B (zh) | 一种基于深度学习的举手检测方法 | |
CN104298996B (zh) | 一种应用于仿生机器鱼的水下主动视觉跟踪方法 | |
CN105809716B (zh) | 融合超像素与三维自组织背景减除法的前景提取方法 | |
CN111104903A (zh) | 一种深度感知交通场景多目标检测方法和系统 | |
CN102542289A (zh) | 一种基于多高斯计数模型的人流量统计方法 | |
CN105740945A (zh) | 一种基于视频分析的人群计数方法 | |
CN105069816B (zh) | 一种进出口人流量统计的方法及系统 | |
CN114758288A (zh) | 一种配电网工程安全管控检测方法及装置 | |
CN114842397A (zh) | 一种基于异常检测的实时老人跌倒检测方法 | |
CN107944437B (zh) | 一种基于神经网络和积分图像的人脸定位方法 | |
CN110287798B (zh) | 基于特征模块化和上下文融合的矢量网络行人检测方法 | |
CN110956158A (zh) | 一种基于教师学生学习框架的遮挡行人再标识方法 | |
CN104966305A (zh) | 基于运动矢量划分的前景检测方法 | |
Saito et al. | People detection and tracking from fish-eye image based on probabilistic appearance model | |
Jeyabharathi et al. | Vehicle Tracking and Speed Measurement system (VTSM) based on novel feature descriptor: Diagonal Hexadecimal Pattern (DHP) | |
CN108710879B (zh) | 一种基于网格聚类算法的行人候选区域生成方法 | |
CN103955693B (zh) | 一种九球的计算机辅助检测识别方法 | |
CN107045630B (zh) | 一种基于rgbd的行人检测和身份识别方法及系统 | |
Roy et al. | A comprehensive survey on computer vision based approaches for moving object detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |