CN106203260A - 基于多摄像机监控网络的行人识别与跟踪方法 - Google Patents
基于多摄像机监控网络的行人识别与跟踪方法 Download PDFInfo
- Publication number
- CN106203260A CN106203260A CN201610482796.8A CN201610482796A CN106203260A CN 106203260 A CN106203260 A CN 106203260A CN 201610482796 A CN201610482796 A CN 201610482796A CN 106203260 A CN106203260 A CN 106203260A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- video
- encirclement
- target
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于多摄像机监控网络的行人识别与跟踪方法,包括:划分若干个视频包围圈;对目标行人特征提取并存储;初始化视频包围圈;利用跟踪算法获得多张待识别行人图像,对每张待识别行人图像进行特征提取;利用光照监控算法检测获得各摄像机在每帧所对应的监控画面亮度指数;计算得到待识别行人与目标行人相似度;根据计算所得相似度判断是否为目标行人,生成用于目标行人识别成功的报警信号,且根据设置的视频包围圈切换准则进行视频包围圈切换;重复执行上述步骤,以实现对目标行人进行连续识别与跟踪。本发明可完成监控任务下的联动切换,可利用多特征方式进行实时、鲁棒的目标识别与跟踪,提高识别的准确性和可靠性。
Description
技术领域
本发明涉及一种基于多摄像机监控网络的行人识别与跟踪方法,属于视频监控网络的技术领域。
背景技术
随着智慧城市建设的推进和智能安防技术的革新,在视频监控系统中引入智能视频分析技术,成为节省人力物力、提高监控安全等级的有效手段。其中,行人目标是监控系统的重点关注目标,对其进行检测、识别、跟踪是智能视频分析技术的重要任务。监控系统中的摄像机视频质量参差不齐,拍摄角度和光照条件各异,出现在其中的行人有姿态、遮挡程度多变等特点。因此,对行人目标的跨摄像机连续、长期的识别和跟踪是智能视频监控领域的一大难题。
目前的多摄像机联合监控技术中,主要有两大着眼点。一是行人再识别技术,致力于解决摄像机非重叠场景下目标的识别问题,致力于使用鲁棒性特征、距离度量学习等手段提高在数据集上的识别率。一方面,目前流行的深度学习技术在这方面的成功应用甚少;另一方面,实际场景中常常能获取到可疑行人目标的图像、视频、外观特征的描述等多种线索,而现有方法大多难以同时有效利用这些信息。二是多摄像机网络的时空信息运用,致力于从多摄像机网络的拓扑结构、场景关联中提取出时空信息,提高目标跨摄像机识别与跟踪的准确率。目前这一研究集中在时空信息的自动学习、跨摄像机的数据关联算法等方面,然而对计算资源有限的情况下,如何将不同摄像机组织起来,利用时空信息对视频分析任务进行连续而有效切换的研究甚少。
因此,现有的多摄像机监控网络下,无法智能化地对目标进行识别和持续跟踪,及在跟踪过程中实现高效的监控切换,降低监控效率。
发明内容
本发明所要解决的技术问题在于克服现有技术的不足,提供一种基于多摄像机监控网络的行人识别与跟踪方法,解决现有的多摄像机监控网络下无法智能化地对目标进行识别和持续跟踪,及在跟踪过程中实现高效的监控切换的问题。
本发明具体采用以下技术方案解决上述技术问题:
基于多摄像机监控网络的行人识别与跟踪方法,包括以下步骤:
步骤1、根据设置的视频包围圈标定准则将多摄像机监控网络中摄像机划分至若干个视频包围圈中;
步骤2、对目标行人的特征进行特征提取并存储至目标行人特征库;
步骤3设置其中一个视频包围圈为初始视频包围圈,及对该视频包围圈下启动行人跟踪与识别任务;
步骤4、调取步骤3的视频包围圈中各摄像机的监控画面,利用多目标跟踪算法对所有监控画面中每帧的行人进行跟踪获得多张待识别行人图像,对每张待识别行人图像进行特征提取;
步骤5、利用光照监控算法检测步骤4所调取视频包围圈中各个摄像机在每帧的监控画面亮度,计算获得各摄像机在每帧所对应的监控画面亮度指数;
步骤6、根据所提取每张待识别行人图像中特征与所得目标行人特征、及所得各摄像机在每帧的监控画面亮度指数计算得到待识别行人与目标行人的相似度;根据所得相似度判断待识别行人是否为目标行人,当判断待识别行人为目标行人时,生成用于目标行人识别成功的报警信号,且根据设置的视频包围圈切换准则进行视频包围圈切换,以实现在视频包围圈中对该目标行人进行锁定和跟踪;
步骤7、重复执行所述步骤4至6,以实现对目标行人进行连续识别与跟踪。
进一步地,作为本发明的一种优选技术方案:所述步骤1中每个视频包围圈由一个中心摄像机和若干个边缘摄像机组成。
进一步地,作为本发明的一种优选技术方案:所述步骤2采用基于卷积神经网络的特征提取算法提取获得目标行人特征。
进一步地,作为本发明的一种优选技术方案:所述步骤2中目标行人特征包括目标行人脸部特征或上下半身颜色特征或上下半身纹理特征。
进一步地,作为本发明的一种优选技术方案:所述步骤2中目标行人特征由输入的视频或图像提取,或根据直接输入的特征得到。
进一步地,作为本发明的一种优选技术方案:所述步骤4中所利用的多目标跟踪算法,包括:
步骤41、针对视频包围圈中各摄像机在每帧的监控画面采用基于积分通道特征的行人检测器对行人进行实时检测;
步骤42、利用卡尔曼滤波器对所检测到的每个行人进行实时跟踪;
步骤43、利用JPDA联合概率数据互联算法对每个行人进行前后时刻的数据关联;
步骤44、返回执行步骤41至步骤43,以达成对视频包围圈中各摄像机在每帧的监控画面中行人连续跟踪。
进一步地,作为本发明的一种优选技术方案:所述步骤5中所利用的光照监控算法,包括:
步骤51、将视频包围圈中各个摄像机在每帧的监控画面转换至HSV颜色空间图像;
步骤52、计算所转换HSV颜色空间图像的V通道归一化平均亮度值;
步骤53、将步骤52所得平均亮度值作为该摄像机在每帧所对应的监控画面亮度指数。
进一步地,作为本发明的一种优选技术方案:所以步骤6还包括设置权重以计算获得待识别行人与目标行人的相似度。
进一步地,作为本发明的一种优选技术方案:所述步骤6还包括设置用于控制生成报警信号和用于控制视频包围圈切换的阈值。
本发明采用上述技术方案,能产生如下技术效果:
本发明所提供的一种基于多摄像机监控网络的行人识别与跟踪方法,该方法在多摄像机监控网络基础上设置多个视频包围圈,用以组织多摄像机网络中的摄像机,完成算法分析任务的联动切换,实现了在计算资源有限的情况下,有效利用时空信息辅助跟踪和识别任务,具有良好的实际应用价值。采用所述方法能够有效利用可疑行人的图片、视频、外观特征描述等多种输入线索,进行实时、鲁棒的目标识别与跟踪,符合实际应用中处理多种输入信息的需求。所述的方法中融合了基于深度学习的图像识别技术,避免了手动设计特征的盲目性和复杂性。
附图说明
图1为本发明基于多摄像机监控网络的行人识别与跟踪方法的流程图。
图2为本发明中卷积神经网络结构的示意图。
图3为本发明中视频包围圈的结构示意图。
具体实施方式
下面结合说明书附图对本发明的实施方式进行描述。
如图1所示,本发明设计了基于多摄像机监控网络的行人识别与跟踪方法,该方法结合多摄像机监控网络,以组织多摄像机网络中的摄像机完成算法分析任务的联动切换,具体包括以下步骤:
步骤1、根据设置的视频包围圈标定准则将多摄像机监控网络中摄像机划分至若干个视频包围圈中;其中,用户根据需要设置多摄像机监控网络下监控现场的摄像机位置和角度,及根据设置视频包围圈的标定准则,将多摄像机网络中的摄像机划分到多个视频包围圈中,各视频包围圈之间的摄像机可以重叠,且标定每个摄像机存在对应的监控分析区域。
步骤2、对目标行人的特征进行特征提取并存储至目标行人特征库。
步骤3、设置其中一个视频包围圈为初始视频包围圈,及对该视频包围圈下启动行人跟踪与识别任务;通常可以将视频包围圈所在场景的初始位置设置摄像机,以该摄像机设置为所在视频包围圈的初始位置。
步骤4、调取步骤3的视频包围圈中各摄像机的监控画面,利用多目标跟踪算法对所有监控画面中每帧的行人进行跟踪获得多张待识别行人图像,对每张待识别行人图像进行特征提取。
步骤5、利用光照监控算法检测步骤4所调取视频包围圈中各个摄像机在每帧的监控画面亮度,计算获得各摄像机在每帧所对应的监控画面亮度指数。
步骤6、根据所提取每张待识别行人图像中特征与所得目标行人特征、及所得各摄像机在每帧的监控画面亮度指数计算得到待识别行人与目标行人的相似度;根据所得相似度判断待识别行人是否为目标行人,当判断待识别行人为目标行人时,生成用于目标行人识别成功的报警信号,且根据设置的视频包围圈切换准则进行视频包围圈切换,以实现在视频包围圈中对该目标行人进行锁定和跟踪。
步骤7、重复执行所述步骤4至6,以实现对目标行人进行连续识别与跟踪,直至用户操作至结束。
对于上述步骤1中所述的视频包围圈标定准则,具体如下:
a),如图3所示,本发明的一个视频包围圈由一个中心摄像机和周围的2-4个边缘摄像机组成的摄像机组,其监控画面可以在多屏监控软件中同时展示;
b),一个视频包围圈中的多台摄像机需按照实际布放情况位置和角度,参照视频包围圈的标定准则,尽数划分到不同视频包围圈中;其中,视频包围圈的标定准则具体还包括:
b1),同一摄像机只能充当一个视频包围圈的中心摄像机,但可以充当不同视频包围圈的边缘摄像机;
b2),标定出的视频包围圈需覆盖整个监控场景,即每一个摄像机都要有从属的视频包围圈,无论是充当中心摄像机还是边缘摄像机;
b3),每一个视频包围圈中的摄像机需要满足物理位置相邻、监控场景相邻的条件;
b4),每一个视频包围圈中,应尽可能多的使边缘摄像头作为其它视频包围圈的中心摄像机,以保证切换能够连续;
c),每一个摄像机都对应各自的跟踪识别算法,在摄像机所对应的监控分析区域中执行行人多目标跟踪和识别的分析任务。算法运行过程中,只执行满足条件的在线摄像机所对应的分析任务;视频包围圈切换时,开启、关闭对应摄像机的算法任务。由该标定准则,形成如图3所示的多摄像机监控网络,但本发明不限于该种结构,其他架构下形成的多摄像机监控网络同样适用于本发明中。
本发明中,优选地,所述步骤2中目标行人特征可以采用由输入的视频或图像提取,或直接输入特征得到,进一步地,其目标行人特征可以包括目标行人脸部特征或上下半身颜色特征或上下半身纹理特征,用户可以根据需要选取任一种或多种特征作为线索进行行人识别和跟踪过程,其过程如下:
2.1),若选择目标行人特征由输入一张或多张目标行人的图片方式获得,则采用基于卷积神经网络的特征提取算法,提取每张图片的卷积特征描述子,存入目标行人的卷积特征库中。
在所述步骤2.1中采用基于卷积神经网络的行人卷积特征提取算法,具体过程如下:
2.1a),该算法使用8层卷积神经网络,如图2所示,包括1个输入层,6个隐藏层和1个分类层。其中,第2、4、6层为卷积层,第3、5层为采样层;第7层为生成卷积特征描述子的隐藏层,第8层为分类层。
若输入层为47×95×3的RGB三通道彩色图像,则卷积过程如下:
第1个隐藏层为卷积层C1,卷积核的大小为4×4,卷积核的数目为20个。经过第一个隐藏层,图像被卷积成20个92×44的特征图。
第2个隐藏层为采样层S1,采用max-pooling下采样,每层输入的每个2×2的特征块被下采样为1×1的输出。经过第2个隐藏层,图像被采样成20个46×22的特征图。
第3个隐藏层为卷积层C2,卷积核的大小为3×3,卷积核的数目为40个。经过第3个隐藏层,图像被卷积成40个20×44的特征图。
第4个隐藏层为采样层S2,采用max-pooling下采样,每层输入的每个2×2的特征块被下采样为1×1的输出。经过第4个隐藏层,图像被采样成40个10×22的特征图。
第5个隐藏层为卷积层C3,卷积核的大小为3×3,卷积核的数目为60个。经过第5个隐藏层,图像被卷积成60个8×20的特征图。
第6个隐藏层为生成卷积特征描述子的隐含层,输入为第5层的60个8×20的特征图拉直后串联而成的9600维的特征向量,输出为一个500维的特征向量,层内采用全连接的方式。
最后一层为分类层,该层采用softmax分类器进行分类输出,分类层的节点数与训练集的类别数相等。
2.1b),使用自建行人图像样本库NUPTPR作为训练样本,建立行人图像样本库主要用于训练卷积神经网络,以及用于颜色和纹理特征提取时,从中挑选能够代表可疑目标特征的上下半身图像。自建行人图像样本库NUPTBR共包含1000个不同行人的图像,每个行人包含8张图像,共8000张样本图像;NUPTPR样本库有两个来源:其一,是利用宽带无线通信技术下公安智能图像云平台采集得到的路面上的行人图像;其二,是互联网上搜集得到的行人的图像;训练卷积神经网络时,在每个行人的8张样本图像中随机选取6张做训练,2张做测试。
2.1c),使用较小的随机值初始化各层参数,使用softmax分类模型训练生成卷积特征描述子的隐含层,使用适用于卷积神经网络的BP算法训练该卷积神经网络的各层参数。
2.1d),使用该卷积神经网络的前7层进行行人图像的特征提取,将第7层输出的500维特征向量作为该行人图像的卷积特征描述子。
2.1e),定义两张行人图片所对应卷积特征描述子fi、fj的相似度为:
S(fi,fj)=0.5(cos(fi,fj)+1) (1-1)
其中cos(fi,fj)为描述子fi、fj之间的余弦相似度。
定义建立的卷积特征集为C={f1,f2,...,fn};定义某行人样本图片与卷积特征库的相似度为:
2.2),若选择目标行人特征由输入一段或多段含有目标行人的视频方式获得,则对视频逐一采用目标跟踪算法对该行人进行跟踪。跟踪过程中,采用基于卷积神经网络的行人特征提取算法,提取被跟踪行人的卷积特征描述子,对描述子采用特征筛选算法,用特征筛选算法的目的是为了处理视频输入,从中筛选出有效的特征,经筛选出有效的描述子,扩充目标行人的卷积特征库。
其中,所述步骤中采用的多目标跟踪算法,其具体步骤如下:
2.2a),针对视频包围圈中各摄像机在每帧的监控画面采用基于积分通道特征的行人检测器对行人进行实时检测;
2.2b),对于每个检测到的行人,使用卡尔曼滤波器进行实时跟踪;具体步骤为:b1),使用卡尔曼滤波器对行人矩形包围框的中心点坐标进行位置预测;b2),取检测到的矩形包围框的中心点坐标作为行人位置的量测值,输入卡尔曼滤波器进行滤波器更新。
2.2c),在多目标行人跟踪环境中,多个目标之间的距离可能较小,而每个跟踪门相对较大,会发生一个目标落入多个跟踪门中和多个目标轨迹交叉的情况。在这样的复杂场景下,采用JPDA联合概率数据互联算法对每个行人进行前后时刻的数据关联,将前一时刻的目标运动轨迹与当前时刻的量测一一匹配。
2.2d),返回执行步骤2.2a)至2.2c),以达成对视频包围圈中摄像机在每帧的监控画面中行人连续跟踪。
该目标跟踪算法可以有效对目标行人进行连续跟踪,并且该方法同样适用于步骤4中多目标的跟踪。
进一步地,本发明利用基于卷积神经网络的行人特征提取算法,提取被跟踪行人的卷积特征描述子时,采用的特征筛选算法,具体步骤为:采用目标跟踪算法对行人进行跟踪。跟踪过程中,将行人的第一张图像所对应的卷积特征描述子直接加入目标行人的卷积特征库中,此处是将目标行人的第一张图像设定为有效,直接提取特征加入卷积特征库,后续图像则用该方法判断是否有效;对跟踪过程中的后续行人样本图像,计算图像对应的卷积特征描述子与目标行人的卷积特征库的相似度SI,若SI小于阈值θ,则说明该描述子相对于卷积特征库是有效特征,将其加入卷积特征库中;其中θ取值根据实际需要而定,取值范围为0-1之间。θ越大,卷积特征库扩充的速度越快。
2.3),若选择目标行人特征由直接提供的目标行人上、下半身的颜色信息方式获得,则需要在自建行人图像样本库中选取相应的颜色图案,存储对应的颜色特征描述子。其中,所述步骤2.3)中所采用的颜色特征提取算法,具体步骤如下:
2.3a),使用自建行人图像样本库NUPTPR作为操作人员选取行人颜色图案的参考。
对于每幅行人图像,以(xu1,yu1)为矩形左上角坐标、(xu2,yu2)为矩形右下角坐标,取出行人上半身图像;以(xd1,yd1)为矩形左上角坐标、(xd2,yd2)为矩形右下角坐标,取出行人下半身图像。根据经验可取xu1=0.15w,xu2=0.85w,yu1=0.15h,yu2=0.5h;xd1=0.15w,xd2=0.85w,yd1=0.5h,yd2=0.85h。
操作人员需从中选取与待识别行人颜色特征最相似的上下半身图案作为颜色特征提取的图像。
2.3b),对操作人员挑选的行人上下半身图像,分别使用24-bins模糊过滤器提取出24维颜色直方图。具体步骤为:
b1),将上下半身图像分别转换到HSV颜色空间。
b2),将各通道图像输入10-bins模糊过滤器,输出一个10维的特征向量。
b3),将所得10维特征向量和S、V通道输入24bin模糊过滤器,得到24维颜色直方图。
2.3c),将上下半身图像对应的直方图串联,再进行归一化操作,得到48维颜色特征描述子,存入目标行人的颜色特征库中。
2.3d),对于当前行人样本图像采用相同的方法计算颜色特征描述子,将其与目标行人颜色特征库中的颜色特征描述子之间的Bhattacharyya距离作为目标颜色特征之间的相似度,取其中的最大相似度作为行人样本图像与目标行人的颜色特征库之间的相似度Sc。
2.4),若选择目标行人特征由直接提供的目标上、下半身的纹理信息方式获得,则需要在自建行人图像样本库中选取对应的纹理图案,存储对应的纹理特征描述子到目标行人的纹理特征库中。其中,所述步骤2.4)中采用的纹理特征提取算法,具体步骤如下:
2.4a),使用自建行人图像样本库NUPTPR作为操作人员选取行人颜色图案的参考。对于每幅行人图像,使用与步骤2.3.1)相同的方法,按一定比例分割出行人的上下半身图案。操作人员从中选取与待识别行人纹理特征最相似的上下半身图案作为纹理特征提取的图像;
2.4b),对操作人员挑选的行人上下半身图像,分别计算LBP旋转不变纹理特征直方图。具体步骤为:
b1),将行人上下半身图像分别转换到灰度空间;
b2),分别计算旋转不变LBP特征。求旋转不变LBP特征的公式如下:
其中,P为LBP特征采样点个数;R为圆形邻域的采样半径,这里可以取1;gc为LBP采样邻域中心像素的灰度值;gp(p=1,2,…,P-1)为半径为R的邻域内采样点的像素灰度值;U(LBPP,R)为LBP圆形邻域采样点间0-1变化的次数;s(x)为一个函数。
b3),对上下半身的旋转不变LBP进行直方图统计,得出9维纹理直方图。
2.4c),将上下半身图像对应的纹理直方图串联,再进行归一化操作,得到18维纹理特征描述子,存入目标行人的纹理特征库中。
2.4d),取行人样本图像的纹理特征述子与目标行人纹理特征库中的纹理特征描述子之间的Bhattacharyya距离作为目标纹理特征之间的相似度;取其中的最大相似度作为行人样本图像与目标行人纹理特征库之间的相似度St。
本发明在结合监控中的光照情况时,所述步骤5中采用的光照监控算法具体可以包括:
步骤51、将视频包围圈中各个摄像机在每帧的监控画面转换至HSV颜色空间图像。
步骤52、计算所转换HSV颜色空间图像的V通道归一化平均亮度值。
步骤53、将步骤52所得平均亮度值作为该摄像机在每帧所对应的监控画面亮度指数。
在上述步骤6中,结合步骤2所提取的目标行人特征和步骤4所提取的任一张待识别行人图像中待识别行人特征计算特征之间相似度,及由特征之间相似度结合步骤5所得各待识别行人图像的亮度指数计算得到待识别行人与目标行人的相似度,其中优选对所输入的参数分别设置权重,具体步骤如下:
6.1),计算出所述步骤2的3种目标行人特征包括卷积特征、颜色特征、纹理特征,与各自的特征库之间的相似度;
6.2),使用步骤5中的光照监控算法计算出各摄像机在每帧所对应的监控画面亮度指数L;
6.3),使用综合评估公式计算出某一摄像机下行人样本图像与待识别行人特征库的相似度Ss,即:
Ss=aI(L)×SI+ac(L)×Sc+at(L)×St (3)
其中aI(L)、ac(L)、at(L)分别为3种特征对应的权重函数,函数取值与亮度指数L有关;SI、Sc、St分别为3种特征对应的相似度。
本步骤中,还根据计算所得相似度判断待识别行人是否为目标行人,当判断待识别行人为目标行人时,生成用于目标行人识别成功的报警信号,且在视频包围圈中对该目标行人进行锁定和跟踪。在此过程中,还可以包括设置用于控制生成报警信号和用于控制视频包围圈切换的阈值T,当Ss>T时算法识别出行人目标,触发行人目标识别报警,且控制视频包围圈切换。
在执行切换过程中,视频包围圈的切换方法为:对于触发包围圈切换的摄像机,若其为当前处理的视频包围圈的中心摄像机,则放弃切换;若其为当前处理的视频包围圈的边缘摄像机,且为另一新的视频包围圈的中心摄像机,则关闭当前视频包围圈中的其它摄像机的算法任务,开启新的视频包围圈中的其它摄像机的算法任务,由此切换到新的视频包围圈。
最后,如步骤7所述,重复执行所述步骤4至6,以实现对目标行人进行连续识别与跟踪,直至用户操作至结束。在多摄像机监控网络中的其他视频包围圈,同样地按照上述步骤进行目标行人的识别和连续跟踪。
由此,本发明可以组织多摄像机监控网络中的摄像机,完成监控分析任务的联动切换,实现了在计算资源有限的情况下,有效利用时空信息辅助跟踪和识别任务,提高识别效率。采用所述方法能够有效利用可疑行人的图片、视频、外观特征描述等多种输入线索,进行实时、鲁棒的目标识别与跟踪,符合实际应用中处理多种输入信息的需求。
上面结合附图对本发明的实施方式作了详细说明,但是本发明并不限于上述实施方式,在本领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下做出各种变化。
Claims (9)
1.基于多摄像机监控网络的行人识别与跟踪方法,其特征在于,包括以下步骤:
步骤1、根据设置的视频包围圈标定准则将多摄像机监控网络中摄像机划分至若干个视频包围圈中;
步骤2、对目标行人的特征进行特征提取并存储至目标行人特征库;
步骤3、设置其中一个视频包围圈为初始视频包围圈,及对该视频包围圈下启动行人跟踪与识别任务;
步骤4、调取步骤3的视频包围圈中各摄像机的监控画面,利用多目标跟踪算法对所有监控画面中每帧的行人进行跟踪获得多张待识别行人图像,对每张待识别行人图像进行特征提取;
步骤5、利用光照监控算法检测步骤4所调取视频包围圈中各个摄像机在每帧的监控画面亮度,计算获得各摄像机在每帧所对应的监控画面亮度指数;
步骤6、根据所提取每张待识别行人图像中特征与所得目标行人特征、及所得各摄像机在每帧的监控画面亮度指数计算得到待识别行人与目标行人的相似度;根据所得相似度判断待识别行人是否为目标行人,当判断待识别行人为目标行人时,生成用于目标行人识别成功的报警信号,且根据设置的视频包围圈切换准则进行视频包围圈切换,以实现在视频包围圈中对该目标行人进行锁定和跟踪;
步骤7、重复执行所述步骤4至6,以实现对目标行人进行连续识别与跟踪。
2.根据权利要求1所述基于多摄像机监控网络的行人识别与跟踪方法,其特征在于:所述步骤1中每个视频包围圈由一个中心摄像机和若干个边缘摄像机组成。
3.根据权利要求1所述基于多摄像机监控网络的行人识别与跟踪方法,其特征在于:所述步骤2采用基于卷积神经网络的特征提取算法提取获得目标行人特征。
4.根据权利要求1所述基于多摄像机监控网络的行人识别与跟踪方法,其特征在于:所述步骤2中目标行人特征包括目标行人脸部特征或上下半身颜色特征或上下半身纹理特征。
5.根据权利要求1所述基于多摄像机监控网络的行人识别与跟踪方法,其特征在于:所述步骤2中目标行人特征由输入的视频或图像提取,或根据直接输入的特征得到。
6.根据权利要求1所述基于多摄像机监控网络的行人识别与跟踪方法,其特征在于:所述步骤4中所利用的多目标跟踪算法,包括:
步骤41、针对视频包围圈中各摄像机在每帧的监控画面采用基于积分通道特征的行人检测器对行人进行实时检测;
步骤42、利用卡尔曼滤波器对所检测到的每个行人进行实时跟踪;
步骤43、利用JPDA联合概率数据互联算法对每个行人进行前后时刻的数据关联;
步骤44、返回执行步骤41至步骤43,以达成对视频包围圈中各摄像机在每帧的监控画面中行人连续跟踪。
7.根据权利要求1所述基于多摄像机监控网络的行人识别与跟踪方法,其特征在于:所述步骤5中所利用的光照监控算法,包括:
步骤51、将视频包围圈中各个摄像机在每帧的监控画面转换至HSV颜色空间图像;
步骤52、计算所转换HSV颜色空间图像的V通道归一化平均亮度值;
步骤53、将步骤52所得平均亮度值作为该摄像机在每帧所对应的监控画面亮度指数。
8.根据权利要求1所述基于多摄像机监控网络的行人识别与跟踪方法,其特征在于:所以步骤6还包括设置权重以计算获得待识别行人与目标行人的相似度。
9.根据权利要求1所述基于多摄像机监控网络的行人识别与跟踪方法,其特征在于:所述步骤6还包括设置用于控制生成报警信号和用于控制视频包围圈切换的阈值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610482796.8A CN106203260A (zh) | 2016-06-27 | 2016-06-27 | 基于多摄像机监控网络的行人识别与跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610482796.8A CN106203260A (zh) | 2016-06-27 | 2016-06-27 | 基于多摄像机监控网络的行人识别与跟踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106203260A true CN106203260A (zh) | 2016-12-07 |
Family
ID=57461397
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610482796.8A Pending CN106203260A (zh) | 2016-06-27 | 2016-06-27 | 基于多摄像机监控网络的行人识别与跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106203260A (zh) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106777215A (zh) * | 2016-12-24 | 2017-05-31 | 深圳云天励飞技术有限公司 | 一种图像检索结果显示方法及装置 |
CN106934338A (zh) * | 2017-01-09 | 2017-07-07 | 浙江汉凡软件科技有限公司 | 一种基于相关滤波器的长期行人跟踪方法 |
CN108090473A (zh) * | 2018-01-12 | 2018-05-29 | 北京陌上花科技有限公司 | 多相机下人脸识别的方法及装置 |
CN108256459A (zh) * | 2018-01-10 | 2018-07-06 | 北京博睿视科技有限责任公司 | 基于多摄像机融合的安检门人脸识别和人脸自动建库算法 |
CN108961306A (zh) * | 2017-05-17 | 2018-12-07 | 北京芝麻力量运动科技有限公司 | 图像处理方法、图像处理装置及体感系统 |
CN109359649A (zh) * | 2017-12-28 | 2019-02-19 | 广州Tcl智能家居科技有限公司 | 一种储物装置的存取物识别方法、存储介质及储物装置 |
CN109410245A (zh) * | 2018-09-13 | 2019-03-01 | 北京米文动力科技有限公司 | 一种视频目标跟踪方法及设备 |
CN109784130A (zh) * | 2017-11-15 | 2019-05-21 | 株式会社日立制作所 | 行人重识别方法及其装置和设备 |
CN109784199A (zh) * | 2018-12-21 | 2019-05-21 | 深圳云天励飞技术有限公司 | 同行分析方法及相关产品 |
CN109934127A (zh) * | 2019-02-27 | 2019-06-25 | 电子科技大学 | 基于视频图像与无线信号的行人识别与跟踪方法 |
CN109934849A (zh) * | 2019-03-08 | 2019-06-25 | 西北工业大学 | 基于轨迹度量学习的在线多目标跟踪方法 |
CN110119667A (zh) * | 2018-02-07 | 2019-08-13 | 罗伯特·博世有限公司 | 用于学习用于人员重新识别的模型的方法和用于由所学习的模型来识别人员的方法 |
CN110121055A (zh) * | 2018-02-07 | 2019-08-13 | 罗伯特·博世有限公司 | 用于对象识别的方法和设备 |
CN110210461A (zh) * | 2019-06-27 | 2019-09-06 | 北京澎思智能科技有限公司 | 基于摄像机网格的多视图协同异常行为检测方法 |
CN110427904A (zh) * | 2019-08-08 | 2019-11-08 | 高冬法 | 基于行人重识别的商场监控系统、方法及装置 |
WO2020042419A1 (zh) * | 2018-08-29 | 2020-03-05 | 汉王科技股份有限公司 | 基于步态的身份识别方法、装置、电子设备 |
CN111027462A (zh) * | 2019-12-06 | 2020-04-17 | 长沙海格北斗信息技术有限公司 | 跨多摄像头的行人轨迹识别方法 |
CN111079600A (zh) * | 2019-12-06 | 2020-04-28 | 长沙海格北斗信息技术有限公司 | 多摄像头的行人识别方法及识别系统 |
CN111565225A (zh) * | 2020-04-27 | 2020-08-21 | 银河水滴科技(北京)有限公司 | 一种人物行动轨迹确定方法及装置 |
CN112084985A (zh) * | 2020-09-15 | 2020-12-15 | 山东鲁能软件技术有限公司 | 一种基于cssd的电力检修行人多目标跟踪算法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101616309A (zh) * | 2009-07-16 | 2009-12-30 | 上海交通大学 | 无重叠视域多摄像机人体目标跟踪方法 |
CN103595963A (zh) * | 2013-11-14 | 2014-02-19 | 浙江宇视科技有限公司 | 多摄像机视频监控系统、移动目标追踪装置及方法 |
CN104598883A (zh) * | 2015-01-21 | 2015-05-06 | 西安理工大学 | 一种多摄像机监控网络中目标再识别的方法 |
-
2016
- 2016-06-27 CN CN201610482796.8A patent/CN106203260A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101616309A (zh) * | 2009-07-16 | 2009-12-30 | 上海交通大学 | 无重叠视域多摄像机人体目标跟踪方法 |
CN103595963A (zh) * | 2013-11-14 | 2014-02-19 | 浙江宇视科技有限公司 | 多摄像机视频监控系统、移动目标追踪装置及方法 |
CN104598883A (zh) * | 2015-01-21 | 2015-05-06 | 西安理工大学 | 一种多摄像机监控网络中目标再识别的方法 |
Non-Patent Citations (1)
Title |
---|
初苗等: "基于视觉机制的伪装仿真效果评价方法研究", 《计算机仿真》 * |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106777215A (zh) * | 2016-12-24 | 2017-05-31 | 深圳云天励飞技术有限公司 | 一种图像检索结果显示方法及装置 |
CN106934338A (zh) * | 2017-01-09 | 2017-07-07 | 浙江汉凡软件科技有限公司 | 一种基于相关滤波器的长期行人跟踪方法 |
CN108961306A (zh) * | 2017-05-17 | 2018-12-07 | 北京芝麻力量运动科技有限公司 | 图像处理方法、图像处理装置及体感系统 |
CN109784130A (zh) * | 2017-11-15 | 2019-05-21 | 株式会社日立制作所 | 行人重识别方法及其装置和设备 |
CN109359649A (zh) * | 2017-12-28 | 2019-02-19 | 广州Tcl智能家居科技有限公司 | 一种储物装置的存取物识别方法、存储介质及储物装置 |
CN108256459A (zh) * | 2018-01-10 | 2018-07-06 | 北京博睿视科技有限责任公司 | 基于多摄像机融合的安检门人脸识别和人脸自动建库算法 |
CN108256459B (zh) * | 2018-01-10 | 2021-08-24 | 北京博睿视科技有限责任公司 | 基于多摄像机融合的安检门人脸识别和人脸自动建库算法 |
CN108090473A (zh) * | 2018-01-12 | 2018-05-29 | 北京陌上花科技有限公司 | 多相机下人脸识别的方法及装置 |
CN108090473B (zh) * | 2018-01-12 | 2021-04-30 | 北京陌上花科技有限公司 | 多相机下人脸识别的方法及装置 |
CN110121055A (zh) * | 2018-02-07 | 2019-08-13 | 罗伯特·博世有限公司 | 用于对象识别的方法和设备 |
CN110119667A (zh) * | 2018-02-07 | 2019-08-13 | 罗伯特·博世有限公司 | 用于学习用于人员重新识别的模型的方法和用于由所学习的模型来识别人员的方法 |
WO2020042419A1 (zh) * | 2018-08-29 | 2020-03-05 | 汉王科技股份有限公司 | 基于步态的身份识别方法、装置、电子设备 |
CN109410245A (zh) * | 2018-09-13 | 2019-03-01 | 北京米文动力科技有限公司 | 一种视频目标跟踪方法及设备 |
CN109410245B (zh) * | 2018-09-13 | 2021-08-10 | 北京米文动力科技有限公司 | 一种视频目标跟踪方法及设备 |
CN109784199B (zh) * | 2018-12-21 | 2020-11-24 | 深圳云天励飞技术有限公司 | 同行分析方法及相关产品 |
CN109784199A (zh) * | 2018-12-21 | 2019-05-21 | 深圳云天励飞技术有限公司 | 同行分析方法及相关产品 |
CN109934127A (zh) * | 2019-02-27 | 2019-06-25 | 电子科技大学 | 基于视频图像与无线信号的行人识别与跟踪方法 |
CN109934127B (zh) * | 2019-02-27 | 2020-12-15 | 电子科技大学 | 基于视频图像与无线信号的行人识别与跟踪方法 |
CN109934849A (zh) * | 2019-03-08 | 2019-06-25 | 西北工业大学 | 基于轨迹度量学习的在线多目标跟踪方法 |
CN110210461A (zh) * | 2019-06-27 | 2019-09-06 | 北京澎思智能科技有限公司 | 基于摄像机网格的多视图协同异常行为检测方法 |
CN110427904A (zh) * | 2019-08-08 | 2019-11-08 | 高冬法 | 基于行人重识别的商场监控系统、方法及装置 |
CN110427904B (zh) * | 2019-08-08 | 2022-03-04 | 南京理工大学 | 基于行人重识别的商场监控系统、方法及装置 |
CN111079600A (zh) * | 2019-12-06 | 2020-04-28 | 长沙海格北斗信息技术有限公司 | 多摄像头的行人识别方法及识别系统 |
CN111027462A (zh) * | 2019-12-06 | 2020-04-17 | 长沙海格北斗信息技术有限公司 | 跨多摄像头的行人轨迹识别方法 |
CN111565225A (zh) * | 2020-04-27 | 2020-08-21 | 银河水滴科技(北京)有限公司 | 一种人物行动轨迹确定方法及装置 |
CN112084985A (zh) * | 2020-09-15 | 2020-12-15 | 山东鲁能软件技术有限公司 | 一种基于cssd的电力检修行人多目标跟踪算法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106203260A (zh) | 基于多摄像机监控网络的行人识别与跟踪方法 | |
Tao et al. | Smoke detection based on deep convolutional neural networks | |
CN104166841B (zh) | 一种视频监控网络中指定行人或车辆的快速检测识别方法 | |
CN104244113B (zh) | 一种基于深度学习技术的视频摘要生成方法 | |
CN103824070B (zh) | 一种基于计算机视觉的快速行人检测方法 | |
CN108717528A (zh) | 一种基于深度网络的多策略全局人群分析方法 | |
CN110059581A (zh) | 基于场景深度信息的人群计数方法 | |
CN110210551A (zh) | 一种基于自适应主体敏感的视觉目标跟踪方法 | |
CN103605971B (zh) | 一种捕获人脸图像的方法及装置 | |
CN109508710A (zh) | 基于改进YOLOv3网络的无人车夜间环境感知方法 | |
CN107967451A (zh) | 一种利用多尺度多任务卷积神经网络对静止图像进行人群计数的方法 | |
CN110188807A (zh) | 基于级联超分辨率网络与改进Faster R-CNN的隧道行人目标检测方法 | |
CN106127812B (zh) | 一种基于视频监控的客运站非出入口区域的客流统计方法 | |
CN102622584B (zh) | 视频监控中蒙面人脸的检测方法 | |
CN108764085A (zh) | 基于生成对抗网络的人群计数方法 | |
CN109376637A (zh) | 基于视频监控图像处理的人数统计系统 | |
CN106778604A (zh) | 基于匹配卷积神经网络的行人再识别方法 | |
CN107133569A (zh) | 基于泛化多标记学习的监控视频多粒度标注方法 | |
CN107301378A (zh) | 图像中多分类器集成的行人检测方法和系统 | |
CN107025420A (zh) | 视频中人体行为识别的方法和装置 | |
CN104504395A (zh) | 基于神经网络实现人车分类的方法和系统 | |
CN104850857B (zh) | 基于视觉空间显著性约束的跨摄像机行人目标匹配方法 | |
CN108009493A (zh) | 基于动作增强的人脸防欺骗识别方法 | |
CN106845364A (zh) | 一种快速自动目标检测方法 | |
CN107330390A (zh) | 一种基于图像分析和深度学习的人数统计方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20161207 |