CN107483894B - 基于场景判断实现客运管理的高铁车站视频监控系统 - Google Patents
基于场景判断实现客运管理的高铁车站视频监控系统 Download PDFInfo
- Publication number
- CN107483894B CN107483894B CN201710824740.0A CN201710824740A CN107483894B CN 107483894 B CN107483894 B CN 107483894B CN 201710824740 A CN201710824740 A CN 201710824740A CN 107483894 B CN107483894 B CN 107483894B
- Authority
- CN
- China
- Prior art keywords
- block
- video
- submodule
- scene
- video pictures
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明涉及基于场景判断实现客运管理的高铁车站视频监控系统,包括视频监控摄像机群(1)、视频处理平台(2)和结果显示终端(3);视频监控摄像机群(1)包括区块摄像机与俯拍摄像机;视频处理平台(2)包括图像预处理模块(2.1)、人像提取模块(2.2)、人员密度计算模块(2.3)、场景模式识别模块(2.4)和预警模块(2.5)。图像预处理模块(2.1)用于对视频图像进行预处理,人像提取模块(2.2)用于提取预处理后的视频图像中的人脸区域,人员密度计算模块(2.3)用于根据提取的人脸区域计数计算人员密度;场景模式识别模块(2.4)结合俯拍视频画面执行拥堵场景的识别分析。本发明实现高铁车站人流拥堵的自动监控,有利于客运管理有序,确保安全。
Description
技术领域
本发明属于旅客交通运输安全技术领域,涉及一种安全监控系统,具体涉及一种基于场景判断实现客运管理的高铁车站视频监控系统。
背景技术
随着我国高铁技术的快速发展以及人们生活水平的不断提高,乘坐高铁成为了人们出行的首选方式。随着越来越多的人乘坐高铁,也给高铁车站带来了一定的压力,经常造成高铁车站的候车室、检票口和出入站口等地方人员过渡密集,容易引发踩踏等群体性事件,从而给人们的生命财产安全带来重大影响。
为了保证高铁车站的人员安全,便于高铁车站中的客运管理,保证高铁车站中人们的生命财产,高铁车站往往会在候车室、检票口和出入站口等人员密集区域安排很多安保人员,以便于实时掌控人员数量,并在人员数量过多时启动限流、限行等措施。
但是,采用人工的方式,需要投入大量的安保人员,一方面增加了高铁车站的经济负担,另一方面由于完全靠人工组织和维持秩序,容易受到人为因素的影响,不能及时做出最准确的判断。
为此,一些高铁车站开始在候车室、检票口和出入站口等人员密集区域大量布置摄像头,以期通过视频监控的方式来实现人员密度的监控和调节。但是,现有的监控方式只是简单地将视频图像回传到监控室,由工作人员对着监控室的监控画面进行监控。这种方式虽然在一定程度上减少了安保人员用量,但是,其整个判断过程仍然是人工的,仍然容易受到人为因素的影响,对监视画面所反映的场景依赖人工经验的判断;例如,监控人员如果不能时刻注意监控画面,或者不能对人员过度集中拥堵等场景及时做出正确判断,就容易造成漏判、误判。人工观测的监控方式在时间上也缺少预见性,不能合理总结过去一个时段视频监控场景的变化规律,从而对未来趋势进行预判,不能高效和高可靠性地响应或防范安全事件的发生。
鉴于现有技术的上述缺陷,迫切需要一种新型的智能化的高铁车站监控系统。
发明内容
本发明的目的在于克服现有技术中存在的缺点,提供一种基于场景判断实现客运管理的高铁车站视频监控系统,该系统能实现对高铁车站候车区域的自动监控,对于出现人员集中拥堵的状况自动报警,确保高铁车站客运管理的有序高效和候车乘客的人员安全。
为了实现上述目的,本发明提供如下技术方案:
一种基于场景判断实现客运管理的高铁车站视频监控系统,其包括视频监控摄像机群、视频处理平台和结果显示终端,其特征在于,
所述视频监控摄像机群包括若干台区块摄像机和若干台俯拍摄像机;所述区块摄像机负责拍摄高铁车站中对应的一个区块;所述俯拍摄像机,用于实现大范围视角区域的广角俯视拍摄,该大范围视角区域涵盖了若干个区块;
所述视频处理平台包括图像预处理模块、人像提取模块、人员密度计算模块、场景模式识别模块和预警模块;其中,所述图像预处理模块用于对每台所述区块摄像机拍摄的视频画面进行预处理,所述预处理包括标定并获取视频画面中属于与该区块摄像机相对应区块的空间范围内的画面部分,作为所述区块视频画面部分,并且将该区块视频画面部分分割为子画面;所述人像提取模块用于识别预处理后的区块视频画面部分中的人脸区域;所述人员密度计算模块用于通过对一个时间单位内抽取的若干帧视频画面的区块视频画面部分当中存在的人脸区域进行计数,取得该时间单位内的人员计数值,从而计算时间单位上区块内的人员密度值,并统计人员密度值随时间的走势;所述场景模式识别模块将人员密度值高于预定阈值且过去若干个时间单位上呈上升走势的区块作为目标区块,获取拍摄视角范围覆盖了目标区块的俯拍摄像机的俯拍视频画面序列,采用混合高斯背景建模方法,对目标区块的俯拍视频画面序列进行场景识别,判断目标区块是否存在拥堵场景;所述预警模块用于在场景模式识别模块判定目标区块存在拥堵场景时进行自动报警;
所述结果显示终端用于响应并显示拥堵场景的报警信息。
优选的是,所述图像预处理模块包括:区块画面标定子模块、图像分割子模块;所述区块画面标定子模块预先标定出在整个视频画面当中,区块视频画面部分所在的局部区域,从而对于每一帧新拍摄的视频画面,都按照标定的区域提取出其中局部的画面,作为所述区块视频画面部分;所述图像分割子模块用于对视频图像当中的区块视频画面部分依据图像大小、分辨率以及视频处理平台的运算性能分割为若干子画面。
优选的是,所述人像提取模块包括:特征训练子模块、模板生成子模块、人像识别子模块;所述特征训练子模块从区块摄像机输送的各帧视频画面当中,抽取一部分帧作为训练样本,并且从作为训练样本的每帧视频画面的区块视频画面部分当中标定存在的每个人脸区域,进而利用训练样本中所标定的人脸区域,对朴素贝叶斯分类器进行人脸区域特征识别的训练;模板生成子模块用于确定对视频画面的区块视频画面部分进行人脸识别时所采用的模板的尺寸;人像识别子模块从区块摄像机拍摄的视频画面中平均抽样一部分视频画面,对于被抽样的视频画面的区块视频画面部分,针对其每个被分割的子画面确定适用的模板尺寸,然后以模板为单位提取子画面的区域,输入经训练的所述朴素贝叶斯分类器,获得该区域是否属于人脸区域的分类结果,通过移动模板以及更换子画面,对被抽样的每个视频画面识别出区块视频画面部分中的人脸区域。
进一步优选的是,特征训练子模块计算训练样本中每个被标定的人脸区域的平均灰度值和熵累加值,输入至所述朴素贝叶斯分类器进行训练;并且人像识别子模块对于利用模板提取的区域,也计算平均灰度值和熵累加值并输入至经训练的所述朴素贝叶斯分类器。
优选的是,特征训练子模块还从作为训练样本的视频画面中标定一定数量的非人脸区域,计算所标定的非人脸区域的平均灰度值和熵累加值,作为负样本输入所述朴素贝叶斯分类器进行训练。
优选的是,人员密度计算模块包括:人脸区域计数子模块、人员密度计算子模块和人员密度时间统计子模块;所述人脸区域计数子模块针对每一个区块,为一个时间单位内抽样的各帧视频画面当中区块视频画面部分内人脸区域数量进行计数,进而计算各帧计数的平均值,作为该时间单位上该区块的人员计数值;人员密度计算子模块根据各个时间单位内各区块的人员计数值,结合各区块的面积,计算每个时间单位内各区块内的人员密度值;人员密度时间统计子模块针对每个区块,统计每个时间单位上该区块的人员密度值,判定每个区块是否属于人员密度持续上升的区块。
优选的是,所述场景模式识别模块包括:背景更新子模块、前景分离子模块和场景判定子模块;所述背景更新子模块利用所述俯拍视频画面序列最初一段时间内的若干帧俯拍视频画面,对混合高斯模型进行背景初始化,以及进行背景更新;前景分离子模块针对俯拍视频画面序列当中其余的俯拍视频画面,通过像素与更新后的混合高斯模型是否匹配,进行背景像素点与前景像素点分割,生成二值化图像;场景判定子模块针对由各幅俯拍视频画面二值化之后的黑白图像,进行拥堵场景的识别。
优选的是,所述场景判定子模块对于二值化之后黑白图像,通过统计黑白像素的面积比,判定目标区块是否存在拥堵场景。
优选的是,所述结果显示终端包括笔记本电脑和移动终端。
优选的是,所述预警模块可以通过无线的方式将报警信息传输到所述移动终端。
与现有的高铁车站监控系统相比,本发明的基于场景判断实现客运管理的高铁车站视频监控系统具有如下有益技术效果:
1、其为智能化的视频监控系统,能够自动计算高铁车站人流密集区域的人流密度,并能够在人流密度过高时进行场景识别,不需要人工的参与,既能够保证高铁车站的安全,而且可以减少人员的使用量,节省成本。
2、其采用广角摄像机和较小视角的区块摄像机相结合,能够确保监控区域没有死角,从而确保监控的全面性。
3、其基于场景判断实现客运管理,而不是采用统一的客运管理方式,更符合高铁车站的现实情况。
4、其能够确保人员识别的准确度,从而确保预测的准确性,防止误报和不报事情的发生。
5、其结构简单、造价低、便于在各个高铁车站进行大规模推广应用。
附图说明
图1是本发明的基于场景判断实现客运管理的高铁车站视频监控系统的整体组成示意图。
图2是视频监控摄像机群中区块摄像机和俯拍摄像机的部署方案示意图。
图3是本发明视频处理平台的组成示意图。
图4是本发明所述图像预处理模块的组成示意图;
图5是在视频画面当中实现区块视频画面部分标定的示意图;
图6是本发明所述人像提取模块的组成示意图;
图7是在视频画面当中对区块视频画面部分内的人脸区域进行标注以及确定模板尺寸的示意图;
图8是以模板为单位提取该子画面区域的示意图;
图9是本发明所述人员密度计算模块的结构示意图;
图10是各个时间单位上人员密度值统计曲线走势示意图;
图11是本发明所述场景模式识别模块的结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
图1示出了本发明的基于场景判断实现客运管理的高铁车站视频监控系统的组成示意图。如图1所示,本发明的基于场景判断实现客运管理的高铁车站视频监控系统包括视频监控摄像机群1、视频处理平台2和结果显示终端3。
其中,所述视频监控摄像机群1安装在高铁车站的人流密集区域,例如安装在高铁车站的候车厅、检票口和出入站口等处,用于拍摄高铁车站的候车厅、检票口和出入站口等处图像,以便于实现对这些区域的监控。
在本发明中,优选地,所述视频监控摄像机群1包括若干台拍摄视角范围较小、面向局部监控区块的区块摄像机1.1以及若干台拍摄范围较为广角的俯拍摄像机1.2。图2示出了在一个高铁候车厅当中视频监控摄像机群1的部署方案。可在车站出入站口、检票口以及候车厅的整个范围内,分区块部署若干台区块摄像机1.1,每台区块摄像机1.1负责拍摄对应的一个区块,其拍摄的视角范围可以完全覆盖整个负责的区块。如图2中的每个虚线框表示一个预定的监控区块,实线框表示每台区块摄像机1.1的拍摄视角范围。从而,所述区块摄像机1.1能够实现局部区块的监控,且拍摄更为清晰的视频图片。当然,大多数区块摄像机1.1拍摄视角范围还涵盖了与其所负责的区块相邻接的其它区块的边缘部位。所述俯拍摄像机1.2以高架方式设置在候车厅的高空机位处,用于实现大范围视角区域的广角俯视拍摄,该大范围视角区域涵盖了若干个区块。通过所述区块摄像机1.1和俯拍摄像机1.2的结合,能够确保高铁车站的候车厅、检票口和出入站口等处的全面监控,不留死角。同时,由于采用了两种类型摄像机结合的方式,在下面介绍的后续处理时,可以对两种类型摄像机拍摄的视频图像进行综合处理,确保处理结果更准确。
视频监控摄像机群1中各台摄像机拍摄的视频画面被通过有线或者无线途径的专用信道实时传送至视频处理平台2。摄像机对自身所拍摄的视频画面进行编码打包,并且在数据包的包头中嵌入本摄像机的序列号,然后执行视频画面编码数据包的实时上传。
所述视频处理平台2用于对所述视频监控摄像机群1拍摄的视频图像进行分析处理,该视频处理平台2所执行的主要分析处理包括:首先,针对区块摄像机1.1拍摄的视频画面获得各个区块的人员密度;进而,结合区块人员密度以及俯拍摄像机1.2的俯拍广角视频画面,进行场景模式识别;最后,在场景模式识别的基础上实现预测和自动报警。
图3示出了本发明的基于场景判断实现客运管理的高铁车站视频监控系统的视频处理平台的组成示意图。如图3所示,在本发明中,所述视频处理平台2包括图像预处理模块2.1、人像提取模块2.2、人员密度计算模块2.3、场景模式识别模块2.4和预警模块2.5。
其中,所述图像预处理模块2.1用于对每台所述区块摄像机1.1拍摄的视频图像进行预处理。图4示出了视频处理平台的图像预处理模块的组成示意图。如图4所示,所述图像预处理模块2.1包括区块画面标定子模块、图像分割子模块。其中,如前文所述,每台区块摄像机1.1实际拍摄的视频画面除了区块空间范围内的画面以外,还会包含有一部分属于相邻区块空间范围内的画面。区块画面标定子模块即是用于从区块摄像机1.1提供的完整的视频画面当中,获取该摄像机对应区块空间范围内的视频画面部分,该视频画面部分是完整视频画面的一个局部,下文中称之为区块视频画面部分。一般来说,区块摄像机1.1的拍摄机位和视角都是固定的,在区块摄像机1.1与区块的相对位置与角度都不变的情况下,在每一帧的视频画面当中,区块视频画面部分都处在一个固定的局部区域。因此,区块画面标定子模块即可以预先标定出在整个视频画面当中,区块视频画面部分所在的局部区域,从而对于每一帧新拍摄的视频画面,都按照标定的区域提取出其中局部的画面,作为区块视频画面部分。所述图像分割子模块用于对视频图像当中的区块视频画面部分再进行分割,例如,将该区块画面部分再分成4块子画面、8块子画面、16块子画面等,以便于对分割后的子画面区域进行后续处理。具体分割为多少区域,要依据图像大小、分辨率以及视频处理平台的运算性能而定。在后续的人像提取步骤中,以每个子画面为单位执行人像提取的计算。分割子画面可增加并行性,例如多线程的处理器可以针对若干个子画面并行执行后续的人像提取计算。作为示例,如图5所示的一帧视频画面,其中虚线框即为预先标定出来的区块视频画面部分的边界,每帧视频画面中落入到该边界以内的局部即为所述区块视频画面部分。
所述人像提取模块2.2用于提取预处理后的区块视频画面部分中的人脸区域。如图6所示,人像提取模块2.2包括特征训练子模块、模板生成子模块、人像识别子模块。
所述特征训练子模块从每台区块摄像机1.1输送的各帧视频画面当中,抽取一部分帧作为训练样本,例如在系统的安装调试阶段,从拍摄的监控视频中随机抽取100帧视频画面作为训练样本;对于作为训练样本的视频画面,可以用人工的方式从视频画面的区块视频画面部分当中标定存在的每个人脸区域;进而,特征训练模块针对训练样本中所标定的人脸区域,进行人脸区域特征识别的训练。样本训练的目的是消除图像中无关信息的影响,增强系统对人脸有关信息的可检测性,最大限度的简化后续计算。这样,既能够人脸识别准确,又能够简化数据处理,提高处理速度。具体来说,对于图5所示的视频画面,如果将该画面作为训练样本,则如图7所示,从视频画面的区块视频画面部分当中标定存在的每个人脸区域,如图7中的实线框所示。特征训练子模块再针对所标定的人脸区域,执行人脸区域特征识别的训练。由于视频画面是涵盖整个区块空间拍摄的监控画面,画面中存在大量的人脸区域,且每个人脸区域面积比较小,成像清晰度有限,面部细节特征呈现不充分,而且本发明对于人脸区域的特征提取也不是以识别个人身份为目标,而是为了后续的人密度计算。因此,特征训练子模块对人脸区域的识别训练不能采用常规的基于面部细节特征的方式。本发明的特征训练子模块计算训练样本中每个被标定的人脸区域的平均灰度值和熵累加值,作为表征该区域的特征。其中,每个人脸区域的熵累加值以如下方式计算:
其中i表示视频画面的像素灰度级,有灰度级1-M;Pi表示每个人脸区域中灰度级为i的像素的出现概率;H表示该人脸区域的熵累加值。特征训练子模块将从训练样本中标定的人脸区域的平均灰度值和熵累加值输入二维特征朴素贝叶斯分类器,对该二维特征朴素贝叶斯分类器进行训练。优选的,特征训练子模块还从作为训练样本的视频画面中标定一定数量的非人脸区域,所标定的非人脸区域的大小与人脸区域接近,例如面积相对差值在人脸区域的10%以内,如图7中的虚线框所示。计算所标定的非人脸区域的平均灰度值和熵累加值,作为负样本输入该二维特征朴素贝叶斯分类器进行训练。
所述模板生成子模块确定对区块视频画面部分进行人脸识别时所采用的模板的尺寸。具体来说,模板生成子模块获得训练样本中被标定的各个人脸区域的X方向和Y方向尺寸。如图7所示,由于拍摄成像时近大远小的视差效果,在视频画面Y轴方向越接近上方,则人脸区域的尺寸越大,如果采用求各个人脸区域尺寸平均值的办法不能获得效果最好的模板尺寸。因此,模板生成子模块将视频画面按Y轴坐标划分为若干个区间,如图7中给的点划线所示,针对每个区间中的人脸区域,统计其X方向和Y方向尺寸的平均值,作为该Y轴区间对应的模板X方向和Y方向尺寸。
在以上基础之上,人像提取模块2.2的人像识别子模块面向由区块摄像机1.1拍摄的平均抽样视频画面当中的区块视频画面部分,识别其中存在的人脸区域。区块摄像机1.1作为监控摄像机,一般每秒钟拍摄的视频画面在10帧-30帧之间,也就是两帧相邻视频画面之间的时间差为0.1-0.03秒,在这么短的时间内区块内人员数量不会发生明显的变化。因此,没有必要对每帧视频画面都进行人脸识别,而是每秒钟抽取一到两帧视频画面作为平均抽样视频画面。具体来说,人像识别子模块针对平均抽样视频画面当中的区块视频画面部分,取得图像分割子模块所分割出的每个子画面,然后根据该子画面Y轴坐标所归属的Y轴区间,选定与该Y轴区间对应的模板的X方向尺寸和Y方向尺寸。然后,如图8所示,针对该子画面,以模板为单位提取该子画面的一个区域,将该提取区域的平均灰度值和熵累加值输入至经过训练之后的二维特征朴素贝叶斯分类器,获得该区域属于人脸区域还是不属于人脸区域的分类结果。然后,将模板在X方向和Y方向分别移动预定距离,在X方向上移动的预定距离大于模板在X方向尺寸的1/2且小于模板在X方向的尺寸,在Y方向上移动的预定距离大于模板在Y方向尺寸的1/2且小于模板在Y方向的尺寸;再次提取出与移动之后的模板相重叠的子画面的一个区域,输入经过训练之后的二维特征朴素贝叶斯分类器,获得该区域属于人脸区域还是不属于人脸区域的分类结果。依次类推,直至模板遍历了该子画面的全部范围,从而分类识别了该子画面当中的全部人脸区域。进而,选取区块视频画面部分的另一个子画面,重新选定模板并基于二维特征朴素贝叶斯分类器分类识别其中的人脸区域;直至对本帧视频画面的区块视频画面部分的全部子画面中的人脸区域实现了识别。人像识别子模块将对本帧视频画面的区块视频画面部分的识别结果输送给人员密度计算模块2.3。
人员密度计算模块2.3根据人像提取模块2.2对每台区块摄像机1.1所拍摄的每个平均抽样视频画面含有的区块视频画面部分当中人脸区域的识别结果,统计各个区块当中的人员密度,并且分析区块人员密度在时间上的变化规律。如图9所示,人员密度计算模块2.3包括人脸区域计数子模块、人员密度计算子模块和人员密度时间统计子模块。
如前文所述,人像提取模块2.2对每台区块摄像机1.1所拍摄的平均抽样视频画面含有的区块视频画面部分当中人脸区域实现了识别,在此基础上,所述人脸区域计数子模块实现对每个区块对应的区块视频画面部分当中人脸区域的计数。由于人的移动、转向和相互遮挡等原因,即使区块内人员数量不变,各帧区块视频画面部分当中人脸区域数量也会发生波动,因此不宜将每帧的人脸区域数量直接认定为人员数量。因此,针对每一个区块,人脸区域计数子模块为一个时间单位内(例如每10s)的每帧平均抽样视频画面当中区块视频画面部分内人脸区域数量进行计数,进而计算计数的平均值,作为该时间单位的人员计数值。人员密度计算子模块根据各个时间单位内该区块的人员计数值,结合区块的面积,计算每个时间单位内区块内的人员密度值(单位:人/平方米)。进而,所述人员密度时间统计子模块针对每个区块,统计每个时间单位上该区块的人员密度值,获得如图10所示的统计曲线。根据统计曲线的走势,人员密度时间统计子模块可判定每个区块是否属于人员密度持续上升区块。
通过对区块人员密度的计算,可以初步了解到每个区块当中的人员分布情况。当人员密度超过一定阈值,且区块的人员密度持续上升,则该区块存在发生拥堵的可能性,但是并不足以判定该区块已经出现了拥堵,也不足以预测该区块未来较短时间内会演变为拥堵状况。事实上,拥堵不仅取决于人员密度,也取决于人员整体的流动性,如果流动性保持通畅,即便是高密度人群也不会发生拥堵;相反,如果在人群呈现高密度的基础上,又由于流动性不强而出现了人员积聚,则可以做出已经发生拥堵和将要发生拥堵的判断。因此,本发明进而利用场景模式识别模块2.4,根据区块人员密度以及俯拍摄像机1.2的俯拍广角视频画面,实现对拥堵场景的识别。
场景模式识别模块2.4根据人员密度计算模块2.3对每个区块人员密度值和走势的计算结果,提取人员密度值高于预定阈值且过去若干个时间单位上的统计曲线呈上升走势的区块,作为目标区块;在本发明中,可以给各个区块设置不同的预定阈值,例如,候车区的人员密度的预定值设定为3人/m2,而检票口由于人员密度天然比较高,可以将该区块的预定阈值设定为5人/m2,并将其存储在数据库中。可以从数据库中调取各个区块对应的预定阈值,并在计算的区块人员密度大于预定阈值且过去若干个时间单位上的统计曲线呈上升走势时启动场景识别。进而,确定拍摄视角范围覆盖了目标区块的俯拍摄像机1.2,从该俯拍摄像机1.2当中获取俯拍视频画面,具体来说,是获取所述统计曲线呈上升走势的这些时间单位期间由俯拍摄像机1.2所拍摄的俯拍视频画面的序列。
场景模式识别模块2.4采用混合高斯背景建模方法,对目标区块的俯拍视频画面进行场景识别。如图11,场景模式识别模块2.4具体包括背景更新子模块、前景分离子模块和场景判定子模块。采用混合高斯背景建模方法实现场景识别的具体过程如下:
首先,背景更新子模块利用所述俯拍视频画面序列,对混合高斯模型进行背景初始化。
高斯模型是适合复杂场景的动态提取算法,可以有效从视频画面所展示的拍摄场景中提取动态的视频画面部分,而在各帧视频画面中不变或者保持相对静态的画面部分则被吸收到背景中而不被提取。本发明采用混合高斯模型对于俯拍视频画面序列进行识别,提取俯拍视频画面的动态部分和静态部分,进行拥堵场景的分析识别。采用俯拍视频画面执行混合高斯模型下的识别是因为:俯拍视频画面展示的较大空间范围内人群分布和人流行进的宏观场景,各种细节因素在俯拍视频画面中差异不显著,而人流行进和人群分布密度改变在俯拍视频画面当中表现比较明显,因此适合通过该画面中的动态区域来表征场景变化;同时,在拥堵状态下,由于流动性变差,俯拍画面中非常明显的形成一部分静态区域而易于吸收到背景中,因此通过动态区域和静态区域的比例就可以分析出拥堵状况。相反,如果采用区块拍摄画面,即便人群无流动性,但是由于画面中细节不断变化,难以实现有效的动态和静态分析。
混合高斯模型为视频图像的每个像素建立了M个高斯分布模型的加权,混合高斯模型表示该像素在t时刻取值为Xt的概率P(Xt):
其中n表示Xt的维数,ωt,i表示权重,μt,i表示均值矢量,Σt,i表示协方差矩阵。背景初始化是对混合高斯模型的三个参数:权重ωt,i、均值矢量μt,i和协方差矩阵Σt,i赋初值,得到初始背景。选取俯拍视频画面序列在最初一段时间内的若干帧俯拍视频画面,求每个像素点的平均值μ0和方差来初始化混合高斯模型。即:
式中N为这段时间内统计的俯拍视频画面帧数,本发明中在参数初始化时间尽量短的前提下,取N=50效果比较好。
对第i个高斯分布的权重初始取:ωt,i=1/M,M为混合高斯模型中高斯模型的个数。其取值受计算机内存大小及算法运算速度的影响,一般设定为3~5,本发明中取M=3。
其次,由背景更新子模块进行背景更新。
背景更新的目的就是使初始化后的模型在训练过程中能不断适应当前背景的变化,当每一帧俯拍视频图像输入到背景模型中,需要不断更新模型的参数。背景更新的步骤首先将像素点所对应的混合高斯模型中3个高斯分布按照ω/σ降序进行排序,σ表示标准差,然后将该像素的当前值Xt与其对应的混合高斯模型中的3个高斯分布匹配,匹配的条件是|Xt-μt-1,i|<2.5σt-1,i。对于没有匹配上的高斯分布,其参数μ和σ不变;若匹配成功,用Xt更新该高斯分布,高斯分布权重更新ωt,i=(1-α)ωt-1,i+αMt,i,其中匹配的分布Mt,i=1,不匹配的分布Mt,i=0,更新数学模型如下式:
μt,i=(1-β)μt-1,i+βxt
δt,i 2=(1-β)δt-1,i 2+β(xt-μt,i)T(xt-μt,i)
其中α,β为学习率,β=αη(xt|μt,k,σt,i)。本发明中根据检查的效果取α=0.02。
当Xt与其对应的混合高斯模型中所有高斯分布都不匹配时,则构造一个新的高斯分布,均值为Xt,初始标准差及权重设为σinit和ωinit,替换该像素对应的混合高斯模型排在最后的高斯分布。
在背景更新完成后,将所有高斯分布的权重归一化,即:
接着,前景分离子模块针对俯拍视频画面序列当中其余的俯拍视频画面,进行背景与前景分割。
混合高斯模型经过一段时间训练后,混合高斯模型中属于背景像素的高斯分布在混合高斯模型中的权值较大而方差较小,为判断像素的混合高斯模型中属于背景模型产生的高斯分布,对每个高斯分布按照权重与方差之比ω/σ由大到小排序后,取前B个高斯成分作为背景的分布,B采用下面的式子确定:
阈值T为当前像素被判定为背景的先验概率值,代表了背景高斯成分在像素的整个概率分布中所占的权重,T的取值直接影响前景检测的效果,当T值太小时,混合高斯模型就会退化为单高斯模型;当T取值过大时,会将运动目标误判为背景。本发明中根据检测的效果,阈值取经验值0.7。对于俯拍视频画面序列当中其余的俯拍视频画面的像素Xt,若Xt与前B个高斯分布都无法匹配,则认为该像素点为前景点。在前景点和背景像素点识别的情况下,对俯拍视频画面序列当中其余的俯拍视频画面分别进行图像二值化。具体为,把背景像素点设为黑色,前景像素点设为白色,得到特征明显的黑白图像。
最后,场景判定子模块针对由各幅俯拍视频画面二值化之后的黑白图像,进行拥堵场景的识别。对于高密度人群保持流动性的情形,在每幅俯拍视频画面当中,保持相对动态的前景像素点所占面积比例较大,而保持相对静态的背景像素点所占面积比例较小;相反,如果高密度人群已经出现积聚滞留状况,则保持相对动态的前景像素所占面积较小,而保持相对静态的背景像素点所占面积比例大;因此,对于二值化之后黑白图像,通过统计黑白像素的面积比,如果面积比大于一定的阈值,则判定目标区块存在拥堵场景。
所述预警模块2.5用于在场景模式识别模块2.4判定目标区块存在拥堵场景时进行自动报警,以引起车站管理员的注意,从而启动限流等措施,确保安全。
所述结果显示终端3用于响应所述报警的信息。也就是,通过所述结果显示终端3可以查看场景识别结果,也可以显示报警信息。也就是,当产生报警时,将报警信息传输到所述结果显示终端3,以便于相关人员及时了解报警信息。
在本发明中,所述结果显示终端3可以包括笔记本电脑3.1和移动终端3.2。具体地,所述预警模块2.5可以通过无线的方式将报警信息传输到所述移动终端3.2。这样,相关人员,例如高铁车站的管理人员、领导等即使不在现场,也能够及时了解高铁车站的人流情况,便于及时进行应急响应。
在本发明中,优选地,所述移动终端3.2为智能手机。这样,将高铁车站视频监控系统与智能手机相结合,使得其使用非常方便,方便了人们的使用。
本发明的基于场景判断实现智能化的客运管理的高铁车站视频监控系统,结合区块拍摄画面和俯拍画面,通过区块拍摄画面中的人脸区域识别与计数,能够自动计算高铁车站人流密集区域各个区块的人流密度及其变化态势,并能够在人流密度过高时进行场景识别,在场景识别中利用混合高斯模型的方法提取俯拍画面当中保持动态的区域,根据动态区域范围分析人群流动性,及时发现拥堵趋势。本发明不需要人工的参与,既能够保证高铁车站的安全,而且可以减少管理疏导人员的使用量,节省成本。而且,其使用非常方便,方便了用户的使用。
在本说明书的描述中,参考术语“一个实施方式”、“一些实施方式”、“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
以上内容是结合具体的实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换。
Claims (8)
1.一种基于场景判断实现客运管理的高铁车站视频监控系统,其包括视频监控摄像机群、视频处理平台和结果显示终端,其特征在于,
所述视频监控摄像机群包括若干台区块摄像机和若干台俯拍摄像机;所述区块摄像机负责拍摄高铁车站中对应的一个区块;所述俯拍摄像机,用于实现大范围视角区域的广角俯视拍摄,该大范围视角区域涵盖了若干个区块;
所述视频处理平台包括图像预处理模块、人像提取模块、人员密度计算模块、场景模式识别模块和预警模块;其中,所述图像预处理模块用于对每台所述区块摄像机拍摄的视频画面进行预处理,所述预处理包括标定并获取视频画面中属于与该区块摄像机相对应区块的空间范围内的画面部分,作为所述区块视频画面部分,并且将该区块视频画面部分分割为子画面;所述人像提取模块用于识别预处理后的区块视频画面部分中的人脸区域;所述人员密度计算模块用于通过对一个时间单位内抽取的若干帧视频画面的区块视频画面部分当中存在的人脸区域进行计数,取得该时间单位内的人员计数值,从而计算时间单位上区块内的人员密度值,并统计人员密度值随时间的走势;所述场景模式识别模块将人员密度值高于预定阈值且过去若干个时间单位上呈上升走势的区块作为目标区块,获取拍摄视角范围覆盖了目标区块的俯拍摄像机的俯拍视频画面序列,采用混合高斯背景建模方法,对目标区块的俯拍视频画面序列进行场景识别,判断目标区块是否存在拥堵场景;所述预警模块用于在场景模式识别模块判定目标区块存在拥堵场景时进行自动报警;
所述结果显示终端用于响应并显示拥堵场景的报警信息;
其中,所述场景模式识别模块包括:背景更新子模块、前景分离子模块和场景判定子模块;所述背景更新子模块利用所述俯拍视频画面序列最初一段时间内的若干帧俯拍视频画面,对混合高斯模型进行背景初始化,以及进行背景更新;前景分离子模块针对俯拍视频画面序列当中其余的俯拍视频画面,通过像素与更新后的混合高斯模型是否匹配,进行背景像素点与前景像素点分割,生成二值化图像;场景判定子模块针对由各幅俯拍视频画面二值化之后的黑白图像,通过统计黑白像素的面积比,如果面积比大于一定的阈值,则判定目标区块存在拥堵场景,从而进行拥堵场景的识别。
2.根据权利要求1所述的基于场景判断实现客运管理的高铁车站视频监控系统,其特征在于,所述图像预处理模块包括:区块画面标定子模块、图像分割子模块;所述区块画面标定子模块预先标定出在整个视频画面当中,区块视频画面部分所在的局部区域,从而对于每一帧新拍摄的视频画面,都按照标定的区域提取出其中局部的画面,作为所述区块视频画面部分;所述图像分割子模块用于对视频图像当中的区块视频画面部分依据图像大小、分辨率以及视频处理平台的运算性能分割为若干子画面。
3.根据权利要求2所述的基于场景判断实现客运管理的高铁车站视频监控系统,其特征在于,所述人像提取模块包括:特征训练子模块、模板生成子模块、人像识别子模块;所述特征训练子模块从区块摄像机输送的各帧视频画面当中,抽取一部分帧作为训练样本,并且从作为训练样本的每帧视频画面的区块视频画面部分当中标定存在的每个人脸区域,进而利用训练样本中所标定的人脸区域,对朴素贝叶斯分类器进行人脸区域特征识别的训练;模板生成子模块用于确定对视频画面的区块视频画面部分进行人脸识别时所采用的模板的尺寸;人像识别子模块从区块摄像机拍摄的视频画面中平均抽样一部分视频画面,对于被抽样的视频画面的区块视频画面部分,针对其每个被分割的子画面确定适用的模板尺寸,然后以模板为单位提取子画面的区域,输入经训练的所述朴素贝叶斯分类器,获得该区域是否属于人脸区域的分类结果,通过移动模板以及更换子画面,对被抽样的每个视频画面识别出区块视频画面部分中的人脸区域。
4.根据权利要求3所述的基于场景判断实现客运管理的高铁车站视频监控系统,其特征在于,特征训练子模块计算训练样本中每个被标定的人脸区域的平均灰度值和熵累加值,输入至所述朴素贝叶斯分类器进行训练;并且人像识别子模块对于利用模板提取的区域,也计算平均灰度值和熵累加值并输入至经训练的所述朴素贝叶斯分类器。
5.根据权利要求4所述的基于场景判断实现客运管理的高铁车站视频监控系统,其特征在于,特征训练子模块还从作为训练样本的视频画面中标定一定数量的非人脸区域,计算所标定的非人脸区域的平均灰度值和熵累加值,作为负样本输入所述朴素贝叶斯分类器进行训练。
6.根据权利要求5所述的基于场景判断实现客运管理的高铁车站视频监控系统,其特征在于,人员密度计算模块包括:人脸区域计数子模块、人员密度计算子模块和人员密度时间统计子模块;所述人脸区域计数子模块针对每一个区块,为一个时间单位内抽样的各帧视频画面当中区块视频画面部分内人脸区域数量进行计数,进而计算各帧计数的平均值,作为该时间单位上该区块的人员计数值;人员密度计算子模块根据各个时间单位内各区块的人员计数值,结合各区块的面积,计算每个时间单位内各区块内的人员密度值;人员密度时间统计子模块针对每个区块,统计每个时间单位上该区块的人员密度值,判定每个区块是否属于人员密度持续上升的区块。
7.根据权利要求6所述的基于场景判断实现客运管理的高铁车站视频监控系统,其特征在于,所述结果显示终端包括笔记本电脑和移动终端。
8.根据权利要求7所述的基于场景判断实现客运管理的高铁车站视频监控系统,其特征在于,所述预警模块可以通过无线的方式将报警信息传输到所述移动终端。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710824740.0A CN107483894B (zh) | 2017-09-13 | 2017-09-13 | 基于场景判断实现客运管理的高铁车站视频监控系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710824740.0A CN107483894B (zh) | 2017-09-13 | 2017-09-13 | 基于场景判断实现客运管理的高铁车站视频监控系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107483894A CN107483894A (zh) | 2017-12-15 |
CN107483894B true CN107483894B (zh) | 2019-06-04 |
Family
ID=60584469
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710824740.0A Active CN107483894B (zh) | 2017-09-13 | 2017-09-13 | 基于场景判断实现客运管理的高铁车站视频监控系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107483894B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111414789A (zh) * | 2019-10-20 | 2020-07-14 | 上海辰努智能科技有限公司 | 一种基于视频网格化的人体回头行为的判定方法 |
CN110991458B (zh) * | 2019-11-25 | 2023-05-23 | 创新奇智(北京)科技有限公司 | 基于图像特征的人工智能识别结果抽样系统及抽样方法 |
CN111405239B (zh) * | 2020-02-17 | 2021-08-31 | 浙江大华技术股份有限公司 | 监控方法、服务器、监控系统以及计算机可读存储介质 |
CN111931567B (zh) * | 2020-07-01 | 2024-05-28 | 珠海大横琴科技发展有限公司 | 人体识别的方法及装置、电子设备、存储介质 |
CN113869159B (zh) * | 2021-09-16 | 2022-06-10 | 深圳市创宜隆科技有限公司 | 云服务器数据管理系统 |
CN114463911B (zh) * | 2022-02-10 | 2022-11-04 | 广州邦讯信息系统有限公司 | 一种应用于高铁站台的安全防护系统 |
CN115206094A (zh) * | 2022-06-27 | 2022-10-18 | 五邑大学 | 交通运输枢纽异常事件检测方法、检测系统、存储介质 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102081810B (zh) * | 2010-11-15 | 2013-09-25 | 中国电信股份有限公司 | 户外媒体远程监测方法和系统 |
CN103345653B (zh) * | 2013-06-17 | 2016-03-30 | 复旦大学 | 基于多摄像头融合的上座率统计方法 |
CN104581081B (zh) * | 2015-01-26 | 2018-03-30 | 浙江易网科技股份有限公司 | 基于视频信息的客流分析方法 |
CN104820995A (zh) * | 2015-04-21 | 2015-08-05 | 重庆大学 | 一种面向大型公共场所的人流密度监测预警方法 |
-
2017
- 2017-09-13 CN CN201710824740.0A patent/CN107483894B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN107483894A (zh) | 2017-12-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107483894B (zh) | 基于场景判断实现客运管理的高铁车站视频监控系统 | |
CN109819208B (zh) | 一种基于人工智能动态监控的密集人群安防监控管理方法 | |
CN104504394B (zh) | 一种基于多特征融合的密集人数估计方法和系统 | |
CN106980829B (zh) | 基于视频分析的打架斗殴异常行为自动检测方法 | |
WO2017122258A1 (ja) | 混雑状況監視システム | |
WO2019114145A1 (zh) | 监控视频中人数检测方法及装置 | |
CN103986910A (zh) | 一种基于智能分析摄像机的客流统计方法和系统 | |
CN110188807A (zh) | 基于级联超分辨率网络与改进Faster R-CNN的隧道行人目标检测方法 | |
CN112287827A (zh) | 基于智慧灯杆的复杂环境行人口罩佩戴检测方法及系统 | |
CN104820995A (zh) | 一种面向大型公共场所的人流密度监测预警方法 | |
CN111353338B (zh) | 一种基于营业厅视频监控的能效改进方法 | |
CN103488993A (zh) | 一种基于fast的人群异常行为识别方法 | |
KR102332229B1 (ko) | 딥러닝 기반 보행자 영상 데이터 증강방법 | |
WO2009039350A1 (en) | System and method for estimating characteristics of persons or things | |
CN115841651B (zh) | 基于计算机视觉与深度学习的施工人员智能监测系统 | |
CN114772208A (zh) | 一种基于图像分割的非接触式皮带撕裂检测系统及方法 | |
CN109919068B (zh) | 基于视频分析适应密集场景人流实时监测方法 | |
CN116311166A (zh) | 交通障碍物识别方法、装置及电子设备 | |
CN111950507B (zh) | 数据处理和模型训练方法、装置、设备及介质 | |
CN113223081A (zh) | 一种基于背景建模与深度学习的高空抛物检测方法及系统 | |
Liu et al. | A technology for automatically counting bus passenger based on YOLOv2 and MIL algorithm | |
Piérard et al. | A probabilistic pixel-based approach to detect humans in video streams | |
CN112580633B (zh) | 一种基于深度学习的公共交通客流统计装置及方法 | |
CN109726750A (zh) | 一种乘客摔倒检测装置及其检测方法及乘客输送装置 | |
CN114694090A (zh) | 一种基于改进PBAS算法与YOLOv5的校园异常行为检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |