CN106127812B - 一种基于视频监控的客运站非出入口区域的客流统计方法 - Google Patents
一种基于视频监控的客运站非出入口区域的客流统计方法 Download PDFInfo
- Publication number
- CN106127812B CN106127812B CN201610508466.1A CN201610508466A CN106127812B CN 106127812 B CN106127812 B CN 106127812B CN 201610508466 A CN201610508466 A CN 201610508466A CN 106127812 B CN106127812 B CN 106127812B
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- indicate
- frame
- moving target
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000007619 statistical method Methods 0.000 title claims abstract description 12
- 238000012544 monitoring process Methods 0.000 title claims description 14
- 238000000034 method Methods 0.000 claims abstract description 46
- 230000033001 locomotion Effects 0.000 claims abstract description 8
- 239000011159 matrix material Substances 0.000 claims description 30
- 239000013598 vector Substances 0.000 claims description 19
- 230000008569 process Effects 0.000 claims description 11
- 238000000605 extraction Methods 0.000 claims description 8
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000012546 transfer Methods 0.000 claims description 3
- 230000017105 transposition Effects 0.000 claims description 3
- 238000001514 detection method Methods 0.000 abstract description 35
- 230000000694 effects Effects 0.000 abstract description 4
- 230000009977 dual effect Effects 0.000 abstract description 3
- 230000000903 blocking effect Effects 0.000 abstract description 2
- 238000004458 analytical method Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000004040 coloring Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- 241001504505 Troglodytes troglodytes Species 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000005021 gait Effects 0.000 description 1
- 239000008187 granular material Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000035772 mutation Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 210000003462 vein Anatomy 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30242—Counting objects in image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明提供的客流统计方法针对于客运站非出入口区域拍摄的图像容易出现遮挡的特点,提出使用行人的不易被遮挡、且形态基本不变的头肩部haar‑like特征来对行人进行检测,其检测判别是否为行人的准确率较高,适用于行人图像出现遮挡的应用场景;而在完成检测后,通过Kalman滤波器和以上检测行人的方法来对行人在每帧图像的位置进行双重追踪,以保证追踪的准确率;实验证明,该方法能够针对客运站非出入口区域行人姿态多变、行为复杂、行走方向难预测的特点,达到很好的追踪效果。通过对行人的准确检测和追踪,本发明提供的方法能够有效地记录下行人的运动轨迹,保证了行人目标的匹配,减少误检和遗漏,提高人数统计精度。
Description
技术领域
本发明涉及客流统计领域,更具体地,涉及一种基于视频监控的客运站非出入口区域的客流统计方法。
背景技术
利用监控视频进行客流检测,一直是视频智能分析研究与应用中的热点。由于人体属于非刚性目标,行进过程中姿态多变,而且背景环境复杂,光照条件多样,加之视频拍摄时投影原理造成的遮挡和粘连,给客流检测技术的发展带来巨大挑战。客流检测方法主要包括三个环节:行人检测、行人跟踪和人数统计,相关研究综述如下:
(1)行人检测
行人检测就是利用图像处理、模式识别等技术,提取出有效的行人特征表达,并根据这些特征识别出视频中的行人目标,从而实现行人的定位和分割。
常用的行人特征主要是表观特征,包括形状、颜色、梯度和纹理等图像特征,典型的有Haar特征、Haar-like特征、HOG特征等。采用合适的单一特征可以实现行人检测。如Gavrila和Munder[1]提出一种基于形状轮廓匹配的行人检测方法;Lin和Davis[2]使用分层的部件模板匹配方法实现行人检测;Zui Zhang等[3]基于高斯模型结合XYZ和HSV颜色空间构建了一个相似度函数来检测不同行人的发色和肤色,从而得到人头位置信息;高春霞等[4]根据人脸肤色、发色在YCbCr和RGB颜色空间的聚类情况,建立人头颜色模型,分割出人头候选区域,并结合后续的步骤完成行人检测;种衍文等[5]对HOG特征进行扩展,提出了新的EHOG特征,充分利用人体的纹理信息来减少虚警;黄茜等[6]从行人纹理信息的角度,提出了基于分块的局部二元模式(LBP)算法,利用局部二元模式均匀模式算子提取小块图像的特征直方图后,进行归一化处理并将所有小块特征级联起来形成最终的局部二元模式特征,并用实验证明这一特征有着不亚于HOG特征的行人表征能力。
为了进一步形成鲁棒性更强的行人目标表征,很多研究者将多种特征进行融合。郭烈等[7]提取了行人样本的纹理特征、对称性特征、边界矩特征以及梯度方向特征,组成表征行人的多维特征向量,获取约75%的行人检测率;杨志辉等[8]在Haar特征和HOG特征的基础上提出了一种新的特征,即多尺度方向特征(MSO),检测准确率在INTRA测试集上当误报率为10-4时达80%,检测速度也近于实时效果;欧阳万里等[9]结合行人的遮挡模型和形变模型,采用多种策略的组合提取行人特征来对行人进行检测,在Caltech数据库上测试的平均漏检率为39%;Yi-Ming Chan等[10]提出新的扩展HOG特征——HOGG(Histogramsof Oriented Grients of Granule),并将其和HOG特征相结合共同训练SVM分类器,用于行人检测,在INRIA测试集上当误报率为10-4时其检测率可达92%。
为了适应更复杂的挑战,如光照和视角变换等,还有研究人员通过融合时空结构的深度学习方法,或者在特征与分类器之间增加中间环节来提高整体检测水平。如王斌[11]利用深度学习网络作为特征提取方法,设计了基于深度学习的行人检测算法,使行人检测的性能得到大幅提升,在INRIA数据库上进行测试的误检率保持在10%时漏检率为23%;Zhang shanshan[12]等人在底层特征和分类器之间增加中间层,对底层特征使用滤波器组进行滤波,并使用boosted决策树进行分类,从而提升行人检测率,使用HOG+LUV特征在Caltech和KITTI数据库上的平均误检率低达18.5%。
(2)行人跟踪
行人跟踪主要是为了解决同一行人在图像序列中的数据关联问题。行人跟踪的方法主要分为四类:基于目标中心点的跟踪方法、基于目标区域的跟踪方法、基于目标模型的跟踪方法和基于特征的跟踪方法。
基于目标中心点的跟踪方法一般根据前一帧目标中心点的位置、目标的运动信息来预测目标当前帧的位置,然后匹配预测点和检测点的位置,实现跟踪。此类方法对于目标轮廓没有太大变化的小刚体目标,其鲁棒性和有效性较好。常用的预测和估计的数学工具有Kalman滤波、粒子滤波等。李熙莹、卢林等[13]针对汽车客运站出入口场景,采用了Kalman滤波较好地跟踪了行人头肩部分的中心点。
基于目标区域的跟踪方法将运动目标分解为运动区域的组合,通过区域块的匹配实现跟踪。Wren[14]认为人体是由头部、躯体、四肢等部分所对应的小区域块所组成,通过对这些小区域块的跟踪即可完成对整个行人的跟踪。McKenna[15]首先通过背景差分的方法提取到运动目标区域,然后在区域、人、人群三个抽象级别上进行跟踪。由于运动区域一般通过背景差分的方法来获取,因此背景建模以及更新都会对跟踪结果有较大影响。
基于目标模型的跟踪方法是为跟踪的目标定制一个模型,通过对模型的变化分析来完成对目标的跟踪。常用的人体跟踪模型有线图模型、二维模型和三维立体模型等等,如Wachter[16]在椭圆锥台的基础上建立了3D人体模型,通过分析连续视频帧3D模型的投影来实现人体跟踪。基于目标模型的跟踪方法在目标姿态变化下的跟踪结果可靠度高,但是也存在计算量大、实时性不够、实际几何模型精度差等缺点。
基于特征的跟踪方法是通过图像序列间的目标特征匹配实现跟踪,也是最为多用的方法。张阳[17]提出一种基于融合颜色、纹理及对应子空间特征信息的快速粒子滤波行人跟踪算法,提取目标行人的空间信息并细化成头部、上身、腿部三个局部子区域;其次,利用改进的纹理及颜色信息提取算法提取对应目标子区域中的联合纹理、颜色信息;最后,通过基于空间划分的颜色纹理相似度指标来判断跟踪目标的位置,实现准确跟踪。赵敏[18]研究了基于改进mean shift的行人头部目标跟踪方法,在分析行人头部目标在运动中的旋转、形变等特点的基础上,将mean shift算法引入行人头部目标跟踪,并针对其不足进行改进,结合行人检测和行人计数实现公交场景下的上下车乘客人数自动计数系统。
(3)人数统计
人数统计即获得监控范围内的客流时空分布数据。按照适用的环境来划分,人数统计方法可以分为:基于行人检测与跟踪的人数统计方法和基于底层特征的人数统计方法。
基于行人检测与跟踪的人数统计方法,可以直接显示行人的检测与跟踪,从而对跟踪到的行人进行人数统计,计数精度高,常用于通道口、出入口等场所的人数统计;王冰[19]等人针对客运站闸机通道的场景,利用HOG特征进行行人检测,随后利用mean-shift算法对目标进行实时跟踪;郑翔翔、张怡[20]提出一种基于头部检测和跟踪的人数统计方法,实验证明该方法适用于出入口场景下的行人检测;吴冬梅[21]也利用了基于人头检测的人数统计方法,增加了感兴趣区域的设定,实现出入口场景下的实时人数统计。
基于底层特征的人数统计方法,其所采用的底层特征有像素、纹理等特征,这类方法一般不注重个体,往往用来做人数的粗略统计,即人流密度估计,主要应用于遮挡严重或者人体细节不清晰的街道、广场等大范围开放环境。王媛媛[22]提出一种基于模糊匹配的自适应人群密度估计算法,为实时的视频监控提供了很好地密度估计方法;任庆云[23]针对中低人群密度情况提出一种基于像素分析的人群密度估计方法,而对于中高人群密度情况,则采用基于纹理分析的方法提取人群密度特征。
但是,对于客运站非出入口区域,一般监控摄像机拍摄的设置方向以俯侧方向、较大观察视场为主,采集的图像容易出现行人遮挡的情况;再者,客运站非出入口区域的行人姿态多变、行为复杂、且行走方向难预测。因此在行人检测、跟踪、计数等方面,有大量技术难点有待攻克。如何对客运站视频监控系统中非出入口场景下的人流进行实时检测、跟踪、统计成为目前亟待解决的问题。
发明内容
本发明为解决以上现有技术的缺陷,提供了一种基于视频监控的客运站非出入口区域的客流统计方法,该方法针对于客运站非出入口区域拍摄的图像容易出现遮挡的特点,提出使用行人的不易被遮挡、且形态基本不变的头肩部haar-like特征来对行人进行检测,其检测判别是否为行人的准确率较高,适用于行人图像出现遮挡的应用场景;而在完成检测后,通过Kalman滤波器和以上检测行人的方法来对行人在每帧图像的位置进行双重追踪,以保证追踪的准确率;实验证明,该方法能够针对客运站非出入口区域行人姿态多变、行为复杂、行走方向难预测的特点,达到很好的追踪效果。通过对行人的准确检测和追踪,本发明提供的方法能够有效地记录下行人的运动轨迹,保证了行人目标的匹配,减少误检和遗漏,提高人数统计精度。
为实现以上发明目的,采用的技术方案是:
一种基于视频监控的客运站非出入口区域的客流统计方法,该方法预先划定好人数统计区域,并对该区域内的行人目标进行检测和跟踪,从而统计进入和离开统计区域的人数,其中对行人目标进行检测和跟踪的具体过程如下:
S1.人工提取监控图像里的行人的头肩部haar-like特征对AdBoost分类器进行训练,得到训练好的AdBoost分类器;
S2.对于当前帧图像,采用背景差分法在当前帧图像的统计区域内获取运动目标;
S3.提取运动目标的头肩部haar-like特征,并将其输入训练好的AdBoost分类器内,AdBoost分类器判别运动目标是否为行人,若是则执行步骤S4;
S4.计算判别为行人的运动目标的头肩部中心点位置,并使用四维向量Xk=(px,py,vx,vy)来表示其在当前帧的系统状态,其中(px,py)表示头肩部中心点的位置,(vx,vy)表示中心点的速度;
S5.将Xk输入Kalman滤波器,并对Kalman滤波器的四个参数进行初始化:Ak、Hk、wk、vk;其中Ak表示状态由当前帧到下一帧的转移矩阵,Hk当前帧的观测矩阵,wk和vk分别表示当前帧的系统噪声向量和观测噪声向量;令Ak、Hk在各帧的系统状态变换过程中为已知且具有唯一值的矩阵,另外,设wk、vk的概率密度函数是均值为零的高斯函数且相互独立;
S6.Kalman滤波器对运动目标的头肩部中心点在下一帧的系统状态进行预报,具体如下:
其中Ak表示状态转移矩阵,表示预报的下一帧的系统状态;表示当前帧的系统状态;
由(1)式,可得系统状态协方差的预报方程:
其中,P'k+1和Pk分别是和对应的协方差,表示Ak的转置矩阵,Qk表示当前帧的系统噪声向量wk的协方差矩阵;
S7.根据步骤S6求取的内容对Kalman加权矩阵进行求取:
其中Kk+1表示下一帧的Kalman加权矩阵,Hk、表示观测矩阵以及其转置,Rk表示观测噪声向量vk的协方差矩阵;
S8.根据求取的Kalman加权矩阵对运动目标的头肩部中心点在下一帧的系统状态和状态向量协方差Pk+1进行更新:
Pk+1=(I-Kk+1Hk)P'k+1
其中Zk+1为下一帧的观测值,I表示单位矩阵;
S9.对下一帧图像按照步骤S2~S4的方法获取运动目标的头肩部中心点位置的系统状态,然后将获取的系统状态与步骤S5~S9预测得到的运动目标的系统状态进行匹配关联,若两者匹配,则将匹配的结果确定为运动目标在下一帧的位置,否则利用步骤S5~S9预测得到的系统状态确定运动目标在下一帧的位置;
S10.S5~S9重复执行直至完成整个的统计过程。
优选地,所述步骤S2中,遍历每一帧视频图像中的所有像素值,按照从左至右、从上到下的顺序,对每一个像素利用背景差分法判别其是否为运动目标,背景差分法可用以下公式表示:
其中,fd(x,y)代表前景点,T为阈值,Bn(x,y)和fn(x,y)分别表示像素(x,y)在无运动目标的情况下的像素值和当前帧的像素值,n表示当前为第n帧。
优选地,所述像素(x,y)在无运动目标的情况下的像素值可通过以下方式确定:
选取内容不包括运动目标的连续100帧图像序列,并对100帧图像序列中相对应的各个像素点进行平均运算,获得Bn(x,y):
其中,Im为像素(x,y)在第m帧的像素值。
与现有技术相比,本发明的有益效果是:
本发明提供的方法针对于客运站非出入口区域拍摄的图像容易出现遮挡的特点,提出使用行人的不易被遮挡、且形态基本不变的头肩部haar-like特征来对行人进行检测,其检测判别是否为行人的准确率较高,适用于行人图像出现遮挡的应用场景;而在完成检测后,通过Kalman滤波器和以上检测行人的方法来对行人在每帧图像的位置进行双重追踪,以保证追踪的准确率;实验证明,该方法能够针对客运站非出入口区域行人姿态多变、行为复杂、行走方向难预测的特点,达到很好的追踪效果。通过对行人的准确检测和追踪,本发明提供的方法能够有效地记录下行人的运动轨迹,保证了行人目标的匹配,减少误检和遗漏,提高人数统计精度。
附图说明
图1为行人检测的流程图。
图2为行人检测的实施示意图。
图3为行人跟踪的流程图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
以下结合附图和实施例对本发明做进一步的阐述。
实施例1
如图1~3所示,本发明提供的客流统计方法的发明点主要在于行人检测和跟踪方面,其中行人检测的具体过程包括以下步骤:
第一步、人工提取监控图像里的行人的头肩部haar-like特征对AdBoost分类器进行训练,得到训练好的AdBoost分类器。在训练的时候,将人工提取的行人头肩图像作为正样本,非行人图像作为负样本。
第二步、对于当前帧图像,采用背景差分法在当前帧图像的统计区域内获取运动目标;
第三步、提取运动目标的头肩部haar-like特征,并将其输入训练好的AdBoost分类器内,AdBoost分类器判别运动目标是否为行人,若是则执行第四步;
第四步、计算判别为行人的运动目标的头肩部中心点位置,并使用四维向量Xk=(px,py,vx,vy)来表示其在当前帧的系统状态,其中(px,py)表示头肩部中心点的位置,(vx,vy)表示中心点的速度。
而行人追踪的部分则包括以下步骤:
第五步、将Xk输入Kalman滤波器,并对Kalman滤波器的四个参数进行初始化:Ak、Hk、wk、vk;其中Ak表示状态由当前帧到下一帧的转移矩阵,Hk当前帧的观测矩阵,wk和vk分别表示当前帧的系统噪声向量和观测噪声向量。从而构成系统状态方程和系统的观测方程:
Xk+1=AkXk+wk
Zk+1=HkXk+vk
其中,Xk+1是下一帧的系统状态,Xk为当前帧的系统状态,Zk+1为下一帧的观测值;令Ak、Hk在各帧的系统状态变换过程中为已知且具有唯一值的矩阵;由于视频连续两帧的时间差很小,所以可以认为在连续两帧中人体的行进速度是匀速的,因此状态转移矩阵Ak可以初始化为:
根据状态方程和观测方程的关系,可以得到观测矩阵Hk:
另外,设wk、vk的概率密度函数是均值为零的高斯函数且相互独立,所以其协方差矩阵分别为:
第六步、Kalman滤波器对运动目标的头肩部中心点在下一帧的系统状态进行预报,具体如下:
其中Ak表示状态转移矩阵,表示预报的下一帧的系统状态;表示当前帧的系统状态;
由(1)式,可得系统状态协方差的预报方程:
其中,P'k+1和Pk分别是和对应的协方差,表示Ak的转置矩阵,Qk表示当前帧的系统噪声向量wk的协方差矩阵;
第七步、根据第六步求取的内容对Kalman加权矩阵进行求取:
其中Kk+1表示下一帧的Kalman加权矩阵,Hk、表示观测矩阵以及其转置,Rk表示观测噪声向量vk的协方差矩阵;
第八步、根据求取的Kalman加权矩阵对运动目标的头肩部中心点在下一帧的系统状态和状态向量协方差Pk+1进行更新:
Pk+1=(I-Kk+1Hk)P'k+1
其中Zk+1为下一帧的观测值,I表示单位矩阵;
第九步、对下一帧图像按照第二步~第四步的方法获取运动目标的头肩部中心点位置的系统状态,然后将获取的系统状态与第五步~第九步预测得到的运动目标的系统状态进行匹配关联,若两者匹配,则将匹配的结果确定为运动目标在下一帧的位置,否则利用第五步~第九步预测得到的系统状态确定运动目标在下一帧的位置;
第十步、第五步~第九步重复执行直至完成整个的统计过程。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (3)
1.一种基于视频监控的客运站非出入口区域的客流统计方法,该方法预先划定好人数统计区域,并对该区域内的行人目标进行检测和跟踪,从而统计进入和离开统计区域的人数,其特征在于:其中对行人目标进行检测和跟踪的具体过程如下:
S1.人工提取监控图像里的行人的头肩部图像的haar-like特征作为正样本对AdBoost分类器进行训练,得到训练好的AdBoost分类器;
S2.对于当前帧图像,采用背景差分法在当前帧图像的统计区域内获取运动目标;
S3.提取运动目标的头肩部haar-like特征,并将其输入训练好的AdBoost分类器内,AdBoost分类器判别运动目标是否为行人,若是则执行步骤S4;
S4.计算判别为行人的运动目标的头肩部中心点位置,并使用四维向量Xk=(px,py,vx,vy)来表示其在当前帧的系统状态,其中(px,py)表示头肩部中心点的位置,(vx,vy)表示中心点的速度;
S5.将Xk输入Kalman滤波器,并对Kalman滤波器的四个参数进行初始化:Ak、Hk、wk、vk;其中Ak表示状态由当前帧到下一帧的转移矩阵,Hk当前帧的观测矩阵,wk和vk分别表示当前帧的系统噪声向量和观测噪声向量;令Ak、Hk在各帧的系统状态变换过程中为已知且具有唯一值的矩阵,另外,设wk、vk的概率密度函数是均值为零的高斯函数且相互独立;
S6.Kalman滤波器对运动目标的头肩部中心点在下一帧的系统状态进行预报,具体如下:
其中Ak表示状态转移矩阵,表示预报的下一帧的系统状态;表示当前帧的系统状态;
由(1)式,可得系统状态协方差的预报方程:
其中,P'k+1和Pk分别是和对应的协方差,表示Ak的转置矩阵,Qk表示当前帧的系统噪声向量wk的协方差矩阵;
S7.根据步骤S6求取的内容对Kalman加权矩阵进行求取:
其中Kk+1表示下一帧的Kalman加权矩阵,Hk、表示观测矩阵以及其转置,Rk表示观测噪声向量vk的协方差矩阵;
S8.根据求取的Kalman加权矩阵对运动目标的头肩部中心点在下一帧的系统状态和状态向量协方差Pk+1进行更新:
Pk+1=(I-Kk+1Hk)P'k+1
其中Zk+1为下一帧的观测值,I表示单位矩阵;
S9.对下一帧图像按照步骤S2~S4的方法获取运动目标的头肩部中心点位置的系统状态,然后将获取的系统状态与步骤S5~S9预测得到的运动目标的系统状态进行匹配关联,若两者匹配,则将匹配的结果确定为运动目标在下一帧的位置,否则利用步骤S5~S9预测得到的系统状态确定运动目标在下一帧的位置;
S10.S5~S9重复执行直至完成整个的统计过程。
2.根据权利要求1所述的基于视频监控的客运站非出入口区域的客流统计方法,其特征在于:所述步骤S2中,遍历每一帧视频图像中的所有像素值,按照从左至右、从上到下的顺序,对每一个像素利用背景差分法判别其是否为运动目标,背景差分法可用以下公式表示:
其中,fd(x,y)代表前景点,T为阈值,Bn(x,y)和fn(x,y)分别表示像素(x,y)在无运动目标的情况下的像素值和当前帧的像素值,n表示当前为第n帧。
3.根据权利要求2所述的基于视频监控的客运站非出入口区域的客流统计方法,其特征在于:所述像素(x,y)在无运动目标的情况下的像素值可通过以下方式确定:
选取内容不包括运动目标的连续100帧图像序列,并对100帧图像序列中相对应的各个像素点进行平均运算,获得B(x,y):
其中,Im为像素(x,y)在第m帧的像素值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610508466.1A CN106127812B (zh) | 2016-06-28 | 2016-06-28 | 一种基于视频监控的客运站非出入口区域的客流统计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610508466.1A CN106127812B (zh) | 2016-06-28 | 2016-06-28 | 一种基于视频监控的客运站非出入口区域的客流统计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106127812A CN106127812A (zh) | 2016-11-16 |
CN106127812B true CN106127812B (zh) | 2018-10-12 |
Family
ID=57468725
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610508466.1A Active CN106127812B (zh) | 2016-06-28 | 2016-06-28 | 一种基于视频监控的客运站非出入口区域的客流统计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106127812B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108270994A (zh) * | 2016-12-30 | 2018-07-10 | 河南辉煌信通软件有限公司 | 基于售票数据的铁路客运站人流量检测预警系统 |
CN108986064B (zh) * | 2017-05-31 | 2022-05-06 | 杭州海康威视数字技术股份有限公司 | 一种人流量统计方法、设备及系统 |
CN110020572B (zh) * | 2018-01-08 | 2021-08-10 | 比亚迪股份有限公司 | 基于视频图像的人数统计方法、装置、设备及存储介质 |
CN110490030B (zh) * | 2018-05-15 | 2023-07-14 | 保定市天河电子技术有限公司 | 一种基于雷达的通道人数统计方法及系统 |
CN111815671B (zh) * | 2019-04-10 | 2023-09-15 | 曜科智能科技(上海)有限公司 | 目标数量统计方法、系统、计算机装置及存储介质 |
CN112906725A (zh) * | 2019-11-19 | 2021-06-04 | 北京金山云网络技术有限公司 | 统计人流特征的方法、装置及服务器 |
CN111062967B (zh) * | 2019-11-25 | 2023-05-26 | 山大地纬软件股份有限公司 | 一种基于目标动态跟踪的电力营业厅客流统计方法及系统 |
CN115482611A (zh) * | 2022-08-02 | 2022-12-16 | 青岛民航凯亚系统集成有限公司 | 基于视频分析的自助安检通道流量控制系统 |
CN116128883A (zh) * | 2023-04-19 | 2023-05-16 | 尚特杰电力科技有限公司 | 一种光伏板数量统计方法、装置、电子设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004029659A2 (en) * | 2002-06-14 | 2004-04-08 | Honda Giken Kogyo Kabushiki Kaisha | Pedestrian detection and tracking with night vision |
CN103559481A (zh) * | 2013-11-05 | 2014-02-05 | 无锡慧眼电子科技有限公司 | 一种复杂环境下的人数统计方法 |
CN103839038A (zh) * | 2012-11-23 | 2014-06-04 | 浙江大华技术股份有限公司 | 一种人数统计的方法及装置 |
CN104637058A (zh) * | 2015-02-06 | 2015-05-20 | 武汉科技大学 | 一种基于图像信息的客流量识别统计方法 |
-
2016
- 2016-06-28 CN CN201610508466.1A patent/CN106127812B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004029659A2 (en) * | 2002-06-14 | 2004-04-08 | Honda Giken Kogyo Kabushiki Kaisha | Pedestrian detection and tracking with night vision |
CN103839038A (zh) * | 2012-11-23 | 2014-06-04 | 浙江大华技术股份有限公司 | 一种人数统计的方法及装置 |
CN103559481A (zh) * | 2013-11-05 | 2014-02-05 | 无锡慧眼电子科技有限公司 | 一种复杂环境下的人数统计方法 |
CN104637058A (zh) * | 2015-02-06 | 2015-05-20 | 武汉科技大学 | 一种基于图像信息的客流量识别统计方法 |
Non-Patent Citations (1)
Title |
---|
《汽车客运站出入口监控系统中行人检测与跟踪方法》;李熙莹等;《计算机与现代化》;20130829(第8期);15-18 * |
Also Published As
Publication number | Publication date |
---|---|
CN106127812A (zh) | 2016-11-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106127812B (zh) | 一种基于视频监控的客运站非出入口区域的客流统计方法 | |
CN102324025B (zh) | 基于高斯肤色模型和特征分析的人脸检测与跟踪方法 | |
CN104268583B (zh) | 基于颜色区域特征的行人重识别方法及系统 | |
CN105844234B (zh) | 一种基于头肩检测的人数统计的方法及设备 | |
CN102542289B (zh) | 一种基于多高斯计数模型的人流量统计方法 | |
CN110399808A (zh) | 一种基于多目标跟踪的人体行为识别方法及系统 | |
CN102214309B (zh) | 一种基于头肩模型的特定人体识别方法 | |
CN102622584B (zh) | 视频监控中蒙面人脸的检测方法 | |
CN103034852B (zh) | 静止摄像机场景下特定颜色行人的检测方法 | |
CN106203260A (zh) | 基于多摄像机监控网络的行人识别与跟踪方法 | |
CN106570490B (zh) | 一种基于快速聚类的行人实时跟踪方法 | |
CN107590427B (zh) | 基于时空兴趣点降噪的监控视频异常事件检测方法 | |
CN110298297A (zh) | 火焰识别方法和装置 | |
CN109919053A (zh) | 一种基于监控视频的深度学习车辆停车检测方法 | |
CN106204594A (zh) | 一种基于视频图像的弥散性运动物体的方向检测方法 | |
CN104036250A (zh) | 视频行人检测与跟踪方法 | |
Karpagavalli et al. | Estimating the density of the people and counting the number of people in a crowd environment for human safety | |
CN106529441B (zh) | 基于模糊边界分片的深度动作图人体行为识别方法 | |
Liang et al. | Methods of moving target detection and behavior recognition in intelligent vision monitoring. | |
CN106056078A (zh) | 一种基于多特征回归式集成学习的人群密度估计方法 | |
CN105913011B (zh) | 基于参数自调节神经网络的人体异常行为检测方法 | |
CN112766145B (zh) | 人工神经网络的人脸动态表情识别方法及装置 | |
CN104239854B (zh) | 一种基于区域稀疏积分通道的行人特征提取和表示方法 | |
CN110232314A (zh) | 一种基于改进的Hog特征结合神经网络的图像行人检测方法 | |
Altaf et al. | Presenting an effective algorithm for tracking of moving object based on support vector machine |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
OL01 | Intention to license declared | ||
OL01 | Intention to license declared |