CN104504394A - 一种基于多特征融合的密集人数估计方法和系统 - Google Patents

一种基于多特征融合的密集人数估计方法和系统 Download PDF

Info

Publication number
CN104504394A
CN104504394A CN201410756921.0A CN201410756921A CN104504394A CN 104504394 A CN104504394 A CN 104504394A CN 201410756921 A CN201410756921 A CN 201410756921A CN 104504394 A CN104504394 A CN 104504394A
Authority
CN
China
Prior art keywords
image
foreground
cslbp
texture
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410756921.0A
Other languages
English (en)
Other versions
CN104504394B (zh
Inventor
徐勇
匡慈维
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Graduate School Harbin Institute of Technology
Original Assignee
Shenzhen Graduate School Harbin Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Graduate School Harbin Institute of Technology filed Critical Shenzhen Graduate School Harbin Institute of Technology
Priority to CN201410756921.0A priority Critical patent/CN104504394B/zh
Publication of CN104504394A publication Critical patent/CN104504394A/zh
Application granted granted Critical
Publication of CN104504394B publication Critical patent/CN104504394B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • G06V10/507Summing image-intensity values; Histogram projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Abstract

本发明提出了一种基于多特征融合的密集人数估计方法与系统。首先,将图像分成N个相等的子块;然后,用基于CSLBP直方图纹理模型和混合高斯背景建模的方法,对图像进行分层次背景建模,提取各子块经透视校正后的前景面积,并结合改进的Sobel边缘检测算子检测出各子块边缘密度,还结合CSLBP变换和灰度共生矩阵提取描述图像纹理特征的四个不同方向的重要纹理特征向量;再通过主成分分析对提取到的人群前景分割特征向量和纹理特征向量进行降维处理;将降维后的特征向量输入到神经网络模型的输入层,由其输出层得到各子块的人数估计;最后,相加得到总人数。其具有较高的准确性和较好的鲁棒性,在对地铁站台监控视频的人数统计实验中取得了较好效果。

Description

一种基于多特征融合的密集人数估计方法和系统
技术领域
本发明属于视频分析处理领域,尤其涉及一种密集人数估计方法和系统。
背景技术
随着世界人口的不断增加和社会经济的快速发展,群体性事件与日俱增,从而人群安全问题已经成为人们关注的热点问题。视频监控技术的高速发展是对群体性事件控制的重要技术保障,而人群的人数统计是对群体性事件进行有效管理的重要依据。
传统的视觉监视应用是基于闭路电视系统(Closed CircuitTelevision,CCTV)的模拟系统。该系统的视频监控完全是以人工监视为主,而且人工的方法需要巨大的监视工作量,随着监视时间的增长,监视人员的注意力会下降,很容易遗漏场景中发生的问题。而事后对存储数据的查找、分析,即使发现问题也为时已晚。随着我国综合国力的不断增强,大规模群体性活动变得日益频繁,比如体育赛事、明星演唱会、宗教仪式等。人群的安全是一个十分重要的问题,关系到社会治安的稳定,所以有关部门对群体性事件高度重视。而群体性事件的发生将会带来巨大的损失,而我们国家的人口众多,极易发生群体性事件,所以对人群的人数统计设计显得尤其重要。而人群的人数估计可以对某一监控场景给出人群的密度等级,这有助于管理者调度人力去预防群体性事件的发生,因而人群的人数统计是群体监控的一项主要参考指标。
目前,针对人数统计问题的研究主要分为两类。一类是基于行人检测的方法,通过提取人体或头部局部区域的轮廓、纹理、色彩等特征来检测行人个体,并据此计算场景人数。此类方法能够定位出场景中行人的具体位置,对于一些画面清晰,人数较少的简单场景有一定的效果。然而,现实监控场景中更多的是一些画面模糊,人数多且互相遮挡严重的复杂场景,此类方法对这样的实际监控场景并不适用。另一类是基于全局特征统计人数的方法,通过提取场景中的前景区域特征,如面积、边缘长度、纹理特征等,再利用回归算法来统计场景中的人数。这类方法虽不能准确定位每个行人的具体位置,但能更好地统计出复杂场景中的人数。Conde C通过提取灰度差分矩阵(GLDM)特征对广场大厅类的监控场景实现了人数统计,然而该方法中需要提取的特征值较多,计算步骤过于复杂。Moctezuma D和Martin D采用了灰度共生矩阵(GLCM)特征进行人数统计,并通过主成分分析(PCA)简化了最终的特征指标,在不影响精确度的情况下,降低了计算量,但该方法未能很好地考虑透视效应的因素,即图像中人所占的像素数随着与摄像头距离的增大而减小,对于复杂场景的实际检测效果一般。Albiol A和Hajer F通过提取场景中运动区域的角点信息统计人数,可以在无需提取场景前景的情况下统计场景中的人数,然而该算法仅能检测出运动状态的行人,无法检测出静止状态的行人。
发明内容
为了解决现有技术中问题,本发明提出了一种磁集成与电流纹波抵消的三端口变换器,能够减少了磁环的数量和驱动耦合变压器的个数,同时,减小了电磁干扰影响,使得三端口流经的电流纹波很小。
本发明通过如下技术方案实现:
一种基于多特征融合的密集人数估计方法包括以下步骤:
步骤1:输入视频图像,将图像分成N个相等的子图像块,赋予不同的权重;并利用图像中行人目标的身高大小与其所在位置作为基准,计算图像透视校正后的归一化投影系数;
步骤2:用基于中心对称局部二值模式CSLBP直方图纹理描述和混合高斯背景建模的方法,对输入图像进行分层次背景建模,提取各图像块的前景分割特征,并结合改进的Sobel边缘检测算子检测出各图像块边缘密度;此外还结合中心对称局部二元模式和灰度共生矩阵提取描述图像纹理特征的四个不同方向的重要纹理特征向量;
步骤3:通过主成分分析对所述步骤2提取到的前景分割特征向量和纹理特征向量进行降维处理,所述前景分割特征包括前景像素密度和前景边缘密度;
步骤4:将降维后的特征向量输入到神经网络模型的输入层,由其输出层得到各图像块的估计人数值;
步骤5:将N个子图像块的人数相加得出整个图像的人数。
进一步地,所述步骤2中采用K个加权的CSLBP直方图度量视频当前帧与背景帧的相似度,提取出粗劣的前景区域;在已确定的粗劣前景区域上,将当前前景区域中的每一个像素值与所建立的混合高斯模型进行匹配,确定出精确的前景目标区域,并利用投影系数修正前景面积。
进一步地,所述步骤2中考虑图像空间域上灰度变化的问题,对灰度图像先进行中心对称局部二值模式(CSLBP)变换,确保图像空间局部邻域内的灰度性和计算效率不变。再压缩图像的灰度等级,利用灰度共生矩阵提取出完整有效的纹理特征向量。
另一方面,本发明提供了一种的基于多特征融合的密集人数估计系统,所述系统包括计算机和摄像头,所述摄像头采集视频图像传送到所述计算机进行处理,所述计算机执行本发明的基于多特征融合的密集人数估计方法。
本发明的有益效果是:本发明提供的基于多特征融合的密集人数估计方法和系统具有较高的准确性和较好的鲁棒性,在对地铁站台的监控视频的人数统计实验中取得了较好的效果。
附图说明
图1是本发明的基于多特征融合的密集人数估计方法流程图;
图2是划分成四等分的视频帧的示意图;
图3是LBP/CSLBP算子示意图;
图4是经典的Sobel算子模板示意图;
图5是改进的Sobel算子模板示意图。
具体实施方式
下面结合附图说明及具体实施方式对本发明进一步说明。
如附图1所示的是本发明的基于多特征融合的客流人数估计方法流程图。首先,为了消去摄像机透视对图像特征的影响,将图像分成4个相等的子图像块;赋予不同的权重,并利用图像中行人目标的身高大小与其所在位置作为基准,计算图像透视校正后的归一化投影系数;然后,用基于中心对称局部二值模式直方图纹理描述和混合高斯背景建模的方法,对输入图像进行分层次背景建模,提取各图像块的前景面积,并结合改进的Sobel边缘检测算子检测出各图像块边缘密度,此外还结合中心对称局部二元模式和灰度共生矩阵提取描述图像纹理特征的四个不同方向的重要特征向量;再通过主成分分析对提取到的人群前景分割特征向量和纹理特征向量进行降维处理;接着将降维后的特征向量输入到神经网络模型的输入层,由其输出层得到各图像块的估计人数值;最后,相加所有子图像块人数得出图像人数。该方法具有较高的准确性和较好的鲁棒性,在对地铁站台的监控视频的人数统计实验中取得了较好的效果。
透视效应就是同一个人距离摄像头越远,他在图像平面上所占据的像素数越少,即数量相同的人群在距离摄像头不同的时候所代表的人群人数会出现差异。因此,只有透视校正后的前景特征才能更为准确地反映场景中的实际人数。划分区域的优点:通过划分感兴趣区域可以在一定程度上减少透视效应对人数估计结果的影响;而且通过划分区域,可以在一定程度上去掉一些背景区域,从而能够有效的提高运算速度和准确度。对兴趣区域进行划分主要有以下要求:
(1)在选择兴趣区域时,应当尽量保持行人的整体性,避免将其割裂。保持行人的整体性可以提高人数估计的精确性。
(2)区域的选择要满足容斥性。对于图像中的行人估计,要计算整个场景中行人的人数,场景中的人群人数是各个子区域内的人数和。
因此,考虑到本发明的实验场景为地铁站候车站台,本发明将图像区域分成相等的四等分,如附图2所示。并为每一个区域赋予不同的权重wr,r=1,2,3,4。
与此同时,本发明通过对同一场景中同一行人处于不同位置时的大小和横坐标值进行采样,并对行人大小和横坐标值进行非线性拟合。结果表明,行人的宽和高于其所处位置的横坐标值呈现以下函数关系,如下式所示:
w=A1x2+B1sin(x)+C1    (1)
h=A2x2+B2sin(x)+C2    (2)
其中w,h分别表示行人目标位于横坐标为x时的宽度和高度。Ai,Bi,Ci,i=1,2,分别为待拟合系数。
由式(1)和式(2)可知,已知场景中某个行人目标的大小和对应的横坐标值后,可推导出该目标位移至场景中其他任意位置时的大小,具体见式(3)和式(4)。
w 2 = A 1 x 2 2 + B 1 sin ( x 2 ) + C 1 A 1 x 1 2 + B 1 sin ( x 1 ) + C 1 w 1 - - - ( 3 )
h 2 = A 2 x 2 2 + B 2 sin ( x 2 ) + C 1 A 2 x 1 2 + B 2 sin ( x 1 ) + C 1 h 1 - - - ( 4 )
其中w1,h1,w2,h2分别表示为行人目标位于横坐标分别为x1,x2时的宽度和高度,w1,h1,x1,x2为已知量,w2,h2为待求量。
为了校正透视效应,需要对前景特征进行修正。根据式(1)和式(2),可将每行的前景特征修正为其投影至场景底边时的前景特征。因此将图像
透视校正的投影系数可表示为
γ i , j = A 1 j 2 + B 1 sin ( j ) + C 1 A 1 i 2 + B 1 sin ( i ) + C 1 · A 2 j 2 + B 2 sin ( j ) + C 2 A 2 i 2 + B 2 sin ( i ) + C 2 , i , j = 1,2 , . . . , H - - - ( 5 )
其中分别表示将处于第i行的单个前景特征投影至第j行时对应区域的宽度和高度。
再结合区域划分的内容,将不同区域的不同权重因素考虑在内,可得图像透视校正的归一化投影系数为
γ ~ i = γ i , H · w r r = 1,2,3,4 , i = 1,2 , . . . , H - - - ( 6 )
其中wr表示不同划分区域的权重,H表示图像的高度,γi,H表示第i行的单个前景特征投影至场景底边时的投影系数。
本发明结合中心对称局部二值模式(CSLBP)的直方图纹理描述和混合高斯(GMM)背景建模,采用一种分层次的快速的自适应视频运动目标检测方法。首先用CSLBP直方图纹理特性快速提取出运动区域的矩形块,然后在运动的矩形块上使用高斯背景模型,对运动目标进行精确提取。
局部二元模式(LBP)是一种有效的纹理描述算子,具有灰度不变性和计算效率不变等特点,适合对图像进行分析,并且有较高的识别力。对于图像中任意一点(x,y)(附图3中标记为nc),将其邻域内的点(附图3中标记为n0~n7,是以nc为圆心、半径为R的圆上的8个相互等距的点),与nc进行比较来计算LBP值,具体计算方法为:
LBP P , N , T ( x , y ) = Σ i = 0 N - 1 s ( n i - n c ) 2 i - - - ( 7 )
其中函数s(x)定义如下:
s ( x ) = 1 , x ≥ T 0 , otherwise - - - ( 8 )
式中,N为nc的邻域个数,在附图3中为8,R为邻域半径(单位:像素),T(T≥0)为自设阈值。
由于使用LBP直方图对区域进行描述时,产生的直方图的维数很高,计算复杂度高。为了得到更加紧凑的描述子,本发明采用中心对称局部二值模式算子(CSLBP)。与LBP相比,CSLBP的特征维数更低,且抗噪能力更强。CSLBP仅比较关于中心nc对称的邻域点(如n0和n4,n1和n5等)。其具体计算方法为:
CSLBP P , N , T ( x , y ) = Σ i = 0 ( N / 2 ) - 1 s ( n i - n i + ( N / 2 ) ) 2 i - - - ( 9 )
其中函数s(x)与式(8)相同。
设背景帧和当前图像的CSLBP算子直方图分布表示为H1、H2,采用距离测量方法获得两个直方图的相似度,它们之间的直方图相似度表示为:
d ( H 1 , H 2 ) = η i = 0 bins min ( H 1 ( i ) , H 2 ( i ) ) - - - ( 10 )
其中,bins表示直方图的带宽。
为了使CSLBP算子更加鲁棒以及背景模型能够自适应更新,本发明采用K个加权的CSLBP直方图统计来对已有的背景矩形块建模。对于时间轴上的每一个矩形块{I1,I2,...,It}用K个加权的CSLBP直方图统计作为这个矩形块序列的CSLBP纹理描述。在t时刻,像素块It(x,y)的直方图统计用Ht表示,k、t、ω和CSLBPk(t)用来分别表示第k个CSLBP直方图统计在t时刻的权值和LBP算子,则在像素块It(x,y)的CSLBP算子可表示为:
H t = Σ k = 1 K ω k , t CSLBP k ( t ) - - - ( 11 )
设在时刻t,一帧图像中每个像素点的像素值It(x,y)可以由K(K通常为3~7)个高斯分布来描述。则当前帧像素点观测值的概率为
P ( I t ( x , y ) ) = Σ i = 1 K ω i , t ( x , y ) · N ( I t ( x , y ) , μ i , t ( x , y ) , σ i , t ( x , y ) ) - - - ( 12 )
其中,i∈[1,2,…,K]。ωi,t(x,y)是t时刻像素点(x,y)的第i个模型的权值,μi,t(x,y)为模型均值,σi,t(x,y)为模型方差。
考虑到计算速度本系统在两个模型中的K值都取3,并且把每张图像序列都平均划分为16×16的大小相同像素块,划分完的连续三张图片对CSLBP模型初始化,并分布分配较小的权值;同时用同样的图像序列初始化3个高斯模型;图像每个点的像素颜色值作为高斯背景模型的均值,并取较大的方差和较小的权值。
利用前面所述的直方图相似度度量方式对K个相应块的直方图Ht进行相似性度量。当其与K个直方图均达不到匹配要求或者完全不匹配,也即d(H1,H2)>Ta时,则认为该矩形块是前景区域,否则为背景区域。
在已确定的粗劣前景区域上,将当前帧区域中的每一个像素值与所建立的高斯模型进行匹配,以确定出精确的目标区域。本发明将当前像素值It(x,y)与K个高斯模型的均值比较,若其差在第i个高斯模型的2.5倍标准差之内,则认为像素点与该高斯模型匹配。即
|It(x,y)-μi,t(x,y)|<2.5σi,t(x,y)    (13)
若上不等式成立,则该点属于背景点;否则属于前景点。
随着时间的变化背景像素会发生缓慢的变化,因此需要实时更新CSLBP模型和高斯模型的参数。首先根据模型匹配方式,检测当前背景模型的直方图是否与已有模型匹配。当新的直方图与当前所有直方图均不匹配时,认为该矩形块是前景区域,则认为出现了一个新的分布,将这个新的CSLBP模型替换掉K个CSLBP模型中权值最低的模型,并赋予其一个较小的权值,利用修正参数αb对其进行修正如下:
ωk,t=(1-αbk,t-1bMk,t    (14)
其中当第K个模型被匹配时Mk,t=1;否则Mk,t=0,并且最匹配的第k(k=1,2,...,K)模型将被更新,如式(17)。
权重修正后需要对其进行归一化处理:
ω k , i = ω i , t / Σ i = 0 K ω i , t - - - ( 15 )
LBPk(t)=(1-ρb)CSLBPk(t-1)+ρbCSLBPk(t)    (16)
ρb是模型的更新率,ρb∈[0,1]
对高斯背景模型的更新:和CSLBP模型的权重更新方法一样,不过设高斯模型中的修正参数和模型更新率分别为αd,ρd。高斯模型的平均值和方差更新如下:
当新的像素值It(x,y)与已有的模型都不匹配时,则认为其服从一个新的分布,只需用这个新的模型替代已有模型中权值最低的模型,并赋予其一个较大的方差,均值μi,t(x,y)等于It(x,y)。当新的像素值It与第i个模型匹配时,则修正其均值和方差如下:
μi,t(x,y)=(1-ρdi,t-1(x,y)+ρdIt(x,y)    (17)
σi,t(x,y)=max(σmin,(1-ρdi,t-1(x,y)+ρd|It(x,y)-μi,t(x,y)|)    (18)
其中σmin为本系统对标准差设置的一个下限,防止其收敛于零。
因为各个模型权值的大小代表了这个模型可能为背景的概率大小,所以背景学习到一定程度,将K个混合直方图模型和混个高斯模型按照权值高低次序排列,前B个分布作为背景模型,则这前B个模型的权值须满足一下条件:
B = arg min ( Σ k = 1 b b ω k > Tb ) - - - ( 19 )
其中Tb是一个LBP模型中的阈值。可见当Tb比较小的时候,背景将由权值比较大的模型决定;当Tb比大的,允许更多的模型一起决定背景。在混合高斯模型中设置阈值为Tb。
在所构建的背景模型基础上,通过背景减除,即可获得初步的前景图。然后再通过HSV空间去除前景图的阴影,再进行中值滤波,形态学运算等一系列图像处理的操作,得到轮廓更为完整的人群前景图。紧接着统计各区域透视校正后的前景面积如下式所示:
S r = Σ i = 1 H γ ~ j = 1 Σ j = 1 W φ ( i , j ) , r = 1,2,3,4 - - - ( 20 )
其中H,W分别表示图像的高度和宽度,表示图像透视校正的归一化投影系数,φ(i,j)表示前景判断函数,当坐标点(i,j)为前景点,且属于第r个区域时,其值为1,否则为0。
再统计前景团块像素数占各局部区域透视校正后图像面积的比例,得到前景像素密度xr
x r = ( Σ i = 1 H Σ j = 1 W φ ( i , j ) ) / S r , r = 1,2,3,4 - - - ( 21 )
经典的Sobel算子就是利用差分方法求取某像素点的梯度,对于像素灰度变化比较明显的地方,使用该算子得到的梯度就比较大,从而检测出图像的边沿,运算模板如附图4所示。具体来说,二维图像的灰度值函数f(x,y),其梯度▽f可表示为:
▿ f ( ∂ f ∂ x ) 2 + ( ∂ f ∂ y ) 2 = | f ( x , y ) - f ( x , y + 1 ) | + | f ( x , y ) - f ( x + 1 , y ) | - - - ( 22 )
经典的Sobel算法由于计算量小、速度快,广泛应用于诸多领域。但是经典Sobel算子也存在不足,其边缘具有很强的方向性,只对垂直与水平方向敏感,其他方向不敏感,这就使得有些边缘检测不到。对后续的图像处理有很大的影响。
本发明在此基础上进行了改进。改进后的算法改善了传统Sobel检测算子的性能,具有良好的检测精度。
本发明采用各向同性Sobel算子,其与经典Sobel算子相比,位置加权系数更为准确,在检测不同方向的边缘时梯度的幅度一致,其也包括水平方向和垂直方向检测的模板,如附图5(a)、(b)所示。在此基础上,本发明又提出了2个3×3的模板,分别为检测45°梯度方向的模板和135°梯度方向的模板,如附图5(c)、(d)。这样可以得到4个方向的梯度,不容易丢失边缘。边缘的计算如下:
S ( x , y ) = M 2 + N 2 + P 2 + Q 2 - - - ( 23 )
M = f ( x + 1 , y - 1 ) + 2 f ( x + 1 , y ) + f ( x + 1 , y + 1 ) - f ( x - 1 , y - 1 ) - 2 f ( x - 1 , y ) - f ( x - 1 , y + 1 ) - - - ( 24 )
N = f ( x - 1 , y + 1 ) + 2 f ( x , y + 1 ) + f ( x + 1 , y + 1 ) - f ( x - 1 , y - 1 ) - 2 f ( x , y - 1 ) - f ( x + 1 , y - 1 ) - - - ( 25 ) P = f ( x , y + 1 ) + 2 f ( x + 1 , y + 1 ) + f ( x + 1 , y ) - f ( x - 1 , y ) - 2 f ( x - 1 , y - 1 ) - f ( x , y - 1 ) - - - ( 26 )
Q = f ( x - 1 , y ) + 2 f ( x - 1 , y + 1 ) + f ( x , y + 1 ) - f ( x , y - 1 ) - 2 f ( x + 1 , y - 1 ) - f ( x + 1 , y ) - - - ( 27 )
在提取出完整的前景图像之后,接着用改进的sobel边缘检测算子检测出前景人群的边缘,紧接着统计各区域的前景边缘像素数占各局部区域透视校正后图像面积的比例,得到前景边缘密度zr
其中H,W分别表示图像的高度和宽度,Sr表示图像透视校正后的前景面积,表示边缘判断函数,当坐标点(i,j)为边缘点,且属于第r个区域时,其值为1,否则为0。
对一帧图像进行灰度变换后,然后利用中心对称局部二元模式(CSLBP)对图像的灰度尺度的单调变换,提取出灰度图像中局部相邻区域的纹理信息。再根据灰度共生矩阵进行图像纹理模式分析。
灰度共生矩阵是提取纹理特征的常用方法,描述了在θ方向上,相隔一定的像素距离d,灰度级分别为i和j的像素对出现的频率P(i,j),即为矩阵的元素。其中i,j=0,1,2,...,N-1,N为图像的灰度级数。对于纹理变化缓慢的图像,其灰度共生矩阵对角线上的数值较大;而纹理变化较快的图像,其灰度共生矩阵对角线上的数值较小,对角线两侧的数值较大。
因为一对(d,θ)对应一个矩阵,因此需要将(d,θ)控制在一定范围内。通常,θ只取4个值,θ=00;θ=450;θ=900;θ=1350值和一个d值。经过反复试验,对人群图像选用以下几种特征量:
(1)能量(Energy):反映了图像纹理粗细程度和灰度分布均匀程度:
ASM = Σ i = 0 N - 1 Σ j = 0 N - 1 { P ( i , j | d , θ ) } 2 - - - ( 29 )
(2)熵(Entropy):表示图像中纹理的非均匀程度:
Ent = - Σ i = 0 N - 1 Σ j = 0 N - 1 P ( i , j | d , θ ) log P ( i , j | d , θ ) - - - ( 30 )
(3)对比度(Contrast):反映了图像的清晰程度:
Con = Σ i = 0 N - 1 Σ j = 0 N - 1 ( i - j ) 2 P ( i , j | d , θ ) - - - ( 31 )
(4)逆差距(Homogeneity):表示图像文理局部变化的大小:
Hom = Σ i = 0 N - 1 Σ j = 0 N - 1 P ( i , j | d , θ ) 1 + | i - j | 2 - - - ( 32 )
在实际应用中,一幅灰度图像的灰度级一般为256级,而灰度共生矩阵的计算量是由图像的大小和灰度等级来确定的,所以在计算灰度共生矩阵时,可以先将原图像的灰度级压缩到不影响纹理特征的16个灰度级,减少共生矩阵的尺寸,简化计算。
主成分分析(PCA)方法可以有效找出数据中最“主要”的元素和结构,去除噪音和冗余,将原有的复杂数据降维,揭示隐藏在复杂数据背后的简单结构。本发明将8个前景分割特征向量(包含4个前景像素密度特征向量和4个前景边缘特征向量)和16个纹理特征向量串联起来,然后采用PCA技术对该特征集进行降维处理,找出特征数据中最“主要”的元素和结构,去除噪音和冗余,供回归模型使用。
本发明采用BP(Back Propagation Network)神经网络,它是一种误差反向传播的多层前馈型神经网络,具有1个隐层(采用Sigmoid转换函数)的BP网络可实现对任意函数的任意逼近。一般认为,增加隐层数易使网络复杂化,增加网络的训练时间,更易陷于局部最小,而改变隐层节点数则有助于减小误差,其训练效果要比增加隐层数更容易实现。因此,根据地铁站候车站台人数的实际情况,建立由一个输入层、一个隐含层、一个输出层构成的三层BP网络模型。多层隐层节点的BP反馈算法,使优化问题的可调参数增加,从而解决复杂非线性问题。
(1)初始化权值和阈值,即把所有权值和阈值都设置成最小的随机数;
(2)提供训练样本集,包括输入向量和输出向量;
对测试集的图像中分别计算出各图像块的前景像素密度,以及前景边缘密度和灰度图像的纹理特征,提取出24个特征向量,并用主成分分析方法进行降维处理,将所得到的特征向量归一化处理后,作为神经网络模型的输入向量,以及对应的每帧图像的实际人数值作为输出向量。
(3)计算隐含层和输出层的输出:
隐含层的输出为: h j = f ( β j ) = f ( Σ i = 0 N V ij x i - φ ) - - - ( 33 )
输出层的输出为: y k = f ( α k ) = f ( Σ i = 0 L W jk h i - θ k ) - - - ( 34 ) 其中,输入单元i到隐单元j的权重是Vij,而隐单元j到输出单元k的权重是Wjk;激活函数f(βj)采用logsig函数,f(αk)采用purelin函数;
(4)计算误差平方和:
E = 1 N Σ p = 1 N E p 2 = 1 2 N Σ p = 1 N Σ k = 1 m ( y k - h j ) 2 - - - ( 35 )
如果误差平方和满足精度,则训练结束,以当前的有关参数作为网络参数,否则根据误差调整权值和阈值,如步骤(5);
(5)调整网络各层的权值和阈值:
Δw ( t + 1 ) = - η ∂ E p ∂ w = αΔw ( t ) - - - ( 36 )
式中w代表某个权值或阈值,t为迭代次数,η为学习速率,本发明设定为0.01,α称为惯量因子或动量因子;
(6)权值和阈值调整后,转为步骤(3)继续进行,直至误差满足给定的精度要求,且本发明的误差精度定为0.0001。
对测试集的图像中分别计算出各图像块的前景像素密度,以及前景边缘密度和灰度图像的纹理特征,得到特征向量fi。将每个fi作为输入,代入BP神经网络模型中,得到各图像块对应的人数估计结果Ni。一帧中的人数结果N即为各图像块的人数之和:
N = Σ i = 1 4 N i - - - ( 37 )
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。

Claims (4)

1.一种基于多特征融合的密集人数估计方法,其特征在于,所述方法包括以下步骤:
步骤1:输入视频图像,将图像分成N个相等的子图像块,赋予不同的权重,并利用图像中行人目标的身高大小与其所在位置作为基准,计算图像透视校正后的归一化投影系数;
步骤2:用基于中心对称局部二值模式CSLBP直方图纹理描述和混合高斯背景建模的方法和所述归一化投影系数,对输入图像进行分层次背景建模,提取各图像块经透视校正后的前景面积,并计算出各图像块的前景像素密度,再结合改进的Sobel边缘检测算子检测计算出各图像块的前景边缘密度;此外还结合中心对称局部二元模式和灰度共生矩阵提取描述图像纹理特征的四个不同方向的重要纹理特征向量;
步骤3:通过主成分分析对所述步骤2提取到的前景分割特征向量和纹理特征向量进行降维处理,所述前景分割特征包括前景像素密度和前景边缘密度;
步骤4:将降维后的特征向量输入到神经网络模型的输入层,由其输出层得到各图像块的估计人数值;
步骤5:将N个子图像块的人数相加得出整个图像的人数。
2.根据权利要求1所述的密集人数估计方法,其特征在于:所述步骤2中用基于中心对称局部二值模式CSLBP直方图纹理描述和混合高斯背景建模的方法和所述归一化投影系数,对输入图像进行分层次背景建模,提取各图像块的前景面积具体为:利用K个加权的CSLBP直方图度量视频当前帧与背景帧的相似度,提取出粗劣的前景区域;在已确定的粗劣前景区域上,将当前前景区域中的每一个像素值与所建立的混合高斯模型进行匹配,确定出精确的前景目标区域,并利用投影系数修正前景面积。
3.根据权利要求1所述的密集人数估计方法,其特征在于:所述步骤2中结合中心对称局部二元模式和灰度共生矩阵提取描述图像纹理特征的四个不同方向的重要纹理特征向量具体为:考虑图像空间域上灰度变化的问题,对灰度图像先进行CSLBP变换,确保图像空间局部邻域内的灰度性和计算效率不变;再压缩图像的灰度等级,利用灰度共生矩阵提取出完整有效的纹理特征向量。
4.一种的基于多特征融合的密集人数估计系统,其特征在于:所述系统包括计算机和摄像头,所述摄像头采集视频图像传送到所述计算机进行处理,所述计算机执行如权利要求1-4任一项所述的密集人数估计方法。
CN201410756921.0A 2014-12-10 2014-12-10 一种基于多特征融合的密集人数估计方法和系统 Active CN104504394B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410756921.0A CN104504394B (zh) 2014-12-10 2014-12-10 一种基于多特征融合的密集人数估计方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410756921.0A CN104504394B (zh) 2014-12-10 2014-12-10 一种基于多特征融合的密集人数估计方法和系统

Publications (2)

Publication Number Publication Date
CN104504394A true CN104504394A (zh) 2015-04-08
CN104504394B CN104504394B (zh) 2018-09-25

Family

ID=52945790

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410756921.0A Active CN104504394B (zh) 2014-12-10 2014-12-10 一种基于多特征融合的密集人数估计方法和系统

Country Status (1)

Country Link
CN (1) CN104504394B (zh)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104778459A (zh) * 2015-04-17 2015-07-15 广西科技大学 一种足球比赛视频中的多运动员的行为的特征融合方法
CN105512964A (zh) * 2016-01-05 2016-04-20 镇江市高等专科学校 一种基于气象监控的智能景观控制方法
CN105511359A (zh) * 2016-01-05 2016-04-20 镇江市高等专科学校 一种智能景观控制方法
CN105573211A (zh) * 2016-01-05 2016-05-11 镇江市高等专科学校 一种具有多观赏模式的智能景观控制方法
CN105844572A (zh) * 2016-03-25 2016-08-10 腾讯科技(深圳)有限公司 拥挤风险监控方法及拥挤风险监控装置
CN106845621A (zh) * 2017-01-18 2017-06-13 山东大学 基于深度卷积神经网络的密集人群人数计数方法及系统
CN107566781A (zh) * 2016-06-30 2018-01-09 北京旷视科技有限公司 视频监控方法和视频监控设备
CN107679502A (zh) * 2017-10-12 2018-02-09 南京行者易智能交通科技有限公司 一种基于深度学习图像语义分割的人数估计方法
CN107832664A (zh) * 2017-10-09 2018-03-23 中国电子科技集团公司第二十八研究所 一种交通场景的感兴趣区域分析方法
CN108460325A (zh) * 2018-01-10 2018-08-28 西安理工大学 一种基于elm的双路融合的人群人数统计方法
CN108537089A (zh) * 2017-03-01 2018-09-14 开利公司 人流量估测系统及人流量估测方法
CN108681994A (zh) * 2018-05-11 2018-10-19 京东方科技集团股份有限公司 一种图像处理方法、装置、电子设备及可读存储介质
CN108875709A (zh) * 2018-07-18 2018-11-23 洛阳语音云创新研究院 一种扎堆行为检测方法、装置、电子设备及存储介质
CN108960404A (zh) * 2017-05-22 2018-12-07 浙江宇视科技有限公司 一种基于图像的人群计数方法及设备
CN109086696A (zh) * 2018-07-18 2018-12-25 洛阳语音云创新研究院 一种异常行为检测方法、装置、电子设备及存储介质
CN109271904A (zh) * 2018-09-03 2019-01-25 东南大学 一种基于像素自适应分割和贝叶斯模型的黑烟车检测方法
CN109345016A (zh) * 2018-09-30 2019-02-15 成都信息工程大学 基于连翘花期预测的智慧农业服务系统及方法
CN109753842A (zh) * 2017-11-01 2019-05-14 深圳先进技术研究院 一种人流量计数的方法及装置
CN109919068A (zh) * 2019-02-27 2019-06-21 中国民用航空总局第二研究所 基于视频分析适应密集场景人流实时监测方法
CN110969173A (zh) * 2018-09-28 2020-04-07 杭州海康威视数字技术股份有限公司 目标分类方法及装置
CN111402215A (zh) * 2020-03-07 2020-07-10 西南交通大学 一种基于鲁棒主成分分析法的接触网绝缘子状态检测方法
CN112418182A (zh) * 2020-12-15 2021-02-26 北京信息科技大学 红外影厅图像人数统计方法
CN112580616A (zh) * 2021-02-26 2021-03-30 腾讯科技(深圳)有限公司 人群数量确定方法、装置、设备及存储介质
CN115223102A (zh) * 2022-09-08 2022-10-21 枫树谷(成都)科技有限责任公司 一种基于摄像头集群的实时人群密度融合感知方法及模型
CN116012768A (zh) * 2022-08-03 2023-04-25 通号智慧城市研究设计院有限公司 人群密度检测方法、装置、电子设备及计算机存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102682304A (zh) * 2012-03-26 2012-09-19 北京博康智能信息技术有限公司 一种融合多特征的行人检测方法及装置
CN102842045A (zh) * 2012-08-03 2012-12-26 华侨大学 一种基于组合特征的行人检测方法
CN103049751A (zh) * 2013-01-24 2013-04-17 苏州大学 一种改进的加权区域匹配高空视频行人识别方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102682304A (zh) * 2012-03-26 2012-09-19 北京博康智能信息技术有限公司 一种融合多特征的行人检测方法及装置
CN102842045A (zh) * 2012-08-03 2012-12-26 华侨大学 一种基于组合特征的行人检测方法
CN103049751A (zh) * 2013-01-24 2013-04-17 苏州大学 一种改进的加权区域匹配高空视频行人识别方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JINGJIANG LI ECT,: ""The Combination of CSLBP and LBP Feature for Pedestrian Detection"", 《2013 3RD INTERNATIONAL CONFERENCE ON COMPUTER SCIENCE AND NETWORK TECHNOLOGY》 *
彭博,: ""拥挤场景下人数统计的关键技术研究"", 《万方数据知识服务平台》 *
杨淑莹: "《VC++图像处理程序设计(第2版)》", 31 January 2005 *

Cited By (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104778459A (zh) * 2015-04-17 2015-07-15 广西科技大学 一种足球比赛视频中的多运动员的行为的特征融合方法
CN105512964A (zh) * 2016-01-05 2016-04-20 镇江市高等专科学校 一种基于气象监控的智能景观控制方法
CN105511359A (zh) * 2016-01-05 2016-04-20 镇江市高等专科学校 一种智能景观控制方法
CN105573211A (zh) * 2016-01-05 2016-05-11 镇江市高等专科学校 一种具有多观赏模式的智能景观控制方法
CN105844572A (zh) * 2016-03-25 2016-08-10 腾讯科技(深圳)有限公司 拥挤风险监控方法及拥挤风险监控装置
CN105844572B (zh) * 2016-03-25 2022-04-15 腾讯科技(深圳)有限公司 拥挤风险监控方法及拥挤风险监控装置
CN107566781A (zh) * 2016-06-30 2018-01-09 北京旷视科技有限公司 视频监控方法和视频监控设备
CN107566781B (zh) * 2016-06-30 2019-06-21 北京旷视科技有限公司 视频监控方法和视频监控设备
CN106845621A (zh) * 2017-01-18 2017-06-13 山东大学 基于深度卷积神经网络的密集人群人数计数方法及系统
CN106845621B (zh) * 2017-01-18 2019-04-30 山东大学 基于深度卷积神经网络的密集人群人数计数方法及系统
CN108537089A (zh) * 2017-03-01 2018-09-14 开利公司 人流量估测系统及人流量估测方法
CN108537089B (zh) * 2017-03-01 2024-03-15 开利公司 人流量估测系统及人流量估测方法
CN108960404A (zh) * 2017-05-22 2018-12-07 浙江宇视科技有限公司 一种基于图像的人群计数方法及设备
CN107832664B (zh) * 2017-10-09 2020-10-09 中国电子科技集团公司第二十八研究所 一种交通场景的感兴趣区域分析方法
CN107832664A (zh) * 2017-10-09 2018-03-23 中国电子科技集团公司第二十八研究所 一种交通场景的感兴趣区域分析方法
CN107679502B (zh) * 2017-10-12 2019-10-08 南京行者易智能交通科技有限公司 一种基于深度学习图像语义分割的人数估计方法
CN107679502A (zh) * 2017-10-12 2018-02-09 南京行者易智能交通科技有限公司 一种基于深度学习图像语义分割的人数估计方法
CN109753842B (zh) * 2017-11-01 2021-07-16 深圳先进技术研究院 一种人流量计数的方法及装置
CN109753842A (zh) * 2017-11-01 2019-05-14 深圳先进技术研究院 一种人流量计数的方法及装置
CN108460325A (zh) * 2018-01-10 2018-08-28 西安理工大学 一种基于elm的双路融合的人群人数统计方法
CN108681994A (zh) * 2018-05-11 2018-10-19 京东方科技集团股份有限公司 一种图像处理方法、装置、电子设备及可读存储介质
CN109086696B (zh) * 2018-07-18 2020-11-06 洛阳语音云创新研究院 一种异常行为检测方法、装置、电子设备及存储介质
CN108875709A (zh) * 2018-07-18 2018-11-23 洛阳语音云创新研究院 一种扎堆行为检测方法、装置、电子设备及存储介质
CN108875709B (zh) * 2018-07-18 2021-05-25 洛阳语音云创新研究院 一种扎堆行为检测方法、装置、电子设备及存储介质
CN109086696A (zh) * 2018-07-18 2018-12-25 洛阳语音云创新研究院 一种异常行为检测方法、装置、电子设备及存储介质
CN109271904A (zh) * 2018-09-03 2019-01-25 东南大学 一种基于像素自适应分割和贝叶斯模型的黑烟车检测方法
CN109271904B (zh) * 2018-09-03 2022-02-15 东南大学 一种基于像素自适应分割和贝叶斯模型的黑烟车检测方法
CN110969173A (zh) * 2018-09-28 2020-04-07 杭州海康威视数字技术股份有限公司 目标分类方法及装置
CN110969173B (zh) * 2018-09-28 2023-10-24 杭州海康威视数字技术股份有限公司 目标分类方法及装置
CN109345016A (zh) * 2018-09-30 2019-02-15 成都信息工程大学 基于连翘花期预测的智慧农业服务系统及方法
CN109919068A (zh) * 2019-02-27 2019-06-21 中国民用航空总局第二研究所 基于视频分析适应密集场景人流实时监测方法
CN109919068B (zh) * 2019-02-27 2021-03-23 中国民用航空总局第二研究所 基于视频分析适应密集场景人流实时监测方法
CN111402215B (zh) * 2020-03-07 2022-04-29 西南交通大学 一种基于鲁棒主成分分析法的接触网绝缘子状态检测方法
CN111402215A (zh) * 2020-03-07 2020-07-10 西南交通大学 一种基于鲁棒主成分分析法的接触网绝缘子状态检测方法
CN112418182A (zh) * 2020-12-15 2021-02-26 北京信息科技大学 红外影厅图像人数统计方法
CN112580616B (zh) * 2021-02-26 2021-06-18 腾讯科技(深圳)有限公司 人群数量确定方法、装置、设备及存储介质
CN112580616A (zh) * 2021-02-26 2021-03-30 腾讯科技(深圳)有限公司 人群数量确定方法、装置、设备及存储介质
CN116012768A (zh) * 2022-08-03 2023-04-25 通号智慧城市研究设计院有限公司 人群密度检测方法、装置、电子设备及计算机存储介质
CN116012768B (zh) * 2022-08-03 2024-03-01 通号智慧城市研究设计院有限公司 人群密度检测方法、装置、电子设备及计算机存储介质
CN115223102A (zh) * 2022-09-08 2022-10-21 枫树谷(成都)科技有限责任公司 一种基于摄像头集群的实时人群密度融合感知方法及模型
CN115223102B (zh) * 2022-09-08 2022-12-16 枫树谷(成都)科技有限责任公司 一种基于摄像头集群的实时人群密度融合感知方法及模型

Also Published As

Publication number Publication date
CN104504394B (zh) 2018-09-25

Similar Documents

Publication Publication Date Title
CN104504394A (zh) 一种基于多特征融合的密集人数估计方法和系统
CN108805093B (zh) 基于深度学习的手扶电梯乘客摔倒检测方法
CN106980829B (zh) 基于视频分析的打架斗殴异常行为自动检测方法
CN108416307B (zh) 一种航拍图像路面裂缝检测方法、装置及设备
CN103839065B (zh) 人群动态聚集特征提取方法
CN105869178B (zh) 一种基于多尺度组合特征凸优化的复杂目标动态场景无监督分割方法
CN102354397B (zh) 基于面部特征器官相似性的人脸图像超分辨率重建方法
CN104166861B (zh) 一种行人检测方法
CN104992223A (zh) 基于深度学习的密集人数估计方法
CN109598211A (zh) 一种实时动态人脸识别方法及系统
Benyang et al. Safety helmet detection method based on YOLO v4
CN103942535B (zh) 多目标跟踪方法及装置
CN102147861A (zh) 一种基于颜色-纹理双重特征向量进行贝叶斯判决的运动目标检测方法
CN104732236B (zh) 一种基于分层处理的人群异常行为智能检测方法
CN103488993A (zh) 一种基于fast的人群异常行为识别方法
CN107483894A (zh) 基于场景判断实现客运管理的高铁车站视频监控系统
CN107590427A (zh) 基于时空兴趣点降噪的监控视频异常事件检测方法
CN105279769A (zh) 一种联合多特征的层次粒子滤波跟踪方法
CN109359549A (zh) 一种基于混合高斯和hog_lbp的行人检测方法
CN103400120A (zh) 基于视频分析的银行自助服务区域推入行为检测方法
CN109598200A (zh) 一种铁水罐罐号的图像智能识别系统及方法
CN103824300A (zh) 基于空间相关特征超像素块的sar图像分割方法
CN101877134A (zh) 一种机场监视视频目标鲁棒跟踪方法
CN108009512A (zh) 一种基于卷积神经网络特征学习的人物再识别方法
CN109919068B (zh) 基于视频分析适应密集场景人流实时监测方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant