CN109919068A - 基于视频分析适应密集场景人流实时监测方法 - Google Patents

基于视频分析适应密集场景人流实时监测方法 Download PDF

Info

Publication number
CN109919068A
CN109919068A CN201910146585.0A CN201910146585A CN109919068A CN 109919068 A CN109919068 A CN 109919068A CN 201910146585 A CN201910146585 A CN 201910146585A CN 109919068 A CN109919068 A CN 109919068A
Authority
CN
China
Prior art keywords
prospect
image
background
original image
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910146585.0A
Other languages
English (en)
Other versions
CN109919068B (zh
Inventor
党婉丽
罗谦
耿龙
邓睿
王东华
周杨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Second Research Institute of CAAC
Original Assignee
Second Research Institute of CAAC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Second Research Institute of CAAC filed Critical Second Research Institute of CAAC
Priority to CN201910146585.0A priority Critical patent/CN109919068B/zh
Publication of CN109919068A publication Critical patent/CN109919068A/zh
Application granted granted Critical
Publication of CN109919068B publication Critical patent/CN109919068B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

本发明提供的基于视频分析适应密集场景人流实时监测方法,获取待监测区域的背景图像,利用混合高斯模型对所述背景图像进行背景学习;获取待监测区域的前景原始图像,对所述背景图像和前景原始图像进行线性变化,确定变化系数;利用所述变化系数确定阈值提取前景原始图像中去除背景的前景图像;利用影视透视模型计算所述前景图像中,前景个体所占像素点的大小;结合遮挡因子,确定待监测区域的人流量。该方法基于机场现有的视频监控环境,在提升旅客出行体验的前提以及服务资源分配合理性的目标下,进一步提高旅客服务质量。

Description

基于视频分析适应密集场景人流实时监测方法
技术领域
本发明属于信息处理技术领域,具体涉及基于视频分析适应密集场景人流实时监测方法。
背景技术
目前机场实现人流监测,主要有以下几种:
(1)利用感知设备,例如蓝牙、wifi等感知设备实现航站楼整体人流分布以及安检区域旅客的排队情况。该方法的感知设备由于覆盖面不全面而导致数据的采集粒度较粗,并不能精细的获取人群的分布情况以及人群的排队情况。
(2)利用对人体头部特征的提取、学习、匹配,实现了对进出口、通道人数的计数。该方法采取了人体特征的识别,人体的头部特征,实现对进出口、通道人数的计数。该方案对摄像头的安装环境、条件有严格的要求,需要在一定高度范围内(通常3-5米)进行垂直安装或者45度角进行安装。对于机场的建筑特点,其只适合安装在进出口。如此以来,对于机场整体的人流分布状态、关键区域的实时人流情况并不能采集到。
(3)利用人体特征的追踪算法实现对运动、划定特定区域内人群密度以及人群计数。该方案利用现有的追踪算法对运动的行人个体进行检测、追踪。其要求摄像头的安装在5米左右,针对运动的行人,划定行人经过区域。如图1所示,机场关键区域旅客所呈现的特征为高密度、近乎静止、遮挡严重的场景,此方案并不能解决机场实际场景。
发明内容
针对现有技术中的缺陷,本发明提供一种基于视频分析适应密集场景人流实时监测方法,基于机场现有的视频监控环境,在提升旅客出行体验的前提以及服务资源分配合理性的目标下,进一步提高旅客服务质量。
一种基于视频分析适应密集场景人流实时监测方法,包括以下步骤:
获取待监测区域的背景图像,利用混合高斯模型对所述背景图像进行背景学习;
获取待监测区域的前景原始图像,对所述背景图像和前景原始图像进行线性变化,确定变化系数;
利用所述变化系数确定阈值,提取前景原始图像中去除背景的前景图像;
利用影视透视模型计算所述前景图像中,前景个体所占像素点的大小;
结合遮挡因子,确定待监测区域的人流量。
优选地,所述获取待监测区域的背景图像,利用混合高斯模型对所述背景图像进行背景学习具体包括:
设t时刻的背景图像中每个像素点的像素值It(x,y)由K个高斯模型来描述;则当前像素点的观测值的概率P(It(x,y))为:
其中,x,y是像素点的横坐标和纵坐标;i∈[1,2,...,K];分别是t时刻像素点(x,y)的第i个高斯模型的权值、均值和方差,N表示由t时刻像素值,第i个高斯模型的均值、方差组成的向量。
优选地,该方法在计算当前像素点的观测值的概率P(It(x,y))之后,还包括:
如果在t时刻,像素点(x,y)的特征为It(x,y),则第i个高斯模型如下:
式中,γ为置信参数值,D(x,y)为更新高斯模型的阈值;
如果D(x,y)为1,此时更新高斯模型的权值,均值和方差三个参量;如果D(x,y)为0,此时更新高斯模型的权值;其中权值,均差,方差的更新机制为:
其中,α,ρ分别代表学习速率,其中ρ的计算由下述得到:
如果是未匹配的高斯模型,权值进行下式更新:
优选地,所述获取待监测区域的前景原始图像,对所述背景图像和前景原始图像进行线性变化,确定变化系数具体包括:
对所述背景图像和前景原始图像进行灰度化;
计算背景图像和前景原始图像的归一化直方图以及平均亮度;
确定线性灰度变换函数的系数,对灰度化后的背景图像和前景原始图像进行线性变化。
优选地,对所述背景图像B和前景原始图像O进行灰度化;
计算背景图像B和前景原始图像O的归一化直方图,得到灰度图像hB、hO
背景图像B和前景原始图像O的平均亮度mB,mO均按照下式计算:
其中L代表图像的灰度级,zi代表第i个灰度级,p(zi)代表归一化直方图灰度级为zi的概率值;
对hB、hO按照下述公式进行线性变化;
其中,a,b为背景图像、前景原始图像的线性变化的系数;hB′,hO′为线性变化后的背景图像和前景原始图像。
优选地,所述利用所述变化系数提取前景原始图像中去除背景的前景图像具体包括:
按照下式计算背景相减时的阈值σ:
其中M*N为前景原始图像的大小;
根据阈值σ的大小对所述前景原始图像进行背景相减,并进行3*3的腐蚀计算,去除较小的联通区域,从而得到所述前景图像。
优选地,所述利用影视透视模型计算所述前景图像中,前景个体所占像素点的大小具体包括:
对所述前景图像进行形态学运算;
计算所述前景图像的连通区域,并对联通区域进行过滤;
建立图像平面上2D坐标系,利用影视透视模型寻找不同位置前景个体所占像素点与2D坐标系的对应关系;
通过对应关系计算前景个体在对应连通区域所在位置实际占的面积。
优选地,所述利用影视透视模型计算所述前景图像中,前景个体所占像素点的大小具体包括:
将所述前景图像进行三等分,并求得其连通区域;
计算过滤阈值,对联通区域进行过滤;
建立图像平面上2D坐标系:其中,y为参考线,x1代表前景个体在y1方向上的水平大小,x2代表前景个体在y2方向上的水平大小,qy代表同一前景个体在不同位置的频率;则有:
x2=x1*qy,其中,
则其高度的比例为h2=h1*qy [12]
则最终有S1=S2*qy*qy [13]
其中,h1,h2分别代表同一前景个体在不同位置的在二维平面上的高度,S1,S2分别代表同一前景个体在不同位置所占像素点的大小。
优选地,所述结合遮挡因子,确定待监测区域的人流量具体包括:
对采集到的图像通过特征聚类进行三等分,对每一等分图像进行网格化;
通过灰度共生矩阵提取每个网格内图像的空间特征,设置多个等级及相应的遮挡因子;
计算每个网格图像的特征能量、熵、惯性矩、相关性、逆差距分别在0°、45°、90°、135°上的均值;
将每个网格的特征进行回归处理,利用K-means对每个网格产生的回归特征进行聚类;
计算连通区域面积,根据连通区域面积确定待监测区域的人流量。
由上述技术方案可知,本发明提供的基于视频分析适应密集场景人流实时监测方法,具有以下优点:
(1)基于机场现有的监视环境,不受摄像头安装位置环境的影响;可适应光照的剧烈变化(例如:白天光照环境以及晚上光照环境的不同);可适应机场关键区域近乎静止、密集、遮挡严重的场景(例如:值机区域、安检区域、候机区域)。
(2)加入遮挡因子,可进一步提高场景人数识别的精度。从而使其适应各种密度场景下的人数计算(高密度、较高密度、中等密度、低密度)。
(3)可实时监测机场各个关键区域的实时人数以及分布特征。根据实时变化的人流情况结合IATA公布的旅客排队等待时间标准以及各个机场员工的平均工作效率,给出相应的服务资源推荐机制,进一步辅助提高机场的运行效率以及旅客服务质量。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍。在所有附图中,类似的元件或部分一般由类似的附图标记标识。附图中,各元件或部分并不一定按照实际的比例绘制。
图1为背景技术中第三种方案中采集到的场景图像。
图2为本发明实施例一提供的方法原理图。
图3为本发明实施例二采集到的背景图像。
图4为本发明实施例二采集到的前景原始图像。
图5为本发明实施例二采集到的背景图像的原始直方图。
图6为本发明实施例二采集到的背景图像线性变化后的直方图。
图7为本发明实施例二采集到的前景原始图像的原始直方图。
图8为本发明实施例二采集到的前景原始图像线性变化后的直方图。
图9为本发明实施例二得到的前置图像。
图10为本发明实施例二对前置图像进行三等分的示意图。
图11为本发明实施例二对前置图像进行过滤的示意图。
图12为本发明实施例二基准图像的选取图。
图13为本发明实施例二建立的坐标系。
图14为本发明实施例二计算相应的纹理特征使用的图片示例1。
图15为本发明实施例二计算相应的纹理特征使用的图片示例2。
图16为本发明实施例二计算相应的纹理特征使用的图片示例3。
图17为本发明实施例二利用聚类的算法进行人群划分的示意图。
图18为本发明实施例二计算得到的人流量。
具体实施方式
下面将结合附图对本发明技术方案的实施例进行详细的描述。以下实施例仅用于更加清楚地说明本发明的技术方案,因此只作为示例,而不能以此来限制本发明的保护范围。需要注意的是,除非另有说明,本申请使用的技术术语或者科学术语应当为本发明所属领域技术人员所理解的通常意义。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在此本发明说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本发明。如在本发明说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
如在本说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
实施例一:
一种基于视频分析适应密集场景人流实时监测方法,参见图2,包括以下步骤:
S1:消除光照影响的前景提取,包括:
S11:根据H264标准协议对接机场安防平台,每隔1秒进行1帧背景图像的提取。
S12:利用隔帧提取的混合高斯模型对背景图像进行背景学习,例如每隔10秒进行学习提取,共对100帧的图像进行学习。
S13:输入背景图像(设为B),前景原始图像(设为O),对背景图像B和前景原始图像O进行灰度化(分别设为HB、HO);计算背景图像B和前景原始图像O的归一化直方图以及计算平均亮度(分别设为mB,mO)。
S14:确定线性灰度变换函数(设为f(x))的系数,对HB、HO进行线性变化(变化后的图像设为H′B,HO′),相对抑制不感兴趣的灰度区域。
S15:确定HB的变化系数(设为a),HO的变化系数(设为b),寻找a,b之间的对应关系,自动确认其灰度变换函数,提取前景原始图像中去除背景的前景图像。
S2:利用影视透视模型,实现对前景像素点、位置的计算,具体包括:
S21:对所述前景图像进行形态学运算,窗口大小设置为3*3;
S22:计算前景图像的连通区域,寻找合适的阈值去除较小的联通区域,对联通区域进行过滤;
S23:计算前景个体在不同位置中实际所占的像素点;
S24:建立图像平面上2D坐标系,利用影视透视模型寻找不同位置前景个体(即行人)所占像素点与图像平面上2D坐标系的对应关系(记为F(.));
S25:通过对应关系计算前景个体在对应连通区域所在位置实际占的面积。
S3:加入遮挡因子的人流实时监测,具体包括:
S31:对采集到的图像通过特征聚类进行三等分,每一等分图像进行网格化;
S32:通过灰度共生矩阵提取每个网格内图像的空间特征,将人群等级分为四个等级:高密度、较高密度、中等密度和低密度;根据相应的密度等级设置相应的遮挡因子;
S33:计算每个网格图像的特征能量、熵、惯性矩、相关性、逆差距在分别在0°、45°、90°、135°上的均值。本方案灰度共生矩阵将灰度级分为16个等级,像素点之间的距离为4。
S34:将每个网格的特征进行回归处理,利用K-means对每个网格产生的回归特征进行聚类,主要聚类为三个中心类,根据其中心位置的对应关系,计算相应的遮挡因子(记为D)。
S35:进行行人检测,计算其连通区域面积S,并计算其中心对应的Y轴坐标y1,其作为基准图像;
S36:通过F(.)*D计算前景个体在对应连通区域所在yth行实际所占面积。
该方法不受摄像头安装位置环境的影响;可适应光照的剧烈变化(例如:白天光照环境以及晚上光照环境的不同)。加入遮挡因子,可进一步提高场景人数识别的精度。从而使其适应各种密度场景下的人数计算(高密度、较高密度、中等密度、低密度)。
实施例二:
实施例二在实施例一的基础上,结合采集的机场的图像,对本发明进行详细的应用说明。
(1)提取前景图像。
利用混合高斯模型提取背景图像B,且每隔10帧图像进行一次提取并学习;
设t时刻的背景图像中每个像素点的像素值It(x,y)由K(K的取值为5)个高斯模型来描述;则当前像素点的观测值的概率P(It(x,y))为:
其中,x,y是像素点的横坐标和纵坐标;i∈[1,2,...,K];分别是t时刻像素点(x,y)的第i个高斯模型的权值、均值和方差,N表示由t时刻像素值,第i个高斯模型的均值、方差组成的向量。
当每个像素点的混合高斯背景模型建立后,就可以通过此模型来判断当前帧各像素是否属于背景区域。相应的规则有如下两条:
①如果在t时刻,像素点(x,y)的特征为It(x,y),则第i个高斯模型如下:
式中,γ为置信参数值,且γ=2.5,D(x,y)为更新高斯模型的阈值。
如果D(x,y)为1,则表示该像素点的特征属于背景区域,此时更新高斯模型的权值,均值和方差三个参量;如果D(x,y)为0,则判定该像素点属于前景区域,此时更新高斯模型的权值,均值和方差均不做调整。其中权值,均差,方差的更新机制为:
其中,α,ρ分别代表学习速率,其中ρ的计算由下述得到:
②如果是未匹配的高斯模型,权值进行下式更新:
通过学习,提取固定时间段的背景图像B,并在检测到机场光照突变时,更新背景图像(由于针对场景为航站楼内,故灯光的突变是有机场灯的开关引起的,而机场灯的开关时间是固定不变的),适用于对不同的环境进行监视。
如图3为获取的背景图像,图4为获取的前景原始图像。背景图像B和前景原始图像O的平均亮度mB,mO均按照下式计算:
其中L代表图像的灰度级,zi代表第i个灰度级,p(zi)代表归一化直方图灰度级为zi的概率值;
输出背景图像以及前景原始图像的原始直方图以及线性变化后的直方图如图5-8所示,图5为背景图像的原始直方图,图6为背景图像线性变化后的直方图,图7为前景原始图像的原始直方图,图8为前景原始图像线性变化后的直方图。
对背景图像B和前景原始图像O进行归一化,得到灰度图像hB、hO
对hB、hO按照下述公式进行线性变化;
其中,a,b为背景图像、前景原始图像的线性变化的系数;a的值一般定义为2.5。hB′,hO′为线性变化后的背景图像和前景原始图像。
按照下式计算背景相减时的阈值σ:
其中M*N为前景原始图像的大小;
根据阈值σ的大小对所述前景原始图像进行背景相减,并进行3*3的腐蚀计算,去除较小的联通区域,从而得到所述前景图像,如图9所示。
(2)利用影视透视模型计算所述前景图像中,前景个体所占像素点的大小。
将去除背景后的前景图像进行三等分,并求得其连通区域,如图10所示。在本示例中,根据本场景的实际情况,将图像坐标依据y=400,y=200,y=100进行三等分的划分。
以联通区域的最大,最小,中间值和的1/10为基准,去掉较小的联通区域,结果如图11所示。
由于机场安检区的开放时间为固定时间段,且依据航班计划大体可判断其高峰时期,故通过视频分析可检测第一个人进入安检区的场景,将检测出的行人联通区域的面积,外围矩形的中心点作为计算基准的相应指标,如图12所示。经计算,中心点的坐标为(379.7,282.57),联通区域的面积为:2796。
寻找二维空间中前景像素点与Y轴的对应关系。
如图13所示,建立相应的坐标系。其中,y为参考线,x1代表前景个体在y1方向上的水平大小,x2代表前景个体在y2方向上的水平大小,qy代表同一前景个体在不同位置的频率;则有:
x2=x1*qy,其中,
则其高度的比例为h2=h1*qy [12]
则最终有S1=S2*qy*qy [13]
其中,h1,h2分别代表同一前景个体在不同位置的在二维平面上的高度,S1,S2分别代表同一前景个体在不同位置所占像素点的大小。
在实际建立坐标系的同时,可以将y设为0,在机场的实际运行环境中,摄像头大多为180。,因此对于坐标系y轴此参照可以为图像的边缘,由于人站立的方向不一样,所以实现时,未考虑人的宽度,认为宽度影响不大。
(3)结合遮挡因子,确定待监测区域的人流量。
遮挡因子主要反映人群的遮挡程度,本示例中将人群等级分为了四个等级:高密度、较高密度、中等密度、低密度。根据算法1中的算法测试,高密度的遮挡因子设为0.7,较高密度的遮挡因子设为0.5,中等密度的遮挡因子设为0.75,低密度的遮挡因子设为1。
在本示例说明中,主要由灰度共生矩阵的特征来映射其遮挡因子,在本方法中,选择的特征向量为5维,分别为能量、熵、惯性矩、相关性、逆差距在0°,45°,90°,135°上的均值。如下表列出了图14-16中特征向量在0°上的均值:
本方法中的灰度共生矩阵将灰度级分为16个等级,像素点之间的距离为4,将图像进行三等分,每一等分进行网格化,计算网格图像的各个特征,并进行回归。如图14-16所示:
利用聚类的算法进行各种人群的划分,判断其遮挡因子。根据本示例的划分,遮挡因子可做如下的划分,如图17所示,共计分成了三项,其中第一个聚类代表的为遮挡因子为1的网格,第二个聚类代表的为遮挡因子为0.5的网格,第三个聚类代表的是遮挡因子为0.3的网格。
在进行人流量计算时,如图18所示,区域1无遮挡,按照整个基准作为参照标准;区域2遮挡为中等遮挡,故按照基准的1/2为参照标准;区域3遮挡为严重遮挡,故按照基准的1/3为参照标准。最终人数为区域1,区域2,区域3的人数总和。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围,其均应涵盖在本发明的权利要求和说明书的范围当中。

Claims (9)

1.一种基于视频分析适应密集场景人流实时监测方法,其特征在于,包括以下步骤:
获取待监测区域的背景图像,利用混合高斯模型对所述背景图像进行背景学习;
获取待监测区域的前景原始图像,对所述背景图像和前景原始图像进行线性变化,确定变化系数;
利用所述变化系数确定阈值,提取前景原始图像中去除背景的前景图像;
利用影视透视模型计算所述前景图像中,前景个体所占像素点的大小;
结合遮挡因子,确定待监测区域的人流量。
2.根据权利要求1所述基于视频分析适应密集场景人流实时监测方法,其特征在于,所述获取待监测区域的背景图像,利用混合高斯模型对所述背景图像进行背景学习具体包括:
设t时刻的背景图像中每个像素点的像素值It(x,y)由K个高斯模型来描述;则当前像素点的观测值的概率P(It(x,y))为:
其中,x,y是像素点的横坐标和纵坐标;i∈[1,2,...,K];分别是t时刻像素点(x,y)的第i个高斯模型的权值、均值和方差,N表示由t时刻像素值,第i个高斯模型的均值、方差组成的向量。
3.根据权利要求2所述基于视频分析适应密集场景人流实时监测方法,其特征在于,该方法在计算当前像素点的观测值的概率P(It(x,y))之后,还包括:
如果在t时刻,像素点(x,y)的特征为It(x,y),则第i个高斯模型如下:
式中,γ为置信参数值,D(x,y)为更新高斯模型的阈值;
如果D(x,y)为1,此时更新高斯模型的权值,均值和方差三个参量;如果D(x,y)为0,此时更新高斯模型的权值;其中权值,均差,方差的更新机制为:
其中,α,ρ分别代表学习速率,其中ρ的计算由下述得到:
如果是未匹配的高斯模型,权值进行下式更新:
4.根据权利要求1所述基于视频分析适应密集场景人流实时监测方法,其特征在于,所述获取待监测区域的前景原始图像,对所述背景图像和前景原始图像进行线性变化,确定变化系数具体包括:
对所述背景图像和前景原始图像进行灰度化;
计算背景图像和前景原始图像的归一化直方图以及平均亮度;
确定线性灰度变换函数的系数,对灰度化后的背景图像和前景原始图像进行线性变化。
5.根据权利要求3所述基于视频分析适应密集场景人流实时监测方法,其特征在于,
对所述背景图像B和前景原始图像O进行灰度化;
计算背景图像B和前景原始图像O的归一化直方图,得到灰度图像hB、hO
背景图像B和前景原始图像O的平均亮度mB,mO均按照下式计算:
其中L代表图像的灰度级,zi代表第i个灰度级,p(zi)代表归一化直方图灰度级为zi的概率值;
对hB、hO按照下述公式进行线性变化;
其中,a,b为背景图像、前景原始图像的线性变化的系数;hB′,hO′为线性变化后的背景图像和前景原始图像。
6.根据权利要求5所述基于视频分析适应密集场景人流实时监测方法,其特征在于,所述利用所述变化系数提取前景原始图像中去除背景的前景图像具体包括:
按照下式计算背景相减时的阈值σ:
其中M*N为前景原始图像的大小;
根据阈值σ的大小对所述前景原始图像进行背景相减,并进行3*3的腐蚀计算,去除较小的联通区域,从而得到所述前景图像。
7.根据权利要求1所述基于视频分析适应密集场景人流实时监测方法,其特征在于,所述利用影视透视模型计算所述前景图像中,前景个体所占像素点的大小具体包括:
对所述前景图像进行形态学运算;
计算所述前景图像的连通区域,并对联通区域进行过滤;
建立图像平面上2D坐标系,利用影视透视模型寻找不同位置前景个体所占像素点与2D坐标系的对应关系;
通过对应关系计算前景个体在对应连通区域所在位置实际占的面积。
8.根据权利要求6所述基于视频分析适应密集场景人流实时监测方法,其特征在于,所述利用影视透视模型计算所述前景图像中,前景个体所占像素点的大小具体包括:
将所述前景图像进行三等分,并求得其连通区域;
计算过滤阈值,对联通区域进行过滤;
建立图像平面上2D坐标系其中,y为参考线,x1代表前景个体在y1方向上的水平大小,x2代表前景个体在y2方向上的水平大小,qy代表同一前景个体在不同位置的频率;则有:
X2=X1*qy,其中,
则其高度的比例为h2=h1*qy [12]
则最终有S1=S2*qy*qy [13]
其中,h1,h2分别代表同一前景个体在不同位置的在二维平面上的高度,S1,S2分别代表同一前景个体在不同位置所占像素点的大小。
9.根据权利要求1所述基于视频分析适应密集场景人流实时监测方法,其特征在于,所述结合遮挡因子,确定待监测区域的人流量具体包括:
对前景图像通过特征聚类进行三等分,对每一等分图像进行网格化;
通过灰度共生矩阵提取每个网格内图像的空间特征,设置多个等级及相应的遮挡因子;
计算每个网格图像的特征能量、熵、惯性矩、相关性、逆差距分别在0°、45°、90°、135°上的均值;
将每个网格的特征进行回归处理,利用K-means对每个网格产生的回归特征进行聚类;
计算连通区域面积,根据连通区域面积确定待监测区域的人流量。
CN201910146585.0A 2019-02-27 2019-02-27 基于视频分析适应密集场景人流实时监测方法 Active CN109919068B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910146585.0A CN109919068B (zh) 2019-02-27 2019-02-27 基于视频分析适应密集场景人流实时监测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910146585.0A CN109919068B (zh) 2019-02-27 2019-02-27 基于视频分析适应密集场景人流实时监测方法

Publications (2)

Publication Number Publication Date
CN109919068A true CN109919068A (zh) 2019-06-21
CN109919068B CN109919068B (zh) 2021-03-23

Family

ID=66962596

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910146585.0A Active CN109919068B (zh) 2019-02-27 2019-02-27 基于视频分析适应密集场景人流实时监测方法

Country Status (1)

Country Link
CN (1) CN109919068B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110827174A (zh) * 2019-09-27 2020-02-21 恒大智慧科技有限公司 一种景区内资源调配方法、装置及存储介质
CN112529752A (zh) * 2020-12-10 2021-03-19 清研灵智信息咨询(北京)有限公司 一种基于区块链的可信任调研平台
CN117041484A (zh) * 2023-07-18 2023-11-10 中建科工集团运营管理有限公司 基于物联网的人流密集区域监控方法及系统

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090296989A1 (en) * 2008-06-03 2009-12-03 Siemens Corporate Research, Inc. Method for Automatic Detection and Tracking of Multiple Objects
WO2012012555A1 (en) * 2010-07-20 2012-01-26 SET Corporation Methods and systems for audience digital monitoring
CN103164711A (zh) * 2013-02-25 2013-06-19 昆山南邮智能科技有限公司 基于像素和支持向量机的区域人流密度估计的方法
CN103456030A (zh) * 2013-09-08 2013-12-18 西安电子科技大学 基于散射描述子的目标跟踪方法
CN104504394A (zh) * 2014-12-10 2015-04-08 哈尔滨工业大学深圳研究生院 一种基于多特征融合的密集人数估计方法和系统
CN104778447A (zh) * 2015-03-23 2015-07-15 中国民航大学 一种基于网格单元特征的人群聚集行为检测方法
CN105469105A (zh) * 2015-11-13 2016-04-06 燕山大学 一种基于视频监控的香烟烟雾检测方法
CN105930814A (zh) * 2016-04-28 2016-09-07 天津大学 基于视频监控平台的人员异常聚集行为的检测方法
CN106327488A (zh) * 2016-08-19 2017-01-11 云赛智联股份有限公司 一种自适应的前景检测方法及其检测装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090296989A1 (en) * 2008-06-03 2009-12-03 Siemens Corporate Research, Inc. Method for Automatic Detection and Tracking of Multiple Objects
WO2012012555A1 (en) * 2010-07-20 2012-01-26 SET Corporation Methods and systems for audience digital monitoring
CN103164711A (zh) * 2013-02-25 2013-06-19 昆山南邮智能科技有限公司 基于像素和支持向量机的区域人流密度估计的方法
CN103456030A (zh) * 2013-09-08 2013-12-18 西安电子科技大学 基于散射描述子的目标跟踪方法
CN104504394A (zh) * 2014-12-10 2015-04-08 哈尔滨工业大学深圳研究生院 一种基于多特征融合的密集人数估计方法和系统
CN104778447A (zh) * 2015-03-23 2015-07-15 中国民航大学 一种基于网格单元特征的人群聚集行为检测方法
CN105469105A (zh) * 2015-11-13 2016-04-06 燕山大学 一种基于视频监控的香烟烟雾检测方法
CN105930814A (zh) * 2016-04-28 2016-09-07 天津大学 基于视频监控平台的人员异常聚集行为的检测方法
CN106327488A (zh) * 2016-08-19 2017-01-11 云赛智联股份有限公司 一种自适应的前景检测方法及其检测装置

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
DONATELLO CONTE 等: "Counting moving persons in crowded scenes", 《MACHINE VISION AND APPLICATIONS (2013)》 *
宋宝玉 等: "基于视频分析的人群密度估计算法研究", 《软件导刊》 *
常庆龙 等: "一种基于归一化前景和角点信息的复杂场景人数统计方法", 《电子与信息学校》 *
常庆龙: "航站楼集群安全识别与预警关键技术研究", 《中国博士学位论文全文数据库(电子期刊) 工程科技II辑》 *
黄雯 等: "一种基于多分类器融合的人数统计算法", 《南开大学学报(自然科学版)》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110827174A (zh) * 2019-09-27 2020-02-21 恒大智慧科技有限公司 一种景区内资源调配方法、装置及存储介质
CN112529752A (zh) * 2020-12-10 2021-03-19 清研灵智信息咨询(北京)有限公司 一种基于区块链的可信任调研平台
CN112529752B (zh) * 2020-12-10 2022-03-01 清研灵智信息咨询(北京)有限公司 一种基于区块链的可信任调研平台
CN117041484A (zh) * 2023-07-18 2023-11-10 中建科工集团运营管理有限公司 基于物联网的人流密集区域监控方法及系统

Also Published As

Publication number Publication date
CN109919068B (zh) 2021-03-23

Similar Documents

Publication Publication Date Title
CN104504394B (zh) 一种基于多特征融合的密集人数估计方法和系统
CN106023185B (zh) 一种输电设备故障诊断方法
CN104123544B (zh) 基于视频分析的异常行为检测方法及系统
CN102903124B (zh) 一种运动目标检测方法
CN104091176B (zh) 人像比对在视频中的应用技术
CN105426820B (zh) 基于安防监控视频数据的多人异常行为检测方法
CN109919068A (zh) 基于视频分析适应密集场景人流实时监测方法
CN105791774A (zh) 一种基于视频内容分析的监控视频传输方法
CN107483894B (zh) 基于场景判断实现客运管理的高铁车站视频监控系统
CN110070530A (zh) 一种基于深度神经网络的输电线路覆冰检测方法
CN105279772B (zh) 一种红外序列图像的可跟踪性判别方法
CN101635835A (zh) 智能视频监控方法及系统
CN101325690A (zh) 监控视频流中人流分析与人群聚集过程的检测方法及系统
CN101727672A (zh) 一种物体滞留/偷窃事件的检测、跟踪、识别方法
CN105354563A (zh) 结合深度和彩色图像的遮挡人脸检测预警装置及实现方法
CN104050478A (zh) 烟雾检测方法与系统
CN103400120B (zh) 基于视频分析的银行自助服务区域推入行为检测方法
CN109918971A (zh) 监控视频中人数检测方法及装置
CN112183472A (zh) 一种基于改进RetinaNet的试验现场人员是否穿着工作服检测方法
CN110473428A (zh) 一种智能停车方法、设备和系统
CN108898098A (zh) 基于监控平台的早期视频烟雾检测方法
CN103400148B (zh) 基于视频分析的银行自助服务区域尾随行为检测方法
CN103049748A (zh) 行为监测方法及装置
Gündüz et al. A new YOLO-based method for social distancing from real-time videos
CN108154089A (zh) 一种基于尺度自适应的头部检测和密度图的人群计数方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant