CN103839065B - 人群动态聚集特征提取方法 - Google Patents
人群动态聚集特征提取方法 Download PDFInfo
- Publication number
- CN103839065B CN103839065B CN201410051592.XA CN201410051592A CN103839065B CN 103839065 B CN103839065 B CN 103839065B CN 201410051592 A CN201410051592 A CN 201410051592A CN 103839065 B CN103839065 B CN 103839065B
- Authority
- CN
- China
- Prior art keywords
- crowd
- density
- image block
- people
- cluster
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Abstract
本发明公开了一种人群动态聚集特征提取方法,属于计算机智能监控技术领域。本发明将核密度空间聚类算法引入到“人群聚集的外部特征分析过程”中,有效的实现了对群体性事件人群聚集特征的提取和定量研判,采用人群质心运动跟踪的方法识别人群移动模式,改变了目前仅依据人群密度等级进行群体性事件预警,而未能充分考虑人群聚集的其他外部特征,如人群聚集形状、人群移动速度、人群的增长速度等,存在很大的误警率和漏警率的现状。本发明方法可以运用于其他安全敏感的人群密集场所,具有广泛的推广应用前景。
Description
技术领域
本发明涉及一种人群动态聚集特征提取方法,尤其涉及一种利用监控视频获得人群动态聚集特征的方法,属于计算机智能监控技术领域。
背景技术
近几年来随着我国民航运输量的增加,机场群体性事件不断增多。根据有关资料,目前我国国内每年约有1000万人次以上的旅客遭遇航班延误,因航班延误造成旅客与航空公司冲突的事件呈激增趋势。仅以深圳机场为例,2002年全年航空旅客群体性事件33起,2005年发生41起,2007年猛增到94起,其影响不可小觑。若能对机场内部进行有效监控,对有可能发生群体性事件的人群进行及早预警,应急人员及时采取相应措施,缓解旅客情绪,阻止人群继续扩大并且疏导非正常聚集人群,保证机场安全有序运行,将事态控制在最小范围。
我国对于视频监控系统的研究已有很多,如宋绍锋、黄鹰将机场监控系统与报警集成、智能化集成,以及与应用系统集成,提高了视频监控系统的使用和管理效率。王晓玲、王猛利用Winsock控件解决基于Web的实时数据传输,完全实现了视频信息的采集、编码、存贮的计算机化和视频信息的网上实时传输及云台、镜头等的计算机实时控制。周平、汪亚明等人联合提出一种新的基于宏块特征量化的视觉自适应实时监控方法,实现对安全防范中闯入类的有效监控,且目标跟踪快捷稳定,具有较高的工程实用价值。刘富强,卢赤班通过图象分析实现远程自动探测和报警、控制,使电视监控更具智能化。吕秋云、张公礼针对目前网络视频监控系统中的一个部分—报警子系统,提出其设计方案,并给出了报警子系统开发的建议。陈冬冬、张曼琳等人结合了某市大型地铁项目,把相关设备深度集成到监控系统中来,使视频分析系统更加智能化的同时提高了监控系统的精确度和整体可控度。
综合前人研究发现视频监控系统发展较为成熟,目前已应用到很多行业,但用于群体性事件预警的研究还比较缺乏,而且基于视频监控的群体性事件预警研究主要依据人群的密度进行预警,未能充分考虑人群聚集的其他外部特征,如人群聚集形状、人群移动速度、人群的增长速度等,因而当前的预警方法通常会存在很大的误警率和漏警率。有必要寻找一种能够获得人群聚集形状、人群移动速度、人群的增长速度等人群聚集特征的新的人群动态聚集特征提取方法,从而为人群非正常聚集的分析、预警提供更准确的依据。
发明内容
本发明所要解决的技术问题在于克服现有技术不足,提供一种人群动态聚集特征提取方法,除人群密度以外,还能对人群聚集形状、人群移动速度、人群的增长速度等人群聚集特征进行更准确有效的提取,进而提高人群聚集特征分析的可靠性。
本发明的人群动态聚集特征提取方法,包括以下步骤:
步骤A、对目标视频进行分割,得到一组连续的图像帧;
步骤B、对各图像帧进行前景检测,得到二值化前景检测结果;
步骤C、将各图像帧进行分块,并根据各图像块中前景像素在所在块的总像素中所占比例的高低将图像块分为高人群密度图像块和低人群密度图像块;对于低人群密度图像块,进行人头检测,并利用所检测出的每个人头的质心所在点表示相对应的人头;对于高人群密度图像块,基于图像纹理特征估计图像块中的总人数,用相同数量的点表征这些人,并将这些点平均分布于所在图像块;
步骤D、对各图像帧分别进行网格化处理;以网格中表征人的点数大于一预设阈值的网格作为高密度网格,并以各高密度网格作为中心,按照预设的邻近网格阈值,查找其邻近网格,每个高密度网格及其邻近网格构成一个局部计算区域,从而确定一系列局部计算区域;
步骤E、对于每一个局部计算区域,对该区域内的所有表征人的点进行基于核密度的空间聚类,聚类得到的每一个簇表征一个人群,进而得到相应的人群聚集形状、密度分布特征;
步骤F、利用质心运动跟踪的方法,确定各人群聚集形状、密度分布的变化、聚集人群的移动特征以及人群规模的增长速度变化趋势。
优选地,所述前景检测使用基于YCbCr色彩空间的码书模型。
优选地,所述根据各图像块中前景像素在所在块的总像素中所占比例的高低将图像块分为高人群密度图像块和低人群密度图像块,具体是以40%作为阈值,当前景像素在所在块的总像素中所占比例小于该阈值,则为低人群密度图像块;否则,为高人群密度图像块。
优选地,对低人群密度图像块,使用基于样本非对称性的AdaBoostSVM人头检测方法进行人头检测。
优选地,步骤E中所述基于核密度的空间聚类为DENCLUE聚类算法。
优选地,所述DENCLUE算法中的核密度函数为高斯核密度函数。
进一步地,所述DENCLUE算法中的高斯核函数窗口宽度h按照下式动态确定:
式中,R(K)=∫RK(x)2dx,u2(K)=∫Rx2K(x)dx,K(x)为核函数,f″为概率密度函数f的二阶导数,n为已知数据点的个数。
相比现有技术,本发明具有以下有益效果:
本发明将核密度空间聚类算法引入到“人群聚集的外部特征分析过程”中,有效的实现了对群体性事件人群聚集特征的提取和定量研判,采用人群质心运动跟踪的方法识别人群移动模式,改变了目前仅依据人群密度等级进行群体性事件预警,而未能充分考虑人群聚集的其他外部特征,如人群聚集形状、人群移动速度、人群的增长速度等,存在很大的误警率和漏警率的现状。本发明方法可以运用于其他安全敏感的人群密集场所,具有广泛的推广应用前景。
附图说明
图1为具体实施方式中本发明的人群动态聚集特征提取方法的流程示意图。
具体实施方式
下面结合附图对本发明的技术方案进行详细说明:
图1显示了本发明的人群动态聚集特征提取方法的一个优选实施例,如图1所示,该方法包括以下步骤:
步骤A、对目标视频进行分割,得到一组连续的图像帧:
对目标场所(例如航站楼、车站等)的监控视频进行视频分割,将视频转换为一系列具有固定时间间隔的连续图像帧。
步骤B、对各图像帧进行前景检测,得到二值化前景检测结果:
本步骤中的前景检测可采用各种现有的前景检测方法,本实施例中选用基于YCbCr色彩空间的码书模型进行前景检测,其具体内容如下:
步骤B1:建立基于单一像素的YCbCr色彩空间的码书模型。
在YCbCr色彩空间下为位于h行w列的像素建立1个由若干码字组成的码书(Cw,h),码字结构设计为1个8元组,其中,和分别为匹配码字的亮度最小值和最大值,和分别为匹配码字的蓝色和红色分量的均值,f,为码字成功匹配的次数,λ为码字未成功匹配的最大时间间隔,p和q分别为码字第一次和最后一次成功匹配的时刻。
步骤B2:初始化码书模型,通过阈值匹配,在有限码字容量的条件下更新码书模型,具体如下:
以表示当前帧的像素块的各通道色彩集合,记为如果其满足式(1)则判断当前像素块为背景。
根据当前像素块更新码书模型,对码书模型的容量加以限制,设定其容量阈值为m,当码书的容量超过m时,筛选码书中出现次数排前m位的码字,使码字收敛化、集约化。
步骤B3:初步前景检测,得到各图像帧的初步二值化检测结果。
如果当前帧的像素块的通道色彩集合与码书模型中码字不匹配,则初步判断此像素块为前景,得到各图像帧的二值化检测结果。
通过前景检测得到各图像帧的二值化检测结果,可以直接用于后续的人员检测或分区密度估计。
步骤C、将各图像帧进行分块,并根据各图像块中前景像素在所在块的总像素中所占比例的高低将图像块分为高人群密度图像块和低人群密度图像块;对于低人群密度图像块,进行人头检测,并利用所检测出的每个人头的质心所在点表示相对应的人头;对于高人群密度图像块,基于图像纹理特征估计图像块中的总人数,用相同数量的点表征这些人,并将这些点平均分布于所在图像块:
将各图像帧进行分块,例如可将每幅图像均分为上中下三个图像块,或者等分为四个图像块。然后根据前景检测得到的图像二值化结果,统计各图像块中前景图像素数与所在图像块内的总像素数的比值,经几何修正后即为人群密度的参考值,如公式(2)所示。
如果k小于预设阈值,例如40%,则为低人群密度图像块,若该值高于预设阈值,则属于高人群密度图像块。
对于低人群密度图像块,直接进行人头检测,从而得到每个人的位置信息。本发明可使用现有的各种人头检测(或人脸检测)算法,本实施例中的人头检测采用基于样本非对称性的AdaBoostSVM(简称SA-AdaBoostSVM,具体内容可参见文献[郭耸.人脸检测若干关键技术研究[D].哈尔滨:哈尔滨工程大学,2011])人头检测方法。基于样本非对称性的AdaBoostSVM人头检测方法不但可以对正面人脸进行检测,还可准确检测出侧面、背面、以及顶部拍摄的人头图像。该方法的基本内容如下:
步骤1:训练样本:
首先对正面人脸检测所需的训练样本计算Haar-like特征;然后基于SA-AdaBoostSVM算法从大量的Haar-like特征对应的弱分类器中选择出最优的若干个弱分类器,并通过加权和构成各级次分类器;最后将训练得到的各级分类器构成分类性能更强的级联结构分类器。
Haar-like特征定义为黑色矩形和白色矩形在图像子窗口中对应区域的灰度级总和之差,本发明选取的Haar-like特征包括下述之一或任意组合:左右相邻的一个黑色区域和一个白色区域之间的像素灰度均值差、上下相邻的一个黑色区域和一个白色区域之间的像素灰度均值差、一个黑色区域与其左右相邻的两个白色区域之间的像素灰度均值差、两个对角相连的黑色区域,与相邻两个对角相连的两个白色区域之间的像素灰度均值差、对角相连的一个黑色区域和一个白色区域之间的像素灰度均值差。
利用大量的人头正样本和人头负样本预先进行第一级分类器和第二级分类器训练。其中,人头正样本可包括自人头正面、侧面、背面、以及顶部拍摄的人头图像,即覆盖了不同姿态、不同头发、戴不同帽子的真实人头图像;而人头负样本包括未包含人头的图像;而具体的训练方法可以基于现有的SA-AdaBoostSVM算法来实现。
第一级分类器可以是通过从多个人头正样本和多个人头负样本中抽取Haar-like特征和灰度均值特征、并基于SA-AdaBoostSVM算法而训练得到的;由于第二级分类器针对的是经灰度归一化处理的候选人头窗口,因此,第二级分类器的训练无需灰度均值特征,而可以是只通过从多个人头正样本和多个人头负样本中抽取Haar-like特征、并基于SA-AdaBoostSVM算法而训练得到。
步骤2:在输入的图像中搜索得到候选人头窗口:
对输入的图像进行预设比例的缩放、预设角度的旋转;在输入的图像、以及进行所述缩放、所述旋转后的图像中,以穷举的方式搜索得到不同尺寸的若干候选人头窗口,即将图像子窗口的尺寸转化为与分类器的训练样本相同的尺寸。
步骤3:利用第一级分类器对搜索得到的所有候选人头窗口进行第一级检测过滤:
具体处理过程可以为:将搜索得到的所有候选人头窗口输入至训练后的第一级分类器,由训练后的第一级分类器从搜索得到的所有候选人头窗口中分别抽取如前所述的Haar-like特征和灰度均值特征,然后依据抽取的Haar-like特征和灰度均值特征、并基于SA-AdaBoostSVM算法对输入的所有候选人头窗口进行第一级检测过滤。本发明设定各候选人头窗口的尺寸均为13x13且Haar-like特征中黑色区域和白色区域的最小尺寸均为1x1。
步骤4:对第一级检测过滤后剩余的候选人头窗口进行灰度归一化处理。
步骤5:对利用第二级分类器对灰度归一化处理后的所有候选人头窗口进行第二级检测过滤:
具体处理过程可以为:将灰度归一化处理后的所有候选人头窗口输入至训练后的第二级分类器,由训练后的第二级分类器从输入的所有候选人头窗口中分别抽取Haar-like特征,然后依据抽取的Haar-like特征、并基于SA-AdaBoostSVM算法对灰度归一化处理后的所有候选人头窗口进行第二级检测过滤。
步骤6:对计算第二级检测过滤后剩余的、且被合并的所有候选人头窗口与预设人头特征规则的相似性:
本步骤中的具体处理过程可以包括:
步骤6-1、按照现有人脸检测中抽取轮廓点的方式,抽取候选人头窗口中的各轮廓点;
步骤6-2、利用现有的Sobel算子计算候选人头窗口中各轮廓点在x方向的边界值edge_x以及Y方向的边界值edge_y;
步骤6-3、利用公式计算候选人头窗口中各轮廓点的边界幅度,利用公式计算候选人头窗口中各轮廓点的边界方向;
步骤6-4、计算候选人头窗口中各轮廓点的边界幅度和边界方向与标准人头边界的各轮廓点的边界幅度和边界方向的相似性,得到候选人头窗口与预设人头特征规则的相似性。
步骤7:将相似性大于预设相似性阈值的候选人头窗口确定为人头。进一步输出所有检测到的人头的位置信息。
对于检测出的每个人头,可用其质心位置来表征人员位置,图像块中所有质心点的分布即表征了图像中人员的分布情况。
对于高人群密度图像块,基于图像纹理特征估计图像块中的总人数,用相同数量的点表征这些人,并将这些点平均分布于所在图像块。
基于图像纹理特征估计图像块中的总人数可采用以下方法:
步骤1:分类器设定。
根据监控区域的实际人数情况,将人群密度等划分为中密度(0-20人)、高密度(21-40人)、较高密度(41-60人)、超高密度(大于60人)。
步骤2:挑选训练样本。
本发明从同一监控场景的不同时段下的视频采样选取4个密度等级的1600个训练样本,每个密度等级各400个样本。
步骤3:提取样本特征。
本发明以像素距离为10,灰度级为16在0°和90°两个方向上计算人群图像的灰度共生矩阵,然后由矩阵计算出人群图像的能量、对比度、相关性、熵和逆差距等特征,组成10维的特征向量。
步骤4:建立支持向量机分类器。
选用“一对一”的多分类方法,使用SD-GS参数选择复合算法确定RBF核支持向量机的参数,最终得到6个支持向量机分类器(人群图像分为四类不同的密度等级)。
步骤5:人群密度估计。
将当前图像的纹理特征分别送入已经建立的6个支持向量机分类器。若测试样本属于第i类分类器,则第i类分类器投票数加1;属于第j类分类器,则第j类分类器投票数加1,各类分类器中得分最高的即为图像区域的人群密度的分类结果。
根据各高人群密度图像块的分类结果,以其所属类别人数均值作为该图像块中的总人数,例如,假设某一图像块的人群密度属于较高密度(41-60人),则认为该图像块中的总人数为50人,然后将这50人用50个点表示,并将其平均分布于所在图像块中,在平均分布时,将一些不可能存在人的区域(例如柱子、设备等)剔除。
最后,通过采用二维成像透视投影模型和模板的精确标定以计算单应矩阵,对计算得到的单应矩阵H求逆,可计算图像中人员实际空间位置坐标[尹彪.视频监控面积计算方法及应用研究[J].交通运输系统工程与信息,2012,12(3):60-64]。具体步骤如下:
步骤4A:根据成像透视投影模型,空间中任意一点Mi(Xwi,Ywi,Zwi,1)到二维成像平面上一点mi(ui,vi,1)的投影关系可描述为:
λmi=PMi=(p1,p2,p3,p4)Mi (3)
式中λ为非零比例因子,假设平面为Zw=0平面,上式变为:
H=(p1 p2 p4)为单应矩阵。令 式中hij为第j行第i列的元素。
步骤4B:通过标定模板,确定单应矩阵。
通过4对标定模板上的点坐标以及相应的数字图像点坐标,利用SVD奇异值分解法求解方程:
步骤4C:对计算得到的单应矩阵H求逆,可计算图像中人员实际空间位置坐标。
经过以上处理,即可得到各幅图像帧中的人员位置信息及分布情况。
步骤D、对各图像帧分别进行网格化处理;以网格中表征人的点数大于一预设阈值的网格作为高密度网格,并以各高密度网格作为中心,按照预设的邻近网格阈值,查找其邻近网格,每个高密度网格及其邻近网格构成一个局部计算区域,从而确定一系列局部计算区域:
为了在更准确识别聚集人群的同时有效降低算法复杂度,本发明采用以下方法将人员密度较高的区域从图像中选取出来,作为局部计算区域,在后续空间聚类中仅对这些局部计算区域进行处理,从而有效降低了算法复杂度,提高了算法效率:
根据各幅图像帧中的人员位置坐标信息,将计算区域划分为边长为2σ的格网,其中σ为函数的宽度参数;统计格网中点的数量,将点数量超过阈值的格网定义为高密度格网,本实施例中高密度网格人员阈值为3人;以高密度格网为中心,邻近网格阈值为3m(注:邻近网格阈值定义为,相邻两格网中心点的距离阈值),查找邻近格网,确定局部计算区域。
步骤E、对于每一个局部计算区域,对该区域内的所有表征人的点进行基于核密度的空间聚类,聚类得到的每一个簇表征一个人群,进而得到相应的人群聚集形状、密度分布特征:
本实施例中采用DENCLUE聚类算法对各局部计算区域中的人员进行基于核密度的空间聚类。DENCLUE聚类算法为现有技术,详细内容可参考文献(颜峻.基于时空数据挖掘的社会安全(刑事)事件成因研究[D]:北京:清华大学.2009.)。本实施例中DENCLUE聚类算法所使用的核密度函数为高斯核密度函数,同时为了避免网格的使用对于密度估计精度可能产生的负面影响,本实施例中根据对象区域的实际情况对网格窗宽进行动态优化(张玉敏.基于不同核函数的概率密度函数估计比较研究[D]:保定:河北大学.2010.),窗宽优化过程具体如下:
步骤1、用实际密度函数f(x)与其估计值的渐近均方误差(AMISE)进行误差精度的计算:
根据上式得到优化窗宽:
式中R(K)=∫RK(x)2dx,u2(K)=∫Rx2K(x)dx,K(x)为核函数,f″为概率密度函数f的二阶导数,n为已知数据点的个数(即随机变量观察值的个数)。
本发明采用高斯函数作为核函数,因此u2(K)=1,采用Solve-the-Equation方法对R(f″)进行计算,即可得到高斯核所对应的窗口宽度的最优值为:
其中n表示人员总数;xi、xj分别表示第i个人员和第j个人员的x轴坐标信息。
步骤2、令hopt=F(h),计算h1=F(h0),其中,h0=s,根据公式(9)初始化s初始化参数k,其中,k为一极小值;
s=1.06σnarea -1/5 (9)
其中,narea为局部计算区域内的人员个数,σ为人员横坐标(x坐标)值的标准差。
步骤3、当计|h1-h0|>k时,循环执行下面步骤:
步骤3-1、将h1的值赋予h0,即执行h0=h1;
步骤3-2、对于新的h0值,利用表达式h1=F(h0)计算出新的h1值;
步骤3-3、令
步骤4、获取最优窗宽hx=h1,同理得到hy。
本实施例中的DENCLUE聚类方法以二维Gauss函数为核函数,得到区域内局部概率密度函数:
式中,n为计算区域内人员总数;hx,hy为计算概率密度函数时所需的网格窗宽;x,y对应着已知的任意一个人员位置数据点的空间位置信息;xi,yi对应着已知的第i个人员位置数据点的空间位置信息。
在此基础上定义密度吸引子,对于给定的密度函数存在数据点x*∈Fd,当且仅当x*是密度函数的一个局部极大值时,称x*为一密度吸引子,基于动态步长的爬山算法[谢从华.基于密度模型的医学图像分割方法研究[D].镇江:江苏大学,2011],寻找密度吸引子,具体如下:
步骤1:从局部计算区域Cr的点集D中,随机选取一个当前点Xi;
步骤2:根据上述所得到的局部概率密度函数,按下公式(11)确定当前点的梯度方向:
式中,为点Xi的梯度方向。
步骤3:确定爬山算法中第i步的最优步长:
式中,δi为第i步的最优步长; 为点Xi梯度方向的模,T为转置运算符。
步骤4:沿梯度方向,根据公式(13),确定下一个数据点:
式中,Xi+1为下一个数据点。
步骤5:比较前后两个数据点的密度函数值,如果则Xi=Xi+1,转入步骤5A;如果则搜索该点的八领域中是否密度更大的点,如果有则转入步骤2,否则就以当前点为Xi作为密度吸引点X*。
对于点x∈Fd,当且仅当存在k∈N:d(xk,x*)≤ξ,使得x0=x,则称点x∈Fd被密度吸引子x*所吸引,其中ξ(ξ=0.001)为概率密度阈值,δi为第i步爬山步长,为密度函数的梯度,可表示为:被密度吸引子所吸引的点集为最终的聚类结果,得到相应的人群聚集形状、密度分布特征。
步骤F、利用质心运动跟踪的方法,确定各人群聚集形状、密度分布的变化、聚集人群的移动特征以及人群规模的增长速度变化趋势:
根据当前的人群聚类结果,根据公式(14)、(15)确定各聚集人群的质心,对其进行编号。
式中xm、ym分别表示第m簇人群质心横纵坐标值,Nm为第m簇人群的总人数,xmi、ymi分别表示第m簇人群中的编号为i的人员的质心坐标。
通过视频中相邻帧图像处理结果的比较,采用质心运动跟踪的方法,根据人群质心的位移差与时间差估算聚集人群的移动速度与方向特征:
式中分别表示第m簇人群t时刻与t-1时刻的质心横坐标值,分别表示第m簇人群t时刻与t-1时刻的质心纵坐标值,Δt为前后两帧图像时间间隔,vm为第m簇人群的移动速度。
通过前后帧图像中同一人群簇的面积与密度的变化,确定人群规模增长速度:
在人群聚类结果的基础上,求取人群边缘顶点实际坐标后,利用坐标法的矢量积公式求解区域多边形的面积,由于监控的是平面的面积,有Z=0,所以监控区域面积为:
式中 为引入的二行N列式的表示方法:
通过估算相邻两帧的人群的人数,实时计算出人群规模增长速度:
式中分别表示第m簇人群t时刻与t-1时刻的总人数,vm为第m簇人群的移动速度,为第m簇人群的增长速度。
根据得到的人群动态聚集特征,可进一步识别出人群的非正常聚集,并对航站楼、车站、码头等公共场所的群体性事件进行分析和预警。
Claims (5)
1.人群动态聚集特征提取方法,其特征在于,包括以下步骤:
步骤A、对目标视频进行分割,得到一组连续的图像帧;
步骤B、对各图像帧进行前景检测,得到二值化前景检测结果;
步骤C、将各图像帧进行分块,并根据各图像块中前景像素在所在块的总像素中所占比例的高低将图像块分为高人群密度图像块和低人群密度图像块;对于低人群密度图像块,进行人头检测,并利用所检测出的每个人头的质心所在点表示相对应的人头;对于高人群密度图像块,基于图像纹理特征估计图像块中的总人数,用相同数量的点表征这些人,并将这些点平均分布于所在图像块;
步骤D、对各图像帧分别进行网格化处理;以网格中表征人的点数大于一预设阈值的网格作为高密度网格,并以各高密度网格作为中心,按照预设的邻近网格阈值,查找其邻近网格,每个高密度网格及其邻近网格构成一个局部计算区域,从而确定一系列局部计算区域;
步骤E、对于每一个局部计算区域,对该区域内的所有表征人的点进行基于核密度的空间聚类,聚类得到的每一个簇表征一个人群,进而得到相应的人群聚集形状、密度分布特征;其中,所述基于核密度的空间聚类为DENCLUE聚类算法,所述DENCLUE算法中的核密度函数为高斯核密度函数,高斯核密度函数窗口宽度h按照下式动态确定:
式中,R(K)=∫RK(x)2dx,u2(K)=∫Rx2K(x)dx,K(x)为核函数,f″为概率密度函数f的二阶导数,n为已知数据点的个数;
步骤F、利用质心运动跟踪的方法,确定各人群聚集形状、密度分布的变化、聚集人群的移动特征以及人群规模的增长速度变化趋势。
2.如权利要求1所述人群动态聚集特征提取方法,其特征在于,所述前景检测使用基于YCbCr色彩空间的码书模型。
3.如权利要求1所述人群动态聚集特征提取方法,其特征在于,所述根据各图像块中前景像素在所在块的总像素中所占比例的高低将图像块分为高人群密度图像块和低人群密度图像块,具体是以40%作为阈值,当前景像素在所在块的总像素中所占比例小于该阈值,则为低人群密度图像块;否则,为高人群密度图像块。
4.如权利要求1所述人群动态聚集特征提取方法,其特征在于,对低人群密度图像块,使用基于样本非对称性的AdaBoostSVM人头检测方法进行人头检测。
5.如权利要求1所述人群动态聚集特征提取方法,其特征在于,步骤F具体如下:
步骤F1、根据当前的人群聚类结果,根据以下公式确定各聚集人群的质心,对其进行编号:
式中xm、ym分别表示第m簇人群质心的横、纵坐标值,Nm为第m簇人群的总人数,xmi、ymi分别表示第m簇人群中的编号为i的人员的质心坐标;
步骤F2、通过视频中相邻帧图像处理结果的比较,采用质心运动跟踪的方法,根据人群质心的位移差与时间差估算聚集人群的移动速度与方向特征:
式中分别表示第m簇人群t时刻与t-1时刻的质心横坐标值,分别表示第m簇人群t时刻与t-1时刻的质心纵坐标值,Δt为前后两帧图像时间间隔,vm为第m簇人群的移动速度;
步骤F3、通过前后帧图像中同一人群簇的面积与密度的变化,确定人群规模增长速度:
在人群聚类结果的基础上,求取人群边缘顶点实际坐标后,利用坐标法的矢量积公式求解区域多边形的面积,然后通过估算相邻两帧的人群的人数,实时计算出人群规模增长速度:
式中分别表示第m簇人群t时刻与t-1时刻的总人数,vm为第m簇人群的移动速度,为第m簇人群的增长速度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410051592.XA CN103839065B (zh) | 2014-02-14 | 2014-02-14 | 人群动态聚集特征提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410051592.XA CN103839065B (zh) | 2014-02-14 | 2014-02-14 | 人群动态聚集特征提取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103839065A CN103839065A (zh) | 2014-06-04 |
CN103839065B true CN103839065B (zh) | 2017-02-01 |
Family
ID=50802543
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410051592.XA Active CN103839065B (zh) | 2014-02-14 | 2014-02-14 | 人群动态聚集特征提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103839065B (zh) |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104635706B (zh) * | 2015-02-05 | 2017-09-19 | 上海市城市建设设计研究总院(集团)有限公司 | 基于信息源检测的群集人员监测及预警的系统的使用方法 |
CN104778447B (zh) * | 2015-03-23 | 2018-01-12 | 中国民航大学 | 一种基于网格单元特征的人群聚集行为检测方法 |
CN105740819A (zh) * | 2016-01-29 | 2016-07-06 | 中国科学院信息工程研究所 | 一种基于整数规划的人群密度估计方法 |
CN105760484B (zh) * | 2016-02-17 | 2019-10-25 | 中国科学院上海高等研究院 | 一种人群踩踏预警方法、系统、及具有该系统的服务器 |
CN107264797B (zh) * | 2016-04-06 | 2019-12-17 | 成都积格科技有限公司 | 人群聚集预警无人机 |
CN106355605B (zh) * | 2016-08-25 | 2018-12-28 | 深圳先进技术研究院 | 群体运动一致性过滤方法 |
CN106878952B (zh) * | 2017-03-20 | 2020-07-10 | 迪爱斯信息技术股份有限公司 | 区域人员数量的预测方法及装置 |
CN107274630A (zh) * | 2017-06-09 | 2017-10-20 | 安徽富煌科技股份有限公司 | 一种基于非稳态运动物体统计的防踩踏预警系统 |
CN107341480A (zh) * | 2017-07-12 | 2017-11-10 | 中国电子科技集团公司第二十八研究所 | 一种改进型pccnn神经网络模型的人群聚集检测方法 |
CN109508583B (zh) * | 2017-09-15 | 2020-11-06 | 杭州海康威视数字技术股份有限公司 | 一种人群分布特征的获取方法和装置 |
CN107862437B (zh) * | 2017-10-16 | 2022-02-22 | 中国人民公安大学 | 基于风险概率评估的公共区域人群聚集预警方法及系统 |
CN108010242B (zh) * | 2017-11-22 | 2020-06-09 | 广东数相智能科技有限公司 | 一种基于视频识别的安防报警方法、系统及存储介质 |
CN108009690B (zh) * | 2017-12-22 | 2022-01-14 | 北京工业大学 | 一种基于模块度最优化的地面公交扒窃团体自动检测方法 |
CN108875709B (zh) * | 2018-07-18 | 2021-05-25 | 洛阳语音云创新研究院 | 一种扎堆行为检测方法、装置、电子设备及存储介质 |
CN109087478A (zh) * | 2018-08-22 | 2018-12-25 | 徐自远 | 一种智能防拥挤踩踏的预警与导流方法及系统 |
CN111325048B (zh) * | 2018-12-13 | 2023-05-26 | 杭州海康威视数字技术股份有限公司 | 一种人员聚集检测方法和装置 |
CN109711447A (zh) * | 2018-12-19 | 2019-05-03 | 武大吉奥信息技术有限公司 | 一种特殊人群事件预警和监测方法及装置 |
CN109858365B (zh) * | 2018-12-28 | 2021-03-05 | 深圳云天励飞技术有限公司 | 一种特殊人群聚集行为分析方法、装置及电子设备 |
CN110110594B (zh) * | 2019-03-28 | 2021-06-22 | 广州广电运通金融电子股份有限公司 | 一种产品分布识别方法和装置 |
CN110119675B (zh) * | 2019-03-28 | 2021-07-27 | 广州广电运通金融电子股份有限公司 | 一种产品识别方法和装置 |
CN110175547B (zh) * | 2019-05-16 | 2022-05-17 | 苏州大学 | 一种多域信息的人群密度预警方法 |
CN111126713B (zh) * | 2019-12-31 | 2023-05-09 | 方正国际软件(北京)有限公司 | 基于卡口数据的时空热点预测方法、装置及控制器 |
CN111339945B (zh) * | 2020-02-26 | 2023-03-31 | 贵州安防工程技术研究中心有限公司 | 基于视频的人群聚散检查方法与系统 |
CN111242096B (zh) * | 2020-02-26 | 2023-04-18 | 贵州安防工程技术研究中心有限公司 | 基于人数梯度的人群聚集的判别方法 |
CN112418196A (zh) * | 2021-01-22 | 2021-02-26 | 中航信移动科技有限公司 | 人群数量预测方法、装置、计算机设备及存储介质 |
CN113643079B (zh) * | 2021-10-14 | 2022-03-01 | 亿景智联(北京)科技有限公司 | 一种基于格网粒子画像确定人群规模的方法及设备 |
CN115512531B (zh) * | 2022-09-28 | 2023-06-23 | 重庆地质矿产研究院 | 一种基于形变有序性的滑坡灾害多监测点融合预警方法 |
CN116486337A (zh) * | 2023-04-25 | 2023-07-25 | 江苏图恩视觉科技有限公司 | 一种基于图像处理的数据监测系统及方法 |
CN116311084B (zh) * | 2023-05-22 | 2024-02-23 | 青岛海信网络科技股份有限公司 | 一种人群聚集的检测方法及视频监控设备 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101159855A (zh) * | 2007-11-14 | 2008-04-09 | 南京优科漫科技有限公司 | 基于特征点分析的多目标分离预测方法 |
CN101751553A (zh) * | 2008-12-03 | 2010-06-23 | 中国科学院自动化研究所 | 一种大规模人群密度分析和预测方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8443341B2 (en) * | 2006-11-09 | 2013-05-14 | Rogue Wave Software, Inc. | System for and method of capturing application characteristics data from a computer system and modeling target system |
-
2014
- 2014-02-14 CN CN201410051592.XA patent/CN103839065B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101159855A (zh) * | 2007-11-14 | 2008-04-09 | 南京优科漫科技有限公司 | 基于特征点分析的多目标分离预测方法 |
CN101751553A (zh) * | 2008-12-03 | 2010-06-23 | 中国科学院自动化研究所 | 一种大规模人群密度分析和预测方法 |
Non-Patent Citations (2)
Title |
---|
一种基于YUV颜色空间的新码书模型;赵谦,朱华伟等;《计算机工程与应用》;20130831;159页 * |
基于视频图像分析的旅客群体性事件预警方法;邵荃,唐志星等;《解放军理工大学学报(自然科学版)》;20131031;502-503页 * |
Also Published As
Publication number | Publication date |
---|---|
CN103839065A (zh) | 2014-06-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103839065B (zh) | 人群动态聚集特征提取方法 | |
CN110059581A (zh) | 基于场景深度信息的人群计数方法 | |
CN103824070B (zh) | 一种基于计算机视觉的快速行人检测方法 | |
CN105260738B (zh) | 基于主动学习的高分辨率遥感影像变化检测方法及系统 | |
CN105528794A (zh) | 基于混合高斯模型与超像素分割的运动目标检测方法 | |
CN110135296A (zh) | 基于卷积神经网络的机场跑道fod检测方法 | |
CN102915446A (zh) | 基于svm机器学习的植物病虫害检测方法 | |
CN104732236B (zh) | 一种基于分层处理的人群异常行为智能检测方法 | |
CN104077605A (zh) | 一种基于颜色拓扑结构的行人搜索识别方法 | |
CN110084165A (zh) | 基于边缘计算的电力领域开放场景下异常事件的智能识别与预警方法 | |
CN104751136A (zh) | 一种基于人脸识别的多相机视频事件回溯追踪方法 | |
CN106023257A (zh) | 一种基于旋翼无人机平台的目标跟踪方法 | |
CN104376334B (zh) | 一种多尺度特征融合的行人比对方法 | |
CN109034035A (zh) | 基于显著性检测和特征融合的行人重识别方法 | |
CN104715244A (zh) | 一种基于肤色分割和机器学习的多视角人脸检测方法 | |
CN103390151B (zh) | 人脸检测方法及装置 | |
CN109344842A (zh) | 一种基于语义区域表达的行人重识别方法 | |
CN109918971A (zh) | 监控视频中人数检测方法及装置 | |
CN106127812A (zh) | 一种基于视频监控的客运站非出入口区域的客流统计方法 | |
CN106485273A (zh) | 一种基于hog特征与dnn分类器的人脸检测方法 | |
Chen et al. | Agricultural remote sensing image cultivated land extraction technology based on deep learning | |
CN107392254A (zh) | 一种通过联合嵌入从像素中构造图像的语义分割方法 | |
CN102163285A (zh) | 一种基于主动学习的跨域视频语义概念检测方法 | |
CN103489012A (zh) | 一种基于支持向量机的人群密集度检测方法及系统 | |
CN108830882A (zh) | 视频异常行为实时检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |