CN102156880B - 基于改进的社会力模型的异常集群行为检测方法 - Google Patents
基于改进的社会力模型的异常集群行为检测方法 Download PDFInfo
- Publication number
- CN102156880B CN102156880B CN2011100904676A CN201110090467A CN102156880B CN 102156880 B CN102156880 B CN 102156880B CN 2011100904676 A CN2011100904676 A CN 2011100904676A CN 201110090467 A CN201110090467 A CN 201110090467A CN 102156880 B CN102156880 B CN 102156880B
- Authority
- CN
- China
- Prior art keywords
- particle
- pedestrian
- rectangular block
- prime
- foreground pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
一种视频图像处理技术领域的基于改进的社会力模型的异常集群行为检测方法,用于解决复杂高密集度场景中人群异常行为的检测与定位,考虑到行人速度对相互间作用力的影响,使其更好的描述行人间的相互作用力,即行人受到的社会力。用光流法跟踪均匀分布在前景像素中的粒子,得到行人的速度场,用改进的社会力模型,计算出行人受到的社会力。统计每个前景矩形块中行人的速度和受力,设定阈值,判断每个矩形块中行人行为不稳定性的级别,并视不稳定性高的矩形块为异常块,既能够检测异常行为又能通过矩形块对异常行为进行了准确的定位。
Description
技术领域
本发明涉及的是一种视频图像处理技术领域的方法,具体是一种基于改进的社会力模型的异常集群行为检测方法。
背景技术
随着世界人口的快速增长和社会安全意识的提高,越来越多的学者开始关注集群行为的研究。在视频监控领域中,计算机视觉研究人员对集群行为分析的方法可以归纳为三类:一类是传统的,基于对象的研究,也就是将群体看做是有个人组成的;另一类是采用整体布局的思想,将人群看做是一个统一的整体。在第一类研究方法中,由于其关注个体,实现过程一般需要对目标进行分割、检测,计算复杂度较高,而且目标的检测和轨迹跟踪往往受到高密集度和严重遮挡的影响,在实际场景复杂的情况下效果并不好。第二类研究方法主要从整体出发,不关注个人行为,对整体的人群布局,整体场景建模,以获得群体特征,实现过程较第一类方法更加简单,在高密集度和遮挡严重的实际场景中结果也更加准确;第三类方法出现在2008年,将以上两种方法做了有效的结合,既考虑个人行为,又考虑整个场景布局进行整体特征的提取,更有针对性的解决了密集人群中个人行为分析的问题,是今后集群分析领域的趋势。
经对现有技术文献的检索发现,Ramin Mehran等人在2009年《IEEE InternationalConference on Computer Vision and Pattern Recognition》(IEEE机器视觉和模式识别国际会议)上发表的“Abnormal crowd behavior detection using social force model”(用社会力模型检测异常集群行为)提出了用社会力模型描述集群行为的方法,该方法用光流法跟踪均匀分布在视频范围内的粒子,运用社会力模型间接计算社会力的方法将粒子的速度场转换为行人间的社会力,避免了行人目标的检测、分割和跟踪等复杂过程,因此计算量大大减小且更易实现。该模型是一种结合了社会心理学和物理力学描述人群中行人行为的模型。该模型本身表示的是因群体中的个体间相互作用力而表现出的群体行为特征,属于上述三种方法的第三类,因此是简洁而高效的,相比现有方法更适用于高密集度,严重遮挡的场景。另外,该方法采用k-means算法,对得到的社会力聚类得到码书,并用“Bag of Words”方法统计每段视频中码书中关键词出现的频率。最后用“Latent Dirichlet allocation”(隐Dirichlet分布)法对视频进行分类。由于该方法需要统计整个视频帧中的社会力分布,因此只能判断视频帧的异常与正常,不能对异常事件进行准确的定位,因此存在很大的局限性。另外,该方法直接表示行人受到的总的作用力和行人对自己的作用力,通过两者的差值间接计算行人间的相互作用力,也就是社会力,计算结果并不理想,因此需要进一步挖掘出能够更好的利用社会力模型表述行人受到的作用力的方法。
发明内容
本发明针对现有技术存在的上述不足,提供一种基于改进的社会力模型的异常集群行为检测方法,用于解决复杂高密集度场景中人群异常行为的检测与定位,考虑到行人速度对相互间作用力的影响,使其更好的描述行人间的相互作用力,即行人受到的社会力。用光流法跟踪均匀分布在前景像素中的粒子,得到行人的速度场,用改进的社会力模型,计算出行人受到的社会力。统计每个前景矩形块中行人的速度和受力,设定阈值,判断每个矩形块中行人行为不稳定性的级别,并视不稳定性高的矩形块为异常块,既能够检测异常行为又能通过矩形块对异常行为进行了准确的定位。
本发明是通过以下技术方案实现的,本发明包括以下几个步骤:
第一步、从视频序列中得到背景图像,用背景减除法提取前景图像,然后进行分块及粒子提取并实时更新背景图像。
所述的背景减除法是指:提取视频序列的第一帧作为初始背景B0(x,y),通过k帧更新得到较准确的背景图像为Bk(x,y),第k帧原始图像为Ik(x,y)读入,通过背景减除法得到前景图像Fk(x,y)=Ik(x,y)-Bk(x,y)。
所述的背景更新是指:背景图像根据当前输入图像Ik(x,y)和前一帧背景图像Bk-1(x,y)的加权和不断更新,具体表示如下,其中α为背景更新速率:
Bk(x,y)=(1-α)Bk-1+αIk(x,y)
所述的分块及粒子提取包括以下步骤:
1.1)在视频图像大小为m×n的范围内每隔M个像素放置一个粒子pi′,并将视频帧分割为固定大小为Rw×Rh的矩形块{bl′},其中:M=5~10,i′∈(1,N′),N′为总的粒子数,l′∈(1,Bn′),Bn′为总的矩形块个数。
所述的放置是指:标记视频范围内感兴趣的像素点,即需要跟踪的像素点。
所述的粒子是指:视频范围内感兴趣的像素点,即需要跟踪的像素点pi′=pi′(xi′,yi′),xi′,yi′分别为该粒子所处的横纵坐标位置。
1.2)提取出包含前景像素的矩形块{bl}和位于前景像素的粒子pi,其中:,l∈(1,Bn),Bn为包含前景像素的矩形块个数,且Bn<Bn′,i∈(1,N),N为位于前景像素的粒子,N<N′。
所述的提取是指:舍弃位于背景图像像素范围内的矩形块和粒子,标记位于前景像素中的矩形块和粒子,即判断粒子pi是否属于前景像素,若属于则认为pi位于前景像素,对于矩形块bl则判断其是否包含前景像素,若包含BP%以上前景像素则认为bl包含前景像素,其中BP=10。
所述的前景像素的判断基准为:第k帧内任一像素pixel(xi,yi)在前景图像Ik(x,y)氛围内,即判断pixel(xi,yi)∈Ik(x,y)是否成立,若成立则属于前景像素;反之,则不属于。
第二步、用光流法跟踪视频序列中位于前景像素的粒子pi,由两帧间的粒子位移计算出粒子的速度场V(xi,yi)″,利用粒子位移约束条件排除噪声点和跟踪错误的影响得到V(xi,yi)′,再根据场景的不同对求得的速度场V(xi,yi)′归一化,得到实际V(xi,yi),其中:(xi,yi)表示第i个粒子的横纵坐标,i∈(1,N′)。
所述的光流法是指:Lucas-Kanade光流算法,一种基于局部平滑性约束来求解的两帧差分的光流估计算法,是在相邻图像之间的时间间隔很小并且图像中灰度变化很小的假设下提出的,为减缓该假设条件带来的不利后果,采用了金字塔方法来降低图像的分辨率。
所述的速度场的具体计算公式为:对于任意粒子pi由光流法可得其在前后两帧的不同位置,分别为(xi,yi)和(xi′,yi′),其中xi,yi为粒子pi在前一帧物理位置的横纵坐标,xi′,yi′为粒子pi在后一帧物理位置的横纵坐标,Vx=xi′-xi,Vy=yi′-yi,Vx,Vy分别为速度场V(xi,yi)″的横纵坐标分量,且V(xi,yi)″=(Vx,Vy)。
所述的粒子位移约束条件是指:根据对视频场景的先验知识,约束粒子位移的最小值和最大值,设定最小值为Vmin,最大值为Vmax,并记粒子实际位移为V(xi,yi),当位移小于最小值则为噪声点;当位移大于最大值则为跟踪错误的点:
所述的归一化是指:由于行人运动速度随场景深度增大的带来的损失正比于行人身高随场景深度增大的带来的损失,因此:h=(βy+1)h0,其中:h0为行人在视频中深度最大位置,即离摄像头最远身高,y为场景深度,h为行人在视频中不同场景深度观测到的身高,β值通过以下方式得到:选取同一视频场景中P个不同的行人,记录他们在不同场景深度y对应的身高h,用最小二乘法拟合曲线得到β的值,则有实际速度
其中:θi,j=arccos(-vi,vi-vj),表示行人i,j速度方向的差异,ω为各向异性的权重值,表达式前面一项表示i,j速度大小差异对的影响,后面一项表示i,j速度方向差异对的影响,的完整形式具体表示如下:
其中:周围行人j对i的作用力为fij,bi为常数;di,j=‖xi-xj‖表示两个行人重心间的距离,xi和xj分别是行人i和j的重心位置;nij=(xi-xj)/dij表示从行人j指向i的单位向量;表示行人j在与i中心连线与行人i行走方向ei的夹角,即行人j在i的视野范围内的位置,行人j越靠近行人i的视野中心,对行人i的影响越大,λ为各向异性的比重。
所述的社会力大小F(xi,yi)通过以下方式计算得到:
3.1)对位于前景像素的粒子pi,得到其物理位置为(xi,yi),速度为vi=V(xi,yi)=(Vx,Vy),Vx和Vy分别为x和y轴的速度分量,设定影响粒子pi的范围为W×W的窗口,超出窗口范围的粒子视为对粒子pi无影响,遍历所有在以pi为中心,W×W窗口范围内的位于前景像素的粒子pj;
所述的均值通过以下方式得到:
I)统计矩形块bl中受力不为零的粒子个数,nl;
所述的训练视频序列是指:所有视频序列的一个子集,即用所有视频序列中的一部分来得到异常行为检测所需的检测参数,如以下步骤五中的C个不同的人群不稳定度。
所述的K-means算法是指:基于距离的聚类算法,采用距离作为相似性的评价指标,即认为两个对象的距离越近,其相似度就越大。该算法认为簇是由距离靠近的对象组成的,因此把得到紧凑且独立的簇作为最终目标。
所述的匹配是指:找到测试序列中每个前景矩形块的平均速度与平均受力与第几类聚类中心之间欧氏距离最小,则说明该前景矩形块与该聚类中心匹配。
所述的C个不同的人群不稳定性程度是指:C种不同的人群状态,其不稳定性由低到高依次指:行人行驶速度较慢,受到的社会力很小;行人行驶速度较慢,受到的社会力较大;行人行驶速度较快,受到的社会力较小;行人行驶速度较块,受到的社会力很大。这四种不同的人群状态反应了人群不稳定性程度大小,人群的不稳定性程度可以作为衡量人群是否异常状态的指标,人群不稳定性越大,人群越有可能处于异常状态。具体将不稳定性程度由低到高表示为C1级、C2级、C3级和C4级,若前景矩形块bt的平均速度和平均受力与第m个聚类结果匹配,且当同时成立,bt不稳定程度为C1级;当同时成立,bt不稳定程度为C2级;当同时成立,bt不稳定程度为C3级;当同时成立,bt不稳定程度为C4级,如图5所示为本方法对集群行为4个级别不稳定性的检测示意图,不稳定性程度由低到高为C1级、C2级、C3级和C4级,分别用蓝色、绿色、黄色和红色表示。
所述的高度不稳定性的确切数值依据是:当bt的不稳定程度大于C2级,即为C3,C4级时,视为具有高度不稳定度区域。
第六步、根据前景矩形块不稳定性程度的统计特性,判断关键帧是否为异常帧,即检测异常帧。
所述的关键帧是指:设定每经过F帧有一帧为关键帧。
所述的判断关键帧是否为异常是指:设定阈值Th,当该关键帧的前景矩形块不稳定性程度的统计特性c>Th时判断该帧为异常帧。
本发明的原理是,考虑到行人速度对行人间相互作用力的影响,采用改进的社会力模型。考虑影响行人i受到的社会力的四方面因素:行人i与周围行人j间的距离di,j,周围行人j的位置与行人i视野中心的夹角θi,j,行人i与j的速度大小的偏差‖vj-vi‖,及方向的偏差综合考虑着四种因素,直接计算社会力,能够简洁准确描述行人受到的外界作用力。
与现有技术相比,本发明考虑到行人速度对行人间相互作用力的影响,改进了原有的社会力模型,能够更好的描述行人间的相互作用力,选取社会力与速度场作为衡量人群不稳定性的标准,能够有效检测异常的集群行为。基于前景矩形块的异常行为检测,可以准确定位异常事件发生的位置。本发明的检测率高达90%。
附图说明
图1是本发明利用改进的社会力模型进行异常行为检测工作流程图。
图2是本发明步骤一初始化粒子和提取前景矩形块的示意。
图3是本发明改进的社会力模型中个物理量的示意图。
图4是本发明计算得到的速度场和社会力场示意图。
图5是本发明对集群行为4个级别不稳定性的检测示意图。
图6是本发明对3个场景的异常帧检测示意图。
具体实施方式
下面对本发明的实施例作详细说明,本实施例在以本发明技术方案为前提下进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
实施例
如图1所示,本实施例包括以下步骤:
第一步、从视频序列中得到背景图像,用背景减除法提取前景图像,然后进行分块及粒子提取并实时更新背景图像。
所述的背景减除法是指:提取视频序列的第一帧作为初始背景B0(x,y),通过k帧更新得到较准确的背景图像为Bk(x,y),第k帧原始图像为Ik(x,y)读入,通过背景减除法得到前景图像Fk(x,y)=Ik(x,y)-Bk(x,y)。
所述的背景更新是指:背景图像根据当前输入图像Ik(x,y)和前一帧背景图像Bk-1(x,y)的加权和不断更新,具体表示如下,其中α为背景更新速率:
Bk(x,y)=(1-α)Bk-1+αIk(x,y)
所述的分块及粒子提取包括以下步骤:
1.1)在视频图像大小为m×n的范围内每隔M个像素放置一个粒子pi′,并将视频帧分割为固定大小为Rw×Rh的矩形块{bl′},其中:M=5~10,i′∈(1,N′),N′为总的粒子数,l′∈(1,Bn′),Bn′为总的矩形块个数。
所述的放置是指:标记视频范围内感兴趣的像素点,即需要跟踪的像素点。
所述的粒子是指:视频范围内感兴趣的像素点,即需要跟踪的像素点pi′=pi′(xi′,yi′),xi′,yi′分别为该粒子所处的横纵坐标位置。
1.2)提取出包含前景像素的矩形块{bl}和以及位于前景像素的粒子pi,其中:,l∈(1,Bn),Bn为包含前景像素的矩形块个数,且Bn<Bn′,i∈(1,N),N位于前景图像的粒子个数,N<N′,Rw=20,Rh=30。
所述的提取是指:舍弃位于背景图像像素范围内的矩形块和粒子,标记位于前景像素中的矩形块和粒子,即判断粒子pi是否属于前景像素,若属于则认为pi位于前景像素,对于矩形块bl则判断其是否包含前景像素,若包含BP%以上前景像素则认为bl包含前景像素,其中BP=10。
所述的前景像素的判断基准为:第k帧内任一像素pixel(xi,yi)在前景图像Ik(x,y)氛围内,即判断pixel(xi,yi)∈Ik(x,y)是否成立,若成立则属于前景像素;反之,则不属于。
该实施例视频序列大小为m=320,n=240,矩形块大小为Rw=20,Rh=30,放置粒子间隔M=5,粒子总数为N′=(m/M)×(n/M)=3072,Bn′=(m/Rw)×(n/Rh)=128,背景更新速率α=0.01。
第二步、用光流法跟踪视频序列中位于前景像素的粒子pi,由两帧间的粒子位移计算出粒子的速度场V(xi,yi)″,利用粒子位移约束条件排除噪声点和跟踪错误的影响得到V(xi,yi)′,再根据场景的不同对求得的速度场V(xi,yi)′归一化,得到实际速度V(xi,yi),其中:(xi,yi)表示第i个粒子的横纵坐标,i∈(1,N′)。
所述的光流法是指:Lucas-Kanade光流算法,一种基于局部平滑性约束来求解的两帧差分的光流估计算法,是在相邻图像之间的时间间隔很小并且图像中灰度变化很小的假设下提出的,为减缓该假设条件带来的不利后果,采用了金字塔方法来降低图像的分辨率。
所述的速度场的具体计算公式为:对于任意粒子pi由光流法可得其在前后两帧的不同位置,分别为(xi,yi)和(xi′,yi′),其中xi,yi为粒子pi在前一帧物理位置的横纵坐标,xi′,yi′为粒子pi在后一帧物理位置的横纵坐标,Vx=xi′-xi,Vy=yi′-yi,Vx,Vy分别为速度场V(xi,yi)″的横纵坐标分量V(xi,yi)″=(Vx,Vy)。
所述的粒子位移约束条件是指:根据对视频场景的先验知识,约束粒子位移的最小值和最大值,设定最小值为Vmin,最大值为Vmax,并记粒子实际位移为V(xi,yi),当位移小于最小值则为噪声点;当位移大于最大值则为跟踪错误的点:
所述的归一化是指:由于行人运动速度随场景深度增大的带来的损失正比于行人身高随场景深度增大的带来的损失,因此:h=(βy+1)h0,其中:h0为行人在视频中深度最大位置,即离摄像头最远身高,y为场景深度,h为行人在视频中不同场景深度观测到的身高,β值通过以下方式得到:选取同一视频场景中P个不同的行人,记录他们在不同场景深度y对应的身高h,用最小二乘法拟合曲线得到β的值,则有实际速度
该实施例中Vmin=0.01,Vmax=30,求得β=0.0043。
其中:θi,j=arccos(-vi,vi-vj),表示行人i,j速度方向的差异,ω为各向异性的权重值,表达式前面一项表示i,j速度大小差异对的影响,后面一项表示i,j速度方向差异对的影响,的完整形式具体表示如下:
其中:周围行人j对i的作用力为fij,bi为常数;di,j=‖xi-xj‖表示两个行人重心间的距离,xi和xj分别是行人i和j的重心位置;nij=(xi-xj)/dij表示从行人j指向i的单位向量;表示行人j在与i中心连线与行人i行走方向ei的夹角,即行人j在i的视野范围内的位置,行人j越靠近行人i的视野中心,对行人i的影响越大,λ为各向异性的比重。
所述的社会力大小F(xi,yi)通过以下方式计算得到:
3.1)对位于前景像素的粒子pi,得到其物理位置为(xi,yi),速度为vi=V(xi,yi)=(Vx,Vy),Vx和Vy分别为x和y轴的速度分量,设定影响粒子pi的范围为W×W的窗口,超出窗口范围的粒子视为对粒子pi无影响,遍历所有在以pi为中心,W×W窗口范围内的位于前景像素的粒子pj;
3.3)计算所有粒子pj和pi间相互作用力的总和
I)统计矩形块bl中受力不为零的粒子个数nl;
该实施例中W=100。
所述的训练视频序列是指:所有视频序列的一个子集,即用所有视频序列中的一部分来得到异常行为检测所需的检测参数,如以下步骤五中的C个不同的人群不稳定度。
所述的K-means算法是指:基于距离的聚类算法,采用距离作为相似性的评价指标,即认为两个对象的距离越近,其相似度就越大。该算法认为簇是由距离靠近的对象组成的,因此把得到紧凑且独立的簇作为最终目标。
本实施例中K=20。
所述的匹配是指:找到测试序列中每个前景矩形块的平均速度与平均受力与第几类聚类中心之间欧氏距离最小,则说明该前景矩形块与该聚类中心匹配。
所述的C个不同的人群不稳定性程度是指:C种不同的人群状态,其不稳定性由低到高依次指:行人行驶速度较慢,受到的社会力很小;行人行驶速度较慢,受到的社会力较大;行人行驶速度较快,受到的社会力较小;行人行驶速度较块,受到的社会力很大。这四种不同的人群状态反应了人群不稳定性程度大小,人群的不稳定性程度可以作为衡量人群是否异常状态的指标,人群不稳定性越大,人群越有可能处于异常状态。具体将不稳定性程度由低到高表示为C1级、C2级、C3级和C4级,若前景矩形块bt的平均速度和平均受力与第m个聚类结果匹配,且当同时成立,bt不稳定程度为C1级;当同时成立,bt不稳定程度为C2级;当同时成立,bt不稳定程度为C3级;当同时成立,bt不稳定程度为C4级,如图5所示为本方法对集群行为4个级别不稳定性的检测示意图,不稳定性程度由低到高为C1级、C2级、C3级和C4级,分别用蓝色、绿色、黄色和红色表示。
所述的高度不稳定性的确切数值依据是:当bt的不稳定程度大于C2级,即为C3,C4级时,视为具有高度不稳定度区域。
本实施例中C=4,Tv=37,
第六步、根据前景矩形块不稳定性程度的统计特性,判断关键帧是否为异常帧,即检测异常帧。
所述的关键帧是指:设定每经过F帧有一帧为关键帧。
所述的判断关键帧是否为异常是指:设定阈值Th,当该关键帧的前景矩形块不稳定性程度的统计特性c>Th时判断该帧为异常帧。
本实施例中F=5,Th=10%。
实施效果
依据上述步骤,对UMN Dataset(明尼苏达大学数据库)进行异常集群行为的检测。该数据库有11段包括正常集群行为和异常集群行为的视频,视频包括3种不同的室内外场景,分别为场景1,场景2,场景3。所有试验均在PC计算机上实现,该PC计算机的主要参数为:中央处理器IntelCoreTM 2 Duo CPU E6600 2.40GHz,内存2GB。
本方法对三个场景的异常行为平均检测率为90%。相比现有技术,本方法的优势为不仅能够检测异常帧,还能够判断帧内各个区域的不稳定性程度,检测帧内异常区域并定位该区域。
Claims (10)
1.一种基于改进的社会力模型的异常集群行为检测方法,其特征在于,包括以下几个步骤:
第一步、从训练视频序列中得到背景图像,用背景减除法提取前景图像,然后进行分块及粒子提取并实时更新背景图像;
第二步、用光流法跟踪训练视频序列中位于前景像素的粒子pi,由两帧间的粒子位移计算出粒子的速度场V(xi,yi)″,利用粒子位移约束条件排除噪声点和跟踪错误的影响得到V(xi,yi)′,再根据场景的不同对求得的速度场V(xi,yi)′归一化,得到实际速度V(xi,yi),其中:(xi,yi)表示第i个粒子的横纵坐标,i∈(1,N′)N′为总的粒子数;
第三步、根据改进的社会力模型计算每个粒子处受到的相互社会力的大小F(xi,yi),分别统计每个由第一步分得的前景矩形块bl中V(xi,yi)和F(xi,yi)的均值其中:i∈bl,下标l∈(1,Bn),Bn为包含前景像素的前景矩形块个数;
第六步、根据前景矩形块不稳定性程度的统计特性,判断关键帧是否为异常帧,即检测异常帧。
2.根据权利要求1所述的基于改进的社会力模型的异常集群行为检测方法,其特征是,所述的背景减除法是指:提取训练视频序列的第一帧作为初始背景B0(x,y),通过k帧更新得到较准确的背景图像为Bk(x,y),读入第k帧原始图像Ik(x,y),通过背景减除法得到前景图像Fk(x,y)=Ik(x,y)-Bk(x,y)。
3.根据权利要求1所述的基于改进的社会力模型的异常集群行为检测方法,其特征是,所述的更新背景图像是指:背景图像根据当前第k帧原始图像Ik(x,y)和前一帧背景图像Bk-1(x,y)的加权和不断更新,具体表示如下,其中α为背景更新速率:Bk(x,y)=(1-α)Bk-1+αIk(x,y)
4.根据权利要求1所述的基于改进的社会力模型的异常集群行为检测方法,其特征是,所述的分块及粒子提取包括以下步骤:
1.1)在视频图像大小为m×n的范围内每隔M个像素放置一个粒子pi′,并将视频帧分割为固定大小为Rw×Rh的前景矩形块{bl′},其中:M=5~10,i′∈(1,N′),N′为总的粒子数,l′∈(1,Bn′),Bn′为总的前景矩形块个数;
1.2)提取出包含前景像素的前景矩形块{bl}和以及位于前景像素的粒子pi,其中:l∈(1,Bn),Bn为包含前景像素的矩形块个数,且Bn<Bn′,i∈(1,N),N位于前景图像的粒子个数,N<N′。
5.根据权利要求1所述的基于改进的社会力模型的异常集群行为检测方法,其特征是,所述的提取是指:舍弃位于背景图像像素范围内的前景矩形块和粒子,标记位于前景像素中的前景矩形块和粒子,即判断粒子pi是否属于前景像素,若属于则认为pi位于前景像素,对于前景矩形块bl则判断其是否包含前景像素,若包含BP%以上前景像素则认为bl包含前景像素,其中BP=10;其中:前景像素的判断基准为:第k帧内任一像素pixel(xi,yi)在前景图像Ik(x,y)氛围内,即判断pixel(xi,yi)∈Ik(x,y)是否成立,若成立则属于前景像素;反之,则不属于。
6.根据权利要求1所述的基于改进的社会力模型的异常集群行为检测方法,其特征是,所述的速度场的具体计算公式为:对于任意粒子pi由光流法可得其在前后两帧的不同位置,分别为(xi,yi)和(xi′,yi′),其中xi,yi为粒子pi在前一帧物理位置的横纵坐标,xi′,yi′为粒子pi在后一帧物理位置的横纵坐标,Vx=xi′-xi,Vy=yi′-yi,Vx,Vy分别为速度场V(xi,yi)″的横纵坐标分量,且V(xi,yi)″=(Vx,Vy)。
7.根据权利要求1所述的基于改进的社会力模型的异常集群行为检测方法,其特征是,所述的粒子位移约束条件是指:根据对视频场景的先验知识,约束粒子位移的最小值和最大值,设定最小值为Vmin,最大值为Vmax,并记粒子实际位移为V(xi,yi),当位移小于最小值则为噪声点;当位移大于最大值则为跟踪错误的点:
8.根据权利要求1所述的基于改进的社会力模型的异常集群行为检测方法,其特征是,所述的归一化是指:由于行人运动速度随场景深度的增大带来的损失正比于行人身高随场景深度增大的带来的损失,因此:h=(βy+1)h0,其中:h0为行人在视频中深度最大位置,即离摄像头最远身高,y为场景深度,h为行人在视频中不同场景深度观测到的身高,β值通过以下方式得到:选取同一视频场景中P个不同的行人,记录他们在不同场景深度y对应的身高h,用最小二乘法拟合曲线得到β的值,则有 实际速度
其中:θi,j=arccos(-vi,vi-vj),表示行人i,j速度方向的差异,ω为各向异性的权重值,a′i表达式前面一项表示i,j速度大小差异对的影响,后面一项表示i,j速度方向差异对的影响,的完整形式具体表示如下:
10.根据权利要求1所述的基于改进的社会力模型的异常集群行为检测方法,其特征是,第三步中,所述的社会力大小F(xi,yi)通过以下方式计算得到:
3.1)对位于前景像素的粒子pi,得到其物理位置为(xi,yi),速度为vi=V(xi,yi)=(Vx,Vy),Vx和Vy分别为x和y轴的速度分量,设定影响粒子pi的范围为W×W的窗口,超出窗口范围的粒子视为对粒子pi无影响,遍历所有在以pi为中心,W×W窗口范围内的位于前景像素的粒子pj;
I)统计前景矩形块bl中受力不为零的粒子个数nl;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2011100904676A CN102156880B (zh) | 2011-04-11 | 2011-04-11 | 基于改进的社会力模型的异常集群行为检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2011100904676A CN102156880B (zh) | 2011-04-11 | 2011-04-11 | 基于改进的社会力模型的异常集群行为检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102156880A CN102156880A (zh) | 2011-08-17 |
CN102156880B true CN102156880B (zh) | 2013-01-09 |
Family
ID=44438370
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2011100904676A Active CN102156880B (zh) | 2011-04-11 | 2011-04-11 | 基于改进的社会力模型的异常集群行为检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102156880B (zh) |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102325250B (zh) * | 2011-10-13 | 2013-05-22 | 交通运输部公路科学研究所 | 基于社会力模型的监控系统 |
CN102682303B (zh) * | 2012-03-13 | 2014-04-30 | 上海交通大学 | 基于lbp加权社会力模型的人群异常事件检测方法 |
CN102831611B (zh) * | 2012-08-21 | 2015-12-09 | 北京捷成世纪科技股份有限公司 | 一种电视节目中挂角广告的提取方法及装置 |
CN103020591B (zh) * | 2012-11-21 | 2015-09-16 | 燕山大学 | 一种基于因果网络分析的中等规模人群异常行为检测方法 |
CN104077571B (zh) * | 2014-07-01 | 2017-11-14 | 中山大学 | 一种采用单类序列化模型的人群异常行为检测方法 |
CN104680559B (zh) * | 2015-03-20 | 2017-08-04 | 青岛科技大学 | 基于运动行为模式的多视角室内行人跟踪方法 |
CN105023271B (zh) * | 2015-06-25 | 2017-11-14 | 西北工业大学 | 基于多线索信息的行为集体度衡量方法 |
CN104992189B (zh) * | 2015-07-22 | 2018-07-27 | 河海大学常州校区 | 基于深度学习网络模型的鱼群异常行为识别方法 |
CN105678811B (zh) * | 2016-02-25 | 2019-04-02 | 上海大学 | 一种基于运动检测的人体异常行为检测方法 |
CN106022234B (zh) * | 2016-05-13 | 2021-06-22 | 中国人民解放军国防科学技术大学 | 基于光流计算的异常拥挤行为检测算法 |
CN106845389B (zh) * | 2017-01-18 | 2019-09-06 | 山东大学 | 一种基于方向-集群性模型的人群逃散事件检测方法及系统 |
CN106874885B (zh) * | 2017-03-03 | 2020-10-16 | 燕山大学 | 一种基于能级分布变化的人群异常检测方法 |
CN107220597B (zh) * | 2017-05-11 | 2020-07-24 | 北京化工大学 | 一种基于局部特征和词袋模型人体动作识别过程的关键帧选取方法 |
CN107481260A (zh) * | 2017-06-22 | 2017-12-15 | 深圳市深网视界科技有限公司 | 一种区域人群滞留检测方法、装置和存储介质 |
CN108197566B (zh) * | 2017-12-29 | 2022-03-25 | 成都三零凯天通信实业有限公司 | 一种基于多路神经网络的监控视频行为检测方法 |
CN109242886B (zh) * | 2018-09-06 | 2021-03-12 | 中国人民解放军63921部队 | 一种空间集群目标运动轨迹建模与预报方法 |
CN110009800B (zh) * | 2019-03-14 | 2023-04-07 | 北京京东乾石科技有限公司 | 一种识别方法和设备 |
CN110097028B (zh) * | 2019-05-14 | 2021-03-30 | 河北工业大学 | 基于三维金字塔图像生成网络的人群异常事件检测方法 |
CN110222616B (zh) * | 2019-05-28 | 2021-08-31 | 浙江大华技术股份有限公司 | 行人异常行为检测方法、图像处理装置及存储装置 |
CN110378200A (zh) * | 2019-06-03 | 2019-10-25 | 特斯联(北京)科技有限公司 | 一种基于行为特征聚类的智能安防提示设备与方法 |
CN110378233B (zh) * | 2019-06-20 | 2021-03-09 | 上海交通大学 | 一种基于人群行为先验知识的双分支异常检测方法 |
CN110673191B (zh) * | 2019-09-23 | 2021-04-23 | 北京永新医疗设备有限公司 | 通道式放射源定位系统及方法 |
CN113312980B (zh) * | 2021-05-06 | 2022-10-14 | 华南理工大学 | 一种视频密集描述方法、装置及介质 |
US20230282030A1 (en) * | 2022-03-01 | 2023-09-07 | Honeywell International Inc. | Erratic behavior detection in a video stream |
CN118096815B (zh) * | 2024-04-23 | 2024-07-09 | 山东博安智能科技股份有限公司 | 一种基于机器视觉的道路非常态事件检测系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101561928A (zh) * | 2009-05-27 | 2009-10-21 | 湖南大学 | 基于属性关系图外观模型的多人体跟踪方法 |
CN101770578A (zh) * | 2010-03-24 | 2010-07-07 | 上海交通大学 | 图像特征提取方法 |
-
2011
- 2011-04-11 CN CN2011100904676A patent/CN102156880B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101561928A (zh) * | 2009-05-27 | 2009-10-21 | 湖南大学 | 基于属性关系图外观模型的多人体跟踪方法 |
CN101770578A (zh) * | 2010-03-24 | 2010-07-07 | 上海交通大学 | 图像特征提取方法 |
Non-Patent Citations (1)
Title |
---|
Lianyang Ma等.Human Motion Recognition in Video.《Fifth International Conference on Fuzzy Systems and Knowledge Discovery》.2008, * |
Also Published As
Publication number | Publication date |
---|---|
CN102156880A (zh) | 2011-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102156880B (zh) | 基于改进的社会力模型的异常集群行为检测方法 | |
Wu et al. | A Bayesian model for crowd escape behavior detection | |
CN105447458B (zh) | 一种大规模人群视频分析系统和方法 | |
Ma et al. | Experimental study on microscopic moving characteristics of pedestrians in built corridor based on digital image processing | |
CN102324016B (zh) | 一种高密度人群流量统计方法 | |
CN103077423B (zh) | 基于视频流的人群数量估计、局部人群聚集状态以及人群跑动状态检测方法 | |
CN103310444B (zh) | 一种基于头顶摄像头的监控行人计数的方法 | |
CN103218816B (zh) | 一种基于视频分析的人群密度估计方法与人流量统计方法 | |
CN106203513B (zh) | 一种基于行人头肩多目标检测及跟踪的统计方法 | |
CN105844234A (zh) | 一种基于头肩检测的人数统计的方法及设备 | |
CN103258193B (zh) | 一种基于kod能量特征的群体异常行为识别方法 | |
CN106203274A (zh) | 一种视频监控中行人实时检测系统及方法 | |
CN104680557A (zh) | 视频序列图像中的异常行为智能检测方法 | |
CN102930248A (zh) | 基于机器学习的人群异常行为检测方法 | |
CN102592138B (zh) | 基于多模块稀疏投影的密集场景目标跟踪方法 | |
CN103164711A (zh) | 基于像素和支持向量机的区域人流密度估计的方法 | |
CN102682303A (zh) | 基于lbp加权社会力模型的人群异常事件检测方法 | |
CN102214359B (zh) | 基于层级式特征匹配的目标跟踪装置 | |
Zhao et al. | Crowd instability analysis using velocity-field based social force model | |
CN111191667A (zh) | 基于多尺度生成对抗网络的人群计数方法 | |
CN106127812A (zh) | 一种基于视频监控的客运站非出入口区域的客流统计方法 | |
CN103325115A (zh) | 一种基于头顶摄像头的监控行人计数的方法 | |
Li et al. | A top–bottom clustering algorithm based on crowd trajectories for small group classification | |
CN110427855A (zh) | 一种利用累积光流对人群异常行为识别定位的算法 | |
CN104077571B (zh) | 一种采用单类序列化模型的人群异常行为检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |