CN108596157B - 一种基于运动检测的人群惊扰场景检测方法及系统 - Google Patents

一种基于运动检测的人群惊扰场景检测方法及系统 Download PDF

Info

Publication number
CN108596157B
CN108596157B CN201810458062.5A CN201810458062A CN108596157B CN 108596157 B CN108596157 B CN 108596157B CN 201810458062 A CN201810458062 A CN 201810458062A CN 108596157 B CN108596157 B CN 108596157B
Authority
CN
China
Prior art keywords
current frame
optical flow
area
crowd
area block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810458062.5A
Other languages
English (en)
Other versions
CN108596157A (zh
Inventor
雷帮军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hubei Jiugan Technology Co ltd
Original Assignee
China Three Gorges University CTGU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Three Gorges University CTGU filed Critical China Three Gorges University CTGU
Priority to CN201810458062.5A priority Critical patent/CN108596157B/zh
Publication of CN108596157A publication Critical patent/CN108596157A/zh
Application granted granted Critical
Publication of CN108596157B publication Critical patent/CN108596157B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种基于运动检测的人群惊扰检测方法及系统,所述方法包括:对待检测视频中的当前帧进行前景检测获取所述当前帧的前景区域,对所述当前帧进行差分检测获取所述当前帧的移动区域,基于光流算法获取所述当前帧的第一光流场;对所述前景区域、所述移动区域和所述第一光流场进行融合获取融合区域,将所述融合区域划分为一个或多个区域块;根据各所述区域块的光流直方图检测所述当前帧是否为人群惊扰场景。本发明一方面,通过将待检测视频中当前帧的前景区域、移动区域和第一光流场进行融合,从而获取更精确的前景,提高了人群惊扰检测的精度;另一方面,仅根据前景的光流直方图对人群惊扰场景进行检测,提高了运行速度。

Description

一种基于运动检测的人群惊扰场景检测方法及系统
技术领域
本发明属于安防监控技术领域,更具体地,涉及一种基于运动检测的人群惊扰场景检测方法及系统。
背景技术
随着经济的快速发展,在火车站、飞机场和购物中心等公共场所常常出现人流高峰。拥挤的人群给公共安全带来极大隐患。如果能对人群进行检测,及时发现人群惊扰的异常行为,就可以采取相应的解决方案,避免事故的发生。
目前,利用视频信息对人群惊扰的分析往往基于对人体的异常行为进行检测获取的。有文献记载了一种基于运动场局部统计特征分析的异常行为检测方法,通过建立运动光流场进行局部运动场定位和分析,进一步结合特征对的空间分布关系构筑整体特征表示,然后搜集大量样本进行基于支持向量机的大样本学习,先离线学习特定的一些动作,然后在线检测这些动作,如果已知的动作没有出现则认为是异常动作。但是,正常动作的空间是无穷大的,这种穷举式的方法只能限定于特定的小场景。另一篇文献基于对人体目标的检测和跟踪,提取人体运动的轨迹,然后对轨迹进行分析,研究阻塞和跌倒的轨迹变化,并专门针对它们建模。如果在实际运动中检测到符合模型的轨迹,则认为发生了阻塞或跌倒。但是,在比较复杂的大规模人群和拥挤人群中无法获取比较准确的轨迹跟踪结果。还有文献采用机器学习的方法,基于前景运动块进行基于神经网络的建模和学习。但是,很难选取到所有异常行为的样本。此外,基于深度学习的异常行为检测完全依赖标准的数据库本身定义什么是异常行为,而现实场景是多种多样的,对于那些数据库中不存在的情况无法检测出,因此不具有普适性。
综上所述,异常行为是很难清晰定义的一个概念,因此对异常行为的检测常常采用基于正负样本的离线学习再加上在线检测的方法。但是,由于对不同的人群以及对不同的场景,异常行为是不一样的,因此正负样本的选择非常困难,从而导致现有方法无法精确检测出人群惊扰的异常行为。此外,由于目前的视频异常检测考虑的因素过多,即使用的特征数量过多,导致计算量大,运行速度慢。
发明内容
为克服上述人群惊扰场景检测不精确的问题或者至少部分地解决上述问题,本发明提供了一种基于运动检测的人群惊扰场景检测方法及系统。
根据本发明的第一方面,提供一种基于运动检测的人群惊扰场景检测方法,包括:
对待检测视频中的当前帧进行前景检测获取所述当前帧的前景区域,对所述当前帧进行差分检测获取所述当前帧的移动区域,基于光流算法获取所述当前帧的第一光流场;
对所述前景区域、所述移动区域和所述第一光流场进行融合获取融合区域,将所述融合区域划分为一个或多个区域块;
根据各所述区域块的光流直方图检测所述当前帧是否为人群惊扰场景。
具体地,所述基于光流算法获取所述当前帧的第一光流场的步骤具体包括:
从所述当前帧之前的帧中选择一帧作为基准帧,基于光流算法计算从所述基准帧到所述当前帧的第二光流场和从所述当前帧到所述基准帧的第三光流场;
若所述第二光流场中各光流与所述第三光流场中的对应光流大小不同或方向不相反,则去除所述第二光流场中的各光流,获取所述第一光流场。
具体地,所述对所述前景区域、所述移动区域和所述第一光流场进行融合获取融合区域的步骤具体包括:
将所述第一光流场中不为前景区域中像素的光流去除,获取第四光流场,并获取所述移动区域的外轮廓;
将所述第四光流场中位于所述外轮廓之外的像素去除,获取融合区域。
具体地,所述将所述融合区域划分为一个或多个区域块的步骤具体包括:
基于形态学算法对所述融合区域进行处理;
将处理后的融合区域中连续的像素作为一个区域块。
具体地,所述当前帧中各所述区域块的光流直方图通过以下公式获取:
Figure BDA0001660175910000032
其中,
Figure BDA0001660175910000033
为所述当前帧中任一区域块q在方向j上的光流分量,n为所述区域块的数量,
Figure BDA0001660175910000034
为区域块q的中心,xqi为区域块q中的所有像素,
Figure BDA0001660175910000035
为xqi在方向j上的光流分量。
具体地,所述根据各所述区域块的光流直方图检测所述当前帧是否为人群惊扰场景具体包括:
计算所述当前帧中各区域块与所述当前帧的前一帧中对应区域块在各方向上的光流差;
根据所述当前帧中各所述区域块对应的所有所述方向上的光流差,计算所述当前帧中各所述区域块对应的光流差幅度;
根据所述当前帧中各所述区域块对应的光流差幅度和在各方向上的光流差,确定所述当前帧是否为人群惊扰场景。
具体地,通过以下公式确定所述当前帧是否为人群惊扰场景:
Figure BDA0001660175910000031
Figure BDA0001660175910000041
Figure BDA0001660175910000042
Figure BDA0001660175910000043
Figure BDA0001660175910000044
其中,α为权重参数,通过离线学习获取,α∈(0,1],q为区域块的编号,范围为[1,n],n为所述当前帧中区域块的数量,Mq为所述当前帧中区域块q对应的光流差幅度,
Figure BDA0001660175910000045
为所述当前帧中区域块q对应的在方向j上的光流差,m为所述光流直方图中的方向数量;
若Qσ大于预设阈值,则确定所述当前帧为人群惊扰场景。
具体地,计算所述当前帧中各区域块与所述当前帧的前一帧中对应区域块在各方向上的光流差之后还包括:
将所述当前帧中各区域块对应的在各方向上的光流差乘以相应权重;
所述权重根据所述当前帧的拍摄角度和各所述区域块的位置获取。
具体地,基于多高斯的背景建模算法对待检测视频进行前景检测,基于帧间差分法对所述当前帧进行差分检测。
根据本发明的第二方面,提供一种基于运动检测的人群惊扰场景检测系统,包括:
获取模块,用于对待检测视频进行前景检测获取所述待检测视频中当前帧的前景区域,对所述当前帧进行差分检测获取所述当前帧的移动区域,基于光流算法获取所述当前帧的第一光流场;
融合模块,用于对所述前景区域、所述移动区域和所述第一光流场进行融合获取融合区域,将所述融合区域划分为一个或多个区域块;
检测模块,用于根据各所述区域块的光流直方图检测所述当前帧是否为人群惊扰场景。
本发明提供一种基于运动检测的人群惊扰场景检测方法及系统,该方法一方面,通过将待检测视频中当前帧的前景区域、移动区域和第一光流场进行融合获取融合区域,从而获取更精确的前景,提高了人群惊扰检测的精度;另一方面,仅根据融合区域,即前景的光流直方图对人群惊扰场景进行检测,计算量大大减少,提高了运行速度。
附图说明
图1为本发明实施例提供的基于运动检测的人群惊扰场景检测方法整体流程示意图;
图2为本发明实施例提供的基于运动检测的人群惊扰场景检测方法中正常人群场景示意图;
图3为本发明实施例提供的基于运动检测的人群惊扰场景检测方法中人群惊扰场景示意图;
图4为本发明实施例提供的基于运动检测的人群惊扰场景检测方法整体结构示意图;
图5为本发明实施例提供的基于运动检测的人群惊扰场景检测设备整体结构示意图。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
在本发明的一个实施例中提供一种基于运动检测的人群惊扰场景检测方法,图1为本发明实施例提供的基于运动检测的人群惊扰场景检测方法整体流程示意图,该方法包括:S1,对待检测视频进行前景检测获取待检测视频中当前帧的前景区域,对当前帧进行差分检测获取当前帧的移动区域,基于光流算法获取当前帧的第一光流场;
其中,待检测视频为需要进行人群惊扰检测的视频。首先对待检测视频的当前帧进行前景检测获取当前帧中的前景区域。前景检测是指从背景图像中将前景提取处理,因此前景检测的关键问题是确定一个合适的背景。前景检测的方法主要分为背景建模法、帧差法和光流法,本实施例不限于前景检测方法的种类。同时,对当前帧进行差分检测。差分检测是指通过当前帧与其他帧中对应像素的不同,确定当前帧相对于其他帧发生移动的像素,从而获取当前帧相对于其他帧的移动区域。差分检测的方法有背景减除法、帧间差分法和对称差分法等。本实施例不限于差分检测方法的种类。此外,基于光流算法获取当前帧的第一光流场,第一光流场为最终计算得出的当前帧的光流场。本实施例不限于光流算法的种类。
S2,对前景区域、移动区域和第一光流场进行融合获取融合区域,将融合区域划分为一个或多个区域块;
其中,前景区域是指感兴趣的区域,移动区域反映人群惊扰前后空间上的离散型跳跃和时间轴上的变化跳跃,第一光流场反映前景的运动矢量。由于前景检测易受到光照变化的影响,而差分检测无法检测到云端区域内部的变动情况,因此通过对前景区域、移动区域和第一光流场进行融合获取更精确的前景。为了检测人群惊扰场景,对每一个个体或者群体进行跟踪是不现实的。本实施例仅对前景进行分析,基于时间轴上前后运动规律性的对比,很容易找到明显的规律性。由于前景区域、移动区域和第一光流场中的像素都可能不连续,导致融合区域中的像素也不可能不连续。因此,根据融合区域中像素的连续性将融合区域划分为一个或多个区域块。各区域块中的像素连续。
S3,根据各区域块的光流直方图检测当前帧是否为人群惊扰场景。
具体地,针对每个区域块计算它的光流直方图。光流直方图的横轴表示方向,纵轴表示各区域块在各方向上的光流分量。由于人群惊扰后会出现明显的运动扰动变化,乃至四散奔逃的表象,如图2和图3所示,而各区域块的光流反映各区域块的运动速度和方向,因此根据各区域块的光流直方图可以获取当前帧中的运动情况,进而确定当前帧是否为人群进行场景。本实施例不限于根据光流直方图确定人群扰乱场景的方法。
本实施例一方面,通过将待检测视频中当前帧的前景区域、移动区域和第一光流场进行融合获取融合区域,从而获取更精确的前景,提高了人群惊扰检测的精度;另一方面,仅根据融合区域,即前景的光流直方图对人群惊扰场景进行检测,计算量大大减少,提高了运行速度。
在上述实施例的基础上,本实施例中步骤S1中基于光流算法获取当前帧的第一光流场的步骤具体包括:从当前帧之前的帧中选择一帧作为基准帧,基于光流算法计算从基准帧到当前帧的第二光流场和从当前帧到基准帧的第三光流场;若第二光流场中各光流与第三光流场中的对应光流大小不同或方向不相反,则去除第二光流场中的各光流,获取所述第一光流场。
具体地,从当前帧之前的帧中选择一帧作为基准帧,假设基准帧与当前帧之间的时间差为T,T根据人群的运动速度预先设定。当人群的运动速度较慢时,将T设置为一个较大常数;当人群的运动速度较快时,将T设置为一个较小常数。对于当前帧中的每一个像素,计算它相对于基准帧的光流。为了更准确地计算当前帧中各像素的光流,采用双向光流计算,即分别基于光流算法计算从基准帧到当前帧的第二光流场和从当前帧到基准帧的第三光流场。只有双向校验正确的光流才被保留,即对于第二光流场中的任一光流,获取第三光流场中与该光流位置相同的对照光流,若该光流与对照光流大小相同且方向相反,则去除该光流,从而获取当前帧的最终光流场,即第一光流场。
本实施例不限于光流算法的种类。为了提高光流算法的计算效率,本实施例中的光流算法使用最简单的增量式局部快速搜索方式,依赖于对解空间进行按邻域搜索,具有较快的收敛速度和较强的局部寻优能力。搜索以偏移量为(0,0)开始,只有当同位比较超出预设阈值时才搜索其它的临近点,从而大大减少搜索范围,提高搜索速度。基于运动的平滑性假设,搜索时使用变化的步长进行搜索。
本实施例通过在当前帧和基准帧之间采用双向光流计算,只有双向校验正确的光流才被保留,从而提高光流场的技术精度,获取更好的人群惊扰检测效果。
在上述实施例的基础上,本实施例中步骤S2中对前景区域、移动区域和所述第一光流场进行融合获取融合区域的步骤具体包括:将第一光流场中不为前景区域中像素的光流去除,并获取移动区域的外轮廓;将去除前景区域的第一光流场中位于外轮廓之外的像素去除,获取融合区域。
具体地,对前景区域、移动区域和第一光流场进行融合时,以前景区域为基础,辅以光流场得到的变动判断,进而以差分得到的移动区域为边界,得到更好的前景。首先,将第一光流场与前景区域进行匹配,将所述第一光流场中不为前景区域中像素的光流去除,获取第四光流场,同时获取移动区域的外轮廓。然后将移动区域的外轮廓与第四光流场进行匹配,将第四光流场中位于外轮廓之外的像素去除,获取融合区域。
本实施例中由于前景检测易受到光照变化的影响,而差分检测无法检测到云端区域内部的变动情况,因此通过对所述前景区域、所述移动区域和所述第一光流场进行融合获取更精确的前景。
在上述实施例的基础上,本实施例中步骤S2中将融合区域划分为一个或多个区域块的步骤具体包括:基于形态学算法对融合区域进行处理;将处理后的融合区域中连续的像素作为一个区域块。
具体地,常用的形态学算法有腐蚀、膨胀、开运算和闭运算等。本实施例不限于形态学算法的种类。通过形态学算法去掉融合区域中的噪声。为了获取更好地处理效果,可以将多种形态学算法进行混合使用,如先进行两次腐蚀,再进行三次膨胀,最后进行两次腐蚀。然后将处理后的融合区域中连续的像素作为一个区域块。具体对处理后的融合区域中的像素进行邻域连接,可以为八邻域连接。即对于处理后的融合区域中的任一像素,将该像素的八邻域与该像素合并为一个区域块,然后将该像素的八邻域的八邻域与前一次合并的区域块进行合并,以此类推,直到最近一次合并的所有八邻域均不存在八邻域为止。从而将处理后的融合区域中的每个像素分配到一个区域块中。
在上述各实施例的基础上,本实施例中步骤S3中当前帧中各区域块的光流直方图通过以下公式获取:
Figure BDA0001660175910000091
其中,
Figure BDA0001660175910000092
为当前帧中任一区域块q在方向j上的光流分量,n为所述区域块的数量,
Figure BDA0001660175910000093
为区域块q的中心,xqi为区域块q中的所有像素,
Figure BDA0001660175910000094
为xqi在方向j上的光流分量。
具体地,针对每个区域块q计算其光流直方图。假设
Figure BDA0001660175910000095
为区域块q的中心,光流直方图将光流分成m个方向,xqi∈q(i=1…n)为区域块q中的像素,其在方向j(j=1…m)上的光流分量为
Figure BDA0001660175910000096
n为区域块q中的像素个数。
在上述各实施例的基础上,本实施例中步骤S3具体包括:S31,计算当前帧中各区域块与当前帧的前一帧中对应区域块在各方向上的光流差;S32,根据当前帧中各区域块对应的所有方向上的光流差,计算当前帧中各区域块对应的光流差幅度;S33,根据当前帧中各区域块对应的光流差幅度和在各方向上的光流差,确定当前帧是否为人群惊扰场景。
具体地,S31中,在获取到各区域块的光流直方图后,对于当前帧中的任一区域块,获取当前阵的前一帧中与该区域块对应的对照区域块,可以通过简单的区域块跟踪获取,若没有获取到对应的对照区域块,则停止对该区域块的后续计算。分别计算该区域块与所述对照区域块在各方向上的光流差。S32中,光流差幅度有多种计算方式,本实施例不限于所述光流差的计算。例如,从该区域块与对照区域块在各方向上的光流差中选择最大光流差和最小光流差,将最大光流差减去所述最小光流差得到所述光流差幅度。S33中,基于当前帧中各区域块对应的光流差幅度和当前帧中各区域块在各方向上的光流差,对当前帧进行分析确定当前帧是否为人群惊扰场景。
在上述实施例的基础上,本实施例中步骤S33中通过以下公式确定当前帧是否为人群惊扰场景:
Figure BDA0001660175910000101
Figure BDA0001660175910000102
Figure BDA0001660175910000103
Figure BDA0001660175910000104
Figure BDA0001660175910000105
其中,α为权重参数,,α∈(0,1],q为区域块的编号,范围为[1,n],n为当前帧中区域块的数量,Mq为当前帧中区域块q对应的光流差幅度,
Figure BDA0001660175910000106
为当前帧中区域块q对应的在方向j上的光流差,m为光流直方图中的方向数量;若Qσ大于预设阈值,则确定当前帧为人群惊扰场景。
具体地,α和预设阈值通过离线学习从一些代表性的视频中自动获取,适应性强。预设阈值也可以为当前帧前预设时间段内各帧的Qσ的线性平均值,从而实现渐进式判断,使得设定的参数更好。在离线学习时,由于人群惊扰后会出现明显的运动扰动变化乃至四散奔逃的表象,因此可以清晰描述并选出正确的视频样本。
在上述实施例的基础上,本实施例中步骤S31还包括:将当前帧中各区域块对应的在各方向上的光流差乘以相应权重;权重根据当前帧的拍摄角度和各区域块的位置获取。
具体地,在使用当前帧中各区域块对应的在各方向上的光流差进行计算时,将各区域块对应的光流差乘以相应权重。权重根据当前帧的拍摄角度和各区域块的位置获取。例如拍摄的当前帧中从下端到上端不断增大。如图2和图3所示,同样的运动图像在图像上端显得比图像下端要小,这是由于摄像头的拍摄角度造成的。假设权重为Py,其中y为各区域块中心在纵轴上的值。权重从当前帧下端到上端不断增大。
在上述各实施例的基础上,本实施例中步骤S1中基于多高斯的背景建模算法对待检测视频进行前景检测,基于帧间差分法对当前帧进行差分检测。
具体地,为了检测场景中出现的移动前景目标,本实施例采用基于多高斯的背景建模算法。当处理彩色图像时,假定图像像素点R、G、和B三色通道相互独立并具有相同的方差。对于随机变量X的观测数据集{x1,x2,…,xN},xt=(rt,gt,bt)为t时刻像素的样本,则单个采样点xt服从的混合高斯分布概率密度函数为:
Figure BDA0001660175910000111
Figure BDA0001660175910000112
Figure BDA0001660175910000113
其中,k为分布模式总数,η(xti,ti,t)为t时刻第i个高斯分布,μi,t为其均值,τi,t为其协方差矩阵,δi,t为方差,I为三维单位矩阵,ωi,t为t时刻第i个高斯分布的权重。多高斯模型通过预先对历史视频帧的处理渐进式构建出来。如果当前的像素值不符合以上的多高斯模型,则认为是前景像素点,从而获取到所述当前帧的前景区域。
帧间差分法对当前帧的任一像素点xt的灰度值
Figure BDA0001660175910000114
计算它与前某一帧对应位置像素点的灰度值
Figure BDA0001660175910000115
的差值灰度值
Figure BDA0001660175910000116
来判断该像素是否移动,其中Δt为当前帧与当前帧的前某一帧之间的时间差。当
Figure BDA0001660175910000117
大于预设阈值,则确定该像素移动;若
Figure BDA0001660175910000121
小于或等于预设阈值,则确定该像素未移动,从而获取当前帧的移动区域。
在本发明的另一个实施例中提供一种基于运动检测的人群惊扰场景检测系统,图4为本发明实施例提供的基于运动检测的人群惊扰场景检测系统整体结构示意图,该系统包括获取模块1、融合模块2和检测模块3,其中:
获取模块1用于对待检测视频进行前景检测获取待检测视频中当前帧的前景区域,对当前帧进行差分检测获取当前帧的移动区域,基于光流算法获取当前帧的第一光流场;
其中,待检测视频为需要进行人群惊扰检测的视频。首先获取模块1对待检测视频的当前帧进行前景检测获取当前帧中的前景区域。前景检测是指从背景图像中将前景提取处理,因此前景检测的关键问题是确定一个合适的背景。前景检测的方法主要分为背景建模法、帧差法和光流法,本实施例不限于前景检测方法的种类。同时,获取模块1对当前帧进行差分检测。差分检测是指通过当前帧与其他帧中对应像素的不同,确定当前帧相对于其他帧发生移动的像素,从而获取当前帧相对于其他帧的移动区域。差分检测的方法有背景减除法、帧间差分法和对称差分法等。本实施例不限于差分检测方法的种类。此外,获取模块1基于光流算法获取当前帧的第一光流场,第一光流场为最终计算得出的当前帧的光流场。本实施例不限于光流算法的种类。
融合模块2用于对前景区域、移动区域和第一光流场进行融合获取融合区域,将融合区域划分为一个或多个区域块;检测模块3用于根据各区域块的光流直方图检测当前帧是否为人群惊扰场景。
其中,前景区域是指感兴趣的区域,移动区域反映人群惊扰前后空间上的离散型跳跃和时间轴上的变化跳跃,第一光流场反映前景的运动矢量。由于前景检测易受到光照变化的影响,而差分检测无法检测到云端区域内部的变动情况,因此融合模块2通过对前景区域、移动区域和第一光流场进行融合获取更精确的前景。为了检测人群惊扰场景,对每一个个体或者群体进行跟踪是不现实的。本实施例仅对前景进行分析,基于时间轴上前后运动规律性的对比,很容易找到明显的规律性。由于前景区域、移动区域和第一光流场中的像素都可能不连续,导致融合区域中的像素也不可能不连续。因此,融合模块2根据融合区域中像素的连续性将融合区域划分为一个或多个区域块。各区域块中的像素连续。
具体地,检测模块3针对每个区域块计算它的光流直方图。光流直方图的横轴表示方向,纵轴表示各区域块在各方向上的光流分量。由于人群惊扰后会出现明显的运动扰动变化,乃至四散奔逃的表象,而各区域块的光流反映各区域块的运动速度和方向,因此根据各区域块的光流直方图可以获取当前帧中的运动情况,进而确定当前帧是否为人群进行场景。本实施例不限于根据光流直方图确定人群扰乱场景的方法。
本实施例一方面,通过将待检测视频中当前帧的前景区域、移动区域和第一光流场进行融合获取融合区域,从而获取更精确的前景,提高了人群惊扰检测的精度;另一方面,仅根据融合区域,即前景的光流直方图对人群惊扰场景进行检测,计算量大大减少,提高了运行速度。
在上述实施例的基础上,本实施例中获取模块具体用于:从当前帧之前的帧中选择一帧作为基准帧,基于光流算法计算从基准帧到当前帧的第二光流场和从当前帧到基准帧的第三光流场;若第二光流场中各光流与第三光流场中的对应光流大小不同或方向不相反,则去除第二光流场中的各光流,获取第一光流场。
在上述实施例的基础上,本实施例中融合模块具体用于:基于形态学算法对融合区域进行处理;将处理后的融合区域中连续的像素作为一个区域块。
在上述各实施例的基础上,本实施例中检测模块具体通过以下公式获取当前帧中各区域块的光流直方图:
Figure BDA0001660175910000141
其中,
Figure BDA0001660175910000142
为当前帧中任一区域块q在方向j上的光流分量,n为所述区域块的数量,
Figure BDA0001660175910000143
为区域块q的中心,xqi为区域块q中的所有像素,
Figure BDA0001660175910000144
为xqi在方向j上的光流分量。
在上述各实施例的基础上,本实施例中融合模块包括:第一计算子模块,用于计算当前帧中各区域块与当前帧的前一帧中对应区域块在各方向上的光流差;第二计算子模块,用于根据当前帧中各区域块对应的所有所述方向上的光流差,计算当前帧中各区域块对应的光流差幅度;确定子模块,用于根据当前帧中各区域块对应的光流差幅度和在各方向上的光流差,确定当前帧是否为人群惊扰场景。
在上述实施例的基础上,本实施例中确定子模块通过以下公式确定当前帧是否为人群惊扰场景:
Figure BDA0001660175910000145
Figure BDA0001660175910000146
Figure BDA0001660175910000147
Figure BDA0001660175910000148
Figure BDA0001660175910000149
其中,α为权重参数,,α∈(0,1],q为区域块的编号,范围为[1,n],n为当前帧中区域块的数量,Mq为当前帧中区域块q对应的光流差幅度,
Figure BDA00016601759100001410
为当前帧中区域块q对应的在方向j上的光流差,m为光流直方图中的方向数量;若Qσ大于预设阈值,则确定当前帧为人群惊扰场景。
在上述实施例的基础上,本实施例中第一计算子模块还用于:将当前帧中各区域块对应的在各方向上的光流差乘以相应权重;权重根据当前帧的拍摄角度和各区域块的位置获取。
在上述实施例的基础上,本实施例中获取模块基于多高斯的背景建模算法对待检测视频进行前景检测,基于帧间差分法对当前帧进行差分检测。
本实施例提供一种基于运动检测的人群惊扰场景检测设备,图5为本发明实施例提供的基于运动检测的人群惊扰场景检测设备整体结构示意图,该设备包括:至少一个处理器51、至少一个存储器52和总线53;其中,
处理器51和存储器52通过总线53完成相互间的通信;
存储器52存储有可被处理器51执行的程序指令,所述处理器调用所述程序指令能够执行上述各方法实施例所提供的方法,例如包括:S1,对待检测视频进行前景检测获取待检测视频中当前帧的前景区域,对当前帧进行差分检测获取当前帧的移动区域,基于光流算法获取当前帧的第一光流场;S2,对前景区域、移动区域和第一光流场进行融合获取融合区域,将融合区域划分为一个或多个区域块;S3,根据各区域块的光流直方图检测当前帧是否为人群惊扰场景。
本实施例提供一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令使所述计算机执行上述各方法实施例所提供的方法,例如包括:S1,对待检测视频进行前景检测获取待检测视频中当前帧的前景区域,对当前帧进行差分检测获取当前帧的移动区域,基于光流算法获取当前帧的第一光流场;S2,对前景区域、移动区域和第一光流场进行融合获取融合区域,将融合区域划分为一个或多个区域块;S3,根据各区域块的光流直方图检测当前帧是否为人群惊扰场景。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
以上所描述的基于运动检测的人群惊扰场景检测设备实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后,本申请的方法仅为较佳的实施方案,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (7)

1.一种基于运动检测的人群惊扰场景检测方法,其特征在于,包括:
对待检测视频中的当前帧进行前景检测获取所述当前帧的前景区域,对所述当前帧进行差分检测获取所述当前帧的移动区域,基于光流算法获取所述当前帧的第一光流场;
对所述前景区域、所述移动区域和所述第一光流场进行融合获取融合区域,将所述融合区域划分为一个或多个区域块;
根据各所述区域块的光流直方图检测所述当前帧是否为人群惊扰场景;
其中,所述当前帧中各所述区域块的光流直方图通过以下公式获取:
Figure FDA0002536890350000011
其中,
Figure FDA0002536890350000012
为所述当前帧中第q个区域块在方向j上的光流分量,n为第q个区域块中像素的数量,
Figure FDA0002536890350000013
为第q个区域块的中心,xqi为第q个区域块中的第i个像素,
Figure FDA0002536890350000014
为xqi在方向j上的光流分量;
其中,所述根据各所述区域块的光流直方图检测所述当前帧是否为人群惊扰场景具体包括:
计算所述当前帧中各区域块与所述当前帧的前一帧中对应区域块在各方向上的光流差;
根据所述当前帧中各所述区域块对应的所有所述方向上的光流差,计算所述当前帧中各所述区域块对应的光流差幅度;
根据所述当前帧中各所述区域块对应的光流差幅度和在各方向上的光流差,确定所述当前帧是否为人群惊扰场景;
其中,通过以下公式确定所述当前帧是否为人群惊扰场景:
Figure FDA0002536890350000015
Figure FDA0002536890350000021
Figure FDA0002536890350000022
Figure FDA0002536890350000023
Figure FDA0002536890350000024
其中,α为权重参数,通过离线学习获取,α∈(0,1],q为区域块的编号,范围为[1,p],p为所述当前帧中区域块的数量,Mq为所述当前帧中第q个区域块对应的光流差幅度,
Figure FDA0002536890350000025
为所述当前帧中第q个区域块对应的在方向j上的光流差,m为所述光流直方图中的方向数量;
若Qσ大于预设阈值,则确定所述当前帧为人群惊扰场景。
2.根据权利要求1所述的方法,其特征在于,所述基于光流算法获取所述当前帧的第一光流场的步骤具体包括:
从所述当前帧之前的帧中选择一帧作为基准帧,基于光流算法计算从所述基准帧到所述当前帧的第二光流场和从所述当前帧到所述基准帧的第三光流场;
若所述第二光流场中各光流与所述第三光流场中的对应光流大小不同或方向不相反,则去除所述第二光流场中的各光流,获取所述第一光流场。
3.根据权利要求1所述的方法,其特征在于,所述对所述前景区域、所述移动区域和所述第一光流场进行融合获取融合区域的步骤具体包括:
将所述第一光流场中不为前景区域中像素的光流去除,获取第四光流场,并获取所述移动区域的外轮廓;
将所述第四光流场中位于所述外轮廓之外的像素去除,获取融合区域。
4.根据权利要求1所述的方法,其特征在于,所述将所述融合区域划分为一个或多个区域块的步骤具体包括:
基于形态学算法对所述融合区域进行处理;
将处理后的融合区域中连续的像素作为一个区域块。
5.根据权利要求1所述的方法,其特征在于,计算所述当前帧中各区域块与所述当前帧的前一帧中对应区域块在各方向上的光流差之后还包括:
将所述当前帧中各区域块对应的在各方向上的光流差乘以相应权重;
所述权重根据所述当前帧的拍摄角度和各所述区域块的位置获取。
6.根据权利要求1-4任一所述的方法,其特征在于,基于多高斯的背景建模算法对待检测视频进行前景检测,基于帧间差分法对所述当前帧进行差分检测。
7.一种基于运动检测的人群惊扰场景检测系统,其特征在于,包括:
获取模块,用于对待检测视频进行前景检测获取所述待检测视频中当前帧的前景区域,对所述当前帧进行差分检测获取所述当前帧的移动区域,基于光流算法获取所述当前帧的第一光流场;
融合模块,用于对所述前景区域、所述移动区域和所述第一光流场进行融合获取融合区域,将所述融合区域划分为一个或多个区域块;
检测模块,用于根据各所述区域块的光流直方图检测所述当前帧是否为人群惊扰场景;
其中,所述当前帧中各所述区域块的光流直方图通过以下公式获取:
Figure FDA0002536890350000031
其中,
Figure FDA0002536890350000032
为所述当前帧中第q个区域块在方向j上的光流分量,n为第q个区域块中像素的数量,
Figure FDA0002536890350000041
为第q个区域块的中心,xqi为第q个区域块中的第i个像素,
Figure FDA0002536890350000042
为xqi在方向j上的光流分量;
其中,融合模块包括:
第一计算子模块,用于计算当前帧中各区域块与当前帧的前一帧中对应区域块在各方向上的光流差;
第二计算子模块,用于根据当前帧中各区域块对应的所有所述方向上的光流差,计算当前帧中各区域块对应的光流差幅度;
确定子模块,用于根据当前帧中各区域块对应的光流差幅度和在各方向上的光流差,确定当前帧是否为人群惊扰场景;
其中,所述确定子模块通过以下公式确定所述当前帧是否为人群惊扰场景:
Figure FDA0002536890350000043
Figure FDA0002536890350000044
Figure FDA0002536890350000045
Figure FDA0002536890350000046
Figure FDA0002536890350000047
其中,α为权重参数,通过离线学习获取,α∈(0,1],q为区域块的编号,范围为[1,p],p为所述当前帧中区域块的数量,Mq为所述当前帧中第q个区域块对应的光流差幅度,
Figure FDA0002536890350000048
为所述当前帧中第q个区域块对应的在方向j上的光流差,m为所述光流直方图中的方向数量;
若Qσ大于预设阈值,则确定所述当前帧为人群惊扰场景。
CN201810458062.5A 2018-05-14 2018-05-14 一种基于运动检测的人群惊扰场景检测方法及系统 Active CN108596157B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810458062.5A CN108596157B (zh) 2018-05-14 2018-05-14 一种基于运动检测的人群惊扰场景检测方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810458062.5A CN108596157B (zh) 2018-05-14 2018-05-14 一种基于运动检测的人群惊扰场景检测方法及系统

Publications (2)

Publication Number Publication Date
CN108596157A CN108596157A (zh) 2018-09-28
CN108596157B true CN108596157B (zh) 2020-08-07

Family

ID=63637469

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810458062.5A Active CN108596157B (zh) 2018-05-14 2018-05-14 一种基于运动检测的人群惊扰场景检测方法及系统

Country Status (1)

Country Link
CN (1) CN108596157B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110378936B (zh) * 2019-07-30 2021-11-05 北京字节跳动网络技术有限公司 光流计算方法、装置及电子设备
CN111125405A (zh) * 2019-12-19 2020-05-08 国网冀北电力有限公司信息通信分公司 电力监控图像异常检测方法和装置、电子设备及存储介质
CN111539301B (zh) * 2020-04-20 2023-04-18 贵州安防工程技术研究中心有限公司 一种基于视频分析技术的场景混乱程度判别方法
CN112258462A (zh) * 2020-10-13 2021-01-22 广州杰赛科技股份有限公司 一种车辆检测方法、装置及计算机可读存储介质
CN113222895B (zh) * 2021-04-10 2023-05-02 优层智能科技(上海)有限公司 一种基于人工智能的电极缺陷检测方法及系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1921581A1 (en) * 2006-11-08 2008-05-14 Smarteree GmbH Method and apparatus for monitoring a moving object
CN104123544A (zh) * 2014-07-23 2014-10-29 通号通信信息集团有限公司 基于视频分析的异常行为检测方法及系统
CN105389567A (zh) * 2015-11-16 2016-03-09 上海交通大学 基于稠密光流直方图的群体异常检测方法
CN106326840A (zh) * 2016-08-11 2017-01-11 电子科技大学 一种基于光流直方图熵的人群异常行为检测方法
US9619699B2 (en) * 2011-11-09 2017-04-11 Tata Consultancy Services Limited System and method for enhancing human counting by fusing results of human detection modalities
CN106778688A (zh) * 2017-01-13 2017-05-31 辽宁工程技术大学 一种拥挤场景监控视频中人群流异常事件的检测方法
CN107506734A (zh) * 2017-08-28 2017-12-22 中国民航大学 一种群体突发异常事件检测与定位方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1921581A1 (en) * 2006-11-08 2008-05-14 Smarteree GmbH Method and apparatus for monitoring a moving object
US9619699B2 (en) * 2011-11-09 2017-04-11 Tata Consultancy Services Limited System and method for enhancing human counting by fusing results of human detection modalities
CN104123544A (zh) * 2014-07-23 2014-10-29 通号通信信息集团有限公司 基于视频分析的异常行为检测方法及系统
CN105389567A (zh) * 2015-11-16 2016-03-09 上海交通大学 基于稠密光流直方图的群体异常检测方法
CN106326840A (zh) * 2016-08-11 2017-01-11 电子科技大学 一种基于光流直方图熵的人群异常行为检测方法
CN106778688A (zh) * 2017-01-13 2017-05-31 辽宁工程技术大学 一种拥挤场景监控视频中人群流异常事件的检测方法
CN107506734A (zh) * 2017-08-28 2017-12-22 中国民航大学 一种群体突发异常事件检测与定位方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Abnormal Behavior Recognition Based on Trajectory Feature and Regional Optical Flow;A-Lin Hou等;《2013 Seventh International Conference on Image and Graphics》;20131024;643-649 *
Abnormal event detection in crowded scenes based;Zhijun Fang等;《Multimed Tools Appl》;20160213;14617-14639 *
智能监控系统中行人检测与目标跟踪算法的研究;李若骅;《中国优秀硕士学位论文全文数据库 信息科技辑(月刊)》;20170315;第2017年卷(第3期);第4.2节第3段 *
视频序列中运动目标提取方法研究;贺丽丽;《中国优秀硕士学位论文全文数据库 信息科技辑(月刊)》;20141115;第2014年卷(第11期);第3.4.4节、第5.1节、第5.2节、第5.3.1节、第6.2节第1段、图5-3 *

Also Published As

Publication number Publication date
CN108596157A (zh) 2018-09-28

Similar Documents

Publication Publication Date Title
CN108596157B (zh) 一种基于运动检测的人群惊扰场景检测方法及系统
US20190122072A1 (en) Reverse neural network for object re-identification
US20170161591A1 (en) System and method for deep-learning based object tracking
WO2014092552A2 (en) Method for non-static foreground feature extraction and classification
Chen et al. Asynchronous tracking-by-detection on adaptive time surfaces for event-based object tracking
CN102542289A (zh) 一种基于多高斯计数模型的人流量统计方法
CN113011367A (zh) 一种基于目标轨迹的异常行为分析方法
CN103646257B (zh) 一种基于视频监控图像的行人检测和计数方法
KR101062225B1 (ko) 감시 카메라를 이용한 지능형 영상 검색 방법 및 시스템
Denman et al. Multi-spectral fusion for surveillance systems
CN110991397B (zh) 一种行进方向确定方法及相关设备
JP2016058085A (ja) 対象の遮蔽を検出する方法と装置
CN117994987B (zh) 基于目标检测技术的交通参数提取方法及相关装置
Al-Heety Moving vehicle detection from video sequences for traffic surveillance system
Javadzadeh et al. Fast vehicle detection and counting using background subtraction technique and prewitt edge detection
Nalepa et al. Real-time people counting from depth images
Tang et al. Salient moving object detection using stochastic approach filtering
Jiang et al. Tracking pedestrians using smoothed colour histograms in an interacting multiple model framework
Algethami et al. Combining Accumulated Frame Differencing and Corner Detection for Motion Detection.
CN116543023A (zh) 一种基于修正DeepSORT的多传感目标群智跟踪方法
Tran et al. Depth-aided tracking multiple objects under occlusion
CN106934818B (zh) 一种手部运动跟踪方法及系统
JP2017151582A (ja) カメラの撮影画像に映る人物を追跡する画像解析装置、プログラム及び方法
Mudjirahardjo et al. Temporal analysis for fast motion detection in a crowd
CN111191524A (zh) 运动人群计数方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20231122

Address after: No. 57-5 Development Avenue, No. 6015, Yichang Area, China (Hubei) Free Trade Zone, Yichang City, Hubei Province, 443005

Patentee after: Hubei Jiugan Technology Co.,Ltd.

Address before: 443002, China Three Gorges University, 8, University Road, Hubei, Yichang

Patentee before: CHINA THREE GORGES University

TR01 Transfer of patent right