CN104268563A - 一种基于异常行为检测的视频摘要方法 - Google Patents

一种基于异常行为检测的视频摘要方法 Download PDF

Info

Publication number
CN104268563A
CN104268563A CN201410469530.0A CN201410469530A CN104268563A CN 104268563 A CN104268563 A CN 104268563A CN 201410469530 A CN201410469530 A CN 201410469530A CN 104268563 A CN104268563 A CN 104268563A
Authority
CN
China
Prior art keywords
video
frame
rightarrow
formula
sigma
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410469530.0A
Other languages
English (en)
Other versions
CN104268563B (zh
Inventor
洪日昌
郝艳宾
姚瑶
汪萌
郝世杰
刘学亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hefei University of Technology
Original Assignee
Hefei University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hefei University of Technology filed Critical Hefei University of Technology
Priority to CN201410469530.0A priority Critical patent/CN104268563B/zh
Publication of CN104268563A publication Critical patent/CN104268563A/zh
Application granted granted Critical
Publication of CN104268563B publication Critical patent/CN104268563B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • G06V20/47Detecting features for summarising video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • G06T2207/20032Median filtering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于异常行为检测的视频摘要方法,其特征是按如下步骤进行:1提取视频帧的运动标签;2获取基于尺寸的目标描述符;3联合运动标签和目标描述符建立事件模型,获得运动目标在一段固定时间内的行为信号;4学习只包含正常行为的训练视频序列,获得行为背景图;5对当前测试视频序列进行异常检测,标记异常行为;6截取包含异常行为的视频片段形成视频摘要。本发明能提高异常行为检测的准确性和效率,并能将异常行为总结成一段视频摘要,从而方便人工查询。

Description

一种基于异常行为检测的视频摘要方法
技术领域
本发明涉及视频分析领域,具体地说是一种基于异常行为检测的视频摘要方法。
背景技术
随着网络视频相机技术的发展,视频监控技术已经在安防等领域得到了广泛的应用。分布在各个场所的网络摄像机24小时不间断的产生大量视频数据。现有的视频监控系统大多只是进行场景内运动目标的检测或跟踪,进行进一步处理的比较少,而监控的目的就是对场景中的异常事件或人的异常行为进行检测和分析。由于视频数据量巨大,人工查找效率低下,且易受到人体感官疲劳的影响发生漏检和误检的情况,为了协助甚至代替人工劳作,自动检测监控视频中的运动目标、识别异常行为成为一个热门研究点。
视频监控的一个基本任务就是对场景中的运动目标进行检测。针对运动目标检测的方法主要有背景差分法、马尔科夫随机场和基于水平集的方法等。然而上述这些方法都是在背景不变这个前提条件下提出的。当所目标处背景环境很复杂时,如相机抖动、快速的光照变化、杂乱的背景运动等,运动检测变得十分困难,计算成本也相应增加。因此传统的方法不能很好解决这样的问题。
异常行为检测的方法可分为基于模式分类的方法和基于机器学习的方法。在基于模式分类的方法中,异常行为模板是已知的,测试视频中与模板匹配的行为被认为是异常行为。这种方法一般只适用于已知具体异常模式的检测,不适用于异常行为未知的情况,不具有一般性。基于机器学习的方法利用训练视频自动学习正常行为模型,在测试视频中不符合正常行为模型的行为被认为是异常。
以机器学习为基础的异常检测方法可以获得比较好的效果。但是传统的方法通常需要对运动目标进行特征提取,并计算光流场、空间运动直方图或运动轨迹图等,通过最优化迭代等方法检测出异常行为。这种多阶段的处理过程占用的内存和计算能力较大,实时性不强;并且每一阶段的计算误差会逐层传递,影响检测精度。因此这些方法都存在一定的局限性。
发明内容
本发明是为避免现技术所存在的不足之处,提出一种基于异常行为检测的视频摘要方法,以期提高异常行为检测的准确性和效率,并能将异常行为总结成一段视频摘要,从而方便人工查询。
本发明为解决技术问题采用如下技术方案:
本发明一种基于异常行为检测的视频摘要方法的特点按如下步骤进行:
步骤1、利用一固定的摄像头获取在时间段T=(t1,t2,...td...,ts)内的视频,每一时刻对应一帧视频,从而获得视频帧 表示在td时刻下的视频帧;1≤d≤s;s为视频的总帧数;从所述视频帧中选取在时间段T'=(tα,tα+1,...tβ...,tα+N)内的视频帧作为训练视频帧,N为训练视频的总帧数;表示在tβ时刻下的视频帧;α≤β≤α+N;则其余视频帧为测试视频帧V2=V-V1;所述训练视频帧V1只包含正常行为;所述测试视频帧V2包含正常行为和异常行为;
步骤2、利用中值滤波法获得所述视频帧V的背景图像b;
步骤3、利用式(1)获得td时刻下视频帧中任意像素点位置的运动标签从而获得td时刻下视频帧中所有像素点位置的运动标签
式(1)中:表示视频帧中的像素点位置;表示td时刻下视频帧中像素点位置的像素值,表示td时刻下视频帧中的背景图像;α为判断阈值;
步骤4、利用式(2)获得td时刻下视频帧中任意像素点位置的基于尺寸的目标描述符从而获得td时刻下视频帧中所有像素点位置的目标描述符
r t d ( x → ) = 1 W × W Σ y → ∈ W ( x → ) δ ( m t d ( x → ) , m t d ( y → ) ) - - - ( 2 )
式(2)中:表示td时刻下视频帧中以像素点位置为中心,以W×W为大小的窗口;表示在窗口内与像素点位置相邻的像素点位置;并有:
式(3)中:表示td时刻下视频帧中像素点位置的运动标签;
步骤5、联合所述运动标签序列MΓ和目标描述符序列RΓ,从而建立事件模型
步骤5.1、利用式(1)获得在时间窗Γ=[td-γ+1,td]内运动标签序列MΓ利用式(2)获得在时间窗Γ=[td-γ+1,td]内目标描述符序列RΓ R Γ = ( r t d - γ + 1 ( x → ) , r t d - γ + 2 ( x → ) , . . . , r t d ( x → ) ) ; γ为参数;1≤γ≤s;
步骤5.2、利用式(4)所示的隐马尔可夫模型获得所述运动标签序列MΓ的概率
P x → ( M Γ ) = ωq Σ k 1 β k 1 p Σ k 2 θ k 2 ( 1 - q ) l ( 1 - p ) n - - - ( 4 )
式(4)中:ω为隐马尔科夫模型的初始运动状态概率;p为静止状态概率,1-p为静止转移概率;q为运动状态概率,1-q为运动转移概率;表示静止状态的时间间隔,表示运动状态的时间间隔;l表示从运动到静止状态的转移次数;n表示从静止到运动状态的转移次数;1≤k1≤l;1≤k2≤n;
步骤5.3、利用式(5)获得所述运动标签序列MΓ和目标描述符序列RΓ的联合概率
P x → ( R Γ , M Γ ) = P x → ( R Γ | M Γ ) · P x → ( M Γ ) - - - ( 5 )
式(5)中,为条件概率函数,并有:
P x → ( R Γ | M Γ ) = Π k P x → ( R β k | M β k ) P x → ( R θ k | M θ k ) - - - ( 6 )
步骤5.4、对式(5)取负对数后获得如式(7)所示的td时刻下视频帧中任意像素点位置的事件模型从而获得td时刻下视频帧中所有像素点位置的事件模型
e t d ( x → ) = Σ i = t d - γ + 1 t d ( ( D 1 + D 3 r i ( x → ) ) m i ( x → ) ) + D 2 Ω d ( x → ) - - - ( 7 )
式(7)中:D1,D2,D3为所设定的参数;表示在时间窗Γ中的像素点位置处的状态转移总数;td-γ+1≤i≤td
步骤6:学习训练视频帧V1获得行为背景图
步骤6.1、重复步骤3-步骤5获得所述训练视频帧V1中tβ时刻下视频帧中所有像素点位置的事件模型
步骤6.2、利用式(8)和式(9)分别估计所述训练视频帧V1中事件模型的均值和方差
μ ^ = 1 N Σ t β = 1 N e t β ~ ( x → ) - - - ( 8 )
σ ^ 2 = 1 N - 1 Σ t β = 1 N ( e t β ~ ( x → ) - 1 N Σ t β = 1 N e t β ~ ( x → ) ) 2 - - - ( 9 )
步骤6.3、根据高斯分布和区间估计原理,获得如式(10)所示的所述训练视频帧V1中事件模型的均值的置信区间:
( 1 N Σ t β = 1 N e t β ~ ( x → ) - t η / 2 ( N - 1 ) σ ^ N , 1 N Σ t β = 1 N e t β ~ ( x → ) + t η / 2 ( N - 1 ) σ ^ N ) - - - ( 10 )
式(10)中:tη/2(N-1)表示自由度为N-1的t分布,η为t分布的显著水平;
步骤6.4、利用式(11)获得所述训练视频帧V1中像素点位置处的行为背景图从而获得所述训练视频帧V1中所有像素点位置的行为背景图B:
B ( x → ) = 1 N Σ t β = 1 N e t β ~ ( x → ) + t η / 2 ( N - 1 ) σ ^ N - - - ( 11 )
步骤7:利用式(12)获得所述测试视频帧V2中,在td时刻下视频帧中像素点位置处的异常行为从而获得所述训练视频帧V2中所有像素点位置的异常行为X:
X t d ( x &RightArrow; ) = 1 , e t d ( x &RightArrow; ) - B ( x &RightArrow; ) > &Theta; 0 , e t d ( x &RightArrow; ) - B ( x &RightArrow; ) < &Theta; - - - ( 12 )
式(12)中:表示测试视频帧V2中,在td时刻下视频帧中像素点位置处出现异常行为;表示测试视频帧V2中,在td时刻下视频帧中像素点位置处没有出现异常行为;Θ为所述方差的区间估计,并有
&Theta; &Element; ( ( N - 1 ) &sigma; ^ 2 &chi; &xi; / 2 2 ( N - 1 ) , ( N - 1 ) &sigma; ^ 2 &chi; 1 - &xi; / 2 2 ( N - 1 ) ) - - - ( 13 )
式(13)中:表示自由度为N-1的χ2分布;ξ为χ2分布的显著水平;
步骤8:在所述测试视频帧V2中截取包含异常行为的所有视频帧作为视频摘要。
与已有技术相比,本发明有益效果体现在:
1、本发明提出了一种新颖的异常行为检测方法,通过计算目标运动标签并引入目标描述符为视频中的运动建立行为模型,将问题转化为训练视频和观测视频中行为图的比较问题;并利用区间估计理论,获得行为差分的阈值,定位异常行为发生的区域。
2、本发明通过采用估计时间窗内的运动标签均值的方法,对利用传统的背景差分法进行运动目标检测的方法做出了改进,可以有效地增强运动目标检测在复杂背景(如相机抖动、非结构化背景运动等)下的鲁棒性,提高运动目标检测的准确性,并且保持背景差分法计算量小、运算速度快的特点;
3、本发明引入了一种通过生成低维的背景行为图为视频序列建立动态特性统计模型的方法,避免了传统方法需要对目标进行跟踪、特征提取、分割或最优化迭代等复杂的多阶段处理过程,简化了计算复杂度,提高了检测效率;
4、本发明的方法是基于对训练样本和观测样本之间的行为差分,而不像传统方法往往需要将具体目标的行为模板与观测样本中的行为进行匹配。因此本发明的方法不受具体目标类别的限制,对在同一段视频中的人或者车辆等任意目标具有普适性。
附图说明
图1为本发明实施例流程示意图;
图2为本发明在相机抖动或复杂运动背景的条件下,与其他三种运动目标检测算法的对比图。
具体实施方式
如图1所示,一种基于异常行为检测的视频摘要方法可以分为异常行为检测、检测结果的标注和视频摘要的生成三个主要环节,并按如下具体步骤进行:
步骤1、利用一固定的摄像头获取在时间段T=(t1,t2,...td...,ts)内的视频,每一时刻对应一帧视频,从而获得视频帧 表示在td时刻下的视频帧;1≤d≤s;s为视频的总帧数;从视频帧中选取在时间段T'=(tα,tα+1,...tβ...,tα+N)内的视频帧作为训练视频帧,N为训练视频的总帧数;表示在tβ时刻下的视频帧;α≤β≤α+N;则其余视频帧为测试视频帧V2=V-V1;训练视频帧V1只包含正常行为;测试视频帧V2包含正常行为和异常行为;
在具体实施中,采用CVPR2012变化检测数据集进行实验。CVPR2012变化检测数据集分为六大类共31个视频序列,包含各种内容和形式的视频,从黑白到彩色,从室内到室外,从城市到自然环境等。通常选取200-1000帧作为训练视频。
步骤2、利用中值滤波法获得视频帧V的背景图像b;中值滤波法背景建模的原理是以相等的间隔抽取视频中的帧图像,对所有抽取的图像中每一个像素位置的像素值进行排序,取中间值作为背景图像位于该像素位置的像素值。例如有一250帧的视频,每10帧抽取1帧,共得到25帧图像;对像素位置A的25个像素值按从小到大的顺序排序,选取其中第13个像素值作为获得的背景图像在像素位置A处的像素值。可以选取视频的前200-500帧用于生成背景图像,并对背景进行实时更新。
步骤3、利用式(1)获得td时刻下视频帧中任意像素点位置的运动标签从而获得td时刻下视频帧中所有像素点位置的运动标签
式(1)中:表示视频帧中的像素点位置;表示td时刻下视频帧中像素点位置的像素值,表示td时刻下视频帧中的背景图像;α为判断阈值;在本实施例中,选取参数α=20。表示该像素处于“忙碌”状态,表示该像素处于“空闲”状态。在一段时间内一个像素位置处的运动标签表示为一段二进制波形,可以看作是一种简单的行为信号。
步骤4、运动目标留下的行为信号还与其大小、形状、速度等有关。目标描述符和运动标签可以共同描述目标的行为信号。选择基于目标大小的目标描述符有两个原因:第一,它很简洁,并且在大量的视频资料中都取得很好的效果,具有足够的辨识力;第二,它可以通过如下步骤有效地近似表示。
首先,利用式(2)获得td时刻下视频帧中任意像素点位置的基于尺寸的目标描述符从而获得td时刻下视频帧中所有像素点位置的目标描述符
r t d ( x &RightArrow; ) = 1 W &times; W &Sigma; y &RightArrow; &Element; W ( x &RightArrow; ) &delta; ( m t d ( x &RightArrow; ) , m t d ( y &RightArrow; ) ) - - - ( 2 )
式(2)中:表示td时刻下视频帧中以像素点位置为中心,以W×W为大小的窗口;表示在窗口内与像素点位置相邻的像素点位置;并有:
式(3)中:表示td时刻下视频帧中像素点位置的运动标签;当时,像素点位置与像素点位置都被认为是运动的;当目标描述符时,表示像素点位置远离运动位置;当像素点位置逐渐靠近运动目标,目标描述符呈非线性增加;当像素点位置属于一个完全覆盖窗口的运动目标时,目标描述符 r t d ( x &RightArrow; ) = 1 .
步骤5、一个事件是和一段时间范围联系起来的。将像素点位置处一个γ帧时间窗内运动目标的行为信号定义为一个事件。联合运动标签序列MΓ和目标描述符序列RΓ,从而建立事件模型
步骤5.1、利用式(1)获得在时间窗Γ=[td-γ+1,td]内运动标签序列MΓ利用式(2)获得在时间窗Γ=[td-γ+1,td]内目标描述符序列RΓγ为参数;1≤γ≤s;在本实施例中,γ设为24。
步骤5.2、利用式(4)所示的隐马尔可夫模型获得运动标签序列MΓ的概率
P x &RightArrow; ( M &Gamma; ) = &omega;q &Sigma; k 1 &beta; k 1 p &Sigma; k 2 &theta; k 2 ( 1 - q ) l ( 1 - p ) n - - - ( 4 )
式(4)中:ω为隐马尔科夫模型的初始运动状态概率;p为静止状态概率,1-p为静止转移概率;q为运动状态概率,1-q为运动转移概率;表示静止状态的时间间隔,表示运动状态的时间间隔;l表示从运动到静止状态的转移次数;n表示从静止到运动状态的转移次数;1≤k1≤l;1≤k2≤n;
步骤5.3、利用式(5)获得运动标签序列MΓ和目标描述符序列RΓ的联合概率
P x &RightArrow; ( R &Gamma; , M &Gamma; ) = P x &RightArrow; ( R &Gamma; | M &Gamma; ) &CenterDot; P x &RightArrow; ( M &Gamma; ) - - - ( 5 )
式(5)中,为条件概率函数,假设“空闲”和“忙碌”阶段相互独立,因为一个像素的不同“忙碌”阶段对应不同目标;不同的“空闲”阶段对应两个目标之间不同的时间间隔。则并有:
P x &RightArrow; ( R &Gamma; | M &Gamma; ) = &Pi; k P x &RightArrow; ( R &beta; k | M &beta; k ) P x &RightArrow; ( R &theta; k | M &theta; k ) - - - ( 6 )
步骤5.4、对式(5)取负对数后获得如式(7)所示的td时刻下视频帧中任意像素点位置的事件模型从而获得td时刻下视频帧中所有像素点位置的事件模型
e t d ( x &RightArrow; ) = &Sigma; i = t d - &gamma; + 1 t d ( ( D 1 + D 3 r i ( x &RightArrow; ) ) m i ( x &RightArrow; ) ) + D 2 &Omega; d ( x &RightArrow; ) - - - ( 7 )
式(7)中:D1,D2,D3为所设定的参数;在本实施例中,设定D1=0,D2=0,D3=1;表示在时间窗Γ中的像素点位置处的状态转移总数;td-γ+1≤i≤td
步骤6:学习训练视频帧V1获得行为背景图
步骤6.1、首先,重复步骤3-步骤5获得训练视频帧V1中tβ时刻下视频帧中所有像素点位置的事件模型
步骤6.2、背景行为图实际上描述了训练视频中正常行为发生的概率。假设事件在像素点位置处与时间无关,并且服从均值为μ方差为σ2的高斯分布,根据最大似然估计理论,利用式(8)和式(9)分别估计训练视频帧V1中事件模型的均值和方差
&mu; ^ = 1 N &Sigma; t &beta; = 1 N e t &beta; ~ ( x &RightArrow; ) - - - ( 8 )
&sigma; ^ 2 = 1 N - 1 &Sigma; t &beta; = 1 N ( e t &beta; ~ ( x &RightArrow; ) - 1 N &Sigma; t &beta; = 1 N e t &beta; ~ ( x &RightArrow; ) ) 2 - - - ( 9 )
步骤6.3、根据高斯分布的定义,如果令背景行为图则测试视频中一半的行为将会被认为是异常。可以认为异常行为发生的概率在一定的区间范围内,那么根据高斯分布和区间估计原理,获得如式(10)所示的训练视频帧V1中事件模型的均值的置信区间将会提高异常行为检测的精确性:
( 1 N &Sigma; t &beta; = 1 N e t &beta; ~ ( x &RightArrow; ) - t &eta; / 2 ( N - 1 ) &sigma; ^ N , 1 N &Sigma; t &beta; = 1 N e t &beta; ~ ( x &RightArrow; ) + t &eta; / 2 ( N - 1 ) &sigma; ^ N ) - - - ( 10 )
式(10)中:tη/2(N-1)表示自由度为N-1的t分布,η为所设定的t分布的显著水平;在本实施例中,η选取10%。
步骤6.4、利用式(11)获得训练视频帧V1中像素点位置处的行为背景图从而获得训练视频帧V1中所有像素点位置的行为背景图B:
B ( x &RightArrow; ) = 1 N &Sigma; t &beta; = 1 N e t &beta; ~ ( x &RightArrow; ) + t &eta; / 2 ( N - 1 ) &sigma; ^ N - - - ( 11 )
步骤7:利用式(12)获得测试视频帧V2中,在td时刻下视频帧中像素点位置处的异常行为从而获得训练视频帧V2中所有像素点位置的异常行为X:
X t d ( x &RightArrow; ) = 1 , e t d ( x &RightArrow; ) - B ( x &RightArrow; ) > &Theta; 0 , e t d ( x &RightArrow; ) - B ( x &RightArrow; ) < &Theta; - - - ( 12 )
式(12)中:表示测试视频帧V2中,在td时刻下视频帧中像素点位置处出现异常行为;表示测试视频帧V2中,在td时刻下视频帧中像素点位置处没有出现异常行为;Θ为方差的区间估计,并有
&Theta; &Element; ( ( N - 1 ) &sigma; ^ 2 &chi; &xi; / 2 2 ( N - 1 ) , ( N - 1 ) &sigma; ^ 2 &chi; 1 - &xi; / 2 2 ( N - 1 ) ) - - - ( 13 )
式(13)中:表示自由度为N-1的χ2分布;ξ为所设定的χ2分布的显著水平;在本实施例中,ξ选取5%。
捕获了时间窗Γ内观测到的目标行为,因此可以将其称为观察行为图。由于观察行为图与一段时间内运动目标标签及目标描述符统计量相关,最终检测出的异常行为通常伴随着严重的拖尾现象。为了解决这个问题,精确的异常目标轮廓可以通过式(14)获得:
O t d ( x &RightArrow; ) = X t d ( x &RightArrow; ) - X t d - 1 &prime; ( x &RightArrow; ) - - - ( 14 )
式(14)中:表示经过去除拖尾运算后,在td时刻下视频帧中像素点位置处的异常行为,表示存在异常,表示没有异常;表示在td-1时刻下视频帧中像素点位置处的异常行为,其事件模型与时间窗Γ'=[td-γ+1,td-1]相关。
步骤8:异常行为被检测出之后,采用联通区域的方法标记异常事件的位置,用一个矩形框将异常的目标包围起来,并定义一个最小矩形框阈值,去除小于这个阈值的不可能包含异常行为的矩形框。按照一定的比例放大其余的矩形框,确保其完全覆盖检测到的目标。最后,在测试视频帧V2中截取包含异常行为的所有视频帧作为视频摘要。本实施例中,矩形框阈值设定为5×5,矩形框放大比例取值为20%。
实施例:
图1中的原始视频为高速公路口一个摄像机拍摄的画面,可用于检测经过此路段的大型车辆或是否发生交通事故等。
为了验证本发明中对运动目标检测的改进效果,从2012CVPR变化检测数据集选取了3个视频进行检测。图2为在相机抖动或复杂运动背景的条件下,本发明与3种运动目标检测算法的比较。将每种算法检测到的运动目标与手工标注的真实值比较,图2中的Recall代表检测正确的前景像素点个数与真实前景像素点个数之比,图2中False Positive Rate代表检测错误的背景像素点个数与真实背景像素点个数之比。图2中GMM代表混合高斯背景建模法检测的结果,图2中Vibe代表视觉背景提取方法的检测结果,图2中Background Subtraction代表背景差分法检测的结果。图2中的(a)为一固定的红外摄像机拍摄的波光粼粼的湖面的场景,图2中的(b)为一手持的抖动摄像机拍摄的羽毛训练的场景。如前,图2结果显示本发明可以有效地增强运动目标检测在复杂背景(如相机抖动、非结构化背景运动等)下的鲁棒性,提高运动目标检测的准确性,同时保持较高的运算速度。对于320×240像素的视频,本发明运行速度可达46.91帧/秒。

Claims (1)

1.一种基于异常行为检测的视频摘要方法,其特征是按如下步骤进行:
步骤1、利用一固定的摄像头获取在时间段T=(t1,t2,...td...,ts)内的视频,每一时刻对应一帧视频,从而获得视频帧 表示在td时刻下的视频帧;1≤d≤s;s为视频的总帧数;从所述视频帧中选取在时间段T'=(tα,tα+1,...tβ...,tα+N)内的视频帧作为训练视频帧,N为训练视频的总帧数;表示在tβ时刻下的视频帧;α≤β≤α+N;则其余视频帧为测试视频帧V2=V-V1;所述训练视频帧V1只包含正常行为;所述测试视频帧V2包含正常行为和异常行为;
步骤2、利用中值滤波法获得所述视频帧V的背景图像b;
步骤3、利用式(1)获得td时刻下视频帧中任意像素点位置的运动标签从而获得td时刻下视频帧中所有像素点位置的运动标签
式(1)中:表示视频帧中的像素点位置;表示td时刻下视频帧中像素点位置的像素值,表示td时刻下视频帧中的背景图像;α为判断阈值;
步骤4、利用式(2)获得td时刻下视频帧中任意像素点位置的基于尺寸的目标描述符从而获得td时刻下视频帧中所有像素点位置的目标描述符
r t d ( x &RightArrow; ) = 1 W &times; W &Sigma; y &RightArrow; &Element; W ( x &RightArrow; ) &delta; ( m t d ( x &RightArrow; ) , m t d ( y &RightArrow; ) ) - - - ( 2 )
式(2)中:表示td时刻下视频帧中以像素点位置为中心,以W×W为大小的窗口;表示在窗口内与像素点位置相邻的像素点位置;并有:
式(3)中:表示td时刻下视频帧中像素点位置的运动标签;
步骤5、联合所述运动标签序列MΓ和目标描述符序列RΓ,从而建立事件模型
步骤5.1、利用式(1)获得在时间窗Γ=[td-γ+1,td]内运动标签序列MΓ利用式(2)获得在时间窗Γ=[td-γ+1,td]内目标描述符序列RΓ R &Gamma; = ( r t d - &gamma; + 1 ( x &RightArrow; ) , r t d - &gamma; + 2 ( x &RightArrow; ) , . . . , r t d ( x &RightArrow; ) ) ; γ为参数;1≤γ≤s;
步骤5.2、利用式(4)所示的隐马尔可夫模型获得所述运动标签序列MΓ的概率
P x &RightArrow; ( M &Gamma; ) = &omega;q &Sigma; k 1 &beta; k 1 p &Sigma; k 2 &theta; k 2 ( 1 - q ) l ( 1 - p ) n - - - ( 4 )
式(4)中:ω为隐马尔科夫模型的初始运动状态概率;p为静止状态概率,1-p为静止转移概率;q为运动状态概率,1-q为运动转移概率;表示静止状态的时间间隔,表示运动状态的时间间隔;l表示从运动到静止状态的转移次数;n表示从静止到运动状态的转移次数;1≤k1≤l;1≤k2≤n;
步骤5.3、利用式(5)获得所述运动标签序列MΓ和目标描述符序列RΓ的联合概率
P x &RightArrow; ( R &Gamma; , M &Gamma; ) = P x &RightArrow; ( R &Gamma; | M &Gamma; ) &CenterDot; P x &RightArrow; ( M &Gamma; ) - - - ( 5 )
式(5)中,为条件概率函数,并有:
P x &RightArrow; ( R &Gamma; | M &Gamma; ) = &Pi; k P x &RightArrow; ( R &beta; k | M &beta; k ) P x &RightArrow; ( R &theta; k | M &theta; k ) - - - ( 6 )
步骤5.4、对式(5)取负对数后获得如式(7)所示的td时刻下视频帧中任意像素点位置的事件模型从而获得td时刻下视频帧中所有像素点位置的事件模型
e t d ( x &RightArrow; ) = &Sigma; i = t d - &gamma; + 1 t d ( ( D 1 + D 3 r i ( x &RightArrow; ) ) m i ( x &RightArrow; ) ) + D 2 &Omega; d ( x &RightArrow; ) - - - ( 7 )
式(7)中:D1,D2,D3为所设定的参数;表示在时间窗Γ中的像素点位置处的状态转移总数;td-γ+1≤i≤td
步骤6:学习训练视频帧V1获得行为背景图
步骤6.1、重复步骤3-步骤5获得所述训练视频帧V1中tβ时刻下视频帧中所有像素点位置的事件模型
步骤6.2、利用式(8)和式(9)分别估计所述训练视频帧V1中事件模型的均值和方差
&mu; ^ = 1 N &Sigma; t &beta; = 1 N e t &beta; ~ ( x &RightArrow; ) - - - ( 8 )
&sigma; ^ 2 = 1 N - 1 &Sigma; t &beta; = 1 N ( e t &beta; ~ ( x &RightArrow; ) - 1 N &Sigma; t &beta; = 1 N e t &beta; ~ ( x &RightArrow; ) ) 2 - - - ( 9 )
步骤6.3、根据高斯分布和区间估计原理,获得如式(10)所示的所述训练视频帧V1中事件模型的均值的置信区间:
( 1 N &Sigma; t &beta; = 1 N e t &beta; ~ ( x &RightArrow; ) - t &eta; / 2 ( N - 1 ) &sigma; ^ N , 1 N &Sigma; t &beta; = 1 N e t &beta; ~ ( x &RightArrow; ) + t &eta; / 2 ( N - 1 ) &sigma; ^ N ) - - - ( 10 )
式(10)中:tη/2(N-1)表示自由度为N-1的t分布,η为t分布的显著水平;
步骤6.4、利用式(11)获得所述训练视频帧V1中像素点位置处的行为背景图从而获得所述训练视频帧V1中所有像素点位置的行为背景图B:
B ( x &RightArrow; ) = 1 N &Sigma; t &beta; = 1 N e t &beta; ~ ( x &RightArrow; ) + t &eta; / 2 ( N - 1 ) &sigma; ^ N - - - ( 11 )
步骤7:利用式(12)获得所述测试视频帧V2中,在td时刻下视频帧中像素点位置处的异常行为从而获得所述训练视频帧V2中所有像素点位置的异常行为X:
X t d ( x &RightArrow; ) = 1 , e t d ( x &RightArrow; ) - B ( x &RightArrow; ) > &Theta; 0 , e t d ( x &RightArrow; ) - B ( x &RightArrow; ) < &Theta; - - - ( 12 )
式(12)中:表示测试视频帧V2中,在td时刻下视频帧中像素点位置处出现异常行为;表示测试视频帧V2中,在td时刻下视频帧中像素点位置处没有出现异常行为;为所述方差的区间估计,并有
&Theta; &Element; ( ( N - 1 ) &sigma; ^ 2 &chi; &xi; / 2 2 ( N - 1 ) , ( N - 1 ) &sigma; ^ 2 &chi; 1 - &xi; / 2 2 ( N - 1 ) ) - - - ( 13 )
式(13)中:表示自由度为N-1的χ2分布;ξ为χ2分布的显著水平;
步骤8:在所述测试视频帧V2中截取包含异常行为的所有视频帧作为视频摘要。
CN201410469530.0A 2014-09-15 2014-09-15 一种基于异常行为检测的视频摘要方法 Active CN104268563B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410469530.0A CN104268563B (zh) 2014-09-15 2014-09-15 一种基于异常行为检测的视频摘要方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410469530.0A CN104268563B (zh) 2014-09-15 2014-09-15 一种基于异常行为检测的视频摘要方法

Publications (2)

Publication Number Publication Date
CN104268563A true CN104268563A (zh) 2015-01-07
CN104268563B CN104268563B (zh) 2017-05-17

Family

ID=52160083

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410469530.0A Active CN104268563B (zh) 2014-09-15 2014-09-15 一种基于异常行为检测的视频摘要方法

Country Status (1)

Country Link
CN (1) CN104268563B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105184818A (zh) * 2015-09-06 2015-12-23 山东华宇航天空间技术有限公司 一种视频监控异常行为检测方法及其检测系统
CN110929914A (zh) * 2019-10-10 2020-03-27 重庆特斯联智慧科技股份有限公司 一种利用轨迹大数据预测的区域精准布控方法和系统
CN111052128A (zh) * 2017-06-12 2020-04-21 矿业电信学校集团 用于检测和定位视频中的对象的描述符学习方法
CN112883902A (zh) * 2021-03-12 2021-06-01 百度在线网络技术(北京)有限公司 视频检测方法、装置、电子设备及存储介质
CN112907258A (zh) * 2021-01-26 2021-06-04 云南易见纹语科技有限公司 产品生产过程可视追溯方法、系统、电子设备及存储介质
CN115965899A (zh) * 2023-03-16 2023-04-14 山东省凯麟环保设备股份有限公司 一种基于视频分割的无人扫地机器车异常检测方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120038766A1 (en) * 2010-08-10 2012-02-16 Lg Electronics Inc. Region of interest based video synopsis
CN103927364A (zh) * 2014-04-18 2014-07-16 苏州科达科技股份有限公司 一种视频摘要数据的存储方法、系统及展示系统
CN103929685A (zh) * 2014-04-15 2014-07-16 中国华戎控股有限公司 一种视频摘要生成及索引方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120038766A1 (en) * 2010-08-10 2012-02-16 Lg Electronics Inc. Region of interest based video synopsis
CN103929685A (zh) * 2014-04-15 2014-07-16 中国华戎控股有限公司 一种视频摘要生成及索引方法
CN103927364A (zh) * 2014-04-18 2014-07-16 苏州科达科技股份有限公司 一种视频摘要数据的存储方法、系统及展示系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
李清霞等: "基于视频摘要的智能视频识别系统的设计与实现", 《电子设计工程》 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105184818A (zh) * 2015-09-06 2015-12-23 山东华宇航天空间技术有限公司 一种视频监控异常行为检测方法及其检测系统
CN105184818B (zh) * 2015-09-06 2018-05-18 山东华宇航天空间技术有限公司 一种视频监控异常行为检测方法及其检测系统
CN111052128A (zh) * 2017-06-12 2020-04-21 矿业电信学校集团 用于检测和定位视频中的对象的描述符学习方法
CN111052128B (zh) * 2017-06-12 2024-04-05 矿业电信学校集团 用于检测和定位视频中的对象的描述符学习方法
CN110929914A (zh) * 2019-10-10 2020-03-27 重庆特斯联智慧科技股份有限公司 一种利用轨迹大数据预测的区域精准布控方法和系统
CN112907258A (zh) * 2021-01-26 2021-06-04 云南易见纹语科技有限公司 产品生产过程可视追溯方法、系统、电子设备及存储介质
CN112883902A (zh) * 2021-03-12 2021-06-01 百度在线网络技术(北京)有限公司 视频检测方法、装置、电子设备及存储介质
CN112883902B (zh) * 2021-03-12 2023-01-24 百度在线网络技术(北京)有限公司 视频检测方法、装置、电子设备及存储介质
CN115965899A (zh) * 2023-03-16 2023-04-14 山东省凯麟环保设备股份有限公司 一种基于视频分割的无人扫地机器车异常检测方法及系统

Also Published As

Publication number Publication date
CN104268563B (zh) 2017-05-17

Similar Documents

Publication Publication Date Title
Chen et al. Augmented ship tracking under occlusion conditions from maritime surveillance videos
CN104268563A (zh) 一种基于异常行为检测的视频摘要方法
CN104392468B (zh) 基于改进视觉背景提取的运动目标检测方法
CN107133974B (zh) 高斯背景建模与循环神经网络相结合的车型分类方法
CN103886325B (zh) 一种分块的循环矩阵视频跟踪方法
CN102629384B (zh) 视频监控中异常行为的检测方法
CN101339655B (zh) 基于目标特征和贝叶斯滤波的视觉跟踪方法
CN103455797A (zh) 航拍视频中运动小目标的检测与跟踪方法
CN102622584B (zh) 视频监控中蒙面人脸的检测方法
Bedruz et al. Real-time vehicle detection and tracking using a mean-shift based blob analysis and tracking approach
CN102867195B (zh) 一种遥感图像多类目标检测和识别方法
CN104992453A (zh) 基于极限学习机的复杂背景下目标跟踪方法
CN104809463A (zh) 一种基于密集尺度不变特征转换字典学习的高精度火灾火焰检测方法
CN101968886A (zh) 基于质心跟踪框架的粒子滤波与均值漂移的细胞跟踪方法
CN112766136B (zh) 一种基于深度学习的空间车位检测方法
CN105913454A (zh) 一种视频图像中运动目标的像素坐标轨迹预测方法
CN105096342A (zh) 一种基于傅里叶描述子和方向梯度直方图的入侵检测算法
CN107315998A (zh) 基于车道线的车辆种类划分方法和系统
CN104680554A (zh) 基于surf的压缩跟踪方法和系统
Tourani et al. A robust vehicle detection approach based on faster R-CNN algorithm
CN109165602A (zh) 一种基于视频分析的黑烟车检测方法
CN106339677A (zh) 一种基于视频的铁路货车洒落物自动检测方法
CN106326840A (zh) 一种基于光流直方图熵的人群异常行为检测方法
CN104156979A (zh) 一种基于高斯混合模型的视频中异常行为在线检测方法
CN103693532A (zh) 一种电梯轿厢内暴力行为检测方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information

Inventor after: Hong Richang

Inventor after: Hao Yanbin

Inventor after: Yao Yao

Inventor after: Wang Meng

Inventor after: Liu Yiqun

Inventor after: Hao Shijie

Inventor after: Liu Xueliang

Inventor before: Hong Richang

Inventor before: Hao Yanbin

Inventor before: Yao Yao

Inventor before: Wang Meng

Inventor before: Hao Shijie

Inventor before: Liu Xueliang

COR Change of bibliographic data
GR01 Patent grant
GR01 Patent grant