CN108805002B - 基于深度学习和动态聚类的监控视频异常事件检测方法 - Google Patents
基于深度学习和动态聚类的监控视频异常事件检测方法 Download PDFInfo
- Publication number
- CN108805002B CN108805002B CN201810320572.6A CN201810320572A CN108805002B CN 108805002 B CN108805002 B CN 108805002B CN 201810320572 A CN201810320572 A CN 201810320572A CN 108805002 B CN108805002 B CN 108805002B
- Authority
- CN
- China
- Prior art keywords
- sampling
- vector
- image
- video
- vectors
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
- G06V20/47—Detecting features for summarising video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/44—Event detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及了一种基于深度学习和动态聚类的监控视频异常事件检测方法。特征提取阶段,运用深度学习网络PCANet,通过训练视频学习出对应的网络滤波器,并通过深度网络来将低层的像素点光流特征转化成高层的语义运动特征;同时通过对视频当中运动区域的筛选,剔除掉只包含有背景信息的时空采样块。在特征建模阶段,运用基于两层聚类的非参数模型来对特征向量空间进行建模,并在向量合并阶段采用向量相向合并的方法,最后运用K均值聚类算法将字典集合中的向量聚类成一系列的事件簇,并根据测试向量与事件簇中心向量之间的欧氏距离来进行异常事件判断。本发明有效的避免了因相加而导致的特征向量发生偏移,提高了异常事件检测率。
Description
技术领域
本发明涉及一种监控视频异常事件检测方法,特别涉及一个基于深度学习和动态聚类的监控视频异常事件检测方法。
背景技术
随着计算机科学技术的发展,利用图像处理、计算机视觉、机器学习等技术可以突破传统视频监控系统的局限性,实现对视频监控系统的视频智能分析和异常事件的主动检测、实时预警,对于公共安全领域的视频监控应用有重要价值。
监控视频中异常事件检测方法主要分为四个基本步骤:图像预处理、基本事件表示、构建异常检测模型和判断异常事件。其中基本事件表示主要分为基于低级视觉特征的事件表示和基于高级语义特征的事件表示。基于低级视觉特征进行事件表示的做法一般是从用重叠、非重叠或者时空兴趣点的方式将视频体分割成小的视频块,把视频块看作基本的事件,从视频块中提取低级视觉特征对基本事件进行表示。目前,使用较多的低级视觉特征有光流、梯度、纹理等。基于高级语义特征的事件表示主要是需要对数据进行复杂的模式处理,如目标时空轨迹、社会力等方法。常见的异常事件检测模型主要有:基于分类的异常事件检测模型、基于最近邻的异常事件检测模型、基于聚类的异常事件检测模型、基于统计的异常事件检测模型、基于信息理论的异常事件检测模型等。
虽然监控视频下的异常事件检测方法多种多样,但是多数的异常事件检测方法运用参数模型来对运动特征进行建模,这其中需要自行设置许多的模型参数,但是参数经验值在改变视频场景时往往需要重新进行设置。在文献《Online anomaly detection invideos by clustering dynamic exemplars》【J Feng,C Zhang,P Hao】中,作者对于那些视频中新出现的、或是出现概率很低的异常事件,提出了一种基于聚类的非参数模型来对特征向量进行建模,首先从输入的视频流当中提取出MHOF特征,然后将这些特征依次输入到大小固定的字典集合当中进行合并,再将合并后的字典集合运用K均值算法进行聚类;在异常事件判断阶段,该算法通过判断特征向量与聚类码本之间的距离来进行异常判断。
上述算法在检测异常事件上表现良好,但是仍存在着以下问题:
1.该算法采用MHOF特征对视频当中的运动进行描述,而HOF、HOG等人工构造特征的描述效果虽然不错,但是在不同的视频场景中各种特征的适用性不同,改变场景往往需要同时改变所运用的特征,不太适用于多场景的异常事件检测;
2.该算法在字典集合的向量合并中,采用简单的加权相加方式,这样会导致经过大量向量更新之后,字典集合中的特征向量的值相对于原先的值发生了偏移,对最终的检测造成了影响;
3.该算法中对于低频率异常事件的检测通过统计字典集合中向量的出现频次并计算相应码本的频率占比来进行,然而在特征提取阶段采用的则是对整幅图像进行的密集采样,这样当视频场景为稀疏场景时,采样得到的特征向量大部分为背景信息,从而字典集合中表示背景信息的向量的频次计数值就会很大,使得相对应的码本频率占比过高,导致其他运动事件的频率都小于了判断阈值,造成误检。
发明内容
针对上述问题,本发明公开了一种基于深度学习和动态聚类的监控视频异常事件检测方法。该方法运用PCANet自动对视频采样块进行深度特征提取,同时对采样块进行运动区域筛选,并采用一个基于向量合并的两层聚类模型来对特征集合进行聚类建模。
本发明解决其技术问题采用的技术方案步骤如下:
步骤S101:图像预处理。读取监控视频流作为输入,进行灰度化并使用高斯滤波进行降噪处理。
步骤S102:重叠采样。对输入算法的视频流,首先计算出中每一帧图像中每一个像素点的光流值,并用像素点光流值替换掉灰度值;然后对I进行大小固定的重叠采样,输出一系列大小为N×N的视频采样图像块。
步骤S103:运动区域筛选。对于采样得到的所有视频采样图像块,首先运用直方图双峰法统计得到划分图像中运动像素点与背景像素点的划分阈值,然后根据该阈值对每个采样图像块进行判断,筛选出包含运动事件的采样图像块,将那些只包含有背景信息的采样块剔除不予考虑。
步骤S104:深度特征提取。在得到只包含有运动信息的采样图像块之后,将这些视频采样图像块输入到3层PCANet中,来进行参数训练;在深度网络训练完毕之后,再一次将图像块输入到训练好的深度网络当中,网络对于每个采样图像块输出与之对应的深度特征。
步骤S105:动态聚类建模。对于深度特征向量集合,首先将特征向量依次输入大小固定的字典集合当中,若集合数量超过上界,则将最接近的两个特征向量进行合并以维持总数不变;维护好之后,对字典集合运用K均值算法进行聚类操作,输出对应的事件簇码本。
步骤S106:模型构建完毕之后,输入测试视频,对测试视频的每帧图像进行采样并进行运动区域判断,然后将采样图像输入到训练好的PCANet中输出对应的深度特征,最后将特征向量与事件簇码本进行比较,若与所有的码本的距离均大于各自的阈值,就判定为是异常事件。
本发明的有益效果:
1.本发明运用深度学习网络来对采样块进行深度特征提取,与传统的运用人工构造特征相比,深度特征对于视频场景的鲁棒性更好,且不需要花时间对某一特定场景做特征选取实验来决定运用哪一种特征对场景中的运动进行描述。
2.本发明在模型构建阶段,维护大小固定的字典集合中,运用两个向量相向合并的方法来代替简单的加权相加,有效的避免了因相加而导致的特征向量发生偏移,提高了异常事件检测率。
3.本发明在特征提取之前,加入了运动区域筛选过程,剔除掉无用的背景信息,只对包含有显著运动的采样块进行后续计算,不仅提高了算法检测速度,而且在稀疏场景下提高了异常事件检测率。
附图说明
图1为本发明进行监控视频下的异常事件检测的流程图;
图2为本发明进行监控视频下的异常事件检测的示意图;
图3为重叠采样流程图;
图4为运动区域筛选流程图;
图5为深度特征提取流程图;
图6为动态聚类建模流程图;
图7为异常事件检测流程图;
图8为相邻采样块位置示意图;
图9为本发明最终结果图。
具体实施方式
下面结合附图,对本发明的具体实施方案作进一步详细描述。如图1-9所示,其具体步骤描述如下:
步骤S101:图像预处理。
输入视频流Iin,对Iin进行灰度化并使用高斯滤波进行降噪处理。高斯滤波降噪处理的具体操作如下:用一个3×3的高斯卷积核扫描视频帧中的每一个像素,用该卷积确定的领域内像素的加权平均灰度值去替代卷积中心像素点的值,输出经过处理之后的视频流I。
步骤S102:重叠采样。
输入经过处理的视频流I,首先计算视频流I当中每一帧图像的每一个像素点的光流值,并用像素点的光流值替换掉灰度值,然后对I进行大小固定的重叠采样,输出大小相同且固定的视频采样图像块集合Cell。参见图3,具体过程如下:
步骤S301:拟合前一帧视频图像。输入I中相邻两个图像帧中的前一帧,对于相邻连续的两个视频帧中的前一帧,对帧中的每个像素点的邻域使用一个多项式来近似进行表达
其中A为对称矩阵,b为向量,c为标量,其值可以通过加权最小二乘法进行拟合求得,输出对该帧图像的拟合多项式f1(x)。
步骤S302:拟合后一帧视频图像。输入I中相邻两个图像帧中的后一帧,对于相邻帧中的后一帧,运用同样的方法进行近似表达
并通过加权最小二乘法求得多项式参数,输出该帧图像的拟合多项式f2(x)。
步骤S303:前后表达式关联求解。输入相邻两帧图像的拟合多项式f1(x)和f2(x),由于两个多项式表示的是视频图像中相邻的连续两帧图像,所以它们之间存在着运动相关性,设两帧之间像素点的位移为d,则有
其中
A2=A1
b2=b1-2A1d
再将位移d定义为关于x的函数,将对应的A和b定义为
可得像素点x的位移为
d(x)=A-1(x)Δb(x)
输出前一帧图像中每个像素点的位移d(x)。
步骤S304:像素点灰度值替换。输入视频流I以及每一帧图像所对应的位移d(x),在求得视频流I中的每帧每个像素点的光流值之后,对于每个像素点,用该像素点的光流值替换掉原先的灰度值,输出对应的经过替换之后的视频流Iout。
步骤S305:重叠采样。输入替换完毕之后的视频流Iout,从第一帧图像的第一个像素点开始,依次进行大小为N×N,重叠率为θ的重复采样,输出大小相同且固定的视频采样图像块集合Cell。其中N为空间维度上的采样大小,其值根据图像大小而定,一般情况下取N=24,重复率θ=0.5,即按照上述参数在采样过程中空间维度每隔12个像素点进行一次采样。
步骤S103:运动区域筛选。
经过步骤S102之后,本阶段输入大小相同且固定的视频采样图像块集合Cell,然而由于是重叠全局采样,所以在一些采样块当中仅仅只包含有背景信息,而不含有任何运动信息,所以本阶段我们对采样块进行筛选,剔除掉那些只包含有背景信息的采样块,输出包含有运动信息的采样块集合Cellout。参见图4,具体过程如下:
步骤S401:设定划分阈值。输入采样图像块集合Cell。对集合中所有采样块中的所有像素点的光流向量值进行直方图双峰统计,从0开始按照每隔δ为一个区间的方法,将所有像素点的光流值按照大小,在相应的区间中进行计数统计,得到对应的统计直方图,一般情况下δ=0.025。
计数统计完毕之后,得到对应的统计直方图,首先从小到大扫描直方图找到第一个波峰的位置,然后从大到小扫描直方图找到第二个波峰的位置,最后在两个波峰之间找到波谷的位置,将该波谷所对应的统计区间的中间数作为划分阈值ξ,输出该划分阈值ξ。
步骤S402:采样块运动区域判定。输入划分阈值ξ及采样图像块集合Cell,在得到划分阈值之后,接下来对每一个采样块进行筛选,若采样块中的像素点的光流向量大小大于阈值ξ,则认为该像素点所表示的是运动区域,定义为活跃像素点;若整个采样块中活跃像素点的占比大于P,就认为该采样块表示的是运动区域,否则认定为是背景采样块予以剔除,一般情况下P=20%,最后输出包含有运动信息的采样块集合Cellout。
步骤S104:深度特征提取。
经过步骤S103的处理,所剩下来的采样块图像中均存在运动事件。本阶段输入包含有运动信息的采样块集合Cellout,首先运用这些采样图像来训练一个3层的深度学习网络PCANet;然后再通过训练好的深度网络,来提取对应采样图像的深度特征,输出训练好的网络模型Net以及采样块集合对应的特征集合v。参见图5,具体过程如下:
步骤S501:网络第一层学习。输入采样图像块集合Cellout,深度网络的第一层设有L1个滤波器来对输入图像进行滤波。对于大小为N×N的采样图像,首先对其进行大小为k1×k2的密集采样,一般取k1=k2=5,并将每个采样重新排列成一个列向量xi,那么对于所有的视频采样块,可以得到一个采样向量矩阵X。
然后对矩阵X进行主成分分析,取前L1个最大特征值所对应的特征向量作为滤波器,将其重新排列成k1×k2大小的矩阵。对于每一个滤波器,用它来对输入的图像进行滤波,那么每一张输入的采样图像可以转化成L1张滤波图像一般情况下L1=4,输出与采样图像相对应的滤波图像Il。
步骤S502:网络第二层学习。输入第一层滤波图像Il,在网络的第二层中设有L2个滤波器,一般L2=4。与步骤S501相同,在第二层中首先对所有图像进行大小为k1×k2的密集采样并列向量化,得到采样向量矩阵X;然后对该矩阵进行主成分分析,选取前L2个最大特征值对应的特征向量作为滤波器,并用其对图像进行滤波。
其中H(*)为类单位阶跃函数
经过上述处理,每个像素点都被编码成[0,16)之间的整数。在得到整数矩阵Tl之后,再对该矩阵进行直方图统计,得到一个16维的直方图统计向量。
步骤S105:动态聚类建模。
经过步骤S104得到了所有采样图像所对应的深度特征。本阶段输入采样图像块的深度特征向量集合v,对于深度特征集合,通过一个两层聚类模型对其进行建模,输出事件簇码本c以及每个码本的最大类内距离d。参见图6,具体过程如下:
步骤S601:字典集合初始化。首先定义一个大小固定为N的空字典集合,然后将所有采样块的深度特征向量逐一加入到这个字典集合当中,并对字典集合中的每一个向量v进行计数ω(v),一般情况下N=200。
步骤S602:逐一加入特征向量。输入深度特征向量集合v,将v中的特征向量依次加入到字典集合当中,在加入的过程中,对于每一个新加入的特征向量,如果加入之后字典集合中的向量数量≤N,则直接加入,对应的新加入向量的计数值ω(v)=1;若=N+1,则需要对字典集合中的向量进行合并,使得字典集合中的向量总数维持N不变。
步骤S603:向量合并。输入待合并的字典集合,若需要进行向量合并,我们选取字典集合中欧氏距离最小的两个向量va=[x1a,x2a,…,xna]和vb=[x1b,x2b,…,xnb]进行合并。在合并过程中,我们将ω(*)值小的向量合并到ω(*)值大的向量当中,这里假设ω(va)≥ω(vb),将向量vb合并到va当中去。
对于待合并向量的每一维,比较两个向量在该维度上的取值,按照两者之间的取值大小来进行向量合并,设新向量为v=[x1,x2,…,xn],则有
xi=(1-α)xia+α×sign(xia,xib)×xib
并且在合并过程中,合并之后的新向量的计数值ω(v)为
ω(v)=ω(va)+ω(vb)
并将合并之后总数保持为N的字典集合输出。
步骤S604:码本聚类。输入维护完成之后的字典集合,在将所有深度特征向量依次加入到字典集合之后,最终只剩下N个经过合并之后的向量。对于这N个向量,再运用K均值算法对其进行聚类,将其聚类成k个事件簇码本,每个类代表视频中的一种运动事件,并记录下输出各个事件类中聚类中心与类内向量的最大距离d,其中取k=16。
步骤S106:异常事件检测。
步骤S105将输入算法的训练数据集转化成了相应的模型,并生成了对应的事件簇码本,每个码本代表了训练视频中的一类运动事件。在本阶段,算法将对输入的测试视频进行异常事件检测,输出经过检测标注之后的视频流,参见图7,具体过程如下:
步骤S701:计算运动事件出现概率。在步骤S105当中,经过K均值聚类,可以得到每个事件簇码本的中心向量,以及该事件簇的最大类内距离。那么对于每个中心向量ci,定义该事件簇的ω(*)值为所有属于该类的向量的ω(*)值之和。
在得到每个事件簇的计数值ω(*)之后,将计数值转化成对应的出现概率p(ci)
表示该事件簇码本所对应的运动事件,在训练视频中出现的概率是多少。
步骤S702:测试视频特征提取。计算完概率之后,对于输入的测试视频,首先按照步骤S101进行图像预处理;然后按照步骤S102进行采样,得到一系列的采样块;再安装步骤S103的方法进行运动区域筛选,剔除掉那些只包含有背景信息的采样块,只对包含有运动事件的采样块进行异常判断;筛选完毕之后,对于那些包含有运动信息的采样块,将采样块图像输入到训练好的PCANet网络当中,运用训练好的PCANet网络来生成相应的深度特征向量,输出对应的测试特征向量。
步骤S703:异常事件检测。输入测试特征向量,在得到测试采样块的深度特征向量之后,再对其进行异常判断。对于任意一个测试特征向量v,将其与所有事件簇的中心向量ci进行逐一比较,如果向量v与其中某一个中心向量ci之间的欧氏距离小于其对应的最大类内距离di,就认为该采样块所对应的运动是正常的,并转到步骤S705;如果向量v与所有ci之间的欧氏距离均大于各自的di,就判定为是异常的,并转到步骤S704。
步骤S704:二次检测。输入被判定为异常的采样块,对于那些被判定为是异常的视频图像采样块,为了消除掉噪声对检测的干扰,对其进行二次检测。对于每一个异常采样块,判断空间及时间维度上与之相邻的采样块(参见图8),如果其周围同时拥有M个以上的异常采样块,就将其认定为是异常的;否则重新将该采样块划分为正常的,一般情况下M=2。
步骤S705:在线更新。输入测试特征向量,在异常判断结束之后,需要将该测试采样块的深度特征向量更新到事件簇码本当中去,使得码本能够随着检测的深入逐渐学习视频中新出现的运动事件。为此需要将测试向量运用步骤S105的方法重新对事件簇码本进行更新。
Claims (6)
1.基于深度学习和动态聚类的监控视频异常事件检测方法,运用PCANet自动对视频采样图像块进行深度特征提取,同时对采样图像块进行运动区域筛选,并采用一个基于向量合并的两层聚类模型来对特征集合进行聚类建模,其特征在于包括如下步骤:
步骤1:图像预处理;读取监控视频流作为输入,进行灰度化并使用高斯滤波进行降噪处理;
步骤2:重叠采样;对输入的视频流,首先计算出中每一帧图像中每一个像素点的光流值,并用像素点光流值替换掉灰度值;然后对视频流进行大小固定的重叠采样,输出一系列大小为N×N的视频采样图像块;
步骤3:运动区域筛选;对于采样得到的所有视频采样图像块,首先运用直方图双峰法统计得到划分图像中运动像素点与背景像素点的划分阈值,然后根据该阈值对每个采样图像块进行判断,筛选出包含运动事件的采样图像块,将那些只包含有背景信息的采样图像块剔除不予考虑;
步骤4:深度特征提取;在得到只包含有运动信息的采样图像块之后,将这些视频采样图像块输入到3层PCANet中,来进行参数训练;在深度网络训练完毕之后,再一次将图像块输入到训练好的深度网络当中,网络对于每个采样图像块输出与之对应的深度特征;
步骤5:动态聚类建模;对于深度特征向量集合,首先将特征向量依次输入大小固定的字典集合当中,若集合数量超过上界,则将最接近的两个特征向量进行合并以维持总数不变;维护好之后,对字典集合运用K均值算法进行聚类操作,输出对应的事件簇码本;
步骤6:模型构建完毕之后,输入测试视频,对测试品是的每帧图像进行采样并进行运动区域判断,然后将采样图像输入到训练好的PCANet中输出对应的深度特征,最后将特征向量与事件簇码本进行比较,若与所有的码本的距离均大于各自的阈值,就判定为是异常事件。
2.根据权利要求1所述的基于深度学习和动态聚类的监控视频异常事件检测方法,其特征在于步骤2所述的重叠采样,具体如下:
步骤2-1:拟合前一帧视频图像;输入视频流I中相邻两个图像帧中的前一帧,对于相邻连续的两个视频帧中的前一帧,对帧中的每个像素点的邻域使用一个多项式来近似进行表达
其中A为对称矩阵,b为向量,c为标量,其值可以通过加权最小二乘法进行拟合求得,输出对该帧图像的拟合多项式f1(x);
步骤2-2:拟合后一帧视频图像;输入视频流I中相邻两个图像帧中的后一帧,对于相邻帧中的后一帧,运用同样的方法进行近似表达
并通过加权最小二乘法求得多项式参数,输出该帧图像的拟合多项式f2(x);
步骤2-3:前后表达式关联求解;输入相邻两帧图像的拟合多项式f1(x)和f2(x),由于两个多项式表示的是视频图像中相邻的连续两帧图像,所以它们之间存在着运动相关性,设两帧之间像素点的位移为d,则有
其中
A2=A1
b2=b1-2A1d
再将位移d定义为关于x的函数,将对应的A和b定义为
可得像素点x的位移为
d(x)=A-1(x)Δb(x)
输出前一帧图像中每个像素点的位移d(x);
步骤2-4:像素点灰度值替换;输入视频流I以及每一帧图像所对应的位移d(x),在求得视频流I中的每帧每个像素点的光流值之后,对于每个像素点,用该像素点的光流值替换掉原先的灰度值,输出对应的经过替换之后的视频流Iout;
步骤2-5:重叠采样;输入替换完毕之后的视频流Iout,从第一帧图像的第一个像素点开始,依次进行大小为N×N,重叠率为θ的重复采样,输出大小相同且固定的视频采样图像块集合Cell;其中N为空间维度上的采样大小,其值根据图像大小而定,N=24,重复率θ=0.5,即按照上述参数在采样过程中空间维度每隔12个像素点进行一次采样。
3.根据权利要求1所述的基于深度学习和动态聚类的监控视频异常事件检测方法,其特征在于步骤3所述的运动区域筛选,具体如下:
步骤3-1:设定划分阈值;输入采样图像块集合Cell;对集合中所有采样图像块中的所有像素点的光流向量值进行直方图双峰统计,从0开始按照每隔δ为一个区间的方法,将所有像素点的光流向量值按照大小,在相应的区间中进行计数统计,得到对应的统计直方图,δ=0.025;
计数统计完毕之后,得到对应的统计直方图,首先从小到大扫描直方图找到第一个波峰的位置,然后从大到小扫描直方图找到第二个波峰的位置,最后在两个波峰之间找到波谷的位置,将该波谷所对应的统计区间的中间数作为划分阈值ξ,输出该划分阈值ξ;
步骤3-2:采样图像块运动区域判定;输入划分阈值ξ及采样图像块集合Cell,在得到划分阈值之后,接下来对每一个采样图像块进行筛选,若采样图像块中的像素点的光流向量值大小大于阈值ξ,则认为该像素点所表示的是运动区域,定义为活跃像素点;若整个采样图像块中活跃像素点的占比大于P,就认为该采样图像块表示的是运动区域,否则认定为是背景采样图像块予以剔除,取P=20%,最后输出包含有运动信息的采样图像块集合Cellout。
4.根据权利要求1所述的基于深度学习和动态聚类的监控视频异常事件检测方法,其特征在于步骤4所述的深度特征提取,具体如下:
步骤4-1:网络第一层学习;输入采样图像块集合Cellout,深度网络的第一层设有L1个滤波器来对输入图像进行滤波;对于大小为N×N的采样图像,首先对其进行大小为k1×k2的密集采样,取k1=k2=5,并将每个采样重新排列成一个列向量xi,那么对于所有的视频采样图像块,从而得到一个采样向量矩阵X;
然后对矩阵X进行主成分分析,取前L1个最大特征值所对应的特征向量作为滤波器,将其重新排列成k1×k2大小的矩阵;对于每一个滤波器,用它来对输入的图像进行滤波,那么每一张输入的采样图像可以转化成L1张滤波图像L1=4,输出与采样图像相对应的滤波图像Il;
步骤4-2:网络第二层学习;输入第一层滤波图像Il,在网络的第二层中设有L2个滤波器,取L2=4;在第二层中首先对所有图像进行大小为k1×k2的密集采样并列向量化,得到采样向量矩阵X;然后对该矩阵进行主成分分析,选取前L2个最大特征值对应的特征向量作为滤波器,并用其对图像进行滤波;
经过上述处理,每个像素点都被编码成[0,16)之间的整数;在得到整数矩阵Tl之后,再对该矩阵进行直方图统计,得到一个16维的直方图统计向量;
5.根据权利要求1所述的基于深度学习和动态聚类的监控视频异常事件检测方法,其特征在于步骤5所述的动态聚类建模,具体如下:
步骤5-1:字典集合初始化;首先定义一个大小固定为N的空字典集合,然后将所有采样图像块的深度特征向量逐一加入到这个字典集合当中,并对字典集合中的每一个向量v进行计数ω(v),N=200;
步骤5-2:逐一加入特征向量;输入深度特征向量集合v,将v中的特征向量依次加入到字典集合当中,在加入的过程中,对于每一个新加入的特征向量,如果加入之后字典集合中的向量数量≤N,则直接加入,对应的新加入向量的计数值ω(v)=1;若=N+1,则需要对字典集合中的向量进行合并,使得字典集合中的向量总数维持N不变;
步骤5-3:向量合并;输入待合并的字典集合,若需要进行向量合并,选取字典集合中欧氏距离最小的两个向量va=[x1a,x2a,…,xna]和vb=[x1b,x2b,…,xnb]进行合并;在合并过程中,将ω(*)值小的向量合并到ω(*)值大的向量当中,这里假设ω(va)≥ω(vb),将向量vb合并到va当中去;
对于待合并向量的每一维,比较两个向量在该维度上的取值,按照两者之间的取值大小来进行向量合并,设新向量为v=[x1,x2,…,xn],则有
xi=(1-α)xia+α×sign(xia,xib)×xib
并且在合并过程中,合并之后的新向量的计数值ω(v)为
ω(v)=ω(va)+ω(vb)
并将合并之后总数保持为N的字典集合输出;
步骤5-4:码本聚类;输入维护完成之后的字典集合,在将所有深度特征向量依次加入到字典集合之后,最终只剩下N个经过合并之后的向量;对于这N个向量,再运用K均值算法对其进行聚类,将其聚类成k个事件簇码本,每个类代表视频中的一种运动事件,并记录下输出各个事件类中聚类中心与类内向量的最大距离d,其中取k=16。
6.根据权利要求1所述的基于深度学习和动态聚类的监控视频异常事件检测方法,其特征在于步骤6所述的异常事件检测,具体如下:
步骤6-1:计算运动事件出现概率;在步骤S105当中,经过K均值聚类,可以得到每个事件簇码本的中心向量,以及该事件簇的最大类内距离;那么对于每个中心向量ci,定义该事件簇的ω(*)值为所有属于该类的向量的ω(*)值之和;
在得到每个事件簇的计数值ω(*)之后,将计数值转化成对应的出现概率p(ci)
表示该事件簇码本所对应的运动事件,在训练视频中出现的概率是多少;
步骤6-2:测试视频特征提取;计算完概率之后,对于输入的测试视频,首先按照步骤1进行图像预处理;然后按照步骤2进行采样,得到一系列的采样图像块;再根据步骤3进行运动区域筛选,剔除掉那些只包含有背景信息的采样图像块,只对包含有运动事件的采样图像块进行异常判断;筛选完毕之后,对于那些包含有运动信息的采样图像块,将采样图像块图像输入到训练好的PCANet网络当中,运用训练好的PCANet网络来生成相应的深度特征向量,输出对应的测试特征向量;
步骤6-3:异常事件检测;输入测试特征向量,在得到测试采样图像块的深度特征向量之后,再对其进行异常判断;对于任意一个测试特征向量v,将其与所有事件簇的中心向量ci进行逐一比较,如果向量v与其中某一个中心向量ci之间的欧氏距离小于其对应的最大类内距离di,就认为该采样图像块所对应的运动是正常的,并转到步骤6-5;如果向量v与所有ci之间的欧氏距离均大于各自的di,就判定为是异常的,并转到步骤6-4;
步骤6-4:二次检测;输入被判定为异常的采样图像块,对于那些被判定为是异常的视频图像采样图像块,为了消除掉噪声对检测的干扰,对其进行二次检测;对于每一个异常采样图像块,判断空间及时间维度上与之相邻的采样图像块,如果其周围同时拥有M个以上的异常采样图像块,就将其认定为是异常的;否则重新将该采样图像块划分为正常的,M=2;
步骤6-5:在线更新;输入测试特征向量,在异常判断结束之后,需要将该测试采样图像块的深度特征向量更新到事件簇码本当中去,使得码本能够随着检测的深入逐渐学习视频中新出现的运动事件;为此需要将测试向量运用步骤5的方法重新对事件簇码本进行更新。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810320572.6A CN108805002B (zh) | 2018-04-11 | 2018-04-11 | 基于深度学习和动态聚类的监控视频异常事件检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810320572.6A CN108805002B (zh) | 2018-04-11 | 2018-04-11 | 基于深度学习和动态聚类的监控视频异常事件检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108805002A CN108805002A (zh) | 2018-11-13 |
CN108805002B true CN108805002B (zh) | 2022-03-01 |
Family
ID=64094844
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810320572.6A Active CN108805002B (zh) | 2018-04-11 | 2018-04-11 | 基于深度学习和动态聚类的监控视频异常事件检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108805002B (zh) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109460744B (zh) * | 2018-11-26 | 2021-08-27 | 南京邮电大学 | 一种基于深度学习的视频监控系统 |
CN110210530A (zh) * | 2019-05-15 | 2019-09-06 | 杭州智尚云科信息技术有限公司 | 基于机器视觉的智能监控方法、装置、设备、系统和存储介质 |
CN110362713B (zh) * | 2019-07-12 | 2023-06-06 | 四川长虹云数信息技术有限公司 | 基于Spark Streaming的视频监控预警方法及系统 |
CN111614627B (zh) * | 2020-04-27 | 2022-03-25 | 中国舰船研究设计中心 | 一种面向sdn的跨平面协作ddos检测与防御方法与系统 |
CN113836976A (zh) * | 2020-06-23 | 2021-12-24 | 江苏翼视智能科技有限公司 | 一种监控视频中全局异常事件的检测方法 |
CN111814644B (zh) * | 2020-07-01 | 2022-05-03 | 重庆邮电大学 | 一种基于扰动视觉解释的视频异常事件检测方法 |
CN112367292B (zh) * | 2020-10-10 | 2021-09-03 | 浙江大学 | 一种基于深度字典学习的加密流量异常检测方法 |
CN112866654B (zh) * | 2021-03-11 | 2023-02-28 | 福建环宇通信息科技股份公司 | 一种智能视频监控系统 |
CN113270200B (zh) * | 2021-05-24 | 2022-12-27 | 平安科技(深圳)有限公司 | 基于人工智能的异常患者识别方法及相关设备 |
CN113706837B (zh) * | 2021-07-09 | 2022-12-06 | 上海汽车集团股份有限公司 | 一种发动机异常状态检测方法和装置 |
CN114205726B (zh) * | 2021-09-01 | 2024-04-12 | 珠海市杰理科技股份有限公司 | 成品耳机的测试方法及装置、耳机制造系统 |
CN114092851B (zh) * | 2021-10-12 | 2024-10-01 | 甘肃泰合一科技有限责任公司 | 基于时序动作检测的监控视频异常事件检测方法 |
CN115492493A (zh) * | 2022-07-28 | 2022-12-20 | 重庆长安汽车股份有限公司 | 一种尾门控制方法、装置、设备及介质 |
CN115345527B (zh) * | 2022-10-18 | 2023-01-03 | 成都西交智汇大数据科技有限公司 | 化学实验异常操作检测方法、装置、设备及可读存储介质 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006012174A (ja) * | 2004-06-28 | 2006-01-12 | Mitsubishi Electric Research Laboratories Inc | ビデオ中の異常事象を検出する方法 |
CN101872418A (zh) * | 2010-05-28 | 2010-10-27 | 电子科技大学 | 基于群体环境异常行为的检测方法 |
CN103390278A (zh) * | 2013-07-23 | 2013-11-13 | 中国科学技术大学 | 一种视频异常行为检测系统 |
CN104123544A (zh) * | 2014-07-23 | 2014-10-29 | 通号通信信息集团有限公司 | 基于视频分析的异常行为检测方法及系统 |
CN105354542A (zh) * | 2015-10-27 | 2016-02-24 | 杭州电子科技大学 | 一种拥挤场景下视频异常事件检测方法 |
CN105608446A (zh) * | 2016-02-02 | 2016-05-25 | 北京大学深圳研究生院 | 一种视频流异常事件的检测方法及装置 |
CN105787472A (zh) * | 2016-03-28 | 2016-07-20 | 电子科技大学 | 一种基于时空拉普拉斯特征映射学习的异常行为检测方法 |
CN105913002A (zh) * | 2016-04-07 | 2016-08-31 | 杭州电子科技大学 | 视频场景下在线自适应的异常事件检测方法 |
CN106228149A (zh) * | 2016-08-04 | 2016-12-14 | 杭州电子科技大学 | 一种视频异常行为检测方法 |
CN106384092A (zh) * | 2016-09-11 | 2017-02-08 | 杭州电子科技大学 | 面向监控场景的在线低秩异常视频事件检测方法 |
CN106980829A (zh) * | 2017-03-17 | 2017-07-25 | 苏州大学 | 基于视频分析的打架斗殴异常行为自动检测方法 |
CN107590427A (zh) * | 2017-05-25 | 2018-01-16 | 杭州电子科技大学 | 基于时空兴趣点降噪的监控视频异常事件检测方法 |
CN107729799A (zh) * | 2017-06-13 | 2018-02-23 | 银江股份有限公司 | 基于深度卷积神经网络的人群异常行为视觉检测及分析预警系统 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090016610A1 (en) * | 2007-07-09 | 2009-01-15 | Honeywell International Inc. | Methods of Using Motion-Texture Analysis to Perform Activity Recognition and Detect Abnormal Patterns of Activities |
CN102831442A (zh) * | 2011-06-13 | 2012-12-19 | 索尼公司 | 异常行为检测设备和方法及生成该检测设备的设备和方法 |
-
2018
- 2018-04-11 CN CN201810320572.6A patent/CN108805002B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006012174A (ja) * | 2004-06-28 | 2006-01-12 | Mitsubishi Electric Research Laboratories Inc | ビデオ中の異常事象を検出する方法 |
CN101872418A (zh) * | 2010-05-28 | 2010-10-27 | 电子科技大学 | 基于群体环境异常行为的检测方法 |
CN103390278A (zh) * | 2013-07-23 | 2013-11-13 | 中国科学技术大学 | 一种视频异常行为检测系统 |
CN104123544A (zh) * | 2014-07-23 | 2014-10-29 | 通号通信信息集团有限公司 | 基于视频分析的异常行为检测方法及系统 |
CN105354542A (zh) * | 2015-10-27 | 2016-02-24 | 杭州电子科技大学 | 一种拥挤场景下视频异常事件检测方法 |
CN105608446A (zh) * | 2016-02-02 | 2016-05-25 | 北京大学深圳研究生院 | 一种视频流异常事件的检测方法及装置 |
CN105787472A (zh) * | 2016-03-28 | 2016-07-20 | 电子科技大学 | 一种基于时空拉普拉斯特征映射学习的异常行为检测方法 |
CN105913002A (zh) * | 2016-04-07 | 2016-08-31 | 杭州电子科技大学 | 视频场景下在线自适应的异常事件检测方法 |
CN106228149A (zh) * | 2016-08-04 | 2016-12-14 | 杭州电子科技大学 | 一种视频异常行为检测方法 |
CN106384092A (zh) * | 2016-09-11 | 2017-02-08 | 杭州电子科技大学 | 面向监控场景的在线低秩异常视频事件检测方法 |
CN106980829A (zh) * | 2017-03-17 | 2017-07-25 | 苏州大学 | 基于视频分析的打架斗殴异常行为自动检测方法 |
CN107590427A (zh) * | 2017-05-25 | 2018-01-16 | 杭州电子科技大学 | 基于时空兴趣点降噪的监控视频异常事件检测方法 |
CN107729799A (zh) * | 2017-06-13 | 2018-02-23 | 银江股份有限公司 | 基于深度卷积神经网络的人群异常行为视觉检测及分析预警系统 |
Non-Patent Citations (5)
Title |
---|
Abnormal Event Detection in Crowded Video Scenes;Gnanavel, VK 等;《Advances in Intelligent Systems and Computing》;20151231;第328卷;第441-448页 * |
Abnormal Events Detection Based on Trajectory Clustering;Najla Bouarada 等;《IEEE》;20160512;第301-306页 * |
基于深度学习特征的异常行为检测;王军 等;《湖南大学学报(自然科学版)》;20171031;第44卷(第10期);第130-138页 * |
基于视频图像块模型的局部异常行为检测;程艳云 等;《南京邮电大学学报(自然科学报)》;20170228;第37卷(第1期);第32-40页 * |
结合多属性的视频中全局异常事件检测方法;盖杰 等;《杭州电子科技大学学报(自然科学版)》;20160531;第36卷(第3期);第47-51页 * |
Also Published As
Publication number | Publication date |
---|---|
CN108805002A (zh) | 2018-11-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108805002B (zh) | 基于深度学习和动态聚类的监控视频异常事件检测方法 | |
CN110210551B (zh) | 一种基于自适应主体敏感的视觉目标跟踪方法 | |
CN109919032B (zh) | 一种基于动作预测的视频异常行为检测方法 | |
CN106778595B (zh) | 基于高斯混合模型的人群中异常行为的检测方法 | |
CN104268594B (zh) | 一种视频异常事件检测方法及装置 | |
CN110443761B (zh) | 一种基于多尺度聚合特征的单幅图像去雨方法 | |
CN111079539B (zh) | 一种基于异常追踪的视频异常行为检测方法 | |
CN110826389B (zh) | 基于注意力3d频率卷积神经网络的步态识别方法 | |
CN108846852B (zh) | 基于多示例和时间序列的监控视频异常事件检测方法 | |
CN107590427B (zh) | 基于时空兴趣点降噪的监控视频异常事件检测方法 | |
CN113379618B (zh) | 基于残差密集连接和特征融合的光学遥感图像去云方法 | |
CN110084201B (zh) | 一种监控场景下基于特定目标跟踪的卷积神经网络的人体动作识别方法 | |
CN110738663A (zh) | 双域适应模块金字塔型网络及无监督域适应图像分割方法 | |
Yu et al. | Robust median filtering forensics by CNN-based multiple residuals learning | |
CN110929621B (zh) | 一种基于拓扑信息细化的道路提取方法 | |
CN111488805A (zh) | 一种基于显著性特征提取的视频行为识别方法 | |
CN115082966B (zh) | 行人重识别模型训练方法、行人重识别方法、装置和设备 | |
Hu et al. | Parallel spatial-temporal convolutional neural networks for anomaly detection and location in crowded scenes | |
CN106503743A (zh) | 一种数量多且维数高的图像局部特征点自适应聚类方法 | |
CN111145145A (zh) | 一种基于MobileNets的图像表面缺陷检测方法 | |
CN112580545A (zh) | 基于多尺度自适应上下文网络的人群计数方法及系统 | |
Bounsaythip et al. | Genetic algorithms in image processing-a review | |
CN112308087A (zh) | 基于动态视觉传感器的一体化成像识别系统和方法 | |
CN116823627A (zh) | 一种基于图像复杂度评价的超大尺寸图像快速去噪方法 | |
CN113688715A (zh) | 面部表情识别方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |