CN107103614A - 基于层次独立成分编码的运动异常检测方法 - Google Patents

基于层次独立成分编码的运动异常检测方法 Download PDF

Info

Publication number
CN107103614A
CN107103614A CN201710236963.5A CN201710236963A CN107103614A CN 107103614 A CN107103614 A CN 107103614A CN 201710236963 A CN201710236963 A CN 201710236963A CN 107103614 A CN107103614 A CN 107103614A
Authority
CN
China
Prior art keywords
mrow
layers
primitive
response
msub
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710236963.5A
Other languages
English (en)
Other versions
CN107103614B (zh
Inventor
王雨廷
谢昭
吴克伟
孙永宣
段士雷
孙丹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anhui yourongsheng Communication Technology Co.,Ltd.
Original Assignee
Hefei University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hefei University of Technology filed Critical Hefei University of Technology
Priority to CN201710236963.5A priority Critical patent/CN107103614B/zh
Publication of CN107103614A publication Critical patent/CN107103614A/zh
Application granted granted Critical
Publication of CN107103614B publication Critical patent/CN107103614B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/207Analysis of motion for motion estimation over a hierarchy of resolutions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于层次独立成分编码的运动异常检测,在获取光流区域块的第一层训练集基础上,构建归一化矩阵及其特征向量,并对特征向量进行正交化作为初始基元,采用双曲正切变换损失函数进行基元学习,挖掘运动高频模式作为S1层基元;使用S1层学习基元对光流图像卷积获得初始响应,采用截断线性校正获取C1层响应;对C1层响应利用空间采样构建第二层训练集,学习S2层独立成分基元,采用截断线性校正获取C2层响应,挖掘获得S3层独立成分基元;对测试视频序列的光流进行S1层、S2层、S3层基元的逐层卷积获得运动模式响应,利用聚类方法生成多聚类中心,使用多高斯核密度估计实现异常概率估计,实现运动异常检测和区域标记。

Description

基于层次独立成分编码的运动异常检测方法
技术领域
本发明涉及异常检测方法领域,具体是一种基于层次独立成分编码的运动异常检测方法。
背景技术
近年来,视频场景的分析与理解研究吸引了来自计算机视觉领域众多研究者的关注,其致力于研究新技术、新方法去更精确快速地分析、理解场景内容,从而更有效地协助监控人员获取准确信息和处理突发事件,并最大限度地降低误报漏报,起到监督管理的作用。视频场景中的异常事件检测是其中一项重要的研究内容,同时也是研究的热点和难点。
异常检测最经典的做法通常是基于手工设计特征来进行异常检测。Hu等人在2006年发表的《A system for learning statistical motion patterns》采用多目标追踪算法提取正常运动轨迹特征,然后学习其统计分布,充分考虑时空信息用于异常检测。Cong等人在2013年发表的《Abnormal event detection in crowded scenes using sparserepresentation》提出了基于多尺度光流直方图的稀疏编码模型也成功用于异常检测,该模型采用稀疏重构代价(Sparse Reconstruction Cost,SRC)为判断准则。Li等人在2014年发表的《Anomaly detection and localization in crowded scenes》采用混合动态纹理模型对外观、运动以及空间尺度特征进行建模,提出了时空异常的联合检测器。专利201510707784.6《一种视频异常行为检测方法》以正常运动下不同位置的时空块训练出不同的光流阈值,消除了目标距离摄像头远近对光流特征提取造成的影响。上述方法虽然能够实现异常检测,但是其采用的是手工设计特征,该类特征需要专业的先验知识,而这在复杂的视频场景下难以实现,也限制了检测性能的进一步提升。
利用手工设计特征无法消除先验知识带来的局限性,基于低概率密度的异常检测方法被踢出。专利201510710563.4《一种拥挤场景下视频异常事件检测方法》基于训练视频序列图像块的局部特征进行聚类构建码本,计算测试图像的局部特征与码本的特征距离相似度,并结合前一时刻的信息进行事件判定。该方法虽然可以建立正常模型,但是当异常集群发生时聚类技术会失效。
近年来,深度学习方法被成功应用于各项视觉任务,证明了其强大的编码表达能力。Xu等人在2017年发表的《Detecting anomalous events in videos by learning deeprepresentations of Appearance and Motion》提出了外观和运动深度网络、学习运动、外观以及联合信息的特征表达用于异常检测。蔡瑞初等人在2015年发表的《基于多尺度时间递归神经网络的人群异常检测》提出了一种基于多尺度时间递归神经网络的人群异常检测和定位方法。专利201410469780.4《三维卷积神经网络训练方法、视频异常事件检测方法及装置》利用三维卷积神经网络提取了更具有表达能力的特征。但上述异常检测深层学习框架仅仅是输入直接至输出的黑盒子模式的学习过程,在学习过程中易产生过度拟合现象,从而导致结果不准确。
发明内容
本发明的目的是提供一种基于层次独立成分编码的运动异常检测方法,以解决现有技术异常表示方法对视觉感知层级关系描述能力不足的问题。
为了达到上述目的,本发明所采用的技术方案为:
基于层次独立成分编码的运动异常检测方法,其特征在于:包括以下步骤:
(1)、光流运动特征提取:
输入视频,对获取的视频帧序列进行图像归一化,依据连续两帧的亮度信息,计算两帧像素之间的运动关系,根据Lucas–Kanade光流算法,获取光流特征。
(2)、单层独立成分基元学习:
首先对训练图像块集合进行归一化操作,对归一化后的图像块集合进行行向量变换,获得归一化后的矩阵;对归一化后的矩阵进行PCA特征值求解,选择求解获得的前M1个特征向量作为初始化S1层的基元;然后使用Gram-Schmidt算法对初始化S1层的基元进行正交化处理,计算双曲正切变换损失函数的梯度;最后对S1层正交化处理后的基元进行迭代更新,计算每次基元更新的变化量,将每次迭代过程中的基元更新量与阈值比较,当基元更新量小于阈值则记为收敛状态,同时停止迭代更新,记录收敛状态的S1层基元即为学习获得的S1层基元;
(3)、层次独立成分基元学习:
首先根据步骤(2)学习获得的S1层基元,利用学习获得的S1层基元对光流图像进行卷积,获得S1层基元响应,对S1层基元响应进行截断线性校正,分析基元响应的多通道,进行全局归一化,获得校正后并全局归一化的S1层基元响应;然后对校正后并全局归一化的S1层基元响应校正后并全局归一化的S1层基元响应进行局部最大值汇聚,形成C1层基元响应;最后由C1层基元响应依次获得S2层基元,C2层基元响应和S3层基元;
(4)、建立基于高斯核密度估计的运动异常模型:
首先计算层次独立成分编码的运动模式的C3层基元响应,对视频序列多帧C3层基元响应,进行滑动窗口采样,对获得的正常运动特征集合聚类,获得k个正常聚类中心,根据各聚类中心中包含的样本数,作为聚类的先验概率;然后对测试视频帧的C3层基元局部采样响应,计算高斯核密度,计算测试视频帧采样响应,以及所有正常模式的后验概率;最后从k个正常中心聚类的后验概率中,选取最大后验概率值对应的运动模式作为当前测试匹配的运动模式。
所述的基于层次独立成分编码的运动异常检测方法,其特征在于:所述步骤(2)单层独立成分基元学习的过程如下:
(2.1)、对训练图像块集合进行归一化操作:
(2.1.1)、计算图像块集合的均值;
(2.1.2)、计算图像块集合的方差;
(2.1.3)、对图像块集合进行归一化操作,即对每个样本x,减去均值,除以方差,获得归一化后的图像块集合X1,norm={x1,norm};
(2.2)、初始化S1层的基元:
(2.2.1)、设置S1层基元的数量M1
(2.2.2)、对归一化后的图像块集合X1,norm进行行向量变换,对每个图像块样本x1,norm变形为行向量z1,获得归一化后的矩阵Z1
(2.2.3)、对归一化后的矩阵Z1进行PCA特征值求解,获得特征值向量V1和对应的特征值A1
(2.2.4)、对特征值A1降序排序,选择前M1个特征向量作为初始化S1层的基元V1,0
(2.3)、学习S1层的基元:
(2.3.1)、初始化S1层的基元V1,0进行正交化处理,使用Gram-Schmidt算法,获得正交化后的S1层基元W1,0={w1,0};
(2.3.2)、计算独立成分的重构系数,其计算方式如下:
Y1=W1,t·Z1
(2.3.3)、计算重构系数Y1的双曲正切变换,作为损失函数lY1=tanh(Y1);
(2.3.4)、计算双曲正切变换损失函数的梯度,其计算方式如下:
(2.3.5)、根据重构系数的负梯度方向,对S1层基元进行更新,即:
(2.3.6)、使用Gram-Schmidt算法,对更新后的基元V1,t+1正交化处理,获得正交化后的S1层基元W1,t+1
(2.3.7)、计算基元更新的变化量,其计算方式如下:
upt=W1,t+1·W1,t-E,
其中E为单位矩阵;
(2.3.8)、如果变化量upt大于阈值,则步骤(1.3.2)到步骤(1.3.7);如果变化量upt小于阈值,则停止迭代;
(2.3.9)、记录收敛时刻的S1层基元,为学习获得的S1层基元B1
所述的基于层次独立成分编码的运动异常检测方法,其特征在于:所述步骤(3)层次独立成分基元学习过程如下:
(3.1)、计算S1层响应:
(3.1.1)、计算S1层响应,其计算方式如下:
R1=B1*OF,
其中B1*OF表示S1层基元与光流图像的卷积操作;
(3.1.2)、对S1层响应进行截断线性校正,对R1={r1}中的各像素响应r1,进行截断处理r1,trun=max(0,r1);
(3.1.3)、对截断响应R1,trun={r1,trun},分析基元响应的多通道,进行全局归一化,即:
其中表示第j个基元的卷积响应;
(3.1.4)、在S1层的每个基元获得的响应图上,自左上角至右下角进行局部领域为2×2的无重叠地最大值汇聚,形成C1层基元响应
(3.2)、对C1层基元响应根据规则网格对图像进行滑动窗口采样,每采样一次获得一个基元响应图像块x2,其采样尺寸为s2×s2,采样块数为N2,获得训练响应块集合X2={x2};
(3.3)、对训练响应块集合X2={x2},重复步骤步骤(2)单层独立成分基元学习的过程,学习S2层独立成分基元B2
(3.4)、学习S3层独立成分基元,重复步骤(3.1)到(3.3),依次获得S2层响应,C2层响应和S3层基元B3
所述的基于层次独立成分编码的运动异常检测方法,其特征在于:所述步骤(4)建立基于高斯核密度估计的运动异常模型过程如下:
(4.1)、计算层次独立成分编码的运动模式的C3层响应:
(4.1.1)、输入测试视频序列;
(4.1.2)、计算测试视频光流;
(4.1.3)、对测试视频光流,重复步骤(3.1),计算测试视频序列光流的S1层响应;
(4.1.4)、对测试视频S1层响应,重复步骤(3.2),计算C1层响应;
(4.1.5)、对测试视频C1层响应,重复步骤(4.1.3)和步骤(4.1.4),计算C2层响应;
(4.1.6)、对测试视频C2层响应,重复步骤(4.1.3)和步骤(4.1.4),计算C3层响应;
(4.2)、高斯核密度估计:
(4.2.1)、对视频序列多帧C3层响应,进行滑动窗口采样,获得正常运动特征集合;
(4.2.2)、对正常运动特征集合聚类XM={xm},获得k个正常聚类中心XMC={xmc};
(4.2.3)、根据各聚类中心中包含的样本数,作为聚类的先验概率P(xmci);
(4.2.4)、对测试视频帧的C3层局部采样响应xmtest,计算高斯核密度,其计算公式如下:
其中h为高斯核的带宽;
(4.3)、计算测试视频帧采样响应xmtest,对所有正常模式的后验概率,即:
(4.4)、从k个正常中心聚类的后验概率中,选取最大后验概率值对应的运动模式作为当前测试匹配的运动模式inorm,其计算公式如下:
inorm=argmaxiP(xmci|xmtest)。
本发明提出来一种基于层次独立成分编码的运动异常检测方法,对现有的生物视觉层级编码框架,进行三级逐层学习拓展,提取层内视觉感知编码模式,实现层级信息传递;建立基于正常运动的多高斯核密度异常模型,计算正常模式的后验概率,最大后验概率的值作为测试匹配的运动模式,将匹配模式的后验概率的倒数作为异常概率,该概率大于采样阈值被认为是异常区域,并进行区域标记。
本发明克服了现有异常表示方法对视觉感知层级关系描述能力不足的问题,尤其是对运动高频模式的挖掘,提出了基于层次独立成分编码的运动异常检测。本发明通过对现有的生物视觉层级编码框架,进行三级逐层学习拓展,提取层内视觉感知编码模式,实现层级信息传递,能够体现运动模式尺度特征和结构化对应关系;进一步建立基于正常运动的多高斯核密度模型,实现对异常模式的检测。
与已有技术相比,本发明的有益效果体现在:
(1)使用独立成分编码能够挖掘出场景中的运动高频基元,这些基元蕴含了目标运动的特点,为后续统计方法提供判断目标运动合理性的依据,运动高频基元使提取的特征更具有代表性,相对于已有的手工特征能够提高检测的准确性。
(2)层次编码模型,能够体现人类视觉的结构化分析过程,体现目标运动的层次性,有利于分析不同目标的运动,分析目标在不同尺度下的运动,因此相对于单层运动高频基元来说,即体现了不同尺度下运动的位置约束关系,也有利于解释并发现微小运动对异常检测准确性的影响。
(3)异常检测的本质是低概率事件检测,但是由于运动异常的多样性,所以单模式难以兼顾模式查准率和模式查全率。多高斯核密度估计方法,即可以体现高斯模型对低概率事件的统计学判据,提高异常检测查准率,也可以覆盖多种可能的情况,提高异常检测查全率。
附图说明
图1为本发明提出的异常检测方法流程图;
图2为本发明实施例中正常异常光流运动模式,其中:
图2a为异常场景的亮度图像,图2b为异常场景的光流图像。
图3为本发明实施例中三层基元,其中:
图3a为S1层独立成分基元,图3b为S2层独立成分基元,图3c为S3层独立成分基元。
图4为本发明实施例中特征响应图,其中:
图4a为S1层的卷积后响应,图4b为S1层响应对应的光流图,图4c为S2层的卷积后响应,图4d为S2层响应对应的光流图,图4e为S3层的卷积后响应,图4f为S3层响应对应的光流图。
图5为本发明实施例中多高斯核密度估计示意图,其中:
图5a为多高斯核密度空间,图5b为测试样本在多高斯核密度空间的后验概率。
图6为本发明实施例中异常检测的概率和定位,其中:
图6a为示例帧1异常检测概率,图6b为示例帧1异常检测定位,图6c为示例帧2异常检测概率,图6d为示例帧2异常检测定位,图6e为示例帧3异常检测概率,图6f为示例帧3异常检测定位。
具体实施方式
下面结合附图及具体实施方式详细介绍本发明。本发明为一种基于层次独立成分编码的运动异常检测方法。具体流程如图1所示,本文发明主要包括三个步骤:光流运动特征提取,层次独立成分运动基元学习,运动异常检测。以下详细介绍这三个步骤:
步骤S1:光流运动特征提取。
步骤S1-1:输入视频,获取视频帧序列。
步骤S1-2:计算光流运动特征OF。
步骤S1-2-1:对视频帧序列进行图像归一化。
步骤S1-2-2:依据连续两帧的亮度信息,如图2a所示,计算两帧像素之间的运动关系,根据Lucas–Kanade光流算法,获取光流特征,如图2b所示。图2中亮区域表示异常模式,暗区域表示正常模式。
步骤S2:层次独立成分运动基元学习。
步骤S2-1:图像块采样构建训练集合,根据规则网格对图像进行滑动窗口采样,采样尺寸为s1×s1,采样块数为N1,获得训练图像块集合X1={x1}。
步骤S2-2:单层独立成分基元学习。
步骤S2-2-1:对训练图像块集合进行归一化操作。
步骤S2-2-1-1:计算图像块集合的均值。
步骤S2-2-1-2:计算图像块集合的方差。
步骤S2-2-1-3:对图像块集合进行归一化操作,即对每个样本x,减去均值,除以方差,获得归一化后的图像块集合X1,norm={x1,norm}。
步骤S2-2-2:初始化S1层的基元。
步骤S2-2-2-1:设置S1层基元的数量M1
步骤S2-2-2-2:对归一化后的图像块集合X1,norm进行行向量变换,对每个图像块样本x1,norm变形为行向量z1,获得归一化后的矩阵Z1
步骤S2-2-2-3:对归一化后的矩阵Z1进行PCA特征值求解,获得特征值向量V1和对应的特征值A1
步骤S2-2-2-4:对特征值A1降序排序,选择前M1个特征向量作为初始化S1层的基元V1,0
步骤S2-2-3:学习S1层的基元。
步骤S2-2-3-1:初始化S1层的基元V1,0进行正交化处理,使用Gram-Schmidt算法,获得正交化后的S1层基元W1,0={w1,0}。
步骤S2-2-3-2:计算独立成分的重构系数,其计算方式如下:
Y1=W1,t·Z1
步骤S2-2-3-3:计算重构系数Y1的双曲正切变换,作为损失函数lY1=tanh(Y1)。
步骤S2-2-3-4:计算双曲正切变换损失函数的梯度,其计算方式如下:
步骤S2-2-3-5:根据重构系数的负梯度方向,对S1层基元进行更新,即:
步骤S2-2-3-6:使用Gram-Schmidt算法,对更新后的基元V1,t+1正交化处理,获得正交化后的S1层基元W1,t+1
步骤S2-2-3-7:计算基元更新的变化量,其计算方式如下:
upt=W1,t+1·W1,t-E,
其中E为单位矩阵
步骤S2-2-3-8:如果变化量upt大于阈值,则步骤S2-2-3-2到步骤S2-2-3-7。如果变化量upt小于阈值,则停止迭代。
步骤S2-2-3-9:记录收敛时刻的S1层基元,为学习获得的S1层基元B1,如图3(a)所示。
步骤S2-3层次独立成分基元学习
步骤S2-3-1:计算S1层响应。
步骤S2-3-1-1:计算S1层响应,如图4a所示,其计算公式为:R1=B1*OF
其中B1*OF表示S1层基元与光流图像的卷积操作。
S1层响应对应的光流图,如图4b所示。
步骤S2-3-1-2:对S1层响应进行截断线性校正,对R1={r1}中的各像素响应r1,进行截断处理r1,trun=max(0,r1)。
步骤S2-3-1-3:对截断响应R1,trun={r1,trun},分析基元响应的多通道,进行全局归一化,即:
其中表示第j个基元的卷积响应。
步骤S2-3-1-4:在S1层的每个基元获得的响应图上,自左上角至右下角进行局部领域为2×2的无重叠地最大值汇聚,形成C1层基元响应
步骤S2-3-2:对C1层基元响应根据规则网格对图像进行滑动窗口采样,采样尺寸为s2×s2,采样块数为N2,获得训练响应块集合X2={x2}。
步骤S2-3-3:对训练响应块集合X2={x2}重复步骤S2-2,学习S2层独立成分基元B2,如图3b所示。
步骤S2-3-4:学习S3层独立成分基元,重复步骤S2-3-1到S2-3-3,依次获得S2层响应,C2层响应和S3层基元B3
S3层基元图如图3c所示;S2层响应图,如图4(c)所示,S2层对应的光流如图4d所示;S3层响应图,如图4e所示,S3层对应的光流如图4f所示。
步骤S3:运动异常检测。
步骤S3-1:基于多高斯核密度估计的运动异常模型。
步骤S3-1-1:计算层次独立成分编码的运动模式的C3层响应。
步骤S3-1-1-1:输入测试视频序列。
步骤S3-1-1-2:计算测试视频光流。
步骤S3-1-1-3:对测试视频光流,重复步骤S2-3-1,计算测试视频序列光流的S1层响应。
步骤S3-1-1-4:对测试视频S1层响应,重复步骤S2-3-2,计算C1层响应。
步骤S3-1-1-5:对测试视频C1层响应,重复步骤S3-1-1-3和步骤S3-1-1-4,计算C2层响应。
步骤S3-1-1-6:对测试视频C2层响应,重复步骤S3-1-1-3和步骤S3-1-1-4,计算C3层响应。
步骤S3-1-2:高斯核密度估计。
步骤S3-1-2-1:对视频序列多帧C3层响应,进行滑动窗口采样,获得正常运动特征集合XM={xm}。
步骤S3-1-2-2:对正常运动特征集合聚类XM={xm},获得k个正常聚类中心XMC={xmc}。
步骤S3-1-2-3:根据各聚类中心中包含的样本数,作为聚类的先验概率P(xmci)。
步骤S3-1-2-4:对测试视频帧的C3层局部采样响应xmtest,计算高斯核密度,多高斯核密度空间如图5a所示,
其中h为高斯核的带宽。
步骤S3-1-3:计算测试视频帧采样响应xmtest,对所有正常模式的后验概率,测试样本在多高斯核密度空间的后验概率如图5b所示,其计算公式如下:
步骤S3-1-4:从k个正常中心聚类的后验概率中,选取最大后验概率值对应
的运动模式作为当前测试匹配的运动模式inorm,其计算公式如下:
inorm=argmaxiP(xmci|xmtest),
步骤S3-2:运动异常检测。
步骤S3-2-1:将匹配模式inorm后验概率的倒数,作为异常概率,即:
步骤S3-2-2:设置异常阈值τAb,记录异常概率大于阈值的采样Ab(xmtest)>τAb,为异常区域。
步骤S3-2-3:在测试帧中对异常区域进行位置标记,实现异常检测,异常检测的概率和定位如图6所示。

Claims (4)

1.基于层次独立成分编码的运动异常检测方法,其特征在于:包括以下步骤:
(1)、光流运动特征提取:
输入视频,对获取的视频帧序列进行图像归一化,依据连续两帧的亮度信息,计算两帧像素之间的运动关系,根据Lucas–Kanade光流算法,获取光流特征。
(2)、单层独立成分基元学习:
首先对训练图像块集合进行归一化操作,对归一化后的图像块集合进行行向量变换,获得归一化后的矩阵;对归一化后的矩阵进行PCA特征值求解,选择求解获得的前M1个特征向量作为初始化S1层的基元;然后使用Gram-Schmidt算法对初始化S1层的基元进行正交化处理,计算双曲正切变换损失函数的梯度;最后对S1层正交化处理后的基元进行迭代更新,计算每次基元更新的变化量,将每次迭代过程中的基元更新量与阈值比较,当基元更新量小于阈值则记为收敛状态,同时停止迭代更新,记录收敛状态的S1层基元即为学习获得的S1层基元;
(3)、层次独立成分基元学习:
首先根据步骤(2)学习获得的S1层基元,利用学习获得的S1层基元对光流图像进行卷积,获得S1层基元响应,对S1层基元响应进行截断线性校正,分析基元响应的多通道,进行全局归一化,获得校正后并全局归一化的S1层基元响应;然后对校正后并全局归一化的S1层基元响应校正后并全局归一化的S1层基元响应进行局部最大值汇聚,形成C1层基元响应;最后由C1层基元响应依次获得S2层基元,C2层基元响应和S3层基元;
(4)、建立基于高斯核密度估计的运动异常模型:
首先计算层次独立成分编码的运动模式的C3层基元响应,对视频序列多帧C3层基元响应,进行滑动窗口采样,对获得的正常运动特征集合聚类,获得k个正常聚类中心,根据各聚类中心中包含的样本数,作为聚类的先验概率;然后对测试视频帧的C3层基元局部采样响应,计算高斯核密度,计算测试视频帧采样响应,以及所有正常模式的后验概率;最后从k个正常中心聚类的后验概率中,选取最大后验概率值对应的运动模式作为当前测试匹配的运动模式。
2.根据权利要求1所述的基于层次独立成分编码的运动异常检测方法,其特征在于:所述步骤(2)单层独立成分基元学习的过程如下:
(2.1)、对训练图像块集合进行归一化操作:
(2.1.1)、计算图像块集合的均值;
(2.1.2)、计算图像块集合的方差;
(2.1.3)、对图像块集合进行归一化操作,即对每个样本x,减去均值,除以方差,获得归一化后的图像块集合X1,norm={x1,norm};
(2.2)、初始化S1层的基元:
(2.2.1)、设置S1层基元的数量M1
(2.2.2)、对归一化后的图像块集合X1,norm进行行向量变换,对每个图像块样本x1,norm变形为行向量z1,获得归一化后的矩阵Z1
(2.2.3)、对归一化后的矩阵Z1进行PCA特征值求解,获得特征值向量V1和对应的特征值A1
(2.2.4)、对特征值A1降序排序,选择前M1个特征向量作为初始化S1层的基元V1,0
(2.3)、学习S1层的基元:
(2.3.1)、初始化S1层的基元V1,0进行正交化处理,使用Gram-Schmidt算法,获得正交化后的S1层基元W1,0={w1,0};
(2.3.2)、计算独立成分的重构系数,其计算方式如下:
Y1=W1,t·Z1
(2.3.3)、计算重构系数Y1的双曲正切变换,作为损失函数lY1=tanh(Y1);
(2.3.4)、计算双曲正切变换损失函数的梯度,其计算方式如下:
<mrow> <msub> <mi>gY</mi> <mn>1</mn> </msub> <mo>=</mo> <mfrac> <mrow> <mo>&amp;part;</mo> <msub> <mi>lY</mi> <mn>1</mn> </msub> </mrow> <mrow> <mo>&amp;part;</mo> <msub> <mi>Y</mi> <mn>1</mn> </msub> </mrow> </mfrac> <mo>=</mo> <mn>1</mn> <mo>-</mo> <msup> <mi>tanh</mi> <mn>2</mn> </msup> <mrow> <mo>(</mo> <msub> <mi>Y</mi> <mn>1</mn> </msub> <mo>)</mo> </mrow> <mo>,</mo> </mrow>
(2.3.5)、根据重构系数的负梯度方向,对S1层基元进行更新,即:
<mrow> <msub> <mi>V</mi> <mrow> <mn>1</mn> <mo>,</mo> <mi>t</mi> <mo>+</mo> <mn>1</mn> </mrow> </msub> <mo>=</mo> <mo>-</mo> <msub> <mi>gY</mi> <mn>1</mn> </msub> <mo>&amp;CenterDot;</mo> <msub> <mi>W</mi> <mrow> <mn>1</mn> <mo>,</mo> <mi>t</mi> </mrow> </msub> <mo>+</mo> <mfrac> <mrow> <msub> <mi>lY</mi> <mn>1</mn> </msub> <mo>&amp;CenterDot;</mo> <msub> <mi>Z</mi> <mn>1</mn> </msub> </mrow> <msub> <mi>M</mi> <mn>1</mn> </msub> </mfrac> <mo>,</mo> </mrow>
(2.3.6)、使用Gram-Schmidt算法,对更新后的基元V1,t+1正交化处理,获得正交化后的S1层基元W1,t+1
(2.3.7)、计算基元更新的变化量,其计算方式如下:
upt=W1,t+1·W1,t-E,
其中E为单位矩阵;
(2.3.8)、如果变化量upt大于阈值,则步骤(1.3.2)到步骤(1.3.7);如果变化量upt小于阈值,则停止迭代;
(2.3.9)、记录收敛时刻的S1层基元,为学习获得的S1层基元B1
3.根据权利要求1所述的基于层次独立成分编码的运动异常检测方法,其特征在于:所述步骤(3)层次独立成分基元学习过程如下:
(3.1)、计算S1层响应:
(3.1.1)、计算S1层响应,其计算方式如下:
R1=B1*OF,
其中B1*OF表示S1层基元与光流图像的卷积操作;
(3.1.2)、对S1层响应进行截断线性校正,对R1={r1}中的各像素响应r1,进行截断处理r1,trun=max(0,r1);
(3.1.3)、对截断响应R1,trun={r1,trun},分析基元响应的多通道,进行全局归一化,即:
<mrow> <msubsup> <mi>r</mi> <mrow> <mn>1</mn> <mo>,</mo> <mi>n</mi> <mi>o</mi> <mi>r</mi> <mi>m</mi> </mrow> <mi>j</mi> </msubsup> <mo>=</mo> <mfrac> <msubsup> <mi>r</mi> <mrow> <mn>1</mn> <mo>,</mo> <mi>t</mi> <mi>r</mi> <mi>u</mi> <mi>n</mi> </mrow> <mi>j</mi> </msubsup> <msqrt> <mrow> <mi>&amp;sigma;</mi> <mo>+</mo> <msub> <mi>&amp;Sigma;</mi> <mi>i</mi> </msub> <msup> <mrow> <mo>(</mo> <msubsup> <mi>r</mi> <mrow> <mn>1</mn> <mo>,</mo> <mi>t</mi> <mi>r</mi> <mi>u</mi> <mi>n</mi> </mrow> <mi>i</mi> </msubsup> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </msqrt> </mfrac> <mo>,</mo> </mrow>
其中表示第j个基元的卷积响应;
(3.1.4)、在S1层的每个基元获得的响应图上,自左上角至右下角进行局部领域为2×2的无重叠地最大值汇聚,形成C1层基元响应
(3.2)、对C1层基元响应根据规则网格对图像进行滑动窗口采样,每采样一次获得一个基元响应图像块x2,其采样尺寸为s2×s2,采样块数为N2,获得训练响应块集合X2={x2};
(3.3)、对训练响应块集合X2={x2},重复步骤步骤(2)单层独立成分基元学习的过程,学习S2层独立成分基元B2
(3.4)、学习S3层独立成分基元,重复步骤(3.1)到(3.3),依次获得S2层响应,C2层响应和S3层基元B3
4.根据权利要求1或3所述的基于层次独立成分编码的运动异常检测方法,其特征在于:所述步骤(4)建立基于高斯核密度估计的运动异常模型过程如下:
(4.1)、计算层次独立成分编码的运动模式的C3层响应:
(4.1.1)、输入测试视频序列;
(4.1.2)、计算测试视频光流;
(4.1.3)、对测试视频光流,重复步骤(3.1),计算测试视频序列光流的S1层响应;
(4.1.4)、对测试视频S1层响应,重复步骤(3.2),计算C1层响应;
(4.1.5)、对测试视频C1层响应,重复步骤(4.1.3)和步骤(4.1.4),计算C2层响应;
(4.1.6)、对测试视频C2层响应,重复步骤(4.1.3)和步骤(4.1.4),计算C3层响应;
(4.2)、高斯核密度估计:
(4.2.1)、对视频序列多帧C3层响应,进行滑动窗口采样,获得正常运动特征集合;
(4.2.2)、对正常运动特征集合聚类XM={xm},获得k个正常聚类中心XMC={xmc};
(4.2.3)、根据各聚类中心中包含的样本数,作为聚类的先验概率P(xmci);
(4.2.4)、对测试视频帧的C3层局部采样响应xmtest,计算高斯核密度,其计算公式如下:
<mrow> <mi>P</mi> <mrow> <mo>(</mo> <msub> <mi>xm</mi> <mrow> <mi>t</mi> <mi>e</mi> <mi>s</mi> <mi>t</mi> </mrow> </msub> <mo>|</mo> <mi>x</mi> <mi>m</mi> <mi>c</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mn>1</mn> <mi>k</mi> </mfrac> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>k</mi> </munderover> <mfrac> <mn>1</mn> <mrow> <mi>h</mi> <msqrt> <mrow> <mn>2</mn> <mi>&amp;pi;</mi> </mrow> </msqrt> </mrow> </mfrac> <mi>exp</mi> <mo>{</mo> <mrow> <mo>-</mo> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> <msup> <mrow> <mo>(</mo> <mfrac> <mrow> <msub> <mi>xm</mi> <mrow> <mi>t</mi> <mi>e</mi> <mi>s</mi> <mi>t</mi> </mrow> </msub> <mo>-</mo> <msub> <mi>xmc</mi> <mi>i</mi> </msub> </mrow> <mi>h</mi> </mfrac> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> <mo>}</mo> <mo>,</mo> </mrow>
其中h为高斯核的带宽;
(4.3)、计算测试视频帧采样响应xmtest,对所有正常模式的后验概率,即:
<mrow> <mi>P</mi> <mrow> <mo>(</mo> <msub> <mi>xmc</mi> <mi>i</mi> </msub> <mo>|</mo> <msub> <mi>xm</mi> <mrow> <mi>t</mi> <mi>e</mi> <mi>s</mi> <mi>t</mi> </mrow> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mrow> <mi>P</mi> <mrow> <mo>(</mo> <msub> <mi>xm</mi> <mrow> <mi>t</mi> <mi>e</mi> <mi>s</mi> <mi>t</mi> </mrow> </msub> <mo>|</mo> <msub> <mi>xmc</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mi>P</mi> <mrow> <mo>(</mo> <msub> <mi>xmc</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> </mrow> <mrow> <msubsup> <mo>&amp;Sigma;</mo> <mrow> <mi>n</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>k</mi> </msubsup> <mi>P</mi> <mrow> <mo>(</mo> <msub> <mi>xm</mi> <mrow> <mi>t</mi> <mi>e</mi> <mi>s</mi> <mi>t</mi> </mrow> </msub> <mo>|</mo> <msub> <mi>xmc</mi> <mi>n</mi> </msub> <mo>)</mo> </mrow> <mi>P</mi> <mrow> <mo>(</mo> <msub> <mi>xmc</mi> <mi>n</mi> </msub> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>;</mo> </mrow>
(4.4)、从k个正常中心聚类的后验概率中,选取最大后验概率值对应的运动模式作为当前测试匹配的运动模式inorm,其计算公式如下:
inorm=argmaxiP(xmci|xmtest)。
CN201710236963.5A 2017-04-12 2017-04-12 基于层次独立成分编码的运动异常检测方法 Active CN107103614B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710236963.5A CN107103614B (zh) 2017-04-12 2017-04-12 基于层次独立成分编码的运动异常检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710236963.5A CN107103614B (zh) 2017-04-12 2017-04-12 基于层次独立成分编码的运动异常检测方法

Publications (2)

Publication Number Publication Date
CN107103614A true CN107103614A (zh) 2017-08-29
CN107103614B CN107103614B (zh) 2019-10-08

Family

ID=59674934

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710236963.5A Active CN107103614B (zh) 2017-04-12 2017-04-12 基于层次独立成分编码的运动异常检测方法

Country Status (1)

Country Link
CN (1) CN107103614B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108647592A (zh) * 2018-04-26 2018-10-12 长沙学院 基于全卷积神经网络的群体异常事件检测方法和系统
CN109064507A (zh) * 2018-08-21 2018-12-21 北京大学深圳研究生院 一种用于视频预测的多运动流深度卷积网络模型方法
CN109885728A (zh) * 2019-01-16 2019-06-14 西北工业大学 基于元学习的视频摘要方法
CN110310242A (zh) * 2019-06-27 2019-10-08 深圳市商汤科技有限公司 一种图像去模糊方法及装置、存储介质
CN111935487A (zh) * 2020-08-12 2020-11-13 汪礼君 一种基于视频流检测的图像压缩方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101271527A (zh) * 2008-02-25 2008-09-24 北京理工大学 一种基于运动场局部统计特征分析的异常行为检测方法
CN101799876A (zh) * 2010-04-20 2010-08-11 王巍 一种视音频智能分析管控系统
CN102708573A (zh) * 2012-02-28 2012-10-03 西安电子科技大学 复杂场景下的群体运动模式检测方法
CN104268594A (zh) * 2014-09-24 2015-01-07 中安消技术有限公司 一种视频异常事件检测方法及装置
CN106228149A (zh) * 2016-08-04 2016-12-14 杭州电子科技大学 一种视频异常行为检测方法
CN106548153A (zh) * 2016-10-27 2017-03-29 杭州电子科技大学 基于多尺度变换下图结构的视频异常检测方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101271527A (zh) * 2008-02-25 2008-09-24 北京理工大学 一种基于运动场局部统计特征分析的异常行为检测方法
CN100568266C (zh) * 2008-02-25 2009-12-09 北京理工大学 一种基于运动场局部统计特征分析的异常行为检测方法
CN101799876A (zh) * 2010-04-20 2010-08-11 王巍 一种视音频智能分析管控系统
CN102708573A (zh) * 2012-02-28 2012-10-03 西安电子科技大学 复杂场景下的群体运动模式检测方法
CN104268594A (zh) * 2014-09-24 2015-01-07 中安消技术有限公司 一种视频异常事件检测方法及装置
CN106228149A (zh) * 2016-08-04 2016-12-14 杭州电子科技大学 一种视频异常行为检测方法
CN106548153A (zh) * 2016-10-27 2017-03-29 杭州电子科技大学 基于多尺度变换下图结构的视频异常检测方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
DURA-BERNAL 等: "Top-Down Feedback in an HMAX-Like Cortical Model of Object Perception Based on Hierarchical Bayesian Networks and Belief Propagation", 《PLOS ONE》 *
N. PATIL 等: "Global abnormal events detection in surveillance video-A hierarchical approach", 《2016 SIXTH INTERNATIONAL SYMPOSIUM ON EMBEDDED COMPUTING AND SYSTEM DESIGN (ISED)》 *
孙剑芬: "基于高斯核密度估计的运动目标检测新方法", 《计算机技术与发展》 *
芮挺: "核密度估计与高斯模型联级运动目标检测", 《计算机工程与应用》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108647592A (zh) * 2018-04-26 2018-10-12 长沙学院 基于全卷积神经网络的群体异常事件检测方法和系统
CN109064507A (zh) * 2018-08-21 2018-12-21 北京大学深圳研究生院 一种用于视频预测的多运动流深度卷积网络模型方法
CN109064507B (zh) * 2018-08-21 2021-06-22 北京大学深圳研究生院 一种用于视频预测的多运动流深度卷积网络模型方法
CN109885728A (zh) * 2019-01-16 2019-06-14 西北工业大学 基于元学习的视频摘要方法
CN109885728B (zh) * 2019-01-16 2022-06-07 西北工业大学 基于元学习的视频摘要方法
CN110310242A (zh) * 2019-06-27 2019-10-08 深圳市商汤科技有限公司 一种图像去模糊方法及装置、存储介质
CN111935487A (zh) * 2020-08-12 2020-11-13 汪礼君 一种基于视频流检测的图像压缩方法及系统

Also Published As

Publication number Publication date
CN107103614B (zh) 2019-10-08

Similar Documents

Publication Publication Date Title
CN107103614A (zh) 基于层次独立成分编码的运动异常检测方法
CN110210551B (zh) 一种基于自适应主体敏感的视觉目标跟踪方法
CN106407889B (zh) 基于光流图深度学习模型在视频中人体交互动作识别方法
CN105069413B (zh) 一种基于深度卷积神经网络的人体姿势识别方法
CN109993774A (zh) 基于深度交叉相似匹配的在线视频目标跟踪方法
CN108229338A (zh) 一种基于深度卷积特征的视频行为识别方法
CN107818571A (zh) 基于深度学习网络和均值漂移的船只自动跟踪方法及系统
CN107330357A (zh) 基于深度神经网络的视觉slam闭环检测方法
CN107506692A (zh) 一种基于深度学习的密集人群计数与人员分布估计方法
CN112597985B (zh) 一种基于多尺度特征融合的人群计数方法
CN105488456B (zh) 基于自适应阈值调整拒识子空间学习的人脸检测方法
CN107146237A (zh) 一种基于在线状态学习与估计的目标跟踪方法
CN106408594A (zh) 基于多伯努利特征协方差的视频多目标跟踪方法
CN109598220B (zh) 一种基于多元输入多尺度卷积的人数统计方法
CN105160310A (zh) 基于3d卷积神经网络的人体行为识别方法
CN106096577A (zh) 一种摄像头分布地图中的目标追踪系统及追踪方法
CN107016357A (zh) 一种基于时间域卷积神经网络的视频行人检测方法
CN110378288A (zh) 一种基于深度学习的多级时空运动目标检测方法
CN107689052A (zh) 基于多模型融合和结构化深度特征的视觉目标跟踪方法
CN106127812B (zh) 一种基于视频监控的客运站非出入口区域的客流统计方法
CN111080675A (zh) 一种基于时空约束相关滤波的目标跟踪方法
CN107563349A (zh) 一种基于VGGNet的人数估计方法
CN106408030A (zh) 基于中层语义属性和卷积神经网络的sar图像分类方法
CN112415521A (zh) 基于cgru的强时空特性雷达回波临近预报方法
Qi et al. FTC-Net: Fusion of transformer and CNN features for infrared small target detection

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20210615

Address after: 233010 China (Anhui) free trade Experimental Zone, Yuhui District, Bengbu District, Anhui Province

Patentee after: Anhui yourongsheng Communication Technology Co.,Ltd.

Address before: Tunxi road in Baohe District of Hefei city of Anhui Province, No. 193 230009

Patentee before: Hefei University of Technology

TR01 Transfer of patent right