CN111666819B - 一种融合多元信息的高精度视频异常事件检测方法 - Google Patents

一种融合多元信息的高精度视频异常事件检测方法 Download PDF

Info

Publication number
CN111666819B
CN111666819B CN202010391419.XA CN202010391419A CN111666819B CN 111666819 B CN111666819 B CN 111666819B CN 202010391419 A CN202010391419 A CN 202010391419A CN 111666819 B CN111666819 B CN 111666819B
Authority
CN
China
Prior art keywords
video
optical flow
image
image data
ith
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010391419.XA
Other languages
English (en)
Other versions
CN111666819A (zh
Inventor
涂志刚
常云鹏
陈雨劲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN202010391419.XA priority Critical patent/CN111666819B/zh
Publication of CN111666819A publication Critical patent/CN111666819A/zh
Application granted granted Critical
Publication of CN111666819B publication Critical patent/CN111666819B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种融合多元信息的高精度视频异常事件检测方法,实时检测与识别危害或可能危害公共安全的、与人相关的异常事件。针对深度学习算法在人群异常事件检测中的不足,尤其针对复杂场景,本发明提出了一种基于运动信息与光谱信息融合的深度学习网络的视频异常事件检测方法,力图提高异常事件检测在复杂场景中的准确率。视频特征主要包括视频帧的亮度信息和视频中目标的运动信息,通过构建空间特征自编码器和运动特征自编码器,分别进行视频空间特征和运动信息的提取,以及视频序列的重建,对于重建误差大于阈值的视频序列帧标记为异常事件。这种有效融合视频运动信息和光谱亮度信息的方法,较好的提高人群异常事件检测的鲁棒性与实用性。

Description

一种融合多元信息的高精度视频异常事件检测方法
技术领域
本发明涉及视频内容分析技术,尤其涉及一种融合多元信息的高精度视频异常事件检测方法。
背景技术
视频中的异常事件检测是指识别不符合预期行为的事件。在视频监控应用中是一项非常重要的任务,直接关乎人民群众安全、城市管理、社会稳定。因为异常事件在实际应用中是随时发生的、无法预知的,收集各种异常事件并用分类方法解决问题几乎是不可行的,因此视频人群异常事件检测是视频内容分析中最具挑战性的任务之一。相对于动作识别而言,视频中人群异常行为的定义覆盖极其的广泛,其定义至今都非常模糊。导致目前异常事件检测的处理机制,处理精度与效率都不够理想。
在传统方法中,大多通过手工设计的特征方法来检测异常事件,设计的特征用以代表每个视频,包括视频序列的特征信息和运动信息,并通过重建最小误差的方式去学习字典。对应的异常事件的特征将会具有较大的重建误差。但由于字典没有经过异常事件的训练而且通常过于完整,无法保证期望。
基于深度学习的方法,通常使用自动编码器方式学习深度神经网络,并以重建具有小的重构错误的正常事件为优化目标对神经网络进行优化。但深度神经网络的容量很高,异常事件的重建错误不一定会发生。
发明内容
本发明的目的是针对视频中异常事件检测的方法,提出了一种融合多元信息的高精度视频异常事件检测方法。
为了上述目的,本发明使用目前流行的以卷积神经网络为基础的深度学习方法,对于视频中的异常行为,通常至少在亮度信息上或者运动信息上与正常行为存在差异,例如在人行道上行驶的车辆与行人显然存在着较大的不一致,通过融合目标的运动信息和光谱亮度信息,提高异常事件的检测精度,包括如下步骤:
步骤1:通过无异常事件视频得到多帧视频图像,多帧视频图像通过分组得到多组视频图像数据集,根据多组视频图像数据集构建视频图像训练集,将多帧视频图像通过光流提方法得到多帧光流图像,将多帧光流图像通过分组得到多组光流图像数据集,根据多组光流图像数据集构建光流图像训练集;
步骤2:构建视频光流深度学习网络;
步骤3:随机选择视频图像样本中视频图像数据集以及对应的光流图像样本中光流图像数据集,构建视频光流误差损失模型,视频光流误差损失模型输出最小为优化目标,优化训练视频光流深度学习网络,得到训练后视频光流深度学习网络;
步骤4:将待检测视频图像通过训练后视频光流深度学习网络,通过视频光流误差计算得到待检测视频图像的误差,进一步通过与误差阈值比较从而判断视频图像是否存在异常事件;
作为优选,步骤1所述多帧视频图像为:
Ii,1,Ii,2,...,Ii,N
i∈[1,M]
其中,M为无异常事件视频的数量,N为无异常事件视频中视频图像的帧的数量,Ii,j为第i个无异常事件视频中第j帧图像,j∈[1,N];
Ii,j具体定义为第i个无异常事件视频中第j帧图像:
步骤1所述通过分组得到多组视频图像数据集为:
datai,k={Ii,(k-1)*L+1,Ii,(k-1)*L+2,...,Ii,(k-1)*L+L}
k∈[1,N/L]
其中,datai,k为第i个无异常事件视频中第k组视频图像数据集,L为每组图像数据集中视频图像的帧的数量,N为无异常事件视频中视频图像的帧的数量,Ii,(k-1)*L+l为第i个无异常事件视频中第k组视频图像数据集中第l个图像,Ii,(k-1)*L+l为第i个无异常事件视频中第(k-1)*L+l帧图像,l∈[1,L];
步骤1所述构建视频图像训练集为:
构建视频图像样本为:
testAi=(datai,1,datai,1,...,datai,N/L)
其中,datai,k为第i个无异常事件视频中第k组视频图像数据集;
所述视频图像训练集为:
trainA=(testA1,testA2,...,testAM)
其中,testAi为第i个视频图像样本,i∈[1,M];
步骤1所述多帧视频图像通过Lucas-Kanade光流提方法得到多帧光流图像,具体为:
步骤1所述通过分组得到多组光流图像数据集为:
Oi,1,Oi,2,...,Oi,N
i∈[1,M]
其中,M为无异常事件视频的数量,N为无异常事件视频中视频图像的帧的数量,Oi,j为第i个无异常事件视频中第j帧光流图像,j∈[1,N];
步骤1所述通过分组得到多组视频光流图像数据集为:
Figure BDA0002485736840000031
其中,
Figure BDA0002485736840000032
为第i个无异常事件视频中第k组视频光流图像数据集,L为每组光流图像数据集中视频光流图像的帧的数量,N为无异常事件视频中视频光流图像的帧的数量,Oi,(k-1)*L+l为第i个无异常事件视频中第k组视频光流图像数据集中第l个图像,Oi,(k-1)*L+l为第i个无异常事件视频中第(k-1)*L+l帧光流图像,l∈[1,L];
步骤1所述构建光流图像训练集为:
构建视频图像样本为:
Figure BDA0002485736840000033
其中,
Figure BDA0002485736840000034
为第i个无异常事件视频中第k组视频光流图像数据集;
所述视频图像训练集为:
trainB=(testB1,testB2,...,testBM)
其中,testBi为第i个视频光流图像样本,i∈[1,M];
作为优选,步骤2所述视频光流深度学习网络包括:视频图像特征提取模块、视频图像特征重构模块、光流图像特征提取模块、光流图像特征重构模块;
所述视频图像特征提取模块与所述视频图像特征重构模块串联连接;
所述光流图像特征提取模块与所述光流图像特征重构模块串联连接;
所述视频图像特征提取模块用于输入步骤1所述视频图像样本中视频图像数据集,所述视频图像特征提取模块的输出为视频图像样本中视频图像数据集特征;
所述光流图像特征提取模块用于输入步骤1所述光流图像样本中光流图像数据集,所述视频图像特征提取模块的输出为光流图像样本中光流图像数据集特征;
所述视频图像特征重构模块将特征通过重构,得到重构后视频图像数据集;
所述光流图像特征重构模块将光流图像样本中光流图像数据集特征通过重构,得到重构后光流图像数据集;
所述视频图像特征提取模块由多个视频提取模块依次级联构成;
所述视频提取模块由第一视频提取器、第二视频提取器、第三视频提取器依次级联构成;
每个视频提取器由视频提取卷积层、视频提取隐含层构成;
所述第一视频提取器包括:卷积核大小为A1的卷积层
Figure BDA0002485736840000041
以及ReLU激活层,第一视频提取器卷积层待优化参数为
Figure BDA0002485736840000042
所述第二视频提取器包括:卷积核大小为A2的卷积层
Figure BDA0002485736840000043
以及ReLU激活层,第二视频提取器待卷积层优化参数为
Figure BDA0002485736840000044
所述第三视频提取器包括:卷积核大小为A3的卷积层
Figure BDA0002485736840000045
以及ReLU激活层,第三视频提取器卷积层待优化参数为
Figure BDA0002485736840000046
所述视频图像特征重构模块由多个视频重构模块依次级联构成;
所述视频重构模块由第一视频重构器、第二视频重构器、第三视频重构器依次级联构成;
每个视频重构器由视频重构卷积层、视频重构隐含层构成;
所述第一视频重构器包括:卷积核大小为A4的卷积层
Figure BDA0002485736840000047
以及ReLU激活层,第一视频重构器卷积层待优化参数为
Figure BDA0002485736840000048
所述第二视频重构器包括:卷积核大小为A5的卷积层
Figure BDA0002485736840000049
以及ReLU激活层,第二视频重构器卷积层待优化参数为
Figure BDA00024857368400000410
所述第三视频重构器包括:卷积核大小为A6的卷积层
Figure BDA00024857368400000411
以及ReLU激活层,第三视频重构器卷积层待优化参数为
Figure BDA00024857368400000412
所述光流图像特征提取模块由多个光流提取模块依次级联构成;
所述光流提取模块由第一光流提取器、第二光流提取器、第三光流提取器依次级联构成;
每个光流提取器由光流提取卷积层、光流提取隐含层构成;
所述第一光流提取器包括:卷积核大小为B1的卷积层
Figure BDA00024857368400000413
以及ReLU激活层,第一光流提取器卷积层待优化参数为
Figure BDA00024857368400000414
所述第二光流提取器包括:卷积核大小为B2的卷积层
Figure BDA00024857368400000415
以及ReLU激活层,第二光流提取器卷积层待优化参数为
Figure BDA0002485736840000051
所述第三光流提取器包括:卷积核大小为B3的卷积层
Figure BDA0002485736840000052
以及ReLU激活层,第三光流提取器卷积层待优化参数为
Figure BDA0002485736840000053
所述光流图像特征重构模块由多个光流重构模块依次级联构成;
所述光流重构模块由第一光流重构器、第二光流重构器、第三光流重构器依次级联构成;
每个光流重构器由光流重构卷积层、光流重构隐含层构成;
所述第一光流重构器包括:卷积核大小为B4的卷积层
Figure BDA0002485736840000054
以及ReLU激活层,第一光流重构器卷积层待优化参数为
Figure BDA0002485736840000055
所述第二光流重构器包括:卷积核大小为B5的卷积层
Figure BDA0002485736840000056
以及ReLU激活层,第二光流重构器卷积层待优化参数为
Figure BDA0002485736840000057
所述第三光流重构器包括:卷积核大小为B6的卷积层
Figure BDA0002485736840000058
以及tanh激活层,第三光流重构器卷积层待优化参数为
Figure BDA0002485736840000059
作为优选,步骤3中所述随机选择视频图像样本中视频图像数据集以及对应的光流图像样本中光流图像数据集为:
在trainA数据集和trainB数据集中随机选择同一视频时刻的视频图像和视频光流图像,(testAk,testBk),k∈[1,M]
步骤3所述构建视频光流误差损失模型为:
通过计算输入的视频图像Ii,j和视频光流图像Oi,j与重建的视频图像
Figure BDA00024857368400000510
和视频光流图像
Figure BDA00024857368400000511
的最小均方误差,作为网络训练的损失函数L,具体定义为:
Figure BDA00024857368400000512
其中,datai,k表示第i个待检测视频中第k组视频图像数据集,
Figure BDA00024857368400000513
表示第i个待检测视频中第k组视频的重建的图像数据集。
Figure BDA00024857368400000514
表示第i个待检测视频中第k组视频光流图像数据集,
Figure BDA00024857368400000515
表示第i个待检测视频中第k组视频的重建的光流图像数据集。
步骤3所述优化训练视频光流深度学习网络为:使用随机梯度下降优化方法优化网络参数,所述优化后网络参数为:
第一视频提取器卷积层优化后参数
Figure BDA00024857368400000516
第二视频提取器待卷积层优化后参数
Figure BDA0002485736840000061
第三视频提取器卷积层优化后参数
Figure BDA0002485736840000062
第一视频重构器卷积层优化后参数
Figure BDA0002485736840000063
第二视频重构器卷积层优化后参数
Figure BDA0002485736840000064
第三视频重构器卷积层优化后参数
Figure BDA0002485736840000065
第一光流提取器卷积层优化后参数为
Figure BDA0002485736840000066
第二光流提取器卷积层优化后参数为
Figure BDA0002485736840000067
第三光流提取器卷积层优化后参数为
Figure BDA0002485736840000068
第一光流重构器卷积层优化后参数为
Figure BDA0002485736840000069
第二光流重构器卷积层优化后参数为
Figure BDA00024857368400000610
第三光流重构器卷积层优化后参数为
Figure BDA00024857368400000611
步骤3所述训练后视频光流深度学习网络为:
通过优化后网络参数构建的训练后视频光流深度学习网络;
作为优选,步骤4所述将待检测视频图像通过训练后视频深度学习网络为:
计算输入的视频图像与重建的视频图像的均方误差LI:
Figure BDA00024857368400000612
其中datai,k表示第i个待检测视频中第k组视频图像数据集,
Figure BDA00024857368400000613
表示第i个待检测视频中第k组视频的重建的图像数据集;
步骤4所述通过视频光流误差计算得到待检测视频光流图像的误差:
计算输入的视频光流图像与重建视频光流图像的均方误差Lo:
Figure BDA00024857368400000614
其中
Figure BDA00024857368400000615
表示第i个待检测视频中第k组视频光流图像数据集,
Figure BDA00024857368400000616
表示第i个待检测视频中第k组视频的重建的光流图像数据集;
步骤4所述进一步通过与误差阈值T比较从而判断视频图像是否存在异常事件为:
联合视频图像的重建误差和视频光流图像的重建误差:
Figure BDA00024857368400000617
其中,datai,k表示第i个待检测视频中第k组视频图像数据集,
Figure BDA00024857368400000618
表示第i个待检测视频中第k组视频的重建的图像数据集,
Figure BDA00024857368400000619
表示第i个待检测视频中第k组视频光流图像数据集,
Figure BDA00024857368400000620
表示第i个待检测视频中第k组视频的重建的光流图像数据集,Li,k表示为第i个待检测视频中第k组视频;
判断是否存在异常事件,Li,k大于阈值T的表示为第i个待检测视频中第k组视频中有异常事件,Li,k小于阈值T的表示为第i个待检测视频中第k组视频中没有异常事件;
Figure BDA0002485736840000071
本发明优点在于,使用以卷积神经网络为基础的深度学习方法,对于视频中的异常事件,通过融合目标的运动信息和光谱亮度信息进行异常事件检测,提高了异常事件的检测精度。
附图说明
图1:是本发明方法流程图;
图2:是本发明的视频图像特征提取模块和视频图像特征重构模块;
图3:是本发明的视频光流图像特征提取模块和视频光流图像特征重构模块;
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
图1为本发明方法流程图。本发明方法包括:视频空间特征提取、视频运动特征提取、运动特征与空间特征融合以及视频序列重建。
下面结合图1至图3介绍本发明的具体实施方式为一种融合多元信息的高精度视频异常事件检测方法,具体包括以下步骤:
步骤1:通过无异常事件视频得到多帧视频图像,多帧视频图像通过分组得到多组视频图像数据集,根据多组视频图像数据集构建视频图像训练集,将多帧视频图像通过光流提方法得到多帧光流图像,将多帧光流图像通过分组得到多组光流图像数据集,根据多组光流图像数据集构建光流图像训练集;
步骤1所述多帧视频图像为:
Ii,1,Ii,2,...,Ii,N
i∈[1,M]
其中,M为无异常事件视频的数量,N为无异常事件视频中视频图像的帧的数量,Ii,j为第i个无异常事件视频中第j帧图像,j∈[1,N];
Ii,j具体定义为第i个无异常事件视频中第j帧图像:
步骤1所述通过分组得到多组视频图像数据集为:
datai,k={Ii,(k-1)*L+1,Ii,(k-1)*L+2,...,Ii,(k-1)*L+L}
k∈[1,N/L]
其中,tatai,k为第i个无异常事件视频中第k组视频图像数据集,L为每组图像数据集中视频图像的帧的数量,N为无异常事件视频中视频图像的帧的数量,Ii,(k-)*L+l为第i个无异常事件视频中第k组视频图像数据集中第l个图像,Ii,(k-1)*L+l为第i个无异常事件视频中第(k-1)*L+l帧图像,l∈[1,L];
步骤1所述构建视频图像训练集为:
构建视频图像样本为:
testAi=(datai,1,datai,1,...,datai,N/L)
其中,datai,k为第i个无异常事件视频中第k组视频图像数据集;
所述视频图像训练集为:
trainA=(testA1,testA2,...,testAM)
其中,testAi为第i个视频图像样本,i∈[1,M];
步骤1所述多帧视频图像通过Lucas-Kanade光流提方法得到多帧光流图像,具体为:
步骤1所述通过分组得到多组光流图像数据集为:
Oi,1,Oi,2,...,Oi,N
i∈[1,M]
其中,M为无异常事件视频的数量,N为无异常事件视频中视频图像的帧的数量,Oi,j为第i个无异常事件视频中第j帧光流图像,j∈[1,N];
步骤1所述通过分组得到多组视频光流图像数据集为:
Figure BDA0002485736840000081
其中,
Figure BDA0002485736840000082
为第i个无异常事件视频中第k组视频光流图像数据集,L为每组光流图像数据集中视频光流图像的帧的数量,N为无异常事件视频中视频光流图像的帧的数量,Oi,(k-1)*L+l为第i个无异常事件视频中第k组视频光流图像数据集中第l个图像,Oi,(k-1)*L+l为第i个无异常事件视频中第(k-1)*L+l帧光流图像,l∈[1,L];
步骤1所述构建光流图像训练集为:
构建视频图像样本为:
Figure BDA0002485736840000091
其中,
Figure BDA0002485736840000092
为第i个无异常事件视频中第k组视频光流图像数据集;
所述视频图像训练集为:
trainB=(testB1,testB2,...,testBM)
其中,testBi为第i个视频光流图像样本,i∈[1,M];
步骤2:构建视频光流深度学习网络;
步骤2所述视频光流深度学习网络包括:视频图像特征提取模块、视频图像特征重构模块、光流图像特征提取模块、光流图像特征重构模块;
所述视频图像特征提取模块与所述视频图像特征重构模块串联连接;
所述光流图像特征提取模块与所述光流图像特征重构模块串联连接;
所述视频图像特征提取模块用于输入步骤1所述视频图像样本中视频图像数据集,所述视频图像特征提取模块的输出为视频图像样本中视频图像数据集特征;
所述光流图像特征提取模块用于输入步骤1所述光流图像样本中光流图像数据集,所述视频图像特征提取模块的输出为光流图像样本中光流图像数据集特征;
所述视频图像特征重构模块将特征通过重构,得到重构后视频图像数据集;
所述光流图像特征重构模块将光流图像样本中光流图像数据集特征通过重构,得到重构后光流图像数据集;
所述视频图像特征提取模块由多个视频提取模块依次级联构成;
所述视频提取模块由第一视频提取器、第二视频提取器、第三视频提取器依次级联构成;
每个视频提取器由视频提取卷积层、视频提取隐含层构成;
所述第一视频提取器包括:卷积核大小为A1,A1=3*3*3*64的卷积层
Figure BDA0002485736840000093
以及ReLU激活层,第一视频提取器卷积层待优化参数为
Figure BDA0002485736840000094
所述第二视频提取器包括:卷积核大小为A2,A2=3*3*3*128的卷积层
Figure BDA0002485736840000095
以及ReLU激活层,第二视频提取器待卷积层优化参数为
Figure BDA0002485736840000096
所述第三视频提取器包括:卷积核大小为A3,A3=3*3*3*256的卷积层
Figure BDA0002485736840000101
以及ReLU激活层,第三视频提取器卷积层待优化参数为
Figure BDA0002485736840000102
所述视频图像特征重构模块由多个视频重构模块依次级联构成;
所述视频重构模块由第一视频重构器、第二视频重构器、第三视频重构器依次级联构成;
每个视频重构器由视频重构卷积层、视频重构隐含层构成;
所述第一视频重构器包括:卷积核大小为A4,A4=3*3*3*128的卷积层
Figure BDA0002485736840000103
以及ReLU激活层,第一视频重构器卷积层待优化参数为
Figure BDA0002485736840000104
所述第二视频重构器包括:卷积核大小为A5,A5=3*3*3*64的卷积层
Figure BDA0002485736840000105
以及ReLU激活层,第二视频重构器卷积层待优化参数为
Figure BDA0002485736840000106
所述第三视频重构器包括:卷积核大小为A6,A6=3*3*3*1的卷积层
Figure BDA0002485736840000107
以及ReLU激活层,第三视频重构器卷积层待优化参数为
Figure BDA0002485736840000108
所述光流图像特征提取模块由多个光流提取模块依次级联构成;
所述光流提取模块由第一光流提取器、第二光流提取器、第三光流提取器依次级联构成;
每个光流提取器由光流提取卷积层、光流提取隐含层构成;
所述第一光流提取器包括:卷积核大小为B1,B1=3*3*3*64的卷积层
Figure BDA0002485736840000109
以及ReLU激活层,第一光流提取器卷积层待优化参数为
Figure BDA00024857368400001010
所述第二光流提取器包括:卷积核大小为B2,B2=3*3*3*128的卷积层
Figure BDA00024857368400001011
以及ReLU激活层,第二光流提取器卷积层待优化参数为
Figure BDA00024857368400001012
所述第三光流提取器包括:卷积核大小为B3,B3=3*3*3*256的卷积层
Figure BDA00024857368400001013
以及ReLU激活层,第三光流提取器卷积层待优化参数为
Figure BDA00024857368400001014
所述光流图像特征重构模块由多个光流重构模块依次级联构成;
所述光流重构模块由第一光流重构器、第二光流重构器、第三光流重构器依次级联构成;
每个光流重构器由光流重构卷积层、光流重构隐含层构成;
所述第一光流重构器包括:卷积核大小为B4,B4=3*3*3*128的卷积层
Figure BDA00024857368400001015
以及ReLU激活层,第一光流重构器卷积层待优化参数为
Figure BDA00024857368400001016
所述第二光流重构器包括:卷积核大小为B5,B5=3*3*3*64的卷积层
Figure BDA00024857368400001017
以及ReLU激活层,第二光流重构器卷积层待优化参数为
Figure BDA00024857368400001018
所述第三光流重构器包括:卷积核大小为B6,B6=3*3*3*2的卷积层
Figure BDA0002485736840000111
以及tanh激活层,第三光流重构器卷积层待优化参数为
Figure BDA0002485736840000112
步骤3:随机选择视频图像样本中视频图像数据集以及对应的光流图像样本中光流图像数据集,构建视频光流误差损失模型,视频光流误差损失模型输出最小为优化目标,优化训练视频光流深度学习网络,得到训练后视频光流深度学习网络;
步骤3中所述随机选择视频图像样本中视频图像数据集以及对应的光流图像样本中光流图像数据集为:
在trainA数据集和trainB数据集中随机选择同一视频时刻的视频图像和视频光流图像,(testAk,testBk),k∈[1,M]
步骤3所述构建视频光流误差损失模型为:
通过计算输入的视频图像Ii,j和视频光流图像Oi,j与重建的视频图像
Figure BDA0002485736840000113
和视频光流图像
Figure BDA0002485736840000114
的最小均方误差,作为网络训练的损失函数L,具体定义为:
Figure BDA0002485736840000115
其中,datai,k表示第i个待检测视频中第k组视频图像数据集,
Figure BDA0002485736840000116
表示第i个待检测视频中第k组视频的重建的图像数据集。
Figure BDA0002485736840000117
表示第i个待检测视频中第k组视频光流图像数据集,
Figure BDA0002485736840000118
表示第i个待检测视频中第k组视频的重建的光流图像数据集。
步骤3所述优化训练视频光流深度学习网络为:使用随机梯度下降优化方法优化网络参数,所述优化后网络参数为:
第一视频提取器卷积层优化后参数
Figure BDA0002485736840000119
第二视频提取器待卷积层优化后参数
Figure BDA00024857368400001110
第三视频提取器卷积层优化后参数
Figure BDA00024857368400001111
第一视频重构器卷积层优化后参数
Figure BDA00024857368400001112
第二视频重构器卷积层优化后参数
Figure BDA00024857368400001113
第三视频重构器卷积层优化后参数
Figure BDA00024857368400001114
第一光流提取器卷积层优化后参数为
Figure BDA00024857368400001115
第二光流提取器卷积层优化后参数为
Figure BDA00024857368400001116
第三光流提取器卷积层优化后参数为
Figure BDA00024857368400001117
第一光流重构器卷积层优化后参数为
Figure BDA00024857368400001118
第二光流重构器卷积层优化后参数为
Figure BDA00024857368400001119
第三光流重构器卷积层优化后参数为
Figure BDA00024857368400001120
步骤3所述训练后视频光流深度学习网络为:
通过优化后网络参数构建的训练后视频光流深度学习网络;
步骤4:将待检测视频图像通过训练后视频光流深度学习网络,通过视频光流误差计算得到待检测视频图像的误差,进一步通过与误差阈值比较从而判断视频图像是否存在异常事件;
步骤4所述将待检测视频图像通过训练后视频深度学习网络为:
计算输入的视频图像与重建的视频图像的均方误差LI:
Figure BDA0002485736840000121
其中datai,k表示第i个待检测视频中第k组视频图像数据集,
Figure BDA0002485736840000122
表示第i个待检测视频中第k组视频的重建的图像数据集;
步骤4所述通过视频光流误差计算得到待检测视频光流图像的误差:
计算输入的视频光流图像与重建视频光流图像的均方误差Lo:
Figure BDA0002485736840000123
其中
Figure BDA0002485736840000124
表示第i个待检测视频中第k组视频光流图像数据集,
Figure BDA0002485736840000125
表示第i个待检测视频中第k组视频的重建的光流图像数据集;
步骤4所述进一步通过与误差阈值T比较从而判断视频图像是否存在异常事件为:
联合视频图像的重建误差和视频光流图像的重建误差:
Figure BDA0002485736840000126
其中,datai,k表示第i个待检测视频中第k组视频图像数据集,
Figure BDA0002485736840000127
表示第i个待检测视频中第k组视频的重建的图像数据集,
Figure BDA0002485736840000128
表示第i个待检测视频中第k组视频光流图像数据集,
Figure BDA0002485736840000129
表示第i个待检测视频中第k组视频的重建的光流图像数据集,Li,k表示为第i个待检测视频中第k组视频;
判断是否存在异常事件,Li,k大于阈值T的表示为第i个待检测视频中第k组视频中有异常事件,Li,k小于阈值T的表示为第i个待检测视频中第k组视频中没有异常事件;
Figure BDA0002485736840000131
图2是视频图像特征提取模块和视频图像特征重构模块。将视频序列重采样到256*256大小,输入到空间自编码器中,通过三个3D卷积模块提取输入视频序列的空间特征,和三个3D逆卷积模块将提取到的视频空间特征还原成视频序列。六个卷积模块的参数如下:
Frames-F1:F1维度为256*256*64,当前模块中共2个3D卷积层,卷积核分别为3*3*3*64和3*3*3*64,3D卷积的采样间隔都为(1,1,1),并使用残差连接的F1中的第一个卷积层和第二个卷积层输出。
F1-F2:F2的维度为128*128*128,当前模块中共2个3D卷积层,卷积核分别为3*3*3*128和3*3*3*128,卷积的采样间隔分别为(2,2,2)和(1,1,1),并使用残差连接的F2中的第一个卷积层和第二个卷积层输出。
F2-F3:F3的维度为64*64*256,当前模块中共2个3D卷积层,卷积核分别为3*3*3*256和3*3*3*256,卷积的采样间隔分别为(2,2,2)和(1,1,1),并使用残差连接的F3中的第一个卷积层和第二个卷积层输出。当前模块获取的卷积特征将作为视频的空间特征与视频的运动特征进行融合。
F3-F4:F4的维度为128*128*128,当前模块中共2个3D逆卷积层,卷积核分别为3*3*3*128和3*3*3*128,逆卷积的重采样间隔分别为(2,2,2)和(1,1,1),并使用残差连接的F4中的第一个逆卷积层和第逆二个卷积层输出。
F4-F5:F5的维度为256*256*64,当前模块中共2个3D逆卷积层,卷积核分别为3*3*3*64和3*3*3*64,逆卷积的重采样间隔分别为(2,2,2)和(1,1,1),并使用残差连接的F4中的第一个逆卷积层和第逆二个卷积层输出。
F5-重建frames:重建frames的维度为256*256*1,当前模块中共2个3D逆卷积层,卷积核分别为3*3*3*32和3*3*3*1,逆卷积的重采样间隔都为(1,1,1)。
图3是是本发明的视频光流图像特征提取模块和视频光流图像特征重构模块。将光流序列重采样到256*256大小,输入到运动自编码器中,通过三个3D卷积模块提取输入光流序列的运动特征,和三个3D逆卷积模块将提取到的视频运动特征还原成光流序列。六个卷积模块的参数如下:
OpticalFlows-OF1:OF1维度为256*256*32,当前模块中共2个3D卷积层,卷积核分别为3*3*3*32和3*3*3*32,3D卷积的采样间隔都为(1,1,1),并使用残差连接的OF1中的第一个卷积层和第二个卷积层输出。
OF1-OF2:OF2的维度为128*128*64,当前模块中共2个3D卷积层,卷积核分别为3*3*3*64和3*3*3*64,卷积的采样间隔分别为(2,2,2)和(1,1,1),并使用残差连接的OF2中的第一个卷积层和第二个卷积层输出。
OF2-OF3:OF3的维度为64*64*128,当前模块中共2个3D卷积层,卷积核分别为3*3*3*128和3*3*3*128,卷积的采样间隔分别为(2,2,2)和(1,1,1),并使用残差连接的OF3中的第一个卷积层和第二个卷积层输出。当前模块获取的卷积特征将作为视频的运动特征与视频的空间特征进行融合。
OF3-OF4:OF4的维度为128*128*64,当前模块中共2个3D逆卷积层,卷积核分别为3*3*3*64和3*3*3*64,逆卷积的重采样间隔分别为(2,2,2)和(1,1,1),并使用残差连接的OF4中的第一个逆卷积层和第逆二个卷积层输出。
OF4-OF5:OF5的维度为256*256*32,当前模块中共2个3D逆卷积层,卷积核分别为3*3*3*64和3*3*3*64,逆卷积的重采样间隔分别为(2,2,2)和(1,1,1),并使用残差连接的OF4中的第一个逆卷积层和第逆二个卷积层输出。
OF5-重建OpticalFlows:重建OpticalFlows的维度为256*256*1,当前模块中共2个3D逆卷积层,卷积核分别为3*3*16和3*3*2,逆卷积的重采样间隔都为(1,1,1)。
以上所述实施例仅表达了本发明的实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

Claims (1)

1.一种融合多元信息的高精度视频异常事件检测方法,其特征在于,包括以下步骤:
步骤1:通过无异常事件视频得到多帧视频图像,多帧视频图像通过分组得到多组视频图像数据集,根据多组视频图像数据集构建视频图像训练集,将多帧视频图像通过Lucas-Kanade光流提取方法得到多帧光流图像,将多帧光流图像通过分组得到多组光流图像数据集,根据多组光流图像数据集构建光流图像训练集;
步骤2:构建视频光流深度学习网络;
步骤3:随机选择视频图像样本中视频图像数据集以及对应的光流图像样本中光流图像数据集,构建视频光流误差损失模型,视频光流误差损失模型输出最小为优化目标,优化训练视频光流深度学习网络,得到训练后视频光流深度学习网络;
步骤4:将待检测视频图像通过训练后视频光流深度学习网络,通过视频光流误差计算得到待检测视频光流图像的误差,进一步通过与误差阈值器比较从而判断视频图像是否存在异常事件;
步骤1所述多帧视频图像为:
Ii,1,Ii,2,…,Ii,N
i∈[1,M]
其中,M为无异常事件视频的数量,N为无异常事件视频中视频图像的帧的数量,Ii,j为第i个无异常事件视频中第j帧图像,j∈[1,N];
Ii,j具体定义为第i个无异常事件视频中第j帧图像:
步骤1所述通过分组得到多组视频图像数据集为:
datai,k={Ii,(k-1)*L+1,Ii,(k-1)*L+2,...,Ii,(k-1)*L+L}
k∈[1,N/L]
其中,datai,k为第i个无异常事件视频中第k组视频图像数据集,L为每组图像数据集中视频图像的帧的数量,N为无异常事件视频中视频图像的帧的数量,Ii,(k-1)*L+l为第i个无异常事件视频中第k组视频图像数据集中第l个图像,Ii,(k-1)*L+l为第i个无异常事件视频中第(k-1)*L+l帧图像,l∈[1,L];
步骤1所述构建视频图像训练集为:
构建视频图像样本为:
testAi=(datai,1,datai,2,...,datai,N/L)
其中,datai,k为第i个无异常事件视频中第k组视频图像数据集,k∈[1,N/L];
所述视频图像训练集为:
trainA=(testA1,testA2,...,testAM)
其中,testAi为第i个视频图像样本,i∈[1,M];
步骤1所述多帧视频图像通过Lucas-Kanade光流提取方法得到多帧光流图像,具体为:
步骤1所述通过分组得到多组光流图像数据集为:
Oi,1,Oi,2,...,Oi,N
i∈[1,M]
其中,M为无异常事件视频的数量,N为无异常事件视频中视频图像的帧的数量,Oi,j为第i个无异常事件视频中第j帧光流图像,j∈[1,N];
通过分组得到多组视频光流图像数据集为:
Figure FDA0003626843730000021
k∈[1,N/L]
其中,
Figure FDA0003626843730000022
为第i个无异常事件视频中第k组视频光流图像数据集,L为每组光流图像数据集中视频光流图像的帧的数量,N为无异常事件视频中视频光流图像的帧的数量,Oi,(k-1)*L+l为第i个无异常事件视频中第k组视频光流图像数据集中第1个图像,Oi,(k-1)*L+l为第i个无异常事件视频中第(k-1)*L+l帧光流图像,l∈[1,L];
步骤1所述构建光流图像训练集为:
构建视频图像样本为:
Figure FDA0003626843730000023
其中,
Figure FDA0003626843730000024
为第i个无异常事件视频中第k组视频光流图像数据集,
k∈[1,N/L];
所述视频图像训练集为:
trainB=(testB1,testB2,...,testBM)
其中,testBi为第i个视频光流图像样本,i∈[1,M];
步骤2所述视频光流深度学习网络包括:视频图像特征提取模块、视频图像特征重构模块、光流图像特征提取模块、光流图像特征重构模块;
所述视频图像特征提取模块与所述视频图像特征重构模块串联连接;
所述光流图像特征提取模块与所述光流图像特征重构模块串联连接;
所述视频图像特征提取模块用于输入步骤1所述视频图像样本中视频图像数据集,所述视频图像特征提取模块的输出为视频图像样本中视频图像数据集特征;
所述光流图像特征提取模块用于输入步骤1所述光流图像样本中光流图像数据集,所述视频图像特征提取模块的输出为光流图像样本中光流图像数据集特征;
所述视频图像特征重构模块将特征通过重构,得到重构后视频图像数据集;
所述光流图像特征重构模块将光流图像样本中光流图像数据集特征通过重构,得到重构后光流图像数据集;
所述视频图像特征提取模块由多个视频提取模块依次级联构成;
所述视频提取模块由第一视频提取器、第二视频提取器、第三视频提取器依次级联构成;
每个视频提取器由视频提取卷积层、视频提取隐含层构成;
所述第一视频提取器包括:卷积核大小为A1的卷积层
Figure FDA0003626843730000031
以及ReLU激活层,第一视频提取器卷积层待优化参数为
Figure FDA0003626843730000032
所述第二视频提取器包括:卷积核大小为A2的卷积层
Figure FDA0003626843730000033
以及ReLU激活层,第二视频提取器待卷积层优化参数为
Figure FDA0003626843730000034
所述第三视频提取器包括:卷积核大小为A3的卷积层
Figure FDA0003626843730000035
以及ReLU激活层,第三视频提取器卷积层待优化参数为
Figure FDA0003626843730000036
所述视频图像特征重构模块由多个视频重构模块依次级联构成;
所述视频重构模块由第一视频重构器、第二视频重构器、第三视频重构器依次级联构成;
每个视频重构器由视频重构卷积层、视频重构隐含层构成;
所述第一视频重构器包括:卷积核大小为A4的卷积层
Figure FDA0003626843730000037
以及ReLU激活层,第一视频重构器卷积层待优化参数为
Figure FDA0003626843730000038
所述第二视频重构器包括:卷积核大小为A5的卷积层
Figure FDA0003626843730000039
以及ReLU激活层,第二视频重构器卷积层待优化参数为
Figure FDA00036268437300000310
所述第三视频重构器包括:卷积核大小为A6的卷积层
Figure FDA00036268437300000311
以及ReLU激活层,第三视频重构器卷积层待优化参数为
Figure FDA0003626843730000041
所述光流图像特征提取模块由多个光流提取模块依次级联构成;
所述光流提取模块由第一光流提取器、第二光流提取器、第三光流提取器依次级联构成;
每个光流提取器由光流提取卷积层、光流提取隐含层构成;
所述第一光流提取器包括:卷积核大小为B1的卷积层
Figure FDA0003626843730000042
以及ReLU激活层,第一光流提取器卷积层待优化参数为
Figure FDA0003626843730000043
所述第二光流提取器包括:卷积核大小为B2的卷积层
Figure FDA0003626843730000044
以及ReLU激活层,第二光流提取器卷积层待优化参数为
Figure FDA0003626843730000045
所述第三光流提取器包括:卷积核大小为B3的卷积层
Figure FDA0003626843730000046
以及ReLU激活层,第三光流提取器卷积层待优化参数为
Figure FDA0003626843730000047
所述光流图像特征重构模块由多个光流重构模块依次级联构成;
所述光流重构模块由第一光流重构器、第二光流重构器、第三光流重构器依次级联构成;
每个光流重构器由光流重构卷积层、光流重构隐含层构成;
所述第一光流重构器包括:卷积核大小为B4的卷积层
Figure FDA0003626843730000048
以及ReLU激活层,第一光流重构器卷积层待优化参数为
Figure FDA0003626843730000049
所述第二光流重构器包括:卷积核大小为B5的卷积层
Figure FDA00036268437300000410
以及ReLU激活层,第二光流重构器卷积层待优化参数为
Figure FDA00036268437300000411
所述第三光流重构器包括:卷积核大小为B6的卷积层
Figure FDA00036268437300000412
以及tanh激活层,第三光流重构器卷积层待优化参数为
Figure FDA00036268437300000413
步骤3中所述随机选择视频图像样本中视频图像数据集以及对应的光流图像样本中光流图像数据集为:
在trainA数据集和trainB数据集中随机选择同一视频时刻的视频图像和视频光流图像,(testAk,testBk),k∈[1,M]
步骤3所述构建视频光流误差损失模型为:
通过计算输入的视频图像Ii,j和视频光流图像Oi,j与重建的视频图像
Figure FDA00036268437300000414
和视频光流图像
Figure FDA00036268437300000415
的最小均方误差,作为网络训练的损失函数L,具体定义为:
Figure FDA00036268437300000416
i∈[1,M],k∈[1,N/L]
其中,datai,k表示第i个待检测视频中第k组视频图像数据集,
Figure FDA0003626843730000051
表示第i个待检测视频中第k组视频的重建的图像数据集;
Figure FDA0003626843730000052
表示第i个待检测视频中第k组视频光流图像数据集,
Figure FDA0003626843730000053
表示第i个待检测视频中第k组视频的重建的光流图像数据集;
步骤3所述优化训练视频光流深度学习网络为:使用随机梯度下降优化方法优化网络参数,所述优化后网络参数为:
第一视频提取器卷积层优化后参数
Figure FDA0003626843730000054
第二视频提取器待卷积层优化后参数
Figure FDA0003626843730000055
第三视频提取器卷积层优化后参数
Figure FDA0003626843730000056
第一视频重构器卷积层优化后参数
Figure FDA0003626843730000057
第二视频重构器卷积层优化后参数
Figure FDA0003626843730000058
第三视频重构器卷积层优化后参数
Figure FDA0003626843730000059
第一光流提取器卷积层优化后参数为
Figure FDA00036268437300000510
第二光流提取器卷积层优化后参数为
Figure FDA00036268437300000511
第三光流提取器卷积层优化后参数为
Figure FDA00036268437300000512
第一光流重构器卷积层优化后参数为
Figure FDA00036268437300000513
第二光流重构器卷积层优化后参数为
Figure FDA00036268437300000514
第三光流重构器卷积层优化后参数为
Figure FDA00036268437300000515
步骤3所述训练后视频光流深度学习网络为:
通过优化后网络参数构建的训练后视频光流深度学习网络;
步骤4所述将待检测视频图像通过训练后视频深度学习网络为:
计算输入的视频图像与重建的视频图像的均方误差LI:
Figure FDA00036268437300000516
i∈[1,M],k∈[1,N/L]
其中datai,k表示第i个待检测视频中第k组视频图像数据集,
Figure FDA00036268437300000517
表示第i个待检测视频中第k组视频的重建的图像数据集;
步骤4所述通过视频光流误差计算得到待检测视频光流图像的误差:
计算输入的视频光流图像与重建视频光流图像的均方误差Lo:
Figure FDA00036268437300000518
i∈[1,M],k∈[1,N/L]
其中
Figure FDA00036268437300000519
表示第i个待检测视频中第k组视频光流图像数据集,
Figure FDA00036268437300000520
表示第i个待检测视频中第k组视频的重建的光流图像数据集;
步骤4所述进一步通过与误差阈值T比较从而判断视频图像是否存在异常事件为:
联合视频图像的重建误差和视频光流图像的重建误差:
Figure FDA0003626843730000061
i∈[1,M],k∈[1,N/L]
其中,datai,k表示第i个待检测视频中第k组视频图像数据集,
Figure FDA0003626843730000062
表示第i个待检测视频中第k组视频的重建的图像数据集,
Figure FDA0003626843730000063
表示第i个待检测视频中第k组视频光流图像数据集,
Figure FDA0003626843730000064
表示第i个待检测视频中第k组视频的重建的光流图像数据集,Li,k表示为第i个待检测视频中第k组视频;
判断是否存在异常事件,Li,k大于阈值T的表示为第i个待检测视频中第k组视频中有异常事件,Li,k小于阈值T的表示为第i个待检测视频中第k组视频中没有异常事件;
Figure FDA0003626843730000065
CN202010391419.XA 2020-05-11 2020-05-11 一种融合多元信息的高精度视频异常事件检测方法 Active CN111666819B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010391419.XA CN111666819B (zh) 2020-05-11 2020-05-11 一种融合多元信息的高精度视频异常事件检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010391419.XA CN111666819B (zh) 2020-05-11 2020-05-11 一种融合多元信息的高精度视频异常事件检测方法

Publications (2)

Publication Number Publication Date
CN111666819A CN111666819A (zh) 2020-09-15
CN111666819B true CN111666819B (zh) 2022-06-14

Family

ID=72383502

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010391419.XA Active CN111666819B (zh) 2020-05-11 2020-05-11 一种融合多元信息的高精度视频异常事件检测方法

Country Status (1)

Country Link
CN (1) CN111666819B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116543335B (zh) * 2023-05-08 2024-06-21 天津大学 一种基于时序空间信息增强的视觉异常检测方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104036243A (zh) * 2014-06-06 2014-09-10 电子科技大学 一种基于光流信息的行为识别方法
CN109615019A (zh) * 2018-12-25 2019-04-12 吉林大学 基于时空自动编码器的异常行为检测方法
CN111079655A (zh) * 2019-12-18 2020-04-28 航天物联网技术有限公司 一种基于融合神经网络的视频中人体行为识别方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10121103B2 (en) * 2016-12-09 2018-11-06 Cisco Technologies, Inc. Scalable deep learning video analytics

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104036243A (zh) * 2014-06-06 2014-09-10 电子科技大学 一种基于光流信息的行为识别方法
CN109615019A (zh) * 2018-12-25 2019-04-12 吉林大学 基于时空自动编码器的异常行为检测方法
CN111079655A (zh) * 2019-12-18 2020-04-28 航天物联网技术有限公司 一种基于融合神经网络的视频中人体行为识别方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
A survey of variational and CNN-based optical flow techniques;Tu.ZG等;《SIGNAL PROCESSING-IMAGE COMMUNICATION 》;20190531;全文 *
基于深度学习的视频异常事件检测方法研究;樊亚翔;《中国博士学位论文全文数据库信息科技辑》;20200215(第02期);第四章 *
基于深度学习的视频监控中人体异常行为研究;苏学威;《中国优秀硕士学位论文全文数据库信息科技辑》;20200115(第01期);第4章 *
基于贝叶斯融合的时空流异常行为检测模型;陈莹 等;《电子与信息学报》;20190531;第41卷(第5期);第1137-1141页 *

Also Published As

Publication number Publication date
CN111666819A (zh) 2020-09-15

Similar Documents

Publication Publication Date Title
Huang et al. Fire detection in video surveillances using convolutional neural networks and wavelet transform
US20190205620A1 (en) High-quality training data preparation for high-performance face recognition systems
CN111738054B (zh) 一种基于时空自编码器网络和时空cnn的行为异常检测方法
CN112767645B (zh) 一种烟雾识别方法及装置、电子设备
CN109902564B (zh) 一种基于结构相似性稀疏自编码网络的异常事件检测方法
CN111079539B (zh) 一种基于异常追踪的视频异常行为检测方法
CN112766195B (zh) 一种电气化铁路弓网燃弧视觉检测方法
CN113673346A (zh) 一种基于多尺度SE-Resnet的电机振动数据处理与状态识别方法
CN110826429A (zh) 一种基于景区视频的旅游突发事件自动监测的方法及系统
CN112132205B (zh) 一种基于卷积神经网络的遥感图像分类方法
CN109919223B (zh) 基于深度神经网络的目标检测方法及装置
CN109598301B (zh) 检测区域去除方法、装置、终端和存储介质
CN115239672A (zh) 缺陷检测方法及装置、设备、存储介质
CN113870286A (zh) 一种基于多级特征和掩码融合的前景分割方法
CN112597997A (zh) 感兴趣区域确定方法、图像内容识别方法及装置
CN111666819B (zh) 一种融合多元信息的高精度视频异常事件检测方法
CN112419243B (zh) 一种基于红外图像分析的配电房设备故障识别方法
CN114155165A (zh) 一种基于半监督的图像去雾方法
CN117274881A (zh) 基于一致性正则化和分布对齐的半监督视频火灾检测方法
CN116543333A (zh) 电力系统的目标识别方法、训练方法、装置、设备和介质
CN117152528A (zh) 绝缘子状态识别方法、装置、设备、存储介质和程序产品
CN113989742A (zh) 一种基于多尺度特征融合的核电站厂区行人检测方法
CN113743306A (zh) 一种基于slowfast双帧速率的实时智能视频监控异常行为分析方法
CN113034432A (zh) 一种产品缺陷检测方法、系统、装置及存储介质
CN113034465A (zh) 一种基于红外图像的电力设备热故障监测方法、装置及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant