CN110084151B - 基于非局部网络深度学习的视频异常行为判别方法 - Google Patents

基于非局部网络深度学习的视频异常行为判别方法 Download PDF

Info

Publication number
CN110084151B
CN110084151B CN201910285159.5A CN201910285159A CN110084151B CN 110084151 B CN110084151 B CN 110084151B CN 201910285159 A CN201910285159 A CN 201910285159A CN 110084151 B CN110084151 B CN 110084151B
Authority
CN
China
Prior art keywords
network
video
positive
local
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910285159.5A
Other languages
English (en)
Other versions
CN110084151A (zh
Inventor
杨绿溪
赵清玄
常颖
徐煜耀
郑亚茹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN201910285159.5A priority Critical patent/CN110084151B/zh
Publication of CN110084151A publication Critical patent/CN110084151A/zh
Application granted granted Critical
Publication of CN110084151B publication Critical patent/CN110084151B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Abstract

本发明公开了一种基于非局部网络深度学习的视频异常行为判别方法,属于计算机视觉与智能、多媒体信号处理领域。本发明使用多示例学习的思路构建训练集合,定义和标注视频数据的正负包和示例。采用非局部网络进行视频样本的特征提取,残差结构的I3D网络作为提取时空信息的卷积滤波器,非局部网络块融合长距离依赖信息,以满足视频特征提取的时序和空间需求。获取特征后,通过弱监督的学习方法建立回归任务,训练模型。本发明对可对未标注的类别进行判别,适用于异常检测任务正样本稀少并且类内多样性高的状况。这种方法满足了异常场景的召回率需求,具有工程应用价值。

Description

基于非局部网络深度学习的视频异常行为判别方法
技术领域
本发明涉及属于计算机视觉与人工智能、多媒体信号处理领域,特别是涉及基于非局部网络深度学习的视频异常行为判别方法。
背景技术
行为、动作识别是计算机视觉学科中的一个非常重要的领域,具有极高的学术研究价值和商业应用价值。视频行为识别的主要目标是通过识别视频片段,判断出其中动作的分类标签,如奔跑、跳跃、弹琴。视频行为识别在多领域普及,其应用场景包含视频监控、运动识别、检索、异常检测等。视频行为识别的相关研究包含针对长视频的时序行为检测、针对未完成行为的在线行为检测和针对场景的语义分析等。
行人的异常行为检测技术在智能化视频监控领域中逐渐成为关键课题。这是因为在当今复杂的室内和室外的交通环境下,行人的安全问题不仅关系到行人个人,还对其周围的交通系统产生影响。然而,监控视频数据和互联网视频数据量近年来增加迅速,大数据时代下依赖人工的安全监控方式己经无法全面准确地覆盖视频监控网络。当下各行各业对高效、可靠的智能化视频监控系统有很大需求,视频监控系统的智能化水平需要不断提高。因此,安防作为近年最热门的计算机视觉研究落地方向,是视频行为识别针对异常行为数据的应用。在真实的监控视频中,一个常见的需求就是要自动识别视频流中的异常事件,也就是异常检测任务。
异常检测任务面临着几个主要困难:异常事件发生的频率很低,导致数据的收集和标注比较困难;异常事件的稀少导致训练中的正样本远少于负样本;在监控场景中,不管是通常还是异常事件都是很多样且复杂的,即类别内的多样性很高。
异常检测任务应该要在弱监督框架下进行学习。即在训练时,只知道一段视频中有或没有异常事件,而异常事件的种类以及具体的发生时间是未知的。基于这样的想法,b本申请采用了多示例学习(Multiple instance learning,MIL)方法来构建算法框架,主要使用多示例学习的思路构建训练集合,使用非局部网络NL-I3D来获取异常评分,最后采用多示例学习排序损失来训练模型。
发明内容
针对现有技术中存在的问题与不足,本发明提供基于非局部网络深度学习的视频异常行为判别方法,将多示例方法应用于非局部连接网络块与I3D网络相结合的NL-I3D网络中,对视频进行分类,为达此目的,本发明提供基于非局部网络深度学习的视频异常行为判别方法,其计算处理步骤如下,其特征在于:将视频数据分为正负包并切割成示例后使用多示例学习结合非局部网络进行异常行为判别,使用多示例学习的思路构建训练集合,定义和标注视频数据,采用非局部网络进行视频样本的特征提取,再通过弱监督的学习方法建立回归任务,训练模型,方法包括如下步骤:
(1)将视频分为正负包,并平均分割作为示例;
(2)将步骤(1)得到的视频数据送入在Kinetics数据库训练好的非局部网络,进行特征提取;
(3)将上一步得到的特征信息送入全连接网络,得到异常评分;
(4)按照多示例学习思想所建立的排序损失来训练步骤(3)中的全连接网络。
作为本发明进一步改进,所述步骤(1)中对视频数据进行分包和分割,具体步骤为:
步骤2.1:将数据集中的一个视频定义为一个包,异常行为类别的视频为正包,将视频平均截成8段作为示例,示例不具有正负标签。
作为本发明进一步改进,将经过步骤2.1后的视频片段送入在Kinetics数据库训练好的非局部网络,进行特征提取:
步骤3.1:建立非局部网络NL-I3D特征提取网络模块,该模块采用在ImageNet数据集上预训练的残差网络ResNet50模型经过卷积核“扩充”从而得到的I3D网络,并加入非局部(NL)层;
1)13D网络由残差网络ResNet50结构的卷积神经网络经过卷积核由k×k扩充到t×k×k获得,该核从在ImageNet数据集上进行预训练的二维模型初始化:t×k×k核中的t个层面都由预训练的k×k权值初始化,重缩放为原来的
Figure BDA0002023031820000021
2)非局部层的结构,本步骤中非局部层的数学公式为:
Figure BDA0002023031820000022
Figure BDA0002023031820000023
Figure BDA0002023031820000024
其中i是要计算响应的输出位置,即在空间、时间或时空中的索引,j是枚举的所有可能位置的索引,x为输入信号,y是输出信号,f(xi,xj)是两点之间的关联系数,g(xj)为是xj点中包含的信息,g采用1×1×1卷积完成,即以f为权重,将信息g进行加权求和,C(x)为其归一化系数;
3)非局部层添加在I3D网络的残差结构层res4和res3层,分别添加3个和2个非局部层,放置在最后的对应个数的残差结构之前;
4)在Kinetics数据集上训练模型,I3D网络中参数按ImageNet数据集上预训练模型进行初始化,非局部层参数初始化为0,训练并保存模型;
步骤3.2:将经过步骤2.1后的视频片段送入步骤3.1中完成的NL-I3D网络中,提取网络的全连接(fc)层,获得特征。
作为本发明进一步改进,所述步骤(3)中全连接网络:
步骤4.1:将步骤3.2中获得的特征进行12正则化,将这些特征(1000D)输入到一个三层的全连接神经网络中,全连接层分别有512个单元,32个单元和1个单元。在全连接层之间使用60%的随机舍弃。
作为本发明进一步改进,所述步骤(4)中排序损失的建立:
步骤5.1:将异常检测定义为一个回归任务,即异常样本的异常值要高于通常样本,将排序损失定义为:
f(Va)>f(Vn)
其中Va和Vn分别为异常和通常样本,f则为模型预测函数,由于在多示例学习中,并不知道正包中每个样本的真实标签,所以采用以下的形式:
Figure BDA0002023031820000031
即训练中对于正包和负包都只使用分数最大的样本来训练,基于此式,为了让正负样本之间的距离尽可能远,采用hinge损失的形式,损失函数为:
Figure BDA0002023031820000032
由于视频片段是连续的,所以异常的分数也应该是相对平滑的,由于正包中的正样本比例很低,所以正包里面的分数应该是稀疏的。因此在损失函数中添加了两个约束项,分别为时序平滑约束以及稀疏约束,即:
Figure BDA0002023031820000033
添加模型参数的l2正则,得到最后的损失函数:
L(W)=l(Ba,Bn)+||W||F
步骤5.2:采用步骤5.1中得到的排序损失函数计算出在正包和负包中得分最高的示例之间的排序损失,并回传更新权重,训练步骤4.1中建立的全连接网络。本发明基于非局部网络深度学习的视频异常行为判别方法,有益效果如下;
本发明公开了一种基于非局部网络深度学习的视频异常行为判别方法,使用多示例学习的思路构建训练集合,定义和标注视频数据的正负包和示例。采用NL-I3D网络进行视频样本的特征提取,ResNet50结构的I3D网络作为提取时空信息的卷积滤波器,NL网络块融合长距离依赖信息,以满足视频特征提取的时序和空间需求。获取特征后,通过弱监督的学习方法建立回归任务,训练模型。本发明对可对未标注的类别进行判别,适用于异常检测任务正样本稀少并且类内多样性高的状况。这种方法满足了异常场景的召回率需求,在UCSD数据集上召回率提高了3.1%,具有工程应用价值。
附图说明
图1为本发明基于非局部网络深度学习的视频异常行为判别方法的流程图;
图2为本发明所述的UCSD数据集部分样本示例;
图3为本发明总体网络结构示意图网络;
图4为本发明所采用的NL-I3D网络结构图;
图5为本发明所采用的非局部层结构图。
具体实施方式
下面结合附图与具体实施方式对本发明作进一步详细描述:
本发明提供基于非局部网络深度学习的视频异常行为判别方法,将多示例方法应用于非局部连接网络块与I3D网络相结合的NL-I3D网络中,对视频进行分类。
下面以公开数据集UCSD为例,结合附图对本发明基于非局部网络深度学习的视频异常行为判别方法的具体实施方式作进一步详细说明,其中整体流程如附录图1所示,UCSD数据集部分样本示例如附录图2所示,总体网络结构如附录图3所示。
步骤1:将视频分为正负包,并平均分割作为示例,具体步骤为:
步骤1.1:将数据集中的一个视频定义为一个包,异常行为类别的视频为正包,将视频平均截成8段作为示例,示例不具有正负标签。
步骤2:将步骤1得到的视频数据送入在Kinetics数据库训练好的NL-I3D网络,进行特征提取,如附录图4,具体步骤为:
步骤2.1:建立NL-I3D特征提取网络模块,该模块采用在ImageNet上预训练的ResNet50模型经过卷积核“扩充”从而得到的I3D网络,并加入非局部(NL)层。
I3D网络由ResNet50结构的CNN网络经过卷积核由k×k扩充到t×k×k获得,该核从在ImageNet上进行预训练的二维模型初始化:t×k×k核中的t个层面都由预训练的k×k权值初始化,重缩放为原来的
Figure BDA0002023031820000041
非局部层的结构如附录图5,非局部层的数学公式为:
Figure BDA0002023031820000051
Figure BDA0002023031820000052
Figure BDA0002023031820000053
其中i是要计算响应的输出位置(在空间、时间或时空中)的索引,j是枚举的所有可能位置的索引,x为输入信号,y是输出信号。f(xi,xj)是两点之间的关联系数,g(xj)为是xj点中包含的信息,g采用1×1×1卷积完成。即以f为权重,将信息g进行加权求和,C(x)为其归一化系数。
步骤3:将得到的特征信息送入全连接网络,得到异常评分,具体步骤为:
步骤3.1:将步骤2.2中获得的特征进行12正则化,将这些特征(1000D)输入到一个三层的FC神经网络中。FC层分别有512个单元,32个单元和1个单元。在FC层之间使用60%的dropout。对第一层和最后一层分别使用ReLU激活和Sigmoid激活,并使用初始学习率为0.001的Adagrad优化器。
步骤4:按照多示例学习思想所建立的排序损失来训练步骤3中的全连接网络,设计方法为:
将异常检测定义为一个回归任务,即异常样本(anormal)的异常值要高于通常样本(normal)。将排序损失定义为:
f(Va)>f(Vn)
其中Va和Vn分别为异常和通常样本,f则为模型预测函数。由于在多示例学习中,并不知道正包中每个样本的真实标签,所以采用以下的形式:
Figure BDA0002023031820000054
即训练中对于正包和负包都只使用分数最大的样本来训练。基于此式,为了让正负样本之间的距离尽可能远,采用hinge-loss的形式,损失函数为:
Figure BDA0002023031820000055
由于视频片段是连续的,所以异常的分数也应该是相对平滑的。由于正包中的正样本比例很低,所以正包里面的分数应该是稀疏的。因此在损失函数中添加了两个约束项,分别为时序平滑约束以及稀疏约束,即:
Figure BDA0002023031820000056
添加模型参数的12正则,得到最后的损失函数:
L(W)=l(Ba,Bn)+||W||F
采用得到的排序损失函数计算出在正包和负包中得分最高的示例之间的排序损失,并回传更新权重,训练步骤3中建立的全连接网络。
本发明所建立模型的实验平台如下:centos 7系统,配置E5处理器,一块NVIDIATesla P100显卡。本发明中模型训练的超参数为:
Figure BDA0002023031820000061
至此完成了基于非局部网络深度学习的视频异常行为判别方法的训练和推理流程。
本发明中模型的测试结果如下表所示:
Figure BDA0002023031820000062
以上所述,仅是本发明的较佳实施例而已,并非是对本发明作任何其他形式的限制,而依据本发明的技术实质所作的任何修改或等同变化,仍属于本发明所要求保护的范围。

Claims (1)

1.基于非局部网络深度学习的视频异常行为判别方法,其计算处理步骤如下,其特征在于:将视频数据分为正负包并切割成示例后使用多示例学习结合非局部网络进行异常行为判别,使用多示例学习的思路构建训练集合,定义和标注视频数据,采用非局部网络进行视频样本的特征提取,再通过弱监督的学习方法建立回归任务,训练模型,方法包括如下步骤:
(1)将视频分为正负包,并平均分割作为示例;
(2)将步骤(1)得到的视频数据送入在Kinetics数据库训练好的非局部网络,进行特征提取;
所述步骤(1)中对视频数据进行分包和分割,具体步骤为:
步骤2.1:将数据集中的一个视频定义为一个包,异常行为类别的视频为正包,将视频平均截成8段作为示例,示例不具有正负标签;
将经过步骤2.1后的视频片段送入在Kinetics数据库训练好的非局部网络,进行特征提取:
步骤3.1:建立非局部网络NL-I3D特征提取网络模块,该模块采用在ImageNet数据集上预训练的残差网络ResNet50模型经过卷积核“扩充”从而得到的I3D网络,并加入非局部NL层;
1)I3D网络由残差网络ResNet50结构的卷积神经网络经过维度扩充获得,设卷积核的长宽均为k,深度为t,卷积核由k×k扩充到t×k×k获得,该核从在ImageNet数据集上进行预训练的二维模型初始化:t×k×k核中的t个层面都由预训练的k×k权值初始化,重缩放为原来的
Figure FDA0003976531060000011
2)非局部层的结构,本步骤中非局部层的数学公式为:
Figure FDA0003976531060000012
Figure FDA0003976531060000013
Figure FDA0003976531060000014
其中i是要计算响应的输出位置,即在空间、时间或时空中的索引,j是枚举的所有可能位置的索引,x为输入信号,y是输出信号,f(xi,xj)是两点之间的关联系数,g(xj)为是xj点中包含的信息,g采用1×1×1卷积完成,即以f为权重,将信息g进行加权求和,C(x)为其归一化系数;
3)非局部层添加在I3D网络的残差结构层res4和res3层,分别添加3个和2个非局部层,放置在最后的对应个数的残差结构之前;
4)在Kinetics数据集上训练模型,I3D网络中参数按ImageNet数据集上预训练模型进行初始化,非局部层参数初始化为0,训练并保存模型;
步骤3.2:将经过步骤2.1后的视频片段送入步骤3.1中完成的NL-I3D网络中,提取网络的全连接fc层,获得特征;
(3)将上一步得到的特征信息送入全连接网络,得到异常评分;
所述步骤(3)中全连接网络:
步骤4.1:将步骤3.2中获得的特征进行l2正则化,将这些特征1000D输入到一个三层的全连接神经网络中,全连接层分别有512个单元,32个单元和1个单元; 在全连接层之间使用60%的随机舍弃;
(4)按照多示例学习思想所建立的排序损失来训练步骤(3)中的全连接网络;
所述步骤(4)中排序损失的建立:
步骤5.1:将异常检测定义为一个回归任务,即异常样本的异常值要高于通常样本,将排序损失定义为:
f(Va)>f(Vn)
其中Va和Vn分别为异常和通常样本,f则为模型预测函数,由于在多示例学习中,并不知道正包中每个样本的真实标签,所以采用以下的形式:
Figure FDA0003976531060000021
即训练中对于正包和负包都只使用分数最大的样本来训练,基于此式,为了让正负样本之间的距离尽可能远,采用hinge损失的形式,损失函数为:
Figure FDA0003976531060000022
由于视频片段是连续的,所以异常的分数也应该是相对平滑的,由于正包中的正样本比例很低,所以正包里面的分数应该是稀疏的; 因此在损失函数中添加了两个约束项,分别为时序平滑约束以及稀疏约束,即:
Figure FDA0003976531060000023
Figure FDA0003976531060000024
添加模型参数的l2正则,得到最后的损失函数:
L(W)=l(Ba,Bn)+||W||F
步骤5.2:采用步骤5.1中得到的排序损失函数计算出在正包和负包中得分最高的示例之间的排序损失,并回传更新权重,训练步骤4.1中建立的全连接网络。
CN201910285159.5A 2019-04-10 2019-04-10 基于非局部网络深度学习的视频异常行为判别方法 Active CN110084151B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910285159.5A CN110084151B (zh) 2019-04-10 2019-04-10 基于非局部网络深度学习的视频异常行为判别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910285159.5A CN110084151B (zh) 2019-04-10 2019-04-10 基于非局部网络深度学习的视频异常行为判别方法

Publications (2)

Publication Number Publication Date
CN110084151A CN110084151A (zh) 2019-08-02
CN110084151B true CN110084151B (zh) 2023-02-28

Family

ID=67414726

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910285159.5A Active CN110084151B (zh) 2019-04-10 2019-04-10 基于非局部网络深度学习的视频异常行为判别方法

Country Status (1)

Country Link
CN (1) CN110084151B (zh)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110929780B (zh) * 2019-11-19 2023-07-11 腾讯科技(深圳)有限公司 视频分类模型构建、视频分类的方法、装置、设备及介质
CN111008579A (zh) * 2019-11-22 2020-04-14 华中师范大学 专注度识别方法、装置和电子设备
CN111160117A (zh) * 2019-12-11 2020-05-15 青岛联合创智科技有限公司 一种基于多示例学习建模的异常行为检测方法
CN113010735B (zh) * 2019-12-20 2024-03-08 北京金山云网络技术有限公司 一种视频分类方法、装置、电子设备及存储介质
CN113095106A (zh) * 2019-12-23 2021-07-09 华为数字技术(苏州)有限公司 一种人体姿态估计方法、装置
CN111291699B (zh) * 2020-02-19 2022-06-03 山东大学 基于监控视频时序动作定位和异常检测的变电站人员行为识别方法
CN111652201B (zh) * 2020-08-10 2020-10-27 中国人民解放军国防科技大学 基于深度视频事件补全的视频数据异常识别方法和装置
CN112257545A (zh) * 2020-10-19 2021-01-22 安徽领云物联科技有限公司 一种违规行为实时监控分析方法、装置及存储介质
CN113011322B (zh) * 2021-03-17 2023-09-05 贵州安防工程技术研究中心有限公司 监控视频特定异常行为的检测模型训练方法及检测方法
CN113312968B (zh) * 2021-04-23 2024-03-12 上海海事大学 一种监控视频中的真实异常检测方法
CN113627468A (zh) * 2021-07-01 2021-11-09 浙江安防职业技术学院 基于无监督学习的非局部神经网络图像处理方法及系统
CN113627386A (zh) * 2021-08-30 2021-11-09 山东新一代信息产业技术研究院有限公司 一种视觉视频异常检测方法
CN114841312B (zh) * 2022-03-30 2024-02-27 西北工业大学 一种基于自适应图卷积网络的弱监督视频异常检测方法
CN116665310B (zh) * 2023-07-28 2023-11-03 中日友好医院(中日友好临床医学研究所) 基于弱监督学习的抽动障碍识别和分类方法及系统

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102509084B (zh) * 2011-11-18 2014-05-07 中国科学院自动化研究所 一种基于多示例学习的恐怖视频场景识别方法
CN108932480B (zh) * 2018-06-08 2022-03-15 电子科技大学 基于1d-cnn的分布式光纤传感信号特征学习与分类方法
CN109446923B (zh) * 2018-10-10 2021-09-24 北京理工大学 基于训练特征融合的深度监督卷积神经网络行为识别方法

Also Published As

Publication number Publication date
CN110084151A (zh) 2019-08-02

Similar Documents

Publication Publication Date Title
CN110084151B (zh) 基于非局部网络深度学习的视频异常行为判别方法
CN113378632B (zh) 一种基于伪标签优化的无监督域适应行人重识别方法
CN107145862B (zh) 一种基于霍夫森林的多特征匹配多目标跟踪方法
CN109255289B (zh) 一种基于统一式生成模型的跨衰老人脸识别方法
CN111950372A (zh) 一种基于图卷积网络的无监督行人重识别方法
CN110909672A (zh) 一种基于双流卷积神经网络和svm的抽烟动作识别方法
CN111738218B (zh) 人体异常行为识别系统及方法
CN110826702A (zh) 一种多任务深度网络的异常事件检测方法
CN113011322B (zh) 监控视频特定异常行为的检测模型训练方法及检测方法
CN111967433A (zh) 一种基于自监督学习网络的动作识别办法
CN111460881A (zh) 基于近邻判别的交通标志对抗样本检测方法和分类装置
CN103136540A (zh) 一种基于隐结构推理的行为识别方法
CN115830531A (zh) 一种基于残差多通道注意力多特征融合的行人重识别方法
Fang et al. Traffic police gesture recognition by pose graph convolutional networks
CN115984213A (zh) 基于深度聚类的工业产品外观缺陷检测方法
Wu et al. Single shot multibox detector for vehicles and pedestrians detection and classification
CN115063832A (zh) 一种基于全局与局部特征的对抗学习跨模态行人重识别方法
Zheng et al. Bi-heterogeneous Convolutional Neural Network for UAV-based dynamic scene classification
CN113032612B (zh) 一种多目标图像检索模型的构建方法及检索方法和装置
CN115393802A (zh) 一种基于小样本学习的铁路场景不常见入侵目标识别方法
Arshad et al. Anomalous Situations Recognition in Surveillance Images Using Deep Learning
Pan et al. An Improved Two-stream Inflated 3D ConvNet for Abnormal Behavior Detection.
Liu et al. Unsupervised video anomaly detection in UAVs: a new approach based on learning and inference
Goyal et al. Captionomaly: A Deep Learning Toolbox for Anomaly Captioning in Social Surveillance Systems
Wang et al. Self-trained video anomaly detection based on teacher-student model

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant