CN116863404A - 一种感知局部响应的视频异常事件检测方法 - Google Patents

一种感知局部响应的视频异常事件检测方法 Download PDF

Info

Publication number
CN116863404A
CN116863404A CN202310847795.9A CN202310847795A CN116863404A CN 116863404 A CN116863404 A CN 116863404A CN 202310847795 A CN202310847795 A CN 202310847795A CN 116863404 A CN116863404 A CN 116863404A
Authority
CN
China
Prior art keywords
image
video
representing
information
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310847795.9A
Other languages
English (en)
Inventor
刘寒松
王国强
王永
刘瑞
谭连盛
董玉超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sonli Holdings Group Co Ltd
Original Assignee
Sonli Holdings Group Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sonli Holdings Group Co Ltd filed Critical Sonli Holdings Group Co Ltd
Priority to CN202310847795.9A priority Critical patent/CN116863404A/zh
Publication of CN116863404A publication Critical patent/CN116863404A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/52Scale-space analysis, e.g. wavelet analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/771Feature selection, e.g. selecting representative features from a multi-dimensional feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于停车场异常检测技术领域,涉及一种感知局部响应的视频异常事件检测方法,先构建数据集,提取基于图像块的特征后进行窗口合并,并通采用局部细节约束增强模块学习不同图像块之间的局部细节约束得到局部细节约束增强后的窗口特征;再通过动态信息感知模块学习图像块之间的运动信息;然后进行尺度级感知并采用跨尺度信息门控过滤模块将冗余特征信息去除,得到恢复视频段预测帧需要的信息后将其转化为输出的图像,从而预测当前视频段的下一帧,最后训练视频帧预测网络并通过推理得到检测结果,不仅能用于异常事件检测中的异常感知,而且能用于复杂场景下的运动检测和以及视频物体检测等相关领域。

Description

一种感知局部响应的视频异常事件检测方法
技术领域
本发明属于停车场异常检测技术领域,涉及一种感知局部响应的视频异常事件检测方法。
背景技术
随着社会的发展和经济的进步,汽车已经变得非常普及,这使得停车场的数量与日俱增,因此,停车场的智能化改造变得非常重要。随着智能化设备的普及,人工智能和计算机视觉成为智能化改造的必备技术,无论是停车场的智慧化管理,还是车辆的自动驾驶,都离不开智能化,伴随着智能化的停车场,作为智能停车的信息输入端,监控设备的智能化显得尤为重要。监控设备的只能活能够实时监控停车场内发生的异常事件,包括车辆被刮擦、车辆被行人故意破坏等事件,从而将停车场中的车辆异常事件及时发现并报警,从而极大的提升停车场的安全性。
目前停车场视频数据逐渐增多,通过人工智能算法,将视频数据分析并预测相关任务成为可能,尤其是分析视频异常事件检测方法逐渐增多。但是,目前视频异常事件检测方法对局部区域细节不敏感,尤其是深度学习网络强大的拟合能力,导致异常检测存在细微差异的异常事件时无法感知细微差异,因此,需要一种能够感知细微异常信息的视频异常事件检测方法,从而为停车场异常事件检测提供智能化改进。
发明内容
本发明的目的在于克服现有技术存在的缺点,设计提供一种感知局部响应的视频异常事件检测方法,利用监控设备对停车场视频进行采集,采用视频帧预测的方法进行异常视频帧检测,从而实现异常事件的检测和预测。
为实现上述目的,本发明实现基于感知局部响应的视频异常事件检测的具体过程为:
(1)从异常检测视频数据集中采集图像数据构建数据集,并将构建的数据集按照正常图像和异常图像进行二值化标注后划分为训练集、验证集和测试集;
(2)通过时空块切割模块采用2D卷积的方式得到基于图像块的特征;
(3)采用划分图像窗口的方式将步骤(2)得到图像块特征进行窗口合并,并通过局部细节约束增强模块采用多头注意力机制学习不同图像块之间的局部细节约束得到局部细节约束增强后的窗口特征;
(4)动态信息感知模块将步骤(3)局部细节约束增强后的特征通过3D卷积学习图像块之间的运动信息;
(5)采用级联的方式将网络的感受野逐步扩充到全局信息,即时空块切割模块、动态信息感知模块和局部细节约束增强模块交替使用进行尺度级感知;
(6)采用跨尺度信息门控过滤模块将冗余特征信息去除,得到恢复视频段预测帧需要的信息;
(7)将预测帧需要的信息转化为输出的图像,从而预测当前视频段的下一帧;
(8)训练视频帧预测网络得到训练好的视频帧预测网络;
(9)选用原始图像与视频帧预测网络输出的预测图像之间的SSIM值作为视频帧是否为异常帧的判断标准,并计算SSIM值的阈值参数,如果SSIM值小于阈值则认为该视频帧为异常的视频帧,如果SSIM值大于阈值,则认为该视频预测图像与真实视频图像很相似,不存在异常。
作为本发明的进一步技术方案,步骤(2)得到的基于图像块的特征为:,其中,/>代表将输入图像/>经过归一化处理后得到的基于图像块的特征,t表示输入图像的数量,/>表示归一化处理,/>代表2D卷积操作。
作为本发明的进一步技术方案,步骤(3)将图像块特征进行窗口合并后的特征为:,局部细节约束增强后的窗口特征为:,其中,代表第i帧图像经过局部细节约束增强后的窗口特征,/>代表位置偏执,用于确定图像块之间的位置关系,/>代表softmax函数,/>代表第i帧产生的图像块特征进行窗口合并后的特征,/>代表将图像块合并操作。
作为本发明的进一步技术方案,步骤(4)的过程为:,其中,/>代表第i帧图像经过动态信息感知后的窗口特征,/>代表采用3D卷积操作用于感知运动信息。
作为本发明的进一步技术方案,步骤(5)的过程为:
动态信息感知模块的中包含空间级卷积和时序级卷积两种操作,其中时序级卷积用于感知运动信息,空间级卷积用于感知物体尺度信息。
作为本发明的进一步技术方案,步骤(6)的过程为:
代表反向解码网络包含前向解码网络中间层输出特征叠加后的特征,/>代表特征叠加模块,/>代表门控开关过滤模块,门控开关过滤模块通过ConGRU实现;其中前向编码网络为:
反向解码网络为:
作为本发明的进一步技术方案,步骤(7)输出的图像为:
其中,代表当前预测网络的输出图像,最后一个/>中未连接中的/>
作为本发明的进一步技术方案,步骤(8)的具体过程为:选用标注为正常图像的图像训练视频帧预测网络,网络结构采用的能量损失函数为L2损失,将训练集中连续的图像送入视频帧预测网络,根据每次训练需要的图像数量B,依次输入到视频帧预测网络后输出当前视频段的下一帧预测图像/>,经过429次完整训练集训练迭代后,保存验证集上精度最高的模型参数,作为最终模型训练好的参数,并保存到本地文件夹,得到训练好的视频帧预测网络。
与现有技术相比,本发明的有益效果是:
(1)本发明提供了一种新型异常事件检测方法,能够感知停车场异常事件的发生,解决了异常检测中存在的局部异常区域细节检测不敏感问题,尤其是网络强大的拟合能力导致的预测视频帧无法预测异常问题,甚至阈值不准确问题。
(2)本发明提供的方法不仅能用于异常事件检测中的异常感知,而且能用于复杂场景下的运动检测和以及视频物体检测等相关领域。
附图说明
图1为本发明实现视频异常事件检测的工作流程框图。
图2为本发明实现视频异常事件检测的网络结构图。
具体实施方式
下面结合附图并通过实施例进一步描述本发明,但不以任何方式限制本发明的范围。
实施例:
如图1和图2所示,本实施例提供一种基于感知局部响应的视频异常事件检测方法,具体包括如下步骤:
(1)数据集构建:为构建视频异常检测数据集,本实施例从异常检测视频数据集中间隔5帧采集一张图像数据构建数据集,并将构建的图像数据集,如果视频帧率为25,则总共收集5帧,按照正常图像和异常图像进行二值化(1/0)标注,将数据集划分为训练集、验证集和测试集;
(2)时空块切割:由于基于像素的方式会带来巨大的计算,为捕获异常区域之间的全局强相关性,本实施例采用划分为图像块的方式,通过图像块的方式能够使得网络感知全局之间的相关性,同时,计算图像块之间的相关性能够比计算像素级的相关性速度更快,为实现上述切分块的操作,时空块切割模块采用2D卷积的方式得到基于图像块的特征:
,其中,代表将输入图像/>经过归一化处理后得到的基于图像块的特征,t表示输入图像的数量,/>表示归一化处理,/>代表2D卷积操作本实施例没有采用3D卷积,这是由于3D卷积将会丢失时间维度信息,通过2D卷积能够保证时序信息不丢失的情况下将图像划分为局部图像块(/>);
(3)局部细节约束增强:通过步骤(2)得到基于图像块的特征,为加快网络执行的速度,本实施例采用划分图像窗口的方式将图像块合并为窗口(),同时,为增加视频中异常特征的感知多样性,局部细节约束增强模块采用多头注意力机制(/>即将异常区域特征通过自注意力机制,学习不同图像块之间的局部细节约束得到局部细节约束增强后的窗口特征:
其中,代表第i帧图像经过局部细节约束增强后的窗口特征,代表位置偏执,用于确定图像块之间的位置关系,/>代表softmax函数,代表第i帧产生的图像块特征进行窗口合并后的特征,/>代表将图像块合并操作,该过程不涉及网络参数学习过程,主要采用数据维度转换和特征拆分;
(4)动态信息感知:因为运动信息通常包含异常区域,为感知运动信息,现有方法往往采用光流的计算方式,但是光流的方式存在诸多局限性,如光流质量不高、光流计算方式速度慢等;为保证运动感知的时效性和运动感知的质量,本实施例采用3D卷积的方式感知运动信息,即动态信息感知模块将步骤(3)局部细节约束增强后的特征通过3D卷积学习图像块之间的运动信息:
其中,代表第i帧图像经过动态信息感知后的窗口特征,/>代表采用3D卷积操作用于感知运动信息;
(5)尺度级感知:通过步骤(3)得到的局部细节约束增强后的窗口特征和步骤(4)得到的经过动态信息感知后的窗口特征能够覆盖不同场景下的异常事件检测,但是,上述方式仅仅能够感知局部细节信息,为了将全局约束以及尺度级约束信息融入到网络中,本实施例采用级联的方式将网络的感受野逐步扩充到全局信息,即时空块切割模块、动态信息感知模块和局部细节约束增强模块交替使用,具体为:
中包含空间级卷积和时序级卷积两种操作,其中时序级卷积用于感知运动信息,而空间级卷积可以用于感知物体尺度信息,因此,在尺度级操作过程中,中/>采用(H/2;W/2;T/2,H代表高,W代表宽,T代表时序长度)包含了空间级的尺度信息;
(6)跨尺度信息门控过滤:通过上述步骤能够将视频的异常信息以编码的方式得到高维语义信息,为预测当前视频段的下一帧,需要将前向编码网络编码的信息(运动信息、局部细节信息)进行解码,从而输出当前视频段中预测下一帧需要的特征,
前向编码网络为:
反向解码网络为:
但是,在进行跨尺度信息融合的过程中,如果直接采用短链接的方式,将会导致特征冗余,网络预测下一帧图像需要将预测需要的信息传递,因此本实施例采用跨尺度信息门控过滤的方式将冗余信息去除,
代表反向解码网络包含前向解码网络中间层输出特征叠加后的特征,/>代表特征叠加模块,/>代表门控开关过滤模块,主要通过ConGRU实现,用于将特征中的冗余信息去除;
(7)预测图像输出:通过步骤(6)得到恢复视频段预测帧需要的信息,将预测帧需要的信息转化为输出的图像,从而预测当前视频段的下一帧:
其中,代表当前预测网络的输出图像,本实施例在最后一个中未连接/>中的/>,这是因为最终输出将不需要恢复前t帧图像,而仅仅需要输出t+1帧预测图像,同时,如果将前t帧图像的前向传播特征引入,将会导致预测的t+1帧图像差异性过小;
(8)视频帧预测网络训练:选用标注为正常图像的图像训练视频帧预测网络,网络结构采用的能量损失函数为L2损失,将训练集中连续的图像送入视频帧预测网络,根据每次训练需要的图像数量B,依次输入到视频帧预测网络后输出当前视频段的下一帧预测图像/>,经过429次完整训练集训练迭代后,保存验证集上精度最高的模型参数,作为最终模型训练好的参数,并保存到本地文件夹,得到训练好的视频帧预测网络;
(9)通过推理得到结果:选用原始图像与预测网络输出的预测图像/>之间的SSIM值作为视频帧是否为异常帧的判断标准,并计算SSIM值的阈值参数,如果SSIM值小于阈值则认为该视频帧为异常的视频帧,如果SSIM值大于阈值,则认为该视频预测图像与真实视频图像很相似,不存在异常。
本文中未详细说明的算法和计算过程均为本领域通用技术。
需要注意的是,公布实施例的目的在于帮助进一步理解本发明,但是本领域的技术人员可以理解:在不脱离本发明及所附权利要求的精神和范围内,各种替换和修改都是可能的,因此,本发明不应局限于实施例所公开的内容,本发明要求保护的范围以权利要求书界定的范围为准。

Claims (8)

1.一种感知局部响应的视频异常事件检测方法,其特征在于,具体过程为:
(1)从异常检测视频数据集中采集图像数据构建数据集,并将构建的数据集按照正常图像和异常图像进行二值化标注后划分为训练集、验证集和测试集;
(2)通过时空块切割模块采用2D卷积的方式得到基于图像块的特征;
(3)采用划分图像窗口的方式将步骤(2)得到图像块特征进行窗口合并,并通过局部细节约束增强模块采用多头注意力机制学习不同图像块之间的局部细节约束得到局部细节约束增强后的窗口特征;
(4)动态信息感知模块将步骤(3)局部细节约束增强后的特征通过3D卷积学习图像块之间的运动信息;
(5)采用级联的方式将网络的感受野逐步扩充到全局信息,即时空块切割模块、动态信息感知模块和局部细节约束增强模块交替使用进行尺度级感知;
(6)采用跨尺度信息门控过滤模块将冗余特征信息去除,得到恢复视频段预测帧需要的信息;
(7)将预测帧需要的信息转化为输出的图像,从而预测当前视频段的下一帧;
(8)训练视频帧预测网络得到训练好的视频帧预测网络;
(9)选用原始图像与视频帧预测网络输出的预测图像之间的SSIM值作为视频帧是否为异常帧的判断标准,并计算SSIM值的阈值参数,如果SSIM值小于阈值则认为该视频帧为异常的视频帧,如果SSIM值大于阈值,则认为该视频预测图像与真实视频图像很相似,不存在异常。
2.根据权利要求1所述感知局部响应的视频异常事件检测方法,其特征在于,步骤(2)得到的基于图像块的特征为:,其中,/>代表将输入图像/>经过归一化处理后得到的基于图像块的特征,t表示输入图像的数量,/>表示归一化处理,/>代表2D卷积操作。
3.根据权利要求2所述感知局部响应的视频异常事件检测方法,其特征在于,步骤(3)将图像块特征进行窗口合并后的特征为:,局部细节约束增强后的窗口特征为:,其中,代表第i帧图像经过局部细节约束增强后的窗口特征,/>代表位置偏执,用于确定图像块之间的位置关系,/>代表softmax函数,/>代表第i帧产生的图像块特征进行窗口合并后的特征,/>代表将图像块合并操作。
4.根据权利要求3所述感知局部响应的视频异常事件检测方法,其特征在于,步骤(4)的过程为:,其中,/>代表第i帧图像经过动态信息感知后的窗口特征,/>代表采用3D卷积操作用于感知运动信息。
5.根据权利要求4所述感知局部响应的视频异常事件检测方法,其特征在于,步骤(5)的过程为:
动态信息感知模块的中包含空间级卷积和时序级卷积两种操作,其中时序级卷积用于感知运动信息,空间级卷积用于感知物体尺度信息。
6.根据权利要求5所述感知局部响应的视频异常事件检测方法,其特征在于,步骤(6)的过程为:
代表反向解码网络包含前向解码网络中间层输出特征叠加后的特征,/>代表特征叠加模块,/>代表门控开关过滤模块,门控开关过滤模块通过ConGRU实现;其中前向编码网络为:
反向解码网络为:
7.根据权利要求6所述感知局部响应的视频异常事件检测方法,其特征在于,步骤(7)输出的图像为:
其中,代表当前预测网络的输出图像,最后一个/>中未连接中的/>
8.根据权利要求7所述感知局部响应的视频异常事件检测方法,其特征在于,步骤(8)的具体过程为:选用标注为正常图像的图像训练视频帧预测网络,网络结构采用的能量损失函数为L2损失,将训练集中连续的图像送入视频帧预测网络,根据每次训练需要的图像数量B,依次输入到视频帧预测网络后输出当前视频段的下一帧预测图像,经过429次完整训练集训练迭代后,保存验证集上精度最高的模型参数,作为最终模型训练好的参数,并保存到本地文件夹,得到训练好的视频帧预测网络。
CN202310847795.9A 2023-07-12 2023-07-12 一种感知局部响应的视频异常事件检测方法 Pending CN116863404A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310847795.9A CN116863404A (zh) 2023-07-12 2023-07-12 一种感知局部响应的视频异常事件检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310847795.9A CN116863404A (zh) 2023-07-12 2023-07-12 一种感知局部响应的视频异常事件检测方法

Publications (1)

Publication Number Publication Date
CN116863404A true CN116863404A (zh) 2023-10-10

Family

ID=88233698

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310847795.9A Pending CN116863404A (zh) 2023-07-12 2023-07-12 一种感知局部响应的视频异常事件检测方法

Country Status (1)

Country Link
CN (1) CN116863404A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117475203A (zh) * 2023-10-23 2024-01-30 苏州大学 基于深度时序图像学习的溜槽角度异常诊断方法及系统
CN117557962A (zh) * 2023-11-23 2024-02-13 深圳市大数据研究院 基于图神经网络的异常视频检测方法以及系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117475203A (zh) * 2023-10-23 2024-01-30 苏州大学 基于深度时序图像学习的溜槽角度异常诊断方法及系统
CN117557962A (zh) * 2023-11-23 2024-02-13 深圳市大数据研究院 基于图神经网络的异常视频检测方法以及系统

Similar Documents

Publication Publication Date Title
CN108805015B (zh) 加权卷积自编码长短期记忆网络人群异常检测方法
WO2023207742A1 (zh) 一种交通异常行为检测方法与系统
CN112507990A (zh) 视频时空特征学习、抽取方法、装置、设备及存储介质
CN110688927B (zh) 一种基于时序卷积建模的视频动作检测方法
CN111695435B (zh) 基于深度混合编解码神经网络的驾驶员行为识别方法
CN116863404A (zh) 一种感知局部响应的视频异常事件检测方法
CN111008600A (zh) 一种车道线检测方法
CN113378775B (zh) 一种基于深度学习的视频阴影检测与消除方法
CN118135800B (zh) 基于深度学习的异常交通事件精准识别告警方法
Ji et al. Tam-net: Temporal enhanced appearance-to-motion generative network for video anomaly detection
CN114913599A (zh) 基于自动编码器的视频异常行为检测方法及系统
CN114627150A (zh) 基于事件相机的数据处理及运动估计方法及装置
CN112487961A (zh) 一种交通事故检测方法、存储介质及设备
CN112487874A (zh) 一种基于事件相机消除背景噪声的方法及系统
CN114255450A (zh) 一种基于前向全景图像的近场车辆加塞行为预测方法
CN118015562A (zh) 一种恶劣天气下交通事故监控视频关键帧提取方法及系统
CN117173931A (zh) 一种基于图神经网络的人与非机动车碰撞预判方法及系统
CN116189299A (zh) 一种适用于边缘终端的煤矿井下人体动作识别方法
CN114937222A (zh) 一种基于双分支网络的视频异常检测方法及系统
CN115082870A (zh) 一种停车场异常事件检测方法
CN115841654B (zh) 一种基于高位监控视频的异常事件检测方法
CN114332699A (zh) 路况预测方法、装置、设备及存储介质
CN113870129A (zh) 基于空间感知与时间差异学习的视频去雨方法
CN113743306A (zh) 一种基于slowfast双帧速率的实时智能视频监控异常行为分析方法
Yang et al. 3D U-Net for Video Anomaly Detection

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination