CN113313037A - 一种基于自注意力机制的生成对抗网络视频异常检测方法 - Google Patents
一种基于自注意力机制的生成对抗网络视频异常检测方法 Download PDFInfo
- Publication number
- CN113313037A CN113313037A CN202110613253.6A CN202110613253A CN113313037A CN 113313037 A CN113313037 A CN 113313037A CN 202110613253 A CN202110613253 A CN 202110613253A CN 113313037 A CN113313037 A CN 113313037A
- Authority
- CN
- China
- Prior art keywords
- video
- network
- self
- frame
- attention mechanism
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/42—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2433—Single-class perspective, e.g. one-against-all classification; Novelty detection; Outlier detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/29—Graphical models, e.g. Bayesian networks
- G06F18/295—Markov models or related models, e.g. semi-Markov models; Markov random fields; Networks embedding Markov models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computational Linguistics (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Psychiatry (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明适用于深度学习中视频异常行为检测技术领域,提供了一种基于自注意力机制的生成对抗网络视频异常检测方法,包括如下步骤:步骤S1:将含有连续t‑1帧的正常作视频帧为训练数据,按时间顺序堆叠起来输入生成器网络AttentionU‑net用来预测其下一帧;步骤S2:将生成的预测帧与实际帧共同输入liteFlownet光流网络中,保证视频帧之间的运动连续性;通过在生成对抗网络的U‑net生成器部分加入基于网格特征图分配权重的自我学习软注意力门控机制来提取特征,自注意力机制自动寻找图像的相关部分,提高对前景内容的响应,同时模型中加入强度损失函数,梯度损失函数和运动约束信息,判别器部分使用马尔可夫判别器,利用对抗学习来加强模型对视频中异常行为的检测能力。
Description
技术领域
本发明属于深度学习中视频异常行为检测技术领域,尤其涉及一种基于自注意力机制的生成对抗网络视频异常检测方法。
背景技术
视频中的异常检测是指识别监控视频中不符合预期的行为事件。异常行为分析在在智慧安防、智能家居、医学康复等领域广泛应用,有着重要的研究意义和研究价值。传统的视频异常行为检测方法需手工提取目标特征,如梯度直方图(HOG)可表示目标对象表观轮廓的特征信息;光流特征图捕捉目标对象的运动信息特征;轨迹可提取运动目标的轨迹特征。但基于人工提取的特征表示较为单一且无法学习预期之外异常事件的特征,导致基于手工构建特征方法处理海量的视频数据能力通常比较弱且方法较难泛化,已较难得到新的突破。
随着深度学习在各个领域的发展,越来越多的研究人员将深度学习方法应用到视频异常行为检测中,自动地从海量数据集中学习数据本身的分布规律来提取出更加鲁棒的高级特征。但研究发现目前仍然具有一些缺陷:(1)不同的场景下异常的定义有所不同,例如车辆行驶在高速公路上属于正常事件,若出现在人行区域则属于异常事件。(2)异常行为的种类繁多且无法全部列举,用一种方法处理异常事件是不可行的。(3)异常行为事件发生是小概率事件且异常行为特征难以被全部学习。
目前基于深度学习的监控视频异常行为检测算法思路主要分为基于重构判别的思想和基于预测未来帧的思想两类。
重构判别算法认为通过模型训练来学习正常样本在样本空间服从的分布,符合该分布的正常样本都能较好重构,重构误差大的样本则属于异常样本。利用卷积自编码器(ConvolutionAE,CAE)进行的重构误差重构检测视频中的异常行为。有方法提出利用卷积长短期记忆(ConvLSTM-AE)框架提取目标物体的外观和运动信息重构误差来进行异常检测训练;有方法将稀疏编码映射到堆叠的循环神经网络(stackedRNN,sRNN)框架中进行重构来判别异常。目前,大多数研究者研究重点在于基于重构判别的异常检测算法的研究,但由于深度神经学习网络其强大的学习能力,其对于正常事件和异常事件的重构结果将是相似的,深度学习网络并不能保证对异常事件的重构误差一定很大。由此可见,几乎所有基于训练数据的重构误差的方法都不能保证准确发生检测出异常事件。
基于未来帧预测的算法模型假设正常行为是有规律的且是可预测的,而视频中异常行为事件由于其不确定性是不可预测的。该类方法可通过预测得到的未来预测帧与其对应的真实帧之间的差距来判断该事件是否包含异常行为。目前生成对抗网络(Generativeadversarialnetwork,GAN)在视频异常检测领域取得了突破性的进展,其网络架构可很好地用于预测。基于U-net的条件生成对抗网络进行异常行为检测,同时加入光流图特征进行运动特征约束;在此基础上提出基于对偶生成对抗网络模型,利用双生成器和双鉴别器的对偶结构分别对外观和运动信息进行异常判别;有方法提出利用卷积自编码器学习空间结构,U-net将输入与运动信息相关联的结构来进行异常检测。
以上所有基于U-net为生成器的生成对抗网络结构捕获了训练样本空间不变性的特征,但局限性之一是空间特征无法建立长距离依赖性,不能将特征信息进行有效连接。
发明内容
本发明提供一种基于自注意力机制的生成对抗网络视频异常检测方法,旨在解决基于U-net为生成器的生成对抗网络结构捕获了训练样本空间不变性的特征,但局限性之一是空间特征无法建立长距离依赖性,不能将特征信息进行有效连接问题。
本发明是这样实现的,一种基于自注意力机制的生成对抗网络视频异常检测方法,包括如下步骤:
步骤S1:将含有连续t-1帧的正常作视频帧为训练数据,按时间顺序堆叠起来输入生成器网络AttentionU-net用来预测其下一帧;
步骤S2:将生成的预测帧与实际帧共同输入liteFlownet光流网络中,保证视频帧之间的运动连续性;
步骤S3:加入强度损失和梯度损失;
步骤S4:对生成网络和训练网络进行训练;
步骤S5:将含有异常样本的测试数据以及生成的预测帧输入该模型的马尔可夫判别器中,得出测试数据中的正异常行为的分数,将正异常分数结果进行可视化。
优选的,所述生成网络、数据格式、引入自注意力机制对视频数据帧进行空间建模,获得正常事件的空间分布,具体包括如下步骤:
步骤S11:对视频数据进行预处理,将视频流分解成具有连续时间序列的相同规格的视频帧,并将数据集分成训练数据集和测试数据集两部分;
步骤S12:在U-net中建立基于网格特征图分配权重的自我学习软注意力门控机制来计算注意力系数α从而进行权重分配。
优选的,所引入liteFlownet网络对运动信息进行建模。
优选的,所利用liteFlownet光流网络模型来捕获在异常检测中视频片段的运动信息,将生成的预测帧与实际帧共同输入liteFlownet光流网络中。
优选的,所在生成器和判别器中引入对抗学习机制。
与现有技术相比,本发明的有益效果是:本发明的一种基于自注意力机制的生成对抗网络视频异常检测方法,通过在生成对抗网络的U-net生成器部分加入基于网格特征图分配权重的自我学习软注意力门控机制来提取特征,自注意力机制在单层特征中对远距离空间相关性进行建模,自动寻找图像的相关部分,提高对前景内容的响应,同时模型中加入强度损失函数,梯度损失函数和运动约束信息,判别器部分使用马尔可夫判别器,利用对抗学习来加强模型对视频中异常行为的检测能力。
附图说明
图1为本发明的方法步骤示意图;
图2为本发明中的框架示意图;
图3为本发明中的U-net结构示意图;
图4为本发明中的异常帧分数表示结果示意图;
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
请参阅图1-4,本发明提供一种技术方案:一种基于自注意力机制的生成对抗网络视频异常检测方法,包括如下步骤:
步骤S1:将含有连续t-1帧的正常作视频帧为训练数据,按时间顺序堆叠起来输入生成器网络AttentionU-net用来预测其下一帧;具体包括:
步骤S11:对视频数据进行预处理,将视频流分解成具有连续时间序列的相同规格的视频帧,并将数据集分成训练数据集和测试数据集两部分。
本实施方式中选取视频异常检测公共数据集CUHKAvenue、UCSDPed1和UCSDPed2进行说明,所选取的数据集皆来自视频异常检测领域中公认的数据集,且数据质量符合标准的被试数据被使用。
训练集只包含正常行为,测试集中的某一帧可能存在或不存在异常行为,是异常检测领域中大家公认的数据集,具有一定的挑战性。
CUHKAvenue:包含16个训练视频和21个测试视频,视频场景由校园内的行人组成,异常类型主要是行人的异常动作、错误移动方向、异常物体的出现等。
UCSD数据集:包括Ped1和Ped2两个子集,Ped1数据子集包含34个训练视频样本和36个测试视频样本,视频场景是在行人区域中走向和远离摄像机的人流组成,其异常类型主要有行人异常行为和非人类物体的出现,如骑自行车和汽车闯入等,Ped2数据子集包含16个训练视频样本和12个测试视频样本,视频场景由与摄像机镜头头平行的行人组成,其异常类型主要有行人投掷物体和突然跑步等。
步骤S12:在U-net中建立基于网格特征图分配权重的自我学习软注意力门控机制来计算注意力系数α从而进行权重分配,如图3所示,具体包括:
门控信号g表示解码器的前一层所提取的输入特征信息,xl表示上采样层的上一层的特征信息,将调整权重后的xl与g进行相加拼接;相加得到的特征图将通过一组参数θatt,得到门控系数α.公式如下所示:
将相加得到的特征图通过一组参数θatt,包括:1*1*1卷积线性变换运算、Re L U激活函数、Sigmoid激活函数的非线性变换和Reseampler重采样这一系列的过程,得到注意力门控系数α。
通过注意力门控机制这一系列操作,每个注意力门控机制都学会关注目标结构的一个子集,来自背景区域的梯度在向下传播的过程中被向下加权,允许较浅层的中的特征图通过注意力门控机制基于给定的视频异常识别任务相关的视频帧的空间区域特征进行更新,提取并融合互补信息,这有助于确保不同比例的注意力单元能够影响对视频帧前景内容的响应从而定义跳连结构的输出。
步骤S2:将生成的预测帧与实际帧共同输入liteFlownet光流网络中,保证视频帧之间的运动连续性,具体包括:
利用liteFlownet光流网络模型来捕获在异常检测中视频片段的运动信息,使用L1距离损失来计算运动损失,则光流的损失函数可表示为:
Lof(F′t,Ft)=||F′t-F||1
步骤S3:加入强度损失和梯度损失,具体包括:
为了使预测值更接近真实值,在模型中添加强度损失,减少预测值I′t与其真实值It之间的距离,强度损失保证了RGB图像空间中所有像素的相似性,如下式所示:
其中,It′表示生成的预测值,It表示真实值,||·||2表示欧几里得距离;
步骤S32:加入梯度损失用来保证生成图像的锐度,下式为梯度损失的定义.
Lgd(I′,I)=∑i,j|||Ii,j′-Ii-1,j|-|Ii,j-Ii-1,j|||1+|||Ii,j′-Ii,j-1|-|Ii,j-Ii,j-1|||1
其中,i,j表示视频帧的空间坐标。
步骤S4:将生成网络和训练网络进行训练;训练生成器的目的是捕获正常数据的分布特征来使生成帧更接近于生成的预测值;训练判别器的目的是使鉴别器将视频真实帧与预测生成帧进行区分,生成器与鉴别器之间通过对抗学习进行优化;
其中,训练生成网络:训练生成网络G的目标是捕获正常数据的分布特征来生成更加接近于真实值的预测帧,训练G时,判别网络D的权重是固定的.生成网络G的对抗损失定义为:
训练判别网络:训练判别网络D的目标是将尝试将视频真实帧和生成预测帧区别开,预测帧I′分为1类和0类,其中0和1分别代表假标签和真标签;训练D时,生成网络G的权重是固定的;
其中,i,j表示空间索引,t表示视频序列的第t帧;
生成器和鉴别器通过对抗学习从而进行优化.结合外观信息、运动信息和对抗训练的所有约束条件,将生成网络G的目标函数定义如下:
LG=λintLint(It′,It)+λgdLgd(It′,It)+λofLof(It′,It)+λadvLadv(It′,It)
判别网络使用的是PatchGan,判别网络D的目标函数表示为:
步骤S5:将含有异常样本的测试数据以及生成的预测帧输入该模型的马尔可夫判别器中,得出测试数据中的正异常行为的分数,将正异常分数结果进行可视化。
假设正常事件的视频帧可以被准确的预测,模型利用预测帧与真实值的差值进行异常事件的判定,若差值较小则视为正常事件,否则即为异常事件;峰值信噪比(PSNR)是一种评估图像质量的有效方法,其表达式如下所示:
PSNR值越高,代表生成器所生成的图片质量越好,其预测帧的值越接近于地面真实值,表明该帧更可能为正常事件,否则视为异常事件。
图4为视频序列帧的分数结果,当视频中出现异常行为时,PSNR值会突然变化呈下降趋势,这是因为已经训练好生成器不能很好地预测异常帧的出现,从而导致分数下降.当检测到行人投掷书包、突然加速跑等异常行为时,PSNR分数发生突然下降的变化表明该帧是异常行为。
如下表格,为本发明实施例在Avenue,ped1、ped2的AUC分数结果,AUC值越大,则模型性能越好。由此可见,本申请所提出的基于AttentionU-net的视频异常检测算法优于现在所有的方法。特别在Avenue数据集上,本文模型算法的AUC分数高达87.2%,与基准有明显提高,证明了在生成器部分加入自注意力机制的有效性。本申请所提方法的时效性和准确性足以可以检测出视频中的异常行为,体现了本申请所提算法的稳定性和鲁棒性。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (5)
1.一种基于自注意力机制的生成对抗网络视频异常检测方法,其特征在于:包括如下步骤:
步骤S1:将含有连续t-1帧的正常作视频帧为训练数据,按时间顺序堆叠起来输入生成器网络AttentionU-net用来预测其下一帧;
步骤S2:将生成的预测帧与实际帧共同输入liteFlownet光流网络中,保证视频帧之间的运动连续性;
步骤S3:加入强度损失和梯度损失;
步骤S4:对生成网络和训练网络进行训练;
步骤S5:将含有异常样本的测试数据以及生成的预测帧输入该模型的马尔可夫判别器中,得出测试数据中的正异常行为的分数,将正异常分数结果进行可视化。
2.如权利要求1所述的一种基于自注意力机制的生成对抗网络视频异常检测方法,其特征在于:所述生成网络、数据格式、引入自注意力机制对视频数据帧进行空间建模,获得正常事件的空间分布,具体包括如下步骤:
步骤S11:对视频数据进行预处理,将视频流分解成具有连续时间序列的相同规格的视频帧,并将数据集分成训练数据集和测试数据集两部分;
步骤S12:在U-net中建立基于网格特征图分配权重的自我学习软注意力门控机制来计算注意力系数α从而进行权重分配。
3.如权利要求1所述的一种基于自注意力机制的生成对抗网络视频异常检测方法,其特征在于:引入liteFlownet网络对运动信息进行建模。
4.如权利要求3所述的一种基于自注意力机制的生成对抗网络视频异常检测方法,其特征在于:利用liteFlownet光流网络模型来捕获在异常检测中视频片段的运动信息,将生成的预测帧与实际帧共同输入liteFlownet光流网络中。
5.如权利要求1所述的一种基于自注意力机制的生成对抗网络视频异常检测方法,其特征在于:在生成器和判别器中引入对抗学习机制。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110613253.6A CN113313037A (zh) | 2021-06-02 | 2021-06-02 | 一种基于自注意力机制的生成对抗网络视频异常检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110613253.6A CN113313037A (zh) | 2021-06-02 | 2021-06-02 | 一种基于自注意力机制的生成对抗网络视频异常检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113313037A true CN113313037A (zh) | 2021-08-27 |
Family
ID=77377061
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110613253.6A Pending CN113313037A (zh) | 2021-06-02 | 2021-06-02 | 一种基于自注意力机制的生成对抗网络视频异常检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113313037A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113744265A (zh) * | 2021-11-02 | 2021-12-03 | 成都东方天呈智能科技有限公司 | 一种基于生成对抗网络的异常检测系统、方法和存储介质 |
CN114067251A (zh) * | 2021-11-18 | 2022-02-18 | 西安交通大学 | 一种无监督监控视频预测帧异常检测方法 |
CN114092856A (zh) * | 2021-11-18 | 2022-02-25 | 西安交通大学 | 对抗与注意力联合机制的视频弱监督异常检测系统及方法 |
CN114612836A (zh) * | 2022-03-15 | 2022-06-10 | 南京邮电大学 | 基于记忆增强未来视频帧预测的监控视频异常检测方法 |
CN115690665A (zh) * | 2023-01-03 | 2023-02-03 | 华东交通大学 | 一种基于交叉U-Net网络的视频异常检测方法及装置 |
CN115861384A (zh) * | 2023-02-27 | 2023-03-28 | 广东工业大学 | 基于生成对抗和注意力机制的光流估计方法及系统 |
CN117907965A (zh) * | 2024-03-19 | 2024-04-19 | 江苏省气象台 | 面向对流风暴精细结构的三维雷达回波临近预报方法 |
CN117907965B (zh) * | 2024-03-19 | 2024-05-24 | 江苏省气象台 | 面向对流风暴精细结构的三维雷达回波临近预报方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110705376A (zh) * | 2019-09-11 | 2020-01-17 | 南京邮电大学 | 一种基于生成式对抗网络的异常行为检测方法 |
US20200134804A1 (en) * | 2018-10-26 | 2020-04-30 | Nec Laboratories America, Inc. | Fully convolutional transformer based generative adversarial networks |
CN111881750A (zh) * | 2020-06-24 | 2020-11-03 | 北京工业大学 | 基于生成对抗网络的人群异常检测方法 |
CN112734644A (zh) * | 2021-01-19 | 2021-04-30 | 安徽工业大学 | 一种多个注意力结合光流的视频超分辨模型及方法 |
-
2021
- 2021-06-02 CN CN202110613253.6A patent/CN113313037A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200134804A1 (en) * | 2018-10-26 | 2020-04-30 | Nec Laboratories America, Inc. | Fully convolutional transformer based generative adversarial networks |
CN110705376A (zh) * | 2019-09-11 | 2020-01-17 | 南京邮电大学 | 一种基于生成式对抗网络的异常行为检测方法 |
CN111881750A (zh) * | 2020-06-24 | 2020-11-03 | 北京工业大学 | 基于生成对抗网络的人群异常检测方法 |
CN112734644A (zh) * | 2021-01-19 | 2021-04-30 | 安徽工业大学 | 一种多个注意力结合光流的视频超分辨模型及方法 |
Non-Patent Citations (1)
Title |
---|
ZAN OKTAY ET AL.: "Attention U-Net: Learning Where to Look for the Pancreas", 《1ST CONFERENCE ON MEDICAL IMAGING WITH DEEP LEARNING (MIDL 2018)》 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113744265A (zh) * | 2021-11-02 | 2021-12-03 | 成都东方天呈智能科技有限公司 | 一种基于生成对抗网络的异常检测系统、方法和存储介质 |
CN114067251A (zh) * | 2021-11-18 | 2022-02-18 | 西安交通大学 | 一种无监督监控视频预测帧异常检测方法 |
CN114092856A (zh) * | 2021-11-18 | 2022-02-25 | 西安交通大学 | 对抗与注意力联合机制的视频弱监督异常检测系统及方法 |
CN114067251B (zh) * | 2021-11-18 | 2023-09-15 | 西安交通大学 | 一种无监督监控视频预测帧异常检测方法 |
CN114092856B (zh) * | 2021-11-18 | 2024-02-06 | 西安交通大学 | 对抗与注意力联合机制的视频弱监督异常检测系统及方法 |
CN114612836A (zh) * | 2022-03-15 | 2022-06-10 | 南京邮电大学 | 基于记忆增强未来视频帧预测的监控视频异常检测方法 |
CN114612836B (zh) * | 2022-03-15 | 2024-04-05 | 南京邮电大学 | 基于记忆增强未来视频帧预测的监控视频异常检测方法 |
CN115690665A (zh) * | 2023-01-03 | 2023-02-03 | 华东交通大学 | 一种基于交叉U-Net网络的视频异常检测方法及装置 |
CN115861384A (zh) * | 2023-02-27 | 2023-03-28 | 广东工业大学 | 基于生成对抗和注意力机制的光流估计方法及系统 |
CN115861384B (zh) * | 2023-02-27 | 2023-05-23 | 广东工业大学 | 基于生成对抗和注意力机制的光流估计方法及系统 |
CN117907965A (zh) * | 2024-03-19 | 2024-04-19 | 江苏省气象台 | 面向对流风暴精细结构的三维雷达回波临近预报方法 |
CN117907965B (zh) * | 2024-03-19 | 2024-05-24 | 江苏省气象台 | 面向对流风暴精细结构的三维雷达回波临近预报方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113313037A (zh) | 一种基于自注意力机制的生成对抗网络视频异常检测方法 | |
Zhang et al. | Too far to see? Not really!—Pedestrian detection with scale-aware localization policy | |
CN110929593B (zh) | 一种基于细节辨别区别的实时显著性行人检测方法 | |
CN112016500A (zh) | 基于多尺度时间信息融合的群体异常行为识别方法及系统 | |
CN110580460A (zh) | 基于行人身份和属性特征联合识别验证的行人再识别方法 | |
CN107506734A (zh) | 一种群体突发异常事件检测与定位方法 | |
CN110298297A (zh) | 火焰识别方法和装置 | |
CN113536972B (zh) | 一种基于目标域伪标签的自监督跨域人群计数方法 | |
CN110827265B (zh) | 基于深度学习的图片异常检测方法 | |
CN112766218B (zh) | 基于非对称联合教学网络的跨域行人重识别方法和装置 | |
Chen et al. | Neuroaed: Towards efficient abnormal event detection in visual surveillance with neuromorphic vision sensor | |
Hu et al. | Parallel spatial-temporal convolutional neural networks for anomaly detection and location in crowded scenes | |
CN106529405A (zh) | 一种基于视频图像块模型的局部异常行为检测方法 | |
Du et al. | Convolutional neural network-based data anomaly detection considering class imbalance with limited data | |
CN113688761B (zh) | 一种基于图像序列的行人行为类别检测方法 | |
CN117372876A (zh) | 一种多任务遥感影像道路损毁评估方法及系统 | |
CN112418149A (zh) | 一种基于深卷积神经网络的异常行为检测方法 | |
CN112487961A (zh) | 一种交通事故检测方法、存储介质及设备 | |
Li et al. | Multi-Branch GAN-based Abnormal Events Detection via Context Learning in Surveillance Videos | |
CN116229347A (zh) | 一种人群安全异常事件识别方法 | |
Al-Shammri et al. | A Combined Method for Object Detection under Rain Conditions Using Deep Learning | |
CN115393802A (zh) | 一种基于小样本学习的铁路场景不常见入侵目标识别方法 | |
CN112651996A (zh) | 目标检测跟踪方法、装置、电子设备和存储介质 | |
Sun et al. | Learning event-relevant factors for video anomaly detection | |
Liu et al. | Integrated multiscale appearance features and motion information prediction network for anomaly detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20210827 |
|
WD01 | Invention patent application deemed withdrawn after publication |