CN109711280B - 一种基于ST-Unet的视频异常检测方法 - Google Patents

一种基于ST-Unet的视频异常检测方法 Download PDF

Info

Publication number
CN109711280B
CN109711280B CN201811501290.2A CN201811501290A CN109711280B CN 109711280 B CN109711280 B CN 109711280B CN 201811501290 A CN201811501290 A CN 201811501290A CN 109711280 B CN109711280 B CN 109711280B
Authority
CN
China
Prior art keywords
image
video
network
unet
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811501290.2A
Other languages
English (en)
Other versions
CN109711280A (zh
Inventor
蔡轶珩
李媛媛
刘嘉琦
马杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN201811501290.2A priority Critical patent/CN109711280B/zh
Publication of CN109711280A publication Critical patent/CN109711280A/zh
Application granted granted Critical
Publication of CN109711280B publication Critical patent/CN109711280B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

基于ST‑Unet网络的视频异常检测方法,涉及计算机视觉以及模式识别领域。本发明针对视频这类具有强时空相关性数据的处理问题提出新的ST‑Unet网络,该网络即利用了Unet网络在空间特征上良好的建模能力又结合了ConvLSTM在时间上的建模能力。为提高算法的准确性及其泛华能力,本发明在算法训练过中对输入的视频数据利用Dropout层进行“损坏”预处理。通过“损坏”的训练数据训练得到的网络不仅可以对完好的测试数据有较好的异常检测效果,对测试过程含噪的数据亦可检测出是否异常。本发明将重构算法结果与预测算法结果进行联合判别,实现了高精度的基于ST‑Unet网络的视频异常检测算法。

Description

一种基于ST-Unet的视频异常检测方法
技术领域
本发明属于计算机视觉和模式识别领域,涉及一种ST-Unet网络的视频异常检测方法。
背景技术
随着社会的不断进步,平安城市的概念逐步成为人们最为关注的话题之一。其中,完善的监控系统是建设平安城市非常重要的一环,视频监控技术成为目前最重要的安防监控的手段和方法。目前,普遍的监控视频处理方法都还是较为初级的监控方式,即利用监控摄像头拍摄画面并提供实时显示,由监管人员实时观察监控视频,根据经验来判断是否有异常事件发生。这种监控方式不仅需要管理人员对监控视频画面时刻观察,耗费大量劳动力,且专人观察易疲劳,注意力不可能长时间集中在监控视频上,易出现漏检现象。因此,智能的高精度的视频异常检测系统成为监控管理的迫切需求。视频异常检测系统可以实时检测监控画面,当异常出现时给予管理人员警示,这不仅减少人力资源的投入,还使得实时处理所有拍摄摄像头传回的大量的视频数据成为可能,更好的维护社会治安,建设平安城市。
由于日常监控视频数据中大多为正常事件,异常事件很少发生且异常事件类型多种多样、难以预测,故现有的异常检测算法均基于非监督和半监督的方法,且非监督的异常检测算法种大多基于自编码器的结构。针对视频数据强时空相关性的特点,部分算法又在自编码器中加入LSTM结构来增强算法在时间上的建模能力,但这种提取特征后再进行时间上建模的方法仍忽略了许多时候视频数据的时空特征。
发明内容
针对现有算法的不足,本发明提出一个高精度的基于ST-Unet网络的视频异常检测算法。在Unet网络中加入ConvLSTM结构,即利用了Unet网络对输入数据多尺度建模的特点,又加入ConvLSTM加强对输入数据时间上的建模。相较于现有算法,本发明提出的ST-Unet网络对视频类具有强时空相关性的数据有很好的建模作用,在视频异常检测问题方面有较高的准确率。
本发明提供一种高精度基于ST-Unet网络的视频异常检测算法,包括以下步骤:
1、预处理
首先,将原始的长视频数据切分成单帧的视频帧图像。其次,对切分好的视频帧利用Dropout层进行“损坏”处理,即随意使输入的视频帧的某些值置零。
2、构造ST-Unet网络
本发明所构建的网络结构为:
输入层,两层卷积层(C1、C2),第一次下采样(P1),两层卷积层(C3、C4),第二次下采样(P2),两层卷积层(C5、C6),第三次下采样(P3);三层ConvLSTM层(L1、L2、L3);第一次上采样(U1),两层卷积层(C6、C7),第二次上采样(U2),两层卷积层(C8、C9),第三次上采样(U3),两层卷积层(C10、C11),输出层。形成一个前后对称的且加有长短时记忆的U型深度网络构架,ST-Unet。
3、利用ST-Unet网络实现基于重构和预测的视频异常检测算法
训练过程:
对训练集中的原始长视频切分成单帧视频帧,并做“损坏”预处理。将预处理后的连续四帧视频帧输入到ST-Unet网络中,分别训练得到重构ST-Unet网络和预测ST-Unet网络。通过最小化输入的视频帧图像与重构图像、预测未来帧图像与真正未来帧图像之间的差值来进行网络优化。并利用生成对抗模型,将重构图像、预测未来帧图像与对应的groundtruth同时输入到判别模型中让判别网络进行判别。ST-Unet网络与判别模型共同训练,最终使得判别模型无法辨别输入的是(重构、预测)生成的图像还是原始ground truth,进一步优化ST-Unet网络,提高准确性。
测试过程:
将测试集中的原始长视频切分成单帧视频帧,然后直接输入到训练好的重构ST-Unet网络和预测ST-Unet网络中,分别得到重构图像、预测图像。通过比较输入图像与重构图像得到重构误差。通过比较输入图像与预测图像得到预测误差。
为进一步提高算法准确率,本算法对得到的重构误差和预测误差进行加权处理,计算得最终的异常分数。通过比较异常分数与所设阈值之间的差异,来判定该输入的视频帧是否属于异常。
有益效果
1、本发明对输入的视频帧数据采用“损坏”预处理
为提高网络的泛华能力,使其提取最为重要的数据特征,本发明对输入的视频帧图像进行“损坏”处理。通过训练,使得网络不仅可以对输入的完整视频帧进行处理,当输入“受损”、“含噪”的视频帧时,它亦可以提取出关键的重要的特征进行处理,提高算法的准确性。
2、本发明提出ST-Unet网络
Unet网络的特点在于其在上采样的过程中,每上采样一次就和特征提取部分(即下采样过程)对应的相同尺度的输出进行融合,故Unet网络在空间上对输入图像有很好的建模效果,但对于视频异常检测这类输入数据具有强时间相关性的问题,本发明提出的ST-Unet网络,在Unet网络中加入ConvLSTM层来加强对输入数据时间上特征的提取,更适合处理该类问题。
3、本发明利用ST-Uet网络实现基于重构和预测的视频异常检测算法
现有视频异常检测的重构算法均基于卷积自编码器来实现(即卷积提取特征后再反卷积进行重构),其中也包括在卷积层最后加入ConvLSTM来加强时间上特征联系的方法,但这种提取特征后进行时间建模的方法仍丢失了部分时空特征信息。本发明提出利用ST-Unet网络进行视频帧重构,该方法比自编码器利用更多尺度的空间特征信息进行重构,且在时间上也较强的特征提取能力。
目前已有利用Unet网络进行预测未来帧,并通过预测误差来进行视频异常检测的算法,但该算法只注重了对于输入视频数据空间上特征的提取,忽略了输入视频数据在时间上的强相关性。本发明利用提出的ST-Unet网络进一步改进基于预测的视频异常检测算法,提高视频异常检测的精度。
4、基于重构和预测的视频异常联合检测算法
为进一步提高准确率,本发明在分别得到重构误差及预测误差后,进行两误差值的加权平均处理,将取平均后的值作为最后的异常分数值。该处理综合考虑了重构算法及预测算法所得结果,除预测未来帧外又进行了当前帧的重构,联合判别,进一步提高了算法的准确率。
附图说明:
图1为本发明预处理网络图。
图2为本发明ST-Unet网络图。
图3为本发明利用ST-Unet实现重构算法的训练流程图。
图4为本发明利用ST-Unet实现预测算法的训练流程。
图5为本发明算法测试流程图。
具体实施方法
下面结合附图对本发明的具体实施方法进行详细说明。
1、预处理
将连续的长视频切分成单一的视频帧图像,并将切分好的视频帧图像输入到由单一Dropout层构成的预处理网络中,得到预处理后的“损坏”视频帧图像数据。具体网络结构如图1所示,其中Dropout层的keep_prob设置为0.8。
2、构建ST-Unet网络
如图2所示。本发明所构造的ST-Unet网络的各层具体参数如下:
①、C1、C2两卷积层:输入尺寸为256×256,输入通道数为3,卷积核为3×3,步长为1,边缘填充方式为‘valid’,激活函数为ReLU,输出尺寸为256×256,输出通道数为64。
②、P1下采样层:输入尺寸为256×256,输入通道数为64,池化核为2×2,步长为1,边缘填充方式为‘same’,输出尺寸为128×128。
③、C3、C4两卷积层:输入尺寸为128×128,输入通道数为64,卷积核为3×3,步长为1,边缘填充方式为‘valid’,激活函数为ReLU,输出尺寸为128×128,输出通道数为128。
④、P2下采样层:输入尺寸为128×128,输入通道数为128,池化核为2×2,步长为1,边缘填充方式为‘same’,输出尺寸为64×64,
⑤、C5、C6两卷积层:输入尺寸为64×64,输入通道数为128,卷积核为3×3,步长为1,边缘填充方式为‘valid’,激活函数为ReLU,输出尺寸为64×64,输出通道数为256。
⑥、P3下采样层:输入尺寸为64×64,输入通道数为256,池化核为2×2,步长为1,边缘填充方式为‘same’,输出尺寸为32×32。
⑦、L1ConvLSTM层:输入尺寸为32×32,输入通道数为256,卷积核为3×3,输出尺寸为32×32,输出通道数为512。
⑧、L2、L3两ConvLSTM层:输入尺寸为32×32,输入通道数为512,卷积核为3×3,输出尺寸为32×32,输出通道数为512。
⑨、U1反卷积层:输入尺寸为32×32,输入通道数为512,卷积核为2×2,步长为2,边缘填充方式为‘same’,输出尺寸为64×64。
⑩、将U1反卷积后的结果与对应尺寸的C6卷积的结果进行拼接,拼接维度为3。
Figure BDA0001898238680000051
C7、C8两卷积层:输入尺寸为64×64,输入通道数为512,卷积核为3×3,步长为1,边缘填充方式为‘valid’,激活函数为ReLU,输出尺寸为64×64,输出通道数为256。
Figure BDA0001898238680000052
U2反卷积层:输入尺寸为64×64,输入通道数为256,卷积核为2×2,步长为2,边缘填充方式为‘same’,输出尺寸为128×128。
Figure BDA0001898238680000061
将U2反卷积后的结果与对应尺寸的C4卷积的结果进行拼接,拼接维度为3。
Figure BDA0001898238680000062
C9、C10两卷积层:输入尺寸为128×128,输入通道数为256,卷积核为3×3,步长为1,边缘填充方式为‘valid’,激活函数为ReLU,输出尺寸为128×128,输出通道数为128。
Figure BDA0001898238680000063
U3反卷积层:输入尺寸为128×128,输入通道数为128,卷积核为2×2,步长为2,边缘填充方式为‘same’,输出尺寸为256×256。
Figure BDA0001898238680000064
将U3反卷积后的结果与对应尺寸的C2卷积的结果进行拼接,拼接维度为3。
Figure BDA0001898238680000065
C11、C12两卷积层:输入尺寸为256×256,输入通道数为128,卷积核为3×3,步长为1,边缘填充方式为‘valid’,激活函数为ReLU,输出尺寸为256×256,输出通道数为64。
Figure BDA0001898238680000066
输出层:输入尺寸为256×256,输入通道数为64,卷积核为3×3,步长为1,边缘填充方式为‘same’,激活方式为线性激活,输出尺寸为256×256,输出通道数为64。
3、基于ST-Unet的视频异常检测算法
1)、ST-Unet重构算法的训练过程
如图3所示,本发明利用ST-Unet网络实现基于重构的视频异常检测算法具体训练过程如下:
①、随机选取预处理后的连续四帧图像作为输入,并选取四帧中最后一帧图像所对应的原始帧图像作为真值(ground truth)。
②、将四帧图像分别输入到ST-Unet网络中,四帧图像在网络中最后一次下采样部分结束后得到四个特征图,接着将这四个特征图作为网络中ConvLSTM部分的输入,之后得到包括之前四帧信息的一个特征图,对该特征图进行网络中全部反卷积操作,得到最终的输出结果-重构图像。
③、比较重构图像与原始真值图像(ground truth)之间的差异。本发明采用灰度损失函数(intensity_loss)、梯度损失函数(gradient_loss)来比较重构图像与原值真值图像之间的差异,并在训练过程中通过最小化全局损失函数值(global_loss)对网络参数进行调整。具体计算公式如下:
Figure BDA0001898238680000071
Figure BDA0001898238680000072
global_loss=Lint*intensity_loss+Lgra*gradient_loss (3)
公式(1)(2)中,I*为重构得到的图像,I为原始真值图像。
公式(2)中,i,j分别为空间上水平与垂直方向索引。
公式(3)中,Lint、Lgra分别为intensity_loss和gradient_loss在全局损失函数(global_loss)中所占权重。本发明取Lint=2、Lgra=1。
④、为进一步优化网络参数,引入判别模型。将重构图像与原始真值图像输入到同一判别模型中,由判别模型进行特征提取并判断其输入为重构图像还是原始真值图像。将判别模型与ST-Unet重构模型一同训练,目的是使判别模型无法分辨ST-Unet重构得到的图像与原始真值图像,从而进一步提高ST-Unet重构算法的准确性。
判别模型由四层卷积层以及一输出层组成,其训练过程损失函数计算公式如下:
Figure BDA0001898238680000073
公式(4)中,i,j为空间方向索引,D(I)为判别网络输出,Lmes为均方误差,定义如下:
Lmes(Y*,Y)=(Y*-Y)2 (5)
2)、ST-Unet预测算法的训练过程
如图4所示,本发明利用ST-Unet网络实现基于预测的视频异常检测算法具体训练过程如下:
①、不同于重构算法,预测算法中需随机选取预处理后的连续五帧图像,前连续的四帧图像作为输入,并最后一帧图像所对应的原始帧图像作为真值(ground truth)。
②、余下训练过程同重构训练算法1)中的步骤②③④。
3)、基于ST-Unet异常检测算法的测试过程
如图5所示,本发明利用ST-Unet网络实现基于重构和预测的视频异常检测算法具体测试过程如下:
①、将测试集中的长视频切分成单一的视频帧图像。
②、对于测试帧It,将It帧与之前的连续三帧(It-1、It-2、It-3)合并成四帧图像输入到训练好的ST-Unet重构网络中,得到重构图像
Figure BDA0001898238680000086
将重构图像
Figure BDA0001898238680000087
与输入的原始真值It进行比较,得到两图像之间的重构峰值信噪比(psnrs_res),并由重构峰值信噪比计算得到该视频帧的重构异常分数值(scores_res)。
峰值信噪比(psnrs)与异常分数值(scores)的具体计算公式如下:
Figure BDA0001898238680000081
Figure BDA0001898238680000082
公式(7)中,It为输入的第t帧图像,
Figure BDA0001898238680000083
为重构的第t帧图像。
③、对于测试帧It,将It帧与It-1、It-2、It-3三帧以及It+1合并为连续的五帧输入到训练好的ST-Unet预测网络中,得到预测的未来帧
Figure BDA0001898238680000084
将预测的未来帧图像
Figure BDA0001898238680000085
与输入的原始真值It+1进行比较,得到两图像之间的预测峰值信噪比(psnrs_pre),并由预测峰值信噪比计算得到该视频帧的预测异常分数值(scores_pre),具体计算如公式(6)(7)。
④、为进一步提高异常检测的准确率,本发明将重构算法结果与预测算法结果进行联合判别,取重构异常分数值和预测异常分数值加权作为最终的异常分数(anomal_scores),具体计算公式如下:
anomal_scores=Lpre*scores_pre+Lres*scores_res (8)
公式(8)中,Lpre、Lres为预测异常分数和重构异常分数的加权值。本发明取Lpre=0.5、Lres=0.5。
⑤、求得测试帧It的异常分数(anomal_scores)后,将该值与设置的阈值(threshold)进行比较。若anomal_scores≥threshold,测试帧It为异常视频帧。anomal_scores<threshold,测试帧It为正常视频帧。本发明取threshold=0.679
⑥、对所有切分好的单一视频帧重复步骤②③④⑤,将测试视频中所有的异常帧检测出来,实现视频异常检测。

Claims (2)

1.基于ST-Unet的视频异常检测方法,其特征在于,包括以下步骤:
(1)、预处理
将长视频数据切分成单独的视频帧,对切分得到的视频帧图像进行随机的损坏处理,即利用Dropout层随机将图像中的某些值置零;
(2)、构建ST-Unet网络
具体网络搭建步骤如下:
输入层,C1、C2两层卷积层,P1第一次下采样,C3、C4两层卷积层,P2第二次下采样,C5、C6两层卷积层,P3第三次下采样;L1、L2、L3 三层ConvLSTM层;U1第一次上采样,C7、C8两层卷积层,U2第二次上采样,C9、C10两层卷积层,U3第三次上采样,C11、C12两层卷积层,输出层;形成一个前后对称的且加有长短时记忆的U型深度网络构架,ST-Unet;
(3)、利用ST-Unet网络实现基于重构和预测的视频异常检测算法
将预处理后的连续四帧视频帧输入到ST-Unet网络中,分别训练得到重构图像和预测图像;通过最小化输入的视频帧图像与重构图像、预测未来帧图像与真正未来帧图像之间的差值来进行网络优化;并利用对抗模型,将重构图像、预测未来帧图像与对应的ground-truth 同时输入到判别模型中,训练最终目的是使得判别模型无法辨别输入的是重构或预测生成的图像还是原ground-truth;
测试过程:
将测试集中的原始长视频切分成单帧视频帧,然后直接输入到训练好的ST-Unet网络中,分别得到重构图像、预测图像;通过比较输入图像与重构图像得到重构误差;通过比较输入图像与预测图像得到预测误差;对得到的重构误差和预测误差进行加权处理,得到最终的异常分数;通过比较异常分数与所设阈值之间的差异,来判定输入的视频帧是否属于异常。
2.根据权利要求1所述的方法,其特征在于:对得到的重构误差和预测误差进行加权处理,预测异常分数和重构异常分数的加权值均设为 0.5;阈值取0.679。
CN201811501290.2A 2018-12-10 2018-12-10 一种基于ST-Unet的视频异常检测方法 Active CN109711280B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811501290.2A CN109711280B (zh) 2018-12-10 2018-12-10 一种基于ST-Unet的视频异常检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811501290.2A CN109711280B (zh) 2018-12-10 2018-12-10 一种基于ST-Unet的视频异常检测方法

Publications (2)

Publication Number Publication Date
CN109711280A CN109711280A (zh) 2019-05-03
CN109711280B true CN109711280B (zh) 2020-10-16

Family

ID=66255543

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811501290.2A Active CN109711280B (zh) 2018-12-10 2018-12-10 一种基于ST-Unet的视频异常检测方法

Country Status (1)

Country Link
CN (1) CN109711280B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111814548B (zh) * 2020-06-03 2022-12-09 中铁第四勘察设计院集团有限公司 一种异常行为检测方法和装置
CN111831870B (zh) * 2020-06-12 2024-02-13 北京百度网讯科技有限公司 时空数据的异常检测方法、装置、电子设备和存储介质
CN112052763B (zh) * 2020-08-27 2024-02-09 西安电子科技大学 基于双向回顾生成对抗网络的视频异常事件检测方法
CN112861071B (zh) * 2021-02-05 2022-09-02 哈尔滨工程大学 一种基于深度自编码的高铁牵引系统异常检测方法
CN113221759A (zh) * 2021-05-17 2021-08-06 北京文安智能技术股份有限公司 基于异常检测模型的道路遗撒识别方法以及装置
CN113435432B (zh) * 2021-08-27 2021-11-30 腾讯科技(深圳)有限公司 视频异常检测模型训练方法、视频异常检测方法和装置
CN115082870A (zh) * 2022-07-18 2022-09-20 松立控股集团股份有限公司 一种停车场异常事件检测方法
CN117492079B (zh) * 2024-01-03 2024-04-09 中国海洋大学 基于TDS-Unet网络的地震速度模型重构方法、介质和设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108596149A (zh) * 2018-05-10 2018-09-28 上海交通大学 基于条件对抗生成网络的运动序列生成方法
CN108629816A (zh) * 2018-05-09 2018-10-09 复旦大学 基于深度学习进行薄层磁共振图像重建的方法
CN108805015A (zh) * 2018-04-26 2018-11-13 常州大学 加权卷积自编码长短期记忆网络人群异常检测方法
CN108846835A (zh) * 2018-05-31 2018-11-20 西安电子科技大学 基于深度可分离卷积网络的图像变化检测方法
CN108875596A (zh) * 2018-05-30 2018-11-23 西南交通大学 一种基于dssnn神经网络的铁路场景图像语义分割方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080031491A1 (en) * 2006-08-03 2008-02-07 Honeywell International Inc. Anomaly detection in a video system
US20140133554A1 (en) * 2012-04-16 2014-05-15 New Cinema Advanced video coding method, apparatus, and storage medium
US11080587B2 (en) * 2015-02-06 2021-08-03 Deepmind Technologies Limited Recurrent neural networks for data item generation
CN105608446B (zh) * 2016-02-02 2019-02-12 北京大学深圳研究生院 一种视频流异常事件的检测方法及装置
CN110475129B (zh) * 2018-03-05 2021-05-28 腾讯科技(深圳)有限公司 视频处理方法、介质及服务器

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108805015A (zh) * 2018-04-26 2018-11-13 常州大学 加权卷积自编码长短期记忆网络人群异常检测方法
CN108629816A (zh) * 2018-05-09 2018-10-09 复旦大学 基于深度学习进行薄层磁共振图像重建的方法
CN108596149A (zh) * 2018-05-10 2018-09-28 上海交通大学 基于条件对抗生成网络的运动序列生成方法
CN108875596A (zh) * 2018-05-30 2018-11-23 西南交通大学 一种基于dssnn神经网络的铁路场景图像语义分割方法
CN108846835A (zh) * 2018-05-31 2018-11-20 西安电子科技大学 基于深度可分离卷积网络的图像变化检测方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
《应用残差生成对抗网络的路况视频帧预测模型》;袁帅,秦贵和,晏婕;《西安交通大学学报》;20180816;第146-152页 *
Deep Semantic Segmentation Neural Networks of Railway Scene;Zhengwei He, Peng Tang, Weidong Jin, Chao Hu, Wei Li;《the 37th Chinese Control Conference》;20180727;第9095-9100页 *
Deep Sequential Segmentation of Organs in Volumetric Medical Scans;Alexey A. Novikov, David Major, Maria Wimmer, Dimitrios Lenis;《IEEE Transactions on medical imaging》;20180706;第1-9页 *
Microscopy Cell Segm entation via Convolutional LSTM Networks;Assaf Arb elle, Tammy Riklin Raviv;《arXiv:1805.11247v1 [cs.CV]》;20180529;第1-9页 *
Towards dense object tracking in a 2D honeybee hive;Katarzyna Bozek,Laetitia Hebert,Alexander S. Mikheyev;《2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition》;20180623;第4185-4193页 *

Also Published As

Publication number Publication date
CN109711280A (zh) 2019-05-03

Similar Documents

Publication Publication Date Title
CN109711280B (zh) 一种基于ST-Unet的视频异常检测方法
CN110363716B (zh) 一种基于条件生成对抗网络复合降质图像高质量重建方法
CN109376747A (zh) 一种基于双流卷积神经网络的视频火焰检测方法
CN110570363A (zh) 基于带有金字塔池化与多尺度鉴别器的Cycle-GAN的图像去雾方法
CN113011329A (zh) 一种基于多尺度特征金字塔网络及密集人群计数方法
CN112734739B (zh) 一种基于注意力机制与ResNet融合的建筑裂缝可视化识别方法
CN110349134B (zh) 一种基于多标签卷积神经网络的管道病害图像分类方法
CN112733625B (zh) 基于时域自注意力机制的假脸视频篡改检测方法及系统
CN112149526B (zh) 一种基于长距离信息融合的车道线检测方法及系统
CN112633234A (zh) 人脸去眼镜模型训练、应用方法及其装置、设备和介质
CN114332053A (zh) 一种多模态两阶段无监督视频异常检测方法
CN115424209A (zh) 一种基于空间金字塔注意力网络的人群计数方法
CN114821434A (zh) 一种基于光流约束的时空增强视频异常检测方法
CN114399734A (zh) 一种基于视觉信息的森林火灾预警方法
CN113628143A (zh) 一种基于多尺度卷积的加权融合图像去雾方法及装置
CN116862252B (zh) 一种基于复合卷积算子的城市建筑物损失应急评估方法
CN116542865A (zh) 一种基于结构重参数化的多尺度实时去雾方法及装置
CN115331135A (zh) 基于多域特征区域标准分数差异的Deepfake视频检测方法
CN116229347A (zh) 一种人群安全异常事件识别方法
CN115171079A (zh) 一种基于夜间场景的车辆检测方法
CN115273089A (zh) 一种基于条件生成对抗网络的光学字符复原方法
CN115375579A (zh) 基于多支路金字塔大核卷积网络的海上图像去雾方法
CN115273234A (zh) 一种基于改进ssd的人群异常行为检测方法
CN113034543A (zh) 一种基于局部注意力机制的3D-ReID多目标追踪方法
CN112418120B (zh) 基于峰值置信图的人群检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant