CN115661753A - 一种基于YOLOv3的机房视频检测方法 - Google Patents

一种基于YOLOv3的机房视频检测方法 Download PDF

Info

Publication number
CN115661753A
CN115661753A CN202211372140.2A CN202211372140A CN115661753A CN 115661753 A CN115661753 A CN 115661753A CN 202211372140 A CN202211372140 A CN 202211372140A CN 115661753 A CN115661753 A CN 115661753A
Authority
CN
China
Prior art keywords
machine room
detection
target
video
yolov3
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211372140.2A
Other languages
English (en)
Inventor
师聪雨
荆有波
李石
李恒锐
李彦辉
邱昕
冷永清
周崟灏
赵俊超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhengzhou Zhongke Integrated Circuit And System Application Research Institute
Original Assignee
Zhengzhou Zhongke Integrated Circuit And System Application Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhengzhou Zhongke Integrated Circuit And System Application Research Institute filed Critical Zhengzhou Zhongke Integrated Circuit And System Application Research Institute
Priority to CN202211372140.2A priority Critical patent/CN115661753A/zh
Publication of CN115661753A publication Critical patent/CN115661753A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

一种基于YOLOv3的机房视频检测方法,包括以下步骤:S1、确定待检测目标,构建训练数据集;S2、构建基于YOLOv3的目标检测模型;S3、实时获取机房内监控视频的当前机房图像帧,所述监控视频是机房内预先布置的监控摄像头所录制的实时视频;S4、将所获取的当前机房图像帧输入到所构建的YOLOv3机房视频测模型中进行检测,并输出检测结果。本发明方法简单,提高了对于目标框定位的准确性和对于高重叠图像的检测效果,进一步地提升了其检测速度和实时性,对于机房视频监控中的目标检测效果表现良好;极大的保障了机房无人值守时的安全性,提高了机房维护效率,使得机房安全管理工作更加自动化和高效化,有巨大的经济和社会效益。

Description

一种基于YOLOv3的机房视频检测方法
技术领域
本发明涉及视频处理技术领域,尤其是涉及一种基于YOLOv3的机房视频检测方法。
背景技术
随着网络技术的高速发展,机房的数量和规模也在日益激增,机房的维护和安全问题至关重要。传统的机房维护工作是采用摄像头监控辅助人工巡检的模式,但由于现有技术的不足,这类监控方式只能提供视频回放和实时场景查看的功能,机房内的异常行为无法进行及时定位和告警,严重依赖于人工监管,安全性和实时性较差,只能作为事发后的证据。因此,研究更为安全可靠的智能视频检测意义重大。
近年来计算机视觉领域的火热发展,产生了许多基于深度学习的目标检测算法,比较有代表性的是one-stage类的YOLO系列算法和two-stage类的R-CNN系列算法,其中one-stage类的目标检测算法由于其检测速度快,被广泛应用于实时性要求较高的工业应用场景。然而在实际的应用中,由于检测目标的多样性和检测背景的复杂性,往往难以同时兼顾检测速度和检测精度,造成不必要的麻烦。那么,如何能在多样的检测目标和复杂的检测背景中,同时兼顾检测速度和精度,是机房视频检测中的一大问题。
发明内容
针对上述情况,为克服现有技术之缺陷,本发明之目的就是提供一种基于YOLOv3的机房视频检测方法,可有效解决现有技术在多样的检测目标和复杂的检测背景中,无法同时兼顾检测速度和精度的问题。
为实现上述目的,本发明解决的技术方案是,一种基于YOLOv3的机房视频检测方法,包括以下步骤:
S1、确定待检测目标,构建训练数据集,方法是:
S11、确定机房环境内待检测的目标;
S12、收集包含待检测物体的图片和其他图片:使用Wider Face数据集中的图片和机房视频中的历史代表性图像帧作为数据集的图片,并采用图像标注工具进行标注,构建成新的训练数据集;
S13、确定模型训练工具:使用Python的第三方深度学习工具库pytorch作为YOLO模型训练工具;
S2、构建基于YOLOv3的目标检测模型,方法是:
S21、采用轻量级网络MobileNetv3作为特征提取网络,并在预测层加入AE模块,构建YOLOv3网络架构,提升目标检测速度和实时性;
S22、构建基于加权的非极大值抑制算法,增强对目标框的定位准确性,提高对于高重叠图像的检测效率;
S23、引入新的损失函数,改善原YOLOv3网络架构中正负样本比例失调;
S24、采用多种类型相结合的数据增强策略处理数据样本不平衡;
S25、使用构建的数据集和Python实验平台进行网络训练,所述构建的数据集为步骤S12中所构建的新的训练数据聚集,选取数据集中的60%作为训练集,30%作为测试集,10%作为验证集;
S26、输出改进后的YOLOv3目标检测模型;
S3、实时获取机房内监控视频的当前机房图像帧,所述监控视频是机房内预先布置的监控摄像头所录制的实时视频;
S4、将所获取的当前机房图像帧输入到步骤S26所构建的YOLOv3机房视频测模型中进行检测,并输出检测结果,检测结果包括:当前图像帧的监控摄像头信息、是否包含检测目标、检测目标分类结果及检测目标坐标位置信息,若检测到该图像帧不包含检测目标,则返回步骤S3,获取下一帧的机房视频图像,然后继续执行步骤S4进行检测;若检测到该图像帧包含检测目标,则输出检测结果,然后返回步骤S3继续获取下一帧图像进行检测,并将本次图像帧的检测结果返回机房管理后台。
本发明方法简单,提高了对于目标框定位的准确性和对于高重叠图像的检测效果,进一步地提升了其检测速度和实时性,对于机房视频监控中的目标检测效果表现良好;并能够在检测到异常行为时进行分类告警和通知运维人员处理,极大的保障了机房无人值守时的安全性,提高了机房维护效率,使得机房安全管理工作更加自动化和高效化,有巨大的经济和社会效益。
附图说明
图1为本发明实施例中基于YOLOv3的机房视频检测方法的流程示意图;
图2为本发明实施例中构建的全新YOLOv3网络架构示意图;
图3为本发明实施例中MobileNetv3的bneck模块结构示意图;
图4为本发明实施例中MobileNetv3的网络结构示意图;
图5为本发明实施例中MobileNetv3的网络结构连接模块详解图;
图6为本发明实施例中AE模块的结构示意图;
图7为本发明实施例中基于YOLOv3的目标检测的具体流程图。
具体实施方式
以下结合附图和实施例对本发明具体实施方式作详细说明。
实施例
如图1所示,一种基于YOLOv3的机房视频检测方法,包括步骤S1、步骤S2、步骤S3及步骤S4,具体为,
S1、确定待检测目标,构建训练数据集,方法是:
S11、确定机房环境内待检测的目标:包括且不限于人物、门窗、警报灯、火焰、入侵物,如非工作人员擅自闯入、非运维时间段人物入侵、门窗开合异常、警报灯异常、火焰入侵、老鼠入侵等;
S12、收集包含待检测物体的图片和其他不包含待检测物体的图片:选取WiderFace数据集中的部分图片和机房视频中的历史代表性图像帧作为数据集的图片,并采用图像标注工具labelImg进行标注,构建成新的训练数据集。该数据集共包含12680张图片,其中包含检测物体的图片有10000张,背景图片有2680张;
其中,所述的Wider Face数据集包含62种场景,共32203张图片,其中标注有393703张人脸,且有人脸尺度、照明、姿势、表情、遮挡的变化情况;
S13、确定模型训练工具:选取Python的第三方深度学习工具库pytorch作为YOLO模型训练工具。
S2、构建基于YOLOv3的目标检测模型,方法是:
S21、改进原有YOLOv3的网络架构:采用优秀的轻量级网络MobileNetv3作为特征提取网络,并在预测层引入AE(Assisted excitation of Activations)模块,构建全新的YOLOv3网络架构,改善目标框定位不准确的问题,提升目标检测速度和实时性。图2为本发明实施例中所构建的全新YOLOv3网络架构示意图。
进一步地,所述MobileNetv3是目前非常优秀的轻量级网络,它包含了一种新的bneck模块,引入了新的非线性激活函数h-swish,并采用了NetAdapt和NAS(platform-aware NAS)这两种先进的搜索技术来构建搜索模型。
所述bneck模块融合了深度可分离卷积、具有线性瓶颈的逆残差结构和SE(Squeeze-and-Excitation)模块,可将SE-Net作为其中的一部分,放置于深度卷积核后。图3为本发明实施例中MobileNetv3的bneck模块结构示意图。
所述非线性激活函数h-swish,可以在减小模型训练过程计算量的同时进一步提高网络精度,其计算公式为:
Figure BDA0003925387760000031
其中,swish[x]=x*sigmoid(βx),ReLu=min(max(0,x),6)。
所述NetAdapt是在各个模块确定后,从局部视角上对各个网络层的精细的微调;所述NAS是在模块上的搜索,在计算量和参数量受到条件约束时优化每个模块结构来确定整个神经网络架构的设计模块布局。
需要说明的是,MobileNetv3网络按照计算机配置资源的高低分别设计了MobileNetv3-Small和MobileNetv3-Large两个版本。本发明所采用的是MobileNetv3-Large版本(下述MobileNetv3均指MobileNetv3-Large)。
进一步地,结合图4和图5对MobileNetv3进行详细说明。图4为本发明实施例中MobileNetv3的网络结构示意图;图5为本发明实施例中MobileNetv3的网络结构连接模块详解图。
如图4和5所示,其中的RE代表激活函数ReLu,HS代表激活函数h-swish;其中的SE模块表示该bneck模块中是否含有SE模块,若网络结构中未标注SE,即表示不含有虚线框内部分;其中的NBN表示不含有标准化层BN,BN表示含有标准化层BN;其中的Avg pooling表示全局平均池化层。其中的(Conv2d 1×1,HS,NBN)模块表示仅由1×1的卷积层和激活函数h-swish组成,(Conv2d 1×1,NBN)模块表示仅由1×1的卷积层组成。
图5仅对图4中的(benck3×3,RE)模块、(benck3×3,SE,HS)模块、(Conv2d,HS)模块进行了详细分解,其他模块均可由这三个模块变化而来。具体而言,图4中的(benck3×3,HS)模块是将(benck3×3,RE)模块中的激活函数ReLu替换为了h-swish,(benck5×5,SE,HS)模块是将(benck3×3,SE,HS)模块中的深度可分离卷积的3×3卷积核替换为了5×5卷积核;(benck5×5,SE,RE)模块是首先将(benck3×3,SE,HS)模块中的深度可分离卷积3×3卷积核替换为了5×5卷积核,即变换为(benck5×5,SE,HS),再将其中的激活函数h-swish替换为ReLu,即可变换为(benck5×5,SE,RE)。(Conv2d 1×1,HS)模块表示由1×1的卷积层、标准化层BN和激活函数h-swish组成。
进一步地,所述的AE模块是一种通过额外信息来辅助检测的方法,本发明实施例引入该模块来降低模型算法中的定位误差。AE模块主要通过引入GT的mask来增强网络的学习能力,该方法只在训练时使用,并且逐渐下调激活因子,因此不会影响检测速度。图6为本发明实施例中AE模块的结构示意图。具体如下:
1)将预测层的特征图作为AE层的输入;
2)对输入特征在信道上做全局平均池化操作,得到一个单通道的平均张量图;
3)将上述单通道的平均张量图与GT掩码图进行点乘操作,得到激发张量图;
4)将激发张量图再乘上激活因子;
5)将由4)操作得到的值再和AE层的输入特征图的每一个信道进行加操作。
也就是说,可将AE层的是实现过程视为一个控制网络活性的网络层,同时其中GT的掩码图计算也更为简单。具体操作是,首先把原来的GT映射到与特征图相同尺寸,然后再把目标b-box区域内的所有像素用1表示、背景用0表示,则可得到一个如下的0-1mask矩阵:
Figure BDA0003925387760000051
AE层的公式可表示为:
fl+1=fl+αe
其中,fl为输入的特征图,e为激发张量图;α为激活因子,可以控制训练的强度衰减,并且会随着迭代次数的增加而逐渐减小,其计算公式定义为:
Figure BDA0003925387760000052
其中,t为当前的epoch值,Max_Iteration是最大迭代次数,.t代表t/Max_Iteration。
S22、构建一种基于加权的非极大值抑制(Non-Maximum Suppression,NMS)算法,增强对目标框的定位准确性,提高对于高重叠图像的检测效率;
原始NMS算法本质是搜索局部极大值,抑制非极大值元素。这种方式虽然实现简单,但是当两个检测框接近时,很容易造成分数更低的检测框由于与之重叠面积过大而被误删掉,从而导致真实目标检测的失败,大大影响检测精度和召回率。
针对原始NMS算法所存在的问题,本发明构建了一种基于加权的NMS算法。具体而言,改进了原始NMS算法强制置零的思想,对于同一聚类中心的检测框,当其重复度超过设定的阈值,根据其重叠程度按照高斯加权的规律进行衰减,而不是直接归零。假设M为置信度等分最高的检测框,bi为待处理检测框,IoU为M与bi的交互比,Si表示第i个检测框的得分。因此,改进基于高斯加权的NMS算法可表示为:
Figure BDA0003925387760000053
S23、引入新的损失函数,改善原来YOLOv3中正负样本比例失调的问题。具体而言,通过引入GIoU边框回归损失来改进坐标预测误差、通过引入Focal loss来改进置信度预测误差,从而改进YOLOv3的整体损失函数,改进的整体损失函数表示为:
LOSS'=LOSScoord'+LOSSIoU'+LOSSclass
其中,LOSScoord'为改进坐标预测误差,LOSSIoU'为改进置信度预测误差,LOSSclass原类别预测误差。
进一步地,通过引入GIoU边框回归损失来改进坐标预测误差。
本发明实施例通过引入GIoU边框回归损失来解决原来IoU对于非重叠部分的优化问题,从而优化整体损失函数的坐标损失部分。GIoU的计算公式为:
GIoU=IoU-|C(A∩B)|/|C|
其中,A和B为任意两个边界框,且A,B∈S∈Rn,C为A和B的最小闭包区域,S为A和B所在的空间。GIoU边框回归损失可表示为:
LOSSGIoU=1-GIoU
因此,改进的坐标预测误差可表示为:
Figure BDA0003925387760000061
其中,S代表grid size,B代表box。
Figure BDA0003925387760000062
表示第i个网格的第j个anchor box含有object并负责预测,且
Figure BDA0003925387760000063
否则置零。
进一步地,通过引入Focal loss损失函数来改进置信度预测误差。
由于原始的置信度预测误差是采用标准交叉熵损失函数来对各个样本进行计算的,并且视所有的样本权重相同,这并不能解决正负样本不平衡问题。为此,本发明实施例引入Focal loss损失函数改善,其计算公式为:
Figure BDA0003925387760000064
其中,p表示模型输出类别概率,且p∈[0,1];y表示类别标签,y∈{0,1};pγ为调制系数,α为平衡参数。参考上式,改进的坐标预测误差可表示为:
Figure BDA0003925387760000065
其中,
Figure BDA0003925387760000066
为第i个网格的第j个anchor box的置信度,
Figure BDA0003925387760000067
Figure BDA0003925387760000068
代表真实框的置信度,
Figure BDA0003925387760000069
代表预测框的置信度。λnoobj是没有object的权重系数。
进一步地,类别预测误差不做改进,原始的类别预测误差计算公式为:
Figure BDA0003925387760000071
其中,
Figure BDA0003925387760000072
代表第i个网格的第j个anchor box所产生bounding box的类别概率。
Figure BDA0003925387760000073
表示真实框的类别概率,
Figure BDA0003925387760000074
表示预测框的类别概率。
S24、采用多种类型相结合的数据增强策略来对图像进行数据增强;
所述多种类型相结合的数据增强策略指的是采用色彩运算、几何运算和添加图像噪声相结合的方法。具体而言,色彩运算是指通过增强对比度、改变图像色度亮度、均衡化直方图等方式扭曲颜色通道,此操作并不影响目标框的位置;几何运算是指通过剪切、平移、旋转等方式在几何上扭曲图像,此操作改变了目标框标注的位置和大小;添加图像噪声是指对图像添加高斯噪声、椒盐噪声等图像噪声进行滤波处理。
S25、使用构建的数据集和Python实验平台对改进的YOLOv3目标检测模型进行网络训练。
所述构建的数据集指的是步骤S12中所构建的新的训练数据聚集。选取数据集中的60%作为训练集,30%作为测试集,10%作为验证集;
所述Python实验平台指的是采用脚本语言为Python3.8,训练框架为Caffe,学习库为Python的第三方深度学习工具库pytorch的实验平台;
所述网络训练的实验参数还包括:操作系统采用Ubuntu 18.04,CPU为Intel(R)Core(TM)i7-3770 CPU@3.40GHz,GPU为NVIDIA GTX 1080。
S26、输出改进后的YOLOv3目标检测模型。
S3、实时获取机房内监控视频的当前机房图像帧;
所述监控视频是机房内预先布置的监控摄像头所录制的实时视频;所述监控摄像头采用的是海康威视DS型网络摄像机,支持实时监控、图片抓拍、视频录制、红外夜视、智能移动侦测、H.265压缩等功能。
S4、将所获取的当前机房图像帧输入到所构建的YOLOv3目标检测模型中进行检测,并输出检测结果。
所述检测结果包括,当前图像帧的监控摄像头信息、是否包含检测目标、检测目标分类结果、检测目标坐标位置信息。
进一步地,图7为本发明实施例的基于YOLOv3的目标检测的具体流程图。如图7所述,若检测到该图像帧不包含检测目标,则返回步骤S3,获取下一帧的机房视频图像,然后继续执行步骤S4进行检测;若检测到该图像帧包含检测目标,则输出检测结果,然后返回步骤S3继续获取下一帧图像进行检测,并将本次图像帧的检测结果返回机房管理后台。而且,可根据检测结果中的异常行为进行不同程度的告警并通知运维人员进行处理。
本发明提供了一种基于YOLOv3的机房视频检测方法,与现有技术相比,本发明所具有的有益效果是:
(1)本发明改进了原YOLOv3的网络架构,采用了MobileNetv3作为特征提取网络,并在预测层加了AE模块,降低了参数的复杂度和计算量,提升了原YOLOv3的检测速度和实时性;
(2)本发明优化了原YOLOv3算法,改进了非极大抑制算法,提高了对于目标框定位的准确性和对于高重叠图像的检测效果,进一步地提升了其检测速度和实时性,对于机房视频监控中的目标检测效果表现良好;
(3)本发明改进了YOLOv3的整体损失函数,并借鉴了多种类型相结合的数据增强策略,减缓原YOLOv3算法中正负样本比例失调的问题;
(4)本发明基于原YOLOv3技术,设计了一种全新的YOLOv3的目标检测模型和一种基于YOLOv3的机房视频检测方法,实现对于机房视频中特定目标的实时检测和识别,并能够在检测到异常行为时进行分类告警和通知运维人员处理,极大的保障了机房无人值守时的安全性,降低了机房运维成本,提高了机房维护效率,能够满足机房内实际场景的检测需求,使得机房安全管理工作更加自动化和高效化,具有深远的实际应用价值,经济和社会效益巨大。

Claims (10)

1.一种基于YOLOv3的机房视频检测方法,其特征在于,包括以下步骤:
S1、确定待检测目标,构建训练数据集,方法是:
S11、确定机房环境内待检测的目标;
S12、收集包含待检测物体的图片和其他图片:使用Wider Face数据集中的图片和机房视频中的历史代表性图像帧作为数据集的图片,并采用图像标注工具进行标注,构建成新的训练数据集;
S13、确定模型训练工具:使用Python的第三方深度学习工具库pytorch作为YOLO模型训练工具;
S2、构建基于YOLOv3的目标检测模型,方法是:
S21、采用轻量级网络MobileNetv3作为特征提取网络,并在预测层加入AE模块,构建YOLOv3网络架构,提升目标检测速度和实时性;
S22、构建基于加权的非极大值抑制算法,增强对目标框的定位准确性,提高对于高重叠图像的检测效率;
S23、引入新的损失函数,改善原YOLOv3网络架构中正负样本比例失调;
S24、采用多种类型相结合的数据增强策略处理数据样本不平衡;
S25、使用构建的数据集和Python实验平台进行网络训练,所述构建的数据集为步骤S12中所构建的新的训练数据聚集,选取数据集中的60%作为训练集,30%作为测试集,10%作为验证集;
S26、输出改进后的YOLOv3目标检测模型;
S3、实时获取机房内监控视频的当前机房图像帧,所述监控视频是机房内预先布置的监控摄像头所录制的实时视频;
S4、将所获取的当前机房图像帧输入到步骤S26所构建的YOLOv3机房视频测模型中进行检测,并输出检测结果,检测结果包括:当前图像帧的监控摄像头信息、是否包含检测目标、检测目标分类结果及检测目标坐标位置信息,若检测到该图像帧不包含检测目标,则返回步骤S3,获取下一帧的机房视频图像,然后继续执行步骤S4进行检测;若检测到该图像帧包含检测目标,则输出检测结果,然后返回步骤S3继续获取下一帧图像进行检测,并将本次图像帧的检测结果返回机房管理后台。
2.根据权利要求1所述的基于YOLOv3的机房视频检测方法,其特征在于,所述的步骤S11中待检测的目标为人物、门窗、警报灯、火焰或入侵物。
3. 根据权利要求1所述的基于YOLOv3的机房视频检测方法,其特征在于,所述的WiderFace数据集包含62种场景,共32203张图片,其中标注有393703张人脸,且有人脸尺度、照明、姿势、表情、遮挡的变化情况。
4.根据权利要求1所述的基于YOLOv3的机房视频检测方法,其特征在于,所述的MobileNetv3为轻量级网络,包含bneck模块,引入新的非线性激活函数,并采用NetAdapt和NAS来构建搜索模型;所述bneck模块融合了深度可分离卷积、SE模块和具有线性瓶颈的逆残差结构。
5.根据权利要求1所述的基于YOLOv3的机房视频检测方法,其特征在于,所述的AE模块是通过额外信息来辅助检测的方法,可逐渐下调激活因子且不会影响检测速度。
6.根据权利要求1所述的基于YOLOv3的机房视频检测方法,其特征在于,所述的基于加权的非极大值抑制算法对于同一聚类中心的检测框,当其重复度超过设定的阈值,根据其重叠程度按照高斯加权规律进行衰减。
7. 根据权利要求1所述的基于YOLOv3的机房视频检测方法,其特征在于,所述的步骤S23中新的损失函数是引入GIOU边框回归损失函数和Focal loss损失函数,改进YOLOv3的整体损失函数。
8.根据权利要求1所述的基于YOLOv3的机房视频检测方法,其特征在于,所述的多种类型相结合的数据增强策略是由色彩运算、几何运算和添加图像噪声相结合的数据增强策略。
9. 根据权利要求1所述的基于YOLOv3的机房视频检测方法,其特征在于,所述的步骤S25中Python实验平台是采用脚本语言为Python3.8,训练框架为Caffe,学习库为Python的第三方深度学习工具库pytorch的实验平台;网络训练的运行环境参数为:操作系统为Ubuntu 18.04,CPU为Intel(R)Core(TM)i7-3770 CPU@3.40GHz,GPU为NVIDIA GTX 1080。
10.根据权利要求1所述的基于YOLOv3的机房视频检测方法,其特征在于,所述的步骤S12中图像标注工具为labelImg。
CN202211372140.2A 2022-11-03 2022-11-03 一种基于YOLOv3的机房视频检测方法 Pending CN115661753A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211372140.2A CN115661753A (zh) 2022-11-03 2022-11-03 一种基于YOLOv3的机房视频检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211372140.2A CN115661753A (zh) 2022-11-03 2022-11-03 一种基于YOLOv3的机房视频检测方法

Publications (1)

Publication Number Publication Date
CN115661753A true CN115661753A (zh) 2023-01-31

Family

ID=84996255

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211372140.2A Pending CN115661753A (zh) 2022-11-03 2022-11-03 一种基于YOLOv3的机房视频检测方法

Country Status (1)

Country Link
CN (1) CN115661753A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116055690A (zh) * 2023-04-03 2023-05-02 山东金宇信息科技集团有限公司 一种机房监控视频的处理方法及设备

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116055690A (zh) * 2023-04-03 2023-05-02 山东金宇信息科技集团有限公司 一种机房监控视频的处理方法及设备

Similar Documents

Publication Publication Date Title
CN107123131B (zh) 一种基于深度学习的运动目标检测方法
CN105426820B (zh) 基于安防监控视频数据的多人异常行为检测方法
Foedisch et al. Adaptive real-time road detection using neural networks
WO2021114866A1 (zh) 遮挡图像检测方法、装置、电子设备及存储介质
CN111931719B (zh) 高空抛物检测方法以及装置
CN110909672A (zh) 一种基于双流卷积神经网络和svm的抽烟动作识别方法
CN115661753A (zh) 一种基于YOLOv3的机房视频检测方法
CN113158983A (zh) 一种基于红外视频序列图像的机场场面活动行为识别方法
Dilshad et al. Efficient Deep Learning Framework for Fire Detection in Complex Surveillance Environment.
Cao et al. YOLO-SF: YOLO for fire segmentation detection
CN116761049B (zh) 一种家用智能安防监控方法及系统
CN116629465B (zh) 智能电网视频监控与风险预测响应系统
CN112488213A (zh) 一种基于多尺度特征学习网络的火灾图片分类方法
CN111862408B (zh) 一种智能门禁控制方法
CN116052082A (zh) 一种基于深度学习算法的配电站房异常检测方法及装置
Liu et al. Research on Design of Intelligent Background Differential Model for Training Target Monitoring
CN114820676A (zh) 一种设备运行状态识别方法及装置
CN115273131A (zh) 基于双通路特征融合的动物识别方法
CN114511801A (zh) 一种虫害识别模型训练方法、虫害监测方法和电子设备
Shen et al. Lfnet: Lightweight fire smoke detection for uncertain surveillance environment
Jiang et al. Deep learning of qinling forest fire anomaly detection based on genetic algorithm optimization
CN116468974B (zh) 一种基于图像生成的烟雾检测方法、装置及存储介质
Wang et al. Cbam-Efficientnetv2-Enabled Fire Image Recognition Method in Detecting Tiny Targets
Han A novel single shot-multibox detector based on multiple Gaussian mixture model for urban fire smoke detection
CN113627284B (zh) 基于改进CenterNet的实时火焰检测方法及检测装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination