CN113723361A - 一种基于深度学习的视频监测方法及设备 - Google Patents

一种基于深度学习的视频监测方法及设备 Download PDF

Info

Publication number
CN113723361A
CN113723361A CN202111103325.9A CN202111103325A CN113723361A CN 113723361 A CN113723361 A CN 113723361A CN 202111103325 A CN202111103325 A CN 202111103325A CN 113723361 A CN113723361 A CN 113723361A
Authority
CN
China
Prior art keywords
network
detection
target
machine room
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111103325.9A
Other languages
English (en)
Inventor
李晶
李永恒
许家璇
赵凤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian University of Posts and Telecommunications
Original Assignee
Xian University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian University of Posts and Telecommunications filed Critical Xian University of Posts and Telecommunications
Priority to CN202111103325.9A priority Critical patent/CN113723361A/zh
Publication of CN113723361A publication Critical patent/CN113723361A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本申请提供一种基于深度学习的视频监测方法方法及设备,本申请通过实时获取视频中当前帧机房图像;构建基于YOLO v4网络目标检测模型,将所述模型中引入深度可分离卷积网络,同时采用线性瓶颈的逆残差结构,并且采用h‑swish激活函数,基于混合缩放机制更改网络宽度、网络深度和网络尺寸大小,得到优化后的目标检测模型并部署到嵌入式平台上;将当前帧机房图像输入到优化后的目标检测模型中,确定待检测目标对象,得到分类结果及其对应的坐标位置信息,即该方法可以快速准确检测到目标对象,保证了监测质量,同时使得所述目标检测网络更加精简和轻量化,实现了将网络目标检测模型部署到嵌入式系统中,节省了部署成本,减少了能源浪费。

Description

一种基于深度学习的视频监测方法及设备
技术领域
本申请涉及计算机领域,尤其涉及一种基于深度学习的视频监测方法及设备。
背景技术
现有技术中,目前网络技术的飞速发展,机房的数量和规模也在不断增加,机房属于一个工程中存放数据和正常运行最重要的保护对象,机房的维护和安全问题至关重要。机房一般具有面积小、软硬件资产密集、管理人员少的特点,因此在近些年,机房的监测与安保成为一个重要的问题,基于视频的各类检测问题成为计算机视觉领域热门研究之一。
目前机房类的大部分维护方式是在机房安装摄像头,采用传统的视频监测系统,该系统需要工作人员对特定场景的监测画面进行观看,无法做到智能自动分析同时也增加了人力成本。并且由于人类自身原因也会出现关键信息无法及时发现及时处理。传统的监测也只是对采集到的视频画面进行显示和保存,不能主动的对异常时间进行报警,只能作为事故发生后的证据。
因此与传统的监测相比,采取智能监测系统有很大的意义。近些年来有些检测系统采用一些传统的目标检测算法,例如HOG+SVM、DPM物体检测算法,这些传统的检测算法在检测性能和检测实时性上很难做到最优,并且设计模型时候需要工程师根据检测对象的特征进行特征提取,开发繁琐。之后随着深度学习的火热发展,计算机视觉领域产生了许多基于深度学习的目标检测的算法,主要有以R-CNN和Faster R-CNN为代表的two-stage类检测算法,主要特点是算法的精度高,但是训练、测试模型的速度慢,不易达到实时性;同时也存在以SSD、YOLO为代表的One-stage类目标检测算法,算法特点是检测速度较快,但是精度不如two-stage类。但是随着算法的迭代更新,One-stage目标检测算法已经得到很大提升,同时也广泛的应用到实时性要求较高的工业场景中。
尽管基于深度学习的目标检测系统应用已经成熟,但是仍然具有一定的局限性。一般采用深度学习的目标检测系统对于硬件的算力都有很高的要求,采用的策略主要是使用大量昂贵的GPU或者租用专用的深度学习服务器。在用户场景使用摄像头采集数据发送到专用的服务器平台,服务器在云端采用算法进行检测后将结果返回至本地主机,需要占用大量的网络带宽和资源,同时产生更多的能源功耗浪费,有时也会因为平台服务器的原因系统出现监测瘫痪从而影响安全。因此基于深度学习领域的目标检测在工程落地时候需要考虑更多的问题。
发明内容
本申请的一个目的是提供一种基于深度学习的视频监测方法及设备,以解决现有技术中如何在保证监测质量的同时节省部署成本和减少能源浪费的问题。
根据本申请的一个方面,提供了一种基于深度学习的视频监测方法,包括:
实时获取视频中当前帧机房图像;
构建基于YOLO v4网络目标检测模型,将所述模型中的卷积网络替换为深度可分离卷积网络,同时采用了线性瓶颈的逆残差结构降低参数计算量和复杂度,并且采用h-swish激活函数,基于混合缩放机制更改网络宽度、网络深度和网络尺寸大小,得到优化后的YOLO v4网络目标检测模型并部署到嵌入式平台上;
将所述当前帧机房图像输入到所述优化后的YOLO v4网络目标检测模型中,确定待检测目标对象,得到分类结果及其对应的坐标位置信息。
进一步地,上述视频监测方法中,所述将所述当前帧机房图像输入到所述优化后的YOLO v4网络目标检测模型中,确定待检测目标对象,得到分类结果及其对应的坐标位置之后,还包括:
判断所述待检测目标对象的分类结果是否为人类,
若是,通过人脸识别级联分类器确定人员身份,并利用目标跟踪网络对所述待检测目标对象进行跟踪和安全检测得到安全检测结果,基于所述安全检测结果进行报警提示;
若否,则依次进行老鼠入侵检测、火焰检测、水侵检测,得到环境情况检测结果,基于所述环境情况检测结果进行报警提示;
最后,将当前帧机房图像的所述安全检测结果、环境情况检测结果以及人员身份进行汇总并显示。
进一步地,上述视频监测方法中,所述利用目标跟踪网络对所述待检测目标对象进行跟踪和安全检测得到安全检测结果,包括:
将所述当前帧机房图像、及其待检测目标对象的分类结果及其对应的坐标位置信息输入所述目标跟踪网络,并进行马氏距离计算和特征向量余弦距离计算得到关联矩阵,并使用匈牙利算法进行所述待检测目标对象的二分图匹配,获取到跟踪结果,之后采用卡尔曼滤波预测对获取的下一帧机房图像重复上述跟踪步骤得到目标轨迹;
基于所述跟踪结果进行安全检测得到所述安全检测结果,所述安全检测包括:着装检测、安全线检测、危险区检测。
进一步地,上述视频监测方法中,所述将所述模型中的卷积网络替换为深度可分离卷积网络,包括:
在所述深度可分离卷积网络中基于1x1逐点卷积,并利用随机通道混洗机制进行通道信息融合。
进一步地,上述视频监测方法中,所述优化后的YOLO v4网络目标检测模型的损失函数包括回归框损失函数、置信度损失函数和分类损失函数,其中回归框损失函数使用完全交并比(CompleteIntersection over Union,CIoU),考虑了边框重合度、中心距离和宽高比的信息。
进一步地,上述视频监测方法中,所述方法还包括对所述优化后的YOLO v4网络目标检测模型进行训练,包括:
通过网络爬虫技术、合并相关公开数据集的方式获取机房检测训练图像,并对每个所述机房检测训练图像进行标注,得到机房检测训练数据集;
使用聚类kmeans算法对机房检测训练数据集的anchor boxes进行聚类,更改classes类别和类别数目后预置训练参数,将所述机房检测训练数据集输入所述目标检测模型中进行初步训练;
将经过初步训练后的所述目标检测模型进行稀疏训练,对通道和卷积层数进行剪枝处理和微调处理。
根据本申请的另一方面,还提供了一种计算机可读介质,其上存储有计算机可读指令,所述计算机可读指令可被处理执行时,使所述处理器实现如上述基于深度学习的视频监测方法。
根据本申请的另一方面,还提供了一种基于深度学习的视频监测设备,该设备包括:
一个或多个处理器;
计算机可读介质,用于存储一个或多个计算机可读指令,
当所述一个或多个计算机可读指令被所述一个或多个处理器执行,使得所述一个或多个处理器实现如上述基于深度学习的视频监测方法。
与现有技术相比,本申请通过实时获取视频中当前帧机房图像;构建基于YOLO v4网络目标检测模型,将所述模型中的卷积网络替换为深度可分离卷积网络,同时采用了线性瓶颈的逆残差结构降低参数计算量和复杂度,并且采用h-swish激活函数,基于混合缩放机制更改网络宽度、网络深度和网络尺寸大小,得到优化后的YOLO v4网络目标检测模型并部署到嵌入式平台上;将所述当前帧机房图像输入到所述优化后的YOLO v4网络目标检测模型中,确定待检测目标对象,得到分类结果及其对应的坐标位置信息,即该方法可以快速准确检测到目标对象,保证了监测质量,同时使得所述目标检测网络更加精简和轻量化,实现了将网络目标检测模型部署到嵌入式系统中,节省了部署成本,减少了能源浪费。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1示出根据本申请一个方面的一种基于深度学习的视频监测方法的流程示意图;
图2示出根据本申请一个方面的一种基于深度学习的视频监测方法的nx-benck模块结构意图;
图3示出根据本申请一个方面的一种基于深度学习的视频监测方法中neck部分改进的卷积块Conv-nx模块示意图;
图4示出根据本申请一个方面的一种基于深度学习的视频监测方法中YOLO V4-tiny-nx网络模型示意图;
图5示出根据本申请一个方面的一种基于深度学习的视频监测方法中一实施例的流程示意图;
图6示出根据本申请一个方面的一种基于深度学习的视频监测方法中实施例的web视频监测页面示意图;
图7示出根据本申请一个方面的一种基于深度学习的视频监测方法中实施例的检测结果示意图;
图8示出根据本申请一个方面的一种基于深度学习的视频监测方法中实施例的deepsort算法流程示意图;
图9示出根据本申请一个方面的一种基于深度学习的视频监测方法中实施例的随机通道混洗机制示意图。
附图中相同或相似的附图标记代表相同或相似的部件。
具体实施方式
下面结合附图对本申请作进一步详细描述。
在本申请一个典型的配置中,终端、服务网络的设备和可信方均包括一个或多个处理器 (例如中央处理器(Central Processing Unit,CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器 (RandomAccess Memory,RAM) 和/或非易失性内存等形式,如只读存储器 (Read Only Memory,ROM) 或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(Phase-Change RAM,PRAM)、静态随机存取存储器 (Static Random Access Memory,SRAM)、动态随机存取存储器 (DynamicRandom Access Memory,DRAM)、其他类型的随机存取存储器 (RAM)、只读存储器 (ROM)、电可擦除可编程只读存储器 (Electrically Erasable Programmable Read-Only Memory,EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器 (Compact Disc Read-OnlyMemory,CD-ROM)、数字多功能光盘 (Digital Versatile Disk,DVD) 或其他光学存储、磁盒式磁带,磁带磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括非暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
图1示出根据本申请一个方面的一种基于深度学习的视频监测方法的流程示意图,该方法适用于机房作业的各种场景中,该方法包括步骤S1、步骤S2及步骤S3,其中,具体包括:
步骤S1,实时获取视频中当前帧机房图像;
步骤S2,构建基于YOLO v4网络目标检测模型,将所述模型中的卷积网络替换为深度可分离卷积网络,同时采用了线性瓶颈的逆残差结构降低参数计算量和复杂度,并且采用h-swish激活函数,基于混合缩放机制更改网络宽度、网络深度和网络尺寸大小,得到优化后的YOLO v4网络目标检测模型并部署到嵌入式平台上;在此,本发明的网络模型主要是基于YOLO V4网络的tiny版本进行改进。YOLO(You Only Look Once)算法是一种单独采用CNN模型并且只采用回归的策略实现了快速目标检测的神经网络。YOLO V4算法是YOLO 系列的第四代模型,该算法于2020年4月提出,是目前目标检测领域比较新的效果好的网络。该算法主要由四部分构成:Input、Backbone、neck、Head。backbone部分主要是提取输入图片的特征,从而将特征送到neck部分进行特征的融合,官方采用的网络是CSPdarknet53,主要使用了普通卷积+批量归一化+Mish激活函数(Conv+Batchnorm+Mish,CBM)和跨阶段部分(Cross Stage Partial,CSP)结构进行有规律的堆叠,CBM是网络中最小的组件,由Conv+BN+Mish激活函数组成,CSP结构借鉴了残差网络,采用几个残差网络concate连接而成。Neck部分作用是将backbone的输出特征经过自底向上和自顶向下的,相邻特征图被按元素顺序添加到一起或连接起来送入head检测网络中,使用了SPP模块。Head层包含了三种不同宽高的预测,从而可以检测出一张图片中不同尺度大小的物体。
虽然YOLO V4相比其他检测网络来说,在日常实验室PC设备(GPU型号为RTX2070SUPER)上使用已经速度达到实时性,但是部署到嵌入式人工智能开发平台时候,实时性很难满足,无法完成相关的实时性检测需求,需要将检测网络模型进行精简和轻量化模型。
步骤S3,将所述当前帧机房图像输入到所述优化后的YOLO v4网络目标检测模型中,确定待检测目标对象,得到分类结果及其对应的坐标位置信息。在此,得到所述待检测目标对象对应的所述坐标位置信息,以便对所述待检测目标对象进行跟踪和持续检测。
上述步骤S1至步骤S3,本申请通过实时获取视频中当前帧机房图像;构建基于YOLO v4网络目标检测模型,将所述模型中的卷积网络替换为深度可分离卷积网络,同时采用了线性瓶颈的逆残差结构降低参数计算量和复杂度,并且采用h-swish激活函数,基于混合缩放机制更改网络宽度、网络深度和网络尺寸大小,得到优化后的YOLO v4网络目标检测模型并部署到嵌入式平台上;将所述当前帧机房图像输入到所述优化后的YOLO v4网络目标检测模型中,确定待检测目标对象,得到分类结果及其对应的坐标位置信息,即该方法可以快速准确检测到目标对象,保证了监测质量,同时使得所述目标检测网络更加精简和轻量化,实现了将网络目标检测模型部署到嵌入式系统中,节省了部署成本,减少了能源浪费。
例如,在YOLO V4的框架基础上,对YOLO v4 的网络框架进行改进,提出了更加轻量化、参数更少、速度更快的轻量化网络模型。本发明基于mobilenet v3中的mobilenet v3block结构提出了更轻量化的网络结构块我们称为nx-benck。设计的nx-benck模块结构如附图2所示。首先。将传统的卷积网络替换为深度可分离卷积网络,同时采用了线性瓶颈的逆残差结构能够有效的降低参数计算量和复杂度;然后,关于激活函数的改进,本发明放弃使用swish激活函数,采用h-swish激活函数,如下所示:
Figure 451947DEST_PATH_IMAGE001
Swish 激活函数已经被证明是一种比 ReLU 更佳的激活函数,但是相比 ReLU,它的计算更复杂,为了能够在移动设备上应用 swish 并降低它的计算开销,故采用h-swish作为激活函数。
为了在移动端float16的低精度的时候,也能有很好的数值分辨率,如果对ReLu的输出值不加限制,那么输出范围就是0到正无穷,而低精度的float16无法精确描述其数值,带来精度损失。
该激活函数减少了运算量,提高了nx-benck模块的性能;接着,网络层中使用了compound model scaling(混合模型缩放)的思想,通过综合优化网络宽度、网络深度和分辨率,能够达到准确率指标与现有的网络相似的情况,从而减少模型的计算量和参数量。在此将backbone部分的每层网络的层数和通道数目按照efficientnet-b0中的相关数量进行设置,采用该方法设计的网络,精度没有较大降低的情况下,参数量有所下降。用上述nx-benck模块结构来替换掉之前的Backbone结构,backbone结构输出两个不同大小的特征26*26和13*13。
在neck部分将backbone得到的13*13的输出特征进行上采样,该部分的主要作用是进行目标的定位。采用语义更丰富的层构建高分辨率的层,同时也更好的做到了特征融合。由于网络中该部分的操作都是进行3x3的卷积操作,一般的卷积带来较多的权重参数,因此我们对neck部分的卷积模块引入通道混洗机制深度可分离卷积进行替代,同时在该部分为了精简网络,提出的深度可分离卷积进行改进,去掉1*1卷积后的BN和激活函数操作,只保留最后1*1卷积后的BN和激活函数,这样可以做到更好的传递检测到的特征,减少参数量,称改进后的卷积块为Conv-nx,改进后的卷积模块如图3所示。
在yolo head部分主要进行的操作是进行预测,本方法输出两个feature map进行预测,尽管精度有所降低,但是相对于原先的参数和复杂度有所下降。YOLO V4-tiny-nx设定是每个单元网格预测3个box,同时每个预测box的最终输出是(x,y,w,h,confidence)其中x,y,w,h 代表了检测到的目标在图片中的位置,confidence表示最信任的一个类别的概率,同时需要预测的种类有6类,每个box需要输出6类类别概率,输出边长则为3*(5+6)=33,因此网络最后的输出张量维度大小为13*13*33,26*26*33。相比检测coco数据集的官方YOLO V4,本方法输出变为2个特征,同时张量变小。基于以上改进的YOLO V4-tiny-nx网络模型如图4所示。
作用在边缘检测设备上改进的YOLO V4的深度学习目标检测算法。在满足监测要求的同时,没有使用昂贵的GPU和深度学习服务器资源,将算法系统部署到最高功耗15W的JETSON XAVIER NX嵌入式平台,做到了节省部署成本和减少能源浪费,而且因为JETSONXAVIER NX嵌入式平台基于ubuntu操作系统开发,方便后期的算法更新和维护,很大程度上降低开发难度缩短开发周期。
使用USB摄像头或者使用网络摄像头视频输入源,之后使用opencv这一个开发工具读取摄像头的视频数据,将每一帧画面一次传输给改进设计的YOLO网络中,将获取的当前帧机房图像输入到所述优化后的YOLO v4网络目标检测模型中,确定待检测目标对象,得到分类结果及其对应的坐标位置信息。
接着上述实施例,所述步骤S3将所述当前帧机房图像输入到所述优化后的YOLOv4网络目标检测模型中,确定待检测目标对象,得到分类结果及其对应的坐标位置之后,还包括:
判断所述待检测目标对象的分类结果是否为人类,
若是,通过人脸识别级联分类器确定人员身份,并利用目标跟踪网络对所述待检测目标对象进行跟踪和安全检测得到安全检测结果,基于所述安全检测结果进行报警提示;
若否,则依次进行老鼠入侵检测、火焰检测、水侵检测,得到环境情况检测结果,基于所述环境情况检测结果进行报警提示;
最后,将当前帧机房图像的所述安全检测结果、环境情况检测结果以及人员身份进行汇总并显示。
例如,如图5所示,通过上述优化后的YOLO v4网络目标检测模型,输出当前帧机房图像P中所含目标对象对应置信度最高的种类C和坐标位置W;输出的是person类,则通过人脸识别级联分类器识别待检测目标对象,并将其与系统中事先录入的工作人员信息进行比对,从而确定其人员身份,如果不是机房工作人员,系统会给予提示。利用目标跟踪网络对所述待检测目标对象Q进行跟踪和安全检测得到安全检测结果S,基于所述安全检测结果S进行报警提示,有利于提高机房工作人员作业规范性,保障机房的安全。在此,本方法完成了网页端结果检测结果的功能,采用python的web开发框架flask完成功能,通过使用web服务器端口的指定的通信方式和接口协议,完成视频的流媒体传输,同时也开发了检测到视频异常之后的实时web报警,最终部署好的web检测页面如图6所示。最后,将当前帧机房图像的所述安全检测结果以及人员身份进行汇总并显示如图7所示。
又例如,所述待检测目标对象的分类结果C不是人类,则依次进行老鼠入侵检测、火焰检测、水侵检测,得到环境情况检测结果E,基于所述环境情况检测结果E进行报警提示,最后,将当前帧机房图像的环境情况检测结果汇总并显示,实现了实时监测机房环境是否出现意外情况,以便工作人员可以迅速采取应对措施,保证财产和人身安全。
接着上述实施例,利用目标跟踪网络对所述待检测目标对象进行跟踪和安全检测得到安全检测结果,包括:
将所述当前帧机房图像、及其待检测目标对象的分类结果及其对应的坐标位置信息输入所述目标跟踪网络,并进行马氏距离计算和特征向量余弦距离计算得到关联矩阵,并使用匈牙利算法进行所述待检测目标对象的二分图匹配,获取到跟踪结果,之后采用卡尔曼滤波预测对获取的下一帧机房图像重复上述跟踪步骤得到目标轨迹;
基于所述跟踪结果进行安全检测得到所述安全检测结果,所述安全检测包括:着装检测、安全线检测、危险区检测。
例如,当检测到存在person类时候,利用deepsort多目标跟踪算法对所述待检测目标对象进行跟踪,该算法流程图如图8所示,将所述当前帧机房图像、及其待检测目标对象的分类结果及其对应的坐标位置信息输入所述目标跟踪网络,然后,进行马氏距离计算和特征向量余弦距离计算得到关联矩阵;接着,使用匈牙利算法做二分图匹配,从而使得尽可能多的匹配上检测框,获取到跟踪结果,之后采用卡尔曼滤波进行预测更新进行下一帧图像的预测。采用deepsort算法可以检测到视频帧中人的位置运动轨迹,记录下人员目标位置信息。
基于所述跟踪结果进行安全检测得到所述安全检测结果。首先,进行人员着装行为规范检查,当检测到person的类别时,并且在人的框体内检测到helmet类别,即安全帽类别时,表示正确佩戴安全帽;当出现head类别,即没有安全帽的反例时,表示没有正确佩戴安全帽;当没有出现helmet类别时同时也不存在head类别,表示该帧图片没有正确判断出安全帽是否判断,程序在下一帧进行重新判断。对于穿工作服的判断也是如此,检测到了reflective_clothe表示穿了工作服,当结果是other_clothes时候表示没有正确穿工作服,两个类别都不存在时候表示该帧没有检测到穿戴工作服情况,下一帧重新判断。
对于目标越过安全线的判断,从YOLO网络中获取到person人的具体坐标信息,获取到对应人的中心点坐标(x,y),提前使用opencv绘制好安全线的位置,就可以进行判断,当中心点的位置在线上时表示人员越线,进行警报。
目标在危险区域的判断,与目标过安全线原理基本一致,提前绘制好危险区域的框体,将危险区域的边界保存为列表[[x1,y1],[x2,y2],…]的形式,调用opencv中库函数可以绘制出该闭合的区域,之后采用点是否在多边形内部的pnpoly 算法来进行判断人是否在危险区域中,算法原理是点在多边形的内部,从这个点引一条射线,那么与多边形的边的交点是奇数个,那么就在多边形的内部;如果是偶数个,那么该点在多边形的外面。采用此办法进行判断,该方法效率高且容易实现。上述功能是在YOLO检测网络获取到待检测目标对象的及其分类结果和对应的坐标位置信息之后进行的判断,当帧图像判断完成之后输出检测结果并进行下一帧图像的读取,整个系统闭环稳定。
接着上述实施例,将所述模型中的卷积网络替换为深度可分离卷积网络,包括:
在所述深度可分离卷积网络中基于1x1逐点卷积,并利用随机通道混洗机制进行通道信息融合。
通道混洗机制示意图如图9所示。通过在1x1卷积后引入通道混洗机制,卷积1操作完成后进行随机通道混洗,卷积2从不同输出分组获得输入特征,从而形成输入通道的信息融合,使得网络更有效的充分利用了通道信息,也做到了精简网络。
接着上述实施例,所述优化后的YOLO v4网络目标检测模型的损失函数包括回归框损失函数、置信度损失函数和分类损失函数,其中回归框loss使用ciou,考虑了边框重合度、中心距离和宽高比的信息。损失函数公式如下所示:
Figure 386405DEST_PATH_IMAGE002
公式中,v是衡量长宽比一致性的参数,w,h分别为检测框的归一化宽和高;a为平衡的参数;d代表的是计算两个中心点直接的距离,作为差异度量。c代表检测框对角线的距离。
Figure 583031DEST_PATH_IMAGE003
表示真实框的宽、高。
Figure 602939DEST_PATH_IMAGE004
表示预测框的宽高。
其中表示的是权重系数,表示不同损失函数的权重,
Figure 667847DEST_PATH_IMAGE005
表示检测对象属于的那个类别,
Figure 456812DEST_PATH_IMAGE006
表示属于该类别的置信度。
Figure 886656DEST_PATH_IMAGE007
表示每一类的概率大小
Figure 331544DEST_PATH_IMAGE008
表示检测算法方框的预测归一化x坐标,
Figure 872247DEST_PATH_IMAGE009
表示检测算法方框的真实归一化x坐标
Figure 843614DEST_PATH_IMAGE010
表示检测算法方框的预测归一化y坐标,
Figure 178780DEST_PATH_IMAGE011
表示检测算法方框的真实归一化y坐标
Figure 173281DEST_PATH_IMAGE012
表示检测算法方框的预测归一化w坐标,
Figure 455358DEST_PATH_IMAGE013
表示检测算法方框的真实归一化w坐标
Figure 218914DEST_PATH_IMAGE014
表示检测算法方框的预测归一化h坐标,
Figure 990561DEST_PATH_IMAGE016
表示检测算法方框的真实归一化h坐标。
接着上述实施例,所述步骤S2还包括对所述优化后的YOLO v4网络目标检测模型进行训练,包括:
通过网络爬虫技术、合并相关公开数据集的方式获取机房检测训练图像,并对每个所述机房检测训练图像进行标注,得到机房检测训练数据集;
使用聚类kmeans算法对机房检测训练数据集的anchor boxes进行聚类,更改classes类别和类别数目后预置训练参数,将所述机房检测训练数据集输入所述目标检测模型中进行初步训练;
将经过初步训练后的所述目标检测模型进行稀疏训练,对通道和卷积层数进行剪枝处理和微调处理例如,使用LabelImg工具对缺少标签的数据进行标记,标记完成后存储为标准的xml文件格式。开发使用的硬件环境为:win10 x64位操作系统、16GB内存、CPU为Inter i5-10400F、 GPU为Nvidia GeForce RTX 2070SUPER(8G)。软件开发环境是:Python3.6、tensorflow 1.15、 keras 2.3.1。应用使用的硬件平台为:Jetson Xavier NX套件,AI性能21TOPS,8G 128位LPDDR4x 内存,CPU为6核NVIDIA ARM V8.2 64位,GPU为NVIDIA Volta,ubuntu16操作系统,软件应用环境与开发环境一致。依次依据模型网络框架搭建mobilenetv3 block块,搭建 DarknetConv2D_BN_Leaky块,其中的卷积层使用mobilenet v1提出的深度可分离卷积代替。依次编写backbone、neck、yolo head层的框架。YOLO V4-tiny-nx的模型训练:将机房检测训练数据集中的图像和标签按照VOC数据集的格式存放,在训练前需要将xml文件转换为 yolo支持的文件格式,例如: F:\project\yolov4-tiny-keras-mobilenet/VOCdevkit/VOC2007/JPEGImages/2007_000027.jpg 174,101,349,351,0
每个数据集生成一行文本信息,分别包含训练图片的路径目标的x,y,w,h位置坐标和对应的类别。在所述模型中,0代表person类。之后使用聚类kmeans算法对机房检测训练数据集的anchor boxes进行聚类,方便加速训练。更改完成classes类别和类别数目后,设置一些训练参数如学习率、优化函数、batch size大小、训练次数,运行train.py文件进行训练。YOLO V4-tiny-nx的模型剪枝:在训练好的模型之后进行稀疏训练,采用对BN层的bn gamma系数进行判断阈值从而大幅度压缩,之后对不重要的通道和层数进行剪枝,从而降低模型的复杂性和权重大小,对剪枝后的模型继续进行微调使其精度稳定。
根据本申请的另一个方面,还提供了一种计算机可读介质,其上存储有计算机可读指令,所述计算机可读指令可被处理器执行,使所述处理器实现如上述控制用户对垒方法。
根据本申请的另一个方面,还提供了基于深度学习的视频监测设备,该设备包括:
一个或多个处理器;
计算机可读介质,用于存储一个或多个计算机可读指令;
当所述一个或多个计算机可读指令被所述一个或多个处理器执行,使得所述一个或多个处理器实现如上述在设备上控制用户对垒方法。
在此,所述设备的各实施例的详细内容,具体可参见上述设备端的控制用户对垒方法实施例的对应部分,在此,不再赘述。
综上所述,本申请通过实时获取视频中当前帧机房图像;构建基于YOLO v4网络目标检测模型,将所述模型中的卷积网络替换为深度可分离卷积网络,同时采用了线性瓶颈的逆残差结构降低参数计算量和复杂度,并且采用h-swish激活函数,基于混合缩放机制更改网络宽度、网络深度和网络尺寸大小,得到优化后的YOLO v4网络目标检测模型并部署到嵌入式平台上;将所述当前帧机房图像输入到所述优化后的YOLO v4网络目标检测模型中,确定待检测目标对象,得到分类结果及其对应的坐标位置信息,即该方法可以快速准确检测到目标对象,保证了监测质量,同时使得所述目标检测网络更加精简和轻量化,实现了将网络目标检测模型部署到嵌入式系统中,节省了部署成本,减少了能源浪费。
需要注意的是,本申请可在软件和/或软件与硬件的组合体中被实施,例如,可采用专用集成电路(ASIC)、通用目的计算机或任何其他类似硬件设备来实现。在一个实施例中,本申请的软件程序可以通过处理器执行以实现上文所述步骤或功能。同样地,本申请的软件程序(包括相关的数据结构)可以被存储到计算机可读记录介质中,例如,RAM存储器,磁或光驱动器或软磁盘及类似设备。另外,本申请的一些步骤或功能可采用硬件来实现,例如,作为与处理器配合从而执行各个步骤或功能的电路。
另外,本申请的一部分可被应用为计算机程序产品,例如计算机程序指令,当其被计算机执行时,通过该计算机的操作,可以调用或提供根据本申请的方法和/或技术方案。而调用本申请的方法的程序指令,可能被存储在固定的或可移动的记录介质中,和/或通过广播或其他信号承载媒体中的数据流而被传输,和/或被存储在根据所述程序指令运行的计算机设备的工作存储器中。在此,根据本申请的一个实施例包括一个装置,该装置包括用于存储计算机程序指令的存储器和用于执行程序指令的处理器,其中,当该计算机程序指令被该处理器执行时,触发该装置运行基于前述根据本申请的多个实施例的方法和/或技术方案。
对于本领域技术人员而言,显然本申请不限于上述示范性实施例的细节,而且在不背离本申请的精神或基本特征的情况下,能够以其他的具体形式实现本申请。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本申请的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本申请内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。装置权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一,第二等词语用来表示名称,而并不表示任何特定的顺序。

Claims (8)

1.一种基于深度学习的视频监测方法,其特征在于,所述方法包括:
实时获取视频中当前帧机房图像;
构建基于YOLO v4网络目标检测模型,将所述模型中的卷积网络替换为深度可分离卷积网络,同时采用了线性瓶颈的逆残差结构降低参数计算量和复杂度,并且采用h-swish激活函数,基于混合缩放机制更改网络宽度、网络深度和网络尺寸大小,得到优化后的YOLOv4网络目标检测模型并部署到嵌入式平台上;
将所述当前帧机房图像输入到所述优化后的YOLO v4网络目标检测模型中,确定待检测目标对象,得到分类结果及其对应的坐标位置信息。
2.根据权利要求1所述的方法,其特征在于,所述将所述当前帧机房图像输入到所述优化后的YOLO v4网络目标检测模型中,确定待检测目标对象,得到分类结果及其对应的坐标位置之后,还包括:
判断所述待检测目标对象的分类结果是否为人类,
若是,通过人脸识别级联分类器确定人员身份,并利用目标跟踪网络对所述待检测目标对象进行跟踪和安全检测得到安全检测结果,基于所述安全检测结果进行报警提示;
若否,则依次进行老鼠入侵检测、火焰检测、水侵检测,得到环境情况检测结果,基于所述环境情况检测结果进行报警提示;
最后,将当前帧机房图像的所述安全检测结果、环境情况检测结果以及人员身份进行汇总并显示。
3.根据权利要求2所述的方法,其特征在于,所述利用目标跟踪网络对所述待检测目标对象进行跟踪和安全检测得到安全检测结果,包括:
将所述当前帧机房图像、及其待检测目标对象的分类结果及其对应的坐标位置信息输入所述目标跟踪网络,并进行马氏距离计算和特征向量余弦距离计算得到关联矩阵,并使用匈牙利算法进行所述待检测目标对象的二分图匹配,获取到跟踪结果,之后采用卡尔曼滤波预测对获取的下一帧机房图像重复上述跟踪步骤得到目标轨迹;
基于所述跟踪结果进行安全检测得到所述安全检测结果,所述安全检测包括:着装检测、安全线检测、危险区检测。
4.根据权利要求3所述的方法,其特征在于,所述将所述模型中的卷积网络替换为深度可分离卷积网络,包括:
在所述深度可分离卷积网络中基于1x1逐点卷积,并利用随机通道混洗机制进行通道信息融合。
5.根据权利要求4所述的方法,其特征在于,所述优化后的YOLO v4网络目标检测模型的损失函数包括回归框损失函数、置信度损失函数和分类损失函数,其中回归框损失函数loss使用完全交并比,考虑了边框重合度、中心距离和宽高比的信息。
6.根据权利要求1-5任意一项所述的方法,其特征在于,所述还包括对所述优化后的YOLO v4网络目标检测模型进行训练,包括:
通过网络爬虫技术、合并相关公开数据集的方式获取机房检测训练图像,并对每个所述机房检测训练图像进行标注,得到机房检测训练数据集;
使用聚类kmeans算法对机房检测训练数据集的anchor boxes进行聚类,更改classes类别和类别数目后预置训练参数,将所述机房检测训练数据集输入所述目标检测模型中进行初步训练;
将经过初步训练后的所述目标检测模型进行稀疏训练,对通道和卷积层数进行剪枝处理和微调处理。
7.一种计算机可读介质,其上存储有计算机可读指令,所述计算机可读指令可被处理器执行,使所述处理器实现如权利要求1至6中任一项所述的方法。
8.一种基于深度学习的视频监测设备,其特征在于,该设备包括:
一个或多个处理器;
计算机可读介质,用于存储一个或多个计算机可读指令,
当所述一个或多个计算机可读指令被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-6至中任一项所述的方法。
CN202111103325.9A 2021-09-18 2021-09-18 一种基于深度学习的视频监测方法及设备 Pending CN113723361A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111103325.9A CN113723361A (zh) 2021-09-18 2021-09-18 一种基于深度学习的视频监测方法及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111103325.9A CN113723361A (zh) 2021-09-18 2021-09-18 一种基于深度学习的视频监测方法及设备

Publications (1)

Publication Number Publication Date
CN113723361A true CN113723361A (zh) 2021-11-30

Family

ID=78684490

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111103325.9A Pending CN113723361A (zh) 2021-09-18 2021-09-18 一种基于深度学习的视频监测方法及设备

Country Status (1)

Country Link
CN (1) CN113723361A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114510077A (zh) * 2022-02-14 2022-05-17 广东省电信规划设计院有限公司 无人机杆路巡检的路线规划方法及装置、计算机存储介质
CN114813632A (zh) * 2022-06-30 2022-07-29 中国矿业大学(北京) 一种岩石遇水强度软化的光谱学测量方法及系统
CN114895609A (zh) * 2022-06-27 2022-08-12 中国电信股份有限公司 机房监控方法、装置、设备及介质
CN116977920A (zh) * 2023-06-28 2023-10-31 三峡科技有限责任公司 一种多区域类型多推理预警机制的临界防护方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110490146A (zh) * 2019-08-22 2019-11-22 北博(厦门)智能科技有限公司 基于深度学习的人工智能周界安防方法及服务端
WO2020155873A1 (zh) * 2019-02-02 2020-08-06 福州大学 一种基于深度表观特征和自适应聚合网络的多人脸跟踪方法
CN112836639A (zh) * 2021-02-03 2021-05-25 江南大学 基于改进YOLOv3模型的行人多目标跟踪视频识别方法
CN112906483A (zh) * 2021-01-25 2021-06-04 中国银联股份有限公司 一种目标重识别方法、装置及计算机可读存储介质
CN113076924A (zh) * 2021-04-21 2021-07-06 西交利物浦大学 基于无人船的河面垃圾实时检测方法、装置及存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020155873A1 (zh) * 2019-02-02 2020-08-06 福州大学 一种基于深度表观特征和自适应聚合网络的多人脸跟踪方法
CN110490146A (zh) * 2019-08-22 2019-11-22 北博(厦门)智能科技有限公司 基于深度学习的人工智能周界安防方法及服务端
CN112906483A (zh) * 2021-01-25 2021-06-04 中国银联股份有限公司 一种目标重识别方法、装置及计算机可读存储介质
CN112836639A (zh) * 2021-02-03 2021-05-25 江南大学 基于改进YOLOv3模型的行人多目标跟踪视频识别方法
CN113076924A (zh) * 2021-04-21 2021-07-06 西交利物浦大学 基于无人船的河面垃圾实时检测方法、装置及存储介质

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114510077A (zh) * 2022-02-14 2022-05-17 广东省电信规划设计院有限公司 无人机杆路巡检的路线规划方法及装置、计算机存储介质
CN114895609A (zh) * 2022-06-27 2022-08-12 中国电信股份有限公司 机房监控方法、装置、设备及介质
CN114813632A (zh) * 2022-06-30 2022-07-29 中国矿业大学(北京) 一种岩石遇水强度软化的光谱学测量方法及系统
CN116977920A (zh) * 2023-06-28 2023-10-31 三峡科技有限责任公司 一种多区域类型多推理预警机制的临界防护方法
CN116977920B (zh) * 2023-06-28 2024-04-12 三峡科技有限责任公司 一种多区域类型多推理预警机制的临界防护方法

Similar Documents

Publication Publication Date Title
CN113723361A (zh) 一种基于深度学习的视频监测方法及设备
Guo et al. Data‐driven flood emulation: Speeding up urban flood predictions by deep convolutional neural networks
CN108520229A (zh) 图像检测方法、装置、电子设备和计算机可读介质
CN110516529A (zh) 一种基于深度学习图像处理的投喂检测方法和系统
CN109598211A (zh) 一种实时动态人脸识别方法及系统
CN111797826B (zh) 大骨料集中区域检测方法和装置及其网络模型训练方法
WO2019109793A1 (zh) 人头区域识别方法、装置及设备
CN110969604B (zh) 一种基于深度学习的智能安防实时开窗检测报警系统及方法
WO2023206904A1 (zh) 一种行人轨迹跟踪方法、系统及相关装置
US11990010B2 (en) Methods and apparatuses for early warning of climbing behaviors, electronic devices and storage media
CN111553355B (zh) 基于监控视频的出店经营检测及通知管理店主的方法
US20210295155A1 (en) Method and system for transfer learning based object detection
Kim Visual analytics for operation-level construction monitoring and documentation: State-of-the-art technologies, research challenges, and future directions
CN113326773A (zh) 识别模型训练方法、识别方法、装置、设备及存储介质
CN114140745A (zh) 施工现场人员属性检测方法、系统、装置及介质
CN116824335A (zh) 一种基于YOLOv5改进算法的火灾预警方法及系统
CN117351409A (zh) 混凝土坝面作业风险智能识别方法
Rong et al. Big data intelligent tourism management platform design based on abnormal behavior identification
CN117274868A (zh) 一种基于大模型对视频进行交通事件识别方法及系统
Van Ackere et al. Extracting dimensions and localisations of doors, windows, and door thresholds out of mobile Lidar data using object detection to estimate the impact of floods
CN117292247A (zh) 基于YOLOv8算法和跟踪算法的改进型室内危险场景检测方法
WO2023109664A1 (zh) 监测方法和相关产品
CN109740509A (zh) 一种改良的视频人脸检测提升稳定性的方法
CN114170677A (zh) 一种检测抽烟行为的网络模型训练方法及其设备
Lestari et al. Comparison of two deep learning methods for detecting fire

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination