CN113033316A - 一种通风柜橱窗状态检测及控制的设备及其方法 - Google Patents

一种通风柜橱窗状态检测及控制的设备及其方法 Download PDF

Info

Publication number
CN113033316A
CN113033316A CN202110223778.9A CN202110223778A CN113033316A CN 113033316 A CN113033316 A CN 113033316A CN 202110223778 A CN202110223778 A CN 202110223778A CN 113033316 A CN113033316 A CN 113033316A
Authority
CN
China
Prior art keywords
human body
fume hood
model
gaussian
video frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110223778.9A
Other languages
English (en)
Inventor
张维纬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hunan Longsea Modern Laboratory Equipment Co ltd
Original Assignee
Hunan Longsea Modern Laboratory Equipment Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hunan Longsea Modern Laboratory Equipment Co ltd filed Critical Hunan Longsea Modern Laboratory Equipment Co ltd
Priority to CN202110223778.9A priority Critical patent/CN113033316A/zh
Publication of CN113033316A publication Critical patent/CN113033316A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • G06V20/38Outdoor scenes
    • G06V20/39Urban scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种通风柜橱窗状态检测及控制的设备及其方法。所述一种通风柜橱窗状态检测及控制的设备包括人体检测设备及通风柜橱窗控制装置,所述通风柜橱窗控制装置根据所述人体检测设备的人体检测结果对通风柜橱窗实现开闭控制,所述人体检测设备包括通风柜监控视角摄像头、帧差检测器及全特征目标检测器;所述帧差检测器通过对比视频帧图像中的背景帧与视频帧的像素值进行匹配,判定图像前景,初步识别人体;所述全特征目标检测器采用轻量化的深度神经网络对视频帧图像进行再次人体识别。本发明通过解决了人体识别检测时延长,误检漏检率高的问题,提高自动控制通风柜橱窗状态的监控效率。

Description

一种通风柜橱窗状态检测及控制的设备及其方法
技术领域
本发明涉及通风柜橱窗状态检测及控制技术领域,特别涉及一种通风柜橱窗状态检测及控制的设备及其方法。
背景技术
实验室的安全管理一直是广大科研机构关注的问题。近年来发生的一些安全事故的主要原因之一是当实验室人员离开实验室后未关闭通风柜橱窗,通风柜内的一些设备长时间加热,导致火灾等严重事故。目前对通风柜橱窗状态检测的研究还较少,较为相关的研究是关于门窗状态的检测,如利用红外感应检测汽车车窗开闭、家居窗的开闭状态等。随着人工智能的快速发展,将计算机视觉技术用于多种目标的开闭识别已成为可能。基于图像处理的电气控制柜开关识别系统,对电气柜图像采用阴影去除、二值化等预处理方法结合方向灰度特征进行开关状态识别;还有设计基于视觉的电梯轿厢门状态识别系统,在嵌入式Linux系统上实现图像采集、图像预处理,采用基于Hough(一种算法,Hough变换的基本原理是将影像空间中的曲线,包括直线,变换到参数空间中,通过检测参数空间中的极值点,确定出该曲线的描述参数,从而提取影像中的规则曲线。)直线变换算法来实现开关门状态监测。
以上方法,主要存在以下不足:(1)需要对现有通风柜橱窗进行改造来安装上述电子控制系统,安装难度较高,并且化学实验设备有安全要求,肆意改造会造成潜在的安全风险。(2)无效识别次数过多。使用电子控制系统虽然能够识别橱窗状态,但当实验人员在场时都是无效识别,故需要增加额外的人员检测传感器等,使问题复杂化。(3)由于通风柜中实验设备类别较多,因此难以设计出类似基于视觉的电梯轿厢门状态识别系统的有效人工特征。
发明内容
本发明提供了一种通风柜橱窗状态检测及控制的设备及其方法,其目的是为了解决背景技术中对通风柜橱窗状态检测设备改造造成潜在的安全风险、增加额外的人员检测传感器使问题复杂化、通风柜中实验设备类别较多导致难以设计出通风柜橱窗状态识别系统的技术问题。
为了达到上述目的,本发明提供的一种通风柜橱窗状态检测及控制的设备,包括人体检测设备及通风柜橱窗控制装置,所述通风柜橱窗控制装置根据所述人体检测设备的人体检测结果对通风柜橱窗实现开闭控制,所述人体检测设备包括通风柜监控视角摄像头、帧差检测器及全特征目标检测器,所述帧差检测器对所述通风柜监控视角摄像头的视频帧图像进行初步人体识别,当检测到人体时,向所述通风柜橱窗控制装置传输打开通风柜橱窗的信号,当未检测到人体时,所述全特征目标检测器对视频帧图像进行再次人体识别,当检测到人体时,向所述通风柜橱窗控制装置传输打开通风柜橱窗的信号,当未检测到人体时,向所述通风柜橱窗控制装置传输关闭通风柜橱窗的信号;
所述帧差检测器通过对比视频帧图像中的背景帧与视频帧的像素值进行匹配,判定图像前景,初步识别人体;
所述全特征目标检测器采用轻量化的深度神经网络对视频帧图像进行再次人体识别。
优选地,所述帧差检测器采用混合高斯模型帧差法进行初步人体识别,所述混合高斯模型帧差法具体包括如下步骤:
步骤S110、对视频帧图像中每个像素点的灰度值用多个高斯分布混合表示,对应构建混合高斯模型;
步骤S120、对每个像素点的混合高斯模型进行优化,构造新的混合高斯模型;
步骤S130、在每个像素点的新的混合高斯分布中选择一个或几个作为背景模型,其他作为前景模型,并对像素点进行背景/前景模型匹配。
优选地,所述步骤S110具体为:
设一个像素点的像素观察值为{X1,X2,......,Xt},X1,X2,X3分别表示每个时刻T得到的图像的像素值的随机变量X的采样值,则该像素点的当前像素值的概率可表示为:
Figure BDA0002955993150000031
其中,K为像素值的高斯分布的个数,Wi,t表示t时刻第i个高斯分布的权值
Figure BDA0002955993150000032
μi,t表示第i个高斯分布的均值,∑i,t表示第i个高斯分布的协方差矩阵,而第i个高斯分布函数η(Xt,μi,t,∑i,t)表达式为:
Figure BDA0002955993150000033
其中,n为自由变量的个数,K的值一般取3~5,μt为均值,T表示转置,协方差矩阵可表示为:
Figure BDA0002955993150000034
式中,σi为标准差,I为三维单位矩阵。
优选地,所述步骤S120具体为:
把K个高斯分布按权值和标准差之比w/σ从大到小进行排列,然后选择均值μi,t-1,K和Xi,t最接近的高斯模型,并且满足该模型的均值偏差在2.5个标准差之内:
(Xi,ti,t-1)/σi,t-1<2.5
μi,t-1表示当前K个高斯分布均值,Xi,t表示新像素值,σi,t-1表示标准差;
如果找到某个高斯模型对应的高斯分布函数ηK和Xi,t匹配,则用系列公式更新ηK的各个参数,其中ηK表示第K个高斯模型对应的高斯分布函数:
μi,t=(1-α)μt-1+αXi,t
Figure BDA0002955993150000041
式中,α表示当前分布的学习因子;
对所有高斯分布的权值用下面的公式进行更新:
wi,k,t=(1-α)wi,k,t-1+αMi,t,k
式中,Mi,t,k表示t时刻第k个高斯分布的权值,Mi,t,k表示对于匹配的高斯模型取1,没有匹配的取0;
如果没有一个高斯模型与Xi,t进行匹配,将当前像素值Xi,t作为均值,赋予一个w/σ比值最小的高斯模型,即方差较高,权值较低的新构造的高斯模型代替。
优选地,所述全特征目标检测器采用轻量化的T-YOLOv3深度神经网络模型进行再次人体识别,获得所述轻量化的T-YOLOv3深度神经网络模型具体包括如下步骤:
步骤S210、编写python程序,将人体数据集标注文件转换为YOLO标注文件,并进行数据预处理,清洗不满足要求的数据;
步骤S220、通道剪枝训练,对未经轻量化的YOLOv3模型进行通道修剪;
步骤S230、层剪枝训练,对通道剪枝后的YOLOv3深度神经网络模型进行层剪枝;
步骤S240、微调训练,对层剪枝后的YOLOv3深度神经网络模型进行精度微调,恢复精度,获得轻量化的T-YOLOv3模型。
优选地,所述步骤S220具体为:
步骤S221、对YOLOv3中卷积层后的BN层使用小批量归一化卷积特征:
Figure BDA0002955993150000042
式中μ和σ表示输入特征的均值和标准差;γ和β表示比例因子和偏差,比例因子γ的绝对值表示通道的重要性;
步骤S222、对γ增加正则项:
Figure BDA0002955993150000051
式中lossyolo_spp表示模型预测产生的损失;
Figure BDA0002955993150000052
用来约束γ,其中λ是权衡损失和重要性两项的超参数,
Figure BDA0002955993150000053
时,达到稀疏的作用。
优选地,所述步骤S230具体为:
针对每一个shortcut层前面一个计算机化学习进行评价,对各层的γ均值进行排序,最小的γ均值进行层剪枝;每剪掉一个shortcut结构,同时剪掉一个shortcut层和前面的两个conv层。
本发明提供的一种通风柜橱窗状态检测及控制的方法,包括如下步骤:
步骤S1、图像采集及预处理:采集通风柜监控视角视频,提取视频帧图像,并对视频帧图像进行包括灰度转换的预处理;
步骤S2、部署帧差检测器,并进行初步人体识别:所述帧差检测器通过对比视频帧图像中背景帧与视频帧的像素值进行匹配,判定图像前景,初步识别人体;如果高斯混合模型提取的背景帧与当前帧的差分值的检测结果大于阈值α,初步识别到人体,则通风柜橱窗上升,风速设为0.5m/s,否则进入步骤S3;
步骤S3、部署全特征目标检测器,并进行再次人体识别:所述全特征目标检测器采用轻量化的深度神经网络对视频帧图像进行再次人体识别;
优选地,所述步骤S3具体包括如下步骤:
步骤S31、压缩训练全特征目标检测模型YOLOv3,生成轻量化目标检测模型T-YOLOv3;
步骤S32、编写python程序,基于步骤S2中未检测出的人体的视频帧图像,将其输入到轻量化目标检测模型T-YOLOv3,再次对视频帧图像进行人体识别检测。
优选地,所述步骤S32具体包括如下步骤:
步骤S321、轻量化目标检测模型T-YOLOv3接收传入的视频帧图像,并对视频帧图像进行检测,返回每帧检测到的人体概率;
步骤S322、判断是否检测到人体,当检测到人体时,将通风柜橱窗上升,风速设为0.5m/s;否则,通风柜橱窗下降并关闭,风速设为0.3m/s。
本发明能够取得下列有益效果:
在嵌入式设备上进行间隔提取帧,并进行高斯混合模型帧差法进行初级人体识别,减少了检测监控帧数,降低了时延,为后续轻量级检测模型减少了计算量。整体人体检测与通风柜橱窗控制部署在嵌入式设备上,减少成本,降低安全风险。在关于通风柜安全管理的人体检测方面在检测前对监控视频帧颜色以及帧数进行了预处理。
采用基于混合高斯模型帧差法与通道剪枝、层剪枝压缩的YOLOv3模型级联,进行人体检测,实现通风柜管理方法。
将目标检测模型压缩并部署在嵌入式设备上进行人体识别。压缩全特征目标检测模型,将通过通道剪枝、层剪枝压缩的轻量化YOLOv3模型部署在嵌入式设备上,二次检测,实现准确快速识别人体的效果。
深度学习能够自动学习到有用的特征表示,有效的解决了传统方法的弊端;针对目前的计算机视觉的方法,进行了模型的压缩改进,同时进行了两级检测器检测目标,有效的解决了检测时延长,误检漏检率高的问题。
附图说明
图1为本发明的一种通风柜橱窗状态检测及控制的方法的示意图;
图2为本发明的一种通风柜橱窗状态检测及控制的设备及其方法的一较佳实施例的获得轻量化的T-YOLOv3模型的示意图。
具体实施方式
为使本发明要解决的技术问题、技术方案和优点更加清楚,下面将结合附图及具体实施例进行详细描述。
本发明针对现有的问题,提供了一种通风柜橱窗状态检测及控制的设备及其方法,如图1所示,本发明的一种通风柜橱窗状态检测及控制的设备包括人体检测设备及通风柜橱窗控制装置,所述通风柜橱窗控制装置根据所述人体检测设备的人体检测结果对通风柜橱窗实现开闭控制,所述人体检测设备包括通风柜监控视角摄像头、帧差检测器及全特征目标检测器,所述帧差检测器对所述通风柜监控视角摄像头的视频帧图像进行初步人体识别,当检测到人体时,向所述通风柜橱窗控制装置传输打开通风柜橱窗的信号,当未检测到人体时,所述全特征目标检测器对视频帧图像进行再次人体识别,当检测到人体时,向所述通风柜橱窗控制装置传输打开通风柜橱窗的信号,当未检测到人体时,向所述通风柜橱窗控制装置传输关闭通风柜橱窗的信号;
所述帧差检测器通过对比视频帧图像中的背景帧与视频帧的像素值进行匹配,判定图像前景,初步识别人体;
所述全特征目标检测器采用轻量化的深度神经网络对视频帧图像进行再次人体识别。
所述帧差检测器采用混合高斯模型帧差法进行初步人体识别,所述混合高斯模型帧差法具体包括如下步骤:
步骤S110、对视频帧图像中每个像素点的灰度值用多个高斯分布混合表示,对应构建混合高斯模型;
步骤S120、对每个像素点的混合高斯模型进行优化,构造新的混合高斯模型;
步骤S130、在每个像素点的新的混合高斯分布中选择一个或几个作为背景模型,其他作为前景模型,并对像素点进行背景/前景模型匹配。
帧差检测器使用的是自适应混合高斯模型背景构建的方法,每个像素点的灰度值分布有多个高斯分布混合表示。
所述步骤S110具体为:
设一个像素点的像素观察值为{X1,X2,......,Xt},X1,X2,X3分别表示每个时刻T得到的图像的像素值的随机变量X的采样值,则该像素点的当前像素值的概率可表示为:
Figure BDA0002955993150000071
其中,K为用来表示像素值的高斯分布的个数,wi,t表示t时刻第i个高斯分布的权值
Figure BDA0002955993150000081
μi,t表示第i个高斯分布的均值,∑i,t表示第i个高斯分布的协方差矩阵,而第i个高斯分布函数η(Xt,μi,t,∑i,t)表达式为:
Figure BDA0002955993150000082
其中,n为自由变量的个数,K的值一般取3~5,μt为均值,T表示转置,协方差矩阵可表示为:
Figure BDA0002955993150000083
式中,σi为标准差,I为三维单位矩阵。
用背景图像每点的像素值作为该点对应混合高斯分布的均值,并对每个高斯模型赋一个较大的方差和较小的权值。当新的图像到来时,要对各个像素点的混合高斯模型的参数进行更新,理想的情况是在每一时刻t,用包含新的观察数据的一段时间内的数据,开始采用K均值算法来近似估算混合高斯模型的参数,但是这样匹配算法计算比较复杂,不能达到实时计算的要求,因此,用一种近似算法。
所述步骤S120具体为:
把K个高斯分布按权值和标准差之比w/σ从大到小进行排列,然后选择均值μi,t-1,K和Xi,t最接近的高斯模型,并且满足该模型的均值偏差在2.5个标准差之内:
(Xi,ti,t-1)/σi,t-1<2.5
μi,t-1表示当前K个高斯分布均值,Xi,t表示新像素值,σi,t-1表示标准差;
如果找到某个高斯模型对应的高斯分布函数ηK和Xi,t匹配,则用系列公式更新ηK的各个参数,其中ηK表示第K个高斯模型对应的高斯分布函数:
μi,t=(1-α)μt-1+αXi,t
Figure BDA0002955993150000091
式中,α表示当前分布的学习因子;
对所有高斯分布的权值用下面的公式进行更新:
Figure BDA0002955993150000093
式中Mi,t,k表示t时刻第k个高斯分布的权值,Mi,t,k表示对于匹配的高斯模型取1,没有匹配的取0;
如果没有一个高斯模型与Xi,t进行匹配,将当前像素值Xi,t作为为均值,赋予一个w/σ比值最小的高斯模型用均值Xi,t,即方差较高,权值较低的新构造的高斯模型代替。
最后在每一时间,每一点的多个高斯分布中选择一个或几个作为背景模型,其他表示前景模型,如果当前值与背景模型匹配,则把该点判定为背景,否则判定为前景。
如图1所示,所述全特征目标检测器采用轻量化的T-YOLOv3(一种机器学习网络模型)深度神经网络模型进行再次人体识别,获得所述轻量化的T-YOLOv3深度神经网络模型具体包括如下步骤:
步骤S210、编写python程序,将人体数据集标注文件转换为YOLO标注文件,并进行数据预处理,清洗不满足要求的数据;
步骤S220、通道剪枝训练,对未经轻量化的YOLOv3模型进行通道修剪;
步骤S230、层剪枝训练,对通道剪枝后的YOLOv3深度神经网络模型进行层剪枝;
步骤S240、微调训练,对层剪枝后的YOLOv3深度神经网络模型进行精度微调,恢复精度,获得轻量化的T-YOLOv3模型。
所述步骤S220具体为:
步骤S221、对YOLOv3中卷积层后的BN层使用小批量归一化卷积特征:
Figure BDA0002955993150000092
式中μ和σ表示输入特征的均值和标准差;γ和β表示比例因子和偏差,比例因子的绝对值表示通道的重要性;
步骤S222、对γ增加正则项:
Figure BDA0002955993150000101
式中lossyolo_spp表示模型预测产生的损失;
Figure BDA0002955993150000102
用来约束γ,其中λ是权衡损失和重要性两项的超参数,
Figure BDA0002955993150000103
时,就是L1范式,达到稀疏的作用。
所述步骤S230具体为:
针对每一个shortcut(或shortpath,中文“直连”或“捷径”,一种深度卷积神经网络模型发展的一种结构)层前面一个计算机化学习进行评价,对各层的γ均值进行排序,最小的γ均值进行层剪枝;每剪掉一个shortcut结构,同时剪掉一个shortcut层和前面的两个conv(Convolution,卷积)层。
本发明提供的一种通风柜橱窗状态检测及控制的方法,如图2所示,包括如下步骤:
步骤S1、图像采集及预处理:采集通风柜监控视角视频,提取视频帧图像,并对视频帧图像进行包括灰度转换的预处理;
步骤S2、在嵌入式设备上部署帧差检测器,并进行初步人体识别:所述帧差检测器通过对比视频帧图像中背景帧与视频帧的像素值进行匹配,判定图像前景,初步识别人体;如果高斯混合模型提取的背景帧与当前帧的差分值的检测结果大于阈值β,初步识别到人体,则通风柜橱窗上升,风速设为0.5m/s,否则进入步骤S3检测;
通过上述的初步检测,如果结果大于阈值β,则通风柜橱窗上升,风速设为0.5m/s,否则进行下一步检测。
步骤S3、部署全特征目标检测器,并进行再次人体识别:所述全特征目标检测器采用轻量化的深度神经网络对视频帧图像进行再次人体识别。
所述步骤S3具体包括如下步骤:
步骤S31、压缩训练全特征目标检测模型YOLOv3,生成轻量化目标检测模型T-YOLOv3,并部署在嵌入式设备上进行检测;
步骤S32、编写python程序,基于步骤S2中未检测出的人体的视频帧,将其输入到轻量化目标检测模型T-YOLOv3,再次对视频帧进行人体识别检测。
所述步骤S31具体包括如下步骤:
步骤S311:编写python程序,将人体数据集标注文件转换为YOLO标注文件,并进行数据预处理,清洗不满足要求的数据;
步骤S312:通道剪枝训练;为了便于通道修剪,为每个通道分配一个比例因子,其中比例因子的绝对值表示通道的重要性。并且在YOLOv3中的每个卷积层之后都有一个BN(Batch Normalization层,神经网络的一部分)层来加速收敛和提高泛化能力,BN层使用小批量归一化卷积特征,如下式所示。
Figure BDA0002955993150000111
式中μ和σ表示输入特征的均值和标准差;γ和β表示比例因子和偏差。
本方法直接采用比例因子作为通道重要性的指标,为了有效区分重要通道和不重要的通道,通过对γ增加一个正则项,如下式所示。
Figure BDA0002955993150000112
式中lossyolo_spp表示模型预测产生的损失;
Figure BDA0002955993150000113
用来约束γ,其中λ是权衡两项的超参数,
Figure BDA0002955993150000114
就是L1范式,可达到稀疏的作用。
步骤S313:层剪枝训练;在通道剪枝的基础上,针对每一个shortcut层前面一个CBL(计算机化学习简称CBL,Computer-Based Learning,CBL)进行评价,对各层的γ均值进行排序,最小的γ均值进行层剪枝。为了保证结构完整性,每剪掉一个shortcut结构,会同时剪掉一个shortcut层和前面的两个conv层。对于YOLOv3,有23处shortcut,共有69个层剪层空间。
步骤S314:微调训练;为了避免精度损失过高,进行微调训练,恢复精度,达到预期精度终止训练,并部署在嵌入式设备上。
所述步骤S32具体包括如下步骤:
步骤S321、轻量化目标检测模型T-YOLOv3接收传入的视频帧图像,并对视频帧图像进行检测,返回每帧检测到的人体概率;
步骤S322、判断是否检测到人体,当检测到人体时,将通风柜橱窗上升,风速设为0.5m/s;否则,通风柜橱窗下降并关闭,风速设为0.3m/s。
本发明能够取得下列有益效果:
在嵌入式设备上进行间隔提取帧,并进行高斯混合模型帧差法进行初级人体识别,减少了检测监控帧数,降低了时延,为后续轻量级检测模型减少了计算量。整体人体检测与通风柜橱窗控制部署在嵌入式设备上,减少成本,降低安全风险。在关于通风柜安全管理的人体检测方面在检测前对监控视频帧颜色以及帧数进行了预处理。
采用基于混合高斯模型帧差法与通道剪枝、层剪枝压缩的YOLOv3模型级联,进行人体检测,实现通风柜管理方法。
将目标检测模型压缩并部署在嵌入式设备上进行人体识别。压缩全特征目标检测模型,将通过通道剪枝、层剪枝压缩的轻量化YOLOv3模型部署在嵌入式设备上,二次检测,实现准确快速识别人体的效果。
深度学习能够自动学习到有用的特征表示,有效的解决了传统方法的弊端;针对目前的计算机视觉的方法,进行了模型的压缩改进,同时进行了两级检测器检测目标,有效的解决了检测时延长,误检漏检率高的问题。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明所述原理的前提下,还可以作出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (10)

1.一种通风柜橱窗状态检测及控制的设备,其特征在于,包括人体检测设备及通风柜橱窗控制装置,所述通风柜橱窗控制装置根据所述人体检测设备的人体检测结果对通风柜橱窗实现开闭控制,所述人体检测设备包括通风柜监控视角摄像头、帧差检测器及全特征目标检测器,所述帧差检测器对所述通风柜监控视角摄像头的视频帧图像进行初步人体识别,当检测到人体时,向所述通风柜橱窗控制装置传输打开通风柜橱窗的信号,当未检测到人体时,所述全特征目标检测器对视频帧图像进行再次人体识别,当检测到人体时,向所述通风柜橱窗控制装置传输打开通风柜橱窗的信号,当未检测到人体时,向所述通风柜橱窗控制装置传输关闭通风柜橱窗的信号;
所述帧差检测器通过对比视频帧图像中的背景帧与视频帧的像素值进行匹配,判定图像前景,初步识别人体;
所述全特征目标检测器采用轻量化的深度神经网络对视频帧图像进行再次人体识别。
2.根据权利要求1所述的一种通风柜橱窗状态检测及控制的设备,其特征在于,所述帧差检测器采用混合高斯模型帧差法进行初步人体识别,所述混合高斯模型帧差法具体包括如下步骤:
步骤S110、对视频帧图像中每个像素点的灰度值用多个高斯分布混合表示,对应构建混合高斯模型;
步骤S120、对每个像素点的混合高斯模型进行优化,构造新的混合高斯模型;
步骤S130、在每个像素点的新的混合高斯分布中选择一个或几个作为背景模型,其他作为前景模型,并对像素点进行背景/前景模型匹配。
3.根据权利要求2所述的一种通风柜橱窗状态检测及控制的设备,其特征在于,所述步骤S110具体为:
设一个像素点的像素观察值为{X1,X2,......,Xt},X1,X2,X3分别表示每个时刻T得到的图像的像素值的随机变量X的采样值,则该像素点的当前像素值的概率可表示为:
Figure FDA0002955993140000021
其中,K为像素值的高斯分布的个数,wi,t表示t时刻第i个高斯分布的权值
Figure FDA0002955993140000022
μi,t表示第i个高斯分布的均值,∑i,t表示第i个高斯分布的协方差矩阵,而第i个高斯分布函数η(Xt,μi,t,∑i,t)表达式为:
Figure FDA0002955993140000023
其中,n为自由变量的个数,K的值一般取3~5,μt为均值,T表示转置,协方差矩阵可表示为:
Figure FDA0002955993140000024
式中,σi为标准差,I为三维单位矩阵。
4.根据权利要求3所述的一种通风柜橱窗状态检测及控制的设备,其特征在于,所述步骤S120具体为:
把K个高斯分布按权值和标准差之比w/σ从大到小进行排列,然后选择均值μi,t-1,K和Xi,t最接近的高斯模型,并且满足该模型的均值偏差在2.5个标准差之内:
(Xi,ti,t-1)/σi,t-1<2.5
μi,t-1表示当前K个高斯分布均值,Xi,t表示新像素值,σi,t-1表示标准差;
如果找到某个高斯模型对应的高斯分布函数ηK和Xi,t匹配,则用系列公式更新ηK的各个参数,其中ηK表示第K个高斯模型对应的高斯分布函数:
μi,t=(1-α)μt-1+αXi,t
Figure FDA0002955993140000031
式中,α表示当前分布的学习因子;
对所有高斯分布的权值用下面的公式进行更新:
wi,k,t=(1-α)wi,k,t-1+αMi,t,k
式中,Mi,t,k表示t时刻第k个高斯分布的权值,Mi,t,k表示对于匹配的高斯模型取1,没有匹配的取0;
如果没有一个高斯模型与Xi,t进行匹配,将当前像素值Xi,t作为均值,赋予一个w/σ比值最小的高斯模型,即方差较高,权值较低的新构造的高斯模型代替。
5.根据权利要求1所述的一种通风柜橱窗状态检测及控制的设备,其特征在于,所述全特征目标检测器采用轻量化的T-YOLOv3深度神经网络模型进行再次人体识别,获得所述轻量化的T-YOLOv3深度神经网络模型具体包括如下步骤:
步骤S210、编写python程序,将人体数据集标注文件转换为YOLO标注文件,并进行数据预处理,清洗不满足要求的数据;
步骤S220、通道剪枝训练,对未经轻量化的YOLOv3模型进行通道修剪;
步骤S230、层剪枝训练,对通道剪枝后的YOLOv3深度神经网络模型进行层剪枝;
步骤S240、微调训练,对层剪枝后的YOLOv3深度神经网络模型进行精度微调,恢复精度,获得轻量化的T-YOLOv3模型。
6.根据权利要求5所述的一种通风柜橱窗状态检测及控制的设备,其特征在于,所述步骤S220具体为:
步骤S221、对YOLOv3中卷积层后的BN层使用小批量归一化卷积特征:
Figure FDA0002955993140000032
式中μ和σ表示输入特征的均值和标准差;γ和β表示比例因子和偏差,比例因子γ的绝对值表示通道的重要性;
步骤S222、对γ增加正则项:
Figure FDA0002955993140000041
式中lossyolo_spp表示模型预测产生的损失;
Figure FDA0002955993140000042
用来约束γ,其中λ是权衡损失和重要性两项的超参数,
Figure FDA0002955993140000043
时,达到稀疏的作用。
7.根据权利要求6所述的一种通风柜橱窗状态检测及控制的设备,其特征在于,所述步骤S230具体为:
针对每一个shortcut层前面一个计算机化学习进行评价,对各层的γ均值进行排序,最小的γ均值进行层剪枝;每剪掉一个shortcut结构,同时剪掉一个shortcut层和前面的两个conv层。
8.一种通风柜橱窗状态检测及控制的方法,包括如下步骤:
步骤S1、图像采集及预处理:采集通风柜监控视角视频,提取视频帧图像,并对视频帧图像进行包括灰度转换的预处理;
步骤S2、部署帧差检测器,并进行初步人体识别:所述帧差检测器通过对比视频帧图像中背景帧与视频帧的像素值进行匹配,判定图像前景,初步识别人体;如果高斯混合模型提取的背景帧与当前帧的差分值的检测结果大于阈值α,初步识别到人体,则通风柜橱窗上升,风速设为0.5m/s,否则进入步骤S3;
步骤S3、部署全特征目标检测器,并进行再次人体识别:所述全特征目标检测器采用轻量化的深度神经网络对视频帧图像进行再次人体识别。
9.根据权利要求8所述的一种通风柜橱窗状态检测及控制的方法,其特征在于,所述步骤S3具体包括如下步骤:
步骤S31、压缩训练全特征目标检测模型YOLOv3,生成轻量化目标检测模型T-YOLOv3;
步骤S32、编写python程序,基于步骤S2中未检测出的人体的视频帧图像,将其输入到轻量化目标检测模型T-YOLOv3,再次对视频帧图像进行人体识别检测。
10.根据权利要求9所述的一种通风柜橱窗状态检测及控制的方法,其特征在于,所述步骤S32具体包括如下步骤:
步骤S321、轻量化目标检测模型T-YOLOv3接收传入的视频帧图像,并对视频帧图像进行检测,返回每帧检测到的人体概率;
步骤S322、判断是否检测到人体,当检测到人体时,将通风柜橱窗上升,风速设为0.5m/s;否则,通风柜橱窗下降并关闭,风速设为0.3m/s。
CN202110223778.9A 2021-03-01 2021-03-01 一种通风柜橱窗状态检测及控制的设备及其方法 Pending CN113033316A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110223778.9A CN113033316A (zh) 2021-03-01 2021-03-01 一种通风柜橱窗状态检测及控制的设备及其方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110223778.9A CN113033316A (zh) 2021-03-01 2021-03-01 一种通风柜橱窗状态检测及控制的设备及其方法

Publications (1)

Publication Number Publication Date
CN113033316A true CN113033316A (zh) 2021-06-25

Family

ID=76464847

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110223778.9A Pending CN113033316A (zh) 2021-03-01 2021-03-01 一种通风柜橱窗状态检测及控制的设备及其方法

Country Status (1)

Country Link
CN (1) CN113033316A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113435508A (zh) * 2021-06-28 2021-09-24 中冶建筑研究总院(深圳)有限公司 玻璃幕墙开启窗开启状态检测方法、装置、设备及介质
CN113807328A (zh) * 2021-11-18 2021-12-17 济南和普威视光电技术有限公司 一种基于算法融合的目标检测方法、设备及介质
CN113869122A (zh) * 2021-08-27 2021-12-31 国网浙江省电力有限公司 一种配网工程强化管控方法
CN114273372A (zh) * 2021-11-19 2022-04-05 北京戴纳实验科技有限公司 一种智能通风柜的控制系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110248129A (zh) * 2018-09-12 2019-09-17 浙江大华技术股份有限公司 一种录像装置及其录像方法
CN111259718A (zh) * 2019-10-24 2020-06-09 杭州安脉盛智能技术有限公司 一种基于高斯混合模型的扶梯滞留检测方法及系统
CN111256943A (zh) * 2020-02-14 2020-06-09 湖南长海现代实验室设备有限公司 一种实验室通风异常检测方法与系统
CN112053327A (zh) * 2020-08-18 2020-12-08 南京理工大学 视频目标物检测方法、系统及存储介质和服务器
CN112308213A (zh) * 2020-11-05 2021-02-02 湖南大学 一种基于全局特征关系的卷积神经网络压缩方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110248129A (zh) * 2018-09-12 2019-09-17 浙江大华技术股份有限公司 一种录像装置及其录像方法
CN111259718A (zh) * 2019-10-24 2020-06-09 杭州安脉盛智能技术有限公司 一种基于高斯混合模型的扶梯滞留检测方法及系统
CN111256943A (zh) * 2020-02-14 2020-06-09 湖南长海现代实验室设备有限公司 一种实验室通风异常检测方法与系统
CN112053327A (zh) * 2020-08-18 2020-12-08 南京理工大学 视频目标物检测方法、系统及存储介质和服务器
CN112308213A (zh) * 2020-11-05 2021-02-02 湖南大学 一种基于全局特征关系的卷积神经网络压缩方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
C. STAUFFER: "Adaptive background mixture models for real-time tracking", 《PROCEEDINGS. 1999 IEEE COMPUTER SOCIETY CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CAT. NO PR00149)》 *
李亚南等: "基于混合高斯模型和三帧差法的背景建模", 《兵工自动化》 *
杨学超等: "视频图像序列中的运动目标检测技术", 《计算机应用与软件》 *
白士磊等: "轻量级YOLOv3的交通标志检测算法", 《计算机与现代化》 *
马振伟等: "基于小样本深度学习的通风柜橱窗状态识别方法", 《华东理工大学学报(自然科学版)》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113435508A (zh) * 2021-06-28 2021-09-24 中冶建筑研究总院(深圳)有限公司 玻璃幕墙开启窗开启状态检测方法、装置、设备及介质
CN113435508B (zh) * 2021-06-28 2024-01-19 中冶建筑研究总院(深圳)有限公司 玻璃幕墙开启窗开启状态检测方法、装置、设备及介质
CN113869122A (zh) * 2021-08-27 2021-12-31 国网浙江省电力有限公司 一种配网工程强化管控方法
CN113807328A (zh) * 2021-11-18 2021-12-17 济南和普威视光电技术有限公司 一种基于算法融合的目标检测方法、设备及介质
CN113807328B (zh) * 2021-11-18 2022-03-18 济南和普威视光电技术有限公司 一种基于算法融合的目标检测方法、设备及介质
CN114273372A (zh) * 2021-11-19 2022-04-05 北京戴纳实验科技有限公司 一种智能通风柜的控制系统
CN114273372B (zh) * 2021-11-19 2022-11-08 北京戴纳实验科技有限公司 一种智能通风柜的控制系统

Similar Documents

Publication Publication Date Title
CN113033316A (zh) 一种通风柜橱窗状态检测及控制的设备及其方法
CN106600631A (zh) 基于多目标跟踪的客流统计方法
CN107392112A (zh) 一种人脸表情识别方法及其应用的智能锁系统
CN110569843B (zh) 一种矿井目标智能检测与识别方法
CN110728252B (zh) 一种应用于区域人员运动轨迹监控的人脸检测方法
CN111091060B (zh) 基于深度学习的跌倒和暴力检测方法
CN111753918B (zh) 一种基于对抗学习的去性别偏见的图像识别模型及应用
CN109948501A (zh) 一种监控视频中人员和安全帽的检测方法
CN110728216A (zh) 一种基于行人属性自适应学习的无监督行人再识别方法
CN112488213A (zh) 一种基于多尺度特征学习网络的火灾图片分类方法
CN115527271A (zh) 电梯轿厢乘客异常行为检测系统及方法
CN112800975A (zh) 一种基于图像处理的安检通道内行为识别方法
CN112435414A (zh) 一种基于人脸识别的安防监控系统及其监控方法
CN109583339A (zh) 一种基于图像处理的atm视频智能监控方法
CN116798176A (zh) 基于大数据和智慧安防的数据管理系统
CN116168348A (zh) 基于图像处理的安全监控方法、系统及存储介质
CN118196993A (zh) 一种基于深度学习的光伏厂区的人员与烟火识别系统及装置
CN117671784A (zh) 一种基于视频分析的人体行为分析方法及系统
CN117690086A (zh) 一种基于5g和ai技术的防汛闸门识别及控制的方法和系统
CN114283367B (zh) 用于园区火灾预警的人工智能明火探测方法及系统
CN116246402A (zh) 一种监控方法及装置
CN115909144A (zh) 一种基于对抗学习的监控视频异常检测方法及系统
CN115147865A (zh) 一种基于手势识别神经网络算法的非接触式手势控制开关
CN115546684A (zh) 一种针对宠物牵绳的电梯视频光幕系统的检测方法
CN115147766A (zh) 一种基于深度学习算法的图像智能判读设备及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20210625

RJ01 Rejection of invention patent application after publication