CN116665390A - 基于边缘计算及优化YOLOv5的火灾检测系统 - Google Patents
基于边缘计算及优化YOLOv5的火灾检测系统 Download PDFInfo
- Publication number
- CN116665390A CN116665390A CN202310245796.6A CN202310245796A CN116665390A CN 116665390 A CN116665390 A CN 116665390A CN 202310245796 A CN202310245796 A CN 202310245796A CN 116665390 A CN116665390 A CN 116665390A
- Authority
- CN
- China
- Prior art keywords
- yolov5
- edge
- network
- fire detection
- detection system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 38
- 238000004364 calculation method Methods 0.000 title claims abstract description 13
- 238000012544 monitoring process Methods 0.000 claims abstract description 30
- 238000012545 processing Methods 0.000 claims abstract description 9
- 238000005457 optimization Methods 0.000 claims abstract description 8
- 230000006870 function Effects 0.000 claims description 20
- 238000012549 training Methods 0.000 claims description 18
- 238000002372 labelling Methods 0.000 claims description 13
- 238000000034 method Methods 0.000 claims description 9
- 238000011156 evaluation Methods 0.000 claims description 8
- 238000009499 grossing Methods 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 3
- 238000012360 testing method Methods 0.000 claims description 3
- 238000012795 verification Methods 0.000 claims description 3
- 230000008859 change Effects 0.000 abstract description 2
- 230000004913 activation Effects 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000002679 ablation Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000002265 prevention Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 239000002390 adhesive tape Substances 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B17/00—Fire alarms; Alarms responsive to explosion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
- G06V10/763—Non-hierarchical techniques, e.g. based on statistics of modelling distributions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B17/00—Fire alarms; Alarms responsive to explosion
- G08B17/12—Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions
- G08B17/125—Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions by using a video camera to detect fire or smoke
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Emergency Management (AREA)
- Business, Economics & Management (AREA)
- Probability & Statistics with Applications (AREA)
- Alarm Systems (AREA)
Abstract
本发明公开了基于边缘计算及优化YOLOv5的火灾检测系统,包括终端层、边缘层和应用层,终端层包括监控部分,边缘层包括边缘服务器;监控部分包括摄像头、无人机和无人车的小型监控设备,通过监控部分对监控区域进行实时的监测,并将图像传输到边缘服务器;边缘服务器采用YOLOv5目标检测算法,在对图像进行处理后,将结果传递给应用层;应用层包括手机监测和计算机监测,用于接收并显示服务器的处理结果;本发明通过用MobileNetV2网络替代YOLOv5的Darknet结构,用深度可分离卷积替代标准卷积来减少网络参数,提高检测速度与效率,加快网络的收敛。并将CIOU_Loss替换为EIOU_Loss,解决了CIOU中长宽比等比例变化造成的惩罚失效的问题。
Description
技术领域
本发明涉及胶带纸管技术领域,具体为一种基于边缘计算及优化YOLOv5的火灾检测系统。
背景技术
当今社会中,用火不当或各种意外导致的火灾给人们和社会发展造成了很多难以挽回的损失。火灾的防控对公众生活具有重要意义。传统的火灾监测器响应慢且存在信息不完整以及误报率高等问题,给火灾防控带来了很大的挑战。
现已公布的火灾监测方法中已经取得了不错的效果,但是在准确率以及实时性方面还有待提高。近年来,随着深度学习的逐渐兴起,基于机器学习的传统目标检测算法逐渐被基于深度学习的目标检测算法所替代。基于深度学习的目标检测方法大致可以分为两大类:一类是两阶段检测器,最典型的是R-CNN系列,包括R-CNN、Fast R-CNN和Faster R-CNN;另一类是单阶段检测器,包括YOLO、SSD和RetinaNet等。已有的大部分识别方法需要标注,并且时间成本和设备配置要求较高。因此设计一个运算较为简单、功能全面的火灾监测系统有很好的现实意义。
此外,针对云计算的传输延迟大,网络环境要求高等问题,近年来提出了边缘计算的概念,通过部署在靠近设备附近的边缘服务器在解决了传输延迟问题的同时解决了资源浪费的问题。
发明内容
本发明的目的在于提供一种基于边缘计算及优化YOLOV5的火灾检测系统,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:基于边缘计算及优化YOLOV5的火灾检测系统,包括终端层、边缘层和应用层,其特征在于:所述终端层包括监控部分,所述边缘层包括边缘服务器;
所述监控部分包括摄像头、无人机和无人车的小型监控设备,通过监控部分对监控区域进行实时的监测,并将图像传输到边缘服务器;
所述边缘服务器采用YOLOV5目标检测算法,在对图像进行处理后,将结果传递给应用层;
所述应用层包括手机监测和计算机监测,用于接收并显示服务器的处理结果;
所述边缘服务器采用轻量化的网络MobileNetV2替换YOLOV5的Darknet结构,并采用深度可分离卷积替换标准卷积进行火灾检测;
通过将图像数据添加高斯噪声、均值平滑的方式进行扩充,并按照8:1:1的比例将图像数据划分为训练集、测试集和验证集。
优选的,在模型训练时,使用改进的损失函数来迭代更新网络参数,评价模型时,引入评价指标:准确率、召回率和精确率对模型的性能进行评价,并将最优参数设置为最终的模型训练文件。
优选的,所述YOLOV5目标检测算法包括输入端、基准网络Backbone、Neck网络和预测网络Prediction。
优选的,所述输入端表示输入的图片,该阶段通常包含一个图像预处理阶段,即将输入图像缩放到网络的输入大小,并进行归一化等操作。
优选的,所述基准网络为性能优异的分类器网络,该模块用来提取通用的特征,原有的YOLOV5中使用了CSPDarknet53结构。
优选的,所述YOLOV5的Neck网络使用了FPN+PAN结构,在输出端采用了CIOU_Loss作为损失函数。
优选的,所述MobileNetV2体系结构由3×3内核大小的标准卷积组成,产生32个输出映射,还包含19个瓶颈层,实现将3×3深度可分离卷积替换标准卷积。
优选的,所述YOLOV5利用三个尺度的特征图进行检测,每个特征图都需要设定三个尺寸的锚框,总共需要设定九个锚框的尺寸,所述YOLOV5中采用K-means算法对训练集中的真实标注框进行聚类,将九类出现频率最高的标注框作为锚框的尺寸先验,来加速网络的收敛,且采用IoU重新定义距离函数代替欧氏距离:
d(box,centroid)=1-IOU(box,centriod)
其中,为聚类中心,为训练集中每个真实的标注框,IoU为两个矩形框之间的交并比。
优选的,化后的YOLOV5模型采用了EIOU_Loss作为损失函数,其由三部分组成:重叠损失、中心距离损失和宽高损失,可表示为:,
其中,bp和bgt分别表示为预测框和目标框中心点的坐标,d(bp,bgt)表示两者的欧氏距离,wc和hc是预测框和目标框最小外接矩形的宽度和高度,wp和hp代表预测框的宽高,wgt和hgt代表目标框的宽高,d(wp,hp)代表预测框和目标框的宽度差值,d(hp,hgt)代表预测框和目标框的高度差值。
与现有技术相比,本方案设计了基于边缘计算及优化YOLOV5的火灾检测系统:
(1)本发明通过用MobileNetV2网络替代YOLOV5的Darknet结构,用深度可分离卷积替代标准卷积来减少网络参数,提高检测速度与效率,加快网络的收敛。并将CIOU_Loss替换为EIOU_Loss,解决了CIOU中长宽比等比例变化造成的惩罚失效的问题,在原有的基础上进一步提升了检测精度。
(2)并将运算引入到边缘服务器进行计算,提高了网络的利用率,实验表明,本发明的算法相较于传统的YOLOV5算法在精度和速率方面都有很好的提升。
附图说明
图1为本发明中火灾检测系统的系统结构图;
图2为本发明中MobilenetV2神经网络模型结构图;
图3为本发明中优化后的火灾检测结构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1至图3,为本发明提供的第一种技术方案:基于边缘计算及优化YOLOV5的火灾检测系统,包括终端层、边缘层和应用层,其特征在于:所述终端层包括监控部分,所述边缘层包括边缘服务器;
所述监控部分包括摄像头、无人机和无人车的小型监控设备,通过监控部分对监控区域进行实时的监测,并将图像传输到边缘服务器;
所述边缘服务器采用YOLOV5目标检测算法,在对图像进行处理后,将结果传递给应用层;
所述应用层包括手机监测和计算机监测,用于接收并显示服务器的处理结果;
所述边缘服务器采用轻量化的网络MobileNetV2替换YOLOV5的Darknet结构,并采用深度可分离卷积替换标准卷积进行火灾检测;
通过将图像数据添加高斯噪声、均值平滑的方式进行扩充,并按照8:1:1的比例将图像数据划分为训练集、测试集和验证集。
在模型训练时,使用改进的损失函数来迭代更新网络参数,评价模型时,引入评价指标:准确率、召回率和精确率对模型的性能进行评价,并将最优参数设置为最终的模型训练文件。
所述YOLOV5目标检测算法包括输入端、基准网络Backbone、Neck网络和预测网络Prediction。
所述输入端表示输入的图片,该阶段通常包含一个图像预处理阶段,即将输入图像缩放到网络的输入大小,并进行归一化等操作。
所述基准网络为性能优异的分类器网络,该模块用来提取通用的特征,原有的YOLOV5中使用了CSPDarknet53结构。
所述YOLOV5的Neck网络使用了FPN+PAN结构,在输出端采用了CIOU_Loss作为损失函数;
MobileNetV2代替了YOLOV5的Darknet结构,如图2和图3,它使用了一个新的激活函数ReLU6,比起ReLU激活函数,ReLU6限制后的最大输出为6,主要目的是避免在便携式设备或移动设备上,使用低精度的float16造成的精度损失,从而影响分类特征的提取与描述,进而影响准确率,ReLU6表达式如下:y=ReLU6(x)=min(max(x,0),6);
MobileNetV2采用了深度可分离卷积,即使用深度卷积操作和逐点卷积操作取代标准卷积操作。相比于标准卷积,深度可分离卷积可以实现使用更少的参数,更少的运算,达到较好的识别效果。
所述MobileNetV2体系结构由3×3内核大小的标准卷积组成,产生32个输出映射,还包含19个瓶颈层,实现将3×3深度可分离卷积替换标准卷积;
MobileNetV2的核心是逆残差结构,实现了对于特征的复用,减小了模型的体积与计算量。在之前的ResNet残差结构中是先用1×1的卷积降维,再升维的操作。而再MobileNetV2中,是先升维再降维的操作。针对逆残差结构中,最后一层的卷积层,采用了线性的激活函数,而不是ReLU激活函数。ReLU激活函数对于低维的信息可能会造成比较大的瞬损失,而对于高维的特征信息造成的损失很小。由于倒残差结构是两头小中间大,所以输出的是一个低维的特征信息。所以使用一个线性的激活函数避免特征损失。
所述YOLOV5利用三个尺度的特征图进行检测,每个特征图都需要设定三个尺寸的锚框,总共需要设定九个锚框的尺寸,所述YOLOV5中采用K-means算法对训练集中的真实标注框进行聚类,将九类出现频率最高的标注框作为锚框的尺寸先验,来加速网络的收敛,且采用IoU重新定义距离函数代替欧氏距离:
d(box,centroid)=1-IOU(box,centriod)
其中,为聚类中心,为训练集中每个真实的标注框,IoU为两个矩形框之间的交并比。
优化后的YOLOV5模型采用了EIOU_Loss作为损失函数,其由三部分组成:重叠损失、中心距离损失和宽高损失,可表示为:
其中,bp和bgt分别表示为预测框和目标框中心点的坐标,d(bp,bgt)表示两者的欧氏距离,wc和hc是预测框和目标框最小外接矩形的宽度和高度,wp和hp代表预测框的宽高,wgt和hgt代表目标框的宽高,d(wp,hp)代表预测框和目标框的宽度差值,d(hp,hgt)代表预测框和目标框的高度差值。
所述YOLOV5中采用K-means算法对训练集中的真实标注框进行聚类,将九类出现频率最高的标注框作为锚框的尺寸先验,来加速网络的收敛。YOLOV5中这九类锚框默认的尺寸为10×13、16×30、32×23、30×61、62×45、59×119、116×90、156×198和373×326。
K-means算法的主要步骤是:,
步骤(1)初始化类别数量和聚类中心,这里类别为9类,聚类中心为真实标注框的宽高(Wi,Hi);
步骤(2)计算每个真实标注框与所有聚类中心的距离,将每个标注框分配给距离最近的聚类中心(Wi *,Hi *);
其中,wi和hi代表标注框的宽高,重复步骤(2)和(3),直至类别簇的中心位置不再发生变化。
步骤(3)将所有的标注框分配完后,重新计算每个类别簇的聚类中心。
聚类得到的九类锚框按尺度分配给三个特征层,由于低分辨率的特征图对应的感受越大,映射到原图中对应的锚框尺寸越大;反之,高分辨率的特征图对应的锚框尺寸小。
在损失函数的设计上,本发明用EIOU_Loss代替了CIOU_Loss,CIOU_Loss的表达式如下:
其中,do为目标框与预测框的中心点欧氏距离,dc为目标框的对角线距离,V是衡量长宽比一致性的参数,其定义为:
其中,wp和hgt代表预测框的宽高,wgt和hgt代表目标框的宽高。
本发明在windows10系统下完成,神经网络的训练参数如下:学习率Learningrate=0.0001、训练批次epoch=20、批大小batch_size=32、优化器为Adam。
为验证优化后的YOLOV5算法性能,本发明引入了四个评价指标:准确率、召回率、精确率和平均精度。
准确率是预测正确的结果占所有样本的比重,其表达式为:
其中,TP表示所有正样本中预测为正样本的样本;FP表示所有负样本中预测为正样本的样本;FN表示所有正样本预测为负样本的样本;TN表示所有负样本中预测为负样本的样本.
召回率是预测正确的正样本数占实际正样本数的比重,其表达式为:
精确率是预测正样本中实际为正样本的概率,其表达式为:
平均精度表示每个类检测好坏的结果。召回率被当作横坐标,精确率被当作纵坐标,表示P-R曲线下方的面积,AP值越高表明模型的平均准确率越高。AP的计算公式如下所示:
结合评价指标,计算精确率、召回率和平均准确率,消融实验评价结果表1。
表1消融实验
从实验结果可以看出,分别采用两种优化方案都可以在原有基础上提高整体性能,但是在整个实验中,本发明所用到的方法在四种情况下效果是最好的,可以更精确且快速的识别火灾情况。
在以往的火灾检测中,在终端设备采集到实时数据后都是传送到云端进行处理,但是实际情况中,云端距离应用设备较远,且计算量庞大,在这个过程中造成的时延是巨大的,无法满足火灾检测实时性的要求。基于以上情况,边缘计算应运而生,边缘服务器由于部署在应用设备附近,在更靠近网络的一侧进行数据的运算与处理,这在很大程度上减少了时延,提升了用户体验。本发明考虑了一个基于边缘计算的火灾检测系统。终端设备对周边情况进行实时采集,将数据传输给部署在附近的边缘服务器节点,边缘层利用训练好的神经网络模型对数据进行分析与处理,最后将结果传输给应用层的用户设备。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
Claims (9)
1.基于边缘计算及优化YOLOV5的火灾检测系统,包括终端层、边缘层和应用层,其特征在于:所述终端层包括监控部分,所述边缘层包括边缘服务器;
所述监控部分包括摄像头、无人机和无人车的小型监控设备,通过监控部分对监控区域进行实时的监测,并将图像传输到边缘服务器;
所述边缘服务器采用YOLOV5目标检测算法,在对图像进行处理后,将结果传递给应用层;
所述应用层包括手机监测和计算机监测,用于接收并显示服务器的处理结果;
所述边缘服务器采用轻量化的网络MobileNetV2替换YOLOV5的Darknet结构,并采用深度可分离卷积替换标准卷积进行火灾检测;
通过将图像数据添加高斯噪声、均值平滑的方式进行扩充,并按照8:1:1的比例将图像数据划分为训练集、测试集和验证集。
2.根据权利要求1所述的基于边缘计算及优化YOLOV5的火灾检测系统,其特征在于:在模型训练时,使用改进的损失函数来迭代更新网络参数,评价模型时,引入评价指标:准确率、召回率和精确率对模型的性能进行评价,并将最优参数设置为最终的模型训练文件。
3.根据权利要求1所述的基于边缘计算及优化YOLOV5的火灾检测系统,其特征在于:所述YOLOV5目标检测算法包括输入端、基准网络Backbone、Neck网络和预测网络Prediction。
4.根据权利要求3所述的基于边缘计算及优化YOLOV5的火灾检测系统,其特征在于:所述输入端表示输入的图片,该阶段通常包含一个图像预处理阶段,即将输入图像缩放到网络的输入大小,并进行归一化等操作。
5.根据权利要求3所述的基于边缘计算及优化YOLOV5的火灾检测系统,其特征在于:所述基准网络为性能优异的分类器网络,该模块用来提取通用的特征,原有的YOLOV5中使用了CSPDarknet53结构。
6.根据权利要求3所述的基于边缘计算及优化YOLOV5的火灾检测系统,其特征在于:所述YOLOV5的Neck网络使用了FPN+PAN结构,在输出端采用了CIOU_Loss作为损失函数。
7.根据权利要求6所述的基于边缘计算及优化YOLOV5的火灾检测系统,其特征在于:所述MobileNetV2体系结构由3×3内核大小的标准卷积组成,产生32个输出映射,还包含19个瓶颈层,实现将3×3深度可分离卷积替换标准卷积。
8.根据权利要求1所述的基于边缘计算及优化YOLOV5的火灾检测系统,其特征在于:所述YOLOV5利用三个尺度的特征图进行检测,每个特征图都需要设定三个尺寸的锚框,总共需要设定九个锚框的尺寸,所述YOLOV5中采用K-means算法对训练集中的真实标注框进行聚类,将九类出现频率最高的标注框作为锚框的尺寸先验,来加速网络的收敛,且采用IoU重新定义距离函数代替欧氏距离:
d(box,centroid)=1-IOU(box,centriod)
其中,为聚类中心,为训练集中每个真实的标注框,IoU为两个矩形框之间的交并比。
9.根据权利要求3所述的基于边缘计算及优化YOLOV5的火灾检测系统,其特征在于:优化后的YOLOV5模型采用了EIOU_Loss作为损失函数,其由三部分组成:重叠损失、中心距离损失和宽高损失,可表示为:,
其中,bp和bgt分别表示为预测框和目标框中心点的坐标,d(bp,bgt)表示两者的欧氏距离,wc和hc是预测框和目标框最小外接矩形的宽度和高度,wp和hp代表预测框的宽高,wgt和hgt代表目标框的宽高,d(wp,hp)代表预测框和目标框的宽度差值,d(hp,hgt)代表预测框和目标框的高度差值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310245796.6A CN116665390A (zh) | 2023-03-15 | 2023-03-15 | 基于边缘计算及优化YOLOv5的火灾检测系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310245796.6A CN116665390A (zh) | 2023-03-15 | 2023-03-15 | 基于边缘计算及优化YOLOv5的火灾检测系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116665390A true CN116665390A (zh) | 2023-08-29 |
Family
ID=87723053
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310245796.6A Pending CN116665390A (zh) | 2023-03-15 | 2023-03-15 | 基于边缘计算及优化YOLOv5的火灾检测系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116665390A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117270545A (zh) * | 2023-11-21 | 2023-12-22 | 合肥工业大学 | 基于卷积神经网络的变电所轮式巡检机器人及方法 |
CN117789395A (zh) * | 2023-12-25 | 2024-03-29 | 北京达美盛软件股份有限公司 | 一种基于事故紧急情况的无人机集群管理系统及方法 |
-
2023
- 2023-03-15 CN CN202310245796.6A patent/CN116665390A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117270545A (zh) * | 2023-11-21 | 2023-12-22 | 合肥工业大学 | 基于卷积神经网络的变电所轮式巡检机器人及方法 |
CN117270545B (zh) * | 2023-11-21 | 2024-03-29 | 合肥工业大学 | 基于卷积神经网络的变电所轮式巡检机器人及方法 |
CN117789395A (zh) * | 2023-12-25 | 2024-03-29 | 北京达美盛软件股份有限公司 | 一种基于事故紧急情况的无人机集群管理系统及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2022083157A1 (zh) | 目标检测方法、装置及电子设备 | |
CN112418117B (zh) | 一种基于无人机图像的小目标检测方法 | |
CN112150821B (zh) | 轻量化车辆检测模型构建方法、系统及装置 | |
CN103605972B (zh) | 一种基于分块深度神经网络的非限制环境人脸验证方法 | |
US11816149B2 (en) | Electronic device and control method thereof | |
CN116665390A (zh) | 基于边缘计算及优化YOLOv5的火灾检测系统 | |
CN113435546B (zh) | 基于区分置信度水平的可迁移图像识别方法及系统 | |
CN108334881B (zh) | 一种基于深度学习的车牌识别方法 | |
CN108537215A (zh) | 一种基于图像目标检测的火焰检测方法 | |
CN111754498A (zh) | 一种基于YOLOv3的传送带托辊检测方法 | |
US11556732B2 (en) | Method for extracting rivet points in large scale three-dimensional point cloud base on deep learning | |
CN110533046B (zh) | 一种图像实例分割方法、装置、计算机可读存储介质及电子设备 | |
CN110751027B (zh) | 一种基于深度多示例学习的行人重识别方法 | |
CN111178451A (zh) | 一种基于YOLOv3网络的车牌检测方法 | |
CN113487610B (zh) | 疱疹图像识别方法、装置、计算机设备和存储介质 | |
CN112991269A (zh) | 一种肺部ct图像的识别分类方法 | |
CN113221956B (zh) | 基于改进的多尺度深度模型的目标识别方法及装置 | |
CN115147380A (zh) | 一种基于YOLOv5的小型透明塑料制品缺陷检测方法 | |
CN112766218A (zh) | 基于非对称联合教学网络的跨域行人重识别方法和装置 | |
CN111507353B (zh) | 一种基于文字识别的中文字段检测方法及系统 | |
CN116152226A (zh) | 基于可融合的特征金字塔的换向器内侧图像缺陷检测方法 | |
CN116543261A (zh) | 用于图像识别的模型训练方法、图像识别方法设备及介质 | |
CN115578739A (zh) | 结合rpa和ai实现ia的分类模型的训练方法及装置 | |
CN111461010A (zh) | 一种基于模板跟踪的电力设备识别效率优化方法 | |
CN118230354A (zh) | 一种基于改进YOLOv5的复杂场景下手语识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |