CN116665390A - 基于边缘计算及优化YOLOv5的火灾检测系统 - Google Patents

基于边缘计算及优化YOLOv5的火灾检测系统 Download PDF

Info

Publication number
CN116665390A
CN116665390A CN202310245796.6A CN202310245796A CN116665390A CN 116665390 A CN116665390 A CN 116665390A CN 202310245796 A CN202310245796 A CN 202310245796A CN 116665390 A CN116665390 A CN 116665390A
Authority
CN
China
Prior art keywords
yolov5
edge
network
fire detection
detection system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310245796.6A
Other languages
English (en)
Inventor
王义君
吕婧莹
王金泉
金子扬
陈桂芬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changchun University of Science and Technology
Original Assignee
Changchun University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changchun University of Science and Technology filed Critical Changchun University of Science and Technology
Priority to CN202310245796.6A priority Critical patent/CN116665390A/zh
Publication of CN116665390A publication Critical patent/CN116665390A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B17/00Fire alarms; Alarms responsive to explosion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • G06V10/763Non-hierarchical techniques, e.g. based on statistics of modelling distributions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B17/00Fire alarms; Alarms responsive to explosion
    • G08B17/12Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions
    • G08B17/125Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions by using a video camera to detect fire or smoke
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Emergency Management (AREA)
  • Business, Economics & Management (AREA)
  • Probability & Statistics with Applications (AREA)
  • Alarm Systems (AREA)

Abstract

本发明公开了基于边缘计算及优化YOLOv5的火灾检测系统,包括终端层、边缘层和应用层,终端层包括监控部分,边缘层包括边缘服务器;监控部分包括摄像头、无人机和无人车的小型监控设备,通过监控部分对监控区域进行实时的监测,并将图像传输到边缘服务器;边缘服务器采用YOLOv5目标检测算法,在对图像进行处理后,将结果传递给应用层;应用层包括手机监测和计算机监测,用于接收并显示服务器的处理结果;本发明通过用MobileNetV2网络替代YOLOv5的Darknet结构,用深度可分离卷积替代标准卷积来减少网络参数,提高检测速度与效率,加快网络的收敛。并将CIOU_Loss替换为EIOU_Loss,解决了CIOU中长宽比等比例变化造成的惩罚失效的问题。

Description

基于边缘计算及优化YOLOv5的火灾检测系统
技术领域
本发明涉及胶带纸管技术领域,具体为一种基于边缘计算及优化YOLOv5的火灾检测系统。
背景技术
当今社会中,用火不当或各种意外导致的火灾给人们和社会发展造成了很多难以挽回的损失。火灾的防控对公众生活具有重要意义。传统的火灾监测器响应慢且存在信息不完整以及误报率高等问题,给火灾防控带来了很大的挑战。
现已公布的火灾监测方法中已经取得了不错的效果,但是在准确率以及实时性方面还有待提高。近年来,随着深度学习的逐渐兴起,基于机器学习的传统目标检测算法逐渐被基于深度学习的目标检测算法所替代。基于深度学习的目标检测方法大致可以分为两大类:一类是两阶段检测器,最典型的是R-CNN系列,包括R-CNN、Fast R-CNN和Faster R-CNN;另一类是单阶段检测器,包括YOLO、SSD和RetinaNet等。已有的大部分识别方法需要标注,并且时间成本和设备配置要求较高。因此设计一个运算较为简单、功能全面的火灾监测系统有很好的现实意义。
此外,针对云计算的传输延迟大,网络环境要求高等问题,近年来提出了边缘计算的概念,通过部署在靠近设备附近的边缘服务器在解决了传输延迟问题的同时解决了资源浪费的问题。
发明内容
本发明的目的在于提供一种基于边缘计算及优化YOLOV5的火灾检测系统,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:基于边缘计算及优化YOLOV5的火灾检测系统,包括终端层、边缘层和应用层,其特征在于:所述终端层包括监控部分,所述边缘层包括边缘服务器;
所述监控部分包括摄像头、无人机和无人车的小型监控设备,通过监控部分对监控区域进行实时的监测,并将图像传输到边缘服务器;
所述边缘服务器采用YOLOV5目标检测算法,在对图像进行处理后,将结果传递给应用层;
所述应用层包括手机监测和计算机监测,用于接收并显示服务器的处理结果;
所述边缘服务器采用轻量化的网络MobileNetV2替换YOLOV5的Darknet结构,并采用深度可分离卷积替换标准卷积进行火灾检测;
通过将图像数据添加高斯噪声、均值平滑的方式进行扩充,并按照8:1:1的比例将图像数据划分为训练集、测试集和验证集。
优选的,在模型训练时,使用改进的损失函数来迭代更新网络参数,评价模型时,引入评价指标:准确率、召回率和精确率对模型的性能进行评价,并将最优参数设置为最终的模型训练文件。
优选的,所述YOLOV5目标检测算法包括输入端、基准网络Backbone、Neck网络和预测网络Prediction。
优选的,所述输入端表示输入的图片,该阶段通常包含一个图像预处理阶段,即将输入图像缩放到网络的输入大小,并进行归一化等操作。
优选的,所述基准网络为性能优异的分类器网络,该模块用来提取通用的特征,原有的YOLOV5中使用了CSPDarknet53结构。
优选的,所述YOLOV5的Neck网络使用了FPN+PAN结构,在输出端采用了CIOU_Loss作为损失函数。
优选的,所述MobileNetV2体系结构由3×3内核大小的标准卷积组成,产生32个输出映射,还包含19个瓶颈层,实现将3×3深度可分离卷积替换标准卷积。
优选的,所述YOLOV5利用三个尺度的特征图进行检测,每个特征图都需要设定三个尺寸的锚框,总共需要设定九个锚框的尺寸,所述YOLOV5中采用K-means算法对训练集中的真实标注框进行聚类,将九类出现频率最高的标注框作为锚框的尺寸先验,来加速网络的收敛,且采用IoU重新定义距离函数代替欧氏距离:
d(box,centroid)=1-IOU(box,centriod)
其中,为聚类中心,为训练集中每个真实的标注框,IoU为两个矩形框之间的交并比。
优选的,化后的YOLOV5模型采用了EIOU_Loss作为损失函数,其由三部分组成:重叠损失、中心距离损失和宽高损失,可表示为:,
其中,bp和bgt分别表示为预测框和目标框中心点的坐标,d(bp,bgt)表示两者的欧氏距离,wc和hc是预测框和目标框最小外接矩形的宽度和高度,wp和hp代表预测框的宽高,wgt和hgt代表目标框的宽高,d(wp,hp)代表预测框和目标框的宽度差值,d(hp,hgt)代表预测框和目标框的高度差值。
与现有技术相比,本方案设计了基于边缘计算及优化YOLOV5的火灾检测系统:
(1)本发明通过用MobileNetV2网络替代YOLOV5的Darknet结构,用深度可分离卷积替代标准卷积来减少网络参数,提高检测速度与效率,加快网络的收敛。并将CIOU_Loss替换为EIOU_Loss,解决了CIOU中长宽比等比例变化造成的惩罚失效的问题,在原有的基础上进一步提升了检测精度。
(2)并将运算引入到边缘服务器进行计算,提高了网络的利用率,实验表明,本发明的算法相较于传统的YOLOV5算法在精度和速率方面都有很好的提升。
附图说明
图1为本发明中火灾检测系统的系统结构图;
图2为本发明中MobilenetV2神经网络模型结构图;
图3为本发明中优化后的火灾检测结构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1至图3,为本发明提供的第一种技术方案:基于边缘计算及优化YOLOV5的火灾检测系统,包括终端层、边缘层和应用层,其特征在于:所述终端层包括监控部分,所述边缘层包括边缘服务器;
所述监控部分包括摄像头、无人机和无人车的小型监控设备,通过监控部分对监控区域进行实时的监测,并将图像传输到边缘服务器;
所述边缘服务器采用YOLOV5目标检测算法,在对图像进行处理后,将结果传递给应用层;
所述应用层包括手机监测和计算机监测,用于接收并显示服务器的处理结果;
所述边缘服务器采用轻量化的网络MobileNetV2替换YOLOV5的Darknet结构,并采用深度可分离卷积替换标准卷积进行火灾检测;
通过将图像数据添加高斯噪声、均值平滑的方式进行扩充,并按照8:1:1的比例将图像数据划分为训练集、测试集和验证集。
在模型训练时,使用改进的损失函数来迭代更新网络参数,评价模型时,引入评价指标:准确率、召回率和精确率对模型的性能进行评价,并将最优参数设置为最终的模型训练文件。
所述YOLOV5目标检测算法包括输入端、基准网络Backbone、Neck网络和预测网络Prediction。
所述输入端表示输入的图片,该阶段通常包含一个图像预处理阶段,即将输入图像缩放到网络的输入大小,并进行归一化等操作。
所述基准网络为性能优异的分类器网络,该模块用来提取通用的特征,原有的YOLOV5中使用了CSPDarknet53结构。
所述YOLOV5的Neck网络使用了FPN+PAN结构,在输出端采用了CIOU_Loss作为损失函数;
MobileNetV2代替了YOLOV5的Darknet结构,如图2和图3,它使用了一个新的激活函数ReLU6,比起ReLU激活函数,ReLU6限制后的最大输出为6,主要目的是避免在便携式设备或移动设备上,使用低精度的float16造成的精度损失,从而影响分类特征的提取与描述,进而影响准确率,ReLU6表达式如下:y=ReLU6(x)=min(max(x,0),6);
MobileNetV2采用了深度可分离卷积,即使用深度卷积操作和逐点卷积操作取代标准卷积操作。相比于标准卷积,深度可分离卷积可以实现使用更少的参数,更少的运算,达到较好的识别效果。
所述MobileNetV2体系结构由3×3内核大小的标准卷积组成,产生32个输出映射,还包含19个瓶颈层,实现将3×3深度可分离卷积替换标准卷积;
MobileNetV2的核心是逆残差结构,实现了对于特征的复用,减小了模型的体积与计算量。在之前的ResNet残差结构中是先用1×1的卷积降维,再升维的操作。而再MobileNetV2中,是先升维再降维的操作。针对逆残差结构中,最后一层的卷积层,采用了线性的激活函数,而不是ReLU激活函数。ReLU激活函数对于低维的信息可能会造成比较大的瞬损失,而对于高维的特征信息造成的损失很小。由于倒残差结构是两头小中间大,所以输出的是一个低维的特征信息。所以使用一个线性的激活函数避免特征损失。
所述YOLOV5利用三个尺度的特征图进行检测,每个特征图都需要设定三个尺寸的锚框,总共需要设定九个锚框的尺寸,所述YOLOV5中采用K-means算法对训练集中的真实标注框进行聚类,将九类出现频率最高的标注框作为锚框的尺寸先验,来加速网络的收敛,且采用IoU重新定义距离函数代替欧氏距离:
d(box,centroid)=1-IOU(box,centriod)
其中,为聚类中心,为训练集中每个真实的标注框,IoU为两个矩形框之间的交并比。
优化后的YOLOV5模型采用了EIOU_Loss作为损失函数,其由三部分组成:重叠损失、中心距离损失和宽高损失,可表示为:
其中,bp和bgt分别表示为预测框和目标框中心点的坐标,d(bp,bgt)表示两者的欧氏距离,wc和hc是预测框和目标框最小外接矩形的宽度和高度,wp和hp代表预测框的宽高,wgt和hgt代表目标框的宽高,d(wp,hp)代表预测框和目标框的宽度差值,d(hp,hgt)代表预测框和目标框的高度差值。
所述YOLOV5中采用K-means算法对训练集中的真实标注框进行聚类,将九类出现频率最高的标注框作为锚框的尺寸先验,来加速网络的收敛。YOLOV5中这九类锚框默认的尺寸为10×13、16×30、32×23、30×61、62×45、59×119、116×90、156×198和373×326。
K-means算法的主要步骤是:,
步骤(1)初始化类别数量和聚类中心,这里类别为9类,聚类中心为真实标注框的宽高(Wi,Hi);
步骤(2)计算每个真实标注框与所有聚类中心的距离,将每个标注框分配给距离最近的聚类中心(Wi *,Hi *);
其中,wi和hi代表标注框的宽高,重复步骤(2)和(3),直至类别簇的中心位置不再发生变化。
步骤(3)将所有的标注框分配完后,重新计算每个类别簇的聚类中心。
聚类得到的九类锚框按尺度分配给三个特征层,由于低分辨率的特征图对应的感受越大,映射到原图中对应的锚框尺寸越大;反之,高分辨率的特征图对应的锚框尺寸小。
在损失函数的设计上,本发明用EIOU_Loss代替了CIOU_Loss,CIOU_Loss的表达式如下:
其中,do为目标框与预测框的中心点欧氏距离,dc为目标框的对角线距离,V是衡量长宽比一致性的参数,其定义为:
其中,wp和hgt代表预测框的宽高,wgt和hgt代表目标框的宽高。
本发明在windows10系统下完成,神经网络的训练参数如下:学习率Learningrate=0.0001、训练批次epoch=20、批大小batch_size=32、优化器为Adam。
为验证优化后的YOLOV5算法性能,本发明引入了四个评价指标:准确率、召回率、精确率和平均精度。
准确率是预测正确的结果占所有样本的比重,其表达式为:
其中,TP表示所有正样本中预测为正样本的样本;FP表示所有负样本中预测为正样本的样本;FN表示所有正样本预测为负样本的样本;TN表示所有负样本中预测为负样本的样本.
召回率是预测正确的正样本数占实际正样本数的比重,其表达式为:
精确率是预测正样本中实际为正样本的概率,其表达式为:
平均精度表示每个类检测好坏的结果。召回率被当作横坐标,精确率被当作纵坐标,表示P-R曲线下方的面积,AP值越高表明模型的平均准确率越高。AP的计算公式如下所示:
结合评价指标,计算精确率、召回率和平均准确率,消融实验评价结果表1。
表1消融实验
从实验结果可以看出,分别采用两种优化方案都可以在原有基础上提高整体性能,但是在整个实验中,本发明所用到的方法在四种情况下效果是最好的,可以更精确且快速的识别火灾情况。
在以往的火灾检测中,在终端设备采集到实时数据后都是传送到云端进行处理,但是实际情况中,云端距离应用设备较远,且计算量庞大,在这个过程中造成的时延是巨大的,无法满足火灾检测实时性的要求。基于以上情况,边缘计算应运而生,边缘服务器由于部署在应用设备附近,在更靠近网络的一侧进行数据的运算与处理,这在很大程度上减少了时延,提升了用户体验。本发明考虑了一个基于边缘计算的火灾检测系统。终端设备对周边情况进行实时采集,将数据传输给部署在附近的边缘服务器节点,边缘层利用训练好的神经网络模型对数据进行分析与处理,最后将结果传输给应用层的用户设备。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。

Claims (9)

1.基于边缘计算及优化YOLOV5的火灾检测系统,包括终端层、边缘层和应用层,其特征在于:所述终端层包括监控部分,所述边缘层包括边缘服务器;
所述监控部分包括摄像头、无人机和无人车的小型监控设备,通过监控部分对监控区域进行实时的监测,并将图像传输到边缘服务器;
所述边缘服务器采用YOLOV5目标检测算法,在对图像进行处理后,将结果传递给应用层;
所述应用层包括手机监测和计算机监测,用于接收并显示服务器的处理结果;
所述边缘服务器采用轻量化的网络MobileNetV2替换YOLOV5的Darknet结构,并采用深度可分离卷积替换标准卷积进行火灾检测;
通过将图像数据添加高斯噪声、均值平滑的方式进行扩充,并按照8:1:1的比例将图像数据划分为训练集、测试集和验证集。
2.根据权利要求1所述的基于边缘计算及优化YOLOV5的火灾检测系统,其特征在于:在模型训练时,使用改进的损失函数来迭代更新网络参数,评价模型时,引入评价指标:准确率、召回率和精确率对模型的性能进行评价,并将最优参数设置为最终的模型训练文件。
3.根据权利要求1所述的基于边缘计算及优化YOLOV5的火灾检测系统,其特征在于:所述YOLOV5目标检测算法包括输入端、基准网络Backbone、Neck网络和预测网络Prediction。
4.根据权利要求3所述的基于边缘计算及优化YOLOV5的火灾检测系统,其特征在于:所述输入端表示输入的图片,该阶段通常包含一个图像预处理阶段,即将输入图像缩放到网络的输入大小,并进行归一化等操作。
5.根据权利要求3所述的基于边缘计算及优化YOLOV5的火灾检测系统,其特征在于:所述基准网络为性能优异的分类器网络,该模块用来提取通用的特征,原有的YOLOV5中使用了CSPDarknet53结构。
6.根据权利要求3所述的基于边缘计算及优化YOLOV5的火灾检测系统,其特征在于:所述YOLOV5的Neck网络使用了FPN+PAN结构,在输出端采用了CIOU_Loss作为损失函数。
7.根据权利要求6所述的基于边缘计算及优化YOLOV5的火灾检测系统,其特征在于:所述MobileNetV2体系结构由3×3内核大小的标准卷积组成,产生32个输出映射,还包含19个瓶颈层,实现将3×3深度可分离卷积替换标准卷积。
8.根据权利要求1所述的基于边缘计算及优化YOLOV5的火灾检测系统,其特征在于:所述YOLOV5利用三个尺度的特征图进行检测,每个特征图都需要设定三个尺寸的锚框,总共需要设定九个锚框的尺寸,所述YOLOV5中采用K-means算法对训练集中的真实标注框进行聚类,将九类出现频率最高的标注框作为锚框的尺寸先验,来加速网络的收敛,且采用IoU重新定义距离函数代替欧氏距离:
d(box,centroid)=1-IOU(box,centriod)
其中,为聚类中心,为训练集中每个真实的标注框,IoU为两个矩形框之间的交并比。
9.根据权利要求3所述的基于边缘计算及优化YOLOV5的火灾检测系统,其特征在于:优化后的YOLOV5模型采用了EIOU_Loss作为损失函数,其由三部分组成:重叠损失、中心距离损失和宽高损失,可表示为:,
其中,bp和bgt分别表示为预测框和目标框中心点的坐标,d(bp,bgt)表示两者的欧氏距离,wc和hc是预测框和目标框最小外接矩形的宽度和高度,wp和hp代表预测框的宽高,wgt和hgt代表目标框的宽高,d(wp,hp)代表预测框和目标框的宽度差值,d(hp,hgt)代表预测框和目标框的高度差值。
CN202310245796.6A 2023-03-15 2023-03-15 基于边缘计算及优化YOLOv5的火灾检测系统 Pending CN116665390A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310245796.6A CN116665390A (zh) 2023-03-15 2023-03-15 基于边缘计算及优化YOLOv5的火灾检测系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310245796.6A CN116665390A (zh) 2023-03-15 2023-03-15 基于边缘计算及优化YOLOv5的火灾检测系统

Publications (1)

Publication Number Publication Date
CN116665390A true CN116665390A (zh) 2023-08-29

Family

ID=87723053

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310245796.6A Pending CN116665390A (zh) 2023-03-15 2023-03-15 基于边缘计算及优化YOLOv5的火灾检测系统

Country Status (1)

Country Link
CN (1) CN116665390A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117270545A (zh) * 2023-11-21 2023-12-22 合肥工业大学 基于卷积神经网络的变电所轮式巡检机器人及方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117270545A (zh) * 2023-11-21 2023-12-22 合肥工业大学 基于卷积神经网络的变电所轮式巡检机器人及方法
CN117270545B (zh) * 2023-11-21 2024-03-29 合肥工业大学 基于卷积神经网络的变电所轮式巡检机器人及方法

Similar Documents

Publication Publication Date Title
WO2022083157A1 (zh) 目标检测方法、装置及电子设备
CN112418117B (zh) 一种基于无人机图像的小目标检测方法
US20190272438A1 (en) Method and apparatus for detecting text
CN112150821B (zh) 轻量化车辆检测模型构建方法、系统及装置
CN113435546B (zh) 基于区分置信度水平的可迁移图像识别方法及系统
CN111754498A (zh) 一种基于YOLOv3的传送带托辊检测方法
US11816149B2 (en) Electronic device and control method thereof
CN111368636B (zh) 目标分类方法、装置、计算机设备和存储介质
US11556732B2 (en) Method for extracting rivet points in large scale three-dimensional point cloud base on deep learning
CN110533046B (zh) 一种图像实例分割方法、装置、计算机可读存储介质及电子设备
CN110751027B (zh) 一种基于深度多示例学习的行人重识别方法
CN112991269A (zh) 一种肺部ct图像的识别分类方法
CN111178451A (zh) 一种基于YOLOv3网络的车牌检测方法
CN113221956B (zh) 基于改进的多尺度深度模型的目标识别方法及装置
CN112766218A (zh) 基于非对称联合教学网络的跨域行人重识别方法和装置
CN111507353B (zh) 一种基于文字识别的中文字段检测方法及系统
CN116665390A (zh) 基于边缘计算及优化YOLOv5的火灾检测系统
CN115147380A (zh) 一种基于YOLOv5的小型透明塑料制品缺陷检测方法
CN116543261A (zh) 用于图像识别的模型训练方法、图像识别方法设备及介质
CN116152226A (zh) 基于可融合的特征金字塔的换向器内侧图像缺陷检测方法
CN113487610B (zh) 疱疹图像识别方法、装置、计算机设备和存储介质
CN111461010A (zh) 一种基于模板跟踪的电力设备识别效率优化方法
CN112784494B (zh) 假阳性识别模型的训练方法、目标识别方法及装置
CN117218545A (zh) 基于LBP特征与改进Yolov5的雷达图像检测方法
CN110163081A (zh) 基于ssd的实时区域入侵检测方法、系统及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination