CN112633174B - 一种基于改进的YOLOv4高穹顶场景下火灾检测方法、存储介质 - Google Patents

一种基于改进的YOLOv4高穹顶场景下火灾检测方法、存储介质 Download PDF

Info

Publication number
CN112633174B
CN112633174B CN202011547351.6A CN202011547351A CN112633174B CN 112633174 B CN112633174 B CN 112633174B CN 202011547351 A CN202011547351 A CN 202011547351A CN 112633174 B CN112633174 B CN 112633174B
Authority
CN
China
Prior art keywords
yolov4
loss function
model
dome
improved
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011547351.6A
Other languages
English (en)
Other versions
CN112633174A (zh
Inventor
匡平
黄泓毓
李凡
彭江艳
高宇
刘晨阳
段其鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202011547351.6A priority Critical patent/CN112633174B/zh
Publication of CN112633174A publication Critical patent/CN112633174A/zh
Application granted granted Critical
Publication of CN112633174B publication Critical patent/CN112633174B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Fire-Detection Mechanisms (AREA)

Abstract

本发明属于图像信息处理技术领域,具体公开了一种基于改进的YOLOv4高穹顶场景下火灾检测方法、存储介质,方法包括对YOLOv4模型进行改进,在YOLOv3损失函数的基础上添加原有YOLOv4损失函数的CIOU loss分支得到新的损失函数,并引入新的参数作为惩罚项;运用预先采集的训练数据集,并利用微调后的模型参数对改进后的YOLOv4模型进行训练,得到训练好的模型;将待检测视频逐帧输入训练好的模型,通过输出结果的置信度是否达到设定的阈值,来判断当前视频帧中有无火灾。本方法是一种新的应用于高穹顶场景下的火灾检测方法,并且在普通场景下具有适用性,大大提高了检测精度。

Description

一种基于改进的YOLOv4高穹顶场景下火灾检测方法、存储 介质
技术领域
本发明涉及图像信息处理技术领域,特别涉及一种基于改进的YOLOv4高穹顶场景下火灾检测方法、存储介质。
背景技术
火灾在人们日常生活中频繁发生且危害巨大,近些年来基于视频监控平台的图像型火灾检测技术开始备受研究者的关注并不断发展。相较于基于温度、烟雾等火灾参数传感器的传统火灾检测技术,其检测速度快、检测范围广、报警信息丰富、受环境因素影响小,因此具有重要的研究意义。
然而,早期图像型火灾检测技术多是基于人工选取特征,再结合浅层机器学习分类器模型加以训练,最后对图像中的目标做分类和识别。一方面,人工选取特征过于依赖专家的先验知识,与此同时很难寻找到一种或多种足以描述火焰本质的特征,特征选取的合适与否将直接影响到模型的分类效果,并且特征的计算方法大多都采取设定启发式阈值的方法,因此模型的泛化能力有限,鲁棒性不佳;另一方面,浅层机器学习模型学习的特征较为表面,模型的表达能力不足,此外,更丰富的数据集也无法带来其分类性能的显著提升。
为了解决上述问题,现有技术中有采用深度卷积神经网络,应用于图像型火灾检测技术,但是现有的检测模型进行检测时,由于火焰的标注问题引发的较高的损失值从而导致模型损失精度,检测精度较低,且对于高穹顶场景下的火灾检测目前还未有相关的检测方法。
发明内容
本发明主要提供一种基于改进的YOLOv4高穹顶场景下火灾检测方法,能够实现对于高穹顶场景下的火灾检测,同时解决了现有检测方法模型损失精度导致检测精度较低的问题。
提供一种基于改进的YOLOv4高穹顶场景下火灾检测方法,所述方法包括以下内容:
对YOLOv4模型进行改进,包括在YOLOv3损失函数的基础上添加原有YOLOv4损失函数的CIOU loss分支得到新的损失函数,并引入新的参数作为惩罚项;
运用预先采集的训练数据集,对改进后的YOLOv4模型进行训练,得到训练好的模型;
将待检测视频逐帧输入训练好的模型,通过输出结果的置信度是否达到设定的阈值,来判断当前视频帧中有无火灾。
优选地,一种基于改进的YOLOv4高穹顶场景下火灾检测方法,所述训练数据集包括火灾前期视频以及在模拟环境中的火灾视频。
优选地,一种基于改进的YOLOv4高穹顶场景下火灾检测方法,对所述训练数据集中的视频进行切帧并标注。
优选地,一种基于改进的YOLOv4高穹顶场景下火灾检测方法,对所述改进后的YOLOv4模型进行训练之前还包括数据增强步骤,所述数据增强包括在YOLOv4模型的输入端采用Mosaic数据增强对所述训练数据集进行数据增强。
优选地,一种基于改进的YOLOv4高穹顶场景下火灾检测方法,所述数据增强还包括采用Mosaic数据增强的同时加入易误检样本库到所述训练数据集中。
优选地,一种基于改进的YOLOv4高穹顶场景下火灾检测方法,所述对改进后的YOLOv4模型进行训练时,使用所述易误检样本库进行迭代重复训练。
优选地,一种基于改进的YOLOv4高穹顶场景下火灾检测方法,所述新的损失函数包括回归框损失函数、置信度损失函数以及分类损失函数,所述回归框损失函数为:
Figure BDA0002856037390000031
其中,λcoord是YOLOv3中使用的回归框损失函数分支的权重,λIoU是YOLOv4中使用的回归框损失函数分支的权重,β是作为惩罚项的参数,S2表示的是网格单元数,B表示每个网格,
Figure BDA0002856037390000032
表示对第i个网格中的第j个回归框是否负责这个object进行判断,
Figure BDA0002856037390000033
是指经过模型预测的预测框中心点的横纵坐标以及预测框的宽度与高度,(xi,yi,wi,hi)是指图片标注的目标框中心点的横纵坐标以及目标框的宽度与高度;IoU指交并比,b表示预测框B的中心点,bgt表示目标框Bgt的中心点,ρ(·)表示欧式距离,c表示B和Bgt的最小外界矩形的对角线距离,α是用来做trade-off的参数,v是用来衡量长宽比一致性的参数。
优选地,一种基于改进的YOLOv4高穹顶场景下火灾检测方法,若火焰物体被检测到位于第i个网格中的第j个回归框里,
Figure BDA0002856037390000034
否则为0。
优选地,一种基于改进的YOLOv4高穹顶场景下火灾检测方法,所述对改进后的YOLOv4模型进行训练时包括调整改进后的YOLOv4的模型参数,所述模型参数根据识别任务和场景进行设置和修改,包括调整图片输入大小以及设置训练的超参数。
本发明提供一种存储介质,其上存储有能够执行一种基于改进的YOLOv4高穹顶场景下火灾检测方法的计算机程序指令。
本发明的有益效果是:(1)区别于现有技术的情况,本发明对YOLOv4模型进行改进,引入λIoU参数并在YOLOv3损失函数的基础上添加原有YOLOv4损失函数的CIOU loss分支得到新的损失函数,并引入新的参数作为惩罚项,能够实现火焰的标注问题引发的模型精度损失较低,更能够正确判断待测视频帧中是否有火焰,大大提高检测的精确度;(2)对改进后的YOLOv4模型进行训练时,使用所述易误检样本库进行迭代重复训练,获得一个既能正确识别正样本又能不误检负样本的较好的模型。
附图说明
图1是本发明一种基于改进的YOLOv4高穹顶场景下火灾检测方法的流程示意图;
图2是本发明中预测框和目标框的示意图;
具体实施方式
为了使本发明的目的、技术方案和有益效果更加清楚和完整,以下实施例结合附图对本发明作进一步地阐述。
实施例1
本发明提供一种基于改进的YOLOv4高穹顶场景下火灾检测方法,方法包括以下内容:
对YOLOv4模型进行改进,包括在YOLOv3损失函数的基础上添加原有YOLOv4损失函数的CIOU loss分支得到新的损失函数,并引入新的参数作为惩罚项;
运用预先采集的训练数据集,对改进后的YOLOv4模型进行训练,得到训练好的模型;
将待检测视频逐帧输入训练好的模型,通过输出结果的置信度是否达到设定的阈值,来判断当前视频帧中有无火灾。
结合图1,该检测方法原理是:首先采集火灾相关视频,构建训练数据集,随后对YOLOv4模型进行改进,使用引入λIoU参数在原有YOLOv3损失函数中添加了CIOU loss分支,可以理解为将YOLOv4使用新的回归框函数作为分支加入到基本的L1损失函数中,此外,考虑到火焰标注的不确定性和火焰图片的难以标注性,即一张有火焰的图片很难说清楚怎么标注才是最正确的,因为火焰长得不像人头这种是比较标准统一的形状,所以对火焰的位置信息标注比较难,所以我们希望在允许范围内尽量让IOU loss低一点,这样可以减少由于火焰的标注问题引发的较高的loss值从而导致模型损失精度,所以引入参数作为惩罚项,使得整个模型更关注于是否能正确判断这一帧视频信息中是否有火焰,进而提高检测的精确度。
进一步地,置信度是模型训练结束后在测试模型或者使用模型时设置输出的参数,可以理解为使用模型进行火焰预测的概率,当检测结果中有火焰物体并且检测出来火焰的概率达到了设定的阈值时则判断为有火灾,反之则无。比如设定的阈值为0.45,那么检测结果中存在置信度大于等于0.45的火焰会被认为此时发生火灾,而低于这个0.45的不会被认为是火灾。这个阈值是可以自调的,如果不希望误报,则可以调高一点,希望不出现任何有火但是不报的情况可以调低一点。
接着对改进后的YOLOv4模型进行训练得到一个好的模型,最后将待检测视频逐帧输入训练好的模型进行检测是否有火灾。
进一步地,一种基于改进的YOLOv4高穹顶场景下火灾检测方法,所述训练数据集包括火灾前期视频以及在模拟环境中的火灾视频。
进一步地,一种基于改进的YOLOv4高穹顶场景下火灾检测方法,对所述训练数据集中的视频进行切帧并标注。
进一步地,一种基于改进的YOLOv4高穹顶场景下火灾检测方法,对所述改进后的YOLOv4模型进行训练之前还包括数据增强步骤,所述数据增强包括在YOLOv4模型的输入端采用Mosaic数据增强对所述训练数据集进行数据增强。还可以对训练数据集的图像进行去噪、平滑滤波等数据处理。
进一步地,一种基于改进的YOLOv4高穹顶场景下火灾检测方法,所述新的损失函数包括回归框损失函数、置信度损失函数以及分类损失函数,可以简单的表示为:新的损失函数=回归框损失函数+置信度损失函数+分类损失函数,其中,改进后的回归框损失函数为:
Figure BDA0002856037390000061
其中,λcoord是YOLOv3中使用的回归框损失函数分支的权重,λIoU是YOLOv4中使用的回归框损失函数分支的权重,β是作为惩罚项的参数,S2表示的是网格单元数,会将一张输入图像划分为S×S个网格,B表示每个网格,它需要预测B个回归框,
Figure BDA0002856037390000071
表示对第i个网格中的第j个回归框是否负责这个object进行判断,
Figure BDA0002856037390000072
是指经过模型预测的预测框中心点的横纵坐标以及预测框的宽度与高度,(xi,yi,wi,hi)是指图片标注的目标框中心点的横纵坐标以及目标框的宽度与高度。
YOLOv3中使用的回归框损失函数为:
Figure BDA0002856037390000073
YOLOv4中使用的CIOU loss分支为:
Figure BDA0002856037390000074
将改进后的回归框损失函数与YOLOv3中使用的回归框损失函数和YOLOv4中使用的CIOU loss分支相比,改进后的回归框损失函数在YOLOv3使用的回归框损失函数的基础上添加原有YOLOv4损失函数的CIOU loss分支,且在添加的CIOU loss分支上引入λIoU参数,同时引入了β参数是作为惩罚项。
CIOU是19年paper提出的技术,且被YOLOv4使用,此外,考虑到IOU loss函数终归是相似的(都是用于计算Bounding box的位置误差),所以选择不是像YOLOv4一样全部换成CIOU,而是作为一个分支加入到YOLOv3的基础上。为了提高模型精度,所以会引入一个λIoU参数,可以根据实验效果来调试其值大小。
引入惩罚项是考虑到火焰标注的不确定性和火焰图片的难以标注性,即一张有火焰的图片很难说清楚怎么标注才是最正确的,因为火焰长得不像人头这种是比较标准统一的形状,所以对火焰的位置信息标注比较难,所以我们希望在允许范围内尽量让IOU loss低一点,这样可以减少由于火焰的标注问题引发的较高的loss值从而导致模型损失精度,所以引入β参数作为惩罚项,我们希望整个模型更关注于是否能正确判断这一帧视频信息中是否有火焰而不是过于关注火焰的位置是不是足够精准。
进一步地,IoU指交并比,是目标检测中最常用的指标,用来评价预测框和目标框的距离,如图2所示,其中框1表示目标框,框2表示预测框,框3表示预测框和目标框两者的最小外界矩形框,b表示预测框的中心点,bgt表示目标框的中心点,ρ(·)表示欧式距离,c表示最小外界矩形的对角线距离。α是用来做trade-off的参数,v是用来衡量长宽比一致性的参数。
进一步地,改进后新的损失函数的置信度损失函数和分类损失函数与原有的YOLOv3中使用的相同,其中,置信度损失函数为:
Figure BDA0002856037390000081
分类损失函数为:
Figure BDA0002856037390000091
Figure BDA0002856037390000092
顾名思义,没有目标,因为不希望没有目标部分(一般是背景部分,在图片中占有率较高)对loss影响过大,同样对
Figure BDA0002856037390000093
增加了权重系数λnoobj以减少没有目标计算部分的贡献权重;
Figure BDA0002856037390000094
和Ci分别表示预测的以及真实的置信度,
Figure BDA0002856037390000095
判断是否有目标的中心处于网格i中,如果网格i中包含目标的中心,就负责预测此目标的类被概率。
进一步地,一种基于改进的YOLOv4高穹顶场景下火灾检测方法,若火焰物体被检测到位于第i个网格中的第j个回归框里,
Figure BDA0002856037390000096
否则为0。
进一步地,一种基于改进的YOLOv4高穹顶场景下火灾检测方法,所述对改进后的YOLOv4模型进行训练时包括调整改进后的YOLOv4的模型参数,所述模型参数根据识别任务和场景进行设置和修改,包括调整图片输入大小以及设置训练的超参数,训练的超参数包括学习率、迭代次数、动量、优化器等。
该实施例还提供一种存储介质,其上存储有能够执行一种基于改进的YOLOv4高穹顶场景下火灾检测方法的计算机程序指令。
实施例2
在实施例1的基础上,进一步地,一种基于改进的YOLOv4高穹顶场景下火灾检测方法,所述数据增强还包括采用Mosaic数据增强的同时加入易误检样本库到所述训练数据集中。
进一步地,一种基于改进的YOLOv4高穹顶场景下火灾检测方法,所述对改进后的YOLOv4模型进行训练时,使用所述易误检样本库进行迭代重复训练。
在训练过程中会使用易误检样本库进行重复训练,可以理解为在迭代次数达到N时,我们对模型进行测试并挑选出易误检样本库D1,将D1加入原有的训练数据集D进行训练,在迭代次数达到第k个N次迭代时,我们对模型再进行上述操作并获得易误检样本库Dk,直至网络收敛获得一个既能正确识别正样本又能不误检负样本的较好的模型,提高了检测的精度。
例如N为10000,那么当迭代到10000轮次时,加入易误检样本库D1到原有的训练数据集D进行训练,然后继续迭代到第20000即第二个N轮次,这时我们使用另一个易误检样本库D2(D2中包括一部分新的易误检数据集和D1中仍然被误检的的数据集)到原有的训练数据集D进行训练,然后继续迭代到第30000即第三个N轮次,这时我们使用另一个易误检样本库D3(D3中包括一部分新的易误检数据集和D2中仍然被误检的的数据集)到原有的训练数据集D(进行训练,……直至第K个N迭代完成后使得网络模型收敛。
以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (10)

1.一种基于改进的YOLOv4高穹顶场景下火灾检测方法,其特征在于,所述方法包括以下内容:
对YOLOv4模型进行改进,包括在YOLOv3损失函数的基础上添加原有YOLOv4损失函数的CIOU loss分支得到新的损失函数,并引入新的参数作为惩罚项;
所述在YOLOv3损失函数的基础上添加原有YOLOv4损失函数的CIOU loss分支得到新的损失函数,并引入新的参数作为惩罚项,包括:
在YOLOv3使用的回归框损失函数的基础上添加原有YOLOv4损失函数的CIOU loss分支,且在添加的CIOU loss分支上引入λ IoU 参数,同时引入了β参数是作为惩罚项;
运用预先采集的训练数据集,对改进后的YOLOv4模型进行训练,得到训练好的模型;
将待检测视频逐帧输入训练好的模型,通过输出结果的置信度是否达到设定的阈值,来判断当前视频帧中有无火灾。
2.根据权利要求1所述的一种基于改进的YOLOv4高穹顶场景下火灾检测方法,其特征在于,所述训练数据集包括火灾前期视频以及在模拟环境中的火灾视频。
3.根据权利要求2所述的一种基于改进的YOLOv4高穹顶场景下火灾检测方法,其特征在于,对所述训练数据集中的视频进行切帧并标注。
4.根据权利要求1所述的一种基于改进的YOLOv4高穹顶场景下火灾检测方法,其特征在于,对所述改进后的YOLOv4模型进行训练之前还包括数据增强步骤,所述数据增强包括在YOLOv4模型的输入端采用Mosaic数据增强对所述训练数据集进行数据增强。
5.根据权利要求4所述的一种基于改进的YOLOv4高穹顶场景下火灾检测方法,其特征在于,所述数据增强还包括采用Mosaic数据增强的同时加入易误检样本库到所述训练数据集中。
6.根据权利要求5所述的一种基于改进的YOLOv4高穹顶场景下火灾检测方法,其特征在于,所述对改进后的YOLOv4模型进行训练时,使用所述易误检样本库进行迭代重复训练。
7.根据权利要求1所述的一种基于改进的YOLOv4高穹顶场景下火灾检测方法,其特征在于,所述新的损失函数包括回归框损失函数、置信度损失函数以及分类损失函数,所述回归框损失函数为:
Figure FDA0003708445550000021
其中,λcoord是YOLOv3中使用的回归框损失函数分支的权重,λIoU是YOLOv4中使用的回归框损失函数分支的权重,β是作为惩罚项的参数,S2表示的是网格单元数,B表示每个网格,
Figure FDA0003708445550000024
表示对第i个网格中的第j个回归框是否负责这个object进行判断,
Figure FDA0003708445550000025
Figure FDA0003708445550000026
是指经过模型预测的预测框中心点的横纵坐标以及预测框的宽度与高度,(xi,yi,wi,hi)是指图片标注的目标框中心点的横纵坐标以及目标框的宽度与高度;IoU指交并比,b表示预测框B的中心点,bgt表示目标框Bgt的中心点,ρ(·)表示欧式距离,c表示B和Bgt的最小外界矩形的对角线距离,α是用来做trade-off 的参数,v是用来衡量长宽比一致性的参数。
8.根据权利要求7所述的一种基于改进的YOLOv4高穹顶场景下火灾检测方法,其特征在于,若火焰物体被检测到位于第i个网格中的第j个回归框里,
Figure FDA0003708445550000031
否则为0。
9.根据权利要求1所述的一种基于改进的YOLOv4高穹顶场景下火灾检测方法,其特征在于,所述对改进后的YOLOv4模型进行训练时包括调整改进后的YOLOv4的模型参数,所述模型参数根据识别任务和场景进行设置和修改,包括调整图片输入大小以及设置训练的超参数。
10.一种存储介质,其特征在于,其上存储有能够执行权利要求1-9中任意一项所述的一种基于改进的YOLOv4高穹顶场景下火灾检测方法的计算机程序指令。
CN202011547351.6A 2020-12-23 2020-12-23 一种基于改进的YOLOv4高穹顶场景下火灾检测方法、存储介质 Active CN112633174B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011547351.6A CN112633174B (zh) 2020-12-23 2020-12-23 一种基于改进的YOLOv4高穹顶场景下火灾检测方法、存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011547351.6A CN112633174B (zh) 2020-12-23 2020-12-23 一种基于改进的YOLOv4高穹顶场景下火灾检测方法、存储介质

Publications (2)

Publication Number Publication Date
CN112633174A CN112633174A (zh) 2021-04-09
CN112633174B true CN112633174B (zh) 2022-08-02

Family

ID=75324308

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011547351.6A Active CN112633174B (zh) 2020-12-23 2020-12-23 一种基于改进的YOLOv4高穹顶场景下火灾检测方法、存储介质

Country Status (1)

Country Link
CN (1) CN112633174B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112781634B (zh) * 2021-04-12 2021-07-06 南京信息工程大学 一种基于YOLOv4卷积神经网络的BOTDR分布式光纤传感系统
CN113378748A (zh) * 2021-06-22 2021-09-10 上海中通吉网络技术有限公司 基于改进算法的目标检测方法
CN113420695A (zh) * 2021-07-01 2021-09-21 河钢雄安数字科技有限公司 一种基于MSRCR和YOLOv4-Tiny算法的火焰快速检测方法
CN114998831A (zh) * 2022-05-23 2022-09-02 重庆科技学院 基于边缘计算及改进的YOLOv3的火灾检测方法及系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2019101224A4 (en) * 2019-10-05 2020-01-16 Shu, Zikai MR Method of Human detection research and implement based on deep learning
CN110796186A (zh) * 2019-10-22 2020-02-14 华中科技大学无锡研究院 基于改进的YOLOv3网络的干湿垃圾识别分类方法
CN110852347A (zh) * 2019-10-17 2020-02-28 天津大学 采用改进YOLO v3的火灾检测方法
CN111062413A (zh) * 2019-11-08 2020-04-24 深兰科技(上海)有限公司 一种道路目标检测方法、装置、电子设备及存储介质
CN111881730A (zh) * 2020-06-16 2020-11-03 北京华电天仁电力控制技术有限公司 一种火电厂现场安全帽佩戴检测方法
CN111898651A (zh) * 2020-07-10 2020-11-06 江苏科技大学 一种基于Tiny YOLOV3算法的树木检测方法
CN112084866A (zh) * 2020-08-07 2020-12-15 浙江工业大学 一种基于改进YOLO v4算法的目标检测方法
CN112101434A (zh) * 2020-09-04 2020-12-18 河南大学 基于改进YOLO v3的红外图像弱小目标检测方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109147254B (zh) * 2018-07-18 2021-05-18 武汉大学 一种基于卷积神经网络的视频野外火灾烟雾实时检测方法
CN111950329B (zh) * 2019-05-16 2024-06-18 长沙智能驾驶研究院有限公司 目标检测及模型训练方法、装置、计算机设备和存储介质
AU2020100705A4 (en) * 2020-05-05 2020-06-18 Chang, Jiaying Miss A helmet detection method with lightweight backbone based on yolov3 network
CN111985365A (zh) * 2020-08-06 2020-11-24 合肥学院 一种基于目标检测技术的秸秆焚烧监测方法和系统
CN112001339B (zh) * 2020-08-27 2024-02-23 杭州电子科技大学 一种基于YOLO v4的行人社交距离实时监测方法
CN112016510B (zh) * 2020-09-07 2024-04-16 平安国际智慧城市科技股份有限公司 基于深度学习的信号灯识别方法和装置、设备及存储介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2019101224A4 (en) * 2019-10-05 2020-01-16 Shu, Zikai MR Method of Human detection research and implement based on deep learning
CN110852347A (zh) * 2019-10-17 2020-02-28 天津大学 采用改进YOLO v3的火灾检测方法
CN110796186A (zh) * 2019-10-22 2020-02-14 华中科技大学无锡研究院 基于改进的YOLOv3网络的干湿垃圾识别分类方法
CN111062413A (zh) * 2019-11-08 2020-04-24 深兰科技(上海)有限公司 一种道路目标检测方法、装置、电子设备及存储介质
CN111881730A (zh) * 2020-06-16 2020-11-03 北京华电天仁电力控制技术有限公司 一种火电厂现场安全帽佩戴检测方法
CN111898651A (zh) * 2020-07-10 2020-11-06 江苏科技大学 一种基于Tiny YOLOV3算法的树木检测方法
CN112084866A (zh) * 2020-08-07 2020-12-15 浙江工业大学 一种基于改进YOLO v4算法的目标检测方法
CN112101434A (zh) * 2020-09-04 2020-12-18 河南大学 基于改进YOLO v3的红外图像弱小目标检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
An Improved Multi-Scale Fire Detection Method based on Convolutional Neural Network;Huang Hongyu 等;《2020 17th International Computer Conference on Wavelet Active Media Technology and Information Processing》;20210115;109-112 *
基于深度学习的车辆检测算法研究;姜康;《中国优秀博硕士学位论文全文数据库(硕士)工程科技Ⅱ辑》;20200815(第(2020)08期);C034-205 *

Also Published As

Publication number Publication date
CN112633174A (zh) 2021-04-09

Similar Documents

Publication Publication Date Title
CN112633174B (zh) 一种基于改进的YOLOv4高穹顶场景下火灾检测方法、存储介质
CN109978228B (zh) 一种pm2.5浓度预测方法、装置及介质
CN113705478B (zh) 一种基于改进YOLOv5的红树林单木目标检测方法
CN110059554B (zh) 一种基于交通场景的多支路目标检测方法
CN110070074B (zh) 一种构建行人检测模型的方法
CN112101430B (zh) 用于图像目标检测处理的锚框生成方法及轻量级目标检测方法
CN110796186A (zh) 基于改进的YOLOv3网络的干湿垃圾识别分类方法
CN109145836B (zh) 基于深度学习网络和卡尔曼滤波的船只目标视频检测方法
CN111046787A (zh) 一种基于改进YOLO v3模型的行人检测方法
CN108320306B (zh) 融合tld和kcf的视频目标跟踪方法
CN108986142A (zh) 基于置信图峰值旁瓣比优化的遮挡目标跟踪方法
CN110458022A (zh) 一种基于域适应的可自主学习目标检测方法
CN112287977A (zh) 一种基于边界框关键点距离的目标检测方法
CN116977710A (zh) 一种遥感图像长尾分布目标半监督检测方法
CN109697727A (zh) 基于相关滤波和度量学习的目标跟踪方法、系统及存储介质
CN115984543A (zh) 一种基于红外与可见光图像的目标检测算法
CN113379603B (zh) 一种基于深度学习的船舶目标检测方法
CN114492540A (zh) 目标检测模型的训练方法、装置、计算机设备及存储介质
CN116777865B (zh) 一种水下裂缝的识别方法、系统、装置及存储介质
CN115861787A (zh) 面向复杂海事环境的舰艇识别算法
CN113569954A (zh) 一种野生动物智能分类识别方法
CN115471456A (zh) 一种基于改进yolov5的飞机起落架检测方法
CN114283323A (zh) 一种基于图像深度学习的海上目标识别系统
CN111160190A (zh) 面向车载行人检测的分类辅助核相关滤波跟踪方法
CN114863168B (zh) 自适应递归增量模型的遥感影像分类方法、装置及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant