CN113239860A - 一种基于视频的烟火检测方法 - Google Patents

一种基于视频的烟火检测方法 Download PDF

Info

Publication number
CN113239860A
CN113239860A CN202110589355.9A CN202110589355A CN113239860A CN 113239860 A CN113239860 A CN 113239860A CN 202110589355 A CN202110589355 A CN 202110589355A CN 113239860 A CN113239860 A CN 113239860A
Authority
CN
China
Prior art keywords
target
image
algorithm
channel
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110589355.9A
Other languages
English (en)
Other versions
CN113239860B (zh
Inventor
王飞
石珍明
王乔晨
田蕾
贺海明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brexia Information Technology Beijing Co ltd
China Building Materials Xinyun Zhilian Technology Co ltd
Cnbm Technology Corp ltd
Original Assignee
Brexia Information Technology Beijing Co ltd
China Building Materials Xinyun Zhilian Technology Co ltd
Cnbm Technology Corp ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brexia Information Technology Beijing Co ltd, China Building Materials Xinyun Zhilian Technology Co ltd, Cnbm Technology Corp ltd filed Critical Brexia Information Technology Beijing Co ltd
Priority to CN202110589355.9A priority Critical patent/CN113239860B/zh
Publication of CN113239860A publication Critical patent/CN113239860A/zh
Application granted granted Critical
Publication of CN113239860B publication Critical patent/CN113239860B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及图像处理技术领域,具体地说,涉及一种基于视频的烟火检测方法。包括图像获取、图像预处理、图像组合、烟火目标检测、深度学习等步骤。本发明设计通过结合烟、火运动信息与深度学习的优点,将深度学习目标检测的三通道彩色图像输入修改为同一摄像头不同时间点的图像组合成的多通道图像,并通过多种目标检测算法或两种以上的联合算法对图像中可能存在的运动的烟火目标进行检测跟踪,可以有效降低误报的概率,降低方法对图像质量的要求,提高检测准确率,扩大烟火检测方法的应用场景,可以有效应用于环境的安全监控。

Description

一种基于视频的烟火检测方法
技术领域
本发明涉及图像处理技术领域,具体地说,涉及一种基于视频的烟火检测方法。
背景技术
目前,烟火检测深度学习方法基本上采用样本标注、模型训练的方式,该方法在大多出场景中是适用的,但其对图像质量要求比较高,比如画面内不能有类似于烟、火的物品,或者相近颜色的东西,否则会出现检测准确率较低的情况,还可能将静止物体或运动过于缓慢的物体当成目标误判。
发明内容
本发明的目的在于提供一种基于视频的烟火检测方法,以解决上述背景技术中提出的问题。
为实现上述技术问题的解决,本发明的目的之一在于,提供了一种基于视频的烟火检测方法,包括如下步骤:
S1、图像获取,获取同一摄像头不同时间点的若干图像信息;
S2、图像预处理,对获取的图像进行预处理,使图像增强;
S3、图像组合,合成同一画面间隔一定时间的多帧图像组合,包括单通道灰度图堆叠的三通图像及n张三通道彩色图堆叠的3*n通道图像;
S4、烟火目标检测,通过YOLO、SSD、Camshift、KCF等目标检测算法或联合算法进行目标检测和目标跟踪;
S5、深度学习,通过深度学习算法,扩展方法的应用场景。
其中,图像获取设备不限于摄像头、摄像机、视频采集卡等,且图像获取设备优选为位置固定的设备;对图像进行处理的设备可以为服务器或FPGA。
其中,S4中,该方法的实现不限于Yolo、SSD等目标检测算法。
作为本技术方案的进一步改进,所述S2中,图像预处理的方法包括如下步骤:
S2.1、对获取的原始图像进行提升亮度及高通滤波处理,突出图像边缘;
S2.2、对彩色平衡处理后的图像进行均值滤波处理,实现降噪,使图像增强;
S2.3、对彩色图像进行灰度化处理,并分别保存每张图片的单通道灰度图像。
其中,图像预处理的目的使减少冗余信息、去除噪点;具体地,常见的图像增强的方法按照不同作用域分为空域和频域增强,空域的方法有灰度变换、直方图均衡化和空域滤波等,频域增强有高通、低通和同态滤波等。本实施例中,图像增强的方法不限于高通滤波和均值滤波。
其中,高通滤波处理用于提高图像的清晰度,锐化图像边缘,便于更好识别烟火目标。
其中,均值滤波的实现过程为:在图像目标像素上给定一个模板,该模板周围包括其周围临近的像素,将模板中的全体像素进行求平均值,用均值代替原像素值,以实现像素的平滑,突出细节信息、忽略边缘,达到去噪的目的。
此外,S2.3中,彩色图转灰度图的表达公式为:
Figure 973127DEST_PATH_IMAGE001
作为本技术方案的进一步改进,所述S3中,图像组合的的方法包括如下步骤:
S3.1、针对单通道灰度图像的组合,将前一帧时间点tb的R单通道灰度图、当前帧时间点tn的B单通道灰度图、G单通道灰度图按顺序依次堆叠形成三通道图像;
S3.2、针对彩色图像的组合,先将不同时间点的视频帧图像分别转换为三通道彩色图像,再将n张不同时间点的三通道彩色图像按时间顺序依次堆叠成3*n通道图像,相邻两张视频帧图像之间的时间间隔相同。
作为本技术方案的进一步改进,所述S4中,通过YOLO与KCF算法联合对图像进行烟火目标检测的方法包括如下步骤:
S4.1、将上述组合的三通道图像或3*n通道图像导入YOLO算法模型中,通过YOLO算法进行目标检测;
S4.2、通过YOLO算法初始化YCF算法跟踪窗口;
S4.3、通过KCF算法进行目标跟踪;
S4.4、将KCF算法预测的目标位置与YOLO算法目标检测位置在x轴方向上的数值进行比较,通过二者的比值偏移误差率OER来判断目标是否发生偏移;
S4.5、若目标发生偏移,则利用此时YOLO算法检测位置作为观测值;若目标未发生偏移,则以KCF算法计算值作为观测值;
S4.6、若目标丢失,则返回S4.2,通过YOLO算法再次进行初始化来重新实现目标跟踪;
S4.7、最后在图像上更新检测的目标位置,并输出烟火目标运动的跟踪结果。
作为本技术方案的进一步改进,所述S4.4中,偏移误差率OER的计算表达式如下:
Figure 448977DEST_PATH_IMAGE002
其中,x为YOLO算法目标检测的目标位置(x,y)在x轴方向上的坐标值,kx为KCF算法预测的目标位置(kx,ky)在x轴方向上的坐标值,OER为两种算法在x轴方向上的比值。
其中,利用KCF算法跟踪目标,通过OER判断是否发生偏移或丢失目标现象,若OER≥β,其中β为偏移阈值,则认为目标跟踪发生偏移,在判断出目标发生偏移后,将此时的YOLO算法目标边框赋值KCF算法重新跟踪;若OER<β,则认为此时目标被跟踪,用KCF算法继续跟踪;若OER=0,此时KCF算法丢失目标,则通过YOLO算法对KCF算法再次进行初始化来再次实现目标跟踪。
其中,YOLO算法与KCF算法联合,可以有效提高目标跟踪的准确率和鲁棒性,且在视频摄像头发生偏转时,也能有效识别并跟踪目标。
作为本技术方案的进一步改进,所述S4.1中,通过YOLO算法进行目标检测的方法包括如下步骤:
S4.1.1、将三通道图像或3*n通道图像导入YOLO算法模型中,将输入的图像划分为S*S的网格,同时通过卷积运算获取特征图;
S4.1.2、分别检测每个网格中是否存在目标,若否则直接结束检测,若是,则获取目标类别和目标边框;
S4.1.3、目标边框由中心点偏移(x,y)、宽高(w,h)和置信度五维预测参数组成,获取目标边框的五维参数值,计算目标类的置信度;
S4.1.4、使用两个全连接层将多维数据“拉伸”成为一维向量,并将全连接层数据分类输出相似,输出的特征图个数为目标的分类数,最后通过统一的方式对该向量进行解码并在原图像中绘制出检测结果。
其中,YOLO算法的原理为:在目标检测过程中采用针对目标检测任务设计的CNN进行特征提取,通过全连接层对识别出来的目标进行位置预测和分类。
其中,YOLO算法的网络模型由输入层、池化层、全连接层及输出层构成。
具体地,因全连接层要求固定大小的向量作为输入,则YOLO算法的输入层需将输入的图像剪切成S*S的固定大小;输入层之后是24层卷积层,通过对输入图像进行卷积运算获得特征图,记录特征数据方便后续的分类和目标定位;池化层与卷积神经网络池化层功能相同,即为用一个值代替对应区域像素点;再使用两个全连接层将卷积池化后多维数据拉伸成为一维向量,为后面的分类和位置确定做铺垫;YOLO网络模型的最后一层输出层与CNN算法中的SoftMax分类器实现将全连接层数据分类输出相似的过程。
作为本技术方案的进一步改进,所述S4.1.3中,置信度的计算表达式如下:
Figure 97127DEST_PATH_IMAGE003
式中,
Figure 434567DEST_PATH_IMAGE004
表示网格目标边框中目标存在的可能性,
Figure 864324DEST_PATH_IMAGE005
代表目标对象,
Figure 871594DEST_PATH_IMAGE006
用于展示当前模型预测到的目标边框位置的准确性,其表达式为:
Figure 974417DEST_PATH_IMAGE007
其中,
Figure 849969DEST_PATH_IMAGE008
表示预测的目标边框,
Figure 816788DEST_PATH_IMAGE009
表示真实目标边框。
作为本技术方案的进一步改进,所述S4.3中,通过KCF算法进行目标跟踪的方法包括如下步骤:
S4.3.1、先在追踪过程中训练一个目标检测器,使用所需的目标检测器去检测下一帧视频图像来预测该位置是否是所需的目标,再使用新的检测结果去更新训练集;
S4.3.2、在当前帧选取与前一帧目标所在位置的目标区域坐标,提取基本候选样本,建立目标区域模型;
S4.3.3、将目标区域作为正样本、周围不包括目标的区域视为负样本,选定的目标区域和周围区域的循环矩阵进行水平、垂直的循环移位来产生大量的样本,实现目标检测器的训练,依次来进行目标跟踪。
作为本技术方案的进一步改进,所述S4.3.1中,训练目标检测器的计算表达式如下:
设训练样本集为
Figure 994960DEST_PATH_IMAGE010
,则其线性回归函数如下所示:
Figure 991603DEST_PATH_IMAGE011
其中,w代表列向量的权重系数,为了降低损失函数,优化算法,进而采用最小二乘法来求解:
Figure 670846DEST_PATH_IMAGE012
其矩阵形式为:
Figure 367538DEST_PATH_IMAGE013
其中,上式称为脊回归,
Figure 106824DEST_PATH_IMAGE014
是最小化风险参数,又称为惩罚项,λ是正则化参数, 可以防止过拟合,计算权值w,求解公式如下:
Figure 121922DEST_PATH_IMAGE015
其中,行向量矩阵表示为
Figure 11381DEST_PATH_IMAGE016
,y表示回归值,yi是列向量,因考 虑到傅立叶变化中有负数的存在,所以要计算复数矩阵,则将上式转化为复数形式如下:
Figure 890475DEST_PATH_IMAGE017
其中,X的共轭复数转置矩阵为XH
作为本技术方案的进一步改进,所述S4.3.2中,建立目标区域模型的过程包括如下步骤:
设样本大小为w*h的图像块,通过循环移位获取一系列样本集合,设为
Figure 207187DEST_PATH_IMAGE018
,对每个候选样本进行权值系数计算,在根据
Figure DEST_PATH_IMAGE019
计算检测样本与目标相似度进行加权求和,得到下一帧的响应值,为了提 高运行速度,则求解转换为频域公式,如下所示:
Figure 523897DEST_PATH_IMAGE020
本发明的目的之二在于,提供了一种基于视频的烟火检测方法的运行装置,包括处理器、存储器以及存储在存储器中并在处理器上运行的计算机程序,处理器用于执行计算机程序时实现上述任一的基于视频的烟火检测方法的步骤。
本发明的目的之三在于,提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述任一的基于视频的烟火检测方法的步骤。
与现有技术相比,本发明的有益效果:该基于视频的烟火检测方法中,通过结合烟、火运动信息与深度学习的优点,将深度学习目标检测的三通道彩色图像输入修改为同一摄像头不同时间点的图像组合成的多通道图像,并通过多种目标检测算法或两种以上的联合算法对图像中可能存在的运动的烟火目标进行检测跟踪,可以有效降低误报的概率,降低方法对图像质量的要求,提高检测准确率,扩大烟火检测方法的应用场景,可以有效应用于环境的安全监控。
附图说明
图1为本发明的示例性局部网络结构架构图;
图2为本发明的整体方法流程框图;
图3为本发明的局部方法流程框图之一;
图4为本发明的局部方法流程框图之二;
图5为本发明的局部方法流程框图之三;
图6为本发明的局部方法流程框图之四;
图7为本发明的局部方法流程框图之五。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1
如图1-图7所示,本实施例提供了一种基于视频的烟火检测方法,包括如下步骤:
S1、图像获取,获取同一摄像头不同时间点的若干图像信息;
S2、图像预处理,对获取的图像进行预处理,使图像增强;
S3、图像组合,合成同一画面间隔一定时间的多帧图像组合,包括单通道灰度图堆叠的三通图像及n张三通道彩色图堆叠的3*n通道图像;
S4、烟火目标检测,通过YOLO、SSD、Camshift、KCF等目标检测算法或联合算法进行目标检测和目标跟踪;
S5、深度学习,通过深度学习算法,扩展方法的应用场景。
其中,图像获取设备不限于摄像头、摄像机、视频采集卡等,且图像获取设备优选为位置固定的设备;对图像进行处理的设备可以为服务器或FPGA。
其中,S4中,该方法的实现不限于Yolo、SSD等目标检测算法。
本实施例中,S2中,图像预处理的方法包括如下步骤:
S2.1、对获取的原始图像进行提升亮度及高通滤波处理,突出图像边缘;
S2.2、对彩色平衡处理后的图像进行均值滤波处理,实现降噪,使图像增强;
S2.3、对彩色图像进行灰度化处理,并分别保存每张图片的单通道灰度图像。
其中,图像预处理的目的使减少冗余信息、去除噪点;具体地,常见的图像增强的方法按照不同作用域分为空域和频域增强,空域的方法有灰度变换、直方图均衡化和空域滤波等,频域增强有高通、低通和同态滤波等。本实施例中,图像增强的方法不限于高通滤波和均值滤波。
其中,高通滤波处理用于提高图像的清晰度,锐化图像边缘,便于更好识别烟火目标。
其中,均值滤波的实现过程为:在图像目标像素上给定一个模板,该模板周围包括其周围临近的像素,将模板中的全体像素进行求平均值,用均值代替原像素值,以实现像素的平滑,突出细节信息、忽略边缘,达到去噪的目的。
此外,S2.3中,彩色图转灰度图的表达公式为:
Figure 341681DEST_PATH_IMAGE021
3.根据权利要求1的基于视频的烟火检测方法,其特征在于:S3中,图像组合的的方法包括如下步骤:
S3.1、针对单通道灰度图像的组合,将前一帧时间点tb的R单通道灰度图、当前帧时间点tn的B单通道灰度图、G单通道灰度图按顺序依次堆叠形成三通道图像;
S3.2、针对彩色图像的组合,先将不同时间点的视频帧图像分别转换为三通道彩色图像,再将n张不同时间点的三通道彩色图像按时间顺序依次堆叠成3*n通道图像,相邻两张视频帧图像之间的时间间隔相同。
本实施例中,S4中,通过YOLO与KCF算法联合对图像进行烟火目标检测的方法包括如下步骤:
S4.1、将上述组合的三通道图像或3*n通道图像导入YOLO算法模型中,通过YOLO算法进行目标检测;
S4.2、通过YOLO算法初始化YCF算法跟踪窗口;
S4.3、通过KCF算法进行目标跟踪;
S4.4、将KCF算法预测的目标位置与YOLO算法目标检测位置在x轴方向上的数值进行比较,通过二者的比值偏移误差率OER来判断目标是否发生偏移;
S4.5、若目标发生偏移,则利用此时YOLO算法检测位置作为观测值;若目标未发生偏移,则以KCF算法计算值作为观测值;
S4.6、若目标丢失,则返回S4.2,通过YOLO算法再次进行初始化来重新实现目标跟踪;
S4.7、最后在图像上更新检测的目标位置,并输出烟火目标运动的跟踪结果。
具体地,S4.4中,偏移误差率OER的计算表达式如下:
Figure 216227DEST_PATH_IMAGE002
其中,x为YOLO算法目标检测的目标位置(x,y)在x轴方向上的坐标值,kx为KCF算法预测的目标位置(kx,ky)在x轴方向上的坐标值,OER为两种算法在x轴方向上的比值。
其中,利用KCF算法跟踪目标,通过OER判断是否发生偏移或丢失目标现象,若OER≥β,其中β为偏移阈值,则认为目标跟踪发生偏移,在判断出目标发生偏移后,将此时的YOLO算法目标边框赋值KCF算法重新跟踪;若OER<β,则认为此时目标被跟踪,用KCF算法继续跟踪;若OER=0,此时KCF算法丢失目标,则通过YOLO算法对KCF算法再次进行初始化来再次实现目标跟踪。
其中,YOLO算法与KCF算法联合,可以有效提高目标跟踪的准确率和鲁棒性,且在视频摄像头发生偏转时,也能有效识别并跟踪目标。
进一步地,S4.1中,通过YOLO算法进行目标检测的方法包括如下步骤:
S4.1.1、将三通道图像或3*n通道图像导入YOLO算法模型中,将输入的图像划分为S*S的网格,同时通过卷积运算获取特征图;
S4.1.2、分别检测每个网格中是否存在目标,若否则直接结束检测,若是,则获取目标类别和目标边框;
S4.1.3、目标边框由中心点偏移(x,y)、宽高(w,h)和置信度五维预测参数组成,获取目标边框的五维参数值,计算目标类的置信度;
S4.1.4、使用两个全连接层将多维数据“拉伸”成为一维向量,并将全连接层数据分类输出相似,输出的特征图个数为目标的分类数,最后通过统一的方式对该向量进行解码并在原图像中绘制出检测结果。
其中,YOLO算法的原理为:在目标检测过程中采用针对目标检测任务设计的CNN进行特征提取,通过全连接层对识别出来的目标进行位置预测和分类。
其中,YOLO算法的网络模型由输入层、池化层、全连接层及输出层构成。
具体地,因全连接层要求固定大小的向量作为输入,则YOLO算法的输入层需将输入的图像剪切成S*S的固定大小;输入层之后是24层卷积层,通过对输入图像进行卷积运算获得特征图,记录特征数据方便后续的分类和目标定位;池化层与卷积神经网络池化层功能相同,即为用一个值代替对应区域像素点;再使用两个全连接层将卷积池化后多维数据拉伸成为一维向量,为后面的分类和位置确定做铺垫;YOLO网络模型的最后一层输出层与CNN算法中的SoftMax分类器实现将全连接层数据分类输出相似的过程。
具体地,S4.1.3中,置信度的计算表达式如下:
Figure 828474DEST_PATH_IMAGE003
式中,
Figure 287006DEST_PATH_IMAGE004
表示网格目标边框中目标存在的可能性,
Figure 377321DEST_PATH_IMAGE005
代表目标对象,
Figure 106374DEST_PATH_IMAGE022
用于展示当前模型预测到的目标边框位置的准确性,其表达式为:
Figure 155102DEST_PATH_IMAGE007
其中,
Figure 258187DEST_PATH_IMAGE008
表示预测的目标边框, QUOTE
Figure 994936DEST_PATH_IMAGE024
Figure 234288DEST_PATH_IMAGE024
表示真实目标边 框。
进一步地,S4.3中,通过KCF算法进行目标跟踪的方法包括如下步骤:
S4.3.1、先在追踪过程中训练一个目标检测器,使用所需的目标检测器去检测下一帧视频图像来预测该位置是否是所需的目标,再使用新的检测结果去更新训练集;
S4.3.2、在当前帧选取与前一帧目标所在位置的目标区域坐标,提取基本候选样本,建立目标区域模型;
S4.3.3、将目标区域作为正样本、周围不包括目标的区域视为负样本,选定的目标区域和周围区域的循环矩阵进行水平、垂直的循环移位来产生大量的样本,实现目标检测器的训练,依次来进行目标跟踪。
具体地,S4.3.1中,训练目标检测器的计算表达式如下:
设训练样本集为
Figure 532545DEST_PATH_IMAGE010
,则其线性回归函数如下所示:
Figure 388506DEST_PATH_IMAGE011
其中,w代表列向量的权重系数,为了降低损失函数,优化算法,进而采用最小二乘法来求解:
Figure 69892DEST_PATH_IMAGE012
其矩阵形式为:
Figure 22804DEST_PATH_IMAGE013
其中,上式称为脊回归,
Figure 367329DEST_PATH_IMAGE014
是最小化风险参数,又称为惩罚项,λ是正则化参数, 可以防止过拟合,计算权值w,求解公式如下:
Figure 304061DEST_PATH_IMAGE015
其中,行向量矩阵表示为
Figure 326156DEST_PATH_IMAGE016
,y表示回归值,yi是列向量,因考 虑到傅立叶变化中有负数的存在,所以要计算复数矩阵,则将上式转化为复数形式如下:
Figure 133575DEST_PATH_IMAGE017
其中,X的共轭复数转置矩阵为XH
具体地,S4.3.2中,建立目标区域模型的过程包括如下步骤:
设样本大小为w*h的图像块,通过循环移位获取一系列样本集合,设为
Figure 180159DEST_PATH_IMAGE018
,对每个候选样本进行权值系数计算,在根据
Figure 745133DEST_PATH_IMAGE025
计算检测样本与目标相似度进行加权求和,得到下一帧的响应值,为了提 高运行速度,则求解转换为频域公式,如下所示:
Figure 96217DEST_PATH_IMAGE020
本实施例还提供一种基于视频的烟火检测方法的运行装置,该装置包括处理器、存储器以及存储在存储器中并在处理器上运行的计算机程序。
处理器包括一个或一个以上处理核心,处理器通过总线与处理器相连,存储器用于存储程序指令,处理器执行存储器中的程序指令时实现上述的基于视频的烟火检测方法。
可选的,存储器可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随时存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
此外,本发明还提供一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,计算机程序被处理器执行时实现上述的基于视频的烟火检测方法的步骤。
可选的,本发明还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述各方面基于视频的烟火检测方法的步骤。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,程序可以存储与一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上显示和描述了本发明的基本原理、主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的仅为本发明的优选例,并不用来限制本发明,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。

Claims (10)

1.一种基于视频的烟火检测方法,其特征在于:包括如下步骤:
S1、图像获取,获取同一摄像头不同时间点的若干图像信息;
S2、图像预处理,对获取的图像进行预处理,使图像增强;
S3、图像组合,合成同一画面间隔一定时间的多帧图像组合,包括单通道灰度图堆叠的三通图像及n张三通道彩色图堆叠的3*n通道图像;
S4、烟火目标检测,通过YOLO、SSD、Camshift、KCF等目标检测算法或联合算法进行目标检测和目标跟踪;
S5、深度学习,通过深度学习算法,扩展方法的应用场景。
2.根据权利要求1所述的基于视频的烟火检测方法,其特征在于:所述S2中,图像预处理的方法包括如下步骤:
S2.1、对获取的原始图像进行提升亮度及高通滤波处理,突出图像边缘;
S2.2、对彩色平衡处理后的图像进行均值滤波处理,实现降噪,使图像增强;
S2.3、对彩色图像进行灰度化处理,并分别保存每张图片的单通道灰度图像。
3.根据权利要求1所述的基于视频的烟火检测方法,其特征在于:所述S3中,图像组合的的方法包括如下步骤:
S3.1、针对单通道灰度图像的组合,将前一帧时间点tb的R单通道灰度图、当前帧时间点tn的B单通道灰度图、G单通道灰度图按顺序依次堆叠形成三通道图像;
S3.2、针对彩色图像的组合,先将不同时间点的视频帧图像分别转换为三通道彩色图像,再将n张不同时间点的三通道彩色图像按时间顺序依次堆叠成3*n通道图像,相邻两张视频帧图像之间的时间间隔相同。
4.根据权利要求1所述的基于视频的烟火检测方法,其特征在于:所述S4中,通过YOLO与KCF算法联合对图像进行烟火目标检测的方法包括如下步骤:
S4.1、将上述组合的三通道图像或3*n通道图像导入YOLO算法模型中,通过YOLO算法进行目标检测;
S4.2、通过YOLO算法初始化YCF算法跟踪窗口;
S4.3、通过KCF算法进行目标跟踪;
S4.4、将KCF算法预测的目标位置与YOLO算法目标检测位置在x轴方向上的数值进行比较,通过二者的比值偏移误差率OER来判断目标是否发生偏移;
S4.5、若目标发生偏移,则利用此时YOLO算法检测位置作为观测值;若目标未发生偏移,则以KCF算法计算值作为观测值;
S4.6、若目标丢失,则返回S4.2,通过YOLO算法再次进行初始化来重新实现目标跟踪;
S4.7、最后在图像上更新检测的目标位置,并输出烟火目标运动的跟踪结果。
5.根据权利要求4所述的基于视频的烟火检测方法,其特征在于:所述S4.4中,偏移误差率OER的计算表达式如下:
Figure 246867DEST_PATH_IMAGE001
其中,x为YOLO算法目标检测的目标位置(x,y)在x轴方向上的坐标值,kx为KCF算法预测的目标位置(kx,ky)在x轴方向上的坐标值,OER为两种算法在x轴方向上的比值。
6.根据权利要求4所述的基于视频的烟火检测方法,其特征在于:所述S4.1中,通过YOLO算法进行目标检测的方法包括如下步骤:
S4.1.1、将三通道图像或3*n通道图像导入YOLO算法模型中,将输入的图像划分为S*S的网格,同时通过卷积运算获取特征图;
S4.1.2、分别检测每个网格中是否存在目标,若否则直接结束检测,若是,则获取目标类别和目标边框;
S4.1.3、目标边框由中心点偏移(x,y)、宽高(w,h)和置信度五维预测参数组成,获取目标边框的五维参数值,计算目标类的置信度;
S4.1.4、使用两个全连接层将多维数据“拉伸”成为一维向量,并将全连接层数据分类输出相似,输出的特征图个数为目标的分类数,最后通过统一的方式对该向量进行解码并在原图像中绘制出检测结果。
7.根据权利要求6所述的基于视频的烟火检测方法,其特征在于:所述S4.1.3中,置信度的计算表达式如下:
Figure 832438DEST_PATH_IMAGE002
式中,
Figure 761211DEST_PATH_IMAGE003
表示网格目标边框中目标存在的可能性,
Figure 443734DEST_PATH_IMAGE004
代表目标对象,
Figure 596498DEST_PATH_IMAGE005
用于展示当前模型预测到的目标边框位置的准确性,其表达式为:
Figure 675224DEST_PATH_IMAGE006
其中,
Figure 673267DEST_PATH_IMAGE007
表示预测的目标边框,
Figure 695450DEST_PATH_IMAGE008
表示真实目标边框。
8.根据权利要求4所述的基于视频的烟火检测方法,其特征在于:所述S4.3中,通过KCF算法进行目标跟踪的方法包括如下步骤:
S4.3.1、先在追踪过程中训练一个目标检测器,使用所需的目标检测器去检测下一帧视频图像来预测该位置是否是所需的目标,再使用新的检测结果去更新训练集;
S4.3.2、在当前帧选取与前一帧目标所在位置的目标区域坐标,提取基本候选样本,建立目标区域模型;
S4.3.3、将目标区域作为正样本、周围不包括目标的区域视为负样本,选定的目标区域和周围区域的循环矩阵进行水平、垂直的循环移位来产生大量的样本,实现目标检测器的训练,依次来进行目标跟踪。
9.根据权利要求8所述的基于视频的烟火检测方法,其特征在于:所述S4.3.1中,训练目标检测器的计算表达式如下:
设训练样本集为
Figure 861858DEST_PATH_IMAGE009
,则其线性回归函数如下所示:
Figure 235071DEST_PATH_IMAGE010
其中,w代表列向量的权重系数,为了降低损失函数,优化算法,进而采用最小二乘法来求解:
Figure 177750DEST_PATH_IMAGE011
其矩阵形式为:
Figure 54439DEST_PATH_IMAGE012
其中,上式称为脊回归,
Figure 781961DEST_PATH_IMAGE013
是最小化风险参数,又称为惩罚项,λ是正则化参数,可 以防止过拟合,计算权值w,求解公式如下:
Figure 127623DEST_PATH_IMAGE014
其中,行向量矩阵表示为
Figure 592103DEST_PATH_IMAGE015
,y表示回归值,yi是列向量,因考虑 到傅立叶变化中有负数的存在,所以要计算复数矩阵,则将上式转化为复数形式如下:
Figure 103724DEST_PATH_IMAGE016
其中,X的共轭复数转置矩阵为XH
10.根据权利要求8所述的基于视频的烟火检测方法,其特征在于:所述S4.3.2中,建立目标区域模型的过程包括如下步骤:
设样本大小为w*h的图像块,通过循环移位获取一系列样本集合,设为
Figure 628246DEST_PATH_IMAGE017
,对每个候选样本进行权值系数计算,在根据
Figure 118263DEST_PATH_IMAGE018
计算检测样本与目标相似度进行加权求和,得到下一帧的响应值,为了 提高运行速度,则求解转换为频域公式,如下所示:
Figure 183171DEST_PATH_IMAGE019
CN202110589355.9A 2021-05-28 2021-05-28 一种基于视频的烟火检测方法 Active CN113239860B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110589355.9A CN113239860B (zh) 2021-05-28 2021-05-28 一种基于视频的烟火检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110589355.9A CN113239860B (zh) 2021-05-28 2021-05-28 一种基于视频的烟火检测方法

Publications (2)

Publication Number Publication Date
CN113239860A true CN113239860A (zh) 2021-08-10
CN113239860B CN113239860B (zh) 2024-05-24

Family

ID=77139371

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110589355.9A Active CN113239860B (zh) 2021-05-28 2021-05-28 一种基于视频的烟火检测方法

Country Status (1)

Country Link
CN (1) CN113239860B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116993626A (zh) * 2023-09-26 2023-11-03 成都市晶林科技有限公司 一种基于时空域的红外图像降噪方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090251482A1 (en) * 2008-04-03 2009-10-08 Sony Corporation Image processing apparatus, display control method, program, and storage medium
US20110081043A1 (en) * 2009-10-07 2011-04-07 Sabol Bruce M Using video-based imagery for automated detection, tracking, and counting of moving objects, in particular those objects having image characteristics similar to background
CN107341820A (zh) * 2017-07-03 2017-11-10 郑州轻工业学院 一种融合Cuckoo搜索和KCF的突变运动目标跟踪方法
US20200065976A1 (en) * 2018-08-23 2020-02-27 Seoul National University R&Db Foundation Method and system for real-time target tracking based on deep learning
CN111259742A (zh) * 2020-01-09 2020-06-09 南京理工大学 基于深度学习的异常人群检测方法
CN111582074A (zh) * 2020-04-23 2020-08-25 安徽海德瑞丰信息科技有限公司 一种基于场景深度信息感知的监控视频树叶遮挡检测方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090251482A1 (en) * 2008-04-03 2009-10-08 Sony Corporation Image processing apparatus, display control method, program, and storage medium
US20110081043A1 (en) * 2009-10-07 2011-04-07 Sabol Bruce M Using video-based imagery for automated detection, tracking, and counting of moving objects, in particular those objects having image characteristics similar to background
CN107341820A (zh) * 2017-07-03 2017-11-10 郑州轻工业学院 一种融合Cuckoo搜索和KCF的突变运动目标跟踪方法
US20200065976A1 (en) * 2018-08-23 2020-02-27 Seoul National University R&Db Foundation Method and system for real-time target tracking based on deep learning
CN111259742A (zh) * 2020-01-09 2020-06-09 南京理工大学 基于深度学习的异常人群检测方法
CN111582074A (zh) * 2020-04-23 2020-08-25 安徽海德瑞丰信息科技有限公司 一种基于场景深度信息感知的监控视频树叶遮挡检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
QUN LIJINYAN NIESHAOCHENG QU: ""A small target detection algorithm in infrared image by combining multi-response fusion and local contrast enhancement"", 《OPTIK》, 30 April 2021 (2021-04-30) *
来文豪,周孟然,胡锋,卞凯,宋红萍: ""基于多光谱成像和改进YOLO v4的煤矸石检测"", 《光学学报》, 31 December 2020 (2020-12-31) *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116993626A (zh) * 2023-09-26 2023-11-03 成都市晶林科技有限公司 一种基于时空域的红外图像降噪方法及系统

Also Published As

Publication number Publication date
CN113239860B (zh) 2024-05-24

Similar Documents

Publication Publication Date Title
CN109241913B (zh) 结合显著性检测和深度学习的船只检测方法及系统
CN107358623B (zh) 一种基于显著性检测和鲁棒性尺度估计的相关滤波跟踪方法
CN108053419B (zh) 基于背景抑制和前景抗干扰的多尺度目标跟踪方法
CN108986140B (zh) 基于相关滤波和颜色检测的目标尺度自适应跟踪方法
CN107423702B (zh) 基于tld跟踪系统的视频目标跟踪方法
CN110120064B (zh) 一种基于互强化与多注意机制学习的深度相关目标跟踪算法
CN111260738A (zh) 基于相关滤波和自适应特征融合的多尺度目标跟踪方法
CN113591968A (zh) 一种基于非对称注意力特征融合的红外弱小目标检测方法
CN108320306B (zh) 融合tld和kcf的视频目标跟踪方法
CN106815576B (zh) 基于连续时空置信图和半监督极限学习机的目标追踪方法
CN111274964B (zh) 一种基于无人机视觉显著性分析水面污染物的检测方法
CN110147768B (zh) 一种目标跟踪方法及装置
CN114419151A (zh) 一种基于对比学习的多目标跟踪方法
CN111626090A (zh) 一种基于深度帧差卷积神经网络的运动目标检测方法
CN111144220B (zh) 适于大数据的人员检测方法、装置、设备和介质
CN115147418A (zh) 缺陷检测模型的压缩训练方法和装置
CN112258403A (zh) 一种在动态烟雾中提取疑似烟雾区域的方法
CN110751671B (zh) 一种基于核相关滤波与运动估计的目标跟踪方法
CN113033356B (zh) 一种尺度自适应的长期相关性目标跟踪方法
CN117765363A (zh) 一种基于轻量型记忆库的图像异常检测方法及系统
CN113239860B (zh) 一种基于视频的烟火检测方法
CN111402185B (zh) 一种图像检测方法及装置
CN108985216B (zh) 一种基于多元logistic回归特征融合的行人头部检测方法
CN113240611B (zh) 一种基于图片序列的异物检测方法
CN114724175A (zh) 行人图像的检测网络、检测方法、训练方法、电子设备和介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant