CN114943923B - 基于深度学习的视频识别炮弹爆炸火光烟雾方法及系统 - Google Patents

基于深度学习的视频识别炮弹爆炸火光烟雾方法及系统 Download PDF

Info

Publication number
CN114943923B
CN114943923B CN202210688653.8A CN202210688653A CN114943923B CN 114943923 B CN114943923 B CN 114943923B CN 202210688653 A CN202210688653 A CN 202210688653A CN 114943923 B CN114943923 B CN 114943923B
Authority
CN
China
Prior art keywords
smoke
frame
data
image
sample data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210688653.8A
Other languages
English (en)
Other versions
CN114943923A (zh
Inventor
谢文
徐鸿鑫
钟宜兴
叶志红
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PLA Army Academy of Artillery and Air Defense
Original Assignee
PLA Army Academy of Artillery and Air Defense
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PLA Army Academy of Artillery and Air Defense filed Critical PLA Army Academy of Artillery and Air Defense
Priority to CN202210688653.8A priority Critical patent/CN114943923B/zh
Publication of CN114943923A publication Critical patent/CN114943923A/zh
Application granted granted Critical
Publication of CN114943923B publication Critical patent/CN114943923B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Abstract

本发明提供基于深度学习的视频识别炮弹爆炸火光烟雾方法及系统,系统包括:搜索获取炮弹打击视频图像数据并提取得样本数据,以识别视频图像数据中的时间段数据及图像帧;分类标注样本数据,以得到火光样本数据及烟雾样本数据,据以生成分类样本集,以处理得到训练文件,获取并利用预训练模型及训练文件训练爆炸识别模型;利用darknet深度学习框架及yolov4算法,根据爆炸识别模型判断每帧图像中的火光是否同一,以得到火光识别结果,识别每帧图像中的烟雾,以得到烟雾识别结果;调整火光识别结果和烟雾识别结果的FPS、分辨率并推送至客户端。本发明解决现有技术存在的难以针对炮弹爆炸火光烟雾进行高精度快速识别的技术问题。

Description

基于深度学习的视频识别炮弹爆炸火光烟雾方法及系统
技术领域
本发明涉及一种计算机信息系统的目标检测领域,具体涉及基于深度学习的视频识别炮弹爆炸火光烟雾方法及系统。
背景技术
深度学习目标检测已经广泛应用于计算机视觉的研究,涵盖通用目标检测、特定领域目标检测,广泛应用于安全、医疗、交通等领域。目前随着网络带宽和GPU性能的提升,出现了越来越多的基于实时视频的目标检测。
现有目标检测技术多数是对不变形目标的检测,例如检测行人、车辆、故障件等,这些目标的形体变化不大,例如人体,只会存在姿态、大小、体型、肤色的不同,同样,多数目标与人体目标相同,变化的主要是姿态、颜色、尺寸,而火光和烟雾不仅存在以上变化,其还存在随着时间的变化,形状会变得异常夸张及不可预料。
公告号为CN109255375A的现有发明专利《基于深度学习的全景图像对象检测方法》法包括:S1输入测试图像;S2利用选择搜索算法在图像中提取2000个左右的候选区域;S3将每个候选区域缩放成固定的特征并传入CNN,经过运算输出CNN特征(warp)成227×227的大小并输入到CNN,将CNN的fc7层的输出作为特征;S4将每个候选区域提取到的CNN特征输入到SVM分类器进行分类。该现有专利采用SVM分类器对提取到的CNN特征进行分类,未公开本申请采用的具体图像识别及评估逻辑,同时采用的模型也不同于本申请使用的网络模型,该现有专利与本申请存在显著区别,同时该现有专利涉及的技术方案主要解决传统技术中空间信息丢失以及定位不准的技术问题,与本申请的应用场景及解决的技术问题不同。公告号为CN109272060A的现有发明专利《一种基于改进的darknet神经网络进行目标检测的方法和系统》采用固定相机连续获取训练样本图像,并对训练样本中的检测目标进行边框和类别的标注;通过旋转角度、调整饱和度、调整曝光量、调整色调来生成更多训练样本;基于改进的darknet神经网络构造图像检测模型;利用上述检测模型训练样本图像,并设置检测模型训练时的学习率及迭代次数,输出指定通道数的像素特征图片;每迭代一定次数保存相应的检测模型,直到指定迭代次数终止,并利用最终的检测模型进行相关图像目标检测。该现有专利主要应用场景及解决的问题为针对细微物体图像识别,解决传统识别技术中遮挡漏检的缺陷,可知,该现有专利的应用场景及解决的技术问题与本申请存在显著区别。公告号为CN112150512A的现有发明专利一种融合背景差分法和聚类法的弹着点定位方法,提取所有爆炸共有的特征,即炮弹着地后,爆炸范围会在短时间内逐渐扩大,使用背景差分法获得爆炸的区域大小信息,使用聚类算法提取并分析爆炸区域的信息,该现有专利融合了背景差分法和聚类算法的优点,对获取到的运行目标进行数据处理和分析。该现有专利未采用本申请的概率值判断、约定范围判断、连续帧判断、关键帧提取等的技术方案,该现有专利与本申请存在显著区别,同时,该现有专利解决问题偏重弹着点定位,而本申请主要解决对爆炸烟雾和火光的识别,该现有专利与本申请的解决的技术问题不同,应用场景也存在区别,无法产生本申请的技术效果。综上可知,现有技术中缺乏对炮弹爆炸产生的火光及烟雾进行识别的目标检测技术。同时对目标的识别,尤其针对快速变化的目标的检测精度较低,识别率受有制约。
综上,现有技术存在难以针对炮弹爆炸火光烟雾进行高精度快速识别的技术问题。
发明内容
本发明所要解决的技术问题在于如何解决现有技术存在的难以针对炮弹爆炸火光烟雾进行高精度快速识别的技术问题。
本发明是采用以下技术方案解决上述技术问题的:基于深度学习的视频识别炮弹爆炸火光烟雾方法包括:
S1、通过预置网络上搜索获取炮弹打击视频图像数据,以提取得到样本数据,利用所述样本数据及预置阈值识别所述视频图像数据中的时间段数据及图像帧;
S2、分类标注所述样本数据,以得到火光样本数据及烟雾样本数据,据以生成分类样本集,以处理得到训练文件,获取并利用预训练模型及所述训练文件训练爆炸识别模型;
S3、利用darknet深度学习框架及yolov4算法,根据所述爆炸识别模型,取火光位置下方中心点坐标及其前后图像帧内中心点坐标的相互距离,据以判断每帧图像中的火光是否同一,以得到火光识别结果,以预置概率阈值、约定范围、烟雾消散时间及帧连续参数识别所述每帧图像中的烟雾,以得到烟雾识别结果,所述步骤S3还包括:
S31、获取所述每帧图像的像素区域数据,据以处理得到概率值,以所述预置概率阈值判断所述每帧图像中的烟雾;
S32、判断邻接的两帧中,前帧落点是否在后帧落点的所述约定范围内,据以判定获取同一炸点,以将后帧的所述约定范围作为新约定范围;
S33、以前述S31及S32处理所有帧数据,以识别图像中的连续烟雾;
S34、采集气候条件数据,据以处理得到所述烟雾消散时间,以清除已有烟雾数据并识别新烟雾;
S35、采集天气数据,据以设定所述帧连续参数,用以判定所述烟雾的真假;
S4、调整所述火光识别结果和所述烟雾识别结果的FPS、分辨率并推送至客户端。
本发明通过便捷样本数据采集、样本训练、火光及烟雾识别及结果视频推送等步骤快速识别炮弹爆炸的火光及烟雾。本发明能够接收实时视频流和离线视频文件,通过深度学习算法yolov4检测火光和烟雾,并只输出一次结果,将检测完成的视频重新作为视频流进行推送。利用本发明,能够检测火光和烟雾,并得到同一个火光或者烟雾的唯一结果,而不会重复识别。本发明提供快速辨别同一个持续的火光或烟雾的能力,避免同一个火光或烟雾被识别多次,影响识别率,并通过调整输出视频的FPS、分辨率,解决稳定、低带宽的结果视频输出,保证了可调整带宽的视频结果输出方法的稳定性,也能够对其他特定领域目标检测提供思路。
在更具体的技术方案中,所述步骤S1包括:
S11、触发帧截取操作,通过所述预置网络上搜索获取炮弹打击视频图像数据;
S12、利用FFmpeg视频处理工具从所述炮弹打击视频图像数据中提取得到所述样本数据。
在更具体的技术方案中,所述步骤S1的帧截取方式还包括:
S101、利用所述样本数据识别所述炮弹打击视频图像数据中的火光及烟雾;
S102、根据具体识别范围调节所述预置阈值,据以挑选得有用图像帧,以获取所述样本数据。
本发明采取了两种方法,第一种方法适用于零数据情况,另一种方法适用于已有样本数据情况,能够逐帧截取炮弹爆炸后产生的火光和烟雾,为了扩大识别范围,可将识别阈值调低,避免丢失火光和烟雾,挑选有用的图像帧,提供了一种快速获取样本数据的方法并验证了其可行性。
在更具体的技术方案中,所述步骤S2包括:
S21、分类标注所述样本数据,以得到火光样本数据及烟雾样本数据,据以生成测试集、训练集及评估集;
S22、根据生成测试集、训练集及评估集处理得到目标类别文件、类别数、测试训练集图像路径及权重信息;
S23、通过预训练获取所述预训练模型,据以根据所述目标类别文件、所述类别数、所述测试训练集图像路径及所述权重信息训练爆炸识别模型。
在更具体的技术方案中,所述步骤S23还包括:以训练输出的mAP和FPS判断当前的所述权重信息训练爆炸识别模型是否适用。
在更具体的技术方案中,所述步骤S3还包括:将离线视频文件模拟为RTSP协议视频流,并利用预置视频流稳定性检测工具文采视频流检测的稳定性。
在更具体的技术方案中,所述步骤S31包括:
S311、利用所述darknet深度学习框架及所述yolov4算法处理所述每帧图像,以得到不同的像素区域是否为烟雾的所述概率值;
S312、判断所述概率值是否大于所述预置概率阈值;
S313、若是,则判定该所述像素区域存在所述烟雾;
S314、若否,则排除该所述像素区域。
在更具体的技术方案中,所述步骤S31中的所述约定范围为所述烟雾的出现位置的下方中心点坐标为原点,以预置范围尺寸为半径的像素区域范围。
本发明以视频检测程序使用darknet深度学习框架、yolov4算法以及模型文件识别火光和烟雾,通过对约定范围的使用能够判断连续烟雾,避免同一个烟雾出现多次,提高了炮弹爆炸烟雾识别的精度。
在更具体的技术方案中,所述步骤S35包括:
S351、根据所述天气数据设定所述帧连续参数,其中,所述帧连续参数包括:连续20帧;
S352、如所述烟雾出现次数大于或等于所述帧连续参数,则判定所述烟雾为真。
本发明利用烟雾消散时间以清除已有烟雾,保证下一个烟雾如果落在了约定范围内则认为是新烟雾,防止重复对炮弹爆炸烟雾的重复识别。
本发明针对传统技术中在识别过程中可能出现错误,例如把不是烟雾的物体识别为烟雾的缺陷,设置连续帧录入20帧出现次数参数指标,以判断是否为真烟雾,提高了烟雾识别的准确性。本发明使用传统方式的多条件参数组合方式解决了同一个烟雾仅被当作识别结果输出一次的问题。
在更具体的技术方案中,基于深度学习的视频识别炮弹爆炸火光烟雾系统,其特征在于,所述系统包括:
样本采集模块,用以通过预置网络上搜索获取炮弹打击视频图像数据,以提取得到样本数据,利用所述样本数据及预置阈值识别所述视频图像数据中的时间段数据及图像帧;
模型训练模块,用以分类标注所述样本数据,以得到火光样本数据及烟雾样本数据,据以生成分类样本集,以处理得到训练文件,获取并利用预训练模型及所述训练文件训练爆炸识别模型,所述模型训练模块与所述样本采集模块连接;
火光及烟雾识别模块,用以利用darknet深度学习框架及yolov4算法,根据所述爆炸识别模型,取火光位置下方中心点坐标及其前后图像帧内中心点坐标的相互距离,据以判断每帧图像中的火光是否同一,以得到火光识别结果,以预置概率阈值、约定范围、烟雾消散时间及帧连续参数识别所述每帧图像中的烟雾,以得到烟雾识别结果,所述火光及烟雾识别模块与所述模型训练模块及所述样本采集模块连接,所述火光及烟雾识别模块还包括:
烟雾概率判定模块,用以获取所述每帧图像的像素区域数据,据以处理得到概率值,以所述预置概率阈值判断所述每帧图像中的烟雾;
约定范围判定模块,用以判断邻接的两帧中,前帧落点是否在后帧落点的所述约定范围内,据以判定获取同一炸点,以将后帧的所述约定范围作为新约定范围,所述约定范围判定模块与所述烟雾概率判定模块连接;
连续烟雾识别模块,用于以前述S31及S32处理所有帧数据,以识别图像中的连续烟雾,所述连续烟雾识别模块与所述约定范围判定模块及所述烟雾概率判定模块连接;
烟雾消散模块,用以采集气候条件数据,据以处理得到所述烟雾消散时间,以清除已有烟雾数据并识别新烟雾;
帧连续判定模块,用以采集天气数据,据以设定所述帧连续参数,用以判断所述烟雾的真假;
结果推送模块,用以将所述火光识别结果和所述烟雾识别结果推送至客户端。
本发明相比现有技术具有以下优点:本发明通过便捷样本数据采集、样本训练、火光及烟雾识别、结果视频推送等步骤快速识别炮弹爆炸的火光及烟雾。本发明能够接收实时视频流和离线视频文件,通过深度学习算法yolov4检测火光和烟雾,并只输出一次结果,将检测完成的视频重新作为视频流进行推送。利用本发明,能够检测火光和烟雾,并得到同一个火光或者烟雾的唯一结果,而不会重复识别。本发明提供快速辨别同一个持续的火光或烟雾的能力,避免同一个火光或烟雾被识别多次,影响识别率,并通过调整输出视频的FPS、分辨率,解决稳定、低带宽的结果视频输出,保证了可调整带宽的视频结果输出方法的稳定性,也能够对其他特定领域目标检测提供思路。
本发明采取了两种方法,第一种方法适用于零数据情况,另一种方法适用于已有样本数据情况,能够逐帧截取炮弹爆炸后产生的火光和烟雾,为了扩大识别范围,可将识别阈值调低,避免丢失火光和烟雾,挑选有用的图像帧,提供了一种快速获取样本数据的方法并验证了其可行性。
本发明以视频检测程序使用darknet深度学习框架、yolov4算法以及模型文件识别火光和烟雾,通过对约定范围的使用能够判断连续烟雾,避免同一个烟雾出现多次,提高了炮弹爆炸烟雾识别的精度。
本发明针对传统技术中在识别过程中可能出现错误,例如把不是烟雾的物体识别为烟雾的缺陷,设置连续帧录入20帧出现次数参数指标,以判断是否为真烟雾,提高了烟雾识别的准确性。本发明使用传统方式的多条件参数组合方式解决了同一个烟雾仅被当作识别结果输出一次的问题。本发明解决了现有技术中存在的难以针对炮弹爆炸火光烟雾进行高精度快速识别的技术问题。
附图说明
图1为本发明实施例1的基于深度学习的视频识别炮弹爆炸火光烟雾方法基本流程示意图;
图2为本发明实施例1的火光及烟雾识别具体步骤流程示意图;
图3为本发明实施例1的现场实验第一识别效果图;
图4为本发明实施例1的现场实验第二识别效果图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1
如图1所示,本发明的基于深度学习的视频识别炮弹爆炸火光烟雾方法包括以下步骤:
S1、采集样本;
在本实施例中,本发明涉及的样本数据颇为稀缺,多数来自网络或电视节目报道、相关网络视频文件等,所以如何快速的提取视频文件中适用的图像帧变得很关键,本发明采取了两种方法,第一种方法适用于零数据情况,另一种方法适用于已有样本数据情况。
方法一是手动截取视频关键帧,使用此方法能够逐帧截取炮弹爆炸后产生的火光和烟雾。在网络上搜索相关炮弹打击视频、图片,加载视频文件,在产生火光和烟雾前,触发截取操作,开始逐帧或者跳帧截取图像帧,挑选有用的图像帧,以此获取样本数据。手动截取视频关键帧主要采用FFmpeg视频处理工具,此工具为开源软件,具备丰富的视频处理功能,可轻松逐帧获取图像数据。
方法二是自动截取视频关键帧,使用已有的样本数据对视频文件进行火光和烟雾识别,将识别结果时间段内及前后时间段内容图像帧均作为结果输出,为了扩大识别范围,可将识别阈值调低,避免丢失火光和烟雾,挑选有用的图像帧,以此获取样本数据。
炮弹爆炸后产生的火光,存在的时间很短,形变不大。炮弹爆炸后产生的烟雾,存在的时间较长,形变很大,由前期的小型烟雾迅速放大,之后慢慢扩散、消散,本发明着重选择小型烟雾。
S2、标注样本;
在本实施例中,首先通过标注工具对样本数据进行标注,分为火光和烟雾两种类型分别进行标注。根据标注信息生成测试集图像路径、训练集图像路径、评估集图像路径。
之后准备训练文件,主要有三个:yolo.names、yolo.data、yolov4.cfg。其中yolo.names文件存储了所有样本的目标类别,本发明中是火光flare和烟雾fog;yolo.data文件存储了类别数、测试集图像路径、训练集图像路径、权重等信息;yolov4.cfg文件存储了yolov4的网络结构。
S3、模型训练;
在本实施例中,接下来进行模型训练,模型训练时需要用到预训练模型。对于卷积神经网络CNN结构来说,不同层学到的图像特征不一样,越浅层学到的特征越通用,越深层学到的特征和具体任务关联性就越强。预训练模型就是已经用数据集训练好了的模型。模型训练以及接下来的识别选用开源深度学习框架darknet。
S4、模型评估;
在本实施例中,训练输出中的mAP和FPS作为判断模型好坏条件之一,另需要拿出部分测试数据验证模型好坏。
S5、火光及烟雾识别;
在本实施例中,根据业务需要,将离线视频文件模拟为RTSP协议视频流。
视频检测程序使用darknet深度学习框架、yolov4算法以及模型文件识别火光和烟雾。为了不受RTSP协议视频流稳定性的影响,添加了视频流稳定性检测模块,保证视频检测程序持续运行。
在本实施例中,对于火光,平均出现5~8帧图像,对其识别率很高,取其出现位置的下方中心点坐标,判断每帧图像出现位置是否相近即可判断是否为同一个火光。
对于烟雾,出现时长与当天天气情况有关,是否有雾、风力大小等都会影响烟雾的识别,其中雾气对烟雾的识别率有影响。为了解决同一个烟雾被识别多次后输出多次的问题,设置了概率阈值、约定范围、烟雾消散时间、连续20帧出现次数等参数。
如图2所示,步骤S5中条件判断的步骤还包括:
S51、判断烟雾概率值是否大于设定的烟雾概率阈值;在本实施例中,当程序处理一帧图像时,会得到不同像素区域是否为烟雾的概率值;
S52、当大于设定的概率阈值时,程序认定此像素区域可能是烟雾,进入接下来的验证流程;
S53、否则放弃此像素区域;
S54、判断第二帧图像中落点是否在第一帧的约定范围中;
自然界中烟雾的规律,由小到大,从无到有再到消散,是一个连续的过程,而炮弹爆炸后的烟雾形态,下小上大,烟雾出现初期,烟雾与地面接触点基本不会发生变化。基于烟雾的连续、与地面接触点不变这两个特点,程序设置了约定范围指标参数。约定范围是指以烟雾出现位置的下方中心点坐标为圆点,以约定范围为半径的像素区域范围。假如前后两帧图像中都有某些像素区域经过了第一步概率阈值的判断,设定第一帧中的约定范围,查看第二帧图像中落点是否在第一帧的约定范围中。
S55、当落点在约定范围内时为同一个炸点,这时使用第二帧图像的约定范围作为新的约定范围,之后图像帧都进行如此判断和处理;
S56、当落点不在约定范围内时,认定为不同炸点。在本实施例中,通过对约定范围的使用能够判断连续烟雾,避免同一个烟雾出现多次。
S57、根据烟雾消散时间清除已有烟雾,以保证当下一个烟雾落在了约定范围内时则被认定新烟雾;
在不同的气候条件下,烟雾持续时间不同,例如无风的晴朗天气下,炮弹爆炸后的烟雾能够持续几分钟不等,在如此上的时间内,极易发生炮弹在附近爆炸的情况发生,而被约定范围判断为同一炸点。烟雾消散时间用于清除烟雾,保证下一个烟雾如果落在了约定范围内则认为是新烟雾。烟雾消散时间值的设定与当前天气情况相关,可以在第一发炮弹爆炸时获取烟雾的消散时间。
S58、以帧连续次数判定烟雾的真假;
在本实施例中,自然界中各种物体形态、颜色都可能出现相似情况,程序在识别过程中可能出现错误,例如把不是烟雾的物体识别为烟雾,为解决这个问题设置连续20帧出现次数参数指标,连续20帧出现次数用于判断是否为真烟雾。不同的拍摄设备每秒图像帧数不同,20帧差不多为1秒视频的图像帧数。当设置此参数指标为10时,表示在连续出现的20帧图像中,有10次被识别为烟雾,则为真烟雾。此参数因天气有关,当大雾天气或者雨天时,需要降低此数值。
S6、输出结果并推送至客户端。
在本实施例中,结果推送包括两部分,其一是带有识别结果的图像和识别结果坐标,其二是带有识别结果的实时视频。对于第一部分结果无需赘述,直接保存到指定位置即可。对于第二部分结果则需要考虑多方面的问题,包括是否有接收端、发送时的FPS、结果显示方式、像素等等。本发明通过解决以上问题,能够稳定持续输出、有效降低网络带宽、降低客户端处理压力等。
如图3及图4所示,以上是本发明的整个过程的叙述,本发明已经编码实现且完成现场试验,基于现场试验数据,自动炸点识别率高于98%。
综上,本发明通过便捷样本数据采集、样本训练、火光及烟雾识别、结果视频推送等步骤快速识别炮弹爆炸的火光及烟雾。本发明能够接收实时视频流和离线视频文件,通过深度学习算法yolov4检测火光和烟雾,并只输出一次结果,将检测完成的视频重新作为视频流进行推送。利用本发明,能够检测火光和烟雾,并得到同一个火光或者烟雾的唯一结果,而不会重复识别。本发明提供快速辨别同一个持续的火光或烟雾的能力,避免同一个火光或烟雾被识别多次,影响识别率,并通过调整输出视频的FPS、分辨率,解决稳定、低带宽的结果视频输出,保证了可调整带宽的视频结果输出方法的稳定性,也能够对其他特定领域目标检测提供思路。
本发明采取了两种方法,第一种方法适用于零数据情况,另一种方法适用于已有样本数据情况,能够逐帧截取炮弹爆炸后产生的火光和烟雾,为了扩大识别范围,可将识别阈值调低,避免丢失火光和烟雾,挑选有用的图像帧,提供了一种快速获取样本数据的方法并验证了其可行性。
本发明以视频检测程序使用darknet深度学习框架、yolov4算法以及模型文件识别火光和烟雾,通过对约定范围的使用能够判断连续烟雾,避免同一个烟雾出现多次,提高了炮弹爆炸烟雾识别的精度。
本发明针对传统技术中在识别过程中可能出现错误,例如把不是烟雾的物体识别为烟雾的缺陷,设置连续帧录入20帧出现次数参数指标,以判断是否为真烟雾,提高了烟雾识别的准确性。本发明使用传统方式的多条件参数组合方式解决了同一个烟雾仅被当作识别结果输出一次的问题。本发明解决了现有技术中存在的难以针对炮弹爆炸火光烟雾进行高精度快速识别的技术问题。
以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (8)

1.基于深度学习的视频识别炮弹爆炸火光烟雾方法,其特征在于,所述方法包括:
S1、通过预置网络上搜索获取炮弹打击视频图像数据,以提取得到样本数据,利用所述样本数据及预置阈值识别所述视频图像数据中的时间段数据及图像帧;
S2、分类标注所述样本数据,以得到火光样本数据及烟雾样本数据,据以生成分类样本集,以处理得到训练文件,获取并利用预训练模型及所述训练文件训练爆炸识别模型;
S3、利用darknet深度学习框架及yolov4算法,根据所述爆炸识别模型,取火光位置下方中心点坐标及其前后图像帧内中心点坐标的相互距离,据以判断每帧图像中的火光是否同一,以得到火光识别结果,以预置概率阈值、约定范围、烟雾消散时间及帧连续参数识别所述每帧图像中的烟雾,以得到烟雾识别结果,所述步骤S3还包括:
S31、获取所述每帧图像的像素区域数据,据以处理得到概率值,以所述预置概率阈值判断所述每帧图像中的烟雾;
S32、判断邻接的两帧中,前帧落点是否在后帧落点的所述约定范围内,据以判定获取同一炸点,以将后帧的所述约定范围作为新约定范围,其中,所述约定范围为所述烟雾的出现位置的下方中心点坐标为原点,以预置范围尺寸为半径的像素区域范围;
S33、以前述S31及S32处理所有帧数据,以识别图像中的连续烟雾;
S34、采集气候条件数据,据以处理得到所述烟雾消散时间,以清除已有烟雾数据并识别新烟雾;
S35、采集天气数据,据以设定帧连续参数,用以判定所述烟雾的真假,其中,所述步骤S35中根据所述天气数据设定所述帧连续参数,其中,所述帧连续参数包括:连续20帧;如所述烟雾出现次数大于或等于所述帧连续参数,则判定所述烟雾为真;
S4、调整所述火光识别结果和所述烟雾识别结果的FPS、分辨率并推送至客户端。
2.根据权利要求1所述的基于深度学习的视频识别炮弹爆炸火光烟雾方法,其特征在于,所述步骤S1包括:
S11、触发帧截取操作,通过所述预置网络上搜索获取炮弹打击视频图像数据;
S12、利用FFmpeg视频处理工具从所述炮弹打击视频图像数据中提取得到所述样本数据。
3.根据权利要求1所述的基于深度学习的视频识别炮弹爆炸火光烟雾方法,其特征在于,所述步骤S1的帧截取方式还包括:
S101、利用所述样本数据识别所述炮弹打击视频图像数据中的火光及烟雾;
S102、根据具体识别范围调节所述预置阈值,据以挑选得有用图像帧,以获取所述样本数据。
4.根据权利要求1所述的基于深度学习的视频识别炮弹爆炸火光烟雾方法,其特征在于,所述步骤S2包括:
S21、分类标注所述样本数据,以得到火光样本数据及烟雾样本数据,据以生成测试集、训练集及评估集;
S22、根据生成测试集、训练集及评估集处理得到目标类别文件、类别数、测试训练集图像路径及权重信息;
S23、通过预训练获取所述预训练模型,据以根据所述目标类别文件、所述类别数、所述测试训练集图像路径及所述权重信息训练爆炸识别模型。
5.根据权利要求4所述的基于深度学习的视频识别炮弹爆炸火光烟雾方法,其特征在于,所述步骤S23还包括:以训练输出的mAP和FPS判断当前的所述权重信息训练爆炸识别模型是否适用。
6.根据权利要求1所述的基于深度学习的视频识别炮弹爆炸火光烟雾方法,其特征在于,所述步骤S3还包括:将离线视频文件模拟为RTSP协议视频流,并利用预置视频流稳定性检测工具文采视频流检测的稳定性。
7.根据权利要求1所述的基于深度学习的视频识别炮弹爆炸火光烟雾方法,其特征在于,所述步骤S31包括:
S311、以预置逻辑处理所述每帧图像,以得到不同的像素区域是否为烟雾的所述概率值;
S312、判断所述概率值是否大于所述预置概率阈值;
S313、若是,则判定该所述像素区域存在所述烟雾;
S314、若否,则排除该所述像素区域。
8.基于深度学习的视频识别炮弹爆炸火光烟雾系统,其特征在于,所述系统包括:
样本采集模块,用以通过预置网络上搜索获取炮弹打击视频图像数据,以提取得到样本数据,利用所述样本数据及预置阈值识别所述视频图像数据中的时间段数据及图像帧;
模型训练模块,用以分类标注所述样本数据,以得到火光样本数据及烟雾样本数据,据以生成分类样本集,以处理得到训练文件,获取并利用预训练模型及所述训练文件训练爆炸识别模型,所述模型训练模块与所述样本采集模块连接;
火光及烟雾识别模块,用以利用darknet深度学习框架及yolov4算法,根据所述爆炸识别模型,取火光位置下方中心点坐标及其前后图像帧内中心点坐标的相互距离,据以判断每帧图像中的火光是否同一,以得到火光识别结果,以预置概率阈值、约定范围、烟雾消散时间及帧连续参数识别所述每帧图像中的烟雾,以得到烟雾识别结果,所述火光及烟雾识别模块与所述模型训练模块及所述样本采集模块连接,所述火光及烟雾识别模块还包括:
烟雾概率判定模块,用以获取所述每帧图像的像素区域数据,据以处理得到概率值,以所述预置概率阈值判断所述每帧图像中的烟雾;
约定范围判定模块,用以判断邻接的两帧中,前帧落点是否在后帧落点的所述约定范围内,据以判定获取同一炸点,以将后帧的所述约定范围作为新约定范围,其中,所述约定范围为所述烟雾的出现位置的下方中心点坐标为原点,以预置范围尺寸为半径的像素区域范围,所述约定范围判定模块与所述烟雾概率判定模块连接;
连续烟雾识别模块,用于以所述烟雾概率判定模块及所述约定范围判定模块处理所有帧数据,以识别图像中的连续烟雾,所述连续烟雾识别模块与所述约定范围判定模块及所述烟雾概率判定模块连接;
烟雾消散模块,用以采集气候条件数据,据以处理得到所述烟雾消散时间,以清除已有烟雾数据并识别新烟雾;
帧连续判定模块,用以采集天气数据,据以设定帧连续参数,用以判断所述烟雾的真假,其中,所述帧连续参数包括:连续20帧;如所述烟雾出现次数大于或等于所述帧连续参数,则判定所述烟雾为真;
结果推送模块,用以将所述火光识别结果和所述烟雾识别结果推送至客户端。
CN202210688653.8A 2022-06-17 2022-06-17 基于深度学习的视频识别炮弹爆炸火光烟雾方法及系统 Active CN114943923B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210688653.8A CN114943923B (zh) 2022-06-17 2022-06-17 基于深度学习的视频识别炮弹爆炸火光烟雾方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210688653.8A CN114943923B (zh) 2022-06-17 2022-06-17 基于深度学习的视频识别炮弹爆炸火光烟雾方法及系统

Publications (2)

Publication Number Publication Date
CN114943923A CN114943923A (zh) 2022-08-26
CN114943923B true CN114943923B (zh) 2022-12-23

Family

ID=82910212

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210688653.8A Active CN114943923B (zh) 2022-06-17 2022-06-17 基于深度学习的视频识别炮弹爆炸火光烟雾方法及系统

Country Status (1)

Country Link
CN (1) CN114943923B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115330779B (zh) * 2022-10-13 2022-12-20 四川迪晟新达类脑智能技术有限公司 民用爆破中基于火光和烟尘的爆破时刻确认方法及系统
CN116883764B (zh) * 2023-09-07 2023-11-24 武汉船用电力推进装置研究所(中国船舶集团有限公司第七一二研究所) 一种电池系统故障识别方法及装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109753878A (zh) * 2018-12-06 2019-05-14 北京科技大学 一种恶劣天气下的成像识别方法及系统
CN109977790A (zh) * 2019-03-04 2019-07-05 浙江工业大学 一种基于迁移学习的视频烟雾检测与识别方法
CN112132090A (zh) * 2020-09-28 2020-12-25 天地伟业技术有限公司 一种基于yolov3的烟火自动检测预警方法
CN112150512A (zh) * 2020-09-30 2020-12-29 中国科学院上海微系统与信息技术研究所 融合背景差分法和聚类法的弹着点定位方法
CN112906463A (zh) * 2021-01-15 2021-06-04 上海东普信息科技有限公司 基于图像的火情检测方法、装置、设备及存储介质
CN113011319A (zh) * 2021-03-16 2021-06-22 上海应用技术大学 多尺度火灾目标识别方法及系统
CN113096103A (zh) * 2021-04-15 2021-07-09 北京工业大学 一种面向放空火炬的烟气智能影像感知方法
CN113989735A (zh) * 2021-09-30 2022-01-28 南京铁辰安全技术有限公司 基于视频图片的人工智能烟火分析方法及系统

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210073692A1 (en) * 2016-06-12 2021-03-11 Green Grid Inc. Method and system for utility infrastructure condition monitoring, detection and response
US11195010B2 (en) * 2018-05-23 2021-12-07 Smoked Sp. Z O. O. Smoke detection system and method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109753878A (zh) * 2018-12-06 2019-05-14 北京科技大学 一种恶劣天气下的成像识别方法及系统
CN109977790A (zh) * 2019-03-04 2019-07-05 浙江工业大学 一种基于迁移学习的视频烟雾检测与识别方法
CN112132090A (zh) * 2020-09-28 2020-12-25 天地伟业技术有限公司 一种基于yolov3的烟火自动检测预警方法
CN112150512A (zh) * 2020-09-30 2020-12-29 中国科学院上海微系统与信息技术研究所 融合背景差分法和聚类法的弹着点定位方法
CN112906463A (zh) * 2021-01-15 2021-06-04 上海东普信息科技有限公司 基于图像的火情检测方法、装置、设备及存储介质
CN113011319A (zh) * 2021-03-16 2021-06-22 上海应用技术大学 多尺度火灾目标识别方法及系统
CN113096103A (zh) * 2021-04-15 2021-07-09 北京工业大学 一种面向放空火炬的烟气智能影像感知方法
CN113989735A (zh) * 2021-09-30 2022-01-28 南京铁辰安全技术有限公司 基于视频图片的人工智能烟火分析方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
战役战术导弹毁伤效能评估系统设计与实现;谢文 等;《江苏省系统工程学会第十一届学术年会论文集》;20091001;第111-114页 *

Also Published As

Publication number Publication date
CN114943923A (zh) 2022-08-26

Similar Documents

Publication Publication Date Title
CN114943923B (zh) 基于深度学习的视频识别炮弹爆炸火光烟雾方法及系统
CN108062349B (zh) 基于视频结构化数据及深度学习的视频监控方法和系统
CN110543867B (zh) 一种多摄像头条件下的人群密度估测系统及方法
CN110852219B (zh) 一种多行人跨摄像头在线跟踪系统
KR101615254B1 (ko) 디지털 이미지들에서 얼굴 표정들을 검출
CN108319926A (zh) 一种工地现场的安全帽佩戴检测系统及检测方法
CN111161206A (zh) 一种图像抓拍方法、监控相机及监控系统
CN111178120B (zh) 一种基于作物识别级联技术的害虫图像检测方法
CN110390229B (zh) 一种人脸图片筛选方法、装置、电子设备及存储介质
US20070116364A1 (en) Apparatus and method for feature recognition
US20190005353A1 (en) Method and system for training a neural network to classify objects or events
CN111898581A (zh) 动物检测方法、装置、电子设备及可读存储介质
CN113920585A (zh) 行为识别方法及装置、设备和存储介质
CN113361513A (zh) 移动端舌象采集方法、装置及设备
CN111160299A (zh) 活体识别方法及装置
CN114937095A (zh) 一种摄像机布控方法、装置、系统、分析设备及存储介质
CN111553408B (zh) 视频识别软件自动测试的方法
CN111310602A (zh) 一种基于情绪识别的展品关注度分析系统及分析方法
CN102314612A (zh) 一种笑脸图像的识别方法、识别装置和图像获取设备
CN102314611A (zh) 一种笑脸图像的识别方法和识别装置
CN111291597A (zh) 一种基于图像的人群态势分析方法、装置、设备及系统
CN112395922A (zh) 面部动作检测方法、装置及系统
CN113132615B (zh) 对象图像获取方法、装置、电子设备及存储介质
CN111144363B (zh) 一种基于场景和物体信息的第一视角下的行为识别方法
CN109544505A (zh) 咖啡开花期的检测方法、装置及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant