CN113989735A - 基于视频图片的人工智能烟火分析方法及系统 - Google Patents

基于视频图片的人工智能烟火分析方法及系统 Download PDF

Info

Publication number
CN113989735A
CN113989735A CN202111163127.1A CN202111163127A CN113989735A CN 113989735 A CN113989735 A CN 113989735A CN 202111163127 A CN202111163127 A CN 202111163127A CN 113989735 A CN113989735 A CN 113989735A
Authority
CN
China
Prior art keywords
information
image
video data
frame
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111163127.1A
Other languages
English (en)
Inventor
黄啸晨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Tiechen Safety Technology Co ltd
Original Assignee
Nanjing Tiechen Safety Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Tiechen Safety Technology Co ltd filed Critical Nanjing Tiechen Safety Technology Co ltd
Priority to CN202111163127.1A priority Critical patent/CN113989735A/zh
Publication of CN113989735A publication Critical patent/CN113989735A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

本发明提供基于视频图片的人工智能烟火分析方法,包括第一步,视频转码;第二步,视频数据预处理;第三步,预设图像识别模型;第四步,输出图像识别结果;第五步,图像识别结果信息的区域判定。烟火识别是建立在人工智能算法基础上,以图像数据作为分析对象,识别图像中烟火;该模型可以通过再训练进一步提高识别率,消除误报;从而在系统的视频合并模式可以实现对算力硬件资源的最优化使用,大幅节约硬件成本。

Description

基于视频图片的人工智能烟火分析方法及系统
技术领域
本发明涉及烟火识别技术领域,具体为基于视频图片的人工智能烟火分析方法及系统。
背景技术
现有的火灾报警系统分为两大类:探测器类:如烟感、温感等,近距离探测烟雾浓度、温度。以及红外视频类:通过红外摄像头,远距离探测目标位置温度。
而探测器设备对烟火的感知存在延时,以烟感为例,只有当烟雾浓度达到一定阈值才会触发报警,此时距起烟起火可能已经经过了一段时间;此外,探测器类设备覆盖范围有限,仅能探测周边10平方米的范围;探测器类设备仅能用于室内,无法应用于室外开放空间;
而红外摄像头为专用设备,价格高昂,需要安装施工,带来大量工程量;红外摄像头是通过温度进行识别,对于火焰有较高的识别率,但是无法识别火灾早期的起烟情况;红外摄像头容易对高温物体发生误报。
发明内容
针对现有技术存在的不足,本发明目的是提供基于视频图片的人工智能烟火分析方法及系统,以解决上述背景技术中提出的问题,本发明通过将烟火识别建立在人工智能算法基础上,以图像数据作为分析对象,识别图像中烟火的方式;并通过样本训练再进一步提高识别率,消除误报的方式,解决了现有技术中的问题。
为了实现上述目的,本发明是通过如下的技术方案来实现:基于视频图片的人工智能烟火分析方法,包括以下步骤:
第一步,视频转码
获取多路视频源中的视频数据,对其进行RTMP格式转码,以保证不同型号采集设备间的数据兼容,同时将视频分辨率统一压缩至识别模型分辨率;
第二步,视频数据预处理
S2-1、对视频数据进行帧采样,降低视频数据中每帧图像的帧率;
S2-2,对每帧图像进行帧标识,给每帧图像增加图片识别码ID,并将图片识别码ID转化为二进制,生成图片识别码ID所对应的序列图片,基于生成的序列图片,将其叠加至原始帧位置;
S2-3,对经帧标识后的视频数据进行帧合并
通过预设采样率在采样时间点分别抽取多路视频数据中的一帧图像放入进行帧合并队列,以作为合并后视频数据的1~n帧,其中,n为视频数据源数量,并将已抽取的源视频帧送至下一采样时间点输出;
S2-4,返回步骤S2-1,循环;
第三步,预设图像识别模型
S3-1,获取采样图像训练样本,所述图像训练样本至少标注有第一训练特征信息和第二训练特征信息,所述第一训练特征信息用于表征视频图片起烟起火信息,所述第二训练特征信息用于表征视频图片无烟火信息;
S3-2,采用所述第一训练特征信息和第二训练特征信息对卷积神经网络进行训练,得到图像识别模型;
第四步,输出图像识别结果
S4-1,基于所述图像识别模型,以所述图片识别码ID中的每一帧图像作为分析对象,提取所述图像特征信息;
S4-2,将所述图像特征信息与获取的采样图像训练样本中的训练特征信息进行比对,获得结果对应关系;
S4-3,依据与S4-1的提取并识别过程输出图像识别结果信息。
进一步的,还包括以下步骤:
第五步,图像识别结果信息的区域判定
对所述图像识别结果信息进行识别区域的勾画,以用于保证所述图像识别结果信息处于外部监控图像范围内,其具体实施方式为:基于视频图片的人工智能烟火分析结果进行图像识别结果信息的划定区域。
进一步的,基于第四步,还需要对所得到的图像识别结果信息进行信息唯一性判断,以保证图像识别模型输出无误信息,降低误报率,其具体实施方式为:当发生报警后,由人工确认警情真伪,如果确认为误报,则加入负样本集中,收集一定量负样本后进行再次训练。
进一步的,在第三步中,所述图像识别结果信息包括火焰信息以及烟雾信息,其中,
若图像识别结果信息达到外部系统设定的报警阙值,则生成此图像识别结果信息的存储信息,所述存储信息包括图像信息、视频图片存储路径信息、所采集图像信息的设备终端信息、报警时间信息以及报警类型信息。
进一步的,所述采样图像训练样本还标注有第三训练特征信息以及第四训练特征信息,其中,
所述第三训练特征信息用于表征视频图片发生火或烟的区域位置信息,所述第四训练特征信息用于表征视频图片所发生火或烟类型信息,且,
若所述第一训练特征信息和第二训练特征信息对卷积神经网络进行训练时,通过预设损失函数分别对所述第一训练特征信息和第二训练特征信息的损失值进行计算,以用于图像识别模型通过对采样图像训练样本的学习,自动调整其内部参数,从而提高识别率的效果,具体实施方式包括:将原始图片按不同区块大小进行特征提取;融合提取的特征信息;对融合后的信息进行卷积;计算损失函数。
进一步的,本发明提出一种基于视频图片的人工智能烟火分析系统,
包括视频数据获取模块、视频数据处理模块、训练模块以及输出模块,其中,
视频数据获取模块,用于获取多路视频源中的目标视频数据;
视频数据处理模块,用于对所述目标视频数据进行格式转码后,同步完成所述目标视频中所携带图像的预处理,得到经帧合并后的目标视频数据图像;
训练模块,获取采样图像训练样本,用于通过采样图像训练样本中的训练特征信息对卷积神经网络进行训练,得到图像识别模型;
输出模块,用于将所述目标视频数据图像输入至所述图像识别模型,得到所述目标视频数据的图像识别结果信息。
进一步的,本发明提出的烟火分析系统,还包括视频数据发生区域判定模块、时间判定模块、存储模块以及警情推送模块,其中,
视频数据发生区域判定模块,用于监控输出所述图像识别结果信息在外部终端监控设备上的区域位置信息;
时间判定模块,用于对所述训练模块输出得到的图像识别结果信息进行信息正确的唯一性判断,以保证所述图像识别模型输出无误信息,降低输出模块输出误报率;
存储模块,用于对训练模块所输出的图像识别结果信息进行入库存储,并转化为存储信息,以供训练模块的采样图像训练样本使用;
警情推送模块,用于搭建第三方执行软件以推送图像识别结果信息中达到预警阙值的预警信息至所述系统的预设联系人,完成警情提示。
进一步的,所述视频数据处理模块包括视频数据转码单元、视频数据帧采样处理单元、视频数据帧标识处理单元以及视频数据帧合并处理单元,其中,
所述视频数据转码处理单元,用于对所获取多路视频源中的目标视频数据进行RTMP格式转码,以保证不同型号采集设备间的数据兼容;
所述视频数据帧采样处理单元,用于对经转码后的目标视频数据,进行帧采样,降低所述目标视频数据中每帧图像的帧率;
所述视频数据帧标识处理单元,用于对每帧所述图像进行帧标识,保证所述系统辨别该帧图像所对应的经帧标识处理的视频数据;
所述视频数据帧合并处理单元,用于对经帧标识后的视频数据进行帧合并,以提高所述系统硬件设备的算力冗余。
作为本发明的第三方面,提出了一种基于视频图片的人工智能烟火分析的电子设备,包括至少一个处理器以及与至少一个所述处理器建立信息交互通道的存储器,其中,
每个所述存储器存储有可被至少一个所述处理器执行的计算机程序;
所述计算机程序被至少一个所述处理器执行,以使至少一个所述处理器执行所述的基于视频图片的人工智能烟火分析方法和/或所述的基于视频图片的人工智能烟火分析系统。
与现有技术相比,本发明的有益效果:
本发明中,烟火识别是建立在人工智能算法基础上,以图像数据作为分析对象,识别图像中烟火;该模型可以通过再训练进一步提高识别率,消除误报;从而在系统的视频合并模式可以实现对算力硬件资源的最优化使用,大幅节约硬件成本。
附图说明
参照附图来说明本发明的公开内容。应当了解,附图仅仅用于说明目的,而并非意在对本发明的保护范围构成限制,在附图中,相同的附图标记用于指代相同的部件。其中:
图1为本发明一实施例中所提出的基于视频图片的人工智能烟火分析方法的实施流程示意图;
图2为本发明一实施例中所提出的基于视频图片的人工智能烟火分析方法中进行视频合并的流程示意图;
图3为本发明一实施例中在进行视频合并时解析出原始视频ID的示意图;
图4为本发明一实施例中所提出的基于图像识别模型进行烟火识别的实施场景图;
图5为本发明一实施例中所提出对图像识别结果信息进行区域判定时的实施场景图二。
图6为本发明一实施例中所提出基于图像识别模型通过对采样图像训练样本的学习,自动调整其内部参数时的原理示意图。
具体实施方式
容易理解,根据本发明的技术方案,在不变更本发明实质精神下,本领域的一般技术人员可以提出可相互替换的多种结构方式以及实现方式。因此,以下具体实施方式以及附图仅是对本发明的技术方案的示例性说明,而不应当视为本发明的全部或者视为对本发明技术方案的限定或限制。
如图1-6所示,作为本发明的一个实施例,本发明提供技术方案:基于视频图片的人工智能烟火分析方法,包括以下步骤:
第一步,视频转码
获取多路视频源中的视频数据,对其进行RTMP格式转码,以保证不同型号采集设备间的数据兼容,同时将视频分辨率统一压缩至识别模型分辨率;
第二步,视频数据预处理
S2-1、对视频数据进行帧采样,降低视频数据中每帧图像的帧率,需要说明的是,对视频数据进行帧采样的通用方式是全帧分析,通过跳帧采样合并的方式,降低了单位时间内每路视频分析的帧数,使得原来分析一路视频需要的GPU计算资源,实现可以分析多路的优点;
S2-2,对每帧图像进行帧标识,给每帧图像增加图片识别码ID,并将图片识别码ID转化为二进制,生成图片识别码ID所对应的序列图片,基于生成的序列图片,将其叠加至原始帧位置,可以理解的是,此处的原始帧位置为处于帧采样阶段的视频数据,其采样之后压缩到同一分辨率后叠加识别ID;
S2-3,对经帧标识后的视频数据进行帧合并
通过预设采样率在采样时间点分别抽取多路视频数据中的一帧图像放入进行帧合并队列,以作为合并后视频数据的1~n帧,其中,n为视频数据源数量,并将已抽取的源视频帧送至下一采样时间点输出,可以理解的是,在具体实施时,将三路视频各抽取一帧后,丢弃到下个采样点之间的源视频帧,那么此过程中所丢弃的源视频帧是指,三路视频中已抽取外的视频帧,进入下一采用点再循环抽取。
基于上述第二步的技术构思,可以理解的是,一方面,常使用的视频帧率为25fps,造成了5fps每路的算力的冗余,另一方面,由于实际使用中,两帧之间的变化非常小(25fps情况下,间隔仅为40ms),如对每帧图像都进行识别,将极大的浪费算力资源,因此,使用采样的做法,将帧率降低,但是帧率降低后也将进一步导致算力的冗余,因此,本发明采用帧合并的方式,将多路视频帧合并为一路视频流进行运算,保证硬件资源的充分利用,其中,
如图2所示,以三路视频合并为例,采样率为1/3,采样时间点将三路视频各抽取一帧,放入队列,作为合并视频的1-3帧,丢弃到下个采样点之间的源视频帧,以此循环。同时,由于最后识别的视频流是多个原始流合并形成,进行AI识别发生报警时,系统无法辨别该帧对应的原始视频ID,需要将系统可识别的标识加入每帧图片数据中,同时不能改变视频码流的数据结构。系统通过在图片周边位置增加图片识别码来实现此功能,可以理解的是,周边位置具体实现中可以调整,本发明在具体实施时,采用的是在图片左上角第一个像素起,高度20像素,宽度20像素作为一个色块,每个色块黑色代表1白色代表0,顺序排列6个色块,可以表达0-31,如果后续需要扩展路数,可以增加色块数量,每增加一个色块,可表达的ID数增加一倍。
如图3所示,本发明在对原始视频ID在具体实施辨别时,将视频ID转化为二进制,并转换成对应黑白色块序列图片,在帧采样时,将该图片叠加在原始帧固定位置,AI识别发生报警时按照此规则反向解析出原始视频ID,黑色=1,白色=0,解析结果101101,转换为十进制结果45。
S2-4,返回步骤S2-1,循环;
第三步,预设图像识别模型,可以理解的是,图像识别模型建立YOLO算法基础上,以输入的视频码中的每一帧图像作为分析对象,对图像中的物体进行提取,并获得与结果的对应关系,输出结果包含火焰与烟雾两类,需要说明的是,在建模时,先收集大量的起烟起火图片(正样本)及无烟火的图片(负样本),并对火/烟的区域位置及类型进行标注,将带标签的图片数据输入模型进行训练,模型通过对样本的学习,自动调整内部参数,从而达到提高识别率的效果,其具体实施方式为:
S3-1,获取采样图像训练样本,图像训练样本至少标注有第一训练特征信息和第二训练特征信息,第一训练特征信息用于表征视频图片起烟起火信息,第二训练特征信息用于表征视频图片无烟火信息,可以理解的是,起烟起火信息需要包含烟、火类型,以及烟火的区域在图片中的位置(以像素或相对百分比定义);
S3-2,采用第一训练特征信息和第二训练特征信息对卷积神经网络进行训练,得到图像识别模型,可以理解的是,原有YOLO算法是广义的目标识别,因此,本发明结合烟火识别数据集的特点,将优化函数由SGD替换为Adam,从而具备,大概率提升模型训练效果,同时由单线程改为多线程,提高了并发运算能力;
第四步,输出图像识别结果
S4-1,基于图像识别模型,以图片识别码ID中的每一帧图像作为分析对象,提取图像特征信息,提取图像特征信息是通过模型运算,识别图片中出现对应识别物(烟、火)的概率;
S4-2,将图像特征信息与获取的采样图像训练样本中的训练特征信息进行比对,获得结果对应关系;
S4-3,依据S4-1的提取并识别的过程,输出图像识别结果信息。
在本发明的一实施例中,本发明还包括以下步骤:
第五步,图像识别结果信息的区域判定
对图像识别结果信息进行识别区域的勾画,以用于保证图像识别结果信息处于外部监控图像范围内,其具体实施方式为:基于视频图片的人工智能烟火分析结果进行图像识别结果信息的划定区域,可以理解的是,基于区域判定,对于只需要监控图像中特定区域的场景,可以在图像上勾画出识别区域,当系统识别到烟火报警时,会对区域进行进一步判定,如果在设定区域外,则忽略此次结果;
与此同时,为解决图像识别结果信息会存在误报的情况,因此,本发明对连续多帧的识别情况汇总,降低误报率,例如:连续10秒中出现超过5帧则触发报警,可以有效过滤偶发性误报。
基于第四步,还需要对所得到的图像识别结果信息进行信息唯一性判断,以保证图像识别模型输出无误信息,降低误报率,其具体实施方式为:当发生报警后,由人工确认警情真伪,如果确认为误报,则加入负样本集中,收集一定量负样本后进行再次训练。
需说明的是,在第三步中,图像识别结果信息包括火焰信息以及烟雾信息,其中,
若图像识别结果信息达到外部系统设定的报警阙值,则生成此图像识别结果信息的存储信息,存储信息包括图像信息、视频图片存储路径信息、所采集图像信息的设备终端信息、报警时间信息以及报警类型信息,在具体实施时,基于系统识别到烟火报警时,系统确定触发报警后,报警对应图片将被保存,存储路径以及报警摄像头ID、时间、报警类型将被写入数据库,以供查看及后续训练,同时在报警后将触发推送功能,第一时间通过系统平台、短信、语音电话等方式通知预设的联系人。
在本发明的一实施例中,采样图像训练样本还标注有第三训练特征信息以及第四训练特征信息,其中,
第三训练特征信息用于表征视频图片发生火或烟的区域位置信息,第四训练特征信息用于表征视频图片所发生火或烟类型信息,且,
若第一训练特征信息和第二训练特征信息对卷积神经网络进行训练时,通过预设损失函数分别对第一训练特征信息和第二训练特征信息的损失值进行计算,以用于图像识别模型通过对采样图像训练样本的学习,自动调整其内部参数,从而提高识别率的效果,具体实施方式包括:1)将原始图片按不同区块大小进行特征提取;2)融合提取的特征信息;3)对融合后的信息进行卷积;4)计算损失函数。
可以理解的是,一方面,探测器设备对烟火的感知存在延时,以烟感为例,只有当烟雾浓度达到一定阈值才会触发报警,此时距起烟起火可能已经经过了一段时间;而本发明提出的视频烟火分析可以在火灾初期,刚起烟起火时就能识别到火情;同时,由于探测器类设备覆盖范围有限,仅能探测周边10平方米的范围;视频烟火分析可以覆盖摄像头可见范围内上千平方米的范围,因此适用于室内及室外场景使用。
另一方面,由于考虑到红外摄像头为专用设备,价格高昂,需要安装施工,带来大量工程量、外摄像头是通过温度进行识别,对于火焰有较高的识别率,但是无法识别火灾早期的起烟情况以及红外摄像头容易对高温物体发生误报的问题缺陷,因此,部分买那个通过搭建图像识别模型,对视频烟火分析基于普通视频,摄像机价格低廉,也可以利用现有摄像机,无需重新安装施工,对烟、火两种表现均可以识别以及不会对非火焰的高温物体做出反应的优点,适应于现有市场。
作为本发明的另一实施例,图像识别模型建立YOLO算法基础上进行烟火信息进行识别的方式可以替换为CNN卷积神经网络模型所实现,以达到对算力硬件资源的最优化使用,大幅节约硬件成本的优点。
作为本发明的第二方面,提出了一种基于视频图片的人工智能烟火分析系统,包括视频数据获取模块、视频数据处理模块、训练模块以及输出模块,其中,
视频数据获取模块,用于获取多路视频源中的目标视频数据;
视频数据处理模块,用于对目标视频数据进行格式转码后,同步完成目标视频中所携带图像的预处理,得到经帧合并后的目标视频数据图像;
训练模块,获取采样图像训练样本,用于通过采样图像训练样本中的训练特征信息对卷积神经网络进行训练,得到图像识别模型;
输出模块,用于将目标视频数据图像输入至图像识别模型,得到目标视频数据的图像识别结果信息。
需要说明的是,本发明提出的系统还包括视频数据发生区域判定模块、时间判定模块、存储模块以及警情推送模块,其中,
视频数据发生区域判定模块,用于监控输出图像识别结果信息在外部终端监控设备上的区域位置信息;
时间判定模块,用于对训练模块输出得到的图像识别结果信息进行信息正确的唯一性判断,以保证图像识别模型输出无误信息,降低输出模块输出误报率;
存储模块,用于对训练模块所输出的图像识别结果信息进行入库存储,并转化为存储信息,以供训练模块的采样图像训练样本使用;
警情推送模块,用于搭建第三方执行软件以推送图像识别结果信息中达到预警阙值的预警信息至系统的预设联系人,完成警情提示。
与此同时,视频数据处理模块包括视频数据转码单元、视频数据帧采样处理单元、视频数据帧标识处理单元以及视频数据帧合并处理单元,其中,
视频数据转码处理单元,用于对所获取多路视频源中的目标视频数据进行RTMP格式转码,以保证不同型号采集设备间的数据兼容;
视频数据帧采样处理单元,用于对经转码后的目标视频数据,进行帧采样,降低目标视频数据中每帧图像的帧率;
视频数据帧标识处理单元,用于对每帧图像进行帧标识,保证系统辨别该帧图像所对应的经帧标识处理的视频数据;
视频数据帧合并处理单元,用于对经帧标识后的视频数据进行帧合并,以提高系统硬件设备的算力冗余。
作为本发明的第三方面,提出了一种基于视频图片的人工智能烟火分析的电子设备,包括至少一个处理器以及与至少一个处理器建立信息交互通道的存储器,其中,
每个存储器存储有可被至少一个处理器执行的计算机程序;
计算机程序被至少一个处理器执行,以使至少一个处理器执行基于视频图片的人工智能烟火分析方法和/或基于视频图片的人工智能烟火分析系统。
本发明的技术范围不仅仅局限于上述说明中的内容,本领域技术人员可以在不脱离本发明技术思想的前提下,对上述实施例进行多种变形和修改,而这些变形和修改均应当属于本发明的保护范围内。

Claims (9)

1.基于视频图片的人工智能烟火分析方法,其特征在于:包括以下步骤:
第一步,视频转码
获取多路视频源中的视频数据,对其进行RTMP格式转码,以保证不同型号采集设备间的数据兼容;
第二步,视频数据预处理
S2-1、对视频数据进行帧采样,降低所述视频数据中每帧图像的帧率;
S2-2,对每帧所述图像进行帧标识,给每帧图像增加图片识别码ID,并将所述图片识别码ID转化为二进制,生成图片识别码ID所对应的序列图片,基于生成的序列图片,将其叠加至所述原始帧位置;
S2-3,对经帧标识后的视频数据进行帧合并
通过预设采样率在采样时间点分别抽取多路视频数据中的一帧图像放入进行帧合并队列,以作为合并后视频数据的1~n帧,其中,n为视频数据源数量,并将已抽取的源视频帧送至下一采样时间点输出;
S2-4,返回步骤S2-1,顺序循环;
第三步,预设图像识别模型
S3-1,获取采样图像训练样本,所述图像训练样本至少标注有第一训练特征信息和第二训练特征信息,所述第一训练特征信息用于表征视频图片起烟起火信息,所述第二训练特征信息用于表征视频图片无烟火信息;
S3-2,采用所述第一训练特征信息和第二训练特征信息对卷积神经网络进行训练,得到图像识别模型;
第四步,输出图像识别结果
S4-1,基于所述图像识别模型,以所述图片识别码ID中的每一帧图像作为分析对象,提取所述图像特征信息;
S4-2,将所述图像特征信息与获取的采样图像训练样本中的训练特征信息进行比对,获得结果对应关系;
S4-3,依据与S4-1的提取并识别的过程输出图像识别结果信息。
2.根据权利要求1所述的基于视频图片的人工智能烟火分析方法,其特征在于:还包括以下步骤:
第五步,图像识别结果信息的区域判定
对所述图像识别结果信息进行识别区域的勾画,以用于保证所述图像识别结果信息处于外部监控图像范围内,其具体实施方式为:基于视频图片的人工智能烟火分析结果进行图像识别结果信息的划定区域。
3.根据权利要求1所述的基于视频图片的人工智能烟火分析方法,其特征在于:基于第四步,还需要对所得到的图像识别结果信息进行信息唯一性判断,以保证图像识别模型输出无误信息,降低误报率,其具体实施方式为:当发生报警后,由人工确认警情真伪,如果确认为误报,则加入负样本集中,收集一定量负样本后进行再次训练。
4.根据权利要求1所述的基于视频图片的人工智能烟火分析方法,其特征在于:在第三步中,所述图像识别结果信息包括火焰信息以及烟雾信息,其中,
若图像识别结果信息达到外部系统设定的报警阙值,则生成此图像识别结果信息的存储信息,所述存储信息包括图像信息、视频图片存储路径信息、所采集图像信息的设备终端信息、报警时间信息以及报警类型信息。
5.根据权利要求1所述的基于视频图片的人工智能烟火分析方法,其特征在于:所述采样图像训练样本还标注有第三训练特征信息以及第四训练特征信息,其中,
所述第三训练特征信息用于表征视频图片发生火或烟的区域位置信息,所述第四训练特征信息用于表征视频图片所发生火或烟类型信息,且,
若所述第一训练特征信息和第二训练特征信息对卷积神经网络进行训练时,通过预设损失函数分别对所述第一训练特征信息和第二训练特征信息的损失值进行计算,以用于图像识别模型通过对采样图像训练样本的学习,自动调整其内部参数,从而提高识别率的效果,具体实施方式包括:将原始图片按不同区块大小进行特征提取;融合提取的特征信息;对融合后的信息进行卷积;计算损失函数。
6.一种根据权利要求1-5任一项所述的基于视频图片的人工智能烟火分析方法的系统,其特征在于:包括视频数据获取模块、视频数据处理模块、训练模块以及输出模块,其中,
视频数据获取模块,用于获取多路视频源中的目标视频数据;
视频数据处理模块,用于对所述目标视频数据进行格式转码后,同步完成所述目标视频中所携带图像的预处理,得到经帧合并后的目标视频数据图像;
训练模块,获取采样图像训练样本,用于通过采样图像训练样本中的训练特征信息对卷积神经网络进行训练,得到图像识别模型;
输出模块,用于将所述目标视频数据图像输入至所述图像识别模型,得到所述目标视频数据的图像识别结果信息。
7.根据权利要求6所述的基于视频图片的人工智能烟火分析系统,其特征在于:还包括视频数据发生区域判定模块、时间判定模块、存储模块以及警情推送模块,其中,
视频数据发生区域判定模块,用于监控输出所述图像识别结果信息在外部终端监控设备上的区域位置信息;
时间判定模块,用于对所述训练模块输出得到的图像识别结果信息进行信息正确的唯一性判断,以保证所述图像识别模型输出无误信息,降低输出模块输出误报率;
存储模块,用于对训练模块所输出的图像识别结果信息进行入库存储,并转化为存储信息,以供训练模块的采样图像训练样本使用;
警情推送模块,用于搭建第三方执行软件以推送图像识别结果信息中达到预警阙值的预警信息至所述系统的预设联系人,完成警情提示。
8.根据权利要求6所述的基于视频图片的人工智能烟火分析系统,其特征在于:所述视频数据处理模块包括视频数据转码单元、视频数据帧采样处理单元、视频数据帧标识处理单元以及视频数据帧合并处理单元,其中,
所述视频数据转码处理单元,用于对所获取多路视频源中的目标视频数据进行RTMP格式转码,以保证不同型号采集设备间的数据兼容;
所述视频数据帧采样处理单元,用于对经转码后的目标视频数据,进行帧采样,降低所述目标视频数据中每帧图像的帧率;
所述视频数据帧标识处理单元,用于对每帧所述图像进行帧标识,保证所述系统辨别该帧图像所对应的经帧标识处理的视频数据;
所述视频数据帧合并处理单元,用于对经帧标识后的视频数据进行帧合并,以提高所述系统硬件设备的算力冗余。
9.一种基于视频图片的人工智能烟火分析的电子设备,其特征在于:包括至少一个处理器以及与至少一个所述处理器建立信息交互通道的存储器,其中,
每个所述存储器存储有可被至少一个所述处理器执行的计算机程序;
所述计算机程序被至少一个所述处理器执行,以使至少一个所述处理器执行权利要求1-5任一项所述的基于视频图片的人工智能烟火分析方法和/或如权利要求6-8任意一项所述的基于视频图片的人工智能烟火分析系统。
CN202111163127.1A 2021-09-30 2021-09-30 基于视频图片的人工智能烟火分析方法及系统 Pending CN113989735A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111163127.1A CN113989735A (zh) 2021-09-30 2021-09-30 基于视频图片的人工智能烟火分析方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111163127.1A CN113989735A (zh) 2021-09-30 2021-09-30 基于视频图片的人工智能烟火分析方法及系统

Publications (1)

Publication Number Publication Date
CN113989735A true CN113989735A (zh) 2022-01-28

Family

ID=79737503

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111163127.1A Pending CN113989735A (zh) 2021-09-30 2021-09-30 基于视频图片的人工智能烟火分析方法及系统

Country Status (1)

Country Link
CN (1) CN113989735A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114558267A (zh) * 2022-03-03 2022-05-31 上海应用技术大学 工业场景火灾防治系统
CN114943923A (zh) * 2022-06-17 2022-08-26 中国人民解放军陆军炮兵防空兵学院 基于深度学习的视频识别炮弹爆炸火光烟雾方法及系统
CN115424405A (zh) * 2022-08-30 2022-12-02 广州瀚信通信科技股份有限公司 烟火监测告警方法、装置、设备及存储介质

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114558267A (zh) * 2022-03-03 2022-05-31 上海应用技术大学 工业场景火灾防治系统
CN114943923A (zh) * 2022-06-17 2022-08-26 中国人民解放军陆军炮兵防空兵学院 基于深度学习的视频识别炮弹爆炸火光烟雾方法及系统
CN114943923B (zh) * 2022-06-17 2022-12-23 中国人民解放军陆军炮兵防空兵学院 基于深度学习的视频识别炮弹爆炸火光烟雾方法及系统
CN115424405A (zh) * 2022-08-30 2022-12-02 广州瀚信通信科技股份有限公司 烟火监测告警方法、装置、设备及存储介质

Similar Documents

Publication Publication Date Title
CN113989735A (zh) 基于视频图片的人工智能烟火分析方法及系统
KR102045871B1 (ko) 인공지능 기술에 기반한 화재감지시스템 및 인공지능 기술에 기반한 화재감지방법
KR101953342B1 (ko) 멀티 센서 화재감지 방법 및 시스템
TWI382360B (zh) 物件偵測方法及其裝置
CN108230607B (zh) 一种基于区域特征分析的图像火灾探测方法
CN110287917B (zh) 基建工地的安全管控系统和方法
CN111446920A (zh) 光伏电站监控方法、装置及系统
CN111126293A (zh) 一种火焰和烟雾异常情况检测方法及系统
CN113012374A (zh) 智慧园区安防系统及其控制方法
CN113269039A (zh) 一种在岗人员行为识别方法和系统
CN114885119A (zh) 一种基于计算机视觉的智能监控报警系统及方法
CN114359594A (zh) 一种场景匹配方法、装置、电子设备和存储介质
CN116296076A (zh) 一种基于红外视频识别sf6气体泄漏的方法及系统
US8311345B2 (en) Method and system for detecting flame
CN111814617B (zh) 基于视频的火灾判定方法、装置、计算机设备及存储介质
CN110704268B (zh) 一种视频图像自动化测试方法及装置
CN116740885A (zh) 烟雾火焰报警方法、装置、电子设备及存储介质
CN116582693A (zh) 一种基于视频资源池的摄像头调用管控方法
CN114549822A (zh) 基于预置位摄像头的隔离开关闭合状态检测方法
CN115311563A (zh) 面向森林火灾的经验模型自演化的轻量化烟雾检测方法
CN114912536A (zh) 一种基于雷达和双光电的目标识别方法
CN114387564A (zh) 一种基于YOLOv5的磕头机停抽检测方法
CN112422895A (zh) 基于无人机的图像分析跟踪、定位系统及方法
CN111814734A (zh) 识别刀闸状态的方法
CN112183310A (zh) 冗余监控画面过滤及无效监控画面筛选的方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination