CN113723300A - 基于人工智能的火情监测方法、装置及存储介质 - Google Patents
基于人工智能的火情监测方法、装置及存储介质 Download PDFInfo
- Publication number
- CN113723300A CN113723300A CN202111011682.2A CN202111011682A CN113723300A CN 113723300 A CN113723300 A CN 113723300A CN 202111011682 A CN202111011682 A CN 202111011682A CN 113723300 A CN113723300 A CN 113723300A
- Authority
- CN
- China
- Prior art keywords
- monitoring
- sample image
- fire
- model
- sub
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012544 monitoring process Methods 0.000 title claims abstract description 148
- 238000000034 method Methods 0.000 title claims abstract description 63
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 43
- 238000012549 training Methods 0.000 claims abstract description 83
- 238000012545 processing Methods 0.000 claims abstract description 76
- 238000003062 neural network model Methods 0.000 claims abstract description 30
- 238000007781 pre-processing Methods 0.000 claims abstract description 12
- 230000008569 process Effects 0.000 claims description 26
- 230000006870 function Effects 0.000 claims description 24
- 238000002372 labelling Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 6
- 238000012806 monitoring device Methods 0.000 claims description 6
- 230000004913 activation Effects 0.000 claims description 5
- 230000000694 effects Effects 0.000 description 19
- 238000001514 detection method Methods 0.000 description 14
- 238000005516 engineering process Methods 0.000 description 10
- 239000000779 smoke Substances 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 7
- 238000005286 illumination Methods 0.000 description 6
- 239000000126 substance Substances 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 239000002994 raw material Substances 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 238000003491 array Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013145 classification model Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000002485 combustion reaction Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000006866 deterioration Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 238000003064 k means clustering Methods 0.000 description 2
- 230000013016 learning Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000007493 shaping process Methods 0.000 description 2
- 230000026676 system process Effects 0.000 description 2
- 238000009423 ventilation Methods 0.000 description 2
- 206010034960 Photophobia Diseases 0.000 description 1
- 206010070834 Sensitisation Diseases 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 208000013469 light sensitivity Diseases 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 230000008313 sensitization Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B17/00—Fire alarms; Alarms responsive to explosion
- G08B17/12—Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions
- G08B17/125—Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions by using a video camera to detect fire or smoke
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Business, Economics & Management (AREA)
- Emergency Management (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Image Analysis (AREA)
- Fire-Detection Mechanisms (AREA)
Abstract
本发明涉及人工智能技术领域,揭露一种基于人工智能的火情监测方法,包括:对获取的样本图像进行区域划分处理,并获取与所述样本图像对应的各子区域;获取所述各子区域的RGB均值,并基于所述RGB均值以及预设的风险阈值,确定所有子区域中的目标风险区域;对包含有所述目标风险区域的样本图像进行预处理,并基于预处理后的样本图像形成训练数据;基于所述训练数据训练预设的神经网络模型,直至所述神经网络模型收敛至预设范围内,形成火情监测模型;基于实时监控视频及所述火情监测模型,对所述监控视频的监控区域进行实时火情监测。本发明可以提高火情监测的适用场景和准确度。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种基于人工智能的火情监测的方法、装置、电子设备及计算机可读存储介质。
背景技术
目前,在医院、学校、商超等场景的火灾预防系统中,大多采用烟雾报警器进行对烟雾进行识别,但烟雾报警器在一些情况下会存在明显的局限性,如山林、开阔的仓库等露天或者通风性良好的场景,由于烟雾很难接触到报警器,或者由于空气流通烟雾浓度过低,无法触发烟雾报警器,会导致系统漏报,进而造成人民生命财产的损失;其次,烟雾报警器为硬件设备,建设难度比较大,建设和维护成本也比较高,如果在山林或者农田,需监控范围过大,更是很难覆盖多数区域。
而现有的智能火灾检测模型,需要对视频的每一帧均进行识别,不仅计算压力大,且在火灾发生时可能会遇到各种因素,例如光照、背景反光、物体色彩过于接近火焰颜色、发生火情情况离摄像设备的远近程度等,都有可能影响模型的识别结果,导致误报。而如果根据不同的场景,训练对应的神经网络模型,也会由于过于泛化,不会得到理想的测试结果。
可知,现有的火灾检测方式在适用场景以及检测精度等方面均需要进行完善和改进。
发明内容
本发明提供一种基于人工智能的火情监测方法、装置、电子设备及计算机可读存储介质,其主要目的在于提高火情监测的适用场景和准确度。
为实现上述目的,本发明提供的一种基于人工智能的火情监测方法,包括:对获取的样本图像进行区域划分处理,以确定与所述样本图像对应的各子区域;
获取所述各子区域的RGB均值,并基于所述RGB均值以及预设的风险阈值,确定所有子区域中的目标风险区域;
对包含有所述目标风险区域的样本图像进行预处理,并基于预处理后的样本图像形成训练数据;
基于所述训练数据训练预设的神经网络模型,直至所述神经网络模型收敛至预设范围内,形成火情监测模型;
基于实时监控视频及所述火情监测模型,对所述监控视频的监控区域进行实时火情监测。
此外,可选的技术方案是,所述样本图像的获取过程包括:
在目标区域内设置均匀分布的监控设备,并通过所述监控设备采集对应区域内的监控视频;
对所述监控视频进行帧序列化处理,获取与所述监控视频对应的图像数据集;
对所述图像数据集进行分类,获取包含有火灾图像的样本图像。
此外,可选的技术方案是,所述获取所述各子区域的RGB均值的步骤包括:
基于openCV提取所述子区域的R通道、G通道和B通道的各通道值;
基于所述各通道值获取所述R通道的均值、所述G通道的均值和所述B通道的均值;
基于所述R通道的均值、所述G通道的均值和所述B通道的均值,确定所述子区域的RGB均值。
此外,可选的技术方案是,所述对包含有所述目标风险区域的样本图像进行预处理的步骤包括:
基于预设步长调节所述目标风险区域的R值和G值;
对调节R值和G值后的样本图像以及所述目标风险区域进行亮度处理;
对所述亮度处理后的样本图像进行背景灰度处理。
此外,可选的技术方案是,在对所述亮度处理后的样本图像进行背景灰度处理之后,还包括:
基于lableimg工具或预训练的标记模型,对亮度处理及背景灰度处理之后的目标风险区域中的火焰进行标记。
此外,可选的技术方案是,所述基于所述训练数据训练预设的神经网络模型的步骤包括:
预先配置yolo模型的超参数,所述超参数包括激活函数、loss函数、梯度下降步长、锚点以及训练次数;
基于超参数配置后的yolo模型提取所述训练数据中的已标记火焰的边缘特征;
基于所述边缘特征对所述yolo模型进行训练,直至所述yolo模型收敛在预设范围内,形成所述火情监测模型。
此外,可选的技术方案是,所述提取所述训练数据中的已标记火焰的边缘特征的步骤包括:
获取所述训练数据的特征图;
预测所述特征图的每个单元格的边界框数据;其中,所述边界框数据包括:所述边界框的位置数据、置信度以及类别;
基于所述边界框数据确定所述边缘特征。
为了解决上述问题,本发明还提供一种基于人工智能的火情监测装置,所述装置包括:
子区域获取单元,用于对获取的样本图像进行区域划分处理,并获取与所述样本图像对应的各子区域;
目标风险区域确定单元,用于获取所述各子区域的RGB均值,并基于所述RGB均值以及预设的风险阈值,确定所有子区域中的目标风险区域;
训练数据形成单元,用于对包含有所述目标风险区域的样本图像进行预处理,并基于预处理后的样本图像形成训练数据;
火情监测模型形成单元,用于基于所述训练数据训练预设的神经网络模型,直至所述神经网络模型收敛至预设范围内,形成火情监测模型;
火情监测单元,用于基于实时监控视频及所述火情监测模型,对所述监控视频的监控区域进行实时火情监测。
为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:
存储器,存储至少一个指令;及
处理器,执行所述存储器中存储的指令以实现上述所述的基于人工智能的火情监测方法。
为了解决上述问题,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被电子设备中的处理器执行以实现上述所述的基于人工智能的火情监测方法。
本发明实施例通过对获取的样本图像进行区域划分处理,并获取与样本图像对应的各子区域以及各子区域的RGB均值,并基于RGB均值以及预设的风险阈值,确定所有子区域中的目标风险区域,然后基于包含有目标风险区域的样本图像形成训练数据,并训练神经网络模型,形成火情监测模型,最后,基于实时监控视频及火情监测模型,对监控视频的监控区域进行实时火灾监测,能够适用于室内外等多种场景中的火灾检测过程,在光照、背景感光、物体色彩接近火焰颜色等情况下,实现对火情的精确监测。
附图说明
图1为本发明一实施例提供的基于人工智能的火情监测方法的流程示意图;
图2为本发明一实施例提供的基于人工智能的火情监测装置的模块示意图;
图3为本发明一实施例提供的实现基于人工智能的火情监测方法的电子设备的内部结构示意图;
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
为解决现有智能火灾检测模型存在的一下问题:需对视频的每一帧均进行识别,不仅计算压力大,且在火灾发生时可能会遇到各种因素,例如光照、背景反光、物体色彩过于接近火焰颜色、发生火情情况离摄像设备的远近程度等,都有可能影响模型的识别结果,导致误报。而如果根据不同的场景,训练对应的神经网络模型,也会由于过于泛化,不会得到理想的测试结果。本发明提供一种基于人工智能的火情监测方法,以适用于室内外等多种场景中的火灾检测过程,在光照、背景感光、物体色彩接近火焰颜色等情况下,实现对火情的精确监测。
本发明实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
本发明提供一种基于人工智能的火情监测方法。参照图1所示,为本发明一实施例提供的基于人工智能的火情监测方法的流程示意图。该方法可以由一个装置执行,该装置可以由软件和/或硬件实现。
在本实施例中,基于人工智能的火情监测方法包括:
S100:对获取的样本图像进行区域划分处理,以确定与所述样本图像对应的各子区域。
其中,可将样本图像按照其他预设规则划分为多个不重合的子区域,预设规则可包括:划分后的子区域为若干个规则分布且互相不重合的正方形或长方形结构,或者根据能够造成火灾的最小火焰尺寸,将样本图像划分为对应尺寸的子区域。需要说明的是,最小火焰尺寸可根据样本图像中的最小的火焰的边缘尺寸进行确定,也可以人为进行阈值设定,例如,当火焰的边缘尺寸如打火机大小的火焰时,可能是有人使用打火机造成,其造成火灾的几率比较小,但是当超出该阈值时,即可判定其为火灾发生,因此,该最小火焰尺寸可根据具体的场景进行灵活设置。此外,如果子区域划分的过小,会导致火苗被分割至多个子区域中,无法很好的获取火苗的边缘,进而无法提取其边缘特征。具体地,在对所述样本图像进行区域划分时,可基于样本图像的四个象限,将其划分为对应的4个象限子区域。
其中,将样本图像划分为子区域,能够在模型处理过程中,针对各个区域进行火情监控预测,降低GPU的计算量,防止火灾发生的随机性对检测结果造成影响,提高火灾预测的准确度。换言之,将样本图像划分为多个不重合的区域,能够排除局部的干扰因子对一整张图片的RGB值造成的影响,例如,某张图片的太阳光照从左上角,此象限的明度、饱和度等参数会与其他三个象限不同,此时如果使用统一的“怀疑区间”,可能会导致火苗无法高亮出来,影响后面的流程。
作为具体示例,上述步骤中样本图像的获取过程可进一步包括:
S110:在目标区域内设置均匀分布的监控设备,并通过所述监控设备采集对应区域内的监控视频。
其中,所述目标区域可以为农场、森林、工厂、露天仓库等多种区域,分布的监控设备覆盖整个目标区域均可,为此,各监控设备的监控区域之间可存在相互重合的部分。
S120:对所述监控视频进行帧序列化处理,获取与所述监控视频对应的图像数据集;
S130:对所述图像数据集进行分类,获取包含有火灾图像的样本图像。
需要说明的是,在获取包含有火灾图像的样本图像时,可采用预训练的识别模型,例如,简单的分类模型,即可识别出图像中是否包含有目标火焰信息;此外,也可以进行人工筛选,即对图像数据集中的图像进行人工识别,获取包含火焰情况的图像,具体的分类方式可根据应用场景进行灵活设置及选取。
进一步地,上述样本图像均为包括火灾图像的图像数据,这一部分样本图像可作为模型训练的正样本进行后续的区域划分以及目标风险区域获取等处理,而图像数据集中不包含火灾图像的数据,也可作为模型的负样本进行训练,在该过程中,可对负样本进行区域划分,也可不进行区域划分,直接作为输入数据对模型进行训练均可。
在本发明的一个优选实施方式中,在获取样本图像之后且未进行区域划分之前,为确保样本图像的质量,以及后期训练的效果,还可以对样本图像进行优化处理,例如,对图像进行高斯模糊操作,降低图像的噪声以及细节层次,此外,还可以进行抖动和过滤冗余信息处理等。
S200:获取所述各子区域的RGB均值,并基于所述RGB均值以及预设的风险阈值,确定所有子区域中的目标风险区域。
具体地,预设风险阈值可以为火焰的RGB值区间,由于普通的火焰具有多彩性、存在颜色渐变的情况,以及多为红黄色系组成,且不会存在蓝色系或绿色系等颜色的情况,因此可以划分出大概的火焰的RGB值的区间。例如,预设风险阈值可设置为[255,114,111]至[204,211,154]。
当风险阈值设定好后,可对各个子区域的RGB均值进行判断,当子区域的RGB均值没有落入预设阈值内时,则无需进行其他处理,当子区域的RGB均值落入预设阈值内时,表明当前子区域为目标风险区域,即存在火灾的风险,为了进一步对目标风险区域进行确认,后续可对其R值和G值进行调节,继而确定每个子区域的目标风险区域。
此外,需要说明的是,当监控的目标区域为化工厂区,且具有特殊可燃化学原料时,可根据对应的化学原料的燃烧颜色,设置对应的风险阈值,实现对多场景多要求的火灾检测,灵活性强,准确度高。
作为具体示例,上述步骤S200中获取所述子区域的RGB均值,可进一步包括:
S210:基于openCV技术提取所述子区域的R通道、G通道和B通道的通道值;
S220:基于所述通道值获取所述R通道的均值、所述G通道的均值和所述B通道的均值;
S230:基于所述R通道的均值、所述G通道的均值和所述B通道的均值,确定所述子区域的RGB均值。
作为示例,获取第一个子区域的第一个像素点的RGB值为R1=x1,G1=y1,B1=z1,第二个像素点的RGB值为R1=x2,G1=y2,B1=z2,依次类推,第n个像素点的RGB值为Rn=xn,Gn=yn,Bn=zn,则第一个子区域的RGB均值可表示为:(Rmin1,Gmin1,Bmin1);其中,Rmin1=(R1+R2+…+Rn)/n,Gmin1=(G1+G2+…+Gn)/n,Bmin1=(B1+B2+…+Bn)。
S300:对包含有所述目标风险区域的样本图像进行预处理,并基于预处理后的样本图像形成训练数据。
其中,为了提高火焰所在样本图像的火焰的边缘特征,可以将包含有目标风险区域的样本图像的背景进行灰度处理,使得背景为黑色,而目标风险区域则进行高亮处理,形成背景为黑色,目标区域高亮的图片,该图片即可作为训练数据对神经网络模型进行训练。
作为具体示例,所述对包含有所述目标风险区域的样本图像进行预处理的步骤包括:
S310:基于预设步长调节所述目标风险区域的R值和G值;
S320:对调节R值和G值后的样本图像以及目标风险区域进行亮度处理;
S330:对所述亮度处理后的样本图像进行背景灰度处理。
其中,所谓的步长主要是指R值和G值每次调整值的大小,预设步长可通过多次试验获取,例如:获取1000张不同场景的样本图像,通过上述的目标风险区域的判定方式,得到对应的目标风险区域,对应该目标风险区域的RGB值的区间可作为对应的怀疑区间。
然后,对上述怀疑区间进行扩大处理,假设某样本图像的怀疑区间为[231,130,111]至[201,110,122],则分别在R值和G值上对其进行扩大,当预设步长为中R的步长为2,G的步长为2时,则扩大后的怀疑区间可表示为[231+2,130+2,111]至[201-2,110-2,122]。
进而,使用openCV对怀疑区间对应的目标风险区域进行高亮处理(即将怀疑区间内对象变为白,非怀疑区间的对象变成黑),并查看处理后的效果。如果效果不佳,了进一步进行增加步长,再进行同样的处理,如上例[231+4,130+4,111]、[201-4,110-4,122],再查看高亮效果,直至处理后的图像效果符合要求位置。
最后,在上述1000张图片均计算完毕后,如样本数据1步长为2(即跨了2步,2*2,高亮后效果好),记做S1=2。以此类推,S2=1,S3=4…S1000=2,求得平均值Smin=1.5,即可确定该预设步长的大小。
上述将各样本数据的步长的平均值作为预设步长,能够通过高亮效果大概的把火焰的边缘描绘出来即可,无需确保每一个样本数据的目标风险区域均满足较高的亮度要求,简化计算压力,而上述采用1000张数据只是为了覆盖尽可能多的场景,减少误差,具体地数量可根据监测要求进行灵活调整。
最后可将预设步长配置在监测系统中,在实际应用过程中,如某图的怀疑区间为[223,116,111]至[206,110,150],通过系统处理后,对应的怀疑区间可确定为:[223+(1.5*2),116+(1.5*2),111]至[206-(1.5*2),110-(1.5*2),150]。
需要说明的是,在对所述亮度处理后的样本图像进行背景灰度处理之后,还包括:基于lableimg工具或预训练的标记模型,对亮度处理及背景灰度处理之后的目标风险区域中的火焰进行标记。
其中,可使用lableimg工具对目标风险区域内火焰的进行标记,例如,可将图片输入对应的lableimg工具界面,然后人工手动画框,标记需要识别的主体(火焰),并获取对应的坐标信息,以便模型训练使用。此外,也可训练对应的标记模型,通过标记模型对目标风险区域中的火焰进行自动标记等。
S400:基于所述训练数据训练预设的神经网络模型,直至所述神经网络模型收敛至预设范围内,形成火情监测模型。
具体地,所述基于所述训练数据训练预设的神经网络模型的步骤包括:
S410:预先配置yolo模型的超参数,所述超参数包括激活函数、loss函数、梯度下降步长、锚点以及训练次数;
S420:基于超参数配置后的yolo模型提取所述训练数据中的已标记火焰的边缘特征;
S430:基于所述边缘特征对所述yolo模型进行训练,直至所述yolo模型收敛在预设范围内,形成所述火情监测模型。
在上述步骤S420中,所述提取所述训练数据中的已标记火焰的边缘特征的步骤包括:
获取所述训练数据的特征图;
预测所述特征图的每个单元格的边界框数据;其中,所述边界框数据包括:所述边界框的位置数据、置信度以及类别;
基于所述边界框数据确定所述边缘特征。
具体地,yolo模型也可理解为yolo网络,其主要意思为“You Look Only Once”,即通过一次学习直接定位对象并贴上标签,yolo是一个可以一次性预测多个box位置和类别的卷积神经网络,其能够实现端到端的目标检测和识别,而且处理速度快;换言之,采用yolo神经网络对小物体识别有较好的效果,基于其Bounding Box的解决方案,对图像中的目标采用k-means聚类,其中,在提取边缘特征时获取的特征图中的每一个cell都会预测3个边界框(bounding box),每个边界框都会预测三个参数:(1)每个边界框的位置,数据结构为4个值,中心坐标的tx和ty,框的高度bh和宽度bw。(2)一个objectness prediction。(3)N个类别,在火情识别处,我们的类别就是火焰,N可选值为1。通过这种解决方案,比较小的火苗也可以被检测出来。在训练过程中,我们需要根据训练样本,通过k-mean算法算出对应的一组整形数组(anchor),yolo模型会根据这个数组确定对应的边界框,完成对火焰的识别过程。
其中,损失函数可采用选用平均绝对误差(MAE)、均方误差(MSE)或交叉熵损失函数等。例如,当该损失连续100次迭代均不低于历史最低损失的情况下,可确认训练结束,火情监测模型达到收敛效果。具体的,损失函数也可根据应用场景或需求进行选取,或选取其他类型的损失函数等等,在本发明中并不具体限制。
S500:基于实时监控视频及所述火情监测模型,对所述监控视频的监控区域进行实时火情监测。
在该过程中,可通过监控设备获取对应目标区域的监控视频,然后通过火情监测模型对视频的帧图像进行实时检测,并在检测到火情发生时,通过对应的报警装置进行报警提醒,避免火势恶化。
在本发明的一个具体实施方式中,基于人工智能的火情监测方法的流程可包括:首先,确定输入的图片,并对其进行分割处理,划分位于四个象限的子区域,然后分别计算4个象限的RGB均值,并判断该RGB均值是够落入预设的“火焰RGB区间”(预设风险阈值)中,如果在,则生成对应的怀疑区间,并对怀疑区间内的火焰进行标注处理,然后进行高亮及反色处理后形成训练数据,并输入神经网络模型,直至训练完毕形成火情监测模型,在应用过程中,可根据该火情监测模型进行实时的火灾监测。
利用上述根据本发明的基于人工智能的火情监测方法,可适用场景更多,场地可以是开阔的田野、山林等等,摆脱烟雾检测的限制,可以巡检更加宽广的范围,也不需要对原有的基础设备进行软硬件的升级,利旧率高,只需在后台服务加入此发明的功能模块即可。并且,为了解决图片干扰因素在图片内分布不均的情况,将图片分割为多个子区域分别处理,避免了高亮效果差的问题。另外,本发明只需要训练一个神经网络模型,仅用于火苗轮廓的识别,不需要关心场景的特征,所以研发也不需要反复开发模型,且无需使用神经网络模型做到“每帧必检”,可以将计算压力分到CPU服务器,节省GPU服务器硬件资源,大大降低投入成本。
如图2所示,是本发明基于人工智能的火情监测装置的功能模块图。
本发明所述基于人工智能的火情监测装置200可以安装于电子设备中。根据实现的功能,所述基于人工智能的火情监测装置可以包括:子区域获取单元210、目标风险区域确定单元220、训练数据形成单元230、火情监测模型形成单元240和火情监测单元250。本发所述单元也可以称之为模块,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
子区域获取单元210,用于对获取的样本图像进行区域划分处理,并获取与所述样本图像对应的各子区域。
其中,可将样本图像按照其他预设规则划分为多个不重合的子区域,预设规则可包括:划分后的子区域为若干个规则分布且互相不重合的正方形或长方形结构,或者根据能够造成火灾的最小火焰尺寸,将样本图像划分为对应尺寸的子区域。需要说明的是,如果子区域划分的过小,会导致火苗被分割至多个子区域中,无法很好的获取火苗的边缘,进而无法提取其边缘特征。具体地,在对所述样本图像进行区域划分时,可基于样本图像的四个象限,将其划分为对应的4个象限子区域。
其中,将样本图像划分为子区域,能够在模型处理过程中,针对各个区域进行火情监控预测,降低GPU的计算量,防止火灾发生的随机性对检测结果造成影响,提高火灾预测的准确度。换言之,将样本图像划分为多个不重合的区域,能够排除局部的干扰因子对一整张图片的RGB值造成的影响,例如,某张图片的太阳光照从左上角,此象限的明度、饱和度等参数会与其他三个象限不同,此时如果使用统一的“怀疑区间”,可能会导致火苗无法高亮出来,影响后面的流程。
作为具体示例,上述步骤中样本图像的获取过程可进一步包括:
1、在目标区域内设置均匀分布的监控设备,并通过所述监控设备采集对应区域内的监控视频。
其中,所述目标区域可以为农场、森林、工厂、露天仓库等多种区域,分布的监控设备覆盖整个目标区域均可,为此,各监控设备的监控区域之间可存在相互重合的部分。
2、对所述监控视频进行帧序列化处理,获取与所述监控视频对应的图像数据集;
3、对所述图像数据集进行分类,获取包含有火灾图像的样本图像。
需要说明的是,在获取包含有火灾图像的样本图像时,可采用预训练的识别模型,例如,简单的分类模型,即可识别出图像中是否包含有目标火焰信息;此外,也可以进行人工筛选,即对图像数据集中的图像进行人工识别,获取包含火焰情况的图像,具体的分类方式可根据应用场景进行灵活设置及选取。
进一步地,上述样本图像均为包括火灾图像的图像数据,这一部分样本图像可作为模型训练的正样本进行后续的区域划分以及目标风险区域获取等处理,而图像数据集中不包含火灾图像的数据,也可作为模型的负样本进行训练,在该过程中,可对负样本进行区域划分,也可不进行区域划分,直接作为输入数据对模型进行训练均可。
在本发明的一个优选实施方式中,在获取样本图像之后且未进行区域划分之前,为确保样本图像的质量,以及后期训练的效果,还可以对样本图像进行优化处理,例如,对图像进行高斯模糊操作,降低图像的噪声以及细节层次,此外,还可以进行抖动和过滤冗余信息处理等。
目标风险区域确定单元220,用于获取所述各子区域的RGB均值,并基于所述RGB均值以及预设的风险阈值,确定所有子区域中的目标风险区域。
具体地,预设风险阈值可以为火焰的RGB值区间,由于普通的火焰具有多彩性、存在颜色渐变的情况,以及多为红黄色系组成,且不会存在蓝色系或绿色系等颜色的情况,因此可以划分出大概的火焰的RGB值的区间。例如,预设风险阈值可设置为[255,114,111]至[204,211,154]。
当风险阈值设定好后,可对各个子区域的RGB均值进行判断,当子区域的RGB均值没有落入预设阈值内时,则无需进行其他处理,当子区域的RGB均值落入预设阈值内时,表明当前子区域为目标风险区域,即存在火灾的风险,为了进一步对目标风险区域进行确认,后续可对其R值和G值进行调节,继而确定每个子区域的目标风险区域。
此外,需要说明的是,当监控的目标区域为化工厂区,且具有特殊可燃化学原料时,可根据对应的化学原料的燃烧颜色,设置对应的风险阈值,实现对多场景多要求的火灾检测,灵活性强,准确度高。
作为具体示例,上述目标风险区域确定单元220中获取所述子区域的RGB均值,可进一步包括:
通道值获取单元,用于基于openCV技术提取所述子区域的R通道、G通道和B通道的通道值;
均值获取单元,用于基于所述通道值获取所述R通道的均值、所述G通道的均值和所述B通道的均值;
RGB均值确定单元,用于基于所述R通道的均值、所述G通道的均值和所述B通道的均值,确定所述子区域的RGB均值。
作为示例,获取第一个子区域的第一个像素点的RGB值为R1=x1,G1=y1,B1=z1,第二个像素点的RGB值为R1=x2,G1=y2,B1=z2,依次类推,第n个像素点的RGB值为Rn=xn,Gn=yn,Bn=zn,则第一个子区域的RGB均值可表示为:(Rmin1,Gmin1,Bmin1);其中,Rmin1=(R1+R2+…+Rn)/n,Gmin1=(G1+G2+…+Gn)/n,Bmin1=(B1+B2+…+Bn)。
训练数据形成单元230,用于对包含有所述目标风险区域的样本图像进行预处理,并基于预处理后的样本图像形成训练数据。
其中,为了提高火焰所在样本图像的火焰的边缘特征,可以将包含有目标风险区域的样本图像的背景进行灰度处理,使得背景为黑色,而目标风险区域则进行高亮处理,形成背景为黑色,目标区域高亮的图片,该图片即可作为训练数据对神经网络模型进行训练。
作为具体示例,训练数据形成单元230中所述对包含有所述目标风险区域的样本图像进行预处理包括:
R值和G值调节模块,用于基于预设步长调节所述目标风险区域的R值和G值;
亮度处理处理模块,用于对调节R值和G值后的样本图像以及目标风险区域进行亮度处理;
背景灰度处理处理模块,用于对所述亮度处理后的样本图像进行背景灰度处理。
其中,所谓的步长主要是指R值和G值每次调整值的大小,预设步长可通过多次试验获取,例如:获取1000张不同场景的样本图像,通过上述的目标风险区域的判定方式,得到对应的目标风险区域,对应该目标风险区域的RGB值的区间可作为对应的怀疑区间。
然后,对上述怀疑区间进行扩大处理,假设某样本图像的怀疑区间为[231,130,111]至[201,110,122],则分别在R值和G值上对其进行扩大,当预设步长为中R的步长为2,G的步长为2时,则扩大后的怀疑区间可表示为[231+2,130+2,111]至[201-2,110-2,122]。
进而,使用openCV对怀疑区间对应的目标风险区域进行高亮处理(即将怀疑区间内对象变为白,非怀疑区间的对象变成黑),并查看处理后的效果。如果效果不佳,了进一步进行增加步长,再进行同样的处理,如上例[231+4,130+4,111]、[201-4,110-4,122],再查看高亮效果,直至处理后的图像效果符合要求位置。
最后,在上述1000张图片均计算完毕后,如样本数据1步长为2(即跨了2步,2*2,高亮后效果好),记做S1=2。以此类推,S2=1,S3=4…S1000=2,求得平均值Smin=1.5,即可确定该预设步长的大小。
上述将各样本数据的步长的平均值作为预设步长,能够通过高亮效果大概的把火焰的边缘描绘出来即可,无需确保每一个样本数据的目标风险区域均满足较高的亮度要求,简化计算压力,而上述采用1000张数据只是为了覆盖尽可能多的场景,减少误差,具体地数量可根据监测要求进行灵活调整。
最后可将预设步长配置在监测系统中,在实际应用过程中,如某图的怀疑区间为[223,116,111]至[206,110,150],通过系统处理后,对应的怀疑区间可确定为:[223+(1.5*2),116+(1.5*2),111]至[206-(1.5*2),110-(1.5*2),150]。
需要说明的是,在对所述亮度处理后的样本图像进行背景灰度处理之后,还包括:基于lableimg工具或预训练的标记模型,对亮度处理及背景灰度处理之后的目标风险区域中的火焰进行标记。
其中,可使用lableimg工具对目标风险区域内火焰的进行标记,例如,可将图片输入对应的lableimg工具界面,然后人工手动画框,标记需要识别的主体(火焰),并获取对应的坐标信息,以便模型训练使用。此外,也可训练对应的标记模型,通过标记模型对目标风险区域中的火焰进行自动标记等。
火情监测模型形成单元240,用于基于所述训练数据训练预设的神经网络模型,直至所述神经网络模型收敛至预设范围内,形成火情监测模型。
具体地,所述基于所述训练数据训练预设的神经网络模型包括:
超参数预置模块,用于预先配置yolo模型的超参数,所述超参数包括激活函数、loss函数、梯度下降步长、锚点以及训练次数;
边缘特征提取模块,用于基于超参数配置后的yolo模型提取所述训练数据中的已标记火焰的边缘特征;
火情监测模型形成模块,用于基于所述边缘特征对所述yolo模型进行训练,直至所述yolo模型收敛在预设范围内,形成所述火情监测模型。
在上述边缘特征提取模块中,所述提取所述训练数据中的已标记火焰的边缘特征包括:
获取所述训练数据的特征图;
预测所述特征图的每个单元格的边界框数据;其中,所述边界框数据包括:所述边界框的位置数据、置信度以及类别;
基于所述边界框数据确定所述边缘特征。
具体地,yolo模型也可理解为yolo网络,其主要意思为“You Look Only Once”,即通过一次学习直接定位对象并贴上标签,yolo是一个可以一次性预测多个box位置和类别的卷积神经网络,其能够实现端到端的目标检测和识别,而且处理速度快;换言之,采用yolo神经网络对小物体识别有较好的效果,基于其Bounding Box的解决方案,对图像中的目标采用k-means聚类,其中,在提取边缘特征时获取的特征图中的每一个cell都会预测3个边界框(bounding box),每个边界框都会预测三个参数:(1)每个边界框的位置,数据结构为4个值,中心坐标的tx和ty,框的高度bh和宽度bw。(2)一个objectness prediction。(3)N个类别,在火情识别处,我们的类别就是火焰,N可选值为1。通过这种解决方案,比较小的火苗也可以被检测出来。在训练过程中,我们需要根据训练样本,通过k-mean算法算出对应的一组整形数组(anchor),yolo模型会根据这个数组确定对应的边界框,完成对火焰的识别过程。
其中,损失函数可采用选用平均绝对误差(MAE)、均方误差(MSE)或交叉熵损失函数等。例如,当该损失连续100次迭代均不低于历史最低损失的情况下,可确认训练结束,火情监测模型达到收敛效果。具体的,损失函数也可根据应用场景或需求进行选取,或选取其他类型的损失函数等等,在本发明中并不具体限制。
火情监测单元250,用于基于实时监控视频及所述火情监测模型,对所述监控视频的监控区域进行实时火情监测。
在该过程中,可通过监控设备获取对应目标区域的监控视频,然后通过火情监测模型对视频的帧图像进行实时检测,并在检测到火情发生时,通过对应的报警装置进行报警提醒,避免火势恶化。
在本发明的一个具体实施方式中,基于人工智能的火情监测方法的流程可包括:首先,确定输入的图片,并对其进行分割处理,划分位于四个象限的子区域,然后分别计算4个象限的RGB均值,并判断该RGB均值是够落入预设的“火焰RGB区间”(预设风险阈值)中,如果在,则生成对应的怀疑区间,并对怀疑区间内的火焰进行标注处理,然后进行高亮及反色处理后形成训练数据,并输入神经网络模型,直至训练完毕形成火情监测模型,在应用过程中,可根据该火情监测模型进行实时的火情监测。
如图3所示,是本发明实现基于人工智能的火情监测方法的电子设备的结构示意图。
所述电子设备1可以包括处理器10、存储器11和总线,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如基于人工智能的火情监测程序12。
其中,所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备1的内部存储单元,例如该电子设备1的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备1的外部存储设备,例如电子设备1上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(SecureDigital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备1的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备1的应用软件及各类数据,例如基于人工智能的火情监测程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(Control Unit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如基于人工智能的火情监测程序等),以及调用存储在所述存储器11内的数据,以执行电子设备1的各种功能和处理数据。
所述总线可以是外设部件互连标准(peripheral component interconnect,简称PCI)总线或扩展工业标准结构(extended industry standard architecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
图3仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图2示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备1还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备1还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
进一步地,所述电子设备1还可以包括网络接口,可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备1与其他电子设备之间建立通信连接。
可选地,该电子设备1还可以包括用户接口,用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备1中处理的信息以及用于显示可视化的用户界面。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备1中的所述存储器11存储的基于人工智能的火情监测程序12是多个指令的组合,在所述处理器10中运行时,可以实现:
对获取的样本图像进行区域划分处理,并获取与所述样本图像对应的各子区域;
获取所述各子区域的RGB均值,并基于所述RGB均值以及预设的风险阈值,确定所有子区域中的目标风险区域;
对包含有所述目标风险区域的样本图像进行预处理,并基于预处理后的样本图像形成训练数据;
基于所述训练数据训练预设的神经网络模型,直至所述神经网络模型收敛至预设范围内,形成火情监测模型;
基于实时监控视频及所述火情监测模型,对所述监控视频的监控区域进行实时火情监测。
此外,可选的技术方案是,所述样本图像的获取过程包括:
在目标区域内设置均匀分布的监控设备,并通过所述监控设备采集对应区域内的监控视频;
对所述监控视频进行帧序列化处理,获取与所述监控视频对应的图像数据集;
对所述图像数据集进行分类,获取包含有火灾图像的样本图像。
此外,可选的技术方案是,所述获取所述各子区域的RGB均值的步骤包括:
基于openCV提取所述子区域的R通道、G通道和B通道的各通道值;
基于所述各通道值获取所述R通道的均值、所述G通道的均值和所述B通道的均值;
基于所述R通道的均值、所述G通道的均值和所述B通道的均值,确定所述子区域的RGB均值。
此外,可选的技术方案是,所述对包含有所述目标风险区域的样本图像进行预处理的步骤包括:
基于预设步长调节所述目标风险区域的R值和G值;
对调节R值和G值后的样本图像以及所述目标风险区域进行亮度处理;
对所述亮度处理后的样本图像进行背景灰度处理。
此外,可选的技术方案是,在对所述亮度处理后的样本图像进行背景灰度处理之后,还包括:
基于lableimg工具或预训练的标记模型,对亮度处理及背景灰度处理之后的目标风险区域中的火焰进行标记。
此外,可选的技术方案是,所述基于所述训练数据训练预设的神经网络模型的步骤包括:
预先配置yolo模型的超参数,所述超参数包括激活函数、loss函数、梯度下降步长、锚点以及训练次数;
基于超参数配置后的yolo模型提取所述训练数据中的已标记火焰的边缘特征;
基于所述边缘特征对所述yolo模型进行训练,直至所述yolo模型收敛在预设范围内,形成所述火情监测模型。
此外,可选的技术方案是,所述提取所述训练数据中的已标记火焰的边缘特征的步骤包括:
获取所述训练数据的特征图;
预测所述特征图的每个单元格的边界框数据;其中,所述边界框数据包括:所述边界框的位置数据、置信度以及类别;
基于所述边界框数据确定所述边缘特征。
具体地,所述处理器10对上述指令的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。
进一步地,所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种基于人工智能的火情监测方法,其特征在于,所述方法包括:
对获取的样本图像进行区域划分处理,以确定与所述样本图像对应的各子区域;
获取所述各子区域的RGB均值,并基于所述RGB均值以及预设的风险阈值,确定所有子区域中的目标风险区域;
对包含有所述目标风险区域的样本图像进行预处理,并基于预处理后的样本图像形成训练数据;
基于所述训练数据训练预设的神经网络模型,直至所述神经网络模型收敛至预设范围内,形成火情监测模型;
基于实时监控视频及所述火情监测模型,对所述监控视频的监控区域进行实时火情监测。
2.如权利要求1所述的基于人工智能的火情监测方法,其特征在于,所述样本图像的获取过程包括:
在目标区域内设置均匀分布的监控设备,并通过所述监控设备采集对应区域内的监控视频;
对所述监控视频进行帧序列化处理,获取与所述监控视频对应的图像数据集;
对所述图像数据集进行分类,获取包含有火灾图像的样本图像。
3.如权利要求1所述的基于人工智能的火情监测方法,所述获取所述各子区域的RGB均值的步骤包括:
基于openCV提取所述子区域的R通道、G通道和B通道的各通道值;
基于所述各通道值获取所述R通道的均值、所述G通道的均值和所述B通道的均值;
基于所述R通道的均值、所述G通道的均值和所述B通道的均值,确定所述子区域的RGB均值。
4.如权利要求1至3中任意一项所述的基于人工智能的火情监测方法,其特征在于,所述对包含有所述目标风险区域的样本图像进行预处理的步骤包括:
基于预设步长调节所述目标风险区域的R值和G值;
对调节R值和G值后的样本图像以及所述目标风险区域进行亮度处理;
对所述亮度处理后的样本图像进行背景灰度处理。
5.如权利要求4所述的基于人工智能的火情监测方法,其特征在于,在对所述亮度处理后的样本图像进行背景灰度处理之后,还包括:
基于lableimg工具或预训练的标记模型,对亮度处理及背景灰度处理之后的目标风险区域中的火焰进行标记。
6.如权利要求1至3中任意一项所述的基于人工智能的火情监测方法,其特征在于,所述基于所述训练数据训练预设的神经网络模型的步骤包括:
预先配置yolo模型的超参数,所述超参数包括激活函数、loss函数、梯度下降步长、锚点以及训练次数;
基于超参数配置后的yolo模型提取所述训练数据中的已标记火焰的边缘特征;
基于所述边缘特征对所述yolo模型进行训练,直至所述yolo模型收敛在预设范围内,形成所述火情监测模型。
7.如权利要求6所述的基于人工智能的火情监测方法,其特征在于,所述提取所述训练数据中的已标记火焰的边缘特征的步骤包括:
获取所述训练数据的特征图;
预测所述特征图的每个单元格的边界框数据;其中,所述边界框数据包括:所述边界框的位置数据、置信度以及类别;
基于所述边界框数据确定所述边缘特征。
8.一种基于人工智能的火情监测装置,其特征在于,所述装置包括:
子区域获取单元,用于对获取的样本图像进行区域划分处理,并获取与所述样本图像对应的各子区域;
目标风险区域确定单元,用于获取所述各子区域的RGB均值,并基于所述RGB均值以及预设的风险阈值,确定所有子区域中的目标风险区域;
训练数据形成单元,用于对包含有所述目标风险区域的样本图像进行预处理,并基于预处理后的样本图像形成训练数据;
火情监测模型形成单元,用于基于所述训练数据训练预设的神经网络模型,直至所述神经网络模型收敛至预设范围内,形成火情监测模型;
火情监测单元,用于基于实时监控视频及所述火情监测模型,对所述监控视频的监控区域进行实时火情监测。
9.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至7中任一所述的基于人工智能的火情监测方法中的步骤。
10.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任一所述的基于人工智能的火情监测方法中的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111011682.2A CN113723300A (zh) | 2021-08-31 | 2021-08-31 | 基于人工智能的火情监测方法、装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111011682.2A CN113723300A (zh) | 2021-08-31 | 2021-08-31 | 基于人工智能的火情监测方法、装置及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113723300A true CN113723300A (zh) | 2021-11-30 |
Family
ID=78679620
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111011682.2A Pending CN113723300A (zh) | 2021-08-31 | 2021-08-31 | 基于人工智能的火情监测方法、装置及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113723300A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114399816A (zh) * | 2021-12-28 | 2022-04-26 | 北方工业大学 | 社区火灾风险感知方法及装置 |
CN114550406A (zh) * | 2022-03-03 | 2022-05-27 | 南京骆驼储运集团有限公司 | 一种基于红外温度的仓库火情监控系统及方法 |
CN117152675A (zh) * | 2023-07-21 | 2023-12-01 | 华能(广东)能源开发有限公司汕头电厂 | 燃烧器着火检测方法、装置及设备 |
CN117350485A (zh) * | 2023-09-27 | 2024-01-05 | 广东电网有限责任公司 | 基于数据挖掘模型的电力市场管控方法和系统 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080172412A1 (en) * | 2007-01-11 | 2008-07-17 | Gruhl Daniel F | Content monitoring in a high volume on-line community application |
CN106203334A (zh) * | 2016-07-11 | 2016-12-07 | 电子科技大学 | 一种室内场景火苗检测方法 |
CN106997461A (zh) * | 2017-03-28 | 2017-08-01 | 浙江大华技术股份有限公司 | 一种烟火检测方法及装置 |
CN110751089A (zh) * | 2019-10-18 | 2020-02-04 | 南京林业大学 | 基于数字图像和卷积特征的火焰目标检测方法 |
CN111062293A (zh) * | 2019-12-10 | 2020-04-24 | 太原理工大学 | 一种基于深度学习的无人机森林火焰识别方法 |
CN112241693A (zh) * | 2020-09-25 | 2021-01-19 | 上海荷福人工智能科技(集团)有限公司 | 基于YOLOv3实现的违规焊接动火图像识别方法 |
CN112347874A (zh) * | 2020-10-26 | 2021-02-09 | 创泽智能机器人集团股份有限公司 | 一种火灾检测方法、装置、设备及存储介质 |
CN112906481A (zh) * | 2021-01-23 | 2021-06-04 | 招商新智科技有限公司 | 一种基于无人机实现森林火情检测的方法 |
EP3842625A1 (en) * | 2019-12-27 | 2021-06-30 | Weichai Power Co., Ltd. | Method and apparatus for controlling urea crystallization, storage medium and electronic device |
-
2021
- 2021-08-31 CN CN202111011682.2A patent/CN113723300A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080172412A1 (en) * | 2007-01-11 | 2008-07-17 | Gruhl Daniel F | Content monitoring in a high volume on-line community application |
CN106203334A (zh) * | 2016-07-11 | 2016-12-07 | 电子科技大学 | 一种室内场景火苗检测方法 |
CN106997461A (zh) * | 2017-03-28 | 2017-08-01 | 浙江大华技术股份有限公司 | 一种烟火检测方法及装置 |
CN110751089A (zh) * | 2019-10-18 | 2020-02-04 | 南京林业大学 | 基于数字图像和卷积特征的火焰目标检测方法 |
CN111062293A (zh) * | 2019-12-10 | 2020-04-24 | 太原理工大学 | 一种基于深度学习的无人机森林火焰识别方法 |
EP3842625A1 (en) * | 2019-12-27 | 2021-06-30 | Weichai Power Co., Ltd. | Method and apparatus for controlling urea crystallization, storage medium and electronic device |
CN112241693A (zh) * | 2020-09-25 | 2021-01-19 | 上海荷福人工智能科技(集团)有限公司 | 基于YOLOv3实现的违规焊接动火图像识别方法 |
CN112347874A (zh) * | 2020-10-26 | 2021-02-09 | 创泽智能机器人集团股份有限公司 | 一种火灾检测方法、装置、设备及存储介质 |
CN112906481A (zh) * | 2021-01-23 | 2021-06-04 | 招商新智科技有限公司 | 一种基于无人机实现森林火情检测的方法 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114399816A (zh) * | 2021-12-28 | 2022-04-26 | 北方工业大学 | 社区火灾风险感知方法及装置 |
CN114399816B (zh) * | 2021-12-28 | 2023-04-07 | 北方工业大学 | 社区火灾风险感知方法及装置 |
CN114550406A (zh) * | 2022-03-03 | 2022-05-27 | 南京骆驼储运集团有限公司 | 一种基于红外温度的仓库火情监控系统及方法 |
CN117152675A (zh) * | 2023-07-21 | 2023-12-01 | 华能(广东)能源开发有限公司汕头电厂 | 燃烧器着火检测方法、装置及设备 |
CN117350485A (zh) * | 2023-09-27 | 2024-01-05 | 广东电网有限责任公司 | 基于数据挖掘模型的电力市场管控方法和系统 |
CN117350485B (zh) * | 2023-09-27 | 2024-06-25 | 广东电网有限责任公司 | 基于数据挖掘模型的电力市场管控方法和系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113723300A (zh) | 基于人工智能的火情监测方法、装置及存储介质 | |
US11455805B2 (en) | Method and apparatus for detecting parking space usage condition, electronic device, and storage medium | |
CN110060237B (zh) | 一种故障检测方法、装置、设备及系统 | |
CN111881730A (zh) | 一种火电厂现场安全帽佩戴检测方法 | |
CN105574550A (zh) | 一种车辆识别方法及装置 | |
CN114627435B (zh) | 基于图像识别的智能灯光调节方法、装置、设备及介质 | |
CN112184773A (zh) | 一种基于深度学习的安全帽佩戴检测方法及系统 | |
CN112819068A (zh) | 一种基于深度学习的船舶作业违章行为实时侦测方法 | |
CN112040198A (zh) | 一种基于图像处理的智能水表读数识别系统与方法 | |
CN115690615B (zh) | 一种面向视频流的深度学习目标识别方法及系统 | |
CN116824335A (zh) | 一种基于YOLOv5改进算法的火灾预警方法及系统 | |
CN113065607A (zh) | 图像检测方法、装置、电子设备及介质 | |
CN109740527B (zh) | 一种视频帧中图像处理方法 | |
CN113065454B (zh) | 一种高空抛物目标识别比较的方法及装置 | |
CN116310922A (zh) | 石化厂区监控视频风险识别方法、系统、电子设备及存储介质 | |
CN111402185A (zh) | 一种图像检测方法及装置 | |
CN117475353A (zh) | 基于视频的异常烟雾识别方法及系统 | |
CN102867214A (zh) | 区域范围内人数统计管理方法 | |
CN117475269A (zh) | 基于视频监测系统设备的异常信号识别方法及系统 | |
CN110210401B (zh) | 一种弱光下的目标智能检测方法 | |
CN112633179A (zh) | 基于视频分析的农贸市场过道物体占道检测方法 | |
CN110956156A (zh) | 一种基于深度学习的闯红灯检测系统 | |
CN115995097A (zh) | 一种基于深度学习的安全头盔佩戴标准判断方法 | |
CN112801963B (zh) | 一种视频图像遮挡检测方法及系统 | |
CN113792801A (zh) | 人脸炫光程度的检测方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |