CN116824462B - 一种基于视频卫星的森林智能防火方法 - Google Patents
一种基于视频卫星的森林智能防火方法 Download PDFInfo
- Publication number
- CN116824462B CN116824462B CN202311101276.4A CN202311101276A CN116824462B CN 116824462 B CN116824462 B CN 116824462B CN 202311101276 A CN202311101276 A CN 202311101276A CN 116824462 B CN116824462 B CN 116824462B
- Authority
- CN
- China
- Prior art keywords
- fire
- frame
- information
- smoke
- flame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 60
- 239000000779 smoke Substances 0.000 claims abstract description 82
- 238000012545 processing Methods 0.000 claims abstract description 44
- 238000001514 detection method Methods 0.000 claims abstract description 19
- 230000007480 spreading Effects 0.000 claims abstract description 19
- 238000004364 calculation method Methods 0.000 claims abstract description 15
- 238000006243 chemical reaction Methods 0.000 claims abstract description 14
- 230000002265 prevention Effects 0.000 claims abstract description 14
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 12
- 239000013598 vector Substances 0.000 claims description 26
- 230000006870 function Effects 0.000 claims description 13
- 238000012544 monitoring process Methods 0.000 claims description 13
- 230000008859 change Effects 0.000 claims description 11
- 238000003708 edge detection Methods 0.000 claims description 9
- 238000007781 pre-processing Methods 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 8
- 238000004458 analytical method Methods 0.000 claims description 4
- 230000002776 aggregation Effects 0.000 claims description 3
- 238000004220 aggregation Methods 0.000 claims description 3
- 230000011218 segmentation Effects 0.000 claims description 3
- 230000003068 static effect Effects 0.000 claims description 3
- 238000012896 Statistical algorithm Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 6
- 238000005259 measurement Methods 0.000 description 5
- 238000013507 mapping Methods 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 239000000523 sample Substances 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/44—Event detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于视频卫星的森林智能防火方法,利用transformer作为视频图像处理模型在获取视频卫星数据后能快速从视频卫星数据图片中获取图片中火焰、烟雾和火烧迹地的跟踪结果,使用时空跟踪框架模块跟踪策略,实时更新火焰、烟雾和火烧迹地的时空信息,提高火灾信息检测精度,利用坐标转换模块将火焰、烟雾和火烧迹地的跟踪结果的像素坐标转化为经纬度坐标,实现快速定位,同时轮廓检测算法模块和火灾蔓延速度计算模块获取火焰轮廓周长,计算出火灾蔓延速度。与同类方法提供火焰、烟雾、火烧迹地相比,本发明不仅能够提供森林火灾的火焰、烟雾、火烧迹地、还能提供火灾信息的地理坐标、火焰形状、火灾蔓延速度等信息。
Description
技术领域
本发明涉及一种基于视频卫星的森林智能防火方法,属于森林防火技术领域。
背景技术
森林火灾是一种突发性且救援较为困难的灾害,严重威胁生态环境及周边人口安全。精准监测森林火灾的发生位置、火场发展变化趋势及面积等信息是开展应急决策、部署火灾扑救力量的重要支撑。目前森林火灾检测手段有:利用传感器基于温度或烟雾颗粒等物理数据识别火灾,但是基于传感器火灾检测的方法易受浓雾、植被遮挡等影响,降低探测器的准确性。利用无人机搭载相机或传感器采集火灾现场的图像或视频数据,但是由于飞行时长和天气因素,无法长时间持续监测火灾情况。基于遥感影像的火灾检测方法虽然能够获取火灾的信息,但是遥感影像无法连续、无间断获取火灾信息,无法动态监测火势。
目前的森林火灾方法主要分为火前、火中和火后三个阶段。在火前,构建火灾预警模型提供火灾发生的概率。该方法通过森林火灾风险因子、自然风险灾害指数模型、火险综合预报指数、NDVI、地表温度、降雨量、湿度、温度、风速、干旱指数、日照时间、地理信息数据、空间信息数据等构建火灾预警模型,但是此种模型一般是经验模型,且需要进行参数调优和更新,以适应不同地区、季节和火灾类型的变化,需要持续的研究和开发,增加了模型的管理和维护成本。
在火中,主要获取火点位置和火灾的蔓延情况。前者主要利用yolo系列的目标检测算法提取火点特征。但是YOLO的单尺度特征提取和固定Anchor框大小可能导致对小目标的检测性能不佳。后者利用遥感数据的红外波段,结合人工目视解译获取火灾的蔓延。但是云层和大气中的热辐射可能会干扰火灾蔓延监测的准确性。
在火后,主要获取过火面积信息。通过利用循环神经网络或者长短时记忆网络提取森林火烧迹地,但是RNN和LSTM模型主要关注时间上的序列依赖关系,对于图像中的空间上下文信息的建模能力较弱,导致火烧迹地提取精度低。
因此,研究一种基于视频卫星的森林火灾监测方法,对于实时、宏观展示森林火灾的动态蔓延具有重要意义。
发明内容
鉴于此,本发明的目的是提供一种基于视频卫星的森林智能防火方法,可以克服现有技术的不足。
本发明的目的是通过以下技术方案实现的:
一种基于视频卫星的森林智能防火方法,该方法通过以下模块实现:
视频图像处理模型,它包括 ResNet-50 网络、transformer 编码器-解码器和边界框预测头,ResNet-50 网络对含火灾信息的图片进行卷积操作提取火灾信息特征,火灾信息特征经过transformer 编码器-解码器获取与火灾信息相关的特征表示,与火灾信息相关的特征表示输入边界框预测头,通过边界框预测头预测框选图片中火焰、烟雾、火烧迹地三种火灾信息特征得到跟踪结果;视频图像处理模型与视频卫星数据连接,视频图像处理模型在获取视频卫星数据后能从视频卫星数据图片中获取图片中火焰、烟雾和火烧迹地的跟踪结果;
时空跟踪框架模块,其与视频图像处理模型连接,获取实时更新的火焰、烟雾和火烧迹地的时空信息;
坐标转换模块,其与视频图像处理模型连接,采用多项式拟合模型将火焰、烟雾和火烧迹地的跟踪结果的像素坐标转化为经纬度坐标;
轮廓检测算法模块,其与时空跟踪框架模块连接,根据时空跟踪框架模块获取的火焰、烟雾和火烧迹地的时空信息,使用基于Canny边缘检测方法进行轮廓提取,获取火焰轮廓周长;
火灾蔓延速度计算模块,其与时空跟踪框架模块连接,用于火灾蔓延速度计算,其使用火焰、烟雾和火烧迹地的时空信息中相邻帧的火烧迹地的面积差值,结合火焰、烟雾和火烧迹地的时空信息每一帧的时间间隔,计算火灾蔓延速度。
前述视频图像处理模型获取视频卫星数据后从视频卫星数据图片中获取火焰、烟雾和火烧迹地的跟踪结果的步骤包括:
步骤101.选取火灾监测区域视频卫星数据序列中包含发生火灾的一个图像帧作为模板帧,除模板帧外的图像帧作为当前帧,从所述模板帧中提取一个包含火焰、烟雾或火烧迹地的静态图像作为模板图像;当前帧中的一个静态图像作为搜索图像;将模板图像和搜索图像通过ResNet-50网络进行卷积操作,提取火灾信息特征,所述火灾信息特征包括火焰、烟雾、火烧迹地;
步骤102.将步骤101中的火灾信息特征进行预处理,所述的预处理指将Resnet-50输出的火灾信息特征转化为能输入transformer编码器的信息,输入到transformer编码器得到增强后的火灾信息特征序列;
步骤103.将目标查询向量及增强后的火灾信息特征序列二者一并输入transformer解码器,在每层解码器中进行自注意力操作,将目标查询向量与增强后的火灾信息特征序列相互关联,让transformer解码器能够根据目标查询向量聚焦于搜索图像中与火灾信息相关的位置,获取与火灾信息相关的特征表示;所述与火灾信息相关的特征表示包括火灾信息的空间位置、形状、颜色、纹理特征,所述目标查询向量为待检测火灾信息类别;
步骤104.将步骤103获得的与火灾信息相关的特征表示输入边界框预测头,通过边界框预测头预测框选图片中火焰、烟雾、火烧迹地三种火灾信息特征得到跟踪结果,输出预测框选图片左上角坐标和右下角坐标的两个概率值。
前述步骤102中的火灾信息特征进行预处理的具体步骤为:首先,通过1x1卷积,将火灾信息特征通道数从C减少为d,然后将特征图进行“扁平化和聚合”操作,得到长度为,通道数为d的特征序列,将其输入至transformer编码器,利用正弦位置编码为上述输入特征序列中的每个位置添加位置信息,其中/>表示模板图像特征图的高度,/>表示模板图像特征图的宽度;/>表示搜索图像特征图的高度,/>表示搜索图像特征图的宽度。
输出预测框选图片左上角和右下角的两个概率值为和/>,得到预测框选图片的左上角坐标/>和右下角坐标/>,
;
;
其中,TL为Top-Left的缩写,指边界框的左上角点,BR为Bottom-Right的缩写,/>指边界框的右下角点;P为概率值。
为提高视频图像处理模型定位能力,确保所有的搜索图像都包含火灾信息,对视频图像处理模型以端到端方式训练,并结合L1Loss和DETR中的广义IoULoss定义视频图像处理模型的损失函数L,损失函数公式为:
;
式中,分别代表ground truth和预测框,/>为超参数,用来调整IoU损失在整体损失中的权重,/>用来调整L1在整体损失中的权重,L1为L1Loss函数。
前述时空跟踪框架模块包括动态输入模块和得分预测头;动态输入模块用于获取火灾监测区域视频卫星数据中间动态模板帧,并对中间帧的每一帧影像进行多目标跟踪,获得实时更新的火焰、烟雾和火烧迹地的时空信息,第一帧和当前帧之间的每一帧均为中间帧,所述第一帧为模板帧,火灾时空信息的实时更新步骤包括:
步骤201.通过动态输入模块引入一个从中间帧采样的动态模板作为附加输入,与模板图像和搜索图像一并输入视频图像处理模型的transformer编码器中;
步骤202.经过视频图像处理模型处理的跟踪结果中只要搜索区域包含火灾信息,动态模板就会更新,得分预测头用于判断动态模板更新的可靠性,当得分预测头的分数高于阈值τ且动态模板达到更新间隔T帧时,动态模板更新,反之则不更新;其中,T为150帧,每隔5秒进行一次更新。
它还包括利用二元交叉熵损失函数LCE对得分预测头进行优化,所述二元交叉熵损失公式为:
;
其中,为ground truth标签,/>为预测置信度,其余参数均被冻结,以避免影响定位能力,最终模型学习了定位能力和分类能力。
前述坐标转换模块中采用多项式拟合模型将火焰、烟雾和火烧迹地跟踪结果的像素坐标转化为经纬度坐标的步骤包括:
步骤301.从火灾监测区域中选择已知位置的控制点,所选择的控制点都有像素坐标和对应的地球表面经纬度坐标;
步骤302.利用已知控制点的像素坐标和对应的经纬度坐标,通过多项式拟合来建立像素坐标到地理坐标的多项式转换模型;
步骤303.使用建立的多项式转换模型,通过将火焰、烟雾和火烧迹地跟踪结果中的每个像素点的像素坐标输入到多项式模型中,即可得到相应的经纬度坐标。
前述轮廓检测算法模块使用基于Canny边缘检测方法进行轮廓提取,获取火焰轮廓周长的步骤包括:
步骤401.采用实时更新的火焰、烟雾和火烧迹地的时空信息中运动的火焰、烟雾和火烧迹地图片,使用基于Canny边缘检测方法进行轮廓提取;
步骤402.基于轮廓跟踪算法,沿着运动的火焰、烟雾和火烧迹地图片边缘像素进行迭代跟踪,形成连续的轮廓曲线,以连续的火焰、烟雾帧中跟踪和连接提取到的轮廓来形成连续火焰、烟雾的轮廓曲线。
前述火灾蔓延速度计算模块计算视频数据相邻帧的火烧迹地的面积差值,结合视频数据每一帧的时间间隔,计算火灾蔓延速度包括以下步骤:
步骤501.利用帧间差分法获取火焰、烟雾和火烧迹地的时空信息每一帧图像与前一帧图像的差异,对差分图像进行阈值分割,然后对图像变化区域二值化,
步骤502.对二值化后图像进行连通域分析,将相邻的火烧迹地像素点连接成区域,得到火烧迹地的掩膜图像,其中火烧迹地区域的像素值为1,非火烧迹地区域的像素值为0;
步骤503.利用像素统计算法计算掩膜图像的面积,得到火烧迹地面积变化量,计算公式为:
;
式中,表示森林地表火面积蔓延速度,单位m2/s;/>表示森林火烧迹地的面积变化,单位m2;t表示每一帧的时间间隔,单位s。
与现有技术比较,本发明公开的一种基于视频卫星的森林智能防火方法,其基于视频卫星数据,利用transformer作为视频图像处理模型在获取视频卫星数据后能快速从视频卫星数据图片中获取图片中火焰、烟雾和火烧迹地的跟踪结果,使用时空跟踪框架模块跟踪策略,实时更新火焰、烟雾和火烧迹地的时空信息,提高火灾信息检测精度,利用坐标转换模块将火焰、烟雾和火烧迹地的跟踪结果的像素坐标转化为经纬度坐标,实现快速定位,同时轮廓检测算法模块和火灾蔓延速度计算模块获取火焰轮廓周长,计算出火灾蔓延速度。与同类方法提供火焰、烟雾、火烧迹地相比,本发明不仅能够提供森林火灾的火焰、烟雾、火烧迹地、还能提供火灾信息的地理坐标、火焰形状、火灾蔓延速度等信息。本发明可快速提取收集的视频卫星数据中的火焰、烟雾、火烧迹地等特征,并结合动态跟踪策略,实时对三种目标进行更新,提高三种目标检测精度,与同类方法提供火焰、烟雾、火烧迹地相比,本发明不仅能够提供森林火灾的火焰、烟雾、火烧迹地、还能提供火灾信息的地理坐标、火焰形状、火灾蔓延速度等信息。并且将各信息结合气象观测数据、地形地貌数据等,可构建森林火灾蔓延模型,精确模拟未来时间森林火灾蔓延的位置和方向。
本发明的技术效果具体有:
(1)相较于现有的研究中提供的火灾信息相对单一,只能提供火焰、烟雾、火烧迹地,本方法不仅提供森林火灾的火焰、烟雾、火烧迹地,还能提供火灾信息的地理坐标、火焰形状、火灾蔓延速度等信息,其结合气象观测数据、地形地貌数据等,可构建森林火灾蔓延模型,模拟未来时间森林火灾蔓延的位置和方向,精确度高,及时性好,可为应急扑救和消防灭火提供决策辅助,实用性强;
(2)通过使用transformer作为视频图像处理模型对火焰、烟雾、火烧迹地提取,高效计算出火灾蔓延速度,其具有较快的检测速度和高效的计算能力,可以实现对大规模遥感影像数据的实时处理和分析,处理能力强,处理高效精确;
(3)采用时空跟踪框架模块的动态跟踪策略,结合火焰和烟雾的形状、大小、颜色等特征,可捕获火焰、烟雾和火烧迹地三种火灾信息外观随时间的变化,从而提供额外的时间信息,提取具有判别性的时空特征,有效提高三种目标检测精度。
本发明的其他优点、目标和特征在某种程度上将在随后的说明书中进行阐述,并且在某种程度上,基于对下文的考察研究对本领域技术人员而言将是显而易见的,或者可以从本发明的实践中得到教导。本发明的目标和其他优点可以通过下面的说明书来实现和获得。
附图说明
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步的详细描述,其中:
图1为视频图像处理模型的结构示意图;
图2为一层transformer编码器示意图;
图3为边界框预测头的结构示意图;
图4为时空跟踪框架模块的结构示意图。
实施方式
以下将参照附图,对本发明的优选实施例进行详细的描述。应当理解,优选实施例仅为了说明本发明,而不是为了限制本发明的保护范围。
实施例
如图1-图4所示,一种基于视频卫星的森林智能防火方法,
一种基于视频卫星的森林智能防火方法,其特征在于,它包括以下模块:
视频图像处理模型,其与视频卫星数据连接,视频图像处理模型在获取视频卫星数据后能从视频卫星数据图片中获取图片中火焰、烟雾和火烧迹地的跟踪结果;
时空跟踪框架模块,其与视频图像处理模型连接,获取实时更新的火焰、烟雾和火烧迹地的时空信息;
坐标转换模块,其与视频图像处理模型连接,采用多项式拟合模型将火焰、烟雾和火烧迹地的跟踪结果的像素坐标转化为经纬度坐标;
轮廓检测算法模块,其与时空跟踪框架模块,根据时空跟踪框架模块获取的火焰、烟雾和火烧迹地的时空信息,使用基于Canny边缘检测方法进行轮廓提取,获取火焰轮廓周长;
火灾蔓延速度计算模块,其与时空跟踪框架模块连接,用于火灾蔓延速度计算,其使用火焰、烟雾和火烧迹地的时空信息中相邻帧的火烧迹地的面积差值,结合火焰、烟雾和火烧迹地的时空信息每一帧的时间间隔,计算火灾蔓延速度。
所述视频图像处理模型能将视频卫星数据处理成平面特征序列输出;视频图像处理模型如图1所示,它包括 ResNet-50 网络、transformer 编码器-解码器和边界框预测头,ResNet-50 网络对含火灾信息的图片进行卷积操作提取火灾信息特征,火灾信息特征经过transformer 编码器-解码器获取与火灾信息相关的特征表示,与火灾信息相关的特征表示输入边界框预测头,通过边界框预测头预测框选图片中火焰、烟雾、火烧迹地三种火灾信息特征得到跟踪结果。所述视频图像处理模型获取视频卫星数据后从视频卫星数据图片中获取图片中火焰、烟雾和火烧迹地的跟踪结果的具体步骤包括:
步骤101.选取火灾监测区域视频卫星数据序列中包含发生火灾的一个图像帧作为模板帧,除模板帧外的图像帧作为当前帧,从所述模板帧中提取一个包含火焰、烟雾或火烧迹地的静态图像作为模板图像;当前帧中的一个静态图像作为搜索图像;将模板图像和搜索图像通过ResNet-50网络进行卷积操作,提取火灾信息特征,所述火灾信息特征包括火焰、烟雾、火烧迹地。
具体地,模板图像为,搜索图像为/>,R表示实值空间,/>表示模板图像的高度,/>表示模板图像的宽度,/>表示搜索图像的高度,表示搜索图像的宽度,C表示图像的通道数;将模板图像z和搜索图像x输入至ResNet-50网络中进行卷积操作,分别得到对应的两个特征图/>和,其中/>表示模板图像特征图的高度,/>表示模板图像特征图的宽度;/>表示搜索图像特征图的高度,/>表示搜索图像特征图的宽度,/>表示特征图的通道数。
步骤102.将步骤101中的火灾信息特征进行预处理,所述的预处理指将Resnet-50输出的火灾信息特征转化为能输入transformer编码器的信息,输入到transformer编码器得到增强后的火灾信息特征序列;
对火焰、烟雾、火烧迹地三种特征图进行预处理的具体步骤为:首先,通过1x1卷积,将输入特征通道数从C减少为d,然后将特征图进行“扁平化和聚合”操作,得到长度为,通道数为d的特征序列,将其输入至transformer编码器,利用正弦位置编码为上述输入特征序列中的每个位置添加位置信息。其中/>表示模板图像特征图的高度,/>表示模板图像特征图的宽度;/>表示搜索图像特征图的高度,/>表示搜索图像特征图的宽度。
transformer编码器提取火灾信息的过程:利用正弦位置编码为上述输入特征序列中的每个位置添加位置信息,将编码后的输入特征序列送入至transformer编码器中,该编码器由N层编码器组成,每层编码器由多头自注意力机制、前馈神经网络、残差结构与层归一化组成;经过多层编码器的处理,输出增强后的火灾信息特征序列,包含更多的语义、位置和上下文信息,一层编码器结构如图2所示。
步骤103.将目标查询向量及增强后的火灾信息特征序列二者一并输入transformer解码器,在每层解码器中进行自注意力操作,将目标查询向量与增强后的火灾信息特征序列相互关联,让transformer解码器能够根据目标查询向量聚焦于搜索图像中与火灾信息相关的位置,获取与火灾信息相关的特征表示;所述与火灾信息相关的特征表示包括火灾信息的空间位置、形状、颜色、纹理等特征,所述目标查询向量为待检测火灾信息类别。
transformer解码器栈由M层解码器组成,每一层由自注意力、编码器-解码器注意和前馈网络组成;transformer解码器输出火灾信息的位置、类别等信息。
其中,每个目标查询向量表示一个待检测火灾信息类别,将N个目标查询向量随机初始化,然后在训练过程中通过反向传播进行优化。
计算目标查询向量与增强后的火灾信息特征序列相互关联的具体步骤如下:
(1)查询、键、值的生成:将目标查询向量作为“查询(Query)”,增强后的火灾信息特征序列向量作为“键(Key)”,而二者关联后的火灾信息特征序列向量作为“值(Value)”。在自注意力计算中,考虑目标查询和火灾信息特征序列的关联程度;
(2)注意力计算:计算目标查询向量(Query)与火灾信息特征序列向量(Key)之间的内积,然后通过softmax函数计算注意力权重;
(3)加权和计算:使用注意力权重对增强后的火灾信息特征序列的向量进行加权和计算,得到关联后的向量火灾信息特征序列向量(Value),这个向量将包含了目标查询向量对火灾信息的影响。
步骤104. 经过步骤103获得的与火灾信息相关的特征表示输入边界框预测头,通过边界框预测头预测框选图片中火焰、烟雾、火烧迹地三种火灾信息特征得到跟踪结果,输出预测框选图片左上角坐标和右下角坐标的两个概率值。
如图3所示;具体步骤为:将增强后的火灾信息特征序列利用1x1卷积重塑为特征映射,然后馈入到全卷积网络(FCN),FCN由L个堆叠的Conv-BN-ReLU组成,输出预测框选图片左上角和右下角的两个概率值为和/>,得到预测框的左上角坐标和右下角坐标/>,见公式(1):
;
(1)
其中,TL为Top-Left的缩写,指边界框的左上角点,BR为Bottom-Right的缩写,/>指边界框的右下角点;P为概率值。
为提高视频图像处理模型定位能力,确保所有的搜索图像都包含火灾信息,对视频图像处理模型以端到端方式训练,并结合L1Loss和DETR中的广义IoULoss定义视频图像处理模型的损失函数L,损失函数公式为:
(2)
式中,分别代表ground truth和预测框,/>为超参数,/>用来调整IoU损失在整体损失中的权重,/>用来调整L1在整体损失中的权重,L1为L1Loss函数。
由于火焰、烟雾和火烧迹地三种火灾信息会随着时间的推移发生变化,所以捕捉目标的最新状态进行跟踪是很重要的。如图4所示,所述时空跟踪框架模块包括动态输入模块和得分预测头;所述动态输入模块用于获取火灾监测区域视频卫星数据中间动态模板帧,引入一个从中间帧采样的动态更新模板作为附加输入,输入至transformer编码器,捕获火灾信息随时间变化的特征;并对中间帧的每一帧影像进行多目标跟踪,获得实时更新的火焰、烟雾和火烧迹地的时空信息;得分预测头用于判断更新条件,只要搜索区域包含火灾信息,得分预测头的分数高于阈值τ且达到更新间隔时,动态模板就会更新;其中,阈值τ默认0.5;第一帧和当前帧之间的每一帧均为中间帧,所述第一帧为模板帧。
火灾时空信息的实时更新步骤具体包括:
步骤201.通过动态输入模块引入一个从中间帧采样的动态更新模板作为附加输入,与初始图像和搜索图像,一并输入至视频图像处理模型的transformer编码器中,
具体的,通过动态输入模块引入一个从中间帧采样的动态更新模板作为附加输入,除了来自初始模板的空间信息外,动态输入模块还可以捕获火灾信息外观随时间的变化,与视频图像处理模型类似,三重结构的特征图进行“扁平化和聚合”操作,然后发送给视频图像处理模型的transformer编码器,提取具有判别性的时空特征;
步骤202. 经过视频图像处理模型处理的跟踪结果中只要搜索区域包含火灾信息,动态模板就会更新,通过得分预测头判断动态模板更新的可靠性,当得分预测头的分数高于阈值τ且动态模板达到更新间隔T帧时,动态模板更新,反之则不更新;
其中,T为150帧,T为Time的首字母缩写。每隔5秒进行一次更新,本发明使用的视频数据帧率为30帧/秒,因此更新间隔为150帧。
所述分数预测头是一个三层感知器,然后是一个sigmoid激活,若评分高于阈值,则认为当前状态是可靠的。优选地,对分数预测头进行训练,提高分数预测头的分类能力,具体地,利用二元交叉熵损失函数LCE对得分预测头进行优化,所述二元交叉熵损失公式为::
(3)
其中,为ground truth标签,/>为预测置信度,其余参数均被冻结,以避免影响定位能力,最终模型学习了定位能力和分类能力。
所述边界框预测头、分数预测头的训练过程分为两个阶段,定位是首要任务,分类是次要任务。具体来说,在第一阶段,除了得分预测头外,整个网络只对公式(2)中的损失进行端到端训练,在这一阶段,确保所有的搜索图像都包含目标对象,提高模型定位能力;第二阶段对得分预测头进行优化。这样,经过两阶段的训练,最终的模型既学习了定位能力,又学习了分类能力。
所述坐标转换模块中,采用多项式拟合模型将火焰、烟雾和火烧迹地跟踪结果的像素坐标转化为经纬度坐标的具体步骤包括:
步骤301. 从火灾监测区域中选择已知位置的控制点,所选择的控制点都有像素坐标和对应的地球表面经纬度坐标;
步骤302.利用已知控制点的像素坐标和对应的经纬度坐标,通过多项式拟合来建立像素坐标到地理坐标的多项式转换模型;
步骤303.使用建立的多项式转换模型,通过将火焰、烟雾和火烧迹地跟踪结果中的每个像素点的像素坐标输入到多项式模型中,即可得到相应的经纬度坐标。
具体地,所述多项式拟合模型为归一化像素坐标处理,处理步骤包括:
(1)根据火灾监测区域的分辨率和像素坐标范围,通过读取视频数据的元数据或使用图像处理库确定像素坐标的最小值和最大值;
(2)将烟雾和火焰目标检测结果的像素坐标归一化到[0, 1]的范围内,其中(0,0)表示影像的左上角,(1, 1)表示影像的右下角,归一化后的像素坐标可以通过将实际像素坐标减去最小像素坐标,然后除以像素坐标范围的差得到;
(3)使用归一化的像素坐标和影像尺寸,确定烟雾和火焰目标在影像上的相对位置,其通过将归一化的像素坐标乘以影像宽度和高度来实现;
(4)使用已知的四个角的经纬度坐标和目标在影像上的相对位置,进行坐标映射,将目标在影像上的相对位置转换为经纬度坐标;
(5)根据影像的左上角和右上角的经度差值,将目标在影像上的相对横向位置映射为经度偏移量,根据影像的左上角和左下角的纬度差值,将目标在影像上的相对纵向位置映射为纬度偏移量;
(6)将经纬度偏移量与影像左上角的经纬度坐标相加,得到烟雾和火焰目标的经纬度坐标。
所述轮廓检测算法模块使用基于Canny边缘检测方法进行轮廓提取,获取火焰轮廓周长的步骤包括:
步骤401. 采用实时更新的火焰、烟雾和火烧迹地的时空信息中运动的火焰、烟雾和火烧迹地图片,使用基于Canny边缘检测方法进行轮廓提取;
具体地,首先,将当前帧图像转换为灰度图像,并进行高斯滤波以减少噪声;其次,使用Sobel算子计算图像的梯度幅值和方向;然后,根据梯度幅值和方向,进行非极大值抑制,以保留边缘的细节;最后,通过阈值化和边缘连接,将相邻的边缘像素连接起来,形成连续的轮廓;
步骤402.基于轮廓跟踪算法,沿着运动的火焰、烟雾和火烧迹地图片边缘像素进行迭代跟踪,形成连续的轮廓曲线,以连续的火焰、烟雾帧中跟踪和连接提取到的轮廓,来形成连续火焰、烟雾的轮廓曲线;其中火焰的形状分为:点状火焰、直立火柱、喷射火焰、曲线火焰。
基于火焰轮廓周长,所述火灾蔓延速度计算模块计算视频数据相邻帧的火烧迹地的面积差值,结合视频数据每一帧的时间间隔,计算火灾蔓延速度,具体包括以下步骤:
步骤501.利用帧间差分法获取火焰、烟雾和火烧迹地的时空信息每一帧图像与前一帧图像的差异,对差分图像进行阈值分割,然后对图像变化区域二值化,
步骤502.对二值化后图像进行连通域分析,将相邻的火烧迹地像素点连接成区域,得到火烧迹地的掩膜图像,其中火烧迹地区域的像素值为1,非火烧迹地区域的像素值为0;
步骤503.利用像素统计算法计算掩膜图像的面积,得到火烧迹地面积变化量,计算公式为:
;
式中,表示森林地表火面积蔓延速度,单位m2/s;/>表示森林火烧迹地的面积变化,单位m2;t表示每一帧的时间间隔,单位s。
以上所述,仅是本发明的较佳实施例而已,并非对本发明作任何形式保密的限制,任何未脱离本发明技术方案内容、依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与修饰,均仍属于本发明技术方案的范围内。
Claims (9)
1.一种基于视频卫星的森林智能防火方法,其特征在于,该方法通过以下模块实现:
视频图像处理模型,它包括ResNet-50网络、transformer编码器-解码器和边界框预测头,ResNet-50网络对含火灾信息的图片进行卷积操作提取火灾信息特征,火灾信息特征经过transformer编码器-解码器获取与火灾信息相关的特征表示,与火灾信息相关的特征表示输入边界框预测头,通过边界框预测头预测框选图片中火焰、烟雾、火烧迹地三种火灾信息特征得到跟踪结果;视频图像处理模型与视频卫星数据连接,视频图像处理模型在获取视频卫星数据后能从视频卫星数据图片中获取图片中火焰、烟雾和火烧迹地的跟踪结果;
时空跟踪框架模块,其与视频图像处理模型连接,获取实时更新的火焰、烟雾和火烧迹地的时空信息;
坐标转换模块,其与视频图像处理模型连接,采用多项式拟合模型将火焰、烟雾和火烧迹地的跟踪结果的像素坐标转化为经纬度坐标;
轮廓检测算法模块,其与时空跟踪框架模块连接,根据时空跟踪框架模块获取的火焰、烟雾和火烧迹地的时空信息,使用基于Canny边缘检测方法进行轮廓提取,获取火焰轮廓周长;
火灾蔓延速度计算模块,其与时空跟踪框架模块连接,用于火灾蔓延速度计算,其使用火焰、烟雾和火烧迹地的时空信息中相邻帧的火烧迹地的面积差值,结合火焰、烟雾和火烧迹地的时空信息每一帧的时间间隔,计算火灾蔓延速度;
所述视频图像处理模型获取视频卫星数据后从视频卫星数据图片中获取火焰、烟雾和火烧迹地的跟踪结果的步骤包括:
步骤101.选取火灾监测区域视频卫星数据序列中包含发生火灾的一个图像帧作为模板帧,除模板帧外的图像帧作为当前帧,从所述模板帧中提取一个包含火焰、烟雾或火烧迹地的静态图像作为模板图像;当前帧中的一个静态图像作为搜索图像;将模板图像和搜索图像通过ResNet-50网络进行卷积操作,提取火灾信息特征,所述火灾信息特征包括火焰、烟雾、火烧迹地;
步骤102.将步骤101中的火灾信息特征进行预处理,所述的预处理指将Resnet-50输出的火灾信息特征转化为能输入transformer编码器的信息,输入到transformer编码器得到增强后的火灾信息特征序列;
步骤103.将目标查询向量及增强后的火灾信息特征序列二者一并输入transformer解码器,在每层解码器中进行自注意力操作,将目标查询向量与增强后的火灾信息特征序列相互关联,让transformer解码器能够根据目标查询向量聚焦于搜索图像中与火灾信息相关的位置,获取与火灾信息相关的特征表示;所述与火灾信息相关的特征表示包括火灾信息的空间位置、形状、颜色、纹理特征,所述目标查询向量为待检测火灾信息类别;
步骤104.将步骤103获得的与火灾信息相关的特征表示输入边界框预测头,通过边界框预测头预测框选图片中火焰、烟雾、火烧迹地三种火灾信息特征得到跟踪结果,输出预测框选图片左上角坐标和右下角坐标的两个概率值。
2.根据权利要求1所述的基于视频卫星的森林智能防火方法,其特征在于:步骤102中的火灾信息特征进行预处理的具体步骤为:首先,通过1x1卷积,将火灾信息特征通道数从C减少为d,然后将特征图进行“扁平化和聚合”操作,得到长度为H′1×W′1+H′2×W′2,通道数为d的特征序列,将其输入至transformer编码器,利用正弦位置编码为上述输入特征序列中的每个位置添加位置信息,其中H′1表示模板图像特征图的高度,W′1表示模板图像特征图的宽度;H′2表示搜索图像特征图的高度,W′2表示搜索图像特征图的宽度。
3.根据权利要求1所述的基于视频卫星的森林智能防火方法,其特征在于:输出预测框选图片左上角和右下角的两个概率值为PTL(x,y)和PBR(x,y),得到预测框选图片的左上角坐标和右下角坐标/>
其中,TL为Top-Left的缩写,指边界框的左上角点,BR为Bottom-Right的缩写,指边界框的右下角点;P为概率值。
4.根据权利要求1所述的基于视频卫星的森林智能防火方法,其特征在于:为提高视频图像处理模型定位能力,确保所有的搜索图像都包含火灾信息,对视频图像处理模型以端到端方式训练,并结合L1Loss和DETR中的广义IoULoss定义视频图像处理模型的损失函数L,损失函数公式为:
式中,分别代表ground truth和预测框,λiou,/>为超参数,λiou用来调整IoU损失在整体损失中的权重,/>用来调整L1在整体损失中的权重,L1为L1Loss函数。
5.根据权利要求4所述的基于视频卫星的森林智能防火方法,其特征在于:所述时空跟踪框架模块包括动态输入模块和得分预测头;动态输入模块用于获取火灾监测区域视频卫星数据中间动态模板帧,并对中间帧的每一帧影像进行多目标跟踪,获得实时更新的火焰、烟雾和火烧迹地的时空信息,第一帧和当前帧之间的每一帧均为中间帧,所述第一帧为模板帧,火灾时空信息的实时更新步骤包括:
步骤201.通过动态输入模块引入一个从中间帧采样的动态模板作为附加输入,与模板图像和搜索图像一并输入视频图像处理模型的transformer编码器中;
步骤202.经过视频图像处理模型处理的跟踪结果中只要搜索区域包含火灾信息,动态模板就会更新,得分预测头用于判断动态模板更新的可靠性,当得分预测头的分数高于阈值τ且动态模板达到更新间隔T帧时,动态模板更新,反之则不更新;其中,T为150帧,每隔5秒进行一次更新。
6.根据权利要求5所述的基于视频卫星的森林智能防火方法,其特征在于:它还包括利用二元交叉熵损失函数LCE对得分预测头进行优化,所述二元交叉熵损失公式为:
Lce=yilog(Ci)+(1-yi)log(1-Cj)
其中,yi为ground truth标签,Ci为预测置信度,其余参数均被冻结,以避免影响定位能力,最终模型学习了定位能力和分类能力。
7.根据权利要求6所述的基于视频卫星的森林智能防火方法,其特征在于:所述坐标转换模块中采用多项式拟合模型将火焰、烟雾和火烧迹地跟踪结果的像素坐标转化为经纬度坐标的步骤包括:
步骤301.从火灾监测区域中选择已知位置的控制点,所选择的控制点都有像素坐标和对应的地球表面经纬度坐标;
步骤302.利用已知控制点的像素坐标和对应的经纬度坐标,通过多项式拟合来建立像素坐标到地理坐标的多项式转换模型;
步骤303.使用建立的多项式转换模型,通过将火焰、烟雾和火烧迹地跟踪结果中的每个像素点的像素坐标输入到多项式模型中,即可得到相应的经纬度坐标。
8.根据权利要求6所述的基于视频卫星的森林智能防火方法,其特征在于:所述轮廓检测算法模块使用基于Canny边缘检测方法进行轮廓提取,获取火焰轮廓周长的步骤包括:
步骤401.采用实时更新的火焰、烟雾和火烧迹地的时空信息中运动的火焰、烟雾和火烧迹地图片,使用基于Canny边缘检测方法进行轮廓提取;
步骤402.基于轮廓跟踪算法,沿着运动的火焰、烟雾和火烧迹地图片边缘像素进行迭代跟踪,形成连续的轮廓曲线,以连续的火焰、烟雾帧中跟踪和连接提取到的轮廓来形成连续火焰、烟雾的轮廓曲线。
9.根据权利要求6所述的基于视频卫星的森林智能防火方法,其特征在于:所述火灾蔓延速度计算模块计算视频数据相邻帧的火烧迹地的面积差值,结合视频数据每一帧的时间间隔,计算火灾蔓延速度的步骤包括:
步骤501.利用帧间差分法获取火焰、烟雾和火烧迹地的时空信息每一帧图像与前一帧图像的差异,对差分图像进行阈值分割,然后对图像变化区域二值化,
步骤502.对二值化后图像进行连通域分析,将相邻的火烧迹地像素点连接成区域,得到火烧迹地的掩膜图像,其中火烧迹地区域的像素值为1,非火烧迹地区域的像素值为0;
步骤503.利用像素统计算法计算掩膜图像的面积,得到火烧迹地面积变化量△S,计算公式为:
Sv=ΔS/t
式中,Sv表示森林地表火面积蔓延速度,单位m2/s;△S表示森林火烧迹地的面积变化,单位m2;t表示每一帧的时间间隔,单位s。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311101276.4A CN116824462B (zh) | 2023-08-30 | 2023-08-30 | 一种基于视频卫星的森林智能防火方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311101276.4A CN116824462B (zh) | 2023-08-30 | 2023-08-30 | 一种基于视频卫星的森林智能防火方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116824462A CN116824462A (zh) | 2023-09-29 |
CN116824462B true CN116824462B (zh) | 2023-11-07 |
Family
ID=88116993
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311101276.4A Active CN116824462B (zh) | 2023-08-30 | 2023-08-30 | 一种基于视频卫星的森林智能防火方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116824462B (zh) |
Citations (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101770644A (zh) * | 2010-01-19 | 2010-07-07 | 浙江林学院 | 森林火灾远程视频监控烟火识别方法 |
WO2012167609A2 (zh) * | 2011-06-09 | 2012-12-13 | 广州飒特红外股份有限公司 | 基于红外热成像技术的森林防火预警系统及方法 |
CN103927838A (zh) * | 2014-04-22 | 2014-07-16 | 中国科学技术大学 | 一种烟雾热成像火灾自动定位探测系统及方法 |
CN110097727A (zh) * | 2019-04-30 | 2019-08-06 | 暨南大学 | 基于模糊贝叶斯网络的森林火灾预警方法及系统 |
CN110414472A (zh) * | 2019-08-06 | 2019-11-05 | 湖南特致珈物联科技有限公司 | 一种基于视频的多维火灾智能检测系统 |
CN110443195A (zh) * | 2019-08-02 | 2019-11-12 | 四创科技有限公司 | 一种结合超像素与深度学习的遥感影像火烧迹地分析方法 |
KR20190129470A (ko) * | 2018-05-11 | 2019-11-20 | 대한민국(산림청 국립산림과학원장) | 접근불능지역 실시간 산불위험예보시스템 |
CN112183319A (zh) * | 2020-09-27 | 2021-01-05 | 中国林业科学研究院资源信息研究所 | 基于遥感图像和植被类型图的森林草原火灾火势判别方法 |
CN112435207A (zh) * | 2020-12-07 | 2021-03-02 | 深圳航天智慧城市系统技术研究院有限公司 | 一种基于天空地一体化的森林火灾监测预警方法 |
WO2021114221A1 (zh) * | 2019-12-12 | 2021-06-17 | 江西洪都航空工业集团有限责任公司 | 一种基于无锚点机制的火焰检测方法及装置 |
CN113221793A (zh) * | 2021-05-24 | 2021-08-06 | 南京林业大学 | 基于轻量型双流卷积网络的监控视频火焰区域检测方法 |
CN113487530A (zh) * | 2021-08-02 | 2021-10-08 | 广东工业大学 | 一种基于深度学习的红外与可见光融合成像方法 |
CN113792427A (zh) * | 2021-09-14 | 2021-12-14 | 福州大学 | 一种已有边界条件下森林火灾蔓延预测模拟的方法 |
CN114092798A (zh) * | 2021-10-26 | 2022-02-25 | 北京工业大学 | 一种基于半监督学习策略的火灾实例分割方法 |
US11295131B1 (en) * | 2021-06-15 | 2022-04-05 | Knoetik Solutions, Inc. | Smoke and fire recognition, fire forecasting, and monitoring |
CN114494944A (zh) * | 2021-12-29 | 2022-05-13 | 北京辰安科技股份有限公司 | 火灾危险等级的确定方法、装置、设备及存储介质 |
KR20220112913A (ko) * | 2021-02-04 | 2022-08-12 | 가천대학교 산학협력단 | 불꽃 및 연기 자동 감지 방법 및 이를 이용하는 확장 cnn 기반의 감시 시스템 |
CN114998719A (zh) * | 2022-04-27 | 2022-09-02 | 南京林业大学 | 一种基于深度学习和多源遥感数据的林火预测方法 |
CN115457423A (zh) * | 2022-08-04 | 2022-12-09 | 燕山大学 | 一种结合高效采样增强的火焰烟雾检测方法 |
CN115512225A (zh) * | 2022-09-29 | 2022-12-23 | 国网四川省电力公司营销服务中心 | 一种基于注意力机制实现端到端的森林火灾检测算法 |
CN116152662A (zh) * | 2023-02-24 | 2023-05-23 | 昆明理工大学 | 一种森林火灾烟雾探测方法和系统 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8462980B2 (en) * | 2008-05-08 | 2013-06-11 | Utc Fire & Security | System and method for video detection of smoke and flame |
DE102013017395B3 (de) * | 2013-10-19 | 2014-12-11 | IQ Wireless Entwicklungsges. für Systeme und Technologien der Telekommunikation mbH | Verfahren und Vorrichtung zur automatisierten Waldbrandfrüherkennung mittels optischer Detektion von Rauchwolken |
US10628699B2 (en) * | 2017-06-13 | 2020-04-21 | Samsung Electronics Co., Ltd. | Event-based image feature extraction |
US11660480B2 (en) * | 2018-11-21 | 2023-05-30 | One Concern, Inc. | Fire forecasting |
KR102144974B1 (ko) * | 2019-11-08 | 2020-08-14 | 주식회사 알체라 | 화재 검출 시스템 |
US20210192175A1 (en) * | 2019-12-20 | 2021-06-24 | Volant Aerial, Inc. | System and method for the early visual detection of forest fires using a deep convolutional neural network |
KR102671607B1 (ko) * | 2020-01-22 | 2024-06-03 | 한국전자통신연구원 | 영상 기반 재난 감지 방법 및 장치 |
-
2023
- 2023-08-30 CN CN202311101276.4A patent/CN116824462B/zh active Active
Patent Citations (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101770644A (zh) * | 2010-01-19 | 2010-07-07 | 浙江林学院 | 森林火灾远程视频监控烟火识别方法 |
WO2012167609A2 (zh) * | 2011-06-09 | 2012-12-13 | 广州飒特红外股份有限公司 | 基于红外热成像技术的森林防火预警系统及方法 |
CN103927838A (zh) * | 2014-04-22 | 2014-07-16 | 中国科学技术大学 | 一种烟雾热成像火灾自动定位探测系统及方法 |
KR20190129470A (ko) * | 2018-05-11 | 2019-11-20 | 대한민국(산림청 국립산림과학원장) | 접근불능지역 실시간 산불위험예보시스템 |
CN110097727A (zh) * | 2019-04-30 | 2019-08-06 | 暨南大学 | 基于模糊贝叶斯网络的森林火灾预警方法及系统 |
CN110443195A (zh) * | 2019-08-02 | 2019-11-12 | 四创科技有限公司 | 一种结合超像素与深度学习的遥感影像火烧迹地分析方法 |
CN110414472A (zh) * | 2019-08-06 | 2019-11-05 | 湖南特致珈物联科技有限公司 | 一种基于视频的多维火灾智能检测系统 |
WO2021114221A1 (zh) * | 2019-12-12 | 2021-06-17 | 江西洪都航空工业集团有限责任公司 | 一种基于无锚点机制的火焰检测方法及装置 |
CN112183319A (zh) * | 2020-09-27 | 2021-01-05 | 中国林业科学研究院资源信息研究所 | 基于遥感图像和植被类型图的森林草原火灾火势判别方法 |
CN112435207A (zh) * | 2020-12-07 | 2021-03-02 | 深圳航天智慧城市系统技术研究院有限公司 | 一种基于天空地一体化的森林火灾监测预警方法 |
KR20220112913A (ko) * | 2021-02-04 | 2022-08-12 | 가천대학교 산학협력단 | 불꽃 및 연기 자동 감지 방법 및 이를 이용하는 확장 cnn 기반의 감시 시스템 |
CN113221793A (zh) * | 2021-05-24 | 2021-08-06 | 南京林业大学 | 基于轻量型双流卷积网络的监控视频火焰区域检测方法 |
US11295131B1 (en) * | 2021-06-15 | 2022-04-05 | Knoetik Solutions, Inc. | Smoke and fire recognition, fire forecasting, and monitoring |
CN113487530A (zh) * | 2021-08-02 | 2021-10-08 | 广东工业大学 | 一种基于深度学习的红外与可见光融合成像方法 |
CN113792427A (zh) * | 2021-09-14 | 2021-12-14 | 福州大学 | 一种已有边界条件下森林火灾蔓延预测模拟的方法 |
CN114092798A (zh) * | 2021-10-26 | 2022-02-25 | 北京工业大学 | 一种基于半监督学习策略的火灾实例分割方法 |
CN114494944A (zh) * | 2021-12-29 | 2022-05-13 | 北京辰安科技股份有限公司 | 火灾危险等级的确定方法、装置、设备及存储介质 |
CN114998719A (zh) * | 2022-04-27 | 2022-09-02 | 南京林业大学 | 一种基于深度学习和多源遥感数据的林火预测方法 |
CN115457423A (zh) * | 2022-08-04 | 2022-12-09 | 燕山大学 | 一种结合高效采样增强的火焰烟雾检测方法 |
CN115512225A (zh) * | 2022-09-29 | 2022-12-23 | 国网四川省电力公司营销服务中心 | 一种基于注意力机制实现端到端的森林火灾检测算法 |
CN116152662A (zh) * | 2023-02-24 | 2023-05-23 | 昆明理工大学 | 一种森林火灾烟雾探测方法和系统 |
Non-Patent Citations (5)
Title |
---|
Use of Satellite Images for Forest Fires in Area Determination and Monitoring;Mulayim Gure;2009 4th International Conference on Recent Advances in Space Technologies;27-32 * |
基于无人机遥感的森林火烧迹地面积调查应用;钟映霞;周宇飞;陈世清;魏书精;李小川;王振师;吴泽鹏;李强;;林业与环境科学(第02期);93-98 * |
基于经典深度卷积神经网络算法的火灾图像识别方法;何豪;常州工学院学报;20-26 * |
联合多源遥感数据监测四川木里县森林火灾;饶月明;王川;黄华国;;遥感学报(第05期);84-95 * |
贵州省森林资源增长变化措施分析;韩郸;林业科学;73-75 * |
Also Published As
Publication number | Publication date |
---|---|
CN116824462A (zh) | 2023-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3869459B1 (en) | Target object identification method and apparatus, storage medium and electronic apparatus | |
CN111259809B (zh) | 基于DANet的无人机海岸线漂浮垃圾巡检系统 | |
Arrue et al. | An intelligent system for false alarm reduction in infrared forest-fire detection | |
WO2019101220A1 (zh) | 基于深度学习网络和均值漂移的船只自动跟踪方法及系统 | |
CN113469050B (zh) | 基于图像细分类的火焰检测方法 | |
CN112307884A (zh) | 基于连续时序遥感态势数据的林火蔓延预测方法及电子设备 | |
US20210089811A1 (en) | Roof condition assessment using machine learning | |
CN112445241A (zh) | 一种基于无人机遥感技术的地表植被识别方法、系统及可读存储介质 | |
CN113947555A (zh) | 基于深度神经网络的红外与可见光融合的视觉系统及方法 | |
KR20220066783A (ko) | 산림 바이오매스의 산정방법 | |
CN111539325A (zh) | 基于深度学习的森林火灾探测方法 | |
CN107423670A (zh) | 基于深度置信网络的modis雾监测方法 | |
CN116206223A (zh) | 一种基于无人机边缘计算的火灾检测方法及系统 | |
Guo et al. | Mozambique flood (2019) caused by tropical cyclone idai monitored from sentinel-1 and sentinel-2 images | |
Yang et al. | Flood detection based on unmanned aerial vehicle system and deep learning | |
Luo | Research on fire detection based on YOLOv5 | |
CN111898440B (zh) | 一种基于三维卷积神经网络的山火检测方法 | |
CN116824462B (zh) | 一种基于视频卫星的森林智能防火方法 | |
Rajan et al. | Forest fire detection using machine learning | |
CN105551017A (zh) | 一种基于时空联合的输电线路山火目标提取方法 | |
Jeong et al. | Thermal imaging fire detection algorithm with minimal false detection | |
Qiao et al. | FireFormer: an efficient Transformer to identify forest fire from surveillance cameras | |
CN113657275A (zh) | 一种林草火点自动检测方法 | |
González et al. | Cloud nowcasting: Motion analysis of all sky images using velocity fields | |
Toby et al. | A survey of deep learning techniques based on drone images for the search and rescue of victims from collapsed structures |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |