CN117523420B - 一种基于雷达产品数据的闪电落区识别方法及系统 - Google Patents
一种基于雷达产品数据的闪电落区识别方法及系统 Download PDFInfo
- Publication number
- CN117523420B CN117523420B CN202410021900.8A CN202410021900A CN117523420B CN 117523420 B CN117523420 B CN 117523420B CN 202410021900 A CN202410021900 A CN 202410021900A CN 117523420 B CN117523420 B CN 117523420B
- Authority
- CN
- China
- Prior art keywords
- lightning
- data
- historical
- landing zone
- binary raster
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 230000000694 effects Effects 0.000 claims abstract description 22
- 239000007788 liquid Substances 0.000 claims abstract description 20
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims abstract description 20
- 238000002310 reflectometry Methods 0.000 claims abstract description 19
- 238000009432 framing Methods 0.000 claims abstract description 5
- 238000012549 training Methods 0.000 claims description 23
- 238000001514 detection method Methods 0.000 claims description 21
- 238000011156 evaluation Methods 0.000 claims description 20
- 238000012360 testing method Methods 0.000 claims description 15
- 230000004927 fusion Effects 0.000 claims description 5
- 230000008569 process Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 8
- 238000011176 pooling Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 238000011160 research Methods 0.000 description 5
- 230000001629 suppression Effects 0.000 description 4
- 102100033926 AP-3 complex subunit delta-1 Human genes 0.000 description 3
- 101000779252 Homo sapiens AP-3 complex subunit delta-1 Proteins 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 230000002265 prevention Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 1
- 208000025274 Lightning injury Diseases 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000010835 comparative analysis Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000005672 electromagnetic field Effects 0.000 description 1
- 230000005670 electromagnetic radiation Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000001373 regressive effect Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Astronomy & Astrophysics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Remote Sensing (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明公开了一种基于雷达产品数据的闪电落区识别方法及系统,包括以下步骤:步骤1:获取发生闪电活动时的组合反射率数据、云顶高度数据和垂直积分液态水含量数据;步骤2:基于组合反射率数据、云顶高度数据和垂直积分液态水含量数据,分别生成相应的灰度图像,将三种灰度图像作为三个波段进行融合,得到一多波段图像;步骤3:将多波段图像输入至闪电落区识别模型中,得到闪电落区识别图,所述闪电落区识别图包括框出闪电落区的边界框。
Description
技术领域
本发明属于大气科学技术领域,具体为一种基于雷达产品数据的闪电落区识别方法及系统。
背景技术
闪电是一种复杂的大气物理现象,它是在带电荷的云层内部、云层之间,或云层与地面之间发生的一种瞬时放电现象。这种放电过程具有高电流、高电压和强电磁辐射等显著特征。闪电不仅具有强烈的光和声效果,还会产生大量的热量和电能。当闪电击中地面或物体时,可能会引发火灾、损坏建筑物或电子设备,甚至对生命安全造成威胁。
进行闪电落区的研究具有重大意义。然而目前对闪电的研究主要依赖于闪电定位数据和探空数据的综合分析,通过分析雷达回波强度、回波顶高及垂直累积液态水含量的时空特征,探索雷暴云内的动力和微物理过程,研究闪电的形成机制;或者使用数值模拟的方法对闪电落区进行模拟分析,识别效果往往差强人意。
在目标检测领域,目前大部分的研究集中在对图像中有形的物体进行检测,然而在雷达图像中检测闪电落区的研究基本处于空白。近年来,深度学习的发展使计算机视觉领域取得了巨大成功,把闪电落区检测问题转化成目标检测问题,借助深度学习的方法使在雷达图上进行闪电落区检测已成为可能。
雷达是重要的气象探测数据,能够快速实时探测出强对流云团的发生发展过程,闪电作为强对流天气过程的伴随产物,其很多特性能够被雷达数据所捕捉,能够为闪电的预测预警提供重要支持,然而目前基于雷达数据进行闪电落区的识别检测研究目前还处于空白。
发明内容
发明目的:为填补目前基于雷达产品数据对于闪电落区检测的空白,本发明提出了一种基于雷达产品数据的闪电落区识别方法及系统,为气象雷击灾害的减灾防灾提供新的依据和方法支撑。
技术方案:一种基于雷达产品数据的闪电落区识别方法,包括以下步骤:
步骤1:获取发生闪电活动时的组合反射率数据、云顶高度数据和垂直积分液态水含量数据;
步骤2:基于组合反射率数据、云顶高度数据和垂直积分液态水含量数据,分别生成相应的灰度图像,将三种灰度图像作为三个波段进行融合,得到一多波段图像;
步骤3:将多波段图像输入至闪电落区识别模型中,得到闪电落区识别图,所述闪电落区识别图包括框出闪电落区的边界框;
其中,所述闪电落区识别模型按照以下步骤得到:
获取历史闪电定位数据,所述历史闪电定位数据包括历史闪电活动时,闪电落区的经纬度信息;
获取发生闪电活动时的历史组合反射率数据、历史云顶高度和历史垂直积分液态水含量数据;将历史组合反射率数据、历史云顶高度和历史垂直积分液态水含量数据分别生成相应的灰度图像,再将三种图像分别作为三个波段进行融合,融合得到多波段图像;
利用历史闪电定位数据,对多波段图像上的闪电落区进行标注,并划分成训练数据集和测试数据集,以此构建VOC-LTING数据集;
采用训练数据集对Faster R-CNN模型进行训练,得到训练好的Faster R-CNN模型;
采用测试数据集对训练好的Faster R-CNN模型进行精度评估,得到闪电落区识别模型。
进一步的,所述历史闪电定位数据按照以下步骤获取:
获取每一次历史闪电活动时闪电落区的经纬度信息,构成初始历史闪电定位数据;
将初始历史闪电定位数据转化成二元栅格数据;
从二元栅格数据中剔除干扰数据,得到历史闪电定位数据;
所述干扰数据包括:
对于任意一二元栅格数据,若其为孤立数据,则判定为干扰数据;所述孤立数据为对于任意一二元栅格数据,与其他二元栅格数据的距离均超过了设定距离的二元栅格数据;
对于任意一二元栅格数据,若所在位置雷达组合反射小于15,则判定为干扰数据。
进一步的,所述利用历史闪电定位数据,对多波段图像上的闪电落区进行标注,具体包括:
基于历史闪电定位数据,在多波段图像上确定初始闪电落区位置;
初始闪电落区位置周围各扩大设定范围,将其作为最终闪电落区位置;
设置先验框对最终闪电落区位置进行标注。
进一步的,所述Faster R-CNN模型为具备有特征金字塔结构的Faster R-CNN模型。
进一步的,所述采用测试数据集对训练好的Faster R-CNN模型进行精度评估,具体包括:
采用四个评价指标、/>、/>、/>对Faster R-CNN模型的识别精度进行评估,表示为:/>(1)
(2)
(3)
(4)
式中,表示被正确识别的正例,/>表示被正确识别的反例,/>表示被错误识别的正例,/>表示被错误识别的反例。
本发明公开了一种基于雷达产品数据的闪电落区识别系统,包括:
雷达产品数据融合模块,用于获取发生闪电活动时的组合反射率数据、云顶高度数据和垂直积分液态水含量数据;基于组合反射率数据、云顶高度数据和垂直积分液态水含量数据,分别生成相应的灰度图像,将三种灰度图像作为三个波段进行融合,得到一多波段图像;
闪电落区检测模块,用于将多波段图像输入至闪电落区识别模型中,得到闪电落区识别图,所述闪电落区识别图包括框出闪电落区的边界框;
其中,所述闪电落区识别模型按照以下步骤得到:
获取历史闪电定位数据,所述历史闪电定位数据包括历史闪电活动时,闪电落区的经纬度信息;
获取发生闪电活动时的历史组合反射率数据、历史云顶高度和历史垂直积分液态水含量数据;将历史组合反射率数据、历史云顶高度和历史垂直积分液态水含量数据分别生成相应的灰度图像,再将三种图像分别作为三个波段进行融合,融合得到多波段图像;
利用历史闪电定位数据,对多波段图像上的闪电落区进行标注,并划分成训练数据集和测试数据集,以此构建VOC-LTING数据集;
采用训练数据集对Faster R-CNN模型进行训练,得到训练好的Faster R-CNN模型;
采用测试数据集对训练好的Faster R-CNN模型进行精度评估,得到闪电落区识别模型。
进一步的,所述历史闪电定位数据按照以下步骤获取:
获取每一次历史闪电活动时闪电落区的经纬度信息,构成初始历史闪电定位数据;
将初始历史闪电定位数据转化成二元栅格数据;
从二元栅格数据中剔除干扰数据,得到历史闪电定位数据;
所述干扰数据包括:
对于任意一二元栅格数据,若其为孤立数据,则判定为干扰数据;所述孤立数据为对于任意一二元栅格数据,与其他二元栅格数据的距离均超过了设定距离的二元栅格数据;
对于任意一二元栅格数据,若所在位置雷达组合反射小于15,则判定为干扰数据。
进一步的,所述利用历史闪电定位数据,对多波段图像上的闪电落区进行标注,具体包括:
基于历史闪电定位数据,在多波段图像上确定初始闪电落区位置;
初始闪电落区位置周围各扩大设定范围,将其作为最终闪电落区位置;
设置先验框对最终闪电落区位置进行标注。
进一步的,所述Faster R-CNN模型为具备有特征金字塔结构的Faster R-CNN模型。
进一步的,所述采用测试数据集对训练好的Faster R-CNN模型进行精度评估,具体包括:
采用四个评价指标、/>、/>、/>对Faster R-CNN模型的识别精度进行评估,表示为:/>(1)
(2)
(3)
(4)
式中,表示被正确识别的正例,/>表示被正确识别的反例,/>表示被错误识别的正例,/>表示被错误识别的反例。
有益效果:本发明与现有技术相比,具有以下优点:
(1)本发明方法通过构建VOC-LTING数据集,并结合深度学习方法,能够自主学习数据中的空间规律,有助于进一步解决闪电落区问题;
(2)本发明方法能够快速且精细地为气象灾害的减灾和防灾提供有效的决策支持,产生良好的社会和经济效益;
(3)本发明方法为气象雷击灾害的减灾和防灾提供了新的依据和方法。
附图说明
图1为一种基于雷达产品数据的闪电落区识别方法流程图;
图2为闪电先验框示意图;
图3为干扰数据剔除前后对比图;图3中的(a)表示剔除干扰数据前的图,图3中的(b)表示剔除干扰数据后的图;
图4为融合得到多波段图像的示意图;
图5为Faster R-CNN模型的识别图,其中,图5中的点为真实闪电点,图5中的框表示闪电落区识别结果,图5中的(a)表示输入Faster R-CNN模型的多波段图像,图5中的(b)表示Faster R-CNN模型的输出的闪电落区识别图;
图6为采用Faster R-CNN模型、SSD模型和YOLOv4模型对同一多波段图像进行识别,得到的结果图;
图7为Faster R-CNN结构图;
图8为特征金字塔(Feature Pyramid Network,简称为FPN)结构图。
具体实施方式
现结合附图和实施例进一步阐述本发明的技术方案。
本实施例公开了一种基于雷达产品数据的闪电落区识别方法,闪电落区指被闪电击中的区域,本实施例的目的在于识别被闪电击中的区域,一般而言,闪电数量为多个。如图1所示,主要包括以下步骤:
步骤1:对历史闪电定位数据进行处理,得到处理后的闪电定位数据;本实施例采用的历史闪电定位数据是由ADTD闪电定位系统获取的,ADTD闪电定位系统是基于地面的先进到达时间和方向系统云对地闪电探测传感器,通过闪电回击辐射的声、光、电磁场特性来遥测闪电回击放电参数,监测闪电的发生。ADTD闪电定位系统每天产生一个文件,以文本文件的格式进行存储,该文本文件中详细记录了所观测到的每一次闪电活动,包含地闪回击过程的时间、位置(经纬度)、极性效应、峰值强度、陡度、地闪回过程等信息。本实施例中使用的历史闪电定位数据仅包括每一次闪电活动的经纬度信息。本实施例对历史闪电定位数据的处理主要包括:首先,将闪电定位数据进行空间化处理,依据每一次闪电活动的经纬度信息,将闪电定位数据转化成空间分辨率为1km×1km的二元栅格数据。而后,剔除两种干扰数据:周围20km没有闪电的孤立的闪电定位数据和所在位置雷达组合反射小于15的闪电定位数据,效果可参见图3。本步骤的目的为:对历史闪电定位数据的数据质量进行控制,突出数据特征,优化整体的训练效果;
步骤2:雷达产品数据的融合;具体操作包括:根据雷达组合反射率(CR)数据、云顶高度(ET)数据和垂直积分液态水含量(VIL)数据,生成相应的灰度图像,将这三类灰度图像作为三个波段进行融合,融合得到一多波段图像,可参见图4。基于融合得到多波段图像,建立图像文件。
步骤3:构建VOC-LTING数据集;具体操作包括:
S3_1:基于处理后的闪电定位数据中的闪电活动的经纬度信息,在多波段图像上确定初始闪电落区位置,由于闪电的发生会对周围几公里范围产生影响,因此对初始闪电落区位置周围各扩大4km范围作为最终闪电落区位置,可参见图2。设置9×9的先验框对最终闪电落区位置进行标注,建立对应的标签文件。
S3_2:将步骤2建立的图像文件的图像名称按照6:2:2划分成训练数据集、测试数据集以及验证数据集并建立对应的文件
S3_3:由S3_1建立的标签文件、S3_2建立的文件以及多波段图像构建得到VOC-LTING数据集。
步骤4:根据构建的VOC-LTING数据集,基于Faster R-CNN模型进行闪电落区识别;具体操作包括:本实施例采用的Faster R-CNN模型中添加了特征金字塔(Feature PyramidNetwork,简称为FPN)结构,同时采用非极大抑制机制(NMS)。
本实施例的Faster R-CNN的结构可大致分为四个部分(图7):卷积层(ConvLayers)、区域建议生成网络(Region proposal Network,简称为RPN)、感兴趣区域池化(Region of Interest Pooling,简称为ROI Pooling)、分类和回归。
卷积层(Conv Layers)包括ResNet骨干网络和特征金字塔(Feature PyramidNetwork,简称为FPN)结构。ResNet骨干网络有很多残差块,这些残差块中包含了卷积(Conv)、池化(Pooling)、批归一化和激活函数等操作,用于逐步提取图像的特征。由于闪电落区目标非常小,利用普通的Faster R-CNN结构难以准确检测到准确的位置,因此引入特征金字塔(Feature Pyramid Network,简称为FPN)结构,如图8所示,特征金字塔(FeaturePyramid Network,简称为FPN)是一种在计算机视觉领域广泛应用的概念,旨在解决多尺度物体检测和特征表示的问题。它能够融合所提取到闪电的浅层语义信息和深层语义信息,更准确的提取闪电信息。特征金字塔(Feature Pyramid Network,简称为FPN)结构接受ResNet骨干网络的输出特征图,以及其他参数,最终特征金字塔(Feature PyramidNetwork,简称为FPN)结构返回多个特征图(feature maps),该特征图(feature maps)被共享,用于后续特征金字塔(Feature Pyramid Network,简称为FPN)网络和全连接层。
区域建议生成网络(Region proposal Network,简称为RPN)用于生成候选区域(region proposals)。其输入是第一步生成的特征图,输出则包括多个候选区域。具体而言,区域建议生成网络(Region proposal Network,简称为RPN)将输入样本映射成一个概率值和四个坐标值。其中,概率值反映了锚框(anchors)中有物体的概率,即该层通过Softmax运算来判断锚框是否属于前景(即是否有物体),这是一个二分类问题。而四个坐标值用于回归定义物体的位置。最后,通过将二分类和坐标回归的损失函数整合在一起,进行区域建议生成网络(Region proposal Network,简称为RPN)的训练,以获取准确的候选区域提案(proposals)。
感兴趣区域池化(Region of Interest Pooling,简称为ROI Pooling),该层收集输入的特征图(feature maps)和候选区域提案(proposals),综合这些信息后,提取proposal feature maps,得到固定尺寸的特征图(feature map),然后送入后续全连接层判定目标类别。
分类和回归(Classification and regression)是目标检测任务中的两个核心方面,这一步确定了最终检测结果,包括每个候选区域的类别标签以及它们在图像中的精确位置。利Softmax Loss函数处理分类概率,以及Smooth L1 Loss进行边界框回归(BoundingBox Regression)。这两个损失函数在联合训练过程中共同优化,从而确保了最终生成的检测框具有准确的位置和类别信息。目标检测模型通常会在同一个物体周围产生多个边界框,非极大抑制机制(NMS)的目的是通过保留最佳边界框并消除其他冗余边界框来减少这种重叠。这样可以提高目标检测的准确性,同时减少误报。具体操作过程包括:
S4_1:依据是每个边界框的置信度得分(即物体存在的概率),对所有检测到的边界框进行排序,按序放入候选边界框列表。
S4_2:从候选边界框列表中选择置信度得分最高的边界框,并将其从候选边界框列表中移除。
S4_3:计算当前选中的边界框与其余边界框的交并比(Intersection overUnion,IoU)。交并比(Intersection over Union,IoU)是一个衡量两个边界框重叠程度的指标,范围在0到1之间。交并比(Intersection over Union,IoU)越高,重叠程度越大。
S4_4:根据预先设定的IOU-NMS阈值(例如0.3或0.5),删除高于IOU-NMS阈值的交并比所对应的其他边界框,因为这些边界框可能是对同一个物体的多次检测。
S4_5:重复步骤S4_2~ S4_4,直到候选边界框列表为空。
通过上述这个过程,非极大抑制机制(NMS)可以有效地消除重叠边界框,留下较高置信度的非重叠边界框来表示检测到的物体。这对于目标检测和跟踪任务非常重要,因为它可以减少误报和重复计数,提高整体性能。
经过非极大抑制机制(NMS)处理之后,可以再通过置信度(Conficence)阈值进行筛选,删除小于置信度(Conficence)阈值的边界框,减小误报。
采用VOC-LTING数据集中的训练数据集对Faster R-CNN模型进行训练,使用验证数据集对Faster R-CNN模型进行验证,使用测试集对模型进行测试。
在训练过程中,不断的对模型参数进行优化调整(学习率、数据批处理规模、损失函数等)以及训练和验证,在模型训练阶段,训练和验证是一起进行的,比如训练模型20轮,每一轮都是先训练再验证,如此循环直到结束,直到构建出精度较高的基于雷达产品数据的闪电落区检测模型,最后保存训练好的最优模型权重。
之后则进行模型的测试,该过程要对IOU-NMS阈值、置信度(Conficence)阈值两个参数进行不断的调试修改,直到输出较为满意的识别图。保存合适的IOU-NMS阈值和置信度(Conficence)阈值,最后用于模型的评估。
传统的目标检测算法常用的评价指标Map受面积影响较大,而闪电落区在整个图像只占9×9的大小,因此Map指标无法正确评价模型的检测精度。本发明构建了适合VOC-LTING数据集的评价指标体系,设置了、/>、/>、/>四个评价指标,表示为:
(1)
(2)
(3)
(4)
式中,(True Positive)表示被正确识别的正例,即该数据的真实值为正例,识别值也为正例的情况;/>(True Negative):被正确识别的反例,即该数据的真实值为反例,识别值也为反例的情况;/>(False Positive):被错误识别的正例,即该数据的真实值为反例,但被错误识别成了正例的情况;/>(False Negative):被错误识别的反例,即该数据的真实值为正例,但被错误识别成了反例的情况。
该评价体系能综合的评价模型的精度进而对模型进行调整,即若结果不太理想需要继续调整IOU-NMS阈值、置信度(Conficence)阈值,直到输出的识别图和评价指标结果满意为止,也就是可视化效果和指标都满意为止。
参见图6,本发明选取了a、b、c、d四个案例进行对比分析。从左到右依次为采用本实施例提出的Faster R-CNN模型、SSD模型和YOLOv4模型对同一多波段图像进行识别,得到的结果图。案例a中,三个模型均能识别出闪电落区的大致位置,但是SSD模型出现大量的漏报现象,YOLOv4误报现象较为严重;案例b中,Faster R-CNN模型表现较好,SSD模型和YOLOv4模型漏报现象较为严重;案例c中,Faster-RCNN模型不仅能识别出聚集的闪电落区,也能识别到离散的闪电落区。案例d中,由于该地区闪电落区较少,闪电发生时的特征不明显,SSD模型和YOLOv4模型未能识别出闪电落区,而Faster R-CNN模型能较好的识别出闪电落区。
Claims (6)
1.一种基于雷达产品数据的闪电落区识别方法,其特征在于:包括以下步骤:
步骤1:获取发生闪电活动时的组合反射率数据、云顶高度数据和垂直积分液态水含量数据;
步骤2:基于组合反射率数据、云顶高度数据和垂直积分液态水含量数据,分别生成相应的灰度图像,将三种灰度图像作为三个波段进行融合,得到一多波段图像;
步骤3:将多波段图像输入至闪电落区识别模型中,得到闪电落区识别图,所述闪电落区识别图包括框出闪电落区的边界框;
其中,所述闪电落区识别模型按照以下步骤得到:
获取历史闪电定位数据,所述历史闪电定位数据包括历史闪电活动时,闪电落区的经纬度信息;
获取发生闪电活动时的历史组合反射率数据、历史云顶高度和历史垂直积分液态水含量数据;将历史组合反射率数据、历史云顶高度和历史垂直积分液态水含量数据分别生成相应的灰度图像,再将三种图像分别作为三个波段进行融合,融合得到多波段图像;
利用历史闪电定位数据,对多波段图像上的闪电落区进行标注,并划分成训练数据集和测试数据集,以此构建VOC-LTING数据集;
采用训练数据集对Faster R-CNN模型进行训练,得到训练好的Faster R-CNN模型;
采用测试数据集对训练好的Faster R-CNN模型进行精度评估,得到闪电落区识别模型;
所述利用历史闪电定位数据,对多波段图像上的闪电落区进行标注,具体包括:
基于历史闪电定位数据,在多波段图像上确定初始闪电落区位置;
初始闪电落区位置周围各扩大设定范围,将其作为最终闪电落区位置;
设置先验框对最终闪电落区位置进行标注;
所述Faster R-CNN模型为具备有特征金字塔结构的Faster R-CNN模型。
2.根据权利要求1所述的一种基于雷达产品数据的闪电落区识别方法,其特征在于:所述历史闪电定位数据按照以下步骤获取:
获取每一次历史闪电活动时闪电落区的经纬度信息,构成初始历史闪电定位数据;
将初始历史闪电定位数据转化成二元栅格数据;
从二元栅格数据中剔除干扰数据,得到历史闪电定位数据;
所述干扰数据包括:
对于任意一二元栅格数据,若其为孤立数据,则判定为干扰数据;所述孤立数据为对于任意一二元栅格数据,与其他二元栅格数据的距离均超过了设定距离的二元栅格数据;
对于任意一二元栅格数据,若所在位置雷达组合反射小于15,则判定为干扰数据。
3.根据权利要求1所述的一种基于雷达产品数据的闪电落区识别方法,其特征在于:所述采用测试数据集对训练好的Faster R-CNN模型进行精度评估,具体包括:
采用四个评价指标Precision、Recall、F1、falsealarm对Faster R-CNN模型的识别精度进行评估,表示为:
式中,TP表示被正确识别的正例,TN表示被正确识别的反例,FP表示被错误识别的正例,FN表示被错误识别的反例。
4.一种基于雷达产品数据的闪电落区识别系统,其特征在于:包括:
雷达产品数据融合模块,用于获取发生闪电活动时的组合反射率数据、云顶高度数据和垂直积分液态水含量数据;基于组合反射率数据、云顶高度数据和垂直积分液态水含量数据,分别生成相应的灰度图像,将三种灰度图像作为三个波段进行融合,得到一多波段图像;
闪电落区检测模块,用于将多波段图像输入至闪电落区识别模型中,得到闪电落区识别图,所述闪电落区识别图包括框出闪电落区的边界框;
其中,所述闪电落区识别模型按照以下步骤得到:
获取历史闪电定位数据,所述历史闪电定位数据包括历史闪电活动时,闪电落区的经纬度信息;
获取发生闪电活动时的历史组合反射率数据、历史云顶高度和历史垂直积分液态水含量数据;将历史组合反射率数据、历史云顶高度和历史垂直积分液态水含量数据分别生成相应的灰度图像,再将三种图像分别作为三个波段进行融合,融合得到多波段图像;
利用历史闪电定位数据,对多波段图像上的闪电落区进行标注,并划分成训练数据集和测试数据集,以此构建VOC-LTING数据集;
采用训练数据集对Faster R-CNN模型进行训练,得到训练好的Faster R-CNN模型;
采用测试数据集对训练好的Faster R-CNN模型进行精度评估,得到闪电落区识别模型;
所述利用历史闪电定位数据,对多波段图像上的闪电落区进行标注,具体包括:
基于历史闪电定位数据,在多波段图像上确定初始闪电落区位置;
初始闪电落区位置周围各扩大设定范围,将其作为最终闪电落区位置;
设置先验框对最终闪电落区位置进行标注;
所述Faster R-CNN模型为具备有特征金字塔结构的Faster R-CNN模型。
5.根据权利要求4所述的一种基于雷达产品数据的闪电落区识别系统,其特征在于:所述历史闪电定位数据按照以下步骤获取:
获取每一次历史闪电活动时闪电落区的经纬度信息,构成初始历史闪电定位数据;
将初始历史闪电定位数据转化成二元栅格数据;
从二元栅格数据中剔除干扰数据,得到历史闪电定位数据;
所述干扰数据包括:
对于任意一二元栅格数据,若其为孤立数据,则判定为干扰数据;所述孤立数据为对于任意一二元栅格数据,与其他二元栅格数据的距离均超过了设定距离的二元栅格数据;
对于任意一二元栅格数据,若所在位置雷达组合反射小于15,则判定为干扰数据。
6.根据权利要求4所述的一种基于雷达产品数据的闪电落区识别系统,其特征在于:所述采用测试数据集对训练好的Faster R-CNN模型进行精度评估,具体包括:
采用四个评价指标Precision、Recall、F1、falsealarm对Faster R-CNN模型的识别精度进行评估,表示为:
式中,TP表示被正确识别的正例,TN表示被正确识别的反例,FP表示被错误识别的正例,FN表示被错误识别的反例。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410021900.8A CN117523420B (zh) | 2024-01-08 | 2024-01-08 | 一种基于雷达产品数据的闪电落区识别方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410021900.8A CN117523420B (zh) | 2024-01-08 | 2024-01-08 | 一种基于雷达产品数据的闪电落区识别方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117523420A CN117523420A (zh) | 2024-02-06 |
CN117523420B true CN117523420B (zh) | 2024-04-19 |
Family
ID=89763051
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410021900.8A Active CN117523420B (zh) | 2024-01-08 | 2024-01-08 | 一种基于雷达产品数据的闪电落区识别方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117523420B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117929861B (zh) * | 2024-03-21 | 2024-07-05 | 云南能源投资股份有限公司 | 一种风电场的雷电检测方法、装置、设备及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110954793A (zh) * | 2019-12-10 | 2020-04-03 | 西安交通大学 | 基于光谱成像的复合绝缘子伞裙老化检测方法及检测装置 |
CN111157919A (zh) * | 2020-03-19 | 2020-05-15 | 江西省科学院能源研究所 | 一种基于云雾协同的避雷器在线监测系统 |
CN112596058A (zh) * | 2021-03-03 | 2021-04-02 | 南京信息工程大学 | 一种基于三维雷达探测数据的闪电落区识别方法 |
CN114705922A (zh) * | 2022-03-28 | 2022-07-05 | 丁旻 | 多参数、多算法集成的雷电精细化监测预警算法 |
CN115146547A (zh) * | 2022-09-01 | 2022-10-04 | 南京信息工程大学 | 一种基于栅格的闪电落区预测方法 |
CN115980755A (zh) * | 2022-12-21 | 2023-04-18 | 航天宏图信息技术股份有限公司 | 一种基于ConvLSTM的风暴临近外推方法和装置 |
CN116778354A (zh) * | 2023-08-08 | 2023-09-19 | 南京信息工程大学 | 基于深度学习的可见光合成云图海上强对流云团识别方法 |
CN117148360A (zh) * | 2023-10-31 | 2023-12-01 | 中国气象局公共气象服务中心(国家预警信息发布中心) | 雷电临近预报方法、装置、电子设备及计算机存储介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8705040B2 (en) * | 2004-03-06 | 2014-04-22 | Michael Trainer | Methods and apparatus for determining particle characteristics by measuring scattered light |
US10242577B2 (en) * | 2016-12-01 | 2019-03-26 | Honeywell International Inc. | Data communication between airport surveillance radar and onboard airborne weather radar |
-
2024
- 2024-01-08 CN CN202410021900.8A patent/CN117523420B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110954793A (zh) * | 2019-12-10 | 2020-04-03 | 西安交通大学 | 基于光谱成像的复合绝缘子伞裙老化检测方法及检测装置 |
CN111157919A (zh) * | 2020-03-19 | 2020-05-15 | 江西省科学院能源研究所 | 一种基于云雾协同的避雷器在线监测系统 |
CN112596058A (zh) * | 2021-03-03 | 2021-04-02 | 南京信息工程大学 | 一种基于三维雷达探测数据的闪电落区识别方法 |
CN114705922A (zh) * | 2022-03-28 | 2022-07-05 | 丁旻 | 多参数、多算法集成的雷电精细化监测预警算法 |
CN115146547A (zh) * | 2022-09-01 | 2022-10-04 | 南京信息工程大学 | 一种基于栅格的闪电落区预测方法 |
CN115980755A (zh) * | 2022-12-21 | 2023-04-18 | 航天宏图信息技术股份有限公司 | 一种基于ConvLSTM的风暴临近外推方法和装置 |
CN116778354A (zh) * | 2023-08-08 | 2023-09-19 | 南京信息工程大学 | 基于深度学习的可见光合成云图海上强对流云团识别方法 |
CN117148360A (zh) * | 2023-10-31 | 2023-12-01 | 中国气象局公共气象服务中心(国家预警信息发布中心) | 雷电临近预报方法、装置、电子设备及计算机存储介质 |
Non-Patent Citations (1)
Title |
---|
Monitoring Lightning Location Based on Deep Learning Combined with Multisource Spatial Data;mingyue lu等;remote sensing;20220504;1-18 * |
Also Published As
Publication number | Publication date |
---|---|
CN117523420A (zh) | 2024-02-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109738970B (zh) | 基于雷电数据挖掘实现雷电预警的方法、装置和存储介质 | |
CN117523420B (zh) | 一种基于雷达产品数据的闪电落区识别方法及系统 | |
CN114333424B (zh) | 一种桥梁防船撞监测预警系统 | |
CN110161506B (zh) | 一种基于多源气象观测资料的分类型冰雹落区识别方法 | |
CN113469278B (zh) | 一种基于深度卷积神经网络的强天气目标识别方法 | |
CN113204903B (zh) | 一种预测雷电的方法 | |
CN114782897A (zh) | 基于机器视觉及深度学习的危险行为检测方法及系统 | |
CN112215188B (zh) | 交警姿态识别方法、装置、设备及存储介质 | |
CN114019503A (zh) | 基于fod检测系统的机场跑道异物检测方法、设备、存储介质 | |
CN112613504A (zh) | 一种声呐水下目标检测方法 | |
Song et al. | Deformable YOLOX: Detection and rust warning method of transmission line connection fittings based on image processing technology | |
CN115937659A (zh) | 基于Mask-RCNN的室内复杂环境下多目标检测方法 | |
CN113947552A (zh) | 一种融合强度与时空几何特征的激光雷达去雪方法和系统 | |
CN115439741A (zh) | 基于人工智能与单目视觉的电力设备检测、测距及预警方法 | |
KR101221793B1 (ko) | 위험기상과 관련된 반사도 셀의 추적 방법 | |
CN115410102A (zh) | 基于联合注意力机制的sar图像飞机目标检测方法 | |
Katrojwar et al. | Design of Image based Analysis and Classification using Unmanned Aerial Vehicle | |
CN116975656B (zh) | 基于声发射信号的智能损伤检测识别方法及系统 | |
CN114218999A (zh) | 一种基于融合图像特征的毫米波雷达目标检测方法及系统 | |
CN112396031B (zh) | 基于异构运算平台的目标检测方法及系统 | |
CN112989997A (zh) | 一种基于多信息融合的3d目标检测方法及系统 | |
JP4723771B2 (ja) | 発雷判定システム及び発雷判定方法 | |
CN113971755B (zh) | 基于改进yolov3模型的全天候海面目标检测方法 | |
CN114545098B (zh) | 一种雷暴预报方法和闪电定位方法 | |
CN118050729B (zh) | 一种基于改进U-Net的雷达回波时间降尺度订正方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |