CN116610959B - 基于unet-gru深度学习检验播云作业效果的方法和装置 - Google Patents
基于unet-gru深度学习检验播云作业效果的方法和装置 Download PDFInfo
- Publication number
- CN116610959B CN116610959B CN202310888031.4A CN202310888031A CN116610959B CN 116610959 B CN116610959 B CN 116610959B CN 202310888031 A CN202310888031 A CN 202310888031A CN 116610959 B CN116610959 B CN 116610959B
- Authority
- CN
- China
- Prior art keywords
- rainfall
- data
- precipitation
- unet
- gru
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000000694 effects Effects 0.000 title claims abstract description 106
- 238000000034 method Methods 0.000 title claims abstract description 90
- 238000013135 deep learning Methods 0.000 title claims abstract description 41
- 238000001556 precipitation Methods 0.000 claims abstract description 119
- 238000012549 training Methods 0.000 claims abstract description 61
- 238000003908 quality control method Methods 0.000 claims abstract description 26
- 238000007781 pre-processing Methods 0.000 claims abstract description 13
- 230000008569 process Effects 0.000 claims description 24
- 238000012360 testing method Methods 0.000 claims description 19
- 238000001514 detection method Methods 0.000 claims description 14
- 238000002310 reflectometry Methods 0.000 claims description 12
- 238000005259 measurement Methods 0.000 claims description 10
- 238000012545 processing Methods 0.000 claims description 10
- 238000005457 optimization Methods 0.000 claims description 9
- 230000006870 function Effects 0.000 claims description 8
- 230000009467 reduction Effects 0.000 claims description 8
- 238000012795 verification Methods 0.000 claims description 8
- 238000013136 deep learning model Methods 0.000 claims description 7
- 239000007788 liquid Substances 0.000 claims description 7
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 7
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 4
- 238000012544 monitoring process Methods 0.000 claims description 4
- 238000002360 preparation method Methods 0.000 claims description 4
- 230000003416 augmentation Effects 0.000 claims description 3
- 230000004907 flux Effects 0.000 claims description 3
- 238000010200 validation analysis Methods 0.000 claims description 3
- 230000003313 weakening effect Effects 0.000 claims description 3
- 238000007689 inspection Methods 0.000 abstract description 9
- 230000003197 catalytic effect Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 238000011156 evaluation Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 230000007423 decrease Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002688 persistence Effects 0.000 description 2
- 238000011158 quantitative evaluation Methods 0.000 description 2
- 238000000528 statistical test Methods 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- DRBJAKLMKNARRC-UHFFFAOYSA-N 5-(5-methylthiophen-3-yl)oxy-1h-pyrimidin-2-one Chemical compound S1C(C)=CC(OC2=CNC(=O)N=C2)=C1 DRBJAKLMKNARRC-UHFFFAOYSA-N 0.000 description 1
- 241000288105 Grus Species 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000006555 catalytic reaction Methods 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000011067 equilibration Methods 0.000 description 1
- 238000012854 evaluation process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 206010027175 memory impairment Diseases 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/10—Pre-processing; Data cleansing
- G06F18/15—Statistical pre-processing, e.g. techniques for normalisation or restoring missing data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/72—Data preparation, e.g. statistical preprocessing of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Probability & Statistics with Applications (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
一种基于UNET‑GRU深度学习检验播云作业效果的方法和装置,所述方法包括:获取样本雨量和多普勒天气雷达数据,并对数据进行质控和预处理;将输入因子输入网络进行训练,建立UNET‑GRU深度学习雨量预测模型,预测自然状态下雨量,建立自然降水条件下基于UNET‑GRU模型深度学习多普勒天气雷达回波预测模型,分析播云作业物理解释;对有明确物理解释的,将雨量预测数据与同时期实测雨量数据进行对比,所得到的残差值定量评估人工增雨的效果。本发明解决了人工增雨的影响区域和对比区域不固定所带来的人工增雨效果难以定量评估的问题,通过深度学习方法提高了作业影响区雨量和雷达回波预测的准确性,提高了播云作业效果检验的准确性。
Description
技术领域
本发明涉及一种人工影响天气作业效果检验的方法,具体是一种基于UNET-GRU深度学习检验播云作业效果的方法,本发明还涉及一种实施检验播云作业效果的方法所用的装置,属于大气科学和深度学习交叉学科技术领域。
背景技术
人工影响天气作业效果检验作为人工影响天气事业持续健康发展过程中不可缺少的环节,对衡量人影作业的社会经济效益、提高人影科技水平、完善云和降水学科的理论和方法具有重要意义。但人工增雨效果的评估仍然是一个最重要和最困难的问题之一。当前的一系列效果检验方法必须首先选定一个对比区域来进行效果对比,并对实际云降水过程进行了一定的理想化假设和简化,这涉及确定操作的影响区域和对比区域,并根据这两个区域估计自然降水和测量降水之间的差异以确定操作的效果。然而,在许多情况下,人工增雨的影响区域和对比区域并不固定。在这种情况下,通常采用浮动对比区域方法来评估效果,这涉及类似的天气系统、类似的地形和良好的降水相关性等原则来划分对比区域。因此,导致人工增雨效果的定量评估尚未达可信服的结果。
相关专利文献:CN111626595A公开了一种人工影响天气作业效果评估方法,所述方法,包括如下步骤,划分人工作业影响区;确定对比区;进行人工作业;设定人工作业影响区平均降水量各个对比区平均降水量将各个对比区平均降雨量分别与人工作业影响区平均降雨量进行对比分别获得人工作业影响区对应各个对比区的平均降雨量的增量;对平均降雨量的增量进行判读,判定人工作业影响区的人工影响效果。该技术方案虽然能做定量评估,但是建立在选择影响区域和对比区域进行检验的基础上的,后两个方法借鉴选择影响区域和对比区域方法,选择对比云进行对比,而且只能进行物理检验,而不能定量评估播云效果。CN115327671A公开了一种人工影响天气作业效果检验系统,包括:统计检验子系统,用于对未进行作业的自然降水量和作业后的降水量的差值进行计算,并对差值进行显著性检验;物理检验子系统,用于根据云和降水形成原理和人工影响的机制,测量催化导致的宏观动力效应和微观物理效应播云的直接效果,并选取相应的指标,检验人工影响是否显著地改变上述指标;可视化子系统,用于用户将统计检验及物理检验子系统的结果在界面中进行查看,并根据需要在界面窗口叠加地理信息、行政区划、观测站位置信息。该技术方案描述的方法主要采用影响区域和对比区域的历史雨量数据进行统计检验。CN114661700A公开了一种基于AI的人工影响天气作业效果检验方法,通过基于双偏振雷达数据,对具有由对流云产生的天气过程进行选取,得到天气相关数据后再进行数据清洗,使用对流云过程的雷达数据进行AI模型训练,通过选取人工影响天气的过程案例,截取影响前的历史数据,使用AI模型进行预测,并与实际发生的天气过程进行比较,选取典型案例进行效果检验,得出报告。该技术方案描述的方法只是针对某个对流云播云前后进行AI深度学习的物理检验。CN105353378A公开了一种播云作业效果雷达探测时间序列对比分析方法和装置。所述方法包括:选取与播云作业单元最相似的自然云单元作为播云作业单元的对比单元;提取作业时刻后的播云作业单元的第三雷达探测时间子序列,与对比单元的第四雷达探测时间子序列,进行对比分析,去除播云作业单元和对比单元在作业时刻前的第一雷达探测时间子序列和第二雷达探测时间子序列已经存在的差异,进而确定播云作业的效果。该技术方案通过雷达探测时间序列找对比云来明确播云作用的物理解释,进行物理检验。
以上技术方案并未较好地解决人工增雨的影响区域和对比区域不固定所带来的人工增雨效果难以定量评估的问题,也未较好地解决有无明确物理解释的播云过程下深度学习检验播云效果,以及也未解决深度学习效果检验的泛化能力。
发明内容
本发明的目的在于提供一种基于UNET-GRU深度学习检验播云作业效果的方法,通过深度学习方法以提高作业影响区雨量和雷达回波预测的准确性,从而提高播云作业效果的准确性,并增强检验方法的泛化能力,解决人工增雨的影响区域和对比区域不固定所带来的人工增雨效果难以定量评估的问题。
为解决上述技术问题,本发明采用的技术方案如下:
一种基于UNET-GRU深度学习检验播云作业效果的方法,其技术方案在于它包括如下步骤:
S1:获取第一时间段和第二时间段的样本雨量和多普勒天气雷达数据,并对数据进行质控和预处理;
S2:建立UNET-GRU模型网络,将所述第一时间段的质控和预处理之后的样本雨量和多普勒天气雷达数据作为输入因子输入网络进行训练,建立自然降水条件下基于UNET-GRU深度学习雨量预测模型,根据所述自然降水条件下网格雨量预测模型,预测自然降水条件下第二时间段的预测数据;
S3:将所述第一时间段的样本多普勒天气雷达数据作为输入因子输入网络进行训练,建立自然降水条件下基于UNET-GRU深度学习的多普勒天气雷达回波预测模型,生成自然降水条件下第二时间段的多普勒天气雷达回波预测数据,对比所述第二时间段(同时段)质控和预处理之后实测样本数据,分析播云作业效果的物理解释,其中物理解释包括作业后第二时间段出现的播云回波增强或减弱、回波体积增加或减少、回波顶高抬升或下降、垂直累积液态水含量增加或减少和降水通量增加或减少的物理现象;
S4:使用播云作业效果检验装置,对具有明确物理解释的播云作业过程,将第二时间段雨量预测数据与第二时间段(同时段)的质控和预处理之后的样本雨量进行对比,所得到的残差值定量评估人工增雨的效果。
上述技术方案中,优选的技术方案可以是,步骤S1包括:
S1.1:根据所述第一时间段的样本分钟雨量数据,对获取的数据进行质控,剔除不合理的数据;
S1.2:根据所述第一时间段的样本6分钟分辨率多普勒天气雷达数据,对获取的数据进行质控;
S1.3:多普勒天气雷达每个原始图像的尺寸为1200×800,在数据集的准备阶段,将训练集和测试集中的数值进行归一化处理,也就是将它们除以训练集中出现的最大值;此外,还对降水图进行裁剪,只使用原始图像的子集,为了方便神经网络训练,还进行了中心裁剪,大小为288像素×288像素,该裁剪大小是基于云的移动速度确定的。
S1.4:根据步骤S1.1和步骤S1.2处理后得到雨量和多普勒天气雷达数据。
上述技术方案中,优选的技术方案还可以是,步骤S2包括:
S2.1:提出一种支持小数据集训练的短期雨量和多普勒天气雷达回波预测算法,UNET-GRU算法模型,UNET-GRU算法模型是一种卷积GRU算法,将UNET集成到其中;
S2.2:训练UNET和CoGRU两种架构,CoGRU为支持卷积运算的GRU算法;共比较三种模型,分别是UNET、CoGRU和UNET-GRU;
S2.3:所有上述三个模型的训练最多进行200个周期,且使用一个提前停止准则,当验证损失在最后15个周期内没有改善时,会停止训练过程;这个准则在所有训练迭代中都得到满足,因为最大的200个周期从未到达过。
S2.4: 采用一个学习率自适应调整程序,当验证损失连续4个周期没有改善时,将学习率降低到前一个学习率的十分之一,初始学习率设置为0.001,使用默认值的Adam优化器;
S2.5: 训练的输出是每个区域每个格点的降雨量, 实际的格点降雨数据难以获取,基于Z-I关系,即,其中Z为雷达反射因子,I为降雨强度,A和b为系数,通过雷达反演的定量降水估计(QPE)和每个区域的离散监测站点的降雨数据获取每小时分辨率的降雨数据;
S2.6:根据步骤S2.1和步骤S2.5处理后,建立基于UNET-GRU深度学习模型,预测自然降水条件下第二时间段的预测数据。
上述技术方案中,优选的技术方案还可以是,步骤S2还包括降水Z-I关系优化算法,降水Z-I关系优化算法分为以下四个步骤:
S2.7:基于降水Z-I关系,将过去一小时内的6分钟雷达实际反射率因子Z转换为雷达估算的降雨强度I,然后累积6分钟雷达估算的降雨强度I,得到每小时的雷达估算降雨强度,与地面自动站观测到的降水量进行比较;
S2.8:获得雷达估算降水的优选(最优)参数,即获得系数A和b,得到每小时雷达估算的降水量R、地面自动站观测到的降水量G,选取误差目标判别函数CTF:
;
在上面的公式中, n是参与降水Z-I关系拟合的雷达自动站数据的总对数,系数A的调整范围限制在(150.00-400.00)之间,系数b的调整范围限制在(0.80-2.40)之间;
S2.9:将步骤S2.8中在当前获得的6分钟雷达反射率预测场的降水Z-I关系转换为降水量,满足降水检测的需求;此外,为了定量分析动态Z-I关系方法的降水反演误差,计算平均误差(EME)、平均相对误差(EMRE)等测试参数;
S2.10:整合日常业务应用的雷达网络拼图数据和地面加密自动气象站的降水观测数据,基于优化方法建立本地动态Z-I关系,实时获取具有6分钟分辨率的定量降水反演数据。
上述技术方案中,优选的技术方案还可以是,步骤S3包括:
S3.1: 该算法利用6分钟分辨率的天气雷达数据生成图像,然后通过UNET网络处理提取模态特征;
S3.2:根据人工增雨作业后的第二时间段的质控和预处理之后的多普勒天气雷达实测数据,对比所述自然降水条件下第二时间段(同时段)的预测数据,分析播云作业效果的物理解释,其中物理解释包括作业后第二时间段出现的播云回波增强、回波顶高抬升等现象。
上述技术方案中,优选的技术方案还可以是,步骤S4包括:
S4.1:根据上述方法和步骤,研发出播云作业效果检验装置,使用播云作业效果检验装置,该装置包含数据预处理模块、模型训练模块、模型建立模块、效果检验模块;
S4.2: 对具有明确物理解释的播云作业过程,将雨量预测数据与实际人工增雨作业后的降雨量进行对比,用所得到的残差值定量评估人工增雨的效果。
上述技术方案中,优选的技术方案还可以是,步骤S4还包括:
S4.3:根据人工增雨作业后的降雨情况获取有效实际降雨和多普勒天气雷达数据;
S4.4:删除所述降雨数据中的无效数据样本,形成人工增雨作业后的雨量和多普勒天气雷达实测数据;
S4.5:对具有明确物理解释的播云作业过程,计算所述自然降水条件下雨量的预测数据和人工增雨作业后的实测数据之间的差值;
S4.6:根据步骤S4.5中所述差值,进行模型效果检验。
上述技术方案中,优选的技术方案还可以是,步骤S4.5中计算预测数据和实测数据之间的差值包括:计算均方根误差、平均绝对误差和平均相对误差。
上述技术方案中,优选的技术方案还可以是,所述的输入因子包括雨量和多普勒天气雷达四个参量,多普勒天气雷达四个参量为回波顶高、组合反射率、垂直积分液态水含量和分层平显。上述的第一时间段为人工增雨作业前30-120分钟;所述第二时间段为人工增雨作业后30-420分钟。
一种实施所述的基于UNET-GRU深度学习检验播云作业效果的方法用的装置,即播云作业效果检验装置,其技术方案在于所述的装置包括:
数据预处理模块,将获取探测目标区实测数据进行预处理,考虑云团移向移速,每张底图的尺寸需满足第一段时间和第二段时间内云团最大移动距离;
模型训练模块,利用实测数据,进行深度学习模型训练,得到6分钟分辨率雨量预测算法框架;
模型建立模块,建立自然条件下和催化条件下雨量和雷达回波预测模型,用于分别预测自然和催化条件下雨量,明确播云作业过程的物理解释;
效果检验模块,用于效果检验和结果输出。
上述的模型建立模块包括:第一模型单元,用于实测数据,建立自然条件下和催化条件下雨量预测模型;第二模型单元,用于实测数据,建立自然条件下和催化条件下雷达回波预测模型。
本发明提供了一种基于UNET-GRU深度学习检验播云作业效果的方法和装置,与现有传统播云作业效果检验方法相比,本发明将大量自然条件下的降水过程的雨量和多普勒天气雷达数据用于训练,对某一时间段内的人工增雨作业效果做评估。将自然降水条件下的预测数据与人工增雨作业后的实测数据作对比,从而客观、科学、公正地评估人工增雨效果。本发明建立基于UNET-GRU深度学习方法,选取的输入因子是雨量、多普勒天气雷达四个参量(回波顶高、组合反射率、垂直积分液态水含量和分层平显),共五个因子。所选取样本数据的输入因子均与本发明人工增雨的效果有关。上述五个输入因子是评估人工增雨效果最重要的五个参数,并且上述五个因子之间存在相互影响。通过对数据进行质控和预处理,有效地保证了训练数据集的质量,有效促进了UNET-GRU模型网络的深度学习和训练。
综上所述,本发明提供了一种基于UNET-GRU深度学习检验播云作业效果的方法和装置,通过深度学习方法提高了作业影响区雨量和雷达回波预测的准确性,从而得到的播云作业的效果更准确,并增强了检验方法的泛化能力,解决了人工增雨的影响区域和对比区域不固定所带来的人工增雨效果难以定量评估的问题。经试验,与已有相关的检验播云作业效果的方法(人工影响天气作业效果检验)相比,同等检验、评估条件下,本发明的效果检验成本降低了14%以上。
附图说明
图1为本发明第一个实施例的检验播云作业效果的方法(即评估人工增雨效果的方法)的参考图(框图)。
图2为本发明第一个实施例中GRU算法框图。
图3为本发明第一个实施例中气象雷达数据覆盖范围图。
图4为本发明第一个实施例中选择区域雷达数据覆盖范围图。
图5为本发明第二个实施例的检验播云作业效果的方法所用的装置的结构示意图。
具体实施方式
为使本发明的发明目的、技术方案和优点更加清楚,下面将结合实施例对本发明的技术方案进行清楚、完整的描述。显然,所描述的实施例是本发明一部分实施例,而非全部实施例。基于本实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明的范围。
实施例1:如图1、图2、图3、图4、图5所示,本发明的基于UNET-GRU深度学习检验播云作业效果的方法包括如下步骤:
S1:获取第一时间段和第二时间段的样本雨量和多普勒天气雷达数据,并对数据进行质控和预处理。步骤S1包括:
S1.1:根据所述第一时间段的样本分钟雨量数据,对获取的数据进行质控,剔除不合理的数据;
S1.2:根据所述第一时间段的样本6分钟分辨率多普勒天气雷达数据,对获取的数据进行质控;
S1.3:多普勒天气雷达每个原始图像的尺寸为1200×800,在数据集的准备阶段,将训练集和测试集中的数值进行归一化处理,也就是将它们除以训练集中出现的最大值;此外,还对降水图进行裁剪,只使用原始图像的子集,为了方便神经网络训练,还进行了中心裁剪,大小为288像素×288像素,该裁剪大小是基于云的移动速度确定的。
S1.4:根据步骤S1.1和步骤S1.2处理后得到雨量和多普勒天气雷达数据。
S2:建立UNET-GRU模型网络,将所述第一时间段的质控和预处理之后的样本雨量和多普勒天气雷达数据作为输入因子输入网络进行训练,建立自然降水条件下基于UNET-GRU深度学习雨量预测模型,根据所述自然降水条件下网格雨量预测模型,预测自然降水条件下第二时间段的预测数据。步骤S2包括:
S2.1:提出一种支持小数据集训练的短期雨量和多普勒天气雷达回波预测算法,UNET-GRU算法模型,UNET-GRU算法模型是一种卷积GRU算法,将UNET集成到其中;
S2.2:训练UNET和CoGRU两种架构,CoGRU为支持卷积运算的GRU算法;共比较三种模型,分别是UNET、CoGRU和UNET-GRU;
S2.3:所有上述三个模型的训练最多进行200个周期,且使用一个提前停止准则,当验证损失在最后15个周期内没有改善时,会停止训练过程;这个准则在所有训练迭代中都得到满足,因为最大的200个周期从未到达过。
S2.4: 采用一个学习率自适应调整程序,当验证损失连续4个周期没有改善时,将学习率降低到前一个学习率的十分之一,初始学习率设置为0.001,使用默认值的Adam优化器;
S2.5: 训练的输出是每个区域每个格点的降雨量, 实际的格点降雨数据难以获取,基于Z-I关系,即,其中Z为雷达反射因子,I为降雨强度,A和b为系数,通过雷达反演的定量降水估计(QPE)和每个区域的离散监测站点的降雨数据获取每小时分辨率的降雨数据;
S2.6:根据步骤S2.1和步骤S2.5处理后,建立基于UNET-GRU深度学习模型,预测自然降水条件下第二时间段的预测数据。
步骤S2还可以包括降水Z-I关系优化算法,降水Z-I关系优化算法分为以下四个步骤(即步骤S2.7、S2.8、S2.9、S2.10):
S2.7:基于降水Z-I关系,将过去一小时内的6分钟雷达实际反射率因子Z转换为雷达估算的降雨强度I,然后累积6分钟雷达估算的降雨强度I,得到每小时的雷达估算降雨强度,与地面自动站观测到的降水量进行比较;
S2.8:获得雷达估算降水的优选参数,即获得系数A和b,选择每小时雷达估算的降水量为R、地面自动站观测到的降水量为G,选取误差目标判别函数CTF:
;
在上面的公式中, n是参与降水Z-I关系拟合的雷达自动站数据的总对数,系数A的调整范围限制在(150.00-400.00)之间,系数b的调整范围限制在(0.80-2.40)之间;
S2.9:将步骤S2.8中在当前获得的6分钟雷达反射率预测场的降水Z-I关系转换为降水量,满足降水检测的需求;此外,为了定量分析动态Z-I关系方法的降水反演误差,计算平均误差(EME)、平均相对误差(EMRE)等测试参数;
S2.10:整合日常业务应用的雷达网络拼图数据和地面加密自动气象站的降水观测数据,基于优化方法建立本地动态Z-I关系,实时获取具有6分钟分辨率的定量降水反演数据。
S3:将所述第一时间段的样本多普勒天气雷达数据作为输入因子输入网络进行训练,建立自然降水条件下基于UNET-GRU深度学习的多普勒天气雷达回波预测模型,生成自然降水条件下第二时间段的多普勒天气雷达回波预测数据,对比所述第二时间段质控和预处理之后实测样本数据,分析播云作业效果的物理解释,其中物理解释包括作业后第二时间段出现的播云回波增强或减弱、回波体积增加或减少、回波顶高抬升或下降、垂直累积液态水含量增加或减少和降水通量增加或减少的物理现象。步骤S3包括:
S3.1: 该算法利用6分钟分辨率的天气雷达数据生成图像,然后通过UNET网络处理提取模态特征;
S3.2:根据人工增雨作业后的第二时间段的质控和预处理之后的多普勒天气雷达实测数据,对比所述自然降水条件下第二时间段的预测数据,分析播云作业效果的物理解释。
S4:使用播云作业效果检验装置,对具有明确物理解释的播云作业过程,将第二时间段雨量预测数据与第二时间段的质控和预处理之后的样本雨量进行对比,所得到的残差值定量评估人工增雨的效果。步骤S4包括:
S4.1:(根据上述方法和步骤,研发出播云作业效果检验装置)使用播云作业效果检验装置,该装置包含数据预处理模块、模型训练模块、模型建立模块、效果检验模块;
S4.2: 对具有明确物理解释的播云作业过程,将雨量预测数据与实际人工增雨作业后的降雨量进行对比,用所得到的残差值定量评估人工增雨的效果。步骤S4还包括:
S4.3:根据人工增雨作业后的降雨情况获取有效实际降雨和多普勒天气雷达数据;
S4.4:删除所述降雨数据中的无效数据样本,形成人工增雨作业后的雨量和多普勒天气雷达实测数据;
S4.5:对具有明确物理解释的播云作业过程,计算所述自然降水条件下雨量的预测数据和人工增雨作业后的实测数据之间的差值;步骤S4.5中计算预测数据和实测数据之间的差值包括:计算均方根误差、平均绝对误差和平均相对误差;
S4.6:根据步骤S4.5中所述差值,进行模型效果检验。
上述的输入因子包括雨量和多普勒天气雷达四个参量,多普勒天气雷达四个参量为回波顶高、组合反射率、垂直积分液态水含量和分层平显。上述的第一时间段为人工增雨作业前30-120分钟,可采用60分钟;所述第二时间段为人工增雨作业后30-420分钟,可采用120分钟。
在本实施例中,建立基于UNET-GRU深度学习模型,检验播云作业效果。将样本数据作为输入因子输入UNET-GRU模型网络进行训练,建立自然降水条件下的雨量预测模型和多普勒雷达回波预测模型。该算法利用6分钟分辨率的天气雷达数据的四种模式(MTOP、MCR、MVIL和CAPPI)生成图像,然后通过UNET网络处理提取模态特征。由于不同模式包含密集连接,本发明人引入卷积GRU来更好地利用连续雷达数据之间的关系,并解释多模式数据建模中的非线性。模型的输出是特定时间内特定区域的网格降雨量。由于CAPPI数据的数据量较大,具有24层,所以训练序列在本实验中未包括,因为本发明人的实验室计算机无法处理如此大的数据集。尽管如此,所提出的算法仍然产生了令人满意的结果。
本实施例中,输入因子为与本发明检验播云作业结果相关性比较强的一个或者多个因子。值得注意的是,虽然由步骤S2可以直接到步骤S4,但并不能将所有联系的数据都作为数据因子,这将严重降低整个评估过程的效率。选取的数据因子应当是雨量中与评估结果相关性最大、对于评估结果最重要的一个或者多个参数,还应具备合理物理解释,即根据人工增雨作业后的第二时间段的质控和预处理之后的多普勒天气雷达实测数据,对比所述自然降水条件下第二时间段的预测数据,分析播云作业效果的物理解释,其中物理解释包括作业后第二时间段出现的播云回波增强、回波顶高抬升等现象,建立基于UNET-GRU深度学习模型,并且对训练数据进行学习,从而得到评估测试的模型。GRU是LSTM网络的一种非常有效的变体,如图4所示。它的结构比LSTM网络更简单,效果也很好。因此,它在许多应用中成为了一个非常流行的选择。与LSTM一样,GRU能够解决RNN网络中的长依赖问题。GRU模型只有两个门:重置门和更新门。重置门的功能类似于LSTM的遗忘门,不同之处在于它不会忘记前一个时刻的记忆单元的信息,而是会重置前一个时刻的隐藏层单元/>的信息。
更新门的功能不同于LSTM。它控制前一时刻的隐藏层状态和当前输入信息之间的平衡。
输入信息在遗忘后,
平衡后:
[ ]表示concat,•表示元素级乘法。
在本实例中,作为对比,训练了UNET和CoGRU(支持卷积运算的GRU算法)两种架构,共比较了三种模型。表1列出了这些模型参数的比较结果。当比较标准的UNET架构和我们提出的UNET-GRU架构时,可以看出后者的参数略多,约为1730万个,而标准UNET架构的参数约为2160万个。
所有上述三个模型的训练最多进行了200个周期。使用了一个提前停止准则,当验证损失在最后15个周期内没有改善时,会停止训练过程。这个准则在所有训练迭代中都得到满足,因为最大的200个周期从未到达过。此外,采用了一个学习率自适应调整程序,当验证损失连续4个周期没有改善时,将学习率降低到前一个学习率的十分之一。初始学习率设置为0.001,我们使用默认值的Adam优化器。训练是在一台装有一张24GB内存的NVIDIAGeForce RTX 3090 Super显卡上完成的。
在本实例中,评价使用的损失函数是输出图像与真实图像之间的均方误差(MSE)。MSE的计算方式如下:
这里n为样本数量,为真值,/>为预测值时,除了均方误差,我们还计算不同的性能评估指标,如精确度、召回率(检测概率)、准确率、F1分数、关键成功指数(CSI)、虚警率(FAR)和Heidke Skill Score(HSS)。对于降水地图数据集,这些指标是针对雨量大于0.5毫米/小时的降雨计算的。为此,我们使用这个阈值将预测输出和目标图像的每个像素转换为布尔掩码。从中,可以计算出真阳性(TP)(预测=1,目标=1)、假阳性(FP)(预测=1,目标=0)、真阴性(TN)(预测=0,目标=0)和假阴性(FN)(预测=0,目标=1)。随后,可以按照以下方式计算CSI、FAR和HSS指标:
区分有无降水阈值为0.5mm/h。
在数据集的准备阶段,将训练集和测试集中的数值进行归一化处理,也就是将它们除以训练集中出现的最大值。此外,还对降水图进行了裁剪,只使用原始图像的子集,见图1-5。这是因为原始图像中许多像素包含无数据值,这是由于雷达的最大范围小于图像大小而导致的,如图3中左侧面板中的黑色边缘所示。雷达范围内的矩形区域为1200像素×800像素,相当于1200公里和800公里。为了方便神经网络训练,进行了中心裁剪,大小为288像素×288像素,如图3中右侧面板所示。该裁剪大小是基于云的移动速度确定的。平均而言,云朵的移动速度为每小时36公里,最高可达50-60公里每小时。云的移动速度和方向受到风速、云高度和云密度等因素的影响。在我们的算法中,选择了12张符合增雨操作要求的地图作为训练输入,每张地图之间间隔6分钟。如果不考虑运动方向,可以计算出,每张地图中的云朵的最大移动半径为72公里。因此,选取每张地图的尺寸为144像素×144像素,这对于训练来说是足够的。为了确保训练的普适性,将每张地图的长度和宽度加倍。
训练的输出是每个区域每个格点的降雨量。实际的格点降雨数据难以获取。通常,我们只能通过雷达反演的定量降水估计(QPE)和每个区域的离散监测站点的降雨数据获取每小时分辨率的降雨数据。因此,这两个小时分辨率的数据必须转换为6分钟分辨率的格点数据用于算法的训练。
目前,降水的雷达测量主要基于Z-I关系。即,其中Z为雷达反射因子(单位:mm3/m6),I为降雨强度(单位:mm/h),A和b为系数(参数)。定量降水估计的准确性在很大程度上取决于Z-I关系中A和b参数的确定。由于降水特性在不同季节和地点有所不同,因此Z-I关系也不同。目前,许多站点仍然只使用制造商提供的固定Z-I关系来估算地面降水。随着大量加密自动气象站的建设,降水观测的时空密度大大增加。目前,充分利用加密地面降水观测数据和雷达回波强度进行高精度Z-I关系分析已经成为现实。国内许多学者也进行了相关研究。本文针对该问题提出了具体的技术方案。通过整合日常业务应用的雷达网络拼图数据和地面加密自动气象站的降水观测数据,基于优化方法建立本地动态Z-I关系,实时获取具有6分钟分辨率的定量降水反演数据。优化算法分为以下三个步骤:
(1)基于降水Z-I关系,将过去一小时内的6分钟雷达实际反射率因子Z转换为雷达估算的降雨强度I,然后累积6分钟雷达估算的降雨强度I,得到每小时的雷达估算降雨强度,与地面自动站观测到的降水量进行比较。
(2)为了获得雷达估算降水的最优参数A和b,选择小时雷达估算降水为R,地面自动站观测降水为G,选取误差目标判别函数CTF:
在公式(9)中,R是每小时雷达估算的降水量;G是自动地面站观测到的降水量;n是参与降水Z-I关系拟合的雷达自动站数据的总对数。 在实际业务应用中,为了节省计算时间并确保参数(系数)A和b在合理范围内变化,系数A的调整范围限制在150.00-400.00之间,系数b的调整范围限制在0.80-2.40之间,比如,系数A可以为200.00,系数b可以为1.20,系数A的调整间隔为0.10,系数b的调整间隔为0.01。对于每组系数A和b,都可以得到一个CTF。通过不断调整系数A和b的组合,确定使公式(9)中的误差目标判别函数CTF达到最小的系数A和b,即为降水Z-I关系最优解。
(3)将步骤(2)中在当前1小时内获得的6分钟雷达反射率预测场的降水Z-I关系转换为降水量,然后将其累加成每小时的雷达定量降水检测数据,以满足降水检测的需求。此外,为了定量分析动态Z-I关系方法的降水反演误差,计算平均误差(EME)、平均相对误差(EMRE)等测试参数。误差计算公式如下:
公式(10)和公式(11)中,和/>分别为自动地面气象站的降水反演值和实测值;n为所有站点的总数。
在本实例中,经过三个模型训练后,选择每个模型中验证集损失最低的模型。然后使用这些表现最佳的模型在测试集上计算第三节介绍的几个度量标准。这些模型在数据集上进行了训练、评估和测试。在降水预报中,一种常见的基准线是持续模型。持续模型根据假设天气从时间点t到t+1不会显着改变,将序列的最后一个输入图像预测为预测图像。特别是在现在预报中,由于图像之间的时间差非常短(例如2或6分钟),天气条件经常保持不变,因此很难超越这种基准线。
在表2中呈现了数据集的结果。需要注意的是,MSE值是在将模型预测值还原到原始降雨强度(mm/6 min)后计算得出的。结果表明,测试的每个模型在降水图数据集上都明显优于普遍的持续性基准线。这是值得注意的,因为正如前面提到的,由于输入和目标之间的时间差很短(例如2或6分钟),在现在预报中很难超过这个基准线。表2为检验结果。
根据图表显示,显然UNET-GRU模型在捕捉强降雨聚集的发展和准确描述雨团的垂直分布方面优于其他模型。因而,综合模型结合了多个模型的优点,在性能上比任何单一模型都要更加卓越。
在实例中,开展播云作业效果检验,基于在湖北省十堰市和武汉市实施的两个人工降雨案例进行了为期30-420分钟的降雨反演。降雨增强操作的信息列于表3中。反演结果与实际降雨进行了比较,结果表明,十堰市的反演精度高于武汉市。这可能归因于十堰市位于山区,受人类活动影响较少。雷达数据相对稳定,导致预测更准确。
实施例2:如图5所示,本发明的基于UNET-GRU深度学习检验播云作业效果的方法所用的装置包括:
数据预处理模块11,将获取探测目标区实测数据进行预处理,考虑云团移向移速,每张底图的尺寸需满足第一段时间和第二段时间内云团最大移动距离;
模型训练模块12,利用实测数据,进行深度学习模型训练,得到6分钟分辨率雨量预测算法框架;
模型建立模块13,建立自然条件下和催化条件下雨量和雷达回波预测模型,用于分别预测自然和催化条件下雨量,明确播云作业过程的物理解释;
效果检验模块14,用于效果检验和结果输出。
上述的模型建立模块13包括:第一模型单元,用于实测数据,建立自然条件下和催化条件下雨量预测模型;第二模型单元,用于实测数据,建立自然条件下和催化条件下雷达回波预测模型。
本发明的以上实施例所述方法和装置包括:获取样本雨量和多普勒天气雷达数据,并对数据进行质控和预处理;将输入因子输入网络进行训练,建立UNET-GRU深度学习雨量预测模型,预测数据;建立自然降水条件下基于UNET-GRU模型深度学习的多普勒天气雷达回波预测模型,对比预测数据,分析播云作业效果的物理解释;将雨量预测数据与第二时间段的质控和预处理之后的样本雨量进行对比,所得到的残差值定量评估人工增雨的效果。本发明解决了人工增雨的影响区域和对比区域不固定所带来的人工增雨效果难以定量评估的问题,通过深度学习方法提高了作业影响区雨量和雷达回波预测的准确性,增强了检验方法的泛化能力,提高了播云作业效果检验的准确性,也降低了播云作业效果检验成本。
本申请背景技术记载的相关专利文献中的技术方案与本发明提供的方法存在本质的区别,且并未较好地解决人工增雨的影响区域和对比区域不固定所带来的人工增雨效果难以定量评估的问题。本发明首先有明确物理解释的作业过程,再来进行基于UNET-GRU深度学习预测自然云雨量,与播云作业后降雨量来检验播云作业效果,兼顾物理检验和定量评估,同时解决了影响区域和对比区域不固定等问题。目前未检索到基于UNET-GRU深度学习检验播云作业效果的方法,利用本发明可以有效解决人工增雨的影响区域和对比区域不固定所带来的人工增雨效果难以定量评估的难题,通过深度学习方法提高了作业影响区雨量和雷达回波预测的准确性,从而提高了播云作业效果的准确性,并增强了检验方法的泛化能力。经试验,与已有相关的检验播云作业效果的方法(人工影响天气作业效果检验)相比,同等检验、评估条件下,本发明的效果检验成本降低了14%以上。
Claims (8)
1.一种基于UNET-GRU深度学习检验播云作业效果的方法,其特征在于它包括如下步骤:
S1:获取第一时间段和第二时间段的样本雨量和多普勒天气雷达数据,并对数据进行质控和预处理;
S2:建立UNET-GRU 模型网络,将所述第一时间段的质控和预处理之后的样本雨量和多普勒天气雷达数据作为输入因子输入网络进行训练,建立自然降水条件下基于UNET-GRU模型深度学习雨量预测模型,预测自然降水条件下第二时间段的预测数据;
步骤S2包括:
S2.1:提出一种支持小数据集训练的短期雨量和多普勒天气雷达回波预测算法,UNET-GRU算法模型,UNET-GRU算法模型是一种卷积GRU算法,将UNET集成到其中;
S2.2:训练UNET和CoGRU两种架构,CoGRU为支持卷积运算的GRU算法;共比较三种模型,分别是UNET、CoGRU和UNET-GRU;
S2.3:所有上述三个模型的训练进行200个周期,且使用一个提前停止准则,当验证损失在最后15个周期内没有改善时,会停止训练过程;
S2.4: 采用一个学习率自适应调整程序,当验证损失连续4个周期没有改善时,将学习率降低到前一个学习率的十分之一,初始学习率设置为0.001,使用默认值的Adam优化器;
S2.5: 基于Z-I关系,即,其中Z为雷达反射因子,I为降雨强度,A和b为系数,通过雷达反演的定量降水估计和每个区域的离散监测站点的降雨数据获取每小时分辨率的降雨数据;
S2.6:根据步骤S2.1和步骤S2.5处理后,建立基于UNET-GRU模型深度学习模型,预测自然降水条件下第二时间段的预测数据;
S3:将所述第一时间段的样本多普勒天气雷达数据作为输入因子输入网络进行训练,建立自然降水条件下基于UNET-GRU模型深度学习的多普勒天气雷达回波预测模型,生成自然降水条件下第二时间段的多普勒天气雷达回波预测数据,对比所述第二时间段质控和预处理之后实测样本数据,分析播云作业效果的物理解释,其中物理解释包括作业后第二时间段出现的播云回波增强或减弱、回波体积增加或减少、回波顶高抬升或下降、垂直累积液态水含量增加或减少和降水通量增加或减少的物理现象;
S4:对具有明确物理解释的播云作业过程,将第二时间段雨量预测数据与第二时间段的质控和预处理之后的样本雨量进行对比,所得到的残差值定量评估人工增雨的效果;
上述的第一时间段为人工增雨作业前30-120分钟;所述第二时间段为人工增雨作业后30-420分钟。
2.根据权利要求1所述的基于UNET-GRU深度学习检验播云作业效果的方法,其特征在于步骤S1包括:
S1.1:根据所述第一时间段的样本分钟雨量数据,对获取的数据进行质控,剔除不合理的数据;
S1.2:根据所述第一时间段的样本6分钟分辨率多普勒天气雷达数据,对获取的数据进行质控;
S1.3:多普勒天气雷达每个原始图像的尺寸为1200×800,在数据集的准备阶段,将训练集和测试集中的数值进行归一化处理,也就是将它们除以训练集中出现的最大值;对降水图进行裁剪,只使用原始图像的子集,还进行中心裁剪,大小为288像素×288像素,该裁剪大小是基于云的移动速度确定的;
S1.4:根据步骤S1.1、步骤S1.2和步骤S1.3处理后得到雨量和多普勒天气雷达数据。
3.根据权利要求1所述的基于UNET-GRU深度学习检验播云作业效果的方法,其特征在于步骤S2还包括降水Z-I关系优化算法,降水Z-I关系优化算法分为以下四个步骤:
S2.7:基于降水Z-I关系,将过去一小时内的6分钟雷达实际反射率因子Z转换为雷达估算的降雨强度I,与地面自动站观测到的降水量进行比较;
S2.8:获得雷达估算降水的优选参数,即获得系数A和b,得到每小时雷达估算的降水量R、地面自动站观测到的降水量G,选取误差目标判别函数CTF:
;
在上面的公式中, n是参与降水Z-I关系拟合的雷达自动站数据的总对数,系数A的调整范围限制在150.00-400.00之间,系数b的调整范围限制在0.80-2.40之间;
S2.9:将步骤S2.8中在当前获得的6分钟雷达反射率预测场的降水Z-I关系转换为降水量,满足降水检测的需求;定量分析动态Z-I关系方法的降水反演误差,计算平均误差、平均相对误差测试参数;
S2.10:整合日常业务应用的雷达网络拼图数据和地面加密自动气象站的降水观测数据,基于优化方法建立本地动态Z-I关系,实时获取具有6分钟分辨率的定量降水反演数据。
4.根据权利要求1所述的基于UNET-GRU深度学习检验播云作业效果的方法,其特征在于步骤S3包括:
S3.1: 利用6分钟分辨率的天气雷达数据生成图像,然后通过UNET网络处理提取模态特征;
S3.2:根据人工增雨作业后的第二时间段的质控和预处理之后的多普勒天气雷达实测数据,对比所述自然降水条件下第二时间段的预测数据,分析播云作业效果的物理解释。
5.根据权利要求1或3所述的基于UNET-GRU深度学习检验播云作业效果的方法,其特征在于步骤S4包括:
S4.1:使用播云作业效果检验装置,该装置包含数据预处理模块、模型训练模块、模型建立模块、效果检验模块;
S4.2: 对具有明确物理解释的播云作业过程,将雨量预测数据与实际人工增雨作业后的降雨量进行对比,用所得到的残差值定量评估人工增雨的效果。
6.根据权利要求5所述的基于UNET-GRU深度学习检验播云作业效果的方法,其特征在于步骤S4还包括:
S4.3:根据人工增雨作业后的降雨情况获取有效实际降雨和多普勒天气雷达数据;
S4.4:删除所述降雨数据中的无效数据样本,形成人工增雨作业后的雨量和多普勒天气雷达实测数据;
S4.5:对具有明确物理解释的播云作业过程,计算所述自然降水条件下雨量的预测数据和人工增雨作业后的实测数据之间的差值;
S4.6:根据步骤S4.5中所述差值,进行模型效果检验。
7.根据权利要求6所述的基于UNET-GRU深度学习检验播云作业效果的方法,其特征在于步骤S4.5中计算预测数据和实测数据之间的差值包括:计算均方根误差、平均绝对误差和平均相对误差。
8.根据权利要求1所述的基于UNET-GRU深度学习检验播云作业效果的方法,其特征在于上述的输入因子包括雨量和多普勒天气雷达四个参量,多普勒天气雷达四个参量为回波顶高、组合反射率、垂直积分液态水含量和分层平显。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310888031.4A CN116610959B (zh) | 2023-07-19 | 2023-07-19 | 基于unet-gru深度学习检验播云作业效果的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310888031.4A CN116610959B (zh) | 2023-07-19 | 2023-07-19 | 基于unet-gru深度学习检验播云作业效果的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116610959A CN116610959A (zh) | 2023-08-18 |
CN116610959B true CN116610959B (zh) | 2023-09-15 |
Family
ID=87682187
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310888031.4A Active CN116610959B (zh) | 2023-07-19 | 2023-07-19 | 基于unet-gru深度学习检验播云作业效果的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116610959B (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5440483A (en) * | 1992-07-09 | 1995-08-08 | Rhea | Process and device for evaluating the precipitations over an area of terrain |
WO2010071305A2 (en) * | 2008-12-19 | 2010-06-24 | Korea Meteorological Administration | Seeding and verification method for targetted cloud seeding |
CN104798638A (zh) * | 2015-05-13 | 2015-07-29 | 王以琳 | 以雷达回波移向轴线确定人工增雨目标区和对比区的方法 |
CN105353378A (zh) * | 2015-10-15 | 2016-02-24 | 中国气象科学研究院 | 一种播云作业效果雷达探测时间序列对比分析方法及系统 |
CN113608223A (zh) * | 2021-08-13 | 2021-11-05 | 国家气象信息中心(中国气象局气象数据中心) | 基于双分支双阶段深度模型的单站多普勒天气雷达强降水估算方法 |
CN115390161A (zh) * | 2022-07-26 | 2022-11-25 | 北京百度网讯科技有限公司 | 基于人工智能的降水预测方法及装置 |
KR20220164198A (ko) * | 2021-06-04 | 2022-12-13 | 한국과학기술정보연구원 | 딥러닝 기반 강수 예측 방법, 그리고 이를 구현하기 위한 장치 |
CN116148796A (zh) * | 2022-12-30 | 2023-05-23 | 中国人民解放军32027部队 | 一种基于雷达图像外推的强对流天气临近预报方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9526216B2 (en) * | 2012-11-26 | 2016-12-27 | Elwha Llc | System for facilitating cloud formation and cloud precipitation |
US10888051B2 (en) * | 2017-04-11 | 2021-01-12 | Thomas Peter DeFelice | Intelligent systems for weather modification programs |
US11256000B2 (en) * | 2019-01-17 | 2022-02-22 | University Corporation For Atmospheric Research | Method and system for determining cloud seeding potential |
-
2023
- 2023-07-19 CN CN202310888031.4A patent/CN116610959B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5440483A (en) * | 1992-07-09 | 1995-08-08 | Rhea | Process and device for evaluating the precipitations over an area of terrain |
WO2010071305A2 (en) * | 2008-12-19 | 2010-06-24 | Korea Meteorological Administration | Seeding and verification method for targetted cloud seeding |
CN104798638A (zh) * | 2015-05-13 | 2015-07-29 | 王以琳 | 以雷达回波移向轴线确定人工增雨目标区和对比区的方法 |
CN105353378A (zh) * | 2015-10-15 | 2016-02-24 | 中国气象科学研究院 | 一种播云作业效果雷达探测时间序列对比分析方法及系统 |
KR20220164198A (ko) * | 2021-06-04 | 2022-12-13 | 한국과학기술정보연구원 | 딥러닝 기반 강수 예측 방법, 그리고 이를 구현하기 위한 장치 |
CN113608223A (zh) * | 2021-08-13 | 2021-11-05 | 国家气象信息中心(中国气象局气象数据中心) | 基于双分支双阶段深度模型的单站多普勒天气雷达强降水估算方法 |
CN115390161A (zh) * | 2022-07-26 | 2022-11-25 | 北京百度网讯科技有限公司 | 基于人工智能的降水预测方法及装置 |
CN116148796A (zh) * | 2022-12-30 | 2023-05-23 | 中国人民解放军32027部队 | 一种基于雷达图像外推的强对流天气临近预报方法 |
Non-Patent Citations (3)
Title |
---|
Evaluation of Artificial Precipitation Enhancement Using UNET-GRU Algorithm for Rainfall Estimation;Renfeng Liu 等;《MDPI》;全文 * |
Response of Cloud and Precipitation Properties to Seeding at a Supercooled Cloud-Top Layer;Dejun Li 等;《10.1029/2021EA001791》;全文 * |
基于微波链路的天气雷达降水场校准方法;张鹏 等;《气象》;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN116610959A (zh) | 2023-08-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Brunsdon et al. | Geographically weighted regression: a method for exploring spatial nonstationarity | |
Western et al. | A Bayesian change point model for historical time series analysis | |
CN104361611B (zh) | 一种基于群稀疏鲁棒pca的运动目标检测方法 | |
CN108918815B (zh) | 一种土壤重金属风险预测方法 | |
CN105913411A (zh) | 一种基于因子定权模型的湖泊水质评价预测系统及方法 | |
CN105740991A (zh) | 基于改进bp神经网络拟合多种气候模式的气候变化预测方法及系统 | |
CN104764868B (zh) | 一种基于地理加权回归的土壤有机碳预测方法 | |
CN111665575B (zh) | 一种基于统计动力的中长期降雨分级耦合预报方法及系统 | |
CN112215525B (zh) | 一种湖库水质反演及可视化评价方法 | |
CN113065702B (zh) | 基于st-seep分段法和时空arma模型的滑坡位移多线性预测方法 | |
CN114077970B (zh) | 一种基于城市形态的碳排放相关因子的确定方法及装置 | |
CN113901384A (zh) | 顾及全局空间自相关性和局部异质性的地面pm2.5浓度建模方法 | |
Auvinen et al. | Numerical framework for the computation of urban flux footprints employing large-eddy simulation and Lagrangian stochastic modeling | |
CN113704693B (zh) | 一种高精度的有效波高数据估计方法 | |
Tarwidi et al. | An optimized XGBoost-based machine learning method for predicting wave run-up on a sloping beach | |
CN115345069A (zh) | 一种基于最大水深记录和机器学习的湖泊水量估算方法 | |
CN112560270A (zh) | 一种化学危害同化系统 | |
CN116610959B (zh) | 基于unet-gru深度学习检验播云作业效果的方法和装置 | |
CN115879594A (zh) | 一种基于地理探测器的城市定居人口分布趋势预测方法 | |
CN115206088A (zh) | 考虑动态交通流的城市快速路交通事故风险量化评估方法 | |
CN114880954A (zh) | 一种基于机器学习的滑坡敏感性的评估方法 | |
Rayudu et al. | Accurate Precipitation Prediction using Deep Learning Neural Network Compared with Space Vector Machine | |
CN105528657A (zh) | 基于北斗和向量机的建筑物震害预测方法 | |
Ma et al. | Modelling the ZR Relationship of Precipitation Nowcasting Based on Deep Learning | |
CN116297062B (zh) | 一种面向多维时空因子的pm2.5浓度精细化时空模拟与定量分析方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |