CN112069955B - 基于深度学习的台风强度遥感反演方法 - Google Patents

基于深度学习的台风强度遥感反演方法 Download PDF

Info

Publication number
CN112069955B
CN112069955B CN202010873492.0A CN202010873492A CN112069955B CN 112069955 B CN112069955 B CN 112069955B CN 202010873492 A CN202010873492 A CN 202010873492A CN 112069955 B CN112069955 B CN 112069955B
Authority
CN
China
Prior art keywords
typhoon
moment
satellite
deep learning
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010873492.0A
Other languages
English (en)
Other versions
CN112069955A (zh
Inventor
王充
徐青
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hohai University HHU
Original Assignee
Hohai University HHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hohai University HHU filed Critical Hohai University HHU
Priority to CN202010873492.0A priority Critical patent/CN112069955B/zh
Publication of CN112069955A publication Critical patent/CN112069955A/zh
Application granted granted Critical
Publication of CN112069955B publication Critical patent/CN112069955B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/12Classification; Matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P5/00Measuring speed of fluids, e.g. of air stream; Measuring speed of bodies relative to fluids, e.g. of ship, of aircraft
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及一种基于深度学习的台风强度遥感反演方法,包括以下步骤:确定待反演时刻台风中心的地理坐标信息,获取待反演时刻卫星的云图;读取卫星云图中的地理坐标信息以及预设的若干个波段的亮温数据;确定台风中心位置在卫星云图中的坐标点,并以该坐标点为中心,构建基于波段亮温数据的三维矩阵;构建基于focal_loss损失函数的8个二分类CNN模型;将三维矩阵数据输入8个二分类CNN模型中,得到并输出相应的数值,其中最大数值对应的台风等级即为该时刻台风的强度类别;根据上述所得数值计算得该时刻台风的最大风速。本发明能有效解决现有深度学习方法存在的反演台风强度难以找到最佳通道组合以及台风样本分布不均衡带来副作用的问题。

Description

基于深度学习的台风强度遥感反演方法
技术领域
本发明涉及遥感技术领域,具体涉及一种基于深度学习的台风强度遥感反演方法。
背景技术
台风是在热带海洋上生成的强烈天气过程,台风期间在强风和低压的作用下,台风往往会引发山洪爆发、城市内涝、山体滑坡、泥石流等,对人类生命和财产造成巨大的损害。西北太平洋不仅是世界上台风生成数量最多的海盆,也是唯一一个一年四季都能观测到台风活动的海盆。据资料统计,我国是全世界受台风灾害影响最严重的国家之一,年均达到9.3个,居世界首位,每年我国台风灾害约造成250亿以上的经济损失,死亡人数高达数百人。对台风强度的反演不仅是台风监测中的重要一环;也可以更好地初始化数值模型,从而更准确地预测台风。此外,更加准确地反演台风强度可能有助于对快速增强台风(最具挑战性的预测问题)的预测,有助于人们提前做好防范,减少损失。
目前利用卫星图像进行台风强度反演的常用算法概括起来主要有三类:Dvorak技术、方向梯度角技术(DAVT)和深度学习方法。其中Dvorak技术会因为预报员对该方法的熟练程度产生一些主观性错误,具有一定的局限性。在台风发展的早期阶段,该方法误差一般偏高。DAVT技术是通过对卫星红外图像亮度的方向梯度统计分析,最终拟合出一个非线性方程来计算台风强度。台风中心定位的误差会带来一定的不确定性。
上述两类方法大多依赖将卫星图像转换成高水平的人工特征。然而对于不同发展阶段、不同区域的台风,很难确定一些通用特征来建立回归模型。因此,学者们尝试将深度学习方法引入台风研究中。以卷积神经网络(CNN)算法为例,该算法避免了复杂的图像预处理过程,可以满足自动、客观的强度反演需求。但是,在CNN方法的应用上仍有一些关键问题需要解决:(1)卫星拥有多个传感器(例如:葵花8号卫星拥有3个可见光、3个近红外、10个红外传感器),每个传感器发射不同波长的电磁波,因为大气等要素对每种波长电磁波的吸收反射率不同,所以每个传感器提供不同高度、不同要素的信息,大多数研究只使用了单一通道的卫星遥感图像,只有少部分研究(例如Chen B-F.,B.Chen,H.Lin,and R.L.Elsberry,(2019)“Estimating tropical cyclone intensity by satellite imagery utilizingconvolutional neural networks,”Weather and Forecasting,34(2),447-465.)使用了2个通道组合的图像,找到最佳的通道组合反演强度台风仍然是一个很大的挑战。
(2)在台风的完整生命过程中,中低强度占主导地位,因此我们收集来的不同强度的台风数据数量是不均衡的。在台风样本数量较少,每个强度的台风样本数量分布不均衡的情况下,很难建立稳定的CNN模型。为了避免台风样本分布不均衡带来的副作用,Pradhanet al.(Pradhan R.,R.S.Aygun,M.Maskey,R.Ramachandran,and D.J.Cecil,(2017)“Tropical cyclone intensity estimation using a deep convolutional neuralnetwork,”IEEE Transactions onImage Processing,27(2),692-702.)试图减少训练数据数量来使样本分布均衡,Sajid et al.(Sajid A.,R.Farshid,and M.Asif.(2017)“LIUBoost:Locality informed underboosting for imbalanced dataclassification,”)通过对少样本强度的台风重采样增加样本数量使样本分布均衡,然而这些方法并不能从根本上解决这一问题,因此需要提供更有效的解决方法。
发明内容
本发明的目的是提供一种基于深度学习的台风强度遥感反演方法,能有效解决现有深度学习方法存在的反演台风强度难以找到最佳通道组合以及台风样本分布不均衡带来副作用的问题。
为解决上述技术问题,本发明采用了以下技术方案:
一种基于深度学习的台风强度遥感反演方法,包括以下步骤:
步骤1)确定待反演时刻台风中心的地理坐标信息,获取待反演时刻卫星的云图;
步骤2)读取卫星云图中的地理坐标信息以及预设的若干个波段的亮温数据;
步骤3)确定台风中心位置在卫星云图中的坐标点,并以该坐标点为中心,构建基于波段亮温数据的三维矩阵;
步骤4)在python软件中载入训练好的基于focal_loss损失函数的8个二分类CNN模型,其中每个二分类CNN模型分别对应不同的台风等级;
步骤5)将三维矩阵数据输入8个二分类CNN模型中,得到并输出相应的数值,其中最大数值对应的台风等级即为该时刻台风的强度类别;
步骤6)根据上述所得数值计算得该时刻台风的最大风速。
其中,步骤3)中以坐标点为中心,向上下左右各延伸n个网格点,从若干个波段中截取波段数量个2n+1×2n+1的二维矩阵,并按照波段序号由高到低顺序重新组合为三维矩阵。
步骤4)的具体步骤为:
41)将台风按照风速分为8类;
42)收集待反演时刻卫星的台风卫星云图,将卫星云图分为训练组,验证组和测试组,并构建CNN模型;
43)使用focal_loss损失函数计算CNN模型内部梯度函数;
44)采用训练组数据训练并针对每一个分类训练一个二分类模型;其中验证组数据用来在模型训练过程中防止模型过拟合;测试组用来进行模型性能的最终评判。
步骤6中最大风速的计算公式为
W=U1×P1+U2×P2
式中,W是该时刻台风的最大风速,P1和P2是所得数值中最大的两个,U1和U2是两个最大数值对应分类速度区间的中间值。
上述技术方案中提供的基于深度学习的台风强度遥感反演方法,通过对比待反演时刻卫星多个红外通道图像的组合,确定了最适合台风强度反演的通道组合;通过引入focal_loss损失函数,把一个多分类模型转换成8个二分类模型,解决了数据不均衡给模型训练带来的副作用;且通过测试对比后,本发明的台风强度反演精度高于现有同类方法。
附图说明
图1为本发明基于深度学习的台风强度遥感反演方法的流程图;
图2为本发明CNN模型的框架图。
具体实施方式
为了使本发明的目的及优点更加清楚明白,以下结合实施例对本发明进行具体说明。应当理解,以下文字仅仅用以描述本发明的一种或几种具体的实施方式,并不对本发明具体请求的保护范围进行严格限定。
本实施例以葵花8号卫星为例,对本发明基于深度学习的台风强度遥感反演方法进行说明,首先在用户终端安装python编程软件,并需要配备temsorflow-1.14.0,keras-2.2.4依赖包。下面结合图1对本发明进行详细说明:
步骤1)确定要反演时刻台风中心的经纬度,并下载要反演时刻葵花8号卫星的云图(空间分辨率5km);
步骤2)读取葵花8号卫星云图文件中的经度数据、纬度数据、第7、8、13、15波段亮温数据(band07、band08、band13、band15);
首先在葵花8号卫星的16个波段中选取大气窗口附近的5个波段(7,8,13,14,15),设计多组对照试验,通过对比不同实验模型的性能(见下表),确定波段7,8,13,15这四个波段作为预设的输入波段。
下表为步骤2中对照试验模型对测试组数据的性能对比表
Figure BDA0002651879620000041
步骤3)找到台风中心位置在卫星云图中的坐标点(a,b),以该坐标点为中心,向上下左右各延伸125个网格点,从波段7、8、13、15中裁取4个251×251的二维矩阵,并按照15、13、8、7的顺序重新组合为3维矩阵,大小为4×251×251;
本实施例收集了葵花8号2015-2018年来自96场台风共6690景卫星云图,随机选取其中60%作为训练组,20%作为验证组,20%作为测试组。使用python编程软件和tensorflow、keras程序包构建CNN模型,模型框架见图2,现有的方法都是使用多分类和传统的损失函数(softmax),本发明使用focal_loss损失函数替换softmax损失函数用于计算模型内部梯度函数。并用训练组数据用来训练8个二分类的CNN模型,验证组用来在模型训练过程中防止模型过拟合,测试组用来进行模型性能的最终评判。
其中focal_loss损失函数公式为:
Focal_loss(pt)=-at(1-pt)rlog(pt)
式中,pt∈[0,1],是模型的输出,at是权重系数,权重系数由每个分类占总数据数量的比例计算得到(本发明中,NC模型at=0.97;TD模型at=0.70;TS模型at=0.60;H1模型at=0.86;H2模型at=0.94;H3模型at=0.95;H4模型at=0.97;H5模型at=0.997);r是可调参数,本发明r=3。
步骤4)将步骤3中提取的3维矩阵数据输入8个二分类CNN模型中,本实施例构建了8个反演台风强度的CNN模型,分别对应不同的台风等级:NC(最大风速<10.3m/s),TD(10.3-17.0m/s),TS(17.1-32.4m/s),H1(32.5-42.2m/s),H2(42.3-48.9m/s),H3(49.0-57.6m/s),H4(57.7-70.0m/s),H5(>70.0m/s)。针对每一个分类将训练一个二分类模型,例如TD的二分类模型,输入为预设的4个波段卫星云图,输出为1个‘0’到‘1’之间的值,值越靠近‘0’代表该台风风速位于TD分类风速区间的概率越小,反之,值越靠近‘1’代表该台风风速位于TD分类风速区间的概率越大。
步骤5)8个模型对应输出8个数值,每个数值代表台风属于该分类的概率,将8个值按照NC、TD、TS、H1、H2、H3、H4、H5的顺序排列,其中最大的数值对应的分类就是该时刻台风的强度类别;例如[0.4,0.4,0.8,0.5,0.4,0.4,0.4,0.4],第一个数值0.4代表该时刻台风是NC强度的概率是40%,最大值0.8所在的TS分类就是该时刻台风的强度类别,如果该时刻台风强度为TS就视为分类正确。
步骤6)选取8个数值中数值最大的两个数,根据公式计算得到该时刻台风的强度(最大风速),计算公式为:
W=U1×P1+U2×P2
式中,W是该时刻台风的最大风速,P1和P2是所得数值中最大的两个,U1和U2是数值最大的两个对应分类速度区间的中间值(NC:8m/s;TD:13.7m/s;TS:24.8m/s;H1:37.4m/s;H2:45.6m/s;H3:53.3m/s;H4:63.9m/s;H5:73m/s)。
下表为其它反演方法与本实施例台风强度反演方法的结果对比表
Figure BDA0002651879620000051
上述DAVT方法为Ritchie E.A.,K.M.Wood,O.G.Rodríguez-Herrera,M.F.
Figure BDA0002651879620000052
and J.S.Joy,(2014)“Satellite-derived tropical cyclone intensity in the NorthPacific Ocean using the deviation-angle variance technique,”Weather andForecasting,29(3),505-516.所得结果;CNN多分类模型方法为Pradhan R.,R.S.Aygun,M.Maskey,R.Ramachandran,and D.J.Cecil,(2017)“Tropical cyclone intensityestimation using a deep convolutional neural network,”IEEE Transactions onImage Processing,27(2),692-702.所得结果;CNN回归模型方法为Chen B-F.,B.Chen,H.Lin,and R.L.Elsberry,(2019)“Estimating tropical cyclone intensity bysatellite imagery utilizing convolutional neural networks,”Weather andForecasting,34(2),447-465.所述结果。由上表可知,本发明的反演结果比现有同类方法更加准确。
本发明基于深度学习的台风强度遥感反演方法通过对待反演时刻卫星多个红外通道图像的组合,找到最适合台风强度反演的通道组合,并通过引入focal_loss损失函数和把1个多分类模型转换成8个二分类模型,解决了数据不均衡给模型训练带来的副作用。
上面结合实施例对本发明的实施方式作了详细说明,但是本发明并不限于上述实施方式,对于本技术领域的普通技术人员来说,在获知本发明中记载内容后,在不脱离本发明原理的前提下,还可以对其作出若干同等变换和替代,这些同等变换和替代也应视为属于本发明的保护范围。

Claims (4)

1.一种基于深度学习的台风强度遥感反演方法,其特征在于,包括以下步骤:
步骤1)确定待反演时刻台风中心的地理坐标信息,获取待反演时刻卫星的云图;
步骤2)读取卫星云图中的地理坐标信息以及预设的若干个波段的亮温数据;
步骤3)确定台风中心位置在卫星云图中的坐标点,并以该坐标点为中心,构建基于波段亮温数据的三维矩阵;
步骤4)在python软件中载入训练好的基于focal_loss损失函数的8个二分类CNN模型,其中每个二分类CNN模型分别对应不同的台风等级;
步骤5)将三维矩阵数据输入8个二分类CNN模型中,得到并输出相应的数值,其中最大数值对应的台风等级即为该时刻台风的强度类别;
步骤6)根据上述所得数值计算得该时刻台风的最大风速。
2.根据权利要求1所述的基于深度学习的台风强度遥感反演方法,其特征在于:步骤3)中以坐标点为中心,向上下左右各延伸n个网格点,从若干个波段中截取波段数量个2n+1×2n+1的二维矩阵,并按照波段序号由高到低顺序重新组合为三维矩阵。
3.根据权利要求2所述的基于深度学习的台风强度遥感反演方法,其特征在于:步骤4)的具体步骤为:
41)将台风按照风速分为8类;
42)收集待反演时刻卫星的台风卫星云图,将卫星云图分为训练组,验证组和测试组,并构建CNN模型;
43)使用focal_loss损失函数计算CNN模型内部梯度函数;
44)采用训练组数据训练并针对每一个分类训练一个二分类模型;其中验证组数据用来在模型训练过程中防止模型过拟合;测试组用来进行模型性能的最终评判。
4.根据权利要求3所述的基于深度学习的台风强度遥感反演方法,其特征在于:步骤6中最大风速的计算公式为
W=U1×P1+U2×P2
式中,W是该时刻台风的最大风速,P1和P2是所得数值中最大的两个,U1和U2是两个最大数值对应分类速度区间的中间值。
CN202010873492.0A 2020-08-26 2020-08-26 基于深度学习的台风强度遥感反演方法 Active CN112069955B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010873492.0A CN112069955B (zh) 2020-08-26 2020-08-26 基于深度学习的台风强度遥感反演方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010873492.0A CN112069955B (zh) 2020-08-26 2020-08-26 基于深度学习的台风强度遥感反演方法

Publications (2)

Publication Number Publication Date
CN112069955A CN112069955A (zh) 2020-12-11
CN112069955B true CN112069955B (zh) 2022-07-26

Family

ID=73658979

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010873492.0A Active CN112069955B (zh) 2020-08-26 2020-08-26 基于深度学习的台风强度遥感反演方法

Country Status (1)

Country Link
CN (1) CN112069955B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112801227B (zh) * 2021-04-06 2021-09-28 航天宏图信息技术股份有限公司 一种台风识别模型的生成方法、装置、设备及存储介质
CN114049545B (zh) * 2021-11-05 2022-06-07 中山大学 一种基于点云体素的台风定强方法、系统、设备及介质
CN114636981B (zh) * 2022-02-28 2022-12-02 广东省气象台(南海海洋气象预报中心) 基于雷达回波的在线深度学习台风中心定位系统
CN117036983B (zh) * 2023-10-08 2024-01-30 中国海洋大学 一种基于物理增强深度学习的台风中心定位方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109164513A (zh) * 2018-08-08 2019-01-08 湖北河海科技发展有限公司 基于葵花气象卫星的台风定位检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10699398B2 (en) * 2017-12-13 2020-06-30 Uber Technologies, Inc. Deep learning coordinate prediction using satellite and service data

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109164513A (zh) * 2018-08-08 2019-01-08 湖北河海科技发展有限公司 基于葵花气象卫星的台风定位检测方法

Also Published As

Publication number Publication date
CN112069955A (zh) 2020-12-11

Similar Documents

Publication Publication Date Title
CN112069955B (zh) 基于深度学习的台风强度遥感反演方法
US11488069B2 (en) Method for predicting air quality with aid of machine learning models
CN110826693B (zh) 基于DenseNet卷积神经网络的三维大气温度廓线反演方法和系统
CN111985543A (zh) 一种高光谱图像分类模型的构建方法、分类方法及系统
CN110555841B (zh) 基于自注意图像融合和dec的sar图像变化检测方法
CN112766155A (zh) 一种基于深度学习的海水养殖区提取方法
CN114049545B (zh) 一种基于点云体素的台风定强方法、系统、设备及介质
Jaiswal et al. Cyclone intensity estimation using similarity of satellite IR images based on histogram matching approach
CN110888186A (zh) 基于gbdt+lr模型的冰雹和短时强降水预报方法
CN116580318B (zh) 作物覆盖区域的土壤养分反演方法、装置、设备及介质
CN111210483A (zh) 基于生成对抗网络和数值模式产品的仿真卫星云图生成方法
CN111178304A (zh) 基于全卷积神经网络的高分辨率遥感影像像素级解译方法
CN113807278A (zh) 一种基于深度学习的土地利用分类及变化预测方法
Xu et al. A deep learning approach to predict sea surface temperature based on multiple modes
Yin et al. Automatic framework of mapping impervious surface growth with long-term Landsat imagery based on temporal deep learning model
CN113705538A (zh) 基于深度学习的高分遥感影像道路变化检测装置及方法
CN114241331A (zh) 以UAV为地面和Sentinel-2中介的湿地芦苇地上生物量遥感建模方法
CN115877345A (zh) 一种风廓线雷达缺测数据的补齐方法和装置
Tsay et al. Deep learning for satellite rainfall retrieval using Himawari-8 multiple spectral channels
Long et al. Identification of tropical cyclone centre based on satellite images via deep learning techniques
CN113743373A (zh) 基于深度学习的高分遥感影像耕地变化检测装置及方法
Deb et al. Multiplet based technique to derive atmospheric winds from Kalpana-1
Nguyen et al. Cau giay: a dataset for very dense building extraction from google earth imagery
CN117217103B (zh) 基于多尺度注意力机制的星载sar海杂波生成方法及系统
Meghani et al. Predicting the spatiotemporal characteristics of atmospheric rivers: A novel data-driven approach

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant