CN113159041B - 一种基于深度学习的急流线提取和识别方法 - Google Patents

一种基于深度学习的急流线提取和识别方法 Download PDF

Info

Publication number
CN113159041B
CN113159041B CN202110276213.7A CN202110276213A CN113159041B CN 113159041 B CN113159041 B CN 113159041B CN 202110276213 A CN202110276213 A CN 202110276213A CN 113159041 B CN113159041 B CN 113159041B
Authority
CN
China
Prior art keywords
image
wind
torrent
data
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110276213.7A
Other languages
English (en)
Other versions
CN113159041A (zh
Inventor
甘建红
尹麒名
胡文东
何童丽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu University of Information Technology
Original Assignee
Chengdu University of Information Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu University of Information Technology filed Critical Chengdu University of Information Technology
Priority to CN202110276213.7A priority Critical patent/CN113159041B/zh
Publication of CN113159041A publication Critical patent/CN113159041A/zh
Application granted granted Critical
Publication of CN113159041B publication Critical patent/CN113159041B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/95Radar or analogous systems specially adapted for specific applications for meteorological use
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/415Identification of targets based on measurements of movement associated with the target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/417Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Electromagnetism (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种基于深度学习的急流线提取和识别方法,属于气象技术领域,将深度学习模型应用于急流区域的识别和提取,并采用大量的真实气象数据和气象专家的标注数据,以及有效可行的数据预处理方法,将识别急流线重要的两个特征风速和风向一致性,对应为图片的三个通道,利用深度学习在图像领域的创新算法,提高对于急流线识别的准确性,采用基于密度聚类的DBSCAN方法,对急流区域进行分类,并采用基于BP网络的回归模型,对急流区域进行线条的拟合,可以让模型学习到急流线的常规绘制方法,且在深度学习的基础上能提高急流线绘制的准确性,降低问题的复杂性。本发明解决了急流线提取和识别的传统方法中的区域限制和普适性差的问题。

Description

一种基于深度学习的急流线提取和识别方法
技术领域
本发明属于气象技术领域,尤其涉及一种基于深度学习的急流线提取和识别方法。
背景技术
SonjaMolnos以风速、风向和纬度导向函数构造代价函数,通过Dijkstra方法寻找最短路径方式计算副热带急流(subtropicaljetstream)和极锋急流(polarjetsteam),该方法针对全球绘制两条单一闭合曲线,适合与气候研究,算法没有考虑急流的分叉和急流合并等情况,且算法需要已知起点,因此,该算法不适合于非全球范围风场数据急流线计算,不适合于天气预报场景中的急流线计算。
金宏忆以VAD算法为基础,用雷达探测资料以及多普勒天气雷达二次产品,探讨了机器识别低空急流的检测方法。该算法研究数据为雷达数据,因此,适合于0~2小时的短临预报的场景。另一方面,该算法只针对西南风低空急流自动识别做出了研究,未对其它类型的急流提取回波特征,具有区域的限制。
路志英和王萍的方法类似,对站点风场数据计算急流线并用MICAPS进行显示,该方法利用地面站的观测资料,经过站点筛选预处理、聚类、拟合实现了850hPa等压面上中国东南部沿海地区低空急流的绘制。该方法根据该地区以东南风和西南风为主的特征进行识别,不适合于其它更多的情况,该方法普适性较差。
任浩利用气象部门绘制流线普遍使用的MICAPS第11类格点矢量数据,经过数据预处理、急流区域识别、初选节点追踪、节点划分、急流节点划分、急流节点计算、噪声节点剔除、急流绘制等步骤,实现了一套完整的急流自动分析算法。该方法对于急流的定位和走向较好的满足了气象部门业务工作需求。但在一些风矢量较少或者气流较复杂的急流区内,存在漏分析或者分析结果与气象人员绘制结果偏差较大等问题。
发明内容
针对现有技术中的上述不足,本发明提供的一种基于深度学习的急流线提取和识别方法,解决了急流线提取和识别的传统方法中的区域限制和普适性差的问题。
为了达到以上目的,本发明采用的技术方案为:
本方案提供一种基于深度学习的急流线提取和识别方法,包括以下步骤:
S1、对原始Micaps第11类500hPa风场格点数据进行双线性插值处理,得到分辨率为512*320的格点数据;
S2、根据插值后每个格点数据在U、V方向上风的大小值,计算得到每个格点的风向风速;
S3、根据所述每个格点的风向风速,提取风速大于等于20m/s的格点,并放入集合A中,其余格点放入集合B中,并将集合A中的格点转化成第一图像,将集合B中的格点转化为第二图像;
S4、读取Micaps第14类标注数据,并转化为标注图像作为标签图像数据;
S5、将所述第一图像、第二图像以及标签图像数据作为标签,训练图像分割模型;
S6、根据所述图像分割模型,利用基于密度的DBSCAN聚类方法将识别出的所有急流区域,划分为多个急流区域,得到单个急流区域;
S7、搭建BP神经网络,并将所述标签图像数据作为训练数据,将原始Micaps第14类标注数据作为标签,对所述BP神经网络进行训练,得到回归模型;
S8、利用所述回归模型提取所述单个急流区域的急流线,并保存为Micaps第14类标注数据,完成对急流线的提取和识别。
进一步地,所述步骤S2中每个格点的风向风速的表达式如下:
Figure GDA0003633428500000031
Figure GDA0003633428500000032
Figure GDA0003633428500000033
Figure GDA0003633428500000034
其中,a表示格点的风向风速,v表示格点V方向风力向量,u表示格点U方向风力向量。
再进一步地,所述步骤S3包括以下步骤:
S301、根据所述每个格点的风向风速,提取风速大于等于20m/s的格点,并放入集合A中,其余格点放入集合B中;
S302、将分辨率为512*320的格点转换为分辨率为512*320个像素的图像;
S303、将分辨率为512*320个像素的图像分为RBG三个通道,将集合A中所有格点的风速值作为图像RB通道的值,以及将集合A中所有格点的风向偏转角的值作为图片G通道的值,形成第一图像;
S304、将集合B中格点对应的像素点RGB三个通道值均设置为0,形成第二图像;
再进一步地,所述步骤S303中风向偏转角的计算方法如下:
S3031、以O点为中心,在其周围设置8个格点,并将以O点为中心的360°平分为8个方向;
S3032、根据O点的方向,确定其所在的风向区域;
S3033、取O点所在的风向区域左右两侧的区域,组成大扇形区域;
S3034、根据在大扇形区域内的格点和O点,计算得到风向偏转角。
再进一步地,所述步骤S3034中风向偏转角的表达式如下:
若|α-β|>180°,则所述风向偏转角θ为:θ=180°-|α-β|;
若|α-β|≤180°,则所述风向偏转角θ为:θ=|α-β|;
其中,α和β均表示风向角度。
再进一步地,所述步骤S5包括以下步骤:
S501、将所述第一图像以及第二图像作为训练数据,将所述标签图像数据作为标签;
S502、将所述训练数据放入Unet网络中进行计算,得到预测结果;
S503、将预测结果与所述标签进行对比,并利用损失函数计算得到损失值;
S504、根据所述损失值,利用梯度下降法调整Unet网络的参数,并进行迭代训练,直至所述损失值收敛,得到图像分割模型。
本发明的有益效果:
(1)本发明将深度学习Unet模型应用于急流区域的识别和提取,并采用大量的真实气象数据和气象专家的标注数据,对于大量数据的分析,一定程度上增加了方法的通用性和稳定性。本发明采用有效可行的数据预处理方法,将识别急流线重要的两个特征风速和风向一致性,对应为图片的三个通道,利用深度学习在图像领域的创新算法,提高对于急流线识别的准确性,采用基于密度聚类的DBSCAN方法,对急流区域进行分类,降低了传统分类算法的复杂性,采用基于BP网络的回归模型,对急流区域进行线条的拟合,可以让模型学习到急流线的常规绘制方法,且在深度学习的基础上能提高急流线绘制的准确性,降低问题的复杂性。
(2)本发明将急流区域的识别和提取巧妙的转化为图像分割的处理,将格点对应为图片的像素点,采用图像分割领域表现出色的Unet网络模型进行深度学习,提高了对于急流线区域预测的普适性和准确性。
(3)本发明创新将风向与前方三个格点计算风向偏转角来判断风向一致性,实验结果表明,该方法效果良好。
附图说明
图1为本发明的方法流程图。
图2为本实施例中风向风速计算方法图。
图3为本实施例中风向偏转角求解示意图。
图4为本实施例中预测数据与标注数据示意图。
具体实施方式
下面对本发明的具体实施方式进行描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
实施例
本发明为了解决急流线提取和识别的传统方法中的区域限制和普适性差的问题,创新采用深度学习的方法识别急流线。在气象专家标注的大批量多区域多时间的真实数据的基础上,进行深度学习,得到一个通用的识别急流线的模型。为了解决急流线提取和识别的传统方法中的繁杂步骤,利用深度学习建立端到端的识别模型,通过输入原始的气象数据(Micaps第11类数据)即可得到最终的急流线位置数据(Micaps第14类数据)。如图1所示,本发明提供了一种基于深度学习的急流线提取和识别方法,其实现方法如下:
S1、对原始Micaps第11类500hPa风场格点数据进行双线性插值处理,得到分辨率为512*320的格点数据;
本实施例中,对原始气象Micaps第11类500hPa风场格点数据进行双线性插值。Micaps第11类风场格点数据包含了33*21个格点的U、V方向上风的大小,将空间分辨率为33*21的原始数据,插值为512*320的格点,该步骤可以精细化急流线的位置。
S2、根据插值后每个格点数据在U、V方向上风的大小值,计算得到每个格点的风向风速;
本实施例中,通过512*320每个格点的U、V方向上风的大小值,计算出每个格点的风向风速。风向、风速计算方法如图2所示,格点U方向风力作为u向量,格点V方向风力作为v向量,格点风α的风力大小为
Figure GDA0003633428500000061
格点风α的风力方向计算方法如下:(图2所示的v向量所在正方向为0°)
Figure GDA0003633428500000062
Figure GDA0003633428500000063
Figure GDA0003633428500000064
Figure GDA0003633428500000065
其中,a表示格点的风向风速,v表示格点V方向风力向量,u表示格点U方向风力向量。
S3、根据所述每个格点的风向风速,提取风速大于等于20m/s的格点,并放入集合A中,其余格点放入集合B中,并将集合A中的格点转化成第一图像,将集合B中的格点转化为第二图像,其实现方法如下:
S301、根据所述每个格点的风向风速,提取风速大于等于20m/s的格点,并放入集合A中,其余格点放入集合B中;
S302、将分辨率为512*320的格点转换为分辨率为512*320个像素的图像;
S303、将分辨率为512*320个像素的图像分为RBG三个通道,将集合A中所有格点的风速值作为图像RB通道的值,以及将集合A中所有格点的风向偏转角的值作为图片G通道的值,形成第一图像,其实现方法如下:
S3031、以O点为中心,在其周围设置8个格点,并将以O点为中心的360°平分为8个方向;
S3032、根据O点的方向,确定其所在的风向区域;
S3033、取O点所在的风向区域左右两侧的区域,组成大扇形区域;
S3034、根据在大扇形区域内的格点和O点,计算得到风向偏转角;
如果两风向角度分别为α和β;若|α-β|>180°,则所述风向偏转角θ为:θ=180°-|α-β|;若|α-β|≤180°,则所述风向偏转角θ为:θ=|α-β|;
S304、将集合B中格点对应的像素点RGB三个通道值均设置为0,形成第二图像。
本实施例中,根据现有规定在500hPa等压面上将有2个以上连续测站风速≥20m/s的风速带识别为急流区,所以提取出风速大于等于20m/s的格点,放入集合A中,其余格点放入集合B中。
本实施例中,将512*320个格点转换为512*320个像素的图片,将急流线区域识别问题转化为图像分割问题。
本实施例中,对于集合A中的格点按以下方法进行转化:图像分为RGB三个通道,将集合A中所有格点的风速值作为图像的RB通道的值、将风向偏转角的值作为图片的G通道的值。其中,风向偏转角计算方法如下:如图3所示,以O为中心格点,周围有A、B、C、D、E、F、G、H8个格点,每个格点都有风向风速值,并将以O为中心的360°平分为8个方向,每个方向均为45°,也即∠QOI、∠IOJ、∠JOK、∠KOL、∠LOM、∠MON、∠NOP、∠POQ均为45°。计算O点的风向偏转角,首先根据O点的方向,判断它所在风向区域,如此时O点风向为40°(正北方向为0°,示意图中正向上为北),则风向区域位于扇形TOS区域,然后取该扇形TOS区域左右两侧区域组成一个大扇形区域UOR,在大扇形区域内的格点B、C、E与格点O计算角度偏差,即取B、C、E三点的风向与O点的风向角度差并取平均值。考虑到风向的周期性,角度差最大为180°,所以将角度差大于180°的,需要用360°减去此角度差,如B点风向为50°,O点为40°,B和O两点风向差为10°;E点风向为350°,O点为40°,E和O两点风向差为50°。风向偏转角小,代表风向连续性好,是出现急流的关键区域。反之,则不容易出现急流。
本实施例中,对于集合B中的格点按照以下转化:由于只对风速大于等于20m/s的区域进行急流分析,所以将集合B中的格点对应的像素点RGB三个通道值都置为0。最后将集合A和集合B转化后的得到的图片作为深度学习训练数据。
S4、读取Micaps第14类标注数据,并转化为标注图像作为标签图像数据;
本实施例中,将气象专家标注的Micaps第14类数据经过筛选后转为标注图像。由于原始Micaps第14类标注数据为点集构成的线集,且深度学习图像分隔部分的目标是识别急流区域,需要将标注线条的位置向外扩展形成区域,即由线转为面,形成标注区域。为了与训练数据相对应,标注图像也是512*320个像素的图片,对于标注区域内的像素RGB值都是255,对于非标注区域内的像素RGB值为0。
S5、将所述第一图像、第二图像以及标签图像数据作为标签,训练图像分割模型,其实现方法如下:
S501、将所述第一图像以及第二图像作为训练数据,将所述标签图像数据作为标签;
S502、将所述训练数据放入Unet网络中进行计算,得到预测结果;
S503、将预测结果与所述标签进行对比,并利用损失函数计算得到损失值;
S504、根据所述损失值,利用梯度下降法调整Unet网络的参数,并进行迭代训练,直至所述损失值收敛,得到图像分割模型。
本实施例中,按照Unet网络模型,用pytorch深度学习框架搭建神经网络结构,将所述第一图像、第二图像作为训练数据,标签图像数据作为标签,在GPU服务器上将训练数据放入Unet网络中运行计算,得到的预测结果与标签对比,利用Dice系数(Dicecoefficient)损失函数计算出损失值,按损失值梯度下降方向调整Unet网络中的参数,进行迭代训练,直到损失值收敛,即可得到图像分割模型。
S6、根据所述图像分割模型,利用基于密度的DBSCAN聚类方法将识别出的所有急流区域,划分为多个急流区域,得到单个急流区域;
本实施例中,采用基于密度的聚类的DBSCAN方法,对急流区域进行分类,将识别出的所有急流区域分为多个急流区域,用于后续提取急流线。
本实施例中,如图4所示,数据经过图像分割模型预测后,得到的是只有黑色和白色的并与标注数据类似的图片,图片中白色区域代表预测出的急流区域,所以将图片中RGB像素值都为255的位置提取出来,得到所有的急流区域。
S7、搭建BP神经网络,并将所述标签图像数据作为训练数据,将原始Micaps第14类标注数据作为标签,对所述BP神经网络进行训练,得到回归模型;
本实施例中,用pytorch深度学习框架搭建BP神经网络,并将标签图像数据作为训练数据,将原始Micaps第14类标注数据作为标签,在GPU服务器上将训练数据放入BP神经网络中运行计算,得到的预测结果与标签对比,利用均方误差损失函数计算出损失值,按损失值梯度下降方向调整BP网络中的参数,进行迭代训练,直到损失值收敛,得到能将急流区域回归为急流线的模型,采用基于BP网络的回归模型,对急流区域进行线条的拟合。
S8、利用所述回归模型提取所述单个急流区域的急流线,并保存为Micaps第14类标注数据,完成对急流线的提取和识别。
本实施例中,所有模型训练完成后,对于原始Micaps第11类数据,利用得到的识别急流区域的图像分割模型,提取出所有急流区域,然后利用DBSCAN聚类方法,将急流区域分类成单个急流区域,最后利用回归模型,将每个急流区域提取出急流线,保存为Micaps第14类标注数据。

Claims (4)

1.一种基于深度学习的急流线提取和识别方法,其特征在于,包括以下步骤:
S1、对原始Micaps第11类500hPa风场格点数据进行双线性插值处理,得到分辨率为512*320的格点数据;
S2、根据插值后每个格点数据在U、V方向上风的大小值,计算得到每个格点的风向风速;
S3、根据所述每个格点的风向风速,提取风速大于等于20m/s的格点,并放入集合A中,其余格点放入集合B中,并将集合A中的格点转化成第一图像,将集合B中的格点转化为第二图像;
所述步骤S3包括以下步骤:
S301、根据所述每个格点的风向风速,提取风速大于等于20m/s的格点,并放入集合A中,其余格点放入集合B中;
S302、将分辨率为512*320的格点转换为分辨率为512*320个像素的图像;
S303、将分辨率为512*320个像素的图像分为RBG三个通道,将集合A中所有格点的风速值作为图像RB通道的值,以及将集合A中所有格点的风向偏转角的值作为图片G通道的值,形成第一图像;
S304、将集合B中格点对应的像素点RGB三个通道值均设置为0,形成第二图像;
S4、读取Micaps第14类标注数据,并转化为标注图像作为标签图像数据;
S5、将所述第一图像、第二图像以及标签图像数据作为标签,训练图像分割模型;
所述步骤S5包括以下步骤:
S501、将所述第一图像以及第二图像作为训练数据,将所述标签图像数据作为标签;
S502、将所述训练数据放入Unet网络中进行计算,得到预测结果;
S503、将预测结果与所述标签进行对比,并利用损失函数计算得到损失值;
S504、根据所述损失值,利用梯度下降法调整Unet网络的参数,并进行迭代训练,直至所述损失值收敛,得到图像分割模型;
S6、根据所述图像分割模型,利用基于密度的DBSCAN聚类方法将识别出的所有急流区域,划分为多个急流区域,得到单个急流区域;
S7、搭建BP神经网络,并将所述标签图像数据作为训练数据,将原始Micaps第14类标注数据作为标签,对所述BP神经网络进行训练,得到回归模型;
S8、利用所述回归模型提取所述单个急流区域的急流线,并保存为Micaps第14类标注数据,完成对急流线的提取和识别。
2.根据权利要求1所述的基于深度学习的急流线提取和识别方法,其特征在于,所述步骤S2中每个格点的风向风速的表达式如下:
Figure FDA0003633428490000021
Figure FDA0003633428490000022
Figure FDA0003633428490000023
Figure FDA0003633428490000024
其中,a表示格点的风向风速,v表示格点V方向风力向量,u表示格点U方向风力向量。
3.根据权利要求1所述的基于深度学习的急流线提取和识别方法,其特征在于,所述步骤S303中风向偏转角的计算方法如下:
S3031、以O点为中心,在其周围设置8个格点,并将以O点为中心的360°平分为8个方向;
S3032、根据O点的方向,确定其所在的风向区域;
S3033、取O点所在的风向区域左右两侧的区域,组成大扇形区域;
S3034、根据在大扇形区域内的格点和O点,计算得到风向偏转角。
4.根据权利要求3所述的基于深度学习的急流线提取和识别方法,其特征在于,所述步骤S3034中风向偏转角的表达式如下:
若|α-β|>180°,则所述风向偏转角θ为:θ=180°-|α-β|;
若|α-β|≤180°,则所述风向偏转角θ为:θ=|α-β|;
其中,α和β均表示风向角度。
CN202110276213.7A 2021-03-15 2021-03-15 一种基于深度学习的急流线提取和识别方法 Active CN113159041B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110276213.7A CN113159041B (zh) 2021-03-15 2021-03-15 一种基于深度学习的急流线提取和识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110276213.7A CN113159041B (zh) 2021-03-15 2021-03-15 一种基于深度学习的急流线提取和识别方法

Publications (2)

Publication Number Publication Date
CN113159041A CN113159041A (zh) 2021-07-23
CN113159041B true CN113159041B (zh) 2022-10-04

Family

ID=76887085

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110276213.7A Active CN113159041B (zh) 2021-03-15 2021-03-15 一种基于深度学习的急流线提取和识别方法

Country Status (1)

Country Link
CN (1) CN113159041B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114386334B (zh) * 2022-01-19 2022-09-13 浙江大学 一种基于分布式水文径流模拟替代模型的径流滚动预报方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109165693A (zh) * 2018-09-11 2019-01-08 安徽省气象信息中心 一种适用于露、霜和结冰的天气现象的自动判识方法
CN110197298A (zh) * 2019-05-10 2019-09-03 中国电建集团西北勘测设计研究院有限公司 基于聚类算法的多模型太阳法向辐射预测的方法及装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018193324A1 (en) * 2017-03-20 2018-10-25 Sunit Tyagi Surface modification control stations in a globally distributed array for dynamically adjusting atmospheric, terrestrial and oceanic properties
CN108229550B (zh) * 2017-12-28 2022-02-18 南京信息工程大学 一种基于多粒度级联森林网络的云图分类方法
CN109145962B (zh) * 2018-07-31 2021-11-05 南京信息工程大学 一种基于数字图像的大气参数反演观测方法
CN112287881A (zh) * 2020-11-19 2021-01-29 国网湖南省电力有限公司 卫星遥感影像烟雾场景检测方法、系统及计算机存储介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109165693A (zh) * 2018-09-11 2019-01-08 安徽省气象信息中心 一种适用于露、霜和结冰的天气现象的自动判识方法
CN110197298A (zh) * 2019-05-10 2019-09-03 中国电建集团西北勘测设计研究院有限公司 基于聚类算法的多模型太阳法向辐射预测的方法及装置

Also Published As

Publication number Publication date
CN113159041A (zh) 2021-07-23

Similar Documents

Publication Publication Date Title
CN109829443B (zh) 基于图像增强与3d卷积神经网络的视频行为识别方法
CN105631880B (zh) 车道线分割方法和装置
CN109543695B (zh) 基于多尺度深度学习的泛密度人群计数方法
CN108665487B (zh) 基于红外和可见光融合的变电站作业对象和目标定位方法
WO2022252398A1 (zh) 基于船舶轨迹特征点提取的时空dp方法
CN110111338B (zh) 一种基于超像素时空显著性分割的视觉跟踪方法
CN109064484B (zh) 基于子群组划分与动量特征融合的人群运动行为识别方法
CN112464879B (zh) 基于自监督表征学习的海洋目标检测方法及系统
CN106997597A (zh) 一种基于有监督显著性检测的目标跟踪方法
CN103119625B (zh) 一种视频人物分割的方法及装置
CN105931241A (zh) 一种自然场景图像的自动标注方法
CN115641327B (zh) 一种基于大数据的建筑工程质量监理和预警系统
CN106408025B (zh) 基于图像处理的航拍图像绝缘子分类识别方法
CN107146219B (zh) 一种基于流形正则化支持向量机的图像显著性检测方法
CN110675421B (zh) 基于少量标注框的深度图像协同分割方法
CN109800714A (zh) 一种基于人工智能的船舶检测系统及方法
CN105069816B (zh) 一种进出口人流量统计的方法及系统
CN104537689A (zh) 基于局部对比显著性联合特征的目标跟踪方法
CN113033315A (zh) 一种稀土开采高分影像识别与定位方法
CN113159041B (zh) 一种基于深度学习的急流线提取和识别方法
CN111652240A (zh) 一种基于cnn的图像局部特征检测与描述方法
CN112712500A (zh) 一种基于深度神经网络的遥感图像目标提取方法
CN112733914A (zh) 一种基于支持向量机的水下目标视觉识别分类方法
CN111274964B (zh) 一种基于无人机视觉显著性分析水面污染物的检测方法
CN112884795A (zh) 一种基于多特征显著性融合的输电线路巡检前景与背景分割方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant