CN115512299A - 基于雷达图像的U-net变体神经网络的洪涝预警方法 - Google Patents

基于雷达图像的U-net变体神经网络的洪涝预警方法 Download PDF

Info

Publication number
CN115512299A
CN115512299A CN202211188983.7A CN202211188983A CN115512299A CN 115512299 A CN115512299 A CN 115512299A CN 202211188983 A CN202211188983 A CN 202211188983A CN 115512299 A CN115512299 A CN 115512299A
Authority
CN
China
Prior art keywords
neural network
layer
data
radar
net
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211188983.7A
Other languages
English (en)
Inventor
张磊
王亚东
朱绍明
孟坤颖
牛一波
康潇
左宪禹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Henan University
Original Assignee
Henan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Henan University filed Critical Henan University
Priority to CN202211188983.7A priority Critical patent/CN115512299A/zh
Publication of CN115512299A publication Critical patent/CN115512299A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/95Radar or analogous systems specially adapted for specific applications for meteorological use
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/10Alarms for ensuring the safety of persons responsive to calamitous events, e.g. tornados or earthquakes
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A50/00TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE in human health protection, e.g. against extreme weather

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Electromagnetism (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Emergency Management (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Business, Economics & Management (AREA)
  • Geology (AREA)
  • Biomedical Technology (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Environmental & Geological Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本发明公开了基于雷达图像的U‑net变体神经网络的洪涝预警方法,包括以下步骤:A:获取监测区域的彩色雷达图片并转换为灰度图片,从而建立训练数据集和测试数据集;B:建立U‑net变体神经网络模型;C:利用训练数据集得到训练后的U‑net变体神经网络模型;D:利用测试数据集得到监测区域的雷达图像;E:利用雷达图像进行质量评估得到U‑net变体神经网络的性能分析结果;F:根据性能分析结果对U‑net变体神经网络模型进行优化;G:根据优化后的U‑net变体神经网络模型,利用彩色雷达图片进行洪涝预警。本发明能够通过易获取的雷达图像捕捉在洪涝灾害预警中的非线性事件能力,提高洪涝灾害预警的准确性。

Description

基于雷达图像的U-net变体神经网络的洪涝预警方法
技术领域
本发明涉及一种洪涝灾害预警方法,尤其涉及一种基于雷达图像的U-net变体神经网络的洪涝灾害预警方法。
背景技术
我国是世界上洪涝灾害多发频发国家之一,在我国三分之二左右的国土面积都面临着不同类型和不同程度的洪涝灾害。近年来,对洪涝灾害进行预警的研究越来越多。目前已有的研究从不同的角度去解决洪涝灾害预警问题。传统的洪涝灾害预警问题有基于雷达场的平流降水预警,这种预警方式难以捕捉非线性事件如因为对流引起的强降雨。基于神经网络的预警方式可以捕捉到这种非线性事件,但这往往需要由专门雷达捕捉到的数据,而且这些数据具有难获取,冗余,不易训练等缺点。
发明内容
本发明的目的是提供一种基于雷达图像的U-net变体神经网络的洪涝灾害预警方法,能够在易获取的雷达图像上进行洪涝灾害预警,捕捉在洪涝灾害预警中的非线性事件的能力,提高洪涝灾害预警的准确性。
本发明采用下述技术方案:
一种基于雷达图像的U-net变体神经网络的洪涝预警方法,依次包括以下步骤:
A:获取监测区域的彩色雷达图片并转换为以像素数值代表雷达回波强度的灰度图片,然后根据得到的灰度图片建立训练数据集和测试数据集;
B:建立U-net变体神经网络模型,;
C:将步骤A中获得的训练数据集,输入步骤B中建立的U-net变体神经网络模型中进行迭代训练,直至U-net变体神经网络模型收敛于设定的损失值,得到训练后的U-net变体神经网络模型;
D:将步骤A中测试数据集的数据放入步骤C中训练后的U-net变体神经网络模型进行测试,得到以测试数据集中首张图像采集时间为起点的未来90分钟内的监测区域的雷达图像;
E:对步骤D中得到的以测试数据集中首张图像采集时间为起点的未来90分钟内的雷达图像进行质量评估,得到U-net变体神经网络的性能分析结果;
F:根据步骤E中得到U-net变体神经网络的性能分析结果,调整步骤C中训练后的U-net变体神经网络模型参数,对训练后的U-net变体神经网络模型进行优化;
G:根据优化后的U-net变体神经网络模型,利用彩色雷达图片进行洪涝预警。
所述的步骤A包括以下具体步骤:
A1:获取监测区域的彩色雷达图片,并将彩色雷达图片按照序号读取到四维数组dataList0中;四维数组dataList0中包含图片数量、图片像素大小和通道数;
A2:对步骤A1中得到的四维数组dataList0进行遍历,将四维数组dataList0中的彩色数据根据比色卡转换为灰度数据,最终得到灰度时间序列图片;灰度数据的数值代表雷达回波的强度;
A3:将步骤A2中得到的灰度时间序列图片进行下采样,得到下采样后的灰度时间序列图片;
A4:将步骤A3中得到的下采样后的灰度时间序列图片,按照灰度时间序列图片序号升序排序划分为15张为一组的训练数据,最终得到多组训练数据;然后将多组训练数据划分成训练数据集和测试数据集。
所述的U-net变体神经网络模型包含小波自适应去噪层和一个U型结构;
其中,小波自适应变换层将输入数据进行二维小波多尺度分解,得到输入数据的各尺度系数,然后根据自适应的阈值将所有小于阈值的各尺度系数舍去;再将剩下的各尺度系数进行逆变换,得到去噪后的数据;最后将去噪后的数据传入U型结构中的第一循环限定步长特征提取层;
U型结构从左至右、从上到下依次是第一循环限定步长特征提取层、第一最大池化层、第二循环限定步长特征提取层、第二最大池化层、第三循环限定步长特征提取层、第三最大池化层、第四循环限定步长特征提取层、第四最大池化层、第五循环限定步长特征提取层、第一上采样限定步长丰富特征层、第一注意力层、第一上采样循环限定步长特征处理层、第二上采样限定步长特征处理层、第二注意力层、第二上采样循环限定步长特征处理层、第三上采样卷积层、第三注意力层、第三上采样循环限定步长特征处理层、第四上采样卷积层、第四注意力层、第四上采样循环限定步长特征处理层和第一限定步长特征输出层。
所述的小波自适应变换层通过下述函数实现二维小波多尺度分解:
[C,S]=wavedec2(waveletDataab,2,′coif3′);
其中,C是输入数据的各尺度系数,S是各尺度系数的大小,waveletDataab是小波自适应变换层的输入数据,′coif3′为Coiflet小波基函数中的一种形式;
小波自适应变换层通过下述函数实现选取自适应阈值去噪:
nc1=wthcoef2(′h′,C,S,P);
nc2=wthcoef2(′v′,nc1,S,P);
nc3=wthcoef2(′d′,nc2,S,P);
其中,′h′,′v′,′d′分别代表从水平、垂直和对角三个方向来对各尺度系数进行去噪,nc1,nc2,nc3依次代表从水平、垂直和对角三个方向去噪后的各尺度系数,P是自适应阈值;
小波自适应变换层通过下述函数实现二维小波多尺度逆变换:
waveletResDataab=waverec2(nc3,S,′coif3′);
其中,waveletResDataab代表小波自适应变换层的输出数据,′coif3′是Coiflet小波基函数中的一种形式。
所述的每一层的循环限定步长特征提取层首先将输入数据进行限定步长特征提取,然后将经过限定步长特征提取后的数据进行二次循环特征提取;
使用限定步长特征提取数据进行二次循环特征提取的方法为:
Figure BDA0003867630640000041
inputDatak2=outputDatak1
Figure BDA0003867630640000042
其中,outputDatak1表示U-net变体神经网络模型的第k层第一次循环的输出数据,inputDatak1表示U-net变体神经网络模型的第k层第一次循环的输入数据,mk1和nk1表示inputDatak1的高度和宽度,Kernelk1表示U-net变体神经网络模型的第k层第一次循环的特征提取矩阵,stridek1表示U-net变体神经网络模型第k层第一次循环的特征提取矩阵在输入数据矩阵中每次移动的步长;k1表示变体神经网络模型第k层第一次循环;i,j分别代表inputDatak1第i行第j列;
outputDatak表示U-net变体神经网络模型的第k层第二次循环的输出数据,同时也是U-net变体神经网络第k层的输出;inputDatak2表示U-net变体神经网络模型的第k层第二次循环的输入数据,mk2和nk2表示inputDatak2的高度和宽度,Kernelk2表示U-net变体神经网络模型的第k层第二次循环的特征提取矩阵,stridek2表示U-net变体神经网络模型第k层第二次循环的特征提取矩阵在输入数据矩阵中每次移动的步长;k2表示变体神经网络模型第k层第二次循环。
所述的步骤C中,首先对步骤A中获得的训练数据集进行归一化处理;将归一化后的数据,按照序号升序划分为15张为一组的训练数据;然后将划分后的多组训练数据输入到U-net变体神经网络模型中进行迭代训练,并设定训练次数、学习率、batch size和损失函数;每次训练结束后,将本次训练的模型参数保存;当损失函数的值收敛于设定的损失值时,停止训练;训练次数为3000次,学习率为0.00001,batch size为1,损失值为20%,损失函数为MSE函数;MSE函数的公式为:
Figure BDA0003867630640000051
其中,D代表雷达图片的二维矩阵的范围,aq和bq分别指真实的雷达图片和预测出来的雷达图片的灰度值,其中q代表第q张雷达图片。
所述的步骤D包括以下具体步骤:
D1:将测试数据集中的连续的15张图像datan-datan+14,输入步骤C中得到的训练后的U-net变体神经网络模型中,得到以图像datan的采集时间为起点的未来90分钟内的连续的15张监测区域的灰度图片datan+1-datan+15
D2:将灰度图片datan+1-datan+15进行反归一化、重新着色和上采样后得到连续的15张监测区域的彩色雷达图片。
所述E步骤包含以下步骤:
E1:将步骤D1中得到的灰度图片中的所有像素值,按照设定的洪涝灾害阈值分为预测正例和预测负例,若灰度图像某一像素值大于洪涝灾害阈值,则该像素值为预测正例。若灰度图像某一像素值小于洪涝灾害阈值,则该像素值为预测负例;
E2:对实际时刻的彩色雷达图片按照比色卡转换为代表雷达回波强度的灰度图片,并对灰度图片按照F1中的步骤进行处理,将该灰度图片的所有像素值按照设定的洪涝灾害阈值分为预测正例和预测负例;
E3:将步骤E1和步骤E2中得到的灰度图片进行评分预测,评分指标分为空报率、漏报率和命中率;空报率是指在预报洪涝在灾害区域中实际没有洪涝的区域占总预报洪涝区域的比重,漏报率是指实际发生洪涝区域漏报的区域占全部实际洪涝区域的比重,命中率是指预测出的实际的洪涝区域占据全部实际洪涝区域的比重;
空报率的计算公式为FAR=(ypre-his)/ypre,漏报率的计算公式为MAR=(yobs-his)/yobs,命中率的计算公式为POD=his/yobs
其中,ypre代表预测为正例的区域的像素值,yobs代表实际为正例的区域的像素值,his代表预测为正例的区域和实际为正例的区域的交界区域的像素值。
所述的步骤F中,在调整训练后的U-net变体神经网络模型的参数时,若步骤E中的命中率低于设定的命中率阈值,则降低模型参数中的学习率来重新训练;若步骤E中的漏报率高于设定的漏报率阈值,则通过增大模型参数中的batch size的值来重新训练。
所述的步骤A1中,将生成时间作为彩色雷达图片的序号,并将15张按照序号升序排序的彩色雷达图片封装为一组彩色时间序列图片,每组彩色时间序列图片中所有的彩色雷达图片的检测区域均相同,每个彩色雷达图片均代表形状为[1024,1012,3]的三维数组;每组彩色时间序列图片均代表形状为[15,1024,1012,3]的四维数组dataList0;
步骤A2中,对形状为[15,1024,1012,3]的四维数组dataList0进行遍历,将dataList0中的数据按照比色卡中的规则(r,g,b)->x进行变换,遍历之后得到的灰度时间序列图片均代表形状为[15,1024,1012]的三维数组dataList1;
步骤A3中,在进行下采样时,对三维数组dataList1进行遍历,对三维数组dataList1中的数据,使用一个3像素*3像素大小的滑动窗口进行遍历,在遍历时取滑动窗口中的像素值的算数平均值作为融合后的像素值;经过处理之后的三维数组dataList1形状变为[15,256,256],其中,256,256代表经过下采样后灰度时间序列图片的尺寸为256像素*256像素;
步骤A4中,训练数据集划分时,将第1张至第15张灰度时间序列照片作为一组数据,将2张至第16张作为一组数据,以此类推。
本发明中,通过对彩色雷达图像进行处理得到灰度数据,并利用灰度数据数值所表征的雷达回波的强度去表示降雨量,通过预测降雨量对洪涝灾害进行预警;同时,本发明还特殊设计U-net变体神经网络模型,利用自适应小波变换将洪涝地区的雷达图像进行自适应去噪,结合去噪后的雷达图像使用注意力机制来提高U-net变体神经网络模型的性能,能够准确的预测未来一定时间内的降雨量,本发明能够捕捉在洪涝灾害预警中的非线性事件的能力,从而提高洪涝灾害预警的准确性。本发明还通过对U-net变体神经网络的性能进行分析,以根据性能分析结果进一步优化训练后的U-net变体神经网络模型,能够提高洪涝灾害预警的准确性。
附图说明
图1为本发明的流程示意图。
具体实施方式
以下结合附图和实施例对本发明作以详细的描述:
如图1所示,本发明所述的基于雷达图像的U-net变体神经网络的洪涝灾害预警方法,包括以下步骤:
A:获取监测区域的彩色雷达图片并转换为以像素数值代表雷达回波强度的灰度图片,然后根据得到的灰度图片建立训练数据集和测试数据集;
本发明中,将获取到的监测区域的彩色雷达图片,按照比色卡转换为像素数值代表雷达回波强度的灰度图片,灰度图片中每一个像素的数值代表该点的雷达回波强度。然后将转换得到的灰度图片按照每15张图片为一组划分成有效的训练数据集和测试数据集;
步骤A包括以下具体步骤:
A1:获取监测区域的彩色雷达图片,并将彩色雷达图片按照序号读取到四维数组中;四维数组中包含图片数量、图片像素大小和通道数;
洪涝灾害预警为短时预警,国内雷达探测的频率一般为6分钟一次,为了保证洪涝灾害预警的准确性,本实施例中对未来90分钟内的雷达图像的降雨量进行预测。为此,本实例中将生成时间作为彩色雷达图片的序号,并将15张按照序号升序排序的彩色雷达图片封装为一组彩色时间序列图片,且前后相邻的两张彩色雷达图片的时间间隔为6分钟,用于进行未来90分钟内的雷达图像预测。每组彩色时间序列图片中所有的彩色雷达图片的检测区域均相同,每个彩色雷达图片均代表形状为[1024,1012,3]的三维数组,其中1024,1012代表彩色雷达图片的大小为1024像素*1012像素,3代表彩色雷达图片的通道数;每组彩色时间序列图片均代表形状为[15,1024,1012,3]的四维数组dataList0,其中15代表该组彩色时间序列图片的图片数量,1024,1012代表彩色雷达图片的大小为1024像素*1012像素,3代表每张彩色雷达图片的通道数;
A2:对步骤A1中得到的四维数组dataList0进行遍历,将四维数组dataList0中的彩色数据根据比色卡转换为灰度数据,最终得到灰度时间序列图片;灰度数据的数值代表雷达回波的强度。
对于洪涝灾害预警,本发明只需对检测区域内的降雨量进行预测,而在雷达图像中,雷达回波强度是指检测区域的水汽的反射率,可以代表目标区域的降雨量。因此本发明中,利用雷达回波强度进行检测区域内的降雨量预测。
本实施例中,对形状为[15,1024,1012,3]的四维数组dataList0进行遍历,将dataList0中的数据按照比色卡中的规则(r,g,b)->x进行变换,遍历之后得到的灰度时间序列图片均代表形状为[15,1024,1012]的三维数组dataList1。
其中,比色卡为一个从彩色像素到雷达回波强度的映射表,对于dataList0中的任意一个彩色像素(r,g,b),都对应有唯一的一个雷达回波强度值x。
A3:将步骤A2中得到的灰度时间序列图片进行下采样,得到下采样后的灰度时间序列图片,以符合U-net变体神经网络模型的输入尺寸。
在A3步骤中得到的灰度时间序列图片中,40%左右的区域是空白区域,这是因为雷达所监控的区域存在部分地面。为了减少该空白区域对最终洪涝灾害预警效果影响,同时提高洪涝灾害预警的效率,本实施例中对灰度时间序列图片进行下采样;下采样的具体方法为:对三维数组dataList1进行遍历,对三维数组dataList1中的数据,使用一个3像素*3像素大小的滑动窗口进行遍历,在遍历时取滑动窗口中的像素值的算数平均值作为融合后的像素值。经过处理之后的三维数组dataListl形状变为[15,256,256]。其中,256,256代表经过下采样后灰度时间序列图片的尺寸为256像素*256像素。
A4:将步骤A3中得到的下采样后的灰度时间序列图片,按照灰度时间序列图片序号升序排序划分为15张为一组的训练数据,最终得到多组训练数据。将多组训练数据划分成训练数据集和测试数据集。其中训练数据集占全部训练数据的70%,测试数据集占全部训练数据的30%。
步骤A4中,所得到训练数据集用于随机输入到U-net变体神经网络模型中进行训练。训练数据集划分时,将第1张至第15张灰度时间序列照片作为一组数据,将2张至第16张作为一组数据,以此类推。随机输入的形式能够提高U-net变体神经网络模型的泛化能力,使得该发明能广泛的运用于在各种地形上的洪涝灾害预警,并且够让U-net变体神经网络模型更好地学习到洪涝区域中的雷达图片的特征。
B:建立U-net变体神经网络模型;
U-net变体神经网络模型包含小波自适应去噪层和一个U型结构;其中U型结构从左至右、从上到下依次是第一循环限定步长特征提取层、第一最大池化层、第二循环限定步长特征提取层、第二最大池化层、第三循环限定步长特征提取层、第三最大池化层、第四循环限定步长特征提取层、第四最大池化层、第五循环限定步长特征提取层、第一上采样限定步长丰富特征层、第一注意力层、第一上采样循环限定步长特征处理层、第二上采样限定步长特征处理层、第二注意力层、第二上采样循环限定步长特征处理层、第三上采样卷积层、第三注意力层、第三上采样循环限定步长特征处理层、第四上采样卷积层、第四注意力层、第四上采样循环限定步长特征处理层和第一限定步长特征输出层;
其中,根据对A3步骤中得到的灰度时间序列图片进行傅里叶频谱图分析,分析结果显示在地形较复杂和建筑物密集的区域,傅里叶频谱图明亮的点较多。这说明不同地形和建筑物分布会对采集到的雷达回波图像产生一定的噪声,而这些噪声会对最终洪涝灾害预警效果造成误差。为了减少误差,本发明添加了小波自适应变换层来对输入数据进行去噪。同时,特定的地形或者特定的建筑物分布所带来的噪声是特定的,为了去除特定的噪声,本发明中小波自适应变换层增加了一个自适应的阈值,该阈值能够通过U-net变体神经网络模型自动学习得到,自动适应不同的噪声。这使得我们的发明能够广泛应用于各种地形和城市。小波自适应变换层将输入数据进行二维小波多尺度分解,得到输入数据的各尺度系数,然后根据自适应的阈值将所有小于阈值的各尺度系数舍去,舍去相应的各尺度系数的过程也就是去噪的过程。随后再将剩下的各尺度系数进行逆变换,得到去噪后的数据,实现二维小波多尺度逆变换。最后将去噪后的数据传入U型结构中的第一循环限定步长特征提取层。
二维小波多尺度分解可通过python中的wavedec2函数来实现:
[C,S]=wavedec2(waveletDataab,2,′coif3′)
其中,C是输入数据的各尺度系数,S是各尺度系数的大小,waveletDataab是小波自适应变换层的输入数据,同时也是第a组训练数据集中的第b张灰度照片数据,′coif3′是Coiflet小波基函数中的一种形式,它指定了wavedec2函数将以Coiflet小波作为基函数进行二维小波多尺度分解。
选取自适应阈值去噪的过程可通过python中的wthcoef2函数来实现:
nc1=wthcoef2(′h′,C,S,P)
nc2=wthcoef2(′v′,nc1,S,P)
nc3=wthcoef2(′d′,nc2,S,P)
其中,′h′,′v′,′d′分别代表从水平、垂直和对角三个方向来对各尺度系数进行去噪,nc1,nc2,nc3依次代表从水平、垂直和对角三个方向去噪后的各尺度系数,P是自适应阈值,自适应阈值的数值可由U-net变体神经网络模型自动学习得到。
二维小波多尺度逆变换的过程可通过python的waverec 2函数来实现的:
waveletResDataab=waverec2(nc3,S,′coif3′)
其中waveletResDataab代表小波自适应变换层的输出数据,同时也是第a组训练数据集中的第b张灰度照片经过自适应去噪后的数据,′coif3′是Coiflet小波基函数中的一种形式,它指定了waverec2函数将以Coiflet小波作为基函数进行二维小波多尺度逆变换。
U型结构中的第一至第五循环限定步长特征提取层,均用于将输入数据进行两次限定步长特征提取,然后将输出的数据传输至对应的池化层;第一至第五循环限定步长特征提取层能够能更好的提取灰度时间序列图片的上下文特征;
U型结构中的第一至第四最大池化层,均用于对前一层循环限定步长特征提取层输出的数据进行降维处理,然后将经降维处理的数据输出至下一层循环限定步长特征提取层,作为下一层循环限定步长特征提取层的输入数据;第一至第四最大池化层能够达到减少冗余、减少无用参数和减少计算量的目的。
U型结构中的第一上采样限定步长丰富特征层,用于在数据之间插入符合原始数据特征的值,以达到丰富特征和数据升维的目的。
U型结构中的第一至第四注意力层,用于找到具有密度较高的特征的数据区域,以提高U-net变体神经网络模型的效率和性能,便于在洪涝灾害预警中对降雨量较大的区域的特征进行重点计算。
U型结构中的第一至第四上采样循环限定步长特征处理层,用于实现循环限定步长特征的提取。以丰富特征和数据升维。
U型结构中的第二上采样限定步长特征处理层,通过重新建立上采样来恢复之前在池化层降低的维度数据。
U型结构中的第三和第四上采样卷积层,通过上采样操作和卷积操作逐步地将数据进行升维操作,并逐步扩大数据的形状。
U型结构中的第一限定步长特征输出层,位于U-net变体神经网络模型的最下游,用于将数据按照固定形状输出。
本发明中,U型结构中的每一层的循环限定步长特征提取层首先将输入数据进行限定步长特征提取,然后将经过限定步长特征提取后的数据进行二次循环特征提取。
使用限定步长特征提取数据进行二次循环特征提取的方法为:
Figure BDA0003867630640000121
inputDatak2=outputDatak1
Figure BDA0003867630640000122
其中,outputDatak1是一个二维矩阵,表示U型结构第k层第一次循环的输出数据,inputDatak1是一个二维矩阵,表示U型结构第k层第一次循环的输入数据,mk1和nk1表示inputDatak1的高度和宽度,Kernelk1是一个固定大小的二维矩阵,表示U型结构第k层第一次循环的特征提取矩阵,stridek1为设定值,表示U型结构第k层第一次循环的特征提取矩阵在输入数据矩阵中每次移动的步长;k1表示变体神经网络模型第k层第一次循环;i,j分别代表inputDatak1第i行第j列。
outputDatak,表示U型结构中的第k层第二次循环的输出数据,同时也是U型结构第k层的输出;inputDatak2是一个二维矩阵,表示U型结构第k层第二次循环的输入数据,mk2和nk2表示inputDatak2的高度和宽度,Kernelk2是一个固定大小的二维矩阵,表示U型结构第k层第二次循环的特征提取矩阵,stridek2为设定值,表示U型结构第k层第二次循环的特征提取矩阵在输入数据矩阵中每次移动的步长;k2表示U型结构第k层第二次循环;
C:将步骤A4中获得的训练数据集,输入步骤B中建立的U-net变体神经网络模型中进行迭代训练,直至U-net变体神经网络模型收敛于设定的损失值,得到训练后的U-net变体神经网络模型。
本发明中,首先对步骤A中获得的训练数据集进行归一化处理;将归一化后的数据,按照序号升序划分为15张为一组的训练数据,划分的方法如步骤A4中一致。将划分后的多组训练数据输入到U-net变体神经网络模型中进行迭代训练,并设定训练次数、学习率、batch size和损失函数;每次训练结束后,将本次训练的模型参数保存到电脑硬盘中;当损失函数的值收敛于设定的损失值时,停止训练。
本实施中,在进行归一化处理时,可采用数据区间映射法,将步骤A中获得的训练数据集中的灰度图像像素值的值域映射到[0,1]区间中,能够提高U-net变体神经网络模型的拟合数据的能力,并且能提高训练模型的效率。步骤A中获得的训练数据集中的灰度图像像素值的值域初始范围在0-75之间,可通过将步骤A中的所有数据除以75来实现归一化,使映射后的训练数据集中的灰度图像像素值的值域处于[0,1]区间。
训练次数可为3000次,学习率可为0.00001,batch size为1,损失函数可为MSE。
MSE函数为均方误差,计算方法是求预测值与真实值之间距离的平方和,公式为:
Figure BDA0003867630640000131
D代表雷达图片的二维矩阵的范围,aq和bq分别指真实的雷达图片和预测出来的雷达图片的灰度值,其中q代表第q张雷达图片。
设定的损失值可为20%;当损失函数的值小于等于20%时停止训练。
D:将步骤A中测试数据集的数据放入步骤C中训练后的U-net变体神经网络模型进行测试,得到以测试数据集中首张图像采集时间为起点的未来90分钟内的监测区域的雷达图像;
所述的步骤D包括以下具体步骤:
D1:将测试数据集中的连续的15张图像datan-datan+14,输入步骤C中得到的训练后的U-net变体神经网络模型,得到以图像datan的采集时间为起点的未来90分钟内的连续的15张监测区域的灰度图片datan+1-datan+15
D2:将灰度图片datan+1-datan+15进行反归一化、重新着色和上采样后得到连续的15张监测区域的彩色雷达图片。
本实施例中,将灰度图片datan+1-datan+15中的所有值乘以75,并向下取值得到整形的数据。重新着色时datan+1-datan+15中的每一个雷达回波强度值x按照比色卡X->(r,g,b)中的规则转换为彩色雷达图。其中(r,g,b)代表雷达回波强度值所对应的彩色像素,其中灰度图片灰度值代表雷达回波强度值。再通过限定步长特征提取器进行上采样得到形状为[15,1024,1012,3]的一组长度为15的彩色雷达图片。每张彩色雷达图片的间隔为6分钟,15张图片为以测试数据集中首张图像采集时间为起点的未来90分钟内的处于洪涝区域内的彩色雷达图片。
本发明中,还通过下述方法对训练后的U-net变体神经网络模型进行进一步的优化:
E:对步骤D中得到的以测试数据集中首张图像采集时间为起点的未来90分钟内的雷达图像进行质量评估,得到U-net变体神经网络的性能分析结果;
所述E步骤包含以下步骤:
E1:将步骤D1中得到的灰度图片中的所有像素值,按照设定的洪涝灾害阈值分为预测正例和预测负例,若灰度图像某一像素值大于洪涝灾害阈值,则该像素值为预测正例。若灰度图像某一像素值小于洪涝灾害阈值,则该像素值为预测负例。
在本步骤中,设定的洪涝灾害阈值为45,当某一像素值大于等于45,则说明该像素值所代表的区域很有可能发生洪涝灾害,该像素为预测正例。当某一像素值小于45,则说明该像素值所代表的区域不太可能发生洪涝灾害,该像素为预测负例。
E2:对实际时刻的彩色雷达图片按照比色卡转换为代表雷达回波强度的灰度图片,并对灰度图片按照E1中的步骤进行处理,将该灰度图片的所有像素值按照设定的洪涝灾害阈值分为预测正例和预测负例。
E3:将步骤E1和步骤E2中得到的灰度图片进行评分预测,评分指标分为空报率(FAR),漏报率(MAR),命中率(POD)。
其中空报率是指在预报洪涝在灾害区域中实际没有洪涝的区域占总预报洪涝区域的比重。漏报率是指实际发生洪涝区域漏报的区域占全部实际洪涝区域的比重。命中率是指预测出的实际的洪涝区域占据全部实际洪涝区域的比重。
在本步骤中,空报率为FAR=(ypre-his)/ypre,漏报率为MAR=(yobs-his)/yobs,命中率为POD=his/yobs
ypre代表预测为正例的区域的像素值,yobs代表实际为正例的区域的像素值,his代表预测为正例的区域和实际为正例的区域的交界区域的像素值。
其中空报率,漏报率的值越低,命中率越高表示洪涝预测的结果越准确,U-net变体神经网络模型的性能越好。
F:根据步骤E中得到的性能分析结果,调整步骤C中训练后的U-net变体神经网络模型参数,对训练后的U-net变体神经网络模型进行优化。
在调整训练后的U-net变体神经网络模型的参数时:
若步骤E中的命中率低于设定的命中率阈值,说明该模型欠拟合,则通过降低步骤C中的学习率来重新训练,可以提高U-net变体神经网络的拟合能力;若步骤E中的漏报率高于设定的漏报率阈值,说明该模型过拟合,则通过增大步骤C中的batch size的值来重新训练,可以提高U-net变体神经网络的泛化能力。
G:根据优化后的U-net变体神经网络模型,利用彩色雷达图片进行洪涝预警。

Claims (10)

1.一种基于雷达图像的U-net变体神经网络的洪涝预警方法,其特征在于:依次包括以下步骤:
A:获取监测区域的彩色雷达图片并转换为以像素数值代表雷达回波强度的灰度图片,然后根据得到的灰度图片建立训练数据集和测试数据集;
B:建立U-net变体神经网络模型;
C:将步骤A中获得的训练数据集,输入步骤B中建立的U-net变体神经网络模型中进行迭代训练,直至U-net变体神经网络模型收敛于设定的损失值,得到训练后的U-net变体神经网络模型;
D:将步骤A中测试数据集的数据放入步骤C中训练后的U-net变体神经网络模型进行测试,得到以测试数据集中首张图像采集时间为起点的未来90分钟内的监测区域的雷达图像;
E:对步骤D中得到的以测试数据集中首张图像采集时间为起点的未来90分钟内的雷达图像进行质量评估,得到U-net变体神经网络的性能分析结果;
F:根据步骤E中得到U-net变体神经网络的性能分析结果,调整步骤C中训练后的U-net变体神经网络模型参数,对训练后的U-net变体神经网络模型进行优化;
G:根据优化后的U-net变体神经网络模型,利用彩色雷达图片进行洪涝预警。
2.根据权利要求1所述的基于雷达图像的U-net变体神经网络的洪涝预警方法,其特征在于,所述的步骤A包括以下具体步骤:
A1:获取监测区域的彩色雷达图片,并将彩色雷达图片按照序号读取到四维数组dataList0中;四维数组dataList0中包含图片数量、图片像素大小和通道数;
A2:对步骤A1中得到的四维数组dataList0进行遍历,将四维数组dataList0中的彩色数据根据比色卡转换为灰度数据,最终得到灰度时间序列图片;灰度数据的数值代表雷达回波的强度;
A3:将步骤A2中得到的灰度时间序列图片进行下采样,得到下采样后的灰度时间序列图片;
A4:将步骤A3中得到的下采样后的灰度时间序列图片,按照灰度时间序列图片序号升序排序划分为15张为一组的训练数据,最终得到多组训练数据;然后将多组训练数据划分成训练数据集和测试数据集。
3.根据权利要求1所述的基于雷达图像的U-net变体神经网络的洪涝预警方法,其特征在于:所述的U-net变体神经网络模型包含小波自适应去噪层和一个U型结构;
其中,小波自适应变换层将输入数据进行二维小波多尺度分解,得到输入数据的各尺度系数,然后根据自适应的阈值将所有小于阈值的各尺度系数舍去;再将剩下的各尺度系数进行逆变换,得到去噪后的数据;最后将去噪后的数据传入U型结构中的第一循环限定步长特征提取层;
U型结构从左至右、从上到下依次是第一循环限定步长特征提取层、第一最大池化层、第二循环限定步长特征提取层、第二最大池化层、第三循环限定步长特征提取层、第三最大池化层、第四循环限定步长特征提取层、第四最大池化层、第五循环限定步长特征提取层、第一上采样限定步长丰富特征层、第一注意力层、第一上采样循环限定步长特征处理层、第二上采样限定步长特征处理层、第二注意力层、第二上采样循环限定步长特征处理层、第三上采样卷积层、第三注意力层、第三上采样循环限定步长特征处理层、第四上采样卷积层、第四注意力层、第四上采样循环限定步长特征处理层和第一限定步长特征输出层。
4.根据权利要求3所述的基于雷达图像的U-net变体神经网络的洪涝预警方法,其特征在于:所述的小波自适应变换层通过下述函数实现二维小波多尺度分解:
[C,S]=wavedec2(waveletDataab,2,′coif3′);
其中,C是输入数据的各尺度系数,S是各尺度系数的大小,waveletDataab是小波自适应变换层的输入数据,′coif3′为Coiflet小波基函数中的一种形式;
小波自适应变换层通过下述函数实现选取自适应阈值去噪:
nc1=wthcoef2(′h′,C,S,P);
nc2=wthcoef2(′v′,nc1,S,P);
nc3=wthcoef2(′d′,nc2,S,P);
其中,′h′,′v′,′d′分别代表从水平、垂直和对角三个方向来对各尺度系数进行去噪,nc1,nc2,nc3依次代表从水平、垂直和对角三个方向去噪后的各尺度系数,P是自适应阈值;
小波自适应变换层通过下述函数实现二维小波多尺度逆变换:
waveletResDataab=waverec2(nc3,S,′coif3′);
其中,waveletResDataab代表小波自适应变换层的输出数据,′coif3′是Coiflet小波基函数中的一种形式。
5.根据权利要求3所述的基于雷达图像的U-net变体神经网络的洪涝预警方法,其特征在于:所述的每一层的循环限定步长特征提取层首先将输入数据进行限定步长特征提取,然后将经过限定步长特征提取后的数据进行二次循环特征提取;
使用限定步长特征提取数据进行二次循环特征提取的方法为:
Figure FDA0003867630630000031
inputDatak2=outputDatak1
Figure FDA0003867630630000032
其中,outputDatak1表示U-net变体神经网络模型的第k层第一次循环的输出数据,inputDatak1表示U-net变体神经网络模型的第k层第一次循环的输入数据,mk1和nk1表示inputDatak1的高度和宽度,Kernelk1表示U-net变体神经网络模型的第k层第一次循环的特征提取矩阵,stridek1表示U-net变体神经网络模型第k层第一次循环的特征提取矩阵在输入数据矩阵中每次移动的步长;k1表示变体神经网络模型第k层第一次循环;i,j分别代表inputDatak1第i行第j列;
outputDatak表示U-net变体神经网络模型的第k层第二次循环的输出数据,同时也是U-net变体神经网络第k层的输出;inputDatak2表示U-net变体神经网络模型的第k层第二次循环的输入数据,mk2和nk2表示inputDatak2的高度和宽度,Kernelk2表示U-net变体神经网络模型的第k层第二次循环的特征提取矩阵,stridek2表示U-net变体神经网络模型第k层第二次循环的特征提取矩阵在输入数据矩阵中每次移动的步长;k2表示变体神经网络模型第k层第二次循环。
6.根据权利要求1所述的基于雷达图像的U-net变体神经网络的洪涝预警方法,其特征在于:所述的步骤C中,首先对步骤A中获得的训练数据集进行归一化处理;将归一化后的数据,按照序号升序划分为15张为一组的训练数据;然后将划分后的多组训练数据输入到U-net变体神经网络模型中进行迭代训练,并设定训练次数、学习率、batch size和损失函数;每次训练结束后,将本次训练的模型参数保存;当损失函数的值收敛于设定的损失值时,停止训练;训练次数为3000次,学习率为0.00001,batch size为1,损失值为20%,损失函数为MSE函数;MSE函数的公式为:
Figure FDA0003867630630000041
其中,D代表雷达图片的二维矩阵的范围,aq和ba分别指真实的雷达图片和预测出来的雷达图片的灰度值,其中q代表第q张雷达图片。
7.根据权利要求1所述的基于雷达图像的U-net变体神经网络的洪涝预警方法,其特征在于,所述的步骤D包括以下具体步骤:
D1:将测试数据集中的连续的15张图像datan-datan+14,输入步骤C中得到的训练后的U-net变体神经网络模型中,得到以图像datan的采集时间为起点的未来90分钟内的连续的15张监测区域的灰度图片datan+1-datan+15
D2:将灰度图片datan+1-datan+15进行反归一化、重新着色和上采样后得到连续的15张监测区域的彩色雷达图片。
8.根据权利要求7所述的基于雷达图像的U-net变体神经网络的洪涝预警方法,其特征在于,所述E步骤包含以下步骤:
E1:将步骤D1中得到的灰度图片中的所有像素值,按照设定的洪涝灾害阈值分为预测正例和预测负例,若灰度图像某一像素值大于洪涝灾害阈值,则该像素值为预测正例;若灰度图像某一像素值小于洪涝灾害阈值,则该像素值为预测负例;
E2:对实际时刻的彩色雷达图片按照比色卡转换为代表雷达回波强度的灰度图片,并对灰度图片按照E1中的步骤进行处理,将该灰度图片的所有像素值按照设定的洪涝灾害阈值分为预测正例和预测负例;
E3:将步骤E1和步骤E2中得到的灰度图片进行评分预测,评分指标分为空报率、漏报率和命中率;空报率是指在预报洪涝在灾害区域中实际没有洪涝的区域占总预报洪涝区域的比重,漏报率是指实际发生洪涝区域漏报的区域占全部实际洪涝区域的比重,命中率是指预测出的实际的洪涝区域占据全部实际洪涝区域的比重;
空报率的计算公式为FAR=(ypre-his)/ypre,漏报率的计算公式为MAR=(yobs-his)/yobs,命中率的计算公式为POD=his/yobs
其中,ypre代表预测为正例的区域的像素值,yobs代表实际为正例的区域的像素值,his代表预测为正例的区域和实际为正例的区域的交界区域的像素值。
9.根据权利要求8所述的基于雷达图像的U-net变体神经网络的洪涝预警方法,其特征在于:所述的步骤F中,在调整训练后的U-net变体神经网络模型的参数时,若步骤E中的命中率低于设定的命中率阈值,则降低模型参数中的学习率重新训练;若步骤E中的漏报率高于设定的漏报率阈值,则通过增大模型参数中的batch size的值来重新训练。
10.根据权利要求2所述的基于雷达图像的U-net变体神经网络的洪涝预警方法,其特征在于:
所述的步骤A1中,将生成时间作为彩色雷达图片的序号,并将15张按照序号升序排序的彩色雷达图片封装为一组彩色时间序列图片,每组彩色时间序列图片中所有的彩色雷达图片的检测区域均相同,每个彩色雷达图片均代表形状为[1024,1012,3]的三维数组;每组彩色时间序列图片均代表形状为[15,1024,1012,3]的四维数组dataList0;
步骤A2中,对形状为[15,1024,1012,3]的四维数组dataList0进行遍历,将dataList0中的数据按照比色卡中的规则(r,g,b)->x进行变换,遍历之后得到的灰度时间序列图片均代表形状为[15,1024,1012]的三维数组dataList1;
步骤A3中,在进行下采样时,对三维数组dataList1进行遍历,对三维数组dataList1中的数据,使用一个3像素*3像素大小的滑动窗口进行遍历,在遍历时取滑动窗口中的像素值的算数平均值作为融合后的像素值;经过处理之后的三维数组dataList1形状变为[15,256,256],其中,256,256代表经过下采样后灰度时间序列图片的尺寸为256像素*256像素;
步骤A4中,训练数据集划分时,将第1张至第15张灰度时间序列照片作为一组数据,将2张至第16张作为一组数据,以此类推。
CN202211188983.7A 2022-09-27 2022-09-27 基于雷达图像的U-net变体神经网络的洪涝预警方法 Pending CN115512299A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211188983.7A CN115512299A (zh) 2022-09-27 2022-09-27 基于雷达图像的U-net变体神经网络的洪涝预警方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211188983.7A CN115512299A (zh) 2022-09-27 2022-09-27 基于雷达图像的U-net变体神经网络的洪涝预警方法

Publications (1)

Publication Number Publication Date
CN115512299A true CN115512299A (zh) 2022-12-23

Family

ID=84505418

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211188983.7A Pending CN115512299A (zh) 2022-09-27 2022-09-27 基于雷达图像的U-net变体神经网络的洪涝预警方法

Country Status (1)

Country Link
CN (1) CN115512299A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117907965A (zh) * 2024-03-19 2024-04-19 江苏省气象台 面向对流风暴精细结构的三维雷达回波临近预报方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117907965A (zh) * 2024-03-19 2024-04-19 江苏省气象台 面向对流风暴精细结构的三维雷达回波临近预报方法
CN117907965B (zh) * 2024-03-19 2024-05-24 江苏省气象台 面向对流风暴精细结构的三维雷达回波临近预报方法

Similar Documents

Publication Publication Date Title
CN111310862B (zh) 复杂环境下基于图像增强的深度神经网络车牌定位方法
CN108427920B (zh) 一种基于深度学习的边海防目标检测方法
CN111626993A (zh) 一种基于嵌入式FEFnet网络的图像自动检测计数方法及系统
CN110826428A (zh) 一种高速的sar图像中船只检测方法
CN112597815A (zh) 一种基于Group-G0模型的合成孔径雷达图像舰船检测方法
CN105260998A (zh) 基于mcmc采样和阈值低秩逼近的图像去噪方法
CN110991257B (zh) 基于特征融合与svm的极化sar溢油检测方法
CN112560918A (zh) 一种基于改进YOLO v3的菜品识别方法
CN109635726B (zh) 一种基于对称式深度网络结合多尺度池化的滑坡识别方法
CN108830808B (zh) 基于相似线窗口均值补偿的星上红外图像条纹噪声去除方法
CN115131325A (zh) 一种基于图像识别分析的断路器故障运维监测方法及系统
CN113610024B (zh) 一种多策略的深度学习遥感影像小目标检测方法
CN116030396B (zh) 一种用于视频结构化提取的精确分割方法
CN115497015A (zh) 一种基于卷积神经网络的河流漂浮污染物识别方法
CN117576724A (zh) 一种无人机飞鸟检测方法、系统、设备和介质
CN115512299A (zh) 基于雷达图像的U-net变体神经网络的洪涝预警方法
CN116309178A (zh) 一种基于自适应注意力机制网络的可见光图像去噪方法
CN116385281A (zh) 一种基于真实噪声模型与生成对抗网络的遥感图像去噪方法
CN117853735A (zh) 一种单幅图像混合雨水去除方法
CN117314751A (zh) 一种基于生成式对抗网络的遥感图像超分辨率重建方法
CN117218545A (zh) 基于LBP特征与改进Yolov5的雷达图像检测方法
CN115830514B (zh) 一种适用于带弯曲河道的全河段表面流速计算方法及系统
CN114821174B (zh) 一种基于内容感知的输电线路航拍图像数据清洗方法
CN115223033A (zh) 一种合成孔径声呐图像目标分类方法及系统
CN115100091A (zh) 一种sar图像转光学图像的转换方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination