CN114998373A - 基于多尺度损失函数的改进型U-Net云图分割方法 - Google Patents

基于多尺度损失函数的改进型U-Net云图分割方法 Download PDF

Info

Publication number
CN114998373A
CN114998373A CN202210671342.0A CN202210671342A CN114998373A CN 114998373 A CN114998373 A CN 114998373A CN 202210671342 A CN202210671342 A CN 202210671342A CN 114998373 A CN114998373 A CN 114998373A
Authority
CN
China
Prior art keywords
convolution
loss function
net
improved
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210671342.0A
Other languages
English (en)
Inventor
吉茹
张银胜
杨宇龙
周乐佳
徐文校
吕宗奎
付相为
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Information Science and Technology
Original Assignee
Nanjing University of Information Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Information Science and Technology filed Critical Nanjing University of Information Science and Technology
Priority to CN202210671342.0A priority Critical patent/CN114998373A/zh
Publication of CN114998373A publication Critical patent/CN114998373A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了基于多尺度损失函数的改进型U‑Net云图分割方法,包括以下步骤:(1)获取全天空图像分割数据库,对全天空图像分割数据库包含的云图以及与其对应的二值标签进行预处理获得数据集;(2)利用改变卷积方式、添加高效通道注意力机制、修改归一化、添加多尺度特征融合的方法构建改进U‑Net框架;(3)结合Dice损失函数、交叉熵损失函数、边界损失函数和Log_Cosh损失函数的优点,提出改进的复合损失函数;(4)将步骤1得到的数据集输入改进型U‑Net模型进行训练、测试,获得最佳参数模型,输出预测效果图。本发明使得云图分割准确率更高、泛化效果更好,具有非常重要的研究和应用价值。

Description

基于多尺度损失函数的改进型U-Net云图分割方法
技术领域
本发明属于深度学习领域,特别涉及了基于多尺度损失函数的改进型U-Net云图分割方法。
背景技术
随着遥感图像处理技术的发展,云作为一种重要的气象要素,在短时天气预报、降水量预测、卫星通信连接等方面得到广泛应用,云图分割作为云图分析的第一步骤,具有非常重要的研究意义。云层的光谱信息由粒子大小、水汽、高度、光学厚度等因素决定,影像上云的光谱特征存在多种表现形式,云本身的亮度、透明度以及纹理形状等特征的表现形式存在差异性,在高分辨率的遥感卫星图像中,部分区域会被云团污染,甚至会被完全遮盖,进而影响遥感图像的分类、分割、变化检测以及图像匹配等。
专家学者做了大量的研究,基于阈值法如Long等人通过计算RGB颜色空间中的R通道与B通道的比值,然后根据比值选取合适的阈值来确定云与非云的区域;随着机器学习的发展Taravat等人拓展了机器学习算法——支持向量机和神经网络在云图领域的自动分割算法;随着深度学习的发展,Ronneberger等人提出用于图像分割的U-Net,通过跳跃连接将编码解码的特征图进行拼接,有效融合浅层细节信息和深层语义信息。但是传统的基于阈值法和机器学习方法的云图分割对算法的参数选取非常敏感,而且依赖研究人员做大量的特征提取,用于图像分割的U-Net会等权重地分配特征张量上所有空间位置和通道上的信息,而产生大量的计算冗余,导致模型训练速度变慢,分割精度变低。
发明内容
发明目的:针对背景技术中云图分割存在的问题,提出一种基于改进损失函数的改进型U-Net的遥感云图分割方法,准确率更高、泛化效果更好,具有非常重要的研究和应用价值。
技术方案:基于多尺度损失函数的改进型U-Net云图分割方法,包括以下步骤:
(1)获取全天空图像分割数据库,对全天空图像分割数据库包含的云图以及与其对应的二值标签进行预处理获得数据集;
(2)利用改变卷积方式、添加高效通道注意力机制、修改归一化和添加多尺度特征融合的方法构建改进型U-Net模型;
(3)提出改进型U-Net模型的改进复合损失函数,表达式为:
Limprove=βLimprove2+(1-β)LB
其中,LB表示边界损失函数,边界损失函数的公式如下:
Figure BDA0003694750020000021
其中,
Figure BDA0003694750020000022
ΔS=|S|-|S∩G|+|G|-|S∩G|,S为预测结果边界上的像素点,G为真实标签边界上的像素点,p为标签边界上的任一像素点,q为△S内的任一像素点,DG(q)为两个像素点之间的距离;
β初始值设置为1,每一轮训练减小0.01;
Limprove2为结合Dice损失函数和交叉熵损失函数的函数,表达式为:
Limprove2=αLimprove1+(1-α)LCE
其中α为超参数,LCE为交叉熵损失函数,公式如下:
Figure BDA0003694750020000023
其中,N为特征图中像素点的个数,pi∈[0,1]为模型预测的分割图中第i个像素点的值,gi∈{0,1}为二值标签中第i个像素点的值;
Limprove1为结合Dice损失函数与Log_Cosh损失函数的函数,表达式为:
Limprove1=log(Cosh(LDice))
所述Log_Cosh损失函数的公式如下:
LLog_Cosh=log(Cosh(x))
其中,LDice为Dice损失函数,表达式如下:
Figure BDA0003694750020000024
其中,A、B分别指模型预测结果与真实标签结果,smooth是平滑因子,N为特征图中像素点的个数,pi∈[0,1]为模型预测的分割图中第i个像素点的值,gi∈{0,1}为二值标签中第i个像素点的值。
(4)将步骤(1)得到的数据集输入改进型U-Net模型进行训练、测试,获得最佳参数模型,输出预测效果图。
所述步骤(1)的具体过程如下:
(1.1)获取全天空图像分割数据库包含的天空—云图以及与其对应的二值标签;
(1.2)将训练样本被随机切分为小样本,并对样本集采用数据增强方法,将数据集扩充为原来的十倍,将其分为3部分,训练集占80%,验证集占10%,测试集占10%。
所述步骤(1.2)中,数据增强方法包括随机修剪,平移变换和噪声扰动。
所述步骤(2)的具体过程如下:
(2.1)利用改变卷积方式的方法改进U-Net具体为:以U-Net分割模型为基础,将编码部分中前两层和第三层的第一个卷积换成可变形卷积;
(2.2)利用添加高效通道注意力机制的方法改进U-Net具体为:以(2.1)模型为基础,在编码部分前三层输出的特征图后添加通道注意力机制,编码部分输出的特征图经过高效通道注意力机制生成一维注意力向量后,与原特征图进行对应元素相乘,得到加权后的特征图,特征图大小不变,对前三层加权后的特征图进行下采样操作,将前三层加权后的特征图与解码部分的特征图进行拼接操作;
(2.3)利用修改归一化的方法改进U-Net具体为:以(2.2)模型为基础,将WeightNormalization加在U-Net的卷积层和激活层中间,重写深度网络的权重,通过对网络参数进行标准化实现归一化操作;
(2.4)利用添加多尺度特征融合的方法改进U-Net具体为:以(2.3)模型为基础,对编码部分最后一层输出的特征图和解码部分每一层输出的特征图进行多尺度特征融合。
所述(2.1)中编码部分为5层:第一层包括2个相同的可变卷积块deform-conv11、deform-conv12,可变卷积块主要由两个卷积块组成,其中一个卷积块均由18个步长为1,padding为1,大小为3×3的偏移量卷积核组成,另一个卷积块分别由32个步长为1,padding为1,大小为3×3的标准卷积核conv11、conv12组成;第二层包括2个相同的可变卷积块deform-conv21、deform-conv22,可变卷积块主要由两个卷积块组成,其中一个卷积块均由18个步长为1,padding为1,大小为3×3的偏移量卷积核组成,另一个卷积块分别由64个步长为1,padding为1,大小为3×3的标准卷积核conv21、conv22组成;第三层包括2个卷积块deform-conv3和conv3,其中conv3由128个步长为1,padding为1,大小为3×3的标准卷积核组成,deform-conv3由18个步长为1,padding为1,大小为3×3的偏移量卷积和conv3组成;第四层包括2个相同的卷积块conv4,均由256个步长为1,padding为1,大小为3×3的标准卷积核组成;第五层包括2个相同的卷积块conv5,均由512个步长为1,padding为1,大小为3×3的标准卷积核组成;该模型中解码部分为4层:均由一个上采样模块、两个与编码部分相对应的相同的标准卷积模块组成,各层各模块中卷积核的个数分别为(512,256,256)、(256,128,128)、(128,64,64)、(64,32,32),且核的大小均为3×3,同时第四层包括一个卷积块,由2个步长1,padding为1,大小为1×1的卷积核组成。
所述步骤(2.4)中编码部分最后一层输出的特征图经过上采样与解码部分第一层输出的特征图进行拼接,将拼接后的特征图经过上采样和一个3×3×256的卷积与解码部分第二层输出的特征图进行拼接,将拼接后的特征图经过上采样和一个3×3×128的卷积与解码部分第三层输出的特征图进行拼接,将拼接后的特征图经过上采样和一个3×3×64的卷积与解码部分第四层输出的特征图进行拼接,将拼接后的特征图经过3×3×32的卷积,再经过1×1的卷积核。
步骤(4)的具体过程如下:
(4.1)将步骤(1)中的数据集的80%作为训练集和10%作为验证集输入到改进的U-Net模型中进行训练,通过带标签的数据监督学习,利用梯度下降算法微调整个网络参数,最小化复合损失函数,获得最佳参数模型;
(4.2)将步骤(1)中的数据集的10%作为测试集输入到(4.1)中的最佳参数模型中进行测试,输出预测效果图;
(4.3)将(4.2)中的预测效果图与标签图进行比较,得到改进的U-Net比较输出结果。
有益效果:通过改变U-Net的卷积方式、添加高效通道注意力机制、添加多尺度特征融合的方法,能够提取更加丰富且准确的特征信息,使得分割结果和泛化效果更加准确;将Weight Normalization加在U-Net的卷积层和激活层中间代替Batch Normalization实现归一化,引入更少噪声的同时,处理速度更快;提出改进的复合损失函数使网络训练时,加强对云图边界的检测,有效提升了云图分割的准确率。
附图说明
图1为实施例提供的云图分割流程图;
图2为实施例提供的基于多尺度特征融合的改进型U-Net结构图;
图3为实施例提供的泛化实验比较图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚明白,以下结合附图和实施例对本发明进行进一步的详细说明。
图1为实施例提供的云图分割流程图,包括以下步骤:
(1)获取新加坡全天空图像分割数据库,对新加坡全天空图像分割数据库包含的1013张天空—云图以及与其对应的二值标签进行预处理获得数据集;
(2)利用改变卷积方式、添加高效通道注意力机制、修改归一化、添加多尺度特征融合的方法构建改进U-Net框架;
(3)结合Dice损失函数、交叉熵损失函数、边界损失函数和Log_Cosh损失函数的优点,提出改进的复合损失函数;
(4)将步骤(1)得到的数据集输入改进型U-Net模型进行训练、测试,获得最佳参数模型,输出预测分割图;
步骤(1)中获取新加坡全天空图像分割数据库包含的1013张天空——云图以及其对应的二值标签,尺寸大小为600×600×3,将云图随机切分为224×224×3大小的样本,并对样本集采用如随机修剪、平移变换、噪声扰动等数据增强的方法,将数据集扩充为原来的十倍,扩充现有数据的多样性。
步骤(2)中本实施例将编码部分前两层和第三层的第一个卷积用可变形卷积代替,即在编码部分的浅层神经网络使用可变形卷积,可变形卷积根据当前需要识别的云图内容进行动态调整,更加精准的捕获浅层特征的细节信息。可变形卷积主要由偏移量卷积和标准卷积组成,实施例使用的标准卷积核大小为3×3,对于输入的一张特征图,为了学习偏移量offset,定义了另外一个偏移量卷积核大小为3×3,输出与原特征图大小相同,通道数为2N,这两个卷积核通过双线性插值后向传播算法同时学习。
本实施例在编码部分前三层输出的特征图后添加高效通道注意力机制,使模型自动学习浅层特征图中重要的细节信息。编码部分输出的特征图经过高效通道注意力机制生成一维注意力向量后,与原特征图进行对应元素相乘,即显著的特征得到增强,非显著的特征就会相应得被抑制,输出完成特征重标定的特征图,特征图大小不变,对前三层加权后的特征图进行下采样操作,将前三层加权后的特征图与解码部分的特征图进行拼接操作。
本实施例将Weight Normalization加在U-Net的卷积层和激活层中间进行归一化处理,对网络的参数进行标准化,通过重写深度网络的权重来进行加上,引入更少的噪声,不需要额外的空间进行存储minibatch的均值和方差,对时间的开销小,所以速度更快。对于网络中一神经元,输入为x,输出为y,计算过程为y=φ(ω*x+b),其中ω为与该神经元连接的权重,通过损失函数与梯度下降对网络进行优化的过程就是求解最优ω的过程。将ω的长度与方向解耦,可以表示为
Figure BDA0003694750020000051
其中g为标量,大小等于ω的模长,
Figure BDA0003694750020000052
为与ω同方向的单位向量,于是将训练过程中ω的学习转化为g和v的学习,损失函数L对g和v的梯度分别表示为:
Figure BDA0003694750020000053
Figure BDA0003694750020000054
图2为实施例提供的基于多尺度特征融合的改进型U-Net结构图。图2所示,输入网络的数据集尺寸为224×224×3,编码部分共有五层,前两层均由两个可变卷积块deform-conv11、deform-conv12、高效通道注意力机制和最大池化模块组成,可变卷积块包括偏移量卷积核和卷积块,卷积块包括3×3卷积核、WN和激活函数Relu;第三层由可变卷积块、卷积块、高效通道注意力机制和最大池化模块组成;第四层由两个卷积块和最大池化模块组成;第五层由两个卷积块组成。解码部分共有四层,均由上采样模块、拼接模块、两个卷积块组成。在改进的U-Net上添加多尺度特征融合模块,对编码部分最后一层输出的特征图和解码部分每一层输出的特征图进行多尺度特征融合。编码部分最后一层输出的特征图经过上采样与解码部分第一层输出的特征图进行拼接,将拼接后的特征图经过上采样和一个3×3×256的卷积与解码部分第二层输出的特征图进行拼接,将拼接后的特征图经过上采样和一个3×3×128的卷积与解码部分第三层输出的特征图进行拼接,将拼接后的特征图经过上采样和一个3×3×64的卷积与解码部分第四层输出的特征图进行拼接,将拼接后的特征图经过3×3×32的卷积,再经过1×1的卷积核对云图进行分类。
将224×224×3的特征图输入到编码部分的第一层,经过两次可变卷积块deform-conv11输出224×224×32的特征图,经过高效通道注意力机制进行特征重标定输出224×224×32的特征图,经过池化层Down1输出112×112×32的特征图;将112×112×32的特征图输入到编码部分的第二层,经过两次可变卷积块deform-conv12输出112×112×64的特征图,经过高效通道注意力机制进行特征重标定输出112×112×64的特征图,经过池化层Down2输出56×56×64的特征图;将56×56×64的特征图输入到编码部分的第三层,经过可变卷积块deform-conv13输出56×56×128的特征图,经过卷积块conv13输出56×56×128的特征图,经过高效通道注意力机制进行特征重标定输出56×56×128的特征图,经过池化层Down3输出28×28×128的特征图;将28×28×128的特征图输入到编码部分的第四层,经过两次卷积块conv14输出28×28×256的特征图,经过池化层Down4输出14×14×256的特征图;将14×14×256的特征图输入到编码部分的第五层,经过两次卷积块conv15输出14×14×512的特征图;将14×14×512的特征图输入到解码部分的第一层,经过上采样Up14输出28×28×512的特征图,经过拼接操作Concat14连接Up14和conv14输出的特征图得到28×28×768的特征图,经过两次卷积块conv24输出28×28×256的特征图;将28×28×256的特征图输入到解码部分的第二层,经过上采样Up13输出56×56×256的特征图,经过拼接操作Concat13连接Up13和conv13经过高效通道注意力机制输出的特征图得到56×56×384的特征图,经过两次卷积块conv23输出56×56×128的特征图;将56×56×128的特征图输入到解码部分的第三层,经过上采样Up12输出112×112×128的特征图,经过拼接操作Concat12连接Up12和conv12经过高效通道注意力输出的特征图得到112×112×192的特征图,经过两次卷积块conv22输出112×112×64的特征图;将112×112×64的特征图输入到解码部分的第四层,经过上采样Up11输出224×224×64的特征图,经过拼接操作Concat11连接Up11和conv11经过高效通道注意力输出的特征图得到224×224×96的特征图,经过两次卷积块conv21输出224×224×32的特征图;将编码部分最后一层输出的特征图经过上采样Up21输出28×28×512的特征图,经过拼接操作Concat21和解码部分第一层输出的特征图连接得到28×28×768的特征图,经过上采样Up22和卷积conv31得到56×56×256的特征图,经过拼接操作Concat22和解码部分第二层输出的特征图连接得到56×56×384的特征图,经过上采样Up23和卷积conv32得到112×112×128的特征图,经过拼接操作Concat23和解码部分第三层输出的特征图连接得到112×112×192的特征图,经过上采样Up24和卷积conv33得到224×224×64的特征图,经过拼接操作Concat24和解码部分第四层输出的特征图连接得到224×224×96的特征图,经过卷积conv34得到224×224×32的特征图,最后经过1×1的卷积对云图进行分类。
步骤(3)具体为以下内容,Dice损失函数的公式如下:
Figure BDA0003694750020000071
其中,A、B分别指模型预测结果与真实标签结果,smooth是平滑因子,该实施例中取值为0.00001,N为特征图中像素点的个数,pi∈[0,1]为模型预测的分割图中第i个像素点的值,gi∈{0,1}为二值标签中第i个像素点的值。Dice损失函数是从特征图中所有像素点考虑,包括了需要分割的云以及背景区域,即Dice损失函数只关注了全局信息,对于部分云图中背景区域较多的情况,会造成分割出的云定位不准或缺失严重,并且Dice损失函数为非凸函数,会导致模型训练不稳定,且可能陷入局部最优而非全局最优。
针对Dice损失函数是非凸函数,加入平滑因子smooth来使函数相对平滑这种手段只能缓解而不能彻底解决非凸损失函数的问题,提出与Log_Cosh损失函数结合。Log_Cosh损失函数的公式如下:
LLog_Cosh=log(Cosh(x))
其中,双曲余弦函数
Figure BDA0003694750020000072
可用于平滑曲线,且在基于回归的损失函数中,常对Cosh函数取对数,其导数为
Figure BDA0003694750020000073
由此可知,LLog_Cosh损失函数是连续的且二阶可微。结合Dice损失函数与Log_Cosh损失函数,函数表达式为:
Limprove1=log(Cosh(LDice))
针对Dice损失函数只关注全局信息,提出与交叉熵损失函数结合。交叉熵损失函数的公式如下:
Figure BDA0003694750020000074
其中,N为特征图中像素点的个数,pi∈[0,1]为模型预测的分割图中第i个像素点的值,gi∈{0,1}为二值标签中第i个像素点的值。交叉熵损失函数对云和天空都有相同的权重,因此对于类别不平衡十分敏感,但是可以使得函数曲线平滑,而且交叉熵损失函数关注了局部信息。结合两者有效提升了分割准确性,函数表达式为:
Limprove2=αLimprove1+(1-α)LCE
其中,本实施例中α取值为0.5。
针对Limprove2结合的Dice损失函数和交叉熵损失函数关注全局信息和局部信息,提出与边界损失函数结合。边界损失函数的公式如下:
Figure BDA0003694750020000081
其中,
Figure BDA0003694750020000082
ΔS=|S|-|S∩G|+|G|-|S∩G|,S为预测结果边界上的像素点,G为真实标签边界上的像素点,p为标签边界上的任一像素点,q为△S内的任一像素点,DG(q)为两个像素点之间的距离。边界损失函数的目的是最小化分割边界和标签边界之间的距离,关注了边界信息。结合三者有效提升了分割准确性,得到最终改进的损失函数表达式为:
Limprove=βLimprove2+(1-β)LB
其中,LB表示边界损失函数,本实施例中β初始值设置为1,每过一轮减小0.01。
步骤(4)具体为将训练的数据输入到模型中进行训练,通过带标签的数据监督学习,利用梯度下降算法微调整个网络参数,将训练最佳的模型权重用测试数据进行测试,直接输出最终预测效果图。图3为实施例提供的泛化实验比较图。图3所示,实验选取了数据集中四种天空——云图不同分布的图像,实验1中云大多分布左下方,背景区域较大;实验2中云大多分布在右上方,背景区域较大;实验3中云分布较疏散,薄云较多;实验4中云分布较密集,背景区域较小。通过对四种不同分布的遥感图像进行分割对比可知,改进型U-Net的泛化效果最好,云图中的细节部分和边缘部分相比于其他模型的泛化效果更加清晰,能够较好的完成云图分割任务。

Claims (7)

1.基于多尺度损失函数的改进型U-Net云图分割方法,其特征在于,包括以下步骤:
(1)获取全天空图像分割数据库,对全天空图像分割数据库包含的云图以及与其对应的二值标签进行预处理获得数据集;
(2)利用改变卷积方式、添加高效通道注意力机制、修改归一化和添加多尺度特征融合的方法构建改进型U-Net模型;
(3)提出改进型U-Net模型的改进复合损失函数,表达式为:
Limprove=βLimprove2+(1-β)LB
其中,LB表示边界损失函数,边界损失函数的公式如下:
Figure FDA0003694750010000011
其中,
Figure FDA0003694750010000014
Figure FDA0003694750010000015
ΔS=|S|-|S∩G|+|G|-|S∩G|,S为预测结果边界上的像素点,G为真实标签边界上的像素点,p为标签边界上的任一像素点,q为△S内的任一像素点,DG(q)为两个像素点之间的距离;
β初始值设置为1,每一轮训练减小0.01;
Limprove2为结合Dice损失函数和交叉熵损失函数的函数,表达式为:
Limprove2=αLimprove1+(1-α)LCE
其中α为超参数,LCE为交叉熵损失函数,公式如下:
Figure FDA0003694750010000012
其中,N为特征图中像素点的个数,pi∈[0,1]为模型预测的分割图中第i个像素点的值,gi∈{0,1}为二值标签中第i个像素点的值;
Limprove1为结合Dice损失函数与Log_Cosh损失函数的函数,表达式为:
Limprove1=log(Cosh(LDice))
所述Log_Cosh损失函数的公式如下:
LLog_Cosh=log(Cosh(x))
其中,LDice为Dice损失函数,表达式如下:
Figure FDA0003694750010000013
其中,A、B分别指模型预测结果与真实标签结果,smooth是平滑因子,N为特征图中像素点的个数,pi∈[0,1]为模型预测的分割图中第i个像素点的值,gi∈{0,1}为二值标签中第i个像素点的值。
(4)将步骤(1)得到的数据集输入改进型U-Net模型进行训练、测试,获得最佳参数模型,输出预测效果图。
2.根据权利要求1所述的基于多尺度损失函数的改进型U-Net云图分割方法,其特征在于,所述步骤(1)的具体过程如下:
(1.1)获取全天空图像分割数据库包含的天空—云图以及与其对应的二值标签;
(1.2)将训练样本被随机切分为小样本,并对样本集采用数据增强方法,将数据集扩充为原来的十倍,将其分为3部分,训练集占80%,验证集占10%,测试集占10%。
3.根据权利要求2所述的基于多尺度损失函数的改进型U-Net云图分割方法,其特征在于,所述步骤(1.2)中,数据增强方法包括随机修剪,平移变换和噪声扰动。
4.根据权利要求1所述的基于多尺度损失函数的改进型U-Net云图分割方法,其特征在于,所述步骤(2)的具体过程如下:
(2.1)利用改变卷积方式的方法改进U-Net具体为:以U-Net分割模型为基础,将编码部分中前两层和第三层的第一个卷积换成可变形卷积;
(2.2)利用添加高效通道注意力机制的方法改进U-Net具体为:以(2.1)模型为基础,在编码部分前三层输出的特征图后添加通道注意力机制,编码部分输出的特征图经过高效通道注意力机制生成一维注意力向量后,与原特征图进行对应元素相乘,得到加权后的特征图,特征图大小不变,对前三层加权后的特征图进行下采样操作,将前三层加权后的特征图与解码部分的特征图进行拼接操作;
(2.3)利用修改归一化的方法改进U-Net具体为:以(2.2)模型为基础,将WeightNormalization加在U-Net的卷积层和激活层中间,重写深度网络的权重,通过对网络参数进行标准化实现归一化操作;
(2.4)利用添加多尺度特征融合的方法改进U-Net具体为:以(2.3)模型为基础,对编码部分最后一层输出的特征图和解码部分每一层输出的特征图进行多尺度特征融合。
5.根据权利要求4所述的基于多尺度损失函数的改进型U-Net云图分割方法,其特征在于,所述(2.1)中编码部分为5层:第一层包括2个相同的可变卷积块deform-conv11、deform-conv12,可变卷积块主要由两个卷积块组成,其中一个卷积块均由18个步长为1,padding为1,大小为3×3的偏移量卷积核组成,另一个卷积块分别由32个步长为1,padding为1,大小为3×3的标准卷积核conv11、conv12组成;第二层包括2个相同的可变卷积块deform-conv21、deform-conv22,可变卷积块主要由两个卷积块组成,其中一个卷积块均由18个步长为1,padding为1,大小为3×3的偏移量卷积核组成,另一个卷积块分别由64个步长为1,padding为1,大小为3×3的标准卷积核conv21、conv22组成;第三层包括2个卷积块deform-conv3和conv3,其中conv3由128个步长为1,padding为1,大小为3×3的标准卷积核组成,deform-conv3由18个步长为1,padding为1,大小为3×3的偏移量卷积和conv3组成;第四层包括2个相同的卷积块conv4,均由256个步长为1,padding为1,大小为3×3的标准卷积核组成;第五层包括2个相同的卷积块conv5,均由512个步长为1,padding为1,大小为3×3的标准卷积核组成;该模型中解码部分为4层:均由一个上采样模块、两个与编码部分相对应的相同的标准卷积模块组成,各层各模块中卷积核的个数分别为(512,256,256)、(256,128,128)、(128,64,64)、(64,32,32),且核的大小均为3×3,同时第四层包括一个卷积块,由2个步长1,padding为1,大小为1×1的卷积核组成。
6.根据权利要求4所述的基于多尺度损失函数的改进型U-Net云图分割方法,其特征在于,所述步骤(2.4)中编码部分最后一层输出的特征图经过上采样与解码部分第一层输出的特征图进行拼接,将拼接后的特征图经过上采样和一个3×3×256的卷积与解码部分第二层输出的特征图进行拼接,将拼接后的特征图经过上采样和一个3×3×128的卷积与解码部分第三层输出的特征图进行拼接,将拼接后的特征图经过上采样和一个3×3×64的卷积与解码部分第四层输出的特征图进行拼接,将拼接后的特征图经过3×3×32的卷积,再经过1×1的卷积核。
7.根据权利要求1所述的基于多尺度损失函数的改进型U-Net云图分割方法,其特征在于,步骤(4)的具体过程如下:
(4.1)将步骤(1)中的数据集的80%作为训练集和10%作为验证集输入到改进的U-Net模型中进行训练,通过带标签的数据监督学习,利用梯度下降算法微调整个网络参数,最小化复合损失函数,获得最佳参数模型;
(4.2)将步骤(1)中的数据集的10%作为测试集输入到(4.1)中的最佳参数模型中进行测试,输出预测效果图;
(4.3)将(4.2)中的预测效果图与标签图进行比较,得到改进的U-Net比较输出结果。
CN202210671342.0A 2022-06-15 2022-06-15 基于多尺度损失函数的改进型U-Net云图分割方法 Pending CN114998373A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210671342.0A CN114998373A (zh) 2022-06-15 2022-06-15 基于多尺度损失函数的改进型U-Net云图分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210671342.0A CN114998373A (zh) 2022-06-15 2022-06-15 基于多尺度损失函数的改进型U-Net云图分割方法

Publications (1)

Publication Number Publication Date
CN114998373A true CN114998373A (zh) 2022-09-02

Family

ID=83034095

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210671342.0A Pending CN114998373A (zh) 2022-06-15 2022-06-15 基于多尺度损失函数的改进型U-Net云图分割方法

Country Status (1)

Country Link
CN (1) CN114998373A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116030260A (zh) * 2023-03-27 2023-04-28 湖南大学 一种基于长条状卷积注意力的手术全场景语义分割方法
CN116152211A (zh) * 2023-02-28 2023-05-23 哈尔滨市科佳通用机电股份有限公司 一种闸瓦磨耗超限故障的识别方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116152211A (zh) * 2023-02-28 2023-05-23 哈尔滨市科佳通用机电股份有限公司 一种闸瓦磨耗超限故障的识别方法
CN116030260A (zh) * 2023-03-27 2023-04-28 湖南大学 一种基于长条状卷积注意力的手术全场景语义分割方法
CN116030260B (zh) * 2023-03-27 2023-08-01 湖南大学 一种基于长条状卷积注意力的手术全场景语义分割方法

Similar Documents

Publication Publication Date Title
CN110738697B (zh) 基于深度学习的单目深度估计方法
CN111882002B (zh) 一种基于msf-am的低照度目标检测方法
CN108509978B (zh) 基于cnn的多级特征融合的多类目标检测方法及模型
CN111210435B (zh) 一种基于局部和全局特征增强模块的图像语义分割方法
CN111898507B (zh) 一种预测无标签遥感影像地表覆盖类别的深度学习方法
CN111047551B (zh) 一种基于U-net改进算法的遥感影像变化检测方法及系统
CN106547880B (zh) 一种融合地理区域知识的多维度地理场景识别方法
CN112347859B (zh) 一种光学遥感图像显著性目标检测方法
CN114998373A (zh) 基于多尺度损失函数的改进型U-Net云图分割方法
CN110517329A (zh) 一种基于语义分析的深度学习图像压缩方法
CN113505792B (zh) 面向非均衡遥感图像的多尺度语义分割方法及模型
CN114283120B (zh) 一种基于领域自适应的端到端多源异质遥感影像变化检测方法
CN109522831B (zh) 一种基于微卷积神经网络的车辆实时检测方法
CN112950780B (zh) 一种基于遥感影像的网络地图智能生成方法及系统
CN112733693B (zh) 一种全局感知高分辨率遥感影像多尺度残差道路提取方法
CN110599502A (zh) 一种基于深度学习的皮肤病变分割方法
CN114724155A (zh) 基于深度卷积神经网络的场景文本检测方法、系统及设备
CN114943876A (zh) 一种多级语义融合的云和云影检测方法、设备及存储介质
CN115205672A (zh) 一种基于多尺度区域注意力的遥感建筑物语义分割方法及系统
CN115565043A (zh) 结合多表征特征以及目标预测法进行目标检测的方法
CN115810149A (zh) 基于超像素与图卷积的高分辨率遥感图像建筑物提取方法
CN116229106A (zh) 一种基于双u结构的视频显著性预测方法
CN114282649A (zh) 基于双向注意力机制增强yolo v5的目标检测方法
Han Texture image compression algorithm based on self-organizing neural network
CN115082778B (zh) 一种基于多分支学习的宅基地识别方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination