CN107016677B - 一种基于fcn和cnn的云图分割方法 - Google Patents
一种基于fcn和cnn的云图分割方法 Download PDFInfo
- Publication number
- CN107016677B CN107016677B CN201710182281.0A CN201710182281A CN107016677B CN 107016677 B CN107016677 B CN 107016677B CN 201710182281 A CN201710182281 A CN 201710182281A CN 107016677 B CN107016677 B CN 107016677B
- Authority
- CN
- China
- Prior art keywords
- cloud
- cnn
- layer
- segmentation
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10044—Radar image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Image Analysis (AREA)
Abstract
一种基于FCN和CNN的云图分割方法属于计算机视觉的图像分割领域。其特征在于:首先通过超像素对云图中每个像素点的近邻域实现相应的聚类同时将云图输入到不同步长的全卷积神经网络FCN32s和FCN8s中,实现云图的预分割结果;FCN32s结果图中的黑色区域一定是云图中的一部分“非云”区域,FCN8s结果图中的白色区域一定是云图中的一部分“云”区域;剩下不确定的区域即灰色区域需要通过深度卷积神经网络CNN来确定,需要选取超像素区域中的关键像素来代表超像素区域的特征,像素的特征通过CNN网络来判断是“云”或者是“非云”。本发明发现而精度与MR‑CNN、SP‑CNN相当,但是速度相比于MR‑CNN提高了880倍,相比于SP‑CNN提高了1.657倍。
Description
技术领域
本发明属于计算机视觉的图像分割领域,涉及超像素聚类及多种神经网络的特征提取,具体涉及毫米波雷达云图的超像素预处理并通过全卷积神经网络FCN和卷积神经网络CNN的特征提取,提出了一种基于FCN_CNN的毫米波雷达云图分割方法。
背景技术
图像分割是图像处理中的关键技术之一。图像分割从20世纪70年代开始就很受人们的重视,发展至今其应用领域已经非常广泛了。主要表现在:军事研究领域,比如通过图像分割实现军事目标定位和战场分析等;医学影像领域,比如通过图象分割来辅助分析器官和病情等;交通监控领域,比如通过监控图像的分割辅助车辆目标检测和车牌识别等;气象分析领域,通过对遥感或雷达等获取的有关天气图像的分割,实现作物生长情况分析以及天气预测等。
本发明的图像分割算法主要是针对气象领域的毫米波雷达云图。该毫米波雷达是中国气象探测中心,西安华腾微波有限责任公司以及成都信息工程大学联合研制的Ka波段全固态多普勒雷达。其发射的毫米波采用垂直顶空瞄准式的工作方式,利用云粒子对电磁波的散射特性,即可获得雷达的回波强度。接着通过伪彩色映射的原理,根据特定的颜色查找表,将不同的回波强度转换为彩色图像,即为图1所示的毫米波雷达云图。本发明分割的云图是连续12小时的云演变图,横向表示时间,纵向表示高度。但是由于低空噪音或者是空气中的气溶胶粒子的影响会使雷达回波强度变弱,在云图中表现为杂波成分如图1中的方框部分所示,这里我们称杂波成分与白色背景区域为“非云”部分。为了准确的天气预测,本发明的主要目的是实现云图的分割,即“非云”和“云”区域的分割。
迄今为止,图像分割算法被提出了上千种,主要包括传统分割算法和基于深度学习的分割方法。传统的分割算法包括阈值分割法、边缘分割法、区域分割法等。阈值分割法一般是根据一个或多个合适的阈值来确定每个像素的特征,例如:2009年杨俊等人在文章“基于自适应阈值的地基云自动检测算法”中基于不同波段的比值、差值和归一化等处理,实现了固定阈值和自适应阈值的对比实验,但是地基观测的云图一般只有蓝色的天空和白色的云两类,没有杂质扰动,这一点不同于本发明中所研究的毫米波雷达云图。边缘分割法是利用图像灰度级的不连续性,检测不均匀区域间的边界实现图像分割。2008年Zhang等人在文章“Bubble Image Segmentation of Gas/Liquid Two-Phase Flow Based onImproved Canny Operator”通过引入改进的canny算子使气泡图像的边缘光滑、无噪,从而实现分割。但是气泡之类的图像是规则的,而本专利毫米波雷达云图的“云”或“非云”区域是不规则的,不利于实现边缘检测。区域分割方法有区域生长和分裂合并,根据像素之间的特征相似性实现像素的合并,例如Corin Comaniciu等人在2002年文章“Mean Shift:ARobust Approach Toward Feature Space Analysis”中将特征空间比较相近的像素算成一个区域,这样不断的聚类实现图像的分割。但是本发明中所用的毫米波云图中“云”或“非云”分布不一定是连续的,邻域内的像素聚类之后仍无法判断是云还是非云。近年来,随着大数据和GPU的飞快发展,基于深度学习的图像分割方法也在不断涌现。2014年Wu等人在文章“Early Hierarchical Contexts Learned by Convolutional Networks for ImageSegmentation”提出了基于多分辨率的CNN网络,通过充分结合图像上下文的信息来实现图像的精确分割。2015年Long等人在文章“Fully Convolutional Networks for SemanticSegmentation”中实现全卷积网络的图像分割算法,将CNN网络中全连接层替换为卷积层大大降低了运算时间。
本发明巧妙地用传统的超像素方法对毫米波雷达云图做了聚类预处理,接着结合基于深度学习的图像分割算法提出了FCN_CNN分割方法,FCN_CNN方法实现了毫米波雷达云图的快速、精确分割。
发明内容
本发明的目的是提供一种基于深度学习的快速、精确的毫米波雷达云图分割方法。
本发明的分割系统框架如图2所示。首先通过超像素对云图如图2(a)中每个像素点的近邻域实现相应的聚类,聚类结果如图2(c)所示;同时将云图输入到不同步长的全卷积神经网络FCN32s和FCN8s中,具体FCN网络框架如图3所示,实现云图的预分割结果分别如图2(b)、2(d)所示;统计分析发现FCN32s结果图2(b)中的黑色区域一定是云图中的一部分“非云”区域,FCN8s结果图2(d)中的白色区域一定是云图中的一部分“云”区域。剩下不确定的区域(灰色区域)需要通过深度卷积神经网络CNN来确定,需要选取超像素区域中的关键像素来代表超像素区域的特征,像素的特征通过CNN网络图4所示来判断是“云”或者是“非云”,即可知道不确定部分的超像素区域是“云”还是“非云”。
本发明的具体技术方案和步骤介绍如下:
1、超像素聚类
在本发明中,为了提高云图特征的学习效率以及保持像素特征的一致性,预先用均值偏移(Mean-shift)方法对云图中像素进行聚类操作,也就是说在后续的云图分割过程中是以超像素为基本单位而不是像素。
均值偏移的超像素分割是一种特征空间的聚类。输入是一个5维空间,包括2维的(x,y)物理坐标和3维的(l,u,v)颜色坐标,基于高斯核函数核密度估计的无参数统计迭代方法。具体算法是先算出当前像素点的偏移均值,将该点移动到此偏移均值,然后以此为新的起始点,继续移动直至收敛。偏移均值之后分配标签到每一个像素,具有相同标签的像素具有相同的视觉特征,所以在一个超级像素中的每一个像素都是相似的,如纹理性、颜色强度等。如图2(c)所示,这样的超像素处理之后能够很好的保持云图局部一致性,可以避免云图像边界一些有歧义的像素点。
2、全卷积神经网络(Fully Convolutional Networks,FCN)介绍及模型训练
本发明用全卷积神经网络FCN来实现云图的预分割,采用的FCN结构框架如图3所示,FCN网络是对卷积神经网络CNN(图4)在分割领域的一个延伸,是一种图像语义分割,对一张图片上的所有像素点进行分类。CNN都是对整张图片进行分类,而全卷积网络是对一张图片中的每个像素进行分类,可以达到对图片特定部分的分类,比较适合分割。基于CNN的分割方法的做法通常是:为了对一个像素分类,使用该像素周围的一个图像块作为CNN的输入用于训练和预测。这种方法存储开销很大。例如对每个像素使用的图像块的大小为a*a,则所需的存储空间为原来图像的a2倍。还有计算效率低下,相邻的像素块基本上是重复的,针对每个像素块逐个计算卷积,这种计算也有很大程度上的重复。CNN的分类网络最后会使用全连接层,将原来二维的特征图转换成一维的固定长度的特征向量,这就丢失了空间信息,最后输出一个特定长度的向量,表示输入图像属于每一类的概率,以此作为分类的标签。
与CNN在卷积层之后使用全连接层得到固定长度的特征向量进行分类不同,FCN可以接受任意尺寸的输入图像,然后通过反卷积层对最后一个卷积层的特征图进行上采样,使它恢复到输入图像相同的尺寸,从而可以对每个像素都产生了一个预测,同时保留了原始输入图像中的空间信息,最后在与输入图等大小的特征图上对每个像素进行分类,逐像素地分类计算损失,相当于每个像素对应一个训练样本。
因为语义分割需要输出整张图片的分割图,所以要求网络中的特征图至少是二维的,这样才能通过上采样还原到输入图片的同等大小。这就需要替换掉全连接层,改换为卷积层,而这就是卷积化。FCN将CNN中的全连接层转化成卷积层,对应CNN网络FCN把最后三层全连接层转换成为三层卷积层。在图4的CNN结构中,有5个卷积层,两个全连接F1、F2层分别是一个长度为4096的一维向量,F3是长度为2的一维向量,分别对应2个不同类别(云或者是非云)的概率。图3中的FCN将这3个全连接层转换为卷积层,卷积核的大小(通道数,宽,高)分别为(4096,1,1)、(4096,1,1)、(2,1,1)。
CNN中输入的图像大小是统一固定调整成227*227大小的图像,其中pooling层是池化层,池化层缩小了特征图的尺寸。第一层pooling后为55*55,第二层pooling后图像大小为27*27,第五层pooling后的图像大小为13*13。而FCN输入的图像是H*W大小,第二层pooling后变为原图大小的1/4,第三层变为原图大小的1/8,第四层变为原图大小的1/16,第五层变为原图大小的1/32。FCN32s网络是直接对1/32尺寸的特征图进行上采样操作,但是这样的操作还原的图片仅仅是conv5中的卷积核中的特征。直接上采样32步长的精度问题不能够很好地还原图像当中的特征,所以把conv4中的卷积核对上一次上采样之后的图进行反卷积补充细节,最后把conv3中的卷积核对刚才上采样之后的图像进行再次反卷积补充细节,最后就完成了整个图像的还原,这就是上采样8步长,也就是FCN8s网络。
在训练FCN模型阶段,输入FCN网络的图像是原图像H*W不需要任何裁剪等处理的。从云图数据库中随机选取E(800<E<1200)张图像做训练集,随机选取F(300<F<400)张图片做测试集。在FCN模型的训练过程中需要引入监督信号,也就是标签,标签的制作本专利是基于Photoshop等画图软件手工将云图像中“云”和“非云”区域用黑白颜色区分,然后将其转化成H*W的二值矩阵(“云”部分用1表示,“非云”部分用0表示)。训练过程中批大小设为e(e可以是1、2、4或者是更大,根据服务器内存的情况而定),即每迭代一次处理e张云图,FCN32s的初始学习率为0.001,FCN8s的初始学习率为10-13,而且是每迭代f(f是几百或者几千,根据网络的训练情况而定)次,学习率下降10倍。随着迭代次数的增加,当网络的损失率趋于稳定的时候可以停止训练。
3、FCN模型实现云图的预分割
在语义分割中,我们需要输出和输入图像尺寸相同的分割图片,因此需要对特征图进行上采样。为了得到和输入图像尺寸完全相同的特征图,FCN中还使用了裁剪操作来辅助反卷积操作,因为反卷积操作并不是将特征图恰好放大整数倍。但是直接将全卷积后的结果进行反卷积,得到的结果往往比较粗糙。如图3所示,1/32尺寸的特征图进行上采样操作之后,因为这样的操作还原的图片仅仅是conv5中的卷积核中的特征。所以的得到的分割结果是如图2(b)所示的FCN32s粗分割结果,可以看出此结果的云图没有轮廓信息,丢失了很多的细节信息。
限于直接上采样32步长的精度问题不能够很好地还原图像当中的特征,因此想到向前迭代。把conv4中的卷积核对上一次上采样之后的图进行反卷积补充细节(相当于一个插值过程),最后把conv3中的卷积核对刚才上采样之后的图像进行再次反卷积补充细节,最后就完成了整个图像的还原。最后得到上采样8步长的云图分割结果如图2(d)所示,通过比较FCN32s以及FCN8s的结果可以看出,FCN8s相比较于FCN32s而言更能学到细节信息,FCN8s粗分割结果的轮廓比FCN32s的更清晰,但是同时也可以看出FCN8s的结果也处于“欠学习”状态,精度还远远不够。
分析原因,首先是FCN直接上采样本来就是一个比较粗糙的分割方法,再加上本专利研究的毫米波雷达云图中杂波等因素的影响,使得即使是结合了上下文语义的FCN云图分割效果还是不理想。但是结合FCN32s和FCN8s的结果可以得到的结论是:FCN32s在预测非云区域(黑色)比较准确,FCN8s在预测云区域(白色)比较准确。可以统计第i()个超像素区域的像素总数Ni,记超像素i在FCN8s中的白色像素总数Yi,在FCN32s中的黑色像素总数Xi,既不属于FCN8s中的白色像素也不属于FCN32s黑色像素(即像素在FCN8s中是黑色的,在FCN32s中是白色的)总数记为Ui。比较Xi、Yi、Ui,若Xi=max{Xi,Yi,Ui},则该超像素区域的属性就确定为“非云”;若Yi=max{Xi,Yi,Ui},则该超像素区域的属性就确定为“云”;否则,其他的情况(比如Ui=max{Xi,Yi,Ui}、或Xi=Yi等情况)下的超像素区域(图3的灰色区域)都通过CNN判断。
所以接下来考虑将CNN与FCN结合,对于FCN无法预测的少数超像素区域通过CNN预测分类(云或者是非云)。下边将详细介绍CNN部分。
4、卷积神经网络(CNN)的介绍及模型训练
CNN网络对本分割方法的贡献是补充预测FCN网络无法判断(或者是判断不准确)的少数超像素区域的云分类。本发明采用的CNN结构如图4所示,该网络是通过对AlexNet网络(Alex等人在ImageNet数据库分类上提出的)微调得到的。网络的训练和测试等具体情况将在第4部分介绍。该网络由5个卷积层、3个全连接层组成,并且只给卷积层C1、卷积层C2和卷积层C5加入了pooling层。F1到F3是全连接层,相当于在五层卷积层的基础上再加上一个三层的全连接神经网络分类器。需要注意的一点是,我们将AlexNet中F3的神经元个数由1000调为2,原因是为了实现“云”和“非云”的2分类。
在训练和测试CNN网络阶段,为了保证在采集训练集图像时,能够采集到整张云图的每一个像素点,我们对云图A*B的四个边界分别延伸C个像素,使图像变为(A+2C)*(B+2C)。在图像(A+2C)*(B+2C)中,以像素点a为中心,以2C为边长裁剪出2C*2C的图像子块。CNN网络从D(5<D<15)张云图中随机选取了G(800<G<1000)个2C*2C的图像子块来训练,随机选取H(200<H<300)个2C*2C的图像子块来测试。同FCN,在训练CNN网络的时候需要监督信号的输入,也就是所谓的标签。标签的制作过程本专利是利用Photoshop等画图软件手工将云图像中“云”和“非云”区域用黑白颜色区分,并转化为txt文件,放成列表的形式(每个像素点是“云”还是“非云”用0或1表示),用于监督CNN网络的训练。在训练过程中,批大小设为g(同FCN的训练,根据输入图片的大小以及内存情况而定),即每迭代一次处理g条数据,学习率初始值为0.01,且每迭代h(同FCN一般是几百或者几千)次学习率下降10倍。最后训练模型的准确度如图5所示,当训练集数据库为900左右的时候,模型的准确率达到最高,即97.26%。
5、CNN网络云图分割
CNN网络来辅助FCN网络实现分割的具体做法是:首先将每一个待CNN处理的超像素转化为一个1维的向量,由于超像素具有良好的特征保持特性,在一个超像素中的像素有相似的视觉特征、颜色、纹理和强度等,所以可以在一个超像素中选取n(n为奇数)个关键的像素点来代替表示该超像素的特性。关键像素点的选取可以采用等间隔或者是随机取点(图8是实验的对比结果)。在此过程中为了避免选取的关键像素点落到超像素的边界,因为当关键像素点落到“云”和“非云”超像素的边界的时候既可以表达“云”也可以表达“非云”属性,所以本发明指出需要对每一个超像素进行腐蚀处理之后再选取关键像素点。具体的腐蚀处理如下:
其中I表示待腐蚀的超像素,L表示的是结构元素如公式(2)所示,把结构元素L平移b后得到Lb,若Lb包含于I,我们记下这个b点,所有满足上述条件的b点组成的集合称做I被L腐蚀的结果。也就是说用结构元素L扫描超像素I中的每一个像素,用结构元素与其覆盖的二值图像做“与”操作,如果都为1,结果图像中的该像素为1,否则为0,也就是会使原来的图像缩小一圈。
接下来,以上述选取的n个关键像素点为中心,裁剪出2C*2C的正方形子块,输入到第4部分训练好的CNN网络中来学习该关键像素点的属性(云或者是非云)。最后对n个关键像素点的特征属性进行投票处理,如果大于或等于(n+1)/2个关键像素点被CNN判断为“云”,则该超像素所在的区域是“云”区域,如果大于或者等于(n+1)/2个关键像素点被CNN判断为“非云”,则该超像素所在的区域是“非云”区域。
6、分割评价
本发明采用像素误差、交并比(Intersection-over-Union,IoU)以及分割所需时间的评价方法来衡量分割结果。
像素误差是给定待测的分割标签L以及其真实的数据标签L’,则:
Ppixcel=||L-L'||2 (3)
其中||*||代表汉明距,它反映了分割图片与原始标签的像素相似度。按照这种方法,本发明最后将云图的分割准确度达到了99.564%。
IoU是系统分割结果与分割标签图的重合程度。即分割结果与分割标签图的交集比上它们的并集,公式表示为:
本发明实现云图分割的交并比达到81.235%。
在处理速度上,FCN-CNN平均分割一张图像只需要19.984秒,
图5是实验结果的对比,可以发现而精度与MR-CNN、SP-CNN相当,但是速度相比于MR-CNN提高了880倍,相比于SP-CNN提高了1.657倍,足以证明本方法是一种高效的毫米波雷达云图分割方法。
与现有技术相比,本发明具有以下优势:
1.保持局部一致性
FCN-CNN中超像素的预处理既保持了云图像中的局部一致性,又避免了云区域边界像素的歧义。
2.云图分割准确度高
与其他分割相比较,本发明通过深度学习中的多种网络:FCN和CNN来自动学习云图的深层特征,不局限于云图的表层特征。最后云图的分割准确率达到99.564%。
3.云图分割速度快
在超像素预处理的同时,结合全卷积网络的实现快速预分割,不确定的部分通过CNN补充,这不仅提高了分割精度,还大大提高了云图的分割效率,平均每张云图需要19.98秒。
附图说明
图1为本发明中的原始毫米波雷达云图像示例;
图2为本发明所设计的整体分割框架;
图3为FCN网络框架;
图4为CNN网络框架;
图5为CNN模型的训练准确率曲线图;
图6为本发明与其他分割方法的结果对比图:
(a)原始图像,(b)超像素聚类结果,
(c)标签参考图,(d)阈值法分割结果,
(e)MR-CNN分割结果,(f)FCN32s分割结果,
(g)FCN8s分割结果,(h)SP-CNN分割结果,
(i)FCN-CNN分割结果
图7为不同分割方法在像素误差和处理时间上的结果统计图;
图8不同关键点选取方法在在像素误差和处理时间上的对比图;
具体实施方式
本发明基于超像素预处理并结合深度学习的多种网络结构FCN、CNN,实现了快速、精确的毫米波雷达云图分割方法。
本发明的具体技术方案和步骤介绍如下:
1、超像素聚类
在本发明中,为了提高云图特征的学习效率以及保持像素特征的一致性,预先用均值偏移(Mean-shift)方法对云图中像素进行聚类操作,也就是说在后续的云图分割过程中是以超像素为基本单位而不是像素。
均值偏移的超像素分割是一种特征空间的聚类。输入是一个5维空间,包括2维的(x,y)物理坐标和3维的(l,u,v)颜色坐标,基于高斯核函数核密度估计的无参数统计迭代方法。具体算法是先算出当前像素点的偏移均值,将该点移动到此偏移均值,然后以此为新的起始点,继续移动直至收敛。偏移均值之后分配标签到每一个像素,具有相同标签的像素具有相同的视觉特征,所以在一个超级像素中的每一个像素都是相似的,如纹理性、颜色强度等。如图2(c)所示,这样的超像素处理之后能够很好的保持云图局部一致性,可以避免云图像边界一些有歧义的像素点。
2、全卷积神经网络(Fully Convolutional Networks,FCN)介绍及模型训练
本发明用全卷积神经网络FCN来实现云图的预分割,采用的FCN结构框架如图3所示,FCN网络是对卷积神经网络CNN(图4)在分割领域的一个延伸,是一种图像语义分割,对一张图片上的所有像素点进行分类。CNN都是对整张图片进行分类,而全卷积网络是对一张图片中的每个像素进行分类,可以达到对图片特定部分的分类,比较适合分割。基于CNN的分割方法的做法通常是:为了对一个像素分类,使用该像素周围的一个图像块作为CNN的输入用于训练和预测。这种方法存储开销很大。例如本专利中对每个像素使用的图像块的大小为57*57,则所需的存储空间为原来图像的3249倍。还有计算效率低下,相邻的像素块基本上是重复的,针对每个像素块逐个计算卷积,这种计算也有很大程度上的重复。CNN的分类网络最后会使用全连接层,将原来二维的特征图转换成一维的固定长度的特征向量,这就丢失了空间信息,最后输出一个特定长度的向量,表示输入图像属于每一类的概率,以此作为分类的标签。
与CNN在卷积层之后使用全连接层得到固定长度的特征向量进行分类不同,FCN可以接受任意尺寸的输入图像,然后通过反卷积层对最后一个卷积层的特征图进行上采样,使它恢复到输入图像相同的尺寸,从而可以对每个像素都产生了一个预测,同时保留了原始输入图像中的空间信息,最后在与输入图等大小的特征图上对每个像素进行分类,逐像素地分类计算损失,相当于每个像素对应一个训练样本。
因为语义分割需要输出整张图片的分割图,所以要求网络中的特征图至少是二维的,这样才能通过上采样还原到输入图片的同等大小。这就需要替换掉全连接层,改换为卷积层,而这就是卷积化。FCN将CNN中的全连接层转化成卷积层,对应CNN网络FCN把最后三层全连接层转换成为三层卷积层。在图4的CNN结构中,有5个卷积层,两个全连接F1、F2层分别是一个长度为4096的一维向量,F3是长度为2的一维向量,分别对应2个不同类别(云或者是非云)的概率。图3中的FCN将这3个全连接层转换为卷积层,卷积核的大小(通道数,宽,高)分别为(4096,1,1)、(4096,1,1)、(2,1,1)。
CNN中输入的图像大小是统一固定调整成227*227大小的图像,其中pooling层是池化层,池化层缩小了特征图的尺寸。第一层pooling后为55*55,第二层pooling后图像大小为27*27,第五层pooling后的图像大小为13*13。而FCN输入的图像是719*490大小,第二层pooling后变为原图大小的1/4,第三层变为原图大小的1/8,第四层变为原图大小的1/16,第五层变为原图大小的1/32。FCN32s网络是直接对1/32尺寸的特征图进行上采样操作,但是这样的操作还原的图片仅仅是conv5中的卷积核中的特征。直接上采样32步长的精度问题不能够很好地还原图像当中的特征,所以把conv4中的卷积核对上一次上采样之后的图进行反卷积补充细节,最后把conv3中的卷积核对刚才上采样之后的图像进行再次反卷积补充细节,最后就完成了整个图像的还原,这就是上采样8步长,也就是FCN8s网络。
在训练FCN网路阶段,输入FCN网络的图像是原图像719*490不需要任何裁剪等处理的。从云图数据库中随机选取1000张图像做训练集,随机选取395张图片做测试集。在FCN模型的训练过程中需要引入监督信号,也就是标签,标签的制作本专利是基于Photoshop等画图软件手工将云图像中“云”和“非云”区域用黑白颜色区分,然后将其转化成719*490的二值矩阵(“云”部分用1表示,“非云”部分用0表示)。在本专利的实验过程中,训练过程中批大小设为1(由于输入的是整张云图原图,数据比较大),即每迭代一次处理1张云图,FCN32s的初始学习率为0.001,FCN8s的初始学习率为10-13,而且是每迭代2000次,学习率下降10倍。随着迭代次数的增加,当网络的损失率趋于稳定的时候可以停止训练。
3、FCN模型实现云图的预分割
在语义分割中,我们需要输出和输入图像尺寸相同的分割图片,因此需要对特征图进行上采样。为了得到和输入图像尺寸完全相同的特征图,FCN中还使用了裁剪操作来辅助反卷积操作,因为反卷积操作并不是将特征图恰好放大整数倍。但是直接将全卷积后的结果进行反卷积,得到的结果往往比较粗糙。如图3所示,1/32尺寸的特征图进行上采样操作之后,因为这样的操作还原的图片仅仅是conv5中的卷积核中的特征。所以的得到的分割结果是如图2(b)所示的FCN32s粗分割结果,可以看出此结果的云图没有轮廓信息,丢失了很多的细节信息。
限于直接上采样32步长的精度问题不能够很好地还原图像当中的特征,因此想到向前迭代。把conv4中的卷积核对上一次上采样之后的图进行反卷积补充细节(相当于一个插值过程),最后把conv3中的卷积核对刚才上采样之后的图像进行再次反卷积补充细节,最后就完成了整个图像的还原。最后得到上采样8步长的云图分割结果如图2(d)所示,通过比较FCN32s以及FCN8s的结果可以看出,FCN8s相比较于FCN32s而言更能学到细节信息,FCN8s粗分割结果的轮廓比FCN32s的更清晰,但是同时也可以看出FCN8s的结果也处于“欠学习”状态,精度还远远不够。
分析原因,首先是FCN直接上采样本来就是一个比较粗糙的分割方法,再加上本专利研究的毫米波雷达云图中杂波等因素的影响,使得即使是结合了上下文语义的FCN云图分割效果还是不理想。但是结合FCN32s和FCN8s的结果可以得到的结论是:FCN32s在预测非云区域(黑色)比较准确,FCN8s在预测云区域(白色)比较准确。可以统计第i()个超像素区域的像素总数Ni,记超像素i在FCN8s中的白色像素总数Yi,在FCN32s中的黑色像素总数Xi,既不属于FCN8s中的白色像素也不属于FCN32s黑色像素(即像素在FCN8s中是黑色的,在FCN32s中是白色的)总数记为Ui。比较Xi、Yi、Ui,若Xi=max{Xi,Yi,Ui},则该超像素区域的属性就确定为“非云”;若Yi=max{Xi,Yi,Ui},则该超像素区域的属性就确定为“云”;否则,其他的情况(比如Ui=max{Xi,Yi,Ui}、或Xi=Yi等情况)下的超像素区域(图3的灰色区域)都通过CNN判断。
所以接下来考虑将CNN与FCN结合,对于FCN无法预测的少数超像素区域通过CNN预测分类(云或者是非云)。下边将详细介绍CNN部分。
4、卷积神经网络(CNN)的介绍及模型训练
CNN网络对本分割方法的贡献是补充预测FCN网络无法判断(或者是判断不准确)的少数超像素区域的云分类。本发明采用的CNN结构如图4所示,该网络是通过对AlexNet网络(Alex等人在ImageNet数据库分类上提出的)微调得到的。网络的训练和测试等具体情况将在第4部分介绍。该网络由5个卷积层、3个全连接层组成,并且只给卷积层C1、卷积层C2和卷积层C5加入了pooling层。F1到F3是全连接层,相当于在五层卷积层的基础上再加上一个三层的全连接神经网络分类器。需要注意的一点是,我们将AlexNet中F3的神经元个数由1000调为2,原因是为了实现“云”和“非云”的2分类。
在训练和测试CNN网络阶段,为了保证在采集训练集图像时,能够采集到整张云图的每一个像素点,我们对云图719*490的四个边界分别延伸28个像素,使图像变为775*546。在图像775*546中,以任意像素点为中心,以56为边长裁剪出56*56的图像子块。CNN网络从10张云图中随机选取了900个2C*2C的图像子块来训练,随机选取250个56*56的图像子块来测试。同FCN,在训练CNN网络的时候需要监督信号的输入,也就是所谓的标签。标签的制作过程本专利是利用Photoshop等画图软件手工将云图像中“云”和“非云”区域用黑白颜色区分,并转化为txt文件,放成列表的形式(每个像素点是“云”还是“非云”用0或1表示),用于监督CNN网络的训练。在训练过程中,批大小设为64,即每迭代一次处理64条数据,学习率初始值为0.01,且每迭代100次学习率下降10倍。最后训练模型的准确度如图5所示,当训练集数据库为900左右的时候,模型的准确率达到最高,即97.26%。
5、CNN网络云图分割
CNN网络来辅助FCN网络实现分割的具体做法是:首先将每一个待CNN处理的超像素转化为一个1维的向量,由于超像素具有良好的特征保持特性,在一个超像素中的像素有相似的视觉特征、颜色、纹理和强度等,本专利在一个超像素中等间隔选取5个关键(由于部分超像素内像素个数不足7个,所以只做了1,3,5个关键点的对比实验,如图8所示,等间隔选取5个关键点效果最好)的像素点来代替表示该超像素的特性。在此过程中为了避免选取的关键像素点落到超像素的边界,因为当关键像素点落到“云”和“非云”超像素的边界的时候既可以表达“云”也可以表达“非云”属性,所以本发明指出需要对每一个超像素进行腐蚀处理之后再选取关键像素点。具体的腐蚀处理如下:
其中I表示待腐蚀的超像素,L表示的是结构元素如公式(2)所示,把结构元素L平移b后得到Lb,若Lb包含于I,我们记下这个b点,所有满足上述条件的b点组成的集合称做I被L腐蚀的结果。也就是说用结构元素L扫描超像素I中的每一个像素,用结构元素与其覆盖的二值图像做“与”操作,如果都为1,结果图像中的该像素为1,否则为0,也就是会使原来的图像缩小一圈。
接下来,以上述选取的5个关键像素点为中心,裁剪出56*56的正方形子块,输入到第4部分训练好的CNN网络中来学习该关键像素点的属性(云或者是非云)。最后对5个关键像素点的特征属性进行投票处理,如果大于或等于3个关键像素点被CNN判断为“云”,则该超像素所在的区域是“云”区域,如果大于或者等于3个关键像素点被CNN判断为“非云”,则该超像素所在的区域是“非云”区域。
6、分割评价
本发明采用像素误差、交并比(Intersection-over-Union,IoU)以及分割所需时间的评价方法来衡量分割结果。
像素误差是给定待测的分割标签L以及其真实的数据标签L’,则:
Ppixcel=||L-L'||2 (3)
其中||*||代表汉明距,它反映了分割图片与原始标签的像素相似度。按照这种方法,本发明最后将云图的分割准确度达到了99.564%。
IoU是系统分割结果与分割标签图的重合程度。即分割结果与分割标签图的交集比上它们的并集,公式表示为:
本发明实现云图分割的交并比达到81.235%。
在处理速度上,FCN-CNN平均分割一张图像只需要19.984秒,
图5是实验结果的对比,可以发现而精度与MR-CNN、SP-CNN相当,但是速度相比于MR-CNN提高了880倍,相比于SP-CNN提高了1.657倍,足以证明本方法是一种高效的毫米波雷达云图分割方法。
Claims (3)
1.一种基于FCN和CNN的云图分割方法,其特征在于:
首先通过超像素对云图中每个像素点的近邻域实现相应的聚类,同时将云图输入到不同步长的全卷积神经网络FCN32s和FCN8s中,实现云图的预分割结果;FCN32s结果图中的黑色区域一定是云图中的一部分“非云”区域,FCN8s结果图中的白色区域一定是云图中的一部分“云”区域;
剩下不确定的区域即灰色区域需要通过深度卷积神经网络CNN来确定,需要选取超像素区域中的关键像素来代表超像素区域的特征,像素的特征通过CNN网络来判断是“云”或者是“非云”,即能知道不确定部分的超像素区域是“云”还是“非云”;该CNN神经网络由5个卷积层C1、C2、C3、C4、C5和3个全连接层F1、F2、F3组成,其中卷积层C1、C2、C3、C4、C5逐层递进提取输入云图的局部特征,最后3个全连接层F1、F2、F3将卷积层C5输出的特征通过权值重新组合,并且只给卷积层C1、卷积层C2和卷积层C5加入了pooling层;将最后一个全连接层F3的神经元个数设置为2,实现“云”和“非云”的2分类。
2.根据权利要求1所述的方法,其特征在于:
用均值偏移方法对云图中像素进行聚类操作,也就是说在后续的云图分割过程中是以超像素为基本单位而不是像素;
聚类操作输入是一个5维空间,包括2维的(x,y)物理坐标和3维的(l,u,v)颜色坐标,基于高斯核函数核密度估计的无参数统计迭代方法。
3.根据权利要求1所述的方法,其特征在于:
FCN输入的图像是H*W大小,第二层pooling后变为原图大小的1/4,第三层pooling层后变为原图大小的1/8,第四层pooling层后变为原图大小的1/16,第五层pooling层后变为原图大小的1/32;
FCN32s网络是直接对1/32尺寸的特征图进行上采样操作,把第四层卷积层conv4中的卷积核对上一次上采样之后的图进行反卷积补充细节,最后把第三层卷积层conv3中的卷积核对刚才上采样之后的图像进行再次反卷积补充细节,最后就完成了整个图像的还原,这就是上采样8步长,也就是FCN8s网络。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710182281.0A CN107016677B (zh) | 2017-03-24 | 2017-03-24 | 一种基于fcn和cnn的云图分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710182281.0A CN107016677B (zh) | 2017-03-24 | 2017-03-24 | 一种基于fcn和cnn的云图分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107016677A CN107016677A (zh) | 2017-08-04 |
CN107016677B true CN107016677B (zh) | 2020-01-17 |
Family
ID=59444917
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710182281.0A Active CN107016677B (zh) | 2017-03-24 | 2017-03-24 | 一种基于fcn和cnn的云图分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107016677B (zh) |
Families Citing this family (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107527352B (zh) * | 2017-08-09 | 2020-07-07 | 中国电子科技集团公司第五十四研究所 | 基于深度学习fcn网络的遥感舰船目标轮廓分割与检测方法 |
CN109657523B (zh) * | 2017-10-10 | 2021-03-30 | 北京京东乾石科技有限公司 | 一种可行驶区域检测方法和装置 |
CN107742122A (zh) * | 2017-10-27 | 2018-02-27 | 浙江大华技术股份有限公司 | 一种x光图像的分割方法及装置 |
CN108038122B (zh) * | 2017-11-03 | 2021-12-14 | 福建师范大学 | 一种商标图像检索的方法 |
CN107993215A (zh) * | 2017-11-27 | 2018-05-04 | 象辑知源(武汉)科技有限公司 | 一种天气雷达图像处理方法及系统 |
CN108171711A (zh) * | 2018-01-17 | 2018-06-15 | 深圳市唯特视科技有限公司 | 一种基于完全卷积网络的婴幼儿脑部磁共振图像分割方法 |
CN108182426A (zh) * | 2018-01-30 | 2018-06-19 | 国家统计局湖北调查总队 | 彩色图像分类方法及装置 |
CN110119736B (zh) * | 2018-02-07 | 2021-12-28 | 浙江宇视科技有限公司 | 车牌位置识别方法、装置及电子设备 |
CN108388905B (zh) * | 2018-03-21 | 2019-07-19 | 合肥工业大学 | 一种基于卷积神经网络和邻域上下文的光源估计方法 |
CN108876792B (zh) * | 2018-04-13 | 2020-11-10 | 北京迈格威科技有限公司 | 语义分割方法、装置和系统及存储介质 |
CN108665461B (zh) * | 2018-05-09 | 2019-03-12 | 电子科技大学 | 一种基于fcn和迭代声影校正的乳腺超声图像分割方法 |
US10586336B2 (en) | 2018-05-18 | 2020-03-10 | Hong Kong Applied Science and Technology Research Institute Company Limited | Image pre-processing for accelerating cytological image classification by fully convolutional neural networks |
CN109690562B (zh) * | 2018-05-18 | 2022-09-13 | 香港应用科技研究院有限公司 | 由全卷积神经网络加速细胞学图像分类的图像预处理 |
CN109035252B (zh) * | 2018-06-29 | 2019-09-24 | 山东财经大学 | 一种面向医学图像分割的超像素方法 |
CN108960190B (zh) * | 2018-07-23 | 2021-11-30 | 西安电子科技大学 | 基于fcn图像序列模型的sar视频目标检测方法 |
CN109101907B (zh) * | 2018-07-28 | 2020-10-30 | 华中科技大学 | 一种基于双边分割网络的车载图像语义分割系统 |
CN109448361B (zh) * | 2018-09-18 | 2021-10-19 | 云南大学 | 居民交通出行流量预测系统及其预测方法 |
CN109522807B (zh) * | 2018-10-22 | 2020-11-27 | 深圳先进技术研究院 | 基于自生成特征的卫星影像识别系统、方法及电子设备 |
CN109508715B (zh) * | 2018-10-30 | 2022-11-08 | 南昌大学 | 一种基于深度学习的车牌定位和识别方法 |
CN109784192B (zh) * | 2018-12-20 | 2023-04-18 | 西安电子科技大学 | 基于超像素特征提取神经网络算法的高光谱影像分类方法 |
CN109766822B (zh) * | 2019-01-07 | 2021-02-05 | 山东大学 | 基于神经网络的手势识别方法及系统 |
CN109858539A (zh) * | 2019-01-24 | 2019-06-07 | 武汉精立电子技术有限公司 | 一种基于深度学习图像语义分割模型的roi区域提取方法 |
CN111753834B (zh) * | 2019-03-29 | 2024-03-26 | 中国水利水电科学研究院 | 基于深度神经网络的种植地块结构语义分割方法和装置 |
CN110298226B (zh) * | 2019-04-03 | 2023-01-06 | 复旦大学 | 一种毫米波图像人体携带物的级联检测方法 |
CN110070531B (zh) * | 2019-04-19 | 2021-05-07 | 京东方科技集团股份有限公司 | 用于检测眼底图片的模型训练方法、眼底图片的检测方法及装置 |
CN110163294B (zh) * | 2019-05-29 | 2023-05-09 | 广东工业大学 | 基于降维操作和卷积网络的遥感图像变化区域检测方法 |
CN110197182A (zh) * | 2019-06-11 | 2019-09-03 | 中国电子科技集团公司第五十四研究所 | 基于上下文信息和注意力机制的遥感影像语义分割方法 |
CN110287967B (zh) * | 2019-06-28 | 2022-11-25 | 哈尔滨工业大学 | 一种基于图像的数字及机械表数字识别方法 |
CN112150477B (zh) * | 2019-11-15 | 2021-09-28 | 复旦大学 | 脑影像动脉全自动分割方法及装置 |
CN111767831B (zh) * | 2020-06-28 | 2024-01-12 | 北京百度网讯科技有限公司 | 用于处理图像的方法、装置、设备及存储介质 |
CN112561925A (zh) * | 2020-12-02 | 2021-03-26 | 中国联合网络通信集团有限公司 | 图像分割方法、系统、计算机设备及存储介质 |
CN114092494A (zh) * | 2021-11-29 | 2022-02-25 | 长春工业大学 | 一种基于超像素和全卷积神经网络的脑部mr图像分割方法 |
CN116258697B (zh) * | 2023-02-22 | 2023-11-24 | 浙江大学 | 基于粗标注的儿童皮肤病图像自动分类装置和方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103035001A (zh) * | 2012-12-06 | 2013-04-10 | 中国科学院自动化研究所 | 一种基于超像素分割的地基云自动检测方法 |
CN106022353A (zh) * | 2016-05-05 | 2016-10-12 | 浙江大学 | 一种基于超像素分割的图像语义标注方法 |
CN106127725A (zh) * | 2016-05-16 | 2016-11-16 | 北京工业大学 | 一种基于多分辨率cnn的毫米波雷达云图分割方法 |
CN106447658A (zh) * | 2016-09-26 | 2017-02-22 | 西北工业大学 | 基于全局和局部卷积网络的显著性目标检测方法 |
-
2017
- 2017-03-24 CN CN201710182281.0A patent/CN107016677B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103035001A (zh) * | 2012-12-06 | 2013-04-10 | 中国科学院自动化研究所 | 一种基于超像素分割的地基云自动检测方法 |
CN106022353A (zh) * | 2016-05-05 | 2016-10-12 | 浙江大学 | 一种基于超像素分割的图像语义标注方法 |
CN106127725A (zh) * | 2016-05-16 | 2016-11-16 | 北京工业大学 | 一种基于多分辨率cnn的毫米波雷达云图分割方法 |
CN106447658A (zh) * | 2016-09-26 | 2017-02-22 | 西北工业大学 | 基于全局和局部卷积网络的显著性目标检测方法 |
Non-Patent Citations (1)
Title |
---|
Fully Convolutional Networks for Semantic Segmentation;Jonathan Long 等;《2015 IEEE conference on computer vision and pattern recognition》;20150612;第3431-3440页 * |
Also Published As
Publication number | Publication date |
---|---|
CN107016677A (zh) | 2017-08-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107016677B (zh) | 一种基于fcn和cnn的云图分割方法 | |
Zaitoun et al. | Survey on image segmentation techniques | |
CN108510467B (zh) | 基于深度可变形卷积神经网络的sar图像目标识别方法 | |
CN109871902B (zh) | 一种基于超分辨率对抗生成级联网络的sar小样本识别方法 | |
CN109978848B (zh) | 基于多光源颜色恒常模型检测眼底图像中硬性渗出的方法 | |
Wang et al. | A novel multi-scale segmentation algorithm for high resolution remote sensing images based on wavelet transform and improved JSEG algorithm | |
CN114492619B (zh) | 一种基于统计和凹凸性的点云数据集构建方法及装置 | |
CN111583279A (zh) | 一种基于pcba的超像素图像分割方法 | |
CN111898621A (zh) | 一种轮廓形状识别方法 | |
CN110070545B (zh) | 一种城镇纹理特征密度自动提取城镇建成区的方法 | |
Kim et al. | Building detection in high resolution remotely sensed images based on automatic histogram-based fuzzy c-means algorithm | |
CN110310263B (zh) | 一种基于显著性分析和背景先验的sar图像居民区检测方法 | |
CN111091071B (zh) | 基于探地雷达双曲波拟合的地下目标检测方法及系统 | |
CN109741358B (zh) | 基于自适应超图学习的超像素分割方法 | |
Mourchid et al. | An image segmentation algorithm based on community detection | |
Wu et al. | Fast particle picking for cryo-electron tomography using one-stage detection | |
CN113705433A (zh) | 一种基于可见光航拍图像的电力线检测方法 | |
CN113378716A (zh) | 一种基于自监督条件的深度学习sar影像舰船识别方法 | |
Omidalizarandi et al. | Segmentation and classification of point clouds from dense aerial image matching | |
CN111539966A (zh) | 一种基于模糊c均值聚类的比色传感器阵列图像分割方法 | |
Wu et al. | Vehicle detection in high-resolution images using superpixel segmentation and CNN iteration strategy | |
Rathore et al. | A novel approach for ensemble clustering of colon biopsy images | |
CN115496936A (zh) | 一种基于图像切割和残差结构的蔬菜识别方法 | |
CN115205678A (zh) | 一种sar图像建筑物快速提取方法 | |
CN110211124B (zh) | 一种基于MobileNetV2的红外成像结冰湖泊检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |