CN110910390B - 一种基于深度畸变卷积的全景三维彩色点云语义分割方法 - Google Patents
一种基于深度畸变卷积的全景三维彩色点云语义分割方法 Download PDFInfo
- Publication number
- CN110910390B CN110910390B CN201911092681.8A CN201911092681A CN110910390B CN 110910390 B CN110910390 B CN 110910390B CN 201911092681 A CN201911092681 A CN 201911092681A CN 110910390 B CN110910390 B CN 110910390B
- Authority
- CN
- China
- Prior art keywords
- convolution
- panoramic image
- filling
- layer
- multiplied
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20016—Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Abstract
本发明属于三维点云数据处理与三维场景语义分割技术领域,一种基于深度畸变卷积的全景三维彩色点云语义分割方法,包括以下步骤:(1)获取全景三维彩色点云数据,(2)提取全景图像数据,(3)构建全景图像训练集,(4)构建深度全景图像语义分割网络,(5)训练深度全景图像语义分割网络,(6)进行语义分割。本发明的优点在于:对三维彩色点云中提取的含有畸变的全景图像模态,将畸变卷积的方法,应用到全景图像语义分割中,并将RBlock1模块应用到ASPP中,以提高对图像边缘和纹理的分割精度。同时在解码端将特征图与低层特征进行3次融合,充分利用了低层特征,提高了对整体全景三维彩色点云的分割精度。
Description
技术领域
本发明涉及一种基于深度畸变卷积的全景三维彩色点云语义分割方法,属于三维点云数据处理与三维场景语义分割技术领域。
背景技术
在数字化现实世界的过程中,三维点云数据记录了物体表面的几何属性和位置信息,二维图像记录了物体表面的颜色信息和纹理信息,二者的深度融合,将形成一种新兴的数字媒体,即三维彩色点云数据,三维彩色点云数据是三维点云数据的进一步发展,可以更加精确地表述现实世界。全景图像作为三维彩色点云中的一个模态,其精确地语义分割是决定三维彩色点云精确理解的关键技术,具有较强的理论意义和实用价值。
深度全景三维彩色点云语义分割的目的即进行像素级地分割,赋予每个像素一个标签。常用全景图像语义分割(Semantic Segmentation)方法有:全卷积网络(FCN)、SegNet、ConvNet、PSPNet、ERF-PSPNet、Deeplab系列方法,其中最传统的方法是FCN,其采用的反卷积和上采样使得其编码-解码结构的图像分割,Deeplab V3+是它们其中性能最优的。
经大量研究发现,与本发明相近的深度全景三维彩色点云语义分割方法如下:由于全景图像含有畸变,不能用传统图像语义分割解决。传统解决畸变问题有两种思路:1.将全景图像转换为普通图像,但这种方法难免会存在一定的畸变。2.利用畸变卷积直接处理全景图像。本文利用第2种方法,这种方法存在以下不足之处:1)利用畸变卷积处理畸变图像时,畸变卷积的畸变程度并不能随着图像而自适应变化,影响分割准确度;2)现有全景图像语义分割方法,由于其卷积和池化操作,对全景图像纹理和边缘的分割精度仍可增强,准确度有待提高。
发明内容
为了进一步提高三维彩色点云语义分割的精度,本发明提供了一种基于深度畸变卷积的全景三维彩色点云语义分割方法。本发明是在利用三维彩色点云图像模态的语义分割解决三维彩色点云语义分割问题,为全景图像设计一种新型语义分割框架,从而实现三维彩色点云的准确语义分割。
为了实现上述发明目的,解决已有技术中存在的向题,本发明采取的技术方案是:一种基于深度畸变卷积的全景三维彩色点云语义分割方法,其特征在于:
步骤1、获取全景三维彩色点云数据,利用三维彩色激光扫描测距系统,对室外场景进行全向扫描,获得一幅全景三维彩色点云P={p(i,j)=(x(i,j),y(i,j),z(i,j),r(i,j),g(i,j),b(i,j))|1≤i≤m,1≤j≤n},其中,p(i,j)为三维彩色点云P的彩色点,(x(i,j),y(i,j),z(i,j))为彩色点p(i,j)的坐标,(r(i,j),g(i,j),b(i,j))为彩色点p(i,j)的颜色,m为三维彩色点云P的列数,n为三维彩色点云P的行数,i为三维彩色点云P的扫描列号,j为三维彩色点云P的扫描行号;
步骤2、提取全景图像数据,从全景三维彩色点云P中,提取全景图像数据I={c(i,j)=(r(i,j),g(i,j),b(i,j))|1≤i≤m,1≤j≤n},从全景三维彩色点云P中提取的图像为全景图像,含有畸变;
步骤3、构建全景图像训练集,利用步骤1和步骤2的方法,采集2000张全景图像,为了增加训练集全景图像的样本数,以适合深度学习,对已获得的每一张全景图像进行降采样,在降采样过程中,抽取像素的扫描列号i和扫描行号j均为4的整数倍,即i∈{1+4h,2+4h,3+4h,4+4h},j∈{1+4l,2+4l,3+4l,4+4l},其中,h和l为正整数,因此扫描行列号的组合方式有16种,进而每张全景图像降采样为16张,2000张全景图像降采样为32000张全景图像,并对其进行标记,标记每一张全景图像中每一个像素的类别,形成全景图像训练集;
步骤4、构建深度全景图像语义分割网络,深度全景图像语义分割网络主要包括编码端和解码端,编码端包括畸变卷积层、Resnet-101网络和改进的空洞空间金字塔池化模块,解码端包括上采样模块和特征结合模块,具体包括以下子步骤:
(a)、畸变卷积层DCL实现输入全景图像的畸变卷积操作,每一输出通道的畸变卷积均按公式(1)进行描述,
其中,为输出特征图S中第列行上的像素,为卷积核Kc中第列第行上的元素,Ic为输入全景图像I的颜色通道图像,c∈{1,2,3},I1、I2、I3分别表示输入全景图像I的R、G、B通道图像,为颜色通道图像Ic中第列第行上的像素,为全景图像的畸变采样坐标,用于抵消全景图像中畸变的影响,int表示向下取整数,畸变卷积区域9×7,卷积核Kc尺寸7×7,步长为1,填充方式为相同填充,输出通道数为3;
(b)、将全景图像经过畸变卷积得到的特征图,输入到Resnet-101网络中,Resnet-101网络依次包括6个部分:1个卷积层RConv1、1个池化层RPool1和4组卷积层GConv1、GConv2、GConv3、GConv4,串行连接,网络深度共计101层;卷积层RConv1的参数为卷积核尺寸7×7、步长2、相同填充、输出通道数64;池化层RPool1的参数为3×3最大池化、步长2、相同填充;卷积层组GConv1包含3个相同的卷积块,每个卷积块包含3个卷积层,第1个卷积层的参数为卷积核尺寸1×1、步长1、无填充、输出通道数64,第2个卷积层的参数为卷积核尺寸3×3、步长1、相同填充、输出通道数64,第3个卷积层的参数为卷积核尺寸1×1、步长1、无填充、输出通道数256;卷积层组GConv2包含4个相同的卷积块,每个卷积块包含3个卷积层,第1个卷积层的参数为卷积核尺寸1×1、步长1、无填充、输出通道数128,第2个卷积层的参数为卷积核尺寸3×3、步长2、相同填充、输出通道数128,第3个卷积层的参数为卷积核尺寸1×1、步长1、无填充、输出通道数512;卷积层组GConv3包含23个相同的卷积块,每个卷积块包含3个卷积层,第1个卷积层的参数为卷积核尺寸1×1、步长1、无填充、输出通道数256,第2个卷积层的参数为卷积核尺寸3×3、步长1、相同填充、输出通道数256,第3个卷积层的参数为卷积核尺寸1×1、步长1、无填充、输出通道数1024;卷积层组GConv4包含3个相同的卷积块,每个卷积块包含3个卷积层,第1个卷积层的参数为卷积核尺寸1×1、步长1、无填充、输出通道数512,第2个卷积层的参数为卷积核尺寸3×3、步长1、相同填充、输出通道数512,第3个卷积层的参数为卷积核尺寸1×1、步长1、无填充、输出通道数2048;
(c)、将Resnet-101网络输出的特征图,输入到改进的空洞空间金字塔池化模块IASPP中,改进的空洞空间金字塔池化模块包括并列的6个部分:1个卷积层IConv1、3个空洞卷积层AConv1、AConv2和AConv3、1个全局平均池化层IPool1和1个改进卷积块RBlock1,并行连接;卷积层IConv1的参数为卷积核尺寸1×1、步长1、无填充、输出通道数256;空洞卷积层AConv1的参数为卷积核尺寸3×3、步长1、空洞率12、相同填充、输出通道数256;空洞卷积层AConv2的参数为卷积核尺寸3×3、步长1、空洞率24、相同填充、输出通道数256;空洞卷积层AConv3的参数为卷积核尺寸3×3、步长1、空洞率36、相同填充、输出通道数256;全局平均池化层IPool1首先进行全局平均池化,得到256张尺寸为1×1的特征图,然后进行卷积核尺寸1×1、步长1、无填充、输出通道数256的卷积操作,最后进行双线性插值上采样,得到256张与空洞卷积层输出特征图尺寸相同的特征图;改进卷积块RBlock1依次包括3个卷积层和1个加法器,第1个卷积层的参数为卷积核尺寸1×1、步长1、无填充、输出通道数256,第2个卷积层的参数为卷积核尺寸3×3、步长1、相同填充、输出通道数256,第3个卷积层的参数为卷积核尺寸3×3、步长1、相同填充、输出通道数256,最后加法器将第3个卷积层输出的特征图与第1个卷积层输出的特征图相加,作为RBlock1的输出,改进卷积块RBlock1的增加提高了算法对全景图像边缘和纹理的分割精度;上述6个部分输出的特征图拼接在一起,作为改进的空洞空间金字塔池化模块的输出;
(d)、将改进的空洞空间金字塔池化模块输出的特征图,输入到卷积层PConv1,卷积层PConv1的参数为卷积核尺寸1×1、步长1、无填充、输出通道数256,将经过卷积层PConv1的特征图输入到解码端的上采样模块USM,上采样模块将接收到的特征图进行上采样,使其与畸变卷积层输出的特征图尺寸相同;
(e)、将上采样模块输出的特征图,输入到解码端的特征结合模块FCM,特征结合模块首先将畸变卷积层DCL输出的特征图输入到卷积层FConv1,其参数为卷积核尺寸1×1、步长1、无填充、输出通道数48;将卷积层FConv1输出的特征图与上采样模块输出的特征图进行拼接,将拼接后的特征图输入到卷积层FConv2,其参数为卷积核尺寸1×1、步长1、无填充、输出通道数256;将卷积层FConv2输出的特征图与卷积层FConv1输出的特征图进行拼接,然后输入到卷积层FConv3,其参数为卷积核尺寸1×1、步长1、无填充、输出通道数256;将卷积层FConv3输出的特征图与卷积层FConv1输出的特征图进行拼接,然后输入到卷积层FConv4,其参数为卷积核尺寸1×1、步长1、无填充、输出通道数256;将卷积层FConv4输出的特征图输入到卷积层FConv5,其参数为卷积核尺寸1×1、步长1、无填充、输出通道数6;
步骤5、训练深度全景图像语义分割网络,利用步骤3构建的全景图像训练集来训练步骤4构建的深度全景图像语义分割网络,获得网络的参数和模型;
步骤6、进行语义分割,利用步骤5训练的深度全景图像语义分割网络,对新采集的全景三维彩色点云中的全景图像进行语义分割,获得全景图像语义分割结果,并利用全景图像中像素点和全景三维彩色点云中彩色点的一一对应关系,将全景图像语义分割结果映射到全景三维彩色点云中,获得全景三维彩色点云语义分割结果。
本发明有益效果是:一种基于深度畸变卷积的全景三维彩色点云语义分割方法,包括以下步骤:(1)获取全景三维彩色点云数据,(2)提取全景图像数据,(3)构建全景图像训练集,(4)构建深度全景图像语义分割网络,(5)训练深度全景图像语义分割网络,(6)进行语义分割。与已有技术相比,本发明的优点在于:设计全景三维彩色点云语义分割方法新框架,对三维彩色点云中提取的含有畸变的全景图像模态,将畸变卷积的方法,应用到全景图像语义分割中,并将RBlock1模块应用到ASPP中,以提高对图像边缘和纹理的分割精度。同时在解码端将特征图与低层特征进行3次融合,充分利用了低层特征,从而提高了对整体全景三维彩色点云的分割精度。
附图说明
图1是本发明方法步骤流程图。
图2是全景图像示意图。
图中:(a)三维彩色点云示意图,(b)三维彩色点云全景图像模态示意图。
图3全景图像降采样示意图。
图4是深度全景图像语义分割网络示意图。
图5是7x9畸变卷积核示意图。
图6是Resnet-101网络结构示意图。
图7是IASPP网络结构示意图。
图8是语义分割网络解码端结构示意图。
图9是场景1全景图像语义分割结果图。
图中:(a)全景图像语义分割原始图像图,(b)全景图像语义分割结果图。
图10是场景2全景图像语义分割结果图。
图中:(a)全景图像语义分割原始图像图,(b)全景图像语义分割结果图。
具体实施方式
下面结合附图对本发明作进一步说明。
如图1所示,一种基于深度畸变卷积的全景三维彩色点云语义分割方法,包括以下步骤:
步骤1、获取全景三维彩色点云数据,利用三维彩色激光扫描测距系统,对室外场景进行全向扫描,获得一幅全景三维彩色点云P={p(i,j)=(x(i,j),y(i,j),z(i,j),r(i,j),g(i,j),b(i,j))|1≤i≤m,1≤j≤n},其中,p(i,j)为三维彩色点云P的彩色点,(x(i,j),y(i,j),z(i,j))为彩色点p(i,j)的坐标,(r(i,j),g(i,j),b(i,j))为彩色点p(i,j)的颜色,m为三维彩色点云P的列数,n为三维彩色点云P的行数,i为三维彩色点云P的扫描列号,j为三维彩色点云P的扫描行号;
步骤2、提取全景图像数据,从全景三维彩色点云P中,提取全景图像数据I={c(i,j)=(r(i,j),g(i,j),b(i,j))|1≤i≤m,1≤j≤n},从全景三维彩色点云P中提取的图像为全景图像,含有畸变,如图2所示;
步骤3、构建全景图像训练集,利用步骤1和步骤2的方法,采集2000张全景图像,为了增加训练集全景图像的样本数,以适合深度学习,对已获得的每一张全景图像进行降采样,在降采样过程中,抽取像素的扫描列号i和扫描行号j均为4的整数倍,即i∈{1+4h,2+4h,3+4h,4+4h},j∈{1+4l,2+4l,3+4l,4+4l},其中,h和l为正整数,因此扫描行列号的组合方式有16种,进而每张全景图像降采样为16张,2000张全景图像降采样为32000张全景图像,并对其进行标记,标记每一张全景图像中每一个像素的类别,形成全景图像训练集,如图3所示;
步骤4、构建深度全景图像语义分割网络,如图4所示,深度全景图像语义分割网络主要包括编码端和解码端,编码端包括畸变卷积层、Resnet-101网络和改进的空洞空间金字塔池化模块,解码端包括上采样模块和特征结合模块,具体包括以下子步骤:
(a)、畸变卷积层DCL实现输入全景图像的畸变卷积操作,每一输出通道的畸变卷积均按公式(1)进行描述,
其中,为输出特征图S中第列行上的像素,为卷积核Kc中第列第行上的元素,Ic为输入全景图像I的颜色通道图像,c∈{1,2,3},I1、I2、I3分别表示输入全景图像I的R、G、B通道图像,为颜色通道图像Ic中第列第行上的像素,为全景图像的畸变采样坐标,用于抵消全景图像中畸变的影响,int表示向下取整数,畸变卷积区域9×7,卷积核Kc尺寸7×7,步长为1,填充方式为相同填充,输出通道数为3,如图5所示;
(b)、将全景图像经过畸变卷积得到的特征图,输入到Resnet-101网络中,Resnet-101网络依次包括6个部分:1个卷积层RConv1、1个池化层RPool1和4组卷积层GConv1、GConv2、GConv3、GConv4,串行连接,网络深度共计101层;卷积层RConv1的参数为卷积核尺寸7×7、步长2、相同填充、输出通道数64;池化层RPool1的参数为3×3最大池化、步长2、相同填充;卷积层组GConv1包含3个相同的卷积块,每个卷积块包含3个卷积层,第1个卷积层的参数为卷积核尺寸1×1、步长1、无填充、输出通道数64,第2个卷积层的参数为卷积核尺寸3×3、步长1、相同填充、输出通道数64,第3个卷积层的参数为卷积核尺寸1×1、步长1、无填充、输出通道数256;卷积层组GConv2包含4个相同的卷积块,每个卷积块包含3个卷积层,第1个卷积层的参数为卷积核尺寸1×1、步长1、无填充、输出通道数128,第2个卷积层的参数为卷积核尺寸3×3、步长2、相同填充、输出通道数128,第3个卷积层的参数为卷积核尺寸1×1、步长1、无填充、输出通道数512;卷积层组GConv3包含23个相同的卷积块,每个卷积块包含3个卷积层,第1个卷积层的参数为卷积核尺寸1×1、步长1、无填充、输出通道数256,第2个卷积层的参数为卷积核尺寸3×3、步长1、相同填充、输出通道数256,第3个卷积层的参数为卷积核尺寸1×1、步长1、无填充、输出通道数1024;卷积层组GConv4包含3个相同的卷积块,每个卷积块包含3个卷积层,第1个卷积层的参数为卷积核尺寸1×1、步长1、无填充、输出通道数512,第2个卷积层的参数为卷积核尺寸3×3、步长1、相同填充、输出通道数512,第3个卷积层的参数为卷积核尺寸1×1、步长1、无填充、输出通道数2048,如图6所示;
(c)、将Resnet-101网络输出的特征图,输入到改进的空洞空间金字塔池化模块IASPP中,改进的空洞空间金字塔池化模块包括并列的6个部分:1个卷积层IConv1、3个空洞卷积层AConv1、AConv2和AConv3、1个全局平均池化层IPool1和1个改进卷积块RBlock1,并行连接;卷积层IConv1的参数为卷积核尺寸1×1、步长1、无填充、输出通道数256;空洞卷积层AConv1的参数为卷积核尺寸3×3、步长1、空洞率12、相同填充、输出通道数256;空洞卷积层AConv2的参数为卷积核尺寸3×3、步长1、空洞率24、相同填充、输出通道数256;空洞卷积层AConv3的参数为卷积核尺寸3×3、步长1、空洞率36、相同填充、输出通道数256;全局平均池化层IPool1首先进行全局平均池化,得到256张尺寸为1×1的特征图,然后进行卷积核尺寸1×1、步长1、无填充、输出通道数256的卷积操作,最后进行双线性插值上采样,得到256张与空洞卷积层输出特征图尺寸相同的特征图;改进卷积块RBlock1依次包括3个卷积层和1个加法器,第1个卷积层的参数为卷积核尺寸1×1、步长1、无填充、输出通道数256,第2个卷积层的参数为卷积核尺寸3×3、步长1、相同填充、输出通道数256,第3个卷积层的参数为卷积核尺寸3×3、步长1、相同填充、输出通道数256,最后加法器将第3个卷积层输出的特征图与第1个卷积层输出的特征图相加,作为RBlock1的输出,改进卷积块RBlock1的增加提高了算法对全景图像边缘和纹理的分割精度;上述6个部分输出的特征图拼接在一起,作为改进的空洞空间金字塔池化模块的输出,如图7所示;
(d)、将改进的空洞空间金字塔池化模块输出的特征图,输入到卷积层PConv1,卷积层PConv1的参数为卷积核尺寸1×1、步长1、无填充、输出通道数256,将经过卷积层PConv1的特征图输入到解码端的上采样模块USM,上采样模块将接收到的特征图进行上采样,使其与畸变卷积层输出的特征图尺寸相同,如图8所示;
(e)、将上采样模块输出的特征图,输入到解码端的特征结合模块FCM,特征结合模块首先将畸变卷积层DCL输出的特征图输入到卷积层FConv1,其参数为卷积核尺寸1×1、步长1、无填充、输出通道数48;将卷积层FConv1输出的特征图与上采样模块输出的特征图进行拼接,将拼接后的特征图输入到卷积层FConv2,其参数为卷积核尺寸1×1、步长1、无填充、输出通道数256;将卷积层FConv2输出的特征图与卷积层FConv1输出的特征图进行拼接,然后输入到卷积层FConv3,其参数为卷积核尺寸1×1、步长1、无填充、输出通道数256;将卷积层FConv3输出的特征图与卷积层FConv1输出的特征图进行拼接,然后输入到卷积层FConv4,其参数为卷积核尺寸1×1、步长1、无填充、输出通道数256;将卷积层FConv4输出的特征图输入到卷积层FConv5,其参数为卷积核尺寸1×1、步长1、无填充、输出通道数6;
步骤5、训练深度全景图像语义分割网络,利用步骤3构建的全景图像训练集来训练步骤4构建的深度全景图像语义分割网络,获得网络的参数和模型;
步骤6、进行语义分割,利用步骤5训练的深度全景图像语义分割网络,对新采集的全景三维彩色点云中的全景图像进行语义分割,获得全景图像语义分割结果,如图9和图10所示,并利用全景图像中像素点和全景三维彩色点云中彩色点的一一对应关系,将全景图像语义分割结果映射到全景三维彩色点云中,获得全景三维彩色点云语义分割结果。
本发明优点在于:设计全景三维彩色点云语义分割方法新框架,对三维彩色点云中提取的含有畸变的全景图像模态,将畸变卷积的方法,应用到全景图像语义分割中,并将RBlock1模块应用到ASPP中,以提高对图像边缘和纹理的分割精度。同时在解码端将特征图与低层特征进行3次融合,充分利用了低层特征,从而提高了对整体全景三维彩色点云的分割精度。
Claims (1)
1.一种基于深度畸变卷积的全景三维彩色点云语义分割方法,其特征在于包括以下步骤:
步骤1、获取全景三维彩色点云数据,利用三维彩色激光扫描测距系统,对室外场景进行全向扫描,获得一幅全景三维彩色点云P={p(i,j)=(x(i,j),y(i,j),z(i,j),r(i,j),g(i,j),b(i,j))|1≤i≤m,1≤j≤n},其中,p(i,j)为三维彩色点云P的彩色点,(x(i,j),y(i,j),z(i,j))为彩色点p(i,j)的坐标,(r(i,j),g(i,j),b(i,j))为彩色点p(i,j)的颜色,m为三维彩色点云P的列数,n为三维彩色点云P的行数,i为三维彩色点云P的扫描列号,j为三维彩色点云P的扫描行号;
步骤2、提取全景图像数据,从全景三维彩色点云P中,提取全景图像数据I={c(i,j)=(r(i,j),g(i,j),b(i,j))|1≤i≤m,1≤j≤n},从全景三维彩色点云P中提取的图像为全景图像,含有畸变;
步骤3、构建全景图像训练集,利用步骤1和步骤2的方法,采集2000张全景图像,为了增加训练集全景图像的样本数,以适合深度学习,对已获得的每一张全景图像进行降采样,在降采样过程中,抽取像素的扫描列号i和扫描行号j均为4的整数倍,即i∈{1+4h,2+4h,3+4h,4+4h},j∈{1+4l,2+4l,3+4l,4+4l},其中,h和l为正整数,因此扫描行列号的组合方式有16种,进而每张全景图像降采样为16张,2000张全景图像降采样为32000张全景图像,并对其进行标记,标记每一张全景图像中每一个像素的类别,形成全景图像训练集;
步骤4、构建深度全景图像语义分割网络,深度全景图像语义分割网络主要包括编码端和解码端,编码端包括畸变卷积层、Resnet-101网络和改进的空洞空间金字塔池化模块,解码端包括上采样模块和特征结合模块,具体包括以下子步骤:
(a)、畸变卷积层DCL实现输入全景图像的畸变卷积操作,每一输出通道的畸变卷积均按公式(1)进行描述,
其中,为输出特征图S中第列行上的像素,为卷积核Kc中第列第行上的元素,Ic为输入全景图像I的颜色通道图像,c∈{1,2,3},I1、I2、I3分别表示输入全景图像I的R、G、B通道图像,为颜色通道图像Ic中第列第行上的像素,为全景图像的畸变采样坐标,用于抵消全景图像中畸变的影响,int表示向下取整数,畸变卷积区域9×7,卷积核Kc尺寸7×7,步长为1,填充方式为相同填充,输出通道数为3;
(b)、将全景图像经过畸变卷积得到的特征图,输入到Resnet-101网络中,Resnet-101网络依次包括6个部分:1个卷积层RConv1、1个池化层RPool1和4组卷积层GConv1、GConv2、GConv3、GConv4,串行连接,网络深度共计101层;卷积层RConv1的参数为卷积核尺寸7×7、步长2、相同填充、输出通道数64;池化层RPool1的参数为3×3最大池化、步长2、相同填充;卷积层组GConv1包含3个相同的卷积块,每个卷积块包含3个卷积层,第1个卷积层的参数为卷积核尺寸1×1、步长1、无填充、输出通道数64,第2个卷积层的参数为卷积核尺寸3×3、步长1、相同填充、输出通道数64,第3个卷积层的参数为卷积核尺寸1×1、步长1、无填充、输出通道数256;卷积层组GConv2包含4个相同的卷积块,每个卷积块包含3个卷积层,第1个卷积层的参数为卷积核尺寸1×1、步长1、无填充、输出通道数128,第2个卷积层的参数为卷积核尺寸3×3、步长2、相同填充、输出通道数128,第3个卷积层的参数为卷积核尺寸1×1、步长1、无填充、输出通道数512;卷积层组GConv3包含23个相同的卷积块,每个卷积块包含3个卷积层,第1个卷积层的参数为卷积核尺寸1×1、步长1、无填充、输出通道数256,第2个卷积层的参数为卷积核尺寸3×3、步长1、相同填充、输出通道数256,第3个卷积层的参数为卷积核尺寸1×1、步长1、无填充、输出通道数1024;卷积层组GConv4包含3个相同的卷积块,每个卷积块包含3个卷积层,第1个卷积层的参数为卷积核尺寸1×1、步长1、无填充、输出通道数512,第2个卷积层的参数为卷积核尺寸3×3、步长1、相同填充、输出通道数512,第3个卷积层的参数为卷积核尺寸1×1、步长1、无填充、输出通道数2048;
(c)、将Resnet-101网络输出的特征图,输入到改进的空洞空间金字塔池化模块IASPP中,改进的空洞空间金字塔池化模块包括并列的6个部分:1个卷积层IConv1、3个空洞卷积层AConv1、AConv2和AConv3、1个全局平均池化层IPool1和1个改进卷积块RBlock1,并行连接;卷积层IConv1的参数为卷积核尺寸1×1、步长1、无填充、输出通道数256;空洞卷积层AConv1的参数为卷积核尺寸3×3、步长1、空洞率12、相同填充、输出通道数256;空洞卷积层AConv2的参数为卷积核尺寸3×3、步长1、空洞率24、相同填充、输出通道数256;空洞卷积层AConv3的参数为卷积核尺寸3×3、步长1、空洞率36、相同填充、输出通道数256;全局平均池化层IPool1首先进行全局平均池化,得到256张尺寸为1×1的特征图,然后进行卷积核尺寸1×1、步长1、无填充、输出通道数256的卷积操作,最后进行双线性插值上采样,得到256张与空洞卷积层输出特征图尺寸相同的特征图;改进卷积块RBlock1依次包括3个卷积层和1个加法器,第1个卷积层的参数为卷积核尺寸1×1、步长1、无填充、输出通道数256,第2个卷积层的参数为卷积核尺寸3×3、步长1、相同填充、输出通道数256,第3个卷积层的参数为卷积核尺寸3×3、步长1、相同填充、输出通道数256,最后加法器将第3个卷积层输出的特征图与第1个卷积层输出的特征图相加,作为RBlock1的输出,改进卷积块RBlock1的增加提高了算法对全景图像边缘和纹理的分割精度;上述6个部分输出的特征图拼接在一起,作为改进的空洞空间金字塔池化模块的输出;
(d)、将改进的空洞空间金字塔池化模块输出的特征图,输入到卷积层PConv1,卷积层PConv1的参数为卷积核尺寸1×1、步长1、无填充、输出通道数256,将经过卷积层PConv1的特征图输入到解码端的上采样模块USM,上采样模块将接收到的特征图进行上采样,使其与畸变卷积层输出的特征图尺寸相同;
(e)、将上采样模块输出的特征图,输入到解码端的特征结合模块FCM,特征结合模块首先将畸变卷积层DCL输出的特征图输入到卷积层FConv1,其参数为卷积核尺寸1×1、步长1、无填充、输出通道数48;将卷积层FConv1输出的特征图与上采样模块输出的特征图进行拼接,将拼接后的特征图输入到卷积层FConv2,其参数为卷积核尺寸1×1、步长1、无填充、输出通道数256;将卷积层FConv2输出的特征图与卷积层FConv1输出的特征图进行拼接,然后输入到卷积层FConv3,其参数为卷积核尺寸1×1、步长1、无填充、输出通道数256;将卷积层FConv3输出的特征图与卷积层FConv1输出的特征图进行拼接,然后输入到卷积层FConv4,其参数为卷积核尺寸1×1、步长1、无填充、输出通道数256;将卷积层FConv4输出的特征图输入到卷积层FConv5,其参数为卷积核尺寸1×1、步长1、无填充、输出通道数6;
步骤5、训练深度全景图像语义分割网络,利用步骤3构建的全景图像训练集来训练步骤4构建的深度全景图像语义分割网络,获得网络的参数和模型;
步骤6、进行语义分割,利用步骤5训练的深度全景图像语义分割网络,对新采集的全景三维彩色点云中的全景图像进行语义分割,获得全景图像语义分割结果,并利用全景图像中像素点和全景三维彩色点云中彩色点的一一对应关系,将全景图像语义分割结果映射到全景三维彩色点云中,获得全景三维彩色点云语义分割结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911092681.8A CN110910390B (zh) | 2019-11-11 | 2019-11-11 | 一种基于深度畸变卷积的全景三维彩色点云语义分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911092681.8A CN110910390B (zh) | 2019-11-11 | 2019-11-11 | 一种基于深度畸变卷积的全景三维彩色点云语义分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110910390A CN110910390A (zh) | 2020-03-24 |
CN110910390B true CN110910390B (zh) | 2022-10-21 |
Family
ID=69817086
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911092681.8A Active CN110910390B (zh) | 2019-11-11 | 2019-11-11 | 一种基于深度畸变卷积的全景三维彩色点云语义分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110910390B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111968121B (zh) * | 2020-08-03 | 2021-12-03 | 电子科技大学 | 一种基于实例嵌入与语义融合的三维点云场景分割方法 |
CN112329799A (zh) * | 2020-12-01 | 2021-02-05 | 上海大学 | 一种点云彩色化算法 |
CN112837278B (zh) * | 2021-01-25 | 2024-04-19 | 浙江工业大学 | 基于深度边界监督的牙齿全景片龋齿识别方法 |
CN113256645B (zh) * | 2021-04-12 | 2023-07-28 | 中国计量大学 | 一种基于改进密度聚类的彩色图像分割方法 |
CN113536904B (zh) * | 2021-06-03 | 2023-08-25 | 大连民族大学 | 时频域联合全景分割方法、系统和介质 |
CN113536905B (zh) * | 2021-06-03 | 2023-08-25 | 大连民族大学 | 时频域联合全景分割卷积神经网络及应用 |
CN113689434B (zh) * | 2021-07-14 | 2022-05-27 | 淮阴工学院 | 一种基于条带池化的图像语义分割方法 |
CN114359902B (zh) * | 2021-12-03 | 2024-04-26 | 武汉大学 | 基于多尺度特征融合的三维点云语义分割方法 |
CN116310349B (zh) * | 2023-05-25 | 2023-08-15 | 西南交通大学 | 基于深度学习的大规模点云分割方法、装置、设备及介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108062756A (zh) * | 2018-01-29 | 2018-05-22 | 重庆理工大学 | 基于深度全卷积网络和条件随机场的图像语义分割方法 |
CN110119728A (zh) * | 2019-05-23 | 2019-08-13 | 哈尔滨工业大学 | 基于多尺度融合语义分割网络的遥感图像云检测方法 |
CN110232394A (zh) * | 2018-03-06 | 2019-09-13 | 华南理工大学 | 一种多尺度图像语义分割方法 |
-
2019
- 2019-11-11 CN CN201911092681.8A patent/CN110910390B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108062756A (zh) * | 2018-01-29 | 2018-05-22 | 重庆理工大学 | 基于深度全卷积网络和条件随机场的图像语义分割方法 |
CN110232394A (zh) * | 2018-03-06 | 2019-09-13 | 华南理工大学 | 一种多尺度图像语义分割方法 |
CN110119728A (zh) * | 2019-05-23 | 2019-08-13 | 哈尔滨工业大学 | 基于多尺度融合语义分割网络的遥感图像云检测方法 |
Non-Patent Citations (1)
Title |
---|
基于彩色-深度图像和深度学习的场景语义分割网络;代具亭等;《科学技术与工程》;20180718(第20期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN110910390A (zh) | 2020-03-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110910390B (zh) | 一种基于深度畸变卷积的全景三维彩色点云语义分割方法 | |
CN113362223B (zh) | 基于注意力机制和双通道网络的图像超分辨率重建方法 | |
CN112734646B (zh) | 一种基于特征通道划分的图像超分辨率重建方法 | |
CN106875437B (zh) | 一种面向rgbd三维重建的关键帧提取方法 | |
CN109447919B (zh) | 结合多视角与语义纹理特征的光场超分辨率重建方法 | |
CN112102472A (zh) | 稀疏三维点云稠密化方法 | |
CN110349087B (zh) | 基于适应性卷积的rgb-d图像高质量网格生成方法 | |
US11727628B2 (en) | Neural opacity point cloud | |
CN113837946B (zh) | 一种基于递进蒸馏网络的轻量化图像超分辨率重建方法 | |
CN113343822B (zh) | 一种基于3d卷积的光场显著性目标检测方法 | |
CN111833261A (zh) | 一种基于注意力的生成对抗网络的图像超分辨率复原方法 | |
CN111640116A (zh) | 基于深层卷积残差网络的航拍图建筑物分割方法及装置 | |
CN116310111A (zh) | 基于伪平面约束的室内场景三维重建方法 | |
CN112949754B (zh) | 一种基于图像融合的文本识别数据合成方法 | |
CN113743515B (zh) | 基于自监督自学习特征点的遥感影像特征匹配方法 | |
CN112906675B (zh) | 一种固定场景中的无监督人体关键点检测方法及系统 | |
CN115511705A (zh) | 一种基于可变形残差卷积神经网络的图像超分辨率重建方法 | |
CN110348339B (zh) | 一种基于实例分割的手写文档文本行的提取方法 | |
CN115937030A (zh) | 一种基于动态对齐及光照感知卷积的阴影去除方法 | |
CN112164065B (zh) | 一种基于轻量化卷积神经网络的实时图像语义分割方法 | |
CN110111254B (zh) | 一种基于多级递归引导和渐进监督的深度图超分辨率方法 | |
CN111127587B (zh) | 一种基于对抗生成网络的无参考图像质量地图生成方法 | |
CN112365400A (zh) | 一种快速光场角度超分辨重建方法 | |
CN114022360B (zh) | 基于深度学习的渲染图像超分辨系统 | |
CN110853040A (zh) | 一种基于超分辨率重建的图像协同分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |