CN111126473A - 基于全卷积神经网络的点云数据分类方法及电子设备 - Google Patents
基于全卷积神经网络的点云数据分类方法及电子设备 Download PDFInfo
- Publication number
- CN111126473A CN111126473A CN201911312040.9A CN201911312040A CN111126473A CN 111126473 A CN111126473 A CN 111126473A CN 201911312040 A CN201911312040 A CN 201911312040A CN 111126473 A CN111126473 A CN 111126473A
- Authority
- CN
- China
- Prior art keywords
- convolution
- processing
- data
- point cloud
- prediction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 26
- 238000012545 processing Methods 0.000 claims abstract description 119
- 230000011218 segmentation Effects 0.000 claims abstract description 15
- 238000011176 pooling Methods 0.000 claims description 14
- 238000010008 shearing Methods 0.000 claims description 10
- 238000013527 convolutional neural network Methods 0.000 claims description 5
- 230000003068 static effect Effects 0.000 claims description 5
- 238000010586 diagram Methods 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 4
- 238000000638 solvent extraction Methods 0.000 claims 1
- 230000008569 process Effects 0.000 description 13
- 230000006870 function Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000013480 data collection Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000003252 repetitive effect Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
Abstract
公开了一种基于全卷积神经网络的点云数据分类方法及电子设备。该方法可以包括:步骤1:针对点云数据进行鸟瞰投射,进而进行二维网格分割,获得网格特征图;步骤2:针对网格特征图进行特征提取,获得输入特征图;步骤3:针对输入特征图进行卷积处理,获得卷积数据图;步骤4:针对卷积数据图进行预测与反卷积处理,获得输出特征图。本发明通过全卷积神经网络,优化处理输入的点云数据,实现激光点云数据的直接语义分割和分类。
Description
技术领域
本发明涉及数据处理领域,更具体地,涉及一种基于全卷积神经网络的点云数据分类方法及电子设备。
背景技术
在地图数据采集车行驶并采集的过程中,道路上通常存在其它车辆、行人等交通参与者,这些交通参与者是不属于地图的元素,然而,在地图数据采集阶段,这些目标通常会被无条件地接受并采集下来,这类不属于地图的元素被称为非地图元素。若这些非地图元素在高精度地图制图阶段未被过滤而直接添加到地图中,将会存在两方面问题:第一,对道路标注识别造成干扰,由于直接使用未过滤的原始点云数据构建的三维地图,这类地图包含非地图元素的点,这些点覆盖于道路路面上,遮挡了车道线、行驶方向箭头以及人行道线等路面标注,为路面的结构化语义识别带来困难,在交通越是拥堵的城市路段,此类非地图元素对于地图路面识别的影响越是显著;第二,对基于高精度地图的匹配定位的稳定性造成干扰,目前广泛使用的点云匹配定位算法如迭代最近点(Iterative Closest Points,ICP)分布变换(Normal Distributions Transform,NDT)算法均通过比较两个点云的相似性实现点云的配准,包含了大量非地图元素点的地图将造成这类相似性匹配方法无法稳定工作。
传统的基于CNN的分割方法:为了对一个像素分类,使用该像素周围的一个图像块作为CNN的输入用于训练和预测。这种方法有以下缺点:一是存储开销很大,例如对每个像素使用的图像块的大小为15×15,然后不断滑动窗口,每次滑动的窗口给CNN进行判别分类,因此则所需的存储空间根据滑动窗口的次数和大小急剧上升;二是计算效率低下。相邻的像素块基本上是重复的,针对每个像素块逐个计算卷积,这种计算也有很大程度上的重复。三是像素块大小的限制了感知区域的大小。通常像素块的大小比整幅图像的大小小很多,只能提取一些局部的特征,从而导致分类的性能受到限制。因此,有必要开发一种基于全卷积神经网络的点云数据分类方法及电子设备。
公开于本发明背景技术部分的信息仅仅旨在加深对本发明的一般背景技术的理解,而不应当被视为承认或以任何形式暗示该信息构成已为本领域技术人员所公知的现有技术。
发明内容
本发明提出了一种基于全卷积神经网络的点云数据分类方法及电子设备,其能够通过全卷积神经网络,优化处理输入的点云数据,实现激光点云数据的直接语义分割和分类。
第一方面,本公开实施例提供了一种基于全卷积神经网络的点云数据分类方法,包括:步骤1:针对点云数据进行鸟瞰投射,进而进行二维网格分割,获得网格特征图;步骤2:针对所述网格特征图进行特征提取,获得输入特征图;步骤3:针对所述输入特征图进行卷积处理,获得卷积数据图;步骤4:针对所述卷积数据图进行预测与反卷积处理,获得输出特征图。
优选地,还包括:确定所述输出特征图中每一个网格的概率,完成对所述点云数据的分类。
优选地,所述输出特征图与所述输入特征图的大小与网格划分均一致。
优选地,所述步骤3包括:步骤301:确定卷积次数为N;步骤302:针对所述输入特征图进行卷积块处理,卷积块处理完成后进行池化处理,获得卷积处理数据;步骤303:将所述卷积处理数据作为输入特征图,重复步骤302,直至完成N次卷积次数,获得第N次卷积处理数据;步骤304:将第N次卷积处理数据进行多次全卷积处理,获得所述卷积数据图。
优选地,所述卷积块处理包括多次卷积层处理。
优选地,所述全卷积处理包括1次卷积层处理与1次dropout处理。
优选地,所述步骤4包括:步骤401:确定预测种类,确定预测与反卷积处理的次数为M;步骤402:针对所述卷积数据图进行预测,将预测结果进行反卷积处理与剪切处理,获得预测数据;步骤403:针对第N-1次卷积处理数据进行预测,与所述预测数据叠加,将叠加结果进行反卷积处理与剪切处理,获得叠加预测数据;步骤404:针对第N-2次卷积处理数据进行预测,与所述叠加预测数据叠加,重复步骤403,直至完成M次预测与反卷积处理,获得所述输出特征图。
优选地,所述预测种类包括:机动车、行人、自行车、其他动态目标、其他静态目标与未知类型。
优选地,还包括:针对所述输出特征图进行softmax处理,获得所述输出特征图中每一个网格的概率。
作为本公开实施例的一种具体实现方式,
第二方面,本公开实施例还提供了一种电子设备,该电子设备包括:
存储器,存储有可执行指令;
处理器,所述处理器运行所述存储器中的所述可执行指令,以实现所述的基于全卷积神经网络的点云数据分类方法。
本发明的方法和装置具有其它的特性和优点,这些特性和优点从并入本文中的附图和随后的具体实施方式中将是显而易见的,或者将在并入本文中的附图和随后的具体实施方式中进行详细陈述,这些附图和具体实施方式共同用于解释本发明的特定原理。
附图说明
通过结合附图对本发明示例性实施例进行更详细的描述,本发明的上述以及其它目的、特征和优势将变得更加明显,其中,在本发明示例性实施例中,相同的参考标号通常代表相同部件。
图1示出了根据本发明的基于全卷积神经网络的点云数据分类方法的步骤的流程图。
具体实施方式
下面将参照附图更详细地描述本发明。虽然附图中显示了本发明的优选实施例,然而应该理解,可以以各种形式实现本发明而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了使本发明更加透彻和完整,并且能够将本发明的范围完整地传达给本领域的技术人员。
图1示出了根据本发明的基于全卷积神经网络的点云数据分类方法的步骤的流程图。
在该实施例中,根据本发明的基于全卷积神经网络的点云数据分类方法可以包括:步骤1:针对点云数据进行鸟瞰投射,进而进行二维网格分割,获得网格特征图;步骤2:针对网格特征图进行特征提取,获得输入特征图;步骤3:针对输入特征图进行卷积处理,获得卷积数据图;步骤4:针对卷积数据图进行预测与反卷积处理,获得输出特征图。
在一个示例中,还包括:确定输出特征图中每一个网格的概率,完成对点云数据的分类。
在一个示例中,输出特征图与输入特征图的大小与网格划分均一致。
在一个示例中,步骤3包括:步骤301:确定卷积次数为N;步骤302:针对输入特征图进行卷积块处理,卷积块处理完成后进行池化处理,获得卷积处理数据;步骤303:将卷积处理数据作为输入特征图,重复步骤302,直至完成N次卷积次数,获得第N次卷积处理数据;步骤304:将第N次卷积处理数据进行多次全卷积处理,获得卷积数据图。
在一个示例中,卷积块处理包括多次卷积层处理。
在一个示例中,全卷积处理包括1次卷积层处理与1次dropout处理。
在一个示例中,步骤4包括:步骤401:确定预测种类,确定预测与反卷积处理的次数为M;步骤402:针对卷积数据图进行预测,将预测结果进行反卷积处理与剪切处理,获得预测数据;步骤403:针对第N-1次卷积处理数据进行预测,与预测数据叠加,将叠加结果进行反卷积处理与剪切处理,获得叠加预测数据;步骤404:针对第N-2次卷积处理数据进行预测,与叠加预测数据叠加,重复步骤403,直至完成M次预测与反卷积处理,获得输出特征图。
在一个示例中,预测种类包括:机动车、行人、自行车、其他动态目标、其他静态目标与未知类型。
在一个示例中,还包括:针对输出特征图进行softmax处理,获得输出特征图中每一个网格的概率。
具体地,根据本发明的基于全卷积神经网络的点云数据分类方法可以包括:
步骤1:为了解决点云数据的无序性问题,针对点云数据进行鸟瞰投射,进而进行二维网格分割,分割后,点云中的每个点均落在对应的二维网格内,可用网格中格子的位置索引到点云中的任意点,无序的点云数据通过此变换变成了有序的二维矩阵,获得网格特征图。
步骤2:针对网格特征图以网格为单位进行特征提取,特征以网格内点云的统计特征和空间特征为主,提取了每个网格的以下特征:网格内所有点到激光雷达原点的距离的平均值da;网格所有点的形心相对于激光雷达原点的夹角ρ;网格内点的最大高度ha;网格内点的高度平均值hb;网格内点的高度方差值hc;网格内点的最大反射强度im;网格内点的反射强度方差in;网格内点的数量n;提取出每个网格的特征向量(da,ρ,ha,hb,hc,im,in,n)T后,获得输入特征图。得到二维化的输入特征图以后,点云语义分割问题就转化为了二维特征图中非地图元素的语义分割问题,那么,典型的全卷积神经网络均可用于本问题。根据使用的编码器网络的不同,全卷积神经网络结构(FCN)也存在着显著的差异,目前知名的分类模型包括AlexNet、VGG-16、GoogLeNet和ResNet等均可转化为全卷积模型,核心操作为:将其全连接层均替换为卷积层,输出空间映射而不是分类分数。这些映射由小步幅卷积上采样(又称反卷积)得到,来产生密集的像素级别的标签。FCN是对图像进行像素级的分类,从而实现语义级别的图像分割,他采用反卷积层对最后一个卷积层的feature map进行采样,让其恢复到输入图像相同的尺寸,从而对每个像素都进行了预测,保留了原始输入图像的空间信息。
步骤3:针对输入特征图进行卷积处理,获得卷积数据图:步骤301:确定卷积次数为N;步骤302:针对输入特征图进行卷积块处理,卷积块处理完成后进行池化处理,获得卷积处理数据;步骤303:将卷积处理数据作为输入特征图,重复步骤302,直至完成N次卷积次数,获得第N次卷积处理数据;步骤304:将第N次卷积处理数据进行多次全卷积处理,获得卷积数据图;其中,卷积块处理包括2-5次卷积层处理;全卷积处理包括1次卷积层处理与1次dropout处理。
步骤4:针对卷积数据图进行预测与反卷积处理,获得输出特征图:步骤401:确定预测种类包括:机动车、行人、自行车、其他动态目标、其他静态目标与未知类型,确定预测与反卷积处理的次数为M;步骤402:针对卷积数据图进行预测,将预测结果进行反卷积处理与剪切处理,获得预测数据;步骤403:针对第N-1次卷积处理数据进行预测,与预测数据叠加,将叠加结果进行反卷积处理与剪切处理,获得叠加预测数据;步骤404:针对第N-2次卷积处理数据进行预测,与叠加预测数据叠加,重复步骤403,直至完成M次预测与反卷积处理,获得输出特征图,输出特征图与输入特征图的大小与网格划分均一致,针对输出特征图进行softmax处理,确定输出特征图中每一个网格的概率,完成对点云数据的分类。
本方法通过全卷积神经网络,优化处理输入的点云数据,实现激光点云数据的直接语义分割和分类。
应用示例
为便于理解本发明实施例的方案及其效果,以下给出一个具体应用示例。本领域技术人员应理解,该示例仅为了便于理解本发明,其任何具体细节并非意在以任何方式限制本发明。
根据本发明的基于全卷积神经网络的点云数据分类方法包括:
步骤1:为了解决点云数据的无序性问题,针对点云数据进行鸟瞰投射,进而进行512×512二维网格分割,其中二维网格的行方向为激光雷达的正前方向,列方向垂直于正方向。分割后,点云中的每个点均落在对应的二维网格内,可用网格中格子的位置索引到点云中的任意点,无序的点云数据通过此变换变成了有序的二维矩阵,获得网格特征图。
步骤2:针对网格特征图以网格为单位进行特征提取,特征以网格内点云的统计特征和空间特征为主,提取了每个网格的以下特征:网格内所有点到激光雷达原点的距离的平均值da;网格所有点的形心相对于激光雷达原点的夹角ρ;网格内点的最大高度ha;网格内点的高度平均值hb;网格内点的高度方差值hc;网格内点的最大反射强度im;网格内点的反射强度方差in;网格内点的数量n;提取出每个网格的特征向量(da,ρ,ha,hb,hc,im,in,n)T后,获得尺寸为512×512×8的输入特征图。
步骤3:针对输入特征图进行卷积处理,获得卷积数据图,如表1所示:步骤301:确定卷积次数为5,第1-2次卷积块处理均包括2次卷积层处理,第3-5次卷积块处理均包括3次卷积层处理,所有卷积层均采用3×3卷积核;步骤302:针对输入特征图进行卷积块处理,卷积块处理完成后进行池化处理,所有的池化层均使用最大池化,且最大池化的尺寸为2×2,获得卷积处理数据,由于特征提取阶段使用二维网格化组织点云数据特征,所以输入是尺寸为512×512×8的张量,表1中的卷积层均采用线性整流函数作为激活函数,池化层的步长为2×2,所以每经过一次池化,特征图的宽和高均变为原来的一半;步骤303:将卷积处理数据作为输入特征图,重复步骤302,直至完成5次卷积次数,获得第5次卷积处理数据;步骤304:将第5次卷积处理数据进行2次全卷积处理,获得卷积数据图;全卷积处理包括1次卷积层处理与1次dropout处理,加入dropout层防止模型过拟合。
表1
卷积数据图由于池化层步长的原因降至16×16,即每次Pool池化后图像变为原来的1/2,共使用了5次池化。分别对最终输出和中间池化层的输出进行步骤4的预测,组合预测输出图并上采样得到尺寸为512×512的输出特征图。
步骤4:针对卷积数据图进行预测与反卷积处理,获得输出特征图,如表2所示:步骤401:确定预测种类包括:机动车、行人、自行车、其他动态目标、其他静态目标与未知类型,确定预测与反卷积处理的次数为3;步骤402:针对卷积数据图进行预测,将预测结果进行反卷积处理与剪切处理,获得预测数据;步骤403:针对第4次卷积处理数据进行预测,与预测数据叠加,将叠加结果进行反卷积处理与剪切处理,获得叠加预测数据;步骤404:针对第3次卷积处理数据进行预测,与叠加预测数据叠加,重复步骤403,直至完成M次预测与反卷积处理,获得输出特征图,输出特征图与输入特征图的大小与网格划分均一致,针对输出特征图进行softmax处理,确定输出特征图中每一个网格的概率,完成对点云数据的分类。
表2
具体为,将fc-2层的输出输入到一个预测卷积层score-1,score-1层的卷积核大小为1×1,输出通道数为6。接着score-1层的输出被输入到反卷积层deconv-1,该反卷积层的作用是放大热图尺寸至32×32,即maxpool-4层的输出尺寸,以便于叠加两个预测图,这个反卷积层采用4×4的卷积核,步长为2×2,那么根据如下公式(1)与公式(2),由于反卷积操作是卷积的逆,其输出的尺寸为正常卷积的输入尺寸与填充尺寸之和,即下面公式式中的Wout和hout为输出图的宽高,那么反卷积的输出图宽高计算公式为:
wout=(win-1)×s+f (1)
hout=(hin-1)×s+f (2)
其中,S表示步长,f表示卷积核的尺寸,那么根据此公式,deconv-1层的输出尺寸为34×34,为了保证尺寸一致性,deconv-1的输出图被输入到剪切层crop-1,crop-1层剪去多出的2行2列得到尺寸为32×32×8的输出图。接着,在maxpool-4后面添加预测层score-2,同样采用1×1卷积核进行预测分类,得到尺寸为32×32×8的输出预测图。在此处添加第一次跳层,crop-1的输出图和score-2的输出图采用逐点相加的方法得到尺寸同样为32×32×8的输出图,这样的跳层使得深层特征和相对浅层(第四个池化层)的特征同时保留,至此完成了第一阶段的跳层。
以相同的方法实现第二阶段的跳层,如上表中的反卷积层deconv-2所示,首先对第一阶段跳层的输出进行反卷积,deconv-2采用4×4的卷积核以及2×2的步长,同理得到尺寸为66×66×8的输出图,预测图被进一步上采样,同理进行剪切得到尺寸为64×64×8的输出图,接着对maxpool-3的输出进行预测分类,将crop-2和score-3的输出进行跳层逐点相加,完成第二阶段的跳层,更浅层的特征(第三个池化层)被添加到最终的预测输出中。
在完成了两阶段的跳层之后,将预测图还原至输入尺寸(512×512×8),通过反卷积和剪切实现。如上表中反卷积层deconv-3所示,使用16×16的大卷积核,步长为8×8,将尺寸为64×64×8的预测图上采样至520×520×8,最后,经过剪切层crop-3剪除8行8列,得到尺寸为512×512×8的输出特征图。为了得到每个类别的分类概率,在最后添加softmax层,计算每一个网格属于每一类的概率,进而得到网格所属的类别。
综上所述,本发明通过全卷积神经网络,优化处理输入的点云数据,实现激光点云数据的直接语义分割和分类。
本领域技术人员应理解,上面对本发明的实施例的描述的目的仅为了示例性地说明本发明的实施例的有益效果,并不意在将本发明的实施例限制于所给出的任何示例。
根据本公开实施例的电子设备包括存储器和处理器。
该存储器用于存储非暂时性计算机可读指令。具体地,存储器可以包括一个或多个计算机程序产品,该计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。该易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。该非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。
该处理器可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其它形式的处理单元,并且可以控制电子设备中的其它组件以执行期望的功能。在本公开的一个实施例中,该处理器用于运行该存储器中存储的该计算机可读指令。
本领域技术人员应能理解,为了解决如何获得良好用户体验效果的技术问题,本实施例中也可以包括诸如通信总线、接口等公知的结构,这些公知的结构也应包含在本公开的保护范围之内。
有关本实施例的详细说明可以参考前述各实施例中的相应说明,在此不再赘述。
以上已经描述了本发明的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。
Claims (10)
1.一种基于全卷积神经网络的点云数据分类方法,其特征在于,包括:
步骤1:针对点云数据进行鸟瞰投射,进而进行二维网格分割,获得网格特征图;
步骤2:针对所述网格特征图进行特征提取,获得输入特征图;
步骤3:针对所述输入特征图进行卷积处理,获得卷积数据图;
步骤4:针对所述卷积数据图进行预测与反卷积处理,获得输出特征图。
2.根据权利要求1所述的基于全卷积神经网络的点云数据分类方法,其中,还包括:
确定所述输出特征图中每一个网格的概率,完成对所述点云数据的分类。
3.根据权利要求2所述的基于全卷积神经网络的点云数据分类方法,其中,所述输出特征图与所述输入特征图的大小与网格划分均一致。
4.根据权利要求1所述的基于全卷积神经网络的点云数据分类方法,其中,所述步骤3包括:
步骤301:确定卷积次数为N;
步骤302:针对所述输入特征图进行卷积块处理,卷积块处理完成后进行池化处理,获得卷积处理数据;
步骤303:将所述卷积处理数据作为输入特征图,重复步骤302,直至完成N次卷积次数,获得第N次卷积处理数据;
步骤304:将第N次卷积处理数据进行多次全卷积处理,获得所述卷积数据图。
5.根据权利要求4所述的基于全卷积神经网络的点云数据分类方法,其中,所述卷积块处理包括多次卷积层处理。
6.根据权利要求4所述的基于全卷积神经网络的点云数据分类方法,其中,所述全卷积处理包括1次卷积层处理与1次dropout处理。
7.根据权利要求4所述的基于全卷积神经网络的点云数据分类方法,其中,所述步骤4包括:
步骤401:确定预测种类,确定预测与反卷积处理的次数为M;
步骤402:针对所述卷积数据图进行预测,将预测结果进行反卷积处理与剪切处理,获得预测数据;
步骤403:针对第N-1次卷积处理数据进行预测,与所述预测数据叠加,将叠加结果进行反卷积处理与剪切处理,获得叠加预测数据;
步骤404:针对第N-2次卷积处理数据进行预测,与所述叠加预测数据叠加,重复步骤403,直至完成M次预测与反卷积处理,获得所述输出特征图。
8.根据权利要求7所述的基于全卷积神经网络的点云数据分类方法,其中,所述预测种类包括:机动车、行人、自行车、其他动态目标、其他静态目标与未知类型。
9.根据权利要求7所述的基于全卷积神经网络的点云数据分类方法,其中,还包括:
针对所述输出特征图进行softmax处理,获得所述输出特征图中每一个网格的概率。
10.一种电子设备,其特征在于,所述电子设备包括:
存储器,存储有可执行指令;
处理器,所述处理器运行所述存储器中的所述可执行指令,以实现权利要求1-9中任一项所述的基于全卷积神经网络的点云数据分类方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911312040.9A CN111126473A (zh) | 2019-12-18 | 2019-12-18 | 基于全卷积神经网络的点云数据分类方法及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911312040.9A CN111126473A (zh) | 2019-12-18 | 2019-12-18 | 基于全卷积神经网络的点云数据分类方法及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111126473A true CN111126473A (zh) | 2020-05-08 |
Family
ID=70499876
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911312040.9A Pending CN111126473A (zh) | 2019-12-18 | 2019-12-18 | 基于全卷积神经网络的点云数据分类方法及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111126473A (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180260636A1 (en) * | 2017-03-13 | 2018-09-13 | Baidu Online Network Technology (Beijing) Co., Ltd. | Obstacle detecting method and apparatus, device and storage medium |
CN109597087A (zh) * | 2018-11-15 | 2019-04-09 | 天津大学 | 一种基于点云数据的3d目标检测方法 |
CN109829399A (zh) * | 2019-01-18 | 2019-05-31 | 武汉大学 | 一种基于深度学习的车载道路场景点云自动分类方法 |
CN109919145A (zh) * | 2019-01-21 | 2019-06-21 | 江苏徐工工程机械研究院有限公司 | 一种基于3d点云深度学习的矿卡检测方法及系统 |
CN110264468A (zh) * | 2019-08-14 | 2019-09-20 | 长沙智能驾驶研究院有限公司 | 点云数据标注、分割模型确定、目标检测方法及相关设备 |
CN110570429A (zh) * | 2019-08-30 | 2019-12-13 | 华南理工大学 | 一种基于三维点云的轻量级实时语义分割方法 |
-
2019
- 2019-12-18 CN CN201911312040.9A patent/CN111126473A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180260636A1 (en) * | 2017-03-13 | 2018-09-13 | Baidu Online Network Technology (Beijing) Co., Ltd. | Obstacle detecting method and apparatus, device and storage medium |
CN109597087A (zh) * | 2018-11-15 | 2019-04-09 | 天津大学 | 一种基于点云数据的3d目标检测方法 |
CN109829399A (zh) * | 2019-01-18 | 2019-05-31 | 武汉大学 | 一种基于深度学习的车载道路场景点云自动分类方法 |
CN109919145A (zh) * | 2019-01-21 | 2019-06-21 | 江苏徐工工程机械研究院有限公司 | 一种基于3d点云深度学习的矿卡检测方法及系统 |
CN110264468A (zh) * | 2019-08-14 | 2019-09-20 | 长沙智能驾驶研究院有限公司 | 点云数据标注、分割模型确定、目标检测方法及相关设备 |
CN110570429A (zh) * | 2019-08-30 | 2019-12-13 | 华南理工大学 | 一种基于三维点云的轻量级实时语义分割方法 |
Non-Patent Citations (3)
Title |
---|
MOHAMMED YOUSEFHUSSIEN 等: "A multi-scale fully convolutional network for semantic labeling of 3D point clouds" * |
廖岳鹏: "基于多传感器的自动驾驶目标检测" * |
申泽邦: "面向自动驾驶的高精度地图优化和定位技术研究" * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110738207B (zh) | 一种融合文字图像中文字区域边缘信息的文字检测方法 | |
US11315253B2 (en) | Computer vision system and method | |
WO2017215622A1 (zh) | 物体分割方法及装置、计算设备 | |
CN110555433B (zh) | 图像处理方法、装置、电子设备及计算机可读存储介质 | |
DE112016004535T5 (de) | Universelles Übereinstimmungsnetz | |
WO2022134996A1 (en) | Lane line detection method based on deep learning, and apparatus | |
CN112348116B (zh) | 利用空间上下文的目标检测方法、装置和计算机设备 | |
CN115035295B (zh) | 一种基于共享卷积核和边界损失函数的遥感图像语义分割方法 | |
CN113850129A (zh) | 一种旋转等变的空间局部注意力遥感图像目标检测方法 | |
CN111461213A (zh) | 一种目标检测模型的训练方法、目标快速检测方法 | |
CN109670516B (zh) | 一种图像特征提取方法、装置、设备及可读存储介质 | |
CN116783620A (zh) | 根据点云的高效三维对象检测 | |
CN115631344B (zh) | 一种基于特征自适应聚合的目标检测方法 | |
CN115239644B (zh) | 混凝土缺陷识别方法、装置、计算机设备和存储介质 | |
CN111127516A (zh) | 无搜索框的目标检测和跟踪方法及系统 | |
CN112036400B (zh) | 构建用于目标检测的网络的方法和目标检测方法及系统 | |
JP2020528616A (ja) | 画像処理方法およびシステム、記憶媒体およびコンピューティングデバイス | |
CN110991414B (zh) | 一种交通要素高精度分割方法、电子设备及存储介质 | |
CN114519819B (zh) | 一种基于全局上下文感知的遥感图像目标检测方法 | |
CN110807463B (zh) | 图像分割方法、装置、计算机设备和存储介质 | |
CN115272691A (zh) | 一种钢筋绑扎状态检测模型的训练方法、识别方法及设备 | |
CN115995042A (zh) | 一种视频sar运动目标检测方法及装置 | |
CN113743346A (zh) | 图像识别方法、装置、电子设备及存储介质 | |
CN113435370A (zh) | 一种基于图像特征融合获取车辆排队长度的方法及装置 | |
CN112364709A (zh) | 基于编码识别的机柜智能资产盘点方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: 100176 floor 10, building 1, zone 2, yard 9, Taihe 3rd Street, Beijing Economic and Technological Development Zone, Daxing District, Beijing Applicant after: Beijing National New Energy Vehicle Technology Innovation Center Co.,Ltd. Address before: 102600 1705, block a, building 1, No. 10, Ronghua Middle Road, Beijing Economic and Technological Development Zone, Daxing District, Beijing Applicant before: BEIJING NEW ENERGY VEHICLE TECHNOLOGY INNOVATION CENTER Co.,Ltd. |
|
CB02 | Change of applicant information | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200508 |