CN116258970A - 一种融合遥感图像与点云数据的地理要素识别方法 - Google Patents
一种融合遥感图像与点云数据的地理要素识别方法 Download PDFInfo
- Publication number
- CN116258970A CN116258970A CN202310539805.2A CN202310539805A CN116258970A CN 116258970 A CN116258970 A CN 116258970A CN 202310539805 A CN202310539805 A CN 202310539805A CN 116258970 A CN116258970 A CN 116258970A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- feature
- image
- cloud data
- shared
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 67
- 230000011218 segmentation Effects 0.000 claims abstract description 135
- 238000003709 image segmentation Methods 0.000 claims abstract description 43
- 238000012549 training Methods 0.000 claims abstract description 32
- 238000002372 labelling Methods 0.000 claims abstract description 9
- 239000003086 colorant Substances 0.000 claims abstract description 5
- 230000004927 fusion Effects 0.000 claims description 75
- 238000005070 sampling Methods 0.000 claims description 42
- 230000008569 process Effects 0.000 claims description 24
- 238000004364 calculation method Methods 0.000 claims description 21
- 101001014572 Homo sapiens MARCKS-related protein Proteins 0.000 claims description 19
- 230000007704 transition Effects 0.000 claims description 15
- 238000012360 testing method Methods 0.000 claims description 14
- 238000000605 extraction Methods 0.000 claims description 9
- 238000011176 pooling Methods 0.000 claims description 9
- 238000012795 verification Methods 0.000 claims description 7
- 230000007246 mechanism Effects 0.000 claims description 6
- 102100028187 ATP-binding cassette sub-family C member 6 Human genes 0.000 claims description 5
- 101000986621 Homo sapiens ATP-binding cassette sub-family C member 6 Proteins 0.000 claims description 5
- 238000013140 knowledge distillation Methods 0.000 claims description 5
- 125000004122 cyclic group Chemical group 0.000 claims description 4
- 102100028162 ATP-binding cassette sub-family C member 3 Human genes 0.000 claims description 3
- 101000986633 Homo sapiens ATP-binding cassette sub-family C member 3 Proteins 0.000 claims description 3
- 238000012512 characterization method Methods 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims description 3
- 102100032514 MARCKS-related protein Human genes 0.000 claims 14
- 230000006870 function Effects 0.000 description 17
- 238000005516 engineering process Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 238000007781 pre-processing Methods 0.000 description 4
- 239000000654 additive Substances 0.000 description 2
- 230000000996 additive effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012876 topography Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 101100272279 Beauveria bassiana Beas gene Proteins 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种融合遥感图像与点云数据的地理要素识别方法,涉及图像数据处理的技术领域,首先采集图像数据和点云数据并进行类别标注,构建为样本数据集,再构建融合图像与点云数据的语义分割模型,提取图像数据的2D特征和点云数据的3D特征并融合得到图像和点云的分割预测值,利用样本数据集训练融合图像与点云数据的语义分割模型,最后将待识别遥感图像、待识别遥感图像对应的点云数据输入训练好的融合图像与点云数据的语义分割模型,输出图像分割结果和点云分割结果,利用不同的色彩对不同类别的点云分割结果进行标记,实现地理要素的识别,充分利用了2D图像信息的有序性以及3D点云数据的空间性,提高了地理要素的分割识别精度。
Description
技术领域
本发明涉及地理图像信息处理的技术领域,更具体地,涉及一种融合遥感图像与点云数据的地理要素识别方法。
背景技术
随着遥感技术、深度学习技术的快速发展,对地理要素的智能识别一般采用图像的语义分割算法,利用图像分割算法提取图像中的语义信息,对不同的地理要素进行标记分类,达到识别的目的。但由于图像数据缺少3D空间信息,基于图像的语义分割算法,在地理要素识别中无法识别地理要素的高度、坡度等空间信息,导致地理要素分割不完整。
随着遥感技术、深度学习技术的快速发展,为获得空间距离信息,可采用激光雷达扫描地形地貌,获得3D点云数据,对3D点云数据采用分割算法实现地理要素的识别,常用的点云分割算法有PointNet、PointNet++、PointTransformer等算法。使用点云数据的分割算法能够较好地区分地形高低、坡度,获得丰富的3D空间信息,但3D点云数据是无序的,缺少空间上的联系,使得分割算法收敛困难,分割精度较低。
现有技术公开了一种地图要素生成方法,结合了图像数据与视觉三维重建技术,通过图像获得地图要素的形状点的坐标,再通过视觉三维重建得到形状点的初始地理坐标,最后通过激光点拟合函数表达式,确定地图要素的位置点地理坐标。然而,该方案虽然结合了图像数据和三维重建技术,但无法充分融合2D图像信息的有序性以及3D信息的空间性的优势,识别精度较低。
发明内容
为解决当前地理要素识别方法无法充分利用2D图像信息的有序性以及3D点云数据的空间性,导致地理要素的分割识别精度较低的问题,本发明提供一种融合遥感图像与点云数据的地理要素识别方法,利用二维图像的有序性和三维点云的空间性,训练阶段通过投影方法将三维点云投影到对应的二维图像中,进行知识蒸馏学习,采用了多数据源融合的方式,提高了地理要素的分割识别精度。
为了达到上述技术效果,本发明的技术方案如下:
一种融合遥感图像与点云数据的地理要素识别方法,包括:
S1.采集图像数据和点云数据,对图像数据和点云数据分别进行类别标注,分别作为图像数据和点云数据的真实标签,将带有类别标注的图像数据和点云数据构建为样本数据集,将样本数据集划分为训练集、验证集、测试集;
S2.构建融合图像与点云数据的语义分割模型,融合图像与点云数据的语义分割模型包括用于提取图像数据的2D特征的2D分支2D Branch、用于提取点云数据的3D特征的3D分支3D Branch及融合结构Feature Fusion,2D分支2D Branch的输出端及3D分支3DBranch的输出端均连接融合结构Feature Fusion,融合结构Feature Fusion将2D特征和3D特征融合,利用2D特征优化3D特征,得到图像分割预测值和点云分割预测值;
S3.利用训练集对融合图像与点云数据的语义分割模型进行训练,训练过程中分别计算图像分割预测值和点云分割预测值与真实标签图之间的损失值,根据损失值调整融合图像与点云数据的语义分割模型的参数,直到融合图像与点云数据的语义分割模型收敛,然后利用验证集对训练过程中的融合图像与点云数据的语义分割模型进行评估,得出训练好的融合图像与点云数据的语义分割模型,并利用测试集测试融合图像与点云数据的语义分割模型的预测准确度;
S4.将待识别遥感图像、待识别遥感图像对应的点云数据输入训练好的融合图像与点云数据的语义分割模型,输出图像分割结果和点云分割结果;
S5.利用不同的色彩对不同类别的点云分割结果进行标记,展示分割结果,实现地理要素的识别。
本技术方案使用多数据源融合的方法,将2D图像分割结果用于辅助3D点云分割,提高了地理要素的分割识别精度。
优选地,所述2D分支2D Branch包括2D图像分割模块Fast SCNN,所述2D图像分割模块FastSCNN包括依次连接的主干网络特征编码器、双分支全局特征提取器、特征融合器;
所述双分支全局特征提取器包括两个分支:第一个分支由Bottleneck卷积块、SE注意力模块、Pyramid Pooling池化组成,提取图像数据的全局特征;第二个分支保留图像数据的原始特征信息,两个分支分别与特征融合器连接;特征融合器将全局特征提取器的两个分支的输出特征相加融合并调整通道数量,输出2D语义分割特征。
优选地,所述3D分支3D Branch包括3D点云数据分割模块PFTransformer;所述3D点云数据分割模块PFTransformer包括3D点云特征编码器Encoding和3D点云特征解码器Decoding;
所述3D点云特征编码器Encoding包括依次连接的非下采样特征编码块和四层下采样特征编码块,输出编码后的点云特征;所述3D点云特征解码器Decoding包括依次连接的非上采样特征编码块和四层上采样特征编码块,对点云特征解码后得到3D特征。
优选地,所述2D分支2D Branch还包括2D分类器2D Classfier,用于在融合结构Feature Fusion对2D特征和3D特征融合后进行分类,输出2D点云的图像语义分割预测值;
所述3D分支3D Branch还包括3D分类器3D Classfier,用于在融合结构FeatureFusion将2D特征和3D特征融合后进行分类,输出3D点云的点云语义分割预测值。
优选地,所述的融合结构Feature Fusion将2D特征和3D特征融合,其特征在于,过程如下:
3D点云数据分割模块PFTransformer输出的3D特征利用第一共享感知机Shared MLP1输出的3D共享特征/>,令/>与2D图像分割模块FastSCNN输出的2D特征/>通过Concat函数进行拼接,将拼接后的特征通过第二共享感知机Shared MLP2进行特征融合,得到融合特征/>;
将融合特征通过第三共享感知机Shared MLP3后进行Sigmoid函数计算,得到注意力权重,注意力权重与原融合的特征位置/>进行Hadamard乘积,再以残差的方式与2D特征/>按位置相加,并通过共享感知机Shared MLP组成的2D分类器2D Classfier,获得2D特征的图像语义分割预测值;/>
3D点云数据分割模块PFTransformer输出的3D特征与经过第一共享感知机Shared MLP1的得到的3D共享特征/>进行融合,再通过3D分支3D Branch的3D分类器3DClassfier,获得3D点云的点云语义分割预测值。
在此,通过知识蒸馏的方法,令3D点云数据分割模块PFTransformer学习2D图像分割模块FastSCNN的预测分布,间接使用图像数据的2D特征来优化点云数据的3D特征,让3D点云数据分割模块PFTransformer学习到图像中的更多信息。
优选地,所述非下采样特征编码块包括共享感知机Shared MLP和特征自注意力块PFTransformer Block,每一层下采样特征编码块包括下采样结构Transition Down和特征自注意力块PFTransformer Block;
所述非上采样特征解码块包括共享感知机Shared MLP和特征自注意力块PFTransformer Block,每一层上采样特征编码块包括上采样结构Transition UP和特征自注意力块PFTransformer Block。
优选地,所述特征自注意力块PFTransformer Block由n组循环结构构成,每组循环结构包含上层Shared MLP、位置与特征自注意力层PFTransformerLayer和下层SharedMLP。
优选地,所述下采样结构Transition Down基于点云特征的空间位置进行最远点采样,然后通过K近邻算法对采样点进行分组,利用共享感知机Shared MLP对每个点的组内特征进行特征提取,通过局部最大池化提取组内最大特征点,得到下采样特征;
所述上采样结构Transition UP利用共享感知机Shared MLP对输入的点云特征维度进行降维,然后根据点云特征的空间位置,使用三线性插值的方法对点云特征进行上采样,得到上采样特征。
优选地,所述位置与特征自注意力层PFTransformerLayer用于提取点云特征,过程如下:
基于欧式空间位置的自注意力机制,利用3个共享感知机Shared MLP对N个点云特征进行提取并分别记作,基于欧式空间距离对N个点云特征进行提取并分别记作/>,其中,N是点云的数量,D是点云的特征维度;使用共享感知机SharedMLP对位置特征进行编码后获得特征/>;最后计算特征/>,/>的计算表达公式如下:
基于特征空间的子注意力机制,利用3个共享感知机Shared MLP对N个点云特征进行提取并分别记作,基于欧式空间距离对N个点云特征进行提取并分别记作;使用Shared MLP对提取的点云特征进行编码后获得特征/>;最后计算特征/>,/>的计算表达公式如下:
优选地,在步骤S4中,对2D图像分割模块FastSCNN进行训练,过程如下:
对3D点云数据分割模块进行训练,过程如下:
训练3D点云数据分割模块,令3D点云数据分割模块输出的预测结果分布学习2D图像分割模块FastSCNN的预测结果分布,具体过程如下:
与现有技术相比,本发明技术方案的有益效果是:
本发明提供一种融合遥感图像与点云数据的地理要素识别方法,首先采集图像数据和点云数据并进行类别标注,构建为样本数据集,再构建融合图像与点云数据的语义分割模型,提取图像数据的2D特征和点云数据的3D特征,将2D特征和3D特征融合得到图像分割预测值和点云分割预测值,利用样本数据集训练融合图像与点云数据的语义分割模型,最后将待识别遥感图像、待识别遥感图像对应的点云数据输入训练好的融合图像与点云数据的语义分割模型,输出图像分割结果和点云分割结果,利用不同的色彩对不同类别的点云分割结果进行标记,实现地理要素的识别,充分利用了2D图像信息的有序性以及3D点云数据的空间性,提高了地理要素的分割识别精度。
附图说明
图1表示本发明实施例1中提供的融合遥感图像与点云数据的地理要素识别方法流程示意图;
图2表示本发明实施例1中提供的融合图像与点云数据的语义分割模型总结构图;
图3表示本发明实施例1中提供的2D图像分割模块Fast SCNN结构图;
图4表示本发明实施例1中提供的3D点云数据分割模块PFTransformer结构图;
图5表示本发明实施例1中提供的3D点云数据分割模块的位置与特征自注意力块PFTransformerBlock;
图6表示本发明实施例2中提供的3D点云数据分割模块的下采样结构TransitionDown和上采样结构Transition Up示意图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好地说明本实施例,附图某些部位会有省略、放大或缩小,并不代表实际尺寸;
对于本领域技术人员来说,附图中某些公知内容说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
附图中描述位置关系的仅用于示例性说明,不能理解为对本专利的限制。
实施例1 如图1所示,本实施例提供一种融合遥感图像与点云数据的地理要素识别方法,所述方法包括以下步骤:
S1.采集图像数据和点云数据,对图像数据和点云数据分别进行类别标注,分别作为图像数据和点云数据的真实标签图,将带有类别标注的图像数据和点云数据构建为样本数据集,将样本数据集划分为训练集、验证集、测试集;
在本实施例中,步骤S1还包括:对类别标注后的图像数据和点云数据进行预处理,对图像数据和点云数据进行增强处理,并在增强过程中,更新标注位置;通过像素映射对齐图像数据和点云数据;
在实际操作时,对图像数据的预处理的包括:对标注好的图像数据进行几何变换,包括翻转、旋转、裁剪、变形、缩放;对标注好的图像数据进行几何变换进行颜色变换,包括噪声、模糊、擦除、填充;再应用Mosaic数据增强方法,将多张图片进行随机裁剪、缩放后,随机排列拼接形成一张图片,丰富图像特征信息,并在增强过程中更新标注位置;
对点云数据的预处理包括:基于点云空间位置的随机缩放、扰动、平移、镜像、旋转,基于色彩的对比度调整、色彩平移、色彩随机抖动、色彩随机丢失,获得经过预处理增强后的点云数据。
S2.构建融合图像与点云数据的语义分割模型,如图2所示,融合图像与点云数据的语义分割模型包括用于提取图像数据的2D特征的2D分支2D Branch(如图2所示的虚线分支部分)、用于提取点云数据的3D特征的3D分支3D Branch(如图2所示的实线单线分支部分)及融合结构Feature Fusion(如图2所示的空心箭头指示部分),2D分支2D Branch的输出端及3D分支3D Branch的输出端均连接融合结构Feature Fusion,融合结构FeatureFusion将2D特征和3D特征融合,利用2D特征优化3D特征,得到图像分割预测值和点云分割预测值;
参见图3,所述的步骤S2中的2D分支2D Branch由2D图像分割模块Fast SCNN及2D分类器2D Classfier,其中2D图像分割模块 FastSCNN包括依次连接的主干网络特征编码器、双分支全局特征提取器、特征融合器;
如图3所示,所述主干网络特征编码器由两个DSconv卷积块组成,进行下采样操作;双分支全局特征提取器包括两个分支:第一个分支由多个Bottleneck卷积块、SE注意力模块、Pyramid Pooling池化组成,提取图像数据的全局特征,第二个分支保留图像数据的原始特征信息,两个分支分别与特征融合器连接;特征融合器由Unsample上采样、DWConv卷积块、Conv2D卷积块组成,将全局特征提取器的两个分支的输出特征相加融合并调整通道数量,输出2D语义分割特征。
如图4所示,所述的3D分支3D Branch由3D点云数据分割模块PFTransformer 和3D分类器3D Classfier组成,其中3D点云数据分割模块PFTransformer包括3D点云特征编码器Encoding和3D点云特征解码器Decoding;在本实施例中,3D点云分割模块输入6维的点云数据P,输出32维度的3D特征E3D;
所述3D点云特征编码器Encoding包括依次连接的五个编码块Encoder Block,分别为非下采样特征编码块和四层下采样特征编码块,参见图4,非下采样特征编码块包括共享感知机Shared MLP和特征自注意力块PFTransformer Block;每一个下采样特征编码块包括下采样结构Transition Down和特征自注意力块PFTransformer Block;
点云数据进入非下采样特征编码块,由共享感知机Shared MLP提取共享特征,共享特征经过特征自注意力块PFTransformer Block进行自注意力增强,然后依次输入至第一层下采样特征编码块~第四层下采样特征解码块中,由各层的下采样结构TransitionDown得到采样特征,再由特征自注意力块PFTransformer Block对采样特征进行进一步特征强化,依次完成3D点云特征编码器Encoding中第一层下采样特征编码块~第四层下采样特征解码块的特征编码,输出编码后的点云特征;
所述3D点云特征解码器Decoding包括依次连接的五个解码块Decoder Block,分别为非上采样特征编码块和四层上采样特征编码块,参见图4,非上采样特征解码块包括共享感知机Shared MLP和特征自注意力块PFTransformer Block,所述上采样特征解码块包括上采样结构Transition UP和特征自注意力块PFTransformer Block;
3D点云特征编码器Encoding输出的点云特征进入3D点云特征解码器Decoding,输入至非上采样特征编码块,首先由共享感知机Shared MLP进行特征解码,再经过特征自注意力块PFTransformer Block进行自注意力增强,增强后的点云特征依次输入至第一层上采样特征编码块~第四层上采样特征解码块中,经上采样结构Transition UP进行上采样,并融合,获得融合后的特征,然后该特征进入特征自注意力块PFTransformer Block中,由特征自注意力块PFTransformer Block进行进一步特征强化;依次完成3D点云特征解码器中Decoding中第一层上采样特征编码块~第四层上采样特征解码块的特征解码,得到3D特征;
所述特征自注意力块PFTransformer Block由n组循环结构构成,如图5所示,每组循环结构包含上层Shared MLP、位置与特征自注意力层PFTransformerLayer、下层SharedMLP和位置相加层Add,在本实施例中,第一层下采样特征编码块~第四层下采样特征解码块中的特征自注意力块PFTransformer Block的循环结构数量n分别为[2,3,3,6,4],第一层上采样特征编码块~第四层上采样特征解码块中的特征自注意力块PFTransformer Block的循环结构的数量n分别为[2,3,3,6,4];将特征自注意力块PFTransformer Block的输入特征设为,坐标为/>,经过循环结构获得输出特征/>。
如图6所示,所述下采样结构Transition Down基于点云特征的空间位置进行最远点采样(如图6所示的Farthest point sample部分),然后通过K近邻算法对采样点进行分组(如图6所示的KNN部分),利用共享感知机Shared MLP对每个点的组内特征进行特征提取,通过局部最大池化(如图6所示的Max Pooling部分)提取组内最大特征点,得到下采样特征;
如图6所示,所述上采样结构Transition UP利用共享感知机Shared MLP对输入的点云特征维度进行降维,然后根据点云特征的空间位置,使用三线性插值Trilinearinterpolation的方法对点云特征进行上采样,得到上采样特征。
所述位置与特征自注意力层PFTransformerLayer用于提取点云特征,过程如下:
基于欧式空间位置的自注意力机制,利用3个共享感知机Shared MLP对N个点云特征进行提取并分别记作,基于欧式空间距离对N个点云特征进行提取并分别记作/>,其中,N是点云的数量,D是点云的特征维度;使用共享感知机SharedMLP对位置特征进行编码后获得特征/>;最后计算特征/>,/>的计算表达公式如下:
基于特征空间的子注意力机制,利用3个共享感知机Shared MLP对N个点云特征进行提取并分别记作,基于欧式空间距离对N个点云特征进行提取并分别记作;使用Shared MLP对提取的点云特征进行编码后获得特征/>;最后计算特征/>,/>的计算表达公式如下:
利用融合结构Feature Fusion将2D特征和3D特征融合,如图3所示,过程如下:
3D点云数据分割模块PFTransformer输出的3D特征通过第一共享感知机Shared MLP1输出3D共享特征/>,令/>与2D图像分割模块FastSCNN输出的2D特征/>通过Concat函数进行拼接,将拼接后的特征通过第二共享感知机Shared MLP2进行特征融合,得到融合特征/>;
将通过第三共享感知机Shared MLP3后再进行Sigmoid函数计算得到注意力权重,注意力权重与融合特征/>进行Hadamard乘积,再以残差的方式与/>利用add函数按位置相加,并通过共享感知机Shared MLP组成的2D分类器2D Classfier,获得2D特征的图像语义分割预测值;
S3.利用训练集对融合图像与点云数据的语义分割模型进行训练,训练过程中分别计算图像分割预测值和点云分割预测值与真实标签图之间的损失值,根据损失值调整融合图像与点云数据的语义分割模型的参数,直到融合图像与点云数据的语义分割模型收敛,然后利用验证集对训练过程中的融合图像与点云数据的语义分割模型进行评估,得出训练好的融合图像与点云数据的语义分割模型,并利用测试集测试融合图像与点云数据的语义分割模型的预测准确度;
S4.将待识别遥感图像、待识别遥感图像对应的点云数据输入训练好的融合图像与点云数据的语义分割模型,输出图像分割结果和点云分割结果;
S5.利用不同的色彩对不同类别的点云分割结果进行标记,展示分割结果,实现地理要素的识别。
实施例2 在本实施例中,如图6所示,所述下采样结构Transition Down通过最远点采样FPS算法(Farthest point sample)对输入的点云特征根据空间位置分别利用欧氏空间下采样和语义特征空间下采样进行最远点采样,具体过程如下;
输入特征,坐标为/>,分别在/>个点中寻找欧式空间中距离最远的/>个点和语义特征空间中距离最远的/>个点,对每个点使用/>算法,在欧式空间和特征空间中分别寻找距离最近的K个点,分别得到的K个点组成集合/>和集合/>,对集合/>和集合/>内的每个点使用两组共享感知机Shared MLP分别集合特征进行提取;然后利用Max Pooling分别提取集合/>和集合/>的最大特征,并将两个集合的最大特征以相加的方式进行融合,得到采样点的上采样特征/>,/>的计算表达式如下:
所述上采样结构Transition UP根据点云特征的空间位置,使用三线性插值Trilinear interpolation的方法对点云特征进行上采样,并使用三线性插值的方法计算语义特征空间距离以加强同一空间中距离较远的同类物体的特征,具体过程如下:
如图6所示,上采样结构Transition UP的输入特征设为,坐标为,上采样结构Transition UP上采样前点云的数量为/>,采样后点云的数量为/>,/>、/>数量与同级的Transition Down的采样点云的数量一致,i表示/>个采样点中的第i个采样点,以/>的第i个点为中心点,在/>中使用KNN算法根据欧式距离寻找距离中心点最近的3个点,记作每个点的特征为/>,其中j=1,2,3,/>乘以欧式距离权重/>,作为的第i个点的上采样特征/>,/>的计算表达式如下:
其中,、/>表示/>个采样点的第i个点的空间坐标,/>、/>、/>表示/>中距离中心点最近的第j个点的空间坐标,参见图4和图6,将与3D点云特征编码器Encoding中同层的特征/>通过Shared MLP后得到的/>与上采样特征进行按位置相加(如图6所示的Add部分),获得输出特征/>。
实施例3 在本实施例中,对2D图像分割模块FastSCNN进行训练,过程如下:
对3D点云数据分割模块进行训练,过程如下:
训练3D点云数据分割模块,令3D点云数据分割模块输出的预测结果分布学习2D图像分割模块FastSCNN的预测结果分布,具体过程如下:
利用知识蒸馏(如图2所示的Knowledge Distillation部分)的方法,采用KL散度计算2D图像分割模块FastSCNN的预测结果分布U与3D点云数据分割模块的预测结果分布V的损失,计算公式如下:
此外,利用训练集和验证集对融合图像与点云数据的语义分割模型进行训练后,利用测试集测试融合图像与点云数据的语义分割模型的预测准确度,具体过程如下:
显然,本发明的上述实施例仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (10)
1.一种融合遥感图像与点云数据的地理要素识别方法,其特征在于,包括:
S1.采集图像数据和点云数据,对图像数据和点云数据分别进行类别标注,分别作为图像数据和点云数据的真实标签,将带有类别标注的图像数据和点云数据构建为样本数据集,将样本数据集划分为训练集、验证集、测试集;
S2.构建融合图像与点云数据的语义分割模型,融合图像与点云数据的语义分割模型包括用于提取图像数据的2D特征的2D分支2D Branch、用于提取点云数据的3D特征的3D分支3D Branch及融合结构Feature Fusion,融合结构Feature Fusion连接2D分支和3D分支,将2D特征和3D特征融合,利用2D特征优化3D特征,得到图像分割预测值和点云分割预测值;
S3.利用训练集对融合图像与点云数据的语义分割模型进行训练,训练过程中分别计算图像分割预测值和点云分割预测值与真实标签图之间的损失值,根据损失值调整融合图像与点云数据的语义分割模型的参数,直到融合图像与点云数据的语义分割模型收敛,然后利用验证集对训练过程中的融合图像与点云数据的语义分割模型进行评估,得出训练好的融合图像与点云数据的语义分割模型,并利用测试集测试融合图像与点云数据的语义分割模型的预测准确度;
S4.将待识别遥感图像、待识别遥感图像对应的点云数据输入训练好的融合图像与点云数据的语义分割模型,输出图像分割结果和点云分割结果;
S5.利用不同的色彩对不同类别的点云分割结果进行标记,展示分割结果,实现地理要素的识别。
4.根据权利要求3所述的融合遥感图像与点云数据的地理要素识别方法,其特征在于,所述2D分支2D Branch还包括2D分类器2D Classfier,用于在融合结构Feature Fusion对2D特征和3D特征融合后进行分类,输出2D点云的图像语义分割预测值;
所述3D分支3D Branch还包括3D分类器3D Classfier,用于在融合结构FeatureFusion将2D特征和3D特征融合后进行分类,输出3D点云的点云语义分割预测值。
5.根据权利要求4所述的融合遥感图像与点云数据的地理要素识别方法,其特征在于,所述的融合结构Feature Fusion将2D特征和3D特征融合,过程如下:
3D点云数据分割模块PFTransformer输出的3D特征利用第一共享感知机SharedMLP1输出的3D共享特征/>,令/>与2D图像分割模块FastSCNN输出的2D特征/>通过Concat函数进行拼接,将拼接后的特征通过第二共享感知机Shared MLP2进行特征融合,得到融合特征/>;
将融合特征通过第三共享感知机Shared MLP3后进行Sigmoid函数计算,得到注意力权重,注意力权重与原融合的特征位置/>进行Hadamard乘积,再以残差的方式与2D特征/>按位置相加,并通过共享感知机Shared MLP组成的2D分类器2D Classfier,获得2D特征的图像语义分割预测值;
6.根据权利要求3所述的融合遥感图像与点云数据的地理要素识别方法,其特征在于,所述非下采样特征编码块包括共享感知机Shared MLP和特征自注意力块PFTransformerBlock,每一层下采样特征编码块包括下采样结构Transition Down和特征自注意力块PFTransformer Block;
所述非上采样特征解码块包括共享感知机Shared MLP和特征自注意力块PFTransformer Block,每一层上采样特征编码块包括上采样结构Transition UP和特征自注意力块PFTransformer Block。
7.根据权利要求6所述的融合遥感图像与点云数据的地理要素识别方法,其特征在于,所述特征自注意力块PFTransformer Block由n组循环结构构成,每组循环结构包含上层Shared MLP、位置与特征自注意力层PFTransformerLayer和下层Shared MLP。
8.根据权利要求6所述的融合遥感图像与点云数据的地理要素识别方法,其特征在于,所述下采样结构Transition Down基于点云特征的空间位置进行最远点采样,然后通过K近邻算法对采样点进行分组,利用共享感知机Shared MLP对每个点的组内特征进行特征提取,通过局部最大池化提取组内最大特征点,得到下采样特征;
所述上采样结构Transition UP利用共享感知机Shared MLP对输入的点云特征维度进行降维,然后根据点云特征的空间位置,使用三线性插值的方法对点云特征进行上采样,得到上采样特征。
9.根据权利要求7所述的融合遥感图像与点云数据的地理要素识别方法,其特征在于,所述位置与特征自注意力层PFTransformerLayer用于提取点云特征,过程如下:
基于欧式空间位置的自注意力机制,利用3个共享感知机Shared MLP对N个点云特征进行提取并分别记作,基于欧式空间距离对N个点云特征进行提取并分别记作,其中,N是点云的数量,D是点云的特征维度;使用共享感知机SharedMLP对位置特征进行编码后获得特征/>;最后计算特征/>,/>的计算表达公式如下:
基于特征空间的子注意力机制,利用3个共享感知机Shared MLP对N个点云特征进行提取并分别记作,基于欧式空间距离对N个点云特征进行提取并分别记作;使用Shared MLP对提取的点云特征进行编码后获得特征/>;最后计算特征/>,/>的计算表达公式如下:
10.根据权利要求5所述的融合遥感图像与点云数据的地理要素识别方法,其特征在于,在步骤S4中,对2D图像分割模块FastSCNN进行训练,过程如下:
对3D点云数据分割模块进行训练,过程如下:
训练3D点云数据分割模块,令3D点云数据分割模块输出的预测结果分布学习2D图像分割模块FastSCNN的预测结果分布,具体过程如下:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310539805.2A CN116258970B (zh) | 2023-05-15 | 2023-05-15 | 一种融合遥感图像与点云数据的地理要素识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310539805.2A CN116258970B (zh) | 2023-05-15 | 2023-05-15 | 一种融合遥感图像与点云数据的地理要素识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116258970A true CN116258970A (zh) | 2023-06-13 |
CN116258970B CN116258970B (zh) | 2023-08-08 |
Family
ID=86684705
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310539805.2A Active CN116258970B (zh) | 2023-05-15 | 2023-05-15 | 一种融合遥感图像与点云数据的地理要素识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116258970B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200402300A1 (en) * | 2019-06-21 | 2020-12-24 | Harbin Institute Of Technology | Terrain modeling method that fuses geometric characteristics and mechanical charateristics, computer readable storage medium, and terrain modeling system thereof |
CN112257637A (zh) * | 2020-10-30 | 2021-01-22 | 福州大学 | 一种融合点云和多视图的车载激光点云多目标识别方法 |
CN114255238A (zh) * | 2021-11-26 | 2022-03-29 | 电子科技大学长三角研究院(湖州) | 一种融合图像特征的三维点云场景分割方法及系统 |
CN116071747A (zh) * | 2022-12-30 | 2023-05-05 | 北京理工大学 | 一种基于3d点云数据和2d图像数据融合匹配语义分割方法 |
-
2023
- 2023-05-15 CN CN202310539805.2A patent/CN116258970B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200402300A1 (en) * | 2019-06-21 | 2020-12-24 | Harbin Institute Of Technology | Terrain modeling method that fuses geometric characteristics and mechanical charateristics, computer readable storage medium, and terrain modeling system thereof |
CN112257637A (zh) * | 2020-10-30 | 2021-01-22 | 福州大学 | 一种融合点云和多视图的车载激光点云多目标识别方法 |
CN114255238A (zh) * | 2021-11-26 | 2022-03-29 | 电子科技大学长三角研究院(湖州) | 一种融合图像特征的三维点云场景分割方法及系统 |
CN116071747A (zh) * | 2022-12-30 | 2023-05-05 | 北京理工大学 | 一种基于3d点云数据和2d图像数据融合匹配语义分割方法 |
Non-Patent Citations (2)
Title |
---|
RUI ZHANG等: "Fusion of images and point clouds for the semantic segmentation of large-scale 3D scenes based on deep learning", 《ISPRS JOURNAL OF PHOTOGRAMMETRY AND REMOTE SENSING》, pages 85 - 96 * |
刘永刚等: "基于激光点云与图像融合的3D目标检测研究", 《机械工程学报》, vol. 58, no. 24, pages 289 - 299 * |
Also Published As
Publication number | Publication date |
---|---|
CN116258970B (zh) | 2023-08-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111915627B (zh) | 语义分割方法、网络、设备及计算机存储介质 | |
CN111783705B (zh) | 一种基于注意力机制的文字识别方法及系统 | |
US10353271B2 (en) | Depth estimation method for monocular image based on multi-scale CNN and continuous CRF | |
CN110738697A (zh) | 基于深度学习的单目深度估计方法 | |
CN112926396A (zh) | 一种基于双流卷积注意力的动作识别方法 | |
CN111127538B (zh) | 一种基于卷积循环编码-解码结构的多视影像三维重建方法 | |
CN115359372A (zh) | 一种基于光流网络的无人机视频运动目标检测方法 | |
CN112560831A (zh) | 一种基于多尺度空间校正的行人属性识别方法 | |
CN112561876A (zh) | 基于图像的池塘和水库的水质检测方法及系统 | |
CN115631513A (zh) | 基于Transformer的多尺度行人重识别方法 | |
CN114494786A (zh) | 一种基于多层协调卷积神经网络的细粒度图像分类方法 | |
CN116258970B (zh) | 一种融合遥感图像与点云数据的地理要素识别方法 | |
CN117011701A (zh) | 一种层次化特征自主学习的遥感图像特征提取方法 | |
CN115861948A (zh) | 车道线检测方法、设备及预警方法、系统、介质 | |
CN116137043A (zh) | 一种基于卷积和Transformer的红外图像彩色化方法 | |
CN115761268A (zh) | 一种基于局部纹理增强网络的杆塔关键部件缺陷识别方法 | |
CN114332496A (zh) | 一种静态目标分割方法和系统 | |
CN114926882A (zh) | 一种基于detr的人脸检测方法 | |
CN111931689B (zh) | 一种在线提取视频卫星数据鉴别特征的方法 | |
CN115147806A (zh) | 一种基于关键点检测车辆伪3d边界框的方法 | |
CN113627436A (zh) | 一种表面压印字符图像的无监督分割方法 | |
CN113192018A (zh) | 基于快速分割卷积神经网络的水冷壁表面缺陷视频识别方法 | |
CN118314353B (zh) | 一种基于双分支多尺度特征融合的遥感图像分割方法 | |
Adhikari et al. | Night to Day and Day to Night Image Transfer Using Generative Adversarial Network | |
CN117392392B (zh) | 一种割胶线识别与生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |